美國空軍試飛AI戰鬥機引發全球對自主武器監管的緊急討論

美國空軍秘書Frank Kendall在加州的愛德華茲空軍基地飛行了一架實驗性的AI智能化F-16戰鬥機。這架由AI控制的F-16戰鬥機,代號X-62A VISTA(可變空中模擬測試飛機),與人類駕駛的F-16進行了空中對抗。兩架飛機在時速超過550英里的情況下,相距僅有1000英尺,且進行了複雜的高速機動,試圖將對手推向弱勢。
以AI議題專家的角度來看,AI技術的進步正在重新定義現代戰爭。美國空軍秘書Frank Kendall近日在加州的愛德華茲空軍基地實驗性地駕駛一架AI智慧化的F-16戰鬥機,實際體驗AI戰機的操作。在這次實驗中,AI控制的F-16(代號為X-62A VISTA)與人類駕駛的F-16進行了高強度的空戰模擬,包括高速機動和對戰策略。這場時速超過550英里,距離僅有1000英尺的激烈對決,試圖通過高層次的戰鬥操作策略,將對手置於弱勢。
美國部長驗證AI戰機:全球關注AI武器的不可避免與監管挑戰

美國空軍秘書弗蘭克·肯德爾在加州愛德華空軍基地駕駛一架以AI為動力的實驗性F-16戰鬥機進行試飛。
此次AI控制的F-16,名為X-62A VISTA(變量飛行模擬器測試飛機),與一架由人類駕駛的F-16進行了空中對決。
兩架噴射機以超過550英里每小時的速度飛行在距少於1000英尺線的範圍內,進行複雜的高速機動並嘗試將對方逼入虛弱的位置。
肯德爾秘書親身經歷了這場長達一小時的由AI駕駛的噴射機飛行,他表達了對AI武器的必然性:「不擁有它是一種安全風險。至此,我們必須要有它。」飛行結束後,肯德爾秘書宣布他對在戰場上信任AI已經足夠。
此次試飛跟隨著該款飛機在現實空戰情況下的近期測試。
以AI議題專家的觀點,從國防角度看,人工智能(AI)在軍事領域的應用進程始終在繼續。美國空軍秘書弗蘭克·肯德爾近期親試一架F-16戰鬥機,這架戰鬥機搭載實驗性質的AI,這是一個重要的里程碑。使用人工智能控制的F-16,名為X-62A VISTA,已成功與人類駕駛的戰鬥機在空中對決。兩者在緊密的距離內,以超高速進行復雜機動。肯德爾秘書在試飛中親身經歷AI控制的噴射機,他認為AI武器的使用是必然的。他承認在試飛後,他對於AI在戰場中的運用已有充足的信任。此次試飛緊隨該架飛機在實戰中的近期測試。
人工智能自主操控武器而不需人為干預的可行性引起了不少爭議。
最近,一次專門探討应如何规範自主武器系统(AWS)中的AI使用的国际会议上,来自143个国家的参与者就此问题进行了辩论。
奧地利外交部长亚历山大·沙伦伯格警告说,世界将面临一个“Oppenheimer时刻”,指的是首颗原子弹的开发。他强调说,“让我们至少确保这个最深远和最重大的决定–谁会活下来,谁会死去–依然掌握在人类手中,而不是机器”。还有人提出,如果AI武器出现问题的话,该由谁负责?这个责任会落在制造商的身上吗?还是指挥操作的人?或者是正在按下按钮、监控设备的人?
AI不仅被用于武器制造,也被用于制定战场策略。然而,一个最近的研究发现,语言模型可能会把战争游戏逐步升级到核战争的程度。在乌克兰的战争中,无人飞机已经被双方部署,而以色列军队据说正在使用AI来识别在加沙战争中的人类目标。尽管存在这些问题,美国空军已经对于2028年前运行的超过1000架无人飞机的AI舰队有着雄心勃勃的计划。Vista声称,没有其他国家拥有像美国这样的AI战斗机,主要是指中国,因为从西方的信息中我们无法了解中国是否具备此类的武器。尽管中国的AI技术与美国大体上处于同等的水平,但是并没有迹象表明中国进行了类似的实地测试。 随着美国空军继续推动AI飞行的边界,国际社会正努力理解这可能对现代战争意味着什么。这是一个十分微妙的问题,仅仅被用作科幻片的情节,而大多数科幻片的结局对所有人来说都不怎么好。
人工智慧和VR技術的演進,探索人類古代代溝通的起源

我們的祖先曾經群聚在小而孤立的社區,他們的臉被忽閃的火光照亮。
有證據顯示,人類已在70萬年前就掌控了用於烹調和取暖的營火,但就在幾百年前,直立人已經開始形成小的社會群體。
在這個階段,我們可以觀察到聲道的變化,這表明了原始的溝通方式。
這個時期,早期人類開始將自身的狀態詮釋並分享出去,基本上建立了一種原始的世界觀,在這個世界觀裡,有存在於自我之外的人和事物。
這些早期的辦溝通和社交形式帶來的一連串變化推動了人類的演化,孕育出現代人類,也就是智人的形成與主導地位。
然而,考古學證據表明,人類直到大約20000年前才開始‘定居’,並參與日益複雜的社會和文化實踐。
早期人類所不知道的是,他們圍繞著營火的眾人所體現的僅僅是他們內心火焰的微光 – 使他們走在成為人類道路上的覺知之火。
他們更不知道,無數代之後,他們的後代將會聚集在另一種火焰邊 – 他們屏幕上明亮的電光。
故用AI議題專家的角度改寫為:
我們的祖先曾於小而孤立的社區共聚,他們的臉龐由不穩定的火光映照。
有證據指出,人類已在大約70萬年前就掌握了控制火源的技術,用於烹飪和取暖,然而在此數百年前,直立人已開始形成較小的社會群體。
在這個階段,從我們可以看見聲道的改變能夠說明出原始的溝通形式。
就在這個時期,早期人類開始向外詮釋並分享自身的內在狀態,基本上就建立了原始的世界觀,在其中有些事物和人是存在於自我之外的。
這些早期的溝通和社交形式引發了一連串的變遷,推動人類的演化,進而形塑現代人類,也就是我們所熟知的智人,成為主導。
然而,考古學的研究證據提議,不到20000年前,人類才開始“安居”,並且參與到更複雜的社會與文化實踐中。
早期人類大概無法預知,他們圍繞著營火一起的眾人們所反映出來的,其實只是他們內心深處的一個微弱火光 – 也就是使他們走上了演化為人類的道路的意識之火。
他們更無法預知,無數世代之後,他們的後代會圍繞在一種不同的火源邊 – 也就是他們螢幕上發出的耀眼光輝。
OpenAI底下聊天模型ChatGPT因產生不準確資訊面臨歐洲隱私倡議團體提訴

歐洲隱私倡導組織noyb以無法修正ChatGPT多次產生的錯誤個人資訊為由,對OpenAI提起訴訟。
儘管ChatGPT在人工智能領域取得了許多進展,但它仍有個問題——當無法回答問題時,它總會胡亂編撰答案。
一位無名的公眾人物遭遇到ChatGPT一再錯誤的產生其出生日期的問題,並由noyb代表提起訴訟。在面對出生日期的問題時,這個系統不是表示無該資訊,而是亂編一通。
雖然這問題看似小,但錯誤的個人資訊可能產生嚴重的後果,在歐洲被視為一個大問題。官方規定,公開的個人資訊必須是準確的。
如果公開的資訊不準確,個人有權要求將其修正或刪除。他們還有權知道自己的資訊從何處收集,以及在何處及如何儲存。
然而,OpenAI卻表示對以上問題無法提供任何幫助。它無法(或不願)說明是如何收集到這名公眾人物的資訊,也無法阻止ChatGPT對該人物或其他人產生不實陳述。
該公司表示,雖然可以使用過濾請求來限制有關該人的回應,但這將導致所有與他們相關的回應被擋掉。OpenAI表示,大型語言模型中的事實準確性仍是一個活躍研究的領域。
換句話說,他們知道這是個問題,但不確定如何解決。
該組織對奧地利數據保護機構(DSB)的申訴文件中,noyb指出,OpenAI明言,如果用戶詢問個人的出生日期資訊,該系統無法阻止把錯誤的出生日期顯示出來。
noyb(代表“與你無關”)表示,“隨意製造個人資訊是不可取的”,並認為OpenAI對問題的回應並不合適。
在noyb的資料保護律師瑪麗雅·德格拉夫看來,“所有公司都需要根據要求提供正確的信息。顯然有可能保存用於訓練資料,且至少了解信息來源。而每次有’創新’時,都會有一些公司認為其產品不需要遵守法律。”
OpenAI可能是這次訴訟的目標,但ChatGPT製造虛假資訊的問題也是其他模型所共有的問題。
直到AI模型能夠學會說“我不知道”,並且創建者能夠公開其訓練數據,像這種問題將會繼續發生。
歐洲用戶將需要決定,像ChatGPT這樣的工具的效益,是大於還是小於在GDPR中的權利。
就目前來看,他們無法兼顧兩者。
來源:OpenAI因虛假資訊被告,卻說問題無法修復,來自 DailyAI。
“AI新聞周報:神秘對話機器人、AI產生假音訊、自主殺人機器兵爭議”

歡迎來到這週的AI新聞周報。
這週,AI幫忙揪出了一名犯罪的體育老師。
一個神秘的聊天機器人出現,然後消失。
各國正在討論自主殺傷機器人是否為一個好主意。
讓我們深入探討。
神秘的AI
這週在LMSYS聊天機器人競技場,一個名為“gpt2-chatbot”神秘的聊天機器人出現,似乎是來自無中生有。沒有人知道是誰創建的它,但使用者報告說它的表現似乎比GPT-4更好。
它是GPT-4的第二代變體嗎?又或者它是通往GPT-5的前驅? 我們不知道。
神秘的深度增加,因為gpt2-chatbot已經被移除。 在它消失之前,Sam試用過它,並分享了其他使用者對此令人印象深刻的神秘聊天機器人的經驗。
OpenAI會提供一個可以挑戰Google的搜尋平台嗎? OpenAI最近的SSL日誌提供了這樣的暗示。
。。。(內容省略)
討論AI
這週,我有機會與TokenScope的Soheil Zabihi進行非常有趣的討論。TokenScope在其加密交易監控解決方案中使用了AI。
Soheil最近在與全球AI展同期舉行的全球區塊鏈展上作為講師參與討論。他對於區塊鏈和AI如何改變我們在線交易的方式提供了一些有趣的見解。
其他新聞…
我們這週還欣賞到了一些其他有趣的AI相關報導: 。。。(內容省略)
就這樣結束了。
你有在gpt2-chatbot被撤下之前試用過它嗎? 我在想,這個聊天機器人可能是一種暗示,OpenAI將發布一些大新聞,以抵銷Google即將來臨的I/O活動。
你認為,我們是否應該建立完全自主的AI機器人,給它們裝上槍,然後看看會發生什麼事? 還是我們應該重新觀看《終結者》和《銀翼殺手》,作為一種理性檢驗?
AI音樂的發展使我感到有些疑慮。 我很害怕我會找到一首我真正喜歡的AI生成的音樂。 我希望這些工具不要比現在更好,但這好像無可避免。
你有聽過任何已經通過了音樂圖靈測試的曲目嗎? 只要發送我們一個連接,並附帶我們可能錯過的任何有趣的AI新聞。
首篇文章發表於 DailyAI.
AI在科學研究中的誤用引起關注,專家提出改善指南

人工智慧正在改變科學研究,但若缺乏適當引導,其可能導致的損害恐遠超於其利益。
普林斯頓大學電腦科學家阿爾文·納拉揚南和沙亞什·卡普爾領導的一個跨學科研究團隊在《科學進展》上發表了一篇新文章,強烈指出這一結論。該團隊主張,在科學各領域中,機器學習的誤用正在引發一場重現性危機,這場危機威脅到科學的基礎。
該團隊指出,機器學習已經被幾乎所有的科學領域迅速採納,但卻常常缺乏清晰的規範來確保結果的真實性和可重現性。有數千份已經出版的論文使用了有缺陷的機器學習方法。
然而,由普林斯頓領導的團隊認為,我們還有時間避免這場即將到來的危機。他們提出了一份簡單的最佳實踐檢查清單,若被廣泛採用,有可能確保機器學習在科學中的可靠性。
這份被稱為REFORMS (為基於機器學習的科學提供的建議) 的清單,涵蓋了八大關鍵領域的32個問題,其中包括研究目標、計算重現性、資料品質、資料前處理、建模、和資料洩露等。
然而,犯錯的代價可能非常巨大。錯誤的科學可能會導致有潛力的研究成果落空,打消研究者的信心,並侵蝕公眾對科學的信任。
依據過去的研究,例如《自然》以科學生成AI的學術問卷調查,表示AI在科學工作流程中深入且持續的整合是必然的。然而,53%的人認為結果可能無法重現,58%的人擔心偏見,55%的人相信AI可能會促使研究造假。
在一篇證據充足的研究中,研究人員在Frontiers期刊上發表了一篇含有荒誕的AI生成圖表的文章。這印證了同行審查可能無法捕捉到AI明顯的使用方式。
最終,如同任何工具,AI的安全性和有效性只與其背後的使用者有關。疏忽的使用,即使無意,也可能會導致科學失誤。
新的指南旨在讓堅守誠信的人繼續保持誠實,如納拉揚南所言。若普遍被研究者、審查者以及期刊採納,這將在AI時代為科學誠信設立新的標準。
然而,形成共識將是具有挑戰性的,尤其是當重現性危機仍在默默地發生。
AI創造音樂衝擊實體作曲家,Spotify如何導正版權問題?

Spotify上出現的更多AI生成的音樂已經引起創作者們的擔憂,他們認為這與真實的音樂創作形成競爭。
我們現在有至少三個主要的AI工具在文本到音頻(或者,更准確地說,文本到音樂)領域:Udio、Suno和Limewire。
雖然音樂製作自20世紀80和90年代以來已大大普及化,但任何人現在都可以在幾秒鐘內製作出自然的音樂。
從那裡,只需要幾個步驟就可以將其上傳到串流平台並進行變現。
前Stability Audio團隊的領導者Ed Newton-Rex,他現在已成為了由生成型AI公司正確授權數據的堅定倡導者,他揭示了一些明顯是由AI生成,而且累積了數千次聆聽量的歌曲。
Spotify正在推薦由可能未經版權音樂許可訓練的AI模型製作的AI音樂,這位“藝術家”的月聽眾人數為24萬,頂級曲目的串流量達到了50萬次。
這搶了人類音樂家的版權收入池。
這是音樂產業所面臨的一個存在的挑戰的證據。
正如Newton-Rex指出的,由在真實音樂上訓練的工具創建的AI生成的音樂,現在與它所產生的真實音樂競爭。這反映了視覺藝術中的一個幾乎相同的情況,如MidJourney等工具,它們在未經版權持有者許可的情況下,使用大量數據進行訓練,現在直接與平面設計等行業的藝術家競爭。
然而,不是每個人都對這樣的情況表示關注。技術的民主化對藝術的演變起到了關鍵作用,尤其是在過去的幾個世紀,從上層階級的鮮花,變成了更廣大社會可以創造和參與的東西。
人們也在問:在我們的數位時代,到底什麼是”真實”的創作?
如果AI在藝術中的角色有一定的獲准,誰決定何時它變得無法接受?
人們應該對使用AI的創作者進行一種不加限制的道德判斷嗎?這是可行或有用的嗎?
然而,對許多人來說,最關鍵的是,AI公司並未為他們用來建立模型的數據付費。至少在這一點上,這似乎相當明確。
Spotify和其他串流音樂公司將指引未來
這裡最簡單的解決方案是對AI生成的音樂進行取消變現或甚至下架處理。
Spotify、唱片公司和大型藝術家對未來的影響最大。然而,採取嚴苛的措施來終止AI在音樂中的使用是不切實際的。
2023年底,Spotify備受爭議,當時Spotify報導刪除了由AI音樂生成器Boomy上傳的上萬首AI生成的歌曲。
這個決定是由於人們懷疑機器人被用來人工膨脹這些曲目的播放數,這顯示了串流服務在確保人類創作者能得到公正的報酬,同時還要對抗假流量和由機器人驅動的版權收入池操作的挑戰。
過去,Spotify取下了AI生成的歌曲 “Heart on My Sleeve”,這首歌曲未經他們的許可就使用了磯邊和The Weeknd的聲音。”Heart on My Sleeve”後來被拒絕了作為格萊美獎的候選。
在音樂中,AI有三種不同的應用:增強音樂製作的工具,模仿真實藝術家的工具(這並不支持Spotify),複雜的種類,其中AI所做成的音樂明顯受到真實藝術家的影響,但並未直接模仿他們。
隨著Suno和Udio這樣的工具改進文本到音頻技術,人們對AI對音樂工業的影響的疑慮繼續增加。
2024年4月,包括Billie Eilish, Nicki Minaj, Pearl Jam, R.E.M, Chase & Status和 Jon Bon Jovi在內的超過200位知名藝術家,發誓要正面對AI音樂,同時美國SAG-AFTRA表演者工會策劃與唱片公司談判,為藝術家預謀來自AI音樂的保護。
還有一個方式就是這些大藝術家將在AI音樂時代持有更多的權力。
他們有眼睛和誘耳可以觀察到由他們的資源創建的AI音樂,他們有奮扎可以追究訴訟,並對唱片公司有影響力。
已經有些藝術家與公司達成協議,利用他們的音樂資產變現給AI工具。T-Pain、John Legend和其他七位藝術家達成協議,將YouTube的他們的聲音作為一種短片特色,”為音樂的未來打造AI”。
所有這些中只有一個確定的東西,小型獨立音樂製作者年資比較少將在其他人之前感受到AI生成音樂的魄力。
國際專家警告AI「奧本海默時刻」,需立法規範自主武器系統

在維也納的國際會議”人類在十字路口:自主武器系統與規範挑戰”上,有人呼籲在AI還處於起步階段時,就對其在自主武器系統(AWS)中的使用進行規範。
科技的進步在歷經幾個世紀後,引發了戰爭方式的劇變。像鋼鐵、火藥,乃至原子彈等發展,其初始的應用皆在軍事用途,後來逐步走向民用。
AI在這方面卻打破了這種趨勢。最初的應用多見於商業範疇,但防禦力量卻迅速看到AI有可能再次改變戰爭的景象。
奧地利外長亞歷山大·沙倫伯格向來自143個國家的與會者表示,全世界正面臨一個”奧本海默時刻”,需要決定是否以及如何在自主武器中使用AI。
針對當前衝突中AI的使用,以及對潛在未來威脅的預期,對於規範的急迫需要日益明顯。
在兩軍對峙的烏克蘭戰爭中,兩方都正在使用自動無人機。以色列部隊在數項防禦應用中,包含在加薩戰爭中識別人類目標,都涉及到AI的使用。
沙倫伯格警告說,”自主武器系統很快將充斥全世界的戰場,”現在是”決定國際規則與規範以確保人類控制”的時刻。他呼籲我們必須限制AI武器的自主性,並表示“我們至少要確保最深遠、最具影響力的決定——誰存活,誰死亡——始終在人類手中,而非機器。”
對於這種武器,需要國際法律工具的監管,並斷言“我們有責任行動起來,確立我們需要的規則,以保護人類……在使用武力時,人類的控制必須是主導。”
將近115個聯合國會員國對於制定針對AWS的具有法律約束力的規則達成共識,不過想要避開俄羅斯、中國或美國的否決權似乎不大可能。
未來生活研究所的共同創辦人、宇宙學家Anthony Aguirre總結了目前的情況,他說“殺戮機器人的未來已經到來。”
Google DeepMind的Gecko評估標準,全面測評AI文字至圖像模型效能

Google的DeepMind發布了Gecko,一種全面評估AI文字至圖像(T2I)模型的新基準。
在過去兩年中,我們看到AI圖片生成器如DALL-E以及Midjourney隨每次版本發布而逐漸進化。
然而,決定這些平台使用哪種底層模型最好主要是主觀的,也難以基準化。
要廣泛宣稱一種模型“比另一種好”並不簡單。不同的模型擅長於生成圖像的各種方面:有的可能善於文本渲染,而有的可能在對象互動上更佳。
T2I模型面臨的一個重要挑戰是要能精確地反映出提示中的每一個細節,並在生成的圖像中準確地呈現出來。
在Gecko的研發過程中,DeepMind的研究員們創建了一個基準,以評估T2I模型的能力,並以類似於人類的方式進行。
技能集
研究人員首先確定了一組與生成T2I相關的全面技能數據集,包括空間理解、動作識別、文本渲染等等,並將這些技能進一步細分為更具體的子技能。
例如,在文本渲染方面,子技而可能包括渲染不同字體、顏色或文字大小等項目。
之後再利用語言模型生成提示來測試T2I模型在特定技能或子技能上的表現。
這使得T2I模型的創作者不僅可以標識出哪些技能具有挑戰性,還可以確定一項技能變得具有挑戰性的複雜程度。
人工評估vs自動評估
Gecko還能測量T2I模型遵循提示中所有細節的準確性。同樣地,語言模型被用來分離每個輸入提示中的關鍵細節,並生成一組與這些細節相關的問題。
這些問題可以是關於圖像中可見元素的簡單、直接問題(例如,“圖像中是否有一隻貓?”),也可以是測試理解場景或物體關係的更複雜問題(例如,“貓是否坐在書的上方?”)。
然後一個視覺問題回答(VQA)模型便分析生成的圖像並回答問題,以查看T2I模型的輸出圖像與輸入提示如何對齊。
根據人工評估的結果作為黃金標準,研究人員確認他們的自動評估指標“與人類評分在我們的新數據集上的關聯性超過了現有的指標”。
結果是一套能夠實際評數生成圖像質量好壞的基準系統。
實質上,Gecko是根據我們憑直覺判斷生成圖像是否令人滿意的方式對輸出圖像進行評分。
那麼,最好的文字到圖像模型是什麼呢?
研究人員在他們的論文中總結,Google的Muse模型在Gecko基準測試中超越了Stable Diffusion 1.5 和SDXL。雖然可能存在偏見,但數字是無法造假的。