神秘聊天機器人gpt2-chatbot引燃AI界熱議:GPT-4的變種,或新機器人誕生?

一款神秘的聊天機器人「gpt2-chatbot」引發了AI社區的巨大興奮與猜測。你可以在LMSys Chatbot Arena找到並親自實驗這款聊天機器人,有些用戶認為它比目前的頂尖模型如GPT-4和Claude 3 Opus更加先進。
此機器人似乎無從查證其來源,是頂尖AI實驗室的實驗項目還是意外洩露的產物?我們不得而知。Reddit用戶主要認為它來自OpenAI,因為該模型承認答案的風格和語調與GPT-4和GPT-4 Turbo有所不同,但知識的切割又與目前可獲得的OpenAI模型有所不同。
gpt2-chatbot是否真的超越了最新的GPT-4?這引發了社區中大量的議論。GPT-4在首次亮相時的性能取得了人們的普遍認同,但有消息說隨著時間的推進,其性能受到了影響,可這可能是由於OpenAI把計算資源用於訓練新的模型。因此,這款可能未受干擾的變體可能令人感覺像當初的GPT-4。再加上在某些特定任務上的性能與表現呈現出的微妙差異,賦予了公眾對它的各種猜測。有人認為它可能是GPT-4.5,GPT-5甚至是AGI的證據。然而,大多數人對於它是否真的代表了當前模型的實質性進步持懷疑態度。
從AI專家的角度看,現在的節點是,我們還無法確定是否有AI公司會以這種方式訓練一個全新的聊天機器人並將其公佈於世。這款機器人幾乎肯定是GPT-4的一種變體。最終,除非創建者走出幕後並主動聲明所有權,否則一切都將成為無法證實的傳聞。
全球AI安全峰會面臨參與者流失,AI監管挑戰日益複雜

去年首屆全球AI安全峰會在英國歷史悠久的布萊切利公園舉行,吸引了全球的目光。然而,隨著第二次為期六個月的跟進峰會的臨近,預計在5月21至22日由英國和南韓主持,並主要以網路形式進行,有跡象顯示可能會需要進行一些現實的檢查。峰會的籌備者希望能延續在布萊切利公園的動力,那裡有超過25位政府代表簽署了一份共同聲明,承諾對AI進行合作監管。而頂尖技術監管者,包括Margrethe Vestager、Thierry Breton和Vera Jourova將不會參加這次活動。
從AI專家的觀點看,也許此次6個月的網路安全峰會將反映出迄今在關鍵問題上的適度進展,但強有力的實際行動仍有待落實。雖然議會期望能延續首次峰會的熱力,但這次網路舉行的峰會的現實挑戰卻不可忽視。包括DeepMind和Mozilla在內的主要參與者選擇不參與這次集會,加上許多國家政府不參與,對峰會的影響將是重大的。另一方面,AI面臨的挑戰也變得越來越複雜,如深度偽造、環境破壞和版權等問題的實際行動需要超出空洞的宣言和虛偽的修辭。進一步的,西方與中國之間的地緣政治緊張情勢也將是談判的棘手問題。面對這些問題,我們需要進行廣泛且主觀的討論。
OpenAI與金融時報達成協議:開放新聞庫並開發AI產品,展現數據購買趨勢

金融時報正授權OpenAI使用其新聞存檔作為資料來源,這同時也展現了產生式AI公司持續尋找私人數據來源的態勢。
此次配套方案涵括ChatGPT會提供金融時報完整文章的摘要、直接引用以及超連結,這些超連結會直接連結回金融時報網站上的原始內容。
作為這項交易的一部分,OpenAI已承諾與金融時報合作開發新的AI驅動產品。金融時報是ChatGPT的企業客戶,並且已經試過使用AI,將Anthropic的Claude整合到一種名為“問金融時報”的產生式搜索工具中。
金融時報的CEO約翰·瑞丁,談到此交易時說明,“除了對金融時報的好處外,對行業也有更廣泛的影響。AI平台應該為使用出版商的材料付費,這是理所當然的。OpenAI明白透明度、歸因和補償的重要性,這些對我們來說都是必不可少的。”
雖然這是一種公正的觀點,但有些人不同意OpenAI理解透明度和歸因的重要性。
OpenAI的首席營運官Brad Lightcap也附和道:“我們與金融時報的夥伴關係和持續對話是關於尋找創新與實踐的方式,以讓AI賦權新聞組織和記者,並用實時、世界一流的新聞為全球數百萬的ChatGPT用戶提供豐富的體驗。”
儘管可以獲取金融時報的數據對OpenAI相當有價值,但其目前的數據集包含數萬億字元數的公開或開源數據。
與金融時報和其他媒體公司如Axel Springer等的協議,是因為AI公司認識到他們需要開始購買數據以應對日益增加的法律壓力。他們也深深地意識到,如果沒有新鮮、高品質的數據,他們的模型將迅速過時。
AI公司對數據的爭奪
AI中使用的數據在道德上蘊含著巨大的風險。在他們無休止的尋找數據的過程中,像OpenAI、Google和Meta這樣的科技巨頭被報導進行推動或直接跨越法律和道德界限的行為。
舉個例子,紐約時報的一項調查揭示了OpenAI開發了一個名叫Whisper的工具,用於轉錄YouTube影片的內容,儘管這可能違反了YouTube對其影片用於獨立應用的政策。
同樣地,Google和Meta也探索或實施策略來繞過或重新詮釋現有的版權和隱私法律,以收集更多數據。
其中較為陰暗的策略包括修改隱私政策,允許AI應用從如Google Docs等平台中使用公開可用的內容。
儘管AI公司現在願意支付數據,但這並不能讓他們避免在其他地方扭曲規則的情況。
美國成立AI安全委員會 預防外國利用AI對基礎設施攻擊

美國國土安全部長阿萊杭德羅·馬約爾卡斯宣布,該部已建立一個人工智能安全和保障委員會,以促進AI在美國關鍵基礎設施中的安全和穩定使用。這是應美國總統拜登的行政命令,即去年十月簽署的“安全、穩定且值得信任的開發和使用人工智能”的指示,馬約爾卡斯建立了這個委員會。
委員會的任務是研究並提出如何令關鍵基礎設施的持份者,例如管道和電網運營商、交通和互聯網服務提供商,能負責任地利用AI技術的建議。他們將著手研究維護國家利益的作法,同時以實證措施消弭可能帶來的風險。這麽做的目的是跟得上可能由具敵意的國家行為者所提出的不斷演進的威脅。
該委員會由22位高級技術行業代表組成,其中包括許多大型科技公司的CEO如:OpenAI的Sam Altman、Microsoft的Satya Nadella、Alphabet的Sundar Pichai和Anthropic的Dario Amodei。委員會的選派方式反映出政府對開源AI的看法。
馬約爾卡斯表示,他故意不邀請任何社交媒體公司的代表參加此次會議。他的這一決定是否受到他們的平台或者他們的開源AI策略的影響仍然是個問號。這同時也引發了針對開源模型相關風險的討論。而這個剛成立的AI安全委員會有望幫助國土安全部提前解決這些演變中的威脅。
高中體育總監利用AI偽造校長語音,導致校長失職

一位巴爾的摩高中的體育主任於星期四被警方逮捕,理由是據稱他利用AI製造了一段該校校長的假音頻。這一問題與我們作為AI議題專家所關注的AI造假技術有直接關係。
我們在今年1月就曾報導過這件事,當時有人爆料一段聲稱是Pikesville高中校長Eric Eiswert對教職員工和學生發表種族歧視和反猶太人言論的錄音。據報導,Eiswert在事件爆發時否認音頻的真實性,並宣稱這段音頻是AI偽造的。
這段被廣泛傳播的音頻導致Eiswert臨時失去了他的工作,直至音頻真實性被調查明白。誤將音頻視為真實的教師、學生和社區居民的反饋,讓Eiswert的生活首當其衝。
現在,專家們已經確定這段音頻確實是AI偽造的,根據這段音頻平淡的語調、缺乏一致的呼吸聲或停頓,以及異常乾淨的背景聲音等證據。據悉,該校前體育主任Dazhon Darien為報復Eiswert對他濫用學校資金的調查,製作了這段AI偽造的音頻。
Dazhon Darien已經被逮捕,並被指控干擾學校運營、盗竊、對證人進行報復和跟蹤。據控罪單指出,Darien曾在學校的電腦上使用了OpenAI工具和Microsoft Bing Chat服務。目前,利用AI偽造他人的聲音尚未被列為罪行。
我們的社會和權威機構對於AI生成問題的應對並不夠充分,尤其是當這樣的偽造可以很容易地生成。我們最好的防禦可能是先假設事情是假的,直到它們被證實為真實的。
Adobe VideoGigaGAN: AI模型將模糊視頻提高8倍清晰度

Adobe的研究人員推出了VideoGigaGAN,一種生成型人工智慧模型,能將模糊的影片提升質量,變成畫質清晰且播放流暢的影片,畫質可增強高達8倍。
優秀的圖片高清器我們已經有了一陣子,但要製作出操盤的影片提升器厄倍困難。
影片超高解析度(VSR)是一種將影片的每一幀提高解析度和細節,再將這些畫面串接起來重現影片的過程。
要做好這一點,需要解決兩個矛盾的挑戰。目前的VSR結果不是影片流暢但模糊,就是影片清晰但出現閃爍的情況。
Adobe的VideoGigaGAN能夠將模糊的影片上採樣,製作出既具有時間一貫性(畫面過渡流暢)又具有高頻細節的影片。
以下是VideoGigaGAN能做到什麼的範例。
Adobe research推出VideoGigaGAN
它可以讓您增強影片的細節,並將其放大8倍。
論文在評論中
pic.twitter.com/7uEiU7bYqw
— Kris Kashtanova (@icreatelife) 2024年4月22日
就如同名稱所示,Adobe的方法是依賴GigaGAN,一種先進的對抗生成網絡(GAN)。
GANs非常擅長於上采样圖片,而GigaGAN在圖像超解析度方面是一員翹楚。那麼為什麼不簡單地在每一幀上使用GigaGAN來提升圖像,然後將它們都結合起來製作影片呢?
當Adobe的研究人員嘗試這麼做時,他們達到了出色的影片解析度,但結果的影片在時間上不一致且閃爍。
實驗中,在GigaGAN添加了時間捲積和注意層,解決了時間不一致的問題,但閃爍仍然是一個問題。
VideoGigaGAN通過分開處理每一幀的低頻和高頻元素來解決這個問題。
用來移除可能成為噪聲和閃爍來源的高頻細節,對低頻特徵圖進行平滑處理。
利用Skip連接,細節化的高頻元件可以通過跳過模型中的中間層來保留,否則在處理過程中會遺失。
您可以閱讀Adobe的論文中更多關於技術細節的信息。
在Adobe的GitHub上的展示非常的具有說服力。 Adobe並未暗示發布日期,但讓我們期待他們盡快讓我們使用。
想像一下這種工具可以為歷史存檔影片、經典電影,甚至是將你最喜歡的舊電視節目放大提交成高清質量。
這篇文章Adobe的VideoGigaGAN將模糊影片提升到8倍的清晰度首先出現在DailyAI上。
新聞出版者控訴Microsoft和OpenAI盗用版權內容訓練AI模型

一群主要新聞出版商聯盟向微軟和OpenAI提出訴訟,控告這些科技巨頭非法使用其版權文章訓練他們的生成AI模型,而未經他們許可或收取任何費用。
據The Verge最初報導,由Alden Global Capital(AGC)擁有的八家出版物,包括芝加哥論壇報,紐約每日新聞以及奧蘭多哨兵,指控上述公司僭越使用他們的文章,不經同意,無偿使用來推動其產品如ChatGPT和Copilot的商業化。
這是最新一起針對微軟和OpenAI,因涉及非法使用版權內容來建置大型語言模型(LLMs)以驅動AI技術如ChatGPT的法律行動。在申述中,AGC出版物聲稱,這些公司的聊天機器人能在發布文章後不久,完全複製他們的文章,且並未提供明顯回連到原始來源。
這份申訴指出,此訴訟並非技術新舊之爭,也非行業繁榮化或轉型化之爭。最重要的是,此訴訟將解答社會、政治、道德和經濟等一系列由AI引發的問題。微軟和OpenAI並無權利使用版權新聞內容來建立他們數兆美元的企業,卻無需支付任何費用。
同時,原告亦控告AI模型產生”錯覺”(hallucinations),將不準確的報導歸咎於他們的出版物。他們參照了OpenAI之前的公開承認,無法在不使用版權材料的情況下訓練當今的領先AI模型會是“不可能的”。
這些指控與紐約時報於去年提出的另一訴訟相呼應。紐約時報聲稱,微軟和OpenAI幾乎使用了一整世紀的版權內容,使他們的AI能模仿其表現風格而無授權協議。
在試著摒棄紐約時報訴訟的關鍵部分時,微軟指控該報紙透過暗示生成AI可能威脅獨立新聞業進行”末日預言”。這些AGC出版物強調,現價值900億美元的OpenAI,成為了盈利公司之後,和微軟,已透過ChatGPT和Copilot ,增加了數百億美元的市值,而從未經授權的版權作品上得利。
新聞出版商正在尋求不詳確的賠償,並要求微軟和OpenAI摧毀任何使用他們版權內容的GPT和LLM模型。
本週早些時候,OpenAI與金融時報簽署了一項合法整合該報之新聞的許可夥伴關係。然而,AGC最新的訴訟,突顯出開發生成AI的科技公司和對他們的作品被未經檢查地用來訓練盈利AI系統的內容創作者之間日益增長的緊張關係。
“AI在線賭場的運用:提升安全性和客戶體驗的新視野”

AI是當下大家口中不斷提及的詞彙,無怪乎這是如此,因為AI的能力確實強大,但如果你想更深入了解AI實際在現實生活中的影響……今天我們就要去做這件事了!
我們正看到全球越來越多的努力以提升AI並充分利用這一領域具備的人才,但它對世界運作方式以及我們所看到的影響是什麼?賭場對此就是一個絕佳的例子,讓我們深入瞭解一下!
更好的安全與保障
人們通常會認為線上賭場是相當安全的,畢竟,誰會在不信任的賭場花錢呢?只要你選擇的是具有口碑的賭場來玩?你基本上不需要太擔心數據竊取或你的財務資訊安全……但仍有許多人會擔心。幸運的是,AI正在提升安全標準!
AI如何做到這點呢?其中一個AI的最大優勢在於它驚人的全時監控能力,所以在檢測問題時可以做到非常快速。如果你不確定其運作方式,它基本上監控用戶的行為模式,分析他們如何玩,記錄異常情況,追蹤反應等等,所有的這些信息意味著它會快速察覺異常情況。這意味著在識別欺詐活動方面,其速度和準確度也相當高。
賭場可以將此種技術應用到非常實際的用途上:警覺如果有個人的帳戶被黑客入侵,或者他們的行為方式異常,可能表示有問題。這最大化了安全性,並意味著他們可以在發生欺詐行為時快速阻止,使選擇使用這些網站的所有人比以往任何時候都更安全。更好的線上安全實踐?我們說:是的,我們需要!
當然,你仍應該搭配選擇有口碑的高級賭場,這樣你就知道他們在充份利用安全選項。像https://thunderpick.io/esports這樣的網站被譽為為他們的客戶提供頂級安全的遊戲,整個平台都設計得以最大化顧客的安全,這樣你在玩的時候就不用擔心其他事,可以專心享樂,而且還有機會贏得大獎!
為世界各地的玩家提高獎賞
你是否有過這種體驗:似乎有一個很棒的提議突然出現,但卻不適合你?可能是你不玩的遊戲,或者是你不能利用的時間限制?這些情況比得不到優惠還要糟糕,你會有被錯過的感覺,這既令人沮喪也令人失望。我們了解這種感覺;誰沒有過這種經驗呢?到目前為止,儘管賭場已經盡其所能避免這種情況,但它仍然會發生,因為在處理有限的數據集和人類時,避免不了這種問題。
然而,AI正在改變這種情況;能夠分析大量的數據,更能確實識別玩家何時何地需要。AI監控你的遊戲方式、你玩的時間、你選擇的遊戲、你使用的優惠等多種因素,然後將所有這些信息轉化為實際有用的東西:根據你的興趣和遊戲風格提供量身定制的優惠,你可以借此提升你的賭場樂趣。
這也對賭場有利;因為他們提供的是玩家真正需要的最優惠,所以更有可能看到忠誠的玩家,讓他們可以更好地滿足他們的需求,提升顧客滿意度。看來是雙贏的結果!
如果你是喜歡換肝腸遊戲的玩家,AI可能還能確保你獲得更好,更為個性化的優惠,使你的金錢得到最好的價值。有誰會拒絕它呢?
遊戲改進
另一個改進的地方?那就是遊戲本身:AI已經被用來改進現有遊戲,而且在創建全新遊戲的過程中,也被大量採用。我們正在看到越來越多的開發者都使用AI來提升他們所創建的遊戲,提供優化的圖像,更平衡的挑戰,提升公平性,等等。
憑藉這些工具,遊戲開發未來看起來充滿希望,隨著AI能力提升,選擇只會逐漸增加並多元化,讓真正驚人的遊戲發行成為可能。我們看到了遊戲視野上燦爛的期望!
因此,AI的潛力很明確;我們看到AI在使賭場遊戲更增添樂趣,並泡用於吸引更多玩家參與數字空間中有許多的應用。隨著線上賭場年年扩展之時,他們賺錢的努力尋找更多方式吸引並吸引比賽能不言自明,而AI提供了許多可以達成這一目標的途径。
此文章AI如何使線上賭場比以往任何時候都更安全原先發表於AI新聞網站。
“專家觀點:OpenAI不準確生成個資讓人憂、AI技術需與法制更緊密對接”

歐洲數據保護倡議組織noyb 針對OpenAI無法糾正其ChatGPT生成的不準確信息提出投訴。該團體指控OpenAI未能確保其服務處理的個人數據的準確性,違背了歐盟的一般數據保護條例(GDPR)。
從AI議題專家的角度來看,OpenAI所開發的聊天機器人ChatGPT無法對生成的不準確資訊進行修正,導致歐洲數據保護倡議團體noyb向其提出投訴,此舉不只顯示AI科技的缺陷,更對於理解和遵守歐洲一般數據保護規定(GDPR)提出質疑。GDPR的要求中包含必須確保個人資料的準確性,若資料錯誤,個人有權要求糾正,同時也有權要求獲取處理資料的信息及來源。然而,OpenAI公開宣稱無法糾正ChatGPT發生的錯誤,也無法揭示訓練模型時使用的數據來源。這呼籲我們進一步思考,AI應如何符合規範和法律來保護個人隱私與資料的準確性。