“專家觀點:OpenAI不準確生成個資讓人憂、AI技術需與法制更緊密對接”

/
/
“專家觀點:OpenAI不準確生成個資讓人憂、AI技術需與法制更緊密對接”
Ai Data Generation Errors

“歐洲資料保護組織noyb控訴OpenAI違反GDPR,無法修正ChatGPT產生的錯誤資訊”

歐洲數據保護倡議組織noyb 針對OpenAI無法糾正其ChatGPT生成的不準確信息提出投訴。該團體指控OpenAI未能確保其服務處理的個人數據的準確性,違背了歐盟的一般數據保護條例(GDPR)。

從AI議題專家的角度來看,OpenAI所開發的聊天機器人ChatGPT無法對生成的不準確資訊進行修正,導致歐洲數據保護倡議團體noyb向其提出投訴,此舉不只顯示AI科技的缺陷,更對於理解和遵守歐洲一般數據保護規定(GDPR)提出質疑。GDPR的要求中包含必須確保個人資料的準確性,若資料錯誤,個人有權要求糾正,同時也有權要求獲取處理資料的信息及來源。然而,OpenAI公開宣稱無法糾正ChatGPT發生的錯誤,也無法揭示訓練模型時使用的數據來源。這呼籲我們進一步思考,AI應如何符合規範和法律來保護個人隱私與資料的準確性。

歐洲數據保護倡議組織noyb已對OpenAI提出投訴,質疑該公司無法修正ChatGPT生成的不準確信息。該組織指控OpenAI未能確保該服務處理的個人數據的準確性,違反了歐盟的一般數據保護法規(GDPR)。

noyb的數據保護律師Maartje de Graaf表示:“捏造假信息本身就已經非常棘手,但是對於個人的虛假信息,可能會帶來嚴重的後果。”

她進一步表示:“很明顯,目前的公司無法讓像ChatGPT這樣的聊天機器人在處理個人數據時遵守歐盟法律。如果系統不能產生準確透明的結果,那麼就不能用來生成關於個人的數據。科技必須遵循法律要求,而不是反過來。”

歐盟的GDPR要求個人數據必須準確,且個人有權修改不準確的數據,並有權訪問數據處理的信息以及其源頭。然而,OpenAI公開承認,它無法修正ChatGPT生成的不正確信息,或揭示用於訓練該模型的數據來源。

OpenAI指出:“在大型語言模型中實現事實準確性仍然是正在進行的研究領域。”

倡議組織引述《紐約時報》的一個報告,該報告發現像ChatGPT這樣的聊天機器人在至少3%的時間裡都會“創造信息”,並且高達27%。在對OpenAI的投訴中,noyb援引一個例子,即ChatGPT在被要求修正後,仍然為投訴者(一位公眾人物)提供了錯誤的出生日期。

noyb表示:“儘管ChatGPT提供的投訴者的出生日期不正確,OpenAI沒有接受他的修正或擦除數據的請求,理由是他們無法對數據進行更正。”

OpenAI聲明,它可以過濾或封鎖某些提示信息,例如投訴者的姓名,但這會阻擋ChatGPT處理有關該個人的所有信息。該公司還未能足夠回應投訴者的訪問請求,而GDPR要求公司必須回應這樣的請求。

de Graaf表示:“所有公司都必須遵守訪問請求的規定。很明顯,留下用於訓練數據的記錄,以至少對信息的來源有個理解是可行的。似乎在每一次‘創新’中,總有一部分公司認為它們的產品不需要遵守法律。”

歐洲的隱私監管機構已經對ChatGPT的不準確性進行了審視,其中意大利數據保護機構在2023年3月對OpenAI的數據處理實施了臨時限制,並且歐洲數據保護委員會成立了一個專門研究ChatGPT的工作組。

在投訴中,noyb要求奧地利數據保護機構調查OpenAI的數據處理和保證其大型語言模型處理的個人數據的準確性的措施。該倡議組織還要求機構命令OpenAI遵守投訴者的訪問請求,使其處理與GDPR一致,並因此對其處加罰,以確保未來的合規。

您可以在這裡 (PDF)閱讀完整的投訴

(由Eleonora Francesca Grotto攝)

另見: Igor Jablokov, Pryon:建構一個負責任的AI未來

想要更多從行業領導者那裡瞭解AI與大數據的知識嗎? 請參觀位於阿姆斯特丹、卡利福尼亞和倫敦的AI&Big Data Expo。該全面的展會還與其他領先的活動包括BlockX, Digital Transformation Week, 和 Cyber Security & Cloud Expo聯合舉辦。

探索TechForge提供的其他即將舉行的企業技術活動和網絡研討會在此

文章來源: OpenAI面臨虛構輸出的投訴 來自AI新聞

#AI議題專家的角度改寫:

專注於歐洲數據保護的倡議組織noyb近期對AI開發公司OpenAI提出了投訴,批評該公司無法修正其語言生成模型ChatGPT為出產的不準確資訊。noyb認為OpenAI在確保透過其服務處理的個人數據準確性方面的失敗,觸犯了歐盟的一般數據保護法規 (GDPR)。

研究人工智能議題的專家可能會注意到,此事件著重了語言型AI模型準確性的問題。這不只是AI產生虛構或錯誤信息的問題,進一步觸及了這些信息對個人的影響。因此,我們必須思考如何將今日的AI技術與歐洲的GDPR法規進行整合,並確保個資整體安全和尊重個人權利。

我們也應注意到即使是大型AI公司,如OpenAI也面對著虛偽生成(Factual accuracy)的挑戰,這是目前研究的一個重要議題。因此,AI技術儘管已被廣泛接納並正快速發展,我們仍然面臨許多尚需要克服的挑戰。

無論如何,所有AI應用於處理個人資訊的公司必須遵守GDPR,尤其在利用大型語言模型生成個人數據的準確性上需要嚴格處理。GDPR要求個人數據必須準確,且個人有權修改不準確的數據,並有權訪問數據處理的信息以及其源頭。這將使AI的研究,從科技本身的创新應用轉移到法規遵循,個資安全和個人權利保護議題。

隨著AI持續不斷的創新,我們需要將科技法制和人權福祉等價值觀,融入AI的科技發展中,並推動AI科技與法制的完善,才能在AI的發展路上繼續前進。

OpenAI faces complaint over fictional outputs

(引文來源:完整新聞連結