“AI轉變科學研究,若無適當引導將對科學完整性構成威脅”
人工智慧正在改變科學研究,但若缺乏適當引導,其可能導致的損害恐遠超於其利益。
普林斯頓大學電腦科學家阿爾文·納拉揚南和沙亞什·卡普爾領導的一個跨學科研究團隊在《科學進展》上發表了一篇新文章,強烈指出這一結論。該團隊主張,在科學各領域中,機器學習的誤用正在引發一場重現性危機,這場危機威脅到科學的基礎。
該團隊指出,機器學習已經被幾乎所有的科學領域迅速採納,但卻常常缺乏清晰的規範來確保結果的真實性和可重現性。有數千份已經出版的論文使用了有缺陷的機器學習方法。
然而,由普林斯頓領導的團隊認為,我們還有時間避免這場即將到來的危機。他們提出了一份簡單的最佳實踐檢查清單,若被廣泛採用,有可能確保機器學習在科學中的可靠性。
這份被稱為REFORMS (為基於機器學習的科學提供的建議) 的清單,涵蓋了八大關鍵領域的32個問題,其中包括研究目標、計算重現性、資料品質、資料前處理、建模、和資料洩露等。
然而,犯錯的代價可能非常巨大。錯誤的科學可能會導致有潛力的研究成果落空,打消研究者的信心,並侵蝕公眾對科學的信任。
依據過去的研究,例如《自然》以科學生成AI的學術問卷調查,表示AI在科學工作流程中深入且持續的整合是必然的。然而,53%的人認為結果可能無法重現,58%的人擔心偏見,55%的人相信AI可能會促使研究造假。
在一篇證據充足的研究中,研究人員在Frontiers期刊上發表了一篇含有荒誕的AI生成圖表的文章。這印證了同行審查可能無法捕捉到AI明顯的使用方式。
最終,如同任何工具,AI的安全性和有效性只與其背後的使用者有關。疏忽的使用,即使無意,也可能會導致科學失誤。
新的指南旨在讓堅守誠信的人繼續保持誠實,如納拉揚南所言。若普遍被研究者、審查者以及期刊採納,這將在AI時代為科學誠信設立新的標準。
然而,形成共識將是具有挑戰性的,尤其是當重現性危機仍在默默地發生。





人工智能正在改變科學研究,但如果沒有適當的指引,可能會帶來比利益更大的危害。
這是一篇由普林斯頓大學的計算機科學家Arvind Narayanan和Sayash Kapoor帶領的19位跨領域研究員團隊,在Science Advances期刊發表的新論文所得出的尖鋭結論。
這個團隊認為,機器學習在科學領域的誤用正在助長一種可靠性危機,對科學的基石產生威脅。
Narayanan說:「當我們從傳統的統計方法轉變為機器學習方法時,出錯的方式大大增加。」他同時也是普林斯頓信息技術政策中心的主管。
「如果我們不對基於機器學習的科學進行改善我們的科學標準和報告標準的干預,我們不僅冒著一個學科,而且多個科學學科陸續再次發現這些危機的風險。」
根據作者們的說法,問題在於機器學習已被幾乎每個科學領域迅速採用,但經常沒有明確的標準來確保結果的完整性和可再次產生的可能。
他們強調指出,已經發表了數千篇使用有缺陷的機器學習方法的論文。
然而,普林斯頓大學領導的團隊指出,仍有時間避免這種即將到來的危機。他們提出了一個簡單的最佳實踐清單,如果得到廣泛的採納,可以保護科學中機器學習的可靠性。
這個名為REFORMS(Machine-learning-based Science的建議)的清單,涵蓋了八個關鍵領域的32個問題:
- 研究目標:清楚說明提出的科學主張,以及如何使用機器學習支持該主張。理由選用機器學習而非傳統統計方法。
- 計算的可再現性:提供代碼、數據、計算環境規格、文件以及可供他人獨立重現研究結果的複製腳本。
- 數據質量:記錄數據源、抽樣框、結果變量、樣本大小和缺失數據的數量。確認數據集適當且能代表科學問題。
- 數據前處理:說明數據如何進行清理、轉換和劃分為訓練集和測試集。提供排除任何數據的理由。
- 建模:描述並理由選用所有嘗試的模型,選擇最終模型的方法,以及超參數調教的過程。與適當的基準進行性能比較。
- 數據洩露:確認建模過程未意外使用測試數據的信息,且輸入特徵未洩露結果。
Kapoor解釋說,「這是一個系統性的問題,需透過系統性的解決方案來對議。」
然而,搞錯的代價可能會巨大。錯誤的科學可能會壓垮有前途的研究,打擊研究人員的士氣,並搖搖公眾對科學的信任。
例如,《自然》雜志對科學中生成性AI的大規模調研等先前的研究,表明AI更深、更進步的融入到科學工作流中是不可避免的。
參與者突出指出了許多優點 – 66%的人認為AI可以加快數據處理,58%的人認為它可以增強計算能力,55%的人認為它可以節省時間和金錢。然而,53%的人覺得結果可能無法複製,58%的人擔心偏見,55%的人認為AI可能會推動偽造的研究。
當研究員在Frontiers期刊上發表一篇帶有胡說八道的AI生成圖片的文章時,我們看到了這種現象的證據 —— 一隻測試球巨大的大鼠。這雖然滑稽,但卻顯示出同儕評審可能連AI的顯而易見的使用情況都未能捕捉到。
終究如何,像所有工具一樣,人工智能的安全性和有效性同樣取決於操控它的人。即使是無意的濫用,也可能導致科學誤入歧途。
Narayanan表示,新指南的目標是保持「誠實的人保持誠實」。
如果研究人員、審查人員和期刊能廣泛採納,將能在AI世代為科學的正直設定新的標準。
然而,建立共識將是一個挑戰,尤其是當可重現性危機已經在大眾視線之外漸漸透過。
本篇文章首發於DailyAI
Princeton-led team sounds the alarm: AI poses risks to scientific integrity
(引文來源:完整新聞連結)