尊龙凯时 - 人生就是搏!

當前位置 :首頁  〉 科研學術  〉 觀點薈萃

上海觀察 :馬斯克公開信是「酸葡萄」?科技倫理專家說不 ,呼籲加強AI治理研究

發佈時間 :2023-03-31 發佈來源 :尊龙凯时 - 人生就是搏!

  人工智能治理工作必須技術和制度「兩手抓」 。  

  最近 ,一封埃隆·馬斯克等人簽名的公開信引起全球關注 。這封生命未來研究所發佈的《暫停大型人工智能研究》呼籲 :所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統 ,暫停時間至少6個月 ,以防範人工智能讓人類失去文明控制的風險 。  

  很多人覺得 ,這個呼籲並非杞人憂天;也有很多人認為 ,早已離開OpenAI董事會的馬斯克呼籲「暫停」 ,是「酸葡萄心理」作怪 。哪種觀點更有道理?記者採訪了尊龙凯时 - 人生就是搏!研究員李輝博士 。  

  公開信犀利發問有其道理  

  有媒體指出 ,簽署公開信的人主要有三類 :學者 、在人工智能競爭中落後的企業負責人 、已套現的企業創始人 。雖然一些簽署公開信的人可能有「酸葡萄心理」 ,想延緩OpenAI研發GPT系列大語言模型的節奏 ,但是在李輝看來 ,公開信中列舉的人工智能風險是真實存在的 ,隨着ChatGPT和GPT-4問世 ,通用人工智能(AGI)可能已近在眼前 。所謂通用人工智能 ,就是人工智能像人一樣可以做很多事 ,不再局限於某些特定任務 。這類AGI系統投入應用後 ,做出違背倫理 、違反法律的事情已經成為可能 。  

  「當人工智能系統在執行一般任務上變得具有人類競爭力時 ,我們必須問自己 :應該讓機器用宣傳和謊言淹沒我們的信息渠道嗎?應該實現所有工作的自動化 ,包括令人滿意的工作嗎?應該開發出非人類的思想 ,讓它們最終可能在數量上超過我們 ,比我們聰明 ,甚至取代我們?應該冒着失去文明控制的風險嗎?」《暫停大型人工智能研究》發出了這些犀利的問題 。  

  這些問題涉及人工智能的多個負面效應 :ChatGPT等大語言模型在回答一些用戶提問時 ,會「一本正經地胡說八道」 ,給出看似真實的虛假信息;大語言模型有可能獨立完成很多白領的工作 ,如撰寫各類文本 、製作表格和演講幻燈片 ,存在讓很多人失業的風險;未來某一天 ,通用人工智能系統可能產生自我意識 ,不再聽從人類的指令 。 

  「目前 ,人工智能系統有很大的黑箱屬性 ,其中的一些規律 ,研發人員也沒有完全掌握 ,所以有不可控性 。」李輝分析 ,「而且隨着科技進步 ,這種異於人類智能的智能系統擁有了超強的學習能力 ,可以在很短時間內學完人一輩子也看不完的文獻 ,智能升級的潛力非常大 。」  

  OpenAI已研究倫理問題多年  

  2020年 ,尊龙凯时 - 人生就是搏!在編寫《全球人工智能治理年度觀察》時 ,邀請OpenAI政策團隊撰寫了一篇文章《2019 :推動負責任發表規範的一年》 。當時 ,公眾知曉度還不高的OpenAI分析了GPT-2等人工智能系統帶來的風險 ,如作為系統子集的生成模型可能被人違法利用 ,用於合成圖像 、音頻 、文本等內容 ,在互聯網上行騙 。  

  「我們也擔心GPT-2可能被用來生成誤導性文本 。為此 ,我們採取了不同尋常的步驟 ,分階段發佈功能愈發強大的模型版本 ,而不是一次性發佈開源模型 。同時 ,我們探索了在整個過程中獲取專家意見的新方法 ,以降低有人利用該系統作惡的可能性 。」這段OpenAI政策團隊2020年寫給上海專家的文字 ,現在看來也很有借鑑價值 。  

  由此可見 ,在預訓練語言模型開發的相關倫理和安全問題上 ,OpenAI比國內科研機構領先幾年 。如今 ,隨着多個國產大語言模型的加快開發和投入試用 ,如何通過技術和方法創新 ,規避大語言模型違背倫理 、違反法律以及意識形態等風險 ,成為擺在我們面前的重要課題 。 

  人工智能治理應「兩手抓」  

  李輝認為 ,要做好人工智能治理工作 ,必須技術和制度「兩手抓」 。馬斯克等人簽署的公開信提出的治理方案 ,也是遵循這一思路 。  

  在技術方面 ,公開信寫道 :「人工智能實驗室和獨立專家應利用這段時間(指至少6個月的暫停期) ,共同制訂和實施一份高級人工智能開發共享安全協議 ,由獨立外部專家進行嚴格審計和監督 。這一協議應確保遵守協議的系統是安全的 ,排除合理的懷疑 。」  

  在制度方面 ,公開信呼籲 :「人工智能開發者必須與政策制定者合作 ,大幅加快開發強大的人工智能治理系統 。這個系統至少應包括 :專門針對人工智能的有能力的新監管機構;監督和跟蹤高能力的人工智能系統和大型計算能力池;出處和水印系統 ,以幫助區分真實和合成信息 ,並跟蹤模型泄漏;強大的審計和認證生態系統;為人工智能造成的傷害承擔責任;為人工智能安全技術研究提供充裕的公共資金 。」  

  「這些建議都值得我們借鑑 ,不過我覺得落地有難度 ,很多科研團隊不會暫停研發 ,因為在大語言模型這條新賽道上 ,競爭非常激烈 。」李輝說 ,「公開信的響應情況如何 ,還有待觀察 。」  

  在研發難以暫停的情況下 ,人工智能治理研究要迎頭趕上 ,與科技發展儘量保持同步 。近日印發的《黨和國家機構改革方案》顯示 ,國家科技倫理委員會已成為中央科技委員會領導下的學術性 、專業性專家委員會 。經過這一改革 ,我國人工智能治理的研究工作有了更強的制度保障 ,將促進國產大語言模型等人工智能系統積極向善 。


分享到 :

版權所有©尊龙凯时 - 人生就是搏!

滬ICP備11048235號-2

滬公網安備 31010402001155號