實時:推動AI負責任應成為社會自覺
(資料圖)
原標題:推動AI負責任應成為社會自覺
當前,AI的運用與監管備受社會關注。近日,國家網信辦就《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)向社會公開征求意見,擬進一步強化相關主體責任,內容涉及數據安全、個人信息保護、算法設計、內容合規等多個方面。
隨著ChatGPT等通用人工智能的革命性突破,AI技術已成為數字經濟時代的核心驅動力、產業轉型升級的重要支撐。AI在智慧城市、智慧醫療、智能制造、金融科技等領域的應用示范,推動社會向更高層次的智能化水平邁進,深刻改變著人們的生產生活方式。
強勁發展勢頭下,AI不可避免會遭遇“成長煩惱”。尤其是以ChatGPT為代表的生成式人工智能服務,能力不斷升級,治理難度隨之提升。AI生成的內容高度“仿真”,但往往真假難辨、虛實結合。AI有著強大的信息收集能力,但并不能保證數據收集的合法性以及海量信息不被泄露。AI自動化的文本生產模式效率極高,但屢屢出現合成他人作品、復制藝術家風格、抄襲開發代碼等版權問題。看似客觀中立無情感的AI,有時“理直氣壯”地輸出偏見歧視的內容,對社會認知和道德倫理產生負面影響。最近一段時間,利用AI技術“復活”已故親人、換臉換聲干預現實世界、無代碼編程降低黑客門檻等事件頻出,引發社會爭議。不解決這些問題,就無法在關鍵領域信任并使用AI。發展負責任且可信的人工智能技術,成為產業趨勢和社會共識。
讓AI更負責任,正是圍繞AI出臺一系列法律法規的目標所在。什么是可接受的、什么是不可接受的,對于人工智能來說,目前標準并不明確。此次把生成式人工智能服務監管提上日程,為AIGC(人工智能生成內容)產業提供了一套明確的法規框架,不僅有助于規范產業健康發展,也可以提升公眾對AIGC的理解和信任。雖然監管往往落后于新技術發展,但通過建章立制,強調風險防范、監管前置,能夠幫助人們警惕和預判挑戰,更好應對技術發展帶來的未知性和不確定性。
如何讓AI更負責任?技術是中性的,但技術研發的核心是人,不同人會對技術用途作出不同選擇。因此,強化相關主體責任,尤其是強調生成式人工智能產品提供者的責任,應被放在突出位置。現實中,一些科技公司盲目追逐商業利益,任由算法野蠻生長,內容無序輸出,道德底線頻頻失守。內容應當真實準確,采取措施防止生成虛假信息。向公眾提供服務前,應當申報安全評估。不利用生成內容損害他人形象、名譽以及其他合法權益……《征求意見稿》明確責任主體、劃出權責范圍,讓科技公司有的放矢、有章可循,倒逼上游產業鏈優化結構、達成內容互信。
為狂飆的AI套上“韁繩”,不是“踩剎車”,而是定方向,助其沿著正確軌道前行。《征求意見稿》提出,國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟件、工具、計算和數據資源,再次明確對AI產業的支持態度。政策層面已在加速建立制度“防護欄”,技術層面也要加快開發治理工具,實現技術應用全生命周期的多層次監管,比如通過科技手段識別AI生成內容,方便內容檢測、作品確權。進一步說,監管也要把握好度。約束技術“暗黑面”的同時,盡可能探索治理新路徑,創造條件引導技術向善、釋放創新潛力,防止“一管就死、一放就亂”情況在AI領域出現。
未來AI或許會像人類一樣思考,但在此之前,人們應該思考的,并不是能不能創新,而應是為什么創新、如何更好創新。想清楚這些,才能引導AI作出正確的、合乎法治倫理的決策和行動。每一個新技術的參與者、使用者、監管者,都應拉緊道德和法律的韁繩、有所為有所不為,以負責任的方式更好服務社會。從這個角度說,推動AI負責任應成為社會自覺,(韓小喬)
標簽: