12月10日,由清華大學主辦、清華大學人工智能國際治理研究院(I-AIIG)承辦的第三屆人工智能合作與治理國際論壇舉辦。其中,第二場主論壇以“人工智能治理技術”為主題,與會專家展開熱烈討論。
主論壇II由清華大學人工智能國際治理研究院、人工智能研究院、智能產業研究院共同承辦,重點探討如何通過技術工具來實現人工智能可知、可信、可控和可用;如何實現算法的可解釋、可控制與公平性,將倫理準則“嵌入”到人工智能產品與系統的研發設計;以及如何將產業監管要求轉化為技術解決方案,開發針對人工智能行業或應用的“治理技術”與服務。
哥倫比亞大學常務副校長、計算機科學系教授周以真,中國工程院院士、鵬城實驗室主任、清華大學人工智能國際治理研究院學術委員高文,瑞萊智慧(RealAI)公司聯合創始人及首席執行官田天,清華大學智能產業研究院國強教授、首席研究員聶再清等專家出席論壇并作主旨發言,介紹人工智能研究與技術前沿進展,并通過圓桌對話深入探討如何通過技術創新應對和解決人工智能帶來的風險與挑戰。主論壇II由清華大學人工智能研究院常務副院長、歐洲科學院外籍院士孫茂松主持。
【資料圖】
周以真教授以《可信賴的人工智能》為題發表主旨演講。她介紹了正在推動的“值得信賴的人工智能”研究議程,其目的在于把人工智能社區、網絡安全社區和正式方法社區三個社區聚集在一起。她指出,一些人工智能系統可能是脆弱和不公平的,因此需要努力實現可信賴的人工智能。可信賴計算意味可靠性、安全性、可用性,要考慮準確性、穩健性、公平性,通過問責制、透明度、可解釋性、道德倫理等設置人工智能執行的任務和環境。關于如何能夠實現可信賴的人工智能,除了必要的測試、模擬、良好的軟件工程實踐之外,她提出了一種構建可信系統的事后驗證方法,即用數據模型、代碼程序來滿足我們關心的正確性屬性、安全性屬性、活性屬性等性質,并通過列舉研究問題應用形式化方法,來嘗試實現人工智能系統的可信度。她同時指出,確保人工智能系統可信性還有其它方法,比如構造正確的模型,利用有評估模型和模型檢查的統計方法等。
高文院士以《新一代人工智能發展的安全問題》為題發表主旨演講。他認為人工智能改變了安全格局,進一步擴大了威脅,需要從多個層面進行風險管控。在人的層面應加強倫理教育;在模型算法層面,期望它可信、可控、可解釋并且被正當使用;在數據層面,期望數據具有充足的系統防護保證其安全。強人工智能安全風險來源于三個方面,一是模型的不可解釋性,二是算法和硬件的不可靠性,三是自主意識的不可控性。對于這些,一方面要在設計及應用階段采取預防和檢測措施,另一方面要加強國際合作,相互取長補短,還要加強人才培養。對于數據安全問題,他認為隱私保護和數據有效使用是一對矛盾,需要做到平衡,鵬程實驗室所采用的“防水堡”技術,對于保護模型訓練數據安全共享和使用提供了解決思路,該技術可以做到只分享價值,不分享數據,在保證原始數據不移動的情況下也能夠使數據可用。
田天先生以《人工智能安全的實踐探索》為題發表主旨演講。他認為人工智能正在進入一個從高速增長向高質量增長轉變的新發展階段,這對人工智能的安全性和可靠性提出了更多新要求。他列舉了一些已經真實地發生在我們身邊的人工智能安全問題,比如人臉識別產生的安全隱患和實際損失,同時指出,我們并不能因噎廢食地不去使用人工智能,而是應當進一步完善治理,讓人工智能在更安全的前提下發揮它應有的作用。
聶再清教授以《可信AI技術與應用》為題發表主旨演講,他表示安全可信是人工智能治理的核心訴求,而安全可信的人工智能技術產品需要具備安全可控、數據資產和隱私保護、可解釋性等條件,并進一步結合智慧醫療、車路協同自動駕駛等實踐案例作了詳細講解。AI安全性方面,他以車路協同感知為例,講解了自動駕駛領域如何通過多傳感器的協同感知,來提升AI協同內部可靠性,從而提高AI安全性。在數據資產和隱私保護方面,他以多中心醫療聯邦協作科研平臺為例進行講解,并提出通過多中心的聯合協作,解決數據孤島、數據單邊樣本不足、標簽嚴重缺失等挑戰,做到數據的可用不可見以及面向隱私保護的機器學習,并強調公平和可解釋的激勵機制是多中心聯邦協作的基礎。可解釋性方面,他以面向營養健康管理的可解釋個性化推薦為例進行講述,提出需要“引導式”而非“迎合式”信息推薦,提升用戶依從性并充分考慮營養健康因素,避免迎合式的飲食推薦。
圓桌對話環節,與會專家圍繞“人工智能治理技術”問題作進一步研討,并回答了線上嘉賓的提問。
圍繞主持人提出的從技術角度或技術應用角度,怎樣才能實現人工智能技術的可用、管用乃至好用這個問題,高文院士認為,現階段很多技術在發展過程中,過早說哪個不能用可能會抑制技術本身的發展。現階段更多是從道德層面做引導,盡量把一些可能的風險抑制工具想明白。聶再清教授認為,在創新和監管之間需要平衡,一方面控制技術、工具、創新的個人有責任保證工具或將創新控制在危險可控范圍內;另一方面社會也要集體監督,確保某個出現問題的產品或技術能夠回滾、撤銷。田天先生指出,技術可解釋性需要將技術發展與應用場景深度結合,在不同領域需要不同的可解釋的能力及不同的可解釋級別,讓技術在應用場景下發揮最好的作用。
圍繞關于現階段是否有必要設計一部分可操作具體規則,特別是將倫理準則嵌入到人工智能產品與系統研發設計中的問題,田天認為,在發展的階段需要鼓勵為主,各種人工智能難免涉及到一些模糊地帶,一方面不能一棒子打死導致技術無法進步,另一方面也要設立一些紅線,制定清晰的懲罰規定確保人工智能不觸犯人類利益的基本保障。在此基礎上,給智能應用留有更多空間,鼓勵重視倫理,提供正向激勵,促進合規發展。主持人孫茂松教授認為,應鼓勵應用,鼓勵創新,在行動中及時發現問題,及時改正,及時總結經驗,使人工智能技術在應用中更好地完善和發展。
關于人類自身偏見和歧視被寫進代碼造成AI的偏見與歧視的問題,聶再清教授認為AI基于數據學習獲取知識錯誤并不是觀點歧視,而是能力不足。有可能通過引入更多的知識庫或知識圖譜能夠得到提升,不應該把這個問題過分在倫理層面去拔高,更多還是解決訓練數據問題。對未來數據隱私保護的責任可否由平臺和用戶共同承擔的問題。田天認為基于現在新興的隱私計算、區塊鏈等技術,用戶自身能夠對數據具有一定控制權。個人對于數據的擁有或對應的權利會越來越大,越來越清晰。
2022人工智能合作與治理國際論壇由清華大學主辦,人工智能國際治理研究院(I-AIIG)承辦。大會論壇以“人工智能引領韌性治理與未來科技”為主題,是繼2020年“后疫情時代的人工智能國際合作與治理”、2021年“如何構建一個平衡包容的人工智能治理體系”主題的基礎上,進一步推動全球各方在人工智能合作與治理方面的對話,旨在更加深入地探討如何構建適合人工智能健康發展的治理體系,推動建設人類命運共同體。論壇議程為兩天,設有三場主論壇、一場特別論壇、七場專題論壇,并舉行首屆北京人文論壇。