中新網(wǎng)北京12月12日電 (記者 孫自法)2022人工智能合作與治理國際論壇主辦方12日通過中國科協(xié)科學(xué)技術(shù)傳播中心發(fā)布消息說,在該論壇以“人工智能治理技術(shù)”為主題的第二場主論壇上,與會專家學(xué)者重點探討如何通過技術(shù)工具來實現(xiàn)人工智能(AI)可知、可信、可控和可用;如何實現(xiàn)算法的可解釋、可控制與公平性,將倫理準則“嵌入”到人工智能產(chǎn)品與系統(tǒng)的研發(fā)設(shè)計;如何將產(chǎn)業(yè)監(jiān)管要求轉(zhuǎn)化為技術(shù)解決方案,開發(fā)針對人工智能行業(yè)或應(yīng)用的“治理技術(shù)”與服務(wù)。
![]() |
美國哥倫比亞大學(xué)常務(wù)副校長、計算機科學(xué)系教授周以真以《可信賴的人工智能》為題發(fā)表主旨演講說,正在推動的“值得信賴的人工智能”研究議程,其目的在于把人工智能社區(qū)、網(wǎng)絡(luò)安全社區(qū)和正式方法社區(qū)三個社區(qū)聚集在一起。她指出,一些人工智能系統(tǒng)可能是脆弱和不公平的,因此需要努力實現(xiàn)可信賴的人工智能??尚刨囉嬎阋馕犊煽啃?、安全性、可用性,要考慮準確性、穩(wěn)健性、公平性,通過問責(zé)制、透明度、可解釋性、道德倫理等設(shè)置人工智能執(zhí)行的任務(wù)和環(huán)境。關(guān)于如何能夠?qū)崿F(xiàn)可信賴的人工智能,她則提出一種構(gòu)建可信系統(tǒng)的事后驗證方法,即用數(shù)據(jù)模型、代碼程序來滿足人們關(guān)心的正確性屬性、安全性屬性、活性屬性等性質(zhì),并通過列舉研究問題應(yīng)用形式化方法,來嘗試實現(xiàn)人工智能系統(tǒng)的可信度。
中國工程院院士、鵬城實驗室主任、清華大學(xué)人工智能國際治理研究院學(xué)術(shù)委員高文以《新一代人工智能發(fā)展的安全問題》為題發(fā)表主旨演講指出,人工智能改變了安全格局,進一步擴大了威脅,需要從多個層面進行風(fēng)險管控。在人的層面應(yīng)加強倫理教育;在模型算法層面,期望它可信、可控、可解釋并且被正當使用;在數(shù)據(jù)層面,期望數(shù)據(jù)具有充足的系統(tǒng)防護保證其安全。強人工智能安全風(fēng)險來源于三個方面,一是模型的不可解釋性;二是算法和硬件的不可靠性;三是自主意識的不可控性,這一方面要在設(shè)計及應(yīng)用階段采取預(yù)防和檢測措施,另一方面要加強國際合作,相互取長補短,還要加強人才培養(yǎng)。對于數(shù)據(jù)安全問題,他認為隱私保護和數(shù)據(jù)有效使用是一對矛盾,需要做到平衡,鵬程實驗室所采用的“防水堡”技術(shù),對于保護模型訓(xùn)練數(shù)據(jù)安全共享和使用提供了解決思路,該技術(shù)可以做到只分享價值,不分享數(shù)據(jù),在保證原始數(shù)據(jù)不移動的情況下也能夠使數(shù)據(jù)可用。
瑞萊智慧(RealAI)公司聯(lián)合創(chuàng)始人及首席執(zhí)行官田天以《人工智能安全的實踐探索》為題發(fā)表主旨演講認為,人工智能正在進入一個從高速增長向高質(zhì)量增長轉(zhuǎn)變的新發(fā)展階段,這對人工智能的安全性和可靠性提出了更多新要求。他列舉一些已經(jīng)真實地發(fā)生在人們身邊的人工智能安全問題,比如人臉識別產(chǎn)生的安全隱患和實際損失,同時指出,并不能因噎廢食地不去使用人工智能,而是應(yīng)當進一步完善治理,讓人工智能在更安全的前提下發(fā)揮它應(yīng)有的作用。
清華大學(xué)智能產(chǎn)業(yè)研究院教授、首席研究員聶再清以《可信AI技術(shù)與應(yīng)用》為題發(fā)表主旨演講表示,安全可信是人工智能治理的核心訴求,而安全可信的人工智能技術(shù)產(chǎn)品需要具備安全可控、數(shù)據(jù)資產(chǎn)和隱私保護、可解釋性等條件。他還進一步結(jié)合智慧醫(yī)療、車路協(xié)同自動駕駛等實踐案例作詳細講解:AI安全性方面,以車路協(xié)同感知為例,講解自動駕駛領(lǐng)域如何通過多傳感器的協(xié)同感知,來提升AI協(xié)同內(nèi)部可靠性,從而提高AI安全性;數(shù)據(jù)資產(chǎn)和隱私保護方面,以多中心醫(yī)療聯(lián)邦協(xié)作科研平臺為例進行講解,并提出通過多中心的聯(lián)合協(xié)作,解決數(shù)據(jù)孤島、數(shù)據(jù)單邊樣本不足、標簽嚴重缺失等挑戰(zhàn),做到數(shù)據(jù)的可用不可見以及面向隱私保護的機器學(xué)習(xí);可解釋性方面,以面向營養(yǎng)健康管理的可解釋個性化推薦為例,提出需要“引導(dǎo)式”而非“迎合式”信息推薦,提升用戶依從性并充分考慮營養(yǎng)健康因素,避免迎合式的飲食推薦。
在本場論壇圓桌對話環(huán)節(jié),與會專家還深入探討如何通過技術(shù)創(chuàng)新應(yīng)對和解決人工智能帶來的風(fēng)險與挑戰(zhàn),并回答相關(guān)提問。(完)