在博鰲亞洲論壇2025年年會上,AI元素成為了眾人矚目的焦點。光谷人形機器人以專業(yè)且親和的姿態(tài)擔任講解員,為來賓們詳細介紹各類信息;憨態(tài)可掬的熊貓機器人揮舞畫筆,展示出令人驚嘆的繪畫技藝;機器狗靈活地完成倒立等高難度動作,吸引了眾多目光。這些生動有趣的AI應用不僅為年會增添了科技魅力,更引發(fā)了廣泛關注,與會嘉賓圍繞人工智能的迅猛發(fā)展及其相關議題展開了熱烈討論。然而,在AI技術高歌猛進的當下,如何強化風險治理也已成為亟待解決的關鍵問題。
中國工程院院士、清華大學智能產(chǎn)業(yè)研究院院長張亞勤指出:“當前,我國人工智能行業(yè)的發(fā)展正經(jīng)歷著從生成式AI向Agent智能、從預訓練向推理、從信息智能向物理智能和具身智能的轉(zhuǎn)變。但這種快速的技術進步也伴隨著風險的顯著增加。”他進一步解釋,智能體作為具有自我規(guī)劃、學習和實踐能力的技術工具,在運行過程中可能會因路徑不可控,引發(fā)一系列未知的安全風險。
針對這一挑戰(zhàn),張亞勤提出了技術治理路徑。一方面,通過算法優(yōu)化提升AI的可控性與可信度,從技術基層增強對AI的掌控;另一方面,為人工智能設定明確的紅線和邊界,比如禁止智能體進行自我復制,嚴格遵守現(xiàn)行的應用規(guī)則和法律規(guī)定,為AI發(fā)展劃定清晰的行為準則。
在加強AI風險治理是否會阻礙其發(fā)展的問題上,中國科學院自動化研究所研究員曾毅給出了明確的否定答案。他表示:“人工智能的發(fā)展應用和安全之間并非相互掣肘的關系。提升人工智能大模型的安全能力,對其求解能力的影響微乎其微。我們團隊通過實驗,將十幾個大模型的安全性能提高了百分之二三十,結果發(fā)現(xiàn)這些模型解答問題的能力并未受到影響。”
曾毅提倡通過技術升級為人工智能建立“安全圍欄”,而這需要技術、市場、政策、倫理等多方面協(xié)同發(fā)力。他強調(diào):“必須將倫理安全作為人工智能大模型發(fā)展的基因,作為不可違背的第一性原理。”只有如此,才能在AI技術持續(xù)發(fā)展、智能體應用不斷深入的過程中,保障其穩(wěn)健前行,降低因技術擴張帶來的各類風險。
中國社會科學院大學教授、國務院原副秘書長江小涓坦言:“我對過去很多年AI治理的進展感到遺憾,相關治理原則在落地執(zhí)行方面成效有限。”她認為,這主要是由于過于泛泛地討論原則問題,卻忽視了將這些原則具體化、可操作化的重要性。2017年的阿西洛馬會議上,與會各方制定了一套確保人工智能安全有益發(fā)展的準則,涵蓋了安全性、故障透明度、價值觀一致等23條原則。江小涓指出:“阿西洛馬人工智能原則提出至今,一直被反復討論。今年2月在法國巴黎舉行的人工智能行動峰會,各國簽署的聲明依舊延續(xù)了過去提出已久的原則。實際上,如何落地、如何實踐仍是最大的挑戰(zhàn)。”
從經(jīng)濟學的角度出發(fā),江小涓探討了人工智能治理的可行性路徑。她認為,AI治理可借助自發(fā)秩序和市場機制的力量。以DeepSeek為例,其最大貢獻在于打破了AI行業(yè)的壟斷格局,使這一領域從寡頭競爭轉(zhuǎn)變?yōu)槌浞指偁幍氖袌觥T谶@樣的市場環(huán)境下,發(fā)展和安全問題能夠通過市場自發(fā)的秩序解決。
在AI技術飛速發(fā)展的今天,博鰲亞洲論壇2025年年會聚焦AI風險治理的深入討論,為未來AI發(fā)展與風險治理的平衡凝聚了各方智慧。各方需共同努力,推動AI在安全、健康的軌道上持續(xù)創(chuàng)新發(fā)展。
責任編輯: 張磊