在機(jī)器人“三大法則”的限制下,人類與機(jī)器人和諧相處,但在一起離奇的兇殺案發(fā)生后,警探調(diào)查發(fā)現(xiàn)機(jī)器人產(chǎn)生了自我意識(shí),隨時(shí)可能成為人類的“公敵”……近年來,隨著通用人工智能迅速發(fā)展,二十年前上映的電影《我,機(jī)器人》中的恐怖劇情,成為現(xiàn)實(shí)的概率正逐漸增加。但對(duì)于人工智能國際治理的具體準(zhǔn)則,國際社會(huì)仍未達(dá)成共識(shí)。
清華大學(xué)文科資深教授、國家新一代人工智能治理專業(yè)委員會(huì)主任薛瀾
2024年3月7日,中共中央政治局委員、外交部部長(zhǎng)王毅在全國兩會(huì)記者會(huì)上表示,人工智能進(jìn)入爆發(fā)式發(fā)展的關(guān)鍵階段。我們主張發(fā)展與安全并重,既要擁抱新事物新機(jī)遇,也要裝好剎車再上路,共同推進(jìn)人工智能全球治理。
實(shí)現(xiàn)人工智能全球治理難在何處?人類真的需要經(jīng)歷一場(chǎng)危機(jī)才能意識(shí)到人工智能的安全風(fēng)險(xiǎn)嗎?怎樣幫助發(fā)展中國家在人工智能發(fā)展中不掉隊(duì)?近日,就這些問題,《中國新聞周刊》專訪了清華大學(xué)文科資深教授、國家新一代人工智能治理專業(yè)委員會(huì)主任薛瀾。
分歧與共識(shí)
中國新聞周刊:過去一年來,人工智能全球治理成為國際社會(huì)的熱門話題,中美領(lǐng)導(dǎo)人舊金山會(huì)晤就此達(dá)成重要共識(shí),中國發(fā)布《全球人工智能治理倡議》,提出“確保有益,確保安全,確保公平”的基本原則。與此同時(shí),歐盟、英國等也推動(dòng)召開了多次關(guān)于人工智能議題的峰會(huì)。在此背景下,我們距離形成一個(gè)全球性的人工智能治理共識(shí)還有多遠(yuǎn)?
薛瀾:一方面,各國對(duì)人工智能全球治理的宏觀原則存在基本共識(shí)。中國、美國、歐盟提出的人工智能治理原則,都以負(fù)責(zé)、包容、平等、安全等理念為核心。但另一方面,世界各主要經(jīng)濟(jì)體還沒有進(jìn)入到就人工智能全球治理的具體措施進(jìn)行充分、深入交流的階段。各國各自出臺(tái)了人工智能國內(nèi)治理的法律或措施,但還沒有把這些規(guī)則拿到桌面上進(jìn)行對(duì)比,看看對(duì)共識(shí)性原則的理解在實(shí)踐中是否有差異、是否可以協(xié)調(diào)形成全球性規(guī)則。
關(guān)于未來可能達(dá)成的全球性共識(shí),我們首先要明確,人工智能治理有兩個(gè)核心內(nèi)容。一是發(fā)展問題,即如何構(gòu)建良好的制度規(guī)則,推動(dòng)人工智能創(chuàng)新發(fā)展,科技向善;一是安全問題,包括保證安全底線和防范其他風(fēng)險(xiǎn)。這是所有治理邏輯都必須依托的出發(fā)點(diǎn)。
在安全底線問題上,全球有明顯的共同利益。大家都擔(dān)心人工智能未來可能不受人類社會(huì)控制。所以,大家會(huì)尋找為了維護(hù)共同利益而必須遵守的規(guī)則。但在一般的社會(huì)應(yīng)用層面的風(fēng)險(xiǎn)問題上,各國對(duì)不同風(fēng)險(xiǎn)的評(píng)判不同,價(jià)值觀念不同等,會(huì)存在不同的立場(chǎng)。比如爭(zhēng)議很大的人臉識(shí)別技術(shù),有些社會(huì)反應(yīng)比較強(qiáng)烈,擔(dān)心會(huì)侵犯?jìng)€(gè)人隱私及泄露個(gè)人信息;但也有些社會(huì)感覺如果應(yīng)用恰當(dāng)并加上合理的規(guī)制,承擔(dān)一些不高的風(fēng)險(xiǎn)可以換取更加方便的社會(huì)應(yīng)用。
在發(fā)展問題上,各方的差別更大一些。以美國為例,相比中國和歐盟,美國一般來說比較強(qiáng)調(diào)自由市場(chǎng)的力量,依靠市場(chǎng)推動(dòng)科技創(chuàng)新。在人工智能發(fā)展和治理方面,態(tài)度比較寬松,沒有進(jìn)行單獨(dú)立法,而是以白宮行政令的形式要求企業(yè)遵循一系列規(guī)則。所以在人工智能規(guī)則制定方面,美國表現(xiàn)不算積極。
考慮到種種分歧,各方最終能否形成治理人工智能的全球性規(guī)則,還要打一個(gè)問號(hào)。一個(gè)可能的結(jié)果是:各國在安全底線問題上達(dá)成共識(shí)并建立機(jī)制,但在其他問題上,各國會(huì)按照各自的治理邏輯進(jìn)行規(guī)制,并在一定程度上協(xié)調(diào)。
何處停步?
中國新聞周刊:人工智能的安全問題,和歷史上新技術(shù)帶給人類的安全挑戰(zhàn)相比,有什么不同之處?歷史上是否有什么技術(shù)安全治理的經(jīng)驗(yàn)可以汲?。?
薛瀾:人類社會(huì)走到今天,在科技發(fā)展方面始終面臨著一個(gè)關(guān)鍵問題,即需要對(duì)新科技的發(fā)展進(jìn)行收益和風(fēng)險(xiǎn)的評(píng)估和權(quán)衡。有些技術(shù)固然可以幫助我們實(shí)現(xiàn)更好的生活,但也可能帶來更大的安全風(fēng)險(xiǎn),所以我們必須考慮在什么地方停步。
以生命科學(xué)領(lǐng)域的基因編輯技術(shù)為例,像賀建奎事件所體現(xiàn)的那樣,對(duì)人類基因進(jìn)行編輯改造的事情在技術(shù)上是可能的,但在其背后的倫理和社會(huì)責(zé)任問題想清楚之前,世界各國的學(xué)術(shù)共同體和醫(yī)務(wù)界都認(rèn)為這個(gè)技術(shù)不能再“向前一步”。通用人工智能技術(shù)從本質(zhì)上說也是潛在風(fēng)險(xiǎn)極高,一旦出錯(cuò)其后果可能是無法挽回的,屬于人類社會(huì)必須面對(duì)的終極技術(shù)。