在古希臘神話中,潘多拉差一點(diǎn)就成為完美的化身。傳說中,眾神贈(zèng)予她諸般禮物,美貌、智慧、華麗的衣裝、語言的能力……她擁有世界上的一切天賦,正如今天人類正在創(chuàng)造著的人工智能一樣,它不知疲倦,有著看上去完美的理性和遠(yuǎn)遠(yuǎn)超出人類的計(jì)算能力。直到有一天,潘多拉打開了宙斯給予的魔盒,世間從此便有了災(zāi)難和禍害。

完美的人工智能目前雖僅存于人們的想象之中,但是2024年人工智能所展現(xiàn)出的能力已經(jīng)足夠令人驚嘆?;诖竽P偷纳墒饺斯ぶ悄埽徽J(rèn)為有著成為未來通用人工智能的潛力。在人工智能自然語言處理工具ChatGPT的最新模型GPT-4o中,人工智能已經(jīng)可以實(shí)時(shí)對(duì)音頻、視覺和文本進(jìn)行推理。它可以通過攝像頭看到對(duì)話者的表情,通過語氣的變化和中斷判斷對(duì)話者的情緒和指令,像人一樣實(shí)時(shí)展開對(duì)話。而在更多的應(yīng)用場(chǎng)景中,具體領(lǐng)域的人工智能已經(jīng)滲透到人類世界的諸多方面。例如自動(dòng)駕駛中的人機(jī)共駕,智能數(shù)字工廠中的設(shè)備診斷與維修、技術(shù)判斷與決策,醫(yī)療領(lǐng)域的人工智能讀圖、診療,社會(huì)治理中人工智能的自動(dòng)判斷和決策,甚至還有互聯(lián)網(wǎng)空間中的人工智能發(fā)言和討論。在不經(jīng)意間,人工智能已經(jīng)走進(jìn)了我們的生活,在我們尚未察覺到的地方發(fā)揮作用。

如何保證人工智能不會(huì)像潘多拉一樣,給人類帶來不可控制的災(zāi)難與禍患?早在20世紀(jì)40年代,這一問題就被一位叫作阿西莫夫的科幻作家提出,他還給出了一段著名的回答,即“機(jī)器人不得傷害人類,或看到人類受到傷害而袖手旁觀;機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾;機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾”。這就是著名的“機(jī)器人三原則”,它給出了人類發(fā)展人工智能的安全底線。

在阿西莫夫提出三原則后的幾十年間,雖然也有不同的科幻作家和未來學(xué)家提出補(bǔ)充的準(zhǔn)則,卻幾乎沒有嚴(yán)肅的社會(huì)科學(xué)學(xué)者對(duì)此進(jìn)行思考和研究。這恐怕與人工智能技術(shù)本身尚處在科學(xué)幻想之中,并未真實(shí)地介入人類社會(huì)生活有關(guān)。如今,當(dāng)幻想照進(jìn)現(xiàn)實(shí),科幻小說中描繪的世界正在逐步實(shí)現(xiàn),我們進(jìn)行社會(huì)學(xué)意義上的思考時(shí),不難發(fā)現(xiàn)事情遠(yuǎn)比阿西莫夫想象的復(fù)雜,“機(jī)器人三原則”并不能保證一個(gè)沒有災(zāi)難和風(fēng)險(xiǎn)的人工智能世界。

人工智能在誕生之初,就被寄予了代替人類完成智力任務(wù)乃至更多現(xiàn)實(shí)任務(wù)的期待。我們拋開人工智能的具體技術(shù),從社會(huì)道德規(guī)范的層面做一個(gè)思想實(shí)驗(yàn)。假設(shè)有兩種極端的人工智能模型。第一種是極端地遵守人類社會(huì)一切準(zhǔn)則的人工智能,例如自動(dòng)駕駛的人工智能永遠(yuǎn)不會(huì)違反交通規(guī)則,下圍棋的人工智能“阿爾法狗”永遠(yuǎn)不會(huì)違反圍棋的基本規(guī)則,我們把這樣的人工智能叫作“老實(shí)人”模型,它是這個(gè)世界上最嚴(yán)格的遵紀(jì)守法者。

這種模型似乎就是人工智能本來應(yīng)該有的樣子,理性、自律、從不違反規(guī)則。如果人工智能的工作對(duì)象僅僅是自然界還好,這時(shí)的人工智能就如同一臺(tái)忠誠的機(jī)器,不會(huì)有太大問題。但是如果其工作對(duì)象涉及人類,存在人工智能和人進(jìn)行社會(huì)互動(dòng)甚至博弈的過程,那么“老實(shí)人”特有的問題就會(huì)出現(xiàn)了。比如人工智能自動(dòng)駕駛,表面看上去是簡(jiǎn)單地開車從A點(diǎn)到B點(diǎn),但實(shí)質(zhì)上包含著人工智能和其他人類駕駛員、路上的行人之間的路權(quán)博弈,是一種社會(huì)行為。試想,一個(gè)永遠(yuǎn)不會(huì)違反任何規(guī)則的老實(shí)人,在一個(gè)充滿著制度的模糊、違規(guī)乃至欺詐的社會(huì)中,如何獨(dú)立完成任務(wù)?

于是,在當(dāng)下已經(jīng)出現(xiàn)的人工智能駕駛場(chǎng)景中,我們可以看到這樣的情形反復(fù)出現(xiàn)。在一個(gè)路口,前方有一輛違停車輛,人工智能駕駛著汽車走到車輛后面,老老實(shí)實(shí)地停下來,等待前方的車輛駛離。如果剛好相鄰車道和本車道之間是交通規(guī)則中不能越過的實(shí)線,那么人工智能就會(huì)一直等下去,永遠(yuǎn)不會(huì)繞行變道,這個(gè)路口也就幾乎永遠(yuǎn)都過不去。解決這個(gè)問題在技術(shù)上并不難,只要賦予人工智能在這一條件下違規(guī)的權(quán)利即可。但為什么很多廠家不敢讓人工智能越過實(shí)線?因?yàn)?ldquo;老實(shí)人”模型必須遵守交通規(guī)則,否則會(huì)帶來一系列不可控的風(fēng)險(xiǎn)。在另外的場(chǎng)景中,嚴(yán)格遵守交通規(guī)則的人工智能駕駛者,在面對(duì)不斷加塞、不斷違規(guī)的人類駕駛者時(shí)也只能選擇避讓,直到錯(cuò)過變道的機(jī)會(huì)或者錯(cuò)過需要拐出的路口,最后把無法處理的場(chǎng)景交給車?yán)锏娜祟愸{駛員。以上種種場(chǎng)景,在換成人類駕駛員后變得十分容易解決,就是越過實(shí)線或者違反交通規(guī)則,以達(dá)到通行的目的。

隨著人工智能在社會(huì)治理、法律等領(lǐng)域的應(yīng)用越來越多,類似的場(chǎng)景也會(huì)不斷上演。當(dāng)人工智能的博弈對(duì)象變?yōu)檎鎸?shí)的人類以后,“老實(shí)人”模型就如同一個(gè)只知道套路和規(guī)則的武林高手,盡管武藝高強(qiáng),但是它的對(duì)手卻很可能“不講武德”,完全無視規(guī)則的存在,或者巧妙地利用規(guī)則的漏洞。此時(shí),從人類的視角看,人工智能無疑是蠢笨、僵化的“木頭腦袋”,這何嘗不是社會(huì)中那些真實(shí)的“老實(shí)人”在所謂“聰明人”眼中的形象?

于是,“老實(shí)人”模型似乎難以獨(dú)立和人類進(jìn)行博弈,除非所有的社會(huì)規(guī)則都被雙方嚴(yán)格遵守,坦白地說,這種理想且理性的社會(huì)狀態(tài),只要有人的存在,就很難完全實(shí)現(xiàn)。那么,人工智能的能力僅限于此嗎?恐怕并不是,人工智能的潛在博弈能力只是被暫時(shí)地封印而已。如果揭開這一道德的封印,哪怕只是小小一角,我們就會(huì)得到一種人工智能的“潘多拉”模型。它以最優(yōu)先模仿人類行為,并且最高效完成任務(wù)為目標(biāo)。當(dāng)它僅僅以學(xué)習(xí)和模仿人類的行為為目的,通過機(jī)器學(xué)習(xí)來掌握人類行為的規(guī)律時(shí),在放松人類價(jià)值觀和既定社會(huì)規(guī)則的情況下,人工智能會(huì)爆發(fā)出可怕的完成任務(wù)的能力。早在數(shù)年前,美國(guó)亞馬遜公司在使用人工智能進(jìn)行簡(jiǎn)歷篩選時(shí),完全學(xué)習(xí)和模仿人類審查官的人工智能就被曝出潛在的種族歧視和性別歧視傾向。再以人工智能的自動(dòng)駕駛為例,在很多情況下,人類駕駛員可以借助所謂的電子狗或者實(shí)際經(jīng)驗(yàn)來判斷前方路上有沒有拍攝超速或違章的攝像頭,從而躲避違反交通規(guī)則的處罰。這件事情如果由人工智能來完成,基于大數(shù)據(jù)和傳感器探測(cè)的分析能力遠(yuǎn)比人類更強(qiáng),可以更加爐火純青地超速而不被處罰。一個(gè)同樣“不講武德”的人工智能,要比人類更輕松、更高速甚至更“安全”地在路權(quán)博弈中獲勝。

完美的算計(jì)、完美的效率、完美的執(zhí)行力,只不過最后打開了“潘多拉的盒子”,有可能帶來更大的風(fēng)險(xiǎn)和災(zāi)難。在人工智能沒有大量應(yīng)用前,就已經(jīng)有針對(duì)春運(yùn)火車票、網(wǎng)上購物的搶票算法和作弊軟件,而人工智能在這些領(lǐng)域的應(yīng)用,盡管遠(yuǎn)遠(yuǎn)達(dá)不到阿西莫夫所謂的傷害人類的程度,但也足以破壞社會(huì)的公平正義,帶來更多的潛在風(fēng)險(xiǎn)。

令人憂慮的事情在于,這種“潘多拉”模型反而更容易被人類接受,更加具備在真實(shí)而殘酷的社會(huì)環(huán)境下獨(dú)立完成工作的能力。因?yàn)樗鼘?duì)人類行為的學(xué)習(xí),不僅會(huì)學(xué)習(xí)積極的陽光的一面,也同樣會(huì)學(xué)習(xí)陽光下的陰影。而這些陰影部分,往往潛藏著社會(huì)真實(shí)運(yùn)作的潛規(guī)則和不平等邏輯。

“老實(shí)人”模型和“潘多拉”模型在現(xiàn)實(shí)的場(chǎng)景應(yīng)用中并非那樣涇渭分明,在那些稍微放松價(jià)值觀監(jiān)管的地方和悄悄違背社會(huì)規(guī)則的應(yīng)用中,我們已經(jīng)可以看到“潘多拉”人工智能的影子。在人工智能駕駛過程中,我們看到有些廠家為了提高通行效率,賦予了人工智能汽車加插隊(duì)的能力;看到了自動(dòng)駕駛汽車行駛在限速但不會(huì)被攝像頭拍到的高架匝道上時(shí),通過有意超速來提升效率的違規(guī)行為。我們也可以看到在ChatGPT產(chǎn)品發(fā)布后,人們通過特定的提示詞繞開倫理和安全規(guī)范,讓越獄版的ChatGPT成為戀愛對(duì)象的行為。以上種種人工智能的演進(jìn),都如同被眾神所創(chuàng)造的潘多拉,擁有越來越多的天賦,卻好奇地打開了魔盒的一角。

人工智能的發(fā)展,在本質(zhì)上既是一個(gè)技術(shù)問題,又是一個(gè)社會(huì)學(xué)問題。未來人工智能會(huì)成為“老實(shí)人”還是“潘多拉”,并不完全取決于計(jì)算機(jī)技術(shù)的進(jìn)步,也同樣取決于我們?nèi)绾慰创头此既斯ぶ悄芎腿祟惿鐣?huì)的關(guān)系,以及人工智能和既定社會(huì)制度之間的關(guān)系。我們還將不得不面對(duì)人工智能的新發(fā)展,做出新的有效且必要的約束,甚至在某些方面重新構(gòu)建社會(huì)的制度規(guī)則體系,以適應(yīng)人工智能行動(dòng)者介入人類生活后的世界。

【作者單位:中共中央黨校(國(guó)家行政學(xué)院)社會(huì)和生態(tài)文明教研部社會(huì)學(xué)教研室】