近年來,人工智能技術(shù)獲得了突飛猛進(jìn)的發(fā)展,迅速從一種未來科技走進(jìn)了現(xiàn)實(shí)的生產(chǎn)生活。人工智能的發(fā)展,讓歷次科技革命和產(chǎn)業(yè)變革所積蓄的巨大能量得到釋放,為經(jīng)濟(jì)增長提供了新引擎,使社會(huì)生產(chǎn)力獲得了極大的提升。但與此同時(shí),作為一種新事物,它也和既有規(guī)則產(chǎn)生了很多沖突,從而造成了倫理方面的問題。

從總體上講,現(xiàn)階段的人工智能還處于“弱人工智能”階段,它的載體主要是各種形式的算法,因此現(xiàn)階段人工智能帶來的倫理沖突也主要集中在算法倫理方面。

算法造成的問題,誰來“背鍋”?

2010年5月6日下午兩點(diǎn)左右,美國的股市交易員們像往常一樣盯著電腦屏幕。突然,他們發(fā)現(xiàn)道瓊斯指數(shù)發(fā)生了異動(dòng),從平緩波動(dòng)瞬間一路下跌。短短幾分鐘,指數(shù)就下跌了1000多點(diǎn),超過一萬億美元的資產(chǎn)瞬間灰飛煙滅。究竟是什么導(dǎo)致了這一切?是突發(fā)的危機(jī),還是美聯(lián)儲的貨幣政策變化?都不是。造成這一切的只是算法!

在美國金融市場上,利用人工智能算法進(jìn)行高頻投資十分尋常。為了迅速捕捉市場機(jī)會(huì),很多機(jī)構(gòu)都編制了相關(guān)投資程序。在這些程序中,有一條規(guī)則通常會(huì)被寫入,那就是在遭遇市場異動(dòng)時(shí),要緊急拋出手中的股票以及時(shí)止損。這個(gè)規(guī)則本來是用于保障投資安全的,卻意外成為引發(fā)股市暴跌的導(dǎo)火索。當(dāng)天下午,一家公司提交了一份數(shù)額較大的賣單。正巧,當(dāng)時(shí)的市場上沒有足夠買家來接這筆賣單。供大于求,這給市場發(fā)出了一個(gè)下行的信號。如果在傳統(tǒng)的股票市場,這根本算不了什么,不久之后市場就會(huì)自動(dòng)調(diào)節(jié)過來。但在高度依賴算法的市場,情況就不同了。無數(shù)金融機(jī)構(gòu)的交易程序都監(jiān)控到了這個(gè)下行的信號,并迅速自動(dòng)啟動(dòng)了拋售止損的機(jī)制。這樣一來,一個(gè)小事件迅速演變成了一場血淋淋的大擠兌。

在人工智能時(shí)代,越來越多的決策權(quán)被交給了算法。但算法本身并不是完美無缺的,由于設(shè)計(jì)上的漏洞,它們也會(huì)犯錯(cuò)誤。可以預(yù)言,這場股市的暴跌絕不會(huì)是算法帶來的最后一次重大事故。當(dāng)面臨這種問題時(shí),究竟誰才應(yīng)該負(fù)責(zé),是算法的設(shè)計(jì)者、使用者,還是算法本身?這是一個(gè)頗為值得探討的問題。

如何看待算法帶來的分配效應(yīng)?

2017年12月的一天,一位網(wǎng)友在微博上吐槽說,自己經(jīng)常通過某著名旅行網(wǎng)站預(yù)訂一家出差住的酒店,價(jià)格長年都在380—400元之間。在一次辦理入住時(shí),他意外了解到該酒店的淡季房費(fèi)在300元左右。他用朋友的手機(jī)一查,果然是300元。于是,他懷疑作為一名老用戶,自己被旅行網(wǎng)站大數(shù)據(jù)“殺熟”了。

該吐槽帖一發(fā)出,就引發(fā)了強(qiáng)烈共鳴,很多網(wǎng)友都表示自己有過同樣的經(jīng)歷。后來,北京市消費(fèi)者協(xié)會(huì)對“殺熟”問題進(jìn)行了一次在線調(diào)查,結(jié)果顯示,88.32%的被調(diào)查者認(rèn)為大數(shù)據(jù)“殺熟”現(xiàn)象普遍或很普遍,認(rèn)為一般或不普遍的被調(diào)查者僅占11.68%,56.92%的被調(diào)查者表示有過被大數(shù)據(jù)“殺熟”的經(jīng)歷。從被調(diào)查者經(jīng)歷過的大數(shù)據(jù)“殺熟”手機(jī)軟件或網(wǎng)站的類別看,購物類占44.14%,在線旅游類占39.5%,打車類占37.17%。此外,外賣類、視頻類、電影類手機(jī)軟件也被反映存在不同程度的大數(shù)據(jù)“殺熟”現(xiàn)象。

從本質(zhì)上講,算法“殺熟”是經(jīng)濟(jì)學(xué)中價(jià)格歧視的一種體現(xiàn)。如果大家對經(jīng)濟(jì)學(xué)有一定了解,就會(huì)知道從社會(huì)整體的角度看,價(jià)格歧視本身是有效率的——它可以促進(jìn)更多的交易,實(shí)現(xiàn)更多的社會(huì)總剩余。然而與此同時(shí),并不是所有人都能從這個(gè)過程中獲得同樣的好處。經(jīng)濟(jì)學(xué)理論分析表明,企業(yè)通過“殺熟”可以獲取更多利潤,未被“殺熟”的消費(fèi)者也能由此獲得更高的效用,但被“殺熟”的消費(fèi)者則會(huì)被剝奪大量的消費(fèi)者剩余,其福利會(huì)受到很大損害。像這種在總體上促進(jìn)社會(huì)效率的同時(shí)產(chǎn)生分配效果,導(dǎo)致有人得、有人失,有人得到多、有人得到少的情況,應(yīng)該怎么評價(jià)?其爭議目前依然十分激烈。

算法給你想要的,還是給你應(yīng)該要的?

電影《黑客帝國》中有一個(gè)場景:人類的身體被人工智能圈養(yǎng),但人們的思想?yún)s生活在人工智能編制的虛擬世界中。現(xiàn)在的人工智能當(dāng)然還沒有發(fā)展到能夠奴役人類、圈養(yǎng)人類的地步,然而它編制的虛擬世界卻已經(jīng)開始占據(jù)人們的心靈。

如今,企業(yè)通過算法已經(jīng)很容易知道用戶需要什么。為了吸引用戶的注意,再從注意力背后獲得豐厚的經(jīng)濟(jì)利益,很多企業(yè)都選擇向用戶推送他們想要的東西,借此把他們束縛在自己的手機(jī)軟件上。這樣一來,人們在這些手機(jī)軟件中看到的,就只是一個(gè)自己喜歡的世界,而不是真實(shí)的世界。人們現(xiàn)在會(huì)花越來越多的時(shí)間刷頭條、刷抖音,然而事實(shí)上他們得到的信息卻越來越少。久而久之,就會(huì)被封閉在一個(gè)“信息繭房”之中。

關(guān)于“算法應(yīng)該給你想要的,還是給你應(yīng)該要的”這個(gè)問題,存在不少爭議。一種觀點(diǎn)是,算法本身是中立的,不應(yīng)該有價(jià)值觀,一種好的算法就應(yīng)該給用戶提供自己最想要的。而另一種觀點(diǎn)則認(rèn)為,算法本身也應(yīng)該秉承價(jià)值觀,除了迎合人們的需要外,還應(yīng)該引導(dǎo)人們的思想。目前,這個(gè)爭論還沒有結(jié)果,或許在未來很長一段時(shí)間內(nèi),這種爭論都還會(huì)繼續(xù)下去。

該不該用算法來預(yù)防犯罪?

著名導(dǎo)演斯皮爾伯格曾執(zhí)導(dǎo)過一部電影,叫作《少數(shù)派報(bào)告》。在這部電影中,人類利用具有感知未來的超能力人——“先知”來偵查人的犯罪企圖,可以在嫌疑人實(shí)施犯罪之前將其拘捕。

今天,《少數(shù)派報(bào)告》所描繪的圖景正在變?yōu)楝F(xiàn)實(shí)。雖然電影中的先知并不存在,但借助于網(wǎng)絡(luò)、攝像頭和無人機(jī),警方已可以輕易地對人們的各種信息和行為特征了如指掌。在此基礎(chǔ)上,他們可以借助人工智能對人們的行為進(jìn)行監(jiān)測,在犯罪發(fā)生之前進(jìn)行預(yù)判。例如,當(dāng)攝像頭觀測到有人鬼鬼祟祟地在一條漆黑的街道上徘徊,人工智能就會(huì)自動(dòng)預(yù)警,提示這可能是一名劫匪。這時(shí),警方就可以提前介入,以阻止?jié)撛诜缸锏陌l(fā)生。

在犯罪問題嚴(yán)峻、預(yù)算又相對緊張的環(huán)境下,這種預(yù)防式監(jiān)管無疑是警方的福音,不僅可以有效降低犯罪率,還能優(yōu)化警力資源的應(yīng)用,從而大幅減少公共支出、降低社會(huì)成本。

然而,這種監(jiān)管方式也引發(fā)了很多倫理上的爭議。在現(xiàn)行法律下,只有已經(jīng)實(shí)施犯罪的人才會(huì)受到懲罰。但預(yù)防式監(jiān)管卻在犯罪發(fā)生之前就對嫌疑人進(jìn)行控制,這種由事后向事前的轉(zhuǎn)變,會(huì)不會(huì)造成冤案?這是需要警惕的。除此之外,在機(jī)器學(xué)習(xí)過程中,人們的一些特征會(huì)被判定為犯罪的誘因。例如,人工智能會(huì)判定低學(xué)歷、有前科的人更容易犯罪。這種判定究竟是一種預(yù)防犯罪的善舉,還是一種赤裸裸的歧視?關(guān)于這一點(diǎn),人們或許還會(huì)爭論很久。

該不該放出算法殺人魔?

2017年10月,聯(lián)合國在特定常規(guī)武器公約會(huì)議上發(fā)布了一段“殺人蜂”視頻。這款“殺人蜂”的大小和蜜蜂相當(dāng),飛入人群中很不起眼。它的導(dǎo)航系統(tǒng)完全由人工智能操控,并搭載了廣角攝像頭、戰(zhàn)術(shù)傳感器、面部識別技術(shù)等設(shè)備,可以在人群中迅速識別出目標(biāo)。然后,它可以利用自身攜帶的三克炸藥,對目標(biāo)進(jìn)行攻擊,一擊命中,一槍爆頭,可謂快、準(zhǔn)、狠。據(jù)介紹,一架運(yùn)輸機(jī)就可以搭載成千上萬只“殺人蜂”,利用它們,可以在短時(shí)間內(nèi)進(jìn)行屠城。

“殺人蜂”引發(fā)了很多人的恐慌。盡管從根本上講,“殺人蜂”還不像“終結(jié)者”那樣是具有自主意識的殺人機(jī)器,但其裝載的人工智能系統(tǒng)已經(jīng)讓它們具有了人類幾乎無法超越的力量。

類似“殺人蜂”這樣的人工智能武器的出現(xiàn),將會(huì)完全重塑未來戰(zhàn)爭。將來,在戰(zhàn)場上決一死戰(zhàn)的可能不再是人類士兵,而是各種人工智能武器,這可以讓很多士兵免于在戰(zhàn)爭中喪生。與此同時(shí),相比于人類士兵,人工智能武器在攻擊目標(biāo)時(shí)十分精確,因此可以盡可能減少誤傷。從這些角度講,它們將會(huì)減輕戰(zhàn)爭帶來的損害。

不過,如果類似的人工智能武器落入恐怖分子手中,利用這些家伙,他們就可以輕易地殺人于無形,對目標(biāo)實(shí)施刺殺、破壞。如果是這樣,整個(gè)社會(huì)就可能被恐怖籠罩。

從這個(gè)意義上講,如何對人工智能武器進(jìn)行管控,將是未來各國必須面對的一大難題。

如何應(yīng)對算法帶來的倫理問題?

可以預(yù)見,隨著人工智能技術(shù)的發(fā)展,算法帶來的倫理問題還會(huì)越來越多。對于這些問題,我們應(yīng)該如何應(yīng)對呢?是減緩技術(shù)的發(fā)展速度以適應(yīng)現(xiàn)有的倫理框架,還是在發(fā)展中逐步摸索處理方法?在我看來,后一種思路恐怕更為可取。人工智能是巨大的科技進(jìn)步,它帶來的生產(chǎn)力改進(jìn)和居民福利改善是難以估量的。相比于其蘊(yùn)含的無限可能,它可能帶來的問題顯得次要很多。如果我們因?yàn)閱栴}而放棄技術(shù),無異于因噎廢食。

當(dāng)然,對于以上種種問題我們也不能忽視,而要積極應(yīng)對。具體來說,如下幾點(diǎn)是值得注意的。

首先,應(yīng)當(dāng)加強(qiáng)技術(shù)倫理方面的研究,為算法的設(shè)計(jì)和研發(fā)提供相應(yīng)的指導(dǎo)。所謂的算法問題從根本上還是人的問題。算法不會(huì)自己選擇價(jià)值觀,它的價(jià)值觀都是人賦予的。要消滅算法倫理問題,關(guān)鍵需要人自己想明白種種問題,再把這些結(jié)論、共識輸送給機(jī)器。

其次,應(yīng)該為技術(shù)發(fā)展留下一定的容錯(cuò)空間,創(chuàng)造相對寬松的環(huán)境。所謂經(jīng)濟(jì)基礎(chǔ)決定上層建筑,在技術(shù)的發(fā)展和倫理的互動(dòng)中,作為經(jīng)濟(jì)基礎(chǔ)的技術(shù)發(fā)展是首位的,作為上層建筑的倫理體系應(yīng)該隨著技術(shù)的發(fā)展進(jìn)行調(diào)整。如果固守現(xiàn)有倫理,過于限制技術(shù)的發(fā)展,就有可能對社會(huì)進(jìn)步造成阻礙。

再次,應(yīng)當(dāng)重視技術(shù)自身的力量,用技術(shù)來輔助治理。馬克思說過,“批判的武器當(dāng)然不能代替武器的批判,物質(zhì)的力量只能由物質(zhì)來摧毀”。這告訴我們,面對科技的問題,單純的思辨并不能完全解決問題,很多時(shí)候我們還必須依靠科技的力量。很多所謂的倫理問題其實(shí)就是技術(shù)上的問題,一旦技術(shù)取得了突破,這些問題也將迎刃而解。舉例來說,我們都忌憚人工智能武器的破壞力,其根本原因是擔(dān)心這種強(qiáng)大的力量被別有用心的人掌握。針對這一情況,我們?nèi)绻軌蜷_發(fā)出一套算法機(jī)制,防止這種情況發(fā)生,這個(gè)問題就不會(huì)存在了。從這個(gè)意義上講,在探索用倫理來約束算法的同時(shí),我們可能還要關(guān)注一下算法本身所蘊(yùn)含的力量。