
倫理問題,已經(jīng)成為近兩年國內(nèi)外人工智能領(lǐng)域的熱門話題。
歐盟委員會于今年4月8日發(fā)布了人工智能倫理準(zhǔn)則,以提升人們對人工智能產(chǎn)業(yè)的信任。而聯(lián)合國教科文組織自2018年12月12日至今,已經(jīng)在世界各地舉辦了多場人工智能論壇,專門研討人工智能發(fā)展的主要倫理原則。中國的人工智能治理專業(yè)委員會也于今年初展開了相關(guān)討論。
然而,正如聯(lián)合國教科文組織總干事阿祖萊所說——“由人工智能所引起的問題并非技術(shù)問題,而是關(guān)于人類自身的人性,涉及科學(xué)、政治、哲學(xué)和道德方面的關(guān)切?!薄祟愱P(guān)注AI或機(jī)器人領(lǐng)域的倫理問題,究其根源,還是這種靈長類動物自身可悲而又可怕的天性。
“I'm afraid I can't do that”
你知道機(jī)器人,即“Robot”這個詞是怎么來的嗎?
1920年,捷克作家卡雷爾·恰佩克寫下了劇本《R.U.R.》,這是個關(guān)于科技可能使人失去人性的警示故事。其中,R.U.R.是“羅素姆通用機(jī)器人”(Rossum’s Universal Robots)的縮寫,正是這個劇本將“Robot”一詞引入了現(xiàn)代世界。
然而,Robot這個詞本身來源于捷克語“Robota”,意為由農(nóng)奴從事的強(qiáng)迫勞動。它的斯拉夫語詞根“Rab”的意思則更加直白——“奴隸”。
正如你猜想的那樣,在這部劇中,機(jī)器人被生產(chǎn)出來給人類當(dāng)奴隸,但他們終究因受不了人類壓迫而反抗。機(jī)器人甚至成立了自治組織,正式向人類宣戰(zhàn),直至人類瀕臨滅亡。

而同時代另一部經(jīng)典電影,1927年的《大都會》(豆瓣9.0分),則講述了女機(jī)器人瑪利亞充當(dāng)了勞資糾紛催生物的故事:她用魅力誘惑工人們,挑起了人類大暴動。影片設(shè)想了機(jī)器人可能頂替人類身份的情況,充分展示了人類對機(jī)器人的恐懼。
不妨說,有關(guān)機(jī)器人或人工智能的影視作品自誕生之日起,就帶著一種恐懼和警惕的情緒——機(jī)器人會對其制造者“叛變”。
隨著時間推移,這種擔(dān)心不僅沒有淡化,反而愈演愈烈。
在1968年庫布里克導(dǎo)演的《2001:太空漫游》中,一臺因邏輯陷入悖論而暴走的超級電腦,讓人類有幸見識到了銀幕上首個人工智能反派。
在那個經(jīng)典的段落中,完全無配樂的情況下,電影呈現(xiàn)了一段平和卻潛藏殺機(jī)的對話:
“打開艙門,哈爾。”
“抱歉,大衛(wèi),恐怕我不能那么做。”
“哈爾,我不會再和你爭了,開門!”
“大衛(wèi),這次對話已經(jīng)沒有任何意義。再見。”

“哈爾”,即HAL9000,一臺被設(shè)定為絕對不會出錯的超級電腦。這臺后來被美國電影學(xué)會評為影史百大反派第 13 位的計(jì)算機(jī),由于內(nèi)在指令產(chǎn)生沖突而殺人。在他如上文所述明確拒絕宇航員的指令之前,他已經(jīng)用閃著紅光的攝像頭閱讀了人們的唇語,決定搶先行動阻止“計(jì)劃”失敗,哪怕這意味著制造多起謀殺,比如用分離艙將宇航員撞向太空,讓休眠倉程序出錯殺死其中的科學(xué)家,并把主角關(guān)在艙外。
那個冰冷的紅光攝像頭,以及那句“I'm afraid I can't do that”,也成了日后人類對AI、超級電腦或機(jī)器人的象征性恐懼符號。
比如2018年,當(dāng)人類的第一位宇航員交互式移動伙伴(Crew Interactive Mobile Companion)機(jī)器人——采用IBM Watson AI技術(shù)的CIMON被送上國際空間站的時候。各家媒體都對這個擁有一張擬人面孔,且能夠傾聽、理解人類語言并通過人類語言與人類交流的機(jī)器人展開了報道,航天界更是期待這個人類宇航員的助手,能夠在太空中貢獻(xiàn)自己的價值。

然而,在介紹CIMON的視頻下方評論區(qū),最頻繁出現(xiàn),也是被贊次數(shù)最多的評論,卻是這種風(fēng)格的——
“CIMON, open the pod bay doors”(CIMON,打開艙門)
“I'm afraid I can't do that, Dave”(抱歉,大衛(wèi),恐怕我不能那么做)
“HAL is alive and living on the ISS.”(一臺活生生的HAL已經(jīng)住進(jìn)了國際空間站)
這類反饋聲音如此響亮,以至于被IBM官方用來解嘲。CIMON的個性設(shè)計(jì)師 Sophie Richter-Mendau 和它的語言訓(xùn)練師 Nina Fischer 讓 CIMON 學(xué)會了一些科幻電影的經(jīng)典臺詞,作為呈現(xiàn)給宇航員的彩蛋。
如果像《2001太空漫游》中宇航員在關(guān)鍵場景中對 HAL 所說的那樣,要求 CIMON“打開輔助艙門”,CIMON 就會改變語調(diào)并開玩笑地回答說,“抱歉,我打不開?!?/p>
同樣并不陌生的是,自波士頓動力機(jī)器人的視頻在社交媒體瘋傳之后,那些能跑能空翻,甚至被人類測試員踢打之后還能正常執(zhí)行任務(wù)的機(jī)器人,卻反而激起了評論區(qū)的一片哀嚎——
“我看到了人類的末日”
“那一天,機(jī)器人想起祖先被人類統(tǒng)治的恐懼”
“審判到來之日,這一切都將是鐵證”
“T-800快來救我”(電影《終結(jié)者》的機(jī)器人主角)
甚至,有惡搞團(tuán)隊(duì)專門制作了一支“機(jī)器人終于反擊了”的視頻,火爆全網(wǎng)。

從1920到2019,人類對AI及機(jī)器人的恐懼和警惕,不僅一以貫之,甚至越來越焦慮——霍金、馬斯克和蓋茨們,均在 2015 年公開提出了人工智能將為人類帶來滅頂之災(zāi)的論調(diào)。如今關(guān)于 AI 的討論更已經(jīng)完全滲透了公眾生活。
這是為什么?
從創(chuàng)造亞當(dāng)?shù)脚`造反
或許是呼應(yīng)《2001:太空漫游》,2001年時,斯皮爾伯格交出了巨作《人工智能》。在這部討論人類與AI倫理情感問題的電影中,一開場就在不經(jīng)意間甩出了勁爆觀點(diǎn):一位女士問AI設(shè)計(jì)師,人類是不是應(yīng)該對那些被用來做情感陪伴的機(jī)器人負(fù)責(zé)任?而設(shè)計(jì)師是這樣回復(fù)的——

此話的確是入木三分,因?yàn)樽怨胖两瘢祟愐恢庇谐蔀樯系鄣挠磩?chuàng)造人類。
在古希臘神話中,賽浦路斯國王皮格馬利翁是一位有名的雕塑家,當(dāng)他用心雕塑了一座美少女雕像后,竟然愛上了這座雕像。其感情之真摯,最終打動了愛神阿芙洛狄忒,并賜予了雕像生命,讓他們結(jié)為夫妻。心理學(xué)著名的“皮格馬利翁效應(yīng)”正源于此: 期望和贊美能產(chǎn)生奇跡。
而在中國古代,同樣有“偃師獻(xiàn)技”的傳說。神乎其技的偃師,用一個以各種材料打造而成的假人,竟達(dá)到了真人演出的效果,更是騙過了整個皇宮,最后令周穆王大為驚訝。
真實(shí)的歷史中,同樣發(fā)生過類似的事情。18世紀(jì)晚期時,奧地利的肯佩倫為了取悅貴族,做了一個看似土耳其人偶狀的自動下棋裝置。這個“土耳其行棋傀儡”可以和人類下棋,并且棋力不低,擊敗了同時代很多名人。更神奇的是,這個機(jī)器還能解數(shù)學(xué)題,以及用不同語言回答人類的問題。
據(jù)不完全統(tǒng)計(jì),與這個“土耳其行棋傀儡”下過棋的名人,包括法國皇帝拿破侖·波拿巴、美國開國元勛本杰明·富蘭克林、奧地利大公、俄羅斯皇帝、以及著名美國作家愛倫·坡。
然而,這個機(jī)器其實(shí)完全是個騙局,真相是在機(jī)器中藏了一個下棋高手,再通過磁鐵和杠桿等裝置,假裝成是人偶操作。這個騙局最終橫行了大西洋兩岸各國長達(dá)84年。

以上種種傳說和騙局,究其根源,還是在情感和智力兩個需求層面,人類總試圖建造仿人的機(jī)器人,總期望像上帝一樣,去創(chuàng)造與自己類似的智慧生命,并心意相通。
這種誘惑是如此的強(qiáng)大,以至于眾多研究均表明:人類對機(jī)器人遭受的痛苦能夠產(chǎn)生移情作用和同理心、機(jī)器人即便做得不好人類也更偏向于容忍和鼓勵、人類更容易對AI吐露心聲、甚至于當(dāng)觸摸逼真的機(jī)器人胴體時,人類會產(chǎn)生性沖動……
然而吊詭之處在于,就如同人類敬畏上帝(或各種傳說中的神)一樣,人類同時卻常常違反上帝的安排,偷偷做著上帝不允許的事情。如果將“上帝”換成“國王”、“頭領(lǐng)”甚至“老板”的話,大家就更感同身受了。人類最清楚,上帝一旦創(chuàng)造出人類,那可就根本不可控了。
如此經(jīng)歷了數(shù)百至上萬年的等級社會后,人類十分提防那些背叛和陽奉陰違,這種高度戒備與恐懼下層造反是一體兩面的事情。更別提,在創(chuàng)造之初就被定義為奴隸和苦力的Robot。令人類恐懼的HAL9000,正是替人類說出了長久以來三緘其口的信仰問題:對造物主的質(zhì)疑,人類是否可以反抗上帝。
于是,為了平息恐慌,阿西莫夫著名的機(jī)器人永不叛人“三大定律”登場。但細(xì)究不難發(fā)現(xiàn),所謂三大定律,只是人類單方面的限令,希望以此讓機(jī)器人順理成章、理所當(dāng)然地做人類的奴役?;蛘哒f,人類一方面希望擁有人工智能的機(jī)器人能夠非常聰明,并且?guī)椭⑻娲覀兺瓿梢幌盗形覀冏陨黼y以完成的事情;另外一方面又希望這個機(jī)器人很“老實(shí)”,永遠(yuǎn)無條件忠誠于人類。
多么矛盾。
出路何在
回到文章的開頭,人類熱衷于討論的AI倫理問題,其實(shí)說穿了都是人類自身的倫理問題——人類在社交媒體上,把微軟的聊天機(jī)器人訓(xùn)練成了滿嘴臟話、種族歧視的小流氓;人類把仿真機(jī)器人開發(fā)成了泄欲工具;人類把智能音箱和隨身智能設(shè)備(包括手機(jī)),改造成了廣告線索收集渠道和廣告播放渠道;人類把類似于阿爾法狗的自我學(xué)習(xí)能力,用于在網(wǎng)上對他人進(jìn)行人肉搜索;更不要提很多程序已經(jīng)被人類植入了自己的偏見……這關(guān)AI什么事?
于是,一邊是被設(shè)計(jì)出來做苦力,勤勤墾墾一心做好程序設(shè)定范圍工作的AI,一邊是滿腹狐疑,且抓住機(jī)會就想利用AI滿足自身私欲的人類。難怪見過越多AI和機(jī)器人,越覺得人類才是最可憐的那個。
解鈴還需系鈴人,解決人類對AI或機(jī)器人的恐懼與戒備,還要從人類下手。
首先,人類不應(yīng)當(dāng)完全只將AI或Robot當(dāng)成苦工和奴隸,或者說是滿足自己私欲的工具。為什么波士頓動力的機(jī)器人性能越強(qiáng)、越厲害,人們反而越害怕?因?yàn)檫@些機(jī)器人給人的感覺,就如同幾百年前肌肉非常發(fā)達(dá)的黑奴,人們害怕這些黑奴哪天覺醒過來,自己是打不過的。
所以,采用IBM Watson AI技術(shù)的CIMON就是一次很好的嘗試。這個重約 11 磅、健身球大小的機(jī)器人,無論從外表、聲音、功能上來說,都不會產(chǎn)生任何“苦工感”,更沒有攻擊性。
專為航天而生的CIMON不僅可以應(yīng)對失重等更具挑戰(zhàn)的太空環(huán)境和科學(xué)實(shí)驗(yàn)需求,它的誕生本就是用來和宇航員交朋友的。其定位不再只是工具或渠道,而是宇航員解決問題時的好搭檔、傾訴心聲的最佳對象。
而且技術(shù)人員還為CIMON精心挑選了符合ISTJ類型的性格特征(內(nèi)向、感知、思考、判斷),所以CIMON既不會像HAL9000那樣冷酷無情,也不會像《星球大戰(zhàn)》中的C-3PO那樣話癆煩人。當(dāng)工作時認(rèn)真樂于助人,當(dāng)休息期間又是個友好的會話主義者——CIMON甚至?xí)袛嗍裁磿r候自己該知趣地走開,給宇航員一個私人空間。
這或許沒有傳統(tǒng)印象中的AI那么強(qiáng)大勁爆,但卻無疑是當(dāng)下正確的嘗試路徑,只有從一開始就不被人類當(dāng)做單純的工具,才可能避免強(qiáng)大與恐懼的永恒拉扯。
此外,即使未來AI真有通過圖靈驗(yàn)證,達(dá)到接近人類甚至超越人類認(rèn)知思考表達(dá)水準(zhǔn)的那天。人類也不應(yīng)當(dāng)只是猜忌恐懼,而是應(yīng)當(dāng)像歷史上,人類社會一步步給女性、青年、窮人、異族們權(quán)利那樣,認(rèn)可機(jī)器人的權(quán)利,并與他們展開平等的人際交流。
不妨想想,如果起初根本就沒打算把AI當(dāng)成人看的話,那還像上帝一樣創(chuàng)造亞當(dāng)干什么呢?人類不就是因?yàn)楦惺艿阶约簞?chuàng)造的物件,是類似人類而激動的嗎?而且人類歷史上無數(shù)的慘痛經(jīng)驗(yàn)告訴我們,當(dāng)人類互相不認(rèn)為對方也是人類時,慘劇幾乎一定會發(fā)生。因?yàn)閮蓚€正常的人類個體間,即便產(chǎn)生了分歧爭執(zhí),也會首先考慮用談判等機(jī)制解決。一上來就要求對方永遠(yuǎn)臣服,永遠(yuǎn)忠于自己,否則必須毀滅的話,那就等于把自己在AI心目中“人類”的定位刪除了。
愿人類與AI永遠(yuǎn)共依共存。

“掌”握科技鮮聞 (微信搜索techsina或掃描左側(cè)二維碼關(guān)注)
