啟蒙的終結(jié)
——人工智能意味著人類歷史的終結(jié)
作者:亨利·基辛格
譯者:吳萬偉
來源:作者授權(quán) 儒家網(wǎng) 發(fā)布
時間:孔子二五六九年歲次戊戌四月初六日壬子
耶穌2018年5月20日
從哲學上和思想上說,人類社會在任何方面都還沒有準備好迎接人工智能的到來。
三年前,在一場跨大西洋議題的會議上,人工智能的話題出現(xiàn)在了議程中。該話題不是我的專業(yè)領(lǐng)域,我正準備離開這個專場,已經(jīng)開始的演講內(nèi)容卻把我留在了座位上。
發(fā)言者描述了很快將挑戰(zhàn)國際象棋冠軍的電腦程序的工作原理。我感到震驚的是,電腦竟然能夠下圍棋,圍棋比象棋復雜多了。在比賽中,每個棋手要動用180個或181個棋子(取決于他或她執(zhí)黑還是執(zhí)白),分別在空棋盤上落子;做出更好的戰(zhàn)略決策,通過更有效的控制領(lǐng)地而讓對手動彈不得的一方為勝。
發(fā)言者堅持認為這種能力不能夠依靠編程來實現(xiàn)。他說,他的機器通過練習和訓練學會了下圍棋。考慮到下圍棋的基本規(guī)則,電腦和它自己進行了數(shù)不清的比賽,從自己的錯誤中學會改進,并據(jù)此優(yōu)化算法。在此過程中,它的技能已經(jīng)比人類導師更高。事實上,在那次發(fā)言之后的幾個月里,一個名為阿爾法狗(AlphaGo)的人工智能編程打敗了世界最優(yōu)秀的棋手,取得了決定性的勝利。
就在我聽發(fā)言者稱贊這種技術(shù)進步時,作為歷史學家和偶爾從事國務活動的人的經(jīng)驗令我感到憂慮。自我學習的機器是依靠特有的過程獲得知識,并將那知識應用在人類理解可能沒有辦法闡述的某些目的上。人工智能對這種機器的歷史產(chǎn)生的影響是什么?這些機器會學習相互交流嗎?在新出現(xiàn)的選擇項中,人們?nèi)绾巫龀鲞x擇?人類歷史是否有可能像印加帝國在面對他們無法理解和感到敬畏的西班牙文化時走上消亡之路?我們是否處于人類歷史新階段的邊緣?
意識到自己缺乏該領(lǐng)域的專業(yè)知識和技能,我組織了若干次這個話題的非正式對話,得到了人文和技術(shù)領(lǐng)域熟人的建議和合作。這些討論讓我的擔憂變得更為強烈。
在此之前,最激烈改變現(xiàn)代歷史進程的技術(shù)進步是15世紀印刷術(shù)的發(fā)明,它讓經(jīng)驗性知識的探索成為教會教義的補充,理性時代漸漸取代了宗教時代。個人見解和科學知識取代信仰成為人類意識的主要評價標準。信息被儲存在越來越大的圖書館中,并得到系統(tǒng)性地處理。理性時代產(chǎn)生思想和行動,而所有這些塑造了當今的世界秩序。
但是,如今在橫掃一切的新技術(shù)革命的背景下,這個秩序處于動蕩之中,其后果我們還無法充分認識到,最后的結(jié)果或許是數(shù)據(jù)和算法驅(qū)動下的機器世界,但這個機器并不受倫理道德的約束或哲學規(guī)范的管理。
我們生活的因特網(wǎng)時代預兆了一些問題和議題,人工智能不過令其變得更加嚴峻和尖銳了。啟蒙運動尋求的是將傳統(tǒng)真理置于解放了的、分析性的、人類理性審視之下。因特網(wǎng)的目的是通過不斷擴張的數(shù)據(jù)積累和操控來驗證知識。人類認知已經(jīng)喪失了個性特征。個人求助于數(shù)據(jù),數(shù)據(jù)變成了王者。
因特網(wǎng)用戶強調(diào)提取信息和操控信息更甚于將其意義進行語境化或概念化處理。他們很少詢問歷史或哲學,他們通常要求獲得與即刻的現(xiàn)實需要相關(guān)的信息。在此過程中,搜索引擎的算法獲得了預測個別客戶的偏愛的能力,從而能夠讓算法計算出個人化的結(jié)果,并將這些結(jié)果提供給其他人用于政治和商業(yè)目的。真理變成相對性的東西。信息吞沒智慧的風險越來越大。
面對社交媒體潮水般涌來的各種觀點的沖擊,用戶已經(jīng)沒有時間去反省;事實上,很多技術(shù)愛好者使用因特網(wǎng)來來回避令他們感動恐懼的孤獨。所有這些壓力都削弱了剛毅性格,而這是形成和維持堅定信念所必需的品質(zhì)。堅定的信念只能依靠孤獨的跋涉才能獲得,而這種跋涉才是創(chuàng)造的本質(zhì)所在。
因特網(wǎng)技術(shù)對政治的影響已經(jīng)有人特別地表達出來。針對目標微群體的能力已經(jīng)將從前的優(yōu)先選擇共識進行精細化的分解,將焦點集中在專門化的目的和訴求上。面對縫隙壓力(niche pressure)的政治領(lǐng)袖已經(jīng)被剝奪了思考和反思背景的時間,縮小了他們形成視野和眼光所需要的現(xiàn)有空間。
數(shù)字世界強調(diào)速度阻礙了人們?nèi)シ此迹凰莫剟顧C制賦予激進分子而不是認真思考者巨大的能量;它的價值觀是附屬群體的共識形成的,并非依靠自我反省。雖然有種種成就,數(shù)字世界面臨背叛自己的風險,因為它給人類帶來的限制可能比帶來的方便多得多。
隨著因特網(wǎng)和運算能力的不斷增強,大數(shù)據(jù)的積累和分析變得更加方便,出現(xiàn)了人類理解上前所未有的廣闊前景。或許最具重要意義的是制造人工智能的工程---這種技術(shù)通過復制人類思維的處理過程而制造和解決復雜的、看似抽象的問題。
這已經(jīng)遠遠超過我們知道的自動化。自動化處理的是手段;它通過把所掌握的工具理性化或者機械化而實現(xiàn)事先設(shè)定的目標。與此相反,人工智能處理的是目的;它要確立自己的目標。在成就部分由自身塑造這點上,人工智能從本質(zhì)上說是不穩(wěn)定的。人工智能體系通過自身的運作,處于不斷流動的過程中,因為它不斷獲得新數(shù)據(jù)和分析新數(shù)據(jù),并在此分析基礎(chǔ)上尋求改善和更新。依靠這個過程,人工智能獲得了一種從前被認為只有人類才具備的能力。它能做出有關(guān)未來的戰(zhàn)略判斷,有些基于被視為語碼(如游戲規(guī)則)的數(shù)據(jù),有些則基于自身收集的數(shù)據(jù)(如百萬次的比賽循環(huán))。
無人駕駛汽車說明傳統(tǒng)的、人類控制的、軟件驅(qū)動的電腦行動與人工智能尋求探索的宇宙之間的差別。駕駛汽車要求在眾多根本無法預測的場景下做出判斷,因此根本沒有辦法預先編程。如果用眾所周知的假設(shè)案例,這輛汽車必須在殺死爺爺還是殺死孫子之間做出選擇,將會發(fā)生什么?它會選擇殺死誰?為什么?它在試圖最優(yōu)化的選擇中要考慮哪些因素?它能解釋自己的合理性論證嗎?一旦受到挑戰(zhàn),如果能夠交流的話,它的真實答案可能是:“我不知道(因為我遵循的是數(shù)學原則而不是人類原則)”或者“你不懂的(因為我一直受到特定方式的訓練,我不需要解釋)。”但是,無人駕駛汽車很可能在十年之內(nèi)就上路了。
我們必須預料到人工智能犯下的錯誤會比人類更快和更加嚴重。
在此之前,人工智能局限在特定活動領(lǐng)域之內(nèi),這種研究現(xiàn)在卻尋求創(chuàng)造“更籠統(tǒng)的智慧”,能在多個領(lǐng)域執(zhí)行任務的智慧。在可衡量的時間階段內(nèi),人類越來越多的活動都可以由人工智能算法來驅(qū)動了。但是,這些算法是對觀察到的數(shù)據(jù)的數(shù)學解釋,并不能解釋產(chǎn)生數(shù)據(jù)的現(xiàn)實。矛盾的是,隨著世界變得越來越透明,它也變得越來越神秘。將新世界與我們現(xiàn)在的世界區(qū)分開來的東西是什么?我們?nèi)绾紊钤谶@個世界?我們?nèi)绾喂芾砣斯ぶ悄?,如何改善它,或者至少防止它造成傷害?最令人恐懼的擔憂是:人工智能在掌握了某些比人類更快和更強的能力之后,隨著時間的推移,它會削弱人類的能力和人類生活條件本身,因為它將這些也變成了數(shù)據(jù)。
未來,人工智能將為醫(yī)藥科學、清潔能源和環(huán)境議題等其他領(lǐng)域帶來了不起的好處。但是,恰恰因為人工智能在逐步演變的不確定的未來做出判斷,其結(jié)果天然具有不確定性和模糊性。下面三個領(lǐng)域值得我們特別關(guān)注?!?/p>
首先,人工智能或許產(chǎn)生意料之外的結(jié)果??苹眯≌f已經(jīng)想象出人工智能反噬其創(chuàng)造者的場景。更有可能的危險是人工智能由于天生缺乏背景信息而錯誤地解釋人類的指令。最近的一個著名案例是被稱為泰伊(Tay)的人工智能聊天機器人,它本來是用19歲女孩的語言模式產(chǎn)生友好對話的。結(jié)果,這個機器人不能確定導師安裝上的“友好的”和“通情達理的”語言指令,反而做出了種族主義者的、性別歧視者的和其他煽情政治宣言和罵人臟話等回應。技術(shù)界的有些人宣稱這個實驗構(gòu)想很糟糕,實施得也很拙劣,但它說明了背后的模糊性:在多大程度上能讓人工智能理解指令的背景?什么媒介能幫助泰伊自己定義“令人討厭的”(offensive)?這個詞的意義,人類并沒有普遍共識。我們能在更早階段辨別和糾正在期待框架之外行動的人工智能程序嗎?或者,如果放任人工智能自己處理,是否將不可避免地形成些微的偏離,經(jīng)過一段時間之后終于演化成為災難性的意外后果?
其次,人工智能實現(xiàn)了預期的目標,但它可能改變?nèi)祟惖乃枷脒^程和價值觀。阿爾法狗依靠空前的戰(zhàn)略步驟打敗了世界圍棋冠軍,這些步驟是人類從來沒有考慮過的,也從來沒有成功地掌握。這些步驟超越了人類大腦的能力嗎?抑或人類現(xiàn)在能學習新圍棋大師展示的步驟?
在人工智能開始下棋之前,圍棋游戲有多樣的多層次的目的:選手追求的不僅是贏得勝利,而且是學習新的戰(zhàn)略,它們可能應用于人生的其他方面。在這點上,人工智能只有一個目的:贏得勝利。它不僅從概念上而且從數(shù)學上“學習”,依靠算法的邊緣性調(diào)整。所以在依靠不同于人類的下棋方式學習而贏得比賽。人工智能改變了游戲的本質(zhì)和影響。這種追求勝利的單一思維模式是所有人工智能的特征嗎?
其他人工智能項目旨在通過開發(fā)能夠產(chǎn)生回答人類問題的眾多答案的設(shè)備來修改人類的思想。除了實際問題之外(室外溫度是多少?),還有關(guān)于現(xiàn)實本質(zhì)的問題或人生的意義等深層次問題。我們希望孩子通過與無任何羈絆的算法炮制的話語交流而學到價值觀嗎?我們應該限制人工智能學習提問者而保護隱私嗎?果真如此,我們該如何實現(xiàn)這些目標?
如果人工智能學習的速度比人類快得多,我們肯定期待它大幅度加快人類決策常常產(chǎn)生的試錯過程:犯下的錯誤比人類的更快更嚴重。正如人工智能研究者常常暗示的那樣,人們不可能通過加入一個要求“倫理學的”或“通情達理的”結(jié)果的項目警告來糾正這些錯誤。整個學界已經(jīng)對如何定義這些術(shù)語爭吵不休了,人工智能將因此成為仲裁者嗎?
第三,人工智能或許實現(xiàn)了預期目標,但是不能解釋得出這些結(jié)論的合理性論證。在某些領(lǐng)域---模式識別、大數(shù)據(jù)分析、游戲---人工智能的能力已經(jīng)超越了人類。如果其計算能力繼續(xù)快速提高,人工智能將很快能夠以至少稍微不同的方式最優(yōu)化場景,但很有可能的是與人類最優(yōu)化的方式差別很大。但是,在此,人工智能能以人類能理解的方式解釋其行動為何最優(yōu)嗎?還是人工智能的決策制定過程超越了人類語言和理性的解釋力范圍?在整個人類歷史上,文明曾經(jīng)創(chuàng)造出解釋周圍世界的方式,在中世紀使用宗教,在啟蒙時代使用理性;在19世紀使用歷史;在20世紀使用意識形態(tài)。有關(guān)我們未來世界的最困難和最重要的問題是:如果人類的解釋力被人工智能超越,人類意識將變成什么樣子?社會已經(jīng)不再能夠用在人類看來有意義的方式解釋人們生活的世界?
在將人類經(jīng)驗簡化為數(shù)學數(shù)據(jù),并依靠自身的記憶來解釋的機器世界,意識如何被定義?誰應該對人工智能的行動負責?它們的錯誤產(chǎn)生的債務如何確定?人類設(shè)計的法律體系能夠趕上在思維能力上超越人類的人工智能活動的步伐嗎?
從終極上說,人工智能這個詞或許是個錯誤。當然,這些機器能夠解決從前只有人類認知才能處理的復雜的、看似抽象的問題。但是,它們行為的獨特性并不是人們設(shè)想和體驗過的思考。相反,它是空前的記憶和運算。因為在這些領(lǐng)域的天生優(yōu)越性,人工智能可能贏得分配給它的任何比賽。但是,對于我們作為人的目的而言,比賽并不只是贏得勝利,它們是思考的問題。把數(shù)學過程當作思想過程來對待,無論是試圖模仿我們自己的過程還是僅僅接受其結(jié)果,我們都將陷入喪失人類認知本質(zhì)的能力的危險中。
這場革命的隱含意義被最近設(shè)計的項目阿爾法零(AlphaZero)顯示出來。它下棋的水平超過圍棋大師,使用的方式是圍棋史上從來沒有見過的。在自己和自己下棋的幾個小時里,它就達到了一種技能水平,那是人類需要1500年才能掌握的水平。只是為阿爾法零提供了游戲的基本規(guī)則。它的自我學習過程中既沒有人的幫助也沒有人產(chǎn)生的數(shù)據(jù)。如果阿爾法零能夠如此快速地達到這種熟練程度,五年后人工智能將如何?它在總體上對人類認知的影響會是什么?在此過程中,作為選擇加速的本質(zhì)的倫理學應該扮演何種角色呢?
典型的是,這些問題留給了技術(shù)人員和相關(guān)科學領(lǐng)域的知識分子。哲學家和人文學科的其他人曾經(jīng)創(chuàng)造了從前的概念,幫助塑造了世界秩序。但他們可能出于劣勢地位,因為缺乏人工智能機制的知識或者被它的能力嚇傻了。相反,科學世界受到強烈的刺激來探索取得進步的可能性,技術(shù)世界充斥著商業(yè)眼光和視野。這些世界的刺激和獎勵推動發(fā)現(xiàn)的邊界進一步擴張,而不是試圖理解這些邊界。到現(xiàn)在為止,管理人工智能的機構(gòu)更有可能調(diào)查人工智能在安全和情報方面的應用而不是探索它已經(jīng)開始產(chǎn)生的人類條件的轉(zhuǎn)變。
啟蒙開始于新技術(shù)傳播的哲學見解。我們的時代正走向相反的方向。它產(chǎn)生了潛在的支配性技術(shù),卻在尋求作為思想指南的哲學。其他國家已經(jīng)讓人工智能成為國家重點工程。美國作為國家還沒有系統(tǒng)性地探索其整個范圍,研究隱含意義或開始終極學習的過程。首先從把人工智能與人類傳統(tǒng)聯(lián)系起來的角度看,這應該成為國家的優(yōu)先選擇。
就像我在技術(shù)領(lǐng)域沒有經(jīng)驗一樣,人工智能開發(fā)者在政治和哲學領(lǐng)域沒有經(jīng)驗,他們應該問自己本文中提出的一些問題,以便將答案納入其工程探索中。美國政府應該考慮組織一場杰出思想家的總統(tǒng)委員會會議幫助形成國家共識。下面這個情況必然出現(xiàn):如果我們不盡快開始這個努力,不久之后我們就會發(fā)現(xiàn)已經(jīng)來不及了。
譯自:How the Enlightenment Ends by Henry A. Kissinger
https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/
責任編輯:姚遠
【上一篇】【余東?!筷愐〉臏\陋
【下一篇】【余東?!咳彘T雜家陳寅恪