9
    人造意識
    Ex Machina

    人工智慧是什麼,又能做到什麼?

    機器能夠擁有意識嗎?

    我們能勝過天然的人類智慧嗎?


    邁可:這部電影講的是一名受創孤兒,對抗一位似乎擁有極大權利的危險反社會分子。

    瑞克:我不知道我們要討論《哈利波特》。

    邁可:很好。你知道在《人造意識》中演出加勒(Caleb)一角的多姆納爾·格里森(Domhnall Gleeson)也曾是霍格華茲的學生會主席嗎?

    瑞克:你說在現實世界嗎?

    邁可:不,你知道什麼叫做「演戲」嗎?

    瑞克:你有看到我在《雪場女孩》(Chalet Girl)裡的表現嗎?*44

    《人造意識》確實是極少見的一部作品靈感:源自學術大作,並獲得奧斯卡提名的好萊塢賣座電影。好,所以莫里·沙納漢(Murray Shanahan)的《具體化與內在生活》(Embodiment and the Inner Life)不像某些學術書籍一樣枯燥乏味,但依舊不是《格雷的五十道陰影》(Fifty Shades of Grey)。

    劇情是這樣的,奧斯卡·伊薩克(Oscar Isaac)飾演的納森是軟體大師,創立了搜尋引擎藍書(BlueBook),並將所有蒐集來的資料訓練一個人工智慧(AI)。他給這個 AI 一系列具現化的形體,最新一個是艾娃(Ava),由艾莉西亞·薇坎德(Alicia Vikander)飾演。納森將他的員工加勒,帶到他那間與世隔絕的實驗室/奢華花花公子公寓,想看看加勒是否相信艾娃擁有真正的智慧。

    艾娃是一個迷人、富有同情心的角色。直到……喔,不,小心點!格里森!在霍格華茲擔任學生會主席也沒能讓他準備好應付一個風情萬種的女機器人,完全不行。艾娃似乎痛恨被測試,於是開始利用加勒成為她逃跑計畫的一環。或者,這一切都是納森精心設計的花招?

    要了解這部片的精髓,我們必須提出的第一個問題相對來說很直接:人工智慧是什麼,又能做到什麼?

    機器崛起

    瑞克:我很愛的一段劇情是,納森坦承自己駭進大家的手機鏡頭,藉此教導 AI 如何做出寫實的臉部表情。這是最能完美捕捉表情如何配合語句和語調的方法。

    邁可:沒用的,因為你只拍得到耳朵的特寫。

    瑞克:不盡然。他們可能會用免持模式啊。

    邁可:那樣的話,只會拍到「瞧,我不需要拿電話貼近耳朵,我是未來的人類……」那種得意的臉。

    瑞克:我覺得你太嚴格了。我是不是說到了你的痛處?有人打電話給你過嗎?

    邁可:連我媽都沒有。

    瑞克:如果有機器人同伴,你一定第一個去買,對吧?

    你是有智慧的。當然,因為你正在讀這本書。但是,你會不會有一天也這樣形容一個機器呢?機器是否具備智慧這個問題,從首次提出開始,已經被嘲弄了數十年之久。舉例來說,1948 年,現代電腦運算先驅艾倫·圖靈(Alan Turing)就寫過《智慧計算機》(Intelligent Machinery)這篇論文,這是最早突襲電腦也許會模仿人類大腦運作領域的文章。圖靈寫道:「我提議研究『機器是否可能表現出有智慧的行為』,因為一般都假設這是不可能的,卻沒有任何立論根據。」圖靈在倫敦的英國國家物理實驗室(NationalPhysical Laboratory)的老闆(他因查爾斯·達爾文爵士之名享有榮耀,但他的祖父,真正有名的那個達爾文卻從來沒有被封爵位,哈!)對這個提議看不上眼。在達爾文爵士眼裡,這只是篇「學生論文」,不會發表。

    但圖靈並不因此而氣餒。兩年後,他發表了《計算機器與智能》(Computing Machinery and Intelligence)這篇論文,當中提出一個爭議性的問題:機器能思考嗎?這篇論文提議透過圖靈所謂的「模仿遊戲」(很耳熟吧?)*45找到答案。也就是由一臺隱藏的電腦,透過某種溝通技術與人類保持對話。如果人類無法分辨自己在和電腦對話,那麼這臺機器就能被視為有「人工智慧」。

    這就是「圖靈測試」,也是《人造意識》這部電影的中心思想。這位創造機器人的億萬富翁納森,告訴他的幸運員工加勒:從圖靈的時代至今,人工智慧研究已經有相當大的進步,所以我們需要一種新的圖靈測試。這部電影的情節,基本上就是隨這個新的測試而發展,而結果滿嚇人的。

    目前最成功的 AI 是從「神經網絡」開始。神經網絡模仿人腦的組成,由小小生物處理器「神經元」互相連接,形成一個複雜的網絡。如同我們在《決戰猩球》裡看到的,細胞裡的神經元會對輸入訊號產生反應,輸出訊號。而決定這個輸出的,是輸入的內容以及該神經元的特性或情境。

    就像我們在《駭客任務》那章講到的,人腦會將來自眼睛、耳朵、皮膚與快感中心等感官系統的反饋,結合由輸入與輸出交織而成的複雜網絡。結果就是,我們的經驗會「強化」某些通道,改變神經元的化學組成以及連結的強度與數量,我們稱此為「學習」。

    圖9-1 神經網絡的輸入訊號會透過神經元間的連結匯入神經元,而這些連結會隨著機器學習如何最佳地實現目標而產生變化。

    9人造意識Ex Machina - 图1

    機器學習也沒有兩樣。人工神經元就是小小的、以矽為基礎的元件,處理一項輸入,並提供一項輸出。輸入與輸出是神經元間的連結,也是神經元與外在世界(或是網絡嘗試控制的機器)的連結。神經元間的連結會變強或變弱,代表實際上有些神經元會比較容易觸發彼此,其他則需要比較強的電子訊號才能處理輸入並產生輸出。最後,會有一些基本的目標,例如下贏一盤西洋棋。

    當世界棋王蓋瑞·卡斯帕洛夫(Garry Kasparov)第一次輸給IBM 的深藍(Deep Blue)電腦時,他描述那是「毀滅性的經驗」。他曾經和很多電腦下過棋,但是這臺不一樣。「我能感覺到,我能聞到,我對面是一種新的智慧。」他說。

    但是,情節轉折的部分來了:深藍並不算是有智慧。它沒有使用任何來自經驗的適應或學習,它只是使用蠻力來駕馭超高速的處理器,計算所有可能的棋步,然後決定最佳戰略。

    這當中沒有任何聰明才智。不是像 AlphaGo 那種的聰明,它才是真的會毀滅卡斯帕洛夫的機器。AlphaGo 學會怎麼下圍棋,這是一種表面上看起來很簡單的亞洲桌上遊戲,規則是用你自己的棋子包圍對手的棋子。AlphaGo 現在已經比最厲害的人類棋士還要厲害了——這真的令人震驚。因為人類下圍棋時,有部分是必須靠直覺的,就算是最厲害的棋士,也不一定能夠能說明他們為什麼會下某一步棋。有時候他們只需看著棋盤,就會憑直覺下出他們覺得正確的那一步。沒有人能把這種直覺寫進機器的程式裡,但事實證明,你也不需要做到這一點。

    創造出 AlphaGo 的 DeepMind 公司,是從訓練基本神經網絡玩大型遊戲機展開這趟旅程。他們建造了一臺可以操作雅達利公司出品的遊戲《太空侵略者》(Space Invaders)的精密機器。機器很快就掌握了這款遊戲的訣竅,於是接著改玩《敲磚塊》(Breakout),利用一顆會回彈的球打破一道牆,敲破磚塊便能得分。不過,DeepMind 沒有告訴這臺「代理主體」遊戲規則,只給了它一個目標:拿到最高分。

    沒多久,機器就發現了至今都沒人發現的技巧,用最小的力氣拿到了最高的分數。這不是它早知道的事,它原本什麼都不知道,只是試著盡快提高自己的分數而已。

    如果這臺機器只會做一件事——玩《敲磚塊》,那 DeepMind的代理主體就是所謂的「弱」人工智慧。弱人工智慧對於自己能做的事有高度專業的能力,有點像是很厲害的木工,它的技巧很有用,但如果突然要它幫公司記帳,那就一點幫助也沒有。我們真正想要的,是「強」人工智慧*46 ,能用機器手做各種事的 AI。

    這正是 DeepMind 透過 AlphaGo 所要達到的目標。圍棋不是簡單的遊戲,雖然規則並不複雜,但是要玩到最好,就必須分析十的一百七十一次方(1,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000)個可能的位置,比宇宙中的原子數量還要多。

    AlphaGo 的創造者將人類在幾百萬個位置下過的幾百萬個棋步匯入機器,機器只要看著一個位置,便能預測人類會做什麼。當時它的正確率只有百分之五十七,但有希望能獲勝。

    創造者的下一步,使得人類棋士失去了獲勝的希望。AlphaGo被設定和自己下棋數千次,直到學會怎麼在無數個位置中獲勝為止。不像深藍那樣全憑蠻力,AlphaGo 是在搜尋之外,以敏捷、未受程式設定的直覺加以彌補;以自己在數千盤圍棋中,下了數百萬步的經驗為基礎。AlphaGo 的神經網絡深處,有某個東西能夠看著棋盤,想出一個合理且通常是能致勝的棋步。如果 DeepMind 的研究人員問 AlphaGo,為什麼它會下那步棋,它也無法告訴他們。如果他們拆開機器,答案也不會在它的迴路裡。某個近似於直覺的東西,確實已經透過經驗出現——或者說突現——在矽晶片裡。

    圖9-2 機器人與人工智慧的進步,代表某些職業有很大的機率會在2035年消失(資料來源:牛津大學學者麥可·歐斯本〔Michael Osborne〕和卡爾·佛雷〔Carl Frey〕)。

    9人造意識Ex Machina - 图2

    **47

    景觀房

    在電影裡,加勒告訴艾娃一個著名的人工智慧思想實驗。一位叫瑪莉的科學家,從小在一個只有黑白的房間裡長大,裡面沒有任何彩色的東西。瑪莉知道所有波長與頻率的物理學理論,也知道大腦如何感知它們為各種顏色。但是,她(電腦也是類似情況)對色彩的理解中少了一樣東西——看到色彩是什麼感覺。就算我們能理解關於大腦運作的一切,並且複製到矽晶片上,這樣也能製造出感覺嗎?

    哲學家約翰·希爾勒(John Searle),在他的「中文房間」進行了一個相關的觀察實驗。他想像有一個AI能閱讀所有以中文書寫的問題,並且利用所有可取得的資源形成適當的中文答案。如果AI在一個封閉的房間裡,有個人向它提出問題並得到答案後,這個人可能會覺得房間裡有一個會說中文的人類。希爾勒的論點是,這個AI能通過圖靈測試,但是它對於那些問題和答案沒有任何理解。

    透過想像自己在那個房間裡,能取得電腦程式給予的種種指示,以及所有處理這些問題的必要資源,他親身示範了這一點。在這種情況下,他能吸收中文字,並以中文字產出正確的答案,但是不論這些答案對於外在提問者多麼有說服力,希爾勒本人還是不懂中文。於是他主張,原本的AI也是一樣——只因為你表現出智慧,並不代表你有思想、有心智,或是有意圖。希爾勒認為,我們太快驟下結論,誤把複雜的處理當作智慧了。


    不論是 AlphaGo,或是這種智慧代理主體的下一個化身,DeepMind 對於其背後的科技已經有遠大的規劃。他們要用來研究真實世界的問題,例如診斷疾病或是找出新藥。

    AlphaGo 並不孤單。舉例來說,我們已經有醫療診斷功能超強的 AI 代理主體了。印利提克(Enlitic)公司操作的 AI 能夠觀看醫療影像,而且比任何專業的放射科專家團隊都更快、更準確地偵測肺癌瘤的位置。當然囉,還有 Google 的自駕車,它必須能從成功與錯誤中學習,並根據外在世界的信號做出決定,讓自己在混亂、難以預測的環境中安全運作。人工智慧是機器能做到這些的唯一方法,我們甚至可以說,它能做得和某些人類駕駛一樣好。

    除此之外,AI 更乏味——但可能更有威脅——的應用也開始出現了,例如即時翻譯、新聞工作、語音辨識……,這份清單可以列得落落長。它們並不會對我們的生活方式造成突如其來的激烈轉變,而是緩慢、穩定地滴水穿石;機器逐漸做到很多我們一直以為只有人類智慧才能做到的事。

    所以,我們要怎麼衡量進度呢?納森是對的:實際的結果、現代的 AI 化身,已經遠超過圖靈當時的想像,所以我們需要找到圖靈測試的替代品。這就是為什麼納森想知道加勒對艾娃的反應,他認為艾娃是「她」還是「它」呢?他是否認為,她有情緒、感覺,以及目標呢?他是否覺得她比較像人而不是機器呢?於是我們的第二個問題來了:機器能夠擁有意識嗎?

    性感野獸

    瑞克:你會嘗試幫助艾娃逃跑嗎?

    邁可:應該會,我覺得自己和加勒滿像的。

    瑞克:不過你不是專業的程式設計師,甚至連半個駭客都稱不上。

    邁可:也是……

    瑞克:所以你對她來說一點用也沒有。

    邁可:這個嘛……

    瑞克:所以艾娃很快就會發現她需要的是別人。她馬上就會甩了你。

    邁可:她可能會喜歡我這個人,而不是我的能力。

    瑞克:這個可能性非常低。

    在《人造意識》裡,納森彷彿知道接下來會發生什麼事。「有一天,AI 會回顧我們,如同我們回顧非洲平原上發現的那些化石骨骼:曾經有一種直立人猿住在塵埃中,使用著粗糙的語言與工具,最後全部滅亡,」他這麼告訴加勒。「別為艾娃感到難過,為你自己感到難過吧,老兄。」

    加勒並不覺得事不關己。反而,他對自己對艾娃意外且非自願的感情感到困惑。「你是否用程式設定她和我調情?」他問納森。

    但是納森不需要這麼做。他只是設定了艾娃的程式裡有「想活下去」的慾望,是讓她變成這樣的人工智慧做了剩下的工作,所以她會擔心加勒對她做的測試結果。「如果我沒有通過你的測試,我會怎麼樣?」她問他,抱怨自己必須受到被評估的不公平對待:「有人會因為你沒有做出應當的表現而把你關掉嗎?那為什麼我要被關掉?」

    這是很好的問題。這麼看來,笛卡兒證明自己意識存在的名言「我思故我在」,似乎有點偏頗,不是嗎?

    我們在《千鈞一髮》裡知道,智力是一個很不明確的概念,而意識更麻煩。雖然目前沒有一致的定義,不過大多數人接受它和經歷情緒的內在自我覺知狀態有關,而且目標不僅止於生存。問題在於,因為所有的跡象都屬於內在,所以沒有人能確定另外一個有機體是否有意識。

    這引導出一個很有意思的想法:為什麼意識(先不論它究竟是什麼)應該從以碳為基礎的分子特定排列中出現,而不是從似乎能執行大致相同任務、以矽為基礎的分子特定排列中出現呢?換句話說,為什麼艾娃不能像笛卡兒一樣有意識?

    動物為此提供了很有意思的對照。很多研究人員相信,動物界的大部分成員都是有意識的,章魚(我們的最愛)和狗的行為肯定讓人難以否認牠們表現出了意識。畢竟章魚小墨(Inky)——紐西蘭國立水族館的前居民——在 2016 年 4 月逃脫水槽,回歸大海時,就表現出了有意識的意圖。48 小墨的照顧者沒有把水槽的蓋子完全蓋好(可能是意外,也可能是小墨還能操縱人的心智,誰知道呢),於是這隻章魚就好好利用了這個機會,牠在晚上爬出水槽,使閉路電視失靈49 ,然後爬進通往海水的五十公尺排水管裡。這些都是我們猜的,畢竟牠沒有留下紙條說明自己如逃脫大師胡迪尼般的能力。

    不論實際上發生了什麼事,我們肯定必須承認,如果動物有意識,我們有意識,那麼很難說明為什麼一臺有充分智力思考的機器——大幅增強馬力後,具體化版本的 AlphaGo——不應該也表現出意識的跡象。

    最重要的問題是:我們怎麼能確定?這正是艾力克斯·嘉蘭(Alex Garland)編導的《人造意識》厲害的地方。就算加勒知道艾娃是納森做出來的,她還是能說服加勒她有感覺、慾望以及意圖,並且應該擁有「人權」,那麼我們就只能把圖靈測試放到一邊,正視一個更有深度的東西——問題已經不再是「這是機器還是人」,而是「在本質上,這臺機器是不是和人類相同」。

    會不會有一天,這個問題的答案是斬釘截鐵的「是」?對此有兩派分歧的意見。首先,就算《人造意識》這個虛構的世界清楚描述了一個高度成熟、具體的人工智慧,你還是能對艾娃到底有沒有意識提出各種質疑。在電影最後,她在沒有人看見的時候露出了一抹微笑,似乎是對於一個愉快經驗的自然意識反應,不是嗎?還有,她渴望逃離被關機的安排,這不就證明了她有笛卡兒式的生存憂慮嗎?她似乎暗示,在她處理(或者我們應該說「思考」)關於自身存在、目標以及目的的資訊時,她是有自我意識的存在,這不就是她有內在生命的證據嗎?此外,艾娃對自己的物理性身體也有意識,並且想用衣服裝飾它,她似乎對此也是有感覺的。

    圖9-3 你的意識到達什麼程度?西班牙 AI 研究者拉爾·阿拉巴勒司·莫雷諾( Raúl Arrabales Moreno )與同僚設計了這個意識量表,排序不同有機體展現的意識類別。

    9人造意識Ex Machina - 图3

    我們可以把這一切都解讀成艾娃具有人類特質的證據,但不是每個人都這麼想。對於艾娃是否有意識,編導嘉蘭以及劇情靈感來源的書籍原作者沙納漢都持保留的態度。

    不過如同我們前面提到的,嘉蘭與沙納漢也不能證明艾娃沒有意識——沒有人可以。唯一能肯定地說你有(或沒有)意識的人或東西,就是你自己。只有你能聽見自己內心的獨白,你是唯一知道痛苦與愛是什麼感覺的可靠來源。其他人也許會告訴你,他們經歷了這些東西,但是你永遠無法證實他們是否只是重複一些程式寫好的某些關於感覺的高談闊論,只是設計來欺矇你的。

    但這種「哲學喪屍」真的可能存在嗎?那些相信我們能建造出有意識機器的人說,不可能。如果機器有能力展現出所有意識的表徵,那它必定有能力擁有意識。否則,我們就是在召喚某種「本質」,認為機器必須被賦予這樣東西才能夠有意識,就像古老時代認為是「生之氣息」*50 使生物得以活過來那樣。假設意識是從某種形式複雜的資訊處理設備中突現的,必定好過於想像某個特殊的、神祕的東西,能把生物轉變成有自我意識的存在。


    機器人時代的性與死

    嘉蘭是《人造意識》的編導,他使我們對於納森為什麼把機器人設定成女性幾乎毫無疑惑。納森顯然對他的創作品裡裡外外都很清楚。

    在真實世界裡,性是AI發展的主要推動力,這個趨勢很明顯。這可能會是個問題。有些研究人員擔心,如果你以發生性行為為目的購買(或是租用)一臺機器人,將會削減你對人類的尊重,或是與人互動的慾望。根據反性機器人團體的主張,這樣沒有任何好處,用人工智慧取代工廠工人或計程車司機是一回事,但取代具有種種微妙特質與複雜性的人類關係,又是另一回事了。這個團體主張,這樣會使同理心消失,使真正的人類——尤其是女性——承受痛苦。

    說到痛苦,讓機器人取代人類做出軍事決定的如意算盤也同樣值得質疑。目前沒有任何AI被授權使用致命武力,但是有很多軍事狂熱分子主張應該要這麼做。

    就某些方面而言,你能理解這些人的理由。機器能以光速處理資訊,還有辨識目標的能力,能為按下扳機後可能的後果提供統計數據。你確實可以說AI比人類更適合現代戰爭,而因為人類決策造成平民死亡率的報導更是火上加油。

    最大的問題是,你是否真的能設下足夠的條件,確保這麼做不會出錯。目前我們在這個決策過程中,還是保留了一個人類。我們不相信AI比人類更能做出攸關生死的決定。而《人造意識》認為,這可能是件好事。


    如果是這樣,那麼儘管機器是以矽為基礎,而不是以碳為基礎,我們還是能做出有意識的機器,需要的只是增加工程學的複雜度。人腦的每一個神經元會從其他大約一萬個神經元中獲得輸入訊號,它的輸出訊號也會進入其他一萬個神經元裡。當整個大腦包含八百六十億個神經元時,試圖重現必要的複雜性就是一個龐大的任務了。但你又知道什麼呢?已經有人嘗試這麼做了。

    首先是 IBM 的「神經型態」晶片。這是以哺乳類大腦為模型製作的晶片,一開始大約有六千個電晶體(這是數位開關,所有電腦的基礎元件)組合成一個基本的神經元,再把數百個這樣的神經元連接在一起,創造出它們之間二十五萬條以上的連線。接著IBM 再加上一個記憶體模組,管理必須儲存的資訊,但這基本上就像是哺乳類大腦小小的一部分。目前證實把這樣大量的模組加在一起是有用的——以神經型態晶片為基礎的大腦,已經有能力進行初級的學習。隨著這顆人工大腦愈來愈大(老實說,是大很多),它也許有潛力能表現出意識的跡象。

    如果你因此感到憂心,讓我們再雪上加霜吧。這一切研發都是由美國軍方出資,目標是把這些大腦裝在無人機上,由它們自己決定地面上有什麼特別的東西,選擇要追蹤或是摧毀。我們已經有無人機飛彈,並且有能力自動辨識目標並決定是否開火。目前為止,我們還沒有用過它們,不過……

    潘提·海克恩(Pentti Haikonen)的 XCR-1 機器人比較沒有威脅,它是一個能放在你手掌上的小箱子,有輪子和眼睛,能發出聲音,前端還裝了一個像是鑷子的爪鉤。XCR-1 在環境中移動時會自言自語,然後回答基本問題。它很可愛,所以看到海克恩三不五時就要打它,簡直讓人生氣。

    海克恩之所以這麼做,是要讓機器人將它看到的東西與自身的感覺建立關聯性。「痛覺」會中斷正常功能,所以它會避開和這種感受有關聯的東西。海克恩採取這種基本上很討人厭的行為:給機器人看某個綠色的東西,然後打它的痛覺感應器。因此 XCR-1 學到綠色是不好的,就會避免接觸綠色的東西。觀看這個學習過程還滿讓人難受的。

    海克恩確實彌補了它一些。他也會打機器人的愉快感應器,創造看到某個東西的正面感覺。

    感覺?這是一個很有爭議的字。雖然海克恩不會清楚地這麼表示,但是 XCR-1 確實可被描述為具有一丁點的意識。就像艾娃的例子一樣,只有你能決定它們是否有意識。上網搜尋海克恩的Youtube 影片,問問你自己,我們是否已經進入機器意識的時代了。你可能會對於自己打算說出的答案感到驚訝。

    所以,這一切會發展到什麼地步?該是提出第三個問題的時候了:我們能勝過天然的人類智慧嗎?

    美麗心靈*51

    邁可:艾娃的智慧顯然有限。

    瑞克:你為什麼會這麼說?

    邁可:在電影結尾她來到外面的世界時,她有帶任何東西嗎?她有拿包包嗎?

    瑞克:沒有。

    邁可:那她的充電器在哪?有她那樣的腦袋,她最多撐一天就會沒電了。

    瑞克:有道理。而且她打算在獲得自由的第一天,待在十字路口觀看行人。不太像是我們熟悉的機器人毀滅人類的劇情。

    邁可:沒那麼像魔鬼終結者,比較像是終結她自己——在她無聊到死之前。

    瑞克:這麼爛的雙關語你都喜歡,真是夠了。

    《人造意識》裡最令人不寒而慄的段落之一,就是艾娃在納森製造的另外一個機器人京子耳邊說悄悄話。從這時起,你開始真心為納森與加勒感到憂慮。這些機器人共謀,它們團結起來對抗人類了,這不會有什麼好結果。

    原因不難想像。當我們必須創造出人類等級的智慧(我們先不要被意識的問題干擾),我們就必須假設它會有自我改善的傾向,畢竟人類就是這樣,所以這一點很有可能被納入使 AI 得以存在的程式裡。我們希望機器變聰明,所以我們會幫助它們有自助能力。

    一個會自我進步的人類等級人工智慧會做什麼?嗯,它不會原地踏步。它不會這麼想:「你知道嗎?我想我們都能同意,這大概就是所有人或所有東西,所需要達到的聰明程度了。」不,它會讓自己比人類程度的智慧再更聰明一些。然後重複個幾次,它就會比史上任何人類都更聰明了。它會有資源使自己達到物理上允許的最聰明的程度,它會成為超級智慧。

    然後它的超級智慧可能會讓它製造出自己的複製品(你懂,以防萬一……),可能還會製造一點變化。然後它會開始喜歡與這些和自己相似的複製品互動。沒多久,它龐大的心智會有意識地認為人類只是一個小黑點,或者它們全都會這麼認為,不重要。到了這時候,我們就完了。

    這種情境正是所謂的「科技奇點」(technological singularity)。但也不一定只有一片灰暗與悲觀,上述的末日情節只是其中一種可能性。另外一種可能性是,我們允許自己和這些機器融合,然後一同發展。你想創造生化人(cyborg,半機器人)嗎?

    這是個引人好奇的前景。我們能給自己植入的記憶體升級,用矽晶片強化神經元,使放電速度快一百萬倍,擴大我們的感官——都是些好東西。我們能成為超級英雄,更能夠設計這些強化手段,使其升級。我們能有這一天嗎?我們會有這一天嗎?怎麼做?以下依序是問題的答案:

    可以!

    也許!

    沒人知道。

    第三個答案讓人洩氣,對吧?但事實上,當你開始問我們要怎麼達到人類等級的人工智慧這樣的問題時——也就是超越目前簡單的推斷能力——能說的其實不多。換句話說,可信的內容非常少。


    最適者生存

    1942年,科幻小說作家以撒·艾西莫夫(Isaac Asimov),發表了機器人三大法則,堪稱是最早且有條理的機器人決策法則:

    1 機器人不能傷害人類,或是袖手旁觀坐視人類受傷。

    2 除非違反第一法則,否則機器人必須遵守人類的命令。

    3 在不違反第一和第二法則的前提下,機器人必須保護自身的存在。

    但是AI不是機器人,它會遵守這些法則嗎?畢竟,它可能會認為自己不是僕人或奴隸,而是有權利的個體——一個不了解為什麼人類應該享有特權的個體。


    關於科技奇點,最偉大、最有遠見的人叫做雷·庫茲威爾(Ray Kurzweil)。他在 1970 年代末就創造出提供盲人使用的閱讀機器,這值得讚賞的成就促使他在 1980 年代與盲人歌手史提夫·汪達(Stevie Wonder)合作,發展了一系列的合成器鍵盤。此後,他開始研究其他東西,舉例來說,他目前就在 Google 擔任工程總監。他的網站毫不扭捏地列出自己獲得的讚譽:他曾獲頒美國國家科技創新獎章、二十個榮譽博士學位,以及三屆美國總統授予的榮耀等等。他也名列美國發明家名人堂。

    如果庫茲威爾值得信任,那麼科技奇點將在 2045 年發生。他怎麼知道?是這樣的,他在 2005 年預測我們到了 2020 年代中期,會做出像樣的大腦模型,接下來我們會「有能力創造出符合人類智慧的非生物性系統……」,時間會是 2029 年。

    怎麼做?透過奈米科技,這也會在 2020 年代發展成熟。不過,這些是他在 2005 年說的。2017 年時,他把這個里程碑的時間改到了 2030 年代,但奇怪的是,他並沒有修改 AI 達到人類等級智慧的時間。

    先不管這些小細節,在庫茲威爾眼中的未來,我們將有能力「在分子層級重新安排物質與能量」。有了到位的奈米科技,我們就能創造出奈米機器人——如血球般大小的機器人,能夠「在血流中移動,摧毀病原體、移除廢棄物、修正 DNA 錯誤,以及逆轉老化過程」。然後似乎就能做出新的大腦,「我們最終將能利用毛細管內數十億個奈米機器人,從內部掃瞄大腦所有顯著的細節,然後備份這些資訊,以奈米科技為基礎,重新創造出你的大腦。」

    而這只是這個願景的開始而已。「奈米機器人會讓我們保持健康,從神經系統內提供全面式的虛擬實境,利用網路實現由大腦到大腦的直接溝通,在其他方面大幅擴張人類智慧……。到了 2030年代,人類智慧的非生物部分將會成為主宰。」

    這是很不賴的前景,但不是每個人都像庫茲威爾這麼樂觀。《科學人》(Scientific American)前總編輯約翰·連尼(John Rennie)稱之為「不可靠的未來主義」,認為庫茲威爾的預測「漏洞太多,以至於近似缺少可證偽性*52 」。此外,目前負責大腦研究機構(還有其他的,例如幫忙搜索外星人)的微軟共同創辦人保羅·艾倫(Paul Allen),也認為我們距離這令人振奮的成就,還差了十萬八千里。

    艾倫勉強承認,我們可以了解大腦的基本運作原則,但是需要的不只是這種靜態的藍圖——我們需要動態的。大腦如何做出反應並且改變?數以十億計的平行神經元如何互動,促使人類意識與原創想法出現?

    艾倫認為這種知識才是他所謂「複雜度煞車」*53 要處理的東西。換句話說,這乍看之下是可行的,目前的進展甚至讓人覺得前景可期,但是,你愈嘗試更大的進步,就會發現愈困難。

    如果你想要一個複雜度煞車的好例子,就看看奈米科技的進展吧。自從 1980 年代被認真提出後,這些模仿生物機制的超小機械玩意兒遲遲沒有現身。艾瑞克·德雷克斯(Eric Drexler)在 1986 年出版的《創造的引擎》(Engines of Creation)一書中描繪了這樣的未來,但在 2013 年,他承認還沒有人真的開始製造這些小機器。

    不過最近情況似乎有些好轉。舉例來說,哈佛大學的研究人員已經利用折疊後的 DNA 雙股做出奈米機器人,在蟑螂的體內投藥。這些折疊起來的 DNA 碰到正確種類的生物分子時會解開,釋放出所攜帶的藥物劑量,這意味著它能鎖定造成特定疾病的化學物質或細胞。

    然而,這距離在人類身體內巡邏的修復型奈米機器人還有一大段路要走。關於這個奇點,有人更落井下石主張:不管它有多聰明,人造大腦就是無法勝過人類智慧。我們的大腦跟著我們的身體(好吧,是在頭頂)演化,歷經數百萬年演化的磨練。可能就是要大腦加身體的二合一套餐,才是我們智慧的真正源頭?畢竟我們的基因體內帶著很多資訊(如《千鈞一髮》那章裡講到的),說不定我們的大腦之所以看起來聰明,是因為它們已經演化成和我們身體的其他部位同時並行。

    換句話說,也許 AI 不會在可預見的未來毀滅我們。也許我們還是能控制它的進展,使它幫助我們建立一個更好的,而不是更可怕的世界。

    邁可:這是個意味深長的「也許」。我們學到了什麼呢?人工智慧已經存在,它的能力正在快速成長。沒有人知道機器是否有朝一日會出現意識——因為沒有人知道「意識」的意義……

    瑞克:還有,我可能會有變得超級聰明的一天。

    邁可:你會把自己上傳到電腦裡,讓自己永生不死嗎?

    瑞克:當然。你呢?

    邁可:我不知道。那感覺像是一種奇怪的存在,我滿喜歡自己的身體的。

    瑞克:恐怕只有你一個人這麼想。


    註釋

    *44 譯註:瑞克在本片中有客串演出,暗示他演得很糟。

    *45 譯註:指 2014 年描述圖靈生平的同名電影。

    *46 譯註:美國哲學家約翰·瑟爾(John Searle)於 1980 年提出強人工智慧(Strong A.I.)和弱人工智慧(Weak A.I.)的分類。

    *47 瑞克:搞什麼鬼?

    *48 小墨的動機可能和我們對《決戰猩球》的看法有關。牠是不是在收集情報,好作為未來章魚統治人類計謀的一環?

    *49 其實沒有。

    *50 譯註:例如《聖經》經文:「耶和華神用地上的塵土造人,將生氣吹在他鼻孔裡,他就成了有靈的活人,名叫亞當。」(創世紀 2:7)

    *51 譯註:原文為 A Beautidul Mind,指涉 2001 年同名電影,台灣譯為《美麗境界》。

    *52 譯註:falsifiable,由經驗得來的表述,必須容許邏輯上的反例存在。此處意指庫茲威爾的論述無法容許邏輯上的反例存在。

    *53 譯註:因為生物系統涉及許多面向與物質,大腦神經元間的連結也不能用單一方程式定義; 若改變其中一項,無法確定不會影響到另一項,因此這種複雜系統具有先天的剎車作用。