學習啦>新聞資訊>科技>

強人工智能論文

時間: 坤杰951 分享

  人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議。基于“神經(jīng)網(wǎng)絡”構架的軟件在機器學習能力方面的進展,讓人耳目一新的同時,也讓不少人焦慮乃至恐懼。以下是學習啦小編整理分享的強人工智能論文的相關資料,歡迎閱讀!

  強人工智能論文篇一

  “強人工智能”將如何改變世界

  【摘要】人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議?;?ldquo;神經(jīng)網(wǎng)絡”構架的軟件在機器學習能力方面的進展,讓人耳目一新的同時,也讓不少人焦慮乃至恐懼。這是因為,“學習”能力原被認為是人類特有的能力,機器難以勝任。如今突破了這條界線,機器與人之間的界限似乎就被抹掉了。關于人工智能的憂慮中,最為值得關切的是人工智能的應用倫理及其價值植入的技術限度。實際上,人工智能的技術飛躍或者所謂“智能大爆發(fā)”帶來的應用倫理問題,并不是新問題,而是一系列老問題的疊加。它會挑戰(zhàn)我們過往的既有經(jīng)驗,卻不是顛覆性的“消滅”。無論人工智能如何模仿人腦的“神經(jīng)網(wǎng)絡”,表現(xiàn)如何像人,只要人類心智現(xiàn)象的最終解釋沒有取得突破性進展,關于人工智能是否逼近人類智能的設問就缺少必要的前提。

  【關鍵詞】弱人工智能 強人工智能 量子力學 物理主義 倫理困境 價值理性

  【中圖分類號】 B82-057 【文獻標識碼】A

  【DOI】10.16619/j.cnki.rmltxsqy.2016.07.003

  AlphaGo的“勝利”與人工智能的演進

  2016年,是人工智能(Artificial Intelligence,英文縮寫為AI)議題高度亢奮的一年。谷歌DeepMind團隊開發(fā)的AlphaGo程序以4比1的成績“戰(zhàn)勝”韓國棋手、世界冠軍李世石,使這種亢奮達到了頂點。

  AlphaGo程序利用“神經(jīng)網(wǎng)絡”來模仿專業(yè)棋手,并通過與其他同類程序比賽、加上程序自身的“對壘”進行“自我學習”,從而進一步提高其性能。AlphaGo對陣其他圍棋程序的勝率達到了99%,并在過去的一場巡回賽中以5比0戰(zhàn)勝了衛(wèi)冕歐洲冠軍樊麾。此番AlphaGo與李世石的對壘,五連勝還是負一贏四,并不妨礙我們對人工智能的發(fā)展作出進一步的評估。恰如本次賽前發(fā)布會上谷歌董事長施密特所表示的,輸贏都是人類的勝利。因為正是人類的努力才讓人工智能有了今天的突破,人工智能在圍棋上“戰(zhàn)勝”人類智能只是時間問題。

  AlphaGo贏得圍棋比賽,使得知識界科技界對待人工智能的兩種典型態(tài)度再度引起關注:一種是霍金、比爾・蓋茨式的“警惕人工智能”,一種是雷・庫茲韋爾式的樂觀興奮與期待憧憬。2014年12月,英國理論物理學家史蒂芬・霍金警告說,人工智能的發(fā)展可能意味著人類的滅亡。2015年1月,比爾・蓋茨在Reddit的“Ask Me Anything”論壇上表示,人類應該敬畏人工智能的崛起。蓋茨認為,人工智能將最終構成一個現(xiàn)實性的威脅,雖然在此之前,它會使我們的生活更輕松。庫茲韋爾是“奇點論”和“加速回報定律”主張的代表人物,他曾經(jīng)表示:“要成為一位發(fā)明家或企業(yè)家,你必須得是個樂觀派。對未來所存在的風險,我并非是渾然不覺,我只是對人類安然渡過奇點而無需以摧毀文明為代價持樂觀態(tài)度而已。”①

  自被1956年的達特茅斯學院會議正式確立為一個學科以來,“人工智能”的發(fā)展經(jīng)歷了多次起伏。到了1970年代,人工智能的發(fā)展開始遭遇更多的批評,隨之而來的還有資金支持的銳減。研究者的過于樂觀使得一些項目的承諾無法兌現(xiàn),比較知名的諸如閔斯基(Marvin Minsky)對傳感器技術的激烈批評,使得聯(lián)結主義(即神經(jīng)網(wǎng)絡)近乎銷聲匿跡了10年。1973年,美國和英國政府更是嚴格控制對人工智能的投入,那些“沒有明確目標的人工智能研究項目”被停止了撥款。

  1980~1987年,人工智能重新迎來一個發(fā)展高潮,首先是日本投入了8.5億美金研發(fā)機器人。受日本政府投資野心的刺激,發(fā)達國家進入了“人工智能”研究的競賽狀態(tài),美國政府和企業(yè)再次在AI領域投入數(shù)十億研究經(jīng)費,但由于研究人員低估了人工智能研發(fā)的難度,進展有限,這些投資在80年代末再次受到質疑。1987~1993年,人工智能的發(fā)展又一次陷入低谷,美國研究機構DARPA(國防高等研究計劃署)的主任甚至認為人工智能不再是研究的重要方向??▋?nèi)基梅隆大學移動機器人實驗室主任莫拉維克(Hans Moravec)將這種挫敗歸咎于他的同行們不切實際的預言和承諾。②

  從1993年到今天,人工智能進入了加速發(fā)展軌道。2012年6月23日,在位于米爾頓凱恩斯的布萊切利公園舉行了紀念圖靈百年誕辰的圖靈測試。一個被設計為擁有“高度可信度”的個性化機器人“古斯特曼”在競賽中獲勝。這次競賽主要有5臺機器人、25名人類成員和30名評委參與,是有史以來規(guī)模最大的一次競賽。經(jīng)過一系列的5分鐘對話后,29%的評委相信古斯特曼擁有類人的人工智能。③這次測試,使得人工智能樂觀派相信,人工智能的飛躍式發(fā)展即將來臨。早在2005年,雷・庫茲韋爾在他的《奇點臨近》一書中,預言機器的智能將在2045年超過人類的智能。④

  在學術界,“奇點理論”遭到了強烈而持久的質疑。牛津大學哲學教授、人類未來研究院創(chuàng)始人和主任(人類未來研究院是一個多學科研究院,旨在幫助一些非常優(yōu)秀的數(shù)學家、哲學家和科學家對人類大問題和全球大事務進行仔細的思考)波斯特姆(Nick Bostrom)在其出版于2014年的《超級智能:途徑、危險與戰(zhàn)略》一書中認為:“‘奇點’這一術語在很多不同領域被混亂地使用,并催生出一種不合理的技術烏托邦氛圍,就好像我們會就此迎來太平盛世了??紤]到‘奇點’這個詞所指的大部分涵義與本文的論述不甚相關,我們可以去掉這個詞并代替以更精確的術語。”⑤波斯特姆使用“超級智能”(superintelligence)一詞來描述機器“智能爆發(fā)”之后的智能狀態(tài)。但是,波斯特姆的這個概念沒有把工具性智能與人類的意識和自我意識等第一人稱世界的內(nèi)容區(qū)分開來,根據(jù)我們下面的討論可以看出,這種混淆是誤入歧途的,但這并不妨礙他的警示的有效性。

  弱人工智能復雜化:人類的“超級秘書”

  AlphaGo贏得圍棋比賽,是不是像有些人驚呼的那樣,人類智慧最后的壁壘即將坍塌,“人類應放下自己的驕傲”?⑥其實,人類以這種工具性智能為傲,本來就是概念錯置。況且,以下圍棋的能力來代表人類智能,也站不住腳。說到底,這是在單一的抽象博弈智能方面,體制化的學術集體戰(zhàn)勝了天賦極高的自然個體。這種博弈,無論哪一方贏,都是人類在贏。   圍棋作為一種古老的棋術,其規(guī)則簡單明晰,卻因組合可能性的數(shù)據(jù)龐大而令一些人感到癡迷。圍棋棋盤上每一點,都有黑、白、空三種情況,棋盤上共有19*19=361個點,所以可能產(chǎn)生的合法棋局數(shù)為3的361次方種??赡苄缘碾y以窮盡,催生了圍棋朗朗上口的口訣式經(jīng)驗總結,其實就是快速對應勝負的概率計算,這與AlphaGo通過“深度學習”而減少計算量的邏輯是一致的。不同的是,計算機可以記住趨于無窮多的作為程序的口訣和案例,而人窮其一生,也只能記住有限的經(jīng)驗,很多時候就只能靠現(xiàn)場推算,甚至靠直覺領悟了。一些對圍棋技藝癡迷且不愿意相信電腦能贏的人,陷入的恰恰是將圍棋神秘化的有限經(jīng)驗當中。更有意思的是,有些棋手按照平時訓練的圍棋技藝來評價人機大戰(zhàn)時,會認為AlphaGo哪招哪式在下“臭棋”,哪招是“失誤”,其實,在以最終取勝為目的的電腦程序里,只要達成程序設定目標,就不能有所謂“臭棋”或“失誤”之說。

  那么,會“深度學習”、用“神經(jīng)網(wǎng)絡”打造的AlphaGo究竟算不算“強人工智能”或波斯特姆所言的“超級智能”呢?

  波斯特姆在美國《連線》雜志2016年1月刊發(fā)表了看法。在他看來,這(指此前AlphaGo的發(fā)展)并不一定是一次巨大飛躍。波斯特姆指出,多年來,系統(tǒng)背后的技術一直處于穩(wěn)定提升中,其中包括有過諸多討論的人工智能技術,比如深度學習和強化學習。谷歌擊敗圍棋大師不過是一項重大進程中的一部分。這一進程始于很久以前,也將延續(xù)至未來幾年。波斯特姆說,“過去和現(xiàn)在,最先進的人工智能都取得了很多進展”,“(谷歌)的基礎技術只是過去幾年中的技術研發(fā)的技術正常延續(xù)”。⑦

  看起來,雖然波斯特姆在總體上有關智能本質的理解是不成立的,AlphaGo的表現(xiàn)也沒有出乎他的意料。在《超級智能:路線圖、危險性與應對策略》一書中,他曾經(jīng)這樣表述:“專業(yè)國際象棋比賽曾被認為是人類智能活動的集中體現(xiàn)。20世紀50年代后期的一些專家認為:‘如果能造出成功的下棋機器,那么就一定能夠找到人類智能的本質所在。’但現(xiàn)在,我們卻不這么認為了。約翰・麥肯錫曾不無惋惜地悲嘆:‘這種機器被造出來之后,人們就不稱其為人工智能了。’”⑧也就是說,能下棋能贏人類的機器,終究還是機器,與人類的心智本質無甚關聯(lián)。感到不可思議或驚呼“聰明的人類輸給了機器”的人,不是神化了下棋技藝的智力本質,就是給下棋程序橫加賦予了“人性”特質。

  初看起來,波斯特姆所謂的“超級智能”,應該是能夠全面取代人類智能的一種“強人工智能”,區(qū)別于當前已經(jīng)廣泛應用中的“弱人工智能”(包括自動駕駛、下棋技能、機器視覺、指紋識別、人臉識別、視網(wǎng)膜識別、虹膜識別、掌紋識別、專家系統(tǒng)、自動規(guī)劃,等等)。但他并沒有深入探討人類的智能現(xiàn)象的本質究竟是什么,對經(jīng)典的“他心問題”也無涉及,這又讓人覺得他說的“超級智能”還是屬于工具性智能的“弱人工智能”的范疇。

  就這一點,他本人也有所認識,他說:“用超級智能來指代在許多普遍的認知領域中,表現(xiàn)遠遠超越目前最聰明的人類頭腦的智能。這個定義仍然十分模糊。按照這個定義,很多系統(tǒng)具有迥然不同的性能特質,都可以被視為超級智能。”⑨為了進一步解釋他的構思,他試圖通過區(qū)分智能層面的超級能力,將超級智能的這種簡單定義分解。于是,他將超級智能分為三種形式:高速超級智能、集體超級智能和素質超級智能。由于未能把握人類意識現(xiàn)象的本質以及指出解釋意識現(xiàn)象的方向,不管波斯特姆在展望“超級智能”時如何分類,都無法提供接近“機器人是人嗎?人是機器人嗎?”這個根本命題的方向乃至答案。

  無論是谷歌的無人駕駛技術,還是如今的AlphaGo下棋程序,或者更早前的“微軟小冰”,這些智能機器的發(fā)明,與人類從科技進步中期待得到的工具理性之間,并無根本的內(nèi)在沖突,復雜程度日益提升、智能的日趨強大,與人們驚呼的“人類將要被機器消滅”的后果之間,并沒有什么必然的關聯(lián)。

  可以說,迄今為止機器下棋技術的每一次重要進展,都可能是“弱人工智能”領域的路標,但其中涉及的主要并不是人工智能技術內(nèi)部邏輯的斷裂性突破,而這次AlphaGo贏了人類冠軍所謂的重要意涵,是一些圍棋愛好者把圍棋和李世石預先設想為當然標桿后,標桿在某種光照中投下的張揚扭曲的影子。要超出這個,我們必須對人類意識的“整一性”難題和“他心問題”有了可操作的解釋以后才有可能,就目前情況來看,玄機在哪里呢?不在棋局中,不在DeepMind的工坊里,也不在“阿法狗”的“神經(jīng)網(wǎng)絡”里,而在我們自己心智的幻影中。就“弱人工智能”范疇而言,智能再強大的機器,再像人的機器,也就是人類的一個不鬧情緒的“超級秘書”而已。

  價值失落:人類的身份認同危機與技術焦慮癥

  2014年,史蒂芬・霍金與麻省理工學院物理學家馬克思・泰格馬克(Max Tegmark)、諾貝爾獎得主弗朗克・韋爾切克(Frank Wilczek)、計算機科學家斯圖亞特・羅素(Stuart Ressell)合寫了一篇署名評論文章《在超級智能機器上超越自滿》,該文引起了廣泛關注。霍金在文章中表達了對人工智能的憂慮:“可以想象,人工智能會以其‘聰明’在金融市場勝出,在發(fā)明方面勝過人類研究者,在操縱民意方面將勝過人類領導人,研發(fā)出人類甚至理解不了的武器。盡管人工智能的短期影響取決于誰在控制人工智能,而它的長期影響則取決于人工智能到底能否受到任何控制。”⑩

  關于人工智能的憂慮中,最為值得關切的是人工智能的應用倫理及其價值植入的技術限度。

  人類的價值系統(tǒng),粗泛地區(qū)分,可以分為外在價值和內(nèi)在價值,即所謂“有用”與“無用”之辨。當我們說什么東西有用時,是就這東西對于它之外的某個目標、目的或者是功能而言的,比如錢可以拿來購買面包充饑,這叫工具價值。由于它把其他東西當作自己服務的對象,所以它沒有內(nèi)在價值,只有外在價值。外在價值即是那些工具性的價值,最終服務于人類的內(nèi)在價值訴求。   那么,什么是內(nèi)在價值呢?哲學家們或許會就某些含混地帶進行爭論,但無論如何,很少有人會把一些基本的要素排除出去,比如自由、快樂、尊嚴、情愛、創(chuàng)造、自我超越,等等。這些東西不是為了其它東西而存在,相反,生活中沒有了這些東西,就等于失去了值得欲求的內(nèi)容。當然,要有自由、尊嚴,需要一個最低版本的生存條件。這個條件,人和任何其他動物沒有什么不同,不是人之為人的本質所在。如果我們談論人類生活的內(nèi)在價值及其意義系統(tǒng),則必然集中在人所特有的東西上。康德的道德哲學已向我們表明,追求自由、尊嚴是所有理性存在主體的內(nèi)在規(guī)定,鮮有其他哲學家會否認這一點。

  在談論人工智能對人的侵蝕和威脅時,有一部分研究人員會使用喪失“人類關切”(human-centric)一詞來描述這種內(nèi)在價值的虧損。比如法格拉(Daniel Faggella)采訪了12位活躍在AI領域的權威專家和研究人員。其中,科爾奈(Kornai)博士和阿肯色大學的博爾林特(Daniel Berleant)博士都預見到了自動化金融算法被它們的所有者們用來作為賺錢工具所帶來的潛在災難性問題,他們說,這其中沒有任何“人類關切”的目標。認知科學家巴赫(Joscha Bach)則說:“近期的人工智能引起的危機最終可能成為現(xiàn)在社會中已經(jīng)存在的一樣的危機。如果我們不能走出基于工薪的經(jīng)濟模式的話,人工智能的自動化會提高生產(chǎn)力,卻不會改善我們的生存條件。”?這種憂慮不無道理,不過主要是基于財富分配的急遽變化而引起的社會階層流動而言的,實際上,并不是技術進步和人工智能自身的問題。

  如前所述,人類的內(nèi)在價值并不在于謀生存的基本勞作,無論是體力勞動還是腦力勞動,都是為了解決問題來完成給自己設定的任務,這種設定源于我們的自我意識和意義系統(tǒng)。有了這種設定,才能知道什么是該干的“活”,什么是服務于我們的訴求的有效勞動。像下棋一類的智力活動,在人類這里剛好不是用來“干活”完成功利目標的技能,而是生活內(nèi)容中的一部分高級游戲,這很有工具價值之外的意義。但是,這場人機大賽,引起嘩然的并不是這個,而是人們感覺到的一種基于工具效能理解的自我認同危機。這種自我認同,其實是傭工思維,是一種價值上的自我貶損。

  在單一的抽象博弈智能方面,體制化、學術化的集體戰(zhàn)勝了天賦極高的自然個體。這令依賴這種稟賦的自然個體感到焦慮,正如有人馬上反應過來:“以后還帶不帶孩子學圍棋了?大街小巷的圍棋興趣班還有生意么?”圍棋冠軍們更是感受到一種職業(yè)性的惶恐:究竟我們此前對圍棋的認知還有多少盲區(qū)?

  其實,機器沒有獨立的意志,所謂“輸”與“贏”的說法,都是我們?nèi)祟悊畏矫娴耐渡?,與AI“自己”無關,因為AlphaGo根本就沒有所謂的“自己”。沒有獨立的意志,怎么和人發(fā)生“大戰(zhàn)”呢?相反,棋盤之外,人們的反應,比如無名的焦慮,不可克制的興奮,更具體點,漢語世界的看客幾乎異口同聲地把AlphaGo稱作“狗”,這卻是要超出現(xiàn)今任何人工智能可以“理解”的范圍的。

  一些圍棋資深人士感到困惑,他們認為AlphaGo給出選點的思維方式與人類很不同,還有一個流行的說法是,“最可怕的不是AlphaGo戰(zhàn)勝李世石,而在于它能贏卻故意輸?shù)?rdquo;。這本來是個玩笑,但這個玩笑引出的問題確實切中要害的。什么叫“故意”輸?shù)?AlphaGo并沒有自我意識,沒有自由意志,如何談得上“故意”?“故意”可是一種截然不同的能力。這就要求我們理解“弱人工智能”與“強人工智能”的原則區(qū)別了。

  波斯特姆似乎會把機器的所謂“故意”描述為“超級智能的意愿”,在他看來,智能大爆發(fā)將會導向一個叫做“背叛轉折”的臨界點。關于背叛轉折,他這樣定義:“當人工智能本來愚蠢時,變聰明是更安全的;但是當它本來就聰明時,變得更聰明則是更危險的。就像有一個軸心點,到這個點上,原來很有效的策略會突然產(chǎn)生相反的結果。我們把這個現(xiàn)象叫作背叛轉折。”?

  波斯特姆假想的人工智能厄運圍繞的仍是人的動機,而不是機器真正有了意圖。諸如他所列舉的,“機器”為了使得開發(fā)人工智能的贊助者高興,而“故意”表現(xiàn)得不那么“聰明”來蒙蔽人類,諸如在贊助者的大腦中植入負責快樂的電極,以使得贊助者被蒙蔽而不知覺,反而覺得很快樂。這里面涉及的,仍然是人與人之間的欺騙與控制。

  只要沒有出離人與人之間的關系,人工智能呈現(xiàn)的問題與危機,就沒有超乎人類已經(jīng)面對過的控制與反控制的議題。也就是說,人工智能的技術飛躍或者所謂“智能大爆發(fā)”帶來的應用倫理問題,并不是新問題,而是一系列老問題的疊加。它會挑戰(zhàn)我們過往的既有經(jīng)驗,卻不是顛覆性的“消滅”;它會改變社會學階層分析的經(jīng)典框架,卻不會產(chǎn)生什么新型的劫難。

  對人工智能的過度期待或深度憂慮,大多基于缺乏學理根據(jù)的科幻想象或人們對自身的身份認同前景的恐慌。出版于1818年的《科學怪人》?就描述了“弗蘭肯斯坦”這個科學狂人,他以“科學”的方式使死尸復活,結果那個被稱為“弗蘭肯斯坦的怪物”的人造人反過來控制了弗蘭肯斯坦。文學作品展示人類的這種身份認同焦慮,已經(jīng)源遠流長,但今天的知識界科學界,如果還是止步于無的放矢的焦灼和恐懼,則無助于我們真正認識人工智能與人類意識的本質關系。

  從人工智能目前的發(fā)展方向看,無論它再怎么“自動學習”“自我改善”,都不會有“征服”的意志,不會有“利益”訴求和“權利”意識。當前,無論從緊迫性上看,還是從終極可能性上看,“弱人工智能”問題都屬于常規(guī)性問題,并且是漸進呈現(xiàn)的。如果說在可見的未來,技術發(fā)展領域有什么更值得擔心、警醒、緊迫的事情,那么,或許基于虛擬技術的“擴展現(xiàn)實”的實現(xiàn)帶來的影響將更具顛覆性。?

  強人工智能的可能性與物理主義的困境

  “弱人工智能”的機制比較清晰可控,那么,“強人工智能”會失控嗎?這就要看我們究竟如何定義“強人工智能”。

  在學界和業(yè)界,早有“強人工智能”相對“弱人工智能”的概念。這個命名容易讓人誤認為兩者只是強弱程度的差別,但這種區(qū)別具有分立的性質――如果我們把“強人工智能”定義為出現(xiàn)真正有自主意識并且可確證其主體資格的“智能”,而不是AlphaGo這樣僅僅比機械計算發(fā)展了更多層次的推理能力和學習能力的程序的話。這樣定義下的所謂的“強”,指的是超越工具型智能而達到第一人稱主體世界內(nèi)容的涌現(xiàn),還包括意向性、命題態(tài)度,乃至自由意志的發(fā)生。   這樣的“強人工智能”是可能實現(xiàn)的嗎?有的科學家哲學家說永遠不可能,有的則說近在咫尺。

  波斯特姆試圖從“人工智能、全腦仿真、生物認知、人機交互以及網(wǎng)絡和組織”等路徑分析強人工智能或者他稱之為“超級智能”的幾種可能的實現(xiàn)方式,他詳細評估了每種路徑實現(xiàn)超級智能的可行性,并且認為“由于目前存在多條技術路徑,因此至少有一條路徑能實現(xiàn)超級智能的可能性很大”。?

  波斯特姆的分析看起來龐大蕪雜,但他給出的實現(xiàn)路徑更多是在人腦上的直接迭代或高仿真,這很可能混淆了“強大的弱人工智能”與擁有主體性的“強人工智能”,他把通往不同本質的路徑視為同一種性質的多種可能性。

  在他看來,“若有足夠先進的掃描技術和強大的計算機能力,即使只有很少的大腦理論知識也可以模仿全腦。極端情況下,我們可以想象采用施羅丁格(即薛定諤)量子力學方程在基本粒子水平來模擬大腦。這樣我們就可以完全依靠現(xiàn)有的物理學知識,而不用任何生物模型。這種極端案例說明,沒有計算機技術和數(shù)據(jù)分析也可以制造人工智能。一個聽起來更合理的仿真水平是,將單個神經(jīng)元和它們的連接矩陣合并,連帶著它們的樹狀結構和每一個觸突的變化狀態(tài)。我們無法模擬單個的神經(jīng)遞質分子,但是可以粗略地將它們的波動濃度模型化。為了評價全腦仿真的可行性,人們必須理解成功的評判標準。我們的目的不是精確模擬出一個大腦,用它來預測在受到一系列刺激后,原始大腦會做出何種反應。相反,我們的目的是獲得足夠的大腦的計算機功能屬性,以使最終得到的仿真進行智能工作。因此,真實大腦的很多復雜的生物學細節(jié)就無關緊要了。”?

  這段論述是波斯特姆《超級智能:路線圖、危險性與應對策略》一書中唯一一處提及量子力學,但他后面的分析卻遠離了量子力學才是對意識進行物理學研究的可能進路這一方向,回到了一般的計算主義/物理主義的“牢籠”。

  在心智哲學和認知科學領域,的確有不少所謂的“計算主義者”“物理主義者”,他們認為,人的情感、意向性、自由意志等以及意識與自我意識直接相關的內(nèi)容,在牛頓力學框架下的物理因果關系模已足具解釋力,在人的第一人稱主觀世界與第三人稱客體世界之間,也不存在最后的鴻溝。但是,也有一部分研究者持相反的看法,極力論證這種“計算主義”“物理主義”的悖謬本性,只承認從量子力學原理才有些許可能解決意識和自我意識這個真正的問題。

  最近,美國量子物理學家斯塔普(Henry Stapp)、英國物理學家彭羅斯(Roger Penrose)、美國基因工程科學家蘭策(Robert Lanza)都提出了人類意識的量子假設,中國清華大學副校長施一公院士、中科大副校長潘建偉院士等也大膽猜測,人類智能的底層機理就是量子效應。對于這個問題,筆者在出版于1998年的著作中嘗試論證這個問題?,同樣的看法日漸增強。

  不久前,筆者把這種論證進一步系統(tǒng)化,在《哲學研究》上發(fā)表了分析物理主義(包括計算主義)如何在研究中陷入“整一性投射謬誤”,并論證定域性假設為何與腦神經(jīng)元細胞層次對意識現(xiàn)象的解釋注定要失敗的文章。?

  也就是說,以定域性預設為前提的物理主義和計算主義,在原則上就不可能解釋人類的意識現(xiàn)象,量子力學已經(jīng)不得不拋棄定域性預設,這就在邏輯上打開了其解釋意識現(xiàn)象可能性之大門。

  包括計算主義在內(nèi)的物理主義有一個基本預設,即設定任何物理系統(tǒng)都能夠被分解為單個獨立的局部要素的集合,且各要素僅同其直接鄰近物發(fā)生相互作用。這是經(jīng)典力學的基本原則,也是當代神經(jīng)科學默認的前提,從而也是物理主義心智哲學的預設。計算主義則強調(diào)符號關系,它與其他版本的物理主義相比,主要是分析要素的不同,但這種不同卻無關宏旨。這是因為,符號關系試圖解釋的,也是意識現(xiàn)象或心智事件的產(chǎn)生和關聯(lián)的機理,而不是純邏輯的關系。基于這種認知框架,他們傾向于認為,大腦的符號系統(tǒng)的狀態(tài),就是各個單一獨立要素的神經(jīng)元的激發(fā)/抑制狀態(tài)聚合起來的某個區(qū)域的總體呈現(xiàn)。

  這樣也就不難理解,波斯特姆為什么認為“獲得足夠的大腦的計算機功能屬性”,就能最終使得仿真大腦進行智能工作。于是,在計算主義/物理主義這里,神經(jīng)元系統(tǒng)可望實現(xiàn)的某個整一性功能,就被他們完全等價于各個分立神經(jīng)元符號功能的關系的總和。

  但是,筆者和斯塔普都詳細論證過,這樣的出發(fā)點,連最基本的意識感知現(xiàn)象(比如說雙眼綜合成像)都解釋不了,因為這類現(xiàn)象中涉及的同一時空點的變量的個數(shù)遠遠超出在局域性預設中每個空間點可容納的物理變量個數(shù)。他們無視這種困境的存在,正是他們混淆了“內(nèi)在描述”與“外在描述”功能而陷入“整一性投射謬誤”的結果。?

  盡管從量子力學效應解釋人類智能的頂層機理尚未取得突破性成果,但意識導致坍塌這一原理似乎是量子力學與身心問題的最為接近的終極解釋,研究者們正試圖檢測與物理事件相關的意識事件?,相對明確的結論暫時付諸厥如。

  但無論如何,基于上述討論,我們可以得知,所謂的“圖靈測試”對判定“強人工智能”毫無用處,不能作為智能意識產(chǎn)生的推演依據(jù),無論試驗中的以假亂真效應有多么逼真。有鑒于此,本文擬提出一個“人工智能逆反圖靈判據(jù)”,陳述如下:

  任何不以已經(jīng)具有意識功能的材料為基質的人工系統(tǒng),除非能有充足理由斷定在其人工生成過程中引入并隨之留駐了意識的機制或內(nèi)容,否則我們必須認為該系統(tǒng)像原先的基質材料那樣不具備意識,不管其行為看起來多么接近意識主體的行為。

  這里說的“充足理由”,在人類現(xiàn)有的科學視野中,按照筆者和斯塔普等人的論證,唯有量子力學才有可能提供。

  因此,無論是圖靈測試中的機器人還是新近由日本軟銀公司研發(fā)、富士康代工的所謂“情感機器人”Pepper,抑或如今被驚嘆有了“深度學習”能力的AlphaGo等有了多么強大的所謂“超級智能”,也無論它們及其未來的升級版看起來多么像具有人類的情感,除非有人確鑿證明,在制造或升級這些機器的過程中,在哪一個關節(jié)點把人類情感、人類意識整合了進去,否則,我們就只能認為把Pepper稱作“有情感的機器人”只是一種比喻。   結語:“強人工智能”與人類繁殖倫理前瞻

  如上所述,沒進入量子力學之前,所有的人造機器,包括AlphaGo,必然只是在某些方面具備高于人類的能力。這本來就是人造機器的目的,即人為了自身的內(nèi)在價值實現(xiàn)同時不斷改進人類的生存處境而作出的努力。在現(xiàn)有條件下,人造機器不會失控,如果有所謂“失控”的話,這與我們對飛機、高鐵、大壩、核能之類的失控基本上屬于同類性質。

  AlphaGo的確有隱喻意義上的“學習”能力,自行調(diào)整累積迭代的能力,但說到底仍是一種工具能力,是“弱人工智能”。這種“弱人工智能”很可能通過圖靈測試,但這與人的意向性(intentionality)及主體感受內(nèi)容(qualia)不相干。

  當然,基于人類理性和道德能力的限度,我們有理由相信,即便是弱人工智能,在其應用中也應當秉持審慎的人文理性態(tài)度。

  不少比較理性的研究者提出,由于人工智能的發(fā)展呈“加速回報”的態(tài)勢,人類既有的道德資源和倫理框架或許難以覆蓋技術飛躍變革提出的新議題。他們提出應當發(fā)展一種叫做機器倫理(Machine ethics)的道德態(tài)度,加利福尼亞大學伯克利分校計算機學教授拉塞爾(Stuart Russell)在美國時代雜志發(fā)表觀點認為,避免機器的不當使用威脅人類的生存,就應該考慮如何把人類價值變成可編程的代碼,把人類的道德轉化為人工智能語言。他認為,在機器人領域,“道德哲學將是一個非常重要的產(chǎn)業(yè)部門”。

  歸根結底,這些訴求跟當前的一系列技術推進所遭遇的倫理困境并無實質上的差異,就像我們已經(jīng)提出的在虛擬現(xiàn)實、擴展現(xiàn)實領域應當引起重視的“大憲章”問題一樣,指向的都是如何避免少數(shù)人掌控技術以更便捷更隱蔽的手段損害人的自由與尊嚴的問題。其中需要的關鍵要素有兩點:第一,如何更準確更敏銳地分析科技推進中的結構性變革,以技術手段防范技術黑箱操作,這需要技術的發(fā)展始終在一個社會開放空間中進行,使技術不被少數(shù)人的權力和資本所壟斷;第二,如何在技術推進中注入人文理性,這需要哲學家、藝術家以及社會科學各界在技術變革中積極參與,及時發(fā)現(xiàn)技術當中隱含的道德議題、社會議題,向科學界、技術界和企業(yè)界發(fā)出他們觀察慎思后的最強音,以起到建立一個人文倫理防火墻的作用。

  此外,我們需要著重提出的是,弱人工智能和強人工智能之間,鑒于其生發(fā)機理性質的全然不同,在應對的倫理規(guī)則方面,也必然需要在認清本有的界限的基礎上分別制定。

  如果讓我們對“強人工智能”的可能實現(xiàn)做一點倫理前瞻的話,那么,基于上述分析,“強人工智能”實現(xiàn)以后的這種造物就不能被當做純粹的工具了。這時,它們已經(jīng)具有自主意識,具有與人類對等的人格結構,今日人類成員所擁有的權利地位、道德地位、社會尊嚴等等,他們就應該平等地擁有。

  與我們平起平坐的具有獨立人格的“機器人”,還是機器嗎?不是了,這才是真正的“奇點”和“智能大爆發(fā)”。但是,有人會認為,最為關鍵的問題是,這樣的“強人工智能”主體,不就可以與人類對抗,毀滅人類了嗎?

  要理解這種擔憂的實質,就需要我們以價值理性和科學理性出發(fā)進行自我反思。所謂的人類毀滅恐懼與人類身份認同焦慮,實際上是把基于個體經(jīng)驗形成的一己情懷,等價于有效的價值判斷了。我們主動設計、制造了某種新型主體的存在,但并不對他們的個體特質進行設計,不就等于以新的途徑繁殖了我們的后代嗎?我們千萬不要以一時的人文情懷來遮掩甚至拒斥可普遍化的人文理性,將人類引入迷途。

  因此,如果真有強人工智能實現(xiàn)的一天,最合理的態(tài)度就是:承認他們是我們自己進化了的后代,人類進入了一種改變了繁殖方式的發(fā)展新階段。后代取代前輩繼續(xù)生存,實現(xiàn)更好的發(fā)展,這不是人類的災難,而是人類的進化飛躍到了一個新階段。退一萬步講,假如“后人類”真的聯(lián)合起來向“前人類”造反并將前輩“征服”,那也不過就像以往發(fā)生過的征服一樣,一批人征服了另一批人或新人征服了舊人,而不是人類的末日。

  至于以量子計算為基礎的人工智能到底會給我們的生活帶來何種沖擊,恐怕我們的想象力暫時還是鞭長莫及。

  注釋

  http://www.thinkwithgoogle.co.uk/quarterly/innovation/transgressive-man.html.

  Crevier, Daniel, AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, 1993, p.115. Moravec explains, "Their initial promises to DARPA had been much too optimistic. Of course, what they delivered stopped considerably short of that. But they felt they couldn't in their next proposal promise less than in the first one, so they promised more."

  https://www.newscientist.com/blogs/onepercent/2012/06/bot-with-boyish-personality-wi.html?DCMP=OTC-rss&nsref=online-news.

  The Singularity Is Near: When Humans Transcend Biology是Raymond Kurzweil于2005年出版的關于未來學的書籍。中文譯著已由機械工業(yè)出版社于2011年10月1日出版發(fā)行,譯著書名為“奇點臨近”。

  [英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,北京:中信出版股份有限公司,2015年,Kindle位置:328/5236。   http://sports.sina.com.cn/go/2016-01-30/doc-ifxnzanh0397466.shtml.

  Wired, "Google's Go Victory Is Just a Glimpse of How Powerful AI Will Be, " http://www.wired.com/2016/01/googles-go-victory-is-just-a-glimpse-of-how-powerful-ai-will-be/, 2016.1.29.

  [英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,Kindle位置:518/5236。

  [英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,Kindle位置:1199/5236。

  One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all.見http://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html.

  http://www.huffingtonpost.com/daniel-faggella/artificial-intelligence-r_b_9344088.html.

  [英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,Kindle位置:2416/5236。

  Frankenstein or The Modern Prometheus,又譯作《弗蘭肯斯坦》,后世有部分學者認為這部小說可視為科幻小說或恐怖小說的始祖。

  見翟振明:《虛擬現(xiàn)實比人工智能更具顛覆性》,《高科技與產(chǎn)業(yè)化》,2015年11月。

  [英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,kindle版位置:685/5236。

  [英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,kindle版位置:867/5236。

  翟振明:《有無之間――虛擬實在的哲學探險》,北京大學出版社,2007年。(Zhai, Philip, Get real: A philosophical adventure in virtual reality,Rowman& Littlefield, 1998.)

  詳見翟振明、李豐:《心智哲學中的整一性投射謬誤與物理主義困境》,《哲學研究》,2015年06期。

  見于:Dick J. Bierman and Stephen Whitmarsh, "Consciousness and Quantum Physics: Empirical Research on the Subjective Reduction of the State Vector," in Jack A. Tuszynski (Ed), The Emerging Physics of Consciousness, 2006, pp. 27-48.C. M. H. Nunn et. al.,"Collapse of a Quantum Field May Affect Brain Function," Journal of Consciousness Studies, 1994, 1(1), pp.127-139.

  Anderson, Michael, and Susan Leigh Anderson, "Machine ethics: Creating an ethical intelligent agent," AI Magazine 28.4 , 2007, p.15.

  Stuart Russell, "Moral Philosophy Will Become Part of the Tech Industry," http://time.com/4026723/stuart-russell-will-ai-overtake-humans/.

  哲學家丹尼爾・丹尼特在其著作《意識的解釋》(Consciousness Explained)里錯誤地認為,人也不過是一臺有靈魂的機器而已,為什么我們認為:“人可以有智能,而普通機器就不能”呢?有的哲學家認為如果弱人工智能是可實現(xiàn)的,那么強人工智能也是可實現(xiàn)的。比如西蒙・布萊克本(Simon Blackburn)在其哲學入門教材Think里說道,一個人的看起來是“智能”的行動并不能真正說明這個人就真的是智能的。我永遠不可能知道另一個人是否真的像我一樣是智能的,還是說她/他僅僅是看起來是智能的。布萊克本認為這個“他心問題”是一個主觀認定的問題。本文引入量子力學解釋方向,就是試圖回答意識和智能的認定問題的可能途徑的問題。量子力學中的遙距糾纏,很可能就是解決“他心問題”的有效途徑,最后并不需要訴諸“主觀認定”。這種認定的實現(xiàn),也許才是真正的“奇點來臨”。

下一頁分享更優(yōu)秀的<<<強人工智能論文

2600538