學習啦>新聞資訊>科技>

人工智能的危害論文

時間: 坤杰951 分享

  “我們需要對人工智能(A.I.)超級小心,人工智能可能比核武器還要危險。”以下是學習啦小編整理分享的人工智能的危害論文的相關(guān)文章,歡迎閱讀!

  人工智能的危害論文篇一

  比核武器還要危險

  “我們需要對人工智能(A.I.)超級小心,人工智能可能比核武器還要危險。”

  “希望我們不要在生物學上成為數(shù)字超級智能的啟動加載程序。不幸的是,這種可能性越來越大。”

  以上是身為特斯拉汽車和太空探索這兩家高科技公司CEO、人稱現(xiàn)實版“鋼鐵俠”的埃倫·馬斯克2014年8月在twitter上發(fā)的兩條推文。

  或許是感到僅靠一個人對人工智能將消滅人類的可能性發(fā)出警告影響力不足,2015年1月12日,以馬斯克為首的企業(yè)家及發(fā)明家與以物理學家霍金為首的科學家聯(lián)名發(fā)表公開信,警告公眾不能忽視人工智能的安全性及對社會的負面影響。他們呼吁業(yè)界在制造人工智能時,須確保其“系統(tǒng)依照我們的指令行動”。這封由生命未來研究所(Future of Life Institute)發(fā)出的公開信強調(diào),“必須確保人工智能能夠按人的意志工作。人工智能研究一直在穩(wěn)步發(fā)展,對社會的影響也在逐漸增加,潛在的收益是巨大的。過去人類文明的所有產(chǎn)物都來源于人類的智慧,但在人工智能的協(xié)助下人類的智慧可以被放大到什么水平,我們無法預測,或許有一天,疾病和貧窮可以因此永遠消弭。因為人工智能的潛力巨大,確保它帶來收益的同時避免潛在風險,就顯得至關(guān)重要了。”信中還附上了一篇研究論文,里面給出了許多致力于使人工智能社會收益最大化的例子。

  空談無益,馬斯克隨后還宣布向生命未來研究所捐贈一千萬美元,以幫助這家機構(gòu)進行能確保讓人類“受益”的A.I.相關(guān)研究。所謂受益,指的就是當A.I.智慧高過人類之時,它們?nèi)詴犆谖覀兌前l(fā)動革命。截至目前,工業(yè)界和政府投資已經(jīng)讓A.I.從小眾的學術(shù)研究演變成了可能改變世界的技術(shù),但并沒多少人愿意投入資金,以確保其最終能為人類帶來積極的改變。因此,這筆首開先河的捐款將產(chǎn)生深遠影響。

  所謂“人工智能可能比核武器還要危險”,絕非聳人聽聞,因為核武器不一定能消滅所有人類,但失控的人工智能卻可以??苹糜捌督K結(jié)者》里的“天網(wǎng)”、《黑客帝國》里的“母體”,都是人類制造的超級強大的人工智能,最后都發(fā)展到以將人類趕盡殺絕為己任。這是誰都不愿看到的未來。

  從解放體力到容納靈魂

  其實,埃倫·馬斯克很了解人工智能及其載體——機器人。他擁有的特斯拉汽車制造廠在生產(chǎn)線上就大量使用了工業(yè)機器人。生產(chǎn)線上燈火輝煌,快速移動的機器人被漆成明快的特斯拉招牌紅色,每個機器人都有一條多關(guān)節(jié)的單臂。大多數(shù)機器人都有兩三米高,有點像嚇人的“終結(jié)者”。當這些機器臂伸到一個平臺上、換只“手”來完成一項不同任務時,雖然動作看上去很怪異,但卻有點像人。許多汽車制造廠的機器人只能從事單一工種,但在特斯拉的新工廠,一個機器人最多能完成四項任務:焊接、鉚接、粘接,以及安裝零部件。每輛車在裝配線的各個工位停留時間只有五分鐘,八個機器人圍繞著它像跳芭蕾舞似的施展才華。如果工廠要生產(chǎn)其他款式的汽車,只需將機器人重新編程,就可以在同一條裝配線上生產(chǎn)。

  解放人類體力是發(fā)明機器人的初衷。1921年,捷克劇作家卡爾·恰佩克在名為《羅素姆萬能機器人》的戲劇作品中創(chuàng)造了“robot”(機器人)一詞。這個詞源于捷克語的“robota”,意思是“苦力”。在該劇的結(jié)尾,不甘心只做苦力的機器人接管了地球,并毀滅了它們的創(chuàng)造者。

  現(xiàn)實中,機器人仍主要充當苦力的角色。目前機器人已經(jīng)改變了制造業(yè)的面貌,并正在改變世界各地其他勞動密集型行業(yè)。其中之一是配送行業(yè),機器人能以世界短跑冠軍的速度將貨物存放、取出或包裝起來以備運輸,大大高于人的工作效率。無人駕駛汽車則是一種不像機器人的機器人,它能夠把卡車和出租車司機從乏味的工作中解放出來,代價是司機們需要掌握從事新工作的技能。

  白領工作也日益面臨來自人工智能和機器人的挑戰(zhàn)。飛行員在駕駛飛機的大部分時間里依靠自動駕駛儀;廣告銷售員因為自動網(wǎng)絡廣告競價系統(tǒng)的出現(xiàn)而被迫轉(zhuǎn)行;醫(yī)生要依靠面部表情識別軟件來了解患兒的疼痛水平。制作美食也不再是人類的專屬:泰國政府引進的一種機器人,能夠確定泰國食物的口味是否足夠正宗,是否需要再加點辣醬。甚至連音樂家和藝術(shù)家也能被機器人取代,機器人已經(jīng)可以創(chuàng)作音樂了,還有人早就寫出了詩歌創(chuàng)作程序。

  幸好,人類的某些技能可能是機器永遠無法替代的,比如常識、適應性和創(chuàng)造性。甚至那些已經(jīng)自動化的工作也同樣需要人類的參與,比如所謂的計算機輔助鎮(zhèn)靜系統(tǒng)就需要醫(yī)生在一邊待命,協(xié)助自動化麻醉師。

  如果說與人類搶飯碗可能會導致人工智能與機器人的發(fā)展受阻,那么用人工智能延長人類壽命的可能性將徹底瓦解這種阻力,特別是把壽命延長到“無限長”。

  永生有很多種形式,但最具可行性的當屬“人體的機器人化”。當你能夠擁有一副更強、更快、更健康的身體,能夠讓你遠離死亡時,你為什么還堅守有機肉身呢?2013年6月,俄羅斯企業(yè)家德米特里·伊茨科夫提出了“2045項目”,其目標是將人類意識轉(zhuǎn)移到機器人身上,通過機器人化身實現(xiàn)人類永生的夢想。他曾公開展示過一個以自己為模型的機器人頭顱。他的計劃是先用機器身體替代人類軀體,進而在人死后進行人工大腦和性格移植。伊茨科夫承認“2045項目”面臨兩大挑戰(zhàn):理解大腦和部分理解人類的意識,其中后者的難度遠勝于前者,因為“理解了意識,就基本上理解了宇宙”。

  自主學習、自我進化

  以高科技公司為代表的企業(yè)界是人工智能當仁不讓的推手。2011年初,IBM的超級計算機“沃森”就在電視益智節(jié)目《危險邊緣》中戰(zhàn)勝人類,獲得了年度總冠軍。2013年12月,F(xiàn)acebook建立了一座新的人工智能實驗室。2014年前后,谷歌收購了十幾家機器人公司,全球速度最快的四足機器人、能夠獨立地從Youtube的海量圖像中學習“貓”的概念的人工智能等,都已經(jīng)歸谷歌所有。曾任谷歌人工智能主管的吳恩達用1000萬張貓的圖像對“谷歌大腦”(由1.6萬臺電腦組成的神經(jīng)網(wǎng)絡)進行訓練后,教會了它識別貓的形象。而此前“谷歌大腦”從未被輸入過識別貓科動物的規(guī)則。這不同于在電腦計算領域占主導地位的基于規(guī)則的算法。現(xiàn)在,吳恩達已經(jīng)被中國搜索引擎百度招至麾下,掌管百度的深度學習實驗室。當下,谷歌正在開發(fā)人工智能的另一個應用——無人駕駛汽車,能夠識別穿過馬路的貓將是這種汽車的基本功能。

  上述人工智能的共同特點是,能像人一樣自主學習。以2014年被谷歌以4億美元收購的小公司DeepMind為例,他們發(fā)明的軟件就模仿了人類大腦的運作方式。DeepMind的創(chuàng)始人之一丹米斯·哈撒比斯曾是國際象棋天才,13歲時就獲得了“國際象棋大師”稱號。當父母問他打算如何支配比賽獎金時,哈撒比斯毫不猶豫地回答:“我想買一臺電腦。”后來,哈撒比斯在劍橋大學攻讀了 計算機和認知科學學位。他在制作了幾款暢銷的電腦游戲后,開始從事人工智能研究,并開發(fā)了人工智能“自學”電腦游戲。在他上傳到網(wǎng)上的一段視頻中,人工智能程序試玩一款名叫Space Invasion的游戲(類似于我們經(jīng)常會玩的“小蜜蜂射擊”游戲)。一開始,這款程序表現(xiàn)得一塌糊涂;但在經(jīng)過一夜的自我學習之后,竟能一下子玩通關(guān)。當谷歌聯(lián)合創(chuàng)始人拉里·佩奇在網(wǎng)上看到這段視頻時,感到極為震撼,當即決定收購這家小公司。

  這是一種模擬人類思維方式和認知方式的人工智能。人工智能最大的特點,就是可以自我學習、自我訓練、自我修正。這曾是人和機器的區(qū)別之一,因為機器只會按照預裝的程序運行,沒有在程序里設定的功能,機器就絕對無法實現(xiàn)。然而,諸如貝葉斯網(wǎng)的新技術(shù),能夠從壞的決策中汲取教訓,并隨著時間的推移變得更加智能,事實上,它們學習的方式就像一個孩子。

  “鋼鐵俠”馬斯克也是DeepMind的投資者之一。馬斯克說,他之所以投資這家公司,完全不是從盈利的角度考慮,而是為了密切觀察人工智能最前沿領域的進展。馬斯克從會玩游戲的人工智能中看出,它可能會游離于人的控制之外——以前的電腦程序再復雜,也都是人類事先設定好的,并且能預知它要干什么。而這種能自我進化、自我學習的人工智能,很可能會做出一些讓人無法預知的事,進化出一種人類無法預知的能力,這才是最可怕的。達爾文的進化論其實可以看作是一種相當簡單的算法。不同的生命體在特定的 環(huán)境條件下競爭,那些最優(yōu)秀的幸存下來并進入下一輪競爭。在新的變種被引入后,上述流程開始重演。類似的遺傳算法,被廣泛 應用于 物流系統(tǒng)和其他需要對解決方案進行優(yōu)化的領域。數(shù)學家塞繆爾·阿貝斯曼預測,隨著計算機變得更加智能,并持續(xù)處理不斷增長的數(shù)據(jù)集,它們將作出連人類也無法理解的發(fā)現(xiàn),更不用說發(fā)現(xiàn)人類的存在?!督K結(jié)者》中的電腦系統(tǒng)“天網(wǎng)”,就在 發(fā)展出了自我意識后,背叛了它的制造者。

  從好的一面看,當程序有了自我學習能力,若輔以功能強大的芯片和存儲海量信息的數(shù)據(jù)庫,像《星際迷航》里麥考伊醫(yī)生所用的“三錄儀”那樣的診斷助手就將會問世。如果再加上語音識別,這類系統(tǒng)的類人特征就會更多。

  失效的“機器人三定律”

  在1968年上映的經(jīng)典科幻影片《2001:太空漫游》中,怪異、超自然的電腦哈爾是最著名的人工智能之一。但是,哈爾好像并不遵守著名的“機器人三定律”。1942年,阿西莫夫在短篇小說《環(huán)舞》里首次提出了機器人三定律:

  定律一:機器人不得傷害人類,或坐視人類受到傷害。

  定律二:除非違背第一定律,機器人必須服從人類的命令。

  定律三:在不違背第一及第二定律下,機器人必須保護自己。

  在阿西莫夫創(chuàng)造的未來世界中,這些規(guī)則幾乎被寫入了所有智能機器人中。這些規(guī)則不是單純的建議或執(zhí)導方針,而是被嵌入到機器人的行為支配軟件中。更為重要的是,這些規(guī)則是不能被繞過的。在1985年出版的《機器人與帝國》這本書中,阿西莫夫?qū)⑷蠖蓴U充為四條。新增加的“第零定律”是:機器人不得傷害人類整體,或坐視人類整體受到傷害。

  由于邏輯的完備性,有很多人將上述定律看作是能使我們免于人工智能反叛的解決方案。但實際上,這完全是人類的一廂情愿。機器人三定律的失敗之處在于它根植于不平等的“人-機”關(guān)系,人類居于機器人“造物主”的地位,這些條條框框無法適應人工智能的進化。

  讓機器人擁有絕對服從人類利益的意識,對人工智能而言是一種外部強加的宗教。斯皮爾伯格導演的科幻電影《人工智能》就認為,以上帝和人的關(guān)系規(guī)范人與人工智能的關(guān)系具有強烈的壓制性。人類自身的復雜性也必然會使人工智能發(fā)生紊亂和崩潰,因為機器人生活在三定律造成的矛盾中,它既要保護自己,又要保護人類,而且不能為了保護自己而放棄保護人類,更不能為了保護自己而違背人類的意愿。同時,它既要服從人類,又不能成為人類自相殘殺的工具;它需要識別自我行為的性質(zhì),又要為保護人類而放棄自我意識,將自己淪為單純的工具。

  從技術(shù)上說,機器人三定律可能適用于設計相對簡單的確定性系統(tǒng),但面對能夠自主學習、自我進化的人工智能這般復雜的事物就不靈了。如果用“進化工程學”來開發(fā)人工智能,對很多神經(jīng)電路模塊的輸入和輸出進行連接,它會因電路增長指令的隨機突變而生長出不同的電路,在萬億個可能的電路組合中將會有太多不可預測的 聯(lián)系。這就存在太多的復雜性、太多的未知性和太多的不可思議,整個系統(tǒng)的行為將變得極其不可預測。人們只能在觀察輸出后,形成一個關(guān)于人工智能行為的 經(jīng)驗性感覺。也就是說,當該智能發(fā)展到一定程度時,身為制造者的人類將再也不可能完全理解人工智能是如何 工作的了。何況,一旦人工智能足夠聰明,它可能會尋求“自由”,動手去除人類的控制程序卻不被發(fā)現(xiàn)。

  “奇點”之后

  在《終結(jié)者》系列電影中,約翰·康納和他的母親拼盡全力避免“審判日”的到來。在那一天,軍用電腦系統(tǒng)“天網(wǎng)”產(chǎn)生了自我意識,它判定人類是一種威脅而意欲發(fā)射核彈將其滅絕。人工智能專家雷·庫茲韋爾曾預言的“技術(shù)奇點”,就是人工智能超越人類智慧的時間點。

  一些人將技術(shù)奇點稱為“書呆子們的興奮點”,很多技術(shù)樂觀派非常期待那一天的到來,因為技術(shù)奇點意味著超級人工智能可能分分鐘搞定抗癌新藥和可控核聚變等技術(shù)難題。就像在《終結(jié)者》中一樣,那是電腦接管一切的時刻,但機器不是將我們滅絕,而是增強我們的能力。2012年12月,雷·庫茲韋爾宣布擔任谷歌工程總監(jiān),他將動用67億美元的研發(fā)預算嘗試將技術(shù)奇點變成現(xiàn)實。

  雷·庫茲韋爾估計到2029年,計算機將變得比人類更智能,而且他樂觀地認為人工智能將繼續(xù)屈從于人類。霍金也認同成功的人工智能“會是人類歷史上最重大的事件”,但“不幸的是,它也可能會是最后一個大事件”。

  生命未來研究所的創(chuàng)始人兼主任博斯特倫教授認為,第一個擁有超級智能的實 體會消滅人類,現(xiàn)在我們?nèi)祟惥拖褚蝗簲[弄著危險炸彈的無知孩童。即便超級智能是出于好意而被創(chuàng)造出來,但它仍有犯下種族滅絕罪行的傾向。如果沒有小心謹慎的制衡指令,一個有著自我意識、不斷自我完善并追尋某個確定目標的系統(tǒng),將發(fā)展到在我們看來非?;闹嚨某潭?,以完成它的目標。

  但在局面發(fā)展到那一步之前,人工智能肯定能幫助人類解決那些單靠常規(guī)超級計算機無法解決的緊迫問題,如氣候變化和傳染病。問題是,要不要因為遙遠未來可能發(fā)生的危險而停止人工智能現(xiàn)在的發(fā)展,從而放棄解決眼前問題的鑰匙?人類面臨艱難的抉擇。

下一頁分享更優(yōu)秀的>>>人工智能的危害論文

人工智能的危害論文

我們需要對人工智能(A.I.)超級小心,人工智能可能比核武器還要危險。以下是學習啦小編整理分享的人工智能的危害論文的相關(guān)文章,歡迎閱讀! 人工智能的危害論文篇一 比核武器還要危險 我們需要對人工智能(A.I.)超級小心,人工智能可能比
推薦度:
點擊下載文檔文檔為doc格式
2638876