學習啦 > 新聞資訊 > 科技 > 人工智能有什么弊端

人工智能有什么弊端

時間: 岳彬1043 分享

人工智能有什么弊端

  人工智能的高速發(fā)展,可能未來會對人來造成一定的影響,下面是學習啦小編為你整理的人工智能有什么弊端,供大家閱覽!

  久前發(fā)生了這樣一件事,德國汽車制造商大眾聲稱,該公司位于德國的一家工廠內,一個機器人“殺死”了一名外包員工。其實這并不是首起“機器人殺人事件”,早在20世紀80年代后,世界上便出現(xiàn)多例機器人殺人事件,涉及多個國家。好在隨著科學技術的快速發(fā)展,人類對于機器人的控制也就越發(fā)精細,使得類似的機器人傷人事件幾乎不再發(fā)生,不過這也使得很多人對于機器人“放松警惕”,這也是此次發(fā)生在大眾的事件引起廣泛關注的原因。機器人或者說人工智能究竟“是好是壞”,又一次成為科學家、社會學家們爭論的焦點。

  簡單來說人工智能是計算機科學的一個分支,它企圖了解智能的實質,并生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。因此,機器人僅僅是人工智能的一個分支,但卻是最受人們關注甚至喜愛的一類。這一“派系”的最佳形象代言人有兩位:哆啦A夢和變形金剛。

  通過人們對于哆啦A夢和變形金剛的喜愛與向往也不難看出,絕大多數(shù)人是希望機器人能夠發(fā)展壯大,成為人類的伙伴,幫助人類戰(zhàn)勝各種困難。不過這一切的前提就是機器人可以向這兩位一樣,是遵紀守法的好市民。然而事實上到目前為止關于人工智能的道德底線問題還沒有一個讓人信服的答案,也就是說不排除人工智能起義消滅人類的情況。

  作家莎士比亞的名作《哈姆雷特》中有這樣一句話廣為流傳:“是生存還是毀滅,這是一個值得思考的問題。”想象一下,如果有一天人工智能足夠“聰明”,開始思考這樣一個問題的時候,它們會給出怎樣的答案?是心甘情愿的成為人類的工具,還是與人類和平共處平等相待,又或是消滅人類自己掌控世界?顯然,這是一個值得我們人類思考的問題。

  人工智能發(fā)展太快了

  相比于人類的進化史,人工智能的發(fā)展史可以說僅僅是彈指一揮間。人類進化為早期智人大約是10萬年前(當然在此之前還有數(shù)百萬年的進化史),而人工智能這一概念最早出現(xiàn)是在上世紀50年代,也就是說發(fā)展到今天也才60年左右。當然除了這些,還有一個問題就是目前人類“進化”的腳步已經十分緩慢了,相反人工智能的發(fā)展在飛快的進步。人們在研究科技,探索世界的同時極大的推動了人工智能的發(fā)展進步。

  著名物理學家斯蒂芬·霍金語言“未來100年內,電腦將憑借人工智能把人類取而代之。當這一局面發(fā)生時,我們需要確保電腦擁有與我們一致的目標??萍剂α吭诓粩鄩汛螅覀冊谶\用科技時應該善用自己的智慧。我們的未來就是這種科技力量和人類智慧之間的較量。”

  工智能可能會超越人類

  人類之所以能夠掌控地球,原因之一就是“聰明”。人類可以運用自己的智慧建造家園,消滅敵人從而改善生活環(huán)境。人類通過不斷地學習,掌握新的知識好技能從而更好地應對挑戰(zhàn)。近年來,人工智能也開始效仿人類,“學習”認識世界。目前人工智能的學習方式比較典型的是基于“大數(shù)據(jù)”,通過海量內容的識別歸類,在發(fā)現(xiàn)相似事物時進行判斷,據(jù)報道稱目前已有人工智能設備的“智商”相當于4-5歲的兒童。

  人類慘遭人工智能打敗的事件自然不止一列:1997年,IBM研制的超級電腦“深藍”在標準比賽時限內以3.5比2.5的累計積分擊敗了國際象棋世界冠軍卡斯帕羅夫,震驚世界。2011年2月16日,在美國智力競猜節(jié)目《危險邊緣》第三場比賽中,IBM另一超級電腦“沃森”以三倍的巨大分數(shù)優(yōu)勢力壓該競猜節(jié)目有史以來最強的兩位選手肯·詹寧斯和布拉德·魯特,奪得這場人機大戰(zhàn)的冠軍。2011年3月,一只以數(shù)學模型進行交易,并啟用機器人作為“基金經理人”的基金,僅靠6個電腦程序就創(chuàng)造出1.9%的回報率,擊敗了日本最優(yōu)秀的基金公司。

  理論上人腦的利用率是有限的,但是人工智能的大腦卻要容易開發(fā)了很多,因此無論從哪個角度看人工智能極有可能在未來比人類更“聰明”。

  人類離不開人工智能

  人工智能之所以會出現(xiàn)可以說是科技發(fā)展的必然結果,也是人類為了更好生活而邁出的重要一步。人工智能的出現(xiàn)改變了人們的生活方式,提升了工作效率,帶來的正面效果遠超其負面影響,這也就堅定了不少人繼續(xù)研發(fā)人工智能技術的信念。

  目前人類應用人工智能主要是機器人以及各種識別設備,主要目的是提升效率和保護人類的自身安全,因此“生殺決定權”還掌握在人類自己手里。如今人們的日常生活已經離不開人工智能了,將人工智能引申到一個廣義定義的話,幾乎每個人都與人工智能設備有過親密接觸。

  人工智能(Artificial Intelligence),英文縮寫為AI,看到這里很多喜歡玩游戲的朋友就不會陌生了。除了這些我們生活中接觸的很多數(shù)碼設備,都有智能設備的影子,如語音助手或者翻譯應用等等。也許這些應用目前的“工作效率”不盡如人意,但是它們確實在不斷地進步,變得越來越聰明。最近幾年,受到消費者關注的物聯(lián)網體系中的智能家居、智能穿戴設備和車載網等等都是人工智能參與的產物。

  人工智能可以稱之為先進科技的代表,也是“未來生活”的象征之一。人們渴望更加舒適便利的生活,必將有更多的工作由“非人類”代工,因此說人類再也離不開人工智能并不為過。

  人工智能怎么“看”人類

  以上均是站在人類的角度評價人工智能,反過來再人工智能眼里人類又是什么樣的?人工智能不斷的發(fā)展,其“智慧”也將越來越趨近甚至超越人類,那么“他”也將擁有喜怒哀樂和自己的評判標準。常言道:人分善惡,物有美丑,只不過人工智能的善惡觀念會與我們一樣嗎?

  在未來,人工智能眼中的人類究竟是什么樣我們我從得知,但是如果他們不喜歡人類或者“理念”與人類背道而馳,那么兩者間的矛盾必將激化。相反如果人工智能接受了人類,與人類有了共同目標,那么兩者則有希望和平共處。目前階段,人工智能僅僅是人類的工具,如果有一天人工智能蛻變?yōu)橐粋€“群體”,有自我意識,人們能否接納他們同樣是一個問題。

  當然我們也可以這樣看待人工智能,他們就像是潛力巨大的“武器”,究竟是用來保護家園還是破壞世界,人類或許也有著一定的決定作用。人類研發(fā)人工智能絕大多數(shù)都是想要改善生活,但也不乏利用人工智能來危害他人的例子,這同樣是人類未來威脅的一部分。以目前最為普及的智能手機為例,它的出現(xiàn)改變了人們的生活,讓我們有了更多的休閑和交流方式,但是智能手機也為很多人提供了投機取巧的機會。這些人利用智能手機的安全漏洞來盜取用戶隱私,設置陷阱,非法獲取利益,已經嚴重危害到了用戶的利益和社會安全,可以想象如果這樣的人掌握了人工智能技術,人們的未來將岌岌可危。

  除了“被人利用”,人工智能本身也有很多便利條件可以危害到人類社會的安全和穩(wěn)定。據(jù)統(tǒng)計2020年全球將有500億臺設備連入互聯(lián)網,涉及人們生活的方方面面,如果人工智能不再為人類服務,那么人類的“敵人”將無處不在,可以說社會秩序將瞬間癱瘓。

  人類應該怎樣做

  人工智能潛在的威脅和其潛在的利益是成正比的,也正因如此人們害怕“他”卻無法拒絕,不過想要妥善利用這股力量,就必須有一個完善的監(jiān)管體系或者說是 “道德束縛”,這也正是目前所缺少的。

  如今已經有了很多人工智能設備投入實驗,那么隨之而來的問題就是,這些設備造成的事故責任由誰來承擔?人們會將自己的生命財產安全放心的交給冷冰冰的機器碼?這些都將成為未來我們將要面臨的問題,因此在人工智能足夠“聰明”之前,為“他們”樹立一套可靠的行為準則是十分必要的。

  很多國外的科技大佬對于人工智能的未來都不是十分“樂觀”,認為未來人工智能將會凌駕在人類之上。特斯拉CEO伊隆·馬斯克今年1月向“未來生命研究所”投資了1000萬美元,用以評估與人工智能相關的風險。該機構日前拿出了近700萬美元,支持針對人工智能負面效應展開的研究。這筆資金將獎勵給37個研究團隊,這些團隊的研究課題廣泛,但均與人工智能未來的發(fā)展有關。

  比爾·蓋茨則表示:“我是屬于擔心人工智能的陣營。起初,機器會為我們做很多事,也不會太過于智能。如果控制得好,我們可以持積極的態(tài)度。但幾十年以后,人工智能進階到足夠強大的程度,人們就該擔心了。我同意伊隆·馬斯克等人對這一問題的立場,我不明白為什么有些人毫不關心。”

  人工智能的發(fā)展是必然趨勢,但是人類作為地球現(xiàn)在的主人,一定不希望自己被“機器”所統(tǒng)治。筆者認為束縛人工智能發(fā)展是不可取的,人類想要進步,更好的認知宇宙,認知自己就不能因為未來的威脅而止步不前。但是相對的也不能為了求快而盲目前進,最終葬送了自己的未來。

  目前,人工智能的發(fā)展還處于初級階段,就好像是一個陶胚,人類還有能力決定將它塑造成什么樣,這時候未雨綢繆做一些壞的打算是十分正確的。人工智能涉及的絕不僅僅是計算機科學,還包括哲學和認知科學,心理學,控制論,不定性論,仿生學,社會結構學與科學發(fā)展觀。僅僅是技術快速發(fā)展智能決定人工智能水平的提升速度,就好像是一座平地而起的高塔,沒有穩(wěn)固的根基和其他防護的束縛,崩塌只是時間問題,而且還會傷及無辜。因此,想要構建一個與人類和睦共處的人工智能,在其余諸多學科體系上也要盡快完善

3060753