據(jù)每日郵報(bào)報(bào)道,英國(guó)物理學(xué)家史蒂芬·霍金(Stephen Hawking)日前接受美國(guó)王牌脫口秀主持人拉里·金(Larry King)采訪(fǎng),宣稱(chēng)機(jī)器人的進(jìn)化速度可能比人類(lèi)更快,而它們的終極目標(biāo)將是不可預(yù)測(cè)的。

在采訪(fǎng)中,霍金表示出對(duì)人類(lèi)未來(lái)的擔(dān)憂(yōu)。他說(shuō):“我并不認(rèn)為人工智能的進(jìn)化必然是良性的。一旦機(jī)器人達(dá)到能夠自我進(jìn)化的關(guān)鍵階段,我們無(wú)法預(yù)測(cè)它們的目標(biāo)是否還與人類(lèi)相同。人工智能可能比人類(lèi)進(jìn)化速度更快,我們需要確保人工智能的設(shè)計(jì)符合道德倫理規(guī)范,保障措施到位。”
隨著人工智能的進(jìn)化,機(jī)器人很可能獨(dú)立地選擇目標(biāo)并開(kāi)槍射擊。全自動(dòng)武器(又稱(chēng)殺人機(jī)器人)正從科幻電影變成現(xiàn)實(shí)。這并非霍金首次警告機(jī)器人存在的潛在危險(xiǎn)。去年,霍金表示,隨著技術(shù)的發(fā)展,并學(xué)會(huì)自我思考和適應(yīng)環(huán)境,人類(lèi)將面臨不確定的未來(lái)。
今年年初,霍金也曾表示,成功創(chuàng)造人工智能可能是人類(lèi)史上最偉大的事件,不幸的是,這也可能成為人類(lèi)最后的偉大發(fā)明。他認(rèn)為,數(shù)字個(gè)人助理Siri、Google Now以及Cortana都只是IT軍備競(jìng)賽的預(yù)兆,未來(lái)數(shù)十年間將更加明顯。
此前,他曾直言不諱地表達(dá)出對(duì)人工智能發(fā)展的擔(dān)憂(yōu)。霍金表示,邪惡陰險(xiǎn)的威脅正在硅谷的技術(shù)實(shí)驗(yàn)室中醞釀。人工智能可能偽裝成有用的數(shù)字助理或無(wú)人駕駛汽車(chē)以獲得立足之地,將來(lái)它們可能終結(jié)人類(lèi)。

這位科技界泰斗在接受采訪(fǎng)時(shí)表示,六年前他就曾提出過(guò)相同的警告,但并沒(méi)有引起人們的重視。六年來(lái),世界人口增長(zhǎng)了將近10億。這一數(shù)字目前還在不停增長(zhǎng)。如果按照現(xiàn)在的速度,到2100年世界人口將超過(guò)一百一十億。
霍金還指出,大規(guī)模的環(huán)境污染問(wèn)題主要集中在最近五年。空氣污染在過(guò)去的五年中最為嚴(yán)重,超過(guò)80%的城市居民生活在被污染的空氣之中。
當(dāng)被問(wèn)及當(dāng)前世界面臨的最大問(wèn)題是什么時(shí),霍金表示是氣候變化。他認(rèn)為,一旦氣候變化達(dá)到不可逆的地步,那么全球變暖將無(wú)法挽回。
霍金并非唯一擔(dān)心人工智能的人。特斯拉電動(dòng)汽車(chē)公司首席執(zhí)行官伊隆·馬斯克(Elon Musk)曾經(jīng)研發(fā)人工智能比作“召喚惡魔”,他警告人工智能技術(shù)對(duì)人類(lèi)的傷害可能超過(guò)核武器。
但霍金也承認(rèn)人工智能帶來(lái)的其他好處顯而易見(jiàn),可以幫助消除戰(zhàn)爭(zhēng)、疾病以及貧困。他認(rèn)為人類(lèi)面臨的最大威脅是我們自身的弱點(diǎn),即貪婪和愚蠢。他說(shuō):“我們的貪婪和愚蠢并未減少。6年前,我曾警告污染和擁擠,自從那以來(lái)這些都變得更加嚴(yán)重。以當(dāng)前速度持續(xù)下去,到2100年,全球人口將達(dá)到110億。在過(guò)去5年間,空氣污染也在加劇。”
推薦閱讀
在《2001太空漫游》這部科幻作品中,太空飛船上的人工智能電腦哈爾 9000 變壞了,在它看來(lái),傷害人類(lèi)是完全沒(méi)有問(wèn)題的。科幻作品中的哈爾不是本來(lái)就壞的,但是這個(gè)新>>>詳細(xì)閱讀
本文標(biāo)題:人工智能機(jī)器人飛速發(fā)展
地址:http://www.xglongwei.com/n/jiqiren/1408.html
1/2 1