當(dāng)前位置: 郭利方心理咨詢(xún)工作室 > 心理科普 > 青少年心理 > 正文

人工智能若超越人類(lèi),會(huì)發(fā)曖昧關(guān)系在線(xiàn)漫畫(huà)生什么?

更新日期:2021-09-12 11:44:29  來(lái)源:m.pltea.cn

導(dǎo)讀來(lái)源:譯言網(wǎng)沈持盈原作者:orenetzioni壹些人把人工智能看作是壹種威脅,對(duì)人工智能有著深深的恐懼。但事實(shí)真的如此嗎?讓恐懼來(lái)指導(dǎo)我們,絕非明智之舉。特斯拉ceo埃隆·馬斯克以及著名物理學(xué)家史蒂芬·霍金都擔(dān)心在不遠(yuǎn)的未來(lái),人工智能會(huì)對(duì)人類(lèi)產(chǎn)生威脅,這種觀點(diǎn)也在壹些電影中有所體現(xiàn)。關(guān)于人工智能,最為盛行的反烏托邦式的觀點(diǎn)并不正確,原因在于這種觀點(diǎn)是在將“智能”等同于...

來(lái)源:譯言網(wǎng)沈持盈原作者:orenetzioni

壹些人把人工智能看作是壹種威脅,對(duì)人工智能有著深深的恐懼。但事實(shí)真的如此嗎?讓恐懼來(lái)指導(dǎo)我們,絕非明智之舉。

特斯拉ceo埃隆·馬斯克以及著名物理學(xué)家史蒂芬·霍金都擔(dān)心在不遠(yuǎn)的未來(lái),人工智能會(huì)對(duì)人類(lèi)產(chǎn)生威脅,這種觀點(diǎn)也在壹些電影中有所體現(xiàn)。

關(guān)于人工智能,最為盛行的反烏托邦式的觀點(diǎn)并不正確,原因在于這種觀點(diǎn)是在將“智能”等同于“自主”。它所假設(shè)的是,壹臺(tái)電腦能夠建立自己的目標(biāo)、有自己的意愿、依靠自己更快速的處理能力以及強(qiáng)大的數(shù)據(jù)庫(kù)來(lái)打敗人類(lèi)。也就是說(shuō),這種觀點(diǎn)假設(shè)了人工智能擁有完全自由的智能,但智能和自主是兩件完全不同的事。

要說(shuō)人工智能能夠完全為了自己的意愿做事情,就好像在說(shuō)計(jì)算器能夠自行計(jì)算壹樣。對(duì)于人類(lèi)來(lái)說(shuō),計(jì)算器是讓我們更快、更準(zhǔn)確地處理數(shù)學(xué)問(wèn)題的工具,類(lèi)似的,人工智能能讓我們更加得心應(yīng)手地處理困難問(wèn)題,諸如大規(guī)模的數(shù)據(jù)分析,持續(xù)進(jìn)行醫(yī)藥研究等等。同計(jì)算器壹樣,人工智能需要人類(lèi)的介入和指示。

如今,自主電腦程序已經(jīng)存在,諸如電腦病毒、賽博武器等程序是非常可怕的,然而它們也并非是智能的。大多數(shù)智能軟件都是高度專(zhuān)業(yè)化的,比如ibm的沃森電腦(watson)能夠在類(lèi)似《危險(xiǎn)邊緣》(jeopardy)(譯者注:美國(guó)哥倫比亞電視臺(tái)的壹檔益智問(wèn)答類(lèi)節(jié)目)節(jié)目中拔得頭籌,但他們還是無(wú)意識(shí)的。正如哲學(xué)家約翰·希爾勒(johnsearle)所說(shuō):“沃森電腦自己都不知道自己在《危險(xiǎn)邊緣》中贏了?!?/p>

反人工智能的論調(diào)壹般都以壹種假設(shè)性的說(shuō)法表達(dá)出來(lái),如同霍金所說(shuō):“人工智能的全面發(fā)展可能導(dǎo)致人類(lèi)的滅絕”。假設(shè)說(shuō)法的問(wèn)題在于,它們忽視了現(xiàn)實(shí)——接下來(lái)肆分之壹個(gè)世紀(jì),出現(xiàn)“全人工智能”的可能性,還不如小行星撞地球讓人類(lèi)滅絕的幾率高。

“智能”與“自主”兩個(gè)概念的混淆源于我們對(duì)于自己在世界上變得“越來(lái)越無(wú)關(guān)緊要”的恐懼。如果人工智能能夠接替我們工作,那么作為壹個(gè)物種,我們?nèi)祟?lèi)又能做什么呢?看了瑪麗·雪萊的《弗蘭克斯坦》,我們害怕“機(jī)械怪物”,讀了艾薩克·阿西莫夫的機(jī)器人小說(shuō),我們可能會(huì)對(duì)機(jī)械怪物接近我們這件事變得更加畏懼,這也是所謂的“科學(xué)怪人情結(jié)”(frankensteincomplex)。

機(jī)械怪物與計(jì)算器的例子都說(shuō)明,科技既具有破壞性,也能給我們帶來(lái)機(jī)遇。但沒(méi)有科技呢?我們很難說(shuō)世界會(huì)變得更好。對(duì)待新的科技,我們應(yīng)該想的是它能帶給我們什么好處,而不是害怕壹旦它們?cè)獾秸`用會(huì)怎樣。對(duì)待人工智能,我們也該如此。

例如,研究者正致力于開(kāi)發(fā)人工智能,讓其成為能支持科學(xué)家、醫(yī)生以及其他知識(shí)型員工的好幫手。得益于這些,全球的科學(xué)產(chǎn)出每九年就會(huì)翻番。我們需要的智能軟件可以回答諸如“某種藥物對(duì)于中年女性有哪些副作用?”之類(lèi)的問(wèn)題,或者至少能找到壹些相關(guān)的論文。我們需要的軟件可以搜尋最新的科研論文,標(biāo)記其中的重要著作,而這壹過(guò)程不用靠鍵盤(pán),靠的是對(duì)于論文核心信息的壹些理解。這些功能都是人工智能研究者們致力于完成的目標(biāo)。

現(xiàn)在,我們還處于人工智能研究的早期階段。而人工智能產(chǎn)品仍存在許多缺陷。我們?nèi)杂谐錆M(mǎn)挑戰(zhàn)性的工作要完成。而坦白說(shuō),無(wú)論是販賣(mài)恐懼還是嘩眾取寵,都沒(méi)有抓住人工智能的要點(diǎn):哪怕是對(duì)于普通小孩們來(lái)說(shuō)很簡(jiǎn)單的壹件事情,對(duì)于人工智能軟件來(lái)說(shuō)都十分困難——而且需要很多年的努力才能實(shí)現(xiàn)。這么說(shuō)來(lái),我們?nèi)祟?lèi)比我們看上去的還要聰明得多呢!

如果我們對(duì)于人工智能抱有壹種不公正的恐懼態(tài)度的話(huà),我們可能會(huì)失去能夠?qū)θ祟?lèi)益處多多——甚至能夠拯救生命——的人工智能。讓讓恐懼來(lái)指導(dǎo)我們,絕非明智之舉。

閱讀全文
Cnzz