這一屆AI越來越像人了:已經(jīng)有心理問題了

我們常說,人不是機器,需要吃喝拉撒睡,也有七情六欲。每次熬夜復習準備考試,腦子里就有一個聲音:“如果我是機器人就好了,不用睡覺就能把知識點全部記!” 然而可能出乎你意料的是,現(xiàn)在越來越先進的人工智能(AI),在朝著更像“人”的方向進化時,居然也學會了人類的一些毛病,開始溜號開小差了!

這一屆AI越來越像人了:已經(jīng)有心理問題了

我沒困!我只是站不穩(wěn)!丨Giphy

這個有趣的現(xiàn)象,是美國洛斯阿拉莫斯國家實驗室( Los Alamos National Laboratory)的研究人員發(fā)現(xiàn)的。實驗室正在開發(fā)一種神經(jīng)網(wǎng)絡,讓它在沒有參考資料的情況下,學著給東西分類。這種神經(jīng)網(wǎng)絡是模擬人類是如何學會分辨東西的,就好比把一疊孩子不認識的動物圖片交給孩子分類,雖然他們不知道羚羊是什么,但可能會把羚羊和獅子、企鵝這些動物分開。

在這個過程中,研究人員發(fā)現(xiàn)AI學習了一段時間就會變得不穩(wěn)定,自發(fā)產(chǎn)生類似于幻覺的圖像。而當AI小憩一會兒后,這種不穩(wěn)定性就消失了,又恢復了正常的工作效率。這種睡眠不同于平常電腦的“休眠狀態(tài)”,電腦的休眠只是暫時“凍結”所有的活動。而讓AI真正進入睡眠,是把它暴露在頻率和振幅范圍很廣的噪聲里。這種噪聲模仿了人類深度睡眠時,大腦神經(jīng)元所接受的輸入信號。

這一屆AI越來越像人了:已經(jīng)有心理問題了

人工神經(jīng)網(wǎng)絡模擬生物大腦,具備學習功能丨Pixabay

不過,研究人員指出,并不是所有的AI都需要打盹兒才能恢復穩(wěn)定性,只有在訓練生物現(xiàn)實(biologically realistic)處理器或者嘗試理解生物本身時,才會出現(xiàn)這種情況。此次研究的神經(jīng)網(wǎng)絡就是在模擬人類等生物學習看東西并分類的過程。絕大多數(shù)的AI因為系統(tǒng)不同,有充足的運算能力,可以007式工作個不停。

無聊也是生產(chǎn)力?和AI一塊兒摸魚算了

人類無聊的時候可以干出什么事?估計比正事還多(大霧)。

這一屆AI越來越像人了:已經(jīng)有心理問題了

無聊發(fā)明之美食窗簾,放肆大嚼也能保持優(yōu)雅丨Matt Benedetto

無聊其實是一個警報狀態(tài),當我們感到無聊時,便是對現(xiàn)在狀況的不滿。它能推動著人們從這種狀態(tài)中逃脫,去尋找有意義、新奇或刺激的事情做。這種推動力是中性的,有好有壞,壞的可能讓人為了找樂子滑向違法犯罪的邊緣,而好的一面,也可以刺激人的創(chuàng)新。

舉個例子,在寒風凜冽的夜晚,一個露營者正坐在篝火前,突然聽到了無法辨別來源的噪音。他有兩個假設:一是微風吹動樹葉,二是有灰熊想要接近營地。那是走還是留呢?就要預測可能的結果(樹葉被風吹動?)和期望的結果(不要被熊吃掉),平衡之后決定。如果露營者猜測是前者,并且也沒出什么事,但當經(jīng)歷了一段長時間的平淡無聊后,露營者反而想冒險進入森林探索周圍的區(qū)域,因為預測的快樂已經(jīng)被無聊的痛苦超越了。這就是無聊刺激了探索,提高了自主性。

這一屆AI越來越像人了:已經(jīng)有心理問題了

無聊的痛苦vs預測的快樂,看誰勝過誰丨Giphy

對AI來說也一樣,現(xiàn)在一些研究者已經(jīng)發(fā)現(xiàn)了無聊對于AI的作用?茖W家把“無聊”的算法編入AI,讓AI能夠自己找到符合它期望的活動,以此來提高AI的自主學習能力。

一篇發(fā)表在《生物系統(tǒng)》(Biosystems)上的論文,便提出了“無聊”的重要性,解釋了無聊和預測快樂之間相互作用的機制。這個機制具體是怎么發(fā)揮作用的呢?在訓練過程中,研究者提供的“世界”有復雜度的區(qū)分,機器如果能準確預測“世界”,會獲得快樂,但如果它持續(xù)不斷地成功,就會產(chǎn)生無聊和厭煩,進而傾向于探測新的領域。

關心AI的心理狀態(tài),吃飽了撐的?

人工智能是人造出來的機器所表現(xiàn)出來的智能,這種智能是通過程序編碼來實現(xiàn)的。在AI朝人類方向前進時,就有可能出現(xiàn)人的特征。

美國路易斯維爾大學的哲學教授安德烈亞斯·埃爾皮多魯(Andreas Elpidorou)在《科學美國人》上撰文指出,AI的心理問題應當被嚴肅對待。他相信,在未來,會有更多更智能的機器產(chǎn)生無聊等心理體驗,盡管無聊可能激發(fā)創(chuàng)造力,但結果也可能朝著完全相反的方向去——缺乏自主學習的動力,一遍一遍學著自己已經(jīng)學到的東西,卻毫無更改目前狀態(tài)的計劃。這些問題將阻礙機器的學習成長并浪費寶貴的資源。

如果未來我們要創(chuàng)造有更強自主性的AI,勢必要關注AI的心理狀態(tài)對其行為的影響。埃爾皮多魯甚至聳人聽聞地提出,因為人類會因為無聊干出各種壞事,未來也需要對付機器做的壞事——自虐或者傷害他人。畢竟我們也不想看到智能冰箱因為無聊而自斷電源讓食物腐爛,智能汽車因為無聊想著跳下海游泳。

這一屆AI越來越像人了:已經(jīng)有心理問題了

預測:未來人工智能冰箱的無聊發(fā)瘋瞬間丨Giphy

看一看身邊更多的“人工智障”,或許關注AI的心理狀況顯得特別遙遠。不過想想看,艾薩克·阿西莫夫(Isaac Asimov)提出的著名的機器人三定律,目的就是防止機器人傷害人類。在面對一個必然的人機交互的世界,我們想得遠一點也無妨。

參考文獻

[1]httpswww.scientificamerican.comarticlewhat-happens-if-an-ai-gets-bored

[2]httpswww.scientificamerican.comarticlelack-of-sleep-could-be-a-problem-for-ais

[3]httpswww.biorxiv.orgcontent10.1101104521v1.full.pdf

[4]httpswww.theatlantic.commagazinearchive201904robots-human-relationships583204

[5]httpex.chinadaily.com.cnexchangepartners82rsschannellanguagecolumnsv0m20bstoriesWS5ccf8667a3104842260b9ef5.html

[6]httpswww.theatlantic.commagazinearchive201706make-time-for-boredom524514

本站轉載文章和圖片出于傳播信息之目的,如有版權異議,請在3個月內(nèi)與本站聯(lián)系刪除或協(xié)商處理。凡署名"云南房網(wǎng)"的文章未經(jīng)本站授權,不得轉載。爆料、授權:news@ynhouse.com。

相關資訊

猜您喜歡

參與討論

登錄 注冊

熱門評論