霍金走了,去往另一個宇宙時空!
在生命的最后幾年,他留給地球人類的,是關(guān)于人工智能的一系列警告和預(yù)言。
霍金曾說,“在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智能的崛起?!?/p>
他說,人工智能的崛起,要么是人類歷史上最好的事,要么是人類文明的終結(jié)。
幾年來,霍金通過大大小小的媒體采訪,完整闡述了他對于人工智能發(fā)展的擔憂與建議。網(wǎng)易智能整理如下:
霍金認同的:人腦與電腦沒區(qū)別
霍金認為,生物大腦可以達到的和計算機可以達到的,沒有本質(zhì)區(qū)別。AI遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。
霍金說,近來人工智能的發(fā)展,比如電腦在國際象棋和圍棋的比賽中戰(zhàn)勝人腦,都顯示出人腦和電腦并沒有本質(zhì)差別。
霍金擔心的:失控
一方面,霍金擔心一些人利用人工智能做壞事,比如最大化使用智能性自主武器,它將助長戰(zhàn)爭和恐怖主義,加劇世界動蕩局勢。
另一方面,霍金最擔心還是人工智能系統(tǒng)失控爆發(fā)的潛在風(fēng)險,人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。到那時,人工智能可能是人類文明史的終結(jié)。
霍金建議的:跨學(xué)科
霍金在演講中說到,人工智能的崛起,是好是壞目前仍不確定?;艚鹫J為,人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。
但是霍金呼吁,人工智能的研究與開發(fā)正在迅速推進,但所有人都應(yīng)該暫停片刻,把我們的研究從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會效益上面。
霍金同時提出,跨學(xué)科研究是人工智能一種可能的前進道路:從經(jīng)濟、法律、哲學(xué)延伸至計算機安全、形式化方法,當然還有人工智能本身的各個分支。
霍金所做的:調(diào)查研究
2016年10月,霍金在在英國劍橋建立了跨學(xué)科研究所“利弗休姆智能未來中心”,試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題。“利弗休姆智能未來中心”致力于研究智能的未來,花費大量時間學(xué)習(xí)歷史,深入去看。
2015年1月份,霍金與馬斯克等一些人工智能專家簽署了一份關(guān)于人工智能的公開信(這封公開信由“生命未來研究所”科學(xué)顧問委員會起草),目的是提倡就人工智能對社會所造成的影響做認真的調(diào)研,致力于讓人工智能的研發(fā)人員更關(guān)注人工智能安全。
最后,霍金對全世界的人是說,“我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。我祝福你們?!?/p>
人工智能是成就人類,還是毀滅人類,等待著人類繼續(xù)書寫。
霍金留下這千年預(yù)言,在另外一個宇宙時空坐觀。?
億配芯城一個現(xiàn)代數(shù)據(jù)共享的商城,讓您收(獲)滿滿,整板(BOM)配齊。
電話: 86-0755-82862036/ 13510757977 QQ: 2853094330