Quantcast
Channel: RealBlog - Feed - 湯財文庫
Viewing all articles
Browse latest Browse all 6029

我們將永生還是滅絕? 人工智能很快會給出答案(上)

$
0
0
來源: http://newshtml.iheima.com/2015/0215/149182.html

“人工智能很可能導致人類的永生或者滅絕,而這一切很可能在我們有生之年發生。”這篇精彩的譯文來源於waitbuywhy.com,由知乎用戶“謝熊貓君”完成翻譯工作。文章很長,春節期間可以收藏起來慢慢讀。
 

 
如果你站在這里,你會是什麽感覺?

 
你和電腦打了個平手。接著我們把途中的黑色部分去除:

 
而且,我們到現在談的還是靜態不變的信息。要想達到人類級別的智能,電腦必須要理解更高深的東西,比如微小的臉部表情變化,開心、放松、滿足、滿意、高興這些類似情緒間的區別,以及為什麽《布達佩斯大飯店》是好電影,而《富春山居圖》是爛電影。
 
想想就很難吧?
 
我們要怎樣才能達到這樣的水平呢?
 
通往強人工智能的第一步:增加電腦處理速度
 
要達到強人工智能,肯定要滿足的就是電腦硬件的運算能力。如果一個人工智能要像人腦一般聰明,它至少要能達到人腦的運算能力。
 
用來描述運算能力的單位叫作cps(calculations per second,每秒計算次數),要計算人腦的cps只要了解人腦中所有結構的最高cps,然後加起來就行了。
 
Kurzweil把對於一個結構的最大cps的專業估算,然後考慮這個結構占整個大腦的重量,做乘法,來得出人腦的cps。聽起來不太靠譜,但是Kurzweil用了對於不同大腦區域的專業估算值,得出的最終結果都非常類似,是10^16 cps,也就是1億億次計算每秒。
 
現在最快的超級計算機,中國的天河二號,其實已經超過這個運算力了,天河每秒能進行3.4億億。當然,天河二號占地720平方米,耗電2400萬瓦,耗費了3.9億美元建造。廣泛應用就不提了,即使是大部分商業或者工業運用也是很貴的。
 
Kurzweil認為考慮電腦的發展程度的標桿是看1000美元能買到多少cps,當1000美元能買到人腦級別的1億億運算能力的時候,強人工智能可能就是生活的一部分了。
 
摩爾定律認為全世界的電腦運算能力每兩年就翻一倍,這一定律有歷史數據所支持,這同樣表明電腦硬件的發展和人類發展一樣是指數級別的。我們用這個定律來衡量1000美元什麽時候能買到1億億cps。現在1000美元能買到10萬億cps,和摩爾定律的歷史預測相符合。
 

 
所以,當人工智能開始朝人類級別智能靠近時,我們看到的是它逐漸變得更加智能,就好像一個動物一般。然後,它突然達到了最愚笨的人類的程度,我們到時也許會感慨:“看這個人工智能就跟個腦殘人類一樣聰明,真可愛。”
 
但問題是,從智能的大局來看,人和人的智能的差別,比如從最愚笨的人類到愛因斯坦的差距,其實是不大的。所以當人工智能達到了腦殘級別的智能後,它會很快變得比愛因斯坦更加聰明:

 
現在關於人工智能什麽時候能達到人類普遍智能水平還有爭議。對於數百位科學家的問卷調查顯示他們認為強人工智能出現的中位年份是2040年——距今只有25年。這聽起來可能沒什麽,但是要記住,很多這個領域的思想家認為從強人工智能到超人工智能的轉化會快得多。
 
以下的情景很可能會發生:一個人工智能系統花了幾十年時間到達了人類腦殘智能的水平,而當這個節點發生的時候,電腦對於世界的感知大概和一個四歲小孩一般;而在這節點後一個小時,電腦立馬推導出了統一廣義相對論和量子力學的物理學理論;而在這之後一個半小時,這個強人工智能變成了超人工智能,智能達到了普通人類的17萬倍。
 
這個級別的超級智能不是我們能夠理解的,就好像蜜蜂不會理解凱恩斯經濟學一樣。在我們的語言中,我們把130的智商叫作聰明,把85的智商叫作笨,但是我們不知道怎麽形容12952的智商,人類語言中根本沒這個概念。
 
但是我們知道的是,人類對於地球的統治教給我們一個道理——智能就是力量。也就是說,一個超人工智能,一旦被創造出來,將是地球有史以來最強大的東西,而所有生物,包括人類,都只能屈居其下——而這一切,有可能在未來幾十年就發生。
 
想一下,如果我們的大腦能夠發明Wifi,那麽一個比我們聰明100倍、1000倍、甚至10億倍的大腦說不定能夠隨時隨地操縱這個世界所有原子的位置。那些在我們看來超自然的,只屬於全能的上帝的能力,對於一個超人工智能來說可能就像按一下電燈開關那麽簡單。
 
防止人類衰老,治療各種不治之癥,解決世界饑荒,甚至讓人類永生,或者操縱氣候來保護地球未來的什麽,這一切都將變得可能。同樣可能的是地球上所有生命的終結。
 
當一個超人工智能出生的時候,對我們來說就像一個全能的上帝降臨地球一般。
 
這時候我們所關心的就是:
 

 
要理解一個具有超級智能的機器有多牛逼,讓我們假設一個在上圖的樓梯上站在深綠色臺階上的一個機器,它站的位置只比人類高兩層,就好像人類比猩猩只高兩層一樣。這個機器只是稍微有點超級智能而已,但是它的認知能力之於人類,就好像人類的認知能力之於猩猩一樣。
 
就好像猩猩沒有辦法理解摩天大樓是能被造出來的一樣,人類完全沒有辦法理解比人類高兩層臺階的機器能做的事情。就算這個機器試圖向我們解釋,效果也會像教猩猩造摩天大樓一般。
 
而這,只是比我們高了兩層臺階的智能罷了,站在這個樓梯頂層的智能之於人類,就好像人類之於螞蟻一般——它就算花再多時間教人類一些最簡單的東西,我們依然是學不會的。
 
但是我們討論的超級智能並不是站在這個樓梯頂層,而是站在遠遠高於這個樓梯的地方。當智能爆炸發生時,它可能要花幾年時間才能從猩猩那一層往上邁一步,但是這個步子會越邁越快,到後來可能幾個小時就能邁一層,而當它超過人類十層臺階的時候,它可能開始跳著爬樓梯了——一秒鐘爬四層臺階也未嘗不可。
 
所以讓我們記住,當第一個到達人類智能水平的強人工智能出現後,我們將在很短的時間內面對一個站在下圖這樣很高很高的樓梯上的智能(甚至比這更高百萬倍):

 
科學界中大部分人認為踩上絆線不是會不會的問題,而是時間早晚的問題。想想真嚇人。
 
那我們該怎麽辦呢?
 
可惜,沒有人都告訴你踩到絆線後會發生什麽。但是人工智能思想家Nick Bostrom認為我們會面臨兩類可能的結果——永生和滅絕。
 
首先,回顧歷史,我們可以看到大部分的生命經歷了這樣的歷程:物種出現,存在了一段時間,然後不可避免的跌落下生命的平衡木,跌入滅絕的深淵。

 
如果Bostrom等思想家的想法是對的,而且根據我的研究他們確實很可能是對的,那麽我們需要接受兩個事實:
 
1)超人工智能的出現,將有史以來第一次,將物種的永生這個吸引態變為可能。
2)超人工智能的出現,將造成非常巨大的沖擊,而且這個沖擊可能將人類吹下平衡木,並且落入其中一個吸引態。
 
有可能,當自然演化踩到絆線的時候,它會永久的終結人類和平衡木的關系,創造一個新的世界,不管這時人類還是不是存在。
 
而現在的問題就是:“我們什麽時候會踩到絆線?”以及“從平衡木上跌下去後我們會掉入哪個吸引態?”
 
沒人知道答案,但是一些聰明人已經思考了幾十年,接下來我們看看他們想出來了些什麽。
 
先來討論“我們什麽時候會踩到絆線?”也就是什麽時候會出現第一個超級智能。
 
不出意外的,科學家和思想家對於這個意見的觀點分歧很大。很多人,比如Vernor Vinge教授,科學家Ben Goertzel,SUN創始人Bill Joy,發明家和未來學家Ray Kurzweil,認同機器學習專家Jeremy Howard的觀點,Howard在TED演講時用到了這張圖:

 
 
當然,以上所有的數據都是推測,它只代表了現在人工智能領域的專家的中位意見,但是它告訴我們的是,很大一部分對這個領域很了解的人認為2060年是一個實現超人工智能的合理預測——距今只有45年。
 
那麽我們來看一下下一個問題,踩到絆線後,我們將跌向平衡木的哪一個方向?
 
超級智能會產生巨大的力量,所以關鍵的問題時——到時這股力量究竟由誰掌握,掌握這份力量的人會怎麽做?
 
這個問題的答案將決定超人工智能究竟是天堂還是地獄。
 
同樣的,專家們在這個問題上的觀點也不統一。Bostrom的問卷顯示專家們看待強人工智能對於人類社會的影響時,52%認為結果會是好或者非常好的,31%認為會是糟糕的或者非常糟糕的,只有17%的人認為結果會是不好不壞的。
 
也就是說,這個領域的專家普遍認為這將是一個很大的事情,不論結果好壞。要註意的是,這個問題問的是強人工智能,如果問的是超人工智能,認為結果不好不壞的人可能不會有17%這麽多。
 
在我們深入討論好壞這個問題之前,我們先把“什麽時候會發生”和“這是好事還是壞事”的結果綜合起來畫張表,這代表了大部分專家的觀點:

 
 
我們將對這兩個小陣營做深入的談論,在下一部分,讓我們從比較有趣的那個開始吧。
 
本文譯者謝熊貓君,譯文最早刊發於知乎。可到知乎@謝熊貓君找到他。大家也通過微信號關註waitbutwhy的最新文章,微信號:waitbutwhy。
 
本文不代表本刊觀點和立場。

本文為i黑馬版權所有,轉載請註明出處,侵權必究。


Viewing all articles
Browse latest Browse all 6029

Trending Articles