小時候,我聽爸爸媽媽說最多的一句話就是:“你不懂!長大之后你就明白了。”
以我五歲的智商,我把這句話翻譯為:滾蛋。
我內(nèi)心是不服的,大人判斷一件事情的邏輯,難道就真的沒辦法給小孩子解釋明白?一種被當成智障的屈辱感油然而生。。。
這種事情在人生中反復(fù)發(fā)生,例如多年后,一個妹子淚眼婆娑地望著我說:你不懂!然后轉(zhuǎn)身消失在夕陽的余暉下,那輛瑪莎拉蒂里。留下我默默地推著自行車百思不得姐。
多年后我才發(fā)現(xiàn)這個事實:你的朋友、親人、愛人、你所珍惜和依賴的人,當他說出“為你好!”“你不懂!”“聽我的!”的時候,多半是因為沒辦法給出讓你理解和信服的解釋。
你看過《ET》嗎?兩個人之間的交流,并不比人和一個外星人交流更簡單。你可以細品品。。。
然而我終究想說:
一萬句“我愛你”,不如一句“我懂你”。
試圖理解,是我們的本能。事實上,理解一個人很難;理解一個人工智能也很難。
接下來的五分鐘,我們就來討論兩個科幻問題:
1、我們有沒有可能理解人工智能的每一個決定?
2、如果有,我們用什么方法來理解人工智能?
邢新宇
邢新宇,就是今天的主咖了。這位賓州州立大學(xué)的教授,在和京東安全合作,試著用算法來解釋人工智能的每一個決策。(至于為什么是和京東安全合作,看到后面你就明白了。)
Let's ROCK
1、我們真的可以“懂”人工智能嗎?
先糾正一下絕大部分人的誤區(qū):
如果你覺得,人們可以像理解“1+1=2”那樣理解人工智能所做的每一個決策。那么恭喜你,請關(guān)注淺黑科技,明天繼續(xù)來打卡學(xué)習(xí)。
事實上,人工智能的絕大部分決策,人是不能理解的。哪怕是制造他們的科學(xué)家——這些人工智能的“爸爸媽媽”也不能理解。
你可能會說,納尼?人造出來的東西,自己怎么會不理解?
舉個例子,當年我們的祖先發(fā)明鉆木取火的時候,他們其實并不懂燃燒的原理。先使用,后理解,這本就是我們認識世界的規(guī)律。
舉一個大多數(shù)人都知道的例子:
阿法狗,這個最著名的人工智能圍棋大師。
在具體的對弈中,科學(xué)家爸爸只為它設(shè)定了目標——贏得比賽,卻根本沒有規(guī)定阿法狗必須按照人類的套路來落子。當然也正是因為如此,它才有可能“青出于藍勝于藍”,完虐柯潔大棋渣。
人工智能的決策過程,就像這個漢子畫畫一樣,全程旁觀者都會感到“莫名其妙”,直到最后一秒絕殺,你才會恍然大悟。
OK,誤區(qū)糾正完畢,結(jié)論是:
從某個角度看,人工智能的水平已經(jīng)超過人腦太多,如何理解人工智能(AI),其實是個國際難題。
如果只是用 AI 下個棋,不理解也就不理解了。但是,AI 可是越來越普及,這個我們無法理解的東西開始圍繞在生活中,就像一個朋友,他永遠戴著面具和你說話,想想就讓人頭皮發(fā)麻。