圆圈在动吗?这个骗过人眼的动图火了
都說眼見為實,但真是這樣嗎?
先來看下這張動圖。
是不是感覺這2個圓圈,會隨著箭頭方向移動?
然而事實卻是:
它們沒有發生任何改變。
而就是這樣一張動圖,近日卻在網上引發了熱烈的討論。
連深度學習三巨頭之一的LeCun大神,也出面發表言論:
大腦的對抗性樣本。
每個類似CNN的結構……都有盲點……會被愚弄。
那么這張動圖到底暗含什么玄機?又為何讓LeCun作出如此評價?
對此,很多網友還是選擇相信自己的眼睛,認為得它們就是在動;也有堅持說沒動的。
于是他們找到各種辦法來證明。
最簡單的方法就是擋住箭頭,效果是這樣的。
恐怕這種幻覺與箭頭無關,這位網友評價道。
接著,其他人便采取了更加科學的方法——畫線。
可以明顯看到,圓圈的轉動確實沒有超過標記線。
那是不是箭頭發生了移動,才產生的錯覺呢?
也有人做了實驗。
也不難看出,箭頭位置沒有發生變化,而且第一個實驗也證明了與箭頭無關。
那這到底是怎么一回事?LeCun給出了正解:
它們是靜態的。
黃色區域的外側,有一條藍色的細線;藍色區域外側,則有一條黃色的細線。
網友將圓圈放大后,也發現了這個隱藏的貓膩。
LeCun繼續補充道:
你的視網膜→MT視覺通路,將圓周運動中的高對比度邊緣,解釋成了與邊緣正交的運動。
例如CNN在工作過程中,也會提取圖像中的一些邊緣信息/特征。
而這也正是LeCun在文章開頭處評價的由來——大腦的對抗性樣本。
他認為:
每一個類似CNN的架構,無論是人工的還是自然的,都有盲點。
它們會被訓練數據分布之外的輸入所愚弄。
LeCun說這話并不是空穴來風,而是在AI(尤其是計算機視覺)*相關的研究中,諸如此類的忽悠現象屢見不鮮。
對抗性樣本,簡單來說就是:
對輸入數據樣本,添加一些人無法觀察到的干擾,導致模型以高置信度給出一個錯誤的輸出。
一個非常經典的例子就是圖像分類。
例如一張已經被分類為熊貓的圖片,在加入一些干擾后,我們人類肉眼是無法察覺輸出圖像產生的變化。
但在AI眼里卻截然不同,并以高置信度將輸出圖像分類為長臂猿。
至于其原理,可以引用Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images這篇文章中的圖來示意:
一種方法是從一個類別的樣本出發,添加一些小修改,然后模型就會把修改后的樣本,判定為另一類。
另外一種方法,就是利用分類不確定性。比如圖中除了最上面部分的空間可以認為是數據存在概率極低的區域,從實際應用的角度甚至可以認為是完全不關心的區域。
而這樣的對抗性樣本,不僅僅是在圖像分類任務中存在,在自動駕駛中也是常見的。
例如一個膠帶就把特斯拉忽悠瘸了。
用一條2英寸的膠帶,成功欺騙2016年版特斯拉的攝像頭系統,誘使其出現了50英里/小時(80公里/小時)的異常加速。
欺騙后的效果是這樣的:
而這樣的問題,也成為了自動駕駛的一個安全隱患。網友:LeCun,你說的不對
最后,對于LeCun說大腦的對抗性樣本這句話,也成了網友們熱議的一個焦點。
有網友非常直白地說:
這并不是一個很好的對抗性樣本。
也有網友提出質疑:
這是人類視覺系統的一個對抗性例子,還是一個特征?
這看起來像是我們泛化能力的產物。
對此,你怎么看?
總結
以上是生活随笔為你收集整理的圆圈在动吗?这个骗过人眼的动图火了的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 苹果3gs刷机,苹果3GS越狱升级指南
- 下一篇: 联想股票价格走势图,从走势图中看,联想股