亚洲成人一区二区久久-97精品久久人妻人人搡人人玩-亚洲黄色mv在线观看-欧美三级不卡在线视频

當前位置:首頁 > 最新資訊 > 行業(yè)資訊

AI的盲點正是優(yōu)化的脆弱性

AI系統(tǒng)的脆弱性一直被行業(yè)人員所詬病,稍微的數(shù)據(jù)錯誤就會使系統(tǒng)發(fā)生故障。例如在圖像識別中,圖片微小的像素改變,不會干擾人類視覺,但機器可能會發(fā)生紊亂。正如CVPR 2017論文中所論述的那樣“修改一個像素,就能讓神經(jīng)網(wǎng)絡(luò)識別圖像出錯”。

至于原因,研究人員有過很多探究:數(shù)據(jù)不夠好,算法設(shè)計不精妙....近日,在科技媒體wired上,計算機科學(xué)家Erik J. Larson撰文表示:優(yōu)化思維是AI脆弱性的根源。

"然后,我們必須承認AI當前脆弱性的根源正是AI設(shè)計現(xiàn)在推崇的崇高理想:優(yōu)化。"

優(yōu)化是推動AI盡可能準確的動力,在抽象的邏輯世界中,這種推動無疑是好的,但在AI運行的現(xiàn)實世界中,每一個好處都是有代價的。例如需要更多數(shù)據(jù)來提高機器學(xué)習(xí)計算精度,需要更好的數(shù)據(jù)來確保計算的真實性。

“這種更好”必須保證不斷的進行數(shù)據(jù)收集,因此當AI開始逐漸形成完整的畫面時,新數(shù)據(jù)的出現(xiàn)可能改變現(xiàn)有狀況,從而導(dǎo)致系統(tǒng)崩潰。這也是大眾眼中近乎完美的AI經(jīng)常“犯精神病”的原因之一:將狗狗當成菠蘿,把無辜的人看成通緝犯。

1.優(yōu)化的脆弱性

人類不是一個優(yōu)化者,過去幾萬年大腦本身也并沒有進化出完美優(yōu)化的功能。大腦是輕量級的,從不追求100%的準確性,并能夠從小數(shù)據(jù)中得出假設(shè)。

換句話說,大腦滿足于在“門檻”上混日子,如果1%的準確率就能讓它生存,那么這就是大腦所需要的準確率。但這種最小生存策略也會導(dǎo)致認知偏見,讓人們思維封閉、魯莽、宿命論、恐慌。

AI嚴格的數(shù)據(jù)驅(qū)動訓(xùn)練方法能有效避免這種認知偏見,卻也讓其陷入“過度糾正”。確實,對人類而言,好的心態(tài)能夠抵御完美主義帶來的破壞性影響,一個不那么神經(jīng)質(zhì)的大腦已經(jīng)幫助我們在“生活的沖撞和搖擺”中茁壯成長。

將這種“反脆弱”引入AI,那么也意味著:與其追求壓縮越來越大的數(shù)據(jù)堆,不如專注于提高AI對不良信息、用戶差異和環(huán)境動蕩的容忍度。這種AI將消耗更少的能量,產(chǎn)生更少的隨機失誤,帶來更少的負擔。如何做?目前來看,有三種方式。

2.構(gòu)建AI直面不確定性

五百年前,實用主義大師尼科勒·馬基雅維利指出,世俗的成功需要一種反直覺的勇氣。對于聰明人來說,大部分不存在的知識將是不必要的;生活往往不會符合我們的預(yù)期。因此,人類可以改變對模糊性的處理方式。

例如當AI遇到單詞suit時,它會通過分析更多的信息來確定該單詞是表示衣服,還是法律名詞。分析更多信息通常意味著利用大數(shù)據(jù)縮小答案范圍,這在99.9%的情況下有效,剩下的0.1%,AI仍然會“自信”的將suit表示為法律名詞,但實際上它是衣服。

因此,AI應(yīng)該有足夠大的答案范圍。研究人員在設(shè)計AI時候,應(yīng)該允許“模棱兩可”,并將模糊選項代入后續(xù)任務(wù)中,就像人類能夠讀懂一首詩歌的多個潛在含義一樣。如果下游任務(wù)不允許“模棱兩可”的存在,這時設(shè)計的AI應(yīng)該能請求人類的幫助,讓人類代替它進行決策。

3.用數(shù)據(jù)作為靈感來源

目前的AI希望通過大數(shù)據(jù)的發(fā)散性思維實現(xiàn)創(chuàng)造。但眾多科學(xué)研究顯示,生物的創(chuàng)造力往往涉及無數(shù)據(jù)和非邏輯過程。因此,依靠大數(shù)據(jù)或許能夠批量創(chuàng)造出許多“新”作品,但這些作品僅限于歷史數(shù)據(jù)的混合和匹配。換句話說,大規(guī)模的發(fā)散性思維的產(chǎn)生必然伴隨著低質(zhì)量。

數(shù)據(jù)驅(qū)動的創(chuàng)造所產(chǎn)生的局限性可以從GPT-3以及Artbreeder等文本和圖像生成器中看到。通過“觀察”歷史場景,然后添加專家意見,試圖產(chǎn)生下一個梵高。但結(jié)果往往是這位“梵高”只能復(fù)制以前畫家的作品。這種AI設(shè)計文化,顯然誤解了創(chuàng)新的含義。這種情況從大家對FaceNet的盛譽中可見一斑,因為有一些面部識別的創(chuàng)新,仍然是蠻力優(yōu)化。可以類比為調(diào)整汽車的扭矩帶增加汽車性能,并稱其為汽車交通革命。

因此,是時候?qū)?shù)據(jù)看成靈感來源,而不是偽造來源了。90年前,《科學(xué)發(fā)現(xiàn)的邏輯》一書的作者卡爾·波普爾就指出:用事實推翻想法比證明想法更合乎邏輯。將這種思維引入到AI產(chǎn)物中,我們可以將數(shù)據(jù)的功能從小想法的大量產(chǎn)生者轉(zhuǎn)變成大規(guī)模的毀滅者(a mass destroyer of anything except),當然一些前所未有的想法除外。(譯者注:這里的大規(guī)模毀滅者是指將“重復(fù)作品”篩選出來)

因此,與其無休止的產(chǎn)生“重復(fù)作品”,不如讓計算機搜索有價值的作品,從而找到未被賞識的“梵高”。

4.人機結(jié)合

將人腦融入AI聽起來很科幻,短期內(nèi)很難有大的進展,但我們可以另辟蹊徑,設(shè)計友好的人機關(guān)系。當前人與機器的合作關(guān)系并沒有發(fā)揮它應(yīng)有的作用,人類要么充當機器的保姆,要么充當AI系統(tǒng)更新的附屬品。前者意味著乏味、枯燥,后者意味著被動。如何解決?當前的工作重點已經(jīng)關(guān)注三個方面:

1.攻關(guān)科研,讓AI有能力“知道”它何時缺少訓(xùn)練數(shù)據(jù)。換句話說,追求正確的AI,不如追求讓AI知道自己何時不正確,賦予AI認知自己的智慧。人類的大腦無法擁有計算機的數(shù)據(jù)處理速度,所以當無知的算法認為自己無所不能的時候,人類的干預(yù)總是太晚。因此,應(yīng)該通過編程讓“傻瓜”發(fā)現(xiàn)自己是“傻瓜”。

2. 完善人機交互界面。因追求優(yōu)化而造成的不透明設(shè)計,即黑盒算法。交互設(shè)計應(yīng)該消除黑盒性質(zhì),例如將剛性按鈕(只有一個選項)替換成包含概率的選項,標明第一個選項的可能性為70%,第二個選項的可能性為20%,第三個選項的可能性為5%,以此類推。如果沒有滿意的選項,那么就要求AI重新定向,或者進行手動操作,以最大的限度提高計算機的邏輯和人類的主動性。

3. 仿照大腦建立去中心化的AI模型。大腦包含去中心化的認知機制,例如邏輯、敘述、情感,它們之間相互制約、相互平衡。因此,AI系統(tǒng)也可以設(shè)計包含不同推理架構(gòu),例如如果深度學(xué)習(xí)不能訪問它所需要的數(shù)據(jù),系統(tǒng)就可以過渡到if-then的控制程序。更重要的是,AI可以向外看,從人類學(xué)的線索中學(xué)習(xí),而不是狂熱地集中在自己的內(nèi)部優(yōu)化策略上。

以上技術(shù)建議并不是未來虛幻的想象,它是現(xiàn)在就可以實現(xiàn)的設(shè)計創(chuàng)新。需要研究者拋棄大數(shù)據(jù)以及完美智能的假設(shè),在這個不斷變化的世界中,創(chuàng)造性要求比最準確要求來的更加明智。

猜你喜歡