AI的很多優(yōu)勢是眾所周知、被接受和被吹捧的,可它的局限性也是比較明顯的。不過,AI還是有一些顯著的特征,雖不常被提及,但也值得關注。
優(yōu)點
AI應用程序可以輕松執(zhí)行極其復雜的任務。其可以為你可能喜歡的下一首歌曲提供個性化推薦,或者從數百萬張x光片中挑選出顯示問題的那一首。此外,其還能夠以人類專家無法比擬的數量和準確度完成此類任務。單調而重要的工作可以被完美地、毫無怨言地完成。
局限性
與此同時,也有很多文章說人類擁有AI所缺乏的能力。這些文章通常認為,人類和AI必須合作,AI可以增強人類更廣泛的能力。我們可以想象、預測、感覺和判斷不斷變化的情況。由于尚未實現更廣泛的通用AI,當前的AI模型——在狹窄任務中表現出色——仍然受益于人類指導。
比較明顯的是,AI的優(yōu)勢與人類的弱點直接對應。與人類不同的是,AI理解概率,不引入偏見,保持一致,并避免不必要的風險。
概率vs結果
人類理解結果,但通常不擅長處理概率。MontyHall的《Let’sMakeaDeal》便是一個例子,在這里人類表現出了對概率和先驗更新的缺乏理解。在這個游戲中,有三扇門:一扇有汽車,另兩扇有山羊。 參賽者隨機選擇一扇門,Monty 選擇打開一扇有山羊的門。然后, Monty給參賽者一個機會,讓他們可切換到另一扇關閉的門。他們應該嗎?事實證明,通過打開一扇門, Monty給了參賽者額外的信息,如果參賽者總是切換,那么有三分之二的幾率贏得汽車。人類往往會錯誤地回答這類問題,但AI可以完美地回答它。
偏見
人類有很多偏見,不管是叫它們“直覺”還是其他什么名字。確認偏差可能是最常見的:人類尋找并解釋支持先入為主假設或理論的信息。兩個人在觀看同一個新聞節(jié)目時,可能會對當天的事件得出不同的結論。相比之下,偏見只會在AI中通過人類提供給其學習的數據表現出來。AI的偏見僅限于有限的數據集,而不是不斷變化的人類經驗、記憶、信仰和恐懼的復雜性。從這個意義上說,AI偏見可以說比人類偏見更加離散和可解決。
一致性
AI是一致的,這讓人很痛苦。除非另有說明,否則AI將按照人類一貫的要求行事。人類始終如一的一個特點就是在運動、飲食、上班路線等方面都是不一致的。此外,人類會為自己的不一致找到合理的解釋。同樣的病人以同樣的癥狀出現在同一個醫(yī)生面前,可能在不同的時間得到不同的診斷,這并不是不可理解的。AI保證程序和結果的一致性,前提是基礎人群不存在巨大偏差。
風險
AI不會冒險,但人類會。這就是為什么希望人類智能來增強AI。人類智慧的力量正在承擔風險,并押注于此。例如,在沒有算法支持的情況下,押注電動汽車。但有時這種風險會表現為動力失調,比如造成機組人員死亡的挑戰(zhàn)者號航天飛機災難。雖然一名工程師以O型密封圈的設計缺陷為理由,敦促推遲發(fā)射,但航天飛機還是按計劃升空,并在起飛一分鐘后爆炸。在對1986年那場致命災難的分析中,社會學家DianeVaughan創(chuàng)造了“偏差正?;?rdquo;這一詞,用來描述團隊對不健全的實踐變得麻木不仁。AI會客觀地評價并決定推遲發(fā)射。
所以,AI無法想象、預測、感覺和判斷,但理解概率,不會引入新的偏見,保持一致,并避免不必要的風險。人類能夠感知和判斷的事實,可能并不總是對自己有利。?