數(shù)據是構建人工智能系統(tǒng)必需的關鍵基礎設施。數(shù)據在很大程度上決定了AI系統(tǒng)的性能、公平性、穩(wěn)健性、安全性和可擴展性。
那么,用足夠多的數(shù)據訓練而來的AI系統(tǒng),能夠做出正確的決策么?今年5月份,medium上的Marianne Bellotti博主發(fā)表了一篇名為“AI正在解決錯誤問題的文章”。在文章中,作者提出一個觀點:在更多數(shù)據(信息)加持下,人類都不一定做出“合適決策”,為什么要假設AI會表現(xiàn)更好呢?
為了論證這個觀點,博主寫道:
“在現(xiàn)實生活中,決策者往往為了節(jié)約成本而進行優(yōu)化決策。但決策畢竟是根據結果來判斷好壞的,在正確分析的基礎上還需要一點運氣。在結果出來之前,即使是在絕佳數(shù)據支持下最仔細、最徹底構建的策略也無法保證決策的絕對正確。”
顯然,這一觀點的意思是:決策的過程與其說是對數(shù)據的客觀分析,不如說是對風險和優(yōu)先級的權衡。最后,基于上述觀察,作者論證了這么一個觀點:數(shù)據驅動的AI模型,在做決策時候,極易受到攻擊。
1
AI 的方向存在偏差
面對一個難題,分步驟、有條理的解決方案是值得肯定的。有哪些假設?假設如何構建?需要解決的問題?如果這些假設不同,會解決不同的問題嗎?想要解決的問題和結果之間有什么關系?以上這些子問題,對于決策過程異常重要。假設訪問更多數(shù)據是決策者做出更好決策的關鍵,所以研究者希望喂給系統(tǒng)越多數(shù)據,AI越好的做出決策,擁有更少的負面影響。在這一假設下,我們理所當然的認為:完美信息應該自動改善決策過程??紤]到現(xiàn)實,這一假設是錯誤的。因為,決策的過程更多是由決策者背后的政治決定,退一步講,即使能夠獲得完美信息,它也會通過增加噪音水平而降低了決策質量。例如,人工智能可以正確識別內容,但基于該內容做出的決策在很大程度上受到用戶和組織的規(guī)范和期望的影響。例如,F(xiàn)acebook 的審核政策允許將某些敏感部位圖片 PS 到“明星”身上,但禁止明星真實敏感部位圖片露出。在Facebook這個例子上, 人類很容易理解利益相關者之間的關系如何使這種區(qū)分變得合理:一個是違反言論自由和公共評論的規(guī)范;另一個則沒有。顯然,當團隊做出決策時,考慮到各個利益相關者及其激勵因素,改進決策的最佳途徑就不再是獲取更多數(shù)據,而是需要加強利益相關者之間的溝通。這對于問題“從國家層面來看,為了提高AI的決策能力,是否需要花費數(shù)十億美元來清理數(shù)據和增強數(shù)據傳感器?”有了更好的回答。畢竟,美國國防部每年在員工身上花費11-150 億美元,以求他們將數(shù)據處理成某種形式。經過數(shù)十年的投資、監(jiān)管和標準制定,我們今天與1970年時候的“計算機化的大腦(computerized brain)”提法相比,本質上并沒提高多少。然而,隨著計算機越來越先進,人們也越來越沉迷數(shù)據。
2
數(shù)據驅動的脆弱性
談論數(shù)據質量的方式具有誤導性。我們談到“干凈”數(shù)據,就好像存在一種數(shù)據既準確(且無偏差)又可重用的狀態(tài)。其實,干凈與準確不同,準確與可操作又不同。而無論哪種類型的數(shù)據出現(xiàn)問題,都有可能阻礙AI模型的開發(fā),或者影響AI模型做決策。數(shù)據出問題的方式有很多,例如:數(shù)據實際上不正確、已損壞或采用錯誤格式。還有些更微妙的錯誤:數(shù)據是在特定上下文中獲取的,但重用的時候不恰當;數(shù)據沒有標準化導致相同的事情,表達方式不一;對于模型來說數(shù)據處于錯誤的粒度級別......對于上述問題,僅使用單一數(shù)據源是無法解決的。如果有攻擊者試圖往模型、系統(tǒng)中注入“錯誤”,那么這些問題更不可能解決了。AI雖然創(chuàng)造了新機會,但我們也不能忽略它的脆弱性。換句話說,AI帶來新解決方案的同時,也發(fā)明了新攻擊方法。例如Deepfake、衛(wèi)星數(shù)據的“位置欺騙”等。這些“有毒”技術正在和“良善”技術一起進步。當前的AI系統(tǒng)完全依賴數(shù)據質量,雖然技術已經比較成熟,但這種設計方案極易受到攻擊。因此在這種情況下,AI系統(tǒng)必須被設計成能夠靈活應對不良數(shù)據的模型。讓 AI“反脆弱”是一種抵御攻擊風險的方式。
3
什么是反脆弱人工智能?
在系統(tǒng)思維中,“反脆弱”是一種設計,不僅可以從故障中恢復,而且在遇到故障時更加強大、更有效。基于實際改善決策的因素構建 AI 系統(tǒng)將為反脆弱人工智能創(chuàng)造機會。
認知科學的研究中提到,良好的決策是:主動闡明假設、構建假設檢驗驗證這些假設以及在利益相關者之間建立清晰的溝通渠道的產物。許多引發(fā)人為錯誤的認知偏差都是上述三方面出現(xiàn)問題的結果。例如沒有清楚地闡明假設,就將解決方案應用于不合適的環(huán)境條件;不測試假設,就無法根據不斷變化的條件來調整正確的決策。AI很容易受到不良數(shù)據的影響,因為我們過分強調了它在分類和識別方面的應用,而低估了它在建議和情境化方面的應用。然而,決策型AI又非常容易被破壞。設計反脆弱AI非常困難,因為將算法分析的結果作為結論和作為建議,這兩者之間有很大的差別。而決策者,為了節(jié)省精力非常有可能一股腦的將AI輸出作為結論。這種想法,已經在刑事司法和警務領域造成了災難性的錯誤。那么在醫(yī)學中,為什么AI能夠提高決策質量?因為,許多診斷并沒有單一的正確答案,某種癥狀背后可能對應多種疾病,到底患有哪種疾病,可能只是概率問題。臨床醫(yī)生會在頭腦中建立一個決策樹,其中包含他能想到的所有可能病因,并讓病人做排除某些可能病因的測試。因此,醫(yī)學診斷是一個“定義假設、檢驗測試、進一步縮小可能病因集”的循環(huán)過程,直到決策收斂。這時候,AI決策模型的作用是提示醫(yī)生將可能的疾病類型納入他的決策樹,所以盡管可能數(shù)據不佳,但患者的治療效果卻有所改善。目前,這種AI已經在用于改善醫(yī)療專業(yè)人員之間的溝通和知識共享,或在關鍵時刻從患者那里獲得新的相關信息。
4
使用AI進行決策的正確姿勢
在決定如何最好地利用人工智能時,技術領導者需要首先考慮他們如何定義需要解決的問題。如果 AI 是改善決策,那么 AI 應該引導決策者進行假設檢驗,而不是試圖超越專家。當 AI 試圖勝過專家,它完全取決于接收到的數(shù)據的質量,從而產生了一系列漏洞,攻擊者可以輕松地利用這些漏洞。當人工智能的目標不是成為最好的頂級專家,而是加強和支持決策實踐時,其對不良數(shù)據具有彈性并能夠具有反脆弱的功能。但這樣的人工智不能做決定。相反,它幫助人們闡明決策背后的假設,將這些假設傳達給其他利益相關者,并在與這些假設相關的條件發(fā)生重大變化時提醒決策者。綜上,人工智能可以幫助決策者弄清楚什么狀態(tài)是可能的,或者在什么條件下它們是可能的。這樣的解決方案可以通過解決現(xiàn)有弱點來增強決策團隊的整體能力,而不是因不良數(shù)據產生一些新的弱點。
凡注有"環(huán)球傳媒網"或電頭為"環(huán)球傳媒網"的稿件,均為環(huán)球傳媒網獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為"環(huán)球傳媒網",并保留"環(huán)球傳媒網"的電頭。
資訊
焦點
- 據江蘇省鹽城市住房和城鄉(xiāng)建設局消息 二孩家庭補貼50%
- 日本制造業(yè)巨頭川崎重工數(shù)據造假 造假行為從1984年就已經開始
- 再創(chuàng)新高!英國房價連續(xù)第11個月上漲
- 創(chuàng)一年多最大降幅 英國5月零售銷售同比下降1.1%
- 全球油脂供應恢復 黑海地區(qū)油脂貿易或將得到進一步緩解
- 兒童人數(shù)連續(xù)41年減少?日本2021年出生人口約81萬人
- 一年后不能購買新書!亞馬遜官宣將停止Kindle中國運營
- 新加坡“國菜”海南雞飯告急 馬來西亞宣布停止活雞出口
- 這個國家改名成功!聯(lián)合國批準土耳其改名
- 密不透風的“生命通道” 航天員如何進入空間站?