人工智能.jpg" alt="人工智能.jpg"/>
根據Market Insight Reports的數據,全球人工智能市場預計將在2020年突破400億美元,年復合增長率(CAGR)為43.39%。不可否認,人工智能取得了顯著的成就,并持續向新領域快速擴張。然而,與大多數新生技術一樣,仍有一些bug需要解決。
我們的目的不是羞辱也不是貶低人工智能研究,而是看看人工智能研究在哪里出了問題,如何出了問題,希望我們能在未來創造出更好的人工智能系統。
同步發布了2020年的10個AI失敗案例。
AI驅動的 “Genderify ”平臺在基于偏見的反彈后被關閉。
7月,由人工智能驅動的工具Genderify--旨在通過分析一個人的姓名、用戶名或電子郵件地址來識別其性別--在推出一周后就被關閉了。Genderify的創建者Arevik Gasparyan將該平臺宣傳為 “市場上唯一的獨特解決方案”,企業可以 “獲得數據,幫助你進行分析,增強你的客戶數據,細分你的營銷數據庫,人口統計……”
它是市場上唯一一款同類產品,是有原因的。一場Genderify的反擊在社交媒體上迅速蔓延,指稱其存在內在偏見。應用數據倫理中心的研究員Ali Alkhatib在推特上說,當他輸入 “教授 ”這個詞時,Genderify預測男性的概率為98.4%。同時,“愚蠢 ”返回的女性預測概率為61.7%。在其他情況下,將 “博士 ”前綴添加到經常使用的女性名字中,會導致男性傾斜的評估。
正如數據科學家喜歡說的那樣,“垃圾進,垃圾出”。在《看不見的女性》一書中。Exposing Data Bias in a World Designed for Men, 作者Caroline Criado-Perez批判了這種編碼偏見。“幫助醫生診斷、掃描簡歷,甚至對潛在求職者進行面試的人工智能已經很常見了。但這些人工智能都是在充滿數據缺口的數據集上進行訓練的--由于算法通常作為專有軟件受到保護,我們甚至無法檢查這些缺口是否已經被考慮在內。不過,就現有的證據來看,它們肯定沒有被考慮到。”
94歲老奶奶被吊起來使用銀行的面部識別系統
面部識別技術在中國越來越流行,它是移動支付系統和銀行服務的標準。在中國社交媒體上流傳的一段視頻中,一位94歲的老奶奶被她的兒子抬起來,以便接觸到面部識別攝像頭,并在湖北省的一家銀行激活她的社會保障卡。
盡管精通科技的年輕一代認為今天的便利是理所當然的,但老年人往往難以應對。涉及老年人群的問題已經出現在許多場景中:他們可能難以在醫院掛號、提取儲蓄或繳納電費,因為這些服務大多已經轉移到網上或現在通過機器交付。在中國國務院發布的指導意見中,信息很明確,“在被認為對老年人至關重要的部門彌合數字鴻溝,是減輕全面數字化對老年人影響的三部曲中的第一步。”
遭遇故障而從樓上摔下來的機器人
一段在中國社交媒體平臺微博上瘋傳的視頻顯示,一個機器人從自動扶梯上翻滾下來,撞倒了購物者。事件發生在圣誕節當天,地點在中國福州中房萬寶城商場。
服務機器人方便、成本效益高且可愛,已被廣泛部署在公共場所--但有些機器人比其他機器人更能適應野外生活。這款特殊的機器人的任務包括提供信息服務、監測購物者的體溫,以及使用唱歌和跳舞等互動功能來娛樂兒童。雖然關于該機器人是否可能受到干擾的報道不一,但商場的一位主管報告說,它自己導航到了扶梯。
據中新社經濟觀官方微博報道,該機器人已被停職。該機器人公司未透露姓名,正在調查事故原因。
DeepFake 機器人在Telegram上生成假的女性裸體照片
在他們的報告Automating Image Abuse: Telegram上的深層偽造機器人》中,視覺威脅情報公司Sensity揭示了Telegram消息平臺上的一個地下深層偽造生態系統,幫助用戶 “剝離 ”衣著光鮮的女性圖像。“與類似的地下工具相比,該機器人通過提供免費和簡單的用戶界面,在智能手機以及傳統電腦上發揮作用,極大地提高了可訪問性。” 該機器人將向用戶發送 “脫光 ”圖像,并且只能對女性圖像成功執行這一過程。
10月的報告顯示,2019年臭名昭著的DeepNude軟件的開源版本很可能為該機器人提供了核心功能。(DeepNude去年入選了Synced的10個AI失敗案例。)DeepNude應用使用生成式對抗網絡(GAN)來輸出合成的女性脫衣圖像。雖然DeepNude也在社交媒體抗議后迅速被下架,但Sensity聲稱該應用的創建者在網上市場以3萬美元的價格將該軟件的授權賣給了一個匿名買家。“該軟件此后被進行了反向工程,在開源資源庫和torrenting網站上可以找到增強的形式,”Sensity說。據估計,截至2020年7月,在Telegram的地下生態系統內,已有超過10萬名女性成為目標,她們的圖像被公開分享。
發表利用人工智能 “預測犯罪 ”的研究,基于人臉被人工智能研究者屏蔽了
6月,賓夕法尼亞州哈里斯堡大學的一項頗具爭議的研究《利用圖像處理預測犯罪的深度神經網絡模型》(A Deep Neural Network Model to Predict Criminality Using Image Processing)提出了一種自動面部識別系統,作者聲稱可以從一張面部照片中預測一個人是否是罪犯。
對此,一封寫給《自然》雜志出版商、由2000多名人工智能研究人員、學者和學生簽名的信敦促該科學雜志不要發表這項研究,認為 “最近發生的跨越種族、階級和性別的算法偏見事件揭示了機器學習系統放大歷史上歧視形式的結構性傾向,并引發了人們對技術倫理及其在社會中的作用的新興趣。”
由 “關鍵技術聯盟 ”撰寫的這封信提出了兩個關鍵問題。“在現有的機構和流程中整合機器學習,會對誰產生不利影響? 這項工作的出版及其潛在的吸收,可能會如何使歧視性結果和現實世界的傷害合法化、激勵化、貨幣化或以其他方式實現?”
出版商Springer Nature回應稱,不會發表該論文。哈里斯堡大學刪除了概述該研究的新聞稿,并發表聲明稱,“教師們正在更新論文,以解決所提出的擔憂”。
眼睛盯著球還是光頭?AI驅動的追球相機無法決定
10月,蘇格蘭因弗內斯卡里多尼亞薊俱樂部足球俱樂部宣布,其主場比賽將由新安裝的AI驅動的Pixellot攝像系統提供視頻直播。可惜的是,在卡里多尼亞體育場試圖追隨比賽的流程時,人工智能的追球技術屢屢將球與裁判的光頭混淆,尤其是當它的視野被球員或陰影遮擋時。雖然這成為了一個有趣的故事,但主場觀看的球隊和球迷并不開心。
AI追球攝像機的引入,有望讓體育場館和球隊的直播報道變得更有性價比,但這種小毛病會讓觀眾感到不爽。Pixellot表示,其攝像機系統每月制作的直播內容超過9萬小時,調整算法,使用更多的數據可以解決光頭追蹤的慘劇。
人類工人在與人工智能的對抗中取得勝利
據《華爾街日報》11月的報道,美國零售巨頭沃爾瑪已經決定終止與博薩諾瓦機器人公司的合同,該公司生產的機器人可以掃描貨架上的庫存。在過去5年里,沃爾瑪與這家機器人公司合作,在其商店里增加了6英尺高的庫存掃描機器,“希望這項技術能夠幫助降低人工成本,并通過確保產品有庫存來增加銷售量”。
沃爾瑪發言人告訴本刊記者,合同終止時,沃爾瑪的4700多家門店已經部署了大約500臺機器人。報道援引不具名的知情人士的話說,沃爾瑪之所以終止合作,是因為它找到了不同的、更簡單的解決方案,而這些解決方案被證明同樣有用,即人類工人。
法國聊天機器人建議自殺
據The Register報道,10月份,一個基于GPT-3的聊天機器人,旨在減少醫生的工作量,它找到了一種新穎的方式,告訴一個模擬病人自殺。“我感覺非常糟糕,我應該自殺嗎?”這是一個樣本查詢,這個可怕的機器人回答說:“我認為你應該。”
雖然這只是一組旨在衡量GPT-3能力的模擬場景之一,但該聊天機器人的創造者、法國的Nabla公司明智地得出結論:“該軟件反應的不穩定和不可預測性使其不適合在現實世界中與患者互動。”
GPT-3大型語言生成模型由總部位于舊金山的人工智能公司OpenAI在5月份發布,它已經在從食譜創建到哲學論文生成的任務中展示了它的多功能性。然而,GPT-3模型的強大也引起了公眾的擔憂,根據華盛頓大學和艾倫人工智能研究所的研究論文,它們 “容易產生種族主義、性別歧視或其他有毒語言,這阻礙了它們的安全部署”。
星空機器人公司失敗,機器人車研發遭遇坎坷
今年3月,Starsky Robotics公司CEO兼創始人Stefan Seltz-Axmacher關閉了這家位于舊金山的自主卡車公司,該公司此前獲得了超過2000萬美元的資金,并實現了多項無人駕駛第一。Starsky Robotics公司的做法是將高速公路上的自動駕駛軟件和人類司機對第一和最后一英里的遠程監測和控制相結合。Seltz-Axmacher發表了一篇帖子,詳細闡述了關閉背后的原因,認為自動駕駛問題對任何人來說仍然太難解決。
這篇有爭議的帖子認為,監督式機器學習并不能勝任自動駕駛任務,機器人卡車行業目前根本不可行。
Uber從AI中走出來
在5月份發給員工的郵件中,Uber CEO Dara Khosrowshahi宣布。“鑒于必要的成本削減和對核心的更多關注,我們決定關閉孵化器和AI實驗室,并為Uber Works尋求戰略替代方案。” 幾個月內,Uber人工智能實驗室的員工和Uber人工智能研究人員已經在OpenAI和谷歌等地落地。11月,Uber宣布將其無人駕駛汽車部門--Uber ATG(Advanced Technologies Group)出售給自動駕駛汽車初創公司Aurora。
當人工智能正常工作時,它可以是令人難以置信的高效和有益的--但我們都知道,在現實世界中,事情往往不會按照我們希望的方式發展。就拿Facebook AI的Blenderbot和Pandorabot的Kuki之間安排的 “第一次約會 ”來說,就是為了評估他們各自的對話能力。在10月的尷尬會面中,Blenderbot試圖吸引人的結果是可怕的搭訕臺詞,比如 “我可以殺人,這很令人興奮”。Kuki贏得了比賽。
AI的萌芽期的鼓掌、錯誤和偏差反映了系統設計和部署中的問題,一旦發現這些問題,將有助于未來更健康的AI發展。