2019年2月11日,美國總統特朗普簽署了關于維護美國人工智能領導力的行政命令。當月,Protivity一項關于人工智能和機器學習的調查顯示,只有16%的受訪企業領導者稱,他們從先進的人工智能中獲得了巨大的價值。調查還發現,各種行業中各種規模的企業都在人工智能方面投入巨資,2018年平均支出達到了3600萬美元。
在受訪企業中,有10%的企業表示計劃在未來兩年內增加預算。調查還發現,亞太地區的企業在采用先進人工智能的速度方面要快于世界其他地區。2018年,亞太地區的企業中有22%處于機器學習的高級階段,而北美只有11%,歐洲有7%。
2019年3月4日,聯合國教科文組織召開了一次關于制定人工智能核心原則的大會,重點討論了更人性化的人工智能方法,其目標是促進公共部門和私營企業、技術界、媒體界和學術界、民間社會、國際和區域組織之間的對話,討論我們應該在多大程度上允許機器替我們做出決策。作為一個社會群體,我們人類將價值和優先級寫入機器的算法之中。
聯合國教科文組織總干事Audrey Azoulay在聲明中表示,人工智能是人類的新前沿。
Azoulay表示:“人工智能的指導原則并不是要成為自主的或者取代人類的智慧,但我們必須確保人工智能是通過人道主義的方式發展進化的。”
萬事達卡(Mastercard)公司網絡與智能解決方案總裁Ajay Bhalla表示,如今人工智能已經影響著大多數行業。
“未來幾年中,人工智能將影響到每個經濟領域。人工智能將大規模提高數據交易、互動和決策的價值和速度,”Bhalla說。
“因此人工智能對于未來的商業至關重要——通過人工智能構建系統,這對于保持競爭力至關重要。”
迪拜數據公司首席執行官、智慧迪拜助理主任Younus Al Nasser對此表示贊同。
他說:“人工智能已經自成一個領域,成為我們生活中越來越自動化的一個組成部分,未來人工智能領域取得的突破和人工智能服務只會越來越多,這就需要我們設定原則來規范和指導這個領域。”
“也就是說,人工智能領域還不夠成熟,尚未起草法律來管理它,因此我們開發了一個Ethical AI Toolkit,為人工智能的道德使用制定明確的指導方針,防止碎片化的、不連貫的道德方法。在道德方面,一切都要制定出規則。我們希望這個工具包變成一個通用的框架,確定人工智能設計和使用的道德要求,提供合理的解決方案幫助利益相關者遵守道德原則,最終作為政府制定務實的人工智能法律法規的一個藍圖。”
在可信性方面,萬事達卡公司的Bhalla認為,如今技術領域有很多關于可信性的討論,無論是對消費者數據的使用、隱私還是共享經濟中新平臺和技術的發展。
Bhalla說:“因為資金是人們很看重的,所以支付和金融服務行業總是在構建更為安全的系統方面走在前沿。人們越來越認識到,道德規范包括的不止是監管和合規,重點也從‘我們是合規的’,轉變為‘我們做的是正確的’。”
“道德方面的考量體現了競爭差異化,這是我們需要遵循的原則。我們在設計中考慮隱私,在設計中考慮安全性——這是基于可信性的價值主張。如果我們考慮采用人工智能,我們就需要深入考慮如何采用人工智能技術,如何創建標準來定義在哪些方面使用人工智能、在什么時候使用人工智能、以及人工智能可以讀取哪些內容。”
LatentView Analytics首席執行官Rajan Sethuraman認為,人工智能的道德規范是一個廣泛的主題,因為這通常涉及把文化規范和指南運用于幾乎無窮無盡的理論應用中。
Sethuraman說:“當使用人工智能實現那些可重復性工作的自動化時,道德方面的考量可能就不會那么深入。但是,我們對機器訓練得越多、越是希望機器最終能夠模仿我們并把判斷、同情心、公平等人類基本思想情感融入到人工智能技術中,我們就會越來越多地要面對同樣存在于人類交互過程中的道德問題。”
感知自動化的“權利”是我們在科幻電影中反復見到的一個主題——雖然我們還沒有達到HAL 9000的水平——但是當我們開發出越來越先進、越來越不可預測的人工智能時,我們就必須要深度思考道德規范問題,Sethuraman補充說。
Clairvoyant首席技術官Shekhar Vemuri認為,人工智能的道德問題就像是硬幣的正反兩面。
Vemuri說:“不管是大型技術企業還是小型初創公司,任何開發人工智能技術的人都需要問問自己,是否有權利使用他們手頭上的任何數據來支持人工智能。如果沒有,那么接下來所有事情都有可能是道德違規的。”
“另一方面是透明度。很多公司只關注他們的人工智能有多么強大、多么可擴展。這很重要,但人工智能有點像政府——或者人們把權力移交給的一方——必須具備透明度可以檢查它的權力和能力。機器做得是否正確?更重要的是——如果不正確的話(例如,銀行貸款或者招聘流程中存在偏見),那么流程是否開放,可供檢查?是否可以通過審查算法發現缺陷?或者它就是個黑盒子?
Vemuri認為,不解決以及解決這些隱私性和透明度的問題,都將面臨著激烈反應,可能就意味著從監管上叫停人工智能的采用。
“作為人工智能從業者,我們的社會和道德責任是確保我們人類的偏見不會在我們構建的解決方案中得到放大——如果確實存在偏見,并且形成一定規模——那么就要有一個透明的過程來根除并解決這個問題,”Vemuri補充說。
但Bhalla認為,AI可以在打擊影響消費者的欺詐方面發揮重要作用。
“在過去十年中,萬事達卡公司一直投入資金用于人工智能技術,而且人工智能在打擊欺詐、特別是反洗錢方面確實是很有價值的。我們的人工智能防欺詐和決策平臺每年要處理70億筆交易,這使得去年我們防止了涉及500億美元的欺詐行為。”
萬事達卡公司在2017年收購了人工智能專業公司Brighterion。Bhalla表示,這讓萬事達卡公司能夠將檢測的極限推高到預測這個層面。
“我們的業務中沒有哪個部分是沒有采用人工智能的,從忠誠和獎勵計劃,到防欺詐和用戶體驗,再到新渠道。未來,將人工智能與生物識別技術相結合,將是把物理世界中的智能識別轉移到數字化領域中的一個重要方式。在線檢測人員及其設備,是目前我們正在解決的一項重大挑戰。”
說回人工智能的道德規范問題。Sethuraman表示:“人工智能的道德規范,必須越來越多地考慮潛在結果,讓人類盡可能地參與到輸入和設計過程中。這是近似于人的智能——或者通過機器完善人類,通過人類完善機器——事實上,這是未來大多數人工智能發展進化的方式。