2020年初,美國海軍發布《人工智能技術安全性》。該報告重點關注對此項技術帶來的安全性問題。美國海軍乃至整個國防部系統,都在嚴肅認真地對待軍事人工智能的發展。2019 年的 2、6、9 月,美國先后公布《國防部人工智能戰略》、《國家人工智能戰略》《空軍人工智能戰略》三大戰略,表明其在國家、軍隊、軍種三個層面的“智能化戰略”全面啟動。可看出美國人工智能在軍事領域的發展態勢日趨激烈。
一、推出多項政令戰略規劃,聚力發展人工智能
人工智能作為驅動第四次工業革命的重要引擎,深刻影響著經濟產業和各技術學科的發展,為此美國以國家戰略地位提升對人工智能在社會發展各領域( 特別是國防領域) 的動能,以推動人工智能技術的研發。2019年10月,世界經濟論壇發布制定國家人工智能戰略的框架白皮書,創建了最低限度可行的人工智能國家戰略制定框架,指出國家人工智能戰略的制定應考量具有戰略意義的優先事項人口需求資源限制和地緣政治等因素,旨在指導尚未或正在制定人工智能國家戰略的政府。
美國多措并舉,繼續把發展人工智能技術作為提升國力維護國家安全的重大戰略,從國家戰略層面強化人工智能技術布局。2019年2月,美國政府科技政策辦公室發布由美國總統特朗普簽發的《維持美國在人工智能領域的領導地位》行政令,提出了美國發展人工智能的政策和原則戰略目標和重點領域,啟動旨在推進美國在人工智能領域領導地位的美國人工智能倡議,指示聯邦政府整合資源,聚力發展人工智能。
同年2月,美國國防部公布《2018年國防部人工智能戰略》的摘要部分( 題為《利用人工智能促進安全與繁榮》) 。該戰略是美國國防部首個人工智能戰略,旨在落實美國政府《國家安全戰略》和《國防戰略》提出的人工智能重要事項,為美國國防部謀求軍事人工智能優勢發展軍事人工智能實戰化能力提供戰略指導。2019年7月,美國空軍推出數字空軍計劃,旨在改進其在數據管理信息技術架構和業務運營方面的不足,使美國空軍保持競爭力。2019年9月,美國能源部成立人工智能與技術辦公室,旨在為美國人工智能研究人員提供聯邦數據模型和高性能計算資源。2019年9月,美國空軍以美國《國防部人工智能戰略》附錄形式發布《2019空軍人工智能戰略》,詳細闡釋在數字時代如何有效管理引導和引領所必須的基本原則職能和目標。2020年初,美國海軍分析中心發布專題報告《人工智能技術安全性———對海軍的行動方案建議》。該報告從當前美國海軍推動軍事領域人工智能技術運用過程中引發的公眾關注進行介紹入手,提出了海軍乃至整個國防部系統在軍事領域接收采用新興技術手段的總體態度與思路。
二、多家軍事機構開展研發項目,探索人工智能技術的軍用新場景
作為軍事大國,美國對于人工智能軍事作戰賦能的目標非常清晰,強力推動美國頂尖人工智能研究走向新的技術突破,促進科學新成果的發現、增強經濟競爭力、鞏固國家安全。2019年3月,美國參議院軍事委員會舉行主題為國防部人工智能計劃的聽證會,美國國防預先研究計劃局 DARPA、國防創新小組( DIU) 、國防部聯合人工智能中心( JAIC)等機構主管分別發言,闡述所在部門的人工智能項目及運行機制等情況,鞏固并強化了人工智能技術及應用與軍方之間的聯系,保障美國的人工智能軍用化步伐進一步加快。以DARPA為例,DARPA正將投資和研發重點轉向第三代人工智能技術,用于創建能在特定語境下進行推理的機器。資助的主要項目包括終身學習機器( L2M,2017年啟動),可解釋人工智能( XAI,2018年啟動)和機器常識( MCS,2018年啟動)等,探索提高人工智能技術水平的方法,實現語境推理能力。DARPA認為,將這些技術集成到與軍事作戰人員合作的軍事系統中,將有助于在對空間敏感的復雜戰場環境中做出及時決策,了解不完整或者相互矛盾的海量信息,并使用無人系統安全自主地執行關鍵任務。
2019年1月,DARPA啟動知識導向型人工智能推理模式( KAIROS)項目,旨在提升面向復雜戰場環境挖掘和理解海量信息中的復雜事件及其相互關系的能力。2019年1月,美國陸軍研究實驗室( ARL)啟動異構戰術環境中的分布處理( DPHTE)計劃,基于霧計算平臺在對抗性軍事環境中為作戰人員提供更多的態勢感知。2019年2月,美國空軍研究實驗室發布多域戰和目標定位支持信息分析項目,旨在開發基于算法戰和人工智能等技術,針對時敏有價值的敵對移動目標進行快速預判和打擊。2019年5月,DARPA啟動旨在將人工智能應用于空戰演變( ACE) 項目,人工智能空戰應用成熟后可替代飛行員完成部分空戰任務。2019年5月,麻省理工學院發布為美國空軍打造人工智能加速器項目,該項目研究領域包括救災和醫療準備、數據管理、維護物流、車輛安全以及網絡還原能力。2019年9月,美國國防部聯合人工智能中心宣布美國軍方網絡安全數據制定新框架,重點為未來人工智能網絡防御體系奠定基礎。
2020年初,美國特朗普政府向國會提交2021財年預算申請,加速發展人工智能等技術。提議政府預算從2020財年1560億美元削減至1422億美元,下降138億美元,但預算申請仍強調優先發展“未來產業”,必須加速發展人工智能等技術。其中,500萬美元用于能源部新立“人工智能與技術辦公室”,加強人工智能的項目研發。
三、夯實人工智能實踐應用的道德準繩和安全邊界
隨著人工智能技術的發展,人權倫理、隱私保障、歧視偏見、安全問題等困境日益突出。美國亦在探索中多措并舉,確保人工智能在充分的監督和控制之下發展。特別是在2019年發布的國家級人工智能戰略和2020年初發布人工智能技術安全性報告中,將道德、隱私、安全等問題擺在突出位置,認為應在尊重道德、重視安全的前提下最大限度地發揮其社會效益。
(一)明確戰爭中使用人工智能技術的道德原則和標準
美國推動多項研究,闡明美國合法道德地使用人工智能的愿景和指導原則,引導負責任的人工智能應用和開發。2019年1月,美國國防部要求國防創新委員會制定在戰爭中使用人工智能的道德原則,用以指導軍方在戰爭中使用人工智能技術和武器,并向硅谷科技公司確認其人工智能產品將如何被使用。美國國防部這一舉措被認為旨在形成全球軍用人工智能規范的指導方針,并吸引硅谷科技公司參與防御工作;10月,人工智能原則: 國防部人工智能應用倫理的若干建議推出,被認為是美國對軍事人工智能應用所導致倫理問題的首次回應。2019年1月,美國著名智庫布魯金斯學會發布《自動化和人工智能:機器對人及地區的影響》報告,著重分析了過去近30年間的資助系統與人工智能對行業、就業、地理和人口的影響,并對當前至2030年的趨勢進行了預測。最后針對國家、州和地方的政策制定者提出一個綜合響應框架,為人們理解并規范自動化和人工智能的作用提供參考。
(二)人工智能對軍事領域尚屬新興技術,安全性不容忽視
人類歷史上,充斥著軍隊利用技術取得軍事優勢的實例。比如戰車。戰車,是出現在戰場上的第一種車輛裝備,由民間通用馬車提高速度和機動性改進而來,在軍事運用方面取得了顯著的優勢。戰車被描述為當時的“超級武器”。又比如火藥。火藥源起于一個偶然發現,它的出現,使得軍隊能夠駕馭化學反應能量來提高速度與威力,由此徹底改變了戰爭的形態和樣式。再比如內燃機。這種發動機繼承并發展了蒸汽機的優勢,改變了戰爭活動的速度與范圍。對內燃機的應用方案,包括為后勤物流(補給運輸卡車)提供動力以及為潛艇、飛機與導彈賦予持久的遠程監視及打擊能力。
對大多數技術手段的接收和運用,一度都曾起到了改變了戰爭樣式的作用。而其中有幾項,更是徹底顛覆了以往戰爭活動的樣式和范圍,其中便包括火藥與核武器。人工智能技術,亦被認為位居此類。此項技術能夠應用于整個戰爭事業的方方面面,大幅提高了戰爭活動的效能與效率。各類人工智能技術,也因其各自獨有的特性而有所區別。首先應注意到,現實世界中人工智能技術應用方案,是用以解決特定領域問題的狹義人工智能技術,而非具備普遍通用性的通用人工智能技術應用方案。人工智能技術在軍事領域的應用,可以與美國軍隊對核武器的運用方式進行類比:安全方面的關鍵性技術領域知識,必須在很大程度上由軍隊文職機構掌握,在很大程度上亦屬技術范疇。
(三)給予人工智能技術安全性 “恰到好處”的信任
人工智能技術安全性,也與對其信任程度有關。美國軍方運用人工智能技術方面的一個關鍵問題是,軍方人員和美國政府高層領導能否相信這些系統確實有效且不會引發意外問題。2016年國防科學委員會對自主控制技術的研究報告指出:“決定在特定任務中部署運用某系統的個人,必須信任該系統。”在伊拉克和阿富汗的行動表明,負責實施特定行動的指揮官和戰斗/操作人員在不完全了解后果的情況下,不一定會使用某些系統。當某些系統被部署至戰場以滿足緊急需求時(如反簡易爆炸裝置系統或用于提供關鍵性情報的監視系統),一些部隊還是選用了他們已經熟悉的武器系統和情報監視偵察平臺,即便是老系統的功能指標比不上那些已經可以選用的新系統。
對人工智能系統的信任度過低是一種危險,會阻止部隊運用他們所需的功能。而另一種危險,則是對某項能力的過度信任。人類傾向于過度信任機器,即便在有證據表明不能夠給予這種程度的信任情況下,也是如此。戰爭活動中的過度信任,也有具體案例。如,2003年,陸軍“愛國者”防空導彈系統曾擊落1架海軍F/A-18飛機,該系統將飛機誤判定為戰術彈道導彈,并向操作人員提出了建議,要求其發射導彈實施攔截。操作人員在沒有獨立核實可用信息的情況下,批準實施了這項建議。這表明,在實際作戰行動中,軍方需要對人工智能給予程度“恰到好處”的信任,不能過熱也不可太冷,避免滑向兩個極端。需要達成的目標,是程度恰當的信任,并且應該讓人來參與決策過程。而這種決策過程,則需要以各種相關能力及對系統功能所具備的經驗與知識為依托。
(四)軍事人工智能安全問題將寫入政策方針
軍方和政府的高層領導,還應通過政策方針層面的決策對相關軍事行動的性質施加影響,包括確定戰爭活動中應該使用哪些特定的技術手段。這些方針政策,可能會對監管程度構成影響。例如,國防部第3000.09號指令,就要求對某些類型的自主控制系統進行高級別審核。明確戰爭活動中允許使用的技術手段(例如,對白磷(彈藥)運用的限制和使用集束彈藥時相關設定要求以及對其它此類武器具體性能參數的限制要求),并且對某些特定類型作戰行動中的策略原則進行限制。例如,《2013版總統政策指導(Presidential Policy Guidance,PPG)》及《2017版總統政策指導》中,對某些反恐行動的批準與監管流程的總體原則框架進行了明確。這些政策方針原則,有助于確保相關軍事活動符合美國的原則、價值觀及利益。這些政策方針層級的決定,都有反映出對此類系統或作戰行動可靠性所應持有的信任程度的意味。
值得注意的是,以上這些實例內容都涉及到了安全性原則問題,而《國防部第3000.09號指令》的目的,就在于避免“意外交戰(inadvertent engagements)”事件的出現(例如致使平民傷亡)。限制白磷彈藥和集束彈藥的目的,還在于減少使用這些武器時給平民帶來的危險。《2013版總統政策指導》中,直接將致使平民傷亡明確列為作戰行動批準程序中的否決條件(no-gocriterion)。因此可以預見,安全性問題,勢必將成為未來高層領導人對于將人工智能技術手段運用于戰爭活動方面所明確的相關指導與指令內容中的一部分。
(五)軍方須與業界協助解決安全問題
人工智能技術的巨大進步,也使美國政府產生了對業界新的依賴性。自第二次世界大戰以來,美國政府一直在很大程度上依賴于自身投入的研發資金。然而,人工智能技術方面的研發投資,越來越多地由私營機構所主導。其特征,是過去十年來科技行業的研發支出急劇增加。在圖1中,我們將整個美國政府在網絡和信息技術研發方面的支出與美國排名前五位的高科技公司(亞馬遜、谷歌/阿爾法控股、英特爾、微軟、蘋果)的研發投資進行了對比。如圖1所示,科技行業企業在研發方面的投入明顯更多,而且兩者間的差距正在擴大。2010年,科技行業企業的研發支出,已經是美國政府整體科技研發投資規模的6倍。8年后,企業在這方面的投入規模將激增至美國政府的15倍。總體而言,美國政府在尖端技術方面研究工作的投資面臨著迅速擴大的缺口。這種現狀,為美國政府營造出了一種處于不斷變化中的環境。在這種環境中,與業界的協作,對于美國政府實現其戰略目標必須保持的技術優勢而言至關重要。在這個意義上,人工智能技術安全性應該是業界關注的問題——正如谷歌等公司放棄了對美國政府軍事領域應用方案的支持,并開始運用倫理性審查程序對其內部工作流程進行監測所證明的那樣,美國政府必須與業界協作,依托其幫助解決此類問題。
圖1 美國政府與科技行業企業研發投資差距對比圖
四、美國軍事人工智能面向未來的發展趨向
人工智能技術一般可分為弱人工智能、強人工智能、超人工智能 3 個等級,預計強人工智能技術可能在 2050 年前問世。未來美軍智能化建設發展可能經歷三個階段:
2025 年前,美軍重點是搭起智能化軍隊框架,總體水平處于弱人工智能階段。美軍建設主要圍繞構建“全球監視打擊體系”,以升級水下、網電、空天、全球快速打擊和導彈防御作戰系統為重點,突出發展無人化、隱身化、遠程化作戰平臺,提升“全球公域”介入能力,確保可信的“拒止”和“懲罰”威懾。這一階段,美軍無人系統在數量上將逐步超過有人系統,自主無人系統將成為美軍前沿作戰的重要力量,無形、無人、隱形、靈巧等力量將成為美軍事干預的主要手段。
2035 年前,美國初步建成智能化作戰體系,總體水平進入強人工智能階段。美軍建設主要通過發展智能化作戰平臺、信息系統和決策支持系統,以及定向能、高超聲速、仿生、基因、納米等新型武器,對主要對手形成新的軍事“代差”。在這一階段,美軍無人系統的投資將超過有人系統,無人系統建設規模及作戰運用皆居于主導地位。
2050 年前,美軍智能化作戰體系將更先進、更完善,總體水平達到超強人工智能階段。美軍在強人工智能、通用量子計算、可控核聚變、納米機器人、再生、創生、腦聯網等技術方面可能取得突破。作戰平臺、信息系統、指揮控制可能全面實現智能化、無人化,更多樣的仿生、基因、納米等新型武器走上戰場,作戰空間進一步向生物空間、納米空間、智能空間拓展,人類進入“機器人戰爭時代”。