[導讀]一直以來,人工智能都是大家的關注焦點之一。因此針對大家的興趣點所在,小編將為大家帶來人工智能AI的相關介紹,詳細內容請看下文。
一直以來,人工智能都是大家的關注焦點之一。因此針對大家的興趣點所在,小編將為大家帶來人工智能AI的相關介紹,詳細內容請看下文。
一、人工智能也是以人為本?
1985年,阿西莫夫在此基礎上增加第零定律,將三定律擴充為四定律:機器人不得傷害人類整體,或因不作為使人類整體受到傷害。阿西莫夫的“機器人四定律”以人類為中心建立,因踐行以人為本而為后世所推崇。
“以人為本”原則是人工智能算法侵權法律規制基本原則中的第一原則。其余原則均圍繞“以人為本”原則展開但側重不同,或在不違反“以人為本”的前提之下對科技創新的支持。“以人為本”雖是人類在千百年歷史中一直貫穿的價值觀,但在非人、卻類人甚至超人的新物種“人工智能”面前,“以人為本”原則的重申和堅持變得尤為重要:技術發展的最終目標是增強人類而非技術本身。侵權責任始終應當以對人類權益的侵犯、人類所遭受的損害及對人類損害的彌補作為法律規制的重心。
相對于人工智能而言,“以人為本”原則非常清晰,但當人類之間的利益存在沖突時,“以人為本”原則開始變得復雜。例如,個人數據的權利主體與算法相對人的利益孰輕孰重?算法設計者與人工智能生產者的利益孰輕孰重?等等。這些問題的回答都涉及到對“以人為本”中“人”的解釋。小編認為,當人類利益發生沖突時,“人”應當被理解為作為一個整體且需要長久、可持續發展的集體存在。因此,當算法侵權法律規制需要在人與人之間做出價值抉擇時,“以人為本”原則應當著眼的是人類整體而非局部利益,長遠而非眼前利益。
二、人工智能對個人隱私保護影響的測度
關于人工智能對個人隱私保護影響的測度。雖然目前這方面研究文獻很少,但各國學者和機構的研究為這一領域的測度提供了很好的啟發。一方面,他們提出了人工智能影響個人隱私保護的路徑和原因,為今后的測度研究提供了可能的方向。Pagallo(2013)等指出,消費者信息被收集起來之后會帶來很多問題。商家可以利用這些信息進行價格歧視、過度推銷,甚至在某些時候會威脅到消費者安全。Tucker(2017)、Jin(2018)則進一步指出,人工智能背景下的隱私權問題來自三個方面:由于商家收集消費者信息的情況非常普遍,即使消費者信息被利用,并且傷害到消費者權益,消費者也難以知道是哪個商家所為;由于侵權的懲罰非常困難,所以即使消費者知道商家侵犯了自身權益,也很難對商家進行懲罰;由于人工智能設備可能收集比預期更多的數據,雇主實際上是在不透明的算法中使用數據。另一方面,他們提出了人工智能影響個人隱私保護的風險等級,為今后分類分級測度這一影響構建了一個初步框架。歐盟(2021)發布的人工智能監管草案成為全球首個應對人工智能風險的法律框架,該草案將人工智能帶來的風險分為完全不可接受風險、高風險和低風險三類,其中有三種應用被完全禁止:第一種是在不知不覺中對人類意識進行操控,影響其決定或扭曲其行為,進而對人類造成身體或心理的傷害;第二種是利用兒童或殘疾人的脆弱性對其造成傷害;第三種則是基于人工智能系統構建的社會信用體系,因為在這種信用體系下,個人或特定群體的權益可能受到損害。各國學者和機構的努力,為今后測度人工智能對個人隱私保護的影響程度奠定了基礎。
上述所有信息便是小編這次為大家推薦的有關人工智能的內容,希望大家能夠喜歡,想了解更多有關人工智能的信息或者其它內容,請關注我們網站哦。
更多信息可以來這里獲取==>>電子技術應用-AET<<