《電子技術應用》
您所在的位置:首頁 > 可編程邏輯 > 解決方案 > OpenAI被諷ClosedAI?語言模型并沒有想象中的強大

OpenAI被諷ClosedAI?語言模型并沒有想象中的強大

2019-02-27
關鍵詞: OpenAI 語言模型 BERT

前一段時間,OpenAI 丟出了兩枚炸彈,一是公布了當前最先進的語言模型,二是選擇與開源「Say Goodbye」。他們擔心 GPT-2 模型太好,會被不懷好意的人濫用。近來,很多研究者呼吁 OpenAI 盡快開源這個 15 億參數量的大模型,因為它并不能真正「理解」自然語言。


其實想想也是,語言模型只能確定自然語句或語法的正確性,它并不能對自然語言的邏輯進行建模。很快機器學習社區就發起了一個暗諷 GPT-2 的帖子:為了防止濫用,我是不是不應該公布在 MNIST 訓練的 23064 層殘差網絡?

微信圖片_20190227205409.jpg


很多人認為谷歌的 BERT是一種「暴力美學」,它美的地方在于提出了新型雙向語言建模任務,輔以大數據、大模型最終能打造暴力美感,但 GPT-2 并沒有給我們這種感覺。


也許現在隨著模型變得越來越大,我們能更好地「遷移」到其它任務,如知識問答和情感分析等。但是從 fast.ai 的 ULMFit、OpenAI 的 GPT、AI2 的 ELMO、到谷歌的 BERT 以及剛剛公布的 GPT-2,真正具有美感的還是少數,不論是新架構還是新任務,閃亮的創新點才是重點。

微信圖片_20190227205437.jpg

熱門的 Reddit 帖子


OpenAI 發布驚艷的研究成果不足為奇。真正讓人意外的是他們決定不開源完整的研究成果,表示擔心自己的技術被不懷好意的人用來制造垃圾郵件和假新聞。這一做法在 Reddit、Twitter 等平臺上激起了熱烈討論,媒體也爭相報道,討論 AI 研究如何變得「危險到不能公布」。


OpenAI 擔心技術被不當利用無可厚非,但我并不贊同他們拒絕開源 GPT-2 這種做法。首先,只有某幾種類型的危險技術才應該受到控制?;诖?,我認為拒絕開放完整的 GPT-2 模型既沒必要,也不利于 AI 的未來發展。


欺騙性和破壞性的技術


我把有可能被濫用的現代技術大體分為欺騙性技術和破壞性技術。破壞性技術主要在物理領域運行,如化學武器、實驗室工程超級病毒、致命自動化武器或原子彈。


而欺騙性技術則主要在我們的頭腦中運行,可能被不懷好意的人大范圍地用于操縱或控制人類。如 deepfakes、Photoshop 或互聯網、印刷機。除了自動化武器之外,關于 AI 濫用的的擔憂也屬于這一類別。

微信圖片_20190227205454.jpg

Deepfakes 允許操作者將面部表情疊加到其他人的臉上。


對于比較危險的破壞性技術,保護社會的唯一方法就是嚴格限制來源(如造核武器的鈾)。如果沒有其它控制機制,僅僅拒絕公布一項危險技術的細節是遠遠不夠的:技術的快速發展使任何成果都可能會在幾年內被獨立復制,除非被某種外力強行阻止。以這種方式抑制某項技術是極其笨拙的,也不是萬無一失的。恐怖分子總有機會搜集放射性材料造出臟彈,但我們現在別無選擇:如果人們能夠輕易從網上獲取零部件和組裝方法來自己組裝原子彈,那地球就會成為一片墳場。


然而,對于欺騙性技術,卻有一個更高效的替代方案。與其壓制一項技術,不如將其威力公之于眾。盡管這聽上去有些違反直覺,但如果公眾廣泛意識到被操縱的可能性,欺騙性技術將失去很大威力。雖然對核武器的了解無法使我們免受其威脅,但如果對語音合成技術的最新進展有所了解,我們會對「奧巴馬說中文」這件事更加懷疑。子彈不會長眼睛,但根據我們對現代照片編輯技術的了解,普京不太可能真的會騎熊。

微信圖片_20190227205512.jpg

你可以在網上找到普京騎任何東西的照片。


舉一個具體的例子,我們可以看看一種有可能引發混亂但(謝天謝地)并沒有摧毀現代社會的技術:Photoshop。


解析 GPT-2


通過具體分析文本生成,OpenAI 展示了一些模型生成的故事案例,并表明 GPT-2 可能會帶來一些危險應用。為了方便起見,我們在下面復制了獨角獸故事的前提和模型生成的前兩段。


前提:科學家們震驚地發現,在安第斯山脈一個偏遠且沒被開發過的山谷里,生活著一群獨角獸。更加讓人訝異的是,這些獨角獸說著完美的英語。

模型:這群生物有著獨特的角,因此科學家將其命名為 Ovid's Unicorn。這些長著四支銀白色角的生物之前并不為科學家所知。而今在將近兩個世紀后,這一奇怪現象的神秘面紗終于得到了探索。

微信圖片_20190227205531.jpg


雖然從直觀上而言,語言模型只能判斷一句話是「人話」的概率,它并不會內在理解自然語言的邏輯,更不用說理解背后的知識了。但是從 OpenAI 給出的案例而言,GPT-2 似乎能理解自然語言的邏輯,我們只能認為這也許是大數據擬合的力量吧。值得注意的是,除了多次運行模型并手動挑選最佳樣本外,故事前提也是精心挑選的。特別是前提介紹了說英語的獨角獸,這很容易掩蓋更深層次的問題:生成的無意義句子能擬合無意義的前提。


即便考慮上述情況,這個短樣本仍然存在著嚴重的連貫性缺陷。第一句暗示獨角獸只有一支角,而生成的第二句卻表明有四支角;前提表明發現獨角獸是最近的新聞,而第三句卻又暗示獨角獸兩個世紀前就被發現了。因為模型不能建模自然語言的邏輯,因此這種不連貫或相互矛盾會大量出現在文本生成中。


這些挑刺可能看起來作用不大,但它們卻揭示了深度學習模型中普遍存在的一個更深層次的問題:GPT-2 并沒有真正「理解」它所生成的文本。其實生成一目了然的自然語句非常容易,例如后現代作文生成器和 Mathgen,它們都是用上下文無關的語法生成「語法正確」的句子,不過這些句子并沒有任何語義含義。畢竟對于大多數不熟悉數學的讀者而言,下面兩個方程式都像胡言亂語。

微信圖片_20190227205550.jpg


生成語法正確的句子很容易,但確保句子連貫很難。


不過公平地說,GPT-2 超過了其它大多數語言生成模型,但是離人類水平的連貫性語言還有很長的路要走。此外重要的是,OpenAI 展示的樣本都沒到被惡意使用的水平。


此外,GPT-2 并沒有顯著超過其它開源語言模型,研究者在論文中也表示并不確定表現能超過 BERT 等語言模型。BERT 表示,它們的雙向編碼器提供的性能比單向語言模型要好。GPT 系列的模型都是傳統的單向語言模型,但 OpenAI 并沒有詳細地對比 GPT-2 與其它前沿語言模型。由于 OpenAI 并沒有微調它們的模型,因此我們也不能直接對比各模型在自動文本摘要或機器翻譯等下游任務上的性能。


開源完整模型的重要性


有些人可能認為開源完整的模型不是很有必要,只要披露研究結果就行了。但這種想法是不對的。


AI 研究發展如此之快的部分原因就是開源,研究人員可以在眨眼之間復現已有的研究,而不必從頭開始重建之前的工作。作為 AI 研究領域最具影響力的機構之一,OpenAI 強大的開源歷史毫無疑問激勵了其他人來做同樣的事。如果 OpenAI 的新政策違背了這一趨勢,其他研究人員可能也會效仿,而這會對為這個領域帶來巨大利益的開源文化造成威脅。


此外,開源促使信息向大眾傳播。通過開源,thispersondoesnotexist.com 網站在 ProductHunt 上獲得了最高的排名。通過開源,藝術家們制作了首幅 AI 生成的畫作并在佳士得拍賣行出售。雖然 OpenAI 的研究博客僅被熱愛機器學習的從業者所閱,但是建立在開源基礎上的研究可以接觸到更廣泛的受眾,而這些人不太可能會看到最初的研究聲明。

微信圖片_20190227205607.jpg

去年,這幅 AI 生成的畫作賣了近 50 萬美元。


開源也確保了研究的合理性。這個領域有很多名不副實的研究,而研究人員是否可以通過檢查開源代碼來復現非比尋常的研究結果非常重要。以 OpenAI 的聲望,沒有人會質疑其研究結果,不管它有沒有開源,但這一聲望是建立在其先前的開源工作上的。在研究中,即使你沒有作假,其他人也可能會作假。而沒有開源就沒有辦法來驗證,研究人員和公眾都無法穿透迷霧尋求真相。


這也并不是說所有東西都應該不假思索地開源。那些危險的破壞性技術絕對不能讓其他人輕易獲得。即使是欺騙性的技術,如果非常危險,就有必要在發表論文和公布代碼之間增加延遲時間,以防止帶有惡意的快速反應者在公眾還沒消化研究成果之前趁機而入。如果 OpenAI 認為 GPT-2 就屬于這種技術,那我會建議他們晚點再開源模型。


結語


AI 研究從開源文化中獲益良多。雖然多數學科的最新研究獲取渠道收費昂貴,但任何有網絡的人都可以和斯坦福教授一樣訪問最前沿的 AI 研究,做實驗和克隆開源代碼庫一樣簡單,而租賃云端的 GPU 僅需幾美分/小時。我們致力于通過公開發布學習材料、新的研究成果以及開源我們的項目來實現人工智能的民主化,這也是 AI 領域發展如此迅速的原因。


我很贊賞 OpenAI 出色的新研究,它突破了語言建模和文本生成的限制。我也感謝他們深思熟慮,愿意參與一場關于研究倫理的討論。盡管這個話題非常重要,但卻很少有人討論。OpenAI 提出了人工智能濫用的問題,這的確是我們要考慮的問題,但不應成為不開源其研究的理由。


我真誠地希望,2019 年機器學習不會從一個開放的系統轉變為封閉的系統,這對該領域的發展既不安全也沒有幫助。為了我們的未來,OpenAI,請開源你們的語言模型。


原文地址:https://thegradient.pub/openai-please-open-source-your-language-model/



本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 美国aaaa一级毛片啊 | 91成年人免费视频 | 日韩 欧美 中文 | 淫品色影院 | 国产精品国内免费一区二区三区 | 亚洲成人伦理 | 52精品免费视频国产专区 | 美女视频永久黄网站免费观看韩国 | 性欧美video视频另类 | 一级黄色性生活视频 | 人成午夜视频 | 国产成人久久 | 在线亚洲+欧美+日本专区 | 亚洲一区二区三区精品影院 | 狠狠色丁香久久婷婷综合_中 | 成人高清在线观看播放 | 新香蕉视频在线 | 欧美日韩影院 | 成a人v欧美综合天堂 | 人人爽人人干 | 国产高清在线精品一区在线 | 亚洲九九| 天天透天天狠 | 韩国理伦伦片在线观看 | 色黄网站aaaaaa级毛片 | 天天爱天天爽 | 色婷婷色综合激情国产日韩 | 久久久久久福利 | 92国产福利午夜757小视频 | 天天操天天干天天射 | 亚洲欧美一区二区三区在饯 | 看a级片 | 日韩日日操 | 亚洲欧洲日产国码二区首页 | 国产日韩视频在线观看 | 全午夜免费一级毛片 | 国产综合在线播放 | 国产男女猛烈无遮档免费视频网站 | 日本亚洲欧美美色 | 日韩免费在线播放 | 男女羞羞网站 |