close
翻白眼最高境界:讓無人車把人認成狗,一名學生三天攻破谷歌論文裡的AI防火墻
原標題:翻白眼最高境界:讓無人車把人認成狗,一名學生三天攻破谷歌論文裡的AI防火墻
偶發性「眼瞎」的無人車,你敢坐嗎?
編譯 | 王藝
編輯 | 宇多田
來源 | Wired
作者 | Tom Simonite
在無人駕駛任務中,一直存在著一個諱莫如深的話題,每一個無人駕駛從業者都不願詳談,那就是生成對抗網絡對車輛視覺系統的攻擊。
對抗樣本對計算機視覺系統的攻擊已經是老話題,隻要很輕微的擾動,神經網絡就會發生錯誤,將個物體看成另一個物體,或者幹脆對眼前的物體視而不見。
和「計算機能夠看明白東西」這一偉大歷史進展相比,輕微的擾動可能是無傷大雅的小問題。但這樣的缺陷放在自動駕駛領域,卻是人命關天的大事情。
科研人員一直在尋找抵禦這種攻擊的方法,事實上,研究者們也像「對抗」雙方一樣,各執一子,進行著「魔高一尺,道高一丈」的較量。
今年 1 月,一個在人工智能領域有廣泛影響力的學術會議宣佈,已經甄選 11 篇關於保護或偵測這種對抗攻擊的方法論文,並將於 4 月公佈。
該聲明宣佈僅 3 天後,麻省理工學院一位研究生一年級的在讀學生 Anish Athalye 便發佈瞭一個網頁,生成已經成功打破 11 篇論文中 7 篇所描述的防禦手段,這 7 篇論文中不乏來自谷歌、亞馬遜、斯坦福等大型研究機構的研究成果。
網址:https://github.com/anishathalye/obfuscated-gradients
「一個有創造力的攻擊者仍然可以繞過所有的這些防禦系統。」Athalye 說。除 Athaly 外,項目的參與者還包括 Nicholas Carlini 以及 David Wagner,二人均來自加州大學伯克利分校,Carlini 是研究生,Wagne 是教授。
三人的成果在學術界激起瞭熱烈的討論,大傢也展現出瞭一些共識。那就是:怎樣才能對神經網絡在 C 端產品和無人駕駛任務中進行保護,目前還不清楚。
「這些系統全部都是有漏洞的。」卡爾加裡大學助理教授 Battista Biggio 表示。這是一位已經在機器學習領域探索瞭近十年的意大利人,且與三人的項目毫無瓜葛,因此我們可以認為他立場中立。「在機器學習領域,我們缺乏評估安全性的方法。」他說。
下面是一張由 Athaly 創建的對抗樣本圖片,人類很容易辨認圖片上是兩個男人在滑雪。但上周四早上,當三人用這張照片對谷歌的雲視覺服務進行測試時,系統以 91% 的置信度判斷照片上是一條狗。
在 Carlini 的個人網站上,我們找到瞭另外一些計算機被愚弄的例子,例如如何讓無人駕駛汽車的視覺系統對停止標志視而不見,以及一些對聲音相關神經網絡進行對抗攻擊的例子。
不過有一個消息可以讓大傢稍微放心一些,那就是這種攻擊當前隻在實驗室中得到瞭證實,在實操環境下還沒有這樣的案例發生。
「盡管如此,我們仍需認真對待這個問題。」伯克利大學博士後研究員李波(音)表示,「在無人駕駛系統的視覺模塊、在能購物的智能音箱裡、在過濾網絡不良信息的任務中,我們需要系統非常可靠。」
「而現在,神經網絡的潛在危險很多。」李博說。她對此深有體會,因為她去年的研究方向就是如何給道路上的停止標志增加擾動(通過貼紙等手段)是其在機器視覺系統面前隱身。
李波和其他研究員合著的一篇論文被納入瞭開頭我們提到的 11 ?a href="http://www.lanyi8.com.tw/">台中家電行推薦撐闹校簿褪钦f,李波的論文是 Athalye 三人的攻擊對象。這篇論文描述瞭一種分析對抗性攻擊的方法,並能夠對對抗性攻擊進行檢測。
對於 Athalye 的項目,李波的態度很開放,認為這種反饋有助於研究人員取得進展。「他們的攻擊意味著我們需要考慮更多的問題。」李波說。
另一篇被 Athalye 攻擊的論文作者,來自斯坦福大學的楊松(音)表示不願對此事作出評價,盡管三人的項目論文已經在其他學術會議進行 Review。
卡內基梅隆大學教授 Zachary Lipton 和幾位來自亞馬遜的研究人員合著的論文也是 Athalye 的破解對象,他表示還沒有對三人的項目進行仔細的研究,但事實上,他也認為當下所有的防禦措施都是可攻破的。
谷歌拒絕對這一事件發表評論,但表示會對其谷歌雲視覺服務進行升級,以防范這些攻擊。
想要建立更強的防禦能力,機器學習研究者們還需要更加刁鉆的手法。Athalye 和 Biggio 表示,機器學習領域應該借鑒計算機安全領域的一些實戰經驗,畢竟計算機安全領域在測試新的防禦技術是否好用的時候,有一大套嚴密的測試手段。
「在機器學習界,人們傾向於信任彼此。」Biggio 表示,「計算機安全領域的心態恰好相反,人們始終對壞事情抱有警惕。」
人工智能和國傢安全相關的研究人員在上個月的一份重要報告中也提出瞭類似的建議,報告建議那些致力於機器學習的人更多地思考他們正在創造的技術是如何被濫用或利用的。
不同類型的人工智能系統免受敵對攻擊的能力也有所不同。Biggio 表示,大多數任務中,受過惡意軟件檢測訓練的機器學習系統魯棒性會更高。因為惡意軟件必須具有功能性,這也就限制瞭它的多樣性。
但 Biggio 認為圖像領域不一樣,保護計算機視覺系統要比其他人工智能系統要困難得多, 因為自然界是如此的多樣化, 圖像包含瞭如此多的像素。
這是一個對無人駕駛設計者來說必須要攻克的問題,要解決這個問題,我們可能需要重新審視機器學習技術。
「我認為根本問題是,深度神經網絡與人類大腦非常的不同。」李波說。
事實上,就算人類也不能完全屏蔽視覺欺騙,我們還是會被光學錯覺愚弄。最近一篇來自谷歌的論文創造瞭一些奇怪的圖像,這些圖像不僅能夠欺騙計算機,還能夠欺騙人類。如果人類隻是對這些圖片匆匆一瞥(1/10 秒的時間內),會將圖片上的貓看作是狗。
不過和計算機不同的是,人類有對圖像綜合解讀的能力。我們所看到的並不僅僅是像素,還會考慮圖像不同組成部分之間的關系,比如人臉上五官的正確位置。
在谷歌和多倫多大學同時任職的世界上最權威的人工智能專傢 Geoff Hinton 正在努力讓機器也有這樣的能力。他認為,機器一旦擁有這種能力,就能夠從少數幾張圖像中學習辨認物體,而不需要成千上萬張圖像的運算。
李波認為,擁有人類視角的計算機視覺系統被攻擊成功的可能性會更小。她和伯克利大學的其他研究人員正在與神經科學傢以及生物學傢合作,試圖從大自然中獲取解決方式。
不過,在已經確認「計算機視覺」的防火墻可以被攻破後,我們是不是應該對 AI 黑客的定義與「未來他們可能要從事的任務」有瞭一個更加清晰的認識?
1、攻入無人車「大腦」——無人駕駛計算機系統,像《速度與激情 8》裡那群被黑瞭之後像「喪屍大軍」一樣飆出街頭的無腦車隊真的可以復制?
2、戳瞎無人車的「眼睛」——就像 Athaly 一樣創建對抗樣本,讓汽車的視覺系統成功把路旁的活人識別成一堆石頭?
這樣來看,網絡安全的定義以及黑客的職能就不再限於虛擬世界裡偷數據,拍視頻,曝光行蹤地點,讓企業系統癱瘓這些工程性操作瞭。從某種程度上,是不是利用 AI 技術的漏洞執行暗殺任務也是有可能的?
大概幾百年後,盡管無人車滿街跑成瞭一種常態,國傢領導人以及黑手黨們也是絕對不敢坐無人車的聯毅家電生活館|台中家電行|台中家電行推薦。台中家電行
所以,計算機視覺的工程師們,你們覺得自己的系統可以被攻破嗎?不服來辯。
返回搜狐,查看更多
責任編輯:
聲明:本文由入駐搜狐號的作者撰寫,除搜狐官方賬號外,觀點僅代表作者本人,不代表搜狐立場。
閱讀 ()
原標題:翻白眼最高境界:讓無人車把人認成狗,一名學生三天攻破谷歌論文裡的AI防火墻
偶發性「眼瞎」的無人車,你敢坐嗎?
編譯 | 王藝
編輯 | 宇多田
來源 | Wired
作者 | Tom Simonite
在無人駕駛任務中,一直存在著一個諱莫如深的話題,每一個無人駕駛從業者都不願詳談,那就是生成對抗網絡對車輛視覺系統的攻擊。
對抗樣本對計算機視覺系統的攻擊已經是老話題,隻要很輕微的擾動,神經網絡就會發生錯誤,將個物體看成另一個物體,或者幹脆對眼前的物體視而不見。
和「計算機能夠看明白東西」這一偉大歷史進展相比,輕微的擾動可能是無傷大雅的小問題。但這樣的缺陷放在自動駕駛領域,卻是人命關天的大事情。
科研人員一直在尋找抵禦這種攻擊的方法,事實上,研究者們也像「對抗」雙方一樣,各執一子,進行著「魔高一尺,道高一丈」的較量。
今年 1 月,一個在人工智能領域有廣泛影響力的學術會議宣佈,已經甄選 11 篇關於保護或偵測這種對抗攻擊的方法論文,並將於 4 月公佈。
該聲明宣佈僅 3 天後,麻省理工學院一位研究生一年級的在讀學生 Anish Athalye 便發佈瞭一個網頁,生成已經成功打破 11 篇論文中 7 篇所描述的防禦手段,這 7 篇論文中不乏來自谷歌、亞馬遜、斯坦福等大型研究機構的研究成果。
網址:https://github.com/anishathalye/obfuscated-gradients
「一個有創造力的攻擊者仍然可以繞過所有的這些防禦系統。」Athalye 說。除 Athaly 外,項目的參與者還包括 Nicholas Carlini 以及 David Wagner,二人均來自加州大學伯克利分校,Carlini 是研究生,Wagne 是教授。
三人的成果在學術界激起瞭熱烈的討論,大傢也展現出瞭一些共識。那就是:怎樣才能對神經網絡在 C 端產品和無人駕駛任務中進行保護,目前還不清楚。
「這些系統全部都是有漏洞的。」卡爾加裡大學助理教授 Battista Biggio 表示。這是一位已經在機器學習領域探索瞭近十年的意大利人,且與三人的項目毫無瓜葛,因此我們可以認為他立場中立。「在機器學習領域,我們缺乏評估安全性的方法。」他說。
下面是一張由 Athaly 創建的對抗樣本圖片,人類很容易辨認圖片上是兩個男人在滑雪。但上周四早上,當三人用這張照片對谷歌的雲視覺服務進行測試時,系統以 91% 的置信度判斷照片上是一條狗。
在 Carlini 的個人網站上,我們找到瞭另外一些計算機被愚弄的例子,例如如何讓無人駕駛汽車的視覺系統對停止標志視而不見,以及一些對聲音相關神經網絡進行對抗攻擊的例子。
不過有一個消息可以讓大傢稍微放心一些,那就是這種攻擊當前隻在實驗室中得到瞭證實,在實操環境下還沒有這樣的案例發生。
「盡管如此,我們仍需認真對待這個問題。」伯克利大學博士後研究員李波(音)表示,「在無人駕駛系統的視覺模塊、在能購物的智能音箱裡、在過濾網絡不良信息的任務中,我們需要系統非常可靠。」
「而現在,神經網絡的潛在危險很多。」李博說。她對此深有體會,因為她去年的研究方向就是如何給道路上的停止標志增加擾動(通過貼紙等手段)是其在機器視覺系統面前隱身。
李波和其他研究員合著的一篇論文被納入瞭開頭我們提到的 11 ?a href="http://www.lanyi8.com.tw/">台中家電行推薦撐闹校簿褪钦f,李波的論文是 Athalye 三人的攻擊對象。這篇論文描述瞭一種分析對抗性攻擊的方法,並能夠對對抗性攻擊進行檢測。
對於 Athalye 的項目,李波的態度很開放,認為這種反饋有助於研究人員取得進展。「他們的攻擊意味著我們需要考慮更多的問題。」李波說。
另一篇被 Athalye 攻擊的論文作者,來自斯坦福大學的楊松(音)表示不願對此事作出評價,盡管三人的項目論文已經在其他學術會議進行 Review。
卡內基梅隆大學教授 Zachary Lipton 和幾位來自亞馬遜的研究人員合著的論文也是 Athalye 的破解對象,他表示還沒有對三人的項目進行仔細的研究,但事實上,他也認為當下所有的防禦措施都是可攻破的。
谷歌拒絕對這一事件發表評論,但表示會對其谷歌雲視覺服務進行升級,以防范這些攻擊。
想要建立更強的防禦能力,機器學習研究者們還需要更加刁鉆的手法。Athalye 和 Biggio 表示,機器學習領域應該借鑒計算機安全領域的一些實戰經驗,畢竟計算機安全領域在測試新的防禦技術是否好用的時候,有一大套嚴密的測試手段。
「在機器學習界,人們傾向於信任彼此。」Biggio 表示,「計算機安全領域的心態恰好相反,人們始終對壞事情抱有警惕。」
人工智能和國傢安全相關的研究人員在上個月的一份重要報告中也提出瞭類似的建議,報告建議那些致力於機器學習的人更多地思考他們正在創造的技術是如何被濫用或利用的。
不同類型的人工智能系統免受敵對攻擊的能力也有所不同。Biggio 表示,大多數任務中,受過惡意軟件檢測訓練的機器學習系統魯棒性會更高。因為惡意軟件必須具有功能性,這也就限制瞭它的多樣性。
但 Biggio 認為圖像領域不一樣,保護計算機視覺系統要比其他人工智能系統要困難得多, 因為自然界是如此的多樣化, 圖像包含瞭如此多的像素。
這是一個對無人駕駛設計者來說必須要攻克的問題,要解決這個問題,我們可能需要重新審視機器學習技術。
「我認為根本問題是,深度神經網絡與人類大腦非常的不同。」李波說。
事實上,就算人類也不能完全屏蔽視覺欺騙,我們還是會被光學錯覺愚弄。最近一篇來自谷歌的論文創造瞭一些奇怪的圖像,這些圖像不僅能夠欺騙計算機,還能夠欺騙人類。如果人類隻是對這些圖片匆匆一瞥(1/10 秒的時間內),會將圖片上的貓看作是狗。
不過和計算機不同的是,人類有對圖像綜合解讀的能力。我們所看到的並不僅僅是像素,還會考慮圖像不同組成部分之間的關系,比如人臉上五官的正確位置。
在谷歌和多倫多大學同時任職的世界上最權威的人工智能專傢 Geoff Hinton 正在努力讓機器也有這樣的能力。他認為,機器一旦擁有這種能力,就能夠從少數幾張圖像中學習辨認物體,而不需要成千上萬張圖像的運算。
李波認為,擁有人類視角的計算機視覺系統被攻擊成功的可能性會更小。她和伯克利大學的其他研究人員正在與神經科學傢以及生物學傢合作,試圖從大自然中獲取解決方式。
不過,在已經確認「計算機視覺」的防火墻可以被攻破後,我們是不是應該對 AI 黑客的定義與「未來他們可能要從事的任務」有瞭一個更加清晰的認識?
1、攻入無人車「大腦」——無人駕駛計算機系統,像《速度與激情 8》裡那群被黑瞭之後像「喪屍大軍」一樣飆出街頭的無腦車隊真的可以復制?
2、戳瞎無人車的「眼睛」——就像 Athaly 一樣創建對抗樣本,讓汽車的視覺系統成功把路旁的活人識別成一堆石頭?
這樣來看,網絡安全的定義以及黑客的職能就不再限於虛擬世界裡偷數據,拍視頻,曝光行蹤地點,讓企業系統癱瘓這些工程性操作瞭。從某種程度上,是不是利用 AI 技術的漏洞執行暗殺任務也是有可能的?
大概幾百年後,盡管無人車滿街跑成瞭一種常態,國傢領導人以及黑手黨們也是絕對不敢坐無人車的聯毅家電生活館|台中家電行|台中家電行推薦。台中家電行
所以,計算機視覺的工程師們,你們覺得自己的系統可以被攻破嗎?不服來辯。
返回搜狐,查看更多
責任編輯:
聲明:本文由入駐搜狐號的作者撰寫,除搜狐官方賬號外,觀點僅代表作者本人,不代表搜狐立場。
閱讀 ()
- 聯毅家電生活館|台中電器行|台中電器行推薦 台中南屯家電行專業服務~家電採購就找聯毅@1@
- 聯毅家電生活館|台中家電特賣|台中家電特賣會 聯毅家電生活館|台中南屯家電行|台中南屯家電行推薦台中市民推薦~@1@
- 台中電器行推薦 聯毅家電生活館|台中富士通冷氣|台中富士通冷氣批發專業商家~@1@
文章標籤
全站熱搜
留言列表