2017年7月15日,第一屆CISO賦能安全峰會暨CISO發(fā)展中心啟動大會在北京成功舉辦。CISO發(fā)展中心理事長、百度首席安全科學家、百度安全實驗室負責人韋韜博士出席峰會并致辭,帶來了主題為《當人工智能遇上網(wǎng)絡安全》的演講,就當前人工智能在網(wǎng)絡安全的執(zhí)行層、感知層、任務層和戰(zhàn)略層的應用做了評述。
以下是演講的具體內(nèi)容。
大家好,非常感謝大家來參加第一屆CISO賦能安全峰會。很高興有機會給大家介紹一下目前人工智能在網(wǎng)絡安全中的應用。
目前網(wǎng)絡安全已經(jīng)進入了一個嶄新的時代,我們也進入了一個新的戰(zhàn)場。在這個戰(zhàn)場里,我們需要新的架構、新的方法、新的編程語言來支撐我們應對越來越艱巨的戰(zhàn)斗。
新戰(zhàn)場以黑產(chǎn)對抗、反勒索軟件、反Insider-based APT、物聯(lián)網(wǎng)/車聯(lián)網(wǎng)這些新方向為代表。黑產(chǎn)之前我已經(jīng)講過多次,而勒索軟件為黑產(chǎn)提供了一個高效的商業(yè)模式。前一陣鬧得沸沸揚揚的 Wannacry 從獲利角度來看在幾個知名勒索軟件中算是失敗的,不過其引發(fā)的股市變化或許會進一步刺激黑產(chǎn)對金融衍生品市場的研究和利用。我們在實戰(zhàn)中通過情報分析發(fā)現(xiàn),目前針對企業(yè)的 APT 已經(jīng)不像幾年前的安全分析報告中所強調(diào)的那樣——主要通過技術手段對企業(yè)進行滲透。而是會先去收買對企業(yè)心懷不滿的員工,從而能夠直接進入企業(yè)網(wǎng)絡進行核心數(shù)據(jù)和信息的獲取。業(yè)界已經(jīng)有多個知名的大企業(yè)遭受了這樣的攻擊。
此外,就是物聯(lián)網(wǎng)和車聯(lián)網(wǎng),很多攝像頭、智能門鎖、兒童手表,都是成批次的被攻破,車聯(lián)網(wǎng)與智能車的安全問題也引起業(yè)界的嚴重關注和顧慮。眾所周知,在移動互聯(lián)網(wǎng)時代,谷歌對安卓的碎片化生態(tài)幾乎已經(jīng)失控了。不少手機廠商對某些低版本的手機系統(tǒng)都不再進行升級,盡管還有很多用戶在用。因為「碎片化」的大量存在,不同的品牌、版本、驅動和配置,都會給漏洞修復帶來巨大成本,而不修復則會帶來嚴重的安全隱患,惡意代碼可以輕易的通過攻擊幾年前的安卓漏洞來獲利。進入物聯(lián)網(wǎng)時代,「碎片化」會比移動時代還要嚴重。很多硬件廠商在開發(fā)產(chǎn)品的時候,在生命周期中完全沒有考慮引入專業(yè)安全服務,最終面臨嚴峻的安全漏洞時卻難以應對。這些安全隱患必然會帶來強大的網(wǎng)絡攻擊,就像今天的很多攝像頭帶來的危險一樣。
正如我一直所說,安全的核心是對抗。沒有對抗和威懾的防守,是注定失敗的防守,而對抗是多維度的、持續(xù)的。為了進行有威懾力的對抗,最大的挑戰(zhàn)還是缺少高素質安全專業(yè)人才。在這種情況下,我們只能靠AI,也就是靠人工智能來填補人才空缺。
對于人工智能的看法,人們很多時候會出現(xiàn)兩極分化,一種觀點認為AI可以幫人類完成一切工作,還有一種就是AI會毀滅人類。事實上,沒有絕對的黑白,AI的作用也遠遠沒有這么極端。人們也經(jīng)常對安全存在著很多認知誤區(qū),比如很多非安全界的企業(yè),剛進入安全行業(yè)時,覺得憑借一些新技術能完全解決以前存在的安全問題,最近常有新聞報道說依靠量子技術,就能把安全問題徹底解決。這些都是對安全的片面認知,安全沒有silver bullet。
今天的AI能做什么?吳恩達教授給出了很好的解釋。一方面,正常人類1秒內(nèi)能做出的判斷,AI也能做的很好。比如說開車,無人駕駛時代已經(jīng)悄然來臨。還有人臉識別、語音識別,現(xiàn)在機器也能夠做到很高的準確率。但并不意味著這些事很容易做到,它背后需要有非常強大的數(shù)據(jù)基礎和AI技術支持。今年小度在最強大腦比賽中的表現(xiàn)就是最好的展示。另一方面,通過大量已經(jīng)發(fā)生過的具體重復事件,AI能很好的預測即將發(fā)生的事情。
當AI遇到網(wǎng)絡安全時,又會發(fā)生什么樣的化學反應呢?網(wǎng)絡安全是一個非常復雜的體系,它里面可以分為執(zhí)行層,感知層,以及任務層和戰(zhàn)略層。現(xiàn)在AI已經(jīng)可以在執(zhí)行層和感知層有不錯的應用,同時在任務層和戰(zhàn)略層已經(jīng)開始摸索,但還處于比較初期的階段。
執(zhí)行層
在執(zhí)行層,AI可以顯著提升安全工具的規(guī)則運維效率。規(guī)則體系的觸角在整個安全網(wǎng)絡體系里面的延伸非常廣泛,包括像殺毒、WAF、反SPAM、反欺詐等。這些領域在傳統(tǒng)模式中需要大量的人力來維護,比如像反欺詐系統(tǒng)里面可能有上千條規(guī)則,這些規(guī)則之間存在著很多的沖突,某些規(guī)則組合甚至超出了人的理解能力,人在維護這些規(guī)則的時候也常常會出現(xiàn)問題。
而依靠AI,就可以很好的解決這些情況,機器學習已經(jīng)展示出非常強大的價值,它可以自動生成規(guī)則,不用依靠龐大的人力資源來維護。而且安全事件通常是大量發(fā)生的,所以AI能夠比較好的識別判斷下一次事件,不論是殺毒,還是反欺詐,都是很好的應用場景。
近兩年深度學習開始爆發(fā),打破了大家對人工智能的認知。機器學習能自動生成規(guī)則,但是其中的學習深度還是有一定的區(qū)分?!皽\”學習以SVM、Random Forrest、GBDT等算法為代表,它還需要很多的人工特征工程來準備特征向量,然后由算法自動完成分類識別。在風控領域,運用最廣泛的是GBDT(很多比賽的冠軍都是用GBDT),但是當特征維度上升到數(shù)千維后,深度學習的優(yōu)勢就開始慢慢展現(xiàn)出來。深度學習和“淺”學習存在一個很大的區(qū)別,就是深度學習對特征工程的依賴減弱很多,它能比較好的自動提取特征,可以生成深度學習模型,比如CNN(卷積神經(jīng)網(wǎng)絡)和RNN(循環(huán)神經(jīng)網(wǎng)絡)技術等。
下面舉兩個實例,第一個是AI在移動殺毒引擎的應用。眾所周知,現(xiàn)在病毒種類的變形越來越多,大多數(shù)黑產(chǎn)都會進行不同的嘗試。如果用人工來構建那些惡意代碼的識別特征,就需要構建一套非常龐大的體系,不僅慢而且難以維護。百度利用深度學習技術在這方面取得了非常出色的成果,在歷次AV Test測試中長期保持第一。去年我們在頂級安全工業(yè)界會議 Blackhat Europe 上就此成果做了專題報告,也是目前全球安全工業(yè)界第一個有實質性進展的深度學習應用技術報告。
第二個實例就是網(wǎng)頁安全,目前網(wǎng)頁安全的威脅主要包括三類:第一種欺詐類網(wǎng)站,包括虛假高校、虛假藥品、假冒貸款、仿冒火車票、虛假金融證券、仿冒飛機票、虛假中獎、仿冒登錄、虛假招聘等;第二類是存在風險的網(wǎng)站,主要包括網(wǎng)頁掛馬、惡意代碼、隱私竊取、惡意跳轉、僵尸網(wǎng)絡通信、木馬下載主機等;還有一種就是違法網(wǎng)站,包括色情和博彩等。
百度每天爬取索引的數(shù)據(jù)中,有1%~5%的URL包含不同程度的惡意信息,如果不加防護將會對網(wǎng)民帶來巨大的傷害。百度安全通過規(guī)則體系、機器學習(淺層模型)、深度學習(文本)、深度學習(圖片)以及威脅情報挖掘等網(wǎng)址安全復合檢測算法來保障網(wǎng)站的安全。目前,百度安全利用機器學習進行網(wǎng)頁檢測,對惡意信息的防護已經(jīng)取得了很好的成果。單條樣本檢測時延已經(jīng)小于10ms,對非法網(wǎng)站的識別準確率已經(jīng)超過99%。百度安全團隊也受國際安全學術泰斗 UC Berkley Prof. Dawn Song 邀請在 Singapore Cyber security Consortium (SGCSC) 上就此成果做了專題報告。
感知層
在感知層,當下最重要的應用就是生物特征認證。人臉認證是目前AI在安全領域最成功的一個應用。整個認證流程看起來簡單,其實里面的技術相當復雜。首先需要在各種環(huán)境下準確追蹤人臉,如果有偏差能夠給予及時有效的提示;其次要在最小用戶打擾的情況下完成可靠的活體識別,而不被虛假照片或化妝欺騙,能高速完成可信人臉數(shù)據(jù)對比。同時,設備和應用的安全狀態(tài)也需要可靠的保障,一旦發(fā)現(xiàn)惡意攻擊可以即時進行取證;此外,還必須要在云端對用戶隱私信息有著嚴格的保護。要實現(xiàn)順滑的人臉認證體驗,必須要有AI技術和系統(tǒng)化安全技術做全面支撐。百度的人臉認證已經(jīng)能夠在秒級內(nèi)完成超過90%的高可信驗證比率,顯著高于業(yè)界平均水平,且已經(jīng)在實戰(zhàn)中積累了很多活體識別對抗的經(jīng)驗和能力。除此之外,我們也在聲紋識別、用戶行為識別等領域做了很多應用探索和嘗試。
為什么要在安全過程中用AI感知來做人臉識別?因為銀行或者運營商對于客戶的實名認證環(huán)節(jié),傳統(tǒng)上是要靠人來完成的。但是人其實是在整個安全過程中最容易被攻破的一環(huán),攻擊者可以找到很多理由,比如最近胖了/瘦了/病了等來蒙混過關,這些都是有實際犯罪案例的。如果是AI來做這件事,反而鐵面無私,能夠把這個體系構建的更加標準化,并隨著技術的進步不斷完善。
任務層/戰(zhàn)略層
任務層在國際大賽上已經(jīng)開始嘗試,但目前還只是封閉空間的自動對抗。其中最著名的就是 DARPA 主辦的 CGC 大賽,比賽讓7個頂級團隊構建自動化系統(tǒng),對有缺陷的服務程序做自動加固,然后相互攻擊,不僅要抵抗外來攻擊,同時還要反擊對手。但是,這個還不能說是人工智能,因為所有的邏輯都是人預先設定好的。也就是說,目前仍然停留在自動化階段,還在向AI方向摸索。在任務層和戰(zhàn)略層要真正達到人工智能的高級階段,首先要解決人工智能對開放空間的認知問題,包括世界認知、人性弱點、創(chuàng)造力、跨維打擊等方面,其實還有很長一段距離。
最后總結一下,人工智能在網(wǎng)絡安全領域的應用,執(zhí)行層上面已經(jīng)實用化,可以顯著的提升規(guī)則化安全工作的效率,彌補專業(yè)人員人手的不足;在感知層面,可以把原本依賴于人(不可靠)的安全體系標準化,現(xiàn)在已經(jīng)開始實現(xiàn)大規(guī)模的推廣,包括人臉識別和圖象識別等等;而AI在任務層上的摸索還剛剛開始,在戰(zhàn)略層上還比較遙遠,再次感謝大家。
AI型網(wǎng)絡攻擊即將到來
對未來網(wǎng)絡安全意味著什么?
來源:E安全(ID:EAQapp)
E安全9月3日訊 下一波重大網(wǎng)絡攻擊很可能涉及人工智能系統(tǒng),而且攻擊活動可能將很快發(fā)生:在最近召開的一次網(wǎng)絡安全會議上,100位受訪行業(yè)專家中的62位認為,首輪AI強化型網(wǎng)絡攻擊很可能在接下來12個月內(nèi)出現(xiàn)。
這并不是說機器人將很快成為網(wǎng)絡攻擊活動中的主體。相反,人工智能將繼續(xù)遵循現(xiàn)有網(wǎng)絡攻擊的套路(例如身份竊取、拒絕服務攻擊以及密碼破解),只是具備更為強大的能力與執(zhí)行效率。但憑這一點,足以造成經(jīng)濟損失、情感傷害甚至人身威脅等危險后果。規(guī)模更大的攻擊活動甚至有可能導致數(shù)十萬人陷入無電可用的境地,關閉醫(yī)院甚至影響到國家安全。
AI決策制定的研究者警告稱,AI仍然很難解釋人類行為,而人類也并不真正相信AI系統(tǒng)作出的重大決策。因此與電影橋段有所不同,AI能夠為網(wǎng)絡攻擊以及網(wǎng)絡防御帶來的并非由計算機選定目標并自動施以攻擊。人們?nèi)匀恍枰孕袆?chuàng)建AI攻擊系統(tǒng),并設定特定目標再將其啟動。但盡管如此,AI的介入仍然會進一步升級目前的網(wǎng)絡犯罪與網(wǎng)絡安全體系,進而成為攻擊者與防御者之間軍備競賽的核心支柱之一。
AI的優(yōu)勢
除了不需要進食與休息之外,計算機相較于人類黑客團隊還擁有另一大根本性優(yōu)勢,以自動化方式提升復雜攻擊的速度與執(zhí)行效率。
截至目前,自動化的實際效果仍然存在局限。幾十年以來,病毒程序自動復制等能力已經(jīng)屬于非?;镜腁I型功能,其能夠在無需人類指令操縱的前提下完成在計算機之間的傳播。
另外,程序員還會利用自有技能對不同黑客元素進行自動化升級。舉例來說,分布式攻擊利用多臺計算機或設備上的遠程程序將服務器吞沒。
2016年10月導致部分互聯(lián)網(wǎng)體系癱瘓的攻擊活動就采用了這種實現(xiàn)方式。在某些情況下,普通攻擊亦可通過腳本形式起效,從而允許技術水平較低的用戶選定目標并發(fā)動攻擊。
不過AI能夠幫助人類網(wǎng)絡犯罪分子定制攻擊手段。舉例來說,魚叉式釣魚攻擊要求攻擊者獲取潛在目標的個人信息以及其它詳細資料,具體包括銀行帳戶或者其選擇的醫(yī)療保險公司。AI系統(tǒng)能夠幫助攻擊者快速收集、組織并處理大型數(shù)據(jù)庫,從而對信息進行關聯(lián)與識別,最終簡化攻擊實施門檻并加快攻擊執(zhí)行速度。另外,工作量的降低將使得網(wǎng)絡犯罪分子能夠發(fā)動大量小規(guī)模攻擊。由于單次攻擊的影響較為有限,因此這類活動即使被檢測到也往往會受到忽視。
AI系統(tǒng)甚至可被用于從多個來源處同時提取信息,從而發(fā)現(xiàn)那些易受攻擊活動影響的目標。舉例來說,住院的病患或者身處療養(yǎng)院的老人可能不會注意到自己的帳戶余額已經(jīng)被惡意人士所竊取。
提升適應能力
AI支持型攻擊者在遇到阻力,或者網(wǎng)絡安全專家修復了原有漏洞時將能夠快速作出反應。在這種情況下,AI可能會在無需人為指示的前提下轉而利用另一項漏洞,或者對系統(tǒng)進行掃描以找到新的可行入侵方式。
這可能意味著人類應急工作者及防御者將無法跟上AI方案的進攻速度。這極有可能引發(fā)新一輪編程與技術性軍備競賽,其中防御者開發(fā)出AI助手以發(fā)現(xiàn)并抵御攻擊活動,甚至打造出擁有報復性攻擊能力的AI方案。
AI同樣可能帶來的危險
自主操作可能導致AI系統(tǒng)攻擊其本不應攻擊,甚至可能造成意外損失的系統(tǒng)。
舉例來說,原本只打算竊取資金的攻擊者在運行AI軟件后,其也許會決定將目標指向醫(yī)院計算機,這極易導致人身傷害甚至是死亡等嚴重后果。無人機的自主運行能力也存在類似的問題:人類仍需要負責做出關于目標選取的決定。
盡管后果與影響如此重要,但大多數(shù)在遭遇第一次AI攻擊時并不會注意到此類重大變化。對于大多數(shù)受影響群體,其面臨的結果與人為觸發(fā)的攻擊將基本相同。但隨著我們不斷利用互聯(lián)網(wǎng)機器人系統(tǒng)改進自身家庭環(huán)境、工廠、辦公室乃至交通運輸系統(tǒng),人工智能引發(fā)的潛在威脅必將不斷提升。
注:本文由E安全編譯報道,轉載請注明原文地址
https://www.easyaq.com/news/106140886.shtml