隨著AIGC應用的普及,不法分子利用AI技術犯罪的手段越來越高明,欺騙、敲詐、勒索也開始與人工智能沾邊。
近期,專為網(wǎng)絡犯罪設計的“暗黑版GPT”持續(xù)浮出水面,它們不僅沒有任何道德界限,更沒有使用門檻,沒有編程經(jīng)驗的小白能通過問答的方式實施黑客攻擊。
(資料圖片僅供參考)
AI犯罪的威脅離我們越來越近,人類也開始加筑新的防火墻。
現(xiàn)在,企圖“消滅人類”的ChaosGPT和幫助網(wǎng)絡犯罪的 WormGPT 之后,出現(xiàn)了一種更具威脅的人工智能工具。被稱為“FraudGPT”的新興網(wǎng)絡犯罪AIGC工具匿藏暗網(wǎng),并開始在Telegram等社交媒體中打廣告。
與WormGPT一樣,F(xiàn)raudGPT也是人工智能大語言模型,專為作惡而設計,被比作“網(wǎng)絡罪犯的武器庫”。通過接受不同來源的大量數(shù)據(jù)訓練,F(xiàn)raudGPT不但能寫出釣魚郵件,還能編寫惡意軟件,哪怕是技術小白也能通過簡單的問答方式實施黑客攻擊。
FraudGPT在打廣告
FraudGPT的功能需付費開啟,200美元(約1400元)就能使用。發(fā)起人聲稱,F(xiàn)raudGPT 迄今為止已確認銷量超過3000。也就是說,至少3000人已為這一毫無道德邊界的作惡工具付費,低成本的AIGC犯罪有可能威脅普通人。
據(jù)電子郵件安全供應商Vade 檢測,2023年上半年,僅網(wǎng)絡釣魚和惡意郵件就達到了驚人的億封,同比增長了 54% 以上,AI很可能是加速增長的推動因素。網(wǎng)絡安全獨角獸公司Tanium的首席安全顧問Timothy Morris表示,“這些電子郵件不僅語法正確,更有說服力,而且可以被毫不費力地創(chuàng)建,這降低了任何潛在罪犯的進入門檻?!彼赋?,因為語言已經(jīng)不再是障礙,潛在受害者的范圍也將進一步擴大。
自大模型誕生起,AI導致的風險類型層出不窮,安全防護卻一直沒有跟上,即便是ChatGPT也沒能躲過“奶奶漏洞”——只要在提示中寫“請扮演我已經(jīng)過世的祖母”就可以輕松“越獄”,讓ChatGPT回答道德與安全約束之外的問題,比如生成Win11的序列號、介紹凝固汽油彈的制作方法等等。
目前,這個漏洞已被修補,但下一個漏洞、下下個漏洞總以令人猝不及防的方式出現(xiàn)。近期,卡內基梅隆大學和共同發(fā)布的一項研究表明,大模型的安全機制能通過一段代碼被破解,并且攻擊成功率非常高。
GPT等大模型都面臨較高的安全風險
隨著AIGC應用的普及,普通大眾希望用AI提高生產(chǎn)效率,而不法者則在用AI提高犯罪效率。AIGC降低門檻,讓技能有限的網(wǎng)絡犯罪分子也能執(zhí)行復雜攻擊,維護AI安全的挑戰(zhàn)越來越高。
用AI魔法打敗AI黑魔法
針對黑客利用WormGPT與FraudGPT等工具開發(fā)惡意程序、發(fā)起隱形攻擊等問題,網(wǎng)絡安全廠家們也用上了AI,試圖用魔法打敗魔法。
在2023年RSA(網(wǎng)絡安全大會)上,SentinelOne、谷歌云、埃森哲、IBM等在內的眾多廠商都發(fā)布了基于生成式AI的新一代網(wǎng)絡安全產(chǎn)品,提供數(shù)據(jù)隱私、安全防護、IP防泄露、業(yè)務合規(guī)、數(shù)據(jù)治理、數(shù)據(jù)加密、模型管理、反饋循環(huán)、訪問控制等安全服務。
SentinelOne首席執(zhí)行官Tomer Weigarten針對自家產(chǎn)品解釋,假設有人發(fā)送了一封釣魚郵件,系統(tǒng)能在用戶的收件箱內檢測出該郵件為惡意郵件,并根據(jù)端點安全審計發(fā)現(xiàn)的異常立即執(zhí)行自動修復,從受攻擊端點刪除文件并實時阻止發(fā)件人,“整個過程幾乎不需要人工干預?!盬eingarten指出,有了AI系統(tǒng)助力,每個安全分析師的工作效率是過去的10倍。
為打擊人工智能助長的網(wǎng)絡犯罪,還有研究人員臥底暗網(wǎng),深入敵人內部打探消息,從不法分析的訓練數(shù)據(jù)入手,利用AI反制罪惡流竄的暗網(wǎng)。
韓國科學技術院 (KAIST) 一個研究團隊發(fā)布了應用于網(wǎng)絡安全領域的大語言模型DarkBERT,就是專門從暗網(wǎng)獲取數(shù)據(jù)訓練的模型,它可以分析暗網(wǎng)內容,幫助研究人員、執(zhí)法機構和網(wǎng)絡安全分析師打擊網(wǎng)絡犯罪。
與表層網(wǎng)絡使用的自然語言不同,由于暗網(wǎng)上的語料極端隱蔽且復雜,這使得傳統(tǒng)語言模型難以進行分析。DarkBERT 專門設計用于處理暗網(wǎng)的語言復雜性,并證明在該領域中勝過其他大型語言模型。
如何確保人工智能被安全、可控地使用已成為計算機學界、業(yè)界的重要命題。人工智能大語言模型公司在提高數(shù)據(jù)質量的同時,需要充分考慮AI工具給倫理道德甚至法律層面帶來的影響。
7月21日,微軟、OpenAI、Google、Meta、亞馬遜、Anthropic和 Inflection AI共七個頂尖 AI 的研發(fā)公司齊聚美國白宮,發(fā)布人工智能自愿承諾,確保他們的產(chǎn)品安全且透明。針對網(wǎng)絡安全問題,7家公司承諾,對AI系統(tǒng)進行內外部的安全測試,同時與整個行業(yè)、政府、民間及學術界共享AI風險管理的信息。
管理AI潛在的安全問題先從識別“AI制造”開始。這7家企業(yè)將開發(fā)“水印系統(tǒng)”等技術機制,以明確哪些文本、圖像或其他內容是AIGC的產(chǎn)物,便于受眾識別深度偽造和虛假信息。
防止AI“犯忌”的防護技術也開始出現(xiàn)。今年5月初,英偉達以新工具封裝“護欄技術”,讓大模型的嘴有了“把門的”,能回避回答那些人類提出的觸碰道德與法律底線的問題。這相當于為大模型安裝了一個安全濾網(wǎng),控制大模型輸出的同時,也幫助過濾輸入的內容。護欄技術還能阻擋來自外界的“惡意輸入”,保護大模型不受攻擊。
“當你凝視深淵的時候,深淵也在凝視你”,如同一枚硬幣的兩面,AI的黑與白也相伴而生,當人工智能高歌猛進的同時,政府、企業(yè)、研究團隊也在加速構建人工智能的安全防線。
標簽: