Image
全國統一服務熱線
0351-4073466

“萬模裸奔”,DeepSeek正颠覆網絡安全行(háng / xíng)業遊戲規則


編輯:2025-02-28 17:15:58

對(duì)于(yú)企業而(ér)言,AI既是提升生(shēng)産力的強大工具,同時也爲攻擊者和惡意内部人員提供了“大殺器”。随着(zhe/zhuó/zhāo/zháo)生(shēng)成式AI(例如(rú)ChatGPT和DeepSeek)在企業和政府機構中的廣泛應用(yòng)和不安全部署,“萬模裸奔”産生(shēng)的數據安全風險已經到了失控的邊緣。
2025年(nián)是AI安全元年(nián),首席信息安全官(CISO)們必須提前做好準備,應對(duì)“萬模裸奔”引發(fā/fà)的數據安全危機。

警惕數據的“智能(néng)化洩漏”

與傳統IT系統不同,生(shēng)成式AI引入了全新的攻擊媒介,可(kě)導緻數據洩漏、業務中斷甚至法律風險例如(rú):
  • 提示注入:惡意行(háng / xíng)爲者操縱AI提示來改變輸出或暴露敏感數據。

  • 數據中毒:對(duì)手破壞訓練數據以影響模型行(háng / xíng)爲。

  • 幻覺:人工智能(néng)産生(shēng)虛假或誤導性的信息,可(kě)能(néng)會(huì)損害決策過(guò)程。

由于(yú)生(shēng)成式AI的發(fā/fà)展和普及速度很快,CISO和安全團隊往往缺乏足夠經驗和技能(néng)應對(duì)AI安全風險,在威脅建模和風險評估方面存在較大差距。
面對(duì)洶湧的生(shēng)成式AI浪潮,企業*擔心的還是數據安全問題(例如(rú)商業機密數據被競争對(duì)手獲取)。以*近的一起案例爲例:一名員工利用(yòng)AI助手訪問了企業内部數據庫,竊取了包含客戶銷售記錄和産品使用(yòng)情況的敏感數據,并将其(qí)帶到新的雇主處使用(yòng)。
這正是生(shēng)成式AI放大數據洩露風險的典型例子。據Gartner*新研究,微軟365 Copilot、Salesforce等基于(yú)生(shēng)成式AI的工具正成爲企業提升生(shēng)産力的利器,但其(qí)對(duì)數據安全的威脅亦呈指數級攀升。近60%的受訪者認爲,過(guò)度共享、數據洩漏和内容蔓延是企業部署人工智能(néng)助手時面臨的*大風險。
Salesforce首席執行(háng / xíng)官Marc Benioff在2024年(nián)10月公開批評了Microsoft的Copilot,稱其(qí)爲“令人失望的Clippy 2.0”。他引用(yòng)了Gartner的報告,強調了Copilot在數據過(guò)度共享和安全方面的問題,導緻許多組織推遲了實施計劃。

AI引爆“權限炸彈”

研究顯示,企業近99%的訪問權限處于(yú)閑置狀态,其(qí)中過(guò)半屬于(yú)高風險權限。傳統安全管理中,冗餘權限本已是重大隐患,而(ér)生(shēng)成式AI的介入使問題急劇惡化,甚至會(huì)引爆這些“權限炸彈”,以幾何級數放大數據安全風險。例如(rú),Microsoft Copilot可(kě)以訪問所(suǒ)有用(yòng)戶權限範圍内的數據,即使用(yòng)戶本人并未意識到自(zì)己擁有這些權限。這意味着(zhe/zhuó/zhāo/zháo),敏感數據可(kě)能(néng)通過(guò)AI對(duì)話被無意或惡意洩露。

AI改寫網絡攻擊遊戲規則:從技術滲透到提示注入

除了增加數據洩漏風險外,生(shēng)成式AI還在改寫網絡攻擊的遊戲規則。傳統黑客攻擊通常需要(yào / yāo)攻擊者耐心滲透系統,探索内部環境,生(shēng)成式AI徹底颠覆了傳統攻擊模式。攻擊者無需再耗時滲透系統,隻需向AI助手提問(提示注入)即可(kě)獲取敏感信息或訪問憑證,進而(ér)實施橫向移動。當前AI對(duì)網絡安全的六大核心挑戰包括:
  • 員工數據訪問權限過(guò)度寬松

     

  • 敏感數據标識缺失或錯誤

     

  • 内部人員通過(guò)自(zì)然語言快速定位并外洩數據

     

  • 攻擊者利用(yòng)AI挖掘權限升級路徑

     

  • 人工難以及時校準動态權限

     

  • AI持續生(shēng)成新型敏感數據

盡管這些風險并非新問題,但AI的介入極大地降低了信息洩露的門檻,使得(dé / de / děi)攻擊者比以往更容易大規模*率利用(yòng)企業的安全漏洞。

萬模裸奔:部署開源模型的風險

随着(zhe/zhuó/zhāo/zháo)開源AI模型的興起,許多企業選擇部署如(rú)DeepSeek等模型,以期在本地環境中利用(yòng)AI技術。然而(ér),這種做法也帶來了新的安全隐患。
根據奇安信近日發(fā/fà)布的資産測繪監測結果,在8971個Ollama(一款開源大語言模型服務工具)大模型服務器中,有6449個活躍服務器,其(qí)中88.9%都“裸奔”在互聯網上,面臨數據洩漏、服務中斷和濫用(yòng)等嚴重威脅。私有化部署開源模型的風險主要(yào / yāo)有以下(xià)幾點:

1

暴露的服務器風險

近期,有攻擊者通過(guò)自(zì)動化腳本掃描暴露的DeepSeek服務器,惡意占用(yòng)大量計算資源,導緻部分用(yòng)戶服務器崩潰。

2

缺乏安全認證

一些工具(例如(rú)Ollama)在默認情況下(xià)未提供安全認證功能(néng),導緻許多部署DeepSeek的用(yòng)戶忽略了必要(yào / yāo)的安全限制,未對(duì)服務設置訪問控制。這使得(dé / de / děi)任何人都可(kě)以在未經授權的情況下(xià)訪問這些服務,增加了數據洩露和服務中斷的風險。

3

模型固件加密不足

在本地化部署中,模型核心邏輯需要(yào / yāo)嵌入硬件固件,以防止惡意篡改或逆向工程。如(rú)果缺乏适當的加密措施,攻擊者可(kě)能(néng)會(huì)利用(yòng)這些漏洞,進一步威脅系統的安全性。

4

數據合規性問題

開源模型的訓練數據來源複雜,可(kě)能(néng)涉及版權和隐私問題(甚至導緻嚴厲監管處罰的内容安全問題)。企業在使用(yòng)這些模型時,需要(yào / yāo)确保數據來源合法,并在部署前進行(háng / xíng)*的安全測試,以避免潛在的法律和安全風險。

構築新型AI防禦體系的八大關鍵措施

要(yào / yāo)想降低AI帶來的數據安全風險,CISO們必須夯實數據管理基礎,方可(kě)引入AI工具。在部署基于(yú)大模型的AI工具(無論是開源還是閉源,雲端還是本地私有部署)之前,企業需要(yào / yāo)明确所(suǒ)有敏感數據的存儲位置,并具備識别風險、修複安全漏洞和優化權限配置的能(néng)力。
企業部署DeepSeek等開源模型時,需重視和采取以下(xià)主動防禦措施:
  • 定期進行(háng / xíng)安全審計:對(duì)模型和相關系統進行(háng / xíng)定期的安全檢查,及時發(fā/fà)現并修複潛在的漏洞。嚴格審核第三方AI模型的訓練數據來源與隐私政策,防範數據主權争議。

     

  • 彌補AI安全技能(néng)鴻溝:鼓勵員工獲取AI安全相關認證(如(rú)CAISP、CISSP-AI),提升專業技能(néng),同時通過(guò)模拟攻擊演練(如(rú)紅隊/藍隊演習)增強實戰能(néng)力。建立内部培訓計劃,開發(fā/fà)針對(duì)AI安全的技術培訓課程,涵蓋模型漏洞分析、數據隐私保護、算法偏見識别等内容,培養既有AI技術背景又有安全意識的複合型人才。

     

  • 加強員工安全意識培訓:AI大大提升了攻防兩端的能(néng)力(例如(rú)DeepSeek極大提升了*軟件和網絡釣魚的中文水平),這意味着(zhe/zhuó/zhāo/zháo)企業需要(yào / yāo)緊急追加預算提高員工的安全意識水平,确保他們了解并識别那(nà)些足可(kě)以假亂真的釣魚信息、AI幻覺信息,以及學習安全使用(yòng)和管理AI工具。

     

  • 遵守數據合規性要(yào / yāo)求:在使用(yòng)開源模型時,确保遵守相關的數據保護法律法規,避免侵犯用(yòng)戶隐私或知識産權。

在AI工具正式投入使用(yòng)後(hòu),安全管理人員需要(yào / yāo)采取以下(xià)持續監控措施:
  • 權限動态治理。實施*小權限原則,定期審計員工權限範圍,确保AI工具訪問權限與用(yòng)戶實際需求嚴格匹配,杜絕“權限閑置即風險”的隐患。

     

  • 數據智能(néng)分類。通過(guò)自(zì)動化工具全域掃描敏感數據,建立精細化标簽體系,爲數據防洩露(DLP)策略提供可(kě)執行(háng / xíng)的分類基準。

     

  • 人機行(háng / xíng)爲監控。構建AI操作審計機制,實時監測異常提示詞(Prompts)、文件訪問模式等行(háng / xíng)爲特征。例如(rú),某員工若頻繁要(yào / yāo)求AI彙總客戶清單并關聯财務數據,系統需立即觸發(fā/fà)告警。

     

  • 影子AI可(kě)視化。通過(guò)CASB(雲訪問安全代理)監控數百個AI應用(yòng),識别高風險工具并建立禁用(yòng)清單(如(rú)金融行(háng / xíng)業100%屏蔽未授權AI)。

生(shēng)成式AI快速普及帶來的數據安全威脅正在引發(fā/fà)一場企業網絡安全革命,導緻企業安全體系的大規模範式轉移。CISO必須意識到:當AI工具能(néng)瞬間調用(yòng)全網數據時,傳統的靜态防禦體系已形同虛設。唯有将安全文化、數據治理、權限管控與行(háng / xíng)爲分析深度耦合,方能(néng)駕馭AI這把“效率與風險并存的大殺器”。要(yào / yāo)想因對(duì)包括影子AI在内的生(shēng)成式AI帶來的數據安全危機,CISO亟需開展一場融合技術、管理與文化的系統性變革。

 

Image
Image
版權所(suǒ)有:翼城旭日辉煌网络科技工作室
咨詢熱線:0351-4073466 
地址:(北區)山西省太原市迎澤區新建南路文源巷24号文源公務中心5層
           (南區)太原市小店區南中環街529 号清控創新基地A座4層
Image
©2021 翼城旭日輝煌網絡科技工作室