飛象網訊 “AI在落地過程中面臨的安全挑戰已遠超網絡與數據安全的原有邊界,360提出‘以模制模’新范式,以四大智能體筑牢AI安全防線。” 在ISC.AI 2025未來峰會上,360數字安全集團總裁胡振泉直擊AI安全痛點,系統闡釋了360在AI安全防護的核心邏輯與實踐成果,為智能時代的AI安全防護提供了創新性解決方案。

AI安全進入“高風險期”內憂外患亟待破局
隨著大模型技術加速落地與智能體的規模化應用,AI已從實驗室全面滲透至千行百業。然而,在技術紅利持續釋放的背后,AI安全風險正進入“集中爆發期”,呈現出“內憂外患”的復雜態勢。
胡振泉分析到,從內部來看,AI存在與生俱來的“四大基因缺陷”:一切皆可編程、一切皆可模仿、一切皆可生成、一切皆可調度。從外部來看,一方面,針對AI系統的攻擊將變成大國博弈的關鍵;另一方面,黑灰產利用AI批量制造攻擊武器,甚至部署“黑客智能體”,傳統安全防御體系難以應對。
“這些風險交織,使得AI安全的復雜程度遠超傳統范疇”。胡振泉強調,AI安全既涵蓋網絡、數據等傳統安全問題,也涉及AI內容安全、應用安全及未來場景安全。廣大政企機構在AI落地過程中面臨的安全挑戰,已遠遠超出網絡與數據安全的原有邊界,亟需一套系統性的創新解決方案。
“以模制模”落地:四大智能體構建AI全鏈路防護
當前,傳統安全企業因缺乏對AI技術的深度理解,在應對AI安全問題時往往“盲人摸象”;而大模型企業則因安全技術積累與攻防實踐經驗不足,難以提出有效的解決方案。
作為企業中的數字安全及AI國家隊,360憑借“懂AI更懂安全”的跨領域優勢,創新提出“以模制模”新范式,利用人工智能技術自身優勢對抗AI安全風險,并打磨出360大模型安全衛士,聚焦解決AI的“可靠、可信、向善、可控”四大核心問題。具體而言,360大模型安全衛士通過四大安全智能體形成閉環防護體系:
內容安全智能體:作為AI內容“守門人”,通過幻覺抑制、安全風控等專用模型,實時審核輸入輸出內容,攔截違法違規信息,抑制虛假生成,為黨政軍企等場景筑牢內容安全防線。
AI Agent安全智能體:聚焦智能體執行安全,通過異常行為識別、權限管控及人工審核,防范數據泄露與越權操作,確保 AI“行動能力” 可控。
軟件安全智能體:掃描AI軟件漏洞與配置缺陷,排查開源組件風險,從源頭保障AI系統供應鏈安全。
安全風險評估智能體:以實戰化模擬攻擊(如注入攻擊、數據竊取)提前暴露系統短板,幫助客戶發現多項關鍵隱患。
胡振泉強調,這四大智能體協同發力,形成從內容生成到任務執行、從開發上線到風險評估的全鏈路防護,真正實現用AI思維解決AI安全問題。
“天生優勢”奠定技術壁壘 360引領AI安全升級
胡振泉表示,隨著360大模型安全衛士在客戶側的不斷落地,愈發清晰地認識到:AI安全是一個門檻極高的技術領域,做好這件事必須具備四大必要條件:
一是AI領域的深耕積淀,需深刻理解AI技術特性與發展規律;二是安全行業的實戰積累,對傳統網絡與數據安全有深入實踐;三是自身 AI業務的安全實踐,通過大規模場景“自用自證”持續迭代產品;四是AI安全語料的長期積累,擁有大量高質量的內容安全與網絡安全語料,為模型訓練提供核心“生產資料”。
胡振泉指出,360通過自身大規模AI業務場景驗證產品能力,形成“從實踐中來,到實踐中去”的迭代閉環,同時沉淀了海量安全語料,構建起了難以復制的核心競爭力。
最后,胡振泉呼吁,AI安全需要全行業協同發力。360將持續開放 “以模制模”的技術框架與實踐經驗,與產業鏈各方共建AI安全生態,為智能時代的安全發展保駕護航。