“我和家人說哪怕是視頻電話打過來要錢,無論畫面多么真、聲音多么像,都不要信,就問他我們約定好的問題,看對方怎么回答?!?60集團創(chuàng)始人、ISC大會主席周鴻祎是人工智能的擁護者,但在網絡安全上還是選擇“留一手”。在ISC.AI 2025上海大模型安全論壇暨大模型安全衛(wèi)士產品發(fā)布會上,他分享了以約定問答作為身份識別的關鍵要素。
這是AI應用普及帶來新型安全需求的縮影——人們在加速擁抱“人工智能+”,但AI本身的安全管控成為了必須應對的核心挑戰(zhàn)。
大模型似乎“無所不能”,技術成熟卻也成了違法者用于詐騙的幫兇。此外,周鴻祎提到,大模型容易出現(xiàn)虛假錯誤,深層敏感信息違規(guī)的風險以及由于大模型幻覺導致錯誤判斷。此外,大模型被攻擊的可能性增加,容易成為攻擊載體和入口,威脅政府和企業(yè)數據資產的安全。
網絡安全公司要如何應對?
360數字安全集團副總裁余凱提到,要以自身大規(guī)模AI業(yè)務場景驗證產品能力。360基于‘以模制?!砟钔瞥鏊拇笾悄荏w解決大模型生命周期中各環(huán)節(jié)的安全問題,并將大模型安全衛(wèi)士融入安全運營體系,構建“網數模一體化”安全運營平臺。
山石網科(688030.SH)則希望從軟件硬件一體化層面來優(yōu)化解決方案,通過網絡安全ASIC芯片與AI相結合,指向“系統(tǒng)算力”與“流程效率”的優(yōu)化。山石網科董事長兼總經理葉海強認為,未來會從人機協(xié)同發(fā)展到人機共治,將涉及全域的智能安全,這意味著跨平臺的治理,以及未來AI 驅動的零信任升級(即對所有用戶、流量和設備通過持續(xù)驗證和最小權限原則來實現(xiàn)動態(tài)防護)。
一方面,企業(yè)需要對內部AI應用進行集中管控,包括大模型的選擇、數據權限的劃分、風險的動態(tài)評估;另一方面,需要為智能體構建“身份-行為-責任”的閉環(huán)體系,確保AI行為可追溯、責任可界定。
“未來成千上萬個智能體協(xié)作時,必須有類似二代身份證的數字身份,才能明確‘誰在做事、能做什么、做錯了誰負責’?!比~海強提到,山石網科正在通過投資探索為每個AI智能體賦予唯一可驗證的數字身份標識,構建“身份-行為-責任”的閉環(huán)體系。
Fortinet中國區(qū)總經理李宏凱向第一財經記者表示,未來十年,網絡安全最大的機會在于用AI打造“自學習、自修復、自進化”的安全神經中樞;最大的挑戰(zhàn)在于攻擊者也在用同樣的AI重構APT(高級持續(xù)性威脅)和供應鏈滲透。“只有把零信任架構、網絡安全融合理念與可解釋AI三位一體,才能把AI的確定性價值留給產業(yè),把不確定性風險關在籠子里。”