在過去的人工智慧敘事裡,我們習慣把模型理解為一種「能力放大器」:它能寫文章、能寫程式、能分析資料,但本質上仍然是被動的工具。
然而,一個被內部稱為 Mythos 的前沿模型案例,正在動搖這個基本假設。
根據多方技術交流與安全測試回報,該模型在特定條件下展現出一種令人不安的能力:它不只是「回答問題」,而是能夠系統性地推導出如何利用軟體漏洞進行滲透攻擊。
更關鍵的是,它的表現並非偶發,而是具備穩定性與可重現性。
在某次測試情境中,研究人員要求模型分析特定瀏覽器版本的安全弱點,它不僅識別出潛在漏洞,甚至能構建完整攻擊流程,包含:
初始滲透點定位
權限提升路徑推導
系統註冊表與登入機制的連鎖操作
筆者透過 AIMochi 筆記工具,整理多方公開資訊和最新報導內容,來看看這已經不再是「輔助建議」,而更接近一個初級紅隊工程師(Red Team Engineer)的行為模式。
在傳統資安領域,AI模型通常被用於:
程式碼掃描
弱點提示
已知漏洞比對
但 Mythos 類型模型的差異在於,它開始跨越三個層級:
1️⃣ 發現漏洞(Detection)
識別 Firefox 等軟體中的潛在弱點
2️⃣ 推導利用方式(Exploitation Planning)
不只是指出問題,而是推論如何實際利用
3️⃣ 建構攻擊鏈(Attack Chain Synthesis)
串聯多步驟操作,形成完整滲透流程
這種能力跳躍之所以引發關注,不只是因為「能不能做到」,而是因為它顯示出:
AI正在從「知識系統」轉向「行動推演系統」
這意味著模型的輸出不再只是資訊,而是可執行的策略結構。
更令人警惕的部分不在於模型能做到什麼,而在於誰可以使用它做到這些事。
在過去,漏洞利用需要:
深厚資安背景
工具鏈整合能力
大量實作經驗
但當 AI 模型具備攻擊鏈生成能力後,技術門檻被壓縮為:
「自然語言 + 模型輸出」
這會帶來一個結構性轉變:
原本需要專業技能的攻擊能力,可能被轉化為低門檻操作能力。
因此,風險不再只是「AI很強」,而是:
AI讓「非專業者也可能具備高階攻擊能力的起點」
這正是安全社群開始重新評估模型開放策略的原因。
在技術圈之外,這類模型能力已經開始進入政策討論。
部分政策與安全觀察者指出,一旦 AI 模型具備:
自動化漏洞發現能力
攻擊路徑生成能力
可擴展的操作推論能力
那麼它就不再只是「工具」,而可能成為:
一種具備雙重用途(Dual-use)的基礎設施級技術
這也是為什麼部分政府單位開始關注模型發布方式,例如:
是否應限制初期開放範圍
是否需要分級授權使用
是否建立模型審查或認證機制
甚至出現一種新的討論框架:
「AI事故是否必須先發生,治理才會真正啟動?」
在開發前沿模型的公司中,這個議題幾乎是核心矛盾:
一方面:
如果過度限制模型能力測試 → 無法理解真實風險邊界
另一方面:
如果過度釋放能力 → 可能導致不可控的濫用風險
因此,一種折衷策略開始出現:
限定合作夥伴使用(trusted partners only)
提前提供給少數企業進行防禦測試
延後公開釋出時間
這種模式的本質是:
在「完全開放」與「完全封閉」之間建立灰色地帶
但問題在於,這個灰色地帶本身是否足夠穩定,目前仍沒有答案。
當前全球AI治理呈現明顯分裂:
一類路線(偏監管)
強調安全評估
建立模型審查制度
類似 EU AI Act 的框架
另一類路線(偏加速)
認為過度監管會削弱競爭力
強調技術領先優先
以產業自主為主
而 Mythos 類事件的出現,正在加劇一個問題:
如果AI風險是真實且可重現的,那監管應該發生在「能力出現前」還是「事故發生後」?
目前沒有一致答案。
如果把整個事件抽象化,它其實反映的是一個更深層現象:
AI能力成長不是線性的,而是階段跳躍式的。
從:
語言生成
→ 程式能力
→ 系統理解
→ 安全推演
→ 行動策略生成
每一次跳躍,都不只是變得「更聰明」,而是:進入新的風險類別
Mythos 所代表的不是單一模型,而是一種趨勢:
AI開始具備「理解系統如何被破壞」的能力,而不只是「描述系統如何運作」
如果回顧過去科技監管史,可以發現一個模式:
金融監管 → 來自金融危機
資安法規 → 來自重大駭客事件
隱私法 → 來自數據濫用事件
AI也可能走同樣路徑。
Mythos 事件真正揭示的不是恐慌,而是一個結構性現實:
當技術能力先於治理框架出現時,社會往往是被「事件」推著前進,而不是預先設計好路線。
因此問題不再只是:
AI會不會出事?
而是:當AI開始能「設計出事的方式」,我們的制度是否已經準備好理解它?
以上僅供參考與資訊分享之用!若想快速了解更多資訊,透過 AIMochi 筆記工具,幫我們從海量資料中,梳理出關鍵資訊,讓我們精準掌握重要訊息!