Democratizing AI Security with Usable Knowledge and Intelligence
我們提供的是技術面、能夠實作和執行、不講廢話的 AI 資安防禦框架跟工具,不是虛無飄渺高高在上的合規清單。讓資安團隊和開發者拿到能直接用的防禦手段(包括實作指引、程式碼、可參考的開源或商業工具等等),幫助團隊降低 AI 系統的資安技術風險,並實際對抗真實世界的資安威脅。
免費、開源。 AIDEFEND 是實戰導向的技術框架 — 每個防禦技術都有實作教學、架構範例跟可以直接拿來用(或是參考)的 code,讓你的團隊能部署真正的 AI 系統防護。
從策略功能來看防禦:建模、強化、偵測、隔離、欺敵、驅逐、復原 — 每項都有 code 範例和實作指引。
依技術架構層來組織:資料層、模型層、基礎設施層、應用層,搭配實際的架構設計。
在 AI 生命週期的每個階段植入安全:設計、開發、驗證、營運、應變、復原。
所有防禦都對應到 MITRE ATLAS、OWASP LLM/ML/Agentic AI、MAESTRO、NIST AML 等 9 個以上的威脅框架。
從 Prompt Injection 到自主 Agent 群集 — 持續擴充的防禦知識庫,涵蓋每個主要 AI 攻擊面的防禦實作指引與程式碼範例。
LLM 頭號威脅。攻擊者透過精心設計的輸入操控模型行為,直接蓋掉系統指令。
自主 Agent 帶來新的風險 — 未授權操作、目標偏移、跨工具鏈的權限升級。
MCP 協定擴大了攻擊面。工具投毒、Registry 偽造、TOCTOU 攻擊都在威脅 Agent 的工作流。
攻擊者把惡意內容塞進 Vector Store 跟知識庫,汙染整條 RAG Pipeline。
被汙染的訓練資料和不可信的模型檔,從根基就破壞 AI 的完整性。
AI 寫的 code 可能有漏洞甚至是惡意的。需要准入控制來擋住不安全的程式碼進 production。
當多個 Agent 自主協作,惡意的可以混進去。要在影響擴散前抓到被入侵的 Agent。
反過來釣攻擊者。部署假的 AI 服務、Canary 任務和蜜罐資料,即時偵測並研究對手。
Agent 的持久化記憶是新的攻擊面。被汙染的記憶可以在初始入侵後持續影響 Agent 的行為。
每個防禦技術都明確對應到主流 AI 資安框架裡的已知威脅。
我們相信保護 AI 系統不該是大企業的專利。我們的目標是打造好用的框架、指引、工具跟服務,讓不管什麼規模的團隊都能安全地導入 AI。
免費公開的資安情報與防禦指引,整個 AI 社群都能用。
能用在真實環境的防禦對策,附帶實作教學、程式碼範例跟工具推薦。
為社群而做。每一份貢獻都在強化全球 AI 系統的防禦力。
AIDEFEND 框架只是開始。我們正在積極開發新工具、新服務、新功能,讓 AI 資安更好落地、更自動化,不管團隊大小都能用。
持續關注 — 更多消息即將公布。