close
科技可以為善,也可以為惡
當所有人忙著適應AI人工智慧帶來產業體系的轉型與創新,並期待透過研發及利用新的AI技術攻佔市場創造優勢的同時,另外一場戰爭也已經無聲無息的展開,IBM Security CTO兼VP Koos Lodewijkx 分享,目前已經至少有三種與AI相關的對抗性機器學習攻擊手段:
第一種是利用AI提高攻擊效率,透過機器學習,分析社群媒體上的訊息、朋友圈等等,依照這些個人化資訊發起針對性攻擊,提高釣魚攻擊成功率
第二種是污染AI系統,或是找到AI系統弱點、繞過防禦以進行攻擊
第三種是竊取訓練AI模型背後的數據,進行逆向重建,以竊取資訊。
利用AI對抗AI
由於AI攻擊會導致財務、聲譽、安全、智慧財產權、人員資訊和專有資料的損失,因此為了對抗AI攻擊,可透過在資安系統中導入AI,藉由機器學習分析大量數據,以識別並解決潛在的攻擊媒介,並針對潛在的人工智慧違規行為制定強而有力的回應策略,同時建立安全平台來保護重要的人工智慧資產,包括基於 SaaS 的 API,用於跨所有部門的人工智慧模型安全評估和威脅防禦,以透過AI防禦對抗AI攻擊。
隨著黑手不斷演進的AI
而儘管目前AI已被大量用於資安產品,但目前的AI防禦還不能完全所有的資安問題,因此,如何開發新的人工智慧安全技術來強化資安系統的防禦能力,透過自動偵測漏洞來降低潛在攻擊的風險和影響,就是企業研發及智慧財產權布局的下一步目標。
文章標籤
全站熱搜
留言列表