AI 時代

AI 為企業創造許多便利性,也為資安帶來前所未有的危機,今天就帶你來認識在 AI 時代下會對資安造成的影響,以及人工智慧安全風險(AI Security)有哪些,並在文末告訴你保護企業資訊安全的方法。

一、什麼是 AI ?生成式 AI 跟分辨式 AI 有什麼不同?

人工智慧(AI)是一項模擬人類智能行為的技術領域,而這些技術也被許多企業大量運用。我們廣義的將現有的 AI 技術分成 2 大類,分別是生成式 AI(Generative AI)和分辨式 AI(Discriminative AI)。

(一)什麼是生成式AI?

生成式 AI 可以自動生成各種類型的文本,包括新聞文章、廣告文案、小說甚至詩歌等,這些文案是透過訓練模組生成的,或著是根據用戶指定的條件和要求而生成的。因此常被應用在 AI 繪圖、AI 顧問、文案生產等較具有創造性的內容,ChatGPT 就是其中一種常見的生成式AI。

(二)什麼是分辨式AI?

分辨式 AI 則是專注於辨識和分類數據,舉凡圖像識別、語音辨識和情感分析等。根據輸入的數據進行訓練,以識別和區分不同類別的數據。分辨式 AI 在各種領域都有廣泛的應用,包括自動駕駛、人臉識別、醫學影像分析等。透過分辨式 AI 技術,企業可以加速處理大量數據,分析使用者的需求並制訂最合適的推薦方案。

🚀 了解更多關於 AI 的文章,請閱讀:Google 搜尋引擎不會被 AI 取代的7大原因

二、什麼是人工智慧安全風險?

人工智慧安全風險(AI Security )是利用 AI 技術來保護系統和數據免受網路威脅的措施。在今天數位化的環境中,AI Security 解決方案能夠透過機器學習和深度學習技術,分析大量數據,檢測並防禦各種惡意活動和網路攻擊。這項技術對於確保組織的資訊安全至關重要,能夠有效保護數據和系統免受日益複雜的網路風險。

三、AI面臨的6大攻擊方式,人工智慧安全風險有哪些?

從技術面來分析,AI 的攻擊層面主要發生在兩大階段,分別是模型訓練階段及推理階段。下面就帶大家一起來看看人工智慧安全風險與可能會受到的攻擊有哪些!

(一)數據安全風險(Data Security Risks)

1. AI 管道作為攻擊面:

因為 AI 系統必須依賴數據,所以數據管道易被瞄準攻擊。攻擊者可以利用數據收集、存儲和傳輸的過程來獲取訪問權限、修改數據或引入惡意輸入。

2. 生成資料個資外洩:

從 AI 開始發展後個資外洩的案件就層出不窮,在使用 AI 的過程中不應該透漏過多的個人資料,輸入進去的任何資訊都可能會洩漏到模型訓練數據集中,導致隱私侵犯、數據洩漏或模型偏見輸出,就連知名的三星企業也發生過員工將公司機密輸入 ChatGPT 遭外洩的事件。

(二)對抗式機器學習(Adversarial Attacks)

1. 訓練資料攻擊:

對抗式機器學習攻擊透過改變輸入數據來欺騙 AI 模型。攻擊者可以微妙的修改視覺或數據文本,讓 AI 得出錯誤的結果,這些攻擊可能損害AI系統的可信度。有趣的是,這個方法也可以用來保護藝術家的創作,一款 AI 工具「Nightshade」就是透過對AI模型的訓練數據「下毒」,使 AI 產出與指令不符的圖片,來防止原創作品被大量改造。

2. 模型反向攻擊:

在這種攻擊中,攻擊者首先訓練一個獨立的機器學習模型,稱為逆向模型,使用目標模型(你的模型)的輸出作為輸入。反推模型的任務是預測輸入數據,也就是目標模型的原始數據集。

(三)成員推理攻擊(Membership Inference Attack)

成員推理攻擊是一種針對機器學習模型的攻擊方式,攻擊者試圖確定特定數據點是否包含在目標模型的訓練數據集中。這種攻擊可以通過觀察目標模型對特定數據點的預測結果來進行。如果攻擊者可以確定某個數據點是訓練數據集的一部分,則可能暴露了關於個人或組織的私人數據。

這裡有個例子,假設有一個模型可以根據使用者的行為預測收入水平。攻擊者可以透觀察模型對不同用戶的預測結果來進行成員推理攻擊,以確定某些特定用戶是否在訓練數據集中。這可能會導致用戶的個人資料洩漏或隱私受到侵犯。

(四)探索式攻擊(Exploratory Attacks)

這類攻擊是試圖探索機器學習系統的內部運作方式和漏洞的攻擊。攻擊者可能通過提供不同類型的數據輸入或尋找模型的反饋來探索模型的行為,以找到系統的弱點或隱藏的訊息。探索式攻擊的目標是發現模型中的潛在漏洞,而不一定是具體確定數據集中的特定數據點。

(五)資源耗盡攻擊(Resource Exhaustion Attacks)

這屬於針對機器學習系統的攻擊,透過超載系統資源的手段,從而降低系統的性能或導致系統無法正常運作。攻擊者會發送大量的請求或數據輸入,來耗盡系統的計算資源、記憶體或網路頻寬,從而使其無法有效地處理其他任務或請求。

這種攻擊可能會導致服務的中斷或延遲,影響系統的可用性。資源耗盡攻擊可能對機器學習系統的運作造成嚴重影響,特別是當系統無法正常處理來自合法用戶的請求時,將導致服務中斷或拒絕服務的情況發生。

(六)數據毒化攻擊(Data Poisoning Attack)

攻擊者會在訓練數據集中插入有害或誤導性數據來損害模型的訓練過程。這種攻擊可能導致模型產生偏見,使其在處理新數據時表現不佳,或者甚至使模型做出錯誤的預測。攻擊者通常利用這種攻擊來破壞機器學習系統的正常運作,嚴重時會導致系統癱瘓。

四、企業要如何保護資訊安全?

(一)進行弱點掃描

透過弱點掃描,企業可以及時並修補其系統中的漏洞和弱點,防止攻擊者利用這些弱點進行攻擊,包括針對AI系統的攻擊。舉個例子,弱點掃描可以幫助發現 AI 模型中的安全漏洞或錯誤配置,從而加強對潛在攻擊的防禦。

(二)加強網路安全

這些措施可以防止惡意攻擊者通過網頁掛馬等手段進入企業的網路系統,同時進行入侵偵測掃描和使用網站應用防火牆(WAF)可以及時發現並阻止可能的入侵行為,保護企業的資訊系統和數據免受損害。

(三)員工資訊安全訓練

向內部員工提供資訊安全教育和培訓,使他們能夠認識安全風險,並具備辨識和應對安全威脅的能力,也提高員工對於與用 AI 工具的安全意識。

(四)加密通訊管道

對於機密資訊,如客戶個人資料、財務訊息等,應使用加密技術進行保護,以防止未經授權的訪問和數據洩露,例如在寄送客戶資料的電子郵件裡面,最好要使用電子郵件加密憑證,為了提高資料的安全性和保密性,也防止郵件內容被截取和篡改。

(五)實施「零信任策略」

為了應對駭客使用生成式AI來破解密碼的能力,公司可以實施「零信任策略」來提高身份驗證的強度。這種策略基於一個核心理念「不信任任何內部或外部的用戶或設備,即使是已經在系統內的用戶也需要進行驗證。」需要注意的是,AI技術已純熟到可以透過語音引擎學習真人聲音,連被稱為最佳防線的生物識別系統也受到挑戰。

(六)定期備份資料

定期備份的目的是在系統或數據受到損壞、遺失、意外刪除或遭受惡意攻擊時,能夠快速恢復到之前的狀態。透過定期備份,可以保護重要的數據和資訊免受損失,確保日常運作的持續性和穩定性。