發布源:深圳維創信息技術發布時間:2020-09-29 瀏覽次數: 次
我們生活、學習和社交都越來越依賴于技術,而這種依賴性也使技術成為攻擊目標。
由于我們在做出關鍵決策時對數據的依賴日益增加,這導致惡意行為者更有動機使用勒索軟件來限制對大型數據池的訪問。
而人口數據的武器化將使專斷的政府和空殼組織有更大的能力操縱地緣政治,擴大其在境外的影響力。
過去幾年對人工智能和機器學習(ML)所做的改進將導致改會提高網絡安全,但同時也將幫助攻擊者。
這些趨勢背景下,為2020年的三個網絡安全預測奠定了基礎:1. 企業將通過并購活動收集數據并將其武器化劍橋分析丑聞的揭露雖然引起了人們對數據收集的普遍擔憂,但數據價值的不斷增長仍然讓企業和政府難以忽視這一資源。
旨在限制企業如何共享其大量數據的法律將在全球范圍內激增,但這些措施對阻止數據整合背后不斷增長的并購市場無濟于事。
企業收集用戶偏好數據,用戶位置或醫療信息等在最開始的時候可能是無害的,但是如果當前領先的應用背后的公司被政府所有的實體收購,這些數據現在就會被對手利用。
當北京的工程師通過收購Grindr合法地獲得了敏感的健康信息時,他們就證明了當前的立法沒有減輕數據落入壞人之手的風險,因此需要公司制定自己的消費者數據治理策略。
2. 到2020年,與Deepfake詐騙相關的損失將超過2.5億美元今年早些時候,社會工程師通過使用自然語言生成技術,從一家德國能源公司騙取了24.3萬美元,這可能是首個案例。
有了這樣的先例表明AI支持的Deepfake技術所帶來的巨大經濟收益,預計會有更多的人模仿攻擊,更多的基于Deepfak的攻擊可能以很低的成本制造出以假亂真的音頻和視頻。
為了降低風險,IT部門需要進一步在安全培訓和安全意識提升上投入成本。
如果員工不了解基于deepfake的攻擊和傳統網絡釣魚攻擊之間的區別,與Deepfake詐騙相關的損失將大幅提升。
3. 數據隱私問題將導致五分之一的企業客戶拒絕把數據交給AI盡管AI和ML解決方案的價值不斷增長,但依賴企業客戶數據來改進B2B產品的公司很難找到愿意選擇數據共享協議的客戶。
由于GDPR和CCPA等立法以及消費者的強烈反對,再加上隱私泄露對品牌的短期發展和長期形象都會造成災難性的影響,因此,企業不愿意將其數據交給第三方。
這種數據短缺可能會降低AI和ML解決方案的有效性,反過來,這可能會造成一個惡性循環:沒有獲得人工智能相關收益的企業,也沒有增加隱私保護相關的支出。
這導致了更多的企業在未來幾年進一步嚴禁外部使用他們的數據。
Copyright © 2021 深圳市維創信息技術有限公司 版權所有