Dark AI: mối đe dọa biến tướng của trí tuệ nhân tạo trong an ninh mạng

Trong bối cảnh trí tuệ nhân tạo (AI) phát triển vượt bậc, không chỉ mang lại lợi ích mà còn mở ra những rủi ro nghiêm trọng. Dark AI – khái niệm chỉ việc lạm dụng AI cho mục đích tội phạm – đang trở thành vũ khí nguy hiểm của giới tội phạm mạng. Tại sự kiện Tuần lễ An ninh Mạng ở Đà Nẵng đầu tháng 8/2025, ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích Toàn cầu (GReAT) của Kaspersky, cảnh báo: “Chúng ta đang bước vào kỷ nguyên mới của an ninh mạng, nơi AI là tấm khiên phòng thủ nhưng Dark AI lại bị biến thành vũ khí tấn công“. Dark AI bao gồm các mô hình ngôn ngữ lớn (LLMs) hoạt động ngoài kiểm soát, phục vụ lừa đảo, thao túng và tấn công. Bài viết này sẽ mở rộng phân tích về Dark AI dựa trên bài gốc và các nguồn tiếng Anh uy tín, khám phá ví dụ thực tế, rủi ro và giải pháp đối phó.

Dark AI Explained

Dark AI được định nghĩa là việc triển khai LLMs mà không tuân thủ tiêu chuẩn an toàn, nhằm mục đích phi đạo đức hoặc trái pháp luật. Khác với AI chính thống có cơ chế bảo vệ, Dark AI khai thác dữ liệu để tạo nội dung giả mạo, mã độc hoặc deepfake mà không bị giám sát. Theo ông Lozhkin, sự trỗi dậy của Dark AI gắn liền với các mô hình Black Hat GPT từ giữa 2023, như WormGPT, DarkBard, FraudGPT và Xanthorox. Những công cụ này được thiết kế để hỗ trợ tin tặc: WormGPT tạo email lừa đảo kinh doanh (BEC) với tính thuyết phục cao, FraudGPT soạn nội dung lừa đảo tài chính, trong khi Xanthorox – công cụ mới nổi 2025 – tự động hóa hacking bằng cách tạo mã độc và khai thác lỗ hổng. Ví dụ, Xanthorox sử dụng AI để phân tích hệ thống mục tiêu, tạo deepfake giọng nói CEO để lừa chuyển tiền, gây thiệt hại lên đến hàng triệu USD.

Không chỉ tội phạm cá nhân, các nhóm tấn công được hậu thuẫn bởi chính phủ cũng tận dụng Dark AI. Theo báo cáo của IBM X-Force 2025 Threat Intelligence Index, các chiến dịch từ một số quốc gia sử dụng AI để phát tán thông tin sai lệch và tấn công mạng quy mô lớn. OpenAI đã ngăn chặn hơn 20 chiến dịch lạm dụng AI từ đầu 2025, bao gồm các hoạt động từ một số nước nhằm thao túng dư luận và do thám mạng. Trong báo cáo “Disrupting Malicious Uses of AI: June 2025”, OpenAI tiết lộ đã chặn 10 chiến dịch chỉ trong quý II, liên quan đến social engineering, cyber espionage và lừa đảo việc làm. Kẻ xấu sản xuất hàng loạt nội dung giả mạo bằng nhiều ngôn ngữ, vượt qua lớp bảo mật truyền thống, dẫn đến các vụ deepfake lừa đảo lên đến 25.6 triệu USD.

AI vốn trung lập, chỉ thực hiện theo chỉ dẫn, nhưng khi rơi vào tay tội phạm, nó phóng đại mối đe dọa. Theo World Economic Forum’s Global Cybersecurity Outlook 2025, AI làm tăng 1265% các cuộc tấn công phishing và 76% malware đa hình (polymorphic malware), có khả năng thay đổi để tránh phát hiện. Ví dụ thực tế: Hacker sử dụng AI để tạo deepfake video CEO yêu cầu chuyển tiền khẩn cấp, hoặc malware tự học để thích nghi với hệ thống bảo mật. Tại châu Á-Thái Bình Dương, Kaspersky cảnh báo Dark AI đang được các nhóm APT (Advanced Persistent Threat) sử dụng để tấn công tinh vi hơn.

Một rủi ro liên quan là Shadow AI – tình trạng nhân viên tự ý sử dụng AI không được phê duyệt, dẫn đến rò rỉ dữ liệu. Kaspersky ước tính 11% công ty toàn cầu gặp sự cố do Shadow AI trong hai năm qua. Ví dụ, nhân viên dùng công cụ AI bên thứ ba để xử lý dữ liệu nhạy cảm, vô tình tạo lỗ hổng. Để giảm thiểu, Kaspersky khuyến nghị siết chặt kiểm soát truy cập, đào tạo nhân viên và xây dựng trung tâm SOC (Security Operations Center). Các giải pháp bảo mật thế hệ mới, như AI phát hiện mối đe dọa, cũng được đề xuất để đối phó với Dark AI. Theo Darktrace, đến 2025, các tổ chức cần tích hợp AI phòng thủ để dự đoán tấn công cyber-physical, đặc biệt từ các nhóm chính trị hoặc tài chính.

Ngoài ra, các tổ chức quốc tế như Canada’s National Cyber Threat Assessment 2025-2026 nhấn mạnh AI làm tăng mối đe dọa không gian mạng, từ deepfake đến data poisoning. Để bảo vệ, cần hợp tác quốc tế, cập nhật kiến thức và đầu tư vào công nghệ phát hiện AI độc hại.

Dark AI đang cách mạng hóa tội phạm mạng, biến AI từ công cụ hữu ích thành mối đe dọa toàn cầu. Từ Black Hat GPT đến các chiến dịch bị OpenAI chặn, các ví dụ cho thấy rủi ro ngày càng lớn, đặc biệt với Shadow AI trong nội bộ tổ chức. Tuy nhiên, bằng cách tăng cường đào tạo, kiểm soát và sử dụng AI phòng thủ, chúng ta có thể giảm thiểu tác hại. Trong tương lai, sự cân bằng giữa đổi mới AI và an ninh mạng sẽ quyết định sự an toàn của xã hội số. Các tổ chức cần hành động ngay để không trở thành nạn nhân của kỷ nguyên Dark AI.

Nguồn: vista.gov.vn

Về Nguyễn Thị Loan

Check Also

Nghiên cứu dài hạn đã phát hiện được thêm các “trục trặc” trong sao xung tia gamma PSR J0007+7303

Các nhà thiên văn học Trung Quốc đã sử dụng kính thiên văn không gian …