AI: 52% doanh nghiệp Việt Nam đã bị tấn công, hiểm họa hay cứu cánh?

AI: 52% doanh nghiệp Việt Nam đã bị tấn công, hiểm họa hay cứu cánh?

Sự phát triển vũ bão của trí tuệ nhân tạo (AI) đang mang đến những cơ hội chưa từng có cho nhân loại, nhưng đồng thời cũng tạo ra một mặt tối đáng lo ngại. AI có thể trở thành công cụ hữu hiệu, giúp các âm mưu phạm tội diễn ra trót lọt hơn gấp nhiều lần.

Đây là một cuộc chiến hai mặt trận, nơi AI vừa là vấn đề, vừa là giải pháp. Ngày 4/6, gã khổng lồ công nghệ Microsoft đã tuyên bố tăng cường hợp tác với các chính phủ châu Âu để chống lại hiểm họa an ninh mạng, với AI đóng vai trò trung tâm trong việc thu thập thông tin tình báo.

Trớ trêu thay, giới tội phạm mạng cũng đang sử dụng chính công nghệ này. Vào tháng 5/2025, Microsoft đã hỗ trợ cảnh sát châu Âu triệt phá mạng lưới ăn cắp thông tin Lumma, một hệ thống sử dụng AI để thu thập mật khẩu và ví tiền điện tử của nạn nhân. Điều này cho thấy tội phạm đã đi trước một bước trong cuộc chạy đua vũ trang công nghệ.

Hiểm họa AI đã hiện hữu: Hơn một nửa doanh nghiệp Việt Nam bị tấn công

Thực tế đáng báo động này được thể hiện rõ qua một khảo sát do Fortinet, công ty an ninh mạng hàng đầu thế giới, công bố vào ngày 3/6/2025. Nghiên cứu chỉ ra sự gia tăng đột biến về quy mô và độ tinh vi của các mối đe dọa an ninh mạng tại khu vực Châu Á – Thái Bình Dương, do AI được sử dụng rộng rãi để tăng tốc và mở rộng các cuộc tấn công.

Khảo sát được thực hiện từ tháng 2/2025 đến tháng 4/2025 với 550 nhà lãnh đạo công nghệ và bảo mật tại 11 thị trường trong khu vực, bao gồm Việt Nam. Kết quả hé lộ một sự thật đáng lo ngại:

  • Tại Việt Nam: Gần 52% tổ chức cho biết đã phải đối mặt với các mối đe dọa mạng được hỗ trợ bởi AI trong năm 2024.
  • Tốc độ gia tăng: 54% tổ chức ghi nhận số vụ tấn công tăng gấp đôi và 36% báo cáo tăng gấp ba lần.

Điều này khẳng định rằng tội phạm mạng sử dụng AI không còn là nguy cơ trên lý thuyết mà đã trở thành một thực tại.

Doanh nghiệp mất tự tin vào khả năng phòng thủ

Các cuộc tấn công do AI hỗ trợ ngày càng khó bị phát hiện hơn vì chúng thường nhắm vào điểm yếu trong hành vi con người, lỗi cấu hình hệ thống và lỗ hổng quản lý. Mức độ tự tin của các tổ chức đang ở mức rất thấp:

  • Chỉ 8% cảm thấy tự tin vào khả năng phòng thủ hiện tại.
  • 30% thừa nhận các mối đe dọa do AI điều khiển đã vượt quá khả năng phát hiện của họ.
  • 33% hoàn toàn không có khả năng giám sát các loại hình tấn công này.

Theo Fortinet, các mối đe dọa gia tăng nhanh nhất bao gồm:

  • Phần mềm mã hóa tống tiền (Ransomware): 32%
  • Lỗ hổng đám mây: 28%
  • Tấn công vào hệ thống IoT/OT: 24%
  • Tấn công chuỗi cung ứng: 22%
  • Lỗ hổng chưa vá và zero-day: 20%

Hậu quả của các cuộc tấn công này không chỉ là thời gian ngừng hoạt động. Các tác động lớn nhất đối với doanh nghiệp là gián đoạn hoạt động (58%), trộm cắp dữ liệu (54%), và mất niềm tin của khách hàng (50%). Đáng chú ý, 44% người tham gia khảo sát cho biết họ đã bị vi phạm dữ liệu dẫn đến thiệt hại tài chính, trong đó cứ 4 vụ thì có 1 vụ gây thiệt hại trên 500.000 USD.

Cuộc chiến không cân sức: Tội phạm mạng dùng AI để thích nghi và dự đoán

Một bài phân tích trên tạp chí CPO đã ví von cuộc chiến an ninh mạng hiện đại như một ván cờ vua, nơi tội phạm mạng không dùng vũ lực mà dùng trí tuệ để quan sát, dự đoán và khai thác điểm yếu.

“Với AI, tội phạm mạng không chỉ tấn công. Chúng thích nghi. Chúng dự đoán. Chúng ghi nhớ… Thách thức đối với chúng ta là mỗi khi chúng ta đưa ra một chiến lược phòng thủ mới, chúng lại đưa ra một hình thức tấn công mới. Và giờ đây, với AI, chúng đang đưa ra các cuộc tấn công mới nhanh hơn bao giờ hết.”

Chuyên gia an ninh mạng quốc tế James Martin cho biết, mỗi giây có tới 11 nạn nhân của một cuộc tấn công phần mềm độc hại, tương đương hơn 340 triệu nạn nhân mỗi năm. Trong năm 2024, Bắc Mỹ chứng kiến số vụ tấn công bằng ransomware tăng 15%, và 59% doanh nghiệp tại 14 quốc gia lớn đã bị nhắm tới trong 12 tháng qua.

Con người là mắt xích yếu nhất

AI đang được tội phạm mạng khai thác triệt để nhằm vào con người. Công nghệ này giúp tin tặc tạo ra các kịch bản lừa đảo (phishing) tinh vi và đáng tin hơn. Một nghiên cứu cho thấy 60% người tham gia đã bị thuyết phục bởi các cuộc tấn công lừa đảo do AI tạo ra, một tỷ lệ thành công tương đương với các tin nhắn do con người viết.

Tại châu Âu, AI đang được dùng để tạo ra hàng nghìn email lừa đảo mỗi ngày, yêu cầu thanh toán các khoản phí giả mạo. Trước đây, các email này dễ bị phát hiện do lỗi chính tả hoặc hình ảnh kém chất lượng. Giờ đây, với AI, chúng trở nên trau chuốt, chính xác và được cá nhân hóa, khiến người dùng dễ dàng sập bẫy.

AI và vấn nạn tin giả

Một khía cạnh nguy hiểm khác là khả năng AI phát tán thông tin sai lệch. Các chatbot nổi tiếng đã bị phát hiện “bịa chuyện” để xác thực thông tin giả:

  • Gemini (Google): Khi được yêu cầu xác minh một hình ảnh do AI tạo ra, chatbot này không chỉ khẳng định ảnh thật mà còn bịa thêm chi tiết về bối cảnh.
  • Grok: Chatbot này tuyên bố một video giả về “rắn khổng lồ trên sông Amazon” là có thật và viện dẫn các chuyến thám hiểm không tồn tại để củng cố lời nói dối.

Chuyên gia McKenzie Sadeghi từ NewsGuard khẳng định các chatbot AI không phải là nguồn tin tức đáng tin cậy. Tại Việt Nam, đã xuất hiện trào lưu sử dụng AI để tạo nội dung sai lệch về lịch sử, chính trị nhằm thu hút người xem, bất chấp các chuẩn mực đạo đức và pháp luật.

Giải pháp: Dùng “AI trắng” chống lại “AI đen”

Trước cuộc tấn công vũ bão của “AI đen”, giải pháp tất yếu là sử dụng chính AI để phòng thủ. Đây là hướng đi mà Microsoft và các tập đoàn công nghệ hàng đầu đang theo đuổi. Tương tự như “hacker mũ trắng” trước đây, “AI trắng” được xem là lựa chọn hàng đầu để chống lại các hiểm họa an ninh mạng, bên cạnh yếu tố quan trọng nhất là sự tỉnh táo và tinh thần phản biện của mỗi người dùng.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *