G.I.C - GREEN INTERNATIONAL INFORMATION TECHNOLOGY SOLUTIONS COMPANY LIMITED
page-banner-shape-1
page-banner-shape-2

Làn sóng tẩy chay ChatGPT

  • Tháng 1 29, 2025

Báo cáo an ninh mạng 2025 do VSEC thực hiện cho thấy, gần một nửa số vụ DDoS trong năm qua tại Việt Nam có liên quan đến AI.

John Doe
Designer
blog_review

Trên phạm vi toàn cầu, năm 2025 ghi nhận hơn 28 triệu vụ tấn công mạng có sử dụng AI, tăng 72% so với năm trước. Các cuộc tấn công này đạt tỷ lệ thành công 70%, cao hơn mức 47,6% của phương thức thủ công truyền thống.

Ông Phan Hoàng Giáp, Phó tổng giám đốc kiêm CTO VSEC, cho rằng AI đang làm thay đổi cách thức tấn công. "Kẻ tấn công dùng AI để gia tăng tốc độ và hiệu quả. Nếu chỉ xử lý thủ công, tổ chức rất khó theo kịp", ông nói.

Theo ông, AI cho phép kẻ xấu tự động hóa nhiều khâu trong chuỗi tấn công, từ thu thập thông tin, phát triển công cụ khai thác lỗ hổng đến cá nhân hóa nội dung lừa đảo và mở rộng xâm nhập trong hệ thống. Con người chủ yếu tham gia để tinh chỉnh, tối ưu.

Sự thay đổi này khiến các biện pháp phòng thủ truyền thống ngày càng kém hiệu quả. Trong khi đó, đội ngũ nhân sự tại các trung tâm điều hành an ninh mạng (SOC) đang chịu áp lực lớn.

blog_sing01
blog_sing02

Báo cáo dẫn số liệu cho thấy 90% SOC tồn đọng công việc

Chia sẻ về xu hướng an ninh mạng 2026, báo cáo đưa ra nhận định, AI sẽ được ứng dụng nhiều hơn để nâng cao năng lực phòng thủ. Câu hỏi không còn là có dùng Al hay không, mà là dùng Al ở đâu?

Ưu tiên đầu tiên là phát hiện và tương quan sự kiện. Theo báo cáo, việc ứng dụng AI và tự động hóa trong SOC giúp giảm 33-43% thời gian xác định và ứng phó sự cố so với mô hình không sử dụng AI. Công nghệ này cũng có thể phân loại cảnh báo theo mức độ ưu tiên và gợi ý phương án xử lý theo ngữ cảnh, qua đó giảm gánh nặng cho nhân sự và cải thiện thời gian phản ứng trung bình.

Tuy nhiên, AI không phải "thuốc tiên". Nếu thiếu dữ liệu chuẩn hóa, quy trình vận hành tối ưu và đội ngũ đủ năng lực kiểm soát, AI có thể làm tăng chi phí mà không mang lại hiệu quả tương xứng.

01

Khi AI được triển khai rộng rãi trong doanh nghiệp, chính các hệ thống AI có thể trở thành mục tiêu tấn công, như đầu độc dữ liệu, đánh cắp mô hình, cài nội dung độc hại vào câu lệnh (prompt injection) hoặc lạm dụng AI Agent để truy cập trái phép tài nguyên.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *