AI biến các vụ lừa đảo và deepfake trở nên nguy hiểm hơn

Sự phát triển vượt bậc của trí tuệ nhân tạo (AI) đã cách mạng hóa mọi khía cạnh cuộc sống, tuy nhiên chatbot và các thuật toán cũng “mở đường” cho các cuộc tấn công phi kỹ thuật (social engineering attack) mới tinh vi và nguy hiểm hơn.

AI đã làm thay đổi nhiều hình thức tấn công mạng.
AI đã làm thay đổi nhiều hình thức tấn công mạng.

Báo cáo Identity Fraud năm 2025 cho biết, trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra và dự báo năm 2026, có thể tới 90% nội dung trực tuyến sẽ được tạo ra bằng AI.

Mục tiêu chính của các cuộc tấn công deepfake và phishing AI vẫn nhắm vào người dùng phổ thông với thông tin cá nhân, ngân hàng, và thanh toán; các doanh nghiệp là nơi lưu giữ dữ liệu và tài sản có giá trị.

Kaspersky đã quan sát và phát hiện ra tội phạm mạng đang sử dụng các mô hình ngôn ngữ lớn (LLM) để tạo nội dung cho các cuộc tấn công phishing và lừa đảo quy mô lớn.

Những cuộc tấn công này thường để lại dấu vết đặc trưng của AI, chẳng hạn như các cụm từ “Là một mô hình ngôn ngữ AI…” hoặc “Mặc dù tôi không thể làm chính xác điều bạn muốn, nhưng tôi có thể thử điều gì đó tương tự”…

Những dấu hiệu trên đã tiết lộ nội dung giả mạo đó được tạo ra bởi LLM.

Ảnh Kaspersky 2 - From phishing to deepfakes how AI is fueling a new wave of cyber scams.jpg

AI đang được sử dụng để đánh cắp dữ liệu của người dùng qua ba cách: Phishing là một hình thức lừa đảo trên internet nhằm dụ dỗ nạn nhân tiết lộ thông tin đăng nhập hoặc chi tiết thẻ ngân hàng.

Tin nhắn phishing thường giả danh thông báo từ ngân hàng, nhà cung cấp dịch vụ, hệ thống thanh toán điện tử, hoặc các tổ chức khác. Trước đây, các nội dung phishing thường sơ sài, đầy lỗi sai với nội dung thiếu thuyết phục. Giờ đây, các mô hình ngôn ngữ lớn (LLM) cho phép kẻ tấn công tạo ra các tin nhắn và trang web cá nhân hóa, đưa ra thông điệp thuyết phục, với ngữ pháp chính xác, cấu trúc logic, và các đoạn văn mượt mà.

Deepfake âm thanh là công nghệ sử dụng AI để tạo ra những đoạn âm thanh giả mạo giọng nói của người khác một cách chân thực. Chỉ với vài giây ghi âm giọng nói, AI có thể tạo ra các bản audio y hệt giọng nói của ai đó thân quen, chẳng hạn như bạn bè hoặc người thân.

Điều đáng lo ngại là công nghệ ngày càng phát triển, kẻ tấn công có thể lợi dụng giọng nói của bạn để yêu cầu chuyển tiền khẩn cấp hoặc cung cấp thông tin nhạy cảm, dựa vào sự tin tưởng giữa các cá nhân để thực hiện hành vi lừa đảo ở cả cấp độ cá nhân lẫn doanh nghiệp.

Kẻ tấn công còn có thể sử dụng công cụ AI để tạo ra các đoạn video giả mạo deepfake (Deepfake video) chỉ từ một bức ảnh duy nhất mà còn có thể hoán đổi khuôn mặt trong video, đồng bộ chuyển động môi, tinh chỉnh các lỗi tạo ra và thêm giọng nói chân thực cho nhân vật.

Phía Kaspersky cho hay, thay vì lo sợ chúng ta nên tập trung vào việc nâng cao nhận thức và cải thiện hiểu biết về an ninh mạng.

Mỗi cá nhân có thể tự bảo vệ mình bằng cách luôn cập nhật thông tin, cảnh giác và cẩn trọng trong các tương tác trực tuyến. Các tổ chức cũng có thể chủ động giảm thiểu rủi ro liên quan đến AI bằng cách triển khai các giải pháp bảo mật hiệu quả, cải thiện quy trình an ninh và thực hiện các sáng kiến phù hợp.

Bằng cách chủ động đối mặt và xử lý các thách thức này một cách thận trọng, chúng ta có thể cùng nhau xây dựng một môi trường số an toàn và đáng tin cậy hơn…

Tin cùng chuyên mục