Trong vài tuần qua, đã có không ít cảnh báo về các mối đe dọa an ninh liên quan đến AI, từ các mã độc có thể xâm nhập vào thông tin đăng nhập của trình quản lý mật khẩu Chrome đến các cuộc tấn công nghiêm trọng do AI thực hiện, với chi phí chỉ từ $5 để tạo ra. Tuy nhiên, các cuộc tấn công deepfake nhắm vào người dùng smartphone, bất chấp những nỗ lực bảo vệ từ các công ty như Google, lại đang trở thành mối lo ngại lớn nhất. Những cuộc tấn công này thuyết phục đến mức các chuyên gia bảo mật, bao gồm FBI, đã đưa ra cảnh báo và khuyên người dân nên ngừng cuộc gọi ngay lập tức và tạo ra một mã bảo mật để bảo vệ bản thân. Dưới đây là những điều bạn cần biết và làm.
Ảnh: Internet
FBI và các chuyên gia bảo mật cảnh báo về các cuộc tấn công smartphone do AI điều khiển
Mặc dù bạn có thể ngay lập tức nghĩ đến các video đổi mặt khi nói về các cuộc tấn công deepfake, nhưng đó chỉ là một phần nhỏ của mối đe dọa. Nếu bạn muốn kiểm tra khả năng nhận diện deepfake, có một bài kiểm tra nhanh, nhưng hãy cảnh giác vì nó khó hơn bạn nghĩ. Các cuộc tấn công âm thanh deepfake, được điều khiển bởi AI, bắt đầu thu hút sự chú ý của công chúng sau khi tôi viết một bài báo gây chú ý vào năm 2024 về một chuyên gia bảo mật suýt bị lừa, với những hậu quả rất tốn kém.
Adrianus Warmenhoven, một chuyên gia an ninh mạng tại NordVPN, đã gia nhập vào những người cảnh báo người dùng iPhone và Android về mối đe dọa này. “Kẻ lừa đảo điện thoại ngày càng sử dụng công cụ tạo giọng nói (voice cloning) trong các hoạt động gian lận của họ vì phần mềm này đã trở nên dễ tiếp cận và hiệu quả theo thời gian”, Warmenhoven cho biết. Một phương pháp phổ biến hiện nay là sử dụng âm thanh deepfake để “tiếp cận các thành viên trong gia đình của người mà chúng đang giả mạo”, và ép buộc họ gửi tiền bằng cách giả vờ có một tình huống khẩn cấp.
Theo báo cáo của Truecaller và The Harris Poll vào tháng 10 năm 2024, tại Mỹ, số lượng nạn nhân của các cuộc gọi lừa đảo đã vượt qua 50 triệu người trong 12 tháng qua, với tổng thiệt hại ước tính là $452 mỗi nạn nhân. “Khi deepfake đang thay đổi mạnh mẽ cảnh quan của các cuộc gọi lừa đảo điện thoại”, Warmenhoven cảnh báo, “việc hiểu biết về công nghệ voice cloning, cách thức hoạt động của nó và cách nó có thể được sử dụng trong các cuộc lừa đảo, chẳng hạn như giả mạo một thành viên trong gia đình để yêu cầu tiền hoặc thông tin cá nhân, là cực kỳ quan trọng”.
Europol tham gia cảnh báo về các mối đe dọa tấn công do AI điều khiển
Xác nhận rằng cấu trúc của tội phạm có tổ chức đang thay đổi, Catherine De Bolle, giám đốc điều hành của Europol, cho biết các tổ chức tội phạm hiện nay đang sử dụng công nghệ để trở nên “linh hoạt hơn và nguy hiểm hơn bao giờ hết”. Báo cáo đánh giá mối đe dọa tội phạm có tổ chức mới nhất ở châu Âu đã đưa ra một cảnh báo nghiêm trọng về việc AI đang gia tốc hóa các hoạt động tội phạm. “AI đang thay đổi căn bản cảnh quan của tội phạm có tổ chức”, báo cáo này cho biết. Bằng cách nhanh chóng tận dụng các công nghệ mới, kẻ tấn công có thể tự động hóa và mở rộng các hoạt động tội phạm, khiến chúng trở nên quy mô lớn và khó phát hiện hơn.
Europol cho biết AI đang ngày càng được sử dụng trong các âm mưu gian lận trực tuyến, dựa vào các cuộc tấn công xã hội để có được lượng dữ liệu lớn, bao gồm cả thông tin cá nhân bị đánh cắp. “Hầu hết các hình thức tội phạm nghiêm trọng và có tổ chức đều có dấu vết số”, báo cáo nhấn mạnh, “dù là công cụ, mục tiêu hay phương tiện hỗ trợ”.
Evan Dornbush, một cựu chuyên gia an ninh mạng của NSA, đã chia sẻ: “Giá trị của AI là làm mọi thứ nhanh hơn”, chứ không phải sáng tạo, kiên trì hay phát minh. Dornbush không sai. Kẻ tấn công có thể tạo ra những thông điệp tinh vi và đáng tin cậy trong thời gian rất ngắn, và quan trọng nhất là chúng có thể tự động điều chỉnh mỗi phiên bản để ngày càng thuyết phục hơn. “Nhưng tốc độ không quan trọng nếu chúng ta không thể làm gián đoạn khả năng kiếm tiền của kẻ tấn công”, Dornbush kết luận. “AI đang giảm chi phí cho tội phạm, và cộng đồng cần những cách thức mới để giảm lợi nhuận của chúng, tăng ngân sách hoạt động của mình hoặc cả hai”.
Ảnh: Internet
Lời khuyên của FBI về cách đối phó với cuộc tấn công âm thanh deepfake trên smartphone
Như tôi đã báo cáo vào ngày 7 tháng 12 năm 2024, FBI cũng đã cảnh báo công chúng về những cuộc tấn công này. Thực tế, FBI đã phát hành một cảnh báo công cộng số I-120324-PSA về vấn đề này. Cả FBI và Warmenhoven đều đưa ra lời khuyên giống nhau, mặc dù có vẻ khắc nghiệt và đáng sợ: hãy ngừng cuộc gọi ngay lập tức và tạo ra một mã bảo mật chỉ được biết bởi gia đình và bạn bè thân thiết của bạn.
Warmenhoven cũng khuyên rằng mọi người nên cẩn trọng với nội dung đăng tải trên mạng xã hội. “Mạng xã hội là nguồn tài nguyên công khai lớn nhất cung cấp mẫu giọng nói cho tội phạm mạng”, Warmenhoven cảnh báo. Điều này có nghĩa là mọi người nên thận trọng với những gì họ đăng tải vì nó có thể bị lợi dụng để gây hại đến an ninh của họ “thông qua sự phát triển của deepfakes, voice cloning và các cuộc lừa đảo khác được hỗ trợ bởi các công cụ AI”.
Để giảm thiểu rủi ro từ các cuộc tấn công AI ngày càng tinh vi và nguy hiểm này đối với người dùng iPhone và Android, FBI khuyến cáo rằng mọi người nên ngừng cuộc gọi ngay lập tức nếu nhận được cuộc gọi từ người thân hoặc bạn bè yêu cầu tiền bạc theo cách thức như vậy, và xác minh danh tính của người gọi bằng cách liên hệ trực tiếp. FBI cũng cảnh báo rằng tất cả công dân nên tạo ra một từ hoặc cụm từ bảo mật mà chỉ bạn và những người thân thiết của bạn biết, và sử dụng từ này để nhận diện người gọi tự nhận là người đang gặp khó khăn, bất kể họ nghe có thuyết phục đến đâu. Cuộc gọi deepfake này sẽ dựa vào các đoạn âm thanh từ các video trên mạng xã hội, sau đó được đưa qua các công cụ AI để tạo ra hiệu quả là người đó nói bất kỳ điều gì được nhập vào.