Theạosinhđangbịnhữngkẻcựcđoanlợidụpetrolimexo Wired, các nhóm cực đoan đã bắt đầu thử nghiệm AI nhằm tạo ra một làn sóng tuyên truyền mới. Các chuyên gia lo ngại việc các nhóm này ngày càng sử dụng nhiều công cụ AI tổng hợp sẽ làm đảo lộn công việc mà các Big Tech đã thực hiện để ngăn chặn nội dung xấu xuất hiện trên internet.
Trong nhiều năm, các nền tảng mạng đã tạo ra cơ sở dữ liệu về nội dung cực đoan để nhanh chóng và tự động xóa chúng khỏi internet. Nhưng theo Adam Hadley, giám đốc điều hành của Tech Against Terrorism, các đồng nghiệp của ông đã thu thập khoảng 5.000 ví dụ về nội dung do AI tạo ra mỗi tuần. Những nội dung này gồm hình ảnh được chia sẻ bởi các nhóm có liên hệ với Hezbollah và Hamas, được thiết kế để tác động đến cuộc xung đột Israel-Hamas.
Các nhà nghiên cứu tại Tech Against Terrorism gần đây còn phát hiện hình ảnh do AI tạo nên với nội dung phân biệt chủng tộc và chống Do Thái được gắn vào một ứng dụng có sẵn trên cửa hàng Google Play.
Ngoài việc nêu chi tiết về mối đe dọa do các công cụ AI tạo sinh có thể chỉnh sửa hình ảnh, Tech Against Terrorism đã xuất bản một báo cáo trích dẫn những cách mà các công cụ AI có thể được sử dụng để giúp đỡ các nhóm cực đoan. Chúng gồm sử dụng các công cụ dịch tự động để chuyển đổi lời tuyên truyền sang nhiều ngôn ngữ, hoặc khả năng tạo thông điệp được cá nhân hóa trên quy mô lớn để tạo điều kiện thuận lợi cho nỗ lực tuyển dụng trực tuyến.
Song song đó, Hadley tin rằng AI cũng mang đến cơ hội vượt lên trước các nhóm cực đoan và sử dụng công nghệ này để ngăn chặn. Nhóm của ông đã hợp tác với Microsoft để tìm cách sử dụng kho lưu trữ tài liệu nhằm tạo ra một loại hệ thống phát hiện AI thế hệ mới nhằm chống lại mối đe dọa từ AI được sử dụng cho nội dung khủng bố trên quy mô lớn.
Ứng dụng "ghép mặt" bằng AI: Vì sao quân đội Philippines cấm?
Tháng trước, Internet Watch Foundation (IWF), tổ chức phi lợi nhuận có trụ sở tại Anh nhằm xóa nội dung bóc lột trẻ em khỏi internet, đã xuất bản một báo cáo nêu chi tiết về sự hiện diện ngày càng tăng của tài liệu lạm dụng tình dục trẻ em (CSAM) do các công cụ AI tạo ra trên web đen.
Các nhà nghiên cứu đã tìm thấy hơn 20.000 hình ảnh do AI tạo ra được đăng lên một diễn đàn Dark Web về CSAM chỉ trong vòng một tháng, với 11.108 hình ảnh trong số này được các nhà nghiên cứu IWF đánh giá là có nhiều khả năng là tội phạm. IWF nói những hình ảnh AI này có thể thuyết phục đến mức không thể phân biệt được với hình ảnh thật.