Khoa học - Công nghệSản phẩm công nghệ

Lo ngại việc dùng AI để truyền bá thông tin sai lệch

Tạp Chí Giáo Dục

Ngày 30/5, OpenAI công bố cách công cụ trí tuệ nhân tạo (AI) của họ đang được sử dụng cho hoạt động gây ảnh hưởng bí mật, tiết lộ rằng công ty đã làm gián đoạn các chiến dịch truyền bá thông tin sai lệch có nguồn gốc từ Nga, Trung Quốc, Israel và Iran.

Một số người đã sử dụng mô hình AI của công ty để tạo và đăng nội dung tuyên truyền trên các nền tảng mạng xã hội, cũng như dịch nội dung của họ sang nhiều ngôn ngữ. Theo báo cáo, không có chiến dịch nào tiếp cận được lượng lớn khán giả.

Khi AI sáng tạo trở thành một ngành công nghiệp đang bùng nổ, các nhà nghiên cứu và nhà lập pháp ngày càng lo ngại về khả năng tăng số lượng và chất lượng của thông tin sai lệch. Các công ty AI như OpenAI (phát triển ChatGPT) đã nhiều lần cố gắng làm dịu những lo ngại này và đặt rào chắn quanh công nghệ của họ.

Lo ngại việc dùng AI để truyền bá thông tin sai lệch ảnh 1

Khách tham quan bên cạnh logo Open AI tại Đại hội Di động Thế giới (MWC), cuộc họp mặt thường niên lớn nhất của ngành viễn thông

Báo cáo dài 39 trang của OpenAI là một trong những báo cáo chi tiết nhất của một công ty AI về việc sử dụng phần mềm của họ để tuyên truyền. OpenAI cho biết, các nhà nghiên cứu của họ đã phát hiện và cấm các tài khoản liên quan năm hoạt động gây ảnh hưởng bí mật trong ba tháng qua, đến từ cả các chủ thể nhà nước và tư nhân.

Theo OpenAI, họ có kế hoạch phát hành định kỳ báo cáo tương tự về các hoạt động gây ảnh hưởng bí mật, cũng như xóa các tài khoản vi phạm chính sách của mình.

Ở Nga, hai hoạt động được tạo ra nhằm lan truyền nội dung chỉ trích Mỹ, Ukraine và một số quốc gia vùng Baltic. Một trong những hoạt động đã sử dụng mô hình OpenAI để tạo bot đăng trên ứng dụng nhắn tin Telegram. Hoạt động của phía Trung Quốc là tạo ra văn bản bằng tiếng Anh, tiếng Trung, tiếng Nhật và tiếng Hàn, sau đó đăng lên Twitter và Medium.

Một số nguồn từ Iran đã tạo ra các bài báo chỉ trích Mỹ và Israel, sau đó được dịch sang tiếng Anh và tiếng Pháp. Một công ty Israel tên là Stoic đã điều hành một mạng lưới tài khoản mạng xã hội giả mạo nhằm sáng tạo nhiều nội dung, bao gồm các bài đăng cáo buộc cuộc biểu tình của sinh viên Mỹ chống lại cuộc chiến của Israel ở Gaza là theo chủ nghĩa bài Do Thái.

Một số kẻ phát tán thông tin sai lệch thông qua OpenAI đã được các nhà nghiên cứu và chính quyền để ý. Hồi tháng 3, Mỹ đã xử phạt hai người đàn ông Nga được cho là đứng sau một trong những chiến dịch bị OpenAI phát hiện, trong khi Meta cũng cấm Stoic khỏi nền tảng trong năm nay vì vi phạm chính sách của họ.

Báo cáo cũng nhấn mạnh cách AI đang được đưa vào các chiến dịch phát tán thông tin sai lệch như một phương tiện cải thiện nội dung, như tạo các bài đăng bằng tiếng nước ngoài thuyết phục hơn, nhưng nó không phải là công cụ duy nhất để tuyên truyền.

“Tất cả các hoạt động này đều sử dụng AI ở một mức độ nào đó, nhưng không có hoạt động nào sử dụng chỉ riêng AI”, báo cáo cho biết. “Thay vào đó, thông tin do AI tạo ra chỉ là một trong nhiều loại nội dung họ đăng, bên cạnh các định dạng truyền thống hơn như văn bản hoặc hình ảnh được sao chép từ khắp nơi trên Internet”.

Dù không có chiến dịch nào có tác động đáng chú ý, nó cho thấy rằng một số kẻ đã tận dụng AI để cho phép họ mở rộng quy mô tuyên truyền. Giờ đây, việc viết, dịch và đăng nội dung đều có thể được thực hiện hiệu quả hơn thông qua việc sử dụng các công cụ AI, vượt qua nhiều rào cản trong việc tạo ra thông tin sai lệch

Năm qua, nhiều cá nhân khắp thế giới đã sử dụng AI để cố gắng gây ảnh hưởng đến chính trị và dư luận. Công nghệ deepfake, hình ảnh do AI tạo ra và các chiến dịch dựa trên văn bản đều được sử dụng để gây nhiễu các chiến dịch bầu cử, dẫn đến việc các công ty như OpenAI phải tăng cường việc hạn chế sử dụng các công cụ của họ.

Theo Thùy Anh/TPO (Nguồn: eunews.it)

 

Bình luận (0)