Nỗi lo về nội dung deepfake do công nghệ trí tuệ nhân tạo (AI) tạo ra đang ngày một tăng trước thềm cuộc bầu cử quốc hội ở Hàn Quốc vào tháng 4 tới, buộc giới chức nước này tăng cường cảnh giác.
Theo Ủy ban Bầu cử quốc gia Hàn Quốc (NEC), kể từ ngày 29-1 đến 18-2, cơ quan này đã phát hiện 129 nội dung truyền thông do AI tạo ra đã vi phạm luật bầu cử vừa được sửa đổi nhằm ngăn chặn sự phát tán của thông tin sai sự thật.
Hãng tin Yonhap ngày 19-2 cho biết nội dung deepfake từng xuất hiện trong các cuộc bầu cử trước đây ở Hàn Quốc. Chẳng hạn như trong cuộc bầu cử cấp tỉnh vào năm 2022, một đoạn video do AI tạo ra đã được lan truyền trên mạng xã hội, trong đó mô tả Tổng thống Yoon Suk-yeol ủng hộ một ứng viên địa phương của đảng cầm quyền.
Trong bối cảnh công nghệ AI tiếp tục phát triển và phổ biến, giới chuyên gia cảnh báo mức độ phức tạp và tốc độ sản xuất nội dung deepfake có thể gia tăng, "vượt mặt" quy trình xác minh truyền thống được các cơ quan bầu cử sử dụng.
Nhân viên Ủy ban bầu cử quốc gia Hàn Quốc giám sát hành vi vi phạm luật bầu cử ở TP Daegu ngày 8-2. Ảnh: YONHAP
Tại Mỹ, một nhóm 20 công ty công nghệ lớn – trong đó có Microsoft, Meta và Google – vừa bắt tay đối phó tin giả do AI tạo ra trong các cuộc bầu cử năm nay. Các công ty tham gia cam kết đánh giá rủi ro, tìm cách phát hiện và giải quyết hành vi lan truyền tin giả trên nền tảng của họ.
Đài CNBC dẫn dữ liệu của Công ty Clarity (Mỹ) cho biết nội dung deepfake do AI tạo ra trong năm 2023 đã tăng 900% so với năm 2022. Đáng lo ngại hơn, công nghệ phát hiện deepfake đến nay vẫn chưa phát triển đủ nhanh để theo kịp rủi ro này.
Đến thời điểm hiện tại, nhóm công ty nêu trên chỉ đang thống nhất những vấn đề liên quan tiêu chuẩn kỹ thuật và cơ chế phát hiện deepfake. Nói cách khác, họ còn cả một chặng đường dài phía trước để đối phó vấn đề này.
Theo Cao Lực/NLĐO
Bình luận (0)