Các hình ảnh giả được chia sẻ rầm rộ gần đây cho thấy nguy cơ tiềm ẩn của thông tin sai lệch do trí tuệ nhân tạo (AI) tạo ra và sự cần thiết của việc phải cảnh giác để có thể chống lại thông tin sai lệch.
Những hình ảnh chấn động
Theo AFP, một hình ảnh dường như cho thấy vụ nổ tại Lầu Năm Góc đã được lan truyền rộng rãi trong ngày 22.5. Hóa ra, đây là sản phẩm của AI. Dù vậy, nó đã gây hoang mang cho cộng đồng mạng và khiến thị trường chứng khoán Mỹ lao dốc trong một khoảng thời gian ngắn. Bộ Quốc phòng Mỹ phải lên tiếng khẳng định không có vụ nổ nào xảy ra.
Hình ảnh giả mạo do AI tạo ra về vụ nổ ở Lầu Năm Góc. Twitter
Đây không phải lần đầu tiên các hình ảnh giả do AI tạo ra gây xôn xao dư luận. CNN đưa tin, thời gian qua một loạt hình ảnh gây sốc đã được nhiều người dùng mạng chia sẻ, như ảnh Giáo hoàng Francis mặc một chiếc áo phao hàng hiệu màu trắng. Ngay cả tổng giám đốc (CEO) Tesla và là người đồng sáng lập OpenAI (công ty đứng sau ChatGPT) Elon Musk cũng trở thành nạn nhân của AI khi xuất hiện hình ảnh ông nắm tay như đang hẹn hò với đối thủ kinh doanh Mary Barra, CEO của General Motors.
Hồi tháng 3, trong lúc cựu Tổng thống Mỹ Donald Trump đối diện rắc rối pháp lý liên quan cáo buộc chi tiền để "bịt miệng" diễn viên phim khiêu dâm Stormy Daniels, nhiều hình ảnh cho thấy ông bị Sở Cảnh sát New York (NYPD) bắt giữ bỗng lan truyền với tốc độ chóng mặt. Trong các tấm ảnh đó, ông Trump chống cự, chạy trốn khỏi các sĩ quan và còn bị ngã. Thực tế đó cũng là sản phẩm của AI và NYPD đã bác bỏ những hình ảnh trên.
Những vụ việc này cho thấy thực tế đáng lo ngại rằng thông tin sai lệch do AI tạo ra có thể tác động đến bất kỳ lĩnh vực nào, từ tôn giáo đến kinh doanh và chính trị. Đồng thời, những thông tin này đang ngày càng trở nên phổ biến, khiến người xem khó có thể phân biệt thật giả.
Các ông lớn công nghệ đang cố gắng chống lại nạn tin giả do AI tạo ra. Reuters
Bậc thầy tạo ra tin giả
Sự phát triển của AI đang mang lại sức mạnh chưa từng có trong việc sáng tạo nội dung. Nếu trước đây, người dùng thành thạo thao tác chỉnh sửa mới có thể tạo ra các bức ảnh giả như trên thì bây giờ công việc này có thể được hoàn thành với phòng thí nghiệm AI là Midjourney chỉ qua vài dòng mô tả.
Nhật tham gia cuộc đua AI với siêu máy tính Theo Nikkei Asia, các nhà nghiên cứu Nhật Bản ngày 22.5 đã công bố kế hoạch sử dụng siêu máy tính Fugaku của nước này để tạo ứng dụng AI giống ChatGPT. Dự án do Viện công nghệ Tokyo phối hợp Đại học Tohoku, Viện nghiên cứu Riken và Hãng Fujitsu, nhà đồng phát triển siêu máy tính Fugaku, thực hiện. Các nhà nghiên cứu sẽ phát triển một mô hình ngôn ngữ lớn (LLM) cho AI tạo sinh, tập trung vào tiếng Nhật. Mô hình của họ sẽ lấy dữ liệu nguồn mở từ Wikipedia và các nguồn khác với mục tiêu tạo ra những kết quả chính xác hơn bằng tiếng Nhật. |
Dù AI mang lại nhiều lợi ích, việc lạm dụng công nghệ này đã sinh ra hiện tượng deepfake, tức việc tạo ra video, hình ảnh hoặc âm thanh giả mạo với độ chân thực cao. Sản phẩm của deepfake có khả năng đánh lừa, đưa ra thông tin sai lệch và thao túng dư luận. Những thông tin này có hệ lụy rất lớn như kích động bạo lực, làm phân cực xã hội và làm suy yếu niềm tin. Ngoài ra, tốc độ lan truyền thông tin sai lệch trên mạng xã hội thường áp đảo nỗ lực vạch trần hoặc đính chính thông tin. Vì vậy, đây là vấn đề chúng ta cần khẩn trương giải quyết.
Bên cạnh đó, việc giáo dục kiến thức và trang bị cho người dùng mạng các kỹ năng tư duy phản biện là điều rất cần thiết trong thời đại kỹ thuật số này. Vì vậy, Tổ chức Giáo dục, khoa học và văn hóa LHQ (UNESCO) cho rằng chính phủ, tổ chức giáo dục và công ty công nghệ phải hợp tác để đảm bảo công dân có công cụ cần thiết, giúp xác định và chống lại thông tin sai lệch do AI tạo ra.
Trong diễn biến khác, Reuters ngày 23.5 đưa tin tỉ phú Mỹ Bill Gates nhận định tại một sự kiện ở bang California (Mỹ) rằng cuộc đua AI sẽ xóa bỏ công cụ tìm kiếm và các trang web mua sắm trực tuyến trong tương lai. Ông Gates cũng nói cơ hội giành chiến thắng trong cuộc đua này đang được chia đều cho các công ty khởi nghiệp và các gã khổng lồ công nghệ.
Theo Như Trần/TNO
Bình luận (0)