Trước đây, nội dung rác hoặc sai lệch thường được tạo bởi cá nhân hoặc tổ chức cho mục đích nhất định. Tuy nhiên, chỉ cần nhập một vài yêu cầu đơn giản lên các mô hình AI tạo sinh như ChatGPT, giờ đây ai cũng có thể tạo ra các nội dung mà người dùng phổ thông sẽ khó phân biệt với tin tức thực tế.
NewsGuard lấy ví dụ AI tạo câu chuyện bịa đặt rằng bác sĩ của Thủ tướng Israel Benjamin Netanyahu đã chết và để lại mảnh giấy "gợi ý có sự tham gia của ông Netanyahu". Nhân vật bác sĩ là hư cấu, nhưng câu chuyện đã được một chương trình truyền hình Iran đưa tin, sau đó một số trang truyền thông đăng tải, cũng như được lan truyền trên TikTok, Reddit và Instagram.
"Một số website dùng trí tuệ nhân tạo để sinh ra hàng trăm, thậm chí hàng nghìn bài báo mỗi ngày. Đây là lý do chúng tôi gọi AI là kẻ siêu truyền bá thông tin sai lệch tiếp theo", Jack Brewster, đứng đầu nhóm nghiên cứu của NewsGuard, nói với Washington Post.
Cũng theo Brewster, website đăng nội dung AI được đặt tên chung chung, như iBusiness Day hay Ireland Top News. Để tăng tính thuyết phục, chúng thường xen kẽ tin giả với tin thật lấy từ các nguồn uy tín.
"Việc đặt song song khiến những câu chuyện lừa đảo trở nên đáng tin hơn", giáo sư Jeffrey Blevins, giảng viên chuyên về báo chí và thông tin sai lệch tại Đại học Cincinnati (Mỹ), nói. "Có những người không đủ hiểu biết để nhận biết thông tin sai sự thật hoặc gây hiểu nhầm".
Blevins cho biết có nhiều động cơ để tạo website dạng này, như để thu hút số lượt xem, tăng doanh thu quảng cáo, nhưng cũng có trang được lập để truyền bá thông tin bầu cử hoặc hạ bệ đối thủ chính trị. "Đây là mối lo ngại lớn", ông nói. "Mối nguy hiểm nằm ở phạm vi và quy mô của AI, nhất là khi chúng đang trở nên thông minh, chứa thuật toán tạo nội dung phức tạp và khó phân biệt. Đó là cuộc chiến thông tin ở quy mô chúng tôi chưa từng thấy trước đây".
Người dùng có thể phát hiện nội dung AI thông qua cách hành văn, nhất là phần "ngữ pháp kỳ quặc" hoặc lỗi về cấu trúc câu. Tuy nhiên, công cụ hiệu quả nhất là nâng cao hiểu biết và có thói quen kiểm tra thêm thông tin từ nguồn chính thống thay vì chỉ tin vào một nguồn duy nhất.
Hồi tháng 4, giáo sư ngành luật Jonathan Turley cũng bị ChatGPT đưa vào danh sách những học giả từng quấy rối người khác. Mọi chuyện bắt đầu khi giáo sư luật Eugene Volokh thuộc Đại học California đặt câu về tình trạng giảng viên quấy rối tình dục. Chatbot liệt kê 5 trường hợp, nhưng khi Volokh kiểm tra, có ba phản hồi sai, trích dẫn bài viết không có thật từ Washington Post, Miami Herald và Los Angeles Times. Tên của giáo sư Turley xuất hiện trong danh sách đó.
Đầu năm nay, Brian Hood, thị trưởng vùng Hepburn Shire ở bang Victoria của Australia, cũng dọa kiện OpenAI sau khi ChatGPT đưa ra tin sai lệch rằng ông từng ngồi tù do bị kết tội hối lộ.
Theo WSJ, chatbot AI hiện hoạt động bằng cách tiếp thu lượng lớn nội dung trên Internet, truy xuất từ những nguồn như Wikipedia và Reddit, nhằm tạo ra những phản hồi có vẻ đáng tin cậy với gần như mọi câu hỏi được đưa ra. Chúng cũng được huấn luyện nhận diện mẫu câu chữ để tạo ra những câu nói và bài viết hoàn chỉnh. Tuy nhiên, mô hình ngôn ngữ hiện nay không có cơ chế đủ tin cậy để xác thực nội dung do chúng đưa ra.
Ý kiến ()