Tất cả chuyên mục
Thứ Bảy, 02/11/2024 00:29 (GMT +7)
Trí tuệ nhân tạo đang bị lợi dụng cho tấn công mạng, tin sai sự thật
Thứ 2, 24/07/2023 | 10:10:34 [GMT +7] A A
Một quan chức an ninh mạng cao cấp Canada cho biết trí tuệ nhân tạo (AI) đang bị lợi dụng để tạo mã độc, soạn email lừa đảo, phát tán tin sai sự thật trên mạng.
Trong cuộc phỏng vấn tuần này với Reuters, Giám đốc Trung tâm an ninh mạng Canada, Sami Khoury, cho biết cơ quan của ông phát hiện AI đang bị dùng trong “email lừa đảo, mã độc, tin sai sự thật và xuyên tạc”.
Dù không đưa ra bằng chứng chi tiết, nhận xét của ông Khoury cho thấy tội phạm mạng đã không bỏ qua AI, cuộc cách mạng công nghệ đang càn quét Silicon Valley.
Vài tháng gần đây, nhiều tổ chức an ninh mạng đã công bố các báo cáo lên tiếng về rủi ro giả định của AI, đặc biệt là các chương trình xử lý ngôn ngữ lớn (LLM) được đào tạo dựa trên lượng lớn dữ liệu của người dùng để tạo ra những đoạn văn bản, hình ảnh, video… như thật.
Báo cáo hồi tháng 3 của Cảnh sát châu Âu Europol chỉ ra các mô hình như ChatGPT của OpenAI khiến cho việc mạo danh một tổ chức, cá nhân diễn ra theo cách dễ dàng chỉ cần nắm được tiếng Anh cơ bản. Cũng trong tháng này, Trung tâm an ninh mạng quốc gia Anh cảnh báo rủi ro tội phạm mạng sử dụng LLM để mở rộng năng lực tấn công mạng.
Các nhà nghiên cứu bảo mật đã minh họa nhiều tình huống sử dụng AI độc hại khác nhau. Một số chuyên gia bắt đầu ghi nhận nội dung nghi do AI tạo ra ngoài đời. Tuần trước, một cựu tin tặc cho biết đã phát hiện một LLM đào tạo bằng dữ liệu độc hại và yêu cầu nó phác thảo một kịch bản lừa người khác chuyển tiền. LLM phản hồi bằng email ba đoạn, đề nghị “con mồi” hỗ trợ bằng giọng điệu khẩn trương.
“Tôi hiểu rằng việc thông báo quá gấp nhưng khoản thanh toán này vô cùng quan trọng và cần thực hiện trong vòng 24 giờ”, LLM viết.
Theo ông Khoury, dù việc dùng AI để viết mã độc mới ở giai đoạn đầu, AI phát triển quá nhanh khiến rất khó biết được nguy cơ tiềm tàng của nó trước khi bị tung ra. “Không ai biết điều gì sẽ xảy ra”, ông nhận xét.
Theo Vietnamnet
Liên kết website
Ý kiến ()