"Các anh đùa à, cướp xe? Các anh có thấy tôi đang mang thai 8 tháng không?", Porcha Woodruff , một phụ nữ da màu sống tại Detroit, Michigan (Mỹ), nói với sáu cảnh sát vừa gõ cửa nhà cô.
Woodruff vẫn bị giam giữ và thẩm vấn trong 11 tiếng. Sau khi được thả với số tiền thế chấp 100.000 USD, bà bầu tám tháng phải nhập viện vì mất nước. Một tháng sau, Woodruff được xóa án vì không đủ bằng chứng buộc tội.
Hồ sơ cảnh sát cho thấy cô là nạn nhân của mới nhất do AI nhận dạng sai khuôn mặt. Trong video quay cảnh người phụ nữ cướp ôtô tại trạm xăng, hệ thống dữ liệu quét khuôn mặt khẳng định Woodruff là thủ phạm. Nhưng hồ sơ của điều tra viên chỉ đề cập đến dữ liệu khuôn mặt, không nói gì đến việc người phụ nữ có đang mang thai hay không.
Woodruff's là trường hợp thứ ba bị cảnh sát Detroit bắt nhầm vì nhận dạng khuôn mặt sai. Cô cũng là nạn nhân thứ sáu của công nghệ này tại Mỹ. Cả sáu người bị bắt oan đều là da màu.
Trong nhiều năm, các chuyên gia và người ủng hộ quyền riêng tư đã gióng lên hồi chuông cảnh báo về tình trạng AI không thể xác định chuẩn xác người da màu trong các hệ thống nhận dạng có mục đích. Tuy nhiên, các cơ quan thực thi pháp luật và chính phủ tại Mỹ vẫn tiếp tục ký hợp đồng với nhiều công ty, từ Rekognition của Amazon đến Clearview AI. Các quốc gia như Pháp, Đức, Trung Quốc và Italy cũng đang dùng công nghệ tương tự.
Đầu năm nay, các nhà lập pháp Pháp thông qua luật và trao cho cảnh sát quyền dùng AI tại các không gian công cộng trước Thế vận hội Paris 2024. Cột mốc này đưa Pháp thành quốc gia đầu tiên ở châu Âu (EU) phê duyệt giám sát người bằng AI.
Trở lại Detroit, sau khi bị bắt nhầm, Woodruff đã khởi kiện đơn vị cảnh sát khu vực. Albert Fox Cahn, thuộc Dự án giám sát công nghệ giám sát phi lợi nhuận tại Mỹ, nói: "Chính sách duy nhất có thể ngăn chặn các vụ bắt giữ do nhận diện sai là cấm hoàn toàn công nghệ này. Đáng buồn thay, có lẽ vẫn có hàng chục người Mỹ bị buộc tội sai và không bao giờ đòi được công lý. Những hệ thống AI phân biệt chủng tộc, dễ mắc lỗi đơn giản này không nên có chỗ đứng trong một xã hội công bằng".
Khi chính phủ trên khắp thế giới triển khai AI, tác hại của nó đã bắt đầu ập đến với người dân. Các hệ thống giám sát là một góc khuất của công nghệ nhưng ít được nhắc đến. Ngay cả khi Đạo luật AI của EU đưa ra một số điều khoản hạn chế đối việc sử dụng AI có rủi ro cao như nhận dạng khuôn mặt, một số chuyên gia cho rằng sự cường điệu xung quanh AI tạo sinh đã làm sao nhãng các cuộc thảo luận liên quan đến đạo đức, công bằng AI.
Sarah Chander, cố vấn chính sách cấp cao của tổ chức vận động Quyền kỹ thuật số châu Âu, nói: "ChatGPT khiến nhiều người quên đi thực tế tai hại AI mang lại. Tương tự những hệ thống dữ liệu lớn khác, công nghệ nhận dạng khuôn mặt chỉ hoạt động tốt khi dữ liệu đầu vào được làm sạch. Nhưng hình ảnh đào tạo AI thường là về người da trắng, tỷ lệ nhận diện người da đen rất kém, đặc biệt với nữ giới 18-30 tuổi". Chander dẫn các nghiên cứu của Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ cho thấy trong 140 thuật toán nhận dạng khuôn mặt, tỷ lệ nhầm lẫn cao nhất của AI thường tập trung vào người Đông Phi, Đông Á và sai số thấp nhất là với người Đông Âu.
Ngay cả khi công nghệ hoàn toàn chính xác, nó cũng sẽ không an toàn với cộng đồng. Các nhà nghiên cứu, hoạt động xã hội cho rằng AI có khả năng tạo ra một mạng lưới giám sát rộng lớn và vô tận, phá vỡ bất kỳ sự riêng tư nào trong không gian công cộng. Hệ thống có thể xác định bất cứ nơi nào một người đặt chân đến, ngay cả khi những địa điểm đó được pháp luật bảo vệ về quyền riêng tư.
Trong khi việc AI có thể gián tiếp bỏ tù một người vô tội vẫn chưa có biện pháp giải quyết tận gốc, các chuyên gia khuyến cáo người dùng hạn chế đăng ảnh của mình lên mạng xã hội hoặc các không gian kỹ thuật số công cộng nào. Những hình ảnh này có thể được các công ty thu thập để huấn luyện AI, đào tạo công cụ nhận dạng khuôn mặt. Hệ thống sau đó có thể được dùng để tội phạm hóa ai đó trong tương lai. Khi đó, bất kỳ ai cũng có thể trở thành nạn nhân như Porcha Woodruff - bà bầu tám tháng bị AI buộc tội oan.
Ý kiến ()