Thông cáo báo chí phát đi vào chiều 31/3, Cơ quan bảo vệ dữ liệu Italy ban bố lệnh cấm "cho đến khi ChatGPT tôn trọng quyền riêng tư", đồng thời mở cuộc điều tra đối với OpenAI do lo ngại về cách công ty này xử lý dữ liệu người dùng.
Cụ thể, Cơ quan bảo vệ dữ liệu Italia cáo buộc ChatGPT được Tập đoàn Microsoft đầu tư đã không kiểm tra độ tuổi của những người dùng được cho là từ 13 tuổi trở lên. Đồng thời, ChatGPT cũng không có bất kỳ cơ sở pháp lý nào chứng minh cho việc thu thập và lưu trữ dữ liệu cá nhân lớn để huấn luyện chatbot.
Vào tuần trước, Cơ quan giám sát của Ý đã mở một cuộc điều tra về OpenAI liên quan đến các vi phạm an ninh mạng, trong đó có việc mọi người được xem đoạn trích các cuộc hội thoại ChatGPT của người dùng khác và thông tin tài chính của họ. Theo đó, dữ liệu người dùng đã bị lộ bao gồm họ và tên, địa chỉ thanh toán, loại thẻ tín dụng, ngày hết hạn của thẻ tín dụng và bốn chữ số cuối của thẻ tín dụng của họ (theo nội dung một email do OpenAI gửi cho một khách hàng bị ảnh hưởng).
Với cáo buộc trên, OpenAI có 20 ngày để phản hồi bằng các biện pháp khắc phục hoặc có thể chịu rủi ro bị phạt lên đến20 triệu euro (tương đương 4% doanh thu hằng năm trên toàn thế giới).
Về phía OpenAI, công ty xác nhận đã vô hiệu hóa ChatGPT cho người dùng ở Italy theo yêu cầu của Cơ quan bảo vệ dữ liệu. "Chúng tôi tích cực phối hợp để hạn chế dữ liệu cá nhân trong quá trình đào tạo ChatGPT. Chúng tôi muốn AI tìm hiểu về thế giới chứ không phải về các ngóc ngách cá nhân", công ty nói thêm.
Như vậy, Italy đã trở thành quốc gia phương Tây đầu tiên có hành động chống lại một chatbot sử dụng AI. Chatbot này cũng không được sử dụng ở Trung Quốc, Hồng Kông, Iran và Nga và một số khu vực của Châu Phi, nơi người dân không thể tạo tài khoản OpenAI.