Các chính phủ chạy đua trong việc điều chỉnh những công cụ AI
Những tiến bộ nhanh chóng trong trí tuệ nhân tạo (AI) như ChatGPT của OpenAI do Microsoft hậu thuẫn đang khiến cho các nỗ lực của các chính phủ trong việc đồng ý với các điều luật quản lý về việc sử dụng công nghệ này trở nên phức tạp hơn.
Dưới đây là những động thái mới nhất mà các cơ quan quản lý quốc gia và quốc tế đang thực hiện để quản lý các công cụ AI:
Châu Úc
Tại Úc, hồi tháng 9, cơ quan quản lý internet của nước này cho biết, Úc sẽ yêu cầu các công cụ tìm kiếm soạn thảo những mã mới để ngăn chặn việc chia sẻ các tài liệu lạm dụng tình dục trẻ em do AI tạo ra cũng như sản xuất các phiên bản deepfake của cùng một tài liệu.
Anh
Vào ngày 26/10 trước Hội nghị thượng đỉnh an toàn AI toàn cầu đầu tiên tại Bletchley Park (diễn ra vào ngày 1-2/11), Thủ tướng Rishi Sunak cho biết, các chính phủ và các công ty cần phải xử lý những rủi ro của AI.
Theo thủ tướng Rishi Sunak, Anh sẽ thành lập viện an toàn AI đầu tiên trên thế giới để “hiểu khả năng của từng mô hình mới, khám phá tất cả các rủi ro từ những mặt trái của xã hội như thành kiến và thông tin sai lệch cho đến những rủi ro nghiêm trọng nhất”.
Trước đó, vào ngày 10/10, cơ quan giám sát dữ liệu của Anh cho biết, họ đã đưa ra thông báo sơ bộ cho Snapchat của Snap Inc về việc họ đã không đánh giá đúng những rủi ro về quyền riêng tư của chatbot AI tạo sinh đối với người dùng, đặc biệt là trẻ em.
Trung Quốc
Vào ngày ngày 12/10, Trung Quốc đã công bố các yêu cầu bảo mật được dự kiến thực hiện đối với các công ty cung cấp dịch vụ được cung cấp bởi AI thế hệ mới, bao gồm danh sách đen những tài nguyên không được sử dụng để đào tạo các mô hình AI.
Nước này đã ban hành một loạt biện pháp tạm thời vào tháng 8, yêu cầu các nhà cung cấp dịch vụ gửi đánh giá bảo mật và phải có giấy phép trước khi tung các sản phẩm AI ra thị trường.
Liên minh châu Âu (EU)
Vào ngày 24/10, các nhà lập pháp châu Âu đã đồng ý về một phần quan trọng trong các quy tắc AI mới, đưa ra các loại hệ thống sẽ được coi là "rủi ro cao" và tiến dần đến một thỏa thuận rộng hơn về Đạo luật AI mang tính bước ngoặt và dự kiến sẽ có một thỏa thuận vào tháng 12 tới.
Trước đó, ngày 13/9, Chủ tịch Ủy ban châu Âu Ursula von der Leyen đã kêu gọi thành lập một hội đồng toàn cầu để đánh giá rủi ro và lợi ích của AI.
Pháp
Hồi tháng 4, cơ quan giám sát quyền riêng tư của Pháp cho biết họ đang điều tra các khiếu nại về ChatGPT.
Ngoài ra, hồi tháng 5, các nhà lãnh đạo G7 đã kêu gọi phát triển và áp dụng các tiêu chuẩn kỹ thuật để giữ cho AI “đáng tin cậy”.
Italia
Hồi tháng 5, một quan chức lớn của nước này cho biết, cơ quan bảo vệ dữ liệu của Italia có kế hoạch xem xét các nền tảng AI và thuê các chuyên gia trong lĩnh vực này. ChatGPT đã tạm thời bị cấm ở nước này vào tháng 3, nhưng nó đã được hoạt động trở lại vào tháng 4.
Nhật Bản
Nhật Bản dự kiến sẽ đưa ra các quy định vào cuối năm 2023. Cơ quan giám sát quyền riêng tư của Nhật đã cảnh báo OpenAI không được thu thập dữ liệu nhạy cảm mà không có sự cho phép của người dân.
Ba Lan
Ngày 21/9, văn phòng bảo vệ dữ liệu cá nhân của Ba Lan cho biết, họ đang điều tra OpenAI về khiếu nại rằng ChatGPT vi phạm luật bảo vệ dữ liệu của EU.
Tây Ban Nha
Vào tháng 4, Cơ quan bảo vệ dữ liệu của Tây Ban Nha đã mở một cuộc điều tra sơ bộ về các vi phạm dữ liệu tiềm ẩn của ChatGPT.
Liên Hợp Quốc
Ngày 26/10, Tổng thư ký Liên Hợp Quốc António Guterres đã tuyên bố thành lập một cơ quan cố vấn gồm 39 thành viên, bao gồm các giám đốc điều hành của các công ty công nghệ, quan chức chính phủ và các học giả để xử lý những vấn đề trong quản trị quốc tế về AI.
Vào thời điểm đó, Tổng thư ký António Guterres cho biết, Hội đồng Bảo an Liên Hợp Quốc đã tổ chức cuộc thảo luận chính thức đầu tiên về AI vào hồi tháng 7, đề cập đến các ứng dụng quân sự và phi quân sự của AI “có thể gây ra những hậu quả rất nghiêm trọng đối với hòa bình và an ninh toàn cầu”.
Mỹ
Ngày 30/10, Nhà Trắng đã công bố một sắc lệnh trong đó yêu cầu “các mô hình AI tiên tiến phải trải qua những đánh giá trước khi chúng có thể được nhân viên liên bang sử dụng”.
Hồi tháng 9, Quốc hội Mỹ đã tổ chức các phiên điều trần về AI và diễn đàn AI đã có sự góp mặt của Giám đốc điều hành (CEO) Meta Mark Zuckerberg và Giám đốc điều hành Tesla Elon Musk.
Hơn 60 thượng nghị sĩ đã tham gia các cuộc đàm phán, trong đó CEO Tesla Elon Musk kêu gọi Mỹ làm "trọng tài" cho AI. Các nhà lập pháp cho biết đã có sự nhất trí chung về sự cần thiết phải có quy định của chính phủ đối với công nghệ này.
Vào ngày 12/9, Nhà Trắng cho biết Adobe, IBM, Nvidia và 5 công ty khác đã ký các cam kết tự nguyện của Tổng thống Joe Biden về quản lý AI, trong đó yêu cầu các bước như đóng dấu nội dung do AI tạo ra.
Hồi tháng 8, một thẩm phán quận ở Washington D.C. đã ra phán quyết rằng một tác phẩm nghệ thuật do AI tạo ra mà không có sự can thiệp của con người sẽ không thể có bản quyền theo luật Hoa Kỳ.
Tháng 7, Ủy ban Thương mại Liên bang Hoa Kỳ đã mở một cuộc điều tra về OpenAI với cáo buộc rằng họ đã vi phạm luật bảo vệ người tiêu dùng./.