Mỹ bắt đầu nghiên cứu quy tắc điều chỉnh các công cụ AI
Mới đây, chính quyền Tổng thống Mỹ Joe Biden cho biết đang lấy ý kiến của công chúng về các biện pháp tăng cường trách nhiệm giải trình đối với các hệ thống trí tuệ nhân tạo (AI), khi mà các câu hỏi về tác động của nó đối với an ninh và giáo dục quốc gia vẫn đang tồn tại.
ChatGPT, một chương trình AI gần đây đã thu hút sự chú ý của công chúng nhờ khả năng viết câu trả lời nhanh chóng cho nhiều loại truy vấn, đặc biệt đã thu hút sự chú ý của các nhà lập pháp Mỹ khi nó trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử với hơn 100 triệu người dùng hoạt động hàng tháng.
Cục Quản lý Thông tin và Viễn thông Quốc gia (NTIA), một cơ quan của Bộ Thương mại tư vấn cho Nhà Trắng về chính sách viễn thông và thông tin, muốn có ý kiến đóng góp vì "sự quan tâm pháp lý ngày càng tăng" đối với "cơ chế trách nhiệm giải trình" của AI.
NTIA muốn biết liệu có biện pháp nào có thể được đưa ra để đảm bảo "rằng các hệ thống AI là hợp pháp, hiệu quả, có đạo đức, an toàn và đáng tin cậy hay không".
“Các hệ thống AI có trách nhiệm có thể mang lại những lợi ích to lớn, nhưng chỉ khi chúng ta giải quyết được những hậu quả và tác hại tiềm ẩn của chúng. Để các hệ thống này phát huy hết tiềm năng, các công ty và người tiêu dùng cần có thể tin tưởng chúng”, quản trị viên NTIA, Alan Davidson, cho biết.
Tổng thống Joe Biden tuần trước cho biết vẫn còn phải xem liệu AI có nguy hiểm hay không. Ông nói: “Theo quan điểm của tôi, các công ty công nghệ có trách nhiệm đảm bảo sản phẩm của họ an toàn trước khi đưa ra thị trường”.
Được tạo ra bởi OpenAI và Microsoft hỗ trợ, ChatGPT đã khiến nhiều người dùng kinh ngạc với việc trả lời nhanh các câu hỏi, nhưng cũng gây khó chịu với những thông tin không chính xác.
Theo Reuters, NTIA dự định sẽ viết một báo cáo khi nghiên cứu "những nỗ lực để đảm bảo các hệ thống AI hoạt động như được quảng cáo, không gây hại", đồng thời cho biết những nỗ lực này sẽ hỗ trợ cho công việc đang diễn ra của chính quyền Biden trong việc "đảm bảo cách tiếp cận toàn diện và gắn kết của chính phủ liên bang với những rủi ro và cơ hội liên quan đến AI".
Trước đó, một nhóm đạo đức công nghệ, Trung tâm AI và Chính sách kỹ thuật số, cũng đã yêu cầu Ủy ban Thương mại Liên bang Mỹ (FTC) ngăn OpenAI phát hành các bản phát hành thương mại của mô hình tiên tiến GPT-4 vì cho rằng nó "thiên vị, lừa đảo và có rủi ro đối với quyền riêng tư và an toàn công cộng".
Trong bối cảnh AI tạo sinh (Generative AI) ghi nhận sự bùng nổ mạnh mẽ về đầu tư và mức độ phổ biến với người dùng, nhất là sau khi OpenAI phát hành ứng dụng ChatGPT, chính phủ một số quốc gia cũng đang xem xét các biện pháp nhằm giảm thiểu nguy cơ liên quan đến công nghệ mới nổi này.
Ngày 11/4, Cơ quan quản lý không gian mạng của Trung Quốc (CAC) cũng đã công bố dự thảo biện pháp quản lý các dịch vụ AI tạo sinh, trong đó yêu cầu các doanh nghiệp gửi đánh giá bảo mật cho chính quyền trước khi đưa dịch vụ ra công chúng./.