Hình ảnh được công bố vào ngày 6 tháng 8 năm 2018, Sophia, một robot hình người do Hanson Robotics phát triển
Các nguyên tắc này được gọi là "Kế hoạch chi tiết về Tuyên ngôn nhân quyền của AI." Đây là một bản kế hoạch chỉ rõ cách thức thiết kế, xây dựng sản phẩm AI. Đề xuất trên không phải là một bộ quy tắc và cũng không bao gồm các điều khoản thi hành cụ thể, mà là tác động đến các nhà phát triển hệ thống AI để bảo vệ các quyền kỹ thuật số và dân sự.
Bộ nguyên tắc này do Văn phòng Chính sách Khoa học và Công nghệ của Nhà Trắng đề ra. Chúng được ban hành khi các hệ thống AI ngày càng được sử dụng trong nhiều lĩnh vực khác nhau.
Hình bìa của bộ nguyên tắc (Kế hoạch chi tiết về Tuyên ngôn nhân quyền của AI)
Bộ nguyên tắc xác định năm lĩnh vực nhằm hướng dẫn "việc thiết kế, sử dụng và triển khai các hệ thống tự động để bảo vệ công chúng Mỹ trong thời đại trí tuệ nhân tạo". Năm lính vực đó là: Hệ thống an toàn và hiệu quả; bảo vệ phân biệt đối xử bằng thuật toán; bảo mật dữ liệu; thông báo và giải thích; các giải pháp thay thế con người, cân nhắc và dự phòng.
"Một trong số những thách thức lớn đặt ra đối với nền dân chủ ngày nay là việc sử dụng công nghệ, dữ liệu và hệ thống tự động theo cách đe dọa quyền của công chúng Mỹ. Thông thường, những công cụ này được sử dụng để hạn chế cơ hội của người dân và ngăn cản quyền truy cập của họ vào những tài nguyên hoặc dịch vụ quan trọng. Ở Mỹ và trên toàn thế giới, các hệ thống được cho là giúp chăm sóc bệnh nhân đã được chứng minh là không an toàn, không hiệu quả hoặc thiên vị. Các thuật toán được sử dụng trong các quyết định tuyển dụng và tín dụng đã được phát hiện để phản ánh và tái tạo những bất bình đẳng không mong muốn hiện có hoặc có thành kiến và phân biệt đối xử. Việc thu thập dữ liệu trên mạng xã hội không được kiểm soát đã được sử dụng để đe dọa cơ hội của mọi người, xâm phạm quyền riêng tư hoặc theo dõi tràn lan hoạt động của họ — mà thường là họ không biết hoặc không đồng ý." – thông cáo của Nhà trắng, Mỹ. |
Những hướng dẫn này đã được thiết lập trong năm qua với sự hợp tác của nhiều cơ quan chính phủ, Lãnh đạo văn phòng cho biết trong một tuyên bố. Văn phòng đã tiếp nhận tư vấn từ các nhóm xã hội dân sự, các nhà công nghệ, các nhà nghiên cứu và các công ty công nghệ lớn.
Các quan chức Hoa Kỳ nói với hãng thông tấn Mỹ Asssociated Press rằng bộ nguyên tắc này thể hiện sự tiến bộ trong nỗ lực giữ cho các công ty công nghệ có trách nhiệm về các hệ thống AI mà họ phát triển và triển khai. Các hướng dẫn được thiết kế để hạn chế ảnh hưởng thiên vị trong các hệ thống AI.
Các nhà phê bình về AI đã ghi nhận nhiều trường hợp mà các hệ thống tự động đã xác định sai hoặc phân biệt đối xử với mọi người dựa trên chủng tộc hoặc giới tính. Một số nghiên cứu và báo cáo đã đưa ra dẫn chứng về những tác hại do các công cụ AI.
Ví dụ, hệ thống nhận dạng khuôn mặt được sử dụng bởi các cơ quan thực thi pháp luật đã dẫn đến những vụ bắt giữ oan sai. Trong một lần tình cờ, một hệ thống tự động đã phân biệt đối xử với những cá nhân có nguồn gốc da đen tìm kiếm hỗ trợ tài chính tại các trường cao đẳng. Ở trường hợp khác, các hệ thống AI được sử dụng để quản lý chăm sóc sức khỏe đã phân biệt đối xử với những bệnh nhân da đen.
Một lãnh đạo văn phòng dẫn chứng với các phóng viên những ví dụ trên cho thấy một số hệ thống AI "đang gây ra những tác hại thực sự trong cuộc sống của người Mỹ". Quan chức này bổ sung thêm rằng các hệ thống AI vô trách nhiệm như vậy đi ngược lại các giá trị dân chủ, "bao gồm quyền cơ bản về quyền riêng tư và tự do không bị phân biệt đối xử ..."
Bộ nguyên tắc này cũng thúc giục các nhà phát triển AI xây dựng các công cụ trong hệ thống cho phép người dùng quyền kiểm soát dữ liệu của họ. Các nhà phát triển cũng được khuyến khích đảm bảo các hệ thống tự động được sử dụng một cách an toàn và minh bạch.
Một số chuyên gia công nghệ cảnh báo rằng các biện pháp như vậy có thể gây tổn hại cho một số doanh nghiệp Mỹ nếu các nguyên tắc này trở thành quy định bắt buộc. Người đứng đầu Phòng Thương mại Hoa Kỳ, một tổ chức phi chính phủ, Jordan Crenshaw, cho biết ông không muốn bộ nguyên tắc được ban hành thành luật của Hoa Kỳ. Nếu điều này xảy ra, nó có thể cản trở khả năng cạnh tranh của Mỹ trong việc phát triển AI với các nước khác.
Ở châu Âu, những đề xuất như vậy còn phát triển mạnh hơn. Năm ngoái, Liên minh châu Âu (EU) đã đề xuất một bộ quy định nhằm chi phối công nghệ AI. Các nhà lập pháp EU hiện đang tranh luận về các đề xuất, bao gồm các lĩnh vực như giám sát tự động, bảo vệ quyền riêng tư và thiên vị hệ thống. Bộ quy định này được gọi là Luật Trí tuệ Nhân tạo.
Một số nhóm đã cảnh báo rằng những đề xuất của EU có thể tạo ra các rào cản quan liêu cho các doanh nghiệp công nghệ. Đề xuất này có thể đưa ra các chế tài mạnh và phạt người vi phạm.
Viện Brookings, viện chính sách có trụ sở tại Hoa Kỳ, mới đây đã chỉ trích một phần của Luật Trí tuệ Nhân tạo. Viện này cho rằng kế hoạch của EU thiết lập giới hạn đối với AI nguồn mở có thể "tập trung hơn nữa quyền lực trong tương lai của AI vào các công ty công nghệ lớn."
AI mã nguồn mở là một công nghệ trí tuệ nhân tạo mà cộng đồng và các công ty có thể sử dụng miễn phí. Viện Brookings cho rằng việc hạn chế loại hình AI này sẽ dẫn đến hai loại tác hại. Nó sẽ giữ nhiều hệ thống AI bị kiểm soát của các công ty công nghệ lớn, lâu đời và từ chối cơ hội phát triển các công cụ AI mới của các doanh nghiệp nhỏ. Hơn nữa, bộ quy định được đề xuất của EU sẽ hạn chế các nghiên cứu có giá trị và làm giảm tính mở của các hệ thống AI đã được sử dụng rộng rãi, Viện Brookings nhận định.
Với Việt Nam, việc xem xét các biện pháp bảo vệ người dân, đặc biệt là trẻ em trước các tác hại của AI cũng cần được đặt ra ngay từ bây giờ. Thách thức đặt ra với chích sách quản lý AI là phải đảm bảo đồng thời hai yếu tố, vừa đảm bảo dữ liệu trong AI được sử dụng một cách an toàn và minh bạch, không phân biện đối xử, đồng thời tăng cường cơ hội phát triển các công cụ AI mới của các doanh nghiệp vừa và nhỏ./.