Nhiều quốc gia tăng cường triển khai các sáng kiến AI có trách nhiệm
Trí tuệ nhân tạo (AI) là một trong những xu hướng công nghệ được thảo luận nhiều nhất trên thế giới và được dự báo sẽ tăng GDP toàn cầu thêm 15,7 nghìn tỷ USD vào năm 2030. Nhưng sức mạnh lớn thì đi kèm với đó cũng là trách nhiệm lớn.
Khi những lợi ích và tiềm năng phát triển của AI tạo ra sự thay đổi ngày càng rõ ràng, rủi ro cũng vậy. Các thuật toán có thể gây ra sự thiên vị, sự ngờ vực đối với những lĩnh vực đang ứng dụng công nghệ này. Lo ngại về tốc độ phát triển nhanh chóng của AI, nhiều tổ chức đã bắt đầu ban hành các quy định, cam kết tuân thủ các nguyên tắc về nghiên cứu và sử dụng AI có trách nhiệm.
AI có trách nhiệm là một lĩnh vực mới nổi của quản trị AI bao gồm đạo đức và các giá trị pháp lý trong việc phát triển và triển khai những lợi thế của AI. Là một khuôn khổ quản trị, AI có trách nhiệm ghi lại cách một tổ chức cụ thể giải quyết các thách thức xung quanh AI nhằm phục vụ lợi ích cho tổ chức, cá nhân và xã hội.
Các chính sách quản lý chưa theo kịp sự phát triển của AI
Tốc độ phát triển nhanh chóng của AI dường như không có dấu hiệu chậm lại. Đột phá nhanh chóng đến mức khiến các quy định cũng như các chính sách quản lý AI chưa theo kịp tộc độ phát triển của công nghệ này.
Chỉ trong năm vừa qua, chúng ta đã chứng kiến nhiều sự phát triển, từ các mô hình học sâu tạo ra hình ảnh từ văn bản, đến các mô hình ngôn ngữ lớn có khả năng trả lời bất kỳ câu hỏi nào mà người dùng đặt ra. Mặc dù tốc độ phát triển rất ấn tượng, nhưng việc các chính sách quản lý chưa theo kịp những tác hại tiềm tàng của mỗi bước đột phá mới có thể đặt ra thách thức lớn.
Theo một báo cáo của MIT Sloan Management Review và Boston Consulting Group, vấn đề là nhiều công ty, tổ chức thậm chí không thể nhận ra rằng họ có vấn đề ngay từ đầu.
AI là ưu tiên chiến lược hàng đầu đối với 42% số người được hỏi trong báo cáo, nhưng chỉ 19% cho biết tổ chức của họ đã triển khai chương trình AI có trách nhiệm. Khoảng cách này làm tăng khả năng thất bại và khiến các công ty gặp rủi ro về quy định, tài chính và uy tín.
AI có trách nhiệm không chỉ đơn giản là phát triển một tính năng bổ sung. Theo đó, các tổ chức sẽ cần thực hiện những thay đổi đáng kể về cấu trúc để dự đoán việc triển khai AI nhằm đảm bảo rằng các hệ thống tự động của họ hoạt động trong các ranh giới pháp lý, đáng tin cậy và có đạo đức.
Trên thực tế, chúng ta ngày càng thấy các doanh nghiệp (DN) coi trách nhiệm xã hội và đạo đức là một ưu tiên chiến lược quan trọng. Thách thức chính là làm thế nào để tối đa hóa được lợi thế trong khi vẫn đảm bảo việc sử dụng có trách nhiệm và đạo đức.
Nhiều quốc gia tăng cường triển khai các sáng kiến AI có trách nhiệm, đạo đức, tin cậy
Sự phát triển và đầu tư vào lĩnh vực AI ngày càng lớn, đi kèm với đó là những lo ngại về sự gia tăng của những tác động không mong muốn, với những rủi ro ảnh hưởng đến cả khía cạnh kỹ thuật của hệ thống và thực tiễn quản trị.
Trên thực tế, nhiều nghiên cứu đã chỉ ra rằng việc ra quyết định dựa trên AI có khả năng dẫn đến các kết quả sai lệch từ phân biệt chủng tộc trong các thuật toán kiểm soát dự đoán cho đến các quyết định tuyển dụng phân biệt giới tính. Do đó, những năm gần đây nhiều quốc gia trên thế giới đã thắt chặt các quy định nhắm vào AI, tăng cường áp dụng các sáng kiến AI có trách nhiệm, đạo đức, tin cậy.
Ở cấp độ châu Âu, Ủy ban Liên minh châu Âu (EU) đã thành lập Nhóm chuyên gia cấp cao về AI, được giao nhiệm vụ phát triển một khuôn khổ tích hợp AI có trách nhiệm và tin cậy, đồng thời cũng đã đề xuất Chỉ thị về trách nhiệm pháp lý của AI.
Chỉ thị về trách nhiệm pháp lý của AI là đặt ra các quy tắc thống nhất để truy cập thông tin, đồng thời giảm bớt gánh nặng chứng minh liên quan đến các thiệt hại do hệ thống AI gây ra, thiết lập sự bảo vệ rộng rãi hơn cho nạn nhân (có thể là cá nhân hoặc DN) và thúc đẩy lĩnh vực AI bằng cách tăng các khoản bảo lãnh.
Đây là một phần trong những nỗ lực rộng lớn hơn nhằm ngăn chặn các công ty phát triển và triển khai AI có hại, đồng thời thêm một lớp bổ sung vào Đạo luật AI của EU. Đạo luật này sẽ yêu cầu kiểm tra thêm đối với việc sử dụng AI “có rủi ro cao”, chẳng hạn như ứng dụng AI trong lĩnh vực sử dụng chính sách, tuyển dụng hoặc chăm sóc sức khỏe.
Đạo luật AI của EU có khả năng trở thành tiêu chuẩn vàng toàn cầu cho quy định về AI, giống như Quy định chung về bảo vệ dữ liệu (GDPR), các quy tắc này nhằm mục đích tạo ra một "hệ sinh thái tin cậy" quản lý rủi ro AI và ưu tiên quyền con người trong quá trình phát triển và triển khai AI.
Cách tiếp cận theo ngành của Đạo luật AI của EU sẽ giúp đảm bảo rằng có các tiêu chuẩn nhất quán trên toàn diện để điều chỉnh công nghệ này. Các quy tắc áp đặt các nghĩa vụ tương ứng với rủi ro của hệ thống, đảm bảo các hệ thống có khả năng gây hại không được triển khai ở EU, trong khi những hệ thống ít hoặc không có rủi ro có thể được sử dụng tự do. Những ngành có rủi ro cao sẽ bị hạn chế tương ứng, đồng thời không cản trở cơ hội đổi mới và phát triển.
Trong nỗ lực xây dựng các chính sách quản lý AI có trách nhiệm, châu Âu cũng không hề đơn độc. Văn phòng Chính sách Khoa học và Công nghệ của Nhà Trắng gần đây cũng đã công bố Kế hoạch chi tiết cho Dự luật về quyền AI, trong đó phác thảo tầm nhìn của chính phủ Mỹ về quản trị AI để ngăn chặn tác hại tiềm ẩn.
Trong khi đó, Trung Quốc cũng đã đề xuất một bộ luật để điều chỉnh các ứng dụng khác nhau của AI. Khi các quy định, chính sách quản lý này có hiệu lực, các DN sẽ cần phải thay đổi cách họ hoạt động trên quy mô toàn cầu.
Kiểm toán để đảm bảo ứng dụng AI có trách nhiệm
Việc đảm bảo các tác động có hại hoặc ngoài ý muốn được giảm thiểu hoặc không xảy ra trong suốt vòng đời của các dự án AI đòi hỏi sự hiểu biết toàn diện về vai trò của các nguyên tắc có trách nhiệm trong quá trình thiết kế, triển khai và bảo trì các ứng dụng AI.
Kiểm toán AI là nghiên cứu và thực hành đánh giá, giảm thiểu và đảm bảo tính an toàn, tính hợp pháp và đạo đức của thuật toán.
Mục đích của kiểm toán AI là đánh giá một hệ thống bằng cách vạch ra các rủi ro của nó trong cả chức năng kỹ thuật và cấu trúc quản trị, đồng thời đề xuất các biện pháp có thể được thực hiện để giảm thiểu những rủi ro này.
Theo Diễn đàn kinh tế thế giới (WEF), khi đánh giá một hệ thống, điều quan trọng là phải xem xét 5 yếu tố sau:
Tính hiệu quả: xem xét liệu một hệ thống có thực hiện đúng ý nghĩa của nó và hoạt động như mong đợi hay không.
Đáng tin cậy: các hệ thống phải đáng tin cậy, an toàn và bảo mật, không dễ bị giả mạo hoặc xâm phạm dữ liệu mà chúng được đào tạo.
Tính công bằng: các hệ thống cần đảm bảo tính công bằng, không có thiên kiến với các cá nhân hoặc nhóm.
Khả năng giải thích: các hệ thống nên đưa ra các quyết định hoặc đề xuất mà người dùng, nhà phát triển và cơ quan quản lý có thể dễ dàng hiểu được.
Quyền riêng tư: các hệ thống nên được đào tạo tuân theo các nguyên tắc giảm thiểu dữ liệu, cũng như áp dụng các kỹ thuật tăng cường quyền riêng tư để giảm thiểu rò rỉ dữ liệu cá nhân hoặc dữ liệu quan trọng.
Trong khi mọi người đều muốn AI có trách nhiệm, thì dường như vẫn chưa có nhiều tổ chức, DN thực sự quan tâm và ưu tiên vấn đề này. Tuy nhiên, chúng ta không thể đánh giá thấp việc đảm bảo trách nhiệm của AI, vì nó giúp đảm bảo rằng một hệ thống AI sẽ hoạt động hiệu quả, hoạt động theo các tiêu chuẩn đạo đức và ngăn ngừa khả năng thiệt hại về tài chính và uy tín trong tương lai.
Ngoài ra, khi các quốc gia cũng tăng cường các quy định về AI để đảm bảo việc nghiên cứu và sử dụng AI một cách có trách nhiệm, đạo đức, các DN sẽ sớm phải tuân thủ các quy định về AI toàn cầu và sẽ cần thực hiện một cách tiếp cận có trách nhiệm hơn để duy trì tính cạnh tranh và tránh trách nhiệm pháp lý. Theo WEF, cách tốt nhất là các tổ chức cần bắt đầu sớm và hợp tác với nhiều bên liên quan chính để có cách tiếp cận toàn diện hơn đối với AI có trách nhiệm./.