Úc thiết lập chuẩn mực cho việc sử dụng AI có đạo đức trong chính phủ
Chính phủ Úc vừa ban hành Chính sách sử dụng AI có trách nhiệm, một khung pháp lý được thiết kế để đảm bảo việc triển khai trí tuệ nhân tạo (AI) trong khu vực công diễn ra một cách an toàn, hiệu quả và có đạo đức.
Đây là một phần quan trọng trong chiến lược của Úc nhằm tối đa hóa lợi ích của AI, đồng thời quản lý các rủi ro liên quan, hướng tới mục tiêu trở thành hình mẫu cho việc sử dụng AI có trách nhiệm và duy trì niềm tin của công chúng.
AI đang nhanh chóng định hình lại các ngành công nghiệp, nền kinh tế và hoạt động của chính phủ. Trong khu vực công, AI mang lại cơ hội nâng cao hiệu quả của các dịch vụ chính phủ, cải thiện việc ra quyết định dựa trên dữ liệu và cung cấp nhiều dịch vụ được cá nhân hóa hơn cho công dân.
Chính sách này công nhận tiềm năng chuyển đổi của AI nhưng cũng nhấn mạnh những thách thức đặc thù mà nó mang lại. Niềm tin của công chúng đối với việc sử dụng AI của chính phủ hiện đang ở mức thấp, và sự thiếu hụt niềm tin này có thể cản trở việc áp dụng rộng rãi các công nghệ AI.
Chính sách đặt ra ba mục tiêu chính: Tận dụng lợi ích của AI, củng cố niềm tin của công chúng và thích ứng với sự phát triển của công nghệ theo thời gian.
Tận dụng lợi ích: Chính sách khuyến khích các cơ quan chính phủ tiếp cận AI một cách tự tin và có trách nhiệm. Bằng cách thiết lập các tiêu chuẩn về quản trị, minh bạch và trách nhiệm rõ ràng, chính sách này nhằm loại bỏ các rào cản trong việc áp dụng AI và đảm bảo AI được sử dụng vì lợi ích chung.
Đồng thời, nó cũng thúc đẩy việc thống nhất trong áp dụng AI giữa các cơ quan chính phủ, góp phần nâng cao năng suất và chất lượng dịch vụ.
Tăng cường niềm tin của công chúng: Một trong những rào cản lớn đối với việc áp dụng AI là mối lo ngại của công chúng về quyền riêng tư dữ liệu, tính minh bạch và trách nhiệm giải trình trong các quyết định dựa trên AI. Chính sách giải quyết các lo ngại này bằng cách yêu cầu nâng cao tính minh bạch, quản trị và áp dụng các biện pháp đảm bảo rủi ro.
Theo đó, các cơ quan chính phủ phải công khai chiến lược áp dụng và cách thức sử dụng AI, đảm bảo rằng công dân được thông tin đầy đủ về cách AI đang được sử dụng và những tác động có thể ảnh hưởng đến họ. Sự minh bạch này nhằm xây dựng niềm tin của công chúng và giảm bớt lo ngại về việc sử dụng AI sai mục đích.
Thích ứng theo thời gian: AI là một lĩnh vực phát triển nhanh chóng, và chính sách này công nhận sự cần thiết của một phương pháp linh hoạt và thích ứng.
Các cơ quan chính phủ được yêu cầu giám sát liên tục và điều chỉnh việc sử dụng AI để đảm bảo rằng nó phù hợp với những phát triển công nghệ và yêu cầu pháp lý mới nhất. Chính sách này khuyến khích một phương pháp tiếp cận mang tính dự đoán, cho phép các cơ quan có thể điều chỉnh các chiến lược AI của họ khi cần thiết.
Chính sách này áp dụng cho tất cả các tổ chức phi doanh nghiệp của Khối thịnh vượng chung theo định nghĩa của Đạo luật quản trị công, hiệu suất và trách nhiệm giải trình năm 2013. Mặc dù các tổ chức khối thịnh vượng chung và các cơ quan an ninh quốc gia không bắt buộc phải tuân thủ, nhưng họ được khuyến khích tự nguyện áp dụng các nguyên tắc của chính sách.
Chính sách không hoạt động độc lập mà được thiết kế để bổ sung và củng cố các khuôn khổ hiện có liên quan đến quản trị dữ liệu, an ninh mạng, quyền riêng tư và đạo đức. Các cơ quan chính phủ được yêu cầu xem xét AI trong bối cảnh rộng hơn, đảm bảo cách tiếp cận toàn diện trong việc quản lý rủi ro liên quan đến AI.
Một yếu tố quan trọng trong chính sách là nhấn mạnh việc quản lý rủi ro. Các cơ quan phải tiến hành đánh giá rủi ro toàn diện về các trường hợp sử dụng AI, xem xét các yếu tố như khả năng tiếp cận của công chúng, phân biệt đối xử, lo ngại về quyền riêng tư và tác động đến niềm tin của công chúng.
Đặc biệt, chính sách này cũng cung cấp một ma trận rủi ro để giúp các cơ quan đánh giá mức độ nghiêm trọng và khả năng xảy ra của các rủi ro tiềm ẩn, đảm bảo rằng các biện pháp bảo vệ phù hợp được áp dụng./.