Công nghệ học máy (Machine Learning) và những rủi ro tiềm ẩn

Diễn đàn - Ngày đăng : 18:11, 03/07/2018

Các chuyên gia của diễn đàn Future of Privacy và nền tảng quản trị dữ liệu Immuta cho biết hiện nay vẫn chưa tìm ra được cách thức tiêu chuẩn để đánh giá rủi ro của trí tuệ nhân tạo.

Kết quả hình ảnh cho công nghệ học máy

Ảnh minh họa  (Nguồn: internet)

Nếu bạn đang sử dụng học máy trong doanh nghiệp của mình, có thể bạn nên suy nghĩ về cách quản lý các rủi ro về đạo đức, pháp lý và rủi ro kinh doanh nếu có vấn đề xảy ra.

Theo một bài báo mới từ Diễn đàn Future of Privacy và đại học Park tại Maryland cho biết: nền tảng quản trị dữ liệu Immuta không chỉ đơn giản là một khung tiêu chuẩn khi đề cập đến các vấn đề này.

Andrew Burt, giám đốc bảo mật tại Immuta, một trong những tác giả của bài báo cho biết: “Chúng tôi nhận thấy nhu cầu thực sự cần thiết và cấp bách cho việc xây dựng các hướng dẫn và khung tiêu chuẩn thực tế để đo lường rủi ro của công nghệ học máy”.

Bài báo vừa phát hành đã cung cấp một số hướng dẫn cho các doanh nghiệp về những vấn đề này. Một trong số các đề xuất, lấy cảm hứng từ tài liệu của Cục dự trữ liên bang năm 2011 về xử lý rủi ro mô hình tài chính, là các công ty thiết lập ba “tuyến phòng thủ” trong việc xử lý rủi ro trí tuệ nhân tạo.

Tuyến thứ nhất bao gồm các nhà khoa học dữ liệu và các chuyên gia xác định các giả định và mục tiêu chính xác xung quanh dự án. Tuyến thứ hai là nhóm của chuyên gia dữ liệu và pháp lý. Họ làm việc như "người xác thực" và xem xét các giả định, phương pháp, tài liệu và thông tin về chất lượng dữ liệu. Và hàng phòng thủ thứ ba liên quan đến đánh giá về các giả định tổng thể xung quanh mô hình và cách thức mô hình hoạt động.

Chi tiết về cách đánh giá được thực hiện thế nào sẽ khác nhau trong từng doanh nghiệp.

Brenda Leong, cố vấn cao cấp và giám đốc chiến lược của Diễn đàn Future of Privacy, tác giả của bài báo cho biết "Trong các doanh nghiệp lớn, có thể có nhiều cấp soát xét về mức độ phức tạp hoặc nhiều chuỗi/kênh đánh giá song song cùng nhau xem xét các khía cạnh khác nhau của một vấn đề ".

Báo cáo cũng đưa ra các khuyến nghị trong việc quản lý rủi ro trí tuệ nhân tạo, bao gồm:

  • Lưu giữ tài liệu về việc sử dụng, yêu cầu dữ liệu, yêu cầu tính năng cụ thể của mô hình trí tuệ nhân tạo và nơi dữ liệu cá nhân được sử dụng và bảo vệ;
  • Thực hiện các bước để hiểu và giảm thiểu các thành kiến ​​không mong muốn, chẳng hạn như các vấn đề liên quan đến chủng tộc hoặc giới tính;
  • Giám sát liên tục để phát hiện nếu có vấn đề xảy ra, hoặc nếu dữ liệu, hệ thống đang được trí tuệ nhân tạo sử dụng để phân tích khác xa so với dữ liệu đào tạo;
  • Đảm bảo cập nhật hiểu biết về cách tách công cụ trí tuệ nhân tạo ra khỏi quá trình sản xuất và những gì mà hệ thống này dựa vào để hoạt động;
  • Suy nghĩ rõ ràng về sự cân bằng giữa độ chính xác, hiểu biết của con người, ý nghĩa của hệ thống trí tuệ nhân tạo và bối cảnh sử dụng.

Các khuyến nghị này có thể sẽ được sửa đổi trong tương lai, khi ngành công nghiệp và công nghệ tiếp tục phát triển.

Hợp Trương