Cần ngừng sự phân biệt đối xử do AI tạo ra

Mai Linh, Phạm Thu Trang, Lâm Thị Nguyệt| 15/08/2018 17:31
Theo dõi ICTVietnam trên

Một số tổ chức nhân quyền đã ký một tuyên bố kêu gọi các Chính phủ và các công ty giúp công nhận công nghệ AI là một sự hỗn tạp, nhưng sẽ rất khó khăn.

Tổ chức Ân xá Quốc tế và Access Now đã chuẩn bị “Tuyên bố Toronto” (PDF), tuyên bố mà đã được Tổ chức Theo dõi Nhân quyền và Quỹ Wikimedia ký kết. Đây là một tuyên bố mở; các công ty, chính phủ và các tổ chức khác đang được kêu gọi để có thêm sự chứng thực của họ.

Khi các hệ thống học máy phát triển trong khả năng và gia tăng sử dụng, chúng ta phải kiểm tra các tác động tích cực và tiêu cực của các công nghệ này. Chúng ta thừa nhận tiềm năng của các công nghệ này được sử dụng tốt và thúc đẩy quyền con người, nhưng cũng xảy ra khả năng cố ý hoặc vô tình phân biệt đối xử với cá nhân hoặc nhóm người.

Chúng ta phải tập trung vào việc các công nghệ này sẽ ảnh hưởng như thế nào đến con người và nhân quyền. Trong một thế giới của các hệ thống học máy, ai sẽ chịu trách nhiệm về việc làm tổn hại đến quyền con người?

Đạo đức đã trở thành một điểm nhấn quan trọng trong ngành công nghiệp AI. Tuy nhiên, phần lớn các cuộc hội thoại cho đến nay đã tập trung vào việc vẽ các đường màu đỏ hạn chế khi nói đến các ứng dụng giám sát và quân sự.

Có một cuộc tranh luận lớn về tác động tiềm tàng của AI đối với công việc. Một số người tin rằng tự động hóa sẽ gây ra tình trạng thiếu việc làm, trong khi những người khác cho rằng hầu hết công việc sẽ đơn giản hóa nhờ sự tăng cường bởi AI.

Nếu các công việc được thay thế, các ý tưởng như thu nhập toàn cầu sẽ phải được kiểm tra lại. Nếu các công việc được tăng cường, thì việc đảm bảo AI là công nghệ khiến tăng sự phân biệt đối xử sẽ không còn quan trọng nữa.

AI ĐÃ ĐÃ THỂ HIỆN SỰ PHÂN BIỆT ĐỐI XỬ

Các công nghệ được phát triển và sử dụng ở phương Tây thường được phát triển bởi nam giới da trắng.

Nghiên cứu được thực hiện đã chỉ ra sự phân biệt về giới tính và chủng tộc của các giám đốc điều hành tại Thung lũng Silicon. Dữ liệu này ít nhất cung cấp một số dấu hiệu của vấn đề phân biệt như sau:

Điều này có nghĩa là, một cách vô tình, các sản phẩm thường hoạt động tốt hơn cho các nhóm đối tượng cụ thể nào đó. Hiện nay, điều đó có thể có nghĩa là một trình duyệt tương đối thông dụng như Siri sẽ nhận ra giọng nam giới Mỹ với độ chính xác cao hơn (ngay cả khi so với giọng nam giới Anh, các sản phẩm phát triển ở Silicon Valley thường phải vật lộn mới nhận ra giọng của tôi!).

Một nghiên cứu năm 2010 của các nhà nghiên cứu tại NIST và Đại học Texas ở Dallas đã phát hiện ra rằng các thuật toán được thiết kế và thử nghiệm ở Đông Á tốt hơn trong việc nhận diện người Đông Á, trong khi những thuật toán được thiết kế ở các nước phương Tây chính xác hơn trong việc phát hiện người da trắng.

Tuy nhiên, nếu công việc ngày càng trở nên phụ thuộc vào AI, họ cần phải làm việc tốt để đảm bảo mọi người đều có thể sử dụng chúng. Nếu không làm như vậy, thì sẽ hình thành những nhóm nhất định có lợi thế lớn hơn so với những nhóm khác.

Từ việc kiểm soát các hệ thống phúc lợi, ngôn ngữ trực tuyến tới chăm sóc sức khỏe, hệ thống sử dụng công nghệ học máy có thể thay đổi hoặc củng cố nhanh chóng các cấu trúc quyền lực hoặc sự bất bình đẳng trên quy mô chưa từng có và gây thiệt hại đáng kể cho nhân quyền.

Policing là một lĩnh vực quan tâm đặc biệt. Một báo cáo điều tra của ProPublica cho thấy rằng “điểm đánh giá rủi ro” do máy tính tạo ra để xác định tính đủ điều kiện để ra quyết định tạm tha cho các nghi phạm có khả năng cao hơn gấp hai lần đối với các bị cáo là kẻ phạm tội có khả năng phạm tội tái diễn, mặc dù bằng chứng thể hiện trái ngược.

Tương tự, một nghiên cứu năm 2012 của IEEE cho thấy camera giám sát cảnh sát sử dụng nhận dạng khuôn mặt để xác định tội phạm nghi ngờ là chính xác hơn từ 5 đến 10% khi xác định người Mỹ gốc Phi - điều này có thể dẫn đến nhiều người da đen vô tội bị bắt.

Các mô hình học máy cho AI thường được huấn luyện về dữ liệu công cộng và do đó chúng ta phải cẩn thận về những nguồn nào được sử dụng. Nỗ lực của Microsoft để tạo ra một chatbot có thể học hỏi từ công chúng, được gọi là Tay, lại đem về một kết quả đáng buồn, đó là trở thành một nhân vật đưa ra các nhận xét phân biệt chủng tộc và giới tính.

Tuyên bố đã ký hôm nay là một khởi đầu tuyệt vời để lưu ý những vấn đề này khi các công nghệ AI đang được phát triển.

Nổi bật Tạp chí Thông tin & Truyền thông
Đừng bỏ lỡ
Cần ngừng sự phân biệt đối xử do AI tạo ra
POWERED BY ONECMS - A PRODUCT OF NEKO