Tại sao sự đa dạng trong AI góp phần xây dựng một xã hội công bằng hơn

03:58 PM 22/05/2019 In bài viết

Vào năm 2013, Eric Loomis, cư dân vùng Wisconsin, một tiểu bang miền Trung Tây của Hoa Kỳ, đã bị kết tội vì liên quan đến vụ lái xe xả súng và nhận án phạt 6 năm tù giam, 5 năm giám sát kéo dài. Và kết án này, một phần, được hình thành từ một thuật toán. Điều này khiến cho nhiều người đặt câu hỏi liệu rằng chúng ta có nên sử dụng những công nghệ như vậy trong một quy trình luôn luôn do con người lãnh đạo hay không.

Thuật toán, được gọi là Hồ sơ quản lý tội phạm cho các biện pháp trừng phạt thay thế, viết tắt là COMPAS, hoạt động như một công cụ đánh giá rủi ro để xem xét khả năng tái phạm của một người. Hoa Kỳ bỏ tù nhiều người hơn bất kỳ quốc gia nào khác, và chính quyền phải đối mặt với áp lực ngày càng tăng của việc hạ thấp dân số trong các nhà giam. COMPAS sẽ khắc phục tình trạng này bằng cách chỉ nhốt những tên tội phạm được coi là phá hoại nhất đối với xã hội.

Chương trình sử dụng bảng câu hỏi với thang điểm từ 1-10, đại diện cho khả năng mỗi người phạm tội sẽ tiếp tục phạm tội khác. Những người được coi là có nguy cơ cao - như Loomis - có nhiều khả năng nhận được bản án khắc nghiệt hơn. Thực tế, về cơ bản, COMPAS có trách nhiệm xúc tiến quá trình xử lý vụ việc của tòa án.

Tuy nhiên, thuật toán mà COMPAS sử dụng được phát triển một cách bí mật và nó đã phải đối mặt với những cáo buộc là không công bằng và thiên vị đối với một số nhân khẩu học nhất định. Một cuộc điều tra của ProPublica năm 2016 đã phát hiện ra rằng COMPAS đánh giá các bị cáo người da đen có khả năng tái phạm gấp đôi so với da trắng chỉ vì màu da của họ, dẫn đến những án phạt khắc nghiệt hơn. Điều quan trọng cần nhớ là các bị cáo không được hỏi ý kiến về việc sử dụng công nghệ này hay không.

Loomis không phải là trường hợp duy nhất trong đó trí tuệ nhân tạo được sử dụng để hỗ trợ các quyết định trong hệ thống tư pháp - thực tế, Vương quốc Anh cũng sử dụng nó. Thuật toán HART của Durham Constellect có trách nhiệm thông báo cho nhân viên cảnh sát về việc liệu một bị cáo có nên được đưa đến một chương trình phục hồi hay không và gần đây nó đã bị kiểm tra lại một cách cẩn thận sau những cáo buộc về việc phân biệt đối xử người nghèo.

Sự phổ biến của AI trong toàn bộ hệ thống luật pháp hình sự là dấu hiệu cho thấy sự lan tỏa ngày càng tăng của nó trong toàn xã hội cũng như các vấn đề tiềm ẩn mà nó có thể gây ra. Tuy nhiên, vấn đề chúng ta gặp phải là công nghệ chưa thực sự  có “hiểu biết” đầy đủ.

Rõ ràng là khi AI không được thiết kế với tất cả mọi người trong tâm trí, sự phân nhánh sẽ xuất hiện. Mới gần đây, Amazon đã từ bỏ một công cụ tuyển dụng được xây dựng bằng cách đưa hàng trăm CV được chọn trong quá khứ vào một thuật toán. Hầu hết những CV này đến từ các ứng viên nam, dẫn đến công cụ cho rằng phụ nữ là không phù hợp với công ty. Tương tự, một nghiên cứu của MIT cho thấy ba trong số các AI nhận dạng giới tính mới nhất chỉ có thể nhận ra chính xác giới tính của phụ nữ da đen với tỷ lệ 35%.

Trong quá trình theo đuổi hiệu quả cao hơn, AI có thể giống như một viên đạn bạc nhưng rõ ràng là sự thiếu đa dạng trong việc phát triển công nghệ đang bắt đầu có những tác động không lường trước được khi chúng được áp dụng vào thế giới thực.

Sự thiếu đa dạng trong AI

Không có gì bí mật khi ngành khoa học máy tính phải chứng kiến sự thiếu đa dạng về giới tính và màu da, đặc biệt là ở các vị trí cấp cao nhất. Tuy nhiên, khi nói về sự đa dạng trong AI, điều này không chỉ có nghĩa là cung cấp cơ hội việc làm cho những người da màu hay phụ nữ mà nó là về một thứ gì đó nền tảng hơn, một hệ thống đầu vào hiệu quả thay thế đầu vào của con người.

Khi các hệ thống AI 'học hỏi' từ một số đầu vào ban đầu của con người, chúng dễ bị ảnh hưởng bởi những thành kiến ​​của người tạo ra chúng. Máy móc chỉ có thể học từ tập dữ liệu mà chúng được cung cấp. Là người dùng cuối của công nghệ, chúng ta cho rằng dữ liệu đào tạo đang được sử dụng là đại diện, nhưng nếu nhìn vào các ví dụ được đề cập ở trên, rõ ràng là dữ liệu đó đôi khi là không đủ tính đại diện.

Theo Zoe Webster, giám đốc AI và Kinh tế dữ liệu tại Innovate UK, AI phải có khả năng phục vụ phù hợp với nhu cầu của tất cả mọi người, không phải một số ít, để có thể đảm nhận các mục tiêu có ích toàn toàn xã hội.

"AI và học máy phụ thuộc vào dữ liệu bạn cung cấp," Webster nói. "Nếu dữ liệu của bạn là rác, bạn sẽ có rác ở đầu ra. Ví dụ: trong trường hợp công cụ tuyển dụng của Amazon, đầu ra của hệ thống là sự phân loại thiên vị đàn ông rất nhiều. Nếu dữ liệu đó không phải là rác, thì đó là sự thiên vị, và đó là một vấn đề".

Về bản chất, nếu không có sự đa dạng ở giai đoạn sản xuất, AI có khả năng sẽ không nhận được dữ liệu đủ đa dạng để đưa ra quyết định - và điều này dự kiến sẽ không thay đổi sớm trong thời gian tới. Theo báo cáo thường niên năm 2018 của AI Index, nam giới chiếm 71% nhóm ứng viên cho các công việc liên quan đến AI ở Mỹ, cũng như chiếm 80% giảng viên AI trên toàn thế giới.

Vậy, điều gì khiến phụ nữ và người da màu tránh xa AI? Webster cho rằng những kỳ vọng về xã hội và văn hóa ngăn người phụ nữ nhìn thấy mình trong ngành công nghiệp AI, hoặc có thể viễn cảnh “chôn mình cả ngày trong một căn phòng toàn máy tính” không mấy hấp dẫn đối với nhiều phụ nữ.

Ngành công nghiệp công nghệ đang phát triển nhanh đến mức chỉ có đủ công nhân để theo kịp chứ đừng nói đến việc thiết lập một nền văn hóa làm việc đa dạng. Sự đa dạng là một thứ vô cùng khó đạt được khi mà các vị trí tuyển dụng trống vẫn còn chưa được lấp đầy.

"Một thách thức là các nhóm làm việc hiếm khi đủ lớn để có thể bao gồm một mẫu cá nhân đại diện", Allison Chaney, thành viên hội đồng quản trị của nhóm vận động của tổ chức “Woman in Machine Learning”(WiML) nói. Nhưng nếu các nhóm này đại diện hơn cho dân số rộng hơn, chúng ta sẽ nhận thức rõ hơn về cách mọi thứ có thể sai đối với các nhóm nhỏ, giống như các nhà thiết kế thường nhận thức rõ hơn về cách các bảng màu tác động đến các cá nhân mù màu.

Matt Scherer, một luật sư chuyên về chính sách công nghệ, tin rằng văn hóa môi trường làm việc đa dạng có lợi với bất kỳ ngành nào và điều đó đặc biệt quan trọng trong lĩnh vực AI.

Scherer nói: "Khi các nhà phát triển hệ thống AI càng đa dạng, họ càng có khả năng 'dạy' hệ thống đó hoạt động hiệu quả trong nhiều cài đặt khác nhau. Cách các hệ thống AI 'học hỏi' là thông qua dữ liệu. Vì lý do đó, điều quan trọng đối với các nhà phát triển AI là nỗ lực để có được các bộ dữ liệu đại diện và đa dạng, đặc biệt trong những trường hợp hệ thống AI được thiết kế để tương tác với hoặc đưa ra quyết định về con người".

AI vẫn chỉ hoạt động cho một số ít

AI được cho là được thiết kế để làm cho cuộc sống của con người dễ dàng hơn nhiều. Tuy nhiên, khi AI bị hạn chế chỉ hỗ trợ cho một bộ phận nhỏ trong xã hội, nó sẽ tích cực hoạt động chống lại những người khác. Trong một tương lai nơi AI là nền tảng của xã hội, những cỗ máy thiên vị sẽ tạo ra khoảng cách cơ hội lớn cho các nhóm thiểu số.

Một ví dụ đơn giản là vào năm 2015, một phụ nữ Hàn Quốc đã bị robot dọn nhà Roomba hút tóc vào khi nằm ngủ trên sàn nhà.

Bản thân cỗ máy hoạt động tốt và hoàn toàn có khả năng phát hiện các vật phẩm nguy hiểm tiềm tàng, nhưng dữ liệu được sử dụng để xây dựng thuật toán của nó không bao giờ tính đến thực tế là đối với nhiều nền văn hóa, mọi người thường ngủ trên sàn. Nó đơn giản không phải là thứ được nhóm thiết kế robot xem xét.

Cách khắc phục

Mọi người trong và ngoài ngành đều nhận thức được rằng sự thiếu đa dạng là một vấn đề và mong muốn có thể cải thiện điều này. Tuy nhiên, Scherer cảnh báo rằng chỉ tuyển dụng những người có tính đại diện là không đủ. Để loại bỏ sự thiên vị AI, nơi làm việc cũng cần phải có văn hóa hòa nhập.

Hòa nhập có nghĩa là tạo ra một môi trường và văn hóa nơi làm việc khiến cho mọi người cảm thấy thoải mái chia sẻ quan điểm và cung cấp thông tin đầu vào. Tìm kiếm sự đa dạng mà không có tính hòa nhập là một công thức cho sự thất bại bởi vì ngay cả khi một công ty tuyển dụng thành công nhiều người hơn từ các nhóm có tính đại diện, một nơi làm việc không có tính hòa nhập thường có nghĩa là những nhân viên mới đó không bao giờ thực sự cảm thấy họ là một phần của nhóm.

Một môi trường hòa nhập và đa dạng đặc biệt quan trọng đối với AI vì các nhà phát triển thường làm việc theo nhóm, giống như hầu hết các môi trường dựa trên phần mềm khác. Các lập trình viên, chuyên gia người dùng và bộ óc pháp lý hợp tác cùng nhau trong quá trình phát triển một sản phẩm, nhưng nếu tất cả những người này đóng góp một quan điểm tương tự, AI họ tạo ra sẽ chỉ có một bộ dữ liệu giới hạn để tham khảo. Nhân viên cần cảm thấy ý kiến của họ có thể và nên được lắng nghe.

Để đảm bảo AI có thể phục vụ toàn thể nhân loại, nó cần được xây dựng bởi toàn thể nhân loại.

Thùy Linh