Những rủi ro trong quản trị AI
Quản trị - Ngày đăng : 06:18, 22/06/2022
Tùy vào tập phim Terminator bạn đã xem, ác quỷ Skynet (sử dụng công nghệ AI) đã xâm chiếm nhân loại hoặc chuẩn bị làm như vậy. Không chỉ các nhà văn khoa học viễn tưởng mới lo lắng về sự nguy hiểm của AI nếu nó không được kiểm soát.
Trong một cuộc khảo sát của Emerj, công ty nghiên cứu và tư vấn về AI, 14% các nhà nghiên cứu AI nói rằng, AI là "mối đe dọa hiện hữu" đối với nhân loại. Ngay cả khi ngày tận thế do AI không xảy ra, sự thay đổi đạo đức vì AI sẽ gây ra những rủi ro lớn cho xã hội và cho các doanh nghiệp (DN) triển khai các hệ thống AI đó.
Trọng tâm của những rủi ro này là các yếu tố vốn có đối với công nghệ, ví dụ cách một hệ thống AI cụ thể đưa ra các kết luận được gọi là "khả năng giải thích" của nó, và những yếu tố đặc hữu đối với việc sử dụng AI của một DN, bao gồm cả việc phụ thuộc vào các tập dữ liệu có thiên vị hoặc triển khai AI mà không có quản trị thích hợp.
Và trong khi AI có thể cung cấp cho DN lợi thế cạnh tranh theo nhiều cách khác nhau, từ việc phát hiện ra các cơ hội kinh doanh đến việc hợp lý hóa các quy trình tốn kém, thì mặt trái của AI nếu không được quan tâm đúng mức sẽ có thể dẫn đến hậu quả thảm khốc.
Các vấn đề triển khai trong thế giới thực sau đây nêu bật những rủi ro chính mà mọi CIO (lãnh đạo CNTT) phải tính đến khi đưa ra chiến lược triển khai AI cho công ty của mình.
Thảm họa quan hệ công chúng
Tháng trước, một tài liệu của Facebook bị rò rỉ cho thấy, Facebook không biết chuyện gì đang xảy ra với dữ liệu người dùng của mình. "Chúng tôi không kiểm soát và khả năng giải thích đối với cách hệ thống sử dụng dữ liệu", tài liệu được cho là của các kỹ sư về quyền riêng tư của Facebook cho biết.
Tài liệu cũng cho biết, hiện công ty đang phải đối mặt với "cơn sóng thần về các quy định trong nước", điều mà công ty không thể giải quyết nếu không có các khoản đầu tư nhiều năm vào cơ sở hạ tầng. Đặc biệt, công ty không tự tin vào khả năng giải quyết các vấn đề cơ bản với máy học và các ứng dụng AI.
Sự cố này cho thấy cái nhìn sâu sắc về những gì có thể xảy ra đối với bất kỳ DN nào đã triển khai AI mà không quản lý dữ liệu đầy đủ, đây là sự cố mới nhất trong loạt các công ty nổi tiếng đã chứng kiến thảm họa PR (quan hệ công chúng) liên quan đến AI của họ.
Vào năm 2014, Amazon đã xây dựng phần mềm tuyển dụng dựa trên AI để ưu tiên các ứng viên nam giới.
Năm 2015, ứng dụng Photos của Google đã gắn nhãn các bức ảnh có người da đen là "khỉ đột". Không rút kinh nghiệm, Facebook đã phải xin lỗi về lỗi tương tự vào mùa thu năm ngoái, khi người dùng của họ được hỏi liệu họ có muốn "tiếp tục xem video về động vật linh trưởng" sau khi xem một video có người đàn ông da đen hay không.
Chatbot Tay của Microsoft, được phát hành trên Twitter vào năm 2016, nhanh chóng bắt đầu đưa ra các thông điệp phân biệt chủng tộc, chủ nghĩa lệch lạc và bài Do Thái.
Ken Adler, chủ tịch công nghệ tại công ty luật Loeb & Loeb, cho biết dư luận xấu là một trong những nỗi sợ hãi lớn nhất của các công ty khi nói đến các dự án AI. Ông nói: "Họ lo ngại về việc triển khai một giải pháp mà họ không hề biết là đã có sai lệch. Nó có thể là bất cứ thứ gì - chủng tộc, dân tộc, giới tính".
Tác động tiêu cực đến xã hội
Các hệ thống AI thiên vị đã và đang gây hại. Một thuật toán phân biệt đối xử với phụ nữ hoặc một công cụ khuyến nghị nguồn nhân lực không đề xuất được các khóa học lãnh đạo cho một số nhân viên sẽ khiến những cá nhân đó gặp bất lợi.
Trong một số trường hợp, những khuyến nghị đó thực sự có thể là vấn đề sinh tử. Đó là trường hợp tại một bệnh viện mà Carm Taglienti, một kỹ sư xuất sắc tại Insight, đã từng làm việc. Nhóm khoa học dữ liệu của bệnh viện này đã xây dựng hệ thống để xác định các bệnh đi kèm. Bài toán ở đây là nếu một bệnh nhân đến bệnh viện và gặp vấn đề thứ hai có khả năng gây tử vong nhưng bệnh viện không phát hiện ra, khi đó bệnh nhân được về nhà và có thể sẽ chết.
Câu hỏi đặt ra, thời điểm nào các bác sĩ nên hành động theo khuyến nghị của hệ thống AI, những cân nhắc về sức khỏe và giới hạn nguồn lực của bệnh viện? Nếu mối tương quan được phát hiện bởi thuật toán là yếu, bác sĩ có thể yêu cầu bệnh nhân làm các xét nghiệm không cần thiết, điều này sẽ gây lãng phí thời gian và tiền bạc. Nhưng nếu các xét nghiệm không được tiến hành và một vấn đề phát sinh có thể gây chết người, thì câu hỏi lớn hơn đặt ra về chất lượng dịch vụ mà bệnh viện cung cấp.
Đó là nơi đạo đức xuất hiện, ông nói. "Nếu tôi đang cố gắng thực hiện cách tiếp cận thực dụng, tốt nhất cho hầu hết mọi người, tôi có thể điều trị cho bạn dù bạn có cần hay không".
Nhưng đó không phải là giải pháp thực tế khi nguồn lực có hạn.
Một tùy chọn khác là thu thập dữ liệu đào tạo tốt hơn để cải thiện các thuật toán sao cho các đề xuất chính xác hơn. Taglienti nói, bệnh viện đã làm được điều này bằng cách đầu tư nhiều hơn vào việc thu thập dữ liệu.
Nhưng bệnh viện cũng tìm ra cách để cân bằng lại phương trình xoay quanh các nguồn lực, ông nói thêm. "Nếu khoa học dữ liệu cho biết, bạn đang thiếu thông tin về các bệnh đi kèm, thì có phải lúc nào bác sĩ cũng phải thăm khám cho bệnh nhân hay không? Thay vào đó chúng ta có thể sử dụng các y tá không? Chúng ta có thể tự động hóa không?"
Nhiều bệnh viện đã tạo ra cơ chế lên lịch cho bệnh nhân, để những người không có người chăm sóc có thể đến gặp bác sĩ trong phòng cấp cứu vào những thời điểm phòng cấp cứu ít bận rộn hơn như vào giữa các ngày trong tuần. Ông nói: "Họ có thể tập trung vào các vấn đề mấu chốt và vẫn sử dụng đề xuất AI để cải thiện kết quả".
Hệ thống không vượt qua quy định
Sanjay Srivastava, giám đốc chiến lược số tại Genpact, đã làm việc với một công ty dịch vụ tài chính toàn cầu lớn đang tìm cách sử dụng AI để cải thiện các quyết định cho vay. Srivastava cho biết, ngân hàng không được sử dụng các tiêu chí nhất định như tuổi hoặc giới tính, nhưng chỉ cần lấy dữ liệu tuổi hoặc giới tính từ dữ liệu đào tạo AI là không đủ, vì dữ liệu có thể chứa thông tin khác tương quan với tuổi hoặc giới tính.
Ông nói: "Tập dữ liệu đào tạo mà họ sử dụng có nhiều mối tương quan. Điều đó khiến họ phải đối mặt với rủi ro lớn hơn so với dự tính".
Ngân hàng buộc phải quay lại tập dữ liệu đào tạo, theo dõi và xóa tất cả các điểm dữ liệu khác, một quá trình mất khá nhiều thời gian.
Bài học ở đây là đảm bảo rằng nhóm xây dựng hệ thống không chỉ là các nhà khoa học dữ liệu mà còn bao gồm một nhóm đa dạng các chuyên gia. Ông nói: "Đừng bao giờ thực hiện một dự án AI chỉ với các nhà khoa học dữ liệu".
Chăm sóc sức khỏe là một ngành khác mà việc không đáp ứng các quy định có thể sẽ đưa toàn bộ dự án quay trở lại điểm ban đầu. Đó là những gì đã xảy ra với một công ty dược phẩm toàn cầu đang nghiên cứu vắc-xin COVID-19.
Mario Schlener, tại Ernst & Young cho biết: "Nhiều công ty dược phẩm đã sử dụng AI để tìm ra giải pháp phát triển nhanh hơn. Có công ty đã đạt được một số tiến bộ trong việc xây dựng các thuật toán. Nhưng do thiếu quản lý trong quá trình phát triển thuật toán khiến cho quá trình phát triển trở nên lỗi thời". Và vì công ty không thể giải thích với các nhà quản lý về cách các thuật toán hoạt động, họ đã mất 9 tháng làm việc trong thời gian cao điểm của đại dịch.
GDPR và tiền phạt
Quy định chung về Bảo vệ dữ liệu của Liên minh châu Âu (GDPR) là một trong những luật bảo vệ dữ liệu khắt khe nhất thế giới, với mức phạt lên đến 20 triệu euro hoặc 4% doanh thu trên toàn thế giới - tùy theo mức nào cao hơn. Kể từ khi luật có hiệu lực vào năm 2018, hơn 1.100 án phạt đã được ban hành và tổng số tiền phạt đang liên tục tăng lên.
GDPR và các quy định tương tự trên toàn cầu hạn chế cách các công ty có thể sử dụng hoặc chia sẻ dữ liệu cá nhân nhạy cảm. Bởi vì các hệ thống AI yêu cầu một lượng lớn dữ liệu mà không có các thực hành quản trị phù hợp, bạn sẽ dễ dàng vi phạm luật bảo mật dữ liệu khi triển khai AI.
Liên minh châu Âu cũng đang nghiên cứu Đạo luật AI, đạo luật này sẽ tạo ra một bộ quy định mới đặc biệt xoay quanh AI. Đạo luật AI lần đầu tiên được đề xuất vào mùa xuân năm 2021 và có thể được thông qua ngay sau năm 2023. Nếu không tuân thủ sẽ dẫn đến một loạt hình phạt, bao gồm phạt tài chính lên tới 6% doanh thu toàn cầu, thậm chí cao hơn GDPR.
Hệ thống không thể sửa chữa
Vào tháng 4/2022, một chiếc ô tô tự lái của Cruise, công ty do General Motors hậu thuẫn, điều hành, đã bị cảnh sát chặn lại vì xe chạy mà không bật đèn pha. Đoạn video ghi lại cảnh cảnh sát đã bối rối khi tiếp cận chiếc ô tô và phát hiện ra rằng nó không có người lái. Chiếc xe sau đó chạy đi, rồi lại dừng lại, để cảnh sát đuổi kịp. Tìm ra lý do tại sao chiếc xe làm điều này có thể rất khó khăn.
Dan Simion, phó chủ tịch phân tích và AI tại Capgemini cho biết: "Chúng ta cần hiểu cách đưa ra quyết định đối với xe tự lái. Nhà sản xuất ô tô cần phải minh bạch và giải thích những gì đã xảy ra. Tính minh bạch và khả năng giải thích là các thành phần của AI có đạo đức".
Thông thường, các hệ thống AI là những "hộp đen" khó hiểu, cung cấp rất ít thông tin chi tiết về cách chúng đưa ra kết luận. Do đó, việc tìm ra nguồn gốc của một vấn đề có thể rất khó khăn, làm dấy lên nghi ngờ về việc liệu vấn đề đó có thể được khắc phục hay không.
Simion nói: "Cuối cùng, tôi nghĩ, các quy định sẽ được đưa ra, đặc biệt là khi chúng ta nói về xe hơi tự lái, cũng như các quyết định tự hành trong các ngành công nghiệp khác.
Nhưng các công ty không nên chờ đợi để xây dựng khả năng giải thích cho các hệ thống AI của họ, ông nói. Về lâu dài, sẽ dễ hơn và rẻ hơn nếu xây dựng khả năng giải thích từ đầu, thay vì cố gắng giải quyết vấn đề ở khâu cuối.
Ngoài lợi ích về quan hệ công chúng là có thể giải thích tại sao hệ thống AI lại làm được những gì nó đã làm, các công ty nắm bắt khả năng giải thích cũng sẽ có thể khắc phục được các vấn đề và hợp lý hóa các quy trình dễ dàng hơn.
Rủi ro về tâm lý
Khi các DN xây dựng các hệ thống AI vi phạm quyền riêng tư của người dùng, gây thành kiến hoặc gây hại cho xã hội, nó sẽ thay đổi cách nhân viên của họ nhìn nhận chúng.
Steve Mills, giám đốc đạo đức AI tại Boston Consulting Group, cho biết: Nhân viên muốn làm việc tại các công ty chia sẻ giá trị của họ... Một lượng lớn nhân viên rời bỏ công việc của họ vì những lo ngại về đạo đức. Nếu bạn muốn thu hút nhân tài kỹ thuật, bạn phải lo lắng về cách bạn sẽ giải quyết những vấn đề này."
Theo một khảo sát do Gartner công bố vào đầu năm nay, thái độ của nhân viên đối với công việc đã thay đổi kể từ khi đại dịch bùng phát. Gần 2/3 trong số họ đã suy nghĩ lại về công việc họ nên có trong cuộc đời, và hơn một nửa nói rằng đại dịch đã khiến họ đặt câu hỏi về mục đích của công việc, và khiến họ muốn đóng góp nhiều hơn cho xã hội.
Và vào mùa thu năm ngoái, theo một nghiên cứu của Blue Beyond Consulting & Future Workplace, 52% công nhân sẽ bỏ việc - và chỉ 1/4 chấp nhận - nếu giá trị của công ty không phù hợp với giá trị của họ. Ngoài ra, 76% cho biết, họ mong muốn người sử dụng lao động là động lực có ích cho xã hội./.
Tài liệu tham khảo:
[1]. https://emerj.com/ai-future-outlook/after-the-singularity-will-humans-matter-ai-researcher-consensus
[2]. www.documentcloud.org/documents/21716382-facebook-data-lineage-internal-document
[3]. https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682
[4]. www.gartner.com/en/articles/employees-seek-personal-value-and-purpose-at-work-be-prepared-to-deliver
[5]. www.bluebeyondconsulting.com/closing-the-employee-expectations-gap-the-undeniable-and-promising-new-mandate-for-business