Những rủi ro trong quản trị AI

Nhật Bình| 22/06/2022 06:18
Theo dõi ICTVietnam trên

Các yếu tố vốn có của trí tuệ nhân tạo (AI) và việc triển khai có thể gây ảnh hưởng đến các công ty nếu đạo đức và quản trị không được đưa vào chiến lược AI.

Tùy vào tập phim Terminator bạn đã xem, ác quỷ Skynet (sử dụng công nghệ AI) đã xâm chiếm nhân loại hoặc chuẩn bị làm như vậy. Không chỉ các nhà văn khoa học viễn tưởng mới lo lắng về sự nguy hiểm của AI nếu nó không được kiểm soát.

Những rủi ro kinh doanh trong quản trị AI - Ảnh 1.

14% các nhà nghiên cứu AI nói rằng AI là "mối đe dọa hiện hữu" đối với nhân loại.

Trong một cuộc khảo sát của Emerj, công ty nghiên cứu và tư vấn về AI, 14% các nhà nghiên cứu AI nói rằng, AI là "mối đe dọa hiện hữu" đối với nhân loại. Ngay cả khi ngày tận thế do AI không xảy ra, sự thay đổi đạo đức vì AI sẽ gây ra những rủi ro lớn cho xã hội và cho các doanh nghiệp (DN) triển khai các hệ thống AI đó.

Trọng tâm của những rủi ro này là các yếu tố vốn có đối với công nghệ, ví dụ cách một hệ thống AI cụ thể đưa ra các kết luận được gọi là "khả năng giải thích" của nó, và những yếu tố đặc hữu đối với việc sử dụng AI của một DN, bao gồm cả việc phụ thuộc vào các tập dữ liệu có thiên vị hoặc triển khai AI mà không có quản trị thích hợp.

Và trong khi AI có thể cung cấp cho DN lợi thế cạnh tranh theo nhiều cách khác nhau, từ việc phát hiện ra các cơ hội kinh doanh đến việc hợp lý hóa các quy trình tốn kém, thì mặt trái của AI nếu không được quan tâm đúng mức sẽ có thể dẫn đến hậu quả thảm khốc.

Các vấn đề triển khai trong thế giới thực sau đây nêu bật những rủi ro chính mà mọi CIO (lãnh đạo CNTT) phải tính đến khi đưa ra chiến lược triển khai AI cho công ty của mình.

Thảm họa quan hệ công chúng

Tháng trước, một tài liệu của Facebook bị rò rỉ cho thấy, Facebook không biết chuyện gì đang xảy ra với dữ liệu người dùng của mình. "Chúng tôi không kiểm soát và khả năng giải thích đối với cách hệ thống sử dụng dữ liệu", tài liệu được cho là của các kỹ sư về quyền riêng tư của Facebook cho biết.

Tài liệu cũng cho biết, hiện công ty đang phải đối mặt với "cơn sóng thần về các quy định trong nước", điều mà công ty không thể giải quyết nếu không có các khoản đầu tư nhiều năm vào cơ sở hạ tầng. Đặc biệt, công ty không tự tin vào khả năng giải quyết các vấn đề cơ bản với máy học và các ứng dụng AI.

Sự cố này cho thấy cái nhìn sâu sắc về những gì có thể xảy ra đối với bất kỳ DN nào đã triển khai AI mà không quản lý dữ liệu đầy đủ, đây là sự cố mới nhất trong loạt các công ty nổi tiếng đã chứng kiến thảm họa PR (quan hệ công chúng) liên quan đến AI của họ.

Vào năm 2014, Amazon đã xây dựng phần mềm tuyển dụng dựa trên AI để ưu tiên các ứng viên nam giới.

Năm 2015, ứng dụng Photos của Google đã gắn nhãn các bức ảnh có người da đen là "khỉ đột". Không rút kinh nghiệm, Facebook đã phải xin lỗi về lỗi tương tự vào mùa thu năm ngoái, khi người dùng của họ được hỏi liệu họ có muốn "tiếp tục xem video về động vật linh trưởng" sau khi xem một video có người đàn ông da đen hay không.

Chatbot Tay của Microsoft, được phát hành trên Twitter vào năm 2016, nhanh chóng bắt đầu đưa ra các thông điệp phân biệt chủng tộc, chủ nghĩa lệch lạc và bài Do Thái.

Ken Adler, chủ tịch công nghệ tại công ty luật Loeb & Loeb, cho biết dư luận xấu là một trong những nỗi sợ hãi lớn nhất của các công ty khi nói đến các dự án AI. Ông nói: "Họ lo ngại về việc triển khai một giải pháp mà họ không hề biết là đã có sai lệch. Nó có thể là bất cứ thứ gì - chủng tộc, dân tộc, giới tính".

Tác động tiêu cực đến xã hội

Các hệ thống AI thiên vị đã và đang gây hại. Một thuật toán phân biệt đối xử với phụ nữ hoặc một công cụ khuyến nghị nguồn nhân lực không đề xuất được các khóa học lãnh đạo cho một số nhân viên sẽ khiến những cá nhân đó gặp bất lợi.

Trong một số trường hợp, những khuyến nghị đó thực sự có thể là vấn đề sinh tử. Đó là trường hợp tại một bệnh viện mà Carm Taglienti, một kỹ sư xuất sắc tại Insight, đã từng làm việc. Nhóm khoa học dữ liệu của bệnh viện này đã xây dựng hệ thống để xác định các bệnh đi kèm. Bài toán ở đây là nếu một bệnh nhân đến bệnh viện và gặp vấn đề thứ hai có khả năng gây tử vong nhưng bệnh viện không phát hiện ra, khi đó bệnh nhân được về nhà và có thể sẽ chết.

Câu hỏi đặt ra, thời điểm nào các bác sĩ nên hành động theo khuyến nghị của hệ thống AI, những cân nhắc về sức khỏe và giới hạn nguồn lực của bệnh viện? Nếu mối tương quan được phát hiện bởi thuật toán là yếu, bác sĩ có thể yêu cầu bệnh nhân làm các xét nghiệm không cần thiết, điều này sẽ gây lãng phí thời gian và tiền bạc. Nhưng nếu các xét nghiệm không được tiến hành và một vấn đề phát sinh có thể gây chết người, thì câu hỏi lớn hơn đặt ra về chất lượng dịch vụ mà bệnh viện cung cấp.

Đó là nơi đạo đức xuất hiện, ông nói. "Nếu tôi đang cố gắng thực hiện cách tiếp cận thực dụng, tốt nhất cho hầu hết mọi người, tôi có thể điều trị cho bạn dù bạn có cần hay không".

Nhưng đó không phải là giải pháp thực tế khi nguồn lực có hạn.

Một tùy chọn khác là thu thập dữ liệu đào tạo tốt hơn để cải thiện các thuật toán sao cho các đề xuất chính xác hơn. Taglienti nói, bệnh viện đã làm được điều này bằng cách đầu tư nhiều hơn vào việc thu thập dữ liệu.

Nhưng bệnh viện cũng tìm ra cách để cân bằng lại phương trình xoay quanh các nguồn lực, ông nói thêm. "Nếu khoa học dữ liệu cho biết, bạn đang thiếu thông tin về các bệnh đi kèm, thì có phải lúc nào bác sĩ cũng phải thăm khám cho bệnh nhân hay không? Thay vào đó chúng ta có thể sử dụng các y tá không? Chúng ta có thể tự động hóa không?"

Nhiều bệnh viện đã tạo ra cơ chế lên lịch cho bệnh nhân, để những người không có người chăm sóc có thể đến gặp bác sĩ trong phòng cấp cứu vào những thời điểm phòng cấp cứu ít bận rộn hơn như vào giữa các ngày trong tuần. Ông nói: "Họ có thể tập trung vào các vấn đề mấu chốt và vẫn sử dụng đề xuất AI để cải thiện kết quả".

Hệ thống không vượt qua quy định

Sanjay Srivastava, giám đốc chiến lược số tại Genpact, đã làm việc với một công ty dịch vụ tài chính toàn cầu lớn đang tìm cách sử dụng AI để cải thiện các quyết định cho vay. Srivastava cho biết, ngân hàng không được sử dụng các tiêu chí nhất định như tuổi hoặc giới tính, nhưng chỉ cần lấy dữ liệu tuổi hoặc giới tính từ dữ liệu đào tạo AI là không đủ, vì dữ liệu có thể chứa thông tin khác tương quan với tuổi hoặc giới tính.

Ông nói: "Tập dữ liệu đào tạo mà họ sử dụng có nhiều mối tương quan. Điều đó khiến họ phải đối mặt với rủi ro lớn hơn so với dự tính".

Ngân hàng buộc phải quay lại tập dữ liệu đào tạo, theo dõi và xóa tất cả các điểm dữ liệu khác, một quá trình mất khá nhiều thời gian.

Bài học ở đây là đảm bảo rằng nhóm xây dựng hệ thống không chỉ là các nhà khoa học dữ liệu mà còn bao gồm một nhóm đa dạng các chuyên gia. Ông nói: "Đừng bao giờ thực hiện một dự án AI chỉ với các nhà khoa học dữ liệu".

Chăm sóc sức khỏe là một ngành khác mà việc không đáp ứng các quy định có thể sẽ đưa toàn bộ dự án quay trở lại điểm ban đầu. Đó là những gì đã xảy ra với một công ty dược phẩm toàn cầu đang nghiên cứu vắc-xin COVID-19.

Mario Schlener, tại Ernst & Young cho biết: "Nhiều công ty dược phẩm đã sử dụng AI để tìm ra giải pháp phát triển nhanh hơn. Có công ty đã đạt được một số tiến bộ trong việc xây dựng các thuật toán. Nhưng do thiếu quản lý trong quá trình phát triển thuật toán khiến cho quá trình phát triển trở nên lỗi thời". Và vì công ty không thể giải thích với các nhà quản lý về cách các thuật toán hoạt động, họ đã mất 9 tháng làm việc trong thời gian cao điểm của đại dịch.

GDPR và tiền phạt

Quy định chung về Bảo vệ dữ liệu của Liên minh châu Âu (GDPR) là một trong những luật bảo vệ dữ liệu khắt khe nhất thế giới, với mức phạt lên đến 20 triệu euro hoặc 4% doanh thu trên toàn thế giới - tùy theo mức nào cao hơn. Kể từ khi luật có hiệu lực vào năm 2018, hơn 1.100 án phạt đã được ban hành và tổng số tiền phạt đang liên tục tăng lên.

GDPR và các quy định tương tự trên toàn cầu hạn chế cách các công ty có thể sử dụng hoặc chia sẻ dữ liệu cá nhân nhạy cảm. Bởi vì các hệ thống AI yêu cầu một lượng lớn dữ liệu mà không có các thực hành quản trị phù hợp, bạn sẽ dễ dàng vi phạm luật bảo mật dữ liệu khi triển khai AI.

Liên minh châu Âu cũng đang nghiên cứu Đạo luật AI, đạo luật này sẽ tạo ra một bộ quy định mới đặc biệt xoay quanh AI. Đạo luật AI lần đầu tiên được đề xuất vào mùa xuân năm 2021 và có thể được thông qua ngay sau năm 2023. Nếu không tuân thủ sẽ dẫn đến một loạt hình phạt, bao gồm phạt tài chính lên tới 6% doanh thu toàn cầu, thậm chí cao hơn GDPR.

Hệ thống không thể sửa chữa

Vào tháng 4/2022, một chiếc ô tô tự lái của Cruise, công ty do General Motors hậu thuẫn, điều hành, đã bị cảnh sát chặn lại vì xe chạy mà không bật đèn pha. Đoạn video ghi lại cảnh cảnh sát đã bối rối khi tiếp cận chiếc ô tô và phát hiện ra rằng nó không có người lái. Chiếc xe sau đó chạy đi, rồi lại dừng lại, để cảnh sát đuổi kịp. Tìm ra lý do tại sao chiếc xe làm điều này có thể rất khó khăn.

Dan Simion, phó chủ tịch phân tích và AI tại Capgemini cho biết: "Chúng ta cần hiểu cách đưa ra quyết định đối với xe tự lái. Nhà sản xuất ô tô cần phải minh bạch và giải thích những gì đã xảy ra. Tính minh bạch và khả năng giải thích là các thành phần của AI có đạo đức".

Thông thường, các hệ thống AI là những "hộp đen" khó hiểu, cung cấp rất ít thông tin chi tiết về cách chúng đưa ra kết luận. Do đó, việc tìm ra nguồn gốc của một vấn đề có thể rất khó khăn, làm dấy lên nghi ngờ về việc liệu vấn đề đó có thể được khắc phục hay không.

Simion nói: "Cuối cùng, tôi nghĩ, các quy định sẽ được đưa ra, đặc biệt là khi chúng ta nói về xe hơi tự lái, cũng như các quyết định tự hành trong các ngành công nghiệp khác.

Nhưng các công ty không nên chờ đợi để xây dựng khả năng giải thích cho các hệ thống AI của họ, ông nói. Về lâu dài, sẽ dễ hơn và rẻ hơn nếu xây dựng khả năng giải thích từ đầu, thay vì cố gắng giải quyết vấn đề ở khâu cuối.

Ngoài lợi ích về quan hệ công chúng là có thể giải thích tại sao hệ thống AI lại làm được những gì nó đã làm, các công ty nắm bắt khả năng giải thích cũng sẽ có thể khắc phục được các vấn đề và hợp lý hóa các quy trình dễ dàng hơn.

Rủi ro về tâm lý

Khi các DN xây dựng các hệ thống AI vi phạm quyền riêng tư của người dùng, gây thành kiến hoặc gây hại cho xã hội, nó sẽ thay đổi cách nhân viên của họ nhìn nhận chúng.

Steve Mills, giám đốc đạo đức AI tại Boston Consulting Group, cho biết: Nhân viên muốn làm việc tại các công ty chia sẻ giá trị của họ... Một lượng lớn nhân viên rời bỏ công việc của họ vì những lo ngại về đạo đức. Nếu bạn muốn thu hút nhân tài kỹ thuật, bạn phải lo lắng về cách bạn sẽ giải quyết những vấn đề này."

Theo một khảo sát do Gartner công bố vào đầu năm nay, thái độ của nhân viên đối với công việc đã thay đổi kể từ khi đại dịch bùng phát. Gần 2/3 trong số họ đã suy nghĩ lại về công việc họ nên có trong cuộc đời, và hơn một nửa nói rằng đại dịch đã khiến họ đặt câu hỏi về mục đích của công việc, và khiến họ muốn đóng góp nhiều hơn cho xã hội.

Và vào mùa thu năm ngoái, theo một nghiên cứu của Blue Beyond Consulting & Future Workplace, 52% công nhân sẽ bỏ việc - và chỉ 1/4 chấp nhận - nếu giá trị của công ty không phù hợp với giá trị của họ. Ngoài ra, 76% cho biết, họ mong muốn người sử dụng lao động là động lực có ích cho xã hội./.

Tài liệu tham khảo:

[1]. https://emerj.com/ai-future-outlook/after-the-singularity-will-humans-matter-ai-researcher-consensus

[2]. www.documentcloud.org/documents/21716382-facebook-data-lineage-internal-document

[3]. https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682

[4]. www.gartner.com/en/articles/employees-seek-personal-value-and-purpose-at-work-be-prepared-to-deliver

[5]. www.bluebeyondconsulting.com/closing-the-employee-expectations-gap-the-undeniable-and-promising-new-mandate-for-business


Bài liên quan
Nổi bật Tạp chí Thông tin & Truyền thông
  • Việt Nam - Malaysia nâng cấp quan hệ Đối tác chiến lược toàn diện
    Phát biểu tại họp báo, Tổng Bí thư Tô Lâm cho biết, Việt Nam-Malaysia tăng cường hợp tác trên các lĩnh vực mới (như kinh tế xanh, đổi mới sáng tạo, khoa học công nghệ, chuyển đổi số, năng lượng xanh...).
  • Chìa khóa giải quyết thách thức trong bảo vệ trẻ em trên không gian mạng
    Trẻ em - đối tượng dễ bị tổn thương nhất, đang phải đối mặt với nhiều nguy cơ. Đây không chỉ là bài toán của riêng Việt Nam mà còn là thách thức toàn cầu đòi hỏi sự chung tay hợp tác từ nhiều phía.
  • Việt Nam đang đối mặt 3 thách thức an toàn thông tin
    Các cuộc tấn công mạng hiện nay ngày càng tinh vi và phức tạp hơn, đặc biệt khi có sự hỗ trợ của trí tuệ nhân tạo. Tuy nhiên, việc kết hợp công nghệ này với trí tuệ của con người đã giúp phát hiện và phòng, chống tấn công mạng hiệu quả hơn.
  • Chuyển đổi số thành công không thể thiếu “niềm tin số”
    Muốn triển khai hiệu quả chiến lược số hóa quốc gia cần triển khai theo hướng tiếp cận từ trên xuống dưới và phải phù hợp với thực tế, đảm bảo có tầm nhìn rộng trong tương lai.
  • Việt Nam - Hàn Quốc đồng hành trong kỷ nguyên AI
    Thứ trưởng Bộ TT&TT Phan Tâm hy vọng, Việt Nam có thể học tập nhiều hơn từ Hàn Quốc về các bài học kinh nghiệm, cách làm hay để phát huy tối đa vai trò công nghệ số nói chung và trợ lý ảo nói riêng trong hoạt động của cơ quan nhà nước, thúc đẩy phát triển kinh tế, tạo lập xã hội số nhân văn và thu hẹp khoảng cách số.
Đừng bỏ lỡ
  • Bốn giải pháp trọng tâm để giải bài toán an toàn dữ liệu quốc gia
    Theo Thứ trưởng Bộ TT&TT Bùi Hoàng Phương, năm 2024 đánh dấu bước tiến vượt bậc của Việt Nam trong lĩnh vực an toàn thông tin. Tuy nhiên, còn rất nhiều thách thức cần vượt qua để đảm bảo an toàn dữ liệu quốc gia.
  • Việt Nam tăng cường hợp tác phát triển công nghệ số với Burundi và NIPA
    Trong khuôn khổ sự kiện Tuần lễ Số quốc tế 2024, Bộ trưởng Bộ Thông tin và Truyền thông Nguyễn Mạnh Hùng đã tiếp và làm việc với Bộ trưởng Bộ Truyền thông, Công nghệ Thông tin và Đa phương tiện Burundi Léocadie Ndacayisaba và ông Hur Sung Wook, Chủ tịch Cục Xúc tiến Công nghiệp CNTT quốc gia Hàn Quốc (NIPA).
  • Chính thức ra mắt Nền tảng hỗ trợ diễn tập thực chiến an toàn thông tin
    Nền tảng hướng tới nâng cao chất lượng và điều phối hiệu quả các hoạt động diễn tập trên toàn quốc thông qua nền tảng hỗ trợ diễn tập thực chiến an toàn thông tin.
  • Robot Delta hữu dụng trong nhiều ngành
    Nhờ vào thiết kế độc đáo và khả năng hoạt động với tốc độ và độ chính xác cao, robot Delta là một giải pháp tối ưu trong nhiều ngành công nghiệp hiện đại.
  • Cà Mau ứng dụng các phần mềm chuyển đổi số trong ngành nông nghiệp
    Ngành nông nghiệp tỉnh Cà Mau đã không ngừng triển khai các giải pháp chuyển đổi số thông qua việc sử dụng các phần mềm, xây dựng cơ sở dữ liệu chuyên ngành phục vụ quản lý, điều hành. Trong tương lai không xa, các phần mềm này sẽ hoàn thiện và bắt kịp xu hướng công nghệ để hỗ trợ người nông dân nhiều hơn trong việc tăng gia sản xuất.
  • Bảo vệ các hệ thống mạng trọng yếu là cấp thiết
    Song song với tiến trình chuyển đổi số, các chiến dịch tấn công mạng, gián điệp và khủng bố mạng nhằm vào hệ thống công nghệ thông tin (IT) và công nghệ vận hành (OT) trọng yếu ngày càng gia tăng, việc đảm bảo an ninh mạng trở thành ưu tiên hàng đầu của các quốc gia.
  • ‏OPPO Find X8 Series sẽ chính thức lên kệ ngày 7/12‏
    Ngày 21/11, OPPO chính thức ra mắt Find X8 Series‏‏ tại Việt Nam và sẽ lên kệ ngày 7/12 tới. Đây là lần đầu tiên người dùng Việt Nam được trải nghiệm dòng flagship cao cấp nhất của OPPO cùng lúc với toàn cầu. ‏
  • Chuyển đổi số từ thực tiễn Báo Hải Dương
    Báo Hải Dương có nhiều thuận lợi khi thực hiện chuyển đổi số. Đó là Ban Biên tập có quyết tâm cao. Đội ngũ cán bộ, phóng viên, nhân viên của báo nhanh nhạy với cái mới, ham học hỏi...
  • Đưa siêu ứng dụng "Công dân Thủ đô số - iHanoi" vào cuộc sống
    “Công dân Thủ đô số” - iHaNoi là kênh tương tác trực tuyến trên môi trường số giữa người dân, doanh nghiệp với các cấp chính quyền thành phố Hà Nội. Qua ứng dụng này, người dân và doanh nghiệp có thể phản ánh các vấn đề đời sống, từ đó giúp chính quyền tiếp nhận và giải quyết kịp thời.
  • Sự gia tăng của ứng dụng AI tạo sinh: Những rủi ro tiềm ẩn cho xã hội và con người
    AI tạo sinh là một trong những thành tựu công nghệ mới nhất của con người trong thập niên 20 của thế kỷ XXI. Cho đến nay, sự ứng dụng của AI tạo sinh đã tạo ra nhiều cuộc tranh luận quan trọng trong các nghiên cứu xã hội, đặc biệt là trong lĩnh vực triết học. AI tạo sinh đã thách thức nhiều khái niệm và định kiến của chúng ta về bản thân mình, đặc biệt là về cách chúng ta hiểu về tư duy và bản chất của tư duy con người.
Những rủi ro trong quản trị AI
POWERED BY ONECMS - A PRODUCT OF NEKO