Diễn đàn

AI có thể gia tăng hiệu suất, nhưng không nên đánh đổi bằng đạo đức

Tâm An 20/01/2024 07:17

Trong nỗ lực khai thác trí tuệ nhân tạo (AI) để gia tăng lợi nhuận, doanh nghiệp (DN) cần phải cân đối kỹ lưỡng và không nên bỏ qua những tác động tiêu cực có thể xảy ra từ công nghệ này.

Khi AI tạo sinh được áp dụng rộng rãi trên nhiều lĩnh vực, ngành nghề, các DN cũng có thể trở nên linh hoạt, sáng tạo và năng suất hơn. Theo Ngân hàng đầu tư Goldman Sachs, việc sử dụng rộng rãi AI có thể tăng năng suất 1,5% hàng năm trong vòng 10 năm.

Tuy nhiên, chia sẻ tại Hội nghị Diễn đàn kinh tế thế giới (WEF) Davos 2024, ông Raj Verma, Giám đốc điều hành SingleStore cho biết sự mở rộng nhanh chóng này cũng đòi hỏi sự thận trọng. Các DN cần phải cân nhắc, cân đối sao cho phù hợp để việc mở rộng sử dụng AI không chỉ vì mục đích lợi nhuận. Họ phải nhận ra rằng, giống như nhiều công nghệ mới nổi khác trước đây, việc sử dụng AI không kiểm soát có thể mang lại những hậu quả nguy hiểm.

AI tạo sinh có khả năng thúc đẩy sự lan truyền của thông tin sai lệch, làm trầm trọng thêm tình trạng nghiện mạng xã hội ở thanh thiếu niên và duy trì những định kiến xã hội hiện có. Những hậu quả này không chỉ gây hại cho xã hội nói chung mà còn đặt ra thách thức cho những DN đang cố gắng xây dựng niềm tin từ khách hàng.

Vậy, trong bối cảnh AI phát triển nhanh chóng, làm thế nào để các DN, tổ chức có thể sử dụng công nghệ này một cách có đạo đức?

aii.jpg

Ưu tiên bảo mật dữ liệu

Theo ông Raj Verma, đầu tiên, các công ty phải ưu tiên bảo vệ dữ liệu của chính họ, của khách hàng và của người tiêu dùng. Để làm điều này, họ cần hiểu rõ về những rủi ro khi sử dụng mô hình ngôn ngữ lớn (LLM) công cộng. LLM là nền tảng của AI tạo sinh. Chúng là các thuật toán sử dụng lượng lớn dữ liệu để đưa ra dự đoán và tạo ra nội dung. LLM công khai thu thập dữ liệu từ các bộ dữ liệu chung, có sẵn công khai và cung cấp cho bất kỳ ai.

Nếu các mô hình AI tạo sinh không đảm bảo an toàn bảo mật, chúng có thể bị lộ hoặc rò rỉ dữ liệu nhạy cảm được sử dụng trong quá trình đào tạo - hoặc đưa ra những thành kiến.

Để giảm thiểu rủi ro này, các công ty có thể sử dụng LLM riêng, được đào tạo trên một ngữ cảnh dữ liệu cụ thể và chỉ có thể được truy cập bởi những người quản lý được ủy quyền.

Với LLM riêng tư, các công ty có thể tận dụng lợi ích của AI tạo sinh. Ví dụ, phát triển chatbot dựa trên dữ liệu khách hàng của mình mà không phải đối mặt với rủi ro gửi dữ liệu cho bên thứ ba. Và vì những LLM này được đào tạo trên thông tin cụ thể và cho phép kiểm soát về chu kỳ cập nhật, nên chúng ít có khả năng đưa ra những phản hồi “không liên quan, vô nghĩa hoặc không chính xác về mặt thực tế”.

Giảm thiểu sự thiên vị AI

Cốt lõi của AI là dữ liệu. Không có dữ liệu, AI sẽ trở nên vô dụng - nhưng với dữ liệu sai, công nghệ này cũng có thể gây ra những nguy hiểm khó lường.

Các hệ thống AI tạo sinh phổ biến như ChatGPT dựa vào các nguồn dữ liệu lớn và có sẵn công khai, trong đó có một số dữ liệu phản ánh những thành kiến lịch sử và xã hội, khi đó các hệ thống AI được đào tạo dựa trên các bộ dữ liệu này sẽ sao chép lại đúng những thành kiến này.

Theo ông Raj Verma, cách tốt nhất để đối phó với sự thiên vị AI là kết hợp con người vào quy trình đào tạo LLM. Mối quan hệ giữa con người và AI này có thể gồm hai phần: Con người có thể theo dõi, giám sát các hệ thống AI để cung cấp thông tin đầu vào, đưa ra ý kiến phản hồi và sửa lỗi nhằm nâng cao hiệu suất của nó; trong khi đó, AI được đào tạo có thể được sử dụng để giúp con người phát hiện sự thiên vị trong hành vi của họ.

Ví dụ, khi con người cung cấp cho AI dữ liệu phù hợp và dạy nó loại bỏ thành kiến thông qua việc sửa lỗi, AI có thể được đào tạo để thông báo cho người quản lý tuyển dụng về các hành vi phân biệt đối xử tiềm ẩn có thể tồn tại trong các quyết định tuyển dụng của công ty.

Thực hiện khuôn khổ minh bạch

Để sử dụng AI có đạo đức, Giám đốc điều hành SingleStore nhấn mạnh các công ty phải đảm bảo rằng việc sử dụng AI của họ tuân thủ các khung pháp lý, bao gồm luật bảo vệ dữ liệu, an ninh mạng và quản trị DN.

Nhưng làm thế nào các công ty có thể tuân thủ các cơ chế giám sát vẫn chưa được thiết kế? Câu trả lời nằm ở sự minh bạch. Tính minh bạch là chìa khóa để tạo niềm tin và vượt qua nỗi sợ hãi rằng AI có thể kiểm soát và thậm chí chi phối cuộc sống của chúng ta. Nhóm chuyên gia cấp cao về AI (AI HLEG) của Liên minh châu Âu (EU) đã phát triển một danh sách đánh giá về AI tin cậy mà các công ty có thể sử dụng như một hướng dẫn và nó tuân theo 3 nguyên lý sau đây:

Khả năng theo dõi: Quá trình phát triển hệ thống AI có được ghi chép chính xác và đầy đủ không? Ví dụ, người dùng có thể theo dõi lại dữ liệu nào đã được hệ thống AI sử dụng để đưa ra quyết định không?

Khả năng giải thích: Có thể giải thích được lý do đằng sau các giải pháp hoặc quyết định của hệ thống AI không? Quan trọng hơn, con người có thể hiểu được quyết định được đưa ra bởi hệ thống AI không?

Giao tiếp: Các tiềm năng và hạn chế của hệ thống có được thông báo đến người sử dụng không? Ví dụ, có nên thông báo cho người dùng rằng họ đang giao tiếp với một chatbot AI chứ không phải là con người?

“AI là một trong những công cụ công nghệ hứa hẹn nhất từng được phát triển, không phải vì nó có thể giúp chúng ta tăng lợi nhuận và năng suất (mặc dù chắc chắn là như vậy), mà vì tiềm năng to lớn của nó trong việc giúp chúng ta trở thành con người tốt hơn. Trách nhiệm của chúng ta là phát triển nó một cách có trách nhiệm - để đảm bảo nó tốt cho xã hội và tốt cho DN”, ông Raj Verma nhấn mạnh./.

Bài liên quan
  • Tối ưu hoá khả năng của AI trong đảm bảo an toàn thông tin
    Sự tác động qua lại giữa AI và việc đảm bảo an toàn thông tin luôn là chủ đề được bàn luận. Đặc biệt là những đóng góp, mặt tích cực mà AI đem lại. Phát huy tối đa khả năng của AI trong lĩnh vực an ninh mạng là cần thiết trong bối cảnh hiện nay.
Nổi bật Tạp chí Thông tin & Truyền thông
Đừng bỏ lỡ
AI có thể gia tăng hiệu suất, nhưng không nên đánh đổi bằng đạo đức
POWERED BY ONECMS - A PRODUCT OF NEKO