Diễn đàn

AI có thể gia tăng hiệu suất, nhưng không nên đánh đổi bằng đạo đức

Tâm An 20/01/2024 07:17

Trong nỗ lực khai thác trí tuệ nhân tạo (AI) để gia tăng lợi nhuận, doanh nghiệp (DN) cần phải cân đối kỹ lưỡng và không nên bỏ qua những tác động tiêu cực có thể xảy ra từ công nghệ này.

Khi AI tạo sinh được áp dụng rộng rãi trên nhiều lĩnh vực, ngành nghề, các DN cũng có thể trở nên linh hoạt, sáng tạo và năng suất hơn. Theo Ngân hàng đầu tư Goldman Sachs, việc sử dụng rộng rãi AI có thể tăng năng suất 1,5% hàng năm trong vòng 10 năm.

Tuy nhiên, chia sẻ tại Hội nghị Diễn đàn kinh tế thế giới (WEF) Davos 2024, ông Raj Verma, Giám đốc điều hành SingleStore cho biết sự mở rộng nhanh chóng này cũng đòi hỏi sự thận trọng. Các DN cần phải cân nhắc, cân đối sao cho phù hợp để việc mở rộng sử dụng AI không chỉ vì mục đích lợi nhuận. Họ phải nhận ra rằng, giống như nhiều công nghệ mới nổi khác trước đây, việc sử dụng AI không kiểm soát có thể mang lại những hậu quả nguy hiểm.

AI tạo sinh có khả năng thúc đẩy sự lan truyền của thông tin sai lệch, làm trầm trọng thêm tình trạng nghiện mạng xã hội ở thanh thiếu niên và duy trì những định kiến xã hội hiện có. Những hậu quả này không chỉ gây hại cho xã hội nói chung mà còn đặt ra thách thức cho những DN đang cố gắng xây dựng niềm tin từ khách hàng.

Vậy, trong bối cảnh AI phát triển nhanh chóng, làm thế nào để các DN, tổ chức có thể sử dụng công nghệ này một cách có đạo đức?

aii.jpg

Ưu tiên bảo mật dữ liệu

Theo ông Raj Verma, đầu tiên, các công ty phải ưu tiên bảo vệ dữ liệu của chính họ, của khách hàng và của người tiêu dùng. Để làm điều này, họ cần hiểu rõ về những rủi ro khi sử dụng mô hình ngôn ngữ lớn (LLM) công cộng. LLM là nền tảng của AI tạo sinh. Chúng là các thuật toán sử dụng lượng lớn dữ liệu để đưa ra dự đoán và tạo ra nội dung. LLM công khai thu thập dữ liệu từ các bộ dữ liệu chung, có sẵn công khai và cung cấp cho bất kỳ ai.

Nếu các mô hình AI tạo sinh không đảm bảo an toàn bảo mật, chúng có thể bị lộ hoặc rò rỉ dữ liệu nhạy cảm được sử dụng trong quá trình đào tạo - hoặc đưa ra những thành kiến.

Để giảm thiểu rủi ro này, các công ty có thể sử dụng LLM riêng, được đào tạo trên một ngữ cảnh dữ liệu cụ thể và chỉ có thể được truy cập bởi những người quản lý được ủy quyền.

Với LLM riêng tư, các công ty có thể tận dụng lợi ích của AI tạo sinh. Ví dụ, phát triển chatbot dựa trên dữ liệu khách hàng của mình mà không phải đối mặt với rủi ro gửi dữ liệu cho bên thứ ba. Và vì những LLM này được đào tạo trên thông tin cụ thể và cho phép kiểm soát về chu kỳ cập nhật, nên chúng ít có khả năng đưa ra những phản hồi “không liên quan, vô nghĩa hoặc không chính xác về mặt thực tế”.

Giảm thiểu sự thiên vị AI

Cốt lõi của AI là dữ liệu. Không có dữ liệu, AI sẽ trở nên vô dụng - nhưng với dữ liệu sai, công nghệ này cũng có thể gây ra những nguy hiểm khó lường.

Các hệ thống AI tạo sinh phổ biến như ChatGPT dựa vào các nguồn dữ liệu lớn và có sẵn công khai, trong đó có một số dữ liệu phản ánh những thành kiến lịch sử và xã hội, khi đó các hệ thống AI được đào tạo dựa trên các bộ dữ liệu này sẽ sao chép lại đúng những thành kiến này.

Theo ông Raj Verma, cách tốt nhất để đối phó với sự thiên vị AI là kết hợp con người vào quy trình đào tạo LLM. Mối quan hệ giữa con người và AI này có thể gồm hai phần: Con người có thể theo dõi, giám sát các hệ thống AI để cung cấp thông tin đầu vào, đưa ra ý kiến phản hồi và sửa lỗi nhằm nâng cao hiệu suất của nó; trong khi đó, AI được đào tạo có thể được sử dụng để giúp con người phát hiện sự thiên vị trong hành vi của họ.

Ví dụ, khi con người cung cấp cho AI dữ liệu phù hợp và dạy nó loại bỏ thành kiến thông qua việc sửa lỗi, AI có thể được đào tạo để thông báo cho người quản lý tuyển dụng về các hành vi phân biệt đối xử tiềm ẩn có thể tồn tại trong các quyết định tuyển dụng của công ty.

Thực hiện khuôn khổ minh bạch

Để sử dụng AI có đạo đức, Giám đốc điều hành SingleStore nhấn mạnh các công ty phải đảm bảo rằng việc sử dụng AI của họ tuân thủ các khung pháp lý, bao gồm luật bảo vệ dữ liệu, an ninh mạng và quản trị DN.

Nhưng làm thế nào các công ty có thể tuân thủ các cơ chế giám sát vẫn chưa được thiết kế? Câu trả lời nằm ở sự minh bạch. Tính minh bạch là chìa khóa để tạo niềm tin và vượt qua nỗi sợ hãi rằng AI có thể kiểm soát và thậm chí chi phối cuộc sống của chúng ta. Nhóm chuyên gia cấp cao về AI (AI HLEG) của Liên minh châu Âu (EU) đã phát triển một danh sách đánh giá về AI tin cậy mà các công ty có thể sử dụng như một hướng dẫn và nó tuân theo 3 nguyên lý sau đây:

Khả năng theo dõi: Quá trình phát triển hệ thống AI có được ghi chép chính xác và đầy đủ không? Ví dụ, người dùng có thể theo dõi lại dữ liệu nào đã được hệ thống AI sử dụng để đưa ra quyết định không?

Khả năng giải thích: Có thể giải thích được lý do đằng sau các giải pháp hoặc quyết định của hệ thống AI không? Quan trọng hơn, con người có thể hiểu được quyết định được đưa ra bởi hệ thống AI không?

Giao tiếp: Các tiềm năng và hạn chế của hệ thống có được thông báo đến người sử dụng không? Ví dụ, có nên thông báo cho người dùng rằng họ đang giao tiếp với một chatbot AI chứ không phải là con người?

“AI là một trong những công cụ công nghệ hứa hẹn nhất từng được phát triển, không phải vì nó có thể giúp chúng ta tăng lợi nhuận và năng suất (mặc dù chắc chắn là như vậy), mà vì tiềm năng to lớn của nó trong việc giúp chúng ta trở thành con người tốt hơn. Trách nhiệm của chúng ta là phát triển nó một cách có trách nhiệm - để đảm bảo nó tốt cho xã hội và tốt cho DN”, ông Raj Verma nhấn mạnh./.

Bài liên quan
  • Tối ưu hoá khả năng của AI trong đảm bảo an toàn thông tin
    Sự tác động qua lại giữa AI và việc đảm bảo an toàn thông tin luôn là chủ đề được bàn luận. Đặc biệt là những đóng góp, mặt tích cực mà AI đem lại. Phát huy tối đa khả năng của AI trong lĩnh vực an ninh mạng là cần thiết trong bối cảnh hiện nay.
Nổi bật Tạp chí Thông tin & Truyền thông
  • Giáo dục Việt Nam thời kỳ chuyển đổi số: Thực trạng, thách thức và giải pháp đột phá
    Trong nhiều thập kỷ qua, giáo dục luôn được coi là quốc sách hàng đầu ở Việt Nam. Hệ thống giáo dục đã đạt được những thành tựu nổi bật, như tỷ lệ phổ cập giáo dục tiểu học gần như tuyệt đối và việc duy trì sự tham gia của học sinh ở các cấp học cao hơn. Tuy nhiên, bước vào kỷ nguyên công nghệ số, giáo dục Việt Nam đang phải đối mặt với nhiều yêu cầu cấp bách về đổi mới để phù hợp với xu thế toàn cầu hóa và chuyển đổi số (CĐS).
  • DeepSeek đối mặt với sự giám sát chặt chẽ tại châu Âu
    DeepSeek, chatbot AI mới nổi đến từ Trung Quốc, đang phải đối mặt với sự giám sát chặt chẽ từ các cơ quan quản lý tại châu Âu, chỉ sau một thời gian ngắn gây sốt giới công nghệ.
  • Lì xì “số”: xu hướng của Tết Nguyên đán thời đại số
    Lì xì đầu năm mới là nét đẹp truyền thống trong dịp Tết Nguyên đán ở các nước châu Á. Nó tượng trưng cho những lời chúc dành cho con trẻ và tượng trưng cho lòng hiếu thảo của con cháu đối với người lớn tuổi trong gia đình. Trong thời đại số, lì xì “số” đang trở thành xu hướng tại nhiều quốc gia.
  • Nhu cầu chip toàn cầu cao kỷ lục trong năm 2025
    Theo dự báo của Tổ chức Thống kê kinh doanh bán dẫn thế giới (WSTS) tháng 1/2025, thị trường chip (vi mạch) toàn cầu nhiều khả năng sẽ tăng trưởng 11,2% và đạt mốc cao kỷ lục 697,18 tỷ USD trong năm 2025 nhờ nhu cầu mạnh mẽ đối với các vật liệu bán dẫn cần cho điện thoại thông minh tích hợp trí tuệ nhân tạo (AI) và các trung tâm dữ liệu.
  • Mỹ lo ngại bị "sao chép" công nghệ AI: DeepSeek có vi phạm sở hữu trí tuệ?
    Mỹ đang lo ngại mô hình DeepSeek có thể đã hưởng lợi từ một phương pháp được cho là “sao chép” những tiến bộ của các đối thủ cạnh tranh ở Mỹ, được gọi là "distillation" (tạm dịch: chiết xuất).
Đừng bỏ lỡ
AI có thể gia tăng hiệu suất, nhưng không nên đánh đổi bằng đạo đức
POWERED BY ONECMS - A PRODUCT OF NEKO