Đào Trung Thành
Chuyên gia tư vấn chiến lược CNTT và Trí tuệ nhân tạo
Ý kiến chuyên gia

Giải pháp cho thách thức AI "ngầm": Từ cấm đoán đến minh bạch

Đào Trung Thành 03/08/2025 14:05

Hiện tượng AI "ngầm" (shadow AI) đang bùng nổ mạnh mẽ trong các doanh nghiệp toàn cầu, đặc biệt nghiêm trọng tại ngành ngân hàng và viễn thông.

shadow-ai.jpg

Theo BCG, khảo sát[44] trên hơn 10.600 nhân viên tại 11 quốc gia cho thấy:

Hơn một nửa (54%) cho biết sẽ sử dụng công cụ AI kể cả khi không được phép hoặc không có hỗ trợ chính thức từ công ty.

Gen Z và Millennials là nhóm “vượt rào” mạnh nhất, với 62% chấp nhận tự dùng AI bên ngoài hệ sinh thái doanh nghiệp, cao hơn 19 điểm phần trăm so với các nhóm tuổi khác

Với tình hình đáng lo ngại này, các tổ chức cần chuyển từ tư duy "cấm đoán" sang "quản lý thông minh" để kiểm soát rủi ro mà vẫn tận dụng được tiềm năng công nghệ.

bieu-do-03082025.png
Biểu đồ thể hiện tỷ lệ nhân viên sẵn sàng sử dụng AI bất chấp chính sách công ty cấm, với 54% vượt rào để dùng công cụ không được phê duyệt.

Bối cảnh và quy mô vấn đề

Thực trạng Shadow AI toàn cầu

Nghiên cứu từ Software AG và các tổ chức uy tín cho thấy shadow AI đã trở thành hiện tượng phổ biến với các con số đáng báo động[1][2][3]. Đặc biệt, trong ngành ngân hàng và viễn thông, việc sử dụng AI không được phê duyệt tăng trưởng 250% chỉ trong năm qua[4].

So sánh tỷ lệ sử dụng AI không được phê duyệt giữa các thế hệ, cho thấy GenZ và Millennials có xu hướng vượt rào cao hơn 19% so với các nhóm tuổi khác.

Thế hệ trẻ, vốn quen thuộc với công nghệ mới, thể hiện xu hướng "vượt rào" cao hơn 19% so với các nhóm tuổi khác. Điều này tạo ra sự phân hóa trong tổ chức và thách thức lớn cho việc quản lý thống nhất[2][3].

Tại sao ngân hàng và viễn thông dễ bị tổn thương?

Khối lượng dữ liệu nhạy cảm kép: Hai ngành này quản lý đồng thời thông tin cá nhân và tài chính của khách hàng, tạo ra "mục tiêu kép" cho các rủi ro bảo mật[5][6]. Khi nhân viên đưa dữ liệu này vào các công cụ AI công cộng, hậu quả có thể nghiêm trọng gấp bội.

Hạ tầng on-premise lạc hậu: Nhiều doanh nghiệp nhà nước và tập đoàn lớn vẫn dựa vào hệ thống cũ, thiếu API an toàn và giao diện thân thiện. Điều này khiến nhân viên tìm đến các giải pháp "đám mây" bên ngoài để được kết quả nhanh chóng[5][7].

Chính sách siết chặt quá mức: Khi quy định nội bộ quá khắt khe mà không đưa ra lựa chọn thay thế khả thi, nhân viên buộc phải "lén lút" sử dụng công cụ bên ngoài[1][8].

Rủi ro pháp lý và tuân thủ

Tác động từ Nghị định 13/2023/NĐ-CP

Tại Việt Nam, Nghị định 13/2023/NĐ-CP về bảo vệ dữ liệu cá nhân đã tạo ra khung pháp lý chặt chẽ[9][10][11]. Điều 15 quy định các hành vi vi phạm có thể dẫn đến phạt nặng và buộc phải công khai vi phạm, tạo áp lực kép về tài chính và danh tiếng[12][13].

Đặc biệt, việc chuyển dữ liệu cá nhân ra nước ngoài thông qua các công cụ AI không được kiểm soát có thể kích hoạt các điều khoản xử phạt nghiêm khắc nhất của nghị định này[10][11].

Tuân thủ quốc tế bị đe dọa

Basel III và quản lý rủi ro: Các ngân hàng phải tuân thủ khung Basel III về quản lý rủi ro tài chính. Khi hoạt động AI diễn ra ngoài hệ thống SIEM, việc theo dõi và báo cáo trở nên không khả thi[14][15].

ISO 27001 và bảo mật thông tin: Tiêu chuẩn ISO 27001 yêu cầu kiểm soát toàn diện các hệ thống xử lý thông tin. Shadow AI tạo ra "điểm mù" trong quản lý bảo mật, có thể làm mất hiệu lực chứng nhận[14][16].

Model memorization: Khi dữ liệu doanh nghiệp được đưa vào các mô hình AI công cộng, thông tin có thể bị "ghi nhớ" và truy xuất ngược bởi người khác, tạo ra rủi ro bảo mật lâu dài[17][18][19].

Giải pháp toàn diện

Khung chính sách "mở nhưng có lan can"

AI Acceptable Use Policy rõ ràng: Thay vì cấm hoàn toàn, doanh nghiệp cần xây dựng chính sách sử dụng AI chấp nhận được với các nguyên tắc cụ thể[20][21][22]:

- Phân loại dữ liệu được phép và cấm sử dụng

- Quy trình gỡ bỏ thông tin định danh (PII) trước khi gửi

- Các trường hợp ngoại lệ và quy trình phê duyệt đặc biệt

Trách nhiệm pháp lý: Bổ sung điều khoản về AI vào hợp đồng lao động để nhân viên hiểu rõ việc "dùng sai" là vi phạm kỷ luật, không phải sáng kiến cá nhân[20][23].

Hạ tầng AI nội bộ tiện lợi

Azure OpenAI Private Endpoint: Triển khai giải pháp Azure OpenAI với private endpoint cho phép tổ chức sử dụng sức mạnh của GPT mà vẫn đảm bảo dữ liệu không rời khỏi môi trường kiểm soát[24][25][26].

Llama-3 self-hosted trong DMZ: Đặt mô hình Llama-3 trong vùng DMZ với các biện pháp bảo mật đa lớp, kết hợp bộ lọc DLP và log toàn bộ prompt[27][28][29].

RAG (Retrieval Augmented Generation): Triển khai hệ thống RAG cho phép AI chỉ truy cập kho tri thức nội bộ, tránh gửi nguyên văn dữ liệu ra bên ngoài[30][31][32].

Văn hóa minh bạch và đào tạo liên tục

Chương trình AI Champions: Xây dựng mạng lưới AI Champions nội bộ - những nhân viên am hiểu công nghệ có thể hỗ trợ đồng nghiệp và thu thập phản hồi[33][34][35]. Các Champions này sẽ:

- Tổ chức hội thảo (workshop) 90 phút với case study thực tế

- Chia sẻ thất bại và bài học kinh nghiệm

- Kênh tư vấn nhanh qua mạng nội bộ

Monitoring thông minh: Đội bảo mật thiết lập dashboard realtime cảnh báo truy vấn bất thường nhưng không "phạt vô tội vạ", nuôi dưỡng niềm tin rằng "nói thật sẽ được hỗ trợ"[36][37][38].

Công nghệ hỗ trợ

Data Loss Prevention (DLP) cho AI

Các giải pháp DLP hiện đại cần được nâng cấp để phát hiện và ngăn chặn việc sử dụng AI không được phê duyệt[39][40][41]:

AI-based content detection: Sử dụng AI để nhận diện các loại dữ liệu nhạy cảm phức tạp

Real-time monitoring: Giám sát thời gian thực các hoạt động AI

Behavioral analysis: Phân tích hành vi người dùng để phát hiện anomaly

SIEM tích hợp AI

Hệ thống SIEM cần được nâng cấp để theo dõi hoạt động AI[42][36][43]:

- Log tất cả các tương tác với các công cụ AI

- Correlation rules đặc biệt cho AI usage patterns

- Automated alerting cho suspicious AI activities

Chiến lược triển khai

Giai đoạn 1: Đánh giá và lập kế hoạch (1-2 tháng)

- Khảo sát thực trạng sử dụng AI trong tổ chức

- Xác định các rủi ro ưu tiên cao

- Thiết kế chính sách AI phù hợp

Giai đoạn 2: Triển khai hạ tầng (3 - 6 tháng)

- Triển khai Azure OpenAI Private Endpoint hoặc self-hosted solution

- Cấu hình DLP rules cho AI usage

- Setup SIEM monitoring

Giai đoạn 3: Đào tạo và triển khai (2 - 3 tháng): Đào tạo AI Champions; Rollout chính sách toàn tổ chức; Continuous monitoring và adjustment

Kết luận

Marcus Aurelius từng nói: "Điều cản trở hành động lại thúc đẩy hành động." Việc cấm đoán AI hoàn toàn không chỉ không hiệu quả mà còn đẩy nhân viên vào "đường hầm tối" của shadow AI.

Thay vào đó, các tổ chức cần chọn cách "thắp đèn ở chính giữa hành lang" - tạo ra môi trường AI an toàn, minh bạch và được quản lý chặt chẽ. Điều này đòi hỏi sự kết hợp khéo léo giữa chính sách thông minh, công nghệ phù hợp và văn hóa tổ chức mở.

Doanh nghiệp nên bắt đầu từ việc xây dựng chính sách rõ ràng, đầu tư vào hạ tầng AI an toàn, và quan trọng nhất là nuôi dưỡng văn hóa minh bạch - nơi nhân viên cảm thấy được hỗ trợ thay vì bị trừng phạt khi sử dụng AI một cách có trách nhiệm.

Trong kỷ nguyên AI, thành công không thuộc về những ai cấm đoán công nghệ, mà thuộc về những ai biết cách khai thác nó một cách thông minh và an toàn.

Tài liệu tham khảo
[1]. https://www.techaheadcorp.com/blog/shadow-ai-the-risks-of-unregulated-ai-usage-in-enterprises/
[2]. https://www.techradar.com/computing/artificial-intelligence/naughty-naughty-more-than-a-third-of-it-workers-are-using-unauthorised-ai-as-the-risks-of-shadow-tech-loom-large
[3]. https://www.unleash.ai/artificial-intelligence/half-of-workers-use-unauthorized-ai-at-work-and-dont-want-to-quit-software-ag/
[4]. https://www.zendesk.com/blog/shadow-ai/
[5]. https://www.linkedin.com/pulse/shadow-ai-finance-risk-realities-executive-strategies-amin-m-eng--d9t6c
[6]. https://vietnamnews.vn/economy/1722377/ai-application-is-key-to-improving-bank-credit-quality.html
[7]. https://www.ibm.com/think/topics/shadow-ai
[8]. https://www.tanium.com/blog/employees-are-embracing-shadow-ai-and-putting-company-data-at-risk/
[9]. https://luatthanhdo.com.vn/noi-dung-chinh-cua-nghi-dinh-13-ve-bao-ve-du-lieu-ca-nhan
[10]. https://vngcloud.vn/vi/blog/key-notes-for-businesses-under-decree-13-2023-nd-cp-on-personal-data-protection
[11]. https://kpmg.com/vn/vi/home/phan-tich-chuyen-sau/2023/04/nghi-dinh-13-ve-bao-ve-du-lieu-ca-nhan.html
[12]. https://congan.longan.gov.vn/vi/chi-tiet-tin-tuc?Id=123017
[13]. https://vbpl.vn/caobang/Pages/vbpq-toanvan.aspx?ItemID=161106
[14]. https://cyberupgrade.net/blog/compliance-regulations/addressing-ai-related-threats-through-iso-27001-compliance/
[15]. https://blog.smartglobalgovernance.com/en/basel-iii-simplify-your-banking-compliance-with-an-integrated-approach/
[16]. https://citationgroup.com.au/resources/how-ai-and-machine-learning-are-revolutionising-iso-27001-compliance/
[17]. https://arxiv.org/html/2503.22760v1
[18]. https://www.donets.org/risks/sensitive-data-leakage-via-memorization
[19]. https://milvus.io/ai-quick-reference/what-are-the-privacy-risks-associated-with-llms
[20]. https://www.deel.com/resources/ai-acceptable-use-policy-template
[21]. https://lattice.com/templates/ai-usage-policy-template
[22]. https://witness.ai/blog/ai-policy-template/
[23]. https://www.techtarget.com/searchsecurity/tip/How-to-create-an-AI-acceptable-use-policy-plus-template
[24]. https://techcommunity.microsoft.com/blog/azurearchitectureblog/azure-openai-private-endpoints-connecting-across-vnet’s/3913325
[25]. https://learn.microsoft.com/en-us/azure/ai-foundry/openai/how-to/network
[26].https://trendmicro.com/cloudoneconformity/knowledge-base/azure/AIServices/use-private-endpoints.html
[27].https://www.reddit.com/r/LocalLLaMA/comments/1dtshho/selfhost_llama_3_on_your_own_cloud_in_python/
[28]. https://www.run.house/blog/how-to-use-llama-3-self-hosted
[29]. https://brainsteam.co.uk/2024/04/20/self-hosting-llama-3-on-a-home-server/
[30]. https://coralogix.com/ai-blog/rag-in-production-deployment-strategies-and-practical-considerations/
[31]. https://www.stack-ai.com/blog/enterprise-rag-what-it-is-and-how-to-use-this-technology
[32]. https://www.codiste.com/implementing-agentic-rag-enterprise-guide
[33]. https://www.the-prompt.ai/workshop-org/becoming-an-ai-champion:-how-to-lead-ai-in-your-workplace
[34].https://www.cambridgespark.com/blog/what-is-ai-champion
[35]. https://www.linkedin.com/pulse/3-steps-fostering-team-generative-ai-champions-googleworkspace-8yq4e
[36]. https://www.sentinelone.com/cybersecurity-101/data-and-ai/siem-log-monitoring/
[37]. https://www.sentinelone.com/cybersecurity-101/data-and-ai/siem-use-cases/
[38]. https://www.detectionatscale.com/p/the-agentic-siem
[39]. https://www.nightfall.ai/blog/the-best-data-loss-prevention-solutions
[40]. https://www.lighthouseglobal.com/blog/ai-data-loss-prevention
[41]. https://www.lakera.ai/blog/data-loss-prevention
[42]. https://www.freecodecamp.org/news/how-to-create-a-python-siem-system-using-ai-and-llms/
[43]. https://www.elastic.co/blog/9-benefits-of-ai-driven-siem-security
[44]. https://www.bcg.com/publications/2025/ai-at-work-momentum-builds-but-gaps-remain./.

Xem thêm
Bài khác
Giải pháp cho thách thức AI "ngầm": Từ cấm đoán đến minh bạch
POWERED BY ONECMS - A PRODUCT OF NEKO