Cần làm gì khi sử dụng công cụ AI cho nhu cầu của tổ chức?
Ngay từ đầu, làm đúng là hiểu cách trí tuệ nhân tạo (AI) có thể trao quyền cho tổ chức của bạn phát triển vào năm 2023.
Kể từ khi ChatGPT được công bố vào cuối năm 2022, Internet đã trở nên huyên náo với sự bi quan và cả lạc quan. Yêu hay ghét thì AI cũng sẽ đến với tổ chức của bạn. Ngay cả khi bạn không có kế hoạch phát triển một sản phẩm AI hoặc thuê AI bot (một ứng dụng phần mềm tự động thực hiện các tác vụ lặp đi lặp lại qua mạng) để viết mã, thì nó vẫn có thể được tích hợp vào các công cụ và nền tảng được sử dụng để xây dựng, thử nghiệm và chạy mã nguồn thủ công.
Nên đặt ra những câu hỏi
Dù các công cụ AI có thể sẽ mang lại những rủi ro nhưng nó cũng lại có khả năng mang lại những lợi ích to lớn về năng suất từ việc tự động hóa các nhiệm vụ từng đòi hỏi não bộ của con người phải làm việc.
Những rủi ro có thể sảy ra bắt nguồn từ cách AI được đào tạo, xây dựng, lưu trữ và sử dụng - tất cả đều khác với các công cụ phần mềm khác hiện được các nhà phát triển sử dụng. Hiểu rủi ro là bước đầu tiên trong việc quản lý rủi ro và để giúp bạn hiểu những rủi ro tiềm ẩn liên quan đến công cụ AI sắp tới.
Và để hiểu được những rủi ro này, theo các chuyên gia, chúng ta nên đặt ra một số câu hỏi có liên quan như:
Chúng sẽ được lưu trữ ở đâu? Các AI hiện đại hiện yêu cầu phần cứng chuyên dụng và đắt tiền để thực hiện các tác vụ đáng kinh ngạc mà chúng ta đang thấy ngày nay. Trừ khi bạn chuẩn bị mua một trung tâm dữ liệu (TTDL) hoàn toàn mới, nếu không AI bot của bạn sẽ hoạt động từ xa và yêu cầu các cân nhắc về bảo mật giống như nhân viên làm việc từ xa sử dụng quyền truy cập từ xa và lưu trữ dữ liệu ngoại vi.
Loại biện pháp bảo vệ nào được áp dụng để ngăn ngừa việc mất IP khi mã ở ngoài ranh giới? Mọi thứ từ tivi thông minh đến ô tô đều báo cáo dữ liệu sử dụng cho nhà sản xuất. Một số đang sử dụng dữ liệu đó để cải thiện, sửa lỗi phần mềm, nhưng lại xảy ra trường hợp dữ liệu này có thể được bán cho các nhà quảng cáo. Hiểu chính xác cách công cụ AI sử dụng hoặc xử lý mã nguồn hoặc dữ liệu riêng tư khác mà công cụ này sử dụng là điều cần thiết.
Dữ liệu đầu vào có được sử dụng trong quá trình đào tạo AI trong tương lai không? Việc đào tạo liên tục các mô hình AI sẽ là một lĩnh vực ngày càng được quan tâm đối với cả chủ sở hữu và những người có dữ liệu được sử dụng để đào tạo mô hình. Ví dụ: chủ sở hữu có thể muốn ngăn các nhà quảng cáo thiên vị AI bot theo hướng có lợi cho khách hàng của họ. Các nghệ sĩ chia sẻ tác phẩm trực tuyến đã có các bot tạo hình ảnh AI sao chép phong cách của họ và rất lo ngại về việc mất hoặc đánh cắp danh tính người sáng tạo.
Độ trung thực của kết quả là gì? Hạn chế được nhắc đến nhiều nhất của ChatGPT là kết quả không chính xác - nó sẽ tự tin khẳng định những điều sai trái là sự thật. Điều này được gọi là “ảo giác” của AI. Hiểu cách thức và vị trí AI có thể bị ảo giác sẽ có thể giúp quản lý AI khi xảy ra vấn đề này.
Ngoài ra, chủ sở hữu và nhà phát triển AI sẽ có nhiều lo ngại về bảo mật. Những lo ngại mới này bao gồm các mối đe dọa đối với mô hình đào tạo của AI có thể làm hỏng kết quả hoặc tiết lộ thông tin độc quyền về cách thức hoạt động của mô hình. Ngoài ra, mô hình AI sẽ phải giao tiếp với API (cơ chế cho phép 2 thành phần phần mềm giao tiếp với nhau bằng một tập hợp các định nghĩa và giao thức), web, thiết bị di động và các ứng dụng khác cần được xây dựng một cách an toàn.
Hiểu ưu và nhược điểm của AI là chìa khóa
Các nhà phát triển sẽ phải đặt ra các câu hỏi cụ thể khi sử dụng công cụ AI, chẳng hạn như máy quét bảo mật AI để quản lý các rủi ro được đưa ra trong quá trình phát triển phần mềm.
Công cụ AI có phù hợp nhất cho trường hợp sử dụng này không? Hiểu ưu và nhược điểm của AI là chìa khóa. Nhiệm vụ có thể được chia nhỏ thành “đưa ra quyết định theo các quy tắc đã học” hoặc “viết nội dung tuân theo các quy tắc đã học”, thì AI sẽ càng làm tốt công việc đó.
Những biện pháp bảo vệ nào được áp dụng nếu công cụ không nắm bắt được thứ gì đó hoặc gây ảo giác? Đừng bao giờ đưa một nội dung sai sót nào vào các quy trình, đặc biệt là nội dung có thể gây ảo giác. Dựa vào các phương pháp phòng thủ chuyên sâu truyền thống hoặc mô hình quản lý rủi ro “phô mai Thụy Sĩ”, trong đó ngay cả khi một lớp bỏ sót vấn đề, lớp tiếp theo sẽ nắm bắt được vấn đề đã bị bỏ sót.
Cần có sự giám sát nào để kiểm tra kết quả của công cụ? Đây là vấn đề cũ nhưng được làm mới: hướng dẫn ghi nhật ký truyền thống được chia thành hai phần. Đầu tiên là thu thập dữ liệu về các sự kiện quan trọng, và thứ hai là kiểm tra nhật ký. Cho đến khi AI trưởng thành hơn nữa và những nhược điểm của nó được hiểu hoặc giảm thiểu, sẽ cần được con người lưu ý.
“Thuê” ChatGPT viết mã nguồn
Ngày càng có nhiều nhà phát triển “thuê” ChatGPT viết mã nguồn. Các báo cáo ban đầu cho thấy ChatGPT có khả năng viết mã nguồn bằng nhiều ngôn ngữ lập trình và thông thạo tất cả các ngôn ngữ phổ biến và được thảo luận công khai.
Nhưng do những hạn chế trong quá trình đào tạo và mô hình của phiên bản beta này, mã mà nó tạo ra không phải lúc nào cũng hoàn hảo. Thông thường, nó chứa các lỗi logic nghiệp vụ có thể thay đổi cách thức hoạt động của phần mềm, các lỗi cú pháp có thể kết hợp các phiên bản phần mềm khác nhau và các sự cố khác có nguồn gốc từ con người. Nói cách khác, ChatGPT là một nhà phát triển cơ sở. Khi sử dụng mã được viết bởi nhà phát triển cơ sở này, cần phải suy nghĩ về cách quản lý mã.
Ai sẽ là người quản lý và đảm bảo mã hoạt động, được tối ưu hóa, chất lượng cao và đạt tiêu chuẩn bảo mật? Các nhà phát triển cơ sở cần các nhà phát triển cao cấp. Mỗi dòng mã sẽ phải được kiểm tra và một số sẽ phải được sửa. Tuy nhiên, các báo cáo ban đầu cho thấy quá trình hiệu đính này nhanh hơn và dễ dàng hơn so với việc viết mã từ đầu.
Có phải ChatGPT đang tiêm nhiễm hoặc phối lại mã đào tạo vào cơ sở mã của bạn không? Mối đe dọa ngấm ngầm hơn là đôi khi các bot AI như GitHub Copilot tạo ra mã nguồn sao chép hoàn hảo các khối mã từ dữ liệu đào tạo của nó. Các công cụ chống đạo văn sẽ cần thiết để đảm bảo quản lý rủi ro về bản quyền.
Bot lấy dữ liệu đào tạo ở đâu? Một mô hình AI sẽ chỉ tốt khi dữ liệu của nó được đào tạo. Nếu bot được đào tạo trên mã cũ hoặc mã không chính xác, nó sẽ tạo ra kết quả cũ và không chính xác.
Lưu trữ ở đâu? Một lần nữa, AI bot phân tích mã nguồn, như vậy cần phải mang mã nguồn đến cơ sở xử lý của nó. Hãy suy nghĩ thêm về cách dữ liệu được bảo mật, sử dụng và xử lý sau khi dữ liệu rời khỏi ranh giới của công ty bạn.
Việc công bố ChatGPT vào tháng 12/2022 báo trước một thời đại mới trong ngành phát triển phần mềm, nhưng chúng ta cần phải hiểu đúng cách AI có thể trao quyền cho tổ chức để có thể khai thác, sử dụng AI cho công việc một cách hiệu quả./.