Bảo mật nguồn mở trong AI

An toàn thông tin - Ngày đăng : 07:15, 26/06/2024

AI đang được nhanh chóng tích hợp vào các lĩnh vực mới và nhạy cảm hơn như chăm sóc sức khỏe, bảo hiểm, vận tải, nhân sự và các hoạt động công nghệ thông tin (IT).
An toàn thông tin

Bảo mật nguồn mở trong AI

Hạnh Tâm 26/06/2024 07:15

AI đang được nhanh chóng tích hợp vào các lĩnh vực mới và nhạy cảm hơn như chăm sóc sức khỏe, bảo hiểm, vận tải, nhân sự và các hoạt động công nghệ thông tin (IT).

Các sản phẩm AI mới đang xuất hiện trên thị trường với tốc độ nhanh hơn những gì chúng ta từng thấy trong các cuộc cách mạng công nghệ trước đây. Với quyền truy cập miễn phí và sử dụng nguồn mở trong các mô hình phần mềm AI đã cho phép các công ty tạo sản phẩm AI với giá rẻ và ở tốc độ siêu thanh.

a1.jpg

Tuy nhiên, điều mà các công ty AI thường bỏ qua, thậm chí che giấu người dùng, là sự thiếu sự giám sát bảo mật. Nhiều dự án AI nguồn mở cơ bản chưa được thẩm tra mục đích sử dụng. Mặc dù tận dụng nguồn mở trong AI giúp mang lại lợi ích tài chính rất lớn nhưng quan trọng hơn là cần phải bảo mật nền tảng của các thành phần nguồn mở.

Mối đe dọa bảo mật đối với các sản phẩm AI

Theo báo cáo chỉ số AI năm 2024 (2024 AI Index report), số lượng cấp bằng sáng chế AI đã tăng thêm 62.700 trong khoảng thời gian từ 2021 - 2022. Các công ty đang chạy đua để giành vị trí dẫn đầu khi những sản phẩm AI nhanh chóng được tung ra thị trường.

Sử dụng nguồn mở là cách duy nhất để tạo nguyên mẫu (mô hình được sử dụng để thử nghiệm trước khi đưa vào sản xuất) cho các sản phẩm AI mới. Bằng cách khai thác loại giấy phép miễn phí của phần mềm nguồn mở, các công ty có thể tiết kiệm chi phí và thời gian trong việc phát triển sản phẩm của mình.

Tuy nhiên, mối quan tâm của công chúng đang ngày càng tăng khi lĩnh vực AI không quan tâm đến rủi ro mà vẫn sử dụng rộng rãi các dự án nguồn mở để xử lý dữ liệu nhạy cảm mà không có tính bảo mật đặc biệt dành riêng cho AI.

Trong các cuộc phỏng vấn được thực hiện cho báo cáo Rủi ro an ninh mạng đối với AI (Cybersecurity Risks to Artificial Intelligence) của Bộ Khoa học, Đổi mới và Công nghệ Vương quốc Anh, những nhà lãnh đạo điều hành các lĩnh vực khác nhau đã tuyên bố rằng không có các công cụ AI chuyên biệt nào được sử dụng trong quá trình phát triển phần mềm của họ. Hơn nữa, các nhà lãnh đạo không thực hiện bất kỳ giao thức bảo mật nội bộ nào trên các mô hình AI ngoài hệ thống ngăn chặn rò rỉ dữ liệu hiện có trong một số trường hợp đặc biệt. Các ứng dụng AI không thể ứng phó với những rủi ro ngày càng tăng khi sử dụng các dự án nguồn mở chưa được xem xét kỹ lưỡng.

Hầu hết các thư viện nguồn mở trong phát triển AI này đều ra đời trước thời kỳ bùng nổ AI tạo sinh. Tại thời điểm đó, các nhà phát triển AI đã chưa tính đến cách sử dụng dự án của họ trong các sản phẩm AI. Do đó mà ngày nay đã gặp phải vấn đề chấp nhận đầu vào không đáng tin cậy nhưng vẫn được cho là an toàn hoặc những vấn đề lỗi ngoài dự kiến trong các dự án AI.

Ngoài ra, một báo cáo của Viện Tiêu chuẩn và Công nghệ quốc gia Mỹ (NIST) còn đề cập đến mối đe dọa tiềm ẩn trong việc AI bị định hướng sai dẫn đến sử dụng sai mục đích hoặc định hướng sai chính phần mềm AI.

Kết quả của việc không kiểm tra hoặc thử nghiệm cụ thể các dự án này để sử dụng với AI là bề mặt tấn công sẽ thay đổi, từ đó làm thay đổi các mối đe dọa. Do đó, cần phải xem xét kỹ lưỡng khi sử dụng các dự án nguồn mở cho AI.

Mối đe dọa lớn hơn nữa đến tính bảo mật của các dự án này là các loại lỗi mới đặc biệt dành riêng cho AI trong tất cả các dự án liên quan đến AI. Vì AI có nhiều ứng dụng và các tập đoàn tư nhân có những quy tắc bảo mật khác nhau cho mô hình của riêng mình nên không có “tiếng nói chung” về các lỗi mới này là gì hoặc chúng có thể được tìm thấy ở đâu.

Đảm bảo các dự án nguồn mở là nền tảng của AI

Các sản phẩm này là phần mềm độc quyền và cách duy nhất để xem lại toàn bộ mã là xem lại bất kỳ phần mềm nguồn mở nào mà AI đang sử dụng để nắm bắt sâu về tình trạng bảo mật của phần mềm.

Để tạo ra sự thay đổi mạnh mẽ về bảo mật AI nguồn mở thì các công ty sử dụng những dự án nguồn mở phải đầu tư thời gian và nguồn lực để hỗ trợ bảo mật cho phần mềm, đặc biệt khi hồ sơ rủi ro của dự án đã thay đổi do sự ra đời của AI.

Bằng cách cấp ngân sách cho các nhà phát triển độc lập để làm việc trên nguồn mở, cho các nhà bảo trì để tăng số giờ bảo trì cho dự án hoặc cho các cuộc kiểm toán bảo mật có thể cải thiện tính bảo mật của các nguồn mở vốn là nền tảng của AI. Với việc kết hợp với hệ sinh thái nguồn mở hiện có để đầu tư cho các phương pháp bảo mật có sự ảnh hưởng trực tiếp và nhanh chóng đến các dự án, các công ty AI có thể hỗ trợ hiệu quả không chỉ cho lợi ích của các công ty mà còn thu hút được nguồn đầu tư.

Tạo ra sự thay đổi tích cực sâu sắc và lâu dài cho bảo mật trên toàn cầu đòi hỏi sự hợp tác giữa những người tham gia trong ngành cùng với sự đầu tư ngân sách cũng như sự tham gia tích cực hơn nữa của các tổ chức chính phủ.

Ví dụ, trong một báo cáo từ Bộ Tài chính Mỹ, các nhà nghiên cứu đề xuất tạo ra một phương tiện giao tiếp toàn diện trong lĩnh vực tài chính xung quanh phần mềm AI thông qua bách khoa về AI chung. Nỗ lực đó giúp các nhà đầu tư có những cuộc trao đổi sâu sắc hơn về AI, có khả năng trình bày rõ ràng hành vi của phần mềm AI.

Các công ty có thể thành lập các quỹ và bảo mật theo mức chi phí để đạt được mức độ bảo mật cao hơn. Nỗ lực chung này cũng có thể phát triển một mặt trận thống nhất về bảo mật AI với các tổ chức toàn cầu nhằm giảm thiểu rủi ro hệ thống và cải thiện bối cảnh an ninh tổng thể. Thông qua những nỗ lực phối hợp và chủ động, ngành có thể giảm rủi ro xảy ra lỗ hổng “log4shell” tiếp theo trong AI, tránh thảm họa lộ dữ liệu nhạy cảm của người dùng và mô hình AI trên nhiều lĩnh vực. Sự thay đổi đó bắt đầu bằng việc đầu tư vào bảo mật nguồn mở.

Kết luận

Bằng cách tận dụng những công nghệ nguồn mở, các công ty tránh được những rào cản về thời gian và chi phí trong việc phát triển AI, nhưng họ đã bỏ qua các bước kiểm tra bảo mật quan trọng đồng thời tạo ra vô số lỗ hổng cho thị trường.

Đây là mối đe dọa sắp xảy ra mà các công ty cần phải khắc phục để ngăn chặn ngay những thảm họa lớn. Để có được hiệu quả và sức ảnh hưởng một cách bền vững cần phải có sự đầu tư tài chính, điều mà lĩnh vực AI đã đầu tư hàng tỷ USD. Một số tổ chức đã chia nhỏ chi phí nỗ lực bảo mật để đạt được tính bảo mật cao hơn cho các dự án mà họ sử dụng.

Nỗ lực chung này cũng có thể phát triển một mặt trận thống nhất về bảo mật AI với các tổ chức toàn cầu nhằm giảm thiểu rủi ro hệ thống, tiết kiệm cho họ hàng triệu USD và có thể là hàng tỷ USD chi phí khắc phục các lỗ hổng AI bị khai thác. Hãy đầu tư vào bảo mật cơ sở hạ tầng nguồn mở của bạn và ngăn chặn sự cố bảo mật trị giá hàng tỷ đô la tiếp theo./.

Hạnh Tâm