Chuyển động ICT

Những kinh nghiệm trong việc triển khai mô hình ngôn ngữ lớn

Tuấn Trần 20/11/2023 06:10

Việc xây dựng mô hình ngôn ngữ lớn (LLM) mới có thể khiến các doanh nghiệp (DN) tốn hàng triệu, thậm chí hàng trăm triệu USD. Nhưng có một số cách để triển khai LLM tùy chỉnh nhanh hơn, dễ hơn và quan trọng là rẻ hơn.

LLM là một trong những công nghệ mới phát triển nhanh nhất trong lịch sử. Trí tuệ nhân tạo (AI) tạo sinh (Generative AI) đang làm biến đổi thế giới, thay đổi cách chúng ta tạo ra hình ảnh và video, âm thanh, văn bản và mã (code).

anh-man-hinh-2023-11-17-luc-07.45.21.png
Có một số cách để triển khai LLM tùy chỉnh nhanh hơn, dễ hơn và quan trọng là rẻ hơn.

Theo một khảo sát vào tháng 9 dành cho những người ra quyết định về CNTT của Dell, 76% (trong số 500 người được phỏng vấn tại Mỹ, Anh, Pháp và Đức) cho biết AI sẽ có tác động “đáng kể nếu không muốn nói là mang tính biến đổi” đối với tổ chức của họ và hầu hết đều mong đợi sẽ thấy những kết quả có ý nghĩa trong vòng 12 tháng tới.

LLM là một loại AI tạo sinh tập trung vào văn bản và mã thay vì hình ảnh hoặc âm thanh, và một số đã bắt đầu tích hợp các phương thức khác nhau. Các LLM phổ biến nhất trong DN hiện là ChatGPT và các mô hình OpenAI GPT khác, Claude của Anthropic, Llama 2 của Meta và Falcon, một mô hình nguồn mở của Viện Đổi mới Công nghệ ở Abu Dhabi (UAE) nổi tiếng với khả năng hỗ trợ các ngôn ngữ khác ngoài tiếng Anh.

Có một số cách triển khai LLM tại DN, như cấp quyền cho nhân viên truy cập vào các ứng dụng công cộng, sử dụng kỹ thuật nhanh chóng và API (giao diện lập trình ứng dụng) để nhúng LLM vào phần mềm hiện có, sử dụng cơ sở dữ liệu (CSDL) vec-tơ để cải thiện độ chính xác và mức độ liên quan, tinh chỉnh các mô hình hiện có hoặc xây dựng mô hình riêng.

Triển khai LLM công cộng

Dig Security - công ty bảo mật dữ liệu đám mây của Israel, tại đây các kỹ sư sử dụng ChatGPT để viết mã. Giám đốc điều hành Dan Benjamin cho biết: “Các kỹ sư sử dụng công cụ để viết mã nhanh hơn”. Và ChatGPT là một trong những trợ lý mã hóa đầu tiên, dễ nhất hiện có.

Nhưng có một vấn đề với nó - chúng ta không bao giờ có thể chắc chắn liệu thông tin tải lên có được sử dụng để đào tạo mô hình thế hệ tiếp theo hay không? Dig Security giải quyết vấn đề này theo hai cách. Đầu tiên, họ dùng một cổng bảo mật để kiểm tra các thông tin đang được tải lên.

Benjamin nói: “Nhân viên của chúng tôi biết rằng họ không thể tải lên bất kỳ nội dung nhạy cảm nào. Chúng đã bị chặn".

Thứ hai, công ty "chuyển" các kỹ sư sang phiên bản ChatGPT chạy trên đám mây Azure dùng riêng. Điều này có nghĩa là Dig Security có phiên bản ChatGPT độc lập của riêng họ. Benjamin nói, ngay cả với phương pháp bảo mật này cũng không phải là giải pháp hoàn hảo. “Không có giải pháp hoàn hảo. Bất kỳ tổ chức nào nghĩ rằng có, đều đang tự lừa dối mình.”

Ông nói: “Tất cả là đào tạo, và đảm bảo rằng các nhân viên đều hiểu những gì họ cần làm là bảo mật dữ liệu”.

Dig Security không đơn độc.

Skyhigh Security ở California, Mỹ cho biết, gần 1 triệu người dùng cuối đã truy cập ChatGPT thông qua cơ sở hạ tầng của công ty trong nửa đầu năm 2023, với số lượng người dùng tăng 1.500% từ tháng 1 đến tháng 6, Tracy Holden, Giám đốc tiếp thị DN của Skyhigh cho biết.

Và trong thông báo vào tháng 7 của Netskope Threat Labs, cho biết mã nguồn được đăng lên ChatGPT nhiều hơn bất kỳ loại dữ liệu nhạy cảm nào khác với tỷ lệ 158 sự cố/10.000 người dùng DN mỗi tháng.

Gần đây, các công ty đã nhận được nhiều lựa chọn an toàn hơn, thân thiện với DN hơn, như Microsoft Copilot, kết hợp tính dễ sử dụng với các biện pháp kiểm soát và bảo vệ bổ sung.

Và tại sự kiện OpenAI DevDay vào đầu tháng 11, Giám đốc Điều hành của OpenAI Sam Altman (người vừa bị OpenAI công bố sa thải) cho biết, hiện có 100 triệu người đang sử dụng chatbot ChatGPT, 2 triệu nhà phát triển sử dụng API của công ty và hơn 92% công ty Fortune 500 đang xây dựng các dịch vụ trên nền tảng OpenAI .

CSDL vec-tơ và RAG

Đối với hầu hết các công ty đang tìm cách tùy chỉnh LLM, thế hệ tăng cường truy xuất (RAG) là cách tốt nhất. Cách thức hoạt động: người dùng đặt câu hỏi về chính sách hoặc sản phẩm của công ty. Câu hỏi đó không được đặt cho LLM ngay lập tức. Thay vào đó, nó được xử lý trước.

Người dùng có quyền truy cập thông tin đó không? Nếu có quyền truy cập thì tất cả thông tin có khả năng liên quan sẽ được truy xuất, thường là từ CSDL vec-tơ. Sau đó, câu hỏi và thông tin liên quan sẽ được gửi đến LLM và được tối ưu hóa cũng như chỉ định định dạng ưa thích của câu trả lời và giọng điệu mà LLM nên sử dụng.

CSDL vec-tơ là cách tổ chức thông tin thành một chuỗi danh sách, mỗi danh sách được sắp xếp theo một thuộc tính khác nhau. Ví dụ: chúng ta có thể có một danh sách theo thứ tự bảng chữ cái và các câu trả lời càng gần thứ tự bảng chữ cái thì chúng càng phù hợp.

Danh sách theo thứ tự bảng chữ cái là CSDL vec-tơ một chiều, nhưng chúng có thể có số lượng kích thước không giới hạn, cho phép người dùng tìm kiếm các câu trả lời liên quan dựa trên mức độ phù hợp của chúng với bất kỳ yếu tố nào. Điều đó làm cho chúng trở nên hoàn hảo để sử dụng cùng với LLM.

Ellie Fields, Giám đốc Sản phẩm và Kỹ thuật tại Salesloft - nhà cung cấp nền tảng tương tác bán hàng, cho biết: “Hiện tại, chúng tôi đang chuyển đổi mọi thứ sang CSDL vec-tơ".

Và nó hiệu quả hơn việc sử dụng các tài liệu đơn giản để cung cấp ngữ cảnh cho các truy vấn LLM, bà nói.

Công ty chủ yếu sử dụng ChromaDB - kho lưu trữ vec-tơ nguồn mở, mục đích sử dụng chính là dành cho LLM. Một CSDL vec-tơ khác mà Salesloft sử dụng là PGvector, một phần mở rộng tìm kiếm tương tự vec-tơ cho CSDL PostgreSQL.

Theo Ellie Fields: “Nhưng chúng tôi cũng đã thực hiện một số nghiên cứu bằng cách sử dụng FAISS và Pinecone". FAISS (Facebook AI Similarity Search) - thư viện mã nguồn mở do Meta cung cấp, hỗ trợ tìm kiếm điểm tương đồng trong các tài liệu đa phương tiện.

Và Pinecone là CSDL vec-tơ dựa trên đám mây độc quyền cũng trở nên phổ biến với các nhà phát triển và ở cấp độ miễn phí nó hỗ trợ tới 100.000 vec-tơ. Sau khi thông tin liên quan được lấy từ CSDL vec-tơ và được nhúng vào "lời nhắc", truy vấn sẽ được gửi tới OpenAI chạy trong phiên bản dùng riêng trên Microsoft Azure.

Fields nói: “Chúng tôi đã được chứng nhận Azure là bộ xử lý phụ mới trên nền tảng của mình. Chúng tôi luôn thông báo cho khách hàng khi có bộ xử lý mới để cung cấp thông tin cho họ".

Nhưng Salesloft cũng làm việc với cả Google và IBM, đồng thời đang nghiên cứu chức năng AI thế hệ mới có thể sử dụng trên các nền tảng đó.

Bà chia sẻ: “Chắc chắn chúng tôi sẽ làm việc với các nhà cung cấp khác nhau và các mô hình khác nhau. Mọi thứ đang thay đổi hàng tuần. Nếu bạn không xem xét các mô hình khác nhau, bạn sẽ bỏ lỡ cơ hội.”

Vì vậy, RAG cho phép các DN tách dữ liệu độc quyền của họ khỏi chính mô hình mẫu, giúp việc trao đổi mô hình vào và ra dễ dàng hơn nhiều khi các mô hình tốt hơn được phát triển. Ngoài ra, CSDL vec-tơ có thể được cập nhật, ngay cả trong thời gian thực mà không cần phải tinh chỉnh hoặc đào tạo lại.

Fields cho biết: “Chúng tôi đã chuyển đổi các mô hình, từ OpenAI sang OpenAI trên Azure. Và chúng tôi đã chuyển đổi giữa các mô hình OpenAI khác nhau. Chúng tôi thậm chí có thể hỗ trợ các mô hình khác nhau cho các bộ phận khách hàng khác nhau của mình.”

Bà cho biết thêm, đôi khi các mô hình khác nhau có các API khác nhau. Nhưng chuyển đổi mô hình vẫn dễ hơn là đào tạo lại. “Chúng tôi chưa tìm thấy trường hợp sử dụng nào được phục vụ tốt hơn bằng cách tinh chỉnh thay vì CSDL vec-tơ. Tôi tin có những trường hợp đã sử dụng nhưng cho đến nay, chúng tôi chưa tìm thấy trường hợp nào hoạt động tốt hơn.”

Một trong những ứng dụng LLM đầu tiên mà Salesloft triển khai là thêm tính năng cho phép người dùng tạo email bán hàng cho khách hàng tiềm năng.

Fields cho biết: “Người dùng đã mất rất nhiều thời gian để viết những email đó. Thật khó để bắt đầu và có rất nhiều trở ngại đối với người viết.” Vì vậy, giờ đây họ có thể chỉ định đối tượng mục tiêu, đề xuất giá trị và mong muốn - và họ nhận lại ba email nháp khác nhau, từ đó có thể cá nhân hóa. Fields cho biết Salesloft sử dụng GPT 3.5 của OpenAI để viết email.

Các mô hình nguồn mở chạy cục bộ

Phòng thí nghiệm Ikigai có trụ sở tại Boston, Mỹ cung cấp một nền tảng cho phép các công ty xây dựng các mô hình đồ họa lớn tùy chỉnh hoặc các mô hình AI được thiết kế để hoạt động với dữ liệu có cấu trúc. Nhưng để dễ sử dụng hơn, Ikigai hỗ trợ giao diện người dùng bằng LLM. Ví dụ: công ty sử dụng phiên bản 7 tỷ tham số của LLM nguồn mở Falcon và chạy nó trong môi trường riêng cho một số khách hàng của mình.

Để cung cấp thông tin cho LLM, Ikigai sử dụng CSDL vec-tơ, cũng chạy cục bộ. Đồng sáng lập và đồng CEO Devavrat Shah cho biết, nó được xây dựng dựa trên thuật toán Boundary Forest.

Shah, đồng thời là giáo sư về AI tại Viện Công nghệ Massachusetts (MIT), cho biết: “Tại MIT 4 năm trước, tôi và một số sinh viên đã thử nghiệm rất nhiều CSDL vec-tơ. Tôi biết nó sẽ hữu ích, nhưng không hữu ích đến mức này.”

Ông nói: Việc giữ cả mô hình và CSDL vec-tơ cục bộ có nghĩa là không có dữ liệu nào có thể bị rò rỉ ra ngoài cho bên thứ ba. “Đối với những khách hàng đồng ý gửi truy vấn cho người khác, chúng tôi sử dụng OpenAI. Chúng tôi theo thuyết bất khả tri của LLM.”

PricewaterhouseCoopers, công ty đã xây dựng công cụ ChatPWC của riêng mình, cũng không tin vào LLM. Bret Greenstein, đối tác của công ty và là người đứng đầu chiến lược tiếp cận thị trường thế hệ AI, cho biết: “ChatPWC giúp các cộng sự của chúng tôi có năng lực cao hơn. Ví dụ: nó bao gồm các lời nhắc được dựng sẵn để tạo mô tả công việc. Nó có tất cả các định dạng, mẫu và thuật ngữ. Chúng tôi có các chuyên gia nhân sự, dữ liệu và phản hồi nhanh chóng, đồng thời chúng tôi thiết kế thứ gì đó để tạo ra các tin tuyển dụng tốt. Bây giờ không ai cần biết cách thực hiện, những lời nhắc tuyệt có thể tạo ra các bản mô tả công việc.”

Công cụ này được xây dựng dựa trên Microsoft Azure, nhưng công ty cũng đã xây dựng nó cho Google Cloud Platform và AWS.

Greenstein cho biết: “Chúng tôi phải phục vụ khách hàng của mình và họ tồn tại trên mọi đám mây. Tương tự, công cụ này được tối ưu hóa để sử dụng các mô hình khác nhau vì đó là cách khách hàng mong muốn. Chúng tôi có mọi mô hình đều hoạt động được. Llama 2, Falcon - chúng tôi có mọi thứ.”

Tất nhiên, thị trường đang thay đổi nhanh chóng và Greenstein đề xuất các DN nên áp dụng chính sách “không hối tiếc” đối với việc triển khai AI.

Ông nói: “Có rất nhiều điều mọi người có thể làm, chẳng hạn như xây dựng dữ liệu của họ độc lập với các mô hình và xây dựng khả năng quản trị”. Sau đó, khi thị trường thay đổi và một mô hình mới xuất hiện, cấu trúc dữ liệu và quản trị sẽ vẫn phù hợp.

Sự tinh chỉnh

Công ty tư vấn quản lý AArete đã lấy mô hình nguồn mở GPT 2 và tinh chỉnh nó trên dữ liệu của mình. Priya Iragavarapu, Phó Giám đốc Dịch vụ Công nghệ số của công ty cho biết: “Nó rất nhẹ. Chúng tôi muốn một mã nguồn mở có thể lấy và đăng tải trong môi trường nội bộ.”

Nếu AArete sử dụng mô hình được lưu trữ và kết nối qua API thì các vấn đề về độ tin cậy sẽ xuất hiện. Bà Priya Iragavarapu nói: “Chúng tôi lo ngại dữ liệu từ lời nhắc. Chúng tôi không muốn rủi ro.”

Khi chọn một mô hình nguồn mở, Priya Iragavarapu xem xét số lần nó được tải xuống trước đó, sự hỗ trợ của cộng đồng và các yêu cầu phần cứng.

Priya Iragavarapu nói: “Mô hình nền tảng cũng cần có một số nhiệm vụ phù hợp. Có một số mô hình cho các nhiệm vụ cụ thể. Ví dụ: gần đây tôi đã xem mô hình của Hugging Face để phân tích nội dung từ tệp PDF thành định dạng có cấu trúc.”

Nhiều công ty trong ngành tài chính và chăm sóc sức khỏe đang tinh chỉnh LLM dựa trên bộ dữ liệu bổ sung của riêng họ.

Bà nói: “Các LLM cơ bản được đào tạo trên Internet. Với việc tinh chỉnh, một công ty có thể tạo ra một mô hình nhắm mục tiêu cụ thể vào trường hợp sử dụng kinh doanh của họ.

Cách phổ biến để thực hiện việc này là tạo danh sách các câu hỏi và câu trả lời rồi tinh chỉnh mô hình về những câu hỏi và câu trả lời đó. Trên thực tế, OpenAI đã bắt đầu cho phép tinh chỉnh mô hình GPT 3.5 của họ vào tháng 8, sử dụng phương pháp Q&A (Hỏi & Đáp) và tung ra một bộ tùy chọn tinh chỉnh, tùy chỉnh và RAG mới cho GPT 4 tại DevDay diễn ra vào tháng 11.

Điều này đặc biệt hữu ích cho các ứng dụng dịch vụ khách hàng và bộ phận trợ giúp, nơi một công ty có thể đã có ngân hàng dữ liệu gồm Các câu hỏi thường gặp.

Cũng trong cuộc khảo sát nói trên của Dell, 21% công ty được phỏng vấn cho biết thích đào tạo lại các mô hình hiện có bằng cách sử dụng dữ liệu của chính họ trong môi trường riêng của họ.

Andy Thurai, nhà phân tích chính tại Constellation Research Inc. cho biết: “Llama 2 có vẻ là lựa chọn phổ biến nhất. Llama 2 có ba kích cỡ khác nhau và miễn phí cho các công ty có ít hơn 700 triệu lượt người dùng hàng tháng".

Ông nói, "Các công ty có thể tinh chỉnh Llama 2 trên bộ dữ liệu của riêng họ và có một mô hình tùy chỉnh mới khá nhanh chóng. Trên thực tế, bảng xếp hạng Hugging Face LLM hiện bị chi phối bởi các tinh chỉnh và tùy chỉnh khác nhau của Llama 2. Trước Llama 2, Falcon là LLM mã nguồn mở phổ biến nhất", ông nói thêm. “Hiện tại đang là một cuộc chạy đua vũ trang.”

Ông nói rằng việc tinh chỉnh có thể tạo ra một mô hình chính xác hơn cho các trường hợp sử dụng kinh doanh cụ thể. “Nếu bạn đang sử dụng mô hình Llama tổng quát, độ chính xác có thể là thấp.”

Và có một số lợi ích khi tinh chỉnh việc nhúng RAG. Với tính năng nhúng, một công ty phải thực hiện tìm kiếm CSDL vec-tơ cho mọi truy vấn.

Không có giới hạn cửa sổ ngữ cảnh về tinh chỉnh. Với tính năng nhúng, chỉ có thể thêm rất nhiều thông tin vào lời nhắc. Nếu một công ty tinh chỉnh, họ sẽ không làm điều đó thường xuyên, chỉ khi một phiên bản cải tiến đáng kể của mô hình AI cơ bản được phát hành.

Cuối cùng, nếu một công ty có tập dữ liệu thay đổi nhanh chóng, việc tinh chỉnh có thể được sử dụng kết hợp với tính năng nhúng. “Trước tiên, bạn có thể tinh chỉnh nó, sau đó thực hiện RAG cho các bản cập nhật,” anh ấy nói.

Rowan Curran, nhà phân tích tại Forrester Research, kỳ vọng sẽ thấy nhiều mô hình dành riêng cho từng lĩnh vực được tinh chỉnh sẽ xuất hiện trong khoảng năm tới và các công ty cũng có thể chắt lọc các mô hình để giúp chúng hoạt động hiệu quả hơn trong các nhiệm vụ cụ thể. Nhưng chỉ một số ít công ty - 10% hoặc ít hơn - sẽ làm điều này, Andy Thurai nói.

Greenstein của PricewaterhouseCoopers cho biết, các công ty phần mềm xây dựng các ứng dụng như SaaS, có thể sử dụng tinh chỉnh. Ông nói: “Nếu bạn có một mẫu có khả năng lặp lại cao, chi phí cho việc tinh chỉnh có thể giảm,” nhưng đối với việc triển khai cho DN, RAG hiệu quả hơn trong 90 - 95% trường hợp.

Sebastien Paquet, Phó chủ tịch Máy học (ML) tại Coveo, một công ty tìm kiếm cho DN Canada, cho biết thêm: “Chúng tôi thực sự đang xem xét các mô hình tinh chỉnh cho các ngành dọc cụ thể. Chúng tôi có một số ngành dọc chuyên biệt với từ vựng chuyên ngành, chẳng hạn như ngành dọc y tế. Các DN bán phụ tùng xe tải có cách đặt tên riêng cho từng bộ phận.”

Tuy nhiên, hiện tại, công ty đang sử dụng GPT 3.5 và GPT 4 của OpenAI chạy trên đám mây Azure riêng, với các lệnh gọi API LLM bị cô lập để Coveo có thể chuyển sang các mô hình khác nhau nếu cần. Họ cũng sử dụng một số LLM nguồn mở từ Hugging Face cho các trường hợp sử dụng cụ thể.

Xây dựng LLM từ đầu

Rất ít công ty sẽ xây dựng LLM của riêng họ từ đầu. Rốt cuộc, theo định nghĩa, chúng khá lớn. GPT 3 của OpenAI có 175 tỷ tham số và được đào tạo trên bộ dữ liệu 45 terabyte và tiêu tốn 4,6 triệu USD để đào tạo. Và theo Sam Altman, GPT 4 có giá hơn 100 triệu USD.

"Kích thước" lớn mang lại cho LLM khả năng kỳ diệu và khả năng xử lý ngôn ngữ của con người, với một mức độ hiểu biết nhất định thông thường, cũng như khả năng làm theo hướng dẫn.

Carm Taglienti, kỹ sư nổi tiếng tại Insight cho biết: “Bạn không thể đào tạo LLM dựa trên dữ liệu của riêng mình. Nó chỉ có giá trị từ việc đào tạo hàng chục triệu thông số.”

Ngày nay, gần như tất cả LLM đều đến từ các công ty siêu quy mô lớn hoặc các công ty khởi nghiệp tập trung vào AI như OpenAI và Anthropic.

Ngay cả những công ty có nhiều kinh nghiệm xây dựng mô hình riêng cũng tránh xa việc tạo ra LLM của riêng họ.

Ví dụ: Salesloft đã xây dựng các mô hình AI và ML của riêng họ trong nhiều năm, bao gồm cả các mô hình AI thế hệ sử dụng các công nghệ trước đó, nhưng lại do dự về việc xây dựng một mô hình nền tảng tiên tiến, hoàn toàn mới ngay từ đầu.

Fields cho biết: “Đó là một bước tính toán lớn mà ít nhất là ở giai đoạn này, tôi chưa thấy cần phải bắt tay vào thực hiện”.

Bài liên quan
  • Cuốn sách kể về sự lên xuống của ngôn ngữ lớn
    “Các đế chế ngôn từ” là một trong số rất ít công trình bàn về lịch sử bao quát của các ngôn ngữ trên thế giới, thông qua đó giúp chúng ta hình dung về lịch sử loài người dưới góc nhìn của ngôn ngữ.
Nổi bật Tạp chí Thông tin & Truyền thông
  • Báo chí quốc tế viết gì về Triển lãm Quốc phòng quốc tế Việt Nam 2024?
    Sự kiện Triển lãm Quốc phòng quốc tế Việt Nam năm 2024 thu hút sự chú ý trong - ngoài nước và cả nhiều cơ quan truyền thông quốc tế.
  • “AI như là một chiếc gương đen”
    Bài báo "AI is the Black Mirror" của Philip Ball cung cấp một cái nhìn chi tiết về trí tuệ nhân tạo (AI) và tác động của nó đến nhận thức con người.
  • Chất lượng thông tin báo chí về kinh tế - Vai trò, yêu cầu thước đo và giải pháp cần có
    Báo chí kinh tế cần là diễn đàn thực thụ cho doanh nghiệp, không chỉ cung cấp thông tin. Thông tin cần chính xác và kịp thời để hỗ trợ doanh nghiệp trong điều chỉnh chiến lược kinh doanh.
  • Những “ngọn đuốc” ở bản
    Ở Tuyên Quang, người có uy tín là những người đi đầu thay đổi nếp nghĩ, cách làm của bà con dân tộc thiểu số (DTTS). Họ như những “ngọn đuốc” đi trước, thắp sáng, lan tỏa tinh thần trách nhiệm, nêu gương với cộng đồng. Gương mẫu, uy tín, những người có uy tín đã và đang góp sức xây dựng bản làng, thôn xóm ngày càng ấm no, giàu mạnh.
  • 5 lý do để tăng cường bảo mật mạng
    Các chương trình an ninh mạng đã phát triển đáng kể trong vài thập kỷ qua. Sự ra đời của điện toán đám mây đã phá vỡ ranh giới an ninh mạng thông thường của của các doanh nghiệp, buộc các tổ chức phải liên tục cập nhật những chiến lược phòng thủ của mình.
Đừng bỏ lỡ
Những kinh nghiệm trong việc triển khai mô hình ngôn ngữ lớn
POWERED BY ONECMS - A PRODUCT OF NEKO