Cloudian tích hợp cơ sở dữ liệu vector Milvus vào HyperStore – Nền tảng lưu trữ hướng AI thế hệ mới

Cloudian công bố bước tiến quan trọng trong lộ trình AI Data Platform của mình: tích hợp trực tiếp cơ sở dữ liệu vector Milvus vào HyperStore, giúp tăng tốc AI inference và mở rộng khả năng xây dựng ứng dụng AI trên nền tảng lưu trữ đối tượng.

HyperStore là hệ thống lưu trữ đối tượng, theo Cloudian là hệ thống có hiệu năng cao nhất trong ngành, với khả năng mở rộng gần như không giới hạn và hỗ trợ công nghệ GPUDirect của Nvidia. Một cơ sở dữ liệu vector lưu trữ các phép biến đổi toán học nhiều chiều (multi-dimensional transforms) của văn bản đã được gắn thẻ (tokenized) trong dữ liệu tài liệu phi cấu trúc, cũng như dữ liệu âm thanh, hình ảnh và video đã được vector hóa. Các vector này được các mô hình ngôn ngữ lớn (LLM) sử dụng để tìm kiếm những vector có liên quan về mặt ngữ nghĩa khi xây dựng phản hồi cho các yêu cầu từ người dùng.

Neil Stobart, CTO của Cloudian, phát biểu:

“Việc tích hợp lưu trữ dữ liệu và suy luận AI vào một nền tảng duy nhất, hiệu quả, đại diện cho một sự thay đổi mang tính nền tảng trong cách các doanh nghiệp tiếp cận hạ tầng AI.”

Cloudian chỉ ra rằng các ứng dụng AI hiện đại yêu cầu dung lượng lưu trữ khổng lồ cho các tập dữ liệu vector, có thể đạt đến kích thước tính bằng petabyte, cùng với các tệp chỉ mục (index files) và nhật ký vận hành (operational logs), đồng thời đòi hỏi khả năng truy cập với độ trễ cực thấp cho các tác vụ inference theo thời gian thực. Khi lưu trữ dữ liệu phi cấu trúc và vector nằm ở hai hệ thống riêng biệt, điều này dẫn đến việc phải di chuyển dữ liệu và vận hành nhiều thành phần hạ tầng khác nhau. Việc kết hợp cả hai lại giúp khách hàng loại bỏ được việc di chuyển dữ liệu này và giảm sự phức tạp khi triển khai các hệ thống AI quy mô doanh nghiệp — theo tuyên bố của Cloudian.

Cloudian cũng cho biết thêm, mặc dù các mô hình AI có thể tương đối nhỏ, nhưng dữ liệu ngữ cảnh cần thiết cho các tương tác AI có ý nghĩa lại tạo ra nhu cầu lưu trữ cực lớn. Các khối đệm KV (KV cache) cho các mô hình reasoning được dự đoán sẽ đạt từ 2–5 TB cho mỗi người dùng đồng thời vào năm 2026. Người dùng mong đợi các hệ thống AI phải “ghi nhớ tất cả” về họ — lịch sử hội thoại, sở thích, ngữ cảnh — dẫn đến việc phải lưu trữ cả input/output token cho hàng tỷ người dùng theo thời gian.

Milvus là cơ sở dữ liệu vector mã nguồn mở, được tạo ra và cung cấp bởi Zilliz, dùng để lưu trữ, lập chỉ mục và truy vấn các embedding vector có chiều cao được tạo ra bởi các mô hình học máy. Milvus cho phép thời gian phản hồi truy vấn ở mức mili-giây cho các tập dữ liệu vector quy mô hàng tỷ bản ghi. Cloudian sử dụng Milvus cho các ứng dụng tìm kiếm tương đồng (similarity search) và AI inference, bao gồm hệ thống gợi ý, thị giác máy tính, xử lý ngôn ngữ tự nhiên và RAG (retrieval-augmented generation).

Cụ thể:

  • HyperStore đóng vai trò là nền tảng lưu trữ thống nhất, xử lý dữ liệu thô, vector đã xử lý, artifacts của mô hình và metadata

  • Milvus chạy trên các node phụ, sử dụng HyperStore để lưu trữ bền vững cho các vector index và tập hợp vector (collections)

  • Dữ liệu luân chuyển mượt mà giữa lưu trữ và xử lý mà không gặp các nút thắt cổ chai của kiến trúc đa hệ thống truyền thống

  • Xử lý song song (parallel processing) cho phép hàng nghìn truy vấn tương đồng chạy đồng thời trên các tập dữ liệu vector khổng lồ

Cloudian cho biết hệ thống HyperStore + Milvus với băng thông 35 GBps mỗi node cung cấp lưu trữ đối tượng quy mô exabyte, hỗ trợ “các tập dữ liệu vector khổng lồ trong khi vẫn duy trì khả năng truy cập hiệu năng cao cho các workload inference theo thời gian thực.” Khách hàng sẽ có tổng chi phí sở hữu (TCO) thấp hơn so với việc triển khai riêng biệt các nền tảng lưu trữ và inference, đồng thời giảm chi phí vận hành và quản lý hệ thống.

HyperStore + Milvus hỗ trợ cả triển khai tại chỗ (on-premises) và triển khai hybrid cloud. Khách hàng có thể bắt đầu với các dự án AI thử nghiệm quy mô nhỏ và sau đó mở rộng lên các workload sản xuất quy mô lớn.

Tầm nhìn về AI Data Platform của Cloudian bao gồm một “hạ tầng hợp nhất, tăng tốc, tích hợp liền mạch giữa xử lý dữ liệu, lưu trữ và tính toán AI.” Công ty tuyên bố sẽ không còn chỉ là một nhà cung cấp hạ tầng lưu trữ đơn thuần nữa, mà đang tiến hóa thành một nền tảng xử lý dữ liệu, đưa phần lưu trữ trở thành một phần trong ngăn xếp phần mềm ứng dụng (application software stack) rộng hơn.

Phần mềm tích hợp inference AI của Cloudian hiện đã có sẵn để đánh giá ngay lập tức. Một bài viết blog của Cloudian cho biết:

“Các thử nghiệm ban đầu cho thấy sự cải thiện ấn tượng về thông lượng inference mà chúng tôi sẽ công bố chi tiết trong bản phân tích hiệu suất sắp tới.”