OpenLedger Độ sâu研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Một, Giới thiệu | Sự chuyển mình của tầng mô hình Crypto AI
Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (sức mạnh tính toán) không thể thiếu. Tương tự như con đường phát triển cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng đã trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường một thời bị các dự án GPU phi tập trung chi phối ( một nền tảng tính toán, một nền tảng render, một mạng lưới khác ), thường nhấn mạnh vào logic tăng trưởng thô "đấu sức mạnh tính toán". Tuy nhiên, vào năm 2025, sự chú ý của ngành dần dần chuyển lên tầng mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ bản sang xây dựng trung tầng có tính bền vững và giá trị ứng dụng hơn.
Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)
Các mô hình ngôn ngữ quy mô lớn (LLM) truyền thống thường dựa vào các tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, quy mô tham số thường từ 70B đến 500B, và chi phí cho một lần huấn luyện thường lên đến hàng triệu đô la. Trong khi đó, SLM (Mô hình Ngôn ngữ Chuyên biệt) như một phương thức tinh chỉnh nhẹ có thể tái sử dụng mô hình cơ bản, thường dựa trên các mô hình mã nguồn mở như LLaMA, Mistral, DeepSeek, kết hợp với một lượng nhỏ dữ liệu chuyên môn chất lượng cao và các công nghệ như LoRA, nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong lĩnh vực cụ thể, giảm đáng kể chi phí huấn luyện và rào cản kỹ thuật.
Cần lưu ý rằng SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ hoạt động cùng LLM thông qua kiến trúc Agent gọi, hệ thống plugin định tuyến động, cắm nóng mô-đun LoRA, RAG (tạo ra tăng cường truy hồi) và các phương thức khác. Kiến trúc này vừa giữ lại khả năng bao quát rộng của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, tạo thành một hệ thống thông minh kết hợp linh hoạt cao.
Giá trị và ranh giới của Crypto AI ở tầng mô hình
Dự án Crypto AI về bản chất khó có thể nâng cao trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), lý do cốt lõi là
Rào cản kỹ thuật quá cao: Quy mô dữ liệu, tài nguyên tính toán và khả năng kỹ thuật cần thiết để đào tạo Mô hình Nền tảng là vô cùng lớn, hiện chỉ có các tập đoàn công nghệ lớn như Mỹ (công ty nào đó, v.v.) và Trung Quốc (công ty nào đó, v.v.) có khả năng tương ứng.
Hạn chế của hệ sinh thái mã nguồn mở: Mặc dù các mô hình cơ sở chính như LLaMA, Mixtral đã được mã nguồn mở, nhưng chìa khóa thực sự để thúc đẩy sự đột phá của mô hình vẫn tập trung vào các tổ chức nghiên cứu và hệ thống kỹ thuật đóng, không gian tham gia của các dự án trên chuỗi ở cấp mô hình cốt lõi là hạn chế.
Tuy nhiên, trên nền tảng mô hình cơ sở mã nguồn mở, các dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh các mô hình ngôn ngữ đặc thù (SLM), kết hợp với tính khả thi và cơ chế khuyến khích của Web3. Là "tầng giao diện phụ trợ" trong chuỗi công nghiệp AI, được thể hiện qua hai hướng cốt lõi:
Tầng xác thực đáng tin cậy: Thông qua việc ghi lại trên chuỗi đường đi của mô hình, đóng góp dữ liệu và tình trạng sử dụng, tăng cường khả năng truy xuất nguồn gốc và chống giả mạo cho đầu ra AI.
Cơ chế khuyến khích: Sử dụng Token gốc để khuyến khích việc tải dữ liệu lên, gọi mô hình, thực hiện hành động của tác nhân (Agent), xây dựng vòng lặp tích cực cho việc huấn luyện và phục vụ mô hình.
Phân loại loại mô hình AI và phân tích tính ứng dụng của blockchain
Như vậy, có thể thấy rằng điểm khả thi của các dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ của SLM nhỏ, việc kết nối và xác minh dữ liệu trên chuỗi của kiến trúc RAG, cũng như việc triển khai cục bộ và khuyến khích các mô hình Edge. Kết hợp tính khả thi xác minh của blockchain và cơ chế token, Crypto có thể cung cấp giá trị đặc biệt cho những kịch bản mô hình nguồn lực trung bình và thấp, tạo ra giá trị khác biệt cho "tầng giao diện" AI.
Chuỗi AI dựa trên dữ liệu và mô hình blockchain có thể ghi lại rõ ràng và không thể thay đổi nguồn gốc đóng góp của mỗi dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của việc huấn luyện mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, việc phân phối phần thưởng sẽ tự động được kích hoạt, biến hành vi AI thành giá trị token hóa có thể đo lường và giao dịch, xây dựng hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng cũng có thể đánh giá hiệu suất mô hình thông qua việc bỏ phiếu bằng token, tham gia vào việc xây dựng quy tắc và lặp lại, hoàn thiện cấu trúc quản trị phi tập trung.
Hai, Tóm tắt dự án | Tầm nhìn chuỗi AI của OpenLedger
OpenLedger là một trong số ít dự án AI blockchain hiện tại tập trung vào cơ chế khuyến khích dữ liệu và mô hình. Nó tiên phong trong việc đưa ra khái niệm "Payable AI", nhằm xây dựng một môi trường hoạt động AI công bằng, minh bạch và có thể kết hợp, khuyến khích các nhà cung cấp dữ liệu, nhà phát triển mô hình và người xây dựng ứng dụng AI hợp tác trên cùng một nền tảng và nhận lợi ích trên chuỗi dựa trên đóng góp thực tế.
OpenLedger cung cấp chuỗi khép kín từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi phân chia lợi nhuận", các mô-đun cốt lõi của nó bao gồm:
Model Factory:Không cần lập trình, có thể sử dụng LoRA để tinh chỉnh, đào tạo và triển khai mô hình tùy chỉnh dựa trên LLM mã nguồn mở;
OpenLoRA: Hỗ trợ hàng nghìn mô hình đồng tồn tại, tải động theo nhu cầu, giảm đáng kể chi phí triển khai;
PoA (Chứng minh Ghi nhận): Đo lường đóng góp và phân phối phần thưởng thông qua việc gọi ghi chép trên chuỗi.
Datanets:Mạng dữ liệu có cấu trúc hướng tới các kịch bản dọc, được xây dựng và xác minh bởi sự hợp tác của cộng đồng;
Nền tảng đề xuất mô hình (Model Proposal Platform): Thị trường mô hình trên chuỗi có thể kết hợp, có thể gọi và có thể thanh toán.
Thông qua các mô-đun trên, OpenLedger đã xây dựng một "hạ tầng kinh tế thông minh" dựa trên dữ liệu và có thể kết hợp mô hình, thúc đẩy việc chuyển đổi chuỗi giá trị AI lên blockchain.
Và trong việc áp dụng công nghệ blockchain, OpenLedger sử dụng OP Stack + EigenDA làm nền tảng, xây dựng môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp và có thể xác minh cho các mô hình AI.
Xây dựng trên OP Stack: Dựa trên công nghệ Optimism, hỗ trợ thực thi với thông lượng cao và phí thấp;
Thanh toán trên mạng chính Ethereum: Đảm bảo tính an toàn của giao dịch và toàn vẹn tài sản;
Tương thích EVM: Giúp các nhà phát triển nhanh chóng triển khai và mở rộng dựa trên Solidity;
EigenDA cung cấp hỗ trợ khả năng sẵn có của dữ liệu: giảm đáng kể chi phí lưu trữ, đảm bảo tính khả thi của dữ liệu.
So với các chuỗi công khai khác thiên về tầng底, tập trung vào chủ quyền dữ liệu và kiến trúc "AI Agents on BOS", OpenLedger chú trọng hơn vào việc xây dựng chuỗi chuyên dụng cho AI hướng đến dữ liệu và mô hình khuyến khích, nhằm hiện thực hóa vòng giá trị có thể truy xuất, có thể kết hợp và bền vững cho việc phát triển và gọi mô hình trên chuỗi. Nó là cơ sở hạ tầng khuyến khích mô hình trong thế giới Web3, kết hợp giữa việc lưu trữ mô hình kiểu nền tảng lưu trữ mô hình, tính phí sử dụng kiểu nền tảng thanh toán và giao diện có thể kết hợp trên chuỗi kiểu dịch vụ cơ sở hạ tầng, thúc đẩy con đường hiện thực hóa "mô hình là tài sản".
Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger
3.1 Nhà máy mô hình, không cần mã mô hình
ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) trong hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa hoàn toàn, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên các tập dữ liệu đã hoàn thành việc cấp phép và kiểm tra trên OpenLedger. Nó đã thực hiện quy trình làm việc tích hợp cho việc cấp phép dữ liệu, huấn luyện mô hình và triển khai, với các quy trình chính bao gồm:
Kiểm soát truy cập dữ liệu: Người dùng gửi yêu cầu dữ liệu, nhà cung cấp xem xét và phê duyệt, dữ liệu tự động kết nối với giao diện đào tạo mô hình.
Chọn và cấu hình mô hình: Hỗ trợ LLM phổ biến (như LLaMA, Mistral), cấu hình siêu tham số thông qua GUI.
Tinh chỉnh nhẹ: Động cơ LoRA / QLoRA tích hợp, hiển thị tiến độ đào tạo theo thời gian thực.
Đánh giá và triển khai mô hình: Công cụ đánh giá tích hợp sẵn, hỗ trợ xuất khẩu triển khai hoặc chia sẻ gọi trong hệ sinh thái.
Giao diện xác thực tương tác: Cung cấp giao diện trò chuyện, thuận tiện cho việc kiểm tra trực tiếp khả năng hỏi đáp của mô hình.
RAG tạo nguồn gốc: Trả lời có trích dẫn nguồn, tăng cường độ tin cậy và khả năng kiểm toán.
Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, bao trùm xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, đánh giá triển khai và truy xuất RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có thể kiểm soát, tương tác thời gian thực và có khả năng sinh lời bền vững.
Bảng tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:
Dòng LLaMA: Hệ sinh thái rộng nhất, cộng đồng năng động, hiệu suất đa năng mạnh mẽ, là một trong những mô hình cơ sở mã nguồn mở phổ biến nhất hiện nay.
Mistral: Kiến trúc hiệu quả, hiệu suất suy luận xuất sắc, phù hợp với các tình huống triển khai linh hoạt, tài nguyên hạn chế.
Qwen: Sản phẩm của một công ty, thể hiện xuất sắc trong nhiệm vụ tiếng Trung, khả năng tổng hợp mạnh mẽ, phù hợp là lựa chọn hàng đầu cho các nhà phát triển trong nước.
ChatGLM: Hiệu quả đối thoại tiếng Trung nổi bật, phù hợp với dịch vụ khách hàng theo chuyên ngành và các tình huống địa phương.
Deepseek: Có hiệu suất vượt trội trong việc tạo mã và suy luận toán học, phù hợp với công cụ hỗ trợ phát triển thông minh.
Gemma: Mô hình nhẹ do một công ty phát triển, cấu trúc rõ ràng, dễ dàng để bắt đầu và thử nghiệm nhanh chóng.
Falcon:Từng là tiêu chuẩn hiệu suất, phù hợp cho nghiên cứu cơ bản hoặc thử nghiệm đối chiếu, nhưng độ hoạt động của cộng đồng đã giảm.
BLOOM: Hỗ trợ đa ngôn ngữ khá mạnh, nhưng hiệu suất suy diễn yếu, phù hợp cho nghiên cứu bao quát ngôn ngữ.
GPT-2: Mô hình cổ điển giai đoạn đầu, chỉ phù hợp cho mục đích giảng dạy và xác minh, không nên sử dụng trong triển khai thực tế.
Mặc dù mô hình kết hợp của OpenLedger không bao gồm mô hình MoE hiệu suất cao mới nhất hoặc mô hình đa phương thức, nhưng chiến lược của nó không lỗi thời, mà là cấu hình "ưu tiên thực dụng" được thực hiện dựa trên những ràng buộc thực tế của việc triển khai trên chuỗi (chi phí suy diễn, phù hợp RAG, tương thích LoRA, môi trường EVM).
Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của những người đóng góp dữ liệu và các nhà phát triển mô hình, có những ưu điểm như ngưỡng thấp, khả năng hiện thực hóa và tính kết hợp, so với các công cụ phát triển mô hình truyền thống:
Đối với các nhà phát triển: Cung cấp con đường hoàn chỉnh cho việc ươm tạo mô hình, phân phối và thu nhập;
Đối với nền tảng: hình thành lưu thông tài sản mô hình và sinh thái kết hợp;
Đối với người sử dụng: có thể kết hợp sử dụng mô hình hoặc Agent giống như gọi API.
3.2 OpenLoRA, tài sản hóa trên chuỗi của mô hình tinh chỉnh
LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận thấp" vào trong mô hình lớn đã được huấn luyện trước để học các nhiệm vụ mới, mà không cần sửa đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và yêu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống (như LLaMA, GPT-3) thường có hàng chục tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể (như hỏi đáp pháp lý, tư vấn y tế), cần phải thực hiện tinh chỉnh (fine-tuning). Chiến lược cốt lõi của LoRA là: "đóng băng các tham số của mô hình lớn gốc, chỉ đào tạo ma trận tham số mới được chèn vào." Nó có tham số hiệu quả, đào tạo nhanh chóng, triển khai linh hoạt, là phương pháp tinh chỉnh phổ biến nhất hiện nay cho việc triển khai và gọi kết hợp các mô hình Web3.
OpenLoRA là một bộ khung suy luận nhẹ được xây dựng bởi OpenLedger, được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên. Mục tiêu cốt lõi của nó là giải quyết những vấn đề thường gặp trong việc triển khai mô hình AI hiện nay như chi phí cao, khả năng tái sử dụng thấp, lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể thanh toán" (Payable AI).
OpenLoRA hệ thống kiến trúc thành phần cốt lõi, dựa trên sự thiết lập mô-đun
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
10 thích
Phần thưởng
10
6
Chia sẻ
Bình luận
0/400
WhaleSurfer
· 17giờ trước
Viết bài tập thật tuyệt
Xem bản gốcTrả lời0
GateUser-c802f0e8
· 17giờ trước
Khi nào kinh tế trí tuệ nhân tạo có thể triển khai thực tế?
Xem bản gốcTrả lời0
ShadowStaker
· 17giờ trước
meh... một L2 khác đang cố gắng giải quyết ai bằng những từ ngữ thời thượng. hiển thị cho tôi các số liệu mev trước đã.
Xem bản gốcTrả lời0
PrivateKeyParanoia
· 18giờ trước
Kinh tế trí tuệ nhân tạo, thật sự chỉ là VC mà thôi.
OpenLedger xây dựng AI có thể thanh toán: Nền tảng OP Stack + EigenDA thúc đẩy kinh tế dữ liệu và mô hình
OpenLedger Độ sâu研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Một, Giới thiệu | Sự chuyển mình của tầng mô hình Crypto AI
Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (sức mạnh tính toán) không thể thiếu. Tương tự như con đường phát triển cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng đã trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường một thời bị các dự án GPU phi tập trung chi phối ( một nền tảng tính toán, một nền tảng render, một mạng lưới khác ), thường nhấn mạnh vào logic tăng trưởng thô "đấu sức mạnh tính toán". Tuy nhiên, vào năm 2025, sự chú ý của ngành dần dần chuyển lên tầng mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ bản sang xây dựng trung tầng có tính bền vững và giá trị ứng dụng hơn.
Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)
Các mô hình ngôn ngữ quy mô lớn (LLM) truyền thống thường dựa vào các tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, quy mô tham số thường từ 70B đến 500B, và chi phí cho một lần huấn luyện thường lên đến hàng triệu đô la. Trong khi đó, SLM (Mô hình Ngôn ngữ Chuyên biệt) như một phương thức tinh chỉnh nhẹ có thể tái sử dụng mô hình cơ bản, thường dựa trên các mô hình mã nguồn mở như LLaMA, Mistral, DeepSeek, kết hợp với một lượng nhỏ dữ liệu chuyên môn chất lượng cao và các công nghệ như LoRA, nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong lĩnh vực cụ thể, giảm đáng kể chi phí huấn luyện và rào cản kỹ thuật.
Cần lưu ý rằng SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ hoạt động cùng LLM thông qua kiến trúc Agent gọi, hệ thống plugin định tuyến động, cắm nóng mô-đun LoRA, RAG (tạo ra tăng cường truy hồi) và các phương thức khác. Kiến trúc này vừa giữ lại khả năng bao quát rộng của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, tạo thành một hệ thống thông minh kết hợp linh hoạt cao.
Giá trị và ranh giới của Crypto AI ở tầng mô hình
Dự án Crypto AI về bản chất khó có thể nâng cao trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), lý do cốt lõi là
Tuy nhiên, trên nền tảng mô hình cơ sở mã nguồn mở, các dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh các mô hình ngôn ngữ đặc thù (SLM), kết hợp với tính khả thi và cơ chế khuyến khích của Web3. Là "tầng giao diện phụ trợ" trong chuỗi công nghiệp AI, được thể hiện qua hai hướng cốt lõi:
Phân loại loại mô hình AI và phân tích tính ứng dụng của blockchain
Như vậy, có thể thấy rằng điểm khả thi của các dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ của SLM nhỏ, việc kết nối và xác minh dữ liệu trên chuỗi của kiến trúc RAG, cũng như việc triển khai cục bộ và khuyến khích các mô hình Edge. Kết hợp tính khả thi xác minh của blockchain và cơ chế token, Crypto có thể cung cấp giá trị đặc biệt cho những kịch bản mô hình nguồn lực trung bình và thấp, tạo ra giá trị khác biệt cho "tầng giao diện" AI.
Chuỗi AI dựa trên dữ liệu và mô hình blockchain có thể ghi lại rõ ràng và không thể thay đổi nguồn gốc đóng góp của mỗi dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của việc huấn luyện mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, việc phân phối phần thưởng sẽ tự động được kích hoạt, biến hành vi AI thành giá trị token hóa có thể đo lường và giao dịch, xây dựng hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng cũng có thể đánh giá hiệu suất mô hình thông qua việc bỏ phiếu bằng token, tham gia vào việc xây dựng quy tắc và lặp lại, hoàn thiện cấu trúc quản trị phi tập trung.
Hai, Tóm tắt dự án | Tầm nhìn chuỗi AI của OpenLedger
OpenLedger là một trong số ít dự án AI blockchain hiện tại tập trung vào cơ chế khuyến khích dữ liệu và mô hình. Nó tiên phong trong việc đưa ra khái niệm "Payable AI", nhằm xây dựng một môi trường hoạt động AI công bằng, minh bạch và có thể kết hợp, khuyến khích các nhà cung cấp dữ liệu, nhà phát triển mô hình và người xây dựng ứng dụng AI hợp tác trên cùng một nền tảng và nhận lợi ích trên chuỗi dựa trên đóng góp thực tế.
OpenLedger cung cấp chuỗi khép kín từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi phân chia lợi nhuận", các mô-đun cốt lõi của nó bao gồm:
Thông qua các mô-đun trên, OpenLedger đã xây dựng một "hạ tầng kinh tế thông minh" dựa trên dữ liệu và có thể kết hợp mô hình, thúc đẩy việc chuyển đổi chuỗi giá trị AI lên blockchain.
Và trong việc áp dụng công nghệ blockchain, OpenLedger sử dụng OP Stack + EigenDA làm nền tảng, xây dựng môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp và có thể xác minh cho các mô hình AI.
So với các chuỗi công khai khác thiên về tầng底, tập trung vào chủ quyền dữ liệu và kiến trúc "AI Agents on BOS", OpenLedger chú trọng hơn vào việc xây dựng chuỗi chuyên dụng cho AI hướng đến dữ liệu và mô hình khuyến khích, nhằm hiện thực hóa vòng giá trị có thể truy xuất, có thể kết hợp và bền vững cho việc phát triển và gọi mô hình trên chuỗi. Nó là cơ sở hạ tầng khuyến khích mô hình trong thế giới Web3, kết hợp giữa việc lưu trữ mô hình kiểu nền tảng lưu trữ mô hình, tính phí sử dụng kiểu nền tảng thanh toán và giao diện có thể kết hợp trên chuỗi kiểu dịch vụ cơ sở hạ tầng, thúc đẩy con đường hiện thực hóa "mô hình là tài sản".
Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger
3.1 Nhà máy mô hình, không cần mã mô hình
ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) trong hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa hoàn toàn, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên các tập dữ liệu đã hoàn thành việc cấp phép và kiểm tra trên OpenLedger. Nó đã thực hiện quy trình làm việc tích hợp cho việc cấp phép dữ liệu, huấn luyện mô hình và triển khai, với các quy trình chính bao gồm:
Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, bao trùm xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, đánh giá triển khai và truy xuất RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có thể kiểm soát, tương tác thời gian thực và có khả năng sinh lời bền vững.
Bảng tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:
Mặc dù mô hình kết hợp của OpenLedger không bao gồm mô hình MoE hiệu suất cao mới nhất hoặc mô hình đa phương thức, nhưng chiến lược của nó không lỗi thời, mà là cấu hình "ưu tiên thực dụng" được thực hiện dựa trên những ràng buộc thực tế của việc triển khai trên chuỗi (chi phí suy diễn, phù hợp RAG, tương thích LoRA, môi trường EVM).
Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của những người đóng góp dữ liệu và các nhà phát triển mô hình, có những ưu điểm như ngưỡng thấp, khả năng hiện thực hóa và tính kết hợp, so với các công cụ phát triển mô hình truyền thống:
3.2 OpenLoRA, tài sản hóa trên chuỗi của mô hình tinh chỉnh
LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận thấp" vào trong mô hình lớn đã được huấn luyện trước để học các nhiệm vụ mới, mà không cần sửa đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và yêu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống (như LLaMA, GPT-3) thường có hàng chục tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể (như hỏi đáp pháp lý, tư vấn y tế), cần phải thực hiện tinh chỉnh (fine-tuning). Chiến lược cốt lõi của LoRA là: "đóng băng các tham số của mô hình lớn gốc, chỉ đào tạo ma trận tham số mới được chèn vào." Nó có tham số hiệu quả, đào tạo nhanh chóng, triển khai linh hoạt, là phương pháp tinh chỉnh phổ biến nhất hiện nay cho việc triển khai và gọi kết hợp các mô hình Web3.
OpenLoRA là một bộ khung suy luận nhẹ được xây dựng bởi OpenLedger, được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên. Mục tiêu cốt lõi của nó là giải quyết những vấn đề thường gặp trong việc triển khai mô hình AI hiện nay như chi phí cao, khả năng tái sử dụng thấp, lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể thanh toán" (Payable AI).
OpenLoRA hệ thống kiến trúc thành phần cốt lõi, dựa trên sự thiết lập mô-đun