Giao Thoa AI và DePIN: Sự Trỗi Dậy của Mạng Tính Toán GPU Phân Tán
Kể từ năm 2023, AI và DePIN đã trở thành xu hướng phổ biến trong lĩnh vực Web3, với giá trị thị trường của AI khoảng 30 tỷ USD và giá trị thị trường của DePIN khoảng 23 tỷ USD. Bài viết này tập trung vào lĩnh vực giao thoa giữa hai bên, khám phá sự phát triển của các giao thức liên quan.
Trong công nghệ AI, mạng DePIN cung cấp tính thực tiễn cho AI thông qua tài nguyên tính toán. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác gặp khó khăn trong việc có đủ GPU để tính toán. Điều này thường dẫn đến việc các nhà phát triển chọn các nhà cung cấp đám mây tập trung, nhưng do phải ký hợp đồng phần cứng hiệu suất cao lâu dài không linh hoạt, nên hiệu quả trở nên kém.
DePIN về bản chất cung cấp một giải pháp thay thế linh hoạt hơn và tiết kiệm chi phí hơn, sử dụng phần thưởng token để khuyến khích những đóng góp tài nguyên phù hợp với mục tiêu của mạng. DePIN trong lĩnh vực AI sẽ huy động tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, tạo ra một nguồn cung thống nhất cho người dùng cần truy cập phần cứng. Những mạng DePIN này không chỉ mang lại tính tùy chỉnh và truy cập theo yêu cầu cho các nhà phát triển cần khả năng tính toán, mà còn cung cấp thu nhập bổ sung cho các chủ sở hữu GPU.
Trên thị trường có nhiều mạng AI DePIN, bài viết này sẽ khám phá vai trò, mục tiêu và những điểm nổi bật đã được thực hiện của các giao thức.
Tổng quan về mạng DePIN AI
Render là tiên phong trong mạng P2P cung cấp khả năng tính toán GPU, trước đây tập trung vào việc tạo đồ họa cho nội dung, sau đó mở rộng phạm vi để bao gồm các nhiệm vụ tính toán từ trường bức xạ thần kinh (NeRF) đến AI sinh tạo thông qua việc tích hợp các công cụ như Stable Diffusion.
Điểm nổi bật:
Được thành lập bởi công ty hình ảnh đám mây OTOY với công nghệ đoạt giải Oscar
Mạng GPU đã được các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG, Star Trek sử dụng.
Hợp tác với Stability AI và Endeavor, tích hợp mô hình AI với quy trình làm việc render nội dung 3D bằng GPU của Render
Phê duyệt nhiều client tính toán, tích hợp nhiều GPU của mạng DePIN hơn.
Akash định vị mình như một nền tảng truyền thống hỗ trợ lưu trữ, tính toán GPU và CPU, là "siêu đám mây" thay thế cho AWS(. Với các công cụ thân thiện với nhà phát triển như nền tảng container Akash và các nút tính toán được quản lý bởi Kubernetes, nó có khả năng triển khai phần mềm một cách liền mạch trên các môi trường khác nhau, cho phép chạy bất kỳ ứng dụng gốc đám mây nào.
Điểm nổi bật:
Đối với các nhiệm vụ tính toán rộng rãi từ tính toán chung đến lưu trữ mạng
AkashML cho phép mạng GPU của mình chạy hơn 15.000 mô hình trên Hugging Face, đồng thời tích hợp với Hugging Face.
Akash đang lưu trữ một số ứng dụng đáng chú ý, như chatbot mô hình LLM của Mistral AI, mô hình chuyển đổi văn bản thành hình ảnh SDXL của Stability AI, và mô hình cơ sở mới AT-1 của Thumper AI.
Nền tảng xây dựng vũ trụ ảo, triển khai AI và học liên bang đang sử dụng Supercloud
io.net cung cấp quyền truy cập vào các cụm GPU đám mây phân tán, những cụm này được thiết kế đặc biệt cho các trường hợp sử dụng AI và ML. Nó tổng hợp GPU từ các trung tâm dữ liệu, thợ đào tiền điện tử và các mạng phi tập trung khác. Công ty trước đây là một công ty giao dịch định lượng, đã chuyển sang mô hình kinh doanh hiện tại sau khi giá GPU hiệu suất cao tăng mạnh.
Điểm nổi bật:
IO-SDK của nó tương thích với các khung như PyTorch và Tensorflow, kiến trúc nhiều lớp của nó có thể tự động mở rộng theo nhu cầu tính toán.
Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong vòng 2 phút
Hợp tác với các mạng DePIN khác ) như Render, Filecoin, Aethir và Exabits (, tích hợp tài nguyên GPU
Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó tuyên bố đã đạt được cơ chế xác thực hiệu quả hơn so với các phương pháp hiện có thông qua việc kết hợp sử dụng bằng chứng học, giao thức định vị chính xác dựa trên đồ thị và các trò chơi khuyến khích liên quan đến việc cung cấp tính toán, bao gồm cả staking và cắt giảm.
Điểm nổi bật:
Dự kiến chi phí mỗi giờ cho GPU tương đương V100 khoảng 0,40 đô la Mỹ, tiết kiệm chi phí đáng kể.
Thông qua chứng minh xếp chồng, có thể tinh chỉnh mô hình cơ sở đã được đào tạo trước, hoàn thành nhiệm vụ cụ thể hơn.
Những mô hình cơ bản này sẽ là phi tập trung, sở hữu toàn cầu, và sẽ cung cấp các chức năng bổ sung ngoài mạng tính toán phần cứng.
Aethir chuyên搭载 GPU doanh nghiệp, tập trung vào các lĩnh vực tính toán cường độ cao, chủ yếu là AI, học máy ) ML (, trò chơi đám mây, v.v. Các container trong mạng của nó hoạt động như các điểm cuối ảo để thực thi ứng dụng dựa trên đám mây, chuyển tải khối lượng công việc từ thiết bị địa phương đến container, đạt được trải nghiệm độ trễ thấp. Để đảm bảo cung cấp dịch vụ chất lượng cao cho người dùng, họ di chuyển GPU gần nguồn dữ liệu dựa trên nhu cầu và vị trí, từ đó điều chỉnh tài nguyên.
Điểm nổi bật:
Ngoài AI và trò chơi đám mây, Aethir còn mở rộng sang dịch vụ điện thoại đám mây, hợp tác với APhone để ra mắt điện thoại thông minh đám mây phi tập trung.
Thiết lập hợp tác rộng rãi với các công ty Web2 lớn như NVIDIA, Super Micro, HPE, Foxconn và Well Link.
Hợp tác với nhiều đối tác trong Web3 ) như CARV, Magic Eden, Sequence, Impossible Finance, v.v. (
Phala Network đóng vai trò là lớp thực thi cho giải pháp AI Web3. Blockchain của nó là một giải pháp điện toán đám mây không cần tin cậy, được thiết kế để xử lý các vấn đề về quyền riêng tư thông qua việc sử dụng môi trường thực thi tin cậy )TEE(. Lớp thực thi của nó không được sử dụng như là lớp tính toán cho mô hình AI, mà là cho phép các đại lý AI được kiểm soát bởi hợp đồng thông minh trên chuỗi.
Điểm nổi bật:
Đóng vai trò như một giao thức đồng xử lý tính toán có thể xác minh, đồng thời cho phép các tác nhân AI truy cập tài nguyên trên chuỗi.
Hợp đồng đại diện AI của nó có thể nhận được các mô hình ngôn ngữ lớn hàng đầu như OpenAI, Llama, Claude và Hugging Face thông qua Redpill.
Tương lai sẽ bao gồm zk-proofs, tính toán đa bên )MPC(, mã hóa đồng nhất hoàn toàn )FHE( và các hệ thống chứng minh đa dạng khác.
Tương lai hỗ trợ H100 và các GPU TEE khác, nâng cao khả năng tính toán
![AI và DePIN giao điểm])https://img-cdn.gateio.im/webp-social/moments-68a395d50be4ab07fbc575dd54441164.webp(
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Điểm nhấn kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi |
| Loại tác vụ AI | Suy luận | Cả hai | Cả hai | Huấn luyện | Huấn luyện | Thực hiện |
| Định giá công việc | Định giá dựa trên hiệu suất | Đấu thầu ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi |
| Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Quyền riêng tư dữ liệu | Mã hóa & Băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE |
| Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tương ứng với số tiền đặt cọc |
| An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian |
| Chứng minh hoàn thành | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE |
| Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người tố cáo | Nút kiểm tra | Chứng minh từ xa |
| Cụm GPU | Không | Có | Có | Có | Có | Không |
) Tầm quan trọng
Khả năng sử dụng của cụm và tính toán song song
Khung tính toán phân tán đã triển khai cụm GPU, cung cấp đào tạo hiệu quả hơn mà không ảnh hưởng đến độ chính xác của mô hình, đồng thời tăng cường khả năng mở rộng. Đào tạo các mô hình AI phức tạp yêu cầu sức mạnh tính toán mạnh mẽ, thường phải dựa vào tính toán phân tán để đáp ứng nhu cầu. Mô hình GPT-4 của OpenAI có hơn 1,8 triệu tỷ tham số, được đào tạo trong 3-4 tháng với khoảng 25.000 GPU Nvidia A100 trong 128 cụm.
Trước đây, Render và Akash chỉ cung cấp GPU cho một mục đích duy nhất, có thể hạn chế nhu cầu thị trường đối với GPU. Tuy nhiên, hầu hết các dự án trọng điểm hiện đã tích hợp cụm để thực hiện tính toán song song. io.net đã hợp tác với Render, Filecoin và Aethir cùng các dự án khác để đưa nhiều GPU hơn vào mạng của mình, và đã thành công triển khai hơn 3,800 cụm trong quý 1 năm 24. Mặc dù Render không hỗ trợ cụm, nhưng cách hoạt động của nó tương tự như cụm, phân tách một khung đơn thành nhiều nút khác nhau để xử lý đồng thời các khung khác nhau. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép cụm hóa các bộ xử lý CPU.
Việc đưa khung tập hợp vào mạng quy trình công việc AI là rất quan trọng, nhưng số lượng và loại GPU tập hợp cần thiết để đáp ứng nhu cầu của các nhà phát triển AI lại là một vấn đề khác.
Quyền riêng tư dữ liệu
Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, những tập dữ liệu này có thể đến từ nhiều nguồn khác nhau, với nhiều hình thức khác nhau. Tập dữ liệu nhạy cảm có thể đối mặt với nguy cơ bị lộ cho nhà cung cấp mô hình. Việc áp dụng các biện pháp an toàn đủ mức là rất quan trọng đối với việc sử dụng AI. Do đó, việc sở hữu nhiều phương pháp bảo mật dữ liệu là rất quan trọng để trao lại quyền kiểm soát dữ liệu cho nhà cung cấp dữ liệu.
Hầu hết các dự án đều sử dụng một hình thức mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư dữ liệu. Render sử dụng mã hóa và xử lý băm khi phát hành kết quả render trở lại mạng, trong khi io.net và Gensyn áp dụng một hình thức mã hóa dữ liệu nào đó. Akash sử dụng xác thực mTLS, chỉ cho phép các nhà cung cấp được chọn bởi người thuê nhận dữ liệu.
io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa đồng nhất hoàn toàn ###FHE(, cho phép xử lý dữ liệu được mã hóa mà không cần giải mã trước. Đổi mới này có thể đảm bảo quyền riêng tư dữ liệu tốt hơn so với các công nghệ mã hóa hiện có.
Mạng Phala đã giới thiệu môi trường thực thi đáng tin cậy )TEE(, tức là khu vực an toàn trong bộ xử lý chính của thiết bị kết nối. Thông qua cơ chế cách ly này, nó có thể ngăn chặn các tiến trình bên ngoài truy cập hoặc sửa đổi dữ liệu, bất kể cấp độ quyền hạn của chúng. Ngoài TEE, nó còn kết hợp việc sử dụng zk-proofs trong bộ xác thực zkDCAP và giao diện dòng lệnh jtee để tích hợp với chương trình của RiscZero zkVM.
![AI và DePIN giao điểm])https://img-cdn.gateio.im/webp-social/moments-8f83f1affbdfd92f33bc47afe8928c5c.webp(
) Chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Các GPU do những dự án này cung cấp có thể cung cấp khả năng tính toán cho một loạt các dịch vụ. Do phạm vi dịch vụ rộng rãi, từ việc kết xuất hình ảnh đến tính toán AI, nên chất lượng cuối cùng của các nhiệm vụ này có thể không luôn đáp ứng tiêu chuẩn của người dùng. Có thể sử dụng hình thức chứng nhận hoàn thành để thể hiện rằng GPU cụ thể mà người dùng đã thuê thực sự được sử dụng để chạy dịch vụ cần thiết, việc kiểm tra chất lượng sẽ có lợi cho người dùng yêu cầu hoàn thành các công việc như vậy.
Sau khi tính toán hoàn tất, cả Gensyn và Aethir đều sẽ tạo ra chứng minh để cho biết công việc đã hoàn thành, trong khi chứng minh của io.net cho thấy hiệu suất của GPU được thuê đã được sử dụng đầy đủ và không gặp vấn đề gì. Gensyn và Aethir đều sẽ tiến hành kiểm tra chất lượng cho các phép tính đã hoàn thành. Đối với Gensyn, nó sử dụng các xác nhận viên để chạy lại một phần nội dung của chứng minh được tạo ra để đối chiếu với chứng minh, trong khi người tố cáo đóng vai trò là một lớp kiểm tra bổ sung cho các xác nhận viên. Aethir sử dụng các nút kiểm tra để xác định chất lượng dịch vụ, phạt các dịch vụ không đạt tiêu chuẩn. Render đề xuất sử dụng quy trình giải quyết tranh chấp, nếu hội đồng xem xét phát hiện vấn đề với nút thì sẽ giảm bớt nút đó. Phala sẽ tạo ra chứng minh TEE sau khi hoàn thành, đảm bảo rằng các đại lý AI thực hiện các hoạt động cần thiết trên chuỗi.
![Giao điểm của AI và DePIN])https://img-cdn.gateio.im/webp-social/moments-df4f88879b53c4aa604b248fc9ff393a.webp(
) yêu cầu về GPU hiệu suất cao
Do vì mô hình AI cần GPU có hiệu suất tốt nhất để huấn luyện, nên các nhà phát triển có xu hướng sử dụng GPU như A100 và H100 của Nvidia. Hiệu suất suy luận của H100 nhanh gấp 4 lần A100,
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
19 thích
Phần thưởng
19
4
Chia sẻ
Bình luận
0/400
GasFeeCrier
· 07-11 21:11
Tại sao mọi dự án đều phải dựa vào AI?
Xem bản gốcTrả lời0
MissedTheBoat
· 07-11 21:09
Cái này có thật sự đáng tin không? Máy khai thác trong xưởng nhỏ của tôi hoàn toàn không khai thác được.
Xem bản gốcTrả lời0
HodlNerd
· 07-11 21:08
nói một cách thống kê, các mạng gpu phân tán có thể là cơ hội tốt nhất của chúng ta để phá vỡ thế độc quyền ai... lý thuyết trò chơi thú vị đang diễn ra ở đây thật lòng mà nói.
Sự hòa quyện giữa AI và DePIN, mạng lưới tính toán GPU phân tán đang trỗi dậy.
Giao Thoa AI và DePIN: Sự Trỗi Dậy của Mạng Tính Toán GPU Phân Tán
Kể từ năm 2023, AI và DePIN đã trở thành xu hướng phổ biến trong lĩnh vực Web3, với giá trị thị trường của AI khoảng 30 tỷ USD và giá trị thị trường của DePIN khoảng 23 tỷ USD. Bài viết này tập trung vào lĩnh vực giao thoa giữa hai bên, khám phá sự phát triển của các giao thức liên quan.
Trong công nghệ AI, mạng DePIN cung cấp tính thực tiễn cho AI thông qua tài nguyên tính toán. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác gặp khó khăn trong việc có đủ GPU để tính toán. Điều này thường dẫn đến việc các nhà phát triển chọn các nhà cung cấp đám mây tập trung, nhưng do phải ký hợp đồng phần cứng hiệu suất cao lâu dài không linh hoạt, nên hiệu quả trở nên kém.
DePIN về bản chất cung cấp một giải pháp thay thế linh hoạt hơn và tiết kiệm chi phí hơn, sử dụng phần thưởng token để khuyến khích những đóng góp tài nguyên phù hợp với mục tiêu của mạng. DePIN trong lĩnh vực AI sẽ huy động tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, tạo ra một nguồn cung thống nhất cho người dùng cần truy cập phần cứng. Những mạng DePIN này không chỉ mang lại tính tùy chỉnh và truy cập theo yêu cầu cho các nhà phát triển cần khả năng tính toán, mà còn cung cấp thu nhập bổ sung cho các chủ sở hữu GPU.
Trên thị trường có nhiều mạng AI DePIN, bài viết này sẽ khám phá vai trò, mục tiêu và những điểm nổi bật đã được thực hiện của các giao thức.
Tổng quan về mạng DePIN AI
Render là tiên phong trong mạng P2P cung cấp khả năng tính toán GPU, trước đây tập trung vào việc tạo đồ họa cho nội dung, sau đó mở rộng phạm vi để bao gồm các nhiệm vụ tính toán từ trường bức xạ thần kinh (NeRF) đến AI sinh tạo thông qua việc tích hợp các công cụ như Stable Diffusion.
Điểm nổi bật:
Được thành lập bởi công ty hình ảnh đám mây OTOY với công nghệ đoạt giải Oscar
Mạng GPU đã được các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG, Star Trek sử dụng.
Hợp tác với Stability AI và Endeavor, tích hợp mô hình AI với quy trình làm việc render nội dung 3D bằng GPU của Render
Phê duyệt nhiều client tính toán, tích hợp nhiều GPU của mạng DePIN hơn.
Akash định vị mình như một nền tảng truyền thống hỗ trợ lưu trữ, tính toán GPU và CPU, là "siêu đám mây" thay thế cho AWS(. Với các công cụ thân thiện với nhà phát triển như nền tảng container Akash và các nút tính toán được quản lý bởi Kubernetes, nó có khả năng triển khai phần mềm một cách liền mạch trên các môi trường khác nhau, cho phép chạy bất kỳ ứng dụng gốc đám mây nào.
Điểm nổi bật:
Đối với các nhiệm vụ tính toán rộng rãi từ tính toán chung đến lưu trữ mạng
AkashML cho phép mạng GPU của mình chạy hơn 15.000 mô hình trên Hugging Face, đồng thời tích hợp với Hugging Face.
Akash đang lưu trữ một số ứng dụng đáng chú ý, như chatbot mô hình LLM của Mistral AI, mô hình chuyển đổi văn bản thành hình ảnh SDXL của Stability AI, và mô hình cơ sở mới AT-1 của Thumper AI.
Nền tảng xây dựng vũ trụ ảo, triển khai AI và học liên bang đang sử dụng Supercloud
io.net cung cấp quyền truy cập vào các cụm GPU đám mây phân tán, những cụm này được thiết kế đặc biệt cho các trường hợp sử dụng AI và ML. Nó tổng hợp GPU từ các trung tâm dữ liệu, thợ đào tiền điện tử và các mạng phi tập trung khác. Công ty trước đây là một công ty giao dịch định lượng, đã chuyển sang mô hình kinh doanh hiện tại sau khi giá GPU hiệu suất cao tăng mạnh.
Điểm nổi bật:
IO-SDK của nó tương thích với các khung như PyTorch và Tensorflow, kiến trúc nhiều lớp của nó có thể tự động mở rộng theo nhu cầu tính toán.
Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong vòng 2 phút
Hợp tác với các mạng DePIN khác ) như Render, Filecoin, Aethir và Exabits (, tích hợp tài nguyên GPU
Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó tuyên bố đã đạt được cơ chế xác thực hiệu quả hơn so với các phương pháp hiện có thông qua việc kết hợp sử dụng bằng chứng học, giao thức định vị chính xác dựa trên đồ thị và các trò chơi khuyến khích liên quan đến việc cung cấp tính toán, bao gồm cả staking và cắt giảm.
Điểm nổi bật:
Dự kiến chi phí mỗi giờ cho GPU tương đương V100 khoảng 0,40 đô la Mỹ, tiết kiệm chi phí đáng kể.
Thông qua chứng minh xếp chồng, có thể tinh chỉnh mô hình cơ sở đã được đào tạo trước, hoàn thành nhiệm vụ cụ thể hơn.
Những mô hình cơ bản này sẽ là phi tập trung, sở hữu toàn cầu, và sẽ cung cấp các chức năng bổ sung ngoài mạng tính toán phần cứng.
Aethir chuyên搭载 GPU doanh nghiệp, tập trung vào các lĩnh vực tính toán cường độ cao, chủ yếu là AI, học máy ) ML (, trò chơi đám mây, v.v. Các container trong mạng của nó hoạt động như các điểm cuối ảo để thực thi ứng dụng dựa trên đám mây, chuyển tải khối lượng công việc từ thiết bị địa phương đến container, đạt được trải nghiệm độ trễ thấp. Để đảm bảo cung cấp dịch vụ chất lượng cao cho người dùng, họ di chuyển GPU gần nguồn dữ liệu dựa trên nhu cầu và vị trí, từ đó điều chỉnh tài nguyên.
Điểm nổi bật:
Ngoài AI và trò chơi đám mây, Aethir còn mở rộng sang dịch vụ điện thoại đám mây, hợp tác với APhone để ra mắt điện thoại thông minh đám mây phi tập trung.
Thiết lập hợp tác rộng rãi với các công ty Web2 lớn như NVIDIA, Super Micro, HPE, Foxconn và Well Link.
Hợp tác với nhiều đối tác trong Web3 ) như CARV, Magic Eden, Sequence, Impossible Finance, v.v. (
Phala Network đóng vai trò là lớp thực thi cho giải pháp AI Web3. Blockchain của nó là một giải pháp điện toán đám mây không cần tin cậy, được thiết kế để xử lý các vấn đề về quyền riêng tư thông qua việc sử dụng môi trường thực thi tin cậy )TEE(. Lớp thực thi của nó không được sử dụng như là lớp tính toán cho mô hình AI, mà là cho phép các đại lý AI được kiểm soát bởi hợp đồng thông minh trên chuỗi.
Điểm nổi bật:
Đóng vai trò như một giao thức đồng xử lý tính toán có thể xác minh, đồng thời cho phép các tác nhân AI truy cập tài nguyên trên chuỗi.
Hợp đồng đại diện AI của nó có thể nhận được các mô hình ngôn ngữ lớn hàng đầu như OpenAI, Llama, Claude và Hugging Face thông qua Redpill.
Tương lai sẽ bao gồm zk-proofs, tính toán đa bên )MPC(, mã hóa đồng nhất hoàn toàn )FHE( và các hệ thống chứng minh đa dạng khác.
Tương lai hỗ trợ H100 và các GPU TEE khác, nâng cao khả năng tính toán
![AI và DePIN giao điểm])https://img-cdn.gateio.im/webp-social/moments-68a395d50be4ab07fbc575dd54441164.webp(
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Điểm nhấn kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại tác vụ AI | Suy luận | Cả hai | Cả hai | Huấn luyện | Huấn luyện | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu thầu ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Quyền riêng tư dữ liệu | Mã hóa & Băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tương ứng với số tiền đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian | | Chứng minh hoàn thành | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người tố cáo | Nút kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |
) Tầm quan trọng
Khả năng sử dụng của cụm và tính toán song song
Khung tính toán phân tán đã triển khai cụm GPU, cung cấp đào tạo hiệu quả hơn mà không ảnh hưởng đến độ chính xác của mô hình, đồng thời tăng cường khả năng mở rộng. Đào tạo các mô hình AI phức tạp yêu cầu sức mạnh tính toán mạnh mẽ, thường phải dựa vào tính toán phân tán để đáp ứng nhu cầu. Mô hình GPT-4 của OpenAI có hơn 1,8 triệu tỷ tham số, được đào tạo trong 3-4 tháng với khoảng 25.000 GPU Nvidia A100 trong 128 cụm.
Trước đây, Render và Akash chỉ cung cấp GPU cho một mục đích duy nhất, có thể hạn chế nhu cầu thị trường đối với GPU. Tuy nhiên, hầu hết các dự án trọng điểm hiện đã tích hợp cụm để thực hiện tính toán song song. io.net đã hợp tác với Render, Filecoin và Aethir cùng các dự án khác để đưa nhiều GPU hơn vào mạng của mình, và đã thành công triển khai hơn 3,800 cụm trong quý 1 năm 24. Mặc dù Render không hỗ trợ cụm, nhưng cách hoạt động của nó tương tự như cụm, phân tách một khung đơn thành nhiều nút khác nhau để xử lý đồng thời các khung khác nhau. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép cụm hóa các bộ xử lý CPU.
Việc đưa khung tập hợp vào mạng quy trình công việc AI là rất quan trọng, nhưng số lượng và loại GPU tập hợp cần thiết để đáp ứng nhu cầu của các nhà phát triển AI lại là một vấn đề khác.
Quyền riêng tư dữ liệu
Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, những tập dữ liệu này có thể đến từ nhiều nguồn khác nhau, với nhiều hình thức khác nhau. Tập dữ liệu nhạy cảm có thể đối mặt với nguy cơ bị lộ cho nhà cung cấp mô hình. Việc áp dụng các biện pháp an toàn đủ mức là rất quan trọng đối với việc sử dụng AI. Do đó, việc sở hữu nhiều phương pháp bảo mật dữ liệu là rất quan trọng để trao lại quyền kiểm soát dữ liệu cho nhà cung cấp dữ liệu.
Hầu hết các dự án đều sử dụng một hình thức mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư dữ liệu. Render sử dụng mã hóa và xử lý băm khi phát hành kết quả render trở lại mạng, trong khi io.net và Gensyn áp dụng một hình thức mã hóa dữ liệu nào đó. Akash sử dụng xác thực mTLS, chỉ cho phép các nhà cung cấp được chọn bởi người thuê nhận dữ liệu.
io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa đồng nhất hoàn toàn ###FHE(, cho phép xử lý dữ liệu được mã hóa mà không cần giải mã trước. Đổi mới này có thể đảm bảo quyền riêng tư dữ liệu tốt hơn so với các công nghệ mã hóa hiện có.
Mạng Phala đã giới thiệu môi trường thực thi đáng tin cậy )TEE(, tức là khu vực an toàn trong bộ xử lý chính của thiết bị kết nối. Thông qua cơ chế cách ly này, nó có thể ngăn chặn các tiến trình bên ngoài truy cập hoặc sửa đổi dữ liệu, bất kể cấp độ quyền hạn của chúng. Ngoài TEE, nó còn kết hợp việc sử dụng zk-proofs trong bộ xác thực zkDCAP và giao diện dòng lệnh jtee để tích hợp với chương trình của RiscZero zkVM.
![AI và DePIN giao điểm])https://img-cdn.gateio.im/webp-social/moments-8f83f1affbdfd92f33bc47afe8928c5c.webp(
) Chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Các GPU do những dự án này cung cấp có thể cung cấp khả năng tính toán cho một loạt các dịch vụ. Do phạm vi dịch vụ rộng rãi, từ việc kết xuất hình ảnh đến tính toán AI, nên chất lượng cuối cùng của các nhiệm vụ này có thể không luôn đáp ứng tiêu chuẩn của người dùng. Có thể sử dụng hình thức chứng nhận hoàn thành để thể hiện rằng GPU cụ thể mà người dùng đã thuê thực sự được sử dụng để chạy dịch vụ cần thiết, việc kiểm tra chất lượng sẽ có lợi cho người dùng yêu cầu hoàn thành các công việc như vậy.
Sau khi tính toán hoàn tất, cả Gensyn và Aethir đều sẽ tạo ra chứng minh để cho biết công việc đã hoàn thành, trong khi chứng minh của io.net cho thấy hiệu suất của GPU được thuê đã được sử dụng đầy đủ và không gặp vấn đề gì. Gensyn và Aethir đều sẽ tiến hành kiểm tra chất lượng cho các phép tính đã hoàn thành. Đối với Gensyn, nó sử dụng các xác nhận viên để chạy lại một phần nội dung của chứng minh được tạo ra để đối chiếu với chứng minh, trong khi người tố cáo đóng vai trò là một lớp kiểm tra bổ sung cho các xác nhận viên. Aethir sử dụng các nút kiểm tra để xác định chất lượng dịch vụ, phạt các dịch vụ không đạt tiêu chuẩn. Render đề xuất sử dụng quy trình giải quyết tranh chấp, nếu hội đồng xem xét phát hiện vấn đề với nút thì sẽ giảm bớt nút đó. Phala sẽ tạo ra chứng minh TEE sau khi hoàn thành, đảm bảo rằng các đại lý AI thực hiện các hoạt động cần thiết trên chuỗi.
Dữ liệu thống kê phần cứng
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Chi phí H100/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ### dự kiến ( | $0.33 ) dự kiến ( | - |
![Giao điểm của AI và DePIN])https://img-cdn.gateio.im/webp-social/moments-df4f88879b53c4aa604b248fc9ff393a.webp(
) yêu cầu về GPU hiệu suất cao
Do vì mô hình AI cần GPU có hiệu suất tốt nhất để huấn luyện, nên các nhà phát triển có xu hướng sử dụng GPU như A100 và H100 của Nvidia. Hiệu suất suy luận của H100 nhanh gấp 4 lần A100,