This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI「下沉」はWeb3の機会ですか?
作者: Haotian
最近AI業界を観察していて、ますます「下沉」する変化を発見しました:以前の計算力集中と「大」モデルの主流合意から、ローカル小モデルとエッジコンピューティングに偏った分岐が進化しました。
この点は、Apple Intelligence が 5 億台のデバイスをカバーし、Microsoft が Windows 11 専用の 3.3 億パラメータの小さなモデル Mu を発表し、Google DeepMind のロボット「脱ネット」操作などからも明らかです。
何が違うのでしょうか?クラウドAIはパラメータの規模とトレーニングデータを競い合い、資金を投入する能力が核心競争力です;ローカルAIはエンジニアリングの最適化とシーンの適応を競い、プライバシー、信頼性、実用性の保護においてさらに進んでいます。(主に汎用モデルの幻覚問題は、垂直分野のシーンへの浸透に深刻な影響を与えるでしょう)
これは実際にweb3 AIにとってさらに大きな機会をもたらします。元々、皆が「汎用化」(計算、データ、アルゴリズム)能力を競っている時、自然に従来の巨大企業に独占されていました。分散化の概念を取り入れて、Google、AWS、OpenAIなどと競争しようとするのは、まさに夢物語です。結局、リソースの優位性も技術の優位性も、さらにはユーザーベースもありませんから。
しかし、ローカライズモデル + エッジコンピューティングの世界では、ブロックチェーン技術サービスが直面する状況は大きく異なります。
AI モデルがユーザーのデバイス上で実行される際、出力結果が改ざんされていないことをどのように証明しますか?プライバシーを保護しながらモデルの協力を実現するにはどうすればよいですか?これらの問題はまさに分散化技術の強みです...
いくつかのweb3 AI関連の新プロジェクトに注目しています。最近、Panteraが10Mを無投資で提供した@Gradient_HQがデータ通信プロトコルLatticaを発表しました。これは中央集権的なAIプラットフォームのデータ独占とブラックボックス問題を解決するためのものです。@PublicAI_の脳波デバイスHeadCapは、リアルな人間データを収集し、「人工検証層」を構築しており、すでに14Mの収益を上げています。実際、すべてがローカルAIの「信頼性」問題を解決しようとしています。
一言で言えば:AIが本当に「浸透」してすべてのデバイスに存在する時、分散化協力は概念から必需品に変わるのか?
#Web3AI プロジェクトは、一般的な競争の中で内輪もめをするのではなく、ローカライズされた AI の波に対してどのようにインフラ支援を提供できるかを真剣に考えるべきではないか?