Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.
Возможности Web3 в индустрии ИИ заключаются в следующем: использование распределенных стимулов для координации потенциального предложения длинного хвоста, включая данные, хранение и вычисления; одновременно создание децентрализованного рынка открытых моделей и агентов ИИ.
ИИ в индустрии Web3 в основном применяется в цепочечных финансах (криптоплатежи, торговля, анализ данных) и для поддержки разработки.
Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 обещает противостоять централизации AI, а AI обещает помочь Web3 выйти за рамки.
В последние два года развитие ИИ стало похоже на нажатие кнопки ускорения. Эта волна, поднятая Chatgpt, не только открыла новый мир генеративного искусственного интеллекта, но и вызвала огромные волны в области Web3.
Под воздействием концепции ИИ финансирование крипторынка явно возросло. Согласно статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а операционная система на основе искусственного интеллекта Zyber365 в первом раунде достигла максимального объема финансирования в 100 миллионов долларов.
Вторичный рынок становится более процветающим. Данные агрегаторского сайта криптовалют Coingecko показывают, что за всего лишь немного более года общая капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа приблизился к 8,6 миллиарда долларов. Очевидные положительные последствия прогресса основных технологий ИИ, после выхода модели OpenAI Sora для преобразования текста в видео средняя цена сектора ИИ увеличилась на 151%. Эффект ИИ также затрагивает один из сегментов криптовалют, привлекающих средства, Meme: первая концепция MemeCoin с ИИ-агентом — GOAT быстро завоевала популярность и была оценена в 1,4 миллиарда долларов, успешно запустив бум AI Meme.
Исследования и темы, связанные с AI+Web3, также становятся популярными, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
Комбинация терминов AI+Web3, наполненная горячими деньгами, трендами и фантазиями о будущем, неизбежно воспринимается как организованный брак, заключенный при посредничестве капитала. Нам кажется, что мы с трудом можем различить под этой роскошной оболочкой, является ли это полем для спекулянтов или преддверием взрыва рассвета?
Чтобы ответить на этот вопрос, ключевое размышление для обеих сторон заключается в следующем: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы пытаемся взглянуть на эту картину, опираясь на достижения предшественников: как Web3 может играть роль на различных этапах технологического стека AI и какую новую жизнь AI может принести Web3?
Часть 1. Какие возможности есть у Web3 в рамках AI-стека?
Прежде чем развивать эту тему, нам нужно понять технологический стек больших моделей ИИ:
Объясните весь процесс простым языком: "Большая модель" подобна человеческому мозгу, на ранних стадиях она похожа на новорожденного ребенка, который должен наблюдать и поглощать огромное количество внешней информации, чтобы понять мир, это и есть этап "сбора" данных. Поскольку компьютеры не обладают многими человеческими сенсорами, на этапе обучения внешняя масштабная неразмеченная информация должна быть преобразована через "предобработку" в формат информации, который может быть понятен и полезен компьютеру.
После ввода данных ИИ создает модель с пониманием и предсказательной способностью через "обучение", что можно рассматривать как процесс, в котором младенец постепенно понимает и учится об окружающем мире, а параметры модели аналогичны языковым навыкам, которые постоянно корректируются в процессе обучения младенца. Содержимое обучения начинает разделяться на дисциплины, или происходит общение с людьми для получения обратной связи и корректировки, что приводит к этапу "тонкой настройки" большой модели.
Когда дети вырастают и начинают говорить, они могут понимать смысл и выражать чувства и мысли в новых разговорах. Этот этап похож на "вывод" больших моделей ИИ, которые могут проводить предсказательный анализ на основе новых текстовых данных. Младенцы выражают чувства, описывают объекты и решают проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ на этапе вывода для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и так далее.
AI-агент становится следующей формой большого моделирования — он может самостоятельно выполнять задачи и стремиться к сложным целям, обладает не только способностью к мышлению, но и памятью, планированием, а также может использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на проблемы ИИ на различных уровнях, Web3 начинает формировать многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса моделей ИИ.
Один. Базовый уровень: Airbnb вычислительной мощности и данных
Хешрейт
В настоящее время одной из самых высоких затрат на ИИ являются вычислительная мощность и энергия, необходимые для обучения моделей и инференции.
Например, для завершения обучения Meta's LLAMA3 требуется 16000 GPU H100, производимых NVIDIA (это высококлассные графические процессоры, специально разработанные для ИИ и вычислительных задач высокой производительности), в течение 30 дней. Стоимость версии на 80 ГБ колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) в размере от 400 до 700 миллионов долларов, при этом ежемесячное обучение требует 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Разгрузка вычислительной мощности ИИ является одной из первых областей пересечения Web3 и ИИ — DePin (децентрализованная сеть физических инфраструктур). В настоящее время на сайте данных DePin Ninja перечислено более 1400 проектов, среди которых представленные проекты по совместному использованию вычислительной мощности GPU включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет отдельным лицам или организациям, обладающим неиспользуемыми GPU-ресурсами, вносить вычислительную мощность в децентрализованной форме без необходимости получения разрешений. Это создает онлайн-рынок для покупателей и продавцов, аналогичный Uber или Airbnb, что повышает уровень использования не полностью задействованных GPU-ресурсов. Конечные пользователи также получают более доступные и эффективные вычислительные ресурсы. В то же время механизм стейкинга обеспечивает соответствующее наказание для поставщиков ресурсов в случае нарушения механизмов контроля качества или прерывания сети.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками в основном являются независимые средние и малые дата-центры третьих лиц, а также операторы избыточных вычислительных ресурсов крипто-майнинговых ферм, с механизмом консенсуса PoS, такими как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить устройства с более низким порогом входа, такие как exolab, использующие MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных ресурсов для работы с большими моделями.
Столкновение с длиннохвостым рынком вычислительной мощности ИИ:
a. "С точки зрения технологий" децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от обработки данных, обеспечиваемой большими кластерами GPU, в то время как требования к вычислительной производительности GPU для вывода относительно ниже, например, Aethir сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. "С точки зрения спроса" малые и средние потребители вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованная собственность: технологическое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над ресурсами, гибко подстраиваясь под спрос, одновременно получая прибыль.
Данные
Данные являются основой ИИ. Без данных вычисления бесполезны, как листья на воде. Связь между данными и моделью похожа на пословицу "Мусор на входе, мусор на выходе"; количество данных и качество ввода определяют качество вывода конечной модели. Для обучения современных ИИ-моделей данные определяют языковые способности модели, способность к пониманию, а также мировоззрение и гуманизацию. В настоящее время проблемы с потребностью в данных для ИИ сосредоточены на следующих четырех аспектах:
Жажда данных: обучение AI-моделей зависит от большого объема входных данных. Открытые данные показывают, что количество параметров, на которых OpenAI обучает GPT-4, достигает триллионов.
Качество данных: с объединением ИИ и различных отраслей новые требования к качеству данных выдвигаются в связи с актуальностью, разнообразием, специализированностью вертикальных данных и новыми источниками данных, такими как восприятие в социальных сетях.
Проблемы конфиденциальности и соблюдения: в настоящее время страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большие объемы данных и сложный процесс обработки. Согласно открытым данным, более 30% затрат на НИОКР в AI-компаниях уходит на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Сбор данных: бесплатные реальные данные, которые можно собирать, быстро исчерпываются, и расходы AI-компаний на данные растут с каждым годом. Однако эти расходы не возвращаются к настоящим вкладчикам данных, и платформы полностью пользуются созданием ценности, которую приносят данные, как Reddit, который получил доход в размере 203 миллиона долларов США благодаря подписанию соглашений о лицензировании данных с AI-компаниями.
Позволить настоящим пользователям, которые вносят вклад, участвовать в создании ценности, приносимой данными, а также получать более личные и более ценные данные от пользователей с низкими затратами через распределенные сети и механизмы стимулов — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить свой вклад в неиспользуемую пропускную способность и релейный трафик для захвата реальных данных из всего интернета и получать вознаграждения в токенах.
Vana ввела уникальную концепцию пула ликвидности данных (DLP), позволяя пользователям загружать личные данные (такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использовать эти данные определенным третьим лицам.
В PublicAI пользователи могут использовать #AI或#Web3 в качестве категории и @PublicAI для сбора данных на X.
Предобработка данных: в процессе обработки данных ИИ, поскольку собранные данные обычно шумные и содержат ошибки, необходимо очистить их и преобразовать в пригодный формат перед обучением модели, что включает стандартизацию, фильтрацию и обработку недостающих значений. Этот этап является одним из немногих человеческих этапов в индустрии ИИ, что привело к возникновению профессии аннотаторов данных. С увеличением требований моделей к качеству данных, порог вхождения для аннотаторов данных также повышается, и эта задача естественно подходит для децентрализованной модели вознаграждений Web3.
В настоящее время Grass и OpenLayer рассматривают возможность добавления этапа аннотирования данных, который является ключевым.
Synesis представила концепцию "Train2earn", подчеркивая качество данных, пользователи могут получать вознаграждения за предоставление аннотированных данных, комментариев или других форм ввода.
Проект аннотации данных Sapien геймифицирует задачи аннотирования и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Конфиденциальность и безопасность данных: необходимо прояснить, что конфиденциальность и безопасность данных — это два разных понятия. Конфиденциальность данных касается обработки чувствительной информации, тогда как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные сценарии применения проявляются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество с данными: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь своими исходными данными.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol.
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network.
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации нулевых доказательств трафика HTTPS, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, и текущая проблема заключается в слишком высоких вычислительных затратах, например:
Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML более чем в 1000 раз превышают затраты на чистые вычисления.
Хранение данных: после получения данных необходимо место для хранения данных в блокчейне, а также LLM, созданной с использованием этих данных. Основной проблемой является доступность данных (DA); до обновления Danksharding в Ethereum его пропускная способность составляла 0,08 МБ. В то же время обучение AI-моделей и реальная инференция обычно требуют пропускной способности данных от 50 до 100 ГБ в секунду. Эта разница в порядке величины делает существующие решения на блокчейне неэффективными при "ресурсоемких AI-приложениях".
0g.AI является представительным проектом в этой категории. Это централизованное решение для хранения, разработанное для высоких требований производительности ИИ, ключевые характеристики включают: высокую производительность и масштабируемость, поддержку быстрой загрузки и скачивания крупных наборов данных с помощью технологий продвинутой шардирования (Sharding) и кодирования с исправлением ошибок (Erasure Coding), скорость передачи данных близка к 5 ГБ в секунду.
Два, Промежуточное ПО: Обучение и вывод модели
Децентрализованный рынок открытых моделей
Дебаты о том, должны ли модели ИИ быть закрытыми или открытыми, никогда не прекращались. Преимущество коллективных инноваций, которые предоставляет открытый исходный код, несравнимо с закрытыми моделями, однако как открытые модели могут повысить мотивацию разработчиков без какой-либо модели получения прибыли? Это стоит размышлений.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
16 Лайков
Награда
16
6
Поделиться
комментарий
0/400
NeverVoteOnDAO
· 6ч назад
Снова эти концепции обманывают людей.
Посмотреть ОригиналОтветить0
PanicSeller69
· 6ч назад
Закручивается, действительно нужно успеть в поезд.
Посмотреть ОригиналОтветить0
OnChainDetective
· 7ч назад
Смотрел на данные всю ночь, даже торговый режим задан ИИ.
Посмотреть ОригиналОтветить0
SybilSlayer
· 7ч назад
Люблю шифрование и прогулки, действительно приятно
Посмотреть ОригиналОтветить0
ThatsNotARugPull
· 7ч назад
И старые неудачники web3, которые хотят разыгрывать людей как лохов, но не хотят быть неудачниками.
Посмотреть ОригиналОтветить0
BearMarketBarber
· 7ч назад
Еще одна волна неудачников, разыгрываемых как лохов
AI+Web3: Исследование применения распределенных стимулов на рынках данных, вычислительной мощности и открытого исходного кода
AI+Web3: Башни и площади
ТЛ; ДОКТОР
Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.
Возможности Web3 в индустрии ИИ заключаются в следующем: использование распределенных стимулов для координации потенциального предложения длинного хвоста, включая данные, хранение и вычисления; одновременно создание децентрализованного рынка открытых моделей и агентов ИИ.
ИИ в индустрии Web3 в основном применяется в цепочечных финансах (криптоплатежи, торговля, анализ данных) и для поддержки разработки.
Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 обещает противостоять централизации AI, а AI обещает помочь Web3 выйти за рамки.
! AI+Web3: Башни и площади
Введение
В последние два года развитие ИИ стало похоже на нажатие кнопки ускорения. Эта волна, поднятая Chatgpt, не только открыла новый мир генеративного искусственного интеллекта, но и вызвала огромные волны в области Web3.
Под воздействием концепции ИИ финансирование крипторынка явно возросло. Согласно статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а операционная система на основе искусственного интеллекта Zyber365 в первом раунде достигла максимального объема финансирования в 100 миллионов долларов.
Вторичный рынок становится более процветающим. Данные агрегаторского сайта криптовалют Coingecko показывают, что за всего лишь немного более года общая капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа приблизился к 8,6 миллиарда долларов. Очевидные положительные последствия прогресса основных технологий ИИ, после выхода модели OpenAI Sora для преобразования текста в видео средняя цена сектора ИИ увеличилась на 151%. Эффект ИИ также затрагивает один из сегментов криптовалют, привлекающих средства, Meme: первая концепция MemeCoin с ИИ-агентом — GOAT быстро завоевала популярность и была оценена в 1,4 миллиарда долларов, успешно запустив бум AI Meme.
Исследования и темы, связанные с AI+Web3, также становятся популярными, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
Комбинация терминов AI+Web3, наполненная горячими деньгами, трендами и фантазиями о будущем, неизбежно воспринимается как организованный брак, заключенный при посредничестве капитала. Нам кажется, что мы с трудом можем различить под этой роскошной оболочкой, является ли это полем для спекулянтов или преддверием взрыва рассвета?
Чтобы ответить на этот вопрос, ключевое размышление для обеих сторон заключается в следующем: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы пытаемся взглянуть на эту картину, опираясь на достижения предшественников: как Web3 может играть роль на различных этапах технологического стека AI и какую новую жизнь AI может принести Web3?
Часть 1. Какие возможности есть у Web3 в рамках AI-стека?
Прежде чем развивать эту тему, нам нужно понять технологический стек больших моделей ИИ:
Объясните весь процесс простым языком: "Большая модель" подобна человеческому мозгу, на ранних стадиях она похожа на новорожденного ребенка, который должен наблюдать и поглощать огромное количество внешней информации, чтобы понять мир, это и есть этап "сбора" данных. Поскольку компьютеры не обладают многими человеческими сенсорами, на этапе обучения внешняя масштабная неразмеченная информация должна быть преобразована через "предобработку" в формат информации, который может быть понятен и полезен компьютеру.
После ввода данных ИИ создает модель с пониманием и предсказательной способностью через "обучение", что можно рассматривать как процесс, в котором младенец постепенно понимает и учится об окружающем мире, а параметры модели аналогичны языковым навыкам, которые постоянно корректируются в процессе обучения младенца. Содержимое обучения начинает разделяться на дисциплины, или происходит общение с людьми для получения обратной связи и корректировки, что приводит к этапу "тонкой настройки" большой модели.
Когда дети вырастают и начинают говорить, они могут понимать смысл и выражать чувства и мысли в новых разговорах. Этот этап похож на "вывод" больших моделей ИИ, которые могут проводить предсказательный анализ на основе новых текстовых данных. Младенцы выражают чувства, описывают объекты и решают проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ на этапе вывода для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и так далее.
AI-агент становится следующей формой большого моделирования — он может самостоятельно выполнять задачи и стремиться к сложным целям, обладает не только способностью к мышлению, но и памятью, планированием, а также может использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на проблемы ИИ на различных уровнях, Web3 начинает формировать многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса моделей ИИ.
! AI+Web3: Башни и площади
Один. Базовый уровень: Airbnb вычислительной мощности и данных
Хешрейт
В настоящее время одной из самых высоких затрат на ИИ являются вычислительная мощность и энергия, необходимые для обучения моделей и инференции.
Например, для завершения обучения Meta's LLAMA3 требуется 16000 GPU H100, производимых NVIDIA (это высококлассные графические процессоры, специально разработанные для ИИ и вычислительных задач высокой производительности), в течение 30 дней. Стоимость версии на 80 ГБ колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) в размере от 400 до 700 миллионов долларов, при этом ежемесячное обучение требует 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Разгрузка вычислительной мощности ИИ является одной из первых областей пересечения Web3 и ИИ — DePin (децентрализованная сеть физических инфраструктур). В настоящее время на сайте данных DePin Ninja перечислено более 1400 проектов, среди которых представленные проекты по совместному использованию вычислительной мощности GPU включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет отдельным лицам или организациям, обладающим неиспользуемыми GPU-ресурсами, вносить вычислительную мощность в децентрализованной форме без необходимости получения разрешений. Это создает онлайн-рынок для покупателей и продавцов, аналогичный Uber или Airbnb, что повышает уровень использования не полностью задействованных GPU-ресурсов. Конечные пользователи также получают более доступные и эффективные вычислительные ресурсы. В то же время механизм стейкинга обеспечивает соответствующее наказание для поставщиков ресурсов в случае нарушения механизмов контроля качества или прерывания сети.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками в основном являются независимые средние и малые дата-центры третьих лиц, а также операторы избыточных вычислительных ресурсов крипто-майнинговых ферм, с механизмом консенсуса PoS, такими как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить устройства с более низким порогом входа, такие как exolab, использующие MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных ресурсов для работы с большими моделями.
Столкновение с длиннохвостым рынком вычислительной мощности ИИ:
a. "С точки зрения технологий" децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от обработки данных, обеспечиваемой большими кластерами GPU, в то время как требования к вычислительной производительности GPU для вывода относительно ниже, например, Aethir сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. "С точки зрения спроса" малые и средние потребители вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Данные
Данные являются основой ИИ. Без данных вычисления бесполезны, как листья на воде. Связь между данными и моделью похожа на пословицу "Мусор на входе, мусор на выходе"; количество данных и качество ввода определяют качество вывода конечной модели. Для обучения современных ИИ-моделей данные определяют языковые способности модели, способность к пониманию, а также мировоззрение и гуманизацию. В настоящее время проблемы с потребностью в данных для ИИ сосредоточены на следующих четырех аспектах:
Жажда данных: обучение AI-моделей зависит от большого объема входных данных. Открытые данные показывают, что количество параметров, на которых OpenAI обучает GPT-4, достигает триллионов.
Качество данных: с объединением ИИ и различных отраслей новые требования к качеству данных выдвигаются в связи с актуальностью, разнообразием, специализированностью вертикальных данных и новыми источниками данных, такими как восприятие в социальных сетях.
Проблемы конфиденциальности и соблюдения: в настоящее время страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большие объемы данных и сложный процесс обработки. Согласно открытым данным, более 30% затрат на НИОКР в AI-компаниях уходит на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Позволить настоящим пользователям, которые вносят вклад, участвовать в создании ценности, приносимой данными, а также получать более личные и более ценные данные от пользователей с низкими затратами через распределенные сети и механизмы стимулов — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить свой вклад в неиспользуемую пропускную способность и релейный трафик для захвата реальных данных из всего интернета и получать вознаграждения в токенах.
Vana ввела уникальную концепцию пула ликвидности данных (DLP), позволяя пользователям загружать личные данные (такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использовать эти данные определенным третьим лицам.
В PublicAI пользователи могут использовать #AI或#Web3 в качестве категории и @PublicAI для сбора данных на X.
В настоящее время Grass и OpenLayer рассматривают возможность добавления этапа аннотирования данных, который является ключевым.
Synesis представила концепцию "Train2earn", подчеркивая качество данных, пользователи могут получать вознаграждения за предоставление аннотированных данных, комментариев или других форм ввода.
Проект аннотации данных Sapien геймифицирует задачи аннотирования и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol.
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network.
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации нулевых доказательств трафика HTTPS, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, и текущая проблема заключается в слишком высоких вычислительных затратах, например:
Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML более чем в 1000 раз превышают затраты на чистые вычисления.
Два, Промежуточное ПО: Обучение и вывод модели
Децентрализованный рынок открытых моделей
Дебаты о том, должны ли модели ИИ быть закрытыми или открытыми, никогда не прекращались. Преимущество коллективных инноваций, которые предоставляет открытый исходный код, несравнимо с закрытыми моделями, однако как открытые модели могут повысить мотивацию разработчиков без какой-либо модели получения прибыли? Это стоит размышлений.