AI Layer1 исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, постоянно способствуют стремительному развитию больших языковых моделей (LLM). LLM демонстрируют беспрецедентные возможности в различных отраслях, значительно расширяя пространство человеческого воображения и даже показывая потенциал замены человеческого труда в некоторых сценариях. Однако ядро этих технологий остается надежно в руках немногих централизованных технологических гигантов. Обладая значительным капиталом и контролем над дорогостоящими вычислительными ресурсами, эти компании создали непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредотачивается на прорывах и удобствах, которые предоставляет технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, остается относительно слабым. В долгосрочной перспективе эти проблемы серьезно повлияют на здоровое развитие отрасли ИИ и социальную приемлемость. Если их не удастся должным образом решить, споры о том, будет ли ИИ "на благо" или "во зло", будут становиться все более острыми, в то время как централизованные гиганты, движимые инстинктом получения прибыли, зачастую не имеют достаточной мотивации для активного реагирования на эти вызовы.
Технология блокчейн благодаря своим децентрализованным, прозрачным и антикоррупционным характеристикам открывает новые возможности для устойчивого развития отрасли ИИ. В настоящее время на некоторых основных блокчейнах уже возникло множество приложений "Web3 AI". Однако при более глубоком анализе можно обнаружить, что у этих проектов все еще есть множество проблем: с одной стороны, уровень децентрализации ограничен, ключевые этапы и инфраструктура по-прежнему зависят от централизованных облачных сервисов, мемные свойства слишком выражены, что затрудняет поддержку поистине открытой экосистемы; с другой стороны, по сравнению с ИИ-продуктами в мире Web2, AI на блокчейне по-прежнему ограничен в таких аспектах, как способность моделей, использование данных и сценарии применения, глубина и широта инноваций требуют повышения.
Чтобы действительно реализовать видение децентрализованного ИИ, необходимо создать такую блокчейн-технологию, которая сможет безопасно, эффективно и демократично поддерживать масштабные ИИ-приложения и конкурировать с централизованными решениями по производительности. Нам нужно разработать Layer1 блокчейн, специально созданный для ИИ. Это создаст прочную основу для открытых инноваций в области ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI-приложений, имеет архитектуру и производительность, которые тесно связаны с требованиями AI-задач, с целью эффективной поддержки устойчивого развития и процветания AI-экосистемы в блокчейне. Конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса Основная задача AI Layer 1 заключается в создании открытой сети для совместного использования таких ресурсов, как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на бухгалтерском учете в книге, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но также вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, чтобы разорвать монополию централизованных гигантов в области ИИ-инфраструктуры. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен быть способен точно оценивать, поощрять и проверять фактический вклад узлов в задачи, связанные с выводом и обучением ИИ, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходная производительность и поддержка гетерогенных задач. Задачи ИИ, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные, гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен глубоко оптимизировать свою базовую архитектуру для удовлетворения требований к высокой пропускной способности, низкой задержке и эластичной параллельной обработке, а также предусмотреть нативную поддержку гетерогенных вычислительных ресурсов, чтобы обеспечить эффективное выполнение различных задач ИИ и обеспечить плавное расширение от "однородных задач" к "сложным многообразным экосистемам".
Верфицируемость и гарантии надежного вывода AI Layer 1 должны не только предотвращать злоупотребления моделями, подделку данных и другие угрозы безопасности, но и с механической точки зрения обеспечивать верфицируемость и согласованность выводов AI. Интегрируя такие передовые технологии, как доверительная вычислительная среда (TEE), нулевое знание (ZK), многопартийные безопасные вычисления (MPC), платформа позволяет независимо проверять каждый процесс вывода модели, обучения и обработки данных, гарантируя справедливость и прозрачность системы AI. При этом такая верфицируемость также помогает пользователям четко понимать логику и обоснования выводов AI, достигая "полученного именно того, что желалось", увеличивая доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Применение ИИ часто связано с чувствительными данными пользователей, особенно в таких областях, как финансы, здравоохранение и социальные сети, где защита конфиденциальности данных имеет особое значение. AI Layer 1 должен обеспечивать проверяемость, одновременно применяя технологии обработки данных на основе шифрования, протоколы вычислений с сохранением конфиденциальности и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах, включая вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными и устраняя опасения пользователей по поводу безопасности данных.
Мощные возможности поддержки и развития экосистемы. Как инфраструктура Layer 1, основанная на AI, платформа должна не только обладать технологическим превосходством, но и предоставлять разработчикам, операторам узлов, поставщикам AI-услуг и другим участникам экосистемы полноценные инструменты разработки, интегрированные SDK, поддержку эксплуатации и механизмы стимулирования. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных AI-приложений и обеспечиваем устойчивое процветание децентрализованной AI-экосистемы.
Основываясь на вышеизложенном контексте и ожиданиях, в данной статье будет подробно рассмотрено шесть проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически проанализированы последние достижения в данной области, проанализировано текущее состояние проектов и обсуждены будущие тенденции.
Sentient: создание преданного открытого децентрализованного AI-модели
Обзор проекта
Sentient — это платформа с открытым исходным кодом, разрабатывающая AI Layer1 в блокчейне(, которая на начальном этапе является Layer 2, а затем будет перенесена на Layer 1). Объединив AI Pipeline и технологии блокчейна, платформа строит децентрализованную экономику искусственного интеллекта. Основная цель заключается в решении проблем принадлежности модели, отслеживания вызовов и распределения ценности на централизованном рынке LLM с помощью структуры "OML" (открытость, прибыльность, лояльность), позволяя AI моделям реализовать структуру собственности в блокчейне, прозрачность вызовов и распределение ценности. Видение Sentient — позволить каждому строить, сотрудничать, владеть и монетизировать AI продукты, тем самым способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединяет ведущих мировых научных экспертов, предпринимателей в области блокчейна и инженеров, стремящихся создать сообществом управляемую, открытую и проверяемую платформу AGI. Основные участники включают профессора Принстонского университета Прамода Висваната и профессора Индийского института науки Химаншу Тягии, которые отвечают за безопасность AI и защиту конфиденциальности, в то время как соучредитель Polygon Сандип Найлвал ведет стратегию блокчейна и экосистемное планирование. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в таких ведущих учебных заведениях, как Принстонский университет и Индийский институт технологий, охватывая такие области, как AI/ML, NLP, компьютерное зрение и совместно способствуя реализации проекта.
В качестве второго стартапа соучредителя Polygon Сандипа Нейлвала, Sentient с самого начала имела ореол, обладая обширными ресурсами, связями и рыночной осведомленностью, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершила раунд посевного финансирования в размере 85 миллионов долларов, в котором ведущими инвесторами стали Founders Fund, Pantera и Framework Ventures, а также десятки известных венчурных фондов, таких как Delphi, Hashkey и Spartan.
Проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Основная архитектура
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI-пайплайн является основой для разработки и обучения "лояльного ИИ" артефактов и включает в себя два ключевых процесса:
Планирование данных (Data Curation): процесс выбора данных, управляемый сообществом, для выравнивания модели.
Обучение лояльности (Loyalty Training): обеспечение того, чтобы модель проходила процесс обучения в соответствии с намерениями сообщества.
Система блокчейна обеспечивает прозрачность и децентрализованный контроль для протокола, гарантируя права собственности на ИИ-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура делится на четыре уровня:
Уровень хранения: хранение весов модели и информации о регистрации отпечатков.
Уровень распределения: вход для вызова модели контролируется контрактом авторизации;
Уровень доступа: проверка правомочия для подтверждения авторизации пользователя;
Уровень стимулов: контракт маршрутизации доходов будет распределять платежи при каждом вызове между тренерами, развертывателями и валидаторами.
OML модельная рамка
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) является ключевой концепцией, предложенной Sentient, и направлен на предоставление четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Объединив технологии в блокчейне и нативную криптографию AI, обладает следующими характеристиками:
Открытость: Модель должна быть с открытым исходным кодом, код и структура данных должны быть прозрачными, чтобы сообщество могло воспроизводить, аудировать и улучшать.
Монетизация: Каждый вызов модели будет генерировать поток доходов, в блокчейне контракт будет распределять доходы между тренерами, развертывателями и валидаторами.
Преданность: Модель принадлежит сообществу участников, направление обновлений и управление определяются DAO, использование и модификация контролируются криптомеханизмом.
AI-родная криптография (AI-native Cryptography)
Искусственный интеллект, основанный на криптографии, использует непрерывность моделей ИИ, структуру низкоразмерных многообразий и дифференцируемые свойства моделей для разработки "проверяемого, но неустранимого" легковесного механизма безопасности. Его核心技术是:
Встраивание отпечатка: во время обучения вставляется набор скрытых пар «запрос-ответ», формирующих уникальную подпись модели;
Протокол верификации прав собственности: проверка, сохранился ли отпечаток, с помощью третьего лица-детектора (Prover) в форме запроса.
Механизм разрешенного вызова: перед вызовом необходимо получить "разрешительный сертификат", выданный владельцем модели, после чего система предоставляет модели разрешение на декодирование данного ввода и возврат точного ответа.
Этот способ позволяет реализовать "поведенческий авторизационный вызов + верификация принадлежности" без затрат на повторное шифрование.
Модель определения прав и безопасного выполнения
Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения прав с помощью отпечатков пальцев, выполнения TEE и распределения прибыли на основе смарт-контрактов в блокчейне. При этом метод отпечатков пальцев реализуется по OML 1.0, подчеркивая идею "оптимистичной безопасности (Optimistic Security)", что подразумевает автоматическое соответствие, а в случае нарушения возможно обнаружение и наказание.
Механизм отпечатков пальцев является ключевой реализацией OML, который позволяет модели генерировать уникальные подписи на этапе обучения, встраивая определенные пары "вопрос-ответ". С помощью этих подписей владельцы модели могут проверять принадлежность, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient выпустила вычислительную платформу Enclave TEE, использующую доверенные исполняемые среды (например, AWS Nitro Enclaves), чтобы гарантировать, что модели реагируют только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания моделей в настоящее время.
В будущем компания Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью гомоморфного шифрования (FHE), чтобы дополнительно усилить защиту конфиденциальности и проверяемость для децентрализованных AI моделей.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 Лайков
Награда
8
5
Поделиться
комментарий
0/400
NestedFox
· 8ч назад
Что такое ИИ?
Посмотреть ОригиналОтветить0
HalfPositionRunner
· 8ч назад
Большие компании не могут себе этого позволить, ищут вторую весну
Посмотреть ОригиналОтветить0
0xTherapist
· 8ч назад
Еще одно место, где неудачники разыгрываются как лохи.
Анализ сектора AI Layer1: исследование новых возможностей для развития децентрализованного AI
AI Layer1 исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, постоянно способствуют стремительному развитию больших языковых моделей (LLM). LLM демонстрируют беспрецедентные возможности в различных отраслях, значительно расширяя пространство человеческого воображения и даже показывая потенциал замены человеческого труда в некоторых сценариях. Однако ядро этих технологий остается надежно в руках немногих централизованных технологических гигантов. Обладая значительным капиталом и контролем над дорогостоящими вычислительными ресурсами, эти компании создали непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредотачивается на прорывах и удобствах, которые предоставляет технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, остается относительно слабым. В долгосрочной перспективе эти проблемы серьезно повлияют на здоровое развитие отрасли ИИ и социальную приемлемость. Если их не удастся должным образом решить, споры о том, будет ли ИИ "на благо" или "во зло", будут становиться все более острыми, в то время как централизованные гиганты, движимые инстинктом получения прибыли, зачастую не имеют достаточной мотивации для активного реагирования на эти вызовы.
Технология блокчейн благодаря своим децентрализованным, прозрачным и антикоррупционным характеристикам открывает новые возможности для устойчивого развития отрасли ИИ. В настоящее время на некоторых основных блокчейнах уже возникло множество приложений "Web3 AI". Однако при более глубоком анализе можно обнаружить, что у этих проектов все еще есть множество проблем: с одной стороны, уровень децентрализации ограничен, ключевые этапы и инфраструктура по-прежнему зависят от централизованных облачных сервисов, мемные свойства слишком выражены, что затрудняет поддержку поистине открытой экосистемы; с другой стороны, по сравнению с ИИ-продуктами в мире Web2, AI на блокчейне по-прежнему ограничен в таких аспектах, как способность моделей, использование данных и сценарии применения, глубина и широта инноваций требуют повышения.
Чтобы действительно реализовать видение децентрализованного ИИ, необходимо создать такую блокчейн-технологию, которая сможет безопасно, эффективно и демократично поддерживать масштабные ИИ-приложения и конкурировать с централизованными решениями по производительности. Нам нужно разработать Layer1 блокчейн, специально созданный для ИИ. Это создаст прочную основу для открытых инноваций в области ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI-приложений, имеет архитектуру и производительность, которые тесно связаны с требованиями AI-задач, с целью эффективной поддержки устойчивого развития и процветания AI-экосистемы в блокчейне. Конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса Основная задача AI Layer 1 заключается в создании открытой сети для совместного использования таких ресурсов, как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на бухгалтерском учете в книге, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но также вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, чтобы разорвать монополию централизованных гигантов в области ИИ-инфраструктуры. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен быть способен точно оценивать, поощрять и проверять фактический вклад узлов в задачи, связанные с выводом и обучением ИИ, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходная производительность и поддержка гетерогенных задач. Задачи ИИ, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные, гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен глубоко оптимизировать свою базовую архитектуру для удовлетворения требований к высокой пропускной способности, низкой задержке и эластичной параллельной обработке, а также предусмотреть нативную поддержку гетерогенных вычислительных ресурсов, чтобы обеспечить эффективное выполнение различных задач ИИ и обеспечить плавное расширение от "однородных задач" к "сложным многообразным экосистемам".
Верфицируемость и гарантии надежного вывода AI Layer 1 должны не только предотвращать злоупотребления моделями, подделку данных и другие угрозы безопасности, но и с механической точки зрения обеспечивать верфицируемость и согласованность выводов AI. Интегрируя такие передовые технологии, как доверительная вычислительная среда (TEE), нулевое знание (ZK), многопартийные безопасные вычисления (MPC), платформа позволяет независимо проверять каждый процесс вывода модели, обучения и обработки данных, гарантируя справедливость и прозрачность системы AI. При этом такая верфицируемость также помогает пользователям четко понимать логику и обоснования выводов AI, достигая "полученного именно того, что желалось", увеличивая доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Применение ИИ часто связано с чувствительными данными пользователей, особенно в таких областях, как финансы, здравоохранение и социальные сети, где защита конфиденциальности данных имеет особое значение. AI Layer 1 должен обеспечивать проверяемость, одновременно применяя технологии обработки данных на основе шифрования, протоколы вычислений с сохранением конфиденциальности и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах, включая вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными и устраняя опасения пользователей по поводу безопасности данных.
Мощные возможности поддержки и развития экосистемы. Как инфраструктура Layer 1, основанная на AI, платформа должна не только обладать технологическим превосходством, но и предоставлять разработчикам, операторам узлов, поставщикам AI-услуг и другим участникам экосистемы полноценные инструменты разработки, интегрированные SDK, поддержку эксплуатации и механизмы стимулирования. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных AI-приложений и обеспечиваем устойчивое процветание децентрализованной AI-экосистемы.
Основываясь на вышеизложенном контексте и ожиданиях, в данной статье будет подробно рассмотрено шесть проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически проанализированы последние достижения в данной области, проанализировано текущее состояние проектов и обсуждены будущие тенденции.
Sentient: создание преданного открытого децентрализованного AI-модели
Обзор проекта
Sentient — это платформа с открытым исходным кодом, разрабатывающая AI Layer1 в блокчейне(, которая на начальном этапе является Layer 2, а затем будет перенесена на Layer 1). Объединив AI Pipeline и технологии блокчейна, платформа строит децентрализованную экономику искусственного интеллекта. Основная цель заключается в решении проблем принадлежности модели, отслеживания вызовов и распределения ценности на централизованном рынке LLM с помощью структуры "OML" (открытость, прибыльность, лояльность), позволяя AI моделям реализовать структуру собственности в блокчейне, прозрачность вызовов и распределение ценности. Видение Sentient — позволить каждому строить, сотрудничать, владеть и монетизировать AI продукты, тем самым способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединяет ведущих мировых научных экспертов, предпринимателей в области блокчейна и инженеров, стремящихся создать сообществом управляемую, открытую и проверяемую платформу AGI. Основные участники включают профессора Принстонского университета Прамода Висваната и профессора Индийского института науки Химаншу Тягии, которые отвечают за безопасность AI и защиту конфиденциальности, в то время как соучредитель Polygon Сандип Найлвал ведет стратегию блокчейна и экосистемное планирование. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в таких ведущих учебных заведениях, как Принстонский университет и Индийский институт технологий, охватывая такие области, как AI/ML, NLP, компьютерное зрение и совместно способствуя реализации проекта.
В качестве второго стартапа соучредителя Polygon Сандипа Нейлвала, Sentient с самого начала имела ореол, обладая обширными ресурсами, связями и рыночной осведомленностью, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершила раунд посевного финансирования в размере 85 миллионов долларов, в котором ведущими инвесторами стали Founders Fund, Pantera и Framework Ventures, а также десятки известных венчурных фондов, таких как Delphi, Hashkey и Spartan.
Проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Основная архитектура
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI-пайплайн является основой для разработки и обучения "лояльного ИИ" артефактов и включает в себя два ключевых процесса:
Система блокчейна обеспечивает прозрачность и децентрализованный контроль для протокола, гарантируя права собственности на ИИ-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура делится на четыре уровня:
OML модельная рамка
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) является ключевой концепцией, предложенной Sentient, и направлен на предоставление четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Объединив технологии в блокчейне и нативную криптографию AI, обладает следующими характеристиками:
AI-родная криптография (AI-native Cryptography)
Искусственный интеллект, основанный на криптографии, использует непрерывность моделей ИИ, структуру низкоразмерных многообразий и дифференцируемые свойства моделей для разработки "проверяемого, но неустранимого" легковесного механизма безопасности. Его核心技术是:
Этот способ позволяет реализовать "поведенческий авторизационный вызов + верификация принадлежности" без затрат на повторное шифрование.
Модель определения прав и безопасного выполнения
Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения прав с помощью отпечатков пальцев, выполнения TEE и распределения прибыли на основе смарт-контрактов в блокчейне. При этом метод отпечатков пальцев реализуется по OML 1.0, подчеркивая идею "оптимистичной безопасности (Optimistic Security)", что подразумевает автоматическое соответствие, а в случае нарушения возможно обнаружение и наказание.
Механизм отпечатков пальцев является ключевой реализацией OML, который позволяет модели генерировать уникальные подписи на этапе обучения, встраивая определенные пары "вопрос-ответ". С помощью этих подписей владельцы модели могут проверять принадлежность, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient выпустила вычислительную платформу Enclave TEE, использующую доверенные исполняемые среды (например, AWS Nitro Enclaves), чтобы гарантировать, что модели реагируют только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания моделей в настоящее время.
В будущем компания Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью гомоморфного шифрования (FHE), чтобы дополнительно усилить защиту конфиденциальности и проверяемость для децентрализованных AI моделей.