AI+Web3: Explorando la aplicación de incentivos distribuidos en los mercados de datos, Potencia computacional y modelos de Código abierto.

AI+Web3: Torres y Plazas

TL;DR

  1. Los proyectos de Web3 con concepto de IA se han convertido en objetivos de atracción de capital en los mercados primario y secundario.

  2. Las oportunidades de Web3 en la industria de la IA se reflejan en: utilizar incentivos distribuidos para coordinar el suministro potencial de cola larga, involucrando datos, almacenamiento y computación; al mismo tiempo, establecer un mercado descentralizado para modelos de código abierto y agentes de IA.

  3. La IA se aplica principalmente en la industria Web3 en finanzas en cadena (pagos criptográficos, transacciones, análisis de datos) y en el desarrollo asistido.

  4. La utilidad de AI+Web3 se refleja en la complementariedad de ambos: Web3 tiene el potencial de combatir la centralización de AI, y AI tiene el potencial de ayudar a Web3 a romper barreras.

AI+Web3:Torres y plazas

Introducción

En los últimos dos años, el desarrollo de la IA ha sido como si se hubiera presionado un botón de aceleración. Esta ola provocada por Chatgpt no solo ha abierto un nuevo mundo de inteligencia artificial generativa, sino que también ha provocado grandes olas en el ámbito de Web3.

Con el respaldo del concepto de IA, la financiación del mercado de criptomonedas se ha visto claramente impulsada. Según estadísticas, solo en la primera mitad de 2024, 64 proyectos Web3+IA completaron financiación, y el sistema operativo basado en inteligencia artificial Zyber365 logró un máximo de 100 millones de dólares en su ronda A.

El mercado secundario es aún más próspero. Según los datos del agregador de criptomonedas Coingecko, en poco más de un año, la capitalización total del sector de IA ha alcanzado los 48,5 mil millones de dólares, con un volumen de transacciones de casi 8,6 mil millones de dólares en 24 horas. Los avances en las tecnologías de IA han traído beneficios claros; tras el lanzamiento del modelo de OpenAI Sora que convierte texto en video, el precio promedio del sector de IA ha aumentado un 151%. El efecto de la IA también se ha extendido a uno de los segmentos más atractivos de las criptomonedas, Meme: el primer concepto de MemeCoin con un Agente de IA——GOAT, que rápidamente se hizo popular y obtuvo una valoración de 1,4 mil millones de dólares, iniciando con éxito la fiebre de los Memes de IA.

La investigación y los temas sobre AI+Web3 también están en auge, desde AI+Depin hasta AI Memecoin y ahora los AI Agent y AI DAO, la emoción de FOMO ya no puede seguir el ritmo de la rotación de nuevas narrativas.

La combinación de términos AI+Web3, llena de capital especulativo, oportunidades y fantasías futuras, inevitablemente se ve como un matrimonio arreglado por el capital. Parece que es difícil distinguir, bajo este espléndido envoltorio, si se trata de un terreno para especuladores o de la víspera de una explosión al amanecer.

Para responder a esta pregunta, una reflexión clave para ambas partes es: ¿mejorará con la otra parte? ¿Se puede beneficiar del modelo del otro? Este artículo intenta examinar este patrón desde la perspectiva de quienes nos precedieron: ¿cómo puede Web3 desempeñar un papel en cada etapa de la pila tecnológica de IA y qué nueva vitalidad puede aportar la IA a Web3?

Parte 1 ¿Qué oportunidades ofrece Web3 bajo la pila de IA?

Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:

Expresar todo el proceso en un lenguaje sencillo: "El gran modelo" es como el cerebro humano, en las primeras etapas pertenece a un bebé recién nacido, que necesita observar e ingerir una gran cantidad de información del exterior para entender el mundo, esta es la etapa de "recolección" de datos. Dado que las computadoras no poseen los múltiples sentidos humanos, la información masiva no etiquetada del exterior debe ser transformada a un formato de información comprensible y utilizable por la computadora a través de "preprocesamiento".

Después de introducir los datos, la IA construye un modelo con capacidad de comprensión y predicción a través de "entrenamiento", lo que puede verse como el proceso en el que un bebé gradualmente entiende y aprende del mundo exterior. Los parámetros del modelo son como las habilidades lingüísticas que se ajustan continuamente durante el proceso de aprendizaje del bebé. El contenido de aprendizaje comienza a dividirse en disciplinas, o se obtiene retroalimentación mediante la comunicación con personas y se corrige, lo que lleva a la fase de "ajuste fino" del gran modelo.

Cuando los niños crecen y aprenden a hablar, pueden entender el significado y expresar sus sentimientos e ideas en nuevas conversaciones. Esta etapa es similar al "razonamiento" de un gran modelo de IA, que puede predecir y analizar entradas de texto en un nuevo idioma. Los bebés expresan sus sentimientos, describen objetos y resuelven problemas a través de su capacidad lingüística, similar a cómo un gran modelo de IA se aplica en la fase de razonamiento para diversas tareas específicas, como la clasificación de imágenes y el reconocimiento de voz.

El Agente de IA se acerca más a la próxima forma de los grandes modelos: capaz de ejecutar tareas de forma independiente y perseguir objetivos complejos, no solo con capacidad de pensamiento, sino también con memoria, planificación y la habilidad de utilizar herramientas para interactuar con el mundo.

Actualmente, en respuesta a los puntos críticos de la IA en las diversas pilas, Web3 ha comenzado a formar un ecosistema de múltiples capas y conexiones mutuas, que abarca todas las etapas del proceso de modelos de IA.

AI+Web3: Torres y plazas

Uno, Capa Básica: Airbnb de Poder de Cálculo y Datos

Poder de cómputo

Actualmente, uno de los costos más altos de la IA es la potencia computacional y la energía necesarias para entrenar modelos y realizar inferencias.

Por ejemplo, el LLAMA3 de Meta necesita 16,000 GPU H100 producidas por NVIDIA (que son unidades de procesamiento gráfico de primer nivel diseñadas específicamente para cargas de trabajo de IA y computación de alto rendimiento) durante 30 días para completar el entrenamiento. La versión de 80 GB de estas GPU tiene un precio unitario entre 30,000 y 40,000 dólares, lo que requiere una inversión de hardware de cálculo de entre 400 y 700 millones de dólares (GPU + chips de red), mientras que el entrenamiento mensual consume 1.6 mil millones de kilovatios-hora, con gastos energéticos de cerca de 20 millones de dólares al mes.

La descompresión del poder de cálculo de la IA es también uno de los primeros campos donde Web3 se cruza con la IA: DePin (Red de Infraestructura Física Descentralizada). Actualmente, el sitio de datos DePin Ninja ha listado más de 1400 proyectos, entre los cuales los proyectos representativos de compartición de poder de GPU incluyen io.net, Aethir, Akash, Render Network, entre otros.

La lógica principal radica en que: la plataforma permite a personas o entidades con recursos de GPU ociosos contribuir con capacidad de cálculo de manera descentralizada y sin necesidad de permisos, a través de un mercado en línea para compradores y vendedores similar a Uber o Airbnb, aumentando la tasa de utilización de recursos de GPU no plenamente utilizados, y los usuarios finales obtienen así recursos de cálculo eficientes a un costo más bajo; al mismo tiempo, el mecanismo de staking asegura que los proveedores de recursos tengan sanciones correspondientes si violan el mecanismo de control de calidad o interrumpen la red.

Sus características son:

  • Acumulación de recursos GPU ociosos: los proveedores son principalmente operadores de centros de datos independientes de terceros, granjas de criptomonedas y otros recursos de potencia de cálculo excedente, con un mecanismo de consenso de minería PoS, como las máquinas mineras de FileCoin y ETH. Actualmente, también hay proyectos dedicados a iniciar equipos con barreras de entrada más bajas, como exolab, que utiliza dispositivos locales como MacBook, iPhone, iPad, etc., para establecer una red de potencia de cálculo para la inferencia de grandes modelos.

  • Enfrentando el mercado de cola larga de la potencia de cálculo de IA:

a. "Desde el punto de vista técnico", el mercado de potencia de cómputo descentralizado es más adecuado para los pasos de inferencia. El entrenamiento depende más de la capacidad de procesamiento de datos que ofrecen los GPU de grandes clústeres, mientras que la inferencia tiene requisitos relativamente bajos en cuanto al rendimiento de cómputo de los GPU, como Aethir, que se centra en trabajos de renderización de baja latencia y aplicaciones de inferencia de IA.

b. "Desde el lado de la demanda", los pequeños demandantes de poder de cómputo no entrenarán sus propios grandes modelos de manera independiente, sino que solo optarán por optimizar y ajustar finamente alrededor de unos pocos grandes modelos líderes, y estos escenarios son naturalmente adecuados para recursos de poder de cómputo distribuidos e inactivos.

  • Propiedad descentralizada: El significado técnico de la blockchain radica en que los propietarios de recursos siempre mantienen el control sobre los recursos, ajustándolos de manera flexible según la demanda, al mismo tiempo que obtienen ingresos.

Datos

Los datos son la base de la IA. Sin datos, el cálculo es como hoja de agua, completamente inútil. La relación entre los datos y el modelo es como el dicho "Basura entra, basura sale"; la cantidad de datos y la calidad de entrada determinan la calidad de salida del modelo final. En el entrenamiento de los modelos de IA actuales, los datos determinan la capacidad lingüística, la capacidad de comprensión, e incluso los valores y la representación humanizada del modelo. Actualmente, la dificultad de la demanda de datos para la IA se centra principalmente en los siguientes cuatro aspectos:

  • Hambre de datos: El entrenamiento de modelos de IA depende de grandes volúmenes de datos de entrada. La información pública muestra que OpenAI entrenó GPT-4 con una cantidad de parámetros que alcanza el nivel de billones.

  • Calidad de los datos: A medida que la IA se combina con diversas industrias, la oportunidad, la diversidad, la especialización en datos verticales y la incorporación de nuevas fuentes de datos, como las emociones de las redes sociales, plantean nuevos requisitos para su calidad.

  • Problemas de privacidad y cumplimiento: Actualmente, los países y las empresas están empezando a reconocer la importancia de los conjuntos de datos de alta calidad y están limitando la recopilación de conjuntos de datos.

  • Costos de procesamiento de datos elevados: gran volumen de datos y procesos complejos. Según datos públicos, más del 30% de los costos de I+D de las empresas de IA se destinan a la recopilación y procesamiento de datos básicos.

Actualmente, las soluciones de web3 se reflejan en los siguientes cuatro aspectos:

  1. Recopilación de datos: Los datos del mundo real que se pueden recopilar de forma gratuita se están agotando rápidamente, y los gastos de las empresas de IA por datos están aumentando año tras año. Sin embargo, este gasto no se ha traducido en beneficios para los verdaderos contribuyentes de los datos; las plataformas disfrutan completamente de la creación de valor que los datos aportan, como Reddit, que ha generado un ingreso total de 203 millones de dólares a través de acuerdos de licencia de datos con empresas de IA.

Permitir que los usuarios que realmente contribuyen también participen en la creación de valor que aportan los datos, así como obtener datos más privados y valiosos de los usuarios a bajo costo a través de una red distribuida y mecanismos de incentivos, es la visión de Web3.

  • Grass es una capa de datos y red descentralizada, donde los usuarios pueden contribuir con ancho de banda ocioso y tráfico de retransmisión ejecutando nodos de Grass para capturar datos en tiempo real de toda Internet y obtener recompensas en tokens.

  • Vana ha introducido el concepto único de piscina de liquidez de datos (DLP), donde los usuarios pueden subir datos privados (como registros de compras, hábitos de navegación, actividades en redes sociales, etc.) a un DLP específico y elegir de manera flexible si autorizan o no el uso de esos datos a terceros específicos.

  • En PublicAI, los usuarios pueden usar #AI或#Web3 como etiqueta de clasificación en X y @PublicAI para realizar la recopilación de datos.

  1. Preprocesamiento de datos: En el proceso de procesamiento de datos de la IA, dado que los datos recopilados suelen ser ruidosos y contienen errores, es necesario limpiarlos y convertirlos a un formato utilizable antes de entrenar el modelo, lo que implica tareas repetitivas de normalización, filtrado y manejo de valores faltantes. Esta fase es uno de los pocos pasos manuales en la industria de la IA, lo que ha dado lugar a la industria de los etiquetadores de datos, y a medida que las exigencias de calidad de los datos por parte de los modelos aumentan, también lo hace el umbral para convertirse en etiquetador de datos, y esta tarea es naturalmente adecuada para el mecanismo de incentivos descentralizado de Web3.
  • Actualmente, Grass y OpenLayer están considerando unirse a esta etapa clave de la anotación de datos.

  • Synesis presentó el concepto de "Train2earn", enfatizando la calidad de los datos, los usuarios pueden obtener recompensas al proporcionar datos etiquetados, anotaciones u otras formas de entrada.

  • El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado y permite a los usuarios apostar puntos para ganar más puntos.

  1. Privacidad y seguridad de los datos: Es importante aclarar que la privacidad de los datos y la seguridad son dos conceptos diferentes. La privacidad de los datos se refiere al manejo de datos sensibles, mientras que la seguridad de los datos protege la información de los datos contra el acceso no autorizado, la destrucción y el robo. Así, las ventajas de la tecnología de privacidad de Web3 y sus posibles escenarios de aplicación se manifiestan en dos aspectos: (1) Entrenamiento de datos sensibles; (2) Colaboración de datos: múltiples propietarios de datos pueden participar juntos en el entrenamiento de IA sin necesidad de compartir sus datos originales.

Las tecnologías de privacidad más comunes en Web3 incluyen:

  • Entorno de ejecución confiable ( TEE ), como Super Protocol.

  • Cifrado homomórfico completamente (FHE), como BasedAI, Fhenix.io o Inco Network.

  • Tecnología de prueba de cero conocimiento (zk), como el Protocolo Reclaim que utiliza tecnología zkTLS para generar pruebas de cero conocimiento del tráfico HTTPS, lo que permite a los usuarios importar de forma segura actividades, reputación y datos de identidad desde sitios externos sin exponer información sensible.

Sin embargo, actualmente el campo aún se encuentra en una etapa temprana, la mayoría de los proyectos todavía están en exploración, y la dificultad actual es que el costo de cálculo es demasiado alto, por ejemplo:

  • El marco zkML EZKL tarda aproximadamente 80 minutos en generar la prueba del modelo 1M-nanoGPT.

  • Según los datos de Modulus Labs, el costo de zkML es más de 1000 veces mayor que el de los cálculos puros.

  1. Almacenamiento de datos: Una vez que se tiene los datos, también se necesita un lugar en la cadena para almacenar los datos, así como el LLM generado a partir de esos datos. Con la disponibilidad de datos (DA) como problema central, antes de la actualización de Danksharding en Ethereum, su capacidad de procesamiento era de 0.08MB. Al mismo tiempo, el entrenamiento y la inferencia en tiempo real de modelos de IA generalmente requieren un rendimiento de datos de 50 a 100GB por segundo. Esta diferencia de magnitud hace que las soluciones existentes en la cadena se enfrenten a dificultades "cuando se trata de aplicaciones de IA que consumen muchos recursos."
  • 0g.AI es un proyecto representativo de esta categoría. Es una solución de almacenamiento centralizado diseñada para satisfacer altas demandas de rendimiento en IA, con características clave que incluyen: alto rendimiento y escalabilidad, soportando la carga y descarga rápida de grandes conjuntos de datos mediante técnicas avanzadas de fragmentación (Sharding) y codificación de borrado (Erasure Coding), con una velocidad de transferencia de datos cercana a 5GB por segundo.

Dos, Middleware: Entrenamiento e Inferencia del Modelo

Mercado descentralizado de modelos de código abierto

El debate sobre si los modelos de IA deben ser de código cerrado o abierto nunca ha desaparecido. La innovación colectiva que trae el código abierto es una ventaja que los modelos de código cerrado no pueden igualar. Sin embargo, sin un modelo de negocio rentable, ¿cómo puede un modelo de código abierto aumentar la motivación de los desarrolladores? Es algo que vale la pena reflexionar.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
NeverVoteOnDAOvip
· hace16h
Otra vez estas ideas para engañar a la gente
Ver originalesResponder0
PanicSeller69vip
· hace16h
Se ha enrollado, realmente tengo que introducir una posición.
Ver originalesResponder0
OnChainDetectivevip
· hace16h
He estado observando los datos toda la noche, incluso el modo de transacción está preestablecido por IA.
Ver originalesResponder0
SybilSlayervip
· hace16h
Me encanta la encriptación y también me encanta navegar, realmente es genial.
Ver originalesResponder0
ThatsNotARugPullvip
· hace17h
Un viejo tonto de web3 que quiere tomar a la gente por tonta pero no quiere ser un tonto.
Ver originalesResponder0
BearMarketBarbervip
· hace17h
Otra ola de tomadores de tontos
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)