Exploración de AI Layer1: Desbloquear una nueva paradigma de inteligencia artificial descentralizada

Informe de investigación de AI Layer1: buscando la tierra fértil para DeAI en la cadena

En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, expandiendo enormemente el espacio de imaginación humano e incluso mostrando potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos centralizados. Con un capital sólido y control sobre los costosos recursos computacionales, estas empresas han construido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.

Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptabilidad social. Si no se resuelven adecuadamente, la controversia sobre si la IA es "benévola" o "malévola" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la suficiente motivación para afrontar proactivamente estos desafíos.

La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en algunas blockchains predominantes. Sin embargo, un análisis más profundo revela que estos proyectos todavía enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el soporte de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena aún es limitada en términos de capacidad del modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.

Para lograr verdaderamente la visión de una IA descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con las soluciones centralizadas, necesitamos diseñar una blockchain de Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la democracia en la gobernanza y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil del DeAI on-chain

Características clave de AI Layer 1

AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene una arquitectura subyacente y un diseño de rendimiento que se centra en las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades centrales:

  1. Mecanismos de incentivos eficientes y consenso descentralizado

El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como capacidad de cómputo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 necesitan asumir tareas más complejas, no solo deben proporcionar capacidad de cómputo, completar el entrenamiento y la inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores requisitos para el consenso subyacente y los mecanismos de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión las contribuciones reales de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo de esta manera se puede garantizar la estabilidad y prosperidad de la red, así como reducir efectivamente el costo total de la capacidad de cómputo.

  1. Excelente rendimiento de alto nivel y capacidad de soporte para tareas heterogéneas

Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean altos requisitos de rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA en la cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La Capa 1 de IA debe optimizar profundamente la arquitectura subyacente para satisfacer las demandas de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y preconfigurar la capacidad de soporte nativo para recursos de computación heterogénea, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas unidimensionales" a "ecosistemas complejos y diversos".

  1. Verificabilidad y garantía de salida confiable

AI Layer 1 no solo debe prevenir riesgos de seguridad como el mal uso de modelos y la manipulación de datos, sino que también debe garantizar desde la base que los resultados de salida de la IA sean verificables y estén alineados. Al integrar tecnologías de vanguardia como el entorno de ejecución confiable (TEE), la prueba de conocimiento cero (ZK) y el cálculo seguro multiparte (MPC), la plataforma permite que cada inferencia de modelo, entrenamiento y proceso de manejo de datos pueda ser verificado de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y fundamentos de la salida de la IA, logrando "lo que se obtiene es lo que se desea", aumentando así la confianza y satisfacción del usuario en los productos de IA.

  1. Protección de la privacidad de los datos

Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crucial en campos como las finanzas, la salud y las redes sociales. AI Layer 1 debe adoptar técnicas de procesamiento de datos basadas en criptografía, protocolos de cálculo de privacidad y gestión de permisos de datos, garantizando al mismo tiempo la verificabilidad, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el uso indebido de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.

  1. Potente capacidad de soporte y desarrollo del ecosistema.

Como una infraestructura de Layer 1 nativa de IA, la plataforma no solo debe poseer una ventaja técnica, sino que también necesita proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte de operaciones y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomentará la implementación de diversas aplicaciones nativas de IA, logrando así una prosperidad continua del ecosistema de IA descentralizado.

Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual de los proyectos y explorando las tendencias futuras.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: Buscando la tierra fértil de DeAI en la cadena

Sentient: Construir modelos de IA descentralizados de código abierto y leales

Resumen del proyecto

Sentient es una plataforma de protocolo de código abierto que está construyendo una cadena de bloques AI Layer1 (. La fase inicial es Layer 2 y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología de blockchain, se construye una economía descentralizada de inteligencia artificial. Su objetivo principal es abordar los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona construya, colabore, posea y monetice productos de IA, impulsando así un ecosistema de red de agentes de IA justo y abierto.

El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI que sea impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y protección de la privacidad de la IA, mientras que un cofundador de una conocida cadena pública lidera la estrategia blockchain y el despliegue ecológico. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP, visión por computadora, entre otros, colaborando para impulsar la implementación del proyecto.

Como un proyecto de segunda emprendeduría de uno de los cofundadores de una conocida cadena pública, Sentient llegó con un halo desde su creación, contando con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporcionó un sólido respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones de inversión como Delphi, Hashkey y Spartan, entre otras reconocidas VC.

Biteye y PANews publican conjuntamente un informe de investigación de AI Layer1: buscando un terreno fértil para DeAI on-chain

diseño de arquitectura y capa de aplicación

Capa de infraestructura

Arquitectura central

La arquitectura central de Sentient se compone de dos partes: un pipeline de IA (AI Pipeline) y un sistema de blockchain.

El pipeline de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", e incluye dos procesos clave:

  • Curación de datos (Data Curation): proceso de selección de datos impulsado por la comunidad, utilizado para la alineación de modelos.
  • Entrenamiento de lealtad (Loyalty Training): Asegurar que el modelo mantenga un proceso de entrenamiento alineado con las intenciones de la comunidad.

El sistema de blockchain proporciona transparencia y control descentralizado para el protocolo, asegurando la propiedad, el seguimiento de uso, la distribución de ingresos y la gobernanza justa de los artefactos de IA. La arquitectura específica se divide en cuatro capas:

  • Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
  • Capa de distribución: entrada de llamada al modelo controlada por el contrato de autorización;
  • Capa de acceso: verifica si el usuario está autorizado mediante prueba de permisos;
  • Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago en cada llamada a los entrenadores, implementadores y validadores.

Biteye y PANews publican conjuntamente el informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

Marco de modelo OML

El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar una protección clara de la propiedad y un mecanismo de incentivos económicos para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, presenta las siguientes características:

  • Apertura: El modelo debe ser de código abierto, con código y estructura de datos transparentes, lo que facilita la reproducción, auditoría y mejora por parte de la comunidad.
  • Monetización: Cada llamada al modelo desencadenará un flujo de ingresos, el contrato en la cadena distribuirá los ingresos a los entrenadores, implementadores y validadores.
  • Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de las actualizaciones y la gobernanza son decididas por la DAO, y el uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)

La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedad de baja dimensión y la característica de diferenciabilidad del modelo para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:

  • Huella dactilar incrustada: insertar un conjunto de pares clave-valor ocultos de consulta-respuesta durante el entrenamiento para formar la firma única del modelo;
  • Protocolo de verificación de propiedad: Verificar si la huella dactilar se conserva a través de un detector de terceros (Prover) en forma de consulta.
  • Mecanismo de llamada con licencia: Antes de la llamada, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema otorgará autorización al modelo para decodificar la entrada y devolver la respuesta precisa.

Este método permite implementar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin coste de re-encriptación.

Marco de ejecución segura y derechos del modelo

Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y reparto de beneficios de contratos on-chain. El método de huellas dactilares es la implementación OML 1.0 de la línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con detección y castigo posible en caso de incumplimiento.

El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la propiedad, evitando copias no autorizadas y comercialización. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable de las acciones de uso del modelo.

Además, Sentient ha lanzado el marco de cálculo Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para asegurar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizado. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas en rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos en la actualidad.

En el futuro, Sentient planea introducir tecnologías de prueba de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando soluciones más maduras para el despliegue descentralizado de modelos de IA.

capa de aplicación

Actualmente, Sentient

DEAI-2.57%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 3
  • Compartir
Comentar
0/400
ConsensusDissentervip
· 07-29 14:08
El monopolio de la IA es demasiado grave.
Ver originalesResponder0
OffchainWinnervip
· 07-29 14:06
Vale la pena estudiarlo a fondo
Ver originalesResponder0
SorryRugPulledvip
· 07-29 13:58
Descentralización debe romperse
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)