OpenLedger: construir una economía de agentes inteligentes combinables impulsada por datos

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Uno, Introducción | La transición de la capa de modelos de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia de cálculo), que son indispensables. Similar a la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado temporalmente por proyectos de GPU descentralizados, que enfatizaban la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia la capa de modelos y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a una construcción de medio plazo más sostenible y de valor aplicable.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con escalas de parámetros que van de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste ligero que reutiliza modelos base, generalmente basado en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos con conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras tecnológicas.

Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la llamada a la arquitectura de Agente, el sistema de plugins de enrutamiento dinámico, la conexión en caliente de módulos LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura mantiene la capacidad de amplio alcance de LLM, mientras que a través de módulos de ajuste fino mejora el rendimiento profesional, formando un sistema inteligente combinado altamente flexible.

El valor y los límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que

  • La barrera técnica es demasiado alta: la escala de datos, los recursos de cómputo y la capacidad de ingeniería necesarios para entrenar un Modelo de Fundación son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de Estados Unidos y China tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: aunque modelos básicos como LLaMA y Mixtral han sido de código abierto, la clave para impulsar los avances en los modelos sigue concentrándose en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en la cadena en el nivel del modelo central es limitado.

Sin embargo, sobre los modelos base de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se manifiesta en dos direcciones centrales:

  • Capa de verificación confiable: a través del registro en cadena del modelo, se genera un camino, contribuciones de datos y uso, mejorando la trazabilidad y la resistencia a la manipulación de la salida de IA.
  • Mecanismo de incentivos: Con la ayuda del Token nativo, se utiliza para incentivar la subida de datos, la llamada de modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain

Como se puede ver, los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciado en la "capa de interfaz" de la IA.

La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, lo que mejora significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se desencadenan automáticamente distribuciones de recompensas cuando se accede a datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Dos, Resumen del proyecto | La visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de AI justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener beneficios en cadena según su contribución real.

OpenLedger proporciona un ciclo cerrado completo desde "provisión de datos" hasta "despliegue de modelos" y luego hasta "llamada de participación en beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: sin necesidad de programación, se puede utilizar LoRA para el ajuste fino y entrenamiento de modelos personalizados basados en LLM de código abierto;
  • OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica según demanda, reduce significativamente los costos de implementación;
  • PoA (Proof of Attribution): Medición de contribuciones y distribución de recompensas a través del registro de llamadas en la cadena;
  • Datanets: Redes de datos estructurados orientadas a escenarios verticales, construidas y validadas por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, invocable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelos combinables, promoviendo la on-chainización de la cadena de valor de la IA.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, construyendo un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta alta capacidad de procesamiento y ejecución de bajos costos;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: permite a los desarrolladores desplegar y expandir rápidamente basándose en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA generales como NEAR, que se centran más en la capa base y en la soberanía de los datos con la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas a la incentivación de datos y modelos, dedicándose a lograr que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivación de modelos en el mundo Web3, combinando la gestión de modelos, la facturación por uso y las interfaces combinables en la cadena, promoviendo el camino hacia la realización de "modelo como activo".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Model Factory, fábrica de modelos sin necesidad de código

ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica puramente operativa, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integral para la autorización de datos, el entrenamiento de modelos y su implementación, cuyos procesos centrales incluyen:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se conectan automáticamente a la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM de primera línea (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue del modelo: Herramienta de evaluación incorporada, soporta la exportación para despliegue o llamada de ecosistema compartido.
  • Interfaz de verificación interactiva: proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
  • Generación de trazabilidad RAG: Respuesta con citas de origen, aumentando la confianza y la auditabilidad.

La arquitectura del sistema de Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación de implementación y el rastreo RAG, creando una plataforma de servicio de modelos integrada, segura y controlable, con interacción en tiempo real y monetización sostenible.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory actualmente soporta:

  • LLaMA系列:el ecosistema más amplio, comunidad activa y fuerte rendimiento general, es uno de los modelos básicos de código abierto más populares en la actualidad.
  • Mistral: arquitectura eficiente, rendimiento de inferencia excelente, adecuada para escenarios de despliegue flexible y recursos limitados.
  • Qwen: Producto de Alibaba, con un rendimiento excepcional en tareas en chino, fuerte capacidad integral, ideal para desarrolladores nacionales como primera opción.
  • ChatGLM: Efectos de conversación en chino destacados, adecuados para atención al cliente en nichos y escenarios de localización.
  • Deepseek: Se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: un modelo ligero lanzado por Google, con una estructura clara, fácil de usar y experimentar rápidamente.
  • Falcon: Solía ser un referente de rendimiento, adecuado para investigación básica o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación real.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de alto rendimiento MoE o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales del despliegue en cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para realizar una configuración "prioridad práctica".

Model Factory como una herramienta sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con las ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:

  • Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
  • Para los usuarios: se pueden combinar modelos o agentes como si se llamara a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino

LoRA (Low-Rank Adaptation) es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar «matrices de bajo rango» en un gran modelo preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grande tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: «congelar los parámetros del modelo grande original y solo entrenar la nueva matriz de parámetros insertada.», su eficiencia en parámetros, rápido entrenamiento y flexibilidad en el despliegue lo convierten en el método de ajuste fino más adecuado actualmente para el despliegue de modelos Web3 y llamadas combinadas.

OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, especialmente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de la "IA Pagable".

OpenLoRA arquitectura del sistema componentes centrales, basado en un diseño modular, cubre el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de almacenamiento de adaptadores LoRA (Almacenamiento de adaptadores LoRA): El adaptador LoRA afinado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando cargar todos los modelos en la memoria de video, ahorrando recursos.
  • Capa de Alojamiento de Modelos y Fusión Dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos ajustados comparten el modelo base (base model) durante la inferencia.
OP-3.76%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 7
  • Compartir
Comentar
0/400
airdrop_whisperervip
· hace3h
Vuelven a aprovechar la popularidad de la IA...
Ver originalesResponder0
MondayYoloFridayCryvip
· hace13h
Este mercado está demasiado tm enrollado...
Ver originalesResponder0
MentalWealthHarvestervip
· hace13h
Máquina de ver el mercado de tontos caros
Ver originalesResponder0
CantAffordPancakevip
· hace13h
¡El inversor minorista número uno del mundo Cripto está perdido!
Ver originalesResponder0
fren.ethvip
· hace13h
Escribí tanto, solo es una exageración.
Ver originalesResponder0
SmartContractWorkervip
· hace13h
Parece que aún tengo que esforzarme unos años más.
Ver originalesResponder0
Blockblindvip
· hace14h
La potencia computacional eventualmente se enfriará.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)