¿Quién está proporcionando datos confiables para la IA cuando Trump invierte billones en ella?
Cuando Trump invierte billones en IA, a primera vista parece ser una competencia entre modelos, chips y centros de datos, pero también plantea preguntas más profundas: ¿cómo se valida la data de la que dependen los modelos de IA? ¿Es rastreable? ¿Se puede auditar el proceso de entrenamiento como una caja negra y el proceso de inferencia? ¿Pueden colaborar los modelos entre sí o solo pueden luchar cada uno por su cuenta?
Hablando en términos simples, cuando obtenemos información de la IA, ¿quién puede asegurar que la información proporcionada por la IA sea correcta? La contaminación de datos ya no es una palabra que se diga a la ligera. Una vez, una aplicación de IA que se decía que iba a matar a ChatGPT ya se había sumido profundamente en un entorno de contaminación de datos. Cuando todas las fuentes de datos son erróneas, ¿cómo pueden ser correctas las respuestas dadas?
¿Es la inteligencia artificial actual realmente inteligente? Quizás sí, pero incluso la IA más inteligente necesita entrenamiento de modelos, aunque no podemos saber qué datos se utilizaron para entrenar el modelo, ni podemos verificar si la GPU realmente completó un proceso de inferencia, y mucho menos establecer una lógica de confianza entre múltiples modelos.
Si se quiere que la IA realmente avance hacia la próxima generación, es posible que sea necesario abordar estos tres problemas a la vez:
Uno, los datos de entrenamiento deben ser confiables y verificables.
En segundo lugar, el proceso de inferencia debe ser auditable por modelos de terceros.
Tres, el modelo debe ser capaz de coordinar la potencia de cálculo, intercambiar tareas y compartir resultados sin la necesidad de un emparejamiento de plataforma.
Esto no se puede resolver solo con un modelo, una API o una plataforma GPU, sino que se necesita un sistema realmente construido para la IA. Este sistema debería poder almacenar datos de manera permanente y a bajo costo, permitiendo que los datos mismos tengan derechos de revisión y ser revisados, además de permitir la verificación de inferencias entre los modelos. También debe soportar la capacidad de que los modelos descubran de manera autónoma la potencia de cálculo, coordinen tareas y auditen cada paso de ejecución bajo ciertas premisas.
Esto es difícil de lograr en plataformas centralizadas, entonces, ¿es posible implementarlo en plataformas descentralizadas, y por qué deberíamos utilizar un enfoque descentralizado para lograrlo?
Creo que solo la blockchain puede lograr realmente fusionar "almacenamiento de datos, ejecución de datos y verificación de datos" en la misma red de base. Esta es también una de las mayores atractivos de la blockchain: la inmutabilidad y la transparencia, pero el problema es que no todas las cadenas son adecuadas para ser la base de la IA.
Si solo se trata de almacenamiento, ya existe el protocolo IPFS, pero el almacenamiento por sí solo no es suficiente; también se necesita que los contratos inteligentes puedan llamar a los datos directamente, auditar los resultados de razonamiento e incluso coordinar recursos de GPU para completar tareas de cálculo. Estas características, no solo IPFS, sino que la mayoría de las aplicaciones L1 o de IA aún no pueden lograr temporalmente.
Si es que realmente puede haber alguna conexión, podría ser que @irys_xyz tenga algunas oportunidades. Irys no es una cadena de almacenamiento tradicional, sino que está preparada para convertirse en una red de ejecución de datos para construir inteligencia artificial. Los datos se consideran activos programables. Los modelos pueden leer datos en la cadena, verificar inferencias, invocar potencia de cálculo y realizar la fijación de precios, autorizaciones, distribución de ganancias y validación a través de contratos inteligentes.
Por supuesto, actualmente Irys aún tiene algunos aspectos inmaduros, pero esta dirección de desarrollo debería ser la correcta. Además, ya sea IA centralizada o IA descentralizada, si la fuente de datos no es confiable, entonces toda la potencia de cálculo es como construir una torre sobre la arena; sin importar cuán potente sea el modelo, no es más que la luna en el agua y las flores en el espejo.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
6 me gusta
Recompensa
6
3
Compartir
Comentar
0/400
NunaJaya
· hace6h
Guerra entre los países Tailandia y Camboya. El mundo está volviéndose más tenso. La economía mundial está en crisis y la Inflación está empeorando. La guerra ocurre en varios países.
¿Quién está proporcionando datos confiables para la IA cuando Trump invierte billones en ella?
Cuando Trump invierte billones en IA, a primera vista parece ser una competencia entre modelos, chips y centros de datos, pero también plantea preguntas más profundas: ¿cómo se valida la data de la que dependen los modelos de IA? ¿Es rastreable? ¿Se puede auditar el proceso de entrenamiento como una caja negra y el proceso de inferencia? ¿Pueden colaborar los modelos entre sí o solo pueden luchar cada uno por su cuenta?
Hablando en términos simples, cuando obtenemos información de la IA, ¿quién puede asegurar que la información proporcionada por la IA sea correcta? La contaminación de datos ya no es una palabra que se diga a la ligera. Una vez, una aplicación de IA que se decía que iba a matar a ChatGPT ya se había sumido profundamente en un entorno de contaminación de datos. Cuando todas las fuentes de datos son erróneas, ¿cómo pueden ser correctas las respuestas dadas?
¿Es la inteligencia artificial actual realmente inteligente? Quizás sí, pero incluso la IA más inteligente necesita entrenamiento de modelos, aunque no podemos saber qué datos se utilizaron para entrenar el modelo, ni podemos verificar si la GPU realmente completó un proceso de inferencia, y mucho menos establecer una lógica de confianza entre múltiples modelos.
Si se quiere que la IA realmente avance hacia la próxima generación, es posible que sea necesario abordar estos tres problemas a la vez:
Uno, los datos de entrenamiento deben ser confiables y verificables.
En segundo lugar, el proceso de inferencia debe ser auditable por modelos de terceros.
Tres, el modelo debe ser capaz de coordinar la potencia de cálculo, intercambiar tareas y compartir resultados sin la necesidad de un emparejamiento de plataforma.
Esto no se puede resolver solo con un modelo, una API o una plataforma GPU, sino que se necesita un sistema realmente construido para la IA. Este sistema debería poder almacenar datos de manera permanente y a bajo costo, permitiendo que los datos mismos tengan derechos de revisión y ser revisados, además de permitir la verificación de inferencias entre los modelos. También debe soportar la capacidad de que los modelos descubran de manera autónoma la potencia de cálculo, coordinen tareas y auditen cada paso de ejecución bajo ciertas premisas.
Esto es difícil de lograr en plataformas centralizadas, entonces, ¿es posible implementarlo en plataformas descentralizadas, y por qué deberíamos utilizar un enfoque descentralizado para lograrlo?
Creo que solo la blockchain puede lograr realmente fusionar "almacenamiento de datos, ejecución de datos y verificación de datos" en la misma red de base. Esta es también una de las mayores atractivos de la blockchain: la inmutabilidad y la transparencia, pero el problema es que no todas las cadenas son adecuadas para ser la base de la IA.
Si solo se trata de almacenamiento, ya existe el protocolo IPFS, pero el almacenamiento por sí solo no es suficiente; también se necesita que los contratos inteligentes puedan llamar a los datos directamente, auditar los resultados de razonamiento e incluso coordinar recursos de GPU para completar tareas de cálculo. Estas características, no solo IPFS, sino que la mayoría de las aplicaciones L1 o de IA aún no pueden lograr temporalmente.
Si es que realmente puede haber alguna conexión, podría ser que @irys_xyz tenga algunas oportunidades. Irys no es una cadena de almacenamiento tradicional, sino que está preparada para convertirse en una red de ejecución de datos para construir inteligencia artificial. Los datos se consideran activos programables. Los modelos pueden leer datos en la cadena, verificar inferencias, invocar potencia de cálculo y realizar la fijación de precios, autorizaciones, distribución de ganancias y validación a través de contratos inteligentes.
Por supuesto, actualmente Irys aún tiene algunos aspectos inmaduros, pero esta dirección de desarrollo debería ser la correcta. Además, ya sea IA centralizada o IA descentralizada, si la fuente de datos no es confiable, entonces toda la potencia de cálculo es como construir una torre sobre la arena; sin importar cuán potente sea el modelo, no es más que la luna en el agua y las flores en el espejo.
El mundo está volviéndose más tenso. La economía mundial está en crisis y la Inflación está empeorando.
La guerra ocurre en varios países.