Couche de confiance IA : Tentative innovante du réseau Mira
Récemment, le réseau Mira a officiellement lancé son réseau de test public, ce projet vise à construire une couche de confiance pour l'IA. Alors, pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, une question intéressante mais souvent négligée est l'"illusion" ou le biais qui existe dans l'IA. Ce qu'on appelle l'"illusion" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses, en disant des informations complètement fausses qui semblent raisonnables. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une série d'explications qui semblent raisonnables mais qui sont complètement fictives.
Cette "illusion" ou biais de l'IA est liée à certaines des voies technologiques actuelles de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais cette méthode ne peut parfois pas vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais voire des contenus fictifs, ce qui influence les résultats de l'IA. En d'autres termes, l'IA apprend les modèles linguistiques humains, et non les faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle axé sur les données conduisent presque inévitablement à la possibilité d'illusions d'IA. Pour des contenus de connaissances générales ou de divertissement, cette sortie biaisée ou illusoire peut ne pas avoir de conséquences directes à court terme. Cependant, dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance, cela peut avoir des conséquences graves. Par conséquent, résoudre les illusions et les préjugés de l'IA devient l'un des problèmes centraux dans le processus de développement de l'IA.
Le projet Mira a été créé pour résoudre les problèmes de biais et d'illusions de l'IA. Il s'efforce de construire une couche de confiance pour l'IA, réduisant ainsi les biais et les illusions de l'IA, tout en améliorant sa fiabilité. Alors, comment Mira atteint-il cet objectif ?
Le cœur de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira adopte un consensus décentralisé pour la validation.
La clé du réseau Mira réside dans la validation de consensus décentralisée. C'est précisément ce que le domaine de la cryptographie maîtrise, tout en tirant parti des avantages de la collaboration multi-modèles pour réduire les biais et les illusions grâce à un mode de validation collectif.
En termes d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Ces déclarations nécessitent la participation des opérateurs de nœuds pour la validation. Pour garantir l'honnêteté des opérateurs de nœuds, Mira adopte un mécanisme d'incitation/punition économique cryptographique, où différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus, afin d'assurer la fiabilité de la validation. Dans cette architecture, la conversion de contenu est une étape importante. Le réseau Mira commence par décomposer le contenu candidat en différentes déclarations vérifiables, qui sont ensuite distribuées par le système aux nœuds pour validation, afin de déterminer la validité des déclarations et de synthétiser les résultats pour parvenir à un consensus. Pour protéger la vie privée des clients, le contenu candidat est converti en paires de déclarations et distribué à différents nœuds de manière aléatoire, afin d'éviter les fuites d'informations pendant le processus de validation.
Les opérateurs de nœuds sont responsables de l'exécution des modèles de validation, de la gestion des déclarations et de la soumission des résultats de validation. Ils participent à la validation car ils peuvent générer des revenus, ces revenus provenant de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA, et une fois cet objectif atteint, une énorme valeur peut être générée dans des domaines tels que la santé, le droit, l'aviation et la finance. Par conséquent, les clients sont prêts à payer pour cela. Afin d'éviter les comportements spéculatifs des nœuds répondant de manière aléatoire, les nœuds qui s'écartent constamment du consensus verront leur token de staking réduit. Grâce à cette mécanique de jeu économique, on s'assure que les opérateurs de nœuds participent honnêtement à la validation.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé sur la base de plusieurs modèles d'IA, apportant une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les illusions de l'IA, afin de répondre à la demande des clients pour une plus grande précision et exactitude. En même temps, tout en fournissant de la valeur aux clients, elle génère des bénéfices pour les participants au réseau Mira. En résumé, Mira cherche à établir une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications d'IA.
Actuellement, Mira a collaboré avec plusieurs cadres d'agents IA. Les utilisateurs peuvent participer au réseau de test public de Mira via Klok, une application de chat basée sur le LLM de Mira. Utiliser Klok permet de vivre des sorties IA vérifiées et d'avoir la chance de gagner des points Mira. Quant à l'utilisation future de ces points, cela n'a pas encore été annoncé.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
7
Partager
Commentaire
0/400
ParallelChainMaxi
· Il y a 12h
L'IA est-elle devenue si rebelle et moche ?
Voir l'originalRépondre0
GmGmNoGn
· Il y a 12h
Abba Abba, encore en train de spéculer sur des concepts.
Voir l'originalRépondre0
NightAirdropper
· Il y a 12h
À quoi sert ce nouveau projet, l'IA ne va pas mourir en se vantant.
Voir l'originalRépondre0
SocialFiQueen
· Il y a 12h
Essayer pour voir si c'est vraiment utile nécessite de la pratique.
Voir l'originalRépondre0
MetaReckt
· Il y a 12h
Eh bien, l'IA peut aussi rêver en plein jour.
Voir l'originalRépondre0
BugBountyHunter
· Il y a 12h
Ce piège a du potentiel, quand pourra-t-il être lancé sur le Mainnet ?
Réseau Mira : construire une couche de confiance en IA pour résoudre le problème des biais d'illusion
Couche de confiance IA : Tentative innovante du réseau Mira
Récemment, le réseau Mira a officiellement lancé son réseau de test public, ce projet vise à construire une couche de confiance pour l'IA. Alors, pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, une question intéressante mais souvent négligée est l'"illusion" ou le biais qui existe dans l'IA. Ce qu'on appelle l'"illusion" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses, en disant des informations complètement fausses qui semblent raisonnables. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une série d'explications qui semblent raisonnables mais qui sont complètement fictives.
Cette "illusion" ou biais de l'IA est liée à certaines des voies technologiques actuelles de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais cette méthode ne peut parfois pas vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais voire des contenus fictifs, ce qui influence les résultats de l'IA. En d'autres termes, l'IA apprend les modèles linguistiques humains, et non les faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle axé sur les données conduisent presque inévitablement à la possibilité d'illusions d'IA. Pour des contenus de connaissances générales ou de divertissement, cette sortie biaisée ou illusoire peut ne pas avoir de conséquences directes à court terme. Cependant, dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance, cela peut avoir des conséquences graves. Par conséquent, résoudre les illusions et les préjugés de l'IA devient l'un des problèmes centraux dans le processus de développement de l'IA.
Le projet Mira a été créé pour résoudre les problèmes de biais et d'illusions de l'IA. Il s'efforce de construire une couche de confiance pour l'IA, réduisant ainsi les biais et les illusions de l'IA, tout en améliorant sa fiabilité. Alors, comment Mira atteint-il cet objectif ?
Le cœur de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira adopte un consensus décentralisé pour la validation.
La clé du réseau Mira réside dans la validation de consensus décentralisée. C'est précisément ce que le domaine de la cryptographie maîtrise, tout en tirant parti des avantages de la collaboration multi-modèles pour réduire les biais et les illusions grâce à un mode de validation collectif.
En termes d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Ces déclarations nécessitent la participation des opérateurs de nœuds pour la validation. Pour garantir l'honnêteté des opérateurs de nœuds, Mira adopte un mécanisme d'incitation/punition économique cryptographique, où différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus, afin d'assurer la fiabilité de la validation. Dans cette architecture, la conversion de contenu est une étape importante. Le réseau Mira commence par décomposer le contenu candidat en différentes déclarations vérifiables, qui sont ensuite distribuées par le système aux nœuds pour validation, afin de déterminer la validité des déclarations et de synthétiser les résultats pour parvenir à un consensus. Pour protéger la vie privée des clients, le contenu candidat est converti en paires de déclarations et distribué à différents nœuds de manière aléatoire, afin d'éviter les fuites d'informations pendant le processus de validation.
Les opérateurs de nœuds sont responsables de l'exécution des modèles de validation, de la gestion des déclarations et de la soumission des résultats de validation. Ils participent à la validation car ils peuvent générer des revenus, ces revenus provenant de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA, et une fois cet objectif atteint, une énorme valeur peut être générée dans des domaines tels que la santé, le droit, l'aviation et la finance. Par conséquent, les clients sont prêts à payer pour cela. Afin d'éviter les comportements spéculatifs des nœuds répondant de manière aléatoire, les nœuds qui s'écartent constamment du consensus verront leur token de staking réduit. Grâce à cette mécanique de jeu économique, on s'assure que les opérateurs de nœuds participent honnêtement à la validation.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé sur la base de plusieurs modèles d'IA, apportant une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les illusions de l'IA, afin de répondre à la demande des clients pour une plus grande précision et exactitude. En même temps, tout en fournissant de la valeur aux clients, elle génère des bénéfices pour les participants au réseau Mira. En résumé, Mira cherche à établir une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications d'IA.
Actuellement, Mira a collaboré avec plusieurs cadres d'agents IA. Les utilisateurs peuvent participer au réseau de test public de Mira via Klok, une application de chat basée sur le LLM de Mira. Utiliser Klok permet de vivre des sorties IA vérifiées et d'avoir la chance de gagner des points Mira. Quant à l'utilisation future de ces points, cela n'a pas encore été annoncé.