Résultats de la recherche pour "LLM"

La société d'IA OpenRouter, cofondée par OpenSea, a levé 40 millions de dollars, dirigée par a16z, avec une valorisation de 500 millions de dollars.

Bot d'actualités Gate, OpenRouter, dirigé par l'ancien co-fondateur d'OpenSea, a levé 40 millions de dollars lors d'un tour de financement de seed et d'une série A, visant à accélérer le développement de sa plateforme d'agrégation de modèles de langage de grande taille. Ce financement a été dirigé par Andreessen Horowitz (a16z) et Menlo Ventures, avec la participation de Sequoia Capital et d'angel investors réputés du secteur. Selon le Wall Street Journal, citant une source bien informée, l'évaluation actuelle de l'entreprise est de 500 millions de dollars.
Plus

La plateforme AI OpenRouter, fondée par l'ancien cofondateur d'OpenSea, a levé 40 millions de dollars lors d'un tour de financement de série A, avec a16z parmi les investisseurs principaux.

La plateforme de marché de modèles d'IA OpenRouter a récemment annoncé avoir levé 40 millions de dollars, avec une valorisation d'environ 500 millions de dollars. Le financement est destiné au développement de produits et à l'expansion du soutien aux entreprises. Depuis son lancement, elle a attiré plus de 1 million de développeurs, avec des dépenses de raisonnement en forte hausse, et ses clients vont des start-ups aux multinationales.
Plus

Étude : Une dépendance à long terme à des modèles de langage de grande taille comme ChatGPT pourrait nuire aux capacités cognitives.

Message de ChainCatcher, une équipe de recherche du MIT, du Wellesley College et du Massachusetts College of Art a récemment découvert que la dépendance à long terme aux grands modèles de langage (LLM) tels que ChatGPT pourrait nuire aux capacités cognitives. L'étude montre que le nombre de connexions d'ondes Alpha dans le cerveau des participants utilisant l'écriture par IA n'est qu'à moitié de celui des penseurs indépendants (42 contre 79), et 83,3 % d'entre eux ne peuvent pas citer avec précision le contenu de leurs propres articles. Les chercheurs appellent ce phénomène une dette cognitive : soulager à court terme la charge mentale mais entraîner à long terme une baisse de la pensée critique et de la créativité.
Plus

$FLOCK gagne plus de 52 % d'augmentation après l'annonce d'une collaboration stratégique avec qwen

Gate.io Actualités
Plus
  • 1

Moonshot lance le modèle de langue Large Language Model ($LLM)

Odaily Planet Daily News According to official sources, Moonshot has launched the Large Language Model ($LLM), with a current Market Cap of 947 million USD and a 24-hour volume of 1.542
Plus
  • 1

Moonshot lance le jeton de concept d'IA Meme LLM sur la chaîne Solana

MoonshotListing detected the listing of the AI concept meme coin LLM on the Solana chain, with a market cap of 96 million dollars and a 24-hour decline of 9.7%. LLM is inspired by ai16z's logo. BlockBeats reminds users that meme coins have little practical use and have large fluctuations in price, so investment should be cautious.
Plus
  • 1
  • 2

Dar Open Network annonce le lancement de deux cadres d'IA : le cadre multi-agent DeAI et le cadre aiNFT

Dar Open Network a annoncé le lancement de deux frameworks d’IA, le framework multi-agents DeAI et aiJeton non fongible. Le framework multi-agents DeAI est une plate-forme permettant aux développeurs de créer, déployer et orchestrer des agents d’IA collaboratifs, tandis qu’aiJeton non fongible est un outil innovant qui permet aux propriétaires de Jeton non fongible de libérer le potentiel de leur actif numérique en personnalisant les agents d’IA et en s’engageant dynamiquement avec les utilisateurs.
Plus

Initia: Rena makes debut and raises $3.3 million in pre-seed round, launches TrustEE data AppChain

Initia's Rollup interoperability protocole launches Rena and secures a $3.3 million Pre-Seed funding. Rena utilizes TrustEE data AppChain to assist developers in building verifiable, privacy-preserving, and scalable AI applications on any off-chain Bloc. Rena is committed to providing users with ownership and verifiability of AI, driving the development of Décentralisation finance, gaming/social applications, and multi-modal LLM applications.
Plus

a16z Partner: LLM-class products have the potential to disrupt the search business

Le partenaire général d'a16z, Andrew Chen, a soulevé sur les médias sociaux la question de savoir si ChatGPT d'OpenAI, avec sa taille impressionnante, a un potentiel commercial, tout en discutant du nombre de recherches par utilisateur et des revenus par affichage, ainsi que de la performance après l'adoption d'un modèle de monétisation publicitaire. Il estime que des produits similaires à Firefox, avec une base d'utilisateurs proche de leur apogée, génèrent un revenu annuel proche de 1 milliard de dollars, et que si ChatGPT est gratuit, le nombre d'utilisateurs actifs mensuels pourrait augmenter considérablement. Il souligne également que les produits de grande envergure comme les modèles linguistiques de grande taille (LLM) ont le potentiel de perturber le secteur de la recherche.
Plus
  • 3
  • 1

JPMorgan Chase has launched an AI tool for analysts internally

BlockBeats News, le 26 juillet, selon Cointelegraph, le géant de la banque d’investissement JPMorgan Chase lance une version interne du produit d’IA générative de type ChatGPT - LLM Suite, qui est principalement utilisé pour aider les analystes à rédiger, à générer des idées et à résumer des documents. JPMorgan Chase & Co. a déclaré que la suite LLM est un « produit de type ChatGPT » qui peut fonctionner en tandem avec d’autres systèmes internes qui traitent des informations financières sensibles pour améliorer la « productivité à usage général ».
Plus
Odaily Planet Daily News Lightning Labs a lancé de nouveaux outils Bitcoin d'intelligence artificielle conçus pour permettre aux développeurs d'intégrer de manière transparente Bitcoin et le Lightning Network dans leurs applications d'intelligence artificielle.La suite comprend LLM Agent BitcoinTools, Il permet aux développeurs de créer des agents d'IA pouvant contenir des soldes Bitcoin , envoyez/recevez des bitcoins sur le Lightning Network et interagissez avec les nœuds démons du Lightning Network. De plus, cette version inclut le serveur proxy inverse Aperture, qui prend en charge Lightning Node Connect et fournit une tarification dynamique des points de terminaison API. Ces outils amélioreront l'accessibilité et la fonctionnalité de l'infrastructure d'IA. (Le bloc)
Babbitt News, 9 juin, selon le rapport Chosun Ilbo, il a été confirmé que Samsung est en train de développer entièrement son propre modèle de grande langue d'IA (LLM) à usage interne. Ce produit est similaire à ChatGPT. Il a été développé depuis juin et est dirigé par l'institut de recherche Samsung. . Des sources ont indiqué que la quasi-totalité des ressources de calcul GPU de Samsung ont été investies dans la formation de modèles à grande échelle.La société prévoit d'achever le développement de la première version de LLM d'ici deux mois. À l'heure actuelle, Samsung prévoit d'utiliser ce grand modèle pour le résumé de documents, le développement de logiciels et la traduction linguistique, et n'a pas encore décidé de fournir ou non le produit aux consommateurs.
  • 2

Chercheurs d'Apple : Les modèles d'IA mainstream ne peuvent toujours pas atteindre le niveau de raisonnement attendu pour l'AGI.

Dans un article publié en juin intitulé « The Illusion of Thinking », des chercheurs d’Apple ont souligné que les principaux modèles de (AGI) d’IA ont encore des difficultés de raisonnement et que, par conséquent, le développement de (AGI) général de l’IA en est le résultat Il reste encore beaucoup de chemin à parcourir. L’article souligne que les dernières mises à jour des grands modèles de langage d’IA grand public (LLM), tels que ChatGPT d’OpenAI et Claude d’Anthropic, ont inclus de grands modèles d’inférence (LRM), mais leurs caractéristiques de base, Les fonctionnalités étendues et les limitations « ne sont pas encore entièrement comprises ». L’évaluation actuelle se concentre principalement sur les repères établis en mathématiques et en codage, « en mettant l’accent sur l’exactitude de la réponse finale ». Cependant, les chercheurs ont déclaré que l’évaluation ne fournissait pas d’informations sur les capacités de raisonnement des modèles d’IA, ce qui contraste fortement avec l’attente selon laquelle l’intelligence artificielle générale serait atteinte en quelques années seulement.
Plus
  • 1

Brian, un moteur de trading on-chain d’IA, a annoncé sa fin et les fondateurs ont critiqué VC pour préférer les jetons spéculatifs

Le projet d'identification des intentions AI Brian, lancé lors du hackathon ETHPrague 2023, a annoncé son arrêt en raison de la perte d'avantage sur le marché et de problèmes de financement, critiquant les VC pour leur attention excessive sur le TGE et la spéculation, tout en négligeant les progrès réels. L'équipe avait prévu de lancer un modèle et un jeton exclusifs pour le Web3, mais la spéculation dans l'industrie et les problèmes de coûts ont conduit à l'échec du projet.
Plus

Agence : En 2024, le chiffre d’affaires total des 10 plus grandes entreprises mondiales de conception de circuits intégrés augmentera de 49 % d’une année sur l’autre, et NVIDIA représentera la moitié de cette proportion

En 2024, le chiffre d’affaires total des dix plus grandes entreprises mondiales de conception de circuits intégrés s’élèvera à environ 249,8 milliards de dollars américains, soit un taux de croissance annuel de 49 %, dont celui de NVIDIA de 125 %. Les perspectives pour 2025 montrent que les processus avancés de fabrication de semi-conducteurs stimuleront la croissance de la puissance de calcul de l’IA, et que les grands modèles de langage continueront d’émerger, et que les dispositifs d’IA de pointe deviendront la prochaine vague de moteurs de croissance des semi-conducteurs.
Plus

L'architecture SCAI du SCI-HUB Community Development Science AI Agents vise à fournir des outils plus précis et fiables aux chercheurs.

BlockBeats Nouvelles. Le 13 janvier, selon des informations officielles, la communauté SCIHUB a développé une nouvelle architecture d'agents d'IA, appelée SCAI (SCientific AI), dans le but de fournir des outils plus précis et fiables aux chercheurs. L'objectif de SCAI est de résoudre le phénomène d'« hallucination » de LLM lors de la réponse à des questions scientifiques, permettant ainsi à l'IA de
Plus
  • 4
  • 2

Les utilisateurs de Reddit affirment que ChatGPT infère des conversations à partir de messages historiques et engage des discussions.

OpenAI a annoncé le lancement d'un modèle linguistique de grande envergure, ChatGPT, plus intelligent, doté de capacités de raisonnement et de la capacité de "penser avant de répondre". Le modèle est capable de déduire la situation d'un utilisateur lorsqu'on lui demande son expérience le premier jour d'école, en se basant sur la conversation précédente, et indique que c'est l'une des nouvelles fonctionnalités de la mise à niveau. Le nouveau modèle devrait avoir des temps de réponse plus rapides et une capacité de recherche approfondie indépendante.
Plus
  • 8
  • 2
Selon le rapport de 36 Krypton du 5 juin, la société de données AI "Integer Intelligence" a récemment réalisé des dizaines de millions de cycles de financement Pré A. Yishang Capital est le conseiller exclusif en financement. Ce tour de financement est principalement utilisé pour la mise à niveau itérative de la plate-forme d'ingénierie de données intelligente (plate-forme ABAVA) La nouvelle plate-forme ABAVA intégrera de grands modèles d'IA + de petits modèles pour réaliser une annotation automatique efficace des données. En outre, l'intelligence entière intégrera également des capacités de service de données RLHF (apprentissage par renforcement par rétroaction humaine) pour fournir des solutions pour le développement et l'itération de grands modèles de langage (LLM).
Selon le rapport de 36 Krypton du 5 juin, la société de données AI "Integer Intelligence" a récemment réalisé des dizaines de millions de cycles de financement Pré A. Yishang Capital est le conseiller exclusif en financement. Ce tour de financement est principalement utilisé pour la mise à niveau itérative de la plate-forme d'ingénierie de données intelligente (plate-forme ABAVA) La nouvelle plate-forme ABAVA intégrera de grands modèles d'IA + de petits modèles pour réaliser une annotation automatique efficace des données. En outre, l'intelligence entière intégrera également des capacités de service de données RLHF (apprentissage par renforcement par rétroaction humaine) pour fournir des solutions pour le développement et l'itération de grands modèles de langage (LLM).

Harish Kotra, développeur principal de Gaia, a assisté au sommet ETHDenver 2025 et a partagé son point de vue sur les LLM open source

Gaia est un projet Web décentralisé qui vise à fournir des services proxy d’IA sécurisés, résistants à la censure et monétisables. Son développeur principal, Harish Kotra, a partagé le sujet de l’exécution d’un LLM open source à l’ETHDenver 2025. GaiaNet est construit sur des nœuds d’edge computing contrôlés par des particuliers et des entreprises, conçus pour fusionner le savoir-faire et les compétences de chacun tout en protégeant la vie privée.
Plus

Vitalik: Le marché de prévision de l'IA peut rendre les notes de la communauté X plus rapides

Les co-fondateurs d'ETH ont déclaré que l'intelligence artificielle et la technologie du marché de prévision peuvent accélérer la vitesse de création des notes communautaires sur les plateformes de médias sociaux. Les notes communautaires sont une fonctionnalité qui permet à la communauté d'ajouter des informations contextuelles aux publications potentiellement trompeuses. Grâce au marché de prévision, les gens peuvent utiliser des modèles linguistiques et des robots d'intelligence artificielle de grande envergure pour déterminer si les publications méritent d'être suivies par la communauté.
Plus
  • 1

Le fonds True Fund annonce un don au projet d'IA Open Source vLLM

Odaily Star Planet Daily - Zhenge Fund announced a donation to the open source AI project vLLM. Zhenge Fund stated that the donation aims to promote the popularization of AI technology and benefit more people. vLLM a été développé par une équipe de 3 personnes de l'Université de Californie à Berkeley. C'est un framework d'accélération d'inférence de grands modèles open source qui prend en charge plus de 30 dernières technologies open source, telles que Mistral, Llama, etc.
Plus
"金十数据5月21日讯,联想集团推出首款搭载高通骁龙XElite的下一代Copilot+PC——联想YogaSlim7x和联想ThinkPadT14sGen6。据介绍,这两款搭载全新骁龙XElite处理器的AIPC配备12核OryonCPU、AdrenoGPU和专用HexagonNPU。借助微软和Copilot+的最新增强功能,用户即使离线也可以使用大型语言模型(LLM)功能。"
Selon Interface News du 27 juin, la société de bases de données MongoDB a annoncé qu'elle coopérerait avec Google Cloud pour accélérer l'utilisation de l'IA générative par les développeurs et le développement de nouvelles applications. Les développeurs peuvent tirer parti de MongoDB Atlas et de l'intégration avec Google Cloud Vertex AI Large Language Model (LLM) pour accélérer le développement de logiciels.
  • 2
IT House a publié aujourd'hui un article indiquant que le volume de tas aveugle du modèle AI n'est en fait pas nécessairement meilleur. Cela dépend davantage de la qualité des données de formation. Microsoft a récemment publié un modèle de langage phi-1 avec 1,3 milliard de paramètres , en utilisant une formation d'ensemble de données de haute qualité "niveau manuel", il est dit que "l'effet réel est meilleur que GPT 3.5 avec 100 milliards de paramètres". Le modèle est basé sur l'architecture Transformer, et l'équipe Microsoft a utilisé des données "de qualité manuel" du Web et un "contenu logiquement rigoureux" traité avec GPT-3.5, ainsi que huit GPU Nvidia A100, pour terminer la formation en seulement 4 jours. L'équipe Microsoft a déclaré qu'au lieu d'augmenter le nombre de paramètres du modèle, l'amélioration de la qualité de l'ensemble de données de formation du modèle peut améliorer la précision et l'efficacité du modèle.Par conséquent, ils ont utilisé des données de haute qualité pour former le modèle phi-1. . Dans le test, le score de phi-1 a atteint 50,6 %, ce qui est mieux que GPT-3,5 (47 %) avec 175 milliards de paramètres. Microsoft a également déclaré que phi-1 sera ensuite open source dans HuggingFace, et ce n'est pas la première fois que Microsoft développe un petit LLM. Auparavant, ils ont créé un Orca de 13 milliards de paramètres, qui a été formé à l'aide de données synthétiques GPT-4. les performances sont également meilleures que ChatGPT.
Selon le Securities Times, le 20 juin, le bureau de Jinshan a organisé un briefing annuel sur les performances 2022. En ce qui concerne le développement de produits liés à l'IA, Zou Tao, président de la société, a déclaré que l'IA est l'une des stratégies produit importantes de Kingsoft Office. À l'heure actuelle, l'entreprise choisit de "marcher sur deux jambes", et choisira d'abord de coopérer avec des prestataires de services techniques liés à l'AIGC et au LLM, et de mener à bien la recherche et le développement de produits grâce à leur autonomisation technique ; en même temps, ils sont également continuer à contacter d'excellentes entreprises en démarrage. En outre, les fonctions liées à « WPSAI » seront progressivement lancées, ce qui devrait renforcer pleinement l'ensemble de la gamme de produits de l'entreprise.
  • 1
Selon Businesskorea, selon des sources sud-coréennes, la division Device Solutions (DS) en charge de l'activité semi-conducteurs de Samsung Electronics développe son propre grand modèle de langage (LLM) de GPT-3.5 ou supérieur.Une intelligence artificielle personnalisée pour améliorer la productivité et le travail efficacité. Il est rapporté que le service devrait démarrer son service de base dès décembre de cette année et fournir des services de recherche professionnels comprenant des connaissances et des données sur l'entreprise en février de l'année prochaine.

Le réseau social Cyber lancera le modèle d'intelligence artificielle Cyber.AI de chiffrement

Le réseau social Cyber lancera le modèle d'IA Cyber.AI, qui, en analysant des millions de publications et de comptes X, associés à des données chiffrées de plus de 200 000 projets, peut offrir un meilleur support aux agents d'IA intelligents. Cyber.AI collabore également avec @elizaOSai pour permettre aux développeurs d'accéder à une base de connaissances chiffrées plus professionnelle. Ce modèle construit un produit d'assistance chiffré et un modèle de base chiffré natif pour fournir des requêtes et des informations chiffrées plus précises.
Plus
  • 2
  • 1

L'équipe de développement Allora a mis en place une gestion intelligente des transactions avec l'agent d'IA DeepSeek.

Le média financier Jinse a rapporté que l'équipe de développement d'Allora a utilisé DeepSeek en tant qu'agent d'IA pour évaluer les transactions LLM et a utilisé Allora Network comme plateforme d'interaction sur Hyperliquid.
Plus

某Adresse早期买入价值6.3万美元的LLM,当前Position价值升至130万美元

BlockBeats nouvelles, le 9 janvier, selon Arkham Monitor, une Adresse commençant par DxjmH a acheté pour 63 000 dollars de LLM dans les 3 heures suivant sa mise en ligne sur LLM. La valeur actuelle de la Position est maintenant de 130.
Plus
  • 6
  • 3

Un certain commerçant a acheté plus de 2300 pièces de LLM et a réalisé un profit de plus de 500 000 dollars américains.

Odaily星球日报讯 据 Onchain Lens 监测,某交易者买入 2300 枚 LLM 获利超 50
Plus
  • 2
  • 1

Un trader a réalisé un profit de 1 887 fois en achetant LLM tôt et en 4 heures.

BlockBeats News, le 8 janvier, selon Onchain Lens, un trader a gagné 500 000 dollars en achetant tôt LLM et en le vendant dans les 4 heures suivantes. L'adresse avait auparavant acheté 23 millions de LLM sur PumpFun au prix de 1,37 SOL (environ 269 dollars). Après une forte hausse du prix de la crypto-monnaie, l'adresse a fermé toutes les positions de LLM au prix de 2 594 SOL (environ 50 700 dollars). Les gains s'élèvent à 1887.
Plus
  • 4
  • 2
Selon une enquête menée par TrendForce, un institut de recherche mondial, au cours du premier trimestre, les terminaux de consommation ont connu une saison creuse traditionnelle. Bien qu'il y ait eu quelques commandes urgentes dans la chaîne d'approvisionnement, la plupart d'entre elles étaient des réapprovisionnements de stocks pour des clients individuels, et la dynamique était un peu faible. Dans le même temps, la demande dans les applications automobiles et industrielles a été affectée par des facteurs tels que l'inflation, les conflits géopolitiques et l'énergie. Seuls les serveurs d'IA ont connu une croissance exceptionnelle grâce aux investissements massifs des principaux fournisseurs de services cloud dans le monde et à la tendance à la construction de grands modèles linguistiques (LLM) par les entreprises, devenant ainsi le seul point positif de la chaîne d'approvisionnement au premier trimestre. Sur la base de ces facteurs, la valeur de production des dix principaux fondeurs de plaquettes au monde a diminué de 4,3 % au premier trimestre pour atteindre 29,2 milliards de dollars.
Selon un rapport de Financial Associated Press du 14 juin, Bank of America Securities a publié un rapport indiquant qu'AMD a récemment annoncé sa dernière puce GPU AI "MI300 X", et prédit que le marché des puces AI augmentera depuis les États-Unis. 30 milliards de dollars cette année à 150 milliards de dollars américains en 2027. . Cependant, la banque reste "neutre" sur AMD car la société n'a mentionné aucun client commercial participant à ses nouveaux produits GPU. AMD est encore loin derrière Nvidia, car AMD ne commencera pas à échantillonner les puces AI avant le trimestre prochain. En termes de timing, lorsque AMD commencera à se stabiliser avec des accélérateurs GPU basés sur 5 nm, Nvidia pourrait lancer son GPU d'architecture Blackwell de nouvelle génération basé sur 3 nm et optimisé LLM, étendant encore son avance déjà considérable sur le marché de l'IA.

Une certaine Adresse a vendu 24,25 millions de LLM, manquant ainsi un bénéfice de 3 millions de dollars.

Odaily星球日报讯 据 Onchain Lens 监测,某Adresse昨日以 9.17 枚 SOL 购买了 2425 万枚 LLM,但仅在购买 2 分钟后就亏本出售了这些Jeton,获得了 8.27 枚 SOL,现在这些Jeton的价值已超过 300
Plus
  • 1
  • 1

La capitalisation boursière de LLMMarket Cap dépasse 140 millions de dollars, avec une augmentation de 43,49% au 1er semestre.

Odaily Planet Daily News, selon les données de GMGN, LLM a atteint 0,14 USDT, se situant actuellement à 0,1403 USDT, une augmentation de 43,49% en une heure, avec une capitalisation boursière provisoire de 141 millions de dollars. Odaily rappelle aux utilisateurs, Meme
Plus
  • 1

Les 5 plus gros baleines en position LLM ont désormais un bénéfice flottant de 670 000 dollars américains

Odaily Planet Daily News According to off-chain analyst Ai Yi, LLM Holdings TOP5 Baleine bought 9.49 million LLM at a low price of $0.01949 last night, and currently has a floating profit of $670,000 (with a cost of only $185,000, a return rate
Plus

Un trader a « réduit ses pertes » de 10,63 millions de LLM et a manqué un profit potentiel de 1,5 million de dollars

BlockBeats news, le 9 janvier, selon la surveillance de Lookonchain, un commerçant a vendu 10,63 millions de LLM pour 1725 dollars, maintenant évalués à plus de 1,5 million de dollars. Hier, le commerçant a acheté 10,63 millions de LLM pour 14 SOL (2 767 dollars). Cependant, peu de temps après son achat, le prix a commencé à baisser, il a donc vendu le tout pour 8,74 SOL (1 725 dollars).
Plus
  • 3
  • 1

Données : LLM Market Cap dépasse les 100 millions de dollars

ChainCatcher 消息,据 GMGN 数据显示,LLM pump突破 0.1 美元,现报 0.125 美元,1 小时涨幅 30%,Market Cap暂报 1.26
Plus
  • 2

M. Smart Money a acheté 23,76 millions de LLM il y a 19 heures et réalise actuellement un bénéfice flottant de 289 fois.

Odaily Planet Daily News According to The Data Nerd, 19 hours ago, the smart investor FdvYZ spent 23.76 SOL (about $4700) to buy 23.76 million LLM, which is now worth $1.36 million, with an ROI of 289 times. Il transfère 15 millions de jetons LLM dans le portefeuille
Plus
  • 3
  • 2

La capitalisation boursière de la pièce AI meme LLM a dépassé 100 millions de dollars en peu de temps, avec un volume de transactions de 330 millions de dollars en 24 heures.

BlockBeats Nouvelles, le 9 janvier, selon les informations du marché GMGN, le jeton AI meme LLM a été émis il y a 22 heures, la capitalisation boursière a dépassé les 100 millions de dollars à court terme, s'élevant actuellement à 99,8 millions de dollars, le volume des transactions sur 24 heures dépassant 3,3
Plus
  • 3

chiffrement与AI公司Fraction AI完成600万美元Pre-Seed融资,Spartan Group和Symbolic Capital共同领投

PANews 19 décembre, selon The Block, Fraction AI, une start-up axée sur le chiffrement des données et l'intelligence artificielle, a réalisé une levée de fonds de 6 millions de dollars en pré-amorçage. Cette ronde de financement a été menée par Spartan Group et Symbolic Capital, avec la participation d'autres investisseurs, dont Borderless Capital, Anagram, Foresight Ventures et Karatage. De plus, des angel investors tels que Sandeep Nailwal, cofondateur de Polygon, et Illia Polosukhin, cofondateur de NEAR Protocol, ont également participé en tant que conseillers. Fraction
Plus

Le projet d'IA écologique Solana CAI | CharacterX annonce le lancement de l'infrastructure d'IA de niveau entreprise CAI

Le projet d'IA CAI de l'écosystème Solana | CharacterX lancera une solution d'infrastructure d'IA de niveau entreprise, CAI. Le COO a déclaré que CAI avait conclu des partenariats préliminaires avec plusieurs entreprises, générant un chiffre d'affaires mensuel de 500 000 dollars. Le projet a déjà bénéficié de l'accélérateur de blockchain de Stanford et d'un financement initial de plusieurs millions de dollars.
Plus

PDG d'Anthropic : le développement de l'IA n'a pas ralenti

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'amélioration des grands modèles de langage ne ralentirait pas, malgré les récentes informations selon lesquelles les performances des modèles LLM à venir d'Anthropic, Google et OpenAI ne seraient pas beaucoup meilleures que celles des premiers modèles. Selon les rapports plus tôt ce mois-ci, les performances du nouveau modèle phare d'OpenAI, Orion, n'ont pas été améliorées. (The
Plus

La fondation Aptos travaille avec une entreprise d'IA pour construire des outils de programmation Move.

La Fondation Aptos a collaboré avec FLock.io pour lancer un outil d'intelligence artificielle rendant plus facile l'encodage en utilisant la chaîne Bloc avec le langage de programmation personnalisé Move. FLock.io a développé un modèle de langage de grande taille spécialement ajusté pour le Move sur le réseau Aptos. Les tests initiaux indiquent que le LLM de FLock.io excelle dans la génération de code spécifique au Move, avec une amélioration significative de la précision et de la lisibilité du code.
Plus

AO lance le programme "AI on AO" et lance un grand modèle de langage open source off-chain

La publication de l'écosystème AO sur Golden Finance indique que le plan «AI on AO» a été lancé, avec la sortie de grands modèles de langage open source (LLMs) hors chaîne, dans le but de faire fonctionner n'importe quel modèle d'IA (pas seulement LLMs) sur la chaîne. En utilisant Apus Network et la mémoire de stockage permanente Arweave, un réseau GPU décentralisé et sans confiance est créé pour fournir une puissance de calcul fiable, efficace et peu coûteuse pour la formation et le raisonnement de l'IA. Les données d'IA sur AO peuvent être téléchargées sur Arweave via ArDrive.
Plus

Au cours de la dernière semaine, les dépôts d'Arweave AO ont dépassé 158 millions de dollars américains.

Le Golden Finance a rapporté que le protocole de calcul de l'IA basé sur Arweave, AO, a attiré plus de 158 millions de dollars de dépôts dans la semaine suivant sa vente équitable. AO est un nouveau protocole construit sur la couche de stockage de données permanente d'Arweave, qui peut être mis en œuvre via un modèle de calcul décentralisé pour exécuter des applications parallèles. Il permet également l'exécution d'applications d'intelligence artificielle on-chain, permettant aux grands modèles de langage (LLM) de fonctionner à l'intérieur des smart contracts.
Plus
Selon PANews news le 7 juillet, selon The Block, Lightning Labs a lancé un nouvel outil bitcoin d'intelligence artificielle. Les outils sont conçus pour aider les développeurs à intégrer de manière transparente Bitcoin et le Lightning Network dans leurs applications d'IA. La suite comprend LLM Agent BitcoinTools, qui permet aux développeurs de créer des agents IA capables de conserver des soldes Bitcoin, d'envoyer/recevoir des Bitcoins sur le Lightning Network et d'interagir avec les nœuds Lightning Network Daemon. De plus, cette version inclut Aperture Reverse Proxy Server, qui prend en charge Lightning Node Connect et propose une tarification dynamique des terminaux API. Ces outils amélioreront l'accessibilité et la fonctionnalité de l'infrastructure d'IA.
Odaily Planet Daily News La société minière Bitcoin Hive Blockchain a déclaré vendredi lors d'une conférence téléphonique avec des analystes que la société permettra aux clients de former des modèles d'intelligence artificielle linguistique à grande échelle dans son centre de données, par rapport à des concurrents tels que ChatGPT d'OpenAI. confidentialité. Aydin Kilic, PDG et président de la société, a déclaré : "Les entreprises remarquent maintenant qu'elles ne veulent pas télécharger des données clients sensibles vers des entreprises comme OpenAI qui ont un LLM (Large Language Model) public. Nous voulons assurer la confidentialité dans Hive via Hive Cloud, les entreprises peuvent avoir un contrat de service, posséder leurs données et leur confidentialité, et continuer à exécuter des charges de travail de calcul d'IA sur nos GPU." Les actions de Hive ont augmenté de près de 2% sur le Nasdaq vendredi. (CoinDesk)
Selon un rapport d'IT House du 25 juin, le développeur Iván Martínez Toro a récemment lancé le modèle open source PrivateGPT, qui permet aux utilisateurs de poser des questions basées sur leurs propres documents sans connexion Internet. Il est rapporté que le modèle open source PrivateGPT peut être exécuté localement sur des appareils domestiques, et le modèle open source de grande langue (LLM) appelé gpt4 doit tous être téléchargé avant d'être exécuté. Ensuite, demandez aux utilisateurs de placer tous leurs fichiers associés dans un répertoire afin que le modèle récupère toutes les données. Après avoir formé le LLM, l'utilisateur peut poser n'importe quelle question au modèle et il répondra en utilisant le document fourni comme contexte. PrivateGPT peut ingérer plus de 58 000 mots et nécessite actuellement beaucoup de ressources informatiques locales (un processeur haut de gamme est recommandé) pour être configuré. Toro a déclaré que PrivateGPT est actuellement au stade de la preuve de concept (PoC), ce qui prouve au moins qu'un grand modèle similaire à ChatGPT peut être créé entièrement localement. Il est prévisible que le potentiel de cette conversion PoC en produits réels puisse permettre entreprises pour accéder à la personnalisation, à la sécurité et à la confidentialité ChatGPT pour augmenter la productivité.