Resultados de la búsqueda para "LLM"

La empresa de inteligencia artificial OpenRouter, cofundada por OpenSea, ha recaudado 40 millones de dólares, con a16z como líder de la inversión, alcanzando una valoración de 500 millones de dólares.

Noticia del bot de Gate, OpenRouter, liderado por el ex cofundador de OpenSea, ha completado una ronda de financiamiento semilla de 40 millones de dólares y una ronda A, con el objetivo de acelerar el desarrollo de su plataforma de agregación de modelos de lenguaje de gran tamaño. Esta financiación fue liderada por Andreessen Horowitz (a16z) y Menlo Ventures, con la participación de Sequoia Capital y conocidos inversores ángel de la industria. Según el Wall Street Journal, citando a una fuente familiarizada con el asunto, la valoración actual de la compañía es de 500 millones de dólares.
Más

La plataforma de IA OpenRouter, fundada por un excofundador de OpenSea, ha completado una ronda de financiación Serie A de 40 millones de dólares, liderada por a16z y otros.

La plataforma de mercado de modelos de IA OpenRouter anunció recientemente que ha completado una financiación de 40 millones de dólares, con una valoración de aproximadamente 500 millones de dólares. La financiación se destinará al desarrollo de productos y a la expansión del soporte empresarial. Desde su lanzamiento, ha atraído a más de 1 millón de desarrolladores, con un rápido crecimiento en el gasto en inferencias anual, y sus clientes abarcan desde startups hasta multinacionales.
Más

Investigación: La dependencia a largo plazo de modelos de lenguaje grandes como ChatGPT puede perjudicar las capacidades cognitivas

Mensaje de ChainCatcher, un equipo de investigación del MIT, Wellesley College y el Massachusetts College of Art ha descubierto recientemente que depender a largo plazo de modelos de lenguaje de gran tamaño (LLM) como ChatGPT podría perjudicar las habilidades cognitivas. La investigación muestra que la cantidad de conexiones de ondas Alpha en el cerebro de los participantes que usaron escritura con IA es solo la mitad de la de los pensadores independientes (42 frente a 79), y el 83.3% no pudo citar con precisión el contenido de sus propios artículos. Los investigadores llaman a este fenómeno deuda cognitiva: alivia la carga del pensamiento a corto plazo, pero a largo plazo conduce a una disminución del pensamiento crítico y la creatividad.
Más

$FLOCK gana más de un 52% tras anunciar una colaboración estratégica con qwen

Gate.io Noticias
Más
  • 1

Moonshot ha lanzado el modelo de lenguaje grande ($LLM)

Odaily星球日报讯 据官方消息,Moonshot 上线 Large Language Model ($LLM),当前9470 万美元,24 小时1.542
Más
  • 1

Moonshot lanza la moneda meme LLM basada en la cadena Solana de AI

MoonshotListing detects the launch of LLM, a meme coin based on the concept of AI on the Solana blockchain, with a market capitalization of 96 million dollars and a 24-hour decline of 9.7%. LLM is inspired by the logo of ai16z. BlockBeats reminds users that meme coins like LLM have no practical use cases and have high fluctuations in price, so investment should be cautious.
Más
  • 1
  • 2

Dar Open Network anuncia el lanzamiento de dos marcos de IA: el marco de múltiples agentes DeAI y aiNFT

Dar Open Network anuncia el lanzamiento de dos marcos de inteligencia artificial, el marco de múltiples agentes DeAI y el token no fungible de IA. El marco de múltiples agentes DeAI es una plataforma para que los desarrolladores construyan, implementen y coordinen agentes de IA colaborativos, mientras que el token no fungible de IA es una herramienta innovadora que permite a los propietarios de tokens no fungibles desbloquear el potencial de sus activos digitales personalizando agentes de IA y interactuar dinámicamente con los usuarios.
Más

Initia: Rena aparece y obtiene una financiación inicial de 3.3 millones de dólares, lanzando TrustEE AppChain

Initia's Rollup interoperability protocolo launches Rena and secures a pre-seed funding of $3.3 million. Rena uses TrustEE data AppChain to help developers build verifiable, privacy-preserving, and scalable AI applications on any on-chain Bloquear. Rena is dedicated to providing users with AI ownership and verifiability, promoting decentralized finance, gaming/social applications, and the development of applications in the field of multimodal LLM.
Más

Socio de a16z: los productos de tipo LLM tienen el potencial de ser disruptores en el negocio de búsqueda

El socio general de a16z, Andrew Chen, planteó en las redes sociales si el impresionante ChatGPT de OpenAI tiene potencial comercial, al mismo tiempo que discutió cuestiones como el número medio de búsquedas por persona, los ingresos por visualización única y el rendimiento después de adoptar un modelo de monetización publicitaria. Él opina que productos con una base de usuarios similar a la del navegador Firefox tuvieron ingresos anuales cercanos a los 1.000 millones de dólares en su apogeo, y que si ChatGPT se utiliza de forma gratuita, es posible que aumente significativamente la cantidad de usuarios activos mensuales. Al mismo tiempo, señala que los productos como los modelos de lenguaje de gran escala (LLM) tienen el potencial de convertirse en disruptores del negocio de búsqueda.
Más
  • 3
  • 1

JPMorgan Chase launches AI tool for analysts internally

Según BlockBeats, el 26 de julio, según informes de Cointelegraph, el gigante de la inversión bancaria JPMorgan Chase está lanzando una versión interna de un producto de inteligencia artificial generativa similar a ChatGPT llamado LLM Suite, que se utilizará principalmente para ayudar a los analistas a escribir, generar ideas y resumir documentos. JPMorgan Chase afirma que LLM Suite es un producto “similar a ChatGPT” que puede colaborar con otros sistemas internos que manejan información financiera sensible para mejorar la “productividad general”.
Más
Odaily Planet Daily News Lightning Labs ha lanzado nuevas herramientas de inteligencia artificial de Bitcoin diseñadas para permitir a los desarrolladores integrar sin problemas Bitcoin y Lightning Network en sus aplicaciones de inteligencia artificial.La suite incluye LLM Agent BitcoinTools, que permite a los desarrolladores crear agentes de IA que pueden mantener saldos de Bitcoin , envíe/reciba Bitcoin en Lightning Network e interactúe con los nodos daemon de Lightning Network. Además, esta versión incluye el servidor proxy inverso de Aperture, que es compatible con Lightning Node Connect y proporciona precios dinámicos de terminales de API. Estas herramientas mejorarán la accesibilidad y la funcionalidad de la infraestructura de IA. (El bloque)
Babbitt News, 9 de junio, según el informe de Chosun Ilbo, se ha confirmado que Samsung está desarrollando completamente su propio modelo de lenguaje grande (LLM) de IA para uso interno. Este producto es similar a ChatGPT. Se ha desarrollado desde junio y es liderado por el Instituto de Investigación de Samsung. Las fuentes dijeron que casi todos los recursos informáticos de la GPU de Samsung se han invertido en la capacitación de modelos a gran escala.La compañía planea completar el desarrollo de la primera versión de LLM en dos meses. Actualmente, Samsung planea usar este modelo grande para resumen de documentos, desarrollo de software y traducción de idiomas, y aún no ha decidido si proporcionará el producto a los consumidores.
  • 2

Investigadores de Apple: los modelos de IA convencionales aún no pueden alcanzar el nivel de razonamiento esperado de AGI

En un artículo publicado en junio titulado "La ilusión del pensamiento", los investigadores de Apple señalaron que los principales modelos de (AGI) de IA todavía tienen dificultades con el razonamiento y, como resultado, el desarrollo de (AGI) general de IA es un resultado Todavía queda mucho camino por recorrer. El artículo señala que las últimas actualizaciones de los grandes modelos de lenguaje de IA convencionales (LLM), como ChatGPT de OpenAI y Claude de Anthropic, han incluido grandes modelos de inferencia (LRM), pero sus características básicas, Las características y limitaciones extendidas "aún no se comprenden completamente". La evaluación actual se centra principalmente en los puntos de referencia establecidos en matemáticas y codificación, "haciendo hincapié en la precisión de la respuesta final". Sin embargo, los investigadores dijeron que la evaluación no proporcionó información sobre las capacidades de razonamiento de los modelos de IA, en marcado contraste con la expectativa de que la inteligencia artificial general se lograría en solo unos pocos años.
Más
  • 1

El motor de trading en cadena de AI Brian anuncia su terminación, el fundador critica la preferencia de los VC por invertir en tokens especulativos.

Brian, el proyecto de reconocimiento de intenciones de IA lanzado por el hackathon ETHPrague 2023, anunció su finalización debido a la pérdida de ventajas en el mercado y problemas de financiación, criticando a los VC por centrarse demasiado en TGE y exageraciones e ignorar el progreso real. El equipo había planeado lanzar un modelo y un token específicos para Web3, pero la especulación de la industria y los problemas de costos hicieron que el proyecto fracasara.
Más

Agencia: En 2024, los ingresos totales de las 10 principales empresas de diseño de circuitos integrados del mundo aumentarán un 49% interanual, y NVIDIA representará la mitad de la proporción

En 2024, los ingresos totales de las diez principales empresas de diseño de circuitos integrados del mundo serán de unos 249.800 millones de dólares, lo que supone una tasa de crecimiento anual del 49%, de los cuales NVIDIA crecerá hasta un 125%. Las perspectivas para 2025 muestran que los procesos avanzados de fabricación de semiconductores impulsarán el crecimiento de la potencia informática de la IA, y seguirán surgiendo grandes modelos de lenguaje, y los dispositivos de IA de borde se convertirán en la próxima ola de impulsores del crecimiento de los semiconductores.
Más

SCIHUB ha desarrollado la arquitectura de Agents de IA científica, SCAI, con el objetivo de brindar herramientas más precisas y confiables a los investigadores científicos

BlockBeats News, el 13 de enero, según noticias oficiales, la comunidad SCIHUB desarrolló una nueva arquitectura de IA Agents SCAI (SCientific AI), con el objetivo de proporcionar a los investigadores científicos herramientas más precisas y confiables El objetivo de SCAI es resolver el fenómeno de la "alucinación" de los LLM en la respuesta a preguntas científicas, de modo que la IA
Más
  • 4
  • 2

Los usuarios de Reddit afirman que ChatGPT se basa en la inferencia de mensajes históricos y lanza conversaciones

OpenAI ha anunciado que lanzará un modelo de lenguaje de gran escala ChatGPT aún más inteligente, dotado de habilidades de razonamiento y la capacidad de 'pensar antes de responder'. El modelo puede inferir la situación del usuario a través de la conversación previa cuando se le pregunta acerca del primer día de escuela de un usuario, lo que demuestra ser una de las nuevas funciones actualizadas. Se espera que el nuevo modelo tenga tiempos de respuesta más rápidos y una capacidad independiente de investigación en profundidad.
Más
  • 8
  • 2
Según el informe de 36 Krypton del 5 de junio, la empresa de datos de IA "Integer Intelligence" completó recientemente decenas de millones de rondas de financiación Pre A. Yishang Capital es el asesor financiero exclusivo. Esta ronda de financiación se utiliza principalmente para la actualización iterativa de la plataforma de ingeniería de datos inteligente (Plataforma ABAVA) La nueva plataforma ABAVA integrará modelos grandes de IA + modelos pequeños para lograr una anotación automática de datos eficiente. Además, la inteligencia de enteros también integrará las capacidades del servicio de datos RLHF (aprendizaje de refuerzo de retroalimentación humana) para proporcionar soluciones para el desarrollo y la iteración de modelos de lenguaje grande (LLM).
Según el informe de 36 Krypton del 5 de junio, la empresa de datos de IA "Integer Intelligence" completó recientemente decenas de millones de rondas de financiación Pre A. Yishang Capital es el asesor financiero exclusivo. Esta ronda de financiación se utiliza principalmente para la actualización iterativa de la plataforma de ingeniería de datos inteligente (Plataforma ABAVA) La nueva plataforma ABAVA integrará modelos grandes de IA + modelos pequeños para lograr una anotación automática de datos eficiente. Además, la inteligencia de enteros también integrará las capacidades del servicio de datos RLHF (aprendizaje de refuerzo de retroalimentación humana) para proporcionar soluciones para el desarrollo y la iteración de modelos de lenguaje grande (LLM).

El desarrollador principal de Gaia, Harish Kotra, asistió a la cumbre ETHDenver 2025 y compartió sus puntos de vista sobre los LLM de código abierto

Gaia es un proyecto web descentralizado que tiene como objetivo proporcionar servicios de proxy de IA seguros, resistentes a la censura y monetizables. Su desarrollador principal, Harish Kotra, compartió el tema de la ejecución de un LLM de código abierto en ETHDenver 2025. GaiaNet se basa en nodos de edge computing controlados por individuos y empresas, diseñados para fusionar los conocimientos y habilidades de todos, al tiempo que protegen la privacidad.
Más

Vitalik:AImercado de predicción可以让 X 社区笔记更快

El cofundador de Ethereum dijo que la inteligencia artificial y la tecnología de mercado de predicción pueden acelerar la velocidad de creación de notas comunitarias en plataformas de redes sociales. Las notas comunitarias son una función que permite a las comunidades agregar información de fondo a publicaciones potencialmente engañosas. A través del mercado de predicción, las personas pueden utilizar modelos de lenguaje de inteligencia artificial a gran escala y robots para determinar si una publicación merece ser seguida por la comunidad.
Más
  • 1

El Fondo ZhenFund anuncia una donación al proyecto de IA de código abierto vLLM

Odaily星球日报讯 真格基金宣布向Código abierto AI 项目 vLLM 提供捐赠。真格基金表示,捐赠旨在推动 AI 技术普及,让更多人受益。 vLLM fue desarrollado por un equipo de 3 personas de la Universidad de California, Berkeley, es un marco de aceleración de inferencia de modelos grandes de código abierto que admite más de 30 proyectos de código abierto, incluyendo Mistral, Llama, etc.
Más
金十数据5月21日讯,Lenovo Group ha lanzado la próxima generación de Copilot+PC, el Lenovo YogaSlim7x y el Lenovo ThinkPadT14sGen6, ambos equipados con el nuevo procesador Snapdragon XElite de Qualcomm. Según se informa, estos dos AIPC cuentan con una CPU Oryon de 12 núcleos, una GPU Adreno y una NPU Hexagon dedicada. Con las últimas funciones mejoradas de Microsoft y Copilot+, los usuarios pueden utilizar la funcionalidad de modelos de lenguaje a gran escala (LLM) incluso sin conexión.
Según Interface News el 27 de junio, la empresa de bases de datos MongoDB anunció que cooperará con Google Cloud para acelerar el uso de IA generativa por parte de los desarrolladores y el desarrollo de nuevas aplicaciones. Los desarrolladores pueden aprovechar MongoDB Atlas y la integración con Google Cloud Vertex AI Large Language Model (LLM) para acelerar el desarrollo de software.
  • 2
IT House publicó un artículo hoy que indica que el volumen de montón ciego del modelo de IA en realidad no es necesariamente mejor. Depende más de la calidad de los datos de entrenamiento. Microsoft lanzó recientemente un modelo de lenguaje phi-1 con 1.300 millones de parámetros. , usando entrenamiento de conjunto de datos de alta calidad de "Nivel de libro de texto", se dice que "el efecto real es mejor que GPT 3.5 con 100 mil millones de parámetros". El modelo se basa en la arquitectura de Transformer, y el equipo de Microsoft usó datos de "grado de libro de texto" de la web y "contenido lógicamente riguroso" procesado con GPT-3.5, así como ocho GPU Nvidia A100, para completar el entrenamiento en solo 4 dias El equipo de Microsoft dijo que, en lugar de aumentar la cantidad de parámetros del modelo, mejorar la calidad del conjunto de datos de entrenamiento del modelo puede mejorar la precisión y la eficiencia del modelo. Por lo tanto, usaron datos de alta calidad para entrenar el modelo phi-1. . En la prueba, la puntuación de phi-1 alcanzó el 50,6 %, mejor que GPT-3,5 (47 %) con 175 000 millones de parámetros. Microsoft también declaró que phi-1 será de código abierto en HuggingFace a continuación, y esta no es la primera vez que Microsoft desarrolla un LLM pequeño. Anteriormente, crearon un Orca de 13 mil millones de parámetros, que fue entrenado usando datos sintéticos GPT-4. El el rendimiento también es mejor que ChatGPT.
Según el Securities Times, el 20 de junio, la oficina de Jinshan realizó una sesión informativa anual sobre el desempeño de 2022. Con respecto al desarrollo de productos relacionados con la IA, Zou Tao, presidente de la empresa, dijo que la IA es una de las estrategias de producto importantes de Kingsoft Office. En la actualidad, la empresa opta por "caminar sobre dos piernas", y primero optará por cooperar con proveedores de servicios técnicos relacionados con AIGC y LLM, y llevar a cabo investigación y desarrollo de productos a través de su capacitación técnica; al mismo tiempo, también son continuando en contacto con algunas excelentes empresas de nueva creación. Además, las funciones relacionadas con "WPSAI" se lanzarán gradualmente, lo que se espera que potencie completamente toda la línea de productos de la compañía.
  • 1
Según Businesskorea, según fuentes de Corea del Sur, la división Device Solutions (DS) a cargo del negocio de semiconductores de Samsung Electronics está desarrollando su propio modelo de lenguaje grande (LLM) de GPT-3.5 o superior.Inteligencia artificial personalizada para mejorar la productividad y el trabajo eficiencia. Se informa que se espera que el servicio comience su servicio básico a principios de diciembre de este año y brinde servicios de búsqueda profesional que incluyen conocimiento y datos de la empresa en febrero del próximo año.

La cadena social CYBER lanzará el modelo de inteligencia artificial CYBER.AI de encriptación

La cadena social Cyber lanzará el modelo de inteligencia artificial Cyber.AI, que analiza millones de publicaciones y cuentas X, combinando datos de encriptación de más de 200,000 proyectos para proporcionar un mejor soporte a los agentes de inteligencia artificial. Cyber.AI también colabora con @elizaOSai para que los desarrolladores puedan acceder a una base de conocimientos de encriptación más profesional. El modelo está construyendo un producto asistente de encriptación y un modelo base de encriptación nativo para proporcionar consultas e información de encriptación más precisas.
Más
  • 2
  • 1

El equipo de desarrollo de Allora logró la gestión comercial inteligente mediante el agente de IA DeepSeek.

Golden Finance reported that the Allora development team has implemented the use of DeepSeek as an AI Agent for LLM transaction judgment, and uses the Allora Network as an interactive platform on Hyperliquid.
Más

某 DIRECCIÓN早期买入价值6.3万美元的LLM,当前 Posición价值升至130万美元

BlockBeats noticias, el 9 de enero, según Arkham monitorización, una dirección que comienza con DxjmH compró LLM por valor de $63,000 en las primeras 3 horas después de su lanzamiento en LLM, la posición actual ha aumentado a 130
Más
  • 6
  • 3

Un trader compró más de 2300 LLM y obtuvo un beneficio de más de dólares.

Según Onchain Lens, un comerciante compró 2300 LLM y obtuvo un beneficio de más de 50
Más
  • 2
  • 1

Un comerciante obtiene un rendimiento 1,887 veces mayor al comprar LLM al principio y venderlo dentro de las 4 horas.

BlockBeats noticias, el 8 de enero, según Onchain Lens, un comerciante ganó $500,000 en 4 horas comprando LLM temprano. Esta DIRECCIÓN compró 23 millones de LLM en PumpFun a un precio de 1.37 SOL (aproximadamente $269). Después de un fuerte aumento de precio, esta DIRECCIÓN cerró todas las posiciones de LLM a un precio de 2,594 SOL (aproximadamente $50,700), obteniendo un beneficio de 1887.
Más
  • 4
  • 2
Según una encuesta de TrendForce, una agencia de investigación de mercado global, en el primer trimestre, los dispositivos terminales de consumo entraron en la temporada baja tradicional. Aunque hubo algunos pedidos urgentes en la cadena de suministro, en su mayoría fueron acciones de reabastecimiento de inventarios de clientes individuales, lo que resultó en una dinámica ligeramente débil. Al mismo tiempo, la demanda de aplicaciones para automóviles y control industrial fue afectada por factores como la inflación, conflictos geopolíticos y energía. Solo los servidores de IA surgieron como el único punto brillante en la cadena de suministro del primer trimestre, debido a la inversión masiva de los gigantes globales de CSP y la tendencia de construir grandes modelos de lenguaje (LLM) por parte de las empresas. En base a los factores mencionados anteriormente, el valor de la producción de las diez principales fundiciones de obleas en el mundo en el primer trimestre disminuyó un 4,3% trimestralmente a US $ 29.200 millones.
Según un informe de Financial Associated Press del 14 de junio, Bank of America Securities emitió un informe que indica que AMD anunció recientemente su último chip GPU AI "MI300 X", y predice que el mercado de chips AI aumentará desde EE. UU. $30 mil millones este año a US$150 mil millones en 2027. . Sin embargo, el banco se mantiene "neutral" con respecto a AMD, ya que la compañía no mencionó a ningún cliente comercial que participara en sus nuevos productos de GPU. AMD todavía está muy por detrás de Nvidia, ya que AMD no comenzará a probar chips de IA hasta el próximo trimestre. En términos de tiempo, cuando AMD comience a estabilizarse con aceleradores de GPU basados en 5nm, Nvidia puede lanzar su GPU de arquitectura Blackwell optimizada para LLM basada en 3nm de próxima generación, ampliando aún más su liderazgo ya considerable en el mercado de IA.

Una cierta DIRECCIÓN "vendió" 24.25 millones de LLM, perdiendo una ganancia de 3 millones de dólares

Según Onchain Lens, una DIRECCIÓN compró 24,25 millones de LLM por 9,17 SOL ayer, pero los vendió con pérdidas solo 2 minutos después, obteniendo 8,27 SOL. Ahora el valor de estos tokens ha superado los 300.
Más
  • 1
  • 1

LLcapitalización de mercado突破1.4亿美元,1H涨幅43.49%

Informes de Oliday Planet Daily, los datos de GMGN muestran que LLM ha alcanzado los 0.14 USDT, ahora cotizando a 0.1403 USDT, con un aumento del 43.49% en la última hora. La capitalización de mercado se sitúa en 141 millones de dólares. Odaily 提醒用户,Meme
Más
  • 1

La posición de LLM entre los cinco principales ballenas ya ha obtenido una ganancia flotante de 670,000 dólares.

Odaily Daily Planet News According to on-chain analyst Ai monitoring, LLM Tenencias TOP5 Whale bought 9.49 million LLM at a low price of 0.01949 USD last night, currently with a floating profit of 670,000 USD (cost only 185,000 USD, return
Más

某交易者「Reducir pérdidas」1063万枚LLM,错失150万美元潜在利润

Según BlockBeats, el 9 de enero, según el monitoreo de Lookonchain, un operador vendió 10,63 millones de LLM por 1.725 dólares, que ahora valen más de 1,5 millones de dólares. Ayer, el operador compró 10,63 millones de LLM por 14 SOL (2.767 dólares). Sin embargo, poco después de su compra, el precio comenzó a caer, por lo que vendió todo a un precio de 8,74 SOL (1.725 dólares).
Más
  • 3
  • 1

Datos: LLM Capitalización de mercado突破 1 亿美元

ChainCatcher 消息,据 GMGN datos muestran, LLM pump突破 0.1 美元, ahora cotiza a 0.125 美元, el aumento en la última hora es del 30%, capitalización de mercado暂报 1.26
Más
  • 2

Hace 19 horas, cierto dinero inteligente compró 23,76 millones de LLM y actualmente tiene una ganancia flotante de 289 veces.

Odaily Planet Daily News According to The Data Nerd monitoring, 19 hours ago, the smart investor FdvYZ spent 23.76 SOL (about $4700) to buy 23.76 million LLM, which is now worth $1.36 million, with an ROI of 289x. Transfiere 15 millones de monedas LLM a la billetera
Más
  • 3
  • 2

La capitalización de mercado de AI meme币LLM supera los 100 millones de dólares en poco tiempo, con un volumen de negociación de 330 millones de dólares en 24 horas.

BlockBeats noticias, el 9 de enero, según la información del mercado de GMGN, la moneda MEME de inteligencia artificial LLM se emitió durante 22 horas, y su capitalización de mercado superó los 100 millones de dólares a corto plazo, ahora se reporta en 99.80 millones de dólares, y el volumen de operaciones en las últimas 24 horas superó los 3.3.
Más
  • 3

encriptación与AI公司Fraction AI完成600万美元Pre-Seed融资,Spartan Group和Symbolic Capital共同领投

PANews 19 de diciembre, según informes de The Block, Fraction AI, una startup centrada en la encriptación de datos y la inteligencia artificial, completó una financiación inicial de 6 millones de dólares. Spartan Group y Symbolic Capital lideraron esta ronda de financiación, junto con otros inversores como Borderless Capital, Anagram, Foresight Ventures y Karatage. Además, inversores ángel como Sandeep Nailwal, cofundador de Polygon, y Illia Polosukhin, cofundador de NEAR Protocol, también participaron como asesores. Fracción
Más

El proyecto de inteligencia artificial (AI) de la ecología de Solana, CAI | CharacterX, anuncia el lanzamiento de la infraestructura de AI de nivel empresarial CAI

El proyecto de inteligencia artificial CAI | CharacterX de la ecología de Solana lanzará una solución de infraestructura de inteligencia artificial de nivel empresarial, CAI. El COO señaló que CAI ya ha alcanzado acuerdos preliminares con varias empresas, con ingresos mensuales de dólares. El proyecto ha recibido inversiones de la Stanford Blockchain Accelerator y una ronda de financiación inicial de varios millones de dólares.
Más

El CEO de Anthropic: el desarrollo de la IA no se ha desacelerado

El CEO de Anthropic, Dario Amodei, dijo que se espera que la mejora en la velocidad de los modelos de lenguaje a gran escala no se ralentice, a pesar de los informes recientes de que el rendimiento del LLM que la compañía, Google y OpenAI están a punto de lanzar no es mucho mayor que el de los modelos anteriores. Según los informes de principios de este mes, el rendimiento del modelo insignia más reciente de OpenAI, Orion, no ha mejorado.(The
Más

La Fundación Aptos colabora con una empresa de IA para desarrollar herramientas de programación en el lenguaje Move

La Fundación Aptos se ha asociado con FLock.io para lanzar una herramienta de inteligencia artificial que hace que sea más fácil codificar utilizando el lenguaje de programación personalizado Move de la cadena Bloquear. FLock.io ha desarrollado un modelo de lenguaje grande y especializado para ajustar el Move en la red Aptos. Las pruebas iniciales indican que el LLM de FLock.io tiene un rendimiento sobresaliente en la generación de código específico de Move, y la precisión y legibilidad del código han mejorado significativamente.
Más

Arweave AO ha depositado más de 158 millones de dólares en la última semana

El protocolo de cálculo de aplicaciones de inteligencia artificial basado en Arweave, AO, ha atraído más de 158 millones de dólares en depósitos en una semana después de su venta justa. Según se informa, AO es un nuevo protocolo construido sobre la capa de almacenamiento de datos permanente de Arweave que permite la ejecución de aplicaciones paralelas mediante modelos de cálculo descentralizados. También permite que las aplicaciones de inteligencia artificial se ejecuten en la cadena, lo que permite que los grandes modelos de lenguaje se ejecuten dentro de contratos inteligentes.
Más
Según las noticias de PANews del 7 de julio, según The Block, Lightning Labs ha lanzado una nueva herramienta de bitcoin de inteligencia artificial. Las herramientas están diseñadas para ayudar a los desarrolladores a integrar sin problemas Bitcoin y Lightning Network en sus aplicaciones de IA. La suite incluye LLM Agent BitcoinTools, que permite a los desarrolladores crear agentes de IA que pueden mantener saldos de Bitcoin, enviar/recibir Bitcoin en Lightning Network e interactuar con los nodos Lightning Network Daemon. Además, esta versión incluye Aperture Reverse Proxy Server, que es compatible con Lightning Node Connect y ofrece precios dinámicos de terminales de API. Estas herramientas mejorarán la accesibilidad y la funcionalidad de la infraestructura de IA.

$PAAL aumenta por encima del 12% después de anunciar que alcanzó un hito importante

Gate.io Noticias
Más
  • 2
  • 2
Según un informe de IT House del 25 de junio, el desarrollador Iván Martínez Toro lanzó recientemente el modelo de código abierto PrivateGPT, que permite a los usuarios hacer preguntas basadas en sus propios documentos sin conexión a Internet. Se informa que el modelo de código abierto PrivateGPT se puede ejecutar localmente en dispositivos domésticos, y el modelo de lenguaje grande (LLM) de código abierto llamado gpt4 debe descargarse antes de ejecutarse. Luego, indique a los usuarios que coloquen todos sus archivos relacionados en un directorio para que el modelo extraiga todos los datos. Después de entrenar el LLM, el usuario puede hacer cualquier pregunta al modelo y responderá usando el documento proporcionado como contexto. PrivateGPT puede ingerir más de 58 000 palabras y actualmente requiere una gran cantidad de recursos informáticos locales (se recomienda una CPU de gama alta) para configurarse. Toro dijo que PrivateGPT se encuentra actualmente en la etapa de prueba de concepto (PoC), lo que al menos prueba que un gran modelo similar a ChatGPT se puede crear completamente localmente. Es previsible que el potencial de esta conversión de PoC en productos reales pueda permitir empresas para acceder a personalización, seguridad y privacidad ChatGPT para aumentar la productividad.
Odaily Planet Daily News La compañía minera Bitcoin Hive Blockchain dijo en una llamada de ganancias con analistas el viernes que la compañía permitirá a los clientes entrenar modelos de inteligencia artificial de lenguaje a gran escala en su centro de datos, en comparación con competidores como ChatGPT de OpenAI. La compañía afirma que es mejor privacidad. Aydin Kilic, director ejecutivo y presidente de la empresa, dijo: "Las empresas ahora se dan cuenta de que no quieren cargar datos confidenciales de los clientes a empresas como OpenAI que tienen un LLM (modelo de lenguaje grande) público. Queremos brindar privacidad en Hive a través de Hive Cloud, las empresas pueden tener un acuerdo de servicio, poseer sus datos y su privacidad, y seguir ejecutando cargas de trabajo de cómputo de IA en nuestras GPU". Las acciones de Hive subieron casi un 2 por ciento en Nasdaq el viernes. (CoinDesk)