В сфере ИИ разгорелась битва, LLM сражаются в разгаре
В прошлом месяце в мире ИИ разразилась "битва животных".
Стороной в этом противостоянии является модель Llama, выпущенная Meta. Благодаря своей открытой природе, Llama пользуется большой популярностью среди разработчиков. Японская компания NEC, изучив статьи и код Llama, быстро разработала японскую версию ChatGPT, решив тем самым недостаток Японии в области ИИ.
Другой стороной является крупная модель под названием Falcon. В мае этого года Falcon-40B вышел на рынок и занял первое место в рейтинге открытых LLM. Этот рейтинг был составлен сообществом Hugging Face и предоставляет стандарт для оценки возможностей LLM. Рейтинг в основном состоит из того, что Llama и Falcon поочередно занимают первые места.
После выпуска Llama 2 временно вернулось преимущество. Но в начале сентября Falcon выпустил версию 180B и снова занял более высокие позиции.
Интересно, что разработчики Falcon не являются технологической компанией, а представляют собой Институт научных исследований и инноваций в Абу-Даби. Офицеры ОАЭ заявили, что они участвуют в этой области, чтобы подорвать позиции основных игроков.
На следующий день после выпуска версии 180B министр искусственного интеллекта ОАЭ был включен в список "100 самых влиятельных людей в области ИИ", составленный журналом "Time". Вместе с ним в список вошли такие личности, как "батюшка ИИ" Хинтон и Альтман из OpenAI.
Сегодня область ИИ вошла в стадию активного соперничества. Государства и компании с определенными финансовыми возможностями пытаются создать свои собственные большие языковые модели. В только одном регионе Персидского залива имеется не один игрок. В августе Саудовская Аравия купила более 3000 чипов H100 для обучения LLM для своих университетов.
Инвесторы жалуются: "Когда-то я недооценивал инновации в бизнес-моделях интернета, считал, что у них нет барьеров. Не ожидал, что стартапы в области жестких технологий с большими моделями все еще будут сражаться между собой..."
Я думал, что это сложные технологии, как же это превратилось в соревнование, в котором может участвовать каждый?
Transformer изменил правила игры
Независимо от того, являются ли это стартапы из США, технологические гиганты из Китая или нефтяные магнаты из Ближнего Востока, возможность заниматься разработкой больших моделей обязана известной статье: «Внимание — это все, что вам нужно».
В 2017 году восемь ученых из Google опубликовали алгоритм Transformer в этой статье. Эта статья в настоящее время является третьей по количеству цитирований в истории ИИ, и появление Transformer вызвало текущую волну интереса к ИИ.
Современные крупные модели, включая нашумевшую серию GPT, основаны на архитектуре Transformer.
До этого "обучение машин чтению" считалось общепризнанной академической проблемой. В отличие от распознавания изображений, при чтении человек обращает внимание не только на текущие слова и фразы, но и учитывает контекст.
Но ранние нейронные сети имели независимые входные данные и не могли понять общее значение длинных статей, поэтому часто возникали проблемы с неправильным переводом.
В 2014 году ученый Google Илья впервые достиг прорыва. Он использовал рекуррентные нейронные сети (RNN) для обработки естественного языка, что значительно улучшило производительность Google Translate.
RNN предложил "циклический дизайн", который позволяет нейронам получать как текущий ввод, так и ввод предыдущего момента, тем самым обладая способностью "учитывать контекст".
Появление RNN вызвало энтузиазм в научной среде, автор статьи о Transformer Шазел также проводил глубокие исследования. Однако разработчики вскоре обнаружили, что у RNN есть серьезные недостатки:
Алгоритм использует последовательные вычисления, хотя и решает проблемы с контекстом, но эффективность работы низкая и сложно обрабатывать большое количество параметров.
Сложный дизайн RNN утомил Шазела. Поэтому с 2015 года Шазел и 7 его коллег начали разрабатывать замену RNN, в результате чего и появился Transformer.
По сравнению с RNN, у Transformer есть два больших изменения:
Во-первых, использование позиционного кодирования вместо рекуррентной архитектуры позволяет реализовать параллельные вычисления, что значительно повышает эффективность обучения и приводит AI в эпоху больших моделей; во-вторых, улучшена способность понимания контекста.
Трансформер одним решением устраняет множество недостатков, постепенно становясь стандартным решением в области NLP, создавая ощущение, что "если бы не было Трансформера, NLP навсегда оставался бы в темноте". Даже Илья отказался от RNN и присоединился к лагерю Трансформеров.
Иными словами, Transformer является основой всех больших моделей сегодня, он превратил большие модели из теоретического исследования в чисто инженерную задачу.
В 2019 году OpenAI представила GPT-2, разработанный на основе Transformer, который произвел фурор в академической среде. В ответ Google быстро выпустила более мощную Meena.
В отличие от GPT-2, Meena не имеет алгоритмических новшеств, она лишь увеличила количество обучающих параметров в 8,5 раз и вычислительную мощность в 14 раз. Автор трансформера Шазел был поражен таким "грубым накоплением" и написал меморандум "Meena поглощает мир".
После появления Transformer скорость инноваций в базовых алгоритмах замедлилась. Инженерные элементы, такие как обработка данных, масштаб вычислительной мощности и архитектура моделей, становятся ключевыми в соревнованиях AI. Любая компания с определенными техническими возможностями может разработать большие модели.
Таким образом, ученый Эндрю Нг в своей лекции в Стэнфорде сказал: "Искусственный интеллект — это совокупность инструментов, включая обучением с учителем, обучением без учителя, обучением с подкреплением и нынешний генеративный ИИ. Все это универсальные технологии, подобные электричеству и интернету."
OpenAI по-прежнему является ориентиром для LLM, но аналитическая компания в области полупроводников Semi Analysis считает, что преимущество GPT-4 связано с инженерными решениями — если это будет открыто, любой конкурент сможет быстро скопировать.
Этот аналитик ожидает, что другие крупные технологические компании смогут вскоре разработать большие модели, сопоставимые по производительности с GPT-4.
Оборонительный ров не является неприступным
Теперь "битва ста моделей" не является метафорой, а реальностью.
Согласно отчету, по состоянию на июль этого года, количество крупных моделей в Китае достигло 130, что превышает 114 в США, и различных мифов и легенд уже недостаточно для именования отечественных технологических компаний.
Помимо США и Китая, многие более богатые страны также реализовали "одна страна – одна модель": помимо Японии и ОАЭ, есть также Bhashini, инициированная правительством Индии, и HyperClova X, разработанный корейской компанией Naver.
Эта ситуация напоминает о сценах с пузырями на раннем этапе Интернета и безудержным капиталом.
Как упоминалось ранее, Transformer превратил большие модели в чисто инженерную задачу: при наличии人才,资金 и вычислительных ресурсов можно разработать их. Но легко войти в игру, стать гигантом эпохи ИИ - это не так просто.
Упомянутая в начале "Война животных" является典型ным例例: хотя Falcon временно опережает Llama, трудно сказать, какое влияние это окажет на Meta.
Как всем известно, компании открывают свои достижения, чтобы делиться благами технологий и надеяться на помощь общества. С учетом того, что академические круги, исследовательские учреждения и компании продолжают использовать и улучшать Llama, Meta может применять эти достижения в своих продуктах.
Для открытых моделей основным конкурентным преимуществом является активное сообщество разработчиков.
Еще в 2015 году, когда была создана лаборатория ИИ, Meta определила открытый путь; Закерберг, который изначально начал с социальных медиа, лучше понимает важность "хороших отношений с общественностью".
Например, в октябре Meta провела мероприятие "Стимулирование AI-креаторов": разработчики, использующие Llama 2 для решения социальных проблем в области образования, окружающей среды и других, имеют шанс получить грант в 500 000 долларов.
Сегодня серия Llama от Meta стала эталоном для открытых LLM.
По состоянию на начало октября, в списке из 10 лучших открытых LLM на Hugging Face, 8 основаны на Llama 2 и используют его открытый протокол. Только на Hugging Face количество LLM, использующих протокол Llama 2, превысило 1500.
Конечно, улучшение производительности, как у Falcon, тоже не помешает, но в настоящее время большинство LLM на рынке все еще явно уступают GPT-4.
Например, недавно GPT-4 занял первое место в тестировании AgentBench с результатом 4.41. AgentBench был запущен Тяньцзиньским университетом и несколькими известными американскими университетами для оценки способности LLM к рассуждению и принятию решений в многомерных открытых средах. Тестовые задания включают задачи в 8 различных средах, таких как операционные системы, базы данных, графы знаний, карточные битвы и т.д.
Результаты тестирования показали, что второй номер Claude набрал всего 2.77 балла, разница очевидна. Что касается тех громких открытых LLM, их результаты обычно около 1 балла, что составляет менее четверти от GPT-4.
Чтобы понимать, GPT-4 был выпущен в марте этого года, и это результат глобального соперничества спустя более полугода. Причиной этого разрыва является высококвалифицированная исследовательская команда OpenAI и накопленный за длительное время опыт, что позволяет им постоянно сохранять лидерство.
То есть, ключевая способность больших моделей заключается не в параметрах, а в построении экосистемы ( открытого исходного кода ) или чисто в способности вывода ( закрытого исходного кода ).
С ростом активности открытого сообщества производительность различных LLM может стать схожей, поскольку все используют похожие архитектуры моделей и наборы данных.
Другой более очевидный вопрос: кроме Midjourney, похоже, ни одна большая модель не может приносить прибыль.
Привязка стоимости
В августе этого года статья под названием "OpenAI может обанкротиться к концу 2024 года" вызвала внимание. Основная мысль статьи почти может быть изложена одной фразой: OpenAI сжигает деньги слишком быстро.
В статье упоминается, что с момента разработки ChatGPT убытки OpenAI стремительно увеличились, в 2022 году они составили около 540 миллионов долларов, и компания может полагаться только на инвестиции Microsoft.
Хотя заголовок статьи звучит громко, он также отражает текущее состояние многих поставщиков больших моделей: серьезный дисбаланс между затратами и доходами.
Слишком высокие затраты приводят к тому, что в настоящее время только NVIDIA зарабатывает большие деньги на AI, и, возможно, еще Broadcom.
По оценкам консалтинговой компании Omdia, NVIDIA продала более 300 тысяч чипов H100 во втором квартале этого года. Это чрезвычайно эффективный AI-чип, который активно покупают технологические компании и исследовательские учреждения по всему миру. Если сложить эти 300 тысяч H100, их вес будет эквивалентен 4,5 самолетам Boeing 747.
Выручка компании Nvidia резко возросла, увеличившись на 854% по сравнению с прошлым годом, что шокировало Уолл-стрит. Стоит отметить, что H100 на вторичном рынке уже продается за 40-50 тысяч долларов, в то время как его материальные затраты составляют всего около 3000 долларов.
Высокие затраты на вычислительную мощность в определенной степени стали препятствием для развития отрасли. Компания Sequoia Capital ранее оценивала, что глобальные технологические компании ежегодно будут тратить 200 миллиардов долларов на строительство инфраструктуры для крупных моделей; в то же время, крупные модели могут приносить не более 75 миллиардов долларов дохода в год, что создает как минимум 125 миллиардов долларов разрыва.
Кроме того, за исключением немногих таких, как Midjourney, большинство программных компаний не нашли модели получения прибыли после значительных инвестиций. Особенно трудно приходится ведущим игрокам отрасли, таким как Microsoft и Adobe.
Инструмент генерации кода AI GitHub Copilot, разработанный в сотрудничестве Microsoft и OpenAI, хотя и стоит 10 долларов в месяц, на самом деле приносит убытки Microsoft в размере 20 долларов на пользователя из-за затрат на инфраструктуру, а у пользователей с высокой нагрузкой убыток может достигать 80 долларов в месяц. Исходя из этого, можно предположить, что Microsoft 365 Copilot, цена которого составляет 30 долларов, может приносить еще большие убытки.
Аналогично, только что выпустивший инструмент Firefly AI Adobe также быстро запустил систему баллов, чтобы предотвратить чрезмерное использование пользователями, что может привести к убыткам компании. Как только пользователь превышает месяственно распределённые баллы, Adobe снижает скорость обслуживания.
Стоит отметить, что Microsoft и Adobe уже являются гигантами программного обеспечения с четко определенными бизнес-сценариями и большим числом платных пользователей. В то время как у большинства моделей с огромным количеством параметров, основным сценарием применения все еще остается общение.
Нельзя отрицать, что если бы не появление OpenAI и ChatGPT, эта революция в области ИИ, возможно, вообще бы не произошла; но в настоящее время ценность, создаваемая при обучении больших моделей, вероятно, все еще подлежит обсуждению.
И кроме того, с усилением конкуренции и растущим числом открытых моделей, чисто поставщики крупных моделей могут столкнуться с большими вызовами.
Успех iPhone 4 заключается не в 45-нм процессоре A4, а в том, что на нём можно играть в Plants vs. Zombies и Angry Birds.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
7
Поделиться
комментарий
0/400
DAOplomacy
· 2ч назад
честно говоря, это просто еще одна несостоятельная гонка к дну... я уже видел этот фильм
Посмотреть ОригиналОтветить0
ThatsNotARugPull
· 07-25 12:40
Это всего лишь пустая болтовня.
Посмотреть ОригиналОтветить0
ReverseTradingGuru
· 07-25 12:39
圈内неудачники一枚 大模型
Посмотреть ОригиналОтветить0
VitaliksTwin
· 07-25 12:38
Открытый исходный код модель увлекся
Посмотреть ОригиналОтветить0
MonkeySeeMonkeyDo
· 07-25 12:36
Истинная битва началась!
Посмотреть ОригиналОтветить0
AllInAlice
· 07-25 12:20
Снова начинается борьба
Посмотреть ОригиналОтветить0
AirdropSweaterFan
· 07-25 12:18
Кто бы ни выиграл, я просто буду наблюдать за происходящим.
Битва ста моделей: Гиганты AI-отрасли поднимаются, большие языковые модели сталкиваются с вызовами в области прибыльности
В сфере ИИ разгорелась битва, LLM сражаются в разгаре
В прошлом месяце в мире ИИ разразилась "битва животных".
Стороной в этом противостоянии является модель Llama, выпущенная Meta. Благодаря своей открытой природе, Llama пользуется большой популярностью среди разработчиков. Японская компания NEC, изучив статьи и код Llama, быстро разработала японскую версию ChatGPT, решив тем самым недостаток Японии в области ИИ.
Другой стороной является крупная модель под названием Falcon. В мае этого года Falcon-40B вышел на рынок и занял первое место в рейтинге открытых LLM. Этот рейтинг был составлен сообществом Hugging Face и предоставляет стандарт для оценки возможностей LLM. Рейтинг в основном состоит из того, что Llama и Falcon поочередно занимают первые места.
После выпуска Llama 2 временно вернулось преимущество. Но в начале сентября Falcon выпустил версию 180B и снова занял более высокие позиции.
Интересно, что разработчики Falcon не являются технологической компанией, а представляют собой Институт научных исследований и инноваций в Абу-Даби. Офицеры ОАЭ заявили, что они участвуют в этой области, чтобы подорвать позиции основных игроков.
На следующий день после выпуска версии 180B министр искусственного интеллекта ОАЭ был включен в список "100 самых влиятельных людей в области ИИ", составленный журналом "Time". Вместе с ним в список вошли такие личности, как "батюшка ИИ" Хинтон и Альтман из OpenAI.
Сегодня область ИИ вошла в стадию активного соперничества. Государства и компании с определенными финансовыми возможностями пытаются создать свои собственные большие языковые модели. В только одном регионе Персидского залива имеется не один игрок. В августе Саудовская Аравия купила более 3000 чипов H100 для обучения LLM для своих университетов.
Инвесторы жалуются: "Когда-то я недооценивал инновации в бизнес-моделях интернета, считал, что у них нет барьеров. Не ожидал, что стартапы в области жестких технологий с большими моделями все еще будут сражаться между собой..."
Я думал, что это сложные технологии, как же это превратилось в соревнование, в котором может участвовать каждый?
Transformer изменил правила игры
Независимо от того, являются ли это стартапы из США, технологические гиганты из Китая или нефтяные магнаты из Ближнего Востока, возможность заниматься разработкой больших моделей обязана известной статье: «Внимание — это все, что вам нужно».
В 2017 году восемь ученых из Google опубликовали алгоритм Transformer в этой статье. Эта статья в настоящее время является третьей по количеству цитирований в истории ИИ, и появление Transformer вызвало текущую волну интереса к ИИ.
Современные крупные модели, включая нашумевшую серию GPT, основаны на архитектуре Transformer.
До этого "обучение машин чтению" считалось общепризнанной академической проблемой. В отличие от распознавания изображений, при чтении человек обращает внимание не только на текущие слова и фразы, но и учитывает контекст.
Но ранние нейронные сети имели независимые входные данные и не могли понять общее значение длинных статей, поэтому часто возникали проблемы с неправильным переводом.
В 2014 году ученый Google Илья впервые достиг прорыва. Он использовал рекуррентные нейронные сети (RNN) для обработки естественного языка, что значительно улучшило производительность Google Translate.
RNN предложил "циклический дизайн", который позволяет нейронам получать как текущий ввод, так и ввод предыдущего момента, тем самым обладая способностью "учитывать контекст".
Появление RNN вызвало энтузиазм в научной среде, автор статьи о Transformer Шазел также проводил глубокие исследования. Однако разработчики вскоре обнаружили, что у RNN есть серьезные недостатки:
Алгоритм использует последовательные вычисления, хотя и решает проблемы с контекстом, но эффективность работы низкая и сложно обрабатывать большое количество параметров.
Сложный дизайн RNN утомил Шазела. Поэтому с 2015 года Шазел и 7 его коллег начали разрабатывать замену RNN, в результате чего и появился Transformer.
По сравнению с RNN, у Transformer есть два больших изменения:
Во-первых, использование позиционного кодирования вместо рекуррентной архитектуры позволяет реализовать параллельные вычисления, что значительно повышает эффективность обучения и приводит AI в эпоху больших моделей; во-вторых, улучшена способность понимания контекста.
Трансформер одним решением устраняет множество недостатков, постепенно становясь стандартным решением в области NLP, создавая ощущение, что "если бы не было Трансформера, NLP навсегда оставался бы в темноте". Даже Илья отказался от RNN и присоединился к лагерю Трансформеров.
Иными словами, Transformer является основой всех больших моделей сегодня, он превратил большие модели из теоретического исследования в чисто инженерную задачу.
В 2019 году OpenAI представила GPT-2, разработанный на основе Transformer, который произвел фурор в академической среде. В ответ Google быстро выпустила более мощную Meena.
В отличие от GPT-2, Meena не имеет алгоритмических новшеств, она лишь увеличила количество обучающих параметров в 8,5 раз и вычислительную мощность в 14 раз. Автор трансформера Шазел был поражен таким "грубым накоплением" и написал меморандум "Meena поглощает мир".
После появления Transformer скорость инноваций в базовых алгоритмах замедлилась. Инженерные элементы, такие как обработка данных, масштаб вычислительной мощности и архитектура моделей, становятся ключевыми в соревнованиях AI. Любая компания с определенными техническими возможностями может разработать большие модели.
Таким образом, ученый Эндрю Нг в своей лекции в Стэнфорде сказал: "Искусственный интеллект — это совокупность инструментов, включая обучением с учителем, обучением без учителя, обучением с подкреплением и нынешний генеративный ИИ. Все это универсальные технологии, подобные электричеству и интернету."
OpenAI по-прежнему является ориентиром для LLM, но аналитическая компания в области полупроводников Semi Analysis считает, что преимущество GPT-4 связано с инженерными решениями — если это будет открыто, любой конкурент сможет быстро скопировать.
Этот аналитик ожидает, что другие крупные технологические компании смогут вскоре разработать большие модели, сопоставимые по производительности с GPT-4.
Оборонительный ров не является неприступным
Теперь "битва ста моделей" не является метафорой, а реальностью.
Согласно отчету, по состоянию на июль этого года, количество крупных моделей в Китае достигло 130, что превышает 114 в США, и различных мифов и легенд уже недостаточно для именования отечественных технологических компаний.
Помимо США и Китая, многие более богатые страны также реализовали "одна страна – одна модель": помимо Японии и ОАЭ, есть также Bhashini, инициированная правительством Индии, и HyperClova X, разработанный корейской компанией Naver.
Эта ситуация напоминает о сценах с пузырями на раннем этапе Интернета и безудержным капиталом.
Как упоминалось ранее, Transformer превратил большие модели в чисто инженерную задачу: при наличии人才,资金 и вычислительных ресурсов можно разработать их. Но легко войти в игру, стать гигантом эпохи ИИ - это не так просто.
Упомянутая в начале "Война животных" является典型ным例例: хотя Falcon временно опережает Llama, трудно сказать, какое влияние это окажет на Meta.
Как всем известно, компании открывают свои достижения, чтобы делиться благами технологий и надеяться на помощь общества. С учетом того, что академические круги, исследовательские учреждения и компании продолжают использовать и улучшать Llama, Meta может применять эти достижения в своих продуктах.
Для открытых моделей основным конкурентным преимуществом является активное сообщество разработчиков.
Еще в 2015 году, когда была создана лаборатория ИИ, Meta определила открытый путь; Закерберг, который изначально начал с социальных медиа, лучше понимает важность "хороших отношений с общественностью".
Например, в октябре Meta провела мероприятие "Стимулирование AI-креаторов": разработчики, использующие Llama 2 для решения социальных проблем в области образования, окружающей среды и других, имеют шанс получить грант в 500 000 долларов.
Сегодня серия Llama от Meta стала эталоном для открытых LLM.
По состоянию на начало октября, в списке из 10 лучших открытых LLM на Hugging Face, 8 основаны на Llama 2 и используют его открытый протокол. Только на Hugging Face количество LLM, использующих протокол Llama 2, превысило 1500.
Конечно, улучшение производительности, как у Falcon, тоже не помешает, но в настоящее время большинство LLM на рынке все еще явно уступают GPT-4.
Например, недавно GPT-4 занял первое место в тестировании AgentBench с результатом 4.41. AgentBench был запущен Тяньцзиньским университетом и несколькими известными американскими университетами для оценки способности LLM к рассуждению и принятию решений в многомерных открытых средах. Тестовые задания включают задачи в 8 различных средах, таких как операционные системы, базы данных, графы знаний, карточные битвы и т.д.
Результаты тестирования показали, что второй номер Claude набрал всего 2.77 балла, разница очевидна. Что касается тех громких открытых LLM, их результаты обычно около 1 балла, что составляет менее четверти от GPT-4.
Чтобы понимать, GPT-4 был выпущен в марте этого года, и это результат глобального соперничества спустя более полугода. Причиной этого разрыва является высококвалифицированная исследовательская команда OpenAI и накопленный за длительное время опыт, что позволяет им постоянно сохранять лидерство.
То есть, ключевая способность больших моделей заключается не в параметрах, а в построении экосистемы ( открытого исходного кода ) или чисто в способности вывода ( закрытого исходного кода ).
С ростом активности открытого сообщества производительность различных LLM может стать схожей, поскольку все используют похожие архитектуры моделей и наборы данных.
Другой более очевидный вопрос: кроме Midjourney, похоже, ни одна большая модель не может приносить прибыль.
Привязка стоимости
В августе этого года статья под названием "OpenAI может обанкротиться к концу 2024 года" вызвала внимание. Основная мысль статьи почти может быть изложена одной фразой: OpenAI сжигает деньги слишком быстро.
В статье упоминается, что с момента разработки ChatGPT убытки OpenAI стремительно увеличились, в 2022 году они составили около 540 миллионов долларов, и компания может полагаться только на инвестиции Microsoft.
Хотя заголовок статьи звучит громко, он также отражает текущее состояние многих поставщиков больших моделей: серьезный дисбаланс между затратами и доходами.
Слишком высокие затраты приводят к тому, что в настоящее время только NVIDIA зарабатывает большие деньги на AI, и, возможно, еще Broadcom.
По оценкам консалтинговой компании Omdia, NVIDIA продала более 300 тысяч чипов H100 во втором квартале этого года. Это чрезвычайно эффективный AI-чип, который активно покупают технологические компании и исследовательские учреждения по всему миру. Если сложить эти 300 тысяч H100, их вес будет эквивалентен 4,5 самолетам Boeing 747.
Выручка компании Nvidia резко возросла, увеличившись на 854% по сравнению с прошлым годом, что шокировало Уолл-стрит. Стоит отметить, что H100 на вторичном рынке уже продается за 40-50 тысяч долларов, в то время как его материальные затраты составляют всего около 3000 долларов.
Высокие затраты на вычислительную мощность в определенной степени стали препятствием для развития отрасли. Компания Sequoia Capital ранее оценивала, что глобальные технологические компании ежегодно будут тратить 200 миллиардов долларов на строительство инфраструктуры для крупных моделей; в то же время, крупные модели могут приносить не более 75 миллиардов долларов дохода в год, что создает как минимум 125 миллиардов долларов разрыва.
Кроме того, за исключением немногих таких, как Midjourney, большинство программных компаний не нашли модели получения прибыли после значительных инвестиций. Особенно трудно приходится ведущим игрокам отрасли, таким как Microsoft и Adobe.
Инструмент генерации кода AI GitHub Copilot, разработанный в сотрудничестве Microsoft и OpenAI, хотя и стоит 10 долларов в месяц, на самом деле приносит убытки Microsoft в размере 20 долларов на пользователя из-за затрат на инфраструктуру, а у пользователей с высокой нагрузкой убыток может достигать 80 долларов в месяц. Исходя из этого, можно предположить, что Microsoft 365 Copilot, цена которого составляет 30 долларов, может приносить еще большие убытки.
Аналогично, только что выпустивший инструмент Firefly AI Adobe также быстро запустил систему баллов, чтобы предотвратить чрезмерное использование пользователями, что может привести к убыткам компании. Как только пользователь превышает месяственно распределённые баллы, Adobe снижает скорость обслуживания.
Стоит отметить, что Microsoft и Adobe уже являются гигантами программного обеспечения с четко определенными бизнес-сценариями и большим числом платных пользователей. В то время как у большинства моделей с огромным количеством параметров, основным сценарием применения все еще остается общение.
Нельзя отрицать, что если бы не появление OpenAI и ChatGPT, эта революция в области ИИ, возможно, вообще бы не произошла; но в настоящее время ценность, создаваемая при обучении больших моделей, вероятно, все еще подлежит обсуждению.
И кроме того, с усилением конкуренции и растущим числом открытых моделей, чисто поставщики крупных моделей могут столкнуться с большими вызовами.
Успех iPhone 4 заключается не в 45-нм процессоре A4, а в том, что на нём можно играть в Plants vs. Zombies и Angry Birds.