Перейти к основному контенту
РБК Образование⁠,
0

Когда ChatGPT вреден: как универсальный ИИ может погубить ваш проект

Компании продолжают вкладываться в GPT-подобные модели, но именно универсальность все чаще становится причиной провалов. Эксперт Иван Будник объясняет, почему выбор «самой мощной нейросети» ведет к лишним расходам и неэффективным ИИ-проектам
Фото: Luísa Schetinger / Unsplash
Фото: Luísa Schetinger / Unsplash

В 2025 году вышло исследование S&P Global Market Intelligence: 42% компаний свернули почти все свои ИИ-инициативы, хотя год назад таких было только 17%. Дело не в качестве технологий — они работают нормально. Проблема в том, что компании пытаются решать любые задачи одним и тем же инструментом.

Мы видели много проектов, где команды запускали GPT-4 там, где могла бы справиться простая модель, например регрессия. Из-за этого система начинала тормозить, деньги быстро уходили, а пользователи оставались недовольны. Но на совещаниях в компаниях вновь и вновь повторяли: «Но GPT ведь самая мощная модель!»

Однако в таких случаях мощность роли не играет — важно подобрать инструмент, который действительно подходит под конкретную задачу. Разбираем, почему GPT не панацея и что делать, когда универсальность становится проблемой.

Почему нет одной нейросети на все случаи

Если нужно забить гвоздь, мы берем молоток. Можно попробовать сделать это микроскопом — он тяжелый, ударить им можно. Но это все равно неправильный инструмент.

С нейросетями происходит то же самое. Существуют разные типы моделей, и каждая разрабатывалась под свой формат данных. Одни лучше работают с информацией, которая приходит по порядку, например с временными рядами. Другие эффективнее анализируют текст и большие массивы данных. Есть модели, которые специально создавали для генерации изображений.

Каждый тип модели рассчитан на свое применение, и это подтверждается математикой. Теорема No Free Lunch говорит: не существует универсального алгоритма, который справляется со всеми задачами лучше остальных. Для разных задач нужны разные подходы — и это строго доказанный факт.

Поэтому даже если модель обучена на одном типе данных, она не будет автоматически хорошо работать на другом. Например, если взять сеть, обученную на фотографиях кошек, и просто «добавить» ей медицинские снимки, результат будет слабым без тонкой настройки под особенности медицины.

На что смотреть при выборе нейросети

Обычно начинают с трех вопросов: какие данные есть, что нужно получить и сколько этих данных доступно. Тип данных — это основа выбора инструмента.

  • Если вы работаете с текстом, используйте так называемые модели-трансформеры. Это тип нейросетей, которые сегодня лежат в основе всех топовых моделей работы с текстом (и не только): GPT-4/5, Claude, BERT, LLaMA, Mistral и многих других. В 2025 году почти во всех задачах по работе с текстами лидируют BERT, GPT-4/4.1, Claude 4.5 и их разные модификации.
  • Для изображений применяйте другие решения. Для генерации картинок подходят сервисы вроде Midjourney, Nano Banana и Seedream. Для аналитики изображений в облачных сервисах используют Vision Transformers, а для мобильных приложений — компактные модели вроде MobileNet.
  • С таблицами и числовыми данными лучше всего работают алгоритмы градиентного бустинга — в первую очередь XGBoost и CatBoost.

Как нейросети напишут за вас резюме и найдут работу: 10+ инструментов
Образование
Фото:Midjourney

Объем данных тоже имеет значение. Если в распоряжении меньше 10 тыс. примеров, обучение крупных моделей вроде трансформеров с нуля неэффективно. В таком случае используют transfer learning — берут заранее обученную модель (например, BERT, Vision Transformer или MobileNet) и дообучают ее под конкретную задачу — либо выбирают более простые алгоритмы.

Почему нельзя использовать ChatGPT и аналоги под все задачи

LLM (Large Language Model) — это большая языковая модель вроде GPT-4, GPT-4.1, Claude 4.5 или Llama 3. Она обучена на огромных массивах текста и умеет писать, резюмировать, отвечать на вопросы и переводить. Но она не всегда лучший инструмент.

Главная ошибка — использовать большие языковые модели везде, где только можно. В Explosion.ai это назвали «LLM-максимализм»: компании интегрируют LLM в любые процессы. Нужно отфильтровать спам? Берут GPT-4. Сделать краткий пересказ? Снова GPT-4 или Claude 4,5. Вытащить даты из текста? Опять LLM.

Проблемы появляются сразу. Такие модели работают медленнее обычных алгоритмов, и пользователи не готовы ждать по десять секунд там, где раньше ответ занимал одну. Растут и затраты: каждая единица текста, которую обрабатывает модель (токен), стоит денег, а LLM тратит их тысячами.

Реальный пример: систему мониторинга репутации в компании (автоматически отслеживает, анализирует и оценивает, что говорят о бренде, компании или человеке в интернете) сначала построили полностью на LLM. Модель фильтровала тексты, делала краткие пересказы и вытаскивала нужные данные. Но через месяц стало ясно: это слишком медленно для работы в реальном времени, слишком дорого при увеличении объема данных и невозможно сопоставить пересказы с исходными текстами.

Решение оказалось простым. Архитектуру разделили на части: сначала работает обычный классификатор, который отсеивает шум и разбивает текст на предложения, а LLM используется только для пересказов. В результате система стала быстрее и значительно дешевле.

Когда скорость важнее мощности: какие модели ИИ использовать и зачем

Трансформеры сегодня — главный инструмент для работы с текстами. Они могут анализировать очень большие объемы информации и даже обрабатывать сразу текст, картинки и звук.

Но у них есть минус: чем длиннее текст, тем медленнее они работают. На огромных объемах данных трансформеры становятся слишком «тяжелыми», поэтому для таких задач нужны более быстрые модели.

При этом старые архитектуры — RNN и LSTM — по-прежнему полезны. Они работают быстрее, требуют меньше ресурсов и подходят для устройств, которые обрабатывают данные локально, а не в облаке. В задачах реального времени они показывают отличные результаты — например, могут точно распознавать действия человека по данным датчиков.

Диффузионные модели сильно продвинули создание изображений и медиа с помощью ИИ. Инструменты вроде Stable Diffusion, DALL-E и Midjourney создают качественные и разнообразные изображения, а также умеют работать со звуком, видео и кодом.

Однако эти модели медленные: для генерации им нужно много вычислений, поэтому они не подходят для приложений, где результат требуется мгновенно.

От данных зависит результат: как модели терпят ошибки и шум

Крупные нейросети очень чувствительны к качеству данных. Если в данных есть ошибки, неверные метки или перекос в пользу одного класса, модель будет постоянно ошибаться. Без предварительной подготовки данных — когда их очищают, выравнивают и приводят к единому формату — результаты таких моделей становятся непредсказуемыми.

ИИ не работает: какие 4 момента упускают из виду при его запуске
Образование
Фото:Midjourney

Когда мы говорим «нейросети», многие представляют себе что-то огромное и сложное. Но есть и более простые, стабильные и предсказуемые алгоритмы, которые часто дают отличный результат там, где данные «мусорные» или неполные. К таким относятся Random Forest и XGBoost.

  • Random Forest — это алгоритм, который принимает решение не одним способом, а с помощью множества маленьких моделей, каждая из которых смотрит на данные под своим углом. Затем все эти модели голосуют, и выбирается самый надежный результат. Сильная сторона: устойчив к ошибкам в данных, работает стабильно даже при шуме, пропусках и перекосах.
  • XGBoost — это алгоритм, который строит прогноз постепенно, шаг за шагом, каждый раз исправляя свои предыдущие ошибки. Он сочетает множество простых решений, которые последовательно друг друга дополняют, что делает его одним из самых точных методов анализа данных. Сильная сторона: очень хорошо работает на реальных, «неидеальных» данных и дает высокую точность.

Хороший пример провала — модели, которые пытались использовать для обнаружения COVID-19 по снимкам. Большинство таких исследований не заработали в реальности. Основные причины были простыми:

  • Смешанные неподходящие данные. Информация бралась из разных источников, иногда с пересечениями — это ломало обучение.
  • Смещение из-за оборудования. Модели распознавали не болезнь, а особенности аппаратов, на которых делали снимки.
  • Смещение условий съемки. Например, на «здоровых» фото всегда была солнечная погода, и модель училась отличать солнце, а не признаки заболевания.

Как не работать вслепую

Сначала разберитесь в задаче, а не в моделях. Когда вы понимаете, что именно нужно решить, становится ясно, какой тип модели подойдет лучше всего.

Не ограничивайтесь одним методом — протестируйте несколько моделей и сравните, какая дает лучший результат. В этом помогают специальные AutoML-инструменты — это сервисы, которые автоматически подбирают оптимальный алгоритм, настраивают его параметры и проверяют качество работы.

AutoML (автоматизированное машинное обучение) — это инструмент, который сам выбирает лучшую модель, сам ее настраивает и сам проверяет результат.

То есть вместо того, чтобы вручную:

  • подбирать алгоритм;
  • настраивать параметры;
  • пробовать разные подходы;
  • сравнивать между собой результаты.

Также есть инструменты вроде AutoGluon, FLAML или H2O, они позволяют быстро перебрать десятки вариантов моделей и выбрать ту, которая показывает наилучший результат на ваших данных, без ручной настройки и длительных экспериментов.

Смотрите не только на точность. Важно понимать:

  • насколько модель стабильна;
  • можно ли объяснить ее решения;
  • сколько стоят ее вычисления.

Иногда модель с меньшей точностью, но более быстрым откликом — лучший выбор для реальной работы.

И обязательно фиксируйте все эксперименты: какие параметры пробовали, какие результаты получили. Это позволит воспроизвести успешные решения в будущем и поможет коллегам продолжить работу без догадок.

Инструменты, которые помогут выбрать подходящую модель

  • AutoGluon (AWS) — один из самых сильных AutoML-инструментов. Он умеет работать с таблицами, текстом и изображениями, автоматически собирая несколько моделей в один сильный ансамбль. На соревнованиях по машинному обучению Kaggle он показывает результат лучше 99% участников всего за несколько часов — и без сложной подготовки данных.
  • H2O AutoML делает упор на прозрачность. Он показывает, какие факторы влияют на решение модели, и формирует понятные отчеты. Это особенно важно для отраслей, где нужно объяснять каждое решение, — например, в банках или медицине.
  • FLAML (Microsoft Research) оптимизирует работу под бюджет. Он подбирает модели так, чтобы тратить минимум вычислительных ресурсов. Хорошо работает с популярными инструментами вроде scikit-learn, XGBoost, LightGBM и трансформеров.
  • Hugging Face к 2025 году стал главным центром готовых моделей. Модель SmolVLM с 256 млн параметров требует меньше 1 Гб видеопамяти, но по качеству обходит модели, которые в сотни раз больше. Ее можно запускать даже на iPhone. Появилась библиотека LeRobot для задач робототехники. Более 10 тыс. моделей уже интегрированы с Azure AI Foundry, что облегчает разработку.
  • PyTorch Lightning сильно упростил обучение моделей на больших вычислительных мощностях. Он позволяет отлаживать работу модели в реальном времени без перезапуска, легко масштабироваться от одной видеокарты до сотен, ставить эксперименты на паузу и продолжать позже.
Авторы
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 28 января
EUR ЦБ: 90,93 (+0,65)
Инвестиции, 27 янв, 17:48
Курс доллара на 28 января
USD ЦБ: 76,55 (+0,54)
Инвестиции, 27 янв, 17:48
СК завел уголовное дело о взятках из-за ремонта вагонов Бизнес, 15:22
ЦБ заявил, что отделения «Сбера» могут обойтись без детских комнат Общество, 15:21
РКН объяснил блокировку сайта «Шикимори» детской порнографией Политика, 15:21
Когда «подушка» — это плохо: как бизнесу управлять ликвидностью #всенабиржу!, 15:20
Площадь пожара в пункте выдачи Ozon достигла 900 квадратных метров Общество, 15:17
В Подмосковье загорелась конюшня на площади 4,5 тыс. квадратных метров Общество, 15:09
Минздрав заявил о низкой популярности доставки рецептурных препаратов Бизнес, 15:05
Читайте РБК без рекламных баннеров
только с Подпиской на РБК
Скрыть баннеры
Мужчина устроил погром в музее Гоголя в Москве Общество, 15:02
В Москве из-за снега снова выросла «Миусская дюна». Фоторепортаж Общество, 14:59
Совфед упростил порядок перераспределения земельных участков Недвижимость, 14:52
Sollers начал принимать заказы на пассажирский фургон SF1 Авто, 14:46
В Москве прошла церемония прощания с Александром Олейниковым Общество, 14:46
Умер олимпийский чемпион по спортивной гимнастике Франко Меникелли Спорт, 14:44
Пользователи пожаловались на сбой в работе HeadHunter Общество, 14:42