Блог контент-маркетолога Марии Лютой

Почему ИИ ошибается с количеством символов и как это исправить?

Задаёшь искусственному интеллекту чёткое ТЗ — и начинаются сюрпризы. Попросишь заголовок до 75 символов — получаешь 120. Нужна статья на 4000 знаков— текст вдвое короче, словно модель прошла курс «Пиши, сокращай». В SMM такие промахи особенно болезненны: не уложился — часть текста просто обрежется.

Почему так происходит? Неужели современные языковые модели считают хуже, чем старые советские калькуляторы? Я задала этот вопрос трём популярным ИИ — ChatGPT, DeepSeek и Grok. Вот что они ответили.

Почему ИИ путается в длине текста

Всё дело в том, как языковые модели воспринимают текст. Они работают не с символами, а с токенами — это такие фрагменты, которые могут включать буквы, знаки препинания или даже части слов. Из-за этого реальные размеры текста часто не совпадают с вашими ожиданиями. В русском языке с его длинными словами и сложной грамматикой проблема особенно заметна.

Допустим, вам нужен заголовок «Тренды SMM 2025» — всего 15 символов. А ИИ выдаёт: «Тренды SMM в 2025 году: что ждёт рынок» — уже 38 символов. Почему? Потому что для модели такой заголовок кажется логичнее, и она не зацикливается на длине, если её об этом прямо не попросить.

Кроме того, модели не умеют считать символы на лету. Они генерируют текст последовательно и не проверяют его длину автоматически. Если не дать чёткую команду, отклонения неизбежны.
Итак, это был короткий ответ. А для тех, кто любит погружаться в детали, у меня есть развёрнутый и подробный вариант со всеми нюансами!

Основные причины, по которым языковые модели ошибаются при подсчёте символов

  1. Токенизация вместо символов. Модели работают с токенами (фрагментами текста), а не с отдельными символами. Cлово «привет» для ИИ — это один токен, а не 6 символов. «Контент» — два токена, а «AI» — один. Это приводит к расхождениям при попытке уложиться в ограничения по символам.
  2. Оценка длины «на глаз». Модели не имеют встроенного счётчика символов и оценивают длину текста приблизительно, основываясь на внутренней логике (например, 1 токен ≈ 4-5 символов для английского текста и чуть меньше для кириллицы). Такая оценка часто оказывается неточной.
  3. Отсутствие обратной проверки. После генерации текста модель не проверяет, соответствует ли он заданному лимиту символов. Она выдаёт результат, который кажется ей подходящим, но без точного подсчёта.
  4. Разница в языках. Кириллица может влиять на токенизацию: длинные слова и сложные конструкции в русском языке разбиваются на токены иначе, чем в английском. Это сбивает внутренние оценки длины, особенно если модель изначально лучше откалибрована под латиницу.
  5. Приоритет содержания над формой. Модели оптимизированы для генерации осмысленного текста, а не для строгого соблюдения формальных ограничений. Если требование по объёму вступает в противоречие с ясностью или логикой текста, модель отдаст приоритет смыслу.
  6. Неоднозначная интерпретация инструкций. Модель может воспринимать ограничение как рекомендацию, а не жёсткое требование. Например, если вы просите заголовок до 75 символов, модель может создать более длинный вариант, если «считает», что он звучит убедительнее.
  7. Природа генерации текста. Модели генерируют текст последовательно, предсказывая следующее слово или символ на основе контекста. У них нет встроенного механизма для точного подсчёта символов или слов в реальном времени.
  8. Ограничения в обучении. Модели обучаются на огромных объёмах текстов, но в процессе обучения им не ставят задачи точно соблюдать ограничения по длине. Они учатся генерировать естественный текст, а не строго соответствовать конкретным требованиям по объёму.
  9. Различия в подсчёте символов. Расхождения могут возникать из-за различий в том, как подсчитываются символы (например, с пробелами или без, с учётом знаков препинания и т. д.).

Как получить текст нужной длины?

Собрала для вас рекомендации на основе ответов всех трёх моделей: ChatGPT, DeepSeek и Grok.

1. Формулируйте запросы чётко и конкретно

Вместо «Заголовок до 75 символов» пишите: «Создай заголовок до 75 символов с пробелами и уточни длину». Чем детальнее инструкция, тем точнее результат.

2. Работайте поэтапно

Делите задачу на шаги:
  1. «Напиши пост до 2000 символов».
  2. «Проверь количество знаков».
  3. «Добавь деталей до 2000, если нужно».
Это снижает вероятность ошибки!

3. Используйте итерации

Если текст не соответствует требованиям, уточняйте:
  • «Сократи до 75 символов, сохранив суть».
  • «Добавь информации до 4000 знаков».

4. Разбивайте задачи

  • Сначала запросите текст, затем — проверку длины.
  • Если результат не совпадает с ТЗ, попросите доработку.

5. Контролируйте результат вручную

  • Перепроверяйте текст внешними инструментами (текстовые редакторы, сервисы подсчёта).
  • Попросите модель пересчитать: «Сколько символов в тексте с пробелами?»

6. Уточняйте формат подсчёта

Чётко обозначайте требования:
  • «Лид для статьи до 300 знаков с пробелами».
  • «Описание для Instagram — максимум 150 символов».

7. Учитывайте особенности платформы

Подстраивайте запрос под формат:
  • «Текст для тизера — до 90 символов».
  • «Описание товара — до 1000 знаков с пробелами».

ИИ не идеален, но управляем!

Да, языковые модели часто ошибаются в подсчёте символов — из-за токенизации, приоритета смысла и отсутствия встроенного контроля длины. Однако чёткие инструкции, поэтапная работа и проверка результата помогают получить текст нужного объёма. И даже если приходится пересчитывать символы и несколько раз дорабатывать текст, это всё равно экономит время — быстрее и проще, чем писать с нуля.
Хотите разобраться, как использовать ИИ для создания контента?
Пишите в Telegram / WhatsApp / e-mail — помогу!