Концепции

Токены (Tokens)

Единицы текста, которые обрабатывает AI

Токены — минимальные единицы текста для языковых моделей. Это могут быть слова, части слов или отдельные символы.

Соотношение токенов к тексту:

  • Английский: ~4 символа = 1 токен
  • Русский: ~1.5 символа = 1 токен
  • Код: зависит от языка

Почему токены важны:

  • Стоимость API — оплата за токены
  • Лимит контекста — максимум токенов в диалоге
  • Скорость — больше токенов = дольше генерация

Пример: "Hello, world!" ≈ 4 токена "Привет, мир!" ≈ 6-8 токенов (кириллица менее эффективна)

Примеры использования

  • GPT-4 API: $0.03 за 1K входящих токенов
  • Claude имеет контекст 200K токенов

Связанные термины