💬 Частые вопросы

Всё что нужно знать
об API LLMCOD

Подключение, модель Llama 3.1 8B, тарифы, оплата и безопасность.

  1. Зарегистрируйтесь на llmcod.ru
  2. Выберите тариф и оплатите через ЮKassa
  3. Создайте API-ключ в личном кабинете
  4. Замените base_url на https://llmcod.ru/v1 в своём коде
Если вы уже используете OpenAI SDK — больше ничего менять не нужно.
Нет. Сервер находится в России — запросы проходят напрямую без VPN и прокси. Никаких блокировок и зарубежных задержек.
Python (OpenAI SDK):
from openai import OpenAI

client = OpenAI(
    api_key="sk-ваш_ключ",
    base_url="https://llmcod.ru/v1"
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "Привет!"}]
)
print(response.choices[0].message.content)
cURL:
curl https://llmcod.ru/v1/chat/completions \
  -H "Authorization: Bearer sk-ваш_ключ" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "meta-llama/Llama-3.1-8B-Instruct",
    "messages": [{"role": "user", "content": "Привет!"}]
  }'
Llama 3.1 8B — открытая языковая модель от Meta с 8 миллиардами параметров.
  • Параметры: 8 миллиардов
  • Контекстное окно: 8 192 токена (~6 страниц)
  • Знания до: начало 2024
  • Архитектура: Transformer, GQA + RoPE
  • Дообучение: SFT + RLHF
русскийанглийскийнемецкийфранцузскийиспанский+8 языков
  • 💬 Чат-боты и диалоговые ассистенты
  • ✍️ Генерация и редактирование текста
  • 💻 Написание и объяснение кода
  • 📄 Суммаризация документов (до 8K токенов)
  • 🔍 Классификация текста и анализ тональности
  • 🌐 Перевод между 8 языками
  • 🛠️ Tool calling / function calling
  • 🤖 Генерация синтетических данных
Модель не работает с изображениями — только текст.
Модель понимает русский на достаточном уровне для чатов, генерации текста и перевода. Наилучшее качество — на английском. Для критически важных задач рекомендуется тестировать перед продакшном.
Контекстное окно — максимальный объём текста за один запрос: промпт + история + ответ.

8 192 токена ≈
  • ~6 000 слов на русском
  • ~6 страниц документа
  • ~15 минут транскрипта разговора
Подходит для чатов, генерации кода, небольших документов и суммаризации.
Да, полностью. Поддерживается /v1/chat/completions, стриминг, системные промпты и параметры temperature, max_tokens, top_p. Меняете только api_key и base_url.
Да. Передайте "stream": true — модель отдаёт ответ по токену в режиме SSE. Идеально для чат-интерфейсов с живым печатанием.
Создайте в личном кабинете отдельный API-ключ для каждого проекта:
  • Раздельный учёт расхода токенов
  • Отзыв ключа одного проекта без влияния на остальные
  • Безопасная передача ключа команде
Оплата через ЮKassa в рублях: СБП, Visa, МИР, Mastercard, SberPay. Иностранные карты и криптовалюта не поддерживаются.
Нет. Никаких автосписаний. Платите только когда сами решаете пополнить баланс.
Да — каждый новый пользователь получает 100 000 токенов бесплатно автоматически.

Как получить:
  1. Зарегистрируйтесь на llmcod.ru
  2. Подтвердите email — перейдите по ссылке из письма
  3. 100 000 токенов зачислятся на счёт автоматически
Без карты, без заявок, без ожидания. Токены можно сразу использовать через API.
Входящие (промпт) и исходящие (ответ) токены считаются по единой цене — никаких коэффициентов.

Ориентир: 1 токен ≈ 4 символа на английском, ≈ 2–3 символа на русском.
Разовые пакеты не сгорают — расходуются по мере использования. Месячные подписки дают суточный лимит в течение оплаченного периода.
  • GPU: NVIDIA Tesla V100 32GB
  • Инференс: vLLM — движок с непрерывным батчингом запросов
  • Uptime: 99.9%
Tesla V100 32GB полностью вмещает Llama 3.1 8B в VRAM — быстрый отклик без оффлоадинга на CPU.
Серверы расположены в России:
  • Запросы не покидают российскую юрисдикцию
  • Нет санкционных рисков
  • Минимальная задержка для России и СНГ
  • Оплата в рублях без конвертации
Нет. Запросы не используются для дообучения модели. Подробнее — в Политике конфиденциальности.
  • Не публикуйте ключ в открытом коде (GitHub и т.д.)
  • Храните в переменных окружения (.env)
  • Отдельный ключ на каждый проект
  • При утечке — немедленно отзовите ключ в личном кабинете

Остались вопросы?

Напишите нам в мессенджере МАХ — ответим быстро.

Написать в МАХ