💬 Частые вопросы
Всё что нужно знать
об API LLMCOD
Подключение, модель Llama 3.1 8B, тарифы, оплата и безопасность.
🚀 Начало работы
- Зарегистрируйтесь на llmcod.ru
- Выберите тариф и оплатите через ЮKassa
- Создайте API-ключ в личном кабинете
- Замените
base_urlнаhttps://llmcod.ru/v1в своём коде
Нет. Сервер находится в России — запросы проходят напрямую без VPN и прокси. Никаких блокировок и зарубежных задержек.
Python (OpenAI SDK):
from openai import OpenAI
client = OpenAI(
api_key="sk-ваш_ключ",
base_url="https://llmcod.ru/v1"
)
response = client.chat.completions.create(
model="meta-llama/Llama-3.1-8B-Instruct",
messages=[{"role": "user", "content": "Привет!"}]
)
print(response.choices[0].message.content)
cURL:
curl https://llmcod.ru/v1/chat/completions \
-H "Authorization: Bearer sk-ваш_ключ" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/Llama-3.1-8B-Instruct",
"messages": [{"role": "user", "content": "Привет!"}]
}'
🤖 Модель Llama 3.1 8B
Llama 3.1 8B — открытая языковая модель от Meta с 8 миллиардами параметров.
- Параметры: 8 миллиардов
- Контекстное окно: 8 192 токена (~6 страниц)
- Знания до: начало 2024
- Архитектура: Transformer, GQA + RoPE
- Дообучение: SFT + RLHF
русскийанглийскийнемецкийфранцузскийиспанский+8 языков
- 💬 Чат-боты и диалоговые ассистенты
- ✍️ Генерация и редактирование текста
- 💻 Написание и объяснение кода
- 📄 Суммаризация документов (до 8K токенов)
- 🔍 Классификация текста и анализ тональности
- 🌐 Перевод между 8 языками
- 🛠️ Tool calling / function calling
- 🤖 Генерация синтетических данных
Модель понимает русский на достаточном уровне для чатов, генерации текста и перевода. Наилучшее качество — на английском. Для критически важных задач рекомендуется тестировать перед продакшном.
Контекстное окно — максимальный объём текста за один запрос: промпт + история + ответ.
8 192 токена ≈
8 192 токена ≈
- ~6 000 слов на русском
- ~6 страниц документа
- ~15 минут транскрипта разговора
🔌 API и интеграция
Да, полностью. Поддерживается
/v1/chat/completions, стриминг, системные промпты и параметры temperature, max_tokens, top_p. Меняете только api_key и base_url.
Да. Передайте
"stream": true — модель отдаёт ответ по токену в режиме SSE. Идеально для чат-интерфейсов с живым печатанием.
Создайте в личном кабинете отдельный API-ключ для каждого проекта:
- Раздельный учёт расхода токенов
- Отзыв ключа одного проекта без влияния на остальные
- Безопасная передача ключа команде
💳 Тарифы и оплата
Оплата через ЮKassa в рублях: СБП, Visa, МИР, Mastercard, SberPay. Иностранные карты и криптовалюта не поддерживаются.
Нет. Никаких автосписаний. Платите только когда сами решаете пополнить баланс.
Да — каждый новый пользователь получает 100 000 токенов бесплатно автоматически.
Как получить:
Как получить:
- Зарегистрируйтесь на llmcod.ru
- Подтвердите email — перейдите по ссылке из письма
- 100 000 токенов зачислятся на счёт автоматически
Без карты, без заявок, без ожидания. Токены можно сразу использовать через API.
Входящие (промпт) и исходящие (ответ) токены считаются по единой цене — никаких коэффициентов.
Ориентир: 1 токен ≈ 4 символа на английском, ≈ 2–3 символа на русском.
Ориентир: 1 токен ≈ 4 символа на английском, ≈ 2–3 символа на русском.
Разовые пакеты не сгорают — расходуются по мере использования. Месячные подписки дают суточный лимит в течение оплаченного периода.
⚡ Производительность и инфраструктура
- GPU: NVIDIA Tesla V100 32GB
- Инференс: vLLM — движок с непрерывным батчингом запросов
- Uptime: 99.9%
Серверы расположены в России:
- Запросы не покидают российскую юрисдикцию
- Нет санкционных рисков
- Минимальная задержка для России и СНГ
- Оплата в рублях без конвертации
🔐 Безопасность и конфиденциальность
Нет. Запросы не используются для дообучения модели. Подробнее — в Политике конфиденциальности.
- Не публикуйте ключ в открытом коде (GitHub и т.д.)
- Храните в переменных окружения (
.env) - Отдельный ключ на каждый проект
- При утечке — немедленно отзовите ключ в личном кабинете