Пошаговое руководство по созданию проекта в AikaChat.ru: выбор провайдера LLM, настройка промпта, базы знаний и рекомендации по лимитам моделей.
Проект в АйкаЧат — это бот с собственной базой знаний, промптом и настройками модели. Перед созданием важно определиться с провайдером нейросети и базовыми параметрами.
Выберите провайдера LLM при создании проекта:
Работает с ключом платформы АйкаЧат. Дополнительный ключ не нужен. Модель — GPT OSS 120B (опенсорс).
Требуется свой API‑ключ от OpenAI или доступ через прокси. Можно выбирать модели (4o, 4.1, 5.2 и т.д.).
Важно: переключить один и тот же проект с Яндекса на OpenAI или обратно нельзя. Можно только создать новый проект с другим провайдером. У провайдеров разная технология обработки текста — планируйте заранее.
Зарегистрируйтесь на AikaChat.ru и войдите в личный кабинет.
Создайте новый проект в разделе проектов. Ниже — доступные поля и как их использовать.
Задаёт роль, тон и стиль ответов (кратко или развёрнуто). Важно содержать в промпте общее описание проекта и роль ИИ-бота в нем непосредственно.
Ключ платформы — использование ключа АйкаЧат (тарификация по токенам). Доступна только модель Яндекса (GPT OSS 120B). Свой ключ — вы подставляете свой API‑ключ выбранного провайдера (Яндекс или OpenAI).
Яндекс — модель GPT OSS 120B (опенсорс).
OpenAI — линейка моделей OpenAI (gpt-4o, gpt-4.1, gpt-5 и др.). При ключе платформы доступен только Яндекс.
Рекомендуется включить: сохраняет историю диалогов в базу. Позволяет потом диагностировать и отлаживать поведение ИИ по логам (Журнал).
Контролирует случайность ответов: 0 — предсказуемые и стабильные, 1 — более разнообразные. Рекомендуется держать низкой (например 0.1–0.3) для точных ответов по документам.
Ширина выбора токенов при генерации. Рекомендуется оставить на 1.0 (не менять).
Стратегия разбиения документов на фрагменты: рекурсивный разделитель, по заголовкам Markdown или «AikaChat Markdown Splitter». Выбор зависит от формата ваших файлов (DOCX, PDF, HTML, Q&A, маркдаун).
Размер чанка — в символах (например 1500 или 4000 для крупных/структурированных текстов).
Перекрытие — сколько символов общие у соседних чанков (часто порядка 150). Соотношение размера к перекрытию ориентировочно 10:1.
Рекомендуется оставлять Similarity Search. MMR даёт больше разнообразия, но для типичного RAG обычно достаточно SS.
Минимальный скор для Similarity Search. Лучше ставить 0, чтобы не отсекать потенциально полезные чанки; при необходимости можно поднять для более строгой фильтрации.
Сколько фрагментов из векторной базы подставлять в контекст запроса. Обычно от 3 до 20 в зависимости от объёма ответа и лимитов контекста модели.
Включите, чтобы ответ ИИ приходил без разметки Markdown — обычным чистым текстом.
Позволяет ИИ комбинировать ваш контекст из базы знаний с общими знаниями модели для более полных ответов. Выключено — только ваш контекст (строже RAG).
Включает в каждый ответ URL источника контекста. Пользователи смогут проверить источник информации или перейти по ссылке за подробностями.
Если используете Намерения — добавьте JSON‑конфигурацию в соответствующем разделе и включите их перед сохранением настроек.
Протестируйте бота в Песочнице: задайте типичные вопросы, проверьте доступ к LLM и релевантность ответов из документов. В Песочнице свой промпт и настройки поиска — подстройте их под боевой сценарий.
При вопросах по созданию проекта или настройке провайдера обратитесь в поддержку.