Open-source платформа для проведения интервью с AI-ассистентом. Разворачивается локально — данные компании никуда не уходят.
HR-скрининг и технические интервью — это больная точка. Интервьюеры задают шаблонные вопросы, не всегда понимают что спрашивают, и субъективно оценивают ответы. Interwiews решает это:
- Создаёшь план интервью — набор вопросов под конкретную роль или задачу
- Кандидат отвечает голосом — запись транскрибируется через Whisper
- AI анализирует ответ — оценка по заданным критериям, сильные/слабые стороны, рекомендация
- Подключаешь свой AI — OpenAI, Anthropic или локальная модель через Ollama
Подходит не только для найма — любые структурированные опросы, оценка знаний, исследования.
- Планы интервью с кастомными вопросами (behavioral / technical / custom)
- Запись и транскрипция ответов (Whisper)
- AI-анализ каждого ответа с оценкой и критериями
- Настраиваемые критерии оценки
- Любой AI-провайдер через одну переменную окружения
- Полностью self-hosted — данные остаются у вас
git clone <repo>
cd interwiews
cp .env.example .env # заполни переменные
docker-compose upОткрой http://localhost в браузере.
Переключение через переменные окружения:
# OpenAI (Whisper + GPT)
AI_PROVIDER=openai
AI_API_KEY=sk-...
# Anthropic (Claude)
AI_PROVIDER=anthropic
AI_API_KEY=sk-ant-...
# Локально через Ollama (данные не покидают сервер)
AI_PROVIDER=ollama
AI_BASE_URL=http://localhost:11434
AI_MODEL=llama3Транскрипция (Whisper) поддерживается через AI_PROVIDER=openai. При использовании Anthropic или Ollama транскрипция требует отдельного сервиса.
- Backend — FastAPI, SQLAlchemy, Alembic, asyncpg
- Frontend — React, Vite, TypeScript, shadcn/ui
- Инфраструктура — Docker, PostgreSQL
interwiews/
├── backend/
│ ├── interwiews/
│ │ ├── providers/ # AI провайдеры (openai / anthropic / ollama)
│ │ ├── domain/ # бизнес-логика
│ │ ├── routers/ # API endpoints
│ │ └── infrastructure/ # БД, репозитории
│ └── migrations/
├── frontend/
└── docker-compose.ymlcp .env.example .env
# заполни AI_API_KEY и при необходимости остальные параметрыЗапустить PostgreSQL в Docker (данные сохраняются между перезапусками):
cd backend
task postgres:up:volumeПрименить миграции и загрузить начальные данные:
task alembic:migrate
task seed:loadОстановить БД:
task postgres:stopУстановить зависимости (один раз):
cd backend
task uv:install:allЗапустить в режиме разработки (с hot-reload):
cd backend
task startЗапустить в продакшн-режиме (uvicorn, 4 воркера):
cd backend
source .env
uv run gunicorn --bind $HOST:$PORT "$APP_MODULE" -k uvicorn.workers.UvicornWorker -w 4API будет доступно по адресу http://localhost:8000.
cd frontend
npm install
npm run devФронт поднимается на http://localhost:3000 по умолчанию. Для другого порта:
npm run dev -- -p 3001MIT — форкай, деплой, адаптируй под свои нужды.
Resume this session with: claude --resume 03f5be9e-6615-4dbc-a789-62a9105fb22b