feat: Add review events persistence, version display, and auto-versioning system

This commit is contained in:
Primakov Alexandr Alexandrovich
2025-10-13 14:18:37 +03:00
parent cfba28f913
commit 2db1225618
56 changed files with 750 additions and 436 deletions
+152
View File
@@ -0,0 +1,152 @@
# 🤖 Проблема с CodeLlama
## ❌ Что не так
`codellama:7b` отвечает **текстом вместо JSON**:
```
Thank you for the detailed analysis...
```
Вместо:
```json
{"comments": [{"line": 58, "severity": "ERROR", ...}]}
```
## 🎯 Решение: Смените модель!
### Рекомендуемые модели для code review:
#### 1. **Mistral 7B** ⭐⭐⭐⭐⭐ (ЛУЧШИЙ ВЫБОР)
```bash
ollama pull mistral:7b
```
**Почему Mistral:**
- ✅ Отлично следует инструкциям
- ✅ Хорошо понимает код
- ✅ Быстрая (~4GB RAM)
- ✅ Правильно форматирует JSON
- ✅ Находит реальные проблемы
#### 2. **Llama 3 8B** ⭐⭐⭐⭐⭐ (САМАЯ УМНАЯ)
```bash
ollama pull llama3:8b
```
**Почему Llama 3:**
- ✅ Самая умная модель
- ✅ Лучший анализ кода
- ✅ Находит сложные проблемы
- ⚠️ Требует ~5GB RAM
- ✅ Отличный JSON output
#### 3. **DeepSeek Coder 6.7B** ⭐⭐⭐⭐ (ДЛЯ КОДА)
```bash
ollama pull deepseek-coder:6.7b
```
**Почему DeepSeek:**
- ✅ Специально для кода
- ✅ Понимает много языков
- ✅ Хороший JSON
- ⚠️ Менее строгая
## 📝 Как сменить модель
### Шаг 1: Скачайте модель
```bash
ollama pull mistral:7b
```
### Шаг 2: Обновите .env
```bash
# backend/.env
OLLAMA_MODEL=mistral:7b
```
### Шаг 3: Перезапустите backend
```bash
# Остановите: Ctrl+C
# Запустите снова:
cd backend
source venv/Scripts/activate
python -m uvicorn app.main:app --reload --host 0.0.0.0 --port 8000
```
### Шаг 4: Попробуйте снова
- Откройте http://localhost:5173
- Нажмите **🔄 Повторить ревью**
- Теперь должно работать!
## 📊 Сравнение моделей
| Модель | Для review | JSON | Скорость | RAM | Рейтинг |
|--------|-----------|------|----------|-----|---------|
| **mistral:7b** | ✅✅✅✅✅ | ✅✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐⭐ |
| **llama3:8b** | ✅✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡ | 5GB | ⭐⭐⭐⭐⭐ |
| **deepseek-coder** | ✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐ |
| codellama:7b | ✅✅ | ❌ | ⚡⚡⚡⚡ | 4GB | ⭐⭐ |
## 🎯 Мой совет
### Для большинства:
```bash
ollama pull mistral:7b
```
### Если хочется самого лучшего:
```bash
ollama pull llama3:8b
```
### Если мало RAM:
```bash
ollama pull deepseek-coder:6.7b
```
## ✅ Результат после смены
**До (codellama):**
```
🤖 ОТВЕТ AI:
Thank you for the detailed analysis...
⚠️ Комментариев не найдено!
```
**После (mistral):**
```
🤖 ОТВЕТ AI:
{"comments": [
{"line": 58, "severity": "ERROR", "message": "Опечатка..."},
{"line": 108, "severity": "ERROR", "message": "Незакрытая скобка..."}
]}
✅ Найдено комментариев: 2
```
## 🚀 Быстрый старт
```bash
# 1. Скачайте Mistral
ollama pull mistral:7b
# 2. Обновите конфиг
echo "OLLAMA_MODEL=mistral:7b" >> backend/.env
# 3. Перезапустите
# Ctrl+C в терминале backend
# Затем снова запустите backend
# 4. Попробуйте ревью!
```
## 🎉 После смены модели
Агент будет:
- ✅ Находить реальные проблемы
- ✅ Отвечать правильным JSON
- ✅ Комментировать код правильно
- ✅ Работать стабильно
**CodeLlama предназначена для ГЕНЕРАЦИИ кода, а не для РЕВЬЮ!**