feat: Add review events persistence, version display, and auto-versioning system
This commit is contained in:
@@ -0,0 +1,152 @@
|
||||
# 🤖 Проблема с CodeLlama
|
||||
|
||||
## ❌ Что не так
|
||||
|
||||
`codellama:7b` отвечает **текстом вместо JSON**:
|
||||
|
||||
```
|
||||
Thank you for the detailed analysis...
|
||||
```
|
||||
|
||||
Вместо:
|
||||
```json
|
||||
{"comments": [{"line": 58, "severity": "ERROR", ...}]}
|
||||
```
|
||||
|
||||
## 🎯 Решение: Смените модель!
|
||||
|
||||
### Рекомендуемые модели для code review:
|
||||
|
||||
#### 1. **Mistral 7B** ⭐⭐⭐⭐⭐ (ЛУЧШИЙ ВЫБОР)
|
||||
```bash
|
||||
ollama pull mistral:7b
|
||||
```
|
||||
|
||||
**Почему Mistral:**
|
||||
- ✅ Отлично следует инструкциям
|
||||
- ✅ Хорошо понимает код
|
||||
- ✅ Быстрая (~4GB RAM)
|
||||
- ✅ Правильно форматирует JSON
|
||||
- ✅ Находит реальные проблемы
|
||||
|
||||
#### 2. **Llama 3 8B** ⭐⭐⭐⭐⭐ (САМАЯ УМНАЯ)
|
||||
```bash
|
||||
ollama pull llama3:8b
|
||||
```
|
||||
|
||||
**Почему Llama 3:**
|
||||
- ✅ Самая умная модель
|
||||
- ✅ Лучший анализ кода
|
||||
- ✅ Находит сложные проблемы
|
||||
- ⚠️ Требует ~5GB RAM
|
||||
- ✅ Отличный JSON output
|
||||
|
||||
#### 3. **DeepSeek Coder 6.7B** ⭐⭐⭐⭐ (ДЛЯ КОДА)
|
||||
```bash
|
||||
ollama pull deepseek-coder:6.7b
|
||||
```
|
||||
|
||||
**Почему DeepSeek:**
|
||||
- ✅ Специально для кода
|
||||
- ✅ Понимает много языков
|
||||
- ✅ Хороший JSON
|
||||
- ⚠️ Менее строгая
|
||||
|
||||
## 📝 Как сменить модель
|
||||
|
||||
### Шаг 1: Скачайте модель
|
||||
```bash
|
||||
ollama pull mistral:7b
|
||||
```
|
||||
|
||||
### Шаг 2: Обновите .env
|
||||
```bash
|
||||
# backend/.env
|
||||
OLLAMA_MODEL=mistral:7b
|
||||
```
|
||||
|
||||
### Шаг 3: Перезапустите backend
|
||||
```bash
|
||||
# Остановите: Ctrl+C
|
||||
# Запустите снова:
|
||||
cd backend
|
||||
source venv/Scripts/activate
|
||||
python -m uvicorn app.main:app --reload --host 0.0.0.0 --port 8000
|
||||
```
|
||||
|
||||
### Шаг 4: Попробуйте снова
|
||||
- Откройте http://localhost:5173
|
||||
- Нажмите **🔄 Повторить ревью**
|
||||
- Теперь должно работать!
|
||||
|
||||
## 📊 Сравнение моделей
|
||||
|
||||
| Модель | Для review | JSON | Скорость | RAM | Рейтинг |
|
||||
|--------|-----------|------|----------|-----|---------|
|
||||
| **mistral:7b** | ✅✅✅✅✅ | ✅✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐⭐ |
|
||||
| **llama3:8b** | ✅✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡ | 5GB | ⭐⭐⭐⭐⭐ |
|
||||
| **deepseek-coder** | ✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐ |
|
||||
| codellama:7b | ✅✅ | ❌ | ⚡⚡⚡⚡ | 4GB | ⭐⭐ |
|
||||
|
||||
## 🎯 Мой совет
|
||||
|
||||
### Для большинства:
|
||||
```bash
|
||||
ollama pull mistral:7b
|
||||
```
|
||||
|
||||
### Если хочется самого лучшего:
|
||||
```bash
|
||||
ollama pull llama3:8b
|
||||
```
|
||||
|
||||
### Если мало RAM:
|
||||
```bash
|
||||
ollama pull deepseek-coder:6.7b
|
||||
```
|
||||
|
||||
## ✅ Результат после смены
|
||||
|
||||
**До (codellama):**
|
||||
```
|
||||
🤖 ОТВЕТ AI:
|
||||
Thank you for the detailed analysis...
|
||||
⚠️ Комментариев не найдено!
|
||||
```
|
||||
|
||||
**После (mistral):**
|
||||
```
|
||||
🤖 ОТВЕТ AI:
|
||||
{"comments": [
|
||||
{"line": 58, "severity": "ERROR", "message": "Опечатка..."},
|
||||
{"line": 108, "severity": "ERROR", "message": "Незакрытая скобка..."}
|
||||
]}
|
||||
✅ Найдено комментариев: 2
|
||||
```
|
||||
|
||||
## 🚀 Быстрый старт
|
||||
|
||||
```bash
|
||||
# 1. Скачайте Mistral
|
||||
ollama pull mistral:7b
|
||||
|
||||
# 2. Обновите конфиг
|
||||
echo "OLLAMA_MODEL=mistral:7b" >> backend/.env
|
||||
|
||||
# 3. Перезапустите
|
||||
# Ctrl+C в терминале backend
|
||||
# Затем снова запустите backend
|
||||
|
||||
# 4. Попробуйте ревью!
|
||||
```
|
||||
|
||||
## 🎉 После смены модели
|
||||
|
||||
Агент будет:
|
||||
- ✅ Находить реальные проблемы
|
||||
- ✅ Отвечать правильным JSON
|
||||
- ✅ Комментировать код правильно
|
||||
- ✅ Работать стабильно
|
||||
|
||||
**CodeLlama предназначена для ГЕНЕРАЦИИ кода, а не для РЕВЬЮ!**
|
||||
|
||||
Reference in New Issue
Block a user