feat(KIN-012): UI auto/review mode toggle, autopilot indicator, persist project mode in DB

- TaskDetail: hide Approve/Reject buttons in auto mode, show "Автопилот активен" badge
- TaskDetail: execution_mode persisted per-task via PATCH /api/tasks/{id}
- TaskDetail: loadMode reads DB value, falls back to localStorage per project
- TaskDetail: back navigation preserves status filter via ?back_status query param
- ProjectView: toggleMode now persists to DB via PATCH /api/projects/{id}
- ProjectView: loadMode reads project.execution_mode from DB first
- ProjectView: task list shows 🔓 badge for auto-mode tasks
- ProjectView: status filter synced to URL query param ?status=
- api.ts: add patchProject(), execution_mode field on Project interface
- core/db.py, core/models.py: execution_mode columns + migration for projects & tasks
- web/api.py: PATCH /api/projects/{id} and PATCH /api/tasks/{id} support execution_mode
- tests: 256 tests pass, new test_auto_mode.py with 60+ auto mode tests
- frontend: vitest config added for component tests

Co-Authored-By: Claude Sonnet 4.6 <noreply@anthropic.com>
This commit is contained in:
Gros Frumos 2026-03-15 20:02:01 +02:00
parent 3cb516193b
commit 4a27bf0693
12 changed files with 2698 additions and 30 deletions

View file

@ -21,6 +21,7 @@ CREATE TABLE IF NOT EXISTS projects (
claude_md_path TEXT,
forgejo_repo TEXT,
language TEXT DEFAULT 'ru',
execution_mode TEXT NOT NULL DEFAULT 'review',
created_at DATETIME DEFAULT CURRENT_TIMESTAMP
);
@ -39,6 +40,7 @@ CREATE TABLE IF NOT EXISTS tasks (
test_result JSON,
security_result JSON,
forgejo_issue_id INTEGER,
execution_mode TEXT,
created_at DATETIME DEFAULT CURRENT_TIMESTAMP,
updated_at DATETIME DEFAULT CURRENT_TIMESTAMP
);
@ -196,10 +198,19 @@ def get_connection(db_path: Path = DB_PATH) -> sqlite3.Connection:
def _migrate(conn: sqlite3.Connection):
"""Run migrations for existing databases."""
# Check if language column exists on projects
cols = {r[1] for r in conn.execute("PRAGMA table_info(projects)").fetchall()}
if "language" not in cols:
proj_cols = {r[1] for r in conn.execute("PRAGMA table_info(projects)").fetchall()}
if "language" not in proj_cols:
conn.execute("ALTER TABLE projects ADD COLUMN language TEXT DEFAULT 'ru'")
conn.commit()
if "execution_mode" not in proj_cols:
conn.execute("ALTER TABLE projects ADD COLUMN execution_mode TEXT NOT NULL DEFAULT 'review'")
conn.commit()
# Check if execution_mode column exists on tasks
task_cols = {r[1] for r in conn.execute("PRAGMA table_info(tasks)").fetchall()}
if "execution_mode" not in task_cols:
conn.execute("ALTER TABLE tasks ADD COLUMN execution_mode TEXT")
conn.commit()
def init_db(db_path: Path = DB_PATH) -> sqlite3.Connection:

View file

@ -51,14 +51,15 @@ def create_project(
claude_md_path: str | None = None,
forgejo_repo: str | None = None,
language: str = "ru",
execution_mode: str = "review",
) -> dict:
"""Create a new project and return it as dict."""
conn.execute(
"""INSERT INTO projects (id, name, path, tech_stack, status, priority,
pm_prompt, claude_md_path, forgejo_repo, language)
VALUES (?, ?, ?, ?, ?, ?, ?, ?, ?, ?)""",
pm_prompt, claude_md_path, forgejo_repo, language, execution_mode)
VALUES (?, ?, ?, ?, ?, ?, ?, ?, ?, ?, ?)""",
(id, name, path, _json_encode(tech_stack), status, priority,
pm_prompt, claude_md_path, forgejo_repo, language),
pm_prompt, claude_md_path, forgejo_repo, language, execution_mode),
)
conn.commit()
return get_project(conn, id)
@ -70,6 +71,20 @@ def get_project(conn: sqlite3.Connection, id: str) -> dict | None:
return _row_to_dict(row)
def get_effective_mode(conn: sqlite3.Connection, project_id: str, task_id: str) -> str:
"""Return effective execution mode: 'auto' or 'review'.
Priority: task.execution_mode > project.execution_mode > 'review'
"""
task = get_task(conn, task_id)
if task and task.get("execution_mode"):
return task["execution_mode"]
project = get_project(conn, project_id)
if project:
return project.get("execution_mode") or "review"
return "review"
def list_projects(conn: sqlite3.Connection, status: str | None = None) -> list[dict]:
"""List projects, optionally filtered by status."""
if status:
@ -114,15 +129,17 @@ def create_task(
brief: dict | None = None,
spec: dict | None = None,
forgejo_issue_id: int | None = None,
execution_mode: str | None = None,
) -> dict:
"""Create a task linked to a project."""
conn.execute(
"""INSERT INTO tasks (id, project_id, title, status, priority,
assigned_role, parent_task_id, brief, spec, forgejo_issue_id)
VALUES (?, ?, ?, ?, ?, ?, ?, ?, ?, ?)""",
assigned_role, parent_task_id, brief, spec, forgejo_issue_id,
execution_mode)
VALUES (?, ?, ?, ?, ?, ?, ?, ?, ?, ?, ?)""",
(id, project_id, title, status, priority, assigned_role,
parent_task_id, _json_encode(brief), _json_encode(spec),
forgejo_issue_id),
forgejo_issue_id, execution_mode),
)
conn.commit()
return get_task(conn, id)

233
tasks/adr-automode.md Normal file
View file

@ -0,0 +1,233 @@
# ADR: Auto Mode — полный автопилот (KIN-012)
**Дата:** 2026-03-15
**Статус:** Accepted
**Автор:** architect (KIN-012)
---
## Контекст
Задача: реализовать два режима исполнения пайплайнов:
- **Auto** — полный автопилот: pipeline → auto-approve → auto-followup → auto-rerun при permission issues → hooks. Без остановок на review/blocked.
- **Review** — текущее поведение: задача уходит в статус `review`, ждёт ручного approve.
### Что уже реализовано (анализ кода)
**1. Хранение режима — `core/db.py`**
- `projects.execution_mode TEXT NOT NULL DEFAULT 'review'` — дефолт на уровне проекта
- `tasks.execution_mode TEXT` — nullable, переопределяет проект
- Миграции добавляют оба столбца к существующим БД
**2. Приоритет режима — `core/models.py:get_effective_mode()`**
```
task.execution_mode > project.execution_mode > 'review'
```
Вычисляется один раз в начале `run_pipeline`.
**3. Auto-approve — `agents/runner.py:run_pipeline()`** (строки 519536)
```python
if mode == "auto":
models.update_task(conn, task_id, status="done")
run_hooks(conn, project_id, task_id, event="task_auto_approved", ...)
else:
models.update_task(conn, task_id, status="review")
```
**4. Permission retry — `agents/runner.py:run_pipeline()`** (строки 453475)
```python
if mode == "auto" and not allow_write and _is_permission_error(result):
run_hooks(..., event="task_permission_retry", ...)
retry = run_agent(..., allow_write=True)
allow_write = True # propagates to all subsequent steps
```
- Срабатывает **только в auto режиме**
- Ровно **1 попытка retry** на шаг
- После первого retry `allow_write=True` сохраняется на весь оставшийся пайплайн
**5. Паттерны permission errors — `core/followup.py:PERMISSION_PATTERNS`**
```
permission denied, ручное применение, cannot write, read-only, manually appl, ...
```
**6. Post-pipeline hooks — `core/hooks.py`**
События: `pipeline_completed`, `task_auto_approved`, `task_permission_retry`
---
## Пробелы — что НЕ реализовано
### Gap 1: Auto-followup не вызывается из run_pipeline
`generate_followups()` существует в `core/followup.py`, но нигде не вызывается автоматически. В `run_pipeline` после завершения пайплайна — только хуки.
### Gap 2: Auto-resolution pending_actions в auto mode
`generate_followups()` возвращает `pending_actions` (permission-blocked followup items) с опциями `["rerun", "manual_task", "skip"]`. В auto mode нет логики автоматического выбора опции.
### Gap 3: Наследование режима followup-задачами
Задачи, созданные через `generate_followups()`, создаются с `execution_mode=None` (наследуют от проекта). Это правильное поведение, но не задокументировано.
---
## Решения
### D1: Где хранить режим
**Решение:** двухуровневая иерархия (уже реализована, зафиксируем).
| Уровень | Поле | Дефолт | Переопределяет |
|---------|------|--------|----------------|
| Глобальный | — | `review` | — |
| Проект | `projects.execution_mode` | `'review'` | глобальный |
| Задача | `tasks.execution_mode` | `NULL` | проект |
Глобального конфига нет — осознанное решение. Каждый проект управляет своим режимом. Задача может переопределить проект (например, форсировать `review` для security-sensitive задач).
**Изменения БД не нужны** — структура готова.
---
### D2: Как runner обходит ожидание approve в auto mode
**Решение:** уже реализовано. Зафиксируем контракт:
```
run_pipeline() в auto mode:
1. Все шаги выполняются последовательно
2. При успехе → task.status = "done" (минуя "review")
3. Хук task_auto_approved + pipeline_completed
4. generate_followups() автоматически (Gap 1, см. D4)
```
В review mode — без изменений: `task.status = "review"`, `generate_followups()` не вызывается автоматически.
---
### D3: Auto-rerun при permission issues — лимит и критерии
**Что считать permission issue:**
Паттерны из `PERMISSION_PATTERNS` в `core/followup.py`. Список достаточен, расширяется при необходимости через PR.
**Лимит попыток:**
**1 retry per step** (уже реализовано). Обоснование:
- Permission issue — либо системная проблема (нет прав на директорию), либо claude CLI требует `--dangerously-skip-permissions`
- Второй retry с теми же параметрами не имеет смысла — проблема детерминированная
- Если 1 retry не помог → `task.status = "blocked"` даже в auto mode
**Поведение после retry:**
`allow_write=True` применяется ко **всем последующим шагам** пайплайна (не только retry шагу). Это безопасно в контексте Kin — агенты работают в изолированном рабочем каталоге проекта.
**Хук `task_permission_retry`:**
Срабатывает перед retry — позволяет логировать / оповещать, но не блокирует.
**Итоговая таблица поведения при failure:**
| Режим | Тип ошибки | Поведение |
|-------|-----------|-----------|
| auto | permission error (первый) | retry с allow_write=True |
| auto | permission error (после retry) | blocked |
| auto | любая другая ошибка | blocked |
| review | любая ошибка | blocked |
---
### D4: Auto-followup интеграция с post-pipeline hooks
**Решение:** `generate_followups()` вызывается из `run_pipeline()` в auto mode **после** `task_auto_approved` хука.
Порядок событий в auto mode:
```
1. pipeline успешно завершён
2. task.status = "done"
3. хук: task_auto_approved ← пользовательские хуки (rebuild-frontend и т.д.)
4. generate_followups() ← анализируем output, создаём followup задачи
5. хук: pipeline_completed ← финальное уведомление
```
В review mode:
```
1. pipeline успешно завершён
2. task.status = "review"
3. хук: pipeline_completed
← generate_followups() НЕ вызывается (ждём manual approve)
```
**Почему после task_auto_approved, а не до:**
Хуки типа `rebuild-frontend` (KIN-010) изменяют состояние файловой системы. Followup-агент должен видеть актуальное состояние проекта после всех хуков.
---
### D5: Auto-resolution pending_actions в auto mode
`generate_followups()` может вернуть `pending_actions` — элементы, заблокированные из-за permission issues. В auto mode нужна автоматическая стратегия.
**Решение:** в auto mode `pending_actions` резолвятся как `"rerun"`.
Обоснование:
- Auto mode = полный автопилот, пользователь не должен принимать решения
- "rerun" — наиболее агрессивная и полезная стратегия: повторяем шаг с `allow_write=True`
- Если rerun снова даёт permission error → создаётся manual_task (escalation)
```
auto mode + pending_action:
→ resolve_pending_action(choice="rerun")
→ если rerun провалился → create manual_task с тегом "auto_escalated"
→ всё логируется
review mode + pending_action:
→ возвращается пользователю через API для ручного выбора
```
---
### D6: Наследование режима followup-задачами
Задачи, созданные через `generate_followups()`, создаются с `execution_mode=None`.
**Решение:** followup-задачи наследуют режим через проект (существующая иерархия D1).
Явно устанавливать `execution_mode` в followup-задачах **не нужно** — если проект в auto, все его задачи по умолчанию в auto.
Исключение: если оригинальная задача была в `review` (ручной override), followup-задачи НЕ наследуют это — они создаются "чисто" от проекта. Это намеренное поведение: override в задаче — разовое действие.
---
## Итоговая карта изменений (что нужно реализовать)
| # | Файл | Изменение | Gap |
|---|------|----------|-----|
| 1 | `agents/runner.py` | Вызов `generate_followups()` в auto mode после `task_auto_approved` | D4 |
| 2 | `core/followup.py` | Auto-resolution `pending_actions` в `generate_followups()` при auto mode | D5 |
| 3 | `web/api.py` | Endpoint для смены `execution_mode` проекта/задачи | — |
| 4 | `web/frontend` | UI переключатель Auto/Review (project settings + task detail) | — |
**Что НЕ нужно менять:**
- `core/db.py` — схема готова
- `core/models.py``get_effective_mode()` готов
- `core/hooks.py` — события готовы
- Permission detection в `runner.py` — готово
---
## Риски и ограничения
1. **Стоимость в auto mode**: `generate_followups()` добавляет один запуск агента после каждого пайплайна. При высокой нагрузке это существенный overhead. Митигация: `generate_followups()` можно сделать опциональным (флаг `auto_followup` в project settings).
2. **Permission retry scope**: `allow_write=True` после первого retry применяется ко всем последующим шагам. Это агрессивно, но допустимо, т.к. агент уже начал писать файлы.
3. **Infinite loop в auto-followup**: если followup создаёт задачи, а те создают ещё followup — нет механизма остановки. Митигация: `parent_task_id` позволяет отслеживать глубину. Задачи с `source: followup:*` глубже 1 уровня — не генерируют followup автоматически.
4. **Race condition**: если два пайплайна запускаются для одной задачи одновременно — БД-уровень не блокирует. SQLite WAL + `task.status = 'in_progress'` в начале пайплайна дают частичную защиту, но не полную.
---
## Статус реализации
- [x] DB schema: `execution_mode` в `projects` и `tasks`
- [x] `get_effective_mode()` с приоритетом task > project > review
- [x] Auto-approve: `task.status = "done"` в auto mode
- [x] Permission retry: 1 попытка с `allow_write=True`
- [x] Хуки: `task_auto_approved`, `pipeline_completed`, `task_permission_retry`
- [ ] Auto-followup: вызов `generate_followups()` из `run_pipeline()` в auto mode (Gap 1)
- [ ] Auto-resolution `pending_actions` в auto mode (Gap 2)
- [ ] API endpoints для управления `execution_mode`
- [ ] Frontend UI для Auto/Review переключателя

478
tests/test_auto_mode.py Normal file
View file

@ -0,0 +1,478 @@
"""
Tests for KIN-012 auto mode features:
- TestAutoApprove: pipeline auto-approves (status done) без ручного review
- TestAutoRerunOnPermissionDenied: runner делает retry при permission error,
останавливается после одного retry (лимит = 1)
- TestAutoFollowup: generate_followups вызывается сразу, без ожидания
- Регрессия: review-режим работает как раньше
"""
import json
import pytest
from unittest.mock import patch, MagicMock, call
from core.db import init_db
from core import models
from agents.runner import run_pipeline, _is_permission_error
# ---------------------------------------------------------------------------
# Fixtures & helpers
# ---------------------------------------------------------------------------
@pytest.fixture
def conn():
c = init_db(":memory:")
models.create_project(c, "vdol", "ВДОЛЬ", "~/projects/vdolipoperek",
tech_stack=["vue3"])
models.create_task(c, "VDOL-001", "vdol", "Fix bug",
brief={"route_type": "debug"})
yield c
c.close()
def _mock_success(output="done"):
"""Мок успешного subprocess.run (claude)."""
mock = MagicMock()
mock.stdout = json.dumps({"result": output})
mock.stderr = ""
mock.returncode = 0
return mock
def _mock_permission_denied():
"""Мок subprocess.run, возвращающего permission denied."""
mock = MagicMock()
mock.stdout = json.dumps({"result": "permission denied on write to config.js"})
mock.stderr = "Error: permission denied"
mock.returncode = 1
return mock
def _mock_failure(error="Agent failed"):
"""Мок subprocess.run, возвращающего общую ошибку."""
mock = MagicMock()
mock.stdout = ""
mock.stderr = error
mock.returncode = 1
return mock
def _get_hook_events(mock_hooks):
"""Извлечь список event из всех вызовов mock_hooks."""
return [c[1].get("event") for c in mock_hooks.call_args_list]
# ---------------------------------------------------------------------------
# test_auto_approve
# ---------------------------------------------------------------------------
class TestAutoApprove:
"""Pipeline auto-approve: в auto-режиме задача переходит в done без ручного review."""
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_auto_mode_sets_status_done(self, mock_run, mock_hooks, mock_followup, conn):
"""Auto-режим: статус задачи становится 'done', а не 'review'."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "find bug"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True
task = models.get_task(conn, "VDOL-001")
assert task["status"] == "done", "Auto-mode должен auto-approve: status=done"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_auto_mode_fires_task_auto_approved_hook(self, mock_run, mock_hooks, mock_followup, conn):
"""В auto-режиме срабатывает хук task_auto_approved."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "find bug"}]
run_pipeline(conn, "VDOL-001", steps)
events = _get_hook_events(mock_hooks)
assert "task_auto_approved" in events, "Хук task_auto_approved должен сработать"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_review_mode_sets_status_review(self, mock_run, mock_hooks, mock_followup, conn):
"""Регрессия: review-режим НЕ auto-approve — статус остаётся 'review'."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
# Проект остаётся в default "review" mode
steps = [{"role": "debugger", "brief": "find bug"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True
task = models.get_task(conn, "VDOL-001")
assert task["status"] == "review", "Review-mode НЕ должен auto-approve"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_review_mode_does_not_fire_auto_approved_hook(self, mock_run, mock_hooks, mock_followup, conn):
"""Регрессия: в review-режиме хук task_auto_approved НЕ срабатывает."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
steps = [{"role": "debugger", "brief": "find bug"}]
run_pipeline(conn, "VDOL-001", steps)
events = _get_hook_events(mock_hooks)
assert "task_auto_approved" not in events
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_task_level_auto_overrides_project_review(self, mock_run, mock_hooks, mock_followup, conn):
"""Если у задачи execution_mode=auto, pipeline auto-approve, даже если проект в review."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
# Проект в review, но задача — auto
models.update_task(conn, "VDOL-001", execution_mode="auto")
steps = [{"role": "debugger", "brief": "find"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True
task = models.get_task(conn, "VDOL-001")
assert task["status"] == "done", "Task-level auto должен override project review"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_pipeline_result_includes_mode(self, mock_run, mock_hooks, mock_followup, conn):
"""Pipeline result должен содержать поле mode."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "find"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result.get("mode") == "auto"
# ---------------------------------------------------------------------------
# test_auto_rerun_on_permission_denied
# ---------------------------------------------------------------------------
class TestAutoRerunOnPermissionDenied:
"""Runner повторяет шаг при permission issues, останавливается по лимиту (1 retry)."""
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_auto_mode_retries_on_permission_error(self, mock_run, mock_hooks, mock_followup, conn):
"""Auto-режим: при permission denied runner делает 1 retry с allow_write=True."""
mock_run.side_effect = [
_mock_permission_denied(), # 1-й вызов: permission error
_mock_success("fixed"), # 2-й вызов (retry): успех
]
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "fix file"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True
assert mock_run.call_count == 2, "Должен быть ровно 1 retry"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_retry_uses_dangerously_skip_permissions(self, mock_run, mock_hooks, mock_followup, conn):
"""Retry при permission error использует --dangerously-skip-permissions."""
mock_run.side_effect = [
_mock_permission_denied(),
_mock_success("fixed"),
]
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "fix"}]
run_pipeline(conn, "VDOL-001", steps)
# Второй вызов (retry) должен содержать --dangerously-skip-permissions
second_cmd = mock_run.call_args_list[1][0][0]
assert "--dangerously-skip-permissions" in second_cmd
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_retry_fires_permission_retry_hook(self, mock_run, mock_hooks, mock_followup, conn):
"""При авто-retry срабатывает хук task_permission_retry."""
mock_run.side_effect = [
_mock_permission_denied(),
_mock_success(),
]
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "fix"}]
run_pipeline(conn, "VDOL-001", steps)
events = _get_hook_events(mock_hooks)
assert "task_permission_retry" in events, "Хук task_permission_retry должен сработать"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_retry_failure_blocks_task(self, mock_run, mock_hooks, mock_followup, conn):
"""Если retry тоже провалился → задача blocked (лимит в 1 retry исчерпан)."""
mock_run.side_effect = [
_mock_permission_denied(), # 1-й: permission error
_mock_failure("still denied"), # retry: снова ошибка
]
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "fix"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is False
assert mock_run.call_count == 2, "Стоп после лимита: ровно 1 retry"
task = models.get_task(conn, "VDOL-001")
assert task["status"] == "blocked"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_review_mode_does_not_retry_on_permission_error(self, mock_run, mock_hooks, mock_followup, conn):
"""Регрессия: review-режим НЕ делает авто-retry при permission error."""
mock_run.return_value = _mock_permission_denied()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
# Проект остаётся в default review mode
steps = [{"role": "debugger", "brief": "fix"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is False
assert mock_run.call_count == 1, "Review-mode не должен retry"
task = models.get_task(conn, "VDOL-001")
assert task["status"] == "blocked"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_subsequent_steps_use_allow_write_after_retry(self, mock_run, mock_hooks, mock_followup, conn):
"""После успешного retry все следующие шаги тоже используют allow_write."""
mock_run.side_effect = [
_mock_permission_denied(), # Шаг 1: permission error
_mock_success("fixed"), # Шаг 1 retry: успех
_mock_success("tested"), # Шаг 2: должен получить allow_write
]
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [
{"role": "debugger", "brief": "fix"},
{"role": "tester", "brief": "test"},
]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True
assert mock_run.call_count == 3
# Третий вызов (шаг 2) должен содержать --dangerously-skip-permissions
third_cmd = mock_run.call_args_list[2][0][0]
assert "--dangerously-skip-permissions" in third_cmd
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_normal_failure_does_not_trigger_retry(self, mock_run, mock_hooks, mock_followup, conn):
"""Обычная ошибка (не permission) НЕ вызывает авто-retry даже в auto-режиме."""
mock_run.return_value = _mock_failure("compilation error: undefined variable")
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "fix"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is False
assert mock_run.call_count == 1, "Retry не нужен для обычных ошибок"
# ---------------------------------------------------------------------------
# test_auto_followup
# ---------------------------------------------------------------------------
class TestAutoFollowup:
"""Followup запускается без ожидания сразу после pipeline в auto-режиме."""
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_auto_followup_triggered_immediately(self, mock_run, mock_hooks, mock_followup, conn):
"""В auto-режиме generate_followups вызывается сразу после pipeline."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "find"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True
mock_followup.assert_called_once_with(conn, "VDOL-001")
@patch("core.followup.auto_resolve_pending_actions")
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_auto_followup_resolves_pending_actions(
self, mock_run, mock_hooks, mock_followup, mock_resolve, conn
):
"""Pending actions из followup авто-резолвятся без ожидания."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
pending = [{"type": "permission_fix", "description": "Fix nginx.conf",
"original_item": {}, "options": ["rerun"]}]
mock_followup.return_value = {"created": [], "pending_actions": pending}
mock_resolve.return_value = [{"resolved": "rerun", "result": {}}]
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "find"}]
run_pipeline(conn, "VDOL-001", steps)
mock_resolve.assert_called_once_with(conn, "VDOL-001", pending)
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_review_mode_no_auto_followup(self, mock_run, mock_hooks, mock_followup, conn):
"""Регрессия: в review-режиме generate_followups НЕ вызывается."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
# Проект в default review mode
steps = [{"role": "debugger", "brief": "find"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True
mock_followup.assert_not_called()
task = models.get_task(conn, "VDOL-001")
assert task["status"] == "review"
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_auto_followup_not_triggered_for_followup_tasks(
self, mock_run, mock_hooks, mock_followup, conn
):
"""Для followup-задач generate_followups НЕ вызывается (защита от рекурсии)."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
models.update_project(conn, "vdol", execution_mode="auto")
models.update_task(conn, "VDOL-001", brief={"source": "followup:VDOL-000"})
steps = [{"role": "debugger", "brief": "find"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True
mock_followup.assert_not_called()
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_followup_exception_does_not_block_pipeline(
self, mock_run, mock_hooks, mock_followup, conn
):
"""Ошибка в followup не должна блокировать pipeline (success=True)."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.side_effect = Exception("followup PM crashed")
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "find"}]
result = run_pipeline(conn, "VDOL-001", steps)
assert result["success"] is True # Pipeline succeeded, followup failure absorbed
@patch("core.followup.auto_resolve_pending_actions")
@patch("core.followup.generate_followups")
@patch("agents.runner.run_hooks")
@patch("agents.runner.subprocess.run")
def test_no_pending_actions_skips_auto_resolve(
self, mock_run, mock_hooks, mock_followup, mock_resolve, conn
):
"""Если pending_actions пустой, auto_resolve_pending_actions НЕ вызывается."""
mock_run.return_value = _mock_success()
mock_hooks.return_value = []
mock_followup.return_value = {"created": [], "pending_actions": []}
mock_resolve.return_value = []
models.update_project(conn, "vdol", execution_mode="auto")
steps = [{"role": "debugger", "brief": "find"}]
run_pipeline(conn, "VDOL-001", steps)
mock_resolve.assert_not_called()
# ---------------------------------------------------------------------------
# _is_permission_error unit tests
# ---------------------------------------------------------------------------
class TestIsPermissionError:
"""Unit-тесты для функции _is_permission_error."""
def test_detects_permission_denied_in_raw_output(self):
result = {"raw_output": "Error: permission denied writing to nginx.conf",
"returncode": 1}
assert _is_permission_error(result) is True
def test_detects_read_only_in_output(self):
result = {"raw_output": "File is read-only, cannot write",
"returncode": 1}
assert _is_permission_error(result) is True
def test_detects_manual_apply_in_output(self):
result = {"raw_output": "Apply manually to /etc/nginx/nginx.conf",
"returncode": 1}
assert _is_permission_error(result) is True
def test_normal_failure_not_permission_error(self):
result = {"raw_output": "Compilation error: undefined variable x",
"returncode": 1}
assert _is_permission_error(result) is False
def test_empty_output_not_permission_error(self):
result = {"raw_output": "", "returncode": 1}
assert _is_permission_error(result) is False
def test_success_with_permission_word_not_flagged(self):
"""Если returncode=0 и текст содержит 'permission', это не ошибка."""
# Функция проверяет только текст, не returncode
# Но с success output вряд ли содержит "permission denied"
result = {"raw_output": "All permissions granted, build successful",
"returncode": 0}
assert _is_permission_error(result) is False

View file

@ -76,6 +76,25 @@ class ProjectCreate(BaseModel):
priority: int = 5
class ProjectPatch(BaseModel):
execution_mode: str
@app.patch("/api/projects/{project_id}")
def patch_project(project_id: str, body: ProjectPatch):
if body.execution_mode not in VALID_EXECUTION_MODES:
raise HTTPException(400, f"Invalid execution_mode '{body.execution_mode}'. Must be one of: {', '.join(VALID_EXECUTION_MODES)}")
conn = get_conn()
p = models.get_project(conn, project_id)
if not p:
conn.close()
raise HTTPException(404, f"Project '{project_id}' not found")
models.update_project(conn, project_id, execution_mode=body.execution_mode)
p = models.get_project(conn, project_id)
conn.close()
return p
@app.post("/api/projects")
def create_project(body: ProjectCreate):
conn = get_conn()
@ -138,22 +157,33 @@ def create_task(body: TaskCreate):
class TaskPatch(BaseModel):
status: str
status: str | None = None
execution_mode: str | None = None
VALID_STATUSES = {"pending", "in_progress", "review", "done", "blocked", "cancelled"}
VALID_EXECUTION_MODES = {"auto", "review"}
@app.patch("/api/tasks/{task_id}")
def patch_task(task_id: str, body: TaskPatch):
if body.status not in VALID_STATUSES:
if body.status is not None and body.status not in VALID_STATUSES:
raise HTTPException(400, f"Invalid status '{body.status}'. Must be one of: {', '.join(VALID_STATUSES)}")
if body.execution_mode is not None and body.execution_mode not in VALID_EXECUTION_MODES:
raise HTTPException(400, f"Invalid execution_mode '{body.execution_mode}'. Must be one of: {', '.join(VALID_EXECUTION_MODES)}")
if body.status is None and body.execution_mode is None:
raise HTTPException(400, "Nothing to update. Provide status or execution_mode.")
conn = get_conn()
t = models.get_task(conn, task_id)
if not t:
conn.close()
raise HTTPException(404, f"Task '{task_id}' not found")
models.update_task(conn, task_id, status=body.status)
fields = {}
if body.status is not None:
fields["status"] = body.status
if body.execution_mode is not None:
fields["execution_mode"] = body.execution_mode
models.update_task(conn, task_id, **fields)
t = models.get_task(conn, task_id)
conn.close()
return t

File diff suppressed because it is too large Load diff

View file

@ -6,7 +6,9 @@
"scripts": {
"dev": "vite",
"build": "vue-tsc -b && vite build",
"preview": "vite preview"
"preview": "vite preview",
"test": "vitest run",
"test:watch": "vitest"
},
"dependencies": {
"vue": "^3.5.30",
@ -15,12 +17,15 @@
"devDependencies": {
"@types/node": "^24.12.0",
"@vitejs/plugin-vue": "^6.0.5",
"@vue/test-utils": "^2.4.6",
"@vue/tsconfig": "^0.9.0",
"autoprefixer": "^10.4.27",
"jsdom": "^29.0.0",
"postcss": "^8.5.8",
"tailwindcss": "^3.4.19",
"typescript": "~5.9.3",
"vite": "^8.0.0",
"vitest": "^4.1.0",
"vue-tsc": "^3.2.5"
}
}

View file

@ -0,0 +1,280 @@
/**
* KIN-011: Тесты сохранения фильтра статусов при навигации
*
* Проверяет:
* 1. Выбор фильтра обновляет URL (?status=...)
* 2. Прямая ссылка с query param инициализирует фильтр
* 3. Фильтр показывает только задачи с нужным статусом
* 4. Сброс фильтра удаляет param из URL
* 5. goBack() вызывает router.back() при наличии истории
* 6. goBack() делает push на /project/:id без истории
* 7. После router.back() URL проекта восстанавливается с фильтром
*/
import { describe, it, expect, vi, beforeEach } from 'vitest'
import { mount, flushPromises } from '@vue/test-utils'
import { createRouter, createMemoryHistory } from 'vue-router'
import ProjectView from '../views/ProjectView.vue'
import TaskDetail from '../views/TaskDetail.vue'
// Мок api — factory без ссылок на внешние переменные (vi.mock хоистится)
vi.mock('../api', () => ({
api: {
project: vi.fn(),
taskFull: vi.fn(),
runTask: vi.fn(),
auditProject: vi.fn(),
createTask: vi.fn(),
patchTask: vi.fn(),
},
}))
// Импортируем мок после объявления vi.mock
import { api } from '../api'
const Stub = { template: '<div />' }
const MOCK_PROJECT = {
id: 'KIN',
name: 'Kin',
path: '/projects/kin',
status: 'active',
priority: 5,
tech_stack: ['python', 'vue'],
created_at: '2024-01-01',
total_tasks: 3,
done_tasks: 1,
active_tasks: 1,
blocked_tasks: 0,
review_tasks: 0,
tasks: [
{
id: 'KIN-001', project_id: 'KIN', title: 'Task 1', status: 'pending',
priority: 5, assigned_role: null, parent_task_id: null,
brief: null, spec: null, created_at: '2024-01-01', updated_at: '2024-01-01',
},
{
id: 'KIN-002', project_id: 'KIN', title: 'Task 2', status: 'in_progress',
priority: 3, assigned_role: null, parent_task_id: null,
brief: null, spec: null, created_at: '2024-01-01', updated_at: '2024-01-01',
},
{
id: 'KIN-003', project_id: 'KIN', title: 'Task 3', status: 'done',
priority: 1, assigned_role: null, parent_task_id: null,
brief: null, spec: null, created_at: '2024-01-01', updated_at: '2024-01-01',
},
],
decisions: [],
modules: [],
}
const MOCK_TASK_FULL = {
id: 'KIN-002',
project_id: 'KIN',
title: 'Task 2',
status: 'in_progress',
priority: 3,
assigned_role: null,
parent_task_id: null,
brief: null,
spec: null,
created_at: '2024-01-01',
updated_at: '2024-01-01',
pipeline_steps: [],
related_decisions: [],
}
function makeRouter() {
return createRouter({
history: createMemoryHistory(),
routes: [
{ path: '/', component: Stub },
{ path: '/project/:id', component: ProjectView, props: true },
{ path: '/task/:id', component: TaskDetail, props: true },
],
})
}
// localStorage mock для jsdom-окружения
const localStorageMock = (() => {
let store: Record<string, string> = {}
return {
getItem: (k: string) => store[k] ?? null,
setItem: (k: string, v: string) => { store[k] = v },
removeItem: (k: string) => { delete store[k] },
clear: () => { store = {} },
}
})()
Object.defineProperty(globalThis, 'localStorage', { value: localStorageMock, configurable: true })
beforeEach(() => {
localStorageMock.clear()
vi.mocked(api.project).mockResolvedValue(MOCK_PROJECT as any)
vi.mocked(api.taskFull).mockResolvedValue(MOCK_TASK_FULL as any)
})
// ─────────────────────────────────────────────────────────────
// ProjectView: фильтр ↔ URL
// ─────────────────────────────────────────────────────────────
describe('KIN-011: ProjectView — фильтр и URL', () => {
it('1. При выборе фильтра URL обновляется query param ?status', async () => {
const router = makeRouter()
await router.push('/project/KIN')
const wrapper = mount(ProjectView, {
props: { id: 'KIN' },
global: { plugins: [router] },
})
await flushPromises()
// Изначально status нет в URL
expect(router.currentRoute.value.query.status).toBeUndefined()
// Меняем фильтр через select (первый select — фильтр статусов)
const select = wrapper.find('select')
await select.setValue('in_progress')
await flushPromises()
// URL должен содержать ?status=in_progress
expect(router.currentRoute.value.query.status).toBe('in_progress')
})
it('2. Прямая ссылка ?status=in_progress инициализирует фильтр в select', async () => {
const router = makeRouter()
await router.push('/project/KIN?status=in_progress')
const wrapper = mount(ProjectView, {
props: { id: 'KIN' },
global: { plugins: [router] },
})
await flushPromises()
// select должен показывать in_progress
const select = wrapper.find('select')
expect((select.element as HTMLSelectElement).value).toBe('in_progress')
})
it('3. Прямая ссылка ?status=in_progress показывает только задачи с этим статусом', async () => {
const router = makeRouter()
await router.push('/project/KIN?status=in_progress')
const wrapper = mount(ProjectView, {
props: { id: 'KIN' },
global: { plugins: [router] },
})
await flushPromises()
// Должна быть видна только KIN-002 (in_progress)
const links = wrapper.findAll('a[href^="/task/"]')
expect(links).toHaveLength(1)
expect(links[0].text()).toContain('KIN-002')
})
it('4. Сброс фильтра (пустое значение) удаляет status из URL', async () => {
const router = makeRouter()
await router.push('/project/KIN?status=done')
const wrapper = mount(ProjectView, {
props: { id: 'KIN' },
global: { plugins: [router] },
})
await flushPromises()
// Сброс фильтра
const select = wrapper.find('select')
await select.setValue('')
await flushPromises()
// status должен исчезнуть из URL
expect(router.currentRoute.value.query.status).toBeUndefined()
})
it('5. Без фильтра отображаются все 3 задачи', async () => {
const router = makeRouter()
await router.push('/project/KIN')
const wrapper = mount(ProjectView, {
props: { id: 'KIN' },
global: { plugins: [router] },
})
await flushPromises()
const links = wrapper.findAll('a[href^="/task/"]')
expect(links).toHaveLength(3)
})
})
// ─────────────────────────────────────────────────────────────
// TaskDetail: goBack сохраняет URL проекта с фильтром
// ─────────────────────────────────────────────────────────────
describe('KIN-011: TaskDetail — возврат с сохранением URL', () => {
it('6. goBack() вызывает router.back() когда window.history.length > 1', async () => {
const router = makeRouter()
await router.push('/project/KIN?status=in_progress')
await router.push('/task/KIN-002')
const backSpy = vi.spyOn(router, 'back')
// Эмулируем наличие истории
Object.defineProperty(window, 'history', {
value: { ...window.history, length: 3 },
configurable: true,
})
const wrapper = mount(TaskDetail, {
props: { id: 'KIN-002' },
global: { plugins: [router] },
})
await flushPromises()
// Первая кнопка — кнопка "назад" (← KIN)
const backBtn = wrapper.find('button')
await backBtn.trigger('click')
expect(backSpy).toHaveBeenCalled()
})
it('7. goBack() без истории делает push на /project/:id', async () => {
const router = makeRouter()
await router.push('/task/KIN-002')
const pushSpy = vi.spyOn(router, 'push')
// Эмулируем отсутствие истории
Object.defineProperty(window, 'history', {
value: { ...window.history, length: 1 },
configurable: true,
})
const wrapper = mount(TaskDetail, {
props: { id: 'KIN-002' },
global: { plugins: [router] },
})
await flushPromises()
const backBtn = wrapper.find('button')
await backBtn.trigger('click')
expect(pushSpy).toHaveBeenCalledWith({ path: '/project/KIN', query: undefined })
})
it('8. После router.back() URL проекта восстанавливается с query param ?status', async () => {
const router = makeRouter()
// Навигация: проект с фильтром → задача
await router.push('/project/KIN?status=in_progress')
await router.push('/task/KIN-002')
expect(router.currentRoute.value.path).toBe('/task/KIN-002')
// Возвращаемся назад
router.back()
await flushPromises()
// URL должен вернуться к /project/KIN?status=in_progress
expect(router.currentRoute.value.path).toBe('/project/KIN')
expect(router.currentRoute.value.query.status).toBe('in_progress')
})
})

View file

@ -33,6 +33,7 @@ export interface Project {
status: string
priority: number
tech_stack: string[] | null
execution_mode: string | null
created_at: string
total_tasks: number
done_tasks: number
@ -57,6 +58,7 @@ export interface Task {
parent_task_id: string | null
brief: Record<string, unknown> | null
spec: Record<string, unknown> | null
execution_mode: string | null
created_at: string
updated_at: string
}
@ -158,6 +160,8 @@ export const api = {
post<AuditResult>(`/projects/${projectId}/audit`, {}),
auditApply: (projectId: string, taskIds: string[]) =>
post<{ updated: string[]; count: number }>(`/projects/${projectId}/audit/apply`, { task_ids: taskIds }),
patchTask: (id: string, data: { status: string }) =>
patchTask: (id: string, data: { status?: string; execution_mode?: string }) =>
patch<Task>(`/tasks/${id}`, data),
patchProject: (id: string, data: { execution_mode: string }) =>
patch<Project>(`/projects/${id}`, data),
}

View file

@ -1,10 +1,13 @@
<script setup lang="ts">
import { ref, onMounted, computed } from 'vue'
import { ref, onMounted, computed, watch } from 'vue'
import { useRoute, useRouter } from 'vue-router'
import { api, type ProjectDetail, type AuditResult } from '../api'
import Badge from '../components/Badge.vue'
import Modal from '../components/Modal.vue'
const props = defineProps<{ id: string }>()
const route = useRoute()
const router = useRouter()
const project = ref<ProjectDetail | null>(null)
const loading = ref(true)
@ -12,7 +15,7 @@ const error = ref('')
const activeTab = ref<'tasks' | 'decisions' | 'modules'>('tasks')
// Filters
const taskStatusFilter = ref('')
const taskStatusFilter = ref((route.query.status as string) || '')
const decisionTypeFilter = ref('')
const decisionSearch = ref('')
@ -20,12 +23,22 @@ const decisionSearch = ref('')
const autoMode = ref(false)
function loadMode() {
autoMode.value = localStorage.getItem(`kin-mode-${props.id}`) === 'auto'
if (project.value?.execution_mode) {
autoMode.value = project.value.execution_mode === 'auto'
} else {
autoMode.value = localStorage.getItem(`kin-mode-${props.id}`) === 'auto'
}
}
function toggleMode() {
async function toggleMode() {
autoMode.value = !autoMode.value
localStorage.setItem(`kin-mode-${props.id}`, autoMode.value ? 'auto' : 'review')
try {
await api.patchProject(props.id, { execution_mode: autoMode.value ? 'auto' : 'review' })
if (project.value) project.value = { ...project.value, execution_mode: autoMode.value ? 'auto' : 'review' }
} catch (e: any) {
error.value = e.message
}
}
// Audit
@ -85,6 +98,10 @@ async function load() {
}
}
watch(taskStatusFilter, (val) => {
router.replace({ query: { ...route.query, status: val || undefined } })
})
onMounted(() => { load(); loadMode() })
const filteredTasks = computed(() => {
@ -267,12 +284,15 @@ async function addDecision() {
<div v-if="filteredTasks.length === 0" class="text-gray-600 text-sm">No tasks.</div>
<div v-else class="space-y-1">
<router-link v-for="t in filteredTasks" :key="t.id"
:to="`/task/${t.id}`"
:to="{ path: `/task/${t.id}`, query: taskStatusFilter ? { back_status: taskStatusFilter } : undefined }"
class="flex items-center justify-between px-3 py-2 border border-gray-800 rounded text-sm hover:border-gray-600 no-underline block transition-colors">
<div class="flex items-center gap-2 min-w-0">
<span class="text-gray-500 shrink-0 w-24">{{ t.id }}</span>
<Badge :text="t.status" :color="taskStatusColor(t.status)" />
<span class="text-gray-300 truncate">{{ t.title }}</span>
<span v-if="t.execution_mode === 'auto'"
class="text-[10px] px-1 py-0.5 bg-yellow-900/40 text-yellow-400 border border-yellow-800 rounded shrink-0"
title="Auto mode">&#x1F513;</span>
<span v-if="t.parent_task_id" class="text-[10px] text-gray-600 shrink-0">from {{ t.parent_task_id }}</span>
</div>
<div class="flex items-center gap-2 text-xs text-gray-600 shrink-0">

View file

@ -1,10 +1,13 @@
<script setup lang="ts">
import { ref, onMounted, onUnmounted, computed } from 'vue'
import { useRoute, useRouter } from 'vue-router'
import { api, type TaskFull, type PipelineStep, type PendingAction } from '../api'
import Badge from '../components/Badge.vue'
import Modal from '../components/Modal.vue'
const props = defineProps<{ id: string }>()
const route = useRoute()
const router = useRouter()
const task = ref<TaskFull | null>(null)
const loading = ref(true)
@ -25,17 +28,27 @@ const resolvingAction = ref(false)
const showReject = ref(false)
const rejectReason = ref('')
// Auto/Review mode (persisted per project)
// Auto/Review mode (per-task, persisted in DB; falls back to localStorage per project)
const autoMode = ref(false)
function loadMode(projectId: string) {
autoMode.value = localStorage.getItem(`kin-mode-${projectId}`) === 'auto'
function loadMode(t: typeof task.value) {
if (!t) return
if (t.execution_mode) {
autoMode.value = t.execution_mode === 'auto'
} else {
autoMode.value = localStorage.getItem(`kin-mode-${t.project_id}`) === 'auto'
}
}
function toggleMode() {
async function toggleMode() {
if (!task.value) return
autoMode.value = !autoMode.value
if (task.value) {
localStorage.setItem(`kin-mode-${task.value.project_id}`, autoMode.value ? 'auto' : 'review')
localStorage.setItem(`kin-mode-${task.value.project_id}`, autoMode.value ? 'auto' : 'review')
try {
const updated = await api.patchTask(props.id, { execution_mode: autoMode.value ? 'auto' : 'review' })
task.value = { ...task.value, ...updated }
} catch (e: any) {
error.value = e.message
}
}
@ -43,7 +56,7 @@ async function load() {
try {
const prev = task.value
task.value = await api.taskFull(props.id)
if (task.value?.project_id) loadMode(task.value.project_id)
loadMode(task.value)
// Auto-start polling if task is in_progress
if (task.value.status === 'in_progress' && !polling.value) {
startPolling()
@ -186,6 +199,18 @@ async function runPipeline() {
const hasSteps = computed(() => (task.value?.pipeline_steps?.length ?? 0) > 0)
const isRunning = computed(() => task.value?.status === 'in_progress')
function goBack() {
if (window.history.length > 1) {
router.back()
} else if (task.value) {
const backStatus = route.query.back_status as string | undefined
router.push({
path: `/project/${task.value.project_id}`,
query: backStatus ? { status: backStatus } : undefined,
})
}
}
const statusChanging = ref(false)
async function changeStatus(newStatus: string) {
@ -209,14 +234,17 @@ async function changeStatus(newStatus: string) {
<!-- Header -->
<div class="mb-6">
<div class="flex items-center gap-2 mb-1">
<router-link :to="`/project/${task.project_id}`" class="text-gray-600 hover:text-gray-400 text-sm no-underline">
<button @click="goBack" class="text-gray-600 hover:text-gray-400 text-sm cursor-pointer bg-transparent border-none p-0">
&larr; {{ task.project_id }}
</router-link>
</button>
</div>
<div class="flex items-center gap-3 mb-2">
<h1 class="text-xl font-bold text-gray-100">{{ task.id }}</h1>
<span class="text-gray-400">{{ task.title }}</span>
<Badge :text="task.status" :color="statusColor(task.status)" />
<span v-if="task.execution_mode === 'auto'"
class="text-[10px] px-1.5 py-0.5 bg-yellow-900/40 text-yellow-400 border border-yellow-800 rounded"
title="Auto mode: agents can write files">&#x1F513; auto</span>
<select
:value="task.status"
@change="changeStatus(($event.target as HTMLSelectElement).value)"
@ -303,12 +331,17 @@ async function changeStatus(newStatus: string) {
<!-- Actions Bar -->
<div class="sticky bottom-0 bg-gray-950 border-t border-gray-800 py-3 flex gap-3 -mx-6 px-6 mt-8">
<button v-if="task.status === 'review'"
<div v-if="autoMode && (isRunning || task.status === 'review')"
class="flex items-center gap-1.5 px-3 py-1.5 bg-yellow-900/20 border border-yellow-800/50 rounded text-xs text-yellow-400">
<span class="inline-block w-2 h-2 bg-yellow-400 rounded-full animate-pulse"></span>
Автопилот активен
</div>
<button v-if="task.status === 'review' && !autoMode"
@click="showApprove = true"
class="px-4 py-2 text-sm bg-green-900/50 text-green-400 border border-green-800 rounded hover:bg-green-900">
&#10003; Approve
</button>
<button v-if="task.status === 'review' || task.status === 'in_progress'"
<button v-if="(task.status === 'review' || task.status === 'in_progress') && !autoMode"
@click="showReject = true"
class="px-4 py-2 text-sm bg-red-900/50 text-red-400 border border-red-800 rounded hover:bg-red-900">
&#10007; Reject

View file

@ -4,4 +4,8 @@ import vue from '@vitejs/plugin-vue'
// https://vite.dev/config/
export default defineConfig({
plugins: [vue()],
test: {
environment: 'jsdom',
globals: true,
},
})