diff --git a/docs/superpowers/specs/2026-05-13-ai-news-sentiment-node-design.md b/docs/superpowers/specs/2026-05-13-ai-news-sentiment-node-design.md new file mode 100644 index 0000000..a6e5f0e --- /dev/null +++ b/docs/superpowers/specs/2026-05-13-ai-news-sentiment-node-design.md @@ -0,0 +1,558 @@ +# AI News Sentiment Node — Design + +**작성일**: 2026-05-13 +**작성자**: gahusb +**상태**: Approved for implementation +**선행 spec**: `2026-05-12-stock-screener-board-design.md` (§14 — AI 뉴스 호재/악재 노드 후속 슬라이스) + +--- + +## 1. 목표 + +스크리너의 8번째 점수 노드 `AiNewsSentiment` 를 추가한다. 평일 **08:00 KST** 에 시총 상위 100종목의 네이버 종목 뉴스를 스크래핑하고 Claude Haiku로 호재/악재를 정량화하여, 그날의 sentiment를 (a) 텔레그램으로 호재/악재 Top 5 알림으로 전달하고, (b) 16:30 스크리너 자동 잡의 가중합에 percentile_rank 형태로 기여한다. + +**Why**: 기존 7개 점수 노드는 모두 수치 기반(가격/거래량/외국인 수급)이며, 시장 정서(뉴스 호재/악재)는 반영되지 않는다. 트레이더 의사결정에 큰 영향을 주는 호재/악재 시그널을 LLM으로 정량화하면 정량 노드와 정성 노드를 한 점수 체계로 통합할 수 있다. 장 시작 전 알림으로 즉시 가치 전달. + +--- + +## 2. 범위 + +**포함 (이번 슬라이스)**: +- 평일 08:00 KST agent-office cron → stock-lab `/snapshot/refresh-news-sentiment` 호출 +- 시총 상위 100종목 × 네이버 종목 뉴스 (`/item/news_news.naver?code=XXX`) 스크래핑 +- 종목당 Claude Haiku 1콜 (총 100콜 asyncio.gather 병렬, 동시성 10) +- `news_sentiment(ticker, date, score_raw, reason, news_count, tokens_input, tokens_output, model, created_at)` 테이블 +- 8번째 ScoreNode `AiNewsSentiment` 등록 (registry, schema, ScreenContext, 가중합 통합) +- 호재 Top 5 + 악재 Top 5 텔레그램 메시지 (장 시작 전 발송) +- 프론트 캔버스 모드에 8번째 노드 추가 (`SCORE_KEYS` 한 줄 + `INITIAL_NODE_POSITIONS` 좌표 한 줄) + +**범위 외 (NOT)**: +- 뉴스 URL 단위 캐싱 (비용이 충분히 낮음) +- 16:00 추가 cron (MVP 일 1회) +- 시장 전체 뉴스 종목 매핑 LLM (시총 상위 100 명시적 매핑) +- 백테스트 (sentiment 점수가 실수익에 미친 영향) — 별도 후속 슬라이스 +- 가중치 자동 조정 — spec §14 별도 슬라이스 +- 종목별 sentiment 트렌드 차트 — 데이터 누적 후 후속 슬라이스 +- 종목 5-10위 외 sentiment 가시화 — Top 5 알림 외 별도 대시보드 없음 + +--- + +## 3. 아키텍처 개요 + +``` + ┌─────────────────────────────┐ +[08:00 KST 평일] │ agent-office cron │ + │ on_ai_news_schedule() │ + └──────────────┬──────────────┘ + │ HTTP POST + ▼ + ┌──────────────────────────────────────────────────────┐ + │ stock-lab: /api/stock/screener/snapshot/ │ + │ refresh-news-sentiment │ + │ │ + │ ai_news/pipeline.refresh_daily(asof): │ + │ 1. krx_master 시총 상위 100 ticker 조회 │ + │ 2. asyncio.gather(Semaphore=10) 100 종목 병렬: │ + │ a. scraper.fetch_news(ticker) │ + │ b. analyzer.score_sentiment(ticker, news[]) │ + │ c. → {score: float, reason: str, ...} │ + │ 3. news_sentiment 일괄 upsert │ + │ 4. Top 5 호재/악재 추출 → 텔레그램 페이로드 빌드 │ + │ 5. agent-office /telegram/send 호출 │ + └──────────────────────────────────────────────────────┘ + │ + ▼ +[16:30 KST 평일] ┌─────────────────────────────┐ + │ agent-office on_screener_ │ + │ schedule (변경 없음) │ + └──────────────┬──────────────┘ + │ HTTP POST + ▼ + ┌──────────────────────────────────────────────────────┐ + │ stock-lab: /api/stock/screener/run mode=auto │ + │ │ + │ Screener.run(ctx): │ + │ ctx.news_sentiment = SELECT * FROM news_sentiment │ + │ WHERE date = asof │ + │ AiNewsSentiment.compute(ctx, params) │ + │ → percentile_rank(score_raw) for 100 tickers │ + │ → 가중합에 ai_news weight × percentile 점수 기여 │ + └──────────────────────────────────────────────────────┘ +``` + +**의존성 추가**: `anthropic` Python SDK (stock-lab requirements.txt). `ANTHROPIC_API_KEY` 는 docker-compose.yml에 이미 stock-lab 환경변수로 존재. + +--- + +## 4. 컴포넌트 분해 (신규 파일) + +### 4.1 stock-lab + +``` +web-backend/stock-lab/app/ + screener/ + ai_news/ ← 신규 모듈 + __init__.py + scraper.py ← 네이버 finance 종목 뉴스 스크래핑 + analyzer.py ← Claude Haiku 호재/악재 분석 + pipeline.py ← refresh_daily() 메인 (스크래핑+병렬 LLM+DB upsert) + telegram.py ← Top 5/Top 5 메시지 빌더 + nodes/ + ai_news.py ← 8번째 ScoreNode 클래스 + schema.py ← (수정) news_sentiment 테이블 DDL 추가 + registry.py ← (수정) NODE_REGISTRY["ai_news"] 등록 + engine.py ← (수정) ScreenContext에 news_sentiment 로딩 + router.py ← (수정) POST /snapshot/refresh-news-sentiment 라우트 추가 + requirements.txt ← (수정) anthropic 추가 + tests/ + test_ai_news_scraper.py ← 네이버 HTML mock 파싱 + test_ai_news_analyzer.py ← anthropic mock 응답 + test_ai_news_pipeline.py ← 5종목 mini integration + test_ai_news_node.py ← percentile_rank + min_news_count 필터 +``` + +### 4.2 agent-office + +``` +web-backend/agent-office/app/ + agents/stock.py ← (수정) on_ai_news_schedule 메서드 추가 + scheduler.py ← (수정) cron mon-fri 08:00 등록 + service_proxy.py ← (수정) refresh_ai_news_sentiment() helper 추가 +``` + +### 4.3 frontend + +``` +web-ui/src/pages/stock/screener/ + components/canvas/constants/ + canvasLayout.js ← (수정) AI 노드 추가 (NODE_IDS / NAME_MAP / LABEL / POSITIONS / SCORE_KEYS) + canvasLayout.test.js ← (수정) 카운트 8 점수 노드, 18 엣지로 갱신 +``` + +--- + +## 5. DB 스키마 (1개 신규 테이블) + +```sql +CREATE TABLE IF NOT EXISTS news_sentiment ( + ticker TEXT NOT NULL, + date TEXT NOT NULL, -- YYYY-MM-DD + score_raw REAL NOT NULL, -- LLM 원점수 -10 ~ +10 + reason TEXT NOT NULL DEFAULT '', -- LLM 한 줄 근거 + news_count INTEGER NOT NULL DEFAULT 0, -- 분석에 사용된 뉴스 수 + tokens_input INTEGER NOT NULL DEFAULT 0, -- 비용 모니터링 + tokens_output INTEGER NOT NULL DEFAULT 0, + model TEXT NOT NULL DEFAULT 'claude-haiku-4-5-20251001', + created_at TEXT NOT NULL DEFAULT (datetime('now','localtime')), + PRIMARY KEY (ticker, date) +); +CREATE INDEX IF NOT EXISTS idx_news_sentiment_date ON news_sentiment(date DESC); +``` + +`schema.py` 의 `ensure_screener_schema(conn)` 함수에 이 DDL 추가. WAL + busy_timeout 패턴은 stock-lab `_conn()` 표준화로 이미 적용됨. + +**기본 가중치 시드**: `DEFAULT_WEIGHTS["ai_news"] = 0.5` 추가 (다른 7노드의 default와 동일). 기존 settings 행이 있는 환경에서는 마이그레이션 1회 — `ensure_screener_schema()` 가 settings의 weights_json에 ai_news 키 누락 시 0.5로 보충하는 1회성 patch 적용. + +--- + +## 6. ScoreNode 구현 + +```python +# stock-lab/app/screener/nodes/ai_news.py +import pandas as pd +from .base import ScoreNode, percentile_rank + +class AiNewsSentiment(ScoreNode): + name = "ai_news" + label = "AI 뉴스 호재/악재" + default_params = {"min_news_count": 1} + param_schema = { + "type": "object", + "properties": { + "min_news_count": { + "type": "integer", "default": 1, "minimum": 0, + "description": "최소 분석 뉴스 수. 미만이면 NaN.", + }, + }, + } + + def compute(self, ctx, params): + df = getattr(ctx, "news_sentiment", None) + if df is None or df.empty: + return pd.Series(dtype=float) + df = df[df["news_count"] >= params["min_news_count"]] + if df.empty: + return pd.Series(dtype=float) + return percentile_rank(df.set_index("ticker")["score_raw"]) +``` + +`ScreenContext` dataclass에 `news_sentiment: Optional[pd.DataFrame] = None` 필드 추가 (default None 으로 기존 호출자 호환성 유지). `ScreenContext.load(conn, asof)` 에 로딩 한 줄 추가: + +```python +news_sentiment = pd.read_sql_query( + "SELECT ticker, score_raw, news_count FROM news_sentiment WHERE date = ?", + conn, params=(asof.isoformat(),), +) +return ScreenContext(..., news_sentiment=news_sentiment) +``` + +기존 테스트 fixture에서 `ScreenContext(...)` 를 직접 생성하는 케이스는 default=None 으로 자동 호환. AiNewsSentiment.compute() 는 `getattr(ctx, "news_sentiment", None)` 로 안전 fallback. + +--- + +## 7. 파이프라인 (`ai_news/pipeline.py`) + +```python +async def refresh_daily(conn, asof, *, tickers=None, model=DEFAULT_MODEL, + concurrency=10, news_per_ticker=5): + """ + Returns: + {"asof": ..., "updated": N, "failures": [...], "duration_sec": ..., + "tokens_input": ..., "tokens_output": ..., "top_pos": [...], "top_neg": [...]} + """ + if tickers is None: + tickers = _top_market_cap_tickers(conn, n=100) + + sem = asyncio.Semaphore(concurrency) + async with httpx.AsyncClient(...) as http_client, AsyncAnthropic(...) as llm: + tasks = [_process_ticker(t, sem, http_client, llm, news_per_ticker, model) + for t in tickers] + results = await asyncio.gather(*tasks, return_exceptions=True) + + successes = [r for r in results if isinstance(r, dict)] + failures = [r for r in results if isinstance(r, BaseException)] + + _upsert_news_sentiment(conn, asof, successes) + + top_pos = sorted(successes, key=lambda r: -r["score_raw"])[:5] + top_neg = sorted(successes, key=lambda r: r["score_raw"])[:5] + + return { + "asof": asof.isoformat(), + "updated": len(successes), + "failures": [str(e) for e in failures], + "duration_sec": ..., + "tokens_input": sum(r["tokens_input"] for r in successes), + "tokens_output": sum(r["tokens_output"] for r in successes), + "top_pos": top_pos, + "top_neg": top_neg, + } + + +async def _process_ticker(ticker, sem, http_client, llm, news_per_ticker, model): + async with sem: + await asyncio.sleep(0.2) # rate limit + news = await scraper.fetch_news(http_client, ticker, n=news_per_ticker) + if not news: + return {"ticker": ticker, "score_raw": 0.0, + "reason": "no news", "news_count": 0, + "tokens_input": 0, "tokens_output": 0} + return await analyzer.score_sentiment(llm, ticker, news, model=model) +``` + +--- + +## 8. Scraper (`ai_news/scraper.py`) + +```python +NAVER_NEWS_URL = "https://finance.naver.com/item/news_news.naver" + +async def fetch_news(client, ticker, n=5): + r = await client.get(NAVER_NEWS_URL, params={"code": ticker, "page": 1}) + if r.status_code != 200: + return [] + soup = BeautifulSoup(r.text, "lxml") + rows = soup.select("table.type5 tbody tr")[:n] + out = [] + for row in rows: + title_el = row.select_one("td.title a") + date_el = row.select_one("td.date") + if not title_el or not date_el: + continue + out.append({ + "title": title_el.get_text(strip=True), + "date": date_el.get_text(strip=True), + }) + return out +``` + +Rate limit: pipeline 의 `Semaphore(10) + 0.2초 sleep` 으로 보호. + +--- + +## 9. Analyzer (`ai_news/analyzer.py`) + +```python +DEFAULT_MODEL = os.getenv("AI_NEWS_MODEL", "claude-haiku-4-5-20251001") + +PROMPT_TEMPLATE = """다음은 종목 {name}({ticker})에 대한 최근 뉴스 {n}개의 헤드라인입니다. + +{news_block} + +이 뉴스들이 종목에 호재인지 악재인지 평가하세요. +score: -10(매우 강한 악재) ~ +10(매우 강한 호재) 사이의 실수. 0은 중립. +reason: 30자 이내 한 줄 근거. + +JSON으로만 응답하세요: +{{"score": , "reason": ""}}""" + +async def score_sentiment(llm, ticker, news, *, model=DEFAULT_MODEL, name=None): + news_block = "\n".join(f"- {n['title']}" for n in news) + prompt = PROMPT_TEMPLATE.format( + name=name or ticker, ticker=ticker, + n=len(news), news_block=news_block, + ) + resp = await llm.messages.create( + model=model, max_tokens=200, + messages=[{"role": "user", "content": prompt}], + ) + try: + text = resp.content[0].text + data = json.loads(text) + return { + "ticker": ticker, + "score_raw": float(data["score"]), + "reason": str(data["reason"])[:200], + "news_count": len(news), + "tokens_input": resp.usage.input_tokens, + "tokens_output": resp.usage.output_tokens, + } + except (json.JSONDecodeError, KeyError, ValueError) as e: + log.warning("ai_news parse fail for %s: %s", ticker, e) + return { + "ticker": ticker, "score_raw": 0.0, + "reason": f"parse fail: {e!s}", + "news_count": len(news), + "tokens_input": resp.usage.input_tokens, + "tokens_output": resp.usage.output_tokens, + } +``` + +--- + +## 10. 텔레그램 메시지 (`ai_news/telegram.py`) + +```python +def build_telegram_payload(*, asof, top_pos, top_neg, + tokens_input, tokens_output, model): + cost_won = int(tokens_input * 0.0013 + tokens_output * 0.0065) # ₩ 환산 + lines = [ + f"🌅 *AI 뉴스 분석* ({asof} 08:00)", + "", + "📈 *호재 Top 5*", + ] + for i, r in enumerate(top_pos, 1): + lines.append( + f"{i}\\. {_escape(r['ticker'])} \\({r['score_raw']:+.1f}\\) — " + f"{_escape(r['reason'])}" + ) + lines += ["", "📉 *악재 Top 5*"] + for i, r in enumerate(top_neg, 1): + lines.append( + f"{i}\\. {_escape(r['ticker'])} \\({r['score_raw']:+.1f}\\) — " + f"{_escape(r['reason'])}" + ) + lines += [ + "", + f"_분석: 시총 상위 100종목 · 토큰 {tokens_input:,} in / {tokens_output:,} out · " + f"약 ₩{cost_won:,}_", + ] + return "\n".join(lines) +``` + +agent-office 가 텔레그램 발송 책임: stock-lab `/refresh-news-sentiment` 응답을 받아 `messaging.send_raw(text, parse_mode="MarkdownV2")` 호출. + +--- + +## 11. agent-office 통합 + +### 11.1 `agents/stock.py` + +```python +async def on_ai_news_schedule(self): + """평일 08:00 KST cron.""" + try: + result = await service_proxy.refresh_ai_news_sentiment() + except httpx.HTTPError as e: + await self.telegram.send_raw(f"⚠️ AI 뉴스 분석 실패: {e!s}") + return + + if result.get("updated", 0) == 0: + await self.telegram.send_raw("⚠️ AI 뉴스: 0종목 분석됨 (스크래핑/LLM 전체 실패)") + return + + failure_rate = len(result.get("failures", [])) / 100 + if failure_rate > 0.3: + await self.telegram.send_raw( + f"⚠️ AI 뉴스 실패율 {failure_rate:.0%} — 어제 데이터 사용 가능성" + ) + + payload = build_telegram_payload( + asof=result["asof"], + top_pos=result["top_pos"], top_neg=result["top_neg"], + tokens_input=result["tokens_input"], + tokens_output=result["tokens_output"], + model=DEFAULT_MODEL, + ) + await self.telegram.send_raw(payload, parse_mode="MarkdownV2") +``` + +### 11.2 `scheduler.py` + +```python +scheduler.add_job( + stock_agent.on_ai_news_schedule, + "cron", day_of_week="mon-fri", hour=8, minute=0, + id="stock_ai_news_sentiment", + timezone="Asia/Seoul", +) +``` + +--- + +## 12. 에러 처리 + +| 상황 | 처리 | +|------|------| +| 네이버 뉴스 페이지 404/타임아웃 | 해당 종목 score_raw=0 + reason="no news", failures 별도 카운트 | +| BeautifulSoup 파싱 실패 (HTML 구조 변경) | 동일 처리 (failures 카운트) | +| LLM JSON 파싱 실패 | score_raw=0 + reason="parse fail", tokens는 그래도 누적 (실제 호출됨) | +| anthropic API 5xx | 자동 retry 1회 (SDK 기본), 실패 시 failures 카운트 | +| 전체 cron 실패 (네트워크 등) | agent-office 에러 텔레그램 + 16:30 잡은 어제 sentiment 데이터 사용 (date 비교로 자동) | +| 실패율 > 30% | 텔레그램 경고 알림. 단 부분 데이터는 그대로 DB 반영 | +| 16:30 시점 news_sentiment 비어 있음 | AiNewsSentiment.compute() 가 빈 Series 반환 → 가중합에서 이 노드 자동 제외 | +| LLM이 -10/+10 범위 벗어난 값 응답 | clamp `max(-10, min(10, score))` 적용 | + +--- + +## 13. 동시성 & rate limit + +- `asyncio.Semaphore(10)` — 동시 10종목 처리 (네이버 차단 회피) +- 종목 처리 사이 0.2초 sleep (semaphore 안에서) +- 100종목 ÷ 10 동시 × 평균 3초/종목 = **~30-60초 총 소요** +- agent-office httpx timeout = 180초 (충분한 여유) +- stock-lab _conn() 의 WAL + busy_timeout=120s 로 16:30 잡과 동시 실행 시 lock 보호 + +--- + +## 14. 비용 모니터링 + +- 종목당 평균: input ~500 tokens, output ~50 tokens +- 일 비용: 50K input × $1/M + 5K output × $5/M = **$0.075/일** +- 월 비용: **~$1.6** (텔레그램 메시지 하단에 매일 ₩72 형태로 표시) +- `news_sentiment.tokens_input/output` 컬럼으로 누적 추적 가능 +- 환산: 1 USD ≈ ₩1,300, input $0.0013/K, output $0.0065/K (장기 평균) + +--- + +## 15. 프론트엔드 변경 + +캔버스 모드에 8번째 점수 노드 추가. 아래 한 파일만 수정: + +```js +// canvasLayout.js +export const NODE_IDS = { + ..., + AI_NEWS: 'score-ai-news', // 신규 + ..., +}; +export const NODE_KIND_MAP = { ..., [NODE_IDS.AI_NEWS]: 'score', ... }; +export const SCORE_NODE_NAME_MAP = { ..., [NODE_IDS.AI_NEWS]: 'ai_news' }; +export const SCORE_NODE_LABEL = { + ..., + [NODE_IDS.AI_NEWS]: { icon: '🤖', title: 'AI 뉴스' }, +}; +export const INITIAL_NODE_POSITIONS = { + ..., + // 기존 7개 score y: 0,90,180,270,360,450,540 → 8개 y: 0,90,...,630 + [NODE_IDS.AI_NEWS]: { x: 480, y: 630 }, +}; +const SCORE_KEYS = [..., 'AI_NEWS']; // 한 줄 추가 +``` + +폼 모드 `NodePanel` 은 백엔드 `/api/stock/screener/nodes` 응답 기반이라 백엔드 등록만으로 자동 반영. + +테스트 갱신: +- `canvasLayout.test.js`: 8 score 노드, 18 엣지 (1+8+8+1), Object.keys(SCORE_NODE_NAME_MAP) === 8 + +--- + +## 16. 테스트 전략 + +### 16.1 backend 단위 테스트 + +| 파일 | 검증 | +|------|------| +| `test_ai_news_scraper.py` | 네이버 HTML mock 파싱 (3종목 fixture, 빈 HTML, 404 응답) | +| `test_ai_news_analyzer.py` | anthropic mock — success / JSON 파싱 실패 / score 범위 클램프 | +| `test_ai_news_pipeline.py` | 5종목 mini integration (scraper/analyzer monkeypatch) — top_pos/top_neg 정렬 검증, failures 격리 검증 | +| `test_ai_news_node.py` | AiNewsSentiment.compute() — percentile_rank 결과, min_news_count 필터, 빈 컨텍스트 | +| `test_screener_schema.py` | news_sentiment DDL 생성 확인 (기존 테스트 보강) | +| `test_screener_router.py` | POST /snapshot/refresh-news-sentiment 라우팅 검증 (mock pipeline) | + +### 16.2 frontend 회귀 테스트 + +| 파일 | 검증 | +|------|------| +| `canvasLayout.test.js` (수정) | SCORE_NODE_NAME_MAP 8 entries, EDGES 18, AI_NEWS가 gate→score→combine 경로 가짐 | + +### 16.3 수동 검증 체크리스트 + +배포 전 NAS에서: +- [ ] 08:00 cron 트리거 (수동 `agent-office.on_ai_news_schedule()`) +- [ ] news_sentiment 테이블에 100종목 행 생성 확인 +- [ ] 텔레그램 메시지 호재/악재 Top 5 + 비용 라인 정상 표시 +- [ ] 16:30 스크리너 잡이 ai_news 점수 가중합에 반영 (스크리너 결과의 scores.ai_news 컬럼 확인) +- [ ] 캔버스 모드에 🤖 AI 뉴스 노드 표시, 활성/비활성 토글 동작 +- [ ] LLM 실패 시뮬레이션 (ANTHROPIC_API_KEY 잘못 설정 후 cron) → fail-soft 동작 + +--- + +## 17. 배포 + +- **백엔드**: stock-lab + agent-office 동시 변경 → git push → Gitea webhook → 자동 deployer rsync + docker compose build +- **DB 마이그레이션**: `ensure_screener_schema(conn)` 의 `CREATE TABLE IF NOT EXISTS` 로 자동 (기존 패턴) +- **환경변수**: stock-lab docker-compose.yml 에 `AI_NEWS_MODEL` (옵션) 추가 가능. 기본값 `claude-haiku-4-5-20251001` +- **프론트**: web-ui에서 `npm run release:nas` (캔버스 노드 1개 추가는 작은 변경) + +--- + +## 18. 후속 슬라이스 후보 (이번 슬라이스 NOT) + +본 슬라이스 완료 후 자연스럽게 이어질 작업: + +1. **URL 단위 캐싱** — 뉴스 분석 비용 ~70% 절감 +2. **장중 16:00 추가 sentiment cron** — 16:30 스크리너에 더 신선한 데이터 공급 +3. **종목별 sentiment 트렌드 차트** — 데이터 1-2주 누적 후 시각화 +4. **시총 200~500 확장** — 중소형주 sentiment 커버리지 +5. **백테스트** — sentiment 점수가 실수익에 미친 영향 회귀 +6. **다국어/거시 뉴스 통합** — 글로벌 시장 영향 변수 추가 +7. **알림 토글** — 운영 중 텔레그램 알림 일시 정지 옵션 +8. **종목별 sentiment 페이지** — 상세 뉴스 + 점수 + LLM 근거 가시화 + +--- + +## 19. 리스크와 완화 + +| 리스크 | 완화 | +|--------|------| +| 네이버 finance HTML 구조 변경 | 단위 테스트로 빠른 감지. fail-soft (해당 종목 skip). 운영 알림 (실패율 > 30%) | +| LLM 응답이 JSON 깨짐 | 종목당 1콜 + JSON-mode prompt + 파싱 실패 시 단일 종목만 skip. lotto curator에서 검증된 패턴 | +| 네이버 차단 (429) | Semaphore(10) + 0.2초 sleep + httpx User-Agent. 향후 429 응답 시 exponential backoff 추가 | +| anthropic API 비용 폭증 | 일 1회 100종목 = $0.075 상한. 토큰 모니터링 컬럼 + 텔레그램 표시로 즉시 감지 | +| 08:00 cron이 16:30 잡과 lock 충돌 | _conn() WAL + busy_timeout=120s 로 흡수. 두 cron 시간 8.5시간 차이로 실질 충돌 없음 | +| 16:30 시점 news_sentiment 비어 있음 (cron 실패) | AiNewsSentiment.compute() 가 빈 Series → 가중합에서 자동 제외. 다른 7노드 점수만 사용 | + +--- + +## 20. 완료 조건 (Definition of Done) + +- [ ] 평일 08:00 KST agent-office cron 등록, 수동 트리거로 실행 검증 +- [ ] news_sentiment 테이블에 100종목 데이터 일별 생성 +- [ ] 텔레그램에 호재/악재 Top 5 + 비용 라인 표시 +- [ ] 16:30 스크리너 잡에서 ai_news 점수가 가중합에 반영 (scores.ai_news 노출) +- [ ] 캔버스 모드에 8번째 노드 🤖 AI 뉴스 표시, 가중치/활성/파라미터 편집 동작 +- [ ] 폼 모드 NodePanel에 AI 뉴스 자동 노출 (백엔드 메타 기반) +- [ ] 16.1 단위 테스트 모두 통과 +- [ ] 16.3 수동 검증 체크리스트 모두 통과 +- [ ] LLM 실패 시 fail-soft 동작 (전체 잡은 성공으로 끝나고, 실패 종목만 누락)