PC 메모리 부하 해소를 위해 뉴스 요약 기본 provider를 Ollama qwen3:14b → Claude Haiku 4.5로 변경. LLM_PROVIDER 환경변수로 언제든 ollama 롤백 가능. - ai_summarizer.py: provider 분리 (_summarize_with_claude / _summarize_with_ollama) - OllamaError는 LLMError alias로 유지 (main.py 수정 불필요) - Anthropic Messages API 직접 호출 (httpx, 의존성 추가 없음) - docker-compose + .env.example: LLM_PROVIDER, ANTHROPIC_MODEL 추가 Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
6.2 KiB
6.2 KiB