PC 메모리 부하 해소를 위해 뉴스 요약 기본 provider를 Ollama qwen3:14b → Claude Haiku 4.5로 변경. LLM_PROVIDER 환경변수로 언제든 ollama 롤백 가능. - ai_summarizer.py: provider 분리 (_summarize_with_claude / _summarize_with_ollama) - OllamaError는 LLMError alias로 유지 (main.py 수정 불필요) - Anthropic Messages API 직접 호출 (httpx, 의존성 추가 없음) - docker-compose + .env.example: LLM_PROVIDER, ANTHROPIC_MODEL 추가 Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
85 lines
2.6 KiB
Plaintext
85 lines
2.6 KiB
Plaintext
# ---------------------------------------------------------------------------
|
|
# [Environment Configuration]
|
|
# 이 파일을 복사하여 .env 파일을 생성하고, 환경에 맞게 주석을 해제/수정하여 사용하세요.
|
|
# ---------------------------------------------------------------------------
|
|
|
|
# [COMMON]
|
|
APP_VERSION=dev
|
|
TZ=Asia/Seoul
|
|
LOTTO_ALL_URL=https://smok95.github.io/lotto/results/all.json
|
|
LOTTO_LATEST_URL=https://smok95.github.io/lotto/results/latest.json
|
|
|
|
# [SECURITY]
|
|
WEBHOOK_SECRET=change_this_secret_in_prod
|
|
|
|
# [PATHS]
|
|
# 1. 런타임 데이터 루트 (docker-compose.yml이 실행되는 위치)
|
|
# NAS: /volume1/docker/webpage
|
|
# Local: . (현재 프로젝트 루트)
|
|
RUNTIME_PATH=.
|
|
|
|
# 2. Git 저장소 루트
|
|
# NAS: /volume1/workspace/web-page-backend
|
|
# Local: .
|
|
REPO_PATH=.
|
|
|
|
# 3. Frontend 정적 파일 경로
|
|
# NAS: /volume1/docker/webpage/frontend (업로드된 파일)
|
|
# Local: ./frontend/dist (빌드된 결과물)
|
|
FRONTEND_PATH=./frontend/dist
|
|
|
|
# 4. 여행 사진 원본 경로
|
|
# NAS: /volume1/web/images/webPage/travel
|
|
# Local: ./mock_data/photos
|
|
PHOTO_PATH=./mock_data/photos
|
|
|
|
# 5. 주식 데이터 저장 경로
|
|
# NAS: /volume1/docker/webpage/data/stock
|
|
# Local: ./data/stock
|
|
STOCK_DATA_PATH=./data/stock
|
|
|
|
# [PERMISSIONS]
|
|
# NAS: 1026:100
|
|
# Local: 1000:1000 (Windows Docker Desktop의 경우 크게 중요하지 않음)
|
|
PUID=1000
|
|
PGID=1000
|
|
|
|
# [STOCK LAB]
|
|
# NAS는 Windows AI Server로 요청을 중계(Proxy)하는 역할만 수행합니다.
|
|
# 실제 KIS API 호출 및 AI 분석은 Windows PC에서 수행됩니다.
|
|
|
|
# Windows AI Server (NAS 입장에서 바라본 Windows PC IP)
|
|
WINDOWS_AI_SERVER_URL=http://192.168.45.59:8000
|
|
|
|
# Admin API Key (trade/order 등 민감 엔드포인트 보호, 미설정 시 인증 비활성화)
|
|
ADMIN_API_KEY=
|
|
|
|
# Anthropic API Key (AI Coach 프록시 + 뉴스 요약 Claude provider)
|
|
ANTHROPIC_API_KEY=
|
|
ANTHROPIC_MODEL=claude-haiku-4-5-20251001
|
|
|
|
# 뉴스 요약 provider 전환: claude (기본) | ollama
|
|
LLM_PROVIDER=claude
|
|
|
|
# Ollama 서버 (LLM_PROVIDER=ollama 일 때만 사용)
|
|
OLLAMA_URL=http://192.168.45.59:11435
|
|
OLLAMA_MODEL=qwen3:14b
|
|
|
|
# [BLOG LAB]
|
|
# Naver Search API (https://developers.naver.com 에서 발급)
|
|
NAVER_CLIENT_ID=
|
|
NAVER_CLIENT_SECRET=
|
|
|
|
# 블로그 데이터 저장 경로
|
|
# BLOG_DATA_PATH=./data/blog
|
|
|
|
# [MUSIC LAB]
|
|
# Suno API Key (https://suno.com 에서 발급, 미설정 시 Suno provider 비활성화)
|
|
SUNO_API_KEY=
|
|
|
|
# 로컬 MusicGen AI Server URL (미설정 시 Local provider 비활성화)
|
|
# MUSIC_AI_SERVER_URL=http://192.168.45.59:8765
|
|
|
|
# CORS 허용 도메인 (콤마 구분)
|
|
CORS_ALLOW_ORIGINS=https://gahusb.synology.me,http://localhost:3007,http://localhost:8080
|