diff --git a/backend/app/main.py b/backend/app/main.py index f6813cf..f75be09 100644 --- a/backend/app/main.py +++ b/backend/app/main.py @@ -9,7 +9,7 @@ from .db import ( save_recommendation_dedup, list_recommendations_ex, delete_recommendation, update_recommendation, ) -from .recommender import recommend_numbers +from .recommender import recommend_numbers, recommend_with_heatmap from .collector import sync_latest, sync_ensure_all from .generator import generate_smart_recommendations from .generator import generate_smart_recommendations @@ -223,6 +223,124 @@ def api_recommend( "tries": tries, } +# ---------- ✅ heatmap-based recommend ---------- +@app.get("/api/lotto/recommend/heatmap") +def api_recommend_heatmap( + heatmap_window: int = 20, + heatmap_weight: float = 1.5, + recent_window: int = 200, + recent_weight: float = 2.0, + avoid_recent_k: int = 5, + + # ---- optional constraints ---- + sum_min: Optional[int] = None, + sum_max: Optional[int] = None, + odd_min: Optional[int] = None, + odd_max: Optional[int] = None, + range_min: Optional[int] = None, + range_max: Optional[int] = None, + max_overlap_latest: Optional[int] = None, + max_try: int = 200, +): + """ + 히트맵 기반 추천: 과거 추천 번호들의 적중률을 분석하여 가중치 부여 + """ + draws = get_all_draw_numbers() + if not draws: + raise HTTPException(status_code=404, detail="No data yet") + + # 과거 추천 데이터 가져오기 (적중 결과가 있는 것만) + past_recs = list_recommendations_ex(limit=100, sort="id_desc") + + latest = get_latest_draw() + + params = { + "heatmap_window": heatmap_window, + "heatmap_weight": float(heatmap_weight), + "recent_window": recent_window, + "recent_weight": float(recent_weight), + "avoid_recent_k": avoid_recent_k, + "sum_min": sum_min, + "sum_max": sum_max, + "odd_min": odd_min, + "odd_max": odd_max, + "range_min": range_min, + "range_max": range_max, + "max_overlap_latest": max_overlap_latest, + "max_try": int(max_try), + } + + def _accept(nums: List[int]) -> bool: + m = calc_metrics(nums) + if sum_min is not None and m["sum"] < sum_min: + return False + if sum_max is not None and m["sum"] > sum_max: + return False + if odd_min is not None and m["odd"] < odd_min: + return False + if odd_max is not None and m["odd"] > odd_max: + return False + if range_min is not None and m["range"] < range_min: + return False + if range_max is not None and m["range"] > range_max: + return False + + if max_overlap_latest is not None: + ov = calc_recent_overlap(nums, draws, last_k=avoid_recent_k) + if ov["repeats"] > max_overlap_latest: + return False + return True + + chosen = None + explain = None + + tries = 0 + while tries < max_try: + tries += 1 + result = recommend_with_heatmap( + draws, + past_recs, + heatmap_window=heatmap_window, + heatmap_weight=heatmap_weight, + recent_window=recent_window, + recent_weight=recent_weight, + avoid_recent_k=avoid_recent_k, + ) + nums = result["numbers"] + if _accept(nums): + chosen = nums + explain = result["explain"] + break + + if chosen is None: + raise HTTPException( + status_code=400, + detail=f"Constraints too strict. No valid set found in max_try={max_try}.", + ) + + # ✅ dedup save + saved = save_recommendation_dedup( + latest["drw_no"] if latest else None, + chosen, + params, + ) + + metrics = calc_metrics(chosen) + overlap = calc_recent_overlap(chosen, draws, last_k=avoid_recent_k) + + return { + "id": saved["id"], + "saved": saved["saved"], + "deduped": saved["deduped"], + "based_on_latest_draw": latest["drw_no"] if latest else None, + "numbers": chosen, + "explain": explain, + "params": params, + "metrics": metrics, + "recent_overlap": overlap, + "tries": tries, + } + # ---------- ✅ history list (filter/paging) ---------- @app.get("/api/history") def api_history( diff --git a/backend/app/recommender.py b/backend/app/recommender.py index 3c86560..7f53a8b 100644 --- a/backend/app/recommender.py +++ b/backend/app/recommender.py @@ -66,3 +66,98 @@ def recommend_numbers( return {"numbers": chosen_sorted, "explain": explain} + +def recommend_with_heatmap( + draws: List[Tuple[int, List[int]]], + past_recommendations: List[Dict[str, Any]], + *, + heatmap_window: int = 10, + heatmap_weight: float = 1.5, + recent_window: int = 200, + recent_weight: float = 2.0, + avoid_recent_k: int = 5, + seed: int | None = None, +) -> Dict[str, Any]: + """ + 히트맵 기반 가중치 추천: + - 과거 추천 번호들의 적중률을 분석하여 잘 맞춘 번호에 가중치 부여 + - 기존 통계 기반 추천과 결합 + + Args: + draws: 실제 당첨 번호 리스트 [(회차, [번호들]), ...] + past_recommendations: 과거 추천 데이터 [{"numbers": [...], "correct_count": N, "based_on_draw": M}, ...] + heatmap_window: 히트맵 분석할 최근 추천 개수 + heatmap_weight: 히트맵 가중치 (높을수록 과거 적중 번호 선호) + """ + if seed is not None: + random.seed(seed) + + # 1. 기존 통계 기반 가중치 계산 + all_nums = [n for _, nums in draws for n in nums] + freq_all = Counter(all_nums) + + recent = draws[-recent_window:] if len(draws) >= recent_window else draws + recent_nums = [n for _, nums in recent for n in nums] + freq_recent = Counter(recent_nums) + + last_k = draws[-avoid_recent_k:] if len(draws) >= avoid_recent_k else draws + last_k_nums = set(n for _, nums in last_k for n in nums) + + # 2. 히트맵 생성: 과거 추천에서 적중한 번호들의 빈도 + heatmap = Counter() + recent_recs = past_recommendations[-heatmap_window:] if len(past_recommendations) >= heatmap_window else past_recommendations + + for rec in recent_recs: + if rec.get("correct_count", 0) > 0: # 적중한 추천만 + # 적중 개수에 비례해서 가중치 부여 (많이 맞춘 추천일수록 높은 가중) + weight = rec["correct_count"] ** 1.5 # 제곱으로 강조 + for num in rec["numbers"]: + heatmap[num] += weight + + # 3. 최종 가중치 = 기존 통계 + 히트맵 + weights = {} + for n in range(1, 46): + w = freq_all[n] + recent_weight * freq_recent[n] + + # 히트맵 가중치 추가 + if n in heatmap: + w += heatmap_weight * heatmap[n] + + # 최근 출현 번호 패널티 + if n in last_k_nums: + w *= 0.6 + + weights[n] = max(w, 0.1) + + # 4. 가중 샘플링으로 6개 선택 + chosen = [] + pool = list(range(1, 46)) + for _ in range(6): + total = sum(weights[n] for n in pool) + r = random.random() * total + acc = 0.0 + for n in pool: + acc += weights[n] + if acc >= r: + chosen.append(n) + pool.remove(n) + break + + chosen_sorted = sorted(chosen) + + # 5. 설명 데이터 + explain = { + "recent_window": recent_window, + "recent_weight": recent_weight, + "avoid_recent_k": avoid_recent_k, + "heatmap_window": heatmap_window, + "heatmap_weight": heatmap_weight, + "top_all": [n for n, _ in freq_all.most_common(10)], + "top_recent": [n for n, _ in freq_recent.most_common(10)], + "top_heatmap": [n for n, _ in heatmap.most_common(10)], + "last_k_draws": [d for d, _ in last_k], + "analyzed_recommendations": len(recent_recs), + } + + return {"numbers": chosen_sorted, "explain": explain} + diff --git a/stock-lab/OLLAMA_SETUP.md b/stock-lab/OLLAMA_SETUP.md deleted file mode 100644 index acffb03..0000000 --- a/stock-lab/OLLAMA_SETUP.md +++ /dev/null @@ -1,100 +0,0 @@ -# 🦙 Windows PC Ollama 연동 가이드 - -NAS(Docker)에 있는 `stock-lab` 서비스가 고성능 Windows PC의 Ollama를 사용하여 AI 분석을 수행하도록 설정하는 방법입니다. - -## 1. Windows PC 설정 (AI 서버) - -고성능 PC(9800X3D + 3070 Ti)에서 수행합니다. - -### 1-1. Ollama 설치 및 준비 -1. [Ollama 공식 홈페이지](https://ollama.com/)에서 Windows용 Ollama를 다운로드하여 설치합니다. -2. 명령 프롬프트(CMD)나 PowerShell을 열고 모델을 다운로드합니다. - ```powershell - ollama pull llama3.1 - # 또는 gemma2 (9B) - ollama pull gemma2 - ``` - -### 1-2. 외부 접속 허용 설정 (중요 ⭐️) -기본적으로 Ollama는 로컬(localhost)에서만 접속 가능합니다. NAS에서 접속하려면 이를 모든 IP(`0.0.0.0`)에서 접속 가능하게 변경해야 합니다. - -1. **작업 관리자**를 열고 'Ollama' 프로세스가 있다면 **작업 끝내기**로 종료합니다. (트레이 아이콘 우클릭 -> Quit) -2. **시스템 환경 변수 편집**을 엽니다. (윈도우 키 누르고 "환경 변수" 검색) -3. **시스템 변수(S)** 섹션에서 `새로 만들기(W)...`를 클릭합니다. - * 변수 이름: `OLLAMA_HOST` - * 변수 값: `0.0.0.0` -4. 확인을 눌러 저장하고, Ollama를 다시 실행합니다. - -### 1-3. 방화벽 포트 개방 -Windows Defender 방화벽이 외부 접속을 막을 수 있습니다. - -1. Powershell을 **관리자 권한**으로 실행합니다. -2. 아래 명령어를 입력하여 11434 포트를 엽니다. - ```powershell - New-NetFirewallRule -DisplayName "Ollama API" -Direction Inbound -LocalPort 11434 -Protocol TCP -Action Allow - ``` - (또는 `제어판 > Windows Defender 방화벽 > 고급 설정`에서 인바운드 규칙으로 TCP 11434 포트 허용을 수동으로 추가해도 됩니다.) - -### 1-4. IP 주소 확인 -CMD에서 `ipconfig`를 입력하여 Windows PC의 IP 주소를 확인합니다. -(예: `192.168.0.5`) - -### 1-5. Windows AI 서버 실행 (파이썬 중계 서버) ⭐️ -NAS가 Windows의 Ollama를 직접 호출할 수도 있지만, 더 복잡한 로직(뉴스+잔고 결합 분석 등)을 수행하기 위해 작성한 `windows_ai_server.py`를 실행해야 합니다. - -1. **Python 설치**: Windows에 Python이 설치되어 있어야 합니다. (없다면 [python.org](https://www.python.org/)에서 설치) -2. **프로젝트 폴더 준비**: - * 바탕화면 등에 적당한 폴더(예: `stock-ai`)를 만들고, 앞서 작성한 `windows_ai_server.py` 파일을 넣습니다. -3. **라이브러리 설치**: - * 해당 폴더에서 Shift+우클릭 -> "PowerShell 창 열기" - * 다음 명령어로 필요한 패키지를 설치합니다. - ```powershell - pip install fastapi uvicorn requests pydantic - ``` -4. **서버 실행**: - * 같은 PowerShell 창에서 서버를 실행합니다. - ```powershell - # NAS의 주소를 환경 변수로 설정 (본인의 NAS IP로 수정하세요) - $env:NAS_API_URL="http://192.168.0.2:18500" - - # 서버 실행 (0.0.0.0은 모든 IP 접속 허용을 의미) - python -m uvicorn windows_ai_server:app --host 0.0.0.0 --port 8000 --reload - ``` - * **성공 시**: `Application startup complete.` 메시지가 뜨며 대기 상태가 됩니다. 창을 닫지 마세요. - ---- - -## 2. NAS 설정 (Client) - -Synology NAS의 `web-page-backend` 프로젝트에서 설정합니다. - -### 2-1. .env 파일 수정 -`.env` 파일에 Windows PC의 주소를 입력합니다. - -```bash -# .env 파일 -# ... 기존 설정들 ... - -# 윈도우 PC의 IP로 변경하세요 (http:// 포함, 포트 8000 포함) -# 주의: Ollama(11434)가 아니라, 방금 띄운 Python 서버(8000)를 바라보게 해도 되고, -# 단순 Ollama 호출만 필요하다면 11434로 해도 됩니다. -# 여기서는 AI 서버(8000)를 통해 분석한다고 가정합니다. -WINDOWS_AI_SERVER_URL=http://192.168.0.5:8000 -``` - -### 2-2. 컨테이너 재배포 -변경된 설정을 적용하기 위해 `stock-lab` 컨테이너를 다시 시작합니다. - -```bash -# NAS 터미널 (프로젝트 루트 경로) -docker-compose up -d --build stock-lab -``` - ---- - -## 3. 테스트 - -브라우저나 API 도구를 사용하여 NAS의 주소로 분석 요청을 보냅니다. - -* **요청**: `POST http://192.168.0.5:8000/analyze/portfolio` (Windows PC에서 직접 테스트) -* **결과**: Windows PC의 터미널에 로그가 찍히며 GPU가 작동하고, JSON 응답이 옵니다. diff --git a/stock-lab/app/main.py b/stock-lab/app/main.py index 6db4a66..31f5150 100644 --- a/stock-lab/app/main.py +++ b/stock-lab/app/main.py @@ -8,10 +8,6 @@ import requests from apscheduler.schedulers.background import BackgroundScheduler from pydantic import BaseModel - - - - from .db import init_db, save_articles, get_latest_articles from .scraper import fetch_market_news, fetch_major_indices, fetch_overseas_news @@ -33,7 +29,6 @@ WINDOWS_AI_SERVER_URL = os.getenv("WINDOWS_AI_SERVER_URL", "http://192.168.0.5:8 @app.on_event("startup") def on_startup(): - print(f"[StockLab] Startup. Windows AI Server URL: {WINDOWS_AI_SERVER_URL}") init_db() # 매일 아침 8시 뉴스 스크랩 (NAS 자체 수행) @@ -52,9 +47,10 @@ def run_scraping_job(): articles_kr = fetch_market_news() count_kr = save_articles(articles_kr) - # 2. 해외 - articles_world = fetch_overseas_news() - count_world = save_articles(articles_world) + # 2. 해외 (임시 차단) + # articles_world = fetch_overseas_news() + # count_world = save_articles(articles_world) + count_world = 0 print(f"[StockLab] Saved {count_kr} domestic, {count_world} overseas articles.") @@ -127,25 +123,7 @@ def order_stock(req: OrderRequest): ) -@app.get("/api/stock/analyze") -def analyze_market(): - """Windows PC를 통한 AI 시장 분석""" - print(f"[Proxy] Analyzing Market at {WINDOWS_AI_SERVER_URL}...") - try: - # 빈 JSON Body 전송 - resp = requests.post(f"{WINDOWS_AI_SERVER_URL}/analyze/portfolio", json={}, timeout=120) - - if resp.status_code != 200: - print(f"[ProxyError] Analyze Error: {resp.status_code} {resp.text}") - return JSONResponse(status_code=resp.status_code, content=resp.json()) - - return resp.json() - except Exception as e: - print(f"[ProxyError] Analyze Connection Failed: {e}") - return JSONResponse( - status_code=500, - content={"error": "Connection Failed", "detail": str(e), "target": WINDOWS_AI_SERVER_URL} - ) + @app.get("/api/version") def version():