LSTM v3 멀티피처, KIS OHLCV 배치, 동적 전략 강화
- deep_learning.py: INPUT_SIZE=7 (close/open/high/low/volume/rsi/macd), feature_scaler/target_scaler 분리, ModelRegistry LRU 종목별 격리 (v3 체크포인트) - kis.py: get_daily_ohlcv() OHLCV 전체 반환, KISAsyncClient 비동기 배치 조회 추가, order() 지정가/조건부 주문 지원 - strategy/process.py: ATR/ADX 기반 동적 손절익절, 트레일링 스탑, 포지션 사이징 강화 - config.py: OLLAMA_NUM_THREAD=8 (9800X3D 최적화), LSTM_COOLDOWN/FAST_EPOCHS 환경변수화 - macro.py: 거시경제 지표 계산 개선 - ollama.py: VRAM 여유량 기반 선택적 언로드 - monitor.py: CPU 서킷 브레이커 연속 횟수 조건 추가 - ipc.py: IPC_STALENESS 600초로 확대 - news.py: 비동기 뉴스 수집 개선 - telegram.py, runner.py: 안정성 개선 Co-Authored-By: Claude Sonnet 4.6 <noreply@anthropic.com>
This commit is contained in:
@@ -113,20 +113,24 @@ class OllamaManager:
|
||||
"model": self.model_name,
|
||||
"prompt": prompt,
|
||||
"stream": False,
|
||||
"format": "json", # JSON 강제
|
||||
"format": "json",
|
||||
"options": {
|
||||
"num_ctx": 8192, # [5070Ti 최적화] 컨텍스트 크기 2배 증가 (4096 -> 8192)
|
||||
"temperature": 0.2, # 분석 일관성 유지
|
||||
"num_gpu": 1, # GPU 사용 명시
|
||||
"num_thread": 8 # CPU 스레드 수 (9800X3D 활용)
|
||||
"num_ctx": Config.OLLAMA_NUM_CTX, # 4096 (속도 2배)
|
||||
"num_predict": Config.OLLAMA_NUM_PREDICT, # 응답 토큰 제한
|
||||
"temperature": 0.1, # 더 결정론적 (JSON 파싱 안정성)
|
||||
"num_gpu": 1,
|
||||
"num_thread": Config.OLLAMA_NUM_THREAD # Config 설정값 (기본 8)
|
||||
},
|
||||
"keep_alive": "10m" # [5070Ti 최적화] 10분간 유지 (메모리 여유 있음)
|
||||
"keep_alive": "5m" # 5분 유지 (불필요한 VRAM 점유 줄임)
|
||||
}
|
||||
|
||||
|
||||
try:
|
||||
response = requests.post(self.generate_url, json=payload, timeout=180) # 타임아웃 증가
|
||||
response = requests.post(self.generate_url, json=payload, timeout=90) # 180→90초
|
||||
response.raise_for_status()
|
||||
return response.json().get('response')
|
||||
except requests.exceptions.Timeout:
|
||||
print(f"❌ Inference Timeout (90s): {self.model_name}")
|
||||
return None
|
||||
except Exception as e:
|
||||
print(f"❌ Inference Error: {e}")
|
||||
return None
|
||||
|
||||
Reference in New Issue
Block a user