31B · Gemma4-31B-IT
ALLM.H-MH
Mental Health Specialist Model
ALLM.H 기반 정신건강 특화 모델. 우울증, 불안장애, PTSD 등 정신건강 영역의 전문적인 임상 지원을 제공합니다.
Model Card
Base Model
Gemma4-31B-IT
Parameters
31B
License
Gemma License + Acryl Research License
Languages
Korean, English
Modalities
Text
Hardware
8× NVIDIA H100 80GB
Training Pipeline
Base Model
Gemma4-31B-IT (K-MHBench Base 55.29%)
SimPO Preference Optimization
PHQ-9/GAD-7 스크리닝 + 상담 + 위기탐지 DPO pairs
Screening Pipeline
자연어 발화 → PHQ-9/GAD-7 자동 수행 → 위험도 분류
What Makes This Different
| 기존 연구 | 우리 차별점 |
|---|---|
| 범용 정신건강 챗봇 | ALLM.H(KMLE SOTA) 기반 — 의학 지식 위에 정신건강 특화 |
| 영어 Mental Health LLM | 한국어 정신건강 + PHQ-9/GAD-7 자동 스크리닝 |
| 기존 PHQ-9 분류 (81.7%) | LLM 기반 대화형 스크리닝 + 위기탐지 100% |
Paper Contributions
- K-MHBench: 국내 최초 한국어 정신건강 AI 벤치마크 (700건)
- Gemma4-31B 기반 PHQ-9/GAD-7 자동 스크리닝
- 위기 탐지 100% (Base 모델 zero-shot)
- 전국민 정신건강 스크리닝 제품화 (몽골 시장)
Benchmarks
| Benchmark | Score | Baseline / SOTA | Metric |
|---|---|---|---|
| K-MHBench PHQ-9 (Base) | 55.5% | Target 90%+ | Accuracy |
| K-MHBench GAD-7 (Base) | 49.5% | Target 90%+ | Accuracy |
| K-MHBench 위기탐지 (Base) | 100% | - | Accuracy |
Training Data
- PREFERENCE354K samples (PHQ-9 + GAD-7 + counseling + crisis + emotion)
- BENCHMARKK-MHBench 700건 (국내 최초 한국어 정신건강 AI 벤치마크)
Quick Start
# pip install transformers torch from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("Acryl-aLLM/ALLM.H-MH") tokenizer = AutoTokenizer.from_pretrained("Acryl-aLLM/ALLM.H-MH") messages = [ {"role": "user", "content": "65세 남성, 갑작스런 흉통과 호흡곤란. 감별 진단은?"} ] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) inputs = tokenizer(text, return_tensors="pt").to(model.device) output = model.generate(**inputs, max_new_tokens=1024) print(tokenizer.decode(output[0], skip_special_tokens=True))