31B · Gemma4-31B-IT

ALLM.H-MH

Mental Health Specialist Model
ALLM.H 기반 정신건강 특화 모델. 우울증, 불안장애, PTSD 등 정신건강 영역의 전문적인 임상 지원을 제공합니다.
Model Card
Base Model
Gemma4-31B-IT
Parameters
31B
License
Gemma License + Acryl Research License
Languages
Korean, English
Modalities
Text
Hardware
8× NVIDIA H100 80GB
Training Pipeline
Base Model
Gemma4-31B-IT (K-MHBench Base 55.29%)
SimPO Preference Optimization
PHQ-9/GAD-7 스크리닝 + 상담 + 위기탐지 DPO pairs
Screening Pipeline
자연어 발화 → PHQ-9/GAD-7 자동 수행 → 위험도 분류
What Makes This Different
기존 연구우리 차별점
범용 정신건강 챗봇ALLM.H(KMLE SOTA) 기반 — 의학 지식 위에 정신건강 특화
영어 Mental Health LLM한국어 정신건강 + PHQ-9/GAD-7 자동 스크리닝
기존 PHQ-9 분류 (81.7%)LLM 기반 대화형 스크리닝 + 위기탐지 100%
Paper Contributions
  • K-MHBench: 국내 최초 한국어 정신건강 AI 벤치마크 (700건)
  • Gemma4-31B 기반 PHQ-9/GAD-7 자동 스크리닝
  • 위기 탐지 100% (Base 모델 zero-shot)
  • 전국민 정신건강 스크리닝 제품화 (몽골 시장)
Benchmarks
BenchmarkScoreBaseline / SOTAMetric
K-MHBench PHQ-9 (Base)55.5%Target 90%+Accuracy
K-MHBench GAD-7 (Base)49.5%Target 90%+Accuracy
K-MHBench 위기탐지 (Base)100%-Accuracy
Training Data
Quick Start
# pip install transformers torch
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("Acryl-aLLM/ALLM.H-MH")
tokenizer = AutoTokenizer.from_pretrained("Acryl-aLLM/ALLM.H-MH")

messages = [
    {"role": "user", "content": "65세 남성, 갑작스런 흉통과 호흡곤란. 감별 진단은?"}
]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
output = model.generate(**inputs, max_new_tokens=1024)
print(tokenizer.decode(output[0], skip_special_tokens=True))