- 소형 언어 모델(SLM)의 가능성을 입증한 Phi 시리즈 공개 1주년을 맞아, 추론에 최적화되고 멀티스텝 사고에 특화된 새로운 모델군을 발표함
- 파라미터 규모가 작음에도 불구하고 대형 모델과 비견될 성능을 보임
-
Phi-4-reasoning: 14B 파라미터, 고품질 reasoning 데이터로 SFT(Supervised Fine-Tuning) 진행
-
Phi-4-reasoning-plus: 위 모델에 RL(Reinforcement Learning) 추가, 1.5배 더 많은 토큰 사용으로 정확도 향상
-
Phi-4-mini-reasoning: 3.8B 크기에도 불구하고 다양한 수학 벤치마크에서 2배 이상 큰 모델들을 능가 , 모바일/에지에 적합
-
OpenThinker-7B, Llama-3.2-3B, DeepSeek-R1 계열 등 다양한 모델을 성능 측면에서 능가함
-
OpenAI o1-mini와 유사하거나 우위의 성과, 특히 Math-500, GPQA Diamond 등 수학 중심 테스트에서 강세
- 이 모델들은 Copilot+ PC에서 NPU 최적화 버전인 Phi Silica로 제공되어 Windows 환경에서 빠르고 효율적인 실행 가능
- Azure AI Foundry 및 HuggingFace에서 공개:
-
개발자 API 및 로컬 통합 도구도 함께 제공되어 다양한 환경에 쉽게 접목 가능