Microsoft, 추론에 최적화한 Phi-4 발표

19 hours ago 2

  • 소형 언어 모델(SLM)의 가능성을 입증한 Phi 시리즈 공개 1주년을 맞아, 추론에 최적화되고 멀티스텝 사고에 특화새로운 모델군을 발표
  • 파라미터 규모가 작음에도 불구하고 대형 모델과 비견될 성능을 보임
  • Phi-4-reasoning: 14B 파라미터, 고품질 reasoning 데이터로 SFT(Supervised Fine-Tuning) 진행
  • Phi-4-reasoning-plus: 위 모델에 RL(Reinforcement Learning) 추가, 1.5배 더 많은 토큰 사용으로 정확도 향상
  • Phi-4-mini-reasoning: 3.8B 크기에도 불구하고 다양한 수학 벤치마크에서 2배 이상 큰 모델들을 능가 , 모바일/에지에 적합
    • OpenThinker-7B, Llama-3.2-3B, DeepSeek-R1 계열 등 다양한 모델을 성능 측면에서 능가함
    • OpenAI o1-mini와 유사하거나 우위의 성과, 특히 Math-500, GPQA Diamond 등 수학 중심 테스트에서 강세
  • 이 모델들은 Copilot+ PC에서 NPU 최적화 버전Phi Silica로 제공되어 Windows 환경에서 빠르고 효율적인 실행 가능
  • Azure AI Foundry 및 HuggingFace에서 공개:
  • 개발자 API 및 로컬 통합 도구도 함께 제공되어 다양한 환경에 쉽게 접목 가능

Read Entire Article