Bifrost - 초고속 엔터프라이즈 AI 게이트웨이
5 hours ago
1
- LiteLLM 대비 50배 빠름. 적응형 로드 밸런서, 클러스터 모드, 가드레일, 1,000개 이상 모델 지원, 5k RPS에서 100µs 미만 오버헤드
- OpenAI, Anthropic, AWS Bedrock, Google Vertex 15개 이상 AI 프로바이더를 단일 OpenAI 호환 API로 통합
- npx -y @maximhq/bifrost 한 줄이면 즉시 실행, 설정 없이 즉시 배포 가능하며 내장 웹 UI로 실시간 모니터링과 분석 지원
- 프로바이더·모델 간 자동 페일오버와 복수 API 키에 걸친 지능적 로드 밸런싱으로 다운타임 제로 유지
- 텍스트, 이미지, 오디오, 스트리밍을 공통 인터페이스로 처리하는 멀티모달 지원
- 의미적 유사도 기반 Semantic Caching으로 중복 요청의 비용과 지연 시간 절감
- 기존 API의 base URL만 변경하면 코드 수정 없이 즉시 전환 가능한 드롭인 교체 방식 지원
- Custom Plugins를 통한 확장 가능한 미들웨어 아키텍처로 분석, 모니터링, 커스텀 로직 추가 가능
- MCP 지원으로 AI 모델이 파일시스템, 웹 검색, 데이터베이스 등 외부 도구 직접 호출 가능
- 가상 키·팀·고객 단위의 계층적 예산 관리, 레이트 리미팅, SSO, HashiCorp Vault 연동 등 엔터프라이즈 보안·거버넌스 기능을 갖추어 대규모 프로덕션 AI 시스템 운영에 적합
- Go SDK, HTTP Gateway, Docker 등 다양한 배포 옵션 제공
- Apache-2.0 라이선스, Go 언어로 구현
-
Homepage
-
Tech blog
- Bifrost - 초고속 엔터프라이즈 AI 게이트웨이