









































Elice의 ML API로 ML 워크플로우를 가속화
유연성으로 확장
비용 효율성과 유연성을 위해 Serverless를 선택하거나, 규모에서의 일관된 성능을 위해 전용 리소스를 선택하세요.
성능으로 배포
고성능 인프라에서 상당한 비용 절약으로 AI 실험을 실행하세요. 30시간 추론에 단 43달러.
파이프라인 커스터마이징
포괄적인 훈련 인프라를 통해 자체 데이터를 사용하여 모델을 요구사항에 맞게 조정하세요
AI 모델을 배포하는 유연한 방법
전용 인스턴스와 Serverless API를 통해 이용 가능
Serverless
Serverless 추론으로 빠른 시작, 원활한 확장
서버 관리 없이 몇 초 만에 모델을 배포하세요. 자동 확장과 함께 API 호출당 과금. 가변 워크로드와 비용 효율적인 추론에 이상적입니다.

Dedicated
완전한 ML 제어를 위한 전용 엔드포인트 프로비저닝
맞춤형 리소스로 일관된 성능을 얻으세요. 프로덕션에서 안정적인 처리량을 위해 구성을 최적화하세요. 대용량, 성능 중심 워크로드에 완벽합니다.

AI 모델 라이브러리 탐색
연구 등을 위한 오픈소스 및 전문 모델로 구축하세요.

Korean language model developed by NAVER with 1.5 billion parameters.

The latest open-source LLM released by TrillionLabs.

Specialized in Korean education and cultural appropriateness, with performance comparable to GPT-4o mini.

Specialized in Korean education and cultural appropriateness, with performance on par with GPT-4o.

Korean-focused multimodal AI, DeepSeek-R1, uses CoT methodology and has 7 billion parameters, excelling in MTVQA.

Korean language model developed by NAVER with 3 billion parameters.

The model by LG AI, featuring 7.8 billion parameters, debuted in August 2024.

Launched by OpenAI for speech recognition and translation.

A compact model for high-quality speech synthesis with 82M parameters

From DeepSeek-R1's inference capabilities to Qwen2.5-70B.

From DeepSeek-R1's inference capabilities into Qwen2.5-32B.

It effectively understands Korean context and grammar.