















EliceのML APIで MLワークフローを加速
柔軟性でスケール
コスト効率と柔軟性のためにServerlessを選択するか、スケールでの一貫したパフォーマンスのために専用リソースを選択。
パフォーマンスでデプロイ
高性能インフラで大幅なコスト削減でAI実験を実行。30時間の推論でわずか43ドル。
パイプラインをカスタマイズ
包括的な学習インフラで独自のデータを使用してモデルをニーズに適応
AIモデルをデプロイする柔軟な方法
専用インスタンスとServerless APIを通じて利用可能
Serverless
Serverless推論で高速開始、楽々スケール
サーバー管理なしで数秒でモデルをデプロイ。自動スケーリングでAPI呼び出し毎に課金。可変ワークロードとコスト効率的な推論に最適。

Dedicated
完全なML制御のための専用エンドポイント提供
カスタマイズされたリソースで一貫したパフォーマンスを取得。本番環境での信頼性のあるスループットのために構成を最適化。大容量、パフォーマンス重視のワークロードに最適。

AIモデルライブラリを探索
研究などのためのオープンソースと専門モデルで構築。

Korean language model developed by NAVER with 1.5 billion parameters.

The latest open-source LLM released by TrillionLabs.

Specialized in Korean education and cultural appropriateness, with performance comparable to GPT-4o mini.

Specialized in Korean education and cultural appropriateness, with performance on par with GPT-4o.

Korean-focused multimodal AI, DeepSeek-R1, uses CoT methodology and has 7 billion parameters, excelling in MTVQA.

Korean language model developed by NAVER with 3 billion parameters.

The model by LG AI, featuring 7.8 billion parameters, debuted in August 2024.

Launched by OpenAI for speech recognition and translation.

A compact model for high-quality speech synthesis with 82M parameters

From DeepSeek-R1's inference capabilities to Qwen2.5-70B.

From DeepSeek-R1's inference capabilities into Qwen2.5-32B.

It effectively understands Korean context and grammar.