LLM API
OpenAI, Anthropic, Google의 대화형 AI 모델을 동일한 API 키로 사용합니다. 기존 OpenAI SDK와 100% 호환됩니다.
주요 모델 상세 정보
각 모델의 상세한 파라미터, 예제 코드, 활용 팁을 확인하세요.
GPT-4o
OpenAI
OpenAI의 플래그십 멀티모달 모델입니다. 추론, 코딩, 창의적 작업에서 업계 최고 성능을 제공하며, 네이티브 비전 기능과 구조화된 출력을 지원합니다.
GPT-4.1
OpenAI
OpenAI의 코딩 및 지시 따르기에 가장 뛰어난 모델입니다. 1M 토큰 컨텍스트 윈도우, 32K 출력 토큰을 지원하며, 코딩, 복잡한 프롬프트, 긴 컨텍스트 작업에서 크게 향상되었습니다. GPT-4o 대비 출력 비용 20% 절감.
GPT-4.1 Mini
OpenAI
소형 모델 성능의 획기적 도약. GPT-4o와 동등하거나 뛰어난 지능을 갖추면서 지연 시간은 거의 절반, 비용은 83% 절감. 속도, 품질, 경제성의 이상적 균형.
GPT-4.1 Nano
OpenAI
OpenAI의 가장 빠르고 저렴한 모델. 분류, 자동완성, 저지연 작업에 최적화. $0.10/1M 입력 토큰의 초저가격.
GPT-4o Mini
OpenAI
비용 효율적이고 빠른 모델로 강력한 성능을 제공합니다. 절대적인 성능보다 속도와 비용이 중요한 대량 작업에 최적입니다.
OpenAI o1
OpenAI
OpenAI의 가장 고급 추론 모델입니다. 확장된 사고 시간을 사용하여 과학, 코딩, 수학의 복잡한 문제를 뛰어난 정확도로 해결합니다.
OpenAI o4-mini
OpenAI
코딩 및 STEM 작업에 최적화된 빠르고 비용 효율적인 추론 모델입니다. 대형 추론 모델 대비 매우 낮은 비용으로 강력한 추론을 제공합니다.
OpenAI o3-mini
OpenAI
낮은 비용으로 강력한 성능을 제공하는 효율적인 추론 모델입니다. 대형 모델의 오버헤드 없이 추론이 필요한 작업에 이상적입니다.
GPT-5
OpenAI
OpenAI의 최신 플래그십 모델입니다. 1M 토큰 컨텍스트 윈도우와 32K 출력 토큰을 갖추고 추론, 코딩, 창의적 작업 전반에서 탁월한 성능을 제공합니다. 비전, 함수 호출, JSON 모드를 지원합니다.
GPT-5.2
OpenAI
OpenAI의 최신이자 가장 진보된 GPT 모델입니다. 향상된 기능으로 추론, 코딩, 창의적 작업 전반에서 최첨단 성능을 제공합니다.
GPT-5 Mini
OpenAI
GPT-5의 빠르고 효율적인 변형 모델입니다. 1M 토큰 컨텍스트 윈도우와 32K 출력 토큰을 갖추고 GPT-5 대비 훨씬 저렴한 비용으로 추론, 코딩, 창의적 작업 전반에서 우수한 성능을 제공합니다.
GPT-5 Nano
OpenAI
GPT-5의 초고속 경량 변형 모델입니다. 1M 토큰 컨텍스트 윈도우와 32K 출력 토큰을 갖추고 최소 비용으로 고처리량, 저지연 애플리케이션을 위해 설계되었습니다.
GPT Audio Mini
OpenAI
네이티브 오디오 입출력 기능을 갖춘 경량 멀티모달 모델입니다. 음성 기반 상호작용 및 오디오 처리 작업에 최적화되어 있습니다.
Claude Opus 4.6
Anthropic
Anthropic의 가장 강력한 모델입니다. 향상된 안전성과 지시 따르기 능력으로 추론, 코딩, 복잡한 분석에서 획기적인 성능을 제공합니다.
Claude Sonnet 4.5
Anthropic
Anthropic의 가장 지능적이고 강력한 Sonnet 모델입니다. 복잡한 추론, 미묘한 이해, 코딩 작업에서 최고 수준이며 뛰어난 지시 따르기 능력을 제공합니다.
Claude Opus 4.5
Anthropic
매우 복잡한 작업을 위한 Anthropic의 가장 강력한 모델입니다. 깊은 전문성이 필요한 연구, 분석 및 창의적 프로젝트에 탁월합니다.
Claude Haiku 4.5
Anthropic
일상적인 작업을 위한 빠르고 비용 효율적인 모델입니다. 대용량 애플리케이션을 위한 속도, 지능, 비용의 훌륭한 균형을 제공합니다.
Claude Sonnet 4
Anthropic
효율적인 가격대에서 강력한 추론과 코딩 능력을 제공하는 균형 잡힌 Sonnet 4 모델입니다. 속도와 지능의 적절한 조합이 필요한 일상적인 프로덕션 워크로드에 이상적입니다.
Claude 3.7 Sonnet
Anthropic
향상된 추론 및 코딩 능력을 갖춘 Claude 3.7 Sonnet입니다. 다양한 작업에서 안정적인 성능을 제공하는 강력한 중간 티어 모델입니다.
GPT-5.4
OpenAI
1M 컨텍스트 윈도우와 128K 출력 토큰을 갖춘 OpenAI의 최신 플래그십 모델입니다. none부터 xhigh까지 조절 가능한 추론 수준으로 모든 영역에서 최상위 추론 성능을 제공합니다.
GPT-5.4 Mini
OpenAI
400K 컨텍스트 윈도우와 128K 출력 토큰을 갖춘 GPT-5.4의 빠르고 비용 효율적인 변형 모델입니다. 일상적인 작업에서 성능과 가성비의 탁월한 균형을 제공합니다.
GPT-5.4 Nano
OpenAI
400K 컨텍스트와 128K 출력을 갖춘 초경량 최고속 GPT-5.4 변형 모델입니다. 최소 비용으로 고처리량, 저지연 애플리케이션을 위해 설계되었습니다. 도구 통합을 위한 MCP를 지원합니다.
GPT-5.1 (2025-11-13)
OpenAI
재현 가능한 결과를 위한 GPT-5.1의 날짜별 스냅샷입니다. 반복 컨텍스트에 대한 캐시된 입력 토큰으로 비용 절감을 지원합니다. 모델 버전 고정이 필요한 프로덕션 배포에 적합합니다.
Gemini 3 Pro Preview
Google의 가장 강력한 Gemini 모델 프리뷰 버전입니다. 획기적인 추론, 코딩, 멀티모달 기능과 최대 컨텍스트 윈도우를 제공합니다.
Gemini 2.0 Flash Lite
최대 속도와 최소 비용을 위해 최적화된 Gemini 2.0 Flash의 초경량 버전입니다. 대량의 지연에 민감한 애플리케이션에 적합합니다.
Gemini Embedding 001
벡터 표현 생성을 위한 Google의 텍스트 임베딩 모델입니다. 의미 검색, 클러스터링, 유사도 작업에 최적화되어 있습니다.
Gemini 2.0 Flash
Google의 가장 빠르고 강력한 모델입니다. 100만 토큰 컨텍스트 윈도우, 네이티브 멀티모달 지원 및 실시간 기능을 제공합니다.
Gemini 2.5 Flash
사고 능력이 내장된 Google의 빠르고 효율적인 모델입니다. 대용량 애플리케이션을 위한 속도, 추론, 비용의 훌륭한 균형을 제공합니다.
Gemini 2.5 Pro
최첨단 추론 능력과 1M 토큰 컨텍스트를 갖춘 Google의 가장 강력한 모델입니다. 복잡한 코딩, 수학, 다중 문서 분석에 탁월합니다.
Gemini 3 Flash
최첨단 멀티모달 이해력, 박사급 추론 능력, 최고 수준의 코딩 성능을 갖춘 Google의 가장 진보된 추론 모델입니다.
Gemini 3.1 Pro Preview
Google의 최신이자 가장 강력한 Gemini 모델 프리뷰입니다. 컨텍스트 길이에 따라 조정되는 동적 가격 책정이 적용되며, 200K 토큰 이상 입력 시 확장 가격이 적용됩니다.
Gemini 3.1 Flash Image Preview
네이티브 이미지 생성 기능을 갖춘 Gemini 3.1 Flash입니다. 채팅 응답에서 텍스트와 함께 이미지를 직접 생성할 수 있습니다. 텍스트와 이미지 출력 토큰에 별도의 가격이 적용됩니다.
Gemini 3.1 Flash Lite Preview
Gemini 3.1 Flash의 초경량 변형 모델입니다. 캐시된 입력과 오디오 입력을 지원하는 가장 비용 효율적인 Gemini 모델입니다. 고처리량, 비용 의식적 애플리케이션에 적합합니다.
Gemini 3.1 Flash Live Preview
실시간 상호작용 및 라이브 스트리밍 시나리오에 최적화된 Gemini 3.1 Flash입니다. 전용 가격의 오디오 입력 지원과 함께 저지연 응답을 제공합니다.
Gemini 3 Pro Image Preview
Gemini 3 Pro 제품군의 프리미엄 이미지 생성 모델입니다. 채팅에서 직접 최고 충실도의 이미지를 생성합니다. 이미지 출력 토큰은 텍스트 출력 토큰의 10배 가격이 적용됩니다.
가격 단위: 크레딧/토큰 기준입니다. 예: 1,000 토큰 입력, 500 토큰 출력 시 gpt-4o-mini는 0.3 + 0.6 = 0.9 크레딧
GPT-5 / GPT-5.2 / O-Series 주의사항
GPT-5, GPT-5.2, o1, o3 등 추론(Reasoning) 모델은 일반 모델과 파라미터가 다릅니다:
max_tokens→max_completion_tokens사용temperature,top_p지원 안 함- 새 파라미터:
reasoning_effort(minimal/low/medium/high)
OpenAI (GPT)
GPT-4o / GPT-4.1 (일반 모델)
curl -X POST https://api.core.today/llm/openai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"model": "gpt-4o",
"messages": [{"role": "user", "content": "Hello!"}],
"max_tokens": 1000,
"temperature": 0.7
}'GPT-5 / O-Series (추론 모델)
curl -X POST https://api.core.today/llm/openai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"model": "gpt-5",
"messages": [{"role": "user", "content": "Explain quantum computing"}],
"max_completion_tokens": 16000,
"reasoning_effort": "medium"
}'GPT-5 전용 파라미터
max_completion_tokens- 최대 출력 토큰 (max_tokens 대신 사용)reasoning_effort- 추론 수준: minimal, low, medium, high
Codex 모델 (코드 특화)
Codex 모델은 Responses API 전용입니다
gpt-5.1-codex, gpt-5.1-codex-mini 등 Codex 모델은 /v1/chat/completions를 지원하지 않습니다. 대신 /v1/responses 엔드포인트를 사용해야 합니다.
게이트웨이는 경로를 그대로 프록시하므로, 클라이언트에서 엔드포인트 경로만 변경하면 됩니다: /llm/openai/v1/responses → OpenAI /v1/responses
# Codex 모델: /v1/responses 엔드포인트 사용
curl -X POST https://api.core.today/llm/openai/v1/responses \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"model": "gpt-5.1-codex",
"instructions": "You are a helpful coding assistant.",
"input": "Write a Python function to merge two sorted lists",
"max_output_tokens": 16000
}'messages→input(문자열 또는 메시지 배열)- 시스템 프롬프트:
instructions파라미터 사용 - 출력 토큰 제한:
max_output_tokens사용 - 스트리밍 시 이벤트 형식:
response.output_text.delta
gpt-5.1-codex, gpt-5.1-codex-mini, gpt-5.2-codex 등 모델 이름에 "codex"가 포함된 모델| 모델 | Input | Output |
|---|---|---|
| 모델 | Input | Output |
|---|---|---|
| 모델 | Input | Output |
|---|---|---|
| 모델 | Input | Output |
|---|---|---|
Anthropic (Claude)
curl -X POST https://api.core.today/llm/anthropic/v1/messages \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"model": "claude-sonnet-4",
"max_tokens": 1024,
"messages": [
{"role": "user", "content": "Explain quantum computing simply."}
]
}'| 모델 | Input | Output |
|---|---|---|
| 모델 | Input | Output |
|---|---|---|
| 모델 | Input | Output |
|---|---|---|
Google (Gemini)
curl -X POST "https://api.core.today/llm/gemini/v1beta/models/gemini-2.5-pro:generateContent" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"contents": [
{
"parts": [{"text": "Write a haiku about programming"}]
}
]
}'| 모델 | Input | Output |
|---|---|---|
gemini-embedding-001 (임베딩 전용, Input 0.0003) | gemini-3-pro-preview-longcontext (Input 0.0080, Output 0.0360)스트리밍 응답
실시간으로 응답을 받으려면 stream: true를 추가하세요:
curl -X POST https://api.core.today/llm/openai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"model": "gpt-5",
"messages": [{"role": "user", "content": "Tell me a long story"}],
"stream": true
}'비용 계산 예시
1,000 토큰 입력, 500 토큰 출력 기준:
| 모델 | 계산 | 총 비용 |
|---|---|---|
| gpt-4o-mini | 0.3 + 0.6 | 0.9 크레딧 |
| gpt-5 | 2.5 + 10.0 | 12.5 크레딧 |
| claude-3-haiku | 0.5 + 1.25 | 1.75 크레딧 |
| claude-sonnet-4 | 6.0 + 15.0 | 21.0 크레딧 |
| gemini-2.0-flash | 0.2 + 0.4 | 0.6 크레딧 |