Skip to main content
Core.Today
Model APIsOpenAI Compatible

LLM API

OpenAI, Anthropic, Google의 대화형 AI 모델을 동일한 API 키로 사용합니다. 기존 OpenAI SDK와 100% 호환됩니다.

주요 모델 상세 정보

각 모델의 상세한 파라미터, 예제 코드, 활용 팁을 확인하세요.

GPT-4o

OpenAI

3 credits/1K

OpenAI의 플래그십 멀티모달 모델입니다. 추론, 코딩, 창의적 작업에서 업계 최고 성능을 제공하며, 네이티브 비전 기능과 구조화된 출력을 지원합니다.

빠름Ultra
상세 보기

GPT-4.1

OpenAI

3 credits/1K

OpenAI의 코딩 및 지시 따르기에 가장 뛰어난 모델입니다. 1M 토큰 컨텍스트 윈도우, 32K 출력 토큰을 지원하며, 코딩, 복잡한 프롬프트, 긴 컨텍스트 작업에서 크게 향상되었습니다. GPT-4o 대비 출력 비용 20% 절감.

빠름Ultra
상세 보기

GPT-4.1 Mini

OpenAI

1 credits/1K

소형 모델 성능의 획기적 도약. GPT-4o와 동등하거나 뛰어난 지능을 갖추면서 지연 시간은 거의 절반, 비용은 83% 절감. 속도, 품질, 경제성의 이상적 균형.

빠름Ultra
상세 보기

GPT-4.1 Nano

OpenAI

1 credits/1K

OpenAI의 가장 빠르고 저렴한 모델. 분류, 자동완성, 저지연 작업에 최적화. $0.10/1M 입력 토큰의 초저가격.

빠름Ultra
상세 보기

GPT-4o Mini

OpenAI

1 credits/1K

비용 효율적이고 빠른 모델로 강력한 성능을 제공합니다. 절대적인 성능보다 속도와 비용이 중요한 대량 작업에 최적입니다.

빠름Ultra
상세 보기

OpenAI o1

OpenAI

15 credits/1K

OpenAI의 가장 고급 추론 모델입니다. 확장된 사고 시간을 사용하여 과학, 코딩, 수학의 복잡한 문제를 뛰어난 정확도로 해결합니다.

빠름Ultra
상세 보기

OpenAI o4-mini

OpenAI

2 credits/1K

코딩 및 STEM 작업에 최적화된 빠르고 비용 효율적인 추론 모델입니다. 대형 추론 모델 대비 매우 낮은 비용으로 강력한 추론을 제공합니다.

빠름Ultra
상세 보기

OpenAI o3-mini

OpenAI

2 credits/1K

낮은 비용으로 강력한 성능을 제공하는 효율적인 추론 모델입니다. 대형 모델의 오버헤드 없이 추론이 필요한 작업에 이상적입니다.

빠름Ultra
상세 보기

GPT-5

OpenAI

3 credits/1K

OpenAI의 최신 플래그십 모델입니다. 1M 토큰 컨텍스트 윈도우와 32K 출력 토큰을 갖추고 추론, 코딩, 창의적 작업 전반에서 탁월한 성능을 제공합니다. 비전, 함수 호출, JSON 모드를 지원합니다.

빠름Ultra
상세 보기

GPT-5.2

OpenAI

4 credits/1K

OpenAI의 최신이자 가장 진보된 GPT 모델입니다. 향상된 기능으로 추론, 코딩, 창의적 작업 전반에서 최첨단 성능을 제공합니다.

빠름Ultra
상세 보기

GPT-5 Mini

OpenAI

1 credits/1K

GPT-5의 빠르고 효율적인 변형 모델입니다. 1M 토큰 컨텍스트 윈도우와 32K 출력 토큰을 갖추고 GPT-5 대비 훨씬 저렴한 비용으로 추론, 코딩, 창의적 작업 전반에서 우수한 성능을 제공합니다.

빠름Ultra
상세 보기

GPT-5 Nano

OpenAI

1 credits/1K

GPT-5의 초고속 경량 변형 모델입니다. 1M 토큰 컨텍스트 윈도우와 32K 출력 토큰을 갖추고 최소 비용으로 고처리량, 저지연 애플리케이션을 위해 설계되었습니다.

빠름Ultra
상세 보기

GPT Audio Mini

OpenAI

1 credits/1K

네이티브 오디오 입출력 기능을 갖춘 경량 멀티모달 모델입니다. 음성 기반 상호작용 및 오디오 처리 작업에 최적화되어 있습니다.

빠름Ultra
상세 보기

Claude Opus 4.6

Anthropic

5 credits/1K

Anthropic의 가장 강력한 모델입니다. 향상된 안전성과 지시 따르기 능력으로 추론, 코딩, 복잡한 분석에서 획기적인 성능을 제공합니다.

빠름Ultra
상세 보기

Claude Sonnet 4.5

Anthropic

4 credits/1K

Anthropic의 가장 지능적이고 강력한 Sonnet 모델입니다. 복잡한 추론, 미묘한 이해, 코딩 작업에서 최고 수준이며 뛰어난 지시 따르기 능력을 제공합니다.

빠름Ultra
상세 보기

Claude Opus 4.5

Anthropic

5 credits/1K

매우 복잡한 작업을 위한 Anthropic의 가장 강력한 모델입니다. 깊은 전문성이 필요한 연구, 분석 및 창의적 프로젝트에 탁월합니다.

빠름Ultra
상세 보기

Claude Haiku 4.5

Anthropic

1 credits/1K

일상적인 작업을 위한 빠르고 비용 효율적인 모델입니다. 대용량 애플리케이션을 위한 속도, 지능, 비용의 훌륭한 균형을 제공합니다.

빠름Ultra
상세 보기

Claude Sonnet 4

Anthropic

3 credits/1K

효율적인 가격대에서 강력한 추론과 코딩 능력을 제공하는 균형 잡힌 Sonnet 4 모델입니다. 속도와 지능의 적절한 조합이 필요한 일상적인 프로덕션 워크로드에 이상적입니다.

빠름Ultra
상세 보기

Claude 3.7 Sonnet

Anthropic

3 credits/1K

향상된 추론 및 코딩 능력을 갖춘 Claude 3.7 Sonnet입니다. 다양한 작업에서 안정적인 성능을 제공하는 강력한 중간 티어 모델입니다.

빠름Ultra
상세 보기

GPT-5.4

OpenAI

5 credits/1K

1M 컨텍스트 윈도우와 128K 출력 토큰을 갖춘 OpenAI의 최신 플래그십 모델입니다. none부터 xhigh까지 조절 가능한 추론 수준으로 모든 영역에서 최상위 추론 성능을 제공합니다.

빠름Ultra
상세 보기

GPT-5.4 Mini

OpenAI

2 credits/1K

400K 컨텍스트 윈도우와 128K 출력 토큰을 갖춘 GPT-5.4의 빠르고 비용 효율적인 변형 모델입니다. 일상적인 작업에서 성능과 가성비의 탁월한 균형을 제공합니다.

빠름Ultra
상세 보기

GPT-5.4 Nano

OpenAI

1 credits/1K

400K 컨텍스트와 128K 출력을 갖춘 초경량 최고속 GPT-5.4 변형 모델입니다. 최소 비용으로 고처리량, 저지연 애플리케이션을 위해 설계되었습니다. 도구 통합을 위한 MCP를 지원합니다.

빠름Ultra
상세 보기

GPT-5.1 (2025-11-13)

OpenAI

3 credits/1K

재현 가능한 결과를 위한 GPT-5.1의 날짜별 스냅샷입니다. 반복 컨텍스트에 대한 캐시된 입력 토큰으로 비용 절감을 지원합니다. 모델 버전 고정이 필요한 프로덕션 배포에 적합합니다.

빠름Ultra
상세 보기

Gemini 3 Pro Preview

Google

4 credits/1K

Google의 가장 강력한 Gemini 모델 프리뷰 버전입니다. 획기적인 추론, 코딩, 멀티모달 기능과 최대 컨텍스트 윈도우를 제공합니다.

빠름Ultra
상세 보기

Gemini 2.0 Flash Lite

Google

0.5 credits/1K

최대 속도와 최소 비용을 위해 최적화된 Gemini 2.0 Flash의 초경량 버전입니다. 대량의 지연에 민감한 애플리케이션에 적합합니다.

빠름Ultra
상세 보기

Gemini Embedding 001

Google

0.1 credits/1K

벡터 표현 생성을 위한 Google의 텍스트 임베딩 모델입니다. 의미 검색, 클러스터링, 유사도 작업에 최적화되어 있습니다.

빠름Ultra
상세 보기

Gemini 2.0 Flash

Google

1 credits/1K

Google의 가장 빠르고 강력한 모델입니다. 100만 토큰 컨텍스트 윈도우, 네이티브 멀티모달 지원 및 실시간 기능을 제공합니다.

빠름Ultra
상세 보기

Gemini 2.5 Flash

Google

1 credits/1K

사고 능력이 내장된 Google의 빠르고 효율적인 모델입니다. 대용량 애플리케이션을 위한 속도, 추론, 비용의 훌륭한 균형을 제공합니다.

빠름Ultra
상세 보기

Gemini 2.5 Pro

Google

3 credits/1K

최첨단 추론 능력과 1M 토큰 컨텍스트를 갖춘 Google의 가장 강력한 모델입니다. 복잡한 코딩, 수학, 다중 문서 분석에 탁월합니다.

빠름Ultra
상세 보기

Gemini 3 Flash

Google

500 credits/1K

최첨단 멀티모달 이해력, 박사급 추론 능력, 최고 수준의 코딩 성능을 갖춘 Google의 가장 진보된 추론 모델입니다.

빠름Ultra
상세 보기

Gemini 3.1 Pro Preview

Google

500 credits/1K

Google의 최신이자 가장 강력한 Gemini 모델 프리뷰입니다. 컨텍스트 길이에 따라 조정되는 동적 가격 책정이 적용되며, 200K 토큰 이상 입력 시 확장 가격이 적용됩니다.

빠름Ultra
상세 보기

Gemini 3.1 Flash Image Preview

Google

500 credits/1K

네이티브 이미지 생성 기능을 갖춘 Gemini 3.1 Flash입니다. 채팅 응답에서 텍스트와 함께 이미지를 직접 생성할 수 있습니다. 텍스트와 이미지 출력 토큰에 별도의 가격이 적용됩니다.

빠름Ultra
상세 보기

Gemini 3.1 Flash Lite Preview

Google

100 credits/1K

Gemini 3.1 Flash의 초경량 변형 모델입니다. 캐시된 입력과 오디오 입력을 지원하는 가장 비용 효율적인 Gemini 모델입니다. 고처리량, 비용 의식적 애플리케이션에 적합합니다.

빠름Ultra
상세 보기

Gemini 3.1 Flash Live Preview

Google

300 credits/1K

실시간 상호작용 및 라이브 스트리밍 시나리오에 최적화된 Gemini 3.1 Flash입니다. 전용 가격의 오디오 입력 지원과 함께 저지연 응답을 제공합니다.

빠름Ultra
상세 보기

Gemini 3 Pro Image Preview

Google

500 credits/1K

Gemini 3 Pro 제품군의 프리미엄 이미지 생성 모델입니다. 채팅에서 직접 최고 충실도의 이미지를 생성합니다. 이미지 출력 토큰은 텍스트 출력 토큰의 10배 가격이 적용됩니다.

빠름Ultra
상세 보기

가격 단위: 크레딧/토큰 기준입니다. 예: 1,000 토큰 입력, 500 토큰 출력 시 gpt-4o-mini는 0.3 + 0.6 = 0.9 크레딧

GPT-5 / GPT-5.2 / O-Series 주의사항

GPT-5, GPT-5.2, o1, o3 등 추론(Reasoning) 모델은 일반 모델과 파라미터가 다릅니다:

  • max_tokens max_completion_tokens 사용
  • temperature, top_p 지원 안 함
  • 새 파라미터: reasoning_effort (minimal/low/medium/high)
G

OpenAI (GPT)

GPT-4o / GPT-4.1 (일반 모델)

curl -X POST https://api.core.today/llm/openai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
    "model": "gpt-4o",
    "messages": [{"role": "user", "content": "Hello!"}],
    "max_tokens": 1000,
    "temperature": 0.7
  }'

GPT-5 / O-Series (추론 모델)

curl -X POST https://api.core.today/llm/openai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
    "model": "gpt-5",
    "messages": [{"role": "user", "content": "Explain quantum computing"}],
    "max_completion_tokens": 16000,
    "reasoning_effort": "medium"
  }'

GPT-5 전용 파라미터

  • max_completion_tokens - 최대 출력 토큰 (max_tokens 대신 사용)
  • reasoning_effort - 추론 수준: minimal, low, medium, high

Codex 모델 (코드 특화)

Codex 모델은 Responses API 전용입니다

gpt-5.1-codex, gpt-5.1-codex-mini 등 Codex 모델은 /v1/chat/completions를 지원하지 않습니다. 대신 /v1/responses 엔드포인트를 사용해야 합니다.

게이트웨이는 경로를 그대로 프록시하므로, 클라이언트에서 엔드포인트 경로만 변경하면 됩니다: /llm/openai/v1/responses OpenAI /v1/responses

# Codex 모델: /v1/responses 엔드포인트 사용
curl -X POST https://api.core.today/llm/openai/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
    "model": "gpt-5.1-codex",
    "instructions": "You are a helpful coding assistant.",
    "input": "Write a Python function to merge two sorted lists",
    "max_output_tokens": 16000
  }'
Responses API 주요 차이점:
  • messages input (문자열 또는 메시지 배열)
  • 시스템 프롬프트: instructions 파라미터 사용
  • 출력 토큰 제한: max_output_tokens 사용
  • 스트리밍 시 이벤트 형식: response.output_text.delta
대상 모델: gpt-5.1-codex, gpt-5.1-codex-mini, gpt-5.2-codex 등 모델 이름에 "codex"가 포함된 모델
모델InputOutput
모델InputOutput
모델InputOutput
모델InputOutput
C

Anthropic (Claude)

curl -X POST https://api.core.today/llm/anthropic/v1/messages \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
    "model": "claude-sonnet-4",
    "max_tokens": 1024,
    "messages": [
      {"role": "user", "content": "Explain quantum computing simply."}
    ]
  }'
모델InputOutput
모델InputOutput
모델InputOutput
G

Google (Gemini)

curl -X POST "https://api.core.today/llm/gemini/v1beta/models/gemini-2.5-pro:generateContent" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
    "contents": [
      {
        "parts": [{"text": "Write a haiku about programming"}]
      }
    ]
  }'
모델InputOutput
참고: gemini-2.5-pro는 200,000 토큰 초과 시 longcontext 가격 적용 (Input: 0.0050, Output: 0.0300)
기타: gemini-embedding-001 (임베딩 전용, Input 0.0003) | gemini-3-pro-preview-longcontext (Input 0.0080, Output 0.0360)

스트리밍 응답

실시간으로 응답을 받으려면 stream: true를 추가하세요:

curl -X POST https://api.core.today/llm/openai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
    "model": "gpt-5",
    "messages": [{"role": "user", "content": "Tell me a long story"}],
    "stream": true
  }'

비용 계산 예시

1,000 토큰 입력, 500 토큰 출력 기준:

모델계산총 비용
gpt-4o-mini0.3 + 0.60.9 크레딧
gpt-52.5 + 10.012.5 크레딧
claude-3-haiku0.5 + 1.251.75 크레딧
claude-sonnet-46.0 + 15.021.0 크레딧
gemini-2.0-flash0.2 + 0.40.6 크레딧