OpenAI의 가장 빠르고 저렴한 모델. 분류, 자동완성, 저지연 작업에 최적화. $0.10/1M 입력 토큰의 초저가격.
이 모델의 사용법을 Claude, ChatGPT 등에 복사
| 토큰 종류 | 크레딧 | 달러 환산 |
|---|---|---|
| 입력 토큰 | 100 | $0.10 |
| 출력 토큰 | 400 | $0.40 |
| 캐시된 토큰 | 25 | $0.03 |
* 1 크레딧 ≈ $0.001 (실제 요금은 사용량에 따라 달라질 수 있습니다)
curl -X POST "https://api.core.today/llm/openai/v1/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"model": "gpt-4.1-nano",
"messages": [
{
"role": "system",
"content": "Classify the sentiment as positive, negative, or neutral. Respond with JSON: {\"sentiment\": \"...\", \"confidence\": 0.0}"
},
{
"role": "user",
"content": "The new update is amazing! Everything runs so much smoother now."
}
],
"response_format": {
"type": "json_object"
},
"max_tokens": 50
}'| 파라미터 | 타입 | 필수 | 기본값 | 설명 |
|---|---|---|---|---|
messages | array | Yes | - | role과 content를 포함한 메시지 객체 배열 |
model | string | Yes | gpt-4.1-nano | 모델 식별자 |
temperature | float | No | 1.0 | 샘플링 온도 (0-2). 낮을수록 집중적, 높을수록 창의적 |
max_tokens | integer | No | 4096 | 응답의 최대 토큰 수 (최대 32768) |
stream | boolean | No | false | Server-Sent Events 스트리밍 활성화 |
response_format | object | No | - | 응답 형식: JSON 모드의 경우 { type: 'json_object' } |
tools | array | No | - | 모델이 호출할 수 있는 도구(함수) 목록 |
top_p | float | No | 1.0 | 핵 샘플링 임계값 (0-1) |
초고속 감정 분류
curl -X POST "https://api.core.today/llm/openai/v1/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"model": "gpt-4.1-nano",
"messages": [
{
"role": "system",
"content": "Classify the sentiment as positive, negative, or neutral. Respond with JSON: {\"sentiment\": \"...\", \"confidence\": 0.0}"
},
{
"role": "user",
"content": "The new update is amazing! Everything runs so much smoother now."
}
],
"response_format": {
"type": "json_object"
},
"max_tokens": 50
}'저지연 텍스트 완성
curl -X POST "https://api.core.today/llm/openai/v1/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer cdt_your_api_key" \
-d '{
"model": "gpt-4.1-nano",
"messages": [
{
"role": "system",
"content": "Complete the user's sentence naturally. Keep it brief."
},
{
"role": "user",
"content": "The main advantage of microservices architecture is"
}
],
"temperature": 0.3,
"max_tokens": 100
}'POST /llm/openai/v1/chat/completions