Skip to main content
Core.Today
|
OpenAI빠름표준

GPT-4.1 Nano

OpenAI의 가장 빠르고 저렴한 모델. 분류, 자동완성, 저지연 작업에 최적화. $0.10/1M 입력 토큰의 초저가격.

1 크레딧
1K 토큰당 (평균)
1M 토큰 컨텍스트 윈도우
32K 최대 출력 토큰
초저지연
GPT-4.1 패밀리 최저 비용
네이티브 비전 (텍스트 + 이미지)
함수 호출 & JSON 모드

AI 어시스턴트에서 사용하기

이 모델의 사용법을 Claude, ChatGPT 등에 복사

llms.txt

모델 상세 사양

컨텍스트 윈도우
1.0M
토큰
최대 출력
33K
토큰
학습 데이터
2024-05
호환 SDK
OpenAI

기능 지원

비전
함수 호출
스트리밍
JSON 모드
시스템 프롬프트

토큰별 가격 (1M 토큰당)

토큰 종류크레딧달러 환산
입력 토큰100$0.10
출력 토큰400$0.40
캐시된 토큰25$0.03

* 1 크레딧 ≈ $0.001 (실제 요금은 사용량에 따라 달라질 수 있습니다)

빠른 시작

curl -X POST "https://api.core.today/llm/openai/v1/chat/completions" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
  "model": "gpt-4.1-nano",
  "messages": [
    {
      "role": "system",
      "content": "Classify the sentiment as positive, negative, or neutral. Respond with JSON: {\"sentiment\": \"...\", \"confidence\": 0.0}"
    },
    {
      "role": "user",
      "content": "The new update is amazing! Everything runs so much smoother now."
    }
  ],
  "response_format": {
    "type": "json_object"
  },
  "max_tokens": 50
}'

파라미터

파라미터타입필수기본값설명
messagesarrayYes-role과 content를 포함한 메시지 객체 배열
modelstringYesgpt-4.1-nano모델 식별자
temperaturefloatNo1.0샘플링 온도 (0-2). 낮을수록 집중적, 높을수록 창의적
max_tokensintegerNo4096응답의 최대 토큰 수 (최대 32768)
streambooleanNofalseServer-Sent Events 스트리밍 활성화
response_formatobjectNo-응답 형식: JSON 모드의 경우 { type: 'json_object' }
toolsarrayNo-모델이 호출할 수 있는 도구(함수) 목록
top_pfloatNo1.0핵 샘플링 임계값 (0-1)

예제

텍스트 분류

초고속 감정 분류

curl -X POST "https://api.core.today/llm/openai/v1/chat/completions" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
  "model": "gpt-4.1-nano",
  "messages": [
    {
      "role": "system",
      "content": "Classify the sentiment as positive, negative, or neutral. Respond with JSON: {\"sentiment\": \"...\", \"confidence\": 0.0}"
    },
    {
      "role": "user",
      "content": "The new update is amazing! Everything runs so much smoother now."
    }
  ],
  "response_format": {
    "type": "json_object"
  },
  "max_tokens": 50
}'

빠른 자동완성

저지연 텍스트 완성

curl -X POST "https://api.core.today/llm/openai/v1/chat/completions" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
  "model": "gpt-4.1-nano",
  "messages": [
    {
      "role": "system",
      "content": "Complete the user's sentence naturally. Keep it brief."
    },
    {
      "role": "user",
      "content": "The main advantage of microservices architecture is"
    }
  ],
  "temperature": 0.3,
  "max_tokens": 100
}'

팁 & 모범 사례

1분류 같은 대용량, 저지연 작업에 최적
2$0.10/1M 입력 토큰으로 비용 민감한 애플리케이션에 이상적
3콘텐츠 모더레이션 및 라우팅 파이프라인에 활용
4자동완성 및 제안 기능에 적합
5GPT-4.1과 동일한 기능 지원 (비전, 도구, JSON)
6더 많은 추론이 필요한 작업에는 GPT-4.1 Mini 고려

사용 사례

실시간 분류 및 라우팅
자동완성 및 제안
고빈도 API 호출
콘텐츠 모더레이션
간단한 챗봇 상호작용
빠른 데이터 검증

모델 정보

제공자OpenAI
버전2025-04-14
카테고리LLM
가격1 크레딧

API Endpoint

POST /llm/openai/v1/chat/completions
Playground에서 테스트문서로 돌아가기