Skip to main content
Core.Today
|
Google빠름표준

Gemini 2.0 Flash Lite

최대 속도와 최소 비용을 위해 최적화된 Gemini 2.0 Flash의 초경량 버전입니다. 대량의 지연에 민감한 애플리케이션에 적합합니다.

0.5 크레딧
1K 토큰당 (평균)
초고속 추론
요청당 최소 비용
128K 컨텍스트 윈도우
텍스트 생성
높은 처리량

AI 어시스턴트에서 사용하기

이 모델의 사용법을 Claude, ChatGPT 등에 복사

llms.txt

모델 상세 사양

컨텍스트 윈도우
128K
토큰
최대 출력
8K
토큰
학습 데이터
2024-08
호환 SDK
OpenAI, Google AI

기능 지원

비전
함수 호출
스트리밍
JSON 모드
시스템 프롬프트

토큰별 가격 (1M 토큰당)

토큰 종류크레딧달러 환산
입력 토큰150$0.15
출력 토큰600$0.60

* 1 크레딧 ≈ $0.001 (실제 요금은 사용량에 따라 달라질 수 있습니다)

빠른 시작

curl -X POST "https://api.core.today/llm/gemini/v1beta/openai/chat/completions" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
  "model": "gemini-2.0-flash-lite",
  "messages": [
    {
      "role": "system",
      "content": "Classify the sentiment of the text as positive, negative, or neutral. Respond with just the label."
    },
    {
      "role": "user",
      "content": "The product works great but the delivery was slow."
    }
  ],
  "max_tokens": 10,
  "temperature": 0
}'

파라미터

파라미터타입필수기본값설명
messagesarrayYes-메시지 객체 배열 (OpenAI 형식)
temperaturefloatNo1샘플링 온도 (0-2)
max_tokensintegerNo-최대 출력 토큰 수

예제

빠른 분류

빠른 텍스트 분류

curl -X POST "https://api.core.today/llm/gemini/v1beta/openai/chat/completions" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer cdt_your_api_key" \
  -d '{
  "model": "gemini-2.0-flash-lite",
  "messages": [
    {
      "role": "system",
      "content": "Classify the sentiment of the text as positive, negative, or neutral. Respond with just the label."
    },
    {
      "role": "user",
      "content": "The product works great but the delivery was slow."
    }
  ],
  "max_tokens": 10,
  "temperature": 0
}'

팁 & 모범 사례

1가장 비용 효율적인 Gemini 모델
2간단한 대량 작업에 최적
3결정적 분류에는 온도 0 사용
4낮은 지연이 필요한 실시간 애플리케이션에 이상적

사용 사례

대용량 챗봇
실시간 분류
콘텐츠 필터링
간단한 데이터 추출
배치 처리

모델 정보

제공자Google
버전2.0
카테고리LLM
가격0.5 크레딧

API Endpoint

POST /llm/gemini/v1beta/openai/chat/completions
Playground에서 테스트문서로 돌아가기