드디어 기다리던 순간이 왔네요. Google이 Gemini 3를 세상에 공개했습니다. 지난 2025년 6월에 출시된 Gemini 2.5 Pro가 이미 놀라운 성능을 보여주었지만, 이번 버전은 그야말로 '차원이 다른' 진화를 보여주고 있습니다.
특히 이번 업데이트의 핵심은 AI가 단순히 답을 뱉어내는 것을 넘어, 인간처럼 깊이 있게 생각하고 추론하는 능력을 갖추었다는 점이에요. 개발자분들이라면 더욱 주목해야 할 새로운 thinkingConfig 기능까지, 오늘 포스팅에서 꼼꼼하게 파헤쳐 드릴게요! 😊

Gemini 3: 추론하는 AI의 시작 🤔
Google DeepMind CEO 데미스 하사비스(Demis Hassabis)의 노트에 따르면, Gemini 3는 단순한 언어 모델이 아니라 AGI(일반 인공지능)를 향한 중요한 도약입니다.
가장 돋보이는 특징은 바로 'Deep Think(깊은 사고)' 모드입니다. 복잡한 수학 문제나 과학적 난제, 그리고 까다로운 코딩 작업을 수행할 때, 모델이 즉답을 내놓기 전에 내부적으로 사고 과정을 거쳐 논리적 허점을 스스로 검증합니다.
Gemini 3는 이전 모델인 Gemini 2.5 Pro보다 코딩 및 에이전트 작업(Agentic Workflow)에서 월등히 향상된 성능을 보여줍니다. 특히 'Google Antigravity' 도구를 통해 개발자처럼 워크플로우를 스스로 계획하고 실행할 수 있습니다.
Gemini 2.5 vs 3.0: 무엇이 달라졌나? 📊
많은 분들이 궁금해하실 이전 최신 모델(v2.5)과의 차이점을 정리해 보았습니다.
모델 성능 비교
| 구분 | Gemini 2.5 Pro (이전) | Gemini 3 Pro (신규) | 비고 |
|---|---|---|---|
| 출시 시기 | 2025년 6월 | 2025년 11월 | 약 5개월 만의 메이저 업데이트 |
| 핵심 기능 | 멀티모달, 긴 문맥 처리 | Deep Reasoning (심층 추론), Vibe Coding | 추론 능력의 비약적 상승 |
| API 제어 | 기본 생성 설정 | thinkingConfig, media_resolution | 사고 과정 제어 가능 |
실전: Python으로 Gemini 3 Pro 사용하기 👩💻
이제 gemini-3-pro-preview 모델을 Python 코드에서 직접 사용해 볼까요? 이번 버전에서 가장 중요한 변화는 GenerateContentConfig 내의 thinkingConfig 설정입니다.
📝 사용법 예시: Thinking Config 설정
아래 코드는 thinkingLevel을 "HIGH"로 설정하여 모델이 복잡한 문제를 깊이 있게 고민하도록 유도합니다. 또한 구글 검색 도구(Tool)를 함께 연동하는 방법을 보여줍니다.
# 필요한 라이브러리 설치:
# pip install google-genai
import base64
import os
from google import genai
from google.genai import types
def generate():
# API 키 설정 (환경 변수에서 로드)
client = genai.Client(
api_key=os.environ.get("GEMINI_API_KEY"),
)
# 최신 모델 지정: gemini-3-pro-preview
model = "gemini-3-pro-preview"
contents = [
types.Content(
role="user",
parts=[
types.Part.from_text(text="""2025년 노벨 물리학상 수상자가 누구인지 알려줘."""),
],
),
]
# 검색 도구 설정
tools = [
types.Tool(googleSearch=types.GoogleSearch()),
]
# 생성 설정: Thinking Config 적용
generate_content_config = types.GenerateContentConfig(
thinking_config=types.ThinkingConfig(
thinking_level="HIGH", # HIGH 또는 LOW 설정 가능
),
tools=tools,
temperature=1.0 # Gemini 3 Pro는 temperature 1.0 권장
)
# 스트리밍 방식으로 응답 출력
for chunk in client.models.generate_content_stream(
model=model,
contents=contents,
config=generate_content_config,
):
print(chunk.text, end="")
if __name__ == "__main__":
generate()
코드 설명: 위 코드는 thinking_level="HIGH"를 통해 모델이 답변을 생성하기 전 충분한 추론 시간을 갖도록 합니다. 이는 수학 문제나 논리적 퀴즈, 최신 정보 검색 시 환각 현상을 줄이고 정확도를 높이는 데 큰 도움이 됩니다.
Gemini 3 Pro 모델을 사용할 때는
temperature 값을 기본값인 1.0으로 유지하는 것이 강력 권장됩니다. 이전 모델처럼 창의성을 위해 이 값을 조절하면 오히려 추론 능력이 저하될 수 있습니다.
마무리: AI와 함께 생각하는 시대 📝
Gemini 3는 단순히 더 빠른 모델이 아닙니다. '생각하는 과정'을 통해 우리의 의도를 더 정확히 파악하고, 복잡한 문제를 함께 해결해 나가는 진정한 파트너로 진화했습니다. 특히 2.5 버전 사용자라면 이번 3.0의 추론 능력에 확실히 놀라실 거예요.
지금 바로 Google AI Studio나 Vertex AI에서 새로운 Gemini 3를 테스트해보세요! 코드를 실행해 보시고 궁금한 점이 있다면 언제든 댓글로 남겨주세요~ 😊
자주 묻는 질문 ❓
'IT 및 AI' 카테고리의 다른 글
| 미니스트랄(Ministral) 3 출시: 엣지 AI를 위한 최고의 선택 (0) | 2025.12.05 |
|---|---|
| 수퍼톤 수퍼토닉: 클라우드 없이 돌아가는 초고속 AI TTS의 등장 (0) | 2025.11.25 |
| 구글 코드 위키(Code Wiki)란? AI가 신입 개발자도 첫날 커밋하게 만든 비결 (0) | 2025.11.17 |
| 구글 노트북LM '딥 리서치' 전격 탑재! (워드, 시트, 이미지 분석까지) (0) | 2025.11.17 |
| OpenAI GPT-5.1 전격 출시! 뭐가 얼마나 좋아졌나? (핵심 변경사항 총정리) (0) | 2025.11.17 |