컴퓨터 활용/노년에 즐기는 코딩
AWS Bedrock 실습 예제, 비용 계산, OpenAI API 비교
easyfly
2025. 7. 10. 07:45
반응형
AWS Bedrock 실습 예제, 비용 계산, OpenAI API 비교
🔧 실습 예제 – Python으로 Claude 호출
AWS Bedrock에서는 Python으로도 손쉽게 모델을 호출할 수 있습니다. 아래 예제는 Claude v2 모델을 활용한 텍스트 응답 예시입니다.
import boto3
import json
# AWS Bedrock Runtime 클라이언트 생성
client = boto3.client(
service_name="bedrock-runtime",
region_name="us-east-1" # Bedrock 지원 리전 확인 필요
)
# 요청 본문 작성
body = {
"prompt": "\n\nHuman: 나주에 대해 설명해줘\n\nAssistant:",
"max_tokens_to_sample": 300,
"temperature": 0.7
}
# 모델 호출
response = client.invoke_model(
modelId="anthropic.claude-v2", # 사용할 모델 ID
body=json.dumps(body),
contentType="application/json"
)
# 결과 출력
print(response['body'].read().decode())
※ 위 예제를 실행하려면 AWS IAM에 Bedrock 권한이 포함되어 있어야 하며, boto3 라이브러리가 설치되어 있어야 합니다.
💰 비용 계산
AWS Bedrock은 다음 요소를 기준으로 과금됩니다.
1. 요청된 토큰 수
- Claude, Titan 등 대부분의 모델은 입력 토큰 + 출력 토큰 기준으로 비용이 계산됩니다.
- 예: 1000 토큰 입력 + 1000 토큰 출력 → 총 2000 토큰
2. 모델 종류별 단가 (2025년 기준 예시)
| 모델 | 입력 1,000 토큰당 | 출력 1,000 토큰당 |
| Claude 3 Sonnet | $0.0030 | $0.0150 |
| Amazon Titan Text | $0.0004 | $0.0016 |
| Jurassic-2 | $0.0120 | $0.0120 |
※ 실제 가격은 AWS 공식 가격 페이지에서 확인 필요
※ 요금은 AWS 리전마다 차이가 있음
🔍 AWS Bedrock vs OpenAI API 비교
| 항목 | AWS Bedrock | OpenAI API |
| 제공 모델 | Claude, Titan, Llama, Jurassic 등 다양 | GPT-4, GPT-3.5, DALL·E, Whisper |
| 보안/인프라 | AWS 내부 운영 (엔터프라이즈 친화적) | OpenAI 운영 (보안정책은 클라우드 이용 기준) |
| 통합성 | AWS Lambda, SageMaker, S3 등과 바로 연동 가능 | Zapier, Notion 등 외부 SaaS와 잘 연결됨 |
| 요금 구조 | 토큰 기반 + 모델별 단가 / AWS 결제 | 토큰 기반 / OpenAI 자체 결제 (신용카드) |
| 한국 리전 지원 | 아직 제한적 (us-east-1 중심) | 서울 리전 없음, 미국 리전 이용 |
| 접근성 | AWS 계정 필요, 권한 설정 필수 | API 키만 있으면 바로 사용 가능 |
🧠 어떤 상황에서 선택할까
| 상황 | 추천 플랫폼 |
| AWS 기반 서비스와 연동하고 싶다면 | ✅ Bedrock |
| 다양한 모델을 테스트하며 비교하고 싶다면 | ✅ Bedrock |
| ChatGPT 같은 고정된 모델 성능이 필요할 때 | ✅ OpenAI API |
| 빠르게 챗봇, 개인 프로젝트를 구현하고 싶다면 | ✅ OpenAI API |
✍️ 정리
- AWS Bedrock은 다양한 생성형 AI 모델을 통합 API로 제공하며, 기업 환경에 적합합니다.
- 비용은 모델에 따라 차등 적용되며, 입·출력 토큰 수를 기준으로 계산됩니다.
- OpenAI API는 개인 프로젝트, 프로토타입에 더 적합하며, 손쉬운 접근성이 장점입니다.
반응형