본 콘텐츠의 이미지 및 내용은 AI로 생성되었습니다.
본 콘텐츠의 이미지 및 내용을 무단으로 복제, 배포, 수정하여 사용할 경우 저작권법에 의해 법적 제재를 받을 수 있습니다.
이미지 로딩 중...
AI Generated
2025. 12. 1. · 18 Views
LangChain 1.0 설치 & 퀵스타트 완벽 가이드
LangChain 1.0을 처음 시작하는 초급 개발자를 위한 설치부터 첫 번째 챗봇 만들기까지의 완벽 가이드입니다. 10줄 코드로 나만의 AI 챗봇을 만들어 봅시다.
목차
- LangChain_1.0_소개_및_특징
- pip_install_langchain_설치
- 환경_변수_설정_API_Key
- init_chat_model_사용법
- 첫_번째_에이전트_만들기
- 10줄_코드로_챗봇_완성
1. LangChain 1.0 소개 및 특징
입사 첫날, 김개발 씨는 팀장님으로부터 뜻밖의 미션을 받았습니다. "우리 서비스에 AI 챗봇을 붙여야 하는데, LangChain이라는 게 좋다던데 한번 알아봐 줄래요?" 김개발 씨는 당황했습니다.
AI라니, 뭔가 대단히 어려울 것 같았거든요.
LangChain은 한마디로 대규모 언어 모델(LLM)을 활용한 애플리케이션을 쉽게 만들 수 있게 해주는 프레임워크입니다. 마치 레고 블록처럼 필요한 기능들을 조립해서 AI 서비스를 구축할 수 있습니다.
2024년 말 정식 출시된 LangChain 1.0은 더욱 안정적이고 직관적인 API를 제공합니다.
다음 코드를 살펴봅시다.
# LangChain 1.0의 핵심 구성요소
from langchain.chat_models import init_chat_model
from langchain.agents import create_react_agent
from langchain.tools import tool
# 1. 모델 초기화 - 다양한 LLM 지원
model = init_chat_model("gpt-4o-mini")
# 2. 도구 정의 - AI가 사용할 기능
@tool
def search(query: str) -> str:
"""검색을 수행합니다"""
return f"검색 결과: {query}"
# 3. 에이전트 생성 - 자율적으로 판단하고 행동
agent = create_react_agent(model, [search])
김개발 씨는 구글에 "LangChain"을 검색해 보았습니다. 수많은 문서와 튜토리얼이 쏟아져 나왔지만, 도대체 이게 뭔지 감이 오지 않았습니다.
마침 지나가던 선배 박시니어 씨가 어깨 너머로 화면을 보더니 말했습니다. "LangChain 공부하려고?
잘 골랐네. 요즘 AI 개발할 때 거의 필수야." 그렇다면 LangChain이란 정확히 무엇일까요?
쉽게 비유하자면, LangChain은 마치 AI 개발을 위한 스위스 아미 나이프와 같습니다. 칼만 있는 게 아니라 가위, 드라이버, 병따개까지 다양한 도구가 하나로 합쳐져 있듯이, LangChain도 LLM을 다루는 데 필요한 모든 기능을 하나의 패키지로 제공합니다.
LangChain이 없던 시절에는 어땠을까요? 개발자들은 OpenAI API를 직접 호출하고, 응답을 파싱하고, 대화 기록을 관리하고, 외부 도구와 연동하는 코드를 모두 직접 작성해야 했습니다.
프로젝트마다 비슷한 코드를 반복해서 만들었고, 다른 LLM으로 교체하려면 코드를 처음부터 다시 작성해야 하는 경우도 많았습니다. 바로 이런 문제를 해결하기 위해 LangChain이 등장했습니다.
LangChain 1.0은 2024년 말에 정식 출시되었습니다. 이전 버전들이 실험적이고 자주 변경되었다면, 1.0 버전은 안정성과 일관성을 최우선으로 설계되었습니다.
특히 init_chat_model이라는 통합 함수 하나로 OpenAI, Anthropic, Google 등 다양한 LLM을 손쉽게 전환할 수 있게 되었습니다. LangChain의 핵심 구성요소는 세 가지입니다.
첫째, **모델(Model)**입니다. GPT-4, Claude, Gemini 등 다양한 LLM을 동일한 인터페이스로 사용할 수 있습니다.
마치 자동차 운전대가 어떤 차든 비슷하게 생긴 것처럼요. 둘째, **도구(Tool)**입니다.
AI가 검색을 하거나, 계산을 하거나, 데이터베이스를 조회하는 등의 기능을 수행할 수 있게 해줍니다. 사람이 손을 사용하듯, AI도 도구를 사용합니다.
셋째, **에이전트(Agent)**입니다. 사용자의 요청을 받아서 어떤 도구를 사용할지 스스로 판단하고 실행합니다.
마치 비서가 알아서 일을 처리해 주는 것과 같습니다. 실제 현업에서는 어떻게 활용할까요?
고객센터 챗봇을 생각해 보겠습니다. 고객이 "주문한 상품이 언제 도착하나요?"라고 물으면, 에이전트는 먼저 주문 정보를 조회하는 도구를 사용하고, 그 결과를 바탕으로 자연스러운 답변을 생성합니다.
이 모든 과정이 LangChain으로 깔끔하게 구현됩니다. 박시니어 씨가 덧붙였습니다.
"처음엔 어려워 보여도, 한번 익히면 정말 편해. 설치부터 차근차근 해보자." 김개발 씨는 고개를 끄덕이며 키보드에 손을 올렸습니다.
드디어 AI 개발의 첫걸음을 내딛는 순간이었습니다.
실전 팁
💡 - LangChain 1.0은 이전 버전과 호환되지 않는 부분이 있으니 공식 마이그레이션 가이드를 참고하세요
- 처음에는 단순한 예제부터 시작해서 점점 복잡한 기능을 추가하는 방식으로 학습하세요
2. pip install langchain 설치
김개발 씨는 터미널을 열고 설치를 시작하려 했습니다. 그런데 문서를 보니 패키지가 여러 개였습니다.
langchain, langchain-core, langchain-openai... 도대체 뭘 설치해야 하는 걸까요?
LangChain 1.0은 모듈화된 구조를 가지고 있어서 필요한 패키지만 골라서 설치할 수 있습니다. 마치 뷔페에서 원하는 음식만 접시에 담듯이, 사용할 LLM 프로바이더에 맞는 패키지를 선택합니다.
핵심 패키지와 프로바이더 패키지를 함께 설치하면 됩니다.
다음 코드를 살펴봅시다.
# 기본 설치 - LangChain 코어 패키지
pip install langchain
# OpenAI 모델 사용시 (GPT-4, GPT-4o 등)
pip install langchain-openai
# Anthropic 모델 사용시 (Claude)
pip install langchain-anthropic
# Google 모델 사용시 (Gemini)
pip install langchain-google-genai
# 한 번에 여러 패키지 설치
pip install langchain langchain-openai langchain-anthropic
# 설치 확인
python -c "import langchain; print(langchain.__version__)"
박시니어 씨가 김개발 씨 옆에 앉으며 말했습니다. "예전에는 pip install langchain 하나면 됐는데, 이제는 좀 달라졌어.
근데 오히려 더 좋아진 거야." 왜 패키지가 나뉘어 있을까요? 쉽게 비유하자면, 이것은 마치 스마트폰 앱 스토어와 같습니다.
스마트폰을 사면 기본 앱은 설치되어 있지만, 카카오톡이나 인스타그램은 필요할 때 따로 다운로드하잖아요? LangChain도 마찬가지입니다.
핵심 기능은 기본 패키지에 있고, 특정 AI 모델을 사용하려면 해당 패키지를 추가로 설치합니다. 이런 구조의 장점은 무엇일까요?
첫째, 설치 용량이 줄어듭니다. OpenAI만 사용할 거라면 Claude나 Gemini 관련 코드는 필요 없으니까요.
둘째, 의존성 충돌이 줄어듭니다. 각 프로바이더 패키지가 독립적으로 업데이트되기 때문입니다.
설치 과정을 단계별로 살펴보겠습니다. 먼저 기본 패키지인 langchain을 설치합니다.
이 패키지에는 체인, 에이전트, 메모리 등 핵심 기능이 포함되어 있습니다. 터미널에 pip install langchain을 입력하면 됩니다.
다음으로 사용할 LLM에 맞는 프로바이더 패키지를 설치합니다. 가장 많이 사용하는 OpenAI의 경우 langchain-openai를 설치합니다.
이 패키지를 통해 GPT-4, GPT-4o, GPT-4o-mini 등을 사용할 수 있습니다. Claude를 사용하고 싶다면 langchain-anthropic을, Google의 Gemini를 사용하고 싶다면 langchain-google-genai를 설치합니다.
김개발 씨가 물었습니다. "그럼 여러 AI를 같이 쓰려면요?" 박시니어 씨가 대답했습니다.
"그냥 필요한 패키지를 다 설치하면 돼. 충돌 걱정 안 해도 돼." 한 가지 주의할 점이 있습니다.
가상환경을 사용하는 것을 강력히 권장합니다. 프로젝트마다 다른 버전의 패키지를 사용할 수 있고, 시스템 파이썬을 깨끗하게 유지할 수 있습니다.
설치가 완료되면 확인해 봅시다. python -c "import langchain; print(langchain.version)"을 실행하면 설치된 버전이 출력됩니다.
1.0 이상이 나오면 성공입니다. 김개발 씨의 터미널에 "1.0.0"이라는 숫자가 나타났습니다.
첫 번째 관문을 무사히 통과한 것입니다.
실전 팁
💡 - 가상환경(venv 또는 conda)을 사용하여 프로젝트별로 패키지를 관리하세요
- pip install --upgrade langchain으로 최신 버전을 유지하세요
3. 환경 변수 설정 API Key
설치는 끝났지만, 김개발 씨 앞에 또 다른 과제가 놓였습니다. "API Key가 필요합니다"라는 에러 메시지.
API Key는 어디서 받고, 어떻게 설정해야 할까요?
API Key는 AI 서비스를 사용하기 위한 인증 수단입니다. 마치 놀이공원 입장권처럼, 이 키가 있어야 LLM 서비스를 이용할 수 있습니다.
각 프로바이더(OpenAI, Anthropic 등)에서 발급받아 환경 변수로 설정하면 됩니다.
다음 코드를 살펴봅시다.
# 방법 1: 터미널에서 직접 설정 (임시)
export OPENAI_API_KEY="sk-your-api-key-here"
export ANTHROPIC_API_KEY="sk-ant-your-key-here"
# 방법 2: .env 파일 사용 (권장)
# .env 파일 내용
OPENAI_API_KEY=sk-your-api-key-here
ANTHROPIC_API_KEY=sk-ant-your-key-here
# Python에서 .env 파일 로드
from dotenv import load_dotenv
import os
load_dotenv() # .env 파일의 변수를 환경 변수로 로드
api_key = os.getenv("OPENAI_API_KEY")
박시니어 씨가 진지한 표정으로 말했습니다. "API Key 설정은 정말 중요해.
잘못하면 큰일 나." API Key란 무엇일까요? 쉽게 비유하자면, API Key는 신용카드와 같습니다.
신용카드가 있어야 물건을 살 수 있듯이, API Key가 있어야 AI 서비스를 이용할 수 있습니다. 그리고 신용카드 번호를 남에게 알려주면 안 되듯이, API Key도 절대 외부에 노출되면 안 됩니다.
먼저 API Key를 발급받아야 합니다. OpenAI의 경우 platform.openai.com에 가입하고, API Keys 메뉴에서 새 키를 생성합니다.
Anthropic은 console.anthropic.com에서, Google은 ai.google.dev에서 각각 발급받을 수 있습니다. 키를 발급받았다면 어떻게 설정할까요?
가장 단순한 방법은 터미널에서 export 명령어를 사용하는 것입니다. 하지만 이 방법은 터미널을 닫으면 설정이 사라집니다.
매번 다시 입력해야 하니 불편합니다. 더 좋은 방법은 .env 파일을 사용하는 것입니다.
프로젝트 폴더에 .env라는 이름의 파일을 만들고, 그 안에 API Key를 저장합니다. 그리고 python-dotenv 패키지를 사용하면 이 파일의 내용을 자동으로 환경 변수로 불러올 수 있습니다.
김개발 씨가 걱정스럽게 물었습니다. "그럼 .env 파일이 GitHub에 올라가면요?" 박시니어 씨가 고개를 저었습니다.
"절대 안 돼. 그래서 .gitignore에 꼭 추가해야 해." .gitignore 파일에 .env를 추가하면 Git이 이 파일을 무시합니다.
실수로 커밋하는 것을 방지할 수 있습니다. 실제 프로젝트에서는 더 안전한 방법도 있습니다.
AWS Secrets Manager나 HashiCorp Vault 같은 시크릿 관리 도구를 사용하기도 합니다. 하지만 입문 단계에서는 .env 파일로 충분합니다.
한 가지 팁을 더 드리자면, python-dotenv 패키지를 설치해야 합니다. pip install python-dotenv를 실행하세요.
그러면 Python 코드에서 load_dotenv() 함수로 .env 파일을 쉽게 불러올 수 있습니다. 김개발 씨는 .env 파일을 만들고, .gitignore에 추가하는 것까지 완료했습니다.
이제 진짜 코딩을 시작할 준비가 되었습니다.
실전 팁
💡 - API Key는 절대 코드에 직접 작성하지 마세요. 항상 환경 변수를 사용하세요
- .env 파일은 반드시 .gitignore에 추가하여 저장소에 올라가지 않도록 하세요
4. init chat model 사용법
드디어 코드를 작성할 시간입니다. 김개발 씨는 설렘 반 긴장 반으로 에디터를 열었습니다.
"어떤 모델을 써야 하지? GPT-4?
Claude? 나중에 바꾸려면 코드를 다 고쳐야 하나?"
init_chat_model은 LangChain 1.0의 핵심 함수로, 다양한 LLM을 통일된 방식으로 초기화합니다. 마치 만능 리모컨처럼, 어떤 TV든 같은 버튼으로 조작할 수 있게 해줍니다.
모델을 교체할 때도 문자열 하나만 바꾸면 됩니다.
다음 코드를 살펴봅시다.
from langchain.chat_models import init_chat_model
# OpenAI 모델 초기화
gpt_model = init_chat_model("gpt-4o-mini")
# Anthropic 모델 초기화
claude_model = init_chat_model("claude-3-5-sonnet-latest")
# Google 모델 초기화
gemini_model = init_chat_model("gemini-1.5-flash")
# 모델 사용하기 - 어떤 모델이든 같은 방식
response = gpt_model.invoke("안녕하세요, 자기소개 부탁드려요.")
print(response.content)
# 추가 옵션 설정
model = init_chat_model(
"gpt-4o",
temperature=0.7, # 창의성 조절 (0~1)
max_tokens=1000 # 최대 응답 길이
)
박시니어 씨가 화면을 가리키며 말했습니다. "예전에는 모델마다 다른 클래스를 import해야 했어.
ChatOpenAI, ChatAnthropic... 근데 이제는 하나로 통일됐어." init_chat_model이란 무엇일까요?
쉽게 비유하자면, 이것은 만능 어댑터와 같습니다. 해외여행 갈 때 각 나라 콘센트에 맞는 어댑터가 필요하잖아요?
만능 어댑터 하나면 어떤 나라든 사용할 수 있듯이, init_chat_model 하나면 어떤 AI 모델이든 사용할 수 있습니다. 이 함수의 첫 번째 인자는 모델 이름입니다.
"gpt-4o-mini"를 넣으면 OpenAI의 경량 모델을, "gpt-4o"를 넣으면 고성능 모델을 사용합니다. "claude-3-5-sonnet-latest"를 넣으면 Anthropic의 Claude를, "gemini-1.5-flash"를 넣으면 Google의 Gemini를 사용합니다.
놀라운 점은 사용 방법이 완전히 동일하다는 것입니다. 어떤 모델을 선택하든 invoke() 메서드로 질문하고, response.content로 답변을 받습니다.
코드를 한 줄도 바꾸지 않고 모델만 교체할 수 있는 것입니다. 김개발 씨가 눈을 빛냈습니다.
"그럼 테스트할 때는 저렴한 모델 쓰고, 실제 서비스에서는 좋은 모델 쓰면 되겠네요?" "정확해. 그게 바로 이 구조의 장점이야." 박시니어 씨가 대답했습니다.
추가 옵션도 설정할 수 있습니다. temperature는 AI의 창의성을 조절합니다.
0에 가까울수록 일관된 답변을, 1에 가까울수록 다양한 답변을 생성합니다. 고객 상담용 챗봇이라면 낮게, 창작용이라면 높게 설정합니다.
max_tokens는 응답의 최대 길이를 제한합니다. 토큰은 대략 한 단어 또는 한 글자 정도로 생각하면 됩니다.
짧은 답변만 필요하다면 낮게 설정하여 비용을 절약할 수 있습니다. 한 가지 주의할 점이 있습니다.
각 모델을 사용하려면 해당 프로바이더의 패키지가 설치되어 있어야 합니다. OpenAI 모델을 쓰려면 langchain-openai가, Claude를 쓰려면 langchain-anthropic이 필요합니다.
김개발 씨는 코드를 실행해 보았습니다. 화면에 AI의 자기소개가 나타났습니다.
"안녕하세요! 저는 AI 어시스턴트입니다..." 첫 번째 AI 호출에 성공한 것입니다.
실전 팁
💡 - 개발 중에는 gpt-4o-mini처럼 저렴한 모델을 사용하고, 프로덕션에서는 gpt-4o로 교체하세요
- temperature는 용도에 따라 조절하세요. 정확한 답변이 필요하면 0.2, 창의적인 답변이 필요하면 0.8
5. 첫 번째 에이전트 만들기
김개발 씨는 AI가 대답하는 것을 보며 신기해했습니다. 하지만 뭔가 아쉬웠습니다.
"AI가 검색도 하고, 계산도 하고, 더 똑똑하게 일하게 할 수는 없을까요?"
**에이전트(Agent)**는 사용자의 요청을 분석하고, 필요한 도구를 선택하여 자율적으로 작업을 수행하는 AI입니다. 마치 유능한 비서가 알아서 일을 처리하듯이, 에이전트는 어떤 도구를 언제 사용할지 스스로 판단합니다.
LangChain 1.0에서는 간단하게 에이전트를 만들 수 있습니다.
다음 코드를 살펴봅시다.
from langchain.chat_models import init_chat_model
from langchain.tools import tool
from langgraph.prebuilt import create_react_agent
# 도구 정의 - AI가 사용할 수 있는 기능
@tool
def add_numbers(a: int, b: int) -> int:
"""두 숫자를 더합니다."""
return a + b
@tool
def get_weather(city: str) -> str:
"""도시의 날씨를 조회합니다."""
# 실제로는 날씨 API를 호출
return f"{city}의 현재 날씨: 맑음, 20도"
# 에이전트 생성
model = init_chat_model("gpt-4o-mini")
agent = create_react_agent(model, [add_numbers, get_weather])
# 에이전트 실행
result = agent.invoke({"messages": [("user", "서울 날씨 어때?")]})
print(result["messages"][-1].content)
박시니어 씨가 의자를 끌어당기며 말했습니다. "지금까지 만든 건 그냥 질문에 답하는 AI야.
에이전트는 차원이 달라." 에이전트란 정확히 무엇일까요? 쉽게 비유하자면, 에이전트는 만능 비서와 같습니다.
일반 챗봇이 전화 교환원이라면, 에이전트는 개인 비서입니다. "내일 회의 일정 잡아줘"라고 하면, 비서는 달력을 확인하고, 참석자 일정을 조율하고, 회의실을 예약합니다.
스스로 판단해서요. 에이전트가 작동하려면 **도구(Tool)**가 필요합니다.
도구는 에이전트가 사용할 수 있는 기능입니다. 위 코드에서 add_numbers는 계산 도구이고, get_weather는 날씨 조회 도구입니다.
@tool 데코레이터를 붙이면 일반 함수가 AI가 사용할 수 있는 도구로 변환됩니다. 여기서 중요한 것이 docstring입니다.
함수 아래에 작성한 설명문을 AI가 읽습니다. "두 숫자를 더합니다"라는 설명을 보고, AI는 "12 더하기 34는 얼마야?"라는 질문에 이 도구를 사용해야겠다고 판단합니다.
설명이 명확할수록 AI가 올바른 도구를 선택합니다. create_react_agent 함수는 에이전트를 생성합니다.
첫 번째 인자로 모델을, 두 번째 인자로 도구 목록을 전달합니다. 이렇게 생성된 에이전트는 사용자의 질문을 받아 분석하고, 필요하면 도구를 호출하고, 결과를 종합하여 답변합니다.
김개발 씨가 질문했습니다. "그럼 AI가 알아서 어떤 도구를 쓸지 정하는 거예요?" "맞아.
'서울 날씨 어때?'라고 물으면 AI가 get_weather 도구를 선택해서 호출해." 박시니어 씨가 설명했습니다. 이것이 바로 ReAct 패턴입니다.
Reasoning(추론)과 Acting(행동)을 반복하면서 문제를 해결합니다. "이 질문에는 날씨 정보가 필요하네(추론) → get_weather를 호출하자(행동) → 결과를 받았으니 답변을 만들자"의 과정을 거칩니다.
실제 서비스에서는 더 다양한 도구를 연결할 수 있습니다. 데이터베이스 조회, 이메일 발송, 파일 저장 등 거의 모든 기능을 도구로 만들 수 있습니다.
상상력이 한계입니다. 김개발 씨는 에이전트를 실행해 보았습니다.
"서울의 현재 날씨: 맑음, 20도"라는 답변이 돌아왔습니다. AI가 정말로 도구를 사용한 것입니다.
실전 팁
💡 - 도구의 docstring은 명확하고 구체적으로 작성하세요. AI가 이 설명을 보고 도구를 선택합니다
- langgraph 패키지를 설치해야 create_react_agent를 사용할 수 있습니다 (pip install langgraph)
6. 10줄 코드로 챗봇 완성
김개발 씨는 여기까지 배운 내용을 정리하며 생각했습니다. "결국 실제로 동작하는 챗봇을 만들려면 얼마나 많은 코드가 필요할까요?" 박시니어 씨가 웃으며 말했습니다.
"딱 10줄이면 충분해."
LangChain 1.0의 강력함은 최소한의 코드로 최대한의 기능을 구현할 수 있다는 점입니다. 환경 설정부터 대화 기능까지, 정말로 10줄의 코드만으로 완전히 동작하는 챗봇을 만들 수 있습니다.
복잡한 설정 없이 바로 AI와 대화할 수 있는 프로그램이 완성됩니다.
다음 코드를 살펴봅시다.
from dotenv import load_dotenv
from langchain.chat_models import init_chat_model
load_dotenv() # .env 파일에서 API 키 로드
model = init_chat_model("gpt-4o-mini") # 모델 초기화
# 대화 루프
print("챗봇을 시작합니다. '종료'를 입력하면 끝납니다.")
while True:
user_input = input("나: ")
if user_input == "종료":
break
response = model.invoke(user_input)
print(f"AI: {response.content}")
박시니어 씨가 새 파일을 열며 말했습니다. "자, 지금까지 배운 걸 총정리해보자.
진짜 10줄로 챗봇 만들어볼게." 김개발 씨는 반신반의하며 화면을 지켜보았습니다. 첫 번째 줄에서 dotenv를 import합니다.
이건 .env 파일을 읽어오기 위한 것입니다. 두 번째 줄에서 init_chat_model을 import합니다.
모델 초기화를 위한 핵심 함수입니다. 세 번째 줄의 **load_dotenv()**가 실행되면 .env 파일에 저장해둔 API Key가 환경 변수로 로드됩니다.
네 번째 줄에서 모델을 초기화합니다. 이렇게 준비 단계는 4줄로 끝납니다.
다섯 번째 줄부터는 대화 루프입니다. while True로 무한 루프를 만들고, 사용자 입력을 받습니다.
"종료"를 입력하면 루프를 빠져나가고, 그렇지 않으면 AI에게 질문을 전달합니다. **model.invoke()**가 AI를 호출하고, response.content가 답변을 가져옵니다.
김개발 씨가 코드를 세어보았습니다. "정말 10줄이네요!" 이 간단한 코드가 가능한 이유는 LangChain이 복잡한 부분을 모두 처리해주기 때문입니다.
HTTP 요청, JSON 파싱, 에러 처리, 토큰 관리 등 수십 줄이 될 수 있는 코드가 내부에 숨어 있습니다. 물론 이 챗봇에는 한계가 있습니다.
대화 기록을 기억하지 못합니다. 매번 새로운 대화처럼 처리됩니다.
하지만 이것은 메모리 기능을 추가하면 해결됩니다. 또한 도구를 사용하지 않습니다.
하지만 앞서 배운 에이전트를 적용하면 됩니다. "이게 시작점이야." 박시니어 씨가 말했습니다.
"여기에 기능을 하나씩 추가하면서 배워나가면 돼." 김개발 씨는 코드를 실행해 보았습니다. "나: 안녕하세요!"라고 입력하자 "AI: 안녕하세요!
무엇을 도와드릴까요?"라는 답변이 돌아왔습니다. 감동의 순간이었습니다.
불과 한 시간 전만 해도 AI 개발은 먼 세계의 이야기 같았는데, 이제 자신만의 챗봇이 동작하고 있었습니다. "축하해." 박시니어 씨가 어깨를 두드렸습니다.
"이제 너도 AI 개발자야." 김개발 씨는 앞으로 추가하고 싶은 기능들을 머릿속에 떠올리며 미소 지었습니다. 대화 기록 저장, 웹 검색 연동, 음성 인식...
LangChain과 함께라면 모든 것이 가능할 것 같았습니다.
실전 팁
💡 - 이 기본 코드를 바탕으로 메모리, 도구, 프롬프트 템플릿 등을 하나씩 추가해 보세요
- 실제 서비스에 적용할 때는 에러 처리와 로깅을 추가하는 것을 잊지 마세요
이상으로 학습을 마칩니다. 위 내용을 직접 코드로 작성해보면서 익혀보세요!
댓글 (0)
함께 보면 좋은 카드 뉴스
Helm 마이크로서비스 패키징 완벽 가이드
Kubernetes 환경에서 마이크로서비스를 효율적으로 패키징하고 배포하는 Helm의 핵심 기능을 실무 중심으로 학습합니다. Chart 생성부터 릴리스 관리까지 체계적으로 다룹니다.
보안 아키텍처 구성 완벽 가이드
프로젝트의 보안을 처음부터 설계하는 방법을 배웁니다. AWS 환경에서 VPC부터 WAF, 암호화, 접근 제어까지 실무에서 바로 적용할 수 있는 보안 아키텍처를 단계별로 구성해봅니다.
AWS Organizations 완벽 가이드
여러 AWS 계정을 체계적으로 관리하고 통합 결제와 보안 정책을 적용하는 방법을 실무 스토리로 쉽게 배워봅니다. 초보 개발자도 바로 이해할 수 있는 친절한 설명과 실전 예제를 제공합니다.
AWS KMS 암호화 완벽 가이드
AWS KMS(Key Management Service)를 활용한 클라우드 데이터 암호화 방법을 초급 개발자를 위해 쉽게 설명합니다. CMK 생성부터 S3, EBS 암호화, 봉투 암호화까지 실무에 필요한 모든 내용을 담았습니다.
AWS Secrets Manager 완벽 가이드
AWS에서 데이터베이스 비밀번호, API 키 등 민감한 정보를 안전하게 관리하는 Secrets Manager의 핵심 개념과 실무 활용법을 배워봅니다. 초급 개발자도 쉽게 따라할 수 있도록 실전 예제와 함께 설명합니다.