챗GPT 2

LLM: 토큰, 파라미터, 그리고 AI의 사고과정

LLM: 토큰, 파라미터, 그리고 AI의 사고과정ChatGPT, Claude와 같은 대화형 AI가 일상이 된 지금, 이들이 실제로 어떻게 작동하는지 궁금해하신 적 있나요? 오늘은 LLM(Large Language Model)의 내부 구조와 작동 원리를 쉽게 풀어서 설명해드리겠습니다.LLM의 핵심 구조: Transformer 아키텍처현재 대부분의 LLM은 Transformer 아키텍처를 기반으로 합니다. 이 구조는 마치 정교한 번역기처럼 작동하는데, 입력된 텍스트를 이해하고 적절한 응답을 생성합니다.1. 토큰화(Tokenization): 언어를 숫자로 변환하기AI가 텍스트를 이해하려면 먼저 토큰이라는 단위로 분해해야 합니다. 토큰은 단순히 글자나 단어가 아닙니다:"안녕하세요" → ["안녕", "하세요"] ..

AI개념공부 2025.06.17

RAG가 뭐길래? AI가 실시간 정보를 아는 비밀

RAG가 뭐길래? AI가 실시간 정보를 아는 비밀RAG란 무엇인가?RAG(Retrieval-Augmented Generation)는 '검색 증강 생성'이라고 번역되는 AI 기술로, AI가 답변하기 전에 먼저 관련 정보를 검색하고, 그 정보를 바탕으로 답변을 생성하는 방식입니다.기존 ChatGPT나 Claude 같은 LLM은 학습된 시점까지의 데이터만 알고 있어서 최신 정보나 실시간 데이터를 모르는 한계가 있었습니다. RAG는 이런 문제를 해결하기 위해 외부 데이터베이스나 웹에서 실시간으로 정보를 가져와 AI의 답변에 활용하는 혁신적인 접근법입니다.기존 LLM의 한계: 왜 RAG가 필요할까?전통적인 언어 모델은 다음과 같은 문제점들이 있었습니다:지식 컷오프: 학습 데이터의 시점 이후 정보는 전혀 모름할루시..

AI개념공부 2025.06.11