인공지능17 [생성형 AI] 파인 튜닝 vs LLM 오케스트레이션 파인 튜닝(Fine-Tuning)과 LLM 오케스트레이션(LLM Orchestration)은 대형 언어 모델(LLM, Large Language Model)을 활용하는 두 가지 주요 방법이지만, 목적과 방식이 다르다! 개인적으로 매우 헷갈리는 개념이라, 확실히 짚고 넘어가는 것이 좋을 것 같다.ㅁ파인 튜닝 (Fine-Tuning): 사전 훈련된 모델(Pretrained Model)을 특정 도메인이나 작업에 맞춰 추가 학습하는 과정예를 들어, OpenAI의 GPT-4를 의료 상담용 챗봇으로 만들고 싶다면, 의료 데이터로 모델을 추가 학습시켜 해당 도메인에서 더 정확한 답변을 하도록 한다.📌 특징모델 가중치(Weights)를 직접 수정한다특정 데이터셋을 사용하여 LLM을 추가 훈련한다학습 후에도 모델이 특.. 2025. 3. 7. [머신러닝] kNN(k-Nearest Neighbors, k-최근접 이웃) 알고리즘 가장 간단하면서도 강력한 지도 학습(Supervised Learning) 알고리즘 중 하나! ㅁk-최근접 이웃(k-Nearest Neighbors, kNN) 알고리즘: 주어진 데이터 포인트에 대해 가장 가까운 k개의 이웃을 참조하여 분류(Classification)하거나 회귀(Regression)를 수행1. 새로운 데이터 포인트가 주어지면, 가장 가까운 k개의 이웃을 찾는다2. 다수결(Majority Voting) 원칙을 사용하여 분류 문제를 해결한다3. 평균을 내어 회귀 문제를 해결한다 ※ k값 선택 방법k값은 너무 작거나 크면 성능이 저하될 수 있다. 일반적으로 다음과 같은 방법을 사용하여 최적의 k값을 찾는다- 홀수 선택: 데이터가 2개의 클래스로 나뉘어 있을 경우, 동률을 방지하기 위해 k를 홀수.. 2025. 2. 17. [생성형 AI] OpenAI 이미지 생성 활용(w/DALL·E 3) 이미지 생성 절차dall-e-3 모델을 사용하여 이미지를 생성한다prompt에 원하는 이미지 설명을 입력한다생성된 이미지의 URL을 출력하여 확인한다import openaiclient = openai.OpenAI()easy_prompt = """A detailed image of a small orange tabby cat staring at its reflection in an ornate, vintage mirror. The reflection shows a majestic lion, symbolizing confidence and inner strength."""response = client.images.generate( model="dall-e-3", prompt=easy_prompt.. 2025. 2. 17. [생성형 AI] OpenAI 음성 생성 및 입력 활용 OpenAI의 새로운 음성 생성 및 입력 기능을 활용하면 텍스트를 음성으로 변환(TTS)하고, 음성을 텍스트로 변환(STT)할 수 있다. 이를 활용하면 음성 기반 챗봇, 자동 응답 시스템, 음성 데이터 분석 등 다양한 응용이 가능하다.본 글에서는 OpenAI의 gpt-4o-audio-preview 모델을 사용하여 음성을 생성하고 입력하는 방법을 설명한다!※ 음성 데이터의 길이와 토큰 수는 아직 명확하지 않지만, 일반적으로 1시간의 대화 = 128k 토큰 정도로 알려져 있다 음성 생성하기 (TTS, Text-To-Speach)OpenAI의 gpt-4o-audio-preview 모델을 사용하면 텍스트 입력을 기반으로 음성을 생성할 수 있다. Python을 활용하여 음성을 생성하는 코드를 살펴보자.impor.. 2025. 2. 17. [머신러닝] 과적합(Overfitting) / 과소적합(Underfitting) ㅇ과적합(Overfitting): 머신러닝 또는 딥러닝 모델이 학습 데이터(training data)에 지나치게 적응하여, 새로운 데이터(테스트 데이터 또는 실제 환경)에서 일반화 성능이 저하되는 현상즉, 모델이 훈련 데이터의 패턴뿐만 아니라 노이즈(noise)나 특이한 패턴까지 학습하여 새로운 데이터에 대해 잘 예측하지 못하는 문제가 발생한다 [과적합 원인]- 훈련 데이터 부족데이터 샘플 수가 적을수록 모델이 특정한 데이터 패턴만 학습하여 일반화 능력이 떨어짐- 모델 복잡도 과다모델이 너무 복잡하면(예: 뉴럴 네트워크의 계층 수가 많거나, 너무 많은 매개변수 사용) 불필요한 패턴까지 학습하게 됨- 훈련 데이터의 노이즈 학습훈련 데이터에 포함된 노이즈까지 학습하여 테스트 데이터에서는 성능이 낮아짐- 훈.. 2025. 2. 17. [생성형 AI] LangGraph vs CrewAI 라이브러리 https://claremont.tistory.com/entry/%EC%83%9D%EC%84%B1%ED%98%95-AI-LangChain%EC%9D%B4%EB%9E%80 [생성형 AI] LangChain이란?ㅁLangChain: LLM을 활용하여 응용 프로그램을 개발하는 프레임워크주로 OpenAI의 GPT, Google의 PaLM, Meta의 Llama 등 다양한 LLM과 통합하여 문서 검색, 데이터 분석, 자동화된 AI 응답 시스템 등을 구축하는claremont.tistory.com ㅇLangGraph 라이브러리: LangChain 기반의 멀티 에이전트(Multi-Agent) 및 상태 관리(State Management) 라이브러리기존 LangChain의 체인(Chains) 모델보다 더 유연하고 동.. 2025. 2. 17. [생성형 AI] LangChain이란? ㅁLangChain: LLM을 활용하여 응용 프로그램을 개발하는 프레임워크주로 OpenAI의 GPT, Google의 PaLM, Meta의 Llama 등 다양한 LLM과 통합하여 문서 검색, 데이터 분석, 자동화된 AI 응답 시스템 등을 구축하는 데 사용된다LangChain은 LLM을 더 강력하게 활용할 수 있도록 다양한 기능을 제공하며, 크게 두 가지 핵심 개념으로 나뉜다1. LLM과의 연결(Connecting LLMs)OpenAI, Hugging Face, Cohere 등의 LLM API를 쉽게 사용할 수 있도록 지원한다. API 호출을 단순화하고, 다양한 모델을 유기적으로 활용할 수 있다. 2. LLM을 활용한 애플리케이션 구축(Building with LLMs)LLM을 단순한 문장 생성 도구가 아니.. 2025. 2. 17. [생성형 AI] AGI(Artificial General Intelligence): 인공지능의 최종 목표 ㅁAGI(Artificial General Intelligence, 범용 인공지능): 인간과 같은 수준의 사고 능력을 갖춘 인공지능을 의미 현재 우리가 사용하는 AI는 특정 작업에 최적화된 ANI(Artificial Narrow Intelligence, 좁은 인공지능)이며, AGI는 이를 뛰어넘어 다양한 문제를 자율적으로 해결할 수 있는 능력을 갖춘 AI를 목표로 한다현재 AI는 특정 문제 해결을 위한 ANI 단계에 머물러 있으며, AGI로 발전하기 위해서는 여러 기술적 과제가 해결되어야 한다[AGI 핵심 기술 요소]ㅇ 자율 학습(Self-Learning)- AGI는 새로운 데이터 없이도 기존 지식을 활용하여 학습해야 한다(메타 학습(Meta Learning)과 강화 학습(Reinforcement Lea.. 2025. 2. 17. [생성형 AI] LLM의 Tool Calling(도구 호출)이란? ㅇTool Calling: LLM(Large Language Model)이 외부 도구(함수, API, 데이터베이스 등)를 호출하여 특정 작업을 수행하는 기능 LLM 자체가 모든 정보를 가지고 있지 않거나 계산을 직접 수행할 수 없는 경우, 외부 도구를 활용하여 정확한 답변을 생성할 수 있다 기본적으로 LLM은 훈련된 데이터에 기반하여 응답을 생성하지만, 다음과 같은 한계가 있다최신 정보 부족 → LLM은 훈련 이후의 최신 데이터를 반영할 수 없음정확한 연산 수행 어려움 → 복잡한 계산, 데이터 검색 등을 직접 수행할 수 없음외부 시스템과의 연동 필요 → API 호출, 데이터베이스 조회 등의 기능이 필요할 수 있음이를 해결하기 위해 Tool Calling 기능이 도입되었다. LLM은 입력된 프롬프트에 따라.. 2025. 2. 17. 이전 1 2 다음