인공지능 개발자 수다(유튜브 바로가기) 자세히보기
반응형

전체 글 167

[LLM] DPO (Direct Preference Optimization) 논문 리뷰

6.1 Sentiment Task: 감성 조절 능력 실험 (IMDb)논문 링크연도 : 20230. Abstract기존 RLHF(인간 피드백을 활용한 강화학습)은 복잡하고 한계가 있음간단한 classification loss 를 이용해 RLHF의 문제를 해결샘플링이나 복잡한 하이퍼파라미터 튜닝 없이도 인간의 선호도에 맞는 fine-tuning이 가능기존의 PPO 기반 RLHF보다 감정 제어 성능이 뛰어남 1. Introduction명확하지 않은 문서를 이해해야 하지만, 정확한 대답을 해야하함이진 분류 손실 함수(binary classification loss) 사용핵심 아이디어는, 보상 모델을 명시적으로 학습하지 않고도 최적의 정책(Policy)을 바로 도출할 수 있도록 선호 기반 확률모델(theoreti..

[LangGraph] Graph 기본 개념

langgraph 버전: 0.6.4내용 출처 : LangGrapn Docs LangGraphLangGraph Trusted by companies shaping the future of agents – including Klarna, Replit, Elastic, and more – LangGraph is a low-level orchestration framework for building, managing, and deploying long-running, stateful agents. Get started Install LangGrlangchain-ai.github.io 1. Graph 개요LangGraph는 Graph를 구성해 Agent를 만들 수 있다. Graph의 핵심 구성은 다음과 같다.Gr..

[LangGraph] Graph 만드는 방법 요약본(graph, llm, tool, memory)

langchain 버전: 0.3.23langgraph 버전: 0.3.20내용 출처 : LangGrapn Docs Learn the basicsHome Guides Tutorials Quick Start 🚀 LangGraph Quickstart In this tutorial, we will build a support chatbot in LangGraph that can: ✅ Answer common questions by searching the web ✅ Maintain conversation state across calls ✅ Route complex queries tolangchain-ai.github.io 1. Graph 개념LangGraph는 Graph를 구성해 Agent를 만들 수 있다. ..

[LangGraph] Prebuilt ReAct Agent 사용법

langchain 버전: 0.3.23langgraph 버전: 0.3.20 0. LangGraph란LangGraph는 복잡한 LLM 워크플로우를 설계하고 실행할 수 있도록 해주는그래프 기반 실행 프레임워크 각 단계(노드)를 LLM, 함수 호출, 조건 판단으로 나눠서마치 "AI 플로우차트"처럼 구성함LangGraph는 이런 복잡한 흐름을 그래프 구조로 시각화하고 제어할 수 있게 해주는 도구 LangGraph의 구성요소요소설명Graph실행 흐름 전체를 표현하는 객체Node각 단계(=작업 단위). LLM 실행, 툴 호출, 조건 분기 등을 담음EdgeNode 간 흐름. 조건 분기(if), 반복(loop) 등State노드 실행 사이에 공유되는 컨텍스트 (예: chat history, 변수)GraphRunner그래프..

[Langchain] Tools 사용하기 (1)

langchain 버전: 0.3.23 에이전트(Agent)를 구성할 때는 에이전트가 사용할 수 있는 도구 목록(Tools)을 제공해야 한다.또한, 도구는 도구 호출을 지원하는 모델에 연결되어야 한다.tool_calling에 체크가 되어 있는 모델을 사용하자 (링크) Chat models | 🦜️🔗 LangChainChat models are language models that use a sequence of messages as inputs and return messages as outputs (as opposed to using plain text). These are generally newer models.python.langchain.com 1. Tool 생성1.1. 함수로 Tool 생성T..

[연구 노트] 앞으로의 블로그의 연구 방향성

나는 LLM관련 업계에 종사하는 개발자이다.ChatGPT의 등장 이후, 연구는 포기하고 OpenAI의 거대 모델을 사용하는 삶을 살아가려고 했는데최근 DeepSeek의 출범 이후 다시 개인 연구를 시작하기로 했다. DeepSeek는 적은 비용으로강력한 모델을 만들 수 있다는확신을 안겨주었기 때문이다. 나의 연구 방향성은6년전 부터 그래왔듯미국 중국에서 새로운 연구 성과를 논문으로 발표할 때마다한국에도 빠르게 적용해 상업적으로 적용하는 것이었다. 6년전 부터 내가 봐온 AI 분야는컴퓨터 자원을 더 투자해 성과를 내고효율화 시켜서 컴퓨터 자원을 아끼는 것을반복해 왔다.  6년 전에는 NLP 모델은감정 분석과 같은 분류문제 정도만 해결하는 수준이었다. 현재는 대화를 하고, 생각을 하는 수준까지 왔다.단, 엄청..

연구노트 2025.03.18

[LLM] EXAONE 3.5 논문 리뷰

LG 프로젝트를 하다 보니, 엑사원 모델을 사용하고 있길래논문을 읽어보기로 했다.현 시점에서 한국어를 기준으로는 상위권에 속하는 모델이다.필자도 이것저것 질문해 봤는데 성능이 괜찮았던 경험이 있다. 논문 링크 EXAONE 3.5: Series of Large Language Models for Real-world Use CasesThis technical report introduces the EXAONE 3.5 instruction-tuned language models, developed and released by LG AI Research. The EXAONE 3.5 language models are offered in three configurations: 32B, 7.8B, and 2.4B...

반응형