인공지능 개발자 수다(유튜브 바로가기) 자세히보기
반응형

자연어처리 18

[LangChain] 랭체인이란 무엇인가

참고자료: LangChain docs (링크), 공식홈페이지 LangChain은 자연어 처리(NLP)를 위한 툴과 서비스를 개발 및 통합하기 위한 프레임워크를 제공하는 오픈 소스 라이브러리입니다. 양한 NLP 모델과 툴을 쉽게 사용할 수 있도록 설계되었으며, 특히 대화형 AI, 번역, 요약 등과 같은 응용 프로그램을 구축할 때 유용합니다.1. 주요 기능모델 통합: 다양한 언어 모델을 하나의 통합된 인터페이스를 통해 손쉽게 접근하고 사용할 수 있습니다.대화 관리: 사용자와의 상호작용을 관리하고 최적의 대답을 생성하기 위한 로직을 포함합니다.모듈화: 필요에 따라 커스텀 모듈을 추가하거나 기존 모듈을 변경하여 특정 작업에 맞게 조정할 수 있습니다.툴 연동: 외부 데이터베이스, API 등 다양한 외부 자원과의 ..

자연어처리 2024.04.30

[ChatGPT API] 파이썬으로 실습하기

참조 글: openai 홈페이지, Quickstart (링크) 1. 개요 ChatGPT API를 사용해 ChatGPT를 파이썬에서 사용하는 방법을 안내 하겠습니다. 2. 개발 환경 Python 3.7.1 버전 이상 (2024.01 기준) openai 라이브러리 설치 pip install --upgrade openai 3. API 키 발급받기 openai 홈페이지에 들어가서 로그인을 한 이후, API Keys 로 들어가 발급 받을 수 있다. (링크) Create new secret key 버튼을 눌러 발급받는다. 발급 받은 키는 복사해서, python 코드에서 사용하면 된다. - 추가 팁 api key를 소스코드에 올리는 것은 보안상 좋지 않다. mac 유저의 경우 `nano ~/.bash_profile`..

자연어처리 2024.01.01

[Google Gemini] 구글 제미나이 논문 요약

논문 연도: 2023 제미나이 논문 링크 Gemini: A Family of Highly Capable Multimodal Models This report introduces a new family of multimodal models, Gemini, that exhibit remarkable capabilities across image, audio, video, and text understanding. The Gemini family consists of Ultra, Pro, and Nano sizes, suitable for applications ranging from comp arxiv.org 0. abstract '제미나이' 크기로는 '울트라(Ultra)', '프로(Pro)', '나노(Na..

자연어처리 2023.12.27

[자연어 처리] 프롬프트 튜닝(Prompt Tuning)

1. 개요 프롬프트 튜닝(Prompt Tuning)은 인공지능 모델, 특히 자연어 처리 모델을 사용할 때 사용되는 기법. 이 기법의 핵심은 모델에 입력되는 프롬프트(명령이나 요청 등의 텍스트)를 조정하여, 모델이 원하는 방식으로 응답하도록 하는 것. 2. 특징 정확한 명령어 선택: 모델이 이해할 수 있고, 원하는 결과를 낼 수 있는 명확한 단어와 문장을 사용 문맥 설정: 때때로 프롬프트에 추가적인 정보나 문맥을 제공하여 모델이 보다 정확한 답변을 할 수 있도록 한다. 반복적 시도와 수정: 원하는 결과를 얻기 위해 프롬프트를 여러 번 시도하고 수정하는 과정 모델의 특성 이해: 다른 모델은 각각 다른 방식으로 반응하기 때문에, 사용하는 모델의 특성을 이해하는 것이 중요 3. 목표 같은 모델을 사용하면서도 다..

자연어처리 2023.12.06

[자연어처리] Llama-1 모델 공부 - Llama1 논문 요약

지난 시간 Llama2에대해 공부했었는데, 모델의 세부적인 내용이 Llama1 과 비슷하다고 하여 논문을 한번 보는 것이 좋겠다고 생각해 요약을 해보는 것도 좋은 경험일 것 같아 글을 작성합니다. - 논문 링크 LLaMA: Open and Efficient Foundation Language Models - Meta Research | Meta Research We introduce LLaMA, a collection of foundation language models ranging from 7B to 65B parameters. We train our models on trillions of tokens, and show that it is possible to... research.facebook...

자연어처리 2023.11.22

[자연어처리] Llama-2 모델 공부 (2) - Llama2 논문 요약

논문 제목 : Llama 2: Open Foundation and Fine-Tuned Chat Models (논문링크) 발행연도: 2023 0. Abstract Llama2는 파라미터가 70억~700억개로, 거대 모델이다. 사람의 평가를 기반으로 함 (도움이 되는지, 안전한지) 상세한 모델 사용법을 제공한다. 1. Introduction 거대 언어 모델(Large Language Models, LLMs)은 전문적인 지식을 요구하는 다양한 분야서 AI 시스턴트로서의 가능성을 보여주고 있음 Reinforcement Learning with Human Feedback (RLHF): 사람의 피드백을 반영해 학습하는 기법 사전훈련 모델 공개되어 있음, 연구 및 상업용으로 일반 대중에게 공개 Llama2 Llama..

자연어처리 2023.11.08

[자연어처리] Llama-2 모델 공부 (1)

1. 개요 지난 시간에 새로운 모델을 학습 하기 위해서는, 비용이 너무 커 개인이 실행하기는 어렵다는 것을 깨닳았다. 이번에는 오픈소스 사전 학습된(Pretrain)모델을 파인튜닝(Finetunning)하기위해, 유명한 오픈소스 모델 중 하나인 Llama2 모델을 사용하는 방법부터 알아 보자 2. 모델 종류 2.1.설명 Llama 2는 7B, 13B, 70B 등 다양한 매개변수 크기의 모델이 있음 chat: 대화 사용 사례에 최적화된 모델 hf: RLHF(인간 피드백)으로 조정 2.2. 종류 meta-llama/Llama-2-7b (링크) meta-llama/Llama-2-7b-hf(링크) meta-llama/Llama-2-7b-chat(링크) meta-llama/Llama-2-7b-chat-hf(링크)..

자연어처리 2023.10.18

LLM공부를 위해 Hugging Face 데이터셋 뒤져본 후기

1. 데이터셋 뭐가 있을까? huggingface에서 데이터셋을 불러오는 방법이다. 1.1. 먼저 huggingface의 datasets을 설치한다. !pip install datasets 1.2. 다음으로 다운받을 수 있는 데이터셋의 리트스를 확인해 봅시다. from datasets import list_datasets datasets_list = list_datasets() print('데이터의 개수:', len(datasets_list)) print(datasets_list) 69289 데이터셋의 개수를 확인해보면 엄청 방대하다는 것을 알 수 있다. 그렇다면 어떠한 데이터들을 사용하는 것이 좋을까..? 1.3. LLM에서 사용한 여러 데이터셋 wikitext 설명: 'wikitext' 시리즈는 위키..

자연어처리 2023.10.11

LLM이란? 그리고 공부하려면

1. LLM 개요 Large Language Model(LLM)은 자연어 처리(Natural Language Processing, NLP) 분야에서 사용되는 대규모의 언어 모델을 의미합니다. 이 모델들은 인간의 언어를 이해하고 생성하는 능력을 가지고 있으며, 그 규모와 복잡성 때문에 '대형'이라는 수식어가 붙습니다. LLM은 일반적으로 심층 신경망(Deep Neural Network, DNN) 기반으로 구축되며, 수억 혹은 수조 개의 파라미터를 가질 수 있습니다. 이런 대규모의 모델들은 매우 크고 다양한 데이터셋에서 학습됩니다. 예를 들면, 인터넷에서 크롤링한 텍스트 데이터나 위키피디아 같은 공개 텍스트 데이터를 활용합니다. LLM이 학습하는 방식 중 하나는 "transformer" 아키텍처와 "self..

자연어처리 2023.10.04

[NLP] 토크나이저 (Tokenizer)

1. 토크나이저란 토크나이저는 텍스트를 단어, 서브 단어, 문장 부호 등의 토큰으로 나누는 작업을 수행 텍스트 전처리의 핵심 과정 2. 토크나이저의 종류 2.1. 공백 기반 토크나이저(Whitespace Tokenizer) 텍스트를 공백으로 구분하여 토크나이징하는 가장 간단한 방법입니다. 이 방법은 영어와 같은 공백으로 단어가 구분되는 언어에서 잘 작동한다. 중국어나 한국어와 같이 공백이 없거나 연결되어 있는 경우에는 적합하지 않습니다. 2.2. 기본 정규식 토크나이저(Regex Tokenizer) 정규식을 사용하여 텍스트를 분할하는 방식입니다. 사용자가 원하는 기준에 따라 토크나이징할 수 있으며, 공백 외에도 문장 부호 등 다른 문자를 기준으로 텍스트를 분할할 수 있습니다. 2.3. BPE(Byte P..

자연어처리 2023.07.07
반응형