인공지능 개발자 수다(유튜브 바로가기) 자세히보기
반응형

분류 전체보기 65

[파이썬] 제너레이터(Generators)와 이터레이터(Iterators)

1. 설명 제너레이터는 yield 키워드를 사용 이 키워드는 함수의 실행을 일시 중지하고 값을 반환한 다음, 다음 호출 때 실행을 재개할 수 있게 합니다. 제너레이터 함수는 호출될 때 함수 내의 코드를 실행하기 시작하는 것이 아니라, 이터레이터 객체를 반환합니다. 이 이터레이터는 .next() 메서드를 사용하여 값을 요청할 때마다 제너레이터 함수 내의 코드를 실행합니다. 2. 특징 지연 실행 제너레이터는 필요할 때까지 값을 계산하지 않습니다. 즉, 반복의 각 단계에서 다음 값이 필요할 때만 그 값을 생성합니다. 이러한 '지연 실행' 방식은 메모리 사용을 최적화하고, 특히 크거나 무한한 데이터 시퀀스를 다룰 때 유용합니다. 상태 유지 제너레이터는 현재 위치(상태)를 기억합니다. 즉, yield 키워드를 통..

Torchvision(토치비전) 사용법

1. Torchvision(토치비전)은 언제 사용? 컴퓨터 비전 프로젝트에서 사용함. 2. Torchvision(토치비전)의 주요 기능 요약 데이터셋 접근 및 사용: torchvision은 MNIST, CIFAR-10, ImageNet 등 다양한 사전 정의된 데이터셋을 제공합니다. 이를 통해 쉽게 데이터를 로드하고 실험할 수 있습니다. 데이터 변환(Transformation): 이미지 데이터를 전처리하거나 증강하기 위한 다양한 변환 기능을 제공합니다. 예를 들어, 이미지의 크기를 조정하거나, 회전, 뒤집기 등의 작업을 쉽게 수행할 수 있습니다. 모델: 사전 훈련된 다양한 모델을 제공하여, 이미지 분류, 객체 탐지, 세그멘테이션 등 다양한 비전 태스크에 활용할 수 있습니다. ResNet, VGG, Alex..

Pytorch(파이토치) 텐서보드(tensorboard) 사용하기(1) - 스칼라

출처: 파이토치 튜토리얼 PyTorch로 TensorBoard 사용하기 TensorBoard는 머신러닝 실험을 위한 시각화 툴킷(toolkit)입니다. TensorBoard를 사용하면 손실 및 정확도와 같은 측정 항목을 추적 및 시각화하는 것, 모델 그래프를 시각화하는 것, 히스토그램을 보는 tutorials.pytorch.kr 1. 텐서보드(Tensorboard)는 언제 사용하면 좋을까? 모델 성능 분석: 모델의 학습 과정에서 손실과 정확도 같은 지표를 시각화하여, 모델이 잘 학습하고 있는지, 어떤 지점에서 문제가 발생하는지 분석할 때 유용합니다. 하이퍼파라미터 튜닝: 다양한 하이퍼파라미터의 조합을 실험하며 그 결과를 기록하고 비교할 때, TensorBoard를 사용하면 각 설정의 성능을 쉽게 비교하고..

FastAPI의 특징과 장단점

FastAPI는 2024년 현재 인공지능 분야에서 널리 사용되는 백엔드 프레임워크입니다. 최근에는 많은 서비스들이 마이크로 서비스 방식으로 서버를 구축하는 경향이 있는데, 특히 인공지능 분야에서는 파이썬을 사용하여 개발하는 경우가 많습니다. 이러한 맥락에서, 인공지능 서버를 별도로 구축하여 서비스에 통합하는 데 적합한 백엔드 프레임워크로서 FastAPI의 사용이 증가하고 있습니다. 1. 특징 및 장점 빠른 성능 Starlette (비동기 Python 웹 프레임워크): 비동기 프로그램이란, 특정 작업의 완료를 기다리지 않고 다른 작업을 동시에 수행할 수 있는 프로그래밍 방식 Pydantic: 효율적인 데이터 검증과 타입 변환, 고급 문자열 포매팅, 변수 어노테이션, 데이터 클래스 등을 효율적으로 사용 쉬운..

Fastapi 2024.01.14

[ChatGPT API] 파이썬으로 실습하기

참조 글: openai 홈페이지, Quickstart (링크) 1. 개요 ChatGPT API를 사용해 ChatGPT를 파이썬에서 사용하는 방법을 안내 하겠습니다. 2. 개발 환경 Python 3.7.1 버전 이상 (2024.01 기준) openai 라이브러리 설치 pip install --upgrade openai 3. API 키 발급받기 openai 홈페이지에 들어가서 로그인을 한 이후, API Keys 로 들어가 발급 받을 수 있다. (링크) Create new secret key 버튼을 눌러 발급받는다. 발급 받은 키는 복사해서, python 코드에서 사용하면 된다. - 추가 팁 api key를 소스코드에 올리는 것은 보안상 좋지 않다. mac 유저의 경우 `nano ~/.bash_profile`..

자연어처리 2024.01.01

[Google Gemini] 구글 제미나이 논문 요약

논문 연도: 2023 제미나이 논문 링크 Gemini: A Family of Highly Capable Multimodal Models This report introduces a new family of multimodal models, Gemini, that exhibit remarkable capabilities across image, audio, video, and text understanding. The Gemini family consists of Ultra, Pro, and Nano sizes, suitable for applications ranging from comp arxiv.org 0. abstract '제미나이' 크기로는 '울트라(Ultra)', '프로(Pro)', '나노(Na..

자연어처리 2023.12.27

[자연어 처리] 프롬프트 튜닝(Prompt Tuning)

1. 개요 프롬프트 튜닝(Prompt Tuning)은 인공지능 모델, 특히 자연어 처리 모델을 사용할 때 사용되는 기법. 이 기법의 핵심은 모델에 입력되는 프롬프트(명령이나 요청 등의 텍스트)를 조정하여, 모델이 원하는 방식으로 응답하도록 하는 것. 2. 특징 정확한 명령어 선택: 모델이 이해할 수 있고, 원하는 결과를 낼 수 있는 명확한 단어와 문장을 사용 문맥 설정: 때때로 프롬프트에 추가적인 정보나 문맥을 제공하여 모델이 보다 정확한 답변을 할 수 있도록 한다. 반복적 시도와 수정: 원하는 결과를 얻기 위해 프롬프트를 여러 번 시도하고 수정하는 과정 모델의 특성 이해: 다른 모델은 각각 다른 방식으로 반응하기 때문에, 사용하는 모델의 특성을 이해하는 것이 중요 3. 목표 같은 모델을 사용하면서도 다..

자연어처리 2023.12.06

[자연어처리] Llama-1 모델 공부 - Llama1 논문 요약

지난 시간 Llama2에대해 공부했었는데, 모델의 세부적인 내용이 Llama1 과 비슷하다고 하여 논문을 한번 보는 것이 좋겠다고 생각해 요약을 해보는 것도 좋은 경험일 것 같아 글을 작성합니다. - 논문 링크 LLaMA: Open and Efficient Foundation Language Models - Meta Research | Meta Research We introduce LLaMA, a collection of foundation language models ranging from 7B to 65B parameters. We train our models on trillions of tokens, and show that it is possible to... research.facebook...

자연어처리 2023.11.22

[자연어처리] Llama-2 모델 공부 (2) - Llama2 논문 요약

논문 제목 : Llama 2: Open Foundation and Fine-Tuned Chat Models (논문링크) 발행연도: 2023 0. Abstract Llama2는 파라미터가 70억~700억개로, 거대 모델이다. 사람의 평가를 기반으로 함 (도움이 되는지, 안전한지) 상세한 모델 사용법을 제공한다. 1. Introduction 거대 언어 모델(Large Language Models, LLMs)은 전문적인 지식을 요구하는 다양한 분야서 AI 시스턴트로서의 가능성을 보여주고 있음 Reinforcement Learning with Human Feedback (RLHF): 사람의 피드백을 반영해 학습하는 기법 사전훈련 모델 공개되어 있음, 연구 및 상업용으로 일반 대중에게 공개 Llama2 Llama..

자연어처리 2023.11.08

[자연어처리] Llama-2 모델 공부 (1)

1. 개요 지난 시간에 새로운 모델을 학습 하기 위해서는, 비용이 너무 커 개인이 실행하기는 어렵다는 것을 깨닳았다. 이번에는 오픈소스 사전 학습된(Pretrain)모델을 파인튜닝(Finetunning)하기위해, 유명한 오픈소스 모델 중 하나인 Llama2 모델을 사용하는 방법부터 알아 보자 2. 모델 종류 2.1.설명 Llama 2는 7B, 13B, 70B 등 다양한 매개변수 크기의 모델이 있음 chat: 대화 사용 사례에 최적화된 모델 hf: RLHF(인간 피드백)으로 조정 2.2. 종류 meta-llama/Llama-2-7b (링크) meta-llama/Llama-2-7b-hf(링크) meta-llama/Llama-2-7b-chat(링크) meta-llama/Llama-2-7b-chat-hf(링크)..

자연어처리 2023.10.18
반응형