인공지능 개발자 수다(유튜브 바로가기) 자세히보기
반응형

전체 글 165

데이터 스케일링 (Data Scaling)

구구절절 설명을 늘어놓는 것 보다는 간단하게 수식만 정리하는 것이, 가장 명확한 설명이 될 수 있겠죠^^? 1. Standard Scaler $$ z = \frac{x - \mu}{\sigma} $$ 2. MinMax Scaler $$ z = \frac{x - min}{max - max} $$ 3. MaxAbs Scaler $$ z = \frac{x}{max\_abs} $$ 4. Robust Scaler - Q1: 1사분위수 - Q2: 중앙값(median) - Q3: 3사분위수 $$ z = \frac{x-Q2}{Q3-Q1} $$ 5. Normalizer 코드 ```python class sklearn.preprocessing.Normalizer(norm='l2', *, copy=True) ``` 1) L..

Machine Learning 2023.06.07

[LLM] GPT4 - 논문 리뷰

논문 제출 날짜: 2023년 3월 15일논문 링크 GPT-4 Technical ReportWe report the development of GPT-4, a large-scale, multimodal model which can accept image and text inputs and produce text outputs. While less capable than humans in many real-world scenarios, GPT-4 exhibits human-level performance on various professionalarxiv.org 0.  AbstractGPT-4는 이미지와 텍스트 입력을 받아 텍스트 출력을 생성할 수 있는 다중 모달 모델이다. 이 모델은 다음 토큰을 예측하는 ..

[Pytorch] CNN 모델 돌려보기 예제

0. 글 소개 딥러닝 학습을 위한 기초 예제코드 출처: pytorch 튜토리얼 1. 모델 클래스 정의 import torch import torch.nn as nn import torch.nn.functional as F class Net(nn.Module): def __init__(self): super(Net, self).__init__() # 부모 클래스 상속 받아야함 # 컨볼루션 커널 정의 self.conv1 = nn.Conv2d(1, 6, 5) self.conv2 = nn.Conv2d(6, 16, 5) # 아핀(affine) 연산: y = Wx + b self.fc1 = nn.Linear(16 * 5 * 5, 120) # 5*5은 이미지 차원에 해당 self.fc2 = nn.Linear(120,..

[자연어처리] attention 논문 요약

논문 정보논문 링크논문 제목: Neural Machine Translation by jointly Learning to Align and Translate설명: RNN 기반0. Abstract기존 기계번역 방식은 통계적 방식고정길이 벡터의 사용이 성능 향상을 막음qualitative analysis이 우리의 직관과 비슷함.1. Introduction기존 연구인코더 - 디코더 형태의 연구가 성능이 좋음인코더: 고정 길이로 벡터계산을 함디코더: 인코딩된 벡터에서 번역해 출력고정 길이 벡터는 긴 문장을 처리하기 어려움해결방법정렬하고 변환하는 방법을 배우는 인코더-디코더 모델문장에서 관령성 높은 정보를 검색인코딩에서 인풋 문장을 벡터의 하위 집합(a subset of these vectors)으로 선택함.2. ..

mecab 설치하기 (mac m1)

0. 참조 깃허브 페이지 1. 시나리오 mecab-ko 설치 mecab-ko-dic 설치 python-mecab 설치 2. 설치 2.1. mecab-ko 설치 mecab-ko 다운로드 페이지 에서 다운 tar.gz 압축을 해제 설치 :::text $ tar zxfv mecab-ko-XX.tar.gz $ cd mecab-ko-XX $ ./configure $ make $ make check $ su # make install configure 에서 에러 발생 시, 명령어 라인 도구 설치 xcode-select --install su 에서 에러 발생 시, su를 활성화 해주고 비밀번호를 세팅한다 sudo -s passwd root 2.2. mecab-ko-dic 설치 mecab-ko-dic 다운로드 페이지 ..

자연어처리 2022.12.13

[논문 요약] 학생 맞춤형 교육 콘텐츠 (Automatic Concept Extraction for Domain and Student Modeling in Adaptive Textbooks)

논문 정보 논문 링크 제목: 적응형 교과서에서 도메인 및 학생 모델링을 위한 자동 개념 추출 날짜: 2021.12 설명: 교육분야 NLP 연구 0. Abstract 최근 연구 디지털 교과서의 인기가 높아짐 독자의 학습 방식에 맞춰 적응형 교과서 개발 학생 모델링, 적합한 네비게이션, 콘텐츠 추천시스템 등 본 논문 FACE 를 제시 supervised feature-based 자동 개념 추출 1. Introduction ITS 시스템 (인텔리전트 튜터링 시스템) 도메인, 학생 모델링 적응형 교과서 1세대 내비게이션 서포트 콘텐츠 추천 전문가가 라벨링 해야하는 한계가 있음 지난 10년간 변화 전문가 라벨링 없이 자동으로 핵심 구문 추출하기 위해 노력 현 연구 교과서에서 개념 키워드를 추출 Concept an..

논문요약 2022.12.06

[자연어처리] Transformer (NLP, 트랜스포머) 논문요약

0. 논문 소개논문 링크[Attention Is All You NeedThe dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a newarxiv.org](https://arxiv.org/abs/1706.03762)1. Abstract기존 최고 성능은 인코더와 디코더를 사용한 복잡한 모델, 또는 CNN 기반 모델새로운 아..

[LLM] GPT3 - 논문요약

논문 링크 Language Models are Few-Shot LearnersRecent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre-training on a large corpus of text followed by fine-tuning on a specific task. While typically task-agnostic in architecture, this method still requires task-specific fiarxiv.org1. Introduction최근 연구의 한계몇가지 예제만으로 task에 적응 할 수 있으면 더 다양한 테스트크에 적용 가능pretrain 과정에서 큰 정보가 학습..

[LLM] GPT2 - 논문요약

논문 링크1. Abstract해당 논문에서는 비지도 학습 방식 (기존에는 아니였고)zero-shot task transfer 방법으로 연구추가설명: zero-shot이란 모델이 학습 과정에서 배우지 않은 작업을 수행하는 것임2. Introduction범용적인 모델 필요(기존에는 좁은 범위의 문제만 가능)기존연구가장 성능이 높은 언어처리모델은 사전학습(pre-training)과 지도 세부학습(supervised fine-tuning)의 결합self-attention block 사용했음.이러한 방법들은 여전히 지도학습을 필요현 연구어떤 parameter나 모델구조의 변화 없이도 zero-shot setting 하에서 downstream task를 수행3. Approach기존 언어 모델(Language Mod..

반응형