인공지능 개발자 수다(유튜브 바로가기) 자세히보기
반응형

딥러닝 3

MLflow 처음 시작하기

1. 설치 anaconda 설치 conda install conda-forge::mlflow pip 설치 pip install mlflow 2. MLflow로 할 수 있는 일 요약 실험 추적(MLflow Tracking): MLflow Tracking을 사용하면 머신러닝 실험의 매개변수, 코드 버전, 메트릭 및 결과 파일(예: 모델)을 기록하고 비교 프로젝트(MLflow Projects): MLflow Projects는 머신러닝 코드를 패키징하고 재사용할 수 있는 방법을 제공 모델 관리(MLflow Models): MLflow Models는 머신러닝 모델을 다양한 ML 라이브러리에서 사용할 수 있는 표준 포맷으로 패키징 모델 서빙(MLflow Model Serving): MLflow를 사용하면 학습된 모..

MLOps 2024.03.12

[Pytorch] CNN 모델 돌려보기 예제

0. 글 소개 딥러닝 학습을 위한 기초 예제코드 출처: pytorch 튜토리얼 1. 모델 클래스 정의 import torch import torch.nn as nn import torch.nn.functional as F class Net(nn.Module): def __init__(self): super(Net, self).__init__() # 부모 클래스 상속 받아야함 # 컨볼루션 커널 정의 self.conv1 = nn.Conv2d(1, 6, 5) self.conv2 = nn.Conv2d(6, 16, 5) # 아핀(affine) 연산: y = Wx + b self.fc1 = nn.Linear(16 * 5 * 5, 120) # 5*5은 이미지 차원에 해당 self.fc2 = nn.Linear(120,..

딥러닝 옵티마이저 (Optimizer) 종류와 설명

1. Gradient descent(GD)¶ $w^{t} = w^{t-1} - \eta \frac{\partial E}{\partial W}$ 2. Stochastic gradient decent(SGD)¶ full-batch가 아닌 mini batch로 학습을 진행하는 것(* batch로 학습하는 이유 : full-batch로 epoch마다 weight를 수정하지 않고 빠르게 mini-batch로 weight를 수정하면서 학습하기 위해) 3. Momentum¶ 현재 batch로만 학습하는 것이 아니라 이전의 batch 학습결과도 반영(관성 개념 적용) local minimum을 피하기 위한 방법 $m_{t} = \alpha m^{t-1} - \eta \frac{\partial E}{\partial W}..

반응형