인공지능 개발자 수다(유튜브 바로가기) 자세히보기

자연어처리/LLM을 위한 코딩

LLM을 위한 Pytorch와 HuggingFace 개요 (1)

Suda_777 2025. 1. 28. 21:16

목차

    반응형

    0. 개요

    LLM을 위한 Pytorch에서는

    Pytorch 기본 사용방법을 이미 알고 있으며,

    딥러닝에 대한 기본지식이 있는 사람들을 대상으로

    LLM을 다루기 위해 Pytorch를 어떻게 사용해야 하는지를 정리할 것이다.

     

    또한, 기본적으로 HuggingFace의 Transformers를 사용할 수 있어야 하기 때문에

    함께 사용법을 알아가도록 하자.

     

    1. Pytorch와 LLM

    LLM을 다루기 위한 강력한 도구이다.

    Pytorch로 다양한 작업을 수행할 수 있다.

    • 모델 설계
    • 학습 - 사전 학습(Pre-training), 분산 학습
    • 최적화 (Optimizer)
    • 디버깅 및 배포
    • 모델 미세 조정(Fine-Tunning)
    • 사후 작업 (Post-Training) - 양자화(Quantization), 프루닝(Pruning), Distillation

     

    2. Transformers와 LLM

    Transformers 또한 LLM을 다루기 위한 강력한 도구이다.

    Transformers로는 아래와 같은 작업을 할 수 있다.

    • 모델 불러오기 / 저장 및 공유
    • 토크나이저 불러오기
    • 데이터 로드 및 전처리 - Datasets과 연동
    • 파이프라인 사용 (간단한 파이프라인으로 모델 바로 사용)
    • 학습 - 모델 미세 조정(Fine-Tunning), pytorch 통합

     

    LLM의 이론을 공부하면서

    가장 핵심이 되는 도구인 Pytorch와 HuggingFace의 Transformers를 사용하는

    가장 기본적인 방법에 대해 요약하고

    이정도는 외워두면 좋겠다 싶은 것들을 정리하겠다.

     

    반응형