인공지능 개발자 수다(유튜브 바로가기) 자세히보기
반응형

인공지능 3

[LLM] DeepSeek-R1 논문 핵심내용 요약

0. 개요이전 글에서 DeepSeek 논문 리뷰를 먼저 작성하고,이번 포스팅은 핵심 내용을 요약한 것이다.RL, GRPO, 체인 오브 소트 데이터, 다단계 학습 파이프라인 (Multi-Stage Training Pipeline) 에 대해 정리해 보자 이전 글 링크 [LLM] DeepSeek-R1 논문 리뷰논문을 읽게 된 배경연구 관련 설명(출처: CNN 뉴스, BBC 뉴스)중국의 인공지능 기업의 기술ChatGPT와 유사한 성능OpenAI, Google, Meta보다 훨씬 낮은 비용으로 제작됨이전보다 훨씬 적은 컴퓨팅 성능으databoom.tistory.com 1.  RL과 GRPO1.1. 기존 Supervised Fine-Tuning (SFT) 방식전통적으로 Supervised Fine-Tuning (S..

데이터사이언스 업계에 대한 고찰(취업, 이직, 업무) (2025.01)

필자는 데이터사이언스 분야에서 5년 넘게 일하고 있는 직장인이다. 즉, 데이터사이언스가 사람인에 처음 나올때 쯔음 신입사원으로 시작한 사람이다. GPT가 등장한 이후 많은 것들이 변한 지금 데이터사이언티스트의 회사 업무가 어떻게 변했는지 적어본다.최근 몇년동안 상당히 성능이 좋은 모델들이 많이 등장했고, 특정 분야를 제외하고 새로운 모델을 설계하는 업무는 거의 사라진 것 같다. 음성분야(STT, TTS), Vision 분야, LLM 분야, 머신러닝 분야 등은성능을 더 좋게 하기 위해 연구를 하는 것 보다이미 존재하는 모델을 더 잘 활용하는 방향으로 나아가는 것으로 보인다. 물론 더 좋은 모델을 만들기 위한노력이 있긴 하지만그런 업무를 실질적으로 하는 것은큰 비용이 들 뿐만 아니라비용 대비 효과가 크지 않..

[LLM] Llama1 - 논문 요약

지난 시간 Llama2에대해 공부했었는데, 모델의 세부적인 내용이 Llama1 과 비슷하다고 하여 논문을 한번 보는 것이 좋겠다고 생각해 요약을 해보는 것도 좋은 경험일 것 같아 글을 작성합니다. - 논문 링크 LLaMA: Open and Efficient Foundation Language Models - Meta Research | Meta ResearchWe introduce LLaMA, a collection of foundation language models ranging from 7B to 65B parameters. We train our models on trillions of tokens, and show that it is possible to...research.facebook.co..

1
반응형