
LLM을 하다보면 '모델명-it/chat'과 같은 형식으로 허깅페이스에서 제공하는 모델들을 볼 수 있다.이러한 모델은 chatting 형식으로 fine-tuning하여 실제 모델과 이야기를 주고받는 형식으로 답변을 생성해준다. 이번에는 튜닝의 방식과 대표적인 데이터셋, 튜닝 방법에 대해 정리를 해보고자 한다. SFT - Supervised Fine-Tuning ( 정답이 존재하는 상태에서 진행 - next token prediction )SFT는 두가지로 나뉜다. 1) Full Fine-Tuning모델 전체의 파라미터를 수정하여 학습시킨다. LLM은 대체로 파라미터가 상당히 많으므로 상당한 GPU 자원이 필요한 단점이 있다. 2) Parameter-Efficient Fine-Tuning(PEFT) 모..

Tokenizer 기본 선언 방식from transformers import AutoTokenizertokenizer = AutoTokenizer.from_pretrained(CFG["model"])기존 본인이 사용하고자 하는 모델명, Tokenizer 위치를 파라미터에 넣어 불러오면 끝. 하지만, 위 방식으로 진행하면, 모델따로 토크나이저 따로 불러와 사용해야함.이걸 한번에 할 수 있는게 바로 pipeline 함수. # pipline을 이용하여 추론import transformersfrom transformers import AutoModelForCausalLM ,BitsAndBytesConfig# 4bit quantizationquantization_config = BitsAndBytesConfig..

https://huggingface.co/docs/transformers/ko/llm_tutorial 대규모 언어 모델로 생성하기LLM 또는 대규모 언어 모델은 텍스트 생성의 핵심 구성 요소입니다. 간단히 말하면, 주어진 입력 텍스트에 대한 다음 단어(정확하게는 토큰)를 예측하기 위해 훈련된 대규모 사전 훈련 변환기 모huggingface.co from transformers import AutoModelForCausalLMmodel = AutoModelForCausalLM.from_pretrained( "mistralai/Mistral-7B-v0.1", device_map="auto", load_in_4bit=True) pretrained_model_name_or_path : huggingf..

https://sims-solve.tistory.com/133 YOLOv11 이해하기 (3) - Headhttps://sims-solve.tistory.com/131 YOLOv11 이해하기 (2) - Neckhttps://sims-solve.tistory.com/130 YOLOv11 이해하기 (1) - Backboneyolov11은 Backbone + neck + head 총 3가지로 나눠져 있다고 한다. ( backbone + head 로만 나누기도 한sims-solve.tistory.com 이전 포스팅에서 Head 부분까지 어떻게 연산을 진행하는지 살펴봤고, 이제 학습을 위해 어떤 식으로 Loss를 구하는지 살펴볼 차례다.Yolov11에 대한 글을 쓰고 있지만, 가장 많이 언급하고 있는게 Yolov8..

https://sims-solve.tistory.com/131 YOLOv11 이해하기 (2) - Neckhttps://sims-solve.tistory.com/130 YOLOv11 이해하기 (1) - Backboneyolov11은 Backbone + neck + head 총 3가지로 나눠져 있다고 한다. ( backbone + head 로만 나누기도 한다.)이중, 이번에는 Backbone을 살펴보고자 한다.yolov1sims-solve.tistory.com지금까지 backbone, neck 부분을 살펴봤고, 이번에는 마지막으로 Head 부분을 살펴보고자 한다.yolo의 가장 큰 특징은 3개의 서로다른 size의 shape을 가지는 detection을 이용하여, big , middle, small obje..

딥러닝을 공부하다보면 언젠가 마주칠 수 밖에 없는 기법이 존재한다.그중 하나가 Attemtion이다. Attention의 등장으로 자연어 테스크의 성능이 월등히 올라갔고, 그 영향으로 분야를 가리지 않고 적용하며 모델 성능 개선의 효과를 볼 수 있었다.지금의 chatgpt도 Attention기법이 없었다면 현재 존재하지 않았을 수도 있다. 이렇게 딥러닝에 중대한 영향력을 미치고 있는 해당 기법을 도저히 그냥 넘어갈 순 없다.간단하게라도 살펴보고자 넘어간다.Yolov11에서도 Attention 기법이 적용된 블럭이 있으니 해당 내용은 꼭 한번쯤 보길 권한다. 위 내용이 Attention의 내용 전부다. 물론 논문에서 표현하고자 하는 심오한 내용은 단시간에 알아차리기 힘드니 기본이 되는 내용을 지속적으로 보..

https://sims-solve.tistory.com/130 YOLOv11 이해하기 (1) - Backboneyolov11은 Backbone + neck + head 총 3가지로 나눠져 있다고 한다. ( backbone + head 로만 나누기도 한다.)이중, 이번에는 Backbone을 살펴보고자 한다.yolov11의 Backbone은 형태가 yolov8의 아키텍쳐와 거의 똑같다sims-solve.tistory.com지난번 글에는 yolov11의 BackBone의 구성을 살펴보았다.계속 언급하지만, yolov8과 크게 다르지 않으며, 내부 블럭을 변경하고 추가하여 속도를 개선하고, 성능은 유지했다고 보면 된다. 여기서는 Neck이라고 따로 표현했지만, 사실상 yolov8의 head라고 표현된 부분과 크..

yolov11은 Backbone + neck + head 총 3가지로 나눠져 있다고 한다. ( backbone + head 로만 나누기도 한다.)이중, 이번에는 Backbone을 살펴보고자 한다.yolov11의 Backbone은 형태가 yolov8의 아키텍쳐와 거의 똑같다고 보면 된다. 하지만 중간중간 특정 Block으로 바뀌면서 yolov11로 업그레이드 됐다고 보면 된다.https://sims-solve.tistory.com/122 YOLOv8 이해하기 (1) - Backbone디텍션 테스크를 하다보면 YOLO를 한번쯤은 들어본적이 있을 것이다.물론 YOLO가 너무 유명해서 관심이 없어도 한번쯤은 들어봤을 것이다.. 디텍션에는 2-stage / 1-stage 두개로 나뉘는데, YOLO는 1-stags..
- Total
- Today
- Yesterday
- github
- 자바
- 욜로
- Tree
- V11
- docker
- 디텍션
- CNN
- 딥러닝
- yolov11
- GIT
- YOLO
- YOLOv8
- 어탠션
- 알고리즘
- 뜯어보기
- java
- 정리
- 오블완
- 깃
- DeepLearning
- 이미지
- 도커
- c3k2
- 오류
- python
- LLM
- 초보자
- 티스토리챌린지
- GNN
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |