[LLM] huggingface LLM 기본 내용 ( 양자화 )
https://huggingface.co/docs/transformers/ko/llm_tutorial 대규모 언어 모델로 생성하기LLM 또는 대규모 언어 모델은 텍스트 생성의 핵심 구성 요소입니다. 간단히 말하면, 주어진 입력 텍스트에 대한 다음 단어(정확하게는 토큰)를 예측하기 위해 훈련된 대규모 사전 훈련 변환기 모huggingface.co from transformers import AutoModelForCausalLMmodel = AutoModelForCausalLM.from_pretrained( "mistralai/Mistral-7B-v0.1", device_map="auto", load_in_4bit=True) pretrained_model_name_or_path : huggingf..
Deep-learning
2025. 1. 30. 02:14
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- DeepLearning
- 딥러닝
- yolov11
- CNN
- docker
- Tree
- java
- python
- 뜯어보기
- 어탠션
- 정리
- 오류
- GNN
- 디텍션
- 초보자
- 욜로
- 자바
- 오블완
- V11
- YOLO
- 티스토리챌린지
- c3k2
- 이미지
- 백준
- 깃
- GIT
- YOLOv8
- 도커
- github
- 알고리즘
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함