토니의 연습장
Python Environments/Interpreter 본문
로컬에서 환경 구성해서 모델 다운로드 및 파인튜닝 하고자 할 때,
python 및 pytorch, CUDA, CUDA Toolkit 등 버전 매칭 관련하여
vscode에서 conda 환경의 Python Environments.. 를 Python Interpreter.. 각각에 대해서 확인이 필요합니다.
예시 :
%%capture
# Installs Unsloth, Xformers (Flash Attention) and all other packages!
!pip install "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
!pip install --no-deps "xformers<0.0.27" "trl<0.9.0" peft accelerate bitsandbytes
from unsloth import FastLanguageModel
import torch
max_seq_length = 2048
dtype = None
load_in_4bit = True
fourbit_models = [
"unsloth/Meta-Llama-3.1-8B-bnb-4bit", # Llama-3.1 15 trillion tokens model 2x faster!
"unsloth/Meta-Llama-3.1-8B-Instruct-bnb-4bit",
"unsloth/Meta-Llama-3.1-70B-bnb-4bit",
"unsloth/Meta-Llama-3.1-405B-bnb-4bit", # We also uploaded 4bit for 405b!
"unsloth/Mistral-Nemo-Base-2407-bnb-4bit", # New Mistral 12b 2x faster!
"unsloth/Mistral-Nemo-Instruct-2407-bnb-4bit",
"unsloth/mistral-7b-v0.3-bnb-4bit", # Mistral v3 2x faster!
"unsloth/mistral-7b-instruct-v0.3-bnb-4bit",
"unsloth/Phi-3-mini-4k-instruct", # Phi-3 2x faster!d
"unsloth/Phi-3-medium-4k-instruct",
"unsloth/gemma-2-9b-bnb-4bit",
"unsloth/gemma-2-27b-bnb-4bit", # Gemma 2x faster!
] # More models at https://huggingface.co/unsloth
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "unsloth/Meta-Llama-3.1-8b",
max_seq_length=max_seq_length,
dtype=dtype,
load_in_4bit=load_in_4bit,
)
'기타 > 환경 & 라이브러리 (vscode, Conda, import)' 카테고리의 다른 글
vscode - python debug (0) | 2025.07.11 |
---|---|
langchain.chains 라이브러리 import (0) | 2025.04.07 |
error: uninstall-no-record-file (0) | 2025.03.27 |
CLIP, taming-transformers 필요 패키지 버전 문제 (3) | 2024.11.01 |
vscode ModuleNotFoundError (0) | 2024.09.04 |