PyTorch는 pip install torch만으로 끝날 것 같지만, 실제로는 PyTorch 버전 ↔ CUDA 버전 ↔ Python 버전 ↔ GPU 아키텍처의 호환성을 함께 고려해야 한다. 이 글은 사용자가 필요로 하는 특정 PyTorch 버전을 목표로 역으로 개발 환경을 셋팅하는 절차를 정리하고, 실무에서 바로 쓸 수 있는 설치 레시피와 트러블슈팅 포인트를 제공한다.
1. PyTorch 버전 체크
- 대상 프로젝트의 requirements.txt 또는 environment.yml에서 정확한 torch/torchvision/torchaudio 버전을 확인한다.
- 명시된 버전이 없다면, 팀/레포 문서나 공지의 “권장 버전”을 우선 목표로 삼는다. 없으면 최신 LTS 또는 문서에서 안내하는 안정 버전을 타깃으로 삼는다.
팀 협업에서는 버전 고정(pin) 과 설치 방법 기록이 재현성의 핵심이라서, 최종적으로 requirements.txt 또는 environment.yml에 정확히 박아두는 것을 권장한다.
https://pytorch.org/get-started/locally/
https://pytorch.org/get-started/previous-versions/
2. CUDA 버전 호환 체크
- PyTorch는 릴리스별로 CUDA 별 휠(whl) 을 제공한다. 예시로 PyTorch 1.12.1은 다음과 같이 설치한다.
- GPU 세대가 최신인 경우에는 가능한 한 높은 CUDA 조합의 휠을 사용하는 편이 드라이버/런타임 측면에서 유리하다.
- 구형 GPU인 경우에는 먼저 GPU가 지원하는 Compute Capability(SM) 와 아키텍처를 확인해 적합한 CUDA 범위를 고른다.
# ROCm (Linux, AMD GPU)
pip install torch==1.12.1+rocm5.1.1 torchvision==0.13.1+rocm5.1.1 torchaudio==0.12.1 \
--extra-index-url https://download.pytorch.org/whl/rocm5.1.1
# CUDA 11.6
pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 torchaudio==0.12.1 \
--extra-index-url https://download.pytorch.org/whl/cu116
# CUDA 11.3
pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 \
--extra-index-url https://download.pytorch.org/whl/cu113
# CUDA 10.2
pip install torch==1.12.1+cu102 torchvision==0.13.1+cu102 torchaudio==0.12.1 \
--extra-index-url https://download.pytorch.org/whl/cu102
# CPU only
pip install torch==1.12.1+cpu torchvision==0.13.1+cpu torchaudio==0.12.1 \
--extra-index-url https://download.pytorch.org/whl/cpu

3. 내 GPU가 지원하는 CUDA 상한 확인
- GPU 모델 확인
- 모델명을 바탕으로 Compute Capability(ex. 8.6) 와 아키텍처(Ampere 등) 를 확인한다.
- 해당 Capability가 지원하는 CUDA 상한/하한 범위를 표로 확인한 뒤, 2단계에서 고른 PyTorch×CUDA 조합이 이 범위 안에 드는지 본다.
$ ubuntu-drivers devices
# 또는
$ nvidia-smi --query-gpu=name --format=csv,noheader
예시) RTX 3060(Ampere, CC 8.6)은 대체로 CUDA 11.x 이상 계열과 잘 맞는다. 따라서 1.12.1이라면 +cu116 같은 휠이 자연스러운 선택이다. 정확한 지원 범위는 NVIDIA 공식 문서와 릴리스 노트를 기준으로 확인한다.

https://en.wikipedia.org/wiki/CUDA#GPUs_supported
4. 그래픽 드라이버 및 CUDA 설치
- 드라이버 상태 점검
- $ nvidia-smi
- 여러 오픈소스를 돌려 다양한 CUDA가 필요한 경우에는 Multi-CUDA 환경이 유용하다. 일반적으로는
- 내 GPU가 지원하는 가장 높은 드라이버 + 최신 CUDA Toolkit을 먼저 설치하고,
- 과거 프로젝트를 위해 필요한 버전의 추가 CUDA Toolkit만 병행 설치한다.
- 경로 충돌을 막기 위해 /usr/local/cuda-11.x, /usr/local/cuda-12.x 식으로 버전별 디렉터리를 유지하고, 필요 시 CUDA_HOME/PATH/LD_LIBRARY_PATH를 프로젝트별로 스위칭한다.
'Programming > ETC.' 카테고리의 다른 글
| [cursor] Custom model API 설정하기 (커서 커스텀 모델 설정 방법) feat. Upstage Console (0) | 2025.10.24 |
|---|---|
| [Claude]Claude Code extension & terminal (0) | 2025.08.12 |
| [Claude] Claude Code in VScode (0) | 2025.08.12 |
| [Claude] Claude API 액세스 및 첫 요청 가이드 (A to Z) (0) | 2025.08.12 |
| [Claude] Claude 계정 생성 및 결제 (0) | 2025.08.12 |