왜 W&B를 사용해야 하나요?

- 통합 대시보드: 모든 모델 메트릭과 예측값을 위한 중앙 저장소
- 경량화: Hugging Face와 통합하기 위해 코드를 변경할 필요가 없음
- 접근성: 개인 및 학술 팀에게 무료로 제공
- 보안: 모든 프로젝트는 기본적으로 프라이빗으로 설정됨
- 신뢰성: OpenAI, Toyota, Lyft 등 유수의 기계학습 팀에서 사용 중
설치, 임포트 및 로그인
이 튜토리얼을 위해 Hugging Face와 W&B 라이브러리, GLUE 데이터셋 및 트레이닝 스크립트를 설치합니다.- Hugging Face Transformers: 자연어 모델 및 데이터셋
- W&B: 실험 트래킹 및 시각화
- GLUE 데이터셋: 언어 이해 벤치마크 데이터셋
- GLUE 스크립트: 시퀀스 분류를 위한 모델 트레이닝 스크립트
API 키 입력
가입을 완료했다면, 다음 셀을 실행하고 링크를 클릭하여 API 키를 가져와 이 노트북을 인증하세요.모델 트레이닝
다음으로, 다운로드한 트레이닝 스크립트 run_glue.py를 호출하면 트레이닝 과정이 W&B 대시보드에 자동으로 트래킹되는 것을 확인할 수 있습니다. 이 스크립트는 Microsoft Research Paraphrase Corpus(두 문장이 의미적으로 동일한지 여부를 나타내는 사람의 주석이 달린 문장 쌍)에서 BERT를 파인튜닝합니다.대시보드에서 결과 시각화
위에 출력된 링크를 클릭하거나 wandb.ai로 이동하여 결과가 실시간으로 전송되는 것을 확인하세요. 브라우저에서 실행 중인 run 을 확인하기 위한 링크는 모든 종속성이 로드된 후에 나타납니다. 다음 출력을 확인하세요: “wandb: View run at [URL to your unique run]” 모델 성능 시각화 수십 개의 실험을 훑어보고, 흥미로운 발견한 내용에 줌인하며, 고차원 데이터를 시각화하는 것이 간편합니다.

주요 정보를 기본적으로 손쉽게 트래킹
W&B는 각 실험마다 새로운 run 을 저장합니다. 기본적으로 저장되는 정보는 다음과 같습니다:- 하이퍼파라미터: 모델 설정값이 Config에 저장됩니다
- 모델 메트릭: 실시간으로 들어오는 메트릭의 시계열 데이터가 Log에 저장됩니다
- 터미널 로그: 커맨드라인 출력 내용이 저장되며 탭에서 확인할 수 있습니다
- 시스템 메트릭: GPU 및 CPU 사용률, 메모리, 온도 등