몇 줄의 코드로 구현하는 차세대 로깅

실행 가능한 코드를 바로 확인하고 싶다면, 이 Google Colab을 확인해 보세요.
시작하기: 실험 추적
가입 및 API 키 생성
API 키는 사용자의 장비를 W&B에 인증합니다. 사용자 프로필에서 API 키를 생성할 수 있습니다.For a more streamlined approach, create an API key by going directly to User Settings. Copy the newly created API key immediately and save it in a secure location such as a password manager.
- 오른쪽 상단 모서리에 있는 사용자 프로필 아이콘을 클릭합니다.
- User Settings를 선택한 다음, API Keys 섹션으로 스크롤합니다.
wandb 라이브러리 설치 및 로그인
로컬에 wandb 라이브러리를 설치하고 로그인하려면:
- Command Line
- Python
- Python notebook
-
WANDB_API_KEY환경 변수를 사용자의 API 키로 설정합니다. -
wandb라이브러리를 설치하고 로그인합니다.
프로젝트 이름 지정
W&B Projects는 관련 Runs에서 로깅된 모든 차트, 데이터 및 모델이 저장되는 공간입니다. Projects의 이름을 지정하면 작업을 체계적으로 관리하고 단일 프로젝트에 관한 모든 정보를 한곳에 보관할 수 있습니다. Run을 프로젝트에 추가하려면WANDB_PROJECT 환경 변수를 프로젝트 이름으로 설정하면 됩니다. WandbCallback이 이 프로젝트 이름 환경 변수를 감지하여 Run을 설정할 때 사용합니다.
- Command Line
- Python
- Python notebook
Trainer를 초기화하기 _전_에 프로젝트 이름을 설정해야 합니다.huggingface가 사용됩니다.
W&B에 트레이닝 Runs 로깅하기
Trainer의 트레이닝 인수를 정의할 때 가장 중요한 단계는 코드 내부나 커맨드라인에서 report_to를 "wandb"로 설정하여 W&B 로깅을 활성화하는 것입니다.
TrainingArguments의 logging_steps 인수는 트레이닝 중에 트레이닝 메트릭이 W&B로 전송되는 빈도를 제어합니다. 또한 run_name 인수를 사용하여 W&B에서 트레이닝 Run의 이름을 지정할 수 있습니다.
이제 설정이 끝났습니다. 이제 모델이 트레이닝되는 동안 손실(losses), 평가 메트릭, 모델 토폴로지 및 그레이디언트가 W&B에 로깅됩니다.
- Command Line
- Python
TensorFlow를 사용하시나요? PyTorch
Trainer를 TensorFlow용 TFTrainer로 바꾸기만 하면 됩니다.모델 체크포인트 활성화
Artifacts를 사용하면 최대 100GB의 모델과 데이터셋을 무료로 저장할 수 있으며, W&B Registry를 활용할 수 있습니다. Registry를 통해 모델을 등록하고 탐색, 평가하거나 스테이징 준비 또는 프로덕션 환경 배포를 관리할 수 있습니다. Hugging Face 모델 체크포인트를 Artifacts에 로깅하려면WANDB_LOG_MODEL 환경 변수를 다음 중 하나로 설정하세요:
checkpoint:TrainingArguments의args.save_steps마다 체크포인트를 업로드합니다.end:load_best_model_at_end가 설정된 경우, 트레이닝 종료 시 모델을 업로드합니다.false: 모델을 업로드하지 않습니다.
- Command Line
- Python
- Python notebook
Trainer는 모델을 W&B 프로젝트에 업로드합니다. 로깅된 모델 체크포인트는 Artifacts UI를 통해 확인할 수 있으며, 전체 모델 이력(model lineage)을 포함합니다 (UI에서 모델 체크포인트 예시를 여기에서 확인하세요).
기본적으로 모델은
WANDB_LOG_MODEL이 end로 설정된 경우 model-{run_id}로, checkpoint로 설정된 경우 checkpoint-{run_id}로 W&B Artifacts에 저장됩니다.
하지만 TrainingArguments에서 run_name을 전달하면 모델은 model-{run_name} 또는 checkpoint-{run_name}으로 저장됩니다.W&B Registry
Artifacts에 체크포인트를 로깅한 후에는 Registry를 사용하여 최적의 모델 체크포인트를 등록하고 팀 전체에서 중앙 관리할 수 있습니다. Registry를 사용하면 태스크별로 최적의 모델을 정리하고, 모델 수명 주기를 관리하며, 전체 ML 수명 주기를 추적 및 감사하고, 다운스트림 액션을 자동화할 수 있습니다. 모델 Artifact를 연결하는 방법은 Registry를 참조하세요.트레이닝 중 평가 결과 시각화
트레이닝 또는 평가 중에 모델 출력을 시각화하는 것은 모델이 어떻게 학습되고 있는지 진정으로 이해하는 데 필수적입니다. Transformers Trainer의 콜백 시스템을 사용하면 모델의 텍스트 생성 결과나 기타 예측값과 같은 추가적인 유용한 데이터를 W&B Tables에 로깅할 수 있습니다. 트레이닝 중에 평가 결과를 W&B Table에 로깅하는 방법에 대한 전체 가이드는 아래의 커스텀 로깅 섹션을 참조하세요.
W&B Run 종료 (노트북 전용)
트레이닝이 파이썬 스크립트로 캡슐화되어 있는 경우, 스크립트가 끝나면 W&B run도 종료됩니다. Jupyter 또는 Google Colab 노트북을 사용하는 경우,run.finish()를 호출하여 트레이닝이 끝났음을 알려야 합니다.
결과 시각화
트레이닝 결과를 로깅한 후에는 W&B Dashboard에서 결과를 동적으로 탐색할 수 있습니다. 수십 개의 Runs를 한 번에 비교하고, 흥미로운 발견 내용을 확대하며, 유연한 대화형 시각화를 통해 복잡한 데이터에서 인사이트를 이끌어내는 것이 매우 쉽습니다.고급 기능 및 FAQ
최적의 모델을 어떻게 저장하나요?
Trainer에 load_best_model_at_end=True가 포함된 TrainingArguments를 전달하면, W&B는 가장 성능이 좋은 모델 체크포인트를 Artifacts에 저장합니다.
모델 체크포인트를 Artifacts로 저장하면 Registry로 승격시킬 수 있습니다. Registry에서는 다음을 수행할 수 있습니다:
- ML 태스크별로 최적의 모델 버전 정리.
- 모델 중앙 집중화 및 팀 공유.
- 프로덕션용 모델 스테이징 또는 추가 평가를 위한 북마크.
- 다운스트림 CI/CD 프로세스 트리거.
저장된 모델을 어떻게 로드하나요?
WANDB_LOG_MODEL을 사용하여 모델을 W&B Artifacts에 저장했다면, 추가 트레이닝이나 인퍼런스를 위해 모델 가중치를 다운로드할 수 있습니다. 이전에 사용했던 것과 동일한 Hugging Face 아키텍처로 다시 로드하기만 하면 됩니다.
체크포인트에서 트레이닝을 어떻게 재개하나요?
WANDB_LOG_MODEL='checkpoint'를 설정했다면, TrainingArguments에서 model_dir을 model_name_or_path 인수로 사용하고 Trainer에 resume_from_checkpoint=True를 전달하여 트레이닝을 재개할 수 있습니다.
트레이닝 중 평가 샘플 로깅 및 확인 방법
TransformersTrainer를 통한 W&B 로깅은 Transformers 라이브러리의 WandbCallback에 의해 처리됩니다. Hugging Face 로깅을 커스터마이징해야 하는 경우, WandbCallback을 상속받아 Trainer 클래스의 추가 메서드를 활용하는 기능을 추가함으로써 이 콜백을 수정할 수 있습니다.
다음은 HF Trainer에 이 새로운 콜백을 추가하는 일반적인 패턴이며, 더 아래에는 평가 출력을 W&B Table에 로깅하는 전체 코드 예시가 있습니다.
트레이닝 중 평가 샘플 확인
다음 섹션은WandbCallback을 커스터마이징하여 모델 예측을 실행하고 트레이닝 중에 평가 샘플을 W&B Table에 로깅하는 방법을 보여줍니다. Trainer 콜백의 on_evaluate 메서드를 사용하여 매 eval_steps 마다 실행합니다.
여기서는 토크나이저를 사용하여 모델 출력에서 예측값과 레이블을 디코딩하는 decode_predictions 함수를 작성했습니다.
그런 다음 예측값과 레이블로 pandas DataFrame을 생성하고 DataFrame에 epoch 컬럼을 추가합니다.
마지막으로 DataFrame에서 wandb.Table을 생성하고 이를 wandb에 로깅합니다.
또한 freq 에포크마다 예측값을 로깅하여 로깅 빈도를 제어할 수 있습니다.
참고: 일반적인 WandbCallback과 달리, 이 커스텀 콜백은 Trainer가 인스턴스화되는 과정이 아니라 인스턴스화된 이후에 추가되어야 합니다.
이는 초기화 시점에 Trainer 인스턴스가 콜백에 전달되어야 하기 때문입니다.
어떤 추가 W&B 설정이 가능한가요?
환경 변수를 설정하여Trainer로 로깅되는 내용을 더 자세히 설정할 수 있습니다. W&B 환경 변수의 전체 목록은 여기에서 확인할 수 있습니다.
| 환경 변수 | 용도 |
|---|---|
WANDB_PROJECT | 프로젝트 이름을 지정합니다 (기본값 huggingface) |
WANDB_LOG_MODEL | 모델 체크포인트를 W&B Artifact로 로깅합니다 (기본값
|
WANDB_WATCH | 모델의 그레이디언트, 파라미터 로깅 여부를 설정합니다
|
WANDB_DISABLED | true로 설정하면 로깅을 완전히 끕니다 (기본값 false) |
WANDB_QUIET. | true로 설정하면 표준 출력에 로깅되는 문구를 중요한 문구로만 제한합니다 (기본값 false) |
WANDB_SILENT | true로 설정하면 wandb에서 출력하는 모든 내용을 숨깁니다 (기본값 false) |
- Command Line
- Notebook
wandb.init을 어떻게 커스터마이징하나요?
Trainer가 사용하는 WandbCallback은 Trainer가 초기화될 때 내부적으로 wandb.init을 호출합니다. 또는 Trainer를 초기화하기 전에 직접 wandb.init을 호출하여 수동으로 Runs를 설정할 수도 있습니다. 이렇게 하면 W&B run 설정을 완벽하게 제어할 수 있습니다.
init에 전달할 수 있는 예시는 다음과 같습니다. wandb.init()에 대한 자세한 내용은 wandb.init() 레퍼런스를 확인하세요.