성경말씀

Hugging Face의 새로운 모델

esmile1 2024. 11. 11. 13:41

 

Hugging Face의 새로운 모델을 Mac Mini에서 활용하는 방법을 요약정리 하였습니다. 이 가이드는 Mac Mini에서 Python 환경을 설정하고 Hugging Face 모델을 실행하는 단계별 방법을 소개한 내용입니다. 최신 AI 모델을 직접 다루며 머신러닝의 강력함을 경험해 보세요!

 

Mac Mini에서 Hugging Face 모델 사용을 위한 단계별 가이드:

 

  1. Homebrew 설치 (이미 설치된 경우 생략)
  2. 터미널을 열고 다음 명령어 실행:
  3. /bin/bash -c "$(curl -fsSL <https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh>)"
  4. Homebrew 업데이트
  5. brew update
  6. Python 설치
  7. brew install python
  8. Python 설치 확인
  9. python3 --version
  10. pip 설치 (포함되지 않은 경우)
  11. curl <https://bootstrap.pypa.io/get-pip.py> -o get-pip.py python3 get-pip.py
  12. 가상 환경 생성
  13. python3 -m venv myenv source myenv/bin/activate
  14. pip 업그레이드
  15. pip install --upgrade pip
  16. Hugging Face Transformers 라이브러리 설치
  17. pip install transformers
  18. PyTorch 설치 (Mac에 맞게)
  19. Apple Silicon용:
  20. pip install torch torchvision torchaudio
  21. 추가 종속성 설치
  22. pip install numpy pandas tqdm
  23. GPU 가속 확인 (선택 사항)
  24. import torch print(torch.backends.mps.is_available())
  25. Hugging Face 모델 리포지토리 클론
  26. git clone <https://huggingface.co/>
  27. Python에서 모델 로드
  28. from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "<model-repo>" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name)
  29. 샘플 텍스트 토크나이즈
  30. input_text = "Hello, how are you?" input_ids = tokenizer.encode(input_text, return_tensors="pt")
  31. 모델 출력 생성
  32. output = model.generate(input_ids, max_length=50) print(tokenizer.decode(output[0], skip_special_tokens=True))
  33. 모델 로딩 최적화 (선택 사항)
  34. model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16)
  35. 가속화된 추론 사용
  36. device = torch.device("mps") model.to(device)
  37. Jupyter Notebook 설치
  38. pip install notebook jupyter notebook
  39. Jupyter Notebook에서 모델 로드
  40. 노트북 셀에서 위와 비슷한 코드를 사용하여 상호작용합니다.
  41. 최신 모델 탐색
  42. Hugging Face의 모델 허브 확인:
  43. open <https://huggingface.co/models>
  44. datasets 라이브러리 설치
  45. pip install datasets
  46. 데이터 로드 및 전처리
  47. from datasets import load_dataset dataset = load_dataset("imdb")
  48. 모델 파인튜닝 준비
  49. accelerate 모듈 설치:
  50. pip install accelerate
  51. 간단한 학습 루프 설정
  52. from transformers import Trainer, TrainingArguments training_args = TrainingArguments( output_dir="./results", num_train_epochs=3, per_device_train_batch_size=2, warmup_steps=500, weight_decay=0.01, logging_dir="./logs", )
  53. Trainer 초기화
  54. trainer = Trainer( model=model, args=training_args, train_dataset=dataset["train"], ) trainer.train()
  55. 파인튜닝된 모델 저장
  56. model.save_pretrained("./my_model") tokenizer.save_pretrained("./my_model")
  57. Gradio로 데모 배포
  58. pip install gradio
  59. Gradio 인터페이스 생성
  60. import gradio as gr def generate_text(prompt): input_ids = tokenizer.encode(prompt, return_tensors="pt").to(device) output = model.generate(input_ids, max_length=50) return tokenizer.decode(output[0], skip_special_tokens=True) gr.Interface(fn=generate_text, inputs="text", outputs="text").launch()
  61. 인터페이스 실행
  62. Gradio에서 제공된 로컬 URL을 통해 모델 테스트.
  63. Hugging Face 커뮤니티 참여
  64. 팁과 지원을 위해 포럼에 참여:
  65. open <https://discuss.huggingface.co/>

 

마무리

 

이 단계별 접근방법을 통해 Mac Mini에서 Hugging Face 모델을 활용하는 방법을 마스터할 수 있습니다. 직접 AI 모델을 실행하고 다양한 프로젝트에 활용해 보며 한 단계 성장한 개발 능력을 느껴보세요!