Skip to content

hatakeyama-llm-team/LLMGCP

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

11 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

備忘録

ropeの更新コードをmegatron-deepspeedに反映させる

LLMの開発レポジトリ(作成中)です

参考

Dockerで環境構築する場合(ファインチューニングまで動作確認済み)

  • Dockefile made by ssone
  • 数十分はかかります。
git clone https://github.com/hatakeyama-llm-team/llm.git
cd llm
sudo docker build -t llm .
  • 実行
#sudo docker run --gpus all --rm -it -p 8899:8888 -v .:/home/llm llm bash

#1回目の実行
sudo docker run --gpus all --shm-size='1gb' -it -p 8899:8888 -v .:/home/llm llm bash

#2回目以降
sudo docker start -a -i (コンテナ名)

#dockerに入ったら行うコマンド
sudo chmod -R 777 llm
cd llm/
conda activate scr

#初回起動時は以下のsetup scriptを実行します。
bash docker_setup.sh

#huggingfaceなどもログインします
huggingface-cli login
wandb login 

直接、環境構築する場合

#installの例 (driverは元のまま、cuda toolkitのみ別途入れればOK)
wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run
sudo bash cuda_11.8.0_520.61.05_linux.run

#必要に応じ、パスを通しておく
export PATH="/usr/local/cuda-11.8/bin:$PATH"
export LD_LIBRARY_PATH="/usr/local/cuda-11.8/lib64:$LD_LIBRARY_PATH"
  • セットアップスクリプト (詳細はこちら)
cd codes
bash setup.sh

学習法

  • ☆datasetsライブラリをもとに、データを読み込んで行きます
  • ☆Branch-Train-Merge/カリキュラム学習的な考えを想定したシステム設計なので、どのデータ配分などもここで決めます
  • 以下の作業を行います。
    • ☆トークナイザーの学習
    • ☆トークナイズ
    • 事前学習
    • HuggingFace modelへの変換

☆のついた作業は、GPUが不要です

  • 多量のテキスト(数百GB)を処理する本番学習では、高価なGPUサーバーではなく、適当な手持ちマシンで処理を行った方が良いです。
  • 数日はかかります。
  • ☆の作業を本格的に行うための専用のレポジトリはこちら
  • ◯ファインチューニングします。
  • ◯構築したモデルを評価します。

◯の作業は、GPU数枚でも完了します。(10b程度のモデルの場合)

  • ◯の作業を練習するための専用レポジトリはこちら

全自動での学習: 作業中

cd codes
bash auto.sh

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published