chatglm多gpu用deepspeed和
1.CSDN链接
2.知乎链接
pip install -r requirements.txt
1.0.5M版本:
cd data
wget https://huggingface.co/datasets/BelleGroup/generated_train_0.5M_CN/resolve/main/Belle.train.json
2.1M版本
wget https://huggingface.co/datasets/BelleGroup/generated_train_1M_CN/resolve/main/belle_open_source_1M.train.json
3.把两份数据合并成一份
a.0.5M和1M数据字段有些不同,统一处理数据,用地下代码处理1M数据
cd ..
python process_belle_1M_data.py
b.把两份文件合并成一份,命名为:Belle_0_1.train.json
cd data & cat Belle.train.json Belle_1M.train.json>Belle_0_1.train.json
torchrun --nproc_per_node=2 multi_gpu_fintune_belle.py \
--dataset_path data/alpaca \
--lora_rank 8 \
--per_device_train_batch_size 1 \
--gradient_accumulation_steps 1 \
--save_steps 1000 \
--save_total_limit 2 \
--learning_rate 2e-5 \
--fp16 \
--num_train_epochs 2 \
--remove_unused_columns false \
--logging_steps 50 \
--gradient_accumulation_steps 2 \
--output_dir output \
--deepspeed ds_config_zero3.json
下载数据
cd data
wget https://huggingface.co/datasets/BelleGroup/generated_train_0.5M_CN/resolve/main/Belle.train.json
python tokenize_dataset_rows_belle.py
--jsonl_path data/alpaca_data.jsonl
--save_path data/alpaca
--max_seq_length 200
--skip_overlength
accelerate launch --config_file accelerate_ds_zero3_cpu_offload_config.yaml multi_gpu_fintune_belle.py \
--dataset_path data/alpaca \
--lora_rank 8 \
--per_device_train_batch_size 2 \
--gradient_accumulation_steps 1 \
--max_steps 10000 \
--save_steps 1000 \
--save_total_limit 2 \
--learning_rate 2e-5 \
--fp16 \
--remove_unused_columns false \
--logging_steps 50 \
--output_dir output