Llama-3.2-1B-ru-v2 / README.md
radce's picture
Update README.md
5bf8b87 verified
metadata
license: mit
datasets:
  - radce/datasetGPT4o-mini
  - radce/YandexGPT
  - radce/ru_instruct_gpt4
  - radce/communication_dataset
  - radce/shorts_dataset
  - radce/istruction_dataset
language:
  - ru
base_model:
  - radce/llama3.2-1B-Instruct-ru
library_name: transformers

Дообучались слои 14, 15, 16.

Датасет состоял из 13 862 816 токенов.

Видеокарта для дообучения: Tesla A100.

Обучение

{'loss': 0.8521, 'grad_norm': 0.5644629001617432, 'learning_rate': 2.9148375768217733e-05, 'epoch': 1.29}
{'loss': 0.6742, 'grad_norm': 0.5370610952377319, 'learning_rate': 7.199297629499562e-06, 'epoch': 2.58}
{'train_runtime': 5708.2175, 'train_samples_per_second': 22.869, 'train_steps_per_second': 0.204, 'train_loss': 0.7442483934749853, 'epoch': 3.0}