metadata
license: mit
datasets:
- radce/datasetGPT4o-mini
- radce/YandexGPT
- radce/ru_instruct_gpt4
- radce/communication_dataset
- radce/shorts_dataset
- radce/istruction_dataset
language:
- ru
base_model:
- radce/llama3.2-1B-Instruct-ru
library_name: transformers
Дообучались слои 14, 15, 16.
Датасет состоял из 13 862 816 токенов.
Видеокарта для дообучения: Tesla A100.
Обучение
{'loss': 0.8521, 'grad_norm': 0.5644629001617432, 'learning_rate': 2.9148375768217733e-05, 'epoch': 1.29}
{'loss': 0.6742, 'grad_norm': 0.5370610952377319, 'learning_rate': 7.199297629499562e-06, 'epoch': 2.58}
{'train_runtime': 5708.2175, 'train_samples_per_second': 22.869, 'train_steps_per_second': 0.204, 'train_loss': 0.7442483934749853, 'epoch': 3.0}