Update README.md
Browse files
README.md
CHANGED
@@ -15,12 +15,13 @@ pipeline_tag: token-classification
|
|
15 |
|
16 |
### 综述
|
17 |
|
18 |
-
-
|
19 |
-
-
|
|
|
20 |
- AND NSFW IS OK
|
21 |
- 支持多种语言
|
22 |
-
- 目前已针对以下语言进行了预训练:`中文`、`英文`、`日文`、`韩文`
|
23 |
-
- 未来计划针对以下语言进行预训练:`俄文`
|
24 |
- 目前我们提供以下预训练模型:
|
25 |
|
26 |
| 模型 | 版本 | 说明 |
|
@@ -30,12 +31,12 @@ pipeline_tag: token-classification
|
|
30 |
|
31 |
### 基础模型 Base
|
32 |
|
33 |
-
-
|
34 |
-
-
|
35 |
- 训练参数如下:
|
36 |
- Batch Size : 8
|
37 |
-
- Gradient Accumulation Steps :
|
38 |
-
- Total Batch Size :
|
39 |
- Learing Rate : 2e-5
|
40 |
- Maximum Sequence Length : 256
|
41 |
- Optimizer : ademamix_8bit
|
@@ -48,7 +49,9 @@ pipeline_tag: token-classification
|
|
48 |
### 实体识别模型 NER
|
49 |
|
50 |
- 在 Base 模型的基础上,使用了大约 50000 条合成语料进行 NER 任务的微调
|
51 |
-
-
|
|
|
|
|
52 |
- 训练参数如下:
|
53 |
- Batch Size : 48
|
54 |
- Gradient Accumulation Steps : 2
|
|
|
15 |
|
16 |
### 综述
|
17 |
|
18 |
+
- 通过针对性的预训练,本系列模型:
|
19 |
+
- 对 `轻小说`、`游戏脚本`、`漫画脚本` 等故事性文本内容具有极好的理解能力
|
20 |
+
- 特别是 `剑与魔法`、`超能力战斗`、`异世界冒险` 等常见的 ACG 题材的故事内容
|
21 |
- AND NSFW IS OK
|
22 |
- 支持多种语言
|
23 |
+
- 目前已针对以下语言进行了预训练:`中文`、`英文`、`日文`、`韩文`
|
24 |
+
- 未来计划针对以下语言进行预训练:`俄文`
|
25 |
- 目前我们提供以下预训练模型:
|
26 |
|
27 |
| 模型 | 版本 | 说明 |
|
|
|
31 |
|
32 |
### 基础模型 Base
|
33 |
|
34 |
+
- 在 [FacebookAI/xlm-roberta-base](https://huggingface.co/FacebookAI/xlm-roberta-base) 进行继续预训练
|
35 |
+
- 继续预训练的训练量大约 2B Token,包含 4 种不同语言的语料
|
36 |
- 训练参数如下:
|
37 |
- Batch Size : 8
|
38 |
+
- Gradient Accumulation Steps : 16
|
39 |
+
- Total Batch Size : 128
|
40 |
- Learing Rate : 2e-5
|
41 |
- Maximum Sequence Length : 256
|
42 |
- Optimizer : ademamix_8bit
|
|
|
49 |
### 实体识别模型 NER
|
50 |
|
51 |
- 在 Base 模型的基础上,使用了大约 50000 条合成语料进行 NER 任务的微调
|
52 |
+
- 与人工校对的实体词语表进行对比,可以达到 `90%-95%` 的实际准确率
|
53 |
+
- 与 [KeywordGacha](https://github.com/neavo/KeywordGacha) 搭配使用时
|
54 |
+
- 实际任务环境中的实测数据,并非预设测试集上的 F1 Score 这类理论上的指标
|
55 |
- 训练参数如下:
|
56 |
- Batch Size : 48
|
57 |
- Gradient Accumulation Steps : 2
|