|
# 中文 NLP 权威测评基准 CLUE 刷榜 Top10 方案指南 |
|
|
|
[CLUE](https://www.cluebenchmarks.com) 是中文 NLP 的权威测评榜单,也吸引了许多国内许多团队在上面进行测评。在我们的最新模型 UniMC 中,也使用 CLUE 对我们的模型进行了测评。在全量数据榜单 CLUE1.1 中,我们的 [UniMC-DeBERTa-1.4B](https://huggingface.co/IDEA-CCNL/Erlangshen-UniMC-DeBERTa-v2-1.4B-Chinese) 模型取得了第 8 的成绩,是 [CLUE1.1](https://www.cluebenchmarks.com/rank.html) 排行榜(2022年11月14日)前 10 名中唯一开源模型权重和刷榜代码的模型。 |
|
|
|
## 刷榜方案 |
|
|
|
通过观察可以发现,在CLUE需要测评的 9 个任务中,有 8 个是分类任务,只有一个 cmrc2018 是抽取式的阅读理解任务。因此,结合我们的 Fengshenbang-LM 已有的模型,我们可以使用 [UniMC](https://github.com/IDEA-CCNL/Fengshenbang-LM/tree/dev/yangping/fengshen/examples/unimc) 来实现 8 个是分类任务,用 [Ubert](https://github.com/IDEA-CCNL/Fengshenbang-LM/tree/dev/yangping/fengshen/examples/ubert) 来实现 cmrc2018 任务,详细的方案可以看我们的知乎文章:https://zhuanlan.zhihu.com/p/583679722 |
|
|
|
## 项目要求 |
|
|
|
安装我们的 fengshen 框架,我们暂且提供如下方式安装 |
|
```shell |
|
git clone https://github.com/IDEA-CCNL/Fengshenbang-LM.git |
|
cd Fengshenbang-LM |
|
pip install --editable ./ |
|
``` |
|
## 运行项目 |
|
|
|
### 数据下载 |
|
由于 HuggingFace 上的数据与最终提交的数据 id 有可能对应不上,所以建议还是去官方仓库进行下载 |
|
https://github.com/CLUEBENCHMARK/CLUE |
|
|
|
|
|
### 数据预处理 |
|
将数据下载之后,修改下面脚本的路径,运行下面脚本将数据处理成 UniMC 模型 和 Ubert 模型所需要的格式 |
|
```shell |
|
sh cluedata2unidata.sh |
|
``` |
|
|
|
### 模型训练 |
|
训练CLUE上的8个分类任务,一些训练参数可根据自己的设备进行修改。对于全量数据来说,训练超参数没有那么大的影响 |
|
```shell |
|
sh run_clue_unimc.sh |
|
``` |
|
训练 cmrc2018 任务,一些训练参数可根据自己的设备进行修改 |
|
```shell |
|
sh run_clue_ubert.sh |
|
``` |
|
|
|
### 预测结果提交 |
|
|
|
运行下面脚本将预测结果转化为 CLUE 要求的格式,数据路径需要根据自己的路径修改调整。运行下面脚本就可以得到结果,然后拿到 [CLUE](https://www.cluebenchmarks.com/index.html) 官网上去提交了 |
|
|
|
```shell |
|
sh predict2submit.sh |
|
``` |
|
|
|
|
|
|