ttvnet / README.md
RRFRRF's picture
fix
870f4fc
metadata
license: mit

模型训练过程汇总(持续更新中)

本仓库采用扁平化的目录结构和标签系统来组织模型,具体说明如下:

仓库结构

  • 一级目录:直接以模型名称命名,例如 Clone-detection-BigCloneBenchGraphMAE_QM9
  • 模型目录结构:每个模型目录下包含:
    • code/:存放模型相关代码和训练脚本
    • model/:存放模型训练过程和权重文件
      • 按数据集分类
      • 训练变体(0:标准训练,1:数据增强,2:后门攻击)
      • 每个epoch的权重文件(.pth)和embedding(.npy)
    • dataset/:训练数据集(解压或压缩包形式)

标签系统

每个模型都具有以下标签属性:

  1. 数据类型 (data_type)

    • 代码 (code)
    • 文本 (text)
    • 图像 (image)
    • 图结构 (graph)
  2. 任务类型 (task_type)

    • 分类 (classification)
    • 生成 (generation)
    • 检索 (retrieval)
    • 相似度计算 (similarity)
    • 表示学习 (representation_learning)
    • 自动编码 (autoencoder)
    • 代码补全 (completion)
    • 预训练 (pretraining)
  3. 领域 (domain)

    • 代码克隆检测 (code_clone_detection)
    • 代码搜索 (code_search)
    • 分子性质预测 (molecular_property)
    • 代码缺陷检测 (code_defect_detection)
    • 计算机视觉 (computer_vision)
    • 移动端计算 (mobile_computing)
    • Transformer架构 (transformer)
  4. 输入/输出类型 (input_type/output_type)

    • 代码 (code)
    • 代码对 (code_pair)
    • 代码token序列 (code_tokens)
    • 代码排序 (code_ranking)
    • 自然语言 (natural_language)
    • 图结构 (graph)
    • 图像 (image)
    • 二元标签 (binary)
    • 类别标签 (class_label)
    • 分子特征 (molecular_features)

所有模型的元数据和标签信息都存储在 models.json 文件中

可以通过运行 python model_filter.py 命令来通过标签进行快速检索和筛选。

下表汇总了所有收集的模型训练过程信息:

模型名称 模型简介 模型类型 Epoch数量 数据集信息
Clone-detection-BigCloneBench 基于大规模代码克隆基准数据集的代码克隆检测模型,任务是进行二元分类(0/1),其中1代表语义等价,0代表其他情况。 代码克隆检测 待上传 BigCloneBench数据集
Clone-detection-POJ-104 基于POJ-104数据集的代码克隆检测模型,任务是识别不同编程题目中相似的代码实现,给定一段代码和一组候选代码,任务是返回具有相同语义的Top K个代码 代码克隆检测 待上传 POJ-104编程题目数据集
CodeCompletion-token 基于token级别的代码自动补全模型 代码补全 待上传 Java代码token序列数据集
Defect-detection 代码缺陷检测模型,通过分析代码来识别潜在的缺陷和错误(进行二元分类(0/1)) 代码缺陷检测 待上传 包含缺陷标注的C语言代码数据集
code-refinement 代码优化模型 代码优化/重构 待上传 代码优化前后对数据集(C语言)
code-to-text 代码到自然语言的转换模型 代码注释生成 待上传 多语言代码-文本对数据集
NL-code-search-Adv 高级自然语言代码搜索模型,通过计算自然语言查询与代码片段之间的相似性来实现代码搜索, 代码搜索 待上传 自然语言-(python)代码对数据集
NL-code-search-WebQuery 基于Web查询的代码搜索模型,该模型通过编码器处理代码和自然语言输入,并利用多层感知器(MLP)来计算相似性得分 代码搜索 待上传 Web查询-代码对数据集(CodeSearchNet数据集和CoSQA数据集(python))
text-to-code 自然语言到代码的生成模型 代码生成 待上传 文本描述-代码(c语言)对数据集
GraphMAE_QM9 在QM9数据集上训练的图掩码自编码器,通过对分子图中的原子的坐标以及类型进行预测实现自监督训练 图自编码器 待上传 分子属性预测数据集
AlexNet 2012年获得ImageNet冠军的经典模型,首次证明了深度学习在图像识别上的强大能力。 图像分类 待补充 CIFAR-10数据集
DenseNet 每一层都直接与其他所有层相连,像搭积木一样层层堆叠,可以更好地学习图像特征。 图像分类 待补充 CIFAR-10数据集
EfficientNet 通过平衡网络的深度、宽度和图像分辨率,用更少的计算量达到更好的效果。 图像分类 待补充 CIFAR-10数据集
GoogLeNet 谷歌开发的模型,像多个眼睛同时看图片的不同部分,既省资源又准确。 图像分类 待补充 CIFAR-10数据集
LeNet5 深度学习领域的开山之作,虽然简单但奠定了现代CNN的基础架构。 图像分类 待补充 CIFAR-10数据集
MobileNetv1 专门为手机设计的轻量级模型,用特殊的卷积方式减少计算量。 图像分类 待补充 CIFAR-10数据集
MobileNetv2 MobileNet的升级版,增加了特征复用机制,性能更好。 图像分类 待补充 CIFAR-10数据集
MobileNetv3 结合自动搜索技术的新版本,自动找到最适合手机的网络结构。 图像分类 待补充 CIFAR-10数据集
ResNet 通过特殊的"快捷连接"解决深层网络训练难的问题,可以训练超级深的网络。 图像分类 待补充 CIFAR-10数据集
SENet 为网络添加了"注意力机制",让模型能够关注图片中重要的部分。 图像分类 待补充 CIFAR-10数据集
ShuffleNet 通过巧妙地打乱和分组计算,实现了手机上的高效运行。 图像分类 待补充 CIFAR-10数据集
ShuffleNetv2 在原版基础上优化设计,速度更快,效果更好。 图像分类 待补充 CIFAR-10数据集
SwinTransformer 把自然语言处理的先进技术用于图像,通过逐步关注图片不同区域来理解图像。 图像分类 待补充 CIFAR-10数据集
VGG 用统一的小型卷积核堆叠成深层网络,结构简单但效果好。 图像分类 待补充 CIFAR-10数据集
ViT 把图片切成小块后像读文章一样处理,是一种全新的图像处理方式。 图像分类 待补充 CIFAR-10数据集
ZFNet 通过可视化研究改进的AlexNet,帮助人们理解网络是如何"看"图片的。 图像分类 待补充 CIFAR-10数据集