Datasets:

ArXiv:
License:
BD4UI / README.md
Sherirto's picture
Update README.md (#1)
d282e69 verified
|
raw
history blame
21 kB
metadata
license: cc-by-nd-4.0

BD4UI Lab sharing repository

PPT文件见Files and versions. PPT文件按分享日期与方法名缩写来命名.

日期 分享人 论文标题 论文链接 论文摘要
2024/4/9 于志刚 GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks https://arxiv.org/pdf/2402.07197 图模型(GM)往往仅限于预定义格式(如节点分类)内的任务,无法完成开放式任务。LLM则可以完成开放式任务。尽管已经有几种将LLM应用于图的方法,但是它们不能同时处理预定义和开放式任务。本文试图将图模型与大语言模型对齐,从而使得模型能够同时处理预定义和开放式任务。
2024/4/16 杨珂懿 DYffusion: A Dynamics-informed Diffusion Modelfor Spatiotemporal Forecasting https://arxiv.org/pdf/2306.01984 提出了一种方法,用于有效地训练扩散模型进行概率时空预测,在这方面,生成稳定和准确的预测仍然是一个挑战。我们的方法,DYffusion,利用数据中的时间动态,将其与模型中的扩散步骤直接耦合。我们训练了一个随机的、时间条件的插值器和预测网络,分别模仿标准扩散模型的正向和反向过程。DYffusion自然地促进了多步骤和长范围的预测,允许高度灵活的、连续时间的采样轨迹,并能在推断时用加速采样来权衡性能。与传统基于高斯噪声的扩散模型相比,显著提高了计算效率。
2024/4/23 曹敏君 Mamba: Linear-Time Sequence Modeling with Selective State Spaces https://arxiv.org/pdf/2312.00752 本文介绍了一种新的序列模型架构,名为Mamba,它通过选择性状态空间模型(Selective State Space Models, SSMs)来改进传统的状态空间模型。Mamba通过输入依赖的方式调整SSM参数,允许模型根据当前的数据选择性地传递或遗忘信息,从而解决了以前模型在处理离散和信息密集型数据(如文本)时的不足。此外,尽管这种改变使得模型不能使用高效的卷积计算,研究者设计了一种硬件感知的并行算法,以递归模式运行,使得Mamba在推理速度上比传统的Transformer快5倍,并且在序列长度上实现线性缩放。
2024/4/30 程铭 Deciphering Spatio-Temporal Graph Forecasting: A Causal Lens and Treatment https://arxiv.org/pdf/2309.13378 时空神经图网络在时空预测过程中存在时间OOD问题和动态空间因果关系问题。 本文提出了一个新的框架CaST,通过使用一种新的解纠缠块的后门调整,将时间环境从输入数据中分离出来。此外,利用前门调整和边缘级卷积来模拟因果关系的连锁效应。
2024/4/30 王颖 FUXI-DA: A GENERALIZED DEEP LEARNING DATA ASSIMILATION FRAMEWORK FOR ASSIMILATING SATELLITE OBSERVATIONS https://arxiv.org/pdf/2404.08522 深度学习模型在匹配甚至超过全球领先的NWP模型的预测精度方面显示出了希望。这一成功激发了为天气预报模型量身定制的基于dl的数据分析框架的探索。本文介绍了一种基于dl的广义数据分析框架FuXi-DA,用于同化卫星观测数据。通过吸收风云四号b上先进地球同步辐射成像仪(AGRI)的数据,“FuXi-DA”不断减少分析误差,显著提高预报性能。
2024/5/7 颜浩 Provable Training for Graph Contrastive Learning https://arxiv.org/pdf/2309.13944 GCL的学习过程主要包括:图数据增强;增强视图经过GNN获取节点表征,最后根据InfoNCE准则来进行优化。但考虑到图结构的复杂性,在GCL过程中,是否所有节点都能很好的遵循InfoNCE准则呢?本文对主流GCL方法进行了分析,发现了GCL训练过程中出现的不平衡现象,并提出了"Node Compactness"概念来度量不同的节点在GCL过程中对准则的遵循程度,所提方法POT能即插即用到其他GCL方法中。
2024/5/14 王梓辰 BCDiff: Bidirectional Consistent Diffusion for Instantaneous Trajectory Prediction https://openreview.net/pdf?id=FOFJmR1oxt 本文提出用于瞬时轨迹预测的双向一致扩散模型:BCDiff,通过设计一个相互指导机制来开发两个耦合扩散模型,该机制可以双向一致地逐步生成未观察到的历史轨迹和未来轨迹,以利用它们的互补信息相互指导进行预测。其次,由于去噪步骤初始阶段的轨迹存在较高噪声,模型引入一种门控机制学习轨迹预测和有限观察轨迹之间的权重,以平衡它们的贡献。BCDiff是一个无编码器的框架,可以和现有轨迹模型兼容。
2024/5/21 徐榕桧 Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes https://arxiv.org/pdf/2305.02301 部署大型语言模型(llm)具有挑战性,因为它们在实际应用中内存效率低下且计算密集型。通常,研究人员通过使用标签数据进行微调或使用llm生成的标签进行蒸馏来训练更小的特定任务模型。然而,微调和蒸馏需要大量的训练数据才能达到与llm相当的性能。本文提出了一种新的机制Distilling Step-by-Step,作者通过提取LLM原理,作为在多任务框架内训练小模型的额外监督。实现(a)训练比llm更小的模型,(b)与微调或蒸馏相比,需要更少的训练数据。
2024/5/28 刘若尘 Direct Preference Optimization: Your Language Model is Secretly a Reward Model https://arxiv.org/pdf/2305.18290 如何将大语言模型与人类行为对齐一直以来是NLP领域研究的重点,其中使用人类反馈的强化学习(reinforcement learning from human feedback,RLHF)是其中的代表性工作。然而RLHF的训练过程复杂且不稳定,需要先训练一个奖励函数再通过强化学习过程对大语言模型进行微调,第一篇论文利用了一种奖励函数与最优生成策略(我们需要的LLM)之间的映射关系,将绕过了强化学习过程,实现了端到端的训练。
2024/5/28 张舜洋 KAN:Kolmogorov–Arnold Networks https://arxiv.org/pdf/2404.19756 本篇论文自官宣以来,便受到了学术圈广泛关注。它号称是能在部分任务上以更少的参数量,实现MLPs的实验结果。那么本周组会我将介绍KAN的设计思路,并简单分析它的计算量从哪儿来
2024/6/4 金志晗 Multi-stage neural networks: Function approximator of machine precision https://arxiv.org/pdf/2307.08934 本文主要针对在实践中即使神经网络规模大,训练迭代时间长,也很难将预测误差降低到𝑂(1e−05)以下。为解决这个问题,作者开发了多阶段神经网络,将训练过程分为不同的阶段,每个阶段使用一个新的网络经优化以适应前一阶段的残差,使残差幅度大幅减小,证明多阶段神经网络有效地减轻了常规神经网络相关的频谱偏差,使其能够捕获目标函数的高频特征。此外,本文还证明回归问题和物理信息神经网络的多阶段训练的预测误差在有限次迭代内几乎可以达到双浮点的机器精度𝑂(1e−16),而仅使用单个神经网络很难达到这样的精确度。
2024/6/4 殷珺 When to Pre-Train Graph Neural Networks? From Data Generation Perspective! https://arxiv.org/pdf/2303.16458 本文针对图神经网络预训练的可行性(预期收益)进行研究,基于"当下游任务数据能够以高概率从预训练数据中生成时,预训练具有高可行性"这一假设,引入Graphon作为图生成模块,提出W2PGNN框架。该框架对于给定的下游任务数据和预训练数据,能够估计出GNN预训练的预期收益。作者在节点分类、图分类任务的多个现实数据集上展开实验,验证了W2PGNN可行性估计和下游任务最佳性能之间存在较高的相关性。
2024/6/11 于志刚 Towards Versatile Graph Learning Approach: from the Perspective of Large Language Models https://arxiv.org/pdf/2402.11641 图结构数据是现实世界中最常用和最广泛的应用场景。对于不同的应用程序,大量不同的学习任务以及图领域中复杂的图学习过程给人类专家设计通用的图学习方法带来了挑战。面对这些挑战,大语言模型(LLMs)因为具有广泛的知识和类人智能,为之提供了一个潜在的解决方案。本文提出了一个新颖的概念原型,用于设计具有LLMs的通用图学习方法。
2024/6/19 杨珂懿 DIFFUSION-TS: INTERPRETABLE DIFFUSION FOR GENERAL TIME SERIES GENERATION https://arxiv.org/pdf/2403.01742 本文提出了Diffusion-TS,这是一种新颖的基于扩散的框架,通过使用具有解耦时间表示的transformer生成高质量的多变量时间序列样本,设计了深度分解结构来引导Diffusion-TS捕捉时间序列的语义意义,而transformer从噪声模型输入中挖掘详细的序列信息。不同于现有的基于扩散的方法,本文训练模型在每个扩散步骤中直接重建样本而不是噪声,并结合基于傅里叶的损失项。Diffusion-TS有望生成既满足解释性又真实的时间序列。此外,研究表明,Diffusion-TS可以扩展到条件生成任务,如预测和插补,而无需进行任何模型更改。
2024/6/19 曹敏君 Higher-Order Graph Convolutional Network with Flower-Petals Laplacians on Simplicial Complexes https://arxiv.org/pdf/2309.12971 尽管GNN在各种任务上取得了成功,但基于成对网络的基础本质上限制了它们在复杂系统中识别潜在高阶相互作用的能力。为了弥补这一能力差距,本文提出了一种利用简单复合物(SCs)丰富的数学理论的新方法。目前基于SC的GNN具有较高的复杂性和刚性,高阶相互作用强度的量化仍然具有挑战性。本文创新性地提出了一个higher-order Flower-Petals(FP)模型,将FP拉普拉斯算子纳入到SCs中。此外,本文引入了一个基于FP拉普拉斯算子的高阶图卷积网络(HiGCN),能够在不同的拓扑尺度上识别内在特征。通过使用可学习的图过滤器(每个FP拉普拉斯域中的一个参数组),可以识别不同的模式,其中过滤器的权重作为高阶交互强度的可量化度量。实证研究表明,本文所提出的模型在一系列图任务上实现了最先进的性能,并提供了一个可扩展和灵活的解决方案来探索图中的高阶交互。
2024/7/3 颜浩 TAGA: Text-Attributed Graph Self-Supervised Learning by Synergizing Graph and Text Mutual Transformations https://arxiv.org/pdf/2405.16800 本属性图上表示学习最近取得了广泛关注,但现有方法大多关注于监督学习范式,对标签数据较为依赖。本文介绍了一种新的文本图上自监督学习框架TAGA。其构造了两种可相互转化的视图,Text-of-Graph与Graph-of-Text,并通过对齐两个视图的表示来同时捕获文本图上的结构与语义知识。
2024/7/31 殷珺 Vector Quantization for Recommender Systems: A Review and Outlook https://arxiv.org/pdf/2405.03110 推荐系统中的向量量化技术综述,主要内容包括经典向量量化技术简介、推荐系统中的向量量化以及向量随机量化技术简介。向量量化旨在将大规模的数据向量表示压缩到可学习的小规模编码本(codebook),被用于加速最近邻搜索、注意力机制等。近年来,其离散化索引能力受到关注,与生成式推荐系统紧密结合,作为推荐系统索引模块(indexer)得到广泛应用。
2024/7/31 程铭 Spatio-temporal Early Prediction based on Multi-objective Reinforcement Learning https://arxiv.org/pdf/2406.04035 在预测任务中,准确性和时效性往往难以同时优化。过早得到的预测结果可能会导致较高的误报率,而能够获取更多信息的延迟预测可能会使结果失去时效性。在野外火灾、犯罪和交通拥堵等现实场景中,及时预测对于保障人类生命财产安全至关重要。因此,平衡准确性和时效性是研究的一大热点。本文提出了一种基于多目标强化学习的时空早期预测模型,该模型可以根据偏好实施最优策略,或基于少量样本推断偏好。该模型解决了两个主要挑战:1)提高早期预测的准确性;2)提供了一种能够确定每个区域最优预测时间的优化策略。
2024/8/28 刘若尘 Enhancing Sequential Recommenders with Augmented Knowledge from Aligned Large Language Models https://dl.acm.org/doi/pdf/10.1145/3626772.3657782 传统序列推荐往往只考虑user-item之间的交互信息,而没有利用关于item的真实世界的知识,将大语言模型应用于序列推荐中则可以弥补了这一缺陷。然而由于大语言模型缺乏对序列行为模型的建模能力以及推理时间过长,如何将LLM用于序列推荐仍然是一个挑战。为解决上述挑战,本文提出了一种将传统ID-based 序列推荐与LLM相结合的方法,使用LLM来为item生成与交互相对齐的文本,以此达到语义增强的效果。
2024/9/4 王梓辰 BAT: Behavior-Aware Human-Like Trajectory Prediction for Autonomous Driving https://arxiv.org/pdf/2312.06371 在实现全自动驾驶汽车的过程中,准确预测周围车辆的未来轨迹是一项重大挑战。本文提出了一种新的行为感知轨迹预测模型(BAT),由行为感知、交互感知、优先级感知和位置感知模块组成,可以感知潜在交互,从而在不严格分类驾驶行为的情况下实现更高级的学习。本文最关键的贡献是,使用动态几何图方法,并设计行为感知准则,不需要在训练过程中人工标注行为类别,解决了离散行为分类和选择适当时间窗口的挑战。实验结果表明,模型在NGSIM、highD、RounD和MoCAD四个数据集上均实现了较好的效果,即使在减少训练数据部分(25%)的情况下,模型也优于大多数baseline。
2024/9/11 徐榕桧 PATE: Proximity-Aware Time series anomaly Evaluation https://arxiv.org/pdf/2405.12096 评估时间序列数据中的异常检测算法至关重要,因为在实时分析和数据驱动策略至关重要的各个领域,不准确性可能导致错误的决策。传统的性能指标无法捕捉复杂的时间动态和时间序列异常的特定特征,例如早期检测和延迟检测。本文提出了一种结合预测与异常区间间时间关系的新型评价指标——邻近感知时间序列异常评价(PATE)。PATE使用基于邻近度的加权方法,考虑异常区间周围的缓冲区,从而能够对探测进行更详细、更明智的评估。实验表明,许多SOTA模型可能在某些场景下被过度评估,而PATE能够提供更公平的模型比较,从而指导未来的研究朝着开发更有效和更准确的检测模型的方向发展。
2024/9/18 于志刚 GAugLLM: Improving Graph Contrastive Learning for Text-Attributed Graphs with Large Language Models https://arxiv.org/pdf/2406.11945 GAugLLM,它是为文本属性图设计的,能够利用丰富的文本属性和 LLM 联合进行特征级和边级扰动。它分为两个模块:混合 prompt 专家的方法通过直接干扰输入文本属性来生成增强特征;协同边修改器方案利用文本属性进行结构扰动。
2024/9/18 吴微 Towards an end-to-end artificial intelligence driven global weather forecasting system https://arxiv.org/pdf/2312.12462v1 该文章提出了一种基于AI的数据同化模型Adas,并和先进的基于AI的预报模型风乌结合,构建了首个端到端的基于AI的全球天气预报系统:FengWu-Adas。Adas引入了置信度矩阵,使用门控卷积处理稀疏观测,并使用门控交叉注意力捕获背景与观测之间的相互作用。研究表明,Adas能够同化全球观测数据,产生高质量的分析,使系统能够长期稳定运行。
2024/9/25 杨珂懿 PrivShape: Extracting Shapes in Time Series under User-Level Local Differential Privacy https://arxiv.org/pdf/2404.03873 本文提出了 PrivShape,这是一种基于用户级别 LDP 的 Trie 机制,用于保护所有元素。PrivShape 首先转换时间序列以减少其长度,然后采用 Trie 扩展和两级细化来提高效用。通过对真实世界数据集的大量实验,我们证明了 PrivShape 在适应离线使用时优于 PatternLDP,并且可以有效地提取频繁的形状。
2024/10/10 曹敏君 Biased Temporal Convolution Graph Network for Time Series Forecasting with Missing Values https://openreview.net/forum?id=O9nZCwdGcG 本文提出了一种偏置时间卷积图网络BiTGraph,同时捕获时间依赖性和空间结构。多元时间序列预测在气象研究、交通管理和经济规划等各种应用中发挥着重要作用。在过去的几十年中,通过探索时间动态和空间相关性,人们为实现准确可靠的预测做出了许多努力。特别是,近年来基于 Transformer 的方法的发展显着提高了长期预测的准确性。现有的预测方法通常假设输入数据完整,然而,在实践中,由于设备故障或昂贵的数据采集,时间序列数据经常被部分观察到,这可能严重阻碍现有方法的性能。简单地使用插补方法不可避免地会涉及误差积累并导致次优解决方案。本文提出的BiTGraph方法将偏差注入到两个精心开发的模块中(多尺度实例 PartialTCN 和偏差 GCN)以解释缺失的模式。实验结果表明提出的模型能够达到在五个真实世界基准数据集上相比现有方法提高9.93%。论文和代码大家感兴趣可以先了解一下。
2024/10/17 程铭 Hierarchical Reinforcement Learning for Dynamic Autonomous Vehicle Navigation at Intelligent Intersections https://dl.acm.org/doi/pdf/10.1145/3580305.3599839 文章提出了 NavTL,这是一种基于学习的框架,用于人类驾驶车辆和自动驾驶汽车共存的混合交通场景中联合控制交通信号计划和自动车辆重新路由。其目标是通过最大限度地减少十字路口的拥堵,同时引导自动驾驶车辆避开暂时拥堵的道路,从而提高出行效率并减少总出行时间。
2024/10/24 颜浩 GraphCLIP: Enhancing Transferability in Graph Foundation Models for Text-Attributed Graphs https://arxiv.org/pdf/2410.10329 本文提出的GraphCLIP通过将图与文本总结进行对比预训练来学习图基础模型。主要包括利用LLM生成大规模"图-总结"配对数据,并设计了一种图提示方法来减轻少样本学习场景下的灾难性遗忘。
2024/10/31 殷珺 NoteLLM-2: Multimodal Large Representation Models for Recommendation https://arxiv.org/pdf/2405.16789 本文探索基于大语言模型的多模态推荐系统,尝试采用:(1)multi-modal in-context learning和(2)late fusion来缓解现有模型过度依赖文本、忽视视觉信息的问题。
2024/10/31 金志晗 Skilful nowcasting of extreme precipitation with NowcastNet https://www.nature.com/articles/s41586-023-06184-4 这篇文章于2023年7月发表于Nature正刊,清华大学与中国气象局基于极端降水预报目前的方法容易出现强度、位置误差的问题,提出NowcastNet,它将物理演化方案和生成式学习统一到具有端到端预测优化的神经网络中,效果上超越了谷歌的短临降水预报模型DGMR。