Dataset Viewer
Full Screen Viewer
Full Screen
The dataset viewer is not available because its heuristics could not detect any supported data files. You can try uploading some data files, or configuring the data files location manually.
BD4UI 实验室 组会分享仓库
PPT文件见Files and versions. PPT文件按分享日期与方法名缩写来命名.
日期 | 分享人 | 期刊或会议 | 论文标题 | 论文链接 | 论文摘要 |
---|---|---|---|---|---|
2024/4/9 | 于志刚 | WWW2024 | GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks | https://arxiv.org/pdf/2402.07197 | 图模型(GM)往往仅限于预定义格式(如节点分类)内的任务,无法完成开放式任务。LLM则可以完成开放式任务。尽管已经有几种将LLM应用于图的方法,但是它们不能同时处理预定义和开放式任务。本文试图将图模型与大语言模型对齐,从而使得模型能够同时处理预定义和开放式任务。 |
2024/4/16 | 杨珂懿 | NeurIPS2023 | DYffusion: A Dynamics-informed Diffusion Modelfor Spatiotemporal Forecasting | https://arxiv.org/pdf/2306.01984 | 提出了一种方法,用于有效地训练扩散模型进行概率时空预测,在这方面,生成稳定和准确的预测仍然是一个挑战。我们的方法,DYffusion,利用数据中的时间动态,将其与模型中的扩散步骤直接耦合。我们训练了一个随机的、时间条件的插值器和预测网络,分别模仿标准扩散模型的正向和反向过程。DYffusion自然地促进了多步骤和长范围的预测,允许高度灵活的、连续时间的采样轨迹,并能在推断时用加速采样来权衡性能。与传统基于高斯噪声的扩散模型相比,显著提高了计算效率。 |
2024/4/23 | 曹敏君 | Arxiv.2312 | Mamba: Linear-Time Sequence Modeling with Selective State Spaces | https://arxiv.org/pdf/2312.00752 | 本文介绍了一种新的序列模型架构,名为Mamba,它通过选择性状态空间模型(Selective State Space Models, SSMs)来改进传统的状态空间模型。Mamba通过输入依赖的方式调整SSM参数,允许模型根据当前的数据选择性地传递或遗忘信息,从而解决了以前模型在处理离散和信息密集型数据(如文本)时的不足。此外,尽管这种改变使得模型不能使用高效的卷积计算,研究者设计了一种硬件感知的并行算法,以递归模式运行,使得Mamba在推理速度上比传统的Transformer快5倍,并且在序列长度上实现线性缩放。 |
2024/4/30 | 程铭 | NeurIPS2023 | Deciphering Spatio-Temporal Graph Forecasting: A Causal Lens and Treatment | https://arxiv.org/pdf/2309.13378 | 时空神经图网络在时空预测过程中存在时间OOD问题和动态空间因果关系问题。 本文提出了一个新的框架CaST,通过使用一种新的解纠缠块的后门调整,将时间环境从输入数据中分离出来。此外,利用前门调整和边缘级卷积来模拟因果关系的连锁效应。 |
2024/4/30 | 王颖 | Arxiv.2404 | FUXI-DA: A GENERALIZED DEEP LEARNING DATA ASSIMILATION FRAMEWORK FOR ASSIMILATING SATELLITE OBSERVATIONS | https://arxiv.org/pdf/2404.08522 | 深度学习模型在匹配甚至超过全球领先的NWP模型的预测精度方面显示出了希望。这一成功激发了为天气预报模型量身定制的基于dl的数据分析框架的探索。本文介绍了一种基于dl的广义数据分析框架FuXi-DA,用于同化卫星观测数据。通过吸收风云四号b上先进地球同步辐射成像仪(AGRI)的数据,“FuXi-DA”不断减少分析误差,显著提高预报性能。 |
2024/5/7 | 颜浩 | NeurIPS2023 | Provable Training for Graph Contrastive Learning | https://arxiv.org/pdf/2309.13944 | GCL的学习过程主要包括:图数据增强;增强视图经过GNN获取节点表征,最后根据InfoNCE准则来进行优化。但考虑到图结构的复杂性,在GCL过程中,是否所有节点都能很好的遵循InfoNCE准则呢?本文对主流GCL方法进行了分析,发现了GCL训练过程中出现的不平衡现象,并提出了"Node Compactness"概念来度量不同的节点在GCL过程中对准则的遵循程度,所提方法POT能即插即用到其他GCL方法中。 |
2024/5/14 | 王梓辰 | NeurIPS2023 | BCDiff: Bidirectional Consistent Diffusion for Instantaneous Trajectory Prediction | https://openreview.net/pdf?id=FOFJmR1oxt | 本文提出用于瞬时轨迹预测的双向一致扩散模型:BCDiff,通过设计一个相互指导机制来开发两个耦合扩散模型,该机制可以双向一致地逐步生成未观察到的历史轨迹和未来轨迹,以利用它们的互补信息相互指导进行预测。其次,由于去噪步骤初始阶段的轨迹存在较高噪声,模型引入一种门控机制学习轨迹预测和有限观察轨迹之间的权重,以平衡它们的贡献。BCDiff是一个无编码器的框架,可以和现有轨迹模型兼容。 |
2024/5/21 | 徐榕桧 | ACL2023 | Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes | https://arxiv.org/pdf/2305.02301 | 部署大型语言模型(llm)具有挑战性,因为它们在实际应用中内存效率低下且计算密集型。通常,研究人员通过使用标签数据进行微调或使用llm生成的标签进行蒸馏来训练更小的特定任务模型。然而,微调和蒸馏需要大量的训练数据才能达到与llm相当的性能。本文提出了一种新的机制Distilling Step-by-Step,作者通过提取LLM原理,作为在多任务框架内训练小模型的额外监督。实现(a)训练比llm更小的模型,(b)与微调或蒸馏相比,需要更少的训练数据。 |
2024/5/28 | 刘若尘 | NeurIPS2023 | Direct Preference Optimization: Your Language Model is Secretly a Reward Model | https://arxiv.org/pdf/2305.18290 | 如何将大语言模型与人类行为对齐一直以来是NLP领域研究的重点,其中使用人类反馈的强化学习(reinforcement learning from human feedback,RLHF)是其中的代表性工作。然而RLHF的训练过程复杂且不稳定,需要先训练一个奖励函数再通过强化学习过程对大语言模型进行微调,第一篇论文利用了一种奖励函数与最优生成策略(我们需要的LLM)之间的映射关系,将绕过了强化学习过程,实现了端到端的训练。 |
2024/5/28 | 张舜洋 | Arxiv.2404 | KAN:Kolmogorov–Arnold Networks | https://arxiv.org/pdf/2404.19756 | 本篇论文自官宣以来,便受到了学术圈广泛关注。它号称是能在部分任务上以更少的参数量,实现MLPs的实验结果。那么本周组会我将介绍KAN的设计思路,并简单分析它的计算量从哪儿来 |
2024/6/4 | 金志晗 | J.Comput.Phys2024 | Multi-stage neural networks: Function approximator of machine precision | https://arxiv.org/pdf/2307.08934 | 本文主要针对在实践中即使神经网络规模大,训练迭代时间长,也很难将预测误差降低到𝑂(1e−05)以下。为解决这个问题,作者开发了多阶段神经网络,将训练过程分为不同的阶段,每个阶段使用一个新的网络经优化以适应前一阶段的残差,使残差幅度大幅减小,证明多阶段神经网络有效地减轻了常规神经网络相关的频谱偏差,使其能够捕获目标函数的高频特征。此外,本文还证明回归问题和物理信息神经网络的多阶段训练的预测误差在有限次迭代内几乎可以达到双浮点的机器精度𝑂(1e−16),而仅使用单个神经网络很难达到这样的精确度。 |
2024/6/4 | 殷珺 | KDD2023 | When to Pre-Train Graph Neural Networks? From Data Generation Perspective! | https://arxiv.org/pdf/2303.16458 | 本文针对图神经网络预训练的可行性(预期收益)进行研究,基于"当下游任务数据能够以高概率从预训练数据中生成时,预训练具有高可行性"这一假设,引入Graphon作为图生成模块,提出W2PGNN框架。该框架对于给定的下游任务数据和预训练数据,能够估计出GNN预训练的预期收益。作者在节点分类、图分类任务的多个现实数据集上展开实验,验证了W2PGNN可行性估计和下游任务最佳性能之间存在较高的相关性。 |
2024/6/11 | 于志刚 | Arxiv.2402 | Towards Versatile Graph Learning Approach: from the Perspective of Large Language Models | https://arxiv.org/pdf/2402.11641 | 图结构数据是现实世界中最常用和最广泛的应用场景。对于不同的应用程序,大量不同的学习任务以及图领域中复杂的图学习过程给人类专家设计通用的图学习方法带来了挑战。面对这些挑战,大语言模型(LLMs)因为具有广泛的知识和类人智能,为之提供了一个潜在的解决方案。本文提出了一个新颖的概念原型,用于设计具有LLMs的通用图学习方法。 |
2024/6/19 | 杨珂懿 | ICLR2024 | DIFFUSION-TS: INTERPRETABLE DIFFUSION FOR GENERAL TIME SERIES GENERATION | https://arxiv.org/pdf/2403.01742 | 本文提出了Diffusion-TS,这是一种新颖的基于扩散的框架,通过使用具有解耦时间表示的transformer生成高质量的多变量时间序列样本,设计了深度分解结构来引导Diffusion-TS捕捉时间序列的语义意义,而transformer从噪声模型输入中挖掘详细的序列信息。不同于现有的基于扩散的方法,本文训练模型在每个扩散步骤中直接重建样本而不是噪声,并结合基于傅里叶的损失项。Diffusion-TS有望生成既满足解释性又真实的时间序列。此外,研究表明,Diffusion-TS可以扩展到条件生成任务,如预测和插补,而无需进行任何模型更改。 |
2024/6/19 | 曹敏君 | AAAI2024 | Higher-Order Graph Convolutional Network with Flower-Petals Laplacians on Simplicial Complexes | https://arxiv.org/pdf/2309.12971 | 尽管GNN在各种任务上取得了成功,但基于成对网络的基础本质上限制了它们在复杂系统中识别潜在高阶相互作用的能力。为了弥补这一能力差距,本文提出了一种利用简单复合物(SCs)丰富的数学理论的新方法。目前基于SC的GNN具有较高的复杂性和刚性,高阶相互作用强度的量化仍然具有挑战性。本文创新性地提出了一个higher-order Flower-Petals(FP)模型,将FP拉普拉斯算子纳入到SCs中。此外,本文引入了一个基于FP拉普拉斯算子的高阶图卷积网络(HiGCN),能够在不同的拓扑尺度上识别内在特征。通过使用可学习的图过滤器(每个FP拉普拉斯域中的一个参数组),可以识别不同的模式,其中过滤器的权重作为高阶交互强度的可量化度量。实证研究表明,本文所提出的模型在一系列图任务上实现了最先进的性能,并提供了一个可扩展和灵活的解决方案来探索图中的高阶交互。 |
2024/7/3 | 颜浩 | Arxiv.2405 | TAGA: Text-Attributed Graph Self-Supervised Learning by Synergizing Graph and Text Mutual Transformations | https://arxiv.org/pdf/2405.16800 | 本属性图上表示学习最近取得了广泛关注,但现有方法大多关注于监督学习范式,对标签数据较为依赖。本文介绍了一种新的文本图上自监督学习框架TAGA。其构造了两种可相互转化的视图,Text-of-Graph与Graph-of-Text,并通过对齐两个视图的表示来同时捕获文本图上的结构与语义知识。 |
2024/7/31 | 殷珺 | Arxiv.2405 | Vector Quantization for Recommender Systems: A Review and Outlook | https://arxiv.org/pdf/2405.03110 | 推荐系统中的向量量化技术综述,主要内容包括经典向量量化技术简介、推荐系统中的向量量化以及向量随机量化技术简介。向量量化旨在将大规模的数据向量表示压缩到可学习的小规模编码本(codebook),被用于加速最近邻搜索、注意力机制等。近年来,其离散化索引能力受到关注,与生成式推荐系统紧密结合,作为推荐系统索引模块(indexer)得到广泛应用。 |
2024/7/31 | 程铭 | KDD2024 | Spatio-temporal Early Prediction based on Multi-objective Reinforcement Learning | https://arxiv.org/pdf/2406.04035 | 在预测任务中,准确性和时效性往往难以同时优化。过早得到的预测结果可能会导致较高的误报率,而能够获取更多信息的延迟预测可能会使结果失去时效性。在野外火灾、犯罪和交通拥堵等现实场景中,及时预测对于保障人类生命财产安全至关重要。因此,平衡准确性和时效性是研究的一大热点。本文提出了一种基于多目标强化学习的时空早期预测模型,该模型可以根据偏好实施最优策略,或基于少量样本推断偏好。该模型解决了两个主要挑战:1)提高早期预测的准确性;2)提供了一种能够确定每个区域最优预测时间的优化策略。 |
2024/8/28 | 刘若尘 | SIGIR2024 | Enhancing Sequential Recommenders with Augmented Knowledge from Aligned Large Language Models | https://dl.acm.org/doi/pdf/10.1145/3626772.3657782 | 传统序列推荐往往只考虑user-item之间的交互信息,而没有利用关于item的真实世界的知识,将大语言模型应用于序列推荐中则可以弥补了这一缺陷。然而由于大语言模型缺乏对序列行为模型的建模能力以及推理时间过长,如何将LLM用于序列推荐仍然是一个挑战。为解决上述挑战,本文提出了一种将传统ID-based 序列推荐与LLM相结合的方法,使用LLM来为item生成与交互相对齐的文本,以此达到语义增强的效果。 |
2024/9/4 | 王梓辰 | AAAI2024 | BAT: Behavior-Aware Human-Like Trajectory Prediction for Autonomous Driving | https://arxiv.org/pdf/2312.06371 | 在实现全自动驾驶汽车的过程中,准确预测周围车辆的未来轨迹是一项重大挑战。本文提出了一种新的行为感知轨迹预测模型(BAT),由行为感知、交互感知、优先级感知和位置感知模块组成,可以感知潜在交互,从而在不严格分类驾驶行为的情况下实现更高级的学习。本文最关键的贡献是,使用动态几何图方法,并设计行为感知准则,不需要在训练过程中人工标注行为类别,解决了离散行为分类和选择适当时间窗口的挑战。实验结果表明,模型在NGSIM、highD、RounD和MoCAD四个数据集上均实现了较好的效果,即使在减少训练数据部分(25%)的情况下,模型也优于大多数baseline。 |
2024/9/11 | 徐榕桧 | KDD2024 | PATE: Proximity-Aware Time series anomaly Evaluation | https://arxiv.org/pdf/2405.12096 | 评估时间序列数据中的异常检测算法至关重要,因为在实时分析和数据驱动策略至关重要的各个领域,不准确性可能导致错误的决策。传统的性能指标无法捕捉复杂的时间动态和时间序列异常的特定特征,例如早期检测和延迟检测。本文提出了一种结合预测与异常区间间时间关系的新型评价指标——邻近感知时间序列异常评价(PATE)。PATE使用基于邻近度的加权方法,考虑异常区间周围的缓冲区,从而能够对探测进行更详细、更明智的评估。实验表明,许多SOTA模型可能在某些场景下被过度评估,而PATE能够提供更公平的模型比较,从而指导未来的研究朝着开发更有效和更准确的检测模型的方向发展。 |
2024/9/18 | 于志刚 | KDD2024 | GAugLLM: Improving Graph Contrastive Learning for Text-Attributed Graphs with Large Language Models | https://arxiv.org/pdf/2406.11945 | GAugLLM,它是为文本属性图设计的,能够利用丰富的文本属性和 LLM 联合进行特征级和边级扰动。它分为两个模块:混合 prompt 专家的方法通过直接干扰输入文本属性来生成增强特征;协同边修改器方案利用文本属性进行结构扰动。 |
2024/9/18 | 吴微 | Arxiv.2312 | Towards an end-to-end artificial intelligence driven global weather forecasting system | https://arxiv.org/pdf/2312.12462v1 | 该文章提出了一种基于AI的数据同化模型Adas,并和先进的基于AI的预报模型风乌结合,构建了首个端到端的基于AI的全球天气预报系统:FengWu-Adas。Adas引入了置信度矩阵,使用门控卷积处理稀疏观测,并使用门控交叉注意力捕获背景与观测之间的相互作用。研究表明,Adas能够同化全球观测数据,产生高质量的分析,使系统能够长期稳定运行。 |
2024/9/25 | 杨珂懿 | ICDE2024 | PrivShape: Extracting Shapes in Time Series under User-Level Local Differential Privacy | https://arxiv.org/pdf/2404.03873 | 本文提出了 PrivShape,这是一种基于用户级别 LDP 的 Trie 机制,用于保护所有元素。PrivShape 首先转换时间序列以减少其长度,然后采用 Trie 扩展和两级细化来提高效用。通过对真实世界数据集的大量实验,我们证明了 PrivShape 在适应离线使用时优于 PatternLDP,并且可以有效地提取频繁的形状。 |
2024/10/10 | 曹敏君 | ICLR2024 | Biased Temporal Convolution Graph Network for Time Series Forecasting with Missing Values | https://openreview.net/forum?id=O9nZCwdGcG | 本文提出了一种偏置时间卷积图网络BiTGraph,同时捕获时间依赖性和空间结构。多元时间序列预测在气象研究、交通管理和经济规划等各种应用中发挥着重要作用。在过去的几十年中,通过探索时间动态和空间相关性,人们为实现准确可靠的预测做出了许多努力。特别是,近年来基于 Transformer 的方法的发展显着提高了长期预测的准确性。现有的预测方法通常假设输入数据完整,然而,在实践中,由于设备故障或昂贵的数据采集,时间序列数据经常被部分观察到,这可能严重阻碍现有方法的性能。简单地使用插补方法不可避免地会涉及误差积累并导致次优解决方案。本文提出的BiTGraph方法将偏差注入到两个精心开发的模块中(多尺度实例 PartialTCN 和偏差 GCN)以解释缺失的模式。实验结果表明提出的模型能够达到在五个真实世界基准数据集上相比现有方法提高9.93%。论文和代码大家感兴趣可以先了解一下。 |
2024/10/17 | 程铭 | KDD2023 | Hierarchical Reinforcement Learning for Dynamic Autonomous Vehicle Navigation at Intelligent Intersections | https://dl.acm.org/doi/pdf/10.1145/3580305.3599839 | 文章提出了 NavTL,这是一种基于学习的框架,用于人类驾驶车辆和自动驾驶汽车共存的混合交通场景中联合控制交通信号计划和自动车辆重新路由。其目标是通过最大限度地减少十字路口的拥堵,同时引导自动驾驶车辆避开暂时拥堵的道路,从而提高出行效率并减少总出行时间。 |
2024/10/24 | 颜浩 | Arxiv.2410 | GraphCLIP: Enhancing Transferability in Graph Foundation Models for Text-Attributed Graphs | https://arxiv.org/pdf/2410.10329 | 本文提出的GraphCLIP通过将图与文本总结进行对比预训练来学习图基础模型。主要包括利用LLM生成大规模"图-总结"配对数据,并设计了一种图提示方法来减轻少样本学习场景下的灾难性遗忘。 |
2024/10/31 | 殷珺 | Arxiv.2405 | NoteLLM-2: Multimodal Large Representation Models for Recommendation | https://arxiv.org/pdf/2405.16789 | 本文探索基于大语言模型的多模态推荐系统,尝试采用:(1)multi-modal in-context learning和(2)late fusion来缓解现有模型过度依赖文本、忽视视觉信息的问题。 |
2024/10/31 | 金志晗 | Nature 2023 | Skilful nowcasting of extreme precipitation with NowcastNet | https://www.nature.com/articles/s41586-023-06184-4 | 这篇文章于2023年7月发表于Nature正刊,清华大学与中国气象局基于极端降水预报目前的方法容易出现强度、位置误差的问题,提出NowcastNet,它将物理演化方案和生成式学习统一到具有端到端预测优化的神经网络中,效果上超越了谷歌的短临降水预报模型DGMR。 |
2024/11/07 | 刘若尘 | KDD 2023 | Generative Flow Network for Listwise Recommendation | https://dl.acm.org/doi/abs/10.1145/3580305.3599364 | List-wise recommendation旨在将呈现在用户面前的所有item作为一个整体向用户进行推荐。研究表明,基于列表的方式能通过建模列表内部的物品关联性提升推荐效果。然而,探索组合列表空间具有挑战性,使用交叉熵损失的方法可能存在多样性不足的问题。本文提出GFN4Rec,一种生成式方法,借鉴流网络的思想以确保列表生成概率与其奖励的对齐。其核心优势在于对数尺度奖励匹配损失,提升了生成的多样性,并通过自回归物品选择模型捕捉物品间的相互影响和列表的未来奖励。感兴趣的同学可以提前浏览论文 |
2024/11/28 | 徐榕桧 | KDD 2023 | DM-PFL: Hitchhiking Generic Federated Learning for Efficient Shift-Robust Personalization | https://dl.acm.org/doi/pdf/10.1145/3580305.3599311 | 个性化联邦学习上的已有方法容易受到客户端本地训练和测试数据之间分布变化的影响,并且在本地设备上涉及高训练工作量。为了克服这些缺点,作者探索了联邦学习的高效漂移鲁棒(Shift-Robust)个性化。其原理是搭全局模型的便车,并以最小的额外训练开销来提高个性化模型的移位鲁棒性。具体来说,作者提出了一种新的框架DM-PFL,它利用双重掩蔽机制来训练全局和个性化模型,实现权重级参数共享和端到端稀疏训练。 |
2024/12/05 | 王梓辰 | CVPR 2024 | SocialCircle: Learning the Angle-based Social Interaction Representation for Pedestrian Trajectory Prediction | https://arxiv.org/pdf/2310.05370 | 在预测行人轨迹的时候,行人之间社会交互的多样性和不确定性使预测具有很大的挑战性。目前轨迹预测中建模交互的方法可以分为基于模型的和无模型的两类,基于模型的方法以特定的“规则”作为预测的主要基础,无模型的方法主要由数据驱动的方式进行预测。然而,基于模型的方式难以设计一个适合大多数社会交互的通用“规则”,无模型的方式严重依赖不同的网络结构,缺乏可解释性。本篇文章受海洋动物在水下通过回声定位同伴位置的启发,提出基于角度的可训练社会交互表示法,即SocialCircle,用于持续反应目标行人的不同角度方向上的社会交互环境。实验表明,SocialCircle 不仅在提高了预测性能,而且定性分析实验表明它有助于在预测行人轨迹时更好地模拟社会互动,从而与人类的直觉保持一致。 |
2024/12/12 | 于志刚 | NeurIPS 2024 | Beyond Redundancy: Information-aware Unsupervised Multiplex Graph Structure Learning | https://arxiv.org/abs/2409.17386 | 现实图数据通常包含大量与任务无关的噪声,严重影响了无监督多重图学习(UMGL)的性能。此外,现有的方法主要依赖于对比学习来最大化不同视图之间的互信息,这将它们限制于多视图冗余场景,在非冗余场景有一定的局限性。本文聚焦于如何以无监督的方式从原始多重图中学习融合图,从而减轻与任务无关的噪声,同时保留充分的任务相关信息,提出了一种信息感知的无监督多重图融合框架(InfoMGF)。 |
2024/12/19 | 杨珂懿 | NeurIPS 2024 | Large Language Models as Urban Residents: An LLM Agent Framework for Personal Mobility Generation | https://arxiv.org/abs/2402.14744 | 本文介绍了一种使用大型语言模型(LLM)集成到智能体框架中的新颖方法,以实现灵活高效的个人移动轨迹生成。LLM通过有效处理语义数据并提供对各种任务建模的多功能性,克服了以前模型的局限性。本文的方法解决了将LLM与现实世界城市交通数据结合起来的迫切需求,重点关注三个研究问题:将LLM与丰富的移动数据结合起来,制定可靠的移动生成策略,以及探索LLM在城市交通中的应用。关键的技术贡献是提出了一个新颖的LLM智能体框架,该框架考虑了个人移动模式和动机,包括使LLM与现实世界移动数据保持一致的自洽方法以及用于生成可解释移动的检索增强策略。在实验研究中,使用真实世界数据进行综合验证。这项研究标志着基于现实世界人类移动数据设计用于移动生成的 LLM 智能体框架的开创性工作,为城市交通分析提供了一个有前景的工具。 |
2024/12/26 | 曹敏君 | NeurIPS 2024 | AutoTimes:Autoregressive Time Series Forecasters via Large Language Models | https://arxiv.org/abs/2402.02370 | 作者团队来自清华大学。本文探索基于大语言模型的自回归时间序列预测,(1)提出AutoTimes将 LLM 重新用作自回归时间序列预测器,该预测器可以处理灵活的序列长度并实现与流行模型一样的有竞争力的性能。(2)提出了token-wise prompting,利用相应的时间戳使该方法适用于多模态场景。(3)AutoTimes继承了LLM的零样本和上下文学习能力。 |
- Downloads last month
- 48