首页
Python基础
环境配置
工具代码
机器学习
分类算法
推荐算法
优化算法
深度学习
计算机视觉
图像分类
图像生成
目标检测
语义分割
自然语言处理
文本分类
机器翻译
时间序列处理
MTS表示学习
MTS预测
MTS聚类
终身学习
关于我们
历史记录
1
【时间序列-表示学习】多变量时间序列表示学习-对比算法
2
【环境配置】Conda 开发环境配置基础
3
【环境配置】Linux GPU 环境配置(驱动、Cuda和Cudnn安装)
4
【图像分类】关于ViT性能改进的一些个尝试
5
【时间序列-论文解读】连接点:图神经网络的多变量时间序列预测
览平科技
累计撰写
22
篇文章
累计创建
2
个标签
累计收到
1
条评论
栏目
首页
Python基础
环境配置
工具代码
机器学习
分类算法
推荐算法
优化算法
深度学习
计算机视觉
图像分类
图像生成
目标检测
语义分割
自然语言处理
文本分类
机器翻译
时间序列处理
MTS表示学习
MTS预测
MTS聚类
终身学习
关于我们
历史记录
搜索
标签搜索
无监督学习
有监督学习
目 录
CONTENT
以下是
深度学习
相关的文章
2022-08-13
【时间序列-表示学习】多变量时间序列表示学习-对比算法
多变量时间序列表示学习-对比算法1. A transformer-based framework for multivariate time series representation learning (TST ICML’21)本文提出了一个基于 Transformer 编码器架构的多变量时间序列
2022-08-13
2704
0
0
MTS表示学习
深度学习
时间序列处理
2022-08-04
【环境配置】Linux GPU 环境配置(驱动、Cuda和Cudnn安装)
Linux GPU 环境配置(驱动、Cuda和Cudnn安装)
2022-08-04
1427
0
0
Python 基础
深度学习
环境配置
2022-06-29
【图像分类】关于ViT性能改进的一些个尝试
1 基础模型介绍1.1 ViTViT (Vision Transformer) 模型结合了CV和NLP领域的知识,它首先将原始图像分割为固定大小的若干块,并对每个图像块进行线性嵌入将其扁平化为一个序列,然后把得到的向量序列输入到原始Transformer模型的编码器中,最后连接到全连接层,对图片进行
2022-06-29
1177
0
0
深度学习
计算机视觉
图像分类
2022-06-14
【时间序列-论文解读】连接点:图神经网络的多变量时间序列预测
长期以来,建模多变量时间序列一直是吸引来自不同领域的研究人员的主题,包括经济、金融和交通。多变量时间序列预测背后的一个基本假设是其变量相互依赖,但仔细观察,可以公平地说,现有方法未能充分利用成对变量之间的潜在空间依赖性。与此同时,近年来,图神经网络(GNN)在处理关系依赖方面表现出了很高的能力。 GNN 需要明确定义的图结构来进行信息传播,这意味着它们不能直接应用于事先不知道依赖关系的多变量时间序列。在本文中,我们提出了一个专门为多变量时间序列数据设计的通用图神经网络框架。我们的方法通过图形学习模块自动提取变量之间的单向关系,可以轻松地将变量属性等外部知识集成到其中。进一步提出了一种新颖的混合跳传播层和扩张的初始层来捕获时间序列内的空间和时间依赖性。图学习、图卷积和时间卷积模块在端到端框架中联合学习。实验结果表明,我们提出的模型在 4 个基准数据集中的 3 个上优于最先进的基线方法,并在两个提供额外结构信息的交通数据集上实现了与其他方法相当的性能。
2022-06-14
1166
0
0
MTS预测
深度学习
时间序列处理
2022-06-13
【时间序列-论文解读】用于深度时空图建模的 Graph WaveNet
时空图建模是分析系统中组件的空间关系和时间趋势的一项重要任务。假设实体之间的底层关系是预先确定的,现有方法大多捕获对固定图结构的空间依赖性。但是,显式的图结构(关系)不一定反映真正的依赖关系,并且由于数据中的不完整连接,可能会丢失真正的关系。此外,现有方法无法有效捕捉时间趋势,因为这些方法中使用的 RNN 或 CNN 无法捕捉远程时间序列。为了克服这些限制,我们在本文中提出了一种新颖的图神经网络架构 Graph WaveNet,用于时空图建模。通过开发一种新颖的自适应依赖矩阵并通过节点嵌入来学习它,我们的模型可以精确地捕获数据中隐藏的空间依赖关系。使用堆叠扩张的一维卷积组件,其感受野随着层数的增加呈指数增长,Graph WaveNet 能够处理非常长的序列。这两个组件无缝集成在一个统一的框架中,整个框架以端到端的方式学习。在两个公共交通网络数据集 METR-LA 和 PEMS-BAY 上的实验结果证明了我们算法的优越性能。
2022-06-13
1513
0
0
MTS表示学习
深度学习
时间序列处理
2022-06-11
【时间序列-论文解读】用于流量预测的自适应图卷积循环网络
在相关的时间序列数据中建模复杂的空间和时间相关性对于理解交通动态和预测不断发展的交通系统的未来状态是必不可少的。最近的工作重点是设计复杂的图神经网络架构,以借助预定义的图来捕获共享模式。在本文中,我们认为学习特定于节点的模式对于流量预测至关重要,而预定义的图是可以避免的。为此,我们提出了两个自适应模块,用于增强具有新功能的图卷积网络 (GCN):1) 节点自适应参数学习 (NAPL) 模块,用于捕获特定于节点的模式; 2)一个数据自适应图生成(DAGG)模块,用于自动推断不同流量系列之间的相互依赖关系。我们进一步提出了一种自适应图卷积循环网络(AGCRN),以基于两个模块和循环网络自动捕获交通序列中细粒度的空间和时间相关性。我们在两个真实世界交通数据集上的实验表明,在没有关于空间连接的预定义图的情况下,AGCRN 的性能明显优于最先进的技术。
2022-06-11
1107
0
0
MTS预测
深度学习
时间序列处理
2022-06-09
【时间序列-论文解读】用于序列建模的通用卷积和循环网络的实证评估
对于大多数深度学习从业者来说,序列建模是循环网络的代名词。然而最近的结果表明,卷积架构在音频合成和机器翻译等任务上的性能优于循环网络。给定一个新的序列建模任务或数据集,应该使用哪种架构?我们对用于序列建模的通用卷积和循环架构进行了系统评估。这些模型在广泛的标准任务中进行评估,这些标准任务通常用于对循环网络进行基准测试。我们的结果表明,简单的卷积架构在各种任务和数据集上都优于典型的循环网络,例如 LSTM,同时展示了更长的有效记忆。我们得出结论,应该重新考虑序列建模和循环网络之间的共同关联,并且应该将卷积网络视为序列建模任务的自然起点。
2022-06-09
1224
0
0
MTS表示学习
深度学习
时间序列处理
2022-06-08
【时间序列-论文解读】用于多变量时间序列预测的频谱时间图神经网络
多变量时间序列预测在许多实际应用中起着至关重要的作用。这是一个具有挑战性的问题,因为需要同时考虑变量内时间相关性和变量间相关性。
2022-06-08
2035
0
0
MTS预测
深度学习
时间序列处理
2022-06-03
【终身学习-论文解读】批量在线持续学习的自适应正交投影
灾难性遗忘是持续学习的主要障碍。 最先进的方法之一是正交投影。 这种方法的想法是通过仅在与所有先前任务输入所跨越的子空间正交的方向上更新网络参数或权重来学习每个任务。 这确保不会干扰已学习的任务。 使用该想法的系统 OWM 与其他最先进的系统相比表现非常出色。 在本文
2022-06-03
688
0
0
深度学习
终身学习
2022-04-16
【论文解读】关于self-attention和卷积的整合
卷积和自注意力是表示学习的两种强大技术,它们通常被认为是两种截然不同的对等方法。在本文中,我们表明它们之间存在很强的潜在关系,因为这两种范式的大部分计算实际上是通过相同的操作完成的。具体来说,我们首先展示了内核大小为 k×k 的传统卷积可以分解为 $k^2$ 个单独的 1×1 卷积,然后进行移位和求
2022-04-16
965
0
0
深度学习
计算机视觉
图像分类
1
2