首页天道酬勤2017年计量经济学论文(2019形势与政策论文参考文献)

2017年计量经济学论文(2019形势与政策论文参考文献)

admin 11-29 06:25 205次浏览

选自SNU

作者:蜜蜂林等

机器心脏编译

参与人:史密斯

近几十年来,图像超分辨率,尤其是单幅图像超分辨率(SISR),受到了广泛的研究关注。SISR问题旨在从一幅低分辨率图像重建一幅高分辨率图像。通常,低分辨率图像和原始高分辨率图像会根据情况而变化。许多研究假设低分辨率图像是高分辨率图像的下采样结果。近年来,深度神经网络极大地改善了随机共振问题中峰值信噪比(PSNR)的性能。然而,这种网络也暴露出其在架构优化原则上的局限性。

论文:http://cv.snu.ac.kr/publication/conf/2017/EDSR_fixed.pdf

摘要:近年来,随着深度卷积神经网络的发展,超分辨率的研究取得了进展。残差学习方法尤其能显示其性能的提高。在这篇论文中,我们开发了一个增强的深度超分辨率网络(——EDSR),它优于最新的SR方法。我们的模型性能的显著提高是由于在优化过程中消除了传统剩余网络中不必要的模块。另一个原因是,我们在保持培训过程稳定的同时,扩大了模型的规模。我们还提出了一种新的多尺度深度超分辨率系统(—— MDSR)和训练方法,可以在单个模型中重建具有不同尺度因子的超分辨率图像。该方法在基准数据集上表现出优于当前一流方法的性能,并通过赢得NTIRE2017超级分辨率挑战赛证明了其优越性。

图1:我们的单尺度SR方法(EDSR)和其他算法的 4超分辨率结果的比较。

图2:原始ResNet、SRResNet和我们剩余模块的比较。

我们比较了每个网络模型的基本模块(原始的ResNet、SRResNet和我们提出的网络)。我们移除了网络中的批量归一化层(Nah等人在他们的图像去模糊相关工作中提出的方法)。因为批处理标准化层标准化了特征,并且它们还消除了网络中的范围灵活性,所以最好是消除这些批处理标准化层。这种简单的修改可以大大提高性能。

此外,GPU的内存使用也将显著减少(因为批处理归一化层将消耗与前一卷积层相同的内存量)。

与SRResNet相比,我们没有批处理规范化层的基准模型,在训练过程中减少了大约40%的内存使用。因此,我们可以创建一个更大的模型,在计算资源有限的情况下,该模型比传统的ResNet具有更好的性能。

图3:单尺度SR网络—— EDSR结构。

我们用我们提出的图2中的残差模块构建了基准(单尺度——单尺度)模型。它的结构类似于SRResNet,但是我们的模型在剩余模块之外没有ReLU激活层。此外,我们的基准模型也没有剩余的缩放层,因为我们只对每个卷积层使用64维特征映射。在我们最终的单尺度模型(——EDSR)中,我们通过设置B=32、F=256和比例因子0.1来扩展基准模型。结构如图3所示。

当上采样因子为3和4时,我们用预训练的2网络初始化模型参数。这种预训练方法加快了训练过程,提高了最终性能,如图4所示。在上采样 4的情况下,如果我们使用预训练的scale2模型(蓝线),训练将比随机初始化的训练(绿线)收敛得更快。

图4:在 4模型(EDSR)中使用预训练的 2网络的结果。红线代表绿线的最佳性能。训练时用10张图片进行验证。

从图 4 中的观察结果我们得出结论,多尺度情况下的超分辨率是具有相互关联性的任务。我们利用 VDSR 的尺度间相关性创建了多尺度结构,从而进一步探索了这个想法。我们设计了带有一个单一主分支的基准(多尺度 —— multi-scale)模块 ,含有 B = 16 的残差模块,所以大部分参数都可以在不同尺度间进行共享,如图 5 所示。

在我们的多尺度结构中,我们引入了尺度特定(scale-specific)的处理模块,以在多尺度下控制超分辨率。首先,预处理模块被置于网络的前端,以减少不同尺度的输入图像的变化幅度,每一个预处理模块包括两个 5×5 内核(kernels)的残值区块(residual blocks )。通过在预处理模块中采用较大的内核,我们可以使尺度特定的部分保持浅层(shallow)状态,在网络的早期阶段可以覆盖较大的接受域(receptive field)。

在模型的末端,尺度特定的升采样模块被并行放置,以进行多尺度重构。其升采样(upsampling)模块与单尺度模型中的情况相类似。

图 5:多尺度 SR 网络(multi-scale SR network —— MDSR)结构。

表 1:模型规格。

图 6:本文模型与其它方法在 ×4 超分辨率的情况下的质量比较。

图 7:我们在 NTIRE2017 超分辨率挑战赛的结果图(在未知降尺度 ×4 类别下的结果)。在这次挑战赛中,我们把训练中的 0791 到 0800 的图像排除在外以用于验证。我们没有对未知的降尺度(downscaling)类别使用几何性自集合(geometric self-ensemble)。

结论

本篇论文提出了一种增强型超分辨率算法,通过在传统 ResNet 结构中去除不必要模块,在保持模型紧凑的情况下提升了性能表现。通过采用残差缩放(residual scaling )方法来对大型模型进行稳定的训练。这里提出的单尺度模型超越了现有模型,展现出了一流的水准。

此外,作者提出的多尺度超分辨率网络降低了模型尺寸和训练时间。通过使用尺度依赖型(scale-dependent)模块和共享型主网络,我们的多尺度模型可以在一个统一框架中有效地处理不同尺度规模的超分辨率。

Vue3+Vue-PDF怎么实现PDF文件在线预览简述Java中的注解IOS网络请求之AFNetWorking3.x使用详情微信小程序如何实现自定义弹窗组件LenientJSONParserforPython自定义数据 云主机 UHost
供电npj什么意思(npj属于sci吗) arm117刷机(ADO台式电脑怎么刷机)
相关内容