当前位置:首页 > 天道酬勤 > 正文内容

发表论文(cmu 15112)

张世龙2021年12月20日 13:25天道酬勤1320

雷锋网AI科技评论称,机器学习顶会ICML 2019最近公布了接收论文列表,许多企业研究院也按照惯例介绍了自己的招聘论文。 但新鲜的是,今年卡内基梅隆大学(CMU )也刊登了来自CMU师生的录取论文,共有33篇。 其实在UC伯克利、斯坦福、CMU等计算机领域实力较高的大学每年都会有很多顶级会诊论文,多样性和深度都很好,但宣传力度往往不及企业级的AI研究机构。 因此,CMU的这篇博客提醒我们不要忘记顶级大学的学术实力。 届时,与会的研究者也可以在海报前期讨论这些前沿研究的进展。

雷锋网AI科技评论简要介绍论文列表如下。

satisticalfoundationsofvirtualdemocracy

“虚拟民主”算法的统计学基础

358处理器.信息/纸张/虚拟. pdf

tarmac :目标多代理通信

TarMAC :具有目标的多代理通信

https://arxiv.org/abs/1810.11187

akerneltheoryofmoderndataaugmentation

现代数据放大的核理论

https://arxiv.org/abs/1803.06084

myopicposteriorsamplingforadaptivegoalorienteddesignofexperiments

面向适应性目标的实验设计短视后采样

nearestneighborandkernelsurvivalanalysis 3360 nonasymptoticerrorboundsandstrongconsistencyrates

最近邻及核生存方法分析:非渐近错误边界及强相关率

政策委员会3360贸易会计

战略证书:为加强信任而学习

https://arxiv.org/abs/1811.03056

depcounterfactualregretminimization

对事实后悔的最小化方法

https://arxiv.org/abs/1811.00164

domainadaptationwithasymmetrically-relaxeddistributionalignment

基于非对称释放分布对齐的区域自适应

https://arxiv.org/abs/1903.01689

(有趣的是,这篇论文的第一作者名叫Yifan Wu )

provablyefficientrlwithrichobservationsvialatentstatedecoding

通过潜在状态代码的丰富观察,可以得到可证明的有效强化学习

https://arxiv.org/abs/1901.09018

abaselineforanyordergradientestimationinstochasticcomputationgraphs

可用于任意阶随机计算图的梯度估计基线方法

gradientdescentfindsglobalminimaofdeepneuralnetworks

梯度下降可以找到深度神经网络的局部极小值

https://arxiv.org/abs/1811.03804

稳定-精度选择性接口整数初始化

稳定预测的乐观反事实后悔最小化方法

https://arxiv.org/abs/1902.04982

regret circuits 3360可合成关键帧管理器

的循环:不同后悔最小化方法的组合可能性

https://arxiv.org/abs/1811.02540

可升级学习-基础学习

基于梯度的元学习方法的可证明保证

https://arxiv.org/abs/1902.10644

dimensionalityreductionfortukeyregression

土耳其回归方法的降维

certifiedadversarialrobustnessviarandomizedsmoothing

通过随机平滑达到可证明的抗性

鲁棒性

https://arxiv.org/abs/1902.02918

Provably Efficient Imitation Learning from Observation Alone

证明仅仅从观察就可以实现高效的模仿学习

SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver

SATNet:通过可微分可满足性解算器连接深度学习和逻辑推理

Collective Model Fusion for Multiple Black-Box Experts

多个黑盒专家的群体模型融合方法

http://kingsfordlab.cbd.cmu.edu/publication/hoang-2019-fusion/

Fine-Grained Analysis of Optimization and Generalization for Overparameterized Two-Layer Neural Networks

过参数化的双层神经网络的优化及泛化性的细粒度分析

https://arxiv.org/abs/1901.08584

Width Provably Matters in Optimization for Deep Linear Neural Networks

在深度线性神经网络中证明宽度也有作用

https://arxiv.org/abs/1901.08572

Causal Discovery and Forecasting in Nonstationary Environments with State-Space Models

在非固定环境下用状态空间模型进行因素发现和预测

Uniform Convergence Rate of the Kernel Density Estimator Adaptive to Intrinsic Volume Dimension

让核密度估计器的统一化收敛速度适应本征体积维度

https://arxiv.org/abs/1810.05935

Faster Algorithms for Boolean Matrix Factorization

更快的布尔矩阵分解算法

Contextual Memory Trees

背景记忆树

https://arxiv.org/abs/1807.06473

Fault Tolerance in Iterative-Convergent Machine Learning

迭代收敛机器学习方法的错误容忍度的研究

https://arxiv.org/abs/1810.07354

Wasserstein Adversarial Examples via Projected Sinkhorn Iterations

通过投影 Sinkhorn 迭代生成 Wasserstein 对抗样本

https://arxiv.org/abs/1902.07906

Learning to Explore via Disagreement

通过不一致学习探索

What is the Effect of Importance Weighting in Deep Learning?

深度学习中重要性权重的效果是什么?

https://arxiv.org/abs/1812.03372

Adversarial camera stickers: A physical camera-based attack on deep learning systems

对抗性相机贴纸:针对深度学习系统的基于物理摄像机的攻击

https://arxiv.org/abs/1904.00759

On Learning Invariant Representation for Domain Adaptation

关于为领域适应学习不变的表征

https://arxiv.org/abs/1901.09453

Finding Options that Minimize Planning Time

寻找能够减少规划时间的方法

https://arxiv.org/abs/1810.07311

Tight Kernel Query Complexity of Kernel Ridge

核岭回归的核查询复杂度分析

ICML 2019 将于今年 6 月 10 日至 15 日在美国加州长滩举行。雷锋网 AI 科技评论到时也会进行多方位的报道,敬请继续关注。

扫描二维码推送至手机访问。

版权声明:本文由花开半夏のブログ发布,如需转载请注明出处。

本文链接:https://www.zhangshilong.cn/work/25652.html

标签: cmu
分享给朋友:

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。