acl2021年接收论文列表

Submitted by neurta on Mon, 07/19/2021 - 09:26
规则增强无监督选区解析 Atul Sahay、Anshul Nasery、Ayush Maheshwari、Ganesh Ramakrishnan 和 Rishabh Iyer 迁移学习如何影响深度 NLP 模型中的语言知识? Nadir Durrani、Hassan Sajjad 和 Fahim Dalvi 科学文章分类的不确定性意识审查幻觉 Korbinian Friedl、Georgios Rizos、Lukas Stapen、Madina Hasan、Lucia Specia、Thomas Hain 和 Bjorn Schuller Highlight-Transformer:利用关键短语感知注意力改进抽象多文档摘要 刘帅奇、曹建农、杨若松和文志远 端到端面向任务的对话中基于约束的知识库蒸馏 Dinesh Raghu、Atishya Jain、Mausam - 和 Sachindra Joshi 超越元数据:论文作者如何评价他们使用的语料库 Nikolay Kolyada、Martin Potthast 和 Benno Stein

Tags

kdd2021接受论文与主讲嘉宾

Submitted by neurta on Fri, 07/16/2021 - 08:04
Alphacore:基于数据深度的核心分解  作者: Friedhelm Victor(柏林工业大学)*;Cuneyt G Akcora(曼尼托巴大学);Murat Kantarcioglu(德克萨斯大学达拉斯分校);Yulia R. Gel(德克萨斯大学达拉斯分校) 一种用于估计大图上马尔可夫链的 Kemeny 常数的有效且可扩展的算法  作者: Shiju Li(佛罗里达理工学院);Xin Huang(佛罗里达理工学院);Chul-Ho Lee(佛罗里达理工学院)* 平衡子模块性和成本的有效框架  作者: Sofia M Nikolakaki(波士顿大学)*;Alina Ene(波士顿大学);Evimaria Terzi(波士顿大学) Class-wise Robustness 在对抗训练中的分析与应用  作者:齐天(浙江大学)*;鲲琨(浙江大学);Kelu Jiang(浙江大学);吴飞(浙江大学);Y Wang (北京大学) 近似图传播  作者:王汉志(中国人民大学);何明国(中国人民大学);魏哲伟(中国人民大学)*;王思博(香港中文大学);叶远(北京理工大学);杜晓勇(中国人民大学);文继荣(中国人民大学) 用于高效准确时间序列分类的 Apriori 卷积  作者: Angus Dempster(莫纳什大学)*;Daniel F Schmidt(莫纳什大学);杰弗里·韦伯(蒙纳士) 我们真的取得了很大进展吗?重新审视、基准测试和改进异构图神经网络  作者:吕青松(清华大学);丁明(清华大学);刘强(中国科学院信息工程研究所);陈玉祥(清华大学);冯文政(清华大学);何思明(宾夕法尼亚大学);周常(阿里巴巴集团);蒋建国(中国科学院信息工程研究所);董宇晓(脸书AI);唐杰(清华大学)* 用于工作流动性预测的注意力异构图嵌入  作者:张乐(中国科学技术大学)*;丁舟(中国科学技术大学);朱恒书(百度人才智能中心,百度公司);许彤(中国科学技术大学);扎瑞(中国科学技术大学);陈恩红(中国科学技术大学);熊辉(罗格斯大学) 异类投标人的拍卖设计  作者: Negin Golrezaei(麻省理工学院)*;马克斯林 (); Vahab Mirrokni(谷歌);哈米德·纳泽扎德 (USC) 使用代表性示例审计多样性  作者: Vijay Keswani(耶鲁大学)*;L. Elisa Celis(耶鲁大学) 平衡网络对齐中的一致性和差异  作者: Si Zhang(伊利诺伊大学厄巴纳-香槟分校)*;Hanghang Tong(伊利诺伊大学厄巴纳-香槟分校);龙晋(脸书);夏应龙(脸书);郭云松(脸书) 巴伐利亚:具有方差感知 Rademacher 平均值的介数中心性近似  作者: Cyrus Cousins(布朗大学);Chloe Wohlgemuth(阿默斯特学院);Matteo Riondato(阿默斯特学院)* BLOCKSET(块对齐序列化树):减少树集成部署的推理延迟

Learn to Place: FPGA Placement Using Reinforcement Learning and Directed Moves

Submitted by neurta on Tue, 06/29/2021 - 10:49
Simulated Annealing (SA) is widely used in FPGA placement either as a standalone algorithm or a refinement step after initial analytical placement. SA-based placers have been shown to achieve high-quality results at the cost of long runtimes. In this paper, we propose an improvement of SA-based placement using directed moves and Reinforcement Learning (RL). The proposed directed moves explore the solution space more efficiently than traditional random moves, and target both wirelength and timing optimizations. The RL agent further improves efficiency by dynamically selecting the most effective move types as optimization progresses. Taken together, these enhancements allow more efficient exploration of the large solution space than traditional annealing. Experimental results on the VTR benchmark suite show that our technique outperforms the widely-used VTR 8 placer across a wide range of CPU-quality trade-off points, achieving 5-11% reduced wirelength and comparable or shorter critical path delays in a given runtime, or 33-50% shorter runtimes for a target quality point.

CVPR2021最新信息及已接收论文/代码

Submitted by neurta on Tue, 06/22/2021 - 09:23
动作分割 Learning To Segment Actions From Visual and Language Instructions via Differentiable Weak Sequence Alignment 时序动作分割 Temporal Action Segmentation from Timestamp Supervision code Temporally-Weighted Hierarchical Clustering for Unsupervised Action Segmentation code 无监督动作分割 Action Shuffle Alternating Learning for Unsupervised Action Segmentation 监督动作分割 Anchor-Constrained Viterbi for Set-Supervised Action Segmentation 视频动作分割 Global2Local: Efficient Structure Search for Video Action Segmentation 从全局到局部:面向视频动作分割的高效网络结构搜索 解读:19 Improving Unsupervised Image Clustering With Robust Learning code 利用鲁棒学习改进无监督图像聚类技术 Jigsaw Clustering for Unsupervised Visual Representation Learning oralcode Re-labeling ImageNet: from Single to Multi-Labels, from Global to Localized Labels code Differentiable Patch Selection for Image Recognition code Achieving Robustness in Classification Using Optimal Transport With Hinge Regularization 细粒度分类 Fine-grained Angular Contrastive Learning with Coarse Labels oral 使用自监督进行 Coarse Labels(粗标签)的细粒度分类方面的工作。粗标签与细粒度标签相比,更容易和更便宜,因为细粒度标签通常需要域专家。 Graph-based High-Order Relation Discovery for Fine-grained Recognition 基于特征间高阶关系挖掘的细粒度识别方法 解读:20 Fine-Grained Few-Shot Classification with Feature Map Reconstruction Networks A Realistic Evaluation of Semi-Supervised Learning for Fine-Grained Classification oral GLAVNet: Global-Local Audio-Visual Cues for Fine-Grained Material Recognition Learning Deep Classifiers Consistent With Fine-Grained Novelty Detection 图像分类 MetaSAug: Meta Semantic Augmentation for Long-Tailed Visual Recognition

21年校招DL/NLP/推荐系统/ML/算法基础面试必看300问及答案

Submitted by neurta on Mon, 05/31/2021 - 10:47
生成与判别模型     o什么叫生成模型     o什么叫判别模型     o什么时候会选择生成/判别模型     oCRF/朴素贝叶斯/EM/最大熵模型/马尔科夫随机场/混合高斯模型     o我的理解     先验概率和后验概率     o写出全概率公式&贝叶斯公式     o说说你怎么理解为什么有全概率公式&贝叶斯公式     o什么是先验概率     o什么是后验概率     o经典概率题     频率概率     o极大似然估计 - MLE     o最大后验估计 - MAP     o极大似然估计与最大后验概率的区别     o到底什么是似然什么是概率估计     AutoML     oAutoML问题构成     o特征工程选择思路     o模型相关的选择思路     o常见梯度处理思路     oAutoML参数选择所使用的方法     o讲讲贝叶斯优化如何在automl上应用     o以高斯过程为例,超参搜索的f的最优解求解acquisition function有哪些     o高斯过程回归手记     oAutoSklearn详解手记     oAutoML常规思路手记     数学     数据质量     o期望     o方差     o标准差     o协方差     o相关系数     最大公约数问题     o辗转相除法     o其他方法     牛顿法     o迭代公式推导     o实现它     概率密度分布     o均匀分布     o伯努利分布     o二项分布     o高斯分布     o拉普拉斯分布     o泊松分布     平面曲线的切线和法线     o平面曲线的切线     o平面曲线的法线          导数     o四则运算     o常见导数     o复合函数的运算法则     o莱布尼兹公式          微分中值定理

看Youtube怎么利用深度学习做推荐

Submitted by neurta on Mon, 05/31/2021 - 10:27
召回:从百万级别的候选视频中选出几百个用户喜欢的视频。 对召回系统的要求是,“低延时”与“高精度(precision)”,“个性化”方面可以适当放宽以保证性能要求 排序:将召回的视频打分,将用户最有可能点击的视频排在前面。 结果的“个性化”是排序的重要任务 Youtube在这两个子系统中,都使用了深度神经网络,结构上并没有太大的不同,主要是体现在所使用的特征上。 “召回”使用的特征,相对较少和简单,以满足性能要求。 “排序”使用了更多的特征,以保证精准的个性化。

苍蝇大脑可能使用通用设计原理来做出预测

Submitted by neurta on Mon, 05/24/2021 - 09:00
摘要:研究结果表明,预测可能是动物神经系统支持快速行为改变的普遍特征。 资料来源:芝加哥大学 根据芝加哥大学的最新研究,苍蝇可以预测其视觉环境的变化,从而执行规避动作。这种依赖于预测信息来指导行为的建议表明,预测可能是动物神经系统在支持快速行为改变方面的普遍特征。 该研究于5月20日发表在《 PLOS计算生物学》上。 动物使用其感觉神经系统来获取有关其环境的信息,然后根据所检测到的东西进行某些行为。但是,神经系统需要花费一些时间来处理此感官信息,这意味着在以前的信息已被完全处理之前,环境可能会发生变化。 UChicago的有机生物学与解剖学副教授Stephanie Palmer博士说:“这在捕食者/猎物相互作用中确实很重要。”

基于图神经网络的对话情感纠错模型

Submitted by neurta on Thu, 05/13/2021 - 10:15
本申请涉及基于图神经网络的对话情感纠错模型,包括:多模态特征抽取模块、基于单句的情感识别模块、交互建模模块、时序建模模块和情感预测模块;所述多模态特征抽取模块和所述基于单句的情感识别模块连接,所述基于单句的情感识别模块与所述交互建模模块连接,所述交互建模模块与所述时序建模模块连接,所述时序建模模块与所述情感预测模块连接。

ACM Prize Awarded to Pioneer in Quantum Computing

Submitted by neurta on Fri, 04/16/2021 - 11:21
Scott Aaronson is the David J. Bruton Jr. Centennial Professor of Computer Science at the University of Texas at Austin. His primary area of research is theoretical computer science, and his research interests center around the capabilities and limits of quantum computers, and computational complexity theory more generally.

ICLR 2021初审结果公布,高分论文有这些!

Submitted by neurta on Wed, 03/31/2021 - 10:29
在本次ICLR 2021上,有心人注意到了一篇长达245页的论文《Deep Networks and the Multiple Manifold Problem》。 确定这不是把博士论文投稿过来的?这么长的论文先不说搞不搞得明白,确定审稿人哪怕能读完了这篇论文? 经查阅,本篇论文的初审得分是5、5、7、8,属于不算太差。这篇论文研究了多重流形问题,这是一种在机器视觉应用中建模的二进制分类任务,其中训练了一个深层的全连接神经网络来分离单位球面的两个低维子流形...... 一句话来说:本文证明了深度全连接神经网络的有限时间( finite-time )泛化结果,该神经网络通过梯度下降训练以对结构化数据进行分类,其中所需的宽度,深度和样本复杂度仅取决于数据的固有属性。把这篇论文从头翻到尾,从尾翻到头,确定全文只有三张图,而剩下的200多页全部都是令人感到敬畏的数学证明公式。