当前位置:首页 > 娱乐

【liminhao】华为视觉34篇论文进入了计算机视觉峰会,为华为云EI服务构建了竞争力。

国际计算机视觉和模式识别会议(CVPR)一直是计算机视觉领域最重要的会议之一。受新冠疫情影响,CVPR 2020将于6月14日至19日举行虚拟在线会议。这次大会收录了来自世界各地的1470篇论文。华为视觉研究组这次为业界贡献了包括7篇口头报告论文在内的34篇高质量论文。(注:华为视觉团队在CVPR 2020上发表了34篇论文的完整目录。请参阅文末附录。)

华为非常重视人工智能研究,将其作为“构建万物互联的智能世界”的重点攻关对象。计算机视觉作为图像处理的基本工具,在华为的多个业务场景中发挥着重要作用。2018年6月,战地教授全职加入华为诺亚方舟研究所,担任计算机视觉研究的首席科学家,带领华为视觉团队在多次顶级国际视觉会议上取得优异成绩。

2020年3月,战地开始担任华为云人工智能领域的首席科学家,主导华为云人工智能领域的技术规划和技术支持。代表华为正式发布了《华为视觉计划》,重点讨论了目前业界最关心的三个基本问题:如何从海量数据中挖掘有效信息、如何设计高效的视觉识别模型、如何表达和存储知识。《华为视觉计划》分为六大次级方案:数据相关数据冰山程序、数据立方体程序。模型相关模型高规划,模型缩小规划;还有与知识相关的万物预览计划、虚实整合计划。

图:构成《华为视觉计划》的6个子计划

(见官网。)

《华为视觉计划》梳理了行业的核心问题,规划了华为云人工智能领域的关键技术,结合华为云平台丰富的实际应用场景,对先进人工智能技术进行了落地验证和应用。

截至2020年Q1,华为云EI企业智能提供60种服务、160种功能。其中包括基于计算机视觉技术的文本识别、图像识别、内容审计、视频分析、人脸人体识别等多种大型服务数十种,以及提供物流、校园、互联网的多模式AI应用开发套件HiLens。

华为视觉研究组在此次CVPR2020的34篇论文中,在迁移学习、反阅读学习、网络体系结构搜索、模型算子优化、知识蒸馏、对抗样本生成等方面走在了前列。华为在计算机视觉领域展示了强大的人才储备、科学研究和创新能力。接下来,我将在数据-模型-知识三大基础问题上介绍华为CVPR2020的代表性工作。

华为入选CVPR 2020的代表性论文介绍中的一部分

[数据挖掘]跨域detection via graph-induced prototype alignment

本文介绍了一种基于图匹配的跨域学习方法,可以提高跨域迁移的效果。这本身是一个非常困难的问题,因为域之间的分布差异会大大增加算法的难度。该方法的核心是建立两个阶段的排序算法。第一阶段(实例级别)用于挖掘对象内部不同部件之间的相对关系,第二阶段(类别级别)用于挖掘不同对象之间的相对关系。称为“图形行业原型调整”(GPA)的全局算法可以与多种对象检测框架相结合。基于Faster R-CNN,算法在不同数据集之间的迁移检测任务中,对基准算法提供了显着的性能改进。这个算法是开源的。

[数据挖掘]learning to select base classes for few-shot class ification

近年来,小样本学习越来越受到研究人员的关注。人们提出了从基类到新类进行学习的多种方法,但如果选择基类的方法或基类不同,学习的模型很少会有不同的泛化能力。(大卫亚设,Northern Exposure(美国电视剧),基类名言)在这项工作中,我们提出了简单但有效的指导方针、相似性,来衡量小样本模型的泛化能力。将基类选择问题转化为相似比例的子模块函数优化问题。我们通过对其他优化方法上限的理论分析,寻找适合特定情景的优化方法。对ImageNet、Caltech256、CUB-200-2011等数据集进行了大量实验,验证了建议方法在基类选择中的有效性。

[数据挖掘]noise-aware fully webly supervised object detection

detail&_iz=31825&index=2" width="640" height="219"/>

本文提出了一个新的训练物体检测器的方法,它仅需要网上图像级别的标签,而无需任何其它的监督信息。这是一项极具挑战的任务,因为网络上的图像级标签噪声极大,会导致训练出来的检测器性能很差。我们提出了一个端到端的框架,它能在训练检测器的同时减少有噪标签的负面影响,其中的结合弱监督检测的残差学习结构能将背景噪声分解并为干净数据建模。此外,我们提出的Bagging-Mixup学习方案可以抑制来自错误标注图像的噪声,同时保持训练数据的多样性。我们利用在照片共享网站的搜索获得的图像训练检测器,在流行的基准数据集上进行评估。大量的实验表明,我们的方法明显优于现有的方法。

[数据挖掘] Gradually Vanishing Bridge for Adversarial Domain Adaptation

在无监督的领域适应中,丰富的领域特性给学习领域不变特征带来了巨大挑战。但是,在现有解决方案中,领域差异被直接最小化,在实际情况中难以实现较好的差异消除。一些方法通过对特征中对领域不变部分和领域专属部分进行显式建模来减轻难度,但是这种显式构造的方法在所构造的领域不变特征中容易残留领域专属特征。本文在生成器和鉴别器上都使用了减弱式桥梁(GVB)机制。在生成器上,GVB不仅可以降低总体迁移难度,而且可以减少领域不变特征中残留的领域专属特征的影响。在鉴别器上,GVB有助于增强鉴别能力,并平衡对抗训练过程。三个具有挑战性的数据集上的实验表明,GVB方法优于强大的竞争对手,并且可以与其他领域适应的对抗方法实现很好地协作。这一项目已经开源:。

[模型优化] SP-NAS: Serial-to-Parallel Backbone Search for Object Detection

我们使用神经网络结构搜索自动设计针对于目标检测任务的主干网络,以弥合分类任务和检测任务之间的差距。我们提出了一个名为SP-NAS的两阶段搜索算法(串行到并行的搜索)。串行搜索阶段旨在通过“交换,扩展,重点火”的搜索算法在特征层次结构中找到具有最佳感受野比例和输出通道的串行序列;并行搜索阶段会自动搜索并将几个子结构以及先前生成的主干网络组装到一个更强大的并行结构的主干网络中。我们在多个检测数据集上可达到SOTA结果,在ECP的公开的行人检测排行榜上达到第一名的顶级性能(LAMR:0.055)。

[模型优化] Revisit Knowledge Distillation: A teacher-free Framework

知识蒸馏(KD)的成功通常归因于由教师模型提供的类别之间相似性的信息。在这项工作中,我们观察到:1)除了教师可以提高学生的性能外,学生还可以通过逆转程序来提高教师性能; 2)未充分训练的教师网络仍然可以提高学生的水平。为了解释这些观察,我们提供了KD和标签平滑规则化之间关系的分析,证明1)KD是一种学习的标签平滑正则化,2)标签平滑正则化等价于利用虚拟教师模型来做KD,并进一步提出了一种新颖的无教师知识蒸馏(Tf-KD)框架。在没有任何额外计算成本的情况下,该框架比公认的基线模型提高了0.65%。代码位于 。

[模型优化] GhostNet: More Features from Cheap Operations

论文提出了一个全新的Ghost模块,旨在通过廉价操作生成更多的特征图。基于一组原始的特征图,作者应用一系列线性变换,以很小的代价生成许多能从原始特征发掘所需信息的“幻影”特征图(Ghost feature maps)。该Ghost模块即插即用,通过堆叠Ghost模块得出Ghost bottleneck,进而搭建轻量级神经网络——GhostNet。在ImageNet分类任务,GhostNet在相似计算量情况下Top-1正确率达75.7%,显著高于MobileNetV3的75.2%。相关代码已开源:

[模型优化] AdderNet: Do We Really Need Multiplications in Deep Learning?

和乘法操作相比,加法操作对于计算机来说具有更少的计算代价。本论文提出了加法神经网络,通过将卷积中计算特征和卷积核的互相关替换为L1距离,卷积运算中的乘法可以被完全替换为更为轻量的加法计算。我们提出了针对加法神经网络特殊的反向传播和学习率调整技巧以提升加法神经网络的表达能力和准确率。实验表明,我们提出的加法神经网络可以使用ResNet-50网络在ImageNet数据集上达到74.9%的Top-1准确率和91.7%的Top-5准确率,并且在卷积计算中不包含任何的乘法。相关代码已开源:

[知识抽取] SketchyCOCO: Image Generation from Freehand Scene Sketches

本文提出了首个从场景级手绘草图自动生成图像的方法。我们的模型允许通过手绘草图指定合成目标,从而实现可控的图像生成。本文的关键贡献在于设计了EdgeGAN,它是一个属性矢量桥接的生成对抗网络,能够支持高质量的物体级别的图像内容生成,而无需使用徒手草图作为训练数据。我们建立了一个名为SketchyCOCO的大型数据集,用于评估所提出的解决方案。在物体级别和场景级别图像生成任务上,我们在SketchyCOCO上测试了我们的方法。 通过定量和定性的结果、视觉评估和消融实验,我们验证了该方法能够从各种手绘草图中生成逼真的复杂场景图像。

[知识抽取] Creating Something from Nothing: Unsupervised Knowledge Distillation for Cross-modal Hashing

本文提出了一种利用“无中生有”的监督方式,用于跨模态哈希编码。现存的跨模态哈希编码分为有监督和无监督两类,前者通常精度更高,但依赖于图像级标注信息,以生成相似度矩阵。本方法创新性地提出,利用无监督的哈希方法产生图像特征,并利用图像特征计算相似度矩阵,从而绕开了对监督信号的需求,在不增加标注代价的情况下,提升了跨模态哈希编码的精度,超过了所有无监督的编码方法。本文还分析了图像特征和文本特征在相似度计算中的作用,并且讨论了这种方法在类似场景中的应用。

[知识抽取] Transformation GAN for Unsupervised Image Synthesis and Representation Learning

本文提出了一种新的自监督对抗生成网络模型,与现有的模型不同,新的模型既通过预测投影变换参数的自监督方式约束生成图片,又使用编码器提取到的特征来约束生成网络中间层的特征,从而更充分地利用自监督信息以提升性能。在新提出的模型中,我们使用中间特征匹配的方式约束生成网络的中间特征与自监督编码器的中间特征包含相似的语义信息。同时,我们提出了一种新的“特征-变换”匹配的约束,即:要求生成特征具有与自监督提取特征相似的“特征-变换”映射关系。上图显示了模型完整的训练过程:对于全局判别网络D,我们训练D在分辨生成图片与真实图片的同时,能够预测出施加在真实图上的投影变换的参数;而在生成网络的训练中,我们首先通过对抗训练约束生成特征与自监督提取特征包含相似的语义信息。同时,我们训练T网络去近似真实图片变换前后所提取到的特征之间的映射关系,并约束生成特征具有相似的“特征-变换”映射关系。本文提出的方法在无监督图片生成的任务上获得了比有监督对比模型更好的性能(FID)。

[知识抽取] Unsupervised Model Personalization while Preserving Privacy and Scalability: An Open Problem

本工作研究无监督模型个性化的任务,可适应到连续演进以及无标签的用户数据。考虑服务器与许多资源受限的边缘设备进行交互的实际场景,它对规模化和数据隐私性有较高的要求。我们从持续学习的角度来看待这个问题,提出了对偶用户自适应框架。在服务器端增量式地学习多个专家模型,并在用户端以无监督方式根据用户先验对专家模型进行聚合;从领域自适应角度来进行局部用户自适应,通过调整批归一化使模型适应到用户数据进行自适应更新。大量的实验表明数据驱动的局部自适应具有良好表现,只需用户先验和模型而不需要用户原始数据也可进行模型局部自适应。

附录:华为在CVPR 2020的完整论文列表

(以下论文以作者姓氏排序)

[1] Francesca Babiloni, Marras Ioannis, Gregory Slabaugh, Stefanos Zafeiriou, TESA: Tensor Element Self-Attention via Matricization, CVPR 2020.

[2] Hanting Chen, Yunhe Wang, Chunjing Xu, Boxin Shi, Chao Xu, Qi Tian, Chang Xu, AdderNet: Do We Really Need Multiplications in Deep Learning? CVPR 2020 (Oral).

[3] Hanting Chen, Yunhe Wang, Han Su, Yehui Tang, Chunjing Xu, Boxin Shi, Chao Xu, Qi Tian, Chang Xu, Frequency Domain Compact 3D Convolutional Neural Networks, CVPR 2020.

[4] Hao Chen, Kunyang Sun, Zhi Tian, Chunhua Shen, Yongming Huang, Youliang Yan, BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation, CVPR 2020 (Oral).

[5] Shuhao Cui, Shuhui Wang, Junbao Zhuo, Liang Li, Qingming Huang, Qi Tian, Towards Discriminability and Diversity: Batch Nuclear-norm Maximization on Output under Label Insufficient Situations, CVPR 2020 (Oral).

[6] Shuhao Cui, Shuhui Wang, Junbao Zhuo, Chi Su, Qingming Huang, Qi Tian, Gradually Vanishing Bridge for Adversarial Domain Adaptation, CVPR 2020.

[7] Matthias De Lange, Xu Jia, Sarah Parisot, Ales Leonardis, Gregory Slabaugh, Tinne Tuytelaars, Unsupervised Model Personalization while Preserving Privacy and Scalability: An Open Problem, CVPR 2020.

[8] Chengying Gao, Qi Liu, Qi Xu, Limin Wang, Jianzhuang Liu, Changqing Zou, SketchyCOCO: Image Generation from Freehand Scene Sketches, CVPR 2020 (Oral).

[9] Guoqiang Gong, Xinghan Wang, Yadong Mu, Qi Tian, Learning Temporal Co-Attention Models for Unsupervised Video Action Localization, CVPR 2020 (Oral).

[10] Jianyuan Guo, Kai Han, Yunhe Wang, Chao Zhang, Zhaohui Yang, Han Wu, Xinghao Chen, Chang Xu, Hit-Detector: Hierarchical Trinity Architecture Search for Object Detection, CVPR 2020.

[11] Tianyu Guo, Chang Xu, Jiajun Huang, Yunhe Wang, Boxin Shi, Chao Xu, Dacheng Tao, On Positive-Unlabeled Classification in GAN, CVPR 2020.

[12] Kai Han, Yunhe Wang, Jianyuan Guo, Chunjing Xu, Qi Tian, Chang Xu, GhostNet: More Features from Cheap Operations, CVPR 2020.

[13] Daniel Hernandez-Juarez, Sarah Parisot, Benjamin Busam, Ales Leonardis, Gregory Slabaugh, Steven McDonagh, A Multi-Hypothesis Approach to Color Constancy, CVPR 2020.

[14] Hengtong Hu, Lingxi Xie, Richang Hong, Qi Tian, Creating Something from Nothing: Unsupervised Knowledge Distillation for Cross-Modal Hashing, CVPR 2020.

[15] Takashi Isobe, Xu Jia, Songjiang Li, Shanxin Yuan, Gregory Slabaugh, Chunjing Xu, Ya-Li Li, Shengjing Wang, Qi Tian, Video Super-resolution with Temporal Group Attention, CVPR 2020.

[16] Chenhan Jiang, Hang Xu, Wei Zhang, Xiaodan Liang, Zhenguo Li, SP-NAS: Serial-to-Parallel Backbone Search for Object Detection, CVPR 2020.

[17] Aoxue Li, Weiran Huang, Xu Lan, Jiashi Feng, Zhenguo Li, Liwei Wang, Boosting few-shot learning with adaptive margin loss, CVPR 2020.

[18] Yutian Lin, Lingxi Xie, Yu Wu, Chenggang Yan, Qi Tian, Unsupervised Person Re-identification via Softened Similarity Learning, CVPR 2020.

[19] Lin Liu, Xu Jia, Jianzhuang Liu, Qi Tian, Joint Demosaicing and Denoising with Self Guidance, CVPR 2020.

[20] Yuliang Liu, Hao Chen, Chunhua Shen, Tong He, Lianwen Jin, Liangwei Wang, ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network, CVPR 2020 (Oral).

[21] Sean Moran, Pierre Marza, Steven McDonagh, Sarah Parisot, Gregory Slabaugh, Deep Local Parametric Filters for Image Enhancement, CVPR 2020.

[22] Yucheng Shi, Yahong Han, Qi Tian, Polishing Decision-based Adversarial Noise with a Customized Sampling, CVPR 2020.

[23] Yehui Tang, Yunhe Wang, Yixing Xu, Hanting Chen, Chunjing Xu, Boxin Shi, Chao Xu, Qi Tian, Chang Xu, A Semi-Supervised Assessor of Neural Architectures, CVPR 2020.

[24] Jiayu Wang, Wengang Zhou, Guo-Jun Qi, Zhongqian Fu, Qi Tian, Houqiang Li, Transformation GAN for Unsupervised Image Synthesis and Representation Learning, CVPR 2020.

[25] Xinyu Wang, Yuliang Liu, Chunhua Shen, Chun Chet Ng, Canjie Luo, Lianwen Jin, Chee Seng Chan, Anton van den Hengel, Liangwei Wang, On the General Value of Evidence, and Bilingual Scene-Text Visual Question Answering, CVPR 2020.

[26] Jun Wei, Shuhui Wang, Zhe Wu, Chi Su, Qingming Huang, Qi Tian, Label Decoupling Framework for Salient Object Detection, CVPR 2020.

[27] Minghao Xu, Hang Wang, Bingbing Ni, Qi Tian, Wenjun Zhang, Cross-domain Detection via Graph-induced Prototype Alignment, CVPR 2020 (Oral).

[28] Jinrui Yang, Wei-Shi Zheng, Qize Yang, Yingcong Chen, Qi Tian, Spatial-Temporal Graph Convolutional Network for Video-based Person Re-identification, CVPR 2020.

[29] Zhaohui Yang, Yunhe Wang, Xinghao Chen, Boxin Shi, Chao Xu, Chunjing Xu, Qi Tian, Chang Xu, CARS: Continuous Evolution for Efficient Neural Architecture Search, CVPR 2020.

[30] Li Yuan, Francis E.H.Tay, Guilin Li, Tao Wang, Jiashi Feng, Revisit Knowledge Distillation: a Teacher-free Framework, CVPR 2020 (Oral).

[31] Li Yuan, Tao Wang, Xiaopeng Zhang, Francis Tay, Zequn Jie, Wei Liu, Jiashi Feng, Central Similarity Hashing for Efficient Image and Video Retrieval, CVPR 2020.

[32] Rufeng Zhang, Zhi Tian, Chunhua Shen, Mingyu You, Youliang Yan, Mask Encoding for Single Shot Instance Segmentation, CVPR 2020.

[33] Bolun Zheng, Shanxin Yuan, Gregory Slabaugh, Ales Leonardis, Image Demoireing with Learnable Bandpass Filters, CVPR 2020.

[34] Linjun Zhou, Peng Cui, Xu Jia, Shiqiang Yang, Qi Tian, Learning to Select Base Classes for Few-shot Classification, CVPR 2020.

1.《【liminhao】华为视觉34篇论文进入了计算机视觉峰会,为华为云EI服务构建了竞争力。》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。

2.《【liminhao】华为视觉34篇论文进入了计算机视觉峰会,为华为云EI服务构建了竞争力。》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。

3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/yule/2598588.html

上一篇

【张敏图片】28年后重演,立即回头看镜头,对张敏亲网友说:“有缘总会见面的。”

下一篇

【吴奇隆资料】离婚11年,吴志荣,前妻马雅舒:在错误的时间遇到了正确的人。

【liminhao】Angew/AM 12次航班,电池前沿每周精选(0805-0811)

【liminhao】Angew/AM 12次航班,电池前沿每周精选(0805-0811)

liminhao相关介绍,1。Angew:减少锂金属阴极极化,实现4.5伏高压锂金属电池 锂金属被认为能够以较高的理论比容量和最小氧化还原电势达到较高的理论比容量。向锂金属引入准固体电解质,可以同时克服现有液体电解质造成的安全...

【liminhao】最大开工干货深度学习图书目录、文献和数据集(共446个)

【liminhao】最大开工干货深度学习图书目录、文献和数据集(共446个)

liminhao相关介绍,整理新智能院1 整理:李洪菲 相信新年伊始,每个人都已经制定了自己的2016年计划。随着无人机和智能机器人春晚的出现,很多人会对“人工智能”、“机器学习”、“深度学习”这种技术热潮感到好奇。为此,新智...