课程来源:李宏毅2017机器学习课程
课程主页:http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17.html
课程梗概:简要介绍强化学习的基本概念,以及强化学习两种基本的训练方法:policy-based approach 和 value-based approach。
Wasserstein GAN
课程来源:李宏毅2018生成对抗网络课程
课程主页:http://speech.ee.ntu.tw/~tlkagk/courses_MLDS18.html
文章梗概:WGAN 作者首先详细证明了为什么原始 GAN 训练困难的问题,然后提出解决方案,用 Wasserstein 距离来衡量两个分布之间的距离。
Introduction to Unsupervised Conditional GAN
课程来源:李宏毅2018生成对抗网络课程
课程主页:http://speech.ee.ntu.tw/~tlkagk/courses_MLDS18.html
文章梗概:本文降介绍非监督的条件GAN,只有两个数据域的数据,并不存在pair关系,其中会介绍最为经典的cycleGAN。
Introduction to Conditional GAN
课程来源:李宏毅2018生成对抗网络课程
课程主页:http://speech.ee.ntu.tw/~tlkagk/courses_MLDS18.html
文章梗概:本文介绍了条件对抗生成网络,与一般的GAN不同,条件GAN的输入并不是随机向量,而是条件。
【论文阅读】—— Convolutional Networks with Adaptive Computation Graphs
Title:Convolutional Networks with Adaptive Computation Graphs
Authors:Andreas Veit, Serge Belongie
Abstract:作者提出了 Adanet,是一种自适应的计算图,在 ResNet 的基础上,加入了门结构来决定是否需要执行某个 block,引入这种门结构并没有带来额外太多的计算量,反而能加快训练过程。
【论文阅读】—— GaterNet, Dynamic Filter Selection in Convolutional Neural Network via a Dedicated Global Gating Network
Title:GaterNet: Dynamic Filter Selection in Convolutional Neural Network via a Dedicated Global Gating Network
Authors:Zhourong Chen, Yang Li, Samy Bengio, Si Si
Abstract:conditional computation 是指用网络的一部分层去预测结果,而不是整个网络。这样可以使网络中不同的卷积核能够从不同的样本中学习到特征,一定程度上提高了模型的泛化性能和可解释性。作者提出了一个根据输入样本动态选择卷积核的算法,模型包含两个网络:gater network 和 backbone network,gater network 决定样本通过 backbone network 时需要经过哪些卷积核。
【论文阅读】—— MobileNetV2, Inverted Residuals and Linear Bottlenecks
Title:MobileNetV2: Inverted Residuals and Linear Bottlenecks
Authors:Google 团队
Session:CVPR, 2018
Abstract:作者在 MobileNet-v1 的基础上,提出了两个 tricks:Linear Bottleneck 和 Inverted Residual,并提升了网络的性能。
【论文阅读】—— Dual Path Network
Title:Dual Path Network
Authors:颜水成团队
Session:NIPS, 2017
Abstract:近几年,ResNet 和 DenseNet 都在视觉任务上取得了比较好的成绩,作者结合两者的优点,提出一种双通道的网络 (dual path network, DPN),并取得了 ILSVRC-2017 目标定位的冠军。
【论文阅读】—— FractalNet, Ultra-deep Neural Networks without Residuals
Title:FRACTALNET: ULTRA-DEEP NEURAL NETWORKS WITHOUT RESIDUALS
Authors:Gustav Larsson, Michael Maire, Gregory Shakhnarovich
Abstract:作者提出了一个分形网络 (fractalNet),并且认为 ResNet 中的残差计算并不是深层网络必须的,可以通过一种分形的结构,也可以达到很好的效果。