Normalization源码解析及复现
前言
本文以 2D 图像数据为例对 BN(Batch Normalization), LN(Layer Normalization), IN(Instance Normalization), WN(Weight Normalization) 的 Pytorch 源码进行了分析解读。以期通过对源码的分析可以加深对这几种方法的理解。
我将首先简单分析一下 Pytorch 中对几种方法的 Python 实现,虽然深入探究一下底层 C++ 源码的实现,最后根据我们学习到的方法复现出 Pytorch 的实现效果。
『LeetCode』1441 用栈操作构建数组
『LeetCode』769 最多能完成排序的块
『Latex』表格
『论文笔记』Switchable Normalization
Information
- Title: Differentiable Learning-to-Normalize via Switchable Normalization
- Author: Ping Luo and Jiamin Ren and Zhanglin Peng and Ruimao Zhang and Jingyu Li
- Institution: 香港中文大学(CUHK)多媒体实验室和商汤科技研究院(SenseTime Research)
- Year: 2019
- Journal: ICLR
- Source: arxiv, Code, 作者的中文解析(在 Github 上)
- Idea: 核心观点就是同时使用 BN, IN, LN 并对其添加一个自适应的权重来适配不同的网络