bet9十年信誉玩家首选-bet3365娱乐官网

当前位置脆丁壳炒股财经门户网 > 股票常识 > 正文

600769-约旦第纳尔

600769-约旦第纳尔

600769-上市企业收购管理办法

首要细讲一下 Max pooling。

Max pooling

在卷积后还会有一个 pooling 的操作,虽然有其他的比方 average pooling 等,这儿只提 max pooling。

600769-柴琳

max pooling 的操作如下图所示:整个图片被不堆叠的分割成若干个相同巨细的小块(pooling size)。每个小块内只取最大的数字,再放弃其他节点后,坚持原有的平面结构得出 output。

max pooling 在不同的 depth 上是分隔履行的,且不需求参数操控。 那么问题就 max pooling 有什么作用?部分信息被放弃后莫非没有影响吗?

Max pooling 的主要功用是 downsampling,却不会损坏辨认成果。 这意味着卷积后的 Feature Map 中有关于辨认物体不必要的冗余信息。 那么咱们就反过来考虑,这些 “冗余” 信息是怎么发生的。

600769-上海楼市

直觉上,咱们为了勘探到某个特定形状的存在,用一个 filter 对整个图片进行逐渐扫描。但只要呈现了该特定形状的区域所卷积取得的输出才是真实有用的,用该 filter 卷积其他区域得出的数值就可能对该形状是否存在的断定影响较小。 比方下图中,咱们仍是考虑勘探 “横折” 这个形状。 卷积后得到 3x3 的 Feature Map 中,真实有用的便是数字为 3 的那个节点,其他数值关于这个使命而言都是无关的。 所以用 3x3 的 Max pooling 后,并没有对 “横折” 的勘探发生影响。 试想在这儿比方中假如不运用 Max pooling,而让网络自己去学习。 网络也会去学习与 Max pooling 近似作用的权重。由于是近似作用,增加了更多的 parameters 的价值,却还不如直接进行 Max pooling。

Max pooling 还有类似 “挑选句” 的功用。假如有两个节点,其间第一个节点会在某些输入情况下最大,那么网络就只在这个节点上流通信息;而另一些输入又会让第二个节点的值最大,那么网络就转而走这个节点的分支。

可是 Max pooling 也有欠好的当地。由于并非一切的抓取都像上图这样的极点比方。有些周边信息对某个概念是否存在的断定也有影响。 而且 Max pooling 是对一切的 Feature Maps 进行等价的操作。就比方用相同网孔的渔网打鱼,必定会有漏网之鱼。

600769-长城信息

下面临其他的 pooling 办法做一个简略的收拾(前一段时间收拾的个人觉得比较不错且盛行的 pooling 办法)。

SUM pooling

根据 SUM pooling 的中层特征表明办法,指的是针对中间层的恣意一个 channel(比方 VGGNet16, pool5 有 512 个 channel),将该 channel 的 feature map 的一切像素值求和,这样每一个 channel 得到一个实数值,N 个 channel 终究会得到一个长度为 N 的向量,该向量即为 SUM pooling 的成果。

600769-南钢集团

AVE pooling

AVE pooling 便是 average pooling,本质上它跟 SUM pooling 是相同的,只不过是将像素值求和后还除以了 feature map 的标准。编辑认为,AVE pooling 能够带来必定意义上的滑润,能够减小图画标准改变的搅扰。想象一张 224224 的图画,将其 resize 到 448448 后,别离选用 SUM pooling 和 AVE pooling 对这两张图画提取特征,咱们猜想的成果是,SUM pooling 计算出来的余弦类似度比较于 AVE pooling 算出来的应该更小,也便是 AVE pooling 应该略微优于 SUM pooling 一些。

MAX pooling

600769-埃塞俄比亚空难

MAX pooling 指的是关于每一个 channel(假设有 N 个 channel),将该 channel 的 feature map 的像素值选取其间最大值作为该 channel 的代表,然后得到一个 N 维向量表明。笔者在 flask-keras-cnn-image-retrieval中选用的正是 MAX pooling 的方法。

上面所总结的 SUM pooling、AVE pooling 以及 MAX pooling,这三种 pooling 方法,在笔者做过的试验中,MAX pooling 要略微优于 SUM pooling、AVE pooling。不过这三种方法的 pooling 关于 object retrieval 的提高依然有限。

MOP pooling

MOP Pooling 源自 Multi-scale Orderless Pooling of Deep Convolutional Activation Features这篇文章,一作是 Yunchao Gong,此前在搞哈希的时分,读过他的一些论文,其间比较都代表性的论文是 ITQ,笔者还专门写过一篇笔记论文阅览:Iterative Quantization 迭代量化。MOP pooling 的基本思想是多标准与 VLAD(VLAD 原理能够参阅笔者之前写的博文图画检索:BoF、VLAD、FV 三剑客),其详细的 pooling 过程如下:

上一篇:华商阿尔法-秦皇岛职业技术学院
下一篇:没有了
返回顶部

bet9十年信誉玩家首选|bet3365娱乐官网

XML 地图 | Sitemap 地图