本文是对ImageNet 2015的冠军ResNet(Deep Residual Networks)以及目前围绕ResNet这个工作研究者后续所发论文的总结,主要涉及到下面5篇论文。
阅读全文
EM算法本文主要基于Andrew Ng的Lecture Notes(下载原文),附加一些我个人的总结和理解。
EM全称Expectation Maximization,翻译成最大化期望算法,是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)
阅读全文
之前已经讲解过0-1背包问题,今天来讨论另外一种:完全背包问题
1. 问题描述之前0-1背包问题的问题描述如下
给出n个物品的体积A[i]和其价值V[i],将他们装入一个大小为m的背包,最多能装入的总价值有多大?
而今天要讨论的完全背包问题描述如下
给出n种物品的体积A[i]和其价值V[i],每一种物品都有无限个,将这n种物品装入一个大小为m的背包,最多能装入的总价值有多大?
我们可以发现区别在于:对于每一种物体,不再是之前0-1问题,而是0-k,k表示能放多个,k有可能是0,1,2…
阅读全文
背包问题是一个非常经典的问题,今天我们就来讨论其中的一种:0-1背包问题
1. 问题描述
给出n个物品的体积A[i]和其价值V[i],将他们装入一个大小为m的背包,最多能装入的总价值有多大?
为什么叫0-1背包问题呢,题目中假设每一种背包只有装和不装两种情况,我们不可能装入两个A[0]的物品,所以叫0-1背包问题
2. 转移方程我们构造一个二维的转移数组dp[i][j],表示前面i个物品放入总体积为j的背包中所获得的最大价值,那么:12dp[i][j] = max(dp[i-1][j], dp[i-1][j-A[i]] + V[i]);// dp[i-1][j]表示不放入物品A[i], dp[i-1][j-A[i]] + V[i]表示放入物品A[i]所得到的最大价值
阅读全文
1. Deep Residual Network论文下载
在2015年的ImageNet比赛中,MSRA的He Kaiming用deep residual network取得了惊人的成果,不仅在多个task上排名榜首,而且远超第二名好多好多。这极大的引起了我对Deep Residual Network的好奇心,想要玩一玩Deep Residual Network。
阅读全文
转载请注明!!!
Sometimes we want to implement new layers in Caffe for specific model. While for me, I need to Implement a L2 Normalization Layer. The benefit of applying L2 Normalization to the data is obvious. The author of Caffe has already wrote methods to add new layers in Caffe in the Wiki. This is the Link
阅读全文