最近在学习斯坦福大学李飞飞团队的公开课CS231n- Convolutional Neural Networks for Visual Recognition
, 这篇文章介绍了课程笔记中的kNN, 以及课程作业assignment1
中kNN算法(k-最邻近算法)实现图像分类的一些基本原理及TODO
部分的代码实现. Github
计算机视觉
首先从信息传递的角度来说 , 图片所包含的信息量比文字要多 , 所谓的”百闻不如一见”说的就是这个道理 , 那么在计算机技术引领的信息时代让计算机试图去理解图像信息就十分的必要. 一张图片在计算机中就是一个矩阵, 灰色图片是一维矩阵(灰度) , 彩色是三维矩阵(RGB), 我们创造一些算法来处理这个矩阵, 达到对实际物体和场景做出有意义的判定的目的, 就是计算机视觉.
“区分
图像处理
和图像理解
很重要, 图像处理关心的是图像到图像的变换; 图像理解关心的是基于图像的判定并显性的构造图像描述. 图像处理经常用于支持图像理解.” -- 引自<<计算机视觉>>
距离概念
距离
Manhattan distance: $L_1$距离或城市区块距离
$$ d_1(I_1,I_2) = \sum_p|I_1^p-I_2^p| $$
- $I_1,I_2$ : 表示图像的矩阵
- $p$ : 表示每个像素
- $|\cdots|$ : 绝对值运算
Euclidean distance: 欧式距离($L_2$距离)指在$m$维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)
$$ d_1(I_1,I_2) = \sqrt{\sum_p(I_1^p-I_2^p)^2} $$
4-连通区域
指的是从区域上一点出发,可通过四个方向,即上、下、左、右移动的组合,在不越出区域的前提下,到达区域内的任意象素8-连通区域
指的是从区域内每一象素出发,可通过八个方向,即上、下、左、右、左上、右上、左下、右下这八个方向的移动的组合来到达区域内任意像素
分类问题
- 图像在计算机中的存储
- 一幅图像在计算机中就是一个3维数组, 3个维度分别指红绿蓝三个通道, 猫图像是248像素宽,400像素高,且具有三个颜色通道的红,绿,蓝, 因此,图像由248×400×3的数组, 如果用一个向量表示那么总共297600个值
数据驱动
所谓数据驱动,指的是我们的算法是由数据决定的, 并不像传统的算法, 比如给一个数组排序所用的算法, 我们给预测算法一些数据样本, 这些样本包含类别信息, 基于这些已有的数据去学习算法, 使得模型能够知道每个类别的特征是什么样的, 从而对新的数据进行分类
分类模型
- 问题模型 : 输入一张图片输出类别
1 | def predict(image) |
- 训练模型
1 |
|
- 预测模型
1 | define predict(model,test_images): |
kNN基础
- 基本思想
给定某种测试样本, 基于某种距离度量找出训练集中与其最靠近的$k$个训练样本, 然后基于这$k$个样本所提供的类别信息进行预测, 注意, kNN并不具有显式的学习过程, 本质上是对训练样本集进行划分并作为模型, 然后基于多数表决的方式进行预测
- 在分类任务中, 选择$k$个样本中出现次数最多的类别作为预测结果
在回归任务中, 将$k$个样本的实际值根据距离分配权重, 然后做加权平均
特点
- 不需要训练时间, 因为分类信息只要存起来就可以了, 但是在测试阶段模型的计算代价很高, 因为需要和每一个样本进行距离求值并进行投票统计, 这点非常不好, 因为实际应用中, 我们对测试的时间尽可能高效, 对于训练时间并不太在意, 毕竟和阿法狗下棋, 不能一个小时才走一步, 深度神经网络正好和这个相反
- 适合低维特征的数据, 图像分类很明显是高维数据, 并不适合
我们来看一个维基百科上的例子, 如图:
图中的有两个类型的样本数据,一类是蓝色的正方形,另一类是红色的三角形。而那个绿色的圆形是我们待分类的数据。
- 如果k=3,那么离绿色点最近的有2个红色三角形和1个蓝色的正方形,这3个点投票,于是绿色的这个待分类点属于红色的三角形。
- 如果k=5,那么离绿色点最近的有2个红色三角形和3个蓝色的正方形,这5个点投票,于是绿色的这个待分类点属于蓝色的正方形。
可以得出, kNN是一种基于数据驱动的算法, 也就是说该算法分类是根据数据本身统计的结果得出来的, 那么kNN是根据什么标准来统计的呢? 下面要了解一些基本的概念
- 注意:
kNN
和k-Means
不同,kNN
是一种归类算法, 也就是说事先我们已经知道了有几种类别, 讲一个新的数据归类到已知的类别中, 即原始数据中有类别标签;k-Means
则是一种聚类算法, 其目的是将没有类别标签的数据聚集成几种不同的类型.
基本概念
在上图的5-NN分类器
当中, 我们利用$L_2$距离得到决策边界, 白色的区域是投票并列的点, 也就是被分为至少两类, 属于类别模糊区域, 对于5-NN分类器
有些异常点被分类错误, 但是可以得到更好的泛化能力, 中间那张图有点过拟合的意思了
$k$值 : 表示最接近新样本的$k$个数据样本
距离 : 通过计算已知样本点和新样本之间的
距离
, 选出最近的k个已知类别的样本点, 统计k个样本点中类别最多的类型, 将新样本点归为此类
Manhattan distance: $L_1$距离或城市区块距离
$$ d_1(I_1,I_2) = \sum_p|I_1^p-I_2^p| $$
- $I_1,I_2$ : 表示图像的矩阵
- $p$ : 表示每个像素
- $|\cdots|$ : 绝对值运算
Euclidean distance: 欧式距离($L_2$距离)指在$m$维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)
$$ d_1(I_1,I_2) = \sqrt{\sum_p(I_1^p-I_2^p)^2} $$
二者区别:
曼哈顿与欧几里得距离:
红、蓝与黄线
分别表示所有曼哈顿距离都拥有一样长度$(12)$,而绿线
表示欧几里得距离有$6×\sqrt2 ≈ 8.48$的长度。注意: $L_1$距离和$L_2$距离的区别是, 使用$L_1$距离对于训练集来说并不是百分百的类准确, 因为其边界是锯齿状的, 就有可能覆盖其他相邻的类别; 然而$L_2$距离是准确的距离, 对于训练集训练出的模型其分类边界是连续的曲边,不会覆盖其他分类, 这里可以从二维的角度去理解高维距离, 所以在kNN模型的距离以及$k$值选择上, 要根据具体问题具体分析.
超参数调整
在模型的搭建过程中, 我们常常有多种选择, 比如$k$的选择, 距离标准的选择, 这个过程就叫做超参数调整
在实际中, 我们并不能用训练集来进行超参数的调整, 因为这样很容易导致模型过拟合, 使得模型的泛化能力很弱
- 正确方法
我们将训练集分为两部分, 一部分作为训练集
, 一部分叫做验证集
, 使用CIFAR-10数据集, 可以用训练图像49000进行训练,并留下1000预留验证, 利用这个验证集去调整模型的超参数, 最后一次性将全部数据作为训练集, 得到模型性能
交叉验证法
请看另一篇文章, 模型的评估, 在这里我们用的5折交叉验证法
交叉验证法的计算代价很大
通常
50%-90%
作为训练集, 剩余作为验证集典型的有3, 5, 10 折交叉验证法
运行准备
CS231n第一个作业中包含kNN:
首先点击下载源代码
在解压目录
assignment1
下打开ipython notebook
点击下载原始数据, 解压到
.\assignment1\cs231n\datasets\cifar-10-batches-py
目录下
kNN分类器包括两个阶段:
在训练阶段, 分类器训练数据并记住每个训练样本的类别标签
在测试阶段, 分类器计算每一个测试样本和所有的训练样本的
距离
, 并得出与测试样本距离最近的k个被标记的训练样本注意: k的值是交叉验证的
注意事项
数据路径的修改, 输出数据参数, 在输出信息中可以看出, 每个样本是32*32大小3通道(RGB)的图片,
fold1
-fold5
每个10000张共50000张, 测试集10000张1
2
3
4# Load the raw CIFAR-10 data.
cifar10_dir = './cs231n/datasets/cifar-10-batches-py'
# 以项目为根目录
#
断点CodeLine68 : plt.show()
输出部分样本及类别标签在
In[8]
中, 将数据集分成子集去训练模型更有效
kNN中的TODO在k_nearest_neighbor.py
文件中
def compute_distances_two_loops(self, X):
1 | ##################################################################### |
X
的每一行代表一张图片dists
是一个500*5000的距离矩阵如果计算正确则输出:
def compute_distances_one_loop(self, X):
1 | ####################################################################### |
- np.linalg.norm 这个函数是计算矩阵或者向量的
范数
$$ ||A||_F = [\sum_{i,j} abs(a_{i,j})^2]^{1/2} $$
axis = 1
表示计算列向量的$L_2$距离如果计算正确则输出:
Good! The distance matrices are the same
def compute_distances_no_loops(self, X):
1 | ######################################################################### |
这种计算方式利用了
X
是一个500*3072
的矩阵 ;self.train
是5000*3072
M
是一个500*5000
的矩阵T
表示转置;axis=1
表示按列求和dot
函数就是矩阵相乘;square
函数对每个元素平方;sqrt
开方;matrix
转化为矩阵如果计算正确则输出:
Good! The distance matrices are the same
三种求距离方式的比较: 这个过程就是编码向量化的一个过程
1 | Two loop version took 66.147000 seconds |
- 由运行时间可知, 学习向量化的编码, 以及利用线性代数的基本知识十分重要
def predict_labels(self, dists, k=1):
1 | ######################################################################### |
交叉验证的TODO 在knn.py
文件中
数据分组
1 | X_train_folds = np.array_split(X_train, num_folds) |
找到最佳的$k$值
1 | for k in k_choices: |
- 如果计算正确则输出:
其他
上面四幅图像中, 人很容易判定是一幅图像变换得来的, 但是距离
会很大, 说明距离标准并不会评估像素之间的相关性, 人之所以可以判定, 是因为人能够判定图像的像素之间的相关性