人脸识别技术
发布日期:2021-06-29 01:25:05 浏览次数:2 分类:技术文章

本文共 8587 字,大约阅读时间需要 28 分钟。

目录

 


一、人脸识别技术概述

人脸识别技术大致由人脸检测和人脸识别两个环节组成。

之所以要有人脸检测,不光是为了检测出照片上是否有人脸,更重要的是把照片中人脸无关的部分删掉,否则整张照片的像素都传给 f(x) 识别函数肯定就不可用了。人脸检测不一定会使用深度学习技术,因为这里的技术要求相对低一些,只需要知道有没有人脸以及人脸在照片中的大致位置即可。一般我们考虑使用 OpenCV、dlib 等开源库的人脸检测功能(基于专家经验的传统特征值方法计算量少从而速度更快),也可以使用基于深度学习实现的技术如 MTCNN(在神经网络较深较宽时运算量大从而慢一些)。

在人脸检测环节中,我们主要关注检测率、漏检率、误检率三个指标,其中:

  • 检测率:存在人脸并且被检测出的图像在所有存在人脸图像中的比例;
  • 漏检率:存在人脸但是没有检测出的图像在所有存在人脸图像中的比例;
  • 误检率:不存在人脸但是检测出存在人脸的图像在所有不存在人脸图像中的比例。

当然,检测速度也很重要。本文不对人脸检测做进一步描述。

在人脸识别环节,其应用场景一般分为1:1 和 1:N

1:1 就是判断两张照片是否为同一个人,通常应用在人证匹配上,例如身份证与实时抓拍照是否为同一个人,常见于各种营业厅以及后面介绍的 1:N 场景中的注册环节。而 1:N 应用场景,则是首先执行注册环节,给定 N 个输入包括人脸照片以及其 ID 标识,再执行识别环节,给定人脸照片作为输入,输出则是注册环节中的某个 ID 标识或者不在注册照片中。可见,从概率角度上来看,前者相对简单许多,且由于证件照通常与当下照片年代间隔时间不定,所以通常我们设定的相似度阈值都是比较低的,以此获得比较好的通过率,容忍稍高的误识别率。

而后者 1:N,随着 N 的变大,误识别率会升高,识别时间也会增长,所以相似度阈值通常都设定得较高,通过率会下降。这里简单解释下上面的几个名词:误识别率就是照片其实是 A 的却识别为 B 的比率;通过率就是照片确实是 A 的,但可能每 5 张 A 的照片才能识别出 4 张是 A 其通过率就为 80%;相似度阈值是因为对特征值进行分类是概率行为,除非输入的两张照片其实是同一个文件,否则任何两张照片之间都有一个相似度,设定好相似度阈值后唯有两张照片的相似度超过阈值,才认为是同一个人。所以,单纯的评价某个人脸识别算法的准确率没有意义,我们最需要弄清楚的是误识别率小于某个值时(例如 0.1%)的通过率。不管 1:1 还是 1:N,其底层技术是相同的,只是难度不同而已。

取出人脸特征值是最难的,那么深度学习是如何取特征值的?

假定我们给出的人脸照片是 100*100 像素大小,由于每个像素有 RGB 三个通道,每个像素通道由 0-255 范围的字节表示,则共有 3 个 100*100 的矩阵计 3 万个字节作为输入数据。深度学习实际上就是生成一个近似函数,把上面的输入值转化为可以用作特征分类的特征值。那么,特征值可以是一个数字吗?当然不行,一个数字(或者叫标量)是无法有效表示出特征的。通常我们用多个数值组成的向量表示特征值,向量的维度即其中的数值个数。特征向量的维度并非越大越好,Google 的 FaceNet 项目(参见论文)做过的测试结果显示,128个数值组成的特征向量结果最好,如下图所示:

那么,现在问题就转化为怎么把 3*100*100 的矩阵转化为 128 维的向量,且这个向量能够准确的区分出不同的人脸?

假定照片为 x,特征值为 y,也就是说存在一个函数 f(x)=y 可以完美的找出照片的人脸特征值。现在我们有一个 f*(x) 近似函数,其中它有参数 w(或者叫权重 w)可以设置,例如写成 f*(x;w),若有训练集 x 及其 id 标识 y,设初始参数 p1 后,那么每次 f*(x;w) 得到的 y`与实际标识 y 相比,若正确则通过,若错误则适当调整参数 w,如果能够正确的调整好参数 w,f*(x;w) 就会与理想中的 f(x) 函数足够接近,我们就获得了概率上足够高准确率的 f*(x;w) 函数。这一过程叫做监督学习下的训练。而计算 f*(x;w) 值的过程因为是正常的函数运算,我们称为前向运算,而训练过程中比较 y`与实际标识 id 值 y 结果后,调整参数 p 的过程则是反过来的,称为反向传播

由于我们传递的 x 入参毕竟是一张照片,照片既有对焦、光线、角度等导致的不太容易衡量的质量问题,也有本身的像素数多少问题。如果 x 本身含有的数据太少,即图片非常不清晰,例如 28*28 像素的照片,那么谁也无法准确的分辨出是哪个人。可以想见,必然像素数越多识别也越准,但像素数越多导致的计算、传输、存储消耗也越大,我们需要有根据地找到合适的阈值。下图是 FaceNet 论文的结果,虽然只是一家之言,但 Google 的严谨态度使得数据也很有参考价值。

从图中可见, 排除照片其他质量外, 像素数至少也要有 100*100(纯人脸部分)才能保证比较高的识别率。

二、深度学习技术的原理

由清晰的人脸照转化出的像素值矩阵,应当设计出什么样的函数 f(x) 转化为特征值呢?这个问题的答案依赖于分类问题。即,先不谈特征值,首先如何把照片集合按人正确地分类?这里就要先谈谈机器学习。机器学习认为可以从有限的训练集样本中把算法很好地泛化。所以,我们先找到有限的训练集,设计好初始函数 f(x;w),并已经量化好了训练集中 x->y。如果数据 x 是低维的、简单的,例如只有二维,那么分类很简单,如下图所示:

上图中的二维数据 x 只有方形和圆形两个类别 y,很好分,我们需要学习的分类函数用最简单的 f(x,y)=ax+by+c 就能表示出分类直线。例如 f(x,y) 大于 0 时表示圆形,小于 0 时表示方形。

给定随机数作为 a,c,b 的初始值,我们通过训练数据不断的优化参数 a,b,c,把不合适的 L1、L3 等分类函数逐渐训练成 L2,这样的 L2 去面对泛化的测试数据就可能获得更好的效果。然而如果有多个类别,就需要多条分类直线才能分出,如下图所示:

这其实相当于多条分类函数执行与 &&、或||操作后的结果。这个时候还可能用 f1>0 && f2<0 && f3>0 这样的分类函数,但如果更复杂的话,例如本身的特征不明显也没有汇聚在一起,这种找特征的方式就玩不转了,如下图所示,不同的颜色表示不同的分类,此时的训练数据完全是非线性可分的状态:

这个时候,我们可以通过多层函数嵌套的方法来解决,例如 f(x)=f1(f2(x)),这样 f2 函数可以是数条直线,而 f1 函数可以通过不同的权重 w 以及激励函数完成与 &&、或||等等操作。这里只有两层函数,如果函数嵌套层数越多,它越能表达出复杂的分类方法,这对高维数据很有帮助。例如我们的照片毫无疑问就是这样的输入。所谓激励函数就是把函数 f 计算出的非常大的值域转化为 [0,1] 这样较小的值域,这允许多层函数不断地前向运算、分类。

前向运算只是把输入交给 f1(x,w1) 函数,计算出的值再交给 f2(y1,w2) 函数,依次类推,很简单就可以得到最终的分类值。但是,因为初始的 w 权重其实没有多大意义,它得出的分类值 f*(x) 肯定是错的,在训练集上我们知道正确的值 y,那么事实上我们其实是希望 y-f*(x) 的值最小,这样分类就越准。这其实变成了求最小值的问题。当然,y-f*(x) 只是示意,事实上我们得到的 f*(x) 只是落到各个分类上的概率,把这个概率与真实的分类相比较得到最小值的过程,我们称为损失函数,其值为 loss,我们的目标是把损失函数的值 loss 最小化。在人脸识别场景中,softmax 是一个效果比较好的损失函数,我们简单看下它是如何使用的。

比如我们有训练数据集照片对应着 cat、dog、ship 三个类别,某个输入照片经过函数 f(x)=x*W+b,前向运算得到该照片属于这 3 个分类的得分值。此时,这个函数被称为得分函数,如下图所示,假设左边关于猫的 input image 是一个 4 维向量 [56,231,24,2],而 W 权重是一个 4*3 的矩阵,那么相乘后再加上向量 [1.1,3.2,-1.2] 可得到在 cat、 dog、ship 三个类别上的得分:

从上图示例可见,虽然输入照片是猫,但得分上属于狗的得分值 437.9 最高,但究竟比猫和船高多少呢?很难衡量!如果我们把得分值转化为 0-100 的百分比概率,这就方便度量了。这里我们可以使用 sigmoid 函数,如下图所示:

从上图公式及图形可知,sigmoid 可以把任意实数转换为 0-1 之间的某个数作为概率。但 sigmoid 概率不具有归一性,也就是说我们需要保证输入照片在所有类别的概率之和为 1,这样我们还需要对得分值按 softmax 方式做以下处理:

这样给定 x 后可以得到 x 在各个类别下的概率。假定三个类别的得分值分别为 3、1、-3,则按照上面的公式运算后可得概率分别为 [0.88、0.12、0],计算过程如下图所示:

然而实际上 x 对应的概率其实是第一类,比如 [1,0,0],现在拿到的概率(或者可称为似然)是 [0.88、0.12、0]。那么它们之间究竟有多大的差距呢?这个差距就是损失值 loss。如何获取到损失值呢?在 softmax 里我们用互熵损失函数计算量最小(方便求导),如下所示:

其中 i 就是正确的分类,例如上面的例子中其 loss 值就是 -ln0.88。这样我们有了损失函数 f(x) 后,怎么调整 x 才能够使得函数的 loss 值最小呢?这涉及到微分导数。

三、梯度下降

梯度下降就是为了快速的调整权重 w,使得损失函数 f(x;w) 的值最小。因为损失函数的值 loss 最小,就表示上面所说的在训练集上的得分结果与正确的分类值最接近!

导数求的是函数在某一点上的变化率。例如从 A 点开车到 B 点,通过距离和时间可以算出平均速度,但在其中 C 点的瞬时速度是多少呢?如果用 x 表示时间,f(x) 表示车子从 A 点驶出的距离,那么在 x0 的瞬时速度可以转化为:从 x0 时再开一个很小的时间,例如 1 秒,那么这一秒的平均速度就是这一秒开出的距离除以 1 秒,即 (f(1+x0)-f(x0))/1。如果我们用的不是 1 秒而是 1 微秒,那么这个 1 微秒内的平均速度必然更接近 x0 时的瞬时速度。于是,到该时间段 t 趋向于 0 时,我们就得到了 x0 时的瞬时速度。这个瞬时速度就是函数 f 在 x0 上的变化率,所有 x 上的变化率就构成了函数 f(x) 的导数,称为 f`(x)。即:

从几何意义上看,变化率就变成了斜率,这更容易理解怎样求函数的最小值。例如下图中有函数 y=f(x) 用粗体黑线表示,其在 P0 点的变化率就是切线红线的斜率:

可以形象的看出,当斜率的值为正数时,把 x 向左移动变小一些,f(x) 的值就会小一些;当斜率的值为负数时,把 x 向右移动变大一些,f(x) 的值也会小一些,如下图所示:

这样,斜率为 0 时我们其实就得到了函数 f 在该点可以得到最小值。那么,把 x 向左或者向右移一点,到底移多少呢?如果移多了,可能移过了,如果移得很少,则可能要移很久才能找到最小点。还有一个问题,如果 f(x) 操作函数有多个局部最小点、全局最小点时,如果 x 移的非常小,则可能导致通过导数只能找到某个并不足够小的局部最小点。如下图所示:

蓝色的为局部最小点,红色是全局最小点。所以 x 移动多少是个问题,x 每次的移动步长过大或者过小都可能导致找不到全局最小点。这个步长除了跟导数斜率有关外,我们还需要有一个超参数来控制它的移动速度,这个超参数称为学习率,由于它很难优化,所以一般需要手动设置而不能自动调整。考虑到训练时间也是成本,我们通常在初始训练阶段把学习率设的大一些,越往后学习率设的越小。

那么每次移动的步长与导数的值有关吗?这是自然的,导数的正负值决定了移动的方向,而导数的绝对值大小则决定了斜率是否陡峭。越陡峭则移动的步长应当越大。所以,步长由学习率和导数共同决定。就像下面这个函数,λ是学习率,而∂F(ωj) / ∂ωj是在ωj点的导数。

ωj = ωj – λ ∂F(ωj) / ∂ωj

根据导数判断损失函数 f 在 x0 点上应当如何移动,才能使得 f 最快到达最小值的方法,我们称为梯度下降。梯度也就是导数,沿着负梯度的方向,按照梯度值控制移动步长,就能快速到达最小值。当然,实际上我们未必能找到最小点,特别是本身存在多个最小点时,但如果这个值本身也足够小,我们也是可以接受的,如下图所示:

以上我们是以一维数据来看梯度下降,但我们的照片是多维数据,此时如何求导数?又如何梯度下降呢?此时我们需要用到偏导数的概念。其实它与导数很相似,因为 x 是多维向量,那么我们假定计算 Xi 的导数时,x 上的其他数值不变,这就是 Xi 的偏导数。此时应用梯度下降法就如下图所示,θ是二维的,我们分别求θ0 和θ1 的导数,就可以同时从θ0 和θ1 两个方向移动相应的步长,寻找最低点,如下图所示:

前文说过,根据有限的训练集,去适应无限的测试集,当然训练集容量越大效果就越好。但是,训练集如果很大,那么每次都根据全部数据执行梯度下降计算量就太大了。此时,我们选择每次只取全部训练集中的一小部分(究竟多少,一般根据内存和计算量而定),执行梯度下降,不断的迭代,根据经验一样可以快速地把梯度降下来。这就是随机梯度下降

上面的梯度下降法只能对 f 函数的 w 权重进行调整,而上文中我们说过实际是多层函数套在一起,例如 f1(f2(x;w2);w1),那么怎么求对每一层函数输入的导数呢?这也是所谓的反向传播怎样继续反向传递下去呢?这就要提到链式法则。其实质为,本来 y 对 x 的求导,可以通过引入中间变量 z 来实现,如下图所示:

这样,y 对 x 的导数等价于 y 对 z 的导数乘以 z 对 x 的偏导。当输入为多维时则有下面的公式:

如此,我们可以得到每一层函数的导数,这样可以得到每层函数的 w 权重应当调整的步长,优化权重参数。

由于函数的导数很多,例如 resnet 等网络已经达到 100 多层函数,所以为区别传统的机器学习,我们称其为深度学习

深度学习只是受到神经科学的启发,所以称为神经网络,但实质上就是上面提到的多层函数前向运算得到分类值,训练时根据实际标签分类取损失函数最小化后,根据随机梯度下降法来优化各层函数的权重参数。人脸识别也是这么一个流程。以上我们初步过完多层函数的参数调整,但函数本身应当如何设计呢?

四、基于 CNN 卷积神经网络进行人脸识别

我们先从全连接网络谈起。Google 的TensorFlow 游乐场里可以直观的体验全连接神经网络的威力,这是游乐场的网址:,浏览器里就可以做神经网络训练,且过程与结果可视化。如下图所示:

这个神经网络游乐场共有 1000 个训练点和 1000 个测试点,用于对 4 种不同图案划分出蓝色点与黄色点。DATA 处可选择 4 种不同图案。

整个网络的输入层是 FEATURES(待解决问题的特征),例如 x1 和 x2 表示垂直或者水平切分来划分蓝色与黄色点,这是最容易理解的 2 种划分点的方法。其余 5 种其实不太容易想到,这也是传统的专家系统才需要的,实际上,这个游乐场就是为了演示,1、好的神经网络只用最基本的 x1,x2 这样的输入层 FEATURES 就可以完美的实现;2、即使有很多种输入特征,我们其实并不清楚谁的权重最高,但好的神经网络会解决掉这个问题。

隐层(HIDDEN LAYERS)可以随意设置层数,每个隐层可以设置神经元数。实际上神经网络并不是在计算力足够的情况下,层数越多越好或者每层神经元越多越好。好的神经网络架构模型是很难找到的。本文后面我们会重点讲几个 CNN 经典网络模型。然而,在这个例子中,多一些隐层和神经元可以更好地划分。

epoch 是训练的轮数。红色框出的 loss 值是衡量训练结果的最重要指标,如果 loss 值一直是在下降,比如可以低到 0.01 这样,就说明这个网络训练的结果好。loss 也可能下降一会又突然上升,这就是不好的网络,大家可以尝试下。learning rate 初始都会设得高些,训练到后面都会调低些。Activation 是激励函数,目前 CNN 都在使用 Relu 函数。

了解了神经网络后,现在我们回到人脸识别中来。每一层神经元就是一个 f 函数,上面的四层网络就是 f1(f2(f3(f4(x))))。然而,就像上文所说,照片的像素太多了,全连接网络中任意两层之间每两个神经元都需要有一次计算。特别之前提到的,复杂的分类依赖于许多层函数共同运算才能达到目的。当前的许多网络都是多达 100 层以上,如果每层都有 3*100*100 个神经元,可想而知计算量有多大!于是CNN 卷积神经网络应运而生,它可以在大幅降低运算量的同时保留全连接网络的威力。

CNN 认为可以只对整张图片的一个矩形窗口做全连接运算(可称为卷积核),滑动这个窗口以相同的权重参数 w 遍历整张图片后,可以得到下一层的输入,如下图所示:

CNN 中认为同一层中的权重参数可以共享,因为同一张图片的各个不同区域具有一定的相似性。这样原本的全连接计算量过大问题就解决了,如下图所示:

结合着之前的函数前向运算与矩阵,我们以一个动态图片直观的看一下前向运算过程:

这里卷积核大小与移动的步长 stride、输出深度决定了下一层网络的大小。同时,核大小与 stride 步长在导致上一层矩阵不够大时,需要用 padding 来补 0(如上图灰色的 0)。以上就叫做卷积运算,这样的一层神经元称为卷积层。上图中 W0 和 W1 表示深度为 2。

CNN 卷积网络通常在每一层卷积层后加一个激励层,激励层就是一个函数,它把卷积层输出的数值以非线性的方式转换为另一个值,在保持大小关系的同时约束住值范围,使得整个网络能够训练下去。在人脸识别中,通常都使用 Relu 函数作为激励层,Relu 函数就是 max(0,x),如下所示:

可见 Relu 的计算量其实非常小!

CNN 中还有一个池化层,当某一层输出的数据量过大时,通过池化层可以对数据降维,在保持住特征的情况下减少数据量,例如下面的 4*4 矩阵通过取最大值降维到 2*2 矩阵:

上图中通过对每个颜色块筛选出最大数字进行池化,以减小计算数据量。

通常网络的最后一层为全连接层,这样一般的 CNN 网络结构如下所示:

CONV 就是卷积层,每个 CONV 后会携带 RELU 层。这只是一个示意图,实际的网络要复杂许多。目前开源的 Google FaceNet 是采用 resnet v1 网络进行人脸识别的,关于 resnet 网络请参考论文,其完整的网络较为复杂,这里不再列出,也可以查看基于 TensorFlow 实现的 Python 代码,注意 slim.conv2d 含有 Relu 激励层。

以上只是通用的 CNN 网络,由于人脸识别应用中不是直接分类,而是有一个注册阶段,需要把照片的特征值取出来。如果直接拿 softmax 分类前的数据作为特征值效果很不好,例如下图是直接将全连接层的输出转化为二维向量,在二维平面上通过颜色表示分类的可视化表示:

可见效果并不好,中间的样本距离太近了。通过centor loss方法处理后,可以把特征值间的距离扩大,如下图所示:

这样取出的特征值效果就会好很多。

实际训练 resnet v1 网络时,首先需要关注训练集照片的质量,且要把不同尺寸的人脸照片 resize 到 resnet1 网络首层接收的尺寸大小。另外除了上面提到的学习率和随机梯度下降中每一批 batchsize 图片的数量外,还需要正确的设置 epochsize,因为每一轮 epoch 应当完整的遍历完训练集,而 batchsize 受限于硬件条件一般不变,但训练集可能一直在变大,这样应保持 epochsize*batchsize 接近全部训练集。训练过程中需要密切关注 loss 值是否在收敛,可适当调节学习率。

最后说一句,目前人脸识别效果的评价唯一通行的标准是 LFW(即 Labeled Faces in the Wild,参见 http://vis-www.cs.umass.edu/lfw/),它包含大约 6000 个不同的人的 12000 张照片,许多算法都依据它来评价准确率。但它有两个问题,一是数据集不够大,二是数据集场景往往与真实应用场景并不匹配。所以如果某个算法称其在 LFW 上的准确率达到多么的高,并不能反应其真实可用性。

转载地址:https://blog.csdn.net/ytp552200ytp/article/details/90718705 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:人脸识别核心算法简介
下一篇:人脸识别的关键技术及原理

发表评论

最新留言

初次前来,多多关照!
[***.217.46.12]2024年04月06日 04时47分30秒