基于多块LBP表示的人脸检测外文翻译资料

 2022-12-05 16:36:21

英语原文共 8 页,剩余内容已隐藏,支付完成后下载完整资料


基于多块LBP表示的人脸检测

Lun Zhang, Rufeng Chu, Shiming Xiang, Shengcai Liao, and Stan Z. Li

Center for Biometrics and Security Research amp; National Laboratory of Pattern Recognition

Institute of Automation, Chinese Academy of Sciences

95 Zhongguancun Donglu Beijing 100080, China

摘要:Viola和Jones使用AdaBoost分类器学习矩形类哈尔特征使有效和实时的人脸检测成为可能[12]。在本文中,我们为人脸检测提出了一组新的与众不同的矩形特征,称为多块的局部二元模式(MB-LBP)。MB-LBP通过局部二进制模式算子对矩形区域的强度进行编码,由此产生的二进制模式可以描述不同的局部图像纹理特征。基于MB-LBP特征,开发了一种基于集成的学习方法,实现了人脸检测的任务。为了处理MB-LBP特性的非度量特征值,boost算法使用多分支回归树作为弱分类器。实验显示,基于MB-LBP的弱分类器比Haar-like和原始LBP特征更有识别力。在相同数量的特征下,所提出的人脸检测器在给定的误报率为0.001的情况下,正检率比haar-like特征高15%,比原始LBP特征高8%。这表明MB-LBP 特征可以捕获更多有关图像结构的信息, 并比传统的haar-like特征只是简单地比较矩形间像素值的差别的性能更好。MB-LBP特性的另一个优点是它的特征集较小,这使得训练时间更短。

1 引言

人脸检测有着广泛的应用前景,如自动人脸识别、人机交互、监视等。近年来,基于人脸外观的检测方案取得了长足的进步。这些方法将人脸检测看作两类(人脸/非人脸)分类问题。由于外貌、光照、表情等因素的变化[ 11 ],具有良好性能的人脸/非人脸分类器非常复杂。构建基于学习方法的人脸/非人脸分类器是最有效的方法。例如,基于神经网络的方法[10]、支持向量机[9]等。

最近,Viola和Jones[12]提出的基于boosting的检测器被认为是人脸检测研究的一个突破。实时性是通过学习一系列简单的Haar-like矩形特征来实现的。Haar-like特征对两个矩形区域之间平均强度的差异进行编码,并且可以通过积分图快速计算[12]。完整的Haar-like特征集很大,包含大量冗余信息。本文用boosting算法来选择一个小的独特的矩形特征并构建一个强大的分类器。此外,级联结构[ 12 ]的使用进一步加快了计算速度。李等人,使用扩展的Haar特征集和改进的Boosting算法将该工作扩展到多视点人脸[5]。然而,这些Haar-like矩形特征看起来太简单了,而检测器通常包含数千个矩形特征,以获得相当大的性能。大量的特征提取导致训练和测试阶段的计算成本高。特别是在级联的后期,基于这些特征的弱分类器变得太弱,无法提高分类器的性能[7]。许多表示面部图像的其他特征被提出,包括旋转的haar特征[6],普查变换[3],稀疏特征[4]等。

本文提出了一种新的特征,称为多块局部二值模式(MB-LBP),以表示人脸图像。MB-LBP的基本思想是用局部二值模式算子对矩形区域进行编码[8]。MB-LBP特征也可以通过积分图像快速计算,同时这些特征比Haar-like特征更能捕获图像结构的信息,并更具有鉴别性。与原始LBP特征在局部的3times;3区域计算相邻像素差异,MB-LBP 可以捕获大尺度结构,这可能是图像结构的主要特征。我们直接使用LBP算子的输出作为特征值。但问题是这个值只是表示二进制字符串的符号。针对这种非度量特征值,设计了多分支回归树作为弱分类器。我们采用Gentle adaboost进行特征选择和分类器构造。然后建立级联检测器。MB-LBP的另一个优点是, MB-LBP特征集比Haar-like特征要小得多(在子窗口大小为20*20时,大约为haar-like特征的1/20)。基于Boosting的方法利用AdaBoost算法从大完备特征集中选择重要特征集。这个过程通常要花费数周的时间。MB-LBP的小特征集可以使这个过程更加简单。

本文的结构如下。第2部分介绍了MB-LBP特征。在第3部分中,提出了AdaBoost学习的特征选择和分类器构造。本节还介绍了级联检测器。这个实验结果在第4节中给出。第五部分是本文的结论。

2 多块局部二值模式特征

传统的Haar-like矩形特征测量了矩形区域平均强度的差异(见图1)。例如,一个双矩形滤波器的值是两个矩形区域内像素和的差值。如果我们改变矩形区域的位置、大小、形状和排列,Haar-like特征可以捕捉不同位置、空间频率和方向的梯度强度。Viola 和 Jones[12]应用了三种这样的特征来检测正脸。通过使用积分图像,任何尺度或位置的任何矩形滤波器类型都可以在常数时间内进行评估[12]。然而,Haar-like特征似乎过于简单,并且存在局限性[7]。

图1 传统Haar-like特性。这些特征测量了矩形区域平均强度的差异。

图2 多块LBP特征的图像表示

如图2所示,MB-LBP特征通过局部二值模式编码矩形区域的强度。由此产生的二值模式可以描述不同的图像结构。与在局部3times;3邻域中计算的原始局部二进制模式相比, MB LBP 可以捕获大尺度结构。

在本文中,我们提出了一个新的独特的矩形特征,称为多块局部二值模式(MB-LBP)特征。MB-LBP的基本思想是利用局部二值模式算子将Haar-like特征的简单差分规则化为编码矩形区域。原始的LBP,由Ojala [ 8 ]介绍,通过比较3*3区域内中心像素与周围像素之间的差值与阈值的关系确定特征值。为了对矩形进行编码,MB-LBP算子的定义是将中央矩形的平均强度gc与它的邻域矩形{g0,hellip;,g8 }进行对比。这样,它就能给我们一个二进制序列。MB-LBP算子的输出值如下

: (1)

其中,gc为中心矩形的平均强度,gi (i = 0,·,·,8)为邻域矩形,

:

在图2中可以找到关于这种MB-LBP算子的更详细的描述。我们直接使用生成的二值模式作为MB-LBP特性的特征值。这种二值模式可以在不同的尺度和位置检测出不同的图像结构,如边缘、线条、斑点、平坦区域和角[8]等。与原始LBP计算在局部3times;3区域内的像素相比较,MB-LBP可以捕获大型结构图像的主要特征。总的来说,我们可以得到256种二进制模式,其中一些可以在图3中找到。在4.1节中,我们进行了一个实验来评估MB-LBP特征。

图3 一个随机选择的MB-LBP特征子集

实验结果表明,MB-LBP特征比Haar-like特征和原始LBP特征更具有鉴别性。

MB-LBP的另一个优点是,大量的MB-LBP特征(在不同的尺度、位置和纵横比上的矩形)比Haar-like特征要小得多。若给出了20times;20个子窗口的大小,共有2049个MB-LBP特征,这个量是Haar特征的1/20(45891)。人们通常使用Adaboost算法在整个特征集中选择显著的特征,并构建一个二值分类器。由于Haar特征集数量庞大,训练过程通常花费太多时间。MB-LBP特征的数量较少,特征选择的实现就变得非常容易。

应该强调的是,MB-LBP特征的值是不可度量的。LBP运算符的输出只是表示二值字符串的一个符号。在下一节中,我们将描述如何基于MB-LBP特征设计弱分类器,并应用Adaboost算法来选择重要的特征和构造分类器。

3 特征选择与分类器构造

虽然MB-LBP特征的特征集比Haar-like特征小得多,但它也包含很多冗余信息。AdaBoost算法用于选择重要特征并构造一个二元分类器。在这里,AdaBoost被用来解决一个集成过程中的以下三个基本问题:(1)从大的特征集中学习有效的特征;(2)构造弱分类器,每个弱分类器都是基于所选的特征之一;(3)将弱分类器级联成更强的分类器。

3.1 AdaBoost学习

我们选择使用boost的版本,称为gentle adaboost [2],因为它很容易实现,并且鲁棒性更强。给定一组训练样本为(x1,y1),hellip;(xN,yN),其中yiisin; { 1, minus;1}是xiisin;Rn的类标签。集成学习提供了一个连续的过程来拟合公式的加法模型。这里的fm(x)通常被称为弱学习器,而F(x)被称为强学习器。Gentle AdaBoost使用自适应牛顿级数来最小化成本函数:J = E[e-yF(x)],它对应于在每一级中最小加权平方误差。

表1 Gentle AdaBoost算法

在每一级中,选择弱分类器fm(x),以最小化加权平方误差:

: (2)

3.2 弱分类器

通常定义弱学习器fm(x)为最优阈值分类函数[12],常被称为桩。然而,在第2节中指出,MB-LBP特征值是不可度量的。因此,使用基于阈值的函数作为弱学习器是不可能的。

这里我们描述了如何设计弱分类器。对于每个MB-LBP特征,我们采用多叉树作为弱分类器。多分支树共有256个分支,每个分支对应一个特定的MB-LBP特征值。弱分类器可定义为:

(3)

其中xk表示特征向量x的k-th元素,而aj, j = 0,hellip;, 255,是要学习的回归参数。这些弱学习器通常被称为决策树或回归树。我们可以找到最佳的基于树的弱分类器(参数k, aj为等式(2)中的最小加权平方误差),就像我们在回归树中学习一个节点一样。最小化方程(2)给出以下参数:

: (4)

由于每个弱学习器都依赖于一个特征,所以每一级都选择一个特征。在测试阶段,给定一个MB-LBP特征,我们可以通过这种多分支树快速得到相应的回归值。该函数类似于Haar-like特征的查找表(LUT)弱分类器[1],区别在于LUT分类器给出了一个实值域的划分。

4 实验

在本节中,我们将进行两个实验来评价所提出的方法。(1)比较MB-LBP特征与Haar-like特征和原始LBP特征。(2)在CMU MIT人脸数据库中评估所提出的检测器。

从各种来源收集了总共10000张的人脸图像,包括了旋转了30°的人脸图像。对于每个对齐的人脸样本,通过以下随机变换生成四个合成人脸示例:镜像、随机移位1/ -1像素、15度旋转和在20%缩放。人脸样本被缩放至20times;20。我们总共得到了40000个人脸样本。20000多个不含人脸的大图像用于采集非人脸样本。

4.1 特征比较

在这一部分,我们比较MB-LBP特征与Haar-like矩形特征和传统的LBP特征的性能。在实验中,我们使用26000个人脸样本,并将它们随机分成两个相同的部分,一个用于训练另一个用于测试。非人脸样本是从不包含人脸的大图像中随机采集的。我们的训练集包含13000个人脸样本和13000个非人脸样本,测试集包含13000个人脸样本和50000个非人脸样本。

在AdaBoost学习框架的基础上,对三个级联分类器进行训练。它们分别包含50个Haar-like特征,原始LBP特征和MBLBP特征。然后在测试集上对它们进行评估。图4(a)显示不同特征数量选择的训练错误率曲线(误报率和漏报率的平均值)。我们可以看到与MB-LBP特征对应的曲线的错误率最低。它指出基于MB-LBP特征的弱分类器具有较强的识别性。测试集上的三个分类器的ROC曲线可以在图4(b)中找到。结果表明,在给定的误报率为0.001的情况下,基于MB-LBP特征的分类器的准确率比haar-like特征高15%,比原始LBP特征高8%。以上都显示了MB-LBP的鉴别性。这主要是因为MB-LBP特征可以捕获更多关于图像结构的信息。

图4 比较结果与MB-LBP特征,类似haar特征和原始LBP特征。

  1. 曲线显示在训练过程中所选特征的错误率。
  2. ROC曲线显示了测试集上三个分类器的分类性能。

4.2 CMU MIT人脸设置实验结果

我们对基于MB-LBP特征的级联人脸检测器进行了训练,并在MIT CMU数据库上进行了测试,该数据库被广泛用于评价人脸检测算法的性能。这组照片由130张图片组成,有507张被标记的正面脸。为了训练人脸检测器,使用所有采集的40000个人脸样本,使用自举策略重新收集非人脸样本。我们经过训练的检测器有9层,包括470 MB-LBP特征。与Viola级联检测器[12]相比,它具有32个层和4297个特征,我们的MB-LBP特征要高效得多。从结果中可以看出,我们的方法使用更少的特征取得了更好的性能。在P4 3.0GHz的PC上,我们的检测器检测320x240的图像的处理时间小于0.1s。

表2 在MIT CMU实验结果集

图5 在MIT CMU一些检测结果集

5 结论<!--

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[21451],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

课题毕业论文、外文翻译、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。