1140
Kumar et al. / J Zhejiang Univ Sci A 2009 10(8):1140-1152
Journal of Zhejiang University SCIENCE A
ISSN 1673-565X (Print); ISSN 1862-1775 (Online)
www.zju.edu.cn/jzus; www.springerlink.com
E-mail: jzus@zju.edu.cn
Feature selection for face recognition: a memetic
algorithmic approach
1
2
3
Dinesh KUMAR , Shakti KUMAR , C. S. RAI
(
1
Department of Computer Science amp; Engineering, Guru Jambheshwar University of Science amp; Technology, Haryana 125001, India)
2
( Institute of Science and Technology, Haryana 135001, India)
(
3
University School of Information Technology, GGS Indraprastha University, Delhi 110403, India)
E-mail: dinesh_chutani@yahoo.com; shakti@istk.org; csrai_ipu@yahoo.com
Received June 18, 2008; Revision accepted Oct. 23, 2008; Crosschecked June 10, 2009
Abstract: The eigenface method that uses principal component analysis (PCA) has been the standard and popular method used in
face recognition. This paper presents a PCA - memetic algorithm (PCA-MA) approach for feature selection. PCA has been ex-
tended by MAs where the former was used for feature extraction/dimensionality reduction and the latter exploited for feature
selection. Simulations were performed over ORL and YaleB face databases using Euclidean norm as the classifier. It was found
that as far as the recognition rate is concerned, PCA-MA completely outperforms the eigenface method. We compared the per-
formance of PCA extended with genetic algorithm (PCA-GA) with our proposed PCA-MA method. The results also clearly es-
tablished the supremacy of the PCA-MA method over the PCA-GA method. We further extended linear discriminant analysis
(LDA) and kernel principal component analysis (KPCA) approaches with the MA and observed significant improvement in rec-
ognition rate with fewer features. This paper also compares the performance of PCA-MA, LDA-MA and KPCA-MA approaches.
Key words: Face recognition, Memetic algorithm (MA), Principal component analysis (PCA), Linear discriminant analysis
(LDA), Kernel principal component analysis (KPCA), Feature selection
doi:10.1631/jzus.A0820460
Document code: A
CLC number: TP391.4
INTRODUCTION
dimensional array of pixel intensity values. Appear-
ance-based approach extracts holistic representation
Face recognition is becoming a very hot and in- of the whole face image and comparison is done with
teresting research area because of its potential appli- several such face images. The popular recognition
cations (Chellappa et al., 1995; Zhao et al., 2003), in techniques most frequently used with face recognition
particular involving the great concern of security and are the eigenface method (Turk and Pentland, 1991),
privacy. As an ideal application for security, face
recognition can be deployed to limit an employeersquo;s 1998; Bartlett, 2001), Fisherrsquo;s linear discriminant
access to sensitive data in private companies and to analysis (LDA) (Swets and Weng, 1996; Belhumeur
independent component analysis (ICA) (Bartlett et al.,
prevent the physicians from accessing their patientsrsquo; et al., 1997), etc. Kirby and Sirovich (1990) have used
records in hospitals and the others like airport security, for the first time principal component analysis (PCA)
criminal identification, video surveillance, law en- to represent images of human faces, and PCA sub-
forcement, etc. Its approaches are broadly grouped
sequently applied to face recognition by Turk and
into feature-based and appearance-based techniques. Pentland (1991) was popularly known as the eigen-
In the first case, geometric characteristics (local sta- face method and became one of the standard and most
tistics of the eyes, the nose, the mouth, etc.) of the widely used face recognition approaches. The eigen-
faces to be matched are compared, whereas in the face method linearly projects the image space to a
second case, the faces are represented as a two-
feature space of a lower dimensionality. Another most
Kumar et al. / J Zhejiang Univ Sci A 2009 10(8):1140-1152
1141
popular technique for dimensionality reduction in Freisleben, 1997; Oh et al., 2004). In an attempt to
face recognition application is LDA, also known as improve the quality of solutions and particularly to
Fisherfaces. The two methods of PCA and LDA differ
in that the former aims to extract a subspace in which also been introduced during the past decade. In addi-
the variance is maximized and to seek the directions tion to various GAs improvements, recent develop-
avoid being trapped in local optima, other EAs have
that are efficient for representation, whereas the latter ments in EAs include other techniques inspired by
seeks directions that are efficient for discrimination. different natural processes: memetic algorithms (MAs)
PCA deals with second order statistics whereas the (Moscato, 1999), particle swarm optimization (PSO)
high order statistical dependencies remain untouched. (Bonabeau et al., 1999), ant colony systems (Dorigo
The higher order statistical dependencies are very and Caro, 1999; Dorigo and Stutzle, 2004), etc.
well dealt with by ICA for face recognition. Kernel
principal component analysis (KPCA) (Schouml;lkolf et
al., 1998; Yang et al., 2000; Kim et al., 2002), as a
In this paper we propos
剩余内容已隐藏,支付完成后下载完整资料
面部识别的特征选择
摘要:使用主成分分析(PCA)的特征面法一直是人脸识别中使用的标准流行方法。本文提出了一种用于特征选择的PCA模拟算法(PCA-MA)方法。PCA已被MA扩展,前者被用于特征提取/维数降低,后者被用于特征选择。在使用欧几里得范数作为分类器的ORL和YaleB面数据库上进行模拟。据发现,就识别率而言,PCA-MA完全胜过本征面法。我们将PCA扩展的遗传算法(PCA-GA)的性能与我们提出的PCA-MA方法进行比较。结果也明确了PCA-MA方法优于PCA-GA方法。我们进一步扩展了线性判别分析(LDA)和核心主成分分析(KPCA)方法与MA,并观察到识别率显著提高,功能较少。本文还比较了PCA-MA,LDA-MA和KPCA-MA方法的性能。
关键词:人脸识别,遗传算法(MA),主成分分析(PCA),线性判别分析
(LDA),内核主成分分析(KPCA),特征选择
doi:10.1631 / jzus.A0820460 文件代码:A 中图分类号:TP391.4
介绍
脸部识别正在变得非常热门且让人感兴趣的研究领域,因为它的潜在的应用,特别涉及到安全的重大关切隐私。作为安全性的理想应用,可以部署面部识别,以限制员工访问私人公司的敏感数据,并防止医生在医院及其他机构访问他们的记录,如机场安全,犯罪识别,视频监控,执法等。其方法大致分为基于特征和外观的技术。第一种情况下,比较要匹配的面的几何特征(眼睛,鼻子,口腔等的局部统计),而在第二种情况下这些面被表示为像素强度值的二维阵列。基于外观的方法提取整个脸部图像的整体表示,并与几个这样的脸部图像进行比较。人脸识别技术最常用的流行识别技术是特征面法(Turk和Pentland,1991),独立成分分析(ICA)(Bartlett等,1998; Bartlett,2001),Fisher的线性判别分析(LDA)(Swets和Weng,1996;Belhumeuret al。,1997)等。Kirby和Sirovic(1990)首次使用主成分分析(PCA)来表示人脸的图像,PCA随后应用于Turk和Pentland(1991)的面部识别, 被称为特征面法,并成为标准和最广泛使用的面部识别方法之一。特征面方法将图像空间线性投影到较低维度的特征空间。面部识别应用中降维的另一种最受欢迎的技术是LDA,也被称为Fisherfaces。 PCA和LDA的两种方法的不同之处在于,前者旨在提取方差最大化的子空间,并寻求有效表达的方向,而后者则寻求对歧视有效的方向.PCA处理二阶 统计数据,而高阶统计依赖依然保持不变。ICA对于面部识别非常好地处理了更高阶的统计依赖关系。 作为PCA的非线性扩展的内核主成分分析(KPCA)(Schouml;lkolf等,1998; Yang等人,2000; Kim等,2002)是考虑到较高阶统计量的另一种技术。 输入空间首先通过非线性映射映射到特征空间中,然后在特征空间中确定主成分。
特征选择变得越来越重要,因为它在诸如模式识别,生物识别,遥感,数据挖掘和知识发现等各种科学和工程学科中的需求(Dash和Liu,1997; Jain和
宗克,1997; Kohavi和John,1997)。特征选择的目的是在冗余特征的给定特征集中找到最小特征子集删除以减少特征空间,同时保留表示原始数据的信息的准确性。传统的特征选择方法如相关系数,残差均方和相互信息(Holz和Loew,1994; Kwak和Choi,2002)都是基于统计工具,而另一类特征选择方法包括从基于人群的软复合进行优化算法。这些算法将特征选择作为优化问题,并找到最优特征子集。进化算法是模拟自然生物进化和/或物种社会行为的隐喻的随机搜索方法(Elbeltagi et al,2005)。基于第一种基于进化的技术的遗传算法(GAs)是基于“适者生存”的达尔文原则开发的通过繁殖进化的自然过程(Goldberg,1989)。由于它已经证明能够达到接近最佳解决方案的大问题,所以GA技术已经被应用于许多应用(Siedlecki和Sklansky,1989;Freisleben, 1997; Oh et al, 2004).为了提高解决方案的质量,特别是为了避免陷入局部最优状况,过去十年中也引入了其他的EAS.除了各种GA改进之外,EA的最新发展包括不同自然过程启发的其他技术:模拟算法(MAs)(Moscato,1999),粒子群优化(PSO)(Bonabeau等,1999),蚁群系统(Dorigo和Caro,1999; Dorigo and Stutzle,2004)等。
在本文中,我们提出使用MA进行面部识别的特征选择。 MAs背后的一般思想是将确定搜索空间中有趣区域的进化算子的优点与本地邻域搜索结合起来,从而在搜索空间的小区域中快速找到好的解决方案。特征选择有助于减少脸部图像的变化,同时增强辨别能力。 在该提出的方法中,特征选择的目标函数是系统的识别率,欧几里德范数被用作最近邻分类器。 同样的方法也适用于LDA和KPCA,用于比较所有三种方法,即PCA-MA,LDA-MA和KPCA-MA。
特征选择方法概述
根据评估程序,特征选择算法(Dash和Liu,1997; Kohavi和John,1997; Xing et al。2001; Guyon et al。,2002; Hsu et al。,2004; Mao,2004) 大致分为两类,即过滤法和包装法。 利用滤波方法,独立于算法进行特征选择,利用数据的固有特征来找到特征子集。另外,包装方法通过使用学习算法对特征子集进行特征选择,这两种方法进一步分为前向选择,后向消除,前向/后向组合,随机选择和基于实例的方法。 搜索特征选择可以从没有特征,所有特征或特征的随机子集开始,并且随着搜索在第一种情况下的进行而连续地添加特征。从所有功能开始的搜索将连续消除功能,而在最后一种情况下可以随机添加,删除或重现特征。前两种情况有一个缺点:一旦被选中(消除),以后不能丢弃(重新选择)特征。因此,提出了浮动搜索方法以赋予添加丢弃的特征或删除已经选择的特征的灵活性(Pudil等,1994)。 在一些搜索程序中,我们可以看到诸如逐步搜索(Kittler,1978),分支(Narendra和Fukunaga,1977),GAs(Oh et al。,2004)和蚁群优化(Yan 和元,2004)。
在本文中,通过整合GA和本地搜索,已经提出了一种基于新颖的基于包装器的方法,使用一个模糊框架。 通过生成过程生成预定数量的特征的特征子集,然后与以前的最佳候选人进行比较。 如果生成的特征子集更好,则替换前一子集,并且特征选择的操作将由停止标准确定。
用于面部识别的特征方法
作为最成功的外观面部识别方法之一的特征面法采用PCA。 PCA是一种无监督的技术,将原始变量集合线性变换成代表原始变量集中的大部分信息的相对较小的一组不相关变量。 这种技术将数据转换成新的坐标系,其中通过数据的任何投影的最大方差位于第一坐标(该第一坐标被称为第一主分量),第二坐标上的第二大方差, 等等。 这些主要成分是正交的。 作为给定数据最小均方误差的理论最优线性变换,PCA用于通过将原始高维数据集压缩成较小的维数并重构原始数据来降低原始高维数据集的维数。 一小组不相关的变量更容易一组不相关的变量在进一步分析中比一组较大的相关变量更容易理解和使用。在1901年,皮尔逊首先在生物语境中引入了这种变换,将线性回归分析转化为新的形式。 Hotelling(1993)在心理测量学的背景下使用它将离散变量变换为不相关的系数,因此在其某些应用中也被称为Hotelling变换或Karhunen-Loeacute;ve变换。 Kirby和Sirovich(1990)是第一个应用PCA来重构人脸,表明任何脸都可以沿着本征图像的坐标空间表示,脸部也可以使用少量的本征图像和相应的系数进行重建。土耳其和Pentland(1991)提出的技术提出了特征面。他们首次成功地展示了机器识别面孔。特征面是通过计算训练面部图像数据的协方差确定的与相应特征值相关的特征向量。只有具有主导特征值的最优特征向量被保留,从而降低了维度,并简化了人脸识别过程。
考虑在n维图像空间中取值的N个样本图像集合{Gamma;1,Gamma;2,...,Gamma;N}。假设每个面部图像具有mtimes;n = M个像素,并且被表示为Mtimes;1列 向量,具有已知个体的N个面部图像的“训练集合”T形成Mtimes;N矩阵:
Gamma;=[Gamma; 1 , Gamma; 2 , hellip;, Gamma; N ]
Psi;是所有样本的平均图像:
从所有样本图像中减去Psi;产生一个新集合F = [Phi;1,Phi;2,...,Phi;N],其中Phi;i =Gamma;i-Psi;。 通过将PCA应用于新集合F,我们获得一组N个正交向量V i。 选择第k个向量使得
是最大的
V k和lambda;k分别是协方差矩阵的特征向量和特征值
我们只选择对应于d个最大特征值lambda;1,lambda;2,...,lambda;d的C的特征向量V 1,V 2,...,V d。 然后将新图像f投影到所选择的一组特征向量U = [V 1,V 2,...,V d]上,给出(Turk和Pentland,1991)
omega; =V f for k=1, 2, hellip;, d.
omega;k(k = 1,2,...,d)形成权重分布向量
omega;=[omega; 1 , omega; 2 , hellip;, omega; d ].
欧几里德规范已经被用作相似性的度量。 测试图像(新图像)权重向量与已知(训练)图像的重量矢量相匹配。
记忆算法
用作进化规划,进化策略,遗传算法和遗传规划的一般术语的进化算法(EAs)已经成功应用于搜索,优化和人工智能的各个领域(Merz和Freisleben,2000)。 在组合优化领域,已经证明增加具有问题特异性启发式的EA具有高效的方法。 这些混合EA通过结合域知识和基于群体的搜索方法来结合有效启发式的优点。 这种杂交的一种形式是在局部搜索中使用有时称为遗传本地搜索算法的EA属于MA类。
MAs是应用单独的本地搜索过程来优化个体以提高其适应度的进化算法。这些是基于达尔文自然进化原理的基于人口的元启发式搜索方法,并依赖于生物进化的概念和Dawkin的一个模因概念(被定义为能够进行局部改进的模仿文化进化的单位)(Dawkins,1976)。虽然在自然界中,基因通常在个体的生命中不被修饰,但是模因是。 MA的独特之处在于,所有的染色体和后代都被允许通过本地搜索获得一些经验,然后才参与进化过程。通过使用EA进行勘探,MA将全局和局部搜索结合起来,并为进化计算提供了一种强大的算法技术,而本地搜索方法可以进行开发。享受各种应用(Aydemir et al。,2005; Sheng et al。, 2007; 2008; Zhu and Ong,2007; Zhu et al。,2007),MA比其传统的对手更有效地搜索并融合到高质量的解决方案。图1给出了MA程序的伪代码。与GA类似,随机创建初始人口,然后对每个群体成员进行本地搜索,以提高其经验,从而获得一群局部最优解。然后,交叉和变异算子被应用于产生以后受到局部搜索的后代,使得始终保持局部最优性(Elbeltagi等,2005)。
仿真算法程序的伪代码:
Procedure MA
begin
generate random population of P solutions (chromosomes);
for each individual iisin;P: calculate fitness(i);
for j=1 to #generations
for each individual iisin;P: do i=Local-Search(i);
for crossover
select two parents i a , i b isin;P randomly;
generate offspring i c =Crossover(i a , i b );
i c =Local-Search(i c );
add individual i c to P;
end for
for mutation
select an individual iisin;P randomly;
generate offspring i c =Mutate(i);
i c =Local-Search(i c );
add individual i c to P;
end for
P=select(P);
j=j 1;
end for
End
特征选择的记忆算法
人脸识别系统
在基于PCA和MA的人脸识别系统中,PCA首先应用于面部图像数据,并计算特征向量,然后按其相应特征值的降序排列。只有具有主要特征值的显着特征向量被保留。这是为了降低维数而做的。对于我们的工作,在特征选择之前,我们只保留了特征向量总数的百分之三十。对于数据的投影,这些保留的特征向量中的哪一个将被使用MA决定。在特征(特征向量)选择之后,将训练数据投影到这些特征向量上并计算PCA系数。通过将测试图像的系数与训练集中存在的系数的系数进行比较,使用测试图像来进行人脸识别。已经使用欧几里得规范作为图像分类的距离度量。最后,经过多代,具有最高识别率的特征子集(特征向量)被认为是最优子集。
客观功能
目标函数由识别率定义,即 Fitness(ch)=F(S ch ),其中S ch表示染色体中预定数量的所选特征的相应子集。 对于给定的子集,评估由特征选
剩余内容已隐藏,支付完成后下载完整资料
资料编号:[139170],资料为PDF文档或Word文档,PDF文档可免费转换为Word
课题毕业论文、外文翻译、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。