使用3D人脸促进儿童面部的表情识别外文翻译资料

 2022-11-13 15:38:26

英语原文共 6 页,剩余内容已隐藏,支付完成后下载完整资料


使用3D人脸促进儿童面部的表情识别

本研究评估了呈现3D面部刺激是否可以促进儿童的面部表情识别。71名年龄在3至6岁之间的儿童参加了这项研究。他们的任务是判断每次试验中出现的面孔是否表现出快乐或恐惧。一半的脸刺激用3D表示显示,而另一半图像显示为2D图片。我们在这些条件下比较了表情识别。结果表明3D脸部的使用提高了男孩和女孩的面部表情识别速度。此外,3D面孔提高了男孩对恐惧表情的识别准确性。因为恐惧是最困难的儿童面部表情识别,3D面部的促进作用对面部表情识别困难儿童具有重要的意义。 3D的潜在好处其他表达的表示也对开发更现实的儿童的表达识别评估有影响。

从面部表情中了解他人的感受对儿童的社会发展和适应至关重要。传统上,儿童识别面部表情的能力评估主要依赖于二维(2D)面部刺激。很少有人知道这张脸和真实的脸有什么区别是三维的(3D),影响这些评估的准确性。

二维人脸和三维人脸刺激的主要区别之一是深度线索的可用性。事实上,直接的社会互动通常发生在远处,立体视觉通过双眼视觉提供强烈的深度线索。尽管3D表现在成人面部识别中的作用相对较小,对于孩子们来说,这一点是否正确还不得而知。研究表明,三维信息可能是有用的儿童在其他认知任务中的表现。例如,它创建了一个更有效的模式儿童顺序时间知觉与二维图稿的比较;在3D环境中教学可提高儿童相对于二维环境的认知适应性。此外,三维虚拟现实可以提高青少年对其同学的社交和情感体验的认识。这些研究结果表明,三维表征可能在儿童社会认知发展中发挥重要作用。它因此,研究3D信息对儿童面部发育的影响是明智的。感知。本研究的主要目的是了解3D表示是否可以促进儿童面部表情的识别。

研究表明,儿童面部表情的辨别从幼儿到中年越来越准确。研究表明,只有几个月大的婴儿才能从视觉上辨别面部表情,这一点可以从习惯和偏好等眼动范例中看出。也有行为证据表明,12个月大的婴儿可以根据自己的行为调整自己的行为。护理者的正面或负面面部表情。儿童口头表达面部表情的能力特定的情绪状态出现在2到3岁之间。孩子们首先认识到的面部表情是幸福,其次是悲伤和愤怒10-12,而恐惧、惊讶和厌恶的表情则出现了。稍后确认,年龄约为4岁,13-16岁。中国儿童也有类似的表现面部情绪识别的发展轨迹17。因此,文献表明儿童的认知特定的面部表情是随着年龄的增长而形成的一种相当普遍的发展模式,在这种模式中,儿童首先学会认清快乐的表情,然后害怕。

多年来,人们对儿童辨别面部表情的能力进行了各种研究(针对审查,见参考文献18)。然而,据我们所知,迄今为止所有的研究都使用二维照片或图片测试儿童对面部表情的认知。这一限制使得很难评估三维形状在识别中的作用。当前的研究旨在弥合文学中的这一鸿沟。我们检验了当面部刺激以3D面部格式呈现时,儿童更准确地识别面部表情的假设。

与二维人脸图像相比,三维人脸保留了更多关于人脸几何的信息。例如,只有当深度提示可用时,才能准确估计全正面视图中鼻子的高度。在物体识别文献表明,立体观察物体可以得到更好的概括。新观点。立体观看改善形状歧视,即使当丰富的单目形状线索是可用。

人脸感知也可能涉及三维形状处理,从可用的深度线索得到表面结构。比如纹理和底纹。事实上,与对象识别相比,人脸识别似乎更依赖于表面特性的表示,如着色。在3D人脸模型中,面部特征由局部和全局曲率可被视为一个人的真实识别特征。研究有结果表明,3D信息有时会改善模拟深度平面的人脸识别性能以及不同的面部视图。

尽管这些研究表明,三维信息对于识别人脸身份是有用的,但它不是知道它是否也有助于识别面部表情。考虑到孩子们的技能比成人在识别面部表情时,我们假设儿童在面部表情识别任务中的表现可以从深度线索中获益更多,因为在3D中更准确地表达面部特征应该导致潜在的更高的识别能力。

儿童在表达处理任务中表现的重要预测因子27,28。尤其是女性长期以来,面部表情处理的优势一直被记录在案27。在基本的面部表情中,快乐最早最准确地被识别出来,而恐惧最晚最不准确地被儿童识别出来。根据布洛克和拉塞尔的31-33结构模型,快乐和恐惧是快乐的两个对立面。对于这两种表达方式,儿童在自由标记任务中的表现在3, 4岁和5岁时有所改善。因此,我们在当前的研究中选择了这些儿童可以识别的表达方式。

考虑到这些先前的发现,我们可以假设使用3D人脸将有助于儿童面部表情识别的处理速度和准确性。此外,我们希望儿童面部表达处理也会受到儿童年龄、性别、表达强度和表达类别的影响,如儿童二维人脸处理中发现的。

材料和方法

参与者:71名3至6岁的儿童参加了这项研究。其中35个是从第一年开始(mage=4岁1个月,sd=2个月,17个女孩),从第三年开始36个月(mage=5岁7个月,SD=3个月,18个女孩)。所有儿童视力正常,没有已知精神疾病。从所有参与儿童的法定监护人处获得知情同意。这个议定书由中国科学院心理学研究所机构审查委员会批准。这些方法是根据赫尔辛基宣言进行的。

材料:我们使用了4个中国模型(2个男性和2个女性),有2个表达(恐惧和幸福)四个强度等级。这些面以两种图像格式显示,即二维或三维表示。这个总共有64个面部刺激(4个模型times;2个表达式times;4个强度times;2个图像格式)。两附加在实际试验中使用了相同的模型和条件。面部刺激是从BU-3DFE中选择的。数据库。尹和同事使用3D人脸成像系统(3DMD数字化仪)合并六个同步相机的视点数据,并生成一个单一的三维人脸表面地图。要求模型执行在短时间内的每个表达式。通过询问首先模拟每个表达的光(低)强度,以模拟情绪状态的自发性。然后要求每个模型执行四个阶段的表达式,从低强度、中等强度到

特定表达的高强度和最高强度。由模型来显示四个阶段的表达式以他/她自己的风格。最后,通过他/她自己的模型,对每个表达式数据集进行三步验证。通过专家解释面部表情,通过机器通过面部表情识别。最终数据库包含来自100人的面部表情的二维图像、三维模型和纹理图。情绪化的面孔像真彩色照片,没有面部毛发和眼镜。

在当前研究的二维图像格式条件下,显示了二维图像。在3D图像中格式化条件下,在屏幕上渲染具有相关纹理的三维人脸模型。首先将3D模型的对象文件格式转换为开放的发明人文件格式(http://OSS.SGI.COM/项目/发明人/)。然后用VRVISION36进行显示,VRVISION36是专门为在Matlab中显示3D刺激而开发的。VRVISION用作Matlab和开放式Inventor图形环境之间的接口,显示根据预定义的图像条件使用图形库的三维面。面部图像全部显示以中性灰色为背景的颜色。从前额顶到下巴尖的面部高度是约10cm(60 cm处约9.5度视角)。面部宽度约为7.6-8.6厘米(7.2–8.2度)。

面部刺激显示在一台带有17英寸显示器的笔记本电脑上(联想,IDEAPAD Y570)。屏幕分辨率设置为1024times;768,32位颜色。实验控制软件用Matlab语言编写,带心理物理工具箱扩展的R2012。

为了确认3D图像格式可以感知到3D信息,我们招募了20名幼儿园儿童的另一个样本,以3点量表对3D的主观感觉进行评分(-1表示“我认为它是2D”,1表示“我认为是3D”,0表示64个测试脸部刺激中的每一个,包括2D。以及3D图像格式。评级前进行了八次实践测试。虚假设的二项式检验(plt;=0.5)分别对二维和三维图像的评级进行了成功概率评估。

图1 比例准确度作为图像格式和表达的函数,分别针对每个性别。误差线表示平均值的标准误差。

结果表明,儿童对二维和三维图像格式的主观感觉没有随机评价(P<0.001)。他们似乎能够区分二维和三维图像格式。

步骤

我们采用了两种可选的强制选择任务,要求孩子们判断每个试验中的一张脸都显示出快乐或恐惧的表情。

实践:键盘上的两个键都贴上了快乐或恐惧的表情符号标签。任务开始前,要求儿童识别每个标签的情绪。错误的答案被纠正直到正确为止已识别标签。接着是两个练习面,一次一个在中间显示。屏幕。每一张脸都有一个快乐的表情和一个恐惧的表情,每一张人脸显示一次为二维格式,一次为三维格式。孩子们被要求根据尽可能快、准确地按下其中一个标记的键。错误的回答被纠正到选择了正确的答案。8个实践试验(2个面times;2个表达式times;2个图像格式)在随机的顺序。

测试:实验试验在练习后立即进行。二维和三维条件在分开块。这两个街区的顺序在年龄和性别上是平衡的,所以一半的人都看2D。首先是面,另一半是先查看的三维面。每个区块的32个面部刺激按随机顺序呈现。每次试验都是从500毫秒的中心固定开始,接着是一张脸在屏幕上停留8秒或直到做出了响应。该程序与实践试验相同。

结果

首先,我们检查了方差分析的假设,并确认残差是正态分布的,并且可以假设等方差(pgt;0.05)。反应时间的异常值被排除在两个标准偏差切割。最终精度数据(m=0.72,sd=0.15)和反应时间数据(m=2.09,对71名受试者进行5路混合设计方差分析(2个图像格式times;2个表达式times;4个强度times;2个年龄组times;2个性别)。

对于反应时间,发现图像格式的主要效果(F(1,67)=4.32,=0.04,=0.06)。儿童的三维人脸(M=1.88s,SD=1.26)的面部表情识别速度明显快于二维人脸。(M=2.31秒,SD=0.96)。年龄也有主要影响(F(1,67)=19.74,lt;0.001,=0.23)。儿童在老年组,面部表情的识别速度(M=1.40 s,SD=0.22)比年轻组快(M=2.79 s,SD=0.22)。反应时间数据中未发现其他主要效应或相互作用效应(>0.06)。

对于精度数据,图像格式对精度的影响(f(1,67)=2.01,p=0.16,eta;2p=0.03)不显著。三维面(m=0.73,sd=0.10)和二维面(m=0.71,sd=0.09)的比例精度分别为:可比的。年龄有显著的主要影响(F(1,67)=20.12,Plt;0.001,eta;2。p=0.23)和强度(f(3,65)=7.39,plt;0.001,eta;2p=0.25)。老年组(m=0.79,sd=0.12)的表现更准确。与年轻组相比(m=0.66,sd=0.12)。精度随着表达强度的函数而提高(1至4级的M值分别为0.68、0.70、0.74和0.77)。

通过图像格式times;表达times;性别(f(1,67)=5.58,p=0.02,eta;2)的显著交互作用,验证了这些对准确性的主要影响。P=0.08),如图1所示。简单效果分析表明图像格式times;表达交互作用仅对男孩显著,F(1,69)=9.68,Plt;0.001,eta;2P=0.30。男孩在3D(m=0.73,sd=0.13)显示器上比2D(m=0.65,sd=0.18)显示器上更能识别恐惧。虽然这对女孩没有显著影响,F(1,69)=0.09,P=0.77,eta;2P=0.01。

进一步的三向相互作用对准确性的简单影响分析也揭示了表达times;性别(f(1,69)=6.17,p=0.003,eta;2)的显著简单相互作用效应。p=0.14)对于二维面。对于二维图像格式,男孩与女孩(m=0.71,sd=0.16)一样,也认同幸福感(m=0.75,sd=0.17),而男孩的恐惧感(m=0.66,sd=0.17)明显低于女孩(m=0.73,sd=0.17)。

为了评估3Dness知觉的变化对识别性能的影响,我们采用了基于项目的每幅3D图像的准确度和反应时间回归分析进行预测变量。结果表明,每幅3d图像的频率对反应时间有显著的预测作用(beta;=0.50,Plt;0.001,调整r2=0.24),但对反应时间的准确性没有显著的预测作用(P=0.62)。符合图像格式在主题分析中的效果。

讨论

本研究探讨了三维信息在儿童面部表情识别中的作用。结果不仅是这一信息在儿童面部表情识别速度方面具有显著优势,但同时也显示出有助于提高男孩对恐惧表情的认识。这些发现表明儿童能够更有效地识别3D面部表情,尤其有利于男孩识别困难的面部表情。当3D信息可用时的表达式。这意味着过去基于二维图像的研究可能低估了儿童在现实生活中识别某些表达的能力,因为在现实生活中,3D信息是可用的。

以前的研究人员已经提出使用3D人脸可以获得更好的身份识别性能。(例如,2;24;25)。我们的结果现在证实,3D信息也可以导致更快的识别幼儿面部表情和更高的准确性,识别男孩的困难情绪。原因之一促进面部表情处理速度的效果可能是使表情特征更可识别的附加深度线索。另一个影响因素可能是三维表示的生态有效性。孩子们可能更熟悉他们在现实生活中遇到的3D面孔。立体视觉中的面部刺激更像真实的面孔。这可能会受到面部处理中二维和三维信息的编码特异性程度的影响。如文献所述,二维和三维人脸表示之间的转换

即使在成年人中也会影响识别的准确性3.将儿童每天观察到的三维面与二维面进行匹配屏幕上的表示要求在立体视觉和从单眼深度线索中获得的不一致信息之间建立对应关系。因此,研究结果可能表明,儿童需要花费一定的时间。在二维-三维表示中传输信息。与先前的研究相一致,这表明从婴儿期到青春期,女性在面部表情识别方面具有强大的优势,我们的研究结果也显示女孩在表情识别方面胜过男孩。关于情绪识别的最新元分析结果显示,性别差异取决于情绪类别:在消极情绪,如恐惧。在消极情绪方面,女孩比男孩表现得特别好。当前的研究这一发现证实了这一点,即当以二维图像格式显示这些面孔时,男孩在识别恐惧表情方面不如女孩准确,而他们同样也能识别快乐表情。然而,当这些面孔以三维图像的形式显示时,男孩在识别恐惧表情方面的准确性已经显著提高到与女孩相同的水平。我们的结果表明,我们可能低估了理解发展中性别差异时男孩的情绪能力。众所周知,男孩空间能力比女孩发展得更好,而情感能力比女孩差。我们的结果表明当所提供的信息充分利用了男孩的空间信息处理的优势情感能力时,他们的弱点可能就不那么明显了。

我们的研究结果也证实,儿童对特定面部表情的理解

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[18420],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

课题毕业论文、外文翻译、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。