谁更快乐?基于地理众包人脸的全球⼈类情感时空分析外文翻译资料

 2023-03-31 21:11:42

英语原文共 8 页,剩余内容已隐藏,支付完成后下载完整资料


谁更快乐?基于地理众包人脸的全球⼈类情感时空分析

摘 要

自发地理信息(VGI)时代,带有地理标记的社交媒体数据为人类分析提供了前所未有的机会和意义。以前的研究已经检查了用户在这些媒体上分享的情绪,而其中大部分都集中在基于文本的数据上,忽略了不同的图像。在本文中,我们使用了一 个巨大的全球规模的图像数据集:YFCC100,从照片中提取情绪,并描述人类幸福的全球地理模式。从不同的角度定义了平均微笑指数(ASI)和幸福指数(HI)这两个指数,以描述特定地区的人类幸福程度。我们在全球范围内计算了基于面部表情的幸福感的时空特征,并将其与一些人口统计学变量(种族、性别、年龄和国籍)联系起来。之后,进行了稳健分析,以确保我们的结果是可靠的。结果与之前的一些研究和常识相符,例如,白人和黑人比亚裔更善于表达幸福感,女性比男性更善于表达,而且 达的幸福感在不同的空间和时间都有差异。我们的研究为情绪测量提供了一种新的方法,它可以被用来评估一个地区基于地理众包数据的情绪状况。对我们的数据集的稳健分析结果表明,我们的方法是可靠的,可以在人类情感研究中实施。

关键词 地理空间众包;情感计算;认知识别;社会感应;人脸检测;自发地理信息

  1. 介绍

人类的情感和认知是与生俱来的,可以拓展我们对人类行为的理解[1]【1】。长期以来,来自心理学、社会学、经济 学和政治学的研究人员都在关注人类对其环境和生活的感知[2]【2】。传统的情感测量方法是基于自我评价、调查和生理 指标测试。联合国可持续 发展解决方案网络发布的年度《 世界幸福报告》对各国的幸福感进行了排名。基于社会和文化属性。国民幸福总值(GNH)旨在从社会 经济角度衡量任何特定国家的集体幸福。通过问卷调查完成的生活满意度(SWL)测试可以有效地反映个人的生活感受[3]【3】。然而,上述传统的情感测量方法有其内部缺陷。他们需要花费大量的人力、时间和金钱[4]【4】。此外,由于受 到时间和人群的抽样频率的限制,结果不能提供实时的洞察力[5]【5】[6]【6】。

这种情况现在正在改变。随着社交网络平台的出现,自发地理信息(VGI)提供了新的见解和方法,帮助社会科学家研究空间和时间上的个人行为,作为传统测量的补充[7]【7】。用户产生的空间数据可以通过Web 2.0门户网站共享[8]【8】,这意味着每个人都可以创造、组合和传播地理信息,发挥我们环境的传感器作用[9]【9】。人们自愿提供的信息已经成为地理信息研究的一个重要数据来源。

公众每秒钟都会在互联网上产生大量的社交媒体数据。在社交网络上分享的内容揭示了用户对周围环境、日常 生活状况的看法,最重要的是,他们的情绪在不经意间流露出来,这对于分析人类行为和情绪之间的关系很有价值。更重要的是,这些数据中有很大一部分具有准确的地理信息。因此,在大数据时代,我们有机会在全球范围内,基于众包地理数据,对人类情感的时空特征进行大体上的观察。

最近的研究不断从各种数据源中探索人类情感的空间特征。如博客、Twitter,Facebook等,采用人工智能和计算机视觉的先进技术。学者们应用自然语言处理(NLP)技术来提取 情绪进行分析,并获得了很好的效果。Twitter提供了从时空角度分析情绪的机会[10][10]。Bollen等人将心理测量法中的情绪状态档案(POMS)扩展至从推文中推断情绪[11][11]。Dodds等人提供了一种新的方法[12][12],Mitchell等人使用该方法从Twitter公共流中提取情绪[13][13],并生成了美国的情绪分布图。Bandhakavi等人使用基于 词库的特征提取,根据新闻、Twitter、博客和事件报告中的情绪对文本进行分类 [14][14]。

Kramer等人曾经根据Facebook上的状态更新建立了一 个情感度量,并在美国全国范围内汇总该度量,与SWL测试进行比较[15][15]。一个名为Felicitta的在线平台被生成,以基于Twitter数据可视化意大利城市的幸福状态[16][16]。成熟 的应用程序已经使用基于单词和基于句子的情感测量方法创建。

与基于文本的情感测量的流行相比,另一个有价值的数据集图像,以及基于图像的情感分析,已经远远落在了后面,尽管它们都在同步发展。大多数关于基于图像的情感提取的研究都集中在图像的情感注释上[17][17],这仍然 是基于文本的方法,只是改变了数据源。Borth等人提出了 一种理解图像中与情感相关的视觉概念的方法,并建立了一个用于情感计算的新型应用SentiBank[18][18]。Joshi等人建立了一个框架,可以从数字图像中自动推断出情感[19][19]。然而,大部分的数据,也就是图像内容本身,本可以包含关于人类情感的丰富信息,却没有被分析出来。

如今,随着计算机视觉和深度学习技术的不断发展,人类丰富的面部表情可以从照片中检测出来。人脸识别的准确率已经达到99.50%以上,这意味着它可以应用于情绪分析[20]【20】。在现实生活中,大量的研究对面部表情和情绪之间的关系进行了研究,并指出面部表情可以表明一个人的 情绪状态、社会状况、未来发展和其他个人发展[21]【21】-【24】。面部表情可以分为几种基本情绪[22]【25】。例如,达尔文的六种分类:愤怒、厌恶、快乐、恐惧、悲伤和惊讶[23]【26】。另一种更细化的划分方法,Ekman的面部动作编码系统被广泛用作模型,并被用于许多研究中[24]【27】-【29】。同时,随着信息技术的发展,照片越来越多地被用来记录面部表情。人脸识别技术的成熟应用使得利用照片来识别面部表情成为可能,并给每张脸打上特定的分数,以更好地量化情感信息[25]【30】。更重要的是,与文本分析相比,照片可以避免文化和语言的限制[26]【31】。研究表明,世界各地对类似情绪和面部表情的表达是相似的[27]【32】。 注意到这个机会和利用这个宝贵的数据集学习人类情感的必要性,一些学者关注了基于面部表情的情感测量。Abdullah等人[28]【33】使用Twitter中的照片来监测人类的微笑, 并证明从照片中提取的情绪可以提供有意义的信息。Kang 等人[29]【34】基于认知计算研究了曼哈顿的情绪和股票指数之间的关系。然而,很少有研究基于众包内容的面部表情检测,在全球范围内挖掘人类情绪的地理模式。考虑到种族、年龄、国籍和其他人口统计学属性是从群体的角度来描述的,我们认为大规模的人类情绪检测和分析可以在统计学意义上提供对人类情绪背景值及其分布的洞察力。

在本文中,我们试图探索基于地理空间众包内容的人类情感的时空特征。考虑到幸福是生活质量中最重要的部 分,我们想知道哪里和谁更幸福,因此我们在这个研究中 只关注人类的幸福。我们的具体目标是(1)开发一个计算模 型,从地理众包人脸中评估和描述特定区域的情绪。(2)从世界范围内的大尺度来描述情感的地理和时间模式。 我们将通过收集到的情感来重新审视下面的问题。哪些国 家的人比其他国家的人更幸福?根据之前的研究[30]【32】,女性是否比男性更快乐?亚洲人是否像黑人和白人一样幸福[31]【35】?我们将把我们的结果与基于其他数据来源的研究进行比较。

  1. 方法论

图1显示了我们方法框架的整个阶段。首先,我们从Flickr收集照片并获得每张照片的位置信息。然后通过一个叫做Face 的基于计算机视觉的平台来检测人脸。如果一张图片被检测到有人脸,情绪将被提取并计算出一组分数,以确定我们把人类情绪的程度称为情感计算。然后,我们采用了两个指数来衡量我们数据集中的情绪。这个模型被用来探 索情绪和一些人口统计学属性之间的关系。最后,我们分 析了特定区域在某一时期的情绪,以描述情绪的时空分布特征。

A.数据准备

在这项研究中,我们利用了雅虎Webscope计划发布的YFCC100数据集[32]【36】。YFCC100是最大的公共数据库,到目前为止,可以下载的社会媒体数据集,其中包含2004年值2014年的1亿张照片和视频。数据集中的每张照片都包含对象标识符、用户标识符、时间、位置信息(坐标)、地理标签和其他属性。没有位置信息的照片一块i是就被丢弃了,因为我们无法定位他们。所有这些照片的空间分布由Datashader使用Python3绘制,以便在Web Mercator投影下实现可视化。在我们的研究中,丢弃了没有位置信息的照片后,还剩下48,469,203张照片。

B.情感计算

为了从照片中提取人类情感,我们利用了Face 平台(https://www.faceplusplus.com/),这是一个云视觉服务平台,为面部分析和识别提供了一整套的视觉技术服务(图2)。使用Face 的API可以获得两个与情绪相关的分数。第一个被称为 '笑脸'(SF),即包括一个微笑阈值和一个微笑值,说明它是否是一个微笑的脸和微笑程度。笑容值大于阈值(30.1),这个脸就被判断为是一张笑脸 。该值越高,微笑的程度就越高。另一个测量包括七个维度的情绪信心(EC),即快乐、中性、悲伤、厌恶、愤怒 、恐惧和惊讶。每种情绪的信心值从0到100不等,7种情绪的信心值之和为100。一种情绪类型的信心得分越高,某种情绪类型达到的主导地位就越大。这可以帮助确定一 张脸的主要情绪,这将在下一节解释。

C.情感指数

我们研究的下一步是建立评估模型,从统计学角度测量特定区域的人类情绪,尤其是检测人类的幸福

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[588352],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

课题毕业论文、外文翻译、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。