智能汽车中的人机协作,一个失控论点里的实证研究
约翰尼斯·韦耶,罗宾·芬克,富宾恩·阿德尔特
摘要:在社会技术系统中的比如现代飞机或汽车,很多辅助系统都用来提高性能和维持安全。这就提出了以下问题,它们怎么和司机合作,还有操作者是否会面临失控这个问题。这篇文章通过一个关于一个汽车司机们和一些驾驶员辅助系统的例子来从经验上说明失控论点。考虑了个人经验和这些系统,据被访问者的报告,也得到了影响司机认知的主要因素。我们想评估在现代汽车中驾驶员辅助系统的合作是否增加了复杂性和提高整个系统的不可控性到一个用在失控的调查对象来消极评价的度。此外,我们的研究也涉及了被采访者认知的在现代汽车中的角色分配情况,还有他们期望的未来汽车中人类和自动技术的分配情况。我们的分析会展示出在驾驶员辅助系统中被访问者大多感到舒适,和对自动驾驶的满意度并没有下降,相反会增加,如果更多驾驶员辅助系统的策略被应用。与此同时,我们的受访者报告的自动化故障的数量,也是比我们预期的要小得多。和高度自动化系统的失控理论相反,我们的数据表明,这个假设不能确认,至少在自我报告的自我经验和非专业的用户比如司机的主观认知的层面上。
1.引言
在科学辩论以及关于现代科技的公众讨论中我们经常发现高度自动化的系统可能面临失去控制的论据 (Perrow,1984)。像1993年德国汉莎航空公司的客机在华沙坠毁,2002年发生在林根的空中相撞,2009年在大西洋上法国航空
447班机空难的事故,都是证明这个结论的例子(cf.Grote,2009:103ff.;Brooker,2008)。
在人为因素上的研究已经通过指出人机交互或者机组资源管理的缺点解决了失去控制的问题。高度自动化的系统,比如说控制一架飞机的并且很少出过事故,会导致部分的飞行员对自动操作自鸣得意和过度信赖。这会导致感知意识的缺乏,并且最后,会导致即使是受过良好训练的人也没有能力去应对自动操作的意外(Parasuraman et al., 2008; Manzey et al.,2008; Sarter et al., 1997; Manzey and Bahner, 2005)。
在危机情境,人操作者经常发现他们“越界”,不能理解自动操作当前在做什么,然后采取适当的措施(Endsley and Kiris, 1995)。这个不仅会发生在受过良好训练的飞行员身上,也会发生在汽车司机身上,他们大多数没有受过解决复杂的技术问题的训练(Stanton and Young, 2005)。
关于飞行员们的调查证明了由于在高度自动化的飞机上缺乏人机交互的可靠性所带来的失控。在1998年一个由澳大利亚统计局航空安全调查局的调查人员进行的有1268个飞行员参与的调查中,61%的受访者“同意在自动操作的情况下依然有些事情会出乎他们的意料” (BASI, 1998:20)。此外,考虑到模式混淆,73%的受访者表明他们偶尔“无心的选择了一个错误的模式” (44, cf. also BASI, 1999; Joshi et al., 2003)。
类似的,在一个2008年进行的278个德国飞行员的调查中,43.1%的受访者同意“飞机是一个黑匣子,你知道怎么操作它,但是你不知道它到底是怎样工作的”这个观点(Graeser and Weyer, 2010: 43)。这些调查结果证实了1998年的分析并且强调了20世纪80年代电子飞行管理系统的引进增加了现代飞机的复杂性和不调和,最终导致失控的声明。
此外飞行员的的角色也从根本上改变了—从开飞机到监督一个复杂的技术系统(Sheridan, 1999)。以人为中心的方法(Billings,1997)或者自动化程度的分类(Parasuraman et al.,2000)从而必须由其他途径补充,这是为了更充分地描述人和自动技术系统的合作的种种方面(Cummings and Bruni, 2009)。
与长期的在飞行业的传统人机交互问题的研究想比,(Wiener and Curry, 1980; Billings, 1997),在现代汽车中的人机交互合作的知识依然很欠缺。在1988年,A320号就已经用于实际了,它是第一架民用的搭载电子飞行管理系统的飞机。从那时开始制造商改变了很多概念,从已经发展成熟和在久经考验的飞行制造业,转变到道路交通。线控飞行转变为线控转向(Stanton and Marsden, 1996),还有飞机自动驾驶仪传播到汽车中,比如自适应巡航控制(ACC, Stanton and Young, 2005)。自动化的道理在这两个领域貌似很类似,比如用辅助系统来代替人类以达到舒适和安全的效果(Young and Stanton,2007)。
尽管有这些共同性(并且还有正在不断进行的系统结构的转换),这两种运输系统有很多不同,在飞机行业只有小批量的架次,而在公路上有大量的车辆;还有飞行员都是经过专业训练的,而(大多)汽车司机都是非专业的;还有公路上的规章制度比较宽松,而飞机的规章制度非常严格,对飞行事故的控制也很严格。
关于它们的共性和差异,问题就来了,如果汽车司机面临和飞行员面临的类似的问题,比如说自满,缺乏情境感知意识还有自动操作的异常。此外,去想出他们的角色认知是否也改变了可能是有意义的—从一个司机到人类和非人类团队中的一员,这个团队相互合作来做决定(Inagaki, 2010)。
2.自动驾驶
最近对自动驾驶的研究有几个显著的问提,但是在研究自动飞行技术中并没有产生过相关的画面。以下的研究可以确定,这些都是伴随着不同的调查人和自动化问题的方法。
通过一项有503人参与的调查,阿恩特和安琪儿(2008)分析了可以预测部分司机对辅助驾驶系统的认可程度的因素,但是发现了“没有清楚的样品”(331)。然而,杨格和里根(2007)指出澳大利亚农村地区的人用(常见的)巡航控制比都市的人要频繁的多,他们应用了焦点小组讨论的方法。
一组德国的研究人员辩论道,对小型设备控制的水平会决定他们是否接受。(TAUCIS, 2006: 83)。他们提出了不同的情景(在智能汽车里面)来测试人们并且问他们关于他们对于控制的需求(1)和实际上感知到的控制(2)。在每一个方案中(1)和(2)的平衡都是消极的,参与测试的人们感知到的控制比他们期望的要少。由于这种态度显著地影响了接受程度,研究人员推断如果用户可以控制这个系统的话,智能科技的接受程度就会提高(195)。
就控制的分配而言,德维里斯(2003)分析了错误的效果,由路线规划系统产生。运用基于电脑的实验的方法,他们发现,高程度的自动化错误导致对部分先验概率的系统信任水平降低。另一方面,杨格和萨尔摩(2012)指出了我们知识中的漏洞,比如说注意力分散引起的错误。
司机和自适应巡航系统之间的交互已经成为了许多研究的课题。根据拉尔森的研究(2012),自动巡航系统会把控制移交给司机,司机可以管理这个开关如果他(或她)仍然是整个控制链的一部分。通过采访130个自动巡航系统的用户她发现,司机用自动巡航系统的时间越长,他们对这个系统的熟悉程度越高。
对自动操作的信任已经被拉乔纳等人研究过(2008),用自动巡航系统的模拟实验的方法。他们辨认出不同的司机的分组,但是没有找出“自动巡航系统的使用和对设备的信任还有自信之间的重要联系”(194)。
斯坦顿和杨格(2005)做了在驾驶仿真器里的实验。110个被测人必须在不同级别的工作量、交通情况和自动巡航系统的反馈用自动巡航系统驾驶汽车。斯坦顿和杨格调查了到底“司机在自动化的环境中比他们在手动操作下报告更大的外部性的问题”(1297)。关于这一点,他们的调查结果是明确的:“控制天平的轨迹是高度稳定的,这意味着控制轨迹不是由自动操作影响的”(1038).换句话说:司机们并不会经历失控尽管他们用的是自动巡航系统而不是手动驾驶。
与这些调查结果相反,由芬克和韦耶进行的人机交互和人工驱动方案的智能系统的实验说明了任意抽选的被调查人更喜欢实验的设置,包含了更高层面的控制,尽管涨势比在其他情景中的要低。
另外一条调查这些问题的途径被诺德使用过(2010),他依靠自我报告的态度和6203个挪威司机的表现,得出结论:个人背景特征比其他因素对解释态度和行为的差异有最大的帮助。
最后,值得一提的是稻恒对于未来汽车中权力和职责的分配的概念上的考量,他把那看作是关键的认知系统。与杂交的社会观念相类似,他谈论了人和科技的“杂交”。并且他提议在设计未来汽车时应该考虑这一点。
尽管最新研究的概览并不是完整的,但是它给了这个课题和最近自动驾驶研究的可行性方法提供了一幅清晰的图片。这个运用了的和经常结合的方法是实地观察,模拟实验,调研还有焦点小组的讨论。在这些很大数目的驾驶辅助系统中,自动巡航系统貌似是最吸引注意的一个。
然而,司机每天驾驶经历的数据仍然很少。大多数的研究的操作和大多数用户的陈述都被记录在人工的情境中,比如说在模拟实验中或者通过模型和司机的模拟行为。尽管值得做,这些研究只很少反映在每天生活中具有先进的辅助系统的司机个人经历。此外,关于可控性或不可控性的主观感知是否可能与那些系统的经验相关的问题尚未被调查。
3.文章的范围
接下来的文章通过对汽车司机的调查来从经验上考察失控的论点。它将个人经历和驾驶辅助系统考虑在内,据被访问者的报告,也指出了影响司机认知的主要因素。它试图评估现代汽车中驾驶员辅助系统的合作是否提高了整个系统的复杂性和不可控制性,使其在被控对象在控制损失方面被负面地评估。此外,我们的研究调查了在2020年被访问者期待的人工操控和智能操控的分配。
我们既没有做模拟实验也没有观察司机的驾驶。取而代之的是,我们收集知觉控制的自我报告的陈述,,基于真实的驾驶经验,这些受访者在驾驶自己的汽车时花费更长的时间。
假设H1。关于在飞机上角色分配改变的研究,我们希望在司机和自动辅助系统两者角色之间有一个转换。
(H1)司机希望在未来控制量降低。
为了以经验为主地访问这些不断变化的期望,我们问了相同的问题,关于当前的角色分配和未来在现代汽车上人和科技的角色分配。
假设H2和H3。从飞行业到道路交通观察我们的调查结果,我们希望有相似数量的关于故障,意外,模式混乱和相关问题的报告,最后对司机部分感知控制的低水平,面临非合作援助系统。然而,我们仍然缺乏经过验证的单位来衡量人与智能系统的合作的强度和质量。
作为最开始的粗略测量,我们采取自我报告的先进驾驶辅助系统的故障的方法。第二步测量通过使用区分三个级别的驾驶任务类型来创建的。
导航是一个长期的工作,它允许大量的时间来解决问题。另一方面控制系统在短到几毫秒的时间内工作,因此它比大多数没受过训练的司机反映的快多了。因此,我们假设两种典型的类型不会引起失控的感觉。然而,这个问题会呈现在机动系统中,这个可能会以混乱的形式与司机交互,比如说如果警告下达了。它是主要的机动系统,会提出人类和自动操作成功合作的问题。
(H2)在操纵类型的驾驶员辅助系统和对驾驶员的部分控制的感觉之间存在负相关。
(H3)负面经验(比如说驾驶员辅助系统的失灵)和驾驶员对控制的看法之间存在负相关。
假设H4。斯坦顿和杨格的研究(2005)已经表明感知控制的水平不直接取决于自动化水平。因此有其他的因素。文卡特斯赫发现系统独立因素比如说“电脑的自我效能”或者“电脑的玩笑”可能是感知易用性的关键预测因素,从而是接受度的关键预测因素。根据他说的,我们提出以下假设:
(H4)感知控制的水平取决于对技术的一般态度
3.1研究模型
总结研究模型和假设,将感知的失控与辅助系统的类型(H2),失灵的频率(H3),还有对于科技的一般看法(H4)相关联。
4.方法论
正如概述里面所描述的,我们的研究是试图以经验为主地探讨失控问题,收集数据并以暂定的方式分析它们。我们可以使用一些自动驾驶研究的观念和概念,就如第二部分所说的一样。
4.1研究的设计
我们决定对智能车的驾驶员进行定量调查,作为调查非专业操作员的经验和态度的方法。我们的目的是收集关于主观意识的复杂性和自动技术的不可控性的数据。通过应用这种方法,我们不能确定系统是否真的失控,因为我们没有收集客观的数据。然而,如果智能设备剥夺了人类驾驶员的控制权限,至少这些客观变化的一部分应当反映在驾驶员的主观感知中,因此可以通过调查的方法进行考查。
4.2例子
我们挑选了几组司机,他们被要求来开高质量的汽车,这些汽车装备这比平均水平还多的驾驶辅助系统。第一步,德国大学的所有教授都被要求通过电子邮件填写一份2010年3月和4月印刷的问卷。我们发出了289个请求,并收到69个回复,回复率为23.9%。
第二步,在2010年八月和九月我们使用德国大学416名成员的校友会的邮寄名单发出第二个电话。我们收到了54个回复,回复率差不多是13%。在数据清理后,这118个问卷可以做进一步的分析。
回答者的平均年龄是44.9岁,从21岁到66岁不等。性别的分布很不平衡,在我们118位回答者中仅有20.3%是女性(平均来说是比较年轻的),然而有74.6%的是男性。
4.2.1车载设备
112名受访者提供了有关汽车生产年份的信息,这些车当前也在驾驶。生产年份从1984年到2010年不等,并且平均值是2007年。2007年或以后建造的汽车中有53.7%的汽车占有率,而从2000年或以后的汽车占94.
剩余内容已隐藏,支付完成后下载完整资料
英语原文共 10 页,剩余内容已隐藏,支付完成后下载完整资料
资料编号:[138925],资料为PDF文档或Word文档,PDF文档可免费转换为Word
课题毕业论文、外文翻译、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。