盐山| 昌都| 青浦| 达尔罕茂明安联合旗| 南川| 盐都| 崇阳| 武冈| 明水| 巴马| 民乐| 石首| 西青| 驻马店| 元阳| 邵武| 古交| 瑞昌| 东阿| 南县| 安康| 通江| 泰宁| 获嘉| 修文| 桦甸| 青海| 吴江| 榆树| 曾母暗沙| 辽阳县| 法库| 云集镇| 莱山| 鄂尔多斯| 合作| 孟连| 台州| 瑞丽| 雷山| 和林格尔| 台南县| 仲巴| 陇县| 太康| 雅江| 资中| 徐闻| 当阳| 翁牛特旗| 临高| 渭南| 德化| 开县| 商南| 青冈| 罗城| 宽城| 阜城| 清丰| 朝阳市| 封丘| 滦县| 内黄| 平凉| 宁强| 临邑| 安平| 邵东| 竹山| 杭州| 灵武| 乐东| 高港| 东兰| 乌伊岭| 卓资| 永安| 昆山| 莆田| 四子王旗| 清河| 桑日| 漠河| 东海| 兴仁| 久治| 太谷| 营山| 慈利| 阜平| 大悟| 阳高| 泉港| 河北| 石河子| 绥阳| 寻乌| 乐清| 岳西| 玉屏| 宿州| 浑源| 云林| 荔波| 淅川| 察哈尔右翼中旗| 镇远| 百色| 白朗| 宜宾市| 汉川| 谢通门| 遵化| 铜梁| 民丰| 通辽| 甘谷| 翠峦| 昌图| 小金| 米林| 达拉特旗| 赫章| 青铜峡| 洪江| 景洪| 金华| 东明| 宣汉| 偏关| 德化| 曲松| 新邱| 长顺| 富阳| 昌黎| 永吉| 托克托| 安义| 陆丰| 玉门| 怀化| 南海| 宁河| 龙岩| 黎城| 定襄| 西盟| 井研| 柞水| 将乐| 麦盖提| 金山屯| 沿滩| 洮南| 临泽| 博湖| 莘县| 大通| 陵川| 三门| 桐城| 召陵| 疏勒| 平凉| 嘉定| 相城| 和政| 浦江| 梓潼| 吉木乃| 镇江| 新田| 全州| 奎屯| 杨凌| 揭阳| 荣成| 宾阳| 防城港| 通州| 绥宁| 烈山| 达孜| 无为| 济南| 遂川| 元坝| 方正| 徽州| 洱源| 长春| 牙克石| 鲅鱼圈| 城固| 石渠| 大方| 鸡泽| 洛阳| 旅顺口| 安庆| 寿县| 梁河| 大田| 清河| 永济| 大方| 华山| 和布克塞尔| 靖边| 邗江| 盐源| 青神| 广昌| 千阳| 梧州| 秭归| 进贤| 广平| 郧县| 上虞| 怀安| 西峰| 淮北| 仁布| 沂水| 酉阳| 乌苏| 疏附| 路桥| 恩平| 全南| 长岭| 莲花| 平南| 潜江| 水城| 杞县| 淮滨| 盂县| 陆良| 云安| 稷山| 泸县| 三都| 平遥| 喀喇沁左翼| 哈密| 汉阳| 仙游| 垦利| 夷陵| 长海| 成武| 东海| 昌宁| 宜章| 瓯海| 鲅鱼圈| 太仓| 武乡| 尚义| 上杭|

鸣人赌彩票是哪集:

2019-02-17 19:19 来源:有问必答

  鸣人赌彩票是哪集:

  记者从河北省发改委获悉,2014年至今,河北省累计引进京津项目15560个,引进资金达亿元。品尝着最地道的卑诗省菜肴。

在纽约一份工作做十年,如果进步快的话,前三年打基础,再三年参与管理项目,再三年管理团队,到了第十年就可以参与部门发展决策。对于人工智能拍照功能,要对全线手机产品负责的vivo产品总监黄韬感触更深,他希望通过人工智能神经网络的学习和分析,让用户拿起手机随手一拍都是大片、自拍就像随身携带化妆师。

  Uber为测试操作员提供三个星期的培训,然后就能上路。专家认为,这一次投资者之所以如此慌张抛售股票,是因为脸书高利润的商业模式遭到彻底拷问。

  在小编看来,就是一个高科技人才和大型国企聚集地,不亚于的发展潜力。  海绵城市是一种新型的城市雨洪管理概念,即让城市能够像海绵一样,在适应环境变化和应对自然灾害等方面具有良好的弹性,下雨时吸水、蓄水、渗水、净水,需要时再将蓄存的水释放并加以利用。

协同创新助转化北京一直都是我国科技创新中心、科技成果高地,毗邻北京的河北省却存在科技资源不足、创新能力较弱的问题。

  在传统房地产市场发展遭遇瓶颈的背景下,各大房企撕去“地产”标签,在多个产业积极发力,扩大业务边界以寻求新的利益高地,产业地产开始成为各路资本和开发商们激烈争夺的焦点。

  不过在大盘的影响下,Facebook股价还是在当天下跌了%。”王兴说,虽然你们之前学的很好,在清华学了很多东西,但很不幸的是,你们走出校园之后,发现你们很多所学并不能直接应用。

  在周围看来,未来的手机将会比你更懂自己。

  据了解,孙亚芳虽然卸任董事长,但并不会退休,她将继续在华为治理体系中发挥作用。但于英涛直言:大数据信息化、云计算跟数据中心一毛钱关系都没有。

  轮值董事长轮值期为6个月,一直延续到未来5年。

  不言而喻,没有对比就没有伤害。

  (估值以2017年12月31日前最新一轮融资为依据)经由企业自主申报、公开数据搜集、重点高新区推荐、长城战略咨询数据库筛选、第三方机构数据支撑等方式汇总备选企业数据,经审核筛选出164家符合标准的独角兽企业。”“看好得到高铁红利的省会城市”在2017年底加入宝能集团任高级副总裁、宝能地产总裁、宝能城市发展集团总裁,原保利地产副总裁余英更看好得到高铁红利的省会城市和一些比较强的三线城市。

  

  鸣人赌彩票是哪集:

 
责编:
投稿到民航资源网

自动化信任和依赖对航空安全的危害及其改进

 2019-02-17 来源:微信 作者:王新野 李苑等 飞机维修砖家  [投稿排行榜]
2019-02-17 14:05:30

我来说两句(0) 分享

  摘要:自动化系统在现今航空业中得到了广泛应用,然而复杂的自动化系统的引入产生了新的失误模式,使航空人因安全问题变得更加突出。受多种因素影响,操作者在与自动化系统的交互过程中并不总能达到适度的信任校准水平。非适度自动化信任和依赖引发了严重的航空安全事故。值得欣慰的是,以人为中心的自动化显示设计和训练能够将非适度自动化信任和依赖调整到适度状态。

  1引言

  自动化(Automation)是指可以执行原本由人来完成的一种或一系列任务的技术。自动化包括:数据/信息的选择,信息的转化,决策和行动(Parasuraman & Wickens,2008)。自动化广泛应用于航空领域,特别是在飞机驾驶舱中(Merritt,Unnerstall,Lee,& Huber,2015)。应用飞机自动化系统,可以提高燃油效率,减少机组工作负荷添加额外的功能,提高安全和可靠性,也可以提高旅客的舒适度。然而由自动化所带来的好处,并不像预期的那样容易获得。相反,自动化可能引起了新的失误模式,提高工作负荷,带来新的认知和注意以及训练需求的增加(Billings,1996)。为了减少人为失误,航空领域采用了非常多的技术,但这些技术并没有减少人为失误,而是改变了失误模式,使后果更为严重,并且延长了觉察和修复失误的时间(Dekker & Woods,2002)。

  凡事皆有度。任何度的两端都存在着极限,过多或过少都会带来不利的影响。当操作者因过度信任自动化而误用自动化,或者由于不信任自动化而不使用自动化的时候,会导致事故的发生(Parasuraman & Riley,1997)。最近的统计数据表明增加的与手动控制和自动化失误相关的航空事故主要归因于非适度自动化信任(automation trust)和依赖(automation dependence)。受非适度自动化信任和依赖的影响,可能使飞机处于失控状态或者处于危险的边缘——失控(LOC),可控飞行撞地(CFIT),偏出跑道事故等(Federal Aviation Administration,2013a,b)。为促进我国航空事业持续健康安全地发展,深入理解影响自动化信任和依赖的因素以及自动化信任和依赖所产生的影响是十分必要的,而更有意义的是如何将这种非适度自动化信任和依赖调整到适度的状态。

  2 自动化信任与依赖的内涵

  首先,对自动化信任和自动化依赖进行区分是必要的。信任经常被定义为关于结果的期待或者是某人对某些未来事件发生所持有的主观概率(Rempel,Holmes,& Zanna,1985)。信任对于理解人-自动化交互是一个重要的概念(Lee & Moray,1992)和心理现象。自动化信任也是指用户的一种认知或情感状态,它可以通过主观评分来测量(Singh,Molloy,& Parasuraman,1993)。而自动化依赖是一种行为反应(Meyer,2001),能够通过用户与自动化的互动来测量(Lee & Moray,1992),比如用户使用自动化、遵从自动化建议或者对原始数据和自动化建议进行交叉检查的程度(Bahner,Hüper,& Manzey,2008)。

  其次,自动化信任与依赖之间也相互关联:就像在人际关系中一样,尤其是在那种以不确定性为特征的环境里,信任在测定人依赖自动化系统的意愿时起了主导作用。一般来说,人们倾向于依赖他们所信任的自动化,拒绝他们不信任的自动化。例如,不需要反复核对从ATM机取出的钱数,因为它从没有出现过差错。然而,行为反应不需要与自动化信任完全一致(Parasuraman & Riley,1997),当经历过一次银行卡被ATM机“吞掉”后,下次使用会变得“小心翼翼”。有时我们可能被迫去依赖自动化,但不会完全信任它;有时我们也可能会完全信任自动化,但不完全依赖它,例如,手动执行任务所带来的体验与自动化相比会更刺激,让用户更兴奋。

  3 自动化信任和依赖的心理机制

  很多变量以相同的方式影响着自动化信任与依赖,研究人员已经在不同的实验范式中使用各种不同的自动化系统来研究这一问题。这些变量大都源自于操作者、环境和自动化系统,与此相对应,Marsh和Dibben(2003)将自动化信任分为三个类别(倾向性信任,情景信任和习得信任)。倾向性信任(dispositional trust)是指操作者信任自动化的持续倾向性,操作者的文化背景、年龄、性别和人格特质都会影响这种倾向性。Huerta,Glandon和Petrides(2012)研究发现与美国人相比,墨西哥人更相信自动化决策辅助而很少相信手动决策辅助。情景信任(situational trust)是指信任依赖于特殊的环境背景,影响这一类型信任的因素可以分为外部变量(系统类型、系统复杂性、任务难度、工作负荷、自动化可靠性、组织环境、任务框架等)和内部变量(自信、情绪、注意力等)。Perkins,Miller,Hashemi和Burns(2010)发现当情景风险持续升高时,实验参与者很少相信和使用GPS路线导航规划设备;也有研究揭示,体验到积极情绪的实验参与者对自动化辅助决策系统有更高水平的最初信任(initial trust)(Stokes et al.,2010)。习得信任(learned trust)是指信任基于与过去某一自动化系统有关的经验,先前的经验包括态度、期望、自动化系统的声誉和对系统的理解。很多研究已经表明当自动化系统被描述成声誉好的或者“专家”系统时,人们更倾向于信任自动化(de Vries & Midden,2008; Spain & Madhavan,2009)。Hoff和Bashir(2015)针对上述模型做了改进,他们认为习得信任可以具体分为两种情况:一种是在人-自动化交互之前的最初习得(initial learned),另一种是在交互过程中的动态习得(dynamic interaction)。最初习得是基于先前的经验,而动态习得则是在人与自动化系统的交互过程中形成的信任和依赖状态。最后形成了如图1所示的影响自动化信任和依赖因素的全模型。

  然而在所有这些变量中,最重要的变量当属自动化可靠性(automation reliability)。除了特别简单的系统外,对于任何自动化系统来说,完全的可靠几乎是不可能的。这就意味着操作者存在不信任自动化系统的可能性。不论影响这种可靠性的来源是什么,自动化信任或依赖和可靠性之间的关系可用校正曲线(calibration curve)来说明(Wickens,Hollands,Banbury,& Parasuraman,2012)。如图2所示X轴为可靠性(可以数字化表示为在0~1.0的任意数,由自动化误差数除以机会误差数);Y轴是信任或依赖,信任可以通过最小值-最大值主观量表评估得到,依赖则通过对自动化使用次数的比例的客观测量来加以量化。对角线代表一条完美的校准线。显然,这条线将空间分为两个区域:左上角的过度信任和右下角的信任不足。在一般情况下,操作人员所操作的自动化系统都有较高的可靠性,它可能试运行了很多次都没有出现故障,在此期间,操作人员就对该自动化系统建立起信任并产生依赖,也就是到达了图2的左上角区的自满水平。然后,故障出现了,也就是首次失败(first failure effect)。首次失败在研究人-自动化互动中具有重要意义(Rovira,McGarry,& Parasuraman,2007)。操作人员对首次失败的反应(或不响应)往往是动态的(Yeh,Merlo,Wickens,& Brandenburg,2003),并且它是许多自动化事故的典型代表,例如飞机自动化的首次失败经历(Dornheim,2000)。在首次失败后,操作者的主观信任通常会越过图2中的校正曲线到达最右下方,表现出极大的不信任。而后,随着时间的推移,信任和依赖将逐步恢复,在较大的可靠性范围内逼近校正线(Yeh et al.,2003)。接下来我们将分析在航空领域中操作者过度的信任校准(非适度自动化信任和依赖)所导致的严重后果及其解决方案。

  4 非适度自动化信任和依赖的类型及其危害

  4.1 过度信任(overtrust)

  4.1.1 自满(complacency)

  自满这一术语源自与航空业有关的事故或事件,据称在这些事故或事件当中飞行员、空中交通管制员或者其他操作员并没有进行充分的系统状态检查(疏忽性失误)。一般来说,自满伴随着这样一种假设:“一切顺利”,然而事实上却存在一个导致事故发生的危险条件(Parasuraman & Manzey,2010)。美国国家航空航天局航空安全报告系统(ASRS)将自满作为事故报告的一个编码项目(Billings,Lauber,Funkhouser,Lyman,& Huff,1976)。Wiener(1981)认为ASRS像其他研究者一样,将自满定义为“以低指数的怀疑为特征的心理状态”。Wiener提出进行相关的实证研究是十分必要的,这样可以加深理解自满的机制以加强航空安全。满足于自动化的操作员几乎不去监控自动化正在进行的工作,丧失了对自动化系统自身和周围发展状态的情景意识(Kaber,Onal,& Endsley,1999)。2009年土耳其航空公司TK1951航班坠毁。事故的主要原因是飞行员对自动化系统十分信任,以致于当飞机的高度测量仪失效后迟迟未能检测到这个故障,飞行员仍然使用飞机的自动驾驶模式,最终导致事故的发生。此外,Metzger和Parasuraman(2005)在高保真雷达管制模拟机上对经验丰富的空中交通管制员进行测试中发现:能够在自动化系统失灵的情况下检测到冲突的管制员数量显著低于在人工情况下检测到冲突的管制员数量,进一步的眼动分析还表明那些没有检测到冲突的管制员在自动化辅助情况下比在人工控制情况下,对雷达显示屏的注视次数显著减少。

  4.1.2 自动化偏见(automation bias)

  自动化偏见被定义为:“以启发式的方式替代对警觉信息的搜索和加工”(Mosier & Skitka,1996)。与自满密切相关的自动化偏见通常与在复杂环境中支持人类决策的自动化辅助决策息息相关(Mosier & Fischer,2010)。在航空领域中,不正确的决策会引起较高的经济后果,而自动化辅助决策系统就是为了提高人类的决策效率,所以自动化辅助决策系统对航空领域有特殊的价值。比如像空中防撞系统(TCAS)或者近地防撞警告系统(GPWS)这样的驾驶舱预警系统,可以提供给驾驶员具体的建议或命令(例如,“拉升!拉升!”)以避免碰撞。由于以下两点原因,辅助决策系统经常是被误用的:第一,自动化生成的线索是十分突显的,吸引了用户的注意并干扰了当前的行进任务;第二,相比于其他来源的建议,用户倾向于赋予自动化辅助系统更大的权威。

  自动化偏见导致用户可能不会对所有可用信息逐一分析,哪怕自动化系统的建议是不正确的,用户也会遵从或执行该建议,从而犯下错误(Bahner et al.,2008)。飞行结冰事件严重威胁飞行安全,必须及时处理。McGuirl和Sarter(2006)检查飞行员与自动化辅助决策系统交互的性能,该系统是为飞行结冰事件提供决策支持的。研究结果表明:即便可利用动觉线索与辅助决策相矛盾,飞行员仍然会下意识地听从自动化辅助决策系统的建议,产生了明显的自动化偏见的倾向。Wickens和Alexander(2009)总结几个关于熟练飞行员的模拟研究时发现,即使在飞行员查询原始数据或者观察飞机挡风玻璃外的环境就能发现危险的情况下,52%的飞行员还是会遵从空中交通管制的指引,直接导致他们进入了有障碍物或者危险的路径。

  4.1.3 过度依赖(overdependence)

  操作者手动执行任务的能力可能会随着时间的推移而降低,这种现象有时也被称为“去技能化”(Ferris,Sarter,& Wickens,2010; Geiselman,Johnson,& Buck,2013)。随着飞行管理系统(FMS)的应用,即使是飞相同的航路,自动驾驶仪规划和采用的路线也要比飞行员的人工算法精细,实现更高效的飞行(Sebok et al.,2012),因此飞行员会依赖这类自动化技术。然而根据美国联邦航空局(Federal Aviation Administration,2013a)进行的一项调查发现,由于飞行员过分依赖自动化操作,以致于当他们需要手动操控飞机时手足无措,调查写道,“飞行员习惯了看着故障发生,而已经丧失了着手去解决它们的积极性。”

  2009年法航AF447航班在从巴西里约热内卢飞往法国巴黎的途中坠入大西洋。事故调查表明,尽管恶劣的气象条件(热带风暴)可能是事故的主要原因,然而当险情发生时飞行员向后拉杆(实际上应该向前推杆)导致飞机高空失速也是事故的重要原因(Bureau d’Enquêtes et d’Analyses pour la Sécurité de l’Aviation Civile,2013)。2013年韩国韩亚航空公司214航班在美国旧金山机场降落时坠毁。事故原因调查指向了驾驶员存在驾驶经验欠缺的可能,副驾驶过分依赖自动化飞行控制系统,没有准确地设置自动化,导致飞机在进近阶段撞上防波堤(National Transportation Safety Board,2013)。

  4.2 信任不足(undertrust)

  4.2.1 自动化惊奇(automation surprise)

  自动化惊奇是在20世纪90年代首次出现在航空文献上的措辞(Woods,Johannesen,Cook,& Sarter,1994)。自动化惊奇可以被描述为“在一些情况下,自动化没有立即做出与此前机组人员输入相关信息后相一致的行动,或者自动化的操作与机组成员的预期不一致”。需要注意的是这个定义所指的差异早在飞行员意识到这一点前就已经存在了,这类似于无意识盲视,自满和自动化偏见(Parasuraman & Manzey,2010; de Boer,2012; de Boer,Heems,& Hurts,2014)。有时,自动化惊奇也可以被通俗地定义为飞行员声称或者认为的情景:“自动化正在做的是什么?”,“自动化为什么这样做?”,“下一步自动化将会做什么?”(Wiener,1989)。

  在现有的文献中,自动化惊奇经常与在驾驶舱高度自动化条件下的情景意识(situation awareness)丢失有关(Operator's Guide to Human Factors in Aviation,2014),飞行员可能在飞机出现严重故障时感到困惑——弄不清自动驾驶何时结束,自己的职责又何时开始,提高了坠机和失控的风险。有研究使用眼动和三维运动飞行模拟机研究发现:自动化惊奇要么使飞行员的注意变为过度搜索模式,要么变为低效搜索模式(Dehais,Peysakhovich,Scannella,Fongue,& Gateau,2015)。Hurts和de Boer(2014)主持了一项航线飞行员的调查,结果发现自动化惊奇是一种比较常见的现象,平均每个飞行员每个月都会发生。已经发生了几起与自动化惊奇有关的飞行事故,例如前文所述发生在2009年的土耳其航空公TK1951航班和法航AF447航班坠毁事故(Dutch Safety Board,2010; Bureau d’Enquêtes et d’Analyses pour la Sécurité de l’Aviation Civile,2013)。

  4.2.2 虚假警报(false alarms)

  虚假警报(虚警)也是信任不足的一种典型表现,虚警是指即使不存在触发告警的条件,警告也会响起(Parasuraman,Hancock,& Olofinboba,1997)。这种误报导致操作员不信任告警系统,当用户关闭这些“恼人”且不可靠的告警系统时从未出现过紧急事件,导致用户对真实告警的忽略。研究发现,尽管45%的空中交通管制员在收到冲突告警后不需要采取任何行动(也没有采取任何行动),但是恰恰一些灾难性事故的发生可能是由“狼来了”效应(“Cry Wolf” Effect)所导致的(Wickens et al.,2009)。

  2001年大韩航空公司的客机在关岛坠毁,这起事故就是“狼来了”效应所导致的悲惨后果的典型代表。在这起事故中,由于近地防撞系统发出太多的虚假警告,空中交通管制员禁用了此系统,致使他们根本没有注意到这架飞机在还没有进入跑道之前就已经撞到山上。同样危险的是,机载电脑还会在危急关头向飞行员不分主次地倾泻大量警示信号(包含了大量的虚警),使飞行员应接不暇。例如2010年澳大利亚航空32号航班发生引擎爆炸,当机长尝试降落时,他和副驾驶却被屏幕上闪出的120个指令菜单晃得眼花缭乱,而不清楚究竟哪个信号是解决问题的关键信息。万幸的是该航班最终成功迫降新加坡樟宜机场。

  5 解决途径:以人为中心的自动化显示设计和训练

  对于如何解决这些由自动化信任和依赖引起的航空危害,就要从引起问题的原因入手,“对症下药”,力求“药到病除”。从上文我们可以看到,非适度的自动化信任和依赖(过度信任和信任不足)即过度的信任校准是导致人-自动化不良交互的重要原因。Lee和See(2004)认为适度的自动化信任和依赖可以减少误用自动化和不使用自动化(由过度信任和信任不足所致)发生的频率。值得欣慰的是,已有大量的证据表明人类用户所表现出的过度信任和信任不足,都可以通过以人为中心的自动化显示设计和训练得以改进。因此以人为中心的自动化(human-centered automation; Billings,1997)设计,或者说如何做到人?自动化的适度结合,成为自动化系统的设计者所面临的挑战(Lee & Seppelt,2009)。

  5.1 减轻过度信任和依赖

  对于减轻过度信任和依赖来说,有证据表明提供自动化的可靠性信息(例如,告知用户自动化有50%、70%或90%的可靠性)可以帮助用户校准他们对自动化战斗识别系统的信任和依赖(Neyedli,Hollands,& Jamieson,2011; Wang,Jamieson,& Hollands,2009)。此外,通过对自动化首次失败反应和后续失败反应进行的比较,发现在实际使用自动化前进行训练或练习是解决首次失败最好的技术之一(Manzey,Reichenbach,& Onnasch,2012)。对于用户来说,仅仅被告知会发生故障远不及实际体验该故障更有效。Bahner等(2008)研究发现,用户的自动化故障体验降低了自满水平。这一发现表明暴露于自动化故障的训练可以减轻过度信任和依赖。对于飞行员或空中交通管制员来说,理解自动化系统的局限性,做好突发故障的模拟训练可以提高自动化信任和依赖的校准水平。

  5.2 减轻信任不足

  由于自动化系统的复杂性,操作员可能不理解“黑匣子”里面究竟发生了什么,因此对复杂自动化系统进行功能简化或者良好的界面设计会使飞行员感觉自动化系统更明确,同时也应该加强操作员对自动化运行机制的培训。在显示设计方面,Dehais等(2015)通过在驾驶舱里增加了一种让飞行员详查自动驾驶仪详情的文本提示降低了自动化惊奇的可能。此外,有证据表明报警器误报问题在一定程度上可以通过似然度显示而减轻(Sorkin,Kantowitz,& Kantowitz,1988)。这种显示设计对临界条件的存在与否提供了两个或多个确定性等级水平。也就是说,这种显示设计允许系统说“我不确定”,而不是随便给出一个完整的警报或根本不给警报。这样,在信任程度上允许报警系统有一个相应的区间(例如,很不确定,不确定,确定,很确定),能够对人和系统的灵敏度带来一定的改善。在培训方面,用户必须意识到系统发生故障的可能性很微小,但是带来的后果却是危险的。因而早期的告警是必要的,即便报警器的误报现象(“狼来了效应”)是不可避免的。所以无论是飞行员还是空中交通管制员,当有警报发生时必须尽快处理不容忽视;然而相应的诊断虚警的经验和专业培训也是必不可少的。

  6 总结与展望

  自动化系统广泛地应用在航空业中,无论是机载自动化设备还是地面空管自动化设备,都旨在减少飞行员和空中交通管制员的负荷,完成操作者无法或者不便直接执行的任务,弥补操作者能力的局限,增强协助人的操作,更经济高效。例如,Watts,Ambrosia和Hinkley(2012)开发的自动化航线规划辅助系统,Giraudet,Imbert,Bérenger,Tremblay和Causse(2015)设计的空中交通管制的界面显示等。然而由于非适度的自动化信任和依赖校准,人-自动化系统并非总是良好匹配。过度自信(自满、自动化偏见、过度依赖)和信任不足(自动化惊奇、虚假警报)及其所引发的航空安全事故和事故征候值得我们深入探究。需要说明的是,自动化信任和依赖并非一成不变而是动态变化的,就一起航空安全事故或者事故征候来说,存在过度信任和信任不足两种现象都发生的可能。因此今后可以从自动化信任和依赖的不同水平和自动化的不同阶段的角度出发,继续这一问题的研究。

  以人为中心的自动化显示设计和训练可以将这种非适度自动化信任和依赖调整到适度的状态。良好的显示设计应该对自动化当前状态、状态的变化(比如不同自动化水平和功能模式之间的切换)以及自动化所监测或控制的进程状态等关键信息的呈现上做出改进,使用户易于熟悉理解。显示设计是可以不断改进的,但是航空活动毕竟是复杂且专业的,相关的手动训练和事故模拟训练是必不可少的。最后从航空业本身的发展上来说,技术上的进步已经可以使无人(遥控或者自动)商用飞行成为可能。如此,由飞行员非适度的自动化信任与依赖所造成的航空活动中的不利影响将不会出现。但是,对于地面操作人员来说,这种新技术的引入是否会产生新的非适度自动化信任和依赖,进而造成危害呢?另外,从乘客的角度来说,人们会不会接受这种新的无人商用飞行呢(Hughes,Rice,Trafimow,& Clayton,2009; Molesworth & Koo,2016; Riceetal.,2014)?这些都是未来值得研究的问题。

0荐闻榜

微信

延伸阅读:
发表评论
发表请先 登陆/注册

严禁发布攻击他人、言语粗俗、涉及政治等违反规定的言论,违者法办!

      解庄 午桥 红卫路街道 向阳分社 淮海中路街道
      云门山街道 马瑙斯 兵团一三五团 千岛湖镇 大甸子镇