Please use this identifier to cite or link to this item: http://dx.doi.org/10.14279/depositonce-9248
For citation please use:
Main Title: Kosten falscher Alarme und Wirkpotentiale der Unsicherheitskommunikation am Beispiel eines Fahrerassistenzsystems
Translated Title: Costs of false alarms and potential benefits of uncertainty representations on the example of a driver assistance system
Author(s): Platho, Christina
Advisor(s): Manzey, Dietrich
Referee(s): Manzey, Dietrich
Jürgensohn, Thomas
Granting Institution: Technische Universität Berlin
Type: Doctoral Thesis
Language Code: de
Abstract: Die Aufgabe von Alarmsystemen ist es, Nutzer auf gefährliche Ereignisse hinzuweisen. Ihr zuverlässiges Funktionieren ist oft nicht gewährleistet. Gleichzeitig besteht die Tendenz, lieber häufiger grundlos zu warnen als Gefahr zu laufen, kritische Ereignisse zu übersehen. Dies führt jedoch dazu, dass Systemnutzer viel Mühe darauf verwenden müssen, die oft falschen Alarme des Systems zu überprüfen, um angemessen reagieren zu können. Angesichts dieser starken Zuwendung zur systemunterstützten Aufgabe zur Kompensation der Systemfehler stellt sich die Frage, ob ein falschalarmanfälliges System noch einen Nutzen bietet oder ob es als zusätzliche Belastung eine Gefährdung der Sicherheit darstellt. Die möglichen Folgen der Nutzung eines falschalarmanfälligen Systems wurde im ersten von zwei Experimenten im Zuge der vorliegenden Arbeit am Anwendungsfall eines im Rahmen eines Forschungsprojekts entwickelten Fahrerassistenz-systems adressiert, mit dem Unfälle zwischen Rechtsabbiegern und Radfahrern vermieden werden sollen. Dazu wurden drei Gruppen von Pkw-Fahrern verglichen. Eine Gruppe arbeitete mit einem falschalarmanfälligen System und eine zweite als Kontrollgruppe ohne Systemunterstützung. Zur Verdeutlichung der Folgen falscher Alarme bekam eine dritte Gruppe ein zuverlässiges Alarmsystem zur Seite gestellt. Angewendet wurde die Videoszenariotechnik, bei der Probanden in einem fahrsimulatorähnlichen Setting in kritischen Situationen bremsen sollten, während sie gleichzeitig eine visuell und kognitiv fordernde Parallelaufgabe bearbeiteten. Die An und Abwesenheit eines Radfahrers im Abbiegebereich konnten sie mit einem Blick in den Spiegel überprüfen. Es wurde angenommen, dass falsche Alarme das Vertrauen beeinträchtigen, zu einer ähnlich häufigen, aber zeitintensiveren Überprüfung als in der Kontrollgruppe führen, und somit die Aufmerksamkeit über das zur Prüfung erforderliche Maß hinaus binden. Diese Annahme fand sich teilweise in einer längeren Prüfdauer und somit schlechteren Parallelaufgabenleistung in den Situationen, in denen das System falsche Alarme produzierte, bestätigt. Gleichzeitig führte das falschalarmanfällige System zu einer früheren Aufmerksamkeitslenkung und folgerichtig früheren Bremsreaktion in kritischen Situationen. Gegenüber dem zuverlässigen System äußerten sich die Folgen falscher Alarme in deutlichen Vertrauensverlusten, verzögerten Bremsreaktionen auf kritische Ereignisse und einer schlechteren Parallelaufgabenleistung aufgrund der häufigen Überprüfung der Alarme. Im zweiten Experiment im Rahmen dieser Arbeit wurde untersucht, ob sich durch eine vertrauensstärkende Systemrückmeldung die Prüfdauer reduzieren lässt, um den Fahrer zu entlasten und Ressourcen zur Aufgabenbearbeitung freizusetzen. Dazu wurde das binäre falschalarmanfällige System aus der ersten Studie mit zwei Gestaltungsvarianten der Unsicherheitskommunikation, einem System mit binärer Unsicherheitsrückmeldung (Normalmeldung, Unsicherheitsrückmeldung anstelle eines expliziten Alarms) und einem dreistufigen Likelihood-Alarmsystem (Normalmeldung, Unsicherheitsrückmeldung, expliziter Alarm), verglichen. Wieder wurde die Videoszenariotechnik eingesetzt. Beide Varianten der Unsicherheitskommunikation stärkten das Systemvertrauen und reduzierten die Prüfdauer, allerdings nur in ereignisfreien Verkehrssituationen. Wie bereits im ersten Experiment blieb die auch bei kritischen Ereignissen erwartete Veränderung der Prüfdauer aus. Nicht auszuschließen ist, dass diese nur unter Bedingungen sichtbar wird, in denen der Nutzer sich nicht gänzlich sicher fühlt, ob tatsächlich kein kritisches Ereignis vorliegt oder es nur noch nicht entdeckt wurde. Zusätzlich löste die Kommunikation der Systemunsicherheit bei einigen Probanden einen unerwarteten Prüfverzicht bei Normalmeldungen aus, die in der Gruppe mit den expliziten Alarmen stets überprüft wurden. Dieser lässt sich nicht nur positiv als Stärkung des durch die falschen Alarme stark eingeschränkten Vertrauens in die zuverlässigen Normalmeldungen werten, sondern auch als potentielles Risiko in den Aufgabenwelten, in denen eine Überprüfung der Meldungen (wie der Schulterblick beim Rechtsabbiegen) nach wie vor obligatorisch ist. Da mit diesem potentiellen Risiko eines Prüfverzichts keine Verbesserungen auf Leistungsebene einhergingen, lässt sich keine Empfehlung für die Kommunikation der Systemunsicherheit beim hier untersuchten falschalarmanfälligen Rechtsabbiegeassistenzsystem aussprechen. Auch unabhängig von der Entscheidung für oder gegen die Kommunikation der Systemunsicherheit lässt sich kein Einsatz des falschalarmanfälligen Rechtsabbiegeassistenzsystems empfehlen, weil damit in Situationen mit falschen Alarmen die Aufmerksamkeit zu stark von potentiell ebenfalls sicherheitsrelevanten Fahraufgaben abgelenkt wird. Eine positive Sicherheitsbilanz wies allein das zuverlässige System auf, das aber mit den derzeit gegebenen technischen Mitteln nicht realisierbar ist.
Alarm systems are expected to inform users about critical events. Because errors cannot be avoided, developers tend to lower the alarm-threshold to avoid overseeing critical events, which in turn increases the rate of false alarms. This leads users to invest a substantial amount of effort to check the system’s alarms to be able to show an appropriate reaction. Given the strong attention allocated to the system-supported task to compensate for the system’s failures, it is questionable that the system will improve safety, as it may severely add to the users’ load. The potential implications of using a system producing a high rate of false alarms were addressed in the first of two experiments in this thesis. The example of a driver assistance system designed to prevent accidents between cyclists and drivers when turning right at intersections was used, and three groups of car drivers were compared. The first was supported by a false alarm-prone system. The second served as control-group without system support. To examine the consequences of false alarms, a third group was supported by a perfectly reliable alarm system. As experimental procedure the video-scenario-technique was applied. Subjects were instructed to break in critical traffic situations, while working on a visually and cognitively demanding concurrent task. They could check the mirror when approaching an intersection, to see if a cyclist was present. It was assumed that false alarms impair trust and thereby prolong the time spent on checking the mirror compared to the control-group. This would absorb users’ attention in the system-supported task more than needed at the expense of the concurrent task. The results showed that indications supporting this assumption were indeed found in situations in which false alarms were given. However, the attention-directing effect of (false) alarms led to earlier brake reactions in critical situations than it was observed in the control-group. Compared to the reliable system, the false alarm-prone system clearly impaired system trust, brake reaction time in critical situations and concurrent task performance due to the frequent checks of alarms. In the second experiment of this thesis it was examined if a trust-building HMI-design reduced the time spent on checking the mirror. This would relieve the driver and leave more space for the remaining tasks. The false alarm-prone system in the first experiment was compared to two design variants, both visualizing the uncertainty of system alarms: A binary system (all-clear message, uncertainty representation in lieu of an alarm) and a three-stage likelihood-alarm-system (all-clear message, uncertainty representation, alarm). The same test environment as in the first experiment was applied. Both design variants of uncertainty feedback increased system trust and reduced the time spent on checking the mirror, but only in uncritical traffic situations. In critical situations checking-time showed no apparent change, just as it was found in the first experiment. However, it might be possible that it can be only influenced by trust-building (or trust-degrading) measures under conditions of ambiguity. This ambiguity may be due to the absence of a clear abort criterion (e.g. a cyclist) to end the mirror checking. Both variants of uncertainty feedback also reduced checking frequency of the reliable all-clear messages, which used to be checked constantly in the group that received explicit alarms. This can be either regarded as a positive trust-building effect in the all-clear messages, or considered a potential risk in task environments where checking a system’s message remains obligatory, just as shoulder-checking is when turning right. As this potential risk was not accompanied by any improvement in task performance, the use of an uncertainty feedback for the system at hand cannot be advised. Irrespective of the use of explicit alarms or uncertainty feedback, no recommendation for the implementation of the false-alarm prone system should be given, as it threatens to withdraw too much attention from other potentially safety-critical driving tasks. A positive safety record could only be found with the perfectly reliable alarm system, whose implementation does not seem be technically feasible in the foreseeable future.
URI: https://depositonce.tu-berlin.de/handle/11303/10286
http://dx.doi.org/10.14279/depositonce-9248
Exam Date: 19-Jul-2019
Issue Date: 2019
Date Available: 30-Dec-2019
DDC Class: 100 Philosophie und Psychologie
Subject(s): Reliabilität
falsche Alarme
Unsicherheitsrückmeldung
Likelihood-Alarmsysteme
Assistenzsystem
reliability
false alarms
uncertainty representation
likelihood-alarm-systems
driver assistance system
License: https://creativecommons.org/licenses/by/4.0/
Appears in Collections:FG Mensch-Maschine-Systeme » Publications

Files in This Item:
platho_christina.pdf
Format: Adobe PDF | Size: 3.47 MB
DownloadShow Preview
Thumbnail

Item Export Bar

This item is licensed under a Creative Commons License Creative Commons