Direkt zum Inhalt
Interview: Menschliche Zuverlässigkeit

„Der Mensch erwartet, wie sich ein System verhält“

Wenn Menschen Technik falsch bedienen, liegt es oft am Systemdesign. Zu dieser Erkenntnis kommt  Prof. Dr. Oliver Sträter, Vorsitzender des VDI-Fachausschusses „Menschliche Zuverlässigkeit“ und Autor des Sachbuchs „Risikofaktor Mensch?“.
 

Die menschliche Zuverlässigkeit im Umgang mit Technik wird aktuell auf eine zusätzliche Probe gestellt: Welchen Einfluss haben Corona-bedingte Maßnahmen auf unser Verhalten?

Oliver Sträter: Zunächst einmal ist die Corona-Pandemie ein Lehrstück für alle Aspekte, die menschliche Zuverlässigkeit erfordern. Hier geht es beispielsweise um Entscheidungsqualität bezogen auf frühzeitiges Handeln, was den Lockdown und das diskutierte Öffnen angeht. Ein weiterer Punkt ist die Fehlerkultur, die wir im Rahmen des Buchs „Risikofaktor Mensch?“ intensiv thematisieren. Wie gehen wir mit Verletzungen der Abstandsregeln um? Entsteht nun ein eher sanktionierendes System, wenn Abstandsregeln nicht eingehalten werden? Oder etablieren wir eine Fehlerkultur, in der rechtzeitiges Lernen und sammeln von Erfahrungen im Vordergrund steht? Aus der Sicht der Zuverlässigkeit und Resilienz ist Letzteres von hoher Bedeutung für den zuverlässigen Umgang mit der Corona-Pandemie.

Da wäre es schön, wenn auch die Technik den Menschen in der neuen Situation hilft. Gibt es dafür Beispiele?

Sträter: In der Tat zeigt die Corona-Pandemie einen Technologieschub hinsichtlich vieler IT-bezogener Lösungen, die im Rahmen des durch das Virus aufgezwungenen gesellschaftlichen Lebens erforderlich werden. Neben vielen negativen Auswirkungen der Pandemie haben wir aber auch interessante Facetten hinsichtlich der Risikovorsorge. Virtuelle Meetings führen beispielsweise dazu, dass Reisetätigkeiten vermindert werden und damit natürlich auch die Risikoexposition. Der Umgang mit dem Virus zwingt uns dazu, eine gute Sicherheitskultur aufzubauen, um Übertragungswege des Virus zu stoppen und eine hohe Achtsamkeit im Umgang miteinander zu entwickeln. Dies ist auch auf andere Gefährdungsarten übertragbar und kann sich positiv auf die Arbeitssicherheit auswirken. 

Erwartungshaltung an Technik und Systeme

Technische Systeme werden immer komplexer. Wie kann eine zuverlässige Interaktion zwischen Mensch und Technik gelingen?

Sträter: Die Komplexität ist nicht das entscheidende. Fehleranfällig wird es immer dann, wenn Dinge nicht aufeinander abgestimmt sind. Damit meine ich inkompatible Systeme. 

Können Sie dafür ein Beispiel nennen?

Sträter: Die unterschiedliche Anordnung von Tastenfeldern: Beim Telefon ist die Eins beim Zehnerfeld oben und beim Computer unten. In der Luftfahrt kann das zu schweren Fehlern führen, wenn beispielsweise unter Stress die Flughöhe manuell per Tastatur eingegeben wird – kurz gesagt: Der Mensch hat eine gewisse Erwartungshaltung daran, wie sich ein System verhält. Wird diese nicht erfüllt, führt das zu großen Problemen. 

Erwartungen kommen aus erlerntem Verhalten. Muss man also die Technik an die Erwartung des Menschen anpassen oder sollte der Mensch umlernen?

Sträter: Wenn jemand eine Tätigkeit jahrelang in einer bestimmten Art ausgeübt hat, Prozesse für sich automatisiert und optimiert hat, ist es schwieriger, das zu entlernen, als etwas Neues zu erlernen. Gerade bei neuen Technologien oder beim Wechsel von Arbeitsplätzen sollten Gewohnheiten deshalb sehr intensiv betrachtet werden. In der Automobilindustrie ist das beim Innenraumdesign Pflicht. Nichts ist schlimmer als ein Schalter, der nicht mehr an der gewohnten Stelle ist. Stammkunden haben eine Erwartungshaltung und daher bei der Umorientierung große Probleme. Ähnliches gilt für Software. Als beim Betriebssystem Windows beim Wechsel auf Version 8 der Start-Button verschwand wurde er von vielen Anwendern vermisst und schließlich von Microsoft in der Version 8.1 wieder eingeführt.

Softwareergonomie von Computerspielen als Vorbild für industrielle Systeme

Grafische Oberflächen bieten Anwendern oft individuelle Anpassungsmöglichkeiten. Ist das eher ein Fluch oder ein Segen für industrielle Anwendungen? 

Sträter: Das kann zu Problemen führen, aber gleichzeitig auch gewollt sein. In der Kerntechnik hat man beispielsweise absichtlich Schaltschränke von unterschiedlichen Herstellern genommen. So sind die Leute bei Wartungsarbeiten gezwungen, sich in jedem System zu orientieren. Routinefehler werden damit vermieden. Bei der Interaktion mit einem Softwaresystem kann man das genauso machen und den Bediener durch die Schaffung von Komplexität dazu zwingen, sein Handeln zu hinterfragen.

Das klingt nach einer spielerischen Lösung im Sinne von Gamification.

Sträter: Viele dieser Konzepte kommen tatsächlich aus der Computerspiel-Branche. Hinsichtlich der Softwareergonomie gibt es da viele Vorbilder für industrielle Systeme. Das reicht von der Bedienung per Maus bis hin zu virtuellen Umgebungen.

Der Mensch muss die Grenzen des autonomen Systems kennen

Zunehmend werden auch autonome Systeme erprobt. Wofür brauchen wir dann überhaupt noch Bedienschnittstellen? 

Sträter: Nehmen wir das autonome Fahren, das gerne mit der Erhöhung der Verkehrssicherheit verbunden wird. Aus meiner Sicht trifft das aber nur sehr bedingt zu. Den Fehlschluss hat man bereits in der Kerntechnik gemacht, wo Systeme hochgradig autonom betrieben werden. Da dachte man auch, dass der Mensch keine Rolle spielt, weil das System von selbst sicher ist. 

Für ein autonom agierendes Fahrzeug bedeutet dies …

Sträter: … dass es nur dann sicher ist, wenn es sich in einer Umgebung bewegt, für die es entworfen wurde. In Bereichen, wo das autonome System keine Entscheidung treffen kann, muss der Mensch eingreifen. Oft wird der Mensch deshalb bei der Systementwicklung als zusätzliches Sicherungssystem betrachtet. Wenn ich in einem autonom agierenden Fahrzeug sitze, dann achte ich aber nicht mehr auf die Verkehrssituation. Das nennen wir Mensch-Automatik-Wechselwirkung. Der Mensch denkt, dass das technische System hier übernimmt. Und der Designer des Systems geht davon aus, dass der Mensch es schon richten wird. Wenn das nicht zusammenpasst, kommt es zu schweren Unfällen. 

Liegt das auch daran, dass der Nutzer nicht genau weiß, wo die Grenzen des autonomen Systems sind?

Sträter: So ist es. Wenn der Mensch das wüsste, wäre er in solchen Situationen auch zuverlässig. Das war auch bei den Abstürzen der Boeing-737-Max-Flugzeuge der Fall, wo die Piloten die Grenzen der Flugsteuerungssoftware nicht kannten. Sonst hätten sie zuverlässig gehandelt und das System ausgeschaltet.

Interview: Martin Ciupek

Ansprechpartner im VDI:
Dipl.-Ing. Dieter Moll MBM
VDI-Fachbereich Sicherheit & Zuverlässigkeit
E-Mail-Adresse: moll@vdi.de

Artikel teilen