Direkt zum Inhalt
Shutterstock: maxsattana

Künstliche Intelligenz und autonome Systeme: 10 offene Fragen

Künstliche Intelligenz (KI) und autonome Systeme sind in vielen Bereichen der Industrie, der Logistik und des Verkehrs untrennbar miteinander verknüpft. Alleine und in Kombination bergen sie große wirtschaftliche Potenziale, bringen aber auch Risiken mit sich. Die Arbeitsgruppe „Autonome Systeme“ der VDI-/VDE-Gesellschaft Mess- und Automatisierungstechnik (VDI-/VDE-GMA) hat 10 Fragen zusammengetragen, die es zu beantworten gilt, um KI wirtschaftlich erfolgreich zu machen.

„Autonome Systeme können, richtig eingesetzt, schwierige Aufgaben übernehmen und Nutzen bringen. Aber der Einsatz autonomer Systeme wirft auch Fragen auf“, sagt Prof. Alexander Fay, Mitglied im Vorstand der VDI-/VDE-GMA. „Diese Fragen sollten geklärt werden, bevor ein autonomes System gestartet wird“, ergänzt Prof. Birgit Vogel-Heuser, die gemeinsam mit Prof. Fay die Arbeitsgruppe „Autonome Systeme“ der VDI-/VDE-GMA leitet.

Die folgenden 10 Fragen bündeln essenzielle Herausforderungen, die es bei autonomen Systemen zu bewältigen gilt:   

Frage 1: Wie können wir das autonome System beherrschen?

Diese Frage ist wichtig, weil viele Menschen befürchten, dass sich autonome Systeme ihrer Kontrolle entziehen könnten. Der Nutzer muss daher das autonome System jederzeit nach seinen Wünschen deaktivieren bzw. die Stärke des Eingriffs durch das autonome System reduzieren können. Daraus ergibt sich schon die nächste Frage:

Frage 2: Wie autonom soll das autonome System für uns sein?

Die Vorstellungen vom Grad der Selbständigkeit des technischen Systems können sehr unterschiedlich sein. Dafür wurden zum Beispiel für die Anwendungsfelder Automobil und Industrie bereits verschiedene „Grade der Autonomie“ definiert – von der Assistenz über die Automatisierung bis zur umfassenden Autonomie. Die Ebenen-Einteilungen, wie die „5 Stufen des automatisierten Fahrens“ oder die „6 Stufen bis zur autonomen Fabrik“ helfen dabei, Klarheit zu schaffen, was die Erwartungen sind oder was eine technische Lösung bietet.

Frage 3: Wie machen wir das autonome System autonom?

Das „wie“ ist wichtig, da es ganz unterschiedliche Konzepte gibt: vom für alle denkbaren Situationen entworfenen Verhalten bis zu Systemen, die sich selbst „anlernen“. Je nach verwendetem Konzept können unterschiedliche Aussagen über das Verhalten des autonomen Systems getroffen werden.

Frage 4: Wie nachvollziehbar muss das Verhalten eines autonomen Systems sein?

Die Nachvollziehbarkeit stärkt das Vertrauen in autonome Systeme und damit deren Akzeptanz. Entscheidungen und Handlungen von autonomen Systemen müssen für den Nutzer des Systems verständlich und nachvollziehbar sein. Wenn das autonome System die Entscheidung auf der Grundlage eigenen Lernens entwickelt hat, dann müssen geeignete zusätzliche Mittel geschaffen werden, die die Entscheidung erklären und begründen. Idealerweise sollten solche Mittel von vornherein in das autonome System integriert werden. Das autonome System sollte auch von sich aus mitteilen, wenn es unsicher ob der Qualität seiner Ergebnisse ist.

Frage 5: Wie kann man autonome Systeme vergleichen?

Ein Vergleichsmaßstab – in der Messtechnik auch „Metrik“ genannt – kann bei der fundierten Auswahl eines Systems helfen und eine Bewertung der Effizienz, Zuverlässigkeit und Sicherheit von autonomen Systemen erlauben.

 

    Frage 6: Wie zuverlässig ist das lernende autonome System?

    Ein autonomes System wird nur dann akzeptiert und eingesetzt, wenn es zuverlässig ist. Wenn autonome Systeme lernen, treffen sie mitunter Entscheidungen, die sich von früheren Entscheidungen in vergleichbaren Situationen unterscheiden. Menschen können das als mangelnde Zuverlässigkeit wahrnehmen, wenn sich das geänderte Verhalten des autonomen Systems nicht erklärt.

    Frage 7: Wie effizient ist das autonome System?

    Einerseits können autonome Systeme Aufgaben vom Menschen übernehmen und Erleichterung und Entlastung bringen. Dies kann auch ganz konkrete Einsparungen von Rohstoffen, Energie und Geld bedeuten. Andererseits muss auch der Aufwand betrachtet werden, der für die Entwicklung und auch das „Trainieren“ von autonomen Systemen nötig ist.

    Frage 8: Wie sicher ist das autonome System?

    Viele Menschen befürchten, dass ein autonomes System falsche Entscheidungen treffen könnte, die sie in Gefahr bringen. Es bedarf daher Mechanismen, die sicherstellen, dass auch ein autonomes System vorgegebene Anforderungen, zum Beispiel hinsichtlich Sicherheit für den Menschen und die Umwelt, nicht verletzt. Dazu gehört auch, dass das System nicht manipulierbar ist. Vertrauen in ein autonomes System kann nur bestehen, wenn seine Aussagen nicht ungewollt beeinflusst werden können, zum Beispiel durch die Wahl der Trainingsdaten oder die Veränderung der Eingangsdaten. Idealerweise erkennt das autonome System eine Manipulation und signalisiert diese.

    Frage 9: Wo sind die Grenzen des autonomen Systems?

    Wie soll das autonome System mit Situationen umgehen, die vom Standardfall, für den es ausgelegt ist, und den Regeln, mit denen es entworfen wurde, abweichen?  Soll es die Verantwortung dann wieder an den Menschen zurückgeben? Darf und kann es das tun? Denn möglicherweise hat sich der Mensch bereits an das autonome System gewöhnt und verlernt, selbst diese Aufgabe zu bewältigen. Diese Frage ist wichtig, da manche autonomen Systeme die Handlung und Verantwortung auch kurzfristig an den Menschen zurückgeben, womit dieser möglicherweise überfordert ist. Es sind Konzepte notwendig, die auf veränderte Einsatzbedingungen robust und sicher reagieren.

    Frage 10: Welchen Werten folgt das autonome System?

    Diese Frage ist besonders wichtig, denn wir erwarten, dass ein technisches System durch seine Entwickler so gestaltet wird, dass es geltenden Gesetzen, Normen und Vorschriften entspricht. Die Autonomie eines autonomen Systems ermöglicht aber, dass es sich anders verhält als von seinen Entwicklern vorgesehen. Welchen Regeln, welchen Werten soll es dann in seinem Verhalten folgen? Und wie können wir sicherstellen, dass es diesen Regeln und Werten auch tatsächlich folgt?

    Die Arbeitsgruppe „Autonome Systeme“ möchte mit den aufgeworfenen Fragen in die Diskussion einsteigen und gemeinsam mit allen, die sich für das Thema interessieren, schlüssige und fundierte Antworten entwickeln.

    Schreiben Sie uns!

    Veröffentlicht am 15. Mai 2019

    Text von:

    • Prof. Dr.-Ing. Alexander Fay, Helmut-Schmidt-Universität Hamburg
    • Prof. Dr.-Ing. Birgit Vogel-Heuser, Technische Universität München
    • Dr. Harald Bosse, PTB
    • Dr. Sascha Eichstädt, PTB
    • Prof. Dr.-Ing. Klaus-Dieter Sommer, Technische Universität Ilmenau
    • Weitere Beitragende: Vorstand und Beirat der VDI-/VDE-GMA