Kann künstliche Intelligenz Leben retten? Diese Frage steht im Fokus eines spannenden Interviews mit Siegfried Brockmann, Geschäftsführer im Bereich Verkehrssicherheit und Unfallforschung. In unserem Podcast „Lebensretter“ wirft er einen Blick auf die Zukunft der modernen Fahrzeugtechnologie. Dabei geht es nicht nur um die Frage, wie Künstliche Intelligenz (KI) zur Verbesserung der Verkehrssicherheit beitragen kann, sondern auch, ob wir eines Tages tatsächlich nur noch Passagiere im eigenen Auto sein werden. Für manche unter uns ist das schon eine beängstigende Vorstellung, oder?
Eine der zentralen Fragen ist: Kann Künstliche Intelligenz dazu beitragen, unsere Straßen sicherer zu machen und Leben zu retten? Das wäre perfekt. Wir stehen an einem Punkt, an dem moderne Fahrzeuge bereits mit intelligenten Assistenzsystemen ausgestattet sind, die den Fahrer unterstützen: Abstandswarner, Spurhalteassistenten oder automatische Notbremsfunktionen. Keine Frage, das erhöht die Sicherheit, ersetzt aber noch lange keinen Fahrer. Die nächste Entwicklungsstufe: Autos, die eine Zeit lang selbständig fahren können, die Spur und den Vordermann erkennen, allein bremsen und beschleunigen. Das klingt erstmal bequem für uns, birgt aber das große Risiko der Ablenkung.
Jetzt wird es kritisch: Was passiert, wenn ein Fahrer über längere Zeit ohne Konzentration auf das Fahrgeschehen inaktiv bleibt? Ist es dann gewährleistet, dass er im Notfall in Sekundenschnelle eingreift? Brockmann warnt, „denn der Mensch ist von den Grundlagen der Psychologie her nicht dafür gemacht, ein redundantes System zu sein, das man nur dann aktiviert, wenn man es braucht“. Wer minutenlang nichts tut oder sich mit anderen Dingen beschäftigt, ist im Ernstfall oft zu langsam. Und das kann gefährlich werden.
Ein vollständig autonomes Auto – das alles selbst macht, ganz ohne unser Zutun – ist für viele eine faszinierende Vorstellung. Aber auch eine beängstigende. Brockmann geht davon aus, dass die Technik bald so weit sein könnte, dass Fahrzeuge auf großen Strecken komplett autonom unterwegs sind. Doch er warnt, dass wir immer noch vor großen Hürden stehen, z.B. in der Sensorik und der Erkennung komplexer Verkehrssituationen. Ein selbstfahrendes Auto muss in der Lage sein, blitzschnell Daten aus Sensoren; Kameras etc. zu verarbeiten und daraufhin Entscheidungen treffen, die dem menschlichen Gehirn gleichkommen.
Eine wahre KI würde eigenständig lernen und sich selbst weiterentwickeln. Es würde bedeuten, dass die Straßen ausschließlich von Fahrzeugen befahren werden, die miteinander kommunizieren, den Verkehr um sich herum beobachten und so programmiert sind, dass sie frühzeitig verstehen, was andere Fahrzeuge vorhaben, um dann adäquate Entscheidungen zu treffen, die unter Umständen Leben retten, aber auch gefährden können. Klingt schon sehr nach Science-Fiction. Vor allem würde es voraussetzen, dass alle Fahrzeuge auf dem gleichen Stand der Technik sind. Das ist schon eine sehr große Hürde, von der wir noch weit entfernt sind sie zu nehmen.
Stellt euch vor, ein Auto muss in einer gefährlichen Situation blitzschnell entscheiden: ausweichen oder bremsen – und dabei vielleicht Leben gegeneinander abwägen. Wer übernimmt diese Entscheidung? Ein Mensch oder ein Algorithmus? Diese ethischen Fragen stellen sich jedoch nur dann, wenn die KI im Auto selbstständig Entscheidungen trifft. Solange das Fahrzeug im Notfall „nur“ eine Notbremsung selbstständig auslöst, ist dies unkritisch. Überlebenswichtig für viele wäre es allerdings, wenn das Fahrzeug bei bspw. einer Amokfahrt oder Bewusstlosigkeit am Steuer erkennen könnte, dass das Fahrzeug auf eine Menschenmenge zurast und sofort eine Notbremsung einleiten würde. Rein technisch ist das bereits machbar, müsste aber von den Fahrzeugherstellern in der Entwicklung aktiv vorangetrieben werden.
Laut Brockmann verursacht der menschliche Fahrer im Durchschnitt alle 300 Jahre einen Unfall mit Personenschaden. Überraschend wenig.
Automatisierte Systeme könnten unter idealen Bedingungen sicherer sein als der Mensch. Aber: Sensoren könnten ausfallen, Softwarefehler auftreten oder das Fahrzeug könnte in eine Situation geraten, die es nicht korrekt interpretieren kann. Vertrauen ist gut – Kontrolle manchmal besser.
Die Vision von selbstfahrenden Fahrzeugen bietet eine faszinierende Aussicht auf die Zukunft, doch bis wir in einer Welt leben, in der der Mensch sich komplett aus dem Fahrprozess zurückziehen kann, ist es noch ein weiter Weg. Und auch dann bleibt die Frage: Wie sicher fühlen wir uns wirklich, wenn wir wissen, dass hinter jeder Entscheidung ein Algorithmus und keine menschliche Intuition steckt?
Sie sehen gerade einen Platzhalterinhalt von Podigee. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenKeine Beiträge in dieser Kategorie gefunden.
Sie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen