Prof. Robert Trappl, Leiter des Austrian Research Institute for Artificial Intelligence (OFAI)
Reading Time: 6 minutes
Künstliche Intelligenz ist nicht nur ein Technologie- und Forschungsthema. Ethische Fragen müssen für die Anwendung geklärt und implementiert werden. Prof. Robert Trappl, Leiter des Austrian Research Institute for Artificial Intelligence (OFAI), beschäftigt sich beispielsweise mit automatisierter Erkennung von Emotionen und deren Beeinflussung, sowie dem Vergleich zwischen technischen Entwicklungen zu Lokalisation und Navigation in Robotern mit dem Hippocampus im menschlichen Gerhirn. Ein wichtiges Thema ist allerdings die Klärung der ethischen Fragen rund um künstliche Intelligenz.
Ein viel besprochenes Thema im Augenblick ist der Umgang mit Ethik und Robotik – Sie haben dazu ein Buch geschrieben.
Prof. Robert Trappl: Ich habe im Dezember 2015 ein Buch veröffentlicht „ A construction manual for robots’ ethical systems“. Es behandelt die Frage nach den ethischen Prinzipien, die Roboter haben müssen. Wenn Menschen mit Robotern zusammenarbeiten oder auch vielleicht zusammen leben, beispielsweise als Betreuer für ältere Menschen oder als sonstige Partner, müssen sie eigentlich auch die ethischen Prinzipien der Menschen, mit denen sie zusammenarbeiten oder leben, kennen. Sodass sie verstehen, was es bedeutet, wenn jemand zum Beispiel Geld in den Hut eines Bettlers wirft, ohne dass er etwas bekommt. Das ist ja eigentlich irrational, wenn man nicht weiß, dass Menschen ethische Prinzipien haben. In dem Buch beschäftige ich mich damit, welche ethischen Sitten es gibt und wie man diese implementieren kann, dass sie auch für Roboter verwendbar sind. Welche Auswirkungen könnte das auf die Gesellschaft haben? Diese Fragen werden immer häufiger gestellt und müssen beantwortet werden.
Ethische Fragen werden auch im Zusammenhang mit selbstfahrenden Autos gestellt.
Prof. Robert Trappl: Ein weiteres Thema, das in letzter Zeit immer mehr Brisanz erfährt, ist „Ethical principles of self driving cars“. Nach welchen Prinzipien müssen wir Entscheidungen treffen? Ein klassisches Beispiel ist hier: „Wollen Sie lieber einen alten Mann überfahren, als ein junges Mädchen?“ Oder was macht das selbstfahrende Auto, wenn ihm auf einer engen Strasse ein anderes großes und ein kleines Fahrzeug entgegen kommt und es in eines hineinfahren muss? Wenn es in das Kleine hineinfährt, dann passiert den eigenen Mitfahrern vielleicht weniger, aber den Insassen des anderen viel mehr. Fährt es in das große Auto, wird jemand anderer geringfügig verletzt, aber man trägt selber ein größeres Risiko. Von diesen Beispielen gibt es sehr viele und man kann dazu viele verschiedene Ansätze haben. Die Frage ist – wie geht man damit um?
Was wäre da zum Beispiel so ein Ansatz?
Prof. Robert Trappl: Einer wurde beispielsweise von einem sehr gescheiten Amerikaner gesagt: Man muss sich die Zahlungen ansehen, die zu erwarten sind. Also ein erwachsener Mensch ist irgendwo zwischen acht und neun Millionen Dollar wert, ein kleines Kind eine andere Zahl, ein Baum, den man umfährt, kostet eine bestimmte Summe usw. Man kann Objekte inklusive Menschen in Dollar umrechnen. Dann muss das autonome Auto sich so entscheiden (beziehungsweise seine Versicherung), dass es mit den geringsten Kosten davonkommt. Es hat mich überrascht, aber es ist sozusagen ein einfacher Ansatz. Man brauche kein komplexes System, sondern rechnet zusammen, wo muss ich hinein fahren, damit es am preiswertesten ist und da fahre ich dann hinein.
Grundsätzlich ist es wirklich simpel. Ethik spielt hier gar keine Rolle. Aber was lernt die Welt dann daraus?
Prof. Robert Trappl: Ja, das ist eine interessante Überlegung, aber auf jeden Fall eine, bei der jede Versicherung sagt „ Diesen Vertrag unterschreiben wir“. Ich war auch überrascht. Ich habe mir mehr große ethische Umwälzungen erwartet, aber es kommen solche einfachen Überlegungen. Doch auch diese simplifizierten Systeme werfen Fragen auf. Angenommen ihr Grundsatz ist, möglichst geringe Schäden zu verursachen. Sie fahren in einem großen Auto auf einer Straße, es kommt ihnen ein kleines Auto entgegen in dem ein Fahrer und drei Kinder sitzen. Sie wollen ausweichen, aber dazu müssen Sie einen der beiden entgegen kommenden Radfahrer zur Seite drücken. Sie werden natürlich den nehmen, der einen Helm auf hat, weil die Gefahr, dass er verletzt wird geringer ist, als bei dem ohne Helm. Aber werden die Radfahrer dann nicht lernen, dass Autos so programmiert sind und aufhören Helme zu tragen, weil das dann viel sicherer für sie ist? Das wäre eine der möglichen Konsequenzen. Es gibt hier viele Beispiele, wie man tatsächlich vorgeht, muss das letztendlich der Gesetzgeber entscheiden und hier kann man nur hoffen, dass es zumindest europaweit eine einheitliche Gesetzgebung geben wird. Sonst müssten Sie, wenn Sie beispielsweise von Österreich nach Deutschland fahren, alles umstellen…
Sie beschäftigen sich auch noch mit ganz anderen Themenbereichen.
Prof. Robert Trappl: Wir haben eine ganze Reihe der unterschiedlichsten Projekte. Ich bin nicht in alle direkt involviert, aber eines kommt zum Beispiel von der Digital News Initiative, einer europaweiten Ausschreibung von Google, an der wir teilgenommen haben. Es gab 1.200 Einreichungen, davon wurden 128 genommen. Unser Projekt, gemeinsam mit einem Mediapartner, hat Anfang Juli gestartet und ist wirklich spannend. Wie Sie wissen, interagieren immer mehr Personen online mittels Postings auf Nachrichten, die sie dort konsumieren. In den letzten Jahren ist es ein vermehrt auftretendes Problem, dass in Foren der emotionale Pegel gestiegen ist. Man hat jetzt bei der letzten Bundespräsidentenwahl gesehen dass es oft über 1.000 Postings pro Artikel gibt. Diese müssen Moderatoren scannen und falls die Kommentare aus dem Ruder laufen, moderieren oder löschen. Hier war unser Vorschlag zu versuchen, in den nächsten zwei Jahren anhand von Daten, die wir haben, historisch retroperspektiv und natürlich auch online zu schauen, ob wir herausfinden, wo eine Eskalation droht, wo die Diskussionen immer heftiger werden und wo ein menschlicher Moderator gewarnt und zum Eingreifen angehalten werden muss. Man muss nach Emotionen suchen, da gibt’s eigene Strategie-Sentimente, hier wird analysiert welche Worte vorkommen, beziehungsweise wie sich die Wortwahl verändert, wenn die Emotionen stärker werden. Wir haben in diesem Bereich schon Erfahrung gesammelt, wir haben gerade ein ähnliches Projekt für eine große europäische Firma umgesetzt. Hier haben wir untersucht, welche emotionale Bewertung ihr Produkt erfährt, wenn es in den Medien genannt wird. Wir waren auch Partner in einem großen europäischen Projekt, das hieß „emotions in cyber space“. Und haben einen virtuellen Bartender erstellt. Mit ihm konnte man sich schriftlich unterhalten. Unsere Überlegung war, ob wir die Stimmung von jemanden verändern können, sie positiver oder negativer machen. Die Leute wussten, dass sie mit einem Computerprogramm kommunizieren und dennoch haben sie nachher gesagt „Jetzt geht es mir nicht mehr so gut, wie vorher“. Also es ist tatsächlich möglich eine Steuerung der Emotionen vorzunehmen.
Wenn der Bot, den Sie entwickeln, dann tatsächlich spürt, dass die Emotionen jetzt stärker werden, kann er auch gleich eingreifen?
Prof. Robert Trappl: Wir haben hier – wie beim Eiskunstlaufen – zwischen Pflicht und Kür unterschieden. Und unsere Pflicht ist, den menschlichen Moderator zeitgerecht auf den Anstieg des Emotionspegels hinzuweisen. Damit wird es den Benutzern leichter gemacht, auf einer rationalen Ebene zu diskutieren. Die Kür wäre, dass wir selber in der Lage sind Emotionen zu beeinflussen, vielleicht sogar besser als ein menschlicher Moderator. Ob wir das zusammenbringen, ob das geht, ob nicht die Benutzer, wenn sie erfahren werden, es ist kein Mensch, sondern ein Computerprogramm, versuchen werden den richtig auszutricksen… Weiß ich nicht. Die Erfahrung, dass die Benutzer oft einen Ehrgeiz entwickeln die Maschine auszutricksen, habe ich schon oft gemacht.
Ein weiterer Bereich Ihrer Forschung ist Hippocampus Invention.
Prof. Robert Trappl: Ja, das ist auch eines der vielen Themen. Wie funktioniert Hippocampus Invention? Hippocampus ist primär für das Kurzzeit Gedächtnis verantwortlich, aber auch für Lokalisation – Wo befinde ich mich gerade? Was ist um mich herum? sowie Navigation – Wie bin ich hergekommen? Wie komme ich wieder zurück? Welche Hilfsmittel brauche ich dazu? Für Lokalisation und Navigation in Robotern gibt es technische Entwicklungen. Wir haben uns gefragt, wie das im Hippocampus aussieht? Wir arbeiten daran dieses Wissen in einem kognitiven Modell abzubilden und dieses in einen Roboter zu implementieren. Danach wollen wir einen Vergleich erstellen und schauen, ob der Roboter mit dem was Evolution in Millionen Jahren entwickelt hat, besser navigieren kann als mit den technischen Lösungen.
About:
Robert Trappl is head of the Austrian Research Institute for Artificial Intelligence in Vienna, which was founded in 1984. He is Professor Emeritus of Medical Cybernetics and Artificial Intelligence at the Center for Brain Research, Medical University of Vienna. He was full professor and head of the Department of Medical Cybernetics and Artificial Intelligence, University of Vienna, for 30 years. He holds a PhD in psychology (minor: astronomy), a diploma in sociology (Institute for Advanced Studies, Vienna), is Ingenieur (BEng) for electrical engineering, and quite recently, in 2012, graduated as MBA in General Management.
Research Interests: His main research interest had always been the human mind since it can be analysed by three distinct methods the results of which eventually have to converge: 1. by introspection, 2. by analysing the behaviour of a person, e.g. through psychological experiments, and 3. by studying the human brain. And then progress in technology made method 4 possible: Modelling the human mind and the human brain. For this reason, he has extended his research methods from cybernetics and systems theory to artificial intelligence, but not restricted to the so-called rational processes but encompassing also emotional ones.