Arndt Schäfer, Smart Regulation-Mitglied und Mitarbeiter am Institut für Psychologie, beschäftigt sich im Rahmen seiner Dissertation mit Vertrauen von Menschen in Roboter. Im interdisziplinären Projekt „Trust Me“ entwickelt er gemeinsam mit Psycholog*innen und Philosoph*innen der Universität Graz ein neues, theoretisch fundiertes Vertrauenskonzept für Mensch-Roboter-Beziehungen, das über bisherige (zwischenmenschliche) Vertrauensdefinitionen hinausgeht.
Woran forschen Sie in Ihrem Dissertationsprojekt?
ARNDT SCHÄFER: Ich beschäftige mich mit der theoretischen Einordnung und Systematisierung bisheriger Vertrauensbegriffe in der Mensch-Roboter-Interaktion, mit dem Ziel, ein besseres Verständnis über das Vertrauen von Menschen in Roboter zu entwickeln. Dabei setze ich mich mit bisherigen Vertrauenskonzepten auseinander, deren Wurzeln oftmals in interpersonalen Vertrauensbegriffen liegen. Bei der Entwicklung eines neuen Vertrauenskonzeptes liegt daher ein besonderes Augenmerk darauf, dass sich das Konzept auch für die Beschreibung von Vertrauen eines Menschen in einen Roboter verwenden lässt, was über bisherige Vertrauensdefinitionen aus einem interpersonalen Vertrauenskontext hinausgeht.
Welche Frage steht im Mittelpunkt Ihres Projektes?
ARNDT SCHÄFER: Im Mittelpunkt des Dissertationsprojektes steht die Frage, was unter Vertrauen von Menschen in einen Roboter zu verstehen ist. Dies bedeutet nicht nur, zu untersuchen, welche Komponenten Vertrauen vorweist, durch was es gekennzeichnet ist und welche Form Vertrauen annimmt. Die Frage nach Vertrauen in Roboter ist auch eine Frage nach Unterschieden und Gemeinsamkeiten zwischen Vertrauen in Roboter und Vertrauen in andere Menschen.
Wie beeinflusst Ihre Forschung unseren Alltag?
ARNDT SCHÄFER: Menschen interagieren mit Robotern anders, wenn sie diesen vertrauen. Um Mensch-Roboter-Teams möglichst erfolgreich zu gestalten, müssen Faktoren untersucht werden, die dazu führen, dass Menschen Robotern in einem angemessenen Ausmaß vertrauen. Dazu müssen wir zunächst verstehen, was Vertrauen eines Menschen in einen Roboter ausmacht und wie sich dieses Vertrauen beobachten lässt. Erst dann können wir abschätzen, ob und wie sich unterschiedliche Faktoren auf die Zusammenarbeit zwischen Menschen und Roboter auswirken. Schlussendlich lassen sich also erst durch ein genaues Vertrauensverständnis konkrete Gestaltungsempfehlungen für Mensch-Roboter-Teams ableiten.
Warum haben Sie sich für dieses Forschungsthema entschieden?
ARNDT SCHÄFER: Wir alle nutzen in den unterschiedlichsten Kontexten Technologien, die unser tägliches Leben beeinflussen. Roboter stellen dabei eine bestimmte Form von Technologie dar, die zunehmend in den Fokus des Menschen rückt. Im Gegensatz zu anderen Technologien, die für uns oftmals im Verborgenen arbeiten, sind Roboter jedoch Maschinen, die wir sehen und denen wir direkt begegnen können. Bei unseren Begegnungen mit Robotern werden unterschiedlichste Reaktionen in uns ausgelöst. Die dabei entstehende Vielfalt an Reaktionen bietet für Wissenschaftler:innen viele neue faszinierende Fragestellungen, die es zu untersuchen gilt. Letztlich liegt der Reiz dieses Forschungsthemas auch darin, herauszufinden, wie Interaktionen mit Robotern möglichst menschenzentriert gestaltet werden können, sodass sich der Einsatz und die Entwicklung von Robotern nach den Bedürfnissen der Menschen richtet.
Zur Person: Arndt Schäfer, M.Sc. ist Universitätsassistent am Institut für Psychologie und forscht seit Dezember 2021 als Assoziiertes Mitglied im Profilbereich Smart Regulation (Projektbetreuung: Univ.-Prof. Dr. Bettina Kubicek, Institut für Psychologie, Arbeits- und Organisationspsychologie). Forschungsschwerpunkte: Mensch-Maschine-Interaktion/Mensch-Roboter-Interaktion; Vertrauen in Roboter; Persuasion durch künstliche Agenten.