Wut, Freude, Trauer – die meisten Gefühle können heute mithilfe von Emojis schnell mit anderen geteilt werden. Unternehmen wiederum sammeln und analysieren Daten zu menschlichen Emotionen („Emotional Data“) und arbeiten an Tools für emotionale Artificial Intelligence (AI), um daraus „empathische Produkte“ für unterschiedliche Anwendungen zu entwickeln – und zu verkaufen.
Doch wie sind Emotionen datenschutzrechtlich einzuordnen? Kann die systemische Erfassung und Analyse von „Emotional Data“ das Grundrecht auf Gedankenfreiheit beeinträchtigen? Welche ethischen Probleme ergeben sich mit diesen neuen technologischen Möglichkeiten? Und wie geht eine Gesellschaft damit um, wenn menschliches Fühlen von AI-Systemen bewertet wird?
Das Projekt Emotional AI (Rechtliche und ethische Einordnungen für einen risikobasierten Ansatz für AI-Systeme) untersucht diese und weitere Fragen aus ethischer und rechtswissenschaftlicher Perspektive. Datenschutz-Expertin Elisabeth Hödl (Institut für Rechtswissenschaftliche Grundlagen) und Ethiker Thomas Gremsl (Institut für Ethik und Gesellschaftslehre) wollen mit dem Projekt Emotional AI Überlegungen und Vorschläge zur Regulierung liefern und einen Beitrag zur Risiko- und Gefahrenanalyse des systemischen Sammelns von Daten zu menschlichen Emotionen leisten.
Projekt-Team:
Univ.-Prof. Dr. Elisabeth Hödl, Institut für Rechtswissenschaftliche Grundlagen
Univ.-Prof. Dr. Thomas Gremsl, Institut für Ethik und Gesellschaftslehre
Carmen Oberreßl, MA, Institut für Ethik und Gesellschaftslehre
Das Projekt Emotional AI wird im Zuge der Smart Regulation-Exzellenzförderung unterstützt.
Weitere Projekte, die im Profilbereich Smart Regulation gefördert werden:
PsychoTax