Logo Leibniz Universität Hannover
Logo: Linguistischer Arbeitskreis Hannover
Logo Leibniz Universität Hannover
Logo: Linguistischer Arbeitskreis Hannover
  • Zielgruppen
  • Suche
 

Auf den Hund gekommen: Sprachliches Alignment mit dem Roboter

geschrieben von Jan Hühnerberg

Inwiefern wirkt sich die Einschätzung seines Kommunikationspartners auf das „Alignment“ eines Sprechers aus? Dieser Frage ging Dr. Kerstin Fischer von der University of Southern Denmark in Sonderburg in ihrem Vortrag zum Thema „Sprachliches Alignment mit dem Roboter“ nach. Laut ihrer Aussage sei es mit Robotern sehr gut möglich, Alignmentphänomene zu untersuchen, da sich Roboter in Experimenten besser kontrollieren lassen als Menschen, schließlich kann man bei ihnen eine feste Verhaltensstruktur programmieren. Das eher fachwissenschaftlich und modern anmutende Thema lockte am 15.11.2010 vor allem das jüngere Publikum zur Vortragsreihe LinguA in Raum 506 des Conti-Hochhauses an der Leibnizuniversität Hannover.

Bei ihren Untersuchungen bezog sich Kerstin Fischer auf das interaktive Alignment-Modell von Pickering und Garrod von 2004. In diesem auf Dialog basierten Modell gehen die Psychologen davon aus, dass es bei der Kommunikation zur unbewussten Übernahme der Strukturen des Gesprächspartners kommt, wobei Alignment auf allen Ebenen stattfindet; dies erklärt u.a. die Mühelosigkeit von Dialogen für die Sprechenden. Es gibt allerdings auch Kritik an diesem Modell: Alignment sei funktional selektiv und modalitätsabhängig, das heißt, Sprecher alignen sich nur dann, wenn es einen Nutzen für sie hat; außerdem sei es von den Gesprächspartnern abhängig, inwieweit Alignment geschieht.

Um in dieser Diskussion neue Erkenntnisse zu erlangen, untersuchte Kerstin Fischer im Rahmen ihrer Habilitation die Kommunikation zwischen Versuchspersonen und dem Roboterhund Aibo von Sony. Aufgabe der Personen war es, den Roboter zu einem bestimmten Objekt zu bewegen, wobei es zwei Versuchsanordnungen gab: Im Rahmen der ersten Anordnung blieb der Roboter stumm und folgte einem bestimmten Schrittschema, während die Probanden glaubten, den Roboter zu steuern; in der zweiten Anordnung kommunizierte Aibo mit den Probanden, er begrüßte sie, gebrauchte viele Relativsätze, verfolgte Objektbenennungsstrategien und benutzte ein extrinsisches Referenzsystem, also eine Orientierung nach Himmelsrichtungen, die im geschlossenen Raum eigentlich sinnlos ist. Wie weit würden sich die Probanden mit dem Roboter alignen?

Bei der ersten Anordnung steuerten die meisten Probanden Aibo wie mit einer Fernsteuerung und behielten ihre Struktur der Sprache bei. Im Zuge der zweiten Anordnung übernahmen die meisten Probanden Aibos Objektbenennungsstrategie und fast jeder Zweite das sinnlose extrinsische Referenzsystem, nachdem sie zuvor in der Kommunikation gescheitert waren. Alignment wurde an dieser Stelle also strategisch nach einer zuvor gescheiterten Kommunikation eingesetzt. Des Weiteren benutzten eine Mehrzahl der Probanden auch die von Aibo bevorzugten Relativsätze, um ihn an sein Ziel zu navigieren.

Neben dem strategischen Alignment untersuchte Kerstin Fischer ebenfalls die interpersonale Variation in der Wahrnehmung des Roboters. Dazu begrüßte Aibo alle Probanden erst einmal mit der Frage, wie es ihnen ginge. Nun gab es Probanden, die diese soziale Äußerung des Roboters aufnahmen und ihn ihrerseits nach seinem Befinden fragten und es gab Probanden, die über Aibos Frage einfach hinweg gingen. Beeinflusste die unterschiedliche Wahrnehmung von Aibo als sozialer oder nicht sozialer Kommunikationspartner das Alignment der Probanden? Es ließ sich in der Tat ein Zusammenhang zwischen Reaktion auf die Begrüßung und dem Alignment feststellen: Wer den Roboter nicht als sozialen Gesprächspartner anerkannte, alignte sich zur Verständnissicherung nach Kommunikationsproblemen; wer den Roboter als sozialen Gesprächspartner anerkannte, alignte sich, um Reziprozität deutlich zu machen und eine gemeinsame Basis zur Kommunikation zu schaffen.

Nachdem sie uns ihre Versuchsergebnisse dargestellt hatte, präsentierte Kerstin Fischer ihre Schlussfolgerungen: Es gebe wenig Hinweise auf eine automatische Übernahme der Gesprächsstruktur des Partners, Art und Häufigkeit des Alignments hänge vom Partnermodell des Sprechers ab und die Verbalisierung erfolge rein funktional nach Einschätzung des Kommunikationspartners und der Erfordernisse der jeweiligen Kommunikationssituation.

Die nun folgende Fragerunde kam zunächst nur schleppend in Gang, was daran gelegen habe könnte, dass es sich zwar um ein sehr interessantes, aber doch spezielles Thema handelte, über das die meisten Zuhörer keine großen Vorkenntnisse hatten. Schließlich kamen aber doch noch ein paar Fragen auf, z.B. ob es beim Sprechen mit Robotern Abweichungen oder Ähnlichkeiten zum Sprechen mit Kindern gebe? Kerstin Fischer sah ihre Studien in diesem Zusammenhang als eine Ergänzung zur Untersuchung von Gesprächen mit Kindern, weil hier der Beitrag der Vorstellungen vom Kommunikationspartner und der nonverbalen Parameter untersucht werden könne. Ob sich denn die Menschen bei solchen Versuchen in den Roboter hinein versetzen, ähnlich wie sie das bei Kindern oder auch Hunden tun? Dazu gebe es bislang noch keine Studien, antwortete Frau Fischer, die Versuchspersonen versetzten sich jedoch in die Sicht des Roboters und merkten sich, was der Roboter bereits verstanden hat. Ein anderer Zuhörer wollte wissen, inwieweit sich die Emotionalisierung auf die Wahrnehmung eines Roboters durch Menschen auswirkt? Die Antwort auf diese Frage war relativ einfach: Je mehr Emotionen der Roboter zeigt, desto mehr wird er von seinem Gegenüber vermenschlicht.

Nachdem alle Fragen gestellt und beantwortet waren, wurde der Vortrag nach einer guten Stunde beendet. Alles in allem haben wir einen guten und interessanten Vortag gesehen, der auch mit geringen Vorkenntnissen gut zu verstehen war, aber nur wenig Möglichkeiten zur Diskussion bot.