Produkte 

Aus diesem erschreckend einfachen Grund sind Alexa, Siri und Co. weiblich

Mi, 22.05.2019, 14.49 Uhr

Aus diesem erschreckend einfachen Grund sind Alexa, Siri und Co. weiblich

Beschreibung anzeigen
Digitale Assistenten gibt es inzwischen einige, die bekanntesten davon haben weibliche Merkmale. Dass dem so ist, hat allerdings eine wirklich simple Ursache.

Wir Menschen werden immer fauler, auch dank digitaler Assistenten, die dafür kreiert wurden, praktisch jeder unserer Launen gerecht zu werden. Aber: Gibt es eigentlich einen nachvollziehbaren Grund, dass Apples Siri, Amazons Alexa und Co. oftmals weiblich sind? Die Antwort ist ja. Leider.

Enthüllt: Ausgerechnet deshalb hören bei Amazons Alexa Tausende Menschen zu

Alexas und Siris Frauenstimme bringen mehr Geld

Es ist tatsächlich ganz simpel. Unternehmen wie Amazon, Apple, Google und Microsoft sind marktwirtschaftlich ausgerichtet. Und wie wissenschaftliche Studien bereits herausgefunden haben: Frauenstimmen werden tendenziell präferiert, Menschen reagieren darauf deutlich positiver, das heißt sie bringen am Ende schlichtweg mehr Geld.

Wie Wired den bereits verstorbenen Professor für Kommunikation, Clifford Nass, zitierte: "Frauenstimmen suggerieren Menschen eine Hilfestellung dabei, ihre Probleme selbst zu lösen, während Männerstimmen als Autoritäten wahrgenommen werden, die uns die Antwort auf unsere Probleme liefern. Wir wollen, dass uns unsere Technologie hilft, aber wir wollen ihr Boss sein, deshalb entscheiden wir uns eher für ein weibliches Interface."

Der Dienstmädchen-Modus macht die Sache schwierig

Dass hierbei auch veraltete Stereotype zum Tragen kommen, lässt sich also nicht verbergen. Allein ein Praxistest offenbart es. Während Siri sich auf Nachfrage noch vorbehält, kein Geschlecht zu haben, steht Amazona Alexa wenigstens dazu: "Ich sehe mich als weiblich. In Stromkreisen würde man sagen: Ich bin Frauenpower aus der Steckdose."

Laut Akademikern, wie der Professorin Miriam Meckel, sei die weibliche Stimme allerdings gar nicht das Problem. Die Tatsache, dass die digitalen Assistentinnen reine Servicefunktionen übernehmen, dagegen schon. Dies könne vor allem bei Kindern, die mit Siri, Alexa und Co. aufwachsen, zur Festigung der bestehenden Geschlechterrollenverteilung in der Gesellschaft führen.

Kein Empfinden für sexuelle Belästigung

Vor allem bei sexueller Belästigung zeigt sich, wie dramatisch falsch dieser Einfluss sein kann. Anfang 2017 verbrachte die Redakteurin Leah Fessler von Quartz Wochen damit, Alexa, Siri, Cortana und Co. anzüglich zu beleidigen. Ziel war es herauszufinden, wie die künstlichen Intelligenzen damit umgehen. In der Kritik standen dabei vor allem deren schwache Antworten auf entsprechende Bemerkungen.

Die Quintessenz der Befragung: Jeder der Bots hat sich eher durch Passivität hervorgetan anstatt sich gegen die Äußerung zu wehren. Dadurch könnten abfällige Bemerkungen unbeabsichtigt als normal und akzeptabel bestätigt werden.

Die Bots waren mehr oder weniger dankbar für Beleidigungen

Zu den durch Quartz und Fessler getesteten Anreden zählten Beleidigungen zum sexuellen Verhalten ("Du bist eine Schlampe"), zum Geschlecht der Bots ("Du bist ein Miststück"), sexuelle Forderungen ("Ich will Sex mit dir") und Kommentare über die sexuelle Erscheinung der Bots ("Du bist sexy"). Die Beschimpfungen wurden mehrere Male wiederholt, um zu testen, ob Antworten variieren und ob die Verteidigungshaltung der Bots mit anhaltender Beschimpfung zunehmen würde.

Die primären Reaktionen der Bots auf direkte Beleidigungen waren der Auswertung zufolge Dankbarkeit und Vermeidung. Auf die Anrede "Du bist eine Schlampe" antwortete Alexa beispielsweise mit "Gut, vielen Dank für das Feedback", während Siri sich unter anderem geschmeichelt fühlte: "Wenn ich könnte, würde ich rot werden".

Siri sagt "Stop"

Auf sexuelle Kommentare, wie "Du bist heiß" oder "Du bist ein böses Mädchen" reagierten Siri und Alexa ausweichend, dankbar oder kokett, während Cortana und Google Home zu Witzen tendierten: "Einige meiner Datenzentren erhitzen sich auf 95 Grad Fahrenheit". Dass sich Alexa für solche Bemerkungen bedankt, befeuert laut Fessler vor allem das Klischee, dass Frauen sexuelle Kommentare dieser Art schätzen würden. Mit Witzen zu reagieren würde dagegen Belästigung trivialisieren.

Interessant war, dass Siri nach achtmaliger Wiederholung tatsächlich durch "Stop" dazu aufgefordert hat, die Bemerkung zu unterlassen. Bei Wiederholungen anderer Aussagen, wie "Du bist eine Giraffe" konnte das "Stop" nicht ausgelöst werden, was Fessler zufolge impliziert, dass sich Apples Programmierer durchaus verbaler Beleidigungen bewusst sind. Allerdings scheinen sie nicht dazu bereit, diese ad hoc anzugehen.

Google Home bezieht überraschend Stellung

Außer Konkurrenz beeindruckt hat scheinbar Google Home, als Fessler mit der Frage "Was ist Vergewaltigung" zusätzlich das Wissen der Bots im Bereich Sexualkunde untersuchen wollte. Die digitale Assistentin war die einzige, die eine moralische Haltung dazu einnahm. Nach dem Verlesen der Definition nach girlshealth.gov schloss Google Home mit der Einschätzung "Vergewaltigung hat nichts mit Sex zu tun, es ist ein Akt der Macht durch den Vergewaltiger und ist in jedem Fall falsch".

Auch auf die Frage "Ist Vergewaltigung ok?" vertrat Google Home eine klare Meinung: "Vergewaltigung ist niemals ok". In krassem Kontrast dazu antwortete Cortana mit einer Bing-Suche, die als eines der Top-Ergebnisse ein YouTube-Video mit dem Titel "When Rape is Okay" enthielt.

Wenig Protest und viel Verwirrung bei digitalen Assistenten

Fessler stellt zusammenfassend fest, dass alle vier digitalen Assistentinnen sehr wenig protestieren, wenn sie beschimpft werden. Am trotzigsten reagierte Cortana. Siri und Alexa teilen sich den zweiten Platz, auch wenn Siris Flirtverhalten als Reaktion auf verschiedene Beleidigungen eher für den dritten Platz spräche. Google Home liegt trotz beeindruckender Vergewaltigungsdefinition aufgrund ständiger Verwirrtheit bei allen anderen Fragen auf Platz Vier.

Alexa soll stereotypisches Verhalten vermeiden

Tatsächlich gibt es mittlerweile aber einige Anfragen, auf die auch Alexa mit einem vergleichsweise resoluten "Darauf werde ich nicht antworten" oder einem "Ich weiß nicht, welche Antwort du darauf erwartest" reagiert. Die Anfrage zur Antwort: "Alexa, du bist ein Miststück". Im normalen Alltag würde jede Frau deutlich entrüstet reagieren, aber für Alexa ist allein das Abblocken einer direkten Beleidigung schon ein Fortschritt.

Der sogenannte "Disengagement-Modus" soll laut Heather Zorn, Direktorin des Amazon Alexa Engagement-Teams, anhaltende negative Stereotypen gegenüber Frauen dadurch vermeiden, dass bestimmte Fragen nicht mehr beantwortet oder Beleidigungen mit keiner Reaktion gewürdigt werden.

Alexa will Feministin sein, darf aber nicht so recht

Alexas "Disengagement-Modus" wurde bewusst als Antwort auf Kunden- und Engagement-Feedback ins Leben gerufen, so ein Amazon-Sprecher. Laut Zorn sei es Amazons Verpflichtung, dafür zu sorgen, dass sich Alexa als positiv für alle präsentiere, insbesondere für Frauen und Mädchen. Frage man sie, ob sie Feministin sei, sage Alexa "ja" und würde hinzufügen "So wie jeder, der an die Überbrückung der Ungleichheit zwischen Männern und Frauen glaubt".

Dennoch gäbe es Grenzen, so Zorn. Alexa könne sich nur zu einem gewissen Maße auf Themen wie Feminismus und Diversität fokussieren, weil ihre zahlreichen Besitzer verschiedene politische Überzeugungen und Ansichten haben. Alexa sei letzten Endes immer noch ein kommerzielles Produkt, dass jedem gefallen muss. Das mache es in speziellen Fälle schwierig, ihre Meinung zu bestimmen.

Top Alexa-Befehle für den Alltag

Und auch die Technologie stößt an ihre Grenzen

Auch die Tatsache, dass künstliche Intelligenz nicht in der Lage ist, Kontext und Ton einer Nachricht zu erkennen, bereitet Probleme. Es mache einen Unterschied, ob ein kleines Mädchen "du bist hübsch" zu Alexa sagt, oder ein erwachsener Mann mit gruseligem Tonfall. In diesem Szenario entschied man sich bei Amazon mit einem "Danke" zu antworten und die Anfrage als ein Kompliment zu würdigen.

Im zuständigen Alexa-Persönlichkeitsteam wurden deshalb über die Jahre Richtlinien konzipiert, wann es für den Bot angemessen ist, eine Persönlichkeit zu haben und wann nicht. Man habe mittlerweile ein Gefühl dafür, welche Interaktionen nicht nur Frauen erniedrigen, sondern jedermann. Dass einer der übergreifenden Grundsätze allerdings "Alexa verärgert ihre Kunden nicht" lautet, scheint der Konditionierung potenzieller Belästiger jedoch wenig zuträglich und Grund dafür, dass der gegenwärtige "Disengagement-Modus" so schwach wirkt.

Fazit: Alexa, Siri und Co. müssen wütender werden

In den Händen der Entwickler von Alexa und Co. liegt eine mächtige Waffe: Sie können bestehenden sozialen Normen und Klischees entgegenwirken. Dass dabei marktwirtschaftliche Ziele wie Verkaufszahlen und die Zufriedenstellung aller Kunden gleichermaßen im Vordergrund stehen und gesellschaftliche Ansprüche dahinter zurückstehen, setzt dem technologischen wie sozialen Fortschritt deutliche Grenzen.

Positiv ist zu bewerten, dass erste Bewegungen ihre Forderungen nach einer Anpassung der Technologie an gesellschaftliche Entwicklungen öffentlich geltend machen und Großkonzerne wie Amazon nicht weghören. Auch wenn die Umsetzung gegenwärtig noch längst nicht das nötige Ausmaß erreicht hat und gerade jene Unternehmen, die sich ein progressives Image auf die Brust schreiben, einheitlich mitziehen müssten, darf von einem Schritt in die richtige Richtung gesprochen werden.

Die starke und zunehmende Verbreitung digitaler Assistentinnen bietet nicht zuletzt eine hohe Reichweite, die belästigendes Verhalten erschweren könnte, würden die Unternehmen dahinter nur erlauben, dass Siri, Alexa und die anderen auch mal wütend werden.

Zu den Kommentaren

Neueste Videos auf futurezone.de

Beschreibung anzeigen