Facebooks Stimmungskiller

Es war ein einfaches Experiment, das Facebook in Zusammenarbeit mit Forschern verschiedener Universitäten durchgeführt hat: Sind Stimmungen ansteckend? Und doch hat das soziale Netzwerk seine Nutzerinnen und Nutzer entgegen aller ethischen Regeln behandelt.

Es war ein einfaches Experiment, das Facebook in Zusammenarbeit mit Forschern verschiedener Universitäten durchgeführt hat: Sind Stimmungen ansteckend? Und doch hat das soziale Netzwerk seine Nutzerinnen und Nutzer entgegen aller ethischen Regeln behandelt.

Facebook ist für Soziologen und Psychologen schon lange begehrt, da sich empirische Untersuchungen mit sehr großen Gruppen und vergleichsweise einfach durchführen lassen. Das jetzt kritisierte Experiment wurde Anfang 2012 über eine Woche mit gut 690.000 Menschen durchgeführt. Einem Teil dieser Menschen wurde der Newsfeed derart manipuliert, dass sie häufiger negative, traurig gestimmte Mitteilungen ihrer Freunde lasen, einem anderen Teil wurden häufiger positive, fröhliche Mitteilungen angezeigt.
Heraus kam: Stimmungen sind ansteckend. Diejenigen, die fröhliche Nachrichten zu Gesicht bekamen, posteten auch selbst eher positiv gestimmte Mitteilungen. Wenngleich die Zahlen nicht exorbitante Stimmungsansteckungen nahe legen, wie die Forscher selbst zugeben.

Ethische Grenzen

Die Aufregung, die sich jetzt überall breit macht, ist sicherlich berechtigt: Facebook hat hier ethische und moralische Grenzen überschritten und Menschen, die nichts davon wussten, zu Versuchstieren degradiert. Es hat im wahrsten Sinne des Wortes Stimmungsmache betrieben und Menschen bewusst beeinflusst. Zwar setzen andere Experimente – besonders in der Psychologie – ebenfalls die Manipulation der Teilnehmenden als Mittel ein. Aber diese stimmen im Vorfeld zu, Teil eines Versuchs zu sein und werden hinterher ausführlich aufgeklärt. Dafür gibt es klare Richtlinien, die Facebook wohl nicht eingehalten hat, wie Spiegel Online berichtet. Die Forscher sehen das in ihrem Artikel sehr viel gelassener:

…it was consistent with Facebook’s Data Use Policy, to which all users agree prior to creating an account on Facebook, constituting informed consent for this research.

Wer also auf Facebook ist, gibt seine informierte Zustimmung zur Forschung. Ganz abgesehen davon, dass solch eine generelle Klausel kaum gerichtlichen Bestand haben dürfte und ethisch mehr als fragwürdig ist – die Datennutzung für Forschungszwecke in den Nutzungsbedingungen dürfte erst nachträglich hinzugefügt worden sein, wie Spiegel Online berichtet.

Unwissen über Facebooks Macht

Die Aufregung zeigt aber auch: Viele Menschen wissen nicht, wie Facebook funktioniert. Denn der Newsfeed, den jeder und jede beim Einloggen zu Gesicht bekommt, ist ohnehin manipuliert und ausgewählt durch Facebooks Algorithmen, ähnlich wie auch die Google-Suchergebnisse individualisiert sind. Die eine, echte Facebook- oder Google-Erfahrung gibt es schlichtweg nicht. Und statt den Nutzerinnen und Nutzern selbst die Möglichkeit zu geben, auszuwählen, was für sie interessant sein könnte, wird der Algorithmus vorgeschoben.

Von guter Laune zur Revolution

Für Facebook ist das Experiment vor allem interessant, weil es wissen will, wie die Nutzer untereinander interagieren – und in diesem Umfeld Werbung noch besser vermarkten will. Das wäre zwar in Deutschland nicht zulässig, wie dieser Blogpost analysiert, aber deutsche Gesetze haben Facebook schon häufiger nicht gestört.
Die Untersuchungen sind aber noch in anderer Hinsicht interessant: Computerlinguistisch ist es ein leichtes, die Analysepaare „gute Laune / schlechte Laune“ durch „revolutionär / regierungstreu“ oder ähnliche, weitaus politischere Begriffspaare auszutauschen. Und somit Stimmungen gezielt in einem ganzen Land zu beeinflussen. Entwicklungen wie im Arabischen Frühling, die manchmal auch als Facebookrevolution bezeichnet werden, könnten dann vielleicht noch schneller und stärker angeheizt werden. Dass Facebook auch Wahlergebnisse beeinflussen kann, ist spätestens seit den Wahlkämpfen Barack Obamas kein Geheimnis mehr. Kurz gesagt: Wer sieht, dass Freunde wählen gegangen sind, geht mit größerer Wahrscheinlichkeit selbst wählen. Was aber, wenn nur Menschen einer bestimmten politischen Richtung solche Hinweise bekommen?

Facebook als Datenlabor

Facebooks Untersuchungen sind aber noch viel umfangreicher, auch das wissen die Wenigsten. Facebook unterhält einen sogenannten Happiness-Index, mit dem es Stimmungen eines einzelnen Landes messen kann.
Und es hat – natürlich strengstens anonymisiert – Daten über Liebesbeziehungen ausgewertet und kann recht präzise am Verhalten zweier Menschen ablesen, wie hoch die Wahrscheinlichkeit ist, dass diese zwei Menschen eine Beziehung eingehen.