Collage: Freiheitsstatue mit Computer statt Kopf

Was machst du da mit meinen Daten?

27. Januar 2021

Sabrina Burtscher ist Informatikerin und setzt sich im Rahmen ihrer Arbeit auch kritisch mit Algorithmen und Künstlicher Intelligenz auseinander. Im Gespräch mit andererseits erklärt sie, was Algorithmen eigentlich sind und wie sie unser Leben beeinflussen.

Sabrina Burtscher ist Informatikerin und setzt sich im Rahmen ihrer Arbeit auch kritisch mit Algorithmen und Künstlicher Intelligenz auseinander. Im Gespräch mit andererseits erklärt sie, was Algorithmen eigentlich sind und wie sie unser Leben beeinflussen.

 

andererseits: Ich möchte mit Dir darüber sprechen, über welche technischen Aspekte man nachdenken muss, wenn man über Abhängigkeit von Handys und Social Media spricht. Wichtig sind da Algorithmen. Fast jeder hat dieses Wort schon einmal gehört, aber was ist eigentlich ein Algorithmus? 

Burtscher: Ein Algorithmus ist eine Handlungsvorschrift. Das ist eine Anleitung, wie du von einem vorhandenen Zustand in einen Zielzustand kommst. Jede klassische Plus- und Minusrechnung ist eigentlich ein Algorithmus. Zum Beispiel wenn du auf eine Shampoo Flasche schaust, steht da: „In die nassen Haare einmassieren, ausspülen, wiederholen.“ Das ist auch ein Algorithmus. 

In der Informatik geht es dabei um Daten. Es gibt eine Input- Datenmenge, die dem Algorhitmus gegeben wird und dann einen Output, also das, was am Ende entsteht. 

Social Media Plattformen verwenden Algorithmen, um mit meinem Verhalten auf diesen Plattformen Geld zu verdienen. Was bedeutet das für meine Erfahrung? Wie beeinflusst mein Verhalten, was ich sehe? 

Ich habe keinen Einblick in die Daten, die Facebook verwendet. Aber man kann sagen: Facebook beobachtet, was du machst, was du geliked hast, was du für Interessen angibst, wie alt du bist. Facebook hat also freiwillig eingegebene Daten, daraus lassen sich statistisch andere Daten ableiten: Mit einer gewissen Wahrscheinlichkeit interessierst du dich dann für X. Diese Kombination aus Daten und Statistik beeinflusst, was du zu sehen bekommst.

Verkauft werden nicht unbedingt deine Daten, sondern der Werbeplatz in deiner Timeline, auf deinem Newsfeed. Das bedeutet, dass extrem zugeschnitten entschieden wird, was du für eine Werbung zu sehen bekommst. Das ist aus der Marketingperspektive extrem wertvoll, weil man seine Zielgruppe viel genauer erreichen kann. 

Inwiefern macht einen das abhängig?  

Die Werbung ist eben nur ein Teil des Geschäftsmodells. Es geht auch darum, die Verweildauer zu erhöhen, also die Wahrscheinlichkeit, dass du auf der Plattform bleibst. Da geht es um einen Mix aus Werbung und user-generated Inhalten, also von Nutzer*innen erstellte Inhalte. Bei zu viel Werbung steigen die Leute aus. Dazu kommt noch wie der „user-generated“- Inhalt sortiert wird: Was wird oft angezeigt, von wem ist das und sind das neuere oder ältere Sachen? Das ist der „Sortier-Algorithmus“. Auch der hat erstmal viel Gegenwehr erzeugt. Da geht es viel um Interaktionen. Facebook möchte – böse gesagt – provozieren, damit du immer wieder drauf schaust, damit du interagierst und die Werbungen siehst, die eingeblendet werden. 

Vor allem Kontroverses wird deshalb hoch gereiht. Sachen, die viele Kommentare bekommen, Sachen, die viel Interaktion erzeugen.

Das macht nicht nur Facebook, sondern zum Beispiel auch YouTube. Da wird das ganz besonders interessant, weil du Vorschläge von „dazupassenden“ Videos bekommst, die deine Aufmerksamkeit fesseln. Aber es gibt auch Beschreibungen von einem Radikalisierungseffekt: Du fängst mit einem normalen Video zu einem normalem Thema an und gerätst dann immer tiefer in ein gewisses Eck rein. Es tauchen Verschwörungsmythen hin zu rechtsextremem Gedankengut auf, weil die Plattform genau dafür optimiert ist.

Facebook möchte – böse gesagt – provozieren, damit du immer wieder drauf schaust, damit du interagierst und die Werbungen siehst, die eingeblendet werden. 

Es geht also um Polarisierung und darum, dass man möglichst lange auf der Plattform bleibt.  Reicht es damit individuell umzugehen oder ist diese Polarisierung ein gesellschaftliches Problem? 

Ich merke das bei mir selber manchmal auch, dass ich in dieses endlose Scrollen komme und mich frage:  Von wem retweete ich etwas und warum? 

Es ist fast schon automatisiert. Ich frage mich nicht mehr wirklich, warum ich das mache, was die Quelle ist. 

Es ist nicht leicht abzuwägen, welcher Quelle man vertrauen kann, weil das nichts Statisches ist. Hervorragende Zeitungen sitzen auch mal etwas Falschem auf. Sehr gute Journalisten sitzen auch mal Falschmeldungen auf – siehe ein Redakteur einer gewissen Wochenzeitung in der Nacht des Terroranschlags in Wien. Dann gibt es aber kleine Initiativen, die sehr guten Journalismus machen und es ist schwierig, diese zeitintensive Abwägung zu machen. 

Das sehen wir in der Coronakrise besonders. Oft fehlen die Informationen, damit man überhaupt beurteilen kann, ob etwas stimmt oder nicht. Medienkompetenz ist schwierig, weil sie auch davon abhängt, welche Informationen man bekommt und man außerdem viel Zeit braucht, sie zu prüfen. 

Der Algorithmus wird immer besser darin, uns zu manipulieren – das hört sich sehr dystopisch an, so als würden wir in ein paar Jahren alle nur dasitzen und aufs Handy sehen. Ist das in irgendeiner Form ein realistisches Szenario? 

Dass wir nur noch am Handy sitzen ist schon deshalb unwahrscheinlich, weil sich Technologie ständig weiterentwickelt. Ich glaube auch nicht, dass es den einen Algorithmus geben kann. Es wird viel über generalisierbare künstliche Intelligenz diskutiert. Aber künstliche Intelligenz ist nichts anderes als Statistik. Das sieht man beispielsweise am AMS-Algorithmus gut. Dieser basiert auf den bisherigen Menschen, die beim AMS waren und wird damit trainiert. Trainieren heißt in dem Fall Muster zu erkennen: Wie korrelieren die demographischen Daten einer Person damit, wie schnell sie einen Job gefunden hat? Ganz wichtig ist dabei: Korrelation ist nicht Kausalität. Nur weil etwas gemeinsam auftritt, heißt das nicht, dass das eine durch das andere ausgelöst wird. 

Statistik ist nicht objektiv. Ein Algorithmus ist immer etwas, das ein Mensch erschaffen hat.

Künstliche Intelligenz ist also nur so gut wie Statistik und damit begrenzt? 

Ganz genau. Und zwar immer begrenzt auf die Frage, welche Daten ein Algorithmus gefüttert bekommt. Aus den Daten des AMS-Algorithmus kannst du nur vorhersagen, mit was für einer Wahrscheinlichkeit es wie lange dauert, dass eine Person, die zum AMS kommt, einen Job finden wird. Da gibt es viele Einschränkungen: Es geht nur um Menschen, die zum AMS kommen. Der Rest vom Arbeitsmarkt ist nicht abgebildet. Jemand wie ich wäre dort gar nicht abgebildet. Dabei sagen meine demographischen Daten voraus, dass ich lange brauche, einen Job zu finden: Ich bin Mitte 30, habe eine löchrige Vita, ich wohne im zehnten Bezirk und das Wichtigste: Ich bin eine Frau. Das einzig positive wäre, dass ich eine Österreicherin bin. Ich werde aber nie zum AMS müssen, um einen Job zu finden. Für mich würde der Algorithmus also einen Blödsinn vorhersagen. Statistik ist nicht objektiv. 

Ein Algorithmus ist immer etwas, das ein Mensch erschaffen hat. Da kommt an vielen verschieden Stellen ein sogenannter Bias rein: Was will man mit dem Algorithmus machen? Was für Daten hat man und wie verarbeitet man sie? Was wird als wichtig, was als richtig gesehen? Was ist positiv belegt, was negativ? Wie schaut das Ergebnis aus, wie wird es dargestellt? Interagieren Menschen damit? Technischen Dingen wird gerne zugeschrieben, dass sie neutral oder objektiv sind. Aber weil man an allen Ecken und Enden Einflüsse aus dem Kontext hat, kann das nicht neutral sein. Deshalb haben Algorithmen Auswirkungen, die so oft nicht beabsichtigt waren. 

Algorithmen und KI werden nicht mehr weggehen. Was wäre deine Utopie und wie setzen wir sie um? 

Dass man die Daten nicht verwendet, um einzelne Personen wo hinein zu drängen oder ihnen etwas wegzunehmen, sondern um systematische Veränderungen herbeizuführen. Der AMS-Algorithmus bildet zum Beispiel sehr gut ab, wie rassistisch und sexistisch unsere Gesellschaft ist. Er zeigt beispielsweise, dass der größte Faktor, der bei einer Frau die Karriere verhindert, Kinderbetreuung ist. Das sieht man während der Coronakrise besonders.  Das Problem ist, dass Algorithmen im Moment vor allem für kapitalistische Interessen angewendet werden. Um Geld zu machen, um Unternehmen oder dem AMS Geld zu sparen. Aber sie werden nicht verwendet, um Menschen tatsächlich zu unterstützen. Und genau da müsste man ansetzen.

Gespräch: Clara Porak 

Grafik: Moritz Wildberger

Redaktionelle Bearbeitung: Kathi Kropshofer, Kathi Brunner, Clara Porak