Nachbericht zu:

Big Data vs. Humanity
Markenarena
Vom Infight zum Insight

Am 4gamechangers Festival 2018 präsentierte Strategie Austria ein aktuelles und besonders streitbares Thema: Big Data. Big Data und künstliche Intelligenz: Was macht das mit uns als Menschheit?

Die Puls 4 Info-Chefin Corinna Milborn (Journalistin & Chefredakteurin des Jahres 2018) moderierte eine spannende Runde von Daten-SammlerInnen und BeobachterInnen der Nutzung:

  • Ingrid Brodnig, Autorin
  • Niklas Wiesauer, Teamleitung Unit Invention, mindshare
  • Martina Mara, Medienpsychologin für Roboterpsychologie, Uni Linz
  • Henric Wietheger, Leiter Kommunikation und Marketing, GEA

Die intensive Diskussion orientierte sich an drei Fragen:

  1. Welche Daten geben wir her?
  2. Was machen Unternehmen damit? Und
  3. Was macht das mit uns?

„Wir wissen nicht mehr, was alles gesammelt wird“, startete Ingrid Brodnig ins Thema. „Selbst wer das Internet nicht nutzt, wird über unterschiedliche Systeme im Alltag zumindest miterfasst.“

Mindshare beispielsweise will ganz gezielt an Personen herankommen und hat darum bereits 2014 einen eigenen Big Data Room etabliert. Das Team sieht in Echtzeit zu, wer zB einen Namen googelt und zeigt dann individuell Werbung an. „Man sammelt sehr viele Daten und fast alles ist für irgendwen relevant. Unsere Mission ist, „user beneficial advertising“ zu machen statt Werbung, die nervt“, ließ Niklas Wiesauer einblicken, der gegen die Überregulierung des Internets argumentiert.

„Es gibt viel Unbehagliches. Z.B. wenn Zuckerberg sagt, Facebook würde nur Daten sammeln, die User selbst angegeben haben – in Wahrheit aber auch speichert, wer meine Handynummer hat“, kritisiert Ingrid Brodnig. „Das Unbehagliche im Staatsbereich wird zB in den USA deutlich, wo Algorithmen berechnen, ob ein Häftling auf Bewährung freikommen soll oder nicht, weil er wieder straftätig würde. Das Problem: Bei Afro-AmerikanerInnen entscheidet der Algorithmus öfter falsch.“

Martina Mara definiert die Macht der Algorithmen und die Artificial Intelligence dahinter: „AI, also künstliche Intelligenz, Machine Learning, wird öffentlich nicht erklärt. Es ist die statistische Auswertung großer Datenmengen, aus denen Maschinen Schlüsse ziehen. Auch Fehler werden daher von den Entscheidungssoftwares (für die Vergabe von Krediten bis hin zu Jobs) angewandt.“

Henric Wietheger bringt uns vom Silicon Valley ins Waldviertel: „Wir bei GEA bieten Produkte an, die nicht in diese Welt passen. Aber auch wir probieren uns jetzt aus, zB mit Facebook Werbung, um KonsumentInnen besser kennenzulernen. Mich hat geschmerzt, dass ich zuvor in meinen 6 Jahren in einer Werbeagentur einem großen Konzern, der viel Unheil anrichtet, Mc Donald’s, viel Geld verschafft habe. Bei GEA hingegen unterstützen wir eine der letzten Schuhfabriken, wo mit der Hand produziert wird.“

Was passiert, wenn die Kaffeemaschine, Siri, Alexa…. alles speichern? Was kommt da auf uns zu?

„Seit dem Smartphone sind wir immer im Internet. Und mit dem Internet of Things ist jetzt „alles“ im Internet: Intelligente Ampeln, die je nach Verkehrsaufkommen schalten um Staus zu vermeiden zum Beispiel“, holt Ingrid Brodnig aus. „Wir stehen gerade erst am Anfang, wir geben Daten für Bequemlichkeit immer öfter her. Gleichzeitig müssen wir daher die Rechte um unsere Daten stärken. Das Problem ist aber, dass ExpertInnen zur Analyse kein Zugang zur Benutzung unserer Daten gewährt wird.“

Henric Witheger von GEA argumentiert erfinderisch: „Ich seh` neben der Datenschutzverordnung noch eine Variante. Ich vermisse die Lust und Freude, dass man (zB in der Start up Szene) zusammenarbeitet: Wenn uns das alles so stört, lasst uns ein Gegenmodell entwickeln!“

Niklas Wiesauer ergänzt: „Wenn etwas für dich gratis ist, dann bist du das Produkt – das heißt, du bezahlst mit Daten. Es wäre daher für mich sinnvoll, eine Bezahlvariante anzubieten und auszubauen. Oder umgekehrt, dass man für Gesundheitsdaten Geld als User bekommt.“

Die Diskussion beleuchtete auch die Bezahlvariante von der negativen Seite der Medaille: Was bedeutet das für Entwicklungsländer? Können sich nur die Reichen Privatsphäre leisten, während andere ihre Daten verkaufen, entsteht ein Ungleichgewicht.

Wer die Daten besitzt, hat das Sagen

„Medien und Journalismus leben teilweise vom Verkauf, sehr stark aber auch von Werbung. Google und FB haben 99% aller Onlinezuwächse, weil sie die Daten haben. Dabei dachte man in Online liegt für alle Medienkonzerne die Zukunft.“, provozierte Corinna Milborn.

Niklas Wiesauer von Mindshare: „Die Monopolstellung von Facebook ist ein Problem. Eine Konkurrenzplattform zu haben würde sehr helfen, dass bei einem Datenskandal wie dem aktuellen von FB eine Abwanderung stattfinden kann.“ Doch bis jetzt waren kaum User bereit, Facebook nicht mehr zu nutzen. Es fehlt die Alternative. „Was muss passieren, dass die Leute FB verlassen?“, fragte Henric Wiethegger: „Es muss wirklich weh tun. Vielleicht dann, wenn Menschen wegen Informationen ausgegrenzt werden, tun wir uns wirklich zusammentun und um eine neue Plattformen zu entwickeln, auf denen es wieder Spaß macht.“ Corinna Milborn konterte: „Aber jene, die ausgegrenzt werden (weil sie im falschen Viertel wohnen und deshalb mehr für die Versicherung zahlen beispielsweise), ist die Ausgrenzung nicht bewusst, weil es einzeln passiert. Ingrid Brodnig dazu: „Ich glaube wir müssen auf europäischer Ebene die Frage aufwerfen, ob die Wettbewerbsbehörden einzuschalten sind. Der Marktführer Facebook durfte den Marktführer für Messenger, whatsapp, kaufen. Das sollte nicht erlaubt sein.“ Und: „Politische Werbung auf Facebook soll klar anzeigen, wer das geschalten hat. Aber Facebook tut das nicht.“

Martina Mara weiß als Psychologin: „Der Einzelne wird weiterhin mehr Wert auf Convenience legen, so ticken wir einfach.“ Was also, wenn IBM versucht, zB. den psychologischen Big Five Faktor „Offenheit für Neues“ über Social Media Daten personalisiert auszuwerten um Werbung zu schalten? Welche Daten zieht es dafür aus unseren Profilen? Martina Mara warnt: „Microtargeting auf Basis von physiognomischen Daten der Firma Faceaption, in denen aus Gesichtsformen auf Kriminalität oder besondere Intelligenz geschlossen wurde, erinnert an dunkle Zeiten.“ Ingrid Brodnig dazu: „Ein Algorithmus will anhand von Gesichtern Homosexualität erkennen. Das passiert aber nicht über Gesichtsformen sondern Muster kultureller Handhabungen wie Kleidung oder Fotostil.“ Niklas Wiesauer von Mindshare schloss die Diskussion kritisch ab: „Das Problem mit Algorithmen ist, dass sie zu 95% von weißen Männern aus den USA geschrieben werden.“

Wir danken für den intensiven Austausch, die konstruktive Gesprächsatmosphäre und die lehrreichen Einblicke in die Sammlung und Nutzung von Big Data.

Mehr Eindrücke von der Veranstaltungen finden Sie auf Facebook: Dazu einfach dem Link folgen.