Beim Surfen im Netz hinterlassen wir Datenspuren. Onlinehändler nutzen diese etwa, um uns persönliche Kaufempfehlungen zu geben. Beispiele wie dieses gibt es viele. Algorithmen treffen Vorhersagen und berechnen menschliches Verhalten. Dabei ist oft unklar, welche Daten solchen Rechnungen zugrunde liegen. „Immer mehr Entscheidungen werden heute von solchen Rechenverfahren getroffen. In manchen Fällen kann das sinnvoll sein, da sie zum Beispiel diskriminierungsfrei entscheiden“, sagt Professorin Katharina Anna Zweig von der TU Kaiserslautern, die den Lehrstuhl für Graphentheorie und Analyse komplexer Netzwerke innehat und schon lange zu Algorithmen forscht. „Es kann aber auch zu Fehlentscheidungen kommen, zum Beispiel bei einem Algorithmus, der vorhersagt, ob eine Person einen Kredit zurückzahlen wird oder nicht. Wäre es in einem solchen Szenario besser, möglichst wenig Kredite zu vergeben, die fast nie platzen, oder lieber mehr, um mehr Personen die damit verbundenen Chancen zu gewähren?“
Was ist gar, wenn Rechenverfahren die Rückfälligkeitswahrscheinlichkeit von jugendlichen Kriminellen vorhersagen? Ist die Wahrscheinlichkeit hoch, dass der Jugendliche wieder rückfällig wird, verhängt der Richter vielleicht eine Gefängnis- anstelle einer Bewährungsstrafe. Sollten hier möglichst wenige fälschlicherweise ins Gefängnis oder lieber möglichst wenige fälschlicherweise auf Bewährung freigelassen werden? Mit solchen Fragestellungen beschäftigt sich die Kaiserslauterer Informatikerin und untersucht dafür Algorithmen, die über wichtige Lebenssituationen von Menschen entscheiden. „Algorithmische Entscheidungen brauchen Kontrolle“, so die Professorin weiter. „Wir benötigen daher ein System, das sie demokratisch legitimiert überprüft.“
Auf der Cebit informieren Zweig und ihr Team, welche Chancen und Risiken die Rechenverfahren bergen und auch wie sie mittels der verwendeten Daten dazu lernen können. Dabei zeigen sie mit Hilfe eines Ausstellungsstücks auf, wie Algorithmen durch sogenannte „Entscheidungsbäume“ berechnet werden. „Das Prinzip ähnelt einer Murmelbahn, auf der Kugeln entlang rollen, bis sie zu einer Weiche kommen, die ihnen die weitere Richtung vorgibt“, sagt Zweig. Das Modell wird auch im September im Museum Pfalzgalerie Kaiserslautern unter Leitung der Kuratorin Dr. Svenja Kriebel in der Ausstellung „(Ohne) Schlüssel und Schloss – Chancen und Risiken von Big Data“ zu sehen sein.
Zweig hat im vergangenen Jahr gemeinsam mit der Philosophin Lorena Jaume-Palasí sowie den Journalisten Lorenz Matzat und Matthias Spielkamp die Plattform „AlgorithmWatch“ gegründet, um die Öffentlichkeit besser über die Macht der Algorithmen aufzuklären. Ihr schwebt eine Art Algorithmen-TÜV vor, wie er vom österreichischen Rechtswissenschaftler Viktor Mayer-Schönberger vorgeschlagen wurde. „Ein Team von Experten, ähnlich wie Wirtschaftsprüfer, könnte die Codes prüfen und für gut oder aber schlecht befinden“, sagt die Informatikerin. Vertrauenswürdige Rechenverfahren erhielten schließlich ein Siegel und der Kunde würde sehen, dass er nichts zu befürchten habe.