An der TU Kaiserslautern wird das Thema Künstliche Intelligenz (KI) groß geschrieben. In einem im Herbst 2019 erschienenen Buch „Ein Algorithmus hat kein Taktgefühl“ gibt Prof. Katharina Zweig insbesondere für Nicht-Informatiker einen verständlichen sowie praxisnahen Einblick, was sich hinter „der KI“ versteckt.
Prof. Zweig, Sie sprechen in Ihrem Buch „Ein Algorithmus hat kein Taktgefühl“ hauptsächlich von KI, die Entscheidungen ÜBER und nicht für oder gar mit Menschen trifft. Warum?
In den letzten Jahren gab es viel Angst und Sorge um die sogenannte „Künstliche Intelligenz“. In meinem Buch versuche ich erst einmal zu erklären, was überhaupt mit diesem Begriff gemeint ist – meistens Software, die aus Daten gelernt hat, Entscheidungen zu treffen. Das kann das Industriesystem sein, das eine defekte Schraube vom Band pustet, aber eben auch die in den USA genutzten Systeme, die vor Gericht bewerten, ob eine Person mutmaßlich rückfällig werden wird. Das letztere berührt die Menschen natürlich – wer will an einer so wichtigen Stelle schon von einer Maschine bewertet werden?
Die KI-Systeme, die über Dinge entscheiden, gibt es auch, sie rufen aber weniger Widerstand hervor. Warum das so ist, habe ich auch in meinem Buch erklärt: Weil wir bei Entscheidungen über Menschen viel mehr beachten müssen, zum Beispiel die Vollständigkeit und Korrektheit der zugrunde liegenden Daten, Qualitätsansprüche und Gerechtigkeitsfragen und vieles mehr. Weil es diese beiden Spielarten der KI gibt – eine, die über Dinge entscheidet und eine, die über Menschen entscheidet – setze ich mich auch dafür ein, dass hier differenziert kontrolliert werden sollte. Aus dieser Sicht müssen vor allen Dingen solche Systeme technisch überwacht werden, die über Menschen entscheiden, während es bei anderen Systemen wichtiger ist, dass hier wenig reguliert wird, um Innovationen nicht zu bremsen.
Die Basis der KI ist emotionsbefreite Statistik. Aber Menschen sind keine emotionsbefreiten Wesen. Welchen Sinn hat es, ein rein statistikbasiertes System für unsere Entscheidungen heranzunehmen?
Die Hoffnung für den Einsatz von Systemen, die über Menschen entscheiden und die Regeln dafür aus Daten lernen, ist, dass über die Statistik solche Entscheidungsregeln gefunden werden, die eben nicht vom einzelnen Richter abhängen, sondern vom Kollektiv. Auch darin können natürlich Vorurteile stecken – dann hängt es davon ab, wie die Gesellschaft das Entscheidungssystem nutzt. In Österreich gibt es ein System, das Arbeitslose in drei Klassen einteilt und Frauen, Personen über 50 und Pflegenden wird dabei ein höheres Risiko zugewiesen, nicht wieder in den Arbeitsmarkt zu finden. Diese sollen dann aber besonders unterstützt werden. Also ja: In den Daten finden sich Spuren von Emotionen, die zu einer Entscheidung geführt haben. Was wir mit den gefundenen Mustern dann tun, ist aber eine gesellschaftliche Entscheidung.
Ein Faktor, der eine Entscheidung zu einer hohen Qualität verhilft, ist Ihrer Meinung nach, was die Gesellschaft für eine gute Entscheidung hält. Manchmal sprechen sich aber Menschenmassen in schwierigen Zeiten auch für Lösungen aus, die eine Demokratie nicht will, etwa die Todesstrafe für einen Kindsmörder. Sollte man dann wirklich diese Meinung zur Grundlage für die Entscheidungen von KI machen?
Wenn ich sage, dass „die Gesellschaft“ entscheiden muss, was sie für eine gute Entscheidung hält, dann heißt das nicht unbedingt, dass für alles eine Wahl abgehalten werden muss. Da wären wir alle auch ziemlich beschäftigt, wenn wir das in Gänze für jedes zu bauende KI-System tun sollten. Es kann heißen, dass zum Beispiel Betriebsräte in Entscheidungen zu KI-Systemen mit einbezogen werden sollten, die über Einstellungen mitentscheiden. Oder dass sich der Verbraucherschutz und andere Organisationen von Betroffenen einmischen. Das kann auch heißen, dass eine Expertenmeinung eingeholt werden sollte.
Lässt sich datenbasiert denn eines Tages wirklich „die perfekte Entscheidung“ treffen?
Wenn die folgenden Bedingungen erfüllt sind, ist das wenigstens möglich: Erstens müssen wir uns einig sein, wie eine perfekte Entscheidung aussieht. Zweitens muss es überhaupt Entscheidungsregeln geben, die 100 Prozent perfekte Entscheidungen zulassen. Das ist noch relativ einfach für verbogene Schrauben, aber weniger einfach für den „perfekten Mieter“ (oder Vermieter) oder den perfekten Lebenspartner. Drittens muss es genügend qualitativ hochwertige Daten geben, um dieses Muster dann auch identifizieren zu können, denn die Algorithmen des maschinellen Lernens beruhen auf Statistik. Da braucht es viele Daten, um Aussagen machen zu können. Und viertens darf sich während der Sammlung der Daten nicht allzu viel ändern, die Muster müssen also erhalten bleiben.
Ab welchem Zeitpunkt sind „historische“ Datensammlungen ungeeignet für „Vorhersagen“? Die Gesellschaft durchläuft ja permanent einen Wandel.
Genau dann, wenn sich Muster zu sehr ändern. Wenn es etwa Konjunkturwellen gibt oder wenn sich die Art des Arbeitens von einer individuellen zu einer teamorientierten Struktur verändert, kann man Daten des Arbeitsmarktes nicht einfach beliebig lange sammeln. Im Beispiel aus Österreich werden daher zum Beispiel nur die Daten der jeweils vier zurückliegenden Jahre genutzt.
Systeme, die mit maschinellem Lernen Entscheidungsregeln identifizieren, werden von „Data Scientists“ erstellt. Dabei sind Fehlentscheidungen dieser Systeme unterschiedlich schlimm: Wenn das falsche Produkt angeboten wird, wird es nicht gekauft. Wenn ein unschuldiger Mensch als Terrorist kategorisiert wird, ruiniert man im schlimmsten Fall ein ganzes Leben. Wie sollten Data Scientists mit einer solchen Verantwortung umgehen?
Ich glaube, dass die Ausbildung das momentan zu wenig reflektiert. Im Moment gibt es nur sehr wenige Ausbildungen zum Data Scientist – die meisten Personen in diesem Feld sind Naturwissenschaftler:innen, die sich selbständig die Methoden angeeignet haben, oder Informatiker:innen, die sich Spezialwissen über die zu analysierenden Daten angelesen haben. Das ist nicht ganz ideal – ich denke, dass wir hier mehr Studiengänge wie die Sozioinformatik brauchen, die wir an der TU Kaiserslautern entwickelt haben. Der Studiengang lehrt, wie Individuum, Organisation und Gesellschaft als Ganzes mit Software interagieren – damit die Studierenden dann bessere Systeme bauen können. Statt sozialen Medien, die möglichst viel von unserer Aufmerksamkeit wollen, können unsere Studierenden unter anderem neue Geschäftsmodelle entwickeln, mit denen wir weniger Zeit auf Plattformen verbringen, die wenig nutzenbringend ist. Wir brauchen auch deswegen mehr Studiengänge in den Grenzbereichen, weil wir mehr Personen ansprechen müssen, unsere Gesellschaft mit Hilfe von Software zu bereichern.
Ein Artikel in der FAZ hat im April berichtet, dass wir in Deutschland und Europa in der KI sowieso schon abgehängt sind – wie beurteilen Sie das?
Wir brauchen auf jeden Fall mehr kluge Köpfe im Bereich KI, die am besten auch noch Gründerpotenzial mitbringen. Also mutige junge Menschen, die mit Hilfe von KI die Gesellschaft gestalten wollen. Auf der anderen Seite brauchen wir in Deutschland und Europa auch mehr Zugang zu Daten – denn ohne Daten kann maschinelles Lernen keine Muster entdecken. Dies sollte aber in einer Art und Weise geschehen, die unsere kulturellen Präferenzen berücksichtigt, also Privatsphäre und Datenschutz. Das ist nicht unvereinbar, bedarf aber mehr Forschung und Entwicklung. Ich denke, dass solche Produkte, die das annähernd gleiche Ergebnis bringend, während sie den Datenschutz einhalten, auch wieder einen Markt hätten. Ich bin also verhalten optimistisch, dass wir den Anschluss finden, wenn jetzt die Weichen richtig gestellt werden.
Weitere Informationen zu Prof. Zweig und ihrer Lehre gibt es hier. An der TU Kaiserslautern leitet sie das Algorithm Accountability Lab und sorgte unter anderem dafür, dass mit „Sozioinformatik“ ein Studiengang ins Leben gerufen wurde, der die beiden Bereiche Informatik und Gesellschaft miteinander vereint.
Mehr Beiträge zum Thema „Künstliche Intelligenz“ findest du auf dieser Übersichtsseite!