Das Blackbox-Problem

Eine Bioethikerin und ein Neuroinformatiker sprechen über die zunehmende Intelligenz von Maschinen und darüber, warum dies zu neuen ethischen Herausforderungen führt.
(Illustration: Ray Oranges)

Herr Grewe, was haben Sie aus Ihrer Zivildienstzeit mitgenommen, in der Sie mit kognitiv beeinträchtigten Kindern gearbeitet haben?

Benjamin Grewe: Ich habe bemerkt, dass etwa Motivation oder Humor oft vollständig unbeeinträchtigt sind – selbst wenn übergeordnete Funktionen wie die Erfassung abstrakter Konzepte oft nicht richtig zu funktionieren scheinen. Das menschliche Gehirn ist wirklich komplex.

Kann künstliche mit menschlicher Intelligenz mithalten?

Grewe: Bei meinem Einstieg ins maschinelle Lernen programmierte ich zunächst ein künstliches neuronales Netzwerk, um zu analysieren, wie der Mensch lernt, unter anderem Ängste. Allerdings funktionierte es nicht wie beabsichtigt: Was man ihm auch zeigte, das Netzwerk reagierte immer ängstlich. Künstliche Intelligenz (KI) soll einige Aspekte der menschlichen Intelligenz nachahmen, aber eben nicht alle. Was würde ein intelligentes Auto bringen, das einem den Dienst verweigert, weil es gerade zu viel Angst vor dem Fahren hat?

Agata Ferretti: Moderne KI ist aufgabenorientiert. Die Gefühlsebene ist dagegen nicht ansatzweise so weit ausgebildet. Menschliche Intelligenz hingegen lässt sich nicht darauf reduzieren, eine bestimmte Aufgabe herausragend zu meistern. So gesehen könnte man KI sogar als «dumm» bezeichnen, denn sie eignet sich nur für eng eingegrenzte Einsatzbereiche.

Grewe: Es wird jedoch zunehmend darauf fokussiert, KI künftig für mehr als nur einen speziellen Aufgabenbereich zu trainieren. So versucht man beispielsweise KI-Sprachsysteme mittels riesiger Internet-Textdatenbanken intelligenter zu machen. Die dabei entwickelten Algorithmen können zwar grammatikalisch korrekte Texte erstellen, ihren Inhalt verstehen sie jedoch nur ansatzweise. Sie verwenden etwa das Wort «Hund», ohne je einen gesehen oder berührt zu haben, geschweige denn von einem gebissen worden zu sein.

Ferretti: Ähnliche Beispiele gibt es auch in der Medizin, wo KI zur bildgestützten Krebsdiagnose verwendet wird. Ein Arzt greift bei seiner Einschätzung auf medizinisches Wissen und Erfahrung zurück. Die KI hingegen stützt sich unter anderem auf Lichtverhältnisse oder Ränder im Bild. Diese Aspekte sind wichtig dafür, Muster zu erkennen, haben für den Arzt jedoch nicht immer eine klinische Bedeutung. Mensch und Maschine bewerten die Aussagekraft dieser Korrelation also unterschiedlich.

Grewe: Das ist ein wichtiger Aspekt. Bei feindseligen Angriffen zum Beispiel, sogenannten Adversarial Attacks, versuchen Forschende, künstliche neuronale Netze zu überlisten. So zeigen sie etwa das Bild eines Hundes, ändern dann drei bestimmte Pixel und das Netzwerk erkennt anschliessend eine Katze. Darauf würde ein Mensch nie hereinfallen.

Einen Hund mit einer Katze zu verwechseln, klingt zwar lustig, aber bei Krebsdiagnosen steht ja einiges auf dem Spiel…

Ferretti: Das stimmt, und dabei gibt es selbst dann ein Problem, wenn die Systeme korrekt arbeiten. Patienten misstrauen den Ergebnissen unter Umständen, wenn sie die Hintergründe nicht verstehen. Ärzte und Patienten bauen Vertrauen in ein System auf, wenn es sich als verlässlich erwiesen hat, und sie merken, dass mögliche Implikationen transparent kommuniziert werden. Sich für das Recht der Benutzer auf entsprechende Erklärungen und ein bestimmtes Mass an Transparenz einzusetzen, würde das Vertrauen in diese Systeme stärken.

«Das grösste Problem ist, dass diese Algorithmen manchmal komplett versagen und wir die Gründe dafür nicht kennen.»      Benjamin Grewe

Allerdings räumen selbst Wissenschaftler ein, bei manchen Systemen gar nicht zu wissen, was und wie sie lernen…

Grewe: Das ist ein grösseres, generelles Problem des maschinellen Lernens. Bis vor Kurzem programmierten Forschende Roboter mittels direkter Befehlscodes: «Um diesen Becher zu greifen, bewege deine Hand nach rechts und schliesse sie bei Position XY.» Sie wussten also genau, was der Roboter macht. Jetzt speisen sie ihm jedoch umfangreiche Bilddaten ein, er versucht auf gut Glück verschiedene Bewegungen und wenn er den Becher erwischt, sagen sie ihm: «Das war gut, jetzt lernen und bitte wiederholen.» Forschende programmieren und kennen damit also nicht mehr jeden einzelnen Prozessschritt, sondern bringen stattdessen Algorithmen das gewünschte Verhalten mittels extensiven Lernens bei. Dabei hat man es aber mit einer echten Blackbox zu tun. Niemand weiss genau, wie diese Algorithmen funktionieren. Das grösste Problem dabei ist, dass sie manchmal komplett versagen und wir die Gründe dafür nicht kennen.

Wir brauchen also interpretierbares maschinelles Lernen, dessen Modell von Beginn an auf Transparenz ausgelegt ist?

Ferretti: Ein bestimmtes Mass an Erklärbarkeit wäre nützlich. Das kann auch dazu beitragen, die Haftungsfrage zu klären, falls etwas schiefgeht. Setzt man die Technologie etwa im Gesundheitswesen ein, muss nachvollziehbar sein, wer für eine Fehldiagnose verantwortlich ist – ein Arzt, der sich irrte, oder ein Fehler im KI-System.

Grewe: Es muss klar sein, wann und warum KI-Systeme Fehler machen. Trifft ein Mensch eine Entscheidung, können wir ihn nach den Gründen dafür fragen. Bei künstlichen neuronalen Netzwerkalgorithmen ist das noch nicht möglich.

Ferretti: Ausserdem müssen wir darüber sprechen, welche Daten wir in diese Maschinen einspeisen. Wenn man davon ausgeht, dass unsere Welt auch von Vorurteilen und Ungerechtigkeit geprägt ist, laufen wir Gefahr, dass Maschinen diese Probleme reproduzieren, sofern man nichts dagegen tut. Zudem könnten Stichprobenverzerrungen in den Daten zu Diskriminierung führen. Gibt man der Maschine etwa hauptsächlich Datensätze, die Tumore auf heller Haut zeigen, erkennt sie wahrscheinlich keine Wucherungen auf dunkler Haut. Diese Systeme müssen genauestens getestet werden, damit für die nötige Neutralität der Daten gesorgt ist und Diskriminierung verhindert werden kann.

Wie lassen sich diese ethischen Anforderungen erfüllen?

Ferretti: Das ist schwierig. In unserem Labor arbeiten wir daran, Qualitätssicherungssysteme und Rahmenbedingungen zu entwickeln, die zur Prüfung solcher Technologien erforderlich sein sollten. Die bisherigen Ethik- und Rechtsinstrumente aus der medizinischen Forschung müssen an die neuen Probleme von KI-Algorithmen angepasst werden. Die Herausforderung besteht darin, ein System zu entwickeln, das mit dieser rasant fortschreitenden Technologie Schritt halten und diese adäquat evaluieren und überwachen kann.

«Stichprobenverzerrungen in den Daten könnten zu Diskriminierung führen.»      Agata Ferretti

Brauchen wir neue Vorgaben?

Ferretti – Wir müssen klarstellen, wie die ethischen Prinzipien für die KI-Entwicklung praktisch zu interpretieren und umzusetzen sind. Mittlerweile gibt es viele verschiedene KI-Ethikrichtlinien, aber es besteht Unsicherheit darüber, wie diese genau umzusetzen sind, da die Auffassungen der jeweiligen Stakeholder unterschiedlich sind. Gleichzeitig gelten strenge Vorgaben für die Verwendung sensibler – beispielsweise medizinischer – Daten, die in Spitälern erfasst werden. Ganz anders sieht es bei Daten aus sozialen Medien oder Fitness-Apps aus, auch wenn sie teils zu ähnlichen Zwecken genutzt werden. Wie soll man diese Daten aus verschiedenen Quellen verwalten? Wir brauchen einen umfassenderen Governance-Rahmen, der Datenschutz, Gerechtigkeit sowie mehr Transparenz gewährleistet und die technologische Entwicklung überwacht.

Technologieunternehmen verfügen meist über deutlich mehr Rechenleistung als Hochschulen. Schränkt Sie das als Forscher ein?

Grewe – In manchen Bereichen wie der Sprachmodellierung ist das bereits problematisch, da Hochschulen dort nicht wettbewerbsfähig sind. Diese Hochleistungs-KI-Modelle werden mit Texten aus dem gesamten Internet trainiert. Das erfordert Rechenressourcen, die Millionen von Dollar kosten. Andererseits: Ich habe zwar nicht das gesamte Internet gelesen, denke aber, dass ich trotzdem intelligenter bin als alle aktuellen KI-Sprachmodelle. Ich glaube, dass wir ein ganz anderes Lernkonzept brauchen, damit KI-Algorithmen Probleme besser verstehen und universeller lösen.

Inwiefern anders?

Grewe – Vielleicht ist es an der Zeit, sich von statistischem Lernen und Big Data zu verabschieden und sich daran zu orientieren, wie Kinder lernen. Dabei denke ich an verkörperte Systeme, die zunächst Grundlagen lernen, um ganz einfache abstrakte Konzepte zu entwickeln. Anschliessend können sie darauf aufbauend immer komplexere Interaktionen und Schemata erlernen. Zusätzlich sollten wir fachübergreifender an die Algorithmenforschung herangehen, indem wir beispielsweise Informatik und maschinelles Lernen mit Robotik, Neurowissenschaften und Psychologie kombinieren.

Frau Ferretti, würde dieser Ansatz zu weniger oder mehr ethischen Problemen führen?

Ferretti – Daraus würden sich letztlich mehr Probleme ergeben – die Frage ist, von welchem Zeitrahmen wir hier sprechen. Zunächst müssen wir uns mit aufgabenorientierten Tools befassen, die das Leben leichter machen und verbessern könnten. Diese bringen bereits überaus herausfordernde ethische Probleme mit sich. Die Zukunft wird spannend!

Dieser Text ist in der aktuellen Ausgabe des ETH-Magazins Globe erschienen.