3. Juni 2020

Werden Menschen ersetzbar?

Von nst5

Nach und nach findet digitale Technik Eingang in nahezu alle Lebensbereiche. Was verändert sich dadurch? Wie können wir uns auf den Wandel einstellen? Wird die künstliche Intelligenz (KI) uns Menschen überflüssig machen? Fragen an Katharina Zweig, Informatikprofessorin in Kaiserslautern.

Frau Zweig, wir stecken in einem rasanten Wandel. Was verändert sich mit der zunehmenden Digitalisierung? Was kommt noch auf uns zu?
Die Digitalisierung ermöglicht uns erstmal, mehr von der Welt zu verstehen. Denn durch die Digitalisierung werden Dinge messbar, analysierbar, durchsuchbar gemacht. Ich arbeite gerade an der Digitalisierung meiner Vorlesungen und kann dann beispielsweise digitale Notizen an meine Vorlesungsvideos hängen, genauso wie meine Studierenden das tun können, wenn sie die Videos sehen. Danach können sie dann später suchen, wenn sie für die Klausur lernen. Wenn Digitalisierung also gut gemacht ist, kann sie uns unterstützen.

Jetzt in der Coronavirus-Krise sind wir froh, digital miteinander kommunizieren zu können. Welche Folgen hat die Krise für die Digitalisierung?
Also, aus meinem Home Office heraus ist es momentan manchmal sehr frustrierend: Das Bild in der Videokonferenz ruckelt, ich muss mit der Technologie kämpfen, das zehnminütige Video braucht Stunden, um von der Software fertig bearbeitet zu werden. Sicherlich sollte Deutschland den Sommer nutzen, um die Internetkapazitäten weiter auszubauen. Ich hoffe also auf mehr Infrastruktur, die ja schon lange angemahnt wird.

Die Entwicklung der künstlichen Intelligenz lässt viele Menschen befürchten, dass Maschinen künftig den Menschen überlegen sein, sie gar beherrschen könnten. Ist die Angst berechtigt?
Wie immer bei neuer Technologie muss man vor allen Dingen vor schlecht gemachter Technologie Sorge haben. Die heute verfügbare sogenannte „künstliche Intelligenz“ ist gar nicht so intelligent, aber trotzdem ein mächtiges Werkzeug: Mit Verfahren des „maschinellen Lernens“ können die enormen Datenmengen nach auffälligen Mustern durchsucht werden. Aber dazu ist auch viel menschliche Intelligenz notwendig: Wir müssen dem Rechner die Daten dazu vorlegen, genau sagen, wonach und wie gesucht werden soll.

Haben Sie ein Beispiel dafür?
Wenn es genügend qualitativ hochwertige Daten über Patientinnen und Patienten gibt und wir wissen, ob die COVID-19-Infektion gut überstanden wurde, kann Software nach den Eigenschaften suchen, die sehr oft bei gesundeten Personen ohne schlimme Symptome zu finden sind, und solche, die eher bei Personen mit starken Symptomen zu finden sind. Die Vorbilder einer solchen Software liegen einerseits in der Statistik und andererseits darin, wie Kinder lernen. Man sieht zum Beispiel auch als Laie bei den heute verfügbaren Daten schnell, dass viel mehr Männer ernsthaft erkranken als Frauen. Die Verfahren des maschinellen Lernens haben gegenüber Menschen folgenden Vorteil: Sie können viel mehr Daten nach Mustern durchsuchen und auch noch relativ unauffällige oder komplizierte Muster entdecken. Vielleicht finden sie heraus, dass bestimmte Formen von genetischen Varianten in einer gewissen Kombination Menschen eher gegen den Virus resistent machen. Aber weder ist die „künstliche Intelligenz“ klug genug, sich solche Fragestellungen selbst auszudenken, noch ohne Anleitung nach solchen Mustern zu suchen. Es sind immer Menschen, die dafür die Daten bereitstellen und die Fragestellung definieren.

Das heißt, Menschen sind vorerst noch notwendig, damit Maschinen lernen können. Nun kann künstliche Intelligenz aber Muster in den Daten finden und die so gefundenen Regeln können dann automatisch umgesetzt werden. Damit kann sie ja auch lernen, wie ein bestimmter Produktionsschritt erfolgt, welche Diagnose von einem Arzt gestellt oder welche Antwort auf eine Anfrage gegeben werden soll. Werden wir so doch ersetzbar?
 Davon liest und hört man in den letzten Jahren tatsächlich viel. Ich bin vor Kurzem sogar gefragt worden, ob KI nicht Handlungsempfehlungen entwickeln könnte für die Corona-Krise und am besten noch vorhersagt, welche Auswirkungen diese dann haben könnten. Tatsächlich sind die Systeme, die wir im Moment sehen, noch deutlich moderater in ihren Leistungen.
KI steckt zum Beispiel in jedem System mit einer Sprachschnittstelle, wie Alexa oder Siri. Es ist für Computer nämlich eine sehr schwierige Aufgabe, gesprochene Information zu digitalisieren. Computer können auch Inhalte auf Bildern inzwischen sehr gut erkennen – ein wichtiger Zwischenschritt für autonome Systeme. Und auch das Erlernen von Handgriffen menschlicher Arbeiter oder Arbeiterinnen scheint mir große Fortschritte zu machen – in den Fertigungsbereichen wird es also zu Änderungen kommen.
Oftmals haben in der Vergangenheit technologische Fortschritte in der Produktion dazu geführt, dass bessere Produkte für eine größere Bevölkerungsgruppe bezahlbar wurden. Gleichzeitig wurden damit noch bessere, ausgefallenere, individuellere Produkte möglich – diese dann wieder zu einem höheren Preis. Ich erwarte hier also Änderungen in vielen Produktlinien, aber auch viele neue Möglichkeiten, interessantere Produkte erstmalig herzustellen.
In den anderen von Ihnen genannten Szenarien fehlt es dagegen zumeist an den für das Trainieren der Maschinen notwendigen Daten – so schnell werden wir diese Berufe also nicht ersetzen.

Wie ist es im Pflegebereich, wo schon Roboter erprobt werden? Skeptiker befürchten, dass damit die Pflege unpersönlich wird und die Menschlichkeit auf der Strecke bleibt. Aber muss das in diese Richtung gehen?
Es ist wichtig zu verstehen, dass alle Computersysteme von Menschen in Auftrag gegeben, von anderen Personen entwickelt und von wieder anderen dann eingesetzt werden. An jedem dieser Schritte können wir uns als Gesellschaft entscheiden, ob und wie wir das tun wollen.
Sicherlich freut sich jede Pflegekraft über körperliche Hilfe beim Umbetten. Wahrscheinlich wäre es auch sinnvoll, wenn Systeme die Patienten überwachen und melden können: „Die Patientin war heute Nacht oft wach. Sie könnte sich zudem an der Schulter wundgelegen haben.“ Was wir leider häufig sehen, ist, dass Technologie dann genutzt wird, um menschliche Zuwendung zu ersetzen – das ist aber kein Naturgesetz. Genauso gut können wir frei gewordene Ressourcen weiterhin bezahlen, um damit das zu fördern, was Maschinen nicht können: menschlichen Kontakt und Zuwendung. Das sehen wir ja auch jetzt in der Corona-Krise: Pflege braucht freie Kapazitäten, damit auf Notsituationen eingegangen werden kann, damit die Pflegekräfte gesund bleiben und Patientinnen und Patienten die optimale Unterstützung bekommen.

Wie können wir uns auf den Wandel einstellen? Welche Fähigkeiten brauchen wir in Zukunft – als Einzelne und als Gesellschaft?
Auch hier kann man viel aus der Corona-Krise lernen: Bürgerinnen und Bürger brauchen ein Grundverständnis für Zahlen und die daraus ableitbaren Informationen – da geht doch ganz schön viel durcheinander und die Dringlichkeit der Einhaltung von „Social Distancing“ ist nicht jedem verständlich. Da unsere Zukunft stärker von der Digitalisierung durchdrungen sein wird – und dies auch grundsätzlich zu begrüßen ist – ist es umso wichtiger, dass die Ergebnisse der Analysen auch für viele nachvollziehbar sind. Wir nennen diesen Aspekt „Data Literacy“ – die Fähigkeit, mit Daten so umzugehen, dass man ihre Bedeutung und die daraus ableitbaren Informationen einordnen kann. Diese Bildung müsste Kindern und Erwachsenen in allen Bildungsphasen ermöglicht werden, bis hinein in die Weiterbildung.

Was bräuchte es, damit die Entwicklung der Technologie dem Menschen dient und nicht umgekehrt? Und damit ethische Fragen ausreichend im Entwicklungsprozess berücksichtigt werden?
In meinem Buch 1 plädiere ich dafür, dass Menschen sich in ihrem Umfeld an den Diskussionen beteiligen, wenn KI eingesetzt werden soll: am Arbeitsplatz, in der Verwaltung, in den Schulen unserer Kinder. Digitale Technik soll das Leben verbessern helfen; nicht von jeder geht eine Schadensgefahr aus. Auf welcher Datengrundlage, mit welchen Vorannahmen und unter Verwendung welcher Regeln sie erstellt wurde, gilt es vor allem dann gründlich anzuschauen, wenn sie Entscheidungen fällen soll, die den Menschen oder die Gesellschaft betreffen. Beispielsweise, wenn sie die Rückfallwahrscheinlichkeit von Kriminellen beurteilen und Empfehlungen für die Länge ihrer Inhaftierung abgeben soll. Dann könnte sie bestimmte Personengruppen unfair behandeln – mit den entsprechenden Folgen. Die Gefahr von Fehlentscheidungen und das Schadenspotenzial können vernachlässigbar schwach, aber auch bedrohlich hoch sein. Ein Dilemma bei der Bewertung neuer Technologien liegt darin, dass sich Nebenwirkungen erst zeigen, wenn sie viele Anwender hat. Ist sie aber einmal verbreitet, ist sie oft nur noch schwer zu kontrollieren. Damit mehr Menschen bei diesen Fragen mitreden und -urteilen können, habe ich versucht, in meinem Buch die dafür notwendigen Grundlagen verständlich zu machen. Denn die Gestaltung unserer Zukunft kann nur gelingen, wenn sich viele in diesem Prozess engagieren und dabei ihre Wertvorstellungen mit einbringen.
Herzlichen Dank für das Gespräch!
Clemens Behr

Foto: (c) Thomas Koziel/TUK

Katharina Zweig,
geboren 1976 in Hamburg, hat in Tübingen Biochemie und Bioinformatik studiert und dort auch promoviert. Als Informatikprofessorin an der Technischen Universität Kaiserslautern rief sie 2012 den in Deutschland einzigen Studiengang Sozioinformatik ins Leben, der sich unter anderem mit den Wechselwirkungen zwischen Digitalisierung und Mensch, Organisation bzw. Gesellschaft beschäftigt. Katharina Zweig berät als Sachverständige in der Enquete-Kommission Künstliche Intelligenz den Deutschen Bundestag.

1 Heyne Verlag 2019: Katharina Zweig, Ein Algorithmus hat kein Taktgefühl

(Erschienen in der gedruckten Neuen Stadt, Mai/Juni 2020)
Ihre Meinung ist uns wichtig, schreiben Sie uns! Anschrift und E-Mail finden Sie unter Kontakt.
(c) Alle Rechte bei Verlag Neue Stadt, München