Illustration Bauklötze

DATEV magazin: Sie haben einmal auf die Frage nach der Anpassung an das Tempo von technischem Fortschritt gesagt: ‚Wir brauchen mehr Zeit, um zu lernen und um die Kontrolle über die neuen Technologien zu behalten.‘ Was sagt das über unsere Gesellschaft aus, wenn wir in der öffentlichen Debatte nur auf Geschwindigkeit und Innovation setzen – und was geht verloren, wenn Folgenabschätzung und Aushandlung von Sinn und Ziel auf der Strecke bleiben?

Prof. Dr. Armin Grunwald: Technikfolgenabschätzung, Ethik und Beratung brauchen ihre Zeit. Man kann keine sorgfältige wissenschaftliche Analyse vornehmen und keine tiefgehenden ethischen Debatten führen, wenn man nicht ein wenig Zeit hat. Man kann auch nicht politisch regulieren, um zum Beispiel Menschenrechte durchzusetzen, wenn man nicht ein wenig Zeit hat. Und da ist die Innovationsgeschwindigkeit in der Tat zurzeit so, dass es knirscht.

Ein Beispiel: ChatGPT wurde im November 2022 auf den Markt gebracht, wir haben im April 2023 den ersten Bericht für den Deutschen Bundestag vorgelegt. Das ging nur mit einem Riesenkraftaufwand. Schneller können wir nicht mehr werden, sonst werden das Prozedere und die Analyse belanglos.

 

Aber ist es nicht immer das Problem, dass man in der Bewertung und in der Technikfolgenabschätzung hinterherhinkt und man schauen muss, dass man noch Schritt halten kann?

Das ist alles sehr unterschiedlich. In der Nanotechnologie beispielsweise waren wir so früh dran, dass mir ein Professor gesagt hat: ‚Sie lösen schon alle Probleme, bevor die Produkte überhaupt in der Entwicklung sind.‘ Da waren wir ganz früh dran. Und das ist mittlerweile bei vielen Entwicklungen so: Man hat zwar keine oder kaum Daten, aber man kann schon mit der Analyse beginnen und wird später nicht überrascht.

In der Materialforschung beispielsweise findet alles in der wirklichen Welt statt; da müssen Experimente gemacht werden, da müssen Kulturen gezüchtet werden. Das braucht alles Zeit – bis zu zehn Jahre, bis diese Entwicklungen in Produkten auf dem Markt erscheinen. Das sind Zeiträume, mit denen wir sehr gut umgehen können.

In der digitalen Welt ist das anders. ChatGPT hat uns auf kaltem Fuß erwischt. Natürlich kannten wir Large Language Models, aber dass da auf einmal so etwas herauskommt, was gleich von Hunderten Millionen Menschen adaptiert und heute vielfach genutzt wird, darauf waren wir nicht vorbereitet. Das ist disruptive Innovation. Da sehen wir ein bisschen alt aus; wir tun jetzt, was wir können, das ist im Einzelfall auch nicht das Problem. Nur: Wenn das immer so wäre, dann knirscht es so, dass die Gesellschaft immer nur noch hinterherlaufen könnte. Und dann kann man nichts mehr gestalten.

 

Wenn wir das Ganze jetzt umdrehen, also technische Veränderungen erkennen, aber zögern, sie umzusetzen: Was laden wir uns dann an gesellschaftlichen Problemen auf?

Das ist eine Gratwanderung. Man kann Dinge endlos zerreden und Bedenkenträger kommen von allen Seiten und dann geschieht nichts. Üblicherweise lautet das politische Argument dagegen – auch das wirtschaftliche Argument –, dann sind die anderen schneller und der Markt ist für uns verloren. Da ist etwas dran. Aber wenn man das überzieht, heißt das, wir sollten alles schnellstmöglich umsetzen.

Es geht darum, diese Gratwanderung zu schaffen, Potenziale schnell zu nutzen und dies mit Verantwortung und Überlegung zu tun. Und ich kann das nicht als verantwortlich erkennen, wenn man mit lautem Hurra-Gebrüll auf jede neue Technologie zuläuft und sofort alles installiert und implementiert, sein ganzes Leben darauf einstellt. Dann weiß man nicht, was im Nachhinein passiert.

 

Das kann auch Ängste auslösen – vor dem Verlust gemeinsamer Ordnung, dem Verlust von Autonomie, dem Verlust von Zugehörigkeit zu einer Rolle.

Diese Sorgen gibt es. Im Ethikrat habe ich an einer Stellungnahme zum Thema „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ (LINK https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf --> KONNTE ICH NICHT EINFÜGEN) mitgeschrieben. Dort haben wir uns unter anderem mit ethischen Fragen algorithmischer Automatisierung im Verwaltungshandeln befasst. Wenn im Sozialamt eine KI über die Anträge auf Bürgergeld befindet, dann wird der Mensch zum Objekt von Entscheidungen, die die KI trifft. Auch wenn sie das offiziell gar nicht darf und der Dienststellenleiter immer noch ein Häkchendran machen muss: De facto macht die KI das.

Die Aufgabe ist es, gute Kooperationsformen von KI-Anwendungen und Menschen zu finden. Wo über diese Subjekt-Objekt-Verhältnisse nachgedacht wird und wo klar wird, wann ein Mensch unter welchen Bedingungen zum Objekt von KI-Entscheidungen wird. Das ist prinzipiell nicht schlimm. Schon jetzt sind wir Menschen ab und zu Subjekte unseres Lebens und immer wieder auch Objekte – wenn ich einen Bescheid vom Finanzamt bekomme, dann bin ich auch nur Objekt. Und in eine ähnliche Richtung würde ich auch bei der KI denken. Ich glaube schon, dass wir Mechanismen haben, um zu einem guten Verhältnis zu kommen, dass wir die Stärken der KI nutzen können, wo es sie gibt und ansonsten uns Menschen weiterhin die Entscheidungen vorbehalten.

 

Zum einen muss ich mich ethisch mit dem Thema auseinandersetzen. Zum anderen müssen sich Gesellschaften darauf vorbereiten, wie sie mit dem Einsatz von KI umgehen und die Veränderungen antizipieren, die sich durch KI entwickeln. Wie können wir uns als Gesellschaft mit diesen tiefgreifenden Veränderungen auseinandersetzen?

Es gibt einige Schlüsselfragen, bei denen wir eine Linie finden müssen. Die erste ist die Individualität: Der Mensch ist mehr als die Summe seiner Daten. Das ist die Voraussetzung. Das wird vielleicht auch von manchen bezweifelt. Aber das ist ein Grundsatzthema. Das aufzugeben würde mir schwerfallen. Man muss sich aber darauf verständigen, wie weit man hier die Individualität aufgibt zugunsten einer datenbasierten Entscheidung, bei der der Mensch nur als statistisches Token gesehen wird. Man kann natürlich in solchen Fällen auch anders denken. Wir alle haben Bias, wir haben auch schlechte Tage,
Voreingenommenheiten. In solchen Fällen könnte man die KI nutzen und sie
beauftragen, auf Datenbasis Entscheidungen vorzuschlagen – und dann dies nicht einfach übernehmen, nach dem Motto, die KI hat immer recht, sondern nutzen, um den eigenen Bias zu hinterfragen. Da kann ich mir interessante Lernprozesse vorstellen. Freilich braucht das Zeit – und natürlich auch entsprechende Schulung.

Das zweite Thema ist das der Abhängigkeit. Die klassische Denkweise seit der europäischen Aufklärung ist, wir verschaffen uns neue Hilfsmittel, wir werden immer freier und autonomer. Emanzipation durch Technik. Es gibt beispielsweise Länder, wo man de facto mit Cash nicht mehr zahlen kann. Das ist alles sehr bequem und wunderbar, zack, zack digital. Und so gibt es keinen Schwarzmarkt mehr und man braucht kein Bargeld. Aber was machen solche Länder, wenn das System mal ausfällt? Stichwort Abhängigkeit von kritischen
Infrastrukturen.

 

Beim großen Stromausfall konnte man in Spanien auch nicht mehr bezahlen – auch nicht bar, weil die Kassen nicht funktionierten.

Alle nehmen immer an, das System funktioniert immer so weiter. Aber wir sehen schon jetzt wirtschaftliche Verwerfungen, Krieg, Verlust der öffentlichen Ordnung. Man sieht ja in manchen Ländern, dass Stabilität und Demokratie nicht auf Dauer garantiert sind. Daher sollte man vielleicht darüber nachdenken, ob man sich nicht einen Plan B offenhalten sollte.

 

Ist das vielleicht auch ein Grund, warum viele Menschen bei Digitalisierung und KI das Gegenteil erleben – nicht die Versprechen von Freiheit und Effizienz, sondern Druck, Kontrolle, Entfremdung und fehlende Einflussmöglichkeiten?

Ich schließe mal von mir auf andere: Ich unterliege nicht gern Zwängen, denen ich nicht zugestimmt habe. Und wenn ich gezwungen werde mit Karte zu bezahlen, finde ich das nicht gut. Ich zahle gerne mit Karte, das ist nicht das Thema, aber wenn ich keine andere Option habe, finde ich das nicht gut. Heute kann man ohne Smartphone de facto nicht mehr leben, zumindest nur so sein Dasein fristen und nicht mehr an der Gesellschaft in vollem Ausmaß teilnehmen. Selbst in der Tagesschau werden ständig Internetseiten eingeblendet, wo man Details nachlesen kann. Das wird wie selbstverständlich vorausgesetzt und das empfinden manche Menschen schon als Anpassungsdruck – unabhängig davon, dass das im Einzelfall eine gute Sache sein kann.

 

Inzwischen gibt es schon einen Gegentrend, wo alte Handymodelle als dumb phone revitalisiert werden – oder Offline-Cafés, wo man Eintritt zahlt, um sein Smartphone abzugeben und Zuflucht in der analogen Welt zu suchen. Wie verändern digitale Technologien unser Selbstverständnis, sowohl in die eine wie in die andere Richtung?

Da kann ich nur spekulieren. Das Digitale war jahrzehntelang schick und Avantgarde, und wer nicht digital war, der war von vorgestern. Wenn aber dieser Druck entsteht, den ich eben beschrieben habe, dann entstehen Gegenbewegungen, das kennen wir in der Menschheitsgeschichte. Das ist ein Mechanismus, der für mich tröstlich ist. Es geht eben nicht alles so weiter, wie manche denken, sondern es gibt wieder eine Gegenbewegung und dadurch ein neues Gleichgewicht. Diese Entwicklung sehe ich auch als Indiz, dass Menschen das Digitale nutzen, aber auch Zeiten suchen, wo sie sich selbst in einem anderen Sinne als Mensch empfinden wollen. Ich war vergangenes Jahr in den Bergen – ich bin Bergsteiger –, da war ich einige Tage in Südtirol komplett abgehängt: kein Mobiltelefon, kein Mobilempfang, die Hütten dort hatten kein WLAN. Das war schon eine interessante Erfahrung.

 

Haben Sie sich dadurch autonomer gefühlt?

Ich habe mich zuerst abgehängt gefühlt und dann verzweifelt einen Weg gefunden, um meiner Frau eine Nachricht zukommen zu lassen, dass ich noch lebe. Aber man erlebt sich als analogen Menschen. Und wir sind nun mal analoge Menschen, auch wenn wir uns über Digitaltechnologien freuen, freuen wir uns analog. Das sollte man sich gelegentlich ins Bewusstsein rufen. Das ist der Reiz an einem solchen digitalen Detox. Ich bin optimistisch, dass das zu einem neuen Gleichgewicht führen wird.

 

Es wäre ja auch erschreckend, wenn die ganze Gesellschaft sich in der digitalen Transformation von deren Sachlogik, Tools und Automatisierung abhängig macht. Überspitzt formuliert: Leute sitzen im Auto und wenn das Navigationssystem sagt ‚fahren Sie jetzt rechts‘, obwohl da ein Fluss ist, sie dennoch hineinfahren. Was passiert, wenn das eigene Denken aufhört?

Experten wie der Psychologe Gerd Gigerenzer sagen, das Geschäftsmodell der sozialen Medien verdumme uns. So weit würde ich nicht gehen, aber es besteht schon die Gefahr, dass es zu einem Deskilling kommt, dass wir Menschen also gewisse Fähigkeiten verlernen. Auch früher schon haben Menschen Fähigkeiten verlernt, aber mussten gleichzeitig auch neue erwerben.

Mit KI geht es nun um andere Arten von Fähigkeiten, beispielsweise, sich ein eigenständiges Urteil bilden zu können, sich in einer Vielzahl von gegensätzlichen Meinungen zurechtzufinden und den Überblick zu behalten. Das sind kognitive Fähigkeiten und wenn wir da immer nur ChatGPT fragen, was er oder sie dazu meint, dann würde Immanuel Kant von einer neuen „selbstverschuldeten Unmündigkeit“ sprechen. Wir sollten also nicht das selbst Denken verlernen, sondern klug selbst denken, damit wir die Potenziale der KI gut nutzen können.

 

Es gibt nicht nur die großen Umbrüche, sondern auch die kleinen leise verlaufenden Veränderungen. Wie sieht das Verhältnis aus, welche Bedeutung haben diese kleinen alltäglichen Anpassungen für das große Ganze?

Ich habe das mal als allmähliche Disruption bezeichnet. Mein Beispiel ist der Einsturz der Dresdner Brücke vor einigen Monaten. Die hat Jahrzehnte lang gehalten, da sind Autos und Straßenbahnen drübergefahren, dann wurde gesagt, die muss bald renoviert werden. Und dann ist die Brücke plötzlich eingestürzt.

So könnte es sein, dass durch solche langsamen, allmählichen, kaum bemerkbaren Prozesse gewisse Grundstrukturen unserer Gesellschaft erodieren. Das bemerken wir gar nicht, wollen es womöglich im digitalen Überschwang auch gar nicht bemerken. Eigentlich soll Technik die Autonomie des Menschen vermehren. Wir merken aber, wie wir auch in immer mehr Abhängigkeiten geraten – also das Gegenteil von Autonomie. Die Anzeichen gibt es ja, also dass Digitalisierung bzw. Digitalkommunikation nicht gut ist für Demokratie.

Das sind nicht die einzigen Ursachen der Krise der Demokratie, aber es amplifiziert die anderen Effekte. Es ist sehr schwierig, Daten über die allmähliche Disruption zu erhalten. Solange es nur Befürchtungen sind, sagen die einen ‚ihr aus der Technikfolgenabschätzung‘ und die anderen sagen, ‚ihr verharmlost, ihr wollt nur Geschäfte machen‘. Dann ist man wieder in einer fundamentalistischen Debatte, wenn man die entsprechende Datenbasis nicht hat. Das ist eine große Herausforderung, auch für die Technikfolgenabschätzung, solche Prozesse wirklich diskutierbar zu machen.

 

Digitalkommunikation kann aber auch Möglichkeiten für die Demokratie bieten, wenn man beispielsweise an Bürgerbegehren oder Petition denkt. Welche Argumente oder Szenarien wären denn hilfreich, um den digitalen Wandel und den Umgang mit KI nicht als Überforderung, sondern als gestaltbaren Prozess zu sehen?

In der Anfangszeit des Internets wurde die Utopie einerglobalen Demokratie verkündet. Es hieß, kein Diktator werde das Internet überleben können. Es ist  etwas anders gekommen. Ansonsten sind wir Menschen echt nicht doof. Also ich halte relativ viel von uns.

Wir können, wenn etwas nicht gut läuft, auch umsteuern. Das Beispiel mit den Gegenbewegungen finde ich ein gutes Zeichen. Die Digitalisierung ist eben auch nur Mittel zum Zweck, das wir gerne nutzen. Aber wir wollen auch andere Räume haben, wo wir unser Menschsein ausleben können.

 

Was braucht es denn Ihrer Ansicht nach, damit Gesellschaften auf diese Art von Veränderung nicht nur reagieren, sondern auch Verantwortung übernehmen?

Zentral ist Bewusstseinsbildung, ein gewisses Mindestverständnis, wie Technik funktioniert, dass KI nicht vom Himmel gefallen ist; dass sie auch anders hätte gemacht werden können. Man kann auch die Werte integrieren, die die Technik repräsentieren und die sie befördern soll. Darüber hinaus braucht es die Einsicht, dass Technikgläubigkeit keine gute Idee ist.

Technik sollte mit nüchternen Augen, als Mittel zum Zweck betrachtet werden:Wofür brauche ich sie, wofür kann ich sie einsetzen, was möchte ich vielleicht nicht? Ich möchte kaum etwas vom technischen Fortschritt missen, aber der Umgang damit ist verbesserungsfähig. Wir müssen aus dieser Apotheose der Technik heraus und auf den Boden der Tatsachen zurückkommen