Die Künstliche Intelligenz (KI) und ihre - positiven und negativen - Auswirkungen werden heute breit diskutiert. Aber was versteht man unter KI? Interessant ist eine Definition, die sich auf der Website des Europäischen Parlaments befindet. Dort ist zu lesen: „Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren“. Aber dann heißt es weiter: „KI-Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten.“ Damit geht aber die KI übers Imitieren hinaus in Richtung autonomes Handeln. Und manche erwarten in wenigen Jahren schon weitgehende autonome Aktivitäten der KI, die dann oft schwer zu kontrollieren und steuern sein werden. Damit kann aber die KI für den Menschen selbst und das menschliche Zusammenleben eine Bedrohung darstellen.
Wenn von negativen Konsequenzen der KI die Rede ist, dann geht es meistens um die Gefahr der Vernichtung von Arbeitsplätzen. KI als eine fortgeschrittene Form der Automatisierung wird als Bedrohung für die Arbeitskräfte gesehen, wobei aber verschiedene Studien und Prognosen zu unterschiedlichen Aussagen darüber kommen, welche und wieviel Arbeitsplätze durch den Einsatz von KI gefährdet sind.
Einfluss auf Kinder und Jugendliche
Weniger allerdings wird die KI als Gefahr für die Demokratie gesehen. Wir sollten aber die grundsätzlichen Konsequenzen der KI für das menschlichen Zusammenleben genau beobachten. Diesbezüglich gibt es inzwischen auch Analysen, die sich vor allem mit den Auswirkungen auf die Kinder und Jugendlichen beschäftigen. Jüngst erschien eine Ausgabe des weltweit bekannten Magazins „The Economist“ (6. - 12.12.2025) mit der Titelgeschichte „How AI is rewiring childhood“ wörtlich übersetzt: „Wie verkabelt KI die Kindheit neu“. Dabei besteht die Angst, dass durch den Einsatz von KI, nicht zuletzt in Spielen und Spielzeug, „Erwachsene herangezogen werden, die untauglich fürs reale Leben werden.“
So meint ein Drittel der befragten US-Teenager, dass es genauso befriedigend ist mit einem KI-Kameraden zu reden wie mit einem Freund und sogar leichter als Diskussionen mit den Eltern.
Anderseits aber kann KI helfen, auf individuelle Lernschwierigkeiten auch individuell zugeschnittene Hilfen zu geben. Vernünftig angewandt kann KI sozial oder psychisch bedingte Benachteiligungen ausgleichen. Grundsätzlich kann KI, da sie auch individuelle Antworten geben und individuelle Lösungen anbieten kann, durchaus für mehr Gerechtigkeit und Gleichheit sorgen - wenn man das will und bereit ist zu organisieren.
Zivilsatorische Technologie
Top-ExpertInnen, wie zum Beispiel Dr. Fei-Fei-Li, eine chinesische Migrantin in den USA, gehen dabei davon aus, dass es sich bei der KI um eine „zivilisatorische Technologie“ handelt, das heißt um eine Technologie, die die Zivilisation ändert. Extrem gesagt, kommt zum Menschen noch eine neue Kreatur - im wahrsten Sinn des Wortes - dazu. Interessant wird zu beobachten sein, welches Verhältnis die beiden miteinander eingehen werden. Es bleibt jedenfalls der Menschheit nichts anderes übrig, als sich zu arrangieren.
Der Philosoph Christian Uhle meint dazu: “Es ist nicht mehr etwas, das lediglich zwischen Menschen passiert und an dem Menschen teilhaben. Diskurse, Gesellschaft, Wissensproduktion, Meinungsbildung - auf all diesen Feldern agieren nicht mehr nur Menschen. Es verändert sich nicht nur die Form menschlichen Zusammenlebens, sondern das Zusammenleben an sich ist kein rein menschliches mehr.“ (Künstliche Intelligenz und Echtes Leben, S. Fischer 2024, S176)
Herausforderungen für die Demokratie
Was bedeutet das aber für die Demokratie? Damit beschäftigt sich Mark Coeckelbergh, Professor für Philosophie der Medien und der Technologie an der Universität Wien. In seinem jüngsten Buch „Why AI undermines Democracy And What To Do About It“ stellt er den gefährlichen Einflüssen einerseits, Möglichkeiten einer Ertüchtigung der Demokratie durch KI anderseits gegenüber. Auf der einen Seite besteht die Gefahr, dass durch KI massenweise Fake News verbreitet werden und es so zur Machtkonzentration in den Händen derjenigen führt, die über diese KI-Systeme verfügen. Überdies kann eine unkontrollierte und übermäßige Nutzung von KI, die ohnedies latent vorhandene Isolation und Abkapselung - vor allem der Jugendlichen - vom gesellschaftlichen Leben noch verstärken.
Anderseits kann KI helfen neue Modelle der Meinungsfindung zu erforschen und zu erproben. So meint Mark Coeckelbergh: „KI müsste eine „Kommunikations-Technologie“ sein, und zwar nicht nur in dem Sinn, dass sie mit Daten handelt und uns über die Muster dieser informiert, sondern dass sie auf die Förderung des Gemeinwohls aus ist und uns hilft eine Gemeinschaft als Bestandteil der Demokratie zu bilden.“ (S 114). Für Coeckelbergh sind Gemeinschaften in denen Menschen sich austauschen und über unterschiedlichen Anliegen und mit unterschiedlichen Ansichten diskutieren essentiell für eine lebendige Demokratie. In den Social Media jedoch verschwinden vielfach solche Räume bzw. werden sie durch „Echokammern“ ersetzt, in denen nur Gleichgesinnte ihre Meinung kundtun.
In diesem Zusammenhang unterstreicht Yuval Noah Harari, ein israelischer Historiker, der sich intensiv mit der KI beschäftigt, dass wir derzeit die Kontrolle über die Kommunikation weitgehend an Algorithmen abgegeben haben. Sie bestimmen die Fragen, über die in den sozialen Medien gesprochen werden und welche Meinungen dazu vorherrschen. Sie arbeiten nach dem Prinzip der maximalen Aufmerksamkeit und die ist dann gegeben, wenn Angst, Ärger und Hass angesprochen werden. (Siehe dazu einer der letzten Interviews auf YouTube: „Make Sense of a World in Crisis“)
Neue Regeln für neue Technologie
Dem müsste dann KI als eine Form der Intelligenz bewusst entgegenwirken, um zu mehr Vielfalt und Austausch von Meinungen zu führen. Allerdings ist das nur dann möglich, wenn die KI so gestaltet ist bzw. die Algorithmen so konfiguriert sind, dass nicht primär die simpelsten Gefühle angesprochen werden. Und da braucht es Regeln die einen Missbrauch von KI zur Unterdrückung der Meinungsfreiheit bzw. zur Verbreitung von undemokratischen und menschenverachtenden Slogans verhindern.
In diesem Zusammenhang fordert Christian Uhle, dass die KI so gestaltet sein müsste, dass sie „zwei entscheidende Fähigkeitsbündel für ein gutes Leben: Sozialkompetenz und Selbstbestimmung“ fördert. „Wir müssen in der Lage sein, konstruktiv in Bindung zu gehen und Mitmenschen zu vertrauen, gleichzeitig aber auch auf eigenen Beinen zu stehen, Selbstwirksamkeit zu erfahren, eigene Entscheidungen zu fällen und nicht ganz abhängig zu sein von Meinungen anderer.“ (S182)
Eine solche Fähigkeit zu entwickeln und zu fördern ist ja generell die Aufgabe demokratischer Systeme. Aber leider sehen wir gerade in Zeiten großer Unsicherheiten und wirtschaftlicher Krisen, dass die Politik oft nicht das Versprochene liefert - und vielleicht gar nicht liefern kann. Dann suchen aber viele Menschen Zuflucht bei einfachen „Lösungen“. Eric Schmidt, der frühere CEO von Google und Andrew Sorota meinten dazu in einem Beitrag in der New York Times - International Edition (12.11.2025): „Wenn die Demokratie versagt zu liefern, dann wenden sich die Menschen den starken Männern, den Autoritären und jetzt auch den Algorithmen zu, in der Hoffnung auf Kompetenz statt Chaos.“ Aber für die beiden Autoren ist klar: Künstliche Intelligenz darf Demokratie nicht ersetzen, sondern muss sie stärken. KI kann aufgrund des gesammelten Wissens der Politik helfen, schnell und aufgrund nachvollziehbarer Argumente zu reagieren und damit Vertrauen schaffen.
Die EU hat versucht durch entsprechende Regeln der KI einige diesbezügliche Vorgaben zu machen. Dabei stellt sich immer wieder die Frage, inwieweit solche Regeln zu eng und zu bürokratisch verfasst sind. Darüber hinaus hat Europa das Problem, dass es ein demokratisches Bewusstsein und eine diesbezügliche Haltung einzubringen versucht, aber mit der technologischen Entwicklung der KI nicht an vorderster Front mitspielt. Und das vermindert die Wirkungskraft und den Einfluss des demokratiepolitischen Ansatzes.
Globale Verantwortung
Aber natürlich bräuchte es einer umfassenden globalen Regelung wie es Henry Kissinger, Craig Mundie und Eric Schmidt in ihrem Buch „Genesis“ (John Muttay 2025) fordern. „Staaten und internationale Organisationen…müssen neue politische Strukturen für die Überwachung, Durchsetzung und Krisenbewältigung schaffen. Dazu müssen zwei „Verknüpfungsprobleme“ („alignment problems“) gelöst werden, einerseits die technische Verknüpfung der menschlichen Werte und Intentionen mit den Handlungen der KI und dann die diplomatische Verknüpfung des Menschen mit seinen Mitmenschen.“
Dabei fordern die Autoren, dass “unerwünschtes Verhalten eines KI-Systems, ob es auf Grund eines zufälligen Fehlverhaltens passiert, oder durch unerwartete Interaktionen zwischen Systemen oder aufgrund absichtlichen Missbrauchs, nicht nur verboten, sondern vollständig verhindert wird. Jede Strafe danach kommt zu spät“ (S 199) Wichtig ist der durch entsprechende Regelungen vorgeschriebene Einbau von Filtern (die auch nicht umgangen werden können) um gefährliche Unglücke aber auch ein Abgleiten in Diktaturen zu verhindern. Ob das allerdings auf allgemeine Zustimmung stößt, muss man bezweifeln. Aber es lohnt sich dafür zu kämpfen.
Dr. Hannes Swoboda, President of the International Institute for Peace (IP), started his career in urban politics in Vienna and was elected member of the European Parliament in 1996. He was Vice President of the Social Democrat Group until 2012 und then President until 2014. He was particularly engaged in foreign, enlargement, and neighborhood policies. Swoboda is also President of the Vienna Institute for International Economics, the Centre of Architecture, the University for Applied Science - Campus Vienna, and the Sir Peter Ustinov Institute.

