Anzeige
Anzeige
Frieden dank KI?

KI in der Konfliktprävention: Hoffnungen und Bedenken

Nachdenklich schauender Soldat mit Tablet in der Hand.
Gettyimages/.shock
Künstliche Intelligenz soll vor drohenden Kriegsausbrüchen warnen.

Kann Künstliche Intelligenz als Frühwarnsystem in Konfliktregionen für Frieden sorgen, wenn die Gefahr einer Eskalation früh genug erkannt wird?

Auch in Kriegen wird Künstliche Intelligenz immer wichtiger. Zum Beispiel im Ukraine Krieg. Sie wird etwa eingesetzt, um Russlands Vorgehen auf dem Schlachtfeld besser zu überwachen. Es gibt zum Beispiel die KI-Software „Primer”, mit der unverschlüsselte Telefonate von russischen Soldaten abgehört und analysiert werden können. Dazu kommen autonome Waffensysteme, wie Drohnen.

In der modernen Kriegsführung kommt also neueste Technologie zum Einsatz. KI wird genutzt. Nicht nur in der Ukraine.

Mann mit langen, zusammengebundenen Haaren blickt in Kamera. Er trägt ein Hemd und darüber ein Sakko.
privat
Thomas Reinhold

Wissenschaftler:innen der Eidgenösische Technische Hochschule Zürich (ETH Zürich) forschen dazu aktuell im Auftrag der Vereinten Nationen (UN). Wenn ein Kriegsausbruch droht, solle die KI künftig davor warnen. So sollen Blauhelm-Friedensmissionen künftig unterstützt werden. Und so könne vielleicht auch Frieden erreicht werden.

Die Idee einer Frühwarnung ist nicht neu, sagt der Friedens- und Konfliktforscher Thomas Reinhold vom Peace Research Leibnitz-Institut Frankfurt (PRIF).

Idee der Frühwarnung im Konfliktfall 

Was sind die UN-Blauhelme?

Soldat:innen aus verschiedenen Ländern werden von der UN entsandt, um Frieden und Sicherheit in Konfliktregionen auf der ganzen Welt zu fördern. Das heißt, sie überwachen Waffenstillstände, unterstützen humanitäre Maßnahmen und schützen die zivile Bevölkerung in Krisengebieten.

Bei der Kriegs-Früherkennung spielt Social Media eine wichtige Rolle, erklärt Thomas Reinhold. Denn häufig kursieren erste Bilder und Videos von Konflikten in den sozialen Netzwerken. Etwa, wenn große Jeeps mit aufmontierten Maschinengewähren in Bürgerkriegsgebieten auffahren. Schlaue Algorithmen können darauf trainiert werden, diese Informationen schneller zu finden, zu analysieren und einzuordnen.

Und das funktioniert so: Die Künstliche Intelligenz wird mit Daten von früheren Konflikten und Eskalationen gefüttert und dadurch trainiert. So soll sie lernen, eine Einschätzung zu treffen. Zum Beispiel: Plötzlich fahren 20 Panzer auf und blockieren große Straßen. Nun soll das erlernte Muster greifen. Die Idee: Im Idealfall kann KI die Verantwortlichen schnell warnen, sagt Thomas Reinhold.

Das sei aber vor allem in Konfliktregionen, wie in Afrika, gar nicht so einfach. Er erklärt folgende Probleme im Krisenfall:

  • Bei Bürgerkriegen fehlt meist die Kriegserklärung.
  • Unklare Machtverhältnisse (etwa durch Privatarmeen und mehrere Parteien)
  • Geheime Taten aufdecken

Mit Social Media und KI sollen Entwicklungen zumindest schneller wahrgenommen werden – das ist wichtig für die Missionen der Blauhelme.

KI kann ein wichtiger Baustein sein, um bessere Informationen zu erhalten.

Thomas Reinhold

Denn häufig würden gerade die Blauhelme der UN in einem Zwiespalt stehen. Sie begeben sich in eine Krisensituation hinein, sollen deeskalierend wirken und dürfen aber unter Umständen nicht eingreifen.  

Das Bias-Problem

KI-Systeme werden mit Daten trainiert, die Informationen über bisherige menschliche Verhaltensweisen und Entscheidungen widerspiegeln. Manche davon sind verzerrt. So kann KI beispielsweise Vorurteile gegenüber bestimmten Menschengruppen reproduzieren. Das kann dazu führen, dass Gruppen oder Individuen diskriminiert und benachteiligt werden. Dieses Risiko nennt sich KI-Bias.

Viele Bedenken gegenüber KI

Wie wird sichergestellt, dass KI richtig trainiert wird?Das beschäftigt auch Thomas Reinhold. Denn die Menschen, die die Daten eingeben, haben ein bestimmtes Wunsch-Verhalten im Kopf. Das habe mit der kulturellen Voreingenommenheit zu tun. Und nach diesem Wunsch-Verhalten werden auch die KI-Trainingsdaten ausgewählt.

Deswegen fordert Thomas Reinhold eine ausgeprägte Sensibilität bei der Auswahl von Trainingsdaten in der Krisenprävention. Die Verantwortlichen müssten ihre eigene Einstellung laufend hinterfragen.

KI sei ohnehin nur ein weiteres Hilfsmittel für die Blauhelme, um zusätzliche Informationen zu erhalten. Die vielen Datenquellen, die aufpoppen, soll die KI möglichst schnell analysieren. Die UN nutzt weiterhin die Analysen von Nachrichtendiensten.

Begriff „Frieden” in der Ev. Friedensethik

In der Evangelischen Friedensethik umfasst der Begriff ‚Friede‘ mehr als nur die bloße Abwesenheit von Krieg. Vielmehr geht es um ein Leben in Gerechtigkeit, um ein friedliches Miteinander, um eine Gesellschaft, in der sich Menschen frei entfalten können – ohne Angst. 

Auch Daniel Untch vom Zentrum Oekumene der EKHN und EKKW sieht in der Frühwarnung durch KI gewisse Chancen. Es sei gut, präventiv zu handeln. Aber es bliebe nur bei einer Bekämpfung der Symptome. Um einen „wahren Frieden“ zu verwirklichen, brauche es mehr als nur die Künstliche Intelligenz: „Wir als Menschen müssen zueinanderkommen, miteinander zusammenarbeiten, um einen Schritt in Richtung gerechten Frieden zu machen.“

KI als Mit-Spielerin in Kriegen 

Sowohl Thomas Reinhold vom PRIF, als auch Daniel Untch vom Zentrum Oekumene glauben, dass KI nicht zur Entscheiderin in Kriegen werden sollte.  

Mit Blick auf militärische Konflikte, sehe ich in der KI eine riesige Gefahr.

Daniel Untch 

Daniel Untch ist sich sicher: „Wir sind verantwortlich für die Welt.“ Deswegen sollte auch der Mensch entscheiden. Erst recht auf dem Schlachtfeld. Dort, wo sorgsam entschieden werden muss. Dafür bedürfe es uns Menschen und nicht die KI. Und davon könne sich unsere Gesellschaft auch nicht freimachen, fordert Daniel Untch. Entscheidungen müssten ethisch fundiert und zum Wohle der Menschen getroffen werden.

Neutral lachender Mann mit Glatze blickt in die Kamera. Er trägt ein hellblaues Shirt.
privat
Daniel Untch

Wenn ein Mensch auf dem Schlachtfeld eine falsche Entscheidung trifft, dann ist das gravierend: es gibt Verletzte oder Tote. Dann können verschiedene Sanktionen folgen, wie etwa Disziplinarmaßnahmen, Gerichtsverfahren oder weitere personelle Konsequenzen. Beim Einsatz von KI könne aber keine Person mehr haftbar gemacht werden. Eines der großen Probleme sei die fehlende Transparenz, wie genau Künstliche Intelligenz Einschätzungen treffe und reagiere. In Zukunft könnte es noch schwerer werden zu unterscheiden, wer die Entscheidung getroffen habe: Mensch oder Maschine, erklärt Thomas Reinhold.

Verantwortung muss beim Menschen bleiben 

Autonome Waffensysteme sollten vor einigen Jahren geächtet bzw. eingedämmt werden. Heute sind Drohnen gang und gäbe in Kriegen. Auch mit KI könne das so laufen, schätzt Daniel Untch. Deswegen müsse der Einsatz von KI international und völkerrechtlich geregelt werden .

Die Kirche kann eine Stimme sein, die auf diese ethischen Fragen hinweist.

Daniel Untch

Daniel Untch betont, Kirche solle das Gespräch mit der Gesellschaft und mit der Politik suchen und darauf drängen, Regelungen zu treffen.  

KI könnte künftig ein wichtiges Hilfsmittel sein, um Eskalationen frühzeitig zu monitoren und vielleicht sogar zu verhindern. Nur Entscheidungen dürfen der KI nicht überlassen werden – erst recht nicht im Krieg. Wie denkst du darüber? Schreib uns auf Social Media

Instagram

Facebook