Kommunikation im Wandel – warum an KI-Richtlinien kein Weg vorbeiführt

Neue Tools, regelmäßige Updates – aktuell entfaltet die KI eine außerordentliche Dynamik. Für die Öffentlichkeitsarbeit bringen diese Entwicklungen einerseits einen nicht zu leugnenden Zugewinn an Effizienz, auf der anderen Seite stellen sich wichtige ethische Fragen, um KI-Tools verantwortungsvoll einzusetzen.

Transparenz als Wert versus Eigenlogik der KI

Als gesellschaftlicher Akteur zeichnet sich das Rollenbild der PR durch Integrität, Loyalität, Fairness und Professionalität aus. Schon der Grundaufbau der meisten KI-Tools widerspricht den Werten der Öffentlichkeitsarbeit. Die Grundregel, den Absender bzw. Urheber einer Botschaft klar ersichtlich zu machen, hat in der Logik von KI-Anwendungen keinen Platz. KI-Systeme funktionieren als „Black Boxes“; die Entscheidungsprozesse der Tools sind dem Benutzer nicht ersichtlich.

Der Urheberrechtsschutz ist gewiss nicht nur hier, aber eben besonders auch für die PR ein sehr hohes Gut. Wer beispielsweise ChatGPT einsetzt, ist nicht davor gefeit, sich einer möglichen Urheberrechtsverletzung schuldig zu machen. Die Blackbox-Logik macht eine seriöse Überprüfung der Urheber und Quellen nahezu unmöglich. So ist es nicht selten die Aufgabe von Gerichten, über mögliche Urheberrechtsverletzungen zu entscheiden. Aktuell steht zum Beispiel die Plattform perplexity.ai unter Verdacht, zahlungspflichtige Inhalte für das Training der eigenen Plattform genutzt zu haben – ohne Gegenleistung (Perplexity AI wird von großen US-Verlagen verklagt | Computerwoche).

Das geschlossene System aktueller KI-Tools spiegelt sich darüber hinaus auch in einer möglichen Verzerrung von Trainingsdaten. Mit welchen Daten wurde die KI gefüttert? Kommt es zu einer Förderung von Stereotypen, zu einer Marginalisierung von Minderheiten? Maschinelles Lernen, die Grundlage von KI-Systemen, kann historisch gewachsene Vorurteile nicht nur unhinterfragt übernehmen, sondern in vielfacher Zahl reproduzieren. Nicht zu vergessen: Auch Falschmeldungen und Unwahrheiten können Teil maschineller Trainingsdaten werden und so die Qualität der Ergebnisse massiv beeinflussen.

Verantwortung übernehmen – Richtlinien formulieren

Die beiden Beispiele zeigen: Wir als Kommunikatoren sind gefordert, die juristische Perspektive um Standards zu ergänzen, die ethische Werte berücksichtigen. Eine wichtige Voraussetzung dafür, den verantwortungsvollen Einsatz zu ermöglichen und ohne „Verletzungsgefahr“ an den Möglichkeiten der KI zu partizipieren.

Eine erste Antwort auf die Frage nach der einwandfreien Anwendung der KI in der Kommunikationsbranche sind daher von Agenturen und Verbänden erstellte Richtlinien. Im Wesentlichen konzentrieren sich diese auf die Kennzeichnung von KI-generierten Inhalten und dem Versprechen, den Menschen als letzte Kontrollinstanz zu installieren. Internationale Richtlinien setzten dabei verstärkt auf das Thema Urheberrechtsverletzungen und der drohenden Gefahr von Datenmissbrauch.

Ein Beispiel ist die DRPR-Richtlinie zum Einsatz von KI (DRPR-Richtlinie zum Einsatz von KI in der PR – DRPR – Deutscher Rat für Public Relations), an der auch wir bei Sympra uns orientieren. Denn diese bildet die genannten Herausforderungen im Umgang mit der KI sehr gut ab: Hier haben der verantwortungsvolle und konstruktive Umgang mit KI oder die Hinweise auf mangelhafte Transparenz von Trainingsdaten ebenso Eingang gefunden wie die Notwendigkeit, Inhalte auf ihre Richtigkeit und Wahrhaftigkeit zu prüfen. Im ständigen Austausch und mit wachsenden Erfahrungswerten wird diese Leitlinie für den Arbeitsalltag operationalisiert, angepasst und rote Linien gezogen.

Richtlinien in der Praxis

Was auf den ersten Blick simpel und einleuchtend klingen mag, stellt uns in der Praxis vor immer neue Herausforderungen. Das beginnt schon bei einem einfachen Dilemma: Je mehr Information und Wissen die KI zur Verfügung gestellt bekommt, desto besser wird das Ergebnis – oftmals allerdings auf Kosten des Datenschutzes. Nur die stetige Auseinandersetzung und die Ausarbeitung der Richtlinien helfen uns, Leitplanken zu setzten und der KI eine klar definierte Rolle in unserem Arbeitsalltag zu geben. Was ebenso bedeuten kann, auf sie zu verzichten: Sind beispielweise sensible Daten im Spiel? Dann ist der Einsatz von KI-Tools ausgeschlossen. Denn Datensicherheit und das Vertrauen unserer Kunden haben oberste Priorität.

KI als Inspirationsquelle, zur Verbesserung bestehender Ergebnisse oder der Optimierung von Prozessen sind für uns eine willkommene Gelegenheit, mit KI-Tools zu arbeiten. Doch auch hier gilt es, genau hinzuschauen. KI dient uns als kreativer Sparringspartner, der niemals nur „ein Endergebnis“ liefert. Das setzt voraus, was selbstverständlich klingt: Von KI-Tools gelieferte Ergebnisse dürfen keinesfalls unhinterfragt übernommen werden. Sie dienen lediglich als Ausgangspunkt und erfordern eine gewissenhafte Einordnung und Überprüfung der Fakten.

Fördern und Fordern

Die wenigen Beispiele aus der Fülle der Anforderungen im Umgang mit KI zeigen: Kritisches und analytisches Denken und Entscheidungskompetenz gewinnen an Bedeutung – die KI fördert und fordert uns. Das beginnt bei der Wahl des Aufgabenfeldes, das sich KI-gestützt erledigen lässt, und geht über die Auswahl des passenden Tools bis hin zur Einordnung und Bewertung des Ergebnisses. Neben der juristischen Perspektive sind ethische Gesichtspunkte ein wesentlicher Bestandteil von Richtlinien, die gleichermaßen verpflichtend wie praxistauglich sein müssen. Die Richtlinie der DRPR zum Beispiel liefert einen guten Orientierungspunkt – im operativen Geschäft müssen sie jedoch immer wieder aufs Neue verhandelt und angepasst werden.

Kommentar hinzufügen

Ihre E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind mit * gekennzeichnet*