Ethik Fragen und Datenschutz: KI im Kundenservice
Date Published
03/11/2023
Reading time
5 Minuten
Die Verwendung künstlicher Intelligenz im Kundenservice birgt viele Vorteile – etwa schnellere Reaktionszeiten, personalisierte Antworten oder Angebote sowie insgesamt mehr Prozesseffizienz. Hierzu werden massive Datenmengen produziert und verwendet. Damit wirft die Technologien auch wichtige ethische Fragen und solche zum erweiterten Datenschutz auf. Welche das sind, wie Unternehmen die Daten und damit die Privatsphäre ihrer Kundinnen und Kunden schützen können und verwendete KI-Systeme fair und transparent arbeiten, darum soll es im Folgenden gehen.
Künstliche Intelligenz übernimmt zunehmend mehr Aufgaben im Customer Care und Customer Management. Die Verantwortlichen in den Unternehmen planen perspektivisch steigende Ausgaben in diesem Bereich. Und auch Kundinnen und Kunden stehen dem Einsatz von KI im Kundenservice zunehmend positiv gegenüber. Das bedeutet: Was bislang meist noch im Sinne von Kosten- und Personaleffizienz auf den Weg gebracht wurde, könnte schon bald Kund*innen dazu bewegen, sich für ein Unternehmen zu entscheiden, das im Servicebereich mit dieser innovativen Technologien agiert. So weit, so gut.
Wie aber kann bei all jenen Kundinnen und Kunden das Vertrauen in die Verwendung KI-gestützter Systeme aufgebaut werden, die den Einsatz bislang noch kritisch sehen? Wie das Vertrauen bei jenen stärken, die die Vorteile bereits für sich entdeckt haben? Welche ethisch bedenklichen Szenarien im Customer Care könnte es denn überhaupt geben, wenn KI ohne entsprechende Vorkehrungen zum Einsatz kommt? Werden wir bei diesem letzten Punkt doch einmal etwas konkreter:
- (Unbewusste) Diskriminierende Kundenbewertungen: Ein Unternehmen verwendet ein KI-System, um die Bewertungen der Kundenzufriedenheit zu analysieren und Rückschlüsse auf die Servicequalität zu ziehen. Wurde das KI-System unzureichend trainiert oder nicht auf mögliche Verzerrungen im Datenverarbeitungsprozess überprüft, besteht die Gefahr, dass es die Bewertungen von bestimmten Kund*innen in einen falschen Zusammenhang bringt. So könnten beispielweise Menschen mit Akzent bei der Spracherkennung automatisch als weniger zufriedengestellt bewertet werden, ohne dass es objektive Gründe dafür gibt.
- Fehlende Berücksichtigung sensibler Informationen: Im Kundenservice eines Unternehmens kommt ein KI-basiertes Chatbot-System im Customer Care zum Einsatz. Ist dieses nicht ausreichend darauf trainiert, sensible Gesundheits- oder Finanzdaten einer Kundin oder eines Kunden zu erkennen und entsprechend zu handhaben, könnte das dazu führen, dass diese Informationen unangemessen behandelt oder weiterverwendet werden. Eine solche Verletzung der Privatsphäre würde das Vertrauen in erheblichem Maße erschüttern.
- Ungerechte Entscheidungen aufgrund von Algorithmus-Bias: Ein Unternehmen verwendet einen KI-gestützten Entscheidungsprozess, um über Rückerstattungen zu entscheiden. Wurde der hinterlegte Algorithmus nicht angemessen auf mögliche Verzerrungen überprüft, könnten unter Umständen bestimmte Kundengruppen aufgrund von Merkmalen wie Alter, Geschlecht oder ethnische Zugehörigkeit benachteiligt werden.
Die theoretischen Beispiele verdeutlichen, wie ein unangemessen vorbereiteter Einsatz von KI im Customer Care zu ethisch bedenklichen Situationen führen kann, bei denen Kundinnen und Kunden aufgrund von Diskriminierung, mangelnder Privatsphäre oder ungerechter Behandlung benachteiligt würden. Um solche Probleme zu vermeiden, ist es wichtig, KI-Systeme angemessen aufzusetzen.
Transparenz stärkt das Vertrauen
Zu den zentralen Herausforderungen beim Einsatz von künstlicher Intelligenz gehört es somit, – und darüber herrscht EU-weit große Einigkeit – sicherzustellen, dass KI-Systeme transparent und nachvollziehbar arbeiten. Das gilt selbstredend auch für den Customer Care. Kundinnen und Kunden sollten zu jedem Zeitpunkt Einblick darüber erhalten können, auf welcher Grundlage die KI-Entscheidungen trifft und warum ihnen eine bestimmte Lösung oder Option vorgeschlagen wird. Denken wir beispielsweise an die Schadensregulierung in einem Versicherungsfall, welche schon bald im großen Maße durch AI-Technologien erfolgen dürfte. Kann die/der Versicherte eine durch künstliche Intelligenz getroffene Entscheidung nach Abwägung aller Faktoren nicht nachvollziehen, droht ein Reputationsverlust oder sogar unliebsamer Rechtsstreit für das Versicherungsunternehmen.
Firmen stehen damit vor der Herausforderung, dass die zum Tragen kommenden KI-Algorithmen erklärbare Entscheidungen treffen und klare Informationen über die Funktionsweise der Systeme bereitstehen. Klingt sehr theoretisch. In der Praxis bedeutet dies, Methoden einzuführen, bei denen KI-Modelle ihre Entscheidungsgrundlagen offenlegen. Eine Technik, die in diesem Zusammenhang herangezogen werden kann, ist „Explainable AI“. Damit lassen sich klare Einblicke in die Entscheidungsgrundlagen von KI-Modellen finden. So etwa durch:
- Modellinterpretationen (Analysen der internen Strukturen des KI-Modells)
- Regelbasierte Systeme (Entscheidungen basierend auf klar definierten Regeln)
- Feature Importance (Analyse der Bedeutung der verschiedenen Merkmale für die Entscheidungsfindung)
- Visualisierungen (Veranschaulichung von Entscheidungsprozessen/Ergebnissen mittels Diagrammen oder Graphen)
Alles das kann dazu beitragen, das sogenannte Black Box-Phänomen zu vermeiden, das Vertrauen der Kundschaft in den Einsatz von KI-Systemen zu stärken und ethische Standards sowie mögliche Diskriminierungsfälle im Blick zu behalten.
Datenschutz und Privatsphäre: ein wichtiges Pfund in der Kundenbeziehung
Gerade im Bereich der Serviceautomation spielen Daten eine Hauptrolle, um einen exzellenten Kundenservice durch moderne KI-Technologie zu bieten. Mit der zunehmenden Einbindung generativer KI wird es nochmal wichtiger, die Grundvoraussetzungen zum Schutz dieser Daten, die ganz grundsätzlich bereits durch die DSGVO geregelt sind, stringent einzuhalten. Der Datenschutz dient dabei nicht dazu, die Vorteile durch KI im Kundenservice zu begrenzen. Es geht darum, mögliche Folgen für die Privatsphäre einzugrenzen.
Ein schönes Beispiel aus Deutschland, welche Aspekte beim Einsatz von KI im Kundenmanagement zum Tragen kommen, findet sich bei der Deutschem Telekom. Die Überlegungen wurden auf der Grundlage potenzieller Gefahren erstellt. Herausgekommen sind neun Aspekte mit Blick auf angewendete AI-Technologie.
Daten durchgehend im Blick behalten
KI-Systeme funktionieren auf der Basis komplexer Entscheidungsstränge, deren Ergebnisse auf den ersten Blick nicht immer nachvollziehbar erscheinen. Am Ende ist die KI nur so gut, wie die Datenlage, die erhoben, gepflegt und schließlich verarbeitet wird. Um sicherzustellen, dass die verwendeten KI-Systeme fair und ohne Bias arbeiten, müssen Unternehmen deshalb schon bei der Wahl ihrer Trainingsdaten auf Diversität und Repräsentativität achten.
Regelmäßige Überprüfungen und Audits der KI-Modelle sind daher unabdingbar, um mögliche Verzerrungseffekte zu identifizieren und zu korrigieren. Daneben gilt es, eine Art Beschwerdeverfahren für Kundinnen und Kunden einzurichten, um eventuelle mögliche Diskriminierungsfälle melden zu können. All diese Maßnahmen dienen dazu, das Vertrauen in diese noch recht neue Technologie nachhaltig zu stärken.