Künstliche Intelligenz

KI stets unter Kontrolle: Wie man einen ethischen Kundenservice sicherstellt

Pedro Andrade Partner Tech Connect

By Pedro Andrade

7 min read

Safe Ai Ensure Autopliot Copilot Are Accurate Fair Ethical

Egal wir nun selbst mit ChatGPT herumexperimentieren oder einen neuen Film mit einem Schauspieler ansehen, der schon vor Jahren verstorben ist - generative KI hat etwas Magisches an sich. Man gibt nur eine einfache Frage ein und erhält in Sekundenschnelle einen vollständigen Bericht oder kann miterleben, wie Carrie Fischer erneut in die Rolle der Prinzessin Leia schlüpft.

Aber wie bei allen Zaubertricks gibt es rationale und logische Erklärungen dafür, wie diese Ergebnisse erstellt werden. Als Kunde kann man begeistert und beeindruckt sein, aber als Kundenserviceleiter darf man nicht mit offenem Mund dastehen. Man muss sicherstellen, dass man sich auf das verlassen kann, was KI den Kunden sagt und menschlichen Agenten für ihr Handeln und ihre Kommunikation empfiehlt.

Bei Talkdesk sind wir fest von der transformativen Kraft künstlicher Intelligenz überzeugt. Gleichzeitig glauben wir aber auch an das alte Sprichwort „Vertrauen ist gut, Kontrolle ist besser“, weshalb wir in unseren KI-Systemen robuste Sicherheitsmaßnahmen und Überwachungsfunktionen integriert haben. Wir wissen, dass Führungskräfte im Kundenservice schon genug Sorgen haben. Deshalb sollten sie sich nicht auch noch Gedanken über problematische KI-Bots machen müssen!



Warum es so wichtig ist, virtuellen Agenten und Agentenassistenten zu vertrauen.

Why it’s so important to trust virtual agents and agent assistants.

Ethische KI spielt beim Kundenerlebnis eine wichtige Rolle, da Unternehmen Technologien wie Autopiloten (virtuelle Agenten) und Copiloten (Agentenassistenten) einsetzen, um das Kundenerlebnis zu verbessern.

Autopiloten interagieren direkt mit Kunden, automatisieren Antworten, klären häufig gestellte Anfragen und personalisieren Customer Journeys. Sie bieten einen sofortigen 24/7-Support, den Kunden zunehmend erwarten. In Unternehmen, in denen viel auf dem Spiel steht, wie z. B. im Gesundheitswesen, ist die Genauigkeit der Informationen von entscheidender Bedeutung. Wenn ein KI-gestützter virtueller Agent im Gesundheitswesen ungenaue Informationen über ein Rezept oder eine Behandlung liefert, können die Folgen schwerwiegend sein. Zum Beispiel kann eine falsche Beratung bei der Dosierung von Medikamenten zu unerwünschten Nebenwirkungen oder einem medizinischen Notfall führen und den Zustand des Patienten verschlechtern und einen medizinischen Eingriff erforderlich machen. Solche Fehler beeinträchtigen das Vertrauen von Patienten in ihren Gesundheitsdienstleister und erhöhen inhärente Kosten.

Copiloten wiederum unterstützen menschliche Agenten bei der Lösung von Kundenproblemen, indem sie Empfehlungen, relevante Informationen und kontextspezifische Einblicke in Echtzeit bereitstellen.  So unterstützt beispielsweise ein KI-gestützter Copilot eines Finanzdienstleistungsunternehmens die Agenten bei der Kundenberatung. Ein Copilot, der auf die Maximierung von Renditen fokussiert ist, schlägt einem konservativen Anleger, auch wenn dessen bevorzugte Optionen bekannterweise risikoarme Anlagen wie Staatsanleihen oder stabile Fonds sind, risikoreiche Investitionen wie Tech-Start-ups oder Kryptowährungsfonds vor, ohne dabei die Risikotoleranz des Kunden zu beachten. Diese Diskrepanz zwischen Kundenbedürfnissen und der Beratung durch KI führt zu möglichen finanziellen Schäden und folglich zu Vertrauensverlust.

Sowohl bei Autopilot- als auch bei Copilot-Anwendungen muss das Hauptaugenmerk darauf liegen, dass die bereitgestellten Informationen korrekt und vertrauenswürdig sind. Ungenaue oder irreführende Ergebnisse können schwerwiegende Folgen haben, wie z. B. Vertrauensverlust der Kunden, Verstöße gegen Vorschriften und potenziell kostspielige Fehler. Damit KI bei diesen Aufgaben einen echten Mehrwert bietet, muss sie nicht nur Informationen präzise und zeitnah bereitstellen, sondern auch den Kontext, die Präferenzen und die Risikoprofile der Benutzer verstehen, um maßgeschneiderte und angemessene Hilfestellungen zu bieten.

The Talkdesk Guide To Responsible Ai

Guide

Talkdesk-Leitfaden für eine verantwortungsvolle KI

Erfahren Sie, wie Sie einen effizienten, personalisierten und sicheren Kundenservice bieten und dabei Transparenz, Fairness und Vertrauen wahren können.

Ethische KI: Der Talkdesk-Ansatz.

Ethical AI: The Talkdesk approach.

KI hat die Kraft, den Kundenservice zu transformieren, kann aber auch Antworten von unterschiedlicher Qualität und Zuverlässigkeit generieren.  Generative KI kann 3 Arten von Antworten generieren:

  • Richtige Antworten. Diese Antworten sind präzise, zuverlässig und sachlich korrekt, gehen direkt auf die Frage ein und entsprechen den vorgegebenen Informationen.

  • Vergiftete Antworten. Hierbei handelt es sich um schädliche, irreführende oder verzerrte Antworten, die Fehlinformationen verbreiten, schädliche Ideen fördern oder beleidigend sein können. Dies geschieht in der Regel, wenn die KI durch Sofortinjektionstechniken gekapert wird und in der Folge entgegen den festgelegten Anweisungen agiert.

  • Halluzinierte oder falsche Antworten. Dies sind auf den ersten Blick glaubwürdige Antworten, die jedoch sachlich falsch oder irrelevant sind. Sie entstehen, wenn KI versucht, trotz unzureichender Informationen eine Antwort zu geben.

Bei Talkdesk hat die Sicherstellung, dass KI-Systeme ethische und vertrauenswürdige Ergebnisse liefern, oberste Priorität. Indem Talkdesk AI den Fokus auf Transparenz, Genauigkeit und strenge Kontrollen legt, minimiert es Risiken und maximiert zugleich die Vorteile generativer KI für Contact Center.



Zuverlässigkeit der Datenquelle.

Vertrauen in KI-Ergebnisse lässt sich am besten aufbauen, wenn sichergestellt wird, dass sie aus zuverlässigen Quellen stammen. Talkdesk AI nutzt große Sprachmodelle, die mit riesigen Datensätzen trainiert wurden, ähnlich wie andere bekannte Tools wie z. B. ChatGPT. Im Gegensatz zu allgemeinen KI-Modellen, die Informationen aus dem gesamten Internet abrufen, ist die Talkdesk-Lösung jedoch so konzipiert, dass sie Antworten speziell aus vertrauenswürdigen, kuratierten Wissensdatenbanken extrahiert.

RAG (Retrieval-Augmented Generation) kombiniert die Stärken retrieval-basierter und generativer Modellen, um die Antwortgenauigkeit und -relevanz zu erhöhen. So werden zunächst relevante Informationen aus einem großen Datensatz oder einer Wissensdatenbank abgerufen. Dann wird ein generatives Modell verwendet, um Antworten auf der Grundlage dieser Informationen zu erstellen. Dieser Ansatz stellt sicher, dass die generierten Antworten sowohl auf aktuellen, kontextuell relevanten Daten basieren als auch auf die spezifische Suchanfrage zugeschnitten sind.

Beispiel: Ein Patient nutzt den Autopiloten des Gesundheitsdienstleisters, um sich danach zu erkundigen, wie er ein neues verschreibungspflichtiges Medikament am besten einnimmt. Das KI-System, das basierend auf umfangreichem medizinischem Wissen trainiert wurde, ruft spezifische, verifizierte Informationen aus der kuratierten und validierten medizinischen Wissensdatenbank des Gesundheitsdienstleisters ab. Diese Wissensdatenbank enthält aktuelle Informationen zu Medikamenten, Dosierungsrichtlinien, möglichen Nebenwirkungen und Wechselwirkungen, die alle aus der maßgeblichen medizinischen Fachliteratur und den klinischen Richtlinien des Gesundheitsdienstleisters stammen.

So wird sichergestellt, dass die Antworten korrekt und relevant für das Unternehmen und seine Kunden sind. Talkdesk eliminiert das Risiko, dass KI irreführende oder falsche Informationen generiert, indem es die Datenquellen auf verifizierte, domänenspezifische Inhalte beschränkt.



Simulieren und Testen — Sandbox-Umgebung.

KI zu vertrauen bedeutet auch, in der Lage zu sein, sie gründlich zu testen. Talkdesk bietet eine Sandbox zur Erprobung, in der KI-Ergebnisse vor ihrer Bereitstellung getestet werden können. In diesem Rahmen können Unternehmen verschiedene Antworten und Szenarien eingeben, beobachten, wie KI reagiert, und bei Bedarf Anpassungen vornehmen–und das alles ohne die Notwendigkeit umfangreicher fachspezifischer Kenntnisse.

Unternehmen können Leitplanken anpassen, um zu verhindern, dass die KI bestimmte Arten von Antworten liefert, und sicherstellen, dass der virtuelle Agent oder Agentenassistent die Unternehmensrichtlinien einhält. Talkdesk AI Trainer™ verwendet zusätzliche Leitplanken, um den Inhalt der Aussagen des Autopiloten und des Copiloten sicherzustellen und zu verhindern, dass sie bösartige und schädliche Informationen verbreiten. Die Simulation realer Interaktionen und die Verfeinerung des Verhaltens der KI stellen sicher, dass die Technologie bestimmte Standards für Genauigkeit und Relevanz erfüllt.



Kontinuierliches Monitoring zur Gewährleistung der ethischen Nutzung von KI.

Auch nach der Implementierung der KI-Lösung ist die Überwachung ihrer Leistung unerlässlich, wenn man das Vertrauen aufrechterhalten will. Talkdesk bietet benutzerdefinierte Dashboards, die Echtzeit-Einblicke in die Leistung von KI-Modellen bieten. Diese Dashboards weisen auf potenzielle Probleme hin und ermöglichen es Unternehmen, bei Bedarf sofortige Anpassungen vorzunehmen.

Observability Trends Trainer

Darüber hinaus bieten sie fortlaufende Messwerte zur Verfolgung der Leistung im Laufe der Zeit, um sicherzustellen, dass die KI wie erwartet funktioniert. Dank dieser kontinuierlichen Monitoring-Ebene können Unternehmen auch Berichte über die Zuverlässigkeit der KI erstellen und so sicherstellen, dass die Standards für Compliance und Genauigkeit konsequent eingehalten werden.



Ethische KI: Die Herausforderungen ethischer KI im Kundenservice angehen.

Ethical AI: Addressing the challenges of ethical AI in customer service.

In der Kundenerlebnisbranche birgt generative KI ein enormes Potenzial. Dabei sind Strukturen, die Vertrauen in die Tätigkeiten von KI gewährleisten, von entscheidender Bedeutung. Sie stellen sicher, dass die gelieferten Informationen korrekt sind und nicht zu unerwünschten schädlichen oder verzerrten Ergebnissen führen. Unternehmen müssen in zuverlässige Wissensdatenbanken investieren, umfassende Testverfahren einrichten und die KI-Leistung kontinuierlich überwachen. Darüber hinaus ist es wichtig, das richtige Gleichgewicht zwischen der Nutzung von KI-Funktionen und der Aufrechterhaltung von Genauigkeit, Ethik und Zuverlässigkeit finden, die die Kunden erwarten.

Erfahren Sie, wie Talkdesk Ihnen helfen kann, das Potenzial generativer KI zu nutzen und zugleich Genauigkeit und Zuverlässigkeit zu gewährleistet! Fordern Sie noch heute eine Demo an! 

SHARE

Pedro Andrade Partner Tech Connect

Pedro Andrade

Pedro Andrade ist Vice President of AI bei Talkdesk, wo er für eine Reihe von KI-gesteuerten Produkten verantwortlich ist, die darauf abzielen, den Betrieb von Contact Centern zu optimieren und die Kundenerfahrung zu verbessern. Er ist begeistert vom Einfluss von KI und digitalen Technologien auf den Mark. Ganz besonders interessiert er sich für das Potenzial generativer KI als Quelle innovativer Lösungen, mit denen die Contact Center-Branche revolutioniert werden kann.