Datenschutz und Ethik im Callcenter: KI analysiert Kundengespräche

In vielen deutschen Callcentern kommt Künstliche Intelligenz zum Einsatz, um Kundengespräche zu analysieren und Emotionen zu erkennen. Dies wirft Datenschutzbedenken auf und erfordert klare Richtlinien.

Emotionsanalyse im Callcenter: Datenschutzexperten besorgt

Kundenanrufe werden mithilfe von KI analysiert, um Emotionen anhand der Stimme zu erkennen. Einige große Callcenter-Betreiber verwenden solche Technologien, darunter Teleperformance. Datenschutzexperten äußern Bedenken über den Einsatz dieser Software.

Einsatz von KI zur Emotionserkennung: Offenheit und Transparenz gefordert

Callcenter-Unternehmen wie 11880 nutzen KI, um Kundenemotionen in Echtzeit zu analysieren. Die Emotionserkennungssoftware wertet Stimmmelodie, Intensität und Klang aus, um Emotionen wie Wut oder Freundlichkeit zu erkennen. Datenschützer betonen die Notwendigkeit von Offenheit und Transparenz bezüglich des Einsatzes von KI im Callcenter.

Rechtliche Bedenken: Emotionsanalyse im Callcenter in der Kritik

Juristen sehen die Analyse von Emotionen im Callcenter kritisch und halten sie für rechtlich unzulässig. Diese Analyse erlaubt tiefe Einblicke in die Persönlichkeit der Anrufer und wird als Verarbeitung von Gesundheitsdaten betrachtet. Es fehlen klare Regulierungen für den Einsatz von KI am Arbeitsplatz.

Herausforderung ohne klare Regulierung: KI und Datenschutz am Arbeitsplatz

In Deutschland fehlt es an gesetzlichen Regelungen zur Verwendung von KI am Arbeitsplatz, einschließlich im Callcenter. Branchenexperten schätzen, dass zwischen zehn und dreißig Prozent der deutschen Callcenter KI zur Analyse von Telefonaten einsetzen. Die Bundesregierung arbeitet an einem Beschäftigtendatenschutzgesetz, das auch den Einsatz von KI abdecken soll.

Zurück
Zurück

Mecklenburg-Vorpommern führt KI in Schulen ein

Weiter
Weiter

Künstliche Intelligenz: Deutschland strebt weltweit eine Spitzenposition an