Mens versus machine: Hoe reageren klanten op double deviations in klantenservicecommunicatie?
Pavone en collega’s onderzochten in hoeverre de gesprekspartner (mens vs. chatbot) de reacties van klanten beïnvloedt bij een double deviation.
Als je contact opneemt met de klantenservice omdat je een klacht hebt over een product of dienst, dan word je steeds vaker te woord gestaan door een chatbot. Je hoopt dan dat de chatbot je klacht snel kan verhelpen. Als de chatbot je niet kan helpen, is er sprake van een double deviation: een negatieve ervaring met de klantenservice na een negatieve ervaring met een product of dienst. Pavone en collega’s onderzochten in hoeverre de gesprekspartner (mens vs. chatbot) de reacties van klanten beïnvloedt bij een double deviation.
Waar gaat deze blog over?
- Uit eerder onderzoek blijkt dat als er iets misgaat in de dienstverlening, een menselijke medewerker hier meer verantwoordelijk voor wordt gehouden dan een robot. Daarnaast wordt het bedrijf meer verantwoordelijk gehouden voor fouten die een robot maakt.
- Volgens het Media as Social Actors principe reageren mensen onbewust sociaal op chatbots, vergelijkbaar met hoe ze op andere mensen reageren. Deze sociale reactie wordt versterkt wanneer chatbots menselijke cues bevatten, zoals een menselijke avatar.
Het onderzoek
Pavone en collega’s voerden twee experimenten uit. Aan het eerste experiment namen 122 participanten deel. Eerst kregen ze een scenario waarin werd uitgelegd dat een klant op zakenreis was gegaan met het vliegtuig en zijn bagage was verloren. Na een aantal dagen had de klant geen informatie ontvangen over de verloren bagage. Daarom nam hij contact op met de klantenservice van de luchtvaartmaatschappij. Vervolgens kregen participanten een video te zien van het gesprek tussen de klant en de klantenservice. In de video werd de gesprekspartner gemanipuleerd: de klant had een gesprek met een menselijke medewerker of met een chatbot. De uitkomst van het gesprek was in beide video’s gelijk: er kon geen informatie worden gegeven over de verloren bagage. Na het bekijken van de video, vulden participanten een vragenlijst in waarmee de verantwoordelijkheid van de gesprekspartner (mens of chatbot) en het bedrijf werd gemeten en de woede en frustratie van de participanten over de situatie.
Aan het tweede experiment deden 120 participanten mee. Ze kregen hetzelfde scenario en zagen daarna een video met het gesprek tussen de klant en een chatbot met een menselijke avatar of een robot avatar. De uitkomst van het gesprek was wederom in beide video’s gelijk: er kon geen informatie worden gegeven over de verloren bagage. Na het bekijken van de video vulden participanten een vragenlijst in waarmee de verantwoordelijkheid van het bedrijf voor de dienstverlening werd gemeten en de mate van antropomorfisme van de chatbot.
De resultaten
De resultaten van het eerste experiment komen overeen met eerder onderzoek: een menselijke medewerker wordt meer verantwoordelijk gehouden voor de double deviation dan een chatbot. Bovendien werd het bedrijf meer verantwoordelijk gehouden voor de double deviation wanneer de chatbot het gesprek voerde. Wanneer participanten de menselijke medewerker verantwoordelijk hielden voor de double deviation ervaarden ze meer woede. Tot slot blijkt dat participanten meer frustratie ervaarden wanneer ze het bedrijf verantwoordelijk hielden voor de double deviation. Het type gesprekspartner (mens of chatbot) beïnvloedde deze relatie niet.
Uit het tweede experiment blijkt dat de chatbot met een menselijke avatar menselijker werd gevonden dan de chatbot met een robot avatar. Daarnaast blijkt dat een chatbot met een menselijke avatar ervoor zorgde dat het bedrijf minder verantwoordelijk werd gehouden voor de double deviation.
Kortom
- Als een menselijke medewerker een klacht niet kan oplossen, dan houden klanten de medewerker hiervoor verantwoordelijk wat leidt tot woede.
- Als een chatbot een klacht niet kan oplossen, dan houden klanten het bedrijf hiervoor verantwoordelijk.
- Zet je klantenservicechatbots in? Gebruik dan een menselijke avatar om de chatbot warmer te laten overkomen. Dit zorgt ervoor dat klanten het bedrijf minder verantwoordelijk houden voor double deviations.
Meer weten?
Dit artikel is gebaseerd op onderstaande publicatie:
Pavone, G., Meyer-Waarden, L., & Munzel, A. (2023). Rage Against the Machine: Experimental Insights into Customers’ Negative Emotional Responses, Attributions of Responsibility, and Coping Strategies in Artificial Intelligence–Based Service Failures. Journal of Interactive Marketing, 52–71. Lees het artikel hier.
Over de auteur
Dr. Charlotte van Hooijdonk is universitair docent Communicatie- en Informatiewetenschappen aan de Universiteit Utrecht.
Dit artikel verscheen eerder op de website van SWOCC.