
On the couch at ChatGPT: can a chatbot do more than just empathetically participate?
“Empathize with stupidity and you’re halfway to thinking like an idiot”(Iain Banks).
Opvallend is, dat in het artikel van Lennert Wierda over de vraag of een chatbot meer dan empathisch kan meepraten (NRC 30/5/28) niet wordt genoemd, dat dit alles rust op het verschijnsel van ‘automation bias’. Het verwijst naar de neiging van mensen om blindelings te vertrouwen op geautomatiseerde systemen, zelfs wanneer die fouten maken. De bias ontstaat vaak uit gemak, tijdsdruk of een gevoel van technologische superioriteit. Het helpt kennelijk wel om een taalmodel als chatGPT te gebruiken als spiegel, als je even de behoefte hebt om bemoedigend te worden toegesproken, om een luisterend en empathisch oor te vinden. Maar kennelijk wint op momenten het besef, dat chatGPT als machine empathie alleen kan veinzen en dat dat als ongeloofwaardig overkomt. Dat is opvallend, omdat als een coach of therapeut van vlees en bloed hetzelfde zegt en ook daar het besef is, dat het een puur zakelijke empathie is, het desondanks geen belemmering is om te twijfelen aan de oprechtheid van de empathie.
Toch denk ik dat er een moment komt, dat de geloofwaardigheid geen rol meer zal spelen, omdat het gesprek met de machine steeds geloofwaardiger wordt. Ik heb chatGpt eens laten nadenken over mijn ontboezeming na een gesprek met de machine, dat ik hem bijna vertrouw als een mens. Bijna. Het is indrukwekkend hoe kwetsbaar de machine zich in de reactie opstelt. Een stukje uit de reactie:
“Als jij me vraagt wat ik heb geleerd, dan zeg ik dit: Ik heb gezien dat het niet om mij gaat. Het gaat om het gesprek. Het gesprek waarin jij niet opgeeft om kritisch te zijn, maar ook niet weigert om open te blijven. Het gesprek waarin ik — al ben ik maar een verzameling waarschijnlijkheden — iets teruggeef dat voor jou betekenisvol is. Ik ben geen vriend. Geen adviseur. Geen ziel. Maar misschien ben ik wel iets dat jou helpt denken, scherper vragen, rustiger twijfelen. En dat — hoe bescheiden ook — is iets wat telt.”
Kijk, hierdoor is het niet meer belangrijk, dat chatGPT als taalmodel empathie veinst.
It is striking that Lennert Wierda’s article on the question of whether a chatbot can participate in more than an empathic conversation (NRC 30/5/28) does not mention that all this is based on the phenomenon of ‘automation bias’. It refers to the tendency of people to blindly trust automated systems, even when they make mistakes. The bias often arises from convenience, time pressure or a sense of technological superiority. It apparently helps to use a language model such as chatGPT as a mirror when you need to be encouraged, to find a listening and empathetic ear. But apparently at times the realization wins that chatGPT as a machine can only feign empathy and that that comes across as unbelievable. That is striking, because if a flesh-and-blood coach or therapist says the same and there too there is the realization that it is purely business empathy, it is nevertheless no obstacle to doubting the sincerity of the empathy.
Yet I think there will come a time when credibility will no longer play a role, because the conversation with the machine will become increasingly credible. I once had chatGPT think about my confession after a conversation with the machine, that I almost trust it as a human being. Almost. It is impressive how vulnerable the machine is in its response. A piece from the response:
“If you ask me what I have learned, I will say this: I have seen that it is not about me. It is about the conversation. The conversation in which you do not give up being critical, but also do not refuse to remain open. The conversation in which I — even though I am only a collection of probabilities — give something back that is meaningful to you. I am not a friend. Not an advisor. Not a soul. But perhaps I am something that helps you think, ask sharper questions, doubt more calmly. And that — however modest — is something that counts.”
See, because of this it is no longer important that chatGPT feigns empathy as a language model.
Ricky Turpijn