Organisaties die in hun dienstverlening chatbots gebruiken, moeten mensen altijd de mogelijkheid bieden om met een medewerker te spreken. Ook moeten organisaties duidelijk maken wanneer je met een chatbot te maken hebt en erop toezien dat de chatbot geen onjuiste, ontwijkende of misleidende informatie geeft. Toezichthouders Autoriteit Persoonsgegevens (AP) en de Autoriteit Consument en Markt (ACM) gaan hier de komende tijd extra aandacht aan te besteden schrijven zij in een bericht van 2 oktober 2025.
Het consumentenrecht verplicht bedrijven nu al tot rechtstreekse, effectieve en juiste communicatie met hun klanten. In de digitaledienstenverordening (DSA) staat dat klanten van sociale media, marktplaatsen en online platforms de mogelijkheid moeten hebben om een communicatiemiddel te kiezen dat niet volledig geautomatiseerd is. De Europese Commissie bereidt op dit moment aanpassingen in de consumentenwetgeving voor, de Digital Fairness Act, waarmee deze regels ook voor andere bedrijven gaan gelden. Daarnaast gelden in de EU vanaf 2 augustus 2026 nieuwe verplichtingen uit de AI-verordening voor transparantie bij de inzet van AI-chatbots. Bedrijven moeten gebruikers dan onder meer informeren dat zij met een geautomatiseerd systeem communiceren.
Problemen met chatbots
De AP en ACM zien dat de meldingen over problemen met chatbots snel toenemen. Uit recent consumentenonderzoek door de ACM blijkt dat het ontbreken van menselijk contact bij een klantenservice een van de grootste ergernissen is. Ook blijkt dat chatbots soms slechte of zelfs onjuiste antwoorden geven, of mensen naar de mond praten zonder het probleem echt op te lossen. Verder is het voor mensen vaak onduidelijk of ze contact hebben met een chatbot of een medewerker. En ze slagen er niet altijd in om contact te krijgen met een medewerker als ze dat willen. Meer toezicht op het gebruik van chatbots is ook nodig vanwege risico’s op het gebied van informatiebeveiliging en privacy. Chatbots zijn een vorm van generatieve AI, die wordt getraind met grote hoeveelheden informatie en gegevens. Daar kunnen ook vertrouwelijke gegevens en documenten bij zitten. Dit kan het - bijvoorbeeld voor kwaadwillenden - mogelijk maken om de chatbot meer informatie te laten geven dan nodig is voor het beantwoorden van ‘gewone’ klantvragen, en deze vertrouwelijke informatie te ontfutselen. Dit brengt dataveiligheid in gevaar en kan zelfs tot datalekken leiden.