RetailTrends belt iedere week met een expert over een opvallende actuele ontwikkeling. Deze keer: Arnoud Engelfriet, IT-jurist, AI-expert en chief knowledge officer bij ICTRecht, over 'responsible AI'.
De afgelopen editie van NRF Retail’s Big Show in New York draaide – hoe kan het ook anders – in grote mate om AI. Tijdens keynotes ging het niet alleen over de kansen van kunstmatige intelligentie, maar ook over de vraag hoe retailers AI op een verantwoorde, eerlijke en transparante manier kunnen inzetten.
In een sector waar AI steeds dieper doordringt in marketing, promotie en interactie met de klant, groeit de behoefte aan duidelijke kaders. Maar wat houdt responsible AI nu eigenlijk in? En wat moeten retailers ermee?
Wat houdt responsible AI in?
"Responsible AI is de algemene term voor AI die zich netjes en ethisch verantwoord gedraagt. In Europa wordt ook wel gesproken over trustworthy AI. Het uitgangspunt is dat AI ten dienste staat van de mens en doet wat je ervan mag verwachten. Responsible betekent daarbij niet dat AI per se technisch foutloos is – fouten horen bij het leven...
RetailTrends belt iedere week met een expert over een opvallende actuele ontwikkeling. Deze keer: Arnoud Engelfriet, IT-jurist, AI-expert en chief knowledge officer bij ICTRecht, over 'responsible AI'.
De afgelopen editie van NRF Retail’s Big Show in New York draaide – hoe kan het ook anders – in grote mate om AI. Tijdens keynotes ging het niet alleen over de kansen van kunstmatige intelligentie, maar ook over de vraag hoe retailers AI op een verantwoorde, eerlijke en transparante manier kunnen inzetten.
In een sector waar AI steeds dieper doordringt in marketing, promotie en interactie met de klant, groeit de behoefte aan duidelijke kaders. Maar wat houdt responsible AI nu eigenlijk in? En wat moeten retailers ermee?
Wat houdt responsible AI in?
"Responsible AI is de algemene term voor AI die zich netjes en ethisch verantwoord gedraagt. In Europa wordt ook wel gesproken over trustworthy AI. Het uitgangspunt is dat AI ten dienste staat van de mens en doet wat je ervan mag verwachten. Responsible betekent daarbij niet dat AI per se technisch foutloos is – fouten horen bij het leven – maar wel dat het fatsoenlijk en eerlijk is. En dat als de AI iets niet weet of als er iets misgaat, daar rekening mee wordt gehouden, liefst in het voordeel van de klant in plaats van dat mensen grootschalig worden benadeeld."
Waarom is het voor retailers goed om een responsible AI-strategie te hebben?
"De inzet van AI in retail draait vooral om marketing en productpromotie. Het is bekend dat er in online marketing soms allerlei dubieuze trucjes worden uitgehaald. Zeker met AI kun je op basis van data heel precies bedenken wat voor iemand van belang is en daar vervolgens acties aan koppelen. Dat kan al snel als onethisch worden gezien. Dat wil je als bedrijf niet, en dan kom je automatisch uit bij het concept van responsible AI."
Hoe pakt een retailer zo'n beleid aan?
"Beleid bedenken is geen vage gok. Je moet het verbinden aan de praktijk. Het gaat juist om afstemming met de partij die de AI-oplossing levert, vaak is dat een technologiepartner. Samen bepaal je wat je wel en niet wilt. Misschien vind je productaanbevelingen prima, maar wil je niet dat AI de klantenservice volledig vervangt, omdat mensen het prettig vinden om een mens te spreken. Wat vind je als retailer belangrijk? Wil je service met een glimlach bieden, de allergoedkoopste zijn of juist de snelste?
Van daaruit maak je keuzes. Ben je een heel groot bedrijf en is je doel om zo snel mogelijk zo veel mogelijk mensen te helpen, dan kan een AI-chatbot als eerste contactpunt logisch zijn. Maar als je staat voor hoogste kwaliteit en persoonlijke service, is een AI-chatbot misschien juist geen goed idee. Technologiepartners komen vaak met allerlei mogelijkheden, zoals een AI-gedreven nieuwsbrief. Dat kan aantrekkelijk zijn voor een bepaald segment, maar niet voor iedereen. Bij bedrijven die met medische hulpmiddelen werken bijvoorbeeld, heeft AI bijvoorbeeld nauwelijks een plek: mensen vinden het daar vaak niet prettig om door een robot geholpen te worden.
Je moet jezelf steeds afvragen: waar vind ik dat de mens echt nodig is en waar kan AI ondersteunen? Het is te vergelijken met het opstellen van een AVG-beleid, wat een aantal jaren geleden verplicht werd. Veel bedrijven kopieerden destijds een tekst van internet, maar zo'n document gaat over hoe jíj met privacy omgaat. Wat perfect is voor Coolblue, is niet automatisch geschikt voor een kledingwinkel. Dat geldt net zo goed voor AI-beleid. Stel dat je doelgroep zwangere vrouwen is: laat je dan AI automatisch mails sturen over hoe fijn het is om zwanger te zijn, of wil je die persoonlijke noot juist door een mens laten verzorgen?"
Kunnen bedrijven het zich nog veroorloven om zonder plan met AI te werken?
"Als je zonder plan met AI aan de slag gaat, laat je in feite je technologiepartner bepalen wat jouw bedrijf doet. Dan beslist die bijvoorbeeld dat er dagelijks een door ChatGPT gepersonaliseerde nieuwsbrief wordt verstuurd om zo veel mogelijk data te verzamelen. Daarmee geef je eigenlijk een stuk strategie uit handen, want AI is niet alleen een technische keuze, maar ook een strategische.
Dat kan prima zijn – je kunt je logistiek ook volledig uitbesteden – maar je levert daarmee wel autonomie in. Stel, je laat je backoffice door Amazon of Bol doen, dan levert dat gemak op, maar je zit eraan vast als tarieven veranderen of voorwaarden worden aangepast. Die grip op je strategie raak je kwijt. Datzelfde geldt als je het bepalen van je AI-beleid uit handen geeft.
Dat staat los van technische kwaliteit. Hallucinaties en fouten kunnen altijd voorkomen, ook als je zelf aan het roer staat. Je zult een leverancier op een gegeven moment moeten vertrouwen en daar afspraken over moeten maken, bijvoorbeeld over hoe je kwaliteit meet. Zaken als discriminatie – denk aan hogere prijzen voor mannen dan voor vrouwen, of een andere toon richting oudere klanten – zijn niet alleen een kwestie van responsible AI, maar ook van kwaliteit. Dan doet de AI simpelweg niet wat je had bedoeld.
Bij zichtbare fouten, zoals een webshop die vastloopt of een iDeal-integratie die niet werkt boven de 300 euro, kun je direct ingrijpen. Bias en discriminatie zijn veel lastiger te ontdekken en te bestrijden. Juist daarom wil je daar afspraken over maken: hoe monitoren we dit, en wat doen we als het misgaat? Dat kan onderdeel zijn van je beleid: we zetten alleen AI in als we ook controleren of het eerlijk werkt, zonder discriminatie of uitsluiting, bijvoorbeeld op postcode of achternaam. Voorkomen is lastig, maar door er vroeg bij te zijn kun je wel sneller ingrijpen.
Uiteindelijk draait het om bewustzijn. Wat ga ik met AI doen? Hoe reageer ik als een klant bijvoorbeeld het gevoel krijgt gediscrimineerd te worden door mijn webshop? Voorbereid zijn is prettiger dan ter plekke een boze klant moeten opvangen."
In hoeverre dwingt nieuwe wetgeving, zoals de Europese AI Act, bedrijven nu al tot het opstellen van een formele AI-strategie?
"De nieuwe AI-wetgeving is voor retail relatief beperkt relevant. De regels richten zich vooral op sectoren als zakelijke dienstverlening, overheid en onderwijs. Een uitzondering is marketing, met name zogenoemde dark patterns: manipulatieve trucs waarbij je mensen bewust een bepaalde kant op stuurt. Denk aan een verstopte annuleerknop of het suggereren van een vrijblijvende reservering die ineens een factuur blijkt te zijn. Dat soort praktijken waren al dubieus, maar als je ze met AI inzet, zijn ze keihard verboden, omdat AI dit veel subtieler en grootschaliger kan doen.
Bestaande wetgeving geldt ook gewoon voor AI. Er zijn regels die voorschrijven dat klantenservice bereikbaar moet zijn, in elk geval tijdens kantooruren. De ACM heeft al aangegeven dat uitsluitend een AI-chatbot inzetten niet voldoende is: je moet een mens kunnen spreken. En manipuleren en oplichten mag nu ook al niet, dus oplichting met AI blijft gewoon oplichting.
Het lastige is dat je met AI soms minder zicht hebt op wat er precies gebeurt. Als je zelf een e-mailketen opstelt, weet je welke toon je aanslaat. Laat je dat door AI doen, dan weet je dat niet altijd. Een conversie van 80 procent klinkt mooi, maar wat als dat wordt bereikt door agressieve of intimiderende teksten? Dan moet je wel weten wat voor prompt je invoert en wat de AI daarmee kan doen. Daar moet je het dus vooraf over hebben: wat willen we wel en wat absoluut niet?"
Wat zijn do's voor retailers die met een 'responsible AI'-beleid aan de slag willen?
"Een van de belangrijkste dingen is begrijpen wat je precies doet met AI en wat je afneemt van een leverancier. Is het simpelweg ChatGPT met een slimme prompt, of gaat het om een maatwerkoplossing? Welke data gaat erin en hoe werkt het systeem? Ga het zelf testen. Neem de rol van klant aan en kijk wat er gebeurt. Wat voor berichten krijg je na een week of een maand? Hoe ziet een gepersonaliseerde shop eruit?
Vraag ook expliciet naar zaken als discriminatie: wordt daarop getest en gemonitord? En zo niet, hoe weet je dan dat het eerlijk gebeurt? Die vragen moet je stellen voordat je AI grootschalig inzet."