Onderzoekers Wouter Nieuwenhuizen en Quirine van Eeden van het Rathenau Instituut wijzen in een opinieartikel op de noodzaak voor democratisch vastgestelde eisen en een afdwingbare maatschappelijke verantwoordelijkheid van AI-bedrijven. Voor AI die ingrijpt op ons denken, handelen, voelen en andere fundamentele aspecten van ons leven moet ook het voorzorgsbeginsel gelden.
Een groot aantal ethici, ondernemers en medewerkers van techbedrijven heeft gewaarschuwd voor de komst van AI als ChatGPT, en de doorontwikkeling ervan. Oudere AI-modellen kunnen vaak slechts één taak uitvoeren binnen een bepaald gebied, terwijl deze nieuwe modellen een bredere reikwijdte hebben en in staat zijn om een groot scala aan opdrachten uit te voeren. Aangezien deze nieuwe toepassingen nieuwe teksten en afbeeldingen van hoogwaardige kwaliteit kunnen genereren, kunnen hun producten volstrekt realistisch en overtuigend overkomen. Dat kan resulteren in grootschalige misleiding. Wanneer we denken dat AI menselijke interacties kan vervangen of zelfs beter werk oplevert, schaadt dit niet alleen ons empathisch vermogen, maar dreigen we ook de meerwaarde van ons menszijn te verwaarlozen. Ook de vooringenomenheid in de trainingsdata, doordat bepaalde groepen of kenmerken in datasets oververtegenwoordigd zijn, kan leiden tot discriminatie op grote schaal.
Wettelijke waarborgen
Waar er bij ingrijpend biomedisch onderzoek met mensen altijd wettelijke waarborgen zijn, zoals toezicht door ethische commissies en expliciete toestemming van deelnemers, mag de hele wereld proefkonijn spelen voor de systemen die een kleine groep ontwikkelaars in Silicon Valley heeft bedacht. Consumenten kunnen er voor kiezen om ChatGPT en de recent uitgebrachte AI-systemen van Microsoft en Google (Bing Chat en Bard) niet te gebruiken. Maar wanneer anderen dat wel doen, krijg je er natuurlijk alsnog mee te maken. Bovendien verandert dat niets aan het overheersende narratief dat technologie ‘zich nou eenmaal blijft doorontwikkelen en we als samenleving alleen kunnen reageren’.
Voorzorgsbeginsel
Technologieën als pacemakers en hersenimplantaten zijn vanwege hun indringende aard aan strenge regels onderworpen. Of neem geneesmiddelen. Daarvan vinden we het volstrekt logisch dat de bewijslast voor veiligheid en effectiviteit bij de producent ligt. Het Europees recht schrijft het voorzorgsbeginsel voor: voorkomen is beter dan genezen. Wanneer het vermoeden bestaat dat een nieuwe technologie of stof ernstige schade aan de gezondheid of het milieu kan toebrengen, moeten voorzorgsmaatregelen worden genomen. Voor AI die ingrijpt op ons denken, handelen, voelen en andere fundamentele aspecten van ons leven lijkt dat niet te gelden. Recent heeft de Tweede Kamer het kabinet gevraagd om een integrale visie op nieuwe AI-producten. Wat we tenminste nodig hebben, zijn democratisch vastgestelde eisen en een afdwingbare maatschappelijke verantwoordelijkheid van AI-bedrijven. Alleen dan kunnen we ons als samenleving uit dit ongevraagde en ongecontroleerde experiment bevrijden.
Bron: www.rathenau.nl