'Ethisch kompas nodig voor ontwikkeling van betrouwbare AI”'
Om verantwoorde en betrouwbare AI te realiseren moeten bedrijven een aantal doelen bereiken
28 april 2023 -
AI en ML bepalen de toekomst van werk. Door de inzet van AI en ML profiteren werknemers van ongekende flexibiliteit en meer productiviteit, zodat bedrijven voorop blijven lopen. Iedereen is enthousiast over de recente AI- en ML-ontwikkelingen (voornamelijk generatieve AI en in het bijzonder OpenAI en ChatGPT), maar er zijn ook zorgen. "Om met vertrouwen door de AI-revolutie te navigeren, moeten organisaties betrouwbare AI en een ethisch kompas ontwikkelen," zegt Hette Mollema, VP Benelux bij Workday.
"De kracht van AI kan belangrijke verbeteringen opleveren op vele vlakken. Denk bijvoorbeeld aan navigatiesystemen, streamingdiensten of webshops die dankzij AI een betere, gepersonaliseerde ervaring bieden. Dit betekent in bredere zin dat bedrijven dankzij AI profiteren van exponentiële voordelen," begint Mollema. "Het is echter wel cruciaal dat bedrijven een strikt beleid en strenge voorzorgsmaatregelen hanteren om de risico's van onvoorziene gevolgen te beheersen. Bijvoorbeeld met een programma dat specifiek ingaat op de manieren waarop ML- en AI-technologieën ontwikkeld en geleverd worden."
Om verantwoorde en betrouwbare AI te realiseren moeten bedrijven proberen de volgende doelen te bereiken:
1. Het menselijk potentieel versterken
Mollema stelt dat de ontwikkeling van technologie als doel moet hebben het menselijk potentieel te versterken: "AI stelt mensen in staat om slimmer en efficiënter te werken en kan zelfs de aard van het werk veranderen. Maar mensen moeten centraal blijven staan bij alle bedrijfsactiviteiten en fundamentele mensenrechten moeten altijd worden gerespecteerd. De ontwikkeling van AI moet klanten en hun werknemers helpen kansen te benutten en zinvol werk te leveren, met als doel om fouten en vervelende taken te verminderen en tegelijkertijd de productiviteit en besluitvorming van gebruikers te verbeteren. Daarbij zouden bedrijven een 'human-in-the-loop'-benadering moeten gebruiken om eindgebruikers controle te geven over uiteindelijke beslissingen. Gebruikers moeten zelf kunnen bepalen of ze de aanbevelingen van AI-gebaseerde oplossingen accepteren."
2. Een positieve invloed op de samenleving
Verder moeten bedrijven weloverwogen te werk gaan en uitsluitend AI-oplossingen ontwikkelen die aansluiten bij de waarden van het bedrijf. "In onze organisatie willen we op HCM-gebied bijvoorbeeld geen technologieën ontwikkelen die indringende productiviteitscontroles faciliteren. We concentreren ons in plaats daarvan op oplossingen voor functiegerelateerde vaardigheden om gepersonaliseerde ervaringen, loopbaanontwikkeling en groei, en interne mobiliteit te stimuleren," geeft Mollema als voorbeeld. "Daarbij wordt gebruikgemaakt van een uitgebreid governance-programma om innovatieve AI-oplossingen te leveren die veilig, robuust en betrouwbaar zijn."
3. Transparantie en eerlijkheid bevorderen
"AI en ML gaan niet over het vervangen van menselijke besluitvormers," benadrukt Mollema. "Integendeel, AI- en ML-gedreven applicaties doen voorspellingen die, in combinatie met een menselijk oordeel, helpen om betere beslissingen te nemen. Maar het succes van AI en ML hangt, net als bij elke andere opkomende technologie, af van vertrouwen, en dat vertrouwen bestaat alleen als bedrijven zich houden aan verantwoorde, ethische praktijken."
Mollema benoemt dat er op allerlei manieren vooroordelen in de AI-levenscyclus kunnen ontstaan: "Bedrijven moeten open en eerlijk zijn hoe ze hiermee omgaan. Een op risico's gebaseerd beoordelingsproces kan evalueren of AI-oplossingen vatbaar zijn voor onbedoelde gevolgen en hoe die risico's kunnen worden beheerd."
Hij vervolgt: "Bedrijven moeten gebruikers en klanten inzicht kunnen bieden in de werking van hun AI-modellen. Denk aan duidelijke documentatie waarin wordt uitgelegd hoe de AI-oplossingen worden gebouwd, hoe ze werken, hoe ze worden getraind en getest, en welke test- en evaluatieprocedures er zijn."
4. Inzet voor dataprivacy en -bescherming
Dataprivacy en -bescherming is fundamenteel voor betrouwbare AI. "Daarom moeten bedrijven de toegang tot data om AI-oplossingen te bouwen reguleren en controleren en hier duidelijke privacyprincipes voor opstellen. Klanten moeten de controle houden over het gebruik van hun data in AI-oplossingen."
Betrouwbare beslissingen met betrouwbare AI
Samenvattend stelt Mollema dat AI en ML alleen echte meerwaarde leveren als ze betrouwbaar zijn en menselijke capaciteiten niet vervangen, maar aanvullen. "Dat betekent dat de basis van betrouwbare AI en ML moet bestaan uit vertrouwen. Bedrijven moeten klanten daarom duidelijk inzicht bieden in de ontwikkeling en beoordeling van geleverde AI- en ML-producten om eventuele risico's van het gebruik ervan te beperken. Het opstellen (en naleven!) van bovengenoemde ethische AI-principes kan bedrijven helpen om in te spelen op de veranderende behoeften van klanten en te innoveren binnen snel veranderende en complexe regelgeving. Om deze principes volledig te kunnen operationaliseren zijn samenwerking, helder beleid en gedocumenteerde procedures nodig. Werkbare, op risico's gebaseerde regelgeving vergroot het vertrouwen in AI-technologie en faciliteert innovatie."