Stap 2: Maak een voorselectie van relevante technologieën voor de behoefte
U gaat een eerste schifting maken tussen technologieën. Na Stap 1 heeft u een ‘longlist’ van uiteenlopende interessante ontwikkelingen. Bij Stap 2 gaat u meer duiding geven aan die ontwikkelingen. Bij deze voorselectie bepaalt u welke technologieën waarschijnlijk het meest potentie heeft voor toekomstig gebruik.
Pas wanneer u de behoefte in kaart heeft, kunt u gaan bekijken of de verschillende technologieën (uit Stap 1) relevant zijn om in de behoefte te voorzien. Om tot de eerste selectie van technologieën te komen, zijn er diverse aspecten die u in afweging kunt nemen. De aspecten voor de selectie zijn niet voor elke organisatie hetzelfde.
Enkele voorbeelden van afwegingen die u kunt maken:
- Welke mogelijkheden biedt een technologie om uw publieke taken efficiënter en effectiever uit te voeren en wat voor slaagkans verwacht u?
- Kunt u inspelen op veranderingen in de organisatie? Is er bijvoorbeeld expertise aanwezig?
- Wat is de volwassenheid van de technologie? Gebruik hierbij bijvoorbeeld de Technology Readiness Levels (TRL’s).
- In hoeverre verwacht u dat de nieuwe technologie ook landt en beklijft in uw organisatie? U kunt bijvoorbeeld het Stakeholder Readiness Level meten zoals Rijkswaterstaat doet.
- Zijn er ondernemers of kennisinstituten aanwezig die bereid zijn om bij te dragen aan ontwikkeling van de technologie? Hiervoor kunt u een marktverkenning en/of marktconsultatie uitvoeren.
- Welke ’risico’s zijn er bij het gebruik van deze technologie? Analyseer dit via Risicomanagement.
Onderzoek knelpunten
Het is raadzaam om alvast op een hoger abstractieniveau te bekijken op welke manier een technologie als AI of blockchain geschikt is voor uw vraagstuk. Er zit een hele wereld achter deze innovaties, zoals: het borgen van publieke waarden en mensenrechten in technologische ontwikkelingen (zie het kader hieronder), en het stimuleren van verantwoord en transparant data- en algoritmegebruik door overheden.
Borg dat het experimenteren en innoveren in lijn is met de principes van de Toolbox Ethisch Verantwoorde Innovatie. Zet publieke waarden centraal. Gemeenten kunnen bijvoorbeeld sensoren inzetten om zakkenrollers op te sporen. Maar wat doet dit precies met het gevoel van onschuldige mensen, die ook gemonitord worden? Welke grondrechten in het geding kunnen zijn, zijn nader uitgewerkt in het kader hieronder).
Bij Stap 3 kunt u vervolgens samen met experts de minimale randvoorwaarden nader uitdiepen.
Publieke waarden en mensenrechten
Een digitale technologie kan conflicteren met publieke waarden en mensenrecht (grondrechten). Breng daarom in beeld hoe de technologie grondrechten beïnvloedt en ga na waar mogelijk knelpunten kunnen opspelen. We noemen een aantal grondrechten en mogelijke risico’s.
Menselijke waardigheid
Dit is een fundamenteel grondrecht. Een grondrecht dat elk persoon vanaf de geboorte heeft: het recht om mens te kunnen zijn. Dit beginsel komt terug in de andere grondrechten, zoals persoonlijke autonomie, privacy en discriminatie.
Daarnaast behelst menselijke waardigheid nog een ander element: menselijk contact.
- Voorbeeld van een risico in de praktijk: wanneer AI de menselijke interactie overneemt, kan dit een afname van menselijk contact betekenen. Dit kan de ‘menselijke waardigheid’ van betrokkenen aantasten.
Persoonlijke autonomie
Dit grondrecht gaat over de vrijheid van de mens om zelf te bepalen over de inrichting van het eigen leven.
- Voorbeeld van risico in de praktijk: Ongemerkte beïnvloeding door sturende AI.
Privacy
Mensen moeten zichzelf kunnen zijn, zonder bemoeienis van derden.
- Voorbeeld van risico’s in de praktijk: digitale technologieën die sensitieve data genereren en opslaan. Of de grote hoeveelheid data die nodig is om tot goede uitkomsten te komen met AI-systemen.
Verbod van discriminatie
Iedereen moet in gelijke gevallen gelijk behandeld worden.
- Voorbeeld van risico’s in de praktijk: een ‘bias’ (vooringenomenheid) in onderliggende data of algoritme, die leidt tot discriminerende patronen. Of foutmarges die leiden tot onjuiste classificatie.
Vrijheid van meningsuiting
Mensen hebben het recht om gevoelens en meningen te delen, evenals het recht op toegang tot (gebalanceerde) informatie.
- Voorbeelden van risico’s in de praktijk: onnauwkeurige algoritmen die content te snel verwijderen of toegang belemmeren.
Recht op een eerlijk proces
Iedereen moet toegang kunnen hebben tot informatie en advies omtrent het recht en de mogelijkheid hebben van een beslissing door een neutrale (rechterlijke) instantie.
- Voorbeeld van een risico: Ondoorzichtigheid van algoritmen waardoor individuen moeilijker kunnen opkomen voor hun recht. Het is vandaar belangrijk dat de algoritmen uitlegbaar zijn, om inzicht te hebben in de integriteit ervan, en dat het breed gedragen wordt.
Er bestaat beleid om dergelijke risico’s te adresseren en verschillende instanties werken aan standaarden om de kwaliteit van digitale technologieën te garanderen. Meer informatie kunt u vinden in de bijlage bij de Beleidsbrief AI, publieke waarden en mensenrechten van 8 oktober 2019.