Kunstmatige intelligentie (AI) is even controversieel als indrukwekkend. Het kan veel onderdelen van het werk en het dagelijks leven gemakkelijker maken, maar het roept ook enkele ethische vragen op. Vooral het gebruik van AI door de Amerikaanse overheid bezorgt sommige mensen een ongemakkelijk gevoel.

Er zijn tegenwoordig veel AI-projecten van de overheid in gebruik of in ontwikkeling, en sommige hebben veel goeds gedaan. Tegelijkertijd roepen ze veel zorgen over de privacy van kunstmatige intelligentie op. Hier is een nadere blik op deze projecten en wat ze betekenen voor de openbare privacy.

Voorbeelden van AI- en automatiseringsprojecten van de overheid

De meest elementaire voorbeelden van kunstmatige intelligentie die door de Amerikaanse overheid worden gebruikt, zijn het automatiseren van routinematig kantoorwerk. In 2019 gebruikte Seattle Robotic Process Automation (RPA) het verzorgen van gegevensinvoer en verwerking van aanvragen. Sindsdien heeft de stad meer dan 6.000 achterstallige aanvragen verwerkt en honderden werkuren bespaard.

Andere AI-projecten van de overheid vallen meer op. De brandweer van New York test robothonden uit Boston Dynamics om structurele schade en giftige dampen te meten voordat brandweerlieden binnenkomen. Vóór het project voor de blusrobot had de politie van New York gepland om dezelfde robots te implementeren.

Politiediensten en andere overheidsinstanties in het hele land overwegen soortgelijke technologieën te gebruiken. Naarmate deze AI-projecten van de overheid van de grond komen, zijn hun potentiële tekortkomingen op het gebied van privacy echter duidelijker geworden.

Is kunstmatige intelligentie een bedreiging voor privacy en veiligheid?

Of je in de toekomst politierobots zult zien, is nog onzeker, maar het lijkt die kant op te gaan. Deze projecten hebben veel voordelen, maar de bezorgdheid over de privacy van kunstmatige intelligentie wordt ernstiger in de omgang met de overheid. Hier zijn enkele van de grootste problemen met deze technologieën.

Kunstmatige intelligentie is afhankelijk van het verzamelen en analyseren van gegevens. Als gevolg hiervan zullen meer AI-projecten van de overheid ertoe leiden dat deze instanties aanvullende informatie over hun burgers verzamelen en opslaan. Sommige mensen hebben zin om al deze informatie te verzamelen schendt hun privacy en hun rechten schendt.

Technologieën zoals het brandweerhondenproject zijn bijzonder zorgwekkend omdat ze het overheidstoezicht misleidend kunnen maken. Agentschappen zeggen dat de robot er is om veiligheidsproblemen te controleren, maar mensen kunnen op geen enkele manier vertellen welke gegevens hij verzamelt. Het kan camera's en sensoren hebben die hun gezichten scannen of hun mobiele telefoons volgen zonder dat ze het weten.

Sommige mensen maken zich zorgen dat de "coole factor" van robots hun bewakingspotentieel zal verbergen. Politierobots kunnen in de toekomst burgers bespioneren zonder veel argwaan te wekken, omdat mensen gewoon nieuwe technologie zien in plaats van een inbreuk op hun privacy.

Onduidelijke verantwoordelijkheden

Deze AI- en automatiseringsprojecten roepen ook de kwestie van aansprakelijkheid op. Als een robot een fout maakt die schade tot gevolg heeft, wie is daar dan verantwoordelijk voor? Wanneer een overheidsfunctionaris zijn grenzen overschrijdt en inbreuk maakt op iemands rechten, kunnen rechtbanken hem aansprakelijk stellen, maar hoe zit het met een robot?

Je ziet dit probleem bij zelfrijdende auto's. In sommige gevallen van autopilot-crash hebben mensen de fabrikant in rekening gebracht op grond van een productaansprakelijkheidsclaim, terwijl anderen de bestuurder de schuld geven. In één geval is de Nationale Raad voor Transportveiligheid legde de verantwoordelijkheid bij zowel de fabrikant als de bestuurder, maar uiteindelijk moet dit per geval worden beslist. Politierobots vertroebelen het water op dezelfde manier. Als ze uw privacy schenden, is het onduidelijk of u de fabrikant, de politie of de menselijke toezichthouders de schuld geeft.

Deze verwarring kan juridische procedures vertragen en bemoeilijken. Het kan even duren voordat slachtoffers van privacyschendingen of inbreuken op hun rechten de gerechtigheid krijgen die ze verdienen. Nieuwe wetten en juridische precedenten zouden dingen kunnen verduidelijken en dit probleem kunnen oplossen, maar op dit moment is het onzeker.

Risico's van gegevensinbreuk

Kunstmatige intelligentie die door de Amerikaanse overheid wordt gebruikt, kan ook de bezorgdheid over AI-privacy die u in de particuliere sector ziet, vergroten. Het verzamelen van sommige gegevens is misschien volkomen legaal, maar hoe meer organisaties verzamelen, hoe meer risico ze lopen. Het bedrijf of de overheid mag de informatie niet gebruiken voor iets illegaals, maar het kan mensen kwetsbaar maken voor cybercriminaliteit.

Er waren meer dan 28.000 cyberaanvallen alleen al in 2019 tegen de Amerikaanse regering. Als instanties meer privé-informatie van burgers bewaren, kunnen deze aanvallen meer dan alleen de overheid treffen. Een succesvol datalek kan veel mensen in gevaar brengen zonder dat ze het weten. Overtredingen blijven vaak onopgemerkt, dus u moet controleer of uw gegevens nog niet te koop zijn.

Als een politierobot in de toekomst bijvoorbeeld gezichtsherkenning gebruikt om gezochte criminelen te zoeken, kan hij biometrische gegevens van veel burgers opslaan. Hackers die het systeem binnendringen, kunnen die informatie stelen en gebruiken om in te breken op de bankrekeningen van mensen. AI-projecten van de overheid moeten sterke cyberbeveiligingsmaatregelen hebben als ze de gegevens van mensen niet in gevaar willen brengen.

AI van de overheid heeft voordelen, maar geeft aanleiding tot bezorgdheid

Het is nog steeds niet duidelijk hoe de Amerikaanse regering kunstmatige intelligentie in de toekomst zal gebruiken. Nieuwe beschermingen en wetten kunnen deze problemen oplossen en alle voordelen van AI brengen zonder de risico's ervan. Voorlopig roepen deze zorgen echter alarm op.

Overal waar AI werkt, zijn er zorgen over privacy. Deze vragen worden serieuzer naarmate de overheid een grotere rol speelt. AI-projecten van de staat kunnen veel goeds doen, maar ze hebben ook een aanzienlijk potentieel voor schade.

Microsoft waarschuwt dat "1984" over drie jaar kan uitkomen

Lees volgende

DelenTweetenDelenE-mail

Gerelateerde onderwerpen

  • Beveiliging
  • Kunstmatige intelligentie
  • Onlineprivacy

Over de auteur

Shannon Flynn (79 artikelen gepubliceerd)

Shannon is een maker van inhoud in Philly, PA. Ze schrijft al ongeveer 5 jaar in het technische veld na haar afstuderen met een graad in IT. Shannon is de hoofdredacteur van ReHack Magazine en behandelt onderwerpen als cyberbeveiliging, gaming en zakelijke technologie.

Meer van Shannon Flynn

Abonneer op onze nieuwsbrief

Word lid van onze nieuwsbrief voor technische tips, recensies, gratis e-boeken en exclusieve deals!

Klik hier om je te abonneren