Alleen al in de afgelopen paar jaar zijn de mogelijkheden van AI drastisch verbeterd. Tegenwoordig kunnen we AI gebruiken om kunst te maken, verhalen te schrijven, meer te weten te komen over de wereld en nog veel meer. Maar gebeurt dit allemaal een beetje te snel? Ontwikkelt AI zich te snel en welke signalen wijzen hierop?
Waarom maken mensen zich zorgen over AI?
Eind maart 2023 werd een document online vrijgegeven door het Future of Life Institute met de titel "Pauzeer Gigantische AI-experimenten: een open brief". Het document bevatte argumenten tegen de ontwikkeling van AI voorbij de verfijning van GPT-4, OpenAI's nieuwste iteratie van een AI-aangedreven chatbot.
In de brief stond dat "AI-systemen met mens-concurrerende intelligentie grote risico's kunnen vormen voor de samenleving en de mensheid", en dat "krachtige AI-systemen pas mogen worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en hun risico's beheersbaar."
Een aantal prominente figuren op het gebied van technologie, waaronder Steve Wozniak en
Elon Musk heeft de brief ondertekend en wil de ontwikkeling van AI stopzetten. Dit pleidooi voor een stopzetting van de ontwikkeling van AI heeft vraagtekens gezet bij hoe gevaarlijk AI aan het worden is en welke risico's het vormt voor het menselijk leven.Dus, welke tekenen geven aan dat AI te snel beweegt?
1. Competitie met mensen
We hebben al gezien dat technologie menselijke werknemers vervangt in talloze scenario's. Als je een fastfoodrestaurant binnenstapt, kun je nu bestellen via een computerscherm en als je boodschappen wilt doen, kun je afrekenen met een geautomatiseerd systeem. Dit kan een snelle en gemakkelijke optie zijn, maar naarmate automatisering in verschillende bedrijfstakken prominenter wordt, neemt de behoefte aan menselijke werknemers af.
Dit is waar het probleem begint. Natuurlijk moeten mensen werken om in hun levensonderhoud te voorzien, maar de opkomst van automatisering maakt dit veel moeilijker. Dit is met name het geval voor werknemers met een minimumloon, zoals die in de horeca, productie en detailhandel. Basistaken, zoals het uitchecken van bestellingen, het ophalen van ladingen en het schoonmaken, kunnen allemaal door machines worden gedaan. De integratie van AI betekent dat we binnenkort misschien geen operators meer nodig hebben voor deze technologie.
Het werd gemeld door FormStack dat 76% van de bedrijven automatisering gebruikt voor het standaardiseren of automatiseren van dagelijkse workflows. En met Zapier melden dat 94% van de werknemers heeft verklaard dat hun baan repetitieve en tijdrovende taken omvat, Door AI aangedreven automatisering zou heel gemakkelijk een meerderheidsdeel van het wereldwijde personeelsbestand kunnen worden industrieën.
2. Menselijke luiheid aanmoedigen
Een van de belangrijkste voordelen van AI is dat het zoveel taken kan vereenvoudigen. Maar dit gemak kan heel gemakkelijk plaatsmaken voor luiheid. En in sommige gevallen is dat al zo.
Neem bijvoorbeeld ChatGPT. U kunt ChatGPT voor verschillende dingen gebruiken zoals essays schrijven, onderwerpen onderzoeken, grappen maken, tekst vertalen en nog veel meer. Een service hebben die snel taken voor u kan uitvoeren is geweldig, maar leidt ons ook tot zelfgenoegzaamheid. Het op deze manier belemmeren van inspanning en creativiteit kan zeker een negatief effect hebben op de mensheid als geheel, wat een belangrijke reden is waarom zoveel mensen zich zorgen maken over AI.
We zijn in onze moderne tijd zo gewend aan door AI aangedreven services dat we er natuurlijk veel vertrouwen in hebben gesteld. De virtuele assistent van Microsoft, Cortana, gebruikt bijvoorbeeld machine learning en AI om de opdrachten van gebruikers uit te voeren. Veel andere virtuele assistenten, waaronder Siri van Apple, gebruiken ook AI om te functioneren.
Vertrouwen op deze technologie is misschien veilig, maar het is echt niet te weten, vooral gezien het feit dat AI zich nog in een zeer ontwikkelingsstadium bevindt.
3. De verspreiding van valse informatie
In de reguliere wereld heeft AI veel bekendheid gekregen door zijn vermogen om kunst, afbeeldingen en video's te maken. AI-aangedreven diensten kunnen niet alleen worden gebruikt om kunst te maken, maar ze kunnen ook een bijzonder controversiële vorm van media creëren die bekend staat als deepfakes. Deepfakes zijn video's waarin het gezicht van een persoon op het lichaam van een andere persoon wordt geplaatst.
Dit klinkt best leuk, maar kan heel gemakkelijk misbruikt worden.
Er zijn al duizenden video's van beroemdheden en politieke figuren die ongelooflijk onzedelijke en ongepaste dingen lijken te zeggen via deepfakes. Hoewel sommige deepfakes heel gemakkelijk te identificeren zijn, zijn sommige zo geavanceerd dat het moeilijk te onderscheiden is of ze echt zijn of niet. Wanneer dit gebeurt, kunnen mensen aannemen dat een publieke figuur iets heeft gezegd dat in werkelijkheid nooit door hen is gezegd.
Hieruit zullen mensen een mening vormen over deze video's, en zo bijdragen aan de verspreiding van verkeerde informatie online.
Bovendien kunnen AI-aangedreven chatbots gebruikers ook valse informatie geven. Chatbots zoals ChatGPT, Boost. AI en Drift kunnen gebruikers veel informatie geven, maar deze informatie is niet altijd even nauwkeurig. Zoals besproken door De beschermer, AI-chatbots zijn op geen enkele manier toegewijd om u waarheidsgetrouwe informatie te verstrekken, wat betekent dat nepnieuws heel gemakkelijk door de kieren kan glippen en bij u terecht kan komen.
4. De creatie van malware
Begin 2023 begon er een nieuwsbericht over te circuleren kwaadwillende actoren die malware maken met behulp van ChatGPT. In dit geval ontdekte cyberanalist Check Point Research dat individuen de voordelen bespraken van het gebruik van ChatGPT om malware te creëren op een hackforum. De auteur van het forumbericht deelde een infostealer die ze in Python hadden geschreven met behulp van ChatGPT, en moedigde andere kwaadwillende actoren aan om malware te maken met behulp van de chatbot.
Malwareprogramma's moeten worden gecodeerd, wat tijdrovend kan zijn, vooral als de maker geen sjabloon van een reeds bestaand programma gebruikt.
Door ChatGPT te gebruiken, kunnen kwaadwillende actoren niet alleen het proces van het maken van malware stroomlijnen, maar kunnen ook minder technologisch onderlegde personen malware maken. Naarmate de verfijning van AI zich verder ontwikkelt, is het misschien mogelijk om ongelooflijk geavanceerde malware te maken die antivirusdetectie, authenticatie, firewalls en andere beschermende maatregelen kan omzeilen.
5. Het gebrek aan regelgeving
Een veelvoorkomend probleem in de technologie-industrie is het gebrek aan regelgeving voor nieuwere diensten, zoals op blockchain gebaseerde platforms en AI-producten. Gebrek aan regelgeving kan door sommigen als een goede zaak worden beschouwd, maar kan ook leiden tot ongeoorloofde praktijken.
Niet alleen kan een gebrek aan regelgeving leiden tot een toename van door AI aangedreven oplichting en cybercriminaliteit, maar de manier waarop onderzoekers AI-technologieën ontwikkelen, kan ook serieuze grenzen gaan overschrijden. Er zijn ethische overwegingen die moeten worden gemaakt bij het omgaan met AI. Kan een systeem te bewust worden? Wat voor soort effecten zal AI hebben op het menselijk leven? Moeten we AI op deze manier inzetten? De lijst met vragen gaat maar door.
Zonder regulering kunnen sommige bedrijven morele grenzen gaan overschrijden, wat op zijn beurt heel slecht nieuws zou kunnen zijn voor het grote publiek.
AI beweegt zich in een snel tempo en brengt zeker risico's met zich mee
Het valt niet te ontkennen dat het potentieel van AI enorm is, maar dit moet op de juiste manier worden benut om de kans te verkleinen dat dingen uit de hand lopen. We hebben al gezien dat AI kwaadwillig werd gebruikt, dus we weten niet hoe dit probleem zich zou kunnen ontwikkelen naarmate de zaken vorderen. De tijd zal leren of AI een zegen of een vloek wordt in onze wereld, en de manier waarop er nu mee wordt omgegaan zal daar zeker een rol in spelen.