Dit bericht is gesponsord door Incogni.
Kijk om je heen; de omgeving gonst van AI en zijn bijna wonderbaarlijke mogelijkheden. AI of kunstmatige intelligentie stelt een computer of machine in staat om intelligent te redeneren, te leren en te handelen, net als een mens.
ChatGPT en andere generatieve AI-technologieën verspreiden zich inderdaad in bijna elke branche, van de gezondheidszorg, het bankwezen en de productie tot de creatieve kunsten en consumentensoftware.
Maar zal deze krachtige nieuwe toekomst die gedijt op data ons ons fundamentele mensenrecht op privacy geven?
Als soortgelijke gedachten bij u opkomen, zijn uw privacykwesties met betrekking tot kunstmatige intelligentie natuurlijk. Uw privacy is nu belangrijker dan ooit in dit digitale tijdperk.
Wat zijn de privacyrisico's van AI?
Vanaf Pew Research-enquêtes, wordt een op de vier Amerikanen elke dag gevraagd akkoord te gaan met een privacybeleid. Toch leest slechts 22% het privacybeleid volledig.
Laten we eens kijken naar AI-services zoals ChatGPT, Google Cloud AI, Jupyter, Viso Suite en Chrorus.ai. In hun privacybeleid staat dat ze uw persoonlijke informatie verzamelen, de inhoud die u bekijkt of waarmee u zich bezighoudt, en zelfs brongegevens van sociale mediaplatforms en openbare databanken.
Bovendien worden uw gegevens gebruikt om hun AI-modellen te trainen.
U kunt dus genieten van e-mails en presentaties die binnen enkele seconden worden geschreven; chatten met een klantenservice-bot; accessoires virtueel passen tijdens het winkelen; of gewoon Google, want advertenties op basis van uw interesses volgen u via internet.
Deze bewerkingen worden mogelijk gemaakt door uw gegevens die elke minuut worden verzameld. Als je het beschouwt als kunstmatige intelligentie die inbreuk maakt op je privacy, heb je het niet mis.
Hoewel AI-bedrijven beweren dat uw informatie veilig is, hebben talloze datalekken door cybercriminelen geleid tot identiteitsdiefstal, financieel verlies en schade aan de reputatie van slachtoffers wereldwijd.
Bevindingen van Surfshark's Global Data Breach Stats-onderzoek laten zien dat in de VS sinds 2004 meer dan 2,6 miljard records zijn blootgelegd door datalekken.
En de meeste AI-modellen zijn getraind op een grote dataset uit openbare bronnen, waarvan de meeste bevooroordeeld zijn. Deze vooringenomenheid kan ernstige gevolgen hebben, zoals schending van uw recht op privacy.
Juridische en ethische implicaties van privacy in het tijdperk van AI
Zijn onze privacywetten van toepassing op AI? Volgens de De podcast van de American Bar Association inzake AI-regelgeving in de VS is er momenteel geen alomvattende federale wetgeving die uitsluitend is gewijd aan AI-regelgeving.
De Europese Unie heeft de AI-wet aangenomen, waarbij de regelgeving evenredig zou toenemen met de potentiële bedreiging voor de privacy en veiligheid die een AI-systeem vormt. Hopelijk zal deze AI-wet de VS, het VK en andere landen katalyseren om ook hun wetten goed te keuren.
Het reguleren van AI en het beschermen van privacy stellen echter veel uitdagingen, aangezien AI-algoritmen complex zijn.
Ten tweede zijn de meeste bestaande privacywetten geworteld in een model van kennisgeving en toestemming van de keuze van de consument. Privacybeleid is een voorbeeld waarmee klanten instemmen, maar zelden volledig lezen.
Ook kunnen personen die verkocht zijn aan de AI-revolutie vrijwillig privé-informatie vrijgeven, waardoor het doel van het waarborgen van gegevensprivacy van kunstmatige intelligentie teniet wordt gedaan.
Idealiter zou onze nieuwe AI-gedreven toekomst ook ethisch gedreven moeten zijn om onze gegevensprivacy te beschermen. Het moet veilig, eerlijk, onbevooroordeeld en gunstig zijn voor iedereen. Makers en ontwikkelaars moeten AI-modellen trainen met gegevens die divers zijn.
Om ons vertrouwen te winnen, moeten AI-modellen transparant zijn over de beslissingen die met onze gegevens worden genomen. En aangezien AI al een aanzienlijk personeelsbestand vervangt, zou de ontwikkeling van AI moeten leiden tot het creëren van betere banen.
Bescherming van privacy in een door AI aangedreven wereld
U moet de keuze hebben om de persoonlijke gegevens te delen die u wilt. En AI-bedrijven moeten verbeterde maatregelen voor gegevensbescherming nemen om ervoor te zorgen dat uw informatie veilig en privé blijft.
Principes van privacy-by-design moeten worden geïntegreerd in alle operaties, in alle activiteiten en verwerkingen, om zo de bescherming van gegevensprivacy gedurende de hele levenscyclus van een AI-systeem te waarborgen.
Bovendien moet er robuuste wet- en regelgeving zijn voor kunstmatige-intelligentiemodellen en schieten nieuwe AI-bedrijven als paddenstoelen uit de grond.
In de allereerste wereldwijde standaard die door UNESCO is ontwikkeld, is het recht op privacy en gegevensbescherming een van de 10 kernprincipes van deze aanbeveling voor het bouwen van AI-technologieën.
Uw rol bij het beschermen van uw privacy
Vanaf Surfsharks houding tegenover privacyonderzoek 2022, is 90% van de internetgebruikers het erover eens dat online privacy belangrijk voor hen is. En 32% geeft aan dat de kwaliteit van de dienstverlening belangrijker is dan privacy.
Als je de nieuwste AI-technologie moet verkennen om sneller te werken, ga ervoor. Maar neem een paar minuten de tijd om het privacybeleid te lezen. En zoek naar de opt-out voor het delen van gegevens.
Begin met het beheren van uw privacy met het apparaat in uw hand of op uw pc. Gebruik een VPN om te browsen en weiger opslagmachtigingen voor apps die u niet gebruikt.
Wist je dat je je digitale voetafdruk regelmatig kunt opschonen? En opt-out van databases van data makelaars wie verzamelt uw persoonlijke informatie?
Neem uw privacy terug met Incogni
Gegevensmakelaars zijn altijd op zoek om uw persoonlijke gegevens uit openbare registers en via uw surfgedrag te stelen. Als je een zonnebril virtueel hebt uitgeprobeerd, zou je gezicht ook in een database staan.
Incognitie somt gegevensmakelaars op die waarschijnlijk over klantinformatie beschikken, zoals burgerservicenummer, fysiek adres, gezondheidsinformatie, telefoonnummer of e-mailadres. Dergelijke gegevens worden verkocht aan investerings-, gezondheidszorg-, financiële, marketing- of wervingsbedrijven. Of gebruikt om u op te lichten of u in de val te lokken bij pogingen tot walvisvangst.
Dit alles kan leiden tot ongewenste advertenties, uw kredietwaardigheid of verzekeringstarieven beïnvloeden en het risico op cyberaanvallen vergroten.
Maar Incogni stuurt namens u verzoeken om gegevensverwijdering naar gegevensmakelaars, zelfs nadat uw gegevens zijn verwijderd wanneer gegevensmakelaars uw informatie weer beginnen te verzamelen.
U kunt het proces volgen en mogelijke gevonden databases, verzonden verzoeken en voltooide verzoeken bekijken op uw gebruiksvriendelijke Incogni-dashboard.
U kunt uw privacy nu terugnemen door een 1-jarig Incogni-abonnement met 50% korting- slechts $ 6,49 per maand - en houd uw gegevens buiten de markt en veilig.
AI en uw privacy: de behoefte aan een revolutionair evenwicht
Ongetwijfeld is deze nieuwe toekomst van kunstmatige intelligentie gevoelig voor privacyrisico's, waardoor het belangrijk is om deze aan te pakken. En Incogni kan een uitweg zijn.
Het rad van verandering om kunstmatige-intelligentiebedrijven te reguleren en uw privacy te beschermen, is inderdaad aan het rollen gegaan. Hopelijk krijgt het momentum om net als AI een revolutie te worden en te voorzien in de behoefte aan een evenwichtige benadering van AI-ontwikkeling en privacybescherming.
Dit is een gesponsord bericht. De productkeuzes en meningen in dit artikel zijn afkomstig van de sponsor en weerspiegelen niet de redactionele richting van MakeUseOf of haar personeel.