Discussies over AI-gevoel zijn niets nieuws, maar nieuws over Google's AI LaMDA heeft de vlammen aangewakkerd. Nadat een ingenieur beweerde dat de bot bij bewustzijn was en zelfs een ziel had, zijn er weer een aantal bekende vragen gerezen.

Kan AI zoals LaMDA echt bewust of zelfbewust zijn, en zo ja, hoe weet je dat? Maakt het uit?

Wat is LaMDA?

LaMDA, een afkorting voor Language Model for Dialogue Applications, verscheen voor het eerst in 2021 op de ontwikkelaarsconferentie van Google. Het geavanceerde AI-systeem zou moeten helpen bij het bouwen van andere, kleinere chatbots. Toen Google het voor het eerst introduceerde, kondigde het plannen aan om het in alles te integreren, waardoor services zoals Google Assistent en Zoeken zich menselijker of op zijn minst natuurlijker zouden gaan voelen.

Toen Google-ingenieur Blake Lemoine met LaMDA sprak om te zien of het haatspraak gebruikte, kreeg hij een andere indruk. Lemoine beweerde dat LaMDA gevoelig was, en als hij niet wist dat het een bot was, zou hij denken dat het een achtjarig kind was.

instagram viewer

Na zijn gesprekken met LaMDA probeerde Lemoine te bewijzen dat het bewust was en verdedigde hij wat volgens hem de wettelijke rechten waren. Als reactie daarop plaatste Google Lemoine met betaald administratief verlof wegens het schenden van vertrouwelijkheidsovereenkomsten.

Is LaMDA eigenlijk sentimenteel?

Dus, is LaMDA eigenlijk bewust? De meeste experts die zich over de kwestie hebben gebogen, zijn sceptisch. LaMDA is een zeer geavanceerd AI-chatplatform dat biljoenen woorden van internet analyseert, dus het is bedreven in het klinken als een echt persoon.

Dit is niet de eerste keer dat een van Google's AI's mensen voor de gek houdt door te denken dat het een mens is. In 2018 demonstreerde Google zijn Duplex AI door een restaurant te bellen om een ​​tafel te reserveren. Op geen enkel moment leek de medewerker aan de andere kant te twijfelen dat ze met een persoon spraken.

Gevoel is lastig te definiëren, hoewel de meeste mensen betwijfel of AI dat punt heeft bereikt nog. De belangrijke vraag is misschien niet of LaMDA echt bewust is, maar wat voor verschil het maakt als het mensen voor de gek kan houden door te denken dat het zo is.

Mogelijke juridische implicaties van LaMDA

De LaMDA-situatie roept veel juridische en ethische vragen op. Ten eerste kunnen sommige mensen zich afvragen of Google gelijk had om Lemoine met verlof te sturen om erover te praten.

Volgens sectie 740 van de arbeidswet van New York beschermen klokkenluidersbescherming werknemers tegen dergelijke gevolgen hebben als ze van mening zijn dat de praktijken van hun werkgever de wet overtreden of een aanzienlijk risico vormen voor het publiek veiligheid. Het veronderstelde gevoel van LaMDA voldoet niet helemaal aan die wettelijke vereiste, maar zou dat wel moeten?

AI-rechten geven is een lastig onderwerp. Terwijl AI kan dingen creëren en menselijk lijken, kunt u in een aantal gecompliceerde situaties terechtkomen als deze machines wettelijke bescherming hebben. Wettelijke rechten werken rond beloningen en straffen die geen invloed hebben op AI, wat de gerechtigheid bemoeilijkt.

Als een zelfrijdende auto een voetganger aanrijdt, is de AI dan schuldig als de wet hem als mens behandelt? En als dat zo is, geeft het het slachtoffer geen recht, omdat je AI technisch niet op dezelfde manier kunt straffen als een mens.

Een andere vraag die bij LaMDA en vergelijkbare AI-chatbots opkomt, is hun beveiliging. Als deze bots overtuigend echt lijken, kunnen mensen ze meer vertrouwen en bereid zijn ze te geven meer gevoelige informatie. Dat opent de deur naar een hoop privacy- en beveiligingsproblemen als deze technologie in verkeerde handen valt.

AI introduceert ingewikkelde ethische vragen

AI's zoals LaMDA worden steeds geavanceerder en levensechter. Naarmate deze trend groeit, moeten bedrijven en wetgevers opnieuw evalueren hoe ze AI behandelen en hoe deze beslissingen van invloed kunnen zijn op justitie en veiligheid.

Zoals het er nu uitziet, is de LaMDA AI van Google misschien niet bewust, maar het is goed genoeg om mensen te laten denken van wel, wat alarm zou moeten slaan.