Generatieve AI is geweldig, maar presenteert zijn informatie altijd met absolute autoriteit. Wat geweldig is, tenzij het de waarheid hallucineert.

Kunstmatige intelligentie (AI) hallucinatie klinkt verwarrend. Je denkt waarschijnlijk: "Is hallucinatie geen menselijk fenomeen?" Nou ja, vroeger was het een uitsluitend mens fenomeen totdat AI menselijke kenmerken begon te vertonen, zoals gezichtsherkenning, zelflerend vermogen en spraak herkenning.

Helaas kreeg AI enkele negatieve eigenschappen, waaronder hallucinaties. Dus, is AI-hallucinatie vergelijkbaar met het soort hallucinatie dat mensen ervaren?

Wat is AI-hallucinatie?

Kunstmatige intelligentie-hallucinatie treedt op wanneer een AI-model output genereert die afwijkt van wat wordt verwacht. Houd er rekening mee dat sommige AI-modellen zijn getraind om opzettelijk uitvoer te genereren die geen verband houdt met invoer uit de echte wereld (gegevens).

Bijvoorbeeld, top AI tekst-naar-kunst generatoren, zoals DALL-E 2, kunnen op creatieve wijze nieuwe beelden genereren die we kunnen bestempelen als "hallucinaties", aangezien ze niet zijn gebaseerd op gegevens uit de echte wereld.

AI-hallucinatie in grote taalverwerkingsmodellen

Laten we eens kijken hoe AI-hallucinatie eruit zou zien in een groot taalverwerkingsmodel zoals ChatGPT. Een ChatGPT-hallucinatie zou ertoe leiden dat de bot u een onjuist feit geeft met enige bewering, zodat u dergelijke feiten natuurlijk als waarheid zou beschouwen.

Simpel gezegd zijn het verzonnen uitspraken van de kunstmatig intelligente chatbot. Hier is een voorbeeld:

Bij nader onderzoek kwam ChatGPT met dit:

AI-hallucinatie in computervisie

Laten we eens kijken naar een ander gebied van AI dat AI-hallucinatie kan ervaren: Computer visie. De onderstaande quiz toont een 4x4-montage met twee entiteiten die zoveel op elkaar lijken. De afbeeldingen zijn een mix van BBQ-chips en bladeren.

De uitdaging is om de chips te selecteren zonder bladeren in de montage te raken. Deze afbeelding ziet er misschien lastig uit voor een computer en kan mogelijk geen onderscheid maken tussen de BBQ-aardappelchips en bladeren.

Hier is nog een montage met een mix van afbeeldingen van poedel- en varkenszijdebroodjes. Een computer zou hoogstwaarschijnlijk geen onderscheid tussen deze twee kunnen maken, waardoor de afbeeldingen worden gemengd.

Waarom treedt AI-hallucinatie op?

AI-hallucinatie kan optreden als gevolg van tegenstrijdige voorbeelden: invoergegevens die een AI-toepassing misleiden om ze verkeerd te classificeren. Bij het trainen van AI-toepassingen gebruiken ontwikkelaars bijvoorbeeld gegevens (afbeelding, tekst of andere); als de gegevens zijn gewijzigd of vervormd, interpreteert de toepassing de invoer anders en geeft een verkeerde uitvoer.

Een mens daarentegen kan de gegevens ondanks de vervormingen nog steeds nauwkeurig herkennen en identificeren. We kunnen dit bestempelen als gezond verstand - een menselijke eigenschap die AI nog niet bezit. Bekijk hoe AI voor de gek wordt gehouden met vijandige voorbeelden in deze video:

Met betrekking tot grote op taal gebaseerde modellen zoals ChatGPT en zijn alternatieven, kunnen hallucinaties ontstaan ​​door onnauwkeurige decodering van de transformator (machine learning-model).

In AI is een transformator een model voor diep leren dat gebruik maakt van zelfaandacht (semantische relaties tussen woorden in een zin) om tekst te produceren die lijkt op wat een mens zou schrijven met behulp van een encoder-decoder (input-output) reeks.

Transformers, een model voor machinaal leren met semi-supervisie, kunnen dus een nieuw stuk tekst (output) genereren uit het grote corpus aan tekstgegevens dat wordt gebruikt bij de training (input). Het doet dit door het volgende woord in een reeks te voorspellen op basis van de vorige woorden.

Wat betreft hallucinatie: als een taalmodel is getraind op onvoldoende en onnauwkeurige gegevens en middelen, wordt verwacht dat de output verzonnen en onnauwkeurig zal zijn. Het taalmodel kan een verhaal of verhaal genereren zonder logische inconsistenties of onduidelijke verbanden.

In het onderstaande voorbeeld werd ChatGPT gevraagd om een ​​woord op te geven dat lijkt op 'revolt' en begint met een 'b'. Hier is zijn reactie:

Bij verder onderzoek bleef het verkeerde antwoorden geven, met een hoog niveau van vertrouwen.

Dus waarom kan ChatGPT geen nauwkeurig antwoord geven op deze prompts?

Het kan zijn dat het taalmodel niet is toegerust om vrij complexe prompts zoals deze aan te kunnen kan de prompt niet nauwkeurig interpreteren en negeert de prompt bij het geven van een soortgelijk woord met een specifiek alfabet.

Hoe herken je AI-hallucinatie?

Het is nu duidelijk dat AI-toepassingen het potentieel hebben om te hallucineren – reacties genereren op een andere manier dan de verwachte output (feit of waarheid) zonder enige kwaadaardige bedoelingen. En het spotten en herkennen van AI-hallucinaties is aan de gebruikers van dergelijke applicaties.

Hier zijn enkele manieren om AI-hallucinaties te herkennen tijdens het gebruik van veelgebruikte AI-toepassingen:

1. Grote taalverwerkingsmodellen

Hoewel zeldzaam, als u een grammaticale fout opmerkt in de inhoud die wordt geproduceerd door een groot verwerkingsmodel, zoals ChatGPT, zou dat een wenkbrauw moeten doen fronsen en u een hallucinatie doen vermoeden. Evenzo, wanneer door tekst gegenereerde inhoud niet logisch klinkt, correleert met de gegeven context of overeenkomt met de invoergegevens, zou u een hallucinatie moeten vermoeden.

Het gebruik van menselijk oordeel of gezond verstand kan hallucinaties helpen opsporen, aangezien mensen gemakkelijk kunnen vaststellen wanneer een tekst niet klopt of de werkelijkheid niet volgt.

2. Computer visie

Als een tak van kunstmatige intelligentie, machine learning en informatica stelt computervisie computers in staat om beelden zoals menselijke ogen te herkennen en te verwerken. Gebruik makend van convolutionele neurale netwerken, vertrouwen ze op de ongelooflijke hoeveelheid visuele gegevens die in hun training worden gebruikt.

Een afwijking van de patronen van de visuele gegevens die bij training worden gebruikt, zal hallucinaties tot gevolg hebben. Als een computer bijvoorbeeld niet is getraind met afbeeldingen van een tennisbal, kan deze deze identificeren als een groenoranje. Of als een computer een paard naast een menselijk standbeeld herkent als een paard naast een echte mens, dan is er sprake van een AI-hallucinatie.

Dus om een ​​computervisie-hallucinatie te herkennen, vergelijk de gegenereerde uitvoer met wat een [normaal] mens wordt verwacht te zien.

3. Zelfrijdende auto's

Afbeelding tegoed: doorwaadbare plaats

Dankzij AI infiltreren zelfrijdende auto's stilaan in de automarkt. Pioniers zoals Tesla Autopilot en Ford's BlueCruise zijn voorstanders van zelfrijdende auto's. U kunt uitchecken hoe en wat de Tesla Autopilot ziet om een ​​beetje inzicht te krijgen in hoe AI zelfrijdende auto's aandrijft.

Als u een van dergelijke auto's bezit, zou u willen weten of uw AI-auto hallucineert. Een teken is dat uw voertuig tijdens het rijden lijkt af te wijken van zijn normale gedragspatronen. Als het voertuig bijvoorbeeld plotseling zonder duidelijke reden remt of uitwijkt, kan uw AI-voertuig hallucineren.

AI-systemen kunnen ook hallucineren

Mensen en AI-modellen ervaren hallucinaties anders. Als het op AI aankomt, verwijzen hallucinaties naar foutieve uitvoer die mijlenver verwijderd is van de werkelijkheid of die niet klopt binnen de context van de gegeven prompt. Een AI-chatbot kan bijvoorbeeld een grammaticaal of logisch onjuist antwoord geven of een object verkeerd identificeren vanwege ruis of andere structurele factoren.

AI-hallucinaties komen niet voort uit een bewuste of onderbewuste geest, zoals je bij mensen zou waarnemen. Het is eerder het gevolg van ontoereikendheid of ontoereikendheid van de gegevens die worden gebruikt bij het trainen en programmeren van het AI-systeem.