De Tay AI van Microsoft veranderde in minder dan een dag van een veelbelovende AI in een totale catastrofe. Dit is wat het bedrijf heeft geleerd.
AI-chatbots zoals ChatGPT worden steeds meer een integraal onderdeel van moderne technologie, maar voor velen onbekend, was generatieve AI niet altijd zo goed als nu. In 2016 liet de door Microsoft gemaakte chatbot Tay ons zelfs zien hoe snel AI averechts kan werken.
Laten we eens kijken wat de AI-chatbot Tay van Microsoft was, waarom deze faalde, de controverses en de lessen die het bedrijf leerde na de rampzalige mislukking.
Wat was de Tay van Microsoft?
Tay was een AI-chatbot ontwikkeld door Microsoft en beschikbaar gesteld via Twitter op 23 maart 2016. De chatbot is ontwikkeld voor 18- tot 24-jarigen in de VS voor "amusementsdoeleinden" en om "te experimenteren met en onderzoek te doen naar gespreksbegrip".
Tay was niet bedoeld als een geavanceerde chatbot zoals ChatGPT, maar als een vriendelijke AI-bot op Twitter waarmee je gesprekken kon voeren, een beetje zoals Mijn AI op Snapchat, maar voor gezelligheid.
Waarom heeft Microsoft Tay afgesloten?
Microsoft heeft Tay binnen 24 uur na de livegang offline gehaald, en dat had een goede reden. Vrijwel onmiddellijk nadat Tay was geïntroduceerd, begonnen Twitter-gebruikers de service te misbruiken door de chatbot te voeden desinformatie, het leren van denigrerende termen en het ertoe aanzetten om steeds aanstootgevender te zijn, alleen maar om te zien hoe ver het gaat zou gaan.
En ver ging het inderdaad. Binnen enkele uren na de lancering tweette Tay enkele van de meest aanstootgevende racistische beledigingen, verspreidde hij haatdragende taal, promootte hij het nazisme en inspireerde hij zelfs een 'rassenoorlog'. Jakkes! Het was duidelijk dat Microsoft een verschrikkelijke tijd had en de service niet had kunnen laten doorgaan.
In een post op de officiële Microsoft-blogherhaalde Peter Lee, Corporate Vice President van Microsoft, hetzelfde:
Het spijt ons ten zeerste voor de onbedoelde aanstootgevende en kwetsende tweets van Tay, die niet weergeven wie we zijn of waar we voor staan, noch hoe we Tay hebben ontworpen. Tay is nu offline en we zullen Tay alleen proberen terug te halen als we er zeker van zijn dat we beter kunnen anticiperen op kwaadaardige bedoelingen die in strijd zijn met onze principes en waarden.
Het Tay-debacle is slechts een van de vele gevaren van kunstmatige intelligentie en een sterke herinnering aan waarom de ontwikkeling ervan met de grootste voorzichtigheid en toezicht moet gebeuren.
6 lessen die Microsoft heeft geleerd na Tay
Tay was een complete ramp, maar het leerde Microsoft ook enkele cruciale lessen als het ging om de ontwikkeling van AI-tools. En voor wat het waard is, het is waarschijnlijk een goede zaak dat Microsoft zijn lessen vroeg of laat heeft geleerd, waardoor het een voorsprong op Google kon krijgen en de nieuwe AI-aangedreven Bing-browser.
Hier zijn enkele van die lessen:
1. Het internet staat vol met trollen
Het internet staat vol met trollen, en dat is niet bepaald nieuws, toch? Blijkbaar was het zo voor Microsoft in 2016. We zeggen niet dat het bouwen van een chatbot voor 'entertainmentdoeleinden' gericht op 18- tot 24-jarigen iets te maken had met de snelheid waarmee de service werd misbruikt. Toch was het ook zeker niet het slimste idee.
Mensen willen natuurlijk de grenzen van nieuwe technologieën testen, en het is uiteindelijk de taak van de ontwikkelaar om rekening te houden met deze kwaadaardige aanvallen. In zekere zin fungeren interne trollen als een feedbackmechanisme voor kwaliteitsborging, maar dat wil niet zeggen dat een chatbot moet worden losgelaten zonder dat er voor de lancering de juiste voorzorgsmaatregelen zijn genomen.
2. AI kan niet intuïtief onderscheid maken tussen goed en slecht
Het concept van goed en kwaad is iets dat AI niet intuïtief begrijpt. Het moet worden geprogrammeerd om de kennis te simuleren van wat goed en fout is, wat moreel en immoreel is, en wat normaal en eigenaardig is.
Deze eigenschappen zijn min of meer vanzelfsprekend voor mensen als sociale wezens, maar AI kan geen onafhankelijke oordelen vormen, empathie voelen of pijn ervaren. Dit is de reden waarom, toen Twitter-gebruikers Tay allerlei soorten propaganda voerden, de bot gewoon meeging - zich niet bewust van de ethiek van de informatie die hij verzamelde.
3. Train AI-modellen niet met behulp van gesprekken van mensen
Tay is gemaakt door "relevante openbare gegevens te ontginnen en AI en redactionele artikelen te gebruiken die zijn ontwikkeld door een staf, waaronder improviserende komieken." Een AI-model trainen met behulp van gesprekken van mensen op internet is verschrikkelijk idee.
En voordat je dit op Twitter de schuld geeft, weet dat het resultaat waarschijnlijk hetzelfde zou zijn geweest, ongeacht het platform. Waarom? Omdat mensen gewoon niet hun beste zelf zijn op internet. Ze worden emotioneel, gebruiken straattaal en gebruiken hun anonimiteit om kwaadaardig te zijn.
4. AI mist gezond verstand en wordt niet sarcasme
AI lijkt tegenwoordig intuïtiever (of, om het nauwkeuriger te zeggen, is beter in het simuleren van intuïtie), maar worstelt soms nog steeds met het herkennen van sarcasme en stijlfiguren. Dat gold in 2016 nog meer. Wat voor mensen vanzelfsprekend is, is dat niet voor AI; met andere woorden, het ontbreekt aan gezond verstand.
AI's zoals Tay begrijpen niet waarom mensen zijn zoals we zijn, handelen zoals we doen, en de excentriciteiten van elk individu. Het mag zich verrassend menselijk gedragen en klinken, maar goede programmering kan maar zo ver gaan.
5. AI moet worden geprogrammeerd om ongeldige verzoeken af te wijzen
AI is zeer beïnvloedbaar en moet worden geprogrammeerd om verzoeken af te wijzen die schade bevorderen. Zelfs vandaag, na al onze vorderingen in natuurlijke taalverwerking, vinden mensen nog steeds taalkundige mazen in de wet laat AI-chatbots zoals ChatGPT "hallucineren" en resultaten leveren die bedoeld waren om te worden beperkt.
Het punt hier is dat kunstmatige intelligentie perfect gehoorzaam is, wat misschien wel de grootste kracht en zwakte is. Alles wat je niet wilt dat een chatbot doet, moet er handmatig in worden geprogrammeerd.
6. AI-chatbots mogen nooit zonder toezicht worden achtergelaten
Totdat AI zichzelf kan reguleren, kan het niet zonder toezicht worden gelaten. Je kunt de AI van vandaag zien als een wonderkind; het is in sommige opzichten briljant, maar het is toch nog een kind. Als het onbeheerd wordt achtergelaten, zullen mensen zijn zwakke punten uitbuiten - en Tay was daar een goed voorbeeld van.
AI is een hulpmiddel, net als internet, maar de snelheid en schaal waarop dingen averechts kunnen werken met AI is veel groter dan wat we in de begindagen van internet hebben meegemaakt.
AI heeft voortdurend toezicht en regulering nodig
Tay is niet de enige chatbot die schurkenstaten is geworden - er zijn veel andere soortgelijke gevallen geweest. Maar wat het opviel, is de enorme snelheid waarmee het gebeurde - en het feit dat het werd gemaakt door een technologiegigant zoals Microsoft.
Voorbeelden als deze laten zien hoe voorzichtig we moeten zijn bij het ontwikkelen van AI-tools, vooral als ze bedoeld zijn voor gebruik door gewone mensen.