Generatieve AI-chatbots staan ​​nog maar aan het begin van hun reis, maar we overwegen al wat de toekomst biedt.

Belangrijkste leerpunten

  • Het succes van ChatGPT heeft geleid tot wijdverbreide investeringen in AI-onderzoek en -integratie, wat heeft geleid tot ongekende kansen en vooruitgang in het veld.
  • Semantisch zoeken met vectordatabases zorgt voor een revolutie in zoekalgoritmen door gebruik te maken van woordinbedding en semantiek om contextueel nauwkeurigere resultaten te verkrijgen.
  • De ontwikkeling van AI-agents en multi-agent startups heeft tot doel volledige autonomie te bereiken en de huidige beperkingen op te lossen door middel van zelfevaluatie, correctie en samenwerking tussen meerdere agenten.

Het fenomenale succes van ChatGPT heeft elk technologiebedrijf gedwongen te gaan investeren in AI-onderzoek en uit te zoeken hoe ze kunstmatige intelligentie in hun producten kunnen integreren. Het is een situatie die anders is dan alles wat we ooit hebben gezien, maar kunstmatige intelligentie is nog maar net begonnen.

Maar het gaat niet alleen om fraaie AI-chatbots en tekst-naar-afbeelding-generatoren. Er zijn een aantal zeer speculatieve maar ongelooflijk indrukwekkende AI-tools aan de horizon.

Semantisch zoeken met vectordatabases

Beeldcredits: Firmbee.com/Ontsplashen

Semantische zoekopdrachten worden getest om betere zoekresultaten voor mensen te bieden. Zoekmachines gebruiken momenteel trefwoordgerichte algoritmen om gebruikers relevante informatie te bieden. Een overmatig vertrouwen op trefwoorden brengt echter verschillende problemen met zich mee, zoals een beperkt begrip van de context, marketeers die SEO exploiteren en zoekresultaten van lage kwaliteit vanwege de moeilijkheid om complexe vragen uit te drukken.

In tegenstelling tot traditionele zoekalgoritmen maakt semantisch zoeken gebruik van woordinsluitingen en semantische mapping om de context van een zoekopdracht te begrijpen voordat zoekresultaten worden weergegeven. Dus in plaats van te vertrouwen op een aantal trefwoorden, biedt semantisch zoeken resultaten op basis van semantiek of de betekenis van een bepaalde zoekopdracht.

Het concept van semantisch zoeken bestaat al geruime tijd. Bedrijven hebben echter moeite met het implementeren van dergelijke functionaliteit, omdat semantisch zoeken traag en arbeidsintensief kan zijn.

De oplossing is om vectorinbedding in kaart te brengen en deze in een grote map op te slaan vectordatabase. Hierdoor wordt de benodigde rekenkracht aanzienlijk verlaagd en worden de zoekresultaten versneld door de resultaten te beperken tot alleen de meest relevante informatie.

Grote technologiebedrijven en startups zoals Pinecone, Redis en Milvus investeren momenteel in vectordatabases semantische zoekmogelijkheden bieden op aanbevelingssystemen, zoekmachines, contentmanagementsystemen, en chatbots.

Democratisering van AI

Hoewel dit niet noodzakelijkerwijs een technische vooruitgang is, zijn verschillende grote technologiebedrijven geïnteresseerd in het democratiseren van AI. In voor-en tegenspoed, open-source AI-modellen worden nu getraind en er zijn meer tolerante licenties gegeven die organisaties kunnen gebruiken en verfijnen.

Dat meldt de Wall Street Journal dat Meta Nvidia H100 AI-versnellers koopt en een AI wil ontwikkelen die concurreert met het recente GPT-4-model van OpenAI.

Er is momenteel geen publiekelijk beschikbare LLM die de ruwe prestaties van GPT-4 kan evenaren. Maar nu Meta een concurrerend product belooft met een meer tolerante licentie, kunnen bedrijven dat eindelijk doen verfijn een krachtige LLM zonder het risico dat bedrijfsgeheimen en gevoelige gegevens openbaar worden gemaakt en gebruikt tegen hun.

AI-agenten en startups met meerdere agenten

Beeldcredits: Annie Spratt/Ontsplashen

Er zijn momenteel verschillende experimentele projecten in de maak voor het ontwikkelen van AI-agenten die weinig tot geen instructies nodig hebben om een ​​bepaald doel te bereiken. Misschien herinner je je de concepten van AI-agenten van Auto-GPT, de AI-tool die zijn acties automatiseert.

Het idee is dat de agent volledige autonomie bereikt door voortdurende zelfevaluatie en zelfcorrectie. Het werkconcept om zelfreflectie en correctie te bereiken is dat de agent zichzelf voortdurend bij elke stap aanzet van de manier waarop er actie moet worden ondernomen, de stappen om dat te doen, welke fouten het heeft gemaakt en wat het kan doen om verbeteren.

Het probleem is dat de huidige modellen die in AI-agenten worden gebruikt, weinig semantisch inzicht hebben. Dat zorgt ervoor dat de agenten gaan hallucineren en valse informatie geven, waardoor ze vast komen te zitten in een oneindige lus van zelfevaluatie en correctie.

Projecten zoals het MetaGPT Multi-agent Framework hebben tot doel het probleem op te lossen door gelijktijdig verschillende AI-agenten te gebruiken om dergelijke hallucinaties te verminderen. Er zijn multi-agent-frameworks opgezet om te emuleren hoe een startend bedrijf zou werken. Elke agent in deze startup krijgt functies toegewezen zoals projectmanager, projectontwerper, programmeur en tester. Door complexe doelen op te splitsen in kleinere taken en deze te delegeren aan verschillende AI-agenten, is de kans groter dat deze agenten hun gestelde doelen bereiken.

Uiteraard bevinden deze raamwerken zich nog in een zeer vroeg stadium van ontwikkeling en moeten er nog veel problemen worden opgelost. Maar met krachtigere modellen, een betere AI-infrastructuur en voortdurend onderzoek en ontwikkeling is het slechts een kwestie van tijd voordat effectieve AI-agenten en multi-agent AI-bedrijven werkelijkheid worden.

Onze toekomst vormgeven met AI

Grote bedrijven en startups investeren zwaar in onderzoek en ontwikkeling van AI en de bijbehorende infrastructuur. We kunnen dus verwachten dat de toekomst van generatieve AI betere toegang zal bieden tot nuttige informatie via semantisch zoeken autonome AI-agenten en AI-bedrijven, en vrij beschikbare, krachtige modellen die bedrijven en individuen kunnen gebruiken en afstellen.

Hoewel spannend, is het ook belangrijk dat we de tijd nemen om na te denken over de ethiek van AI, de privacy van gebruikers en de verantwoorde ontwikkeling van AI-systemen en -infrastructuren. Laten we niet vergeten dat de evolutie van generatieve AI niet alleen gaat over het bouwen van slimmere systemen; het gaat ook over het hervormen van onze gedachten en het verantwoordelijk zijn voor de manier waarop we technologie gebruiken.