Hoe een AI werkt. Hoe bouw je zelf een AI?

24 maart 2025

Kunstmatige intelligentie (AI) is uitgegroeid tot een van de bepalende technologische ontwikkelingen van de 21e eeuw. Van taalmodellen zoals ChatGPT tot beeldherkenning, autonome voertuigen en voorspellende analyses, AI hervormt industrieën en transformeert de menselijke interactie met technologie. Maar het proces van het creëren van AI is complex en omvat meerdere ontwikkelingsfasen, die elk gespecialiseerde kennis en middelen vereisen.

De reis van AI-creatie begint met theoretische grondslagen en wiskundige modellen, gevolgd door gegevensverzameling en -voorbereiding, modelontwerp en algoritmetraining. Zodra een AI-model is getraind, moet het worden geëvalueerd, getest en geoptimaliseerd voordat het klaar is voor implementatie. Zelfs na implementatie hebben AI-systemen voortdurende monitoring en updates nodig om de prestaties te behouden en problemen zoals gegevensdrift en bias te voorkomen.


Theoretische grondslagen van AI

Vroege AI-concepten en definities

Het idee van kunstmatige intelligentie ontstond lang voor het moderne computertijdperk. Oude mythen en mechanische automaten weerspiegelden een menselijke fascinatie voor het creëren van kunstmatig leven. AI als wetenschappelijke discipline begon echter vorm te krijgen in de 20e eeuw.

Alan Turing’s paper uit 1950, Computing Machinery and Intelligence, wordt algemeen beschouwd als de basis van de AI-theorie (Turing). Turing stelde het idee voor dat een machine menselijke intelligentie zou kunnen simuleren als het een gesprek zou kunnen voeren dat niet te onderscheiden is van dat van een mens – een test die nu bekend staat als de Turing Test.

Het vakgebied AI ontstond formeel op de Dartmouth Conference in 1956, waar John McCarthy, Marvin Minsky, Nathaniel Rochester en Claude Shannon de term “kunstmatige intelligentie” bedachten en het vestigden als een afzonderlijk onderzoeksgebied (The History of Artificial Intelligence, McCorduck). Vroeg AI-onderzoek richtte zich op symbolisch redeneren – op regels gebaseerde systemen die probeerden logisch denken te simuleren.

Symbolische AI vs. Connectionistische AI

AI-ontwikkeling volgde aanvankelijk twee belangrijke benaderingen:

  1. Symbolische AI – Ook bekend als Good Old-Fashioned Artificial Intelligence (GOFAI), deze benadering omvatte het weergeven van kennis met behulp van symbolen en logische regels. Expertsystemen werden gebouwd op dit model in de jaren 1970 en 1980 (Artificial Intelligence: A Modern Approach, Russell en Norvig).
  2. Connectionistische AI – Geïnspireerd door de structuur van het menselijk brein, omvat deze benadering kunstmatige neurale netwerken. In plaats van regels leren deze netwerken patronen en relaties uit gegevens. Connectionistische AI legde de basis voor moderne deep learning modellen.

Symbolische AI worstelde met complexiteit en dubbelzinnigheid, wat leidde tot de opkomst van connectionistische AI in de jaren 1990 en 2000 naarmate de rekenkracht en gegevensbeschikbaarheid toenamen.

De opkomst van neurale netwerken

Kunstmatige neurale netwerken (ANN’s) zijn wiskundige modellen die zijn geïnspireerd door de structuur van biologische neuronen. Een neuraal netwerk bestaat uit:

  • Inputlaag – Waar onbewerkte gegevens het model binnenkomen.
  • Verborgen lagen – Waar de gegevens worden verwerkt via gewogen verbindingen en activatiefuncties.
  • Outputlaag – Waar het model voorspellingen of beslissingen genereert.

Het trainen van een neuraal netwerk omvat het aanpassen van de verbindingsgewichten via een proces dat backpropagation wordt genoemd – het berekenen van de fout van de voorspelling van het model en het aanpassen van de gewichten om deze fout te minimaliseren (Learning Representations by Back-Propagating Errors, Rumelhart et al.).

Deep learning, een subset van neurale netwerken met meerdere verborgen lagen, heeft de ontwikkeling mogelijk gemaakt van krachtige AI-modellen die complexe taken zoals natuurlijke taalverwerking en beeldherkenning aankunnen (Deep Learning, Goodfellow et al.).


Gegevens: De basis van AI

Gegevensverzameling

AI-modellen hebben enorme datasets nodig om effectief te trainen. De kwaliteit, diversiteit en omvang van de dataset hebben een directe invloed op de modelprestaties. Gegevensbronnen zijn onder meer:

  • Gestructureerde gegevens – Databases, spreadsheets en financiële gegevens.
  • Ongestructureerde gegevens – Tekst, audio, afbeeldingen en video.
  • Synthetische gegevens – Kunstmatig gegenereerde gegevens die worden gebruikt om trainingssets aan te vullen.

Taalmodellen zoals GPT-4 zijn getraind op honderden miljarden tokens uit boeken, artikelen en websites (Language Models are Few-Shot Learners, Brown et al.). Beeldherkenningsmodellen zoals ImageNet vertrouwen op miljoenen gelabelde afbeeldingen voor training (ImageNet Classification with Deep Convolutional Neural Networks, Krizhevsky et al.).

Gegevens opschonen en voorbewerken

Onbewerkte gegevens zijn zelden geschikt voor onmiddellijk gebruik. Gegevens moeten worden opgeschoond en verwerkt om consistentie en nauwkeurigheid te garanderen. Dit omvat:

  • Dubbele en irrelevante gegevens verwijderen
  • Fouten en inconsistenties corrigeren
  • Gegevensindelingen standaardiseren
  • Uitschieters en ruis verwijderen

Voor taalmodellen omvat voorbewerken tokenisatie (tekst opdelen in kleinere eenheden), lemmatisatie (woorden terugbrengen tot hun stamvormen) en vectorisatie (tekst omzetten in numerieke gegevens) (Natural Language Processing with Python, Bird et al.).

Gegevenslabeling

Supervised learning vereist gelabelde gegevens – gegevens die zowel invoer- als uitvoerwaarden bevatten. Beeldherkennings-AI heeft bijvoorbeeld gelabelde afbeeldingen (“hond”, “kat”) nodig om patronen te leren.

Gegevenslabeling kan handmatig of via geautomatiseerde methoden worden uitgevoerd. Door mensen gelabelde gegevens zijn nauwkeuriger, maar tijdrovend en duur (Semi-Supervised Learning, Zhu).

Gegevensaugmentatie

Gegevensaugmentatie vergroot de omvang en diversiteit van een dataset zonder nieuwe gegevens te verzamelen. Bijvoorbeeld:

  • Afbeeldingen spiegelen, roteren en bijsnijden om variaties te genereren.
  • Woorden vervangen of ruis toevoegen aan tekstdatasets.

Augmentatie helpt modellen beter te generaliseren naar nieuwe gegevens (Understanding Machine Learning, Shalev-Shwartz en Ben-David).


Modelontwerp en architectuur

Het modeltype kiezen

AI-modellen zijn ontworpen op basis van de taak en het type gegevens:

  • Supervised learning – Het model is getraind op gelabelde gegevens om resultaten te voorspellen (bijv. spamdetectie).
  • Unsupervised learning – Het model identificeert patronen in ongelabelde gegevens (bijv. klantsegmentatie).
  • Reinforcement learning – Het model leert door vallen en opstaan en ontvangt beloningen of straffen (bijv. game-spelende AI’s).

Neurale netwerkarchitecturen

  1. Convolutionele Neurale Netwerken (CNN’s) – Ontworpen voor beeld- en videoverwerking (ImageNet Classification with Deep Convolutional Neural Networks, Krizhevsky et al.).
  2. Recurrente Neurale Netwerken (RNN’s) – Effectief voor sequentiële gegevens zoals taal en tijdreeksen (Long Short-Term Memory, Hochreiter en Schmidhuber).
  3. Transformer Modellen – De basis van moderne taalmodellen (Attention Is All You Need, Vaswani et al.).

Transfer learning

Transfer learning omvat het trainen van een model op een grote dataset en het finetunen ervan voor een specifieke taak. GPT- en BERT-modellen zijn gebaseerd op transfer learning (BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, Devlin et al.).


Training van de AI

Voorwaartse en achterwaartse propagatie

Het trainen van een neuraal netwerk omvat twee belangrijke processen:

  1. Voorwaartse propagatie – De invoer wordt door het netwerk verwerkt om voorspellingen te genereren.
  2. Achterwaartse propagatie – Het verlies (fout) wordt berekend en achterwaarts gepropageerd om de gewichten aan te passen.

Verliesfunctie en optimalisatie

Verliesfuncties meten het verschil tussen de voorspelling van het model en het werkelijke resultaat:

  • Gemiddelde Kwadratische Fout (MSE) – Voor regressietaken.
  • Cross-entropie verlies – Voor classificatietaken.

Optimalisatiealgoritmen zoals Adam en stochastische gradiëntafdaling (SGD) worden gebruikt om de netwerkgewichten aan te passen (Adam: A Method for Stochastic Optimization, Kingma en Ba).


Evaluatie en testen

Zodra de training is voltooid, wordt het model getest met behulp van ongeziene gegevens. Metrieken omvatten:

  • Nauwkeurigheid – Percentage correcte voorspellingen.
  • Precisie – Ware positieven gedeeld door voorspelde positieven.
  • Recall – Ware positieven gedeeld door werkelijke positieven.
  • F1-score – Harmonisch gemiddelde van precisie en recall.

Implementatie en onderhoud

Modelcompressie

Grote modellen worden gecomprimeerd met behulp van:

  • Snoeien – Verbindingen met een lage impact verwijderen.
  • Kwantisatie – Numerieke precisie verminderen.
  • Kennisdestillatie – Een kleiner model trainen met behulp van de outputs van een groter model (Distilling the Knowledge in a Neural Network, Hinton et al.).

Ethische en regelgevende uitdagingen

AI-ontwikkeling roept aanzienlijke ethische zorgen op:

  • Bias – Bevooroordeelde trainingsgegevens leiden tot bevooroordeelde modellen.
  • Privacy – Grote taalmodellen kunnen gevoelige gegevens onthouden.
  • Verantwoordelijkheid – Verantwoordelijkheid bepalen voor AI-beslissingen.

Er ontstaan regelgevende kaders om deze problemen aan te pakken (The Ethics of Artificial Intelligence, Bostrom en Yudkowsky).


Hoe je zelf een eenvoudige AI bouwt

Het bouwen van een klein AI-model thuis kan verrassend eenvoudig zijn als je je richt op de kernconcepten in plaats van de technische details. Stel je voor dat je een kind leert verschillende soorten fruit te herkennen – deze eenvoudige analogie weerspiegelt het proces van het trainen van een basis-AI.

Stap 1: Definieer het doel

Bepaal eerst wat je AI moet doen. Stel dat je een systeem wilt maken dat de stemming van een persoon kan voorspellen op basis van het weer. Het doel is duidelijk: gegeven weergegevens (temperatuur, regen, zonneschijn), moet de AI voorspellen of iemand zich waarschijnlijk gelukkig of verdrietig voelt.

Stap 2: Verzamel gegevens

Net als bij het lesgeven aan een kind, heeft je AI voorbeelden nodig om van te leren. Stel je voor dat je een lijst met observaties opschrijft:

  • Zonnig, warmGelukkig
  • Regenachtig, koudVerdrietig
  • Bewolkt, koelNeutraal

Hoe meer voorbeelden je geeft, hoe beter de AI zal leren.

Stap 3: Identificeer patronen

In eenvoudige bewoordingen is je AI als een student die leert welke weerpatronen tot bepaalde stemmingen leiden. Het zal op zoek gaan naar aanwijzingen – warmte en zonneschijn hebben bijvoorbeeld een sterkere connectie met geluk. Dit is vergelijkbaar met hoe je zou kunnen merken dat mensen vaker glimlachen op zonnige dagen.

Stap 4: Bouw een eenvoudig ‘brein’

In plaats van deze patronen handmatig uit te leggen, kan je AI ze zelf leren met behulp van een basis neuraal netwerk. Stel je een netwerk van verbonden schakelaars voor. Elke schakelaar past zich enigszins aan op basis van de gegevens die hij ziet – schakelt gemakkelijker ‘aan’ of ‘uit’, afhankelijk van de patronen die hij identificeert.

In het begin zijn deze schakelaars willekeurig. Maar met elk voorbeeld (zonnig = gelukkig, regenachtig = verdrietig) past het netwerk de schakelaars aan om zijn voorspellingen te verbeteren. Dit proces wordt training genoemd.

Stap 5: Corrigeer fouten

Je AI zal niet alles in het begin goed doen – net als een kind dat wiskunde leert. Elke keer dat de AI onjuist voorspelt (bijv. “bewolkt” = “gelukkig” wanneer het juiste antwoord “neutraal” is), past hij zijn schakelaars aan om te verbeteren. Na verloop van tijd stapelen deze kleine correcties zich op, waardoor de AI nauwkeuriger wordt.

Stap 6: Test je AI

Zodra je AI genoeg voorbeelden heeft gezien, kun je hem vragen om nieuwe resultaten te voorspellen. Bijvoorbeeld:

  • Zonnig, koel → De AI zou “gelukkig” kunnen voorspellen.
  • Regenachtig, mild → De AI zou “neutraal” kunnen voorspellen.

Als de AI dingen fout heeft, kun je hem meer gegevens geven of het leerproces aanpassen.

Stap 7: Verbeter en breid uit

Als je AI goed presteert, kun je hem uitbreiden door meer gegevens toe te voegen (bijv. windsnelheid, tijd van het jaar) of zijn ‘brein’ te verfijnen om complexere patronen te herkennen.

Stel je het voor als het bakken van een cake

Denk aan AI-training als het bakken van een cake:

  1. Ingrediënten = Je gegevens.
  2. Recept = De structuur van het AI-model.
  3. Mixen en Bakken = Het trainingsproces.
  4. Proeven = Het testen van de AI op nieuwe gegevens.
  5. Het Recept Aanpassen = De AI verbeteren als deze slecht presteert.

Zelfs met eenvoudige hulpmiddelen kun je iets verrassend effectiefs maken – net als het bakken van een geweldige cake zonder professionele chef te zijn.

Dit vereenvoudigde proces geeft je een idee van hoe AI-modellen worden getraind en verbeterd, en laat zien dat iedereen met nieuwsgierigheid en geduld kan experimenteren met basis-AI.

Conclusie

Het creëren van AI is een complex proces dat theorie, gegevens, berekeningen en continue monitoring omvat. Naarmate AI-modellen in capaciteit groeien, zal de uitdaging om eerlijkheid, privacy en verantwoordelijkheid te waarborgen de toekomst van AI-ontwikkeling bepalen.

2025 Rexje.. Alle rechten voorbehouden.
X