Les 1: Inleiding Artificiële Intelligentie (AI)
1. Inleiding en Cursusoverzicht
Deze cursus behandelt technologische, maatschappelijke en juridische uitdagingen van AI.
12 colleges, inclusief deze inleiding.
Evaluatie:
o Permanente evaluatie: korte meerkeuzetests na elke grote sectie.
o Gesloten-boek examen op de computer, bestaande uit meerkeuzevragen en één
open vraag.
2. Geschiedenis van Kunstmatige Intelligentie
AI heeft zich in verschillende fasen ontwikkeld:
1950: Turing-test
Alan Turing introduceerde het idee dat een machine intelligent is als een mens niet kan
onderscheiden of hij met een mens of een machine praat.
= computers ingezet na de oorlog, praktische oplossing om ENIGMA? Code te kraken
Dit werd de basis voor de vraag: kan een machine denken?
1956: Perceptron (Vroege neurale netwerken) (menselijke brein proberen na te maken
(kopie) in een machine (Rosenblad))
1 perceptron komt overeen met 1 hersencel
Het perceptron was een eenvoudig neuraal netwerk dat kon leren door gewichten aan te
passen.
Patronen herkennen:
o Eerste keer dat niet werd geprogrammeerd, algoritme zat in de machine
Probleem: beperkte rekenkracht en het onvermogen om complexe patronen te leren.
1960s: ELIZA (Vroege Chatbot)
ELIZA was een van de eerste AI-systemen die menselijke interactie simuleerde door op
tekst te reageren.
Maar het begreep geen betekenis, het volgde alleen patronen.
1970s: AI Winter (Minder belangstelling en investeringen)
speculatie om binnen 30 jaar automatische vertalers te kunnen maken niet waargemaakt
AI viel uit de gratie vanwege te hoge verwachtingen en beperkte rekenkracht.
Onderzoek en financiering namen sterk af.
1980s: Expert Systemen
AI maakte een comeback met regelgebaseerde
systemen zoals medische diagnose-
expertsystemen.
Deze systemen gebruikten regels zoals:
"Als de patiënt hoge koorts heeft en bacteriën in het
bloed, dan is er een kans van 70% op een bacteriële
infectie."
, Beperking: starre regels, geen zelflerend vermogen.
1990s: Machine Learning (Eerste echte doorbraak)
Verschillende soorten Machine Learning (ML):
o Supervised Learning: AI leert van gelabelde data.
proberen aan de hand van reeks voorbeelden voorspellingen te maken (bv
hele reeks afbeeldingen: sommige chiwawa en sommige afbeeldingen zijn
muffins
Hiervoor check nodig: welke afbeelding is hond en welke is muffin
Gelijkaardig aan wat Rosenblad voor ogen had
o Reinforcement Learning: AI leert door beloning en straf.
Vb
schaakproef Deep Blue (1997): verslagen door computer
Watson (2011): taal voldoende te begrijpen om juiste antw in quiz
te geven, databank watson wint Jeopardy
AlphaGo (2016): Go spel op bord van 19-19
o VB spelletje video over verschil supervides en reinforced learning: Spelletje pong
Eerste poging is Supervised learning bij pong: eerst rekenen, daar komt
programa uit, daar stopt het.
panel aan L :menselijke speler, panel aan de R is AI
Soms niet genoeg data om volledige spel van af te leiden reinforced
learning gebruiken
Algoritmes nodig voor machine learning: indicatie van hoe gezond personen zijn adhv
bepaalde karakteristieken
o Hele hoop voorbeelden nodig om te kunnen extraheren, gegevens voor elke
persoon nodig (denk aan lengte en gewicht label van maken gezond/ongezond)
Waarom werkte AI nu beter?
o Meer data beschikbaar.
o Sterkere rekenkracht (snellere computers).
3. Machine Learning: Hoe werkt het?
AI leert patronen herkennen in grote datasets.
Stap 1: Data verzamelen
AI heeft veel voorbeelden nodig die bestaan uit kenmerken (features) en labels.
Voorbeeld: medische diagnose
o Kenmerken: lengte, gewicht, bloeddruk.
o Label: gezond of ziek.
Stap 2: Een model leren
AI zoekt naar patronen in de gegevens en maakt een wiskundig model.
Voorbeeld: voorspellen van belastingfraude
, o AI leert van eerdere gevallen van fraude.
o Het model bepaalt welke factoren wijzen op mogelijke fraude.
Stap 3: Optimalisatie en verfijning
Modellen worden steeds beter door optimalisatie-algoritmen.
Bekend voorbeeld: Gradient Descent – een wiskundige methode om het model te
verbeteren.
Stap 4: Voorspellingen maken
Na training kan AI voorspellingen doen voor nieuwe, onbekende gegevens.
Voorbeeld: een chatbot die begrijpt of een klant ontevreden is.
4. Doorbraak van Deep Learning en Neurale Netwerken
In de jaren 2010 werd AI enorm krachtiger door Deep Learning.
Wat veranderde?
1. Snellere hardware (GPU's)
o Graphics Processing Units (GPU's) werden eerst gebruikt voor games, maar bleken
perfect voor AI-berekeningen.
o Heel veel kleine berekeningen: als ik een keer naar R draai in een spelletje
o In trainen van neutrale netwerken: formule
2. Meer data beschikbaar (big data)
o Het internet en bedrijven zoals Google en Facebook verzamelden gigantische
hoeveelheden data.
Belangrijke doorbraken:
Deep Blue (1997) – Schaken
IBM's AI versloeg wereldkampioen Garry Kasparov.
Watson (2011) – Quiz (Jeopardy!)
IBM’s AI won van menselijke spelers door teksten en vragen te begrijpen.
AlphaGo (2016) – Bordspel Go
AI versloeg 's werelds beste Go-speler met behulp van Deep Learning en Reinforcement
Learning.
5. Hoe werken neurale netwerken?
Basis: Het Perceptron (1956)
Eén kunstmatig neuron dat simpele taken kan leren, zoals "ja/nee"-beslissingen.
Meerdere lagen: Deep Learning
Door meerdere lagen neuronen toe te voegen, kunnen netwerken complexe patronen
leren.
Voorbeelden van Deep Learning-modellen
1. AlexNet (2012) – doorbraak in beeldherkenning.
, 2. ResNet (2015) – gebruikt diepere netwerken zonder dat ze "vastlopen".
3. GPT (2020s) – krachtige generatieve AI zoals ChatGPT.
6. Moderne AI en Generatieve AI
Generatieve AI
AI kan tekst, afbeeldingen en audio genereren.
Voorbeelden:
o GPT-4 → Schrijft tekst zoals mensen.
o DALL·E → Maakt afbeeldingen.
Pre-training en Fine-tuning
AI-modellen worden eerst getraind op een brede dataset en daarna aangepast aan
specifieke taken.
Verschillende taalmodellen ‘termen’
Closed-source model: model wordt niet vrij gegeven, maar biedt dit aan op een service
+ Voordeel: door een API(application programmable interface), we kunnen
interageren door een interface =aantal vastgelegde commando’s
-Nadeel: dit geeft problemen met privacy
Open-source model: bedrijf dat instituut getraind heeft geeft achteraf het model zelf vrij
+Gewichten (getraind model) wordt gepubliceerd
+Iedereen kan het model zelf uitvoeren
+ Geen noodzaak om gegevens te verzenden, dus geen privacyproblemen
- Aanzienlijke computerinfrastructuur vereist
Hoe AI het volgende woord voorspeld
1. Bedrijf verzamelt hele hoop data bv uit sociale media, boeken, internet
2. Die data wordt gescraped = opgeslagen in enorme databanken
3. Op die databanken passen we ons leeralgoritme toe, hier krijgen we ons model uit
4. Modellen om volgende woord te voorspellen door ‘allign’
Wetgeving AI act: foundational models
= modellen die zijn getraind zonder een bepaalde applicatie op het oog te hebben
Die modellen delen we (open source) Of bieden we aan als service
Samenvatting Deep Neural Networks
Het trainen van een neuraal netwerk is erg duur
Enorme datasets
Enorme berekeningen
Afstemming door versterking leren met menselijke feedback
Het gebruik van een neuraal netwerk is relatief goedkoop
Vereist ordes van grootte minder berekeningen
Open source modellen kunnen worden verfijnd
Gesloten bron: gebruikt als service
1. Inleiding en Cursusoverzicht
Deze cursus behandelt technologische, maatschappelijke en juridische uitdagingen van AI.
12 colleges, inclusief deze inleiding.
Evaluatie:
o Permanente evaluatie: korte meerkeuzetests na elke grote sectie.
o Gesloten-boek examen op de computer, bestaande uit meerkeuzevragen en één
open vraag.
2. Geschiedenis van Kunstmatige Intelligentie
AI heeft zich in verschillende fasen ontwikkeld:
1950: Turing-test
Alan Turing introduceerde het idee dat een machine intelligent is als een mens niet kan
onderscheiden of hij met een mens of een machine praat.
= computers ingezet na de oorlog, praktische oplossing om ENIGMA? Code te kraken
Dit werd de basis voor de vraag: kan een machine denken?
1956: Perceptron (Vroege neurale netwerken) (menselijke brein proberen na te maken
(kopie) in een machine (Rosenblad))
1 perceptron komt overeen met 1 hersencel
Het perceptron was een eenvoudig neuraal netwerk dat kon leren door gewichten aan te
passen.
Patronen herkennen:
o Eerste keer dat niet werd geprogrammeerd, algoritme zat in de machine
Probleem: beperkte rekenkracht en het onvermogen om complexe patronen te leren.
1960s: ELIZA (Vroege Chatbot)
ELIZA was een van de eerste AI-systemen die menselijke interactie simuleerde door op
tekst te reageren.
Maar het begreep geen betekenis, het volgde alleen patronen.
1970s: AI Winter (Minder belangstelling en investeringen)
speculatie om binnen 30 jaar automatische vertalers te kunnen maken niet waargemaakt
AI viel uit de gratie vanwege te hoge verwachtingen en beperkte rekenkracht.
Onderzoek en financiering namen sterk af.
1980s: Expert Systemen
AI maakte een comeback met regelgebaseerde
systemen zoals medische diagnose-
expertsystemen.
Deze systemen gebruikten regels zoals:
"Als de patiënt hoge koorts heeft en bacteriën in het
bloed, dan is er een kans van 70% op een bacteriële
infectie."
, Beperking: starre regels, geen zelflerend vermogen.
1990s: Machine Learning (Eerste echte doorbraak)
Verschillende soorten Machine Learning (ML):
o Supervised Learning: AI leert van gelabelde data.
proberen aan de hand van reeks voorbeelden voorspellingen te maken (bv
hele reeks afbeeldingen: sommige chiwawa en sommige afbeeldingen zijn
muffins
Hiervoor check nodig: welke afbeelding is hond en welke is muffin
Gelijkaardig aan wat Rosenblad voor ogen had
o Reinforcement Learning: AI leert door beloning en straf.
Vb
schaakproef Deep Blue (1997): verslagen door computer
Watson (2011): taal voldoende te begrijpen om juiste antw in quiz
te geven, databank watson wint Jeopardy
AlphaGo (2016): Go spel op bord van 19-19
o VB spelletje video over verschil supervides en reinforced learning: Spelletje pong
Eerste poging is Supervised learning bij pong: eerst rekenen, daar komt
programa uit, daar stopt het.
panel aan L :menselijke speler, panel aan de R is AI
Soms niet genoeg data om volledige spel van af te leiden reinforced
learning gebruiken
Algoritmes nodig voor machine learning: indicatie van hoe gezond personen zijn adhv
bepaalde karakteristieken
o Hele hoop voorbeelden nodig om te kunnen extraheren, gegevens voor elke
persoon nodig (denk aan lengte en gewicht label van maken gezond/ongezond)
Waarom werkte AI nu beter?
o Meer data beschikbaar.
o Sterkere rekenkracht (snellere computers).
3. Machine Learning: Hoe werkt het?
AI leert patronen herkennen in grote datasets.
Stap 1: Data verzamelen
AI heeft veel voorbeelden nodig die bestaan uit kenmerken (features) en labels.
Voorbeeld: medische diagnose
o Kenmerken: lengte, gewicht, bloeddruk.
o Label: gezond of ziek.
Stap 2: Een model leren
AI zoekt naar patronen in de gegevens en maakt een wiskundig model.
Voorbeeld: voorspellen van belastingfraude
, o AI leert van eerdere gevallen van fraude.
o Het model bepaalt welke factoren wijzen op mogelijke fraude.
Stap 3: Optimalisatie en verfijning
Modellen worden steeds beter door optimalisatie-algoritmen.
Bekend voorbeeld: Gradient Descent – een wiskundige methode om het model te
verbeteren.
Stap 4: Voorspellingen maken
Na training kan AI voorspellingen doen voor nieuwe, onbekende gegevens.
Voorbeeld: een chatbot die begrijpt of een klant ontevreden is.
4. Doorbraak van Deep Learning en Neurale Netwerken
In de jaren 2010 werd AI enorm krachtiger door Deep Learning.
Wat veranderde?
1. Snellere hardware (GPU's)
o Graphics Processing Units (GPU's) werden eerst gebruikt voor games, maar bleken
perfect voor AI-berekeningen.
o Heel veel kleine berekeningen: als ik een keer naar R draai in een spelletje
o In trainen van neutrale netwerken: formule
2. Meer data beschikbaar (big data)
o Het internet en bedrijven zoals Google en Facebook verzamelden gigantische
hoeveelheden data.
Belangrijke doorbraken:
Deep Blue (1997) – Schaken
IBM's AI versloeg wereldkampioen Garry Kasparov.
Watson (2011) – Quiz (Jeopardy!)
IBM’s AI won van menselijke spelers door teksten en vragen te begrijpen.
AlphaGo (2016) – Bordspel Go
AI versloeg 's werelds beste Go-speler met behulp van Deep Learning en Reinforcement
Learning.
5. Hoe werken neurale netwerken?
Basis: Het Perceptron (1956)
Eén kunstmatig neuron dat simpele taken kan leren, zoals "ja/nee"-beslissingen.
Meerdere lagen: Deep Learning
Door meerdere lagen neuronen toe te voegen, kunnen netwerken complexe patronen
leren.
Voorbeelden van Deep Learning-modellen
1. AlexNet (2012) – doorbraak in beeldherkenning.
, 2. ResNet (2015) – gebruikt diepere netwerken zonder dat ze "vastlopen".
3. GPT (2020s) – krachtige generatieve AI zoals ChatGPT.
6. Moderne AI en Generatieve AI
Generatieve AI
AI kan tekst, afbeeldingen en audio genereren.
Voorbeelden:
o GPT-4 → Schrijft tekst zoals mensen.
o DALL·E → Maakt afbeeldingen.
Pre-training en Fine-tuning
AI-modellen worden eerst getraind op een brede dataset en daarna aangepast aan
specifieke taken.
Verschillende taalmodellen ‘termen’
Closed-source model: model wordt niet vrij gegeven, maar biedt dit aan op een service
+ Voordeel: door een API(application programmable interface), we kunnen
interageren door een interface =aantal vastgelegde commando’s
-Nadeel: dit geeft problemen met privacy
Open-source model: bedrijf dat instituut getraind heeft geeft achteraf het model zelf vrij
+Gewichten (getraind model) wordt gepubliceerd
+Iedereen kan het model zelf uitvoeren
+ Geen noodzaak om gegevens te verzenden, dus geen privacyproblemen
- Aanzienlijke computerinfrastructuur vereist
Hoe AI het volgende woord voorspeld
1. Bedrijf verzamelt hele hoop data bv uit sociale media, boeken, internet
2. Die data wordt gescraped = opgeslagen in enorme databanken
3. Op die databanken passen we ons leeralgoritme toe, hier krijgen we ons model uit
4. Modellen om volgende woord te voorspellen door ‘allign’
Wetgeving AI act: foundational models
= modellen die zijn getraind zonder een bepaalde applicatie op het oog te hebben
Die modellen delen we (open source) Of bieden we aan als service
Samenvatting Deep Neural Networks
Het trainen van een neuraal netwerk is erg duur
Enorme datasets
Enorme berekeningen
Afstemming door versterking leren met menselijke feedback
Het gebruik van een neuraal netwerk is relatief goedkoop
Vereist ordes van grootte minder berekeningen
Open source modellen kunnen worden verfijnd
Gesloten bron: gebruikt als service