DOEL opleidingsonderdeel:
- Studenten bewust maken van de mechanismen van de media in de gedigitaliseerde
samenleving en de risico’s voor vertekende opinievorming en polarisering
- Zo zijn studenten beter voorbereid om in hun eigen domein de opportuniteiten en
risico’s te zien voor de verspreiding en toepassing van (wetenschappelijke) kennis en
info, alsook de ontwikkeling van ICT toepassingen
Centrum Pieter Gilles:
- Verantwoordelijk voor verbredende korfvakken van UA
- Neemt initiatieven die gericht zijn op het stimuleren van dialoog, het bevorderen van
multi-, inter- en transdisciplinaire uitwisseling en maatschappelijke betrokkenheid
- Pieter Gilles is een Antwerpse humanist
o Net als de humanisten wil het centrum levensbeschouwelijke, ideologische en
maatschappelijk relevante vragen ernstig nemen en ze met een open attitude
bestuderen en bediscussiëren
4 generieke eindcompetenties van elk korfvak:
- Systeemdenken
- Normatief denken
- Actief pluralisme
o Inhoudelijke dialoog aanmoedigen tss personen met diverse opvattingen en
levensbeschouwelijke overtuigen
- Interdisciplinair denken
o Focus niet enkel op eigen discipline maar op een brede, maatschappelijke
vorming
,2 Artificiële intelligentie (AI)
2.1 College
2.1.1 Wat is AI?
VB van wat we al kunnen met AI:
- Autonoom rijdende wagens in bepaalde gebieden van VS
Verschillende niveaus binnen AI:
- AI = een technologie die slaagt voor de Turning test
o Turning test: geslaagd indien men niet meer kan
onderscheiden of iets gemaakt is door een computer of mens
- ML = computer die zelfstandig leert obv data
- Deep Learning = vorm van ML die gebruik maakt van meerdere lagen neurale
netwerken
- Generative AI = GenAI = AI die zelf nieuwe inhoud kan creëren (bv: tekst, foto)
- Large Language Model = LLM = GenAI dat getraind is op enorme hoeveelheden tekst
om mensentaal te begrijpen en te genereren
o BV: ChatGPT
AI is eigk gwn aan wiskundige formule:
- VB: prijs van een brood
o (1): prijzen zijn gekend in 2003 en 2023
o (2): om prijs in 2013 te kennen w een wiskundige formule bepaalt die de
punten met elkaar verbindt
o (3): MAAR het zou evengoed kunnen dat deze wiskundige formule niet klopt
en de werkelijke prijs in 2013 dus niet bij rode bol ligt
Hoe wordt zulke functie gecreëerd?
- y = a0 + a1 x1 + a2 x2 + … an xn
o Dimensie = 1 (enkel x als var) en orde = n => # parameters = n
- y = a00 + a01 y1 + a10 x1 + a11 x1y1 + …+ ann xnyn
( n+2 ) !
o Dimensie = 2 (x en y als var) en orde = n => # parameters =
2 !∗n !
( n+m ) !
- Voor hogere orde n met m variabelen =>
m!∗n !
, o Je moet wiskundig ook zoveel vgl oplossen wat onmogelijk is voor ons brein
dat werkt met neuronen verbonden door energiebanen
Hierdoor is ML ontstaan dat werkt in stappen:
- STAP 1: Hoe maken we zulke functie/ zulk netwerk? Hoe definiëren
we het brein in een computercontext?
o Verschillende kolommen van neuronen maken en elk
neuron verbinden met volgende en vorige kolom neuronen
Eerste kolom: input van elk van onze zintuigen
BV: bij tekst: beschrijven van woorden tekst
Laatste kolom: acties die we eraan vast willen hangen
o Inzoomen:
Elk van neuronen kunnen beschreven w als wiskunde formule waarbij
output die eruit komt snel evolueert van 0 naar 1
Zo bekom je verschillende vormen en uiteindelijk een wiskundige
formule/ functie
MAAR hoe maken we die functie?
- STAP 2: Hoe vullen we de parameters (x1, x2, …, xn) in?
o We gaan de input van volgende neuronen laten afhangen van een gewogen
som van de output van de lagen ervoor
Som(WX * ox)
o Als we elk vd gewichten juist kunnen zetten, krijgen we de gezochte functie
o HOE krijg je de juiste gewichten?
Als gewichten niet juist zijn en je toont bv een foto van een zebrapad,
dan zal het netwerk een fout antwoord geven, bv dat er een
parkeerplaats te zien is
We zeggen tegen het netwerk dat het niet klopt en het correcte
antwoord een zebrapad is. Zo w de gewichten verschoven zodat het
netwerk volgende keer juister zal antwoorden
Dit blijven we doen tot het netwerk volledig correct antwoord
en dus zegt dat er een zebrapad te zien is
OPM: Het is nog beter indien het netwerk in andere situaties ook
correct een zebrapad herkend
OPM: Dit is mogelijk want ML generaliseert goed
Voordelen van dit:
- Je kan zeer complexe functies modelleren
- De technologie/ het netwerk genereert zelf de vorm van de functies
o Je hoeft niet te weten hoe de wereld eruitziet -> netwerk zal het je vertellen
o Deze nieuwe vorm leert je correlaties (vorm vd functie) waarvan je je niet
bewust was
, Omdat het standaard is (bv: optimalisatie chemische recepten)
Omdat het te complex is om over te redeneren (bv: schaken)
2.1.2 Waar gaan LLM’s over?
Een LLM geeft obv een input een antwoord dat zo goed mogelijk lijkt op het mogelijke
antwoord. Het kan dus een fout antwoord geven.
BV: LLM raad het volgende woord in een zin. HOE werkt dit?
- STAP 1: Het gegeven (gedeelte) van een zin opsplitsen in TOKENS = Tokenization
o BV: ‘Unbelievably fantastic!’ -> ‘Un’, ‘believ’, ‘ably’, ‘fantastic’, ‘!’
o BV: ‘The athlete crossed the finish line, raising their arms in -> elk woord apart
- *STAP 2: De woorden coderen in een multi-dimensionele ruimte
o Voor elke token maak je een vector (x =…, y = …, z = …, etc)
OPM: voor GPT3 zijn er 12 288 dimensies nodig
o Hiervoor hebben we een look-up matrix V x D nodig waarbij:
V = de grootte vd woordenschat = # tokens
BV: 10k of 100k woorden of tokens
D = embedding-dimensionaliteit = # dimensies per token
BV: 12 288 dimensies voor GPT3
o In de dimensionele ruimte kunnen er verbanden tss woorden gevonden w
BV: verplaatsing van man -> vrouw = verplaatsing van king -> queen
BV: verplaatsing van swimming (tt) -> swam (vt) = verplaatsing van
walking (tt) -> walked (vt)
- Mogelijke STAP 3: Codering naar een neuraal netwerk voeren dat het volgende
woord voorspelt
o Vectoren tegen elkaar plaatsen waardoor 1 matrix bekomen w
o Matrix aan neuraal netwerk geven waarmee we kunnen leren wat de kans is
op een bepaald volgend woord is
- * MAAR we vergeten bij STAP 2 het belang van CONTEXT -> opl: ATTENTION
o Elk woord/ token w aangepast aan de context die alle andere woorden
meegeven
o Attention zorgt ervoor dat we niet elk woord zomaar combineren
o Attention verplaatst de betekenis van woorden obv alle woorden die errond
staan. Het houdt dus rekening met de context
BV: DRAMA queen: context vh woord ‘drama’ heeft grote impact
BV: king ARTHUR: context vh woord ‘Arthur’ heeft kleine impact
DUS 3 stappen:
- STAP 1: Codeer in tokens
- STAP 2: Gebruik attention om de context toe te voegen
- STAP 3: Gebruik het resultaat om het volgende woord te voorspellen