100% tevredenheidsgarantie Direct beschikbaar na je betaling Lees online óf als PDF Geen vaste maandelijkse kosten 4,6 TrustPilot
logo-home
Samenvatting

samenvatting media en digitale samenleving zso

Beoordeling
-
Verkocht
1
Pagina's
29
Geüpload op
20-01-2026
Geschreven in
2025/2026

samenvatting van alle zelfstudie opdrachten van media en digitale samenleving korfvak in 3e bachelor op UA (videos, podcasts, teksten,...) zodat je ze niet meer moet beluisteren of lezen :)

Instelling
Vak










Oeps! We kunnen je document nu niet laden. Probeer het nog eens of neem contact op met support.

Geschreven voor

Instelling
Studie
Vak

Documentinformatie

Geüpload op
20 januari 2026
Aantal pagina's
29
Geschreven in
2025/2026
Type
Samenvatting

Onderwerpen

Voorbeeld van de inhoud

Samenvatting: zelfstudie media en
digitale samenleving
Zelfstudie 1: AI

1. video over: ‘ LLM’s & transformers’

1. Wat is GPT?

● Generative: model genereert nieuwe tekst.
● Pretrained: eerst getraind op gigantische hoeveelheden data.
● Transformer: type neurale netwerkarchitectuur dat gebruikmaakt van attention.

2. Transformer Architectuur: Overzicht

Een transformer verwerkt tekst in 5 grote stappen:

1) Tokenisatie

● Tekst → kleine stukjes (“tokens”)
● Vaak subwoorden (bijv. "trans", "form", "er")
● Voordeel: kan alle woorden verwerken, ook nieuwe of samengestelde.

2) Embeddings

● Elk token wordt een vector in een hoge-dimensionale ruimte.
● Woorden met gelijkaardige betekenis liggen dicht bij elkaar.
Embeddings = betekenis representatie van taal.

3) Positional Encoding

● Transformers hebben geen volgorde-inzicht zoals RNNs.
● Daarom wordt een codering signaal toegevoegd dat vertelt waar een token in de zin
staat.

4) Attention Mechanisme (belangrijkste!)

● De kern van de transformer.
● Attention laat het model bepalen welke andere tokens relevant zijn voor het huidige
token.
○ Voorbeeld: bij het woord "it" kijkt het model naar welk woord "it" waarschijnlijk
verwijst
● Self-attention: elke token “kijkt” naar alle andere tokens

, ● Output is een gewogen som van alle relevante tokens.


Waarom sterk?

● Kan lange-afstandrelaties leren (“De kat die gisteren ontsnapte, zat in de boom”).
● Verwerkt tokens parallel → zeer efficiënt.

5) Feed-forward (MLP) lagen

● Per token wordt de representatie verder getransformeerd.
● Maakt het model niet-lineair en dus krachtiger.


3. Hoe genereert een transformer tekst?

Stap voor stap:

1. Model krijgt inputtokens.
2. Attention + MLP verwerken de context.
3. Voor het volgende token worden scores berekend (logits).
4. Softmax → omzetting in waarschijnlijkheden.
5. Sampling: model kiest een token volgens die kansverdeling.
6. Token wordt toegevoegd aan de zin → model herhaalt.

Dit is autoregressief: het model voorspelt steeds één token per keer.

4. Training van Transformers

● Modellen zoals GPT-3 hebben miljarden parameters.
● Ze worden getraind via backpropagation op enorme datasets (boeken, websites,
code, …).
● Doel tijdens training: voorspel het volgende token in allerlei contexten.
● Door schaal + juiste architectuur leren modellen semantiek, grammatica, stijl, logica.


5. Belangrijke Concepten uit de video

Softmax & Temperature

● Softmax maakt van scores kansen.
Temperature:
Laag (bv. 0.2) → veilig, voorspelbaar

Hoog (bv. 1.2) → creatief, chaotischer.

Contextlengte

● Het model kan maar een beperkt aantal tokens tegelijk in de context houden.
● Hoe meer context, hoe beter het model verbanden kan leggen over lange teksten.

, Waarom Transformers revolutionair zijn

● Geen sequentiële verwerking (zoals RNN/LSTM) → snelle training.
● Lange-afstand correlaties → begrijpt context beter.
● Schaalbaar → prestaties worden beter met meer data + parameters.


6. Samenvatting in 10 examenzinnen

1. Een transformer verwerkt tekst via tokenisatie, embeddings, positional encoding,
attention en feed-forward lagen.
2. Self-attention maakt het mogelijk om alle tokens tegelijk te vergelijken qua relevantie.
3. Embeddings plaatsen woorden in een hoge-dimensionale semantische ruimte.
4. GPT-modellen zijn autoregressieve transformermodellen.
5. Het model voorspelt telkens het volgende token op basis van kansverdeling.
6. De softmaxfunctie zet logits om in voorspeltkansen voor tokens.
7. Temperature bepaalt hoe creatief of deterministisch tokenselectie verloopt.
8. Transformers zijn zeer schaalbaar en trainen extreem efficiënt door parallelle
verwerking.
9. De kracht van transformers komt voort uit brede contextverwerking via attention.
10. Grote LLMs generaliseren goed dankzij veel data en miljarden parameters.
€11,96
Krijg toegang tot het volledige document:

100% tevredenheidsgarantie
Direct beschikbaar na je betaling
Lees online óf als PDF
Geen vaste maandelijkse kosten

Maak kennis met de verkoper
Seller avatar
medicinebrat

Maak kennis met de verkoper

Seller avatar
medicinebrat Universiteit Antwerpen
Volgen Je moet ingelogd zijn om studenten of vakken te kunnen volgen
Verkocht
1
Lid sinds
3 maanden
Aantal volgers
0
Documenten
1
Laatst verkocht
1 dag geleden
medicine at uauauaua

0,0

0 beoordelingen

5
0
4
0
3
0
2
0
1
0

Waarom studenten kiezen voor Stuvia

Gemaakt door medestudenten, geverifieerd door reviews

Kwaliteit die je kunt vertrouwen: geschreven door studenten die slaagden en beoordeeld door anderen die dit document gebruikten.

Niet tevreden? Kies een ander document

Geen zorgen! Je kunt voor hetzelfde geld direct een ander document kiezen dat beter past bij wat je zoekt.

Betaal zoals je wilt, start meteen met leren

Geen abonnement, geen verplichtingen. Betaal zoals je gewend bent via iDeal of creditcard en download je PDF-document meteen.

Student with book image

“Gekocht, gedownload en geslaagd. Zo makkelijk kan het dus zijn.”

Alisha Student

Veelgestelde vragen