Garantie de satisfaction à 100% Disponible immédiatement après paiement En ligne et en PDF Tu n'es attaché à rien 4,6 TrustPilot
logo-home
Resume

samenvatting media en digitale samenleving zso

Note
-
Vendu
1
Pages
29
Publié le
20-01-2026
Écrit en
2025/2026

samenvatting van alle zelfstudie opdrachten van media en digitale samenleving korfvak in 3e bachelor op UA (videos, podcasts, teksten,...) zodat je ze niet meer moet beluisteren of lezen :)











Oups ! Impossible de charger votre document. Réessayez ou contactez le support.

Infos sur le Document

Publié le
20 janvier 2026
Nombre de pages
29
Écrit en
2025/2026
Type
Resume

Sujets

Aperçu du contenu

Samenvatting: zelfstudie media en
digitale samenleving
Zelfstudie 1: AI

1. video over: ‘ LLM’s & transformers’

1. Wat is GPT?

● Generative: model genereert nieuwe tekst.
● Pretrained: eerst getraind op gigantische hoeveelheden data.
● Transformer: type neurale netwerkarchitectuur dat gebruikmaakt van attention.

2. Transformer Architectuur: Overzicht

Een transformer verwerkt tekst in 5 grote stappen:

1) Tokenisatie

● Tekst → kleine stukjes (“tokens”)
● Vaak subwoorden (bijv. "trans", "form", "er")
● Voordeel: kan alle woorden verwerken, ook nieuwe of samengestelde.

2) Embeddings

● Elk token wordt een vector in een hoge-dimensionale ruimte.
● Woorden met gelijkaardige betekenis liggen dicht bij elkaar.
Embeddings = betekenis representatie van taal.

3) Positional Encoding

● Transformers hebben geen volgorde-inzicht zoals RNNs.
● Daarom wordt een codering signaal toegevoegd dat vertelt waar een token in de zin
staat.

4) Attention Mechanisme (belangrijkste!)

● De kern van de transformer.
● Attention laat het model bepalen welke andere tokens relevant zijn voor het huidige
token.
○ Voorbeeld: bij het woord "it" kijkt het model naar welk woord "it" waarschijnlijk
verwijst
● Self-attention: elke token “kijkt” naar alle andere tokens

, ● Output is een gewogen som van alle relevante tokens.


Waarom sterk?

● Kan lange-afstandrelaties leren (“De kat die gisteren ontsnapte, zat in de boom”).
● Verwerkt tokens parallel → zeer efficiënt.

5) Feed-forward (MLP) lagen

● Per token wordt de representatie verder getransformeerd.
● Maakt het model niet-lineair en dus krachtiger.


3. Hoe genereert een transformer tekst?

Stap voor stap:

1. Model krijgt inputtokens.
2. Attention + MLP verwerken de context.
3. Voor het volgende token worden scores berekend (logits).
4. Softmax → omzetting in waarschijnlijkheden.
5. Sampling: model kiest een token volgens die kansverdeling.
6. Token wordt toegevoegd aan de zin → model herhaalt.

Dit is autoregressief: het model voorspelt steeds één token per keer.

4. Training van Transformers

● Modellen zoals GPT-3 hebben miljarden parameters.
● Ze worden getraind via backpropagation op enorme datasets (boeken, websites,
code, …).
● Doel tijdens training: voorspel het volgende token in allerlei contexten.
● Door schaal + juiste architectuur leren modellen semantiek, grammatica, stijl, logica.


5. Belangrijke Concepten uit de video

Softmax & Temperature

● Softmax maakt van scores kansen.
Temperature:
Laag (bv. 0.2) → veilig, voorspelbaar

Hoog (bv. 1.2) → creatief, chaotischer.

Contextlengte

● Het model kan maar een beperkt aantal tokens tegelijk in de context houden.
● Hoe meer context, hoe beter het model verbanden kan leggen over lange teksten.

, Waarom Transformers revolutionair zijn

● Geen sequentiële verwerking (zoals RNN/LSTM) → snelle training.
● Lange-afstand correlaties → begrijpt context beter.
● Schaalbaar → prestaties worden beter met meer data + parameters.


6. Samenvatting in 10 examenzinnen

1. Een transformer verwerkt tekst via tokenisatie, embeddings, positional encoding,
attention en feed-forward lagen.
2. Self-attention maakt het mogelijk om alle tokens tegelijk te vergelijken qua relevantie.
3. Embeddings plaatsen woorden in een hoge-dimensionale semantische ruimte.
4. GPT-modellen zijn autoregressieve transformermodellen.
5. Het model voorspelt telkens het volgende token op basis van kansverdeling.
6. De softmaxfunctie zet logits om in voorspeltkansen voor tokens.
7. Temperature bepaalt hoe creatief of deterministisch tokenselectie verloopt.
8. Transformers zijn zeer schaalbaar en trainen extreem efficiënt door parallelle
verwerking.
9. De kracht van transformers komt voort uit brede contextverwerking via attention.
10. Grote LLMs generaliseren goed dankzij veel data en miljarden parameters.
€11,96
Accéder à l'intégralité du document:

Garantie de satisfaction à 100%
Disponible immédiatement après paiement
En ligne et en PDF
Tu n'es attaché à rien

Faites connaissance avec le vendeur
Seller avatar
medicinebrat

Faites connaissance avec le vendeur

Seller avatar
medicinebrat Universiteit Antwerpen
Voir profil
S'abonner Vous devez être connecté afin de suivre les étudiants ou les cours
Vendu
1
Membre depuis
3 mois
Nombre de followers
0
Documents
1
Dernière vente
1 jours de cela
medicine at uauauaua

0,0

0 revues

5
0
4
0
3
0
2
0
1
0

Récemment consulté par vous

Pourquoi les étudiants choisissent Stuvia

Créé par d'autres étudiants, vérifié par les avis

Une qualité sur laquelle compter : rédigé par des étudiants qui ont réussi et évalué par d'autres qui ont utilisé ce document.

Le document ne convient pas ? Choisis un autre document

Aucun souci ! Tu peux sélectionner directement un autre document qui correspond mieux à ce que tu cherches.

Paye comme tu veux, apprends aussitôt

Aucun abonnement, aucun engagement. Paye selon tes habitudes par carte de crédit et télécharge ton document PDF instantanément.

Student with book image

“Acheté, téléchargé et réussi. C'est aussi simple que ça.”

Alisha Student

Foire aux questions