100% tevredenheidsgarantie Direct beschikbaar na je betaling Lees online óf als PDF Geen vaste maandelijkse kosten 4.2 TrustPilot
logo-home
Samenvatting

Summary Large language models

Beoordeling
-
Verkocht
-
Pagina's
2
Geüpload op
25-07-2023
Geschreven in
2022/2023

Large language models introduction

Instelling
Vak








Oeps! We kunnen je document nu niet laden. Probeer het nog eens of neem contact op met support.

Gekoppeld boek

Geschreven voor

Vak

Documentinformatie

Heel boek samengevat?
Nee
Wat is er van het boek samengevat?
Chapter i
Geüpload op
25 juli 2023
Aantal pagina's
2
Geschreven in
2022/2023
Type
Samenvatting

Onderwerpen

Voorbeeld van de inhoud

LARGE LANGUAGE MODELS - Prompt engineering




Large language models refer to advanced neural network-based architectures that have been
trained on massive amounts of text data to process and understand human language. These
models have shown remarkable capabilities in various natural language processing (NLP) tasks,
such as language generation, translation, question-answering, sentiment analysis, and more.
They are typically characterized by having tens of billions of parameters, allowing them to
capture complex language patterns and generate coherent and contextually relevant responses.




Some of the well-known large language models include:




GPT-3 (Generative Pre-trained Transformer 3): Developed by OpenAI, GPT-3 is one of the most
famous and largest language models, with 175 billion parameters. It has demonstrated
impressive performance across a wide range of NLP tasks and can generate human-like text.




BERT (Bidirectional Encoder Representations from Transformers): Developed by Google, BERT
is another influential language model with 340 million parameters. It introduced the concept of
bidirectional training and context-based word embeddings, leading to significant improvements
in many NLP tasks.




T5 (Text-to-Text Transfer Transformer): Developed by Google, T5 is a large model that frames
all NLP tasks as a text-to-text problem. It has 11 billion parameters and has shown strong
performance in a multitude of NLP tasks.




XLNet: Developed by Google, XLNet is a generalized autoregressive pre-training method that
leverages both autoregressive and autoencoding objectives. It has 340 million parameters and
has achieved state-of-the-art results in various NLP benchmarks.




RoBERTa (A Robustly Optimized BERT Pretraining Approach): A variation of BERT developed by
Facebook AI, RoBERTa uses a larger batch size and more training data to achieve better
performance across multiple NLP tasks.
€7,01
Krijg toegang tot het volledige document:

100% tevredenheidsgarantie
Direct beschikbaar na je betaling
Lees online óf als PDF
Geen vaste maandelijkse kosten

Maak kennis met de verkoper
Seller avatar
ramakrishnatammineedi

Maak kennis met de verkoper

Seller avatar
ramakrishnatammineedi Published
Volgen Je moet ingelogd zijn om studenten of vakken te kunnen volgen
Verkocht
0
Lid sinds
2 jaar
Aantal volgers
0
Documenten
5
Laatst verkocht
-

0,0

0 beoordelingen

5
0
4
0
3
0
2
0
1
0

Recent door jou bekeken

Waarom studenten kiezen voor Stuvia

Gemaakt door medestudenten, geverifieerd door reviews

Kwaliteit die je kunt vertrouwen: geschreven door studenten die slaagden en beoordeeld door anderen die dit document gebruikten.

Niet tevreden? Kies een ander document

Geen zorgen! Je kunt voor hetzelfde geld direct een ander document kiezen dat beter past bij wat je zoekt.

Betaal zoals je wilt, start meteen met leren

Geen abonnement, geen verplichtingen. Betaal zoals je gewend bent via Bancontact, iDeal of creditcard en download je PDF-document meteen.

Student with book image

“Gekocht, gedownload en geslaagd. Zo eenvoudig kan het zijn.”

Alisha Student

Veelgestelde vragen