100% de satisfacción garantizada Inmediatamente disponible después del pago Tanto en línea como en PDF No estas atado a nada 4.2 TrustPilot
logo-home
Resumen

Summary Large language models

Puntuación
-
Vendido
-
Páginas
2
Subido en
25-07-2023
Escrito en
2022/2023

Large language models introduction

Institución
Grado








Ups! No podemos cargar tu documento ahora. Inténtalo de nuevo o contacta con soporte.

Libro relacionado

Escuela, estudio y materia

Grado

Información del documento

¿Un libro?
No
¿Qué capítulos están resumidos?
Chapter i
Subido en
25 de julio de 2023
Número de páginas
2
Escrito en
2022/2023
Tipo
Resumen

Temas

Vista previa del contenido

LARGE LANGUAGE MODELS - Prompt engineering




Large language models refer to advanced neural network-based architectures that have been
trained on massive amounts of text data to process and understand human language. These
models have shown remarkable capabilities in various natural language processing (NLP) tasks,
such as language generation, translation, question-answering, sentiment analysis, and more.
They are typically characterized by having tens of billions of parameters, allowing them to
capture complex language patterns and generate coherent and contextually relevant responses.




Some of the well-known large language models include:




GPT-3 (Generative Pre-trained Transformer 3): Developed by OpenAI, GPT-3 is one of the most
famous and largest language models, with 175 billion parameters. It has demonstrated
impressive performance across a wide range of NLP tasks and can generate human-like text.




BERT (Bidirectional Encoder Representations from Transformers): Developed by Google, BERT
is another influential language model with 340 million parameters. It introduced the concept of
bidirectional training and context-based word embeddings, leading to significant improvements
in many NLP tasks.




T5 (Text-to-Text Transfer Transformer): Developed by Google, T5 is a large model that frames
all NLP tasks as a text-to-text problem. It has 11 billion parameters and has shown strong
performance in a multitude of NLP tasks.




XLNet: Developed by Google, XLNet is a generalized autoregressive pre-training method that
leverages both autoregressive and autoencoding objectives. It has 340 million parameters and
has achieved state-of-the-art results in various NLP benchmarks.




RoBERTa (A Robustly Optimized BERT Pretraining Approach): A variation of BERT developed by
Facebook AI, RoBERTa uses a larger batch size and more training data to achieve better
performance across multiple NLP tasks.
$7.99
Accede al documento completo:

100% de satisfacción garantizada
Inmediatamente disponible después del pago
Tanto en línea como en PDF
No estas atado a nada

Conoce al vendedor
Seller avatar
ramakrishnatammineedi

Conoce al vendedor

Seller avatar
ramakrishnatammineedi Published
Seguir Necesitas iniciar sesión para seguir a otros usuarios o asignaturas
Vendido
0
Miembro desde
2 año
Número de seguidores
0
Documentos
5
Última venta
-

0.0

0 reseñas

5
0
4
0
3
0
2
0
1
0

Recientemente visto por ti

Por qué los estudiantes eligen Stuvia

Creado por compañeros estudiantes, verificado por reseñas

Calidad en la que puedes confiar: escrito por estudiantes que aprobaron y evaluado por otros que han usado estos resúmenes.

¿No estás satisfecho? Elige otro documento

¡No te preocupes! Puedes elegir directamente otro documento que se ajuste mejor a lo que buscas.

Paga como quieras, empieza a estudiar al instante

Sin suscripción, sin compromisos. Paga como estés acostumbrado con tarjeta de crédito y descarga tu documento PDF inmediatamente.

Student with book image

“Comprado, descargado y aprobado. Así de fácil puede ser.”

Alisha Student

Preguntas frecuentes