100% de satisfacción garantizada Inmediatamente disponible después del pago Tanto en línea como en PDF No estas atado a nada 4.2 TrustPilot
logo-home
Resumen

Summary Deep Learning summarization files of howest - creative technologies & ai

Puntuación
-
Vendido
-
Páginas
3
Subido en
16-12-2025
Escrito en
2024/2025

Deep Learning summarization files of howest - creative technologies & ai

Institución
Grado








Ups! No podemos cargar tu documento ahora. Inténtalo de nuevo o contacta con soporte.

Escuela, estudio y materia

Institución
Estudio
Grado

Información del documento

Subido en
16 de diciembre de 2025
Número de páginas
3
Escrito en
2024/2025
Tipo
Resumen

Temas

Vista previa del contenido

Deep learning – session 3:
autoencoders
1 What is an autoencoder
Concept autoencoder These are neural networks that learn efficient data
encoding by compressing input into a latent
representation and then reconstructing the original
data, minimizing the difference between input
and output (tries to reconstruct the input).
Deep autoencoder It has multiple hidden layers in both the encoder and
decoder, enabling it to learn more detailed and
complex data representations.
Prototype autoencoder consist of:
 Fully connected layers: neurons in each layer are fully
connected to the next
 2 parts:
o Encoder: compresses input data into a smaller latent
representation
o Decoder: reconstructs the original data from this compressed form


2 Types of autoencoders
 Undercomplete autoencoders
 Contractive autoencoder
 Overcomplete autoencoder  Stacked autoencoders
 Sparse autoencoder  Variational autoencoder
 Convolutional autoencoder Denoising autoencoder

Undercomplete autoencoder It has a smaller hidden layer than the input,
creating a bottleneck. This forces the model to
compress the input and learn a more compact
representation (dimensionality reduction). When only
linear activation functions and MSE loss are used, the
autoencoder functions like a PCA model.




Overcomplete autoencoder An overcomplete autoencoder has a hidden layer
with more neurons than the input layer, meaning no
compression occurs. To prevent the autoencoder from
simply copying the input to the
output, regularization is used. Techniques include:
 Sparse autoencoders
$9.65
Accede al documento completo:

100% de satisfacción garantizada
Inmediatamente disponible después del pago
Tanto en línea como en PDF
No estas atado a nada

Conoce al vendedor
Seller avatar
ellenflame

Documento también disponible en un lote

Conoce al vendedor

Seller avatar
ellenflame Hogeschool West-Vlaanderen
Seguir Necesitas iniciar sesión para seguir a otros usuarios o asignaturas
Vendido
Nuevo en Stuvia
Miembro desde
1 día
Número de seguidores
0
Documentos
6
Última venta
-

0.0

0 reseñas

5
0
4
0
3
0
2
0
1
0

Recientemente visto por ti

Por qué los estudiantes eligen Stuvia

Creado por compañeros estudiantes, verificado por reseñas

Calidad en la que puedes confiar: escrito por estudiantes que aprobaron y evaluado por otros que han usado estos resúmenes.

¿No estás satisfecho? Elige otro documento

¡No te preocupes! Puedes elegir directamente otro documento que se ajuste mejor a lo que buscas.

Paga como quieras, empieza a estudiar al instante

Sin suscripción, sin compromisos. Paga como estés acostumbrado con tarjeta de crédito y descarga tu documento PDF inmediatamente.

Student with book image

“Comprado, descargado y aprobado. Así de fácil puede ser.”

Alisha Student

Preguntas frecuentes