Un autocodificador es un tipo de red neuronal artificial utilizada para aprender codificaciones eficientes de datos no etiquetados (aprendizaje no supervisado).[1][2] El autocodificador aprende dos funciones, la primera es aquella que transforma los datos de entrada y la segunda es la función de decodificación que recrea los datos de entrada a partir de la representación codificada. El autocodificador aprende una representación eficiente (codificación) para un conjunto de datos, normalmente para reducir la dimensionalidad.
Existen variantes cuyo objetivo es forzar a las representaciones aprendidas a asumir propiedades útiles.[3] Algunos ejemplos son los autocodificadores regularizados (Sparse, Denoising y Contractive), que son eficaces en el aprendizaje de representaciones para tareas de clasificación posteriores,[4] y los autocodificadores variacionales, con aplicaciones como modelos generativos.[5] Los autocodificadores pueden ser aplicados en muchos problemas, incluyendo el reconocimiento facial,[6] la detección de características,[7] la detección de anomalías y la adquisición del significado de las palabras.[8][9] Los autocodificadores también son modelos generativos que pueden generar aleatoriamente nuevos datos que son similares a los datos de entrada (datos de entrenamiento).[7]
- ↑ Kramer, Mark A. (1991). «"Nonlinear principal component analysis using autoassociative neural networks». AIChE Journal. doi:10.1002/aic.690370209.
- ↑ Kramer, M.A. (1992-04). «Autoassociative neural networks». Computers & Chemical Engineering 16 (4): 313-328. ISSN 0098-1354. doi:10.1016/0098-1354(92)80051-a. Consultado el 6 de abril de 2024.
- ↑ «Deep Learning». www.deeplearningbook.org. Consultado el 6 de abril de 2024.
- ↑ Vincent, Pascal; Larochelle, Hugo (2010). «"Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion"». Journal of Machine Learning Research.
- ↑ Welling, Max; Kingma, Diederik P. (2019). «"An Introduction to Variational Autoencoders"». Foundations and Trends in Machine Learning. doi:10.1561/2200000056.
- ↑ Hinton GE, Krizhevsky A, Wang SD (2011). «Transforming auto-encoders». In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg.
- ↑ a b Géron, Aurélien (2019). «Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow.». Canada: O’Reilly Media, Inc.
- ↑ Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). «Modeling word perception using the Elman network». Neurocomputing (en inglés) (71): 3150-3157. doi:10.1016/j.neucom.2008.04.030. Consultado el 6 de abril de 2024.
- ↑ Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw-Ran (2014). «"Autoencoder for words"». Neurocomputing. doi:10.1016/j.neucom.2013.09.055.