Autocodificador

Un autocodificador es un tipo de red neuronal artificial utilizada para aprender codificaciones eficientes de datos no etiquetados (aprendizaje no supervisado).[1][2]​ El autocodificador aprende dos funciones, la primera es aquella que transforma los datos de entrada y la segunda es la función de decodificación que recrea los datos de entrada a partir de la representación codificada. El autocodificador aprende una representación eficiente (codificación) para un conjunto de datos, normalmente para reducir la dimensionalidad.

Existen variantes cuyo objetivo es forzar a las representaciones aprendidas a asumir propiedades útiles.[3]​ Algunos ejemplos son los autocodificadores regularizados (Sparse, Denoising y Contractive), que son eficaces en el aprendizaje de representaciones para tareas de clasificación posteriores,[4]​ y los autocodificadores variacionales, con aplicaciones como modelos generativos.[5]​ Los autocodificadores pueden ser aplicados en muchos problemas, incluyendo el reconocimiento facial,[6]​ la detección de características,[7]​ la detección de anomalías y la adquisición del significado de las palabras.[8][9]​ Los autocodificadores también son modelos generativos que pueden generar aleatoriamente nuevos datos que son similares a los datos de entrada (datos de entrenamiento).[7]

  1. Kramer, Mark A. (1991). «"Nonlinear principal component analysis using autoassociative neural networks». AIChE Journal. doi:10.1002/aic.690370209. 
  2. Kramer, M.A. (1992-04). «Autoassociative neural networks». Computers & Chemical Engineering 16 (4): 313-328. ISSN 0098-1354. doi:10.1016/0098-1354(92)80051-a. Consultado el 6 de abril de 2024. 
  3. «Deep Learning». www.deeplearningbook.org. Consultado el 6 de abril de 2024. 
  4. Vincent, Pascal; Larochelle, Hugo (2010). «"Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion"». Journal of Machine Learning Research. 
  5. Welling, Max; Kingma, Diederik P. (2019). «"An Introduction to Variational Autoencoders"». Foundations and Trends in Machine Learning. doi:10.1561/2200000056. 
  6. Hinton GE, Krizhevsky A, Wang SD (2011). «Transforming auto-encoders». In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg. 
  7. a b Géron, Aurélien (2019). «Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow.». Canada: O’Reilly Media, Inc. 
  8. Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). «Modeling word perception using the Elman network». Neurocomputing (en inglés) (71): 3150-3157. doi:10.1016/j.neucom.2008.04.030. Consultado el 6 de abril de 2024. 
  9. Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw-Ran (2014). «"Autoencoder for words"». Neurocomputing. doi:10.1016/j.neucom.2013.09.055. 

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search