[language-switcher]

[:es]Título: ¿Qué hay detrás del deep learning (desde un punto de vista computacional)?
Ponente: Enrique Quintana (Universitat Politècnica de València)
Organizador:  Juan Aparicio
Date: Miércoles 11 de marzo las 11:30 horas.
Lugar: Aulas 0.1 y 0.2 del CIO en el Edificio Torretamarit, Universidad Miguel Hernández (Campus de Elche)
Resumen: De unos años a esta parte, la tecnología de moda es el «Deep Learning» (DL), es decir, el aprendizaje automático mediante redes neuronales profundas. Este estallido tecnológico es la evolución natural asociada a la era «Big Data»: una vez disponemos de cantidades ingentes de datos, necesitamos los mecanismos adecuados para procesarlos en un tiempo razonable. Aquí es donde las redes neuronales profundas están proporcionando resultados muy relevantes en cuanto a capacidad analítica a costes razonables. En consecuencia, las redes neuronales profundas han dejado de ser una tecnología aplicada mayormente en el reconocimiento de imagen y la traducción de textos, para pasar a utilizarse, por ejemplo, en un número creciente de los servicios proporcionados por compañías como FaceBook o Google, así como en aplicaciones científicas como la predicción del clima, en simulación de colisiones de cuerpos celestes, y en un largo etcétera.
Esta charla tiene un carácter principalmente divulgativo, cuyo propósito principal es relevar qué se esconde detrás de las tecnología DL desde un punto de vista informático (pero solo la punta del iceberg ;-). La charla estará orientada, en una primera parte, a los siguientes aspectos: – ¿A qué viene tanto ruido sobre las redes neuronales (justo ahora)? – pero… ¿qué es realmente una red neuronal? Para esta primera parte recomienda los siguientes vídeos:
https://www.youtube.com/watch?v=aircAruvnKk&t=227s
https://www.youtube.com/watch?v=IHZwWFHWa-w&t=1050s
https://www.youtube.com/watch?v=Ilg3gGewQ5U&t=733s
https://www.youtube.com/watch?v=tIeHLnjs5U8
En una segunda parte, la charla colocará las redes neuronales en el contexto de las arquitecturas de altas prestaciones. Para ello, se comentarán las diferentes posibilidades de paralelización de una red neuronal en clusters; se discutirán brevemente las técnicas de compresión y su impacto (precisamente) sobre la paralelización de una red neuronal; y, por último, se ofrecerá una pincelada de algunas arquitecturas para DL de Google, IBM, Intel (…y NVIDIA).[:]