miércoles, 20 de junio de 2018

GPUs de NVIDIA, Deep Learning y el fin de la ley de Moore: hablamos con Manuel Ujaldón (Insert Coin 1x07)

Ujaldon1

A Manuel Ujaldón —CUDA Fellow desde 2012 y profesor de la Universidad de Málaga —ya le entrevistamos en 2012 y 2016 para hablar del presente y futuro de las tarjetas gráficas, pero ese futuro es tan cambiante que hemos querido volver a contar con su ayuda para entender qué se mueve en un segmento que va mucho más allá del gaming o del minado de criptodivisas.

De hecho Ujaldón lleva tiempo evangelizando y demostrando cómo la plataforma de computación paralela CUDA de NVIDIA es aplicable a multitud de ámbitos científicos y tecnológicos. Comunicar sobre estos complejos temas no es fácil, pero una vez más Ujaldón demuestra por qué se ha recorrido el mundo entero dando conferencias y 'plantando semillas'. Su capacidad para hacer sencillo lo complicado es fantástica, y lo demuestra en el podcast en el que ha participado con nosotros.

Evangelizando que es gerundio

Ujaldón comenzaba explicándonos sus inicios en un programa que en 2012 le convirtió en evangelizador CUDA, una oportunidad que le ha permitido formar parte del equipo de 12 evangelizadores ("somos como los 12 apóstoles CUDA", bromea) de una tecnología que han impulsado en todo el mundo.

Eso le ha permitido sembrar muchas ideas, y de hecho comentaba cómo su mayor satisfacción había sido "ser el padre de tesis doctorales, trabajos de empresa magníficos y muchas startups que ahora están viendo la luz y que se han desarrollado a partir de aquellas semillas".

Tras aplicar CUDA a campos como la biomedicina o la física, Manuel Ujaldón ha cambiado de tercio y ha querido aprovechar esa disciplina que está cambiando el mundo: el aprendizaje profundo o 'deep learning' que entre otras cosas está aplicando al procesamiento de imagenes en tiempo real.

Tendencias: criptomonedas y aprendizaje profundo

Una de las ventajas de CUDA es su capacidad para sacar provecho de la inmensa fuerza bruta de las tarjetas gráficas, y eso se ha comprobado en la minería de criptodivisas en la que el paralelismo masivo es importante.

Nvidiaq1

Esa fiebre por la minería ha hecho que como comentaba Manuel Ujaldón la demanda supere a la oferta: hay tan solo cuatro fabricantes de chips gráficos, y por ejemplo TSMC "ha quedado desbordada. Si empiezas a pedirle panes a la panadería y no tienen el horno preparado para tantos, suben el precio del pan".

Otro de los ámbitos en los que NVIDIA y CUDA han tenido especial impacto últimamente ha sido el del deep learning del que nos hablaba Ujaldón. El desarrollo del Tensor Core "embebido dentro de la GPU y que realizan cálculos matriciales" muy importantes en ese tipo de operaciones que son "el átomo" de muchas operaciones de deep learning.

Eso ha permitido llegar a tasas de 20 TFLOPs con números de precisión media, algo asombroso, pero que a Manuel Ujaldón no le gusta llamar inteligencia. "Lo que haces es ver patrones sistemáticamente y de forma masiva, lo que te da la capacidad de ver muchas cosas", y de hecho la revolución del deep learning "viene, como en el caso de las criptomonedas, de la fuerza bruta". La máquina ve muchas cosas que antes no veía, "pero no lo olvidemos", insistía, "la máquina razonar, no razona".

Se nos acaba la ley de Moore

Le preguntábamos a Ujaldón por algo inevitable ante los retrasos en los últimos grandes saltos en escalas de fabricación: ¿se nos acaba la ley de Moore? Este profesor bromeaba inicialmente indicando que "tantos años llevamos diciéndolo que algún año tendrá que ser verdad".

Moore2

Aún así, es evidente que las barreras a la hora de reducir la litografía empiezan a ser importantes, y por ejemplo Intel está tardando más de lo que esperábamos en dar el salto a los 10 nm. Aunque otros han anunciado el salto ya a los 7 nm (IBM, TSMC, Global Foundries), lo cierto es que como explicaba Manuel Ujaldón "los 10 nm de Intel dan mucho más de sí que los 7 nm de las otras compañías, y hay estudios que lo avalan".

Entre otras cosas, destacaba, por la capacidad de integración de Intel, que mete 100 millones de transistores por mm2 mientras que a TSMC por ejemplo rondan los 50 millones. El problema es que Intel aún no ha sacado el procesador y otros están a punto de hacerlo.

Para los expertos en arquitectura de computadores esto es una buena noticia, "porque cuando la microelectrónica ya no puede más, el diseño es el que realmente cobra protagonismo". Esas microarquitecturas de Intel, NVIDIA y el resto de fabricantes son las que van a marcar la diferencia, asegura.

De hecho Ujaldón nos explicaba cómo hay margen de mejora importante en ese área porque "la reducción de la anchura de puerta permitía meter mucho escombro debajo de la puerta para que no se vieran, es decir, muchas pifias de diseño en los chips al final salían adelante gracias a las frecuencias a las que trabajaban o al número de transistores integrados". Este profesor concluía diciendo que "más allá de los 7 nm va a ser difícil que lleguemos".

GPUs multidisciplinares

Una de las peculiaridades de la trayectoria de NVIDIA es que para Ujaldón sus diseños son cada vez más polivalentes. Para este experto la empresa está intentando crear un producto que abarque sus tres grandes mercados: la visualización tradicional (gaming), la computación de altas prestaciones (HPC), y el Deep Learning.

Nvidia2

Esa filosofía de vender un único producto y "caparlo" para orientarlo a distintos segmentos y distintos precios podría pronto ser parte de NVIDIA, que como nos decía Ujaldón aquí seguiría los pasos de Intel, que ya utilizó esta técnica en el pasado. "Ellos hacían un mismo procesador para distintas gamas y desactivando ciertas cachés lo dirigían a un segmento más humilde de mercado, por así decirlo".

De hecho esa es para este profesor de la Universidad de Málaga una de las claves del futuro, diseños más polivalentes que se puedan adaptar a un tipo de usuario o a otro tan solo activando o desactivando ciertas características y "dependiendo de la aplicación que se va a ejecutar en él, te encienda o te apague algunas de las unidades funcionales". De hecho, para Ujaldón estos chips serán camaleónicos y permitirán evitar los diseños cerrados "de sota, caballo y rey".

Insert Coin sigue su marcha, ahora en formato podcast

En este último episodio de Insert Coin hemos pasado del vídeo con el que habíamos trabajado hasta ahora al formato podcast: contaremos con entrevistas a diversos expertos en formato audio con el mismo enfoque que veníamos siguiendo desde el origen de este segmento.

Insertcoin

Podéis consultar los Insert Coin anteriores aquí, y si queréis ya podéis también suscribiros al podcast de Insert Coin a través de iVoox y de iTunes.

En Xataka | Empecé a minar bitcoins cuando solo valían dos dólares

También te recomendamos

NVIDIA avisa: la minería de criptodivisas prontó dejará de ser un filón para ellos (¿y para casi todos?)

Uno de los servidores en la nube de Tesla fue hackeado y usado para minar criptomonedas

Bolsillo, la belleza y la simplicidad materializadas en bolsos hechos a mano

-
La noticia GPUs de NVIDIA, Deep Learning y el fin de la ley de Moore: hablamos con Manuel Ujaldón (Insert Coin 1x07) fue publicada originalmente en Xataka por Javier Pastor .



via Xataka https://ift.tt/2K4Na2C

No hay comentarios:

Publicar un comentario