domingo, 2 de diciembre de 2018

Con AWS Inferentia, Amazon desembarca también en el mercado de los chips de inteligencia artificial

Con AWS Inferentia, Amazon desembarca también en el mercado de los chips de inteligencia artificial

Amazon ha aprovechado la conferencia AWS Re:Invent que se clausura hoy en Las Vegas para anunciar el lanzamiento de los chips Inferentia, sus propia alternativa para proyectos de aprendizaje automático, con los que pretenden proporcionar a los investigadores "alto rendimiento a bajo costo" a partir de finales de 2019.

Los Inferentia saltarán al mercado siendo compatibles con frameworks populares como INT8, FP16, TensorFlow, Caffe2 y ONNX. Y, siendo un producto Amazon, también soportará datos procedentes de productos populares de AWS como EC2, SageMaker o el nuevo Elastic Inference Engine, anunciado esta misma semana.

Amazon desembarca en su enésimo nuevo mercado

La compañía fundada por Jeff Bezos es un gigante que a veces pareciera no resignarse a dejar ningún mercado en manos de otras compañías. En 2021, el mercado de los chips de inteligencia artificial estará valorado en 11.800 millones de dólares, según los analistas de Morningstar.

Sin embargo, al contrario que Intel o Nvidia, actuales líderes en este campo, Amazon no venderá sus chips físicos, sino el tiempo de uso de los mismos a través de servicios cloud (siguiendo un modelo muy similar al de AWS).

Esta diferencia de modelo no significa que no vaya a repercutir negativamente sobre las dos empresas líderes: siendo Amazon uno de los mayores clientes de ambas, una apuesta clara por el uso de sus propios chips Inferentia podría traducirse en grandes pérdidas para aquéllas.

La estrategia de Amazon no difiere demasiado de la ya sostenida por Google con el lanzamiento el pasado verano de su chip Google TPU (siglas de 'Unidad de Procesamiento Tensor'). Holger Mueller, analista de Constellation Research, afirmó en declaraciones a TechCrunch que, si bien la infraestructura de los Inferentia aún va 2-3 años por detrás de los TPU, este movimiento de Amazon es muy relevante:

"La velocidad y el coste de ejecutar operaciones de aprendizaje automático constituyen un diferenciador competitivo para las empresas [pues determinará si] las empresas (y las naciones cuando piensen en la guerra) son un éxito o un fracaso. Esa velocidad sólo se puede lograr con hardware personalizado, e Inferentia es el primer paso de AWS para ingresar a este juego".

Imagen | Amazon

También te recomendamos

Redes neuronales autocontenidas en un lápiz USB, la solución de Intel para los pequeños desarrolladores de IA

La BBC experimenta con 'deep fakes' para doblar a un presentador en varios idiomas

9 consejos para asegurarte un sueño reparador, empezando por el colchón

-
La noticia Con AWS Inferentia, Amazon desembarca también en el mercado de los chips de inteligencia artificial fue publicada originalmente en Xataka por Marcos Merino .



via Xataka https://ift.tt/2rdiKAe

No hay comentarios:

Publicar un comentario