jueves, 26 de septiembre de 2019

Este sistema de inteligencia artificial antirrobo resume varios de los problemas de sesgos atribuidos a los algoritmos

Este sistema de inteligencia artificial antirrobo resume varios de los problemas de sesgos atribuidos a los algoritmos

Una startup estadounidense de inteligencia artificial llamada Standard Cognition ha anunciado que está probando una tecnología desarrollada para permitir comprar en tiendas sin necesidad cajeros ni de detenerse a pagar de ninguna manera: sólo llegar, coger el producto deseado y salir. Al estilo de los supermercados Amazon Go.

Y todo gracias al uso de cámaras y algoritmos para controlar de cerca los movimientos de los clientes y su interacción con los productos de los estantes. Pero lo relevante de la noticia no es la tecnología en sí, ni las nuevas dinámicas de consumo que podría favorecer, ni nada por el estilo.

No: lo relevante es su modo de prevenir el robo en tiendas. Los algoritmos de IA de Standard Cognition pueden, según explica la compañía, reconocer "signos reveladores" en los movimientos y actitudes de los clientes, su velocidad, sus miradas o movimientos. Todos estos factores se comunican inmediatamente al personal de la tienda. Pero, ¿cómo ha llegado a reconocerlos?

El problema de los datos de entrenamiento

El machine learning es especialmente efectivo reconociendo patrones: si se le ofrecen grandes cantidades de datos reales de ejemplo, es capaz de "aprender" qué tienen en común dichos datos y aplicar dicho "aprendizaje" a reconocer nuevos datos relacionados.

Standard Cognition decidió aportar a su IA, como método para ayudarla a reconocer robos, las grabaciones de miles de robos protagonizados por un centenar de actores contratados, refinando el sistema hasta obtener una tasa de precisión superior al 99%.

Las reacciones en Twitter no se han hecho esperar:

"Personas inocentes serán arrestadas, encarceladas, acusadas y posiblemente presionadas para declarase culpables, por culpa, tan sólo, de la idea que un actor tenía sobre cómo podría ser un robo"

"Buena suerte a cualquiera que pasee, mire o se comporte como lo hicieron esos actores".

"Hacer que los actores finjan estar robando y usar eso para entrenar tus datos es el equivalente a entrenar un sistema de reconocimiento de criminales con imágenes de villanos de dibujos animados".

Ya hemos abordado varias veces polémicas sobre los sesgos de algoritmos de IA, y la respuesta suele ser casi siempre la misma: el sesgo no está en el algoritmo, sino en la calidad de los datos. En muchos casos, el mal funcionamiento de los algoritmos de identificación es atribuible al uso de pocos datos en el entrenamiento (y a veces millones pueden ser pocos), o a no usar datos extraídos de la realidad.

Pero... ¿acaso el riesgo de sesgo desaparecería sólo con usar muchos vídeos de robos reales? No: aún entonces, es posible mostrar sesgo en la selección y privilegiar, por ejemplo, vídeos que muestran únicamente a delincuentes vinculados a determinados grupos sociales.

Vía | VentureBeat

Imagen | Cyril Caton

También te recomendamos

Científicos de Oxford e IBM crean una inusual forma de carbono para usarla como materia prima de futuros cerebros artificiales

Esta es la razón por la que las grandes compañías de conducción autónoma están publicando los datos recopilados por sus vehículos

El regulador de Internet chino obligará a que los algoritmos de recomendación promuevan los "valores sociales predominantes"

-
La noticia Este sistema de inteligencia artificial antirrobo resume varios de los problemas de sesgos atribuidos a los algoritmos fue publicada originalmente en Xataka por Marcos Merino .



via Xataka https://ift.tt/2n7hmA7

No hay comentarios:

Publicar un comentario