miércoles, 4 de octubre de 2017

El problema no serán los robots asesinos, sino los datos sesgados en algoritmos, según el jefe de IA de Google

John Giannandrea

El jefe de la división de Inteligencia Artificial de Google también está preocupado por los peligros que puede entrañar esta tecnología. No, no le preocupan que las máquinas puedan tomar el control como dice Elon Musk, sino más bien que tomen decisiones erróneas por no ofrecerles todos los datos que necesitan.

"La verdadera pregunta en torno a la seguridad, si se le quiere llamar así, es que si le damos a estos sistemas datos sesgados, ellos mismos estarán sesgados", ha expuesto John Giannandrea en una conferencia en torno a la relación entre humanos e IA. Vamos, que si no les damos los datos suficientes como para que las máquinas entiendan los posibles contextos, estas estarán condenadas a ser injustas.

De hecho, ya os contamos que ya se están denunciando estas decisiones injustas por parte de los sistemas de IA, y que ya hay personas revelándose contra el delegar demasiado en los algoritmos. Además, el problema tiene el potencial para ir a más a medida que estas se vayan extendiendo a áreas especialmente delicadas como la medicina o el derecho.

Por lo tanto, parece que para el máximo responsable de IA en Google el problema no está tan afincado en el futuro como el de una posible rebelión de las máquinas, sino que es algo que parece estar empezando a pasar. Su receta para atajar el problema es la transparencia, y así lo indicó en su charla durante la conferencia.

"Es importante que seamos transparentes acerca de los datos de entrenamiento que estamos utilizando, y buscar prejuicios ocultos, de lo contrario estamos construyendo sistemas sesgados", agregó Giannandrea. "Si alguien está tratando de venderte un sistema de caja negra para el apoyo a la decisión médica, y no sabes cómo funciona o qué datos se utilizaron para entrenarlo, entonces yo no confiaría en él".

Pero Google no parece predicar con el ejemplo

Las palabras del jefe de la división de Inteligencia Artificial de Google tienen sentido, la transparencia es uno de los puntos clave, pero su empresa no parece predicar demasiado con el ejemplo en sus algoritmos. Lleva guardando celosamente el secreto de algoritmos como el de su buscador todos estos años, y aunque lo revisa con frecuencia, apenas ofrece información sobre qué parámetros influyen en que un resultado aparezca por encima de otro.

Y esta es una práctica que realizan muchas otras empresas líderes en tecnología con sus algoritmos, pues todos ellos tienen un "santo grial" que les hace aventajar a la competencia, una receta de la Coca-Cola en el mundo de Internet que no están dispuestos a liberar.

Esa actitud de hecho le da más fuerza a la tesis de Giannandre. Si diseñas una máquina que toma decisiones y te está dando dinero, lo más probable es que no expongas públicamente el algoritmo, sino que te guardes toda esa información para no perder tu ventaja ante la competencia. Y eso precisamente puede causar el problema, ya que la gente no sabrá hasta qué punto la información que alimenta esas decisiones es sesgada.

Imagen | TechCrunch
En Xataka | Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos

También te recomendamos

Los espacios del arte que impulsan a los nuevos artistas contemporáneos

Mya quiere acabar con la discriminación a la hora de contratar: que lo haga un bot con IA sin sesgos

Estas obras de arte han sido creadas por una doble red neuronal y logran gustar más que las pintadas por humanos

-
La noticia El problema no serán los robots asesinos, sino los datos sesgados en algoritmos, según el jefe de IA de Google fue publicada originalmente en Xataka por Yúbal FM .



via Xataka http://ift.tt/2yn3kPh

No hay comentarios:

Publicar un comentario