El futuro se nos ha puesto cuesta arriba. Eso afirman al menos algunas de las personalidades más importantes del mundo de la ciencia y la tecnología, que desde hace tiempo tratan de prevenirnos de la era oscura que se esconde detrás de los avances en inteligencia artificial.
Las ventajas que plantea esta disciplina son prometedoras, pero lo cierto es que estos últimos meses hemos visto cómo esa promesa se veía empañada por los problemas que la inteligencia artificial podría plantear en el futuro. La reflexión sobre ese futuro es inevitable, y algunos se preguntan quién liderará esos ejércitos robóticos. ¿Quién se hará responsable en un futuro en el que todos podremos echar balones fuera?
La peligrosa dependencia de robots y sistemas autónomos
Los negros augurios de películas como 'Terminator' suelen ser lo primero que se nos viene a la cabeza cuando hablamos de robots militares, y precisamente para hablar del tema contamos en el pasado con la colaboración de Jody Williams y de Ronald C. Arkin, que tenían visiones distintas sobre un ámbito que en realidad se extiende a muchos otros escenarios.
Para hablarnos de ellos desde otro de punto de vista nos pusimos en contacto con Maciej Ceglowski, un desarrollador web y emprendedor polaco que desde hace tiempo vive en San Francisco y que fundó allí el servicio de marcadores sociales Pinboard. Sus intereses van más allá de su propia empresa, y desde hace tiempo se ha convertido en un habitual en el circuito de conferencias sobre tecnología.
Su interés por el ámbito de la robótica y la inteligencia artificial ha hecho que recientemente ofreciera una charla sobre su particular visión de ese futuro que nos espera ante la progresiva dependencia de los robots y los sistemas autónomos controlados por inteligencia artificial. En esa charla, que se ha convertido en una de las más populares en internet en los últimos meses, hablaba sobre quién dirigirá los "ejércitos robóticos" del futuro, y hemos podido entrevistarle para debatir sobre esa visión.
Maciej comenzó a interesarse por los temas relacionados con la inteligencia artificial tras leer a autores como Eliezer Yudkowsky, pero lo que más fuerte caló en su visión de este segmento fue la labor de Nick Bostrom, del que indica que "es un filósofo obsesionado con el desastre, y escribió un libro muy popular sobre un potencial "día del juicio final" a finales de los 90". Su reciente libro 'Superinteligencia' fue el que le inspiró para crear su charla, 'Who Will Command The Robot Armies?".*
Los ejércitos robóticos nos rodean hoy en día
Ceglowski nos explicaba cómo ese futuro de ejércitos robóticos tiene hoy a un exponente en todos los avances que "se evalúan primero por parte de los militares en zonas de guerra y luego se trasladan a la vida civil en nuestros hogares". Ponía un ejemplo: los Stingray, que como nos dice "son muy populares entre los departamentos de policía de Estados Unidos, que los usan en secreto. Fueron desarrollados inicialmente para su uso militar en Irak."
De hecho el título de su charla puede llevar a confusión, puesto que no habla solo de ejércitos de robots como los que nos pintaban películas como la citada 'Terminator', sino que utilizaba esos términos "para referirme a todas las formas en las que los dispositivos automatizados se han infiltrado en nuestra vida", algo que los seres humanos hemos permitido porque según su opinión "somos fáciles de manipular".
En esa charla se mencionan varios candidatos para controlar esos ejércitos de robots y dispositivos automatizados. Algunos gigantes de la tecnología ya están preparándonos para ese futuro hiperconectado, pero nos preguntamos hasta qué punto pueden hacer lo que hacen sin que organizaciones como las Naciones Unidas puedan impedirlo.
Para Ceglowski "los mayores apoyos para ese espionaje masivo y automatización provienen de la industria privada. Los gobiernos tienen interés en estos temas, pero tienden a utilizar lo que produce el sector privado en lugar de inventar sus propios sistemas". Lo mismo ocurre con los sistemas judiciales, que deberían ser capaces de limitar y regular el uso de esta tecnología. Este desarrollador no tenía muchas esperanzas en que eso pudiera solventar los retos de futuro:
El problema con el sistema de justicia es que es reactivo. Existe para solucionar problemas, y eso puede llevar mucho tiempo. Necesitamos que se refuercen las leyes, pero también necesitamos cosas con perspectiva de futuro. La tecnología cambia rápido, mientras que la justicia actúa lentamente. Por lo tanto, la justicia es una pobre respuesta a la regulación de la industria.
Un futuro en el que nadie querrá hacerse responsable
Aunque en nuestras conversaciones con académicos de varias instituciones en España pocos veían peligros reales en este ámbito, al menos a corto y medio plazo, hay quien cree que la inteligencia artificial tendrá muchas más ramificaciones de las que podríamos pensar a priori, y por ejemplo se debate si la IA se puede "volver loca".
Lo que es cierto es que el desarrollo y evolución de estos sistemas de ingeligencia artificial probablemente harán nuestra vida más cómoda, pero también provocarán algo peligroso, ya que como indicaba Ceglowski, "la tecnología le da a la gente una forma de evadir la responsabilidad".
Estamos viendo los primeros indicios de ese debate en el segmento de los coches autónomos: ¿Estamos preparados para el día en el que un coche autónomo mate a alguien? ¿Quién asumirá la responsabilidad en caso de daños personales o materiales?
Algunos de los fabricantes que están trabajando en este área afirman que la responsabilidad será suya —eso indican en Volvo, por ejemplo— pero como apuntábamos recientemente:
Las máquinas nos recuerdan nuestras imperfecciones. Les regañamos como a un perro malo. Si no responden exactamente como queremos las hacemos chatarra y a otra cosa. Es más fácil encontrar culpables que asumir las propias. ¿Qué va a decir una máquina, se defenderá ante un tribunal?
En este ámbito la charla de Maciej Ceglowski indicaba cómo todo el mundo cree que la respuesta a nuestros problemas es más automatización y mejor tecnología, pero no regulación sobre ella. Le preguntábamos a este experto cómo habilitar esa regulación cuando hay tantos intereses económicos, y nos daba una respuesta en la que buscaba un consenso entre esos "líderes de los ejércitos robóticos":
La clave es darse cuenta de que no todos los intereses económicos están alineados en la misma dirección. Si tuviéramos una protección fuerte a través del cifrado, por ejemplo —si tuviéramos leyes que obligaran a que los datos sobre el comportamiento se borraran a los 30 días— sería posible crear todo tipo de servicios fantásticos que no se pueden crear ahora, porque asustarían a la gente demasiado. Así que la clave es encontrar una serie de regulaciones que la mayoría de intereses económicos puedan apoyar.
Seis directrices para resolver el problema
La regulación de lo que puede o no puede hacer la inteligencia artificial debería ayudar a controlar esos problemas, y aquí le planteábamos a Maciej Ceglowski el papel de la Unión Europea en otros ámbitos de regulación tecnológica y cómo esas actuaciones podrían extenderse a este campo.
Para él "la Unión Europea, con todas sus limitaciones, ha sido una fuerza muy positiva en este aspecto", y gracias a sus políticas de protección de la privacidad han hecho posible, nos recordaba, que en 2016 se pueda borrar una cuenta de Facebook por completo. "Sin embargo la UE es una institución muy enferma", añadía, "y estamos asistiendo a lo que parece ser su colapso en estos momentos. Esa es una mala noticia".
No todo está perdido ni mucho menos, no obstante. En su charla Ceglowski propnía una serie de medidas que según su opinión podrían suponer una gran diferencia en ese futuro en el que los ejércitos robóticos nos rodeen. Las medidas son las siguientes:
1. Permitir a la gente acceder a la información que se guarda de ellos.
2. Permitir que la borren.
3. Prohibir la recolección de datos de comportamiento (o limitarla a un tiempo corto, como 5 semanas).
4. Obligar a que haya un interruptor físico en los dispositivos de la IoT que deshabilite su conexión a internet.
5. Prohibir todos los sistemas de seguimiento publicitario de terceras partes.
6. Crear un marco legal que permita a las empresas hacer promesas significativas y obligatorias sobre la privacidad. Por ejemplo, quiero ser capaz de prometer que no retengo las direcciones UP, y que se me multará con grandes cantidades de dinero si rompo esa promesa.
Como explicaba este desarrollador, "la idea unificadora aquí es la retención de datos. Necesitamos regular dónde se almacenan los datos, y garantizar que se guardan muchos menos, y por mucho menos tiempo".
De hecho el mensaje final de Ceglowski era mucho más tranquilizador que el que ofrecía en su charla. "Una de las cosas reconfortantes del futuro", decía para terminar bromeando, "es que nadie lo predice con acierto, así que haciendo este tipo de predicciones pesimistas me aseguro de que no se harán realidad".
De hecho, aseguraba, aunque como en toda época pasada ésta "refleja las preocupaciones que tenemos en el presente", nuestro protagonista afirmaba que en estos tiempos oscuros que hacen que también imaginemos futuros oscuros "me anima que la gente al menos esté haciendo el esfuerzo de pensar sobre lo que podría ir mal, y de ser responsables con las tecnologías que crean y usan".
Imágenes | WebStock
En Xataka | "Nada más horrible que armas que no necesiten de la intervención humana para tomar decisiones a vida o muerte" Jody Williams
También te recomendamos
Sony compra la división de sensores de imagen de Toshiba, más recursos para liderar este segmento
Cómo preparar tomate seco casero
Los académicos nos dicen la verdad sobre el estado del hype de la Inteligencia Artificial
-
La noticia ¿Quién va a liderar los ejércitos robóticos del futuro? fue publicada originalmente en Xataka por Javier Pastor .
via Xataka http://ift.tt/2jfILsQ
No hay comentarios:
Publicar un comentario