El temor ante los crecientes casos de tiroteos en colegios de Estados Unidos está abriendo un nuevo mercado. Compañías como Sound Intelligence y Louroe Electronics están vendiendo "detectores de agresiones", que en realidad son micrófonos equipados con algoritmos de machine learning que venden por 1000 dólares cada uno, cuya promesa es poder identificar el estrés y la ira antes de que exista un caso de violencia.
Propublica y Wired decidieron poner a prueba uno de estos micrófonos, donde de acuerdo a sus resultados aún no son del todo fiables, ya que aseguran que no son capaces de identificar entre gritos, risas y otras expresiones. Además de que está el tema de la privacidad, ya que registran todas las conversaciones que hay a su alrededor.
Aún confunden la risa con una discusión
De acuerdo a la información, estos micrófonos se venden desde hace unos meses como "herramientas para prevenir tiroteos" y son ofrecidos principalmente a colegios y hospitales. Lo curioso de esto, como señalan en Wired, es que a día de hoy no hay pruebas de que un tirador grite antes de abrir fuego, por lo que se pone en duda la efectividad de estos dispositivos.
Según Sound Intelligence, una de las compañías responsable de vender estos micrófonos, éstos utilizan software que se basa en un algoritmo de machine learning cuyo objetivo es identificar "la agresión en la voz de una persona", así como "patrones de sonido asociados con la coacción, la ira o el miedo".
Una vez que los micrófonos superan un "umbral determinado por el usuario", se enviará una alerta a los responsables de la seguridad en el colegio, o a un administrador designado quien recibirá un mensaje de texto con la ubicación del micrófono que detectó la supuesta agresión y el porqué se activo.
Para este experimento, Propublica y Wired explican que compraron un micrófono Louroe y el software de "detección de agresiones" desarrollado por Sound Intelligence, ya que la idea era ponerlo a prueba en una aula llena de jóvenes con el fin de analizar lo que captaba el dispositivo.
Según los resultados, el micrófono no se activó cuando "había muchos gritos", pero sí se activó cuando los jóvenes aplaudieron cuando llegó una pizza. En otra prueba, que consistía en jugar 'Pictionary', el micrófono también se activó cuando los jóvenes gritaban suposiciones de la imagen que se estaba dibujando.
En conclusión, el experimento de Propublica y Wired arrojó que el micrófono se activaba con voces agudas, ásperas y con cierta tensión. Pero también se activó con risas, tos, vítores y discusiones ruidosas. Es decir, hubo varios falsos positivos cuando cantaban, reían y hablaban, pero en discusiones más serias o en voz baja no se detectaba nada.
De hecho, hay más casos reales de falsos positivos en colegios equipados con estos micrófonos, como el de la Academia Staples Pathways, en Connecticut, que se activo la alerta cuando alguien tosió. En Pinecrest Academy Horizon, en Nevada, también se activaron tras cerrar con fuerza las puertas de los casilleros. O el caso de Rock Hill, en Carolina del Sur, donde la alerta se encendió cuando los estudiantes le gritaron a un amigo "feliz cumpleaños".
Otra vez el tema de la privacidad
Pero la fiabilidad no es único tema pendiente en este tipo de micrófonos y sistemas de seguridad. A pesar de que sus responsables afirman que no invaden la privacidad de los jóvenes, ya que, según, sólo son capaces de analizar pos sonidos que captan y no el habla, el experimento de Propublica y Wired demostró que los administradores pueden tener acceso a las grabaciones de audio realizadas por cada uno de los micrófonos, lo que abre un segundo debate en cuanto a la privacidad de los alumnos.
Lo que es un hecho es que el mercado de los sistemas de vigilancia que, supuestamente, pueden detectar amenazas de violencia está en aumento, aunque aún no se haya comprobado su eficiencia.
También te recomendamos
El machine learning, protagonista en varios de los anuncios del último WWDC de Apple
-
La noticia Algunos colegios de EEUU están instalando micrófonos de 1000 dólares con inteligencia artificial para "detectar voces agresivas" fue publicada originalmente en Xataka por Raúl Álvarez .
via Xataka https://ift.tt/2KCwmkg
No hay comentarios:
Publicar un comentario