Otra predicción de Los Simpson: así es el nuevo detector de sarcasmo desarrollado con IA

+1
  • Investigadores de la Universidad de Florida Central y Darpa desarrollaron una herramienta similar a la que utilizó el profesor Frink en un capítulo de la serie en 1999

La Universidad de Florida Central (Estados Unidos) y la Agencia de Proyectos de Investigación Avanzados de Defensa (Darpa, por sus siglas en inglés) crearon un detector de sarcasmo con inteligencia artificial, que ha funcionado con bastante éxito al ser probado en redes sociales.
Para muchos, la noticia no resulta del todo novedosa. Es más, se podría decir que es otra predicción de Los Simpson. El profesor Frink ya usó un detector de sarcasmo en el episodio “Salvaron el cerebro de Lisa” (T10E22, 1999). La imagen es muy recordada por el meme y la frase del hombre de las historietas (”Uy, un detector de sarcasmo, ¡qué invento tan útil!”), a lo que le sigue la explosión del aparato.
La IA de sarcasmo, cuyos resultados fueron publicados en la revista Entropy y replicados por Engadget, fue realizada por Ivan Garibay, profesor adjunto de Ingeniería Industrial y Sistemas de Gestión de la Universidad de Florida Central, y la estudiante de doctorado Ramya Akula.
Este desarrollo de la Universidad de Florida Central y Darpa podría resultar muy útil para que las agencias eviten publicaciones en redes sociales que no son serias a la hora de analizar información. En ese sentido, la IA sería capaz de comprender el sarcasmo escrito con un grado sorprendente de precisión.
Otro punto interesante de este robot algorítmico/moderador es el de dar una acción o inacción correcta a un comentario. Por ejemplo, cuando se trata de críticas de una estrategia u oferta de negocios, la IA indudablemente podría filtrar las devoluciones que estaban genuinamente llenas de elogios y las que simplemente se burlaban de los productos.

Utilizando una variedad de bases de datos de publicaciones de Twitter, Reddit, diálogos diversos e incluso títulos de medios como The Onion, Garibay y Akula mapearon cómo algunas palabras clave se relacionan con otras palabras. “Por ejemplo, palabras como ‘solo’, ‘otra vez’, ‘totalmente’ y signos como ‘!’ tienen matices más oscuros que las conectan con todas las demás de una frase. Estas son las palabras de la frase que insinúan el sarcasmo y, como era de esperar, reciben mayor atención que otras”, escribieron.
Su método se basa en lo que los investigadores denominan “arquitectura de autoatención”, que sirve para entrenar complejos programas de IA llamados redes neuronales para que den más peso a unas palabras que a otras, dependiendo de qué otras palabras aparecen cerca y de lo que el programa tenga que hacer.
¿Qué tanto funciona el detector de sarcasmo?
Tras pruebas exhaustivas a través de portales web, se ha descubierto que esta nueva IA es notablemente buena para diferenciar comentarios sarcásticos de aquellos que no lo son. De las muestras utilizadas, las cifras proporcionadas incluyen:
Twitter: 98,7% de precisión.
Reddit: 81% de precisión.

En general, en comparación con la gran mayoría de otros sistemas disponibles actualmente, esta nueva IA era alrededor de un 5-7% mejor que su competencia y, aunque aparentemente es un número pequeño, esto podría marcar una gran diferencia en el gran esquema de las cosas.
Previo a abrir el código, el equipo de la Universidad de Florida Central tiene planes de desarrollar aún más el modelo para que pueda usarse en otros idiomas además del inglés. No obstante, Garibay señaló que un posible punto de fricción será su capacidad para generar “conjuntos de datos voluminosos de alta calidad en varios idiomas”.
“El próximo gran desafío sería manejar las ambigüedades, los coloquialismos, la jerga y hacer frente a la evolución del lenguaje”, destacó.
Queda claro que, cada vez más, la inteligencia artificial (IA) gana protagonismo en el desarrollo de herramientas para la vida humana. Solo esperemos que no sea para conocernos tanto al punto de destruirnos.

+1

También te podría gustar...

Deja un comentario

A %d blogueros les gusta esto: