Como mencioné en mi último artículo, el propósito de la inteligencia artificial es facilitar nuestra vida, siendo un apoyo efectivo en las actividades cotidianas que realizamos. En este sentido, me gustaría dedicar un espacio para dar a conocer aplicaciones novedosas que, a mi parecer, merecen ser expuestas al público ya sea por su nivel innovador, o por su valor social.
Quisiera ante todo aclarar, que mi intención es referirme a aquellos avances relacionados con la inteligencia artificial que buscan aportar significativamente a nuestra sociedad, pero que por una razón u otra, no han gozado de una difusión significativa y para muchos resultan desconocidos. Creo que una buena parte de los lectores habrán escuchado de vehículos autónomos, chatbots o sistemas para detección de fraudes bancarios; en efecto, son invenciones sumamente valiosas bajo cualquier criterio, pero creo también que ya han tenido una notoria cobertura mediática en los últimos años, por lo cual encuentro poco provechoso profundizar en ellos.

Por lo tanto, para entrar de lleno en el caso propuesto para este artículo, me gustaría contarles una breve historia:
Dulce abre sus ojos y mira por la ventana de su habitación en lo que parece ser el barrio de Tondo, en la capital filipina de Manila. Sus ojos fijos en el horizonte, parece que le hacen soñar con juegos y aventuras propios de una niña de 10 años. Esboza una tímida sonrisa que desaparece casi de inmediato cuando regresa la mirada hacia la cámara de su computadora. Al otro lado de la pantalla, un desconocido muchos años mayor a ella, le pide que haga cosas inapropiadas mientras la observa a través de Skype.
Dulce es víctima de una de las peores caras del desarrollo tecnológico moderno: el abuso sexual infantil facilitado por la novedosa comunicación digital. Pero a diferencia de los miles de otros niños y niñas afectados por esta pesadilla anualmente, Dulce tiene una indiscutible ventaja, es una simulación generada por computadora, un avatar; y no sufrirá ninguna consecuencia de lo que está ocurriendo.

Esta niña virtual fue un proyecto piloto creado en el año 2013 por la ONG holandesa Terre des hommes, como una herramienta para combatir el creciente turismo sexual infantil, que afecta a una buena parte de las zonas empobrecidas del sudeste asiático. Durante los casi tres meses que estuvo activa, Dulce tuvo contacto con más de 20,000 personas alrededor del mundo, y mientras lo hacía, remitía información de dichos individuos a un grupo de investigadores en Amsterdam para perfilar potenciales pedófilos con modelos de analítica avanzada.
Como resultado, se logró poner a disposición de la Interpol datos relevantes de alrededor de 1,000 sospechosos de 71 países distintos. Una cantidad importante sin duda, pero insuficiente por mucho. Y el problema no termina allí, como muchas otras instituciones policiales en el mundo, la Interpol sufre de limitaciones en recursos y en capacidades técnicas para combatir este tipo de crímenes, por lo que muchos de estos casos no han podido ser resueltos hasta el día de hoy.
La buena noticia, es que Dulce no es el único esfuerzo para hacer frente a la pedofilia con la inteligencia artificial. Las mayores empresas tecnológicas, la academia y un importante número de ONG’s, están activamente trabajando para crear y mejorar herramientas, que por un lado, brinden mayor seguridad al momento de introducir a los menores de edad en el mundo digital; y por otro, faciliten la identificación de amenazas y generen alertas tempranas a la policía para atrapar pedófilos y abusadores.
A continuación entonces, me permito mencionar algunas de las aplicaciones que considero más interesantes en este ámbito.
PhotoDNA
La huella digital es una característica única e irrepetible en cada ser humano, ¿pero puede encontrarse una cualidad equivalente en una fotografía? Esta pregunta fue la que se plantearon investigadores de Microsoft Research, en colaboración con el National Center for Missing & Exploited Children (NCMEC). Usando técnicas avanzadas de procesamiento de imágenes del experto Hany Farid de la Universidad de Dartmouth, y entrenando sistemas computacionales para etiquetar millones de fotografías ilegales extraídas del Internet, la solución nació en el año 2009 con PhotoDNA.
En el contexto de la lucha contra los actos ilícitos asociados a la pedofilia, PhotoDNA es un software inteligente que se integra a servicios online como Bing o Windows Live, para detectar de manera inmediata la transmisión de imágenes pornográficas infantiles en la web, incluso si las mismas han sido alteradas de alguna manera. En efecto, la aplicación es capaz de identificar fotografías concretas aun cuando éstas presenten filtros de color, recortes, escalamientos, rotaciones o reflexiones, que la diferencian de la «original» previamente almacenada en un muy custodiado repositorio de imágenes.
Una vez que se ha detectado una presunta fotografía ilegal, el software está en la capacidad de bloquear el uso de la misma, a la vez que recopila datos asociados a los usuarios que estuvieron involucrados en su transmisión. Esta información se puede compartir con las autoridades competentes, a fin de que sea usada para el seguimiento y la identificación de los perpetradores.
La capacidad computacional actual permite que PhotoDNA pueda evaluar rápidamente un volumen de fotografías que sería imposible para cualquier humano, además que es capaz de buscar este tipo de imágenes en sitios de Internet de muy difícil acceso por medios tradicionales.
Content Safety API
Desde hace casi 20 años, la empresa Google y la Internet Watch Foundation (IWF) vienen trabajando en una aplicación web capaz de reconocer de forma automática imágenes de menores que circulan por el Internet, y cuyo contenido resulta sospechoso. Hasta aquí, no existe mayor diferencia con lo realizado por PhotoDNA de Microsoft.
Sin embargo, Content Safety API posee la ventaja que su inteligencia artificial no requiere contar con un repositorio previo de fotografías «originales»; por el contrario, se enfoca en encontrar patrones de riesgo en las imágenes que resultan irreconocibles para un ojo humano, pero que pueden ser detectados por la red neuronal detrás de esta tecnología. Este aspecto diferenciador permite a la aplicación una mayor velocidad al momento de detectar amenazas en el contenido.
Adicional a esto, Google ha logrado complementar Content Safety API con otros servicios dentro de su extensa cartera. En el año 2011 por ejemplo, un pedófilo holandés pudo ser identificado por la policía local gracias a la herramienta Google Earth. En las fotografías de menores que esta persona distribuía en la web, se observaba de forma recurrente en la ventana de la habitación una iglesia cruzando la calle. Mediante la comparación de estas fotografías con aquellas existentes en el servicio satelital de la empresa, se pudo dar con la misma iglesia y por consiguiente, con la casa del delincuente.

Proyecto Artemis
A finales del 2019, un reportaje del New York Times expuso los riesgos que plantean en menores de edad las plataformas de videojuegos en línea. En la actualidad, un alto procentaje de niños y adolescentes participan activamente en sistemas multijugador, para lo cual requieren interactuar continuamente con desconocidos. Esta situación evidentemente se ha convertido en un medio para la proliferación de actos ilegales vinculados con la pedofilia y el abuso sexual.
A fin de minimizar esta amenaza en su consolas Xbox, la empresa Microsoft, en alianza con Thorn y otras ONG’s, desarrolló el Proyecto Artemis. Mediante un inteligencia artificial para procesar textos en los chats que surgen durante la interacción multijugador, el software Artemis identifica al instante conversaciones potencialmente peligrosas vinculadas a abuso sexual infantil, a la vez que puede dar aviso a las autoridades de forma inmediata sobre estos hechos.
Un aspecto diferenciador de la herramienta es que no solamente encuentra palabras y frases con contenido peligroso, sino que también realiza un análisis contextual de las conversaciones, independiente de los términos empleados en las mismas, para etiquetarlas como inseguras hacia los menores de edad.
Actualmente, Artemis está aprendiendo nuevos idiomas y nuevas formas lingüísticas, con el propósito de dar una mayor cobertura no solamente en plataformas de videojuegos, sino en cualquier sistema de mensajería a través del Internet.
Armas de doble filo
Si bien estos avances tecnológicos se constituyen en pasos gigantescos para la lucha contra la pedofilia y el abuso sexual de menores, estamos aún lejos de llegar a un punto ideal. Aunque muy necesarias, todas estas aplicaciones creadas resultan insuficientes. Por una parte, el mismo desarrollo tecnológico entrega a los criminales nuevas formas de continuar con sus ilícitos sin ser detectados. Las herramientas expuestas se vuelven en este sentido, agentes que sólo son capaces de responder a los hechos, y no entidades de prevención.
Por otro lado, las fuerzas policiales todavía no logran adaptar su estructura y su procedimiento para atender el volumen de información que la inteligencia artificial de estos avances es capaz de generar. Los recursos de las autoridades siguen siendo limitados, y el desarrollo de capacidades tecnológicas es asimétrico entre las organizaciones creadoras de las aplicaciones, y quienes supuestamente deberían usarlas.
Pero el problema va inclusive más allá. Aplicaciones como las mostradas en este artículo están lejos de ser perfectas. La existencia de falsos positivos es muy común, lo cual en este contexto implica acusar de un crimen terrible a una persona inocente, con todas las implicancias que esto acarrea a nivel social y psicológico. Y tampoco podemos olvidar los falsos negativos, aquellos que conllevan dejar pasar los actos ilícitos y mantener la victimización de los menores de edad.
Y los cabos sueltos siguen. Aplicaciones como las vistas en este artículo requieren de una constante interacción con personas, ya sea para entrenar los sistemas inteligentes, o para verificar los contenidos peligrosos detectados y tomar decisiones al respecto. ¿Cómo garantizar ante esto que no se den filtraciones o se violen principios de seguridad de la información? Las mismas herramientas que se usan para luchar contra estos crímenes, pueden terminar volviéndose una fuente de los mismos, acrecentando aún más el problema. Es necesario entonces trabajar en una adecuada gobernanza que garantice el tratamiento responsable de los datos, tomando en cuenta siempre que las víctimas en este escenario son niños y adolescentes.
Por último, siempre está en discusión el tema de la privacidad como un derecho intrínseco de nuestra sociedad. Esta era digital está brindando una nueva perspectiva al paradigma de lo que debe o no ser privado. En el contexto de este artículo, ¿estamos dispuestos a que aplicaciones como las vistas monitoreen continuamente lo que compartimos en Internet o lo que conversamos? ¿El fin buscado justifica sacrificar la privacidad de todos? Estas son preguntas que todavía no tienen respuesta, pero que deberán ser contestadas tarde o temprano.
Muy interesante artículo
Me gustaMe gusta