El despliegue y evolución de la inteligencia artificial generativa trajo consigo numerosos encantos. Además, tal como repasamos anteriormente, el empleo de esas tecnologías y su exponencial divulgación implican riesgos que deben ser atendidos. Uno, entre los tantos, es la dificultad para distinguir los contenidos reales de aquello que no son auténticos, es decir, aquellos que fueron creados con esas herramientas cada vez más poderosas y convincentes. Fake news, difamación y acoso a través de falsificaciones son algunas de las problemáticas que emergen.
En ese marco, las compañías y organizaciones que participan en el campo de la IA —o que tienen vínculos con ese ámbito— evalúan posibles soluciones. Una de ellas es Snapchat, que esta semana dio a conocer parte de su plan para combatir los inconvenientes relacionados con el contenido sintético. ¿Qué tiene entre manos la aplicación del fantasmita?
El problema no es trivial: conforme los generadores de imágenes con inteligencia artificial mejoran y expanden sus capacidades, se torna más complejo saber si el contenido es real o sintético. Pensemos en lo siguiente: mientras que las ediciones más artesanales, por ejemplo con Photoshop, exhiben signos evidentes de retoque; en sistemas avanzados como DALL-E o Midjourney es cada vez más difícil la identificación.
El plan de Snapchat es concreto: usarán marcas de agua en las imágenes generadas con IA. Siguiendo el repaso del sitio ZDNet, la identificación en aquella aplicación es un pequeño fantasma, igual al logotipo de la red social. Tal como vemos en la foto sobre este párrafo, se añade un pequeño destello con forma de estrellas.