La
publicación especializada Futurism inserta en su último número un
interesantísimo análisis sobre el debate abierto en torno a un hecho que casi
pone los pelos de punta en torno a la inteligencia artificial: la veterana
revista Sports Illustrated ha venido publicando recientemente contenidos
atribuidos a autores que, sencillamente, no existen. Todos ellos habrían sido
creados mediante esa tecnología, igual que una parte incierta de los artículos
que firman. El grupo editorial al que pertenece la revista atribuye tales
contenidos a un proveedor externo cuyo origen no ha sido desvelado y ha
asegurado que ha rescindido su contrato con
él.
Fuentes
conocedoras del proceder han confirmado a Futurism la existencia de “un
montón” de perfiles de ese tipo, dotados de imágenes creadas mediante una
aplicación dedicada a vender fotos que recrean primeros planos de personas
inventadas. Las descripciones profesionales que las acompañan son muy genéricas
y en los artículos asociados se pueden detectar estilos de escritura identificables con el resultado
que ofrece actualmente la inteligencia artificial generativa. La
prevalencia de esa producción ha sido igualmente constatada a la publicación
especializada por una segunda fuente cercana a la situación.
En todo
caso –según se lee en la edición digital de Dircomfidencial- ese rastro
ha desaparecido justo después de que la publicación se dirigiera al grupo
editor ‘The Arena Group’ al que pertenece Sports Illustrated para
recabar más información. “En un primer momento -informa- no hubo respuesta,
pero después de que Futurism difundiera el artículo en el que explicaba
la anomalía, difundió
un comunicado en el que atribuía el problema a un proveedor externo llamado
AdVon”.
Según esa
explicación, piezas variadas de esa empresa se venían publicando en diferentes
webs del grupo bajo la garantía de que eran escritas y editadas por humanos,
pero ‘The Arena Group’ no sabía que utilizaban seudónimos en algunos artículos
para proteger la privacidad del autor. Como consecuencia de la repercusión
negativa, y con una investigación interna en marcha, ha decidido rescindir su
contrato.
Este caso
se une a otros en los que Futurism ha detectado el uso de inteligencia
artificial generativa para publicar contenido que a menudo resulta problemático
o de baja calidad. Previamente lo había descubierto en CNET y
Bankrate, dos cabeceras del editor Red Ventures que vagamente revelaban
el origen de contenidos que además mostraban errores factuales e incluso
plagios. La tendencia de reducción de costes humanos mediante automatización
también ha llevado a G/O Media a desmantelar la redacción de la versión
en castellano de Gizmodo y publicar en su lugar versiones traducidas con
poca exactitud de piezas originales en inglés. BuzzFeed o Gannett son
otras compañías que están experimentando con esa tecnología, también con
resultados mediocres.
En fin,
que cada vez podemos fiarnos menos. La inteligencia artificial, que ha venido
para quedarse, se presta a componendas como la que hemos comentado y mucho
habrá que idear para garantizar la pureza de los contenidos y de las autorías.
Esto de los perfiles falsos desborda
cualquier límite ético y lógico.
No hay comentarios:
Publicar un comentario
Escriba su cometario. Sólo se pide respeto