MARYCLAIRE DALE y ALI SWENSON
El equipo de campaña de la cuestionada sheriff de Filadelfia reconoció el lunes que una serie de “noticias” positivas publicadas en su sitio web fueron generadas por ChatGPT.
El equipo de campaña de la sheriff Rochelle Bilal eliminó más de 30 historias creadas por un consultor que utilizó el chatbot de IA generativa. La medida se tomó después de que un artículo del Philadelphia Inquirer informara el lunes que los medios de comunicación locales no podían encontrar las historias en sus archivos.
Los expertos afirman que este tipo de desinformación puede erosionar la confianza pública y poner en riesgo a la democracia. El equipo de campaña de Bilal afirmó que las historias se basaban en hechos reales.
“Nuestro equipo de campaña proporcionó los temas de conversación al consultor externo que luego se proporcionaron al servicio de IA”, dijo el equipo de campaña en un comunicado. “Ahora está claro que el servicio de inteligencia artificial generó falsos artículos de noticias para apoyar las iniciativas que eran parte de las instrucciones para la IA”.
Los modelos de lenguaje de gran tamaño como ChatGPT de OpenAI funcionan prediciendo repetidamente la siguiente palabra más plausible de una frase. Esto les permite responder a preguntas complejas en cuestión de segundos, pero también les hace cometer errores frecuentes, conocidos como alucinaciones.
Muchos estadounidenses han empezado a utilizar estas herramientas para redactar más rápidamente correos electrónicos de trabajo, textos para sitios web y otros documentos. Pero eso puede acarrear problemas si no se da prioridad a la precisión o no se coteja cuidadosamente el material.
Por ejemplo, dos abogados tuvieron que disculparse el año pasado ante un juez de un tribunal federal de Manhattan después de que utilizaran ChatGPT para buscar precedentes jurídicos y no se percataran inmediatamente de que el sistema se inventaba algunos.
Mike Nellis, fundador de Quiller, una herramienta de IA diseñada para contextos de campañas electorales, calificó de “completamente irresponsable” el uso de la IA por parte del asesor de la campaña electoral.
“No es ético”, dijo. “Es una total mentira”.
Aun así, señaló, corresponde a OpenAI hacer cumplir sus políticas, que no permiten que las personas compartan los resultados de sus productos con el fin de estafar o engañar a la gente.
OpenAI tampoco permite que se utilicen sus sistemas para crear aplicaciones para campañas políticas o cabildeo, aunque no hay pruebas de que esto haya ocurrido en este caso. OpenAI no ha respondido hasta el momento a una solicitud de comentarios.
Nellis afirmó que también se requiere regulación local, estatal y federal de las herramientas de IA en política a medida que avanza la tecnología. Aunque los debates bipartidistas en el Congreso han subrayado la necesidad de una legislación de este tipo, todavía no se ha aprobado ninguna ley federal.
La lista de noticias relativas a Bilal, que el sitio denominó como su “Historial de logros”, terminaba con una cláusula de exención de responsabilidad —que el Inquirer calificó de nueva—, según la cual la información “no representa ni garantiza de ningún modo” la exactitud de la misma.
Algunos, incluido un denunciante despedido de la oficina de Bilal, temen que tal desinformación pueda confundir a los votantes y contribuir a la constante desconfianza y las amenazas a la democracia.
“Tengo profundas preocupaciones al respecto”, manifestó Brett Mandel, que sirvió brevemente como su jefe de finanzas en 2020 y habló antes de que el equipo de campaña emitiera la declaración.
“Creo que hemos visto a nivel local y nacional, no sólo un desprecio por la verdad y las instituciones que hemos considerado como garantes de la verdad”, dijo, “sino que creo que hemos erosionado toda la confianza en este ámbito”.
Mandel interpuso una de las varias denuncias de irregularidades presentadas contra la oficina. Alegó que fue despedido por plantear dudas sobre las finanzas de la oficina. Bilal ha sido criticada durante su mandato por los gastos de la oficina, los informes financieros de campaña, la supuesta pérdida de cientos de armas y otras cuestiones.
La lista de noticias, que incluye supuestas fechas de publicación, atribuía cuatro noticias al Inquirer, ninguna de las cuales se encuentra en los archivos del periódico, dijo el portavoz Evan Benn. Las demás se atribuían a tres emisoras locales: WHYY, WCAU y KYW.