OpenAI bloquea las cuentas de ChatGPT de un grupo iraní por atacar las elecciones estadounidenses
OpenAI dijo el viernes que había eliminado las cuentas de un grupo iraní por usar su chatbot ChatGPT para generar contenido destinado a influir en las elecciones presidenciales de Estados Unidos y otros temas.
La operación, identificada como Storm-2035, utilizó ChatGPT para generar contenido centrado en temas como comentarios sobre los candidatos de ambos lados en las elecciones estadounidenses, el conflicto en Gaza y la presencia de Israel en los Juegos Olímpicos y luego lo compartió a través de cuentas de redes sociales y sitios web.
La investigación de la empresa de inteligencia artificial respaldada por Microsoft mostró que ChatGPT se utilizaba para generar artículos largos y comentarios más breves en las redes sociales.
OpenAI afirmó que la operación no parecía haber logrado una participación significativa de la audiencia.
La mayoría de las publicaciones en redes sociales identificadas recibieron pocos o ningún «Me gusta», comentarios o publicaciones compartidas y la empresa no vio indicios de que los artículos web se compartieran en las redes sociales.
Se ha prohibido a las cuentas utilizar los servicios de OpenAI y la compañía continúa monitoreando las actividades para detectar cualquier intento adicional de violar las políticas, afirmó.
A principios de agosto, un informe de inteligencia de amenazas de Microsoft dijo que la red iraní Storm-2035, compuesta por cuatro sitios web que se hacen pasar por medios de noticias, está interactuando activamente con grupos de votantes estadounidenses en extremos opuestos del espectro político.
El compromiso se estaba construyendo con “mensajes polarizadores sobre temas como los candidatos presidenciales de Estados Unidos, los derechos LGBTQ y el conflicto entre Israel y Hamás”, afirmó el informe.
La candidata demócrata Kamala Harris y su rival republicano Donald Trump están enfrascados en una reñida carrera, antes de las elecciones presidenciales del 5 de noviembre.
La empresa de inteligencia artificial dijo en mayo que había desbaratado cinco operaciones de influencia encubiertas que buscaban utilizar sus modelos para “actividades engañosas” en Internet.
(Esta es una historia sin editar y generada automáticamente a partir de un servicio de noticias sindicado. Blog de Nueva York Es posible que el personal no haya cambiado ni editado el texto del contenido).