presione soltar

La empresa que envió llamadas de inteligencia artificial imitando a Joe Biden a los votantes de New Hampshire acepta pagar una multa de un millón de dólares

Abra esta foto en la galería:

Steve Kramer durante su lectura de cargos en relación con cargos de supresión de votantes y suplantación de identidad de candidato en el Tribunal Superior, en Laconia, NH, el 5 de junio.Steven Senne/Associated Press

Una empresa que envió llamadas engañosas a votantes de New Hampshire utilizando inteligencia artificial para imitar la voz del presidente Joe Biden acordó el miércoles pagar una multa de un millón de dólares, dijeron los reguladores federales.

Lingo Telecom, el proveedor de servicios de voz que transmitió las llamadas automáticas, aceptó el acuerdo para resolver las medidas de cumplimiento adoptadas por la Comisión Federal de Comunicaciones, que inicialmente había solicitado una multa de 2 millones de dólares.

El caso es visto por muchos como un inquietante ejemplo temprano de cómo la IA podría usarse para influir en grupos de votantes y en la democracia en su conjunto.

Mientras tanto, Steve Kramer, un consultor político que organizó las llamadas, aún enfrenta una multa propuesta por la FCC de 6 millones de dólares, así como cargos criminales estatales.

Los mensajes telefónicos fueron enviados a miles de votantes de New Hampshire el 21 de enero. Presentaban una voz similar a la de Biden que sugería falsamente que votar en las primarias presidenciales del estado les impediría emitir su voto en las elecciones generales de noviembre.

Kramer, quien pagó a un mago y se describe a sí mismo como un «nómada digital» para crear la grabación, dijo a The Associated Press a principios de este año que no estaba tratando de influir en el resultado de las primarias, sino que quería destacar los peligros potenciales de la IA y estimular a los legisladores a la acción.

Si es declarado culpable, Kramer podría enfrentar una sentencia de prisión de hasta siete años por un cargo de supresión de votantes y una sentencia de hasta un año por un cargo de hacerse pasar por un candidato.

La FCC dijo que además de aceptar la multa civil, Lingo Telecom había aceptado cumplir con estrictas reglas y requisitos de autenticación de identificación de llamadas y verificar más exhaustivamente la exactitud de la información proporcionada por sus clientes y proveedores ascendentes.

“Todos merecemos saber que la voz que habla por teléfono es exactamente la que dice ser”, afirmó la presidenta de la FCC, Jessica Rosenworcel, en un comunicado. “Si se está utilizando inteligencia artificial, esto debe quedar claro para cualquier consumidor, ciudadano y votante que se encuentre con ella. La FCC actuará cuando la confianza en nuestras redes de comunicaciones esté en juego”.

Lingo Telecom no respondió de inmediato a una solicitud de comentarios. La compañía había dicho anteriormente que estaba en total desacuerdo con la acción de la FCC, calificándola de intento de imponer nuevas normas de manera retroactiva.

Public Citizen, un grupo de defensa de los consumidores sin fines de lucro, elogió a la FCC por su acción. El copresidente Robert Weissman dijo que Rosenworcel había acertado “exactamente” al decir que los consumidores tienen derecho a saber cuándo están recibiendo contenido auténtico y cuándo están recibiendo deepfakes generados por inteligencia artificial. Weissman dijo que el caso ilustra cómo estos deepfakes plantean “una amenaza existencial para nuestra democracia”.

Loyaan Egal, jefe de la Oficina de Cumplimiento de la FCC, dijo que la combinación de suplantación de identificación de llamadas y tecnología de clonación de voz generativa con inteligencia artificial representaba una amenaza significativa «ya sea a manos de agentes nacionales que buscan ventajas políticas o de sofisticados adversarios extranjeros que realizan actividades de influencia maligna o interferencia electoral».

(Esta es una historia sin editar y generada automáticamente a partir de un servicio de noticias sindicado. Blog de Nueva York Es posible que el personal no haya cambiado ni editado el texto del contenido).

Publicaciones relacionadas

Botón volver arriba