En medio de la tragedia que sacude a la nación persa, ha surgido un nuevo frente de batalla: el de la desinformación. El Consejo de Redacción de la Agencia EFE denunció públicamente este lunes a Grok, la inteligencia artificial de la plataforma X (antiguo Twitter), por difundir datos falsos que cuestionan la veracidad de las coberturas periodísticas sobre el bombardeo a una escuela femenina en Irán.
Según la denuncia, Grok aseguró erróneamente que las imágenes verificadas por EFE correspondían a un suceso ocurrido en 2021 en Kabul, Afganistán. Esta "alucinación" de la máquina no solo afectó a EFE, sino que también salpicó el trabajo de otros medios de prestigio como RTVE y Antena 3.
El peligro de los "errores algorítmicos"
Desde el Consejo de Redacción fueron tajantes al defender el valor del trabajo humano frente a la automatización irresponsable:
- Falsedad rotunda: La IA lanzó una acusación sin fundamentos contra imágenes debidamente contrastadas.
- Desigualdad en el alcance: Aunque la herramienta rectificó después, el daño ya estaba hecho. La mentira se viralizó, mientras que la corrección quedó oculta por el diseño de la plataforma.
- Defensa del gremio: «El periodismo riguroso no puede estar a merced de errores algorítmicos», sentenciaron los representantes de la agencia.
«La mentira voló; la verdad ha sido silenciada por el diseño de la propia plataforma», explicaron con amargura a través de un comunicado oficial.
Comentarios
Aún no hay comentarios. ¡Sé el primero en opinar!