Meta aplicará nuevas medidas para detectar contenido creado con IA

Meta ya no eliminará los contenidos creados con IA, pero lo señalará: Hecho con IA.

Inteligencia Artificial Meta | Pixabay
Ciudad de México /

Meta, quien dirige Facebook, Instagram y Threads, informó que aplicará nuevas medidas para identificar contenidos creados con Inteligencia Artificial (IA), luego de la retroalimentación que dio el Consejo asesor de contenido y tras la revisión de políticas con encuestas de opinión pública y consultas a expertos.

Indicó que está de acuerdo con la recomendación del Consejo asesor de contenido sobre proporcionar transparencia y contexto adicional para abordar los contenidos manipulados.

Así, Meta empezará a etiquetar los contenidos de video, audio e imagen como "Hecho con IA" cuando se detecten estándares de imágenes IA, o cuando las personas indiquen que están subiendo contenidos generados con IA. De esta manera, ya no se eliminarán los videos manipulados con IA, siempre y cuando no infrinjan las Normas Comunitarias que se aplican independientemente de si el contenido ha sido creado por IA o por una persona.

"Estamos haciendo cambios en la forma en que tratamos los contenidos manipulados en Facebook, Instagram y Threads tras la retroalimentación que recibimos del Consejo asesor de contenido apuntando que debemos actualizar nuestro enfoque para reflejar una gama más amplia del contenido que existe hoy y proporcionar contexto sobre el contenido a través de etiquetas. 
Estos cambios también se basan en el proceso de revisión de la política de Meta, que incluyó encuestas de opinión pública extensas y consultas con académicos, organizaciones de la sociedad civil y otros", explicó Monika Bickert, vicepresidente de Política de Contenidos.

Agregó que concuerdan con el Consejo asesor de contenido, al decir que "nuestro enfoque actual es demasiado limitado, ya que solo cubre los videos creados o alterados por IA que hacen parecer que una persona dice algo que no ha dicho".

La política sobre contenidos manipulados se redactó en 2020, cuando los contenidos realistas generados por IA eran escasos y la preocupación general se centraba en los videos. 

Sin embargo, en los últimos cuatro años, y especialmente en el último, se han desarrollado otros tipos de contenidos realistas generados por IA, como audio y fotos, y esta tecnología está evolucionando rápidamente. 

"Como señaló el Consejo, está claro que la manipulación para mostrar a una persona haciendo algo que no ha hecho es igualmente importante de abarcar", agregó Bicket. 

Asimismo, consideró que la eliminación de contenidos manipulados con IA y que no infringen en otra política de Normas Comunitarias, restringe la libertad de expresión.  

En febrero, Meta anunció que se ha trabajado con socios de la industria en normas técnicas comunes para identificar contenidos de IA, incluidos video y audio.

"Nuestras etiquetas 'Hecho con IA' en video, audio e imágenes generados por IA se basarán en nuestra detección de señales de imágenes de IA y en si las personas indican que están subiendo contenidos generados por IA. Ya añadimos 'Imaginado con IA' a las imágenes fotorrealistas creadas con nuestra función Meta AI".

Indicó que ofrecer transparencia y contexto adicional es la mejor manera de abordar los contenidos, pues las etiquetas abarcarán una gama más amplia de contenidos, además de los contenidos manipulados que el Consejo asesor de contenido recomendó etiquetar. 

"Si determinamos que una imagen, un video o un audio creados o alterados digitalmente representan un riesgo particularmente alto de engañar materialmente al público sobre un asunto de importancia, podremos añadir una etiqueta más destacada para que la gente tenga más información y contexto. Este enfoque general proporciona a las personas más información sobre el contenido para que puedan evaluarlo mejor y para que tengan más contexto si ven el mismo contenido en otro lugar". 

Cabe destacar que Meta continuará eliminando contenidos, independientemente de que hayan sido creados por IA o por una persona, si estos infringen nuestras Normas Comunitarias.

"También contamos con una red de casi 100 verificadores de datos independientes que seguirán revisando los contenidos falsos y engañosos generados por IA. Cuando los verificadores de datos califican un contenido como Falso o Alterado, lo mostramos más abajo en el Feed para que lo vea menos gente, y añadimos una etiqueta superpuesta con información adicional. Además, rechazamos anuncios cuando incluyen contenido desacreditado y, desde enero, los anunciantes tienen que indicar cuando crean o alteran digitalmente un anuncio político o social en determinados casos". 

¿Cuándo comenzarán a etiquetar contenidos creados con IA?

Se tiene previsto que el etiquetado de dichos contenidos comience en mayo de 2024, y en julio se dejará de eliminar contenidos basándose únicamente en la política de videos manipulados. Este marco da tiempo para que la gente entienda el proceso para auto etiquetar contenido antes de que dejemos de aplicar nuestra política de videos manipulados.

Nuevas políticas, sustentadas en opiniones de expertos mundiales y encuestas públicas

En la primavera de 2023, Meta comenzó a evaluar sus políticas para determinar si necesitaba un nuevo enfoque para seguir el ritmo de los rápidos avances tecnológicos y el uso de la IA generativa. 

"Consultamos a más de 120 partes interesadas en 34 países de las principales regiones del mundo. En general, recibimos un amplio apoyo para etiquetar los contenidos generados por IA y un fuerte respaldo a una etiqueta más prominente en escenarios de alto riesgo. Muchas partes interesadas se mostraron receptivas al concepto de que las personas revelen por sí mismas los contenidos generados por IA". 

La mayoría de las partes interesadas coincidieron en que la eliminación debería limitarse únicamente a los casos de mayor riesgo en los que el contenido pueda estar vinculado a un daño, ya que la IA generativa se está convirtiendo en una herramienta de expresión creativa de uso generalizado. Esto está alineado con los principios en los que se basan sus Normas Comunitarias: que las personas sean libres de expresarse y, al mismo tiempo, estén seguras en las plataformas.

"También realizamos un estudio de opinión pública con más de 23.000 encuestados en 13 países y preguntamos a la gente cómo deberían abordar las empresas de redes sociales, como Meta, los contenidos generados por IA en sus plataformas. Una gran mayoría (82%) está a favor de las etiquetas de advertencia para los contenidos generados por IA que muestran a personas diciendo cosas que no han dicho". 

Además, el Consejo asesor de contenido señaló que sus recomendaciones se basan en consultas con organizaciones de la sociedad civil, académicos, organizaciones intergubernamentales y otros expertos.

"Basándonos en los comentarios de los expertos y del público, estamos tomando medidas que consideramos adecuadas para plataformas como la nuestra. Queremos ayudar a la gente a saber cuándo se han creado o editado imágenes fotorrealistas utilizando IA, por lo que seguiremos colaborando con colegas del sector a través de foros como Partnership on AI y mantendremos un diálogo constante con los gobiernos y la sociedad civil, y seguiremos revisando nuestro enfoque a medida que avance la tecnología", finalizó Bicket. 

ZNR

  • Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de TELEDIARIO; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
LAS MÁS VISTAS