jueves 21 de noviembre de 2024 10:50 am
Eddy Tolentino

YouTube anunció cambios para combatir el aumento del contenido generado por IA, exigiendo a los creadores que revelen material generado por inteligencia artificial.

En un intento por abordar la creciente prevalencia de contenido generado por inteligencia artificial (IA), YouTube, la popular plataforma de vídeos en línea, está implementando cambios sustanciales.

A partir de hoy, 14 de noviembre, los creadores de contenido tendrán la obligación de marcar sus videos si contienen material creado por programas de inteligencia artificial, como se describe en el anuncio oficial en el blog de YouTube.

El objetivo principal de esta nueva medida es fomentar la transparencia y combatir la desinformación, especialmente en temas delicados como las elecciones y las crisis sanitarias, que pueden degenerar las opiniones de las audiencias.

YouTube tiene como objetivo abordar el contenido que “representa de manera realista un evento que nunca sucedió” o presenta deepfakes que retratan a personas “diciendo o haciendo algo que en realidad no hicieron”.

Qué deben hacer los creadores de contenido en YouTube

Para los creadores de contenido, el cumplimiento de la nueva política de YouTube significa proporcionar información y etiquetas en la descripción del video. Esto garantiza que los espectadores puedan identificar fácilmente segmentos del contenido generado por la IA.

La intención es capacitar a los usuarios para que distingan entre videos auténticos y aquellos que aprovechan herramientas de inteligencia artificial.

La nueva política de YouTube podría ser un paso proactivo para proteger contra la desinformación y defender la integridad de la plataforma, por lo que la plataforma “se reserva el derecho de eliminar el contenido generado por IA, incluso si está etiquetado”, si la advertencia se considera insuficiente para mitigar el riesgo de daño.

Por ejemplo, los vídeos que presenten representaciones realistas de violencia destinadas únicamente a molestar a la audiencia podrían ser eliminados; además, si los espectadores encuentran contenido que perciben como engañoso o dañino, las nuevas pautas comunitarias de YouTube les permiten denunciarlo.

Estos cambios en YouTube están orientados a “crear un entorno más transparente y confiable para los usuarios”. La identificación clara del contenido generado por IA permite la toma de decisiones informadas mientras se ven videos, promoviendo la honestidad y autenticidad en la plataforma.

El peligro del deepfake creado con IA

La tecnología “deepfake”, impulsada por las capacidades de la inteligencia artificial (IA), está evolucionando y transformando rápidamente varias industrias.

Esta “deepfake AI” permite la creación de imágenes y vídeos hiperrealistas, superando los límites de lo que antes era inimaginable en campos como el entretenimiento y la publicidad, como por ejemplo, podemos ver imágenes realistas de una post-apocalíptica Nueva York.

Sin embargo, como ocurre con cualquier tecnología innovadora, emerge un lado más oscuro, y recientemente se ha utilizado esta generación de contenido para crear noticias falsas, incluso con imágenes y videos.

Actualmente, existen cientos de herramientas que ayudan a generar contenido de manera “fácil”, y aunque algunas puede aportar mucho, otras más podrían “degenerar” las imágenes o videos, y convertirse fácilmente en contenido falso o aquel que manipula la realidad, o en este caso “alguna noticia”.

Es por eso que los líderes tecnológicos quieren regular las tecnologías de Inteligencia Artificial, con el fin de salvaguardar la “realidad” y evitar que estas se conviertan en un problema incontrolable; por ejemplo, el director ejecutivo de OpenAI, Sam Altman, ha pedido en varias ocasiones, que se regule esta tecnología.

Por  Gabriel Lago

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *