El Mal Uso de la IA Dispara la Viralización de Falsos Videos de OVNIS en Redes Sociales

En un panorama mediático ya saturado de debates sobre la transparencia gubernamental y fenómenos inexplicables, un nuevo capítulo de la controversia sobre objetos voladores no identificados (OVNIS) ha emergido, impulsado por la viralización de videos falsos generados por inteligencia artificial (IA). Este fenómeno ha cobrado fuerza especialmente tras la audiencia del Congreso de Estados Unidos en noviembre de 2024, que atrajo la atención mundial y reavivó tanto el entusiasmo como las sospechas sobre la existencia de vida extraterrestre.

Una audiencia histórica: transparencia y secretos gubernamentales

El 15 de noviembre de 2024, el Comité de Supervisión y Responsabilidad de la Cámara de Representantes celebró una audiencia bajo el título “Fenómenos Anómalos No Identificados (UAP): Exponiendo la Verdad”. Esta sesión reunió a figuras de alto perfil, incluidos un exoficial de contrainteligencia, un contralmirante retirado de la Marina y un exadministrador asociado de la NASA.

Durante el evento, los testigos hicieron afirmaciones impactantes, como la existencia de programas secretos para la recuperación de OVNIS y denuncias de empleados gubernamentales heridos durante encuentros con estos fenómenos. Si bien los testimonios carecían de evidencia directa, la credibilidad de los denunciantes y su insistencia en la necesidad de una mayor transparencia y menos estigmatización avivaron el interés público.

La audiencia se convirtió rápidamente en un catalizador para la viralización de contenido relacionado con OVNIS, fomentando tanto el entusiasmo de las comunidades dedicadas al fenómeno como la proliferación de videos que, aunque aparentemente auténticos, son producto de la IA.

Los Fallos de la IA en Videos Virales: El Caso de Arizona

%name El Mal Uso de la IA Dispara la Viralización de Falsos Videos de OVNIS en Redes Sociales

%name El Mal Uso de la IA Dispara la Viralización de Falsos Videos de OVNIS en Redes Sociales

Errores de la IA en reflejo

%name El Mal Uso de la IA Dispara la Viralización de Falsos Videos de OVNIS en Redes Sociales

Uno de los videos más compartidos en redes sociales mostraba un supuesto OVNI estrellado en el desierto de Arizona. Las imágenes, que inicialmente captaron la atención por su calidad y nivel de detalle, mostraban un objeto metálico con forma de platillo y dimensiones de 8 metros de ancho por 3,5 metros de alto.

Sin embargo, análisis detallados realizados por expertos y organizaciones como Misbar revelaron inconsistencias visuales. Por ejemplo, las sombras proyectadas por los inspectores en la escena no coincidían con las fuentes de luz, y en algunos cuadros, objetos parecían cambiar de forma o ubicación inexplicablemente. Estas anomalías, características de videos generados por modelos de IA, señalaron que el material era ficticio.

El creador del video, identificado como “Sybervisions”, utilizó un modelo de generación de videos basado en IA llamado “Sora”. Aunque etiquetó el contenido como generado por IA, la marca de agua y los hashtags pasaron desapercibidos para muchos usuarios, lo que contribuyó a la confusión generalizada.

%name El Mal Uso de la IA Dispara la Viralización de Falsos Videos de OVNIS en Redes Sociales

 

Francia y Maryland: Otros Casos Desacreditados

%name El Mal Uso de la IA Dispara la Viralización de Falsos Videos de OVNIS en Redes Sociales

Otro video viral surgió en Francia, mostrando un platillo volante aparentemente accidentado. Los errores de generación se hicieron evidentes: sombras mal definidas, cuerpos humanos con proporciones extrañas y objetos que parecían atravesar barreras físicas. Estas incoherencias confirmaron que el video no era auténtico.

En Maryland, un clip mostraba tres objetos voladores sobrevolando la ciudad de Cockeysville. Usuarios en redes sociales lo asociaron rápidamente con teorías de conspiración, como el “Proyecto Blue Beam”, que sugiere la creación de eventos falsos mediante hologramas avanzados. Sin embargo, el autor del video, Joey Malinski, confesó que había creado el material usando herramientas de IA como un experimento para demostrar cómo estas tecnologías pueden engañar al público.

 

 

El UAP de vuelo de United Airlines

Un video viral que se compartió como ovni captado en el vuelo de United Airline

%name El Mal Uso de la IA Dispara la Viralización de Falsos Videos de OVNIS en Redes Sociales

Este video fue subido a la plataforma de TikTok por el usuario fiendcore que se dedica a crear contenido con inteligencia artificial

 

La influencia de la IA: facilidad para engañar y viralizar

Los avances en modelos de generación de contenido visual, como los utilizados por “Sybervisions” y Malinski, han revolucionado la creación de videos, pero también han planteado serias preocupaciones éticas y sociales. Los algoritmos detrás de estas herramientas priorizan la coherencia visual, pero carecen de la capacidad para respetar leyes físicas o detalles anatómicos, lo que resulta en videos con fallos perceptibles para ojos entrenados, pero no necesariamente para el público en general.

La viralización de estos videos destaca un problema emergente: la dificultad de distinguir entre realidad y ficción en un entorno digital donde la IA puede producir contenido cada vez más convincente. Esto plantea riesgos significativos, desde la desinformación hasta la explotación emocional del público.

Las redes sociales como amplificadoras de desinformación

Plataformas como TikTok, Instagram y X se han convertido en los principales canales para la difusión de estos videos. La facilidad con la que los usuarios comparten contenido, combinado con la falta de educación digital en el análisis crítico de materiales visuales, ha permitido que estos videos generen millones de vistas en cuestión de horas.

Un caso notable es el video del vuelo de United Airlines que supuestamente capturó un OVNI. Aunque el material fue etiquetado como generado por IA por su creador, muchos espectadores no prestaron atención a esta aclaración y lo difundieron como auténtico. Esto refleja un patrón recurrente: la falta de verificación antes de compartir información contribuye a la propagación de desinformación.

Conclusión: el desafío de la verdad en la era de la IA

La proliferación de videos falsos sobre OVNIS subraya la necesidad urgente de abordar las implicaciones éticas y sociales de la inteligencia artificial. Mientras que las audiencias en el Congreso buscan arrojar luz sobre los fenómenos inexplicables, la viralización de contenido ficticio generado por IA amenaza con trivializar los esfuerzos serios por comprender estos eventos.

La responsabilidad recae tanto en las plataformas digitales, que deben implementar medidas más rigurosas para etiquetar contenido manipulado, como en los usuarios, que deben adoptar un enfoque crítico hacia la información que consumen y comparten. En un mundo donde la tecnología está difuminando los límites entre la realidad y la ficción, la alfabetización digital se convierte en una habilidad esencial para navegar con éxito en la era de la desinformación.

 

Con información de misbar.com

  ¿Te gusto la noticia? compártela en tus redes sociales.
error: