Meta reconoce error en Instagram: videos violentos aparecieron en Reels La empresa admite fallo en la moderación de contenido y asegura que ya ha sido corregido

Instagram, red social propiedad de Meta, admitió que un error de sistema permitió la difusión de videos extremadamente violentos en la pestaña de Reels.
Usuarios de todas las edades, incluidos menores, reportaron haber visto imágenes y videos perturbadores sin restricciones.
Desde hace varios días, usuarios recurrieron a otras redes sociales para denunciar la aparición de videos que mostraban escenas impactantes, como desmembramientos, cuerpos carbonizados, peleas y agresiones violentas.
A pesar de que Instagram cuenta con un Control de contenido delicado que limita este tipo de publicaciones, muchos aseguraron haber encontrado este material incluso con la configuración de restricción activada.
Este contenido llegó a menores de edad, exponiéndolos a imágenes que, según las propias políticas de Meta, nunca deberían haber sido recomendadas en su feed.
Relacionado: Meta elimina metabots tras denuncias de contenido engañoso
Meta pide disculpas
Meta reconoció la existencia de un problema en su sistema de recomendación de Reels.
"Hemos corregido un fallo que provocaba que algunos usuarios visualizaran contenido en su feed de Instagram Reels que no debería haber sido recomendado", afirmó un portavoz de la compañía en declaraciones a CNBC.
Aunque la empresa ofreció disculpas por la situación, no ha dado detalles específicos sobre la causa del error ni cuánto tiempo perduró en la plataforma antes de ser corregido.
La falla fue corroborada por diversos medios internacionales. The Wall Street Journal y CNBC comprobaron que, durante la noche del miércoles en Estados Unidos, continuaban apareciendo publicaciones con contenido explícito etiquetado como "Contenido sensible".
Además, WSJ identificó decenas de videos violentos provenientes de cuentas y hashtags con nombres como #Blackpeoplebeinghurt, #ShowingTragedies y #PopheDinghub, que al parecer se dedican a compartir imágenes de personas heridas.
A principios de año, Meta anunció ajustes en sus políticas de moderación, lo que generó especulación sobre si este error estaba relacionado con esas modificaciones.
Sin embargo, el portavoz de la compañía aseguró que el fallo no tiene relación con esos cambios recientes, sino que se trató de un problema técnico aislado.