En los últimos días, México vivió un ejemplo muy claro de infodemia: una avalancha de información real mezclada con rumores, montajes y piezas generadas con inteligencia artificial (IA). El detonante fue la noticia sobre Nemesio Oseguera Cervantes, “El Mencho”, líder del CJNG, tras un operativo reportado por diversos medios el 23 de febrero de 2026. Después de eso, además de hechos reales de violencia en algunas zonas, se disparó algo igual de peligroso: una campaña de desinformación que amplificó el miedo con publicaciones falsas, incluyendo supuestos ataques masivos en lugares clave (por ejemplo, aeropuertos y zonas turísticas) que no ocurrieron como se describían.
Y aquí entra el punto crítico de 2026: mucho de ese contenido ya no son “photoshops” obvios, sino imágenes, audios y videos generados o alterados con IA para verse “creíbles”, viralizarse más rápido y confundir a la gente. Medios de verificación y reportes periodísticos documentaron casos de imágenes generadas con IA atribuidas al evento y audios falsos “supuestamente” del propio capo, creados digitalmente.
Este artículo busca dos cosas: poner orden (sin caer en el pánico) y darte una guía práctica para detectar lo falso y protegerte.
¿Qué es una infodemia y por qué se dispara en temas así?
La infodemia es cuando hay tanta información —verdadera, dudosa y falsa— que se vuelve difícil distinguir la realidad. En contextos de alto impacto (crimen organizado, seguridad, emergencias), pasa algo típico:
- La gente busca respuestas rápidas.
- Los rumores llenan vacíos de información.
- Los contenidos “impactantes” reciben más clics y más shares.
- Grupos con interés (político, criminal, económico o de simple alcance) aprovechan el caos.
Reuters describió este patrón con claridad: tras la noticia, publicaciones falsas se mezclaron con hechos reales y fueron usadas para proyectar más poder e intimidar, aprovechando el alcance de redes y herramientas modernas.
El nuevo combustible: deepfakes (IA) en imágenes, video y audio
Las “deepfakes” son contenidos sintéticos o manipulados (imagen, video o voz) que imitan la realidad. En México, la SSPC ya había publicado recomendaciones para prevenir delitos asociados a este tipo de materiales, reconociendo el riesgo de audios, videos e imágenes falsos creados con IA.
En el caso reciente, aparecieron ejemplos como:
- Imágenes falsas supuestamente del “cuerpo” o de escenas posteriores, que resultaron generadas con IA.
- Audios atribuidos a “El Mencho” que fueron desmentidos como creación con IA.
- Escenas impactantes (incendios/ataques) circulando como “prueba”, pero verificadores hallaron señales de generación artificial o contexto falso.
Señales prácticas para detectar imágenes falsas o generadas con IA
No existe un método perfecto, pero sí un checklist que reduce muchísimo el riesgo de caer:
1) Mira el “detalle tonto” (la IA falla ahí)
- Manos/dedos deformes o “raros”
- Dientes extraños
- Texto ilegible en letreros, uniformes o placas
- Fondos “derretidos” o patrones repetidos
- Sombras incoherentes (luz viene de un lado, sombra cae hacia otro)
2) Desconfía del “demasiado perfecto” o “demasiado dramático”
Las piezas que buscan viralidad suelen estar diseñadas para provocar: “última hora”, “se confirma”, “esto no lo verás en TV”, etc. Si además la foto parece de película, sube la probabilidad de IA.
3) Verifica el origen: ¿quién lo publicó primero?
- Si el contenido aparece primero en cuentas anónimas, páginas sin historial o perfiles “reciclados”, mala señal.
- Si no existe publicación original rastreable (solo capturas reenviadas), mala señal.
4) Haz una verificación rápida cruzada
Busca si medios confiables o autoridades han confirmado el hecho específico. En este caso, verificadores documentaron múltiples piezas falsas alrededor del tema, lo que confirma que el entorno era especialmente “contaminado”.
Cómo detectar videos falsos o fuera de contexto (la trampa más común)
Con video hay dos problemas: deepfake y contexto.
A) Señales de deepfake en video
- Labios que no sincronizan perfecto con el audio
- Parpadeo extraño o mirada “plana”
- Rostro demasiado suave (como filtro) mientras el fondo se ve normal
- Bordes raros en la cara cuando gira o se mueve rápido
B) Señales de “video real, contexto falso”
Esto es incluso más frecuente que el deepfake:
- Video viejo usado como si fuera de “hoy”
- Video de otro país/ciudad atribuido a México
- Video de otro evento (incendio/accidente) reetiquetado como “ataque”
En la ola reciente se reportaron contenidos falsos o sacados de contexto circulando como si fueran parte de los hechos posteriores, precisamente para amplificar el miedo.
Audio falso: el más peligroso (porque “suena” real)
Hoy, clonar una voz es cada vez más accesible. Por eso el audio se volvió un arma perfecta para rumores: la gente confía en lo que “escucha”, aunque no vea la fuente.
Señales comunes de voz sintética:
- Entonación rara (pausas extrañas, emoción “actuada”)
- Pronunciación demasiado limpia o demasiado robótica en ciertas sílabas
- Cambios de volumen inconsistentes
- Falta de ruido ambiental natural (silencio “de estudio”)
Y sobre todo: si el audio aparece “reenviado” sin fuente original verificable, trátalo como falso hasta que se demuestre lo contrario. En estos días, circuló y fue desmentido un audio atribuido al capo como producto de IA.
Protocolo de calma: qué hacer cuando te llega “algo fuerte” por WhatsApp o redes
Guárdate este protocolo de 60 segundos:
- Pausa. Si te provoca miedo o enojo, justo eso busca el contenido.
- No lo reenvíes. Aunque digas “solo por si acaso”, eso alimenta la infodemia.
- Pregunta: ¿quién es la fuente original? ¿hay confirmación en dos fuentes confiables?
- Busca palabras clave del hecho específico (lugar, hora, institución). Si “nadie serio” lo trae, sospecha.
- Revisa la fecha. Muchísimo contenido viral es reciclado.
- Reporta la publicación si la plataforma lo permite y avisa al grupo: “No hay fuente confiable, parece falso”.
Seguridad digital personal: reduce el daño si alguien usa IA para suplantar o extorsionar
Además de “no caer en rumores”, hay un riesgo paralelo: suplantación (que usen tu imagen/voz o la de alguien cercano). Recomendaciones concretas:
- Activa verificación en dos pasos (WhatsApp, correo, redes).
- Usa frases clave familiares: una palabra o pregunta que solo ustedes sepan, para confirmar emergencias.
- Si te llega un “audio” urgente de un familiar: cuelga y llama por otro canal.
- Ajusta privacidad: limita quién puede ver tu foto, estado y última conexión (especialmente en WhatsApp).
- Evita publicar audios largos y videos muy nítidos de tu voz si no es necesario (material perfecto para entrenamiento).
Una regla de oro: en crisis, la velocidad es enemiga
En momentos como este, el objetivo de la desinformación no siempre es “que creas una mentira exacta”; muchas veces es que dudes de todo, que te asustes y que difundas.
Lo más útil que puedes hacer por ti y por tu comunidad es sencillo:
- Verificar
- Bajar el ritmo
- No amplificar
Porque si la información falsa viaja más rápido que la real, la “verdad” llega tarde… y el miedo ya hizo su trabajo.
Sí: distinguir lo falso de lo verdadero es cada vez más difícil, especialmente con IA. Y justo por eso vale más un método, que tu “intuición”.
