itsreal.media combina el análisis forense clásico de imágenes, los modelos Vision Transformer, la verificación de procedencia C2PA, el análisis de metadatos y el razonamiento semántico en un único proceso de decisión fusionado.
No hay una sola señal que determine el veredicto. Un metamodelo entrenado aprende a ponderar cada capa basándose en el rendimiento en el mundo real y se actualiza a medida que evolucionan los modelos generativos.
Explicabilidad: cada señal se puntúa individualmente y está disponible a través de la API para el razonamiento posterior.
En toda la suite de pruebas en condiciones controladas.
Condiciones reales: imágenes comprimidas, redimensionadas y reenviadas.
Evaluación del desafío SPRIND, noviembre de 2024
Ganador del Deepfake Detection Challenge. Agencia Federal Alemana para la Innovación Disruptiva
El rendimiento depende de la fuente de la imagen, las transformaciones de la plataforma y los umbrales de decisión.
Cada imagen pasa simultáneamente por todas las capas de detección. Los resultados se fusionan mediante un metamodelo que aprende las correlaciones entre señales.
Varios modelos especializados de Vision Transformer fusionados en un metamodelo para la detección de imágenes generadas y editadas por IA.
Docenas de señales forenses de bajo nivel. Análisis espectral, espacial, estadístico y de compresión.
Coherencia de los objetos, consistencia de la iluminación, plausibilidad anatómica y razonamiento visual.
Integridad EXIF, artefactos de codificación, huellas digitales de software y verificación de credenciales de contenido C2PA.
Conjunto multimodelo de precisión ultraalta. Fusionamos varios modelos de detección especializados y docenas de señales forenses en un metamodelo, lo que nos permite ofrecer una detección de vanguardia validada por pruebas de referencia independientes.
Detecta imágenes generadas y editadas íntegramente por IA con una precisión ultraalta. Fusionamos varios modelos de detección especializados y docenas de señales forenses en un metamodelo, un conjunto multicapa validado como el sistema con mejor rendimiento en el SPRIND Deepfake Detection Challenge.
Bundesagentur für Sprunginnovation, evaluación independiente sobre condiciones reales.
Detecta regiones modificadas por IA dentro de imágenes que, por lo demás, son auténticas: relleno, sobredibujo, eliminación de objetos, intercambio de rostros y relleno generativo. Genera un mapa de calor a nivel de píxeles que muestra la probabilidad de manipulación por región.
La región central muestra una alta probabilidad de manipulación. Coincide con el relleno generativo.
Verificamos las credenciales de contenido incrustadas en las imágenes utilizando el estándar C2PA (Coalición para la Procedencia y Autenticidad del Contenido). Nuestro sistema valida toda la cadena de credenciales, desde el origen de la cámara o el software hasta el activo final publicado.
Las credenciales C2PA son manifiestos firmados criptográficamente que acompañan a la imagen y registran cada paso de edición y exportación. Cuando están presentes, proporcionan la señal de procedencia más sólida posible.
Valida la cadena de confianza completa desde el origen hasta el estado actual.
Verifica el certificado de firma y la organización emisora.
Lee las acciones de edición declaradas registradas en el manifiesto.
Detecta si las credenciales sobrevivieron a la recodificación de la plataforma.
Examina los metadatos técnicos incrustados en cada archivo de imagen en busca de indicios de origen sintético o manipulación posterior a la producción.
Utiliza el razonamiento visual para detectar inconsistencias lógicas que delatan contenido generado o manipulado por IA.
Busca en la web y en bases de datos internas para rastrear una imagen hasta su fuente original e identificar su reutilización coordinada.
Ninguna capa de detección es lo suficientemente fiable por sí sola. Cada señal tiene puntos ciegos: el análisis de frecuencia pasa por alto ciertos modelos de difusión, los metadatos pueden eliminarse y las comprobaciones semánticas dependen de la complejidad de la escena.
Nuestro metamodelo es un clasificador entrenado que toma los resultados sin procesar de cada capa de detección como características de entrada. Aprende las correlaciones entre señales, compensa las debilidades individuales y produce una única puntuación de confianza calibrada.
Los pesos de fusión se reentrenan continuamente a medida que aparecen nuevos modelos generativos. Cuando un nuevo generador cambia el panorama de señales, el metamodelo se adapta sin necesidad de realizar cambios en ninguna capa de detección individual.
API primero. Modular.
Puntos finales HTTPS sencillos. Sube una imagen y recibe una respuesta JSON estructurada con el veredicto, el nivel de confianza y el desglose de la señal por capas. Se integra en cuestión de minutos.
Implemente nuestro motor de detección como un contenedor Docker dentro de su propia infraestructura. Control total sobre la residencia de datos, la latencia y el escalado. Compatible con redes aisladas.
Implementación completa en las instalaciones con soporte dedicado, formación de modelos personalizados y garantías de SLA. Diseñado para organizaciones con requisitos de cumplimiento estrictos.
Solicite acceso a la API o una demostración en vivo. Le guiaremos a través del proceso con sus propias imágenes.