TECNOLOGÍA

Microsoft quiere que sepamos qué es real y qué es IA

La compañía tecnológica prepara un sistema para identificar contenidos creados con inteligencia artificial y frenar la confusión digital. La iniciativa busca devolver confianza en un contexto donde cada vez es más difícil distinguir lo auténtico de lo generado.

En un escenario saturado de imágenes hiperrealistas, audios clonados y videos manipulados, la pregunta ya no es técnica sino cotidiana: ¿esto es real? Frente a ese dilema creciente, Microsoft trabaja en una herramienta que permita certificar el origen de los contenidos digitales y dejar claro cuándo fueron creados por inteligencia artificial.

La propuesta apunta a incorporar sistemas de verificación y metadatos que acompañen a fotos, videos y documentos desde su creación. La idea es que cada archivo conserve una "huella" que permita rastrear si fue editado, modificado o generado por IA. No se trata solo de transparencia tecnológica, sino de una respuesta directa al avance de los deepfakes, la desinformación y la manipulación política.

El proyecto forma parte de un movimiento más amplio dentro de la industria tecnológica, donde varias compañías buscan establecer estándares comunes antes de que la regulación estatal imponga sus propias reglas. Para Microsoft, el desafío es doble: liderar la innovación en IA y, al mismo tiempo, contener sus efectos más problemáticos.

El trasfondo es claro. La confianza en la información digital atraviesa uno de sus momentos más frágiles, y la frontera entre lo real y lo artificial se vuelve cada vez más difusa. La pregunta no es si la inteligencia artificial seguirá avanzando, sino cómo convivir con ella sin perder referencias básicas de autenticidad.

Esta nota habla de: