
Posicionamiento web: cómo Naranja & Media impulsa tu presencia en línea
septiembre 28, 2025
El futuro del SEO en la era de la inteligencia artificial
octubre 15, 2025Un ejemplo de perfil de Meta AI en Instagram. La cuenta “Liv” (con insignia azul) publica fotos e historias generadas por IA; muchos usuarios comentan confusión y critican el contenido “poco humano” que comparte.
Vivimos en una era en que la línea entre lo real y lo sintético en internet comienza a desdibujarse. Un caso reciente es el de Meta (la compañía matriz de Facebook, Instagram y WhatsApp), que ha introducido “perfiles de IA” en sus redes sociales. Estos perfiles son esencialmente personas ficticias creadas por inteligencia artificial: tienen nombre, foto de perfil, biografía e incluso publican contenido regularmente, pero no son usuarios reales. Meta ha lanzado varios de estos personajes (por ejemplo: “Liv”, “Brian”, “Jade”, “Carter”, entre otros) como parte de sus experimentos con modelos de lenguaje (LLMs) integrados a la plataforma. Cada uno viene etiquetado discretamente como «Gestionado por IA de Meta», ostentan la marca de verificación (check azul) y comparten publicaciones con el hashtag #ImaginedWithAI (imaginado con IA). En la práctica, estos bots de apariencia humana deambulan por Facebook e Instagram publicando textos e imágenes generados automáticamente, interactuando con usuarios que pueden comentarles como si fuesen personas reales.
El fenómeno ha generado reacciones encontradas. Por un lado, Meta argumenta que estos asistentes virtuales podrían servir para entretenimiento, para proporcionar información, o simplemente para aumentar el “engagement” en sus plataformas. De hecho, internamente Meta visualiza un futuro donde “estas IAs existan en nuestras plataformas de forma similar a cuentas normales”. Sin embargo, muchos usuarios han manifestado incomodidad e incluso rechazo. Las publicaciones de estos perfiles suelen recibir comentarios acusándolos de ser contenido basura o señalando lo inquietante de su presencia. Y es que, como describió gráficamente un columnista, “nuestros espacios en redes sociales ahora están habitados por publicadores no-muertos, zombis que repiten frases aprendidas de un modelo de lenguaje”. El sentimiento de parte del público es que estas cuentas carecen de autenticidad; aunque las fotos y textos parezcan verosímiles a simple vista, se percibe una mirada vacía, poco humana en estas interacciones. Se trata, al final, de contenido generado por IA reciclando datos de internet, en lugar de voces genuinas compartiendo experiencias reales.
Este experimento de Meta plantea la pregunta: ¿cómo distinguiremos lo real de lo artificial en las redes? Meta al menos identifica oficialmente a sus bots, pero ¿qué impide que terceros creen perfiles falsos impulsados por IA sin transparencia alguna? De hecho, fuera de estos casos “oficiales”, ya existe el problema de deepfakes y cuentas apócrifas. Los modelos de lenguaje (LLMs) pueden escribir textos convincentes, y los generadores de imágenes crean fotos de personas que no existen pero lucen reales. Esto podría facilitar estafas, desinformación o simplemente confundir a la audiencia promedio. Las grandes tecnológicas lo saben y han empezado a reaccionar: Meta anunció recientemente políticas para etiquetar contenido generado por IA con marcas de agua digitales o avisos en Facebook, Instagram y Threads. Por ejemplo, las imágenes creadas con IA en sus plataformas llevarán una etiqueta de “Imaginado con IA”. El objetivo es alertar a los usuarios del origen sintético de ciertos medios y así reducir el riesgo de que se tome como real algo que fue fabricado digitalmente. No obstante, esta iniciativa tiene limitaciones importantes. Muchos contenidos falsos pueden filtrarse si provienen de herramientas externas que no apliquen esas marcas de agua, o si actores malintencionados encuentran maneras de eludir los detectores. Expertos en integridad digital señalan que es necesario un esfuerzo conjunto de múltiples plataformas y estándares para realmente combatir la desinformación automatizada. Además, han instado a Meta a ampliar sus políticas de “medios manipulados” más allá de la IA, pues también circulan videos o audios alterados con métodos tradicionales que engañan a la gente. En resumen, la batalla por delinear qué es real y qué no en la era de la automatización apenas comienza, y no existe una solución perfecta a la vista.
Para los usuarios comunes, estos avances implican que debemos ser más críticos con lo que consumimos en línea. Es aconsejable fijarse en las señales (por ejemplo, en Instagram los perfiles de IA de Meta sí indican que son gestionados por IA en su biografía). También mantenerse informado sobre las herramientas de verificación de contenido que vayan surgiendo. Para las empresas y marcas, el desafío es doble: por un lado, aprovechar las ventajas de la IA (como la generación de contenido o asistentes virtuales) sin perder autenticidad; y por otro, proteger su reputación en un entorno donde podrían aparecer “clones” digitales no autorizados de su marca o voceros. La transparencia será un valor apreciado: que una marca informe claramente cuándo usa IA en sus comunicaciones podría generar confianza con su audiencia. Asimismo, invertir en moderación de contenido apoyada por IA (pero supervisada por humanos) será importante para detectar noticias falsas o posibles crisis derivadas de engaños virales.
En conclusión, los LLMs y la automatización nos ofrecen oportunidades emocionantes, pero también nos desafían a mantener los ojos abiertos. Navegamos un mundo donde convivirán publicaciones humanas y artificiales, y donde la autenticidad podría convertirse en un bien escaso. Las iniciativas de Meta y otras compañías para etiquetar contenido son un paso en la dirección correcta, aunque insuficiente por sí solas. Al final del día, tendremos que adaptarnos y desarrollar tanto herramientas tecnológicas como criterio social para discernir la realidad en medio de un océano de simulaciones. En Naranja y Media seguimos de cerca estos desarrollos de IA y su impacto en el marketing. Creemos firmemente en usar la inteligencia artificial de forma ética y transparente, manteniendo siempre el lado humano en el centro. Después de todo, la confianza del público es la base de cualquier estrategia digital exitosa. (Real o no, este texto fue escrito por un humano… con un poco de ayuda de IA 😉.)



