Por José Gabriel García
La alarma generada por casos recientes como la generación de desnudos falsos mediante inteligencia artificial (IA) no es exagerada, pero sí parcial. No estamos ante un fallo puntual de una tecnología concreta, sino ante la evidencia de que el ecosistema digital avanza mucho más rápido que nuestra capacidad para proteger a quienes aún no tienen las herramientas emocionales y cognitivas para defenderse: los menores.
Durante años hemos centrado el debate en las redes sociales tradicionales, pero la irrupción de la IA ha elevado el riesgo a otra dimensión. La IA no solo amplifica contenidos, sino que los crea. Y cuando esa capacidad cae en manos de adolescentes, o se dirige a ellos, sin filtros, educación ni responsabilidad, las consecuencias pueden ser profundas y duraderas.
¿Estamos preparados para los efectos de la IA en adolescentes y jóvenes?
La respuesta honesta es no, y no lo estamos porque seguimos abordando el problema desde la superficie.
La IA permite generar imágenes hiperrealistas, manipular identidades, sexualizar cuerpos inexistentes o difundir desinformación a una velocidad imposible de controlar con los mecanismos actuales. Para un adolescente, cuya identidad aún está en construcción, exponerse a este tipo de estímulos no es inocuo: afecta a su autoestima, a su percepción del cuerpo, a sus relaciones sociales y a su forma de entender la realidad.
Además, la IA introduce un elemento especialmente peligroso: la pérdida de referentes claros entre lo real y lo falso. Si todo puede ser fabricado, manipulado o simulado, ¿cómo se construye el criterio? ¿Cómo se aprende a confiar, a dudar de forma sana o a establecer límites?
El problema no es solo tecnológico, es educativo y cultural. La IA está entrando en la vida de los jóvenes sin un marco ético, pedagógico ni regulatorio sólido. Y eso nos sitúa, como sociedad, en una posición claramente reactiva, no preventiva.
Más allá de prohibiciones: qué debería hacer cada actor
La prohibición del acceso de menores a redes sociales o determinadas herramientas puede ser necesaria, pero es claramente insuficiente si no va acompañada de medidas estructurales. Pensar que prohibir equivale a proteger es, en el entorno digital, bastante ingenuo.
Los gobiernos deben apostar por marcos regulatorios realistas, aplicables y tecnológicos. Esto implica exigir sistemas de verificación de edad e identidad seguros, similares a los que ya usamos en la banca digital, y actualizar la legislación al ritmo de la innovación, especialmente en lo relacionado con IA y contenidos sintéticos.
Las plataformas tienen una responsabilidad directa en el diseño de sus productos. No son neutrales. Sus algoritmos priorizan la atención, la viralidad y la hiperestimulación, y eso choca frontalmente con el bienestar de los menores. Deben asumir que proteger implica renunciar a parte del engagement y apostar por entornos más seguros, trazables y responsables.
Las marcas, por su parte, no pueden mirar hacia otro lado. Comunicar en entornos donde hay menores exige un nivel de ética superior. No todo lo legal es aceptable. La presión por resultados no puede justificar estrategias que fomenten comparaciones tóxicas, estereotipos dañinos o exposición prematura a contenidos adultos.
Las familias siguen siendo una pieza clave, pero no pueden cargar solas con el problema. El control parental técnico sirve de poco sin conversación, acompañamiento y educación digital. Prohibir sin explicar solo desplaza el problema; educar crea criterio.
El papel de las agencias digitales: responsabilidad desde el origen
Desde las agencias digitales tenemos una responsabilidad especialmente delicada. No solo ejecutamos campañas: influimos en narrativas, comportamientos y modelos de éxito. Cuando trabajamos con contenidos que pueden llegar a menores, el enfoque debe ser radicalmente distinto.
Esto implica cuestionar briefings, revisar creatividades con lupa, limitar formatos y plataformas, y establecer líneas rojas claras. También implica asesorar a los clientes, aunque a veces eso signifique decir “no” a determinadas acciones.
Además, las agencias debemos anticiparnos a los riesgos de la IA: controlar el uso de contenidos generados, evitar la hiperrealidad engañosa y garantizar que la tecnología se utiliza como herramienta creativa, no como atajo irresponsable.
La digitalización no es solo una cuestión de innovación, es una cuestión de valores. Y ahí el sector tiene mucho que decir.
La IA no es el enemigo. El verdadero riesgo es seguir construyendo el futuro digital de los menores sin reglas claras, sin referentes y sin asumir las consecuencias.


José Gabriel García (“Garz”) (