Qué sabemos, qué no funciona y qué debates siguen siendo imprescindibles para garantizar un entorno digital justo y seguro
Esta semana, desde Dubai, nos llega la noticia de la inminente prohibición del uso de redes sociales en menores de 16 años. Así, España sigue los pasos de países como Australia, donde la prohibición es ya una realidad, o Francia, que ha iniciado el mismo camino. Una victoria amarga que nos habla más bien de lo que no hemos conseguido: contar con un entorno digital sano.
La prohibición emerge con este gran alcance como una respuesta ante la creciente preocupación por los efectos de las redes sociales en la salud mental, la privacidad y el bienestar de niños y adolescentes. Pero también pone sobre la mesa otra cuestión: ¿si prohibir es la opción, ¿qué dice esto del modelo digital que hemos permitido y que tenemos hasta ahora?
Hace tiempo que denunciamos lo que suponen los sesgos algorítmicos en la toma de decisiones y la generación de opinión, la falta de protección de nuestra privacidad, el creciente acoso digital y el impacto adictivo y depresivo que generan los diseños en la mayoría de plataformas. Pero nada cambiaba, al contrario, se eliminaban verificadores de contenidos porque no interesaban a los intereses de las grandes tecnológicas.
Este artículo analiza cómo hemos llegado hasta aquí, por qué puede ser una herramienta con una efectividad limitada y qué debates y acciones siguen siendo imprescindibles si queremos garantizar los derechos, el bienestar y la equidad en el entorno digital.
"La pregunta clave no es sólo si es necesario limitar el acceso, sino como queremos que sea el entorno digital que niños, adolescentes y adultos habitamos"
¿Cómo hemos llegado hasta aquí?
Éramos plenamente conscientes de la vulneración de derechos en el espacio digital y del impacto, especialmente en cuatro ámbitos: la salud mental, la protección de datos, la seguridad y la desinformación. En los últimos años, se han acumulado estudios e informes que alertan sobre el impacto de determinados diseños tecnológicos en conductas adictivas, la exposición a contenidos nocivos o desinformación, el aumento de situaciones de acoso digital… Y, paralelamente, ha crecido una preocupación social. En este contexto, la prohibición se convierte en una respuesta rápida y visible. Pero no permite afirmar que el problema de fondo se haya resuelto.
Podemos ser sinceros. Como sociedad no hemos tenido suficiente influencia para asegurar espacios de interacción online seguros y garantizar un entorno protegido que respete de los derechos de las infancias y las adolescencias. El entorno tecnológico ha acabado teniendo un poder abusivo sobre el bienestar de las personas, y se ha optado por la protección, una retirada forzada por los límites ya sobrepasados.
La prohibición no cambia las reglas de juego. La falta de transparencia y los sesgos en algoritmos seguirán ahí, pero posponemos su interacción hasta los 16 años. Nos da vergüenza reconocer que ni los más jóvenes ni los más adultos estamos equipados para relacionarnos de forma sana y segura y seguiremos sufriendo sus consecuencias. Esta prohibición pone presión a los beneficios de las grandes tecnológicas, pero no cambia su modelo de negocio.
¿Cuál es el problema con el modelo?
Las redes sociales responden a una necesidad humana: relacionarnos, informarnos, descubrir y observar para entender y comprenderse mejor. Generamos vínculos y construimos identidad. No es, por tanto, la interacción digital en sí misma lo que está en cuestión. El problema radica en cómo se han diseñado y gobernado estos espacios.
Lejos de perseguir en bienestar social, han quedado gravemente dañados por diseños que han utilizado a las personas y sus datos como un recurso más a seguir explotando. Este diseño incentiva el consumo constante, amplifica contenidos polarizadores y dificulta una experiencia digital saludable, especialmente para niños y adolescentes, que se encuentran en un momento clave de desarrollo. Ahora podemos vivir los problemas que ha generado a nivel de salud pública, fractura social y detrimento de la calidad democrática.
"Esta puede ser una gran oportunidad para plantearnos cuál es el modelo de gestión y protección de los datos que queremos en Europa"
La prohibición, en este sentido, no cuestiona el papel de las redes como espacios de relación, sino que evidencia la incapacidad colectiva de haber garantizado su uso seguro y respetuoso con los derechos. Nos hemos perdido el potencial real que aportaban por la generación de referentes, cohesión social y fortalecimiento de tejido comunitario.
¿Por qué la prohibición plantea dilemas éticos?
Los mecanismos para la clasificación de usuarios en función de la edad requieren en su gran mayoría de una verificación de la identificación legal o incluso el uso de datos biométricos. Otras herramientas de discriminación como la autoclasificación por edades resultan ser poco efectivas. Por tanto, la ejecución de la prohibición plantea dilemas en la seguridad, la protección y soberanía de los datos, que hay que garantizar.
También cabe destacar que aquellas plataformas de chat que quedarán permitidas seguirán sin estar exentas de acoso, desinformación o contenido nocivo.
Es una cuestión geopolítica
El món és cada vegada més polar i estem davant d’una dicotomia en la gestió i protecció de les nostres dades online, en especial la dels menors d’edat. En els pols oposats trobem els Estats Units i la Xina, el primer aposta per una privatització i poder cedit a les tecnològiques, en l’altra, un control absolut per part de l’Estat.
Aquesta pot ser una gran oportunitat per plantejar-nos quin és el model de gestió i protecció de les dades que volem a Europa. Ens cal poder polític per condicionar un disseny segur de l'espai online i garanteixin els drets de la infància a la llibertat d'expressió i participació i a l'accés a la informació.
El mundo es cada vez más polar y estamos frente a una dicotomía en la gestión y protección de nuestros datos online, en especial la de los menores de edad. En los polos opuestos encontramos a Estados Unidos y China, el primero apuesta por una privatización y poder cedido a las tecnológicas, en la otra, un control absoluto por parte del Estado.
Ésta puede ser una gran oportunidad para plantearnos cuál es el modelo de gestión y protección de los datos que queremos en Europa. Necesitamos poder político para condicionar un diseño seguro del espacio online y garanticen los derechos de la infancia a la libertad de expresión y participación y al acceso a la información.
"No podemos abordar el reto sólo desde la restricción: hay que seguir educando a niños, adolescentes y adultos para desarrollar una ciudadanía crítica y capaz de entender cómo funcionan las plataformas"
Más allá de la prohibición: ¿qué podríamos estar haciendo?
Si la prohibición pone límites, también debería abrir el debate sobre qué hacer a partir de ahora. Varios ámbitos aparecen como imprescindibles si se quiere avanzar hacia un entorno digital más justo y seguro. Al menos, en tres propuestas para salir adelante:
- En primer lugar, es necesario definir estándares éticos de diseño tecnológico. Esto implica exigir transparencia algorítmica, regular los usos de los datos y evaluar el impacto del tecnodiseño en el bienestar de las personas. Favorecer plataformas que operen con criterios de beneficio social y garantizar su cumplimiento debería ser una prioridad política.
- En segundo lugar, es imprescindible reforzar el acompañamiento educativo. No podemos abordar el reto digital sólo desde la restricción: hay que seguir educando a niños, adolescentes y adultos para desarrollar una ciudadanía crítica, capaz de entender cómo funcionan las plataformas, identificar la desinformación y gestionar su presencia digital de forma responsable. Escuela y familias tienen un papel clave, pero necesitan apoyo y orientación.
- Finalmente, es necesaria una sensibilización ciudadana más amplia. Una sociedad informada y crítica está mejor preparada para hacer frente a los retos digitales y para exigir cambios estructurales. Garantizar espacios independientes de reflexión y debate público es fundamental para no reducir la discusión a soluciones simplistas.
La prohibición de las redes sociales a menores de 16 años responde a una legítima preocupación. Pero la pregunta clave no es sólo si hay que limitar el acceso, sino cómo queremos que sea el entorno digital que niños, adolescentes y adultos habitamos.
Sin cambios en el diseño, en la regulación y en la educación digital, la prohibición es una solución parcial a un problema sistémico.
Héctor Gardó