Recientemente Tiktok ha publicado un interesante informe de transparencia, disponible en: https://www.tiktok.com/safety/resources/transparency-report-2020-2?lang=en&appLaunch=,en el mismo me parece interesante destacar que sólo en la segunda mitad del pasado año, eliminaron más de 89 millones de videos, debido al incumplimiento de las condiciones de la plataforma, esto se traduce en videos violentos, que involucran a menores, que incluyen suicidios o autolesiones, relacionados a actividades peligrosas o ilegales, que contienen sexo… etc…
En principio podríamos caer en la tentación de agradecer la transparencia de la plataforma, así como el esfuerzo en tratar de protegernos de contenidos inadecuados (otra cosa claro está, es que creamos a pies juntillas estos datos). Tiktok, se esfuerza además en destacar que más del 90% de los videos fueron eliminados en las 24 horas siguientes a su publicación, y que aunque 89 millones de videos puedan parecer una burrada, en el contexto de esa red social sólo suponen una mínima parte del total.
Ahora bien, la triste realidad es que todo lo anterior es más bien una campaña de limpieza de imagen de la red social, seriamente dañada por la recientemente muerte de una niña italiana de 10 años: Antonella Sicomero, y me parece importante incluir el nombre porque muchas noticias relacionadas lo pasan por alto, de modo que la noticia parece relacionada a una cifra, una cifra más, cuando realmente se trata de una persona, o más bien una personita de 10 años, con toda la importancia que merece.
Los detalles del suceso básicamente son que la pequeña fue encontrada sin vida en el baño de su casa con el móvil, presuntamente tratando de llevar a cabo uno de los tantos estúpidos retos de moda, el #blackoutchallenge, consistente en aguantar largo tiempo sin respirar. Más info: https://elpais.com/sociedad/2021-01-23/italia-bloquea-tiktok-tras-la-muerte-de-una-nina-de-10-anos.html
Italia censuró durante unos días la red social como toque de atención, pero como se ha comprobado no ha ido a más, ni por su parte, ni por la parte de otros países que podrían haber aprendido algo de este suceso. Hay que tener además en cuenta, que en teoría en Italia sólo es posible registrarse en Tiktok si tienes más de 14 años, no es que eso sea un remedio definitivo para que se repitan desgracias como la comentada, pero está claro que no es lo mismo tener 10 que 14 años. En todo caso, esto da lugar a otro debate ¿quién comprueba que tengamos más de X años para acceder a contenidos con filtro de edad?
Ya en su momento, este suceso me hizo recordar la gran polémica que hubo con Youtube acerca de ciertos contenidos de la plataforma, y es que los métodos automáticos e inteligentes del servicio de Google en seguida pueden censurar un video si por ejemplo suena de fondo una canción musical con derechos de autor. Pero no son tan sofisticados como para detectar automáticamente contenidos violentos muchas veces consumidos por los más peques de la casa.
Es entonces, cuando Google decide sacar YoutubeKids, una plataforma a parte de Youtube, específica para los más pequeños, pero dónde sin embargo el problema persiste. Y persiste por un motivo muy sencillo, cuando cualquier plataforma de contenidos específica: véase Netflix, Amazon Prime, HBO, Movistar… o cualquier televisión pública o privada publican contenidos, estos han pasado una revisión, y además hay un interés en que sean de calidad, y por supuesto no caigan en ilegalidades o contenidos violentos censurables. Sin embargo esto no es así en Tiktok, Youtube, YoutubeKids, Facebook… ni en ninguna plataforma social, donde la revisión de contenidos es en general automática, es decir, sólo un mínimo porcentaje de vídeos son revisados por personas reales, y dónde el objetivo es mantenerte frente a la pantalla, independientemente de lo que estés viendo pueda ocasionar daño.
Por poner en perspectiva todo esto con un ejemplo concreto, el de una madre anónima, que explica videos comprometidos en https://pedimom.com/youtube-kids-inappropriate-videos/. Básicamente el modus operandi es siempre el mismo, estás visualizando un video de dibujos inofensivo, y de repente tras unos minutos de reproducción normal, aparece por ejemplo un tipo enseñando a los niños cómo pueden suicidarse, autolesionarse, o muestra contenidos violentos o explícitos. En algunas ocasiones las imágenes o escenas se incluyen casi de modo subliminal, dificultando enormemente su detección incluso por parte de los padres, si no están visionando de forma directa y atenta el video.
Existen muchos otros ejemplos, los retos de la denominada Ballena Azul de hace unos años, dónde jóvenes se autolesionaban e incluso hubo centenares de suicidios: https://www.20minutos.es/noticia/2976094/0/ballena-azul-mortal-reto-viral-130-suicidios-adolescentes-rusia/ con pruebas promovidas a través de redes sociales de distinta índole (Facebook, Reddit, Vkontakte…), o el más reciente Abecedario del diablo: https://www.lavanguardia.com/vida/20190409/461559683312/abecedario-del-diablo-juego-viral-peligroso-heridas-manos.html…
También hay otras técnicas, como los mensajes y conversaciones de pedófilos detectados a través de plataformas como Youtube orientados a abuso infantil, o sin ir más lejos el caso de Pornhub del que hablamos en el artículo “en un mes cualquiera”: https://ciberseguridadtotal.com/en-un-mes-cualquiera/.
El problema está claro, cómo protegemos a los que más queremos, a las nuevas generaciones, a los niñ@s de todo esto, y la respuesta es que no se puede, y no se puede porque a pesar de apps específicas, controles parentales, etc, etc… se dan las siguientes circunstancias
- Por un lado, que es imposible poner barreras al campo. Google, Facebook, Tiktok, Instagram… y demás servicios son omnipresentes, forman ya parte de nuestra vida, y es imposible estar al margen de ellos. La sociedad además invita a ello, cómo decirle a un adoscente que puede tener un smartphone pero sin todos estos servicios integrados.
- Por otro lado, esos gigantes: Google, Facebook… no quieren cambiar las reglas. Podría ser tan sencillo como validar a los usuarios, comprobar su identidad, verificar que realmente tienen la edad que tienen, o simplemente revisar los contenidos publicados en sus plataformas, pero es más sencillo lavarse las manos y seguir haciendo caja, eliminando trabas o procesos que se traduzcan en una disminución de beneficios, como si no tuviesen pocos ya.
- Las naciones y organismos institucionales tampoco son solución, siempre están varios pasos por detrás respecto a las nuevas tecnologías, y además ya sea por presión de lobbies o grandes corporaciones, queda más que patente que evitan mojarse, incluso a pesar es algo que ya les afecta directamente, póngase como ejemplo la interferencia en el voto a través de la manipulación en redes sociales, el Russiangate, el Brexit, los extremismos y odios en la población cada vez más acusados y que desembocan en revueltas, como el reciente asalto al capitolio de los EEUU o la sonada censura de todo un presidente de EEUU como Donald Trump en redes sociales. Pueden seguir mirando de lado, pero el problema les ha caído también a ellos de lleno.
- Y por último, queda el pilar de la educación, al menos tener las bases para que si los que tienen que moderar y poner remedio no lo ponen, podamos, por decirlo de algún modo, distinguir y detectar contenidos dañinos. Y en este sentido lamentablemente, tampoco estamos para tirar cohetes, y es que en el plan educativo se echa en falta asignaturas que traten estos temas: ciberseguridad, acceso a la red… pero es que además a nivel familiar, muchos padres y madres tampoco están capacitados para llevar a cabo esta educación, porque son los primeros que necesitarían recibirla primero.
¿Y si no hay solución qué hacemos?
Pues lamentablemente, es un yo me lo guiso, yo me lo como. Posiblemente la única solución con las premisas anteriores es la educación en casa, empaparse de estos temas si es que no los controlamos, y tratar de explicar a nuestros hijos e hijas el escenario en el que se van a mover, los peligros inherentes, y las consecuencias asociadas.
Es algo complicado, es necesario que haya una buena comunicación precisamente en una época de nuestras vidas (adolescencia) donde solemos ir por libre, y está claro no siempre se van a dar las mejores circunstancias, pero al menos por ahora, esta es la única manera de tratar de cuidar a los que más queremos.