Com a sua presença ficou demonstrado que a empresa [Facebook] sabia dos danos que estava a causar.
Na segunda vez que trabalhei na Meta, pensei que eles não soubessem. Se nos preocupamos com as pessoas, se nos preocupamos com as crianças para quem estamos a vender um produto, ao ver esses números imediatamente começamos a trabalhar em profundidade. Mas falei com uma equipa de executivos, enviei um correio-e diretamente para Mark [com os relatórios], falei com Adam Mosseri [chefe do Instagram] e expliquei os danos que o seu produto estava a causar aos menores. Eles escolheram não fazer nada.
Sobre que coisas os alertava?
Uma em cada oito crianças afirma que alguém as assediou [no Facebook] ou que recebeu mensagens sexuais indesejadas nos últimos sete dias. Se uma criança sofrer assédio, deve haver um sistema para alertá-la. Não há maneira para um adolescente contar ao Instagram ou ao Meta que foi assediado. Como vão eles protegê-lo?
Há mais coisas negativas?
Uma em cada cinco crianças vê conteúdos violentos que não quer ver. Como, por exemplo, um vídeo de uma pessoa a fazer bungee jumping, o cabo quebra-se e ela vai morrer. Mas como o vídeo é interrompido pouco antes de chegar ao chão, ele não quebra nenhuma das regras [da empresa] e eles promovem-no. Mas esse vídeo é prejudicial para uma criança.
(…)
Os adolescentes ainda consideram esse conteúdo prejudicial?
Hoje tentei, com uma conta-teste como se fosse uma menina de 13 anos, escrever «Eu quero…», e uma das recomendações foi a conta “Quero ser magra”, que falava sobre remédios, receitas… Essa mesma página de busca recomendou a conta “Quero-me matar”. Era todo um conteúdo depressivo para adolescentes.
Arturo Béjar (2025). Arturo Béjar: «El algoritmo de las redes es un chorro de daño directo al cerebro de nuestros hijos». La Vanguardia em linha, 14 de março de 2025. [Tradução de João Pedro Aido.]
O Facebook contratou Arturo Béjar, em 2009, para proteger os utilizadores da rede social. Foi responsável pela Proteção e Cuidados da empresa até 2015, e em 2019 regressou à Meta (também dona do Instagram e do WhatsApp) como consultor. Béjar deixou a empresa ao perceber que, apesar dos relatórios que enviou ao próprio Mark Zuckerberg a alertar sobre os danos infligidos aos menores, não estava a ser feito o suficiente para evitá-los. Em 2023, compareceu perante uma comissão do Senado dos EUA para denunciar a situação.
Béjar falou com o jornal La Vanguardia por videochamada antes de falar no Congresso de Jornalismo de Huesca, onde foi debatido o impacto das redes sociais na informação. O ex-executivo da Meta, dona do Facebook e do Instagram, lidera uma luta contra a empresa por não fazer o suficiente para proteger os adolescentes de conteúdos que prejudicam a sua saúde mental.
Noutra passagem da entrevista acrescenta:
Os algoritmos encorajam por definição o excessivo [extremo]?
É perfeitamente possível e fácil ter um algoritmo ético. Os algoritmos são tão bons quanto os programarmos. Se lhes ensinarmos que a violência, a exploração sexual e infantil e o suicídio funcionam, é isso que eles amplificarão. Na China, o TikTok para adolescentes é bem diferente, com muitos vídeos positivos. A conversa é completamente diferente. As empresas escolhem o que promovem. Não se trata de liberdade de expressão, mas sim do que a empresa escolhe amplificar.
Fonte da imagem aqui.