É fácil culpar o usuário. Pais que expõem demais, criadores que forçam o limite, espectadores que consomem sem pensar. É verdade: todos têm responsabilidade. Mas não podemos ignorar o óbvio — as plataformas não são passivas, e os algoritmos não são neutros.
Cada vídeo recomendado, cada conteúdo impulsionado, cada “trending topic” é resultado de uma decisão. Decisão de engenharia, de design, de produto. E quando essas decisões priorizam engajamento acima de tudo, abrem espaço para que o que é nocivo se torne viral. É aqui que a ética deixa de ser conversa lateral e passa a ser o centro da questão.
Um algoritmo não nasce com valores, mas carrega os valores de quem o programa. E mais ainda: carrega os incentivos de quem o financia. Se o objetivo é manter pessoas presas à tela, é natural que aquilo que desperta choque, polêmica ou desejo seja amplificado. A lógica de negócios se sobrepõe à lógica humana. E quando crianças e adolescentes entram nessa equação, o que está em jogo não é apenas o consumo de conteúdo, mas a formação de subjetividades inteiras.
É nesse ponto que a tecnologia deixa de ser ferramenta para virar arma. Não porque cada engenheiro desejou o mal. Mas porque, sem responsabilidade clara, o coletivo das pequenas escolhas técnicas acaba moldando comportamentos sociais inteiros. É a soma invisível que se transforma em poder.
E então surge a pergunta que incomoda: quem é responsável pelo que o algoritmo faz? A plataforma que desenha? O anunciante que financia? O usuário que consome? Ou todos ao mesmo tempo?
A ética, aqui, não pode ser tratada como manual de conduta individual. Ela precisa ser vista como sistema. É responsabilidade de quem cria tecnologia antecipar impactos. É responsabilidade de quem lucra com ela limitar os excessos. E é responsabilidade de todos nós questionar: o que aceitamos normalizar em nome do entretenimento?
E é justamente nesse espaço que falta uma figura essencial: a de quem olha para o todo. Alguém que não está preso apenas à técnica, ao jurídico ou ao marketing, mas que transita entre esses mundos para perguntar aquilo que costuma ficar de fora: “E se…?” E se esse recurso for usado de outro jeito? E se o que funciona hoje gerar danos amanhã? E se a métrica de sucesso não refletir o que realmente importa?
Esse olhar integrador, capaz de sustentar a pergunta antes que o problema estoure, é o que separa a ferramenta da arma. Porque sem ele, ficamos presos ao imediatismo do “funciona, então vale”. Com ele, criamos espaço para responsabilidade, cuidado e valores mais humanos nas redes.
A ética começa quando paramos de perguntar apenas “o que funciona?” e passamos a perguntar “para quem funciona — e a que custo?”. Esse deslocamento é urgente. Porque enquanto discutimos se é censura ou não, vidas reais estão sendo moldadas pelo que aparece em uma tela.
E o que aparece em uma tela nunca é por acaso.





