Censura
Sim, o assunto de hoje é tenso, como acho que todos os assuntos que tratei aqui foram até agora. Mas este é diferente, falar de censura exige explicações prévias, me obriga a delinear e tornar mais estrito e exato possível sobre o que estou falando e para ser sincero, sinto um enorme receio de ser mal-interpretado ou que neste texto existam aberturas para esticar ao que não se encaixa aqui. Por isso mesmo peço já deculpas se em algumas partes eu me prender muito a definições.
Outra preocupação que tenho é quanto ao público, se tornou lugar-comum em falas públicas e especialmente em redes sociais associar tudo o que é censura ou ditadura ou qualquer forma de “cerceamento da liberdade” a pessoas e ideologias de esquerda, mas de forma tão abrangente que mesmo medidas sanitárias básicas nos últimos meses vimos ser chamadas de ditadura. Aqui obviamente vou no sentido contrário, apontanto as diferenças entre moderação e coersão, entre a necessária crítica e responsabilização sobre o que faz e se fala e a censura. Então escrevo aqui ciente de que as chances de sites de busca indicarem o site do projeto para ancaps e reaças são mais altas que o comum, considerando que o tema central aqui é tecnologia, uma área já bem saturada de ideologia neoliberal.
E só mais uma coisa: vou manter uma linguagem mais reconhecível como comunista só para reforçar a posição do que desenvolvo aqui, retornarei a isso mais à frente, mas adianto um pouco do quanto a linguagem indica uma posição, e se plataformas direcionam as pessoas a manter certa linguagem e comportamento, esse direcionamento em si guarda também posicionamentos políticos da plataforma. Às vezes é realmente necessário carregar a linguagem para algo além do simples sentido das palavras quando se busca reforçar uma posição.
Definindo Censura
Aqui considero censura estritamente como algo planejado para atuar de forma sistêmica, usando estruturas institucionais (e aqui também englobo as corporativas), visando o controle do que se fala/se publica (exatamente no sentido de tornar público) para fins de interesses hegemônicos, o que para este caso se poderia resumir em manter os interesses de quem detém o controle sobre as pessoas que são censuradas. Isso signfica que a censura sofrida por todos os brasileiros em diferentes intensidades na ditadura militar foi obviamente uma censura, se utilizando do aparelho estatal para controlar as produções culturais, o jornalismo, até os conteúdos das aulas em colégios e universidades para que essa ação política que é falar em público não fosse utilizada para ferir de alguma forma os interesses hegemônicos norte-americanos e de políticos e empresários envolvidos no golpe e manutenção da ditadura militar. Ao deixar isso claro torna-se até translucidamente lógico que não é possível falar de censura ou até ditadura em situações como:
- Cantores deixarem de cantar uma música porque não se sentem mais à vontade com o teor das letras não é autocensura, é no máximo admitir que ou a música envelheceu mal, ou que o contexto mudou ou ainda, que se antes já tinha algo de ruim, com o tempo só piorou porque a sociedade mudou e muita coisa dita antes com normalidade, não é algo mais aceito publicamente.
- Seguindo o item acima, pessoas criticando uma música, um filme, um livro pela mensagem transmitida pela obra, não é censura, ainda que forme alguma pressão popular, coisas assim ocorreram desde sempre. É chover no molhado dizer de Lovecraft era racista e xenofóbico e que isso se expressa em todos os contos que ele escreveu onde o terror sempre estava na demonização da cultura não-branca-norte-americana.
Percebe a diferença até na escala e proporção?
Falei de exemplos voltados para cultura e artes porque é normalmente o que ganha mais os holofotes e ainda conseguem formar uma corrente mais ampla de ódio contra quem coloca o dedo na ferida. E aqui não estou sendo pós-moderno no sentido do xingamento-comum utilizado contra quem diz que coisas erradas estão erradas, ao longo da história esse é um movimento comum. Isso de dizer que o que tal filósofo que fazia parte de tal família da nobreza de tal país europeu tava errado e apontar as falhas em suas obras é algo absolutamente frequente em várias obras de diversos filósofos, basta ver Nietszche implicando com Kant e Schopenhauer com Hegel. Na literatura também sempre foi comum que um movimento literário criticasse o outro, repara bem como Os Sapos de Manuel Bandeira debocha de Olavo Bilac. A história do que quer que seja envolvendo humanos não é uma linha reta e é também absolutamente esperado que existam coisas que envelheçam mal, como as novelas da Globo onde as atrizes negras eram sempre as empregadas domésticas, ou já nasçam completamente anacrônicas com a forma como a sociedade se constitui. Críticas sempre houveram e quando elas partem de pessoas comuns não tem como dizer que isso é uma censura, censura é o que o aparelho estatal, militar, empresarial fizeram na ditadura militar e nas ditaduras anteriores ao qual o Brasil passou, e nesse caso posso extender aos grandes massacres e guerras civis que nos livros de história são chamados de revoltas cuja história oficial foi registrada e passada à frente de acordo com os interesses de quem mantém o poder institucional concentrado em suas mãos. A história sempre teve lado assim como a ciência sempre serviu aos interesses de quem paga para que seja desenvolvida e seus produtos dêem lucro.
O Brasil tem um histórico muito grande de ditaduras e censuras, não dá para banalizar estes termos como a direita neoliberal faz para acusar a esquerda do que a própria direita sempre fez ao longo da história. Tenho de tocar neste assunto de forma incisiva porque no discurso neoliberal e especialmente no dos ancaps, a opressão sempre parte do Estado quando na realidade o Estado capitalista sempre agiu segundo os interesses dos burgueses em detrimento da grande massa da população. É exatamente sobre como plataformas nas mãos de big techs, já conhecidas por favorecer desinformação, também praticam extensivamente censura e até mesmo a nível conceitual me parece impossível não exercer considerando a arquitetura institucional e em especial, o modelo de negócios.
Antes de prosseguir para o algoritmo e a massividade da coisa toda, tem mais definições que preciso fazer e eu tinha me esquecido completamente:
Moderação não é censura!!!
Eu realmente estava escrevendo como se não fosse precisar explicar algo que é óbvio, mas diante do momento atual, até coisas realmente óbvias precisam ser desenhadas.
Toda moderação visa manter o ambiente saudável, contendo comportamentos abusivos ou que de alguma forma afetem o bem estar de outros usuários, e isso é importante observar, a centralidade na experiência de quem utiliza aquele espaço. Pensando bem falar de uma moderação ideal é como falar de um ideal democrático onde todo o cuidado está em impedir “ditaduras”, seja de uma maioria sobre uma minoria ou de uma minoria privilegiada/dominante sobre uma maioria muitas vezes invibilizada. Definindo moderação dessa forma, a censura se mostra quase o seu oposto conceitual servindo a interesses individuais, impondo regras e punições que visam direcionar os discursos para o que lhe convém.
Definindo o produto
O que é um telejornal? Por mais que exista (ou ao menos deveria existir) uma responsabilidade sobre o que se fala tendo em vista seu teórico objetivo social, na prática o telejornal é um produto para anunciantes assim como todo o resto da grade de programação da TV. Sei que por todos os lados se busca ressaltar a diferença de consumo de mídias, notícias, entretenimento entre TV e os diversos serviços oferecidos via internet, mas se olharmos para o modelo de negócios vemos que o que se tem basicamente é uma expansão do que se fazia na TV, que por sua vez já é uma expansão do rádio e dos jornais e revistas impressos. Sendo assim, o que é um canal no youtube, um perfil de “influencer” no instagram, esta newsletter e qualquer outra coisa consumível de alguma forma no ambiente virtual que não seja um produto? É claro que há diferenças no modelo de negócios envolvido, aliás são justamente estas diferenças que definem a liberdade e possibilidades das pessoas que criam os conteúdos, pois da mesma forma que é um tiro no pé um telejornal que mantém sua imparcialidade e faz uma reportagem detalhando os podres de algum dos seus anunciantes, também é um tiro no pé de uma plataforma de vídeos ou rede social manter o alcance ou até mesmo a existência de conteúdo crítico à própria plataforma e interesses de anunciantes dentro do seu território.
Mas e quanto a este projeto, o Geleia de Menta? Simples: aceito que pessoas que consomem este conteúdo que publico aqui financiem este trabalho se quiserem com o quanto puderem, de forma que o meu compromisso seja apenas com quem consome este produto. E sendo uma gama abrangente de pessoas, ainda que pelo menos até o momento e imagino que será sempre assim, eu possa lidar diretamente com elas, horizontalmente. Esta é uma forma de alinhar ideologia e prática. Não condeno quem faz vídeos para o youtube, entendo que muitos vêem como uma tática de ocupar espaço, e essas pessoas estão certas mesmo, só que ser tão independente de grandes plataformas quanto busco ser neste projeto é também uma forma de dizer que não precisamos que elas intermediem a relação que pessoas que produzem de conteúdos têm com pessoas consumidoras. Já falei várias vezes sobre a verticalização das redes sociais e como elas praticamente obrigam cada um a desempenhar um papel rígido e específico, a criar ídolos que têm respostas para tudo e aberrações do tipo. Eu realmente não quero isto para mim nem para este projeto, eu me sentiria mal demais. Além do mais é impossível dissociar o objetivo deste projeto à crítica, a crítica está no motivo de existência de cada texto que escrevo pois se há tanta babação em cima de “gurus” da tecnologia e de big techs é porque a forma como tudo é ideologicamente trabalhado, e nisso incluo o caminho trilhado pelo dinheiro destinado a publicidade, o que torna impossível a existência de análises críticas em profundidade, o máximo que se faz é reproduzir como que no automático o coro de figuras do meio empresarial ligado a tecnologia ou de notas oficiais de empresas sobre determinado assunto, como o caso do FLOC da Google que foi criticado por todos os outros responsáveis pelos demais navegadores, mas essa crítica em momento nenhum ataca o modelo de negócios da Google com sua onipresente publicidade e coleta massiva de dados.
Em resumo, emissoras de TV e plataformas de streaming tem bem mais semelhanças do que pode parecer à primeira vista, a aparente liberdade de qualquer um criar e divulgar, na realidade se traduz apenas como volume e variedade para as plataformas, não em liberdade de criação ou espaço de fala. Por isso mesmo não podemos descartar a dimensão política do universo do streaming; direcionado a replicar uma visão de mundo e uma forma de entretenimento, tende a se distanciar da realidade tanto quanto a TV faz, tende também a reproduzir o discurso hegemônico das pessoas que decidem as coisas nas empresas donas das plataformas. E se hoje não surpreende a participação ativa de veículos de imprensa em campanhas políticas e para isso basta ver a avidez com que se busca uma 3ª via que nem existe (mas sem dúvidas o maior exemplo foi o famigerado debate entre Lula e Collor em 1989), não é de se estranhar como certos grupos políticos tenham ganhado projeção em redes sociais e outras plataformas, aliás, por fora do ambiente virtual há demonstrações concretas do viés intrínseco a classe e circulo social dos donos dos meios de produção, negando na prática o que afirma no discurso inclusivo do marketing. Tal cenário indica por si mesmo o nebuloso caminho percorrido pelas pessoas produtoras de conteúdos em se adequar ideologicamente a plataforma de onde tiram o seu sustento.. Ainda que não ceda totalmente, a mecânica do meio usado para divulgar o trabalho, sempre vai interferir de alguma forma no seu conteúdo. Afinal, da mesma forma que um produtor trabalha para uma emissora de TV criando um programa, youtubers e streamers trabalham para as plataformas, só que na informalidade e sem o investimento da empresa responsável pela infraestrutura de transmissão e publicidade obrigatória.
Escala Algoritmica
Talvez mais do que apenas a posição das empresas e seu contexto social e político, o que me faz pensar de verdade em mecanismos de censura está no algoritmo, não apenas pela massividade de sua ação, mas como mesmo diante de um oceano de incertezas ele é considerado algo confiável, e pelo menos até pouco tempo atrás essa era uma visão meio que um consenso, “afinal se trata de excluir o viés humano”. Ao longo de todos estes textos que escrevi aqui nos últimos meses, está mais que claro que para mim isso não existe, e mais, que falar dessa forma como se um algoritmo pudesse agir eticamente por si só, é romancear demais a coisa mas admito o quanto essa idéia é atraente, ainda mais quando reforçada por outros elementos pós-humanidade. Enfim, sob a perspectiva deste projeto, me parece o mais justo combater esse obscurantismo quase medieval ensinando, nem que seja com poucos detalhes para não tornar este texto um tutorial e manter o foco no que nos importa aqui.
dados
Trabalhar com processamento de linguagem natural (NLP, na sigla em inglês) tem suas particularidades. Para começar, como representar numericamente as palavras de modo que cada uma represente uma posição do espaço que indique seu sentido de alguma forma? Basicamente é disso que falei na edição anterior da newsletter, como absolutamente tudo ligado redes neurais e outros algoritmos de aprendizagem de máquina dependem de representações espaciais de coisas do mundo real. Lidar com NLP é realmente desafiador pela linguagem ter uma variação de significados que tende ao infinito, e diferente dos dados como do exemplo na edição passada da newsletter, ainda lidamos com uma quantidade variável de palavras. E para concluir essa lista de desafios iniciais, a inerente subjetividade de interpretação tende a criar datasets completamente absurdos. Lembro que anos atrás quando eu começava a estudar sobre o assunto, eu costumava procurar meio que no desesespero por datasets e nisso cheguei a encontrar uma bizarrice de tweets marcados como “positivos” e “negativos”, é bem óbvio que se você não der um contexto claro do que você está definindo como uma coisa e outra neste caso, ao fim das contas você não está dizendo nada, ainda assim fui dar uma olhada porque sempre foi muito difícil encontrar qualquer coisa em português; em resumo: todo tweet elogiando o PSDB e em especial, João Doria era marcado como positivo e qualquer tweet que citasse o PT era visto como negativo.
Mas vamos por partes, primeiro temos de pensar na obtenção dos dados, isto é, como não se tem como realizar treinamento algum em NLP sem textos, então há um grande trabalho dado a terceirizados, basicamente mão-de-obra precarizada espalhada em países subdesenvolvidos, bem na linha do que o The Intercept publicou certa vez, além das condições de trabalho, o que claramente influencia no resultado, também temos a questão cultural: do Líbano ao Irã há uma enorme distância do que é considerado ou não fora das regras.
Treinamento
Vamos imaginar agora que temos todos os vídeos traduzidos e todos as menções ao que foge as regras marcadas, isso ainda não é o suficiente para iniciar o treinamento, é preciso reduzir cada palavra ao nível numético, como se cada uma fosse um ponto no espaço de tal forma que corresponda ao seu valor semântico. Essa fase é como um treinamento para o vocabulário, e sendo assim, quanto mais palavras melhor. E por isso é tão comum usar textos da wikipedia, e quando falo isso, falo de todas as páginas no idioma em questão, é preciso ter um volume colossal de textos em cada fase e isso é algo necessário pela própria teoria cognitiva sobre a linguagem que está por trás dessa prática que como dá para perceber, não foge à regra do que vimos até agora:
- Cada palavra só faz sentido em seu contexto de uso, então se divide o texto em grupos “n” palavras mantendo sua sequência
- a rede neural vai pegar a palavra que tá no meio e tentar adivinhar as outras que estão envolta
Obviamente não vai acertar palavra alguma, mas ao longo de um realmente longo e exaustivo treinamento com um enorme volume de textos, tende a chegar numa representação espacial das palavras e é isso que é usado no treinamento. Se substitui cada palavra pelas coordenadas correspondentes e assim, de um texto/vetor de palavras nós criamos uma matriz/lista de coordenadas. Todo o treinamento de fato é feito sobre esta matriz.
Caso esteja tudo muito abstrato, escrevi alguns anos atrás sobre um dos algoritmos-base de quando se estuda este processo, você pode acessar o link aqui, e caso queira visualizar como são essas palavras espalhadas no espaço de acordo com seu valor semântico, tem esse link aqui, mas peço que não abram no celular, esse site não foi feito para telas pequenas.
Para lidar com o áudio, o processo tem mais 2 camadas além dessa do texto:
- dividir o aúdio em palavras e frases de acordo com as pausas na voz.
- atribuir pontos num espaço para cada palavra (que nesse caso podem ser aleatórios mesmo) e treinar um tipo especial de rede neural chamada enconder-decoder também chamada de seq2seq, ela serve para alinhar esses pontos no espaço criando uma correlação de sentido entre aúdio e texto.
Sei que falando assim as coisas parecem que dão certo tranquilamente mas não é bem assim, como estamos falando de correlacionar palavras e de lidar com “regiões” no espaço de acordo com seu sentido, as coisas não funcionam de forma exata. Há uma grande vantagem que é a flexibilidade que se tem ao lidar com frases que não entraram no treinamento mas cujas palavras, pelo menos parcialmente estavam presentes. O que importa para nós aqui é que nada disso é determinístico, seria até mais justo dizer algo como “tal frase tende a ser X% ofensiva ofensiva e Y% uma piada”. Sobre isso, lembro de certa vez ver um youtuber que acompanho falar que tirou um vídeo do ar porque ele foi desmonetizado devido a uma piadinha que tinha no começo onde ele usou a palavra “cocô” e isso foi o bastante para o algoritmo considerar ofensivo. E devo dizer, na perspectiva do algoritmo, que é esta que acabei de explicar onde se aprende a identificar tudo espacialmente, o que não tem absolutamente nada a ver com a forma como lidamos com o sentido das palavras e frases, faz total sentido que frases que não sejam ofensivas para nós sejam classificadas como ofensivas, da mesma forma palavras e frases extremamente ofensivas podem passar despercebidas, bastando apenas escolher com cuidado as palavras para escapar ao algoritmo.
Entendendo como internamente a classificação de textos funciona com deep learning, começa a fazer sentido palavras que parecem tão aleatórias divulgadas numa pesquisa realizada por alguns youtubers acerca da desmonetização. A lista pode ser vista aqui e logo de cara encontramos palavras como #metoo
mas também outras como evidence
e cancer
. Se fosse para eu apontar uma falha nessa forma de divulgação é justamente focar nas palavras em vez do contexto, pois sendo cada palavra um ponto no espaço, é o conjunto de pontos no espaço que é transformado pelo algoritmo, portanto se uma palavra é inteiramente inofensiva mas outras na mesma frase, sendo ou não tão inofensivas quanto, podem deslocar a frase como um todo para uma zona de desmonetização. Há uma imprevisibilidade inicial já que olhando do ponto em que estamos, o algoritmo é como uma caixa-preta, e mesmo que eu concorde que existe de fato um direcionamento feito a partir do algoritmo como tenho afirmado desde o começo, os testes necessários para desvendar seu interior exigem bem mais sistematização e massividade, buscando inferir o peso de cada palavra a partir de testes em diferentes contextos, criando assim, estimativas na tentativa de reconstruir os pesos atribuídos a cada palavra pelo algoritmo. Eu só queria esclarecer que não estou desmerecendo o trabalho feito, ele tem sua relevância, é um ponto de partida, mas ainda diz pouco devido a forma como algoritmos inteligentes funcionam.
O caminho mais fácil
Entendo que ao se falar em identificar discursos de ódio, a primeira coisa que venha à mente sejam termos e palavras isoladas, como “nazismo”, “racismo”, “bicha”, “puta”, etc. E algo que acontece muito a partir da imposição de gestores, é determinar que no dataset de treinamento todas as frases que contenham um conjunto de palavras que tendem a ser vistas como problemáticas sejam classificadas como proibidas. O problema imediato disso é que neo-nazis não falam de si como neo-nazis (ao menos não em situações normais, pelo menos por enquanto), é mais fácil um canal sério de história ser punido por falar sobre nazismo num vídeo sobre a 2ª guerra mundial do que um canal verdadeiramente neo-nazi que vai tentar ao máximo se mostrar o típico isentão na superfície.
Outro grande problema, nesse caso impossível de resolver com nossa tecnologia atual, é o alto custo computacional envolvido em lidar com tão grande volume de dados e quando me refiro a volume de dados aqui não é na quantidade de texto e aúdio, me refiro a essas matrizes resultantes da “tradução” das listas de palavras para uma lista de coordenadas num hiperplano, muito frequentemente se lida com centenas ou milhares de dimensões na busca por se ter um nível de separação mais eficiente entre cada grupo de sentidos, de modo que se temos uma frase de 5 palavras, no fim das contas será passado ao algoritmo uma matriz de, sei lá… 5x100, ou seja, logo de cara para uma frase pequena teríamos 500 valores a serem processados.
Um treinamento a sério demora dias, testes a sério demoram mais dias; ao encontrar falhas, o mínimo que será feito é continuar o treinamento de onde parou ou refazer o treinamento do zero (se o problema estiver no algoritmo ou treinamento e não nos dados, isso é uma certeza). Há um custo alto em todos os sentidos para fazer isso funcionar, mas a aplicação massiva gera uma economia grande por substituir mão de obra. O sonho de todas as empresas que lidam com IA é descartar inteiramente a mão de obra humana, as que falam em apenas “dar suporte” a escolhas de pessoas, mentem, falo isso porque tanto internamente quanto na publicidade feita para clientes se busca quase que desesperadamente estatísticas e quaisquer outros números que afirmem a confiabilidade e consequente qualidade do resultado. Como foi possível perceber até agora, isso é algo impossível, não estamos falando em momento algum de algo preciso, mas de algo que precisa ser interpretado como o tal “tal frase tende a ser X% ofensiva ofensiva e Y% uma piada”. E repetindo algo que eu já disse na última edição da newsletter mas vale reforçar: máquinas são incapazes de lidar com conceitos.
O mito de Sísifo
Há um fato ligado ao tempo quando se trata de algoritmos que usam aprendizado de máquina: como o dataset foi construído num determinado momento histórico, e o algoritmo se ajustou a ele, isso significa que com o tempo ele vai ficando defasado, por isso que eu digo que é impossível elimitar o trabalho humano, a frequência com que se precisa de mão de obra terceirizada e inteiramente precarizada em países subdesenvolvidos para fazer o trabalho manual de alimentar as máquinas com dados atualizados através de revisões que os algoritmos erraram feio e por isso os criadores de conteúdo tiveram o trabalho de ir reinvidicar que tal decisão fosse corrigida, todo este processo é inteiramente humano e nem teria como ser diferente. Nós como humanos, nos adaptamos e adequamos nossa linguagem numa velocidade que não há como um algoritmo assimilar. Não apenas transformamos conceitos como base na interação social como também criamos novos conceitos muito rapidamente, além da nossa inerente individualidade que é impossível de ser sequer percebida quando se opera massivamente.
É importante compreender a rigidez de um lado e a flexibilidade de outros para ter uma percepção melhor do jogo entre diferentes forças que há entre o poder censor (que nesse caso se mistura com o moderador na figura do algoritmo), o poder administrativo sobre a plataforma que também representa os interesses de anunciantes e responde publicamente por aquele espaço, e o poder quase que inteiramente caótico dos criadores de conteúdo e usuários. É engraçado perceber esse ciclo que se forma a partir da submissão de vídeos ou qualquer forma de engajamento, essas ações são o que gira as rodas da engrenagem mas são justamente elas as que recebem mais os golpes, ora moderadores, ora censores e por isso mesmo tendem a buscar escapar das punições, o que ajuda a alimentar o algoritmo para ampliar o seu escopo de acordo com as decisões administrativas, que como está mais que claro a esta altura, elas têm lados bem definidos.
Lógico que as pessoas sempre vão buscar brechas. Está no cerne do trabalho humano se virar, então táticas como as citadas neste artigo (falo logo mais à frente mais sobre ele) sobre substituir termos e até mesmo algo que já tem se tornando comum para certos assuntos entre youtubers brasileiros, que é no título substituir letras por outros caracteres, tem se tornado muito comum como tática para burlar os algoritmos que controlam os conteúdos e punem através do corte da monetização. Lembro que o facebook tinha desenvolvido o modo de codificação (isso de transformar palavras em coordenadas num hiperplano) que lidava com fragmentos de palavras, foi feito pensando que as pessoas escrevem na rede social podendo ter uns erros de digitação. Não duvido que pela mesma época a Google também tenha sua versão do método ou use exatamente o mesmo. Por mais que atualmente essa tática de substituir caracteres surta efeito ao lidar muito possivelmente com um “limbo” entre as regiões todas que o algoritmo tenha de lidar, talvez não seja uma solução duradoura justamente por já existir técnicas para lidar com esta situação e que já estão sendo usadas em larga escala a certo tempo. O que realmente vai definir sua aplicação é a conveniência tanto do trabalho e custo com energia e servidores para treinar novos algoritmos quanto da opinião pública sobre a plataforma, essa sim, é o fator mais determinante em relação a urgência neste caso, pois o impacto nos lucros com anunciantes e no engajamento que é a real medida usada para barganhar preços neste mercado, pode se extender por tempos inimagináveis e até alterar de forma permanente o tipo de público aglomerado envolta da plataforma.
Público privado
Comecei a escrever este texto com base na recomendação de uma amiga, a Dan, ela tinha me enviado o seguinte artigo e um pequeno resumo sobre o que se tratava:
eu não sei se esse artigo vai te ajudar com a newsletter, mas eu achei ele bem interessante: https://sci-hub.hkvisa.net/10.1177/1329878X18783002 é sobre como usuários driblam algoritmos para falar de certos conteúdos (tipo falar “grape” no lugar de “rape”, “seggs” no lugar de “sex” etc)
Espantosamente, ao longo das 2 últimas semanas, tudo parece ter contribuído para o que discuto aqui. Não vou entrar em maiores detalhes, mas espero que tal fenômeno se repita. Falo desde o caso do Spotify com o podcast antivacina (que imagino valer a pena falar um pouco disso) até discussões que resolvi não continuar devido a ânimos exaltados e terminei direcionando os argumentos para cá. Ainda no começo me preocupei com a definição e delimitação de termos e assunto porque tudo parece se misturar no turbilhão de respostas rápidas e passionais de redes completamente anti-sociais e feitas justamente para não permitir a existência diálogo, no máximo manter discursos. E sinto como se isso moldasse uma outra percepção de realidade para quem está imerso nesse meio. A proposta desse projeto é olhar as coisas com mais calma e atenção, com a devida crítica e alguma sensatez, e por mais que seja fato quanta liberdade ganhamos ao qualquer um poder produzir mesmo da forma mais precária e nada especializada, dando voz a muitos que jamais teriam tido algum espaço, também é fato que a escala e o modelo de negócios criou grandes territórios privados inclusive no acesso (nenhum exemplo para as restrições de acesso é melhor que o Instagram), reproduz de forma inescapável o ethos dos programas de entretenimento da TV, as mesmas fórmulas enlatadas, a mesma superficialidade palatável que tende ao estrito entretenimento, a cópia da cópia como tantas vezes falado no livro Clube da Luta de Chuck Palahniuk, molda ao mesmo tempo o produto e o consumidor, a esta altura já inteiramente adaptado à intensa linha de produção. O algoritmo nesse contexto se torna a face do poder moderador, tendo também a força coercitiva, arbritrária ao reproduzir a perspectiva das pessoas (diretores, acionistas, etc.) que decidem as coisas dentro das empresas, e por isso mesmo o algoritmo se transforma num agente censor.
Já estamos tão saturados de tantos escândalos envolvendo eleições e redes sociais, tantos negacionistas e outros teóricos da conspiração que ganharam enorme alcance em plataformas mainstream, que sinto que aos poucos estamos ultrapassamos um ponto de inflexão: ultrapassamos o discurso utópico de Pierre Levy, que era até que bastante popular a alguns poucos anos atrás, e chegamos numa perspectiva densa e material da correlação de forças envolvidas na geopolítica do ambiente virtual. Ao longo dessas semanas, as falas pareciam se concentrar na responsabilidade pública diante do podcast apresentado por uma pessoa militante do absurdo antivax, mas o desentolar de tudo isso ainda mostra a superficialidade das discussões, como a notável surpresa de muitos pelo Spotify defender o podcast e só recuar quando os diretores e acionistas perceberam o potencial de estrago que poderia ter causado a repercussão que aquilo tudo estava tomando. Um olhar mais atento também indica o deslocamento do foco na tecnologia para o foco na ética e até sob o aspecto jurídico. E isso, eu afirmei ainda na primeira edição dessa newsletter: muito do que se fala sobre tecnologia na realidade se deveria discutir do ponto de vista legal, regulatório. Neste caso basta pensar nas leis que existem para jornalismo e veículos de comunicação e como nada disso se aplica às plataformas que estamos discutindo aqui, é claro que elas têm meios técnicos e recursos financeiros para investir em soluções melhores do que as que existem atualmente, mas a cultura neoliberal do vale do silício, profundamente ancap em sua essência, além do grande exemplo norte-americano onde os abusos de grandes corporações são facilitados e normalizados pelo Estado, criam um contexto conflituoso entre o que serve aos consumidores de conteúdos, os rumos direcionados pelas plataformas aos produtores, e as empresas donas das plataformas que se apresentam cada vez mais como versões digitais de Estados autocráticos (sei perfeitamente que estou devendo uma edição sobre este assunto).
Entendo que pelo modo como tenho falado, parece que estou sugerindo um controle bastante rígido sobre os algoritmos, que são a forma de expressão e de aplicação da política nesses meios. Mas qualquer regulamento que leve alguma responsabilidade pública sobre tudo isso que demonstrou tão claramente afetar até os rumos políticos de países (obviamente incluo todo o conjunto, não só o streaming de vídeo), é em si, um imenso contraste com o status atual de tudo. Em relação aos conteúdos, o que mais me preocupa de fato é a forma como se dá a educação política no puro entretenimento, ignorando a profundidade e a historicidade para dar lugar ao míope imediatismo. É impossível não citar o desastre que foi a República de Weimar quando foi decidido que as rádios só teriam conteúdos educativos e de entretenimento, a ausência de educação política também se mostrou uma forma de educação política além de abrir um enorme espaço para a expansão da ideologia nazista. Ao punir quem fala de nazismo, homofobia e vários outros assuntos que precisam ser tratados a sério, as plataformas agem como a República de Weimar diando do rádio.
Por mais que exista um discurso progressista direcionado para a opinião pública, a prática revela o contrário. Regular o algoritmo nesse caso, tem seu nível de complexidade, o sistema de monitoramento é como uma caixa preta em que só a partir de muitos conteúdos passados para ele é que se pode ter alguma noção de como internamente os dados estão espacialmente organizados. Para esta discussão chegar ao nível dos debates ocorridos por causa do tal podcast no Spotify essas semanas é preciso também que exista uma educação voltada para tecnologia que não trate a tecnologia como algo místico, e se observe os processos sem duvidar da capacidade intelectual das pessoas. Isso não cabe em vídeos clickbait, em threads fragmentadas em 250 caracteres e nem no modelo cada vez mais no retorno ao tecnicismo comum da época da ditadura militar que temos visto como política educacional tendo o ensino médio-técnico como sua publicidade. É útil para todos os lados que centralizam o poder manter a superficialidade e a não-criticidade, faz total sentido tudo ser como é assim como pontos de resistência também são absolutamente esperados.