Por que os algoritmos não podem nos salvar dos trolls e do discurso do ódio

in pt •  6 years ago 


Tradução @aldenio

Por Pete Ryan

Why algorithms can’t save us from trolls and hate speech https://ideas.ted.com/why-algorithms-cant-save-us-from-trolls-and-hate-speech/ via @TEDTalks

Ao tornar a Internet mais leve e menos frágil possível, tornamos nossas vidas mais fáceis. Mas agora, o mundo inteiro está sofrendo as conseqüências, diz Jaron Lanier.

Nos primórdios da popularização da Internet, houve um debate sobre se as experiências digitais on-line devem parecer casuais, sem peso ou sérias, com custos e consequências. E acabou sendo um enorme desejo de criar a ilusão da ausência de peso.

A serviço da falta de peso, os varejistas da Internet não pagariam os mesmos impostos sobre vendas que os de tijolo e argamassa. As empresas de nuvem não teriam as mesmas responsabilidades de monitorar se estavam ganhando dinheiro com violações de direitos autorais ou falsificações. A prestação de contas foi reformulada como um fardo ou uma fricção, e uma vez que custa dinheiro, uma afronta à falta de peso. A Internet seria projetada o mais minimamente possível, para que os empreendedores pudessem experimentar. Não fornecia nenhum gancho para identidade pessoal persistente, nenhuma maneira de conduzir transações e nenhuma maneira de saber se alguém mais era quem eles diziam ser. Todas essas funções necessárias teriam que ser eventualmente cumpridas por empresas privadas como o Facebook.

O resultado foi uma corrida louca para encurralar os usuários a qualquer custo, mesmo ao custo da cautela e da qualidade. Acabamos com uma Internet ad hoc não mapeada. Nós facilitamos nossas vidas na época, mas o mundo todo está pagando um preço alto muitos anos depois.

Gamergate acabou por ser um protótipo, ensaio e plataforma de lançamento para o alt-right.

Uma das conseqüências da internet sem peso - surgindo primeiro nos grupos alt.usenet - foi uma explosão de tolices cruéis. Nada poderia ser ganho além de atenção, e ninguém tinha interesse em ser civilizado. Hoje, um dos maiores problemas para a realidade virtual é que a base de clientes imediatamente óbvia disposta a gastar dinheiro é a dos gamers, e a cultura de games tem passado por convulsões misóginas. Esse fenômeno é conhecido como Gamergate. Reclamações sobre como as mulheres são retratadas nos jogos são abafadas por explosões de discursos de ódio. Quando um design de jogo feminista é promovido, a resposta é ameaças de bomba e assédio pessoal. As mulheres que se atrevem a participar da cultura de jogos correm riscos reais, a menos que possam adotar uma persona que coloque os homens em primeiro lugar. Gamergate deixou um rastro de vidas arruinadas. E, no entanto, é desnecessário dizer que os autores sentem que são as vítimas.

Durante anos, o Gamergate foi apenas uma praga na cultura digital, mas até 2016 seu legado estava influenciando as eleições, especialmente uma nos EUA. Gamergate acabou por ser um protótipo, ensaio e plataforma de lançamento para o alt-right. Os tipos de problemas que costumavam inflamar apenas os alcances obscuros da Usenet agora atormentam a todos. Por exemplo, todos, incluindo o presidente, estão chateados com “notícias falsas”. Até mesmo a notícia do termo em si foi rapidamente tornada falsa; o termo “notícias falsas” foi deliberadamente usado em demasia ao ponto de que seu significado fosse revertido em apenas alguns meses de sua aparição. Tornou-se o modo como uma administração americana rabugenta se referia a notícias reais.

Felizmente, termos mais precisos estão disponíveis . Por exemplo, foi relatado que o fundador da empresa de realidade virtual comprada por uma empresa de mídia social por um par de bilhões de dólares chamou o plantio de confabulações on-line sádicas projetadas para se tornarem “mensagens diretas” e “memes mágicas”. informou ainda que ele passou um sério lucro incentivando a atividade durante a eleição de 2016. A propaganda é claramente distinta do jornalismo de baixa qualidade ou da opinião burra. É uma daquelas formas raras de fala que desliga a fala em vez de aumentar a fala. É como tocar música alta e irritante na cela de um combatente inimigo capturado até que ele quebre. Ela obstrui conversas e mentes para que tanto a verdade quanto a opinião considerada se tornem irrelevantes.

Queremos realmente privatizar a portaria do nosso espaço público para a fala? Quem sabe quem estará usando o Facebook quando o fundador for embora?

Houve chamadas generalizadas - de todo o espectro político - para as empresas de tecnologia fazerem algo sobre a prevalência desse tipo de discurso. O Google agiu primeiro e, apesar da relutância inicial, o Facebook seguiu. As empresas agora tentam sinalizar essas postagens e se recusam a pagar as fontes. Vale a pena tentar, mas me pergunto se essa abordagem aborda as questões centrais.

Considere como é estranho que toda a sociedade, não apenas nos EUA, mas globalmente, tenha de implorar a algumas empresas rigidamente controladas que permitam um espaço utilizável para reportagens sinceras. Não há algo estranho, perigoso e insustentável nisso, mesmo que essas corporações estejam esclarecidas e respondam positivamente por enquanto? Queremos realmente privatizar a portaria do nosso espaço público para a fala? Mesmo se o fizermos, queremos fazê-lo irrevogavelmente? Quem sabe quem estará usando o Facebook quando o fundador for embora? Será que bilhões de usuários realmente têm a capacidade de coordenar um movimento de um serviço como esse em protesto? Se não, qual alavanca está lá? Estamos escolhendo um novo tipo de governo por outro nome, mas um que nos represente menos?

As tentativas das empresas de tecnologia de combater o envio de mensagens constituem um confronto fascinante entre a nova ordem de algoritmos e a antiga ordem de incentivos financeiros. O velho e o novo têm muito em comum. Os proponentes mais cativados percebem cada um não apenas como tecnologias inventadas pelas pessoas, mas como seres vivos sobre-humanos. No caso dos incentivos financeiros, a elevação ocorreu no século XVIII, quando Adam Smith celebrou a “mão invisível”. No caso dos algoritmos, algo semelhante ocorreu no final da década de 1950, quando o termo “inteligência artificial” foi cunhado.

A prevalência da transmissão de mensagens e outras degradações é alimentada pela mão invisível, enquanto se pensa que o antídoto é adivinhado pela inteligência artificial. Então, estamos testemunhando uma luta de wrestling profissional entre o antigo deus inventado e o novo. Mas e se o novo semideus não conseguir derrubar o velho semideus? Talvez as empresas de mídia social precisem mudar como ganham dinheiro. Talvez qualquer coisa menos do que isso seja apenas uma montagem inútil de algoritmos que sempre serão derrubados por marés de incentivos financeiros.

Tais correções, como algoritmos éticos ou filtragem ética, serão apenas manipuladas e transformadas em mais manipulação, tolice e corrupção.

Só para deixar claro, não acho que algoritmos éticos ou filtragem ética possam funcionar, dado o nível atual de nossa compreensão científica. Tais correções serão apenas jogadas e transformadas em mais manipulação, absurdo e corrupção. Se a maneira de proteger as pessoas da IA ​​é mais IA, como supostos algoritmos com ética, isso equivale a dizer que nada será feito, porque a própria ideia é o coração do absurdo. É a fantasia de uma fantasia.

Não há descrição científica de uma ideia em um cérebro neste momento, então não há como sequer enquadrar o que seria incorporar a ética em um algoritmo. Todos os algoritmos podem fazer agora o que as pessoas naturais fazem, como medido pelo nosso impressionante regime global de espionagem na Internet. Mas, apenas por uma questão de argumento, suponha que as tentativas das empresas de tecnologia de consertar isso com a chamada inteligência artificial se tornem um sucesso espetacular. Suponha que os algoritmos de filtragem sejam tão excelentes que todos confiem neles. Mesmo assim, os incentivos econômicos subjacentes permaneceriam os mesmos.

O resultado provável seria que a próxima melhor maneira de conduzir o tráfego irritante viria à tona, mas o resultado geral seria semelhante. Como exemplo de uma segunda melhor fonte de irritabilidade, considere como os serviços de inteligência russos foram identificados pela inteligência dos EUA como intrometidos nas eleições dos EUA. O método não foi apenas para colocar shitpost, mas para "armatizar" o WikiLeaks para distribuir seletivamente informações que prejudicaram apenas um candidato.

Existem alternativas: por exemplo, as pessoas poderiam ser pagas pelo seu conteúdo no Facebook e pagar pelo conteúdo de outras pessoas, e o Facebook poderia ter um corte.

Suponha que as empresas de tecnologia implementem filtros éticos para bloquear vazamentos seletivos maliciosos. O próximo passo pode ser a geração subconsciente de paranóia em direção a alguém ou algo, a fim de prender a atenção. Se as empresas implementarem filtros para evitar isso, sempre haverá algum outro método em espera.

Quanto controle da nossa sociedade queremos exigir dos algoritmos? Onde isso acaba? Lembre-se, bem antes de pedirmos às empresas de tecnologia que fizessem algo sobre notícias falsas, exigimos que fizessem algo sobre o discurso de ódio e o assédio organizado. As empresas começaram a inicializar certos usuários, mas a sociedade se tornou mais temperada como resultado?

Em algum momento, mesmo que a automação moral possa ser implementada, talvez ainda seja necessário apelar para o antigo semideus dos incentivos econômicos. Existem alternativas para a atual economia das mídias sociais. Por exemplo, as pessoas poderiam ser pagas pelo seu conteúdo através do Facebook e pagar pelo conteúdo de outros, e o Facebook poderia aceitar um corte. Sabemos que isso pode funcionar porque algo parecido foi tentado em experimentos como o Second Life.

Existem, sem dúvida, outras soluções a considerar também. Eu defendo uma abordagem empírica. Devemos ser corajosos em experimentar soluções, como pagar as pessoas por seus dados, mas também ter a coragem de aceitar resultados, mesmo que sejam decepcionantes.

Nós não devemos desistir.

Extraído com permissão do novo livro Amanhecer do Novo Tudo: Encontros com a Realidade e Realidade Virtual de Jaron Lanier. Publicado por Henry Holt e Co. Copyright © 2017 Jaron Lanier.

Sobre o autor

Jaron Lanier é um cientista interdisciplinar da Microsoft, que cunhou ou popularizou o termo "realidade virtual". Sua startup VPL criou os primeiros produtos comerciais de RV, avatares, experiências multi-pessoais no mundo virtual e protótipos de simulação cirúrgica. Ambos os seus livros anteriores, Quem possui o futuro? e você não é um gadget foram best-sellers internacionais. Em 2014, recebeu o Prêmio da Paz do Book Trade alemão, uma das mais altas homenagens culturais da Europa.

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!
Sort Order:  

Quanto controle da nossa sociedade queremos exigir dos algoritmos? Onde isso acaba?

Só acaba quando desejarmos nossa autonomia. Afinal, se desejamos sermos controlados, não podemos nem dar palpite, pois no caso, não passamos de gado voluntário.