A agressividade sem filtros e a falta de consideração por regras de conduta respeitosas em alguns ambientes digitais não é algo tão raro. É o caso de alguns jogos online que tornaram-se espaços hostis, onde os usuários podem expressar sua agressividade.
Um dos exemplos de como estes espaços podem se tornar em ambientes tóxicos é o game League of Legends. Dentre os milhões de jogadores, era de se esperar que preconceitos, discriminações e várias formas de violência presentes nas sociedade se manifestassem ali também. Seus criadores, a Riot Games, reconhecem a dificuldade de coibir comportamentos excessivamente agressivos – especialmente nas questões de raça, gênero e orientação sexual.
É importante diferenciar a expressão gratuita da agressividade entre usuários, apenas com objetivo de humilhar e discriminar e a trama do jogo em si, que também pode conter uma temática violenta. Essas diferenças precisam estar claras para que todos os participantes possam perceber quando existe algo de errado acontecendo.
Com inteligência artificial
A primeira fase do trabalho começou em 2011 com a criação do “tribunal”. O espaço começou com próprios jogadores denunciando colegas que desrespeitavam as regras de conduta. Outros membros da comunidade avaliam a reclamação e votam se aquele comportamento é aceitável ou não. Como numa corte, decidem se aquela pessoa é inocente ou culpada – determinando uma punição, que pode ir de uma advertência a uma suspensão.
Três anos mais tarde, em 2014, depois de aprender com dezenas de milhões de casos e julgamentos, a Riot Games começou a operar um mecanismo de inteligência artificial. A vantagem foi dar respostas muito rápidas num processo quase todo automatizado.
Hoje, se um jogador usa um palavrão contra outro, o sistema manda imediatamente uma mensagem com uma advertência. A velocidade de feedback que só a inteligência artificial pode dar fez o número de agressões verbais despencarem 40% desde então.
A comunidade também continua participando do processo, só que agora com a mediação da inteligência artificial, que define as sanções. Apesar de apresentar resultados positivos, essa tecnologia não colabora para criação de uma consciência e responsabilização quanto aos usuários, ponto fundamental no estabelecimento de uma convivência digital nos jogos online menos violenta.
A tecnologia fez escola
O Google lançou recentemente uma ferramenta batizada de Perspective, que usa inteligência artificial para localizar comentários que podem ser qualificados como cyberbullying. O sistema compara novos comentários online com outros marcados como agressivos em diversos sites diferentes. A partir deste resultado toma decisões, como suspender o acesso do usuário tóxico ou seus comentários.
A Riot Games acredita que a participação da comunidade é essencial. O importante não se trata apenas de punir os excessos, mas de educar e “reformar” o comportamento das pessoas.
A gente pensava antes que jogos online e comportamento tóxico andavam de mãos dadas”, conta Jeffrey Lin, ex-designer de sistemas sociais da Riot Games que colocou em prática a inteligência artificial no League of Legends. “Mas descobrimos que a esmagadora maioria dos jogadores considera que o comportamento tóxico é repugnante”, acrescenta Lin, doutor em neurociência cognitiva.
De maneira geral, as noções de civilidade precisam estar presentes em todas as relações humanas, sendo que no meio digital não é diferente. Afinal, mesmo que não estejamos frente a frente com as centenas de pessoas com as quais nos relacionamos por meio da tecnologia, todas as interações geram sentimentos e reações. A melhoria da qualidade desses ambientes depende, principalmente, da mudança do comportamento de cada um.