Como a inteligência artificial tem sido usada para contribuir na criação de uma rede de ódio?

Compartilhe este conteúdo:

O discurso de ódio é algo que vem se tornando cada vez mais comum de ser presenciado, tanto fisicamente, quanto virtualmente. O termo “discurso de ódio” é originário do termo em inglês hate speech, e pode ser definido como um conjunto de palavras que intimidam, assediam ou insultam um individuo com base na sua cor, raça, sexo ou religião, e que tem a capacidade de instigar violência e ódio contra tais indivíduos (MOURA, 2016). Esse discurso dá a ideia de que o indivíduo, por causa de suas particularidades e diferenças, deve ser inferiorizado ou menosprezado. Essa externalização do ódio pode ser, e na maioria das vezes é, facilmente identificada, pois são feitas explicitamente, porém em alguns casos pode ser feita subliminarmente, que pode ser difícil de identificar.

O grande avanço tecnológico nos últimos anos fez com que boa parte da população ficasse conectada à internet. Segundo um estudo realizado pela Statista (2022), banco internacional de estatísticas, o Brasil possui cerca 159 milhões de pessoas utilizando as mídias sociais diariamente. Esse número, segundo pesquisa realizada pela Cuponation (2021), faz com que o Brasil fique no top 5 das nações que mais utilizam as mídias sociais.  Com a grande quantidade de pessoas conectadas às redes sociais, a interação entre elas fica cada vez mais fácil e rápida. Essas interações, com a falsa sensação de que tudo é permitido e anônimo, faz com que pessoas com más intenções expressem o seu ódio, que por muitas vezes repletos de preconceitos, a outras pessoas que não fazem parte do seu grupo social.

Fonte: encurtador.com.br/jsX01

Nesse contexto, a Inteligência Artificial (IA) tem sido usada nas redes para a criação de bolhas que propiciam o engajamento, mas, em contrapartida, favorece a disseminação de discursos de ódio. Em uma entrevista realizada para a revista MIT Technology Review, Frances Haugen, ex-gerente de produto do Facebook, afirma que o algoritmo da rede social e a forma de negócios da empresa fazem com que a prioridade seja o lucro ao invés da segurança das pessoas. Os algoritmos do Facebook são treinados para identificarem qual postagem causaria mais engajamento para determinado usuário. Segundo Haugen, essa classificação baseada em engajamento é perigosa e sem integridade, pois esse algoritmo também favorece a desinformação e o extremismo.

O algoritmo do Facebook na verdade é composto por vários algoritmos juntos, como algoritmos que classificam as preferências de cada usuário, e algoritmos que detectam conteúdos ruins como nudez ou spam, esses algoritmos são chamados de algoritmos de aprendizado de máquina. Esses algoritmos são treinados e baseados de acordo com as interações do usuário, que conseguem identificar por exemplo se você gosta de cachorros fofos passando pelo seu feed de acordo com os seus clicks e comentários em publicações. Essas informações podem ser ainda mais refinadas de acordo com o sexo e idade do usuário. Isso faz com que o engajamento da plataforma seja muito mais poderoso, pois faz com que os usuários passem muito mais tempo na rede social. E essa recomendação não se limita apenas a coisas boas, segundo uma publicação de Horwitz e Seetharaman (2020) no Wall Street Journal, 64% dos grupos extremistas tiveram suas assinaturas baseadas em recomendações dos modelos de “Grupos nos quais você deve participar” e “Descubra”, e isso mostra o quanto podem ser prejudiciais esses algoritmos.

Fonte: encurtador.com.br/gkKSU

Segundo Nandi (2018), a inteligência artificial (IA) pode também ser um grande aliado no combate ao discurso de ódio presentes nas redes sociais, porém ainda existem problemas que fazem com que isso não seja totalmente possível. A necessidade de ter uma supervisão humana faz com que a avaliação do discurso de ódio seja mais demorada ou até mesmo ineficaz. Outro problema que pode ser encontrado é que a IA consegue identificar as frases, porém tem dificuldade de entendê-las.

Uma abordagem diferente da inteligência artificial pode ser usada para ajudar no combate ao discurso de ódio presente nas redes sociais. Segundo o artigo Can Artificial Intelligence Predict The Spread Of Online Hate Speech? (2019), publicado pela Forbes, anteriormente os algoritmos de inteligência artificial analisavam o conceito em torno das publicações para decidir se as publicações eram ou não consideradas hostis. Já nessa nova abordagem que foi coordenada pela IBM, a ideia não era decidir se a postagem é ou não de ódio, e sim onde e como se inicia esse discurso e como isso se desdobra para o mundo real.

A análise consistiu em definir uma lista de palavras que fazem parte de discursos de ódio, baseados em terrorismo islâmico e violência anti-islâmica, com dados de tweets e publicações no Reddit feitas por cerca de 15 milhões de usuários. Depois que os dados foram analisados e classificados pela inteligência artificial, foi feito uma linha do tempo, e constatou que após incidentes de violência anti-islâmica, os discursos de ódios nas redes sociais aumentaram consideravelmente, e que esses discursos não se concentram apenas aos muçulmanos mas a todos os grupos que são minorias.

Considerando todo esse contexto, podemos concluir que a tecnologia não é neutra, mas tão pouco é boa ou má. Na verdade seu impacto se deve à forma como as pessoas a utilizam. Assim, como há algoritmos de IA sendo usados para criar bolhas de ódio, há, também, cientistas buscando na IA a detecção de onde e como se originam esses discursos. Talvez, em um dado momento consigamos combater e punir essa disseminação de ódio, muita coisa já começou nesse aspecto, muitos crimes já estão sendo trazidos à tona.

Referências:

CAN ARTIFICIAL INTELLIGENCE PREDICT THE SPREAD OF ONLINE HATE SPEECH? [S. L.]: Forbes, 30 ago. 2019. Disponível em: https://www.forbes.com/sites/bernardmarr/2019/08/30/can-artificial-intelligence-predict-the-spread-of-online-hate-speech/?sh=351757277167. Acesso em: 11 nov. 2022.

CASEIRO, Sofia. O impacto da inteligência artificial na democracia. In: IV CONGRESSO INTERNACIONAL DE DIREITOS HUMANOS DE COIMBRA: UMA VISÃO TRANSDISCIPLINAR. p. 135.

CUPONATION. USUÁRIOS REDES SOCIAIS: pesquisa aponta crescimento de usuários das redes por país. 2021. Disponível em: https://www.cuponation.com.br/insights/redessociais-2021a2026. Acesso em: 11 nov. 2022.

HORWITZ, Jeff; SEETHARAMAN, Deepa. Facebook Executives Shut Down Efforts to Make the Site Less Divisive: the social-media giant internally studied how it polarizes users, then largely shelved the research. Wall Street Journal. New York, p. 1-1. 20 maio 2020. Disponível em: https://www.wsj.com/articles/facebook-knows-it-encourages-division-top-executives-nixed-solutions-11590507499. Acesso em: 11 nov. 2022.

MIT TECHNOLOGY REVIEW. [S. L.]: Mit, 05 out. 2018. Disponível em: https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/. Acesso em: 08 dez. 2022.

MOURA, Marco Aurelio. O discurso do ódio em redes sociais. Lura Editorial (Lura Editoração Eletrônica LTDA-ME), 2016.

NANDI, José Adelmo Becker. O COMBATE AO DISCURSO DE ÓDIO NAS REDES SOCIAIS. 2018. 58 f. TCC (Graduação) – Curso de Tecnologias da Informação e Comunicação, Universidade Federal de Santa Catarina, Araranguá, 2018.

STATISTA. Internet usage in Brazil – Statistics & Facts. 2022. Disponível em: https://www.statista.com/topics/2045/internet-usage-in-brazil/#topicOverview. Acesso em: 11 nov. 2022.

STEIN, Marluci; NODARI, Cristine Hermann; SALVAGNI, Julice. Disseminação do ódio nas mídias sociais: análise da atuação do social media. Interações (Campo Grande), v. 19, p. 43-59, 2018.

Observação: artigo desenvolvido na disciplina “Tecnologias Criativas” do Programa Extensionista Interdisciplinar “Tecnologias para a Vida” dos cursos de Ciência da Computação, Sistemas de Informação e Engenharia de Software da Ulbra Palmas.

Compartilhe este conteúdo:

AlphaGo e a capacidade de uma IA de replicar a individualidade humana

Compartilhe este conteúdo:

“AlphaGo é o primeiro programa de computador a derrotar um jogador Go humano profissional, o primeiro a derrotar um campeão mundial Go e é sem dúvida o jogador Go mais forte da história”[3]. Especula-se sobre quando as máquinas terão a capacidade de pensar por conta própria? Este questionamento vem mesmo que de forma muito discreta, carregado de um sentimento de assombro, pois não podemos imaginar como será o mundo quando isso acontecer, porém, o AlphaGo pode nos dar um vislumbre de como isto pode ser possível.

O jogo Go tem sua origem na china e pode ter sido criado há mais de 3.000 anos [3], em uma síntese, pode ser descrito assim:

Dois jogadores, usando pedras brancas ou pretas, se revezam colocando suas pedras em um tabuleiro. O objetivo é cercar e capturar as pedras do adversário ou criar estrategicamente espaços de território. Uma vez que todos os movimentos possíveis tenham sido executados, tanto as pedras no tabuleiro quanto os pontos vazios são computados. O maior número ganha [2].

Fonte: encurtador.com.br/fhJ16

O que torna este jogo um desafio para a IA é que as possibilidades são praticamente ilimitadas e cada jogada pode ir além de uma técnica ou estratégia, ela pode refletir o humor ou o sentimento do competidor, sua individualidade. Assim, poderia um computador ser capaz de construir sua própria individualidade? O AlphaGo utiliza redes neurais profundas [2] e formou seu estilo próprio (sua individualidade?) baseando-se em jogos de competidores amadores e profissionais, jogando milhares e milhares de vezes contra outros competidores assim como contra a si próprio.

Em nossa vida são nossas vivências na infância, em um dado  local ou em uma determinada comunidade, por exemplo, que definem quem nós somos,  por isso, mesmo que com formação e níveis de inteligência semelhantes, os jogadores humanos são diferenciados, fazem suas escolhas não apenas baseado na lógica, mas nas suas experiências.  A ideia de usar algoritmos de IA cada vez mais potentes no AlphaGo é torná-lo capaz de também tomar decisões nas experiências que formam suas redes e seus dados. Assim, por mais que seu código tenha sido programado por uma equipe de desenvolvedores extremamente competente, não foram eles que lhes disseram quais decisões deveriam tomar mediante cada partida, foram sua incontáveis experiências, acertos e erros que o fizeram ser capaz de derrotar o campeão mundial dez anos antes do que se esperava ser possível por um computador [2].

Fonte: encurtador.com.br/jBHM1

O fato de o software necessitar que alguém mova as peças fisicamente para ele talvez nos dê uma leve sensação de conforto ao saber que ele ainda precisa de um representante humano para concretizar suas ações, mas a implementação de um recurso como este é apenas questão de tempo. Contudo, os esforços em fazer o AlphaGo se tornar cada vez mais capacitado tem como fim auxiliar a humanidade [2] em questões onde a tomada de decisão correta pode significar a vida ou a morte de um paciente, por exemplo.

Por mais assustador que possa parecer ter um computador que pensa por conta própria e que é melhor que um humano nisso, somos nós quem os mantemos e  nos beneficiamos de seus feitos, de modo que as possibilidades de utilização de um software deste nível são inimagináveis, seja na área jurídica ou médica onde uma decisão baseada em experiência tende a ser mais assertiva. O AlphaGo pode ser muito mais que um jogador de tabuleiro e se tornar o avanço necessário para uma sociedade ainda mais desenvolvida.

REFERÊNCIAS:

[1] https://ai.plainenglish.io/how-deepminds-alphago-became-the-world-s-top-go-player-5b275e553d6a

[2] https://youtu.be/EfSWcJ_8Jqg

[2] https://www.deepmind.com/research/highlighted-research/alphago

Observação: artigo desenvolvido na disciplina “Tecnologias Criativas” do Programa Extensionista Interdisciplinar “Tecnologias para a Vida” dos cursos de Ciência da Computação, Sistemas de Informação e Engenharia de Software da Ulbra Palmas.

Compartilhe este conteúdo:

A.I. Inteligência Artificial: o que nos torna humanos?

Compartilhe este conteúdo:

Amplamente transmitido na TV aberta, o filme “A.I. Inteligência Artificial” produzido no ano de 2001 narra a trajetória de David, o primeiro andróide projetado para amar. David, construído com a forma um menino, é adotado por um casal que teve seu filho biológico criogenizado até que a medicina avançasse o suficiente para curá-lo. Mas quando isso acontece, os conflitos entre David e seu irmão mudam completamente seu destino. A maneira como David é tratado por seus pais a partir do momento em que “descumpre” seu propósito como substituto possibilita o seguinte questionamento: o que nos torna humanos?

Alerta de spoiler!

Fonte: https://bit.ly/2ERxqfZ

Bondade

Basta citar alguns dos acontecimentos mais cruéis da história da humanidade para descobrir que bondade não é o que define com precisão os seres humanos. Eventos em situações de guerra como o Holocausto ou as bombas em Hiroshima e Nagasaki são um bom exemplo do quanto o ser humano tem a capacidade de não apresentar nenhum tipo de empatia sobre outras vidas humanas. Essas ações se estendem também para os animais e o meio ambiente, algo que é retratado com clareza no filme.

Após as brigas com seu irmão, David é abandonado em uma floresta por sua mãe. A narrativa cria um ambiente de desconforto desde as primeiras cenas e impacta drasticamente o espectador ao despertar o senso de justiça, uma vez que David tem sentimentos como qualquer humano teria.

As hipóteses de o ser humano ser essencialmente bom ou mau dividiram pensadores e filósofos ao longo da história. Para John Locke e Thomas Hobbes, por exemplo, o comportamento humano em seu estado de natureza humana é algo insatisfatório e violento. Desse modo o estabelecimento de uma sociedade civil seria positivo por garantir ordem, liberdade, segurança e respeito (LEOPOLDI, 2002). Para esses teóricos, o ser humano é essencialmente mau, e a sociedade possibilita a bondade.

Jean Jacques Rousseau, por outro lado, percebia qualidades no estado selvagem do ser humano, chegando a ser considerado o filósofo do “bom selvagem”. Para ele, o desequilíbrio no sistema entre seres humanos e a natureza é rompido a partir do momento em que a sociedade e a civilização dominam essa relação, desse modo, nossos males seriam de nossa própria autoria (LEOPOLDI, 2002). Portanto, para Rousseau, o ser humano é essencialmente bom, mas a sociedade o corrompe.

No filme, através da jornada de David após ser abandonado, percebe-se que em um futuro próximo a lógica da descartabilidade e da produção excessiva de lixo se perpetua. Ele também não foi o único a ser abandonado: inúmeros outros andróides e robôs compõe uma “subsociedade” constituída em meio ao lixo. David, após ouvir de seus pais adotivos uma história da Fada Azul, se encontra determinado a encontrá-la, e assim como o clássico Pinóquio, sonha em se tornar humano.

Fonte: https://glo.bo/2tV1zF0

Percebe-se na trama, que o egoísmo e a falta de empatia podem estar presentes desde a infância, como se pode ver no filho biológico do casal. Isso se estende para a vida adulta, e associada à lógica de descarte do que não é mais útil, promove o abandono de pessoas e objetos. Para Bauman (2009) a fluidez das relações na contemporaneidade pode gerar uma espécie de corrida, e quem eventualmente não conseguir acompanhá-la, corre o risco de ser descartado, como lixo.

DNA

O Ser Humano, possui cerca de 25 mil genes estruturais, e cerca de metade desses são exatamente iguais à composição do arroz, por exemplo (PESSINI, 2009). Seriam então, os nossos componentes genéticos os determinantes do que é ser humano?

Entre os maiores desafios da bioética no século XXI, está sem dúvidas o transumanismo. Esse termo se refere à busca pelo melhoramento biotecnológico das capacidades humanas geneticamente.  Alguns exemplos são tecnologias de prolongamento do tempo de vida, a possibilidade de reprogramação do DNA e da mente humana, bem como a futura existência de uma consciência livre do corpo mortal (PESSINI, 2009), como apresentado no filme.

Para os transumanistas, o estado biológico humano é apenas transitório, sendo os corpos, uma espécie de prótese, um substrato biológico. O pensamento pós-humano esbarra, portanto em questões éticas. Os bioconservadores, contrários a tais intervenções, sugerem que a dignidade humana não deve se estender ao pós-humano, e se apegam ao status moral da condição humana (PESSINI, 2009). No filme, podemos ver um exemplo em que a dignidade pós-humana se estende apenas para seres geneticamente humanos. E mesmo que David se comporte, sinta e aparente como um ser humano, ele é descartado como um objeto, demonstrando uma contradição ética daquela sociedade. Tais dilemas também podem ser enfrentados pela nossa sociedade nos próximos anos.

Fonte: https://bit.ly/2EBSCFx

Comportamento                            

O comportamento é, talvez, o que defina o que é humano com mais precisão. Os comportamentos são atividades do organismo que mantém relação com o ambiente, seja de maneira respondente através de reflexos inatos ou de maneira operante, quando agimos esperando determinadas consequências (DE ROSE, 1997).  A maneira como o ser humano se comporta, seja pela influência genética (como os reflexos) ou da maneira como isso é aprendido através das relações sociais, compreende a essência das diversas manifestações do que é humanidade, seja ela para o bem, ou para o mal.

As diversas influências e contingências que atuam sobre a formação e desenvolvimento de um indivíduo estão sujeitas antes, a um macrocontexto sócio-histórico, e cada época, por sua vez, compreende as características humanas aceitáveis ou não. Dessa maneira, conceitos como a ética, presente no filme, estão sujeitos a mudanças de acordo com as novas decorrências da atividade humana sobre a tecnologia. Percebe-se que a mãe de David sentiu remorso abandoná-lo, porém ainda assim o descartou, assim como várias outras pessoas abandonaram seus andróides e robôs. Desse modo, se compreendermos o adjetivo “humanidade” como sinônimo de bondade e empatia, David pode ser considerado o personagem mais humano do filme.

Fonte: https://bit.ly/2H0L16Z

FICHA TÉCNICA DO FILME:

Fonte: https://bit.ly/2VC8tdW

A.I. INTELIGÊNCIA ARTIFICIAL

Título original: A.I. Artificial Intelligence
Direção: Steven Spielberg
Elenco: Haley Joel Osment, Jude Law, Frances O’Connor, Sam Robards;
País: EUA
Ano: 2001
Gênero: Drama

REFERÊNCIAS:

BAUMAN, Zygmunt. Vida líquida. Zahar, p. 7-55, 2009.

DE ROSE, Julio César Coelho. O que é comportamento. Sobre comportamento e cognição, v. 1, p. 79-81, 1997.

LEOPOLDI, José Sávio. Rousseau-estado de natureza, o “bom selvagem” e as sociedades indígenas. Revista Alceu, São Paulo, nº4, p. 158-172, 2002.

PESSINI, Leocir. Bioética e o desafio do transumanismo: ideologia ou utopia, ameaça ou esperança?. Revista Bioética, v. 14, n. 2, 2009.

Compartilhe este conteúdo: