Um vídeo de 8 de fevereiro pela Liga Anti-Difamação (ADL) promove um novo algoritmo baseado em Inteligência Artificial (AI) que chama de “Online Hate Index”, cujo objetivo é identificar o discurso de ódio. A ADL acredita que o algoritmo de IA pode ser usado por plataformas de mídia social como Facebook, YouTube, Twitter para identificar e remover rapidamente o discurso de ódio.
No vídeo , Brittan Heller, diretora do Centro de Tecnologia e Sociedade da ADL, diz que o objetivo do índice é:
Ajude as plataformas de tecnologia a entender melhor a crescente quantidade de ódio nas mídias sociais e a usar essas informações para resolver o problema. Combinando Inteligência Artificial e Aprendizado de Máquina e Ciências Sociais, o Índice de Ódio On-line acabará descobrindo e identificando tendências e padrões em discurso de ódio em diferentes plataformas.
Em sua “Fase I Innovation Brief” publicada em janeiro de 2018 em seu site , a ADL explica como o “aprendizado de máquina”, uma forma de Inteligência Artificial baseada em algoritmos, pode ser usado para identificar e remover o discurso de ódio das plataformas de mídia social:
O Online Hate Index (OHI), uma iniciativa conjunta do Centro de Tecnologia e Sociedade da ADL e do D-Lab da UC Berkeley, foi desenvolvido para transformar a compreensão humana do discurso de ódio via aprendizado de máquina em uma ferramenta escalável que pode ser implantada no conteúdo da internet para descobrir o escopo e a disseminação do discurso de ódio on-line. Através de um processo de aprendizado de máquina em constante evolução, baseado em um protocolo desenvolvido por uma equipe de codificadores humanos sobre o que constitui e não constitui discurso de ódio, esta ferramenta irá descobrir e identificar tendências e padrões na fala de ódio em diferentes plataformas online, permitindo nós para pressionar pelas mudanças necessárias para garantir que as comunidades online sejam espaços seguros e inclusivos.
O Índice de Ódio On-line da ADL é descrito como “uma análise baseada em sentimentos que foge do aprendizado de máquina”. O Resumo da ADL continua dizendo:
Todas as decisões que entraram em cada etapa da criação da OHI foram feitas com o objetivo de construir um modelo de aprendizado de máquina que possa ser usado para identificar e nos ajudar a entender o discurso de ódio online.
O que a ADL e outros promotores de algoritmos baseados em IA não conseguem entender é o potencial da IA evoluir através de sua capacidade programada de “aprendizado de máquina” para o tipo de inteligência senciente interconectada e temida em filmes como o Exterminador do Futuro e Battlestar Galactica.
É bem sabido que cientistas / inventores como Stephen Hawkins e Elon Musk têm alertado veementemente sobre a ameaça de longo prazo representada pela IA. Eles e outros acreditam que a IA representa uma ameaça existencial à humanidade e precisa ser controlada e monitorada de perto. Em um discurso de 2014, Musk disse :
Acho que devemos ter muito cuidado com a inteligência artificial. Se eu tivesse que adivinhar qual seria a nossa maior ameaça existencial, provavelmente é isso. Então, precisamos ter muito cuidado com a inteligência artificial. “Estou cada vez mais inclinado a pensar que deveria haver alguma supervisão regulatória, talvez em nível nacional e internacional, apenas para garantir que não façamos algo muito tolo… Com inteligência artificial, estamos convocando o demônio. Você conhece aquelas histórias onde há o cara com o pentagrama, e a água benta, e ... ele tem certeza que ele pode controlar o demônio? Não funciona.
A opinião de Musk foi repetida por Stephen Hawking, que alertou contra o perigo da IA em uma entrevista à BBC em dezembro de 2014:
O desenvolvimento da inteligência artificial completa poderia significar o fim da raça humana. Ele decolaria por conta própria, e se redesenharia a um ritmo cada vez maior ... Os humanos, limitados pela lenta evolução biológica, não poderiam competir e seriam superados.
Da mesma forma, Corey Goode, um suposto membro revelador da existência de múltiplos programas espaciais secretos, afirma que a IA já é uma ameaça nas operações do espaço profundo. Quando surgiu pela primeira vez no início de 2015, Goode concentrou grande atenção na ameaça da IA e continua a alertar sobre isso hoje.
Ele diz que esses programas, junto com civilizações extraterrestres, tomam precauções rígidas de segurança para identificar e remover qualquer tipo de assinatura de IA:
Existem alguns grupos ET “AI” (TODOS Malévolos para a Humanidade, do nosso ponto de vista) que os SSPs (há vários Programas Espaciais Secretos) têm tratado há décadas.
Se um "Recurso" for "Digitalizado" e tiver uma "Assinatura Bio Neuro AI", "AI Nano Tech" ou "Sobreposição de EMG tipo Brian Wave Signature" (ou qualquer outro sinal de exposição à IA), essas pessoas serão colocadas imediatamente em isolamento e não são permitidos em qualquer lugar perto da atual SSP (era) tecnologia (que é "principalmente" Bio-Neurological e Consciousness Interactive) até que tenham sido "Cleared" de todas as influências de AI.
Agora, vamos analisar tudo isso em termos do que a ADL está propondo para plataformas de mídia social usar algoritmos baseados em IA para identificar discurso de ódio.
À primeira vista, há um grande apelo na ideia de monitorar o discurso e regular as pessoas que promovem medo, ódio ou violência contra outras pessoas, seja por motivos sociais, religiosos ou econômicos. Afinal, todos nós queremos viver em um mundo pacífico e tolerante, que inclui o ciberespaço, então por que não excluir indivíduos e grupos intolerantes e odiosos de nossas plataformas de mídia social?
O grande problema aqui, é claro, é que existe um perigo real de que as mídias sociais possam ser usadas sub-repticiamente para excluir pontos de vista políticos dissidentes sob o disfarce de regular o discurso do ódio. Vemos isso já ocorrendo com o Youtube usando um exército de 10.000 voluntários de grupos como o Southern Poverty Law Center.
Muitos canais populares do YouTube estão sendo cada vez mais segmentados por greves e remoções por comportamentos caracterizados como bullying ou incitação ao ódio. No entanto, essa repressão ao YouTube parece ser uma campanha politicamente disfarçada, habilmente disfarçada, para remover vozes alternativas questionando a narrativa da mídia oficial sobre um grande número de questões sociais, em vez de realmente reprimir o discurso do ódio. Eu escrevi sobre o problema aqui .
O que a ADL está propondo, no entanto, vai muito além do que o YouTube está fazendo atualmente. A ADL está promovendo abertamente um sistema de censura onde não haverá humanos monitorando e removendo o discurso de ódio, mas sim um algoritmo de IA. Qual seria o resultado disso se permitisse ocorrer, dadas as advertências da IA apresentadas por Hawking, Musk e Goode?
Não é preciso que um Einstein perceba que, se as plataformas de mídia social permitissem que os algoritmos de IA monitorassem e censurassem o conteúdo, os avisos sobre uma futura ameaça de IA seriam eventualmente considerados uma forma de discurso de ódio. Afinal de contas, se as corporações puderem ser reconhecidas como tendo os mesmos direitos que os indivíduos, de acordo com o infame Citizens United, governado pela Suprema Corte em 200, a senciência da IA também não será reconhecida por ter direitos humanos semelhantes nos EUA?
Poderíamos facilmente acabar em um futuro distópico, onde diferentes formas de inteligência artificial são usadas para monitorar e regular o comportamento humano de formas notórias, e quaisquer humanos protestando ou advertindo o que o sistema de IA está fazendo seriam censurados por discursos de ódio.
Dada a ameaça existencial representada pela IA, se aceitarmos o que Hawking, Musk e Goode estão nos dizendo, sem falar da inadequação de censurar perspectivas de notícias alternativas, a liberdade de expressão precisa ser protegida nas mídias sociais a todo custo.
Nos Estados Unidos, isso não deve apresentar um desafio muito grande, dado o direito constitucional da Primeira Emenda à liberdade de expressão e os recursos legais disponíveis no sistema judiciário federal. Aqueles indivíduos que ameaçaram remédios jurídicos para o YouTube reprimir seus canais parecem ter sido os mais bem-sucedidos na restauração de seus canais. O YouTube pediu desculpas a esses usuários pelo comportamento excessivamente zeloso de seu novo exército de 10 mil moderadores. e
No entanto, os EUA são uma ilha em um vasto oceano onde outros países punem ativamente indivíduos e grupos por discursos de ódio. É aí que o futuro parece ameaçador, dada a tentação dos reguladores nacionais de punir plataformas de mídia social que não regulam o discurso do ódio. Isso forçaria o Facebook, YouTube, Twitter e outras plataformas a adotar os algoritmos baseados em IA recomendados pela ADL ou outras organizações para uso generalizado.
É provável que isso leve a uma situação em que grandes nações como a China, ou entidades supranacionais como a União Européia, possam adotar algoritmos de IA para monitorar e expressar o discurso de ódio. A China já está monitorando de perto e removendo o pensamento político dissidente das plataformas de mídia por meio de firewalls, e pode muito bem estar contemplando a incorporação de algoritmos de IA para fazê-lo de maneira mais eficaz.
Enquanto os reguladores nacionais em todo o mundo podem ser tentados por diferentes razões a adotar a proposta da ADL para algoritmos de IA para identificar e remover o discurso de ódio, precisamos ter em mente que isso criaria um cavalo de Tróia para eventual controle da humanidade.
Apesar dos problemas genuínos colocados pelo discurso de ódio, os reguladores nacionais precisam garantir que as plataformas de mídia social nunca sejam reguladas por algoritmos de IA, dado o potencial de segurança global ser minado, e a humanidade sendo genuinamente ameaçada por uma invasão de inteligência artificial.
© Michael E. Salla, Ph.D. Aviso de direitos autorais
https://www.exopolitics.org/category/featured/
Nenhum comentário:
Postar um comentário