Inteligência Artificial e o futuro das missões
O uso da IA deve
promover o florescimento humano, ser justo, gentil e humilde.
Por Simon Cozens
Desde a invenção dos primeiros computadores, as pessoas
sonham com máquinas que possam criar obras de arte, compor música, raciocinar e
explicar-se em linguagem natural: ou seja, máquinas pensantes. Nos últimos
anos, vimos um rápido desenvolvimento no campo da inteligência artificial. O
que mudou? Estamos testemunhando o nascimento de máquinas pensantes? E o que
isso significa para a obra missionária, para o cristianismo e para o mundo?
“Inteligência artificial” ou “Aprendizado de máquina”?
Em 1950, Alan Turing escreveu um artigo sobre a pergunta “As
máquinas podem pensar?”.1 Este artigo estabeleceu as bases da inteligência
artificial (IA), além do “Teste de Turing”, para determinar se uma máquina
estava “realmente” pensando. Turing propôs uma série de maneiras pelas quais
poderíamos fazer uma máquina pensar. A
primeira abordagem foi feita entre as décadas de 1960 e 1980: se fornecermos a
um computador longas listas de “regras” sobre como o mundo opera, o computador
seria capaz de raciocinar por si mesmo.
O projeto Cyc2 reuniu centenas de milhares de correlações (por exemplo,
“Todas as maçãs são frutas”) e conseguia responder a perguntas simples sobre o
seu conhecimento.
Nos anos 80, quando a abordagem baseada em regras chegou a
um beco sem saída, a pesquisa foi direcionada para a segunda estratégia de
Turing, o aprendizado de máquina. A ideia do aprendizado de máquina é que a
criação de programas com uma estrutura semelhante à do cérebro humano (“redes
neurais”) levaria os computadores a aprender sobre o mundo assim como fazemos,
por meio de observação e exploração. Mas enquanto os cérebros humanos têm trilhões
de conexões entre seus neurônios, as redes neurais artificiais das décadas de
1980 e 1990 só conseguiam sustentar centenas ou milhares de conexões. Isto não se devia a limitações de memória ou
hardware, mas sim a uma questão matemática. Conforme aumentava o número de
“camadas” na rede, o fluxo de informações através da rede se enfraquecia. Na
década de 2010, tornou-se disponível uma variedade de soluções para este
problema, permitindo redes neurais “profundas” com muitas centenas de camadas,
um avanço que resultou diretamente na revolução da inteligência artificial que
testemunhamos hoje.3
A história das redes neurais é importante porque nos ajuda a
permanecer fundamentados no que é a “inteligência artificial”. Trata-se
simplesmente de uma estrutura matemática, um modelo de probabilidades. Na
verdade, o termo “aprendizado de máquina” é uma descrição mais precisa que
destaca os fundamentos matemáticos se comparado ao termo “inteligência
artificial”, que, de alguma forma, pode nos induzir a crer que estão sendo
aplicados “pensamento” e “inteligência”. Na realidade, Grandes Modelos de
Linguagem (LLM), como ChatGPT e Gemini, convertem os seus dados de treino numa
sequência de “tokens” e armazenam as probabilidades de ocorrências desses
tokens em sequências diferentes. Quando fazemos uma pergunta ao ChatGPT, o
computador não avalia o problema e “pensa” por meio de uma reação – ele
simplesmente retorna à série mais provável de tokens que viria a seguir. Da
mesma forma, a rede adversarial generativa, a tecnologia por trás das
ferramentas de “arte de IA”, como DALL-E e MidJourney, devolvem o conjunto mais
provável de pixels em resposta ao prompt que fornecemos.
Aplicando a IA à missão da igreja
Mesmo assim, os resultados desses sistemas de aprendizado de
máquina são impressionantes e potencialmente muito úteis, e já estão sendo
usados para acelerar a missão global. Por exemplo, a equipe de IA da SIL
desenvolveu modelos de tradução linguística e de conversão de texto em áudio
para mais de 300 línguas minoritárias4 e é pioneira na criação de ferramentas
de aprendizado de máquina para facilitar a sua tarefa de tradução da Bíblia, a
garantia de qualidade, e a verificação da comunidade.5 A Inteligência
Artificial oferece o potencial de automatizar traduções em domínios como as
linguagens de sinais para surdos, onde a produção é particularmente cara e
demorada, embora a geração de vídeo com a linguagem de sinais ainda esteja em
seus estágios iniciais. A minha própria igreja usa o Microsoft Translator
durante os cultos para que pessoas de outros países possam acompanhar o culto
em sua própria língua e contribuir para a vida da igreja mesmo com limitado
conhecimento da língua inglesa; a tradução automática já está nos tornando mais
ricos e equitativos enquanto comunidade.
Além da tradução automática, outros usos missionais da IA
têm buscado formas criativas de explicar e ensinar a Bíblia. Por exemplo, o
OneBread6 usa o ChatGPT e o DALL-E para ilustrar uma passagem bíblica com uma
pintura, um limerique, sugestões de aplicações práticas e links para outros
temas bíblicos. A Igreja Episcopal lançou um exemplo de ChatGPT “aperfeiçoado”
para responder a perguntas sobre fé e doutrina,7 e startups de IA já estão
oferecendo uma gama de produtos destinados a igrejas e líderes da igreja –
transcrição de sermões e “remixagem”,8 chatbots para discipulado e envolvimento
da igreja,9 e muito mais.
É impossível saber de que forma o uso da IA se desenvolverá
no futuro e como isso afetará a missão da igreja. Uma visão “maximizada” do
potencial da IA a vê transformando economias e automatizando e eliminando
muitas carreiras de hoje, e assim liberando tempo e recursos para o ministério.
Mesmo em uma visão moderadamente otimista, a IA proporcionará enormes avanços
no desenvolvimento e treinamento da equipe ministerial por meio de programas de
aprendizagem assistida por computador; transformará a missão médica através do
diagnóstico assistido pelo aprendizado de máquina e da telemedicina; seremos
capazes de alcançar esses objetivos, mas ainda melhor se auxiliados pelo
computador. Ao mesmo tempo, creio que o aumento da automação e a comunicação
“semelhante à humana, porém não-humana” dos chatbots aprofundarão uma epidemia
existente de solidão e provocarão um anseio por uma verdadeira conexão e comunidade
humanas que devem permanecer no cerne da obra missionária”.
Os perigos ocultos da revolução da IA
No entanto, embora eu seja um programador de computador em
tempo integral e esteja envolvido com a IA no meu trabalho, pessoalmente tenho
uma visão pessimista da IA, e acredito, por uma série de razões, que os
cristãos devem ter cautela antes de aceitar de coração aberto o otimismo
prevalecente da inteligência artificial.
Os cristãos preocupados com a verdade podem estar relutantes
em relação à inteligência artificial, porque como os modelos de aprendizado de
máquina são puramente armazenamento de probabilidades, eles são explicitamente
projetados para criar respostas plausíveis, mas não precisas. Como Timnit Gebru
e outros argumentaram (num artigo que levou à eliminação de Timnit da Equipe de
Ética para a Inteligência Artificial do Google), os Grandes Modelos de Línguas
(LLM) agem como “papagaios estocásticos”.10 Eles não têm conceito de verdadeiro
ou falso – muito menos quaisquer conceitos morais de certo ou errado – mas
simplesmente respondem à pergunta: “Como seria uma resposta razoável a esta
pergunta?” Por exemplo, pedi ao ChatGPT uma bibliografia de meus próprios artigos
sobre a teologia da vergonha. Nenhuma das citações apresentadas em uma lista
impressionante era de um artigo real. Além disso, o fato de que os Grandes
Modelos de Linguagem (LLM) são treinados com base no conteúdo da Internet, e de
que nem tudo na Internet é verdade, faz com que assistentes de IA recomendem
comer pedras e cozinhar esparguete com gasolina.11
Ao mesmo tempo, os dados de treinamento muitas vezes
carregam um viés implícito com base na cosmovisão dominante que os produziu, e
assim as LLM incorrem no racismo e no sexismo de seu contexto. Por exemplo, a
língua húngara tem o pronome de gênero neutro “Ö” que precisa ser traduzido
para “ele” ou “ela” em inglês. As ferramentas de tradução automática usarão as
probabilidades incorporadas nos dados de treinamento para escolher um pronome
para casos ambíguos, dando preferência a “ele está pesquisando” em vez de “ela
está pesquisando”, “ela está cuidando do filho” em lugar de “ele está cuidando
do filho”, e assim por diante.12
Mesmo antes de entrarmos nos problemas das deepfakes e da
desinformação gerada pela IA em domínios como o discipulado de novos crentes,
seria eufemismo afirmar que a precisão e uma visão correta do mundo são mais
importantes do que respostas plausíveis. Reconfigurar as LLM para a precisão é
uma preocupação urgente na indústria, mas é um problema que os atores
principais ainda não conseguiram resolver de forma eficaz.
Os cristãos que se preocupam com a ética podem relutar em
confiar na inteligência artificial devido à maneira como são obtidos os dados
de treinamento. Redes neurais profundas precisam ver um vasto número de imagens
de e textos de exemplo para atingir resultados coerentes: A IA Llama3 da Meta,
por exemplo, é treinada em um conjunto de quinze trilhões de tokens “que foram
todos coletados de fontes disponíveis publicamente”.13 Mas é significativo o
questionamento sobre a ética dessa coleção. Considere, por exemplo, usar um
modelo de IA para a arte da capa de um livro. A Rede Adversarial Generativa
(GAN) usada para gerar a imagem terá sido treinada em muitos milhões de obras
de arte – muitas vezes com pouca consideração a direitos autorais ou status da
licença14– e a arte gerada pela IA será usada em lugar da contratação de um
artista humano. Em outras palavras, a IA está tornando os artistas redundantes
por meio da apropriação não creditada, não remunerada e, sem dúvida, antiética
de suas obras de arte.
Um aspeto mais preocupante do treinamento LLM é o nível
oculto de dependência que a inteligência artificial tem de trabalhadores
humanos para classificar e moderar conteúdo. Uma carta de trabalhadores da IA
no Quênia 15 destaca as práticas laborais mal remuneradas, antiéticas e
exploratórias, e a exposição a “assassinatos e decapitações, abuso de crianças
e estupro, pornografia e bestialidade, muitas vezes por mais de 8 horas por
dia”, que sustentam a revolução da IA. Talvez seja válido recordar o movimento
ludita, que resistiu à Revolução Industrial não porque temia o avanço
tecnológico, mas porque considerava seu custo humano elevado demais.16
Finalmente, os cristãos preocupados com os cuidados com a
criação podem estar relutantes em relação à inteligência artificial por causa
do impacto ambiental do treinamento e do uso de redes neurais profundas. O
treinamento GPT-3, um modelo único que seria considerado pequeno pelos padrões
atuais, exigiu 1287MWh de eletricidade, o suficiente para alimentar 1500 casas
por um mês, e criou 500 toneladas de emissões de CO2.17 Assim como a
eletricidade, os centros de dados usados por grandes modelos exigem enormes
quantidades de água para fornecer resfriamento evaporativo; estima-se que o
GPT-3 precisava de 700 mil litros de água para treinar, e requer meio litro de
água para alimentar uma breve conversa com um usuário. À medida que as mudanças
climáticas resultam em mais regiões de seca e em escassez de água, devemos
perguntar a nós mesmos se podemos justificar a contribuição dos estimados 5
bilhões de metros cúbicos de água – metade do consumo anual do Reino Unido –
que serão usados pelas ferramentas de IA até 2027.18
Rumo à IA responsável
O uso responsável da IA representa uma oportunidade para que
aqueles de nós que têm habilidades e dons tecnológicos possam se expandir para
novas áreas do ministério, mas nossos olhos devem permanecer abertos. Creio que
seja cedo demais para saber que tipo de impactos a IA causará. Por um lado, a
aplicação bem-sucedida da IA tem o potencial de transformar quase todas as
áreas do ministério e da vida pessoal; por outro, há significativos indícios de
uma bolha na qual o entusiasmo em torno da IA não se traduza nos tipos de
aplicações que a indústria tem prometido.19
O que é um uso “responsável” da IA? A “Declaração de Ética
na IA”20 da SIL fornece uma estrutura útil: O uso da IA deve promover o florescimento
humano, ser “justo, gentil e humilde”, manter a privacidade e segurança dos
dados, garantir a responsabilidade e supervisão humanas em geral, monitorar de
perto o tipo e a qualidade da produção que está sendo gerada e envolver as
comunidades locais como partes interessadas..
Nos próximos anos, os cristãos precisarão avaliar de forma
crítica as questões que apresentei acima à medida que navegam no uso da IA,
equilibrando as oportunidades que ela oferece com os perigos e custos muito
reais que ela representa: Em outras palavras, “pôr à prova todas as coisas,
ficar com o que é bom, rejeitar todo tipo de mal”.
Notas
1. A. Turing, ‘Computing machinery and
intelligence,’ Mind, 59(236),1950: 435-60.
2. D. Lenat et. al., ‘CYC: Using Common
Sense Knowledge to Overcome Brittleness and Knowledge Acquisition Bottlenecks,’
AI Magazine, 6(4), 1986: 65–85.
3. See ‘The Vanishing/Exploding
Gradients Problem’ in A. Géron, Hands-on machine learning with Scikit-Learn,
Keras, and TensorFlow (Sebastopol, CA: O’Reilly Media, 2022), ch 11.
4. C. Leong, et. al., ‘Bloom library:
Multimodal datasets in 300+ languages for a variety of downstream tasks,’ arXiv
preprint arXiv:2210.14712, 2022; see also https://www.ai.sil.org/projects/acts2.
5. ‘SIL AI & NLP Projects,’ SIL
International, accessed 19 August 2024, https://www.ai.sil.org/projects.
6. ‘The Bible according to OpenAI,’
OneBread, accessed 19 August 2024,
7. Michael Gryboski, ‘Episcopal Church
launches AI chatbot ‘AskCathy’,’ 12 August 2024,
8. ‘Helping busy pastors turn sermons
into content,’ Pulpit AI, accessed 19 August 2024,
9. ‘What is truth? Use AI to spread the
Gospel,’ Biblebots, accessed 19 August 2024,
10. E. M. Bender et al., ‘On the Dangers
of Stochastic Parrots: Can Language Models Be Too Big? 🦜’, in
FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability,
and Transparency: 610-23, 1 March 2021,
11. Toby Walsh, ‘Eat a rock a day, put
glue on your pizza: how Google’s AI is losing touch with reality,’ The
Conversation, 27 May 2024,
https://theconversation.com/eat-a-rock-a-day-put-glue-on-your-pizza-how-googles-ai-is-losing-touch-with-reality-230953.
12. E. Vanmassenhove, (2024). ‘Gender Bias
in Machine Translation and the Era of Large Language Models,’ Gendered
Technology in Translation and Interpreting: Centering Rights in the Development
of Language Technology, ch 9, 18 January 2024,
https://arxiv.org/html/2401.10016v1.
13. ‘Introducing Meta Llama 3: The most
capable openly available LLM to date,’ Meta, 18 April 2024,
https://ai.meta.com/blog/meta-llama-3/.
14. G. Appel et al., ‘Generative AI Has an
Intellectual Property Problem,’ Harvard Business Review, 7 April 2023,
https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem.
15. Caroline Hskins, ‘The Low-Paid Humans
Behind AI’s Smarts Ask Biden to Free Them From ‘Modern Day Slavery,’ WIRED, 22
May 2024,
https://www.wired.com/story/low-paid-humans-ai-biden-modern-day-slavery/.
16. Richard Conniff, ‘What the Luddites
Really Fought Against,’ Smithsonian, March 2011,
https://www.smithsonianmag.com/history/what-the-luddites-really-fought-against-264412/.
17. Nestor Maslej et al., ‘The AI Index
2023 Annual Report,’ AI Index Steering Committee, Institute for Human-Centered
AI, Stanford University (Stanford, CA: April 2023),120-23.
18. P. Li, P, J. Yang, M. A. Islam, &
S. Ren, ‘Making AI less ‘thirsty’ Uncovering and addressing the secret water
footprint of AI models,’ ArXiv preprint, 29 October 2023, https://arxiv.org/pdf/2304.03271.
19. Chris Taylor, ‘The AI bubble has
burst. Here’s how we know,’ Marshable, 6 August 2024,
20. ‘AI Ethics Statement,’ SIL, accessed
19 August 2024, https://www.sil.org/ai-ethics-statement.
Simon Cozens é missionário da WEC International. Após sete
anos como plantador de igrejas no Japão, foi professor por três anos em uma
faculdade de treinamento missionário na Tasmânia e retornou ao Reino Unido. Seu
livro, Looking Shame in the Eye (“Olhando a vergonha nos olhos”, em tradução
livre), será publicado pela InterVarsity Press em meados de 2019.
Artigo originalmente publicado no site do Movimento
Lausanne. Reproduzido com permissão.
Sem comentários:
Enviar um comentário