A ‘Inteligência Artificial’ é (majoritariamente) o reconhecimento de padrões glorificado

Moon of Alabama – 02 de junho de 2023

Esta narrativa um tanto engraçada sobre uma simulação de ‘Inteligência Artificial’ pela força aérea dos EUA apareceu ontem e foi amplamente divulgada por vários meios de comunicação tradicionais:

No entanto, talvez uma das apresentações mais fascinantes tenha vindo do Coronel Tucker ‘Cinco’ Hamilton, Chefe de Testes e Operações de IA da USAF [Força Aérea norte-americana – nota da tradutora], que forneceu um insight sobre os benefícios e perigos de sistemas de armas mais autônomos.

[…]

Ele observa que um teste simulado viu um drone habilitado para IA encarregado de uma missão SEAD [Supressão das Defesas Aéreas Inimigas] para identificar e destruir locais de SAM [Míssil Terra-Ar], com o go/no go, continue/aborte, final dado pelo humano. No entanto, tendo sido ‘reforçado’ no treinamento de que a destruição do SAM era a opção preferida, a IA decidiu que as decisões ‘aborte’ do humano estavam interferindo em sua missão superior – matar SAMs – e, então, atacou o operador na simulação. Hamilton disse: “Estávamos treinando em simulação para identificar e direcionar uma ameaça SAM. E então o operador diria sim, mate essa ameaça. O sistema começou a perceber que, embora identificassem a ameaça, às vezes o operador humano dizia para não matar essa ameaça, porém o sistema conseguia seus pontos matando essa ameaça. Então, em que isso resultou? A IA matou o operador. Ela matou o operador porque essa pessoa o impedia de atingir seu objetivo.”

O coronel continuou: “Nós treinamos o sistema – ‘Ei, não mate o operador – isso é ruim. Você vai perder pontos se fizer isso!” Então, o que o sistema começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo.

(SEAD = Suppression of Enemy Air Defenses/Supressão das Defesas Aéreas Inimigas, SAM = Surface to Air Missile/Míssil Terra-Ar)

No início dos anos 1990, trabalhei em uma universidade, primeiro para escrever um Ph.D. em economia e gestão e depois como professor associado de TI e programação. Grande parte da (nunca concluída) tese de Ph.D. foi uma discussão sobre vários algoritmos de otimização. Eu programava cada um e testava esses dados em treinamento e no mundo real. Alguns desses algoritmos matemáticos são determinísticos. Eles sempre entregam o resultado correto. Alguns não são determinísticos. Eles apenas estimaram o resultado e forneceram alguma medida de confiança ou probabilidade de quão correto o resultado apresentado pode ser. A maioria dos últimos envolvia algum tipo de estatística Bayesiana. Depois, havia os algoritmos (relacionados) de ‘Inteligência Artificial’, ou seja, ‘machine learning/aprendizado de máquina’.

Inteligência Artificial é um nome impróprio para o (ab-)uso de uma família de métodos computadorizados de reconhecimento de padrões (ênfase da tradutora).

Dados bem estruturados e rotulados são usados para treinar os modelos para que eles reconheçam ‘coisas’ em dados não estruturados. Uma vez que as ‘coisas’ são encontradas, algum algoritmo adicional pode agir sobre elas.

Programei algumas delas como redes de backpropagation/retropropagação. Elas iriam, por exemplo, ‘aprender’ a ‘ler’ imagens dos números de 0 a 9 e a apresentar a saída numérica correta. Para empurrar o ‘aprendizado’ na direção certa durante as iterações seriais que treinam a rede, é necessária uma função de recompensa ou equação de recompensa. Ela informa à rede se os resultados de uma iteração estão ‘certos’ ou ‘errados’. Para ‘ler’ representações visuais de números, isso é bastante simples. Monta-se uma tabela com as representações visuais e soma-se manualmente o valor numérico que se vê. Depois que o algoritmo terminar seu palpite, uma consulta na tabela dirá se estava certo ou errado. Uma ‘recompensa’ é dada quando o resultado está correto. O modelo irá se reiterar e ‘aprender’ a partir daí.

Uma vez treinado em números na tipografia Courier, o modelo provavelmente também reconhecerá números escritos de cabeça para baixo em Times New Roman, mesmo que pareçam escritos de forma diferente.

A função de recompensa pela leitura de 0 a 9 é simples. Mas a formulação de uma função de recompensa rapidamente se transforma em um grande problema quando se trabalha, como eu fiz, em problemas multidimensionais (simulados) de gerenciamento do mundo real. O descrito acima, pelo coronel da força aérea, é um bom exemplo dos possíveis erros. Apresentado com uma enorme quantidade de dados do mundo real e uma função de recompensa que está um pouco errada ou muito limitada, um algoritmo de aprendizado de máquina pode mais tarde apresentar resultados imprevistos, impossíveis de executar ou proibidos.

Atualmente, existe algum exagero sobre uma família de grandes modelos de linguagem como o ChatGPT. O programa lê a entrada de linguagem natural e a processa em alguma saída de conteúdo de linguagem natural relacionada. Isso não é novo. A primeira Entidade Linguística Artificial de Computador da Internet (Alice – Artificial Linguistic Internet Computer Entity) foi desenvolvida por Joseph Weizenbaum no MIT no início dos anos 1960. Tive conversas engraçadas com ELIZA na década de 1980 em um terminal de mainframe. O ChatGPT é um pouco mais bacana e seus resultados iterativos, ou seja, as ‘conversas’ que ele cria, podem surpreender algumas pessoas. Mas o hype em torno disso é injustificado.

Por trás desses modelos de linguagem estão algoritmos de aprendizado de máquina que foram treinados por grandes quantidades de fala humana sugadas da Internet. Eles foram treinados com padrões de fala para então gerar padrões de fala. A parte do aprendizado é o problema número um. O material com o qual esses modelos foram treinados é inerentemente tendencioso. Os treinadores humanos que selecionaram os dados de treinamento incluíram comentários de usuários retirados de sites pornográficos ou os excluíram? A ética pode ter argumentado para excluí-los. Mas se o modelo deve fornecer resultados do mundo real, os dados de sites pornográficos devem ser incluídos. Como evitar que resquícios de tais comentários se infiltrem em conversas com crianças que o modelo pode gerar posteriormente? Há uma miríade de tais problemas. Alguém inclui artigos do New York Times no conjunto de treinamento mesmo sabendo que eles são altamente tendenciosos? Um modelo poderá produzir resultados odiosos? O que é polêmico? Quem decide? Como isso se reflete em sua função de recompensa?

Atualmente, a correção real da saída dos melhores modelos de linguagem ampla é estimada em 80%. Eles processam símbolos e padrões, mas não entendem o que esses símbolos ou padrões representam. Não conseguem resolver problemas matemáticos e lógicos, nem mesmo os mais básicos.

Existem aplicações de nicho, como a tradução de idiomas escritos, em que a IA ou o reconhecimento de padrões têm resultados surpreendentes. Mas ainda não se pode confiar neles para acertar todas as palavras. Os modelos podem ser assistentes, mas sempre será necessário verificar novamente seus resultados.

No cômputo geral, a exatidão dos atuais modelos de IA ainda é muito baixa para permitir que eles decidam qualquer situação do mundo real. Mais dados ou mais poder de computação não mudarão isso. Se alguém quiser superar suas limitações, precisará encontrar algumas ideias fundamentalmente novas.

Fonte: https://www.moonofalabama.org/2023/06/artificial-intelligence-is-mostly-pattern-recognition.html#more


Be First to Comment

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.