Do risco nuclear ao risco da IA
Por Luís Guedes
Estima-se que uma consulta à IA generativa consome 30 vezes mais energia do que uma busca no Google. Considere que somente o Chat GPT recebe hoje mais de 10 milhões de consultas por dia e é fácil ver que a conta de luz está ficando alta – e rápido. Não por outra razão, Amazon, Google e Microsoft estão iniciando projetos próprios para geração de energia nuclear. Voltaremos a esse tema em outra coluna, mas por ora vamos fazer um paralelo entre o desenvolvimento da tecnologia nuclear e o da IA moderna.
Na década de 1940, a humanidade estava maravilhada com a possibilidade de dominar o poder atômico, uma força que prometia revolucionar a produção de energia e transformar a sociedade. Com poucos ajustes nessa frase, enxergamos a nossa situação de hoje com a IA. Assim como os cientistas nucleares que se reuniram no reator Chicago Pile-1 em 1942 para a primeira reação nuclear em cadeia controlada, esperamos o dia do anúncio do robô humanoide que será nosso colega de trabalho ou da IA generativa que será nossa companhia, consultora, terapeuta e conselheira. E boa nisso tudo.
IA e energia nuclear evoluem impulsionadas pelo mesmo conjunto de forças, tipicamente humano e irrefreável: brilhantismo científico, potencial econômico e poder.
A indústria nuclear enfrentou ao longo do Século XX desafios similares aos dilemas atuaisdo desenvolvimento da IA. A natureza dual de ambas as tecnologias significa que aplicações pacíficas não podem ser completamente separadas das potencialmente nocivas. Sistemas de IA projetados para fins nobres podem ser distorcidos para vigilância, desinformação ou manipulação.
Sistemas de IA projetados para fins nobres podem ser distorcidos para vigilância, desinformação ou manipulação e, assim como a energia nuclear, demanda mecanismos de controle que talvez sejam inexequíveis
Tanto a energia nuclear quanto a IA demandam mecanismos de controle talvez inexequíveis. Os incidentes de Three Mile Island em 1979 e Chernobyl em 1986 nos servem como lembretes sombrios das falhas que podem ocorrer em sistemas complexos, mesmo com múltiplas camadas de segurança. Grande parte dos sistemas de IA são baseados em redes neurais cuja forma de processamento é opaca até mesmo para seus desenvolvedores. Em um contexto semelhante, o professor Charles Perrow cunhou o termo “acidente normal”, sobre disfunções inevitáveis em sistemas extremamente complexos. A tese sugere que pequenas falhas vão ocorrer em algum momento, apesar dos esforços para as evitar. Os erros triviais se interrelacionam de forma imprevisível, não-linear, eventualmente de forma catastrófica. A conclusão é que seria melhor considerar um redesenho radical do sistema ou, se isso não for possível, deveríamos abandonar totalmente essa implementação da tecnologia…
A competição é força-motriz das inovações, mas pode resultar em implementações apressadas, sem as considerações de segurança e éticas necessárias. Outro desafio comum às duas tecnologias diz respeito a questões sobre responsabilizaçãotanto sobre o uso, quanto aos custos da falha da tecnologia. Quem é responsável por uma nuvem tóxica que se espalha ou por um sistema de IA toma uma decisão que causa danos irreversíveis? A resposta costuma ser intrincada e controversa.
A lição da energia nuclear é clara: as empresas devem abordar a implementação da IA com a mesma seriedade com que operadores nucleares gerenciam reatores. A história não se repete, mas frequentemente rima.