Robôs que respeitam: ética na era da Inteligência Artificial

Robôs que respeitam: ética na era da Inteligência Artificial

Luís Guedes: "Trata-se de garantir que os sistemas baseados em IA não perpetuem preconceitos ou criem novas formas de discriminação"

Por Luís Guedes

Quando lançou o GPT-4, a OpenAI destacou as melhorias que conseguiu em precisão, capacidade de argumentação lógica e diminuição da ocorrência de alucinações. O que chamou minha atenção, no entanto, foi a descrição do GPT-4 como “mais alinhado aos valores humanos”. Essa talvez tenha sido a primeira vez que um produto de IA foi promovido com base nessa métrica. A mudança não é por acaso e destaca a integração, ainda que parcial, de ética e princípios humanos no desenvolvimento da IA.

À medida que os artefatos baseados em IA se tornam mais sofisticados e integrados à nossa vida, seu impacto social se amplifica exponencialmente. Considere o caso da tecnologia de reconhecimento facial: tem inegável potencial para melhorar a segurança e os processos de identificação pessoal, mas também pode ser usada para perpetrar violações de privacidade, amplificar preconceito racial e servir para vigilância autoritária. Essa conversa já tem mais de uma década, e os êxitos (que são muitos) se somam aos excessos (que preocupantemente não são poucos). Sem fundamento ético, a mesma tecnologia que promete progresso pode propagar danos irreparáveis.

A ética no desenvolvimento de Inteligência Artificial inclui considerações sobre justiça, transparência, responsabilização e respeito à privacidade. Integrar ética ao desenvolvimento da IA não é uma questão de mitigar riscos, mas uma oportunidade de moldar a tecnologia como uma força para o bem

A ética no desenvolvimento de IA inclui considerações sobre justiça, transparência, responsabilização e respeito à privacidade. Trata-se de garantir que os sistemas baseados em IA não perpetuem preconceitos ou criem novas formas de discriminação. Um lembrete disso é um caso de 2018 em que um sistema de IA usado para selecionar candidatos a emprego causou grande embaraço à empresa que o utilizou. O sistema havia sido treinado com currículos enviados ao longo de dez anos, durante o qual a maioria dos candidatos era de homens. A rigor não se pode dizer que um algoritmo tenha intencionalidade – ele resolve uma equação, sem nenhuma outra consideração. Feita essa ressalva, o algoritmo usado pela empresa induziu seus operadores humanos a agirem com discriminação, o que é inaceitável. Não se pode culpar o algoritmo, é bom que se diga. Caso haja “culpa”, deve recair sobre os executivos que tomaram a decisão de delegar para um software uma decisão grave como essa.

A questão da transparência também não pode ser subestimada. Os sistemas de IA, em particular os baseados em aprendizado profundo, processam os dados de modo desconhecido até mesmo para seus desenvolvedores. Essa opacidade pode apresentar riscos significativos, especialmente quando os sistemas são implementados em áreas críticas como saúde, justiça e finanças.

Por fim, a privacidade é outra preocupação ética significativa. Treinar algoritmos demanda grandes quantidades de dados, o que levanta questões sobre coleta de dados, consentimento e uso. O escândalo recente da Cambridge Analytica destaca o potencial de abuso.

Integrar ética ao desenvolvimento da IA não é uma questão de mitigar riscos, mas uma oportunidade de moldar a tecnologia como uma força para o bem. Tenho convicção que a sociedade tem força para fazer emergir das melhores empresas sistemas que aumentem o bem-estar humano, promovam a justiça social e incentivem o crescimento inclusivo. Pode me chamar de otimista, já somos muitos: )

Luís Guedes é professor da FIA Business School