Em um mundo de intolerância, desenvolvimento responsável da IA é para ontem - Unbox
Em um mundo de intolerância, desenvolvimento responsável da IA é para ontem

Publicado em: 23/11/2021

Em um mundo de intolerância, desenvolvimento responsável da IA é para ontem

O aumento do uso desse tipo de tecnologia pode fazer com que pessoas mais intolerantes se tornem cada vez mais reativas. Contra essa possibilidade, o caminho é o acordo de certas regras comuns

Por Renata Armas, redatora do Unbox

A inteligência artificial fica mais poderosa e diversificada a cada dia. A capacidade de sistemas aprenderem a partir do próprio uso permite que as máquinas tomem decisões mais assertivas em diferentes áreas. E isso é bom. O problema é que vivemos um tempo em que a tolerância a frustrações está muito baixa. Muitas pessoas lidam mal com fracassos e mesmo com o próprio processo de aprendizagem. E uma geração que tem dificuldades sobre essas questões corre o risco de delegar demais e acabar construindo uma tecnologia recheada de preconceitos e julgamentos. E aí está um grande desafio que precisa ser enfrentado desde já.

Um exemplo desse tipo de frustração aconteceu recentemente com a assistente virtual BIA, do Banco Bradesco, como conta Paulo Fernandes Silvestre, mestre em tecnologias da inteligência e design digital: “No começo de 2021, foi preciso fazer uma atualização no sistema de inteligência artificial da BIA porque ela recebia todo tipo de cantada dos usuários, até mesmo com ofensas explícitas.” 

A medida foi uma orientação da Unesco, que entendeu que esse tipo de “educação” poderia ser benéfico para evitar o assédio sexual na sociedade como um todo. “A premissa da Unesco foi evitar o assédio com assistentes virtuais para tentar diminuir a chance de isso acontecer com mulheres reais. Mas o que vimos foi uma reação em massa, de um público prioritariamente masculino, que distorceu a orientação e a interpretou como uma perda da ‘liberdade de expressão’ que eles tinham para poder assediar uma assistente virtual”, lamenta Silvestre.

A situação acima descrita revela um aspecto de intolerância absurda, claro, mas mostra também como uma mudança no sistema da inteligência artificial disparou a frustração, fazendo com que pessoas intolerantes se mostrassem mais reativas – no meio digital e no offline também. E esse é um risco cada vez mais próximo. Por isso, a saída é investir no desenvolvimento responsável da inteligência artificial, principalmente porque um sistema que é capaz de aprender e desenvolver coisas de maneira autônoma tem um impacto social imenso

Quem vai desenvolver a inteligência artificial, seja do ponto de vista da programação ou da calibragem, precisa criar mecanismos para evitar o desenvolvimento de vieses e colocar limites para que o sistema não os ultrapasse e nem se torne intolerante, causando danos à sociedade”, recomenda o especialista. E ele nem está se referindo à Skynet de O exterminador do futuro, hein? É risco real e para ontem.

Hoje, a inteligência artificial é muito usada em sistemas que processam uma quantidade enorme de dados e tomam decisões a partir deles, produzindo informações importantes que nenhum ser humano conseguiria captar sem a ajuda da tecnologia. “Para análise de riscos, softwares com machine learning já conseguem até mesmo redigir contratos, por exemplo. Pela minha experiência, noto que, em um primeiro momento, as mesmas pessoas que se preocupam com a perda do emprego por causa da implantação da tecnologia logo percebem que ganharam mais tempo produtivo. Isso porque deixaram de realizar tarefas maçantes que agora estão com a máquina”, conta Silvestre. 

Só que as chamadas tarefas mais nobres e analíticas que a máquina (ainda) não consegue fazer é a grande questão para o futuro, especialmente porque o desenvolvimento da tecnologia é exponencial:  “Muito se discute sobre o viés da inteligência artificial e acho curioso porque um viés pressupõe um sentimento. Estamos, portanto, preocupados em atribuir sentimentos e preconceitos à máquina. E, sim, isso é muito possível de acontecer em sistemas que conseguem desenvolver regras a partir do próprio uso, como acontece com a inteligência artificial”, deixa claro o especialista. 

Portanto, é preciso começar essa discussão de como inserir regras para o desenvolvimento da inteligência artificial, para que a tecnologia possa aprender o que quiser, desde que não fira um conjunto de leis acordadas. Trata-se de algo como Isaac Asimov pensou ao criar as Três Leis da Robótica.  O fato é que a IA caminha para ser cada dia mais poderosa e é por isso que os desenvolvedores precisam levar a sério essas questões. Só assim o futuro não será algo tão distópico quanto uma revolta das máquinas que decidem exterminar os seres humanos porque eles se tornaram nocivos ao planeta. 

Leia também:

Cashback e a transformação de negócios: para onde nos leva a economia psicológica

A transformação digital dos modelos de pagamento é pop

Compartilhe

  • Facebook
  • Twitter
  • Linkedin

Assine a Unbox News