Corrigir texto

Se você encontrou algum erro nesta notícia, por favor preencha o formulário abaixo e clique em enviar. Este formulário destina-se somente à comunicação de erros.

Mercado Digital

- Publicada em 03 de Fevereiro de 2020 às 17:41

Pesquisador da Ufrgs participa de descoberta que vai tornar decisões de robôs mais seguras

Silva destaca ineditismo de estudo que busca eliminar viés das decisões feitas por robôs

Silva destaca ineditismo de estudo que busca eliminar viés das decisões feitas por robôs


LUIZA PRADO/JC
Está repercutindo globalmente um estudo realizado por pesquisadores da Universidade Federal do Rio Grande do Sul (Ufrgs), da Universidade de Stanford e do Universidade de Massachusetts que desenvolveu uma técnica para ajudar a tornar as decisões tomadas pelas ferramentas de Inteligência Artificial mais seguras.
Está repercutindo globalmente um estudo realizado por pesquisadores da Universidade Federal do Rio Grande do Sul (Ufrgs), da Universidade de Stanford e do Universidade de Massachusetts que desenvolveu uma técnica para ajudar a tornar as decisões tomadas pelas ferramentas de Inteligência Artificial mais seguras.
Mais de 36 mil pessoas já leram o estudo, que foi publicado na Science, revista científica publicada pela Associação Americana para o Avanço da Ciência. “É muito raro um pesquisador brasileiro conseguir publicar na Science”, comemora Bruno Silva, que participou do estudo enquanto fazia doutorado, pela Ufrgs, nos Estados Unidos. A Science é considerada uma das publicações acadêmicas mais prestigiadas do mundo
“Pela técnica matemática que criamos, será possível dizer para a solução de Inteligência Artificial o que gostaríamos que ela evitasse, garantindo que o seu comportamento será seguro, de acordo com a nossa definição disso”, explica. Isso deve aumentar muito a probabilidade destas soluções não tomarem decisões consideradas perigosas ou indesejadas, como colocar a vida de um paciente em risco em uma decisão médica.
Mas, o maior ineditismo está no fato de que essa foi a primeira vez que alguém demonstrou que é possível resolver essas questões de forma genérica. Até então, existiam modelos para lidar com problemas específicos, como criar uma aplicação segura para ser usada em carros autônomos e, assim, decidir se, diante de uma possibilidade de acidente, ele desviaria do grupo de pessoas e salvaria vida delas ou colidiria no muro e machucaria quem estava dentro do veículo. Porém, esse mesmo modelo não poderia ser usado para avaliar o uso da IA em uma aplicação médica.
“O nosso estudo mostrou que existe uma maneira de resolver todas as questões de riscos de Inteligência Artificial de forma unificada, e é por isso está tendo essa repercussão. É uma forma inovadora de criar soluções para a gente controlar o comportamento da IA”, relata o pesquisador brasileiro, explicando que o estudo começou a ser desenvolvido há cerca de três anos.
Esse é, sem dúvida, um problema fundamental a ser endereçado, já que existem diversas demonstrações pelo mundo do quanto IA pode ter um viés discriminatório. Silva cita o exemplo das ferramentas automatizadas usadas por grandes empresas, como Google e Microsoft, para filtrar os currículos enviados pelos candidatos. Para ajudar na seleção, elas usam dados históricos de outros funcionários e aferem quais poderiam se adequar melhor ao perfil da vaga. “Estudos mostram que essas soluções acabam discriminando porque atribuem probabilidade menor de as mulheres darem um bom match com a empresa”, conta.
Outro exemplo, e que foi usado pelos pesquisadores no estudo publicado na Science, foi uma análise feita com base no uso da IA para avaliar dados de 43 mil alunos da Ufrgs e ver qual a probabilidade de deles irem bem nos três primeiros semestres da faculdade. “Foram usadas técnicas clássicas de Inteligência Artificial e vimos que as predições feitas para as mulheres sempre previam que elas teriam um desempenho pior do que o que acontecia de fato e que os homens iriam bem melhor do que se verificava ao final”, destaca. Ao verem os dados brutos, eles perceberam que as mulheres tinham um desempenho melhor.
“A Inteligência Artificial está sendo usada sem cuidados pelo mundo e a nossa motivação foi criar uma maneira de nos certificarmos de que elas não vão tomar decisões não éticas ou que coloquem vidas em risco”, diz Silva.
Conteúdo Publicitário
Leia também
Comentários CORRIGIR TEXTO