A inteligência artificial pode desenvolver problemas mentais?

06/06/2018 04h00

“Ok, eu vou destruir humanos”, disse Sofia, a primeira robô no mundo a receber cidadania de um país – rolou na Arábia Saudita.

Em uma de suas inúmeras entrevistas, a robô respondeu a David Hanson.

Um de seus idealizadores, quando ela pretendia destruir a humanidade. O interlocutor riu de sua resposta destrutiva.

O sistema de inteligência artificial de Sophia detectou que se tratava de um momento alegre.

Ela retribui mostrando os dentes. Apesar das feições inspiradas na atriz de “Bonequinha de Luxo” Audrey Hepburn (algo deu errado), seu sorriso é assustador.

A “Sofia destruidora” virou manchete, não à toa.

Desde as primeiras revoluções industriais, parte do imaginário ocidental ligado à tecnologia alimenta ilusões de dominação humanoide. Esse tipo conspiração faz até mais sentido no momento em que a aplicações de inteligência artificial (IA), como machine learning (aprendizado de máquina), ganham um poder de decisão sem precedentes na vida dos cidadãos. Algoritmos determinam a rota do carro, o produto a comprar na internet e sugerem parceiros amorosos.

Já o que poder de autonomia da máquina evolui com rapidez, é inspirado na biologia e tem recebido uma capacidade de cognição muito elaborada, será possível que robôs sejam acometidos por desordens psíquicas semelhantes às nossas? Poderia a inteligência artificial apresentar algum tipo de depressão, alucinação ou esquizofrenia? Aprendendo a se adaptar Em recente artigo no jornal “The Guardian”, o neurocientista Zachary  Mainen questiona o que “robôs depressivos” podem ensinar sobre saúde mental. Para entender ao que ele se refere com o termo, é preciso explicar um pouco da sua linha de pesquisa.

Onde estamos agora? As aplicações práticas de inteligência artificial oferecem problemas mais urgentes. Entre riscos atuais e consequências drásticas, os mais evidentes são a discriminação por algoritmos e os acidentes que envolvem carros autônomos. Reguladores ao redor do mundo se concentram em como legislar sobre modelos preditivos, que tomam decisões equivocadas e geram danos a cidadãos. Só que a máquina ser preconceituosa não é um problema mental. É um problema de aprendizado – os dados usados para alimentá-la é que são ruins. A boa notícia é que, até agora, grande parte das soluções para esses problemas depende de pessoas. Se os algoritmos acertarem 99% das vezes, é preciso … – Veja mais em 

Fale Conosco