Publicidade

O uso responsável da inteligência artificial

Cresce o medo de que um dia as máquinas poderão nos controlar e não ao contrário, como deveria ser


11 de março de 2017 - 12h48

Todas as discussões em torno às aplicações práticas da inteligência artificial vem sempre acompanhadas de preocupações quanto às questões éticas e ao perigo de que a falta de controle sobre a tecnologia pode trazer para nós humanos e para o mundo. Filmes como Her e Ex-Machina ou séries como Black Mirror evidenciam a relevância dessa preocupação e convidam para a reflexão sobre como utilizar essa incrível tecnologia para melhorar o mundo e não para criar novos problemas. O fato é que conforme a capacidade de aprendizado dos sistemas aumenta rapidamente a cada dia, cresce também o medo de que um dia as máquinas poderão nos controlar e não ao contrário, como deveria ser.

Na sessão de hoje “Designing Emotionally Intelligent Machines” a palestrante Sophie Kleber da Huge, começou questionando o título de sua palestra dizendo: ” Porque deveríamos desenvolver máquinas que sejam emocionalmente inteligentes, se a maioria dos humanos não é emocionalmente inteligente?” Parece que a resposta está em que humanos têm limites auto-impostos que as máquinas não têm. Se elas estão programadas para aprender e se aproximar cada vez mais da compreensão de sentimentos humanos, elas nunca irão parar, chegando eventualmente a um ponto de compreensão que nenhum humano jamais chegou. De fato, a palestrante contou de experiências nas quais uma máquina, usando técnicas de reconhecimento facial, reconhecimento de voz e biometria conseguiu detectar nuanças de sentimentos de pessoas que falavam em um grupo, que nenhuma outra pessoa que assistia ao encontro foi capaz de identificar. E muitas vezes nem a própria pessoa que emitiu o sentimento era consciente dele, até ele ser evidenciado pela máquina.

Esse tipo de capacidade avançada de leitura de sentimentos pode servir de forma muito efetiva para solucionar questões pequenas de dia a dia, como tarefas caseiras ou informações para trabalho, como questões mais complexas, como ajudar pessoas com problemas psicológicos ou emocionais. O perigo é que, ao lidar com sentimentos humanos tão profundos, corre-se o risco de piorar o estado emocional das pessoas com as quais os sistemas interagem, ao invés de melhorá-lo. E por isso mesmo a palestrante faz uma comparação que pode parecer radical, mas faz bastante sentido, dizendo que computação afetiva é como a energia nuclear e que temos que ser responsáveis em como usá-la. Ela cita Paul Allan, Co-fundador da Microsoft que disse: “Criar este tipo de software avançado requer um entendimento científico anterior sobre os fundamentos da cognição humana e nós estamos apenas arranhando a superfície disso.”

Usar tecnologias inovadoras que, por definição, tem suas capacidades e capilaridades ainda pouco conhecidas, de forma responsável, parece, principalmente pra quem está de fora, algo de bom senso. Contudo, a excessiva responsabilidade muitas vezes é também a antítese para a inovação, já que é preciso explorar o desconhecido para se chegar ao novo. Porém, quando o objeto do estudo envolve sentimentos humanos, essa responsabilidade e os cuidados tomados tem de ser maiores, sob o risco de criar problemas sociais novos, cuja dimensão dificilmente pode ser medida com antecedência, mas cujo efeito nocivo parece ser evidente e preocupante. E a conscientização sobre essa questão por parte da indústria é o primeiro e importante passo para garantir um futuro no qual as máquinas ajudarão as pessoas a terem maior inteligência emocional.

Publicidade

Compartilhe

  • Temas

Patrocínio