Publicidade

Como revolucionar os negócios sem o risco da Skynet

Um modelo de Inteligência Artificial ganharia mais direito a responsabilidades conforme fosse provando que é, de fato, inteligente, dentro de uma escala comparativa à racionalidade humana


10 de março de 2018 - 15h39

Nosso medo das novas tecnologias não é novo. Desde que a escrita foi desenvolvida, pessoas assustadas já temiam um futuro onde ninguém lembraria de nada, já que a informação estaria toda no papel. Então não é nenhuma surpresa que o SxSW 2018 vá explorar o tema Inteligência Artificial em todas as suas nuances, com perspectivas completamente distintas.

Uma dessas perspectivas é a que fala sobre Inteligência Artificial Vertical em contraponto a soluções horizontais, que são mais focadas no processo de desenvolvimento de inteligência do que em efetivamente agregar valor a negócios estabelecidos.

A Inteligência Artificial Vertical tem como objetivo identificar oportunidades dentro de indústrias onde o processamento rápido de informações pode gerar melhorias em processos complexos, como o desenvolvimento de algoritmos específicos de precificação para a indústria automotiva, ou a criação de esteiras de análise de crédito automatizadas para instituições financeiras ou seguradoras.

Esse tipo de abordagem cria produtos nichados e uma série de novas startups, como a Blippar, que entre outras soluções criou um “Shazam” para carros, capaz de identificar com 97% de precisão a marca, modelo e ano de um automóvel através de uma única fotografia.

Além das questões táticas sobre o desaparecimento de empregos, outro grande problema ético é que esses algoritmos,ainda construídos por humanos, também carregam os mesmos vieses cognitivos que nós, o que resulta em absurdos como o algoritmo de processamento de imagem do Google que confundia pessoas negras com gorilas.

Dentro desse contexto, a conversa sobre como regular o desenvolvimento dessas inovações torna-se cada vez mais relevante, especialmente considerando o quanto os algoritmos ainda costumam ser tratados como caixas-pretas intocáveis.

Para Andrew Burt, Chief Privacy Officer da Immuta, a solução seria um framework que junte lições de outras formas de regulamentação como o ECOA (Equal Credit Opportunity Act), que evitou a discriminação de mulheres e pessoas não-brancas no processo de análise de crédito estadunidense, com o SR 11-87, um guia para criação de modelos de gerenciamento de risco por instituições financeiras.

Esse framework determina que a transparência dos algoritmos deveria ser exigida em certas circunstâncias, mesmo quando as pessoas responsáveis por legislar, governar e monitorá-los não entendam perfeitamente esses modelos. Ao mesmo tempo, a proposta de Burt reforça a importância da criação de uma régua de maturidade, baseada em questões como a quantidade de dados que já foi processada por um algoritmo.

Ou seja, um modelo de Inteligência Artificial ganharia mais direito a responsabilidades conforme fosse provando que é, de fato, inteligente, dentro de uma escala comparativa à racionalidade humana. Ao tratar A.I. como uma criança que ainda precisa aprender, conseguimos evitar maiores desastres e aproveitar o melhor destas tecnologias sem correr o risco de chegarmos à Skynet.

Publicidade

Compartilhe

Patrocínio