Brechas no conhecimento de inteligência artificial
Pontos cegos
Carros autônomos podem encontrar alguns “pontos cegos” em seu processamento quando ocorrem diferenças sensíveis entre os exemplos de treinamento e o que um humano faria no seu lugar, como o caso de um veículo autônomo não conseguir distinguir entre a diferença que deve ficar de um carro grande branco e uma ambulância com as sirenes ligadas.
Os pesquisadores do MIT e da Microsoft criaram um novo modelo de inteligência artificial que compara ações do mundo real feitas por humanos com o que poderia fazer na mesma situação. Isso poderia ser refinado pelo usuário, que poderia corrigir qualquer erro causado pela IA enquanto eles acontecem e até mesmo antes. Isso causaria uma mudança no comportamento da IA, tornando suas ações mais próximas com as de um humano no trânsito.
“O modelo ajuda sistemas autônomos a entender melhor aquilo que eles não sabem. Muitas vezes, quando esses sistemas são aplicados, seu treinamento não corresponde a situações do mundo real e eles podem tomar decisões erradas. A ideia é que usar os humanos como uma ponte entre a simulação e o mundo real, de um jeito seguro, possa reduzir esses erros”, disse Ramya Ramakrishnan, pesquisadora envolvida no projeto.
Testes ainda não estão prontos para o público
De acordo com o MIT e a Microsoft, os testes feitos com o novo sistema de inteligência artificial ainda não estão avançados o suficiente para serem testados com o grande público. Mesmo assim, pesquisadores vêm usando videogames em que a simulação de um humano toma decisões que corrigem as ações de um personagem dentro do jogo.
O próximo passo é aplicar o sistema em alguns carros autônomos e começar a testá-lo em situações do mundo real, mas os pesquisadores ainda não souberam informar quando essa etapa se iniciará.
FONTE(S)