Juliano Statdlober, CTO da Qualitor. Foto: Divulgação.

Por Juliano Statdlober*
Muitos filmes cobrem Inteligência Artificial (AI) e robôs em algum nível. Entretanto, a primeira vez desde que, como entusiasta de filmes de ficção científica, assisti a um filme em que NLU (Natural Language Understanding), ou a compreensão da linguagem natural por máquinas, foi tratado de forma tão ostensiva, chamando realmente atenção para esta área, foi no enredo de “Passengers”.

Lançada em 2016 e estrelada por Jennifer Lawrence, Chris Pratt, Michael Sheen e Laurence Fishburne, a obra trata de uma nave espacial viajando para um planeta distante, com milhares de pessoas hibernando. A viagem deve durar 120 anos, mas um mau funcionamento nas câmaras de sono resulta em dois passageiros acordados 90 anos mais cedo.

Se você ainda não viu o filme e está preocupado com spoiler, fique tranquilo: a descrição acima é a mesma utilizada na sinopse promovida publicamente, ou seja, não contei nada que possa interferir em sua experiência ao assistir à obra.

Vamos à análise de NLU no filme. Em um determinado momento, Jim (Chris Pratt), o primeiro passageiro a acordar, encontra um robô AI e conversa com ele. O diálogo é um excelente exemplo de conversação entre um humano e um robô, que demonstra claramente um problema que a indústria encontra comumente ao treinar chatbots, e que tem estudado ferrenhamente como evitar.

Abaixo, transcrevo o diálogo, que acontece na cena em que, ao acordar sozinho na nave, Jim vai a um bar e é atendido por um robô de IA.

 

Jim: "Quanto você sabe sobre essa nave?"

Robô: "Eu não sei. Eu sei algumas coisas”

Jim: "O que eu faço em relação a um mau funcionamento da hibernação?"

Robô: “Os conjuntos de hibernação são seguros. Eles nunca funcionam mal”

Jim: "Acordei mais cedo"

Robô: "Isso não pode acontecer"

Jim: "Quanto tempo até chegarmos a Homestead 2?"

Robô: "Cerca de 90 anos "

Jim: "E quando todos os passageiros devem acordar?"

Robô: "Até os últimos meses" [da viagem]

Jim: "Como é que eu estou sentado aqui com você? Com 90 anos ainda a viajar”

Neste momento o robô tem um bug, com um bip, e então diz:

Robô: "Não é possível que você esteja aqui"

Jim: "Mas eu estou"

 

Se estiver interessado, o vídeo deste link traz o diálogo acima a partir do segundo 0:40.

O diálogo descrito no filme leva a pensar sobre o que poderia ter dado errado com o treinamento do robô. Obviamente, a máquina de AI entendeu corretamente o que o humano disse e sua intenção, mas não foi capaz de lidar com essa situação porque não foi treinada para isso.

A situação nunca havia acontecido antes, e provavelmente essa é a razão pela qual ela não foi incluída no treinamento de IA.

O robô entendeu corretamente algo que um ser humano disse, e, agindo com base nesse entendimento, algo muito relevante acontece no filme - uma reviravolta no enredo que não posso descrever aqui para não atrapalhar os que ainda vão assisti-lo, mas garanto que é muito relevante para o campo de NLU.

Voltando à realidade de treinamento de chatbots, a questão que surge em função do filme é: como poderíamos nos preparar para situações inesperadas? Mesmo quando planejamos muitas situações, podem surgir algumas que não foram projetadas, e a única maneira de aprender e “ensinar” nossos robôs de AI a lidar com isso é monitorar constantemente os diálogos e perguntas não respondidas para atualizar o corpus de treinamento e melhorar o entendimento e atuação dos BOTs.

Em relação ao contexto e raciocínio, talvez nossa tecnologia atual ainda não esteja preparada para lidar com isso. Mas isso se refere à parte do filme que não pude mencionar para evitar spoiler. Você precisará assisti-lo para saber do que estou falando.

*Juliano Statdlober é CTO da Qualitor.