Que área da robótica considera mais interessante para trabalhar actualmente?
Neste momento trabalho em duas áreas, uma a que chamo de ‘Tecnologia para a qualidade de vida’. No passado, as grandes aplicações de robótica eram sempre militares, espaciais ou industriais. O grande objectivo dessas aplicações era tornar o robot autónomo, ou seja, reduzir o envolvimento humano. O que é compreensível porque a nível militar não queremos enviar pessoas, a nível espacial não podemos enviar pessoas e nas fábricas, podemos usar pessoas mas a automatização reduz os custos e aumenta a eficácia e, por vezes, a qualidade. No entanto, no que toca a uma nova área que pressupõe ajudar pessoas idosas ou com deficiências, considero que a robótica pode ser usada para que essas pessoas vivam com independência. As pessoas não querem ter um robot que lhes faça tudo, desde levá-las para a cozinha e cozinhar para elas ou ligar-lhes a televisão ou fazer-lhes a higiene. As pessoas querem fazer o que podem fazer e não terem alguém que as ajude a fazer o que conseguem fazer. Ou seja, o objectivo deste novo campo robótico a que chamamos ‘Tecnologia para a qualidade de vida’ tem de ser o oposto, ou tem de envolver mais os humanos. O básico da qualidade de vida é fazer o que se consegue fazer sozinho. Por este motivo, o papel da robótica deve ser igual ao que se quer fazer menos o que se consegue fazer. Se existe uma diferença, é nesta que o robot deve actuar.
Como pode um robot entender as nossas necessidades?
Através de um projecto que baptizei como ‘Visão na primeira pessoa’. Antigamente, as câmeras eram colocadas no canto de uma sala e olhavam nós e tentavam adivinhar o que estávamos a pensar ou o que queríamos fazer. Se estávamos com sono, se queriamos sair ou se estivesse a cozinhar, em que fase estava. Nesta altura, os engenheiros pensavam que isto poderia ser feito colocando uma câmera num determinado ambiente apontada para uma pessoa. O que agora proponho é o contrário. Colocar a câmera em nós próprios para que esta veja o que vemos. Chamo a este projecto ‘Visão na primeira pessoa’ porque o computador age como a primeira pessoa em vez de agir como uma terceira pessoa que olha para nós. Isto porque, como nos filmes de terror, por exemplo, vemos a cena desenrolar-se do ponto de vista da personagem, sabemos o que a pessoa está a pensar e vai fazer a seguir. Por isso é que considero ser a melhor forma de o fazer.
E como o robot transmitiria a informação para nós?
De várias maneiras, uma pode ser através de som, outra através de imagens transmitidas na parte superior de uma lente de uns óculos ou, eventualmente, poderá transmitir directamente para o cérebro.
Em que ponto está a investigação?
Actualmente trabalhamos muito na parte da visão e estamos a desenvolver um programa que entenda as acções ou reacções de um ser humano. Por exemplo, quando acenamos com a cabeça, o computador sabe que estamos a concordar com algo ou a perceber algo porque capta o som de alguém a falar connosco. E até pode saber com que estamos a falar porque está a ver a outra pessoa e tem internet, pelo que pode procurar informação sobre a mesma. Ou se nos esquecemos de alguém com quem já estivemos, o computador pode ajudar-nos a recordar.
Quando estará pronto este robot?
Tecnicamente, acredito que o reconhecimento facial não está muito longe. É o passo mais fácil que temos de dar e será para breve. Outro passo é o computador poder reconhecer as nossas funções. Por exemplo, se estivermos a cozinhar como sempre o fizemos e se errarmos, demorarmos muito tempo ou pararmos porque não nos lembramos como fazer (que é um sinal de demência), se isto ultrapassar um certo nível, o computador pode detectar e ajudar-nos se quisermos porque sabe que há dois anos cozinhávamos por determinadas fases e em que timmings o fazíamos. Estou confiante de que este robot pode ser conseguido em 10 anos.
Qual foi o seu maior momento de fama?
Foi em 2001, quando apareci durante 25 segundos na transmissão de uma partida do Super Bowl XXXV [futebol americano] por causa da tecnologia que desenvolvi parecida com a visão matrix e que foi usada durante os playbacks do jogo. A matrix é feita em estúdio por isso sabemos onde a acção se vai desenrolar. Num jogo, não se sabe onde vai ocorrer algo interessante, por isso as câmeras são substituídas por robots que acompanham o evento de forma a captar o melhor momento com múltiplas imagens de ângulos diferentes. Isto foi importante porque demonstrou como este tipo de tecnologia de visão computacional pode ser útil no dia a dia e divertida.
Acredita que os robots serão mais inteligentes do que nós no futuro?
Sem qualquer dúvida. O ser humano cria informação computorizada que é processar informação e tomar uma boa decisão a partir da mesma. A palavra computorizar significa todo o processo de dar sentido à informação e esse processo é o que o computador e o ser humano fazem. E não vejo qualquer diferença entre computadores e humanos em termos de o que é preciso ser feito e o que pode ser feito. A realização é diferente, o computador utiliza hoje chips de silicone, sinais electrónicos e magnéticos, os humanos usam neurónios que funcionam através de processos electroquímicos, mas apesar disso, o que acontece tanto electricamente como electroquimicamente, em termos de processamento de informação, é o mesmo. Assim, uma vez que o cérebro humano tem uma capacidade limitada e o de um computador pode ter qualquer tamanho; e que não conseguimos transferir conhecimento dos nossos cérebros para os dos nossos filhos instantaneamente e o computador pode copiá-lo instantaneamente, de forma a aumentar conhecimento mais rapidamente do que um ser humano, é obvio que na corrida para uma maior inteligência, o computador vai ultrapassar o ser humano mesmo num curto espaço de 30 anos.
Neste momento trabalho em duas áreas, uma a que chamo de ‘Tecnologia para a qualidade de vida’. No passado, as grandes aplicações de robótica eram sempre militares, espaciais ou industriais. O grande objectivo dessas aplicações era tornar o robot autónomo, ou seja, reduzir o envolvimento humano. O que é compreensível porque a nível militar não queremos enviar pessoas, a nível espacial não podemos enviar pessoas e nas fábricas, podemos usar pessoas mas a automatização reduz os custos e aumenta a eficácia e, por vezes, a qualidade. No entanto, no que toca a uma nova área que pressupõe ajudar pessoas idosas ou com deficiências, considero que a robótica pode ser usada para que essas pessoas vivam com independência. As pessoas não querem ter um robot que lhes faça tudo, desde levá-las para a cozinha e cozinhar para elas ou ligar-lhes a televisão ou fazer-lhes a higiene. As pessoas querem fazer o que podem fazer e não terem alguém que as ajude a fazer o que conseguem fazer. Ou seja, o objectivo deste novo campo robótico a que chamamos ‘Tecnologia para a qualidade de vida’ tem de ser o oposto, ou tem de envolver mais os humanos. O básico da qualidade de vida é fazer o que se consegue fazer sozinho. Por este motivo, o papel da robótica deve ser igual ao que se quer fazer menos o que se consegue fazer. Se existe uma diferença, é nesta que o robot deve actuar.
Como pode um robot entender as nossas necessidades?
Através de um projecto que baptizei como ‘Visão na primeira pessoa’. Antigamente, as câmeras eram colocadas no canto de uma sala e olhavam nós e tentavam adivinhar o que estávamos a pensar ou o que queríamos fazer. Se estávamos com sono, se queriamos sair ou se estivesse a cozinhar, em que fase estava. Nesta altura, os engenheiros pensavam que isto poderia ser feito colocando uma câmera num determinado ambiente apontada para uma pessoa. O que agora proponho é o contrário. Colocar a câmera em nós próprios para que esta veja o que vemos. Chamo a este projecto ‘Visão na primeira pessoa’ porque o computador age como a primeira pessoa em vez de agir como uma terceira pessoa que olha para nós. Isto porque, como nos filmes de terror, por exemplo, vemos a cena desenrolar-se do ponto de vista da personagem, sabemos o que a pessoa está a pensar e vai fazer a seguir. Por isso é que considero ser a melhor forma de o fazer.
E como o robot transmitiria a informação para nós?
De várias maneiras, uma pode ser através de som, outra através de imagens transmitidas na parte superior de uma lente de uns óculos ou, eventualmente, poderá transmitir directamente para o cérebro.
Em que ponto está a investigação?
Actualmente trabalhamos muito na parte da visão e estamos a desenvolver um programa que entenda as acções ou reacções de um ser humano. Por exemplo, quando acenamos com a cabeça, o computador sabe que estamos a concordar com algo ou a perceber algo porque capta o som de alguém a falar connosco. E até pode saber com que estamos a falar porque está a ver a outra pessoa e tem internet, pelo que pode procurar informação sobre a mesma. Ou se nos esquecemos de alguém com quem já estivemos, o computador pode ajudar-nos a recordar.
Quando estará pronto este robot?
Tecnicamente, acredito que o reconhecimento facial não está muito longe. É o passo mais fácil que temos de dar e será para breve. Outro passo é o computador poder reconhecer as nossas funções. Por exemplo, se estivermos a cozinhar como sempre o fizemos e se errarmos, demorarmos muito tempo ou pararmos porque não nos lembramos como fazer (que é um sinal de demência), se isto ultrapassar um certo nível, o computador pode detectar e ajudar-nos se quisermos porque sabe que há dois anos cozinhávamos por determinadas fases e em que timmings o fazíamos. Estou confiante de que este robot pode ser conseguido em 10 anos.
Qual foi o seu maior momento de fama?
Foi em 2001, quando apareci durante 25 segundos na transmissão de uma partida do Super Bowl XXXV [futebol americano] por causa da tecnologia que desenvolvi parecida com a visão matrix e que foi usada durante os playbacks do jogo. A matrix é feita em estúdio por isso sabemos onde a acção se vai desenrolar. Num jogo, não se sabe onde vai ocorrer algo interessante, por isso as câmeras são substituídas por robots que acompanham o evento de forma a captar o melhor momento com múltiplas imagens de ângulos diferentes. Isto foi importante porque demonstrou como este tipo de tecnologia de visão computacional pode ser útil no dia a dia e divertida.
Acredita que os robots serão mais inteligentes do que nós no futuro?
Sem qualquer dúvida. O ser humano cria informação computorizada que é processar informação e tomar uma boa decisão a partir da mesma. A palavra computorizar significa todo o processo de dar sentido à informação e esse processo é o que o computador e o ser humano fazem. E não vejo qualquer diferença entre computadores e humanos em termos de o que é preciso ser feito e o que pode ser feito. A realização é diferente, o computador utiliza hoje chips de silicone, sinais electrónicos e magnéticos, os humanos usam neurónios que funcionam através de processos electroquímicos, mas apesar disso, o que acontece tanto electricamente como electroquimicamente, em termos de processamento de informação, é o mesmo. Assim, uma vez que o cérebro humano tem uma capacidade limitada e o de um computador pode ter qualquer tamanho; e que não conseguimos transferir conhecimento dos nossos cérebros para os dos nossos filhos instantaneamente e o computador pode copiá-lo instantaneamente, de forma a aumentar conhecimento mais rapidamente do que um ser humano, é obvio que na corrida para uma maior inteligência, o computador vai ultrapassar o ser humano mesmo num curto espaço de 30 anos.