google-site-verification: google24d2508ee3d615d5.html INFORMÁTICA UNECIM: Computação por gestos

terça-feira, 4 de agosto de 2009

Computação por gestos


SÃO PAULO - A computação por gestos está saindo dos laboratórios e da ficção para aposentar os controles convencionais.

Quando Steve Jobs dedilhou pela primeira vez em público o iPhone, em janeiro de 2007, ele não estava só exibindo o que viria a ser o celular mais desejado de todos os tempos. O visionário da Apple também mostrou que as interfaces com reconhecimento de gestos já estão maduras para deixar os laboratórios e telas de cinema para entrar na vida dos simples mortais. Poucos meses depois foi a vez da Microsoft, com o seu computador em forma de mesa interativa, o Surface, explicitar o potencial da computação por gestos, onde mouse, teclado, botões e controles tradicionais são substituídos por movimentos naturais do corpo. Mas a convicção de que estamos prestes a mudar radicalmente a forma como interagimos com as máquinas vai bem além dos laboratórios dos eternos rivais em computação pessoal.

No relatório Computação Por Gestos: O Fim Do Mouse, divulgado em fevereiro do ano passado, o instituto de pesquisas Gartner concluiu que em três ou cinco anos o ambiente computacional será impactado de maneira significativa pela tecnologia de reconhecimentos de gestos. Difícil mensurar o significado dessa previsão? Então, imagine seu provável cotidiano em um futuro não tão distante. Que fazer uma ligação? Abra a palma da mão e digite os números. Tirar uma foto? Faça um gesto em forma de moldura. Ainda não sabe controlar os ícones da área de trabalho? Como um malabarista virtual, movimente as mãos.

Por mais fictícias que pareçam, essas aplicações já estão sendo testadas no laboratório da professora Pattie Maes no Media Lab do Massachussetts Institute of Technology (MIT). Batizado de Sixth Sense, o projeto foi desenvolvido em oito meses pelo orientando dela, Pranav Mistry, de 28 anos. Ao custo de 350 dólares, o protótipo integra projetor de bolso, espelho e câmera, que, em formato de um colar acoplado ao tórax, são ligados a um minilaptop. A câmera captura os gestos da mão, envia esses dados para o laptop e um software baseado em algoritmos de visão computacional rastreia e interpreta os movimentos das mãos de acordo com os marcadores coloridos que o usuário deve usar nos dedos.

"Os equipamentos já cabem no bolso e nos mantêm conectados o tempo todo ao mundo digital. Mas não há nenhuma ponte entre o virtual e as interações do mundo físico", observa Pranav. "A ideia é libertar a informação da tela e integrá-la completamente ao mundo tangível por meio de controles gestuais."

Com isso, além dos proveitos acima, é possível utilizar o Sixth Sense para coletar informações sobre objetos em tempo real. Por exemplo, o sistema pode ser instruído com um gesto para rastrear a capa de um livro e projetar dados das resenhas da Amazon. com sobre ele. "A proposta é transformar o mundo todo em um computador", diz. Pranav já está trabalhando em soluções para integrar o sistema a telefones celulares. Segundo ele, a tecnologia, que foi apresentada no início de 2009, deve chegar ao mercado em dois anos no máximo.
Fonte:(http://info.abril.com.br/noticias/ciencia/sem-mouse-sem-fio-sem-tela-03082009-20.shl)

Nenhum comentário :

Postar um comentário