Skip to content

Mochila alimentada por IA ajuda os deficientes visuais a navegar pelo mundo

Uma Mochila Alimentada Por Ia Ajuda Os Deficientes Visuais A Navegar Pelo Mundo Ao Seu Redor
Uma Mochila Alimentada Por Ia Ajuda Os Deficientes Visuais A Navegar Pelo Mundo Ao Seu Redor

Pessoas com deficiência visual logo poderão ficar sem bengala e cão-guia graças a um novo dispositivo desenvolvido por engenheiros da Universidade da Geórgia, nos Estados Unidos. Uma mochila controlada por voz e assistida por IA projetada por Jagadish K. Mahendran e sua equipe, um desenvolvedor de inteligência artificial (IA), pode ajudar os deficientes visuais a navegar e perceber o mundo ao seu redor. O sistema pode rastrear obstáculos em tempo real e descrever os arredores de uma pessoa.

A mochila alimentada por IA ajuda a identificar desafios comuns, como sinais de trânsito, obstáculos suspensos, passagens de zebra, objetos em movimento e mudanças de elevação ao caminhar em um dispositivo interativo de baixo consumo de energia.

A equipe de engenharia do sistema disse que esconder a parte eletrônica é o objetivo principal para que os usuários não pareçam ciborgues andando na rua. O sistema de ajuda visual está alojado em uma pequena mochila que abriga uma unidade de computação host, como um laptop com um dispositivo GPS conectado.

Um colete esconde várias câmeras – uma única câmera 4k que fornece informações de cores e um par de câmeras estereoscópicas que mapeiam a profundidade de campo. Uma bolsa de cinto é usada para armazenar uma bateria de bolso que tem uma vida útil de aproximadamente oito horas. Uma Luxonis OAK-D, câmera de IA espacial, pode ser fixada no colete ou na bolsa do cinto e, em seguida, conectada à unidade do computador na mochila.

A unidade OAK-D é um dispositivo de IA versátil e poderoso que roda em cima do Intel Movidius VPU e do kit de ferramentas Intel Distribution of OpenVINO para inferência de IA de ponta no chip. É capaz de executar redes neurais avançadas, ao mesmo tempo que fornece funções de visão computacional rápidas.

Os dados visuais processados são então retransmitidos para fones de ouvido via bluetooth para que o usuário saiba o que está ao seu redor. O usuário pode interagir com o sistema por meio de solicitações e comandos de voz, e o sistema responde com informações verbais. O sistema transmite de forma audível informações sobre obstáculos comuns, incluindo sinais, ramais e pedestres. Também avisa sobre passadeiras, meios-fios, escadas e entradas futuras.

O novo sistema parece muito mais detalhado e pode permitir que pessoas com visão limitada naveguem pelo mundo de forma independente. Ainda está em sua infância, mas a equipe espera acelerar o sistema tornando o projeto não comercial e de código aberto. O sistema atualmente requer um computador, mas imaginamos que no futuro ele poderia ser baseado em um smartphone ou um dia poderia ser integrado a óculos inteligentes.