#CPBSB: projeto promove inclusão de deficientes visuais - Inoveduc

#CPBSB: projeto promove inclusão de deficientes visuais

WhatsAppFacebookShare

Apresentado no palco Ciência da Campus Party Brasília, o aplicativo Deep Vision promete dar maior acessibilidade aos deficientes visuais em atividades do dia a dia.

Em entrevista ao InovEduc, Otavio Calaça, um dos idealizadores do projeto, fala sobre como a técnica do deep learning pode ajudar na inclusão de pessoas portadoras de necessidades especiais visuais.

Um exemplo do uso do aplicativo é a transformação da imagem em linguagem semântica, possibilitando maior independência para esse público. Confira a seguir:

Otávio Calaça fala sobre a técnica deep learning e apresenta o aplicativo que desenvolveu com mais quatro pessoas, o Deep Vision

Qual o ponto de partida para criação do Deep Vision?

Inicialmente, a gente identificou que existe um aplicativo chamado Be My Eyes, cuja proposta é ter um colaborador que descreva o ambiente para o usuário que possui necessidade especiais visuais. A partir daí, pensamos na possibilidade de automatizar isso através de uma máquina, utilizando inteligência artificial.

Como você enxerga o deep learning na transformação da educação?

O deep learning é considerado uma das tecnologias mais atuais e disrruptivas de inteligência artificial. Através dessa técnica, eu consigo desenvolver projetos, como o Deep Vision, que promovem o conhecimento uma nova experiência de vida para os deficientes visuais, inclusive na educação. Por exemplo, os materiais não precisariam mais ser impressos em braile aumentando a gama de opções de livros e materiais para esse público. Além de estarem sempre atualizados. Com isso, eu tenho uma característica de transformação na educação muito mais forte.

Como será a acessibilidade desse aplicativo?

Atualmente, você encontra o Deep Vision na Google Play, a versão IOS está sendo desenvolvida. Depois de instalado, apresenta uma interface com apenas um botão, que permite tirar uma foto do ambiente ou executar dois tipos de comando: veja e leia. Quando o usuário falar veja, a ferramenta tira uma foto do ambiente e devolve um descrição semântica. Se a pessoa falar leia, o aplicativo tira uma foto mais focada tentando identificar letras ou palavras para conseguir ler o texto. Assim, não haverá tanta necessidade em aprender braile ou ter uma impressora específica para essa finalidade. Outro aspecto importante da funcionalide leia, é a possibilidade de fazer o reconhecimento de textos em ambientes, por exemplo uma porta de banheiro público. Ao apontar para o lugar específico, a pessoa saberá se é banheiro feminino ou masculino. Isso promove uma maior independência para executar coisas simples na vida.

 

Otavio Calaça é professor da Universidade Federal de Goiás e do Instituto Federal de Goiás, atualmente cursando doutorado em Inteligência Artificial. Membro fundador do Grupo de Desenvolvedores PHP de Goiás e das comunidades Deep Learnig Brasil e Big Data GO.

Cinthia Guedes

Cinthia Guedes

cinthia.guedes@folhadirigida.com.br

Ver todas as postagens publicadas por Cinthia Guedes