PUCRS desenvolve projeto com IA para inclusão da população surda

Financiada pelo Google, iniciativa busca traduzir vídeos de Língua Brasileira de Sinais para português e vice-versa

Pesquisa objetiva a inclusão dos surdos - Banco de imagens/Canva

A Língua Brasileira de Sinais (Libras) é utilizada pela população surda para interagir com a sociedade, construir sua identidade e exercer a cidadania. Com o intuito de contribuir com a expansão dessa linguagem, pesquisadores da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) desenvolvem um projeto que visa diminuir a dificuldade de comunicação enfrentada por esse público. Financiada pelo Google, a iniciativa utiliza Inteligência Artificial (IA) para traduzir vídeos de Língua Brasileira de Sinais para português e vice-versa.

A ação foi contemplada pelo 'Google Award for Inclusion Research', que premia pesquisas inovadoras com alto impacto social. Em 2022, apenas cinco universidades da América Latina receberam esse auxílio. O apoio financeiro contribuirá para a compra de equipamentos específicos para pesquisa em redes neurais (GPUs) e para viabilizar a elaboração das soluções em software. 

O coordenador do projeto, o pesquisador da Escola Politécnica Rodrigo Barros, explica que o maior obstáculo está no desenvolvimento de redes neurais capazes de identificar as características dos gestos a partir de vídeos e traduzir essa representação em palavras equivalentes no Português brasileiro. "Além disso, estamos trabalhando em outros desafios que são comuns a todas as linguagens de sinais, como o fato de diferentes movimentos com mesmo significado, ou com múltiplas traduções e até mesmo variações regionais", destaca. 

Os estudos são feitos pelo Laboratório de Machine Learning Theory and Applications Lab (Malta) do Programa de Pós-Graduação em Ciência da Computação da PUCRS e visam contribuir com a maior base de dados anotada de sinais. Para tanto, realiza uma coleta de todas as informações disponíveis na internet.   

Com o auxílio da Inteligência artificial 

As redes neurais artificiais são modelos matemáticos de aprendizado de máquina (machine learning), uma das subáreas da IA. Com leve inspiração no funcionamento do cérebro humano, são utilizadas para resolução das mais diversas tarefas, como o aprimoramento de agentes conversacionais (chatbots) até criação de novos conteúdos visuais. Na iniciativa da PUCRS, as redes neurais serão responsáveis por compreender as gesticulações presentes nos vídeos e traduzi-los para o português brasileiro, e vice-versa. 

Multidisciplinar, o grupo de trabalho é composto pelos professores Lucas Silveira Kupssinskü (Escola Politécnica) e Janaína Pereira Claudio (Escola de Humanidades), além de bolsistas de iniciação científica, mestrandos e doutorandos. Em fase inicial, os pesquisadores coletam e realizam a curadoria dos mais de 20 mil filmes de sinais que integrarão o conjunto de dados. 

Conforme Rodrigo, após o recolhimento de cada vídeo, serão avaliados os gestos de acordo com o conjunto já coletado, já que Libras é suscetível a pares polissêmicos (uma palavra pode ter mais de um sinal no Brasil). O coordenador acredita que o projeto é importante, pois pode melhorar a qualidade de vida e a inclusão dos surdos. "Com a nossa pesquisa, buscamos diminuir e, quem sabe, eliminar dificuldades de comunicação por meio de um método totalmente automático de tradução bidirecional", conclui.

Comentários