Formula E e Google Cloud desenvolvem áudio descritivo para fãs com deficiência visual

A Fórmula E, em parceria com o Google Cloud, lançou um projeto inovador para tornar suas corridas mais acessíveis a torcedores com deficiência visual. Durante o Google Cloud Summit em Londres, o diretor-executivo da Fórmula E, Jeff Dodds, apresentou uma nova iniciativa que utiliza a tecnologia de inteligência artificial do Google Cloud para criar resumos em áudio descritivo, disponíveis em várias línguas, de cada corrida da E-Prix. Esses resumos permitirão que os fãs tenham acesso dinâmico a tudo o que aconteceu na corrida logo após o término.

A ideia surgiu durante um hackathon do Google Cloud realizado no E-Prix de Londres em 2024. O projeto está sendo desenvolvido em colaboração com o Royal National Institute of Blind People (RNIB), que garantirá que o áudio descritivo atenda às necessidades dos usuários com deficiência visual. Para isso, a Fórmula E e o Google Cloud planejam realizar grupos de foco e testes com usuários durante as próximas corridas em Berlim e Londres, com a previsão de lançamento completo para a temporada 12.

Jeff Dodds ressaltou a importância de tornar a experiência de corridas elétricas acessível a todos. Ele destacou que a colaboração com o Google Cloud é um exemplo de como a tecnologia pode beneficiar a inclusão, permitindo que torcedores com deficiência visual vivenciem a emoção da competição.

John Abel, diretor da Google Cloud, também comentou sobre a importância dessa iniciativa. Ele afirmou que a natureza visual das corridas muitas vezes impede que pessoas com deficiência visual aproveitem o evento, mas a tecnologia de inteligência artificial será utilizada para criar um relato em áudio que capte a velocidade, a estratégia e a emoção das corridas de Fórmula E.

Sonali Rai, do RNIB, destacou que a descrição em áudio transforma a maneira como os fãs com deficiência visual podem se envolver com o esporte. Ela afirmou que a colaboração com a Fórmula E e o Google Cloud traz uma nova forma de contar a história das corridas, permitindo que esses torcedores sintam os sons dos carros e a intensidade do público.

O processo para criar os resumos de áudio envolve várias etapas, todas apoiadas pela plataforma de inteligência artificial Vertex AI do Google. Primeiro, o modelo chamado Chirp faz a transcrição dos comentários ao vivo das corridas. Em seguida, os modelos Gemini analisam essas transcrições juntamente com dados de corrida e temporização, identificando eventos importantes, como ultrapassagens e paradas estratégicas, e elaboram um resumo que é informativo e interessante. Por fim, esse texto é transformado em fala natural por meio de uma tecnologia avançada de texto-para-fala, resultando em um relatório de áudio que estará pronto em minutos após o fim da corrida.

Os resumos de áudio serão disponibilizados em mais de 15 idiomas, incluindo inglês, espanhol, francês, alemão, mandarim e árabe, e poderão ser acessados por meio de plataformas populares de streaming, como o Spotify. Essa iniciativa representa um avanço significativo na inclusão de torcedores com deficiência visual no mundo das corridas.