
Stephen Hawking impressionou o mundo há quatro décadas, quando começou a falar através de um computador montado em sua cadeira de rodas.
Agora, graças a IApessoas com deficiências semelhantes podem ir ainda mais longe – trocando a voz robótica por uma versão digital realista de si mesmas falando em uma tela.
Uma nova invenção permitirá que pessoas com doenças degenerativas criem um avatar de si mesmas que possa falar por elas, com voz e rosto próprios.
Eles interagirão com uma tela à sua frente na cadeira de rodas e suas respostas aparecerão como um avatar em uma tela acima de suas cabeças.
O avatar será exatamente igual ao usuário, apresentando não apenas a mesma voz, mas também as mesmas expressões faciais, emoções, tom e inflexões que tinham antes.
Ele também será treinado em sua personalidade e experiências, incluindo relacionamentos anteriores e bate-papos no Whatsapp – e aprenderá tudo, desde seu senso de humor até sua família.
Ao conversar com alguém, a IA ouvirá a conversa com um microfone e gerará três respostas para o usuário escolher usando apenas os olhos.
Embora Hawking tenha levado cerca de cinco minutos para compor uma ou duas frases curtas, o novo sistema permite que os usuários respondam em tempo real em apenas três segundos.
Uma nova invenção permitirá que pessoas com doenças degenerativas criem um avatar de si mesmas que possa falar por elas, com voz e rosto próprios
Stephen Hawking impressionou o mundo há quatro décadas, quando começou a falar através de um computador montado em sua cadeira de rodas. Agora, graças à IA, pessoas com deficiências semelhantes podem ir ainda mais longe
Mais de 100 milhões de pessoas em todo o mundo vivem com graves limitações de fala devido a doenças como a doença dos neurônios motores (MND), paralisia cerebral, lesões cerebrais traumáticas e acidente vascular cerebral.
No entanto, 98 por cento dos doentes não têm acesso a dispositivos que os ajudem a comunicar porque as máquinas são muitas vezes demasiado caras.
Ao lançar o software hoje no AI Summit em Nova York, LaVonne Roberts, executivo-chefe da Scott-Morgan Foundation (SMF), a instituição de caridade que impulsiona a iniciativa, disse ao Daily Mail: ‘O que adoro é que ele devolve a voz às pessoas.
‘Para pessoas que eram tão engraçadas e espirituosas, mas que agora têm um rosto imóvel, podemos capturar a sua personalidade e ajudá-las a expressá-la novamente através do avatar.’
Em vez de apenas usar um chatbot genérico como o ChatGPT, a IA é profundamente treinada em cada usuário para que possa pensar essencialmente como ele.
Com o tempo, ficará cada vez mais sintonizado com as preferências e pensamentos do paciente.
Na prática, a IA ouvirá todas as conversas do usuário, elaborará o contexto e, em seguida, fornecerá três respostas possíveis na tela para o paciente escolher – permitindo que ele responda a qualquer pergunta com uma frase de uma a duas palavras em 3 segundos.
“Com a IA, a ideia era treiná-la usando vários agentes para realmente aproximá-la o máximo possível da personalidade do usuário”, disse Roberts.
Pela primeira vez no mundo, o software – chamado SMF VoXAI – foi arquitetado inteiramente por meio de rastreamento ocular pelo tecnólogo-chefe da SMF, Bernard Muller, que está totalmente paralisado com ELA.
Em vez de apenas usar um chatbot genérico como o ChatGPT, a IA é profundamente treinada em cada usuário para que possa pensar essencialmente como eles
“O que muitos pacientes com problemas de fala acharam frustrante foi que não conseguiam acompanhar o fluxo de uma conversa.
“Essa tecnologia acelera a comunicação para que agora eles possam conversar em tempo real.
‘A comunicação deve ser um direito básico.
‘São as coisas simples – desde entrar no Starbucks e pedir um café sem ter que esperar na fila até poder dizer aos filhos que os amam com toda a emoção.’
Pela primeira vez no mundo, o software – chamado SMF VoXAI – foi arquitetado inteiramente por meio de rastreamento ocular pelo tecnólogo-chefe da SMF, Bernard Muller, que está totalmente paralisado com ELA.
Ele foi criado em parceria com a empresa israelense D – ID, que trabalhou nos avatares, a empresa britânica ElevenLabs, que forneceu a voz clonada, e chips da Nvidia, com sede nos EUA.
Gil Perry, presidente-executivo e cofundador da D-ID, disse que normalmente trabalham com as maiores empresas dos Estados Unidos para fornecer assistentes digitais para atendimento ao cliente ou vídeos de treinamento, mas a empresa sempre teve como objetivo ter um impacto social.
Ele disse ao Daily Mail: “Mesmo que a pessoa tenha perdido a capacidade de demonstrar emoções, não é mais um desafio gerar um avatar que se pareça, fale e se mova exatamente como ela.
‘É incrível ouvir as pessoas nos dizerem que trouxemos seu sorriso e sua vida de volta.’
O software estará disponível gratuitamente e o dispositivo final será adaptado e adaptado às necessidades e habilidades específicas de cada usuário.
A SMF projetou um protótipo que fixa duas telas à cadeira de rodas do paciente e agora procura uma empresa de hardware que permita ampliar isso.
