A tecnologia na vida íntima das pessoas

Uma pesquisa feita pelo Gartner prevê que, até 2022, os dispositivos pessoais saberão mais sobre o estado emocional de um indivíduo do que a sua própria família. Segundo a diretora de pesquisa da consultoria, Roberta Cozza, o uso de Inteligência Artificial com recursos emocionais e computação afetiva vão permitir que os objetos do dia a dia detectem, analisem, processem e respondam aos humores e aos estados emocionais das pessoas, permitindo, assim, uma experiência mais personalizada.

Sem dúvidas, os dispositivos dotados de Inteligência Artificial já fazem parte da vida das pessoas e os episódios perturbadores da série Black Mirror parecem estar cada dia mais próximos da nossa realidade. Segundo o publicitário Fred Saldanha, diretor-executivo de criação da agência Huge Brooklyn, de Nova York, as vendas dos assistentes pessoais Alexa, da Amazon, e Google Home, já atingiram oito milhões de unidades, o que é um volume bastante expressivo, pois se trata de gadgets ainda focados em nichos de consumidores. Fred afirma, ainda, que o mercado de software de integração deve atingir a marca de US$ 36,7 bilhões, em termos globais, até 2021.

Assim como todas as tecnologias que vem sendo discutidas, a vantagem será de quem sair na frente primeiro. Uma das maiores dificuldades, nesse sentido, é justamente a interação homem-máquina, um dos campos da Computação Afetiva, e que vem, cada vez mais, se tornando objeto de pesquisa. O Eldorado pesquisa esse tema em uma de suas Oficinas Tecnológicas, programa que visa o estudo/pesquisa de tecnologias emergentes dentro da instituição.

As modalidades da Computação Afetiva

Conforme já falamos no blog, a computação afetiva é uma área da informática que utiliza as emoções humanas na produção de hardware e software, fornecendo ao computador a habilidade de detectar emoções humanas.

Existem duas abordagens diferentes na computação afetiva. A primeira é fazer com que o computador tenha emoções, enquanto a segunda tem como foco a interpretação das emoções do usuário pela máquina, que é exatamente o foco do Instituto Eldorado.

A interpretação das emoções do usuário para a criação de novas tecnologias

Como estudo de caso, o Eldorado elaborou e criou uma aplicação Android, ainda em protótipo, capaz de detectar uma emoção – felicidade, tristeza, surpresa, raiva, medo, desprezo, desgosto ou neutro – e colocar uma música de acordo com os sentimentos da pessoa.

Para o desenvolvimento desse protótipo, foi utilizada uma base de dados composta por mais de 30 mil imagens rotuladas de acordo a expressão facial das pessoas. Através desta base, foi implementado um classificador de emoções utilizando redes neurais convolucionais (Deep Learning).

A partir do momento que a câmera detecta uma expressão – felicidade, por exemplo – o sistema envia um evento para o music player (Spotify, por exemplo) e toca uma música específica para aquele momento. O mais interessante é que o usuário pode fazer essa configuração antes, então ele vai ouvir algo que realmente gosta para o momento.

Hoje, construímos esse estudo em cima da música, mas esse é um modelo que pode ser utilizado em diversos cenários. Por exemplo, se a pessoa está dirigindo e detectou uma expressão de sonolência, o carro poderia tomar uma ação e pará-lo. Pensando em outros cenários, um aparelho de TV poderá configurar canais automaticamente de acordo com as expressões faciais do telespectador ou jogos digitais podem levar em conta as emoções do jogador e trazer experiências mais personalizadas para o momento do indivíduo.

Para finalizar, o Gartner afirma que, até 2021, 10% dos usuários de dispositivos vestíveis (wearables) terão mudado os seus estilos de vida e, assim, aumentarão suas expectativas de vida em uma média de seis meses. Sem dúvidas, é uma área que ainda tem muito a crescer e ser explorada. Mais do que isso, é uma tecnologia que vai revolucionar a vida das pessoas.