Nossos equipamentos são bastante inteligentes. Eles sabem o que escrever e tocar, o que dizemos e onde estamos; eles sequer sabem como nós olhamos o “como”, mas eles não tem muita noção sobre o que sentimos e o que queremos dizemos. Este vínculo ainda ausente entre humanos e máquinas é também o tema para Tecnologias Emergentes, sugerindo “as máquinas estão se tornando compreensíveis aos seres humanos e ao meio ambiente, por exemplo, reconhecer a emoção na voz de uma pessoa” Estamos todos de acordo que as emoções humanas são complicadas, e sem dúvida, a voz humana pode ser o mais pessoal e revelador ” designador emocional. “Mas a próxima grande revolução que estamos esperando para acontecer será a Análise Emocional de cada Pessoa.
Nós todos sabemos que as palavras por si só nem sempre contam toda a história. Sem dúvida, para compreender verdadeiramente precisamos ir além do verbal. Em muitos casos, não é o que dizemos, mas como dizemos. Sabemos disso intuitivamente, e estudos em neuropsicologia nos últimos 50 anos têm demonstrado que a linguagem corporal e entonação vocal ter um impacto maior do que a sua escolha real das palavras.
Quando você conhece alguém, em menos de 10 segundos depois de ele ou ela começa a falar, você já formou uma opinião sobre esta pessoa.
Emotional Analytics é um novo campo que se concentra em identificar e analisar o espectro de emoções humanas, incluindo humor, atitude e personalidade emocional.
Agora imagine Emotional Analytics embutidos dentro de aplicativos de call center e ou dispositivos móveis?
Abrindo uma nova dimensão de interfaces homem-máquina. Máquinas de imagem (e seus usuários) – finalmente – compreender quem somos, o que sentimos e o que realmente significam. Você pode imaginar um mundo, onde as pessoas também estão mais em contato com seus próprios lados emocionais? Acreditamos que este mundo é praticamente ao virar da esquina.
A introdução de um giroscópio embutido smartphones revolucionou ainda mais jogos para celulares, que, por sua vez, está agora a ser introduzido no Google Glass. Em todos estes exemplos aqueles que compreenderam o valor da nova interface, resistiu ao impulso de fazer uma rápida correções para suas soluções atuais e deu certo, fizeram grande.
Nós pensamos que a introdução de Emotional Analytics promete um impacto igualmente a mudança do jogo. É mais do que adicionar alguns recursos extras – vemos uma interface totalmente revisto e emocionalmente consciente. E com uma nova interface, você precisa também de repensar a sua proposta de valor. Além disso, imagine o potencial de adoção e participação de mercado em todos os setores – provavelmente para impulsionar ainda mais o estimativa de 300 mil milhões de aplicações móveis transfere anualmente.
As palavras são superestimadas. Linguagem cognitiva é um ponto de referência emocional pobres. No entanto, a maior parte da indústria de análise de sentimentos está focada em palavras. Pense em emoções como velas de ignição do seu carro – pequenos e escondidos, mas responsáveis pela combustão, resultando que, finalmente, os poderes do carro. Da mesma forma, as emoções convocar as palavras do córtex pré-frontal; que vesti-los através da aplicação de filtros culturais e normas sociais e executá-los através de nossa cognição personalizada. O resultado é agora uma mistura quase indistinguível de que as emoções são apenas um componente pequeno e diluída.
Falando de “comunicação de sentimentos e atitudes”, a muito citada fórmula de comunicação não-verbal, sugeridos em ” mensagens silenciosas “que apenas 7 por cento do nosso impacto comunicacional referentes a sentimentos e atitudes são baseadas na linguagem verbal. A maior parte é entregue por linguagem corporal modulações vocais. Nossos entonações são literalmente sintonizado por nossas emoções – alegria ou tristeza, excitação ou depressão, raiva ou ansiedade. Livre de linguagem a música da nossa expressão vocal é universal e soa verdadeiro em toda raças e culturas. E não apenas os seres humanos.
Ironicamente, a maioria das análises dos sentimentos é focada em descobrir os sete por cento com resultados mistos. Optar por usar uma varredura do cérebro e decifrar o mistério da linguagem humana. Usando ressonância magnética, Dr. Sophie Scott na University College London fez exatamente isso que mostra como o cérebro leva discurso e separa-la em palavras e “melodia”. Seus estudos sugerem palavras são desviados para o lobo temporal esquerdo para processamento, enquanto a melodia é canalizada para o lado direito do cérebro, uma região mais estimulada pela música. “Interessante, pois pode ser, vestindo uma engenhoca semelhante Lady Gaga em nossas cabeças para identificar emoções em cada dia conversas certamente não iria encontrar-se com “aplausos”.
Não é o que você diz, mas como você diz. Emoções vivem principalmente na entonação e linguagem corporal. É a maneira que nós estamos ligados. Você pode ter ouvido o ditado francês “c’est le ton qui fait la musique”, que se traduz em “é o tom que faz a música, E não é o que você diz, mas como você diz” É a combinação nossas modulações vocais (e postura corporal – tanto ativado pelo mesmo parte do nosso cérebro que produz emoções), e a memória que o ouvinte tem para essa melodia, que tanto faz a pessoa que estamos a falando ou ouvindo. É por isso que podemos detectar rapidamente a emoção de deterioração.
Comunicação vocal e linguagem corporal andam de mãos dadas. Postura, marcha e expressão facial transmite ainda mais o que está acontecendo dentro de nós como uma pose de poderoso e expansivo realmente muda hormônios e comportamento de uma pessoa. “Então, fazer uma pose também pode melhorar o seu impacto sobre seus ouvintes. Em outras palavras (literalmente), parece que ambos podem se tornar grandes emoções critério – muito superior à linguagem e texto. Em princípio eles são. Mas a realidade é diferente.
Olhar é bom. Ouvir é melhor. Ganhando entendimento de pistas visuais oferecidas pela linguagem corporal e expressões faciais são altamente complexas. Pesquisadores da Universidade Hebraica de Jerusalém e da Universidade de Nova York e da Universidade de Princeton descobriram que a linguagem corporal dos tenistas proporcionou melhores pistas (do que suas expressões faciais) na tentativa de julgar onde um jogador observado havia “sofrido fortes experiências positivas ou negativas.”
Aplicativos de reconhecimento facial estão por toda parte, embora com um apresentador falando e olhando diretamente para a câmera e garantir perfeita iluminação e sombreamento adequado é complicado. Além disso, o “sujeito” está consciente e pode “ligar”, como ele sabe que está diante das câmeras.
Estamos rodeados por voz. Ele está presente em tudo o que fazemos – mesmo quando não prestam atenção, conversando, deixando nossas mentes deriva em pensamentos. Ouvir é fácil e muito mais fácil, já que fazê-lo naturalmente – mesmo no escuro, não temos problemas de audição, enquanto uma força câmera. Além disso, podemos intuitivamente discernir a autenticidade de um orador – ainda melhor quando no escuro. Nossos ouvidos para ouvir os “indicadores vocais” e literalmente executar uma dupla tomada auditiva quando ouvimos um aumento nas taxas de fala ou uma diminuição na duração da pausa, que são indicadores poderosos de melhorias de humor em pacientes que sofrem de depressão, por exemplo: Estamos com um aparelho de ressonância para detectar as emoções com a voz da pessoa que está falando com outra. E uma vez que as emoções – positivas e / ou negativas – são fundamentais para os nossos processos de tomada de decisão, aplicando-se uma solução de entonação vocal dirigido é mais fácil e superior. Traduzido em sua vida diária, não seria muito mais enriquecedor para desenvolver aplicativos e máquinas de primeira linha para fazer o que fazemos intuitivamente o tempo todo?
Emotional Analytics permite que você obtenha mais profundo contexto e significado em tudo que faz. Emotional Analytics pode transformar negócios, jogos, mídia e marketing e impactar sua saúde e vida amorosa e muito mais. Não importa onde você (e seus clientes) é e não importa o idioma que falam. Na vida, não é sobre o que você diz, mas como você diz. Imagine que essa camada inicial de compreensão emocional em todos os aspectos de sua vida incorporada em cada voz assistida e voz habilitado dispositivo que lhe permite obter uma melhor retenção do contexto e significado em praticamente tudo que você faz. O potencial é ilimitado e as implementações e aplicações prováveis são incontáveis. Isso poderia ser realmente a “última tecnologia “?
Pensando ousado – como é que você vai usá-lo? Onde é que você espera que ele? Seja criativo. Não tente se conformar com os paradigmas existentes. Eleve o seu aplicativo. Ilumine ponto cego emocional de seu aplicativo com Emotional Analytics que decifrar o código da dimensão emocional humano. Vamos transformar a forma como interagimos com as máquinas e com o outro.
CADASTRE-SE no Blog Televendas & Cobrança e receba semanalmente por e-mail nosso Newsletter com os principais artigos, vagas, notícias do mercado, além de concorrer a prêmios mensais.