PT1038291E - Aparelho e método para detectar emoções. - Google Patents

Aparelho e método para detectar emoções. Download PDF

Info

Publication number
PT1038291E
PT1038291E PT98960070T PT98960070T PT1038291E PT 1038291 E PT1038291 E PT 1038291E PT 98960070 T PT98960070 T PT 98960070T PT 98960070 T PT98960070 T PT 98960070T PT 1038291 E PT1038291 E PT 1038291E
Authority
PT
Portugal
Prior art keywords
information
intonation
speech
sample
emotional state
Prior art date
Application number
PT98960070T
Other languages
English (en)
Inventor
Amir Liberman
Original Assignee
Amir Liberman
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amir Liberman filed Critical Amir Liberman
Publication of PT1038291E publication Critical patent/PT1038291E/pt

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Steroid Compounds (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Description

1
DESCRIÇÃO "APARELHO E MÉTODOS PARA DETECTAR EMOÇÕES"
ÂMBITO DA INVENÇÃO A presente invenção está relacionada com um aparelho e os métodos para monitorizar estados emocionais.
ANTECEDENTES DA INVENÇÃO 0 pedido de patente PCT publicado WO 97/01984 (PCT/IL96/00027) descreve um método para efectuar a regulação do biofeedback de pelo menos uma variável fisiológica característica do estado emocional de um sujeito, incluindo os passos de monitorização de pelo menos um parâmetro da fala caracteristico do estado emocional do sujeito a fim de produzir um sinal indicador e utilizar este sinal indicador para atribuir ao sujeito uma indicação de pelo menos uma variável fisiológica. 0 sistema permite que o método seja desenvolvido em modo autónomo o através da linha telefónica, em cujo caso o sinal indicador pode ser obtido numa localização afastada do sujeito. A informação relacionada com o estado emocional do sujeito pode ser transmitida vocalmente a um receptor remoto o textualmente através da Internet para depois ser processada conforme requerido. 0 pedido de patente europeia publicado n.° 94850185.3 (Publicação n.° 306 664 537 A2) descreve um método e configuração para determinar as tensões existentes numa 2 sequência falada. É criado um modelo de fala a partir de uma sequência reconhecida no discurso falado. Ao comparar a sequência falada com o discurso modelado obtém-se uma diferença entre eles. A patente norte-americana 1.384.721 descreve um método e aparelho para a análise da resposta fisiológica. A patente norte-americana 3.855.416 de Fuller descreve um método e aparelho para a análise da fonação que conduz a decisões válidas sobre a verdade/mentira através de uma avaliação efectuada por um componente de vibrato carregado pela energia da fala. A patente norte-americana 3.855.417 de Fuller descreve um método e aparelho para a análise da fonação que conduz a decisões válidas sobre a verdade/mentira através da comparação da região da energia espectral. A patente norte-americana 3.855.418 de Fuller descreve um método e aparelho para a análise da fonação que conduz a decisões válidas sobre a verdade/mentira através de uma avaliação efectuada por um componente de vibrato. A divulgação de todas as publicações indicadas na especificação e das publicações nela mencionadas, são incorporadas neste documento por referência. A patente norte-americana 4.093.821 de Williamson descreve um método e aparelho para identificar o estado emocional de uma pessoa através da determinação de planaltos no sinal de fala desmoludado em frequência.
SUMÁRIO DA INVENÇÃO A presente invenção visa fornecer um aparelho e métodos melhorados para monitorizar os estados emocionais 3 conforme definidos nas reivindicações independentes desta patente.
As realizações preferidas da invenção são especificadas nas reivindicações dependentes.
Proporciona-se assim, de acordo com uma realização preferida da presente invenção, um aparelho para a detecção do estado emocional de um indivíduo, aparelho que inclui um analisador de voz utilizável para processar uma amostra da fala gerada pelo indivíduo e obter, a partir dela, informação sobre a entoação, bem como um comunicador de emoções utilizável para produzir uma indicação de saída acerca do estado emocional do indivíduo baseada na informação sobre a entoação.
Também de acordo com uma realização preferida da presente invenção, a amostra de fala é transmitida através do telefone ao analisador de voz.
Ainda de acordo com uma realização preferida da presente invenção, os resultados sobre o estado emocional do indivíduo incluem um relatório sobre a detecção de mentiras baseado no estado emocional do indivíduo.
Também de acordo com uma realização preferida da presente invenção, a informação sobre a entoação inclui uma informação multidimensional sobre a entoação.
Ainda de acordo com uma realização preferida da presente invenção, a informação multidimensional inclui pelo menos uma informação tridimensional.
Também de acordo com uma realização preferida da presente invenção, a informação multidimensional inclui pelo menos uma informação quadridimensional. 4
Ainda de acordo com uma realização preferida da presente invenção, a informação sobre a entoação inclui informação referente aos picos.
Também de acordo com uma realização preferida da presente invenção, a informação referente aos picos inclui o número de picos num período de tempo predeterminado.
Também de acordo com uma realização preferida da presente invenção, a informação referente aos picos inclui a distribuição dos picos no tempo.
Adicionalmente de acordo com uma realização preferida da presente invenção, a informação sobre a entoação inclui informação referente aos planaltos.
Também de acordo com uma realização preferida da presente invenção, a informação referente aos planaltos inclui o número de planaltos num período de tempo predeterminado.
Ainda de acordo com uma realização preferida da presente invenção, a informação referente aos planaltos inclui informação relativamente ao comprimento dos planaltos.
Adicionalmente de acordo com uma realização preferida da presente invenção, a informação referente ao comprimento dos planaltos inclui um comprimento médio do planalto durante um período de tempo predeterminado.
Ainda de acordo com uma realização preferida da presente invenção, a informação referente ao comprimento dos planaltos inclui o erro padrão no comprimento do planalto durante um período de tempo predeterminado. É igualmente fornecido, de acordo com outra realização preferida da presente invenção, um sistema de detecção de mentiras que inclui um analisador de voz multidimensional 5 utilizável para processar uma amostra da fala gerada por um indivíduo e quantificar uma série de características da própria amostra, bem como um avaliador da credibilidade utilizável para produzir uma indicação de saída acerca da credibilidade do indivíduo, incluindo a detecção de mentiras, baseada na série de características quantificadas. É adicionalmente fornecido, de acordo com outra realização preferida da presente invenção, um método de detecção que abrange a captação da amostra da fala gerada por um indivíduo e a quantificação de uma série de características da própria amostra, bem como a produção de uma indicação de saída acerca da credibilidade do indivíduo, incluindo a detecção de mentiras, baseada na série de características quantificadas.
Também de acordo com uma realização preferida da presente invenção, a amostra de fala inclui um sinal de voz principal que apresenta uma pausa e em que o analisador de voz é utilizável para analisar a amostra de fala a fim de determinar a frequência da ocorrência dos planaltos, em que cada planalto indica que um sinal local de relativamente baixa frequência está sobreposto ao sinal de voz principal. Por exemplo, o comunicador de emoções pode fornecer uma indicação de saída adequada quando se verificar que a frequência da ocorrência dos planaltos muda.
De forma semelhante, cada pico assinala que um sinal local de frequência relativamente alta está sobreposto ao sinal de voz principal. Uma vantagem específica de analisar os planaltos e picos conforme é aqui mostrado e descrito consiste em que substancialmente todas as frequências do sinal de voz podem ser analisadas. 6 É também fornecido, de acordo com outra realização preferida da presente invenção, um método para detectar o estado emocional que inclui a determinação de uma gama de caracteristicas multidimensionais que distinguem a escala de emoções de um indivíduo quando em repouso através da monitorização do indivíduo para identificar uma pluralidade de parâmetros relacionados com as emoções, durante um primeiro período em que o indivíduo se encontra num estado emocional neutro, a definição da gama de caracteristicas multidimensionais como uma função da escala da pluralidade de parâmetros relacionados com as emoções durante o primeiro período e a monitorização do indivíduo para identificar uma série de parâmetros relacionados com as emoções, durante um segundo período em que se pretende detectar o estado emocional do indivíduo, para assim obter uma medição da série de parâmetros relacionados com as emoções e ajustar esta medição de forma a ter em consideração a gama de variação. É igualmente fornecido, de acordo com outra realização preferida da presente invenção, um método para detectar o estado emocional de um indivíduo, o qual abrange a captação de uma amostra da fala gerada pelo indivíduo e a obtenção de informação sobre a entoação a partir desta, bem como a produção de uma indicação de saida acerca do estado emocional do indivíduo baseada na informação sobre a entoação,
BREVE DESCRIÇÃO DOS DESENHOS 7 A presente invenção será entendida e apreciada a partir da seguinte descrição pormenorizada, considerada em conjunto com os desenhos, nos quais: A fig. IA é uma ilustração pictórica de um sistema para a monitorização online do estado emocional de um falante. A fig. 1B ilustra um fluxograma simplificado de um método preferido para a monitorização online do estado emocional de um falante. A fig. 2 é uma ilustração gráfica de um segmento de voz que inclui um número de picos, A fig. 3 é uma ilustração gráfica de um segmento de voz que inclui um número de planaltos. A fig. 4 ilustra um fluxograma simplificado de um método preferido para realizar o passo 40 da fig. 1B. A fig. 5 ilustra um fluxograma simplificado de um método preferido para realizar o passo da construção do perfil de emoção verdade/neutro da fig. 1B. A fig. 6 ilustra um fluxograma simplificado de um método preferido para realizar o passo 90 da fig. 1B num segmento especifico. A fig. 7 ilustra um fluxograma simplificado de um método preferido para realizar o passo 100 da fig. 1B. A fig. 8 ilustra um fluxograma simplificado de um método preferido para realizar o passo 105 da fig. 1B. A fig. 9 é uma ilustração pictórica de uma visualização em ecrã que mostra o formulário, em modo design, justo antes de começar a aplicação do Apêndice A. 8 A fig. 10 é uma ilustração pictórica de uma visualização em ecrã que mostra o formulário, no modo run do sistema do Apêndice A, durante a calibração aplicada a um sujeito especifico. A fig. 11 é uma ilustração pictórica de uma visualização em ecrã que mostra o formulário, no modo run do sistema do Apêndice A, durante o teste de um sujeito, e A fig. 12 ilustra um diagrama de blocos simplificado de um sistema preferido para implementar o método da fig. 1B.
Apresenta-se em anexo o apêndice seguinte, o qual ajuda na compreensão e apreciação de uma realização preferida da invenção aqui mostrada e descrita: O Apêndice A é uma listagem de computador de uma implementação de software preferida numa realização preferida da invenção aqui mostrada e descrita.
DESCRIÇÃO DETALHADA DAS REALIZAÇÕES PREFERIDAS
Uma parte da divulgação deste documento de patente contém material sujeito à protecção da propriedade intelectual. 0 proprietário dos direitos de autor não levanta objecção alguma contra a reprodução por telecópia por parte de qualquer pessoa do documento de patente ou da divulgação da patente conforme esta aparece no arquivo ou registo de patente do Gabinete de Patentes e Marcas, mas caso contrário reserva-se todos os direitos de autor. 9 A fig. IA é uma ilustração pictórica de um sistema para a monitorização online do estado emocional de um falante. Como se mostra na mesma, o input de fala que chega através da linha telefónica, na realização ilustrada, é recebido pelo sistema, o qual analisa este input de fala para obter uma indicação do estado emocional do falante, indicação que é transmitida ao utilizador, de preferência em tempo real, por exemplo no ecrã de visualização conforme é mostrado. A fig. 1B ilustra um fluxograma simplificado de um método preferido para a monitorização online do estado emocional de um falante. 0 método da fig. 1B inclui, de preferência, os seguintes passos:
Passo de inicialização 10: As constantes são definidas como os valores-limiar dos diversos parâmetros que definem as escalas consideradas indicadoras de várias emoções, tal como se descreve em detalhe a seguir.
Passo 20: Gravar uma voz, periodicamente ou a pedido. Por exemplo, podem ser gravados segmentos de voz de 0,5 segundos continuamente, isto é, cada 0,5 segundos. Alternativamente, podem ser considerados segmentos com qualquer outro comprimento apropriado, os quais podem ou não sobrepor-se. Por exemplo, os segmentos adjacentes podem sobrepor-se quase por completo, excepto uma ou algumas amostras.
Digitalizar a gravação da voz.
Adicionalmente ou alternativamente, podem ser amostrados segmentos sobrepostos da gravação.
Passo 30: Analisar o segmento de voz a fim de marcar a parte crucial do mesmo, isto é, a parte do segmento de voz que se pensa conter realmente a informação sobre a voz em 10 oposição ao ruído de fundo, Ura critério adequado para a detecção da informação sobre a voz é a amplitude, por exemplo, a primeira ocorrência de amplitude que exceda um certo limiar será considerada o início da informação sobre a voz e o fim da informação sobre a voz será considerado o ponto após o qual não se percebe som algum que exceda o limiar durante uma duração predeterminada.
Preferivelmente, as amostras da parte crucial são normalizadas, por exemplo, através da amplificação das amostras para tirar vantagem da gama de amplitudes completa que pode ser alojada na memória, por exemplo +/- 127 unidades de amplitude quando for utilizada uma memória de 8 bits.
Passo 40: Contar os picos e planaltos existentes na parte crucial. Calcular o comprimento de cada planalto identificado e calcular o comprimento médio do planalto na parte crucial, bem como o erro padrão no comprimento do planalto.
Um "pico" é um entalhe em forma de V, Por exemplo, o termo "pico" pode ser definido como: a. uma sequência de 3 amostras adjacentes nas que a primeira e terceira amostras são ambas superiores à amostra média, ou b. uma sequência de 3 amostras adjacentes nas que a primeira e terceira amostras são ambas inferiores à amostra média.
Um pico é identificado, de preferência, mesmo quando a primeira e terceira amostras diferem apenas muito pouco da amostra média, isto é, preferivelmente não existe um valor 11 limiar mínimo para a linha de base do pico, isto é, os picos surgidos numa amplitude muito baixa são ignorados porque se considera que estão relacionados com o ruído de fundo em vez de com a voz. A fig. 2 é uma ilustração gráfica de um segmento de voz 32 que incluí um número de picos 34.
Um "planalto" é uma planeidade local do sinal de voz. Por exemplo, um planalto pode ser definido como uma sequência plana cujo comprimento é superior a um limiar mínimo predeterminado e é inferior a um limiar máximo predeterminado, 0 limiar máximo é necessário para diferenciar a planeidade locai de um período de silêncio. Uma sequência pode ser considerada plana se a diferença de amplitude entre amostras consecutivas for inferior a um limiar predeterminado, tal como 5 unidades de amplitude quando for utilizada uma memória de 8 bits. A fig. 3 é uma ilustração gráfica de um segmento de voz 36 que inclui um número de planaltos 38, No Apêndice A, os planaltos são designados de "jumps". 0 sistema da presente invenção normalmente funciona num de dois modos: a. Calibração - Construir um perfil do estado emocional verdade/neutro do sujeito através da monitorização de um indivíduo enquanto este não estiver a mentir e/ou estiver num estado emocional neutro. b. Teste - Comparar a fala de um sujeito com o perfil do estado emocional verdade/neutro, conforme estabelecido durante a calibração, a fim de determinar o seu estado emocional e/ou se o indivíduo está ou não a ser verdadeiro. 12
Se o sistema for ser usado em modo calibração, o método prosseguirá desde o passo 50 até ao passo 60. Se o sistema for ser usado em modo de teste, o método prosseguirá desde o passo 50 até ao passo 80.
Passo 60: Se o passo 60 for alcançado, isto indicará que o segmento corrente foi processado para fins de calibração. Por conseguinte, a informação sobre picos e planaltos obtida no passo 40 será armazenada numa tabela de calibração.
Os processos dos passos 20 - 50 são aqui designados de "processos de entrada de gravação da voz". Se houver mais gravações de voz a serem introduzidas para fins de calibração, o método voltará ao passo 20. Se a entrada de todas as gravações de voz para fins de calibração tiver sido completada (passo 70), o método prosseguirá ao passo 80.
Passo 80: Construir o perfil do estado emocional verdade/neutro do sujeito que estiver a ser testado nesse momento. Isto completa o funcionamento em modo calibração. Subsequentemente, o sistema entra em modo teste, no qual as gravações de voz do sujeito são comparadas com o seu perfil emocional verdade/neutro a fim de identificar as ocorrências de falsidade ou emoção intensificada. O perfil do sujeito geralmente reflecte as tendências centrais da informação sobre picos/planaltos e normalmente é ajustado para ter em conta as perturbações da situação de calibração. Por exemplo, devido à tensão natural no começo do processo de calibração, as gravações de voz iniciais podem ser menos fiáveis que as gravações de voz subsequentes. Preferivelmente, para obter uma indicação 13 fiável das tendências centrais, podem ser descartadas as entradas extremas na tabela de calibração.
Os passos 90 em diante pertencem ao modo de teste.
Passo 90: Comparar a informação sobre picos/planaltos do segmento corrente com o perfil de emoção verdade/neutro calculado no passo 80.
Passo 100: Estabelecer os valores mínimos dos resultados do processo de comparação do passo 90 para categorizar o segmento corrente como sendo indicador de diversas emoções e/ou falsidade.
Passo 105: Opcionalmente, compensar a transição. O termo "transição" refere-se a um estado emocional residual que transita de um estado emocional "real" ocasionado por uma primeira situação percebida, em que o estado emocional residual persiste após a conclusão da primeira situação percebida. Um exemplo de uma realização apropriada do passo 105 é aqui descrito no fluxograma da fig. 8.
Passo 110: Mostra uma mensagem que indica a categoria determinada no passo 100.
Passo 120: Quando existirem segmentos de voz adicionais a serem analisados, voltar ao passo 20. Caso contrário, desistir. Para a calibração pode ser utilizado um número qualquer adequado de segmentos m, tal como 5 segmentos. A fig. 4 ilustra um fluxograma simplificado de um método preferido para realizar o passo 40 da fig. 1B. Conforme acima descrito no passo 40, a informação sobre picos/planaltos é obtida para a parte crucial de um segmento corrente de gravação de voz. O comprimento corrente do planalto é denominado "jj". 14 "Jjmap(jj)" é o número de planaltos cujo comprimento é exactamente jj. "Plat" é o contador que conta o número de planaltos independentemente do comprimento. "Thorn" é o contador que conta o número de picos. n é o número de amostras numa parte crucial sob teste.
No passo 150, os contadores de picos e planaltos são reiniciados.
No passo 160, iniciar o ciclo em todas as amostras de partes cruciais. 0 ciclo inicia-se na primeira amostra crucial e termina na última amostra crucial menos 2.
No passo 164 são gravadas as amplitudes das amostras no ciclo.
Nos passos 170 e 180 são detectados os picos e nos passos 190, 195, 200 e 210 são detectados os planaltos.
No passo 200, se o comprimento do planalto candidato estiver entre limites razoáveis, tal como entre 3 e 20, aumentará o número de planaltos de comprimento jj, bem como o Plat, o número total de planaltos. Caso contrário, isto é, se o comprimento do planalto candidato for inferior a 3 ou superior a 20, o planalto candidato não será considerado um planalto.
Tanto se o planalto candidato for considerado um "verdadeiro" planalto como se não, o comprimento do planalto jj será ajustado a zero (passo 210). O passo 220 constitui o final do ciclo, isto é, o ponto em que todas as amostras da sequência foram verificadas.
No passo 230, calcular o erro médio (AVJ) e padrão (JQ) da variável de comprimento do planalto, jjmap. 15
No passo 240, calcular SPT e SPJ. SPT é o número médio de picos por amostra, de preferência adequadamente normalizados. SPJ é o número médio de planaltos por amostra, de preferência adequadamente normalizados.
De acordo com a realização ilustrada, a detecção do estado emocional é multidimensional, isto é, o estado emocional é obtido a partir da informação sobre a fala através de uma pluralidade de variáveis intermédias preferivelmente independentes. A fig. 5 ilustra um fluxograma simplificado de um método preferido para realizar o passo da construção do perfil de emoção verdade/neutro da fig. 1B.
Na fig. 5, SPT <i) é o valor de SPT para o segmento i.
MinSPT é o valor de SPT minimo medido em qualquer um dos segmentos m.
MaxSPT e o valor de SPT máximo medido em qualquer um dos segmentos m.
MinSPJ é o valor de SPJ mínimo medido em qualquer um dos segmentos m.
MaxSPJ e o valor de SPJ máximo medido em qualquer um dos segmentos m.
MinJQ é o valor de JQ minimo medido em qualquer um dos segmentos m.
MaxSPj e o valor de SPj máximo medido em qualquer um dos segmentos m.
ResSPT é o tamanho da escala de valores de SPT identificados durante a calibração. De forma mais geral, ResSPT pode abranger qualquer indicação apropriada acerca da dimensão da variação no número de picos que são expectáveis quando o sujeito estiver num estado emocional de verdade/neutro. Portanto, se o número de planaltos num 16 segmento da fala for não normativo em relação ao ResSPT, então pode-se afirmar que o sujeito estará num estado emocional não neutro, tal como um estado emocional caracterizado pela excitação ou até por uma reacção de alerta. ResSPT é, por conseguinte, tipicamente uma entrada no processo de avaliação dos valores de SPT gerados durante circunstâncias emocionais desconhecidas.
ResSPJ é o tamanho da escala de valores de SPJ identificados durante a calibração. De forma mais geral, ResSPJ pode abranger qualquer indicação apropriada acerca da dimensão da variação no número de picos que são expectáveis quando o sujeito se encontrar num estado emocional de verdade/neutro. Portanto, se o número de planaltos num segmento da fala for não normativo em relação ao ResSPJ, então pode-se afirmar que o sujeito estará num estado emocional não neutro, tal como um estado emocional caracterizado por um sentimento de contradição interna ou dissonância cognitiva. ResSPJ é, por conseguinte, tipicamente uma entrada no processo de avaliação dos valores de SPJ gerados durante circunstâncias emocionais desconhecidas.
ResJQ é o tamanho da escala de valores de JQ identificados durante a calibração que serve de linha de base para a avaliação dos valores de JQ gerados durante circunstâncias emocionais desconhecidas.
Estima-se que a linha de base não precisa de ser necessariamente uma linha de base quadridimensional, conforme se mostra na fig. 5, mas poderá, alternativamente, ser até unidimensional ou ter muito mais do que A dimensões. 17 Ά fig. 6 ilustra um fluxograma simplificado de um método preferido para realizar o passo 90 da fig. 1B num segmento especifico. Conforme acima descrito no passo 90, a informação sobre picos/planaltos de um segmento corrente é comparada com a linha de base da emoção verdade/neutro computada no passo 80. 0 passo 400 é um passo de inicialização. 0 passo 410 computa o desvio de uma parte crucial corrente a partir do perfil do estado emocional verdade/neutro do sujeito previamente calculado. Na realização ilustrada, o desvio compreende um valor quadridimensional que inclui um primeiro componente relacionado com o número de picos, um segundo componente relacionado com o número de planaltos, um terceiro componente .relacionado com o erro padrão no comprimento do planalto e um quarto componente relacionado com o comprimento médio do planalto. No entanto, considera-se que podem ser utilizados componentes diferentes nas distintas aplicações. Por exemplo, nalgumas aplicações a distribuição dos picos (uniforme, irregular, etc.) ao longo de um intervalo de tempo pode ser útil para obter informação referente ao estado emocional do sujeito. "BreakpointT" (Ponto de interrupçãoT) é um valor limiar que caracteriza a gama aceitável de proporções entre o número médio de picos em circunstâncias emocionais de verdade/neutros e o número específico de picos da parte crucial corrente. "Breakpointj" (Ponto de interrupçãoj) é um valor limiar que caracteriza a gama aceitável de proporções entre o número médio de planaltos em circunstâncias emocionais de 18 verdade/neutros e o número especifico de planaltos da parte crucial corrente. **BreakpointQ" (Ponto de interrupçãoQ) é um valor limiar que caracteriza a gama aceitável de proporções entre o erro padrão médio no número de planaltos em circunstâncias emocionais de verdade/neutros e erro padrão especifico no número de planaltos da parte crucial corrente. "Breakpointa" (Ponto de inte.rrupçãoA) é um valor limiar que caracteriza a gama aceitável de proporções entre o comprimento médio do planalto em circunstâncias emocionais de verdade/neutros e o comprimento médio do planalto específico da parte crucial corrente.
Os passos 420 - 470 actualizam o perfil do sujeito para ter em conta a nova informação obtida a partir do segmento corrente. Na realização mostrada apenas são actualizados os valores de ResSPT e ResSPJ e só se o desvio de uma parte crucial corrente do perfil de estado emocional verdade/neutro previamente calculado for ou muito grande (por exemplo tal que exceda os valores limite superiores predeterminados) ou muito pequeno (por exemplo tal que fique por baixo de certos valores limite inferiores predeterminados tipicamente negativos). Se o desvio da parte crucial corrente do perfil de estado emocional verdade/neutro não for nem muito grande nem muito pequeno (por exemplo compreendido entre os valores limite superior e inferior), o perfil do sujeito ficará normalmente inalterado nesta fase.
Nos passos 460 e 470, se zzSPT e zzSPJ estiverem, respectivamente, muito perto de zero, então a sensibilidade 19 do sistema será aumentada através do decremento do ResSPT e ResSPJ respectivamente. 0 passo 480 produz combinações apropriadas, tipicamente específicas da aplicação, dos componentes do desvio calculados no passo 410. Estas combinações são utilizadas como base para os critérios de classificação emocional adequados, tais como os critérios de classificação emocional discriminados na fig. 7. Os critérios de classificação emocional da fig. 7 determinam se o sujeito deve ser classificado como exagerado ou está a ser mentiroso, evasivo, confuso, inseguro, excitado ou sarcástico. Considera-se, porém, que podem ser utilizadas diferentes classificações emocionais nas diversas situações.
Na realização ilustrada, a informação sobre SPT é usada principalmente para determinar o nivel de excitação. Mais especificamente, zzSPT é usado para determinar o valor de crEXCITE, que pode igualmente depender de parâmetros adicionais como o crSTRESS. Por exemplo, um valor de crEXCITE compreendido entre 70 e 120 pode ser considerado normal, enquanto que os valores compreendidos entre 120 e 160 podem ser considerados como indicadores de uma excitação média e os valores que ultrapassam 160 podem ser considerados como indicadores de um nível alto de excitação.
Na realização mostrada, a informação sobre SPJ é usada principalmente para determinar sentimentos de dissonância psicológica. Por exemplo, um valor de zzSPJ compreendido entre 0,6 e 1,2 pode ser considerado normal, enquanto que um valor compreendido entre 1,2 e 1,7 pode ser considerado como indicador de confusão ou incerteza. Um valor que 20 ultrapasse 1,7 pode ser considerado como indicador de consciência da própria voz da parte do sujeito e/ou de uma tentativa do sujeito para controlar a sua voz.
Na realização ilustrada, os valores de zzJQ e crSTRESSAR são utilizados principalmente para determinar o nível de tensão. Por exemplo, um valor de crSTRESS compreendido entre 70 e 120 pode ser considerado normal, enquanto que os valores superiores a 120 podem ser considerados como indicadores de uma tensão elevada.
Na realização mostrada, a informação sobre AVJ é utilizada para determinar a quantidade de pensamento investido nas palavras ou frases faladas. Por exemplo, se crTHINK ultrapassar um valor de 100, então a quantidade de pensamento investido na última frase proferida será maior que a quantidade de pensamento investido na fase de calibração. Isto quer dizer que a pessoa está a pensar mais no que está a dizer do que o fez na fase de calibração. Se este valor for inferior a 100, a pessoa estará a pensar menos no que está a dizer do que o fez na fase de calibração.
Na realização ilustrada, o parâmetro crLIE é utilizado para determinar a veracidade. Um valor de crLIE de até 50 pode ser considerado como indicador de não veracidade, os valores compreendidos entre 50 e 60 podem ser considerados como indicadores de sarcasmo ou humor, os valores compreendidos entre 60 e 130 podem ser considerados como indicadores de veracidade, os valores compreendidos entre 130 e 170 podem ser considerados como indicadores de inexactídão ou exagero e os valores que ultrapassam 170 podem ser considerados como indicadores de não veracidade. 21
Voltando à fig. 6, aos parâmetros acima referidos podem ser atribuidos os seguintes valores:
Ponto de interrupção? = Ponto de interrupçãoj = Ponto de interrupçãOQ = Ponto de interrupçãoA = 1,1
Limite superiorT = Limite superiorj - 1,1
Limite inferiorj = Limite inferior? = -0,6
Incremento? = Incrementoj = DecrementoT = Decrementoj = 0,1 Mínimo? = MínimoT ~ 0,1
Observa-se que todos os valores numéricos são meros exemplos e são normalmente dependentes da aplicação. A fig. 7 ilustra o método para converter os diversos parâmetros em mensagens que possam ser exibidas, conforme se mostra por exemplo na fig. 1. A fig. 8 representa um método para optimizar a determinação do estado emocional verdade/neutro. 0 Apêndice A é uma listagem de computador da implementação de um software de uma realização preferida da invenção aqui mostrada e descrita que difere ligeiramente da realização aqui mostrada e descrita com referência aos desenhos.
Um método apropriado para gerar a implementação do software é o seguinte: a. Num PC equipado com ura microfone, uma placa de som e software VisualBasic® Versão 5, gerar um novo projecto. A configuração de gravação da placa de som pode operar de acordo cora os seguintes parâmetros: 11 kHz, 8 bits, mono, PCM. 22 b. Inserir um objecto temporizador no formulário predefinido que aparece no novo projecto. Este objecto temporizador é denominado "timerl". c. Inserir um objecto controlo multímédia MCI no formulário. Este objecto é denominado "mmcontroll". d. Inserir 5 objectos etiqueta no formulário. Estas etiquetas são denominadas labell, label2, label3, label4 e label6. e. Criar 4 arrays etiqueta no formulário. Renomear os arrays da seguinte forma: SPT(0,,4), SPJ(0,,4), JQ{0„.4), AVJ{0..4). f. Inserir um botão de comando no formulário e mudar a sua propriedade legenda para o fim. O botão de comando é denominado "commandl", g. Gerar o código para o formulário digitando nas páginas do Apêndice A encabeçadas por "forml". h. Acrescentar um módulo ao projecto. Gerar o código para o módulo digitando nas páginas do Apêndice A encabeçadas por "Feelings_detector". i. Ligar um microfone ao PC. j. Premir (F5} ou "run" para iniciar a aplicação. A fig. 9 é uma ilustração pictórica de uma visualização em ecrã que mostra o formulário, em modo design, justo antes de iniciar a aplicação. A fig. 10 é uma ilustração pictórica de uma visualização em ecrã que mostra o formulário, em modo run, durante a calibração aplicada a um sujeito especifico. A fig. 11 é uma ilustração pictórica de uma visualização em ecrã que mostra o formulário, em modo run, durante o teste de um sujeito. 23
Os valores da variável CoRjmsgX no Apêndice A sao os seguintes: 1 - veracidade; 2 - sarcasmo; 3 - excitação; 4 -confusão/incerteza; 5 - excitação elevada; 6 manipulação da voz; 7 - mentira/afirmação falsa; 8 -exagero/inexactidão.
As variáveis que proporcionam dados sobre a parte crucial corrente têm nomes que começam pelos seguintes caracteres: cor_.
Os factores de linha de base têm nomes que começam pelos seguintes caracteres: cal_.
Os factores de ponto de interrupção têm nomes que começam pelos seguintes caracteres: bp_.
ResSPT e ResSPJ são denominados ResT e ResJ respectivamente. A fig. 12 é uma ilustração de um diagrama de blocos funcional simplificado de um sistema para a detecção de estados emocionais construído de acordo com uma realização preferida da invenção e utilizável para implementar o método da fig, 1B, Como se mostra na mesma, o sistema da fig. 12 inclui um dispositivo para a entrada da voz, tal como o gravador 700, o microfone 710 ou o telefone 720, a qual é processada pela estação de trabalho para a detecção de emoções 735 através do conversor A/D 740. O gravador de janelas de voz 750 tipicamente particiona os sinais de entrada representativos da fala em janelas ou segmentos de voz que são analisados pelo analisador de janelas de voz 760. O analisador de janelas de voz compara as janelas ou segmentos de voz com os dados da calibração armazenados na 24 unidade 770. Os dados da calibração são normalmente obtidos individualmente para cada sujeito específico, conforme acima descrito em detalhe. A unidade de visualização ou impressora 780 é incorporada para que o utilizador do sistema possa visualizar ou imprimir, de preferência onlíne, um relatório sobre o estado emocional.
Estima-se que os componentes de software da presente invenção podem, se desejado, ser implementados na forma de ROM (memória só de leitura) . Em regra, os componentes de software podem ser implementados em hardware, se desejado, utilizando técnicas convencionais.
Considera-se que a realização específica descrita no apêndice visa apenas apresentar uma divulgação extremamente pormenorizada da presente invenção, não pretendendo ser limitadora,
Estima-se que também podem ser fornecidas de forma combinada numa única realização diversas características da invenção que, por clareza, são descritas nos contextos de realizações separadas. Reciprocamente, várias características da invenção que, por brevidade, são descritas no contexto de uma única realização podem igualmente ser fornecidas separadamente ou em qualquer subcombinação apropriada.
As pessoas competentes na matéria repararão que a presente invenção não se limita ao que foi acima específicamente mostrado e descrito. Pelo contrário, o âmbito da presente invenção é definido unicamente pelas reivindicações que se seguem:
APÊNDICE A O código seguinte deverá ser escrito no objecto formulário: 25
Form i
Privais Sub Commarsdt_CSlckQ Ênd
End Sub
Prtvate Sub Forru^LoatH) ' Set propertles needetf by MCI to open a = mciSendStringCsetaudio waveaudio algorithm pcm bilspersample to 8_ bytespersec to 11025 ínput volume to 100 source to avarage". 0, 0, 0) MMConlroll Nollfy = False MMControlt Wa!t = True btMControH Shareable = False MMConlroli DeviceType s "WaveAudio" MMControll filename = *C:U>ul WAV" ’ Open íhe MCI WaveAudio çfevice MMCobtroll Command = "Open" * Define constanís CRJBGleve! = 15 * Background levei barrier CRJBGfilíer ® 3 ' VocaJ wave srnooíher CRJDATAstr ="" *Reset Data String CRjmode — 1 CONS _S ARK = 50 CONSJLIE11 = 130: CONSJJE12 - 175 CONS LowzzT - -0.4: CONSJHighzzT « 0.3 CONSJLowzzJ = 0.2: CONSJfighzzJ » 0.7 CONS JRESJ5PT = 2: CONSJRESJ5PJ = 2 26 CONSJBGfíler = 3 ' Set tirner object to work every 0.5 sec Tlmerl.Interva] = 500 TimerLEnabled = True ' sei display
LabeU.Caption = "System decision11 Label2.Caption= "Global stress:" Label3.Caption= "Excitement;" Labeí4.Capííon = "Lie stress:" MMConírolí.Visible = False
End Sub
Private Sub Tirnerl^TimerO Statie been
Oa Error Resume Next MMCoíitroll.Command ~ "síop" MMControl 1 .Command ~ "saveH MMControlLCommand = "dose" ' read daía from file ff - MMControl 1 .fil ename Dim kk As String * 6500 kk = $pace(6500)
Open STor Binaty Access Read As #1 Get #1, 50, kk Cíose #1 KiUff MMControlí.Commajnd = "open" 27 a = MMControíl.ErrorMessage MMControll.Command = "record" CRJDATAstr = kk íf OP_stat - 0 Then OP_ stat = 1 ' first raund or after recalibration demand been = 0
Endlf
If been < 5 Then
Labell .Gaption = "Calibrating.,"
Call Calíbrate ' Perform calibratíon ' get calibration status by CRjmsgX If CoRmsgX > -I Then 1 good sample been — been +1 End If Exit Sub Else
OP_stat = 2 1 Checking staíus Call CHECK ’ get segment status by CRjmsgX Endlf
If CoR_msgX < 0 Then Exit Sub' not enogh good sampies
LabeM.Caption - "Lie stress.:" + Foraiat(Iní(CRJLIE)) Label2,Caption ® "Global stress:" + Format(Int(CR_STRESS)) LabelICaption = "Excite Rate:" + Forniat(Int(CRJEXCITE)) Labeló.Caption * "Thinking Rate:" + Format(Int(CR__TfHNK.))
been " been + 1 Select Case CoR_ msgX 28
Case Ο ans = "background noise"
Case I ans = "TRUEM Case 2 ans = "Outsmart”
Case 3 ans = "Excitement"
Case A ans * "Unceitainty"
Case 5 ans ~ "High excitement”
Case 6 ans = "Voice manipulation / Avoidance / Bmphasizing” Case 7 ans - "LIE"
Case 8 ans = "Inaccuracy "
End Select Labell Caption ans
End Sub
Sub CslibrateQ
Cal) CUT_sec If CR jioSMP < 800 Then ' no samples
CoRmsgX = -3
Exit Sub
End tf 29 ' Scan thoms CONS_RES _SPT = 2 CONSRES_SPJ = 2
Call scanTJ
If ln!{CoR_spT) = 0 Or Int(CoR_AVjump) - 0 Or Int(CoRQJlJMP) = 0 Or Int(CoRJSPJ) = 0 Then CoRjnsgX = -1 BátSub m if tot_T - 0; tot__J = 0; totJQ *= 0; toíjivj = 0 minspT = 1000: minspJ = 1000: minJQ = 1000 Fora = 0To 4
If SPT(a),Caption - 0 And SPJ(a).Caption = 0 Then SPT(a) Caption «Int(CoRjspT) SPJ(a)..Caption = Iri’(CoRSPJj JQ(a)„Caption = Int(CoR_QJUMP) AVJ(a),Caption = Int(CoR_AVjump)
Exit For
End If tot_T = toíT + SPT(a) totJ = totj + SPJ(a) totJQ = tot_,JQ + JQ(a) totavj = tot_avj + AVJ(a)
If Val(SPT(a).Caption) < minspT Then minspT ·= Val(3PT(a).Caption) If Val(SPT(a)„Caption) > maxspT Then maxspl = Val(SPT(a). Caption) If Val(SPJ(a)„Captioi!) < minspJ Then minspJ = Val(SPJ(a).Caption)
If Val(SPJ(a).Caption) > rnaxspJ Then maxspJ = Val(SPJ(a)„Caption)
If Val(JQ(a).Caption) < minJQ Then minJQ = Val(JQ(ft).Capbon} 30
If ValfJQ(a).Caplion) > maxJQ Then maxJQ = Val(JQ(a) Caption) Next a 'calc current CAL factors CAL_spT - {toí_T + Int(CoRspT)) / (a + 1) CAL_spj = (totj + Int(CoRSPJ)) / (a +1) CAL_JQ »(tot_JQ + Int(CoRQJUMP)) / (a + ]) CAL_AVJ - (tot_ayj + I nl(CoR_AVjump)) /(a + )) ' calc resolution per factor On Error Resume Next If a > I Then ' res_T = maxspT / minspT res_J = maxspJ / minspJ Endlf
CoR^msgX & 0 End Sub
Sub CHECKO CBllCUTjiec If CRjnoSMP < 800 Then 1 no sampies CoR^msgX = -1 Endt Sub Endlf CONS JIESJ5PT = 2 CONS_RES__SPJ = 2
Call scan TJ 31
If Int(CoRjspT) = 0 Or Int(CoR. AVjump) = 0 Or InífCoR_QJUMP) - 0 Or Int(CoR_SPJ) = 0 Thcn CoRjmgX “ -1 Exit Sub End IF
Cali analyze Call decision ' Fine tune cal factors CALspT = ((CALspT * 6) + CoRspTj \ 7 CAL_spJ “ ((CAL spJ ♦ 6) + CoR_SPJQ \ 7 CALJQ = ((CALJQ * 9) * CoR_QJUMP) \ 10 CAI._AVJ - ((CAL_AVJ * 9) + CoRAVjurnp) /10 End Sub O código seguinte deverá ser escrito num novo objecto Módulo:
Feelings detector 'Dedaration sedion
Global Fname file name
Global CFI_BGfiltef-BackGround Filter
Global CR.. BGIevei' BackGround levei
Global CR„DATAstr
Global CR.,_noSMP nomberof samples
Global res„ J, res.....T
Global CoFLspT. CoR.SPJ, CoR. .AVjump, CoR.. QJUMP
Global CoR„msgX, CR.retDATAstr
Global SM P{10000) As Iníeger
Global OP„stat '** Calibration factors
Global CAL„spd, CAL,_spT
Global CALJQ, CAL.AVJ
Global BP...J, BP JT- CALIBRATION break points
Global Wi_J, WLT, WI_JQ Wigth of factors In calo
Global CRjzzT, CR_zzJ
Global CR.STRESS, CR.L1E, CR_EXCITE, CR-TH1NK
Global CR_RESfilter resolutlon filter
Constante for decision
Global CONSJARK
Global CONSJJE11, CONSJJE12
Global CONS-LowzzT, CONS_HighzzT
Global CGNSJowzzJ, CONS_HighzzJ
Global CONS.„RES_SPT, CONS_.RES_.SPJ 32
Sub analyzeO On Error Resume Next CR LIE - 0 CRJSTRESS = 0 CR. EXCITE - 0
If (CoRjjpT = 0 And CoRJ5PJ - 0) Or CR noSMP - 0 Then CR_msg " "ERROR"
Exit Sub End If 33
If CoR_SPJ = 0 Then CoR_SPJ = 1 If CoRspT = 0 Then CoR spT = 1
On Error Resume Next rrJ = res_J: rrT = res_T
BPJ=].1:BP„T=1J zz_spj = (((CALjjpJ / Int(CoR_SPJ)) - BP_J) / irl)
If zz spj > Ό.05 And zz_spj < 0.05 Then res_ I *= res_J - 0.1 If resjí < 1.3 Then res_J “1,3 If zzspj < -0,6 Then zz_spj = 0.6 res_J“res_J + 0.1 End If
If zz_spj >1.2 Then zzjspj =* 1.2 res_J fcres_J + 0.1 End If
If resjí > 3.3 Then res.J - .3.3 CRjkJ = zz_spj zz_spT «(((CALjjpT / CoR_spT) - BP_T) / rrT)
CRzzT = zzjpT
If zz spT > -0,05 And zzspT < 0.05 Then res T = res_T - 0.1 Ifres T < 1,3 Then res_T 1.3 If zzspT < Ό.6 Then zzspT s -0.6 res_T = resJT + 0.1 End If íf zz_spT > 1,2 Then 34 zz_spT- 1..2 resT - res_T + 0,1 End If
Ifres T>3 3 Thenres T = 3„3 WIJ = 6: WI_T = 4
CRJ5TRESS - Iní((CoR_QJl)MP / CALJQ) * 100) ggwi=WIJ*WIJ CRJJE = ((zz_spT + I) * WIJQ * ((zz„spj +1) * WIJ) CRJUE = ((CR_UE / ggwi)) * 100 CRJJE « CRJLIE + Int((CoR_QJUMP - CALJQ) *1.5) CRJffllNK - Int((CoR_AVjump / CAL_AVj) * 100) CRJEXCITE = ({(({(CRjaT) / 2) + 1) MOO) * 9) + CRSTRESS) /10 t ¢¢¢¢¢¢¢.04. EMDOF Phase2 - «‘f’*'***
If CR.JEJE > 210 Th en CR_LIE = 210 If CRJEXCITE > 250 Then CR EXCITE « 250 If CRJTRESS > 300 Then CRSTRESS « 300 lf CRJJE < 30 Then CRJ.1E = 30 If CRJEXCITE < 30 Then CR JEXCITE = 30 If CRJSTRESS < 30 Then CR_STRESS - 30 End Sub
Sub CURsecf) CRjíoSMP = 0 If CRJDATAar = "" Then CR msg = 'ERROR! - No data provided" Exit Sub End If CRjYUTGvol = 1 ' Auto ampliher 35
CoR_volume = 3 ' default CRjnínSMP = 800 ’ deíault free = FrceFiSe 1 Break CRDATAstr to bytes LocA = 1:LocB= 1 BGAmin *= 0 BGAmax = 0 MAXvoIume = 0 TestP “ 0 BRLOW «-128 BRhigh = -128 ddd = -128 ddd - Int(ddd * <CoR„volume / 3)) ddd = (ddd \ CR BGfilier) * CR_BGfilter If CR__AUTOvoi = 1 Then 1 apply auto volume detect MAXvoIume = 0 For a = 1 To Len(CR_DATAstr) ccc = Asc(MidS(CRJDATAstr, a, 1)) ccc = ccc * 128 ccc= (ccc\ CRJBGfilter) * CRJBGfilter If (ccc > CR BGlcvc! Or ccc < 0 - CR_BGIevel) And ccc > ddd Then If Abs(ccc) > MAXvoIume Then MAXvoIume = Abs(ccc)
If StartPos - 0 Then StartPos = a OKsmp = OKsmp + 1 Endíf
If MAXvoIume >110 Then Exit For Nexl a
If OKsmp < 10 Then CRjnsg "Not enough samples!" 36 CR_noSMP - 0 Exit Sub Endlf
CoR volume = lnt(360 / MAXvolume) ΙΓCoR_voIume > 16 Then CoR volume = 3 End If
On Error Resume Next drect = DRjflag - 0 MAXvolume = 0 LocA ~ 0 Done = 0 89 For a - StariPos To Len(CRjDATAstr) · 1 ccc = Asc(Mid$(CRJDATAstr, a, 1)): ccd = Asc(Mjd$(CR_DATAstr, a + 1,1)) ccc- ccc-128: ccd = ccd ~ 128 ccc = Im(ccc * (CoR_volurne /3)) ccd = lnt(ccd * (CoR_volume / 3)) ccc = (ccc\ CR_BGfilter)CR_BGfilter ccd = (ccd \ CR„BGflter) * CR BGfilter
If (ccc > CR BGIevel Or ccc < 0 - CRJBGlevel) And ccc > ddd Then If Abs(ccc) > MAXvolume Then MAXvolume - Abs(ccc) fl-fl + I Endlf If fl > 5 Then SMP(I ocA) - ccc
If BRJiigh < ccc Then BRjiigh = ccc If BR_LOW > ccc Or BRJLOW = »128 ThenBRJL.OW = ccc If (SMPCLdcA) > O - CR_BGievel And SMPaocA) < CRJBGlevel) Or SMPÇLocA) “ ddd Then blnk: = blnk + 1 37
Else blnk = 0 Endlf íf blnk > 1000 Then LocA = LocA - 700 Done = 1
If LocA > CR jninSMP Then Exit For Done B 0 LocA^O fl = 2: blnk-O BR_LOW = -128: BRJiigh = -128 Endlf L-ocA ™ LocA + 1 End If Next a Err=0 CR_noSMP = LocA If CRnoSMP < CRjninSMP Then CRmsg = "Not enough samples !"
Exit Sub Endlf CRjnsg ~ "Corapleted OXn End Sub
Sub decisionO
If CR__zzT *0 And CRjaJ- 0 And (CLj>pJo Int(CoR„SPJ)) Then CRjnsg = "ERROR! - Required paraineters missing !"
Exit Sub 38
End If
IfCR_STRESS = 0Or CRJLtE = OOr CR_EXCITE = 0Then CR_msg = "ERROR! - Required calculations missing P Exit Sub
End If CR jnsgCode = 0 CoRjnsgX = 0 sark«0
If CRJLIE < 60 Then CoR_msgX = 2 Exit Sub End If 5555 If({CRjaJ + ]) · 100) < 65 Then
If ((CR_aJ + I) M 00) < 50 Then sark - ! CR zzi = 0.1 End If
If ((CR„zzT + l) · ] 00) < 65 Then If ((CR_5kT + 1)* 100) < CONS_SARK Then sark = saik + 1 CRzzT “ 0.1 End If LIE BORDl - CONSJLIE11: LEEJEIORD2 « CONSJJE12
If CR_LIE < LIEBORD1 And CR.....STRESS <I,IE. BORD1 Then CR jmsgCode = CRmsgCode + 1 End If
If CRJLIE > LIE_BORDl And CRJLIE < UEJBOKD2 Then CoRjnsgX = 8 Exit Sub 39
Endlf
If Cíl_LIE > LIEJB0RD2 Then
If CR_msgCode < 128 Then CR msgCode « CR_msgCode + 128 Endlf irCR„zzJ > CONS._LowzzS Then IfCRzzJ > CONS_HighzzJ Then CR_msgCode = CR._msgCode + 64 Else CRmsgCode = CRjmsgCode + 8 Endlf End If
If CRJEXCITB > LIEBORDl Then If CRJEXOTE > UEJBORD2 Then
If (CR_msgCode And 32) = False Then CRjmsgCode = CRjmsgCode + 32 Else
If (CRmsgCode And 4) = False Then CRjmsgCode “ CR_msgCode + 4 Endlf End If
If CR_msgCode < 3 Then If sark = 2 Then CRmsgCode = -2 CoR_msgX = 2 Eãt Sub Endlf
If sark = 1 Then
If (CRjzzT > CONSJLowzzT And CRjezT <,COKSJHighzzT) Then CRjnsgCode = -1 40
CoRjnsgX - 2 Else
If CR_zzT > CONSJEghzzT Then CoRjnsgX « 7 Endíf
If(CR_2zJ > CONS JLowzzT And CRjzI < CONSJBghaT) Then CR msgCode = -1 CoRjnsgX - 2 Else
If CRjtzJ > CONS JffigteT Then CoRjnsgX - 7 Endíf Exit Sub End If CRjnsgCode = 1 CoRjnsgX- 1 Exit Sub End If
If CR_mSgCode > 127 Then CoRjnsgX “ 7 Exit Sub Endíf
If CRjnsgCode > 67 Then CoRjnsgX-8 Exit Sub Endíf
If CRjnsgCode > 63 Then CoRjnsgX = 6 Exit Sub End If
If CRjnsgCode >31 Then CoRjnsgX = 5 41
Exit Sub Endlf íf CRjnsgCode > 7 Then CoRjnsgX <= 4 Exit Sub Endlf
If CRjnsgCode > 3 Then CoRjmsgX = 3 Exit Sub Endlf
CoR msgX “ 1 End Sub
Sub scanJTJQ ReDimjjurrip(lOO) CR_msg
TestP = CRjioSMP CR_spT = 0 CR_SPJ = 0 If TestP <= O Then CRjnsg = "No. of samples not transmitíed !"
Exit Sub End If CRjtunJUMP = 3 ' default CRjnaxJUMP = 20' default jump = 0 thoms = 0 BIGthoms = 0
?or a= 1 To CRjtoSMP jjt! = SMP(a): jjt2 - SMP(a + 1): jjí.3 = SMP(a f 2) 42 ' scan thoms
If (jptl c|jt2 And jj!2>jjU) Then Ifjjtl > 15 And jjt2> 15 And|t3 > 15 Then thoms = thoms + 1 Endíf
If Qjtl >jjt2 And Jt2 < jjt3) Then
Ifjjtl <-15 Andjjt2 <-15 And jjt3 <15 lhen thoms = thoms + 1 Endíf
IfQjtl > jjt2 - 5) And (yt! < jjt2 + 5) And Qjt3 > jjt2 5) And (jjt3 <jjt2 + 5) Then sss = sss + 1 Else
If sss >= CRminJUMP And sss <~- CR_maxJUMP Then jump =jump +1 jjump(sss) = jjumpfsss) + 1 End If sss = 0 End If Next a
AVjump = O JUMPtot “O CR_QJUMP = O
For a =1 To 100 JUMPtot =* JUMPtot+j)ump(a) AVjump = AVjump + (jjumpfa) * a)
Next a
If JUMPtot > 0 Then cr_AVjunip = AVjump / JUMPtot Fora= 1 To 100
If jj'ump(a) > 1 Then QJUMP = QJUMP + (Qjutnpfa) * Abs(cr_AVjump - a))) ' * jjump(a)) 43
Next a
CoRjspT = (Int(((thoms) / CRjioSMP) * 1000) / CONS_RES_SPT) CoR^SPJ-(Int(((jump)/CR_noSMP) · 1000)/CONS_RES_SPJ) CoRjQJUMP = Sqr(QJUMP)
CoR_AVjump = cr._AVjump CRmsg - 'Thoms & Jumps scan completed O.K"
End Sub
Lisboa, 10/05/2007

Claims (31)

1 REIVINDICAÇÕES 1. Aparelho para detectar o estado emocional de um indivíduo, aparelho que inclui: um analisador de voz utilizável para analisar uma amostra da fala (32) gerada pelo indivíduo e obter, directamente a partir dela, informação sobre a entoação, em que a referida informação sobre a entoação inclui pelo menos informação referente ao número de picos existentes no segmento de voz, ao número de planaltos existentes no segmento de voz e ao comprimento dos planaltos existentes no segmento de voz; e um comunicador de emoções utilizável para produzir uma indicação de saída acerca do estado emocional do indivíduo baseada na referida informação sobre a entoação; em que um pico é uma característica da amostra de fala que inclui uma sequência de primeira amostra, amostra média e terceira amostra adjacentes, em que a primeira amostra e a terceira amostra são ambas superiores ou inferiores à amostra média e em que um planalto é um segmento plano da amostra de fala, o comprimento do segmento plano é superior a um limiar mínimo predeterminado e inferior a um limiar máximo predeterminado e a diferença de amplitude entre as amostras consecutivas do segmento plano é inferior a um limiar da amplitude predeterminado. 2
2. Aparelho de acordo com a reivindicação 1, em que a referida amostra de fala (32) é introduzida através do telefone (720) no analisador de voz referido.
3. Aparelho de acordo com a reivindicação 1, em que a referida informação sobre o estado emocional do indivíduo inclui um relatório de detecção de mentiras baseado no estado emocional do indivíduo.
4. Aparelho de acordo com qualquer uma das reivindicações 1-3, em que a referida informação sobre a entoação compreende uma informação multidimensional sobre a entoação.
5. Aparelho de acordo com a reivindicação 4, em que a referida informação multidimensional sobre a entoação compreende, pelo menos, uma informação tridimensional.
6. Aparelho de acordo com a reivindicação 4, em que a referida informação multidimensional sobre a entoação compreende, pelo menos, uma informação quadridimensional.
7. Aparelho de acordo com a reivindicação 1, em que a referida informação sobre a entoação inclui uma informação referente ao número de picos existentes no segmento de voz e o estado emocional indicado inclui o nível de excitação.
8. Aparelho de acordo com a reivindicação 1, em que a referida informação sobre a entoação inclui uma informação referente ao número de picos existentes no 3 segmento de voz e esta informação referente ao número de picos inclui uma informação referente à distribuição dos picos no tempo.
9. Aparelho de acordo com a reivindicação 1, em que a referida informação sobre a entoação inclui uma informação referente ao número de planaltos existentes no segmento de voz e o referido estado emocional inclui sentimentos de dissonância psicológica.
10. Aparelho de acordo com a reivindicação 1, em que a referida informação sobre a entoação inclui uma informação referente ao comprimento dos planaltos existentes no segmento de voz e esta informação referente ao comprimento dos planaltos inclui um comprimento médio do planalto durante um período de tempo predeterminado.
11. Aparelho de acordo com a reivindicação 10, em que o referido estado emocional inclui a quantidade de pensamento investido nas palavras ou frases proferidas.
12. Aparelho de acordo com a reivindicação 10, em que a referida informação sobre a entoação inclui uma informação referente ao comprimento dos planaltos existentes no segmento de voz e esta informação referente ao comprimento dos planaltos compreende o erro padrão no comprimento dos planaltos durante um período de tempo predeterminado. 4
13. Aparelho de acordo com a reivindicação 12, em que o referido estado emocional inclui o nível de tensão.
14. Aparelho de acordo com a reivindicação 7, em que o referido estado emocional inclui a veracidade.
15. Aparelho de acordo com a reivindicação 1, em que o referido analisador de voz compreende um analisador de voz multidimensional utilizável para processar uma amostra da fala {32) gerada por um indivíduo e quantificar uma série de características da referida amostra da fala (32); e em que o referido comunicador de emoções incorpora um avaliador da credibilidade utilizável para produzir uma indicação de saída acerca da credibilidade do indivíduo, incluindo a detecção de mentiras, baseada na referida série de características quantificadas.
16. Aparelho de acordo com qualquer uma das reivindicações 1-6 e 9-13, em que a referida amostra da fala (32) compreende um sinal de voz principal durante um período e em que o referido analisador de voz é utilizável para analisar a amostra de fala (32) a fim de determinar a frequência da ocorrência dos planaltos (38), em que cada planalto indica que um sinal local de baixa frequência está sobreposto ao sinal de voz principal; e em que o comunicador de emoções é utilizável para fornecer uma indicação de saída adequada baseada na frequência da ocorrência dos planaltos (38). 5
17. Método para a detecção do estado emocional de um indivíduo, método que consiste em: captar um segmento de voz de uma amostra da fala (32) gerada pelo indivíduo e obter, directamente a partir dela, informação sobre a entoação, em que a referida informação sobre a entoação inclui, pelo menos, uma informação referente ao número de picos existentes no segmento de voz, ao número de planaltos existentes no segmento de voz e ao comprimento dos planaltos existentes no segmento de voz; e produzir uma indicação de saída acerca do estado emocional do indivíduo baseada na referida informação sobre a entoação; em que um pico é uma caracteristica da amostra de fala que inclui uma sequência de primeira amostra, amostra média e terceira amostra adjacentes, em que a primeira amostra e a terceira amostra são ambas superiores ou inferiores à amostra média e em que um planalto é um segmento plano da amostra de fala, o comprimento do segmento plano é superior a um limiar mínimo predeterminado e é inferior a um limiar máximo predeterminado e a diferença de amplitude entre as amostras consecutivas do segmento plano é inferior a um limiar da amplitude predeterminado.
18. Método de acordo com a reivindicação 17, em que a referida captação da amostra de fala é efectuada através do telefone. 6
19. Método de acordo com a reivindicação 17, em que a referida obtenção da informação sobre a entoação inclui: quantificar uma série de caracteristicas da referida amostra de fala (32); e em que a referida produção de uma indicação de saída compreende: produzir uma indicação de saída acerca da credibilidade do indivíduo, incluindo a detecção de mentiras, baseada na referida série de caracteristicas quantificadas.
20. Método de acordo com qualquer uma das reivindicações 17-19, em que a referida informação sobre a entoação inclui informação referente ao número de picos existentes no segmento de voz e a obtenção da informação sobre a entoação inclui: obter informação multidimensional sobre a entoação.
21. Método de acordo com a reivindicação 17, em que a referida informação sobre a entoação inclui informação referente ao número de picos existentes no segmento de voz e a obtenção da informação sobre a entoação inclui: contar o número de picos existentes no segmento de voz num período de tempo predeterminado.
22. Método de acordo com a reivindicação 21, em que o referido estado emocional inclui o nível de excitação. 7
23. Método de acordo com a reivindicação 17, em que a referida informação sobre a entoação xncXux informação referente ao número de picos existentes no segmento de voz e a obtenção da informação sobre a entoação inclui: calcular a distribuição dos picos existentes no segmento de voz ao longo do tempo.
24. Método de acordo com a reivindicação 17, em que a referida informação sobre a entoação inclui informação referente ao número de planaltos existentes no segmento de voz e a obtenção da informação sobre a entoação inclui: contar o número de planaltos num período de tempo predeterminado.
25. Método de acordo com a reivindicação 24, em que o referido estado emocional inclui sentimentos de dissonância psicológica.
26. Método de acordo com a reivindicação 17, em que a referida informação sobre a entoação inclui informação referente ao comprimento dos planaltos existentes no segmento de voz e a obtenção da informação sobre a entoação inclui: calcular o comprimento médio do planalto durante um período de tempo predeterminado. 8
27. Método de acordo com a reivindicação 26, em que o referido estado emocional inclui a quantidade de pensamento investido nas palavras ou frases proferidas.
28. Método de acordo com a reivindicação 26, em que a obtenção da informação sobre a entoação inclui ainda: calcular o erro padrão no comprimento do planalto durante um período de tempo predeterminado.
29. Método de acordo com a reivindicação 28, em que o referido estado emocional inclui o nível de tensão.
30. Método de acordo com a reivindicação 17, em que o referido estado emocional inclui a veracidade.
31. Método de acordo com a reivindicação 17, em que a captação de um segmento de voz inclui: estabelecer uma gama de características que distingam a escala de emoções de um indivíduo quando em repouso através da: monitorização do indivíduo para obter a referida informação sobre a entoação durante um primeiro período em que o indivíduo se encontra num estado emocional neutro; e da definição da gama de características como uma função da escala de informações sobre a entoação durante o referido primeiro período; e 9 em que a referida produção de uma indicação de saída inclui: monitorizar o indivíduo para obter a referida informação sobre a entoação durante um segundo período em que se pretende detectar o estado emocional do indivíduo, para assim obter uma medição da referida informação sobre a entoação e ajustar esta medição de forma a ter em consideração a gama de características assinalada. Lisboa, 10/05/2007
PT98960070T 1997-12-16 1998-12-16 Aparelho e método para detectar emoções. PT1038291E (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IL12263297A IL122632A0 (en) 1997-12-16 1997-12-16 Apparatus and methods for detecting emotions

Publications (1)

Publication Number Publication Date
PT1038291E true PT1038291E (pt) 2007-05-31

Family

ID=11070983

Family Applications (1)

Application Number Title Priority Date Filing Date
PT98960070T PT1038291E (pt) 1997-12-16 1998-12-16 Aparelho e método para detectar emoções.

Country Status (19)

Country Link
US (1) US6638217B1 (pt)
EP (1) EP1038291B1 (pt)
JP (1) JP4309053B2 (pt)
CN (1) CN1174373C (pt)
AT (1) ATE354159T1 (pt)
AU (1) AU770410B2 (pt)
BR (1) BR9814288A (pt)
CA (1) CA2313526C (pt)
DE (1) DE69837107T2 (pt)
ES (1) ES2283082T3 (pt)
HK (1) HK1034796A1 (pt)
HU (1) HU226537B1 (pt)
IL (1) IL122632A0 (pt)
PL (1) PL341296A1 (pt)
PT (1) PT1038291E (pt)
RU (1) RU2294023C2 (pt)
TR (1) TR200001765T2 (pt)
TW (1) TW446933B (pt)
WO (1) WO1999031653A1 (pt)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL129399A (en) 1999-04-12 2005-03-20 Liberman Amir Apparatus and methods for detecting emotions in the human voice
US6427137B2 (en) 1999-08-31 2002-07-30 Accenture Llp System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud
US6275806B1 (en) * 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US6480826B2 (en) * 1999-08-31 2002-11-12 Accenture Llp System and method for a telephonic emotion detection that provides operator feedback
US6463415B2 (en) * 1999-08-31 2002-10-08 Accenture Llp 69voice authentication system and method for regulating border crossing
US7222075B2 (en) 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
US7590538B2 (en) 1999-08-31 2009-09-15 Accenture Llp Voice recognition system for navigating on the internet
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
ES2177437B1 (es) * 2000-12-13 2003-09-01 Neturin S L Dispositivo analizador animico para mamiferos.
IL144818A (en) 2001-08-09 2006-08-20 Voicesense Ltd Method and apparatus for speech analysis
US6721704B1 (en) 2001-08-28 2004-04-13 Koninklijke Philips Electronics N.V. Telephone conversation quality enhancer using emotional conversational analysis
DE60115653T2 (de) * 2001-10-05 2006-08-10 Sony Deutschland Gmbh Verfahren zur Detektion von Emotionen, unter Verwendung von Untergruppenspezialisten
US7191134B2 (en) * 2002-03-25 2007-03-13 Nunally Patrick O'neal Audio psychological stress indicator alteration method and apparatus
EP1796347A4 (en) * 2004-09-10 2010-06-02 Panasonic Corp INFORMATION PROCESSING TERMINAL
US20060229882A1 (en) * 2005-03-29 2006-10-12 Pitney Bowes Incorporated Method and system for modifying printed text to indicate the author's state of mind
US7580512B2 (en) * 2005-06-28 2009-08-25 Alcatel-Lucent Usa Inc. Selection of incoming call screening treatment based on emotional state criterion
WO2007017853A1 (en) * 2005-08-08 2007-02-15 Nice Systems Ltd. Apparatus and methods for the detection of emotions in audio interactions
EP1924941A2 (en) * 2005-09-16 2008-05-28 Imotions-Emotion Technology APS System and method for determining human emotion by analyzing eye properties
EP1969589A1 (en) * 2005-12-22 2008-09-17 Exaudios Technologies Ltd. System for indicating emotional attitudes through intonation analysis and methods thereof
US8204747B2 (en) * 2006-06-23 2012-06-19 Panasonic Corporation Emotion recognition apparatus
MX2009000206A (es) * 2006-07-12 2009-06-08 Medical Cyberworlds Inc Sistema de entrenamiento medico computarizado.
US20080065468A1 (en) * 2006-09-07 2008-03-13 Charles John Berg Methods for Measuring Emotive Response and Selection Preference
CN101517636A (zh) * 2006-10-03 2009-08-26 安德烈·耶夫根尼耶维奇·纳兹德拉坚科 根据声音确定人紧张状态的方法和实现所述方法的装置
US20080260212A1 (en) * 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
US20110022395A1 (en) * 2007-02-15 2011-01-27 Noise Free Wireless Inc. Machine for Emotion Detection (MED) in a communications device
EP1998452A1 (en) * 2007-06-01 2008-12-03 EADS Deutschland GmbH Method for compression and expansion of audio signals
WO2009086033A1 (en) * 2007-12-20 2009-07-09 Dean Enterprises, Llc Detection of conditions from sound
US8219397B2 (en) * 2008-06-10 2012-07-10 Nuance Communications, Inc. Data processing system for autonomously building speech identification and tagging data
US20090318773A1 (en) * 2008-06-24 2009-12-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Involuntary-response-dependent consequences
US20100010370A1 (en) 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
WO2010018459A2 (en) 2008-08-15 2010-02-18 Imotions - Emotion Technology A/S System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text
US8340974B2 (en) * 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data
WO2010100567A2 (en) 2009-03-06 2010-09-10 Imotions- Emotion Technology A/S System and method for determining emotional response to olfactory stimuli
CN102396211B (zh) * 2009-04-17 2015-03-11 皇家飞利浦电子股份有限公司 气氛电话通信系统、运动部件及其方法
WO2012089906A1 (en) * 2010-12-30 2012-07-05 Nokia Corporation Method, apparatus and computer program product for emotion detection
US20120182309A1 (en) * 2011-01-14 2012-07-19 Research In Motion Limited Device and method of conveying emotion in a messaging application
US20120182211A1 (en) * 2011-01-14 2012-07-19 Research In Motion Limited Device and method of conveying emotion in a messaging application
GB2500363A (en) * 2011-02-03 2013-09-25 Research In Motion Ltd Device and method of conveying emotion in a messaging application
GB2500362A (en) * 2011-02-03 2013-09-25 Research In Motion Ltd Device and method of conveying emotion in a messaging application
US10853819B2 (en) 2011-04-14 2020-12-01 Elwha Llc Cost-effective resource apportionment technologies suitable for facilitating therapies
US10445846B2 (en) 2011-04-14 2019-10-15 Elwha Llc Cost-effective resource apportionment technologies suitable for facilitating therapies
US10373508B2 (en) * 2012-06-27 2019-08-06 Intel Corporation Devices, systems, and methods for enriching communications
RU2553413C2 (ru) * 2012-08-29 2015-06-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") Способ выявления эмоционального состояния человека по голосу
RU2525284C2 (ru) * 2012-11-16 2014-08-10 Валерий Викторович Курышев Способ определения степени эмоционального воздействия развлекательных мероприятий на зрителя
US9378741B2 (en) 2013-03-12 2016-06-28 Microsoft Technology Licensing, Llc Search results using intonation nuances
TWI500023B (zh) 2013-04-11 2015-09-11 Univ Nat Central 透過視覺的聽覺輔助裝置
WO2015019345A1 (en) * 2013-08-06 2015-02-12 Beyond Verbal Communication Ltd Emotional survey according to voice categorization
CN103829958B (zh) * 2014-02-19 2016-11-09 广东小天才科技有限公司 一种监测人情绪的方法及装置
US9786299B2 (en) 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
EP3267872A1 (en) 2015-03-09 2018-01-17 Koninklijke Philips N.V. System, device and method for remotely monitoring the well-being of a user with a wearable device
EP3674951A1 (en) * 2018-12-31 2020-07-01 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO System and method of obtaining authentication information for user input information
US11138379B2 (en) 2019-04-25 2021-10-05 Sorenson Ip Holdings, Llc Determination of transcription accuracy
CN110265063B (zh) * 2019-07-22 2021-09-24 东南大学 一种基于固定时长语音情感识别序列分析的测谎方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3971034A (en) * 1971-02-09 1976-07-20 Dektor Counterintelligence And Security, Inc. Physiological response analysis method and apparatus
US3855418A (en) * 1972-12-01 1974-12-17 F Fuller Method and apparatus for phonation analysis leading to valid truth/lie decisions by vibratto component assessment
DE2431458C2 (de) * 1974-07-01 1986-05-28 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und Anordnung zur automatischen Sprechererkennung
US4093821A (en) * 1977-06-14 1978-06-06 John Decatur Williamson Speech analyzer for analyzing pitch or frequency perturbations in individual speech pattern to determine the emotional state of the person
US5148483A (en) * 1983-08-11 1992-09-15 Silverman Stephen E Method for detecting suicidal predisposition
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
JPH01107240U (pt) * 1988-01-08 1989-07-19
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
IL108401A (en) * 1994-01-21 1996-12-05 Hashavshevet Manufacture 1988 Method and apparatus for indicating the emotional state of a person
JP3280825B2 (ja) * 1995-04-26 2002-05-13 富士通株式会社 音声特徴分析装置
JPH09265378A (ja) * 1996-03-28 1997-10-07 Hitachi Ltd オペレータの支援方法および支援システム
US5853005A (en) * 1996-05-02 1998-12-29 The United States Of America As Represented By The Secretary Of The Army Acoustic monitoring system
US5875427A (en) 1996-12-04 1999-02-23 Justsystem Corp. Voice-generating/document making apparatus voice-generating/document making method and computer-readable medium for storing therein a program having a computer execute voice-generating/document making sequence
US6055501A (en) * 1997-07-03 2000-04-25 Maccaughelty; Robert J. Counter homeostasis oscillation perturbation signals (CHOPS) detection

Also Published As

Publication number Publication date
EP1038291A1 (en) 2000-09-27
BR9814288A (pt) 2000-10-03
EP1038291B1 (en) 2007-02-14
ES2283082T3 (es) 2007-10-16
AU770410B2 (en) 2004-02-19
AU1575099A (en) 1999-07-05
HUP0101836A1 (hu) 2001-09-28
PL341296A1 (en) 2001-04-09
ATE354159T1 (de) 2007-03-15
CA2313526C (en) 2009-08-11
DE69837107D1 (de) 2007-03-29
US6638217B1 (en) 2003-10-28
RU2294023C2 (ru) 2007-02-20
EP1038291A4 (en) 2000-11-22
HUP0101836A3 (en) 2004-04-28
IL122632A0 (en) 1998-08-16
CN1282445A (zh) 2001-01-31
TW446933B (en) 2001-07-21
HK1034796A1 (en) 2001-11-02
DE69837107T2 (de) 2007-11-22
JP2002509267A (ja) 2002-03-26
HU226537B1 (en) 2009-03-30
TR200001765T2 (tr) 2000-11-21
JP4309053B2 (ja) 2009-08-05
CN1174373C (zh) 2004-11-03
CA2313526A1 (en) 1999-06-24
WO1999031653A1 (en) 1999-06-24

Similar Documents

Publication Publication Date Title
PT1038291E (pt) Aparelho e método para detectar emoções.
Kent et al. Reliability of the Multi-Dimensional Voice Program for the analysis of voice samples of subjects with dysarthria
Askenfelt et al. Speech waveform perturbation analysis: a perceptual-acoustical comparison of seven measures
US7165033B1 (en) Apparatus and methods for detecting emotions in the human voice
Lopes et al. Cepstral measures in the assessment of severity of voice disorders
Pabon et al. Automatic phonetogram recording supplemented with acoustical voice-quality parameters
US6591238B1 (en) Method for detecting suicidal predisposition
US10607737B2 (en) Systems and methods to derive models to evaluate behavior outcomes based on brain responses to complex sounds
Kuresan et al. Fusion of WPT and MFCC feature extraction in Parkinson’s disease diagnosis
Roy et al. Automated acoustic analysis of task dependency in adductor spasmodic dysphonia versus muscle tension dysphonia
US8682650B2 (en) Speech-quality assessment method and apparatus that identifies part of a signal not generated by human tract
Gaskill et al. Acoustic and perceptual classification of within-sample normal, intermittently dysphonic, and consistently dysphonic voice types
JP2007004001A (ja) オペレータ応対能力診断装置、オペレータ応対能力診断プログラム、プログラム格納媒体
JP2004514178A (ja) 音声の分析の方法及び装置
EP3899938A1 (en) Automatic detection of neurocognitive impairment based on a speech sample
Jessen Speaker profiling and forensic voice comparison: The auditory-acoustic approach
WO2020044332A1 (en) System and method for measurement of vocal biomarkers of vitality and biological aging
Mondor et al. Mechanisms of perceptual organization and auditory selective attention: The role of pattern structure.
Walden et al. Individual voice dimensions' prediction of overall dysphonia severity on two auditory-perceptual scales
Johnson et al. The perception of personal identity in speech: Evidence from the perception of twins’ speech
Brown Measurement of auditory thresholds
KR102406560B1 (ko) 인공지능 기반 대상자의 치매 검사 정확도 향상을 위한 아웃바운드 콜 처리 방법, 장치 및 시스템
Fantoni Assessment of Vocal Fatigue of Multiple Sclerosis Patients. Validation of a Contact Microphone-based Device for Long-Term Monitoring
Schaeffler et al. Monitoring voice condition using smartphones
Riegler Most comfortable loudness level of geriatric patients as a function of Seashore loudness discrimination scores, detection threshold, age, sex, setting, and musical background