ES2283082T3 - Aparatos y procedimientos para detectar emociones. - Google Patents
Aparatos y procedimientos para detectar emociones. Download PDFInfo
- Publication number
- ES2283082T3 ES2283082T3 ES98960070T ES98960070T ES2283082T3 ES 2283082 T3 ES2283082 T3 ES 2283082T3 ES 98960070 T ES98960070 T ES 98960070T ES 98960070 T ES98960070 T ES 98960070T ES 2283082 T3 ES2283082 T3 ES 2283082T3
- Authority
- ES
- Spain
- Prior art keywords
- voice
- information
- intonation
- segment
- individual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 57
- 230000002996 emotional effect Effects 0.000 claims abstract description 76
- 230000008451 emotion Effects 0.000 claims abstract description 19
- 230000007935 neutral effect Effects 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 11
- 238000013019 agitation Methods 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims 7
- 238000010586 diagram Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 10
- 238000012544 monitoring process Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000001755 vocal effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 101100368725 Bacillus subtilis (strain 168) tagF gene Proteins 0.000 description 1
- 101100545272 Caenorhabditis elegans zif-1 gene Proteins 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/92—Computer assisted medical diagnostics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- User Interface Of Digital Computer (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Steroid Compounds (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
Un aparato para detectar el estado emocional de un individuo, comprendiendo el aparato: un analizador de voz operable para analizar un segmento de voz de un espécimen (32) de voz muestreada, generado por el individuo, y para derivar directamente del mismo información de entonación, en donde dicha información de entonación incluye al menos una entre información correspondiente al número de picos dentro del segmento de voz, información correspondiente al número de mesetas dentro del segmento de voz e información correspondiente a la longitud de las mesetas dentro del segmento de voz; y un emisor de informes sobre emociones, operable para generar una indicación de salida del estado emocional del individuo, basada en dicha información de entonación; en el cual un pico es una característica en el espécimen de voz que incluye una secuencia de primera muestra, muestra media y tercera muestra adyacentes; tanto la primera muestra como la tercera muestra son más altas o más bajas que la muestra media; y en el cual una meseta es un segmento plano en el espécimen de voz, en el cual la longitud del segmento plano es mayor que un predeterminado umbral mínimo, y es menor que un predeterminado umbral máximo, y en el cual una diferencia de amplitud entre muestras consecutivas en el segmento plano es menor que un umbral de amplitud predeterminado.
Description
Aparatos y procedimientos para detectar
emociones.
\global\parskip0.900000\baselineskip
La presente invención se refiere a aparatos y
procedimientos para monitorizar estados emocionales.
La Solicitud Publicada PCT WO 97/01984
(PCT/IL96/00027) describe un procedimiento para efectuar la
regulación de biorrespuesta de al menos una variable fisiológica,
característica del estado emocional de un sujeto, incluyendo a fin
de producir una señal de indicación, y de utilizar la señal de
indicación para proporcionar al sujeto las etapas de monitorizar al
menos un parámetro del habla característico del estado emocional del
sujeto, una indicación de al menos dicha variable fisiológica. Un
sistema permite que el procedimiento se lleve a cabo en modalidad
autónoma o por medio de la línea telefónica, en cuyo caso la señal
de indicación puede derivarse en una ubicación alejada del sujeto.
La información correspondiente al estado emocional del sujeto puede
transmitirse vocalmente a un tercero alejado, o bien textualmente a
través de Internet, y procesarse luego según se requiera.
La Solicitud Publicada de Patente Europea Nº
94850185.3 (Publicación Nº 306 664 537 A2) describe un procedimiento
y aparato para determinar tensiones en una secuencia hablada. A
partir de una secuencia reconocida en el discurso hablado, se crea
un modelo del discurso. Comparando la secuencia hablada con el
discurso modelado, se obtiene una diferencia entre ellos.
La Patente Estadounidense 1.384.721 describe un
procedimiento y aparato para el análisis de respuestas
fisiológicas.
La Patente Estadounidense 3.855.416 concedida a
Fuller describe un procedimiento y aparato para el análisis de la
fonación, que conduce a decisiones válidas de verdad/mentira por la
evaluación de componentes fundamentales ponderados de vibrato de la
energía vocal.
La Patente Estadounidense 3.855.417 concedida a
Fuller describe un procedimiento y aparato para el análisis de la
fonación, que conduce a decisiones válidas de verdad/mentira por la
comparación de regiones de energía espectral.
La Patente Estadounidense 3.855.418 concedida a
Fuller describe un procedimiento y aparato para el análisis de la
fonación, que conduce a decisiones válidas de verdad/mentira por la
evaluación de componentes de vibrato.
Las revelaciones de todas las publicaciones
mencionadas en la especificación y de las publicaciones aquí citadas
se incorporan a la presente por referencia.
La Patente Estadounidense 4.093.821 concedida a
Williamson describe un procedimiento y aparato para determinar el
estado emocional de una persona, determinando mesetas en la señal de
su discurso, demodulada en frecuencia.
La presente invención busca proporcionar
aparatos y procedimientos mejorados para monitorizar estados
emocionales, según lo definido en las reivindicaciones
independientes de esta patente.
Las realizaciones preferidas de la invención se
especifican en las reivindicaciones dependientes.
Se proporciona así, según una realización
preferida de la presente invención, un aparato para detectar el
estado emocional de un individuo, incluyendo el aparato un
analizador de voz, operable para ingresar una muestra de habla
generada por el individuo, y para derivar de la misma información de
entonación, y un emisor de informes de emociones, operable para
generar una indicación de salida del estado emocional del individuo,
basada en la información de entonación.
Además, según una realización preferida de la
presente invención, el espécimen de habla se proporciona por
teléfono al analizador de voz.
Además, según una realización preferida de la
presente invención, el informe sobre el estado emocional del
individuo incluye un informe de detección de mentiras basado en el
estado emocional del individuo.
Además, según una realización preferida de la
presente invención, la información de entonación incluye información
de entonación multidimensional.
Además, según una realización preferida de la
presente invención, la información multidimensional incluye al
menos información tridimensional.
Además, según una realización preferida de la
presente invención, la información multidimensional incluye al
menos información de dimensión 4.
Además, según una realización preferida de la
presente invención, la información de entonación incluye información
correspondiente a picos.
Además, según una realización preferida de la
presente invención, la información correspondiente a picos incluye
el número de picos en un periodo predeterminado de tiempo.
Además, según una realización preferida de la
presente invención, la información correspondiente a los picos
incluye la distribución de los picos en el tiempo.
Adicionalmente según una realización preferida
de la presente invención, la información de entonación incluye
información correspondiente a las mesetas.
Además, según una realización preferida de la
presente invención, la información correspondiente a mesetas
incluye el número de mesetas en un periodo predeterminado de
tiempo.
Además, según una realización preferida de la
presente invención, la información correspondiente a las mesetas
incluye información correspondiente a la longitud de las
mesetas.
Adicionalmente según una realización preferida
de la presente invención, la información correspondiente a la
longitud de las mesetas incluye una longitud promedio de meseta para
un periodo predeterminado de tiempo.
Además, según una realización preferida de la
presente invención, la información correspondiente a la longitud de
mesetas incluye el error estándar de la longitud de meseta para un
periodo predeterminado de tiempo.
También se proporciona, según otra realización
preferida de la presente invención, un sistema de detección de
mentiras que incluye un analizador multidimensional de voz, operable
para ingresar una muestra de habla generada por un individuo y para
cuantificar una pluralidad de características de la muestra de
habla, y un emisor de informes, evaluador de credibilidad, operable
para generar una indicación de salida de la credibilidad del
individuo, incluyendo la detección de mentiras, basada en la
pluralidad de características cuantificadas.
Se proporciona adicionalmente, según otra
realización preferida de la presente invención, un procedimiento de
detección que incluye recibir una muestra de habla generada por un
individuo y cuantificar una pluralidad de características de la
muestra de habla, y que genera una indicación de salida de la
credibilidad del individuo, incluyendo la detección de mentiras,
basada en la pluralidad de características cuantificadas.
Más acorde con una realización preferida de la
presente invención, la muestra de habla incluye una onda principal
del habla con un periodo, y en la cual el analizador vocal es
operable para analizar la muestra de habla a fin de determinar la
tasa de ocurrencia de mesetas, indicando cada meseta que una onda
local de frecuencia relativamente baja está superpuesta sobre la
onda principal del discurso, y el emisor de informes de emociones
es operable para proporcionar una indicación adecuada de salida,
basada en la tasa de ocurrencia de mesetas. Por ejemplo, el emisor
de informes de emociones puede proporcionar una indicación adecuada
de salida cuando se halla que cambia la tasa de ocurrencia de
mesetas.
De manera similar, cada pico indica que una onda
local de frecuencia relativamente alta está superpuesta sobre la
onda principal del discurso. Una ventaja particular de analizar
mesetas y picos, según se muestra y describe aquí, es que pueden
analizarse esencialmente todas las frecuencias de la onda del
discurso.
También se proporciona, según otra realización
preferida de la presente invención, un procedimiento para detectar
el estado emocional, y que incluye el establecimiento de una gama
característica multidimensional que caracteriza la gama de
emociones de un individuo en reposo, monitorizando al individuo en
cuanto a una pluralidad de parámetros correspondientes a las
emociones, en el transcurso de un primer periodo, durante el cual el
individuo está en un estado emocionalmente neutro, y definiendo la
gama característica multidimensional como una función de la gama de
la pluralidad de parámetros correspondientes a las emociones durante
el primer periodo, y monitorizando al individuo en cuanto a la
pluralidad de parámetros correspondientes a las emociones, en el
transcurso de un segundo periodo, durante el cual se desea detectar
el estado emocional del individuo, para obtener de tal manera una
medición de la pluralidad de parámetros correspondientes a las
emociones, y ajustando la medición para tener en cuenta la
gama.
También se proporciona, según otra realización
preferida de la presente invención, un procedimiento para detectar
el estado emocional de un individuo, incluyendo el procedimiento
recibir una muestra de habla generada por el individuo y derivar de
la misma información de entonación, y generar una indicación de
salida del estado emocional del individuo, basada en la información
de entonación.
La presente invención será comprendida y
apreciada a partir de la siguiente descripción detallada, tomada
conjuntamente con los dibujos, en los cuales:
La Fig. 1A es una ilustración gráfica de un
sistema para la monitorización en línea del estado emocional de una
persona que habla,
\global\parskip1.000000\baselineskip
La Fig. 1B es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para la
monitorización en línea del estado emocional de una persona que
habla,
La Fig. 2 es una ilustración gráfica de un
segmento de voz que incluye un cierto número de picos,
La Fig. 3 es una ilustración gráfica de un
segmento de voz que incluye un cierto número de mesetas,
La Fig. 4 es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para realizar la
etapa 40 de la Fig. 1B,
La Fig. 5 es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para implementar
la etapa de construcción del perfil emotivo veraz/neutro de la Fig.
1B,
La Fig. 6 es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para realizar la
etapa 90 de la Fig. 1B en un segmento específico,
La Fig. 7 es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para realizar la
etapa 100 de la Fig. 1B,
La Fig. 8 es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para realizar la
etapa 105 de la Fig. 1B,
La Fig. 9 es una ilustración gráfica de una
visualización en pantalla que ilustra el formulario, en modalidad
de diseño, justo antes de iniciar la aplicación del Apéndice A,
La Fig. 10 es una ilustración gráfica de una
visualización en pantalla que ilustra el formulario, en la modalidad
de ejecución del sistema del Apéndice A, durante la calibración
para un sujeto específico,
La Fig. 11 es una ilustración gráfica de una
visualización en pantalla que ilustra el formulario, en la modalidad
de ejecución del sistema del Apéndice A, durante la evaluación de
un sujeto, y
La Fig. 12 es una ilustración de diagrama de
flujo simplificado de un sistema preferido para realizar el
procedimiento de la Fig. 1B.
Se adjunta a la presente el siguiente apéndice,
que ayuda a la comprensión y apreciación de una realización
preferida de la invención aquí mostrada y descrita:
El Apéndice A es un listado de ordenador de una
implementación preferida en software de una realización preferida
de la invención aquí mostrada y descrita.
Una porción de la revelación de este documento
de patente contiene material que está sujeto a la protección de
derechos de autor. El dueño de los derechos de autor no tiene
objeción en la reproducción por facsímil, por cualquier persona,
del documento de patente o de la revelación de la patente, según
aparece en el fichero o registros de patente de la Oficina de
Patentes y Marcas, pero se reserva por otra parte absolutamente
todos los derechos de autor.
La Fig. 1A es una ilustración gráfica de un
sistema para la monitorización en línea del estado emocional de una
persona que habla. Según se muestra, una entrada de voz, que llega
por una línea telefónica, en la realización ilustrada, es recibida
por el sistema. El sistema analiza la entrada de voz a fin de
obtener una indicación del estado emocional de la persona que
habla, indicación que, preferiblemente, se proporciona al usuario en
tiempo real, p. ej., sobre la pantalla de visualización, según se
muestra.
La Fig. 1B es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para la
monitorización en línea del estado emocional de una persona que
habla. El procedimiento de la Fig. 1B, preferiblemente, incluye las
siguientes etapas:
Etapa 10 de inicialización: Se definen
constantes tales como los valores umbral de diversos parámetros, que
definen gamas que se consideran indicadoras de diversas emociones,
según se describe en detalle más adelante.
Etapa 20: Registrar una voz, periódicamente o a
pedido. Por ejemplo, pueden grabarse continuamente segmentos de 0,5
segundos de voz, es decir, cada 0,5 segundos. Alternativamente,
pueden considerarse segmentos de cualquier otra longitud adecuada,
que puedan o no solaparse. Por ejemplo, los segmentos adyacentes
pueden solaparse casi totalmente, excepto para una muestra, o unas
pocas.
Digitalizar la grabación de la voz.
Adicional o alternativamente, pueden tomarse
muestras de segmentos solapados de la grabación.
Etapa 30: Analizar el segmento de voz a fin de
marcar la porción crucial del segmento de voz, es decir, la porción
del segmento de voz que se piensa que contiene efectivamente
información vocal, a diferencia del ruido de fondo. Un criterio
adecuado para la detección de información de voz es la amplitud, p.
ej., la primera instancia de amplitud que supera un umbral se
considera el comienzo de la información de voz, y el final de la
información de voz se considera el punto después del cual no se
halla ningún sonido que supere un umbral para una duración
predeterminada.
Preferiblemente, las muestras en la porción
crucial están normalizadas, p. ej., amplificando las muestras para
aprovechar la gama entera de amplitud que pueda caber en la memoria,
p. ej., unidades de amplitud +/- 127, si se utiliza memoria de 8
bits.
Etapa 40: Contar picos y mesetas en la porción
crucial. Calcular la longitud de cada meseta identificada, y
calcular la longitud media de mesetas para la porción crucial y el
error estándar para la longitud de meseta.
Un "pico" es un rasgo con forma de muesca.
Por ejemplo, el término "pico" puede definirse como:
a. una secuencia de 3 muestras adyacentes en las
cuales ambas muestras primera y tercera son más altas que la
muestra del medio, o bien
b. una secuencia de 3 muestras adyacentes en las
cuales ambas muestras primera y tercera son más bajas que la
muestra del medio.
Preferiblemente, se declara un pico incluso si
las muestras primera y tercera difieren sólo muy levemente de la
muestra del medio, es decir, no hay, preferiblemente, ningún valor
umbral mínimo para la diferencia entre muestras. Sin embargo, hay,
preferiblemente, un valor umbral mínimo para la línea base del pico,
es decir, los picos que ocurren a una amplitud muy baja se
descartan porque se consideran vinculados con el ruido de fondo, en
lugar de la voz.
La Fig. 2 es una ilustración gráfica de un
segmento 32 de voz, incluyendo un cierto número de picos 34.
Una "meseta" es una planicie local en la
onda de voz. Por ejemplo, una meseta puede definirse como una
secuencia plana cuya longitud es mayor que un umbral mínimo
predeterminado, y menor que un umbral máximo predeterminado. El
umbral máximo se requiere para diferenciar la planicie local de un
periodo de silencio. Una secuencia puede considerarse como plana si
la diferencia de amplitud entre muestras consecutivas es menor que
un umbral predeterminado, tal como 5 unidades de amplitud si se
emplea memoria de 8 bits.
La Fig. 3 es una ilustración gráfica de un
segmento 36 de voz, incluyendo un cierto número de mesetas 38. En
el Apéndice A, las mesetas se denominan "saltos".
El sistema de la presente invención funciona
típicamente en una de dos modalidades:
a. Calibración - construcción de un perfil del
estado emocional veraz/neutro del sujeto, monitorizando un sujeto
mientras el sujeto no está mintiendo y/o está en un estado emocional
neutro.
b. Evaluación - Comparación del habla de un
sujeto con el perfil del estado emocional veraz/neutro del sujeto,
según lo establecido durante la calibración, a fin de establecer el
estado emocional y/o si el sujeto está siendo veraz o no.
Si el sistema debe emplearse en la modalidad de
calibración, el procedimiento continúa desde la etapa 50 hasta la
etapa 60. Si el sistema debe utilizarse en la modalidad de
evaluación, el procedimiento continúa desde la etapa 50 hasta la
etapa 80.
Etapa 60: Si se llega a la etapa 60, esto indica
que el segmento actual ha sido procesado con fines de calibración.
Por lo tanto, la información de picos y mesetas derivada en la etapa
40 se almacena en una tabla de calibración.
Los procesos de las etapas 20 - 50 se denominan
aquí "procesos de ingreso de grabación de voz". Si hay más
grabaciones de voz a ingresar con fines de calibración, el
procedimiento vuelve a la etapa 20. Si se ha completado el ingreso
de todas las grabaciones de voz con fines de calibración (etapa 70),
el procedimiento continúa en la etapa 80.
Etapa 80: Construcción de perfil del estado
emocional veraz/neutro para el sujeto que está siendo evaluado
actualmente. Esto completa la operación en modalidad de calibración.
A continuación, el sistema ingresa en la modalidad de evaluación,
en la cual las grabaciones de la voz del sujeto se comparan con su
perfil emocional veraz/neutro a fin de identificar instancias de
falsedad o emoción intensificada. El perfil del sujeto,
típicamente, refleja las tendencias centrales de la información de
picos/mesetas, y está típicamente ajustado para tener en cuenta
fenómenos de la situación de calibración. Por ejemplo, debido a la
tensión natural al comienzo del proceso de calibración, las
grabaciones iniciales de voz pueden ser menos fiables que las
grabaciones de voz subsiguientes. Preferiblemente, para obtener una
indicación fiable de tendencias centrales, pueden descartarse las
entradas extremas en la tabla de calibración.
Las etapas desde la 90 en adelante corresponden
a la modalidad de evaluación.
Etapa 90: Comparar de información de
picos/mesetas del segmento actual con el perfil emocional
veraz/neutro calculado en la etapa 80.
Etapa 100: Aplicar umbrales a los resultados del
proceso de comparación de la etapa 90 a fin de categorizar el
segmento actual como indicador de diversas emociones y/o de
falsedad.
Etapa 105: Optativamente, compensar el arrastre.
El término "arrastre" se refiere a un estado emocional residual
que se arrastra desde un estado emocional "efectivo"
ocasionado por una primera situación percibida, en la cual el
estado emocional residual perdura después de que la primera
situación percibida ya ha acabado. Un ejemplo de una implementación
adecuada para la etapa 105 se describe aquí en el diagrama de flujo
de la Fig. 8.
Etapa 110: Exhibir un mensaje que indica la
categoría determinada en la etapa 100.
Etapa 120: Si hay segmentos de voz adicionales
para analizar, volver a la etapa 20. En caso contrario, acabar.
Puede emplearse cualquier número adecuado m de segmentos para la
calibración, tal como 5 segmentos.
La Fig. 4 es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para realizar la
etapa 40 de la Fig. 1B. Según lo descrito anteriormente, en la
etapa 40, la información de pico/meseta se genera para la porción
crucial de un segmento actual de grabación de voz.
La longitud actual de la meseta se denomina
"jj".
"Jjmapa(jj)" es el número de mesetas
cuya longitud es exactamente jj.
"Meseta" es el contador que cuenta el
número de mesetas, independientemente de su longitud.
"Pico" es el contador que cuenta el número
de picos.
n es el número de muestras en una porción
crucial en evaluación.
En la etapa 150, se reinician los contadores de
picos y mesetas.
En la etapa 160, se inicia el bucle sobre todas
las muestras de la porción crucial. El bucle se inicia en la
primera muestra crucial y termina en la última muestra crucial,
menos 2.
En la etapa 164 se registran las amplitudes de
las muestras en el bucle.
En las etapas 170 y 180 se detectan los picos y,
en las etapas 190, 195, 200 y 210, se detectan las mesetas.
En la etapa 200, si la longitud de la meseta
candidata está entre cotas razonables, tal como entre 3 y 20,
incrementar el número de mesetas de longitud jj e incrementar
Mesetas, el número total de mesetas. En caso contrario, es decir,
si la longitud de la meseta candidata es menor que 3 o mayor que 20,
la candidata a meseta no se considera una meseta.
Ya se considere o no la candidata a meseta como
una meseta "real", la longitud de la meseta, jj, se fija en
cero (etapa 210).
La etapa 220 es el final del bucle, es decir, el
punto en el cual todas las muestras en la secuencia han sido
comprobadas.
En la etapa 230, calcular el promedio (JPR) y el
error estándar (JQ) de la variable jjmapa de longitud de
meseta.
En la etapa 240, calcular PMT y JMT. PMT es el
número promedio de picos por muestra, preferiblemente normalizado
de manera adecuada. JMT es el número promedio de mesetas por
muestra, preferiblemente normalizado de manera adecuada.
Según la realización ilustrada, la detección del
estado emocional es multidimensional, es decir, el estado emocional
deriva de la información vocal por medio de una pluralidad de
variables intermedias, preferiblemente independientes.
La Fig. 5 es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para implementar
la etapa de construcción del perfil emocional veraz/neutro de la
Fig. 1B.
En la Fig. 5, PMT(i) es el valor de PMT
para el segmento i.
MinPMT es el mínimo valor de PMT medido en
cualquiera de los m segmentos.
MaxPMT es el máximo valor de PMT medido en
cualquiera de los m segmentos.
MinJMT es el mínimo valor de JMT medido en
cualquiera de los m segmentos.
MaxJMT es el máximo valor de JMT medido en
cualquiera de los m segmentos.
MinJQ es el mínimo valor de JQ medido en
cualquiera de los m segmentos.
MaxJQ es el máximo valor de JQ medido en
cualquiera de los m segmentos.
ResPMT es el tamaño de la gama de valores de PMT
hallados durante la calibración. Más en general, ResPMT puede
comprender cualquier indicación adecuada de la magnitud de la
variación en el número de picos que pueden esperarse, cuando el
sujeto está en un estado emocional veraz/neutro. Por lo tanto, si el
número de picos en un segmento de voz es no normativo, con relación
a ResPMT, entonces puede decirse que el sujeto está en un estado
emocional no neutro, tal como un estado emocional caracterizado por
la agitación o incluso la desazón. ResPMT, por lo tanto, es
típicamente una entrada al proceso de evaluación de los valores de
PMT generados durante circunstancias emocionales desconocidas.
ResJMT es el tamaño de la gama de valores de JMT
hallados durante la calibración. Más en general, ResJMT puede
comprender cualquier indicación adecuada de la magnitud de la
variación en el número de mesetas que pueden esperarse, cuando el
sujeto está en un estado emocional veraz/neutro. Por lo tanto, si el
número de mesetas en un segmento de voz es no normativo, con
relación a ResPMT, entonces puede decirse que el sujeto está en un
estado emocional no neutro, tal como un estado emocional
caracterizado por una sensación de contradicción interna o
disonancia cognitiva. ResJMT, por lo tanto, es típicamente una
entrada al proceso de evaluación de los valores de JMT generados
durante circunstancias emocionales desconocidas.
ResJQ es el tamaño de la gama de los valores de
JQ hallados durante la calibración, que sirve como un valor de
línea base para la evaluación de valores de JQ generados durante
circunstancias emocionales desconocidas.
Se aprecia que la línea base no debe ser
necesariamente una línea base de dimensión 4, según se muestra en
la Fig. 5, sino que, alternativamente, puede ser incluso
unidimensional, o puede tener mucho más de 4 dimensiones.
La Fig. 6 es una ilustración de diagrama de
flujo simplificado de un procedimiento preferido para realizar la
etapa 90 de la Fig. 1B en un segmento específico. Como se ha
descrito anteriormente, en la etapa 90, la información de
pico/meseta de un segmento actual se compara con la línea base de
emoción veraz/neutra calculada en la etapa 80.
La etapa 400 es una etapa de inicialización.
La etapa 410 calcula la desviación de una
porción crucial actual con respecto al perfil previamente calculado
del estado emocional veraz/neutro del sujeto. En la realización
ilustrada, la desviación comprende un valor de dimensión cuatro que
incluye un primer componente correspondiente al número de picos, un
segundo componente correspondiente al número de mesetas, un tercer
componente correspondiente al error estándar en la longitud de la
meseta y un cuarto componente correspondiente a la longitud promedio
de meseta. Sin embargo, se aprecia que pueden emplearse distintos
componentes en distintas aplicaciones. Por ejemplo, en algunas
aplicaciones, la distribución de picos (uniforme, errática, etc.)
durante un intervalo temporal puede ser útil para derivar
información con respecto al estado emocional del sujeto.
"Puntocontrol_{P}" es un valor umbral que
caracteriza la gama aceptable de razones entre el número promedio
de picos en circunstancias emocionales veraces/neutras, y el número
específico de picos en la porción crucial actual.
"Puntocontrol_{J}" es un valor umbral que
caracteriza la gama aceptable de razones entre el número promedio
de mesetas en circunstancias emocionales veraces/neutras, y el
número especifico de mesetas en la porción crucial actual.
"Puntocontrol_{Q}" es un valor umbral que
caracteriza la gama aceptable de razones entre el error estándar
promedio del número de mesetas en circunstancias emocionales
veraces/neutras, y el error estándar específico en el número de
mesetas en la porción crucial actual.
"Puntocontrol_{M}" es un valor umbral que
caracteriza la gama aceptable de razones entre la longitud promedio
de la meseta en circunstancias emocionales veraces/neutras, y la
específica longitud promedio de la meseta en la porción crucial
actual.
Las etapas 420-470 actualizan el
perfil del sujeto para tener en cuenta la nueva información acopiada
a partir del segmento actual. En la realización ilustrada, sólo se
actualizan los valores de ResPMT y de ResJMT, y sólo si la
desviación de una porción crucial actual con respecto al perfil
previamente calculado del estado emocional veraz/neutro del sujeto
es bien muy grande (p. ej., supera valores tope predeterminados) o
bien muy pequeño (p. ej., queda por debajo de ciertos valores base
predeterminados, típicamente negativos). Si la desviación de la
porción crucial actual con respecto al perfil veraz/neutro no es ni
muy grande ni muy pequeña (p. ej., queda entre los valores tope y
base), el perfil del sujeto, típicamente, se deja intacto en esta
etapa.
En las etapas 460 y 470, si zzPMT y zzJMT,
respectivamente, están muy cerca de cero, entonces se aumenta la
sensibilidad del sistema disminuyendo, respectivamente, ResPMT y
ResJMT.
La etapa 480 genera combinaciones adecuadas,
típicamente específicas para la aplicación, de los componentes de
desviación calculados en la etapa 410. Estas combinaciones se
utilizan como base para criterios adecuados de clasificación
emocional, tales como los criterios de clasificación emocional
especificados en la Fig. 7. Los criterios de clasificación
emocional de la Fig. 7 determinan si se clasifica o no al sujeto
como que está exagerando, como que no está siendo veraz, como que
está evadiéndose, como que está confundido o inseguro, como que
está agitado, o como que está sarcástico. Sin embargo, se aprecia
que pueden emplearse distintas clasificaciones emocionales en
distintas situaciones.
En la realización ilustrada, la información de
PMT se utiliza principalmente para determinar el nivel de agitación.
Más específicamente, se utiliza zzPMT para determinar el valor de
crAGITA, que también puede depender de parámetros adicionales,
tales como crTENSION. Por ejemplo, un valor de crAGITA entre 70 y
120 puede considerarse normal, mientras que los valores entre 120 y
160 pueden considerarse indicadores de agitación media, y los
valores que superan 160 pueden considerarse indicadores de
agitación en alto grado.
En la realización ilustrada, la información de
JMT se emplea principalmente para determinar los sentimientos de
disonancia sicológica. Por ejemplo, un valor de zzJMT entre 0,6 y
1,2 puede considerarse normal, mientras que un valor de entre 1,2 y
1,7 puede considerarse indicador de confusión o incertidumbre. Un
valor que supera 1,7 puede considerarse indicador de autopercepción
vocal por parte del sujeto, y/o un intento del sujeto para
controlar su voz.
En la realización ilustrada, los valores de zzJQ
y de crTENSION se utilizan principalmente para determinar el nivel
de tensión. Por ejemplo, un valor de crTENSION entre 70 y 120 puede
considerarse normal, mientras que los valores por encima de 120
pueden considerarse indicadores de alta tensión.
En la realización ilustrada, la información de
JPR se utiliza para determinar la magnitud del pensamiento empleado
en palabras o frases habladas. Por ejemplo, si crPENSAMIENTO supera
un valor de 100, entonces la magnitud de pensamiento empleado en
una última frase hablada es mayor que la magnitud de pensamiento
empleado en la fase de calibración. Esto significa que la persona
está pensando acerca de lo que está diciendo más de cuanto lo hacía
en la fase de calibración. Si el valor es menor que 100, la persona
está pensando acerca de lo que está diciendo menos de cuanto lo
hacía en la fase de calibración.
En la realización ilustrada, el parámetro
crMENTIRA se utiliza para determinar la veracidad. Un valor de
crMENTIRA de 50 puede considerarse indicador de falta de veracidad,
los valores entre 50 y 60 pueden considerarse indicadores de
sarcasmo o humor, los valores entre 60 y 130 pueden considerarse
indicadores de veracidad, los valores entre 130 y 170 pueden
considerarse indicadores de inexactitud o exageración, y los valores
por encima de 170 pueden considerarse indicadores de falta de
veracidad.
Con referencia nuevamente a la Fig. 6, los
parámetros mencionados anteriormente pueden recibir los siguientes
valores:
Se aprecia que todos los valores numéricos son
meros ejemplos y son, típicamente, dependientes de la
aplicación.
La Fig. 7 ilustra el procedimiento para
convertir los diversos parámetros en mensajes que puedan exhibirse,
como se muestra, por ejemplo, en la Fig. 1.
La Fig. 8 representa un procedimiento para el
ajuste fino del estado emocional veraz/neutro.
El Apéndice A es un listado de ordenador de una
implementación en software de una realización preferida de la
invención aquí mostrada y descrita, que difiere levemente de la
realización aquí mostrada y descrita con referencia a los
dibujos.
Un procedimiento adecuado para generar la
implementación en software es el siguiente:
a. En un ordenador personal equipado con un
micrófono, una tarjeta de sonido y el software Visual Basic™ Versión
5, generar un nuevo proyecto.
La configuración de grabación de la tarjeta de
sonido puede funcionar de acuerdo a los siguientes parámetros: 11
KHz, 8 bits, mono, PCM.
b. Colocar un objeto temporizador sobre el
formulario por omisión que aparece en el nuevo proyecto. El objeto
temporizador se llama "temporizador1".
c. Colocar un objeto de control de multimedios
MCI sobre el formulario. Este objeto se llama "controlmm1".
d. Colocar 5 objetos de etiqueta sobre el
formulario. Estas etiquetas se llaman etiqueta1, etiqueta2,
etiqueta3, etiqueta4 y etiqueta6.
e. Crear 4 vectores de etiquetas sobre el
formulario. Renombrar los vectores de la siguiente manera:
PMT(0..4), JMT(0..4), JQ(0..4),
JPR(0..4).
f. Colocar un botón de comando sobre el
formulario y cambiar, en las propiedades, su título a "FIN". El
botón de comando se llama "comando1".
g. Generar código para el formulario tecleando
el contenido de las páginas del Apéndice A con el encabezamiento
"formulario1".
h. Añadir un módulo al proyecto. Generar código
para el módulo tecleando el contenido de las páginas del Apéndice A
con el encabezamiento "Detector_de_sentimientos".
i. Conectar un micrófono al ordenador
personal.
j. Pulsar F5 o "Ejecutar" ("Run") a
fin de iniciar la aplicación.
La Fig. 9 es una ilustración gráfica de una
visualización en pantalla que ilustra el formulario, en modalidad
de diseño, justo antes de iniciar la aplicación.
La Fig. 10 es una ilustración gráfica de una
visualización en pantalla que ilustra el formulario, en modalidad
de ejecución, durante la calibración de un sujeto específico.
La Fig. 11 es una ilustración gráfica de una
visualización en pantalla que ilustra el formulario, en modalidad
de ejecución, durante la evaluación de un sujeto.
Los valores de la variable CoR_msjX en el
Apéndice A son los siguientes:
1 - veracidad, 2 - sarcasmo, 3 - agitación, 4 -
confusión/incertidumbre, 5 - suma agitación, 6 - manipulación
vocal, 7 - mentira/afirmación falsa, 8 -
exageración/inexactitud.
Las variables que llevan datos de la porción
crucial actual tienen nombres que comienzan por los siguientes
caracteres: cor_.
Los factores de línea base tienen nombres que
comienzan por los siguientes caracteres: cal_.
Los factores de punto de control tienen nombres
que comienzan por los siguientes caracteres: pc_.
ResPMT y resJMT se llaman, respectivamente, ResP
y ResJ.
La Fig. 12 es una ilustración, de diagrama de
bloques funcionales simplificado, de un sistema para detectar
estados emocionales, que se construye y que funciona según una
realización preferida de la presente invención, y que es operable
para realizar el procedimiento de la Fig. 1B. Según se muestra, el
sistema de la Fig. 12 incluye un dispositivo de ingreso de voz,
tal como una grabadora 700 de cinta, un micrófono 710 o teléfono
720, que genera habla, la cual es ingresada por una estación 735 de
trabajo de detección de emociones, por medio de un convertidor
analógico/digital (A/D) 740. Una grabadora 750 de ventana de voz,
típicamente, particiona las señales entrantes, que representan el
habla, en ventanas o segmentos de voz, que son analizados por un
analizador 770 de ventanas de voz. El analizador de ventanas de voz
compara las ventanas o segmentos de voz con los datos de
calibración almacenados en la unidad 770. Los datos de calibración,
típicamente, se derivan individualmente para cada sujeto
individual, según lo anteriormente descrito en detalle. Se
proporciona una unidad de visualización o impresora 780 a fin de
exhibir o imprimir un informe del estado emocional, preferiblemente
en línea, para el usuario del sistema.
Se aprecia que los componentes de software de la
presente invención, si se desea, pueden implementarse en forma de
ROM (memoria de sólo lectura). Los componentes de software,
generalmente, pueden implementarse en hardware, si se desea,
utilizando técnicas convencionales.
Se aprecia que la realización específica
descrita en el Apéndice está concebida sólo para proporcionar una
revelación extremadamente detallada de la presente invención, y no
está concebida como limitación.
Se aprecia que las diversas características de
la invención que, para mayor claridad, se describen en los
contextos de realizaciones separadas, también pueden proporcionarse
en combinación en una única realización. Y viceversa: diversas
características de la invención que, para mayor brevedad, se
describen en el contexto de una única realización, también pueden
proporcionarse por separado o en cualquier subcombinación
adecuada.
Las personas versadas en la técnica apreciarán
que la presente invención no está limitada a lo que se ha mostrado
y descrito en particular en lo precedente. En cambio, el ámbito de
la presente invención está definido sólo por las reivindicaciones
siguientes:
Claims (31)
1. Un aparato para detectar el estado emocional
de un individuo, comprendiendo el aparato:
un analizador de voz operable para analizar un
segmento de voz de un espécimen (32) de voz muestreada, generado
por el individuo, y para derivar directamente del mismo información
de entonación, en donde dicha información de entonación incluye al
menos una entre información correspondiente al número de picos
dentro del segmento de voz, información correspondiente al número
de mesetas dentro del segmento de voz e información correspondiente
a la longitud de las mesetas dentro del segmento de voz; y
un emisor de informes sobre emociones, operable
para generar una indicación de salida del estado emocional del
individuo, basada en dicha información de entonación;
en el cual un pico es una característica en el
espécimen de voz que incluye una secuencia de primera muestra,
muestra media y tercera muestra adyacentes; tanto la primera muestra
como la tercera muestra son más altas o más bajas que la muestra
media; y
en el cual una meseta es un segmento plano en el
espécimen de voz, en el cual la longitud del segmento plano es
mayor que un predeterminado umbral mínimo, y es menor que un
predeterminado umbral máximo, y en el cual una diferencia de
amplitud entre muestras consecutivas en el segmento plano es menor
que un umbral de amplitud predeterminado.
2. El aparato según la reivindicación 1, en el
cual dicho espécimen (32) de voz se proporciona por teléfono (720)
a dicho analizador de voz.
3. El aparato según la reivindicación 1, en el
cual dicho informe sobre el estado emocional del individuo incluye
un informe de detección de mentiras basado en el estado emocional
del individuo.
4. El aparato según cualquiera de las
reivindicaciones 1-3, en el cual dicha información
de entonación comprende información de entonación
multidimensional.
5. El aparato según la reivindicación 4, en el
cual dicha información de entonación multidimensional comprende al
menos información tridimensional.
6. El aparato según la reivindicación 4, en el
cual dicha información de entonación multidimensional comprende al
menos información de dimensión 4.
7. El aparato según la reivindicación 1, en el
cual dicha información de entonación incluye información
correspondiente al número de picos dentro del segmento de voz y
dicho estado emocional incluye el nivel de excitación.
8. El aparato según la reivindicación 1, en el
cual dicha información de entonación incluye información
correspondiente al número de picos dentro del segmento de voz, y
dicha información correspondiente al número de picos incluye
información correspondiente a la distribución de picos a lo largo
del tiempo.
9. El aparato según la reivindicación 1, en el
cual dicha información de entonación incluye información
correspondiente al número de mesetas dentro del segmento de voz y
dicho estado emocional incluye sentimientos de disonancia
sicológica.
10. El aparato según la reivindicación 1, en el
cual dicha información de entonación incluye información
correspondiente a la longitud de las mesetas dentro del segmento de
voz, y dicha información correspondiente a la longitud de las
mesetas incluye una longitud media de meseta para un periodo de
tiempo predeterminado.
11. El aparato según la reivindicación 10, en el
cual dicho estado emocional incluye el número de pensamientos
empleados en palabras o frases habladas.
12. El aparato según la reivindicación 10, en el
cual dicha información de entonación incluye información
correspondiente a la longitud de las mesetas dentro del segmento de
voz, y dicha información correspondiente a la longitud de mesetas
comprende un error estándar de la longitud de la meseta para un
periodo de tiempo predeterminado.
13. El aparato según la reivindicación 12, en el
cual dicho estado emocional incluye el nivel de estrés.
14. El aparato según la reivindicación 7, en el
cual dicho estado emocional incluye la veracidad.
15. El aparato según la reivindicación 1, en el
cual dicho analizador de voz comprende un analizador de voz
multidimensional, operable para ingresar un espécimen (32) de voz
generado por el individuo, y para cuantificar una pluralidad de
características de dicho espécimen (32) de voz; y
en el cual dicho emisor de informes sobre
emociones comprende un emisor de informes evaluador de credibilidad
operable para generar una indicación de salida de la credibilidad
del individuo, incluyendo la detección de mentiras, basada en dicha
pluralidad de características cuantificadas.
16. Aparato según una cualquiera de las
reivindicaciones 1-6, 9-13, en el
cual dicho espécimen (32) de voz comprende una onda principal de
voz con un periodo, y en el cual dicho analizador de voz es operable
para analizar el espécimen (32) de voz a fin de determinar la tasa
de ocurrencia de las mesetas (38), indicando cada meseta que una
onda local de baja frecuencia está superpuesta sobre la onda
principal de voz; y
en el cual el emisor de informes sobre emociones
es operable para proporcionar una indicación de salida adecuada
basada en la tasa de ocurrencia de las mesetas (38).
17. Un procedimiento para detectar el estado
emocional de un individuo, comprendiendo el procedimiento:
recibir un segmento de voz de un espécimen (32)
de voz muestreada, generado por el individuo, y derivar directamente
del mismo información de entonación, en donde dicha información de
entonación incluye al menos una entre la información
correspondiente al número de picos dentro del segmento de voz, la
información correspondiente al número de mesetas dentro del
segmento de voz y la información correspondiente a la longitud de
las mesetas dentro del segmento de voz; y
generar una indicación de salida del estado
emocional del individuo, basada en dicha información de
entonación;
en el cual un pico es una característica en el
espécimen de voz que incluye una secuencia de primera muestra,
muestra media y tercera muestra adyacentes; tanto la primera muestra
como la tercera muestra son más altas o más bajas que la muestra
media, y en el cual una meseta es un segmento plano en el espécimen
de voz, en el cual la longitud del segmento plano es mayor que un
umbral mínimo predeterminado, y es menor que un umbral máximo
predeterminado, y en el cual una diferencia de amplitud entre
muestras consecutivas en el segmento plano es menor que un umbral
de amplitud predeterminado.
18. El procedimiento según la reivindicación 17,
en el cual dicha recepción del espécimen de voz se hace por
teléfono.
19. Un procedimiento según la reivindicación 17,
en el cual dicha derivación de información de entonación
comprende:
cuantificar una pluralidad de características de
dicho espécimen (32) de voz; y
en el cual dicha generación de una indicación de
salida comprende:
generar una indicación de salida de la
credibilidad del individuo, incluyendo la detección de mentiras,
basada en dicha pluralidad de características cuantificadas.
20. El procedimiento según cualquiera de las
reivindicaciones 17-19, en el cual dicha información
de entonación incluye información correspondiente al número de
picos dentro del segmento de voz y la derivación de información de
entonación incluye:
derivar información de entonación
multidimensional.
21. El procedimiento según la reivindicación 17,
en el cual dicha información de entonación incluye información
correspondiente al número de picos dentro del segmento de voz y la
derivación de información de entonación
incluye:
incluye:
contar el número de picos en un periodo de
tiempo predeterminado dentro del segmento de voz.
22. El procedimiento según la reivindicación 21,
en el cual dicho estado emocional incluye el nivel de agitación.
23. El procedimiento según la reivindicación 17,
en el cual dicha información de entonación incluye información
correspondiente al número de picos dentro del segmento de voz y la
derivación de la información de entonación incluye:
calcular la distribución de picos a lo largo del
tiempo dentro del segmento de voz.
24. El procedimiento según la reivindicación 17,
en el cual dicha información de entonación incluye información
correspondiente al número de mesetas dentro del segmento de voz y la
derivación de información de entonación incluye:
contar el número de mesetas en un periodo de
tiempo predeterminado.
25. El procedimiento según la reivindicación 24,
en el cual dicho estado emocional incluye sentimientos de
disonancia sicológica.
26. El procedimiento según la reivindicación 17,
en el cual dicha información de entonación incluye información
correspondiente a la longitud de las mesetas dentro del segmento de
voz y la derivación de la información de entonación incluye:
calcular una longitud media de meseta para un
periodo de tiempo predeterminado.
27. El procedimiento según la reivindicación 26,
en el cual dicho estado emocional incluye la cantidad de
pensamientos empleados en palabras o frases habladas.
28. El procedimiento según la reivindicación 26,
en el cual la derivación de la información de entonación incluye
adicionalmente:
calcular un error estándar de longitud de meseta
para el periodo de tiempo predeterminado.
29. El procedimiento según la reivindicación 28,
en el cual dicho estado emocional incluye el nivel de estrés.
30. El procedimiento según la reivindicación 17,
en el cual dicho estado emocional incluye la veracidad.
31. El procedimiento según la reivindicación 17,
en el cual la recepción de un segmento de voz comprende:
establecer una gama de características que
caracterizan la gama de emociones del individuo en reposo
mediante:
monitorizar al individuo para dicha información
de entonación en el transcurso de un primer periodo, durante el
cual el individuo está en un estado emocional neutro; y
definir la gama de características como una
función de la gama de la información de entonación durante dicho
primer periodo; y
en el cual dicha generación de una indicación de
salida comprende:
monitorizar al individuo para dicha información
de entonación en el transcurso de un segundo periodo, durante el
cual se desea detectar el estado emocional del individuo, para
obtener por ello una medición de dicha información de entonación, y
ajustar dicha medición para tener en cuenta dicha gama de
características.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IL12263297A IL122632A0 (en) | 1997-12-16 | 1997-12-16 | Apparatus and methods for detecting emotions |
IL122632 | 1997-12-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2283082T3 true ES2283082T3 (es) | 2007-10-16 |
Family
ID=11070983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES98960070T Expired - Lifetime ES2283082T3 (es) | 1997-12-16 | 1998-12-16 | Aparatos y procedimientos para detectar emociones. |
Country Status (19)
Country | Link |
---|---|
US (1) | US6638217B1 (es) |
EP (1) | EP1038291B1 (es) |
JP (1) | JP4309053B2 (es) |
CN (1) | CN1174373C (es) |
AT (1) | ATE354159T1 (es) |
AU (1) | AU770410B2 (es) |
BR (1) | BR9814288A (es) |
CA (1) | CA2313526C (es) |
DE (1) | DE69837107T2 (es) |
ES (1) | ES2283082T3 (es) |
HK (1) | HK1034796A1 (es) |
HU (1) | HU226537B1 (es) |
IL (1) | IL122632A0 (es) |
PL (1) | PL341296A1 (es) |
PT (1) | PT1038291E (es) |
RU (1) | RU2294023C2 (es) |
TR (1) | TR200001765T2 (es) |
TW (1) | TW446933B (es) |
WO (1) | WO1999031653A1 (es) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL129399A (en) * | 1999-04-12 | 2005-03-20 | Liberman Amir | Apparatus and methods for detecting emotions in the human voice |
US6275806B1 (en) | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
US7590538B2 (en) | 1999-08-31 | 2009-09-15 | Accenture Llp | Voice recognition system for navigating on the internet |
US6463415B2 (en) * | 1999-08-31 | 2002-10-08 | Accenture Llp | 69voice authentication system and method for regulating border crossing |
US7222075B2 (en) | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
US6480826B2 (en) * | 1999-08-31 | 2002-11-12 | Accenture Llp | System and method for a telephonic emotion detection that provides operator feedback |
US6427137B2 (en) | 1999-08-31 | 2002-07-30 | Accenture Llp | System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud |
TWI221574B (en) * | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
ES2177437B1 (es) * | 2000-12-13 | 2003-09-01 | Neturin S L | Dispositivo analizador animico para mamiferos. |
IL144818A (en) | 2001-08-09 | 2006-08-20 | Voicesense Ltd | Method and apparatus for speech analysis |
US6721704B1 (en) | 2001-08-28 | 2004-04-13 | Koninklijke Philips Electronics N.V. | Telephone conversation quality enhancer using emotional conversational analysis |
EP1300831B1 (en) * | 2001-10-05 | 2005-12-07 | Sony Deutschland GmbH | Method for detecting emotions involving subspace specialists |
US7191134B2 (en) * | 2002-03-25 | 2007-03-13 | Nunally Patrick O'neal | Audio psychological stress indicator alteration method and apparatus |
CN100534103C (zh) * | 2004-09-10 | 2009-08-26 | 松下电器产业株式会社 | 用于通告人的情感的信息处理终端和方法 |
US20060229882A1 (en) * | 2005-03-29 | 2006-10-12 | Pitney Bowes Incorporated | Method and system for modifying printed text to indicate the author's state of mind |
US7580512B2 (en) * | 2005-06-28 | 2009-08-25 | Alcatel-Lucent Usa Inc. | Selection of incoming call screening treatment based on emotional state criterion |
WO2007017853A1 (en) * | 2005-08-08 | 2007-02-15 | Nice Systems Ltd. | Apparatus and methods for the detection of emotions in audio interactions |
JP2009508553A (ja) * | 2005-09-16 | 2009-03-05 | アイモーションズ−エモーション テクノロジー エー/エス | 眼球性質を解析することで、人間の感情を決定するシステムおよび方法 |
US8078470B2 (en) * | 2005-12-22 | 2011-12-13 | Exaudios Technologies Ltd. | System for indicating emotional attitudes through intonation analysis and methods thereof |
US8204747B2 (en) * | 2006-06-23 | 2012-06-19 | Panasonic Corporation | Emotion recognition apparatus |
JP2009543611A (ja) * | 2006-07-12 | 2009-12-10 | メディカル サイバーワールド、インコーポレイテッド | コンピュータ化医療訓練システム |
CA2663078A1 (en) * | 2006-09-07 | 2008-03-13 | The Procter & Gamble Company | Methods for measuring emotive response and selection preference |
JP2010506206A (ja) * | 2006-10-03 | 2010-02-25 | エヴゲニエヴィッチ ナズドラチェンコ、アンドレイ | 声に応じて人のストレス状態を測定する方法およびこの方法を実行する装置 |
US20080260212A1 (en) * | 2007-01-12 | 2008-10-23 | Moskal Michael D | System for indicating deceit and verity |
US20110022395A1 (en) * | 2007-02-15 | 2011-01-27 | Noise Free Wireless Inc. | Machine for Emotion Detection (MED) in a communications device |
EP1998452A1 (en) * | 2007-06-01 | 2008-12-03 | EADS Deutschland GmbH | Method for compression and expansion of audio signals |
US8346559B2 (en) * | 2007-12-20 | 2013-01-01 | Dean Enterprises, Llc | Detection of conditions from sound |
US8219397B2 (en) * | 2008-06-10 | 2012-07-10 | Nuance Communications, Inc. | Data processing system for autonomously building speech identification and tagging data |
US20090318773A1 (en) * | 2008-06-24 | 2009-12-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Involuntary-response-dependent consequences |
US20100010370A1 (en) | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
WO2010018459A2 (en) | 2008-08-15 | 2010-02-18 | Imotions - Emotion Technology A/S | System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text |
US8340974B2 (en) * | 2008-12-30 | 2012-12-25 | Motorola Mobility Llc | Device, system and method for providing targeted advertisements and content based on user speech data |
US9295806B2 (en) | 2009-03-06 | 2016-03-29 | Imotions A/S | System and method for determining emotional response to olfactory stimuli |
RU2532619C2 (ru) * | 2009-04-17 | 2014-11-10 | Конинклейке Филипс Электроникс Н.В. | Система эмбиентной телефонной связи, подвижный элемент, способ и машиночитаемый носитель для нее |
US20140025385A1 (en) * | 2010-12-30 | 2014-01-23 | Nokia Corporation | Method, Apparatus and Computer Program Product for Emotion Detection |
US20120182211A1 (en) * | 2011-01-14 | 2012-07-19 | Research In Motion Limited | Device and method of conveying emotion in a messaging application |
US20120182309A1 (en) * | 2011-01-14 | 2012-07-19 | Research In Motion Limited | Device and method of conveying emotion in a messaging application |
GB2500362A (en) * | 2011-02-03 | 2013-09-25 | Research In Motion Ltd | Device and method of conveying emotion in a messaging application |
GB2500363A (en) * | 2011-02-03 | 2013-09-25 | Research In Motion Ltd | Device and method of conveying emotion in a messaging application |
US10445846B2 (en) | 2011-04-14 | 2019-10-15 | Elwha Llc | Cost-effective resource apportionment technologies suitable for facilitating therapies |
US10853819B2 (en) | 2011-04-14 | 2020-12-01 | Elwha Llc | Cost-effective resource apportionment technologies suitable for facilitating therapies |
US10373508B2 (en) * | 2012-06-27 | 2019-08-06 | Intel Corporation | Devices, systems, and methods for enriching communications |
RU2553413C2 (ru) * | 2012-08-29 | 2015-06-10 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") | Способ выявления эмоционального состояния человека по голосу |
RU2525284C2 (ru) * | 2012-11-16 | 2014-08-10 | Валерий Викторович Курышев | Способ определения степени эмоционального воздействия развлекательных мероприятий на зрителя |
US9378741B2 (en) | 2013-03-12 | 2016-06-28 | Microsoft Technology Licensing, Llc | Search results using intonation nuances |
TWI500023B (zh) | 2013-04-11 | 2015-09-11 | Univ Nat Central | 透過視覺的聽覺輔助裝置 |
WO2015019345A1 (en) * | 2013-08-06 | 2015-02-12 | Beyond Verbal Communication Ltd | Emotional survey according to voice categorization |
CN103829958B (zh) * | 2014-02-19 | 2016-11-09 | 广东小天才科技有限公司 | 一种监测人情绪的方法及装置 |
US9786299B2 (en) | 2014-12-04 | 2017-10-10 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
JP2018515155A (ja) | 2015-03-09 | 2018-06-14 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ウェアラブルデバイスを用いてユーザの良好さを遠隔からモニタするためのシステム、デバイス、及び方法 |
EP3674951A1 (en) * | 2018-12-31 | 2020-07-01 | Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO | System and method of obtaining authentication information for user input information |
US11138379B2 (en) | 2019-04-25 | 2021-10-05 | Sorenson Ip Holdings, Llc | Determination of transcription accuracy |
CN110265063B (zh) * | 2019-07-22 | 2021-09-24 | 东南大学 | 一种基于固定时长语音情感识别序列分析的测谎方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3971034A (en) * | 1971-02-09 | 1976-07-20 | Dektor Counterintelligence And Security, Inc. | Physiological response analysis method and apparatus |
US3855418A (en) * | 1972-12-01 | 1974-12-17 | F Fuller | Method and apparatus for phonation analysis leading to valid truth/lie decisions by vibratto component assessment |
DE2431458C2 (de) * | 1974-07-01 | 1986-05-28 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Verfahren und Anordnung zur automatischen Sprechererkennung |
US4093821A (en) * | 1977-06-14 | 1978-06-06 | John Decatur Williamson | Speech analyzer for analyzing pitch or frequency perturbations in individual speech pattern to determine the emotional state of the person |
US5148483A (en) * | 1983-08-11 | 1992-09-15 | Silverman Stephen E | Method for detecting suicidal predisposition |
US5029214A (en) * | 1986-08-11 | 1991-07-02 | Hollander James F | Electronic speech control apparatus and methods |
JPH01107240U (es) * | 1988-01-08 | 1989-07-19 | ||
JPH0512023A (ja) * | 1991-07-04 | 1993-01-22 | Omron Corp | 感情認識装置 |
IL108401A (en) * | 1994-01-21 | 1996-12-05 | Hashavshevet Manufacture 1988 | Method and apparatus for indicating the emotional state of a person |
JP3280825B2 (ja) * | 1995-04-26 | 2002-05-13 | 富士通株式会社 | 音声特徴分析装置 |
JPH09265378A (ja) * | 1996-03-28 | 1997-10-07 | Hitachi Ltd | オペレータの支援方法および支援システム |
US5853005A (en) * | 1996-05-02 | 1998-12-29 | The United States Of America As Represented By The Secretary Of The Army | Acoustic monitoring system |
US5875427A (en) * | 1996-12-04 | 1999-02-23 | Justsystem Corp. | Voice-generating/document making apparatus voice-generating/document making method and computer-readable medium for storing therein a program having a computer execute voice-generating/document making sequence |
US6055501A (en) * | 1997-07-03 | 2000-04-25 | Maccaughelty; Robert J. | Counter homeostasis oscillation perturbation signals (CHOPS) detection |
-
1997
- 1997-12-16 IL IL12263297A patent/IL122632A0/xx not_active IP Right Cessation
-
1998
- 1998-12-16 JP JP2000539473A patent/JP4309053B2/ja not_active Expired - Lifetime
- 1998-12-16 ES ES98960070T patent/ES2283082T3/es not_active Expired - Lifetime
- 1998-12-16 WO PCT/IL1998/000613 patent/WO1999031653A1/en active IP Right Grant
- 1998-12-16 EP EP98960070A patent/EP1038291B1/en not_active Expired - Lifetime
- 1998-12-16 TR TR2000/01765T patent/TR200001765T2/xx unknown
- 1998-12-16 PT PT98960070T patent/PT1038291E/pt unknown
- 1998-12-16 HU HU0101836A patent/HU226537B1/hu not_active IP Right Cessation
- 1998-12-16 CA CA002313526A patent/CA2313526C/en not_active Expired - Lifetime
- 1998-12-16 CN CNB988122871A patent/CN1174373C/zh not_active Expired - Lifetime
- 1998-12-16 RU RU2000118824/09A patent/RU2294023C2/ru active
- 1998-12-16 US US09/581,722 patent/US6638217B1/en not_active Expired - Lifetime
- 1998-12-16 PL PL98341296A patent/PL341296A1/xx unknown
- 1998-12-16 DE DE69837107T patent/DE69837107T2/de not_active Expired - Lifetime
- 1998-12-16 AU AU15750/99A patent/AU770410B2/en not_active Ceased
- 1998-12-16 BR BR9814288-7A patent/BR9814288A/pt not_active Application Discontinuation
- 1998-12-16 AT AT98960070T patent/ATE354159T1/de not_active IP Right Cessation
-
1999
- 1999-01-20 TW TW088100850A patent/TW446933B/zh not_active IP Right Cessation
-
2001
- 2001-07-31 HK HK01105356A patent/HK1034796A1/xx not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
JP4309053B2 (ja) | 2009-08-05 |
AU770410B2 (en) | 2004-02-19 |
HU226537B1 (en) | 2009-03-30 |
DE69837107D1 (de) | 2007-03-29 |
BR9814288A (pt) | 2000-10-03 |
CA2313526C (en) | 2009-08-11 |
WO1999031653A1 (en) | 1999-06-24 |
CA2313526A1 (en) | 1999-06-24 |
PT1038291E (pt) | 2007-05-31 |
HUP0101836A3 (en) | 2004-04-28 |
IL122632A0 (en) | 1998-08-16 |
EP1038291B1 (en) | 2007-02-14 |
PL341296A1 (en) | 2001-04-09 |
EP1038291A4 (en) | 2000-11-22 |
DE69837107T2 (de) | 2007-11-22 |
TW446933B (en) | 2001-07-21 |
US6638217B1 (en) | 2003-10-28 |
TR200001765T2 (tr) | 2000-11-21 |
AU1575099A (en) | 1999-07-05 |
EP1038291A1 (en) | 2000-09-27 |
CN1174373C (zh) | 2004-11-03 |
JP2002509267A (ja) | 2002-03-26 |
ATE354159T1 (de) | 2007-03-15 |
RU2294023C2 (ru) | 2007-02-20 |
CN1282445A (zh) | 2001-01-31 |
HUP0101836A1 (hu) | 2001-09-28 |
HK1034796A1 (en) | 2001-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2283082T3 (es) | Aparatos y procedimientos para detectar emociones. | |
US7165033B1 (en) | Apparatus and methods for detecting emotions in the human voice | |
US6353810B1 (en) | System, method and article of manufacture for an emotion detection system improving emotion recognition | |
RU2287856C2 (ru) | Способ обнаружения эмоций, способ генерирования чувствительности и система и машиночитаемый носитель для их осуществления | |
EP1222656B1 (en) | Telephonic emotion detector with operator feedback | |
US6591238B1 (en) | Method for detecting suicidal predisposition | |
ES2261706T3 (es) | Metodo y aparato para analisis de la conversacion. | |
US4490840A (en) | Oral sound analysis method and apparatus for determining voice, speech and perceptual styles | |
JP2504171B2 (ja) | 声門波形に基づく話者識別装置 | |
US6275806B1 (en) | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters | |
EP1125280B1 (en) | Detecting emotion in voice signals through analysis of a plurality of voice signal parameters | |
US4675904A (en) | Method for detecting suicidal predisposition | |
Jensen et al. | Automatic, multimodal evaluation of human interaction | |
US20110213612A1 (en) | Acoustic Signal Classification System | |
US20090043586A1 (en) | Detecting a Physiological State Based on Speech | |
Hammersley et al. | Voice identification by humans and computers | |
Robb et al. | Syllable durations of preword and early word vocalizations | |
Wyatt et al. | Capturing spontaneous conversation and social dynamics: A privacy-sensitive data collection effort | |
Jessen | Speaker profiling and forensic voice comparison: The auditory-acoustic approach | |
Cordeiro et al. | Spectral envelope first peak and periodic component in pathological voices: A spectral analysis | |
Cler et al. | Objective measure of nasal air emission using nasal accelerometry | |
Craig et al. | Effects of time gating and word length on isolated word-recognition performance | |
US7418385B2 (en) | Voice detection device | |
Oehmen et al. | Reliability of the manual segmentation of pauses in natural speech | |
EP0012767B1 (en) | Speech analyser |