CN1174373C - 用于检测情绪的方法 - Google Patents

用于检测情绪的方法 Download PDF

Info

Publication number
CN1174373C
CN1174373C CNB988122871A CN98812287A CN1174373C CN 1174373 C CN1174373 C CN 1174373C CN B988122871 A CNB988122871 A CN B988122871A CN 98812287 A CN98812287 A CN 98812287A CN 1174373 C CN1174373 C CN 1174373C
Authority
CN
China
Prior art keywords
information
individual
platform
spike
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
CNB988122871A
Other languages
English (en)
Other versions
CN1282445A (zh
Inventor
阿米尔·利伯曼
Original Assignee
ARMEL LIBERMAN
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ARMEL LIBERMAN filed Critical ARMEL LIBERMAN
Publication of CN1282445A publication Critical patent/CN1282445A/zh
Application granted granted Critical
Publication of CN1174373C publication Critical patent/CN1174373C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics

Abstract

本发明揭示了一种用于检测个人的情绪状态的装置,该装置包括:话音分析(760),可操作地输入(710,720,730)由个人产生的语音样本并从中导出语调信息;和情绪报告器,可操作地根据语调信息(735)产生个人的情绪状态的输出指示。还揭示了用于进行多维谎言检测和用于检测情绪状态的方法。

Description

用于检测情绪的方法
技术领域
本发明涉及用于监测情绪状态的方法。
背景技术
已公开的PCT申请WO97/01984(PCT/IL96/00027)描述了一种用于实现对一个对象的情绪状态的至少一种生理学变量特征的生物反馈调节的方法,包括以下步骤:监测该对象的情绪状态的至少一种语音参数特征以便产生一指示信号,和使用该指示信号来向该对象提供该至少一种生理学变量的指示。一种系统可以允许以独立模式或通过电话线来执行该方法,在后一情况中可以在远离该对象的地点获得该指示信号。可以以声音方式将与对象的情绪状态有关的信息传送到远端,或通过因特网以文本方式传送,然后根据需要进行处理。
以公开的欧洲专利申请No.94850185.3(公开号306 664 537 A2)描述了一种用于确定说话序列中的情绪压力的方法和装置。根据在所说的语音中识别的一个序列,生成该语音的模型。通过比较说话序列和该建模的语音,得到它们之间的差别。
美国专利1,384,721描述了一种用于生理学响应分析的方法和装置。
Fuller的美国专利3,855,416描述了一种方法和装置,用于通过基本语音能量加权的颤音成分估算来进行导致有效的真实/谎言判定的发声分析。
Fuller的美国专利3,855,417描述了一种方法和装置,用于通过频谱能量区比较来进行导致有效的真实/谎言判定的发声分析。
Fuller的美国专利3,855,418描述了一种方法和装置,用于通过颤音成分估算来进行导致有效的真实/谎言判定的发声分析。
说明书中提到的所有公开出版物以及它们引用的公开出版物的内容都作为参考引入本文。
发明内容
本发明的目的是提供改进的用于监测情绪状态的装置和方法。
因此根据本发明的优选实施例提供一种用于检测个人的情绪状态的装置,该装置包括:话音分析器,用于可操作地输入由个人产生的语音样本并从中导出语调信息;和情绪报告器,用于可操作地根据该语调信息产生个人的情绪状态的输出指示。
根据本发明的另一个优选实施例,通过电话将语音样本提供给话音分析器。
根据本发明的另一个优选实施例,对于个人的情绪状态的报告包括基于该个人的情绪状态的谎言检测报告。
根据本发明的另一个优选实施例,语调信息包括多维语调信息。
根据本发明的另一个优选实施例,多维信息包括至少3维信息。
根据本发明的另一个优选实施例,多维信息包括至少4维信息。
根据本发明的另一个优选实施例,语调信息包括关于尖峰的信息。
根据本发明的另一个优选实施例,关于尖峰的信息包括在预定时间周期内的尖峰次数。
根据本发明的另一个优选实施例,关于尖峰的信息包括尖峰在时间上的分布。
根据本发明的另一个优选实施例,语调信息包括关于平台的信息。
根据本发明的另一个优选实施例,关于平台的信息包括预定时间周期中平台的数目。
根据本发明的另一个优选实施例,关于平台的信息包括关于平台长度的信息。
根据本发明的另一个优选实施例,关于平台长度的信息包括预定时间周期的平均平台长度。
根据本发明的另一个优选实施例,关于平台长度的信息包括预定时间周期的平台长度标准误差。
根据本发明的另一个优选实施例,还提供了一种测谎系统,包括:多维话音分析器,用于可操作地输入由个人产生的语音样本并量化该语音样本的多个特征;和可信度评价报告器,用于可操作地根据该多个量化的特征产生个人的可信度的输出指示,其中包括对谎言的检测。
根据本发明的另一个优选实施例,还提供了一种检测方法,包括:接收由个人产生的语音样本,量化该语音样本的多个特征,根据该多个量化特征产生个人的可信度的输出指示,其中包括对谎言的检测。
根据本发明的另一个优选实施例,语音样本包括具有一周期的主语音波形,并且话音分析器可操作地分析该语音样本以便确定平台的发生率,每个平台表示有一个局部的相对低频波形被叠加到主语音波形上,并且情绪报告器可操作地根据平台的发生率提供一适当的输出指示。例如,情绪报告器可以在发现平台的发生率有变化时提供一适当的输出指示。
同样地,每个尖峰表示有一个局部的相对高频波形被叠加到主语音波形上。如本文所显示和描述的那样,对平台和尖峰的分析的一个特定优点是实质上可以对语音波形的所有频率进行分析。
根据本发明的另一个优选实施例,还提供一种用于检测情绪状态的方法,包括:通过在个人处于情绪中性状态的第一时段期间监测其多个与情绪有关的参数,建立表现个人休息时的情绪范围的多维特征范围,将多维特征范围定义为第一时段期间多个与情绪有关的参数的范围的函数,在想要检测个人的情绪状态的第二时段期间监测个人的多个与情绪有关的参数,从而得到该多个与情绪有关的参数的测量,调节该测量以将该范围考虑在内。
根据本发明的另一个优选实施例,还提供一种用于检测个人情绪状态的方法,该方法包括:接收由个人产生的语音样本,从中导出语调信息,并根据该语调信息产生个人的情绪状态的输出指示。
附图说明
从以下结合附图的详细描述中可以进一步理解本发明。在附图中:
图1A是用于在线监测说话者的情绪状态的系统的示意图;
图1B是用于在线监测说话者的情绪状态的优选方法的简化流程图;
图2是包括多个尖峰的话音段的曲线图;
图3是包括多个平台的话音段的曲线图;
图4是用于执行图1B的步骤40的优选方法的简化流程图;
图5是用于实现图1B的真实/中性情绪概况建立步骤的优选方法的简化流程图;
图6是用于在一特定段上执行图1B的步骤90的优选方法的简化流程图;
图7是用于执行图1B的步骤100的优选方法的简化流程图;
图8是用于执行图1B的步骤105的优选方法的简化流程图;
图9是描绘在设计模式中,启动附录A的应用程序之前的表单(form)的屏幕显示的示意图;
图10是描绘在附录A的系统的运行模式中,在对一特定对象的校准期间表单的屏幕显示的示意图;
图11是描绘在附录A的系统的运行模式中,在测试一个对象期间表单的屏幕显示的示意图;以及
图12是用于执行图1B的方法的优选系统的简化方框图。
具体实施方式
后面的附录有助于对此处所显示和描述的本发明的一个优选实施例的理解:
附录A是所显示和描述的本发明优选实施例的优选软件实现的计算机打印程序清单。
本专利文件的部分内容包含受到版权保护的材料。如果其出现在专利和商标局的专利文件和记录中,版权所有人不反对任何人对该专利文件或专利说明书的传真复制,但在其它情况下保留其所有版权权利。
图1A是用于在线监测说话者的情绪状态的系统的示意图。如图所示,该实施例中该系统接收通过电话线到达的语音输入。该系统分析该语音输入以便得到说话者情绪状态的指示,优选地将该指示实时地(例如如图中所示在显示屏幕上)提供给用户。
图1B是用于在线监测说话者情绪状态的优选方法的简化流程图。图1B的方法优选包括以下步骤:
初始化步骤10:定义诸如各种参数的阈值的常数,定义被认为是指示各种情绪的范围,后面将对此进行详细描述。
步骤20:周期性地或根据命令记录一话音。例如,连续记录0.5秒的一段话音,即每段0.5秒。作为选择,可以考虑任何适当长度的重叠或不重叠的段。例如,除了一个或少数几个抽样外,相邻的段可以几乎全部重叠。
数字化该话音记录。
额外地或作为选择,可以抽样该记录的重叠段。
步骤30:分析话音段以便标记该话音段的关键部分,即该话音段中被认为是实际上包含与背景噪声相对的话音信息的部分。用于话音信息检测的一个适当标准是幅值,例如幅值中第一次超过一阈值的点被认为是话音信息的开始,而如果在预定期间内未发现超过阈值的声音,则这段时间之前的点被认为是话音信息的结束。
优选地,关键部分中的抽样被归一化,例如对抽样进行放大以利用存储器可容纳的全部幅值范围,例如如果使用8位存储器,则共有+/-127个幅值单元。
步骤40:对关键部分中的尖峰和平台进行计数。计算每个识别出的平台的长度,并计算该关键部分的平均平台长度和平台长度的标准误差。
“尖峰”是一种凹口形特征。例如,术语“尖峰”可以定义为:
a.3个相邻抽样的序列,其中第一和第三抽样都比中间抽样高,或
b.3个相邻抽样的序列,其中第一和第三抽样都比中间抽样低。
优选地,即使第一和第三抽样仅与中间抽样有微小的差别也确定其是一个“尖峰”,即优选地没有抽样间差别的最小阈值。但是,优选地有尖峰的基线的最小阈值,即不考虑在非常低幅值发生的尖峰,因为它们被认为是与背景噪声有关而不是与话音有关。
图2是话音段32的曲线图,包括多个尖峰34。
“平台”是指话音波形中的局部平坦。例如,平台可以被定义为一平坦序列,其长度大于预定的最小阈值并且小于预定的最大阈值。需要最大阈值,用于将局部平坦与无声的时段相区分。如果在连续抽样间的幅值差小于预定阈值(例如如果使用8位存储器小于5个幅值单元)的情况下,则可以将一个序列认为是平坦的。
图3是话音段36的曲线图,包括多个平台38。在附录A中,平台被称为“转移”。
本发明的系统通常以下面两种模式之一操作:
a.校准——在对象没有说谎和/或处于中性情绪状态时,通过监测该对象建立该对象的真实/中性情绪状态的概况。
b.测试——将对象的语音与在校准期间建立的对象真实/中性情绪状态的概况进行比较,以便确立情绪状态和/或该对象是否真实。
如果系统要在校准模式中使用,则该方法从步骤50进到步骤60。如果系统要在测试模式中使用,则该方法从步骤50进到步骤80。
步骤60:如果到达步骤60,这表明已经出于校准目的对当前段进行了处理。因此,步骤40中导出的尖峰和平台信息被存储在校准表中。
步骤20-50的处理在这里被称为“话音记录输入处理”。如果有更多的话音记录要输入用于校准目的,则该方法返回步骤20。如果完成了用于校准目的的所有话音记录的输入(步骤70),该方法进到步骤80。
步骤80:建立当前测试的对象的真实/中性情绪状态的概况。这完成了校准模式中的操作。随后,系统进入测试模式,在测试模式中将对象的话音记录与他的真实/中性情绪概况进行比较,以便识别谎言或强烈情绪的发生。对象概况通常反应了尖峰/平台信息的集中趋势,并且通常考虑校准情况中的人为因素对其进行调整。例如,由于校准过程开始处的自然紧张,初始话音记录可能相对于随后的话音记录而言不太可靠。优选地,为了获得集中趋势的可靠指示,可以舍弃校准表中的极端输入。
步骤90之前的部分属于测试模式。
步骤90:将当前段的尖峰/平台信息与步骤80中计算的真实/中性情绪概况进行比较。
步骤100:对步骤90的比较处理的结果进行阈值判定,以便将当前段分类为指示各种情绪和/或谎言。
步骤105:可选地,对“延迟”进行补偿。术语“延迟”是指从第一观察状态发生的一“实际”情绪状态延迟的一残留情绪状态,其中在第一观察状态已经终止后该残留情绪状态还延缓一段时间。步骤105的一个适当实现的例子在下面参考图8的流程图进行说明。
步骤110:显示用于指示步骤100中确定的类别的消息。
步骤120:如果有其它话音段需要分析,则返回步骤20。否则结束。可以使用任何合适的数目m的段进行校准,例如5段。
图4是用于执行图1B的步骤40的优选方法的简化流程图。如上所述,在步骤40,为当前话音记录段的关键部分产生尖峰/平台信息。
平台的当前长度被称为“jj”。
长度正好为jj的平台的数目是“Jjmap(jj)”。
“Plat”是不考虑其长度对平台的数目进行计数的计数器。
“Thorn”是对尖峰的数目进行计数的计数器。
n是所测试的关键部分中抽样的数目。
在步骤150,将尖峰和平台计数器复位。
在步骤160,开始对所有关键部分抽样的循环。该循环从第一关键抽样开始,并在最后关键抽样减2处终止。
在步骤164,记录循环中抽样的幅值。
在步骤170和180,检测尖峰,而在步骤190,195,200和210,检测平台。
在步骤200,如果候选平台的长度在合理的界限之间,例如在3和20之间,则递增长度jj的平台数目并且递增平台的总数目Plat。否则,即如果候选平台的长度小于3或大于20,则候选平台不被认为是平台。
不管候选平台是否被认为是“真正的”平台,都将平台长度jj置零(步骤210)。
步骤220是循环的结束,即在该点,序列中的所有抽样都已被检查过。
在步骤230,计算平台长度变量jjmap的平均长度(AVJ)和标准误差(JQ)。
在步骤240,计算SPT和SPJ。SPT是优选地被适当归一化的每个抽样中尖峰的平均数目。SPJ是优选地被适当归一化的每个抽样中平台的平均数目。
根据所示实施例,情绪状态检测是多维的,即情绪状态是通过多个优选地相互独立的中间变量,从语音信息中导出的。
图5是用于实现图1B的真实/中性情绪概况建立步骤的优选方法的简化流程图。
在图5中,SPT(i)是段i的SPT值。
MinSPT是在m个段的任何一个段中测量的最小SPT值。
MaxSPT是在m个段的任何一个段中测量的最大SPT值。
MinSPJ是在m个段的任何一个段中测量的最小SPJ值。
MaxSPJ是在m个段的任何一个段中测量的最大SPJ值。
MinJQ是在m个段的任何一个段中测量的最小JQ值。
MaxJQ是在m个段的任何一个段中测量的最大JQ值。
ResSPT是在校准期间遇到的SPT值的范围的大小。更一般地说,ResSPT可以包括在对象处于真实/中性情绪状态时,期望的尖峰数目的变化程度的任何适当指示。因此,如果一个语音段中尖峰的数目相对于ResSPT是不规范的,那么可以说该对象处于非中性情绪状态,例如表现为兴奋或甚至是警觉的情绪状态。因此ResSPT通常是对在未知情绪环境期间产生的SPT值的评价过程的一个输入。
ResSPJ是在校准期间遇到的SPJ值的范围的大小。更一般地说,ResSPJ可以包括在对象处于真实/中性情绪状态时,期望的平台数目的变化程度的任何适当指示。因此,如果一个语音段中平台的数目相对于ResSPJ是不规范的,那么可以说该对象处于非中性情绪状态,例如表现为内部矛盾或认知不协调的感觉的情绪状态。因此ResSPJ通常是对在未知情绪环境期间产生的SPJ值的评价过程的一个输入。
ResJQ是在校准期间遇到的JQ值的范围的大小,作为在未知情绪环境期间产生的JQ值的评价的基线值。
应理解,该基线不要求必须是图5所示的4维基线,而甚至可以是1维或大于4维。
图6是用于在一特定段上执行图1B的步骤90的优选方法的简化流程图。如上所述,在步骤90中,将当前段的尖峰/平台信息与步骤80中计算的真实/中性情绪基线进行比较。
步骤400是初始化步骤。
步骤410计算当前关键部分与对象的先前计算的真实/中性情绪状态概况的偏差。在所示实施例中,该偏差包括一4维值,其包含与尖峰的数目有关的第一分量,与平台的数目有关的第二分量,与平台长度中的标准误差有关的第三分量,和与平均平台长度有关的第四分量。但是,应理解,在不同的应用中可以采用不同的分量。例如,在某些应用中,在一时间区间上尖峰的分布(均匀,不稳定等等)可以用于导出关于对象的情绪状态的信息。
“BreakpointT”是一个阈值,其表示真实/中性情绪环境中尖峰的平均数目与当前关键部分中尖峰的特定数目之间比率的可接受范围。
“BreakpointJ”是一个阈值,其表示真实/中性情绪环境中平台的平均数目与当前关键部分中平台的特定数目之间比率的可接受范围。
“BreakpointQ”是一个阈值,其表示真实/中性情绪环境中平台数目的平均标准误差与当前关键部分中平台数目的特定标准误差之间比率的可接受范围。
“BreakpointA”是一个阈值,其表示真实/中性情绪环境中的平均平台长度与当前关键部分中的特定平均平台长度之间比率的可接受范围。
步骤420-470更新对象的概况以便将从当前段收集的新信息考虑在内。在所示实施例中,仅更新ResSPT和ResSPJ值,并且其更新条件仅仅是,如果当前关键部分与对象的先前计算的真实/中性情绪状态概况的偏差非常大(例如超过了预定最高值)或非常小(例如低于某个通常为负的预定最低值)。如果当前关键部分与真实/中性情绪概况的偏差既不非常大也不非常小(例如落在最高值与最低值之间),则在此阶段通常不考虑更改对象的概况。
在步骤460和470中,如果zzSPT和zzSPJ分别非常接近于零,那么分别通过递减ResSPT和ResSPJ来提高系统的灵敏度。
步骤480产生步骤410中计算的多个偏差分量的适当的通常是专用的组合。这些组合被用作适当的情绪分类标准的基础,例如图7中规定的情绪分类标准。图7的情绪分类标准确定是否将对象分类为夸张,不真实,逃避,困惑或不自信,兴奋,或讽刺。但是,应理解在不同的情形下可以采用不同的情绪分类。
在所示实施例中,SPT信息主要用来确定兴奋级。更具体地说,zzSPT用来确定crEXCITE的值,其可以还取决于附加的参数如crSTRESS。例如,可以认为在70和120之间的crEXCITE值是正常的,而认为在120和160之间的值表示中度兴奋,认为超过160的值表示高度兴奋。
在所示实施例中,SPJ信息主要用来确定心理不协调的感觉。例如,可以认为在0.6和1.2之间的zzSPJ值是正常的,而认为在1.2和1.7之间的值表示困惑或不自信。认为超过1.7的值表示对象方面对话音的察觉,和/或对象对其话音进行控制的企图。
在所示实施例中,zzJQ和crSTRESS值主要用来确定压力级。例如,可以认为在70和120之间的crSTRESS值是正常的,而认为超过120的值表示高压力。
在所示实施例中,AVJ信息用来确定在所说的词或句子中投入的思考量。例如,如果crTHINK超过值100,则在所说的上一句中投入的思考量高于校准阶段中投入的思考量。这意味着,与校准阶段中相比,说话的人对其现在所说的内容投入了更多的思考。如果该值小于100,则与校准阶段中相比,说话的人对其现在所说的内容投入的思考较少。
在所示实施例中,crLIE参数用来确定真实性。可以认为小于50的crLIE值表示不真实,认为在50和60之间的值表示讽刺或幽默,认为60和130之间的值表示真实,认为130和170之间的值表示不准确或夸张,认为超过170的值表示不真实。
参见图6,上述参数可以接收以下的值:
BreakpointT=BreakpointJ=BreakpointQ=BreakpointA=1.1
CeilingT=CeilingJ=1.1
FloorJ=FloorT=-0.6
IncrementT=IncrementJ=DecrementT=DecrementJ=0.1
MinimalT=MinimalJ=0.1
应理解,所有这些数字值仅是示例并且通常取决于其应用。
图7显示用于将各种参数转换为可以显示的消息的方法,如图1例子所示。
图8表示用于精细调节真实/中性情绪状态的方法。
附录A是所显示和描述的本发明优选实施例的软件实现的计算机打印程序清单,其与此处参考附图所显示和描述的实施例稍有不同。
一种用于产生该软件实现的适当方法如下:
a.在具有麦克风、声卡和Visual BasicTM版本5软件的PC机上,产生一个新的项目。
声卡的记录设置可以根据以下参数操作:11KHz,8bit,单声道,PCM。
b.在出现在该新项目中的缺省表单上放置一定时器对象。该定时器对象被称为“timer1”。
c.在该表单上放置一MCI多媒体控制对象。该对象被称为“mmcontrol1”。
d.在该表单上放置5个标签对象。这些标签被称为label1,label2,label3,label4,和label6。
e.在该表单上创建4个标签阵列。将这些阵列重命名为:SPT(0..4),SPJ(0..4),JQ(0..4),AVJ(0..4)。
f.在该表单上放置一命令按钮并将其标题属性改变为end。该命令按钮被称为“command1”。
g.通过键入附录A中“form1”以下的各页文本产生该表单的代码。
h.向该项目添加一模块。通过键入附录A中“Feelings-detector”以下的各页内容产生该模块的代码。
i.将麦克风连接到PC。
j.按下(F5)或“run”以便启动该应用程序。
图9是描绘在设计模式中,启动附录A的应用程序之前的表单的屏幕显示的示意图。
图10是描绘在运行模式中,在对一特定对象的校准期间表单的屏幕显示的示意图。
图11是描绘在运行模式中,在测试一个对象期间表单的屏幕显示的示意图。
附录A中CoR-msgX变量的值如下:
1--真实,2--讽刺,3--兴奋,4--困惑/不自信,5--高度兴奋,6--话音受控,7--谎言/虚假陈述,8--夸张/不准确。
那些携带当前关键部分的数据的变量所具有的名字是以如下字符开始的:cor。
基线因子的名字以如下字符开始:cal_。
断点因子的名字以如下字符开始:bp_。
ResSPT和resSPJ分别被称为ResT和ResJ。
图12是根据本发明优选实施例构造和操作的用于检测情绪状态的系统的简化功能方框图,用于执行图1B的方法。如图所示,图12的系统包括诸如磁带录音机700、麦克风710或电话720一类的话音输入装置,产生通过A/D转换器740由情绪检测工作站735输入的语音。话音窗口记录器750通常将输入的代表语音的信号分成多个话音窗口或段,由话音窗口分析器760对其进行分析。话音窗口分析器将这些话音窗口或段与存储在单元770中的校准数据进行比较。如以上详细说明的,该校准数据通常是为各个对象单独地导出的。设有显示单元或打印机780,优选地以在线方式为该系统的用户显示或打印情绪状态报告。
应理解,如果需要,本发明的软件部分可以以ROM(只读存储器)形式实现。如果需要,通常可以使用常规技术以硬件方式实现本发明的软件部分。
应理解,附录中所述的特定实施例仅是为了提供本发明的一个极端详细的公开,并不是为了限制本发明。
应理解,本发明为了清楚起见而在几个分开的实施例中说明的各种特征也可以在单个实施例中以组合形式提供。反之,本发明为了简洁起见而在单个实施例中说明的各种特征也可以分开提供或是在任何合适的变形中提供。
本领域技术人员应理解,本发明不局限于上述特定的图示和描述。本发明的范围应仅由所附权利要求来限定。
                               附录A
以下代码应写入表单对象:
   Form1

  Private Sub Command1_Click()

  End

  End Sub

  Private Sub Form_Load()

  ′Set properties needed by MCI to open.

  a=mciSendString("setaudio waveaudio algorithn pcm bitspersample to 8_

      bytespersec to 11025 input volume to 100 source to avarage",0,0,0)

  MMControl1.Notify=False

  MMControl1.Wait=True

  MMControl1.Shareable=False

  MMControl1.DeviceTyPe="WaveAudio"

  MMControl1.filename="C:\buf.WAV"

  ′Open the MCI WaveAudio device.

  MMControl1.Command="Open"

  ′Define constants

    CR_BGlevel=15   ′Background level barrier

    CR_BGfilter=3   ′Vocal wave smoother

    CR_DATAstr="" ′Reset Data String

    CR_mode=1

    CONS_SARK=50

    CONS_LIE11=130:CONS_LIE12=175

    CONS_LowzzT=-0.4:CONS_HighzzT=0.3

    CONS_LowzzJ=0.2:CONS_HighzzJ=0.7

    CONS_RES_SPT=2:CONS_RES_SPJ=2
        <!-- SIPO <DP n="18"> -->
        <dp n="d18"/>
    CONS_BGfiler=3

  'Set timer object to work every 0.5 sec

   Timer1.Interval=500

    Timer1.Enabled=True

    'set display

    Label1.Caption="System decision"

    Label2.Caption="Global stress:"

    Label3.Caption="Excitement:"

    Label4.Caption="Lie stress:"

    MMControl1.Visible=False

  End Sub

  Private Sub Timer1_Timer()

  Static been

  On Error Resume Next

  MMControl1.Command="stop″

  MMControl1.Command="save"

  MMControl1.Command="close"

  'read data from file

  ff=MMControl1.filename

  Dim kk As String*6500

  kk=Space(6500)

  Open ff For Binary Access Rea.d As#1

  Get#1,50,kk

  Close#1

  Kill ff

  MMControl1.Command="open"
        <!-- SIPO <DP n="19"> -->
        <dp n="d19"/>
  a=MMControl1.ErrorMessage

  MMControl1.Command="record"

  CR_DATAstr=kk

  If OP_stat=0 Then

     OP_stat=1 ′first round or after recalibration demand

     been=0

     End If

  If been<5 Then

     Label1.Caption="Calibrating.."

     Call Calibrate ′Perform calibration

     ′get calibration status by CR_msgX
     If CoR_msgX>-1 Then ′good sample

        been=been+1

        End If

     EXit Sub

     Else

     OP_stat=2 ′Checking status

     Call CHECK

     ′get segment status by CR_msgX

     End If

  If CoR_msgX<0 Then Exit Sub ′not enogh good samples

  Label4.Caption="Lie stress.:"+Format(Int(CR_LIE))

  Label2.Caption="Global stress:"+Format(Int(CR_STRESS))

  Label3.Caption="Excite Rate:"+Format(Int(CR_EXCITE))

  Label6.Caption="Thinking Rate:"+Format(Int(CR_THINK))

  been=been+1

  Select Case CoR_msgX
        <!-- SIPO <DP n="20"> -->
        <dp n="d20"/>
    Case 0

      ans="background noise"

    Case 1

      ans="TRUE"

    Case 2

      ans="Outsmart"

    Case 3

      ans="Excitement"

    Case 4

      ans="Uncertainty"

    Case 5

      ans="High excitement"

    Case 6

      ans="Voice manipulation/Avoidance/Emphasizing"

    Case 7

      ans="LIE"

    Case 8

      ans="Inaccuracy"

    End Select

    Label1.Caption=ans

  End Sub

  Sub Calibrate()

  Call CUT_sec

  If CR_noSMP<800 Then

     ′no samples

      CoR_msgX=-1

      Exit Sub

      End If
        <!-- SIPO <DP n="21"> -->
        <dp n="d21"/>
  ′Scan thorns

  CONS_RES_SPT=2

  CONS_RES_SPJ=2

  Call scan_TJ

  If Int(CoR_spT)=0 Or Int(CoR_AVjump)=0 Or Int(CoR_QJUMP)=0 Or

  Int(CoR_SPJ)=0 Then

    CoR_msgX=-1

    Exit Sub

    End If

  tot_T=0:tot_J=0:tot_JQ=0:tot_avj=0

  ninspT=1000:minspJ=1000:minJQ=1000

  For a=0 To 4

  If SPT(a).Caption=0 And SPJ(a).Caption=0 Then

     SPT(a).Caption=Int(CoR_spT)

     SPJ(a).Caption=Int(CoR_SPJ)

     JQ(a).Caption=Int(CoR_QJUMP)

     AVJ(a).Caption=Int(CoR_AVjump)

     EXit For

     End If

  tot_T=tot_T+SPT(a)

  tot_J=tot_J+SPJ(a)

  tot_JQ=tot_JQ+JQ(a)

  tot_avj=tot_avj+AVJ(a)

  If Val(SPT(a).Caption)<minspT Then minspT=Val(SPT(a).Caption)

  If Val(SPT(a).Caption)>maxspT Then maxspT=Val(SPT(a).Caption)

  If Val(SPJ(a).Caption)<minspJ Then minspJ=Val(SPJ(a).Caption)

  If Val(SPJ(a).Caption)>maxspJ Then maxspJ=Val(SPJ(a).Caption)

  If Val(JQ(a).Caption)<minJQ Then minJQ=Val(JQ(a).Caption)
        <!-- SIPO <DP n="22"> -->
        <dp n="d22"/>
  If Val(JQ(a).Caption)>maxJQ Then maxJQ=Val(JQ(a).Caption)

  Next a

  ′calc current CAL factors

  CAL_spT=(tot_T+Int(CoR_spT))/(a+1)

  CAL_spJ=(tot_J+Int(CoR_SPJ))/(a+1)

  CAL_JQ=(tot_JQ+Int(CoR_QJUMP))/(a+1)<br/>

  CAL_AVJ=(tot_avj+Int(CoR_AVjump))/(a+1)

  ′calc resolution per factor

  On Error Resume Next

  If a>1 Then

     res_T=maxspT/minspT

     res_J=maxspJ/minspJ

     End If

   CoR_msgX=0
  End Sub

  Sub CHECK()

  Call CUT_sec

  If CR_noSMP<800 Then

     ′no samples

     CoR_msgX=-1

     Exit Sub

     End If
  CONS_RES_SPT=2
  CONS_RES_SPJ=2

  Call scan_TJ
        <!-- SIPO <DP n="23"> -->
        <dp n="d23"/>
  If Int(CoR_spT)=0 Or Int(CoR_AVjump)=0 Or Int(CoR_QJUMP)=0 Or

  Int(CoR_SPJ)=0 Then

     CoR_msgX=-1

     Exit Sub

     End If

  Call analyze

  Call decision
  ′Fine tune cal factors
  CAL_spT=((CAL_spT*6)+CoR_spT)\7

  CAL_spJ=((CAL_spJ*6)+CoR_SPJ)\7

  CAL_JQ=((CAL_JQ*9)+CoR_QJUMP)\10

  CAL_AVJ=((CAL_AVJ*9)+CoR_AVjump)/10

  End Sub
以下代码应写入一个新的模块对象:
  Feelings detector

  ′Declaration section

  Global Fname ′-file name

  Global CR_BGfilter ′-BackGround Filter

  Global CR_BGlevel ′-BackGround level

  Global CR_DATAstr

  Global CR_noSMP ′-nomber of samples

  Global res_J,res_T

  Global CoR_spT,CoR_SPJ,CoR_AVjump,CoR_QJUMP

  Global CoR_msgX,CR_retD3ATAstr

  Global SMP(10000)As Integer
        <!-- SIPO <DP n="24"> -->
        <dp n="d24"/>
  Global OP_stat

  ′**Calibration factors

  Global CAL_spJ,CAL_spT

  Global CAL_JQ,CAL_AVJ

  Global BP_J,BP_T ′-CALIBRATION break points

  Global WI_J,WI_T,WI_JQ ′-Wigth of factors in calc.

  Global CR_zzT,CR_zzJ

  Global CR_STRESS,CR_LIE,CR_EXCITE,CR_THINK

  Global CR_RESfilter ′-resolution filter

  ′Constants for decision

  Global CONS_SARK

  Global CONS_LIE11,CONS_LIE12

  Global CONS_LowzzT,CONS_HighzzT

  Global CONS_LowzzJ,CONS_HighzzJ

  Global CONS_RES_SPT,CONS_RES_SPJ

  Declare Function mciSendString Lib"winmm.dll"Alias"mciSendStringA"(ByVal

  lpstrCommand As String,ByVal lpstrReturnString As String,ByVal uRetumLength As

  Long,ByVal hwndCallback As Long)As Long

  Sub analyze()

  On Error Resume Next

    CR_LIE=0

    CR_STRESS=0

    CR_EXCITE=0

    If(CoR_spT=0 And CoR_SPJ=0)Or CR_noSMP=0 Then

      CR_msg="ERROR"

      Exit Sub

      End If
        <!-- SIPO <DP n="25"> -->
        <dp n="d25"/>
  If CoR_SPJ=0 Then CoR_SPJ=1

  If CoR_spT=0 Then CoR_spT=1

  On Error Resume Next

    rrJ=res_J:rrT=res_T

    BP_J=1.1:BP_T=1.1

    zz_spj=(((CAL_spJ/Int(CoR_SPJ))-BP_J)/rrJ)

    If zz_spj>-0.05 And zz_spj<0.05 Then res_J=res_J-0.1

    If res_J<1.3 Then res_J=1.3

    If zz_spj<-0.6 Then

       zz_spj=-0.6

       res_J=res_J+0.1

       End If

    If zz_spj>1.2 Then

       zz_spj=1.2

       res_J=res_J+0.1

       End If

    If res_J>3.3 Then res_J=3.3

    CR_zzJ=zz_spj

    zz_spT=(((CAL_spT/CoR_spT)-BP_T)/rrT)

    CR_zzT=zz_spT

    If zz_spT>-0.05 And zz_spT<0.05 Then res_T=res_T-0.1

    If res_T<1.3 Then res_T=1.3

    If zz_spT<-0.6 Then

       zz_spT=-0.6

       res_T=res_T+0.1

       End If

    If zz_spT>1.2 Then
        <!-- SIPO <DP n="26"> -->
        <dp n="d26"/>
      zz_spT=1.2

      res_T=res_T+0.1

      End If

   If res_T>3.3 Then res_T=3.3

   WI_J=6:WI_T=4

      CR_STRESS=Int((CoR_QJUMP/CAL_JQ)*100)

      ggwi=WI_J*WI_T

      CR_LIE=((zz_spT+1)*WI_T)*((zz_spj+1)*WI_J)

      CR_LIE=((CR_LIE/ggwi))*100

      CR_LIE=CR_LIE+Int((CoR_QJUMP-CAL_JQ)*1.5)

      CR_THINK=Int((CoR_AVjump/CAL_AVJ)*100)

      CR_EXCITE=((((((CR_zzT)/2)+1)*100)*9)+CR_STRESS)/10

  ′*********END OF Phase2-******

    If CR_LIE>210 Then CR_LIE=210

    If CR_EXCITE>250 Then CR_EXCITE=250

    If CR_STRESS>300 Then CR_STRESS=300

    If CR_LIE<30 Then CR_LIE=30

    If CR_EXCITE<30 Then CR_EXCITE=30

    If CR_STRESS<30 Then CR_STRESS=30

  End Sub

  Sub CUT_sec()

  CR_noSMP=0

    If CR_DATAstr=""Then

       CR_msg="ERROR!-No data provided"

       Exit Sub

       End If

     CR_AUTOvol=1 ′Auto amplifier
        <!-- SIPO <DP n="27"> -->
        <dp n="d27"/>
  CoR_volume=3 ′default

  CR_minSMP=800 ′default

  free=FreeFile

  ′Break CR_DATAstr to bytes

  LocA=1:LocB=1

  BGAmin=0

  BGAmax=0

  MAXvolume=0

  TestP=0

  BR_LOW=-128

  BR_high=-128

  ddd=-128

  ddd=Int(ddd*(CoR_volume/3))

  ddd=(ddd\CR_BGfilter)*CR_BGfilter

  If CR_AUTOvol=1 Then

    ′apply auto volume detect

    MAXvolume=0

    For a=1 To Len(CR_DATAstr)

    ccc=Asc(Mid$(CR_DATAstr,a,1))

    ccc=ccc-128

    ccc=(ccc\CR_BGfilter)*CR_BGfilter

    If(ccc>CR_BGlevel Or ccc<0-CR_BGlevel)And ccc>ddd Then

      If Abs(ccc)>MAXvolume Then MAXvolume=Abs(ccc)

      If StartPos=0 Then StartPos=a

      OKsmp=OKsmp+1

      End If

    If MAXvolume>110 Then Exit For

    Next a

    If OKsmp<10 Then

      CR_msg="Not enough samples!"
        <!-- SIPO <DP n="28"> -->
        <dp n="d28"/>
        CR_noSMP=0

        Exit Sub
        End If
      CoR_volume=Int(360/MAXvolume)

      If CoR_volume>16 Then CoR_volume=3

      End If

      On Error Resume Next

    drect="":DR_flag=0

    MAXvolume=0

    LocA=0
    Done=0

  89  For a=StartPos To Len(CR_DATAstr)-1

    ccc=Asc(Mid$(CR_DATAstr,a,1)):ccd=Asc(Mid$(CR_DATAstr,a+1,1))

    ccc=ccc-128:ccd=ccd-128

    ccc=Int(ccc*(CoR_volume/3))

    ccd=Int(ccd*(CoR_volume/3))

    ccc=(ccc\CR_BGfilter)*CR_BGfiter

    ccd=(ccd\CR_BGfiter)*CR_BGfilter

    If(ccc>CR_BGlevel Or ccc<0-CR_BGlevel)And ccc>ddd Then

      If Abs(ccc)>MAXvolume Then MAXvolume=Abs(ccc)

      fl=fl+1

      End If

    If fl>5 Then

      SMP(LocA)=ccc

      If BR_high<ccc Then BR_high=ccc

      If BR_LOW>ccc Or BR_LOW=-128 Then BR_LOW=ccc

      If(SMP(LocA)>0-CR_BGlevel And SMP(LocA)<CR_BGlevel)Or

  SMP(LocA)=ddd Then

      blnk=blnk+1
        <!-- SIPO <DP n="29"> -->
        <dp n="d29"/>
        Else
        blnk=0

        End If

      If blnk>1000 Then

        LocA=LocA-700

        Done=1

        If LocA>CR_minSMP Then Exit For

        Done=0

        LocA=0

        fl=2:blnk=0

        BR_LOW=-128:BR_high=-128

        End If

      LocA=LocA+1

      End If

    Next a

    Err=0

    CR_noSMP=LocA

    If CR_noSMP<CR_minSMP Then

      CR_msg="Not enough samples!"

      Exit Sub

      End If

    CR_msg="Completed O.K."

  End Sub

  Sub decision()

  If CR_zzT=0 And CR_zzJ=0 And(CL_spJ◇Int(CoR_SPJ))Then

      CR_msg="ERROR!-Required parameters missing!"

      Exit Sub
        <!-- SIPO <DP n="30"> -->
        <dp n="d30"/>
      End If

  If CR_STRESS=0 Or CR_LIE=0 Or CR_EXCITE=0 Then

      CR_msg="ERROR!-Required calculations missing!"

      Exit Sub

      End If

    CR_msgCode=0

    CoR_msgX=0

    sark=0

  If CR_LIE<60 Then

      CoR_msgX=2

      Exit Sub

      End If

  5555 If((CR_zzJ+1)*100)<65 Then

       If((CR_zzJ+1)*100)<50 Then sark=1

       CR_zzJ=0.1

       End If

      If((CR_zzT+1)*100)<65 Then

       If((CR_zzT+1)*100)<CONS_SARK Then sark=sark+1

       CR_zzT=0.1

       End If

    LIE_BORD1=CONS_LIE11:LIE_BORD2=CONS_LIE12

    If CR_LIE<LIE_BORD1 And CR_STRESS<LIE_BORD1 Then

         CR_msgCode=CR_msgCode+1

         End If

    If CR_LIE>LIE_BORD1 And CR_LIE<LIE_BORD2 Then

       CoR_msgX=8

       Exit Sub
        <!-- SIPO <DP n="31"> -->
        <dp n="d31"/>
      End If

    If CR_LIE>LIE_BORD2 Then

      If CR_msgCode<128 Then CR_msgCode=CR_msgCode+128

      End If

    If CR_zzJ>CONS_LowzzJ Then

      If CR_zzJ>CONS_HighzJ Then

         CR_msgCode=CR_msgCode+64

         Else

         CR_msgCode=CR_msgCode+8

         End If

      End If

   If CR_EXCITE>LIE_BORD1 Then

      If CR_EXCITE>LIE_BORD2 Then

         If(CR_msgCode And 32)=False Then CR_msgCode=CR_msgCode+32

         Else

         If(CR_msgCode And 4)=False Then CR_msgCode=CR_msgCode+4
         End If
       End If
  If CR_msgCode<3 Then

       If sark=2 Then

           CR_msgCode=-2

           CoR_msgX=2

           Exit Sub

           End If

       If sark=1 Then

          If(CR_zzT>CONS_LowzzT And CR_zzT<CONS_HighzzT)Then

            CR_msgCode=-1
        <!-- SIPO <DP n="32"> -->
        <dp n="d32"/>
         CoR_msgX=2

         Else

         If CR_zzT>CONS_HighzzT Then CoR_msgX=7

         End If

      If(CR_zzJ>CONS_LowzzT And CR_zzJ<CONS_HighzzT)Then

        CR_msgCode=-1

        CoR_msgX=2

        Else

        If CR_zzJ>CONS_HighzzT Then CoR_msgX=7

        End If

      Exit Sub

      End If

    CR_msgCode=1

    CoR_msgX=1

    Exit Sub

    End If

  If CR_msgCode>127 Then

     CoR_msgX=7

     Exit Sub

     End If

  If CR_msgCode>67 Then

     CoR_msgX=8

     Exit Sub

     End If

  If CR_msgCode>63 Then

     CoR_msgX=6

     Exit Sub

     End If

  If CR_msgCode>31 Then

     CoR_msgX=5
        <!-- SIPO <DP n="33"> -->
        <dp n="d33"/>
      Exit Sub

      End If

   If CR_msgCode>7 Then

      CoR_msgX=4

      Exit Sub

      End If

   If CR_msgCode>3 Then

      CoR_msgX=3

      Exit Sub

      End If

  CoR_msgX=1

  End Sub

  Sub scan_TJ()

    ReDim jjump(100)

    CR_msg=""

    TestP=CR_noSMP

    CR_spT=0

    CR_SPJ=0

    If TestP<=0 Then

       CR_msg="No.of samples not transmitted!"

       Exit Sub

       End If

    CR_minJUMP=3 ′default

    CR_maxJUMP=20 ′default

    jump=0

    thorns=0

    BIGthorns=0

    For a=1 To CR_noSMP

    jjt1=SMP(a):jjt2=SMP(a+1):jjt3=SMP(a+2)
        <!-- SIPO <DP n="34"> -->
        <dp n="d34"/>
      ′scan thorns

      If(jjt1<jjt2 And jjt2>jjt3)Then

        If jjt1>15 And jjt2>15 And jjt3>15 Then thorns=thorns+1

        End If

      If(jjt1>jjt2 And jjt2<jjt3)Then

        If jjt1<-15 And jjt2<-15 And jjt3<-15 Then thoms=thorns+1

        End If

      If(jjt1>jjt2-5)And(jjt1<jjt2+5)And(jjt3>jjt2-5)And(jjt3<jjt2+5)Then

        sss=sss+1

        Else

        If sss>=CR_minJUMP And sss<=CR_maxJUMP Then

           jump=jump+1

           jjump(sss)=jjump(sss)+1

           End If

        sss=0

        End If

     Next a

     AVjump=0

     JUMPtot=0

     CR_QJUMP=0

     For a=1 To 100

     JUMPtot=JUMPtot+jjump(a)

     AVjump=AVjump+(jjump(a)*a)

     Next a

     If JUMPtot>0 Then cr_AVjump=AVjump/JUMPtot

     For a=1 To 100

     If jjump(a)>1 Then QJUMP=QJUMP+((jjump(a)*Abs(cr_AVjump-a)))′*

  jjump(a))
        <!-- SIPO <DP n="35"> -->
        <dp n="d35"/>
    Next a

    CoR_spT=(Int(((thorns)/CR_noSMP)*1000)/CONS_RES_SPT)

    CoR_SPJ=(Int(((jump)/CR_noSMP)*1000)/CONS_RES_SPJ)

    CoR_QJUMP=Sqr(QJUMP)

    CoR_AVjump=cr_AVjump

    CR_msg="Thorns & Jumps scan completed O.K"

  End Sub

Claims (19)

1.一种用于检测个人的情绪状态的方法,该方法包括:
接收由个人产生的语音样本并从中导出语调信息;和
根据所述语调信息产生个人的情绪状态指示,
其中,所述语调信息包括关于尖峰的信息,所述的产生步骤包括基于所述关于尖峰的信息,在至少一个当前段中定义的当前关键部分中,计算个人的兴奋级,并生成所述兴奋级的指示。
2.根据权利要求1的方法,其中通过电话提供所述语音样本。
3.根据权利要求1的方法,其中对于个人的情绪状态的所述报告包括基于个人的情绪状态的谎言检测报告。
4.根据权利要求1的方法,其中所述语调信息包括多维语调信息。
5.根据权利要求4的方法,其中所述多维信息包括至少3维信息。
6.根据权利要求5的方法,其中所述多维信息包括至少4维信息。
7.根据权利要求1的方法,其中所述关于尖峰的信息包括在预定时段中尖峰的数目。
8.根据权利要求7的方法,其中所述关于尖峰的信息包括尖峰在时间上的分布。
9.根据权利要求1的方法,其中所述语调信息包括关于平台的信息。
10.根据权利要求9的方法,其中所述关于平台的信息包括在预定时段中平台的数目。
11.根据权利要求1的方法,其中所述语调信息分别与各个平台的长度相关,并且包括在预定时段内的所述各平台长度的平均值。
12.根据权利要求1的方法,其中所述语调信息分别与各个平台的长度相关,并且包括在预定时段内所述各平台长度的标准误差。
13.根据权利要求1的方法,其中所述语音样本包括具有一周期的主语音波形,所述接收步骤包括分析该语音样本以便确定平台的发生率,每个平台表示有一个局部低频波形被叠加在主语音波形上;和
所述产生步骤包括根据平台的发生率提供合适的指示。
14.根据权利要求1的方法,其中
所述接收步骤包括对个人产生的语音样本的多个特征进行量化;以及
所述产生步骤包括根据所述多个量化特征产生测谎指示。
15.根据权利要求1的方法,其中
所述接收步骤包括如下建立一个多维特征范围,该多维特征范围的特征在于个人平静时的情绪范围:
在个人处于情绪中性状态的第一时间中,监视该个人以得到多个关于情绪的参数;以及
把该特征范围定义为所述第一时间中所述情绪相关参数范围的函数,
其中,所述产生步骤包括在要检测该个人的情绪状态时的第二时间中,监视该个人以得到所述情绪相关参数,从而得到所述多个情绪相关参数的测量,并调节所述测量以考虑所述范围。
16.根据权利要求1的方法,其中所述语调信息还包括关于平台长度的信息。
17.根据权利要求14的方法,其中所述兴奋级包括(a)至少一部分语音样本中尖峰的数目和(b)所述部分中平台长度的偏差的下降函数。
18.根据权利要求1的方法,其中,计算所述关键部分中的所述兴奋级作为calSPT和所述当前段的SPT值之间比值的函数,calSPT表示m个校准段中m个SPT值的平均值,m表示对象的用于校准的语音记录段数,其中为该对象建立了真实/中性情绪状态的概况,各个SPT值包括在一个段的各个关键部分中检测到的尖峰数目与各个关键部分中包含的样本n的数目之间比值的函数。
19.根据权利要求1的方法,其中,计算所述关键部分中的所述兴奋级作为(a)calSPT和所述当前段的SPT值之间比值的函数,以及(b)calJQ和当前段的JQ值之间比值的函数之和,
calSPT表示m个校准段中m个SPT值的平均值,m表示对象的用于校准的语音记录段数,其中为该对象建立了真实/中性情绪状态的概况,
各个SPT值包括在一个段的各个关键部分中检测到的尖峰数目与各个关键部分中包含的样本n的数目之间比值的函数;
calJQ表示m个校准段中m个JQ值的平均值;以及
各个JQ值表示一个段的各个关键部分中平台偏差的平方根。
CNB988122871A 1997-12-16 1998-12-16 用于检测情绪的方法 Expired - Lifetime CN1174373C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IL12263297A IL122632A0 (en) 1997-12-16 1997-12-16 Apparatus and methods for detecting emotions
IL122632 1997-12-16

Publications (2)

Publication Number Publication Date
CN1282445A CN1282445A (zh) 2001-01-31
CN1174373C true CN1174373C (zh) 2004-11-03

Family

ID=11070983

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB988122871A Expired - Lifetime CN1174373C (zh) 1997-12-16 1998-12-16 用于检测情绪的方法

Country Status (19)

Country Link
US (1) US6638217B1 (zh)
EP (1) EP1038291B1 (zh)
JP (1) JP4309053B2 (zh)
CN (1) CN1174373C (zh)
AT (1) ATE354159T1 (zh)
AU (1) AU770410B2 (zh)
BR (1) BR9814288A (zh)
CA (1) CA2313526C (zh)
DE (1) DE69837107T2 (zh)
ES (1) ES2283082T3 (zh)
HK (1) HK1034796A1 (zh)
HU (1) HU226537B1 (zh)
IL (1) IL122632A0 (zh)
PL (1) PL341296A1 (zh)
PT (1) PT1038291E (zh)
RU (1) RU2294023C2 (zh)
TR (1) TR200001765T2 (zh)
TW (1) TW446933B (zh)
WO (1) WO1999031653A1 (zh)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL129399A (en) * 1999-04-12 2005-03-20 Liberman Amir Apparatus and methods for detecting emotions in the human voice
US7590538B2 (en) 1999-08-31 2009-09-15 Accenture Llp Voice recognition system for navigating on the internet
US6480826B2 (en) * 1999-08-31 2002-11-12 Accenture Llp System and method for a telephonic emotion detection that provides operator feedback
US6463415B2 (en) * 1999-08-31 2002-10-08 Accenture Llp 69voice authentication system and method for regulating border crossing
US6427137B2 (en) 1999-08-31 2002-07-30 Accenture Llp System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud
US6275806B1 (en) * 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US7222075B2 (en) * 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
ES2177437B1 (es) * 2000-12-13 2003-09-01 Neturin S L Dispositivo analizador animico para mamiferos.
IL144818A (en) 2001-08-09 2006-08-20 Voicesense Ltd Method and apparatus for speech analysis
US6721704B1 (en) 2001-08-28 2004-04-13 Koninklijke Philips Electronics N.V. Telephone conversation quality enhancer using emotional conversational analysis
EP1300831B1 (en) * 2001-10-05 2005-12-07 Sony Deutschland GmbH Method for detecting emotions involving subspace specialists
US7191134B2 (en) * 2002-03-25 2007-03-13 Nunally Patrick O'neal Audio psychological stress indicator alteration method and apparatus
EP1796347A4 (en) * 2004-09-10 2010-06-02 Panasonic Corp INFORMATION PROCESSING TERMINAL
US20060229882A1 (en) * 2005-03-29 2006-10-12 Pitney Bowes Incorporated Method and system for modifying printed text to indicate the author's state of mind
US7580512B2 (en) * 2005-06-28 2009-08-25 Alcatel-Lucent Usa Inc. Selection of incoming call screening treatment based on emotional state criterion
WO2007017853A1 (en) * 2005-08-08 2007-02-15 Nice Systems Ltd. Apparatus and methods for the detection of emotions in audio interactions
US20070066916A1 (en) * 2005-09-16 2007-03-22 Imotions Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
WO2007072485A1 (en) * 2005-12-22 2007-06-28 Exaudios Technologies Ltd. System for indicating emotional attitudes through intonation analysis and methods thereof
US8204747B2 (en) * 2006-06-23 2012-06-19 Panasonic Corporation Emotion recognition apparatus
WO2008008893A2 (en) * 2006-07-12 2008-01-17 Medical Cyberworlds, Inc. Computerized medical training system
US20080065468A1 (en) * 2006-09-07 2008-03-13 Charles John Berg Methods for Measuring Emotive Response and Selection Preference
US20100211394A1 (en) * 2006-10-03 2010-08-19 Andrey Evgenievich Nazdratenko Method for determining a stress state of a person according to a voice and a device for carrying out said method
US20080260212A1 (en) * 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
US20110022395A1 (en) * 2007-02-15 2011-01-27 Noise Free Wireless Inc. Machine for Emotion Detection (MED) in a communications device
EP1998452A1 (en) * 2007-06-01 2008-12-03 EADS Deutschland GmbH Method for compression and expansion of audio signals
WO2009086033A1 (en) 2007-12-20 2009-07-09 Dean Enterprises, Llc Detection of conditions from sound
US8219397B2 (en) * 2008-06-10 2012-07-10 Nuance Communications, Inc. Data processing system for autonomously building speech identification and tagging data
US20090318773A1 (en) * 2008-06-24 2009-12-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Involuntary-response-dependent consequences
US20100010370A1 (en) 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
US8136944B2 (en) 2008-08-15 2012-03-20 iMotions - Eye Tracking A/S System and method for identifying the existence and position of text in visual media content and for determining a subjects interactions with the text
US8340974B2 (en) * 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data
WO2010100567A2 (en) 2009-03-06 2010-09-10 Imotions- Emotion Technology A/S System and method for determining emotional response to olfactory stimuli
RU2532619C2 (ru) * 2009-04-17 2014-11-10 Конинклейке Филипс Электроникс Н.В. Система эмбиентной телефонной связи, подвижный элемент, способ и машиночитаемый носитель для нее
US20140025385A1 (en) * 2010-12-30 2014-01-23 Nokia Corporation Method, Apparatus and Computer Program Product for Emotion Detection
US20120182211A1 (en) * 2011-01-14 2012-07-19 Research In Motion Limited Device and method of conveying emotion in a messaging application
US20120182309A1 (en) * 2011-01-14 2012-07-19 Research In Motion Limited Device and method of conveying emotion in a messaging application
GB2500363A (en) * 2011-02-03 2013-09-25 Research In Motion Ltd Device and method of conveying emotion in a messaging application
GB2500362A (en) * 2011-02-03 2013-09-25 Research In Motion Ltd Device and method of conveying emotion in a messaging application
US10853819B2 (en) 2011-04-14 2020-12-01 Elwha Llc Cost-effective resource apportionment technologies suitable for facilitating therapies
US10445846B2 (en) 2011-04-14 2019-10-15 Elwha Llc Cost-effective resource apportionment technologies suitable for facilitating therapies
US10373508B2 (en) * 2012-06-27 2019-08-06 Intel Corporation Devices, systems, and methods for enriching communications
RU2553413C2 (ru) * 2012-08-29 2015-06-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") Способ выявления эмоционального состояния человека по голосу
RU2525284C2 (ru) * 2012-11-16 2014-08-10 Валерий Викторович Курышев Способ определения степени эмоционального воздействия развлекательных мероприятий на зрителя
US9378741B2 (en) 2013-03-12 2016-06-28 Microsoft Technology Licensing, Llc Search results using intonation nuances
TWI500023B (zh) 2013-04-11 2015-09-11 Univ Nat Central 透過視覺的聽覺輔助裝置
WO2015019345A1 (en) * 2013-08-06 2015-02-12 Beyond Verbal Communication Ltd Emotional survey according to voice categorization
CN103829958B (zh) * 2014-02-19 2016-11-09 广东小天才科技有限公司 一种监测人情绪的方法及装置
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
CN107405080A (zh) 2015-03-09 2017-11-28 皇家飞利浦有限公司 利用可穿戴设备远程地监测用户的健康的系统、设备和方法
EP3674951A1 (en) * 2018-12-31 2020-07-01 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO System and method of obtaining authentication information for user input information
US11138379B2 (en) 2019-04-25 2021-10-05 Sorenson Ip Holdings, Llc Determination of transcription accuracy
CN110265063B (zh) * 2019-07-22 2021-09-24 东南大学 一种基于固定时长语音情感识别序列分析的测谎方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3971034A (en) 1971-02-09 1976-07-20 Dektor Counterintelligence And Security, Inc. Physiological response analysis method and apparatus
US3855418A (en) 1972-12-01 1974-12-17 F Fuller Method and apparatus for phonation analysis leading to valid truth/lie decisions by vibratto component assessment
DE2431458C2 (de) * 1974-07-01 1986-05-28 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und Anordnung zur automatischen Sprechererkennung
US4093821A (en) * 1977-06-14 1978-06-06 John Decatur Williamson Speech analyzer for analyzing pitch or frequency perturbations in individual speech pattern to determine the emotional state of the person
US5148483A (en) 1983-08-11 1992-09-15 Silverman Stephen E Method for detecting suicidal predisposition
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
JPH01107240U (zh) * 1988-01-08 1989-07-19
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
IL108401A (en) * 1994-01-21 1996-12-05 Hashavshevet Manufacture 1988 Method and apparatus for indicating the emotional state of a person
JP3280825B2 (ja) * 1995-04-26 2002-05-13 富士通株式会社 音声特徴分析装置
JPH09265378A (ja) * 1996-03-28 1997-10-07 Hitachi Ltd オペレータの支援方法および支援システム
US5853005A (en) * 1996-05-02 1998-12-29 The United States Of America As Represented By The Secretary Of The Army Acoustic monitoring system
US5875427A (en) 1996-12-04 1999-02-23 Justsystem Corp. Voice-generating/document making apparatus voice-generating/document making method and computer-readable medium for storing therein a program having a computer execute voice-generating/document making sequence
US6055501A (en) * 1997-07-03 2000-04-25 Maccaughelty; Robert J. Counter homeostasis oscillation perturbation signals (CHOPS) detection

Also Published As

Publication number Publication date
TR200001765T2 (tr) 2000-11-21
ES2283082T3 (es) 2007-10-16
CA2313526C (en) 2009-08-11
DE69837107T2 (de) 2007-11-22
EP1038291A4 (en) 2000-11-22
DE69837107D1 (de) 2007-03-29
HUP0101836A1 (hu) 2001-09-28
JP2002509267A (ja) 2002-03-26
PT1038291E (pt) 2007-05-31
RU2294023C2 (ru) 2007-02-20
PL341296A1 (en) 2001-04-09
JP4309053B2 (ja) 2009-08-05
ATE354159T1 (de) 2007-03-15
US6638217B1 (en) 2003-10-28
CN1282445A (zh) 2001-01-31
AU1575099A (en) 1999-07-05
AU770410B2 (en) 2004-02-19
HUP0101836A3 (en) 2004-04-28
EP1038291B1 (en) 2007-02-14
EP1038291A1 (en) 2000-09-27
CA2313526A1 (en) 1999-06-24
IL122632A0 (en) 1998-08-16
HU226537B1 (en) 2009-03-30
HK1034796A1 (en) 2001-11-02
BR9814288A (pt) 2000-10-03
WO1999031653A1 (en) 1999-06-24
TW446933B (en) 2001-07-21

Similar Documents

Publication Publication Date Title
CN1174373C (zh) 用于检测情绪的方法
Bowling et al. Body size and vocalization in primates and carnivores
CN1234109C (zh) 语调生成方法、语音合成装置、语音合成方法及语音服务器
CN1152365C (zh) 音调跟踪装置和方法
US7490038B2 (en) Speech recognition optimization tool
CN1622195A (zh) 语音合成方法和语音合成系统
CN101076850A (zh) 用于提取构成音频信号基础的旋律的方法和设备
CN1315032A (zh) 用于执行音频信号的传输质量的机器支持的评估的方法
CN1461463A (zh) 语音合成设备
CN1870130A (zh) 音调模式生成方法及其装置
CN1161750C (zh) 语音编码译码方法和装置、电话装置、音调变换方法和介质
CN1692402A (zh) 声音合成方法以及声音合成装置
CN1308911C (zh) 一种说话者身份识别方法和系统
CN1795491A (zh) 分析基频信息的方法以及实现所述分析方法的话音转换方法和系统
CN1787074A (zh) 基于情感迁移规则及语音修正的说话人识别方法
CN101076849A (zh) 对构成音频信号基础的旋律的提取
Armitage et al. Automatic responses to musical intervals: Contrasts in acoustic roughness predict affective priming in Western listeners
Marczyk et al. Optimizing linguistic materials for feature-based intelligibility assessment in speech impairments
US20040054524A1 (en) Speech transformation system and apparatus
Balamurali et al. Automated Classification of Vowel-Gesture Parameters Using External Broadband Excitation.
CN1064464C (zh) 以多重评分函数为基础的语言处理系统
Marjieh et al. Timbral effects on consonance illuminate psychoacoustics of music evolution
Gamba et al. Subspecific divergence in the black lemur’s low-pitched vocalizations
RU2408087C2 (ru) Система эмоциональной стабилизации речевых коммуникаций &#34;эмос&#34;
Nash An electronic database of speech sound levels

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: AMIR LIBERMAN

Free format text: FORMER OWNER: ANDERS WUERBOGE; AMIR LIBERMAN

Effective date: 20010719

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20010719

Applicant after: Amir Liberman

Applicant before: Avi Carmel

Applicant before: Amir Liberman

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1034796

Country of ref document: HK

CX01 Expiry of patent term
CX01 Expiry of patent term

Granted publication date: 20041103