CN100370414C - 感受能力生成器及其方法 - Google Patents

感受能力生成器及其方法 Download PDF

Info

Publication number
CN100370414C
CN100370414C CNB018154557A CN01815455A CN100370414C CN 100370414 C CN100370414 C CN 100370414C CN B018154557 A CNB018154557 A CN B018154557A CN 01815455 A CN01815455 A CN 01815455A CN 100370414 C CN100370414 C CN 100370414C
Authority
CN
China
Prior art keywords
information
unit
mood
sound
emotional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
CNB018154557A
Other languages
English (en)
Other versions
CN1455916A (zh
Inventor
光吉俊二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kk Agi
Original Assignee
AGI Inc Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2000278397A external-priority patent/JP3676969B2/ja
Priority claimed from JP2001007726A external-priority patent/JP3676981B2/ja
Application filed by AGI Inc Japan filed Critical AGI Inc Japan
Publication of CN1455916A publication Critical patent/CN1455916A/zh
Application granted granted Critical
Publication of CN100370414C publication Critical patent/CN100370414C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

一种能够准确探测一个人的情绪的情绪探测方法,而且提供能够输出类似于一个人的感受能力的感受能力生成方法。根据输入声音信号来探测一个强度、速度与该声音的每个单词中的语调,分别获得这些探测到的内容的变化量,并根据这些变化量生成表示愤怒、悲伤与愉快的每个情绪状态的信号。输入一位伙伴的情绪或情景信息,从而生成本能动机信息。而且,生成包含愉快、愤怒与悲伤的基本情绪参数的情绪信息,该情绪信息根据个性信息加以控制。

Description

感受能力生成器及其方法
本发明的背景
1、本发明的领域
本发明涉及一种情绪探测方法、一种感受能力生成方法、实现这些方法的系统以及软件。本发明的情绪探测方法可以被用于医疗领域的情绪探测,而且可以用于各种系统作为人工智能与人工感受能力的一部分。而且,本发明的一种感受能力生成方法可以被用于以多种方法来控制虚拟人与机器人的感受能力的各种系统。
2、相关技术说明
举例来说,与本发明的情绪探测方法相关的传统技术公布于《日本专利申请公开公报》(Japanese Unexamined Patent Application Publication)的Nos.Hei5-12023、Hei9-22296与Hei11-119791。
《日本专利申请公开公报》No.Hei5-12023公布,声音的延续时间、声音的共振频率以及每个频率的声音强度都分别作为该声音的特征量而加以探测。而且,这一公报也公布了探测参考信号与各个特征量之间的一个差值,并根据该探测到的差值采用模糊推理来探测情绪。
《日本专利申请公开公报》No.Hei9-22296公布,声音的生成速率(单位时间的短音节数)、声音的纵向平面振动频率、音量以及声音频谱都作为该声音的特征量而加以探测。而且,这一公报也公布了根据该探测到的特征量以及由统计处理HMM(隐式马尔可夫模型)获得的结果来探测情绪。
《日本专利申请公开公报》No.Hei11-119791公布了利用HMM根据声音转变状态中的音素频谱的概率来探测情绪。
另一方面,作为与本发明的感受能力(sensibility)生成方法相关的传统技术,可以举《日本专利申请公开公报》No.Hei11-265239中公布的“情绪生成系统与情绪生成方法”(“Emotion Generating System and EmotionGeneration Method”)为例。
表达人们内在状态等等的情绪根据当时的情景会有各种变化。《日本专利申请公开公报》No.Hei11-265239公布了生成不可预测情景中的情绪的技术。
具体来讲,应考虑到可以预测的情景来评价各种情景,并生成系统自身的情绪。另外,要分析过去实际生成的情绪以及当时的情景,并学习对各种情景特殊的不可预测的间接条件以及与此相应的情绪。当一个新输入的情景满足这些间接条件时,就输出与这些间接条件对应的情绪。
举例来说,由这样一个系统生成的情绪状态会影响到输出的声音与图像。
本发明的概要
然而,该传统情绪探测方法探测情绪的精度很低,即使它能够对特别限定的语言探测情绪,也不能准确探测一个人的实际情绪。所以该情绪探测方法只对有限的应用场合才能得到实际使用,譬如说,比较简单的博弈机器。
本发明的一个目的是提供一种能够准确探测作为一个对象(subject)的一个人的情绪的情绪探测方法。
而且,该传统情绪探测方法只是直接根据与输入情景有关的信息来生成情绪。对实际的人,包括本能、理智、个性等等在内的各种参数彼此之间会产生复杂的影响,结果使行动、言语、表情等发生变化。该传统情绪生成方法不能使这种本能、理智、个性等等影响这些结果。
本能与情绪可以被看作情感作用。此外,本能成了它的情绪生成的基本生物情感作用与动机。而且,一般认为人们并不直接输出情绪,但是他们输出由该理智与个性控制的感受能力。
本发明的另一个目的是提供一种能够输出类似于一个人的感受能力的感受能力生成方法。
根据本发明的一个第一方面,探测对象的情绪的一种情绪探测方法包括如下步骤:输入一个声音信号;根据该输入声音来分别探测该声音的强度、表示该声音出现速率的速度以及表示该声音构成的每个单词的强度变化模式的语调;分别获得该探测到的声音的强度中、该声音的速度中以及该声音的语调中的变化量;以及根据这些获得的变化量来分别生成表示至少包括愤怒、悲伤与愉快的情绪状态的信号。
在本发明的该第一方面,通过使从该对象输入的声音的强度、速度及语调中的各个变化量分别与包括愤怒、悲伤与愉快的情绪状态相符来探测情绪。采用这样一种方法,能够比该传统技术更准确地探测情绪。
根据本发明的一个第二方面,探测对象的情绪的情绪探测系统包括:一个声音输入单元,用于输入声音信号;一个强度探测单元,用于根据该声音输入单元输入的声音信号来探测该声音的强度;速度探测单元,用于根据该声音输入单元输入的声音信号来探测该声音出现的速率并以此作为速度;一个语调探测单元,用于根据该声音输入单元输入的声音信号来探测表示该声音的一个单词内强度变化模式的语调;一个变化量探测单元,用于分别获得该强度探测单元探测到的声音强度中、该速度探测单元探测到的声音速度中以及该语调探测单元探测到的声音语调中的变化量;以及一个情绪探测单元,用于根据该变化量探测单元探测到的变化量来分别输出表示至少包括愤怒、悲伤与愉快的情绪状态的信号。
在本发明的该第二方面的情绪探测系统中,提供了该声音输入单元、该强度探测单元、该速度探测单元、该语调探测单元、该变化量探测单元以及该情绪探测单元,因此能够执行前述的情绪探测方法。
根据本方面的一个第三方面,本发明该第二方面的情绪探测系统中的语调探测单元包括:一个带通滤波器,用于从对每个单词分离输入的声音信号中提取特定的频率分量;一个区域分离单元,用于将由该带通滤波器提取的信号的功率频谱根据该功率频谱的强度分离为许多区域;以及一个语调计算单元,用于根据由该区域分离单元分离出的该许多区域的各自中心之间的时间间隔来计算一个语调值。
该带通滤波器单元从对每个单词分离输入的声音信号中提取这些特定的频率分量。该区域分离单元将该探测到的功率频谱根据它们的强度分离为许多区域。该语调计算单元根据由该区域分离单元分离出的许多区域的各自中心之间的时间间隔来计算该语调的数值。
在本发明的该第三方面,单词中与该声音的这些特定频率分量有关的一个能量分布模式被探测出来作为表示这许多区域的间隔的一个时间值,而且该时间的长度被用来作为该语调。
根据本发明的一个第四方面,本发明该第二方面的情绪探测系统还包括:一个成像单元,用于接受与至少该对象的一个面部有关的图像信息;一个图像识别单元,用于根据由该成像单元接受到的图像信息来探测与该面部每个部分有关的位置信息;一个图像参考信息保存单元,用于保存与该面部每个部分的特征量有关的参考信息;以及一个图像特征量探测单元,用于根据由该图像识别单元探测到的位置信息以及由该图像参考信息保存单元保存的参考信息来探测一个图像特征量。该情绪探测单元按照由该图像特征量探测单元探测到的图像特征量中的变化来估计一个情绪状态。
在本发明的该第四方面,除了该声音以外,还根据该对象面部的表情来估计该情绪状态。通常,由于人们的情绪状态影响他们面部的表情,所以能够通过探测他们的面部表情来捕捉这些情绪状态。因此,在本发明的该第四方面中,该情绪探测单元根据由该图像特征量探测单元探测到的图像特征量的变化来估计该情绪状态。
根据本发明的一个第五方面,本发明该第二方面的情绪探测系统还包括:一个情绪信息存储单元,用于接连不断地接受与由该情绪探测单元探测到的这些情绪状态有关的各种信息,并用于在其中储存这各种信息;以及一个遗忘处理单元,用于从与过去储存在该情绪信息存储单元中的情绪状态有关的各种信息中删除自该信息当初被储存以来已经储存了预定时期的信息,并用于从要被删除的信息中至少排除说明情绪变化量大于预定量的信息以及符合预定变化模式的信息。
在本发明的该第五方面,能够将与这些探测到的过去情绪状态有关的信息储存到该情绪信息存储单元。而且,由于自被探测以来已经储存了很长时期的旧信息会被自动从该情绪信息存储单元中删除,所以能够减少该情绪信息存储单元所需要的存储容量。
然而,典型信息,譬如说明情绪变化量大于该预定量的信息以及符合该预定变化模式的信息,会被自动从需要删除的信息中排除。所以,即使该典型信息已经变得陈旧,它们也会按原样保存在该情绪信息存储单元之中。因此,与一个人的记忆相似,将来也许有用的典型信息即使已经变得陈旧,也可以从该情绪信息存储单元中读出以便重现。
根据本发明的一个第六方面,本发明该第五方面的情绪探测系统还包括:一个语句识别单元,用于通过处理与该对象说出的声音或与该对象输入的字符有关的信息来进行语法分析,并用来生成表达一个语句的含义的言语信息;以及一个存储器控制单元,用于按照与涉及这些情绪状态的信息同步的方式来储存由该情绪信息存储单元中的语句识别单元生成的言语信息。
该语句识别单元处理与该对象发出的声音或与该对象用一个键盘或类似设备输入的字符有关的信息,并进行语法分析来生成表达该语句含义的言语信息。
举例来说,该语法分析能够获得表达“5W3H”的言语信息,即“Who(何人)”、“What(何事)”、“When(何时)”、“Where(何地)”、“Why(何因)”、“How(多么)”、“How long,How far,How tall and soon(多长、多远、多高等等)”以及“How much(多少)”。
该存储器控制单元在该言语信息与涉及这些情绪状态的信息同步的状态下,储存由该情绪信息存储单元中的语句识别单元生成的言语信息。
在本发明的该第六方面,通过查阅该情绪信息存储单元,不仅可以取出与过去任何时刻的情绪有关的信息,而且可以取出表示该时刻情景的言语信息。
该情绪信息存储单元中保存的信息可以被应用于各种使用场合。举例来说,如果该情绪探测系统本身的情绪估计功能不准确,就可以根据该情绪信息存储单元中保存的过去探测结果来校正一个用来估计该情绪的数据库。
根据本发明的一个第七方面,本发明该第二方面的情绪探测系统还包括:一个无声时间测定单元,用于根据探测到的情绪状态中的情绪状态来测定一个参考无声时间;以及一个语句分段探测单元,用于通过利用由该无声时间测定单元测定的参考无声时间来探测该声音语句的一个分段。
在执行该声音识别与情绪探测时,必须对每个语句探测该分段,而且必须提取每个语句。一般来说,由于在这些语句之间的分段中存在一个无声部分,所以许多语句可以在这些无声部分出现时刻加以分离。
然而,这些无声部分的长度并不是不变的。特别是,该无声部分的长度随一个说话人的情绪状态而变化。所以,在为了测定该无声部分而分配阈限时,探测该语句分段的失败可能性也变大。
在本发明的该第七方面,举例来说,该参考无声时间根据在该测定前刚刚探测到的情绪状态来测定,而且该声音语句的分段按照该参考无声时间来探测。所以,即使在该说话人情绪变化时也能够正确探测该语句的分段。
根据本发明的一个第八方面,软件包括了由一台计算机执行的、用于探测一位对象的情绪的一个情绪探测程序,其中该情绪探测程序包括如下步骤:一个将声音信号输入到该情绪探测程序的步骤;一个根据该输入声音信号探测该声音的强度、表示该声音出现速率的速度以及表示该声音构成的每个单词中强度变化模式的语调的步骤;一个获得已被探测到的声音强度、声音速度与声音语调中每一项的变化量的步骤;以及一个根据所获得的变化量来生成至少表示愤怒、悲伤与愉快的情绪状态的信号的步骤。
用一台计算机执行本发明该第八方面的软件中所包括的情绪探测程序就能够实现本发明该第一方面的情绪探测方法。
根据本发明的一个第九方面,一个感受能力生成方法包括如下步骤:预先保存至少决定产生感受能力的一个对象的理智、预定特征以及意向的各种个性信息;根据一个表明伙伴的情绪的状态或者该伙伴所处的环境的输入情景信息来生成本能动机信息,该本能动机信息至少包括表示愉快程度的一个第一本能参数、表示愤怒程度的一个第二本能参数与表示完成(achievement)及变化程度的一个第三本能参数;根据该生成的本能动机信息来生成情绪信息,该情绪信息包括至少愉快、愤怒与悲伤的一个基本情绪参数;以及根据该个性信息来控制该生成的情绪信息。
在本发明的该第九方面,激发情绪产生的本能动机信息根据该输入情景信息(该伙伴的情绪、意向与状况)生成。具体地讲,该本能动机信息从该情景信息生成,而该情绪信息根据该本能动机信息生成。而且,将要生成的情绪信息根据该个性信息加以控制。所以,能够输出由该个人的理智与意向控制的情绪,即感受能力信息。
此外,由于该情绪信息通过该本能动机信息生成,所以能够更准确、更容易地控制将要生成的情绪。
譬如说,当一个人在已经认识到危险情景的状态中遇到该危险情景时产生的情绪与该人在未认识到危险情景的状态中突然遇到该危险情景时产生的情绪是完全不同的。复现这些情绪中的这样一种差别是可能的。
最好使该本能参数除了前述各项外还包括一个注意程度(拒绝程度)、一个确定性程度(迷惑程度)、一个追踪程度(自信程度)等等。而且,最好使构成情绪信息的基本情绪参数除了前述各项外还包括惊讶、恐惧、痛苦、厌恶、轻视、趋近、逃避、忌妒、羡慕、依赖、激怒、焦虑等等。
根据本发明的一个第十方面,一个感受能力发生器包括:一个本能测定单元,用于输入表明伙伴的情绪状态、该伙伴所处的环境与该伙伴的意向的情节情景信息,并用于根据该情节情景信息来生成本能动机信息,该本能动机信息至少包括表示愉快程度的一个第一本能参数、表示危险程度的一个第二本能参数与表示完成及变化程度的一个第三本能参数;一个情绪生成单元,用于根据由该本能测定单元输出的本能动机信息来生成情绪信息,该情绪信息包括至少愉快、愤怒与悲伤的基本情绪参数;一个个性信息提供单元,用于提供至少决定产生感受能力的一位对象的理智与意向的个性信息;以及一个情绪控制单元,用于根据该个性信息提供单元提供的个性信息来控制由该情绪生成单元输出的情绪信息。
在本发明的感受能力发生器的该第十方面,能够通过提供本能测定单元、情绪生成单元、个性信息提供单元以及情绪控制单元来执行如本发明第九方面的感受能力生成方法。
所以,能够输出由个人的理智与意向控制的情绪,就是说,关于感受能力的信息。而且,由于情绪信息通过本能动机信息生成,所以能够更准确、更容易地控制将要产生的情绪。
根据本发明的一个第十一方面,本发明该第十方面的情绪生成单元包括:一个生命节奏生成单元,用于生成表示周期变化的环境或者一个生命的生命节奏的信息;以及一个随意情绪控制单元,用于按照该生命节奏生成单元输出的生命节奏信息来控制该情绪生成单元中的随意情绪。
举例来说,自然环境状况(譬如温度与湿度)周期性变化,尽管不太规则,但随天气、季节、时间等的变化同时发生。而且人们认为,每个人都独特地具有一个身体节奏、一个情绪节奏、一个智力节奏等等。这种周期性变化的节奏被认为对人们的实际情绪有各种各样的影响。
在本方面的该第十一方面,该随意情绪控制单元按照该生命节奏生成单元输出的生命节奏信息来控制该情绪生成单元中的随意情绪。所以,要被输出的情绪可以按照该环境或者按照该生命的生命节奏来变化。
根据本发明的一个第十二方面,本发明该第十方面的感受能力发生器中的情绪生成单元包括:一个本能-情绪信息保存单元,用于保存使该基本情绪参数与该本能动机信息互相对应的模式信息;以及一个匹配概率学习单元,用于输出表示该本能动机信息与该本能-情绪信息保存单元中的模式信息间的匹配/失配概率的信息,该本能动机信息从该本能测定单元输出。
在本发明的该第十二方面,可以获得该本能动机信息与来自该匹配概率学习单元的模式信息间的匹配概率以便利用它作为该情绪的一个测定因素。
举例来说,一个人的精神状况从第一状态变化到第二状态时,该精神状况经由过程中的一个第三状态从该第一状态过渡到该第二状态。所以,存在在该精神状况暂时符合该第三状态中的模式信息的可能性。然而,该第三状态中符合该精神状况的模式信息并不具有一个高的利用率。通过利用该匹配概率学习单元获得的匹配概率,就可抑制具有低概率的模式信息的情绪的生成。
根据本发明的一个第十三方面,本发明该第十方面的感受能力发生器中的情绪生成单元包括一个情绪反馈控制单元,用于向该情绪生成单元至少输入最终生成的它自身情绪信息,并用于使该最终生成的信息影响随后将要生成的它的自身情绪信息。
人们认为,输入不同的动机会导致一个人的情绪发生连锁变化。举例来说,给一个处于正常状态的人一个动机使他愤怒时产生的愤怒程度与给一个已经愤怒的人一个动机使他更愤怒时产生的愤怒程度彼此会有很大的不同。
在本发明的该第十三方面,该情绪反馈控制单元的提供使该反馈前生成的情绪状态被送回到输入,并使该情绪状态影响随后将要产生的情绪。所以,能够产生与一个人的情绪更接近的情绪。
根据本发明的一个第十四方面,本发明该第十方面的感受能力发生器具有这样一个特点,即该情绪控制单元使一个生命节奏信息影响要被输入的情绪信息,而该生命节奏正是产生感受能力的一位对象的个性。
在本发明的该第十四方面,该生命节奏的信息可以影响该感受能力。譬如说,根据一个人是否愿意作某件事,在由理智等作出的决定结果中会出现差别。该感受能力中的这种差别可以由该生命节奏的影响来复现。
根据本发明的一个第十五方面,本发明该第十方面的感受能力发生器还包括:一个知识数据库,用于储存表示过去情景、过去情节以及该过去情景与情节的结果的情景信息;一个知识核对单元,用于从该知识数据库中检索并提取与新输入的情景信息类似的过去情景信息,并用于向该情绪控制单元提供该过去情景信息;以及一个数据更新控制单元,用于根据表示一个新输入的情景与该新情景的结果的情景信息来修改该知识数据库的内容,并用于从该知识数据库中按照这些内容的权重以时间顺序自动删除低优先级的情景信息。
在本发明的该第十五方面,表示该过去情景及其结果的情景信息被储存到该知识数据库。譬如说,储存表示情节的一个情景以及储存该情节的一个最终结果是否成功的信息。所以,可以从该知识数据库中获得与该当前情景类似的过去情景信息以便用来控制该情绪。
附带地说,新生成的信息必须随着时间的流逝被接连不断地添加到该知识数据库。然而,构成该知识数据库的一个系统的存储器容量是有限的。而且,当储存的信息量增加时,处理速度下降。
但是在本发明的该第十五方面,低优先级的情景信息会在该数据更新控制单元的控制下被自动从该知识数据库中按照时间顺序删除。所以,可以实现与一个人的遗忘相类似的结果,而且可以防止该存储器容量的不足与该处理速度的下降。
根据本发明的一个第十六方面,本发明该第十方面的感受能力发生器还包括:一个声音输入单元,用于输入一个声音信号;一个强度探测单元,用于根据该声音输入单元输入的声音信号来探测该声音的强度;速度探测单元,用于根据该声音输入单元输入的声音信号来探测该声音出现的速率并以此作为速度;一个语调探测单元,用于根据该声音输入单元输入的声音信号来探测表示该声音的一个单词中强度变化模式的语调;一个变化量探测单元,用于分别获得该强度探测单元探测到的声音强度中、该速度探测单元探测到的声音速度中与该语调探测单元探测到的声音语调中的变化量;以及一个情绪探测单元,用于根据该变化量探测单元探测到的变化量来分别输出至少表示愤怒、悲伤与愉快的情绪状态的信号。
在本发明的该第十六方面,该伙伴的情绪状态可以根据从该声音提取的特征量来探测。所以,可以按照该伙伴的情绪来生成自身情绪。
根据本发明的一个第十七方面,本发明该第十六方面的感受能力发生器包括:一个声音识别单元,用于识别从该声音输入单元输入的声音,并用于输出字符信息;以及一个自然言语处理单元,用于使由该声音识别单元识别的有声信息接受自然言语处理,并用来生成表达该输入的声音的含义的含义信息。
在本发明的该第十七方面,获得了与该伙伴所说单词有关的含义信息,所以通过理解该含义信息所得的一个结果就能影响该自身感受能力。
根据本发明的一个第十八方面,软件包括了能够由一台计算机执行的、用于感受能力生成控制的一个程序与数据,其中该程序包括:一个根据表明伙伴的情绪的状态或者该伙伴所处的环境的一个输入情景信息来生成本能动机信息的步骤,该本能动机信息至少包括表示愉快程度的一个第一本能参数、表示危险程度的一个第二本能参数以及表示完成或变化程度的一个第三本能参数;一个根据该生成的本能动机信息来生成情绪信息的步骤,该情绪信息包括至少愉快、愤怒与悲伤的一个基本情绪参数;一个提供个性信息的步骤,该个性信息至少决定产生感受能力的一位对象的理智与意向;以及一个根据该个性信息来控制该生成的情绪信息的步骤。
本发明的该第十八方面的软件被输入到执行该程序的一台预定计算机,从而实现本发明该第九方面的感受能力生成方法。
例图的简单说明
结合所附例图一道阅读下面的详细说明,那么本发明的性质、原理与效用就会变得显而易见。在这些例图中,相同的部件用完全一样的参考数码表示,其中:
图1是说明实施例的一个情绪探测系统的结构的一幅方框图;
图2是说明语调探测单元的结构的一幅示意图;
图3是一幅坐标图,它说明一个情绪状态变化与声音的强度、速度与语调之间的关系;
图4是说明该语调探测单元中声音信号处理过程的时间曲线图。
图5是说明一个遗忘处理单元的运行过程的一幅流程图;
图6是一幅示意图,它说明一个情绪及感受能力存储器DB中储存的信息的配置示例;
图7是一幅方框图,它表示采用一个感受能力发生器的系统的配置示例;
图8是说明一个本能信息生成单元的配置的一幅方框图;
图9是说明一个情绪信息生成单元的一幅方框图;
图10是一幅示意图,表示一个情绪反应模式DB中反应模式模型的一个示例;以及
图11是说明一个感受能力及思想识别单元的配置的一幅方框图。
优选实施例
(第一实施例)
下面将参考图1至图6来说明与本发明的一种情绪探测方法有关的一个实施例。
图1是一幅方框图,它表示这个实施例的一个情绪探测系统的配置。图2是说明一个语调探测单元的一幅方框图。图3是一幅坐标图,它说明一个情绪状态的变化与声音的强度、速度与语调之间的关系。图4是一幅时间关系曲线图,它说明在该语调探测单元内声音信号处理的各个过程。图5是说明遗忘处理单元的一个运行过程的一幅流程图。图6是一幅示意图,它表示情绪及感受能力存储器DB中储存的信息的一个配置示例。
参看图1,该情绪探测系统包括:一个麦克风11;一个A/D转换器12;一个信号处理单元13;一个声音识别单元20;一个强度探测单元17;速度探测单元18;一个语调探测单元19;一个临时数据存储器单元21;一个情绪变化探测单元22;一个声音情绪探测单元23;一个情绪模式数据库(下文称为DB)24;一个键盘25;一个语句识别单元26;一台电视摄像机31;一个图像识别单元32;一个面部模式DB 33;一个面部情绪探测单元34;一个字符识别单元39;一个情绪及感受能力存储器DB 41;一个遗忘处理单元42;一个同步处理单元43;一个人性信息DB 44;一个个性信息DB 45;一个职业信息DB 46;以及一个情绪识别单元60。
而且,在声音识别单元20中提供了一个信号处理单元13;一个音素探测单元14;一个单词探测单元15;以及一个语句探测单元16。声音识别单元20还包括商店出售的声音识别(自然言语处理)设备的功能。
在图1中,声音识别单元20、强度探测单元17、速度探测单元18、语调探测单元19、临时数据存储器单元21、情绪变化探测单元22以及声音情绪探测单元23都是从声音来探测情绪的电路。
该情绪探测系统包括麦克风11、键盘25与电视摄像机31来作为读取一个人的信息的输入单元,这个人是为其探测情绪的一位伙伴。具体地讲,这个人(即该伙伴)的情绪利用从麦克风11输入的一个声音、从键盘25输入的字符信息以及从电视摄像机31输入的包括面部表情的信息等加以探测。
注意,该情绪也可以只根据从麦克风11输入的声音、从键盘25输入的字符信息或者从电视摄像机31输入的面部表情中的一种来探测。但是,从改进该情绪的探测精度的观点来看,综合地判断从这多个信息源获得的信息更加有效。
首先描述与该声音有关的处理。从麦克风11输入的一个声音信号经A/D转换器12采样,然后被转换为一个数字信号。在A/D转换器12的输出端获得的该声音的数字信号被输入到声音识别单元20。
信号处理单元13提取该声音的强度探测所必须的频率分量。强度探测单元17从信号处理单元13提取的信号来探测强度。譬如说,对该声音信号的振幅的幅值取平均值所得的结果可以被用作该强度。
举例来说,探测该声音强度的一个平均周期被设置为大约10秒。注意,如果在平均周期小于10秒的情况下探测各个语句的分段,那么就对从该语句开始至探测到该分段的时间段取平均值。准确地讲,要对每个语句探测该声音的强度。
声音识别单元20中提供的音素探测单元14探测对输入到其中的声音的每个因素的分段。举例来说,当由“kyou wa ii tenki desun”(日语)表示的语句被以声音的形式输入时,就会探测出对每个音素的分段,如“kyo/u/wa/i/i/te/n/ki/de/su/ne”(日语)。
声音识别单元20中提供的单词探测单元15探测对输入到其中的声音的每个单词的分段。举例来说,当由“kyou wa ii tenki desun”(日语)表示的语句被以声音的形式输入时,就会探测出对每个单词的分段,如“kyou/wa/ii/tenki/desune”(日语)。
声音识别单元20中提供的语句探测单元16探测对输入到其中的声音的每个语句的分段。在探测到具有特定长度或更长的无声状态时,就认为出现了对每个语句的分段。对该无声状态长度的一个阈限值分配了一个大约0.1至0.2秒的值。而且,这个阈限值不是不变的,这个阈限值被自动改变以使它反映刚刚探测到的一个情绪状态。
速度探测单元18接受由音素探测单元14输出的对每个音素分段的信号,并探测在单位时间内出现的音素数量。对于该速度的一个探测周期,举例来说,大约分配一个10秒的时间。但是,在探测该语句的分段时,即使在10秒之内探测该语句分段,也要停止音素数量的计数,直至探测到该语句分段的时刻为止,而且要计算该速度的一个值。准确地讲,应对每个语句探测速度。
来自A/D转换器12的数字信号对由单词探测单元15探测分段的每个单词进行划分,而且该声音信号被输入到语调探测单元19。从输入到语调探测单元19的声音信号中,语调探测单元19探测表示每个单词中以及语句探测单元16内每个语句分段中的声音强度变化模式的语调。从而,语调探测单元19探测该分段中的特征强度模式。
如图2所示,在语调探测单元19中提供一个带通滤波器51、一个绝对值转换单元52、一个比较单元53、一个区域中心探测单元54以及一个区域间隔探测单元55。语调探测单元19的各个输入与输出端的信号SG1、SG2、SG3与SG4的波形示例见图4。注意,图4中每个信号的纵坐标表示振幅或强度。而且,在图4的示例中,从该声音中取出的一个单词的长度大约为1.2秒。
带通滤波器51只从向其输入的信号SG1中提取语调探测所必须的频率分量。在这个实施例中,只有频率在800至1200Hz范围内的频率分量作为信号SG2出现在带通滤波器的输出端。参看图4可以发现,由该单词的语调所引起的强度变化模式出现在信号SG2中。
为了简化该信号的计算处理,在语调探测单元19中提供了绝对值转换单元52。绝对值转换单元52将该输入信号的振幅转换为它的绝对值。所以,图4所示的信号SG3出现在绝对值转换单元52的一个输出端。
比较单元53将信号SG3的幅值与该阈限值加以比较,而且只输出大于该阈限值的分量作为信号SG4。准确地讲,比较单元53只输出信号SG3的功率频谱中数值大的分量。加到比较单元53的阈限值由被称为决策分析方法的方法来近似确定。
参看图4,与该声音的该单词中的语调模式对应的两个区域A1与A2出现在信号SG4中。区域中心探测单元54探测时间t1与t2,与两个区域A1与A2的各自中心对应的位置就出现在这两个时间。
区域间隔探测单元55探测与由区域中心探测单元54探测到的两个时间t1与t2有关的一个时间差,以此作为一个区域间隔Ty。这个区域间隔Ty的值对应于该声音的该单词中的语调模式。实际上,对各个区域间隔Ty的值取平均值所得的一个结果被用作该语调的一个值。
简而言之,在SG4中也许出现3个或更多区域。如果出现3个或更多区域,就要对每两个彼此相邻的区域分别计算区域间隔Ty,对这多个所得区域间隔Ty取平均值而获得的一个结果就被用作该语调的值。
举例来说,一个人的情绪状态如图3所示变化。而且,为了正确掌握包括愤怒、悲伤与愉快等在内的情绪,就不可避免地要探测特征量的变化,譬如强度、速度与语调。
在图1所示的情绪探测系统中,为了能够查询过去的特征量,由强度探测单元17输出的强度值、由速度探测单元18输出的速度值以及由语调探测单元19输出的语调值均被临时储存在临时数据存储器单元21中。
而且,情绪变化探测单元22接受由强度探测单元17输出的当前强度值、由速度探测单元18输出的当前速度值以及由语调探测单元19输出的当前语调值。情绪变化探测单元22也接受临时数据存储器单元21中储存的过去(该当前时间不久之前)的强度、速度与语调值。所以,情绪变化探测单元22探测该情绪状态的变化。具体地讲,情绪变化探测单元22分别探测该声音的强度、速度与语调中的变化。
声音情绪探测单元23接受由情绪变化探测单元22输出的强度、速度与语调中的变化,而且估计该当前的情绪状态。在这个实施例中,声音情绪探测单元23估计包括愤怒、悲伤与愉快在内的3种状态来作为该情绪状态。
以前储存在情绪模式DB 24中的是使愤怒状态与该声音中的强度、速度与语调变化的模式相关的信息,使悲伤状态与该声音中的强度、速度与语调变化的模式相关的信息以及使愉快状态与该声音中的强度、速度与语调变化的模式相关的信息。
声音情绪探测单元23根据由情绪变化探测单元22输出的强度变化、速度变化与语调变化的模式,并参考情绪模式DB 24中保存的信息作为估计规则来估计该情绪的当前值。
已经由声音情绪探测单元23估计的表示包括愤怒、悲伤与愉快在内的3类状态的信息被输入到情绪识别单元60以及情绪及感受能力存储器DB 41。情绪及感受能力存储器DB 41接连不断地接受并储存从声音情绪探测单元23输入的情绪的当前状态。
所以,读出情绪及感受能力存储器DB 41中储存的信息就可以复现该情绪的过去状态。
同时,作为一个声音从麦克风11输入的语句内容(该伙伴的讲话内容)由语句识别单元26加以识别。与声音识别单元20识别出的各个音素对应的字符信息以及表示该单词分段与语句分段的信息被输入到语句识别单元26。而且,从键盘25输入的字符信息也被输入到语句识别单元26。
语句识别单元26对每个单词识别一个输入字符串并作为一种自然言语来分析它的语法以便掌握该语句的内容。实际上,语句识别单元26识别表示“5W3H”的言语信息,即“何人”、“何事”、“何时”、“何地”、“何因”、“多么”、“多长、多远、多高等等”以及“多少”。由语句识别单元26识别的言语信息被输入到情绪识别单元60。
下面将描述根据该伙伴面部的表情来探测情绪的处理过程。电视摄像机31至少摄制作为图1的情绪探测系统的对象的那个人的一个面部。由电视摄像机31摄制的图像(即包括该人面部表情的一个图像)被输入到图像识别单元32。
注意,电视摄像机31所摄图像的信息被输入到字符识别单元39。具体地讲,当一个语句的图像被电视摄像机31摄制时,字符识别单元39从一个摄制图像识别该语句的各个字符。由字符识别单元39识别的字符信息被输入到语句识别单元26。
图像识别单元32从该输入图像识别特征要素。具体地讲,图像识别单元32识别该对象面部的眼睛、嘴巴、眉毛、颊骨各个部分,并探测该面部的眼睛、嘴巴、眉毛、颊骨的各个相对位置。而且,图像识别单元32始终跟踪眼睛、嘴巴、眉毛、颊骨的各个位置,以便随着面部表情的变化来探测它们的各自位置变化,并探测表情,譬如摇头。
与该面孔上的眼睛、嘴巴、眉毛、颊骨的各自位置的参考位置有关的信息(相当于该对象在正常状态时的面部表情)被预先储存在面部模式DB33中。注意,面部模式DB 33中的内容也可以任意改变。而且,表示该面部表情变化与6类情绪(愉快、愤怒、悲伤、恐惧、快乐与惊讶)的对应关系的规则信息被预先储存在面部模式DB 33中。
面部情绪探测单元34探测根据与由图像识别单元32识别的眼睛、嘴巴、眉毛与颊骨的各个位置有关的信息以及储存在面部模式DB 33中的参考位置来探测该表情的特征量,即它们与正常状态的特征量之差。
而且,面部情绪探测单元34根据探测到的特征量的变化量与速率,并根据面部模式DB 33中保存的规则信息来估计6类情绪(愉快、愤怒、悲伤、恐惧、快乐与惊讶)的各自状态。表示该6类情绪的估计状态的信息由面部情绪探测单元34输出,并被输入到情绪识别单元60以及情绪及感受能力存储器DB 41。
情绪识别单元60综合测定从声音情绪探测单元23输入的表示情绪状态(愤怒、悲伤或愉快)的信息、从语句识别单元26输入的言语信息以及从面部情绪探测单元34输入的表示情绪状态(愉快、愤怒、悲伤、恐惧、快乐或惊讶)的信息。然后,情绪识别单元60估计该情绪的最终状态。至于该言语信息,其中包括的情绪状态(愉快、愤怒、悲伤、恐惧、快乐或惊讶)可以通过按照预定规则测定该讲话中的语句的内容(5W3H)来加以估计。
表示由声音情绪探测单元23根据该声音所估计的情绪状态的信息、与语句识别单元26根据该声音或键盘25输入的字符所识别的言语内容有关的信息、以及表示面部情绪识别单元34从面部表情所估计的情绪状态的信息被分别输入到情绪及感受能力存储器DB 41,并被接连不断地储存在其中。情绪及感受能力存储器DB 41中储存的各部分信息的探测时间及日期被添加到该信息之中。
在输入到情绪及感受能力存储器DB 41的信息中,与从声音情绪探测单元23输入的情绪有关的信息、与从语句识别单元26输入的言语内容有关的信息以及与从面部情绪探测单元34输入的情绪有关的信息必须彼此关联地加以掌握。
所以,同步处理单元43将储存在情绪及感受能力存储器DB 41中的多种类型信息按照这些信息被探测的时间(输入时间)及日期彼此关联。譬如说,表示已经由声音情绪探测单元23加以估计的包括愤怒、悲伤与愉快的情绪状态的信息以及与言语内容(5W3H)有关的信息均按它们的时刻来彼此关联,如图6所示。
附带地讲,情绪及感受能力存储器DB 41包括能够储存较大量信息的一个足够的存储容量。但是,由于存在对该存储容量的限制,因此,为了长期不间断地使用这个系统就必须限制要在其中储存的信息量。
所以,提供了遗忘处理单元42。遗忘处理单元42从情绪及感受能力存储器DB 41中自动删除旧信息。然而,适合于特定条件的信息不被删除,即使变得陈旧也要储存。
遗忘处理单元42的一个运行过程将参考图5加以描述。
在图5的步骤S11中,对于储存在情绪及感受能力存储器DB 41中的大量数据中的每一个,要查询与每个数据被储存(或探测)的时间与日期有关的信息。
在步骤S12,根据当前时间与步骤S11中提到的时间来辨别自从该相关数据被储存以来,是否已经过去了一段预定的时间。如果处理自储存时刻以来已经储存了一段时间的旧数据,那么该处理进入步骤S13及以后的流程。还没有被储存某段时间的较新的数据则继续按原样储存。
在步骤S13,如果该数据是表示该情绪状态的信息,那么就检查该信息的变化量(一个事件前、后的情绪差别)。由于在该情绪变化量超过预定阈限值时该处理从步骤S13跳至S17,所以即使该数据是旧数据也按会原样储存。如果该情绪的变化量等于/小于该阈限值,那么该处理从步骤S13进入S14。
在步骤S14,探测与该数据有关的情绪模式,并辨别该相关模式是否与预定的特别模式相符。具体地讲,是检查这些情绪状态与言语内容的多种组合是否与特殊的、表示“给人强烈印象”的状态相符。由于在该探测到的模式与该特定模式相符时该处理从步骤S14跳至S17,所以即使该数据陈旧也会按原样储存。如果这些模式并不彼此相符,该处理就从步骤S14进入S15。
在步骤S15,如果该数据是言语内容,那么就辨别这些内容是否与预定的言语内容(给人重要印象的言语)相符。即使两个内容彼此不完全相符,但如果两者之间的相似性很高,它们也就被当作相符看待。由于在该相关数据的言语内容与该预定言语内容相符时该处理从步骤S15跳至S17,所以即使该数据陈旧也会按原样储存。
如果在步骤S15中这两个内容彼此不相符,该相关数据就会在步骤S16中被删除。
该上述处理对情绪及感受能力存储器DB 41中的所有数据进行。而且图5所示的遗忘处理被周期地重复进行。该遗忘处理的一个执行周期可以随个人的个性而任意改变。注意,该处理在步骤S14与S15中通过查询以前准备的模式DB(未画)来执行。对于这个模式DB,其中的内容会通过学习输入到其中的信息而被自动修改。
图5表示简化的处理过程。实际上,情绪变化量、情绪模式与言语内容全部都要加以综合测定。准确地讲,如果存在情绪变化量很大的信息、情绪模式与该特定模式相符的信息以及言语内容与该预定言语内容相同或类似的信息,那么就要综合确定它们的优先级。具体地讲,言语内容与该预定言语内容相同或类似的信息被赋予最高优先级,情绪模式与该特定模式相符的信息被赋予第二高优先级,而情绪变化量大的信息则被赋予最低优先级。所以,在该遗忘处理中,言语内容与该预定言语内容相同或类似的信息不大可能被删除,即使它变得陈旧也会作为记忆而保留。
对于情绪及感受能力存储器DB 41中的旧数据,只有情绪变化量大的数据、其模式被认为“给人强烈印象”的数据、被多次重复输入的数据以及其言语内容给人以重要印象的数据才会按照它们的强度与内容被赋予优先级,并按照遗忘处理单元42中的上述处理按原样储存。所以,情绪及感受能力存储器DB 41中的旧数据就成为只有一部分被保留在其中的不完整数据。这种数据的内容类似于人类记忆中的过去的含糊不清的记忆。
一直储存在情绪及感受能力存储器DB 41中的这些过去的情绪状态与过去的言语内容可以被读出以便进行数据分析,从而,举例来说,能够测定该情绪探测系统是否正常运行,并能够修改用于估计情绪的各个单元的数据库以便改进其中的内容。
储存在情绪及感受能力存储器DB 41中的数据还进一步按照它们的内容进行分配,并被储存到人性信息DB 44、个性信息DB 45或职业信息DB46。
在人性信息DB 44中,储存有定义该对象特征的信息(譬如性别、年龄、攻击性、合作性与当前情绪)以及与一个行动的决策模式有关的信息。在个性信息DB 45中,储存的信息为个人地址、当前状况、当前环境以及言语内容(5W3H)。在职业信息DB 46中,储存的信息为职业、职业生涯、职业能力与职业行为决策模式。
从人性信息DB 44、个性信息DB 45与职业信息DB 46输出的是个人的道德模式信息。该伙伴的感受能力可以根据该伙伴的道德模式信息以及过去情绪来理解。
如果图1所示的情绪探测系统的功能用一台计算机的软件来实现,那么只要将由该计算机执行的程序以及必要的数据预先录制在一个记录媒体(譬如一个CD-ROM)上就符合要求。
注意,图1所示的麦克风11可以用一个电话接收器来代替,也可以提供一个鼠标来作为用于输入信息(譬如字符)的单元。
而且,图1所示的电视摄像机31也可以用各种成像单元中的任何一种来代替,譬如一部光学摄像机、一部数字摄像机以及一部CCD摄像机。
采用上述情绪探测方法可以比传统方法更准确地探测该对象的情绪。
(第二实施例)
下面参看图7至图11来描述与本发明的一种感受能力生成方法有关的实施例。
图7是一幅方框图,它表示采用一个感受能力发生器的系统的一个配置示例。图8是说明本能信息生成单元的配置的一幅方框图。图9是说明一个情绪信息生成单元的一幅方框图。图10是一幅示意图,它表示一个情绪反应模式DB中反应模式模型的一个示例。图11是说明一个感受能力及思想识别单元的配置的一幅方框图。
图7所示系统的设计是假定随便一个人与一台计算机(虚拟人)之间可以实现自然与敏感的对话。在这个示例中提供了一个情绪探测系统200以便探测将作为该计算机的伙伴的那个人的情绪,以及一个感受能力发生器100以便使该计算本身的个性及感受能力影响该对话。
而且,提供一个环境信息输入设备300以便将各种环境信息输入到感受能力发生器100。举例来说,环境信息输入设备300输出与日期、时间、天气、场所与图像有关的信息。
感受能力发生器100也可以被用于一个独立运行的系统。譬如,如果将与从前产生的场景有关的信息输入感受能力发生器100,那么从感受能力发生器100的输出就可以获得符合该场景的反应。在这种情况下不需要情绪探测系统200。
尽管在图7示例中感受能力发生器100的输出连接了实现该对话所需的多种设备,但感受能力发生器100输出的感受能力数据可用于各种目的。
譬如,在数据通信中利用感受能力发生器100的情况下,由于能够满意地输出字符信息,所以不需要输出一个声音。而且,感受能力发生器100输出的感受能力数据也可以影响图像、音乐、信息检索与机器控制。
下面将描述感受能力发生器100的结构与运行。由于在这个实施例中假设情绪探测系统200与已经描述过的图1所示的情绪探测系统完全相同,所以这里省略它的说明。
实际上,图7所示系统可以由一个计算机系统与一个在其中被执行的软件程序构成,或者可以作为一个专用硬件来实现。而且,要被使用的软件程序与数据可以预先储存在任何一个记录媒体之中,并可以从该记录媒体读入计算机以便执行。注意,图7所示系统本身在下文说明中被称为一台计算机。
粗略地划分,输入到感受能力发生器100输入端的有两类数据,即数据D1与数据D2。数据D1是表示该伙伴情绪的信息。数据D2是已经接受自然语言处理的字符信息,它包括与该伙伴的意向、状况及环境有关的信息。通过自然语言处理,数据D2被作为表示“5W3H”的信息输入,即“何人”、“何事”、“何时”、“何地”、“何因”、“多么”、“多长、多远、多高等等”以及“多少”。
实际上,能够利用下面所列的各种信息来作为感受能力发生器100的输入。
(A)涉及时间属性的发声的变化模式,包括重音、节奏、速度、停顿、音阶、音程、音调、和声、频率等等;以及基本情绪(愤怒、愉快、悲伤、厌恶、惊讶、恐惧等等)的程度。
(B)与涉及声调属性的发声有关的信息,包括口音、低沉、密集、机敏、刺耳、音色(JIS-Z8109)、共振、语调、使一段口语的部分对阐明含义非常重要的显著性等等。
(C)单词、片段内容、语句中的重音分布、超分段特征信息,由人工智能生成的特征信息,这些都涉及重音的性质。
(D)经过对话分析的文本信息、情节信息(包括含义信息与由人工智能识别的信息)等等。
在这些信息中,信息(A)与信息(B)受一位说话人的意图与情绪影响。这种情绪可以由情绪探测系统200加以探测。
如图7所示,感受能力发生器100包括一个本能信息生成单元110、一个度量模式DB 121、一个本能语言定义词典122、一个情绪信息生成单元130、一个情绪反应模式DB 141、一个临时存储器DB 142、一个感受能力及思想识别单元150、一个知识DB 161、一个感受能力DB 162、一个个人DB 163以及一个道德危险DB 164。
感受能力发生器100的功能可以基本划分为3个功能要素:本能信息生成单元110、情绪信息生成单元130与感受能力及思想识别单元150。首先描述本能信息生成单元110。
如图8所示,本能信息生成单元110包括一个度量模式匹配识别单元111、一个本能参数生成单元112与一个词典检索单元113。
输入到该计算机(虚拟人)的一个度量模式词典被预先储存在受度量模式匹配识别单元111查询的度量模式DB 121中。该尺度是一个讲话的节奏要素,它代表对一个音节、一个单词、一个短语、一个语句以及整个讲话(比一个单词长的连续声音)出现的语音及音韵特征。具体地讲,与输入信息(A)与(B)相当的该计算机本身的模式信息被作为个人信息储存在度量模式DB 121中。
度量模式匹配识别单元111将从情绪探测系统200输入的伙伴情绪分析数据D1与储存在度量模式DB 121中的度量模式加以比较,并识别两者的同步与匹配程度。表示存在一个强烈音调与情绪变化的信息会出现在度量模式匹配识别单元111的输出端。
同时,与本能刺激有关的信息被预先记录在本能语言定义词典122中。相反,表示一个单词或一个语句中的重音分布模式与超分段特征的、涉及重音性质的各种信息被储存为一个与该本能刺激有关的词典。
词典检索单元113将作为字符信息来输入的数据D2(一位伙伴的意向与状况)与本能语言定义词典122的内容加以比较,并从一段对话的内容来产生本能反应信息。
本能参数生成单元112根据由度量模式匹配识别单元111输入的信息、由词典检索单元113输入的信息以及数据D3来产生本能动机信息D4。数据D3是从感受能力发生器100的输出端反馈的信息,它拥有该计算机提议的情节与希望反应模式。
在这个示例中,本能动机信息D4包括6个本能参数:一个确定性程度(或迷惑程度)、一个愉快程度(或不愉快程度)、一个危险程度(或安全程度)、一个注意程度(或拒绝程度)、一个完成程度(或变化程度)以及一个追踪程度(或自信程度)。本能参数生成单元112以下述方法决定各个本能参数的数值。
愉快程度(不愉快程度):当该计算机接近建议的内容或一个希望的情景情节时,愉快程度增加,否则程度降低。而且,当该计算机接近一个预定为愉快的尺度时,愉快程度增加,否则降低。
危险程度(安全程度):当该计算机接近事先被认为是危险的内容或一个被假设为危险的情景情节时,危险程度增加,否则降低。而且,当该计算机接近一个预定为危险的尺度时,危险程度增加,否则降低。
完成程度(变化程度):当该计算机接近被预定为成功/实现的内容或一个被事先假设为成功/实现的情景情节时,完成程度增加,否则降低。而且,当该计算机接近一个被认为是彻底调整的特定尺度时,完成程度增加,否则降低。
注意程度(拒绝程度):当该计算机接近被事先当作拒绝/否定的内容或一个被事先假设为拒绝/否定的情景情节时,拒绝程度增加(注意程度降低),否则降低(增加)。而且,当该计算机探测到一个强烈或反复的自信或接近一个强烈的尺度时,注意程度增加。如果该计算机接近一个被确定为不愉快的尺度,那么拒绝程度增加。
追踪程度(自信程度):当该计算机接近被预定为自卑/自我牺牲的内容以及一个被事先假设为自卑/自我牺牲的情景情节时,追踪程度增加(自信程度降低),否则降低(增加)。如果出现被事先确定为良好的内容,则自信程度增加(追踪程度降低)。而且,如果出现一个被预定为不确定的尺度,自信程度增加。注意,如果该计算机接近一个强烈的尺度,那么排斥程度或自我牺牲的程度有时会增加。
确定性程度(迷惑程度):当该计算机接近迷惑的内容以及一个事先假设的情景情节时,在与本能有关的各种刺激(输入)的识别率很低(譬如70%或更低)的情况下,迷惑程度与该识别率程反比。该识别率由一个对话的声音音调与内容来测定。
为了实现上述控制,该计算机所希望的内容以及情景情节的尺度要事先作为个性加以测定。如上所述,该伙伴的情绪信息刺激该计算机的个人本能,从而改变各个本能参数的数值。
由本能信息生成单元110输出的本能动机信息D4被输入到情绪信息生成单元130。下面将描述情绪信息生成单元130。
如图9所示,情绪信息生成单元130包括一个反应模式检索单元134、一个学习处理单元135、一个多变量分析单元136、一个随意情绪控制单元137以及一个基本情绪参数生成单元133。
反应模式检索单元134、学习处理单元135与情绪反应模式DB 141构成了一个应答系统131。多变量分析单元136与随意情绪控制单元137构成一个操作系统132。
提供应答系统131的目的是为了生成由刺激感应引起的情绪。提供操作系统132的目的是为了输出随意情绪(力比多(libido))。
涉及代表该本能动机信息D4与该基本情绪参数之间对应关系的一个反应模式模型的信息被事先储存在情绪反应模式DB 141中以供应答系统131使用。举例来说,这个反应模式模型可以如图10所示。
在由一台计算机有选择性地复现许多人的人格的情况下,各个反应模式模型被预先记录在情绪反应模式DB 141中,其中每个反应模式模型都对应于这许多人中的一个或一类个性,一个反应模式模型可以按照该被选人的个性选择。
在这个示例中,采用了被作为本能动机信息D4来输入的上述6个本能参数,它们是:确定性程度(迷惑程度)、愉快程度(不愉快程度)、危险程度(安全程度)、注意程度(拒绝程度)、完成程度(变化程度)与追踪程度(自信程度)。
如下15类参数被用来作为从情绪信息生成单元130输出的基本情绪参数。括号内的术语表示受该基本情绪参数影响的本能参数。
1.愤怒(不愉快)
2.快乐/快活(愉快)
3.悲伤(未完成/停滞/不愉快)
4.惊讶(完成/冲击)
5.恐惧(危险/紧张)
6.痛苦(危险/紧张/不愉快)
7.厌恶(抵制/拒绝/不愉快)
8.轻视(抵制/软弱)
9.趋近(愉快/安全)
10.逃避/回避(危险/紧张/不愉快)
11.忌妒(不愉快/愤怒/羡慕/注意)
12.肯定(安全/愉快/确定性)
13.依赖(完成/追踪)
14.激怒/冲突(自信/停滞/不愉快/危险)
15.焦虑(危险/紧张/迷惑/不愉快)
代表15类基本情绪参数中的每一种与一个或多个基本情绪参数的关系的反应模式被储存在情绪反应模式DB 141中。
反应模式检索单元134检索情绪反应模式DB 141中的基本情绪参数的反应模式,检查它们与该输入的本能动机信息D4的匹配/失配情况,并输出该相符的基本情绪参数的信息作为数据D6。
学习处理单元135根据感受能力及思想识别单元150输出的信息D3以及反应模式检索单元134输出的该伙伴的下一个反应情绪来学习关于模式匹配方法的概率,并按照该学习的结果来改变情绪反应模式DB 141中的内容。
同时,环境信息(D2)(譬如说包括天气信息、季节信息、时间信息等)则被输入到操作系统132的输入端。多变量分析单元136对各种输入的环境信息(D2)进行多变量分析,从而输出生命节奏信息。
在该生命节奏信息中,存在具有常数周期的规则(正弦波形)节奏,譬如短周期节奏(如1小时周期)、一个生命节奏(如24小时周期)、一个情绪长周期节奏(如28天周期)、一个身体长周期节奏(如23天周期)与一个智力节奏(如33天周期),还存在不规则的节奏,譬如温度、湿度与天气。
随意情绪控制单元137按照一个预定范围内的概率输出多变量分析单元136输出的生命节奏信息中的随意情绪(力比多)。
基本情绪参数生成单元133输出通过综合测定与应答系统131输出的基本情绪参数和匹配率以及操作系统132输出的随意情绪有关的信息所得到的一个结果,以此作为自身情绪D5。在这种情况下,该结果是由这15类基本情绪参数构成的信息。
而且,该输出的自身情绪信息D5被临时储存在临时存储器DB 142中,并被反馈到基本情绪参数生成单元133的输入端。基本情绪参数生成单元133接受从临时存储器DB 142反馈的信息作为上一时刻的自身情绪,并使它影响下一时刻的情绪测定结果。
当基本情绪参数生成单元133进行综合测定时,它就按照作为个性信息143确定的个性来决定各个单元的影响优先级与程度。
举例来说,在复现一个脉冲型情绪时,应答系统131的影响程度增加(80%或以上),刚才的自身情绪的影响也增加。在复现一个思想型情绪时,应答系统131的影响程度降低(30%或以下),刚才的自身情绪的影响在操作系统132的输出稳定的环境中也降低。
从情绪信息生成单元130输出的自身情绪D5被输入到感受能力及思想识别单元150。如图11所示,情绪信息生成单元130包括一个加权处理单元151、一个核对处理单元152、一个多变量分析单元153、一个综合启发决策单元154与一个修改处理单元156。
加权单元151按照个性信息155对输入的自身情绪信息D5加权。加权后的自身情绪信息再从加权处理单元151输出。
同时,包括代表伙伴所处环境与状况的一个情节并包括该伙伴的意向及其结果的字符信息(5W3H)被作为数据D2输入到核对处理单元152的输入端。
该过去情节、它的结果与表示它们含义的含义信息以字符信息(5W3H)的形式被作为知识储存到知识DB 161供核对处理单元152查询。而且,知识DB 161中的各种知识包括获得各数据的时间信息,并按照这些时间的顺序加以排列。
在这个示例中,知识DB 161中的各种知识可以被分类为一个长期存储器、一个陈述存储器与一个程序存储器。该陈述存储器是一个按单词储存的存储器,代表作为一个特定时间/空间语境中的事件的情节信息与作为普通知识的含义信息。该程序存储器代表关于方法或技术的存储器。
该情节信息包括时间、地点、内容、意向(赞成、反对、支持等等)、人员、数量、权重、情景、状态、伙伴的私人信息、情感作用、意图(目标)、态度、个人关系等等。该含义信息相当于语言词典与感受能力词典。设想作为私人信息的有脾气、性格、社会适应性(社交能力)、愿望、冲突、态度、优越感、情结、兴趣、正确性、道德、思想模式、情绪特征、坚持内容(及其程度)、忌语、品味、善/恶标准等等。
在这个示例中,知识信息按照下面将要说明的语法被储存在知识DB161中,但是,该数据库的构成内容因客体而异。
Story=Scene+Plot+Solution(故事=场景+剧情+解决方案)
Scene=Character+Place+Time(场景=人物+地点+时间)
Theme=(Event)+Target(主题=(事件)+目标)
Plot=Episode(剧情=情节)
Episode=Lower target+Attempt+Result(情节=较低目标+企图+结果)
Attempt=Event+Episode(企图=事件+情节)
Result=Event+State(结果=事件+状态)
Solution=Event+State(解决方案=事件+状态)
Lower target,Target=Desirable state(较低目标、目标=希望的状态)
Character,Place,Time=State(人物、地点、时间=状态)
而且,新信息通过修改处理单元156的运行被继续不断地添加到知识DB161。再者,不需要的信息通过重复执行遗忘处理被自动从该知识中删除。具体地讲,除了具有较高优先级的数据外,该数据被继续不断地按照时间基准从变旧的知识中删除。譬如说,反复使用的知识与被认定具有强烈印象的数据被赋予优先级,即使它们变旧,也不会被删除。各个数据的遗忘程度与优先级可以按照该个性来改变。
核对处理单元152根据输入的数据D2从知识DB 161中检索与提取与输入数据D2接近的过去情节及其结果。然后,核对处理单元152用该提取的知识来核对该输入数据。
一个学习处理系统157通过学习根据该输入情节的结果来生成与一个人对该输入情节的自身价值概念有关的信息。具体地讲,学习处理单元157根据该输入情节的结果定出满意、愉快及不愉快的程度。
多变量分析单元153对如下信息进行多变量分析:从加权处理单元151输入的加权情绪信息;从核对处理单元152输入的情节信息与结果信息;从学习处理单元157输入的、与一个人自身的价值概念有关的信息以及从个人DB 163输入的、与一个人自身的意向与本能有关的信息。然后,多变量分析单元153向综合启发决策单元154输出该分析结果。
综合启发决策单元154利用个人DB 163与道德危险DB 164的内容作为一个测定词典来综合测定从多变量分析单元153输入的信息,并输出要被随意执行的内容及其一个结果作为数据D3。
下面将要描述的各种信息被作为词典信息储存在个人DB 163中。
1.个性信息
(a)按照每类个性的程度的测定准则:设想的类型有刻板型、面向他人型、面向内部型、面向传统型、面向进攻型、面向合作型、应激打击型、应激释放型等等。完成动机程度与对抗程度也可以被用作测定准则。
(b)认知风格的测定准则:按照“反射型”与“冲动型”的差别以及“场依赖型”与“场独立型”的差别来区分认知风格被定义为测定准则。
(c)按照性格的测定准则:对日本人,由个性测试方法与TPI(Todai个性调查表)分类的如下项目被用作测定准则。这些分类项目为:脾气、性格、情绪性、社会适应性(社交能力)、愿望、冲突、态度、情结、兴趣、正确性、道德、思想模式、情绪特性、坚持内容(及其程度)、忌语、品味、善恶标准、羞耻标准、罪过标准、愉快与不快的标准等等。
(d)否定/偏见的测定准则:对否定信息加一个偏见以便大量掌握相同的否定信息,然后它们就可以被用来形成一个性格。
(e)追随/坚持时间的测定准则:确定对伙伴的认知信息、情节与情绪信息的坚持程度以及对它的反应响应时间。
2.本我/无意识反应参考信息:
(a)单词词典与子句词典,每个词典都具有刺激本能的内容。
(b)对每个个人的坚持程度、追随程度与坦率程度的各种本能反应时间的参考值。
(c)作为个性决定的、与一个伙伴的情绪对应的自我本能模式。
3.自我平衡(压抑)的参考信息:试图维持整个本能输出协调稳定的测定准则。
4.自我意识反应参考时间:按照个性代表一个人自身意向的测定准则信息。
而且,包括在该测定词典中的有:用于识别测定与鉴别测定的信息,譬如真实/虚假、正确/不正确、适当/不适当;用于本能测定的信息,譬如愉快/不愉快;用于对象个人认知测定的信息,譬如复杂性、权系数等等;用于对象间相对认知测定的信息,譬如等同、大小、差别与相似;用于元存储器测定的信息,譬如记忆的可靠性程度与知识的准确性;用于抽象测定的信息,譬如真理、美德、爱等等;用于归纳测定的信息;等等。
关于职业道德、个人道德、基本道德等的词典信息被储存在道德危险DB 164中。
譬如说,作为职业道德,可以记录“作为一个建筑师,我要求一个完整的计算”、“我最优先考虑我的工作”、“我为我是一个专业人员而自豪”等等。而且,作为个人道德,可以记录“我为我的故乡而骄傲”、“我为我是日本人而骄傲”等等。而作为基本道德,可以记录“杀人是坏事”、“我细心照顾我的父母”、“我是一个男人(女人)”等等。
综合启发决策单元154分析由情绪信息生成单元130、加权处理单元151、核对处理单元152以及多变量分析单元153生成的与自身情绪有关的信息。然后,综合启发决策单元154根据代表该计算机个性与意向的个人DB163中的测定词典以及根据道德危险DB 164中的测定词典来抑制该经过分析的、与自身情绪有关的信息。随后,综合启发决策单元154决定要输出什么、那一种以及多少自身情绪反应(感受能力)。在这种决策情况下,就会反映一个伙伴所在的环境与情景以及该伙伴当时的意向。
感受能力及思想识别单元150包括下述功能。
1、在探测一个强烈印象、词汇或根本情绪变化时,一个测定周期按照该个性来改变。譬如说,在突然大声表明一个强硬内容时,该测定周期就缩短。
2、在对一个人自己的、取决于该个性的生物节奏作出响应时,根据一个人是否愿意作某件事,感受能力测定的实现会有很大不同。
3、按照一个人自身的愉快/不愉快与情绪量来实现不同的感受能力测定。
4、按照知识DB 161中的知识对表示当前情景的信息进行合理的价值判断,反映该情绪的判断结果的影响,并从而决定最终意向。
5、在进行价值判断时,该判断根据社会价值、职业价值、日常生活价值、个人价值等等各种观点来进行。而且,要对这些社会价值、职业价值、日常生活价值与个人价值中的每一种更详细地加以区分并作出判断。譬如说,对于社会价值,要从宗教、美学、社会、政治、经济与伦理的各种观点来计算价值。
6、要对各种因素进行价值判断,譬如以满意/不满意、得失/利益、安全/危险等等作为该意向决策的判断资料。举例来说,在进行关于安全的价值判断时,判断应以如下方法进行。
(a)当一个第三者对自身施加“不愉快”时,就会产生关于敌对情绪的价值与一个防卫反应。
(b)当自身对该第三者施加“不愉快”时,就会产生关于敌对情绪的价值与一个进攻反应。
(c)当他人要对该第三者施加“不愉快”,而自身要站在该第三者一边时,就会产生关于支持情绪的价值与一个合作进攻反应。
7、该生成的价值信息被储存到感受能力DB 162,并被用作此后的判断资料。
注意,由于感受能力及思想识别单元150包括与人类似的各种学习功能,所以个人DB 163与感受能力DB 162中的内容会通过建立经验而继续不断地被修改。
由于感受能力及思想识别单元150输出基于数字值(譬如各种价值)的综合测定结果,所以它不像人工智能那样进行逻辑推理或测定。准确地讲,从感受能力及思想识别单元150输出的数据D3是由该计算机本身的启发测定功能所获得的感受能力信息。
如前所述,在本发明的感受能力生成方法中,作为产生该情绪的动机的本能动机信息根据该输入的情景信息(伙伴的情绪、周围环境等等)产生,而情绪信息则根据该本能动机信息产生。而且,该生成的情绪信息按照该个性信息加以控制。
所以,它可以输出由该个性的理智与意向控制的情绪,即感受能力。而且,由于该情绪信息通过该本能动机信息产生,所以能够更准确、更容易地控制该生成的情绪。
符合本发明的该情绪探测方法可以被用于医疗领域的情绪探测,也可以在各种系统中被用作人工智能或人工感受能力的一部分。而且,对一个虚拟人或机器人的感受能力控制,本发明的感受能力生成方法可以在各种系统中被用于各种目的。此外,可以通过组合本发明的情绪探测方法与感受能力生成方法来构造包含一台计算机与一个人之间的对话功能的各种系统。
本发明并不限于上述实施例,可以作出各种修改而不偏离本发明的精神与范围。对部分或所有部件均可以作出任何改进。

Claims (9)

1.一种感受能力生成方法,它包括如下步骤:
预先保存能至少测定产生感受能力的对象的理智、预定特征以及意向的各种个人信息;
输入一个声音信号;
根据所输入的声音信号,来分别探测声音的强度以及表示声音出现的速率的速度;并且探测表示该声音的每个单词产生的强度和频率变化模式之一的语调,作为时间值;
分别在时间轴方向上,获得表示上述探测到的声音的强度中变化的第一变化量,表示该声音速度中变化的第二变化量,以及表示该声音语调中变化的第三变化量;
根据所述第一、第二以及第三变化量来分别产生至少表示愤怒、悲伤与愉快的情绪状态的信号;
根据表示各个情绪状态的所述信号来生成本能动机信息,该本能动机信息至少包括表示愉快程度的一个第一本能参数、表示危险程度的一个第二本能参数以及表示完成及变化程度的第三本能参数;
根据上述生成的本能动机信息来生成情绪信息,该情绪信息至少包括愉快、愤怒与悲伤的一个基本情绪参数;以及
根据上述个人信息来控制上述生成的情绪信息。
2.一个感受能力发生器,它包括:
一个声音输入单元,用于输入一个声音信号;
一个强度探测单元,用于根据上述声音输入单元输入的声音信号来探测声音的强度;
速度探测单元,用于根据上述声音输入单元输入的声音信号来探测声音出现的速率并以此作为速度;
一个语调探测单元,用于根据上述声音输入单元输入的声音信号来探测表示该声音的一个单词中强度和频率变化模式之一的语调;
一个变化量探测单元,用于分别在时间轴方向上,获得表示上述强度探测单元探测到的该声音强度中变化的第一变化量,表示上述速度探测单元探测到的该声音速度中变化的第二变化量,以及表示上述语调探测单元探测到的该声音语调中变化的第三变化量;
一个情绪探测单元,用于根据所述变化量探测单元探测到的所述第一、第二以及第三变化量来分别输出至少表示愤怒、悲伤与愉快的情绪状态的信号;
一个本能测定单元,用于根据上述表示各种情绪状态的信号来生成本能动机信息,该本能动机信息至少指明表示愉快程度的一个第一本能参数、表示危险程度的一个第二本能参数以及表示完成及变化程度之一的一个第三本能参数;
一个情绪生成单元,用于根据由上述本能测定单元输出的本能动机信息来生成情绪信息,该情绪信息至少包括愉快、愤怒与悲伤的基本情绪参数;
一个个性信息提供单元,用于提供至少测定生成感受能力的对象的理智与意向的个性信息;以及
一个情绪控制单元,用于根据上述个性信息提供单元提供的个性信息来控制从上述情绪生成单元输出的情绪信息。
3.如权利要求2的感受能力发生器,其中上述情绪生成单元包括:
一个生命节奏生成单元,用于生成表示周期性变化的环境与一个生命的生命节奏这两者中任何一种的信息;以及
一个随意情绪控制单元,用于按照由上述生命节奏生成单元输出的关于生命节奏的信息来控制上述情绪生成单元中的随意情绪。
4.如权利要求2的感受能力发生器,其中上述情绪生成单元包括:
一个本能-情绪信息保存单元,用于保存使上述基本情绪参数与上述本能动机信息彼此对应的模式信息;以及
一个匹配概率学习单元,用于输出表示该本能动机信息与上述本能-情绪信息保存单元的模式信息之间的匹配/失配概率的信息,该本能动机信息由上述本能测定单元输出。
5.如权利要求2的感受能力发生器,其中上述情绪生成单元包括:
一个情绪反馈控制单元,用于向该情绪生成单元至少输入最终生成的它自身的情绪信息,并用于使该最终生成的信息影响随后要生成的它自身的情绪信息。
6.如权利要求2的感受能力发生器,其中上述情绪控制单元使一个生命节奏信息影响将要输入的情绪信息,该生命节奏是产生感受能力的一位对象的个性。
7.如权利要求2的感受能力发生器,它还包括:
一个知识数据库,用于储存表示过去情景、过去情节以及该过去情景与情节的结果的情景信息;
一个知识核对单元,用于从上述知识数据库中检索并提取与新输入的情景信息类似的过去情景信息,并用于向上述情绪控制单元提供该过去情景信息;以及
一个数据更新控制单元,用于根据表明新输入的情景与该新情景的结果的情景信息来更新上述知识数据库的内容,并用于从上述知识数据库中按照这些内容的权重以时间顺序自动删除低优先级的情景信息。
8.如权利要求2的感受能力发生器,它还包括:
一个声音识别单元,用于识别从上述声音输入单元输入的声音,并用于输出字符信息;以及
一个自然语言处理单元,用于使由上述声音识别单元识别的有声信息接受自然语言处理,并用于生成表示该输入的声音的含义的含义信息。
9.如权利要求2的感受能力发生器,其中:
所述语调探测单元可以探测表示至少下列一种的语调:该声音的重音、节奏、速度、音阶、音程、音调以及和弦的变化模式。
CNB018154557A 2000-09-13 2001-09-04 感受能力生成器及其方法 Expired - Lifetime CN100370414C (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000278397A JP3676969B2 (ja) 2000-09-13 2000-09-13 感情検出方法及び感情検出装置ならびに記録媒体
JP278397/2000 2000-09-13
JP2001007726A JP3676981B2 (ja) 2001-01-16 2001-01-16 感性発生方法及び感性発生装置並びにソフトウェア
JP7726/2001 2001-01-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN2005100590616A Division CN1838237B (zh) 2000-09-13 2001-09-04 情绪探测方法及其系统

Publications (2)

Publication Number Publication Date
CN1455916A CN1455916A (zh) 2003-11-12
CN100370414C true CN100370414C (zh) 2008-02-20

Family

ID=26599913

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB018154557A Expired - Lifetime CN100370414C (zh) 2000-09-13 2001-09-04 感受能力生成器及其方法

Country Status (9)

Country Link
US (1) US7340393B2 (zh)
EP (1) EP1318505A4 (zh)
KR (1) KR100714535B1 (zh)
CN (1) CN100370414C (zh)
CA (2) CA2676228A1 (zh)
HK (2) HK1060429A1 (zh)
RU (1) RU2287856C2 (zh)
TW (1) TWI221574B (zh)
WO (1) WO2002023524A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180039739A1 (en) * 2016-08-02 2018-02-08 Toshiba Medical Systems Corporation Medical information system, information processing terminal, medical information server and medical information providing method

Families Citing this family (200)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
US7917366B1 (en) * 2000-03-24 2011-03-29 Exaudios Technologies System and method for determining a personal SHG profile by voice analysis
JP2002268699A (ja) * 2001-03-09 2002-09-20 Sony Corp 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
US7289949B2 (en) * 2001-10-09 2007-10-30 Right Now Technologies, Inc. Method for routing electronic correspondence based on the level and type of emotion contained therein
US8445137B1 (en) 2002-11-27 2013-05-21 Quallion Llc Primary battery having sloped voltage decay
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
JP2004212641A (ja) * 2002-12-27 2004-07-29 Toshiba Corp 音声入力システム及び音声入力システムを備えた端末装置
IL153886A0 (en) * 2003-01-12 2003-07-31 Shlomo Elfanbaum A method and device for determining a personal happiness index and improving it
US7360151B1 (en) * 2003-05-27 2008-04-15 Walt Froloff System and method for creating custom specific text and emotive content message response templates for textual communications
JP4085926B2 (ja) * 2003-08-14 2008-05-14 ソニー株式会社 情報処理端末及び通信システム
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
DE102004011426B3 (de) * 2004-03-09 2005-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zum Erkennen einer in einem Sprachsignal enthaltenen Emotion und Verfahren zum Erkennen einer in einem Sprachsignal enthaltenen Emotion
JPWO2005093650A1 (ja) 2004-03-26 2008-02-14 株式会社エイ・ジー・アイ 意志発現モデル装置、心理効果プログラム、意志発現シミュレーション方法
US8340971B1 (en) * 2005-01-05 2012-12-25 At&T Intellectual Property Ii, L.P. System and method of dialog trajectory analysis
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US8050924B2 (en) * 2005-04-08 2011-11-01 Sony Online Entertainment Llc System for generating and selecting names
US20060279476A1 (en) * 2005-06-10 2006-12-14 Gemini Mobile Technologies, Inc. Systems and methods for conveying message composer's state information
US7912720B1 (en) * 2005-07-20 2011-03-22 At&T Intellectual Property Ii, L.P. System and method for building emotional machines
US8078470B2 (en) 2005-12-22 2011-12-13 Exaudios Technologies Ltd. System for indicating emotional attitudes through intonation analysis and methods thereof
US20070150281A1 (en) * 2005-12-22 2007-06-28 Hoff Todd M Method and system for utilizing emotion to search content
US20070192097A1 (en) * 2006-02-14 2007-08-16 Motorola, Inc. Method and apparatus for detecting affects in speech
US7983910B2 (en) 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
JP4783181B2 (ja) * 2006-03-13 2011-09-28 株式会社東芝 行動予測装置
US8150692B2 (en) * 2006-05-18 2012-04-03 Nuance Communications, Inc. Method and apparatus for recognizing a user personality trait based on a number of compound words used by the user
US7571101B2 (en) * 2006-05-25 2009-08-04 Charles Humble Quantifying psychological stress levels using voice patterns
CN101346758B (zh) * 2006-06-23 2011-07-27 松下电器产业株式会社 感情识别装置
US7860705B2 (en) * 2006-09-01 2010-12-28 International Business Machines Corporation Methods and apparatus for context adaptation of speech-to-speech translation systems
JP5039045B2 (ja) * 2006-09-13 2012-10-03 日本電信電話株式会社 感情検出方法、感情検出装置、その方法を実装した感情検出プログラム及びそのプログラムを記録した記録媒体
US8073681B2 (en) * 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7644060B2 (en) * 2006-11-06 2010-01-05 Kadri Faisal L Artificial psychology dialog player with aging simulation
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
EP2132650A4 (en) * 2007-03-01 2010-10-27 Sony Comp Entertainment Us SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD
JP2008225550A (ja) * 2007-03-08 2008-09-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US7996210B2 (en) * 2007-04-24 2011-08-09 The Research Foundation Of The State University Of New York Large-scale sentiment analysis
WO2008156263A2 (en) * 2007-06-16 2008-12-24 Gil Ho Kim Method for recognizing sensibility using musical elements.
US8111281B2 (en) * 2007-06-29 2012-02-07 Sony Ericsson Mobile Communications Ab Methods and terminals that control avatars during videoconferencing and other communications
SG151123A1 (en) * 2007-09-13 2009-04-30 St Electronics Training & Simu A decision analysis system
KR100903348B1 (ko) * 2007-11-28 2009-06-23 중앙대학교 산학협력단 특징 융합 기반 감정인식 방법 및 시스템
JP5485913B2 (ja) * 2008-01-16 2014-05-07 コーニンクレッカ フィリップス エヌ ヴェ 環境内のムード及びソーシャルセッティングに適した雰囲気を自動生成するためのシステム及び方法
US20090210276A1 (en) * 2008-02-19 2009-08-20 Microsoft Corporation Ad hoc and opportunistic transportation services
US8195460B2 (en) * 2008-06-17 2012-06-05 Voicesense Ltd. Speaker characterization through speech analysis
US8316393B2 (en) 2008-10-01 2012-11-20 At&T Intellectual Property I, L.P. System and method for a communication exchange with an avatar in a media communication system
US8442832B2 (en) * 2008-12-08 2013-05-14 Electronics And Telecommunications Research Institute Apparatus for context awareness and method using the same
US8606815B2 (en) * 2008-12-09 2013-12-10 International Business Machines Corporation Systems and methods for analyzing electronic text
KR101558553B1 (ko) * 2009-02-18 2015-10-08 삼성전자 주식회사 아바타 얼굴 표정 제어장치
CA2753872C (en) 2009-02-27 2017-09-26 David L. Forbes Methods and systems for assessing psychological characteristics
US9558499B2 (en) 2009-02-27 2017-01-31 The Forbes Consulting Group, Llc Methods and systems for assessing psychological characteristics
US8452599B2 (en) * 2009-06-10 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for extracting messages
US8269616B2 (en) * 2009-07-16 2012-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for detecting gaps between objects
TWI396105B (zh) * 2009-07-21 2013-05-11 Univ Nat Taiwan 用於模擬個體差異之個人化資訊檢索之數位資料處理方法及其電腦裝置可讀式資訊儲存媒體與資訊檢索系統
US8326002B2 (en) * 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US8337160B2 (en) * 2009-10-19 2012-12-25 Toyota Motor Engineering & Manufacturing North America, Inc. High efficiency turbine system
TWI430189B (zh) * 2009-11-10 2014-03-11 Inst Information Industry 訊息擬真處理系統、裝置及方法
KR101262922B1 (ko) * 2009-12-10 2013-05-09 한국전자통신연구원 감성 변화에 따른 감성지수 결정 장치 및 그 방법
US8237792B2 (en) * 2009-12-18 2012-08-07 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for describing and organizing image data
KR101299220B1 (ko) * 2010-01-08 2013-08-22 한국전자통신연구원 감성 신호 감지 장치와 감성 서비스 제공 장치 간의 감성 통신 방법
US8412530B2 (en) * 2010-02-21 2013-04-02 Nice Systems Ltd. Method and apparatus for detection of sentiment in automated transcriptions
US9767470B2 (en) 2010-02-26 2017-09-19 Forbes Consulting Group, Llc Emotional survey
US20110294099A1 (en) * 2010-05-26 2011-12-01 Brady Patrick K System and method for automated analysis and diagnosis of psychological health
US20110295597A1 (en) * 2010-05-26 2011-12-01 Brady Patrick K System and method for automated analysis of emotional content of speech
US8595005B2 (en) 2010-05-31 2013-11-26 Simple Emotion, Inc. System and method for recognizing emotional state from a speech signal
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US20170105668A1 (en) * 2010-06-07 2017-04-20 Affectiva, Inc. Image analysis for data collected from a remote computing device
US10799168B2 (en) 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US11700420B2 (en) 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US20170095192A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Mental state analysis using web servers
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US11430561B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Remote computing analysis for cognitive state data metrics
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US8424621B2 (en) 2010-07-23 2013-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Omni traction wheel system and methods of operating the same
US10002608B2 (en) * 2010-09-17 2018-06-19 Nuance Communications, Inc. System and method for using prosody for voice-enabled search
KR101334196B1 (ko) * 2010-10-28 2013-11-28 (주)아크릴 지능형 감성 추론장치 및 그 추론방법
US8676574B2 (en) * 2010-11-10 2014-03-18 Sony Computer Entertainment Inc. Method for tone/intonation recognition using auditory attention cues
CN102525412A (zh) * 2010-12-16 2012-07-04 北京柏瑞医信科技有限公司 用于促进情绪平衡、评估情绪状态和调节效果的方法和设备
US20140025385A1 (en) * 2010-12-30 2014-01-23 Nokia Corporation Method, Apparatus and Computer Program Product for Emotion Detection
JP5602653B2 (ja) * 2011-01-31 2014-10-08 インターナショナル・ビジネス・マシーンズ・コーポレーション 情報処理装置、情報処理方法、情報処理システム、およびプログラム
JP5708155B2 (ja) * 2011-03-31 2015-04-30 富士通株式会社 話者状態検出装置、話者状態検出方法及び話者状態検出用コンピュータプログラム
US10445846B2 (en) 2011-04-14 2019-10-15 Elwha Llc Cost-effective resource apportionment technologies suitable for facilitating therapies
US10853819B2 (en) * 2011-04-14 2020-12-01 Elwha Llc Cost-effective resource apportionment technologies suitable for facilitating therapies
JP6101684B2 (ja) * 2011-06-01 2017-03-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 患者を支援する方法及びシステム
JP6031735B2 (ja) * 2011-06-13 2016-11-24 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
KR101243766B1 (ko) * 2011-07-20 2013-03-15 세종대학교산학협력단 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법
GB2494104A (en) * 2011-08-19 2013-03-06 Simon Mark Adam Bell Recognizing the emotional effect a speaker is having on a listener by analyzing the sound of his or her voice
WO2013094979A1 (ko) * 2011-12-18 2013-06-27 인포뱅크 주식회사 통신 단말 및 그 통신 단말의 정보처리 방법
WO2013094982A1 (ko) * 2011-12-18 2013-06-27 인포뱅크 주식회사 정보처리 방법 및 시스템과 기록매체
RU2510955C2 (ru) * 2012-03-12 2014-04-10 Государственное казенное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Способ обнаружения эмоций по голосу
RU2553413C2 (ru) * 2012-08-29 2015-06-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") Способ выявления эмоционального состояния человека по голосу
US10453355B2 (en) 2012-09-28 2019-10-22 Nokia Technologies Oy Method and apparatus for determining the attentional focus of individuals within a group
CN103903627B (zh) * 2012-12-27 2018-06-19 中兴通讯股份有限公司 一种语音数据的传输方法及装置
US9535899B2 (en) 2013-02-20 2017-01-03 International Business Machines Corporation Automatic semantic rating and abstraction of literature
US9104780B2 (en) 2013-03-15 2015-08-11 Kamazooie Development Corporation System and method for natural language processing
US9311294B2 (en) * 2013-03-15 2016-04-12 International Business Machines Corporation Enhanced answers in DeepQA system according to user preferences
KR101727592B1 (ko) * 2013-06-26 2017-04-18 한국전자통신연구원 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법
US20150064669A1 (en) * 2013-09-03 2015-03-05 Ora GOLAN System and method for treatment of emotional and behavioral disorders
RU2682607C1 (ru) * 2013-12-05 2019-03-19 Пст Корпорейшн, Инк. Устройство оценки, программа, способ оценки и система оценки
JP2017508188A (ja) 2014-01-28 2017-03-23 シンプル エモーション, インコーポレイテッドSimple Emotion, Inc. 適応型音声対話のための方法
US9681166B2 (en) * 2014-02-25 2017-06-13 Facebook, Inc. Techniques for emotion detection and content delivery
US9363378B1 (en) 2014-03-19 2016-06-07 Noble Systems Corporation Processing stored voice messages to identify non-semantic message characteristics
JP6420329B2 (ja) * 2014-05-13 2018-11-07 有限会社セルリバース 情緒及び雰囲気データ入力、表示及び分析装置
US20170188927A1 (en) * 2014-05-27 2017-07-06 Nec Corporation Emotion recognition device, emotion recognition method, and storage medium for storing emotion recognition program
US9390706B2 (en) 2014-06-19 2016-07-12 Mattersight Corporation Personality-based intelligent personal assistant system and methods
US11289077B2 (en) * 2014-07-15 2022-03-29 Avaya Inc. Systems and methods for speech analytics and phrase spotting using phoneme sequences
US10068588B2 (en) 2014-07-21 2018-09-04 Microsoft Technology Licensing, Llc Real-time emotion recognition from audio signals
JP6122816B2 (ja) * 2014-08-07 2017-04-26 シャープ株式会社 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム
US10052056B2 (en) * 2014-09-01 2018-08-21 Beyond Verbal Communication Ltd System for configuring collective emotional architecture of individual and methods thereof
US9626703B2 (en) 2014-09-16 2017-04-18 Voicebox Technologies Corporation Voice commerce
US9667786B1 (en) 2014-10-07 2017-05-30 Ipsoft, Inc. Distributed coordinated system and process which transforms data into useful information to help a user with resolving issues
US9269374B1 (en) 2014-10-27 2016-02-23 Mattersight Corporation Predictive video analytics system and methods
US11100557B2 (en) 2014-11-04 2021-08-24 International Business Machines Corporation Travel itinerary recommendation engine using inferred interests and sentiments
JP6561996B2 (ja) * 2014-11-07 2019-08-21 ソニー株式会社 情報処理装置、制御方法、および記憶媒体
CN113778114A (zh) * 2014-11-07 2021-12-10 索尼公司 控制系统、控制方法以及存储介质
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
US9600715B2 (en) 2015-06-26 2017-03-21 Intel Corporation Emotion detection system
JP6601069B2 (ja) * 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
KR102437689B1 (ko) 2015-09-16 2022-08-30 삼성전자주식회사 음성 인식 서버 및 그 제어 방법
US9665567B2 (en) * 2015-09-21 2017-05-30 International Business Machines Corporation Suggesting emoji characters based on current contextual emotional state of user
CN105389735B (zh) * 2015-11-18 2021-05-18 重庆理工大学 一种基于spfa算法的多动机情感生成方法
WO2017085714A2 (en) * 2015-11-19 2017-05-26 Beyond Verbal Communication Ltd Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user
WO2017094326A1 (ja) * 2015-11-30 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2017104875A1 (ko) * 2015-12-18 2017-06-22 상명대학교 서울산학협력단 음성의 톤, 템포 정보를 이용한 감정인식 방법 및 그 장치
JP2017120609A (ja) * 2015-12-24 2017-07-06 カシオ計算機株式会社 感情推定装置、感情推定方法及びプログラム
JP6851871B2 (ja) * 2016-03-30 2021-03-31 光吉 俊二 意思創発装置、意思創発方法および意思創発プログラム
CN107293292A (zh) * 2016-03-31 2017-10-24 深圳光启合众科技有限公司 基于云端的设备及其操作方法
US10244113B2 (en) * 2016-04-26 2019-03-26 Fmr Llc Determining customer service quality through digitized voice characteristic measurement and filtering
JP6759927B2 (ja) 2016-09-23 2020-09-23 富士通株式会社 発話評価装置、発話評価方法、および発話評価プログラム
CN108010513B (zh) * 2016-10-28 2021-05-14 北京回龙观医院 语音处理方法及设备
KR101785888B1 (ko) * 2017-01-18 2017-10-17 이동환 이종동물 양방향 커뮤니케이션 서비스 제공 방법
JP6866715B2 (ja) * 2017-03-22 2021-04-28 カシオ計算機株式会社 情報処理装置、感情認識方法、及び、プログラム
WO2018182337A1 (ko) * 2017-03-31 2018-10-04 삼성전자주식회사 사용자 감정 판단을 위한 전자 장치 및 이의 제어 방법
KR102651253B1 (ko) * 2017-03-31 2024-03-27 삼성전자주식회사 사용자 감정 판단을 위한 전자 장치 및 이의 제어 방법
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
JP2019005846A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
WO2019103484A1 (ko) 2017-11-24 2019-05-31 주식회사 제네시스랩 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체
KR102133728B1 (ko) * 2017-11-24 2020-07-21 주식회사 제네시스랩 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체
US20190172458A1 (en) 2017-12-01 2019-06-06 Affectiva, Inc. Speech analysis for cross-language mental state identification
KR102326853B1 (ko) * 2017-12-08 2021-11-16 한국전자기술연구원 감정 및 윤리 상태 모니터링 기반 사용자 적응형 대화 장치 및 이를 위한 방법
US10225621B1 (en) 2017-12-20 2019-03-05 Dish Network L.L.C. Eyes free entertainment
CN108089836A (zh) * 2017-12-29 2018-05-29 上海与德科技有限公司 一种基于机器人的辅助学习方法及机器人
KR102290186B1 (ko) * 2018-01-02 2021-08-17 주식회사 제네시스랩 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법
CN108198607A (zh) * 2018-03-07 2018-06-22 美的集团股份有限公司 一种食材推荐的方法、设备及计算机存储介质
US10529116B2 (en) * 2018-05-22 2020-01-07 International Business Machines Corporation Dynamically transforming a typing indicator to reflect a user's tone
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US10969763B2 (en) * 2018-08-07 2021-04-06 Embodied, Inc. Systems and methods to adapt and optimize human-machine interaction using multimodal user-feedback
KR102252195B1 (ko) * 2018-09-14 2021-05-13 엘지전자 주식회사 감성 인식기 및 이를 포함하는 로봇, 서버
KR102023649B1 (ko) * 2018-10-04 2019-09-20 임성기 심층 신경회로망 머신러닝 기반의 인공지능을 이용한 반려동물 소리 서비스 제공 방법
US11557297B2 (en) 2018-11-09 2023-01-17 Embodied, Inc. Systems and methods for adaptive human-machine interaction and automatic behavioral assessment
US10657968B1 (en) * 2018-11-19 2020-05-19 Google Llc Controlling device output according to a determined condition of a user
TWI704555B (zh) 2018-11-27 2020-09-11 誠屏科技股份有限公司 情緒辨識裝置與方法
US11439346B2 (en) 2019-01-03 2022-09-13 Jacob T. Boyle Robotic device for assisting individuals with a mental illness
JP7135886B2 (ja) * 2019-01-24 2022-09-13 トヨタ自動車株式会社 促し発話装置、促し発話方法及びプログラム
RU2700537C1 (ru) * 2019-02-04 2019-09-17 Общество с ограниченной ответственностью "КВАРТА ВК" Способ определения эмоционального состояния человека
WO2020174680A1 (ja) * 2019-02-28 2020-09-03 日本電気株式会社 感情推定装置、感情推定方法、及びコンピュータ読み取り可能な記録媒体
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
CN110085225B (zh) * 2019-04-24 2024-01-02 北京百度网讯科技有限公司 语音交互方法、装置、智能机器人及计算机可读存储介质
CN110211563A (zh) * 2019-06-19 2019-09-06 平安科技(深圳)有限公司 面向情景及情感的中文语音合成方法、装置及存储介质
CA3144578A1 (en) * 2019-07-03 2021-01-07 Soul Machines Limited Architecture, system, and method for simulating dynamics between emotional states or behavior for a mammal model and artificial nervous system
US11328711B2 (en) 2019-07-05 2022-05-10 Korea Electronics Technology Institute User adaptive conversation apparatus and method based on monitoring of emotional and ethical states
IT201900020548A1 (it) * 2019-11-07 2021-05-07 Identivisuals S R L Sistema e metodo di rilevazione del benessere psicofisico in un ambiente chiuso
RU2732213C1 (ru) * 2019-11-25 2020-09-14 Общество с ограниченной ответственностью "КВАРТА ВК" Способ определения эмоционального состояния человека
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
CN111489766B (zh) * 2020-03-31 2022-12-02 北京大学第一医院 汉语普通话的言语情感识别能力测试评估系统
US11602287B2 (en) 2020-03-31 2023-03-14 International Business Machines Corporation Automatically aiding individuals with developing auditory attention abilities
US11809958B2 (en) 2020-06-10 2023-11-07 Capital One Services, Llc Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs
CN111883178B (zh) * 2020-07-17 2023-03-17 渤海大学 一种基于双通道语音转图像式情感识别方法
CN111950275B (zh) * 2020-08-06 2023-01-17 平安科技(深圳)有限公司 基于循环神经网络的情绪识别方法、装置及存储介质
KR102260751B1 (ko) * 2020-10-07 2021-06-07 주식회사 로보그램인공지능로봇연구소 전자 장치 및 그의 제어 방법
KR102429365B1 (ko) * 2020-11-09 2022-08-05 주식회사 스피랩 음성감성 분석 시스템 및 방법
CN112765875B (zh) * 2021-01-04 2022-07-22 山东师范大学 考虑知识传播对消极情绪影响的人群疏散模拟方法及系统
JP7008385B1 (ja) * 2021-06-11 2022-01-25 株式会社ライフクエスト 感情推定装置、感情推定方法、及びプログラム
CN113555011B (zh) * 2021-07-07 2022-05-27 广西电网有限责任公司 电力行业客服中心语音转译建模方法、系统及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JPH10143351A (ja) * 1996-11-13 1998-05-29 Sharp Corp インタフェース装置
EP0978790A1 (en) * 1998-08-06 2000-02-09 Yamaha Hatsudoki Kabushiki Kaisha Control system and method for controlling object using emotions and personality generated in the object

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06139044A (ja) * 1992-10-28 1994-05-20 Sony Corp インターフェース方法及び装置
JPH0922296A (ja) 1995-07-05 1997-01-21 Sanyo Electric Co Ltd 感性情報入力処理装置及びその処理方法
KR100194953B1 (ko) * 1996-11-21 1999-06-15 정선종 유성음 구간에서 프레임별 피치 검출 방법
JPH11119791A (ja) 1997-10-20 1999-04-30 Hitachi Ltd 音声感情認識システムおよび方法
IL122632A0 (en) * 1997-12-16 1998-08-16 Liberman Amir Apparatus and methods for detecting emotions
JP3792882B2 (ja) 1998-03-17 2006-07-05 株式会社東芝 感情生成装置及び感情生成方法
US6185534B1 (en) 1998-03-23 2001-02-06 Microsoft Corporation Modeling emotion and personality in a computer user interface
JP2000099490A (ja) 1998-08-06 2000-04-07 Yamaha Motor Co Ltd 擬似的な精神情報に基づいて作動する装置
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
KR100276687B1 (ko) * 1998-11-12 2001-01-15 정선종 대화식 학습 보조 장치 및 그의 대화분석 방법u
JP2000187435A (ja) 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
EP1145225A1 (en) * 1999-11-11 2001-10-17 Koninklijke Philips Electronics N.V. Tone features for speech recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JPH10143351A (ja) * 1996-11-13 1998-05-29 Sharp Corp インタフェース装置
EP0978790A1 (en) * 1998-08-06 2000-02-09 Yamaha Hatsudoki Kabushiki Kaisha Control system and method for controlling object using emotions and personality generated in the object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180039739A1 (en) * 2016-08-02 2018-02-08 Toshiba Medical Systems Corporation Medical information system, information processing terminal, medical information server and medical information providing method
US11721415B2 (en) * 2016-08-02 2023-08-08 Canon Medical Systems Corporation Medical information system, information processing terminal, medical information server and medical information providing method

Also Published As

Publication number Publication date
HK1096483A1 (en) 2007-06-01
KR100714535B1 (ko) 2007-05-07
WO2002023524A1 (fr) 2002-03-21
US20030182123A1 (en) 2003-09-25
HK1060429A1 (en) 2004-08-06
US7340393B2 (en) 2008-03-04
KR20030046444A (ko) 2003-06-12
EP1318505A4 (en) 2007-09-12
TWI221574B (en) 2004-10-01
CN1455916A (zh) 2003-11-12
CA2421746C (en) 2011-10-25
CA2676228A1 (en) 2003-03-07
CA2421746A1 (en) 2003-03-07
RU2287856C2 (ru) 2006-11-20
EP1318505A1 (en) 2003-06-11

Similar Documents

Publication Publication Date Title
CN100370414C (zh) 感受能力生成器及其方法
CN1838237B (zh) 情绪探测方法及其系统
US11790919B2 (en) Multiple classifications of audio data
US11017765B2 (en) Intelligent assistant with intent-based information resolution
US20180018985A1 (en) System and method for detecting repetitive speech
CN111696559B (zh) 提供情绪管理辅助
US20210249035A1 (en) Emotion detection using speaker baseline
US20030033145A1 (en) System, method, and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
CN110085220A (zh) 智能交互装置
US20190371344A1 (en) Apparatus and method for predicting/recognizing occurrence of personal concerned context
JP6462936B1 (ja) 音声認識システム、及び音声認識装置
KR20180057970A (ko) 음성감성 인식 장치 및 방법
JP3676981B2 (ja) 感性発生方法及び感性発生装置並びにソフトウェア
EP3776173A1 (en) Intelligent device user interactions
JP2019175432A (ja) 対話制御装置、対話システム、対話制御方法及びプログラム
Kirandziska et al. Human-robot interaction based on human emotions extracted from speech
KR20200144216A (ko) 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어를 저장한 컴퓨터로 읽을 수 있는 기록매체
CN117352002A (zh) 一种远程智能语音分析监管方法
CN110059231A (zh) 一种回复内容的生成方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1060429

Country of ref document: HK

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1060429

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: AGI CO., LTD.

Free format text: FORMER OWNER: KYOWA MACHINERY CO., LTD. A G I

Effective date: 20121126

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20121126

Address after: Tokyo, Japan, Japan

Patentee after: KK AGI

Address before: Tokyo, Japan

Patentee before: A.G.I. Inc.

EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20031112

Assignee: PST CORP INC

Assignor: Hikaruyoshi Junji|KK, AGI

Contract record no.: 2013990000856

Denomination of invention: Emotion recognizing method, sensibility creating method, system, and software

Granted publication date: 20080220

License type: Exclusive License

Record date: 20131217

LICC Enforcement, change and cancellation of record of contracts on the licence for exploitation of a patent or utility model
CX01 Expiry of patent term

Granted publication date: 20080220

CX01 Expiry of patent term