CN106956271A - 预测情感状态的方法和机器人 - Google Patents

预测情感状态的方法和机器人 Download PDF

Info

Publication number
CN106956271A
CN106956271A CN201710107006.2A CN201710107006A CN106956271A CN 106956271 A CN106956271 A CN 106956271A CN 201710107006 A CN201710107006 A CN 201710107006A CN 106956271 A CN106956271 A CN 106956271A
Authority
CN
China
Prior art keywords
user
information
emotion
affective state
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710107006.2A
Other languages
English (en)
Other versions
CN106956271B (zh
Inventor
董明杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201710107006.2A priority Critical patent/CN106956271B/zh
Publication of CN106956271A publication Critical patent/CN106956271A/zh
Priority to EP18756593.2A priority patent/EP3582123A4/en
Priority to PCT/CN2018/077151 priority patent/WO2018153359A1/zh
Priority to US16/551,687 priority patent/US11670324B2/en
Application granted granted Critical
Publication of CN106956271B publication Critical patent/CN106956271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)

Abstract

提供了一种机器人预测情感状态的方法。该方法包括:确定第一用户的第一情感状态,该第一情感状态是该第一用户在第一时刻的情感状态;根据该第一情感状态和第一情感预测模型预测第二情感状态,该第二情感状态是该第一用户在第二时刻的情感状态,该第二时刻在第一时刻之后;根据该第二情感状态向该第一用户输出响应。本发明实施例的机器人预测情感状态的方法,通过第一用户在第一时刻的情感状态和第一情感预测模型,能够预测出下一时刻该第一用户的情感状态,为会话双方提供及时的预警或沟通技巧建议,从而进一步提高会话效果,增强用户体验。

Description

预测情感状态的方法和机器人
技术领域
本发明实施例涉及人工智能领域,更具体地,涉及人工智能领域中预测情感状态的方法和机器人。
背景技术
随着人工智能的不断发展,新一代人工智能系统的首要任务就是需要具备“感性”的情感连接能力,这样才能以更像真实人类的方式满足人们普遍心理和情感需求,从而逐步建立信任和依赖感。换句话说,人工智能不应该仅仅是普通的智力工具,人工智能的发展路径也不应该一味沿着理性的路线前行,而是应该落在感性和理性的交叉区域。
情感计算在人工智能的发展过程中将发挥至关重要的作用,我们也看到了越来越多的具有“情感”的产品,但这仅仅是一个开始,面对人类情感这个异常复杂的问题,人工智能还有很长的路要走。
现有的技术有提到机器人如何感知交流细节,从而输出语音及响应的动作,并且在第二次检测到与人的交流细节后,相比于第一次输出的一个方面的动作或表情,输出两个以上的表情。
然而,现有技术中机器人在感知到交互对象的交流细节后,通过智能引擎计算出当前时刻的情感状态并适配出合适的交互方式和内容,不能够对于交互对象下一时刻情感状态做出预测。
为了增强用户体验,人工智能领域中亟需提出一种预测交互对象下一时刻情感状态的方法。
发明内容
本发明实施例,提供了一种预测情感状态的方法和机器人,能够预测出下一时刻交互对象的情感状态,进而增强用户体验。
第一方面,提供了一种预测情感状态的方法,所述方法包括:
确定第一用户的第一情感状态,所述第一情感状态是所述第一用户在第一时刻的情感状态;
根据所述第一情感状态和第一情感预测模型预测第二情感状态,所述第二情感状态是所述第一用户在第二时刻的情感状态,所述第二时刻在所述第一时刻之后;
根据所述第二情感状态向所述第一用户输出响应。
本发明实施例的用于预测用户下一时刻情感状态的方法,能够为会话双方提供及时的预警或沟通技巧建议,从而进一步提高人与人之间的沟通效果。
在一些可能的实现方式中,所述根据所述第一情感状态和第一情感预测模型预测第二情感状态,包括:
根据所述第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,确定所述第一情感预测模型;根据所述第一情感状态和所述第一情感预测模型预测第二情感状态。
具体而言,由于被预测用户与不同的人进行交流时候,其情感状态变化是不一样的,比如,被测用户与一些人交流,会很温和愉悦,情感状态迁移是较为和缓的,很小概率会发怒或者悲伤,比如与小孩子;而被测用户与一些特定对象交流时,则情感状态波动较大。本发明实施例将与第二用户相关的信息称为会话场景信息。
此外,不同的外部环境也有可能影响到被测用户的感情状态。例如,在恐怖氛围和在家的环境下被测用户的情感变化是不一样的。本发明实施例将用于情感预测模块构建外部环境场景的、与第二用户无关的信息称为外部环境信息。
本发明实施例,还引入了个性化因子信息,用于表示被测用户的个性化特征。例如,被测用户的性格。具体而言,不同的人对于外界事物的刺激以及不同人在每个情感状态的停留时间,不同情感状态之间的自发迁移都会有一定的差异。
因此,本发明实施例,通过第一用户的个性化因子信息、会话场景信息和外部环境信息确定第一情感预测模型,有效增加了该第一情感预测模块基于当前的用户情感状态预测出用户未来一个时刻的情感状态的准确性。
在一些可能的实现方式中,所述根据所述第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,确定所述第一情感预测模型,包括:
确定第二情感预测模型;根据所述第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,对所述第二情感预测模型进行修正,并将修正后的第二情感预测模型确定为所述第一情感预测模型。
在一些可能的实现方式中,所述根据所述第一情感状态和第一情感预测模型预测第二情感状态之前,所述方法还包括:
根据基本个性模板库对所述第一用户的个性信息进行训练,得到所述第一用户的个性化因子信息。
在一些可能的实现方式中,所述确定第一用户的第一情感状态之前,所述方法还包括:
通过至少一个传感器在所述第一时刻,获取所述第一用户的至少一种检测信息;其中,所述确定第一用户的第一情感状态,包括:
根据所述至少一种检测信息和情感数字化模型,生成第一情感信号;在情感空间数据库中,查找与所述第一情感信号匹配度最高的第二情感信号,所述情感空间数据库包括至少一个情感信号、至少一个情感状态以及所述至少一个情感信号和所述至少一个情感状态的对应关系;将所述第二情感信号对应的情感状态确定为所述第一情感状态。
在一些可能的实现方式中,所述根据所述至少一种检测信息和情感数字化模型确定第一情感信号,包括:
确定所述至少一种检测信息中每种检测信息的权重;根据所述至少一种检测信息和所述至少一种检测信息中每种检测信息的权重,生成所述第一用户的个人特征信息;根据所述个人特征信息和所述情感数字化模型,确定所述第一情感信号。
由于不同的传感器获取的检测信息在后续评估用户当前时刻的情感状态时的作用不尽相同,本发明实施例,通过每种检测信息的权重,有效提高了评估第一情感信号的准确性。
在一些可能的实现方式中,所述确定所述至少一种检测信息中每种检测信息的权重,包括:
根据所述第一用户的个性化因子信息,确定所述至少一种检测信息中每种检测信息的权重。
在一些可能的实现方式中,所述确定所述至少一种检测信息中每种检测信息的权重,包括:
根据所述至少一种检测数据中每种检测数据的信息质量,确定所述至少一种检测信息中每种检测信息的权重。
在一些可能的实现方式中,若所述第一用户拒绝所述响应,所述方法还包括:
调整所述第一情感预测模型,或者,调整所述第一用户的个性化因子信息,或者,调整所述第一情感预测模型和所述第一用户的个性化因子信息。
在一些可能的实现方式中,所述调整所述第一情感预测模型,或者,调整所述第一用户的个性化因子信息,或者,调整所述第一情感预测模型和所述第一用户的个性化因子信息之前,所述方法还包括:
通过所述至少一个传感器在所述第二时刻,获取至少一种验证信息;根据所述至少一种验证信息确定所述第一用户的第三情感状态;其中,所述调整所述第一情感预测模型,或者,调整所述第一用户的个性化因子信息,或者,调整所述第一情感预测模型和所述第一用户的个性化因子信息,包括:
根据所述第三情感状态和所述第二情感状态之间的匹配度,调整所述第一情感预测模型,或者,调整所述第一用户的个性化因子信息,或者,调整所述第一情感预测模型和所述第一用户的个性化因子信息。
第二方面,提供了一种机器人,所述机器人包括:
处理单元,所述处理单元用于:
确定第一用户的第一情感状态,所述第一情感状态是所述第一用户在第一时刻的情感状态;
根据所述第一情感状态和第一情感预测模型预测第二情感状态,所述第二情感状态是所述第一用户在第二时刻的情感状态,所述第二时刻在所述第一时刻之后;
输出单元,所述输出单元用于根据所述第二情感状态向所述第一用户输出响应。
第三方面,提供了一种机器人,所述机器人包括:
处理器,所述处理单元用于:
确定第一用户的第一情感状态,所述第一情感状态是所述第一用户在第一时刻的情感状态;
根据所述第一情感状态和第一情感预测模型预测第二情感状态,所述第二情感状态是所述第一用户在第二时刻的情感状态,所述第二时刻在所述第一时刻之后;
收发器,所述输出单元用于根据所述第二情感状态向所述第一用户输出响应。
第四方面,提供了一种机器人,所述机器人包括:
触摸显示屏,用于向看护对象展示图形图像信息,并接收用户的触摸控制信号;扬声器模块,用于向被看护对象,提供声音输出信号;麦克风阵列及传感器组,用于检测被看护对象的声音、表情、行为等特征;开始/暂停/紧急按钮,用于提供被看护对象简单的操作指令并响应紧急情况下用户的中断指令;处理及运算模块,用于根据所述麦克风阵列及传感器组输入的用户状态信号、所述按钮的用户操作指令、来自网络的被看护儿童的监护人请求信息、来自网络的儿童看护服务机构的服务指令、第三方网络云服务数据等,计算并输出陪伴机器人的控制指令,并由陪伴机器人输出声音、图像、图像、肢体动作以及移动等。
在一些可能的实现方式中,所述机器人还可以包括:履带/轮式移动机械装置、机械手臂。
第五方面,提供了一种处理及运算模块,所述处理及运算模块包括:
主板和周边功能部件,所述主板包括:通信模块、I/O模块、处理模块、音视频编码模块、电击伺服控制模块、触摸显示控制模块;所述周边功能部件包括:传感器模块组、按钮、麦克风阵列、触摸显示屏、天线、功率放大器、扬声器、电机及编码器、履带/轮式移动机械装置。
其中,所述传感器模组、所述按钮分别与所述主板的I/O模块连接,所述麦克风阵列与所述音视频编解码模块连接,所述触摸显示控制器接收所述触摸显示屏704的触控输入并提供显示驱动信号,所述电机伺服控制器则根据程序指令驱动所述电机及编码器709驱动所述履带/轮式移动机械装置形成机器人的移动,声音则由所述音频编解码模块输出经所述功率放大器推动所述扬声器得到。
在一些可能的实现方式中,所述主板还包括处理器和存储器,存储器除了记录机器人的算法和执行程序及其配置文件外,也包括机器人执行看护工作时所需的音视频和图像文件等,还包括程序运行时的一些临时文件。
在一些可能的实现方式中,所述主板还包括通信模块,用于提供机器人与外部网络的通信功能。例如,近程通信如蓝牙、无线保真模块。
在一些可能的实现方式中,所述主板还包括电源管理模块,通过连接的电源系统实现设备的电池充放电和节能管理。
第二方面至第五方面的机器人能够实现第一方面的方法实施例。
结合上述各个方面,在一些可能的实现方式中,所述至少一个传感器包括:
声音传感器、图像传感器、位置传感器、加速度传感器、陀螺仪传感器、地磁传感器、红外线传感器、心电传感器、脉压传感器、皮肤电流传感器、汗液传感器及肌电流传感器。
结合上述各个方面,在一些可能的实现方式中,所述会话场景信息包括以下信息中的至少一项:
第二用户的个性化因子信息、所述第二用户与所述第一用户的社会关系信息、以及所述第二用户与所述第一用户的历史交流数据;
其中,所述第二用户是与所述第一用户进行会话的一个或者多个用户。
结合上述各个方面,在一些可能的实现方式中,所述外部环境信息包括以下信息中的至少一种:
天气信息、所述第一用户的地理位置信息、所述第一时刻和所述第二时刻。
结合上述各个方面,在一些可能的实现方式中,所述第一情感预测模型为隐马尔可夫模型。
附图说明
图1是可应用本发明实施例的场景例子的示意图。
图2是根据本发明实施例的预测情感状态的方法的示意性流程图。
图3是根据本发明实施例的隐马尔科夫模型预测情感状态的方法的示意图。
图4是根据本发明实施例的预测情感状态的方法的另一示意性流程图。
图5是根据本发明实施例的预测情感状态的方法的再一示意性流程图。
图6是根据本发明实施例的机器人的示意性框图。
图7是根据本发明实施例的机器人的另一示意性框图。
图8是根据本发明实施例的机器人的再一示意性框图。
图9是根据本发明实施例的机器人的再一示意性框图。
图10是根据本发明实施例的机器人的再一示意性框图。
具体实施方式
下面将结合附图,对本发明实施例中的技术方案进行描述。
情感是人类神经系统对外界价值关系产生的主观反映,是人对客观事物的体验,在理性行为和理性决策中起着重要作用。本发明实施例中的情感评估是指计算机系统识别当前时刻人类情感状态的能力,也可以称为情感识别。情感预测是指计算机系统识别出当前时刻人类情感状态,并基于当前的情感状态预测下一时刻情感状态的能力。
情感状态从生理学的观点来看,包含情感状态体验、情感状态表现和情感状态生理三种要素。然而,其实我们不需要弄懂人类情感的本质,只需要让机器对情感表达的各种信号进行分析并输出结果就可以了。就像我们目前虽然无法完全破译大脑,但我们依然能够从功能出发研发出智能化的机器一样。
其中,机器人可以通过多种实现方式获取上述各种信号。
例如,机器人可以通过传感器采集对象的生理信号。比如,呼吸、心律、体温、皮肤电阻等。
又例如,机器人可以通过传感器检测对象的面部表情、语音和姿态等特征获取信号。
本发明实施例基于上述角度,提出了一种用机器人预测用户下一时刻情感状态的方法,该方法可以适应不同场景不同人直接沟通的需求,根据预测出来的情感状态,可以为会话双方提供及时的预警或沟通技巧建议,从而进一步提高人与人之间的沟通效果。
换句话说,本发明实施例的预测情感状态的方法,在对采集对象的当前时刻的情感状态进行情感状态识别后,还需要一个预测模型进行下一时刻的情感状态的预测,预测后给使用者提出相应的提醒或者建议,提高沟通效果。
例如,机器人可以提前知道病人在什么时间不适,从而提前给出缓解的方法。
应理解,本发明实施例的预测情感状态的方法和机器人适用于任何场景。例如,小区、街道、行政区,省、国家,跨国甚至全球。
图1是本发明实施的系统架构100的例子的示意性框图。
如图1所示,该系统架构100包括以下单元:
家庭或者儿童看护机构110,可以包括至少一名被看护的儿童112及陪伴机器人111,室内的至少一个无线接入网络113;被看护儿童的法定监护人(父母或直系亲属等)114以及其随身携带的智能终端115;室外无线接入网络116给智能终端115提供远程的无线网络接入服务。
儿童看护服务机构120,用于给儿童看护业务提供专业数据服务,包括儿童成长云服务器121、儿童成长模型库122和儿童看护知识库123。
社会公共服务机构130,用于给儿童看护服务提供政府公布的云数据,包括但不限于天气预报、医疗服务机构名单、疫情信息、紧急通知等。具体地,可以包括社会公共服务云服务器131、社会公共服务云数据库132。
至少一个第三方网络机构140,用于给儿童看护业务提供细分的专业化的网络云服务。例如,即时通信、儿童看护业务社交应用、网上音视频服务、网络购物、付款和物流跟踪、社区和医疗机构评价和投票等。具体地,可以包括第三方网络服务的运服务器141、第三方网络服务云数据库142。该系统架构100还包括网络运营商提供网络服务的互联网150。
下面结合图2至图5对本发明实施例的预测情感状态的实现进行说明。
图2是本发明实施例的预测情感状态的方法200的示意性流程图。
如图2所示,该方法200包括:
S210、确定第一用户的第一情感状态,该第一情感状态是该第一用户在第一时刻的情感状态。
具体而言,机器人确定在第一时刻的情感状态。
可选地,机器人通过至少一个传感器在该第一时刻,获取该第一用户的至少一种检测信息;并根据这些检测信息和情感数字化模型,生成第一情感信号;在情感空间数据库中,查找与该第一情感信号匹配度最高的第二情感信号,该情感空间数据库可以包括至少一个情感信号、至少一个情感状态以及至少一个情感信号和至少一个情感状态的对应关系;将该第二情感信号对应的情感状态确定为该第一情感状态。
具体而言,机器人首先通过至少一个传感器获取第一用户在第一时刻的至少一种检测信息;然后,通过这些检测信息生成第一情感信号;接着,在情感数据库中查找与该第一情感信号匹配度最高的第二情感信号,其中,情感空间数据库中包括情感信号和情感状态的对应关系;最后,将该第二情感信号对应的情感状态确定为该第一情感状态。
应注意,本发明实施例中的传感器可以是任何一种具备采集用于表示用户情感状态的信号能力的设备或者装置。具体地,可以是用于采集如语音、面部表情、手势、站姿等体态语以及脉搏、皮肤电等生理指标的设备或者装备,这些生理指标是情感状态的数字化表达,也可以说成是情感信号。
例如,声音传感器、图像传感器、位置传感器、加速度传感器、陀螺仪传感器、地磁传感器、红外线传感器、心电传感器、脉压传感器、皮肤电流传感器、汗液传感器及肌电流传感器。
其中,皮肤电流传感器可实时测量皮肤的导电系数,通过导电系数的变化可测量用户的紧张程度。脉压传感器可时刻监测由心动变化而引起的脉压变化。汗液传感器是一条带状物,可通过其伸缩的变化时刻监测呼吸与汗液的关系。肌电流传感器可以测得肌肉运动时的弱电压值。
又例如,用于语音识别的麦克风,表情识别的摄像头,位置及动作识别的陀螺仪、红外线传感器、心电传感器等等能够感受规定的被测量(物理量、化学量、状态量、机械量)并按一定规律转换成可用输出信号的多种信息获取传感器。
还应注意,上述提及的传感器仅是示例性说明,不应限定本发明实施例的实际保护范围。
在本发明实施例中,机器人从不同传感器获取的信息中提取出能够表达或者标识情感特征的信息,比如,声音、面部图像、眼睛虹膜信息、肌电信息等,机器人对这些不同传感器获取的信息进行识别,生成第一情感信号;在情感空间数据库中,查找与该第一情感信号匹配度最高的第二情感信号;将该第二情感信号对应的情感状态确定为该第一情感状态。
下面针对本发明实施例中确定第一情感信号的具体实现方式进行说明。
由于不同的传感器获取的检测信息在后续评估用户当前时刻的情感状态时的作用不尽相同,因此,本发明实施例,提出了一个传感器权重的概念。
具体而言,机器人确定第一用户的第一情感信号时,可以通过确定至少一种检测信息中每种检测信息的权重;根据这些检测信息和这些检测信息中每种检测信息的权重,生成该第一用户的个人特征信息;根据该个人特征信息和情感数字化模型,确定该第一情感信号。
应理解,本发明实施例中的个人特征信息指与该第一用户相关的用于表示情感状态的信息。例如,可以是用于表示该第一用户表情、生理特征、身体特征等具体参数信息。具体地,可以是该第一用户的语音、面部表情、手势、站姿等体态语以及脉搏、皮肤电等生理指标。
可选地,作为一个实施例,根据该第一用户的个性化因子信息,确定至少一种检测信息中每种检测信息的权重。
具体而言,可以根据被测用户的个性化因子库的信息获取到的。例如,一个用户,其声音信号中的变化,能够最大限度的体现该用户的基本情感状态,则在传感器所获取的多种传感器信息中,会对声音传感器获取的信息赋予较大的权重。
应理解,机器人可以通过被测用户的个性化因子库,确定上述检测信息的权重,也可以通过其它方式确定,本发明实施例不作具体限定。
例如,在一些情况中,虽然对该用户而言,某种传感器,比如声音传感器,是具有较大权重的,但是声音传感器获取的信息并不充分,这时候也需要适当调整该传感器的权重,而将获取较多被测用户数据的传感器权重提高。
换句话说,机器人可以根据至少一种检测数据中每种检测数据的信息质量,确定这些检测信息中每种检测信息的权重。
应理解,本发明实施例,还可以对上述传感器权重的学习优化。
例如,可以根据被测用户的个性化因子库中的历史数据设置权重的初始值,然后根据神经网络学习方法,不断迭代优化权重。
又例如,在通过传感器数据估计当前被测用户的情感状态时,还可以通过单独每种传感器评估出来的结果,与融合所有传感器评估出来的结果进行选择,从而提高评估的准确性。
应注意,本发明实施例中的情感空间数据库可以是将基本情感状态进行集合形成的数据库,用于描述人的基本情感,以及这些情感的变化。该情感空间数据库可以经过训练和录制得到,可选地,采用现有的训练方式。
例如,在本发明实施例中,可以将用户的基本情感状态分为快乐、悲伤、恐惧、惊讶、愤怒,嫉妒。这六种基本情感状态还可以相互组合,拍摄功能处各种各样的复合情感状态,如忧郁、紧张、焦虑等。由于现有技术中,上述六种基本情感状态能够通过机器人能够准确的估计出来。其中,每个基本情感状态都存在对应的模型。假设经过训练和录制后已经得到由上述基本情感状态集合形成的情感空间数据库。
机器人确定第一用户的第二情感信号时,可以将检测到的至少一种检测信息经过信号处理,传感器信息融合后生成的第一情感信号,然后,将该第一情感信号与上述已知的情感空间数据库中的情感信号进行匹配,从而得到与第一用户当前的情感信号匹配度最高的第二情感信号。
由于每个用户的基本情感状态的特征各有差别,并且用户的每个细微情感状态都会被感知并用传感器的数据解读出来。
为了提高本发明实施例中第一情感状态的准确度,可选地,可以在学术界的研究和探索的基础上,继续丰富该情感空间数据库中的基本情感状态。即,上述六中基本情感状态仅仅是示例性的说明。
S220、根据该第一情感状态和第一情感预测模型预测第二情感状态,该第二情感状态是该第一用户在第二时刻的情感状态,该第二时刻在该第一时刻之后。
具体而言,机器人根据评估出第一用户的第一情感状态后,根据第一情感状态和第一情感预测模型对第一用户在第二时刻的情感状态进行预测。
也就是说,第一用户的当前情感状态识别后还需要一个预测模型,机器人通过预测出的第一用户下一时刻的情感状态,能够给该第一用户提出相应的提醒或者建议,提高沟通效果。
其中,情感预测模型用于情感预测,是对特定用户未来情感状态的预测,也可以称为情感状态预测模型、情感迁移矩阵等等。
可选地,作为一个实施例,机器人可以根据该第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,确定该第一情感预测模型;根据该第一情感状态和该第一情感预测模型预测第二情感状态。
具体而言,由于被预测用户与不同的人进行交流时候,其情感状态变化是不一样的,比如,被测用户与一些人交流,会很温和愉悦,情感状态迁移是较为和缓的,很小概率会发怒或者悲伤,比如与小孩子;而被测用户与一些特定对象交流时,则情感状态波动较大。本发明实施例将与第二用户相关的信息称为会话场景信息。
可选地,会话场景信息可以包括以下信息中的至少一项:第二用户的个性化因子信息、该第二用户与该第一用户的社会关系信息、以及该第二用户与该第一用户的历史交流数据;该第二用户是与该第一用户进行会话的一个或者多个用户。
此外,不同的外部环境也有可能影响到被测用户的感情状态。例如,在恐怖氛围和在家的环境下被测用户的情感变化是不一样的。本发明实施例将用于情感预测模块构建外部环境场景的、与第二用户无关的信息称为外部环境信息。
可选地,该外部环境信息可以是在传感器获取的检测信息中提取出代表环境特征的信息。例如,该外部环境信息可以包括以下信息中的至少一种:天气信息、该第一用户的地理位置信息、该第一时刻和该第二时刻。
本发明实施例,还引入了个性化因子信息,用于表示被测用户的个性化特征。例如,被测用户的性格。具体而言,不同的人对于外界事物的刺激以及不同人在每个情感状态的停留时间,不同情感状态之间的自发迁移都会有一定的差异。可选地,第一用户的个性化因子可以是根据基本个性模板库对该第一用户的个性信息进行训练,得到该第一用户的个性化因子信息。
其中,个性化因子库可以基于现有学术界研究的成熟的基本个性模板库训练学习得到的不同用户的个性化因子,个性化因子库可以模拟出不同类型的人的情感状态变化规律,进而提高预测的准确度。
因此,在本发明实施例中,通过第一用户的个性化因子信息、会话场景信息和外部环境信息确定情感预测模型,有效增加了该情感预测模块基于当前的用户情感状态预测出用户未来一个时刻的情感状态的准确性。
应理解,本发明实施例对会话场景信息和外部环境信息的具体内容不作限定。也就是说,可以是其它能够起到相同作用的信息。
可选地,作为另一个实施例,机器人获取第二情感预测模型;根据该第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,对该第二情感预测模型进行修正,并将修正后的第二情感预测模型确定为该第一情感预测模型。
具体而言,机器人在没有获得或者没有完全获得第一用户的个性化因子信息、会话场景信息和外部环境信息时,先确定第二情感预测模型,再通过传感器获取的检测信息对第二情感预测模型进行微调修正。
可选地,根据第一用户类型确定第二预测模型。本发明实施例对第一用户的类型不作具体限定。
例如,从文化社会学的观点出发,认为哪种生活方式最有价值,可以把人分为以下六种类型:经济型、理论型、审美型、宗教型、权力型、社会型。
其中,经济型的人一切以经济观点为中心,以追求财富、获取利益为个人生活目的,实业家多属此类。理论型的人以探求事物本质为人的最大价值,但解决实际问题时常无能为力,哲学家、理论家多属此类。审美型的人以感受事物美为人生最高价值,他们的生活目的是追求自我实现和自我满足,不大关心现实生活,艺术家多属此类。宗教型的人把信仰宗教作为生活的最高价值,相信超自然力量,坚信永存生命,以爱人、爱物为行为标准。神学家是此类人的典型代表。权力型的人以获得权力为生活的目的,并有强烈的权力意识与权力支配欲,以掌握权力为最高价值,领袖人物多属于此类。社会型的人重视社会价值,以爱社会和关心他人为自我实现的目标,并有志于从事社会公益事物,文教卫生、社会慈善等职业活动家多属此类型。
又例如,可以从心理学领域出发,按照人在言语表现、行为方式和表情方面稳定的个性心理特征,将人的气质类型分为四种类型即多血质、粘液质、胆汁质和抑郁质。
其中,多血质的人表现为活泼好动,情感发生迅速而不能持久,思考问题敏捷,但做事常出错,比较轻浮不够踏实。胆汁质的人精力充沛、情感言语强烈、迅速难以控制,在生活中表现勇敢、顽强、竞争心强,但平时做事急躁而粗糙。粘液质的人安静沉着,动作迟缓而不活动,情感发生慢,认真踏实。抑郁质的人性格内向,感情丰富,思想清晰,但为人胆小孤僻、敏感、怯懦。
机器人根据上述两个维度的分类选择被测用户的第二情感预测模型,在第二情感预测模型的基础上,还可以根据被测用户的个性化因子信息、会话场景信息和外部环境信息进行微调。
应注意,本发明实施例中第二情感预测模型可以是通过第一用户的类型确定,也可以是根据其它方式确定,本发明实施例不作具体限定。
由于情感状态是一个隐含在多个生理和行为特征之中的不可直接观测的量,不易建模,只能根据用户情感概率的变化推断得出相应的情感走向。具体而言,度量人工情感的深度和强度的,定性和定量建立情感的理论模型、指标体系、计算方法、测量技术。
本发明实施例以MIT媒体实验室给出的隐马尔可夫模型为例进行说明。应理解,本发明实施例对情感预测模型不作具体限定。例如,该情感预测模型也可以是贝叶斯网络模式数学模型。
图3是本发明实施例的隐马尔科夫模型预测情感状态的方法的示意图。
如图3所示,假设第一用户的基本情感状态集合为V={快乐、悲伤、恐惧、惊讶、愤怒,嫉妒},可观察的状态信息,这里以声音传感器获取的信息为例描述,如果是多个,多个传感器之间需要通过增加权重叠加方式获取新的隐马尔科夫模型(HMM)。S1={基频、能量、语速、流利程度、音质}。根据检测到的S1的范围信息以及变化趋势,再根据环境信息和会话环境,可以预测出用户的下一个时刻的情感状态。
通过统计发现,情感状态的愉悦度与基频的均值、最大值、范围有显著的正相关,而激活度还与基频的最小值呈正相关。具体而言,愉悦和愤怒的基频均值高于其他情感状态;愉悦的短时能量增强,语速变快;愤怒状态下的基频提高最多;悲哀的短时能量均值接近平静状态。除此以外还有音质特征也用于区分不同的情感状态,而音质特征可以是个性化因子的一个重要体现。
此外,由于高兴、生气、悲伤情感状态的肌电图(electromyography,EMG)肌电信号的识别率很高,可以在基于声音这个第一可观察状态的基础上,引入第二可观察状态肌电信号,用于修正通过声音预测出来的情感状态。
同理,还可以引入其他可获取的传感器信号,每种传感器对于特性的情感状态的检测各有专长,可以通过动态调整权重的方式来调整在情感状态预测中各传感器信息的依赖比重。不同的可观察状态的S集合不同。
在一定的心情下,用户会表现出一定的情感反应,也就是表情。由于不同人的性格或个性信息影响情感状态的变化范围和变化率。即,一个时间步长内,情感状态变化多快以及变化到何种程度是性格的函数。因此,不同的人会有不同的HMM模型。可选地,可以通过现有技术进行训练学习获取被测用户的HMM模型,本发明实施例不做赘述。
S230、根据该第二情感状态输出响应。
具体而言,机器人根据第二情感状态输出响应消息或者响应动作,以使该第一用户通过该响应消息提高会话效率。
例如,向第一用户呈现预警信息,或者向第一用户发送警报。
虽然,本发明实施例的预测情感状态的方法为了提高预测准确性,在确定预测模型时,引入了第一用户的个性化因子以及周边环境信息、会话信息等因素,然而,预测情感时也不能避免出现各种各样的偏差。
因此,在本发明实施例中,为了进一步提高情感状态预测的准确性。
可选地,通过至少一个传感器在该第二时刻,获取至少一种验证信息;根据这些验证信息确定该第一用户的第三情感状态;并根据该第三情感状态和该第二情感状态之间的匹配度,调整该第一情感预测模型和/或该第一用户的个性化因子信息。
换句话说,机器人在预测出的该被测用户的下一时刻的情感状态后,会和被测用户下一个时刻真实的用户情感状态进行对比,如果匹配度符合一定的范围要求,则作为正向的激励加入历史学习库,反之作为负向的,并根据匹配度的偏差调整传感器因子和情感状态预测模型的选择。另外,还可以根据算法根据预测后的,算法给用户提出的预警建议是否被用户采纳来做偏差的闭环迭代优化。
本发明实施例的预测情感状态的方法,在单一传感器和传感器信息评估出的当前时刻情感状态的基础上,通过考虑被预测情感状态用户的个性化因子以及周边环境信息、会话信息等因素,能够有效提高当前情感状态的评估准确度、下一时刻情感状态的预测准确度,从而可以协助会话用户及时调整沟通细节,提高沟通的效率。
图4是本发明实施例的预测情感状态的方法300的示意性流程图。
如图4所示,该方法300包括:
310、获取第一用户的至少一种检测信息。
具体地,机器人通过至少一种传感器获取第一用户在第一时刻的至少一种检测信息。
320、获取第一用户的个人特征信息。
具体而言,机器人通过在上述获取的检测信息中提取出该第一用户的个人特征信息,其中,该个人特征信息可以是用于表示该第一用户表情、生理特征、身体特征等具体参数信息。例如,语音、面部表情、手势、站姿等体态语以及脉搏、皮肤电等生理指标。
330、确定第一情感状态。
具体地,机器人根据确定的个人特征信息评估该第一用户在第一时刻的情感状态。
340、获取会话场景信息。
具体地,机器人获取会话场景信息。该会话场景信息可以包括以下信息中的至少一项:第二用户的个性化因子信息、该第二用户与该第一用户的社会关系信息、以及该第二用户与该第一用户的历史交流数据;该第二用户是与该第一用户进行会话的一个或者多个用户。
350、确定第一用户对应的第一个性化因子信息。
具体而言,机器人确定第一用户对应的第一个性化因子信息。例如,可以根据基本个性模板库对该第一用户的个性信息进行训练,得到该第一用户的个性化因子信息。可选地,在本发明实施例中,还可以根据获取的第一用户的个人特征信息和/或会话场景信息,对第一用户对应的第一个性化因子信息进行修正或者微调。
360、获取外部环境信息。
具体而言,机器人获取外部环境信息,用于表示和第二用户无关的场景因素。例如,该外部环境信息可以包括以下信息中的至少一种:天气信息、该第一用户的地理位置信息、该第一时刻和该第二时刻。
370、确定情感预测模型。具体地,机器人根据该第一用户的个性化因子信息、会话场景信息和外部环境信息确定情感预测模型。
380、确定第二情感状态。
具体而言,机器人根据评估出第一用户的第一情感状态后,根据第一情感状态和情感预测模型对第一用户在第二时刻的情感状态进行预测。
应理解,图4仅是本发明实施例的预测情感的方法的示例性描述。本发明实施例不限于此。例如,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。例如,320、340、360可以同时执行。
图5是本发明实施例的预测情感状态的方法的另一示意性流程图。
如图5所示,机器人触发传感器和通信模块收集信息,该信息可以包括第一用户以下信息中的至少一项:语音信号、表情信号、脑电波信号、肢体信号、皮肤电信号、肌电信号,以及通信模块采集的信号;将传感器采集到的信号发送到独立传感器处理模块和/或混合传感器处理模块,进行信号处理,并确定第一用户在第一情感状态,该第一情感状态是该第一用户在当前时刻下的情感状态;该机器人获取历史数据库中的会话场景信息和外部环境信息,并基于会话场景信息和外部环境信息确定情感预测模型;接着,根据该情感预测模型预测第二情感状态,该第二情感状态是该第一用户在下一时刻的情感状态;该机器人根据第二情感状态生成响应消息,并根据给该第一用户提出的预警建议是否被用户采纳来做偏差的闭环迭代优化。例如,如果该第一用户采纳,则作为正向的激励加入历史学习库。如果该第一用户拒绝采纳,作为负向的修正历史数据库。例如,修正历史数据库中的会话场景信息。
应理解,图5仅是本发明实施例的预测情感的方法的示例性描述。本发明实施例不限于此。例如,在确定情感预测模型时,还可以考虑该第一用户的个性化因子。
还应理解,在本发明实施例和所附权利要求书中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明实施例。
例如,本发明实施例中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系。具体地,A和/或B可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
又例如,在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
又例如,在本发明实施例中可能采用术语第一、第二等来描述各种消息,但这些消息不应限于这些术语。这些术语仅用来将消息彼此区分开。例如,在不脱离本发明实施例范围的情况下,第一情感状态也可以被称为第二情感状态,类似地,第二情感状态也可以被称为第一情感状态。
又例如,取决于语境,如在此所使用的词语“如果”或“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。
上述对本发明实施例的预测情感状态的方法的实现进行了说明,下面结合附图对本发明实施例的机器人进行介绍。
图6是根据本发明实施例的机器人400的示意性框图。
如图6所示,该机器人400包括:
处理单元410,该处理单元410用于:
确定第一用户的第一情感状态,该第一情感状态是该第一用户在第一时刻的情感状态;根据该第一情感状态和第一情感预测模型预测第二情感状态,该第二情感状态是该第一用户在第二时刻的情感状态,该第二时刻在该第一时刻之后。
输出单元420,该输出单元420用于根据该第二情感状态向该第一用户输出响应。
可选地,该处理单元410具体用于:
根据该第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,确定该第一情感预测模型;根据该第一情感状态和该第一情感预测模型预测第二情感状态。
可选地,该处理单元410具体用于:
确定第二情感预测模型;根据该第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,对该第二情感预测模型进行修正,并将修正后的第二情感预测模型确定为该第一情感预测模型。
可选地,该处理单元410用于根据该第一情感状态和第一情感预测模型预测第二情感状态之前,该处理单元410还用于:
根据基本个性模板库对该第一用户的个性信息进行训练,得到该第一用户的个性化因子信息。
可选地,该处理单元410确定第一用户的第一情感状态之前,该机器人还包括:
获取单元,用于通过至少一个传感器在该第一时刻,获取该第一用户的至少一种检测信息;其中,该处理单元410具体用于:
根据该至少一种检测信息和情感数字化模型,生成第一情感信号;在情感空间数据库中,查找与该第一情感信号匹配度最高的第二情感信号,该情感空间数据库包括至少一个情感信号、至少一个情感状态以及该至少一个情感信号和该至少一个情感状态的对应关系;将该第二情感信号对应的情感状态确定为该第一情感状态。
可选地,该处理单元410具体用于:
确定该至少一种检测信息中每种检测信息的权重;根据该至少一种检测信息和该至少一种检测信息中每种检测信息的权重,生成该第一用户的个人特征信息;
根据该个人特征信息和该情感数字化模型,确定该第一情感信号。
可选地,该处理单元410具体用于:
根据该第一用户的个性化因子信息,确定该至少一种检测信息中每种检测信息的权重。
可选地,该处理单元410具体用于:
根据该至少一种检测数据中每种检测数据的信息质量,确定该至少一种检测信息中每种检测信息的权重。
可选地,该处理单元410还用于:
若该第一用户拒绝该响应,调整该第一情感预测模型和/或该第一用户的个性化因子信息。
可选地,该处理单元410用于调整该第一情感预测模型和/或该第一用户的个性化因子信息之前,该处理单元410还用于:
通过该至少一个传感器在该第二时刻,获取至少一种验证信息;根据该至少一种验证信息确定该第一用户的第三情感状态;其中,该处理单元410具体用于:
根据该第三情感状态和该第二情感状态之间的匹配度,调整该第一情感预测模型和/或该第一用户的个性化因子信息。
可选地,该至少一个传感器包括:
声音传感器、图像传感器、位置传感器、加速度传感器、陀螺仪传感器、地磁传感器、红外线传感器、心电传感器、脉压传感器、皮肤电流传感器、汗液传感器及肌电流传感器。
可选地,该会话场景信息包括以下信息中的至少一项:
第二用户的个性化因子信息、该第二用户与该第一用户的社会关系信息、以及该第二用户与该第一用户的历史交流数据;其中,该第二用户是与该第一用户进行会话的一个或者多个用户。
可选地,该外部环境信息包括以下信息中的至少一种:
天气信息、该第一用户的地理位置信息、该第一时刻和该第二时刻。
可选地,该第一情感预测模型为隐马尔可夫模型。
应注意,本发明实施例中,处理单元410可以由处理器实现,输出单元420可以由收发器实现。如图7所示,机器人500可以包括处理器510、收发器520和存储器530。其中,存储器530可以用于存储检测信息、情感状态信息等,还可以用于存储处理器510执行的代码、指令等。机器人500中的各个组件通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。
图7所示的机器人500能够实现前述图2至图5中的方法实施例所实现的各个过程,为避免重复,这里不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
可选地,作为一个实施例,本发明实施例的机器人可以是一种卡通形象的产品形态。例如,如图8所示,该机器人600具体包括:
触摸显示屏601,用于向看护对象展示图形图像信息,并接收用户的触摸控制信号;扬声器模块607,用于向被看护对象,提供声音输出信号;麦克风阵列及传感器组602,用于检测被看护对象的声音、表情、行为等特征;开始/暂停/紧急按钮603,用于提供被看护对象简单的操作指令并响应紧急情况下用户的中断指令;处理及运算模块604,用于根据麦克风阵列及传感器组602输入的用户状态信号、按钮603的用户操作指令、来自网络的被看护儿童的监护人请求信息、来自网络的儿童看护服务机构的服务指令、第三方网络云服务数据等,计算并输出陪伴机器人的控制指令,并由陪伴机器人输出声音、图像、图像、肢体动作以及移动等。
可选地,机器人600还可以包括:履带/轮式移动机械装置605和/或机械手臂606。
应理解,图8仅是示例性描述,本发明实施例不限于此。也就是说,除了上述卡通形象的陪伴机器人,也可以根据不同人群的需求设计成其他的形式的机器人外形。例如,教育场景下的可以设计集成到教学系统中,家长用的可以设计集成到普通的手表,手机中等等。
可选地,图9示例性的示出了本发明实施例的处理及运算模块700的框图。
如图9所示,该处理及运算模块700可以包括:
主板711和周边功能部件,所述主板711可以包括:通信模块、I/O模块、处理模块、音视频编码模块、电击伺服控制模块、触摸显示控制模块;所述周边功能部件可以包括:传感器模块组701、按钮702、麦克风阵列703、触摸显示屏704、天线706、功率放大器707、扬声器708、电机及编码器709、履带/轮式移动机械装置710。
其中,传感器模组701、按钮702分别与主板711的I/O模块连接,麦克风阵列703与主板711的音视频编解码模块连接,主板711的触摸显示控制器接收触摸显示屏704的触控输入并提供显示驱动信号,电机伺服控制器则根据程序指令驱动电机及编码器709驱动履带/轮式移动机械装置710形成机器人的移动,声音则由音频编解码模块输出经功率放大器707推动扬声器708得到。
可选地,该处理及运算模块700还可以包括主板711上的处理器及存储器,存储器除了记录机器人的算法和执行程序及其配置文件外,也包括机器人执行看护工作时所需的音视频和图像文件等,还包括程序运行时的一些临时文件。
可选地,该处理及运算模块700还可以包括主板711上的通信模块,用于提供机器人与外部网络的通信功能。
例如,近程通信如蓝牙、无线保真模块。
可选地,该主板711还可以包括电源管理模块,通过连接的电源系统705实现设备的电池充放电和节能管理。
应理解,本发明实施例的处理及运算模块并不限于如图9所示的结构框图。例如,电机伺服控制器还可以根据程序指令驱动电机及编码器709驱动如图8所示的机械手臂606形成机器人的肢体语言。
可选地,作为另一个实施例,本发明实施例的机器人的框图可以如图10所示。
如图10所示,该机器人800包括:传感器810、通信模块820、驱动模块830、情感信息处理及预测模块840、应用模块850、执行器860。
其中,情感信息处理及预测模块840是本发明实施例的核心部件。模块840根据底层传感器810、通信模块820等获取的外部环境信息及用户的信息,来处理获取用户的情感信息,获取后,供上层应用模块850调用,同时上层应用模块850可以提供用户应用数据,辅助模块840更好的预测感知用户的情绪。
应理解,图6至图10仅仅是本发明实施例的机器人框图的示例性说明,本发明实施例不限于这种说明。
本领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明实施例所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例的目的。
另外,在本发明实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本发明实施例的具体实施方式,但本发明实施例的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明实施例揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明实施例的保护范围之内。因此,本发明实施例的保护范围应所述以权利要求的保护范围为准。

Claims (26)

1.一种机器人预测情感状态的方法,其特征在于,所述方法包括:
机器人确定第一用户的第一情感状态,所述第一情感状态是所述第一用户在第一时刻的情感状态;
所述机器人根据所述第一情感状态和第一情感预测模型预测第二情感状态,所述第二情感状态是所述第一用户在第二时刻的情感状态,所述第二时刻在所述第一时刻之后;
所述机器人根据所述第二情感状态向所述第一用户输出响应。
2.根据权利要求1所述的方法,其特征在于,所述机器人根据所述第一情感状态和第一情感预测模型预测第二情感状态,包括:
所述机器人根据所述第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,确定所述第一情感预测模型;
所述机器人根据所述第一情感状态和所述第一情感预测模型预测第二情感状态。
3.根据权利要求1或2所述的方法,其特征在于,所述机器人根据所述第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,确定所述第一情感预测模型,包括:
所述机器人确定第二情感预测模型;
所述机器人根据所述第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,对所述第二情感预测模型进行修正,并将修正后的第二情感预测模型确定为所述第一情感预测模型。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述机器人所述第一情感状态和第一情感预测模型预测第二情感状态之前,所述方法还包括:
所述机器人根据基本个性模板库对所述第一用户的个性信息进行训练,得到所述第一用户的个性化因子信息。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述机器人确定第一用户的第一情感状态之前,所述方法还包括:
所述机器人通过至少一个传感器在所述第一时刻,获取所述第一用户的至少一种检测信息;
其中,所述机器人确定第一用户的第一情感状态,包括:
所述机器人根据所述至少一种检测信息和情感数字化模型,生成第一情感信号;
所述机器人在情感空间数据库中,查找与所述第一情感信号匹配度最高的第二情感信号,所述情感空间数据库包括至少一个情感信号、至少一个情感状态以及所述至少一个情感信号和所述至少一个情感状态的对应关系;
所述机器人将所述第二情感信号对应的情感状态确定为所述第一情感状态。
6.根据权利要求5所述的方法,其特征在于,所述机器人根据所述至少一种检测信息和情感数字化模型确定第一情感信号,包括:
所述机器人确定所述至少一种检测信息中每种检测信息的权重;
所述机器人根据所述至少一种检测信息和所述至少一种检测信息中每种检测信息的权重,生成所述第一用户的个人特征信息;
所述机器人根据所述个人特征信息和所述情感数字化模型,确定所述第一情感信号。
7.根据权利要求6所述的方法,其特征在于,所述机器人确定所述至少一种检测信息中每种检测信息的权重,包括:
所述机器人根据所述第一用户的个性化因子信息,确定所述至少一种检测信息中每种检测信息的权重。
8.根据权利要求6所述的方法,其特征在于,所述机器人确定所述至少一种检测信息中每种检测信息的权重,包括:
所述机器人根据所述至少一种检测数据中每种检测数据的信息质量,确定所述至少一种检测信息中每种检测信息的权重。
9.根据权利要求1至8中任一项所述的方法,其特征在于,所述方法还包括:
若所述第一用户拒绝所述响应;
所述机器人通过所述至少一个传感器在所述第二时刻,获取至少一种验证信息;
所述机器人根据所述至少一种验证信息确定所述第一用户的第三情感状态;
所述机器人根据所述第三情感状态和所述第二情感状态之间的匹配度,调整所述第一情感预测模型,或者,调整所述第一用户的个性化因子信息,或者,调整所述第一情感预测模型和所述第一用户的个性化因子信息。
10.根据权利要求5至9中任一项所述的方法,其特征在于,所述至少一个传感器包括:
声音传感器、图像传感器、位置传感器、加速度传感器、陀螺仪传感器、地磁传感器、红外线传感器、心电传感器、脉压传感器、皮肤电流传感器、汗液传感器及肌电流传感器。
11.根据权利要求2至10中任一项所述的方法,其特征在于,所述会话场景信息包括以下信息中的至少一项:
第二用户的个性化因子信息、所述第二用户与所述第一用户的社会关系信息、以及所述第二用户与所述第一用户的历史交流数据;
其中,所述第二用户是与所述第一用户进行会话的一个或者多个用户。
12.根据权利要求2至11中任一项所述的方法,其特征在于,所述外部环境信息包括以下信息中的至少一种:
天气信息、所述第一用户的地理位置信息、所述第一时刻和所述第二时刻。
13.根据权利要求1至12中任一项所述的方法,其特征在于,所述第一情感预测模型为隐马尔可夫模型。
14.一种机器人,其特征在于,所述机器人包括:
处理单元,所述处理单元用于:
确定第一用户的第一情感状态,所述第一情感状态是所述第一用户在第一时刻的情感状态;
根据所述第一情感状态和第一情感预测模型预测第二情感状态,所述第二情感状态是所述第一用户在第二时刻的情感状态,所述第二时刻在所述第一时刻之后;
输出单元,所述输出单元用于根据所述第二情感状态向所述第一用户输出响应。
15.根据权利要求14所述的机器人,其特征在于,所述处理单元具体用于:
根据所述第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,确定所述第一情感预测模型;
根据所述第一情感状态和所述第一情感预测模型预测第二情感状态。
16.根据权利要求14或15所述的机器人,其特征在于,所述处理单元具体用于:
确定第二情感预测模型;
根据所述第一用户的个性化因子信息、会话场景信息和外部环境信息中的至少一项,对所述第二情感预测模型进行修正,并将修正后的第二情感预测模型确定为所述第一情感预测模型。
17.根据权利要求14至16中任一项所述的机器人,其特征在于,所述处理单元用于根据所述第一情感状态和第一情感预测模型预测第二情感状态之前,所述处理单元还用于:
根据基本个性模板库对所述第一用户的个性信息进行训练,得到所述第一用户的个性化因子信息。
18.根据权利要求14至17中任一项所述的机器人,其特征在于,所述处理单元确定第一用户的第一情感状态之前,所述机器人还包括:
获取单元,用于通过至少一个传感器在所述第一时刻,获取所述第一用户的至少一种检测信息;
其中,所述处理单元具体用于:
根据所述至少一种检测信息和情感数字化模型,生成第一情感信号;
在情感空间数据库中,查找与所述第一情感信号匹配度最高的第二情感信号,所述情感空间数据库包括至少一个情感信号、至少一个情感状态以及所述至少一个情感信号和所述至少一个情感状态的对应关系;
将所述第二情感信号对应的情感状态确定为所述第一情感状态。
19.根据权利要求18所述的机器人,其特征在于,所述处理单元具体用于:
确定所述至少一种检测信息中每种检测信息的权重;
根据所述至少一种检测信息和所述至少一种检测信息中每种检测信息的权重,生成所述第一用户的个人特征信息;
根据所述个人特征信息和所述情感数字化模型,确定所述第一情感信号。
20.根据权利要求19所述的机器人,其特征在于,所述处理单元具体用于:
根据所述第一用户的个性化因子信息,确定所述至少一种检测信息中每种检测信息的权重。
21.根据权利要求19所述的机器人,其特征在于,所述处理单元具体用于:
根据所述至少一种检测数据中每种检测数据的信息质量,确定所述至少一种检测信息中每种检测信息的权重。
22.根据权利要求14至21中任一项所述的机器人,其特征在于,所述处理单元还用于:
若所述第一用户拒绝所述响应,所述处理单元还用于:
通过所述至少一个传感器在所述第二时刻,获取至少一种验证信息;
根据所述至少一种验证信息确定所述第一用户的第三情感状态;
根据所述第三情感状态和所述第二情感状态之间的匹配度,调整所述第一情感预测模型,或者,调整所述第一用户的个性化因子信息,或者,调整所述第一情感预测模型和所述第一用户的个性化因子信息。
23.根据权利要求18至22中任一项所述的机器人,其特征在于,所述至少一个传感器包括:
声音传感器、图像传感器、位置传感器、加速度传感器、陀螺仪传感器、地磁传感器、红外线传感器、心电传感器、脉压传感器、皮肤电流传感器、汗液传感器及肌电流传感器。
24.根据权利要求15至23中任一项所述的机器人,其特征在于,所述会话场景信息包括以下信息中的至少一项:
第二用户的个性化因子信息、所述第二用户与所述第一用户的社会关系信息、以及所述第二用户与所述第一用户的历史交流数据;
其中,所述第二用户是与所述第一用户进行会话的一个或者多个用户。
25.根据权利要求15至24中任一项所述的机器人,其特征在于,所述外部环境信息包括以下信息中的至少一种:
天气信息、所述第一用户的地理位置信息、所述第一时刻和所述第二时刻。
26.根据权利要求14至25中任一项所述的机器人,其特征在于,所述第一情感预测模型为隐马尔可夫模型。
CN201710107006.2A 2017-02-27 2017-02-27 预测情感状态的方法和机器人 Active CN106956271B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201710107006.2A CN106956271B (zh) 2017-02-27 2017-02-27 预测情感状态的方法和机器人
EP18756593.2A EP3582123A4 (en) 2017-02-27 2018-02-24 EMOTIONAL STATUS PREDICTION AND ROBOT
PCT/CN2018/077151 WO2018153359A1 (zh) 2017-02-27 2018-02-24 预测情感状态的方法和机器人
US16/551,687 US11670324B2 (en) 2017-02-27 2019-08-26 Method for predicting emotion status and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710107006.2A CN106956271B (zh) 2017-02-27 2017-02-27 预测情感状态的方法和机器人

Publications (2)

Publication Number Publication Date
CN106956271A true CN106956271A (zh) 2017-07-18
CN106956271B CN106956271B (zh) 2019-11-05

Family

ID=59481150

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710107006.2A Active CN106956271B (zh) 2017-02-27 2017-02-27 预测情感状态的方法和机器人

Country Status (4)

Country Link
US (1) US11670324B2 (zh)
EP (1) EP3582123A4 (zh)
CN (1) CN106956271B (zh)
WO (1) WO2018153359A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633292A (zh) * 2017-09-29 2018-01-26 长春理工大学 一种基于量子结构的机器人情感空间建模方法
CN107871286A (zh) * 2017-07-20 2018-04-03 上海前隆信息科技有限公司 用户与联系人间亲密度判定方法/系统、存储介质及设备
CN108053826A (zh) * 2017-12-04 2018-05-18 泰康保险集团股份有限公司 用于人机交互的方法、装置、电子设备及存储介质
WO2018153359A1 (zh) * 2017-02-27 2018-08-30 华为技术有限公司 预测情感状态的方法和机器人
CN109121108A (zh) * 2018-08-01 2019-01-01 佛山市苔藓云链科技有限公司 一种基于物联网的感知控制系统
CN109240718A (zh) * 2018-09-27 2019-01-18 武汉旖旎科技有限公司 一种智能性格构建与分析系统及其工作方法
CN110587621A (zh) * 2019-08-30 2019-12-20 深圳智慧林网络科技有限公司 机器人、基于机器人的病人看护方法和可读存储介质
CN111128239A (zh) * 2018-10-30 2020-05-08 本田技研工业株式会社 情感推定装置
CN112270972A (zh) * 2020-10-22 2021-01-26 新华网股份有限公司 情感交流信息处理系统
CN116935478A (zh) * 2023-09-13 2023-10-24 深圳市格炎科技有限公司 一种智能手表的情感识别方法及系统

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014062730A1 (en) 2012-10-15 2014-04-24 Famous Industries, Inc. Efficient manipulation of surfaces in multi-dimensional space using energy agents
US10908929B2 (en) * 2012-10-15 2021-02-02 Famous Industries, Inc. Human versus bot detection using gesture fingerprinting
US10877780B2 (en) 2012-10-15 2020-12-29 Famous Industries, Inc. Visibility detection using gesture fingerprinting
US9648164B1 (en) * 2014-11-14 2017-05-09 United Services Automobile Association (“USAA”) System and method for processing high frequency callers
CN107293292A (zh) * 2016-03-31 2017-10-24 深圳光启合众科技有限公司 基于云端的设备及其操作方法
CN107030691B (zh) * 2017-03-24 2020-04-14 华为技术有限公司 一种看护机器人的数据处理方法及装置
WO2018179745A1 (ja) * 2017-03-31 2018-10-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10783329B2 (en) * 2017-12-07 2020-09-22 Shanghai Xiaoi Robot Technology Co., Ltd. Method, device and computer readable storage medium for presenting emotion
EP3811245A4 (en) 2018-06-19 2022-03-09 Ellipsis Health, Inc. MENTAL HEALTH ASSESSMENT SYSTEMS AND METHODS
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
JP2021163237A (ja) * 2020-03-31 2021-10-11 本田技研工業株式会社 レコメンドシステム、及びレコメンド方法
CN112083806B (zh) * 2020-09-16 2021-10-26 华南理工大学 一种基于多模态识别的自学习情感交互方法
CN113656635B (zh) * 2021-09-03 2024-04-09 咪咕音乐有限公司 视频彩铃合成方法、装置、设备及计算机可读存储介质
CN117283577B (zh) * 2023-09-19 2024-05-03 重庆宗灿科技发展有限公司 一种仿真陪护机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060149428A1 (en) * 2005-01-05 2006-07-06 Kim Jong H Emotion-based software robot for automobiles
JP2012115312A (ja) * 2010-11-29 2012-06-21 Equos Research Co Ltd 歩行支援装置、及び歩行支援プログラム
CN105930372A (zh) * 2016-04-12 2016-09-07 华南师范大学 基于多次反馈的情感机器人对话方法、系统以及机器人
CN106182032A (zh) * 2016-08-24 2016-12-07 陈中流 一种陪护机器人

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1895505A1 (en) * 2006-09-04 2008-03-05 Sony Deutschland GmbH Method and device for musical mood detection
CN101474481B (zh) 2009-01-12 2010-07-21 北京科技大学 情感机器人系统
CA2756289C (en) 2009-04-01 2016-02-02 Nicira Networks, Inc. Method and apparatus for implementing and managing virtual switches
KR101830767B1 (ko) * 2011-07-14 2018-02-22 삼성전자주식회사 사용자의 감정 인식 장치 및 방법
KR20130082701A (ko) * 2011-12-14 2013-07-22 한국전자통신연구원 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법
US9031293B2 (en) * 2012-10-19 2015-05-12 Sony Computer Entertainment Inc. Multi-modal sensor based emotion recognition and emotional interface
US9692839B2 (en) * 2013-03-13 2017-06-27 Arris Enterprises, Inc. Context emotion determination system
US20150314454A1 (en) 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
KR20160034243A (ko) 2013-03-15 2016-03-29 지보, 인코포레이티드 지속적인 동반 디바이스를 제공하기 위한 장치 및 방법들
US20150213002A1 (en) * 2014-01-24 2015-07-30 International Business Machines Corporation Personal emotion state monitoring from social media
GB2524505B (en) * 2014-03-24 2017-11-08 Toshiba Res Europe Ltd Voice conversion
USD746886S1 (en) 2014-05-23 2016-01-05 JIBO, Inc. Robot
US20170011640A1 (en) * 2015-07-08 2017-01-12 Genaro Rebolledo-Mendez System For Monitoring, Processing, Analyses And Storage Of Physiological Signals For Emotion Recognition
CN105605746A (zh) * 2016-03-09 2016-05-25 浙江奥乐智能系统工程有限公司 一种基于拟人情感的在线决策控制温湿度方法
CN106214163B (zh) * 2016-07-18 2019-12-13 北京科技大学 一种下肢畸形矫正术后康复的人工心理辅导装置
US10497360B2 (en) * 2017-02-21 2019-12-03 Sony Corporation Personalized assistance system based on emotion
CN106956271B (zh) * 2017-02-27 2019-11-05 华为技术有限公司 预测情感状态的方法和机器人

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060149428A1 (en) * 2005-01-05 2006-07-06 Kim Jong H Emotion-based software robot for automobiles
JP2012115312A (ja) * 2010-11-29 2012-06-21 Equos Research Co Ltd 歩行支援装置、及び歩行支援プログラム
CN105930372A (zh) * 2016-04-12 2016-09-07 华南师范大学 基于多次反馈的情感机器人对话方法、系统以及机器人
CN106182032A (zh) * 2016-08-24 2016-12-07 陈中流 一种陪护机器人

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11670324B2 (en) 2017-02-27 2023-06-06 Huawei Technologies Co., Ltd. Method for predicting emotion status and robot
WO2018153359A1 (zh) * 2017-02-27 2018-08-30 华为技术有限公司 预测情感状态的方法和机器人
CN107871286A (zh) * 2017-07-20 2018-04-03 上海前隆信息科技有限公司 用户与联系人间亲密度判定方法/系统、存储介质及设备
CN107633292A (zh) * 2017-09-29 2018-01-26 长春理工大学 一种基于量子结构的机器人情感空间建模方法
CN108053826B (zh) * 2017-12-04 2021-01-15 泰康保险集团股份有限公司 用于人机交互的方法、装置、电子设备及存储介质
CN108053826A (zh) * 2017-12-04 2018-05-18 泰康保险集团股份有限公司 用于人机交互的方法、装置、电子设备及存储介质
CN109121108A (zh) * 2018-08-01 2019-01-01 佛山市苔藓云链科技有限公司 一种基于物联网的感知控制系统
CN109240718A (zh) * 2018-09-27 2019-01-18 武汉旖旎科技有限公司 一种智能性格构建与分析系统及其工作方法
CN109240718B (zh) * 2018-09-27 2021-06-29 武汉旖旎科技有限公司 一种智能性格构建与分析系统及其工作方法
CN111128239A (zh) * 2018-10-30 2020-05-08 本田技研工业株式会社 情感推定装置
CN111128239B (zh) * 2018-10-30 2023-10-17 本田技研工业株式会社 情感推定装置
CN110587621A (zh) * 2019-08-30 2019-12-20 深圳智慧林网络科技有限公司 机器人、基于机器人的病人看护方法和可读存储介质
CN110587621B (zh) * 2019-08-30 2023-06-06 深圳智慧林网络科技有限公司 机器人、基于机器人的病人看护方法和可读存储介质
CN112270972A (zh) * 2020-10-22 2021-01-26 新华网股份有限公司 情感交流信息处理系统
CN116935478A (zh) * 2023-09-13 2023-10-24 深圳市格炎科技有限公司 一种智能手表的情感识别方法及系统
CN116935478B (zh) * 2023-09-13 2023-12-22 深圳市格炎科技有限公司 一种智能手表的情感识别方法及系统

Also Published As

Publication number Publication date
CN106956271B (zh) 2019-11-05
EP3582123A4 (en) 2020-01-15
US11670324B2 (en) 2023-06-06
WO2018153359A1 (zh) 2018-08-30
EP3582123A1 (en) 2019-12-18
US20190385066A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
CN106956271B (zh) 预测情感状态的方法和机器人
Serpush et al. Wearable sensor-based human activity recognition in the smart healthcare system
KR102166010B1 (ko) 얼굴인식을 이용한 인지장애 판단 방법 및 시스템
Meng et al. Towards online and personalized daily activity recognition, habit modeling, and anomaly detection for the solitary elderly through unobtrusive sensing
CN107153871B (zh) 基于卷积神经网络和手机传感器数据的跌倒检测方法
Doukas et al. Emergency fall incidents detection in assisted living environments utilizing motion, sound, and visual perceptual components
Wang et al. Fall detection based on dual-channel feature integration
CN109363659B (zh) 基于深度学习的心率监控方法、装置及存储介质
CN107773214A (zh) 一种最佳唤醒策略的方法、计算机可读介质和系统
JP2017520824A (ja) 共通特徴にわたる分類子の更新
US11270565B2 (en) Electronic device and control method therefor
Augustyniak et al. Graph-based representation of behavior in detection and prediction of daily living activities
JP2022120775A (ja) オンデバイスでの活動認識
Xu et al. Intelligent emotion detection method based on deep learning in medical and health data
Kelly et al. A multimodal smartphone sensor system for behaviour measurement and health status inference
US20220125359A1 (en) Systems and methods for automated monitoring of human behavior
Son Toward a proposed framework for mood recognition using LSTM recurrent neuron network
TW202133117A (zh) 虛擬化身臉部表情產生系統和虛擬化身臉部表情產生方法
Thiemjarus et al. Context Aware Sensing
Miyajima et al. Behavior signal processing for vehicle applications
Baig et al. Bio-inspired probabilistic model for crowd emotion detection
D’Aniello et al. Situation identification in smart wearable computing systems based on machine learning and Context Space Theory
Bouchard et al. Extracting generalizable spatial features from smart phones datasets
Olsen Detecting Human Emotions Using Smartphone Accelerometer Data
Wang et al. A case study: effect of wrist sensor displacement on HAR performance using LSTM and attention mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant