CN110837813A - 环境设备控制方法、装置、电子设备、存储介质 - Google Patents

环境设备控制方法、装置、电子设备、存储介质 Download PDF

Info

Publication number
CN110837813A
CN110837813A CN201911116111.8A CN201911116111A CN110837813A CN 110837813 A CN110837813 A CN 110837813A CN 201911116111 A CN201911116111 A CN 201911116111A CN 110837813 A CN110837813 A CN 110837813A
Authority
CN
China
Prior art keywords
strategy
emotion
member list
environmental
library
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911116111.8A
Other languages
English (en)
Other versions
CN110837813B (zh
Inventor
陈曲
张坤雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aiways Automobile Shanghai Co Ltd
Original Assignee
Aiways Automobile Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aiways Automobile Shanghai Co Ltd filed Critical Aiways Automobile Shanghai Co Ltd
Priority to CN201911116111.8A priority Critical patent/CN110837813B/zh
Publication of CN110837813A publication Critical patent/CN110837813A/zh
Application granted granted Critical
Publication of CN110837813B publication Critical patent/CN110837813B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Child & Adolescent Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Hospice & Palliative Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种环境设备控制方法、装置、电子设备、存储介质,环境设备至少包括显示设备、音频播放设备、温度控制设备、气味提供设备、灯光设备中的一项或多项,环境设备控制包括:S110:基于采集的生物特征识别预定义空间内的多个对象的身份标识;S120:基于采集的生物特征识别各身份标识指示的对象的情绪数据;S130:基于情绪数据生成待安抚成员列表,待安抚成员列表包括情绪数据符合预定义阈值的对象的身份标识及情绪数据;S140:基于待安抚成员列表自策略库中调用或调整环境设备的控制策略;其中,情绪数据基于实时采集的生物特征识实时更新,且待安抚成员列表所包含对象随实时更新的情绪数据实时增减。本发明多人情绪安抚的环境设备控制。

Description

环境设备控制方法、装置、电子设备、存储介质
技术领域
本发明涉及设备控制领域,尤其涉及一种环境设备控制方法、装置、电子设备、存储介质。
背景技术
情感计算,即机器识别、理解、表达情感的能力,可以用于弥补许多场景中的如下情况,即人由于注意力的限制,无法对一个或多个人的情绪进行长时间识别和个性化的关怀。例如,需要实时关怀情绪但同时有要做其他事情,比如大人在开车的同时要照顾后排儿童;又如有些时候需要关怀的人比较多但无法同时关注,比如在幼儿园或者学校,老师无法在较短时间内识别并照顾到所有人的情绪。
现有的情绪识别流程可以概括为如下步骤:1)检测场景中所有人脸;2)人脸依次输入情绪识别模型;3)通过单模态、多模态模型,得到单个人的情绪,是开心、悲伤、愤怒、厌恶等情绪中的一种;或者群体的情绪,是正面、负面、正常中的一种。而现有基于情绪的人员安抚流程可以概括为以下流程:1)根据识别出来的个人情绪的程度,设定一个阈值;2)在低于或高于这个阈值的时候,进行安抚策略,如播放音乐;3)逐个策略尝试,直到情绪重新恢复正常。
从上面的流程中可以看到,现有情绪识别及人员安抚系统,存在以下几个问题:1)无法针对每个人、不同情绪及程度个性化定制策略;2)无法仅针对人群中的部分人,指定安抚策略;3)仅依次调用预设定的策略,无法即时分析和调整策略,安抚效果在不同场景下泛化能力较差。
发明内容
本发明为了克服上述相关技术存在的缺陷,提供一种环境设备控制方法、装置、电子设备、存储介质,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题。
根据本发明的一个方面,提供一种环境设备控制方法,所述环境设备至少包括显示设备、音频播放设备、温度控制设备、气味提供设备、灯光设备中的一项或多项,所述环境设备控制包括:
步骤S110:基于采集的生物特征识别预定义空间内的多个对象的身份标识;
步骤S120:基于采集的生物特征识别各身份标识指示的对象的情绪数据;
步骤S130:基于所述情绪数据生成待安抚成员列表,所述待安抚成员列表包括情绪数据符合预定义阈值的对象的身份标识及情绪数据;
步骤S140:基于所述待安抚成员列表自策略库中调用或调整环境设备的控制策略;
其中,所述情绪数据基于实时采集的生物特征识实时更新,且所述待安抚成员列表所包含对象随所述实时更新的情绪数据实时增减。
可选地,所述身份标识包括人脸标识及声纹标识,所述步骤S110包括:
基于采集的视频数据获取人脸特征;
根据所述人脸特征与一人脸特征库进行匹配,以识别该人脸特征对应的人脸标识;
若所述人脸特征库中不存在该人脸特征,则将该人脸特征与一新人脸标识关联地增加至该人脸特征库;
基于采集的视频数据获取声纹特征;
根据所述声纹特征与一声纹特征库进行匹配,以识别该声纹特征对应的声纹标识;
根据视频人脸定位及声源定位将所述声纹标识与所述人脸标识绑定。
可选地,所述步骤S120包括:
对每一身份标识指示的对象:
将采集的生物特征输入经训练的多分类网络模型;
所述多分类网络模型输出情绪类别;
根据所述情绪类别确定情绪的正负;
根据预定义时间内该情绪类别所占时间确定该情绪的情绪程度,
其中,所述情绪数据包括情绪类别、情绪正负及情绪程度。
可选地,所述步骤S140包括:
对所述待安抚成员列表中的每一对象,若该对象的身份标识关联一个性化策略库,则获取该个性化策略库,若该对象的身份标识未关联一个性化策略库,则获取默认策略库,作为该对象的身份标识关联的个性化策略库;
对待安抚成员列表中的每一对象,获得该对象的身份标识关联的个性化策略库中某一策略的特征向量,该特征向量包含至少一环境设备的控制策略,并获得该对象的个性化策略库中所有策略的特征向量组成的策略向量;
将待安抚成员列表中的每一对象的情绪程度作为该对象的权重;
将待安抚成员列表中的每一对象的策略向量及权重输入一群体决策算法,并根据所述群体决策算法的输出确定一环境设备的控制策略。
可选地,所述步骤S140之后还包括:
执行所述环境设备的控制策略,将所述待安抚成员列表中的每一对象的情绪程度降低的分值作为该对象对该环境设备的控制策略的评分,所述评分用于更新所述待安抚成员列表中各对象的个性化策略库,其中,使用协同过滤算法更新所述待安抚成员列表中各对象的个性化策略库。
可选地,
所述将待安抚成员列表中的每一对象的策略向量及权重输入一群体决策算法,并根据所述群体决策算法的输出确定一环境设备的控制策略包括:
对待安抚成员列表中的每一对象,获得该对象的策略向量,策略向量的每个分量是策略库中某一个策略的特征向量;
根据待安抚成员列表中的各对象的权重,对各对象的策略向量进行加权求和;
输出加权求和过的策略向量中模最大的分量,根据该特征向量获取对应的环境设备的控制策略。
可选地,所述预定义空间为车内空间。
根据本发明的又一方面,还提供一种环境设备控制装置,所述环境设备至少包括显示设备、音频播放设备、温度控制设备、气味提供设备、灯光设备中的一项或多项,所述环境设备装置包括:
身份识别模块,用于基于采集的生物特征识别预定义空间内的多个对象的身份标识;
情绪识别模块,用于基于采集的生物特征识别各身份标识指示的对象的情绪数据;
列表生成模块,用于基于所述情绪数据生成待安抚成员列表,所述待安抚成员列表包括情绪数据符合预定义阈值的对象的身份标识及情绪数据;
策略确定模块,用于基于所述待安抚成员列表自策略库中调用或调整环境设备的控制策略;
其中,所述情绪数据基于实时采集的生物特征识实时更新,且所述待安抚成员列表所包含对象随所述实时更新的情绪数据实时增减。
根据本发明的又一方面,还提供一种电子设备,所述电子设备包括:处理器;存储介质,其上存储有计算机程序,所述计算机程序被所述处理器运行时执行如上所述的步骤。
根据本发明的又一方面,还提供一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如上所述的步骤。
相比现有技术,本发明的优势在于:
1)针对现有技术中存在的安抚效果判断指标不明确、相邻多次判断结果出现矛盾的情况,本发明可以基于在给定时间段内负面情绪占比判断正负情绪。
2)克服现有安抚系统无法针对每个人、或所有人、或部分人的情绪来个性化定制安抚策略的问题,本发明可以根据任意数量人员、不同情绪及程度来个性化定制安抚策略。
3)克服现有系统仅能调用预设定的策略情况,本发明可以根据情绪变化、人员增减等即时更新策略。
附图说明
通过参照附图详细描述其示例实施方式,本发明的上述和其它特征及优点将变得更加明显。
图1示出了根据本发明实施例的环境设备控制方法的流程图。
图2示出了应用本发明具体实施例的身份识别的流程图。
图3示出了应用本发明具体实施例的情绪识别的流程图。
图4示出了应用本发明具体实施例的策略确定的流程图。
图5示出了本发明实施例的环境设备控制装置的示意图。
图6示出本发明示例性实施例中一种计算机可读存储介质示意图。
图7示出本发明示例性实施例中一种电子设备示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此,实际执行的顺序有可能根据实际情况改变。
在本发明的各个实施例中,所述环境设备至少包括显示设备、音频播放设备、温度控制设备、气味提供设备、灯光设备中的一项或多项。本发明可以控制显示设备播放的视频内容、音频播放设备的播放内容及音量、温度控制设备控制的温度、气味提供设备散发的气味设定(包括气味类型、气味散播方向、气味浓度等)、灯光设备的灯光参数(包括灯光的开启关闭、灯光的色温、灯光的亮度、灯光的照射范围等),本发明并非以此为限制。下述的“策略库”可以包括以上一个或多个设备的控制策略,一个示意性的策略库可以包括显示设备播放动画,温度控制设备控制温度为26摄氏度,灯光设备的灯光亮度调暗。
在本发明的各个实施例中,所述预定义空间可以是车内空间、教室等封闭空间内,但本发明并非以此为限制。
图1出了根据本发明实施例的环境设备控制方法的流程图。所述环境设备控制方法包括如下步骤:
步骤S110:基于采集的生物特征识别预定义空间内的多个对象的身份标识;
步骤S120:基于采集的生物特征识别各身份标识指示的对象的情绪数据;
步骤S130:基于所述情绪数据生成待安抚成员列表,所述待安抚成员列表包括情绪数据符合预定义阈值的对象的身份标识及情绪数据;
步骤S140:基于所述待安抚成员列表自策略库中调用或调整环境设备的控制策略;
其中,所述情绪数据基于实时采集的生物特征识实时更新,且所述待安抚成员列表所包含对象随所述实时更新的情绪数据实时增减。
在本发明的示例性实施方式的环境设备控制方法中,一方面,针对现有技术中存在的安抚效果判断指标不明确、相邻多次判断结果出现矛盾的情况,本发明可以基于在给定时间段内负面情绪占比判断正负情绪;另一方面,克服现有安抚系统无法针对每个人、或所有人、或部分人的情绪来个性化定制安抚策略的问题,本发明可以根据任意数量人员、不同情绪及程度来个性化定制安抚策略;再一方面,克服现有系统仅能调用预设定的策略情况,本发明可以根据情绪变化、人员增减等即时更新策略。
在本发明的一些实施例中,所述身份标识包括人脸标识及声纹标识,所述步骤S110的具体实现可以参见图2,图2示出了应用本发明具体实施例的身份识别的流程图。图2共示出如下步骤:
步骤S111:基于采集的视频数据获取人脸特征;
步骤S112:根据所述人脸特征与一人脸特征库进行匹配,以识别该人脸特征对应的人脸标识;
步骤S113:若所述人脸特征库中不存在该人脸特征,则将该人脸特征与一新人脸标识关联地增加至该人脸特征库;
步骤S114:基于采集的视频数据获取声纹特征;
步骤S115:根据所述声纹特征与一声纹特征库进行匹配,以识别该声纹特征对应的声纹标识;
步骤S115:根据视频人脸定位及声源定位将所述声纹标识与所述人脸标识绑定。
具体而言,上述步骤S110可以通过KCF(Kernel Correlation Filter核相关滤波算法)、KF(卡尔曼滤波跟踪算法)、EKF(ExtendedKalmanFilter,即扩展卡尔曼滤波器)、CFNet(一种目标跟踪算法)等多种算法实现生物特征的追踪,本发明并非以此为限制。
具体而言,上述身份标识、人脸标识及声纹标识可以是由系统随分配的ID,以唯一标识对应的对象、人脸特征及声纹特征。在一些变化例中,人脸标识可以是由人脸特征经由数据压缩算法获得的字符串;声纹标识可以是由声纹特征经由数据压缩算法获得的字符串;身份标识可以是通过人脸标识和声纹标识经由数据压缩或数据加密等数据转换步骤获得的。本发明并非以此为限制。
在本发明的一些实施例中,所述步骤S120的具体实现可以参见图3,图3示出了应用本发明具体实施例的情绪识别的流程图。图3共示出如下步骤:
步骤S121:对每一身份标识指示的对象:
步骤S122:将采集的生物特征输入经训练的多分类网络模型;
步骤S123:所述多分类网络模型输出情绪类别;
步骤S124:根据所述情绪类别确定情绪的正负;
步骤S125:根据预定义时间内该情绪类别所占时间确定该情绪的情绪程度,其中,所述情绪数据包括情绪类别、情绪正负及情绪程度。
具体而言,采集的生物特征(如人脸图像、声纹特征等)经预处理后送入预训练的多分类网络,得到情绪类别。其中多分类网络的backbone(网络的骨干)可以是Mobilenet,Xception,Shufflenet等任意一种神经网络,损失函数可以是Centerloss、Arcloss,Tripletloss等。
具体而言,情绪的正负可以根据预设的映射表来确定,例如,高兴为正面情绪,悲伤、愤怒为负面情绪,本发明并非以此为限制。
具体而言,步骤S125可以根据当前时间之间N(N为大于1的整数)帧中该情绪类别所占帧数,确定情绪程度,本发明并非以此限制。
在上述实施例的一些变化例中,根据生物特征识别出的对象年龄、性别等数据也可以输入至多分类网络模型,由此,增加多分类网络模型的输出的准确率。
由此,当情绪由负变为正(或为负的情绪程度变为0)时,则将该对象自待安抚成员列表移除,若情绪由正变为负时,则将该对象增加至待安抚成员列表。
在本发明的一些实施例中,所述步骤S140的具体实现可以参见图4,图4示出了应用本发明具体实施例的策略确定的流程图。图4共示出如下步骤:
步骤S141:对所述待安抚成员列表中的每一对象,若该对象的身份标识关联一个性化策略库,则获取该个性化策略库,若该对象的身份标识未关联一个性化策略库,则获取默认策略库,作为该对象的身份标识关联的个性化策略库。
步骤S142:利用协同过滤算法,更新所述待安抚成员列表中各对象的个性化策略库(步骤S142在一些实施例中,可以省略)。
步骤S143:对待安抚成员列表中的每一对象,获得该对象的身份标识关联的个性化策略库中某一策略的特征向量,该特征向量包含至少一环境设备的控制策略,并获得该对象的个性化策略库中所有策略的特征向量组成的策略向量。
步骤S144:将待安抚成员列表中的每一对象的情绪程度作为该对象的权重。
步骤S145:将待安抚成员列表中的每一对象的策略向量及权重输入一群体决策算法,并根据所述群体决策算法的输出确定一环境设备的控制策略。
在上述实施例中,所述步骤S140之后还包括如下步骤:执行所述环境设备的控制策略,将所述待安抚成员列表中的每一对象的情绪程度降低的分值作为该对象对该环境设备的控制策略的评分,所述评分用于所述协同过滤算法。
具体而言,上述步骤S142即通过各对象对个性化策略库中的环境设备的控制策略的评分来初步增加或删除各个对象的策略库。然后有两种方法来进一步更新策略库,分别根据对象相似度和策略相似度。一种方法是根据情绪类别、正负、程度确定各对象之间的相似度,由此,可根据相似度较高的两个对象的个性化策略库的并集更新为该两个对象的个性化策略库(当存在矛盾策略时,可仅保留该对象本身的个性化策略库中的策略),本发明并非以此为限制。例如,对象A的个性化策略库包括显示设备的策略1,温度控制设备的策略2,对象B的个性化策略库包括音频播放设备的策略3,灯光设备的策略4以及温度控制设备的策略5,对象C的个性化策略库包括气味提供设备的策略6。根据步骤S142的协同过滤算法确定对象A和对象B相似,且对象A与对象C不相似,对象B与对象C不相似,则可以根据对象A和对象B个性化策略库的并集更新为该两个对象的个性化策略库,例如,对象A的个性化策略库包括显示设备的策略1,温度控制设备的策略2,音频播放设备的策略3,灯光设备的策略4(删除了矛盾的温度控制设备的策略5);对象B的个性化策略库包括显示设备的策略1,温度控制设备的策略5,音频播放设备的策略3,灯光设备的策略4(删除了矛盾的温度控制设备的策略2),以上仅仅是示意性地描述本发明的实现方式,在此不予赘述。另一种方法是根据每条策略的特征向量的相似度来确定各个策略之间的相似度。由此,可根据和当前策略相似度较高的前N个策略来把策略加入到对应的对象的个性化策略库中(当存在矛盾策略时,可仅保留该对象本身的个性化策略库中的策略),本发明并非以此为限制。例如,策略a存在于对象A的个性化策略库中,和a相似的策略有b和c,b存在于对象B的策略库中,c存在于对象C的策略库中。则把b,c加入A的策略库。
具体而言,默认策略库是为解决冷启动问题,由系统按不同情绪设置了对应的默认策略库。
在上述实施例中,所述将待安抚成员列表中的每一对象的策略向量及权重输入一群体决策算法,并根据所述群体决策算法的输出确定一环境设备的控制策略可以包括如下步骤:对待安抚成员列表中的每一对象,获得该对象的策略向量,策略向量的每个分量是策略库中某一个策略的特征向量;根据待安抚成员列表中的各对象的权重,对各对象的策略向量进行加权求和;输出加权求和过的策略向量中模最大的分量,根据该特征向量获取对应的环境设备的控制策略。
由此,本发明不仅能够识别情绪,还能识别每种情绪类别的程度,提高了对情绪变化的敏感程度。其次,本发明能够适用于任意数量人员的群体安抚。再次,本发明能够根据情绪的主体、程度、时间等多维特征来提供、优化以及即时变更对应的安抚策略,避免了手动调整安抚策略。
以上仅仅是示意性地描述本发明的多个实现方式,上述各实现方式可以单独或组合实现,本发明并非以此为限制。
在本发明的各个实施例中,所述环境设备至少包括显示设备、音频播放设备、温度控制设备、气味提供设备、灯光设备中的一项或多项。本发明可以控制显示设备播放的视频内容、音频播放设备的播放内容及音量、温度控制设备控制的温度、气味提供设备散发的气味设定(包括气味类型、气味散播方向、气味浓度等)、灯光设备的灯光参数(包括灯光的开启关闭、灯光的色温、灯光的亮度、灯光的照射范围等),本发明并非以此为限制。下述的“策略库”可以包括以上一个或多个设备的控制策略,一个示意性的策略库可以包括显示设备播放动画,温度控制设备控制温度为26摄氏度,灯光设备的灯光亮度调暗。
在本发明的各个实施例中,所述预定义空间可以是车内空间、教室等封闭空间内,但本发明并非以此为限制。
图5示出了根据本发明实施例的环境设备控制装置的模块图。环境设备控制装置300包括身份识别模块210、情绪识别模块220、列表生成模块230及策略确定模块240。
身份识别模块210用于基于采集的生物特征识别预定义空间内的多个对象的身份标识;
情绪识别模块220用于基于采集的生物特征识别各身份标识指示的对象的情绪数据;
列表生成模块230用于基于所述情绪数据生成待安抚成员列表,所述待安抚成员列表包括情绪数据符合预定义阈值的对象的身份标识及情绪数据;
策略确定模块240用于基于所述待安抚成员列表自策略库中调用或调整环境设备的控制策略;
其中,所述情绪数据基于实时采集的生物特征识实时更新,且所述待安抚成员列表所包含对象随所述实时更新的情绪数据实时增减。
在本发明的示例性实施方式的环境设备控制装置中,一方面,针对现有技术中存在的安抚效果判断指标不明确、相邻多次判断结果出现矛盾的情况,本发明可以基于在给定时间段内负面情绪占比判断正负情绪;另一方面,克服现有安抚系统无法针对每个人、或所有人、或部分人的情绪来个性化定制安抚策略的问题,本发明可以根据任意数量人员、不同情绪及程度来个性化定制安抚策略;再一方面,克服现有系统仅能调用预设定的策略情况,本发明可以根据情绪变化、人员增减等即时更新策略。
图5仅仅是示意性的示出本发明提供的环境设备控制装置200,在不违背本发明构思的前提下,模块的拆分、合并、增加都在本发明的保护范围之内。本发明提供的环境设备控制装置200可以由软件、硬件、固件、插件及他们之间的任意组合来实现,本发明并非以此为限。
在本发明的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被例如处理器执行时可以实现上述任意一个实施例中所述环境设备控制方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述环境设备控制方法部分中描述的根据本发明各种示例性实施方式的步骤。
参考图6示,描述了根据本发明的实施方式的用于实现上述方法的程序产品700,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在租户计算设备上执行、部分地在租户设备上执行、作为一个独立的软件包执行、部分在租户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到租户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
在本发明的示例性实施例中,还提供一种电子设备,该电子设备可以包括处理器,以及用于存储所述处理器的可执行指令的存储器。其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一个实施例中所述环境设备控制方法的步骤。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图7描述根据本发明的这种实施方式的电子设备500。图7示的电子设备500仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7示,电子设备500以通用计算设备的形式表现。电子设备500的组件可以包括但不限于:至少一个处理单元510、至少一个存储单元520、连接不同系统组件(包括存储单元520和处理单元510)的总线530、显示单元540等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元510执行,使得所述处理单元510执行本说明书上述环境设备控制方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元510可以执行如图1至图4所示的步骤。
所述存储单元520可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)5201和/或高速缓存存储单元5202,还可以进一步包括只读存储单元(ROM)5203。
所述存储单元520还可以包括具有一组(至少一个)程序模块5205的程序/实用工具5204,这样的程序模块5205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线530可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备500也可以与一个或多个外部设备600(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得租户能与该电子设备500交互的设备通信,和/或与使得该电子设备500能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口550进行。并且,电子设备500还可以通过网络适配器560与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器560可以通过总线530与电子设备500的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备500使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明实施方式的上述环境设备控制方法。
相比现有技术,本发明的优势在于:
1)针对现有技术中存在的安抚效果判断指标不明确、相邻多次判断结果出现矛盾的情况,本发明可以基于在给定时间段内负面情绪占比判断正负情绪。
2)克服现有安抚系统无法针对每个人、或所有人、或部分人的情绪来个性化定制安抚策略的问题,本发明可以根据任意数量人员、不同情绪及程度来个性化定制安抚策略。
3)克服现有系统仅能调用预设定的策略情况,本发明可以根据情绪变化、人员增减等即时更新策略。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由所附的权利要求指出。

Claims (10)

1.一种环境设备控制方法,其特征在于,所述环境设备至少包括显示设备、音频播放设备、温度控制设备、气味提供设备、灯光设备中的一项或多项,所述环境设备控制包括:
步骤S110:基于采集的生物特征识别预定义空间内的多个对象的身份标识;
步骤S120:基于采集的生物特征识别各身份标识指示的对象的情绪数据;
步骤S130:基于所述情绪数据生成待安抚成员列表,所述待安抚成员列表包括情绪数据符合预定义阈值的对象的身份标识及情绪数据;
步骤S140:基于所述待安抚成员列表自策略库中调用或调整环境设备的控制策略;
其中,所述情绪数据基于实时采集的生物特征识实时更新,且所述待安抚成员列表所包含对象随所述实时更新的情绪数据实时增减。
2.如权利要求1所述的环境设备控制方法,其特征在于,所述身份标识包括人脸标识及声纹标识,所述步骤S110包括:
基于采集的视频数据获取人脸特征;
根据所述人脸特征与一人脸特征库进行匹配,以识别该人脸特征对应的人脸标识;
若所述人脸特征库中不存在该人脸特征,则将该人脸特征与一新人脸标识关联地增加至该人脸特征库;
基于采集的视频数据获取声纹特征;
根据所述声纹特征与一声纹特征库进行匹配,以识别该声纹特征对应的声纹标识;
根据视频人脸定位及声源定位将所述声纹标识与所述人脸标识绑定。
3.如权利要求1所述的环境设备控制方法,其特征在于,所述步骤S120包括:
对每一身份标识指示的对象:
将采集的生物特征输入经训练的多分类网络模型;
所述多分类网络模型输出情绪类别;
根据所述情绪类别确定情绪的正负;
根据预定义时间内该情绪类别所占时间确定该情绪的情绪程度,
其中,所述情绪数据包括情绪类别、情绪正负及情绪程度。
4.如权利要求1所述的环境设备控制方法,其特征在于,所述步骤S140包括:
对所述待安抚成员列表中的每一对象,若该对象的身份标识关联一个性化策略库,则获取该个性化策略库,若该对象的身份标识未关联一个性化策略库,则获取默认策略库,作为该对象的身份标识关联的个性化策略库;
对待安抚成员列表中的每一对象,获得该对象的身份标识关联的个性化策略库中某一策略的特征向量,该特征向量包含至少一环境设备的控制策略,并获得该对象的个性化策略库中所有策略的特征向量组成的策略向量;
将待安抚成员列表中的每一对象的情绪程度作为该对象的权重;
将待安抚成员列表中的每一对象的策略向量及权重输入一群体决策算法,并根据所述群体决策算法的输出确定一环境设备的控制策略。
5.如权利要求4所述的环境设备控制方法,其特征在于,所述步骤S140之后还包括:
执行所述环境设备的控制策略,将所述待安抚成员列表中的每一对象的情绪程度降低的分值作为该对象对该环境设备的控制策略的评分,所述评分用于更新所述待安抚成员列表中各对象的个性化策略库,其中,使用协同过滤算法更新所述待安抚成员列表中各对象的个性化策略库。
6.如权利要求4所述的环境设备控制方法,其特征在于,所述将待安抚成员列表中的每一对象的策略向量及权重输入一群体决策算法,并根据所述群体决策算法的输出确定一环境设备的控制策略包括:
对待安抚成员列表中的每一对象,获得该对象的策略向量,策略向量的每个分量是策略库中某一个策略的特征向量;
根据待安抚成员列表中的各对象的权重,对各对象的策略向量进行加权求和;
输出加权求和过的策略向量中模最大的分量,根据该特征向量获取对应的环境设备的控制策略。
7.如权利要求1至6任一项所述的环境设备控制方法,其特征在于,所述预定义空间为车内空间。
8.一种环境设备控制装置,其特征在于,所述环境设备至少包括显示设备、音频播放设备、温度控制设备、气味提供设备、灯光设备中的一项或多项,所述环境设备装置包括:
身份识别模块,用于基于采集的生物特征识别预定义空间内的多个对象的身份标识;
情绪识别模块,用于基于采集的生物特征识别各身份标识指示的对象的情绪数据;
列表生成模块,用于基于所述情绪数据生成待安抚成员列表,所述待安抚成员列表包括情绪数据符合预定义阈值的对象的身份标识及情绪数据;
策略确定模块,用于基于所述待安抚成员列表自策略库中调用或调整环境设备的控制策略;
其中,所述情绪数据基于实时采集的生物特征识实时更新,且所述待安抚成员列表所包含对象随所述实时更新的情绪数据实时增减。
9.一种电子设备,其特征在于,所述电子设备包括:
处理器;
存储器,其上存储有计算机程序,所述计算机程序被所述处理器运行时执行如权利要求1至7任一项所述的环境设备控制方法。
10.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至7任一项所述的环境设备控制方法。
CN201911116111.8A 2019-11-14 2019-11-14 环境设备控制方法、装置、电子设备、存储介质 Active CN110837813B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911116111.8A CN110837813B (zh) 2019-11-14 2019-11-14 环境设备控制方法、装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911116111.8A CN110837813B (zh) 2019-11-14 2019-11-14 环境设备控制方法、装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN110837813A true CN110837813A (zh) 2020-02-25
CN110837813B CN110837813B (zh) 2023-01-03

Family

ID=69575073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911116111.8A Active CN110837813B (zh) 2019-11-14 2019-11-14 环境设备控制方法、装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN110837813B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183457A (zh) * 2020-10-19 2021-01-05 上海汽车集团股份有限公司 车内氛围灯控制方法、装置、设备及可读存储介质
CN114512144A (zh) * 2022-01-28 2022-05-17 中国人民公安大学 一种识别恶意语音信息的方法、装置、介质和设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009208727A (ja) * 2008-03-06 2009-09-17 Denso Corp 自動車用ユーザーもてなしシステム
US20130030645A1 (en) * 2011-07-28 2013-01-31 Panasonic Corporation Auto-control of vehicle infotainment system based on extracted characteristics of car occupants
CN103823908A (zh) * 2014-03-21 2014-05-28 北京飞流九天科技有限公司 基于用户偏好的内容推荐方法和服务器
US20140207777A1 (en) * 2013-01-22 2014-07-24 Salesforce.Com, Inc. Computer implemented methods and apparatus for identifying similar labels using collaborative filtering
CN106361356A (zh) * 2016-08-24 2017-02-01 北京光年无限科技有限公司 情绪监控和预警方法及系统
CN107423351A (zh) * 2017-05-24 2017-12-01 维沃移动通信有限公司 一种信息处理方法及电子设备
WO2018147838A1 (en) * 2017-02-08 2018-08-16 Lin Zhuohua Machine learning for olfactory mood alteration
CN109376633A (zh) * 2018-10-15 2019-02-22 北京车联天下信息技术有限公司 一种儿童安抚方法以及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009208727A (ja) * 2008-03-06 2009-09-17 Denso Corp 自動車用ユーザーもてなしシステム
US20130030645A1 (en) * 2011-07-28 2013-01-31 Panasonic Corporation Auto-control of vehicle infotainment system based on extracted characteristics of car occupants
US20140207777A1 (en) * 2013-01-22 2014-07-24 Salesforce.Com, Inc. Computer implemented methods and apparatus for identifying similar labels using collaborative filtering
CN103823908A (zh) * 2014-03-21 2014-05-28 北京飞流九天科技有限公司 基于用户偏好的内容推荐方法和服务器
CN106361356A (zh) * 2016-08-24 2017-02-01 北京光年无限科技有限公司 情绪监控和预警方法及系统
WO2018147838A1 (en) * 2017-02-08 2018-08-16 Lin Zhuohua Machine learning for olfactory mood alteration
CN107423351A (zh) * 2017-05-24 2017-12-01 维沃移动通信有限公司 一种信息处理方法及电子设备
CN109376633A (zh) * 2018-10-15 2019-02-22 北京车联天下信息技术有限公司 一种儿童安抚方法以及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李卓远: ""基于协同过滤和音乐情绪的音乐推荐系统研究"", 《工业控制计算机》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183457A (zh) * 2020-10-19 2021-01-05 上海汽车集团股份有限公司 车内氛围灯控制方法、装置、设备及可读存储介质
CN114512144A (zh) * 2022-01-28 2022-05-17 中国人民公安大学 一种识别恶意语音信息的方法、装置、介质和设备
CN114512144B (zh) * 2022-01-28 2024-05-17 中国人民公安大学 一种识别恶意语音信息的方法、装置、介质和设备

Also Published As

Publication number Publication date
CN110837813B (zh) 2023-01-03

Similar Documents

Publication Publication Date Title
US10977452B2 (en) Multi-lingual virtual personal assistant
US20210081056A1 (en) Vpa with integrated object recognition and facial expression recognition
US9299268B2 (en) Tagging scanned data with emotional tags, predicting emotional reactions of users to data, and updating historical user emotional reactions to data
US11705096B2 (en) Autonomous generation of melody
US11140446B2 (en) Sensitivity assessment for media production using artificial intelligence
US20200105267A1 (en) Processing speech signals in voice-based profiling
Yang et al. Benchmarking commercial emotion detection systems using realistic distortions of facial image datasets
US20160071024A1 (en) Dynamic hybrid models for multimodal analysis
CN109871807B (zh) 人脸图像处理方法和装置
CN110837813B (zh) 环境设备控制方法、装置、电子设备、存储介质
CN110390034A (zh) 电子设备和用于控制该电子设备的方法
US11602287B2 (en) Automatically aiding individuals with developing auditory attention abilities
Araño et al. When old meets new: emotion recognition from speech signals
KR20180057489A (ko) 감정을 생성하여 표현하는 로봇 시스템과, 그 시스템에서의 감정 생성 및 표현 방법
da Silva et al. Recognition of affective and grammatical facial expressions: a study for Brazilian sign language
Potapova et al. Multimodal perception of aggressive behavior
Darekar et al. A hybrid meta-heuristic ensemble based classification technique speech emotion recognition
Erkoç et al. Skeleton-based personality recognition using Laban movement analysis
CN101558607A (zh) 环境系统以及控制环境系统的方法
US20210402611A1 (en) Information processing system and information processing method
KR102486806B1 (ko) 인공지능에 기반하여 시놉시스 텍스트를 분석하고 시청률을 예측하는 서버
CN117795551A (zh) 用于自动捕捉和处理用户图像的方法和系统
Chaudhari et al. Emotion recognition system via facial expressions and speech using machine learning and deep learning techniques
JP7268292B2 (ja) コンテンツ改変装置、コンテンツ改変方法及びプログラム
Spyrou et al. A non-linguistic approach for human emotion recognition from speech

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PP01 Preservation of patent right

Effective date of registration: 20230131

Granted publication date: 20230103

PP01 Preservation of patent right
PD01 Discharge of preservation of patent

Date of cancellation: 20240108

Granted publication date: 20230103

PD01 Discharge of preservation of patent
PP01 Preservation of patent right

Effective date of registration: 20240227

Granted publication date: 20230103

PP01 Preservation of patent right