CN108898058A - 心理活动的识别方法、智能领带及存储介质 - Google Patents
心理活动的识别方法、智能领带及存储介质 Download PDFInfo
- Publication number
- CN108898058A CN108898058A CN201810528709.7A CN201810528709A CN108898058A CN 108898058 A CN108898058 A CN 108898058A CN 201810528709 A CN201810528709 A CN 201810528709A CN 108898058 A CN108898058 A CN 108898058A
- Authority
- CN
- China
- Prior art keywords
- psychological activity
- negotiation
- psychological
- recognition methods
- negotiator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种心理活动的识别方法,包括以下步骤:智能领带通过摄像头采集谈判对象的面部表情,生成面部表情图像;对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息;将所述心理活动信息通过耳机传送至谈判者处,其中,所述谈判者与所述谈判对象为谈判双方。本发明还公开了一种智能领带及计算机可读存储介质。本发明可以在商务谈判中,准确地识别谈判对象的心理活动信息,从而及时调整谈判策略,使得商务谈判可以向有利于谈判者的方向进行。
Description
技术领域
本发明涉及微表情识别技术领域,尤其涉及一种心理活动的识别方法、智能领带及计算机可读存储介质。
背景技术
人在不同的心理状况下,会呈现出不同的面部表情和肢体动作。例如,当一个人提高右边的眉毛,则表示怀疑;鼻孔外翻,嘴唇紧抿,表示有无法控制的怒气;下巴扬起,嘴角下垂表自责;单眼微眯,单侧嘴角微挑,表不屑、轻蔑等。与常规表情不同,微表情是一种人无法主观控制的微小表情。因此,观察微表情来判断真实心理状态在公安审讯、心理疾病诊治以及商业谈判等领域具有潜在且重要的应用价值。然而微表情的识别并不容易,主要难点就在于:持续时间短;动作幅度小。即使受过专业训练的人员,其识别准确率也不高。
发明内容
本发明的主要目的在于提供一种心理活动的识别方法、智能领带及计算机可读存储介质,旨在商务谈判中,如何准确识别谈判对象的心理活动的技术问题。
为实现上述目的,本发明提供一种心理活动的识别方法,包括以下步骤:
智能领带通过摄像头采集谈判对象的面部表情,生成面部表情图像;
对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处,其中,所述谈判者与所述谈判对象为谈判双方。
优选地,所述对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息的步骤包括:
对所述面部表情图像进行逐帧分析,根据表情变化获取到所述谈判对象的每个表情;
统计所述每个表情的持续时间、出现的顺序和次数以及表情变化趋势;
根据所述每个表情的持续时间、出现的顺序和次数以及表情变化趋势,生成所述谈判对象的心理活动信息。
优选地,所述所述心理活动的识别方法还包括:
所述智能领带通过摄像头采集谈判对象的肢体动作,生成肢体动作信息;
对所述面部表情图像以及所述肢体动作信息识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处。
优选地,所述所述智能领带通过摄像头采集谈判对象的肢体动作,生成肢体动作信息的步骤之后,还包括:
对所述肢体动作信息识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处。
优选地,所述将所述心理活动信息通过耳机传送至谈判者处的步骤包括:
将所述心理活动信息转为语音信息,并通过耳机播报至所述谈判者处。
优选地,所述将所述心理活动信息转为语音信息,并通过耳机传送至所述谈判者处的步骤包括:
从所述心理活动信息中提取出关键词;
将所述关键词转为语音信息,并通过耳机播报至所述谈判者处。
为实现上述目的,本发明还提供一种智能领带,所述智能领带包括处理器以及存储在所述处理器内并可在所述处理器上运行的心理活动的识别方法,其中,所述心理活动的识别方法被所述处理器执行时实现如上所述的心理活动的识别方法的步骤。
优选地,所述智能领带包括内置于所述智能领带内的微型摄像头。
本发明提供的心理活动的识别方法、智能领带及计算机可读存储介质,通过智能领带利用摄像头采集谈判对象的面部表情,生成面部表情图像,然后对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息,再将所述心理活动信息通过耳机传送至谈判者处,其中,所述谈判者与所述谈判对象为谈判双方。如此,可以在商务谈判中,准确地识别谈判对象的心理活动信息,从而及时调整谈判策略,使得商务谈判可以向有利于谈判者的方向进行。
附图说明
图1为本发明实施例方案涉及的智能领带的功能模块示意图;
图2为本发明心理活动的识别方法第一实施例的流程示意图;
图3为图2中步骤S2的细化流程示意图;
图4为本发明心理活动的识别方法第二实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明的智能领带包括:处理器1001,例如CPU,用户接口1002,存储器1003,通信总线1004。其中,通信总线1004用于实现这些组件之间的连接通信。用户接口1002可以包括显示屏(Display)、输入单元。存储器1003可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1003可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的智能领带并不构成对智能领带的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
作为一种计算机存储介质的存储器1003中可以包括操作系统、网络通信模块、用户接口模块以及心理活动的识别方法。
用户接口1002主要用于接收用户通过触摸显示屏或在输入单元输入指令触发用户指令;处理器1001用于调用存储器1003中存储的心理活动的识别方法,并执行以下操作:
智能领带通过摄像头采集谈判对象的面部表情,生成面部表情图像;
对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处,其中,所述谈判者与所述谈判对象为谈判双方。
进一步地,处理器1001可以调用存储器1003中存储的双工数据通信程序,还执行以下操作:
对所述面部表情图像进行逐帧分析,根据表情变化获取到所述谈判对象的每个表情;
统计所述每个表情的持续时间、出现的顺序和次数以及表情变化趋势;
根据所述每个表情的持续时间、出现的顺序和次数以及表情变化趋势,生成所述谈判对象的心理活动信息。
进一步地,处理器1001可以调用存储器1003中存储的双工数据通信程序,还执行以下操作:
所述智能领带通过摄像头采集谈判对象的肢体动作,生成肢体动作信息;
对所述面部表情图像以及所述肢体动作信息识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处。
进一步地,处理器1001可以调用存储器1003中存储的双工数据通信程序,还执行以下操作:
对所述肢体动作信息识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处。
进一步地,处理器1001可以调用存储器1003中存储的双工数据通信程序,还执行以下操作:
将所述心理活动信息转为语音信息,并通过耳机播报至所述谈判者处。
进一步地,处理器1001可以调用存储器1003中存储的双工数据通信程序,还执行以下操作:
从所述心理活动信息中提取出关键词;
将所述关键词转为语音信息,并通过耳机播报至所述谈判者处。
参照图2,在第一实施例中,本发明提供一种心理活动的识别方法,包括以下步骤:
步骤S1、智能领带通过摄像头采集谈判对象的面部表情,生成面部表情图像;
本实施例中,所述智能领带内设有一摄像头,优选为微型摄像头,并设置于面对所述谈判对象的一侧。所述摄像头可以实时或定时采集谈判对象的面部表情。当然,在其他实施例中,所述摄像头也可以独立设置于其他隐蔽位置,可以对谈判对象的面部表情进行清晰地拍摄,并将采集到的所述谈判对象的面部表情发送至所述智能领带,以供所述智能领带根据所述谈判对象的面部表情生成面部表情图像。
所述面部表情包括瞳孔放大、瞳孔缩小、眉毛高低不平、眉毛拧在一起、鼻孔外翻、嘴唇紧抿、瘪嘴角以及单侧嘴角微挑等。
步骤S2、对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息;
本实施例中,可以对不同的面部表情图像进行识别分析,得到谈判对象的不同心理活动信息。例如:
商务谈判过程中,如果要判断谈判对象对自己的报价是否感兴趣,可以从对方的瞳孔变化中获得对方受到心理刺激所暗示的确定性信息。若对方的瞳孔放大,则表示传递出来的信息是正面的,这表示对方喜爱、快乐或兴奋,这种表现有利于谈判工作的顺利开展;反之,瞳孔缩小,所传递出来的信息则是负面的,表明对方此时处于消极、戒备甚至愤怒的状态。
眉毛的高低变化也是反映一个人内心波动情况的一个明显信号,当一个人心平气和时,眉毛基本处于水平状态;当一个人欣喜若狂时,会因此眉飞色舞;当一个人有疑问时,眉毛会拧在一起,成“川”字型。如果商务谈判过程中,谈判对象眉梢微挑,出现眉毛一边高一边低的现象,则表示他对别人产生了怀疑或否定心理,或有不清楚的地方,此时,谈判者可以根据此信号进行稳妥应对,如不再按照原来设计的线路继续话题,而是提供足够的证据证明谈判者的观点,以帮助谈判对象消除一些负面的错误观点。
当鼻孔外翻,嘴唇紧抿,表示有无法控制的怒气;单侧嘴角微挑,说明对方有不屑、轻蔑的情绪;咬嘴唇则表示焦虑;若谈判对象经常出现瘪嘴角的表情,则表明其对自己的话没有信心。
步骤S3、将所述心理活动信息通过耳机传送至谈判者处,其中,所述谈判者与所述谈判对象为谈判双方。
本实施例中,将所述心理活动信息转为语音信息,如当得到的谈判对象的心理活动信息为“对方此时处于消极、戒备甚至愤怒的状态”等,并通过耳机播报至所述谈判者处。
进一步地,可以从所述心理活动信息中提取出关键词,也即对所述心理活动信息进行分析,判断出其合作意愿倾向。如“对方有合作意愿”、“对方合作意愿强烈”、“对方合作意愿不强”、“对方还在犹豫”等,并将所述关键词转为语音信息,然后通过耳机播报至所述谈判者处。
本发明提供的心理活动的识别方法,通过智能领带利用摄像头采集谈判对象的面部表情,生成面部表情图像,然后对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息,再将所述心理活动信息通过耳机传送至谈判者处,其中,所述谈判者与所述谈判对象为谈判双方。如此,可以在商务谈判中,准确地识别谈判对象的心理活动信息,从而及时调整谈判策略,使得商务谈判可以向有利于谈判者的方向进行。
参照图3,在第二实施例中,基于第一实施例,所述步骤S2包括:
步骤S21、对所述面部表情图像进行逐帧分析,根据表情变化获取到所述谈判对象的每个表情;
本实施例中,根据获取的面部表情图像进行逐帧分析,将后一帧与前一帧进行比较,若发现为同一个部位的变化,只是程度不同,则将这些帧划分为同一个表情类型;若发现为不同的其他部位开始发生变化,则将其他部位发生变化的帧划分为其他表情类型。
步骤S22、统计所述每个表情的持续时间、出现的顺序和次数以及表情变化趋势;
步骤S23、根据所述每个表情的持续时间、出现的顺序和次数以及表情变化趋势,生成所述谈判对象的心理活动信息。
本实施例中,假设瞳孔放大的表情是最开始出现的表情,持续时间为3s,出现的次数为1次;其次出现眉梢微挑的表情,持续时间为3s,且出现的次数为3次;接下来出现单侧嘴角微挑的表情,持续时间为5s,且出现的次数为2次,则可以分析出表情变化趋势为:瞳孔放大-眉梢微挑-单侧嘴角微挑,也即谈判对象的心理活动由最开始的感兴趣,接下来的怀疑或否定,到最后的不屑或轻蔑。
参照图4,在第三实施例中,基于第一实施例,所述步骤S1之前或之后还包括:
步骤S4、所述智能领带通过摄像头采集谈判对象的肢体动作,生成肢体动作信息;
本实施例中,可以通过所述智能领带内设的摄像头采集谈判对象的肢体动作,也可以为独立设置于其他隐蔽位置,并对谈判对象的肢体动作进行清晰地拍摄,然后将采集到的所述谈判对象的肢体动作发送至所述智能领带,以供所述智能领带根据所述谈判对象的肢体动作生成肢体动作信息。
所述肢体动作信息包括头颈部动作以及手部动作等。
步骤S5、对所述面部表情图像以及所述肢体动作信息识别分析,得到所述谈判对象的心理活动信息;
在一实施例中,所述谈判对象的心理活动信息可以由面部表情图像以及所述肢体动作信息综合识别分析得到;在另一实施例中,所述谈判对象的心理活动信息可以由所述肢体动作信息单独识别分析得到。可以理解的是,当面部表情不足以准确获知谈判对象的内心活动时,还可以结合所述肢体动作信息进一步准确获知谈判对象的内心活动。
商务谈判中,头颈部的动作也是传达谈判对象对谈论问题是否感兴趣的标准性动作。例如,在演示产品或计划过程中,可以观察对方是否有头颈部跟随演示的变化而变化的动作,如果每次变化都有跟随,意味着谈判对象兴趣浓厚;如果谈判对象只是眼睛的视角跟随变化,而头颈部并没有跟随动作,则表明谈判对象持怀疑、保留、抗拒的心理活动。
商务谈判过程中,谈判对象若将双手原本放在桌面以上的位置,突然放到桌面以下、并伴随身体向后靠的动作,表明被触及底线;若谈判对象对某个观点不认同,其手部动作多以手心向下、向外来表达观点;若谈判对象摘下眼镜并开始擦拭镜片,则表明他需要时间仔细思考某一个问题,且表明暂时没有合适的应对之策等。
本实施例,通过结合面部表情图像以及所述肢体动作信息,可以更准确地获知谈判对象的心理活动信息。
步骤S6、将所述心理活动信息通过耳机传送至谈判者处。
本实施例中,将所述心理活动信息转为语音信息,如当得到的谈判对象的心理活动信息为“对方此时处于消极、戒备甚至愤怒的状态”等,并通过耳机播报至所述谈判者处。
进一步地,可以从所述心理活动信息中提取出关键词,也即对所述心理活动信息进行分析,判断出其合作意愿倾向。如“对方有合作意愿”、“对方合作意愿强烈”、“对方合作意愿不强”、“对方还在犹豫”等,并将所述关键词转为语音信息,然后通过耳机播报至所述谈判者处。
本发明还提供一种智能领带,所述智能领带包括处理器以及存储在所述处理器内并可在所述处理器上运行的心理活动的识别方法,其中,所述心理活动的识别方法被所述处理器执行时实现如上所述的心理活动的识别方法的步骤。
本发明还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有心理活动的识别程序,所述心理活动的识别程序被处理器执行实现如上所述的心理活动的识别方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,被控终端,或者网络设备等)执行本发明各个实施例所述的方法。
Claims (9)
1.一种心理活动的识别方法,其特征在于,所述心理活动的识别方法包括以下步骤:
智能领带通过摄像头采集谈判对象的面部表情,生成面部表情图像;
对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处,其中,所述谈判者与所述谈判对象为谈判双方。
2.如权利要求1所述的心理活动的识别方法,其特征在于,所述对所述面部表情图像进行识别分析,得到所述谈判对象的心理活动信息的步骤包括:
对所述面部表情图像进行逐帧分析,根据表情变化获取到所述谈判对象的每个表情;
统计所述每个表情的持续时间、出现的顺序和次数以及表情变化趋势;
根据所述每个表情的持续时间、出现的顺序和次数以及表情变化趋势,生成所述谈判对象的心理活动信息。
3.如权利要求1所述的心理活动的识别方法,其特征在于,所述所述心理活动的识别方法还包括:
所述智能领带通过摄像头采集谈判对象的肢体动作,生成肢体动作信息;
对所述面部表情图像以及所述肢体动作信息识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处。
4.如权利要求3所述的心理活动的识别方法,其特征在于,所述所述智能领带通过摄像头采集谈判对象的肢体动作,生成肢体动作信息的步骤之后,还包括:
对所述肢体动作信息识别分析,得到所述谈判对象的心理活动信息;
将所述心理活动信息通过耳机传送至谈判者处。
5.如权利要求1所述的心理活动的识别方法,其特征在于,所述将所述心理活动信息通过耳机传送至谈判者处的步骤包括:
将所述心理活动信息转为语音信息,并通过耳机播报至所述谈判者处。
6.如权利要求5所述的心理活动的识别方法,其特征在于,所述将所述心理活动信息转为语音信息,并通过耳机传送至所述谈判者处的步骤包括:
从所述心理活动信息中提取出关键词;
将所述关键词转为语音信息,并通过耳机播报至所述谈判者处。
7.一种智能领带,其特征在于,所述智能领带包括处理器以及存储在所述处理器内并可在所述处理器上运行的心理活动的识别方法,其中,所述心理活动的识别方法被所述处理器执行时实现如上权利要求1至6中任一项所述的心理活动的识别方法的步骤。
8.如权利要求7所述的智能领带,其特征在于,所述智能领带包括内置于所述智能领带内的微型摄像头。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有心理活动的识别程序,所述心理活动的识别程序被处理器执行实现如权利要求1至6中任一项所述的心理活动的识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810528709.7A CN108898058A (zh) | 2018-05-29 | 2018-05-29 | 心理活动的识别方法、智能领带及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810528709.7A CN108898058A (zh) | 2018-05-29 | 2018-05-29 | 心理活动的识别方法、智能领带及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108898058A true CN108898058A (zh) | 2018-11-27 |
Family
ID=64343498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810528709.7A Withdrawn CN108898058A (zh) | 2018-05-29 | 2018-05-29 | 心理活动的识别方法、智能领带及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108898058A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543658A (zh) * | 2018-12-25 | 2019-03-29 | 中国政法大学 | 智能审讯辅助方法及装置 |
CN111666444A (zh) * | 2020-06-02 | 2020-09-15 | 中国科学院计算技术研究所 | 基于人工智能的音频推送方法及系统、相关方法及设备 |
CN113079296A (zh) * | 2021-03-31 | 2021-07-06 | 重庆风云际会智慧科技有限公司 | 基于双向视频的执法勘察设备 |
CN113099131A (zh) * | 2021-03-31 | 2021-07-09 | 重庆风云际会智慧科技有限公司 | 一种便携式讯问一体机 |
-
2018
- 2018-05-29 CN CN201810528709.7A patent/CN108898058A/zh not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543658A (zh) * | 2018-12-25 | 2019-03-29 | 中国政法大学 | 智能审讯辅助方法及装置 |
CN111666444A (zh) * | 2020-06-02 | 2020-09-15 | 中国科学院计算技术研究所 | 基于人工智能的音频推送方法及系统、相关方法及设备 |
CN113079296A (zh) * | 2021-03-31 | 2021-07-06 | 重庆风云际会智慧科技有限公司 | 基于双向视频的执法勘察设备 |
CN113099131A (zh) * | 2021-03-31 | 2021-07-09 | 重庆风云际会智慧科技有限公司 | 一种便携式讯问一体机 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108898058A (zh) | 心理活动的识别方法、智能领带及存储介质 | |
Bousmalis et al. | Towards the automatic detection of spontaneous agreement and disagreement based on nonverbal behaviour: A survey of related cues, databases, and tools | |
Bousmalis et al. | Spotting agreement and disagreement: A survey of nonverbal audiovisual cues and tools | |
Biancardi et al. | Analyzing first impressions of warmth and competence from observable nonverbal cues in expert-novice interactions | |
US20140278455A1 (en) | Providing Feedback Pertaining to Communication Style | |
CN107437052A (zh) | 基于微表情识别的相亲满意度计算方法和系统 | |
CN110210449B (zh) | 一种用于虚拟现实交友的人脸识别系统及方法 | |
EP3897388B1 (en) | System and method for reading and analysing behaviour including verbal, body language and facial expressions in order to determine a person's congruence | |
Niewiadomski et al. | MMLI: Multimodal multiperson corpus of laughter in interaction | |
CN106293362A (zh) | 一种引导式化妆设备 | |
JP2020113197A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
CN111583355B (zh) | 面部形象生成方法、装置、电子设备及可读存储介质 | |
Sun et al. | Towards visual and vocal mimicry recognition in human-human interactions | |
WO2018173383A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN106681509A (zh) | 界面操作的方法和系统 | |
CN105892627A (zh) | 虚拟超越现实的方法和装置以及使用其的眼镜或头盔 | |
Hedayati et al. | Comparing f-formations between humans and on-screen agents | |
Ford et al. | Modeling the human blink: A computational model for use within human–robot interaction | |
Chen et al. | Using head-mounted eye-trackers to study sensory-motor dynamics of coordinated attention | |
KR20210070119A (ko) | 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템 | |
EP4071760A1 (en) | Method and apparatus for generating video | |
US20200250498A1 (en) | Information processing apparatus, information processing method, and program | |
CN108958488A (zh) | 一种人脸指令识别方法 | |
CN210166754U (zh) | 一种虚拟现实头戴交流装置及虚拟现实头戴交流系统 | |
Vinciarelli et al. | Mobile Social Signal Processing: vision and research issues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20181127 |
|
WW01 | Invention patent application withdrawn after publication |