CN108830265A - 在网络交流中的情绪提醒的方法、通信终端和存储装置 - Google Patents
在网络交流中的情绪提醒的方法、通信终端和存储装置 Download PDFInfo
- Publication number
- CN108830265A CN108830265A CN201810997337.2A CN201810997337A CN108830265A CN 108830265 A CN108830265 A CN 108830265A CN 201810997337 A CN201810997337 A CN 201810997337A CN 108830265 A CN108830265 A CN 108830265A
- Authority
- CN
- China
- Prior art keywords
- communicatee
- emotional
- information
- emotional state
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000036651 mood Effects 0.000 title claims abstract description 50
- 230000006854 communication Effects 0.000 title claims abstract description 42
- 238000004891 communication Methods 0.000 title claims abstract description 40
- 238000003860 storage Methods 0.000 title abstract description 6
- 230000002996 emotional effect Effects 0.000 claims abstract description 234
- 238000005452 bending Methods 0.000 claims description 13
- 210000001508 eye Anatomy 0.000 claims description 10
- 210000004709 eyebrow Anatomy 0.000 claims description 9
- 210000001747 pupil Anatomy 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 241000208340 Araliaceae Species 0.000 claims description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 3
- 235000008434 ginseng Nutrition 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 241000406668 Loxodonta cyclotis Species 0.000 description 5
- 230000009471 action Effects 0.000 description 5
- 230000010485 coping Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000001331 nose Anatomy 0.000 description 4
- 230000001149 cognitive effect Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000000392 somatic effect Effects 0.000 description 3
- 208000027534 Emotional disease Diseases 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 208000002193 Pain Diseases 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Social Psychology (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Child & Adolescent Psychology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了一种在网络交流中的情绪提醒的方法、通信终端和存储装置,所述方法包括:第一终端接收第二终端发送的交流对象的交流数据;从所述交流数据中提取情绪特征信息,分析得到所述交流对象的情绪状态;生成与所述交流对象的情绪状态相应的提示信息,并将所述提示信息显示在所述第一终端的显示装置上。通过上述方法,本发明能够在网络交流中及时识别和提醒远端交流对象的情绪,以使用户能够调整或选择适当的交流方式,以避免不友好的交流氛围。
Description
技术领域
本发明涉及通信技术领域,特别是涉及一种在网络交流中的情绪提醒的方法、通信终端和存储装置。
背景技术
现代通信技术的快速发展,极大的扩展了人们的工作和生活,手机、电脑等终端设备逐渐成为人与人之间沟通和交流的最重要手段之一。当用户使用终端设备与他人进行交流沟通,可以解决工作和生活中大量繁杂事务。
但现有的通信方式,一般只能通过使用者的感觉器官来主观的判断交流对象的情绪状态,从而在交流过程中,当交流对象的情绪状态因为双方的交流内容等因素而发生变化时,由于用户可能不善于判断交流对象的情绪状态或没有关注交流对象的情绪状态变化,用户不能及时发现交流对象的情绪状态及变化,又或者用户缺乏根据交流对象的情绪状态来选择适当的应对方式,这样就可能会影响双方通话的气氛,甚至会导致双方的矛盾或加深矛盾等。
发明内容
本发明主要解决的技术问题是如何使用户在网络交流中及时了解远端交流对象的情绪。
为解决上述技术问题,本发明采用的一个技术方案是提供一种在网络交流中的情绪提醒的方法,所述方法包括:第一终端接收第二终端发送的交流对象的交流数据;从所述交流数据中提取情绪特征信息,分析得到所述交流对象的情绪状态;生成与所述交流对象的情绪状态相应的提示信息,并将所述提示信息显示在所述第一终端的显示装置上。
其中,所述交流数据包括语音交流数据,所述情绪特征信息包括声音强度、说话语速、音调、特殊词语中的一种或多种。
其中,所述交流数据包括视频交流数据,所述情绪特征信息包括眼睛的张开程度、瞳孔的张开程度、嘴角弯曲方向及弧度、眉毛的弯曲方向及弧度、手部的握紧程度中的一种或多种。
其中,所述分析得到所述交流对象的情绪状态包括:将所述情绪特征信息与预设的参考特征信息进行比较;根据比较结果得出所述交流对象的情绪状态。
其中,所述情绪特征信息包括情绪特征值;所述预设的参考特征信息为所述交流对象在不同特定情绪状态下对应的不同参考特征值;所述根据比较结果得出所述交流对象的情绪状态包括:若所述情绪特征值达到一所述参考特征值,则判断所述交流对象的情绪状态为与所述参考特征值对应的特定情绪状态。
其中,不同的交流对象在同一特定情绪状态下的参考特征值不同;所述情绪特征信息还包括交流对象识别信息;所述将所述情绪特征信息与预设的参考特征信息进行比较,具体包括:根据所述交流对象识别信息,识别出所述交流对象;将所述情绪特征值,与预设的与所述识别出的交流对象对应的参考特征值进行比较。
其中,在所述生成与所述交流对象的情绪状态相应的提示信息之前,包括:建立情绪状态与提示信息的对应关系;所述生成与所述交流对象的情绪状态相应的提示信息,包括:根据所述情绪状态与提示信息的对应关系,生成与所述交流对象的情绪状态对应的所述提示信息。
其中,在所述将所述提示信息显示在所述第一终端的显示装置上之后,还包括:获取用户对所述提示信息的反馈消息,并根据所述反馈消息消除或继续显示所述提示信息。
为解决上述技术问题,本发明采用的另一个技术方案是提供一种通信终端,包括相互耦接的通信电路、存储器、处理器和显示装置;所述通信电路用于与其他通信终端通信;所述显示装置用于根据所述处理器的控制来显示信息;所述存储器用于存储程序数据;所述处理器执行所述程序数据,用于实现如上所述的方法。
为解决上述技术问题,本发明采用的另一个技术方案是提供一种具有存储功能的装置,所述装置存储有程序数据,所述程序数据能够被执行以实现如上所述的方法。
本发明的有益效果是:区别于现有技术的情况,第一终端通过接收第二终端发送的交流对象的交流数据并从中提取情绪特征信息,在分析得到交流对象的情绪状态后,生成与交流对象的情绪状态相应的提示信息并显示在第一终端的显示装置上,从而可以在网络交流中及时识别和提醒远端交流对象的情绪,以使用户能够调整或选择适当的交流方式,以避免不友好的交流氛围。
附图说明
图1是本发明提供的一种在网络交流中的情绪提醒的方法的第一实施例的流程示意图;
图2是本发明提供的一种在网络交流中的情绪提醒的方法的第二实施例的流程示意图;
图3是本发明提供的一种在网络交流中的情绪提醒的方法的第三实施例的流程示意图;
图4是本发明提供的一种在网络交流中的情绪提醒的方法的第四实施例的流程示意图;
图5是本发明提供的一种在网络交流中的情绪提醒的方法的第五实施例的流程示意图;
图6是本发明提供的一种在网络交流中的情绪提醒的方法的第六实施例的流程示意图;
图7是本发明提供的通信终端一实施例的结构示意图;
图8是本发明提供的具有存储功能的装置一实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,均属于本发明保护的范围。
请参阅图1,图1是本发明提供的一种在网络交流中的情绪提醒的方法的第一实施例的流程示意图。本实施例中的在网络交流中的情绪提醒的方法包括:
S101:第一终端接收第二终端发送的交流对象交流数据。
本申请中,第一终端与第二终端之间可以互相发送交流数据,用户和交流对象之间可以通过第一终端和第二终端来实现网络交流。可以理解的是,现代通信技术的快速发展,极大的扩展了人们的工作和生活,人与人之间沟通和交流可以通过各类终端设备之间的通信来进行实现。人们采用通信技术进行网络交流,通过运用通信终端对语音、文字、图形和视频等形式的数据资料进行采集、存储、处理和传输,使信息资源达到充分共享,从而实现远程的沟通交流。因此,在用户和其交流对象之间的网络交流中,双方必然存在交流数据的传输,因此,第一终端可以接收到第二终端发送的交流对象的交流数据。
S102:从所述交流数据中提取情绪特征信息,分析得到所述交流对象的情绪状态。
可以理解的是,情绪既是主观感受,又是客观生理反应,具有目的性,也是一种社会表达。情绪是多元的、复杂的综合事件。当人们注意到外界发生的事件或人物,自身的认知系统会自动评估这件事的感情色彩,例如:看到心爱的人,认知系统会评估为对自身有意义的正面事件,或者,听到别人批评自己,认知系统会评估为对自身有意义的负面事件;在自身的认知系统自动评估了当前事件的感情色彩后,会触发人体接下来的情绪反应,包括心理反应和身体反应,从而通过心理反应和身体反应来使人们自身适应当前事件,心理反应例如人们会觉得开心或者难过,身体反应例如神经系统敏感,心跳加快,或者全身乏力等等;并且,人们会将自己的情绪反应通过各种方式进行表达,例如人们可以通过面部和声音变化来表现出自己的情绪,这样可以向周围的人传达自己对当前事件的看法和行动意向。因此,在第一终端接收到第二终端发送的交流对象的交流数据中,必然包含有可以反映出交流对象的情绪状态的情绪特征信息;于是,可以从交流数据中提取出可以反映出交流对象的情绪状态的情绪特征信息,并通过分析,从而可以得到交流对象的情绪状态。
S103:生成与所述交流对象的情绪状态相应的提示信息,并将所述提示信息显示在所述第一终端的显示装置上。
在一具体实施场景中,在分析并得到交流对象的情绪状态之后,第一终端可以进一步根据交流对象的情绪状态来生成相应的提示信息,并将提示信息显示在第一终端的显示装置上。该提示信息是提示用户,在交流对象处于当前情绪状态时,用户该怎样去应对的具体方法。可以理解的是,在网络交流过程中,当交流对象的情绪状态发生变化时,而用户自身的人际关系处理能力可能不强,用户无法根据交流对象的情绪状态来选择适当的应对方式,这样就可能会影响到双方通话的气氛。因此,用户需要有相应的提示信息来告诉自己,在交流对象处于当前情绪状态时,自己应该怎样去处理。通过该提示信息,用户可以根据交流对象的情绪状态来选择适当的应对方式。
在本实施例中,第一终端通过接收第二终端发送的交流对象的交流数据并从中提取情绪特征信息,在分析得到交流对象的情绪状态后,生成与交流对象的情绪状态相应的提示信息并显示在第一终端的显示装置上,从而可以在网络交流中及时识别和提醒远端交流对象的情绪,以使用户能够调整或选择适当的交流方式或者处理方式,以避免不友好的交流氛围。
作为一种可实施方式,交流数据可以包括语音交流数据,情绪特征信息可以包括声音强度、说话语速、音调、特殊词语中的一种或多种。当用户与交流对象之间通过语音进行交流沟通时,第一终端接收到第二终端发送的交流对象的交流数据为语音交流数据。在一个具体的实施场景中,该语音交流数据为交流对象说的一段话,这一段话里面至少包括有声音强度、说话语速、音调、特殊词语中的一种或多种可以反应出交流对象的情绪状态的情绪特征信息;声音强度指的是交流对象在说这一段话时的音量大小,通常交流对象在处于愤怒或者恐惧等情绪状态时说话的声音强度会变高,而在处于难过或者失落等情绪状态时说话的声音强度会变低;说话语速的快慢指的是交流对象在说这一段话时的快慢程度,通常说话语速的快慢也可以反映出交流对象的情绪状态偏向高兴还是难过,而且当交流对象在说这一段话时出现了较长时间的停顿,这可能反映出交流对象处于难过或气愤的情绪状态。根据交流对象说话的不同特点可以判断其情绪状态,例如,当交流对象的说话语速变慢、音调变低、声音强度的变化不大,说明交流对象可能处于悲哀的情绪状态;当交流对象的说话语速变快、音调变高、声音强度的变化较大,说明交流对象可能处于激动的情绪状态;当交流对象的说话语速变快且有较多的口误或者说话不连贯时,说明交流对象可能处于紧张的情绪状态,等等。因此,在用户与交流对象之间通过语音进行交流沟通时,通过从第一终端接收到第二终端发送的语音交流数据中,提取包括声音强度、说话语速、音调、特殊词语中的一种或多种情绪特征信息,从而可以分析得到交流对象的情绪状态。
作为另一种可实施方式,交流数据也可以包括视频交流数据,情绪特征信息可以包括眼睛的张开程度、瞳孔的张开程度、嘴角弯曲方向及弧度、眉毛的弯曲方向及弧度、手部的握紧程度中的一种或多种。当用户与交流对象之间通过视频进行交流沟通时,第一终端接收到第二终端发送的交流数据为视频交流数据。在一个具体的实施场景中,该视频交流数据为交流对象的脸部动作和身体动作,在交流对象的脸部动作和身体动作里面至少包括有眼睛的张开程度、瞳孔的张开程度、嘴角弯曲方向及弧度、眉毛的弯曲方向及弧度、手部的握紧程度中的一种或多种可以反应出交流对象的情绪状态的情绪特征信息。可以理解的是,脸部是最有效的表情器官,人的面部表情主要表现为眼、眉、嘴、鼻、面部肌肉的变化;眼睛是心灵的窗户,能够最直接、最完整、最深刻、最丰富地表现人的精神状态和内心活动,眼睛的张开程度和/或瞳孔的张开程度可以反映人的心理变化,例如,当交流对象看到有趣的或者心中喜爱的东西时,眼睛和/或瞳孔就会扩大,而看到不喜欢的或者厌恶的东西,眼睛和/或瞳孔就会缩小;嘴部表达情绪状态主要体现在嘴型的变化上,例如伤心时嘴角会下撇,欢快时嘴角会上扬,委屈时会撅起嘴巴等等,另外嘴巴张大程度,是否咬唇也可以体现交流对象的情绪状态;眉毛的弯曲方向及弧度也能够表达交流对象的情绪状态变化,例如,眉毛倒竖而形成“倒八字”可以表示愤怒,眉头舒展可以表示放松等等;当然鼻子也可以体现交流对象的情绪状态,例如,感到厌恶时可以耸起鼻子,感到愤怒时鼻孔会张大而鼻翕会抖动,感到紧张时鼻腔会收缩等等。另外,交流对象的情绪状态也可以通过身体动作来自发地或有意识地表达出来,当交流对象处于强烈的兴奋、紧张、恐惧、愤怒等情绪状态时,往往抑制不住身体动作的变化;例如,可以通过其手部的握紧程度来判断交流对象是否处于紧张或者激动的情绪状态,又或者可以通过手部或者脚部或者身体的动作来判断交流对象的情绪状态,例如正襟危坐可以表示其恭谨或紧张,坐立不安可以表示其焦急或慌张,捶胸顿足可以表示其懊恼,拍手可以表示其高兴,全身擅抖可以表示其心虚或害怕等等。因此,在用户与交流对象之间通过视频进行交流沟通时,通过从第一终端接收到第二终端发送的视频交流数据中,提取包括眼睛的张开程度、瞳孔的张开程度、嘴角弯曲方向及弧度、眉毛的弯曲方向及弧度、手部的握紧程度中的一种或多种情绪特征信息,从而可以分析得到交流对象的情绪状态。
请参阅图2,图2是本发明提供的一种在网络交流中的情绪提醒的方法的第二实施例的流程示意图。本实施例中的在网络交流中的情绪提醒的方法包括:
S201:第一终端接收第二终端发送的交流对象的交流数据。
在本实施场景中,本实施例提供的步骤S201与本申请提供的一种在网络交流中的情绪提醒的方法的第一实施例中的步骤S101基本类似,此处不再赘述。
S202:从所述交流数据中提取情绪特征信息,将所述情绪特征信息与预设的参考特征信息进行比较。
第一终端中预先设置有参考特征信息,该参考特征信息可以用于对通过交流对象的情绪特征信息来判断其情绪状态的过程进行参照。例如,用户或者设计人员可以通过采集大量的不同人在不同情绪时的语音样本,通过对这些样本进行分析形成用于判断交流对象的情绪状态的参考特征信息。例如,可以从大量的语音样本中提取出包括声音强度、说话语速、音调、特殊词语等的情绪特征信息,然后经过分析,可以得出在某一情绪状态下的声音强度、说话语速、音调、特殊词语等的情绪特征信息,然后设定当声音强度处于a1-a2范围内,和/或,说话语速处于b1-b2范围内,和/或,音调处于c1-c2范围内,和/或,包含有第一特殊词语时,可以判断交流对象的情绪状态为高兴;当声音强度处于a3-a4范围内,和/或,说话语速处于b3-b4范围内,和/或,音调处于c3-c4范围内,和/或,包含有第二特殊词语时,可以判断交流对象的情绪状态为生气;当声音强度处于a5-a6范围内,和/或,说话语速处于b5-b6范围内,和/或,音调处于c5-c6范围内,和/或,包含有第三特殊词语时,可以判断交流对象的情绪状态为伤心,等等。可以理解的是,通过采集的大量的不同人在不同情绪时的语音样本,并通过对这些样本进行分析而形成的,与某种情绪状态相对应的情绪特征信息,可以作为参考特征信息与第一终端从交流数据中提取的情绪特征信息进行比较。
S203:根据比较结果得出所述交流对象的情绪状态。
可以理解的是,通过将第一终端从交流数据中提取的交流对象的情绪特征信息与预设的参考特征信息进行比较,当通过比较得出交流对象的情绪特征信息与某一特定情绪状态下的参考特征信息相同或者相似,那么可以判断得出交流对象的情绪状态为该特定情绪状态。
S204:生成与所述交流对象的情绪状态相应的提示信息,并将所述提示信息显示在所述第一终端的显示装置上。
在本实施场景中,本实施例提供的步骤S204与本申请提供的一种在网络交流中的情绪提醒的方法的第一实施例中的步骤S103基本类似,此处不再赘述。
在本实施例中,通过将从交流数据中提取的交流对象的情绪特征信息与预设的参考特征信息进行比较,可以根据比较结果实现得出交流对象的情绪状态。
请结合图3,其中,图3是本发明提供的一种在网络交流中的情绪提醒的方法的第三实施例的流程示意图。如图4所示,本实施例中的在网络交流中的情绪提醒的方法包括:
S301:第一终端接收第二终端发送的交流对象的交流数据。
S302:从所述交流数据中提取情绪特征信息,将所述情绪特征信息与预设的参考特征信息进行比较。
在本实施场景中,本实施例提供的步骤S301-S302与本申请提供的一种在网络交流中的情绪提醒的方法的第二实施例中的步骤S201-S202基本类似,此处不再赘述。
S303:所述情绪特征信息包括情绪特征值,所述情绪特征值达到一参考特征值,则判断所述交流对象的情绪状态为与所述参考特征值对应的特定情绪状态。
本实施例中,为了能够将提取的情绪特征信息与预设的参考特征信息进行比较,从而根据比较结果得出交流对象的情绪状态,可以将情绪特征信息设置具体的特征值,便于比较,此时,情绪特征信息包括情绪特征值,预设的参考特征信息为交流对象在不同特定情绪状态下对应的不同参考特征值。当提取的交流对象的情绪特征信息中的情绪特征值达到了某一特定情绪状态对应的参考特征值时,即可以判断交流对象的情绪状态达到了该特定情绪状态。在一具体实施场景中,交流数据包括语音交流数据,情绪特征信息包括声音强度和说话语速;用户或者设计人员从大量的语音样本中提取出包括声音强度和说话语速等的情绪特征信息,然后经过分析,a1<a2<a3,b1<b2<b3,设定当声音强度大于a1但不大于a2时,和/或,说话语速大于b1但不大于b2时,可以判断交流对象的情绪状态为伤心;当声音强度大于a2但不大于a3时,和/或,说话语速大于b2但不大于b3时,可以判断交流对象的情绪状态为高兴;当声音强度大于a3时,和/或,说话语速大于b3时,可以判断交流对象的情绪状态为生气;于是可以得出情绪状态为伤心时对应的参考特征值为声音强度a1、说话语速b1,情绪状态为高兴时对应的参考特征值为声音强度a2、说话语速b2,情绪状态为生气时对应的参考特征值为声音强度a3、说话语速b3。此时,若提取的交流对象的情绪特征信息中的情绪特征值中声音强度达到a1但没达到a2、说话语速达到b1但没达到b2,则判断交流对象的情绪状态为伤心;若提取的交流对象的情绪特征信息中的情绪特征值中声音强度达到a2但没达到a3、说话语速达到b2但没达到b3,则判断交流对象的情绪状态为高兴;若提取的交流对象的情绪特征信息中的情绪特征值中声音强度达到a3、说话语速达到b3,则判断交流对象的情绪状态为生气。
S304:生成与所述交流对象的情绪状态相应的提示信息,并将所述提示信息显示在所述第一终端的显示装置上。
在本实施场景中,本实施例提供的步骤S304与本申请提供的一种在网络交流中的情绪提醒的方法的第一实施例中的步骤S103基本类似,此处不再赘述。
在本实施例中,通过将情绪特征信息设置具体的特征值,把从交流数据中提取情绪特征信息中的情绪特征值,与交流对象在不同特定情绪状态下对应的不同参考特征值进行比较,若情绪特征值达到一参考特征值,则判断交流对象的情绪状态为与该参考特征值对应的特定情绪状态,便于将情绪特征信息与预设的参考特征信息进行比较以得到交流对象的情绪状态。
请参阅图4,图4是本发明提供的一种在网络交流中的情绪提醒的方法的第四实施例的流程示意图。本实施例中的在网络交流中的情绪提醒的方法包括:
S401:第一终端接收第二终端发送的交流对象的交流数据。
在本实施场景中,本实施例提供的步骤S401与本申请提供的一种在网络交流中的情绪提醒的方法的第一实施例中的步骤S201基本类似,此处不再赘述。
S402:从所述交流数据中提取情绪特征信息,所述情绪特征信息还包括交流对象识别信息,根据所述交流对象识别信息,识别出所述交流对象。
在本实施例中,不同的交流对象在同一特定情绪状态下的参考特征值不同;对应的,从交流数据中提取的交流对象的情绪特征信息还包括交流对象识别信息,从而可以根据交流对象识别信息,识别出交流对象。可以理解的是,人们对情绪状态的表达既有共通的部分,也有各自独有的部分,不同的交流对象在表达同一情绪状态时的表现可能并不相同,因此,需要考虑到每个交流对象之间的差异与独有特征点。
S403:所述情绪特征信息包括情绪特征值,将所述情绪特征值,与预设的与所述识别出的交流对象对应的参考特征值进行比较。
由于不同的交流对象在同一特定情绪状态下的参考特征值不同,因此,每个交流对象都有与其对应的参考特征值,在识别出交流对象后,可以将从交流数据中提取的该交流对象的情绪特征信息中的情绪特征值,与预设的与识别出的该交流对象对应的参考特征值进行比较。
S404:所述情绪特征值达到一参考特征值,则判断所述交流对象的情绪状态为与所述参考特征值对应的特定情绪状态。
S505:生成与所述交流对象的情绪状态相应的提示信息,并将所述提示信息显示在所述第一终端的显示装置上。
在本实施场景中,本实施例提供的步骤S504-S505与本申请提供的一种在网络交流中的情绪提醒的方法的第三实施例中的步骤S303-S304基本类似,此处不再赘述。
在一具体实施场景中,用户与朋友A一起组队打网络游戏,用户的第一终端接收第二终端发送的交流数据,可以从交流数据中提取朋友A的情绪特征信息,该情绪特征信息还包括交流对象识别信息,从第一终端而可以根据交流对象识别信息,识别出交流对象为朋友A;由于用户预先从大量的朋友A的语音样本中提取出了包括声音强度、说话语速、音调、特殊词语等等的情绪特征信息,并分析得出了朋友A处于高兴、生气、难过等情绪状态下的参考特征值;于是,在实际游戏过程中,第一终端可以从第二终端发送的交流数据中提取到朋友A的情绪特征值,并将该朋友A的情绪特征值,与预设的与朋友A对应的参考特征值进行比较,从而能够得出朋友A的情绪状态,然后生成与朋友A的情绪状态相应的提示信息,并将提示信息显示在第一终端的显示装置上,这样,用户可以实时通过该提示信息来与朋友A沟通交流或者进行游戏,以保证良好的沟通和游戏氛围。
本实施例中,通过识别出特定的交流对象,并将从交流数据中提取的该交流对象的情绪特征信息中的情绪特征值,与预设的与识别出的该交流对象对应的参考特征值进行比较,从而更加准确的得出特定交流对象的情绪状态。
请参阅图5,图5是本发明提供的一种在网络交流中的情绪提醒的方法的第五实施例的流程示意图。本实施例中的在网络交流中的情绪提醒的方法包括:
S501:第一终端接收第二终端发送的交流对象的交流数据。
S502:从所述交流数据中提取情绪特征信息,分析得到所述交流对象的情绪状态。
在本实施场景中,本实施例提供的步骤S501-S502与本申请提供的一种在网络交流中的情绪提醒的方法的第一实施例中的步骤S101-S102基本类似,此处不再赘述。
S503:建立情绪状态与提示信息的对应关系。
本实施例中,应预先建立情绪状态与提示信息的对应关系,当得到了交流对象的情绪状态后,可以根据该对应关系直接找到对应的而提示信息,提示用户怎样去交流沟通。可以理解的是,在网络交流过程中,当交流对象的情绪状态发生变化时,用户需要采取一定的应对方式来进行交流沟通,而对于交流对象的不同的情绪状态,用户采取的应对方式也应该有所不同。例如,当用户的女友在公司受了老板批评后与用户通过视频抱怨时,用户可以通过女友的情绪特征信息获取到女友的不高兴的情绪状态,此时,用户应该通过第一终端注意到女友的情绪状态,并需要通过交谈使女友开心起来,暂时忘记不高兴的事,或者询问女友事情的经过,让女友得到倾诉,并与女友一起探讨解决问题的方法。当交流对象处于某种情绪状态时,提示信息可以具体告诉用户应该说怎样的话,做怎样的事,应该怎么去沟通。
S504:根据所述情绪状态与提示信息的对应关系,生成与所述交流对象的情绪状态对应的所述提示信息,并将所述提示信息显示在所述第一终端的显示装置上。
由于预先建立有情绪状态与提示信息的对应关系,当得到了交流对象的情绪状态后,可以根据该对应关系生成与交流对象的情绪状态对应的提示信息,并将提示信息显示在第一终端的显示装置上。可以理解的是,应对交流对象的情绪状态可以包括的方法有很多,在一具体实施场景中,可以先接受对方的情绪状态并认同,例如在交流对象生气时该提示信息可以显示为“听你的口气,你的情绪现在很激动,我也挺能理解的”;或者跟交流对象分享自己的情绪感受,例如在交流对象抱怨加班频繁时该提示信息可以显示为“感觉你最近确实有挺多压力的,有一些负情绪,我非常能够理解你,因为我曾经也有过,比如……”;或者引导交流对象一起探讨解决问题的办法,例如在交流对象对于自己是否需要换工作感到迷茫时该提示信息可以显示为“对这一块有没有自己的想法呢?比如,自己有什么能力可以发挥的?做一些自己比较擅长的工作?那你打算具体从哪一点入手呢?”等等。用户在网络交流过程中,可以直接根据该提示信息的内容找到自己的应对方式,以避免沟通交流的不畅或者不顺。
在本实施例中,通过预先建立情绪状态与提示信息的对应关系,当得到了交流对象的情绪状态后,可以根据该对应关系直接找到对应的而提示信息,从而提示用户怎样去交流沟通。
请参阅图6,图6是本发明提供的一种在网络交流中的情绪提醒的方法的第六实施例的流程示意图。本实施例中的在网络交流中的情绪提醒的方法包括:
S601:第一终端接收第二终端发送的交流对象的交流数据。
S602:从所述交流数据中提取情绪特征信息,分析得到所述交流对象的情绪状态。
S603:生成与所述交流对象的情绪状态相应的提示信息,并将所述提示信息显示在所述第一终端的显示装置上。
在本实施场景中,本实施例提供的步骤S601-S603与本申请提供的一种在网络交流中的情绪提醒的方法的第一实施例中的步骤S101-S103基本类似,此处不再赘述。
S604:获取用户对所述提示信息的反馈消息,并根据所述反馈消息消除或继续显示所述提示信息。
本实施例中,在第一终端将提示信息显示在显示装置上后,用户可以根据该提示信息选择交流沟通方式,而用户可以进一步对该提示信息进行反馈,例如收到提示信息并根据提示信息进行沟通交流,或者没有按照提示信息进行沟通交流,第一终端根据反馈消息选择消除或继续显示该提示信息。可以理解的是,本申请中的反馈信息可以由用户主动输入到第一终端上,例如点击“确认收到提示信息”按钮,也可以由第一终端获取在显示装置上显示有提示信息之后用户发送的交流数据,根据用户的交流数据中的情绪特征信息判断用户是否接收到该提示信息并根据提示信息进行沟通交流。在一具体实施场景中,当用户收到提示信息后,可以根据提示信息进行沟通交流,点击“确认收到提示信息”按钮后,显示装置上的提示信息即被消除。在其他实施场景中,当用户收到提示信息后,可以不点击“确认收到提示信息”按钮后,提示信息会继续显示在显示装置上;当然,为了便于用户使用第一终端,也可以在提示信息在显示装置上显示一定时间之后自动消除。
请参阅图7,图7是本发明提供的通信终端一实施例的结构示意图。本申请中的通信终端70包括相互耦接的通信电路700、存储器702、处理器704和显示装置706,通信电路700用于与其他通信终端通信,显示装置706用于根据处理器704的控制来显示信息,存储器702用于存储程序数据,处理器704执行该程序数据,用于实现以下方法:
第一终端接收第二终端发送的交流对象的交流数据;处理器704从交流数据中提取情绪特征信息,分析得到交流对象的情绪状态;生成与交流对象的情绪状态相应的提示信息,并将提示信息显示在第一终端的显示装置706上。
作为一种可实施方式,交流数据包括语音交流数据,情绪特征信息包括声音强度、说话语速、音调、特殊词语中的一种或多种。
作为一种可实施方式,交流数据包括视频交流数据,情绪特征信息包括眼睛的张开程度、瞳孔的张开程度、嘴角弯曲方向及弧度、眉毛的弯曲方向及弧度、手部的握紧程度中的一种或多种。
进一步地,在处理器704执行上述分析得到交流对象的情绪状态,包括:
处理器704将情绪特征信息与预设的参考特征信息进行比较;根据比较结果得出交流对象的情绪状态。
进一步地,情绪特征信息包括情绪特征值;预设的参考特征信息为交流对象在不同特定情绪状态下对应的不同参考特征值,在处理器704执行上述根据比较结果得出交流对象的情绪状态,包括:
若情绪特征值达到一参考特征值,则处理器704判断交流对象的情绪状态为与参考特征值对应的特定情绪状态。
进一步地,不同的交流对象在同一特定情绪状态下的参考特征值不同;情绪特征信息还包括交流对象识别信息,在处理器704执行上述将情绪特征信息与预设的参考特征信息进行比较,具体包括:
处理器704根据交流对象识别信息,识别出交流对象;将情绪特征值,与预设的与识别出的交流对象对应的参考特征值进行比较。
作为一种可实施方式,处理器704执行上述生成与交流对象的情绪状态相应的提示信息之前,包括:
处理器704建立情绪状态与提示信息的对应关系;
此时,处理器704执行上述生成与交流对象的情绪状态相应的提示信息,包括:
处理器704根据情绪状态与提示信息的对应关系,生成与交流对象的情绪状态对应的提示信息。
作为一种可实施方式,处理器704执行上述将提示信息显示在第一终端的显示装置上之后,包括:
处理器704获取用户对提示信息的反馈消息,并根据反馈消息消除或继续显示提示信息。
本申请中的通信终端70可以是手机、电脑等可以用于通信的终端设备。
本申请通信终端70实施例中的处理器704实现上述功能的具体过程可参阅上述方法实施例。
请参阅图8,图8是本发明提供的具有存储功能的装置。具有存储功能的装置80中存储有程序数据800,程序数据800能够被执行以实现如上所述的在网络交流中的情绪提醒的方法。
该具有存储功能的装置80可以是终端中的存储芯片、SD卡等可读写存储的工具,还可以是服务器等等。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法、设备和装置,可以通过其它的方式实现。例如,以上所描述的设备结构实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种在网络交流中的情绪提醒的方法,其特征在于,所述方法包括:
第一终端接收第二终端发送的交流对象的交流数据;
从所述交流数据中提取情绪特征信息,分析得到所述交流对象的情绪状态;
生成与所述交流对象的情绪状态相应的提示信息,并将所述提示信息显示在所述第一终端的显示装置上。
2.如权利要求1所述的方法,其特征在于,所述交流数据包括语音交流数据,所述情绪特征信息包括声音强度、说话语速、音调、特殊词语中的一种或多种。
3.如权利要求1所述的方法,其特征在于,所述交流数据包括视频交流数据,所述情绪特征信息包括眼睛的张开程度、瞳孔的张开程度、嘴角弯曲方向及弧度、眉毛的弯曲方向及弧度、手部的握紧程度中的一种或多种。
4.如权利要求1所述的方法,其特征在于,所述分析得到所述交流对象的情绪状态包括:
将所述情绪特征信息与预设的参考特征信息进行比较;
根据比较结果得出所述交流对象的情绪状态。
5.如权利要求4所述的方法,其特征在于,所述情绪特征信息包括情绪特征值;所述预设的参考特征信息为所述交流对象在不同特定情绪状态下对应的不同参考特征值;
所述根据比较结果得出所述交流对象的情绪状态包括:
若所述情绪特征值达到一所述参考特征值,则判断所述交流对象的情绪状态为与所述参考特征值对应的特定情绪状态。
6.如权利要求5所述的方法,其特征在于,不同的交流对象在同一特定情绪状态下的参考特征值不同;所述情绪特征信息还包括交流对象识别信息;
所述将所述情绪特征信息与预设的参考特征信息进行比较,具体包括:
根据所述交流对象识别信息,识别出所述交流对象;
将所述情绪特征值,与预设的与所述识别出的交流对象对应的参考特征值进行比较。
7.如权利要求1所述的方法,其特征在于,在所述生成与所述交流对象的情绪状态相应的提示信息之前,包括:
建立情绪状态与提示信息的对应关系;
所述生成与所述交流对象的情绪状态相应的提示信息,包括:
根据所述情绪状态与提示信息的对应关系,生成与所述交流对象的情绪状态对应的所述提示信息。
8.如权利要求1所述的方法,其特征在于,在所述将所述提示信息显示在所述第一终端的显示装置上之后,还包括:
获取用户对所述提示信息的反馈消息,并根据所述反馈消息消除或继续显示所述提示信息。
9.一种通信终端,其特征在于,包括相互耦接的通信电路、存储器、处理器和显示装置;
所述通信电路用于与其他通信终端通信;
所述显示装置用于根据所述处理器的控制来显示信息;
所述存储器用于存储程序数据;
所述处理器执行所述程序数据,用于实现如权利要求1-8任一项所述的方法。
10.一种具有存储功能的装置,其特征在于,存储有程序数据,所述程序数据能够被执行以实现如权利要求1-8任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810997337.2A CN108830265A (zh) | 2018-08-29 | 2018-08-29 | 在网络交流中的情绪提醒的方法、通信终端和存储装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810997337.2A CN108830265A (zh) | 2018-08-29 | 2018-08-29 | 在网络交流中的情绪提醒的方法、通信终端和存储装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108830265A true CN108830265A (zh) | 2018-11-16 |
Family
ID=64151738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810997337.2A Withdrawn CN108830265A (zh) | 2018-08-29 | 2018-08-29 | 在网络交流中的情绪提醒的方法、通信终端和存储装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108830265A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785123A (zh) * | 2019-01-21 | 2019-05-21 | 中国平安财产保险股份有限公司 | 一种业务办理协助方法、装置及终端设备 |
CN109977411A (zh) * | 2019-03-28 | 2019-07-05 | 联想(北京)有限公司 | 一种数据处理方法、装置及电子设备 |
CN110853605A (zh) * | 2019-11-15 | 2020-02-28 | 中国传媒大学 | 音乐生成方法、装置及电子设备 |
CN113111258A (zh) * | 2021-03-31 | 2021-07-13 | 青岛海尔科技有限公司 | 菜谱推送方法和装置 |
CN115204127A (zh) * | 2022-09-19 | 2022-10-18 | 深圳市北科瑞声科技股份有限公司 | 基于远程流调的表单填写方法、装置、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130095460A1 (en) * | 2010-06-15 | 2013-04-18 | Jonathan Edward Bishop | Assisting human interaction |
US20140002573A1 (en) * | 2012-07-02 | 2014-01-02 | Samsung Electronics Co., Ltd. | Method for providing video call analysis service and an electronic device thereof |
CN103782253A (zh) * | 2011-09-09 | 2014-05-07 | 高通股份有限公司 | 将情绪传输为触觉反馈 |
US20140376785A1 (en) * | 2013-06-20 | 2014-12-25 | Elwha Llc | Systems and methods for enhancement of facial expressions |
CN105049249A (zh) * | 2015-07-09 | 2015-11-11 | 中山大学 | 一种远程可视会话服务的评分方法及系统 |
CN106303406A (zh) * | 2015-06-29 | 2017-01-04 | Lg电子株式会社 | 移动终端 |
CN107526994A (zh) * | 2016-06-21 | 2017-12-29 | 中兴通讯股份有限公司 | 一种信息处理方法、装置及移动终端 |
-
2018
- 2018-08-29 CN CN201810997337.2A patent/CN108830265A/zh not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130095460A1 (en) * | 2010-06-15 | 2013-04-18 | Jonathan Edward Bishop | Assisting human interaction |
CN103782253A (zh) * | 2011-09-09 | 2014-05-07 | 高通股份有限公司 | 将情绪传输为触觉反馈 |
US20140002573A1 (en) * | 2012-07-02 | 2014-01-02 | Samsung Electronics Co., Ltd. | Method for providing video call analysis service and an electronic device thereof |
US20140376785A1 (en) * | 2013-06-20 | 2014-12-25 | Elwha Llc | Systems and methods for enhancement of facial expressions |
CN106303406A (zh) * | 2015-06-29 | 2017-01-04 | Lg电子株式会社 | 移动终端 |
CN105049249A (zh) * | 2015-07-09 | 2015-11-11 | 中山大学 | 一种远程可视会话服务的评分方法及系统 |
CN107526994A (zh) * | 2016-06-21 | 2017-12-29 | 中兴通讯股份有限公司 | 一种信息处理方法、装置及移动终端 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785123A (zh) * | 2019-01-21 | 2019-05-21 | 中国平安财产保险股份有限公司 | 一种业务办理协助方法、装置及终端设备 |
CN109977411A (zh) * | 2019-03-28 | 2019-07-05 | 联想(北京)有限公司 | 一种数据处理方法、装置及电子设备 |
CN109977411B (zh) * | 2019-03-28 | 2022-03-25 | 联想(北京)有限公司 | 一种数据处理方法、装置及电子设备 |
CN110853605A (zh) * | 2019-11-15 | 2020-02-28 | 中国传媒大学 | 音乐生成方法、装置及电子设备 |
CN113111258A (zh) * | 2021-03-31 | 2021-07-13 | 青岛海尔科技有限公司 | 菜谱推送方法和装置 |
CN115204127A (zh) * | 2022-09-19 | 2022-10-18 | 深圳市北科瑞声科技股份有限公司 | 基于远程流调的表单填写方法、装置、设备及介质 |
CN115204127B (zh) * | 2022-09-19 | 2023-01-06 | 深圳市北科瑞声科技股份有限公司 | 基于远程流调的表单填写方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830265A (zh) | 在网络交流中的情绪提醒的方法、通信终端和存储装置 | |
US11327556B2 (en) | Information processing system, client terminal, information processing method, and recording medium | |
US20220254343A1 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
US7065711B2 (en) | Information processing device and method, and recording medium | |
CN104184760B (zh) | 通讯过程中的信息交互方法、客户端及服务器 | |
US20190206407A1 (en) | System and method for personalizing dialogue based on user's appearances | |
US6522333B1 (en) | Remote communication through visual representations | |
CN107053186B (zh) | 对话装置、机器人、对话方法以及存储介质 | |
US9724824B1 (en) | Sensor use and analysis for dynamic update of interaction in a social robot | |
CN110609620B (zh) | 基于虚拟形象的人机交互方法、装置及电子设备 | |
CN110188177A (zh) | 对话生成方法及装置 | |
CN105844101A (zh) | 一种基于智能手表的情绪数据处理方法、系统及智能手表 | |
JP7396396B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
EP2709357A1 (en) | Conference recording method and conference system | |
CN106205612A (zh) | 面向智能机器人的信息处理方法及系统 | |
CN108337380A (zh) | 自动调整用户界面以用于免提交互 | |
JP6860010B2 (ja) | 情報処理システム、情報処理方法、および情報処理プログラム | |
KR102532908B1 (ko) | 딥러닝 및 가상현실을 이용한 심리 상담 제공 장치, 방법 및 프로그램 | |
JP2006061632A (ja) | 感情データ提供装置、心理解析装置、および電話ユーザ心理解析方法 | |
CN112364971A (zh) | 会话控制方法、装置及电子设备 | |
CN109550230A (zh) | 一种交互体验装置和方法 | |
WO2017179262A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2003108502A (ja) | 身体性メディア通信システム | |
US9861900B2 (en) | Game system and game device | |
KR102298070B1 (ko) | 모바일 디바이스 기반 능동형 인공지능 영상 캐릭터 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 518000 1-10 Floor, Building A2, Nanshan Zhiyuan, 1001 Xueyuan Avenue, Nanshan District, Shenzhen City, Guangdong Province Applicant after: Our Internet Network Technology (Shenzhen) Co., Ltd. Address before: 518000 1-10 Floor, Building A2, Nanshan Zhiyuan, 1001 Xueyuan Avenue, Shenzhen City, Guangdong Province Applicant before: Our Internet Network Technology (Shenzhen) Co., Ltd. |
|
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20181116 |