CN108664890A - 一种矛盾协调方法、装置、机器人及存储介质 - Google Patents

一种矛盾协调方法、装置、机器人及存储介质 Download PDF

Info

Publication number
CN108664890A
CN108664890A CN201810265644.1A CN201810265644A CN108664890A CN 108664890 A CN108664890 A CN 108664890A CN 201810265644 A CN201810265644 A CN 201810265644A CN 108664890 A CN108664890 A CN 108664890A
Authority
CN
China
Prior art keywords
contradiction
scene
user
coordination
reason
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810265644.1A
Other languages
English (en)
Inventor
余倩
李承敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Loy Intelligent Technology Co Ltd
Original Assignee
Shanghai Loy Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Loy Intelligent Technology Co Ltd filed Critical Shanghai Loy Intelligent Technology Co Ltd
Priority to CN201810265644.1A priority Critical patent/CN108664890A/zh
Publication of CN108664890A publication Critical patent/CN108664890A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种矛盾协调方法、装置、机器人及存储介质。其中,方法包括:采集环境中用户的语音和图像,并根据所述语音和所述图像确定当前场景;若所述当前场景为矛盾场景,则根据用户信息确定协调策略;根据所述协调策略对所述矛盾场景进行协调,实现了及时发现矛盾场景并进行针对性协调。

Description

一种矛盾协调方法、装置、机器人及存储介质
技术领域
本发明实施例涉及智能机器人技术,尤其涉及一种矛盾协调方法、装置、机器人及存储介质。
背景技术
随着生活节奏的不断加快,现在的家长能够日常陪伴儿童的时间越来越少,不能实时陪伴儿童的成长,无法及时发现儿童之间发生的矛盾,也无法及时对儿童进行劝解和教育。
发明内容
本发明实施例提供一种矛盾协调方法、装置、机器人及存储介质,以实现及时对矛盾进行协调。
第一方面,本发明实施例提供了一种矛盾协调方法,该方法包括:
采集环境中用户的语音和图像,并根据所述语音和所述图像确定当前场景;
若所述当前场景为矛盾场景,则根据用户信息确定协调策略;
根据所述协调策略对所述矛盾场景进行协调。
可选的,所述当前场景包括矛盾场景和非矛盾场景,其中,根据所述语音和所述图像确定当前场景,包括:
将所述语音和所述图像输入至场景分析模型,根据所述场景分析模型的输出结果确定所述语音和所述图像对应的当前场景,其中,所述场景分析模型为预先根据矛盾样本训练得到。
可选的,根据用户信息确定协调策略,包括:
根据所述用户信息确定矛盾对象的年龄范围和身份关系;
根据所述年龄范围和身份关系确定对应的协调策略。
可选的,所述协调策略包括转移注意力,其中,根据所述协调策略对所述矛盾场景进行协调,包括:
根据所述用户信息确定所述用户的喜好信息;
根据所述喜好信息确定执行动作,以转移所述用户的注意力。
可选的,所述协调策略包括音视频劝解,其中,根据所述协调策略对所述矛盾场景进行协调,包括:
确定所述矛盾场景的矛盾原因;
根据所述矛盾原因调取对应的音视频文件并播放。
可选的,确定所述矛盾场景的矛盾原因,包括:
根据所述用户的年龄范围和身份关系获取对应的矛盾原因列表,其中所述矛盾原因列表中包含矛盾原因与矛盾表现的映射关系;
将所述语音和所述图像与所述矛盾表现进行匹配,根据匹配结果确定所述矛盾场景的矛盾原因。
可选的,在根据所述协调策略对所述矛盾场景进行协调之后,还包括:
统计所述用户在预设时间段内的矛盾频率和矛盾原因;
根据所述矛盾频率和所述矛盾原因推荐所述用户的陪伴计划。
第二方面,本发明实施例还提供了一种矛盾协调装置,该装置包括:
当前场景确定模块,用于采集环境中用户的语音和图像,并根据所述语音和所述图像确定当前场景;
协调策略确定模块,用于若所述当前场景为矛盾场景,则根据用户信息确定协调策略;
矛盾协调模块,用于根据所述协调策略对所述矛盾场景进行协调。
可选的,所述当前场景包括矛盾场景和非矛盾场景,其中,当前场景确定模块具体用于:
将所述语音和所述图像输入至场景分析模型,根据所述场景分析模型的输出结果确定所述语音和所述图像对应的当前场景,其中,所述场景分析模型为预先根据矛盾样本训练得到。
可选的,协调策略确定模块包括:
用户信息确定单元,用于根据用户信息确定矛盾对象的年龄范围和身份关系;
协调策略确定单元,用于根据所述年龄范围和身份关系确定对应的协调策略。
可选的,所述协调策略包括转移注意力,其中,矛盾协调模块包括:
用户喜好确定单元,用于根据所述用户信息确定所述用户的喜好信息;
第一矛盾协调单元,用于根据所述喜好信息确定执行动作,以转移所述用户的注意力。
可选的,所述协调策略包括音视频劝解,其中,矛盾协调模块包括:
矛盾原因确定单元,用于确定所述矛盾场景的矛盾原因;
第二矛盾协调单元,用于根据所述矛盾原因调取对应的音视频文件并播放。
可选的,矛盾原因确定单元具体用于:
根据所述用户的年龄范围和身份关系获取对应的矛盾原因列表,其中所述矛盾原因列表中包含矛盾原因与矛盾表现的映射关系;
将所述语音和所述图像与所述矛盾表现进行匹配,根据匹配结果确定所述矛盾场景的矛盾原因。
可选的,该装置还包括矛盾统计模块,用于在根据所述协调策略对所述矛盾场景进行协调之后,统计所述用户在预设时间段内的矛盾频率和矛盾原因;
陪伴计划推荐模块,用于根据所述矛盾频率和所述矛盾原因推荐所述用户的陪伴计划。
第三方面,本发明实施例还提供了一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明任意实施例提供的矛盾协调方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例提供的矛盾协调方法
本发明实施例通过采集环境中用户的语音和图像,根据用户的语音和图像确定当前场景是否为矛盾场景,当处于矛盾场景时,根据用户信息确定有针对性的协调策略,并根据确定的协调策略对矛盾场景中的用户进行协调,实现了及时发现矛盾场景并进行针对性协调。
附图说明
图1是本发明实施例一提供的一种矛盾协调方法的流程图;
图2是本发明实施例二提供的一种矛盾协调装置的结构示意图;
图3是本发明实施例三提供的一种机器人的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种矛盾协调方法的流程图,本实施例可适用于对环境中产生矛盾的用户进行有针对性的协调的情况,尤其适用于对产生矛盾的儿童进行协调的情况,该方法可以由本发明实施例提供的机器人来执行,该机器人可采用软件和/或硬件的方式实现,该方法具体包括:
S110、采集环境中用户的语音和图像,并根据语音和图像确定当前场景。
其中,通过诸如麦克风等的语音采集设备采集环境中的用户语音,通过诸如摄像头等的图像采集设备采集环境中的用户图像,其中,用户图像可以是包括但不限于用户的面部图像和肢体图像。可选的,通过图像采集装置采集环境中的用户视频,在视频中筛选预设时间间隔的视频帧作为用户图像。
本实施例中,通过采集的用户语音和用户图像确定当前场景。其中,当前场景包括矛盾场景和非矛盾场景。其中,矛盾场景指的是环境中的用户产生了矛盾,非矛盾场景指的是环境中的用户处于正常状态,未存在矛盾。
可选的,根据语音和图像确定当前场景,包括:将语音和图像输入至场景分析模型,根据场景分析模型的输出结果确定语音和图像对应的当前场景,其中,场景分析模型为预先根据矛盾样本训练得到。
其中,场景分析模型可以是机器学习模型,通过大量的矛盾样本训练得到,具有根据输入的语音和图像判断当前环境中是否为矛盾场景的功能。可选的,场景分析模型可以是深度神经网络模型,例如可以是循环神经网络模型或者卷积神经网络模型。矛盾样本用于对待训练的场景分析模型进行训练,其中,矛盾样本可以是通过云数据和网络资源获取。示例性的,根据关键词在网络资源的大量视频文件中截取矛盾视频,其中,大量的视频文件可以是电影视频、电视剧视频、直播视频或者用户拍摄分享视频等视频文件。可选的,通过关键字与上述视频文件的节点描述或者用户评述等进行匹配,在匹配成功的视频文件中截取对应的矛盾视频,获取包含矛盾语音和矛盾图像的矛盾样本。示例性的,还可以是获取预设服务器中,其他用户上传的矛盾视频、矛盾图像或者矛盾语音等,作为矛盾样本。
采用反向传输训练方式对待训练的场景分析模型进行训练,具体的,将矛盾样本输入至待训练的场景分析模型,当待训练的场景分析模型的理论输出和实际输出存在差异时,根据理论输出和实际输出的差异反向调节待训练的场景分析模型的网络参数,其中,网络参数包括但不限于待训练的场景分析模型的权重和偏移值。循环执行上述训练过程,当待训练的场景分析模型的理论输出和实际输出不存在差异或者差异满足预设要求时,确定场景分析模型训练完成。
可选的,在采集环境中用户的语音和图像之前,判断环境中用户数量,当环境中用户数量小于等于1时,确定当前场景为非矛盾场景,无需采集环境中用户的语音和图像。
S120、若当前场景为矛盾场景,则根据用户信息确定协调策略。
其中,用户信息可以是根据采集的用户图像和/或用户语音确定,例如,对用户图像进行人脸识别,确定用户的身份信息;还可以是识别用户语音的声纹特征,通过声纹特征识别用户的身份信息或者用户的年龄范围等。
本实施例中,当当前场景为矛盾场景时,根据处于矛盾场景中的用户的信息确定对应的协调策略,使得协调策略具有针对性,更加人性化,提高矛盾协调效率。
可选的,根据用户信息确定协调策略,包括:根据用户信息确定矛盾对象的年龄范围和身份关系;根据年龄范围和身份关系确定对应的协调策略。
本实施例中,通过用户信息可确定用户的身份信息和年龄范围,进一步可确定处于矛盾场景中的用户的身份关系,确定与年龄范围和身份关系相匹配的协调策略。示例性的,矛盾场景可以包括但不限于儿童之间的矛盾、家长与儿童之间的矛盾、情侣或夫妻之间的矛盾和同性成人之间的矛盾。可选的,可以说预先存储多个协调策略,不同的矛盾场景对应不同的协调策略,或者不同年龄范围的矛盾用户对应不同的协调策略,或者不同的矛盾原因对应不同的协调策略。
S130、根据协调策略对矛盾场景进行协调。
本实施例中,在确定协调策略之后,根据协调策略对处于矛盾场景中的用户进行协调。
可选的,协调策略包括转移注意力,其中,根据协调策略对矛盾场景进行协调,包括:根据用户信息确定用户的喜好信息;根据喜好信息确定执行动作,以转移用户的注意力。
当协调策略为转移注意力时,获取矛盾场景中的用户的喜好信息,其中,喜好信息可以是预先存储的,或者是通过学习得到。示例性的,若矛盾场景中的用户的喜好为小猪佩奇,可确定执行动作为搜索并播放小猪佩奇视频;若矛盾场景中的用户的喜好为跳舞,则确实执行动作可以是播放用户的舞蹈歌曲并发出提示语音,提示语音可以是“主人,我们来跳舞吧”;若矛盾场景中的用户的喜好为拍摄照片,则确定执行动作为通过语音向用户传输拍照提示,并进行对用户拍照,其中,拍照提示可以是“小明,拍一张美美的照片吧,看这里哦”。
本实施例中,根据用户的喜好,并根据用户喜好确定执行动作,以吸引处于矛盾场景中的用户的注意力,使得用户转移注意力,脱离矛盾场景,避免用户继续争执。
可选的,转移注意力的协调策略适应于处于矛盾场景中的用户包含至少一个儿童的情况。
可选的,协调策略包括音视频劝解,其中,根据协调策略对矛盾场景进行协调,包括:确定矛盾场景的矛盾原因;根据矛盾原因调取对应的音视频文件并播放。
本实施例中,当确定当前场景为矛盾场景后,进一步确定矛盾原因,并根据矛盾原因调取对应的音视频文件,通过音视频文件对用户进行协调。示例性的,若矛盾原因为对某一物体的争夺,则对应的音视频文件可以是包含分享教育的音视频文件;若矛盾原因为对厌烦学习,则对应的音视频文件可以是包含鼓励学习和快乐学习的音视频文件等。
可选的,若无法确定矛盾原因时,则对应的音视频文件可以是带有温馨气氛的音视频文件。
本实施例中,每一个矛盾原因对应多个音视频文件,并在播放任一音视频文件之后,删除播放的音视频文件,并获取更新音视频文件,以避免音视频文件的重复播放。
可选的,确定矛盾场景的矛盾原因,包括:根据用户的年龄范围和身份关系获取对应的矛盾原因列表,其中矛盾原因列表中包含矛盾原因与矛盾表现的映射关系;将语音和图像与矛盾表现进行匹配,根据匹配结果确定矛盾场景的矛盾原因。
其中,通过连接云端,获取不同年龄范围的用户的矛盾原因,生成矛盾原因列表,通过各矛盾原因对应的多个矛盾样本中提取矛盾表现,其中矛盾表现可以是用户语音的频率和振幅和用户之间的肢体动作的交互等。
本实施例中,通过矛盾场景中的用户语音和用户图像与矛盾表现进行匹配,当匹配成功时,确定与矛盾场景中的用户语音和用户图像对应的矛盾原因。
本实施例的技术方案,通过采集环境中用户的语音和图像,根据用户的语音和图像确定当前场景是否为矛盾场景,当处于矛盾场景时,根据用户信息确定有针对性的协调策略,并根据确定的协调策略对矛盾场景中的用户进行协调,实现了及时发现矛盾场景并进行针对性协调。
在上述技术方案的基础上,在根据协调策略对矛盾场景进行协调之后,还包括:
统计用户在预设时间段内的矛盾频率和矛盾原因;根据矛盾频率和矛盾原因推荐用户的陪伴计划。
本实施例中,在对用户进行协调之后,记录并存储矛盾场景和矛盾原因,并发送至绑定终端。示例性的,若处于矛盾场景中的用户为儿童时,绑定终端可以是家长的移动终端,以使得家长可及时了解儿童与他人的沟通情况以及性格变化。
统计用户在预设时间段内的矛盾频率和矛盾原因,生成该用户在预设时间段内的情绪变化图,并根据情绪变化图确定对该用户的陪伴计划或者教育计划,其中,预设时间段可以是一个星期、一个月或者一年等。示例性的,若该用户的矛盾频率较大时,表明该用户的性格存在易暴躁的倾向,需要增加对该用户的陪伴时间;若在预设时间段内与人发生矛盾的矛盾原因比较集中时,可针对该矛盾原因确定该用户的教育方向和教育方式。
本实施例中,通过统计用户在一段时间内的矛盾频率和矛盾原因,获取该用户,尤其是儿童在该时间段内的性格发展倾向,并推荐陪伴计划和教育方向,以协助家长更好的陪伴和教育儿童。
实施例二
图2是本发明实施例二提供的一种矛盾协调装置的结构示意图,该装置具体包括:
当前场景确定模块210,用于采集环境中用户的语音和图像,并根据语音和图像确定当前场景;
协调策略确定模块220,用于若当前场景为矛盾场景,则根据用户信息确定协调策略;
矛盾协调模块230,用于根据协调策略对矛盾场景进行协调。
可选的,当前场景包括矛盾场景和非矛盾场景,其中,当前场景确定模块210具体用于:
将语音和图像输入至场景分析模型,根据场景分析模型的输出结果确定语音和图像对应的当前场景,其中,场景分析模型为预先根据矛盾样本训练得到。
可选的,协调策略确定模块220包括:
用户信息确定单元,用于根据用户信息确定矛盾对象的年龄范围和身份关系;
协调策略确定单元,用于根据用户的年龄范围和身份关系确定对应的协调策略。
可选的,协调策略包括转移注意力,其中,矛盾协调模块230包括:
用户喜好确定单元,用于根据用户信息确定用户的喜好信息;
第一矛盾协调单元,用于根据喜好信息确定执行动作,以转移用户的注意力。
可选的,协调策略包括音视频劝解,其中,矛盾协调模块230包括:
矛盾原因确定单元,用于确定矛盾场景的矛盾原因;
第二矛盾协调单元,用于根据矛盾原因调取对应的音视频文件并播放。
可选的,矛盾原因确定单元具体用于:
根据年龄范围和身份关系获取对应的矛盾原因列表,其中矛盾原因列表中包含矛盾原因与矛盾表现的映射关系;
将语音和图像与矛盾表现进行匹配,根据匹配结果确定矛盾场景的矛盾原因。
可选的,该装置还包括矛盾统计模块,用于在根据协调策略对矛盾场景进行协调之后,统计用户在预设时间段内的矛盾频率和矛盾原因;
陪伴计划推荐模块,用于根据矛盾频率和矛盾原因推荐用户的陪伴计划。
本发明实施例提供的矛盾协调装置可执行本发明任意实施例所提供的矛盾协调方法,具备执行矛盾协调方法相应的功能模块和有益效果。
实施例三
图3是本发明实施例三提供的一种机器人结构示意图。参见图3,该机器人包括:
一个或多个处理器310;
存储器320,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器310执行,使得所述一个或多个处理器310实现如本发明实施例提供的矛盾协调方法。
图3中以一个处理器为例;处理器和存储器可以通过总线或其他方式连接,图3中以通过总线连接为例。
存储器作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块。处理器通过运行存储在存储器中的软件程序、指令以及模块,从而执行机器人的各种功能应用以及数据处理,即实现上述的矛盾协调方法。
存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至机器人。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
另外,根据机器人的不同形式,除了处理器和存储器,控制终端还可以包括其他模块或结构,例如,机器人可以具备语音播报功能,则还包括扬声器;又如,机器人可以是具有显示功能的设备,则还包括显示屏幕,用于显示地图数据,也可供用户在导航软件界面上进行触控操作。
本实施例提出的机器人与本发明实施例提出的矛盾协调方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见实施例一,并且本实施例与实施例一具有相同的有益效果。
实施例四
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例提出的矛盾协调方法。
本实施例提出的计算机可读存储介质与实施例提出的矛盾协调方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见实施例一,并且本实施例与实施例一具有相同的有益效果。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种矛盾协调方法,其特征在于,包括:
采集环境中用户的语音和图像,并根据所述语音和所述图像确定当前场景;
若所述当前场景为矛盾场景,则根据用户信息确定协调策略;
根据所述协调策略对所述矛盾场景进行协调。
2.根据权利要求1所述的方法,其特征在于,所述当前场景包括矛盾场景和非矛盾场景,其中,根据所述语音和所述图像确定当前场景,包括:
将所述语音和所述图像输入至场景分析模型,根据所述场景分析模型的输出结果确定所述语音和所述图像对应的当前场景,其中,所述场景分析模型为预先根据矛盾样本训练得到。
3.根据权利要求1所述的方法,其特征在于,根据用户信息确定协调策略,包括:
根据所述用户信息确定矛盾对象的年龄范围和身份关系;
根据所述年龄范围和身份关系确定对应的协调策略。
4.根据权利要求1或3所述的方法,其特征在于,所述协调策略包括转移注意力,其中,根据所述协调策略对所述矛盾场景进行协调,包括:
根据所述用户信息确定所述用户的喜好信息;
根据所述喜好信息确定执行动作,以转移所述用户的注意力。
5.根据权利要求1或3所述的方法,其特征在于,所述协调策略包括音视频劝解,其中,根据所述协调策略对所述矛盾场景进行协调,包括:
确定所述矛盾场景的矛盾原因;
根据所述矛盾原因调取对应的音视频文件并播放。
6.根据权利要求5所述的方法,其特征在于,确定所述矛盾场景的矛盾原因,包括:
根据所述用户的年龄范围和身份关系获取对应的矛盾原因列表,其中所述矛盾原因列表中包含矛盾原因与矛盾表现的映射关系;
将所述语音和所述图像与所述矛盾表现进行匹配,根据匹配结果确定所述矛盾场景的矛盾原因。
7.根据权利要求1所述的方法,其特征在于,在根据所述协调策略对所述矛盾场景进行协调之后,还包括:
统计所述用户在预设时间段内的矛盾频率和矛盾原因;
根据所述矛盾频率和所述矛盾原因推荐所述用户的陪伴计划。
8.一种矛盾协调装置,其特征在于,包括:
当前场景确定模块,用于采集环境中用户的语音和图像,并根据所述语音和所述图像确定当前场景;
协调策略确定模块,用于若所述当前场景为矛盾场景,则根据用户信息确定协调策略;
矛盾协调模块,用于根据所述协调策略对所述矛盾场景进行协调。
9.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN201810265644.1A 2018-03-28 2018-03-28 一种矛盾协调方法、装置、机器人及存储介质 Pending CN108664890A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810265644.1A CN108664890A (zh) 2018-03-28 2018-03-28 一种矛盾协调方法、装置、机器人及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810265644.1A CN108664890A (zh) 2018-03-28 2018-03-28 一种矛盾协调方法、装置、机器人及存储介质

Publications (1)

Publication Number Publication Date
CN108664890A true CN108664890A (zh) 2018-10-16

Family

ID=63782032

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810265644.1A Pending CN108664890A (zh) 2018-03-28 2018-03-28 一种矛盾协调方法、装置、机器人及存储介质

Country Status (1)

Country Link
CN (1) CN108664890A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109672724A (zh) * 2018-11-01 2019-04-23 百度在线网络技术(北京)有限公司 信息推送方法、装置及设备
CN112911403A (zh) * 2021-01-28 2021-06-04 深圳创维-Rgb电子有限公司 事件分析方法、装置、电视机以及计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103700250A (zh) * 2012-09-28 2014-04-02 姜廷顺 公安交通突发事件快速处理方法及系统
CN103745575A (zh) * 2014-01-10 2014-04-23 宁波多尔贝家居制品实业有限公司 一种家庭气氛调节装置及其工作控制方法
CN103753580A (zh) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 家庭矛盾和解服务机器人
CN106095903A (zh) * 2016-06-08 2016-11-09 成都三零凯天通信实业有限公司 一种基于深度学习技术的广播电视舆情分析方法及系统
CN106570496A (zh) * 2016-11-22 2017-04-19 上海智臻智能网络科技股份有限公司 情绪识别方法和装置以及智能交互方法和设备
CN106650633A (zh) * 2016-11-29 2017-05-10 上海智臻智能网络科技股份有限公司 一种驾驶员情绪识别方法和装置
CN107016361A (zh) * 2017-03-29 2017-08-04 成都三零凯天通信实业有限公司 基于视频分析的识别方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103700250A (zh) * 2012-09-28 2014-04-02 姜廷顺 公安交通突发事件快速处理方法及系统
CN103745575A (zh) * 2014-01-10 2014-04-23 宁波多尔贝家居制品实业有限公司 一种家庭气氛调节装置及其工作控制方法
CN103753580A (zh) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 家庭矛盾和解服务机器人
CN106095903A (zh) * 2016-06-08 2016-11-09 成都三零凯天通信实业有限公司 一种基于深度学习技术的广播电视舆情分析方法及系统
CN106570496A (zh) * 2016-11-22 2017-04-19 上海智臻智能网络科技股份有限公司 情绪识别方法和装置以及智能交互方法和设备
CN106650633A (zh) * 2016-11-29 2017-05-10 上海智臻智能网络科技股份有限公司 一种驾驶员情绪识别方法和装置
CN107016361A (zh) * 2017-03-29 2017-08-04 成都三零凯天通信实业有限公司 基于视频分析的识别方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109672724A (zh) * 2018-11-01 2019-04-23 百度在线网络技术(北京)有限公司 信息推送方法、装置及设备
CN112911403A (zh) * 2021-01-28 2021-06-04 深圳创维-Rgb电子有限公司 事件分析方法、装置、电视机以及计算机可读存储介质
CN112911403B (zh) * 2021-01-28 2022-10-21 深圳创维-Rgb电子有限公司 事件分析方法、装置、电视机以及计算机可读存储介质

Similar Documents

Publication Publication Date Title
Shifman Memes in digital culture
Landy Understanding the art of sound organization
KR20210110620A (ko) 상호작용 방법, 장치, 전자 장치 및 저장 매체
Marubbio et al. Native Americans on film: Conversations, teaching, and theory
Taylor Music in the world: Selected essays
Johnson et al. Machinima: the art and practice of virtual filmmaking
CN108664890A (zh) 一种矛盾协调方法、装置、机器人及存储介质
DE102020112475A1 (de) Verfahren, System, Anwendergerät sowie Computerprogramm zum Erzeugen einer medialen Ausgabe an einem Anwendergerät
Ferrarini Enactive filmmaking: Rethinking ethnographic cinema in the first person
Field Archival Rediscovery and the Production of History: Solving the Mystery of Something Good—Negro Kiss (1898)
CN112927665B (zh) 创作方法、电子设备和计算机可读存储介质
Prada Art, images and network culture
CN109547320B (zh) 社交方法、装置及设备
Biggs et al. Mere and easy: Collage as a critical practice in pedagogy
Gall Towards a Cinema of Imperfection: Participatory Film as Research
CN108364526A (zh) 一种音乐教学方法、装置、机器人及存储介质
Born Postlude: musical-anthropological comparativism–across scales
Smigel Metaphors on Vision: James Tenney and Stan Brakhage, 1951-1964
Eisenberg Symposium I
CN114117236A (zh) 基于智能终端的用户交互方法、装置、设备和存储介质
Huang Innovation and Practice of Music Educationpath in Colleges and Universities Under the Popularization of 5g Networks
CN117494791A (zh) 内容生成模型优化方法、内容生成方法及相关装置
Cermatori et al. Teaching African American Dance/History to a" Post-Racial" Class: Yale's Project O
Benoît-Serge The harmonious coexistence of sound and image for efficient audiovisual communication: the case of Kairos Communications LTD
Meyler Insights into perceptual ambiguity and inference in art-: a practice-based approach derived from the corporeal form

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181016