CN105956513B - 执行反应动作的方法及装置 - Google Patents

执行反应动作的方法及装置 Download PDF

Info

Publication number
CN105956513B
CN105956513B CN201610245149.5A CN201610245149A CN105956513B CN 105956513 B CN105956513 B CN 105956513B CN 201610245149 A CN201610245149 A CN 201610245149A CN 105956513 B CN105956513 B CN 105956513B
Authority
CN
China
Prior art keywords
image
trigger object
trigger
action
triggering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610245149.5A
Other languages
English (en)
Other versions
CN105956513A (zh
Inventor
刘华一君
陈涛
吴珂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201610245149.5A priority Critical patent/CN105956513B/zh
Publication of CN105956513A publication Critical patent/CN105956513A/zh
Application granted granted Critical
Publication of CN105956513B publication Critical patent/CN105956513B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Studio Devices (AREA)

Abstract

本公开是关于一种执行反应动作的方法及装置,用于实现机器人的智能表情变化,提高机器人的智能程度。所述方法包括:对周围环境进行监控,获得监控图像;识别图像中是否有第一触发物体;在识别出有第一触发物体时,执行第一动作。

Description

执行反应动作的方法及装置
技术领域
本公开涉及通信及计算机处理领域,尤其涉及执行反应动作的方法及装置。
背景技术
随着电子技术的发展,移动终端、智能家居等智能设备层出不穷。其中,机器人属于智能程度比较高的设备。机器人的智能程度相比于人类还差很远,但是仍处于不断发展中。
发明内容
为克服相关技术中存在的问题,本公开提供一种执行反应动作的方法及装置。
根据本公开实施例的第一方面,提供一种执行反应动作的方法,包括:
对周围环境进行监控,获得监控图像;
识别图像中是否有第一触发物体;
在识别出有第一触发物体时,执行第一动作。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例对机器人进行了改进,通过图像了解周围环境,当环境中有触发物体时可自动作出第一动作。
在一个实施例中,所述第一动作至少包括下列动作之一:控制自身显示装置输出微笑的表情、点头、挥手、握手、输出预设的语音和更改显示装置输出的颜色。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例中机器人可以在识别出周围环境中有触发物体时,自动做出与高兴有关的表情和动作,如微笑、点头等。
在一个实施例中,所述识别图像中是否有第一触发物体,包括:
通过识别图像中是否有包含触发物体的设备,辅助识别图像中是否有第一触发物体。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例通过识别包含触发物体的设备,可以辅助提高识别触发物体的准确率。
在一个实施例中,所述识别图像中是否有第一触发物体,包括:
识别图像中是否有触发物体以及触发物体的数量;
在图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例提供了在周围环境中有多个触发物体时的方向定位的解决方案,使得本实施例适用于多种应用场景。
在一个实施例中,所述第一动作包括:朝所述第一触发物体所在方向整体旋转,或朝所述第一触发物体所在方向移动,或控制自身的显示装置朝所述第一触发物体所在方向旋转;
所述在识别出有第一触发物体时,执行第一动作,包括:
在识别出有第一触发物体时,根据所述第一触发物体在图像中的位置确定所述第一触发物体所在方向;
根据所述第一触发物体所在方向执行第一动作。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例为了更加配合触发物体的监控,机器人可以自动朝触发物体方向旋转和移动,使得监控效果更好。
在一个实施例中,所述方法还包括:
在执行第一动作后,继续对周围环境进行监控,获得监控图像;
识别图像中是否有所述第一触发物体;
在图像中有所述第一触发物体时,通过分析图像判断所述第一触发物体是否发生移动;
在所述第一触发物体发生移动时保持不动。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例中机器人在执行第一动作之后,面对第一触发物体保持不动,维持适合拍照的表情和动作,不再向第一触发物体移动或旋转。
在一个实施例中,所述方法还包括:
在未识别出有第一触发物体时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例中机器人在不需要配合拍照时可以执行第二动作,以减少功耗。
根据本公开实施例的第二方面,提供一种执行反应动作的装置,包括:
第一监控模块,用于对周围环境进行监控,获得监控图像;
第一识别模块,用于识别图像中是否有第一触发物体;
第一执行模块,用于在识别出有第一触发物体时,执行第一动作。
在一个实施例中,所述第一动作至少包括下列动作之一:控制自身显示装置输出微笑的表情、点头、挥手、握手、输出预设的语音和更改显示装置输出的颜色。
在一个实施例中,所述第一识别模块包括:
辅助识别子模块,用于通过识别图像中是否有包含触发物体的设备,辅助识别图像中是否有第一触发物体。
在一个实施例中,所述第一识别模块包括:
数量识别子模块,用于识别图像中是否有触发物体以及触发物体的数量;
定位子模块,用于在图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体。
在一个实施例中,所述第一动作包括:朝所述第一触发物体所在方向整体旋转,或朝所述第一触发物体所在方向移动,或控制自身的显示装置朝所述第一触发物体所在方向旋转;
所述第一执行模块包括:
方向子模块,用于在识别出有第一触发物体时,根据所述第一触发物体在图像中的位置确定所述第一触发物体所在方向;
执行子模块,用于根据所述第一触发物体所在方向执行第一动作。
在一个实施例中,所述装置还包括:
第二监控模块,用于在执行第一动作后,继续对周围环境进行监控,获得监控图像;
第二识别模块,用于识别图像中是否有所述第一触发物体;
跟踪模块,用于在图像中有所述第一触发物体时,通过分析图像判断所述第一触发物体是否发生移动;在所述第一触发物体发生移动时保持不动。
在一个实施例中,所述装置还包括:
第二执行模块,用于在未识别出有第一触发物体时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
根据本公开实施例的第三方面,提供一种执行反应动作的装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
对周围环境进行监控,获得监控图像;
识别图像中是否有第一触发物体;
在识别出有第一触发物体时,执行第一动作。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种机器人的示意图。
图2是根据一示例性实施例示出的一种执行反应动作的方法的流程图。
图3是根据一示例性实施例示出的一种机器人的示意图。
图4是根据一示例性实施例示出的一种执行反应动作的方法的流程图。
图5是根据一示例性实施例示出的一种执行反应动作的方法的流程图。
图6是根据一示例性实施例示出的一种执行反应动作的方法的流程图。
图7是根据一示例性实施例示出的一种执行反应动作的装置的框图。
图8是根据一示例性实施例示出的一种第一识别模块的框图。
图9是根据一示例性实施例示出的一种第一识别模块的框图。
图10是根据一示例性实施例示出的一种第一执行模块的框图。
图11是根据一示例性实施例示出的一种执行反应动作的装置的框图。
图12是根据一示例性实施例示出的一种执行反应动作的装置的框图。
图13是根据一示例性实施例示出的一种装置的框图。
图14是根据一示例性实施例示出的一种装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
相关技术中,机器人只有一个表情,如图1所示,或者根据输入的命令进行表情变化,而无法根据周围环境自动作出表情变化。
为解决该问题,本实施例中机器人对环境进行监控,识别监控图像,如果图像中有镜头,则确定有镜头在对着自己拍照,因此作出配合拍照的动作,实现自动作出表情和动作变化,以配合周围环境。
图2是根据一示例性实施例示出的一种执行反应动作的方法的流程图,如图2所示,该方法可以由机器人实现,包括以下步骤:
在步骤201中,对周围环境进行监控,获得监控图像。
在步骤202中,识别图像中是否有第一触发物体。
在步骤203中,在识别出有第一触发物体时,执行第一动作。
本实施例中第一触发物体可以是镜头等预设的能够获取图像信息的物体。下面以镜头为例进行说明。
本实施例中机器人自带摄像头,可以利用该摄像头对周围环境进行监控,获得监控图像。对该图像进行识别,识别图像中是否有镜头,相当于判断周围环境中是否有镜头对自己进行拍照。在识别出有第一镜头时,相当于判断出周围环境中有镜头对自己进行拍照,此时执行预设的第一动作,以配合拍照。该第一动作包括适合于配合拍照的各种动作。
机器人可以周期性的以预设的旋转角度旋转自身的摄像头,以确定周围环境中是否有镜头。在识别出第一镜头且执行第一动作后,可以以该旋转角度继续旋转摄像头,确定周围环境中是否有其它镜头。
在一个实施例中,所述第一动作至少包括下列动作之一:控制自身显示装置输出微笑的表情、点头、挥手、握手、输出预设的语音和更改显示装置输出的颜色。
以微笑表情为例,如图3所示,机器人可以在识别到有镜头后自动作出微笑表情。预设的语音可以是表示欢迎或友好的语言,或者是欢乐的音乐等。输出的颜色可以是红色、黄色等,或是一些色彩变换的动画等。
在一个实施例中,镜头可以是手机上的镜头、平板电脑上的镜头、相机上的镜头或家庭摄像头等。可以预先存储镜头的图像特征,根据该图像特征从监控图像中识别出镜头。但是,手机或平板电脑上的镜头比较小,并且在外观上与手机外壳或平板电脑外壳在同一平面上,另外镜头多为黑色或灰色。只对镜头进行识别,识别结果可能不够准确。为了提供识别的准确度,可以增加辅助识别对象。则,步骤202包括:步骤A1。
在步骤A1中,通过识别图像中是否有包含触发物体的设备,辅助识别图像中是否有第一触发物体。
包含镜头的设备有手机、平板电脑、相机、摄像头等。机器人可以即识别镜头,又识别包含镜头的设备,先识别哪个对象均可,也可以同时识别。如果均识别成功,则确定图像中有第一镜头。本实施例增加了识别对象,通过对设备的识别来辅助提高识别镜头的准确率。
另外,辅助识别对象还可以有人,比如识别有人手持设备等。或者,辅助识别对象还可以包括行为,如识别人从兜里拿出设备等。这些辅助识别对象均可以提高识别触发物体的准确率。
在一个实施例中,可能存在这样一种场景,周围有多个镜头对着机器人拍照。机器人可能需要定位镜头,从多个镜头中选择一个镜头作为第一镜头。则,步骤202包括:步骤B1-步骤B2。
在步骤B1中,识别图像中是否有触发物体以及触发物体的数量。
在步骤B2中,在图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体。
本实施例优先将图像的中心位置的镜头作为第一镜头,可以较快速的执行第一动作,快速响应拍照,减少移动。机器人在朝着中心位置的镜头执行第一动作后(执行第一动作达到预设时长),可以朝预设方向旋转,按旋转方向的顺序,从剩余的镜头中选择一个镜头作为第一镜头,并执行第一动作。如此循环,直至机器人旋转一周。
其中,机器人可以根据图像中相邻两个镜头的距离确定旋转的角度,直至下一个镜头位于图像中心位置(可以是一个预设的中心区域),或者采用预设的旋转角度。机器人在旋转的过程中不断的监控图像,记录各个镜头的特征,标记已作为第一镜头的镜头。当旋转一周,且所有图像中的镜头均被标记后,结束本次流程。可周期性的重复上述过程。
如果多个镜头的位置特别近,如相邻两个镜头的距离小于预设阈值,或多个镜头均位于中心区域,则将这多个镜头共同作为第一镜头,将这多个镜头所在区域的中心点作为第一镜头的位置。
在一个实施例中,所述第一动作包括:朝所述第一镜头所在方向整体旋转,或朝所述第一镜头所在方向移动,或控制自身的显示装置朝所述第一镜头所在方向旋转。
步骤203包括:步骤C1-步骤C2。
在步骤C1中,在识别出有第一触发物体时,根据所述第一触发物体在图像中的位置确定所述第一触发物体所在方向。
在步骤C2中,根据所述第一触发物体所在方向执行第一动作。
本实施例中,为了更好的配合拍照,机器人可以朝第一镜头所在的方向旋转和移动。该旋转可以是车轮(脚)带动自身整体旋转,也可以只旋转自身的显示装置(头)。如何旋转可以预先配置。旋转的角度可以根据第一镜头在图像中的位置确定,旋转后第一镜头位于图像的中心位置即可。移动的距离可以预先设置,或者移动到与第一镜头保持预设距离(该距离可以通过第一镜头在图像中的大小确定)。
机器人可以周期性的对周围环境进行监控,以识别是否有镜头。或者在预设触发条件的触发下对周围环境进行监控,以识别是否有镜头。预设的触发条件可以有:预设的时间(如9点)、预设的语音(如“往这看”或“拍照”)或其它预设命令等。
在一个实施例中,机器人识别出第一镜头后,朝第一镜头旋转和移动,以配合第一镜头拍照。可能存在这样一种场景,第一镜头围着机器人转圈拍照,监控机器人的各个角度。此时,机器人不适合继续朝着第一镜头旋转或移动。则,所述方法还包括:步骤D1-步骤D4。
在步骤D1中,在执行第一动作后,继续对周围环境进行监控,获得监控图像。
在步骤D2中,识别图像中是否有所述第一触发物体。
在步骤D3中,在图像中有所述第一触发物体时,通过分析图像判断所述第一触发物体是否发生移动。
在步骤D4中,在所述第一触发物体发生移动时保持不动。此处的保持不动可以是不旋转不移动,但是仍然可以输出微笑表情、点头、挥手等。
或者,机器人判断出所述第一触发物体发生移动时,如果图像中还有其它触发物体,可以将其它触发物体作为第一触发物体,然后执行第一动作。
在一个实施例中,所述方法还包括:步骤E1。
在步骤E1中,在未识别出有第一触发物体时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
本实施例中机器人旋转摄像头一圈后,确定周围环境中没有镜头,相当于确定不需要配合拍照,此时可以执行第二动作。第二动作可以是进入待机模式或进入省电模式等各种有节能效果的处理。
当然,在未识别出有第一镜头时,可以保持原状态不变。
以上方案可以根据实际需要结合使用。
下面通过几个实施例详细介绍执行反应动作的实现过程。
图4是根据一示例性实施例示出的一种执行反应动作的方法的流程图,如图4所示,该方法可以由机器人实现,包括以下步骤:
在步骤401中,对周围环境进行监控,获得监控图像。
机器人优先对正前方进行监控,如果有镜头,则继续步骤402,如果没有镜头,则以预设旋转角度旋转自身的摄像头,继续监控,直至摄像头旋转一圈。
在步骤402中,通过识别图像中是否有包含镜头的设备,辅助识别图像中是否有镜头以及镜头的数量。
如果图像中只有一个镜头,则继续步骤404。
如果没有镜头,则结束本次流程。
在步骤403中,在图像中有镜头且至少有两个镜头时,将最接近图像中心位置的镜头确定为第一镜头。
在步骤404中,在识别出有第一镜头时,执行第一动作。
在步骤405中,在执行第一动作达到预设时长时,判断是否有未作为第一镜头的剩余镜头。如果有未作为第一镜头的剩余镜头,继续步骤406;如果没有未作为第一镜头的剩余镜头,结束本次流程,或者继续步骤401。
在步骤406中,将剩余镜头中的一个镜头作为第一镜头,执行第一动作。继续步骤405。
图5是根据一示例性实施例示出的一种执行反应动作的方法的流程图,如图5所示,该方法可以由机器人实现,包括以下步骤:
在步骤501中,对周围环境进行监控,获得监控图像。
机器人优先对正前方进行监控,如果有镜头,则继续步骤502,如果没有镜头,则以预设旋转角度旋转自身的摄像头,继续监控,直至摄像头旋转一圈。
在步骤502中,通过识别图像中是否有包含镜头的设备,辅助识别图像中是否有镜头以及镜头的数量。
如果图像中只有一个镜头,则继续步骤504。
在步骤503中,在图像中有镜头且至少有两个镜头时,将最接近图像中心位置的镜头确定为第一镜头。
在步骤504中,在识别出有第一镜头时,根据所述第一镜头在图像中的位置确定所述第一镜头所在方向。
在步骤505中,根据所述第一镜头所在方向执行第一动作。
在步骤506中,在执行第一动作达到预设时长时,判断是否有未作为第一镜头的剩余镜头。如果有未作为第一镜头的剩余镜头,继续步骤507;如果没有未作为第一镜头的剩余镜头,结束本次流程,或者继续步骤501。
在步骤507中,将剩余镜头中的一个镜头作为第一镜头,执行第一动作。继续步骤506。
图6是根据一示例性实施例示出的一种执行反应动作的方法的流程图,如图6所示,该方法可以由机器人实现,包括以下步骤:
在步骤601中,对周围环境进行监控,获得监控图像。
在步骤602中,识别图像中是否有第一镜头。
在步骤603中,在识别出有第一镜头时,执行第一动作。
在步骤604中,在执行第一动作后,继续对周围环境进行监控,获得监控图像。
在步骤605中,识别图像中是否有所述第一镜头。
在步骤606中,在图像中有所述第一镜头时,通过分析图像判断所述第一镜头是否发生移动。
在图像中没有第一镜头时,结束本次流程。
在步骤607中,在所述第一镜头发生移动时保持不动。步骤606和步骤607的作用是避免持续的对第一镜头执行第一动作,尤其是避免持续的朝第一镜头旋转和移动。
在所述第一镜头未发生移动时也是保持不动。
在步骤608中,在未识别出有第一镜头时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
通过以上介绍了解了执行反应动作的实现过程,该过程由移动终端和计算机实现,下面分别针对两个设备的内部结构和功能进行介绍。
图7是根据一示例性实施例示出的一种执行反应动作的装置示意图。参照图7,该装置包括:第一监控模块701、第一识别模块702和第一执行模块703。
第一监控模块701,用于对周围环境进行监控,获得监控图像。
第一识别模块702,用于识别图像中是否有第一触发物体。
第一执行模块703,用于在识别出有第一触发物体时,执行第一动作。
在一个实施例中,所述第一动作至少包括下列动作之一:控制自身显示装置输出微笑的表情、点头、挥手、握手、输出预设的语音和更改显示装置输出的颜色。
在一个实施例中,如图8所示,所述第一识别模块702包括:辅助识别子模块7021。
辅助识别子模块7021,用于通过识别图像中是否有包含触发物体的设备,辅助识别图像中是否有第一触发物体。
在一个实施例中,如图9所示,所述第一识别模块702包括:数量识别子模块7022和定位子模块7023。
数量识别子模块7022,用于识别图像中是否有触发物体以及触发物体的数量。
定位子模块7023,用于在图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体。
在一个实施例中,所述第一动作包括:朝所述第一触发物体所在方向整体旋转,或朝所述第一触发物体所在方向移动,或控制自身的显示装置朝所述第一触发物体所在方向旋转;
如图10所示,所述第一执行模块703包括:方向子模块7031和执行子模块7032。
方向子模块7031,用于在识别出有第一触发物体时,根据所述第一触发物体在图像中的位置确定所述第一触发物体所在方向。
执行子模块7032,用于根据所述第一触发物体所在方向执行第一动作。
在一个实施例中,如图11所示,所述装置还包括:第二监控模块704、第二识别模块705和跟踪模块706。
第二监控模块704,用于在执行第一动作后,继续对周围环境进行监控,获得监控图像。
第二识别模块705,用于识别图像中是否有所述第一触发物体。
跟踪模块706,用于在图像中有所述第一触发物体时,通过分析图像判断所述第一触发物体是否发生移动;在所述第一触发物体发生移动时保持不动。
在一个实施例中,如图12所示,所述装置还包括:第二执行模块707。
第二执行模块707,用于在未识别出有第一触发物体时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图13是根据一示例性实施例示出的一种用于执行反应动作的装置1300的框图。例如,装置1300可以是机器人、智能设备等。
参照图13,装置1300可以包括以下一个或多个组件:处理组件1302,存储器1304,电源组件1306,多媒体组件1308,音频组件1310,输入/输出(I/O)的接口1312,传感器组件1314,以及通信组件1316。
处理组件1302通常控制装置1300的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件1302可以包括一个或多个处理器1320来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1302可以包括一个或多个模块,便于处理组件1302和其他组件之间的交互。例如,处理组件1302可以包括多媒体模块,以方便多媒体组件1308和处理组件1302之间的交互。
存储器1304被配置为存储各种类型的数据以支持在装置1300的操作。这些数据的示例包括用于在装置1300上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1304可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1306为装置1300的各种组件提供电源。电源组件1306可以包括电源管理系统,一个或多个电源,及其他与为装置1300生成、管理和分配电源相关联的组件。
多媒体组件1308包括在所述装置1300和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1308包括一个前置摄像头和/或后置摄像头。当装置1300处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1310被配置为输出和/或输入音频信号。例如,音频组件1310包括一个麦克风(MIC),当装置1300处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1304或经由通信组件1316发送。在一些实施例中,音频组件1310还包括一个扬声器,用于输出音频信号。
I/O接口1312为处理组件1302和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1314包括一个或多个传感器,用于为装置1300提供各个方面的状态评估。例如,传感器组件1314可以检测到装置1300的打开/关闭状态,组件的相对定位,例如所述组件为装置1300的显示器和小键盘,传感器组件1314还可以检测装置1300或装置1300的一个组件的位置改变,用户与装置1300接触的存在或不存在,装置1300方位或加速/减速和装置1300的温度变化。传感器组件1314可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1314还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1314还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1316被配置为便于装置1300和其他设备之间有线或无线方式的通信。装置1300可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1316经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件1316还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置1300可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1304,上述指令可由装置1300的处理器1320执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种执行反应动作的装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
对周围环境进行监控,获得监控图像;
识别图像中是否有第一触发物体;
在识别出有第一触发物体时,执行第一动作。
所述处理器还可以被配置为:
所述第一动作至少包括下列动作之一:控制自身显示装置输出微笑的表情、点头、挥手、握手、输出预设的语音和更改显示装置输出的颜色。
所述处理器还可以被配置为:
所述识别图像中是否有第一触发物体,包括:
通过识别图像中是否有包含触发物体的设备,辅助识别图像中是否有第一触发物体。
所述处理器还可以被配置为:
所述识别图像中是否有第一触发物体,包括:
识别图像中是否有触发物体以及触发物体的数量;
在图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体。
所述处理器还可以被配置为:
所述第一动作包括:朝所述第一触发物体所在方向整体旋转,或朝所述第一触发物体所在方向移动,或控制自身的显示装置朝所述第一触发物体所在方向旋转;
所述在识别出有第一触发物体时,执行第一动作,包括:
在识别出有第一触发物体时,根据所述第一触发物体在图像中的位置确定所述第一触发物体所在方向;
根据所述第一触发物体所在方向执行第一动作。
所述处理器还可以被配置为:
所述方法还包括:
在执行第一动作后,继续对周围环境进行监控,获得监控图像;
识别图像中是否有所述第一触发物体;
在图像中有所述第一触发物体时,通过分析图像判断所述第一触发物体是否发生移动;
在所述第一触发物体发生移动时保持不动。
所述处理器还可以被配置为:
所述方法还包括:
在未识别出有第一触发物体时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种执行反应动作的方法,所述方法包括:
对周围环境进行监控,获得监控图像;
识别图像中是否有第一触发物体;
在识别出有第一触发物体时,执行第一动作。
所述存储介质中的指令还可以包括:
所述第一动作至少包括下列动作之一:控制自身显示装置输出微笑的表情、点头、挥手、握手、输出预设的语音和更改显示装置输出的颜色。
所述存储介质中的指令还可以包括:
所述识别图像中是否有第一触发物体,包括:
通过识别图像中是否有包含触发物体的设备,辅助识别图像中是否有第一触发物体。
所述存储介质中的指令还可以包括:
所述识别图像中是否有第一触发物体,包括:
识别图像中是否有触发物体以及触发物体的数量;
在图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体。
所述存储介质中的指令还可以包括:
所述第一动作包括:朝所述第一触发物体所在方向整体旋转,或朝所述第一触发物体所在方向移动,或控制自身的显示装置朝所述第一触发物体所在方向旋转;
所述在识别出有第一触发物体时,执行第一动作,包括:
在识别出有第一触发物体时,根据所述第一触发物体在图像中的位置确定所述第一触发物体所在方向;
根据所述第一触发物体所在方向执行第一动作。
所述存储介质中的指令还可以包括:
所述方法还包括:
在执行第一动作后,继续对周围环境进行监控,获得监控图像;
识别图像中是否有所述第一触发物体;
在图像中有所述第一触发物体时,通过分析图像判断所述第一触发物体是否发生移动;
在所述第一触发物体发生移动时保持不动。
所述存储介质中的指令还可以包括:
所述方法还包括:
在未识别出有第一触发物体时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
图14是根据一示例性实施例示出的一种用于执行反应动作的装置1400的框图。例如,装置1400可以被提供为一机器人、智能设备等。参照图14,装置1400包括处理组件1422,其进一步包括一个或多个处理器,以及由存储器1432所代表的存储器资源,用于存储可由处理组件1422的执行的指令,例如应用程序。存储器1432中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1422被配置为执行指令,以执行上述方法执行反应动作。
装置1400还可以包括一个电源组件1426被配置为执行装置1400的电源管理,一个有线或无线网络接口1450被配置为将装置1400连接到网络,和一个输入输出(I/O)接口1458。装置1400可以操作基于存储在存储器1432的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (14)

1.一种执行反应动作的方法,其特征在于,应用于机器人,所述方法包括:
对周围环境进行监控,获得监控图像;
识别所述监控图像中是否有第一触发物体;
在识别出有第一触发物体时,执行第一动作;
其中,所述识别所述监控图像中是否有第一触发物体,包括:
识别监控图像中是否有触发物体以及触发物体的数量;
在监控图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体;
所述识别所述监控图像中是否有第一触发物体,还包括:
在执行第一动作之后,朝预设方向旋转,按旋转方向的顺序,从剩余的未标记的触发物体中选择一个触发物体作为所述第一触发物体,并对所述第一触发物体进行标记,直至旋转一周。
2.根据权利要求1所述的执行反应动作的方法,其特征在于,所述第一动作至少包括下列动作之一:控制自身显示装置输出微笑的表情、点头、挥手、握手、输出预设的语音和更改显示装置输出的颜色。
3.根据权利要求1所述的执行反应动作的方法,其特征在于,所述识别所述监控图像中是否有第一触发物体,包括:
通过识别图像中是否有包含触发物体的设备,辅助识别图像中是否有第一触发物体。
4.根据权利要求1所述的执行反应动作的方法,其特征在于,所述第一动作包括:朝所述第一触发物体所在方向整体旋转,或朝所述第一触发物体所在方向移动,或控制自身的显示装置朝所述第一触发物体所在方向旋转;
所述在识别出有第一触发物体时,执行第一动作,包括:
在识别出有第一触发物体时,根据所述第一触发物体在图像中的位置确定所述第一触发物体所在方向;
根据所述第一触发物体所在方向执行第一动作。
5.根据权利要求4所述的执行反应动作的方法,其特征在于,所述方法还包括:
在执行第一动作后,继续对周围环境进行监控,获得监控图像;
识别图像中是否有所述第一触发物体;
在图像中有所述第一触发物体时,通过分析图像判断所述第一触发物体是否发生移动;
在所述第一触发物体发生移动时保持不动。
6.根据权利要求1所述的执行反应动作的方法,其特征在于,所述方法还包括:
在未识别出有第一触发物体时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
7.一种执行反应动作的装置,其特征在于,包括:
第一监控模块,用于对周围环境进行监控,获得监控图像;
第一识别模块,用于识别图像中是否有第一触发物体;
第一执行模块,用于在识别出有第一触发物体时,执行第一动作;
其中,所述第一识别模块包括:
数量识别子模块,用于识别图像中是否有触发物体以及触发物体的数量;
定位子模块,用于在图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体;
所述定位子模块,还用于在执行第一动作之后,朝预设方向旋转,按旋转方向的顺序,从剩余的未标记的触发物体中选择一个触发物体作为所述第一触发物体,并对所述第一触发物体进行标记,直至旋转一周。
8.根据权利要求7所述的执行反应动作的装置,其特征在于,所述第一动作至少包括下列动作之一:控制自身显示装置输出微笑的表情、点头、挥手、握手、输出预设的语音和更改显示装置输出的颜色。
9.根据权利要求7所述的执行反应动作的装置,其特征在于,所述第一识别模块包括:
辅助识别子模块,用于通过识别图像中是否有包含触发物体的设备,辅助识别图像中是否有第一触发物体。
10.根据权利要求7所述的执行反应动作的装置,其特征在于,所述第一动作包括:朝所述第一触发物体所在方向整体旋转,或朝所述第一触发物体所在方向移动,或控制自身的显示装置朝所述第一触发物体所在方向旋转;
所述第一执行模块包括:
方向子模块,用于在识别出有第一触发物体时,根据所述第一触发物体在图像中的位置确定所述第一触发物体所在方向;
执行子模块,用于根据所述第一触发物体所在方向执行第一动作。
11.根据权利要求10所述的执行反应动作的装置,其特征在于,所述装置还包括:
第二监控模块,用于在执行第一动作后,继续对周围环境进行监控,获得监控图像;
第二识别模块,用于识别图像中是否有所述第一触发物体;
跟踪模块,用于在图像中有所述第一触发物体时,通过分析图像判断所述第一触发物体是否发生移动;在所述第一触发物体发生移动时保持不动。
12.根据权利要求7所述的执行反应动作的装置,其特征在于,所述装置还包括:
第二执行模块,用于在未识别出有第一触发物体时,执行第二动作;其中,第二动作包括:进入待机模式或进入省电模式。
13.一种执行反应动作的装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
对周围环境进行监控,获得监控图像;
识别图像中是否有第一触发物体;
在识别出有第一触发物体时,执行第一动作;
其中,所述识别所述监控图像中是否有第一触发物体,包括:
识别监控图像中是否有触发物体以及触发物体的数量;
在监控图像中有触发物体且至少有两个触发物体时,将最接近图像中心位置的触发物体确定为第一触发物体;
所述识别所述监控图像中是否有第一触发物体,还包括:
在执行第一动作之后,朝预设方向旋转,按旋转方向的顺序,从剩余的未标记的触发物体中选择一个触发物体作为所述第一触发物体,并对所述第一触发物体进行标记,直至旋转一周。
14.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现上述权利要求1-6中任一项所述方法的步骤。
CN201610245149.5A 2016-04-19 2016-04-19 执行反应动作的方法及装置 Active CN105956513B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610245149.5A CN105956513B (zh) 2016-04-19 2016-04-19 执行反应动作的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610245149.5A CN105956513B (zh) 2016-04-19 2016-04-19 执行反应动作的方法及装置

Publications (2)

Publication Number Publication Date
CN105956513A CN105956513A (zh) 2016-09-21
CN105956513B true CN105956513B (zh) 2020-04-14

Family

ID=56917684

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610245149.5A Active CN105956513B (zh) 2016-04-19 2016-04-19 执行反应动作的方法及装置

Country Status (1)

Country Link
CN (1) CN105956513B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107081774B (zh) * 2017-05-27 2019-11-05 上海木木机器人技术有限公司 机器人握手控制方法和系统
CN107315414B (zh) * 2017-07-14 2021-04-27 灵动科技(北京)有限公司 一种控制机器人行走的方法、装置及机器人
CN107168343B (zh) * 2017-07-14 2020-09-15 灵动科技(北京)有限公司 一种行李箱的控制方法及行李箱
CN112223308B (zh) * 2020-09-30 2021-07-20 江苏迪迪隆机器人科技发展有限公司 一种仿生机器人运动控制方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8045757B2 (en) * 2006-06-15 2011-10-25 Sony Corporation Image monitoring system and object area tracking method
CN104102346A (zh) * 2014-07-01 2014-10-15 华中科技大学 一种家用信息采集和用户情感识别设备及其工作方法
CN104284138A (zh) * 2013-07-07 2015-01-14 上海科宇营销策划有限公司 一种移动监控机器人
CN104667490A (zh) * 2013-11-27 2015-06-03 哈尔滨市三和佳美科技发展有限公司 智能捡球机器人
CN105243664A (zh) * 2015-10-08 2016-01-13 东南大学 一种基于视觉的轮式移动机器人快速目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8045757B2 (en) * 2006-06-15 2011-10-25 Sony Corporation Image monitoring system and object area tracking method
CN104284138A (zh) * 2013-07-07 2015-01-14 上海科宇营销策划有限公司 一种移动监控机器人
CN104667490A (zh) * 2013-11-27 2015-06-03 哈尔滨市三和佳美科技发展有限公司 智能捡球机器人
CN104102346A (zh) * 2014-07-01 2014-10-15 华中科技大学 一种家用信息采集和用户情感识别设备及其工作方法
CN105243664A (zh) * 2015-10-08 2016-01-13 东南大学 一种基于视觉的轮式移动机器人快速目标跟踪方法

Also Published As

Publication number Publication date
CN105956513A (zh) 2016-09-21

Similar Documents

Publication Publication Date Title
CN106572299B (zh) 摄像头开启方法及装置
CN106557768B (zh) 对图片中的文字进行识别的方法及装置
US10674088B2 (en) Method and device for acquiring image, terminal and computer-readable storage medium
JP6310556B2 (ja) スクリーン制御方法及び装置
CN105488527B (zh) 图像分类方法及装置
EP3010226A2 (en) Method and apparatus for obtaining photograph
US11288531B2 (en) Image processing method and apparatus, electronic device, and storage medium
US20170053156A1 (en) Human face recognition method, apparatus and terminal
CN107480665B (zh) 文字检测方法、装置及计算机可读存储介质
EP3147819A1 (en) Method and device for fingerprint image alignment
CN105469056A (zh) 人脸图像处理方法及装置
CN105956513B (zh) 执行反应动作的方法及装置
CN110781323A (zh) 多媒体资源的标签确定方法、装置、电子设备及存储介质
CN112217990A (zh) 任务调度方法、任务调度装置及存储介质
CN110929616B (zh) 一种人手识别方法、装置、电子设备和存储介质
CN108596957B (zh) 物体跟踪方法及装置
US11252341B2 (en) Method and device for shooting image, and storage medium
CN107239758B (zh) 人脸关键点定位的方法及装置
CN109255839B (zh) 场景调整方法及装置
CN113642551A (zh) 指甲关键点检测方法、装置、电子设备及存储介质
CN111225111A (zh) 功能控制方法、功能控制装置及存储介质
CN111860552A (zh) 基于核自编码器的模型训练方法、装置及存储介质
CN113315904B (zh) 拍摄方法、拍摄装置及存储介质
CN114666490B (zh) 对焦方法、装置、电子设备和存储介质
CN108769513B (zh) 相机拍照方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant