CN108734083A - 智能设备的控制方法、装置、设备和存储介质 - Google Patents
智能设备的控制方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN108734083A CN108734083A CN201810235614.6A CN201810235614A CN108734083A CN 108734083 A CN108734083 A CN 108734083A CN 201810235614 A CN201810235614 A CN 201810235614A CN 108734083 A CN108734083 A CN 108734083A
- Authority
- CN
- China
- Prior art keywords
- user
- smart machine
- distance
- human body
- body image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000001815 facial effect Effects 0.000 claims abstract description 44
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 19
- 238000010586 diagram Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0094—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Abstract
本发明提供一种智能设备的控制方法、装置、设备和存储介质。该方法包括:获取智能设备采集的用户的人脸图像;根据所述人脸图像,判断所述智能设备与所述用户的距离是否处于预设的距离范围;若处于所述预设的距离范围,则控制所述智能设备采集所述用户的人体图像。本发明实施例采集人体图像的过程不需要用户配合,效率较高,采集的人体图像可以用于引领过程中对用户进行识别追踪,用户体验较高。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种智能设备的控制方法、装置、设备和存储介质。
背景技术
随着科学技术的发展,智能机器人的应用越来越广泛。例如在医疗、保健、家庭、娱乐以及服务行业等领域都有了广泛的应用。
机器人与用户进行交互时,存在以下场景例如引领和跟随。例如在引领访客到某个指定地点如会议室时,机器人可以走在用户前面引领用户达到指定地点,或者可以跟随在用户后面告诉用户如何到达指定地点。在引领和跟随场景下,需要对用户进行识别,防止跟错或跟丢用户。相关技术中,通常是需要用户站到指定的位置进行人脸拍照采集注册,然后通过人脸识别的方式来识别用户,然而,这种情况采集流程繁琐、效率低,用户体验较差。
发明内容
本发明提供一种智能设备的控制方法、装置、设备和存储介质,以解决现有的采集流程繁琐、效率低的问题,从而提高用户体验。
第一方面,本发明提供一种智能设备的控制方法,包括:
获取智能设备采集的用户的人脸图像;
根据所述人脸图像,判断所述智能设备与所述用户的距离是否处于预设的距离范围;
若处于所述预设的距离范围,则控制所述智能设备采集所述用户的人体图像。
可选的,采集所述用户的人体图像之后,还包括:
建立所述人体图像与所述用户的身份信息的对应关系。
可选的,还包括:
若未处于所述预设的距离范围,则调整所述智能设备与所述用户的距离。
可选的,所述调整所述智能设备与所述用户的距离,包括:
若所述距离小于所述距离范围的下限值,则增大所述智能设备与所述用户的距离;
若所述距离大于所述距离范围的上限值,则减小所述智能设备与所述用户的距离。
可选的,所述调整所述智能设备与所述用户的距离,还包括:
若所述距离大于距离阈值,则向所述用户发出提示信息,用于提示所述用户向所述智能设备移动;所述距离阈值大于所述距离范围的上限值。
可选的,所述向所述用户发出提示信息之后,还包括:
在所述智能设备的显示屏上显示所述用户的人体图像,用于向所述用户提示移动方向。
可选的,在采集所述用户的人体图像之前,还包括:
确定所述人脸图像满足预设的清晰度要求。
可选的,还包括:
在向引领目的地行进过程中,根据采集的所述人体图像对所述用户执行引领操作。
可选的,所述根据采集的所述人体图像对所述用户执行引领操作,包括:
在向所述引领目的地的行进过程中判断当前监测到的人体图像与所述用户的人体图像是否匹配;
若匹配,则继续执行引领操作直至到达所述引领目的地;若不匹配,则停止执行所述引领操作。
第二方面,本发明提供一种智能设备的控制方法,包括:
获取模块,用于获取智能设备采集的用户的人脸图像;
判断模块,用于根据所述人脸图像,判断所述智能设备与所述用户的距离是否处于预设的距离范围;
处理模块,用于若所述判断模块判断出所述距离处于所述预设的距离范围,则控制所述智能设备采集所述用户的人体图像。
可选的,所述处理模块,还用于建立所述人体图像与所述用户的身份信息的对应关系。
可选的,所述处理模块,还用于:
若未处于所述预设的距离范围,则调整所述智能设备与所述用户的距离。
可选的,所述处理模块,具体用于:
若所述距离小于所述距离范围的下限值,则增大所述智能设备与所述用户的距离;
若所述距离大于所述距离范围的上限值,则减小所述智能设备与所述用户的距离。
可选的,所述处理模块,具体用于:
若所述距离大于距离阈值,则向所述用户发出提示信息,用于提示所述用户向所述智能设备移动;所述距离阈值大于所述距离范围的上限值。
可选的,还包括:
显示模块,用于在所述智能设备的显示屏上显示所述用户的人体图像,用于向所述用户提示移动方向。
可选的,所述处理模块,还用于:
在采集所述用户的人体图像之前,确定所述人脸图像满足预设的清晰度要求。
可选的,所述处理模块,还用于:
在向引领目的地行进过程中,根据采集的所述人体图像对所述用户执行引领操作。
可选的,所述处理模块,具体用于:
在向所述引领目的地的行进过程中判断当前监测到的人体图像与所述用户的人体图像是否匹配;
若匹配,则继续执行引领操作直至到达所述引领目的地;若不匹配,则停止执行所述引领操作。
第三方面,本发明提供一种智能设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为通过执行所述可执行指令来执行第一方面中任一项所述的方法的步骤。
第四方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面中提供的任一项所述的方法的步骤。
本发明实施例提供的智能设备的控制方法、装置、设备和存储介质,获取智能设备采集的用户的人脸图像;根据人脸图像,判断智能设备与用户的人脸距离是否处于预设的距离范围;若处于预设的距离范围,则控制智能设备采集用户的人体图像;自动获取采集的用户的人脸图像,并判断智能设备与用户的距离是否处于预设的距离范围,控制智能设备采集用户的人体图像,采集人体图像的过程不需要用户配合,效率较高,采集的人体图像可以用于对用户进行识别追踪,用户体验较高。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本发明提供的智能设备的控制方法一实施例的流程示意图;
图2是本发明提供的智能设备的控制方法另一实施例的流程示意图;
图3是本发明提供的智能设备的控制方法又一实施例的流程示意图;
图4是本发明提供的智能设备的控制装置一实施例的结构示意图;
图5是本发明提供的智能设备一实施例的结构示意图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的设备的例子。
本发明的说明书和权利要求书及所述附图中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先对本发明所涉及的应用场景进行介绍:
机器人与用户进行交互时,存在引领场景。例如在引领访客到某个指定地点如会议室时,机器人可以走在用户前面引领用户达到指定地点,或者可以跟随在用户后面告诉用户如何到达指定地点。在引领场景下,需要对用户进行识别,防止跟错或跟丢用户。本发明实施例中的引领可以指机器人在前方、左右引领,或在后面跟随,进一步前方不限于在正前方引领,也可以是斜前方引领,左右引领也不限于在用户的正左侧或正右侧。
本发明实施例的场景不限于在引领之前,或在引领过程中。
本发明实施例中的执行主体可以是机器人的处理器,其中处理器可以集成在机器人中;或与机器人分离,集成在服务器中,本发明实施例对此并不限定。
本发明实施例中的智能设备可以具有图像采集功能的智能设备,如机器人。
以下实施例中,智能设备以机器人为例进行说明。
图1是本发明提供的智能设备的控制方法一实施例的流程示意图。如图1所示,本实施例提供的方法,包括:
步骤101、获取智能设备采集的用户的人脸图像。
步骤102、根据人脸图像,判断智能设备与用户的距离是否处于预设的距离范围。
在对用户进行引领之前或在引领过程中,机器人可以采集人脸图像,具体可以通过机器人的后置摄像头采集人脸图像。
然后根据采集到的人脸图像,确定机器人与用户的距离,并判断该距离是否处于预设的距离范围,保证机器人与用户的距离合适,能够采集到完整的人体图像。
确定机器人与用户的距离,具体可以通过机器人上设置的普通RGB摄像头和深度摄像头采集的人脸图像,进行确定。具体来说,在普通RGB摄像头采集的人脸图像和深度摄像头采集的人脸图像的时间戳相同的情况下,根据深度摄像头采集的人脸图像确定距离。
步骤103、若处于预设的距离范围,则控制智能设备采集用户的人体图像。
本步骤中,若判断出机器人与用户之间的距离满足预设的条件,即处于预设的距离范围,则采集该用户的人体图像。若机器人与用户之间的距离太小,则可能采集不到完整的人体图像,若机器人与用户之间的距离太大,则周围的物体可能会对机器人产生干扰,采集不到有用的人体图像。
例如,机器人与用户之间的距离处于1m-2m的范围,可以采集到身高为150cm-190cm的用户的全身的人体图像。
进一步的,在采集人体图像的过程中,还可以先确定人脸是否处于采集的图像范围内。
上述的采集人体图像的过程,无需用户配合,机器人可以自己调整找到时机自动采集人体图像。该过程可以是静默的,不需要额外耗费用户的时间。
本实施例的智能设备的控制方法,获取智能设备采集的用户的人脸图像;根据人脸图像,判断智能设备与用户的人脸距离是否处于预设的距离范围;若处于预设的距离范围,则控制智能设备采集用户的人体图像;自动获取采集的用户的人脸图像,并判断智能设备与用户的距离是否处于预设的距离范围,控制智能设备采集用户的人体图像,采集人体图像的过程不需要用户配合,效率较高,采集的人体图像可以用于对用户进行识别追踪,用户体验较高。
图2是本发明提供的智能设备的控制方法另一实施例的流程示意图。在上述实施例的基础上,如图2所示,本实施例的方法,包括:
步骤201、获取智能设备采集的用户的人脸图像。
步骤201与步骤101实现原理类似,此处不再赘述。
进一步的,如图3所示,机器人通过对人脸的检测和识别,判断当前用户的身份信息,进而在采集人体图像时进行人脸识别确保采集的人体图像与该用户对应,不会采错人。当前用户的身份信息可以通过查询预先关联存储的人脸图像与身份信息获取到。
步骤202、根据人脸图像,判断智能设备与用户的人脸距离是否处于预设的距离范围。
步骤203、若处于预设的距离范围,则控制所述智能设备采集用户的人体图像。
步骤202、203分别与步骤102、103实现原理类似,此处不再赘述。
采集人体图像之后可以建立人体图像与身份信息的对应关系,并存储该对应关系以及该人体图像。
步骤204、在向引领目的地行进过程中,根据采集的人体图像对用户执行引领操作。
本步骤中,根据上述采集的人体图像,对用户执行引领操作,即在引领的过程中,可以对用户的人体图像进行监测,识别是否为采集到的人体图像对应的用户,即判断监测到的人体图像与采集到的人体图像是否匹配,若匹配,则说明当前监测到的人体图像为该用户的人体图像,则继续对该用户进行引领直至到达引领目的地。
由于基于人体图像的识别会随着穿着的衣服、形态发生变化,所以每次引领功能开始时,可以重新采集人体图像。
可选的,在启动向引领目的地的行进操作之前,可以获取引领操作启动信号。机器人启动向引领目的地的行进操作后,可以向用户发出语音提示信息。
可选的,步骤204具体可以通过如下方式实现:
在向所述引领目的地的行进过程中判断当前监测到的人体图像与所述用户的人体图像是否匹配;
若匹配,则继续执行引领操作直至到达所述引领目的地;若不匹配,则停止执行所述引领操作。
可选的,在行进过程中,为了实现对人体图像的快速识别,因此判断当前监测到的人体图像与用户的人体图像是否匹配,具体可以通过如下方式实现:
第一种方式:
识别当前监测到的人体图像中的服饰区域;
判断服饰区域的颜色值与用户的人体图像的服饰区域的颜色值是否匹配。
具体的,在判断当前监测到的人体图像与用户的人体图像是否匹配时,可以识别当前监测到的人体图像中的服饰区域,具体是确定当前监测到的人体图像的服饰区域的颜色值,判断与用户的人体图像的服饰区域的颜色值是否匹配。
例如,判断两个人体图像的服饰区域的对应像素点的颜色值是否匹配。
当前监测到的人体图像中的服饰区域的颜色值,例如某个像素点的颜色值R:219,G:119,B:189。
第二种方式:
识别当前监测到的人体图像中的人体高度;
判断人体高度与用户人体图像中的人体高度是否匹配。
具体的,在判断当前监测到的人体图像与用户的人体图像是否匹配时,还可以识别当前监测到的人体图像中的人体高度;判断人体高度与用户的人体图像中的人体高度是否匹配,可以实现快速匹配的目的。
上述人体图像中的人体高度可以是指人体图像中的高度值,也可以是经过换算之后的实际的人体的人体高度值,本发明实施例对此并不限定。
可选的,停止执行引领操作之前,还包括:
发出语音提示信息,用于提示用户靠近机器人;或,
向服务器发送错误提示信息。
具体的,在行进过程中判断出当前监测到的人体图像与用户的人体图像不匹配,停止执行引领操作之前,可以发出语音提示信息,提示用户靠近机器人,处于机器人的摄像头的视线内,便于机器人监测到该用户的人体图像。进一步,机器人可以在间隔预设的某一时长后,继续进行对用户的人体图像进行检测。
或,可以向服务器发送错误提示信息,使得服务器可以获知到此时的引领情况,便于服务器做出判断,是否采取人工介入的方式,从而提高用户体验。服务器可以向机器人发出指示信息,例如指示机器人持续对该用户的人体图像进行监测,直至某一预设时长后若监测不到该用户的人体图像,则停止引领操作。
本实施例的智能设备的控制方法,机器人在对用户进行引领之前或引领过程中,自动检测用户的人脸图像,并对该用户的身份信息进行判断,在多人时能够避免将人体图像采集错误,采集人体图像的过程不需要用户配合,效率较高,采集的人体图像有助于在引领过程中对用户进行识别追踪,用户体验较高。
在上述实施例的基础上,为了采集到完整的人体图像,需要判断智能设备与所述用户的距离是否处于预设的距离范围,可选的,该方法还包括:
若未处于所述预设的距离范围,则调整所述智能设备与所述用户的距离。
具体的,若判断出机器人与用户之间的距离未处于预设的距离范围,则可能采集不到完整的人体图像,因此需要调整机器人与用户之间的距离。为了提高用户体验,机器人可以移动,从而调整机器人与用户的距离,若距离较大,则调整机器人的位置使得机器人与用户之间的距离减小,若距离较小,则调整机器人的位置使得机器人与用户之间的距离增大。
调整智能设备与所述用户的距离后,可以再执行控制所述智能设备采集所述用户的人体图像的操作。
可选的,调整智能设备与用户的距离,包括:
若距离小于距离范围的下限值,则增大智能设备与用户的距离;
若距离大于距离范围的上限值,则减小智能设备与用户的距离。
具体的,如图3所示,若机器人与用户处于面对面,距离小于预设的距离范围的下限值,则可以使机器人向后移动一定距离,使得机器人与用户之间的距离增大;若距离大于预设的距离范围的上限值,则可以使机器人向前移动一定距离,使得机器人与用户之间的距离减小。例如机器人与用户的距离小于1m,则机器人向后移动1m,若距离大于2m,且小于5m可以向前移动1m。
可选的,在机器人的移动过程中,可以开启避障功能,避开障碍物。例如通过雷达、超声波、视觉检测等方式。
进一步的,调整智能设备与用户的距离,还可以包括:
若距离大于距离阈值,则向用户发出提示信息,用于提示用户向智能设备移动;距离阈值大于距离范围的上限值。
如图3所示,机器人与用户之间的距离较大,远大于距离范围的上限值时,可以向用户发出提示信息,用于提示用户向机器人移动,走到机器人面前。其中,提示信息可以是语音提示信息。
进一步的,向用户发出提示信息之后,还包括:
在智能设备的显示屏上显示用户的人体图像,用于向用户提示移动方向。
具体的,在用户向机器人移动的过程中,机器人可以在显示屏上显示用户的人体图像,从而提示用户向哪个方向移动,使得用户的人体处于机器人的视线范围内。
进一步的,为了保证采集到的人体图像的清晰度,则在控制智能设备采集用户的人体图像之前,还可以包括:
确定人脸图像满足预设的清晰度要求。
具体的,如图3所示,在采集人体图像之前,确定采集到的人脸图像是否满足预设的清晰度要求,若满足预设的清晰度要求则可以采集人体图像,若不满足,则需要重新调整摄像头,采集人脸图像,直至检测到的人脸图像满足预设的清晰度要求。清晰度要求例如为清晰度达到90%。
确定人脸图像的清晰度可以通过一些图像清晰度检测算法实现,例如图像直方图法、能量方差法、平方梯度能量法、熵函数法等等。
进一步的,在智能设备采集人脸图像的过程中,为了保证采集到的人脸图像满足清晰度要求,进而采集的人体图像也满足清晰度要求,则可以在采集用户的人脸图像时,确定对焦图像清晰度是否满足预设的清晰度要求,即在对人脸图像进行对焦时,确定对焦图像清晰度是否满足预设的清晰度要求。若满足清晰度要求,则采集人脸图像。
本实施例中的方法,通过对智能设备与用户的距离进行调整,进一步还可以调整采集时的清晰度,从而能够获得质量较高的人体图像,便于后续的识别使用。
图4为本发明提供的智能设备的控制装置一实施例的结构图,如图4所示,本实施例的智能设备的控制装置,包括:
获取模块401,用于获取智能设备采集的用户的人脸图像;
判断模块402,用于根据所述人脸图像,判断所述智能设备与所述用户的距离是否处于预设的距离范围;
处理模块403,用于若所述判断模块判断出所述距离处于所述预设的距离范围,则控制所述智能设备采集所述用户的人体图像;
可选的,所述处理模块,还用于建立所述人体图像与所述身份信息的对应关系。
可选的,所述处理模块403,还用于:
若未处于所述预设的距离范围,则调整所述智能设备与所述用户的距离。
可选的,所述处理模块403,具体用于:
若所述距离小于所述距离范围的下限值,则增大所述智能设备与所述用户的距离;
若所述距离大于所述距离范围的上限值,则减小所述智能设备与所述用户的距离。
可选的,所述处理模块403,具体用于:
若所述距离大于距离阈值,则向所述用户发出提示信息,用于提示所述用户向所述智能设备移动;所述距离阈值大于所述距离范围的上限值。
可选的,还包括:
显示模块,用于在所述智能设备的显示屏上显示所述用户的人体图像,用于向所述用户提示移动方向。
可选的,所述处理模块403,还用于:
在采集所述用户的人体图像之前,确定所述人脸图像满足预设的清晰度要求。
可选的,所述处理模块403,还用于:
在向引领目的地行进过程中,根据采集的所述人体图像对所述用户执行引领操作。
可选的,所述处理模块403,具体用于:
在向所述引领目的地的行进过程中判断当前监测到的人体图像与所述用户的人体图像是否匹配;
若匹配,则继续执行引领操作直至到达所述引领目的地;若不匹配,则停止执行所述引领操作。
本实施例的装置,可以用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图5为本发明提供的智能设备一实施例的结构图,该智能设备具体可以为机器人,如图5所示,该智能设备包括:
处理器501,以及,用于存储处理器501的可执行指令的存储器502。
其中,处理器501配置为经由执行所述可执行指令来执行前述方法实施例中对应的方法,其具体实施过程可以参见前述方法实施例,此处不再赘述。
可选的,本发明实施例中的智能设备还可以包括:
摄像头503,用于采集图像。
可选的,还可以包括音频组件(图中未示出),包括扬声器和麦克风。
可选的,还可以包括显示屏(图中未示出)。
本发明实施例中还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述方法实施例中对应的方法,其具体实施过程可以参见前述方法实施例,其实现原理和技术效果类似,此处不再赘述。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本发明旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求书指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求书来限制。
Claims (10)
1.一种智能设备的控制方法,其特征在于,包括:
获取智能设备采集的用户的人脸图像;
根据所述人脸图像,判断所述智能设备与所述用户的距离是否处于预设的距离范围;
若处于所述预设的距离范围,则控制所述智能设备采集所述用户的人体图像。
2.根据权利要求1所述的方法,其特征在于,采集所述用户的人体图像之后,还包括:
建立所述人体图像与所述用户的身份信息的对应关系。
3.根据权利要求1或2所述的方法,其特征在于,还包括:
若未处于所述预设的距离范围,则调整所述智能设备与所述用户的距离。
4.根据权利要求3所述的方法,其特征在于,所述调整所述智能设备与所述用户的距离,包括:
若所述距离小于所述距离范围的下限值,则增大所述智能设备与所述用户的距离;
若所述距离大于所述距离范围的上限值,则减小所述智能设备与所述用户的距离。
5.根据权利要求4所述的方法,其特征在于,所述调整所述智能设备与所述用户的距离,还包括:
若所述距离大于距离阈值,则向所述用户发出提示信息,用于提示所述用户向所述智能设备移动;所述距离阈值大于所述距离范围的上限值。
6.根据权利要求5所述的方法,其特征在于,所述向所述用户发出提示信息之后,还包括:
在所述智能设备的显示屏上显示所述用户的人体图像,用于向所述用户提示移动方向。
7.根据权利要求1或2所述的方法,其特征在于,在采集所述用户的人体图像之前,还包括:
确定所述人脸图像满足预设的清晰度要求。
8.一种智能设备的控制装置,其特征在于,包括:
获取模块,用于获取智能设备采集的用户的人脸图像;
判断模块,用于根据所述人脸图像,判断所述智能设备与所述用户的距离是否处于预设的距离范围;
处理模块,用于若所述判断模块判断出所述距离处于所述预设的距离范围,则控制所述智能设备采集所述用户的人体图像。
9.一种智能设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为通过执行所述可执行指令来执行权利要求1~7任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1~7任一项所述的方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810235614.6A CN108734083B (zh) | 2018-03-21 | 2018-03-21 | 智能设备的控制方法、装置、设备和存储介质 |
PCT/CN2019/078902 WO2019179468A1 (zh) | 2018-03-21 | 2019-03-20 | 智能设备的控制方法、装置、设备和存储介质 |
TW108109760A TW201941104A (zh) | 2018-03-21 | 2019-03-21 | 智慧設備的控制方法、裝置、設備和存儲介質 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810235614.6A CN108734083B (zh) | 2018-03-21 | 2018-03-21 | 智能设备的控制方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108734083A true CN108734083A (zh) | 2018-11-02 |
CN108734083B CN108734083B (zh) | 2023-04-25 |
Family
ID=63941071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810235614.6A Active CN108734083B (zh) | 2018-03-21 | 2018-03-21 | 智能设备的控制方法、装置、设备和存储介质 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN108734083B (zh) |
TW (1) | TW201941104A (zh) |
WO (1) | WO2019179468A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109781008A (zh) * | 2018-12-30 | 2019-05-21 | 北京猎户星空科技有限公司 | 一种距离测量方法、装置、设备及介质 |
CN110032982A (zh) * | 2019-04-22 | 2019-07-19 | 广东博智林机器人有限公司 | 机器人引路方法、装置、机器人和存储介质 |
WO2019179468A1 (zh) * | 2018-03-21 | 2019-09-26 | 北京猎户星空科技有限公司 | 智能设备的控制方法、装置、设备和存储介质 |
CN110535732A (zh) * | 2019-07-29 | 2019-12-03 | 深圳绿米联创科技有限公司 | 一种设备控制方法、装置、电子设备及存储介质 |
CN111324129A (zh) * | 2020-03-19 | 2020-06-23 | 中国建设银行股份有限公司 | 基于人脸识别的导航方法及装置 |
CN111476195A (zh) * | 2020-04-20 | 2020-07-31 | 安徽中科首脑智能医疗研究院有限公司 | 人脸检测方法、装置、机器人及计算机可读存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111053564B (zh) * | 2019-12-26 | 2023-08-18 | 上海联影医疗科技股份有限公司 | 医疗设备的移动控制方法及医疗设备 |
CN111641813B (zh) * | 2020-05-29 | 2022-03-25 | 广东睿住智能科技有限公司 | 访客引导方法、楼宇可视对讲系统及存储介质 |
CN114407024A (zh) * | 2022-03-15 | 2022-04-29 | 上海擎朗智能科技有限公司 | 一种位置引领方法、装置、机器人及存储介质 |
CN116400709B (zh) * | 2023-05-06 | 2023-10-31 | 河南牧业经济学院 | 机器人轨迹确定方法、装置、机器人及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1500997A2 (en) * | 2003-04-03 | 2005-01-26 | Lg Electronics Inc. | Mobile robot using image sensor and method for measuring moving distance thereof |
JP2007160473A (ja) * | 2005-12-15 | 2007-06-28 | Fujitsu Ltd | ロボットにおける対話相手識別方法およびロボット |
CN102059700A (zh) * | 2010-11-22 | 2011-05-18 | 南京信息工程大学 | 迎宾机器人系统 |
CN103634646A (zh) * | 2013-11-15 | 2014-03-12 | 四川长虹电器股份有限公司 | 电视机提示观看距离的方法 |
JP2014119828A (ja) * | 2012-12-13 | 2014-06-30 | Secom Co Ltd | 自律飛行ロボット |
CN104081757A (zh) * | 2012-02-06 | 2014-10-01 | 索尼公司 | 图像处理设备、图像处理方法、程序和记录介质 |
CN104182725A (zh) * | 2013-05-28 | 2014-12-03 | 天津点康科技有限公司 | 基于非接触人体生理参数测量的人脸识别跟踪系统 |
CN104375417A (zh) * | 2014-11-05 | 2015-02-25 | 济南大学 | 一种候车厅智能服务机器人 |
CN105095893A (zh) * | 2014-05-16 | 2015-11-25 | 北京天诚盛业科技有限公司 | 图像采集装置和方法 |
CN105187719A (zh) * | 2015-08-21 | 2015-12-23 | 深圳市金立通信设备有限公司 | 一种拍摄方法及终端 |
CN105447466A (zh) * | 2015-12-01 | 2016-03-30 | 深圳市图灵机器人有限公司 | 一种基于Kinect传感器的身份综合识别方法 |
CN106022209A (zh) * | 2016-04-29 | 2016-10-12 | 杭州华橙网络科技有限公司 | 一种基于人脸检测的距离估算和处理的方法及装置 |
CN106503615A (zh) * | 2016-09-20 | 2017-03-15 | 北京工业大学 | 基于多传感器的室内人体检测跟踪和身份识别系统 |
CN106886216A (zh) * | 2017-01-16 | 2017-06-23 | 深圳前海勇艺达机器人有限公司 | 基于rgbd人脸检测的机器人自动跟踪方法和系统 |
CN106971159A (zh) * | 2017-03-23 | 2017-07-21 | 中国联合网络通信集团有限公司 | 一种图像清晰度识别方法、身份认证方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106426180A (zh) * | 2016-11-24 | 2017-02-22 | 深圳市旗瀚云技术有限公司 | 一种基于人脸追踪进行智能跟随的机器人 |
CN107402787B (zh) * | 2017-07-14 | 2020-07-07 | Oppo广东移动通信有限公司 | 虹膜识别模式开启方法及相关产品 |
CN108734083B (zh) * | 2018-03-21 | 2023-04-25 | 北京猎户星空科技有限公司 | 智能设备的控制方法、装置、设备和存储介质 |
-
2018
- 2018-03-21 CN CN201810235614.6A patent/CN108734083B/zh active Active
-
2019
- 2019-03-20 WO PCT/CN2019/078902 patent/WO2019179468A1/zh active Application Filing
- 2019-03-21 TW TW108109760A patent/TW201941104A/zh unknown
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1500997A2 (en) * | 2003-04-03 | 2005-01-26 | Lg Electronics Inc. | Mobile robot using image sensor and method for measuring moving distance thereof |
JP2007160473A (ja) * | 2005-12-15 | 2007-06-28 | Fujitsu Ltd | ロボットにおける対話相手識別方法およびロボット |
CN102059700A (zh) * | 2010-11-22 | 2011-05-18 | 南京信息工程大学 | 迎宾机器人系统 |
CN104081757A (zh) * | 2012-02-06 | 2014-10-01 | 索尼公司 | 图像处理设备、图像处理方法、程序和记录介质 |
JP2014119828A (ja) * | 2012-12-13 | 2014-06-30 | Secom Co Ltd | 自律飛行ロボット |
CN104182725A (zh) * | 2013-05-28 | 2014-12-03 | 天津点康科技有限公司 | 基于非接触人体生理参数测量的人脸识别跟踪系统 |
CN103634646A (zh) * | 2013-11-15 | 2014-03-12 | 四川长虹电器股份有限公司 | 电视机提示观看距离的方法 |
CN105095893A (zh) * | 2014-05-16 | 2015-11-25 | 北京天诚盛业科技有限公司 | 图像采集装置和方法 |
CN104375417A (zh) * | 2014-11-05 | 2015-02-25 | 济南大学 | 一种候车厅智能服务机器人 |
CN105187719A (zh) * | 2015-08-21 | 2015-12-23 | 深圳市金立通信设备有限公司 | 一种拍摄方法及终端 |
CN105447466A (zh) * | 2015-12-01 | 2016-03-30 | 深圳市图灵机器人有限公司 | 一种基于Kinect传感器的身份综合识别方法 |
CN106022209A (zh) * | 2016-04-29 | 2016-10-12 | 杭州华橙网络科技有限公司 | 一种基于人脸检测的距离估算和处理的方法及装置 |
CN106503615A (zh) * | 2016-09-20 | 2017-03-15 | 北京工业大学 | 基于多传感器的室内人体检测跟踪和身份识别系统 |
CN106886216A (zh) * | 2017-01-16 | 2017-06-23 | 深圳前海勇艺达机器人有限公司 | 基于rgbd人脸检测的机器人自动跟踪方法和系统 |
CN106971159A (zh) * | 2017-03-23 | 2017-07-21 | 中国联合网络通信集团有限公司 | 一种图像清晰度识别方法、身份认证方法及装置 |
Non-Patent Citations (1)
Title |
---|
汤辰: "基于服务机器人的人体追踪技术的研究" * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019179468A1 (zh) * | 2018-03-21 | 2019-09-26 | 北京猎户星空科技有限公司 | 智能设备的控制方法、装置、设备和存储介质 |
CN109781008A (zh) * | 2018-12-30 | 2019-05-21 | 北京猎户星空科技有限公司 | 一种距离测量方法、装置、设备及介质 |
CN109781008B (zh) * | 2018-12-30 | 2021-05-25 | 北京猎户星空科技有限公司 | 一种距离测量方法、装置、设备及介质 |
CN110032982A (zh) * | 2019-04-22 | 2019-07-19 | 广东博智林机器人有限公司 | 机器人引路方法、装置、机器人和存储介质 |
CN110032982B (zh) * | 2019-04-22 | 2021-05-25 | 广东博智林机器人有限公司 | 机器人引路方法、装置、机器人和存储介质 |
CN110535732A (zh) * | 2019-07-29 | 2019-12-03 | 深圳绿米联创科技有限公司 | 一种设备控制方法、装置、电子设备及存储介质 |
CN111324129A (zh) * | 2020-03-19 | 2020-06-23 | 中国建设银行股份有限公司 | 基于人脸识别的导航方法及装置 |
CN111476195A (zh) * | 2020-04-20 | 2020-07-31 | 安徽中科首脑智能医疗研究院有限公司 | 人脸检测方法、装置、机器人及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
TW201941104A (zh) | 2019-10-16 |
WO2019179468A1 (zh) | 2019-09-26 |
CN108734083B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108734083A (zh) | 智能设备的控制方法、装置、设备和存储介质 | |
KR101803081B1 (ko) | 매장 관리 로봇 | |
EP3855731A1 (en) | Context based target framing in a teleconferencing environment | |
US10559062B2 (en) | Method for automatic facial impression transformation, recording medium and device for performing the method | |
CN107127758B (zh) | 基于智能机器人的自动识别拍照方法及其系统 | |
WO2020125499A9 (zh) | 一种操作提示方法及眼镜 | |
JP5127531B2 (ja) | 画像監視装置 | |
CN110705357A (zh) | 人脸识别方法和人脸识别装置 | |
WO2019126908A1 (zh) | 图像数据处理方法、装置及设备 | |
CN108702458A (zh) | 拍摄方法和装置 | |
CN108337429A (zh) | 图像处理设备和图像处理方法 | |
JP2010123019A (ja) | 動作認識装置及び方法 | |
CN108734082A (zh) | 对应关系的建立方法、装置、设备和存储介质 | |
WO2018121730A1 (zh) | 视频监控和人脸识别方法、装置及系统 | |
CN106294678B (zh) | 一种智能机器人的话题发起装置及方法 | |
CN109986553B (zh) | 一种主动交互的机器人、系统、方法及存储装置 | |
JP2010112979A (ja) | インタラクティブ看板システム | |
US20220327732A1 (en) | Information processing apparatus, information processing method, and program | |
CN106997449A (zh) | 具有人脸识别功能的机器人和人脸识别方法 | |
JP2005199373A (ja) | コミュニケーション装置及びコミュニケーション方法 | |
JP4831750B2 (ja) | コミュニケーション誘発システム | |
JP2009106325A (ja) | コミュニケーション誘発システム | |
CN110730378A (zh) | 一种信息处理方法及系统 | |
CN108737362A (zh) | 注册方法、装置、设备和存储介质 | |
JP6993802B2 (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |