CN108733417A - 智能设备的工作模式选择方法和装置 - Google Patents

智能设备的工作模式选择方法和装置 Download PDF

Info

Publication number
CN108733417A
CN108733417A CN201810236354.4A CN201810236354A CN108733417A CN 108733417 A CN108733417 A CN 108733417A CN 201810236354 A CN201810236354 A CN 201810236354A CN 108733417 A CN108733417 A CN 108733417A
Authority
CN
China
Prior art keywords
target
smart machine
distance
operating mode
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810236354.4A
Other languages
English (en)
Inventor
周子傲
宋奔
王雪松
马健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Orion Star Technology Co Ltd
Original Assignee
Beijing Orion Star Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Orion Star Technology Co Ltd filed Critical Beijing Orion Star Technology Co Ltd
Priority to CN201810236354.4A priority Critical patent/CN108733417A/zh
Publication of CN108733417A publication Critical patent/CN108733417A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4418Suspend and resume; Hibernate and awake
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS

Abstract

本发明提出一种智能设备的工作模式选择方法和装置,其中,方法包括:从智能设备采集的环境图像中识别目标,获取目标与智能设备之间的第一距离,在预设时间后获取目标与智能设备之间的第二距离,根据第一距离和第二距离的大小关系,选择目标工作模式,控制智能设备在目标工作模式下工作。该方法在检测到目标后,还考虑了目标与智能设备之间的距离因素,不再单纯地依赖人脸检测,通过根据目标与智能设备之间的距离,选取匹配的工作模式,使得智能设备的启动更加精准,避免了误启动,而且根据目标与智能设备之间距离的变化情况,选择相应的工作模式,能够满足多种应用场景的需求,提高了设备的智能化。

Description

智能设备的工作模式选择方法和装置
技术领域
本发明涉及智能设备技术领域,尤其涉及一种智能设备的工作模式选择方法和装置。
背景技术
随着智能设备技术的发展,智能设备给人们带来的越来越多的体验。智能设备在检测到人脸时,可主动与用户进行交互。以机器人为例,当机器人只要检测到人脸,就可主动与人进行交互,如播放欢迎语音等。
但是基于人脸检测启动交互,往往存在误启动的情况,例如,当人们只是路过机器人的情况下,人们不需要进行交互,此时启动就会造成浪费,而且人脸检测也比较单一用在启动机器人上,工作模式比较单一,不能满足多种场景的需求,不够智能化。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
本发明提出一种智能设备的工作模式选择方法,在检测到目标后,还考虑了目标与智能设备之间的距离因素,不再单纯地依赖人脸检测,通过根据目标与智能设备之间的距离,选取匹配的工作模式,使得智能设备的启动更加精准,避免了误启动,而且根据目标与智能设备之间距离的变化情况,选择相应的工作模式,能够满足多种应用场景的需求,提高了设备的智能化。
本发明一方面实施例提出了一种智能设备的工作模式选择方法,包括:
从智能设备采集的环境图像中识别目标;
获取所述目标与所述智能设备之间的第一距离;
在预设时间后获取所述目标与所述智能设备之间的第二距离;
根据所述第一距离和所述第二距离的大小关系,选择目标工作模式;
控制所述智能设备在所述目标工作模式下工作。
作为本发明一方面实施例一种可能的实现方式,所述在预设时间后获取所述目标与所述智能设备之间的距离之前,还包括:
判断所述第一距离与预设的距离阈值的大小关系;
确定所述第一距离大于所述距离阈值。
作为本发明一方面实施例一种可能的实现方式,所述根据所述第一距离和所述第二距离的大小关系,选择目标工作模式,包括:
如果所述第一距离大于所述第二距离,选择第一工作模式作为所述目标工作模式;
如果所述第一距离小于所述第二距离,选择第二工作模式作为所述目标工作模式。
作为本发明一方面实施例一种可能的实现方式,所述第一工作模式为接待工作模式,所述第二工作模式为送别工作模式。
作为本发明一方面实施例一种可能的实现方式,所述控制所述智能设备在所述目标工作模式下工作,包括:
当所述目标工作模式为接待工作模式时,控制所述智能设备开启对所述目标的身份进行验证的身份验证功能;或者,
当所述目标工作模式为送别工作模式时,播报与所述送别工作模式匹配的语音信息。
作为本发明一方面实施例一种可能的实现方式,该方法还包括:
如果所述第一距离小于或者等于所述距离阈值,则获取所述目标的人脸角度;
如果所述人脸角度在预设的角度范围内,选择第三工作模式作为所述目标工作模式。
作为本发明一方面实施例一种可能的实现方式,所述控制所述智能设备在所述目标工作模式下工作,包括:
接收所述目标输入的操作指令,响应所述操作指令为所述目标提供与所述操作指令匹配的服务。
作为本发明一方面实施例一种可能的实现方式,获取所述目标的人脸角度,包括:
从所述环境图像中截取所述目标的人脸图像;
将所述人脸图像输入预先训练好的机器学习模型中,获取所述人脸图像中人脸的人脸角度;
所述方法还包括:采用如下方式训练所述机器学习模型:
采集样本人脸图像,其中,所述样本人脸图像中携带标注数据,所述标注数据用于表示样本人脸的人脸角度;
将所述样本人脸图像输入到初始构建的机器学习模型中进行训练,当训练后的所述机器学习模型的误差在预设的误差范围内时,则得到训练好的所述机器学习模型。
作为本发明一方面实施例一种可能的实现方式,所述目标采用如下方式确定:
当检测到多个候选目标时,从与所述智能设备距离最近的候选目标中选取一个候选目标作为所述目标。
作为本发明一方面实施例一种可能的实现方式,该方法还包括:
当与所述智能设备距离最近的候选目标为多个时,查询所述智能设备的已注册用户人脸图像库中是否存在候选目标的人脸图像;
如果所述人脸图像库中存在一个与所述智能设备距离最近的候选目标的人脸图像,则将所述一个与所述智能设备距离最近的候选目标作为所述目标;
如果所述人脸图像库中不存在与所述智能设备距离最近的候选目标的人脸图像,则随机选取一个与所述智能设备距离最近的候选目标作为所述目标;或者,
如果所述人脸图像库中包括多个与所述智能设备距离最近的候选目标的人脸图像,则将最先查询出的与所述智能设备距离最近的候选目标作为所述目标。
本发明实施例的智能设备的工作模式选择方法,通过从智能设备采集的环境图像中识别目标,获取目标与智能设备之间的第一距离,在预设时间后获取目标与智能设备之间的第二距离,根据第一距离和第二距离的大小关系,选择目标工作模式,控制智能设备在目标工作模式下工作。本实施例中,在检测到目标后,还考虑了目标与智能设备之间的距离因素,不再单纯地依赖人脸检测,通过根据目标与智能设备之间的距离,选取匹配的工作模式,使得智能设备的启动更加精准,避免了误启动,而且根据目标与智能设备之间距离的变化情况,选择相应的工作模式,能够满足多种应用场景的需求,提高了设备的智能化。
本发明另一方面实施例提出了一种智能设备的工作模式选择装置,包括:
识别模块,用于从智能设备采集的环境图像中识别目标;
第一获取模块,用于获取所述目标与所述智能设备之间的第一距离;在预设时间后获取所述目标与所述智能设备之间的第二距离;
选择模块,用于根据所述第一距离和所述第二距离的大小关系,选择目标工作模式;
控制模块,用于控制所述智能设备在所述目标工作模式下工作。
作为本发明实施例另一方面实施例一种可能的实现方式,该装置还包括:
判断模块,用于在所述在预设时间后获取所述目标与所述智能设备之间的距离之前,判断所述第一距离与预设的距离阈值的大小关系;确定所述第一距离大于所述距离阈值。
作为本发明实施例另一方面实施例一种可能的实现方式,所述选择模块还用于:
在所述第一距离大于所述第二距离时,选择第一工作模式作为所述目标工作模式;
在所述第一距离小于所述第二距离时,选择第二工作模式作为所述目标工作模式。
作为本发明实施例另一方面实施例一种可能的实现方式,所述第一工作模式为接待工作模式,所述第二工作模式为送别工作模式。
作为本发明实施例另一方面实施例一种可能的实现方式,所述控制模块还用于:
当所述目标工作模式为接待工作模式时,控制所述智能设备开启对所述目标的身份进行验证的身份验证功能;或者,
当所述目标工作模式为送别工作模式时,播报与所述送别工作模式匹配的语音信息。
作为本发明实施例另一方面实施例一种可能的实现方式,还包括:
第二获取模块,用于在所述第一距离小于或者等于所述距离阈值时,获取所述目标的人脸角度;
所述选择模块,还用于在所述人脸角度在预设的角度范围内时,选择第三工作模式作为所述目标工作模式。
作为本发明实施例另一方面实施例一种可能的实现方式,所述控制模块还用于:
接收所述目标输入的操作指令,响应所述操作指令为所述目标提供与所述操作指令匹配的服务。
作为本发明实施例另一方面实施例一种可能的实现方式,所述第二获取模块还用于:
从所述环境图像中截取所述目标的人脸图像;
将所述人脸图像输入预先训练好的机器学习模型中,获取所述人脸图像中人脸的人脸角度;
所述装置还包括:
采集模块,用于采集样本人脸图像,其中,所述样本人脸图像中携带标注数据,所述标注数据用于表示样本人脸的人脸角度;
训练模块,用于将所述样本人脸图像输入到初始构建的机器学习模型中进行训练,当训练后的所述机器学习模型的误差在预设的误差范围内时,则得到训练好的所述机器学习模型。
作为本发明实施例另一方面实施例一种可能的实现方式,该装置还包括:
选取模块,用于当检测到多个候选目标时,从与所述智能设备距离最近的候选目标中选取一个候选目标作为所述目标。
作为本发明实施例另一方面实施例一种可能的实现方式,该装置还包括:
查询模块,用于当与所述智能设备距离最近的候选目标为多个时,查询所述智能设备的已注册用户人脸图像库中是否存在候选目标的人脸图像;
选取模块,还用于在所述人脸图像库中存在一个与所述智能设备距离最近的候选目标的人脸图像时,将所述一个与所述智能设备距离最近的候选目标作为所述目标;
在所述人脸图像库中不存在与所述智能设备距离最近的候选目标的人脸图像时,随机选取一个与所述智能设备距离最近的候选目标作为所述目标;或者,
在所述人脸图像库中包括多个与所述智能设备距离最近的候选目标的人脸图像时,将最先查询出的与所述智能设备距离最近的候选目标作为所述目标。
本发明实施例的智能设备的工作模式选择装置,通过从智能设备采集的环境图像中识别目标,获取目标与智能设备之间的第一距离,在预设时间后获取目标与智能设备之间的第二距离,根据第一距离和第二距离的大小关系,选择目标工作模式,控制智能设备在目标工作模式下工作。本实施例中,在检测到目标后,还考虑了目标与智能设备之间的距离因素,不再单纯地依赖人脸检测,通过根据目标与智能设备之间的距离,选取匹配的工作模式,使得智能设备的启动更加精准,避免了误启动,而且根据目标与智能设备之间距离的变化情况,选择相应的工作模式,能够满足多种应用场景的需求,提高了设备的智能化。
本发明另一方面实施例提出了一种智能设备,包括:壳体、处理器、存储器、电路板和电源电路,其中,所述电路板安置在所述壳体围成的空间内部,所述处理器和所述存储器设置在所述电路板上;所述电源电路,用于为上述智能设备的各个电路或器件供电;所述存储器用于存储可执行程序代码;;其中,处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于实现如上述一方面实施例所述的智能设备的工作模式选择方法。
本发明另一方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时实现如上述一方面所述的智能设备的工作模式选择方法。
本发明另一方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述一方面实施例所述智能设备的工作模式选择方法。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例提供的一种智能设备的工作模式选择方法的流程示意图;
图2为本发明实施例提供的双目视觉计算距离的原理示意图;
图3为本发明实施例提供的另一种智能设备的工作模式选择方法的流程示意图;
图4为本发明实施例提供的另一种智能设备的工作模式选择方法的流程示意图;
图5为本发明实施例提供的一个具体实施例的流程示意图;
图6为本发明实施例提供的一种智能设备的工作模式选择装置的结构示意图;
图7为本发明智能设备一个实施例的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的智能设备的工作模式选择方法和装置。
本发明各实施例,针对目前智能设备基于人脸检测启动交互,往往存在误启动的情况,以及人脸检测也比较单一用在启动机器人上,工作模式单一,不能满足多种场景的需求,不够智能化的问题,提出一种智能设备的工作模式选择方法。
本发明实施例提出的一种智能设备的工作模式选择方法,在检测到目标后,还考虑了目标与智能设备之间的距离因素,不再单纯地依赖人脸检测,通过根据目标与智能设备之间的距离,选取匹配的工作模式,使得智能设备的启动更加精准,避免了误启动,而且根据目标与智能设备之间距离的变化情况,选择相应的工作模式,能够满足多种应用场景的需求,提高了设备的智能化。
图1为本发明实施例提供的一种智能设备的工作模式选择方法的流程示意图。
如图1所示,该智能设备的工作模式选择方法包括:
步骤101,从智能设备采集的环境图像中识别目标。
本实施例中,智能设备可以是机器人、智能家电等。
可在智能设备上配置摄像装置,如摄像头,智能设备通过摄像装置可实时采集监控范围内的环境图像。在获取环境图像后,可对环境图像进行检测,以识别进入监控范围的目标。其中,这里的目标可以理解为人。
以识别环境图像中的人为例,智能设备可通过人脸检测或者人体检测,识别环境图像中的人。具体而言,从环境图像中提取物体的轮廓,将提取的物体轮廓与预存的人脸轮廓或人体轮廓,进行比对。当提取的轮廓与预设的轮廓之间的相似度超过预设的阈值,可以认为从环境图像中识别到了人。从而,通过该方法可以识别出环境图像中所有的人。
可以理解的是,当智能设备从环境图像中仅识别到一个人,可将其作为目标。
相关技术中,智能设备检测到人脸时,将直接将人确定为目标,进行启动并主动与人进行交互。但是,如果检测到人就启动智能设备,会造成智能设备的误启动。
本实施例中,当智能设备从环境图像中识别到多个候选目标,可从多个候选目标中选取一个作为目标,以提高智能设备交互的针对性,避免智能设备误启动。
作为一种可能的实现方式,针对每个候选目标,获取预设时长内候选目标被识别到的次数。然后,从所有候选目标中,选取被识别到的次数最多的候选目标作为目标。
可以理解的是,候选目标与智能设备之间的距离越近,说明候选目标与智能设备之间存在交互意图的可能性越大,因此本实施例中,将候选目标与智能设备之间的距离,作为是否将候选目标作为目标的依据。
作为另一种可能的实现方式,当检测到多个候选目标时,从与智能设备距离最近的候选目标中选取一个候选目标作为目标。
本实施例中,可通过深度摄像头或者双目视觉摄像头或者激光雷达,获取候选目标与智能设备之间的距离。
作为一种可能的实现方式,智能设备中配置有深度摄像头,通过深度摄像头,获取候选目标的深度图。在具体实现时,可通过结构光投射器向候选目标表面投射可控制的光点、光条或光面结构,并由深度摄像头中的图像传感器获得图像,通过几何关系,利用三角原理计算得到候选目标的三维坐标,从而可以得到候选目标与智能设备之间的距离。
作为一种可能的实现方式,在智能设备中配置双目视觉摄像头,通过双目视觉摄像头,对候选目标进行拍摄。然后,计算双目视觉摄像头所拍摄图像的视差,根据视差计算候选目标与智能设备之间的距离。
图2为本发明实施例提供的双目视觉计算距离的原理示意图。图2中,在实际空间中,画出了两个摄像头所在位置Ol和Or,以及左右摄像头的光轴线,两个摄像头的焦平面,焦平面距离两个摄像头所在平面的距离为f。
如图2所示,p和p′分别是同一候选目标P在不同拍摄图像中的位置。其中,p点距离所在拍摄图像的左侧边界的距离为xl,p′点距离所在拍摄图像的左侧边界的距离为xr。Ol和Or分别为两个摄像头,这两个摄像头在同一平面,两个摄像头之间的距离为Z。
基于三角测距原理,图2中的P与两个摄像头所在平面之间的距离b,具有如下关系:
基于此,可以推得其中,d为同一候选目标双目摄像头所拍摄图像的视觉差。由于Z、f为定值,因此,根据视觉差d可以确定出候选目标与摄像头所在平面之间的距离b,即候选目标与智能设备之间的距离。
作为再一种可能的实现方式,在智能设备中配置激光雷达,通过激光雷达向监控范围内发射激光,发射的激光遇到监控范围内的障碍物将被反射。智能设备接收监控范围内的每个障碍物返回的激光,根据返回的激光生成每个障碍物的二值图。然后,将每个二值图与环境图像进行融合,从所有二值图中识别出与候选目标对应的二值图。具体地,可以根据每个障碍物的二值图可以识别出每个障碍物的轮廓或者大小,然后将环境图像中每个目标的轮廓或者大小进行匹配,从而可以得到候选目标对应的二值图。之后,将候选目标对应的二值图的激光返回时间乘以光速,并除以2,得到候选目标与智能设备之间的距离。
在获取每个候选目标与智能设备之间的距离后,通过比较每个候选目标到智能设备的距离,选出与智能设备距离最近的候选目标,并从与智能设备距离最近的候选目标中选出一个候选目标作为目标。
可以理解的是,与智能设备距离最近的候选目标可能是一个,也可能是多个。当与智能设备距离最近的候选目标只有一个,可将该候选目标作为目标。当与智能设备距离最近的候选目标有多个时,可从多个与智能设备距离最近的候选目标中,选取一个候选目标作为目标。
以机器人为例,某公司前台放置一个机器人,当用户需要进入公司时,可以在机器人中进行信息登录,即在机器人中进行注册。或者可以从公司网站中下载注册用户的人脸图像,存储到机器人中,在公司网站中注册过的用户,同步地在机器人中进行了注册。一般在该机器人中注册过的用户,比未注册过的用户与机器人交互的交互意图更强。由此,可根据候选目标是否已注册,从多个与智能设备距离最近的候选目标中确定目标。
机器人在日常接待工作时,可以采集访客或者公司员工的人脸图像,利用采集的访客或者公司员工的人脸图像,构建一个已注册用户人脸图像库,也可以利用网站注册用户的人脸图像,构建该人脸图像库。
作为一种可能的实现方式,智能设备可在本地查询与智能设备距离最近的候选目标,是否已经注册智能设备。具体地,智能设备可预先存储已注册用户人脸图像库,人脸图像库中存储有已注册智能设备的用户人脸图像。当与智能设备距离最近的候选目标为多个时,可将与智能设备距离最近的候选目标的人脸图像,与人脸图像库中的人脸图像进行比较。
如果人脸图像库中存在一个与智能设备距离最近的候选目标的人脸图像,说明该候选目标已注册,那么将该候选目标作为目标。
如果人脸图像库中不存在与智能设备距离最近的候选目标的人脸图像,说明与智能设备距离最近的候选目标均未注册,可从与智能设备距离最近的候选目标中,随机选取一个候选目标作为目标。
如果人脸图像库中存在多个与智能设备距离最近的候选目标的人脸图像,说明有多个与智能设备距离最近的候选目标已注册,那么可将最先查询出的与智能设备距离最近的候选目标作为目标,也可从已注册且与智能设备距离最近的候选目标中,随机选取一个候选目标作为目标。
作为另一种可能的实现方式,当与智能设备距离最近的候选目标为多个时,可将所有与智能设备距离最近的候选目标的人脸图像,发送给服务器,由服务器返回查询结果至智能设备,智能设备根据比较结果确定交目标。
具体地,服务器存储有已注册用户的人脸图像库,当与智能设备距离最近的候选目标为多个时,智能设备将多个与智能设备距离最近的候选目标的人脸图像,发送至服务器。服务器接收到人脸图像,并在已注册用户人脸图像库中,查询是否存在与智能设备距离最近的候选目标的人脸图像。然后,服务器将查询结果发送给智能设备。智能设备根据查询结果,确定智能设备的交互目标,具体的确定方法可参见上述方法,在此不再赘述。
举例来说,A从机器人面前路过,并没有交互意图,而B是公司的常客,之前已经完成了注册。当A和B与机器人的距离小于距离阈值3米,且与机器人的距离相同时,机器人可选取已经完成的注册B作为目标,向B打招呼。
本实施例中,当从环境图像中检测出多个候选目标时,可从与智能设备距离最近的候选目标中选取一个候选目标作为目标,当与智能设备距离最近的候选目标有多个时,根据已注册人脸图像库,选取目标,从而使得选取的目标最可能是与智能设备有交互意图的目标,相比在检测到人脸时就启动,提高了交互目标的确定准确度,减少了智能设备的误启动。
步骤102,获取目标与智能设备之间的第一距离。
相关技术中,智能设备的工作模式比较单一,不能适应多种场景的需求。本实施例中,可根据目标与智能设备之间的距离变化,为智能设备选取匹配的工作模式。
以迎宾机器人为例,当人逐渐靠近机器人和逐渐远离机器人时,机器人可根据距离变化,确定是欢迎客人还是送别客人。
需要说明的是,获取目标与智能设备之间的距离的方法,可参上步骤101中记载的方法,在此不再赘述。
步骤103,在预设时间后获取目标与智能设备之间的第二距离。
在获取第一距离的预设时间后,可获取目标与智能设备之间的第二距离,以比较第一距离和第二距离之间的变化。
步骤104,根据第一距离和第二距离的大小关系,选择目标工作模式。
本实施例中,智能设备可以根据第一距离和第二距离的大小关系,可以确定目标是逐渐靠近还是逐渐远离,又或者是距离未发生变化,进而选择目标工作模式。由此,智能设备可以选择与场景匹配的工作模式,从而提高了智能设备的智能化。
步骤105,控制智能设备在目标工作模式下工作。
在确定目标工作模式后,可控制智能设备在目标工作模式下进行工作。相比,相关技术中智能设备通过人脸检测可以启动交互,这一固定模式,使智能设备能够根据当前场景进行工作模式匹配,提升了智能设备的智能化。
由于目标与智能设备之间距离越近,说明目标与智能设备交互的交互意图越强。本发明实施例提出,在获取第二预设距离之前,比较第一距离和预设的距离阈值,以确定智能设备的目标工作模式。图3为本发明实施例提供的另一种智能设备的工作模式选择方法的流程示意图。
如图3所示,该智能设备的工作模式选择方法包括:
步骤201,从智能设备采集的环境图像中识别目标。
本实施例中,从环境图像中检测候选目标以及从候选目标中选取目标的方法,可参见上述实施例中记载的相关内容,在此不再赘述。
步骤202,获取目标与智能设备之间的第一距离。
本实施例中,获取目标与智能设备之间的第一距离的方法,可参见上述实施例中介绍的三种方法,在此不再赘述。
步骤203,判断第一距离与预设的距离阈值的大小关系。
在实际中,当人距离智能设备较远时,可以认为当前时刻人与智能设备之间的交互意图较弱。
本实施例中,预先设置一个距离阈值。在获取第一距离后,比较第一距离与距离阈值之间的大小关系,以衡量人与智能设备之间距离的远近。
步骤204,如果第一距离大于距离阈值,在预设时间后获取目标与智能设备之间的第二距离。
如果第一阈值大于阈值距离,说明目标与智能设备之间的距离较远。然后,在预设时间后,获取目标与智能设备之间的第二距离。
步骤205,判断第一距离与是否大于第二距离。
在获取第二距离后,将第一距离与第二距离进行比较,以确定第一距离是否大于第二距离,从而根据目标距离的变化情况,确定目标工作模式。
步骤206,如果第一距离大于第二距离,选择第一工作模式作为目标工作模式。
本实施例中,如果第一距离大于第二距离,说明目标在逐渐靠近智能设备,选择第一工作模式为目标工作模式。
其中,第一工作模式可以是接待工作模式,接待工作模式包括播报欢迎语音信息,如“欢迎光临”,以及启动接待功能。
相关技术中,智能设备播放的语音较固定,且没有后续功能开启,可见,本实施例中,在目标接近智能设备时,还可开启后续功能,提高了智能设备的智能化。
步骤207,如果第一距离小于第二距离,选择第二工作模式作为目标工作模式。
如果第一距离小于第二距离,说明目标在逐渐远离智能设备,选择第二工作模式为目标工作模式。其中,第二工作模式可以是送别工作模式,送别工作模式包括播报送别语音信息,如“欢迎下次光临”。
本实施例中,根据第一距离和第二距离的大小关系,为智能设备选取匹配的工作模式,从而使智能设备根据场景需要,切换工作模式,提高了智能设备的智能化。
需要说明的是,如果第二距离和第一距离相等,则继续在预设时间后获取目标与智能设备之间的距离,继续将获取的距离和第一距离进行比较。
步骤208,控制智能设备在目标工作模式下工作。
在根据第一距离和第二距离确定智能设备的目标工作模式后,控制智能设备在目标工作模式下工作。
当智能设备的目标工作模式为接待工作模式时,可控制智能设备播放欢迎语音,如“您好,欢迎光临”,并开启对目标的身份进行验证的身份验证功能。
本实施例中,如果目标是首次验证,可先进行注册,如输入姓名、电话、人脸图像采集等。智能设备可将目标输入的信息进行保存,以及将采集的人脸图像,存储在已注册用户人脸图像库中,以便于后续身份验证。
如果目标已注册过,可通过摄像装置采集目标的人脸图像。然后,将采集的人脸图像与人脸图像库中的人脸图像进行比较,以确定目标的人脸图像是否在人脸图像库中。如果人脸图像库中存在目标的人脸图像,则提示身份验证通过;如果人脸图像库中不存在目标的人脸图像,可提示验证失败,并提示是否继续验证。
在身份验证通过后,智能设备开始接待访客,如语音播报到等待区的路线。
本实施例中,当智能设备为接待工作模式时,可开启身份验证功能,自主引导用户进行身份验证,避免用户刚进门不知道该做什么,提高了智能设备的智能化。
当目标工作模式为送别工作模式时,可主动播报与送别工作模式匹配的语音信息,如“再见,欢迎再次光临”。
本发明实施例的智能设备的工作模式选择方法,通过在第一距离大于距离阈值时,获取第二距离,并根据第一距离和第二距离的大小,选择相应的工作模式,从而使智能设备工作在与场景匹配的工作模式下,提高了智能设备的智能化。
上述实施例介绍了在第一距离大于距离阈值时,智能设备的工作模式的选择方法。下面结合图4解释在第一距离小于距离阈值时,智能设备的工作模式的选择方法。图4为本发明实施例提供的另一种智能设备的工作模式选择方法的流程示意图。
如图4所示,该智能设备的工作模式选择方法包括:
步骤301,从智能设备采集的环境图像中识别目标。
步骤302,获取目标与智能设备之间的第一距离。
步骤303,判断第一距离与预设的距离阈值的大小关系。
本实施例中,步骤301-步骤303与上述实施例中记载的相关内容类似,在此不再赘述。
步骤304,如果第一距离小于或者等于距离阈值,则获取目标的人脸角度。
其中,人脸角度可以是人脸中轴线偏离图像中轴线的角度,人脸中轴线和包括水平方向的中轴线和垂直方向的中轴线,相应的图像中轴线也包括水平方向的中轴线和垂直方向的中轴线。从环境图像中可以识别出人脸水平方向的中轴线和垂直方向的中轴线,分别偏离与图像的水平方向的中轴线和图像的垂直方的中轴线的角度,获取到的角度就是人脸角度。
在实际中,当人路过机器人时,如果人转头看向机器人,或者当人脸正对机器人时,说明人对机器人的关注度较高,人存在与机器人交互的交互意图。由此,当第一距离小于或者等于距离阈值时,可以认为目标与智能设备距离较近,目标可能存在与智能设备交互的交互意图。为了进一步确定目标是否存在与智能设备交互的交互意图,可获取目标的人脸角度。
在获取人脸角度时,可通过预先训练好的机器学习模型,获取人脸角度。具体地,可按照人脸轮廓从环境图像中截取候选目标的人脸图像,之后将人脸图像输入到机器学习模型中。机器学习模型根据人脸图像,输出人脸图像中人脸角度。
本实施例中,可采用如下方式训练机器学习模型。首先,采集人脸图像,并对人脸图像进行人脸角度标注,从而使样本人脸图像,携带表示样本人脸图像的人脸角度的标注数据。之后,将样本人脸图像输入到初始构建的机器学习模型中进行训练。当机器学习模型输出的人脸角度,与标注的人脸角度之间的差值,在预设的误差范围内时,可以认为机器学习模型已经训练完毕。
本实施例中,通过训练好的机器学习模型获取人脸角度,可以提高获取的人脸角度的精度,从而能够提高后续判断的准确性。
步骤305,如果人脸角度在预设的角度范围内,选择第三工作模式作为目标工作模式。
由于当人脸正对智能设备,或者与侧脸看向智能设备时,也就是说人脸角度在一定范围内时,可以认为人对智能设备具有一定的关注度。
本实施例中,预先设置一个角度范围。在获取人脸角度后,将人脸角度与预设的角度范围的下限值和上限值进行比较,以判断人脸角度是否处于预设的角度范围内。如果人脸角度处于角度范围内,说明目标存在与智能设备交互的交互意图,则选择第三工作模式作为目标工作模式。其中,第三工作模式可以是接收用户的操作指令,并根据操作指令执行相应的操作。
例如,距离阈值为3米,角度范围是[0°,30°],如果人与智能设备的距离为1米,且人脸角度为20°,说明人存在与智能设备交互的交互意图,则将智能设备的工作模式选择为第三工作模式。
本实施例中,在人脸角度处于预设的角度范围内时,可以认为目标存在与智能设备交互的交互意图,而相关技术中,智能设备不能判断人是否有和智能设备沟通的意向,从而使智能设备更加智能化。并且,在人脸角度处于预设的角度范围内的场景时,以第三工作模式作为目标工作模式,相比相关技术中智能设备单一的工作模式,提高了智能设备的智能化。
步骤306,接收目标输入的操作指令,响应操作指令为目标提供与操作指令匹配的服务。
在确定智能设备的工作模式为第三工作模式后,智能设备可接收目标输入的操作指令,并根据操作指令为目标提供与操作指令匹配的服务。其中,操作指令可以语音操作指令,也可以是手动操作输入的操作指令。
例如,以机器人为例,某访客语音输入“前面多少人在等候接待”,机器人接收到语音指令后,根据语音指令统计前面等候接待的人数,并将正在等候接待的人数展示给该访客。其中,可以语音播报,也可以将人数显示在智能设备的屏幕上。
本发明实施例的智能设备的工作模式选择方法,通过在第一距离小于或者等于阈值距离时,获取人脸角度,在人脸角度处于角度范围内时,将第三工作模式作为目标工作模式,接收目标的操作指令,并提供与操作指令匹配的服务,提高了智能设备的智能化。
为了更清楚的说明上述实施例,下面以机器人为例,通过一个具体实施例说明本发明实施例提出的智能设备的工作模式选择方法。图5为本发明实施例提供的一个具体实施例的流程示意图。
如图5所示,该智能设备的工作模式选择方法包括:
步骤401,人脸或人体检测。
本实施例中,机器人在前台面向门口的位置。机器人可实时采集环境图像,对人脸或者人体进行检测,具体的方法可参见上述实施例。
步骤402,判断是否检测到人脸或人体。如果是,则执行步骤403;否则,执行步骤401。
步骤403,获取目标与智能设备的第一距离S1
本实施例中,在检测到人脸或人体后,确定目标,具体的确定目标的方法可参见上述实施例。在确定目标后,获取目标与智能设备的第一距离S1
步骤404,判断S1是否大于3米。若大于,则执行步骤405;否则,执行步骤413。
本实施例中,距离阈值为3米,人脸角度范围为小于30°。如果S1小于或者等于3米,则获取人脸角度,判断人脸角度是否小30°。如果S1大于3米,则在0.5秒后获取第二距离S2
步骤405,0.5秒后获取第二距离S2
本实施例中,在第一距离大于3米的情况下,在获取第一距离0.5秒后获取第二距离S2
步骤406,判断S1是否大于S2。如果是,则执行步骤408;否则,执行步骤407。
步骤407,判断S1是否小于S2。如果是,则执行步骤412;否则,执行步骤401。
步骤408,判定为进门。
本实施例中,当S1大于S2时,说明目标在逐渐靠近机器人,可以认为目标在进门。
步骤409,播报欢迎词。
在确定目标为进门时,主动播报欢迎词,如“欢迎来到XXX,我是您的接待机器人,请来找我验证身份”。
步骤410,启动接待功能。
在播报欢迎词后,启动相应的接待功能,如进行身份验证。这样机器人就可以自主引导客人进行身份验证,以免客人刚进门不知道怎么操作,还需要咨询前台,从而大大方便了访客。
步骤411,开始接待访客。
在启动接待功能,对目标进行身份验证后,可开始接待访客,例如引导访客到指定等待区域等候。从而,为访客提供更加人性化的服务,也大大提高了机器人的智能化。
步骤412,判定为出门。
在S1小于S2时,说明目标在远离机器人,可以判断目标正在出门。
步骤413,播报送别词。
在判定目标出门后,主动播报送别词,如:“再见,欢迎下次再来!”。
本实施例中,在S1大于3米的情况下,根据第一距离S1和第二距离S2的大小关系,判定目标是出门还是进门,以采取不同的操作,从而提供了智能设备的智能化。
步骤414,获取人脸角度。
在S1小于或者等于3米时,获取目标的人脸角度,获取人脸角度的方法,可参见上述实施例,在此不再赘述。
步骤415,判断人脸角度是否在30°内。若是,则执行步骤413;否则执行步骤401。
步骤416,判定为有交互意图。
在人脸角度在30°时,可以判定为目标存在与机器人交互的交互意图。而相关技术中,智能设备仅能播放单一的播放语音,而不能识别目标的意图。本实施例中,通过目标与机器人之间的距离和目标的人脸角度,确定目标和机器人是否有沟通意向,从而提高了机器人的智能化。
步骤417,播报询问词。
本实施例中,在判定目标与机器人有交互意图时,主动播报询问词,如“您好,请问有什么可以帮您?”。
步骤418,唤醒5秒。
在播报询问词后,可主动唤醒机器人5秒,使机器人处于运行状态,避免目标去唤醒机器人,减少了人的操作,提高机器人使用的便捷性。
步骤419,接收操作指令,提供与操作指令匹配的服务。
机器人可接收目标输入的操作指令,并根据操作指令为目标提供与操作指令匹配的服务。其中,操作指令可以语音操作指令,也可以是手动操作输入的操作指令。
例如,某访客语音输入“前面多少人在等候接待”,机器人接收到语音指令后,根据语音指令统计前面等候接待的人数,并将正在等候接待的人数展示给该访客。其中,可以语音播报,也可以将人数显示在智能设备的屏幕上。
本发明实施例的智能设备的工作模式选择方法,通过从智能设备采集的环境图像中识别目标,获取目标与智能设备之间的第一距离,在预设时间后获取目标与智能设备之间的第二距离,根据第一距离和第二距离的大小关系,选择目标工作模式,控制智能设备在目标工作模式下工作。本实施例中,在检测到目标后,还考虑了目标与智能设备之间的距离因素,不再单纯地依赖人脸检测,通过根据目标与智能设备之间的距离,选取匹配的工作模式,使得智能设备的启动更加精准,避免了误启动,而且根据目标与智能设备之间距离的变化情况,选择相应的工作模式,能够满足多种应用场景的需求,提高了设备的智能化。
为实现上述实施例,本发明实施例还提供一种智能设备的工作模式选择装置。图6为本发明实施例提供的一种智能设备的工作模式选择装置的结构示意图。
如图6所示,该智能设备的工作模式选择装置包括:识别模块510、第一获取模块520、选择模块530、控制模块540。
识别模块510用于从智能设备采集的环境图像中识别目标。
第一获取模块520用于获取目标与智能设备之间的第一距离;在预设时间后获取目标与所述智能设备之间的第二距离。
选择模块530用于根据第一距离和第二距离的大小关系,选择目标工作模式。
控制模块540用于控制智能设备在目标工作模式下工作。
在本实施例一种可能的实现方式中,该装置还包括:
判断模块,用于在在预设时间后获取目标与智能设备之间的距离之前,判断第一距离与预设的距离阈值的大小关系;确定第一距离大于距离阈值。
在本实施例一种可能的实现方式中,选择模块530还用于:
在第一距离大于第二距离时,选择第一工作模式作为目标工作模式;
在第一距离小于第二距离时,选择第二工作模式作为目标工作模式。
在本实施例一种可能的实现方式中,第一工作模式为接待工作模式,第二工作模式为送别工作模式。
在本实施例一种可能的实现方式中,控制模块540还用于:
当目标工作模式为接待工作模式时,控制智能设备开启对目标的身份进行验证的身份验证功能;或者,
当目标工作模式为送别工作模式时,播报与送别工作模式匹配的语音信息。
在本实施例一种可能的实现方式中,该装置还包括:
第二获取模块,用于在第一距离小于或者等于距离阈值时,获取目标的人脸角度;
选择模块530,还用于在人脸角度在预设的角度范围内时,选择第三工作模式作为目标工作模式。
在本实施例一种可能的实现方式中,控制模块540还用于:
接收目标输入的操作指令,响应操作指令为目标提供与操作指令匹配的服务。
在本实施例一种可能的实现方式中,第二获取模块还用于:
从环境图像中截取所述目标的人脸图像;
将人脸图像输入预先训练好的机器学习模型中,获取人脸图像中人脸的人脸角度;
在本实施例一种可能的实现方式中,该装置还包括:
采集模块,用于采集样本人脸图像,其中,样本人脸图像中携带标注数据,标注数据用于表示样本人脸的人脸角度;
训练模块,用于将样本人脸图像输入到初始构建的机器学习模型中进行训练,当训练后的机器学习模型的误差在预设的误差范围内时,则得到训练好的机器学习模型。
在本实施例一种可能的实现方式中,该装置还包括:
选取模块,用于当检测到多个候选目标时,从与智能设备距离最近的候选目标中选取一个候选目标作为目标。
在本实施例一种可能的实现方式中,该装置还包括:
查询模块,用于当与智能设备距离最近的候选目标为多个时,查询智能设备的已注册用户人脸图像库中是否存在候选目标的人脸图像;
选取模块,还用于在人脸图像库中存在一个与智能设备距离最近的候选目标的人脸图像时,将一个与所述智能设备距离最近的候选目标作为目标;
在人脸图像库中不存在与智能设备距离最近的候选目标的人脸图像时,随机选取一个与智能设备距离最近的候选目标作为目标;或者,
在人脸图像库中包括多个与智能设备距离最近的候选目标的人脸图像时,将最先查询出的与智能设备距离最近的候选目标作为目标。
需要说明的是,前述对智能设备的工作模式选择方法实施例的解释说明,也适用于该实施例的智能设备的工作模式选择装置,故在此不再赘述。
本发明实施例的智能设备的工作模式选择装置,通过从智能设备采集的环境图像中识别目标,获取目标与智能设备之间的第一距离,在预设时间后获取目标与智能设备之间的第二距离,根据第一距离和第二距离的大小关系,选择目标工作模式,控制智能设备在目标工作模式下工作。本实施例中,在检测到目标后,还考虑了目标与智能设备之间的距离因素,不再单纯地依赖人脸检测,通过根据目标与智能设备之间的距离,选取匹配的工作模式,使得智能设备的启动更加精准,避免了误启动,而且根据目标与智能设备之间距离的变化情况,选择相应的工作模式,能够满足多种应用场景的需求,提高了设备的智能化。
为了实现上述实施例,本发明实施例还提出一种智能设备。
图7为本发明智能设备一个实施例的结构示意图,如图7所示,该智能设备包括:壳体610、处理器620、存储器630、电路板640和电源电路650,其中,电路板640安置在壳体610围成的空间内部,处理器620和存储器630设置在电路板640上;电源电路650,用于为上述智能设备的各个电路或器件供电;存储器630用于存储可执行程序代码;处理器620通过读取存储器630中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行上述实施例所述的智能设备的工作模式选择方法。
为了实现上述实施例,本发明实施例还提出一种计算机程序产品,当计算机程序产品中的指令由处理器执行时实现如上述实施例所述的智能设备的工作模式选择方法。
为了实现上述实施例,本发明实施例还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例所述的的智能设备的工作模式选择方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种智能设备的工作模式选择方法,其特征在于,包括以下步骤:
从智能设备采集的环境图像中识别目标;
获取所述目标与所述智能设备之间的第一距离;
在预设时间后获取所述目标与所述智能设备之间的第二距离;
根据所述第一距离和所述第二距离的大小关系,选择目标工作模式;
控制所述智能设备在所述目标工作模式下工作。
2.根据权利要求1所述的方法,其特征在于,所述在预设时间后获取所述目标与所述智能设备之间的距离之前,还包括:
判断所述第一距离与预设的距离阈值的大小关系;
确定所述第一距离大于所述距离阈值。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一距离和所述第二距离的大小关系,选择目标工作模式,包括:
如果所述第一距离大于所述第二距离,选择第一工作模式作为所述目标工作模式;
如果所述第一距离小于所述第二距离,选择第二工作模式作为所述目标工作模式。
4.根据权利要求3所述的方法,其特征在于,所述第一工作模式为接待工作模式,所述第二工作模式为送别工作模式。
5.根据权利要求1所述的方法,其特征在于,所述控制所述智能设备在所述目标工作模式下工作,包括:
当所述目标工作模式为接待工作模式时,控制所述智能设备开启对所述目标的身份进行验证的身份验证功能;或者,
当所述目标工作模式为送别工作模式时,播报与所述送别工作模式匹配的语音信息。
6.根据权利要求2所述的方法,其特征在于,还包括:
如果所述第一距离小于或者等于所述距离阈值,则获取所述目标的人脸角度;
如果所述人脸角度在预设的角度范围内,选择第三工作模式作为所述目标工作模式。
7.根据权利要求6所述的方法,其特征在于,所述控制所述智能设备在所述目标工作模式下工作,包括:
接收所述目标输入的操作指令,响应所述操作指令为所述目标提供与所述操作指令匹配的服务。
8.一种智能设备的工作模式选择装置,其特征在于,包括:
识别模块,用于从智能设备采集的环境图像中识别目标;
第一获取模块,用于获取所述目标与所述智能设备之间的第一距离;在预设时间后获取所述目标与所述智能设备之间的第二距离;
选择模块,用于根据所述第一距离和所述第二距离的大小关系,选择目标工作模式;
控制模块,用于控制所述智能设备在所述目标工作模式下工作。
9.一种智能设备,其特征在于,包括:壳体、处理器、存储器、电路板和电源电路,其中,所述电路板安置在所述壳体围成的空间内部,所述处理器和所述存储器设置在所述电路板上;所述电源电路,用于为上述智能设备的各个电路或器件供电;所述存储器用于存储可执行程序代码;其中,所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于实现如权利要求1-7中任一所述的智能设备的工作模式选择方法。
10.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述智能设备的工作模式选择方法。
CN201810236354.4A 2018-03-21 2018-03-21 智能设备的工作模式选择方法和装置 Pending CN108733417A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810236354.4A CN108733417A (zh) 2018-03-21 2018-03-21 智能设备的工作模式选择方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810236354.4A CN108733417A (zh) 2018-03-21 2018-03-21 智能设备的工作模式选择方法和装置

Publications (1)

Publication Number Publication Date
CN108733417A true CN108733417A (zh) 2018-11-02

Family

ID=63941005

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810236354.4A Pending CN108733417A (zh) 2018-03-21 2018-03-21 智能设备的工作模式选择方法和装置

Country Status (1)

Country Link
CN (1) CN108733417A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543578A (zh) * 2018-11-13 2019-03-29 北京猎户星空科技有限公司 智能设备控制方法、装置和存储介质
CN109781008A (zh) * 2018-12-30 2019-05-21 北京猎户星空科技有限公司 一种距离测量方法、装置、设备及介质
CN110084183A (zh) * 2019-04-25 2019-08-02 杭州鸿雁电器有限公司 确定人员进出区域的方法和系统
CN110253595A (zh) * 2019-06-21 2019-09-20 北京猎户星空科技有限公司 一种智能设备控制方法和装置
CN110427887A (zh) * 2019-08-02 2019-11-08 腾讯科技(深圳)有限公司 一种基于智能的会员身份识别方法及装置
CN113050458A (zh) * 2021-03-24 2021-06-29 潍坊歌尔电子有限公司 设备的控制方法、控制终端及存储介质
CN113221699A (zh) * 2021-04-30 2021-08-06 杭州海康威视数字技术股份有限公司 一种提高识别安全性的方法、装置、识别设备
CN115240296A (zh) * 2022-05-10 2022-10-25 深圳绿米联创科技有限公司 设备唤醒方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107102540A (zh) * 2016-02-23 2017-08-29 芋头科技(杭州)有限公司 一种唤醒智能机器人的方法及智能机器人
CN107563886A (zh) * 2017-08-10 2018-01-09 浙江工业大学 基于银行导览系统的智能服务机器人系统
CN107728152A (zh) * 2017-08-25 2018-02-23 杭州仁盈科技股份有限公司 基于超声波的服务响应方法、电子设备、存储介质、系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107102540A (zh) * 2016-02-23 2017-08-29 芋头科技(杭州)有限公司 一种唤醒智能机器人的方法及智能机器人
CN107563886A (zh) * 2017-08-10 2018-01-09 浙江工业大学 基于银行导览系统的智能服务机器人系统
CN107728152A (zh) * 2017-08-25 2018-02-23 杭州仁盈科技股份有限公司 基于超声波的服务响应方法、电子设备、存储介质、系统

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11247342B2 (en) 2018-11-13 2022-02-15 Beijing Orion Star Technology Co., Ltd. Smart device control method and apparatus, and storage medium
WO2020098421A1 (zh) * 2018-11-13 2020-05-22 北京猎户星空科技有限公司 智能设备控制方法、装置和存储介质
CN109543578B (zh) * 2018-11-13 2020-12-22 北京猎户星空科技有限公司 智能设备控制方法、装置和存储介质
CN109543578A (zh) * 2018-11-13 2019-03-29 北京猎户星空科技有限公司 智能设备控制方法、装置和存储介质
CN109781008A (zh) * 2018-12-30 2019-05-21 北京猎户星空科技有限公司 一种距离测量方法、装置、设备及介质
CN109781008B (zh) * 2018-12-30 2021-05-25 北京猎户星空科技有限公司 一种距离测量方法、装置、设备及介质
CN110084183A (zh) * 2019-04-25 2019-08-02 杭州鸿雁电器有限公司 确定人员进出区域的方法和系统
CN110253595A (zh) * 2019-06-21 2019-09-20 北京猎户星空科技有限公司 一种智能设备控制方法和装置
CN110253595B (zh) * 2019-06-21 2022-01-21 北京猎户星空科技有限公司 一种智能设备控制方法和装置
CN110427887A (zh) * 2019-08-02 2019-11-08 腾讯科技(深圳)有限公司 一种基于智能的会员身份识别方法及装置
CN110427887B (zh) * 2019-08-02 2023-03-10 腾讯科技(深圳)有限公司 一种基于智能的会员身份识别方法及装置
CN113050458A (zh) * 2021-03-24 2021-06-29 潍坊歌尔电子有限公司 设备的控制方法、控制终端及存储介质
CN113050458B (zh) * 2021-03-24 2022-07-22 潍坊歌尔电子有限公司 设备的控制方法、控制终端及存储介质
CN113221699A (zh) * 2021-04-30 2021-08-06 杭州海康威视数字技术股份有限公司 一种提高识别安全性的方法、装置、识别设备
CN113221699B (zh) * 2021-04-30 2023-09-08 杭州海康威视数字技术股份有限公司 一种提高识别安全性的方法、装置、识别设备
CN115240296A (zh) * 2022-05-10 2022-10-25 深圳绿米联创科技有限公司 设备唤醒方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN108733417A (zh) 智能设备的工作模式选择方法和装置
CN108733208A (zh) 智能设备的交互目标确定方法和装置
CN108733420A (zh) 智能设备的唤醒方法、装置、智能设备和存储介质
US11946761B2 (en) System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3D space based on mapping and navigation to a precise POI destination using a smart laser pointer device
CN107093171B (zh) 一种图像处理方法及装置、系统
CN102135882B (zh) 用于在多用户应用程序中将语音与用户相关联的系统和方法
Han et al. Enhanced computer vision with microsoft kinect sensor: A review
EP3156754A1 (en) Dart game device having multiple cameras and computer program stored in computer-readable medium
CN108733419A (zh) 智能设备的持续唤醒方法、装置、智能设备和存储介质
CN105143907B (zh) 定位系统和方法
KR101364874B1 (ko) 제 1 이미징 장치 및 제 2 이미징 장치의 상대적인 위치 및 상대적인 방향을 결정하기 위한 방법 및 관련 장치
Goncalves et al. A visual front-end for simultaneous localization and mapping
CN108733280A (zh) 智能设备的焦点跟随方法、装置、智能设备及存储介质
CN108985225A (zh) 焦点跟随方法、装置、电子设备及存储介质
US11315264B2 (en) Laser sensor-based map generation
CN109389641A (zh) 室内地图综合数据生成方法及室内重定位方法
CN108416902A (zh) 基于差异识别的实时物体识别方法和装置
CN107480129A (zh) 一种基于视觉识别和语音识别的物品位置识别方法及系统
KR20210029586A (ko) 이미지 내의 특징적 객체에 기반하여 슬램을 수행하는 방법 및 이를 구현하는 로봇과 클라우드 서버
CN109200576A (zh) 机器人投影的体感游戏方法、装置、设备和存储介质
CN108550080A (zh) 物品定损方法及装置
US20220414997A1 (en) Methods and systems for providing a tutorial for graphic manipulation of objects including real-time scanning in an augmented reality
CN107402374A (zh) 一种定位方法、服务器及定位系统
CN109902681A (zh) 用户群体关系确定方法、装置、设备及存储介质
CN106991376A (zh) 结合深度信息的侧脸验证方法及装置与电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181102