CN108416298B - 一种场景判断方法及终端 - Google Patents
一种场景判断方法及终端 Download PDFInfo
- Publication number
- CN108416298B CN108416298B CN201810193382.2A CN201810193382A CN108416298B CN 108416298 B CN108416298 B CN 108416298B CN 201810193382 A CN201810193382 A CN 201810193382A CN 108416298 B CN108416298 B CN 108416298B
- Authority
- CN
- China
- Prior art keywords
- scene
- information
- preset
- physical address
- voiceprint information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
Abstract
本发明提供一种场景判断方法及终端,其方法包括以下步骤:S1:获取声纹信息;S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。本发明通过对图像的物品识别,进而判断用户自身与他人所处的场景,提高了场景识别的可靠性,同时根据用户自身与他人所处的场景,能够判断用户与他人的人际关系,从而做出精准的推荐服务。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种场景判断方法及终端。
背景技术
随着通信技术的发展,智能终端集成了越来越多的功能,从而使得智能终端的系统功能列表中包含了越来越多的应用程序。有些应用程序中指定服务会涉及一些场景识别功能。现有指定服务例如,推荐服务、预测服务等中,可以基于用户所在的位置,识别出相应的场景,进而为用户提供该场景相关的服务信息。
然而,现有的场景识别方法,完全依赖于用户所在的位置,可能会使得场景识别结果与实际场景有所偏差,且现有的场景识别方法仅为识别出用户自身所在的场景,无法判断用户与他人所处的场景。
发明内容
本发明所要解决的技术问题是:本发明提供一种能够判断他人所处场景的判断方法及终端,并且提高了场景判断的可靠性。
为了解决上述技术问题,本发明提供了一种场景判断方法,包括以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
本发明还提供了一种场景判断终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
本发明的有益效果为:
本发明提供一种场景判断方法及终端,通过设置在智能终端上的声纹采集器获取声纹信息,并通过声纹信息及移动终端的物理地址确认声纹信息发出者的身份信息,身份信息确认完毕后,通过智能终端上设置的摄像头拍摄图像,对图像中的多个物品分别进行识别,从而判断所述身份信息对应者所处的场景;上述的智能终端可为智能服装,用户穿戴所述智能服装,从而可判断自身与他人所处的场景,若识别出的场景为办公室,则判断用户自身与他人的关系为同事,若识别出的场景为卧室,则判断用户自身与他人的关系为家人;本发明通过对图像的物品识别,进而判断用户自身与他人所处的场景,提高了场景识别的可靠性,同时根据用户自身与他人所处的场景,能够判断用户与他人的人际关系,从而做出精准的推荐服务。
附图说明
图1为根据本发明实施例的一种场景判断方法的主要步骤示意图;
图2为根据本发明实施例的一种场景判断终端的结构示意图;
标号说明:
1、存储器;2、处理器。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图详予说明。
请参照图1,本发明提供了一种场景判断方法,包括以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
从上述描述可知,本发明提供一种场景判断方法,通过设置在智能终端上的声纹采集器获取声纹信息,并通过声纹信息及移动终端的物理地址确认声纹信息发出者的身份信息,身份信息确认完毕后,通过智能终端上设置的摄像头拍摄图像,对图像中的多个物品分别进行识别,从而判断所述身份信息对应者所处的场景;上述的智能终端可为智能服装,用户穿戴所述智能服装,从而可判断自身与他人所处的场景,若识别出的场景为办公室,则判断用户自身与他人的关系为同事,若识别出的场景为卧室,则判断用户自身与他人的关系为家人;本发明通过对图像的物品识别,进而判断用户自身与他人所处的场景,提高了场景识别的可靠性,同时根据用户自身与他人所处的场景,能够判断用户与他人的人际关系,从而做出精准的推荐服务。
进一步的,所述S5具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
从上述描述可知,通过上述方法,能够快速地识别出所述声纹信息发出者所处的场景。
进一步,“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
从上述描述可知,通过上述方法,能够精确地识别出所述声纹信息发出者所处的场景。
进一步的,所述S2与S3之间还包括:
所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;
判断第一ID号是否在所述ID号列表中,若是,则执行步骤S3。
从上述描述可知,通过上述方法,可对身份信息进一步进行确认,提高了数据处理的准确性。
进一步的,将步骤S3和S4替换为:
所述身份信息包括预设的第一人脸图像信息;
通过智能服装上的摄像头实时获取人脸图像信息;
判断所述人脸图像信息与第一人脸图像信息是否匹配,若是,则执行步骤S5。
从上述描述可知,通过上述方法,能够快速准确地对声纹信息发出者的身份信息进行确认。
进一步的,将步骤S3和S4替换为:
所述身份信息包括预设的第一RFID信息;
检测预设第二距离范围内是否有与所述第一RFID信息相匹配的射频信号;
若有,则执行步骤S5。
从上述描述可知,通过上述方法,能够快速准确地对声纹信息发出者的身份信息进行确认。
进一步的,将步骤S3和S4替换为:
所述身份信息包括预设GPS的第二ID号;
检测预设第三距离范围内是否有与所述第二ID号对应的GPS信息;
若有,则执行步骤S5。
从上述描述可知,通过上述方法,能够快速准确地对声纹信息发出者的身份信息进行确认。
进一步的,所述的一种场景判断方法,还包括:
根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
从上述描述可知,通过上述方法,通过声纹信息模糊识别与图像识别进行综合判断,可进一步提高场景识别的可靠性。
请参照图2,本发明提供的一种场景判断终端,包括存储器1、处理器2及存储在存储器1上并可在处理器2上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
进一步的,所述的一种场景判断终端,所述S5具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
进一步的,所述的一种场景判断终端,“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
进一步的,所述的一种场景判断终端,所述S2与S3之间还包括:
所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;
判断第一ID号是否在所述ID号列表中,若是,则执行步骤S3。
进一步的,所述的一种场景判断终端,将步骤S3和S4替换为:
所述身份信息包括预设的第一人脸图像信息;
通过智能服装上的摄像头实时获取人脸图像信息;
判断所述人脸图像信息与第一人脸图像信息是否匹配,若是,则执行步骤S5。
进一步的,所述的一种场景判断终端,将步骤S3和S4替换为:
所述身份信息包括预设的第一RFID信息;
检测预设第二距离范围内是否有与所述第一RFID信息相匹配的射频信号;
若有,则执行步骤S5。
进一步的,所述的一种场景判断终端,将步骤S3和S4替换为:
所述身份信息包括预设GPS的第二ID号;
检测预设第三距离范围内是否有与所述第二ID号对应的GPS信息;
若有,则执行步骤S5。
进一步的,所述的一种场景判断终端,还包括:
根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
本发明的实施例一为:
本发明提供了一种场景判断方法,包括以下步骤:
S1:通过智能服装的声纹采集器获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;判断第一ID号是否在所述ID号列表中,若是,则执行步骤S4;
优选的,预设第一距离为100米;
S4:检测预设距离内的移动终端的物理地址,得到物理地址列表;
优选的,预设距离为100米;
S5:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S6;
其中,将步骤S3、S4和S5替换为:
所述身份信息包括预设的第一人脸图像信息;
通过智能服装上的摄像头实时获取人脸图像信息;
判断所述人脸图像信息与第一人脸图像信息是否匹配,若是,则执行步骤S5。
其中,将步骤S3、S4和S5替换为:
所述身份信息包括预设的第一RFID信息;
检测预设第二距离范围内是否有与所述第一RFID信息相匹配的射频信号;
若有,则执行步骤S5。
其中,将步骤S3、S4和S5替换为:
所述身份信息包括预设GPS的第二ID号;
检测预设第三距离范围内是否有与所述第二ID号对应的GPS信息;
若有,则执行步骤S5。
S6:通过智能服装的摄像头拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
所述S6具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
S7:根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
S8:若步骤S6和S7判断的场景一致,则输出判断结果。
在实际应用中,可先判断所述第一物理地址是否在所述物理地址列表中,若是,则判断第一ID号是否在所述ID号列表中,若是,则执行步骤S6;还可根据实际需求对身份信息对应的蓝牙的第一ID号和移动终端的第一物理地址中的其中一项进行判断,若满足要求,则执行步骤S6;上述在实际应用中,可获取智能服装采集的GPS位置信息进行综合判断,以提高场景判断的精确性。
本发明的实施例二为:
本发明提供了一种场景判断终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤包括以下步骤:
S1:通过智能服装的声纹采集器获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;判断第一ID号是否在所述ID号列表中,若是,则执行步骤S4;
S4:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S5:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S6;
S6:通过智能服装的摄像头拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
所述S6具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
S7:根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
S8:若步骤S6和S7判断的场景一致,则输出判断结果。
在实际应用中,可先判断所述第一物理地址是否在所述物理地址列表中,若是,则判断第一ID号是否在所述ID号列表中,若是,则执行步骤S6;还可根据实际需求对身份信息对应的蓝牙的第一ID号和移动终端的第一物理地址中的其中一项进行判断,若满足要求,则执行步骤S6;上述在实际应用中,可获取智能服装采集的GPS位置信息进行综合判断,以提高场景判断的精确性。
综上所述,本发明提供一种场景判断方法及终端,通过设置在智能终端上的声纹采集器获取声纹信息,并通过声纹信息及移动终端的物理地址确认声纹信息发出者的身份信息,身份信息确认完毕后,通过智能终端上设置的摄像头拍摄图像,对图像中的多个物品分别进行识别,从而判断所述身份信息对应者所处的场景;上述的智能终端可为智能服装,用户穿戴所述智能服装,从而可判断自身与他人所处的场景,若识别出的场景为办公室,则判断用户自身与他人的关系为同事,若识别出的场景为卧室,则判断用户自身与他人的关系为家人;本发明通过对图像的物品识别,进而判断用户自身与他人所处的场景,提高了场景识别的可靠性,同时根据用户自身与他人所处的场景,能够判断用户与他人的人际关系,从而做出精准的推荐服务。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (7)
1.一种场景判断方法,其特征在于,包括以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景;
所述S5具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景;
其中,“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
2.根据权利要求1所述的一种场景判断方法,其特征在于,所述S2与S3之间还包括:
所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;
判断第一ID号是否在所述ID号列表中,若是,则执行步骤S3。
3.根据权利要求1所述的一种场景判断方法,其特征在于,将步骤S3和S4替换为:
所述身份信息包括预设的第一人脸图像信息;
通过智能服装上的摄像头实时获取人脸图像信息;
判断所述人脸图像信息与第一人脸图像信息是否匹配,若是,则执行步骤S5。
4.根据权利要求1所述的一种场景判断方法,其特征在于,将步骤S3和S4替换为:
所述身份信息包括预设的第一RFID信息;
检测预设第二距离范围内是否有与所述第一RFID信息相匹配的射频信号;
若有,则执行步骤S5。
5.根据权利要求1所述的一种场景判断方法,其特征在于,将步骤S3和S4替换为:
所述身份信息包括预设GPS的第二ID号;
检测预设第三距离范围内是否有与所述第二ID号对应的GPS信息;
若有,则执行步骤S5。
6.根据权利要求1所述的一种场景判断方法,其特征在于,还包括:
根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
7.一种场景判断终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景;
所述S5具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景;
其中,“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810193382.2A CN108416298B (zh) | 2018-03-09 | 2018-03-09 | 一种场景判断方法及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810193382.2A CN108416298B (zh) | 2018-03-09 | 2018-03-09 | 一种场景判断方法及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108416298A CN108416298A (zh) | 2018-08-17 |
CN108416298B true CN108416298B (zh) | 2020-06-30 |
Family
ID=63130735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810193382.2A Active CN108416298B (zh) | 2018-03-09 | 2018-03-09 | 一种场景判断方法及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108416298B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113334384B (zh) * | 2018-12-05 | 2024-03-01 | 北京百度网讯科技有限公司 | 移动机器人控制方法、装置、设备及存储介质 |
CN111797133A (zh) * | 2020-06-22 | 2020-10-20 | 重庆跃途科技有限公司 | 一种基于智能感知技术的信息发布系统 |
CN112562221A (zh) * | 2020-12-02 | 2021-03-26 | 支付宝(杭州)信息技术有限公司 | 一种支持人脸识别的终端以及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106792693A (zh) * | 2016-12-28 | 2017-05-31 | 太仓红码软件技术有限公司 | 一种基于声纹认证的智能无线局域网预约接入方法 |
CN106791438A (zh) * | 2017-01-20 | 2017-05-31 | 维沃移动通信有限公司 | 一种拍照方法及移动终端 |
-
2018
- 2018-03-09 CN CN201810193382.2A patent/CN108416298B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106792693A (zh) * | 2016-12-28 | 2017-05-31 | 太仓红码软件技术有限公司 | 一种基于声纹认证的智能无线局域网预约接入方法 |
CN106791438A (zh) * | 2017-01-20 | 2017-05-31 | 维沃移动通信有限公司 | 一种拍照方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
CN108416298A (zh) | 2018-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109871815B (zh) | 一种查询监控信息的方法及装置 | |
CN108416298B (zh) | 一种场景判断方法及终端 | |
EP3855343A1 (en) | Customer visit analysis method and apparatus, and storage medium | |
CN109426785B (zh) | 一种人体目标身份识别方法及装置 | |
CN109727275B (zh) | 目标检测方法、装置、系统和计算机可读存储介质 | |
US8472670B2 (en) | Target detection device and target detection method | |
CN112561948B (zh) | 基于时空轨迹的伴随轨迹识别方法、设备及存储介质 | |
CN106844492A (zh) | 一种人脸识别的方法、客户端、服务器及系统 | |
CN103209303A (zh) | 相机设备、通信系统和相机系统 | |
CN111462381A (zh) | 基于人脸温度识别的门禁控制方法、电子装置及存储介质 | |
CN105426485A (zh) | 图像合并方法和装置、智能终端和服务器 | |
JP6645655B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN111695495A (zh) | 人脸识别方法、电子设备及存储介质 | |
CN112773262A (zh) | 基于扫地机器人的安防控制方法、扫地机器人及芯片 | |
CN112492605A (zh) | 物联网移动基站的网络安全防护方法及系统 | |
CN107832598B (zh) | 解锁控制方法及相关产品 | |
CN110991231B (zh) | 活体检测方法、装置、服务器和人脸识别设备 | |
CN111476070A (zh) | 图像处理方法、装置、电子设备以及计算机可读存储介质 | |
WO2021082548A1 (zh) | 活体检测方法、装置、服务器和人脸识别设备 | |
US20140219517A1 (en) | Methods, apparatuses and computer program products for efficiently recognizing faces of images associated with various illumination conditions | |
CN104980695A (zh) | 协同对象位置数据与视频数据 | |
CN109190495B (zh) | 性别识别方法、装置及电子设备 | |
CN113837138B (zh) | 一种着装监控方法、系统、介质及电子终端 | |
CN111400621B (zh) | 位置信息真实性校验方法、装置及电子设备 | |
CN115116130A (zh) | 一种通话动作识别方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |