CN108416298A - 一种场景判断方法及终端 - Google Patents

一种场景判断方法及终端 Download PDF

Info

Publication number
CN108416298A
CN108416298A CN201810193382.2A CN201810193382A CN108416298A CN 108416298 A CN108416298 A CN 108416298A CN 201810193382 A CN201810193382 A CN 201810193382A CN 108416298 A CN108416298 A CN 108416298A
Authority
CN
China
Prior art keywords
scene
voiceprint
sender
information
article
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810193382.2A
Other languages
English (en)
Other versions
CN108416298B (zh
Inventor
唐明宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou Rice Fish Mdt Infotech Ltd
Original Assignee
Fuzhou Rice Fish Mdt Infotech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou Rice Fish Mdt Infotech Ltd filed Critical Fuzhou Rice Fish Mdt Infotech Ltd
Priority to CN201810193382.2A priority Critical patent/CN108416298B/zh
Publication of CN108416298A publication Critical patent/CN108416298A/zh
Application granted granted Critical
Publication of CN108416298B publication Critical patent/CN108416298B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification

Abstract

本发明提供一种场景判断方法及终端,其方法包括以下步骤:S1:获取声纹信息;S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。本发明通过对图像的物品识别,进而判断用户自身与他人所处的场景,提高了场景识别的可靠性,同时根据用户自身与他人所处的场景,能够判断用户与他人的人际关系,从而做出精准的推荐服务。

Description

一种场景判断方法及终端
技术领域
本发明涉及数据处理技术领域,尤其涉及一种场景判断方法及终端。
背景技术
随着通信技术的发展,智能终端集成了越来越多的功能,从而使得智能终端的系统功能列表中包含了越来越多的应用程序。有些应用程序中指定服务会涉及一些场景识别功能。现有指定服务例如,推荐服务、预测服务等中,可以基于用户所在的位置,识别出相应的场景,进而为用户提供该场景相关的服务信息。
然而,现有的场景识别方法,完全依赖于用户所在的位置,可能会使得场景识别结果与实际场景有所偏差,且现有的场景识别方法仅为识别出用户自身所在的场景,无法判断用户与他人所处的场景。
发明内容
本发明所要解决的技术问题是:本发明提供一种能够判断他人所处场景的判断方法及终端,并且提高了场景判断的可靠性。
为了解决上述技术问题,本发明提供了一种场景判断方法,包括以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
本发明还提供了一种场景判断终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
本发明的有益效果为:
本发明提供一种场景判断方法及终端,通过设置在智能终端上的声纹采集器获取声纹信息,并通过声纹信息及移动终端的物理地址确认声纹信息发出者的身份信息,身份信息确认完毕后,通过智能终端上设置的摄像头拍摄图像,对图像中的多个物品分别进行识别,从而判断所述身份信息对应者所处的场景;上述的智能终端可为智能服装,用户穿戴所述智能服装,从而可判断自身与他人所处的场景,若识别出的场景为办公室,则判断用户自身与他人的关系为同事,若识别出的场景为卧室,则判断用户自身与他人的关系为家人;本发明通过对图像的物品识别,进而判断用户自身与他人所处的场景,提高了场景识别的可靠性,同时根据用户自身与他人所处的场景,能够判断用户与他人的人际关系,从而做出精准的推荐服务。
附图说明
图1为根据本发明实施例的一种场景判断方法的主要步骤示意图;
图2为根据本发明实施例的一种场景判断终端的结构示意图;
标号说明:
1、存储器;2、处理器。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图详予说明。
请参照图1,本发明提供了一种场景判断方法,包括以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
从上述描述可知,本发明提供一种场景判断方法,通过设置在智能终端上的声纹采集器获取声纹信息,并通过声纹信息及移动终端的物理地址确认声纹信息发出者的身份信息,身份信息确认完毕后,通过智能终端上设置的摄像头拍摄图像,对图像中的多个物品分别进行识别,从而判断所述身份信息对应者所处的场景;上述的智能终端可为智能服装,用户穿戴所述智能服装,从而可判断自身与他人所处的场景,若识别出的场景为办公室,则判断用户自身与他人的关系为同事,若识别出的场景为卧室,则判断用户自身与他人的关系为家人;本发明通过对图像的物品识别,进而判断用户自身与他人所处的场景,提高了场景识别的可靠性,同时根据用户自身与他人所处的场景,能够判断用户与他人的人际关系,从而做出精准的推荐服务。
进一步的,所述S5具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
从上述描述可知,通过上述方法,能够快速地识别出所述声纹信息发出者所处的场景。
进一步,“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
从上述描述可知,通过上述方法,能够精确地识别出所述声纹信息发出者所处的场景。
进一步的,所述S2与S3之间还包括:
所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;
判断第一ID号是否在所述ID号列表中,若是,则执行步骤S3。
从上述描述可知,通过上述方法,可对身份信息进一步进行确认,提高了数据处理的准确性。
进一步的,将步骤S3和S4替换为:
所述身份信息包括预设的第一人脸图像信息;
通过智能服装上的摄像头实时获取人脸图像信息;
判断所述人脸图像信息与第一人脸图像信息是否匹配,若是,则执行步骤S5。
从上述描述可知,通过上述方法,能够快速准确地对声纹信息发出者的身份信息进行确认。
进一步的,将步骤S3和S4替换为:
所述身份信息包括预设的第一RFID信息;
检测预设第二距离范围内是否有与所述第一RFID信息相匹配的射频信号;
若有,则执行步骤S5。
从上述描述可知,通过上述方法,能够快速准确地对声纹信息发出者的身份信息进行确认。
进一步的,将步骤S3和S4替换为:
所述身份信息包括预设GPS的第二ID号;
检测预设第三距离范围内是否有与所述第二ID号对应的GPS信息;
若有,则执行步骤S5。
从上述描述可知,通过上述方法,能够快速准确地对声纹信息发出者的身份信息进行确认。
进一步的,所述的一种场景判断方法,还包括:
根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
从上述描述可知,通过上述方法,通过声纹信息模糊识别与图像识别进行综合判断,可进一步提高场景识别的可靠性。
请参照图2,本发明提供的一种场景判断终端,包括存储器1、处理器2及存储在存储器1上并可在处理器2上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
进一步的,所述的一种场景判断终端,所述S5具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
进一步的,所述的一种场景判断终端,“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
进一步的,所述的一种场景判断终端,所述S2与S3之间还包括:
所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;
判断第一ID号是否在所述ID号列表中,若是,则执行步骤S3。
进一步的,所述的一种场景判断终端,将步骤S3和S4替换为:
所述身份信息包括预设的第一人脸图像信息;
通过智能服装上的摄像头实时获取人脸图像信息;
判断所述人脸图像信息与第一人脸图像信息是否匹配,若是,则执行步骤S5。
进一步的,所述的一种场景判断终端,将步骤S3和S4替换为:
所述身份信息包括预设的第一RFID信息;
检测预设第二距离范围内是否有与所述第一RFID信息相匹配的射频信号;
若有,则执行步骤S5。
进一步的,所述的一种场景判断终端,将步骤S3和S4替换为:
所述身份信息包括预设GPS的第二ID号;
检测预设第三距离范围内是否有与所述第二ID号对应的GPS信息;
若有,则执行步骤S5。
进一步的,所述的一种场景判断终端,还包括:
根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
本发明的实施例一为:
本发明提供了一种场景判断方法,包括以下步骤:
S1:通过智能服装的声纹采集器获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;判断第一ID号是否在所述ID号列表中,若是,则执行步骤S4;
优选的,预设第一距离为100米;
S4:检测预设距离内的移动终端的物理地址,得到物理地址列表;
优选的,预设距离为100米;
S5:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S6;
其中,将步骤S3、S4和S5替换为:
所述身份信息包括预设的第一人脸图像信息;
通过智能服装上的摄像头实时获取人脸图像信息;
判断所述人脸图像信息与第一人脸图像信息是否匹配,若是,则执行步骤S5。
其中,将步骤S3、S4和S5替换为:
所述身份信息包括预设的第一RFID信息;
检测预设第二距离范围内是否有与所述第一RFID信息相匹配的射频信号;
若有,则执行步骤S5。
其中,将步骤S3、S4和S5替换为:
所述身份信息包括预设GPS的第二ID号;
检测预设第三距离范围内是否有与所述第二ID号对应的GPS信息;
若有,则执行步骤S5。
S6:通过智能服装的摄像头拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
所述S6具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
S7:根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
S8:若步骤S6和S7判断的场景一致,则输出判断结果。
在实际应用中,可先判断所述第一物理地址是否在所述物理地址列表中,若是,则判断第一ID号是否在所述ID号列表中,若是,则执行步骤S6;还可根据实际需求对身份信息对应的蓝牙的第一ID号和移动终端的第一物理地址中的其中一项进行判断,若满足要求,则执行步骤S6;上述在实际应用中,可获取智能服装采集的GPS位置信息进行综合判断,以提高场景判断的精确性。
本发明的实施例二为:
本发明提供了一种场景判断终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤包括以下步骤:
S1:通过智能服装的声纹采集器获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;判断第一ID号是否在所述ID号列表中,若是,则执行步骤S4;
S4:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S5:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S6;
S6:通过智能服装的摄像头拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
所述S6具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
S7:根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
S8:若步骤S6和S7判断的场景一致,则输出判断结果。
在实际应用中,可先判断所述第一物理地址是否在所述物理地址列表中,若是,则判断第一ID号是否在所述ID号列表中,若是,则执行步骤S6;还可根据实际需求对身份信息对应的蓝牙的第一ID号和移动终端的第一物理地址中的其中一项进行判断,若满足要求,则执行步骤S6;上述在实际应用中,可获取智能服装采集的GPS位置信息进行综合判断,以提高场景判断的精确性。
综上所述,本发明提供一种场景判断方法及终端,通过设置在智能终端上的声纹采集器获取声纹信息,并通过声纹信息及移动终端的物理地址确认声纹信息发出者的身份信息,身份信息确认完毕后,通过智能终端上设置的摄像头拍摄图像,对图像中的多个物品分别进行识别,从而判断所述身份信息对应者所处的场景;上述的智能终端可为智能服装,用户穿戴所述智能服装,从而可判断自身与他人所处的场景,若识别出的场景为办公室,则判断用户自身与他人的关系为同事,若识别出的场景为卧室,则判断用户自身与他人的关系为家人;本发明通过对图像的物品识别,进而判断用户自身与他人所处的场景,提高了场景识别的可靠性,同时根据用户自身与他人所处的场景,能够判断用户与他人的人际关系,从而做出精准的推荐服务。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种场景判断方法,其特征在于,包括以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
2.根据权利要求1所述的一种场景判断方法,其特征在于,所述S5具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
3.根据权利要求2所述的一种场景判断方法,其特征在于,“根据每一个物品的名称,判断所述声纹信息发出者所处的场景”具体为:
预设多个场景,每一个场景对应多个物品;
根据每一个物品的名称,统计得到每一个场景对应物品的种类个数;
若所述种类个数大于预设个数阈值,则判断所述声纹信息发出者所处的场景为所述种类个数对应的场景。
4.根据权利要求1所述的一种场景判断方法,其特征在于,所述S2与S3之间还包括:
所述身份信息与预设的第一蓝牙ID号对应;检测预设第一距离内的蓝牙信息,得到蓝牙的ID号列表;
判断第一ID号是否在所述ID号列表中,若是,则执行步骤S3。
5.根据权利要求1所述的一种场景判断方法,其特征在于,将步骤S3和S4替换为:
所述身份信息包括预设的第一人脸图像信息;
通过智能服装上的摄像头实时获取人脸图像信息;
判断所述人脸图像信息与第一人脸图像信息是否匹配,若是,则执行步骤S5。
6.根据权利要求1所述的一种场景判断方法,其特征在于,将步骤S3和S4替换为:
所述身份信息包括预设的第一RFID信息;
检测预设第二距离范围内是否有与所述第一RFID信息相匹配的射频信号;
若有,则执行步骤S5。
7.根据权利要求1所述的一种场景判断方法,其特征在于,将步骤S3和S4替换为:
所述身份信息包括预设GPS的第二ID号;
检测预设第三距离范围内是否有与所述第二ID号对应的GPS信息;
若有,则执行步骤S5。
8.根据权利要求1所述的一种场景判断方法,其特征在于,还包括:
根据预设的关键词,对所述声纹信息进行模糊模式识别,判断所述声纹信息发出者所处的场景。
9.一种场景判断终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现以下步骤:
S1:获取声纹信息;
S2:根据所述声纹信息,识别所述声纹信息发出者的身份信息,所述身份信息与预设第一移动终端的第一物理地址对应;
S3:检测预设距离内的移动终端的物理地址,得到物理地址列表;
S4:判断所述第一物理地址是否在所述物理地址列表中,若是,则执行步骤S5;
S5:拍摄图像,对所述图像中的多个物品分别进行识别,以判断所述声纹信息发出者所处的场景。
10.根据权利要求9所述的一种场景判断终端,其特征在于,所述S5具体为:
通过智能服装上的摄像头拍摄图像;
分割所述图像,得到多个物品的图片信息;
分别识别所述多个物品的图片信息,得到每一个物品的名称;
根据每一个物品的名称,判断所述声纹信息发出者所处的场景。
CN201810193382.2A 2018-03-09 2018-03-09 一种场景判断方法及终端 Active CN108416298B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810193382.2A CN108416298B (zh) 2018-03-09 2018-03-09 一种场景判断方法及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810193382.2A CN108416298B (zh) 2018-03-09 2018-03-09 一种场景判断方法及终端

Publications (2)

Publication Number Publication Date
CN108416298A true CN108416298A (zh) 2018-08-17
CN108416298B CN108416298B (zh) 2020-06-30

Family

ID=63130735

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810193382.2A Active CN108416298B (zh) 2018-03-09 2018-03-09 一种场景判断方法及终端

Country Status (1)

Country Link
CN (1) CN108416298B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797133A (zh) * 2020-06-22 2020-10-20 重庆跃途科技有限公司 一种基于智能感知技术的信息发布系统
CN112562221A (zh) * 2020-12-02 2021-03-26 支付宝(杭州)信息技术有限公司 一种支持人脸识别的终端以及方法
CN113334384A (zh) * 2018-12-05 2021-09-03 北京百度网讯科技有限公司 移动机器人控制方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106792693A (zh) * 2016-12-28 2017-05-31 太仓红码软件技术有限公司 一种基于声纹认证的智能无线局域网预约接入方法
CN106791438A (zh) * 2017-01-20 2017-05-31 维沃移动通信有限公司 一种拍照方法及移动终端

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106792693A (zh) * 2016-12-28 2017-05-31 太仓红码软件技术有限公司 一种基于声纹认证的智能无线局域网预约接入方法
CN106791438A (zh) * 2017-01-20 2017-05-31 维沃移动通信有限公司 一种拍照方法及移动终端

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113334384A (zh) * 2018-12-05 2021-09-03 北京百度网讯科技有限公司 移动机器人控制方法、装置、设备及存储介质
CN113334384B (zh) * 2018-12-05 2024-03-01 北京百度网讯科技有限公司 移动机器人控制方法、装置、设备及存储介质
CN111797133A (zh) * 2020-06-22 2020-10-20 重庆跃途科技有限公司 一种基于智能感知技术的信息发布系统
CN112562221A (zh) * 2020-12-02 2021-03-26 支付宝(杭州)信息技术有限公司 一种支持人脸识别的终端以及方法

Also Published As

Publication number Publication date
CN108416298B (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
CN107633204B (zh) 人脸遮挡检测方法、装置及存储介质
CN108399665A (zh) 基于人脸识别的安全监控方法、装置及存储介质
Othman et al. A face recognition method in the Internet of Things for security applications in smart homes and cities
CN107844748B (zh) 身份验证方法、装置、存储介质和计算机设备
CN106104569B (zh) 用于在电子装置之间建立连接的方法及设备
CN105590097B (zh) 暗视觉条件下双摄像头协同实时人脸识别安防系统及方法
CN106897659B (zh) 眨眼运动的识别方法和装置
CN104915351B (zh) 图片排序方法及终端
CN109670441A (zh) 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质
CN108124486A (zh) 基于云端的人脸活体检测方法、电子设备和程序产品
CN107958234A (zh) 基于客户端的人脸识别方法、装置、客户端及存储介质
CN102945366A (zh) 一种人脸识别的方法及装置
CN108986245A (zh) 基于人脸识别的考勤方法及终端
CN108416298A (zh) 一种场景判断方法及终端
CN105187786A (zh) 智能猫眼的语音提醒方法及智能猫眼
CN109886080A (zh) 人脸活体检测方法、装置、电子设备及可读存储介质
CN110879995A (zh) 目标物品检测方法及装置、存储介质及电子装置
WO2020195376A1 (ja) 監視装置、不審オブジェクト検出方法、および記録媒体
CN106682473A (zh) 一种用户身份信息的识别方法及其装置
CN110443224A (zh) 翻页检测方法、装置、电子设备及存储介质
CN110795584A (zh) 一种用户标识生成方法、装置及终端设备
CN109064613A (zh) 人脸识别方法及装置
US20180089498A1 (en) Face template balancing
CN109993044A (zh) 电信诈骗识别系统、方法、装置、电子设备及存储介质
CN102004909A (zh) 一种处理身份信息的方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant