CN110334670B - 对象监控方法及装置、电子设备、存储介质 - Google Patents
对象监控方法及装置、电子设备、存储介质 Download PDFInfo
- Publication number
- CN110334670B CN110334670B CN201910620808.2A CN201910620808A CN110334670B CN 110334670 B CN110334670 B CN 110334670B CN 201910620808 A CN201910620808 A CN 201910620808A CN 110334670 B CN110334670 B CN 110334670B
- Authority
- CN
- China
- Prior art keywords
- depth information
- target
- monitoring area
- image data
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Processing (AREA)
Abstract
本公开是关于一种对象监控方法及装置、电子设备、存储介质,涉及计算机技术领域,该方法包括:获取包含目标对象的当前时刻的图像数据;根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域;计算所述目标监控区域的深度信息,并根据所述深度信息和预设安全条件获得对比结果;根据所述对比结果对所述目标监控区域进行实时监控。本公开能够提高监控效率,实现对目标对象的实时监控。
Description
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种对象监控方法、对象监控装置、电子设备以及计算机可读存储介质。
背景技术
在汽车行驶过程中,车内乘坐环境以及人员的安全性越来越重要,因此需要对车内人员的安全性进行监控。
相关技术中,一般通过人工方式来判断人员是否存在安全风险,但是人工方式不能实现及时监控,因此效率较低且不方便。除此之外,还可通过脸部特征来判断是否存在安全风险,这种方式下,由于儿童等人员的脸部特征较多,信息变化太大,可能会导致一定的误差,不能准确对人员进行监控。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的数据。
发明内容
本公开的目的在于提供一种对象监控方法及装置、电子设备、存储介质,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的不能及时监控以及监控不准确的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种对象监控方法,包括:获取包含目标对象的当前时刻的图像数据;根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域;计算所述目标监控区域的深度信息,并根据所述深度信息和预设安全条件获得对比结果;根据所述对比结果对所述目标监控区域进行实时监控。
在本公开的一种示例性实施例中,在根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域之前,所述方法还包括:将所述当前时刻的图像数据输入训练好的检测模型中,以确定所述当前时刻的图像数据中是否存在所述预设部位,并确定所述预设部位所在的部位区域。
在本公开的一种示例性实施例中,根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域包括:若所述当前时刻的图像数据中存在所述预设部位,则获取所述部位区域;根据所述部位区域、目标监控区域与所述部位区域之间的位置关系以及所述目标监控区域的预设范围,确定所述目标对象的所述目标监控区域。
在本公开的一种示例性实施例中,计算所述目标监控区域的深度信息包括:获取所述当前时刻的图像数据的深度信息,并根据所述当前时刻的图像数据的深度信息确定针对所述目标监控区域的局部深度信息;基于所述局部深度信息计算所述目标监控区域的深度信息的平均值,并将所述深度信息的平均值作为所述目标监控区域的所述深度信息。
在本公开的一种示例性实施例中,获取所述当前时刻的图像数据的深度信息包括:利用深度摄像头采集包括所述目标对象的当前时刻的深度图像,以从所述深度图像中得到所述当前时刻的图像数据的深度信息。
在本公开的一种示例性实施例中,基于所述局部深度信息计算所述目标监控区域的深度信息的平均值包括:根据所述局部深度信息计算所述目标监控区域对应的图像数据中各像素的深度信息之和;根据各所述像素的深度信息之和计算所述目标监控区域的所述深度信息的平均值。
在本公开的一种示例性实施例中,根据所述深度信息和预设安全条件获得对比结果包括:将所述深度信息与预设阈值进行对比;若所述深度信息小于或等于所述预设阈值,则确定所述对比结果为安全;若所述深度信息大于所述预设阈值,则确定所述对比结果为不安全。
根据本公开的一个方面,提供一种对象监控装置,包括:图像获取模块,用于获取包含目标对象的当前时刻的图像数据;区域确定模块,用于根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域;深度计算模块,用于计算所述目标监控区域的深度信息,并根据所述深度信息和预设安全条件获得对比结果;监控控制模块,用于根据所述对比结果对所述目标监控区域进行实时监控。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的对象监控方法。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的对象监控方法。
本公开示例性实施例中提供的对象监控方法、对象监控装置、电子设备以及计算机可读存储介质中,一方面,根据当前时刻的图像数据中存在的目标对象的预设部位确定对目标对象的目标监控区域,能够准确的确定要监控的区域;进一步根据目标监控区域的深度信息与预设安全条件得到的对比结果来进行实时监控,由于能够通过深度信息确定目标对象是否安全,避免了人工监控方式的不方便,减少了安全隐患,提高了效率和便捷性,并且能够实现实时监控的目的。另一方面,由于结合预设部位和目标监控区域,并通过目标监控区域的深度信息对目标对象进行实时监控,能够避免只通过脸部特征监控的误差,提高监控的准确性,实现准确有效的监控。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开示例性实施例中对象监控方法的应用场景。
图2示意性示出本公开示例性实施例中一种对象监控方法的示意图。
图3示意性示出本公开示例性实施例中确定目标对象的目标监控区域的流程图。
图4示意性示出本公开示例性实施例中计算目标监控区域的深度信息的具体流程图。
图5示意性示出本公开示例性实施例中根据对比结果进行监控的具体流程图。
图6示意性示出本公开示例性实施例中实时监控的具体流程图。
图7示意性示出本公开示例性实施例中深度图像的示意图。
图8示意性示出本公开示例性实施例中一种对象监控装置的框图。
图9示意性示出本公开示例性实施例中用于实现对象监控方法的系统的框图。
图10示意性示出本公开示例性实施例中一种电子设备的框图。
图11示意性示出本公开示例性实施例中一种程序产品。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例实施方式中首先提供了一种对象监控方法,可以应用于各个场所中对目标对象进行监控的应用场景,本示例性实施例中以应用场景为车内为例进行说明,具体可以参考图1所示的场景。接下来,参考图2中所示对本示例性实施例中的对象监控方法进行具体说明。
在步骤S210中,获取包含目标对象的当前时刻的图像数据。
本示例性实施例中,目标对象可以为被监控的对象,具体可以为被监控的场所中的任何人,例如车内的儿童。在目标对象为车内的儿童时,该儿童可位于儿童安全座位位置。当前时刻的图像数据指的是与当前时刻的预览数据帧对应的图像。预览数据帧,是指当用户使用摄像头进行取景(非拍摄状态下)时,在拍照预览界面可以预览的数据帧。随着用户取景的不同,其在拍照预览界面形成的可预览的数据帧不同。移动终端可以预先设置将预览数据帧按照一定策略存储在内存中;也可以将包括当前时刻的预览数据帧的终端显示界面对应的数据帧存储于内存中,当需要获得预览数据帧时,可以根据终端显示界面对应的数据帧进行处理后获得。
本示例中,可通过图像采集设备开启预览视频流,从而得到当前时刻的预览数据帧。图像采集设备可以为智能设备的摄像头,例如手机摄像头等等。图像采集设备可以位于车内的任意合适位置,例如驾驶室。本示例性实施例中,可在用户开启对象监控方法后,直接启动手机摄像头并向用户显示手机摄像头实时取景画面的预览视频流,即采集预览数据帧时可以通过屏幕向用户进行预览数据帧的显示,以便用户调整位置;当然也可以不显示该预览数据帧,以简化用户操作流程。
在手机摄像头采集到当前时刻的预览数据帧之后,服务器可从内存中获取包含目标对象的当前时刻的预览数据帧,以基于预览数据帧进行后续处理。
需要补充的是,在执行获取当前时刻的预览数据帧的步骤之前,还可包括以下步骤:一、用户首先要开启该对象监控方法。二、获取由程序加载的用于监控的默认参数,这些默认参数包括但不限于:深度摄像头的采集频率,例如f0;目标监控区域的预设范围,指的是目标监控区域的默认值,该目标监控区域的预设范围可默认为矩形区域,具体可以用矩形区域的宽和高来表示其大小。也可以理解为默认的身体监控区域,例如胸部腹部区域,其大小可以为:宽度W0、高度H0;目标监控区域与人脸所在的部位区域之间的位置关系(即默认的身体监控区域距离部位区域底边缘的距离h0)、发出安全警报的条件阈值(条件阈值可以是安全深度的阈值,也可以是深度信息变化的阈值)等,用户也可以根据实际需求调节相应的参数。三、获取由用户设置的当前车载环境下,用于表示儿童安全座位位置的预设安全条件,即表示深度信息的变化范围的预设变化阈值或表示安全深度的预设阈值(安全深度值dt)。需要说明的是,安全深度值d0是默认的值,如果用户重新设置了安全深度值,则该安全深度值d0失效,而直接用重新设置的安全深度值来进行监控。
在步骤S220中,根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域。
本示例性实施例中,预设部位指的是目标对象的参照部位,例如目标对象的脸部或眼部等等。由于步骤S210只提及了获取图像数据,而图像数据可以只是包含人脸、也可以只是包含目标对象的身体区域,执行步骤S220需要满足当前时刻的图像数据中包含目标对象的人脸,因此首先要对图像数据中是否存在人脸进行检测。
具体地,可将所述当前时刻的图像数据输入训练好的检测模型中,以确定所述当前时刻的图像数据中是否存在所述预设部位。本步骤中,检测模型例如可以为任意合适的机器学习模型,例如卷积神经网络模型等等。为了保证得到准确的结果,可对机器学习模型进行训练,从而得到性能比较好的训练好的检测模型,以将包含目标对象的当前时刻的图像数据输入至训练好的检测模型,通过训练好的检测模型检测图像数据中是否存在人脸,并且准确确定人脸框的位置。
具体而言,对模型进行训练的过程包括以下几个步骤:步骤(a)、采集或直接获取预设数量的样本图像。其中,预设数量可以为较大的数值,例如10万张;样本图像指的是与要检测的对象关联的图像,例如在检测人脸关键点时,样本图像为人脸图像。
步骤(b)、对所述样本图像进行关键点标注,并对其中的人脸进行标注。具体而言,对步骤(a)中的图像进行人脸关键点精准标注,精准标注的范围包括不限于:脸的轮廓点、眼睛轮廓点、鼻子轮廓点、眉毛轮廓点、额头轮廓点、上嘴唇轮廓点、下嘴唇轮廓点等。
步骤(c)、将所述标注后的样本图像划分为训练集、验证集以及测试集。对步骤(b)中的精准标注的数据按一定比例划分为训练集、验证集、测试集。在训练机器学习模型的时候,会将数据划分为训练集、验证集合测试集,划分比例可以为0.6:0.2:0.2。其中,训练集作用是用来拟合模型,通过设置分类器的参数,训练分类模型。后续结合验证集作用时,会选出同一参数的不同取值,拟合出多个分类器。验证集作用是当通过训练集训练出多个模型后,为了能找出效果最佳的模型,使用各个模型对验证集数据进行预测,并记录模型准确率。选出效果最佳的模型所对应的参数,即用来调整模型参数。通过训练集和验证集得出最优模型后,使用测试集进行模型预测。用来衡量该最优模型的性能和分类能力。即可以把测试集当做从来不存在的数据集,当已经确定模型参数后,使用测试集进行模型性能评价。
步骤(d)、通过所述训练集对一机器学习模型进行训练,并通过所述验证集进行验证,以得到用于检测人脸的检测模型。其中,将训练集中的每一个样本图像输入一个机器学习模型中,以得到多个机器学习模型。通过多个机器学习模型对验证集中每一个样本图像进行检测,得到每一个样本图像中的人脸框。可将验证集中的通过机器学习模型得到的人脸框与人工标注的人脸框进行对比,若一致或者是误差处于一定阈值内,则停止训练,并将达到阈值时的机器学习模型作为检测模型。若误差不满足一定阈值,则继续调整机器学习模型的权重参数直至误差满足一定阈值为止,并将达到阈值时的机器学习模型作为检测模型,以完成模型的训练过程。
即,对训练集进行模型训练(神经网络训练),同时用验证集对训练过程中的中间结果进行验证并实时调整训练参数,当训练精度和验证精度都达到一定阈值时,停止训练过程,得到训练好的检测模型。
步骤(e)、用测试集对步骤d的模型进行测试,衡量该检测模型的性能和准确度。
在通过上述步骤(a)至步骤(e)得到训练好的检测模型后,可将步骤S210中获取的当前时刻的预览数据帧输入至训练好的检测模型中进行人脸检测,输出当前时刻的预览数据帧对应的图像数据属于人脸的概率和不属于人脸的概率,从而通过概率准确判断图像数据中是否存在人脸。如果存在人脸,则可以确定检测到的人脸的位置,并根据人脸的位置输出人脸所在的部位区域,人脸所在的部位区域指的是人脸框。举例而言,若检测到当前时刻的图像数据中包含1张人脸,则可以输出该人脸对应的人脸框。
另外,还可以通过几何特征的人脸识别方法识别人脸,还可通过弹性图匹配的人脸识别方法、线段距离的人脸识别方法、支持向量机的人脸识别方法等来确定是否存在人脸,此处不作具体限定。在确定存在人脸后,可确定人脸的位置,以便于根据人脸的位置准确进行监控。
进一步地,在确定当前时刻的图像数据中存在目标对象的预设部位后,可基于该预设部位确定针对目标对象的目标监控区域。由于目标对象位于安全座位位置上,因此目标监控区域可以为人脸区域,也可以为根据人脸区域确定的其他区域,例如身体监控区域(胸部、腹部)等等,此处的确定目标监控区域指的是确定目标监控区域的具体范围,例如确定目标监控区域的某个顶点的横坐标、该顶点的纵坐标、目标监控区域的宽度以及高度等等。
图3中示意性示出了确定针对所述目标对象的目标监控区域的流程图,参考图3中所示,具体步骤包括步骤S310和步骤S320,其中:
在步骤S310中,若所述当前时刻的图像数据中存在所述预设部位,则获取所述部位区域。
本步骤中,如果检测到当前时刻的图像数据中存在人脸,则可以基于AdaBoost的人脸检测方法来检测输入的图像数据中的人脸所在的部位区域,并通过程序存储当前人脸的部位区域,即获取人脸所在的部位区域。部位区域指的是包含人脸的所有特征点的区域,在部位区域中可看到人脸边界框与特征点之间的关系。本示例性实施例中,在当前时刻的图像数据中存在人脸时,人脸所在的部位区域可以用RectFace(x0,y0,width0,height0)来表示。人脸所在的部位区域可以用指示人脸位置的坐标来表示,其中,x0是部位区域(人脸框)的某个顶点的横坐标,y0是部位区域的某个顶点的纵坐标,width0是部位区域的宽度,height0是部位区域的高度。在这种情况下,每个人脸所在的部位区域可以包含(x0,y0,width0,height0)这四个数据,通过这四个数据就可以表示一个人脸的具体位置。
在步骤S320中,根据所述部位区域、目标监控区域与所述部位区域之间的位置关系以及所述目标监控区域的预设范围,确定所述目标对象的所述目标监控区域。
本步骤中,目标监控区域的预设范围指的是程序加载的身体监控区域的默认值,例如宽度W0、高度H0;目标监控区域指的是最终要监测的实际的身体监控区域,且目标监控区域可以根据目标监控区域的预设范围计算得到。目标监控区域与部位区域之间的位置关系指的是由程序加载的默认的身体监控区域离人脸所在的部位区域的底边缘在垂直方向的距离h0。具体地,可将部位区域、目标监控区域的预设范围、以及目标监控区域离部位区域在垂直方向的距离进行叠加,从而确定针对目标对象的目标监控区域。具体而言,人脸所在的部位区域为RectFace(x0,y0,width0,height0),默认的身体监控区域距离部位区域底边缘在垂直方向的距离为h0,默认的身体监控区域的宽为W0,高为H0。通过将人脸所在的部位区域、默认的身体监控区域距离部位区域底边缘在垂直方向的距离h0以及默认的身体监控区域的参数(宽W0和高H0)结合,可以计算出目标对象的目标监控区域并表示为RectBody(x0,y0+h0,W0,H0)。其中,x0是目标监控区域的某个顶点的横坐标,y0+h0是目标监控区域的某个顶点的纵坐标,W0是目标监控区域的宽度,H0是目标监控区域的高度。
本示例性实施例中,通过在确定存在人脸时,根据人脸框、目标监控区域离人脸框之间的距离以及目标监控区域的预设范围,能够准确地确定目标对象的目标监控区域,避免了目标对象活动而导致监控脸部较难的问题,也减小位置识别不准确而导致的偏差,提高监控的准确性和可靠性。
继续参考图2中所示,在步骤S230中,计算所述目标监控区域的深度信息,并根据所述深度信息和预设安全条件获得对比结果。
本示例性实施例中,深度信息具体指的是深度距离信息,主要用于表示镜头离目标监控区域的距离,此处的镜头可以为深度摄像头。深度信息的数值例如可以为1米、2米、5米等等。深度信息具体可以用深度图像来表示,深度图像的像素是0-256,其中离镜头越近,像素值越小,即呈现出深颜色,反之亦然。预设安全条件用于判断目标监控区域是否安全,具体可以为计算的目标监控区域的深度信息小于预设阈值,也可以为深度信息的变化范围小于预设变化阈值,此处不作特殊限定。
图4中示意性示出计算目标监控区域的深度信息的流程图,参考图4中所示,具体包括步骤S410和步骤S420,其中:
在步骤S410中,获取所述当前时刻的图像数据的深度信息,并根据所述当前时刻的图像数据的深度信息确定针对所述目标监控区域的局部深度信息。
本步骤中,可利用深度摄像头采集包括目标对象的当前时刻的深度图像(例如图7中所示),以从深度图像中得到当前时刻的图像数据的深度信息。深度摄像头可以为TOF(Time of flight,飞行时间)传感器,也可以为其他用于测量深度的传感器,例如红外距离传感器。本示例性实施例中,以深度传感器为TOF传感器为例进行说明。TOF传感器可以设置在终端上,且TOF传感器可由光源、光学部件、传感器、控制电路以及处理电路等几部单元组成。通过深度传感器获取深度信息,能够避免在终端外借助其他传感器测量深度信息而导致的增加成本以及操作不便的问题。
TOF传感器采用的是主动光探测方式,其主要目的是利用入射光信号与反射光信号的变化来进行距离测量。具体地,TOF传感器获取深度信息的原理包括:通过给目标监控区域连续发送光脉冲,然后用传感器接收从目标监控区域返回的光,通过探测光脉冲的飞行(往返)时间来得到目标监控区域的距离。其中,获取飞行时间的方法有两种,分别是脉冲法和相位法。TOF传感器通过入射光、反射光探测来获取目标监控区域的距离,能够同时得到整幅图像即整个目标监控区域的深度信息。
本示例性实施例中,可开启TOF传感器,按照采集频率f0进行深度图像数据采集,得到包含目标对象的深度图像,进而从深度图像中确定当前时刻的图像帧的深度信息Depth(x,y)。
进一步地,可从当前时刻的图像数据(当前图像帧)的深度信息Depth(x,y)中,按照目标监控区域的范围提取出对应于目标监控区域(即身体监控区域)的局部深度信息,局部深度信息可以表示为Depth(xi,yi),其中,xi范围为(x0,x0+W0),yi范围为(y0+h0,y0+h0+H0)。
在步骤S420中,基于所述局部深度信息计算所述目标监控区域的深度信息的平均值,并将所述深度信息的平均值作为所述目标监控区域的所述深度信息。
本步骤中,可在得到局部深度信息之后,根据局部深度信息来计算目标监控区域的深度信息的平均值。计算深度信息的平均值的具体步骤包括步骤S421和步骤S422,其中:
在步骤S421中,根据所述局部深度信息计算所述目标监控区域对应的图像数据中各像素的深度信息之和。其中,目标监控区域对应的图像数据可以看作是一个子图像。本步骤中,图像数据的深度信息指的是图像数据中包含的所有像素的深度信息,深度信息之和可以用目标监控区域中的图像数据的各个像素的深度之和来表示。具体地,可以从横坐标为x0、纵坐标为y0+h0的像素开始计算其深度信息,直至计算出横坐标为x0+W0、纵坐标为y0+h0+H0的范围内的所有像素的深度信息为止,并对图像数据中所有像素的深度信息进行叠加,得到目标监控区域的图像数据的所有像素的深度之和sum。
在步骤S422中,根据各所述像素的深度信息之和计算所述目标监控区域的深度信息的所述平均值。本步骤中,可对图像数据的各个像素的深度信息之和进行平均处理,以得到目标监控区域的深度信息的平均值。具体地,可根据目标监控区域对应的图像数据中像素的深度信息之和,与目标监控区域的宽度和目标监控区域的高度的乘积W0×H0的比值,计算目标监控区域的平均深度。
在得到目标监控区域的深度信息的平均值后,可根据该深度信息与预设安全条件获得对比结果。预设安全条件可以为预设阈值,也可以为预设变化阈值,此处先对预设安全条件为预设阈值进行说明。预设阈值指的是由用户设置的目标对象位于的安全座位位置的安全深度值dt。如果用户未设置安全深度值dt,则可以通过系统默认的发出安全警报的安全深度值d0进行对比。
在此基础上,根据所述深度信息和预设安全条件获得对比结果包括:将所述深度信息与预设阈值进行对比;若所述深度信息小于或等于所述预设阈值,则确定所述对比结果为安全;若所述深度信息大于所述预设阈值,则确定所述对比结果为不安全。
继续参考图2中所示,在步骤S240中,根据所述对比结果对所述目标监控区域进行实时监控。
本示例性实施例中,可根据目标监控区域的深度信息的平均值与预设安全条件的对比结果实现实时监控。对比结果不同,所对应的处理方式也不同。具体地,如果对比结果为不安全,则提供一提示信号以进行预警;若对比结果为安全,则继续检测下一时刻的图像数据中是否存在预设部位,以继续进行实时监控。
图5中示意性示出了根据预设阈值进行实时监控的示意图,参考图5中所示,主要包括步骤S510至步骤S530,其中:
在步骤S510中,判断深度信息是否小于或等于预设阈值。具体地,预设阈值为用户设置的目标对象位于的安全座位位置的安全深度值dt,可将目标监控区域的平均深度与该预设阈值进行对比,以判断深度信息是否小于该预设阈值。
在步骤S520中,若所述深度信息大于所述预设阈值,则提供一提示信号以进行预警。
本步骤中,若目标监控区域的深度信息的平均值大于预设阈值,则发送一个提示信号,以提醒用户目标对象的目标监控区域已经偏离原始位置,这也表明用户设置的当前环境下,儿童座位位置的安全深度值dt的位置较大,因此需要将其调小,以避免安全隐患。提示信号可以为声音提示信号或者是灯光提示信号等等,此处不作特殊限定。
通过深度信息与预设阈值进行对比的对比结果确定是否提供提示信号,能够及时进行预警,实现有效监控和实时监控。
在步骤S530中,若所述深度信息小于或等于所述预设阈值,则继续检测下一时刻的图像数据中是否存在预设部位,以继续进行实时监控。
本步骤中,若目标监控区域的深度信息的平均值小于或者是等于预设阈值,则表明当前时刻的对比结果是安全的。此时可以继续按照本示例性实施例中的方法,检测下一时刻的图像中是否存在目标对象的人脸,如果存在人脸,则确定针对目标对象的目标监控区域,并基于目标监控区域的深度信息来进行监控。如此进行循环,即可实现对位于车内的目标对象的实时监控。
除此之外,当预设安全条件为预设变化阈值时,根据该深度信息与预设安全条件获得对比结果包括:将所述深度信息与预设变化阈值进行对比;若所述深度信息小于或等于所述预设变化阈值,则确定所述对比结果为安全;若所述深度信息大于所述预设变化阈值,则确定所述对比结果为不安全。
在这种情况下,可以判断目标监控区域的深度信息的变化范围是否小于预设变化阈值。深度信息的变化范围可以为目标监控区域的深度信息与设置的预设阈值,也可以为当前深度信息与预设时间段内历史深度信息的最大值或最小值的差值,此处不作特殊限定。举例而言,首先可获取事先设置的用于评判是否安全的深度信息的变化范围的预设变化阈值,该预设变化阈值可以为较小的数值。进一步地,可以将计算的目标监控区域的深度信息与设置的预设阈值进行对比,以确定二者之间的变化范围。再进一步地,如果该变化范围小于或等于事先设置的预设变化阈值,则确定对比结果为安全,可以继续检测下一时刻的图像数据中是否存在预设部位,以继续进行实时监控。如果目标监控区域的深度信息与设置的预设阈值之间的变化范围大于预设变化阈值,则确定对比结果为不安全,可提供一提示信号以进行预警。
本步骤中,根据目标监控区域的深度信息与预设安全条件的对比结果来进行实时监控,由于能够通过深度信息确定目标对象是否安全,避免了人工监控方式的不方便,减少了安全隐患,提高了效率和便捷性,并且能够实现实时监控的目的。进一步地,由于结合预设部位和目标监控区域,并通过目标监控区域的深度信息对目标对象进行实时监控,能够避免只通过脸部特征监控的误差,提高监控的准确性,实现准确有效的监控,从而提高用户体验。
图6中示意性示出实时监控的具体流程图,参考图6中所示,具体包括以下步骤S601至步骤S611,其中:
步骤S601,开启TOF传感器的车载实时监控系统。
步骤S602,加载车载实时监控的默认参数表,默认参数表具体包括TOF传感器的采集频率f0,儿童身体监控区域(如胸部腹部区域的宽度W0、高度H0),身体监控区域距离人脸框底边缘的距离h0,发出安全警报的深度变化值d0。
步骤S603,获取用户设置的当前车载环境下,用于表示安全儿童座位位置的预设安全条件,例如安全深度值dt。
步骤S604,通过手机摄像头开启预览视频流以获得当前时刻的预览数据帧,并将预览数据帧输入训练好的检测模型中进行人脸检测。
步骤S605,判断是否存在人脸。若是,则转至步骤S606;若否,则执行步骤S604。
步骤S606,存储当前人脸的部位区域,并开启TOF传感器按照频率f0进行深度图像的采集,得到当前时刻的图像数据的深度信息。人脸所在的部位区域可以用RectFace(x0,y0,width0,height0)来表示。
步骤S607,依据人脸所在的部位区域以及目标监控区域离人脸部位区域底边缘的距离计算目标监控区域。目标监控区域可以表示为RectBody(x0,y0+h0,W0,H0)。
步骤S608,从当前时刻的图像数据的深度信息中取出对应于目标监控区域的局部深度信息。局部深度信息为Depth(xi,yi),其中,xi范围为(x0,x0+W0),yi范围为(y0+h0,y0+h0+H0)。
步骤S609,计算目标监控区域的深度信息的平均值。其中,平均值mAvg=sum/(W0×H0)。
步骤S610,判断目标监控区域的深度信息的平均值是否满足预设安全条件。若否,则转至步骤S611;若是,则转至步骤S604。
步骤S611,发送提示信号,以提醒用户目标监控区域已超越了发出安全警报的深度变化值。即,目标对象的目标监控区域已偏离原始位置,用户设置的当前车载环境下,目标对象所在的安全座位的安全深度值较大,需要对其进行调整。
通过图6中的技术方案,一方面,根据当前时刻的图像数据中存在的目标对象的预设部位确定对目标对象的目标监控区域,能够准确的确定要监控的区域;进一步根据目标监控区域的深度信息与预设安全条件的对比结果来进行实时监控,由于能够通过深度信息确定目标对象是否安全,避免了人工监控方式的不方便,减少了安全隐患,提高了效率和便捷性,并且能够实现实时监控的目的。另一方面,由于结合预设部位和目标监控区域,并通过目标监控区域的深度信息对目标对象进行实时监控,能够避免只通过脸部特征监控的误差,提高监控的准确性,实现准确有效的监控,从而提高用户体验。
本示例性实施例中,还提供了一种对象监控装置800,参考图8中所示,该对象监控装置800包括以下模块:
图像获取模块801,可以用于获取包含目标对象的当前时刻的图像数据;
区域确定模块802,可以用于根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域;
深度计算模块803,可以用于计算所述目标监控区域的深度信息,并根据所述深度信息和预设安全条件获得对比结果;
监控控制模块804,可以用于根据所述对比结果对所述目标监控区域进行实时监控。
需要说明的是,上述对象监控装置中各模块的具体细节已经在对应的对象监控方法中进行了详细描述,因此此处不再赘述。
图9中示意性示出了用于实现上述对象监控方法的系统的框图,参考图9所示,该实时监控系统900可以包括:处理模块901、处理器902、存储器903以及显示器904。其中,处理模块包括人脸检测模块9011和深度采集模块9012,用于检测当前时刻的图像数据中是否存在人脸,并在存在人脸时采集深度图像。处理器902,用于确定目标监控区域,计算目标监控区域的深度信息,并根据目标监控区域的深度信息和预设安全条件得到对比结果,以根据对比结果进行实时监控。存储器903,用于存储预设安全条件以及用于计算深度信息的多个参数。显示器904,用于显示深度图像以及监控画面等。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图10来描述根据本发明的这种实施方式的电子设备1000。图10显示的电子设备1000仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000以通用计算设备的形式表现。电子设备1000的组件可以包括但不限于:上述至少一个处理单元1010、上述至少一个存储单元1020、连接不同系统组件(包括存储单元1020和处理单元1010)的总线1030。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1010执行,使得所述处理单元1010执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元1010可以执行如图2中所示的步骤:在步骤S210中,获取包含目标对象的当前时刻的图像数据;在步骤S220中,根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域;在步骤S230中,计算所述目标监控区域的深度信息,并根据所述深度信息和预设安全条件获得对比结果;在步骤S240中,根据所述对比结果对所述目标监控区域进行实时监控。
存储单元1020可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)10201和/或高速缓存存储单元10202,还可以进一步包括只读存储单元(ROM)10203。
存储单元1020还可以包括具有一组(至少一个)程序模块10205的程序/实用工具10204,这样的程序模块10205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1030可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
显示单元1040可以为具有显示功能的显示器,以通过该显示器展示由处理单元1010执行本示例性实施例中的方法而得到的处理结果。显示器包括但不限于液晶显示器或者是其它显示器。
电子设备1000也可以与一个或多个外部设备1200(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1000交互的设备通信,和/或与使得该电子设备1000能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1050进行。并且,电子设备1000还可以通过网络适配器1060与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1060通过总线1030与电子设备1000的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1000使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图11所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品1100,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (9)
1.一种对象监控方法,其特征在于,包括:
获取包含目标对象的当前时刻的图像数据;
根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域;
计算所述目标监控区域的深度信息,并根据所述深度信息和预设安全条件获得对比结果;
根据所述对比结果对所述目标监控区域进行实时监控;
其中,根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域包括:
若所述当前时刻的图像数据中存在所述预设部位,则获取所述部位区域;
根据所述部位区域、目标监控区域与所述部位区域之间的位置关系以及所述目标监控区域的预设范围,确定所述目标对象的所述目标监控区域。
2.根据权利要求1所述的对象监控方法,其特征在于,在根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域之前,所述方法还包括:
将所述当前时刻的图像数据输入训练好的检测模型中,以确定所述当前时刻的图像数据中是否存在所述预设部位,并确定所述预设部位所在的部位区域。
3.根据权利要求1所述的对象监控方法,其特征在于,计算所述目标监控区域的深度信息包括:
获取所述当前时刻的图像数据的深度信息,并根据所述当前时刻的图像数据的深度信息确定针对所述目标监控区域的局部深度信息;
基于所述局部深度信息计算所述目标监控区域的深度信息的平均值,并将所述深度信息的平均值作为所述目标监控区域的所述深度信息。
4.根据权利要求3所述的对象监控方法,其特征在于,获取所述当前时刻的图像数据的深度信息包括:
利用深度摄像头采集包括所述目标对象的当前时刻的深度图像,以从所述深度图像中得到所述当前时刻的图像数据的深度信息。
5.根据权利要求3所述的对象监控方法,其特征在于,基于所述局部深度信息计算所述目标监控区域的深度信息的平均值包括:
根据所述局部深度信息计算所述目标监控区域对应的图像数据中各像素的深度信息之和;
根据各所述像素的深度信息之和计算所述目标监控区域的所述深度信息的平均值。
6.根据权利要求1所述的对象监控方法,其特征在于,根据所述深度信息和预设安全条件获得对比结果包括:
将所述深度信息与预设阈值进行对比;
若所述深度信息小于或等于所述预设阈值,则确定所述对比结果为安全;
若所述深度信息大于所述预设阈值,则确定所述对比结果为不安全。
7.一种对象监控装置,其特征在于,包括:
图像获取模块,用于获取包含目标对象的当前时刻的图像数据;
区域确定模块,用于根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域;
深度计算模块,用于计算所述目标监控区域的深度信息,并根据所述深度信息和预设安全条件获得对比结果;
监控控制模块,用于根据所述对比结果对所述目标监控区域进行实时监控;
其中,根据所述当前时刻的图像数据中存在的所述目标对象的预设部位,确定针对所述目标对象的目标监控区域包括:
若所述当前时刻的图像数据中存在所述预设部位,则获取所述部位区域;
根据所述部位区域、目标监控区域与所述部位区域之间的位置关系以及所述目标监控区域的预设范围,确定所述目标对象的所述目标监控区域。
8.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-6任意一项所述的对象监控方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-6任意一项所述的对象监控方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620808.2A CN110334670B (zh) | 2019-07-10 | 2019-07-10 | 对象监控方法及装置、电子设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620808.2A CN110334670B (zh) | 2019-07-10 | 2019-07-10 | 对象监控方法及装置、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110334670A CN110334670A (zh) | 2019-10-15 |
CN110334670B true CN110334670B (zh) | 2021-08-17 |
Family
ID=68146210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910620808.2A Active CN110334670B (zh) | 2019-07-10 | 2019-07-10 | 对象监控方法及装置、电子设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110334670B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449581A (zh) * | 2020-03-24 | 2021-09-28 | 杭州海康威视数字技术股份有限公司 | 目标区域检测方法、装置和电子设备 |
CN113473074B (zh) * | 2020-04-27 | 2022-05-17 | 海信集团有限公司 | 一种检测方法、电子设备、检测设备以及存储介质 |
CN111694854B (zh) * | 2020-06-05 | 2023-07-21 | 北京百度网讯科技有限公司 | 一种区域进出监控方法、装置、电子设备及存储介质 |
CN112632411A (zh) * | 2020-12-24 | 2021-04-09 | 武汉旷视金智科技有限公司 | 目标对象数据查询方法、装置、设备和存储介质 |
US11756097B2 (en) * | 2021-01-05 | 2023-09-12 | Walmart Apollo, Llc | Methods and apparatus for automatically detecting data attacks using machine learning processes |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679155A (zh) * | 2013-12-30 | 2014-03-26 | 深圳锐取信息技术股份有限公司 | 多目标自动跟踪系统及方法 |
CN103747416A (zh) * | 2013-12-20 | 2014-04-23 | 北京奇虎科技有限公司 | 针对随身定位设备进行提醒的方法、装置及系统 |
CN106210633A (zh) * | 2016-07-18 | 2016-12-07 | 四川君逸数码科技股份有限公司 | 一种智慧金睛识别越线检测报警方法和装置 |
CN106599781A (zh) * | 2016-11-08 | 2017-04-26 | 国网山东省电力公司威海供电公司 | 基于颜色与Hu矩匹配的电力营业厅着装规范性识别方法 |
CN107742296A (zh) * | 2017-09-11 | 2018-02-27 | 广东欧珀移动通信有限公司 | 动态图像生成方法和电子装置 |
US10043360B1 (en) * | 2017-10-26 | 2018-08-07 | Scott Charles Mullins | Behavioral theft detection and notification system |
CN108615012A (zh) * | 2018-04-27 | 2018-10-02 | Oppo广东移动通信有限公司 | 距离提醒方法、电子装置和非易失性计算机可读存储介质 |
CN109213651A (zh) * | 2017-06-29 | 2019-01-15 | 北京三快在线科技有限公司 | 一种对象监控方法及装置、电子设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5978639B2 (ja) * | 2012-02-06 | 2016-08-24 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、及び記録媒体 |
CN102622584B (zh) * | 2012-03-02 | 2014-03-12 | 成都三泰电子实业股份有限公司 | 视频监控中蒙面人脸的检测方法 |
CN103997608A (zh) * | 2014-06-12 | 2014-08-20 | 浪潮(山东)电子信息有限公司 | 一种监控摄像头自动校准人体面部的设备及方法 |
-
2019
- 2019-07-10 CN CN201910620808.2A patent/CN110334670B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103747416A (zh) * | 2013-12-20 | 2014-04-23 | 北京奇虎科技有限公司 | 针对随身定位设备进行提醒的方法、装置及系统 |
CN103679155A (zh) * | 2013-12-30 | 2014-03-26 | 深圳锐取信息技术股份有限公司 | 多目标自动跟踪系统及方法 |
CN106210633A (zh) * | 2016-07-18 | 2016-12-07 | 四川君逸数码科技股份有限公司 | 一种智慧金睛识别越线检测报警方法和装置 |
CN106599781A (zh) * | 2016-11-08 | 2017-04-26 | 国网山东省电力公司威海供电公司 | 基于颜色与Hu矩匹配的电力营业厅着装规范性识别方法 |
CN109213651A (zh) * | 2017-06-29 | 2019-01-15 | 北京三快在线科技有限公司 | 一种对象监控方法及装置、电子设备 |
CN107742296A (zh) * | 2017-09-11 | 2018-02-27 | 广东欧珀移动通信有限公司 | 动态图像生成方法和电子装置 |
US10043360B1 (en) * | 2017-10-26 | 2018-08-07 | Scott Charles Mullins | Behavioral theft detection and notification system |
CN108615012A (zh) * | 2018-04-27 | 2018-10-02 | Oppo广东移动通信有限公司 | 距离提醒方法、电子装置和非易失性计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110334670A (zh) | 2019-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110334670B (zh) | 对象监控方法及装置、电子设备、存储介质 | |
US20200143146A1 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
US20210133468A1 (en) | Action Recognition Method, Electronic Device, and Storage Medium | |
US8824739B2 (en) | Eyelid-detection device, eyelid-detection method, and recording medium | |
US20190205679A1 (en) | Passenger counting device, system, method and program | |
CN113165651B (zh) | 电子装置及其控制方法 | |
KR20200084949A (ko) | 전자 장치 및 그 제어 방법 | |
WO2021052008A1 (zh) | 一种投屏方法及系统 | |
US20180204078A1 (en) | System for monitoring the state of vigilance of an operator | |
CN111160220B (zh) | 一种基于深度学习的包裹检测方法、装置、存储介质 | |
US20220019818A1 (en) | Method and system for vehicle parking detection, and storage medium | |
CN113168700A (zh) | 电子装置及其控制方法 | |
WO2023108364A1 (zh) | 驾驶员状态检测方法、装置及存储介质 | |
CN113326800B (zh) | 车道线位置确定方法、装置、车载终端及存储介质 | |
JP2020129091A (ja) | 運転評価画面の表示方法、プログラム、運転評価システム、及び運転評価画面 | |
US20220092361A1 (en) | System Improvement For Deep Neural Networks | |
US20230005271A1 (en) | Measurement method | |
US11481996B2 (en) | Calculation device, information processing method, and storage medium | |
US10893388B2 (en) | Map generation device, map generation system, map generation method, and non-transitory storage medium including instructions for map generation | |
CN113642425A (zh) | 基于多模态的图像检测方法、装置、电子设备及存储介质 | |
US20240070876A1 (en) | Control apparatus, method, and non-transitory computer-readable storage medium | |
US11282228B2 (en) | Information processing device, information processing method, and program | |
US11809621B2 (en) | State estimation device, method and computer program therefor | |
CN115904554A (zh) | 一种图像显示设备、方法和存储介质 | |
Hatipoglu et al. | Overhead object projector: OverProjNet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |