CN109558869A - 一种周界监测装置及周界监测方法 - Google Patents

一种周界监测装置及周界监测方法 Download PDF

Info

Publication number
CN109558869A
CN109558869A CN201811211139.5A CN201811211139A CN109558869A CN 109558869 A CN109558869 A CN 109558869A CN 201811211139 A CN201811211139 A CN 201811211139A CN 109558869 A CN109558869 A CN 109558869A
Authority
CN
China
Prior art keywords
eye
sub
image information
target
submodule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811211139.5A
Other languages
English (en)
Inventor
曹扬
吴京辉
金彬
周武
刘正坤
于宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Spaceflight Morning Letter Technology Co Ltd
Original Assignee
Beijing Spaceflight Morning Letter Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Spaceflight Morning Letter Technology Co Ltd filed Critical Beijing Spaceflight Morning Letter Technology Co Ltd
Priority to CN201811211139.5A priority Critical patent/CN109558869A/zh
Publication of CN109558869A publication Critical patent/CN109558869A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本申请提供了一种周界监测装置及周界监测方法;所述周界监测装置包括复眼相机模块和补光模块;所述复眼相机模块包括多个用于获取目标区域的图像信息的子眼,所述子眼包括红外镜头和红外探测器;所述补光模块用于在照度低于预设条件时,为所述子眼的目标区域提供红外补光;通过复眼相机模块可以实现大范围、无死角的高质量图像信息获取;在低照度情况下,通过补光模块为目标区域提供红外补光,并通过每个子眼的红外镜头和红外探测器获取目标区域的图像信息,因此,在低照度下仍能获取高质量的图像信息。

Description

一种周界监测装置及周界监测方法
技术领域
本发明涉及侦查探测技术领域,特别是涉及一种周界监测装置及周界监测方法。
背景技术
要地周界防护,特别是重要军事设施以及营地、临时驻扎地等军事要地的周界防护问题一直未得到很好的解决。
现有技术中,由于可见光图像包含丰富的纹理细节信息,并与人眼获取到的图像类似,易于解译等原因,可见光相机常作为监视侦察中的首选探测器。然而传统的可见光相机存在一些问题,首先,作为光学探测系统,在探测阵面像素数一定的情况下,图像分辨率和视场角相互制约,即视场角越大、分辨率越低,并且由于技术水平的限制,大视场角镜头通常存在一定畸变且造价较高;其次,普通可见光相机受阵面灵敏度的制约,低照度条件下拍摄能力有限,无法实现对夜间低照度下的高质量信息获取。
发明内容
本发明提供一种周界监测装置及周界监测方法,以提高大视场、低照度情况下的图像获取质量。
为了解决上述问题,本发明公开了一种周界监测装置,包括:复眼相机模块和补光模块;
所述复眼相机模块,包括支撑结构以及分布设置在所述支撑结构外表面上的多个子眼,所述子眼包括光学镜头和光学探测器,所述光学镜头包括红外镜头,所述光学探测器包括红外探测器;所述子眼用于获取目标区域的图像信息;
所述补光模块,用于在照度低于预设条件时,为所述子眼的目标区域提供红外补光。
优选地,所述光学镜头还包括可见光镜头,所述光学探测器还包括可见光探测器。
优选地,所述支撑结构为对称的弧面支撑结构,所述子眼包括第一子眼和第二子眼;
所述第一子眼设置在所述弧面支撑结构的弧面顶点处;
所述第二子眼以所述第一子眼为圆心,均匀设置在所述弧面支撑结构的外表面上;
所述补光模块,设置在相邻两子眼的中间位置处。
优选地,所述周界监测装置还包括:认知模块和显示模块;
所述认知模块,用于接收所述复眼相机模块的子眼获取的图像信息,根据所述图像信息确定可疑目标,将带有所述可疑目标的图像信息发送至所述显示模块;
所述显示模块,用于将带有所述可疑目标的图像信息进行显示。
优选地,所述认知模块包括目标识别子模块以及可疑目标判别子模块;
所述目标识别子模块,用于接收所述复眼相机模块的子眼获取的图像信息,采用预先通过神经网络算法训练好的识别模型,对所述图像信息进行目标识别,并将目标识别结果发送至所述可疑目标判别子模块;
所述可疑目标判别子模块,用于根据所述目标识别结果,以及预先存储的可疑对象,确定所述目标识别结果中的可疑目标,并将带有所述可疑目标的图像信息发送至所述显示模块。
优选地,所述认知模块还包括识别模型训练子模块,所述识别模型训练子模块包括:
样本获取子模块,用于获取图像信息样本;
目标标注子模块,用于对所述图像信息样本进行目标标注;
模型获得子模块,用于根据所述图像信息样本以及所述目标标注,通过所述神经网络算法进行模型训练,得到所述识别模型。
优选地,所述认知模块还包括数据库生成子模块;
所述数据库生成子模块,用于对所述目标识别结果进行存储和管理。
优选地,所述神经网络算法包括卷积神经网络算法。
优选地,所述卷积神经网络算法包括单网络多目标探测器方法。
为了解决上述问题,本发明还公开了一种周界监测方法,应用于上述任一项所述的周界监测装置,所述方法包括:
在照度低于预设条件时,为子眼的目标区域提供红外补光;
通过所述子眼获取目标区域的图像信息。
优选地,所述方法还包括:
根据所述子眼获取的图像信息确定可疑目标;
将带有所述可疑目标的图像信息进行显示。
优选地,所述根据所述子眼获取的图像信息确定可疑目标的步骤,包括:
采用预先通过神经网络算法训练好的识别模型,对所述子眼获取的图像信息进行目标识别,获得目标识别结果;
根据所述目标识别结果以及预先存储的可疑对象,确定所述目标识别结果中的可疑目标。
优选地,在所述采用预先通过神经网络算法训练好的识别模型,对所述子眼获取的图像信息进行目标识别的步骤之前,所述方法还包括:
获取图像信息样本;
对所述图像信息样本进行目标标注;
根据所述图像信息样本以及所述目标标注,通过所述神经网络算法进行模型训练,得到所述识别模型。
优选地,在所述采用预先通过神经网络算法训练好的识别模型,对所述子眼获取的图像信息进行目标识别的步骤之后,所述方法还包括:
对所述目标识别结果进行存储和管理。
与现有技术相比,本发明包括以下优点:
本申请提供了一种周界监测装置及周界监测方法;所述周界监测装置包括复眼相机模块和补光模块;所述复眼相机模块包括多个用于获取目标区域的图像信息的子眼,所述子眼包括红外镜头和红外探测器;所述补光模块用于在照度低于预设条件时,为所述子眼的目标区域提供红外补光;通过复眼相机模块可以实现大范围、无死角的高质量图像信息获取;在低照度情况下,通过补光模块为目标区域提供红外补光,并通过每个子眼的红外镜头和红外探测器获取目标区域的图像信息,因此,在低照度下仍能获取高质量的图像信息。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明一实施例提供的一种周界监测装置的侧视结构示意图;
图2示出了本发明一实施例提供的一种周界监测装置的俯视结构示意图;
图3示出了本发明一实施例提供的一种周界监测装置的结构框图;
图4示出了本发明一实施例提供的一种周界监测装置中认知模块的结构框图;
图5示出了本发明一实施例提供的认知模块中识别模型训练子模块的结构框图;
图6示出了本发明一实施例提供的一种周界监测方法的步骤流程图;
图7示出了本发明一实施例提供的一种周界监测方法中对图像信息进行处理的步骤流程图;
图8示出了本发明一实施例提供的一种周界监测方法中对可疑目标进行识别的步骤流程图;
图9示出了本发明一实施例提供的一种周界监测方法中获得识别模型的步骤流程图;
图10示出了本发明一实施例提供的一种SSD默认框及其与真实值的匹配的示意图;
附图标记说明:
11-支撑结构;12-子眼;13-补光模块。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明一实施例提供了一种周界监测装置,参照图1,所述装置可以包括复眼相机模块和补光模块;复眼相机模块包括支撑结构11以及分布设置在支撑结构11外表面上的多个子眼12,子眼12包括光学镜头和光学探测器,光学镜头包括红外镜头,光学探测器包括红外探测器;子眼12用于获取目标区域的图像信息;补光模块13用于在照度低于预设条件时,为子眼12的目标区域提供红外补光。
当前周界监测主要采用视频监控、电磁振动监控等方式,例如安防监控摄像头、电子围栏、张力围栏、振动光纤、红外对射、微波对射等,发明人发现无论哪种方法都无法同时实现大范围、天、空、地无死角的周界防护,更无法高精度、智能化的判断入侵类型。为了解决这一问题,本实施例提供的复眼相机模块中的支撑结构11可以是球面结构或者半球面结构等,借助多个子眼12在支撑结构11上的排列结构来实现大视场,而并非单纯的依赖增大光学镜头的视场角来实现大视场,从而能够保证子眼12获取的图像信息具有较高的角分辨率,实现对周界天、空、地大范围、无死角监控。其中,子眼12在支撑结构11上的设置位置和数量可以根据实际情况具体设定,本申请不作具体限定。
上述光学镜头还可以包括可见光镜头,光学探测器还可以包括可见光探测器,在实际应用中,光学镜头可以是可见光-近红外宽波段镜头,光学探测器可以是可见光-近红外宽波段探测器。相对于现有灵敏度较高、低照度下能够获取有效图像信息的可见光相机,本申请提供的复眼相机模块成本较低而且应用范围更为广泛。
在对周界进行监测的过程中,当自然光照度大于或等于预设条件时,不需要红外补光,光学镜头和光学探测器可以借助自然光直接获取目标区域的图像信息;当照度低于预设条件的情况下,例如夜间,则需要通过补光模块13为目标区域提供人眼不可见的红外宽波段补光,再通过每个子眼12的红外镜头和红外探测器获取目标区域的图像信息,实现低照度条件下图像获取,从而实现全天时高质量图像信息获取,并且由于红外补光对人眼不可见,隐蔽性极强,不易被目标发现。
本实施例提供了一种周界监测装置,通过复眼相机模块可以实现大范围、无死角的高质量图像信息获取;在低照度情况下,通过补光模块为目标区域提供红外补光,并通过每个子眼的红外镜头和红外探测器获取目标区域的图像信息,因此,在低照度下仍能获取高质量的图像信息。
上述实施例中的一种实现方式中,参照图1和图2,复眼相机模块的支撑结构11可以为对称的弧面支撑结构,子眼12可以包括第一子眼和第二子眼;第一子眼设置在弧面支撑结构的弧面顶点处;第二子眼以第一子眼为圆心,均匀设置在弧面支撑结构的外表面上;补光模块13可以设置在相邻两子眼的中间位置处。
图2中示出的复眼相机模块包括1个位于弧面定点处的第一子眼,6个沿圆周方向设置的第二子眼,以及12个补光模块。复眼相机模块中的子眼设置位置和设置数量,以及补光模块的设置位置和数量均可以根据实际情况具体确定。
在实际应用中,周界监测装置需对周界附近的人、车、动物、飞行物体等,进行全面准确的甄别,以便实现高准确度的大范围监控,然而受制于目前的技术水平,多目标快速识别问题一直没有得到很好的解决。
为了解决上述问题,在本申请提供的另一实施例中,参照图3,上述的周界监测装置还可以包括认知模块31和显示模块32;认知模块31用于接收复眼相机模块的各子眼获取的图像信息,根据图像信息确定可疑目标,将带有可疑目标的图像信息发送至显示模块32;显示模块32用于将带有可疑目标的图像信息进行显示。
其中,显示模块32可以采用机器视觉方法实现多路子眼获取图像信息的实时拼接显示,在本实施例中可以采用基于SURF的拼接方法。
具体的,参照图4,认知模块31可以进一步包括识别模型训练子模块43、目标识别子模块41以及可疑目标判别子模块42;识别模型训练子模块43,用于获取识别模型;目标识别子模块41用于接收复眼相机模块的各子眼获取的图像信息,采用预先通过神经网络算法训练好的识别模型,对图像信息进行目标识别,并将目标识别结果发送至可疑目标判别子模块42;可疑目标判别子模块42,用于根据目标识别结果,以及预先存储的可疑对象,确定目标识别结果中的可疑目标,并将带有可疑目标的图像信息发送至显示模块32。其中,目标识别结果可以包括目标的类型(大类、子类等)、位置坐标、目标出现次数以及停留时间等信息。认知模块31中的识别模型训练子模块43不是必需的,识别模型可以预先线下完成。
具体的,参照图5,识别模型训练子模块43可以进一步包括:样本获取子模块51,用于获取图像信息样本;目标标注子模块52,用于对图像信息样本进行目标标注;以及模型获得子模块53,用于根据图像信息样本以及目标标注,通过神经网络算法进行模型训练,得到识别模型。
其中,识别模型训练子模块43主要通过采集与生成足够的样本,基于深度学习的算法框架/网络模型,在计算平台上利用样本对算法框架/网络模型进行训练(即求解参数),训练完成后保存训练好的算法框架/网络模型。在采集与生成的样本时,需要遵循一定的策略,即针对周界监测的场景进行样本采集试验设计与搜集。
样本库中主要包含的样本类型可以包括如下几个大类:
非攻击性动物类,包括猪、牛、羊、鸡、飞鸟等子类;
攻击性动物类,如老虎、狮子、狼、蛇等子类;
飞行器类:无人机、飞机等子类;
人员类:小孩、成人、特殊人员(穿特定服饰)等子类;
车辆类:小轿车、军车等子类;
环境类:实际环境。
在训练过程中,为了使训练更加鲁棒,可以对样本进行处理,包括水平翻转、亮度扭曲等,这样比直接使用原始样本能够得到更准确的识别模型。
具体的,目标识别子模块41的功能可以通过高性能计算设备,包括传统X86架构的CPU+GPU、嵌入式FPGA等完成,实现对图像信息的目标进行检测。
深度学习具有强大的特征学习能力,其本质是通过构建具有多隐层的学习模型,利用大量数据作为被学习的训练样本,学习数据中的特征模式,在深度学习中,卷积神经网络(CNN)又被认为是当前最有效的图像识别方法,CNN从多层感知机发展起来了,仿造人脑处理图像信息的模式,分层次获取图像中的特征信息,通过构建卷积层(Convolution)降维并提取特征信息,通过池化层(Pooling)突显特征信息,从而在很大程度上提升分类、识别的准确性,在训练样本完备的情况下能够得到与人工识别相当、甚至超越人工识别的能力,在实际应用中取得了非常好的效果。
基于卷积神经网络的目标识别定位方法有很多,综合计算精度和计算效率,在本申请实施例中可以采用单网络多目标探测器(Single-Shot Multibox Detector,SSD)方法。该方法的核心步骤如下:
基础网络架构:SSD网络基础层使用传统深度学习架构,例如VGG16、ResNet等,在此基础上添加卷积层作为新的特征图(feature map),新添加的feature map具有尺度差异,因此能够识别对不同尺度下的目标,因此在小目标识别问题上相比Yolo等方法更为有效。
增加不同分辨率的特征层:采用不同层上的feature map来学习不同尺度下的物体检测,对每一张feature map,按照不同的大小(scale)和长宽比(ratio)生成生成k个默认框(default box),在本项目中,在每张特征图的每个点上生成6个default box(Conv4_3取3个default box),则在如图10中所示的结构中default box为7038个。
Default box匹配:训练过程中,首先需要将ground truth信息(位置和类别)进行预处理及传递,将其对应到相应的default box上,根据default box和ground truth box的重叠(如jaccard overlap)来寻找对应的default box。在本项目中选取了重叠超过0.5的default box为正样本,其它为负样本,为避免负样本数量远超过正样本数量,根据样本置信度排序,使得负、正样本比例为1:3。
直接生成类别置信度和偏移量:新增的feature map都会通过一些小的卷积核操作,得到default box相对不同类别的偏移和置信度:例如,在大小m×n、通道数为p的feature map上,使用3×3×p的一个卷积核(该卷积核每一维上相同,因此通常称此卷积核尺度为3×3),能够得到m×n×p输出,针对c种目标的识别问题,若feature map每个点对应k个default box,m×n个点对应m×n×k个default box,则输出应为(m×n×k)×(c+4)个独立结果若每个结果为p维数据,则需要使用k×(c+4)个3×3×p的卷积核。
损失函数:SSD目标函数是default box的位置损失和类别损失loss之和。
相对于传统的目标识别检测方法,例如动目标检测方式、基于特征的识别匹配方式等的识别效果远没有基于深度学习算法模型的方法好,例如准确度差,只能区分大类,无法细分子类等,在本实施例中采用基于深度学习的方法,能够对各类目标实现非常精确的细分。
具体的,可疑目标判别子模块42利用目标识别子模块41获取的目标识别结果,根据目标识别结果中的目标种类、目标停留的位置以及目标停留时间等信息,与预先设定的可疑对象进行比对,判定目标是否为可疑目标。例如,可疑对象可以是接近周界处并进行停留的人员、车辆,以及接近周界处的无人机、猛兽等。
为了方便后续对图像信息进行进一步处理和查询,参照图4,上述认知模块31还可以包括数据库生成子模块44;该数据库生成子模块44,用于对目标识别结果进行存储和管理。同样,数据库生成子模块44在认知模块31中不是必需的,可以根据实际需求设定。
通过数据库生成子模块44不断地将目标识别子模块41获得的目标识别结果进行信息整理,建立数据库。数据库中可以包括目标的类别信息、图像信息或者目标截图信息、目标出现的时间信息以及出现次数等统计信息。
上述的周界监测装置中,复眼相机模块、补光模块甚至认知模块均可以布置于周界处,显示模块可以布置于指控中心。各模块之间通过介质相连,例如复眼相机模块与认知模块之间可以通过网线连接;基于深度学习的认知模块与实现实时拼接显示的显示模块之间可以通过光纤相连。
在实际工作过程中,补光模块、复眼相机模块以及基于深度学习的智能认知模块24小时工作,复眼相机模块不断获取各目标区域的图像信息,基于深度学习的智能认知模块不断进行目标识别,同时丰富和更新数据库。
一旦基于深度学习的智能认知模块在多通道(多个子眼)图像中发现可疑目标,可以在图像中标注好可疑目标的位置,同时多通道图像连续送往指控中心中的显示模块,通过显示模块对多通道图像进行实时的拼接,并于显示器上显示拼接后的图和可疑目标的位置、类型、出现时间以及出现次数等信息。
在本申请另一实施例中,参照图6,提供了一种周界监测方法,该方法可以应用于上述任一实施例所述的周界监测装置,该方法可以包括:
步骤601:在照度低于预设条件时,为子眼的目标区域提供红外补光。
在本步骤中,可以由前述实施例中的补光模块执行。
步骤602:通过子眼获取目标区域的图像信息。
在本步骤中,可以由前述实施例中的复眼相机模块执行。
为解决多目标快速识别问题,在另一实施例中,参照图7,该方法还可以包括:
步骤701:根据子眼获取的图像信息确定可疑目标。
在本步骤中,可以由前述实施例中的认知模块执行。
步骤702:将带有可疑目标的图像信息进行显示。
在本步骤中,可以由前述实施例中的显示模块执行。
具体的,参照图8,上述步骤701可以进一步包括:
步骤801:采用预先通过神经网络算法训练好的识别模型,对子眼获取的图像信息进行目标识别,获得目标识别结果。
在本步骤中,可以由前述实施例中的目标识别子模块执行。
步骤802:根据目标识别结果以及预先存储的可疑对象,确定目标识别结果中的可疑目标。
在本步骤中,可以由前述实施例中的可疑目标判别子模块执行。
为了预先获得识别模型,参照图9,在上述步骤801之前,上述的周界监测方法还可以包括:
步骤901:获取图像信息样本。
在本步骤中,可以由前述实施例中的样本获取子模块执行。
步骤902:对图像信息样本进行目标标注。
在本步骤中,可以由前述实施例中的目标标注子模块执行。
步骤903:根据图像信息样本以及目标标注,通过神经网络算法进行模型训练,得到识别模型。
在本步骤中,可以由前述实施例中的模型获得子模块执行。
在另一实施例中,为了方便后续对目标识别结果进行进一步的处理,在上述步骤801之后,上述的周界监测方法还可以包括:对所述目标识别结果进行存储和管理。该步骤可以由上述实施例中的数据库生成子模块执行。
具体的工作过程和原理可以参照上述周界监测装置实施例的描述,这里不再赘述。
本申请提供了一种周界监测装置及周界监测方法;所述周界监测装置包括复眼相机模块和补光模块;所述复眼相机模块包括多个用于获取目标区域的图像信息的子眼,所述子眼包括红外镜头和红外探测器;所述补光模块用于在照度低于预设条件时,为所述子眼的目标区域提供红外补光;通过复眼相机模块可以实现大范围、无死角的高质量图像信息获取;在低照度情况下,通过补光模块为目标区域提供红外补光,并通过每个子眼的红外镜头和红外探测器获取目标区域的图像信息,因此,在低照度下仍能获取高质量的图像信息。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种周界监测装置及周界监测方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (14)

1.一种周界监测装置,其特征在于,包括:复眼相机模块和补光模块;
所述复眼相机模块,包括支撑结构以及分布设置在所述支撑结构外表面上的多个子眼,所述子眼包括光学镜头和光学探测器,所述光学镜头包括红外镜头,所述光学探测器包括红外探测器;所述子眼用于获取目标区域的图像信息;
所述补光模块,用于在照度低于预设条件时,为所述子眼的目标区域提供红外补光。
2.根据权利要求1所述的周界监测装置,其特征在于,所述光学镜头还包括可见光镜头,所述光学探测器还包括可见光探测器。
3.根据权利要求1所述的周界监测装置,其特征在于,所述支撑结构为对称的弧面支撑结构,所述子眼包括第一子眼和第二子眼;
所述第一子眼设置在所述弧面支撑结构的弧面顶点处;
所述第二子眼以所述第一子眼为圆心,均匀设置在所述弧面支撑结构的外表面上;
所述补光模块,设置在相邻两子眼的中间位置处。
4.根据权利要求1至3任一项所述的周界监测装置,其特征在于,所述周界监测装置还包括:认知模块和显示模块;
所述认知模块,用于接收所述复眼相机模块的子眼获取的图像信息,根据所述图像信息确定可疑目标,将带有所述可疑目标的图像信息发送至所述显示模块;
所述显示模块,用于将带有所述可疑目标的图像信息进行显示。
5.根据权利要求4所述的周界监测装置,其特征在于,所述认知模块包括目标识别子模块以及可疑目标判别子模块;
所述目标识别子模块,用于接收所述复眼相机模块的子眼获取的图像信息,采用预先通过神经网络算法训练好的识别模型,对所述图像信息进行目标识别,并将目标识别结果发送至所述可疑目标判别子模块;
所述可疑目标判别子模块,用于根据所述目标识别结果,以及预先存储的可疑对象,确定所述目标识别结果中的可疑目标,并将带有所述可疑目标的图像信息发送至所述显示模块。
6.根据权利要求5所述的周界监测装置,其特征在于,所述认知模块还包括识别模型训练子模块,所述识别模型训练子模块包括:
样本获取子模块,用于获取图像信息样本;
目标标注子模块,用于对所述图像信息样本进行目标标注;
模型获得子模块,用于根据所述图像信息样本以及所述目标标注,通过所述神经网络算法进行模型训练,得到所述识别模型。
7.根据权利要求5所述的周界监测装置,其特征在于,所述认知模块还包括数据库生成子模块;
所述数据库生成子模块,用于对所述目标识别结果进行存储和管理。
8.根据权利要求5所述的周界监测装置,其特征在于,所述神经网络算法包括卷积神经网络算法。
9.根据权利要求8所述的周界监测装置,其特征在于,所述卷积神经网络算法包括单网络多目标探测器方法。
10.一种周界监测方法,应用于权利要求1至9任一项所述的周界监测装置,其特征在于,所述方法包括:
在照度低于预设条件时,为子眼的目标区域提供红外补光;
通过所述子眼获取目标区域的图像信息。
11.根据权利要求10所述的周界监测方法,其特征在于,所述方法还包括:
根据所述子眼获取的图像信息确定可疑目标;
将带有所述可疑目标的图像信息进行显示。
12.根据权利要求11所述的周界监测方法,其特征在于,所述根据所述子眼获取的图像信息确定可疑目标的步骤,包括:
采用预先通过神经网络算法训练好的识别模型,对所述子眼获取的图像信息进行目标识别,获得目标识别结果;
根据所述目标识别结果以及预先存储的可疑对象,确定所述目标识别结果中的可疑目标。
13.根据权利要求12所述的周界监测方法,其特征在于,在所述采用预先通过神经网络算法训练好的识别模型,对所述子眼获取的图像信息进行目标识别的步骤之前,所述方法还包括:
获取图像信息样本;
对所述图像信息样本进行目标标注;
根据所述图像信息样本以及所述目标标注,通过所述神经网络算法进行模型训练,得到所述识别模型。
14.根据权利要求12所述的周界监测方法,其特征在于,在所述采用预先通过神经网络算法训练好的识别模型,对所述子眼获取的图像信息进行目标识别的步骤之后,所述方法还包括:
对所述目标识别结果进行存储和管理。
CN201811211139.5A 2018-10-17 2018-10-17 一种周界监测装置及周界监测方法 Pending CN109558869A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811211139.5A CN109558869A (zh) 2018-10-17 2018-10-17 一种周界监测装置及周界监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811211139.5A CN109558869A (zh) 2018-10-17 2018-10-17 一种周界监测装置及周界监测方法

Publications (1)

Publication Number Publication Date
CN109558869A true CN109558869A (zh) 2019-04-02

Family

ID=65865112

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811211139.5A Pending CN109558869A (zh) 2018-10-17 2018-10-17 一种周界监测装置及周界监测方法

Country Status (1)

Country Link
CN (1) CN109558869A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110617801A (zh) * 2019-09-17 2019-12-27 韶关市涵润信息科技有限公司 建筑病害巡视装置、建筑病害检测系统及其检测方法
CN110889356A (zh) * 2019-11-19 2020-03-17 广州恒龙信息技术有限公司 一种基于红外相机解锁ar眼镜的方法、装置及ar眼镜

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104165626A (zh) * 2014-06-18 2014-11-26 长春理工大学 仿生复眼成像目标定位系统
CN105578003A (zh) * 2015-12-17 2016-05-11 沈阳理工大学 多通道大视角仿生复眼成像探测装置
CN105589206A (zh) * 2016-03-25 2016-05-18 刘磊 一种激光补光装置及其光照控制方法
CN106483577A (zh) * 2015-09-01 2017-03-08 中国航天科工集团第四研究院指挥自动化技术研发与应用中心 一种光学探测装置
CN106646694A (zh) * 2016-11-02 2017-05-10 北京信息科技大学 一种基于可见光及近红外的仿生视觉成像技术

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104165626A (zh) * 2014-06-18 2014-11-26 长春理工大学 仿生复眼成像目标定位系统
CN106483577A (zh) * 2015-09-01 2017-03-08 中国航天科工集团第四研究院指挥自动化技术研发与应用中心 一种光学探测装置
CN105578003A (zh) * 2015-12-17 2016-05-11 沈阳理工大学 多通道大视角仿生复眼成像探测装置
CN105589206A (zh) * 2016-03-25 2016-05-18 刘磊 一种激光补光装置及其光照控制方法
CN106646694A (zh) * 2016-11-02 2017-05-10 北京信息科技大学 一种基于可见光及近红外的仿生视觉成像技术

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110617801A (zh) * 2019-09-17 2019-12-27 韶关市涵润信息科技有限公司 建筑病害巡视装置、建筑病害检测系统及其检测方法
CN110889356A (zh) * 2019-11-19 2020-03-17 广州恒龙信息技术有限公司 一种基于红外相机解锁ar眼镜的方法、装置及ar眼镜

Similar Documents

Publication Publication Date Title
CN109934117B (zh) 基于生成对抗网络的行人重识别检测方法
CN105979210B (zh) 一种基于多枪多球摄像机阵列的行人识别系统
Rachmadi et al. Vehicle color recognition using convolutional neural network
CN104166841B (zh) 一种视频监控网络中指定行人或车辆的快速检测识别方法
CN111209810A (zh) 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构
CN106791710A (zh) 目标检测方法、装置和电子设备
CN104813339A (zh) 用于检测视频中的对象的方法、设备和系统
CN113887412B (zh) 污染排放的检测方法、检测终端、监控系统及存储介质
CN109376637A (zh) 基于视频监控图像处理的人数统计系统
CN110108704A (zh) 一种蓝藻自动监测预警方法及其自动监测预警系统
CN106851229B (zh) 一种基于图像识别的安防智能决策的方法与系统
CN110719444A (zh) 多传感器融合的全方位监控与智能摄像方法与系统
CN110276254A (zh) 基于无人机的禁止摆摊区域摊贩自动识别预警方法
CN106339657A (zh) 基于监控视频的秸秆焚烧监测方法、装置
Nyberg et al. Unpaired thermal to visible spectrum transfer using adversarial training
CN109558869A (zh) 一种周界监测装置及周界监测方法
Milford et al. Long exposure localization in darkness using consumer cameras
CN113591592A (zh) 水上目标识别方法、装置、终端设备及存储介质
CN113298177B (zh) 夜间图像着色方法、装置、介质和设备
CN113762161B (zh) 一种障碍物智能监测方法及系统
CN107147877A (zh) 固定区域夜雾天况全天候彩色视频成像系统及其构建方法
Stewart et al. Drone virtual fence using a neuromorphic camera
CN112926415A (zh) 一种行人避让系统和行人监测方法
KR102171384B1 (ko) 영상 보정 필터를 이용한 객체 인식 시스템 및 방법
CN112906510A (zh) 一种渔业资源统计方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190402