CN110991306B - 自适应的宽视场高分辨率智能传感方法和系统 - Google Patents

自适应的宽视场高分辨率智能传感方法和系统 Download PDF

Info

Publication number
CN110991306B
CN110991306B CN201911184686.3A CN201911184686A CN110991306B CN 110991306 B CN110991306 B CN 110991306B CN 201911184686 A CN201911184686 A CN 201911184686A CN 110991306 B CN110991306 B CN 110991306B
Authority
CN
China
Prior art keywords
camera
image
target object
region
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911184686.3A
Other languages
English (en)
Other versions
CN110991306A (zh
Inventor
边丽蘅
刘铁锌
张军
曹先彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201911184686.3A priority Critical patent/CN110991306B/zh
Publication of CN110991306A publication Critical patent/CN110991306A/zh
Application granted granted Critical
Publication of CN110991306B publication Critical patent/CN110991306B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种自适应的宽视场高分辨率智能传感方法和系统,其中,方法包括:通过第一相机采集宽视场的第一图像,并从第一图像中识别目标物体或区域;根据第二相机与第一相机的坐标转换关系将目标物体或区域在第一相机中的位置转化为在第二相机中的聚焦坐标;将第二相机旋转移动至聚集坐标对应的位置,并从第二相机中采集第二图像;将第二图像与第一图像进行匹配,得到第二图像在第一图像中的位置,以判断第二相机旋转后的位置是否符合预设条件;在满足预设条件后,获取第一图像与实时跟踪目标物体或区域的高分辨率图像。该方法既能够动态地获取目标物体或区域的高分辨率图像,且易于硬件实现,对于实际应用具有重要意义。

Description

自适应的宽视场高分辨率智能传感方法和系统
技术领域
本发明涉及计算机视觉和计算摄像学技术领域,特别涉及一种自适应的宽视场高分辨率智能传感方法和系统。
背景技术
在实际场景(如监控系统)中,相机的宽视场与高分辨率往往不能同时满足。当使用较高的分辨率去拍摄物体的细节时,就会得到较小的视场,从而无法及时找到物体所在的位置;当使用较宽的视场去寻找物体的位置时,就会得到较低的分辨率,从而难以看清物体的细节。
相关技术中,通常的方法是使用相机阵列去采集多张高分辨率图像,再融合成一张宽视场与高分辨率图像。但是这种方法需要复杂的硬件设计,同时数据量巨大,难以实时传输和处理,亟待解决。
发明内容
本申请是基于发明人对以下问题的认识和发现做出的:
考虑到许多实际场景不是每个区域都需要较高的分辨率,例如监控系统中只需要对目标物体或区域进行高分辨率的检测即可,因此可以考虑将图像识别算法加入到实际应用中。图像识别算法在近几年随着深度学习的发展而逐渐进入人们的视野,在使用神经网络来对已有的数据集进行训练之后,现有的图像识别算法就可以达到比人眼更高的识别率,而且运算时间较低,能满足实时性的要求。将图像识别算法应用到实际拍摄到的图像中,就有助于实现宽视场与高分辨率的目标物体或区域观测。
在从较大的视场内识别到目标物体或区域之后,就可以使用高分辨率相机进行拍摄。但是由于高分辨率相机的视场较窄,很可能会导致目标物体或区域不在高分辨率相机的视野内,这时就需要选择可以编码控制的云台相机作为高分辨率相机。云台相机具有两个旋转自由度,即能够定位到二维平面内的任意点。使用云台相机即可在识别到目标物体或区域后,将高分辨率相机的视场移动至目物体或区域所在的方向,从而实现高分辨率目标物体或区域图像的拍摄。同时,当目标物体或区域移动时,由于目标检测算法能够实时更新目标所在的位置,云台相机就能够实时地跟随目标移动,从而实现对运动目标的跟踪。
对于移动后的动态相机,需要图像匹配算法来对其进行校验,以保证动态相机能够拍摄到目标物体或区域的图像。而图像匹配算法能够将两张图像匹配在一起,考虑到动态相机获取到的图像视场较小,因此使用图像匹配算法可以计算出高分辨率图像在宽视场图像中的实际位置,从而实现对于动态相机位置的校验。
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种自适应的宽视场高分辨率智能传感方法,该方法既能够动态地获取目标物体或区域的高分辨率图像,且易于硬件实现,对于实际应用具有重要意义。
本发明的另一个目的在于提出一种自适应的宽视场高分辨率智能传感系统。
为达到上述目的,本发明一方面实施例提出了一种自适应的宽视场高分辨率智能传感方法,包括以下步骤:通过第一相机采集宽视场的第一图像,并从所述第一图像中识别目标物体或区域;根据第二相机与第一相机的坐标转换关系将所述目标物体或区域在所述第一相机中的位置转化为在所述第二相机中的聚焦坐标;将所述第二相机旋转移动至所述聚集坐标对应的位置,并从所述第二相机中采集第二图像;将所述第二图像与所述第一图像进行匹配,得到所述第二图像在所述第一图像中的位置,以判断所述第二相机旋转后的位置是否符合预设条件;在满足所述预设条件后,获取所述第一图像与实时跟踪目标物体或区域的高分辨率图像。
本发明实施例的自适应的宽视场高分辨率智能传感方法,相较于传统均匀分布的相机阵列方法获取宽视场高分辨率图像,能够自适应地识别目标物体或区域,从而动态地获取目标物体或区域的高分辨率图像,减少了采集数据量,简化了硬件设计,利于通信传输,对于实际应用具有重要意义。
另外,根据本发明上述实施例的自适应的宽视场高分辨率智能传感方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述坐标转换关系的变换公式为:
y2=y1/ky+by
x2=x1/kx+bx
其中,kx与ky分别表示水平放大倍数与竖直放大倍数,bx与by分别表示水平平移距离与竖直平移距离,(x1,y1)表示所述目标物体或区域在所述第一相机中的位置。
进一步地,在本发明的一个实施例中,所述预设条件为校验所述第二相机旋转后的位置是否与所述聚焦坐标一致。
进一步地,在本发明的一个实施例中,所述第一相机为静态相机,所述第二相机为动态相机。
为达到上述目的,本发明另一方面实施例提出了一种自适应的宽视场高分辨率智能传感系统,包括:采集模块,用于通过第一相机采集宽视场的第一图像,并从所述第一图像中识别目标物体或区域;转换模块,用于根据第二相机与第一相机的坐标转换关系将所述目标物体或区域在所述第一相机中的位置转化为在所述第二相机中的聚焦坐标;移动模块,用于将所述第二相机旋转移动至所述聚集坐标对应的位置,并从所述第二相机中采集第二图像;匹配模块,用于将所述第二图像与所述第一图像进行匹配,得到所述第二图像在所述第一图像中的位置,以判断所述第二相机旋转后的位置是否符合预设条件;获取模块,用于在满足所述预设条件后,获取所述第一图像与实时跟踪目标物体或区域的高分辨率图像。
本发明实施例的自适应的宽视场高分辨率智能传感系统,相较于传统均匀分布的相机阵列方法获取宽视场高分辨率图像,能够自适应地识别目标物体或区域,从而动态地获取目标物体或区域的高分辨率图像,减少了采集数据量,简化了硬件设计,利于通信传输,对于实际应用具有重要意义。
另外,根据本发明上述实施例的自适应的宽视场高分辨率智能传感系统还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述坐标转换关系的变换公式为:
y2=y1/ky+by
x2=x1/kx+bx
其中,kx与ky分别表示水平放大倍数与竖直放大倍数,bx与by分别表示水平平移距离与竖直平移距离,(x1,y1)表示所述目标物体或区域在所述第一相机中的位置。
进一步地,在本发明的一个实施例中,所述预设条件为校验所述第二相机旋转后的位置是否与所述聚焦坐标一致。
进一步地,在本发明的一个实施例中,所述第一相机为静态相机,所述第二相机为动态相机。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的自适应的宽视场高分辨率智能传感方法的流程图;
图2为根据本发明实施例的静态相机与动态相机的样例实物图;
图3为根据本发明实施例的某次获得的宽视场图像与高分辨率图像的样例测试图;
图4为根据本发明一个实施例的自适应的宽视场高分辨率智能传感方法的流程图;
图5为根据本发明实施例的自适应的宽视场高分辨率智能传感系统的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的自适应的宽视场高分辨率智能传感方法和系统,首先将参照附图描述根据本发明实施例提出的自适应的宽视场高分辨率智能传感方法。
图1是本发明一个实施例的自适应的宽视场高分辨率智能传感方法的流程图。
如图1所示,该自适应的宽视场高分辨率智能传感方法包括以下步骤:
在步骤S101中,通过第一相机采集宽视场的第一图像,并从第一图像中识别目标物体或区域。
其中,第一相机为静态相机(静态相机如图2所示),主要用于拍摄宽视场图像,获取大场景信息,焦距较小且不可移动,分辨率相对较低。也就是说,静态相机负责采集宽视场的图像,以保证目标物体或区域在视场内,但不需要较高的分辨率。
可以理解的是,本发明实施例从静态相机采集获取宽视场的图像,其分辨率相对较低;然后从获取到的宽视场图像中识别并检测出目标物体或区域。
具体而言,(1)从静态相机中获取一张宽视场图像,这张宽视场图像应包含目标物体或区域,因此在放置静态相机时应尽可能覆盖较大的范围,避免物体的移动脱离视场。
(2)通过图像识别方法从(1)所得到的宽视场图像中检测出目标物体或区域,并且识别出目标物体或区域的位置。也就是说,本发明实施例通过图像识别方法能够在宽视场图像中实时寻找目标物体或区域的位置,其中,图像识别方法包含但不限于基于特征的图像识别方法、基于深度学习的图像识别方法。
在步骤S102中,根据第二相机与第一相机的坐标转换关系将目标物体或区域在第一相机中的位置转化为在第二相机中的聚焦坐标。
其中,第二相机为动态相机(动态相机如图2所示),主要用于拍摄高分辨率图像,获取目标物体或区域高分辨率信息,焦距较大且可以移动,视场相对较小。也就是说,动态相机负责定位与跟踪目标物体或区域,视场相对较小,但能够采集到目标物体或区域的高分辨率细节。
本发明实施例将静态相机拍摄的宽视场图像和静态相机拍摄的高分辨率图像组合,实现了既能获取目标物体或区域的全局信息,又能够获取聚焦物体或区域的高分辨率信息,从而能够实时监控目标的位置,并且能够拍摄到目标的细节。
可以理解的是,根据动态相机与静态相机的坐标转换关系,将步骤S101中目标物体或区域在静态相机中的位置转化为在动态相机中的聚焦坐标。
具体而言,根据步骤S101所得到的目标位置,计算实际物体在动态相机中所对应的聚焦坐标。这一步骤需要预先标定动态相机与静态相机间的坐标转换关系。物体在宽视场图像中的位置可以用二维坐标来表示,而动态相机所瞄准的实际位置也可以用二维坐标来表示,这两个坐标系间通常只具有放缩与平移关系,即可以使用四个参数来进行变换:水平放大倍数、水平平移距离、竖直放大倍数与竖直平移距离,因此可以地将目标在宽视场图像中的位置转换为动态相机所要瞄准的位置。
在步骤S103中,将第二相机旋转移动至聚集坐标对应的位置,并从第二相机中采集第二图像。
可以理解的是,将动态相机旋转移动至聚集坐标对应的位置;从动态相机中采集获取高分辨率的图像,其视场相对较小。
具体而言,(1)根据步骤S102所得到的聚焦坐标,使用云台相机协议将动态相机移动至目标位置。其中,云台相机协议,能够自动控制动态相机在二维平面内的旋转,包含但不限于派尔高协议、索尼VISCA协议。
(2)从动态相机中采集获取高分辨率图像。这张高分辨率图像内即含有目标的细节,可以用于实际的使用。
在步骤S104中,将第二图像与第一图像进行匹配,得到第二图像在第一图像中的位置,以判断第二相机旋转后的位置是否符合预设条件。
可以理解的是,将高分辨率图像与宽视场图像进行匹配,得到高分辨率图像在宽视场图像中的位置,以校验步骤S103中动态相机旋转后的位置是否符合步骤S102的计算结果。
在本发明的一个实施例中,预设条件为校验第二相机旋转后的位置是否与聚焦坐标一致。
具体而言,计算高分辨率图像在宽视场图像中的位置。由于步骤S102中标定的位置变换关系在实际应用中总是会有误差,且误差会随着相机的连续移动而逐渐放大,因此需要图像匹配方法来校正高分辨率图像在宽视场图像中的位置,即动态相机所瞄准的聚焦坐标在静态相机的视场中的位置。其中,图像匹配方法能够使动态相机实时追踪目标物体或区域的实际位置,匹配方法包含但不限于基于像素灰度的图像匹配方法、基于特征的图像匹配方法、基于神经网络的图像匹配方法。
在步骤S105中,在满足预设条件后,获取第一图像与实时跟踪目标物体或区域的高分辨率图像。
进一步地,循环执行步骤S101-S105,得到宽视场图像与实时跟踪目标物体或区域的高分辨率图像。具体地,判断是否结束拍摄,若是,则结束系统的运行;否则,执行步骤S101。通过步骤S101至步骤S105,即可使用两部相机实现目标的自适应智能识别与跟踪,同时完成目标的定位与细节的拍摄。其中,如图3所示,图3为某次获得的宽视场图像与高分辨率图像的样例测试图。
下面将通过以下具体实例来进行具体说明,但本发明并不局限于以下具体实例。
对于某个监控系统,通过自适应的宽视场高分辨率智能传感方法和系统来追踪某个运动中的人,按照步骤1至步骤7来进行,如图4所示,具体包括:
步骤1、从静态相机获取宽视场图像I1,图像I1覆盖尽可能广的范围,以保证运动中的人体不能逃脱其范围。
步骤2、从步骤1得到的图像I1中,检测出人体的存在,并识别出人体的位置,使用矩形方框将位置框出,再取矩形方框中心点坐标(x1,y1)来表征人体在静态相机中的位置。
步骤3、根据步骤2得到的坐标(x1,y1),计算人体在动态相机中位置。具体变换公式为:
x2=x1/kx+bx
y2=y1/ky+by
其中kx与ky分别表示水平放大倍数与竖直放大倍数,即动态相机与静态相机在水平方向上与竖直方向上的坐标间的放缩关系,由于动态相机的分辨率较高、焦距较大,kx与ky一般大于1;bx与by分别表示水平平移距离与竖直平移距离,即动态相机与静态相机的坐标轴原点的偏移关系,这取决于两部相机在实际场景中的摆放位置,需要预先标定。考虑到有kx、ky、bx与by共四个参数需要计算,而来自静态相机与动态相机中的一对对应坐标(x1,y1)和(x2,y2)能提供两个方程,因此预先标定两对来自静态相机与动态相机的对应坐标即可完成预先的标定工作。
步骤4、由步骤3中得到的坐标(x2,y2),使用派尔高等相机协议,将动态相机移动至坐标(x2,y2)所对应的实际方向上。
步骤5、从动态相机获取一帧高分辨率图像I2,此时图像I2理论上应包含待识别的人体目标,且在图像中占据较大的范围。
步骤6、计算高分辨率图像I2在宽视场图像I1中的位置。使用图像匹配算法,将图像I2与图像I1进行融合,但不需要得到最终的融合结果,只需要提取出图像I2在图像I1中的位置即可,取图像I2在图像I1中的中心点坐标(x′1,y′1),并与步骤2中得到的坐标(x1,y1)进行比较,用以纠正动态相机的准确程度,以及及时判断动态相机的实时位置。
步骤7、判断是否结束拍摄。若是,则结束所有步骤;否则,执行步骤1。
通过步骤1至步骤7,即可实现对实际场景的目标物体或区域的自适应智能识别与跟踪。
综上,本发明实施例通过静态相机与动态相机,分别进行宽视场与高分辨率图像的拍摄,再通过图像识别算法来实时寻找目标物体或区域的实际位置,并使用云台相机协议来跟踪目标物体或区域,及通过图像匹配算法实时校正动态相机的聚焦坐标。其中,图像识别方法负责在宽视场图像中识别出目标物体或区域的位置,以保证动态相机能够用精确定位到目标物体或区域;图像匹配方法负责校正高分辨率图像聚焦目标物体或区域的准确程度,通过将高分辨率图像与宽视场图像进行匹配,再与图像识别方法得到的目标位置进行对比,来对动态相机的聚焦位置进行校正;从而根据本发明实施例的方法,既能够动态地获取目标物体或区域的高分辨率图像,且易于硬件实现,对于实际应用具有重要意义。
根据本发明实施例提出的自适应的宽视场高分辨率智能传感方法,相较于传统均匀分布的相机阵列方法获取宽视场高分辨率图像,能够自适应地识别目标物体或区域,从而动态地获取目标物体或区域的高分辨率图像,减少了采集数据量,简化了硬件设计,利于通信传输,对于实际应用具有重要意义。
其次参照附图描述根据本发明实施例提出的自适应的宽视场高分辨率智能传感系统。
图5是本发明一个实施例的自适应的宽视场高分辨率智能传感系统的结构示意图
如图5所示,该自适应的宽视场高分辨率智能传感系统10包括:采集模块100、转换模块200、移动模块300、匹配模块400和获取模块500。
其中,采集模块100用于通过第一相机采集宽视场的第一图像,并从第一图像中识别目标物体或区域;转换模块200用于根据第二相机与第一相机的坐标转换关系将目标物体或区域在第一相机中的位置转化为在第二相机中的聚焦坐标;移动模块300用于将第二相机旋转移动至聚集坐标对应的位置,并从第二相机中采集第二图像;匹配模块400用于将第二图像与第一图像进行匹配,得到第二图像在第一图像中的位置,以判断第二相机旋转后的位置是否符合预设条件;获取模块500用于在满足预设条件后,获取第一图像与实时跟踪目标物体或区域的高分辨率图像。本发明实施例的系统10既能够动态地获取目标物体或区域的高分辨率图像,且易于硬件实现,对于实际应用具有重要意义。
进一步地,在本发明的一个实施例中,坐标转换关系的变换公式为:
y2=y1/ky+by
x2=x1/x+bx
其中,kx与ky分别表示水平放大倍数与竖直放大倍数,bx与by分别表示水平平移距离与竖直平移距离,(x1,y1)表示目标物体或区域在第一相机中的位置。
进一步地,在本发明的一个实施例中,预设条件为校验第二相机旋转后的位置是否与聚焦坐标一致。
进一步地,在本发明的一个实施例中,第一相机为静态相机,第二相机为动态相机。
需要说明的是,前述对自适应的宽视场高分辨率智能传感方法实施例的解释说明也适用于该实施例的自适应的宽视场高分辨率智能传感系统,此处不再赘述。
根据本发明实施例提出的自适应的宽视场高分辨率智能传感系统,相较于传统均匀分布的相机阵列方法获取宽视场高分辨率图像,能够自适应地识别目标物体或区域,从而动态地获取目标物体或区域的高分辨率图像,减少了采集数据量,简化了硬件设计,利于通信传输,对于实际应用具有重要意义。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (2)

1.一种自适应的宽视场高分辨率智能传感方法,其特征在于,包括以下步骤:
通过第一相机采集宽视场的第一图像,并通过图像识别方法从所述第一图像中识别目标物体或区域;
根据第二相机与第一相机的坐标转换关系将所述目标物体或区域在所述第一相机中的位置转化为在所述第二相机中的聚焦坐标;
将所述第二相机旋转移动至所述聚焦坐标对应的位置,并从所述第二相机中采集第二图像;
使用图像匹配算法将所述第二图像与所述第一图像进行匹配,得到所述第二图像在所述第一图像中的位置,以判断所述第二相机旋转后的位置是否符合预设条件;以及
在满足所述预设条件后,获取所述第一图像与实时跟踪目标物体或区域的高分辨率图像;
所述坐标转换关系的变换公式为:
y2=y1/ky+by
x2=x1/kx+bx
其中,kx与ky分别表示水平放大倍数与竖直放大倍数,bx与by分别表示水平平移距离与竖直平移距离,(x1,y1)表示所述目标物体或区域在所述第一相机中的位置,(x2,y2)表示所述目标物体或区域在所述第二相机中的聚焦坐标;
所述预设条件为校验所述第二相机旋转后的位置是否与所述聚焦坐标一致;
所述第一相机为静态相机,所述第二相机为动态相机。
2.一种自适应的宽视场高分辨率智能传感系统,其特征在于,包括:
采集模块,用于通过第一相机采集宽视场的第一图像,并通过图像识别方法从所述第一图像中识别目标物体或区域;
转换模块,用于根据第二相机与第一相机的坐标转换关系将所述目标物体或区域在所述第一相机中的位置转化为在所述第二相机中的聚焦坐标;
移动模块,用于将所述第二相机旋转移动至所述聚焦坐标对应的位置,并从所述第二相机中采集第二图像;
匹配模块,用于使用图像匹配算法将所述第二图像与所述第一图像进行匹配,得到所述第二图像在所述第一图像中的位置,以判断所述第二相机旋转后的位置是否符合预设条件;以及
获取模块,用于在满足所述预设条件后,获取所述第一图像与实时跟踪目标物体或区域的高分辨率图像;
所述坐标转换关系的变换公式为:
y2=y1/ky+by
x2=x1/kx+bx
其中,kx与ky分别表示水平放大倍数与竖直放大倍数,bx与by分别表示水平平移距离与竖直平移距离,(x1,y1)表示所述目标物体或区域在所述第一相机中的位置,(x2,y2)表示所述目标物体或区域在所述第二相机中的聚焦坐标;
所述预设条件为校验所述第二相机旋转后的位置是否与所述聚焦坐标一致;
所述第一相机为静态相机,所述第二相机为动态相机。
CN201911184686.3A 2019-11-27 2019-11-27 自适应的宽视场高分辨率智能传感方法和系统 Active CN110991306B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911184686.3A CN110991306B (zh) 2019-11-27 2019-11-27 自适应的宽视场高分辨率智能传感方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911184686.3A CN110991306B (zh) 2019-11-27 2019-11-27 自适应的宽视场高分辨率智能传感方法和系统

Publications (2)

Publication Number Publication Date
CN110991306A CN110991306A (zh) 2020-04-10
CN110991306B true CN110991306B (zh) 2024-03-08

Family

ID=70087546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911184686.3A Active CN110991306B (zh) 2019-11-27 2019-11-27 自适应的宽视场高分辨率智能传感方法和系统

Country Status (1)

Country Link
CN (1) CN110991306B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232278B (zh) * 2020-11-04 2024-02-20 上海菲戈恩微电子科技有限公司 一种3d结构光自适应精度实现方法及系统
CN113899312B (zh) * 2021-09-30 2022-06-21 苏州天准科技股份有限公司 一种影像测量设备及影像测量方法
CN115150552A (zh) * 2022-06-23 2022-10-04 中国华能集团清洁能源技术研究院有限公司 一种基于深度学习自适应的施工人员安全监测方法、系统及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
CN101699862A (zh) * 2009-11-16 2010-04-28 上海交通大学 Ptz摄像机获取感兴趣区域高分辨率图像的方法
CN103024350A (zh) * 2012-11-13 2013-04-03 清华大学 一种双目ptz视觉系统的主从跟踪方法及应用该方法的系统
CN105338248A (zh) * 2015-11-20 2016-02-17 成都因纳伟盛科技股份有限公司 智能多目标主动跟踪监控方法及系统
CN108010089A (zh) * 2017-12-22 2018-05-08 中国人民解放军火箭军工程大学 一种基于双目可运动摄像机的高分辨率图像获取方法
CN108347577A (zh) * 2018-02-05 2018-07-31 清华-伯克利深圳学院筹备办公室 一种成像系统和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110128385A1 (en) * 2009-12-02 2011-06-02 Honeywell International Inc. Multi camera registration for high resolution target capture

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
CN101699862A (zh) * 2009-11-16 2010-04-28 上海交通大学 Ptz摄像机获取感兴趣区域高分辨率图像的方法
CN103024350A (zh) * 2012-11-13 2013-04-03 清华大学 一种双目ptz视觉系统的主从跟踪方法及应用该方法的系统
CN105338248A (zh) * 2015-11-20 2016-02-17 成都因纳伟盛科技股份有限公司 智能多目标主动跟踪监控方法及系统
CN108010089A (zh) * 2017-12-22 2018-05-08 中国人民解放军火箭军工程大学 一种基于双目可运动摄像机的高分辨率图像获取方法
CN108347577A (zh) * 2018-02-05 2018-07-31 清华-伯克利深圳学院筹备办公室 一种成像系统和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Fast image super-resolution for a dual-resolution camera;Kuo Chen etc.;Springer;20151231;全文 *
一种基于阵列相机的超分辨率重建方法;邹建成等;北方工业大学学报;20171030;全文 *

Also Published As

Publication number Publication date
CN110991306A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN107471218B (zh) 一种基于多目视觉的双臂机器人手眼协调方法
CN110991306B (zh) 自适应的宽视场高分辨率智能传感方法和系统
CN109887040B (zh) 面向视频监控的运动目标主动感知方法及系统
JP4825980B2 (ja) 魚眼カメラの校正方法。
CN100369487C (zh) 物体检测装置、物体检测服务器以及物体检测方法
CN103686131A (zh) 使用图像的3d信息的监控设备和系统以及监控方法
CN110910460B (zh) 一种获取位置信息的方法、装置及标定设备
CN111079600A (zh) 多摄像头的行人识别方法及识别系统
CN103649680A (zh) 用于3d扫描的传感器定位
CN114905512B (zh) 一种智能巡检机器人全景追踪及避障方法及系统
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
CN112053391B (zh) 一种基于动态三维模型的监控预警方法、系统及存储介质
CN112207821B (zh) 视觉机器人的目标搜寻方法及机器人
CN112949478A (zh) 基于云台相机的目标检测方法
CN113329179B (zh) 拍摄对位方法、装置、设备及存储介质
CN111524174B (zh) 一种动平台动目标双目视觉三维构建方法
CN114022560A (zh) 标定方法及相关装置、设备
CN112132900B (zh) 一种视觉重定位方法及系统
CN112634379A (zh) 一种基于混合视域光场的三维定位测量方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
CN115457176A (zh) 一种图像生成方法、装置、电子设备及存储介质
CN110544278A (zh) 刚体运动捕捉方法及装置、agv位姿捕捉系统
JP2019109200A (ja) 校正用データ生成装置、校正用データ生成方法、キャリブレーションシステム、及び制御プログラム
CN107862703B (zh) 一种多目联动ptz跟踪方法
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant