CN113538578B - 目标定位方法、装置、计算机设备和存储介质 - Google Patents

目标定位方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN113538578B
CN113538578B CN202110693796.3A CN202110693796A CN113538578B CN 113538578 B CN113538578 B CN 113538578B CN 202110693796 A CN202110693796 A CN 202110693796A CN 113538578 B CN113538578 B CN 113538578B
Authority
CN
China
Prior art keywords
target
perspective transformation
point
top view
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110693796.3A
Other languages
English (en)
Other versions
CN113538578A (zh
Inventor
戴海峰
黄华
林尔彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hengrui Chongqing Artificial Intelligence Technology Research Institute Co ltd
Original Assignee
Hengrui Chongqing Artificial Intelligence Technology Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hengrui Chongqing Artificial Intelligence Technology Research Institute Co ltd filed Critical Hengrui Chongqing Artificial Intelligence Technology Research Institute Co ltd
Priority to CN202110693796.3A priority Critical patent/CN113538578B/zh
Publication of CN113538578A publication Critical patent/CN113538578A/zh
Application granted granted Critical
Publication of CN113538578B publication Critical patent/CN113538578B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像处理技术领域,具体提供一种目标定位方法、装置、计算机设备和存储介质,旨在解决单个摄像机场景中,目标被部分遮挡时,如何实现快速、准确定位的问题。为此目的,本发明的方法包括:获取待定位目标图像,并对目标图像进行透视变换得到目标透视变换俯视图;根据第一特征区域和第二特征区域确定目标在图像透视变换俯视图中的位置,从而得到目标在俯视平面图中的位置。应用本发明的方法,只需通过标定物得到透视变换矩阵,根据图像中预设的目标特征确定目标在透视变换俯视图中的位置,从而实现目标定位,而不需要知道摄像机参数、准确安装位置,安装实施十分简便,因此可以大批量、低成本的实现现有视频监控系统的改造升级。

Description

目标定位方法、装置、计算机设备和存储介质
技术领域
本发明属于图像处理技术领域,具体提供一种目标定位方法、装置、计算机设备和存储介质。
背景技术
视频监控系统已被广泛安装在街面道路、各类营业场所、银行网点、机场码头等公共场所,并且通常是一台摄像机负责监控一个区域。在监控报警应用中,希望可以根据单台摄像机的实时视频图像,自动地记录并分析人员位置和运动轨迹,实现敏感区域闯入报警,预测人员危险行为等功能,以上几种增值功能都需要从单台摄像机的图像中确定人员的位置。
传统的单目摄像机实时视觉定位方法,通常需要知道摄像机的参数,摄像机的位置,再根据内参矩阵、外参矩阵、变换矩阵等模型,计算得到视频图像中的目标在实际场景中的位置。但是,对于大量已安装摄像机的场所,所使用的摄像机型号众多,参数性能不尽相同,若想大规模地实现人员自动定位等增值功能,其工作量巨大。并且,对于监控视频中的人员,呈现在视频图像中的可能是全部人体,也可能是人体的一部分,如何根据部分人体特征,准确地确定人员的位置也是需要考虑的问题。
相应地,本领域需要一种新的方案来解决上述问题。
发明内容
为了解决现有技术中的上述问题,即为了解决在不需要知道监控摄像机参数和准确安装位置的情况下,如何根据监控图像中的目标特征,实现快速、准确定位的问题。在第一方面,本发明提出了一种目标定位方法,所述方法包括:
获取待定位目标图像;
检测所述待定位目标图像中的目标的第一特征区域和第二特征区域,其中,所述第一特征区域为所述目标的底部区域,所述第二特征区域为所述目标的顶部区域;
对所述待定位目标图像进行透视变换,得到目标透视变换俯视图;
根据所述目标透视变换俯视图中的所述第一特征区域和/或所述第二特征区域,确定所述目标透视变换俯视图中的定位点;
根据所述定位点在所述目标透视变换俯视图中的位置,确定所述待定位目标在空间俯视平面图中的位置。
在上述目标定位方法的一个实施方式中,“根据所述目标透视变换俯视图中的所述第一特征区域和/或所述第二特征区域,确定所述目标透视变换俯视图中的定位点”的步骤具体包括:
当所述目标透视变换俯视图中包含所述第一特征区域时,所述定位点为所述第一特征区域;并且/或者
当所述目标透视变换俯视图中只包含所述第二特征区域时,根据所述第二特征区域得到目标信息,并根据所述目标信息确定目标高度;
根据所述目标高度、投影点和所述投影点的虚拟高度,确定所述目标透视变换俯视图中的所述定位点;
其中,所述投影点和所述投影点的虚拟高度由包含标定物的标定图像所确定,所述标定物为高度已知的人体和/或物体,所述标定物的数量不少于两个。
在上述目标定位方法的一个实施方式中,所述标定物包括第一标定物和第二标定物,所述投影点通过下列方式确定:
对所述标定图像进行透视变换,得到标定透视变换俯视图;
在所述标定透视变换俯视图中,分别用直线连接所述第一标定物的顶部和底部以及所述第二标定物的顶部和底部,两条直线的交点为所述投影点。
在上述目标定位方法的一个实施方式中,所述投影点的虚拟高度的计算方法为:
其中,H2为所述投影点的虚拟高度,H1为所述第一标定物或所述第二标定物的实际高度,L1为在所述标定透视变换俯视图中所述第一标定物或所述第二标定物的图像的顶部到底部之间的距离,L2为在所述标定透视变换俯视图中所述投影点到所述第一标定物或所述第二标定物的图像的顶部之间的距离。
在上述目标定位方法的一个实施方式中,在所述目标透视变换俯视图中,“根据所述目标高度、投影点和所述投影点的虚拟高度,确定所述目标透视变换俯视图中的所述定位点”的步骤具体包括:
计算所述投影点到所述第二特征区域的距离,记为L2′;
计算所述定位点到所述第二特征区域的距离,记为L1′,具体计算方法为:
根据所述L1′、所述投影点和所述第二特征区域确定所述定位点;
其中,H1′为所述目标高度,所述定位点在由所述投影点和所述第二特征区域所确定的直线上,且在所述投影点和所述第二特征区域之间。
在上述目标定位方法的一个实施方式中,所述待定位目标是人体,所述第一特征区域是人体的脚部,所述第二特征区域是人体的脸部,“根据所述第二特征区域得到目标信息,并根据所述目标信息确定目标高度”的步骤具体包括:
根据所述第二特征区域得到人脸特征信息;
将所述人脸特征信息与人脸数据库进行比对以确定人员身份,并根据所述人员身份确定预留的身高信息;并且/或者
根据所述人脸特征信息预测人员类别,所述人员类别对应预设的身高信息。
在第二方面,本发明提出了一种目标定位装置,所述装置包括:
图像获取模块,所述图像获取模块被配置成获取待定位目标图像;
图像处理模块,所述图像处理模块被配置成检测所述待定位目标图像中的目标的第一特征区域和第二特征区域,其中,所述第一特征区域为所述目标的底部区域,所述第二特征区域为所述目标的顶部区域;
定位点确定模块,所述定位点确定模块具体执行以下操作:
对所述待定位目标图像进行透视变换,得到目标透视变换俯视图;
根据所述目标透视变换俯视图中的所述第一特征区域和/或所述第二特征区域,确定所述目标透视变换俯视图中的定位点;
位置判断模块,所述位置判断模块被配置成根据所述定位点在所述目标透视变换俯视图中的位置,确定所述待定位目标在空间俯视平面图中的位置。
在上述目标定位装置的一个实施方式中,所述定位点确定模块具体执行以下操作:
当所述目标透视变换俯视图中包含所述第一特征区域时,所述定位点为所述第一特征区域;并且/或者
当所述目标透视变换俯视图中只包含所述第二特征区域时,根据所述第二特征区域得到目标信息,并根据所述目标信息确定目标高度;
根据所述目标高度、投影点和所述投影点的虚拟高度,确定所述目标透视变换俯视图中的所述定位点;
其中,所述投影点和所述投影点的虚拟高度由包含标定物的标定图像所确定,所述标定物为高度已知的人体和/或物体,所述标定物的数量不少于两个。
在上述目标定位装置的一个实施方式中,所述标定物包括第一标定物和第二标定物,所述定位点确定模块具体执行以下操作:
对所述标定图像进行透视变换,得到标定透视变换俯视图;
在所述标定透视变换俯视图中,分别用直线连接所述第一标定物的顶部和底部以及所述第二标定物的顶部和底部,两条直线的交点为所述投影点。
在上述目标定位装置的一个实施方式中,所述定位点确定模块具体执行以下操作:
计算所述投影点的虚拟高度;
所述投影点的虚拟高度的计算方法为:
其中,H2为所述投影点的虚拟高度,H1为所述第一标定物或所述第二标定物的实际高度,L1为在所述标定透视变换俯视图中所述第一标定物或所述第二标定物的图像的顶部到底部之间的距离,L2为在所述标定透视变换俯视图中所述投影点到所述第一标定物或所述第二标定物的图像的顶部之间的距离。
在上述目标定位装置的一个实施方式中,在所述目标透视变换俯视图中,所述定位点确定模块具体执行以下操作:
计算所述投影点到所述第二特征区域的距离,记为L2′;
计算所述定位点到所述第二特征区域的距离,记为L1′,具体计算方法为:
根据所述L1′、所述投影点和所述第二特征区域确定所述定位点;
其中,H1′为所述目标高度,所述定位点在由所述投影点和所述第二特征区域所确定的直线上,且在所述投影点和所述第二特征区域之间。
在上述目标定位装置的一个实施方式中,其特征在于,所述待定位目标是人体,所述第一特征区域是人体的脚部,所述第二特征区域是人体的脸部,所述定位点确定模块具体执行以下操作:
根据所述第二特征区域得到人脸特征信息;
将所述人脸特征信息与人脸数据库进行比对以确定人员身份,并根据所述人员身份确定预留的身高信息;并且/或者
根据所述人脸特征信息预测人员类别,所述人员类别对应预设的身高信息。
在第三方面,本发明提出了一种计算机设备,包括处理器和存储装置,所述存储装置适于存储多条程序代码,其特征在于,所述程序代码适于由所述处理器加载并运行以执行上述任一项方案所述的目标定位方法。
在第四方面,本发明提出了一种存储介质,所述存储介质适于存储多条程序代码,所述程序代码适于由处理器加载并运行以执行上述任一项方案所述的目标定位方法。
本领域技术人员能够理解的是,根据本发明的目标定位的技术方案,在单摄像机监控的场景中,能够在不需要获取摄像机的型号参数,摄像机准确安装位置的情况下,通过测量标定物在实际空间中的位置和摄像机图像中的位置,从而获取图像透视变换所需的透视变换矩阵;此时,只要图像中包含部分预设的目标特征,即可得到目标在透视变换俯视图中的位置,实现目标的准确定位。应用本发明的方法,可以快速、低成本地进行安装部署,实现目标定位、轨迹跟踪等视频监控的增值功能。
附图说明
下面参照附图来描述本发明的具体实施方式,附图中:
图1是本发明的实施例的透视变换俯视图中投影点位置的示意图。
图2是本发明的实施例的投影点的虚拟高度和目标高度之间关系的示意图。
图3是本发明的实施例的主要步骤流程图。
图4是本发明的实施例的根据第二特征区域确定定位点的主要步骤流程图。
图5是本发明的目标定位装置的结构示例图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图,对本发明实施例的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。例如,尽管本发明的实施例是通过人体定位来描述的,但是,本发明的保护范围不应受此限制,而是应该涵盖其他任何采用了本发明原理的情形。
在实施目标定位之前,首先需要做如下初始化工作:
获取图像透视变换所需的透视变换矩阵;
获取目标透视变换俯视图中的摄像机的投影点和该投影点的虚拟高度。
透视变换矩阵的获取方法,本发明不做限定。作为示例,可使用OpenCV的getPerspectiveTransform函数进行计算,此时只需要将一个已知尺寸的矩形标定物放置在摄像机画面中,确定该矩形标定物四个顶点在摄像机图像平面中的坐标,再根据这四个顶点在空间俯视图中的坐标,即可得到透视变换矩阵M。
需要说明的是,在实际应用中,计算机展示给用户的通常是目标在空间俯视平面图中的位置,因此目标在实际空间中的位置与目标在空间俯视平面图中的位置一一对应。
首先参阅图1,图1是本发明的实施例的透视变换俯视图中投影点位置的示意图。在摄像机监控区域内,放置高度已知的第一标定物11和第二标定物12,并且第一标定物11和第二标定物11的顶部和底部在监控图像中均可见。标定物既可以是人体也可以是其他物体,图1中第一标定物11为人体,第二标定物12为一个衣帽架。
通过摄像机获取包含有第一标定物11和第二标定物12的标定图像1,并使用已经得到的透视变换矩阵对标定图像1进行透视变换,得到标定透视变换俯视图2。
连接第一标定物11的底部A和顶部B,得到直线AB;连接第二标定物12的底部C和顶部D,得到直线CD;直线AB和直线CD的交点P即为投影点。
继续阅读图2,以第一标定物11为例,说明投影点P的虚拟高度为H2的计算方法。H1为第一标定物11的实际高度;L1为H1相对于投影点P在标定透视变换俯视图中的投影,即第一标定物底部A和顶部B之间的距离;L2为投影点P到第一标定物11的顶部B的距离。根据三角形相似原理,投影点的虚拟高度H2的计算方法为:
由于H1、L1和L2均已知,因此可以计算得到该摄像机在透视变换空间中投影点的虚拟高度H2。
需要说明的是,投影点P的虚拟高度的计算,也可以根据第二标定物12进行计算,此时公式1中的相关数据应均为第二标定物12相关的数据,即H1为第二标定物12的实际高度,L1为标定透视变换俯视图中第二标定物底部C和顶部D之间的距离,L2为投影点P到第二标定物12的顶部D的距离。
需要说明的是,在目标定位中,通常使用位置固定的摄像机获取待定位目标图像,且摄像机的参数固定,处理图形进行透视变换时使用相同的透视变换矩阵M,因此,标定透视变换俯视图中的投影点P和投影点P的虚拟高度H2也是目标透视变换俯视图中的投影点和投影点的虚拟高度。
在本实施例中,优选地,标定透视变换俯视图和目标透视变换俯视图均使用像素坐标,因此,前述的两点之间的距离即图像中两个像素点之间的距离,平面两点之间的距离计算为本领域公知的技术,在这里不做赘述。
接下来,根据标定透视变换俯视图,建立用于目标定位的目标透视变换俯视图坐标系。在本实施例中,坐标系为平面直角坐标系,如图1所示,坐标系的X轴方向对应图像像素的行方向,坐标系的Y轴方向对应图像像素的列方向,坐标系原点O通常选择实际空间中在目标透视变换俯视图中可见的任意一点,作为目标透视变换俯视图坐标系的原点。
根据第一标定物11或第二标定物12的底部区域与原点O的在实际空间中的位置关系,确定目标透视变换俯视图坐标系中X轴方向和Y轴方向的每个像素所反映的实际空间中的距离。在本实施例中,如图1所示,已知第一标定物11的脚部区域A在标定透视变换俯视图的位置坐标为(XA,YA),在实际空间中,以原点O在实际空间中所对应的位置为原点,以对应X轴和Y轴在实际空间的直线为实际空间坐标系的两个坐标轴,测量实际空间中A点的坐标为(X′A,Y′A),
则X轴方向,像素与实际距离的对应关系为/像素;
Y轴方向,像素与实际距离的对应关系为/像素;
因为目标透视变换俯视图反映的是与实际空间的位置关系,并且图像中X轴方向和Y轴方向的像素间距均相同,因此即目标透视变换俯视图中X轴方向和Y轴方向每个像素间距与实际空间的距离的对应关系均相同。
接下来参阅图3,图3是本发明的实施例的主要步骤流程图,如图3所示,本发明的目标定位方法包括:
步骤S301:获取待定位目标图像;
步骤S302:检测所述待定位目标图像中的目标的第一特征区域和第二特征区域,其中,所述第一特征区域为所述目标的底部区域,所述第二特征区域为所述目标的顶部区域;
步骤S303:对所述待定位目标图像进行透视变换,得到目标透视变换俯视图;
步骤S304:根据所述目标透视变换俯视图中的所述第一特征区域和/或所述第二特征区域,确定所述目标透视变换俯视图中的定位点;
步骤S305:根据所述定位点在所述目标透视变换俯视图中的位置,确定所述待定位目标在空间俯视平面图中的位置。
在步骤S301中,待定位目标图像来自于监控视频流中截取的图像。
空间位置通常是目标与地面相接触的位置,在本实施例中,待定位的目标为人体,因此选择人体的脚部作为第一特征区域;而人脸包含丰富的目标信息,根据目标信息可以获取高度信息,因此选择人体的脸部作为第二特征区域。
在步骤S302中,用于检测图像中第一特征区域和第二特征区域的方法,本发明不做限定。作为示例,可采用VGGNet、RepVGG等网络模型实现。本领域技术人员可根据实际情况选择合适的方法实现。
接下来阅读步骤S303,对从监控视频流中截取的待定位目标图像使用透视变换矩阵M进行透视变化,得到目标定位所需的目标透视变换俯视图。
在步骤S304中,根据图像检测的结果,确定目标透视变换俯视图中的定位点。在本实施例中,目标为人体,第一特征区域为人体的脚部区域,第二特征区域为人体的脸部区域,确定人体在实际空间中的位置通常是确定人体的脚部区域在目标透视变换俯视图中的位置。
因此,当待定位目标图像中同时包含人体的脚部区域和脸部区域时,或者只包含脚部区域时,选择脚部区域为定位点所在的区域。
当待定位目标图像中只包含第二特征区域(脸部区域)时,由第二特征区域确定定位点的方法请参阅图4。如图4所示,本发明的实施例的通过第二特征区域确定定位点的步骤具体包括:
步骤S401:对第二特征区域进行人脸识别,得到人员信息;
步骤S402:根据人员信息,得到人员的目标高度;
步骤S403:根据目标高度、目标透视变换俯视图中的投影点和该投影点的虚拟高度,确定定位点。
步骤S401和步骤S402中,在一个实施方式中,将脸部特征与人脸数据库进行比对,以确定人员身份,并从数据库中预留的人员详细信息,直接得到人员身高数据。人脸比对方法为本领域公知的技术,本发明不做限定,所为示例,可采用1:1或1:N的方法进行对比。本领域技术人员可根据实际情况选择合适的方法实现。
步骤S401和步骤S402中,在另一个实施方式中,无法获得人员的准确信息,此时可根据脸部特征,判断人员类别。例如,人员类别可分为成年男性、成年女性、男童、女童等,并根据预设的人员类别身高参考值,得到定位所需的预测高度。作为示例,成年男性的身高参考值为175厘米,当人员类别识别结果为成年男性时,预测目标高度为175厘米。
在步骤S403中,根据目标透视变换俯视图可知投影点到所述第二特征区域的距离L2′,通过步骤S401和步骤S402得到的目标高度H1′,根据公式1得到的该应用场景下投影点的虚拟高度H2,根据公式2
可以计算得到定位点到第二特征区域的距离L1′,由图2和公式1可知,定位点为目标的第一特征区域,在本实施例中,也就是人体的脚部区域。因此,定位点在投影点与第二特征区域所确定的直线上,并且定位点在投影点与第二特征区域之间。
计算得到L1′后,可根据投影点和第二特征区域位置求解定位点,该方法可以看成是,已知直线公式和直线上一点,根据给定的直线上的距离求另一点坐标的问题。
作为示例,投影点记作P,第二特征区域位置记作M(x1,y1),定位点记作N(x2,y2),由投影点P和第二特征区域位置M所确定的直线方程为:y=kx+m,根据公式3即可得到定位点N的坐标(x2,y2),
并且,已知定位点位于投影点P和第二特征区域位置M之间,因此可得唯一的N点坐标。
根据定位点N在目标透视变换俯视图坐标系中的坐标N(x2,y2),再根据像素与空间实际距离的对应关系,即可得到目标在实际空间中的位置。作为示例,
x2=20,y2=30,
像素与空间实际距离的对应关系为2cm/像素;
在实际空间中,以原点O在实际空间中所对应的位置为原点,以X轴和Y轴对应在实际空间的直线为实际空间坐标系的两个坐标轴,X′轴和Y′轴,则目标在实际空间中的坐标为X′N=2*20=40cm,Y′N=2*30=60cm。
在实际使用中,目标位置通常以空间俯视平面图的形式呈现给用户。有时空间俯视平面图的坐标原点会和目标透视变换俯视图中所选取的原点不一致,此时,只需要测量实际空间中两个原点在X轴和Y轴的方向上的位置差值ΔX和ΔY,在得到目标在目标透视变换俯视图中的位置坐标后,通过加上或减去差值ΔX或ΔY,即可得到目标在空间俯视平面图中的位置,实现目标定位。
需要说明的是,第一特征区域和/或第二特征区域为一个图像区域,可能包含有多个像素点,因此在图像处理和位置计算中,可将特征区域看作为一个像素点,具体处理方法,本发明不做限定。作为示例,处理方法可采用计算区域几何中心的方法。
需要说明的是,本发明提出的,通过第二特征区域进行目标定位的方法,大大扩展了通过视频进行目标定位的区域范围。当人体的部分区域处于监控的盲区或被物体遮挡,只要监控视频中存在人体的第一特征区域和/或第二特征区域,即可以使用本方法实现目标定位。
进一步,本发明还提供了一种目标定位装置。如图5所示,本发明的目标定位装置5主要包括图像获取模块51、图像处理模块52、定位点确定模块53、位置判断模块54。
图像获取模块51被配置成执行步骤S301的操作。图像处理模块52被配置成执行步骤S302中的操作。定位点确定模块53被配置成执行步骤S303、步骤S304、步骤S401、步骤S402中的操作。位置判断模块54被配置成执行步骤S305中的操作。
进一步,本发明还提供了一种计算机设备。在根据本发明的一个计算机设备包括处理器和存储装置,存储装置可以被配置成存储并执行上述方法实施例的目标定位方法的程序,处理器可以被配置成用于执行存储装置中的程序,该程序包括但不限于执行上述方法实施例的目标定位方法的程序。为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该目标定位设备可以是包括各种电子设备形成的控制装置设备。
进一步,本发明还提供了一种存储介质。根据本发明的存储介质可以被配置成存储执行上述方法实施例的目标定位方法的程序,该程序可以由处理器加载并运行来实现上述目标定位方法的方法。为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该存储介质可以是包括各种电子设备形成的存储装置设备,可选地,本发明实施例中存储介质是非暂时性的计算机可读存储介质。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等序数词仅用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。应该理解这样使用的数据在适当的情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
需要说明的是,在本申请的描述中,术语“A和/或B”表示所有可能的A与B的组合,比如只是A、只是B或者A和B。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (12)

1.一种目标定位方法,其特征在于,所述方法包括:
获取待定位目标图像;
检测所述待定位目标图像中的目标的第一特征区域和第二特征区域,其中,所述第一特征区域为所述目标的底部区域,所述第二特征区域为所述目标的顶部区域;
对所述待定位目标图像进行透视变换,得到目标透视变换俯视图;
根据所述目标透视变换俯视图中的所述第一特征区域和/或所述第二特征区域,确定所述目标透视变换俯视图中的定位点;
根据所述定位点在所述目标透视变换俯视图中的位置,确定所述待定位目标在空间俯视平面图中的位置;
“根据所述目标透视变换俯视图中的所述第一特征区域和/或所述第二特征区域,确定所述目标透视变换俯视图中的定位点”的步骤具体包括:
当所述目标透视变换俯视图中包含所述第一特征区域时,所述定位点为所述第一特征区域的几何中心;并且/或者
当所述目标透视变换俯视图中只包含所述第二特征区域时,根据所述第二特征区域得到目标信息,并根据所述目标信息确定目标高度,所述目标信息包括人员身份、人员类别中的至少一种;
根据所述目标高度、投影点和所述投影点的虚拟高度,确定所述目标透视变换俯视图中的所述定位点;
其中,所述投影点和所述投影点的虚拟高度由包含标定物的标定图像所确定,所述标定物为高度已知的人体和/或物体,所述标定物的数量不少于两个。
2.根据权利要求1所述的目标定位方法,其特征在于,所述标定物包括第一标定物和第二标定物,所述投影点通过下列方式确定:
对所述标定图像进行透视变换,得到标定透视变换俯视图;
在所述标定透视变换俯视图中,分别用直线连接所述第一标定物的顶部和底部以及所述第二标定物的顶部和底部,两条直线的交点为所述投影点。
3.根据权利要求2所述的目标定位方法,其特征在于,所述投影点的虚拟高度的计算方法为:
其中,H2为所述投影点的虚拟高度,H1为所述第一标定物或所述第二标定物的实际高度,L1为在所述标定透视变换俯视图中所述第一标定物或所述第二标定物的图像的顶部到底部之间的距离,L2为在所述标定透视变换俯视图中所述投影点到所述第一标定物或所述第二标定物的图像的顶部之间的距离。
4.根据权利要求3所述的目标定位方法,其特征在于,在所述目标透视变换俯视图中,“根据所述目标高度、投影点和所述投影点的虚拟高度,确定所述目标透视变换俯视图中的所述定位点”的步骤具体包括:
计算所述投影点到所述第二特征区域的距离,记为L2′;
计算所述定位点到所述第二特征区域的距离,记为L1′,具体计算方法为:
根据所述L1′、所述投影点和所述第二特征区域确定所述定位点;
其中,H1′为所述目标高度,所述定位点在由所述投影点和所述第二特征区域所确定的直线上,且在所述投影点和所述第二特征区域之间。
5.根据权利要求1所述的目标定位方法,其特征在于,所述待定位目标是人体,所述第一特征区域是人体的脚部,所述第二特征区域是人体的脸部,“根据所述第二特征区域得到目标信息,并根据所述目标信息确定目标高度”的步骤具体包括:
根据所述第二特征区域得到人脸特征信息;
将所述人脸特征信息与人脸数据库进行比对以确定所述人员身份,并根据所述人员身份确定预留的身高信息;并且/或者
根据所述人脸特征信息预测所述人员类别,所述人员类别对应预设的身高信息。
6.一种目标定位装置,其特征在于,所述装置包括:
图像获取模块,所述图像获取模块被配置成获取待定位目标图像;
图像处理模块,所述图像处理模块被配置成检测所述待定位目标图像中的目标的第一特征区域和第二特征区域,其中,所述第一特征区域为所述目标的底部区域,所述第二特征区域为所述目标的顶部区域;
定位点确定模块,所述定位点确定模块具体执行以下操作:
对所述待定位目标图像进行透视变换,得到目标透视变换俯视图;
根据所述目标透视变换俯视图中的所述第一特征区域和/或所述第二特征区域,确定所述目标透视变换俯视图中的定位点;
在确定所述目标透视变换俯视图中的定位点时,所述定位点确定模块还具体执行以下操作:
当所述目标透视变换俯视图中包含所述第一特征区域时,所述定位点为所述第一特征区域的几何中心;并且/或者
当所述目标透视变换俯视图中只包含所述第二特征区域时,根据所述第二特征区域得到目标信息,并根据所述目标信息确定目标高度,所述目标信息包括人员身份、人员类别中的至少一种;
根据所述目标高度、投影点和所述投影点的虚拟高度,确定所述目标透视变换俯视图中的所述定位点;
其中,所述投影点和所述投影点的虚拟高度由包含标定物的标定图像所确定,所述标定物为高度已知的人体和/或物体,所述标定物的数量不少于两个;
位置判断模块,所述位置判断模块被配置成根据所述定位点在所述目标透视变换俯视图中的位置,确定所述待定位目标在空间俯视平面图中的位置。
7.根据权利要求6所述的目标定位装置,其特征在于,所述标定物包括第一标定物和第二标定物,所述定位点确定通过下列方式确定所述投影点:
对所述标定图像进行透视变换,得到标定透视变换俯视图;
在所述标定透视变换俯视图中,分别用直线连接所述第一标定物的顶部和底部以及所述第二标定物的顶部和底部,两条直线的交点为所述投影点。
8.根据权利要求7所述的目标定位装置,其特征在于,所述定位点确定模块通过下列等式计算所述投影点的虚拟高度:
其中,H2为所述投影点的虚拟高度,H1为所述第一标定物或所述第二标定物的实际高度,L1为在所述标定透视变换俯视图中所述第一标定物或所述第二标定物的图像的顶部到底部之间的距离,L2为在所述标定透视变换俯视图中所述投影点到所述第一标定物或所述第二标定物的图像的顶部之间的距离。
9.根据权利要求8所述的目标定位装置,其特征在于,在确定所述目标透视变换俯视图中的所述定位点时,所述定位点确定模块具体执行以下操作:
计算所述投影点到所述第二特征区域的距离,记为L2′;
计算所述定位点到所述第二特征区域的距离,记为L1′,具体计算方法为:
根据所述L1′、所述投影点和所述第二特征区域确定所述定位点;
其中,H1′为所述目标高度,所述定位点在由所述投影点和所述第二特征区域所确定的直线上,且在所述投影点和所述第二特征区域之间。
10.根据权利要求6所述的目标定位装置,其特征在于,所述待定位目标是人体,所述第一特征区域是人体的脚部,所述第二特征区域是人体的脸部,所述定位点确定模块具体执行以下操作:
根据所述第二特征区域得到人脸特征信息;
将所述人脸特征信息与人脸数据库进行比对以确定所述人员身份,并根据所述人员身份确定预留的身高信息;并且/或者
根据所述人脸特征信息预测所述人员类别,所述人员类别对应预设的身高信息。
11.一种计算机设备,所述计算机设备包括处理器和存储装置,所述存储装置适于存储多条程序代码,其特征在于,所述程序代码适于由所述处理器加载并运行以执行权利要求1至5中任一项所述的目标定位方法。
12.一种存储介质,所述存储介质适于存储多条程序代码,其特征在于,所述程序代码适于由处理器加载并运行以执行权利要求1至5中任一项所述的目标定位方法。
CN202110693796.3A 2021-06-22 2021-06-22 目标定位方法、装置、计算机设备和存储介质 Active CN113538578B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110693796.3A CN113538578B (zh) 2021-06-22 2021-06-22 目标定位方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110693796.3A CN113538578B (zh) 2021-06-22 2021-06-22 目标定位方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN113538578A CN113538578A (zh) 2021-10-22
CN113538578B true CN113538578B (zh) 2023-07-25

Family

ID=78096456

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110693796.3A Active CN113538578B (zh) 2021-06-22 2021-06-22 目标定位方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN113538578B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101916437A (zh) * 2010-06-18 2010-12-15 中国科学院计算技术研究所 一种基于多视觉信息的目标定位方法和系统
WO2019202138A1 (en) * 2018-04-20 2019-10-24 Barco N.V. Method and apparatus for perspective adjustment of images for a user at different positions
CN112017302A (zh) * 2020-08-29 2020-12-01 南京翱翔智能制造科技有限公司 基于cad模型的投影标记和机器视觉的实时注册方法
CN112929651A (zh) * 2021-01-25 2021-06-08 北京信息科技大学 一种显示方法、装置、电子设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898266B2 (en) * 2000-11-13 2005-05-24 Digitome Corporation 3D projection method
WO2009006605A2 (en) * 2007-07-03 2009-01-08 Pivotal Vision, Llc Motion-validating remote monitoring system
CN100513997C (zh) * 2007-10-15 2009-07-15 清华大学 一种多视角运动目标检测、定位与对应方法
CN103226838A (zh) * 2013-04-10 2013-07-31 福州林景行信息技术有限公司 地理场景中移动监控目标的实时空间定位方法
DE102015104065A1 (de) * 2015-03-18 2016-09-22 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Position eines Objekts in einem dreidimensionalen Weltkoordinatensystem, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
CN104766309A (zh) * 2015-03-19 2015-07-08 江苏国典艺术品保真科技有限公司 一种平面特征点导航定位方法与装置
EP3437031A4 (en) * 2016-03-29 2019-11-27 Bossa Nova Robotics IP, Inc. SYSTEM AND METHOD FOR LOCATING, IDENTIFYING AND COUNTING ELEMENTS
CN106504287B (zh) * 2016-10-19 2019-02-15 大连民族大学 基于模板的单目视觉目标空间定位系统
CN109308718B (zh) * 2018-08-09 2022-09-23 上海青识智能科技有限公司 一种基于多深度相机的空间人员定位装置及方法
CN109472829B (zh) * 2018-09-04 2022-10-21 顺丰科技有限公司 一种物体定位方法、装置、设备和存储介质
CN109472828B (zh) * 2018-10-26 2021-06-22 达闼科技(北京)有限公司 一种定位方法、装置、电子设备及计算机可读存储介质
CN111192235B (zh) * 2019-12-05 2023-05-26 中国地质大学(武汉) 一种基于单目视觉模型和透视变换的图像测量方法
CN111524183A (zh) * 2020-04-07 2020-08-11 上海交通大学 一种基于透视投影变换的目标行列定位方法
CN112465907A (zh) * 2020-10-29 2021-03-09 清华大学 一种室内视觉导航方法及系统
CN112665577A (zh) * 2020-12-29 2021-04-16 北京电子工程总体研究所 基于逆透视变换矩阵的单目视觉目标定位方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101916437A (zh) * 2010-06-18 2010-12-15 中国科学院计算技术研究所 一种基于多视觉信息的目标定位方法和系统
WO2019202138A1 (en) * 2018-04-20 2019-10-24 Barco N.V. Method and apparatus for perspective adjustment of images for a user at different positions
CN112017302A (zh) * 2020-08-29 2020-12-01 南京翱翔智能制造科技有限公司 基于cad模型的投影标记和机器视觉的实时注册方法
CN112929651A (zh) * 2021-01-25 2021-06-08 北京信息科技大学 一种显示方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113538578A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
US8854469B2 (en) Method and apparatus for tracking persons and locations using multiple cameras
US8731243B2 (en) Position and orientation measurement method and position and orientation measurement apparatus
US20130121592A1 (en) Position and orientation measurement apparatus,position and orientation measurement method, and storage medium
US11842516B2 (en) Homography through satellite image matching
CN111445531B (zh) 一种多目相机导航方法、装置、设备及存储介质
EP3104329A1 (en) Image processing device and image processing method
JP5518321B2 (ja) レーザレーダ用設置位置検証装置、レーザレーダ用設置位置の検証方法及びレーザレーダ用設置位置検証装置用プログラム
US11237057B2 (en) Temperature processing apparatus and temperature processing method
US20130135463A1 (en) Information processing apparatus, information processing method and computer-readable storage medium
KR101925289B1 (ko) 단말 위치/각도 식별 방법 및 장치
CN108613672B (zh) 对象定位方法、对象定位系统和电子设备
US20210056793A1 (en) Mobile object measurement system and method of determining number of people in measurement area
CN113538578B (zh) 目标定位方法、装置、计算机设备和存储介质
US11920913B2 (en) Conversion parameter calculation method, displacement amount calculation method, conversion parameter calculation device, and displacement amount calculation device
WO2018134866A1 (ja) カメラ校正装置
CN111028287B (zh) 确定雷达坐标和摄像机坐标的转换矩阵的方法和装置
CN112633143A (zh) 图像处理系统、方法、头戴设备、处理设备及存储介质
Paletta et al. A computer vision system for attention mapping in SLAM based 3D models
CN113421307B (zh) 一种目标定位方法、装置、计算机设备和存储介质
EP3855401A1 (en) Accurately positioning augmented reality models within images
CN112649813B (zh) 重要场所室内安全检查的方法、检查设备、机器人及终端
US11995778B2 (en) Augmented reality location operation including augmented reality tracking handoff
US20240119620A1 (en) Posture estimation apparatus, posture estimation method, and computer-readable recording medium
WO2023152825A1 (ja) 動作評価システム、動作評価方法、及び非一時的なコンピュータ可読媒体
JP2018136832A (ja) 対象物画像推定装置および対象物画像判定装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant