CN111292372A - 目标物体定位方法、装置、存储介质以及电子设备 - Google Patents
目标物体定位方法、装置、存储介质以及电子设备 Download PDFInfo
- Publication number
- CN111292372A CN111292372A CN202010113127.XA CN202010113127A CN111292372A CN 111292372 A CN111292372 A CN 111292372A CN 202010113127 A CN202010113127 A CN 202010113127A CN 111292372 A CN111292372 A CN 111292372A
- Authority
- CN
- China
- Prior art keywords
- target object
- camera
- view image
- street view
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本公开涉及一种目标物体定位方法、装置、存储介质以及电子设备,该方法包括:接收用户输入的目标区域;获取摄像机拍摄的所述目标区域对应的街景图像以及所述摄像机的位置;将所述街景图像输入预先训练的目标分类检测模型,确定所述街景图像中的目标物体;确定所述目标物体在所述街景图像中的图像位置;确定所述目标物体与所述摄像机的距离;根据所述摄像机的位置、所述目标物体在所述街景图像中的图像位置以及所述目标物体与所述摄像机的距离确定所述目标物体的位置,提高了目标物体的准确性。
Description
技术领域
本公开涉及物体定位技术领域,具体地,涉及一种目标物体定位方法、装置、存储介质以及电子设备。
背景技术
在仿真或者游戏场景中,通常需要在虚拟环境中重现真实的场景。比如,将一条街道重建在虚拟环境中,需要知道这条街道上的物体例如道路标示牌和红路灯在这条街道上的位置。
目前,对物体进行定位的方法,通常采用三角定位的方法。但是,采用三角定位的方法对一个目标物体需要进行多次不同视角的拍摄,然后根据多个多次不同视角的拍摄交汇点对目标物体进行定位,确定目标物体的位置。
发明内容
本公开的目的是提供一种目标物体定位方法、装置、存储介质以及电子设备,以解决采用三角定位的方法对一个目标物体需要进行多次不同视角的拍摄才能确定目标物体的位置的问题。
为了实现上述目的,本公开第一方面提供一种目标物体定位方法,包括:
接收用户输入的目标区域;
获取摄像机拍摄的所述目标区域对应的街景图像以及所述摄像机的位置;
将所述街景图像输入预先训练的目标分类检测模型,确定所述街景图像中的目标物体;
确定所述目标物体在所述街景图像中的图像位置;
确定所述目标物体与所述摄像机的距离;
根据所述摄像机的位置、所述目标物体在所述街景图像中的图像位置以及所述目标物体与所述摄像机的距离确定所述目标物体的位置。
可选地,所述确定所述目标物体与所述摄像机的距离前,所述方法还包括:
获取所述摄像机的朝向以及拍摄视角;
根据所述目标物体在所述街景图像中位置、摄像机的朝向以及拍摄视角确定所述目标物体和所述摄像机所在的直线与所述摄像机的朝向的夹角;
根据所述摄像机的位置信息、所述目标物体在所述街景图像中的位置以及所述目标物体与所述摄像机的距离确定所述目标物体的位置包括:
根据所述摄像机的位置信息、所述目标物体和所述摄像头所在的直线与所述摄像机的朝向的夹角以及所述目标物体与所述摄像机的距离确定所述目标物体的位置。
可选地,所述确定所述目标物体在所述街景图像中的位置包括:
获取所述街景图像的像素点;
获取所述目标物体的中心像素点;
根据所述街景图像的像素点和所述目标物体的中心像素点确定所述目标物体在所述街景图像中的位置。
可选地,所述根据所述街景图像和所述目标物体在所述街景图像中的位置确定所述目标物体与所述摄像机的距离包括:
将所述街景图像输入预先训练的深度估计模型,得到所述街景图像的各像素点与所述摄像机的距离;
根据所述街景图像的各像素点与所述摄像机的距离确定所述目标物体的中心像素点与所述摄像机的距离;
将所述目标物体的中心像素点与所述摄像机的距离作为所述目标物体与所述摄像机的距离。
本公开第二方面提供一种目标物体定位装置,包括:
目标区域获取模块,用于接收用户输入的目标区域;
街景图像获取模块,用于获取摄像机拍摄的所述目标区域对应的街景图像以及所述摄像机的位置;
目标物体确定模块,用于将所述街景图像输入预先训练的目标分类检测模型,确定所述街景图像中的目标物体;
图像位置确定模块,用于确定所述目标物体在所述街景图像中的图像位置;
距离确定模块,用于确定所述目标物体与所述摄像机的距离;
目标物体位置确定模块,用于根据所述摄像机的位置、所述目标物体在所述街景图像中的图像位置以及所述目标物体与所述摄像机的距离确定所述目标物体的位置。
可选地,所述装置还包括:
拍摄视角获取模块,用于获取所述摄像机的朝向以及拍摄视角;
夹角确定模块,用于根据所述目标物体在所述街景图像中位置、摄像机的朝向以及拍摄视角确定所述目标物体和所述摄像机所在的直线与所述摄像机的朝向的夹角;
所述目标物体位置确定模块用于:
根据所述摄像机的位置信息、所述目标物体和所述摄像头所在的直线与所述摄像机的朝向的夹角以及所述目标物体与所述摄像机的距离确定所述目标物体的位置。
可选地,所述图像位置确定模块用于:
获取所述街景图像的像素点;
获取所述目标物体的中心像素点;
根据所述街景图像的像素点和所述目标物体的中心像素点确定所述目标物体在所述街景图像中的位置。
可选地,所述距离确定模块用于:
将所述街景图像输入预先训练的深度估计模型,得到所述街景图像的各像素点与所述摄像机的距离;
根据所述街景图像的各像素点与所述摄像机的距离确定所述目标物体的中心像素点与所述摄像机的距离;
将所述目标物体的中心像素点与所述摄像机的距离作为所述目标物体与所述摄像机的距离。
本公开第三方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任一项所述方法的步骤。
本公开第四方面提供一种电子设备,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现第一方面中任一项所述方法的步骤。
通过上述技术方案,能够接收用户输入的目标区域;获取摄像机拍摄的该目标区域对应的街景图像以及该摄像机的位置;将该街景图像输入预先训练的目标分类检测模型,确定该街景图像中的目标物体;确定该目标物体在该街景图像中的图像位置;确定该目标物体与该摄像机的距离;根据该摄像机的位置、该目标物体在该街景图像中的图像位置以及该目标物体与该摄像机的距离确定该目标物体的位置,只需获取的目标区域内的一张街景图像,并根据拍摄该张街景图像的摄像机的位置、该目标物体在该街景图像中的图像位置以及该目标物体与该摄像机的距离确定该目标物体的位置,并不需要对该目标物体进行多次不同视角的拍摄,进而避免了多个相同的目标物体同时出现在不同视角拍摄的图像中,可能无法使用三角定位的方法对目标物体进行定位的问题,并且避免了对目标物体多次不同视角的拍摄,会造成拍摄目标物体的摄像机或者相机产生畸变,进而使得确定的目标物体的位置与实际位置的误差较大的问题,提高了目标物体位置的准确性。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1是根据一示例性实施例示出的一种目标物体定位方法的流程图;
图2是根据一示例性实施例示出的另一种目标物体定位方法的流程图;
图3是根据一示例性实施例示出的一种街景图像的像素示意图;
图4是根据一示例性实施例示出的一种摄像机拍摄视角的示意图;
图5是根据一示例性实施例示出的一种目标物体定位装置的框图;
图6是根据一示例性实施例示出的第二种目标物体定位装置的框图;
图7是根据一示例性实施例示出的电子设备的框图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
在仿真或者游戏场景中,通常需要在虚拟环境中重现真实的场景。比如,将一条街道重建在虚拟环境中,需要知道这条街道上的物体例如道路标示牌和红路灯在这条街道上的位置。
现有技术中,通常采用三角定位的方法对物体进行定位。采用三角定位的方法需要采用摄像机或者相机在不同位置上对目标物体进行多次不同视角的拍摄,得到多张不同视角拍摄的图像,再在多张图像中确定该目标物体,再根据目标物体确定根据摄像机或者相机在不同视角的拍摄交汇点,再根据交汇点、该摄像机或者相机的不同拍摄视角以及该摄像机或者相机的不同位置确定目标物体的位置。
但是,如果几个相同的目标物体例如标示牌同时出现在不同视角拍摄的图像中,在不知道两张不同图像中的目标物体如何一一对应的情况下,就无法在不同图像中确定目标物体,进而无法确定摄像机或者相机在不同视角的拍摄交汇点,从而无法使用三角定位的方法对目标物体进行定位。
另外,对目标物体多次不同视角的拍摄,会造成拍摄目标物体的摄像机或者相机产生畸变,进而使得摄像机或者相机在不同视角的拍摄交汇点对目标物体进行定位时,确定的目标物体的位置与实际位置的误差较大。
发明人注意到这一问题,提出一种目标物体定位方法,具体如下:
图1是根据一示例性实施例示出的一种目标物体定位方法的流程图。如图1所示,该方法包括:
S101、接收用户输入的目标区域。
在本实施中,用户可以在终端的地图应用界面输入目标区域。该终端可以为手机、平板、计算机等终端设备,本实施例此处不作限制。该地图应用可以为百度地图、腾讯地图、高德地图等地图应用,本实施例此处不作限制。
例如,用户在手机的地图应用界面输入海淀区,并在手机展示出海淀区的地图信息后,确定出在海淀区内的目标区域。例如,用户可以根据手机展示的海淀区的地图信息界面输入该目标区域的左上角以及右下角,确定出在海淀区内的目标区域。
S102、获取摄像机拍摄的该目标区域对应的街景图像以及该摄像机的位置。
示例性地,遍历该目标区域内的所有道路,并且从地图应用上获取该目标区域的所有道路对应的摄像机拍摄的所有街景图像,并且获取拍摄该街景图像的摄像机的位置。例如,该目标区域内总共用10条道路,则从地图应用上获取该目标区域内的10条道路对应的摄像机拍摄的所有街景图像。
S103、将该街景图像输入预先训练的目标分类检测模型,确定该街景图像中的目标物体。
此处以其中一张街景图像为例进行说明。将该街景图像输入预先训练的目标分类检测模型,检测该街景图像中的目标物体。例如,该街景图像中的目标物体可以为道路标示牌以及红绿灯,将该街景图像输入预先训练的道路标示牌以及红绿灯分类检测模型,检测出该街景图像中的道路标示牌以及红绿灯。
S104、确定该目标物体在该街景图像中的图像位置。
此处以该目标物体为道路标示牌以及红绿灯为例进行说明。在本实施例中,可以根据该街景图像的像素点以及该道路标示牌以及红绿灯的中心像素点确定该道路标示牌以及红绿灯在该街景图像中的图像位置。
示例性地,先获取该街景图像的像素点,再根据道路标示牌以及红绿灯分类检测模型识别出的街景图像中的道路标示牌以及红绿灯确定该道路标示牌以及红绿灯的像素点,再从该道路标示牌以及红绿灯的像素点中确定该道路标示牌以及红绿灯的中心像素点,再根据该道路标示牌以及红绿灯的中心像素点以及该街景图像的像素点确定该道路标示牌以及红绿灯在该街景图像中的图像位置。
S105、确定该目标物体与该摄像机的距离。
同样地,此处以该目标物体为道路标示牌以及红绿灯为例进行说明。示例性地,将该街景图片输入预先训练的深度估计模型,得到道路标示牌以及红绿灯的中心像素点对应的深度,即为该道路标示牌以及红绿灯与拍摄该街景图像的摄像机的距离。示例性地,该深度估计模型是根据单目图像深度估计算法建立的模型。
S106、根据该摄像机的位置、该目标物体在该街景图像中的图像位置以及该目标物体与该摄像机的距离确定该目标物体的位置。
示例性地,根据拍摄该街景图像的摄像机的位置、该道路标示牌以及红绿灯在该街景图像中的图像位置以及该道路标示牌以及红绿灯与拍摄该街景图像的摄像机的距离确定该道路标示牌以及红绿灯的位置。
该目标区域内道路的其他街景图像中目标物体的位置确定方法以该街景图像中道路标示牌以及红绿灯的位置确定方法类似,本实施例此处不再赘述。
采用上述方案,能够接收用户输入的目标区域;获取摄像机拍摄的该目标区域对应的街景图像以及该摄像机的位置;将该街景图像输入预先训练的目标分类检测模型,确定该街景图像中的目标物体;确定该目标物体在该街景图像中的图像位置;确定该目标物体与该摄像机的距离;根据该摄像机的位置、该目标物体在该街景图像中的图像位置以及该目标物体与该摄像机的距离确定该目标物体的位置,只需获取的目标区域内的一张街景图像,并根据拍摄该张街景图像的摄像机的位置、该目标物体在该街景图像中的图像位置以及该目标物体与该摄像机的距离确定该目标物体的位置,并不需要对该目标物体进行多次不同视角的拍摄,进而避免了多个相同的目标物体同时出现在不同视角拍摄的图像中,可能无法使用三角定位的方法对目标物体进行定位的问题,并且避免了对目标物体多次不同视角的拍摄,会造成拍摄目标物体的摄像机或者相机产生畸变,进而使得确定的目标物体的位置与实际位置的误差较大的问题,提高了目标物体位置的准确性。
图2是根据一示例性实施例示出的另一种目标物体定位方法的流程图。
如图2所示,该方法包括:
S201、接收用户输入的目标区域。
S202、获取摄像机拍摄的该目标区域对应的街景图像以及该摄像机的位置。
本实施例提供的S201和S202与图1实施例提供的S101和S102类似,本实施例此处不做赘述。
S203、获取该摄像机的朝向以及拍摄视角。
此处以其中一张街景图像为例进行说明。在本实施例中,在获取该街景图像的同时,获取拍摄该街景图像的摄像机的朝向以及拍摄视角。例如,该街景图像的摄像机的朝向是正北方,拍摄视角为120°。
S204、将该街景图像输入预先训练的目标分类检测模型,确定该街景图像中的目标物体。
本实施例提供的S204与图1实施例提供的S103类似,本实施例此处不再赘述。
S205、确定该目标物体在该街景图像中的图像位置。
此处以该目标物体为红绿灯为例进行说明。示例性地,先获取该街景图像的像素点,再根据分类检测模型识别出的街景图像中的红绿灯确定红绿灯的像素点,再从该红绿灯的像素点中确定该红绿灯的中心像素点,再根据该红绿灯的中心像素点以及该街景图像的像素点确定该红绿灯在该街景图像中的图像位置。
此处结合图3进行说明。图3是根据一示例性实施例示出的一种街景图像的像素示意图。如图3所示,该街景图像30的像素为500*500,总共250000个像素点。此处可以理解为该街景图像的四个顶点的像素点的在该街景图像坐标系中的坐标为(0,0)(0,500)、(500,0)以及(500,500)。而根据分类检测模型识别出的街景图像30中的红绿灯301在的像素为200*200,总共40000个像素点,且确定红绿灯该街景图像中四个顶点的像素点在该街景图像坐标系中的坐标为(100,100)、(100,300)、(300,100)以及(300,300)。则该红绿灯的中心像素点A在该街景图像中的坐标为(200,200),且该红绿灯的中心像素点A距离该图像坐标系纵轴200个像素点。
S206、根据该目标物体在该街景图像中的图像位置、摄像机的朝向以及拍摄视角确定该目标物体和该摄像机所在的直线与该摄像机的朝向的夹角。
此处结合图4进行说明。图4是根据一示例性实施例示出的一种摄像机拍摄视角的示意图。如图4所示,该摄像机B与该街景图像的中心像素点C所在的直线即为该摄像机的朝向。例如在图4中所示,该摄像机B的朝向为正北。该摄像机B的拍摄视角为120°,即该摄像机B与该街景图像的中轴线的两个端点D、E所组成的角度θ1为120°,则该摄像机B和该街景图像的中心像素点C所在直线与摄像机B和该街景图像中轴线的左侧端点D所在直线的第一夹角θ2为60°,且该街景图像的中心像素点C与该街景图像中轴线的左侧端点D距离250个像素点。则该摄像机B到该街景图像的中心像素点C的距离为d1=250/(tan60°)。
示例性地,图4所示的平面即为该摄像机B与该街景图像的中轴线组成的平面。红绿灯的中心像素点A距离该图像坐标系纵轴200个像素点,则该红绿灯的中心像素点A映射在该摄像机B与该街景图像的中轴线组成的平面上时,该红绿灯的中心像素点A距离该街景图像的中轴线的左侧端点D为200个像素点,该红绿灯的中心像素点A到该街景图像的中心像素点C的距离d2为50个像素点。则该摄像机B与该红绿灯的中心像素点A所在直线与摄像机B与该街景图像的中心像素点C所在的直线的第二夹角θ3=arctan(50/d1),该第二夹角θ3即为该目标物体和该摄像机所在的直线与该摄像机的朝向的夹角。
S207、确定该目标物体与该摄像机的距离。
示例性地,将该街景图像输入预先训练的深度估计模型,得到该街景图像的各像素点的深度,即为该街景图像的各像素点与拍摄该街景图像的摄像机B的距离,该街景图像的各像素点与拍摄该街景图像的摄像机B的距离即为街景图像的各像素点所对应的现实物体到摄像机B的距离。再根据该街景图像的各像素点的深度确定该红绿灯的中心像素点A的深度,该红绿灯的中心像素点A的深度即为该红绿灯的中心像素点A与该摄像机B的距离,并将该红绿灯的中心像素点A与该摄像机B的距离作为该红绿灯与该摄像机B的距离d3。
S208、根据该摄像机的位置信息、该目标物体和该摄像头所在的直线与该摄像机的朝向的夹角以及该目标物体与该摄像机的距离确定该目标物体的位置。
示例性地,根据该摄像机B的位置信息、该红绿灯的中心像素点A和该摄像头B所在的直线与该摄像机与该街景图像的中心像素点C所在直线的二夹角θ3以及该红绿灯与该摄像机B的距离d3确定该红绿灯的位置。
示例性地,可以执行S204至S208预设次数(例如3次),得到3个该红绿灯的位置,并在确定3个该红绿灯的位置之间的差值均小于或者等于预设距离阈值(例如1m)后,确定3个该红绿灯的位置的中间位置,将该中间位置作为该红绿灯的最终位置,以提高该红绿灯位置的准确性。
采用上述方案,能够一张街景图像得到该街景图像中的目标物体,并根据该目标物体在该街景图像中的图像位置、摄像机的朝向以及拍摄视角确定该目标物体和该摄像机所在的直线与该摄像机的朝向的夹角,并根据该摄像机的位置信息、该目标物体和该摄像头所在的直线与所述摄像机的朝向的夹角以及该目标物体与该摄像机的距离确定该目标物体的位置,并不需要对该目标物体进行多次不同视角的拍摄,进而避免了多个相同的目标物体同时出现在不同视角拍摄的图像中,可能无法使用三角定位的方法对目标物体进行定位的问题,并且避免了对目标物体多次不同视角的拍摄,会造成拍摄目标物体的摄像机或者相机产生畸变,进而使得确定的目标物体的位置与实际位置的误差较大的问题,提高了目标物体位置的准确性。
图5是根据一示例性实施例示出的一种目标物体定位装置的框图。如图5所示,该装置50包括:
目标区域获取模块501,用于接收用户输入的目标区域;
街景图像获取模块502,用于获取摄像机拍摄的该目标区域对应的街景图像以及该摄像机的位置;
目标物体确定模块503,用于将该街景图像输入预先训练的目标分类检测模型,确定该街景图像中的目标物体;
图像位置确定模块504,用于确定该目标物体在该街景图像中的图像位置;
距离确定模块505,用于确定该目标物体与该摄像机的距离;
目标物体位置确定模块506,用于根据该摄像机的位置、所述目标物体在该街景图像中的图像位置以及该目标物体与该摄像机的距离确定该目标物体的位置。
可选地,图6是根据图5实施例示出的一种目标物体定位装置的框图。如图6所示,该装置50还包括:
拍摄视角获取模块507,用于获取该摄像机的朝向以及拍摄视角;
夹角确定模块508,用于根据该目标物体在该街景图像中位置、摄像机的朝向以及拍摄视角确定该目标物体和该摄像机所在的直线与该摄像机的朝向的夹角;
该目标物体位置确定模块506用于:
根据该摄像机的位置信息、该目标物体和该摄像头所在的直线与该摄像机的朝向的夹角以及该目标物体与该摄像机的距离确定该目标物体的位置。
可选地,该图像位置确定模块504用于:
获取该街景图像的像素点;
获取该目标物体的中心像素点;
根据该街景图像的像素点和该目标物体的中心像素点确定所述目标物体在所述街景图像中的位置。
可选地,该距离确定模块505用于:
将该街景图像输入预先训练的深度估计模型,得到该街景图像的各像素点与该摄像机的距离;
根据所述街景图像的各像素点与所述摄像机的距离确定该目标物体的中心像素点与该摄像机的距离;
将该目标物体的中心像素点与该摄像机的距离作为该目标物体与该摄像机的距离。
采用上述装置,能够接收用户输入的目标区域;获取摄像机拍摄的该目标区域对应的街景图像以及该摄像机的位置;将该街景图像输入预先训练的目标分类检测模型,确定该街景图像中的目标物体;确定该目标物体在该街景图像中的图像位置;确定该目标物体与该摄像机的距离;根据该摄像机的位置、该目标物体在该街景图像中的图像位置以及该目标物体与该摄像机的距离确定该目标物体的位置,只需获取的目标区域内的一张街景图像,并根据拍摄该张街景图像的摄像机的位置、该目标物体在该街景图像中的图像位置以及该目标物体与该摄像机的距离确定该目标物体的位置,并不需要对该目标物体进行多次不同视角的拍摄,进而避免了多个相同的目标物体同时出现在不同视角拍摄的图像中,可能无法使用三角定位的方法对目标物体进行定位的问题,并且避免了对目标物体多次不同视角的拍摄,会造成拍摄目标物体的摄像机或者相机产生畸变,进而使得确定的目标物体的位置与实际位置的误差较大的问题,提高了目标物体位置的准确性。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图7是根据一示例性实施例示出的一种电子设备700的框图。如图7所示,该电子设备700可以包括:处理器701,存储器702。该电子设备700还可以包括多媒体组件703,输入/输出(I/O)接口704,以及通信组件705中的一者或多者。
其中,处理器701用于控制该电子设备700的整体操作,以完成上述的目标物体定位方法中的全部或部分步骤。存储器702用于存储各种类型的数据以支持在该电子设备700的操作,这些数据例如可以包括用于在该电子设备700上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器702可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件703可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器702或通过通信组件705发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口704为处理器701和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件705用于该电子设备700与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near FieldCommunication,简称NFC),2G、3G、4G、NB-IOT、eMTC、或其他5G等等,或它们中的一种或几种的组合,在此不做限定。因此相应的该通信组件705可以包括:Wi-Fi模块,蓝牙模块,NFC模块等等。
在一示例性实施例中,电子设备700可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的目标物体定位方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的目标物体定位方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器702,上述程序指令可由电子设备700的处理器701执行以完成上述的目标物体定位方法。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合。为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。
Claims (10)
1.一种目标物体定位方法,其特征在于,包括:
接收用户输入的目标区域;
获取摄像机拍摄的所述目标区域对应的街景图像以及所述摄像机的位置;
将所述街景图像输入预先训练的目标分类检测模型,确定所述街景图像中的目标物体;
确定所述目标物体在所述街景图像中的图像位置;
确定所述目标物体与所述摄像机的距离;
根据所述摄像机的位置、所述目标物体在所述街景图像中的图像位置以及所述目标物体与所述摄像机的距离确定所述目标物体的位置。
2.根据权利要求1所述的方法,其特征在于,所述确定所述目标物体与所述摄像机的距离前,所述方法还包括:
获取所述摄像机的朝向以及拍摄视角;
根据所述目标物体在所述街景图像中位置、摄像机的朝向以及拍摄视角确定所述目标物体和所述摄像机所在的直线与所述摄像机的朝向的夹角;
根据所述摄像机的位置信息、所述目标物体在所述街景图像中的图像位置以及所述目标物体与所述摄像机的距离确定所述目标物体的位置包括:
根据所述摄像机的位置信息、所述目标物体和所述摄像头所在的直线与所述摄像机的朝向的夹角以及所述目标物体与所述摄像机的距离确定所述目标物体的位置。
3.根据权利要求1所述的方法,其特征在于,所述确定所述目标物体在所述街景图像中的位置包括:
获取所述街景图像的像素点;
获取所述目标物体的中心像素点;
根据所述街景图像的像素点和所述目标物体的中心像素点确定所述目标物体在所述街景图像中的位置。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述根据所述街景图像和所述目标物体在所述街景图像中的位置确定所述目标物体与所述摄像机的距离包括:
将所述街景图像输入预先训练的深度估计模型,得到所述街景图像的各像素点与所述摄像机的距离;
根据所述街景图像的各像素点与所述摄像机的距离确定所述目标物体的中心像素点与所述摄像机的距离;
将所述目标物体的中心像素点与所述摄像机的距离作为所述目标物体与所述摄像机的距离。
5.一种目标物体定位装置,其特征在于,包括:
目标区域获取模块,用于接收用户输入的目标区域;
街景图像获取模块,用于获取摄像机拍摄的所述目标区域对应的街景图像以及所述摄像机的位置;
目标物体确定模块,用于将所述街景图像输入预先训练的目标分类检测模型,确定所述街景图像中的目标物体;
图像位置确定模块,用于确定所述目标物体在所述街景图像中的图像位置;
距离确定模块,用于确定所述目标物体与所述摄像机的距离;
目标物体位置确定模块,用于根据所述摄像机的位置、所述目标物体在所述街景图像中的图像位置以及所述目标物体与所述摄像机的距离确定所述目标物体的位置。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
拍摄视角获取模块,用于获取所述摄像机的朝向以及拍摄视角;
夹角确定模块,用于根据所述目标物体在所述街景图像中位置、摄像机的朝向以及拍摄视角确定所述目标物体和所述摄像机所在的直线与所述摄像机的朝向的夹角;
所述目标物体位置确定模块用于:
根据所述摄像机的位置信息、所述目标物体和所述摄像头所在的直线与所述摄像机的朝向的夹角以及所述目标物体与所述摄像机的距离确定所述目标物体的位置。
7.根据权利要求5所述的装置,其特征在于,所述图像位置确定模块用于:
获取所述街景图像的像素点;
获取所述目标物体的中心像素点;
根据所述街景图像的像素点和所述目标物体的中心像素点确定所述目标物体在所述街景图像中的位置。
8.根据权利要求5至7任一项所述的装置,其特征在于,所述距离确定模块用于:
将所述街景图像输入预先训练的深度估计模型,得到所述街景图像的各像素点与所述摄像机的距离;
根据所述街景图像的各像素点与所述摄像机的距离确定所述目标物体的中心像素点与所述摄像机的距离;
将所述目标物体的中心像素点与所述摄像机的距离作为所述目标物体与所述摄像机的距离。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至4中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1至4中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010113127.XA CN111292372B (zh) | 2020-02-24 | 2020-02-24 | 目标物体定位方法、装置、存储介质以及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010113127.XA CN111292372B (zh) | 2020-02-24 | 2020-02-24 | 目标物体定位方法、装置、存储介质以及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111292372A true CN111292372A (zh) | 2020-06-16 |
CN111292372B CN111292372B (zh) | 2020-11-27 |
Family
ID=71023168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010113127.XA Active CN111292372B (zh) | 2020-02-24 | 2020-02-24 | 目标物体定位方法、装置、存储介质以及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111292372B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113607064A (zh) * | 2021-08-06 | 2021-11-05 | 广联达科技股份有限公司 | 目标物体的间距测算方法、装置、设备及可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160098603A1 (en) * | 2014-10-07 | 2016-04-07 | Kt Corporation | Depth camera based detection of human subjects |
CN107239567A (zh) * | 2017-06-22 | 2017-10-10 | 努比亚技术有限公司 | 一种目标景物的识别方法、设备及计算机可读存储介质 |
CN109002784A (zh) * | 2018-06-29 | 2018-12-14 | 国信优易数据有限公司 | 街景识别模型的训练方法和系统、街景识别方法和系统 |
CN110728649A (zh) * | 2018-06-28 | 2020-01-24 | 北京京东尚科信息技术有限公司 | 用于生成位置信息的方法和装置 |
-
2020
- 2020-02-24 CN CN202010113127.XA patent/CN111292372B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160098603A1 (en) * | 2014-10-07 | 2016-04-07 | Kt Corporation | Depth camera based detection of human subjects |
CN107239567A (zh) * | 2017-06-22 | 2017-10-10 | 努比亚技术有限公司 | 一种目标景物的识别方法、设备及计算机可读存储介质 |
CN110728649A (zh) * | 2018-06-28 | 2020-01-24 | 北京京东尚科信息技术有限公司 | 用于生成位置信息的方法和装置 |
CN109002784A (zh) * | 2018-06-29 | 2018-12-14 | 国信优易数据有限公司 | 街景识别模型的训练方法和系统、街景识别方法和系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113607064A (zh) * | 2021-08-06 | 2021-11-05 | 广联达科技股份有限公司 | 目标物体的间距测算方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111292372B (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111339846B (zh) | 图像识别方法及装置、电子设备和存储介质 | |
JP6484587B2 (ja) | カメラの空間特性を決定する方法及びシステム | |
CN110148178B (zh) | 相机定位方法、装置、终端及存储介质 | |
CN110361005B (zh) | 定位方法、定位装置、可读存储介质及电子设备 | |
CN109584362B (zh) | 三维模型构建方法及装置、电子设备和存储介质 | |
US11380016B2 (en) | Fisheye camera calibration system, method and electronic device | |
CN109165606B (zh) | 一种车辆信息的获取方法、装置以及存储介质 | |
CN113436338A (zh) | 火灾现场的三维重建方法、装置、服务器及可读存储介质 | |
CN111340960B (zh) | 图像的建模方法、装置、存储介质和电子设备 | |
EP3594907B1 (en) | Method and apparatus for augmenting reality | |
CN112945207B (zh) | 目标定位方法及装置、电子设备和存储介质 | |
US11514608B2 (en) | Fisheye camera calibration system, method and electronic device | |
CN113052919A (zh) | 一种视觉传感器的标定方法及装置、电子设备和存储介质 | |
CN110930463A (zh) | 一种监控摄像头内参标定方法、装置和电子设备 | |
CN111292372B (zh) | 目标物体定位方法、装置、存储介质以及电子设备 | |
CN111369680A (zh) | 生成建筑物的三维图像的方法及装置 | |
CN110738185A (zh) | 表单对象的识别方法、装置及存储介质 | |
CN109034214B (zh) | 用于生成标记的方法和装置 | |
CN113936154A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN109345567A (zh) | 物体运动轨迹识别方法、装置、设备和存储介质 | |
CN113066135A (zh) | 图像采集设备的标定方法及装置、电子设备和存储介质 | |
CN111292414B (zh) | 生成物体三维图像的方法、装置、存储介质及电子设备 | |
CN113870361A (zh) | 深度相机的标定方法、装置、设备及存储介质 | |
CN113192139A (zh) | 定位方法及装置、电子设备和存储介质 | |
CN114600162A (zh) | 用于捕捉摄像机图像的场景锁定模式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 307, 3 / F, supporting public building, Mantingfangyuan community, qingyanli, Haidian District, Beijing 100086 Patentee after: Beijing Wuyi Vision digital twin Technology Co.,Ltd. Address before: Room 307, 3 / F, supporting public building, Mantingfangyuan community, qingyanli, Haidian District, Beijing 100086 Patentee before: DANGJIA MOBILE GREEN INTERNET TECHNOLOGY GROUP Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |