CN112435300B - 定位方法及装置 - Google Patents
定位方法及装置 Download PDFInfo
- Publication number
- CN112435300B CN112435300B CN201910791953.7A CN201910791953A CN112435300B CN 112435300 B CN112435300 B CN 112435300B CN 201910791953 A CN201910791953 A CN 201910791953A CN 112435300 B CN112435300 B CN 112435300B
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinates
- target
- image
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 149
- 230000000007 visual effect Effects 0.000 claims description 367
- 239000011159 matrix material Substances 0.000 claims description 121
- 230000009466 transformation Effects 0.000 claims description 95
- 238000012545 processing Methods 0.000 claims description 46
- 230000008569 process Effects 0.000 abstract description 27
- 239000003550 marker Substances 0.000 description 50
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000016776 visual perception Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- YZMCKZRAOLZXAZ-UHFFFAOYSA-N sulfisomidine Chemical compound CC1=NC(C)=CC(NS(=O)(=O)C=2C=CC(N)=CC=2)=N1 YZMCKZRAOLZXAZ-UHFFFAOYSA-N 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/10—Selection of transformation methods according to the characteristics of the input images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
本申请实施例提供定位方法及装置,涉及定位技术领域,在定位过程中不容易受到遮挡物的影响,定位精度较高。该方法包括:获取摄像机的估计外参以及摄像机的内参,其中,摄像机的估计外参是根据摄像机拍摄区域中多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到的;获取摄像机拍摄的图像中目标的图像坐标;根据摄像机的估计外参、摄像机的内参以及目标的图像坐标得到目标的世界坐标。
Description
技术领域
本申请涉及定位技术领域,尤其涉及定位方法及装置。
背景技术
伴随智能交通的发展以及具备自动驾驶能力车辆的普及,自动代客泊车(automated valet parting,AVP)场景的需求不断增加。AVP场景简单来说就是通过移动终端发起泊车请求,建立车辆定位装置与车辆的链接,完成车辆从移动终端发起泊车请求时车辆所在位置到停车位之间的行驶等操作。
在AVP场景中,对车辆和人等目标的定位是关键技术。现有技术中,对车辆和人等目标的定位方法如下:在车端或人携带的终端设备上安装全球导航卫星系统(globalnavigation satellite system,GNSS)或全球定位系统(global position system,GPS),利用车端或人携带的终端设备上安装GNSS或GPS定位车辆和人等目标。GNSS或GPS的定位精度本身不高,而且容易受到遮挡物的影响,因此,在室内或地下环境的定位效果会明显下降。
发明内容
本申请实施例提供定位方法及装置,在定位过程中不容易受到遮挡物的影响,定位精度较高。
为达到上述目的,本申请的实施例采用如下技术方案:
第一方面,本申请实施例提供一种定位方法,该方法包括:获取摄像机的估计外参以及该摄像机的内参,其中,该摄像机的估计外参是根据该摄像机拍摄区域中多个估计点的世界坐标、该多个估计点的图像坐标以及该摄像机的内参得到的;获取该摄像机拍摄的图像中目标的图像坐标;根据该摄像机的估计外参、该摄像机的内参以及该目标的图像坐标得到该目标的世界坐标。
上述第一方面提供的技术方案,可以获取摄像机的估计外参、摄像机的内参、摄像机拍摄的图像中目标的图像坐标,并根据摄像机的估计外参、摄像机的内参以及目标的图像坐标得到目标的世界坐标,从而实现对目标的定位,而且在定位过程中不容易受到遮挡物的影响,定位精度较高。
结合第一方面,在第一种可能的实现方式中,若该目标为车辆,该方法还包括:获取该目标的图像信息;根据该目标的图像信息查询该车辆的特征参数;该根据该摄像机的估计外参、该摄像机的内参以及该目标的图像坐标得到该目标的世界坐标,包括:根据该摄像机的估计外参得到该摄像机的估计外参对应的物理变换矩阵;根据该摄像机的内参得到该摄像机的内参矩阵;该目标的图像坐标、该摄像机的估计外参对应的物理变换矩阵以及该摄像机的内参矩阵进行坐标变换,得到第一世界坐标;根据该车辆的特征参数、摄像机高度、摄像机的位置以及该第一世界坐标,得到该目标的世界坐标。基于上述第一方面的第一种可能的实现方式,若目标为车辆,可以根据目标的图像信息查询车辆的特征参数,并将目标的图像坐标与摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到第一世界坐标,再根据车辆的特征参数、摄像机高度、摄像机的位置以及第一世界坐标,得到目标的世界坐标,从而对车辆进行定位,在定位的过程中,先通过图像处理方法获取目标的图像坐标,再利用数学公式计算目标的世界坐标,不容易受到遮挡物的影响,因此定位精度较高。
结合第一方面以及第一方面的第一种可能的实现方式,在第二种可能的实现方式中,若该目标为车辆,该目标的图像坐标为该摄像机拍摄的图像中该目标的特征像素点的坐标。基于上述第一方面的第二种可能的实现方式,若目标为车辆,可以根据摄像机的估计外参、摄像机的内参以及摄像机拍摄的图像中目标的特征像素点的坐标得到目标的世界坐标,从而实现对目标的定位,而且在定位过程中不容易受到遮挡物的影响,定位精度较高。
结合第一方面,在三种可能的实现方式中,若该目标不是车辆,该根据该摄像机的估计外参、该摄像机的内参以及该目标的图像坐标得到该目标的世界坐标,包括:根据该摄像机的估计外参得到该摄像机的估计外参对应的物理变换矩阵;根据该摄像机的内参得到该摄像机的内参矩阵;该目标的图像坐标、该摄像机的估计外参对应的物理变换矩阵以及该摄像机的内参矩阵进行坐标变换,得到该目标的世界坐标。基于上述第一方面的第三种可能的实现方式,若目标不是车辆,可以将目标的图像坐标、摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到目标的世界坐标,从而对目标进行定位,在定位的过程中,先通过图像处理方法获取目标的图像坐标,再利用数学公式计算目标的世界坐标,不容易受到遮挡物的影响,因此定位精度较高。
结合第一方面以及第一方面的第三种可能的实现方式,在第四种可能的实现方式中,若该目标不是车辆,该目标的图像坐标为该摄像机拍摄的图像中该目标与地面的接触点的坐标。基于上述第一方面的第四种可能的实现方式,若目标不是车辆,可以根据摄像机的估计外参、摄像机的内参以及摄像机拍摄的图像中目标与地面的接触点的坐标得到目标的世界坐标,从而实现对目标的定位,而且在定位过程中不容易受到遮挡物的影响,定位精度较高。
结合第一方面以及第一方面的各种可能的实现方式,在第五种可能的实现方式中,该方法还包括:根据该摄像机的估计外参、该摄像机的内参以及第一偏差的图像坐标得到第一偏差的世界坐标,其中,该第一偏差的图像坐标为将该目标的图像坐标向车辆行驶方向增加偏差d后的坐标;根据该摄像机的估计外参、该摄像机的内参以及第二偏差的图像坐标得到第二偏差的世界坐标,其中,该第二偏差的图像坐标为将该目标的图像坐标向车辆行驶方向减少偏差d后的坐标;计算该第一偏差的世界坐标与该第二偏差的世界坐标之间的距离,得到该目标的定位精度。基于上述第一方面的第五种可能的实现方式,可以根据摄像机的估计外参、摄像机的内参以及第一偏差的图像坐标得到第一偏差的世界坐标,根据摄像机的估计外参、摄像机的内参以及第二偏差的图像坐标得到第二偏差的世界坐标,再计算第一偏差的世界坐标与第二偏差的世界坐标之间的距离,得到目标的定位精度,从而可以对车辆或人进行更准确的定位。
结合第一方面以及第一方面的各种可能的实现方式,在第六种可能的实现方式中,该方法还包括:获取该摄像机拍摄区域中特殊视觉标识的世界坐标,其中,该特殊视觉标识位于该摄像机的拍摄区域的第一坐标与第二坐标之间,该第一坐标为该摄像机的视场近点距离的最大值的位置的坐标,该第二坐标为该摄像机的视场远点距离的最小值的位置的坐标;根据该特殊视觉标识的世界坐标,得到该拍摄区域中多个估计点的世界坐标;获取该摄像机拍摄区域中该特殊视觉标识的图像坐标;根据该特殊视觉标识的图像坐标,得到该拍摄区域中多个估计点的图像坐标;根据该多个估计点的世界坐标、该多个估计点的图像坐标以及该摄像机的内参得到该摄像机的估计外参。基于上述第一方面的第六种可能的实现方式,可以获取摄像机拍摄区域中特殊视觉标识的世界坐标,根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标,并获取摄像机拍摄区域中特殊视觉标识的图像坐标,根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标,再根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参,以便后续根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
结合第一方面的第六种可能的实现方式,在第七种可能的实现方式中,该根据该多个估计点的世界坐标、该多个估计点的图像坐标以及该摄像机的内参得到该摄像机的估计外参,包括:根据该摄像机的内参得到该摄像的内参矩阵;根据该多个估计点的世界坐标、该多个估计点的图像坐标以及该摄像机的内参矩阵,得到以该摄像机的估计外参对应的物理变换矩阵为未知数的方程组,通过求解该方程组得到该摄像机的估计外参对应的物理变换矩阵;根据该摄像机的估计外参对应的物理变换矩阵得到该摄像机的估计外参。基于上述第一方面的第七种可能的实现方式,可以根据摄像机的内参得到摄像的内参矩阵,根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参矩阵,得到以摄像机的估计外参对应的物理变换矩阵为未知数的方程组,并通过求解方程组得到摄像机的估计外参对应的物理变换矩阵,最后根据摄像机的估计外参对应的物理变换矩阵得到摄像机的估计外参,以便后续根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
结合第一方面的第六种可能的实现方式以及第七种可能的实现方式,在第八种可能的实现方式中,该特殊视觉标识为分道线,该分道线与该分道线周围的分道线不同。基于上述第一方面的第八种可能的实现方式,可以将与周围的分道线不同的分道线作为特殊视觉标识,以便根据该特殊视觉标识确定多个估计点的世界坐标以及该多个估计点的图像坐标,从而根据该多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参,进而可以根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
结合第一方面以及第一方面的各种可能的实现方式,在第九种可能的实现方式中,该方法还包括:将该摄像机的估计外参更新到该电子地图中。基于上述第一方面的第九种可能的实现方式,可以将摄像机的估计外参更新到电子地图中,以便后续根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
结合第一方面以及第一方面的各种可能的实现方式,在第十种可能的实现方式中,该方法还包括:将该目标的世界坐标更新到该电子地图中;或者,向行驶中的车辆发送该目标的世界坐标。基于上述第一方面的第十种可能的实现方式,可以将目标的世界坐标更新到电子地图中,或者,向行驶中的车辆发送该目标的世界坐标,以便车辆根据该目标的世界坐标进行定位。
第二方面,本申请实施例提供一种定位方法,该方法包括:获取摄像机的初始外参以及该摄像机的内参;根据该摄像机的初始外参以及该摄像机的内参,确定停车场中特殊视觉标识的位置,其中,该特殊视觉标识用于对该摄像机拍摄区域中的目标进行定位。
上述第二方面提供的技术方案,可以获取摄像机的初始外参以及摄像机的内参,并根据摄像机的初始外参以及摄像机的内参确定停车场中特殊视觉标识的位置,以便后续根据特殊视觉标识确定多个估计点的世界坐标以及该多个估计点的图像坐标,从而根据该多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参,进而可以根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
结合第二方面,在第二方面的第一种可能的实现方式中,该根据该摄像机的初始外参以及该摄像机的内参,确定停车场中特殊视觉标识的位置,包括:根据该摄像机的初始外参以及该摄像机的内参,确定该摄像机的视场近点距离的最大值的位置以及该摄像机的视场远点距离的最小值的位置;确定该摄像机的视场近点距离的最大值的位置与该摄像机的视场远点距离的最小值的位置之间的区域为特殊视觉标识的位置。基于上述第二方面的第一种可能的实现方式,可以先根据摄像机的初始外参以及摄像机的内参确定摄像机的视场近点距离的最大值的位置以及摄像机的视场远点距离的最小值的位置,再确定摄像机的视场近点距离的最大值的位置与摄像机的视场远点距离的最小值的位置之间的区域为特殊视觉标识的位置,以便后续根据特殊视觉标识确定多个估计点的世界坐标以及该多个估计点的图像坐标,从而根据该多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参,进而可以根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
结合第二方面以及第二方面的第一种可能的实现方式,在第二种可能的实现方式中,该摄像机的初始外参包括:该摄像机的位置、摄像机高度以及该摄像机的俯仰角。基于上述第二方面的第二种可能的实现方式,可以获取摄像机的位置、摄像机高度、摄像机的俯仰角以及摄像机的内参,并根据摄像机的位置、摄像机高度、摄像机的俯仰角以及摄像机的内参确定停车场中特殊视觉标识的位置,以便后续根据特殊视觉标识确定多个估计点的世界坐标以及该多个估计点的图像坐标,从而根据该多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参,进而可以根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
第三方面,本申请实施例提供了一种定位装置,该定位装置具有实现上述第一方面所述的方法和功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
第四方面,本申请实施例提供了一种定位装置,该定位装置具有实现上述第二方面所述的方法和功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
第五方面,本申请实施例提供了一种定位装置,包括:至少一个处理器以及至少一个存储器,该至少一个存储器与该至少一个处理器耦合;该至少一个存储器用于存储计算机程序,使得该计算机程序被该至少一个处理器执行时实现如第一方面及其各种可能的实现方式所述的定位方法。可选的,该定位装置还包括通信接口,该通信接口与该至少一个处理器耦合;该定位装置通过该通信接口与其他设备通信。
第六方面,本申请实施例提供了一种定位装置,包括:至少一个处理器以及至少一个存储器,该至少一个存储器与该至少一个处理器耦合;该至少一个存储器用于存储计算机程序,使得该计算机程序被该至少一个处理器执行时实现如第二方面及其各种可能的实现方式所述的定位方法。可选的,该定位装置还包括通信接口,该通信接口与该至少一个处理器耦合;该定位装置通过该通信接口与其他设备通信。
第七方面,本申请提供了一种系统芯片,该系统芯片可以应用在定位装置中,该系统芯片包括:至少一个处理器,涉及的程序指令在该至少一个处理器中执行,以实现如第一方面及其各种可能的实现方式所述的定位方法。可选的,该系统芯片还可以包括至少一个存储器,该存储器存储有涉及的程序指令。
第八方面,本申请提供了一种系统芯片,该系统芯片可以应用在定位装置中,该系统芯片包括:至少一个处理器,涉及的程序指令在该至少一个处理器中执行,以实现如第二方面及其各种可能的实现方式中所述的定位方法。可选的,该系统芯片还可以包括至少一个存储器,该存储器存储有涉及的程序指令。
第九方面,本申请实施例提供了一种计算机可读存储介质,如计算机非瞬态的可读存储介质。其上储存有计算机程序,当该计算机程序在计算机上运行时,使得计算机执行上述第一方面的任一种可能的方法。例如,该计算机可以是至少一个存储节点。
第十方面,本申请实施例提供了一种计算机可读存储介质,如计算机非瞬态的可读存储介质。其上储存有计算机程序,当该计算机程序在计算机上运行时,使得计算机执行上述第二方面的任一种可能的方法。例如,该计算机可以是至少一个存储节点。
第十一方面,本申请实施例提供了一种计算机程序产品,当其在计算机上运行时,使得第一方面提供的任一方法被执行。例如,该计算机可以是至少一个存储节点。
第十二方面,本申请实施例提供了一种计算机程序产品,当其在计算机上运行时,使得第二方面提供的任一方法被执行。例如,该计算机可以是至少一个存储节点。
可以理解的,上述提供的任一种定位装置、系统芯片、计算机存储介质或计算机程序产品等均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考对应的方法中的有益效果,此处不再赘述。
附图说明
图1为本申请实施例提供的定位方法的原理图;
图2为本申请实施例提供的停车场示意图;
图3为本申请实施例提供的视觉标识的示意图;
图4为本申请实施例提供的摄像机拍摄区域示意图;
图5为本申请实施例提供的特殊视觉标识的部署示意图;
图6为本申请实施例提供的定位系统架构示意图;
图7为本申请实施例提供的硬件设备的硬件结构示意图;
图8为本申请实施例提供的定位方法的流程示意图一;
图9为本申请实施例提供的摄像机拍摄的图像的示意图;
图10为本申请实施例提供的根据第一世界坐标得到目标的世界坐标的原理图;
图11为本申请实施例提供的定位方法的流程示意图二;
图12为本申请实施例提供的定位方法的流程示意图三;
图13为本申请实施例提供的定位装置的结构示意图一;
图14为本申请实施例提供的定位装置的结构示意图二;
图15为本申请实施例提供的定位装置的结构示意图三;
图16为本申请实施例提供的定位装置的结构示意图四;
图17为本申请实施例提供的定位装置的结构示意图五。
具体实施方式
本申请实施例的基本原理为:利用场端/路侧部署的视觉感知设备(例如:摄像机)采集到的图像信息以及车道线等视觉标识,获取AVP场景中某个目标(例如:车辆或者人)的图像坐标系信息,基于图像坐标系信息与世界坐标系信息间的变换关系,将获取到的图像坐标系信息变换为世界坐标系信息,根据目标的世界坐标系信息完成目标定位,并通过网络将目标的定位实时传输给车辆。如此,可以利用AVP场景中部署的视觉感知设备实现目标定位,因视觉感知设备采集图像信息时不容易受到遮挡物的影响,因此,与现有定位方法相比,利用视觉感知设备实现目标定位可以提高定位精度,尤其是,提高室内或地下环境的定位精度。
其中,图像坐标系(image coordinate)是以摄像机拍摄的图像的中心为原点,在该摄像机拍摄的图像上建立的坐标系,图像坐标系是二维坐标系。图像坐标系信息包括图像坐标系中点的图像坐标。
其中,世界坐标系(world coordinate)是电子地图使用的坐标系,世界坐标系是三维坐标系。世界坐标系信息包括世界坐标系中点的世界坐标。
本申请实施例中,以视觉感知设备为摄像机为例进行描述。
其中,图像坐标系信息与世界坐标系信息间的变换关系可以如图1所示:
图1中,二维坐标系o-xy为摄像机拍摄的图像q的图像坐标系,其中,x轴和y轴的交点为o,即o为图像坐标系的原点,图像平面q上任一点的坐标可以用图像坐标(x,y)表示。三维坐标系O-XYZ为电子地图使用的坐标系,即世界坐标系,世界坐标系中的任一平面可以称为世界平面。其中,世界平面Q为电子地图中的任一平面(即世界平面Q为O-XYZ中的任一平面),世界平面Q上任一点的坐标可以用世界坐标(X,Y,Z)表示。其中,图像平面q与世界平面Q有如下变换关系:q=sHQ。
其中,q表示图像平面中点的图像坐标,Q表示世界平面中点的世界坐标,s为尺度比例因子,单应矩阵H=MW。
其中,M是摄像机的内参矩阵,fx表示摄像机中透镜物理焦距长度与成像的每个单元尺寸在x方向的乘积。fy表示摄像机中透镜物理焦距长度与成像的每个单元尺寸在y方向的乘积。cx表示投影坐标中心相对光轴在x方向的偏移,cy表示投影坐标中心相对光轴在y方向的偏移。成像的每个单元尺寸可以是摄像机拍摄的图像中的一个像素。
其中,W=[R,t],W是摄像机的外参的物理变换矩阵。R为3*3的正交单位矩阵,也称为旋转矩阵,t为三维的平移向量。
上述变换关系主要应用在以下两种情况:
情况1:若图像平面q与世界平面Q有上述变换关系,并且已知q上某一点的图像坐标,尺度比例因子以及单应矩阵H,可以根据上述图像平面与世界平面的变换关系计算该点在Q上的世界坐标。
例如,图1中,平面q上某一点的图像坐标为(x1,y1),若摄像机的内参矩阵为M,摄像机的外参的物理变换矩阵为W,尺度比例因子为s,则根据图像平面与世界平面的变换关系,可以得到以X1,Y1,Z1为未知数的方程:其中,H=MW,对该方程求解,可以得到该点在世界平面Q上的坐标(X1,Y1,Z1)。
情况2:若图像平面q与世界平面Q有上述变换关系,并且已知q中多个点的图像坐标、该多个点在世界平面Q中的世界坐标以及摄像机的内参矩阵,可以根据上述图像平面与世界平面的变换关系计算出尺度比例因子与摄像机的外参的物理变换矩阵的乘积。
例如,图1中,Q1为世界平面Q上的一个矩形,矩形q1为矩形Q1根据上述图像平面与世界平面的变换关系,在图像平面q上映射的矩形,若矩形q1的4个角的图像坐标分别为(x1,y1),(x2,y2),(x3,y3)以及(x4,y4),矩形Q1的4个角的世界坐标分别为(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3)以及(X4,Y4,Z4),摄像机的内参矩阵为M,则根据图像平面与世界平面的变换关系可以得到以sH为未知数的超定方程:并利用约束最小二乘法或随机抽样一致性等方法对该超定方程求解,可以得到sH,再将sH与摄像机的内参矩阵M做除法,得到尺度比例因子与摄像机的外参的物理变换矩阵的乘积。
下面基于上述原理,结合附图对本申请实施例的实施方式进行详细描述。
本申请实施例提供的方法可以应用于任一停车场,用于定位该停车场中的车辆或者人。图2为本申请实施例提供的一种停车场示意图,在执行本申请实施例提供的定位方法之前,可以根据需要对该停车场进行如图2所示的初始化部署,部署完成后,如图2所示,该停车场可以包括:摄像机,边缘设备,分道线和停车位线等多个视觉标识。多台摄像机的拍摄区域可以覆盖整个停车场。
摄像机,可以包括传统摄像机和智能摄像机。传统摄像机是仅具备摄像能力的摄像机,智能摄像机除了具备摄像能力,还具备图像处理和人工智能算法功能。摄像机中可以存储该摄像机的内参,例如,摄像机的视场角(fieldofvision,FOV)和焦距。
智能摄像机可以利用图像处理方法提取智能摄像机拍摄的图像中多个估计点的图像坐标,智能摄像机还可以利用人工智能算法检测该智能摄像机拍摄的图像中是否有目标(例如:车辆、人或动物等)。
可选的,若摄像机为传统摄像机时,在停车场部署边缘计算装置(在图2中未示出)。
其中,该边缘计算装置具备图像处理和人工智能算法功能。该边缘计算装置可以与一台或多台传统摄像机通信。例如,该边缘计算装置可以从传统摄像机获取图像,并利用图像处理方法提取该传统摄像机的图像中多个估计点的图像坐标。又例如,该边缘计算装置可以从传统摄像机获取图像,并利用人工智能算法检测该传统摄像机的图像中是否有目标(例如:车辆、人或动物等)。
摄像机可以与边缘设备通过有线或者无线通信。
边缘设备,可以是停车场的服务器,也可以是具有图形处理器(graphicsprocessing unit,GPU)的计算处理能力的处理器,例如:智能交通边缘服务器(Intelligent Transportation Edge Server,ITE server)或者智能交通边缘计算盒子。可选的,边缘设备存储有停车场的电子地图,包括:利用车载激光雷达扫描等方法生成停车场的电子地图;将停车场的电子地图上传到边缘设备。
其中,该电子地图可以包括地图(Map)层。该地图层可以用于存储执行本申请实施例提供的定位方法所需要的参数。
一种可能的实现方式,该地图层中存储有每个摄像机的拍摄区域中视觉标识的世界坐标。例如,地图层中存储有图3中摄像机1的拍摄区域302中一般视觉标识303的世界坐标(例如,一般视觉标识303的四个角的世界坐标),特殊视觉标识304的世界坐标(例如,特殊视觉标识304的四个角的世界坐标)、一般视觉标识305的世界坐标(例如,一般视觉标识305的四个角的世界坐标)以及一般视觉标识306的世界坐标(例如,一般视觉标识304的四个角的世界坐标)。地图层中还存储有图3中摄像机2的拍摄区域309中一般视觉标识310的世界坐标(例如,一般视觉标识310的四个角的世界坐标),特殊视觉标识311的世界坐标(例如,特殊视觉标识311的四个角的世界坐标)、一般视觉标识312-一般视觉标识314的世界坐标(例如,一般视觉标识312-一般视觉标识314的四个角的世界坐标)以及特殊视觉标识315的世界坐标(例如,特殊视觉标识315的是个角的世界坐标)。
另一种可能的实现方式,该地图层中存储有每个摄像机的拍摄区域中视觉标识的世界坐标以及每个摄像机的初始外参。
例如,地图层中存储有图3中摄像机1的拍摄区域302中视觉标识的世界坐标、在安装摄像机1时记录的摄像机1的初始外参(例如:摄像机1的位置,摄像机1光心高度G、以及摄像机1的俯仰角θ)、摄像机2的拍摄区域309中视觉标识的世界坐标、在安装摄像机2时记录的摄像机2的初始外参(例如:摄像机2的位置,摄像机2光心高度G、以及摄像机2的俯仰角θ)。
视觉标识,可以是分道线、停车位线以及立柱等标识。
可选的,视觉标识包括特殊视觉标识和一般视觉标识。特殊视觉标识和一般视觉标识为相对概念,特殊视觉标识可以是停车场中分布相对稀疏,且易于被检测、识别或者定位的视觉标识,特殊视觉标识可以用于辅助定位。除特殊视觉标识之外的视觉标识可以称为一般视觉标识。特殊视觉标识可以具备以下特征的至少一种:(1)与一般视觉标识不同的标识;(2)与车端感知系统兼容,不产生歧义,也不对车端自动驾驶系统的道路检测等功能带来干扰;(3)应符合自动驾驶领域标准(例如:P2020)对标志物的颜色可分性等特性的要求,而且应尽量不增加实体,不影响原有道路标识的完整性。
应注意,图2所示的停车场仅用于举例,并非用于限制本申请的技术方案。本领域的技术人员应当明白,在具体实现过程中,图2所示的停车场还可以包括其他设备,同时也可根据具体需要来确定边缘设备、摄像机和视觉标识的数量。
以视觉标识为分道线为例,特殊视觉标识可以为宽度异于一般视觉标识的宽度的分道线、或者,颜色较醒目的分道线。
例如,图4为视觉标识的示意图。图4中的(a)中,道路410上有三个视觉标识,分别为一般视觉标识411、特殊视觉标识412以及一般视觉标识413,其中,一般视觉标识411、特殊视觉标识412以及一般视觉标识413的颜色都是白色,特殊视觉标识412的宽度大于一般视觉标识411和一般视觉标识413。
又例如,图4中的(b)中,道路420上有三个视觉标识,分别为一般视觉标识421、特殊视觉标识422以及一般视觉标识423,其中,一般视觉标识421、特殊视觉标识422以及一般视觉标识423的颜色都是白色,特殊视觉标识422的宽度小于一般视觉标识421和一般视觉标识423。
再例如,图4中的(c)中,道路430上有三个视觉标识,分别为一般视觉标识431、特殊视觉标识432以及一般视觉标识433,其中,一般视觉标识431以及一般视觉标识433的颜色都是白色,特殊视觉标识432的颜色是红色。
需要说明的是,图4所示的特殊视觉标识412、特殊视觉标识422以及特殊视觉标识432仅是特殊视觉标识的举例,实际应用中,特殊视觉标识还可以是其他形式的标识,不予限制。
其中,可以采用有下述方式1或者方式2部署摄像机以及视觉标识:
其中,方式1可以包括步骤1-步骤2。
步骤1:获取摄像机的初始外参以及摄像机的内参。
其中,摄像机的初始外参可以描述为安装摄像机后,人工测量得到的摄像机的外参。摄像机的外参可以包括但不限于摄像机的位置,摄像机高度G、以及摄像机的俯仰角θ等。
其中,摄像机的位置是摄像机安装在停车场的位置(例如,摄像机安装后的世界坐标)。摄像机的高度可以是摄像机光心高度,摄像机光心高度是摄像机光心距地面的高度。摄像机的俯仰角是摄像机的中心光束与地面的夹角。
首先,相关人员可以根据停车场的面积以及摄像机的覆盖区域的大小,规划摄像机的位置,并可以根据规划的摄像机的位置在停车场中安装摄像机,并在安装摄像机后记录摄像机的初始外参。在停车场部署视觉标识时,可以获取该初始外参,并从该摄像机中获取摄像机的内参。
步骤2:根据摄像机的初始外参以及摄像机的内参,确定停车场中特殊视觉标识的位置。
按照现有技术中部署视觉标识的标准,在停车场中部署一般视觉标识,并在停车场中视觉标识的位置处部署特殊视觉标识。
可选的,根据摄像机的初始外参以及摄像机的内参,确定停车场中特殊视觉标识的位置,包括:根据摄像机的初始外参以及摄像机的内参,确定摄像机的视场近点距离的最大值的位置以及所述摄像机的视场远点距离的最小值的位置;确定所述摄像机的视场近点距离的最大值的位置与所述摄像机的视场远点距离的最小值的位置之间的区域为特殊视觉标识的位置。
其中,根据摄像机的初始外参以及摄像机的内参,确定摄像机的视场近点距离的最大值的位置以及所述摄像机的视场远点距离的最小值的位置,包括:根据公式1:计算摄像机的视场近点距离的最大值,根据公式2:计算摄像机的视场远点距离的最小值;根据摄像机的位置以及摄像机的视场近点距离的最大值计算摄像机的视场近点距离的最大值的位置,根据摄像机的位置以及摄像机的视场远点距离的最小值计算摄像机的视场远点距离的最小值的位置。
其中,Nmax是摄像机的视场近点距离的最大值,Gmin是摄像机光心高度的最小值,FOV是摄像机的视场角,θ是摄像机的俯仰角,Δ是摄像机俯仰角的估计范围,Gmax是摄像机光心高度的最大值,Fmin是摄像机的视场远点距离的最小值。
其中,摄像机的视场近点距离的最大值是指摄像机光心高度最高、摄像机的俯仰角最小时,摄像机投影到地面的位置(图5中的(a)中的A点)与摄像机下光束与地面的交点的位置(图5中的(a)中的B点)之间的距离。摄像机的视场近点距离的最大值的位置是摄像机的光心高度最高且俯仰角最小时,摄像机下光束与地面的交点的位置。
其中,摄像机的视场远点距离的最小值是指摄像机光心高度最低、摄像机的俯仰角最大时,摄像机投影到地面的位置(图5中的(b)中的C点)与摄像机上光束与地面的交点的位置(图5中的(b)中的D点)之间的距离。摄像机的视场远点距离的最小值的位置是摄像机光心高度最低且俯仰角最大时,摄像机上光束与地面的交点的位置。
图3中的(a)中,道路301上有一般视觉标识303、特殊视觉标识304、一般视觉标识305以及一般视觉标识306。其中,一般视觉标识的颜色是白色的,特殊视觉标识的颜色是黄色的,一般视觉标识303、特殊视觉标识304、一般视觉标识305以及一般视觉标识306在摄像机1的拍摄区域302中。特殊视觉标识304和一般视觉标识305在区域307中,区域307为摄像机1的视场近点距离的最大值的位置与摄像机1的视场远点距离的最小值的位置之间的区域。
图3中的(b)中,道路308上有一般视觉标识310、特殊视觉标识311、一般视觉标识312、一般视觉标识313、一般视觉标识314以及特殊视觉标识315。其中,一般视觉标识的颜色是白色的,特殊视觉标识的颜色是黄色的,一般视觉标识310、特殊视觉标识311、一般视觉标识312、一般视觉标识313、一般视觉标识314以及特殊视觉标识315在摄像机2的拍摄区域309中。特殊视觉标识311、一般视觉标识312、一般视觉标识313一般视觉标识314以及特殊视觉标识315在区域316中,区域316为摄像机2的视场近点距离的最大值的位置与摄像机2的视场远点距离的最小值的位置之间的区域。
需要说明的是,在摄像机拍摄区域中,摄像机的视场近点距离的最大值的位置与摄像机的视场远点距离的最小值的位置之间的区域部署特殊视觉标识,是为了后续在计算摄像机的估计外参时,便于找到摄像机拍摄的图像中多个估计点的图像坐标与电子地图中该多个估计点的世界坐标,因此,在摄像机拍摄区域中,摄像机的视场近点距离的最大值的位置与摄像机的视场远点距离的最小值的位置之间的区域仅部署少量的特殊视觉标识(例如:1-3个特殊视觉标识)即可达到上述目的。
其中,摄像机的估计外参是根据摄像机拍摄区域中多个估计点的世界坐标、该多个估计点的图像坐标以及摄像机的内参得到的。
其中,方式2可以包括步骤A-步骤B。
步骤A:在停车场中部署视觉标识。
可选的,若是在现有停车场(即:已经按照现有技术中部署视觉标识的标准,部署了一般视觉标识的停车场)中部署视觉标识,可以按照一定规则(例如,每间隔一段距离)将少数一般视觉标识改造成特殊视觉标识。
可选的,若是在新建的停车场(即:未部署视觉标识的停车场)中部署视觉标识,可以按照现有技术中部署视觉标识的标准,在停车场中部署一般视觉标识,并按照一定规则(例如,每间隔一段距离)在应该部署一般视觉标识的位置上部署特殊视觉标识。
步骤B:根据特殊视觉标识的位置部署摄像机。
一种可能的实现方式,根据特殊视觉标识的位置估计摄像机光心高度最高、摄像机的俯仰角最小时,摄像机下光束与地面的交点的位置以及摄像机光心高度最低、摄像机的俯仰角最大时,摄像机上光束与地面的交点的位置;根据摄像机光心高度最高、摄像机的俯仰角最小时,摄像机下光束与地面的交点的位置、摄像机的FOV以及上述公式1估计Gmax和θ,根据摄像机光心高度最低、摄像机的俯仰角最大时,摄像机上光束与地面的交点的位置、摄像机的FOV以及上述公式2估计Gmin和θ;根据摄像机光心高度最高且摄像机的俯仰角最小时摄像机下光束与地面的交点的位置、摄像机光心高度最低且摄像机的俯仰角最大时摄像机上光束与地面的交点的位置、Gmin、Gmax和θ部署摄像机,使得特殊视觉标识在摄像机光心高度最高且摄像机的俯仰角最小时摄像机下光束与地面的交点的位置,与摄像机光心高度最低且摄像机的俯仰角最大时摄像机上光束与地面的交点的位置之间。
如图6所示,为本申请实施例提供的定位系统的架构示意图。
图6中的(a)所示的定位系统包括边缘设备610、车辆620以及智能摄像机630。
其中,边缘设备610可以是在停车场初始化过程中部署的边缘设备,智能摄像机630可以是在停车场初始化过程中部署的智能摄像机。
其中,车辆620可以是停车场中行驶的或者停止的智能网联车。该车辆620中可以包括车载盒子(telematics bOX,T-Box),域控制器(domian controller,DC),多域控制器(multi-domian controller,MDC),车载单元(on board unit,OBU),车联网芯片等。
停车场初始化完成后,边缘设备610存储有停车场的电子地图,电子地图的地图层中存储有智能摄像机630的拍摄区域中视觉标识的世界坐标,或者,电子地图的地图层中存储有智能摄像机630的拍摄区域中视觉标识的世界坐标以及智能摄像机630的初始外参。智能摄像机630的视场近点距离的最大值的位置与智能摄像机630的视场远点距离的最小值的位置之间存在特殊视觉标识。
边缘设备610可以与车辆620以及智能摄像机630通信,为车辆620以及智能摄像机630提供服务。例如,边缘设备610可以向智能摄像机630发送智能摄像机630的拍摄区域中视觉标识的世界坐标,以便智能摄像机630根据智能摄像机630的拍摄区域中视觉标识的世界坐标,计算智能摄像机630的估计外参。又例如,智能摄像机630可以在对车辆620定位后,将车辆620的世界坐标发送给边缘设备610,边缘设备610在接收到车辆620的世界坐标后,将车辆620的世界坐标发送给车辆620,以便车辆620知道自己在电子地图中的位置。
可选的,智能摄像机630与车辆620通信,为车辆620提供服务。例如,智能摄像机630可以在对车辆620定位后,将车辆620的世界坐标发送给车辆620,以便车辆620知道自己在电子地图中的位置。
应注意,图6中的(a)所示的定位系统仅用于举例,并非用于限制本申请的技术方案。本领域的技术人员应当明白,在具体实现过程中,该定位系统还可以包括其他设备,同时也可根据具体需要来确定边缘设备、智能摄像机和车辆的数量。
图6中的(b)所示的定位系统包括边缘设备640、车辆650、边缘计算装置660、传统摄像机670以及传统摄像机680。
边缘设备640以及车辆650的介绍可以参考上述对边缘设备610以及车辆620的描述,不予赘述。
边缘计算装置660可以是在停车场初始化过程中部署的边缘计算装置,传统摄像机670和传统摄像机680可以是在停车场初始化过程中部署的传统摄像机。
可选的,边缘计算装置660是智能交通边缘计算盒子(intelligenttransportation edge server,ITE server)中的处理器芯片。
停车场初始化完成后,边缘设备640存储有停车场的电子地图,电子地图的地图层中存储有传统摄像机670的拍摄区域中视觉标识的世界坐标以及传统摄像机680的拍摄区域中视觉标识的世界坐标,或者,电子地图的地图层中存储有传统摄像机670的拍摄区域中视觉标识的世界坐标、传统摄像机680的拍摄区域中视觉标识的世界坐标、传统摄像机670的初始外参以及传统摄像机680的初始外参。传统摄像机670的视场近点距离的最大值的位置与传统摄像机670的视场远点距离的最小值的位置之间存在第一特殊视觉标识,传统摄像机680的视场近点距离的最大值的位置与传统摄像机680的视场远点距离的最小值的位置之间存在第二特殊视觉标识。
其中,第一特殊视觉标识和第二特殊视觉标识可以相同也可以不同。
图6中的(b)中,传统摄像机670可以将传统摄像机670的拍摄区域的图像发送给边缘设备640,以便边缘设备640将传统摄像机670的拍摄区域的图像发送给边缘计算装置660,或者,传统摄像机670可以将传统摄像机670的拍摄区域的图像直接发送给边缘计算装置660,边缘计算装置660可以根据传统摄像机670的拍摄区域的图像对传统摄像机670的拍摄区域中的目标进行定位。传统摄像机680可以将传统摄像机680的拍摄区域的图像发送给边缘设备640,以便边缘设备640将传统摄像机680的拍摄区域的图像发送给边缘计算装置660,或者,传统摄像机680可以将传统摄像机680的拍摄区域的图像直接发送给边缘计算装置660,边缘计算装置660可以根据传统摄像机680的拍摄区域的图像对传统摄像机680的拍摄区域中的目标进行定位。
图6中的(b)中,边缘设备640可以与车辆650以及边缘计算装置660通信,为车辆640以及边缘计算装置660提供服务。例如,边缘设备640可以向边缘计算装置660发送传统摄像机670的拍摄区域中视觉标识的世界坐标,以便边缘计算装置660根据传统摄像机670的拍摄区域中视觉标识的世界坐标,估计传统摄像机670的估计外参。又例如,边缘计算装置660可以在对车辆650定位后,将车辆650的世界坐标发送给边缘设备640,边缘设备640在接收到车辆650的世界坐标后,将车辆650的世界坐标发送给车辆650。
可选的,边缘计算装置660与车辆650通信,为车辆650提供服务。例如,边缘计算装置660可以在对车辆650定位后,将车辆650的世界坐标发送给车辆650。
应注意,图6中的(b)所示的定位系统仅用于举例,并非用于限制本申请的技术方案。本领域的技术人员应当明白,在具体实现过程中,该定位系统还可以包括其他设备,同时也可根据具体需要来确定边缘设备、边缘计算装置、传统摄像机和车辆的数量。
可选的,本申请实施例图6中的智能摄像机630或边缘计算装置660,可以是一个设备内的一个功能模块。可以理解的是,上述功能既可以是硬件设备中的网络元件,例如手机中的通信芯片,也可以是在专用硬件上运行的软件功能,或者是平台(例如,云平台)上实例化的虚拟化功能。
例如,图6中的智能摄像机630或边缘计算装置660均可以通过图7中的硬件设备700来实现。图7所示为可适用于本申请实施例的硬件设备的硬件结构示意图。该硬件设备700包括至少一个处理器701,通信线路702以及存储器703。
处理器701可以是一个图形处理器(graphics processing unit,GPU),微处理器,特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制本申请方案程序执行的集成电路。
通信线路702可包括一通路,在上述组件之间传送信息,例如总线。
存储器703可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electricallyerasable programmable read-only memory,EEPROM)、只读光盘(compact disc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以是独立存在,通过通信线路702与处理器相连接。存储器也可以和处理器集成在一起。本申请实施例提供的存储器通常可以具有非易失性。其中,存储器703用于存储执行本申请方案所涉及的计算机执行指令,并由处理器701来控制执行。处理器701用于执行存储器703中存储的计算机执行指令,从而实现本申请实施例提供的方法。
可选的,本申请实施例中的计算机执行指令也可以称之为应用程序代码,本申请实施例对此不作具体限定。
在具体实现中,作为一种实施例,处理器701可以包括一个或多个GPU,例如图7中的GPU0和GPU1。
在具体实现中,作为一种实施例,硬件设备700可以包括多个处理器,例如图7中的处理器701和处理器707。这些处理器中的每一个可以是一个单核(single-GPU)处理器,也可以是一个多核(multi-GPU)处理器。这里的处理器可以指一个或多个设备、电路、和/或用于处理数据(例如计算机程序指令)的处理核。
在具体实现中,作为一种实施例,硬件设备700还可以包括通信接口704。通信接口704,使用任何收发器一类的装置,用于与其他设备或通信网络通信,如以太网接口,无线接入网接口(radio access network,RAN),无线局域网接口(wireless local areanetworks,WLAN)等。
在具体实现中,作为一种实施例,硬件设备700还可以包括输出设备705和输入设备706。输出设备705和处理器701通信,可以以多种方式来显示信息。例如,输出设备705可以是液晶显示器(liquid crystal display,LCD),发光二级管(light emitting diode,LED)显示设备,阴极射线管(cathode ray tube,CRT)显示设备,或投影仪(projector)等。输入设备706和处理器701通信,可以以多种方式接收用户的输入。例如,输入设备706可以是鼠标、键盘、触摸屏设备或传感设备等。
可选的,若图6中的智能摄像机630通过图7中的硬件设备700来实现时,硬件设备700还包括摄像头,该摄像头可以用于采集图像信息。
上述的硬件设备700可以是一个通用设备或者是一个专用设备。本申请实施例不限定硬件设备700的类型。
下面将结合图1-图7对本申请实施例提供的定位方法进行具体阐述。
可以理解的,本申请实施例中,智能摄像机和/或边缘计算装置可以执行本申请实施例中的部分或全部步骤,这些步骤仅是示例,本申请实施例还可以执行其它步骤或者各种步骤的变形。此外,各个步骤可以按照本申请实施例呈现的不同的顺序来执行,并且有可能并非要执行本申请实施例中的全部步骤。
如图8所示,为本申请实施例提供的一种定位方法,该定位方法包括步骤801-步骤803。
步骤801:获取摄像机的估计外参以及摄像机的内参。
其中,摄像机的估计外参是根据摄像机拍摄区域中多个估计点的世界坐标、该多个估计点的图像坐标以及摄像机的内参得到的。
其中,摄像机的内参可以包括摄像机的FOV与焦距。
可选的,获取摄像机的估计外参以及摄像机的内参,包括:向边缘设备发送摄像机的ID;接收来自边缘设备的摄像机的估计外参以及摄像机的内参。
其中,边缘设备可以是图6中的(a)中的边缘设备610或图6中的(b)中的边缘设备640。
在具体实现中,作为一种实施例,边缘设备中存储有摄像机ID,摄像机ID对应的估计外参以及摄像机ID对应的内参。
步骤802:获取摄像机拍摄的图像中目标的图像坐标。
其中,目标可以是要定位的人或物,例如,停车场中的车辆、人或动物等等。
可选的,若目标为车辆,目标的图像坐标可以是摄像机拍摄的图像中目标的特征像素点的坐标;若目标不是车辆,目标的图像坐标可以是摄像机拍摄的图像中目标与地面的接触点的坐标。
其中,目标的特征像素点是目标的特征参数对应的像素点。
其中,目标的特征参数可以包括以下参数的至少一种:车头距地面的高度、车尾距地面的高度、以及车牌边缘距地面的高度。
例如,若目标的特征像素点是车头特征像素点,则获取的目标的特征参数可以是车头距地面的高度;若目标的特征像素点是车尾特征像素点,则获取的目标的特征参数可以是车尾距地面的高度;若目标的特征像素点是车牌特征像素点,则获取的目标的特征参数是车牌边缘距地面的高度。
图9为摄像机拍摄的图像的示意图。图9中的(a)中,A点为摄像机拍摄的图像中车辆901的车头的特征像素点,若目标的特征参数是车头距地面的高度,可以将A点的图像坐标作为车辆901的图像坐标;C点为摄像机拍摄的图像中人902与摄像机拍摄的图像中地面903的接触区域中的任一点,可以将C点的图像坐标作为人902的图像坐标。
一种可能的实现方式,每隔预设时间,获取摄像机拍摄的图像;通过图像识别算法从摄像机拍摄的图像中提取图像区域,检测提取的图像区域是否包括待定位的目标;若包括,则获取摄像机拍摄的图像中目标的图像坐标。
其中,提取的图像区域可以包括一个待定位的目标。
例如,图9中的(b)中,区域904和区域905为通过图像处理方法从摄像机拍摄的图像中提取的图像区域,以便检测区域904以及区域905是否包括有目标,其中,区域904包括一个待定位的目标(车辆901),区域905包括一个待定位的目标(人902)。
其中,预设时间可以根据实际需求进行设置,例如,停车或取车高峰期时,预设时间可以设置为50毫秒(ms),停车或取车低峰期时,预设时间可以设置为100ms。
在具体实现中,作为一种实施例,检测每个可能包括目标的图像区域是否包括有目标,包括:根据目标识别算法(例如,YOLOv3(you only look once version 3.0)等)或深度学习算法(例如,掩膜区域卷积神经网络(mask region-based convolutional neuralnetwork,mask RCNN)等)检测可能包括目标的图像区域中是否有目标,并对目标进行分类和识别。
步骤803:根据摄像机的估计外参、摄像机的内参以及目标的图像坐标得到目标的世界坐标。
一种可能的实现方式,若目标为车辆,根据摄像机的估计外参、摄像机的内参以及目标的图像坐标得到目标的世界坐标,包括:根据摄像机的估计外参得到摄像机的估计外参对应的物理变换矩阵;根据摄像机的内参得到摄像机的内参矩阵;目标的图像坐标与摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到第一世界坐标;根据车辆的特征参数、摄像机高度、摄像机的位置以及第一世界坐标,得到目标的世界坐标。若目标为车辆时,步骤803的具体过程可以参考下述图8所示方法的第一种实现场景中的描述。
另一种可能的实现方式,若目标不是车辆,根据摄像机的估计外参、摄像机的内参以及目标的图像坐标得到目标的世界坐标,包括:根据摄像机的估计外参得到摄像机的估计外参对应的物理变换矩阵;根据摄像机的内参得到摄像机的内参矩阵;目标的图像坐标与摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到目标的世界坐标。若目标不是车辆,步骤803的具体过程可以参考下述图8所示方法的第二种实现场景中的描述。
可选的,步骤803后,将目标的世界坐标更新到电子地图中,或者,向行驶中的车辆发送目标的世界地图。
可选的,将目标的世界坐标更新到电子地图中,包括:向边缘设备发送目标的世界坐标。
边缘设备接收到目标的世界坐标后,可以将目标的世界坐标存储在MAP层中。
一种可能的实现方式,向行驶中的车辆发送目标的世界地图,包括:直接向行驶中的车辆发送目标的世界地图。
另一种可能的实现方式,向行驶中的车辆发送目标的世界地图,包括:向边缘设备发送目标的世界地图,以便边缘设备在接收到该目标的世界地图后,向行驶中的车辆发送目标的世界地图。
基于图8所示的方法,通过获取摄像机拍摄的图像中车辆或人的图像坐标,再根据摄像机拍摄区域中多个估计点的世界坐标与多个估计点的图像坐标得到的估计外参,将车辆或人的图像坐标变换为车辆或人的世界坐标,从而对车辆或人进行定位,定位精度高。
进一步可选的,在图8所示方法的第一种实现场景中,若目标为车辆,图8所示方法还包括:获取目标的图像信息;根据目标的图像信息查询车辆的特征参数;根据摄像机的估计外参、摄像机的内参以及目标的图像坐标得到目标的世界坐标,包括:根据摄像机的估计外参得到摄像机的估计外参对应的物理变换矩阵;根据摄像机的内参得到摄像机的内参矩阵;目标的图像坐标与摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到第一世界坐标;根据车辆的特征参数、摄像机高度、摄像机的位置以及第一世界坐标,得到目标的世界坐标。
其中,摄像机高度可以是摄像机光心高度,摄像机的位置可以是摄像机的世界坐标,摄像机在电子地图中的位置。摄像机高度以及摄像机的位置可以存储在边缘设备中,因此可以从边缘设备中获取摄像机的高度以及摄像机的位置。例如,向边缘设备发送摄像机的ID,边缘设备根据摄像机的ID发送摄像机ID对应的摄像机高度以及摄像机的位置。
其中,目标的图像信息可以是可能包括目标的图像区域,目标的图像信息可以包括目标的像素点以及目标的像素点的颜色信息。
其中,第一世界坐标可以是目标的图像坐标进行坐标变换后,在电子地图的地面上的坐标。
其中,摄像机的估计外参对应的物理变换矩阵可以为sW,即摄像机的估计外参对应的物理变换矩阵为尺度比例因子与摄像机的外参的物理变换矩阵的乘积。
可选的,获取目标的图像信息,包括:根据摄像机拍摄的图像获取目标的图像信息。
可选的,根据目标的图像信息查询车辆的特征参数,包括:根据目标的图像信息查询目标的车型、和/或,车款、和/或,车牌类别,根据目标的车型、和/或,车款、和/或,车牌类别查询车辆的特征参数。
例如,若根据目标的图像信息查询到目标是A牌子的B款车,进而可以查询A牌子的B款车的特征参数(例如,车头距地面的高度)。
可选的,目标的图像坐标与摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到第一世界坐标,包括:根据公式得到第一世界坐标(X1,Y1,Z1),其中,(x1,y1)为目标的图像坐标。
可选的,根据车辆的特征参数、摄像机高度、摄像机的位置以及第一世界坐标,得到目标的世界坐标,包括:根据公式d1=G1*d2/G计算第一世界坐标与目标的世界坐标之间的距离,根据第一世界坐标与目标的世界坐标之间的距离以及第一世界坐标得到目标的世界坐标。
其中,d1是第一世界坐标与目标的世界坐标之间的距离,G1是特征参数,G是摄像机光心高度,d2是摄像机光心在地面的投影坐标与第一世界坐标之间的距离。
图10为根据第一世界坐标得到目标的世界坐标的原理图。其中,图10中的(a)使用的坐标系是图像坐标系,图10中的(b)使用的坐标系是世界坐标系,图10中的(a)所示的图像平面q与图10中的(b)中的地面Q的变换关系为q=sHQ。下面以车辆1001的特征参数是车头距地面的高度G1,摄像机光心高度为G为例,介绍根据车辆的特征参数、摄像机高度、摄像机的位置以及第一世界坐标,得到目标的世界坐标的具体过程。
图10中的(a)中,A点为车辆1001的车头的特征像素点,A点的图像坐标可以作为目标的图像坐标。图10中的(b)中,D点为目标的图像坐标(即A点的图像坐标)根据变换关系q=sHQ进行坐标变换后,在电子地图的地面Q上的点,即D点的世界坐标为第一世界坐标,E点的坐标为摄像机光心的世界坐标,C点的坐标为摄像机光心在电子地图中地面Q的投影坐标。首先,根据D点、C点以及E点构建三角形DCE;其次,在三角形DCE的DE边上找到F点,使得F点与F点在电子地图中地面Q的投影的点(即B点)之间的距离为G1,其中,F点的坐标可以描述为车辆1001的车头的特征像素点的世界坐标;再次,计算C点与D点之间的距离d2,最后根据公式d1=G1*d2/G可以计算第一世界坐标与目标的世界坐标之间的距离d1(即B点与D点的距离),最后可以根据D点的坐标以及d1计算目标的世界坐标(即B点的坐标)。
基于图8所示方法的第一种实现场景,若目标为车辆,可以根据目标的图像信息查询车辆的特征参数,并将目标的图像坐标、摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到第一世界坐标,再根据车辆的特征参数、摄像机高度、摄像机的位置以及第一世界坐标,得到目标的世界坐标,从而对车辆进行定位,在定位的过程中,先通过图像处理方法获取目标的图像坐标,再利用数学公式计算目标的世界坐标,因此定位精度较高。
进一步可选的,在图8所示方法的第二种实现场景中,若目标不是车辆,根据摄像机的估计外参、摄像机的内参以及目标的图像坐标得到目标的世界坐标,包括:根据摄像机的估计外参得到摄像机的估计外参对应的物理变换矩阵;根据摄像机的内参得到摄像机的内参矩阵;目标的图像坐标、摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到目标的世界坐标。
其中,摄像机的估计外参对应的物理变换矩阵可以为sW,即摄像机的估计外参对应的物理变换矩阵为尺度比例因子与摄像机的外参的物理变换矩阵的乘积。
可选的,目标的图像坐标与摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到目标的世界坐标,包括:根据公式得到目标的世界坐标(X2,Y2,Z2),其中,(x2,y2)为目标的图像坐标。
基于图8所示方法的第二种实现场景,若目标不是车辆,可以将目标的图像坐标、摄像机的估计外参对应的物理变换矩阵以及摄像机的内参矩阵进行坐标变换,得到目标的世界坐标,从而对目标进行定位,在定位的过程中,先通过图像处理方法获取目标的图像坐标,再利用数学公式计算目标的世界坐标,因此定位精度较高。
进一步可选的,在图8所示方法的第三种实现场景中,图8所示的方法还包括:根据摄像机的估计外参、摄像机的内参以及第一偏差的图像坐标得到第一偏差的世界坐标;根据摄像机的估计外参、摄像机的内参以及第二偏差的图像坐标得到第二偏差的世界坐标;计算第一偏差的世界坐标与第二偏差的世界坐标之间的距离,得到目标的定位精度。
其中,第一偏差的图像坐标为将目标的图像坐标向车辆行驶方向增加偏差d后的坐标,第二偏差的图像坐标为将目标的图像坐标向车辆行驶方向减少偏差d后的坐标。
其中,目标的定位精度可以是定位该目标时引入的误差。
示例性的,以目标的图像坐标为(x,y),车辆沿图像坐标系的y方向行驶,d=0.5为例,第一偏差的图像坐标为(x,y+0.5),第二偏差的图像坐标为(x,y-0.5)。
可选的,根据摄像机的估计外参、摄像机的内参以及第一偏差的图像坐标得到第一偏差的世界坐标,包括:根据公式得到第一偏差的世界坐标(Xd1,Yd1,Zd1),其中,(xd1,yd1)为第一偏差的图像坐标。
可选的,根据摄像机的估计外参、摄像机的内参以及第二偏差的图像坐标得到第二偏差的世界坐标,包括:根据公式得到第二偏差的世界坐标(Xd2,Yd2,Zd2),其中,(xd2,yd2)为第二偏差的图像坐标。
可选的,计算第一偏差的世界坐标与第二偏差的世界坐标之间的距离,得到目标的定位精度,包括:根据公式计算目标的定位精度。
其中,D为定位精度,(Xd1,Yd1,Zd1)为第一偏差的世界坐标,(Xd2,Yd2,Zd2)为第二偏差的世界坐标。
可选的,得到目标的定位精度后,将目标的定位精度更新到电子地图中,或者,向行驶中的车辆发送目标的定位精度。
可选的,将目标的定位精度更新到电子地图中,包括:向边缘设备发送目标的定位精度。
边缘设备接收到目标的定位精度后,可以将目标的定位精度存储在MAP层中。
一种可能的实现方式,向行驶中的车辆发送目标的定位精度,包括:直接向行驶中的车辆发送目标的定位精度。
另一种可能的实现方式,向行驶中的车辆发送目标的定位精度,包括:向边缘设备发送目标的定位精度,以便边缘设备在接收到目标的定位精度后,向行驶中的车辆发送目标的定位精度。
基于图8所示方法的第三种实现场景,可以根据摄像机的估计外参、摄像机的内参以及第一偏差的图像坐标得到第一偏差的世界坐标,根据摄像机的估计外参、摄像机的内参以及第二偏差的图像坐标得到第二偏差的世界坐标,再计算第一偏差的世界坐标与第二偏差的世界坐标之间的距离,得到目标的定位精度,从而可以对车辆或人进行更准确的定位。
进一步可选的,在图8所示方法的第四种实现场景中,图8所示的方法还包括:获取摄像机拍摄区域中特殊视觉标识的世界坐标;根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标;获取摄像机拍摄区域中特殊视觉标识的图像坐标;根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标;根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参。
其中,特殊视觉标识位于摄像机的拍摄区域的第一坐标与第二坐标之间。
其中,第一坐标为摄像机的视场近点距离的最大值的位置的坐标,第二坐标为摄像机的视场远点距离的最小值的位置的坐标。
可选的,特殊视觉标识为分道线,该分道线与该分道线周围的分道线不同。
可选的,获取摄像机拍摄区域中特殊视觉标识的世界坐标,包括:向边缘设备发送摄像机的ID;接收来自边缘设备的摄像机拍摄区域中视觉标识的世界坐标;根据摄像机拍摄区域中特殊视觉标识的ID获取摄像机拍摄区域中特殊视觉标识的世界坐标。
示例性的,以图3所示的特殊视觉标识的部署示意图为例,介绍获取摄像机1拍摄区域302中特殊视觉标识的世界坐标的具体过程。若摄像机1的拍摄区域是区域302,区域302包括4个视觉标识,分别是一般视觉标识303、特殊视觉标识304、一般视觉标识305以及一般视觉标识306。可以向边缘设备发送摄像机的ID(例如:摄像机1),边缘设备可以根据摄像机1发送区域302中的视觉标识的ID以及视觉标识的ID对应的视觉标识的世界坐标(例如,一般视觉标识303的ID、一般视觉标识303的世界坐标、特殊视觉标识304的ID、特殊视觉标识304的世界坐标,一般视觉标识305的ID、一般视觉标识305的世界坐标、一般视觉标识306的ID以及一般视觉标识306的世界坐标),接收到边缘设备发送的区域302中的视觉标识的ID以及视觉标识的ID对应的视觉标识的世界坐标后,可以根据特殊视觉标识的ID获取特殊视觉标识的世界坐标。
其中,特殊视觉标识的世界坐标用于确定特殊视觉标识在电子地图中的位置,一般视觉标识的世界坐标用于确定一般视觉标识在电子地图中的位置。
在具体实现中,作为一种实施例,特殊视觉标识的世界坐标可以是特殊视觉标识的四个角的世界坐标,一般视觉标识的世界坐标可以是一般视觉标识的四个角的世界坐标。
可选的,接收来自边缘设备的摄像机拍摄区域中视觉标识的世界坐标后,根据视觉标识的世界坐标、摄像机的内参以及摄像机的估计外参生成模拟道路,其中,模拟道路为摄像机拍摄区域中的道路对应的虚拟道路。
可选的,根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标,包括:根据特殊视觉标识的世界坐标;获取特殊视觉标识附近的一般视觉标识的的世界坐标;根据特殊视觉标识的世界坐标以及一般视觉标识的世界坐标,获取拍摄区域中多个估计点的世界坐标。
示例性的,以图3所示的特殊视觉标识的部署示意图为例,介绍根据特殊视觉标识304的世界坐标,得到拍摄区域中多个估计点的世界坐标的具体过程。若摄像机1的拍摄区域是区域302,区域302包括4个视觉标识,分别是一般视觉标识303、特殊视觉标识304、一般视觉标识305以及一般视觉标识306,特殊视觉标识304附近的一般视觉标识有一般视觉标识303和一般视觉标识305,假设最终确定获取一般视觉标识303的世界坐标,将特殊视觉标识304的四个角的世界坐标以及一般视觉标识303的四个角的世界坐标,作为多个估计点的世界坐标。
需要说明的是,在根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标的过程中,可以获取特殊视觉标识附近的一般视觉标识的世界坐标,也可以获取距离特殊视觉标识的距离为预设距离的一般视觉标识的世界坐标,不予限制。
需要说明的是,在根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标的过程中,可以根据特殊视觉标识的世界坐标,获取多个一般视觉标识的世界坐标,并根据多个一般视觉标识的世界坐标获取多个估计点的世界坐标,其中,多个估计点可以包括每个一般视觉标识的四个角的点。
一种可能的实现方式,获取摄像机拍摄区域中特殊视觉标识的图像坐标,包括:获取摄像机拍摄的图像;利用特征提取算法从摄像机拍摄的图像中提取视觉标识;利用尺度不变特征变换(scale-invariant feature transform,SIFT)或加速鲁棒特征(speeded uprobust features,SURF)等方法提取视觉标识的四个角的图像坐标;利用颜色检测等方法识别视觉标识中的特殊视觉标识,并获取特殊视觉标识的四个角的图像坐标。
可选的,根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标,包括:根据特殊视觉标识的图像坐标;获取特殊视觉标识附近的一般视觉标识的的图像坐标;根据特殊视觉标识的图像坐标以及一般视觉标识的图像坐标,获取拍摄区域中多个估计点的图像坐标。
示例性的,以图3所示的特殊视觉标识的部署示意图为例,介绍根据特殊视觉标识304的图像坐标,得到拍摄区域中多个估计点的图像坐标的具体过程。若摄像机1的拍摄区域是区域302,区域302包括4个视觉标识,分别是一般视觉标识303、特殊视觉标识304、一般视觉标识305以及一般视觉标识306,特殊视觉标识304附近的一般视觉标识有一般视觉标识303和一般视觉标识305,假设最终确定获取一般视觉标识303的图像坐标,将特殊视觉标识304的四个角的图像坐标以及一般视觉标识303的四个角的图像坐标,作为多个估计点的图像坐标。
需要说明的是,在根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标的过程中,可以获取特殊视觉标识附近的一般视觉标识的图像坐标,也可以获取距离特殊视觉标识的距离为预设距离的一般视觉标识的图像坐标,不予限制。
需要说明的是,在根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标的过程中,可以根据特殊视觉标识的图像坐标,获取多个一般视觉标识的图像坐标,并根据多个一般视觉标识的图像坐标获取多个估计点的图像坐标,其中,多个估计点可以包括每个一般视觉标识的四个角的点。
可选的,多个估计点的个数大于等于8。
其中,根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参,可以包括:根据摄像机的内参得到摄像的内参矩阵;根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参矩阵,得到以摄像机的估计外参对应的物理变换矩阵为未知数的方程组,通过求解方程组得到摄像机的估计外参对应的物理变换矩阵;根据摄像机的估计外参对应的物理变换矩阵得到摄像机的估计外参。根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参的具体过程可以参考下述图8所示方法的第五种实现场景中的描述。
可选的,得到摄像机的估计外参后,向边缘设备发送该摄像机的估计外参,以便后续根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
需要说明的是,可以在停车场中无车辆或其他目标干扰的情况下,执行图8所示方法的第四种实现场景中的方法。
例如,在停车场中无车辆或其他目标干扰的情况下,获取摄像机拍摄区域中特殊视觉标识的世界坐标;根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标;获取摄像机拍摄区域中特殊视觉标识的图像坐标;根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标;根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参。
基于图8所示方法的第四种实现场景,可以获取摄像机拍摄区域中特殊视觉标识的世界坐标,根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标,并获取摄像机拍摄区域中特殊视觉标识的图像坐标,根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标,再根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参,以便后续根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
进一步可选的,在图8所示方法的第五种实现场景中,根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参得到摄像机的估计外参,包括:根据摄像机的内参得到摄像的内参矩阵;根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参矩阵,得到以摄像机的估计外参对应的物理变换矩阵为未知数的方程组,通过求解方程组得到摄像机的估计外参对应的物理变换矩阵;根据摄像机的估计外参对应的物理变换矩阵得到摄像机的估计外参。
示例性的,以多个估计点的个数为8,该8个估计点的世界坐标分别为(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)、(X4,Y4,Z4)、(X5,Y5,Z5)、(X6,Y6,Z6)、(X7,Y7,Z7)以及(X8,Y8,Z8),该8个估计点的图像坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)、(x5,y5)、(x6,y6)、(x7,y7)以及(x8,y8)为例,则根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参矩阵,可以得到如下以摄像机的估计外参对应的物理变换矩阵为未知数的方程组:
利用约束最小二乘法或随机抽样一致性等方法可以对上述方程进行求解,得到sW,再根据sW得到摄像机的估计外参。
基于图8所示方法的第五种实现场景,可以根据摄像机的内参得到摄像的内参矩阵,根据多个估计点的世界坐标、多个估计点的图像坐标以及摄像机的内参矩阵,得到以摄像机的估计外参对应的物理变换矩阵为未知数的方程组,并通过求解方程组得到摄像机的估计外参对应的物理变换矩阵,最后根据摄像机的估计外参对应的物理变换矩阵得到摄像机的估计外参,以便后续根据摄像机的估计外参、摄像机的内参以及目标的图像坐标对目标进行定位。
需要说明的是,图8所示的定位方法可以应用于图6所示的智能摄像机630或边缘计算装置660。下面结合图6,对图8所示的定位方法应用于图6所示的智能摄像机630或边缘计算装置660进行介绍。
如图11所示,为本申请实施例提供的又一种定位方法,该定位方法包括步骤1101-步骤1121。
步骤1101:智能摄像机630向边缘设备610发送智能摄像机630的ID。
步骤1102:边缘设备610接收来自智能摄像机630的智能摄像机630的ID。
步骤1103:边缘设备610根据向智能摄像机630的ID向智能摄像机630发送智能摄像机630拍摄区域中视觉标识的ID以及视觉标识ID对应的视觉标识的世界坐标。
步骤1104:智能摄像机630接收来自边缘设备610的智能摄像机630拍摄区域中视觉标识的ID以及视觉标识ID对应的视觉标识的世界坐标。
步骤1105:智能摄像机630根据特殊视觉标识的ID获取特殊视觉标识的世界坐标。
步骤1106:智能摄像机630根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标。
上述步骤1101-步骤1106的具体过程可以参考上述图8所示方法的第四种实现场景中的描述,此处不再赘述。
步骤1107:智能摄像机630获取智能摄像机630拍摄区域中特殊视觉标识的图像坐标。
可选的,智能摄像机630拍摄图像并存储该图像,再利用特征提取算法从智能摄像机630拍摄的图像中提取视觉标识;利用SIFT或SURF等方法提取视觉标识的四个角的图像坐标;利用颜色检测等方法识别视觉标识中的特殊视觉标识,并获取特殊视觉标识的四个角的图像坐标。
步骤1108:智能摄像机630根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标。
上述步骤1108的具体过程可以参考上述图8所示方法的第四种实现场景中的描述,此处不再赘述。
步骤1109:智能摄像机630根据多个估计点的世界坐标、多个估计点的图像坐标以及智能摄像机630的内参得到智能摄像机630的估计外参。
上述步骤1109的具体过程可以参考上述图8所示方法的第五种实现场景中的描述,此处不再赘述。
步骤1110:智能摄像机630向边缘设备610发送智能摄像机630的估计外参。
可选的,智能摄像机630将智能摄像机630的估计外参存储在智能摄像机630中。
步骤1111:边缘设备610接收来自智能摄像机630的智能摄像机630的估计外参,并存储于电子地图的MAP层。
步骤1112:智能摄像机630向边缘设备610发送智能摄像机630的ID。
步骤1113:边缘设备610接收来自智能摄像机630的智能摄像机630的ID。
步骤1114:边缘设备610根据智能摄像机630的ID向智能摄像机630发送智能摄像机630的估计外参以及智能摄像机630的内参。
需要说明的是,若智能摄像机630中存储有智能摄像机630的估计外参和智能摄像机的内参,可以直接从智能摄像机630的存储器中获取智能摄像机630的估计外参和智能摄像机的内参。
步骤1115:智能摄像机630接收来自边缘设备610的智能摄像机630的估计外参以及智能摄像机630的内参。
步骤1116:智能摄像机630获取智能摄像机630拍摄的图像中目标的图像坐标。
上述步骤1116的具体过程可以参考上述步骤802以及上述图8所示方法的第二种实现场景中的描述,此处不再赘述。
步骤1117:智能摄像机630根据智能摄像机630的估计外参、智能摄像机630的内参以及目标的图像坐标得到目标的世界坐标。
上述步骤1117的具体过程可以参考上述图8所示方法的第一种实现场景中的描述,此处不再赘述。
步骤1118:智能摄像机630根据智能摄像机630的估计外参、智能摄像机630的内参以及第一偏差的图像坐标得到第一偏差的世界坐标。
步骤1119:智能摄像机630根据智能摄像机630的估计外参、智能摄像机630的内参以及第二偏差的图像坐标得到第二偏差的世界坐标。
步骤1120:智能摄像机630计算第一偏差的世界坐标与第二偏差的世界坐标之间的距离,得到目标的定位精度。
上述步骤1118-步骤1120的具体过程可以参考上述图8所示方法的第三种实现场景中的描述,此处不再赘述。
步骤1121:智能摄像机630将目标的世界坐标和目标的定位精度更新到电子地图中,或者,智能摄像机630向行驶中的车辆发送目标的世界坐标和目标的定位精度。
基于图11所示的方法,智能摄像机630可以通过获取智能摄像机630拍摄的图像中车辆或人的图像坐标,再根据智能摄像机630拍摄区域中多个估计点的世界坐标与多个估计点的图像坐标得到的估计外参,将车辆或人的图像坐标变换为车辆或人的世界坐标,从而对车辆或人进行定位,定位精度高。
如图12所示,为本申请实施例提供的又一种定位方法,该定位方法包括步骤1201-步骤1221。
步骤1201:传统摄像机670向边缘设备640发送传统摄像机670拍摄的图像。
步骤1202:边缘设备640接收来自传统摄像机670的传统摄像机670拍摄的图像。
步骤1203:边缘设备640向边缘计算装置660发送传统摄像机670拍摄的图像、传统摄像机670拍摄区域中视觉标识的ID以及视觉标识ID对应的视觉标识的世界坐标。
步骤1204:边缘计算装置660接收来自边缘设备640的传统摄像机670拍摄的图像、传统摄像机670拍摄区域中视觉标识的ID以及视觉标识ID对应的视觉标识的世界坐标。
步骤1205:边缘计算装置660根据特殊视觉标识的ID获取特殊视觉标识的世界坐标。
步骤1206:边缘计算装置660根据特殊视觉标识的世界坐标,得到拍摄区域中多个估计点的世界坐标。
上述步骤1205-步骤1206的具体过程可以参考上述图8所示方法的第四种实现场景中的描述,此处不再赘述。
步骤1207:边缘计算装置660获取传统摄像机670拍摄区域中特殊视觉标识的图像坐标。
可选的,边缘计算装置660根据接收到的来自边缘设备640的传统摄像机670拍摄的图像,再利用特征提取算法从传统摄像机670拍摄的图像中提取视觉标识;利用SIFT或SURF等方法提取视觉标识的四个角的图像坐标;利用颜色检测等方法识别视觉标识中的特殊视觉标识,并获取特殊视觉标识的四个角的图像坐标。
步骤1208:边缘计算装置660根据特殊视觉标识的图像坐标,得到拍摄区域中多个估计点的图像坐标。
上述步骤1208的具体过程可以参考上述图8所示方法的第四种实现场景中的描述,此处不再赘述。
步骤1209:边缘计算装置660根据多个估计点的世界坐标、多个估计点的图像坐标以及传统摄像机670的内参得到传统摄像机670的估计外参。
上述步骤1209的具体过程可以参考上述图8所示方法的第五种实现场景中的描述,此处不再赘述。
步骤1210:边缘计算装置660向边缘设备640发送传统摄像机670的估计外参。
可选的,边缘计算装置660将传统摄像机670的估计外参存储在边缘计算装置660中。
步骤1211:边缘设备640接收来自边缘计算装置660的传统摄像机670的估计外参,并存储与电子地图的MAP层。
步骤1212:传统摄像机670向边缘设备640发送传统摄像机670拍摄的图像。
步骤1213:边缘设备640接收来自传统摄像机670的传统摄像机670拍摄的图像。
步骤1214:边缘设备640向边缘计算装置660发送传统摄像机670拍摄的图像、传统摄像机670的估计外参以及传统摄像机670的内参。
需要说明的是,若边缘计算装置660中存储有传统摄像机670的估计外参,可以直接从边缘计算装置660的存储器中获取传统摄像机670的估计外参。
步骤1215:边缘计算装置660接收来自边缘设备640的传统摄像机670拍摄的图像、传统摄像机670的估计外参以及传统摄像机670的内参。
步骤1216:边缘计算装置660获取传统摄像机670拍摄的图像中目标的图像坐标。
上述步骤1216的具体过程可以参考上述步骤802以及上述图8所示方法的第二种实现场景中的描述,此处不再赘述。
步骤1217:边缘计算装置660根据传统摄像机670的估计外参、传统摄像机670的内参以及目标的图像坐标得到目标的世界坐标。
上述步骤1217的具体过程可以参考上述图8所示方法的第一种实现场景中的描述,此处不再赘述。
步骤1218:边缘计算装置660根据传统摄像机670的估计外参、传统摄像机670的内参以及第一偏差的图像坐标得到第一偏差的世界坐标。
步骤1219:边缘计算装置660根据传统摄像机670的估计外参、传统摄像机670的内参以及第二偏差的图像坐标得到第二偏差的世界坐标。
步骤1220:边缘计算装置660计算第一偏差的世界坐标与第二偏差的世界坐标之间的距离,得到目标的定位精度。
上述步骤1218-步骤1220的具体过程可以参考上述图8所示方法的第三种实现场景中的描述,此处不再赘述。
步骤1221:边缘计算装置660将目标的世界坐标和目标的定位精度更新到电子地图中,或者,边缘计算装置660向行驶中的车辆发送目标的世界坐标和目标的定位精度。
基于图12所示的方法,边缘计算装置660可以通过获取传统摄像机670拍摄的图像中车辆或人的图像坐标,再根据传统摄像机670拍摄区域中多个估计点的世界坐标与多个估计点的图像坐标得到的估计外参,将车辆或人的图像坐标变换为车辆或人的世界坐标,从而对车辆或人进行定位,定位精度高。
上述主要从各个装置之间交互的角度对本申请实施例提供的方案进行了介绍。可以理解的是,上述定位装置(例如,智能摄像机630或边缘计算装置660)为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法操作,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对定位装置进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
比如,以采用集成的方式划分各个功能模块的情况下,图13示出了一种定位装置130的结构示意图。该定位装置130包括:获取模块1301和处理模块1302。
获取模块1301,用于获取摄像机的估计外参以及该摄像机的内参,其中,该摄像机的估计外参是根据该摄像机拍摄区域中多个估计点的世界坐标、该多个估计点的图像坐标以及该摄像机的内参得到的。
获取模块1301,还用于获取该摄像机拍摄的图像中目标的图像坐标。
处理模块1302,用于根据该摄像机的估计外参、该摄像机的内参以及该目标的图像坐标得到该目标的世界坐标。
可选的,如图14所示,定位装置还包括查询模块1303。获取模块1301,还用于获取该目标的图像信息;查询模块1303,用于根据该目标的图像信息查询该车辆的特征参数;处理模块1302,具体用于根据该摄像机的估计外参得到该摄像机的估计外参对应的物理变换矩阵;处理模块1302,还具体用于根据该摄像机的内参得到该摄像机的内参矩阵;处理模块1302,还具体用于将该目标的图像坐标、该摄像机的估计外参对应的物理变换矩阵以及该摄像机的内参矩阵进行坐标变换,得到第一世界坐标;处理模块1302,还具体用于根据该车辆的特征参数、摄像机高度、摄像机的位置以及该第一世界坐标,得到该目标的世界坐标。
可选的,若该目标为车辆,该目标的图像坐标为该摄像机拍摄的图像中该目标的特征像素点的坐标。
可选的,若该目标不是车辆,处理模块1302,具体用于根据该摄像机的估计外参得到该摄像机的估计外参对应的物理变换矩阵;处理模块1302,还具体用于根据该摄像机的内参得到该摄像机的内参矩阵;处理模块1302,还具体用于将该目标的图像坐标、该摄像机的估计外参对应的物理变换矩阵以及该摄像机的内参矩阵进行坐标变换,得到该目标的世界坐标。
可选的,若该目标不是车辆,该目标的图像坐标为该摄像机拍摄的图像中该目标与地面的接触点的坐标。
可选的,该处理模块,还用于根据该摄像机的估计外参、该摄像机的内参以及第一偏差的图像坐标得到第一偏差的世界坐标,其中,该第一偏差的图像坐标为将该目标的图像坐标向车辆行驶方向增加偏差d后的坐标;该处理模块,还用于根据该摄像机的估计外参、该摄像机的内参以及第二偏差的图像坐标得到第二偏差的世界坐标,其中,该第二偏差的图像坐标为将该目标的图像坐标向车辆行驶方向减少偏差d后的坐标;该处理模块,还用于计算该第一偏差的世界坐标与该第二偏差的世界坐标之间的距离,得到该目标的定位精度。
可选的,该获取模块,还用于获取该摄像机拍摄区域中特殊视觉标识的世界坐标,其中,该特殊视觉标识位于该摄像机的拍摄区域的第一坐标与第二坐标之间,该第一坐标为该摄像机的视场近点距离的最大值的位置的坐标,该第二坐标为该摄像机的视场远点距离的最小值的位置的坐标;该处理模块,还用于根据该特殊视觉标识的世界坐标,得到该拍摄区域中多个估计点的世界坐标;该获取模块,还用于获取该摄像机拍摄区域中该特殊视觉标识的图像坐标;该处理模块,还用于根据该特殊视觉标识的图像坐标,得到该拍摄区域中多个估计点的图像坐标;该处理模块,还用于根据该多个估计点的世界坐标、该多个估计点的图像坐标以及该摄像机的内参得到该摄像机的估计外参。
可选的,该处理模块,具体用于根据该摄像机的内参得到该摄像的内参矩阵;该处理模块,还具体用于根据该多个估计点的世界坐标、该多个估计点的图像坐标以及该摄像机的内参矩阵,得到以该摄像机的估计外参对应的物理变换矩阵为未知数的方程组,通过求解该方程组得到该摄像机的估计外参对应的物理变换矩阵;该处理模块,还具体用于根据该摄像机的估计外参对应的物理变换矩阵得到该摄像机的估计外参。
可选的,该特殊视觉标识为分道线,该分道线与该分道线周围的分道线不同。
可选的,如图15所示,该定位装置还包括更新模块1304。该更新模块,用于将该摄像机的估计外参更新到该电子地图中。
可选的,如图16所示,该定位装置还包括发送模块1305。该更新模块,用于将该目标的世界坐标更新到该电子地图中;或者,该发送模块,用于向行驶中的车辆发送该目标的世界坐标。
其中,上述方法实施例涉及的各操作的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
在本实施例中,该定位装置130以采用集成的方式划分各个功能模块的形式来呈现。这里的“模块”可以指特定ASIC,电路,执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。在一个简单的实施例中,本领域的技术人员可以想到该定位装置130可以采用图7所示的形式。
比如,图7中的处理器701可以通过调用存储器703中存储的计算机执行指令,使得定位装置130执行上述方法实施例中的定位方法。
示例性的,图16中的获取模块1301、处理模块1302、查询模块1303、更新模块1304和发送模块1305的功能/实现过程可以通过图7中的处理器701调用存储器703中存储的计算机执行指令来实现。或者,图16中的获取模块1301、处理模块1302、查询模块1303以及更新模块1304的功能/实现过程可以通过图7中的处理器701调用存储器703中存储的计算机执行指令来实现,图16中的发送模块1305的功能/实现过程可以通过图7中的通信接口704来实现。
由于本实施例提供的定位装置130可执行上述的定位方法,因此其所能获得的技术效果可参考上述方法实施例,在此不再赘述。
比如,以采用集成的方式划分各个功能模块的情况下,图17示出了一种定位装置170的结构示意图。该定位装置170包括:获取模块1701和确定模块1702。
获取模块1701,用于获取摄像机的初始外参以及该摄像机的内参。
确定模块1702,用于根据该摄像机的初始外参以及该摄像机的内参,确定停车场中特殊视觉标识的位置,其中,该特殊视觉标识用于对该摄像机拍摄区域中的目标进行定位。
可选的,确定模块1702,具体用于根据该摄像机的初始外参以及该摄像机的内参,确定该摄像机的视场近点距离的最大值的位置以及该摄像机的视场远点距离的最小值的位置;确定模块1702,还具体用于确定该摄像机的视场近点距离的最大值的位置与该摄像机的视场远点距离的最小值的位置之间的区域为特殊视觉标识的位置。
可选的,该摄像机的初始外参包括:该摄像机的位置、摄像机高度以及该摄像机的俯仰角。
其中,上述方法实施例涉及的各操作的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
在本实施例中,该定位装置170以采用集成的方式划分各个功能模块的形式来呈现。这里的“模块”可以指特定ASIC,电路,执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。在一个简单的实施例中,本领域的技术人员可以想到该定位装置170可以采用图7所示的形式。
比如,图7中的处理器701可以通过调用存储器703中存储的计算机执行指令,使得定位装置170执行上述方法实施例中的定位方法。
示例性的,图17中的获取模块1701以及确定模块1702的功能/实现过程可以通过图7中的处理器701调用存储器703中存储的计算机执行指令来实现。
由于本实施例提供的定位装置170可执行上述的定位方法,因此其所能获得的技术效果可参考上述方法实施例,在此不再赘述。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件程序实现时,可以全部或部分地以计算机程序产品的形式来实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或者数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可以用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带),光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
尽管在此结合各实施例对本申请进行了描述,然而,在实施所要求保护的本申请过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
尽管结合具体特征及其实施例对本申请进行了描述,显而易见的,在不脱离本申请的精神和范围的情况下,可对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本申请的示例性说明,且视为已覆盖本申请范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (24)
1.一种定位方法,其特征在于,所述方法包括:
获取摄像机的内参;
获取摄像机拍摄区域中特殊视觉标识的世界坐标;
根据所述特殊视觉标识的世界坐标,得到所述拍摄区域中多个估计点的世界坐标;
获取所述摄像机拍摄区域中所述特殊视觉标识的图像坐标;
根据所述特殊视觉标识的图像坐标,得到所述拍摄区域中多个估计点的图像坐标;
根据所述多个估计点的世界坐标、所述多个估计点的图像坐标以及所述摄像机的内参得到所述摄像机的估计外参;
获取所述摄像机拍摄的图像中目标的图像坐标;
根据所述摄像机的估计外参、所述摄像机的内参以及所述目标的图像坐标得到所述目标的世界坐标。
2.根据权利要求1所述的方法,其特征在于,若所述目标为车辆,所述方法还包括:
获取所述目标的图像信息;
根据所述目标的图像信息查询所述车辆的特征参数;
所述根据所述摄像机的估计外参、所述摄像机的内参以及所述目标的图像坐标得到所述目标的世界坐标,包括:
根据所述摄像机的估计外参得到所述摄像机的估计外参对应的物理变换矩阵;
根据所述摄像机的内参得到所述摄像机的内参矩阵;
所述目标的图像坐标、所述摄像机的估计外参对应的物理变换矩阵以及所述摄像机的内参矩阵进行坐标变换,得到第一世界坐标;
根据所述车辆的特征参数、摄像机高度、摄像机的位置以及所述第一世界坐标,得到所述目标的世界坐标。
3.根据权利要求1或2所述的方法,其特征在于,
若所述目标为车辆,所述目标的图像坐标为所述摄像机拍摄的图像中所述目标的特征像素点的坐标。
4.根据权利要求1所述的方法,其特征在于,若所述目标不是车辆,所述根据所述摄像机的估计外参、所述摄像机的内参以及所述目标的图像坐标得到所述目标的世界坐标,包括:
根据所述摄像机的估计外参得到所述摄像机的估计外参对应的物理变换矩阵;
根据所述摄像机的内参得到所述摄像机的内参矩阵;
所述目标的图像坐标、所述摄像机的估计外参对应的物理变换矩阵以及所述摄像机的内参矩阵进行坐标变换,得到所述目标的世界坐标。
5.根据权利要求1或4所述的方法,其特征在于,
若所述目标不是车辆,所述目标的图像坐标为所述摄像机拍摄的图像中所述目标与地面的接触点的坐标。
6.根据权利要求1、2或4所述的方法,其特征在于,所述方法还包括:
根据所述摄像机的估计外参、所述摄像机的内参以及第一偏差的图像坐标得到第一偏差的世界坐标,其中,所述第一偏差的图像坐标为将所述目标的图像坐标向车辆行驶方向增加偏差d后的坐标;
根据所述摄像机的估计外参、所述摄像机的内参以及第二偏差的图像坐标得到第二偏差的世界坐标,其中,所述第二偏差的图像坐标为将所述目标的图像坐标向车辆行驶方向减少偏差d后的坐标;
计算所述第一偏差的世界坐标与所述第二偏差的世界坐标之间的距离,得到所述目标的定位精度。
7.根据权利要求1、2或4所述的方法,其特征在于,
所述特殊视觉标识位于所述摄像机的拍摄区域的第一坐标与第二坐标之间,所述第一坐标为所述摄像机的视场近点距离的最大值的位置的坐标,所述第二坐标为所述摄像机的视场远点距离的最小值的位置的坐标。
8.根据权利要求1、2或4所述的方法,其特征在于,所述根据所述多个估计点的世界坐标、所述多个估计点的图像坐标以及所述摄像机的内参得到所述摄像机的估计外参,包括:
根据所述摄像机的内参得到所述摄像的内参矩阵;
根据所述多个估计点的世界坐标、所述多个估计点的图像坐标以及所述摄像机的内参矩阵,得到以所述摄像机的估计外参对应的物理变换矩阵为未知数的方程组,通过求解所述方程组得到所述摄像机的估计外参对应的物理变换矩阵;
根据所述摄像机的估计外参对应的物理变换矩阵得到所述摄像机的估计外参。
9.根据权利要求1、2或4所述的方法,其特征在于,所述特殊视觉标识为分道线,所述分道线与所述分道线周围的分道线不同。
10.根据权利要求1、2或4所述的方法,其特征在于,所述方法还包括:
将所述摄像机的估计外参更新到电子地图中。
11.根据权利要求1、2或4所述的方法,其特征在于,所述方法还包括:
将所述目标的世界坐标更新到电子地图中;或者,
向行驶中的车辆发送所述目标的世界坐标。
12.一种定位装置,其特征在于,所述定位装置包括:获取模块和处理模块;
所述获取模块,用于获取摄像机的内参;
所述获取模块,还用于获取摄像机拍摄区域中特殊视觉标识的世界坐标;
所述处理模块,用于根据所述特殊视觉标识的世界坐标,得到所述拍摄区域中多个估计点的世界坐标;
所述获取模块,还用于获取所述摄像机拍摄区域中所述特殊视觉标识的图像坐标;
所述处理模块,还用于根据所述特殊视觉标识的图像坐标,得到所述拍摄区域中多个估计点的图像坐标;
所述处理模块,还用于根据所述多个估计点的世界坐标、所述多个估计点的图像坐标以及所述摄像机的内参得到所述摄像机的估计外参;
所述获取模块,还用于获取所述摄像机拍摄的图像中目标的图像坐标;
所述处理模块,还用于根据所述摄像机的估计外参、所述摄像机的内参以及所述目标的图像坐标得到所述目标的世界坐标。
13.根据权利要求12所述的定位装置,其特征在于,若所述目标为车辆,所述定位装置还包括:查询模块;
所述获取模块,还用于获取所述目标的图像信息;
所述查询模块,用于根据所述目标的图像信息查询所述车辆的特征参数;
所述处理模块,具体用于根据所述摄像机的估计外参得到所述摄像机的估计外参对应的物理变换矩阵;
所述处理模块,还具体用于根据所述摄像机的内参得到所述摄像机的内参矩阵;
所述处理模块,还具体用于将所述目标的图像坐标、所述摄像机的估计外参对应的物理变换矩阵以及所述摄像机的内参矩阵进行坐标变换,得到第一世界坐标;
所述处理模块,还具体用于根据所述车辆的特征参数、摄像机高度、摄像机的位置以及所述第一世界坐标,得到所述目标的世界坐标。
14.根据权利要求12或13所述的定位装置,其特征在于,
若所述目标为车辆,所述目标的图像坐标为所述摄像机拍摄的图像中所述目标的特征像素点的坐标。
15.根据权利要求12所述的定位装置,其特征在于,若所述目标不是车辆,
所述处理模块,具体用于根据所述摄像机的估计外参得到所述摄像机的估计外参对应的物理变换矩阵;
所述处理模块,还具体用于根据所述摄像机的内参得到所述摄像机的内参矩阵;
所述处理模块,还具体用于将所述目标的图像坐标、所述摄像机的估计外参对应的物理变换矩阵以及所述摄像机的内参矩阵进行坐标变换,得到所述目标的世界坐标。
16.根据权利要求12或15所述的定位装置,其特征在于,
若所述目标不是车辆,所述目标的图像坐标为所述摄像机拍摄的图像中所述目标与地面的接触点的坐标。
17.根据权利要求12、13或15所述的定位装置,其特征在于,
所述处理模块,还用于根据所述摄像机的估计外参、所述摄像机的内参以及第一偏差的图像坐标得到第一偏差的世界坐标,其中,所述第一偏差的图像坐标为将所述目标的图像坐标向车辆行驶方向增加偏差d后的坐标;
所述处理模块,还用于根据所述摄像机的估计外参、所述摄像机的内参以及第二偏差的图像坐标得到第二偏差的世界坐标,其中,所述第二偏差的图像坐标为将所述目标的图像坐标向车辆行驶方向减少偏差d后的坐标;
所述处理模块,还用于计算所述第一偏差的世界坐标与所述第二偏差的世界坐标之间的距离,得到所述目标的定位精度。
18.根据权利要求12、13或15所述的定位装置,其特征在于,
所述特殊视觉标识位于所述摄像机的拍摄区域的第一坐标与第二坐标之间,所述第一坐标为所述摄像机的视场近点距离的最大值的位置的坐标,所述第二坐标为所述摄像机的视场远点距离的最小值的位置的坐标。
19.根据权利要求12、13或15所述的定位装置,其特征在于,
所述处理模块,具体用于根据所述摄像机的内参得到所述摄像的内参矩阵;
所述处理模块,还具体用于根据所述多个估计点的世界坐标、所述多个估计点的图像坐标以及所述摄像机的内参矩阵,得到以所述摄像机的估计外参对应的物理变换矩阵为未知数的方程组,通过求解所述方程组得到所述摄像机的估计外参对应的物理变换矩阵;
所述处理模块,还具体用于根据所述摄像机的估计外参对应的物理变换矩阵得到所述摄像机的估计外参。
20.根据权利要求12、13或15所述的定位装置,其特征在于,所述特殊视觉标识为分道线,所述分道线与所述分道线周围的分道线不同。
21.根据权利要求12、13或15所述的定位装置,其特征在于,所述定位装置还包括:更新模块;
所述更新模块,用于将所述摄像机的估计外参更新到电子地图中。
22.根据权利要求12、13或15所述的定位装置,其特征在于,所述定位装置还包括:更新模块和发送模块;
所述更新模块,用于将所述目标的世界坐标更新到电子地图中;或者,
所述发送模块,用于向行驶中的车辆发送所述目标的世界坐标。
23.一种定位装置,其特征在于,所述定位装置包括:至少一个处理器,存储器;
所述存储器存储有程序指令,所述程序指令在所述至少一个处理器中执行,以实现权利要求1-11中任一所述的定位方法。
24.一种计算机存储介质,其特征在于,所述计算机可读存储介质中存储有程序指令,所述程序指令运行时,以实现权利要求1-11中任一所述的定位方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910791953.7A CN112435300B (zh) | 2019-08-26 | 2019-08-26 | 定位方法及装置 |
PCT/CN2020/111505 WO2021037086A1 (zh) | 2019-08-26 | 2020-08-26 | 定位方法及装置 |
EP20858497.9A EP4016457A4 (en) | 2019-08-26 | 2020-08-26 | POSITIONING METHOD AND DEVICE |
US17/680,923 US20220277478A1 (en) | 2019-08-26 | 2022-02-25 | Positioning Method and Apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910791953.7A CN112435300B (zh) | 2019-08-26 | 2019-08-26 | 定位方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112435300A CN112435300A (zh) | 2021-03-02 |
CN112435300B true CN112435300B (zh) | 2024-06-04 |
Family
ID=74683478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910791953.7A Active CN112435300B (zh) | 2019-08-26 | 2019-08-26 | 定位方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220277478A1 (zh) |
EP (1) | EP4016457A4 (zh) |
CN (1) | CN112435300B (zh) |
WO (1) | WO2021037086A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113240752B (zh) * | 2021-05-21 | 2024-03-22 | 中科创达软件股份有限公司 | 一种内参和外参协同标定方法和装置 |
CN113221253B (zh) * | 2021-06-01 | 2023-02-07 | 山东贝特建筑项目管理咨询有限公司 | 一种用于锚栓图像检测的无人机控制方法和系统 |
CN113436257B (zh) * | 2021-06-09 | 2023-02-10 | 同济大学 | 一种基于道路几何信息的车辆位置实时检测方法 |
CN113409405B (zh) * | 2021-07-19 | 2024-07-05 | 江苏普衡诺信息科技有限公司 | 评估相机标定位置的方法、装置、设备和存储介质 |
CN113506210A (zh) * | 2021-08-10 | 2021-10-15 | 深圳市前海动竞体育科技有限公司 | 一种篮球比赛自动生成运动员点位图的方法和视频拍摄装置 |
CN114022564A (zh) * | 2021-10-28 | 2022-02-08 | 中国第一汽车股份有限公司 | 视觉传感器标定方法、控制器、服务器和存储介质 |
US20230326077A1 (en) * | 2022-04-12 | 2023-10-12 | GM Global Technology Operations LLC | System and method for online camera to ground alignment |
CN114663458B (zh) * | 2022-05-24 | 2022-10-11 | 魔门塔(苏州)科技有限公司 | 动态标定方法、装置、驾驶状态检测方法、介质及设备 |
CN115187658B (zh) * | 2022-08-29 | 2023-03-24 | 合肥埃科光电科技股份有限公司 | 多相机视觉的大目标定位方法、系统及设备 |
CN115797445A (zh) * | 2023-02-06 | 2023-03-14 | 成都智元汇信息技术股份有限公司 | 一种基于图像识别的室内人员定位方法及装置及介质 |
US20240362817A1 (en) * | 2023-04-26 | 2024-10-31 | Toyota Jidosha Kabushiki Kaisha | Position estimation device, position estimation system, and position estimation method |
CN117557660B (zh) * | 2024-01-09 | 2024-04-12 | 北京集度科技有限公司 | 数据处理方法、装置、电子设备以及车辆 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559791A (zh) * | 2013-10-31 | 2014-02-05 | 北京联合大学 | 一种融合雷达和ccd摄像机信号的车辆检测方法 |
CN108198216A (zh) * | 2017-12-12 | 2018-06-22 | 深圳市神州云海智能科技有限公司 | 一种机器人及其基于标识物的位姿估计方法和装置 |
CN109276296A (zh) * | 2018-12-02 | 2019-01-29 | 沈阳聚声医疗系统有限公司 | 一种基于二维超声影像的穿刺针可视化方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100557634C (zh) * | 2008-03-28 | 2009-11-04 | 北京航空航天大学 | 一种基于双一维靶标的摄像机标定方法 |
KR101043450B1 (ko) * | 2009-07-31 | 2011-06-21 | 삼성전기주식회사 | 카메라를 이용한 위치와 거리 측정장치 및 위치와 거리 측정방법 |
CN107784672B (zh) * | 2016-08-26 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | 用于获取车载相机的外部参数的方法和装置 |
JP6989276B2 (ja) * | 2017-04-05 | 2022-01-05 | 株式会社Soken | 位置計測装置 |
US11410330B2 (en) * | 2017-05-30 | 2022-08-09 | Edx Technologies, Inc. | Methods, devices, and systems for determining field of view and producing augmented reality |
US10586118B2 (en) * | 2018-01-13 | 2020-03-10 | Toyota Jidosha Kabushiki Kaisha | Localizing traffic situation using multi-vehicle collaboration |
CN109272551B (zh) * | 2018-08-03 | 2022-04-01 | 北京航空航天大学 | 一种基于圆形标志点布局的视觉定位方法 |
CN109472829B (zh) * | 2018-09-04 | 2022-10-21 | 顺丰科技有限公司 | 一种物体定位方法、装置、设备和存储介质 |
-
2019
- 2019-08-26 CN CN201910791953.7A patent/CN112435300B/zh active Active
-
2020
- 2020-08-26 WO PCT/CN2020/111505 patent/WO2021037086A1/zh unknown
- 2020-08-26 EP EP20858497.9A patent/EP4016457A4/en active Pending
-
2022
- 2022-02-25 US US17/680,923 patent/US20220277478A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559791A (zh) * | 2013-10-31 | 2014-02-05 | 北京联合大学 | 一种融合雷达和ccd摄像机信号的车辆检测方法 |
CN108198216A (zh) * | 2017-12-12 | 2018-06-22 | 深圳市神州云海智能科技有限公司 | 一种机器人及其基于标识物的位姿估计方法和装置 |
CN109276296A (zh) * | 2018-12-02 | 2019-01-29 | 沈阳聚声医疗系统有限公司 | 一种基于二维超声影像的穿刺针可视化方法 |
Also Published As
Publication number | Publication date |
---|---|
EP4016457A4 (en) | 2022-11-30 |
US20220277478A1 (en) | 2022-09-01 |
CN112435300A (zh) | 2021-03-02 |
WO2021037086A1 (zh) | 2021-03-04 |
EP4016457A1 (en) | 2022-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112435300B (zh) | 定位方法及装置 | |
Meyer et al. | Automotive radar dataset for deep learning based 3d object detection | |
EP3407294B1 (en) | Information processing method, device, and terminal | |
CN105512646B (zh) | 一种数据处理方法、装置及终端 | |
WO2020000137A1 (en) | Integrated sensor calibration in natural scenes | |
US10909395B2 (en) | Object detection apparatus | |
KR20210061722A (ko) | 고정밀 지도 제작 방법, 고정밀 지도 제작 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 | |
JP2023508705A (ja) | データ伝送方法および装置 | |
CN111754388B (zh) | 一种建图方法及车载终端 | |
CN113034586B (zh) | 道路倾角检测方法和检测系统 | |
CN115235493B (zh) | 一种基于矢量地图进行自动驾驶定位的方法及装置 | |
JP2015194397A (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム | |
CN114943941A (zh) | 一种目标检测方法及装置 | |
CN114782548B (zh) | 基于全局图像的雷视数据标定方法、装置、设备及介质 | |
CN115147333A (zh) | 一种目标检测方法及装置 | |
CN116447979A (zh) | 一种基于无人机的双目视觉边坡位移监测方法及装置 | |
Ke et al. | Roadway surveillance video camera calibration using standard shipping container | |
CN117274393A (zh) | 相机外参标定系数的确定方法、装置、设备及存储介质 | |
KR100981588B1 (ko) | 특징점 픽셀의 크기와 방향 정보를 이용하는 벡터 변환에 기초한 도시공간 지리정보 생성 시스템 | |
CN112255604A (zh) | 一种雷达数据准确性的判断方法、装置及计算机设备 | |
CN113378735B (zh) | 一种道路标识线识别方法、装置、电子设备及存储介质 | |
CN114782496A (zh) | 一种对象的跟踪方法、装置、存储介质及电子装置 | |
CN110852278B (zh) | 地面标识线识别方法、设备及计算机可读存储介质 | |
CN113902047A (zh) | 图像元素匹配方法、装置、设备以及存储介质 | |
Blachut et al. | Automotive Perception System Evaluation with Reference Data from a UAV’s Camera Using ArUco Markers and DCNN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220211 Address after: 550025 Huawei cloud data center, jiaoxinggong Road, Qianzhong Avenue, Gui'an New District, Guiyang City, Guizhou Province Applicant after: Huawei Cloud Computing Technologies Co.,Ltd. Address before: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen Applicant before: HUAWEI TECHNOLOGIES Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |