CN106840167B - 基于街景地图的目标物地理位置的二维量测算方法 - Google Patents
基于街景地图的目标物地理位置的二维量测算方法 Download PDFInfo
- Publication number
- CN106840167B CN106840167B CN201710098739.4A CN201710098739A CN106840167B CN 106840167 B CN106840167 B CN 106840167B CN 201710098739 A CN201710098739 A CN 201710098739A CN 106840167 B CN106840167 B CN 106840167B
- Authority
- CN
- China
- Prior art keywords
- target object
- latitude
- longitude
- street view
- viewpoints
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了基于街景地图的目标物地理位置的二维量测算方法,该算法包括:在街景地图中,首先选定一个目标物,根据目标物选择两个合适的视点;获取两个视点的经纬度,在两个视点所在位置分别添加一个可拖动的标记点,将此标记点拖动至相应视点下街景地图中目标物所在位置,获取移动后的标记点的地理坐标,即该视点下目标物的经纬度;根据已知视点的经纬度及视点下目标物的经纬度,在笛卡尔坐标系下,确定两条空间直线,求出交点,该交点即为目标物的实际地理空间中的经纬度。本发明的方法有效的利用了现有的街景资源,实现了街景地图中地物的地理位置的直接获取,有利于现有街景资源在智慧城市、智能交通等方面的进一步应用。
Description
技术领域
本发明涉及街景地图、电子地图学、摄影测量、GIS、Web服务、计算机图形学等领域,其目的是在现有街景地图资源的基础上,实现街景地图中目标物实际地理位置的直接量测。具体涉及Http请求、笛卡尔坐标系下的空间直线确定、前方交汇等内容。
背景技术
街景地图是一种实景地图服务。为用户提供城市、街道或其他环境提供水平方向360°及垂直方向180°的街道全景,用户可以通过该服务获得如临其境的地图浏览体验。通过街景,只要坐在电脑前就可以真实的看到街道上的高清景象。它是一种运用多路摄像机对真实场景进行多角度环视图像采集之后,再利用计算机进行后期融合处理,并加载播放程序来完成的一种三维虚拟展示技术。
近年来,随着互联网技术的飞速发展,三维全景、虚拟游览等各种以全景图像信息为基础的应用服务,越来越多地进入了人们的日常生活。街景地图实现了二维三维相结合的虚拟现实场景,给使用者能够带来身临其境的观感。
目前,国外的Google公司,国内的百度、腾讯等信息技术和互联网公司,均推出了面向城市街景的地图服务。但是,这些街景地图主要用于展览展示,严重浪费了街景图像中蕴含的大量信息。与传统的二维地图相比,街景地图无法实现对街景图像中地物的定位、量测,极大地限制了街景技术的广泛应用。
针对目前街景地图仅可用于展览展示的不足,本发明提出基于现有街景地图的二维量测算法,实现对街景图像中地物的实际地理坐标的快速获取。
发明内容
本发明旨在解决现有街景地图无法获取街景图片中目标物的实际地理位置问题。在街景地图为用户提供更加真实准确、更富有画面细节的地图服务的基础上,本发明可以实现街景地图中目标物实际地理位置的量测,使街景地图中特有的丰富信息得到利用,拓展街景在实际生产生活中的应用。
为实现上述技术目的,本发明采用如下技术方案:
基于街景地图的目标物地理位置的二维量测算方法,包括如下步骤:
1)在街景地图中,选定两个视角范围内包含待测算目标物的视点;
2)获取所选两个视点的经纬度;
3)在选取的两个视点处分别添加可拖动标记点,分别拖动两个标记点至标记点对应的视点下目标物所在位置;其中,两个标记点拖动后的位置在两个视点下均位于目标物的同一点;如在视点1下拖至目标物的A点,在视点2下同样要拖至目标物的A点;
4)获取拖动后标记点的经纬度;
5)根据两视点及拖动后标记点的经纬度,在笛卡尔坐标系下构建两条非平行的空间直线;
6)求出两条空间直线交点的经纬度,即为目标物的真实经纬度。
本发明的方法中,所述步骤1)包括,选定两个视点后,调整该视点下的视角及视野范围,将目标物调整到街景地图的合适位置;
进一步的,可通过旋转、放大或缩小街景影像,将目标物调整到街景地图的合适位置;
具体为,通过旋转调整街景影像,使目标物大致位于屏幕中央,并且目标物整体清晰的位于视野范围内,无障碍物遮挡;
通过放大或缩小街景影像调整目标物在视野范围内的显示尺寸,使得目标物不至于太小而看不清,也不至于过大而超出屏幕范围。
其中,所述视点是指,拍摄该街景图像时相机所在地理位置,以经纬度表示。不同视点是指拍摄街景图片时相机的地理位置不同。
视点下目标物的经纬度非目标物的真实经纬度,是视点到目标物构成的射线上的某一不确定点的经纬度。根据已知视点的经纬度及视点下目标物的经纬度,在笛卡尔坐标系下,可以确定出一条空间直线。两个不同的视点则构建出两条不同的空间直线;
所述步骤3)中,两个标记点拖动至目标物中心点的位置。
所述步骤2)、步骤4)中,经纬度从标记点所在视点下的拍摄参数中获取。
本发明的算法可以概括为:在街景地图中,首先选定一个目标物,根据目标物选择两个合适的视点;分别获取两个视点的经纬度,在两个视点所在位置分别添加一个可拖动的标记点,将此标记点拖动至相应视点下街景地图中目标物所在位置,获取移动后的标记点的地理坐标,即该视点下目标物的经纬度;根据已知视点的经纬度及视点下目标物的经纬度,在笛卡尔坐标系下,确定两条空间直线,前方交汇,求出交点,该交点即为目标物的实际地理空间中的经纬度。
本发明有效的利用了现有的街景资源,实现了街景地图中地物的地理位置的直接获取,有利于现有街景资源在智慧城市、智能交通等方面的进一步应用。
附图说明
图1是本发明方法的流程图;
图2是本发明方法中由两视点及目标物的位置确定的两条空间直线前方交汇示意图。
具体实施方式
下面结合附图和实施例作进一步详细说明。
实施例1
本实施例以Google公司的街景地图为例,对本发明的技术方案作进一步描述。如图1所示,本发明的流程包括如下步骤:
步骤1:在Google街景地图中,对于一个待测算目标物,选择两个视角范围内包含待测算目标物的合适视点;
步骤2:获取街景地图中选取的两个视点的经纬度;
步骤3:在选取的两个视点位置处添加可拖动标记点,分别将两个标记点拖动至标记点对应的视点下目标物所在位置;
步骤4:获取拖动后标记点的经纬度;
步骤5:根据两视点及两视点下目标物的经纬度,在笛卡尔坐标系下构建两条非平行的空间直线;由两视点及目标物的位置确定的两条空间直线前方交汇示意图如图2所示;
步骤6:求出两条直线交点,交点的经纬度即为目标物的真实经纬度。
具体实施步骤如下:
步骤1:首先选择一个特定的目标物,对于该目标物选择Google街景地图中两个不同的合适的视点,并分别在这两个视点下将目标物调整到街景地图的合适位置;
所述视点是指,拍摄该街景图像时相机所在地理位置,以经纬度表示。不同视点是指拍摄街景图片时相机的地理位置不同。合适的视点是指,相机在该位置所拍摄的街景影像,经过旋转调整,可以清晰地看到目标物整体,无障碍物遮挡。
所述目标物调整到街景地图合适位置是指通过旋转调整街景影像,使目标物大致位于屏幕中央,放大或缩小影像,使得目标物不至于太小而看不清,也不至于过大而超出屏幕范围。
步骤2:根据Google街景地图相关服务分别获取两个街景视点的经纬度;街景地图的拍摄参数中即包含视点的经纬度信息,其他街景地图可采用相应方式获取视点的经纬度信息。
本实施例中,所述视点的经纬度根据Google Street View API可以获得;具体代码如下:
//获取视点的经纬度
var lat = panorama.getPosition().lat();
var lng = panorama.getPosition().lng();
其中,lat为获取视点的纬度,lng为获取视点的经度;
步骤3:根据获得的视点经纬度,在街景地图的视点位置添加一个可拖动的标记点,将标记点移动至该视点下目标物所在位置;实现的代码具体如下:
//在视点位置添加可拖动的标记点
var marker = new google.maps.Marker({
position: panorama.getPosition(), //标记点位置为视点经纬度
draggable: true,//可拖动
animation: google.maps.Animation.DROP
});
其中,marker为添加的标记点,设置marker为可拖动标记点;
步骤4:根据Google街景地图相关服务获取两视点下拖动后的标记点的经纬度;
//获取拖动过的标记点的位置
var latM=marker.getPosition().lat();
var lngM=marker.getPosition().lng();
其中,latM为拖动后的标记点纬度,lngM为拖动后标记点的经度;
步骤5:视点下目标物的经纬度非目标物的真实经纬度,是视点到目标物构成的射线上的某一不确定点的经纬度。根据已知视点的经纬度及视点下目标物的经纬度,在笛卡尔坐标系下,可以确定出一条空间直线。两个不同的视点则构建出两条不同的空间直线,具体代码如下:
//k1,k2分别为两条空间直线的斜率
var k1 = (lngM1 - lng1)/(latM1 - lat1);
var k2 =(lngM2 - lng2)/(latM2 - lat2);
//b1,b2别为两条空间直线的截距
var b1 = lat1 - k1*lng1;
var b2 = lat2 - k2*lng2;
步骤6:根据两条直线方程,前方交汇,求出交点,该交点的经纬度值即为目标物的实际地理位置,具体代码如下:
//两投影直线的交点,即目标物的地理位置
var lngT = (b2 - b1)/(k1 - k2);
var latT = y0 * k1 + b1;
其中,lngT为目标物的经度,latT为目标物的纬度。
Claims (5)
1.基于街景地图的目标物地理位置的二维量测算方法,其特征在于,包括如下步骤:
1)在街景地图中,选定两个视角范围内包含待测算目标物的视点;
2)获取所选两个视点的经纬度;
3)在选取的两个视点处分别添加可拖动标记点,分别拖动两个标记点至标记点对应的视点下目标物所在位置;
4)获取拖动后标记点的经纬度;
5)根据两视点及拖动后标记点的经纬度,在笛卡尔坐标系下构建两条非平行的空间直线;
6)求出两条空间直线交点的经纬度,即为目标物的真实经纬度。
2.根据权利要求1所述的方法,其特征在于,所述步骤1)中,选定两个视点后,调整该视点下的视角及视野范围,将目标物调整到街景地图的合适位置。
3.根据权利要求2所述的方法,其特征在于,通过旋转、放大或缩小街景影像,将目标物调整到街景地图的合适位置;
具体为,通过旋转调整街景影像,使目标物大致位于屏幕中央,并且目标物整体清晰的位于视野范围内,无障碍物遮挡;通过放大或缩小街景影像调整目标物在视野范围内的显示尺寸,使得目标物不至于太小而看不清,也不至于过大而超出屏幕范围。
4.根据权利要求1所述的方法,其特征在于,所述步骤3)中,两个标记点拖动至目标物中心点的位置。
5.根据权利要求1所述的方法,其特征在于,所述步骤2)中,经纬度从视点的拍摄参数中获取;所述步骤4)中,经纬度从标记点所在视点下的拍摄参数中获取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710098739.4A CN106840167B (zh) | 2017-02-23 | 2017-02-23 | 基于街景地图的目标物地理位置的二维量测算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710098739.4A CN106840167B (zh) | 2017-02-23 | 2017-02-23 | 基于街景地图的目标物地理位置的二维量测算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106840167A CN106840167A (zh) | 2017-06-13 |
CN106840167B true CN106840167B (zh) | 2019-12-20 |
Family
ID=59134839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710098739.4A Active CN106840167B (zh) | 2017-02-23 | 2017-02-23 | 基于街景地图的目标物地理位置的二维量测算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106840167B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10930011B2 (en) | 2019-07-02 | 2021-02-23 | Billups, Inc. | Digital image processing system for object location and facing |
CN111457924A (zh) * | 2020-03-26 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 室内地图处理方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2316527A (en) * | 1996-08-23 | 1998-02-25 | Kokusai Denshin Denwa Co Ltd | Video query and editing system |
CN1945213A (zh) * | 2006-11-02 | 2007-04-11 | 武汉大学 | 基于可量测实景图像的可视化位置服务的实现方法 |
CN102109353A (zh) * | 2009-12-24 | 2011-06-29 | 比亚迪股份有限公司 | 一种实现三维导航的方法和装置 |
CN104685541A (zh) * | 2012-09-17 | 2015-06-03 | 感官运动仪器创新传感器有限公司 | 用于确定三维对象上注视点的方法和装置 |
-
2017
- 2017-02-23 CN CN201710098739.4A patent/CN106840167B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2316527A (en) * | 1996-08-23 | 1998-02-25 | Kokusai Denshin Denwa Co Ltd | Video query and editing system |
CN1945213A (zh) * | 2006-11-02 | 2007-04-11 | 武汉大学 | 基于可量测实景图像的可视化位置服务的实现方法 |
CN102109353A (zh) * | 2009-12-24 | 2011-06-29 | 比亚迪股份有限公司 | 一种实现三维导航的方法和装置 |
CN104685541A (zh) * | 2012-09-17 | 2015-06-03 | 感官运动仪器创新传感器有限公司 | 用于确定三维对象上注视点的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106840167A (zh) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220019611A1 (en) | Providing A Thumbnail Image That Follows A Main Image | |
CN102884400B (zh) | 信息处理设备,信息处理系统和程序 | |
Huang et al. | A 3D GIS-based interactive registration mechanism for outdoor augmented reality system | |
US9898857B2 (en) | Blending between street view and earth view | |
CN107197200A (zh) | 一种实现监控视频显示的方法及装置 | |
CN104102678B (zh) | 增强现实的实现方法以及实现装置 | |
US20130314398A1 (en) | Augmented reality using state plane coordinates | |
US20110102460A1 (en) | Platform for widespread augmented reality and 3d mapping | |
US20130095855A1 (en) | Method, System, and Computer Program Product for Obtaining Images to Enhance Imagery Coverage | |
US20110141254A1 (en) | Systems and methods for augmented reality | |
CN106908043B (zh) | 基于街景图片的目标物地理位置及高度的三维量测算方法 | |
KR20120093991A (ko) | 증강 현실 시스템 | |
Honkamaa et al. | Interactive outdoor mobile augmentation using markerless tracking and GPS | |
JP6571262B2 (ja) | 複数のモデルに基づくオブジェクトの表示 | |
Jian et al. | Augmented virtual environment: fusion of real-time video and 3D models in the digital earth system | |
CN105095314A (zh) | 一种兴趣点的标注方法、终端、导航服务器及导航系统 | |
CN109120901B (zh) | 一种摄像机间画面切换的方法 | |
Wither et al. | Using aerial photographs for improved mobile AR annotation | |
Fukuda et al. | Improvement of registration accuracy of a handheld augmented reality system for urban landscape simulation | |
Zollmann et al. | VISGIS: Dynamic situated visualization for geographic information systems | |
Höllerer et al. | “Anywhere augmentation”: Towards mobile augmented reality in unprepared environments | |
CN107633554A (zh) | 地面移动目标及其和所处位置的三维场景的展示方法 | |
CN105334525A (zh) | 一种基于增强现实技术的地理信息显示方法 | |
CN106840167B (zh) | 基于街景地图的目标物地理位置的二维量测算方法 | |
US11257234B2 (en) | Method for three-dimensional measurement and calculation of the geographic position and height of a target object based on street view images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |