KR101579970B1 - Method and apparatus for calculating location of points captured in image - Google Patents
Method and apparatus for calculating location of points captured in image Download PDFInfo
- Publication number
- KR101579970B1 KR101579970B1 KR1020140017172A KR20140017172A KR101579970B1 KR 101579970 B1 KR101579970 B1 KR 101579970B1 KR 1020140017172 A KR1020140017172 A KR 1020140017172A KR 20140017172 A KR20140017172 A KR 20140017172A KR 101579970 B1 KR101579970 B1 KR 101579970B1
- Authority
- KR
- South Korea
- Prior art keywords
- point
- image
- position calculation
- photographing
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
사진에 촬영된 지점의 위치를 계산하는 장치로서, 카메라에 의해 촬영된 이미지에서 선택된 임의 지점을 입력받고, 상기 임의 지점을 위치 계산 대상으로 결정하는 위치 계산 대상 결정부, 그리고 상기 이미지의 촬영 정보와 수치표고모형을 이용하여 상기 위치 계산 대상의 위치를 계산하는 위치 계산부를 포함한다.An apparatus for calculating a position of a point photographed in a photographing apparatus, comprising: a position calculation target determining unit for receiving a selected point selected from an image photographed by a camera and determining the arbitrary point as a position calculation target; And a position calculation unit for calculating the position of the position calculation object using the digital elevation model.
Description
본 발명은 사진을 이용하여 물체의 위치를 계산하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for calculating the position of an object using a photograph.
도 1을 참고하면, 복수의 사진을 이용하여 물체의 3차원 위치를 계산하는 방법이 있다. 서로 다른 장소에서 물체를 바라보고 촬영한 두 장의 사진을 준비한다. 그리고, 각 사진에서 물체의 위치(방향)를 입력하면, 삼각법을 이용하여 물체의 3차원 위치(x,y,z)를 계산할 수 있다. Referring to FIG. 1, there is a method of calculating a three-dimensional position of an object using a plurality of photographs. Look at the objects in different places and prepare two pictures taken. Then, by inputting the position (direction) of the object in each photograph, the three-dimensional position (x, y, z) of the object can be calculated using trigonometry.
이와 같이, 지금까지의 방법은 물체의 위치를 계산하기 위해, 반드시 복수의 사진이 필요하다. 그러나, 도로에서 로드뷰 영상을 촬영하면, 촬영 간격, 가로수 등의 고정 물체에 의한 가려짐, 차량이나 사람 등 움직이는 물체에 의한 가려짐 등으로, 위치를 계산하고자 하는 물체가 촬영된 영상을 2장 이상 얻을 수 없는 경우가 존재한다. 항공 사진 등을 이용해서 해당 위치를 직접 지정하는 방법이 부수적으로 사용될 수 있지만, 수동으로 지정된 위치는 정확도가 떨어지며, 높이 값을 얻을 수 없는 한계가 있다.As described above, the conventional method necessarily requires a plurality of photographs in order to calculate the position of the object. However, when a road view image is photographed on a road, images captured by an object to be calculated are captured by a moving object such as a vehicle or a person, There is a case that can not be obtained above. Although it is possible to use the method of directly specifying the position using an aerial photograph or the like, there is a limitation in that the manually designated position is not accurate and the height value can not be obtained.
본 발명이 해결하고자 하는 과제는 한 장의 촬영 이미지를 기초로 그 이미지에 포함된 어느 지점의 3차원 위치를 계산하는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for calculating a three-dimensional position of a point included in an image based on a single shot image.
본 발명의 한 실시예에 따라 사진에 촬영된 지점의 위치를 계산하는 장치로서, 카메라에 의해 촬영된 이미지에서 임의 지점을 선택받고, 상기 임의 지점을 위치 계산 대상으로 결정하는 위치 계산 대상 결정부, 그리고 상기 이미지의 촬영 정보와 수치표고모형을 이용하여 상기 위치 계산 대상의 위치를 계산하는 위치 계산부를 포함한다.There is provided an apparatus for calculating a position of a point photographed in a photograph according to an embodiment of the present invention, the apparatus comprising: a position calculation target determining unit that selects a certain point in an image photographed by a camera, And a position calculation unit for calculating the position of the position calculation object using the photographing information of the image and the digital elevation model.
상기 위치 계산부는 상기 이미지의 촬영 정보를 기초로 상기 위치 계산 대상의 방향 벡터를 계산하고, 상기 방향 벡터를 상기 수치표고모형에 투사하여 상기 방향 벡터가 상기 수치표고모형에 충돌한 지점을 계산할 수 있다.The position calculation unit may calculate a direction vector of the position calculation object based on the image photographing information of the image and project the direction vector on the digital elevation model to calculate a point where the direction vector collides with the digital elevation model .
상기 위치 계산부는 상기 충돌한 지점의 3차원 위치를 상기 위치 계산 대상의 위치로 계산할 수 있다.The position calculation unit may calculate the three-dimensional position of the collision point as the position of the position calculation object.
상기 위치 계산부는 상기 이미지의 촬영 위치에 해당하는 상기 수치표고모형의 지점에서 상기 방향 벡터를 투사할 수 있다.The position calculation unit may project the direction vector at a point of the digital elevation model corresponding to the photographing position of the image.
상기 방향 벡터는 상기 이미지의 촬영 위치에서 상기 위치 계산 대상의 방향으로 향하는 3차원 벡터일 수 있다.The direction vector may be a three-dimensional vector that is directed from the photographing position of the image to the direction of the position calculation object.
상기 임의 지점은 지면에 위치하는 지점일 수 있다.The arbitrary point may be a point located on the ground.
상기 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함할 수 있다.The photographing information may include photographing position information and azimuth information.
상기 이미지는 이동 장치에 탑재된 촬영 장치가 촬영한 로드뷰 이미지일 수 있다.The image may be a load view image taken by a photographing apparatus mounted on the mobile device.
상기 임의 지점은 상기 로드뷰 이미지에서 물체가 지면에 닿은 지점이고, 상기 위치 계산부는 상기 물체의 위치를 계산할 수 있다.The arbitrary point is a point at which the object touches the ground in the load view image, and the position calculator can calculate the position of the object.
본 발명의 한 실시예에 따른 장치가 사진에 촬영된 지점의 위치를 계산하는 방법으로써, 카메라에 의해 촬영된 이미지의 촬영 정보를 기초로 위치 계산 대상의 방향 벡터를 추출하는 단계, 그리고 상기 방향 벡터를 수치표고모형에 투사하여 상기 방향 벡터가 상기 수치표고모형에 충돌한 지점을 계산하는 단계를 포함하고, 상기 위치 계산 대상은 상기 이미지에서 선택된 임의 지점이다.A method of calculating a position of a point at which a device according to an embodiment of the present invention is photographed includes the steps of extracting a direction vector of a position calculation object based on shooting information of an image photographed by a camera, To a numerical elevation model to calculate a point at which the directional vector collides with the numerical elevation model, and the position calculation object is an arbitrary point selected from the image.
상기 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함할 수 있다.The photographing information may include photographing position information and azimuth information.
상기 방향 벡터를 추출하는 단계는 상기 촬영 정보를 기초로 상기 이미지의 촬영 위치에서 상기 위치 계산 대상의 방향으로 향하는 상기 방향 벡터를 추출할 수 있다.The extracting of the direction vector may extract the direction vector from the photographing position of the image to the direction of the position calculation object based on the photographing information.
상기 충돌한 지점을 계산하는 단계는 상기 이미지의 촬영 위치에 해당하는 상기 수치표고모형의 지점에서 상기 방향 벡터를 투사할 수 있다.The step of calculating the point of collision may project the direction vector at a point of the digital elevation model corresponding to the photographing position of the image.
상기 위치 계산 방법은 상기 충돌한 지점의 3차원 위치를 상기 위치 계산 대상의 위치로 계산하는 단계를 더 포함할 수 있다.The position calculation method may further include calculating a three-dimensional position of the collision point as a position of the position calculation object.
상기 위치 계산 대상의 위치로 계산하는 단계는 상기 수치표고모형에서 상기 충돌한 지점의 높이 정보를 획득하고, 상기 높이 정보를 상기 위치 계산 대상의 높이로 계산할 수 있다.The step of calculating by the position calculation target position may acquire the height information of the collided point in the numerical elevation model and calculate the height information as the height of the position calculation object.
본 발명의 실시예에 따르면 한 장의 촬영 이미지와 수치표고모형을 이용하여 촬영 이미지에 포함된 물체 또는 특정 지점의 3차원 위치를 계산할 수 있다. 따라서, 본 발명의 실시예에 따르면 위치 계산 대상을 촬영한 복수의 이미지가 없더라도, 위치 계산 대상의 3차원 위치를 계산할 수 있다.According to the embodiment of the present invention, it is possible to calculate a three-dimensional position of an object or a specific point included in a shot image by using a single shot image and a digital elevation model. Therefore, according to the embodiment of the present invention, the three-dimensional position of the position calculation object can be calculated even if there is no plurality of images of the position calculation object.
도 1은 두 장의 이미지를 이용하여 위치를 계산하는 방법을 설명하는 도면이다.
도 2는 본 발명의 한 실시예에 따른 로드뷰 이미지의 예시 도면이다.
도 3은 본 발명의 한 실시예에 따른 3차원상의 로드뷰 이미지를 설명하는 도면이다.
도 4는 본 발명의 한 실시예에 따른 위치 계산 장치의 블록도이다.
도 5는 수치표고모형의 예시이다.
도 6은 본 발명의 한 실시예에 따른 위치 계산 대상의 방향 벡터를 설명하는 도면이다.
도 7은 본 발명의 한 실시예에 따른 위치 계산 방법을 설명하는 도면이다.
도 8은 본 발명의 한 실시예에 따른 위치 계산 방법의 흐름도이다.1 is a view for explaining a method of calculating a position using two images.
2 is an exemplary diagram of a load view image according to one embodiment of the present invention.
3 is a view for explaining a three-dimensional load view image according to an embodiment of the present invention.
4 is a block diagram of a position calculation apparatus according to an embodiment of the present invention.
5 shows an example of a digital elevation model.
6 is a view for explaining a direction vector of a position calculation object according to an embodiment of the present invention.
7 is a view for explaining a position calculation method according to an embodiment of the present invention.
8 is a flowchart of a position calculation method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.
명세서 전체에서 사용하는 "사진", "이미지", "촬영 이미지", "로드뷰 이미지", "영상"은 카메라에 의해 촬영된 것을 지칭하는 용어로서 혼용해서 사용될 수 있다.The terms "photograph "," image ", "shot image "," load view image ", and "image" used in the entire specification can be used interchangeably as terms referring to being photographed by a camera.
도 2는 본 발명의 한 실시예에 따른 로드뷰 이미지의 예시 도면이고, 도 3은 본 발명의 한 실시예에 따른 3차원상의 로드뷰 이미지를 설명하는 도면이다.FIG. 2 is an exemplary view of a load view image according to one embodiment of the present invention, and FIG. 3 is a view illustrating a three-dimensional load view image according to an exemplary embodiment of the present invention.
도 2를 참고하면, 로드뷰 서비스는 차량을 이용해 촬영한 이미지들을 파노라마 형태로 연결하여 거리 곳곳을 실사 이미지로 보여주는 서비스이다. 이렇게, 실사 이미지로 보여주는 서비스는 로드뷰 서비스뿐만 아니라, 스트리트뷰 등과 같이 다양하게 명명되어 서비스될 수 있고, 본 발명이 특정 종류의 서비스에 한정되어 적용되는 것은 아니다.Referring to FIG. 2, the road view service is a service for connecting images photographed using a vehicle in a panoramic form and displaying various places of the road as real images. In this way, a service displayed as a real image can be variously named as a service such as a road view service, a street view, etc., and the present invention is not limited to a specific type of service.
차량과 같은 이동 장치가 촬영 장치를 탑재하고, 일정 간격으로 주변을 촬영하여 거리 이미지를 획득한다. 촬영 장치는 적어도 하나의 카메라, 카메라의 위치 정보를 수신하는 GPS 장치, 카메라의 자세 정보를 측정하는 적어도 하나의 센서 등을 포함할 수 있다. 센서는 카메라의 자세를 측정하는 센서로서, 방위각 정보를 측정할 수 있다. 예를 들면, 센서는 각속도 센서, 자이로 센서, 가속도 센서 등을 포함할 수 있다. 방위각 정보를 기초로 카메라가 어느 방향을 바라보고, 어느 기울기로 촬영한 것인지를 알 수 있다. 또한, 촬영 장치는 GPS 장치 등의 위치 측정 장치를 이용하여, 촬영 지점의 3차원 위치(촬영 위치)를 측정할 수 있다.A moving device such as a vehicle mounts a photographing device and photographs the surroundings at regular intervals to obtain a distance image. The photographing apparatus may include at least one camera, a GPS apparatus that receives position information of the camera, at least one sensor that measures attitude information of the camera, and the like. The sensor is a sensor that measures the attitude of the camera and can measure the azimuth information. For example, the sensor may include an angular velocity sensor, a gyro sensor, an acceleration sensor, and the like. Based on the azimuth information, it is possible to know in which direction the camera is looking and at which slope it was photographed. Further, the photographing apparatus can measure the three-dimensional position (photographing position) of the photographing point by using a position measuring apparatus such as a GPS apparatus.
촬영 장치가 어느 지점을 촬영하여 로드뷰 이미지(10)를 획득한다. 그러면, 로드뷰 이미지(10)는 촬영 정보와 함께 저장된다. 여기서, 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함한다. 촬영 정보를 포함하는 대표적인 이미지가 로드뷰 이미지이므로, 앞으로 로드뷰 이미지를 예로 들어 설명하지만, 본 발명이 특정 종류의 이미지에 한정되어 적용되는 것은 아니다.The photographing apparatus captures a certain point and acquires the
도 3을 참고하면, 로드뷰 이미지(10)는 방위각 정보를 포함한다. 따라서, 로드뷰 이미지(10)는 방위각 정보를 기초로, 촬영 위치(20)를 중심으로 하는 3차원 구(22)에 배치될 수 있다. 이때, 로드뷰 이미지(10)의 촬영 방향은 방위각 정보에 해당하는 방향 벡터(30)로 표현될 수 있다. 방향 벡터의 시점은 촬영 위치(20)이다. Referring to FIG. 3, the
로드뷰 제공 장치(미도시)는 한 지점에서 촬영된 로드뷰 이미지들을 연결하여 구 모양의 3차원 공간을 만들 수 있다. 따라서, 어느 로드뷰 이미지가 놓인 3차원 공간의 크기는 해당 로드뷰 이미지를 촬영한 카메라에 의해 결정된다. 로드뷰 이미지는 어안렌즈와 같은 특수 렌즈를 가진 카메라로 촬영되어, 촬영 위치에서의 일정 각도 범위를 둥근 모양으로 표현할 수 있다. 따라서, 로드뷰 이미지는 구의 일부에 놓일 수 있다. 도 3에서는 설명을 위해 로드뷰 이미지(10)가 구에 접하는 것처럼 간단히 표시하였으나, 로드뷰 이미지(10)는 구를 감싸도록 놓일 수 있다.A load view providing device (not shown) can create a spherical three-dimensional space by connecting the load view images photographed at one point. Therefore, the size of the three-dimensional space in which the load view image is placed is determined by the camera that photographed the corresponding load view image. The rod view image is shot with a camera with a special lens such as a fisheye lens, and the range of a certain angle at the photographing position can be expressed in a round shape. Thus, the load view image can be placed on a portion of a sphere. In FIG. 3, the
만약, 일반 카메라로 촬영한 일반 이미지를 이용하는 경우, 카메라 정보를 포함하는 촬영 정보를 기초로 일반 이미지를 구형 이미지로 변환하여, 본 발명을 적용할 수 있다.If a general image photographed with a general camera is used, the general image can be converted into a spherical image based on photographing information including camera information, and the present invention can be applied.
도 4는 본 발명의 한 실시예에 따른 위치 계산 장치의 블록도이고, 도 5는 수치표고모형의 예시이다.FIG. 4 is a block diagram of a position calculation apparatus according to an embodiment of the present invention, and FIG. 5 is an example of a digital elevation model.
도 4를 참고하면, 위치 계산 장치(100)는 촬영 이미지 저장부(110), 위치 계산 대상 결정부(130) 그리고 위치 계산부(150)를 포함한다.Referring to FIG. 4, the
촬영 이미지 저장부(110)는 카메라로 촬영한 이미지를 저장한다. 촬영 이미지 저장부(110)는 이미지의 촬영 위치 정보 그리고 방위각 정보를 함께 저장한다. 사용자는 촬영 이미지 저장부(110)에서 특정 지점의 위치 계산에 이용할 이미지를 검색하고 선택할 수 있다. 이미지는 로드뷰 이미지일 수 있다.The captured
위치 계산 대상 결정부(130)는 촬영 이미지 저장부(110)에 저장된 이미지, 예를 들면, 도 2의 로드뷰 이미지(10)를 디스플레이한다. 위치 계산 대상 결정부(130)는 로드뷰 이미지(10)에서 사용자에 의해 특정 지점이 선택되면, 선택된 지점을 위치 계산 대상으로 결정한다. 위치 계산 대상은 시설물이나 건물 등과 같은 물체의 어느 지점일 수 있고, 예를 들면, 물체가 지면에 닿은 어느 지점일 수 있다. 예를 들어, 사용자가 도로에 설치된 시설물이나 건물, 가로수 등의 3차원 위치를 계산하고 싶은 경우, 사용자는 로드뷰 이미지에서 시설물이나 건물, 가로수가 지면에 닿은 어느 지점을 클릭하여 해당 지점의 위치를 계산하도록 할 수 있다. The position calculation
위치 계산부(150)는 로드뷰 이미지의 촬영 정보, 그리고 촬영 지점의 수치표고모형(Digital Elevation Model, DEM)을 기초로 위치 계산 대상의 3차원 위치를 계산한다. 위치 계산 대상의 3차원 위치는 수치표고모형의 높이 정보를 포함한다. 예를 들어, 3차원 위치가 3차원 직교좌표계(X, Y, Z)로 표현되는 경우, Z값이 높이값에 해당한다.The
도 5를 참고하면, 수치표고모형은 지리 정보 시스템(Geographic Information System, GIS)에 사용되는데, 지면의 높이, 즉 표고 정보를 가지고 있다. 따라서, 수치표고모형을 기초로 각 지점의 높이(3차원 직교좌표계인 경우, Z값에 해당함)를 알 수 있다.Referring to FIG. 5, the digital elevation model is used in a geographic information system (GIS), which has a height of the ground, that is, elevation information. Therefore, the height of each point (corresponding to the Z value in the case of a three-dimensional rectangular coordinate system) can be known based on the digital elevation model.
다음에서, 위치 계산부(150)가 위치 계산 대상 결정부(130)에서 선택된 위치 계산 대상의 3차원 위치를 계산하는 방법에 대해 설명한다.Next, a method of calculating the three-dimensional position of the position calculation object selected by the position calculation
도 6은 본 발명의 한 실시예에 따른 위치 계산 대상의 방향 벡터를 설명하는 도면이고, 도 7은 본 발명의 한 실시예에 따른 위치 계산 방법을 설명하는 도면이다.FIG. 6 is a view for explaining a direction vector of a position calculation object according to an embodiment of the present invention, and FIG. 7 is a view for explaining a position calculation method according to an embodiment of the present invention.
도 6을 참고하면, 위치 계산부(150)는 위치 계산 대상의 방향 벡터를 계산한다. 위치 계산부(150)는 로드뷰 이미지(10)의 방위각 정보를 기초로, 위치 계산 대상(40)의 방향 벡터(50)를 계산할 수 있다. 로드뷰 이미지(10)의 방위각 기준점과 위치 계산 대상의 변이를 기초로 방향 벡터(50)를 계산할 수 있다.Referring to FIG. 6, the
방향 벡터(50)는 촬영 위치(20)에서 위치 계산 대상(40)으로 향하는 벡터이다.The
도 7을 참고하면, 위치 계산부(150)는 촬영 위치(20)에 해당하는 수치표고모형의 지점에서 방향 벡터(50)를 투사한다. 그러면, 방향 벡터(50)는 수치표고모형의 어느 지점에 충돌한다. 참고로, 도 7에서는 방향 벡터가 수치표고모형에 충돌하는 것을 시각적으로 표현하기 위해 도 6의 방향 벡터와 방향이 다른 벡터를 사용하였다.Referring to FIG. 7, the
위치 계산부(150)는 충돌 지점의 위치를 위치 계산 대상의 3차원 위치로 결정한다. 수치표고모형은 높이(표고) 정보를 포함하므로, 충돌 지점의 위치는 해당 지점의 높이를 포함한다. 즉, 위치 계산부(150)가 수치표고모형으로부터 가져오는 정보는 지면의 높이이므로, 결국 사용자가 이미지에서 시설물이나 건물 등의 물체가 지면에 닿은 지점을 클릭하여야 정확히 클릭한 지점의 위치를 계산할 수 있다. The
위치 계산부(150)는 충돌한 지점의 위치를 보정하여 위치 계산 대상의 위치를 최종 결정할 수 있다.The
도 8은 본 발명의 한 실시예에 따른 위치 계산 방법의 흐름도이다.8 is a flowchart of a position calculation method according to an embodiment of the present invention.
도 8을 참고하면, 위치 계산 장치(100)는 로드뷰 이미지에서 선택된 지점을 위치 계산 대상으로 입력받는다(S110).Referring to FIG. 8, the
위치 계산 장치(100)는 로드뷰 이미지의 촬영 정보를 기초로 위치 계산 대상의 방향 벡터를 계산한다(S120). 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함한다. 위치 계산 대상의 방향 벡터는 촬영 위치에서 위치 계산 대상으로 향하는 벡터로서, 3차원상에 표현된다.The
위치 계산 장치(100)는 촬영 위치에 해당하는 수치표고모형의 지점에서, 위치 계산 대상의 방향 벡터를 투사한다(S130).The
위치 계산 장치(100)는 방향 벡터가 수치표고모형에 충돌한 지점의 위치를 추출한다(S140). 수치표고모형은 높이(표고) 정보를 포함한다. 따라서, 충돌한 지점의 위치는 높이 정보를 포함하는 3차원 좌표 정보일 수 있다.The
위치 계산 장치(100)는 충돌한 지점의 위치를 위치 계산 대상의 위치로 결정한다(S150). 이때, 위치 계산 장치(100)는 충돌한 지점의 위치를 보정하여 위치 계산 대상의 위치를 출력할 수 있다.The
종래에는 물체가 촬영된 로드뷰 이미지가 한 장뿐인 경우에는 물체의 위치를 정확히 계산할 수 없었다. 그러나, 위치 계산 장치(100)는 Daum의 로드뷰와 같이, 촬영된 위치나 방향 등을 포함하는 한 장의 이미지만을 이용해, 촬영된 특정 물체의 3차원 위치를 계산할 수 있다. Conventionally, when only one load view image is captured, the position of the object can not be calculated accurately. However, the
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.
Claims (15)
카메라에 의해 촬영된 이미지에서 임의 지점을 선택받고, 상기 임의 지점을 위치 계산 대상으로 결정하는 위치 계산 대상 결정부, 그리고
상기 이미지의 촬영 정보와 수치표고모형을 이용하여 상기 위치 계산 대상의 위치를 계산하는 위치 계산부
를 포함하고,
상기 위치 계산부는
상기 이미지의 촬영 정보를 기초로 상기 이미지의 촬영 위치에서 상기 위치 계산 대상으로 향하는 방향 벡터를 계산하고, 상기 방향 벡터를 상기 수치표고모형에 투사하여 상기 방향 벡터가 상기 수치표고모형에 충돌한 지점을 계산하는 장치An apparatus for calculating a position of a point photographed in a photograph,
A position calculation target determining unit that selects a certain point in the image photographed by the camera and determines the arbitrary point as a position calculation target,
A position calculation unit for calculating a position of the position calculation object using photographing information of the image and a digital elevation model,
Lt; / RTI >
The position calculation unit
Calculating a direction vector from the photographing position of the image to the position calculation object on the basis of the photographing information of the image and projecting the direction vector on the digital elevation model to determine a point at which the direction vector collides with the digital elevation model Calculating device
상기 위치 계산부는
상기 충돌한 지점의 3차원 위치를 상기 위치 계산 대상의 위치로 계산하는 장치.The method of claim 1,
The position calculation unit
And calculates the three-dimensional position of the collision point as the position of the position calculation object.
상기 위치 계산부는
상기 이미지의 촬영 위치에 해당하는 상기 수치표고모형의 지점에서 상기 방향 벡터를 투사하는 장치.The method of claim 1,
The position calculation unit
And projecting the direction vector at a point of the digital elevation model corresponding to a photographing position of the image.
상기 임의 지점은 지면에 위치하는 지점인 장치.The method of claim 1,
Wherein the arbitrary point is a point located on the ground.
상기 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함하는 장치.The method of claim 1,
Wherein the photographing information includes photographing position information and azimuth information.
상기 이미지는
이동 장치에 탑재된 촬영 장치가 촬영한 로드뷰 이미지인 장치.The method of claim 1,
The image
Wherein the device is a load view image taken by a photographing apparatus mounted on the mobile device.
상기 임의 지점은 상기 로드뷰 이미지에서 물체가 지면에 닿은 지점이고,
상기 위치 계산부는
상기 물체의 위치를 계산하는 장치.9. The method of claim 8,
The arbitrary point is a point at which the object touches the ground in the load view image,
The position calculation unit
And calculate the position of the object.
카메라에 의해 촬영된 이미지의 촬영 정보를 기초로 상기 이미지의 촬영 위치에서 위치 계산 대상으로 향하는 방향 벡터를 추출하는 단계, 그리고
상기 방향 벡터를 수치표고모형에 투사하여 상기 방향 벡터가 상기 수치표고모형에 충돌한 지점을 계산하는 단계를 포함하고,
상기 위치 계산 대상은 상기 이미지에서 선택된 임의 지점인 위치 계산 방법.As a method for calculating the position of a point where a device is photographed in a photograph,
Extracting a direction vector from the photographing position of the image to the position calculation object based on photographing information of the image photographed by the camera, and
And projecting the direction vector to a digital elevation model to calculate a point at which the directional vector collides with the digital elevation model,
Wherein the position calculation object is an arbitrary point selected from the image.
상기 촬영 정보는
촬영 위치 정보 그리고 방위각 정보를 포함하는 위치 계산 방법.11. The method of claim 10,
The shooting information
A photographing position information, and an azimuth information.
상기 충돌한 지점을 계산하는 단계는
상기 이미지의 촬영 위치에 해당하는 상기 수치표고모형의 지점에서 상기 방향 벡터를 투사하는 위치 계산 방법.11. The method of claim 10,
The step of calculating the point of collision
Wherein the direction vector is projected at a point of the digital elevation model corresponding to a photographing position of the image.
상기 충돌한 지점의 3차원 위치를 상기 위치 계산 대상의 위치로 계산하는 단계
를 더 포함하는 위치 계산 방법.11. The method of claim 10,
Calculating a three-dimensional position of the collision point as a position of the position calculation object
Further comprising:
상기 위치 계산 대상의 위치로 계산하는 단계는
상기 수치표고모형에서 상기 충돌한 지점의 높이 정보를 획득하고, 상기 높이 정보를 상기 위치 계산 대상의 높이로 계산하는 위치 계산 방법.The method of claim 14,
The step of calculating by the position calculation target position
Obtaining height information of the collided point in the digital elevation model, and calculating the height information as the height of the position calculation object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140017172A KR101579970B1 (en) | 2014-02-14 | 2014-02-14 | Method and apparatus for calculating location of points captured in image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140017172A KR101579970B1 (en) | 2014-02-14 | 2014-02-14 | Method and apparatus for calculating location of points captured in image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150096127A KR20150096127A (en) | 2015-08-24 |
KR101579970B1 true KR101579970B1 (en) | 2015-12-23 |
Family
ID=54058702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140017172A KR101579970B1 (en) | 2014-02-14 | 2014-02-14 | Method and apparatus for calculating location of points captured in image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101579970B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180055158A (en) | 2016-11-16 | 2018-05-25 | 홍익대학교 산학협력단 | Method and server for Correcting GPS Position in downtown environment using street view service |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170082839A (en) * | 2016-01-07 | 2017-07-17 | 한화테크윈 주식회사 | Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same |
CN106802126A (en) * | 2017-01-09 | 2017-06-06 | 天津大学 | A kind of one camera land-based target punctuate space-location method based on digital elevation map |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2919284B2 (en) | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | Object recognition method |
JP2003296740A (en) | 2002-04-08 | 2003-10-17 | Victor Co Of Japan Ltd | Object monitoring method and object monitoring camera device |
KR101182421B1 (en) | 2012-02-09 | 2012-09-12 | (주)씨투엘이큅먼트 | System and method for acquiring indoor photographing location information |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100011041A (en) * | 2008-07-24 | 2010-02-03 | 주식회사 현대오토넷 | Navigation device with a map matching function using three-dimensional gyro sensor and digital elevation value |
-
2014
- 2014-02-14 KR KR1020140017172A patent/KR101579970B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2919284B2 (en) | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | Object recognition method |
JP2003296740A (en) | 2002-04-08 | 2003-10-17 | Victor Co Of Japan Ltd | Object monitoring method and object monitoring camera device |
KR101182421B1 (en) | 2012-02-09 | 2012-09-12 | (주)씨투엘이큅먼트 | System and method for acquiring indoor photographing location information |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180055158A (en) | 2016-11-16 | 2018-05-25 | 홍익대학교 산학협력단 | Method and server for Correcting GPS Position in downtown environment using street view service |
Also Published As
Publication number | Publication date |
---|---|
KR20150096127A (en) | 2015-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230326213A1 (en) | Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program | |
JP6687204B2 (en) | Projection image generation method and apparatus, and mapping method between image pixels and depth values | |
EP2912631B1 (en) | Determination of position from images and associated camera positions | |
US20110261187A1 (en) | Extracting and Mapping Three Dimensional Features from Geo-Referenced Images | |
KR101665399B1 (en) | Object generation apparatus and method of based augmented reality using actual measured | |
JP6950832B2 (en) | Position coordinate estimation device, position coordinate estimation method and program | |
US8369578B2 (en) | Method and system for position determination using image deformation | |
US11295142B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
JPWO2018193574A1 (en) | Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium | |
KR101879855B1 (en) | Digital map generating system for performing spatial modelling through a distortion correction of image | |
JP4077385B2 (en) | Global coordinate acquisition device using image processing | |
KR101579970B1 (en) | Method and apparatus for calculating location of points captured in image | |
CN107193820B (en) | Position information acquisition method, device and equipment | |
JP2014240754A5 (en) | ||
CN109712249B (en) | Geographic element augmented reality method and device | |
KR101474521B1 (en) | Method and apparatus for building image database | |
KR101234917B1 (en) | Method and system for generating 3-dimensional space data using image correction by threshold applied a weight information | |
JP5991821B2 (en) | Photogrammetry equipment | |
KR101208245B1 (en) | Method of location recognition using mobile terminal and thereof apparatus | |
KR101879858B1 (en) | Spatial modelling system for modelling spatial data by extracting common feature using comparison process between coordinate information of target object extracted from corrected image and coordinate information of arial photograph | |
KR101332093B1 (en) | Spatial image processing system for obtaining 3-dimensional space data using coordination information of target object obtained by a plurality of sensors | |
KR102473804B1 (en) | method of mapping monitoring point in CCTV video for video surveillance system | |
CN107703954B (en) | Target position surveying method and device for unmanned aerial vehicle and unmanned aerial vehicle | |
Aliakbarpour et al. | Geometric exploration of virtual planes in a fusion-based 3D data registration framework | |
JP2005286747A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180717 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190328 Year of fee payment: 9 |