KR101579970B1 - Method and apparatus for calculating location of points captured in image - Google Patents

Method and apparatus for calculating location of points captured in image Download PDF

Info

Publication number
KR101579970B1
KR101579970B1 KR1020140017172A KR20140017172A KR101579970B1 KR 101579970 B1 KR101579970 B1 KR 101579970B1 KR 1020140017172 A KR1020140017172 A KR 1020140017172A KR 20140017172 A KR20140017172 A KR 20140017172A KR 101579970 B1 KR101579970 B1 KR 101579970B1
Authority
KR
South Korea
Prior art keywords
point
image
position calculation
photographing
information
Prior art date
Application number
KR1020140017172A
Other languages
Korean (ko)
Other versions
KR20150096127A (en
Inventor
김기태
이자용
이동진
Original Assignee
주식회사 카카오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 카카오 filed Critical 주식회사 카카오
Priority to KR1020140017172A priority Critical patent/KR101579970B1/en
Publication of KR20150096127A publication Critical patent/KR20150096127A/en
Application granted granted Critical
Publication of KR101579970B1 publication Critical patent/KR101579970B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

사진에 촬영된 지점의 위치를 계산하는 장치로서, 카메라에 의해 촬영된 이미지에서 선택된 임의 지점을 입력받고, 상기 임의 지점을 위치 계산 대상으로 결정하는 위치 계산 대상 결정부, 그리고 상기 이미지의 촬영 정보와 수치표고모형을 이용하여 상기 위치 계산 대상의 위치를 계산하는 위치 계산부를 포함한다.An apparatus for calculating a position of a point photographed in a photographing apparatus, comprising: a position calculation target determining unit for receiving a selected point selected from an image photographed by a camera and determining the arbitrary point as a position calculation target; And a position calculation unit for calculating the position of the position calculation object using the digital elevation model.

Description

사진에 촬영된 지점의 위치를 계산하는 방법 및 장치{METHOD AND APPARATUS FOR CALCULATING LOCATION OF POINTS CAPTURED IN IMAGE}≪ Desc / Clms Page number 1 > METHOD AND APPARATUS FOR CALCULATING LOCATION OF POINTS CAPTURED IN IMAGE < RTI ID = 0.0 >

본 발명은 사진을 이용하여 물체의 위치를 계산하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for calculating the position of an object using a photograph.

도 1을 참고하면, 복수의 사진을 이용하여 물체의 3차원 위치를 계산하는 방법이 있다. 서로 다른 장소에서 물체를 바라보고 촬영한 두 장의 사진을 준비한다. 그리고, 각 사진에서 물체의 위치(방향)를 입력하면, 삼각법을 이용하여 물체의 3차원 위치(x,y,z)를 계산할 수 있다. Referring to FIG. 1, there is a method of calculating a three-dimensional position of an object using a plurality of photographs. Look at the objects in different places and prepare two pictures taken. Then, by inputting the position (direction) of the object in each photograph, the three-dimensional position (x, y, z) of the object can be calculated using trigonometry.

이와 같이, 지금까지의 방법은 물체의 위치를 계산하기 위해, 반드시 복수의 사진이 필요하다. 그러나, 도로에서 로드뷰 영상을 촬영하면, 촬영 간격, 가로수 등의 고정 물체에 의한 가려짐, 차량이나 사람 등 움직이는 물체에 의한 가려짐 등으로, 위치를 계산하고자 하는 물체가 촬영된 영상을 2장 이상 얻을 수 없는 경우가 존재한다. 항공 사진 등을 이용해서 해당 위치를 직접 지정하는 방법이 부수적으로 사용될 수 있지만, 수동으로 지정된 위치는 정확도가 떨어지며, 높이 값을 얻을 수 없는 한계가 있다.As described above, the conventional method necessarily requires a plurality of photographs in order to calculate the position of the object. However, when a road view image is photographed on a road, images captured by an object to be calculated are captured by a moving object such as a vehicle or a person, There is a case that can not be obtained above. Although it is possible to use the method of directly specifying the position using an aerial photograph or the like, there is a limitation in that the manually designated position is not accurate and the height value can not be obtained.

본 발명이 해결하고자 하는 과제는 한 장의 촬영 이미지를 기초로 그 이미지에 포함된 어느 지점의 3차원 위치를 계산하는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for calculating a three-dimensional position of a point included in an image based on a single shot image.

본 발명의 한 실시예에 따라 사진에 촬영된 지점의 위치를 계산하는 장치로서, 카메라에 의해 촬영된 이미지에서 임의 지점을 선택받고, 상기 임의 지점을 위치 계산 대상으로 결정하는 위치 계산 대상 결정부, 그리고 상기 이미지의 촬영 정보와 수치표고모형을 이용하여 상기 위치 계산 대상의 위치를 계산하는 위치 계산부를 포함한다.There is provided an apparatus for calculating a position of a point photographed in a photograph according to an embodiment of the present invention, the apparatus comprising: a position calculation target determining unit that selects a certain point in an image photographed by a camera, And a position calculation unit for calculating the position of the position calculation object using the photographing information of the image and the digital elevation model.

상기 위치 계산부는 상기 이미지의 촬영 정보를 기초로 상기 위치 계산 대상의 방향 벡터를 계산하고, 상기 방향 벡터를 상기 수치표고모형에 투사하여 상기 방향 벡터가 상기 수치표고모형에 충돌한 지점을 계산할 수 있다.The position calculation unit may calculate a direction vector of the position calculation object based on the image photographing information of the image and project the direction vector on the digital elevation model to calculate a point where the direction vector collides with the digital elevation model .

상기 위치 계산부는 상기 충돌한 지점의 3차원 위치를 상기 위치 계산 대상의 위치로 계산할 수 있다.The position calculation unit may calculate the three-dimensional position of the collision point as the position of the position calculation object.

상기 위치 계산부는 상기 이미지의 촬영 위치에 해당하는 상기 수치표고모형의 지점에서 상기 방향 벡터를 투사할 수 있다.The position calculation unit may project the direction vector at a point of the digital elevation model corresponding to the photographing position of the image.

상기 방향 벡터는 상기 이미지의 촬영 위치에서 상기 위치 계산 대상의 방향으로 향하는 3차원 벡터일 수 있다.The direction vector may be a three-dimensional vector that is directed from the photographing position of the image to the direction of the position calculation object.

상기 임의 지점은 지면에 위치하는 지점일 수 있다.The arbitrary point may be a point located on the ground.

상기 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함할 수 있다.The photographing information may include photographing position information and azimuth information.

상기 이미지는 이동 장치에 탑재된 촬영 장치가 촬영한 로드뷰 이미지일 수 있다.The image may be a load view image taken by a photographing apparatus mounted on the mobile device.

상기 임의 지점은 상기 로드뷰 이미지에서 물체가 지면에 닿은 지점이고, 상기 위치 계산부는 상기 물체의 위치를 계산할 수 있다.The arbitrary point is a point at which the object touches the ground in the load view image, and the position calculator can calculate the position of the object.

본 발명의 한 실시예에 따른 장치가 사진에 촬영된 지점의 위치를 계산하는 방법으로써, 카메라에 의해 촬영된 이미지의 촬영 정보를 기초로 위치 계산 대상의 방향 벡터를 추출하는 단계, 그리고 상기 방향 벡터를 수치표고모형에 투사하여 상기 방향 벡터가 상기 수치표고모형에 충돌한 지점을 계산하는 단계를 포함하고, 상기 위치 계산 대상은 상기 이미지에서 선택된 임의 지점이다.A method of calculating a position of a point at which a device according to an embodiment of the present invention is photographed includes the steps of extracting a direction vector of a position calculation object based on shooting information of an image photographed by a camera, To a numerical elevation model to calculate a point at which the directional vector collides with the numerical elevation model, and the position calculation object is an arbitrary point selected from the image.

상기 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함할 수 있다.The photographing information may include photographing position information and azimuth information.

상기 방향 벡터를 추출하는 단계는 상기 촬영 정보를 기초로 상기 이미지의 촬영 위치에서 상기 위치 계산 대상의 방향으로 향하는 상기 방향 벡터를 추출할 수 있다.The extracting of the direction vector may extract the direction vector from the photographing position of the image to the direction of the position calculation object based on the photographing information.

상기 충돌한 지점을 계산하는 단계는 상기 이미지의 촬영 위치에 해당하는 상기 수치표고모형의 지점에서 상기 방향 벡터를 투사할 수 있다.The step of calculating the point of collision may project the direction vector at a point of the digital elevation model corresponding to the photographing position of the image.

상기 위치 계산 방법은 상기 충돌한 지점의 3차원 위치를 상기 위치 계산 대상의 위치로 계산하는 단계를 더 포함할 수 있다.The position calculation method may further include calculating a three-dimensional position of the collision point as a position of the position calculation object.

상기 위치 계산 대상의 위치로 계산하는 단계는 상기 수치표고모형에서 상기 충돌한 지점의 높이 정보를 획득하고, 상기 높이 정보를 상기 위치 계산 대상의 높이로 계산할 수 있다.The step of calculating by the position calculation target position may acquire the height information of the collided point in the numerical elevation model and calculate the height information as the height of the position calculation object.

본 발명의 실시예에 따르면 한 장의 촬영 이미지와 수치표고모형을 이용하여 촬영 이미지에 포함된 물체 또는 특정 지점의 3차원 위치를 계산할 수 있다. 따라서, 본 발명의 실시예에 따르면 위치 계산 대상을 촬영한 복수의 이미지가 없더라도, 위치 계산 대상의 3차원 위치를 계산할 수 있다.According to the embodiment of the present invention, it is possible to calculate a three-dimensional position of an object or a specific point included in a shot image by using a single shot image and a digital elevation model. Therefore, according to the embodiment of the present invention, the three-dimensional position of the position calculation object can be calculated even if there is no plurality of images of the position calculation object.

도 1은 두 장의 이미지를 이용하여 위치를 계산하는 방법을 설명하는 도면이다.
도 2는 본 발명의 한 실시예에 따른 로드뷰 이미지의 예시 도면이다.
도 3은 본 발명의 한 실시예에 따른 3차원상의 로드뷰 이미지를 설명하는 도면이다.
도 4는 본 발명의 한 실시예에 따른 위치 계산 장치의 블록도이다.
도 5는 수치표고모형의 예시이다.
도 6은 본 발명의 한 실시예에 따른 위치 계산 대상의 방향 벡터를 설명하는 도면이다.
도 7은 본 발명의 한 실시예에 따른 위치 계산 방법을 설명하는 도면이다.
도 8은 본 발명의 한 실시예에 따른 위치 계산 방법의 흐름도이다.
1 is a view for explaining a method of calculating a position using two images.
2 is an exemplary diagram of a load view image according to one embodiment of the present invention.
3 is a view for explaining a three-dimensional load view image according to an embodiment of the present invention.
4 is a block diagram of a position calculation apparatus according to an embodiment of the present invention.
5 shows an example of a digital elevation model.
6 is a view for explaining a direction vector of a position calculation object according to an embodiment of the present invention.
7 is a view for explaining a position calculation method according to an embodiment of the present invention.
8 is a flowchart of a position calculation method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.

명세서 전체에서 사용하는 "사진", "이미지", "촬영 이미지", "로드뷰 이미지", "영상"은 카메라에 의해 촬영된 것을 지칭하는 용어로서 혼용해서 사용될 수 있다.The terms "photograph "," image ", "shot image "," load view image ", and "image" used in the entire specification can be used interchangeably as terms referring to being photographed by a camera.

도 2는 본 발명의 한 실시예에 따른 로드뷰 이미지의 예시 도면이고, 도 3은 본 발명의 한 실시예에 따른 3차원상의 로드뷰 이미지를 설명하는 도면이다.FIG. 2 is an exemplary view of a load view image according to one embodiment of the present invention, and FIG. 3 is a view illustrating a three-dimensional load view image according to an exemplary embodiment of the present invention.

도 2를 참고하면, 로드뷰 서비스는 차량을 이용해 촬영한 이미지들을 파노라마 형태로 연결하여 거리 곳곳을 실사 이미지로 보여주는 서비스이다. 이렇게, 실사 이미지로 보여주는 서비스는 로드뷰 서비스뿐만 아니라, 스트리트뷰 등과 같이 다양하게 명명되어 서비스될 수 있고, 본 발명이 특정 종류의 서비스에 한정되어 적용되는 것은 아니다.Referring to FIG. 2, the road view service is a service for connecting images photographed using a vehicle in a panoramic form and displaying various places of the road as real images. In this way, a service displayed as a real image can be variously named as a service such as a road view service, a street view, etc., and the present invention is not limited to a specific type of service.

차량과 같은 이동 장치가 촬영 장치를 탑재하고, 일정 간격으로 주변을 촬영하여 거리 이미지를 획득한다. 촬영 장치는 적어도 하나의 카메라, 카메라의 위치 정보를 수신하는 GPS 장치, 카메라의 자세 정보를 측정하는 적어도 하나의 센서 등을 포함할 수 있다. 센서는 카메라의 자세를 측정하는 센서로서, 방위각 정보를 측정할 수 있다. 예를 들면, 센서는 각속도 센서, 자이로 센서, 가속도 센서 등을 포함할 수 있다. 방위각 정보를 기초로 카메라가 어느 방향을 바라보고, 어느 기울기로 촬영한 것인지를 알 수 있다. 또한, 촬영 장치는 GPS 장치 등의 위치 측정 장치를 이용하여, 촬영 지점의 3차원 위치(촬영 위치)를 측정할 수 있다.A moving device such as a vehicle mounts a photographing device and photographs the surroundings at regular intervals to obtain a distance image. The photographing apparatus may include at least one camera, a GPS apparatus that receives position information of the camera, at least one sensor that measures attitude information of the camera, and the like. The sensor is a sensor that measures the attitude of the camera and can measure the azimuth information. For example, the sensor may include an angular velocity sensor, a gyro sensor, an acceleration sensor, and the like. Based on the azimuth information, it is possible to know in which direction the camera is looking and at which slope it was photographed. Further, the photographing apparatus can measure the three-dimensional position (photographing position) of the photographing point by using a position measuring apparatus such as a GPS apparatus.

촬영 장치가 어느 지점을 촬영하여 로드뷰 이미지(10)를 획득한다. 그러면, 로드뷰 이미지(10)는 촬영 정보와 함께 저장된다. 여기서, 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함한다. 촬영 정보를 포함하는 대표적인 이미지가 로드뷰 이미지이므로, 앞으로 로드뷰 이미지를 예로 들어 설명하지만, 본 발명이 특정 종류의 이미지에 한정되어 적용되는 것은 아니다.The photographing apparatus captures a certain point and acquires the load view image 10. Then, the load view image 10 is stored together with the shooting information. Here, the photographing information includes photographing position information and azimuth information. Since the representative image including the shooting information is the load view image, the load view image will be described as an example in the following, but the present invention is not limited to the specific kind of image.

도 3을 참고하면, 로드뷰 이미지(10)는 방위각 정보를 포함한다. 따라서, 로드뷰 이미지(10)는 방위각 정보를 기초로, 촬영 위치(20)를 중심으로 하는 3차원 구(22)에 배치될 수 있다. 이때, 로드뷰 이미지(10)의 촬영 방향은 방위각 정보에 해당하는 방향 벡터(30)로 표현될 수 있다. 방향 벡터의 시점은 촬영 위치(20)이다. Referring to FIG. 3, the load view image 10 includes azimuth information. Thus, the load view image 10 can be placed in the three-dimensional sphere 22 centering on the photographing position 20, based on the azimuth information. At this time, the photographing direction of the road view image 10 may be expressed by a direction vector 30 corresponding to the azimuth information. The starting point of the direction vector is the photographing position 20.

로드뷰 제공 장치(미도시)는 한 지점에서 촬영된 로드뷰 이미지들을 연결하여 구 모양의 3차원 공간을 만들 수 있다. 따라서, 어느 로드뷰 이미지가 놓인 3차원 공간의 크기는 해당 로드뷰 이미지를 촬영한 카메라에 의해 결정된다. 로드뷰 이미지는 어안렌즈와 같은 특수 렌즈를 가진 카메라로 촬영되어, 촬영 위치에서의 일정 각도 범위를 둥근 모양으로 표현할 수 있다. 따라서, 로드뷰 이미지는 구의 일부에 놓일 수 있다. 도 3에서는 설명을 위해 로드뷰 이미지(10)가 구에 접하는 것처럼 간단히 표시하였으나, 로드뷰 이미지(10)는 구를 감싸도록 놓일 수 있다.A load view providing device (not shown) can create a spherical three-dimensional space by connecting the load view images photographed at one point. Therefore, the size of the three-dimensional space in which the load view image is placed is determined by the camera that photographed the corresponding load view image. The rod view image is shot with a camera with a special lens such as a fisheye lens, and the range of a certain angle at the photographing position can be expressed in a round shape. Thus, the load view image can be placed on a portion of a sphere. In FIG. 3, the load view image 10 is simply shown as if it touches the sphere, but the load view image 10 can be laid to surround the sphere.

만약, 일반 카메라로 촬영한 일반 이미지를 이용하는 경우, 카메라 정보를 포함하는 촬영 정보를 기초로 일반 이미지를 구형 이미지로 변환하여, 본 발명을 적용할 수 있다.If a general image photographed with a general camera is used, the general image can be converted into a spherical image based on photographing information including camera information, and the present invention can be applied.

도 4는 본 발명의 한 실시예에 따른 위치 계산 장치의 블록도이고, 도 5는 수치표고모형의 예시이다.FIG. 4 is a block diagram of a position calculation apparatus according to an embodiment of the present invention, and FIG. 5 is an example of a digital elevation model.

도 4를 참고하면, 위치 계산 장치(100)는 촬영 이미지 저장부(110), 위치 계산 대상 결정부(130) 그리고 위치 계산부(150)를 포함한다.Referring to FIG. 4, the position calculation apparatus 100 includes a shot image storage unit 110, a position calculation object determination unit 130, and a position calculation unit 150.

촬영 이미지 저장부(110)는 카메라로 촬영한 이미지를 저장한다. 촬영 이미지 저장부(110)는 이미지의 촬영 위치 정보 그리고 방위각 정보를 함께 저장한다. 사용자는 촬영 이미지 저장부(110)에서 특정 지점의 위치 계산에 이용할 이미지를 검색하고 선택할 수 있다. 이미지는 로드뷰 이미지일 수 있다.The captured image storage unit 110 stores an image captured by the camera. The captured image storage unit 110 stores the image capturing position information and the azimuth information together. The user can search for and select an image to be used for calculating the position of a specific point in the captured image storage unit 110. [ The image may be a load view image.

위치 계산 대상 결정부(130)는 촬영 이미지 저장부(110)에 저장된 이미지, 예를 들면, 도 2의 로드뷰 이미지(10)를 디스플레이한다. 위치 계산 대상 결정부(130)는 로드뷰 이미지(10)에서 사용자에 의해 특정 지점이 선택되면, 선택된 지점을 위치 계산 대상으로 결정한다. 위치 계산 대상은 시설물이나 건물 등과 같은 물체의 어느 지점일 수 있고, 예를 들면, 물체가 지면에 닿은 어느 지점일 수 있다. 예를 들어, 사용자가 도로에 설치된 시설물이나 건물, 가로수 등의 3차원 위치를 계산하고 싶은 경우, 사용자는 로드뷰 이미지에서 시설물이나 건물, 가로수가 지면에 닿은 어느 지점을 클릭하여 해당 지점의 위치를 계산하도록 할 수 있다. The position calculation target determination unit 130 displays an image stored in the captured image storage unit 110, for example, the load view image 10 of FIG. When a specific point is selected by the user in the load view image 10, the position calculation target determination unit 130 determines the selected point as the position calculation target. The location calculation object may be at any point of an object, such as a facility or a building, for example, at a point where the object contacts the ground. For example, if a user wishes to calculate the three-dimensional location of a facility, a building, or a roadside on a road, the user can click on the location of the facility, building, Can be calculated.

위치 계산부(150)는 로드뷰 이미지의 촬영 정보, 그리고 촬영 지점의 수치표고모형(Digital Elevation Model, DEM)을 기초로 위치 계산 대상의 3차원 위치를 계산한다. 위치 계산 대상의 3차원 위치는 수치표고모형의 높이 정보를 포함한다. 예를 들어, 3차원 위치가 3차원 직교좌표계(X, Y, Z)로 표현되는 경우, Z값이 높이값에 해당한다.The position calculation unit 150 calculates the three-dimensional position of the position calculation object based on the photographing information of the load view image and the digital elevation model (DEM) of the photographing point. The three-dimensional position of the position calculation object includes height information of the numerical elevation model. For example, when a three-dimensional position is represented by a three-dimensional Cartesian coordinate system (X, Y, Z), the Z value corresponds to a height value.

도 5를 참고하면, 수치표고모형은 지리 정보 시스템(Geographic Information System, GIS)에 사용되는데, 지면의 높이, 즉 표고 정보를 가지고 있다. 따라서, 수치표고모형을 기초로 각 지점의 높이(3차원 직교좌표계인 경우, Z값에 해당함)를 알 수 있다.Referring to FIG. 5, the digital elevation model is used in a geographic information system (GIS), which has a height of the ground, that is, elevation information. Therefore, the height of each point (corresponding to the Z value in the case of a three-dimensional rectangular coordinate system) can be known based on the digital elevation model.

다음에서, 위치 계산부(150)가 위치 계산 대상 결정부(130)에서 선택된 위치 계산 대상의 3차원 위치를 계산하는 방법에 대해 설명한다.Next, a method of calculating the three-dimensional position of the position calculation object selected by the position calculation object determination unit 130 by the position calculation unit 150 will be described.

도 6은 본 발명의 한 실시예에 따른 위치 계산 대상의 방향 벡터를 설명하는 도면이고, 도 7은 본 발명의 한 실시예에 따른 위치 계산 방법을 설명하는 도면이다.FIG. 6 is a view for explaining a direction vector of a position calculation object according to an embodiment of the present invention, and FIG. 7 is a view for explaining a position calculation method according to an embodiment of the present invention.

도 6을 참고하면, 위치 계산부(150)는 위치 계산 대상의 방향 벡터를 계산한다. 위치 계산부(150)는 로드뷰 이미지(10)의 방위각 정보를 기초로, 위치 계산 대상(40)의 방향 벡터(50)를 계산할 수 있다. 로드뷰 이미지(10)의 방위각 기준점과 위치 계산 대상의 변이를 기초로 방향 벡터(50)를 계산할 수 있다.Referring to FIG. 6, the position calculation unit 150 calculates a direction vector of a position calculation object. The position calculation unit 150 can calculate the direction vector 50 of the position calculation object 40 based on the azimuth information of the load view image 10. [ The direction vector 50 can be calculated based on the azimuth reference point of the road view image 10 and the variation of the position calculation object.

방향 벡터(50)는 촬영 위치(20)에서 위치 계산 대상(40)으로 향하는 벡터이다.The direction vector 50 is a vector from the photographing position 20 to the position calculation object 40. [

도 7을 참고하면, 위치 계산부(150)는 촬영 위치(20)에 해당하는 수치표고모형의 지점에서 방향 벡터(50)를 투사한다. 그러면, 방향 벡터(50)는 수치표고모형의 어느 지점에 충돌한다. 참고로, 도 7에서는 방향 벡터가 수치표고모형에 충돌하는 것을 시각적으로 표현하기 위해 도 6의 방향 벡터와 방향이 다른 벡터를 사용하였다.Referring to FIG. 7, the position calculation unit 150 projects the direction vector 50 at a point of the digital elevation model corresponding to the photographing position 20. Then, the direction vector 50 collides at some point in the digital elevation model. For reference, in FIG. 7, a vector whose direction is different from the direction vector of FIG. 6 is used to visually express the direction vector colliding with the digital elevation model.

위치 계산부(150)는 충돌 지점의 위치를 위치 계산 대상의 3차원 위치로 결정한다. 수치표고모형은 높이(표고) 정보를 포함하므로, 충돌 지점의 위치는 해당 지점의 높이를 포함한다. 즉, 위치 계산부(150)가 수치표고모형으로부터 가져오는 정보는 지면의 높이이므로, 결국 사용자가 이미지에서 시설물이나 건물 등의 물체가 지면에 닿은 지점을 클릭하여야 정확히 클릭한 지점의 위치를 계산할 수 있다. The position calculation unit 150 determines the position of the collision point as the three-dimensional position of the position calculation object. Since the numerical elevation model includes height (elevation) information, the position of the collision point includes the height of the corresponding point. That is, since the information that the position calculation unit 150 obtains from the digital elevation model is the height of the ground, the user must click on the point at which the object such as a facility or a building touches the ground to calculate the position of the point have.

위치 계산부(150)는 충돌한 지점의 위치를 보정하여 위치 계산 대상의 위치를 최종 결정할 수 있다.The position calculation unit 150 can finally determine the position of the position calculation object by correcting the position of the collided point.

도 8은 본 발명의 한 실시예에 따른 위치 계산 방법의 흐름도이다.8 is a flowchart of a position calculation method according to an embodiment of the present invention.

도 8을 참고하면, 위치 계산 장치(100)는 로드뷰 이미지에서 선택된 지점을 위치 계산 대상으로 입력받는다(S110).Referring to FIG. 8, the position calculation apparatus 100 receives a point selected in the load view image as a position calculation target (S110).

위치 계산 장치(100)는 로드뷰 이미지의 촬영 정보를 기초로 위치 계산 대상의 방향 벡터를 계산한다(S120). 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함한다. 위치 계산 대상의 방향 벡터는 촬영 위치에서 위치 계산 대상으로 향하는 벡터로서, 3차원상에 표현된다.The position calculation device 100 calculates a direction vector of the position calculation object based on the shooting information of the load view image (S120). The photographing information includes photographing position information and azimuth information. The direction vector of the position calculation object is a vector that is directed from the photographing position to the position calculation object, and is expressed on three dimensions.

위치 계산 장치(100)는 촬영 위치에 해당하는 수치표고모형의 지점에서, 위치 계산 대상의 방향 벡터를 투사한다(S130).The position calculation apparatus 100 projects a direction vector of the position calculation object at a point of the digital elevation model corresponding to the photographing position (S130).

위치 계산 장치(100)는 방향 벡터가 수치표고모형에 충돌한 지점의 위치를 추출한다(S140). 수치표고모형은 높이(표고) 정보를 포함한다. 따라서, 충돌한 지점의 위치는 높이 정보를 포함하는 3차원 좌표 정보일 수 있다.The position calculation apparatus 100 extracts the position of the point where the direction vector collides with the numerical elevation model (S140). The numerical elevation model includes height (elevation) information. Accordingly, the position of the point of collision may be three-dimensional coordinate information including height information.

위치 계산 장치(100)는 충돌한 지점의 위치를 위치 계산 대상의 위치로 결정한다(S150). 이때, 위치 계산 장치(100)는 충돌한 지점의 위치를 보정하여 위치 계산 대상의 위치를 출력할 수 있다.The position calculation apparatus 100 determines the position of the collided point as a position calculation target position (S150). At this time, the position calculation apparatus 100 may correct the position of the collided point and output the position of the position calculation object.

종래에는 물체가 촬영된 로드뷰 이미지가 한 장뿐인 경우에는 물체의 위치를 정확히 계산할 수 없었다. 그러나, 위치 계산 장치(100)는 Daum의 로드뷰와 같이, 촬영된 위치나 방향 등을 포함하는 한 장의 이미지만을 이용해, 촬영된 특정 물체의 3차원 위치를 계산할 수 있다. Conventionally, when only one load view image is captured, the position of the object can not be calculated accurately. However, the position calculation device 100 can calculate the three-dimensional position of the specific object photographed, using only one image including the captured position and direction, as in the load view of Daum.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

Claims (15)

사진에 촬영된 지점의 위치를 계산하는 장치로서,
카메라에 의해 촬영된 이미지에서 임의 지점을 선택받고, 상기 임의 지점을 위치 계산 대상으로 결정하는 위치 계산 대상 결정부, 그리고
상기 이미지의 촬영 정보와 수치표고모형을 이용하여 상기 위치 계산 대상의 위치를 계산하는 위치 계산부
를 포함하고,
상기 위치 계산부는
상기 이미지의 촬영 정보를 기초로 상기 이미지의 촬영 위치에서 상기 위치 계산 대상으로 향하는 방향 벡터를 계산하고, 상기 방향 벡터를 상기 수치표고모형에 투사하여 상기 방향 벡터가 상기 수치표고모형에 충돌한 지점을 계산하는 장치
An apparatus for calculating a position of a point photographed in a photograph,
A position calculation target determining unit that selects a certain point in the image photographed by the camera and determines the arbitrary point as a position calculation target,
A position calculation unit for calculating a position of the position calculation object using photographing information of the image and a digital elevation model,
Lt; / RTI >
The position calculation unit
Calculating a direction vector from the photographing position of the image to the position calculation object on the basis of the photographing information of the image and projecting the direction vector on the digital elevation model to determine a point at which the direction vector collides with the digital elevation model Calculating device
삭제delete 제1항에서,
상기 위치 계산부는
상기 충돌한 지점의 3차원 위치를 상기 위치 계산 대상의 위치로 계산하는 장치.
The method of claim 1,
The position calculation unit
And calculates the three-dimensional position of the collision point as the position of the position calculation object.
제1항에서,
상기 위치 계산부는
상기 이미지의 촬영 위치에 해당하는 상기 수치표고모형의 지점에서 상기 방향 벡터를 투사하는 장치.
The method of claim 1,
The position calculation unit
And projecting the direction vector at a point of the digital elevation model corresponding to a photographing position of the image.
삭제delete 제1항에서,
상기 임의 지점은 지면에 위치하는 지점인 장치.
The method of claim 1,
Wherein the arbitrary point is a point located on the ground.
제1항에서,
상기 촬영 정보는 촬영 위치 정보 그리고 방위각 정보를 포함하는 장치.
The method of claim 1,
Wherein the photographing information includes photographing position information and azimuth information.
제1항에서,
상기 이미지는
이동 장치에 탑재된 촬영 장치가 촬영한 로드뷰 이미지인 장치.
The method of claim 1,
The image
Wherein the device is a load view image taken by a photographing apparatus mounted on the mobile device.
제8항에서,
상기 임의 지점은 상기 로드뷰 이미지에서 물체가 지면에 닿은 지점이고,
상기 위치 계산부는
상기 물체의 위치를 계산하는 장치.
9. The method of claim 8,
The arbitrary point is a point at which the object touches the ground in the load view image,
The position calculation unit
And calculate the position of the object.
장치가 사진에 촬영된 지점의 위치를 계산하는 방법으로써,
카메라에 의해 촬영된 이미지의 촬영 정보를 기초로 상기 이미지의 촬영 위치에서 위치 계산 대상으로 향하는 방향 벡터를 추출하는 단계, 그리고
상기 방향 벡터를 수치표고모형에 투사하여 상기 방향 벡터가 상기 수치표고모형에 충돌한 지점을 계산하는 단계를 포함하고,
상기 위치 계산 대상은 상기 이미지에서 선택된 임의 지점인 위치 계산 방법.
As a method for calculating the position of a point where a device is photographed in a photograph,
Extracting a direction vector from the photographing position of the image to the position calculation object based on photographing information of the image photographed by the camera, and
And projecting the direction vector to a digital elevation model to calculate a point at which the directional vector collides with the digital elevation model,
Wherein the position calculation object is an arbitrary point selected from the image.
제10항에서,
상기 촬영 정보는
촬영 위치 정보 그리고 방위각 정보를 포함하는 위치 계산 방법.
11. The method of claim 10,
The shooting information
A photographing position information, and an azimuth information.
삭제delete 제10항에서,
상기 충돌한 지점을 계산하는 단계는
상기 이미지의 촬영 위치에 해당하는 상기 수치표고모형의 지점에서 상기 방향 벡터를 투사하는 위치 계산 방법.
11. The method of claim 10,
The step of calculating the point of collision
Wherein the direction vector is projected at a point of the digital elevation model corresponding to a photographing position of the image.
제10항에서,
상기 충돌한 지점의 3차원 위치를 상기 위치 계산 대상의 위치로 계산하는 단계
를 더 포함하는 위치 계산 방법.
11. The method of claim 10,
Calculating a three-dimensional position of the collision point as a position of the position calculation object
Further comprising:
제14항에서,
상기 위치 계산 대상의 위치로 계산하는 단계는
상기 수치표고모형에서 상기 충돌한 지점의 높이 정보를 획득하고, 상기 높이 정보를 상기 위치 계산 대상의 높이로 계산하는 위치 계산 방법.
The method of claim 14,
The step of calculating by the position calculation target position
Obtaining height information of the collided point in the digital elevation model, and calculating the height information as the height of the position calculation object.
KR1020140017172A 2014-02-14 2014-02-14 Method and apparatus for calculating location of points captured in image KR101579970B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140017172A KR101579970B1 (en) 2014-02-14 2014-02-14 Method and apparatus for calculating location of points captured in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140017172A KR101579970B1 (en) 2014-02-14 2014-02-14 Method and apparatus for calculating location of points captured in image

Publications (2)

Publication Number Publication Date
KR20150096127A KR20150096127A (en) 2015-08-24
KR101579970B1 true KR101579970B1 (en) 2015-12-23

Family

ID=54058702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140017172A KR101579970B1 (en) 2014-02-14 2014-02-14 Method and apparatus for calculating location of points captured in image

Country Status (1)

Country Link
KR (1) KR101579970B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180055158A (en) 2016-11-16 2018-05-25 홍익대학교 산학협력단 Method and server for Correcting GPS Position in downtown environment using street view service

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170082839A (en) * 2016-01-07 2017-07-17 한화테크윈 주식회사 Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same
CN106802126A (en) * 2017-01-09 2017-06-06 天津大学 A kind of one camera land-based target punctuate space-location method based on digital elevation map

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2919284B2 (en) 1994-02-23 1999-07-12 松下電工株式会社 Object recognition method
JP2003296740A (en) 2002-04-08 2003-10-17 Victor Co Of Japan Ltd Object monitoring method and object monitoring camera device
KR101182421B1 (en) 2012-02-09 2012-09-12 (주)씨투엘이큅먼트 System and method for acquiring indoor photographing location information

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100011041A (en) * 2008-07-24 2010-02-03 주식회사 현대오토넷 Navigation device with a map matching function using three-dimensional gyro sensor and digital elevation value

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2919284B2 (en) 1994-02-23 1999-07-12 松下電工株式会社 Object recognition method
JP2003296740A (en) 2002-04-08 2003-10-17 Victor Co Of Japan Ltd Object monitoring method and object monitoring camera device
KR101182421B1 (en) 2012-02-09 2012-09-12 (주)씨투엘이큅먼트 System and method for acquiring indoor photographing location information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180055158A (en) 2016-11-16 2018-05-25 홍익대학교 산학협력단 Method and server for Correcting GPS Position in downtown environment using street view service

Also Published As

Publication number Publication date
KR20150096127A (en) 2015-08-24

Similar Documents

Publication Publication Date Title
US20230326213A1 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
EP2912631B1 (en) Determination of position from images and associated camera positions
US20110261187A1 (en) Extracting and Mapping Three Dimensional Features from Geo-Referenced Images
KR101665399B1 (en) Object generation apparatus and method of based augmented reality using actual measured
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
US8369578B2 (en) Method and system for position determination using image deformation
US11295142B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JPWO2018193574A1 (en) Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium
KR101879855B1 (en) Digital map generating system for performing spatial modelling through a distortion correction of image
JP4077385B2 (en) Global coordinate acquisition device using image processing
KR101579970B1 (en) Method and apparatus for calculating location of points captured in image
CN107193820B (en) Position information acquisition method, device and equipment
JP2014240754A5 (en)
CN109712249B (en) Geographic element augmented reality method and device
KR101474521B1 (en) Method and apparatus for building image database
KR101234917B1 (en) Method and system for generating 3-dimensional space data using image correction by threshold applied a weight information
JP5991821B2 (en) Photogrammetry equipment
KR101208245B1 (en) Method of location recognition using mobile terminal and thereof apparatus
KR101879858B1 (en) Spatial modelling system for modelling spatial data by extracting common feature using comparison process between coordinate information of target object extracted from corrected image and coordinate information of arial photograph
KR101332093B1 (en) Spatial image processing system for obtaining 3-dimensional space data using coordination information of target object obtained by a plurality of sensors
KR102473804B1 (en) method of mapping monitoring point in CCTV video for video surveillance system
CN107703954B (en) Target position surveying method and device for unmanned aerial vehicle and unmanned aerial vehicle
Aliakbarpour et al. Geometric exploration of virtual planes in a fusion-based 3D data registration framework
JP2005286747A5 (en)

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180717

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190328

Year of fee payment: 9