KR20110068764A - System and method for providing object information from aspherical image acquired by omnidirectical camera - Google Patents

System and method for providing object information from aspherical image acquired by omnidirectical camera Download PDF

Info

Publication number
KR20110068764A
KR20110068764A KR1020100032094A KR20100032094A KR20110068764A KR 20110068764 A KR20110068764 A KR 20110068764A KR 1020100032094 A KR1020100032094 A KR 1020100032094A KR 20100032094 A KR20100032094 A KR 20100032094A KR 20110068764 A KR20110068764 A KR 20110068764A
Authority
KR
South Korea
Prior art keywords
image
information
spherical image
spherical
object information
Prior art date
Application number
KR1020100032094A
Other languages
Korean (ko)
Inventor
신진수
Original Assignee
(주)지에스엠솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지에스엠솔루션 filed Critical (주)지에스엠솔루션
Publication of KR20110068764A publication Critical patent/KR20110068764A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)

Abstract

PURPOSE: An object information supplying system and method thereof which uses a spherical image in all directions are provided to rapidly supply three dimensional information and data information through object information within an image. CONSTITUTION: An image database(11) stores a spherical image from a front camera of a moving unit and a GPS(Global Positioning System)/INS(Inertial Navigation System) apparatus. An object information database(13) stores object information within a photographing area. A display module(20) displays a spherical image of the image database. A matching unit(30) overlaps object information of the object information database in a displayed spherical image.

Description

전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 시스템 및 그 방법{System and Method for providing object information from aspherical image acquired by omnidirectical camera}System and method for providing object information using spherical images acquired from omnidirectional cameras {System and Method for providing object information from aspherical image acquired by omnidirectical camera}

본 발명은 전방위 카메라로부터 취득한 구면 영상을 이용하여 구면 영상에 촬영된 객체들의 객체정보를 제공하는 시스템 및 그 방법에 관한 것으로서, 보다 상세하게는 전방위 카메라와 GPS/INS 장비를 이동수단에 탑재하여 이동하면서 구면 영상과 카메라의 위치 및 자세정보를 취득하고, 촬영 지역에 존재하는 객체들의 객체정보를 취득한 후에 한 후에 디스플레이모듈에 구면 영상과 객체정보를 중첩하여 디스플레이하고 또한, 객체정보로 취득하지 아니한 객체의 3차원정보도 자동으로 추출하여 디스플레이하는 방법과 이를 위한 시스템에 관한 것이다.
The present invention relates to a system and a method for providing object information of objects photographed on spherical images using spherical images acquired from a omnidirectional camera. More particularly, the present invention relates to a mobile unit equipped with a omnidirectional camera and a GPS / INS device. While acquiring the spherical image and the position and posture information of the camera, after acquiring the object information of the objects existing in the shooting area, the spherical image and the object information are superimposed on the display module, and the object not acquired as the object information. The present invention also relates to a method for automatically extracting and displaying three-dimensional information of the system.

영상정보기술이 급격히 발전함에 따라 영상과 영상에 나타난 객체들의 정보를 중첩시켜 디스플레이하는 다양한 제품들이 출시되고 있다. With the rapid development of image information technology, various products that display information by superimposing the information on the image and the objects appearing on the image have been released.

예를 들어 등록특허 제685790호 "영상기반 네비게이션 시스템 및 그 방법"에서는 이동단말의 위치정보를 획득하여 수치지도에 미리 촬영한 영상정보를 매핑하여 디스플레이하는 기술을 제시하였다. For example, Korean Patent No. 687990 "Image-Based Navigation System and Method" presented a technique for acquiring location information of a mobile terminal and mapping and displaying previously photographed image information on a digital map.

최근의 등록특허 제822814호 "GPS/INS장비를 이용한 측량정보 및 GIS 지리정보, 실시간 영상정보를 결합한 공간정보 서비스 방법"에서는 영상 촬영과 촬영된 영상에 객체들에 정보 표시가 실시간으로 이루어지는 기술을 제시하였다.
Recently, Patent No. 822814 "Spatial Information Service Method Combining Surveying Information, GIS Geographical Information, and Real-Time Image Information Using GPS / INS Equipment" describes a technique of displaying information on objects in real-time with imaging. Presented.

상기 전자의 등록특허는 수치지도로부터 출발지에서 목적지까지의 경로를 추출한 후에 미리 촬영한 해당 경로의 실제 영상을 위치에 맞게 디스플레이하되, 디스플레이되는 영상에 객체들의 속성정보를 단순히 중첩하여 표시하는 것이고, The former patent is to extract the route from the starting point to the destination from the numerical map, and then display the actual image of the corresponding route photographed in advance according to the position, and simply display the attribute information of the objects on the displayed image.

상기 후자의 등록특허는 GPS/INS장비를 이용하여 카메라의 위치와 자세(촬영방향) 정보를 취득한 후에, 이로부터 영상에 포함될 수 있는 객체들의 정보를 추출하고, 추출된 객체들의 절대좌표를 데이터베이스로부터 독출하고, 독출된 객체들의 절대좌표를 공선조건식에 대입하여 영상에서 객체들의 영상좌표를 추출한 후에, 추출된 영상좌표에 객체들의 각종 정보를 영상과 중첩하여 디스플레이하는 기술에 관한 것이다.
The latter patent is to obtain the position and attitude (shooting direction) information of the camera by using the GPS / INS equipment, and then extract the information of the objects that can be included in the image therefrom, and the absolute coordinates of the extracted objects from the database The present invention relates to a technique of reading and substituting the absolute coordinates of the read objects into a collinear conditional expression to extract the image coordinates of the objects from the image, and displaying various information of the objects on the extracted image coordinates with the image.

상기 두 등록특허는 실제 영상과 영상에 포함되어 있는 객체들의 정보를 중첩하여 보여준다는 점에서 현실감과 사실감이 뛰어나고 편리하며 유용한 기술임에 분명하지만, 영상에 중첩되어 디스플레이될 수 있는 객체정보는 데이터베이스에 기 저장되어 있는 정보만이라는 점에서 한계를 갖는다. Although the two patents are obvious in terms of realism, realism, convenience, and usefulness in that they overlap information of real images and objects included in the images, the object information that can be displayed by being superimposed on the images is stored in a database. It is limited in that it is only information that is already stored.

수치지도된 객체들의 객체정보를 포함해서 객체들의 객체정보가 저장되어 있는 데이터베이스에는 객체들의 명칭(예; 가로등, 가로수, 빌딩, 맨홀, 소화전 등)과 객체의 대표지점에 대한 절대좌표, 주소, 상호, 신축시기, 개보수 시기 등이 저장되어 있을 뿐이고, 객체들의 구체적인 3차원 정보는 저장되어 있지 않다. 그리고 객체들의 구체적인 3차원 정보를 데이터베이스화 한다는 것 자체도 현실적으로 불가능에 가깝다. 다시 말해, 객체가 건물일 때 그 건물 모서리들의 절대 좌표, 면적, 체적 등과 같은 3차원 정보를 모두 데이터베이스화 하기에는 엄청난 시간과 비용이 요구되고, 모서리가 아닌 임의 특정 지점들에 대한 절대 좌표는 데이터베이스화할 수 없고, 영상기술분야에서 널리 사용되는 공선조건식을 이용하여서도 특정 지점의 절대좌표를 추출할 수도 없다.
The database that stores the object information of the objects, including the object information of the numerically mapped objects, includes the names of the objects (e.g. street lights, street trees, buildings, manholes, fire hydrants, etc.) and the absolute coordinates, addresses, and mutual names of the representative points of the objects. Only new construction time and renovation time are stored, and the specific three-dimensional information of the objects is not stored. And the database of specific three-dimensional information of objects itself is almost impossible. In other words, when an object is a building, it takes tremendous time and money to database all three-dimensional information such as the absolute coordinates, area, and volume of the building edges, and the absolute coordinates for any particular point that is not an edge can be databased. Also, it is impossible to extract the absolute coordinates of a specific point even by using the collinear condition equation widely used in the field of imaging technology.

이처럼 실제 촬영한 영상과, 영상에 포함된 객체들의 객체정보를 중첩시켜 디스플레이하는 종래기술에서는 단순히 데이터베이스에 기저장되어 있는 객체정보만을 영상에 중첩시켜 표시하였을뿐 보다 구체적인 3차원 정보를 제공하지 아니하여 활용도가 낮았다.
As described above, in the conventional art of displaying an image photographed by overlapping object information of objects included in the image, only the object information previously stored in the database is displayed by overlapping the image and not providing more detailed 3D information. The utilization was low.

본 발명은 위와 같이 종래기술이 단순히 데이터베이스에 저장되어 있는 객체정보만을 영상에 중첩시키는 것에서 더 나아가 영상에 포함된 객체들의 구체적인 3차원 정보를 자동으로 추출하여 보여줄 수 있는 전방위 카메라로부터 취득한 구면영상을 이용한 개체정보 제공 시스템과 그 방법을 제공함을 목적으로 한다. The present invention further uses the spherical image obtained from the omnidirectional camera, which can automatically extract and show specific three-dimensional information of the objects included in the image, in addition to simply superimposing only the object information stored in the database as described above. The object of the present invention is to provide an individual information providing system and a method thereof.

이와 같은 목적을 달성하기 위한 본 발명에 따른 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 시스템은 The object information providing system using the spherical image obtained from the omnidirectional camera according to the present invention for achieving the above object

이동수단에 탑재된 전방위 카메라와 GPS/INS 장비로부터 취득한 구면 영상과 전방위 카메라의 위치정보 및 자세정보가 저장되어 있는 영상DB;An image DB storing spherical images obtained from the omnidirectional camera and the GPS / INS equipment mounted on the vehicle and the position information and the attitude information of the omnidirectional camera;

상기 전방위 카메라가 촬영한 지역에 존재하는 객체들의 객체정보가 저장되어 있는 객체정보DB;An object information database in which object information of objects existing in the area photographed by the omnidirectional camera is stored;

상기 영상DB에 저장된 구면 영상을 디스플레이하는 디스플레이모듈;A display module for displaying a spherical image stored in the image DB;

상기 디스플레이모듈에 디스플레이되는 구면 영상에 상기 객체정보DB에 저장된 객체들의 정보를 중첩하여 디스플레이하는 매칭수단;을 포함하여 이루어지고,
Matching means for superimposing the information of the objects stored in the object information DB on the spherical image displayed on the display module;

사용자의 명령신호를 입력받는 입력부;와,An input unit for receiving a command signal of a user;

상기 입력부에서 입력되는 명령신호에 따라 상기 디스플레이모듈에 디스플레이되는 구면 영상 및 객체정보를 제어하는 제어부;와,A control unit controlling spherical images and object information displayed on the display module according to a command signal input from the input unit;

상기 입력부를 통해 상기 디스플레이모듈에 디스플레이되는 특정 객체가 선택되면, [구-평면 변환 모델]과 구면 영상의 영상 변화 특성(즉, 영상의 색상과 명암의 차이)을 이용하여 선택된 특정 객체의 특정 지점에 대한 3차원 지상좌표(X, Y, Z)를 추출하는 3차원정보 추출부;를 더 포함하는 것을 특징으로 한다.
When a specific object displayed on the display module is selected through the input unit, a specific point of the specific object selected by using the [sphere-plane conversion model] and the image change characteristic of the spherical image (that is, the difference in color and contrast of the image) Characterized in that it further comprises; three-dimensional information extraction unit for extracting the three-dimensional ground coordinates (X, Y, Z) for.

그리고 본 발명에 따른 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 방법은And the object information providing method using the spherical image obtained from the omnidirectional camera according to the present invention

(S10) 이동수단에 탑재된 전방위 카메라로부터 주변 영상들을 취득하는 단계; (S10) obtaining surrounding images from the omnidirectional camera mounted on the moving means;

(S20) 이동수단에 탑재된 GPS/INS 장비로부터 상기 전방위 카메라의 위치정보 및 자세정보를 취득하는 단계;(S20) acquiring position information and attitude information of the omnidirectional camera from the GPS / INS equipment mounted on the moving means;

(S30) 상기 GPS/INS 장비로부터 취득한 위치정보 및 자세정보를 활용하여 상기 전방위 카메라로부터 취득한 주변 영상들로부터 구면 영상을 취득하는 단계;(S30) acquiring a spherical image from the surrounding images obtained from the omnidirectional camera by using the position information and the attitude information acquired from the GPS / INS equipment;

(S40) 상기 전방위 카메라가 촬영한 지역에 존재하는 객체들의 객체정보를 취득하는 단계;(S40) acquiring object information of objects existing in the area photographed by the omnidirectional camera;

(S50) 상기 (S30)단계에서 취득한 구면 영상에 상기 (S40)단계에서 취득한 객체정보를 중첩시켜 디스플레이모듈에 디스플레이시키는 단계;(S50) superposing the spherical image acquired in the step (S30) and displaying the object information obtained in the step (S40) on the display module;

(S60) 디스플레이모듈에 디스플레이되는 구면 영상에서 특정 객체가 선택되면, 선택된 특정 객체의 3차원정보를 추출하여 디스플레이모듈의 구면 영상에 중첩시켜 디스플레이시키는 단계;를 포함하여 이루어지고,
(S60) if a specific object is selected from the spherical image displayed on the display module, extracting and displaying the 3D information of the selected specific object and superimposed on the spherical image of the display module;

상기 (S60)단계에서 특정 객체로 건물을 선택하는 경우, 선택된 특정 객체의 3차원정보를 추출하기 전에In the case of selecting a building as a specific object in step S60, before extracting 3D information of the selected specific object.

(S60a) 구면 영상에서 건물의 어느 한 면이 예비 선택되면, 해당 건물의 객체정보로서 건물의 대표명과 예비 선택된 건물 일면의 테두리에 외곽선을 구면 영상에 중첩하여 표시하는 단계와,(S60a) if one side of the building is preselected in the spherical image, superimposing the outline on the spherical image with the outline of the representative name of the building and the edge of one side of the preselected building as object information of the building;

(S60b) 상기 (S60a)단계 후에 구면 영상에서 예비 선택된 건물 일면이 확정 선택되면, 구면 영상은 선택된 해당 건물의 일면이 최정면(最正面)으로 보이는 영상으로 이동하는 단계를 더 포함하는 것을 특징으로 하고,
(S60b) After the step (S60a), if one surface of the preselected building is selected and selected from the spherical image, the spherical image may further include moving to an image of one surface of the selected corresponding building as the highest surface. and,

상기 (S60)단계는 The step (S60) is

(S61) 구면 영상에서 기지점의 좌표 (X0, Y0, Z0)에서 Z0 값과, 선택된 특정 객체의 특정 지점에 대한 구면 영상에서의 팬과 틸트 각도인 φ값과 λ값을 [구-평면 변환 모델]에 적용하여 특정 지점에 대한 좌표 X값과 Y값을 구하는 단계와, (S61) The Z0 value at the known coordinates (X0, Y0, Z0) in the spherical image, and the φ and λ values, which are the pan and tilt angles in the spherical image with respect to a specific point of the selected specific object, are determined by the spherical-plane transformation model. ] To find the coordinate X and Y values for a specific point,

(S63) 구면 영상에서 기지점에서 상기 특정 지점까지 지형지물의 변화는 수평과 수직으로만 변화된다는 가정하에, (S63) Under the assumption that the change of the feature from the known point to the specific point in the spherical image is changed only horizontally and vertically,

상기 기지점에서 특정 지점까지의 영상 변화 특성(즉, 영상의 색상과 명암의 차이)을 이용하여 영상에서 지형지물들을 상호 구분하고, 동일 지형지물에서 수평부분과 수직부분의 경계를 구분하고, By using the image change characteristics (that is, the difference between the color and the contrast of the image) from the known point to the feature, the features are distinguished from each other in the image, and the boundaries of the horizontal and vertical parts in the same feature,

구분된 상기 지형지물과 경계로부터 영상의 기지점에서 특정 지점까지 연속된 가상의 수평선과 수직선으로 연결한 후에 수직선들의 길이 합으로부터 구면 영상의 특정 지점에 대한 고도 값(Z)을 구하는 단계를 포함하는 것을 특징으로 한다.
And a step of obtaining an altitude value Z for a specific point of the spherical image from the sum of the lengths of the vertical lines after connecting the separated horizontal feature and the boundary from the known point of the image to the specific horizontal horizontal line and the vertical line. It features.

이와 같은 구성을 갖는 본 발명에 따른 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 시스템 및 그 방법은 구면 영상을 이용하여 한 자리에서 360도 전 방향에 대한 영상을 제공하고, 영상에 포함된 객체들의 객체정보로 데이터베이스에 저장되어 있는 정보뿐만 아니라 데이터베이스에 저장되어 있지 않은 3차원 정보도 자동으로 신속하게 추출하여 제공하므로 여러 분야에서 유용하고 편리하게 활용할 수 있는 산업발전에 유용한 발명이다. The object information providing system and the method using the spherical image obtained from the omnidirectional camera according to the present invention having such a configuration provides an image of the 360-degree direction in one place by using the spherical image, the object included in the image It is an invention useful for industrial development that can be usefully and conveniently used in various fields because it automatically extracts and provides not only information stored in the database as object information but also 3D information not stored in the database.

도 1 은 본 발명에 따른 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 시스템의 구성도.
도 2 는 본 발명에 따른 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 방법의 절차도.
도 3 은 구면 영상의 일례.
도 4 는 일례에 따른 전방위 카메라의 사시도.
도 5 는 [구-평면 변환모델]을 설명하기 위해 구를 평면으로 펼친 일례도.
도 6 은 지상좌표 Z를 추출하는 방법을 설명하기 위한 도면.
도 7 은 본 발명에 의해 제공되는 구면 영상과 객체정보의 일례.
1 is a block diagram of an object information providing system using a spherical image obtained from the omnidirectional camera according to the present invention.
2 is a procedure of the object information providing method using the spherical image obtained from the omnidirectional camera according to the present invention.
3 is an example of a spherical image.
4 is a perspective view of the omnidirectional camera according to an example.
5 is an example of spreading a sphere in a plane to explain the [sphere-plane conversion model].
6 is a view for explaining a method of extracting the ground coordinate Z;
7 is an example of spherical image and object information provided by the present invention.

이하 도면을 참조하여 본 발명을 보다 구체적으로 설명한다. Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도1의 블록 구성도에서 보는 바와 같이 본 발명에 따른 시스템은 데이터베이스(10), 디스플레이모듈(20), 매칭수단(30), 입력부(60), 제어부(50), 3차원정보 추출부(40)를 포함하여 이루어진다.
As shown in the block diagram of FIG. 1, the system according to the present invention includes a database 10, a display module 20, a matching means 30, an input unit 60, a control unit 50, and a three-dimensional information extraction unit 40. )

상기 데이터베이스(10)에는 이동수단에 탑재된 전방위 카메라가 이동하면서 촬영한 구면 영상과, 이동수단에 전방위 카메라와 함께 탑재된 GPS/INS 장비가 취득한 전방위 카메라의 매순간 위치정보와 자세정보가 저장되는 영상DB(11)와, The database 10 has a spherical image taken while the omnidirectional camera mounted on the moving means is moved, and an image in which positional information and attitude information of the omnidirectional camera acquired by the GPS / INS device mounted together with the omnidirectional camera are stored every time. DB 11,

카메라가 촬영한 지역에 존재하는 객체들에 대한 객체정보가 저장되는 객체정보DB(13)와, An object information DB 13 for storing object information about objects existing in an area photographed by the camera,

기타 본 시스템의 운영에 필요한 각종 프로그램이나 데이터가 저장되는 기타DB(15)를 포함한다.
The other DB 15 which stores various programs or data necessary for the operation of the present system is included.

상기 디스플레이모듈(20)은 상기 입력부(60)의 명령신호를 받은 제어부(50)의 제어에 의해, 상기 영상DB(11)에 저장되어 있는 구면 영상을 디스플레이시키고, 상기 객체정보DB(13)에 저장된 객체정보 중 디스플레이되는 구면 영상에 포함된 객체들의 객체정보를 구면 영상에 중첩하여 디스플레이시키고, 상기 3차원정보 추출부(40)가 추출하는 객체들의 3차원 정보를 구면 영상에 디스플레이시킨다.
The display module 20 displays the spherical image stored in the image DB 11 under the control of the controller 50 receiving the command signal from the input unit 60, and displays the spherical image in the object information DB 13. The object information of the objects included in the displayed spherical image among the stored object information is superimposed on the spherical image and displayed, and the 3D information extractor 40 displays the 3D information of the objects extracted on the spherical image.

상기 매칭수단(30)은 상기 객체정보DB에 저장되어 있는 객체들의 정보를 상기 구면 영상의 해당 객체에 매칭시켜 구면 영상에 중첩하여 디스플레이시킨다. 객체정보에는 객체의 명칭, 주소, 동일 객체와 식별을 위한 식별번호 등과 같은 속성정보와, 객체의 위치를 알려주는 지상좌표 등이 포함된다. The matching means 30 matches the information of the objects stored in the object information DB with the corresponding object of the spherical image and displays the superimposed image on the spherical image. The object information includes attribute information such as a name, an address of an object, an identification number for identifying the same object, and ground coordinates for indicating the location of the object.

특히, 객체의 지상좌표에는 객체의 특정 대표 지점에 대한 절대좌표로, 위도, 경도, 고도가 포함되는 것일 일반적이지만, 경우에 따라서는 고도 값이 없는 절대좌표(즉, 위도와 경도)가 제공되기도 한다. 객체의 대표 지점은 통상 지면과 접하는 지점 중 하나가 된다. 그리고 객체의 대표 지점 이외에 객체의 모서리 지점들에 대한 지상좌표도 포함될 수 있다. In particular, the ground coordinates of an object are the absolute coordinates of a specific representative point of the object, which include latitude, longitude, and altitude, but in some cases, absolute coordinates without latitude values (ie latitude and longitude) are provided. do. The representative point of the object is usually one of the points of contact with the ground. In addition to the representative point of the object, the ground coordinates of the corner points of the object may be included.

이 객체 대표 지점의 절대좌표를 이용하여 구면 영상에 디스플레이된 객체와 객체정보DB(13)에 저장된 객체를 매칭시킨다. 매칭 방법은 영상의 영상좌표(i, j)와 실제 지상의 지상좌표(x,y,z)의 관계를 나타내는 공선조건식을 이용한다. 보다 구체적으로는 객체정보DB에 저장된 객체의 대표 지점에 대한 절대좌표(x,y,z)를 공선조건식에 대입하면 해당 객체가 구면 영상에서 어느 영상좌표(i, j)에 있는지가 계산된다. 이렇게 해당 객체의 영상좌표가 계산되면, 계산된 구면 영상의 영상좌표에 해당 객체의 각종 속정정보를 중첩하여 디스플레이 한다. 그리고 객체정보DB에서 제공되는 지상좌표가 위도와 경도만이 주어지고 고도에 대한 값이 주어지지 않을 때에는 이동수단에 탑재된 GPS/INS가 취득하는 위치정보, 즉 이동수단이 지나는 도로면의 고도 값을 객체의 고도 값으로 하여 공선조건식에 대입하여 해당 객체의 영상좌표를 계산한다. 이는 객체들 대부분의 기지점은 지면과 접하고 있고, 객체의 기지점과 이동수단의 기지점(즉, 도로면)의 고도는 크게 차이가 없기에 가능할 수 있는 것이다. The object displayed in the spherical image is matched with the object stored in the object information DB 13 using the absolute coordinates of the object representative point. The matching method uses a collinear condition equation representing the relationship between the image coordinates (i, j) of the image and the ground coordinates (x, y, z) of the actual ground. More specifically, when the absolute coordinates (x, y, z) of the representative points of the objects stored in the object information DB are substituted into the collinear condition equation, it is calculated which image coordinates (i, j) are in the spherical image. When the image coordinates of the object are calculated as described above, the various coordinate information of the object is superimposed and displayed on the calculated image coordinate of the spherical image. And when the ground coordinates provided by the object information database are given only latitude and longitude and no value for altitude, the position information acquired by the GPS / INS mounted on the vehicle, that is, the altitude value of the road surface through which the vehicle passes. Calculate the image coordinates of the object by substituting into the collinear condition equation as the altitude value of the object. This is possible because most of the known points of the objects are in contact with the ground, and the altitudes of the known points of the object and the known points of the vehicle (ie, the road surface) do not differ significantly.

참고로, 공선조건식은 수식이 2개이고, 변수는 영상좌표 (i, j)와 지상의 절대좌표 (x,y,z)이다. 따라서 절대좌표를 알면 영상좌표는 계산되지만, 영상좌표를 알고 있는 경우 절대좌표는 계산되지 않는다. 그래서 공선조건식을 이용하여 영상좌표로부터 절대좌표를 계산할 때에는 동일 객체를 갖고 있는 영상이 2개 있어야 된다. For reference, the collinear condition equation has two equations, and the variables are the image coordinates (i, j) and the world absolute coordinates (x, y, z). Therefore, if you know the absolute coordinates, the image coordinates are calculated, but if you know the image coordinates, the absolute coordinates are not calculated. Therefore, when calculating absolute coordinates from image coordinates using collinear conditions, two images with the same object must be present.

즉, 일반적인 방법으로는 하나의 영상에서 영상의 특정 지점에 대한 실제 지상좌표를 추출해 낼 수 없는데, 이를 가능하게 하는 것이 본 발명의 3차원정보 추출부(40)이다. 3차원정보 추출부에 대한 보다 구체적인 설명은 본 발명에 따른 객체정보 제공방법에서 후술하고, 여기서는 3차원정보 추출부가 3차원 정보를 객체정보DB에서 객체정보가 충분히 제공되는 조건에서 간단하게 3차원정보를 추출하는 방법에 대해 간략히 설명한다. That is, in the general method, it is not possible to extract the actual ground coordinates of a specific point of the image from one image, and it is the three-dimensional information extraction unit 40 of the present invention that enables this. A detailed description of the three-dimensional information extraction unit will be described later in the object information providing method according to the present invention. Here, the three-dimensional information extraction unit simply provides the three-dimensional information under the condition that the object information is sufficiently provided in the object information database. It briefly describes how to extract.

객체정보DB에서 객체의 모서리점들 모두에 대한 3차원 지상좌표(x,y,z)를 제공하고 있을 때에는 널리 알려진 거리공식이나 면적공식 등을 이용하여 객체의 폭, 높이, 면적, 체적 등의 3차원 정보를 쉽게 구할 수 있다. 그러나 이때도 객체가 건물이고 특정 지점이 건물의 몇 번째 층 상단 또는 하단이고, 객체정보DB에서 건물의 층수와 각 층의 높이에 대한 정보 등을 제공한다는 등의 특별한 사정이 없는 한 객체정보DB에서 제공하지 않는 객체의 모서리가 아닌 특정 지점에 대한 높이 등에 대한 정보는 일반적인 방법으로는 구할 수 없다.
When the object information database provides three-dimensional ground coordinates (x, y, z) for all corner points of an object, the object's width, height, area, volume, etc. can be used using well-known distance formulas or area formulas. Three-dimensional information can be easily obtained. However, even in this case, unless the object is a building, a specific point is the top or bottom of a few floors of the building, and the object information DB provides information about the number of floors of the building and the height of each floor, the object information DB Information about the height of a specific point and not the edge of an object that is not provided is not available in the usual way.

상기 입력부(60)는 사용자의 명령신호를 입력받고, 이를 제어부로 전송한다. 상기 입력부로는 입력키, 마우스 등이 사용될 수 있다. The input unit 60 receives a user's command signal and transmits it to the controller. An input key, a mouse, or the like may be used as the input unit.

상기 제어부(50)는 상기 입력부로부터 명령신호를 받아 상기 디스플레이모듈(20)에 디스플레이되는 구면 영상과 객체정보를 제어하며, 본 발명의 시스템을 전반적으로 제어한다.
The control unit 50 receives a command signal from the input unit to control the spherical image and the object information displayed on the display module 20, the overall control of the system of the present invention.

도7은 디스플레이모듈 화면의 일례를 도시한 것이다. 7 shows an example of a display module screen.

도7a에서 보는 바와 같이 화면 중앙에는 전방위 카메라가 촬영한 구면 영상이 디스플레이되어 있고, 우측에는 영상으로 디스플레이되는 지역 주변에 대한 객체정보들의 정보가 전자지도 형태로 디스플레이되어 있고, 좌측에는 사용자의 명령신호를 간편하게 입력받을 수 있도록 하는 명령신호 입력창이 디스플레이되어 있다. As shown in FIG. 7A, a spherical image photographed by the omnidirectional camera is displayed at the center of the screen, and object information on the area around the area displayed as an image is displayed on the right side in the form of an electronic map, and a command signal of the user is displayed on the left side. The command signal input window is displayed for easy input.

우측의 전자지도를 보면 도로 위에 파란 점들로 이동수단의 이동경로가 표시되어 있고, 빨간 화살표로 디스플레이되는 구면 영상의 위치가 표시되어 있고, 도로 양 옆에 녹색으로 가로수 및 가로등이 표시되어 있고, 대표적인 건물과 건물의 명칭이 표시되어 있다. 여기서, 이동수단의 이동경로 및 이동수단의 현재 위치 표시는 영상DB(11)의 데이터가 연계되어 표시되는 것이고, 그 외의 것은 객체정보DB의 데이터로 표시되는 것이다. On the electronic map on the right, the blue route on the road shows the movement route of the vehicle, the location of the spherical image displayed by the red arrow, and the trees and street lamps are displayed in green on both sides of the road. The building and its name are marked. Here, the movement path of the moving means and the current position display of the moving means are displayed in association with the data of the image DB 11, and the others are displayed as data of the object information DB.

좌측의 입력창을 보면 이동수단의 이동방향을 선택할 수 있는 주행방향 선택부와, 과거에 동일 지역을 촬영한 구면 영상이 있는 경우 현재의 구면 영상과 과거의 구면 영상을 선택하여 디스플레이시켜 지형지물(즉, 객체)의 변화를 비교할 수 있는 과거사진 비교부와, 주변의 대표적인 건물들의 리스트를 표시하여 사용자가 이를 선택시 선택된 건물이 구면 영상으로 디스플레이되도록 하는 즐겨찾기부 등이 있다. In the input window on the left, the driving direction selector selects the moving direction of the moving means, and if there is a spherical image photographing the same area in the past, the current spherical image and the past spherical image are selected and displayed. That is, there is a past picture comparison unit that can compare the change of the object), and a bookmark unit that displays a list of the representative buildings around the user so that the selected building is displayed as spherical images when the user selects it.

그리고 중앙의 구면 영상을 보면, 도로 위에 실루엣 형태의 원들이 연속해서 표시되어 있는데, 이는 전방위 카메라가 장착된 이동수단의 이동방향을 표시하는 것이고, In the center spherical image, circles in the form of silhouettes are continuously displayed on the road, which indicates the direction of movement of the vehicle equipped with the omnidirectional camera.

도7a에서 도7b길가 옆을 보면 직경이 변화는 하얀 실선의 원이 표시되어 있다. 이는 객체정보DB에 저장된 객체의 구면 영상에서의 매칭된 위치를 표시하는 것이다. 사용자가 화면의 커서를 이 하얀 원으로 이동시키면 그 객체의 명칭인 '가로수'가 구면 영상에 중첩되어 표시된다.  Looking at the side of the road in FIG. 7A to FIG. 7B, a circle of white solid line whose diameter is changed is indicated. This indicates a matched position in the spherical image of the object stored in the object information DB. When the user moves the cursor on the screen to the white circle, the name of the object 'the number of trees' is superimposed on the spherical image.

도7c와 도7d를 보면 화면에 붉은 원이 표시되어 있고, 구면 영상은 도7c가 전방을 디스플레이하고 있는 것이라면 도7d는 우측을 디스플레이하고 있다. 이것은 사용자가 화면의 커서를 드래그 방식으로 이동시켜 구면 영상을 회전시킨 것이다. 전방위 카메라는 한 위치에서 동시에 사방을 모두 촬영하여 구면 영상을 취득하므로 이와 같이 영상을 회전시킬 수 있다. 7C and 7D, a red circle is displayed on the screen, and the spherical image shows the right side if FIG. 7C is displaying the front side. The user rotates the spherical image by dragging the cursor on the screen. Since the omnidirectional camera acquires spherical images by simultaneously photographing all four directions from one location, the image can be rotated in this way.

도7e에서 사용자가 입력창의 즐겨찾기부에서 '차이란'을 클릭하면, 도7f와 같이 구면 영상은 이동하여 '차이란'이라는 건물 주변을 디스플레이하고, 동시에 우측의 전자지도에서는 붉은 화살표가 현 위치를 다시 표시한다.In FIG. 7E, when the user clicks 'Charan' in the favorite part of the input window, the spherical image moves and displays the area around the building called 'Charan' as shown in FIG. 7F, and at the same time, the red arrow indicates the current position in the electronic map on the right. Is displayed again.

도7g와 같이 사용자가 커서를 건물에 위치시키면 건물에 '차이란'이라는 객체정보가 중첩되어 표시되고, 커서가 위치한 건물 면의 테두리에 외관선이 표시된 후에, 도7h에서 보는 바와 같이 구면 영상은 다시 이동하여 커서가 위치했던 건물 면이 정면으로 보이도록 한다.
When the user places the cursor in the building as shown in FIG. 7G, the object information 'difference' is displayed on the building, and the exterior line is displayed on the edge of the building surface where the cursor is located, and as shown in FIG. Move back to see the building face where the cursor is located.

이하에서는 본 발명에 따른 객체정보 제공방법과 이를 위한 각 구성요소들의 역할에 대하여 설명한다. Hereinafter, a description will be given of the object information providing method according to the present invention and the role of each component therefor.

본 발명에 따른 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 방법은 도2에서 보는 바와 같이 이동수단에 탑재된 전방위 카메라로부터 영상을 획득하는 단계(S10), GPS/INS 장비로부터 위치정보와 자세정보를 획득하는 단계(S20), 구면 영상을 획득하는 단계(S30), 촬영 지역에 대한 객체정보를 취득하는 단계(S40), 취득한 구면 영상과 객체정보를 중첩시켜 디스플레이모듈에 디스플레이시키는 단계(S50), 디스플레이모듈에서 특정 객체가 선택되면 그 객체의 3차원정보를 추출하여 디스플레이시키는 단계(S60)를 포함하여 이루어진다.
In the object information providing method using the spherical image obtained from the omnidirectional camera according to the present invention, as shown in FIG. 2, the method includes obtaining an image from the omnidirectional camera mounted on the moving means (S10), and the position information and the attitude information from the GPS / INS equipment. Acquiring (S20), acquiring a spherical image (S30), acquiring object information on the photographing area (S40), and superimposing the acquired spherical image and object information on the display module (S50). If a specific object is selected in the display module, the method may include extracting and displaying 3D information of the object (S60).

상기 S10단계에서는 이동수단에 탑재된 전방위 카메라로부터 주변 영상을 취득한다. 상기 전방위 카메라는 주변 전방위(전후, 좌우, 상하 방향)에 대한 영상을 한번에 촬영하는 카메라로서, 일반적으로 도4에서 보는 바와 같이 구 형상의 하우징에 다수의 카메라모듈이 전방향을 향하도록 배열되어 결합되어 있다.
In step S10, the surrounding image is acquired from the omnidirectional camera mounted on the moving means. The omnidirectional camera is a camera for capturing an image of the surrounding omnidirectional (front, rear, left and right directions) at once. In general, as shown in FIG. It is.

상기 S20단계에서는 GPS/INS 장비로부터 GPS/INS 장비의 위치정보와 자세정보를 취득한다. In step S20, position information and attitude information of the GPS / INS device are acquired from the GPS / INS device.

상기 전방위 카메라와 GPS/INS 장비는 자동차와 같은 이동수단에 함께 탑재되고, 이동수단이 이동함에 따라 주변 영상과 위치정보 및 자세정보를 연속적으로 취득한다. 그리고 GPS/INS 장비가 취득하는 위치정보 및 자세정보는 GPS/INS 장비 자체의 위치정보 및 자세정보이지만, 전방위 카메라와 GPS/INS 장비가 같은 이동체에 탑재되므로 오차를 보정하면 전방위 카메라의 위치정보 및 자세정보 또는 이동체 위치정보 및 자세정보가 된다.
The omnidirectional camera and the GPS / INS equipment are mounted together in a moving means such as a vehicle, and continuously acquire the surrounding image, the position information, and the attitude information as the moving means moves. The location information and attitude information acquired by the GPS / INS device are the location information and the attitude information of the GPS / INS device itself. However, since the omnidirectional camera and the GPS / INS device are mounted on the same moving object, when the error is corrected, Posture information or moving object position information and posture information.

상기 S30단계에서는 전 단계에서 위치정보 및 자세정보를 이용하여 전방위 카메라가 촬영한 주변 영상들로부터 구면 영상을 취득한다. In the step S30, the spherical image is acquired from the surrounding images captured by the omnidirectional camera using the position information and the attitude information in the previous step.

전방위 카메라가 촬영한 주변 영상들로부터 구면 영상을 취득하는 방법은 공지된 기술이므로 이에 대한 구체적인 설명은 생략한다. Since a method for acquiring spherical images from surrounding images captured by the omnidirectional camera is a well-known technique, a detailed description thereof will be omitted.

구면 영상은 전방위 카메라의 위치마다 생성되고, 도3은 전방위 카메라로부터 촬영한 주변 영상들로부터 취득한 구면 영상의 일례로서, 도3의 중심에 전방위 카메라가 위치한 상태의 구면 영상이다.
A spherical image is generated for each position of the omnidirectional camera, and FIG. 3 is an example of a spherical image acquired from surrounding images photographed from the omnidirectional camera, and is a spherical image with the omnidirectional camera positioned in the center of FIG. 3.

상기 S40단계에서는 카메라가 촬영한 지역에 존재하는 객체들의 객체정보를 취득한다. 객체정보는 수치지도나 전자지도 등과 같은 형태로 이미 널리 제공되고 있다. In step S40, object information of objects existing in the area photographed by the camera is acquired. Object information is already widely provided in the form of digital maps and electronic maps.

제공되는 객체정보에는 객체가 건물일 경우 명칭, 주소, 용도, 전화번호 등과 같은 속성정보와 건물의 위치를 알려주는 지상좌표 등이 있는데, 전술한 바와 같이 지상좌표는 세세한 것까지 제공하지 않고, 세세한 것까지 제공하는 것도 현실적으로 곤란하거나 불가능하다. Provided object information includes property information such as name, address, purpose, phone number, and ground coordinates that inform the location of the building when the object is a building. As described above, the ground coordinates do not provide fine details. It is also practically difficult or impossible to provide things.

객체정보로 제공되는 지상좌표는 해당 객체의 대표 지점(일반적으로 해당객체와 지면이 만나는 점이다)에 대한 3차원 지상좌표(x=위도, y=경도, z=고도)와, 특정한 지점(예; 건물의 모서리 점)들에 대한 지상좌표 등이 있는데, 일반적으로 특정한 지점에 대한 지상좌표는 위도와 경도만을 제공하고, 고도는 제공하지 않는다. 더구나 모서리도 아닌 사용자가 선택한 어느 한 임의 지점에 대한 지상좌표는 제공하지도 않을뿐더러 제공할 수도 없다. The ground coordinates provided as object information are three-dimensional ground coordinates (x = latitude, y = longitude, z = altitude) for the representative point of the object (typically the point where the object meets the ground), and a specific point (eg Ground coordinates for corner points of a building, and ground coordinates for a particular point generally provide only latitude and longitude, not elevation. Furthermore, neither ground nor coordinates can be provided for any point selected by the user, which is not a corner.

이처럼 객체정보로 제공되지 않는 객체의 임의 지점에 대한 3차원 지상좌표를 추출하고, 추출된 지상좌표를 이용하여 객체의 3차원정보를 추출하는 것이 3차원정보 추출부이다. 이는 아래의 S60단계에서 다시 설명한다.
As described above, the 3D information extracting unit extracts 3D ground coordinates of an arbitrary point of the object not provided as object information and extracts 3D information of the object using the extracted ground coordinates. This will be described again in step S60 below.

상기 S50단계에서는 도7에서 보는 바와 같이 입력부를 통해 입력되는 사용자의 명령신호를 받은 제어부의 제어에 의해 상기 S30단계에서 취득한 구면 영상과 상기 S40단계에서 취득한 개체정보를 중첩하여 디스플레이모듈에 디스플레이시킨다.
In step S50, as shown in FIG. 7, the spherical image acquired in step S30 and the object information acquired in step S40 are superimposed and displayed on the display module under the control of a controller that receives a user's command signal input through the input unit.

상기 S60단계에서는 디스플레이모듈에 디스플레이되는 구면 영상에서 특정 객체가 선택되면, 3차원정보 추출부가 선택된 객체의 3차원정보를 추출하여 디스플레이모듈의 구면 영상에 중첩시켜 디스플레이시킨다.
In step S60, when a specific object is selected from the spherical image displayed on the display module, the 3D information extractor extracts 3D information of the selected object and displays the 3D information on the spherical image of the display module.

S60단계에서는 선택되는 객체가 건물일 경우에 건물의 특정 지점에 대한 3차원 정보를 추출하기 전에 구면 영상에서 해당 건물이 가장 잘 보이는 구면 영상이 디스플레이모듈에 디스플레이되도록 하는 과정을 거친다. In step S60, if the selected object is a building, the spherical image showing the best view of the building from the spherical image is displayed on the display module before extracting 3D information on a specific point of the building.

이하 이 과정을 도7f 내지 7h을 참조하여 설명한다. This process is described below with reference to FIGS. 7F to 7H.

사용자가 도7f와 같이 현재 디스플레이되고 있는 구면영상에서 특정 건물의 어느 한 면을 예비 선택하면, 도7g와 같이 예비 선택된 건물의 일면에는 해당 건물의 객체정보로서 건물의 대표명(도면에서 차이란)과 예비 선택된 건물 일면의 테두리에 외곽선이 구면 영상에 중첩하여 표시된다(S60a). 여기서 예비 선택은 도7g와 같이 구면 영상에서 커서를 해당 건물의 일면에 위치시키는 것이 하나의 방법으로 사용될 수 있다.When the user preselects one side of a specific building in the spherical image currently displayed as shown in FIG. 7F, the representative name of the building as object information of the building is displayed on one side of the preselected building as shown in FIG. 7G (a difference in the drawing). And an outline is displayed on the edge of one side of the pre-selected building, superimposed on the spherical image (S60a). In this case, as a preliminary selection, as shown in FIG. 7G, the cursor may be positioned on one surface of the building in the spherical image.

구면영상에서 중첩하여 표시된 건물의 대표명과 외곽선을 확인 후에 사용자가 구면 영상에서 예비 선택된 건물 일면을 확정 선택하면, 디스플레이모듈은 현재 디스플레이되는 구면 영상을 이동하여 도7h와 같이 선택된 해당 건물의 일면이 최정면(最正面)으로 보이는 구면 영상이 디스플레이 되도록 한다(S60b). 여기서 확정 선택은 건물의 해당 면에 위치시킨 커서를 클릭하는 것이 하나의 방법으로 사용될 수 있다.
After checking the representative name and the outline of the building superimposed on the spherical image, if the user confirms and selects one side of the pre-selected building in the spherical image, the display module moves the currently displayed spherical image and the one side of the selected building as shown in FIG. In order to display the spherical image seen in front (S60b) (S60b). The definite selection here can be used in one way by clicking the cursor on the corresponding side of the building.

3차원정보로는 사용자가 구면 영상에서 선택한 객체의 임의 지점에 대한 3차원 지상좌표, 선택한 객체의 높이, 면적, 체적 등이 있다. 높이, 면적, 체적 등은 먼저 객체의 특정한 지점들에 대한 3차원 지상좌표가 추출되어야 한다. The three-dimensional information includes three-dimensional ground coordinates of an arbitrary point of the object selected by the user in the spherical image, height, area, and volume of the selected object. Height, area, volume, etc. must first be extracted three-dimensional ground coordinates for specific points of the object.

구면 영상에서 선택한 임의 지점 또는 특정 지점들에 대한 3차원 지상좌표(X,Y,Z)는 S61단계에서 [구-평면 변환모델]을 이용하여 X값과 Y값을 구하고, S63단계에서 영상의 변화 특성을 이용하여 Z값을 구한다. 이하 이를 보다 구체적으로 설명한다.
The 3D ground coordinates (X, Y, Z) of the arbitrary points or specific points selected in the spherical image are obtained by using the [Sphere-Plane Transformation Model] in step S61. Find the Z value using the change characteristic. This will be described in more detail below.

상기 [구-평면 변환모델]은 도5에서와 같이 구를 평면으로 펼친 경우에 이들의 관계를 나타내며, 이는 구에서의 좌표인 반지름 (N)과, 팬값 (φ)와, 틸트값 (λ)로부터 직각좌표인 3차원 지상좌표 (X, Y, Z)를 구하기 위한 모델이다.[Sphere-Plane Transformation Model] shows the relationship when the sphere is unfolded as shown in Fig. 5, which is the radius (N), the pan value (φ) and the tilt value (λ), which are coordinates of the sphere. It is a model for obtaining three-dimensional ground coordinates (X, Y, Z), which are rectangular coordinates.

그리고 이들의 관계, 즉, 구의 좌표와 평면 직각좌표의 관계를 나타내는 [구-평면 변환모델]는 아래의 수식과 같다. And the [sphere-plane transformation model] representing these relations, that is, the relationship between the coordinates of the sphere and the rectangular coordinates of the plane, is expressed by the following equation.

X = NㆍcosφㆍcosλX = N, cosφ, cosλ

Y = NㆍcosφㆍsinλY = N, cosφ, sinλ

Z = NㆍsinφZ = N

또는, or,

φ = arctan(Z/P)φ = arctan (Z / P)

λ = arctan(Y/Z)λ = arctan (Y / Z)

여기서, P = (X^2 + Y^2)^(1/2) 이다.
Where P = (X ^ 2 + Y ^ 2) ^ (1/2).

그리고 구면 영상에서 구의 반지름 N은 미지의 값이다. 즉, 3차원으로 촬영한 구면 영상에서 3차원 지상의 지면을 구면으로 할 것인지, 건물을 구면으로 할 것인지, 하늘을 구면으로 할 것인지 기준을 정할 수 없다. 또한, 본 발명에서는 지상좌표를 추출함에 있어 N 값을 직접 이용하지 않으므로 구면의 기준을 설정하는 것도 별 의미가 없다.
In the spherical image, the radius N of the sphere is unknown. That is, it is not possible to determine whether to make the ground of the three-dimensional ground sphere, the building the sphere, or the sky the sphere in the spherical image photographed in three dimensions. In addition, in the present invention, since the N value is not directly used to extract the ground coordinates, setting the spherical reference has no meaning.

구면 영상에서 지상좌표를 추출함에 있어, N을 직접 이용하지 않으므로, 상기 [구-평면 변환모델]의 수식은 아래와 같이 수정된다. In extracting the ground coordinates from the spherical image, since N is not directly used, the equation of the [spherical-plane conversion model] is modified as follows.

Z = Nㆍsinφ ☞ N = Z/sinφZ = N · sinφ ☞ N = Z / sinφ

X = Z/sinφㆍcosφㆍcosλX = Z / sinφ · cosφ · cosλ

Y = Z/sinφㆍcosφㆍsinλ
Y = Z / sin φ cos φ sin λ

이와 같이 수정된 수식에서 알 수 있듯이, 구면 영상에서 특정 지점에 대한 지상좌표 X, Y는 구면 영상에서 특정 지점의 팬값 φ과 틸트값 λ, 그리고 Z 값으로 표현된다. As can be seen from the modified equation, the ground coordinates X and Y for a specific point in the spherical image are represented by the pan value φ, tilt value λ, and Z value of the specific point in the spherical image.

팬값 φ과 틸트값 λ은 구면 영상에서 선택한 지점(즉, 특정 지점)의 좌표에 대한 값이므로 영상에서 어느 한 지점을 선택하면 즉시 얻을 수 있으므로, 선택한 지점의 Z값을 이미 알고 있거나, 특정한 값으로 가정하면 X와 Y 값을 구할 수 있다.
The pan value φ and the tilt value λ are values for the coordinates of the selected point (i.e. specific point) in the spherical image, and can be obtained immediately by selecting any point in the image. Therefore, the Z value of the selected point is known or specified. Assuming, we can get X and Y values.

다시 말해, 선택한 지점의 Z 값을 이미 알고 있는 경우라면, [구-평면 변환모델]을 이용하여 선택한 지점의 X, Y 값을 구하게 되고, In other words, if you already know the Z value of the selected point, use [Sphere-Plane Transformation Model] to find the X, Y value of the selected point.

선택한 지점의 Z 값을 모르는 경우에는 Z 값을 임의로 가정한 후에 [구-평면 변환모델]을 이용하여 선택한 지점의 X, Y 값을 구하게 된다. 이때, Z 값은 통상 구면 영상에서 알고 있는 기지점의 Z 값으로 가정하게 되고, [구-평면 변환모델]을 이용하여 구해지는 X, Y 값은 선택한 지점에서 수직방향으로 이동한 지점(즉, 기지점과 동일한 고도(Z)를 갖는 지점)의 X, Y 값이므로 서로 동일하다. 이 단계에서 우리가 구하고자 하는 것은 3차원 지상좌표 중 X, Y 값이고, 3차원 지상좌표 중 Z 값은 다른 단계에서 구하게 되므로, 선택한 지점에서 수직방향으로 이동한 지점에서 X, Y 값을 구할 수 있는 것이다. If the Z value of the selected point is not known, the Z value of the selected point is assumed and then the X and Y values of the selected point are obtained using the [Spherical-Plane Transformation Model]. At this time, the Z value is assumed to be the Z value of the known point known in the spherical image, and the X and Y values obtained using the [Spherical-Plane Transformation Model] are moved to the vertical direction from the selected point (that is, the known point). X and Y of the point having the same altitude (Z) and are equal to each other. In this step, we want to find the X and Y values of the three-dimensional ground coordinates, and the Z values of the three-dimensional ground coordinates are obtained in the other steps. It can be.

그리고 이동수단에는 GPS/INS 장비가 탑재되어 있으므로 GPS/INS 장비가 획득한 위치와 자세 정보를 이용하여 카메라의 고도 값을 구할 수 있고, 도로면에서 카메라의 설치 높이를 빼면 그 도로면의 Z 값을 얻을 수 있다. 이 특정지점의 도로면 Z 값은 영상 취득과 동시에 취득되므로 구면 영상에서 항시 존재하고 이용할 수 있는 값이므로, 선택한 지점의 지상좌표 X, Y 값을 구할 때 이동체가 이동한 경로의 도로면을 기준으로하여 Z 값을 추정할 수 있다.
And since the vehicle is equipped with GPS / INS equipment, the altitude value of the camera can be obtained by using the position and posture information acquired by the GPS / INS equipment.If the installation height of the camera is subtracted from the road surface, the Z value of the road surface is obtained. Can be obtained. Since the road surface Z value of this specific point is acquired at the same time as the image acquisition, it is always present and available in the spherical image, so it is based on the road surface of the path traveled by the moving object when obtaining the ground coordinates X and Y values of the selected point. To estimate the Z value.

참고로, 이 단계(S61)에서 얻어지는 좌표 X, Y, Z는 구면 영상을 기준으로 한 좌표이고, 지구 타원체를 기준으로 한 절대 지상좌표는 아니다. 그러나 GPS/INS로부터 취득된 카메라의 절대좌표와 자세 정보를 이용하여 회전변환 및 이동변환을 하면 구면 영상을 기준으로 한 좌표는 지구 타원체를 기준으로 한 절대 지상좌표로 간편하게 변환된다. 그리고 여기서 이용되는 회전변환 및 이동변환은 본 발명이 속하는 기술분야에서 널리 알려진 주지,관용 기술에 해당하므로 이 단계(S61)에서 얻어지는 좌표 X, Y, Z를 지구 타원체를 기준으로 한 절대 지상좌표와 동일시하더라도 무리가 없다. 그래서 본 발명을 서술함에 있어 S61단계에서 얻어지는 좌표 X, Y, Z(특히, X,Y)를 지상좌표로 표현하기도 하였다.
For reference, the coordinates X, Y, and Z obtained in this step S61 are coordinates based on the spherical image, and are not absolute ground coordinates based on the earth ellipsoid. However, when the rotation and movement transformation is performed using the absolute coordinates and attitude information of the camera obtained from GPS / INS, the coordinates based on the spherical image are easily converted to the absolute ground coordinates based on the ellipsoid of the earth. In addition, since the rotation transformation and movement transformation used herein correspond to well-known and common techniques well known in the technical field to which the present invention belongs, the coordinates X, Y, and Z obtained in this step (S61) and the absolute ground coordinates based on the earth ellipsoid There is no problem even if identified. Thus, in describing the present invention, the coordinates X, Y, and Z (especially X, Y) obtained in step S61 may be represented by ground coordinates.

이와 같이 구면 영상에서 이미 알고 있는 기지점의 Z 값을 활용하여 구면 영상 상의 특정 지점 (φ,λ)의 지상좌표 X, Y 값을 구한(S61) 후에는, 실제 지상의 지형지물 변화특성을 이용하여 그 특정 지점의 지상좌표 Z를 구한다.(S63)In this way, after obtaining the ground coordinates X and Y values of a specific point (φ, λ) on the spherical image by using the known Z value of the known point in the spherical image (S61), the characteristics of the ground feature changes on the ground. Obtain the ground coordinate Z of the specific point (S63).

우리들이 생활하는 지상은 대부분 평지이고, 지상에 설치되는 지형지물은 대부분이 수직으로 설치된다. Most of the land we live on is flat, and most of the features on the ground are vertical.

따라서 지상의 지형지물은 수평과 수직으로만 변한다는 가정(조건)을 부가한 후에 구면 영상의 기지점에서 특정 지점까지 연속된 가상의 수평선과 수직선으로 연결한 후에 수직선들의 길이 합으로부터 구면 영상의 특정 지점에 대한 지상좌표 Z를 구할 수 있다. Therefore, after adding the assumption that the ground feature changes only horizontally and vertically, and then connecting the virtual horizontal line and vertical line continuous from the known point of the spherical image to a specific point, the specific point of the spherical image from the sum of the lengths of the vertical lines We can get ground coordinate Z for.

참고로, 영상에서 지형지물들의 상호 구분과, 동일 지형지물에서 수평부분과 수직부분의 경계는 영상의 색상과 명암 차에 의해 쉽게 구별할 수 있다. For reference, the distinction between features in the image and the boundary between the horizontal and vertical portions in the same feature can be easily distinguished by the color and contrast of the image.

즉, 도6에서 보는 바와 영상에 도로와 인도, 그리고 인도 위에 건물과 전봇대 등이 있고, 사용자가 전봇대의 특정 지점을 선택했을 때, That is, when the bar and the image shown in FIG. 6 include roads and sidewalks, buildings and power poles on the sidewalks, and the user selects a specific point of the pole,

카메라가 탑재된 이동수단이 지나간 도로면의 어느 한 지점을 기지점으로 하여 선택한 특정 지점까지 가상의 수평선과 수직선을 연결한다. 즉, 기지점에서 도로면 끝까지 제1수평선(r1)이 있고, 인도 상부면까지 제1수직선(r2)이 연결되고, 인도 상부면에서 전봇대 하부까지 제2수평선(r3)이 연결되고, 전봇대 하부에서 선택한 특정 지점까지 제2수직선(r4)이 연결된다. The camera-mounted vehicle connects the virtual horizontal line and the vertical line to a specific point selected using a point on the road surface passing by the camera. That is, the first horizontal line r1 is connected from the known point to the end of the road surface, the first vertical line r2 is connected to the upper side of the sidewalk, and the second horizontal line r3 is connected from the upper side of the sidewalk to the lower side of the power pole, The second vertical line r4 is connected to the selected specific point.

즉, 수평선에서는 지상좌표의 X축, Y축의 X값, Y값만이 변하고, 수직선에서는 지상좌표의 Z축의 Z 값만이 변화되고, 기지점의 지상좌표 ((X0, YO, Z0)로 가정)는 이미 알고 있으므로, 제1수평선(r1)과 제1수직선(r2)이 만나는 지점의 지상좌표(X1, Y1, Z0), 제1수직선(r2)과 제2수평선(r3)이 만나는 지점의 지상좌표(X1, Y1, Z1), 제2수평선(r3)과 제2수직선(r4)이 만나는 지점의 지상좌표(X2, Y2, Z1), 선택지점의 지상좌표(X2, Y2, Z2)를 순차적으로 구할 수 있다.That is, only the X and Y values of the ground coordinates and the X and Y values of the ground coordinates change on the horizontal line, only the Z values of the Z axis of the ground coordinates change on the vertical line, and the ground coordinates of the known point (assuming (X0, YO, Z0)) are already As you know, the ground coordinates (X1, Y1, Z0) of the point where the first horizontal line (r1) and the first vertical line (r2) meet, the ground coordinates of the point where the first vertical line (r2) and the second horizontal line (r3) meet ( X1, Y1, Z1), the ground coordinates (X2, Y2, Z1) at the point where the second horizontal line r3 and the second vertical line r4 meet, and the ground coordinates (X2, Y2, Z2) at the selected point are sequentially obtained. Can be.

그리고 기지점은 선택점에서 가장 인접된 지점을 선택하는 것이 오차를 줄이는데 바람직할 수 있다.
And the known point may be preferable to reduce the error to select the nearest point to the selection point.

이상에서는 사용자가 선택한 임의지점에 대한 3차원 지상좌표(X,Y,Z)를 구하는 것을 설명하였는데, 객체(즉, 대상물)의 3차원정보, 예를 들면 객체로서 건물의 높이, 폭, 면적, 체적 등을 구함에 있어 필요한 건물의 지점들은 대부분 건물의 모서리나 상단과 하단이고, 이들은 영상에서 사용자가 직접 선택하지 아니하여 영상에서 쉽게 자동 선택될 수 있다. 따라서 3차원정보 추출을 위해 필요한 지점들은 사용자가 선택하지 아니하여도 되고, 그 지점들의 3차원 지상좌표(X,Y,Z) 추출은 사용자가 선택한 임의 지점의 3차원 지상좌표(X,Y,Z) 추출과정과 동일하다.
In the above, obtaining 3D ground coordinates (X, Y, Z) for an arbitrary point selected by a user has been described. The 3D information of an object (ie, an object), for example, the height, width, area, Most of the building points needed to obtain the volume and the like are the corners, the top and the bottom of the building, and these can be easily selected automatically from the image without being directly selected by the user. Therefore, the points necessary for 3D information extraction do not need to be selected by the user, and the 3D ground coordinates (X, Y, Z) extraction of the points are performed by the 3D ground coordinates (X, Y, Z) Same as extraction process.

이와 같은 과정을 통해 구면 영상 상에서 선택한 대상물(즉, 객체)의 임의 한 지점에 대한 3차원 지상좌표 X, Y, Z 를 구하는 과정을 다시 한 번 간략히 설명한다.
Through this process, the process of obtaining three-dimensional ground coordinates X, Y, and Z for an arbitrary point of the selected object (ie, object) on the spherical image is briefly described again.

구면 영상이 취득된 후에 구면 영상에서 관심 대상물의 어느 한 지점을 클릭(선택)하면, 클릭한 지점의 좌표(즉, 팬과 틸트로 표현되는 각도)는 구면 영상에서 바로 추출이 되고, 구면 영상의 구 반지름 N 역시 이를 대체하는 기지점의 Z로부터 바로 추출된다. 구면 영상에서 기지점은 GPS/INS 장비를 탑재한 이동수단(이동체)의 이동경로 지면이 된다. 즉, GPS/INS 장비의 절대좌표 (Xa,Ya,Za)는 GPS/INS 장비가 실시간으로 취득하고, 이동체에서 GPS/INS 장비의 설치 높이 H는 이미 알고 있으므로, 이동체가 지나간 지면(즉, 기지점)의 Z 값은 Za-H 가 된다.
After the spherical image is acquired, if you click (select) any point of interest in the spherical image, the coordinates of the clicked point (that is, the angle represented by pan and tilt) are extracted directly from the spherical image. The sphere radius N is also extracted directly from the known Z of the replacement point. In the spherical image, the known point becomes the ground of the movement path of the vehicle (moving body) equipped with the GPS / INS equipment. That is, the absolute coordinates (Xa, Ya, Za) of the GPS / INS equipment are acquired by the GPS / INS equipment in real time, and the installation height H of the GPS / INS equipment is already known in the moving object, so that the ground (ie ) Z value is Za-H.

이처럼 구면 영상에서 어느 한 지점을 클릭(선택)하면 즉시로 그 지점의 팬과 틸트 값과 구면 영상의 구 반지름을 대체하는 기지점의 Z 값이 추출되고, 추출된 이들 값은 [구-평면 변환모델]에 적용되어 구면 영상에서 선택한 지점의 상대 좌표 중 X, Y 값이 얻어진다. When you click (select) a point in the spherical image, the pan and tilt values of the spherical image and the Z value of the known point that replaces the spherical radius of the spherical image are extracted immediately. ] Is applied to obtain the X and Y values of the relative coordinates of the selected point in the spherical image.

전술한 바와 같이 이들 X,Y,Z는 카메라로부터의 상대적인 위치(즉, X,Y,Z는 구면 영상을 기준으로 한 좌표로서, 이는 곧 카메라로부터의 방향과 거리를 나타내는 것임.)이므로 GPS/INS로부터 취득된 카메라의 절대위치를 기준으로 카메라의 자세정보를 이용하는 회전변환을 거쳐 선택한 지점의 절대 지상좌표로 취득된다.
As mentioned above, these X, Y, and Z are relative positions from the camera (i.e., X, Y, and Z are coordinates based on the spherical image, which indicates the direction and distance from the camera). Based on the absolute position of the camera obtained from the INS, it is obtained by the absolute ground coordinates of the selected point through a rotation transformation using the attitude information of the camera.

구면 영상에서 클릭한 지점의 절대좌표값을 구한 후에는 영상의 여러 가지 시설물의 위치를 영상 변화 특성을 이용하여 좌표 값을 구한다. 도6에서 보는 바와 같이 위치를 취득하고자 하는 지점이 전봇대 위의 어느 한 지점일 때, 구면 영상에서 기지점은 이동체가 지나간 경로인 지면인 도로 상에 있다. 도면에서 도로에 있는 맨홀 뚜겅이 기지점 중 하나가 될 수 있다. 기지점으로 잡은 맨홀 뚜겅에서 위치를 취득하고자 하는 지점의 전봇대 위의 어느 한 점까지 가상의 직선들로 연결하되, 이 가상의 직선들은 영상의 지형 지물에서 수평과 수직 방향으로만 경로가 바뀌는 것으로 가정한다. 이는 실제 지상에서 지형 지물은 대부분 수직으로 설치되기에 인정될 수 있는 가정이다. After obtaining the absolute coordinate value of the clicked point in the spherical image, the coordinate values are obtained by using the image change characteristic of the location of various facilities of the image. As shown in Fig. 6, when the point to acquire the position is any point on the power pole, the known point in the spherical image is on the road which is the ground which is the path through which the moving object passed. In the drawing, the manhole cover on the road can be one of the known points. In the manhole cover of the known point, connect the virtual straight lines to a point on the power pole at the point where the position is to be acquired. The virtual straight lines are assumed to be changed only in the horizontal and vertical directions in the image feature. . This is an assumption that can be recognized because most of the features on the ground are installed vertically.

그러면 맨홀 위의 기지점에서 전봇대 위의 선택점까지 연결하는 가상의 직선인 수평선과 수직선의 좌표 (X,Y,Z)의 변화를 구할 수 있다. 즉, 수평선에서는 Z 값은 변하지 않고, 수직선에서는 Z 값만 변하게 되어, 우리가 최종적으로 구하고자 하는 위치값을 구하게 된다.
We can then find the change in the coordinates (X, Y, Z) of the horizontal and vertical lines, a virtual straight line connecting the known point on the manhole to the pick point on the pole. In other words, the Z value does not change on the horizontal line, only the Z value changes on the vertical line, and we finally obtain the position value that we want to obtain.

그리고 만약, 도6에서 인도의 높이(r2)를 알고 있는 때에는 [구-평면 변환모델]에 적용하는 기준점의 Z 값을 도로면의 Z 값이 아닌 인도의 Z 값을 사용하고, r3과 r4가 만나는 지점을 한 번의 클릭으로 선택하면 S61 과정을 거쳐 전봇대의 3차원 좌표를 취득할 수도 있다. 물론, 이때 취득되는 좌표는 전봇대와 인도가 만나는 지점의 좌표이고, 도6에서와 같이 전봇대 위의 어느 한 지점을 선택한 경우에는 S63단계를 거쳐 선택한 지점의 높이(Z 값)를 취득해야 할 것이다.
And, if the height r2 of India is known in Fig. 6, the Z value of the reference point applied to the [sphere-plane transformation model] is used instead of the Z value of the road surface, and r3 and r4 If you select the meeting point with a single click, you can obtain the three-dimensional coordinates of the power pole through the S61 process. Of course, the coordinates obtained at this time are the coordinates of the point where the power pole meets the sidewalk, and when selecting any point on the power pole as shown in FIG. 6, the height (Z value) of the selected point must be acquired through step S63.

이상에서 객체에서 필요한 지점들에 대한 3차원 지상좌표(X,Y,Z)가 추출되면, S65단계에서 필요한 3차원정보를 추출한다.
When the three-dimensional ground coordinates (X, Y, Z) for the points required in the object are extracted, the three-dimensional information required in step S65 is extracted.

이상에서 본 발명을 설명함에 있어 첨부된 도면을 참조하여 특정 구성과 특정 절차로 이루어진 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 시스템과 제공방법에 대해 설명하였으나 본 발명은 당업자에 의하여 다양한 변형 및 변경이 가능하고, 이러한 변형 및 변경은 본 발명의 보호범위에 속하는 것으로 해석되어야 한다.
In the above description of the present invention, a system and method for providing object information using a spherical image obtained from a omnidirectional camera having a specific configuration and a specific procedure are described with reference to the accompanying drawings. It is to be understood that such modifications and variations are intended to be included within the protection scope of the present invention.

10 : 데이터베이스 11 : 영상DB
13 : 객체정보DB 20 : 디스플레이모듈
30 : 매칭수단 40 : 3차원정보 추출부
50 : 제어부 60 : 입력부
10: Database 11: Image DB
13: Object Information DB 20: Display Module
30: matching means 40: three-dimensional information extraction unit
50: control unit 60: input unit

Claims (5)

이동수단에 탑재된 전방위 카메라와 GPS/INS 장비로부터 취득한 구면 영상과 전방위 카메라의 위치정보 및 자세정보가 저장되어 있는 영상DB;
상기 전방위 카메라가 촬영한 지역에 존재하는 객체들의 객체정보가 저장되어 있는 객체정보DB;
상기 영상DB(11)에 저장된 구면 영상을 디스플레이하는 디스플레이모듈;
상기 디스플레이모듈에 디스플레이되는 구면 영상에 상기 객체정보DB에 저장된 객체들의 정보를 중첩하여 디스플레이하는 매칭수단;을 포함하여 이루어지는 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 시스템.
An image DB storing spherical images obtained from the omnidirectional camera and the GPS / INS equipment mounted on the vehicle and the position information and the attitude information of the omnidirectional camera;
An object information database in which object information of objects existing in the area photographed by the omnidirectional camera is stored;
A display module for displaying a spherical image stored in the image DB 11;
Matching means for superimposing and displaying the information of the objects stored in the object information DB to the spherical image displayed on the display module; object information providing system using a spherical image obtained from the omnidirectional camera.
제 1 항에 있어서,
사용자의 명령신호를 입력받는 입력부;와,
상기 입력부에서 입력되는 명령신호에 따라 상기 디스플레이모듈에 디스플레이되는 구면 영상 및 객체정보를 제어하는 제어부;와,
상기 입력부를 통해 상기 디스플레이모듈에 디스플레이되는 특정 객체가 선택되면, [구-평면 변환 모델]과 구면 영상의 영상 변화 특성(즉, 영상의 색상과 명암의 차이)을 이용하여 선택된 특정 객체의 특정 지점에 대한 3차원 지상좌표(X, Y, Z)를 추출하는 3차원정보 추출부;를 더 포함하는 것을 특징으로 하는 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 시스템.
The method of claim 1,
An input unit for receiving a command signal of a user;
A control unit controlling spherical images and object information displayed on the display module according to a command signal input from the input unit;
When a specific object displayed on the display module is selected through the input unit, a specific point of the specific object selected by using the [sphere-plane conversion model] and the image change characteristic of the spherical image (that is, the difference in color and contrast of the image) 3D information extraction unit for extracting the three-dimensional ground coordinates (X, Y, Z) for the object information providing system using a spherical image obtained from an omnidirectional camera.
(S10) 이동수단에 탑재된 전방위 카메라로부터 주변 영상들을 취득하는 단계;
(S20) 이동수단에 탑재된 GPS/INS 장비로부터 상기 전방위 카메라의 위치정보 및 자세정보를 취득하는 단계;
(S30) 상기 GPS/INS 장비로부터 취득한 위치정보 및 자세정보를 활용하여 상기 전방위 카메라로부터 취득한 주변 영상들로부터 구면 영상을 취득하는 단계;
(S40) 상기 전방위 카메라가 촬영한 지역에 존재하는 객체들의 객체정보를 취득하는 단계;
(S50) 상기 (S30)단계에서 취득한 구면 영상에 상기 (S40)단계에서 취득한 객체정보를 중첩시켜 디스플레이모듈에 디스플레이시키는 단계;
(S60) 디스플레이모듈에 디스플레이되는 구면 영상에서 특정 객체가 선택되면, 선택된 특정 객체의 3차원정보를 추출하여 디스플레이모듈의 구면 영상에 중첩시켜 디스플레이시키는 단계;를 포함하여 이루어지는 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 방법.
(S10) obtaining surrounding images from the omnidirectional camera mounted on the moving means;
(S20) acquiring position information and attitude information of the omnidirectional camera from the GPS / INS equipment mounted on the moving means;
(S30) acquiring a spherical image from the surrounding images obtained from the omnidirectional camera by using the position information and the attitude information acquired from the GPS / INS equipment;
(S40) acquiring object information of objects existing in the area photographed by the omnidirectional camera;
(S50) superposing the spherical image acquired in the step (S30) and displaying the object information obtained in the step (S40) on the display module;
(S60) if a specific object is selected from the spherical image displayed on the display module, extracting the three-dimensional information of the selected specific object and superimposed on the spherical image of the display module; and displays the spherical image obtained from the omnidirectional camera Object information provision method using.
제 3 항에 있어서,
상기 (S60)단계에서 특정 객체로 건물을 선택하는 경우, 선택된 특정 객체의 3차원정보를 추출하기 전에
(S60a) 구면 영상에서 건물의 어느 한 면이 예비 선택되면, 해당 건물의 객체정보로서 건물의 대표명과 예비 선택된 건물 일면의 테두리에 외곽선을 구면 영상에 중첩하여 표시하는 단계와,
(S60b) 상기 (S60a)단계 후에 구면 영상에서 예비 선택된 건물 일면이 확정 선택되면, 구면 영상은 선택된 해당 건물의 일면이 최정면(最正面)으로 보이는 영상으로 이동하는 단계를 더 포함하는 것을 특징으로 하는 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 방법.
The method of claim 3, wherein
In the case of selecting a building as a specific object in step S60, before extracting 3D information of the selected specific object.
(S60a) if one side of the building is preselected in the spherical image, superimposing the outline on the spherical image with the outline of the representative name of the building and the edge of one side of the preselected building as object information of the building;
(S60b) After the step (S60a), if one surface of the preselected building is selected and selected from the spherical image, the spherical image may further include moving to an image of one surface of the selected corresponding building as the highest surface. Object information providing method using the spherical image obtained from the omnidirectional camera.
제 3 항 또는 제 4 항에 있어서, 상기 (S60)단계는
(S61) 구면 영상에서 기지점의 좌표 (X0, Y0, Z0)에서 Z0 값과, 선택된 특정 객체의 특정 지점에 대한 구면 영상에서의 팬과 틸트 각도인 φ값과 λ값을 [구-평면 변환 모델]에 적용하여 특정 지점에 대한 좌표 X값과 Y값을 구하는 단계와,
(S63) 구면 영상에서 기지점에서 상기 특정 지점까지 지형지물의 변화는 수평과 수직으로만 변화된다는 가정하에,
상기 기지점에서 특정 지점까지의 영상 변화 특성(즉, 영상의 색상과 명암의 차이)을 이용하여 영상에서 지형지물들을 상호 구분하고, 동일 지형지물에서 수평부분과 수직부분의 경계를 구분하고,
구분된 상기 지형지물과 경계로부터 영상의 기지점에서 특정 지점까지 연속된 가상의 수평선과 수직선으로 연결한 후에 수직선들의 길이 합으로부터 구면 영상의 특정 지점에 대한 고도 값(Z)을 구하는 단계를 포함하는 것을 특징으로 전방위 카메라로부터 취득한 구면 영상을 이용한 객체정보 제공 방법.
The method of claim 3 or 4, wherein the step (S60)
(S61) The Z0 value at the known coordinates (X0, Y0, Z0) in the spherical image, and the φ and λ values, which are the pan and tilt angles in the spherical image with respect to a specific point of the selected specific object, are determined by the spherical-plane transformation model. ] To find the coordinate X and Y values for a specific point,
(S63) Under the assumption that the change of the feature from the known point to the specific point in the spherical image is changed only horizontally and vertically,
By using the image change characteristics (that is, the difference between the color and the contrast of the image) from the known point to the feature, the features are distinguished from each other in the image, and the boundaries of the horizontal and vertical parts in the same feature,
And a step of obtaining an altitude value Z for a specific point of the spherical image from the sum of the lengths of the vertical lines after connecting the separated horizontal feature and the boundary from the known point of the image to the specific horizontal horizontal line and the vertical line. A method for providing object information using spherical images acquired from an omnidirectional camera.
KR1020100032094A 2009-12-15 2010-04-08 System and method for providing object information from aspherical image acquired by omnidirectical camera KR20110068764A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20090124440 2009-12-15
KR1020090124440 2009-12-15

Publications (1)

Publication Number Publication Date
KR20110068764A true KR20110068764A (en) 2011-06-22

Family

ID=44400947

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100032094A KR20110068764A (en) 2009-12-15 2010-04-08 System and method for providing object information from aspherical image acquired by omnidirectical camera

Country Status (1)

Country Link
KR (1) KR20110068764A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160045994A (en) * 2014-10-17 2016-04-28 주식회사 케이티 Method for providing augmented reality-video game, device and system
WO2017053370A1 (en) * 2015-09-22 2017-03-30 Facebook, Inc. Spherical videos mappings
US10096130B2 (en) 2015-09-22 2018-10-09 Facebook, Inc. Systems and methods for content streaming
KR102023072B1 (en) * 2018-07-16 2019-11-20 아마노코리아 주식회사 Indoor localization system for vehicle
KR102161306B1 (en) * 2019-09-17 2020-10-05 주식회사 영국전자 Pan Angle Calibration Method in Image of Mobile PTZ Camera
WO2021071279A3 (en) * 2019-10-09 2021-06-03 주식회사 에스360브이알 Method for specifying geographical location, database using same, and database of database

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160045994A (en) * 2014-10-17 2016-04-28 주식회사 케이티 Method for providing augmented reality-video game, device and system
WO2017053370A1 (en) * 2015-09-22 2017-03-30 Facebook, Inc. Spherical videos mappings
US9858706B2 (en) 2015-09-22 2018-01-02 Facebook, Inc. Systems and methods for content streaming
US10096130B2 (en) 2015-09-22 2018-10-09 Facebook, Inc. Systems and methods for content streaming
US10657667B2 (en) 2015-09-22 2020-05-19 Facebook, Inc. Systems and methods for content streaming
US10657702B2 (en) 2015-09-22 2020-05-19 Facebook, Inc. Systems and methods for content streaming
KR102023072B1 (en) * 2018-07-16 2019-11-20 아마노코리아 주식회사 Indoor localization system for vehicle
KR102161306B1 (en) * 2019-09-17 2020-10-05 주식회사 영국전자 Pan Angle Calibration Method in Image of Mobile PTZ Camera
WO2021071279A3 (en) * 2019-10-09 2021-06-03 주식회사 에스360브이알 Method for specifying geographical location, database using same, and database of database

Similar Documents

Publication Publication Date Title
US9619944B2 (en) Coordinate geometry augmented reality process for internal elements concealed behind an external element
JP5682060B2 (en) Image composition apparatus, image composition program, and image composition system
US8036678B2 (en) Real-time geographic information system and method
Honkamaa et al. Interactive outdoor mobile augmentation using markerless tracking and GPS
KR20110068764A (en) System and method for providing object information from aspherical image acquired by omnidirectical camera
CA2725800A1 (en) Method of displaying navigation data in 3d
CN102037325A (en) Computer arrangement and method for displaying navigation data in 3D
CN101833896A (en) Geographic information guide method and system based on augment reality
KR100822814B1 (en) Method for overlapping real-time landscape image and gis data
US10997785B2 (en) System and method for collecting geospatial object data with mediated reality
CN106908043A (en) The three-dimensional amount measuring method of geographic position of target object and height based on Streetscape picture
US20220138467A1 (en) Augmented reality utility locating and asset management system
Hansen et al. Augmented reality for subsurface utility engineering, revisited
KR20190114696A (en) An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof
US11348321B2 (en) Augmented viewing of a scenery and subsurface infrastructure
JP2000074669A (en) Method and device for generating 3-dimension map database
CN108955723B (en) Method for calibrating augmented reality municipal pipe network
TWI426237B (en) Instant image navigation system and method
CN111161350B (en) Position information and position relation determining method, position information acquiring device
KR20150020421A (en) A measurement system based on augmented reality approach using portable servey terminal
KR101448567B1 (en) Map Handling Method and System for 3D Object Extraction and Rendering using Image Maps
Böhm et al. Automation in laser scanning for cultural heritage applications
TWI780734B (en) Method for displaying hidden object through augmented reality
CA3056834C (en) System and method for collecting geospatial object data with mediated reality
KR100933297B1 (en) Exteraction methods of 3-dimensional coordinate from aspherical image acquired by omnidirectical camera and gps/ins

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application