KR102225321B1 - System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors - Google Patents

System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors Download PDF

Info

Publication number
KR102225321B1
KR102225321B1 KR1020190116539A KR20190116539A KR102225321B1 KR 102225321 B1 KR102225321 B1 KR 102225321B1 KR 1020190116539 A KR1020190116539 A KR 1020190116539A KR 20190116539 A KR20190116539 A KR 20190116539A KR 102225321 B1 KR102225321 B1 KR 102225321B1
Authority
KR
South Korea
Prior art keywords
information
image
geometric
photographing
sensor
Prior art date
Application number
KR1020190116539A
Other languages
Korean (ko)
Other versions
KR20200122967A (en
Inventor
박일석
홍승환
송승관
Original Assignee
주식회사 스트리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스트리스 filed Critical 주식회사 스트리스
Publication of KR20200122967A publication Critical patent/KR20200122967A/en
Application granted granted Critical
Publication of KR102225321B1 publication Critical patent/KR102225321B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템 및 방법이 제공된다.
상기 시스템은 이동형 플랫폼에 탑재된 복수 영상 센서로부터 취득된 영상 정보들과 상기 측위 센서로부터 취득된 위치 정보를 수신하고, 상기 영상 정보들을 결합하여 합성하는 수신부와, 상기 합성된 영상 정보들로부터 객체를 검출하여 객체 정보를 생성하는 객체 검출부와, 상기 복수 영상 센서의 위치와 자세로부터 추정되는 상기 영상 정보들의 위치와 자세 정보에 따른 상기 영상 정보들 간의 기하 관계를 정의하는 기하 정보에 근거하여, 상기 영상 정보에 상기 객체 정보와 상기 위치 정보 간의 결합 관계를 분석하는 객체 정보 분석부와, 상기 합성된 영상 정보에 상기 객체 정보와 상기 위치 정보를 결합하여 제 1 공간 정보를 생성하는 결합부와, 상기 복수 영상 센서의 촬영 노드들 간에 연속 이동 촬영된 영상 정보에 기초하여 상기 촬영 노드들 간의 방향 정보 및 연결 정보와 관련된 네트워크를 구성하는 제 2 공간 정보를 생성하는 네트워크 연결/방향 정보 분석부, 및 상기 제 1 및 제 2 공간 정보를 연계하여 도로 공간 정보를 생성하여 저장하는 데이터베이스부를 포함한다.
A system and method for constructing road space information through linkage between image information acquired from a plurality of image sensors and location information are provided.
The system includes a receiver that receives image information acquired from a plurality of image sensors mounted on a mobile platform and location information acquired from the positioning sensor, combines and synthesizes the image information, and an object from the synthesized image information. The image is based on an object detector that detects and generates object information, and geometric information that defines a geometric relationship between the image information according to the position and posture information of the image information estimated from the position and posture of the plurality of image sensors. An object information analysis unit that analyzes a coupling relationship between the object information and the location information in information, a combination unit that generates first spatial information by combining the object information and the location information with the synthesized image information, and the plurality of A network connection/direction information analysis unit for generating second spatial information constituting a network related to the direction information and connection information between the photographing nodes based on image information photographed continuously moving between the photographing nodes of the image sensor, and the second And a database unit for generating and storing road space information by linking the first and second space information.

Figure R1020190116539
Figure R1020190116539

Description

복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템 및 방법{System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors}System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors}

본 발명은 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for constructing road space information through linkage between image information acquired from a plurality of image sensors and location information.

기존의 도로 공간 정보 및 네트워크 구축은 항공영상의 도화를 통해 이루어지거나 현장 영상을 통한 단순 판독으로 이루어져 다수의 차선과 노면표지, 표지판, 시설물들의 정확한 위치에 대한 도면화가 어렵다는 단점이 있다. Existing road space information and network construction has a disadvantage in that it is difficult to draw accurate locations of multiple lanes, road signs, signs, and facilities because it is made through drawing of aerial images or simple reading through field images.

또한 단일 카메라 및 평면 카메라로 촬영 데이터로 분석할 때는 해상도의 한계 또는 시야각의 한계로 인해 해당 도로의 전체 구간에 대한 도로 공간 정보를 구축하는데는 한계가 있다. In addition, when analyzing photographed data with a single camera and a flat camera, there is a limit to constructing road space information for the entire section of the road due to the limitation of the resolution or the limit of the viewing angle.

위치좌표가 포함된 공간정보를 얻기 위한 주요한 장치로는 라이다(LiDAR, Light Detection and Ranging)로, 레이저를 통해 대상 객체의 3차원 위치를 측정할 수 있다. The main device for obtaining spatial information including position coordinates is LiDAR (Light Detection and Ranging), which can measure the three-dimensional position of a target object through a laser.

그러나 라이다의 경우, 고가의 장비이며, 데이터를 다루는데 전문가가 포함되어야 하며, 안개 등 기상에 취약하다는 단점이 있다. However, in the case of Lidar, it is expensive equipment, requires experts to handle data, and has disadvantages of being vulnerable to weather such as fog.

이에 따라 라이다 센서와 단일 카메라보다는 도로 주변의 영상을 제공하는 시스템으로서, 복수의 영상 센서, 예컨대 다수의 어안렌즈 카메라를 통해 전방위 영상을 생성하고 위치정보와 결합한 뷰어(viewer) 서비스를 제공하기 위한 기술이 지속적으로 시도되고 있다. 그러나, 복수 영상 센서로 취측한 영상 상에 표출되는 객체 위치정보와 도로의 네트워크 등 공간정보 구축을 위한 구체적인 방법론 및 솔루션이 제시되지 못한 실정이다. Accordingly, as a system that provides images around the road rather than a lidar sensor and a single camera, it is intended to generate an omnidirectional image through a plurality of image sensors, such as a plurality of fisheye cameras, and to provide a viewer service combined with location information. Technology is constantly being tried. However, a specific methodology and solution for constructing spatial information such as object location information and road networks displayed on images taken by multiple image sensors has not been presented.

이는, 다수의 광각렌즈 영상, 어안렌즈 영상, 전방위 영상 시스템과 영상정보를 결합 해석함이 매우 곤란할 뿐만 아니라, 특히, 카메라 외부에 설치된 측위센서를 통해 수집한 위치정보들과 영상정보를 연계하여 해석하는 명확한 방법론이 주어진 바가 없기 때문이다. This is not only very difficult to combine and analyze multiple wide-angle lens images, fish-eye lens images, omnidirectional image systems, and image information, but also, in particular, it is analyzed by linking image information with location information collected through a positioning sensor installed outside the camera. This is because no clear methodology has been given.

또한 영상정보와 위치정보 간 연계 분석 방법의 부재로 인해, 공간 상에서 연속성을 지니는 선, 면 형태로 표출되는 도로 네트워크을 생성하는데 한계가 있는 상황이다. In addition, due to the lack of a linkage analysis method between image information and location information, there is a limit to creating a road network that is expressed in the form of lines and surfaces with continuity in space.

본 발명이 이루고자 하는 기술적 과제는 복수의 영상 센서로부터 취득한 복수의 영상 상에 표출되는 객체 위치정보와 도로의 네트워크 등 공간정보 구축을 위한 구체적인 솔루션을 제시하며, 또한 카메라 외부에 설치된 측위센서를 통해 수집한 위치정보들과 영상정보를 연계하여 해석함으로써, 도로 공간 상에서 연속성을 지니는 선, 면 형태로 표출되는 도로 네트워크 생성을 용이하게 구축하는 도로 공간 정보 구축을 위한 장치 및 방법을 제공하는데 있다. The technical problem to be achieved by the present invention is to propose a specific solution for constructing spatial information such as object location information and road network displayed on a plurality of images acquired from a plurality of image sensors, and also collected through a positioning sensor installed outside the camera. The present invention aims to provide an apparatus and method for constructing road space information that facilitates creation of a road network expressed in the form of lines and surfaces having continuity on the road space by linking and analyzing one location information and image information.

본 발명의 목적은 이상에서 언급된 목적으로 제한되지 않으며, 언급되지 않은 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The object of the present invention is not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템은 이동형 플랫폼에 탑재된 복수 영상 센서로부터 취득된 영상 정보들과 측위 센서로부터 취득된 위치 정보를 수신하고, 상기 영상 정보들을 결합하여 합성하는 수신부와, 상기 합성된 영상 정보들로부터 객체를 검출하여 객체 정보를 생성하는 객체 검출부와, 상기 복수 영상 센서의 위치와 자세로부터 추정되는 상기 영상 정보들의 위치와 자세 정보에 따른 상기 영상 정보들 간의 기하 관계를 정의하는 기하 정보에 근거하여, 상기 영상 정보에 상기 객체 정보와 상기 위치 정보 간의 결합 관계를 분석하는 객체 정보 분석부와, 상기 합성된 영상 정보에 상기 객체 정보와 상기 위치 정보를 결합하여 제 1 공간 정보를 생성하는 결합부와, 상기 복수 영상 센서의 촬영 노드들 간에 연속 이동 촬영된 영상 정보에 기초하여 상기 촬영 노드들 간의 방향 정보 및 연결 정보와 관련된 네트워크를 구성하는 제 2 공간 정보를 생성하는 네트워크 연결/방향 정보 분석부와, 상기 제 1 및 제 2 공간 정보를 연계하여 도로 공간 정보를 생성하여 저장하는 데이터베이스부, 및 상기 도로 공간 정보에 기초하여 소정 좌표 모델로 구성된 지도를 생성하여 상기 데이터베이스부에 저장시키는 도화부를 포함한다. According to an aspect of the present invention for achieving the above technical problem, a system for constructing road space information through linkage between image information acquired from a plurality of image sensors and location information includes image information acquired from a plurality of image sensors mounted on a mobile platform. And a receiving unit that receives the location information acquired from the positioning sensor and combines and synthesizes the image information, an object detection unit that detects an object from the synthesized image information to generate object information, and the location of the plurality of image sensors Object information analysis that analyzes a coupling relationship between the object information and the location information in the image information based on geometric information defining a geometric relationship between the position of the image information estimated from the posture and the image information according to the posture information A unit, a combination unit for generating first spatial information by combining the object information and the location information with the synthesized image information, and the photographing based on image information continuously moved between the photographing nodes of the plurality of image sensors. A network connection/direction information analysis unit that generates second spatial information constituting a network related to direction information and connection information between nodes, and a database that generates and stores road space information by linking the first and second spatial information And a drawing unit for generating a map composed of a predetermined coordinate model based on the road space information and storing the map in the database unit.

다른 실시예에서, 상기 객체 정보 분석부는 상기 기하 정보에 근거하여 상기 객체 정보, 상기 위치 정보와 함께 상기 객체의 높이와 관련된 3 차원 기하 정보 간의 결합 관계를 분석하고, 상기 결합부에서 생성하는 상기 제 1 공간 정보는 상기 3 차원 기하 정보를 더 결합할 수 있다. In another embodiment, the object information analysis unit analyzes a coupling relationship between the object information, the position information, and 3D geometric information related to the height of the object based on the geometric information, and the second generated by the combining unit One spatial information may further combine the 3D geometric information.

또 다른 실시예에서, 상기 객체 정보 분석부는 상기 기하 정보에 근거한 상기 객체의 높이와 관련된 3 차원 기하 정보를 산출할 수 없는 경우에, 상기 영상 정보를 2 차원 기하 모델로 변환하고, 상기 영상 정보 내에서 픽셀 데이터 분석을 통한 상기 객체의 높이를 추정하거나, 상기 영상 센서의 높이에 기초한 상기 객체의 높이를 추정하고, 상기 추정된 객체의 높이를 상기 3 차원 기하 정보와 상기 기하 정보에 반영하는 기하 정보부를 더 포함하고, 상기 제 1 공간 정보는 상기 반영된 기하 정보에 기초하여 상기 객체 정보, 상기 위치 정보 및 상기 3 차원 기하 정보가 결합하도록 생성될 수 있다. In another embodiment, when the object information analysis unit cannot calculate 3D geometric information related to the height of the object based on the geometric information, converts the image information into a 2D geometric model, and Geometric information that estimates the height of the object through pixel data analysis, or estimates the height of the object based on the height of the image sensor, and reflects the estimated height of the object to the 3D geometric information and the geometric information A part may be further included, and the first spatial information may be generated to combine the object information, the location information, and the 3D geometric information based on the reflected geometric information.

또 다른 실시예에서, 상기 기하 정보는 상기 영상 센서마다 정의된 기하 파라미터를 기초로 산출된 내부 기하 및 복수 영상 센서들이 탑재된 이동형 플랫폼의 위치와 자세에 따른 상기 영상 센서들 간의 기하 관계를 정의하는 외부 기하를 포함할 수 있다. In another embodiment, the geometric information defines a geometric relationship between the image sensors according to an internal geometry calculated based on a geometric parameter defined for each image sensor and a position and posture of a mobile platform on which a plurality of image sensors are mounted. It can contain external geometry.

또 다른 실시예에서, 상기 이동형 플랫폼이 상기 이동형 플랫폼의 이동에 따른 회전 운동이 발생하는 부분에 설치되는 휠 센서, CAN(Controll Area Network) 통신을 구현하여 상기 이동형 플랫폼의 CAN 정보를 상기 이동형 플랫폼의 외부로 전송하는 CAN 모듈 및 관성 항법 센서 중 적어도 하나를 구비하는 경우에, 상기 휠 센서의 회전 데이터, 시간 데이터 또는 상기 CAN 정보의 속도 데이터, 상기 시간 데이터를 취득하고, 상기 영상 센서가 촬영한 촬영 노드의 촬영 시간 데이터와 상기 측위 센서의 측위 시간 데이터가 불일치하는 경우에, 상기 측위 센서로부터 측정된 인접 측위 정보들 사이의 촬영 노드의 시간 데이터와 함께, 상기 휠 센서의 회전 및 시간 데이터 또는 상기 CAN 정보의 속도 및 시간 데이터에 기반한 내삽 또는 외삽 모델을 활용하여 상기 촬영 노드의 위치를 산출하여 상기 위치 정보를 보정하고 상기 제 1 공간 정보에 반영하는 위치 보정/추정부를 더 포함할 수 있다. In another embodiment, the mobile platform implements a wheel sensor, a control area network (CAN) communication, which is installed in a portion where a rotational motion according to the movement of the mobile platform occurs, and transmits CAN information of the mobile platform to the mobile platform. In the case of having at least one of a CAN module and an inertial navigation sensor that is transmitted to the outside, rotation data, time data, or speed data of the CAN information, and time data of the wheel sensor are acquired, and a photograph taken by the image sensor When the photographing time data of the node and the positioning time data of the positioning sensor are inconsistent, together with the time data of the photographing node between adjacent positioning information measured from the positioning sensor, rotation and time data of the wheel sensor or the CAN It may further include a position correction/estimator for correcting the position information by calculating the position of the photographing node by using an interpolation or extrapolation model based on the speed and time data of the information, and reflecting it in the first spatial information.

여기서, 상기 위치 보정/추정부는 상기 촬영 노드의 위치 정보가 상기 제 2 공간 정보에 기반한 상기 이동형 플랫폼의 이동 경로에 따른 이동 궤적 정보로부터 기준값을 초과하는 경우에, 상기 초과한 촬영 노드의 위치 정보를 필터링하여 제거할 수 있다. 또한, 상기 관성 항법 센서는 상기 이동형 플랫폼의 가속도, 각가속도 및 자북 중 적어도 하나의 관성 항법 데이터를 수신하고 상기 위치 보정/추정부는 상기 관성 항법 데이터에 기초하여 상기 위치 정보를 보정하거나 필터링할 수 있다. Here, the position correction/estimator, when the location information of the photographing node exceeds a reference value from the movement trajectory information according to the movement path of the mobile platform based on the second spatial information, the location information of the exceeding photographing node It can be removed by filtering. In addition, the inertial navigation sensor may receive at least one inertial navigation data of acceleration, angular acceleration, and magnetic north of the mobile platform, and the position correction/estimator may correct or filter the location information based on the inertial navigation data.

또 다른 실시예에서, 상기 영상 센서가 촬영한 촬영 노드들 간의 위치 정보들 간의 차분, 특정 객체를 촬영한 영상 센서의 촬영 방향과 상기 특정 객체 사이의 제 1 각도, 상기 촬영한 영상 센서와 인접 영상 센서 간의 제 2 각도, 상기 촬영 방향과 북쪽 방향 간의 제 3 각도를 계산하고, 상기 차분에 기반하여 상기 이동형 플랫폼의 이동 궤적 정보를 산출하며, 상기 이동 궤적 정보, 상기 제 1 내지 제 3 각도에 기초하여 상기 영상 센서의 자세 정보를 추정함과 아울러서 상기 영상 센서의 자세 정보로부터 상기 영상 정보의 자세 정보를 추정하고, 상기 영상 정보의 자세 정보를 상기 기하 정보에 반영하는 자세 정보 추정부를 더 포함할 수 있다. In another embodiment, the difference between the location information between the photographing nodes photographed by the image sensor, the photographing direction of the image sensor photographing a specific object and the first angle between the specific object, the photographed image sensor and the adjacent image Calculate a second angle between the sensors and a third angle between the photographing direction and the north direction, calculate movement trajectory information of the mobile platform based on the difference, and based on the movement trajectory information, the first to third angles The posture information estimation unit may further include a posture information estimating unit for estimating the posture information of the image sensor, estimating posture information of the image information from the posture information of the image sensor, and reflecting the posture information of the image information to the geometric information. have.

또 다른 실시예에서, 상기 데이터베이스부에 저장된 기존 도로 공간 정보와 상기 도로 공간 정보에 속한 상기 기하 정보와 상기 위치 정보에 기초하여 통합 기하 모델로 기존 및 신규 도로 공간 정보를 변환하고, 상기 기존 도로 공간 정보 및 상기 도로 공간 정보에 속한 상기 제 1 공간 정보를 영상 정합으로 비교한 결과, 상기 객체 정보의 변화가 있는 경우에, 상기 도로 공간 정보로 상기 기존 도로 공간 정보를 갱신하여 상기 지도를 변경하는 갱신부를 더 포함할 수 있다. In another embodiment, based on the existing road space information stored in the database unit, the geometric information belonging to the road space information, and the location information, the existing and new road space information is converted into an integrated geometric model, and the existing road space As a result of comparing information and the first spatial information belonging to the road space information by image matching, when there is a change in the object information, an update of updating the existing road space information with the road space information to change the map May contain more wealth.

상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 방법은 이동형 플랫폼에 탑재된 복수 영상 센서로부터 취득된 영상 정보들과 측위 센서로부터 취득된 위치 정보를 수신하고, 상기 영상 정보들을 결합하여 합성하는 단계와, 상기 합성된 영상 정보들로부터 객체를 검출하여 객체 정보를 생성하는 단계와, 상기 복수 영상 센서의 위치와 자세로부터 추정되는 상기 영상 정보들의 위치와 자세 정보에 따른 상기 영상 정보들 간의 기하 관계를 정의하는 기하 정보에 근거하여, 상기 영상 정보에 상기 객체 정보와 상기 위치 정보 간의 결합 관계를 분석하는 단계와, 상기 합성된 영상 정보에 상기 객체 정보와 상기 위치 정보를 결합하여 제 1 공간 정보를 생성하는 단계와, 상기 복수 영상 센서의 촬영 노드들 간에 연속 이동 촬영된 영상 정보에 기초하여 상기 촬영 노드들 간의 방향 정보 및 연결 정보와 관련된 네트워크를 구성하는 제 2 공간 정보를 생성하는 단계와, 상기 제 1 및 제 2 공간 정보를 연계하여 도로 공간 정보를 생성하여 저장하는 단계, 및 상기 도로 공간 정보에 기초하여 소정 좌표 모델로 구성된 지도를 생성하여 저장하는 단계를 포함한다. According to an aspect of the present invention for achieving the above technical problem, a method for constructing road space information through linkage between image information acquired from a plurality of image sensors and location information includes image information acquired from a plurality of image sensors mounted on a mobile platform. Receiving the location information acquired from the and positioning sensor, combining and synthesizing the image information; generating object information by detecting an object from the synthesized image information; and the position and posture of the plurality of image sensors Analyzing a combination relationship between the object information and the location information in the image information based on geometric information defining a geometric relationship between the image information according to the position and posture information of the image information estimated from Generating first spatial information by combining the object information and the location information with the synthesized image information, and direction information between the photographing nodes based on image information photographed continuously moving between the photographing nodes of the plurality of image sensors. And generating second spatial information constituting a network related to connection information, generating and storing road space information by linking the first and second spatial information, and predetermined coordinates based on the road space information. And generating and storing a map composed of a model.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Details of other embodiments are included in the detailed description and drawings.

본 발명에 따르면, 복수의 영상 센서로부터 취득한 복수의 영상 상에 표출되는 객체의 위치정보와 도로의 네트워크 등 공간정보 구축을 위한 구체적인 솔루션을 제시할 수 있다. According to the present invention, a specific solution for constructing spatial information such as location information of an object and a network of roads displayed on a plurality of images acquired from a plurality of image sensors can be presented.

이에 더하여, 영상 센서 외부에 설치된 측위 센서를 통해 수집한 위치 정보들과 영상정보를 연계하여 해석함으로써, 도로 공간 정보상에서 연속성을 갖는 형태로 표출되는 도로 네트워크 생성을 용이하게 구축할 수 있다. In addition, by linking and analyzing the location information collected through the positioning sensor installed outside the image sensor and the image information, it is possible to easily construct a road network that is expressed in a form having continuity on the road spatial information.

이외에도 본 명세서를 통해 당업자라면 파악할 수 있는 구성을 통해 도출되는 효과를 배제하지 않는다. In addition, effects derived through configurations that can be grasped by those skilled in the art through the present specification are not excluded.

도 1은 본 발명의 실시예에 따른 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 장치에 관한 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 방법에 관한 순서도이다.
도 3은 복수의 영상 센서에서 취득되는 영상 정보와 이들의 결합을 도시한 도면이다.
도 4는 영상 정보들로부터 객체를 인식하여 객체 정보를 인식하는 과정을 설명한 도면이다.
도 5는 도로 공간 정보의 생성 과정을 설명한 도면이다.
도 6은 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이다.
도 7은 외부 도로 공간 정보가 도로 공간 정보에 결합하여 도로 공간 정보를 보정하는 과정을 설명한 도면이다.
도 8은 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이다.
도 9는 영상 정보 내에서 픽셀 데이터 분석을 통한 객체 높이를 추정하는 과정을 설명하는 도면이다.
도 10은 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이다.
도 11은 촬영 노드의 위치 정보를 보정하는 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이다.
도 13은 영상 정보의 자세 정보를 추정하는 과정을 설명하기 위한 도면이다.
도 14는 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이다.
도 15는 도로 공간 정보의 갱신 과정을 설명하기 위한 도면이다.
1 is a block diagram of an apparatus for constructing road space information through linkage between image information acquired from a plurality of image sensors and location information according to an embodiment of the present invention.
2 is a flowchart illustrating a method for constructing road space information through linkage between image information acquired from a plurality of image sensors and location information according to another embodiment of the present invention.
3 is a diagram illustrating image information acquired from a plurality of image sensors and a combination thereof.
4 is a diagram illustrating a process of recognizing object information by recognizing an object from image information.
5 is a diagram illustrating a process of generating road space information.
6 is a flowchart of a method for constructing road space information according to another embodiment of the present invention.
7 is a diagram illustrating a process of correcting road space information by combining external road space information with road space information.
8 is a flowchart of a method for constructing road space information according to another embodiment of the present invention.
9 is a diagram illustrating a process of estimating an object height through pixel data analysis in image information.
10 is a flowchart of a method for constructing road space information according to another embodiment of the present invention.
11 is a diagram for explaining a process of correcting location information of a photographing node.
12 is a flowchart of a method for constructing road space information according to another embodiment of the present invention.
13 is a diagram for describing a process of estimating posture information of image information.
14 is a flowchart of a method for constructing road space information according to another embodiment of the present invention.
15 is a diagram for describing a process of updating road space information.

이하, 첨부한 도면들 및 후술되어 있는 내용을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 그러나, 본 발명은 여기서 설명되어지는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되어지는 것이다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급되지 않는 한 복수형도 포함된다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings and the following description. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed contents may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art. The same reference numbers throughout the specification indicate the same elements. Meanwhile, terms used in the present specification are for explaining embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements in which the recited component, step, operation and/or element is Or does not preclude additions.

또한, "부"내지 모듈 이란, 일반적으로 논리적으로 분리 가능한 소프트웨어(컴퓨터 프로그램), 하드웨어 등의 부품을 가리킨다. 따라서, 본 실시형태에 있어서의 모듈은 컴퓨터 프로그램에 있어서의 모듈뿐만 아니라, 하드웨어 구성에 있어서의 모듈도 가리킨다. 그 때문에, 본 실시형태는, 그것들을 모듈로서 기능시키기 위한 컴퓨터 프로그램(컴퓨터에 각각의 단계를 실행시키기 위한 프로그램, 컴퓨터를 각각의 수단으로서 기능시키기 위한 프로그램, 컴퓨터에 각각의 기능을 실현시키기 위한 프로그램), 시스템 및 방법의 설명도 겸하고 있다. 다만, 설명의 형편상, 「저장한다」, 「저장시킨다」, 이것들과 동등한 문언을 이용하지만, 이들 문언은, 실시형태가 컴퓨터 프로그램일 경우에는, 기억 장치에 기억시키는, 또는 기억 장치에 기억시키는 것과 같이 제어하는 것을 의미한다. 또한, "부" 내지 모듈은 기능에 일대일로 대응하고 있어도 되지만, 실장에 있어서는, 1 모듈을 1 프로그램으로 구성해도 되고, 복수 모듈을 1 프로그램으로 구성해도 되고, 반대로 1 모듈을 복수 프로그램으로 구성해도 된다. 또한, 복수 모듈은 1 컴퓨터에 의해 실행되어도 되고, 분산 또는 병렬 환경에 있어서의 컴퓨터에 의해 1 모듈이 복수 컴퓨터로 실행되어도 된다. 또한, 1개의 모듈에 다른 모듈이 포함되어 있어도 된다. 또한, 이하, 「접속」이란 물리적인 접속 외에, 논리적인 접속(데이터의 주고받기, 지시, 데이터간의 참조 관계 등)일 경우에도 채용한다. 「미리 정해진」이란, 대상으로 하고 있는 처리 전에 정해져 있음을 말하고, 본 실시형태에 의한 처리가 개시되기 전은 물론이고, 본 실시형태에 의한 처리가 개시된 후에도, 대상으로 하고 있는 처리 전이면, 그 때의 상황, 상태에 따라, 또는 그때까지의 상황, 상태에 따라 정해지는 것의 의미를 포함해서 이용한다.In addition, "sub" to "module" generally refer to components such as software (computer program) and hardware that can be logically separated. Therefore, the module in this embodiment refers not only to the module in the computer program, but also to the module in the hardware configuration. Therefore, the present embodiment is a computer program for making them function as modules (a program for executing each step in a computer, a program for making a computer function as each means, a program for realizing each function in a computer) ), also describes the system and method. However, for convenience of explanation, phrases equivalent to "save" and "save" are used, but these words are stored in a memory device or stored in a memory device when the embodiment is a computer program. It means to control like that. In addition, the "sub" to the module may correspond to the function one-to-one, but in the implementation, one module may be composed of one program, a plurality of modules may be composed of one program, and conversely, one module may be composed of a plurality of programs. do. Further, a plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers by a computer in a distributed or parallel environment. In addition, another module may be included in one module. In addition, hereinafter, "connection" is adopted in the case of logical connection (data exchange, instruction, reference relationship between data, etc.) in addition to physical connection. The term "predetermined" means that it is determined before the target processing, as well as before the processing according to the present embodiment is started, even after the processing according to the present embodiment is started, and before the target processing, the It includes the meaning of what is determined according to the situation and state of the time, or the situation and state up to that time.

또한, 시스템 또는 장치란, 복수의 컴퓨터, 하드웨어, 장치 등이 네트워크(일대 일 대응의 통신 접속을 포함함) 등의 통신 수단에 의해 접속되어 구성되는 것 외에, 1개의 컴퓨터, 하드웨어, 장치 등에 의해 실현될 경우도 포함된다. 「장치」와 「시스템」이란, 서로 동의(同意)의 용어로서 이용한다. 물론이지만, 「시스템」에는, 인위적인 결정인 사회적인 「기구」(사회 시스템)에 지나지 않는 것은 포함하지 않는다.In addition, a system or device is configured by connecting a plurality of computers, hardware, devices, etc. by means of communication such as a network (including a one-to-one communication connection), and a single computer, hardware, device, etc. This includes cases where it is realized. The terms "device" and "system" are used as terms of mutual agreement. Of course, the "system" does not include anything but an artificial decision, a social "mechanism" (social system).

또한, 각 부 내지 각 모듈에 의한 처리마다 또는 각 부 내지 모듈 내에서 복수의 처리를 행할 경우는 그 처리마다, 대상이 되는 정보를 기억 장치로부터 판독 입력하고, 그 처리를 행한 후에, 처리 결과를 기억 장치에 기입하는 것이다. 따라서, 처리 전의 기억 장치로부터의 판독 입력, 처리 후의 기억 장치에의 기입에 관해서는, 설명을 생략할 경우가 있다. 또한, 여기에서의 기억 장치로서는, 하드디스크, RAM(Random Access Memory), 외부 기억 매체, 통신 회선을 통한 기억 장치, CPU(Central Processing Unit) 내의 레지스터 등을 포함하고 있어도 된다.In addition, when processing by each unit or module or a plurality of processing within each unit or module, the target information is read and input from the storage device for each processing, and after the processing is performed, the processing result is displayed. It is to write to the storage device. Therefore, the description of the read input from the storage device before processing and the writing to the storage device after processing may be omitted in some cases. Further, the storage device herein may include a hard disk, a random access memory (RAM), an external storage medium, a storage device through a communication line, a register in a CPU (Central Processing Unit), and the like.

이하, 도 1을 참조하여, 본 발명의 실시예에 따른 복수 영상 센서(104)로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템에 대하여 설명하기로 한다. Hereinafter, a system for constructing road space information through linkage between image information acquired from a plurality of image sensors 104 and location information according to an embodiment of the present invention will be described with reference to FIG. 1.

도 1은 본 발명의 실시예에 따른 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템에 관한 구성도이다. 1 is a block diagram of a system for constructing road space information through linkage between image information acquired from a plurality of image sensors and location information according to an embodiment of the present invention.

도로 공간 정보 구축을 위한 시스템(100)은 이동형 플랫폼(102)에 복수의 영상 센서들(104)이 탑재되며, 센서들로부터의 데이터를 처리, 분석하여 도로 주변의 객체를 인식하고 분석하는 모바일 맵핑 시스템일 수 있다. 이러한 객체는 자동차 도로, 자전거 도로, 도보로, 하천 주위의 도로 등의 시설물일 수 있으나, 지상에 설치된 다양한 형태의 시설물을 제외하지 않는다. The system 100 for constructing road spatial information is equipped with a plurality of image sensors 104 on the mobile platform 102, and mobile mapping that recognizes and analyzes objects around the road by processing and analyzing data from the sensors. It can be a system. Such an object may be a facility such as an automobile road, a bicycle road, a footpath, or a road around a river, but does not exclude various types of facilities installed on the ground.

시스템(100)은 도 1에서와 같이, 이동형 플랫폼(102)에 탑재된 영상 센서) 세트(104), 측위 센서(106)를 구비한다. 또한, 시스템(100)은 영상 센서(104)의 촬영 동기화 등을 위한 센서 제어 모듈(108)을 더 가질 수 있다. The system 100 includes a set of image sensors (104) and a positioning sensor 106 mounted on a mobile platform 102, as in FIG. 1. In addition, the system 100 may further include a sensor control module 108 for synchronizing photographing of the image sensor 104.

아울러, 시스템(100)은 수신부(110), 객체 검출부(112), 객체 정보 분석부(114), 기하 정보부(116), 위치 보정/필터링부(118), 이동 정보부(120), 결합부(122), 자세 정보 추정부(124), 네트워크 연결/방향 정보 분석부(126), 외부 정보 입수부(128), 도화부(130)를 포함할 수 있다. 이에 더하여, 시스템(100)은 데이터베이스부(132), 표시부(134), 후처리부(136) 및 갱신부(142)를 포함할 수 있다. In addition, the system 100 includes a receiving unit 110, an object detection unit 112, an object information analysis unit 114, a geometric information unit 116, a position correction/filtering unit 118, a movement information unit 120, a combination unit ( 122), a posture information estimation unit 124, a network connection/direction information analysis unit 126, an external information acquisition unit 128, and a drawing unit 130. In addition, the system 100 may include a database unit 132, a display unit 134, a post-processing unit 136, and an update unit 142.

영상 센서 세트(104)는 이동형 플랫폼에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상 데이터 및 영상 데이터가 취득된 당시의 영상용 시간 정보를 취득하는 센서들을 복수 구비하며, 평면 영상을 생성하는 평면 영상 센서(104)보다 넓은 화각을 갖는 광역 영상 센서, 측량용 또는 비측량용 카메라, 스테레오 카메라일 있으며, 이에 제한되지 않는다. 광역 영상 센서는 파노라마 영상을 생성하며, 예컨대 어안 렌즈를 구비하여 어안 렌즈 영상을 생성하는 카메라 또는 다수개의 카메라를 용한 다중 카메라에 의해 전방위 영상을 출력하는 다중 카메라 시스템 등일 수 있다. The image sensor set 104 is equipped with a plurality of sensors that are mounted on a mobile platform to capture an image of surrounding objects, such as terrain and features, and acquire image data and time information for an image at the time the image data was acquired, A wide area image sensor having a wider field of view than the planar image sensor 104 that generates a flat image, a surveying or non-surveying camera, and a stereo camera, are not limited thereto. The wide area image sensor generates a panoramic image, and may be, for example, a camera having a fisheye lens to generate a fisheye lens image, or a multi-camera system that outputs an omnidirectional image by multiple cameras using a plurality of cameras.

측위 센서(106)는 대상물의 측위 좌표, 플폼의 위치, 자세 및 속도 등의 항법 정보를 검출하여 대상물 좌표와 관련된 측위 데이터 및 상기 측위 정보가 취득된 당시의 측위 시간 데이터를 포함하는 위치 정보를 취득하는 센서이다. 측위 센서(106)는 예컨대, 국제 위성 항법 시스템(GNSS)이 이용되는 위성 항법 장치(GPS)를 통해 플랫폼의 이동 위치를 취득하는 위치 취득 장치와 관성 측정 장치(Inertial Measurement Unit; IMU), 관성 항법 장치(Inertial Navigation System; INS)를 통해 차량의 자세를 취득하는 자세 취득 장치 등으로 구성될 수 있다.The positioning sensor 106 acquires position information including positioning data related to the object coordinates and positioning time data at the time the positioning information was acquired by detecting navigation information such as positioning coordinates of the object, position of the platform, attitude, and speed. It is a sensor. The positioning sensor 106 includes, for example, a position acquisition device for acquiring a moving position of a platform through a GPS system using an international satellite navigation system (GNSS), an inertial measurement unit (IMU), and inertial navigation. The device (Inertial Navigation System; INS) may be configured as a posture acquisition device that acquires the posture of the vehicle.

측위 센서(106)가 GNSS를 이용할 경우, 위치 정보는 측위 데이터, 측위 시간 데이터를 기본적으로 포함함과 함께, 항법위성 정보의 상태 및 갯수, 수신기의 고도 정보, 속도, 측위 정밀도, 진북 정보 등을 보조 데이터로 가질 수 있다. 이에 더하여 위치 정보는 영상 센서들(104)의 자세 정보를 추가로 포함할 수 있다. When the positioning sensor 106 uses GNSS, the location information basically includes positioning data and positioning time data, as well as the state and number of navigation satellite information, altitude information of the receiver, speed, positioning precision, and true north information. Can have as ancillary data. In addition, the location information may additionally include posture information of the image sensors 104.

영상 센서 세트(104)는 측위 센서(106)로부터 직접 통제되어 도로 주변의 객체들의 촬영을 동기화할 수도 있거나, 도 1에서와 같이 측위 센서와 유선 또는 무선으로 접속된 센서 제어 모듈(108), 즉 분기 노드(분기점)를 통해, 영상 센서 세트(104)를 구성하는 복수 개의 영상 센서(104)의 촬영 동기화를 구현할 수 있다. The image sensor set 104 may be directly controlled from the positioning sensor 106 to synchronize photographing of objects around the road, or a sensor control module 108 connected by wire or wirelessly to the positioning sensor as shown in FIG. 1, that is, Shooting synchronization of the plurality of image sensors 104 constituting the image sensor set 104 may be implemented through the branch node (branch point).

영상 센서 세트(104)를 구성하는 다수 광각 렌즈 또는 어안렌즈 영상을 동시 활용하기 위해 다수 영상 센서(104)들의 시간을 동기화하여 사용할 수 있다. In order to simultaneously utilize a plurality of wide-angle lenses or fisheye images constituting the image sensor set 104, the times of the plurality of image sensors 104 may be synchronized and used.

영상 센서(104)는 고정된 프레임에 장착되어 촬영을 수행하고, 영상 센서(104)들 간 상대적 기하 정보를 정의하여 이동형 플랫폼 상의 영상의 위치 및 자세를 분석하는데 활용될 수 있다. 또한, 촬영 동기화된 다수 광각 또는 어안렌즈 영상으로부터 전방위 영상을 생성하여 정보 구축에 활용될 수 있다. The image sensor 104 may be mounted on a fixed frame to perform photographing, and may be used to analyze the position and posture of an image on a mobile platform by defining relative geometric information between the image sensors 104. In addition, an omnidirectional image may be generated from multiple wide-angle or fish-eye lens images synchronized to be photographed and used for information construction.

다수 영상 센서(104)들의 시간 동기화를 위해 영상 센서(104)에 대한 동시 트리깅 기술을 적용할 수 있으며, 일정 시점 또는 거리에서 각 카메라에 트리깅을 요청할 수 있다. 트리깅 요청은 외부 컴퓨팅 디바이스에서 직접 영상 센서(104)에 신호를 동시에 보내거나, 하나의 분기점이 되는 아날로그 또는 디지털 장치를 별도로 설치하여 통제할 수 있다. In order to synchronize the time of the multiple image sensors 104, a simultaneous triggering technique for the image sensors 104 may be applied, and triggering may be requested from each camera at a certain point in time or at a distance. The triggering request may be controlled by simultaneously sending a signal to the image sensor 104 directly from an external computing device, or by separately installing an analog or digital device serving as a branch point.

수신부(110)는 복수 영상 센서(104)로부터 취득된 영상 정보들과 측위 센서(106)로부터 취득된 위치 정보를 수신하고, 영상 정보들을 결합하여 합성한다. The receiving unit 110 receives image information acquired from the plurality of image sensors 104 and position information acquired from the positioning sensor 106, and combines and synthesizes the image information.

영상 정보들 간 기하 정보 파악은 기본적으로 설계도면을 기반으로 이루어지나, 정확한 정보 확보를 위해서는 영상 센서(104)들 간의 캘리브레이션 기술 또는 영상 정합 기술 적용을 통해 모델 변수들을 추정할 수 있다. 영상 정보 간 기하 정보를 바탕으로 가상의 영상면에 다수 영상들을 투영시키는 방식을 통해 전방위 영상 또는 초광각영상을 인위적으로 생성할 수 있다. The geometric information between the image information is basically determined based on the design drawing, but in order to secure accurate information, model variables may be estimated through the application of a calibration technology or an image matching technology between the image sensors 104. An omni-directional image or an ultra-wide-angle image can be artificially generated by projecting multiple images onto a virtual image plane based on geometric information between image information.

기하 정보는 영상 센서(104)마다 정의된 기하 파라미터를 기초로 산출된 내부 기하 및 복수 영상 센서(104)들이 탑재된 이동형 플랫폼의 위치와 자세에 따른 상기 영상 센서(104)들 간의 기하 관계를 정의하는 외부 기하로 구성될 수 있다. The geometric information defines the internal geometry calculated based on the geometric parameters defined for each image sensor 104 and the geometric relationship between the image sensors 104 according to the position and posture of the mobile platform on which the plurality of image sensors 104 are mounted. It can be composed of external geometries.

내부 기하는 센서 자체의 고유값으로서, 플랫폼 등의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 영상 센서(104)마다의 관측 데이터의 오차이다. The internal geometry is an intrinsic value of the sensor itself, and is an error in observed data for each image sensor 104 due to a parameter maintained regardless of whether the platform or the like is moved.

영상 센서(104) 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 적어도 어느 하나일 수 있다.The geometric parameter of the image sensor 104 may be at least one of a focal length, a main point position, a lens distortion parameter, and a sensor format size.

외부 기하는 이동 중인 플랫폼의 위치와 자세, 즉 각 영상 센서(104)의 위치와 자세로 인해, 각 영상 센서(104)의 영상 정보를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식 내지 모델링을 통해 계산될 수 있다. The external geometry is observed data calculated based on parameter values that change each time the image information of each image sensor 104 is acquired due to the position and posture of the platform being moved, that is, the position and posture of each image sensor 104 Is an error of, and in this case, it can be calculated through a predetermined equation or modeling.

객체 검출부(112)는 영상 정보에 근거하여 도로 주변의 객체와 관련된 객체 정보를 기계 학습을 통해 검출하고 인식할 수 있다. The object detector 112 may detect and recognize object information related to an object around a road through machine learning based on the image information.

객체 정보는 도로 시설물과 관련하여, 대상물의 종류, 명칭, 상세 정보와 관련된 메타 데이터, 형상, 모양, 질감을 포함하는 속성 데이터를 포함할 수 있다. The object information may include attribute data including a type, a name of an object, metadata related to detailed information, a shape, a shape, and a texture in relation to a road facility.

객체는 차선, 노면 표시, 횡단보도, 정지선, 과속방지턱, 표지판, 신호등 등 지표면 상에 나타난 도로 시설물일 수 있다. The object may be a road facility that appears on the ground, such as lanes, road markings, crosswalks, stop lines, speed bumps, signs, and traffic lights.

객체 검출부(112)는 영상 정보로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. The object detector 112 may detect candidate group data related to the object identified from the image information using a machine learning technique, and sequentially apply an additional machine learning model to the detected candidate group data to recognize the object information.

객체 검출부(112)는 머신 러닝 기법 이전에, 영상 정보에서의 객체 검출 및 인식의 정확도를 향상시키는 전처리를 수행할 수 있다. 영상 정보에 대한 전처리는 예를 들어, 영상 밝기값 조정, 영상 색상 조정, 영상 흐림도 조정(blurring), 영상 선명도 조정(sharpness), 영상 질감도 분석에 따른 조정, 및 관측 기하 특성 차이로 인한 영상 센서 데이터의 이동, 회전 및/또는 스케일(scale) 변환(2차원 변환 데이터로서 Rigid-body, Affine, Similartiy 중 하나 이상을 변환) 중 적어도 어느 하나로 수행될 수도 있다. The object detector 112 may perform preprocessing to improve accuracy of object detection and recognition in image information prior to the machine learning technique. Pre-processing of image information includes, for example, image brightness adjustment, image color adjustment, image blurring, image sharpness, image texture analysis, and image due to differences in observed geometric characteristics. The sensor data may be moved, rotated, and/or scaled (transformed by at least one of Rigid-body, Affine, and Similartiy as 2D transformed data).

객체 정보 분석부(114)는 복수 영상 센서(104)의 위치와 자세로부터 추정되는 영상 정보들의 위치와 자세 정보에 따른 영상 정보들 간의 기하 관계를 정의하는 기하 정보에 근거하여, 영상 정보에 객체 정보와 위치 정보 간의 결합 관계를 분석하여 파악한다. 이에 의해, 객체 정보 분석부(114)는 기하 정보를 기반으로 객체의 공간 정보 계산을 수행한다. 기하 정보는 수신부(110)에서 설명한 것과 실질적으로 동일하다. The object information analysis unit 114 includes object information in the image information based on geometric information defining a geometric relationship between image information according to the position and posture information of image information estimated from the position and posture of the plurality of image sensors 104. It analyzes and understands the coupling relationship between and location information. Accordingly, the object information analysis unit 114 calculates spatial information of an object based on geometric information. The geometric information is substantially the same as described in the receiving unit 110.

객체 정보 분석부(114)는 기하 정보에 근거하여 객체 정보, 위치 정보와 함께 객체의 높이와 관련된 3차원 기하 정보 간의 결합 관계를 분석하여 객체 공간 정보를 생성할 수 있다. The object information analysis unit 114 may generate object space information by analyzing a coupling relationship between object information and location information and 3D geometric information related to the height of the object based on the geometric information.

다수의 영상을 통해 생성한 전방위 영상의 경우에는, 전방위 영상 생성에 사용된 기하 정보를 역이용하여 전방위 영상 내에 촬영된 객체의 공간 정보를 파악할 수 있다. 예를 들면, 계산의 편리성을 위하여 가상의 기하 모델로 대체하여 사용할 수 있으며, 가상의 기하 모델은 삼각(trigonometric), 다항식(polynomial), 투영(projective), 어파인(affine), 중심(perspective), 호모그래피(homography)기하 중 적어도 하나를 포함하는 모델을 활용할 수 있다. In the case of an omnidirectional image generated through a plurality of images, the spatial information of an object photographed in the omnidirectional image may be recognized by inversely using the geometric information used to generate the omnidirectional image. For example, for convenience of calculation, a virtual geometric model can be substituted, and the virtual geometric model is trigonometric, polynomial, projective, affine, and perspective. ), a model including at least one of a homography geometry may be used.

또한, 프로세스 중 컴퓨팅 시간을 단축시키기 위해 기하 정보들을 기반으로 하는 영상 정보 간 또는 영상-위치 정보 간 결합 정보들을 인덱스화 하고 행렬 또는 벡터 형식으로 활용할 수 있다.In addition, in order to shorten the computing time during the process, information between image information based on geometric information or combination information between image information and location information may be indexed and utilized in a matrix or vector format.

결합부(122)는 합성된 영상 정보에 객체 정보. 위치 정보 및 3차원 기하 정보를 결합하여 제 1 공간 정보를 생성할 수 있다. 제 1 공간 정보는 상술한 정보 뿐만 아니라, 영상 정보에 기하 정보도 연계할 수 있다. The combining unit 122 includes object information on the synthesized image information. First spatial information may be generated by combining location information and 3D geometric information. The first spatial information may link not only the above-described information, but also geometric information to image information.

네트워크 연결/방향 정보 분석부(126)는 복수 영상 센서(104)의 촬영 노드들 간에 연속 이동 촬영된 영상 정보에 기초하여 촬영 노드들 간의 방향 정보 및 연결 정보와 관련된 네트워크를 구성하는 제 2 공간 정보를 생성한다. The network connection/direction information analysis unit 126 is based on the image information continuously moved between the photographing nodes of the plurality of image sensors 104 and the second spatial information constituting a network related to the connection information and direction information between the photographing nodes. Create

기하 정보부(116)는, 객체 정보 분석부(114)가 기하 정보에 근거한 객체의 높이와 관련된 3 차원 기하 정보를 산출할 수 없는 경우에, 객체의 높이를 추정하고, 추정된 객체의 높이를 3 차원 기하 정보와 기하 정보에 반영한다. 결합부(122)에서 생성되는 제 1 공간 정보는 반영된 기하 정보에 기초하여 객체 정보, 위치 정보 및 3 차원 기하 정보가 결합된 형태로 가공될 수 있다. When the object information analysis unit 114 cannot calculate 3D geometric information related to the height of the object based on the geometric information, the geometric information unit 116 estimates the height of the object and calculates the estimated height of the object by 3 It is reflected in the dimensional geometric information and geometric information. The first spatial information generated by the combining unit 122 may be processed in a form in which object information, location information, and 3D geometric information are combined based on the reflected geometric information.

기하 정보부(116)는 영상 정보를 2 차원 기하 모델로 변환하고, 영상 정보 내에서 픽셀 데이터 분석을 통한 객체의 높이를 추정하거나, 영상 센서(104)의 높이에 기초한 객체의 높이를 추정할 수 있다 픽셀 데이터 분석의 상세한 설명은 도 9을 통해 후술하기로 한다. The geometric information unit 116 may convert the image information into a 2D geometric model, estimate the height of the object through pixel data analysis within the image information, or estimate the height of the object based on the height of the image sensor 104. A detailed description of pixel data analysis will be described later with reference to FIG. 9.

상술한 객체 높이의 추정 방법 외에도, 객체들의 높이 정보가 제한될 때, 객체의 제한 높이가 기준면 (Datum) 또는 지표로부터의 특정 높이 값으로 등록하여 활용할 수 있다. In addition to the above-described method of estimating the height of the object, when height information of the objects is limited, the height of the object may be registered and used as a specific height value from a datum or an index.

또한 센서의 롤, 피치 정보를 특정 값으로 가정하여 기하를 단순화시킬 수 있다. In addition, it is possible to simplify the geometry by assuming the roll and pitch information of the sensor as specific values.

또한 다수 영상 센서들(104)의 각 촬영 방향 정보를 특정 값으로 정의하고, 삼각함수 모델을 통해 객체 공간 정보를 계산할 수 있다. In addition, each photographing direction information of the plurality of image sensors 104 may be defined as a specific value, and object space information may be calculated through a trigonometric function model.

한편, 이동형 플랫폼(102)은 플랫폼(102)의 이동에 따른 회전 운동이 발생하는 부분에 설치되는 휠 센서, CAN(Controll Area Network) 통신을 구현하여 이동형 플랫폼(102)의 CAN 정보를 상기 이동형 플랫폼의 외부 장치로 전송하는 CAN 모듈 및 관성 항법 센서 중 적어도 하나를 구비할 수 있다. On the other hand, the mobile platform 102 implements a wheel sensor and a control area network (CAN) communication that is installed in a portion where rotational motion occurs according to the movement of the platform 102 to transmit CAN information of the mobile platform 102 to the mobile platform. It may be provided with at least one of a CAN module and an inertial navigation sensor that transmits to the external device of the.

이동 정보부(120)는 휠 센서로부터 회전 데이터와 시간 데이터를 수신할 수 있으며, CAN 모듈로부터 차량 CAN 정보로서 속도 데이터와 시간 데이터 등의 다양한 차량 데이터를 수신할 수 있으며, 관성 항법 센서으로부터 이동형 플랫폼(102)의 가속도, 각가속도 및 자북 중 적어도 하나의 관성 항법 데이터를 수신할 수 있다. 이동 정보부(120)는 전술한 데이터를 위치 보정/필터링부(118)에 전달할 수 있다.The movement information unit 120 may receive rotation data and time data from a wheel sensor, and may receive various vehicle data such as speed data and time data as vehicle CAN information from a CAN module, and a mobile platform ( 102) may receive inertial navigation data of at least one of acceleration, angular acceleration, and magnetic north. The movement information unit 120 may transmit the above-described data to the position correction/filtering unit 118.

이동형 플랫폼(102)에서 촬영 노드들 간 거리는 이동형 플랫폼(102)의 이동 정보를 기반으로 계산되며, 예컨대 휠의 회전 정보, 측위센서 정보 중 적어도 하나를 사용하여 제어할 수 있다. 예를 들어, 이동형 플랫폼(102)의 정보는 휠의 회전부의 특정 위치에 기록 센서를 탑재하여 회전수를 기록하거나 일정 시간 단위의 펄스 입력 수를 기록하고, 휠 둘레 길이를 이용하여 이동거리를 역계산한다. 휠 둘레 길이의 경우, 더 정확한 정보를 얻기 위해 측위 센서와 결합하여 역계산할 수도 있다. The distance between the photographing nodes in the mobile platform 102 is calculated based on the movement information of the mobile platform 102, and may be controlled using at least one of, for example, wheel rotation information and positioning sensor information. For example, the information of the mobile platform 102 is recorded by mounting a recording sensor at a specific position of the rotating part of the wheel to record the number of revolutions or the number of pulse inputs in a certain time unit, and reverse the movement distance by using the circumference of the wheel. Calculate. In the case of the wheel circumference length, it can also be inversely calculated in conjunction with a positioning sensor to obtain more accurate information.

위치 보정/필터링부(118)는 휠 센서의 회전 데이터, 시간 데이터 또는 차량 CAN 정보의 속도 데이터, 시간 데이터를 취득한다. 위치 보정/필터링부(118)는 영상 센서(104)가 촬영한 촬영 노드의 촬영 시간 데이터와 측위 센서(106)의 측위 시간 데이터가 불일치하는 경우에, 측위 센서(106)로부터 측정된 인접 측위 정보들 사이의 촬영 노드의 시간 데이터와 함께, 휠 센서의 회전 및 시간 데이터 또는 차량 CAN 정보의 속도 및 시간 데이터에 기반한 내삽 또는 외삽 모델을 활용하여 촬영 노드의 위치를 산출하여 위치 정보를 보정할 수 있다. 아울러, 위치 보정/필터링부(118)는 결합부(122)에서 생성되는 제 1 공간 정보에 반영한다. 내삽 또는 외삽 모델은 N차의 다항식을 적용할 수 있다. The position correction/filtering unit 118 acquires rotation data, time data of the wheel sensor, or speed data and time data of vehicle CAN information. The position correction/filtering unit 118 is the adjacent positioning information measured from the positioning sensor 106 when the photographing time data of the photographing node photographed by the image sensor 104 and the positioning time data of the positioning sensor 106 are inconsistent. It is possible to correct the position information by calculating the position of the photographing node by using an interpolation or extrapolation model based on the rotation and time data of the wheel sensor or the speed and time data of the vehicle CAN information, together with the time data of the photographing node between them. . In addition, the position correction/filtering unit 118 reflects the first spatial information generated by the combining unit 122. For interpolation or extrapolation models, an N-order polynomial can be applied.

이에 더하여, 위치 보정/필터링부(118)는 쵤영 노드의 위치 정보가 네트워크 연결/방향 정보 분석부(126)에서 생성되는 제 2 공간 정보에 기반한 상기 이동형 플랫폼의 이동 경로에 따른 이동 궤적 정보로부터 기준값을 초과하는 경우에, 초과한 촬영 노드의 위치 정보를 필터링하여 제거할 수도 있다. In addition, the position correction/filtering unit 118 includes a reference value from the movement trajectory information according to the movement path of the mobile platform based on the second spatial information generated by the network connection/direction information analysis unit 126 of the location information of the viewing node. If it exceeds, the location information of the excess photographing node may be filtered and removed.

이와 같이 위치 보정/필터링부(118)가 위치 정보를 보정하거 필터링하는 이유는 영상 센서(104) 내부에 자세 정보의 기록 기능이 없어, 자세 정보 추정부(124)에서 자세 정보를 추산함에 있어서 위치 정보를 이용할 경우에, 위치 정보의 오차가 자세 정보의 추정값에 오차로 전달되는데 기인한다.The reason why the position correction/filtering unit 118 corrects or filters the position information in this way is that there is no recording function of the posture information inside the image sensor 104, so that the posture information estimating unit 124 estimates the position information. In the case of using the information, it is because the error of the position information is transmitted as an error to the estimated value of the attitude information.

위치 정보의 보정과 필터링은 구분되어 수행될 수 있으며, 이들은 서로 결합되어 적용가능하다. Correction and filtering of location information may be performed separately, and these may be combined and applied.

예를 들어, 이동형 플랫폼(102) 이동의 경향성을 통해 이상치를 추출하거나 측위 오류를 보정하는 방법을 택할 수 있다. For example, a method of extracting an outlier or correcting a positioning error may be selected through the tendency of movement of the mobile platform 102.

이동형 플랫폼(102)은 일반적으로 직진성을 띄게 되며, 상술한 바와 같이, 직진성을 기반으로 특정 촬영 노드간 사이 거리를 내삽 등으로 보간할 수 있으며, 내삽 모델로는 N차의 다항식을 적용할 수 있다. The mobile platform 102 generally has straightness, and as described above, the distance between specific photographing nodes may be interpolated based on the straightness, and an N-order polynomial may be applied as an interpolation model. .

다른 실시예로는, 자세 정보 추정 시 예상 오차량을 역계산하고, 예상 오차량을 경중률로 기하 모델의 파라미터 값 추정에 적용하는 통계적 방식을 적용함으로써, 위치 정보는 보정되거나 필터링될 수 있다. In another embodiment, the position information may be corrected or filtered by applying a statistical method in which an estimated error amount is inversely calculated when estimating posture information, and the estimated error amount is applied to estimation of a parameter value of a geometric model with a weight ratio.

또 다른 실시예로서, GNSS 기반의 위치 측위 센서 외 휠센서, 관성항법센서, 차량 CAN 데이터들을 보조적으로 활용하여 활용될 수 있다. 휠 센서의 경우에는 기준 노드 사이에 대상 노드들을 보정 또는 필터링 시 각 노드 간 거리에 대한 제약조건으로 사용할 수 있다. As another embodiment, in addition to a GNSS-based position positioning sensor, a wheel sensor, an inertial navigation sensor, and vehicle CAN data may be additionally utilized. In the case of a wheel sensor, target nodes between reference nodes can be used as a constraint on the distance between each node when correcting or filtering.

또 다른 실시예로서, 위치 보정/필터링부(118)는 이동형 플랫폼(102)의 가속도, 각가속도 및 자북 중 적어도 하나의 관성 항법 데이터에 기초하여 위치 정보를 보정하거나 필터링할 수 있다.As another embodiment, the position correction/filtering unit 118 may correct or filter position information based on at least one of inertial navigation data of acceleration, angular acceleration, and magnetic north of the mobile platform 102.

또한, 위치 보정/필터링부(118)는 센서 제어 모듈(108)을 통한 측위 센서(106)의 위치 정보의 기록에 있어 정보 전달의 지연 문제를 해결하기 위해 별도의 분기점에 동기화 신호를 삽입하여 기록할 수 있다. In addition, the position correction/filtering unit 118 inserts and records a synchronization signal at a separate branch point in order to solve the problem of delay in information transmission in recording the position information of the positioning sensor 106 through the sensor control module 108 can do.

위치 보정/필터링부(118)는 동기화 신호의 빈도가 부족할 경우 시스템의 시간, 다른 센서와의 시간 관계를 통해 관심 시간 (time of interest)의 위치 정보를 역추산할 수 있다. 역추산은 기본적으로 내삽 또는 외삽의 방식으로 수행이 되며, 수학적 계산을 위한 모델로는 시간에 대한 다항식 모델을 활용할 수 있다. When the frequency of the synchronization signal is insufficient, the position correction/filtering unit 118 may inversely estimate the position information of the time of interest through the time of the system and the time relationship with other sensors. Inverse estimation is basically performed by interpolation or extrapolation, and a polynomial model for time can be used as a model for mathematical calculation.

위치 정보와 자세 정보를 결합하여 활용할 경우에는 예측-보정의 반복적인 수행을 통해 상술한 정보들을 역추산할 수도 있다. 위치 정보 등에 노이즈가 다수 존재할 경우에는 통계적 기법을 통해 해당 정보에 나타날 수 있는 오차들을 반영하여, 상술한 정보들의 필터링 또는 보정에 활용할 수 있다. When the position information and the posture information are combined and used, the above-described information may be inversely estimated through repeated prediction-correction. When there is a lot of noise in the location information, etc., errors that may appear in the information may be reflected through a statistical technique, and the above-described information may be filtered or corrected.

자세 정보 추정부(124)는 영상 센서(104)의 내부에 자세 정보에 대한 기록 기능이 없는 경우에 촬영 노드 간 위치 정보들의 조합을 통해 자세 정보를 역추산할 수 있다. The posture information estimating unit 124 may inversely estimate the posture information through a combination of location information between the photographing nodes when there is no recording function for the posture information inside the image sensor 104.

구체적으로 도 11 및 도 13을 참조하면, 자세 정보 추정부(124)는 영상 센서(104)가 촬영한 촬영 노드들(1~n) 간의 위치 정보들 간의 차분, 특정 객체를 촬영한 영상 센서(104)의 촬영 방향과 특정 객체 사이의 제 1 각도(d), 촬영한 영상 센서(104)와 인접 영상 센서(104) 간의 제 2 각도(c), 촬영 방향과 북쪽 방향 간의 제 3 각도(b)를 계산하고, 상기 차분에 기반하여 이동형 플랫폼(102)의 이동 궤적 정보를 산출하며, 이동 궤적 정보, 제 1 내지 제 3 각도(d~b)에 기초하여 영상 센서(104)의 자세 정보를 추정함과 아울러서 영상 센서(104)의 자세 정보로부터 영상 정보의 자세 정보를 추정할 수 있다. 자세 정보 추정부(124)는 영상 정보의 자세 정보를 기하 정보에 반영한다.Specifically, referring to FIGS. 11 and 13, the attitude information estimating unit 124 includes a difference between location information between the photographing nodes 1 to n photographed by the image sensor 104, and an image sensor photographing a specific object ( The first angle (d) between the photographing direction of 104) and the specific object, the second angle (c) between the photographed image sensor 104 and the adjacent image sensor 104, and the third angle (b) between the photographing direction and the north direction. ) Is calculated, the movement trajectory information of the mobile platform 102 is calculated based on the difference, and the posture information of the image sensor 104 is calculated based on the movement trajectory information and the first to third angles (d to b). In addition to estimating, the posture information of the image information may be estimated from the posture information of the image sensor 104. The posture information estimating unit 124 reflects the posture information of the image information to the geometric information.

한편, 데이터베이스부(132)는 제 1 및 제 2 공간 정보를 연계하여 도로 공간 정보를 생성하여 저장한다. Meanwhile, the database unit 132 generates and stores road space information by linking the first and second space information.

도화부(130)는 도로 공간 정보에 기초하여 소정 좌표 모델로 구성된 지도를 생성하여 데이터베이스부(132)에 저장시킨다. 이에 의해, 지도화된 통합 좌표 모델 상의 도로 공간 정보 모델은 위치 정보를 이용하여 객체 공간 정보 간의 네트워크로 구성될 수 있다. The drawing unit 130 generates a map composed of a predetermined coordinate model based on the road space information and stores it in the database unit 132. Accordingly, the road space information model on the mapped coordinate model can be configured as a network between object space information using location information.

외부 정보 입수부(128)는 영상 정보의 지역과 관련된 연속 데이터를 갖는 외부 도로 공간 정보를 수신하고, 외부 도로 공간 정보를 도로 공간 정보에 결합할 수 있다. The external information acquisition unit 128 may receive external road space information having continuous data related to an area of the image information, and combine the external road space information with the road space information.

촬영 노드들은 불연속이며, 오차를 수반함에 따라, 연속적인 데이터로서의 보정을 위하여 항공영상, 수치지도, 수치고도모델 등 기 구축된 공간 정보, 즉 외부 도로 공간 정보는 도로 네트워크 구축에 대한 보조 자료로 활용될 수 있다. As the photographing nodes are discontinuous and involve errors, spatial information previously constructed such as aerial images, digital maps, and numerical models for correction as continuous data, that is, external road space information, is used as auxiliary data for road network construction. Can be.

위성 또는 항공에서 촬영된 영상들을 사용할 경우 위성 등의 촬영 해상도가 지상의 이동형 플랫폼(102)에서 촬영한 영상과 상이하기 때문에 픽셀값들의 변화양상에 대한 통계적 분석으로 서로 다른 영상에 나타난 동일 객체의 매칭에 사용할 수 있다. In the case of using images taken from satellite or aerial, the resolution of the satellite, etc. is different from the image taken from the mobile platform 102 on the ground, so the statistical analysis of the pattern of changes in pixel values matches the same object appearing in different images. Can be used for

기구축된 외부 도로 공간 정보 또는 네트워크를 제 1 공간 정보에 포함된 영상 정보에 역투영하여 갱신 부분을 확인하고 수정할 수 있다.The updated part may be checked and corrected by back-projecting the structured external road space information or network onto the image information included in the first spatial information.

갱신부(142)는 데이터베이스부(132)에 저장된 기존 도로 공간 정보와 신규로 구축된 도로 공간 정보에 속한 기하 정보와 위치 정보에 기초하여 통합 기하 모델로 기존 및 신규 도로 공간 정보를 변환하고, 기존 도로 공간 정보 및 도로 공간 정보에 속한 제 1 공간 정보를 영상 정합으로 비교한다. 그 결과, 갱신부(142)는 객체 정보의 변화가 있는 경우에, 도로 공간 정보로 기존 도로 공간 정보를 갱신하여 지도를 변경할 수 있다. The update unit 142 converts the existing and new road space information into an integrated geometric model based on the existing road space information stored in the database unit 132 and the geometric information and location information belonging to the newly constructed road space information. The road space information and the first space information belonging to the road space information are compared by image matching. As a result, when there is a change in the object information, the updater 142 may update the existing road space information with the road space information to change the map.

갱신부(142)는 3차원 기하 정보와 같은 3차원 공간 정보가 부재하여 확보가능한 영상-위치 결합정보가 영상 위치 및 방향 값만 존재할 경우, 기하를 2차원으로 단순화하여 분석할 수 있으며, 이는 측위 센서(106)의 위치정보를 결합하여 지도화할 때 사용한 기법과 동일하게 이루어질 수 있다. The update unit 142 can simplify and analyze the geometry into two dimensions when the image-position combination information that can be secured due to the absence of three-dimensional spatial information such as three-dimensional geometric information exists only with the image position and direction value, which is a positioning sensor. It can be done in the same way as the technique used to map by combining the location information of (106).

후처리부(136)는 데이터베이스부(132)에 저장된 도로 공간 정보로부터 사용자가 희망하는 방식 내지 관심지역(POI; Point of Interest)의 영상을 추출하는 등이 요청되는 경우에, 요청에 부합되도록 영상 정보를 편집하는 영상 정보 편집부(138) 및 위치 정보를 사용자가 희망한 영상 변환 방식에 맞춰 위치 정보를 편집하는 위치 정보 편집부(140)를 구비할 수 있다.The post-processing unit 136 provides image information to meet the request when a request for extracting an image of a user's desired method or a point of interest (POI) from the road space information stored in the database unit 132 is requested. An image information editing unit 138 for editing and a location information editing unit 140 for editing location information according to an image conversion method desired by the user may be provided.

이하, 도 1 내지 도 7을 참조하여, 본 발명의 실시예들에 따른 복수 영상 센서(104)로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 방법에 대해 설명하기로 한다.Hereinafter, a method for constructing road space information through linkage between image information acquired from a plurality of image sensors 104 and location information according to embodiments of the present invention will be described with reference to FIGS. 1 to 7.

도 2는 본 발명의 다른 실시예에 따른 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 방법에 관한 순서도이고, 도 3은 복수의 영상 센서에서 취득되는 영상 정보와 이들의 결합을 도시한 도면이다. 도 4는 영상 정보들로부터 객체를 인식하여 객체 정보를 인식하는 과정을 설명한 도면이며, 도 5는 도로 공간 정보의 생성 과정을 설명한 도면이다. 도 6은 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이며, 도 7은 외부 도로 공간 정보가 도로 공간 정보에 결합하여 도로 공간 정보를 보정하는 과정을 설명한 도면이다. FIG. 2 is a flowchart of a method for constructing road space information through linkage between image information acquired from a plurality of image sensors and location information according to another embodiment of the present invention, and FIG. 3 is a flow chart showing image information acquired from a plurality of image sensors and It is a diagram showing a combination of these. 4 is a diagram illustrating a process of recognizing object information by recognizing an object from image information, and FIG. 5 is a diagram illustrating a process of generating road space information. 6 is a flowchart illustrating a method for constructing road space information according to another embodiment of the present invention, and FIG. 7 is a diagram illustrating a process of correcting road space information by combining external road space information with road space information.

먼저, 수신부(110)는 복수 영상 센서(104)로부터의 영상 정보 및 측위 센서(106)로부터의 위치 정보를 수신한다(S205). First, the receiving unit 110 receives image information from the plurality of image sensors 104 and location information from the positioning sensor 106 (S205).

수신부(110)는 도 3과 같이, 이동형 플랫폼(102)에 탑재된 전방위 영상 센서(104)들이 촬영한 전방, 후방, 좌측 및 우측 영상 정보를 수신한다. The receiving unit 110 receives front, rear, left and right image information captured by the omnidirectional image sensors 104 mounted on the mobile platform 102, as shown in FIG. 3.

다음으로, 수신부(110)는 영상 정보들을 결합하여 합성하고. 객체 검출부(112)는 합성된 영상 정보들로부터 객체를 검출하여 객체 정보를 생성한다(S210). Next, the receiving unit 110 combines and synthesizes the image information. The object detector 112 generates object information by detecting an object from the synthesized image information (S210).

영상 정보들 간 기하 정보 파악은 기본적으로 설계도면을 기반으로 이루어지나, 정확한 정보 확보를 위해서는 영상 센서(104)들 간의 캘리브레이션 기술 또는 영상 정합 기술 적용을 통해 모델 변수들을 추정할 수 있다. 수신부(110)는 도 3과 같이, 영상 정보 간 기하 정보를 바탕으로 가상의 영상면에 다수 영상들을 투영시키는 방식을 통해 전방위 영상 또는 초광각영상을 인위적으로 생성할 수 있다. The geometric information between the image information is basically determined based on the design drawing, but in order to secure accurate information, model variables may be estimated through the application of a calibration technology or an image matching technology between the image sensors 104. As shown in FIG. 3, the receiver 110 may artificially generate an omni-directional image or an ultra-wide-angle image by projecting multiple images onto a virtual image plane based on geometric information between image information.

기하 정보는 영상 센서(104)마다 정의된 기하 파라미터를 기초로 산출된 내부 기하 및 복수 영상 센서(104)들이 탑재된 이동형 플랫폼의 위치와 자세에 따른 상기 영상 센서(104)들 간의 기하 관계를 정의하는 외부 기하로 구성될 수 있다.The geometric information defines the internal geometry calculated based on the geometric parameters defined for each image sensor 104 and the geometric relationship between the image sensors 104 according to the position and posture of the mobile platform on which the plurality of image sensors 104 are mounted. It can be composed of external geometries.

객체 검출부(112)는 예컨대 도 4와 같이, 전방, 좌측, 후방 영상 정보에 근거하여 도로 주변의 객체와 관련된 객체 정보를 기계 학습을 통해 검출하고 인식할 수 있다. The object detection unit 112 may detect and recognize object information related to an object around a road through machine learning based on front, left, and rear image information, as illustrated in FIG. 4, for example.

객체 정보는 도로 시설물과 관련하여, 대상물의 종류, 명칭, 상세 정보와 관련된 메타 데이터, 형상, 모양, 질감을 포함하는 속성 데이터를 포함할 수 있다. The object information may include attribute data including a type, a name of an object, metadata related to detailed information, a shape, a shape, and a texture in relation to a road facility.

객체는 차선, 노면 표시, 횡단보도, 정지선, 과속방지턱, 표지판, 신호등 등 지표면 상에 나타난 도로 시설물일 수 있다.The object may be a road facility that appears on the ground, such as lanes, road markings, crosswalks, stop lines, speed bumps, signs, and traffic lights.

객체 정보 분석부(114)는 복수 영상 센서(104)의 위치와 자세로부터 추정되는 영상 정보들의 위치와 자세 정보에 따른 영상 정보들 간의 기하 관계를 정의하는 기하 정보에 근거하여, 영상 정보에 객체 정보와 위치 정보 간의 결합 관계를 분석하고, 결합부(122)는 영상 정보에 객체 정보, 위치 정보 및 3차원 기하 정보를 결합하는 제 1 공간 정보를 생성한다(S215).The object information analysis unit 114 includes object information in the image information based on geometric information defining a geometric relationship between image information according to the position and posture information of image information estimated from the position and posture of the plurality of image sensors 104. The coupling relationship between the and the location information is analyzed, and the combining unit 122 generates first spatial information that combines the object information, the location information, and the 3D geometric information with the image information (S215).

다수의 영상을 통해 생성한 전방위 영상의 경우에는, 전방위 영상 생성에 사용된 기하 정보를 역이용하여 전방위 영상 내에 촬영된 객체의 공간 정보를 파악할 수 있다. 예를 들면, 계산의 편리성을 위하여 가상의 기하 모델로 대체하여 사용할 수 있으며, 가상의 기하 모델은 삼각(trigonometric), 다항식(polynomial), 투영(projective), 어파인(affine), 중심(perspective), 호모그래피(homography)기하 중 적어도 하나를 포함하는 모델을 활용할 수 있다. In the case of an omnidirectional image generated through a plurality of images, the spatial information of an object photographed in the omnidirectional image may be recognized by inversely using the geometric information used to generate the omnidirectional image. For example, for convenience of calculation, a virtual geometric model can be substituted, and the virtual geometric model is trigonometric, polynomial, projective, affine, and perspective ), a model including at least one of a homography geometry may be used.

또한, 프로세스 중 컴퓨팅 시간을 단축시키기 위해 기하 정보들을 기반으로 하는 영상 정보 간 또는 영상-위치 정보 간 결합 정보들을 인덱스화 하고 행렬 또는 벡터 형식으로 활용할 수 있다.In addition, in order to shorten the computing time during the process, information between image information based on geometric information or combination information between image information and location information may be indexed and utilized in a matrix or vector format.

결합부(122)는 합성된 영상 정보에 객체 정보. 위치 정보 및 3차원 기하 정보를 결합하여 제 1 공간 정보를 생성할 수 있다. 제 1 공간 정보는 상술한 정보 뿐만 아니라, 영상 정보에 기하 정보도 연계할 수 있다. The combining unit 122 includes object information on the synthesized image information. First spatial information may be generated by combining location information and 3D geometric information. The first spatial information may link not only the above-described information, but also geometric information to image information.

다음으로, 네트워크 연결/방향 정보 분석부(126)는 복수 영상 센서(104)의 촬영 노드들 간에 연속 이동 촬영된 영상 정보에 기초하여 촬영 노드들 간의 방향 정보 및 연결 정보와 관련된 네트워크를 구성하는 제 2 공간 정보를 생성한다(S220).Next, the network connection/direction information analysis unit 126 configures a network related to direction information and connection information between the photographing nodes based on the image information continuously moving and photographed between the photographing nodes of the plurality of image sensors 104. 2 Generate spatial information (S220).

이어서, 데이터베이스부(132)는 제 1 및 제 2 공간 정보를 연계하여 도로 공간 정보를 생성하여 저장한다(S225). 도 5는 각 객체마다 도로 공간 정보로 연계된 것을 예시하고 있다. Subsequently, the database unit 132 generates and stores road space information by linking the first and second space information (S225). 5 illustrates that each object is linked with road space information.

계속해서, 도화부(130)는 도로 공간 정보에 기초하여 소정 좌표 모델로 구성된 지도를 생성하여 데이터베이스부(132)에 저장한다(S230).Subsequently, the drawing unit 130 generates a map composed of a predetermined coordinate model based on the road space information and stores it in the database unit 132 (S230).

이에 의해, 지도화된 통합 좌표 모델 상의 도로 공간 정보 모델은 도 7에서와 같이, 위치 정보를 이용하여 객체 공간 정보 간의 네트워크로 구성될 수 있다. Accordingly, as shown in FIG. 7, the road space information model on the mapped integrated coordinate model can be configured as a network between object space information using location information.

도 2의 과정에 후속하여 도 6의 과정이 진행될 수 있으며, 이는 촬영 노드들은 불연속이며, 오차를 수반함에 따라, 연속적인 데이터로서의 보정을 행하는 과정이다. The process of FIG. 6 may be performed following the process of FIG. 2, which is a process of performing correction as continuous data as the photographing nodes are discontinuous and cause errors.

도 6을 참조하면, 외부 정보 입수부(128)는 영상 정보의 지역과 관련된 연속 데이터를 갖는 외부 도로 공간 정보를 수신한다(S605). Referring to FIG. 6, the external information acquisition unit 128 receives external road space information having continuous data related to an area of the image information (S605).

외부 정보 입수부(128)는 외부 도로 공간 정보를 도로 공간 정보에 결합한다(S610).The external information acquisition unit 128 combines the external road space information with the road space information (S610).

도 7에서와 같이, 촬영 노드들은 불연속이며, 오차를 수반함에 따라, 연속적인 데이터로써의 보정을 위하여 항공영상, 수치지도, 수치고도모델 등 기 구축된 공간 정보, 즉 외부 도로 공간 정보는 도로 네트워크 구축에 대한 보조 자료로 활용될 수 있다. As shown in FIG. 7, the photographing nodes are discontinuous, and due to errors, spatial information previously constructed such as aerial images, digital maps, and numerical models for correction as continuous data, that is, external road space information is a road network. It can be used as an auxiliary material for construction.

위성 또는 항공에서 촬영된 영상들을 사용할 경우 위성 등의 촬영 해상도가 지상의 이동형 플랫폼(102)에서 촬영한 영상과 상이하기 때문에 픽셀값들의 변화양상에 대한 통계적 분석으로 서로 다른 영상에 나타난 동일 객체의 매칭에 사용할 수 있다. In the case of using images taken from satellite or aerial, the resolution of the satellite, etc. is different from the image taken from the mobile platform 102 on the ground, so the statistical analysis of the pattern of changes in pixel values matches the same object appearing in different images. Can be used for

기구축된 외부 도로 공간 정보 또는 네트워크를 제 1 공간 정보에 포함된 영상 정보에 역투영하여 갱신 부분을 확인하고 수정할 수 있다.The updated part may be checked and corrected by back-projecting the structured external road space information or network onto the image information included in the first spatial information.

본 실시예에 따르면, 복수의 영상 센서(104)로부터 취득한 복수의 영상 상에 표출되는 객체의 위치정보와 도로의 네트워크 등 공간정보 구축을 위한 구체적인 솔루션을 제시할 수 있다. 이에 더하여, 영상 센서(104) 외부에 설치된 측위 센서를 통해 수집한 위치 정보들과 영상정보를 연계하여 해석함으로써, 도로 공간 정보상에서 연속성을 갖는 형태로 표출되는 도로 네트워크 생성을 용이하게 구축할 수 있다. According to the present embodiment, a specific solution for constructing spatial information such as location information of an object and a network of roads displayed on a plurality of images acquired from a plurality of image sensors 104 can be presented. In addition, by linking and analyzing the location information collected through the positioning sensor installed outside the image sensor 104 and the image information, it is possible to easily construct a road network that is expressed in a form having continuity on the road spatial information. .

이하, 도 1, 도 8 및 도 9를 참조하여, 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 대해 설명하기로 한다.Hereinafter, a method for constructing road space information according to another embodiment of the present invention will be described with reference to FIGS. 1, 8 and 9.

도 8은 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이며, 도 9는 영상 정보 내에서 픽셀 데이터 분석을 통한 객체 높이를 추정하는 과정을 설명하는 도면이다. 8 is a flowchart illustrating a method for constructing road space information according to another embodiment of the present invention, and FIG. 9 is a diagram illustrating a process of estimating an object height through pixel data analysis in image information.

본 실시예는 도 2의 과정에서 객체 정보 분석부(114)가 기하 정보에 근거한 객체의 높이와 관련된 3 차원 기하 정보를 산출할 수 없는 경우에 수행되며, 기하 정보부(116)에서 수행하는 3차원 기하 정보 산출 방법들 중 일부에 관해 도 8을 통해 기술한다. 그러나, 본 실시예에서 기하 정보부(116)의 다른 방법을 배제하지 않는다. This embodiment is performed when the object information analysis unit 114 cannot calculate three-dimensional geometric information related to the height of an object based on the geometric information in the process of FIG. 2, and is performed by the geometric information unit 116. Some of the geometric information calculation methods will be described with reference to FIG. 8. However, other methods of the geometric information unit 116 are not excluded in this embodiment.

도 8을 참조하면, 기하 정보부(116)는, 객체 정보 분석부(114)가 기하 정보에 근거한 객체의 높이와 관련된 3 차원 기하 정보를 산출할 수 없는 경우에, 영상 정보를 2 차원 기하 모델로 변환한다(S805). Referring to FIG. 8, when the object information analysis unit 114 cannot calculate 3D geometric information related to the height of the object based on the geometric information, the geometric information unit 116 converts the image information into a 2D geometric model. It converts (S805).

다음으로, 기하 정보부(116)는 영상 정보 내에서 픽셀 데이터 분석을 통한 객체(202)의 높이를 추정하거나, 영상 센서(104)의 높이에 기초한 객체(202)의 높이를 추정한다(S810). Next, the geometric information unit 116 estimates the height of the object 202 through pixel data analysis in the image information, or estimates the height of the object 202 based on the height of the image sensor 104 (S810).

도 9에서와 같이, 영상 데이터 내의 픽셀을 수평 및 수직 픽셀 별로 분석하여 영상 센서(104) 높이, 영상 센서(104)로부터 수평선과 객체 최고지점 간의 각도(h)와 영상 센서(104)의 중심 초점(f)로부터의 연장선과 수평선 간의 각도(a)를 산출하고, 이를 기초로 픽셀 개수, 소실점 등을 감안하여 객체의 높이를 추정한다. 이에 따라 3차원 기하 정보를 수집한다. 9, by analyzing pixels in the image data for each horizontal and vertical pixel, the height of the image sensor 104, the angle h between the horizontal line and the highest point of the object from the image sensor 104, and the center focus of the image sensor 104 The angle (a) between the extended line from (f) and the horizontal line is calculated, and based on this, the height of the object is estimated in consideration of the number of pixels and vanishing points. Accordingly, 3D geometric information is collected.

이어서, 기하 정보부(116)는 기하 정보에 반영하여 3차원 기하 정보를 추정함과 아울러서, 결합부(122)는 이에 따른 제 1 공간 정보를 생성한다(S815).Subsequently, the geometric information unit 116 estimates the 3D geometric information by reflecting it on the geometric information, and the combining unit 122 generates first spatial information accordingly (S815).

이하, 도 1, 도 10 및 도 11을 참조하여, 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 대해 설명하기로 한다.Hereinafter, a method for constructing road space information according to another embodiment of the present invention will be described with reference to FIGS. 1, 10 and 11.

도 10은 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이고, 도 11은 촬영 노드의 위치 정보를 보정하는 과정을 설명하기 위한 도면이다. 10 is a flowchart illustrating a method for constructing road space information according to another embodiment of the present invention, and FIG. 11 is a diagram for explaining a process of correcting location information of a photographing node.

본 실시예는 도 2의 과정에서 영상 센서(104)가 촬영한 촬영 노드와 측위 센서(106)의 수신 지점이 서로 불일치하는 경우에, 촬영 노드의 위치 정보를 촬영 노드의 측위 데이터로 보정하거나, 자세 정보 추정부(124)에서 자세 정보를 추산함에 있어서 위치 정보를 이용할 경우에, 위치 정보의 오차가 자세 정보의 추정값에 오차를 최소화하기 위함이다. In the present embodiment, when the photographing node photographed by the image sensor 104 and the reception point of the positioning sensor 106 are inconsistent with each other in the process of FIG. 2, the position information of the photographing node is corrected with the positioning data of the photographing node, When the posture information estimating unit 124 uses the location information in estimating the posture information, the error of the location information is to minimize the error in the estimated value of the posture information.

위치 보정/필터링부(118)에서 수행하는 보정과 필터링 중 일부에 관해 도 10을 통해 기술한다. 그러나, 본 실시예에서 위치 보정/필터링부(118)의 다른 방법을 배제하지 않는다. Some of correction and filtering performed by the position correction/filtering unit 118 will be described with reference to FIG. 10. However, other methods of the position correction/filtering unit 118 in this embodiment are not excluded.

도 10을 참조하면, 위치 보정/필터링부(118)는 휠 센서의 회전 데이터, 시간 데이터 또는 상기 CAN 정보의 속도 데이터, 상기 시간 데이터를 이동 정보부(120)로부터 취득한다(S1005).Referring to FIG. 10, the position correction/filtering unit 118 acquires rotation data of the wheel sensor, time data, or speed data of the CAN information, and the time data from the movement information unit 120 (S1005).

위치 보정/필터링부(118)는 도 11에서와 같이, 영상 센서(104)가 촬영한 촬영 노드(1~n)의 촬영 시간 데이터와 측위 센서(106)의 측위 시간 데이터가 불일치하는 경우에, 측위 센서(106)로부터 측정된 인접 측위 정보들 사이의 촬영 노드의 시간 데이터와 함께, 휠 센서의 회전 및 시간 데이터 또는 CAN 정보의 속도 및 시간 데이터에 기반한 내삽 또는 외삽 모델을 활용하여 상기 촬영 노드의 위치를 산출한다(S1010). 내삽 또는 외삽 모델은 N차의 다항식을 적용할 수 있다. 이에 따라, 위치 보정/필터링부(118)는 위치 정보를 보정하고 제 1 공간 정보에 반영한다. 이에 의해, 제 1 공간 정보 생성시에 기여한다. As shown in FIG. 11, the position correction/filtering unit 118 is in the case where the time data of the photographing nodes 1 to n photographed by the image sensor 104 and the time data of the positioning sensor 106 are inconsistent, Using the interpolation or extrapolation model based on the rotation and time data of the wheel sensor or the speed and time data of CAN information, together with the time data of the photographing node between adjacent positioning information measured from the positioning sensor 106, The position is calculated (S1010). For interpolation or extrapolation models, an N-order polynomial can be applied. Accordingly, the position correction/filtering unit 118 corrects the position information and reflects it in the first spatial information. This contributes to the generation of the first spatial information.

다음으로, 위치 보정/필터링부(118)는 쵤영 노드의 위치 정보가 네트워크 연결/방향 정보 분석부(126)에서 생성되는 제 2 공간 정보에 기반한 이동형 플랫폼(102)의 이동 경로에 따른 이동 궤적 정보(도 11의 "플랫폼 이동 경로")로부터 기준값을 초과하는지를 판단하여(S1015), 초과한 촬영 노드의 위치 정보를 필터링하여 제거한다(S1020)Next, the location correction/filtering unit 118 is the movement trajectory information according to the movement path of the mobile platform 102 based on the second spatial information generated by the network connection/direction information analysis unit 126 where the location information of the viewing node is It is determined whether the reference value is exceeded from (“Platform Movement Path” in FIG. 11) (S1015), and the location information of the excess photographing node is filtered and removed (S1020).

이하, 도 1, 도 11, 도 12, 13을 참조하여, 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 대해 설명하기로 한다.Hereinafter, a method for constructing road space information according to another embodiment of the present invention will be described with reference to FIGS. 1, 11, 12, and 13.

도 12는 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이고, 도 13은 영상 정보의 자세 정보를 추정하는 과정을 설명하기 위한 도면이다.12 is a flowchart illustrating a method for constructing road space information according to another embodiment of the present invention, and FIG. 13 is a diagram for explaining a process of estimating posture information of image information.

본 실시예는 도 2의 과정에서 영상 센서(104)의 내부에 자세 정보에 대한 기록 기능이 없는 경우에 촬영 노드 간 위치 정보들의 조합을 통해 자세 정보를 역추산하는 경우에 적용된다. 자세 정보 추정부(124)에서 수행하는 자세 정보 추정 방법들 중 일부에 관해 도 12를 통해 기술한다. 그러나, 본 실시예에서 기하 정보부(116)의 다른 방법을 배제하지 않는다. This embodiment is applied to the case of inverse estimation of posture information through a combination of position information between photographing nodes when there is no recording function for posture information inside the image sensor 104 in the process of FIG. 2. Some of the posture information estimation methods performed by the posture information estimating unit 124 will be described with reference to FIG. 12. However, other methods of the geometric information unit 116 are not excluded in this embodiment.

도 11 내지 도 13을 참조하면, 자세 정보 추정부(124)는 영상 센서(104)가 촬영한 촬영 노드들(1~n) 간의 위치 정보들 간의 차분, 특정 객체를 촬영한 영상 센서(104)의 촬영 방향과 특정 객체 사이의 제 1 각도(d), 촬영한 영상 센서(104)와 인접 영상 센서(104) 간의 제 2 각도(c), 촬영 방향과 북쪽 방향 간의 제 3 각도(b)를 계산한다(S1205), 11 to 13, the posture information estimating unit 124 includes a difference between positional information between the photographing nodes 1 to n photographed by the image sensor 104, and the image sensor 104 photographing a specific object. The first angle (d) between the photographing direction of and a specific object, the second angle (c) between the photographed image sensor 104 and the adjacent image sensor 104, and the third angle (b) between the photographing direction and the north direction. Calculate (S1205),

다음으로, 자세 정보 추정부(124)는 상기 차분에 기반하여 이동형 플랫폼(102)의 이동 궤적 정보(도 11의 "플랫폼 이동 경로")를 산출한다(S1210), Next, the posture information estimating unit 124 calculates movement trajectory information ("platform movement path" in FIG. 11) of the mobile platform 102 based on the difference (S1210),

이어서, 자세 정보 추정부(124)는 이동 궤적 정보, 제 1 내지 제 3 각도(d~b)에 기초하여 영상 센서(104)의 자세 정보를 추정함과 아울러서 영상 센서(104)의 자세 정보로부터 영상 정보의 자세 정보를 추정한다(S1215). Subsequently, the posture information estimating unit 124 estimates the posture information of the image sensor 104 based on the movement trajectory information and the first to third angles d to b, and from the posture information of the image sensor 104 The posture information of the image information is estimated (S1215).

다음으로, 자세 정보 추정부(124)는 영상 정보의 자세 정보를 기하 정보에 반영한다(S1220). 이에 의해, 제 1 공간 정보의 생성에 기여한다. Next, the posture information estimating unit 124 reflects the posture information of the image information to the geometric information (S1220). This contributes to the generation of the first spatial information.

이하, 도 1, 도 14 및 도 15를 참조하여, 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 대해 설명하기로 한다.Hereinafter, a method for constructing road space information according to another embodiment of the present invention will be described with reference to FIGS. 1, 14 and 15.

도 14는 본 발명의 또 다른 실시예에 따른 도로 공간 정보 구축을 위한 방법에 관한 순서도이고, 도 15는 도로 공간 정보의 갱신 과정을 설명하기 위한 도면이다.14 is a flowchart illustrating a method for constructing road space information according to another embodiment of the present invention, and FIG. 15 is a diagram illustrating a process of updating road space information.

먼저, 갱신부(142)는 데이터베이스부(132)에 저장된 기존 도로 공간 정보와 신규로 구축된 도로 공간 정보에 속한 기하 정보와 위치 정보에 기초하여 통합 기하 모델로 기존 및 신규 도로 공간 정보를 변환한다(S1405). First, the update unit 142 converts the existing and new road space information into an integrated geometric model based on the existing road space information stored in the database unit 132 and the geometric information and location information belonging to the newly constructed road space information. (S1405).

다음으로, 갱신부(142)는 기존 도로 공간 정보 및 신규의 도로 공간 정보에 속한 제 1 공간 정보를 영상 정합으로 비교한다(S1410). Next, the updater 142 compares the existing road space information and the first space information belonging to the new road space information by image matching (S1410).

그 결과, 갱신부(142)는 객체 정보의 변화가 있는 경우에(S1415), 도 15에 도시된 바와 같이, 신규의 도로 공간 정보로 기존 도로 공간 정보를 갱신하여 지도를 변경한다. As a result, when there is a change in the object information (S1415), the updater 142 updates the existing road space information with new road space information to change the map as shown in FIG. 15.

3차원 공간정보가 부재하여 확보가능한 영상-위치 결합정보가 영상 위치 및 방향 값만 존재할 경우에는 기하를 2차원으로 단순화하여 분석할 수 있으며, 이는 측위센서의 위치정보를 결합하여 지도화할 때 사용한 기법과 동일하게 이루어질 수 있다. If the image-location combination information that can be secured due to the absence of 3D spatial information exists only with the image position and direction value, the geometry can be simplified and analyzed in two dimensions, which is the technique used to map by combining the position information of the positioning sensor. The same can be done.

도 1에 도시된 장치를 구성하는 구성요소 또는 도 2 내지 도 15에 도시된 실시예들에 따른 단계는 그 기능을 실현시키는 프로그램의 형태로 컴퓨터 판독가능한 기록 매체에 기록될 수 있다. 여기에서, 컴퓨터 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터에서 판독할 수 있는 기록 매체를 말한다. 이러한 기록 매체 중 컴퓨터로부터 분리 가능한 것으로서는, 예를 들면, 휴대용 스토리지(portalbe storage), 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 메모리 카드 등이 있다. 또한, 모바일 디바이스 및 컴퓨터에 고정된 기록 매체로서 SSD(Solid State Disk), 하드디스크나 ROM 등이 있다.Components constituting the apparatus shown in Fig. 1 or steps according to the embodiments shown in Figs. 2 to 15 may be recorded on a computer-readable recording medium in the form of a program for realizing the function. Here, the computer-readable recording medium refers to a recording medium that can be read by a computer by storing information such as data or programs by electrical, magnetic, optical, mechanical, or chemical action. Examples of such recording media that can be separated from a computer include portable storage, flexible disks, magneto-optical disks, CD-ROMs, CD-R/Ws, DVDs, DATs, and memory cards. In addition, as recording media fixed to mobile devices and computers, there are solid state disks (SSDs), hard disks, and ROMs.

또한, 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. Further, in the above, even if all the constituent elements constituting the embodiments of the present invention are described as being combined and operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined and operated in one or more. In addition, all of the components may be implemented as one independent hardware, but some or all of the components are selectively combined to provide a program module that performs some or all of the combined functions in one or a plurality of hardware. It may be implemented as a computer program having.

이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.Although the present invention has been described in detail through exemplary embodiments above, a person of ordinary skill in the art to which the present invention pertains can make various modifications to the above-described embodiments without departing from the scope of the present invention. I will understand. Therefore, the scope of the present invention is limited to the described embodiments and should not be determined, and should be determined by all changes or modified forms derived from this claim and the concept of equality as well as the claims to be described later.

Claims (10)

복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 위한 도로 공간 정보 구축을 위한 시스템에 있어서,
이동형 플랫폼에 탑재된 복수 영상 센서로부터 취득된 영상 정보들과 측위 센서로부터 취득된 위치 정보를 수신하고, 상기 영상 정보들을 결합하여 합성하는 수신부;
상기 합성된 영상 정보들로부터 객체를 검출하여 객체 정보를 생성하는 객체 검출부;
상기 복수 영상 센서의 위치와 자세로부터 추정되는 상기 영상 정보들의 위치와 자세 정보에 따른 상기 영상 정보들 간의 기하 관계를 정의하는 기하 정보에 근거하여, 상기 영상 정보에 상기 객체 정보와 상기 위치 정보 간의 결합 관계를 분석하는 객체 정보 분석부;
상기 합성된 영상 정보에 상기 객체 정보와 상기 위치 정보를 결합하여 제 1 공간 정보를 생성하는 결합부;
상기 복수 영상 센서의 촬영 노드들 간에 연속 이동 촬영된 영상 정보에 기초하여 상기 촬영 노드들 간의 방향 정보 및 연결 정보와 관련된 네트워크를 구성하는 제 2 공간 정보를 생성하는 네트워크 연결/방향 정보 분석부;
상기 제 1 및 제 2 공간 정보를 연계하여 도로 공간 정보를 생성하여 저장하는 데이터베이스부; 및
상기 도로 공간 정보에 기초하여 소정 좌표 모델로 구성된 지도를 생성하여 상기 데이터베이스부에 저장시키는 도화부를 포함하되,
상기 영상 센서가 촬영한 촬영 노드들 간의 위치 정보들 간의 차분, 특정 객체를 촬영한 영상 센서의 촬영 방향과 상기 특정 객체 사이의 제 1 각도, 상기 촬영한 영상 센서와 인접 영상 센서 간의 제 2 각도, 상기 촬영 방향과 북쪽 방향 간의 제 3 각도를 계산하고, 상기 차분에 기반하여 상기 이동형 플랫폼의 이동 궤적 정보를 산출하며, 상기 이동 궤적 정보, 상기 제 1 내지 제 3 각도에 기초하여 상기 영상 센서의 자세 정보를 추정함과 아울러서 상기 영상 센서의 자세 정보로부터 상기 영상 정보의 자세 정보를 추정하고, 상기 영상 정보의 자세 정보를 상기 기하 정보에 반영하는 자세 정보 추정부를 포함하는 도로 공간 정보 구축을 위한 시스템.
In a system for constructing road space information for linkage between image information acquired from multiple image sensors and location information,
A receiver configured to receive image information acquired from a plurality of image sensors mounted on a mobile platform and position information acquired from a positioning sensor, and combine and synthesize the image information;
An object detector for generating object information by detecting an object from the synthesized image information;
Combining the object information and the location information with the image information based on geometric information defining a geometric relationship between the image information according to the position and posture information of the image information estimated from the position and posture of the plurality of image sensors An object information analysis unit that analyzes the relationship;
A combiner configured to generate first spatial information by combining the object information and the location information with the synthesized image information;
A network connection/direction information analysis unit for generating second spatial information constituting a network related to the direction information and connection information between the photographing nodes based on image information continuously moving and photographed between the photographing nodes of the plurality of image sensors;
A database unit for generating and storing road space information by linking the first and second space information; And
And a drawing unit for generating a map composed of a predetermined coordinate model based on the road space information and storing the map in the database unit,
The difference between the positional information between the photographing nodes photographed by the image sensor, a photographing direction of the image sensor photographing a specific object and a first angle between the specific object, a second angle between the photographed image sensor and an adjacent image sensor, Calculate a third angle between the photographing direction and the north direction, calculate movement trajectory information of the mobile platform based on the difference, and posture of the image sensor based on the movement trajectory information and the first to third angles In addition to estimating information, a system for constructing road space information including a posture information estimation unit that estimates posture information of the image information from posture information of the image sensor, and reflects the posture information of the image information to the geometric information.
제 1 항에 있어서,
상기 객체 정보 분석부는 상기 기하 정보에 근거하여 상기 객체 정보, 상기 위치 정보와 함께 상기 객체의 높이와 관련된 3 차원 기하 정보 간의 결합 관계를 분석하고,
상기 결합부에서 생성하는 상기 제 1 공간 정보는 상기 3 차원 기하 정보를 더 결합하는 도로 공간 정보 구축을 위한 시스템.
The method of claim 1,
The object information analysis unit analyzes a coupling relationship between the object information and the location information and 3D geometric information related to the height of the object based on the geometric information,
The first spatial information generated by the combining unit is a system for constructing road spatial information that further combines the 3D geometric information.
제 1 항에 있어서,
상기 객체 정보 분석부는 상기 기하 정보에 근거한 상기 객체의 높이와 관련된 3 차원 기하 정보를 산출할 수 없는 경우에,
상기 영상 정보를 2 차원 기하 모델로 변환하고, 상기 영상 정보 내에서 픽셀 데이터 분석을 통한 상기 객체의 높이를 추정하거나, 상기 영상 센서의 높이에 기초한 상기 객체의 높이를 추정하고, 상기 추정된 객체의 높이를 상기 3 차원 기하 정보와 상기 기하 정보에 반영하는 기하 정보부를 더 포함하고,
상기 제 1 공간 정보는 상기 반영된 기하 정보에 기초하여 상기 객체 정보, 상기 위치 정보 및 상기 3 차원 기하 정보가 결합하도록 생성되는 도로 공간 정보 구축을 위한 시스템
The method of claim 1,
When the object information analysis unit cannot calculate 3D geometric information related to the height of the object based on the geometric information,
Converts the image information into a two-dimensional geometric model, estimates the height of the object through pixel data analysis within the image information, or estimates the height of the object based on the height of the image sensor, and Further comprising a geometric information unit for reflecting the height to the three-dimensional geometric information and the geometric information,
The first spatial information is a system for constructing road spatial information generated to combine the object information, the location information, and the 3D geometric information based on the reflected geometric information
제 1 항에 있어서,
상기 기하 정보는 상기 영상 센서마다 정의된 기하 파라미터를 기초로 산출된 내부 기하 및 복수 영상 센서들이 탑재된 이동형 플랫폼의 위치와 자세에 따른 상기 영상 센서들 간의 기하 관계를 정의하는 외부 기하를 포함하는 도로 공간 정보 구축을 위한 시스템.
The method of claim 1,
The geometric information is a road including an internal geometry calculated based on a geometric parameter defined for each image sensor and an external geometry defining a geometric relationship between the image sensors according to a position and attitude of a mobile platform on which a plurality of image sensors are mounted. A system for building spatial information.
제 1 항에 있어서,
상기 이동형 플랫폼이 상기 이동형 플랫폼의 이동에 따른 회전 운동이 발생하는 부분에 설치되는 휠 센서, CAN(Controll Area Network) 통신을 구현하여 상기 이동형 플랫폼의 CAN 정보를 상기 이동형 플랫폼의 외부로 전송하는 CAN 모듈 및 관성 항법 센서 중 적어도 하나를 구비하는 경우에,
상기 휠 센서의 회전 데이터, 시간 데이터 또는 상기 CAN 정보의 속도 데이터, 상기 시간 데이터를 취득하고, 상기 영상 센서가 촬영한 촬영 노드의 촬영 시간 데이터와 상기 측위 센서의 측위 시간 데이터가 불일치하는 경우에, 상기 측위 센서로부터 측정된 인접 측위 정보들 사이의 촬영 노드의 시간 데이터와 함께, 상기 휠 센서의 회전 및 시간 데이터 또는 상기 CAN 정보의 속도 및 시간 데이터에 기반한 내삽 또는 외삽 모델을 활용하여 상기 촬영 노드의 위치를 산출하여 상기 위치 정보를 보정하고 상기 제 1 공간 정보에 반영하는 위치 보정/추정부를 더 포함하는 도로 공간 정보 구축을 위한 시스템.
The method of claim 1,
A wheel sensor installed at a portion where the mobile platform is rotated according to the movement of the mobile platform, and a CAN module that implements CAN (Control Area Network) communication to transmit CAN information of the mobile platform to the outside of the mobile platform. And in the case of having at least one of an inertial navigation sensor,
When the rotation data of the wheel sensor, time data, or speed data of the CAN information, and the time data are acquired, and the photographing time data of the photographing node photographed by the image sensor and the positioning time data of the positioning sensor are inconsistent, Using an interpolation or extrapolation model based on the rotation and time data of the wheel sensor or speed and time data of the CAN information together with time data of the photographing node between adjacent positioning information measured from the positioning sensor A system for constructing road space information, further comprising a location correction/estimator that calculates a location, corrects the location information, and reflects the location information in the first space information.
제 5 항에 있어서,
상기 위치 보정/추정부는 상기 촬영 노드의 위치 정보가 상기 제 2 공간 정보에 기반한 상기 이동형 플랫폼의 이동 경로에 따른 이동 궤적 정보로부터 기준값을 초과하는 경우에, 상기 초과한 촬영 노드의 위치 정보를 필터링하여 제거하는 도로 공간 정보 구축을 위한 시스템.
The method of claim 5,
When the position correction/estimator of the photographing node exceeds a reference value from the movement trajectory information according to the movement path of the mobile platform based on the second spatial information, the position correction/estimator filters the location information of the exceeding photographing node. A system for building space information on the road to be removed.
제 6 항에 있어서,
상기 관성 항법 센서는 상기 이동형 플랫폼의 가속도, 각가속도 및 자북 중 적어도 하나의 관성 항법 데이터를 수신하고 상기 위치 보정/추정부는 상기 관성 항법 데이터에 기초하여 상기 위치 정보를 보정하거나 필터링하는 도로 공간 정보 구축을 위한 시스템.
The method of claim 6,
The inertial navigation sensor receives at least one inertial navigation data of acceleration, angular acceleration, and magnetic north of the mobile platform, and the position correction/estimator corrects or filters the location information based on the inertial navigation data. For the system.
삭제delete 제 1 항에 있어서,
상기 데이터베이스부에 저장된 기존 도로 공간 정보와 상기 도로 공간 정보에 속한 상기 기하 정보와 상기 위치 정보에 기초하여 통합 기하 모델로 기존 및 신규 도로 공간 정보를 변환하고, 상기 기존 도로 공간 정보 및 상기 도로 공간 정보에 속한 상기 제 1 공간 정보를 영상 정합으로 비교한 결과, 상기 객체 정보의 변화가 있는 경우에, 상기 도로 공간 정보로 상기 기존 도로 공간 정보를 갱신하여 상기 지도를 변경하는 갱신부를 더 포함하는 도로 공간 정보 구축을 위한 시스템.
The method of claim 1,
Converts existing and new road space information into an integrated geometric model based on the existing road space information stored in the database unit, the geometric information belonging to the road space information, and the location information, and the existing road space information and the road space information Road space further comprising an update unit for changing the map by updating the existing road space information with the road space information when there is a change in the object information as a result of comparing the first spatial information belonging to the image matching System for building information.
복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 위한 도로 공간 정보 구축을 위한 방법에 있어서,
이동형 플랫폼에 탑재된 복수 영상 센서로부터 취득된 영상 정보들과 측위 센서로부터 취득된 위치 정보를 수신하고, 상기 영상 정보들을 결합하여 합성하는 단계;
상기 합성된 영상 정보들로부터 객체를 검출하여 객체 정보를 생성하는 단계;
상기 복수 영상 센서의 위치와 자세로부터 추정되는 상기 영상 정보들의 위치와 자세 정보에 따른 상기 영상 정보들 간의 기하 관계를 정의하는 기하 정보에 근거하여, 상기 영상 정보에 상기 객체 정보와 상기 위치 정보 간의 결합 관계를 분석하는 단계;
상기 합성된 영상 정보에 상기 객체 정보와 상기 위치 정보를 결합하여 제 1 공간 정보를 생성하는 단계;
상기 복수 영상 센서의 촬영 노드들 간에 연속 이동 촬영된 영상 정보에 기초하여 상기 촬영 노드들 간의 방향 정보 및 연결 정보와 관련된 네트워크를 구성하는 제 2 공간 정보를 생성하는 단계;
상기 제 1 및 제 2 공간 정보를 연계하여 도로 공간 정보를 생성하여 저장하는 단계; 및
상기 도로 공간 정보에 기초하여 소정 좌표 모델로 구성된 지도를 생성하여 저장하는 단계를 포함하되,
상기 영상 센서의 자세 정보는 상기 영상 센서가 촬영한 촬영 노드들 간의 위치 정보들 간의 차분, 특정 객체를 촬영한 영상 센서의 촬영 방향과 상기 특정 객체 사이의 제 1 각도, 상기 촬영한 영상 센서와 인접 영상 센서 간의 제 2 각도, 상기 촬영 방향과 북쪽 방향 간의 제 3 각도를 계산하고, 상기 차분에 기반하여 상기 이동형 플랫폼의 이동 궤적 정보를 산출하며, 상기 이동 궤적 정보, 상기 제 1 내지 제 3 각도에 기초하여 추정되며,
상기 영상 정보의 자세 정보는 상기 영상 센서의 자세 정보로부터 추정되고,
상기 영상 정보의 자세 정보는 상기 기하 정보에 반영되는 도로 공간 정보 구축을 위한 방법.
In the method for constructing road space information for linkage between image information acquired from a plurality of image sensors and location information,
Receiving image information acquired from a plurality of image sensors mounted on a mobile platform and position information acquired from a positioning sensor, combining the image information and synthesizing the image information;
Generating object information by detecting an object from the synthesized image information;
Combining the object information and the location information with the image information based on geometric information defining a geometric relationship between the image information according to the position and posture information of the image information estimated from the position and posture of the plurality of image sensors Analyzing the relationship;
Generating first spatial information by combining the object information and the location information with the synthesized image information;
Generating second spatial information constituting a network related to direction information and connection information between the photographing nodes based on image information photographed continuously moving between the photographing nodes of the plurality of image sensors;
Generating and storing road space information by linking the first and second space information; And
Generating and storing a map composed of a predetermined coordinate model based on the road space information,
The posture information of the image sensor includes a difference between location information between the photographing nodes photographed by the image sensor, a photographing direction of the image sensor photographing a specific object and a first angle between the specific object, and adjacent to the photographed image sensor. Calculate a second angle between image sensors and a third angle between the photographing direction and the north direction, calculate movement trajectory information of the mobile platform based on the difference, and calculate the movement trajectory information, the first to third angles. Is estimated on the basis of,
The posture information of the image information is estimated from the posture information of the image sensor,
A method for constructing road space information in which the posture information of the image information is reflected in the geometric information.
KR1020190116539A 2019-04-19 2019-09-23 System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors KR102225321B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190045831 2019-04-19
KR1020190045831 2019-04-19

Publications (2)

Publication Number Publication Date
KR20200122967A KR20200122967A (en) 2020-10-28
KR102225321B1 true KR102225321B1 (en) 2021-03-09

Family

ID=73018234

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190116539A KR102225321B1 (en) 2019-04-19 2019-09-23 System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors

Country Status (1)

Country Link
KR (1) KR102225321B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102313944B1 (en) * 2021-05-14 2021-10-18 주식회사 인피닉 Method for tracking object crossing the boundary of the angle of view, and computer program recorded on record-medium for executing method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014161574A1 (en) 2013-04-03 2014-10-09 Brainlab Ag Method and device for determining the orientation of a co-ordinate system of an anatomical object in a global co-ordinate system
JP2016212501A (en) 2015-04-30 2016-12-15 三菱電機株式会社 Image generation device for movable body, and navigation device
KR101719595B1 (en) 2016-09-26 2017-04-05 주식회사 우주공간정보 Image processing apparatus for correcting a distorted picture, and update the information
WO2017077277A1 (en) 2015-11-03 2017-05-11 Fuel 3D Technologies Limited System and methods for imaging three-dimensional objects
KR101923463B1 (en) * 2018-09-28 2018-11-30 (주)한양지에스티 Mobile mapping system with GPS

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101444685B1 (en) * 2013-02-04 2014-09-26 서울시립대학교 산학협력단 Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data
KR102362117B1 (en) * 2014-07-01 2022-02-11 삼성전자주식회사 Electroninc device for providing map information
KR101653281B1 (en) * 2015-01-22 2016-09-01 한국과학기술연구원 Apparatus and method for estimation of user location over a configurable sensor network
KR101850819B1 (en) * 2016-08-31 2018-04-20 한국항공우주연구원 Image geometric correction methods and apparatus for the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014161574A1 (en) 2013-04-03 2014-10-09 Brainlab Ag Method and device for determining the orientation of a co-ordinate system of an anatomical object in a global co-ordinate system
JP2016212501A (en) 2015-04-30 2016-12-15 三菱電機株式会社 Image generation device for movable body, and navigation device
WO2017077277A1 (en) 2015-11-03 2017-05-11 Fuel 3D Technologies Limited System and methods for imaging three-dimensional objects
KR101719595B1 (en) 2016-09-26 2017-04-05 주식회사 우주공간정보 Image processing apparatus for correcting a distorted picture, and update the information
KR101923463B1 (en) * 2018-09-28 2018-11-30 (주)한양지에스티 Mobile mapping system with GPS

Also Published As

Publication number Publication date
KR20200122967A (en) 2020-10-28

Similar Documents

Publication Publication Date Title
CN108171733B (en) Method of registering two or more three-dimensional 3D point clouds
US9270891B2 (en) Estimation of panoramic camera orientation relative to a vehicle coordinate frame
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
EP3228986B1 (en) Surveying system
US8437501B1 (en) Using image and laser constraints to obtain consistent and improved pose estimates in vehicle pose databases
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
CN110319772B (en) Visual large-span distance measurement method based on unmanned aerial vehicle
CN107167826B (en) Vehicle longitudinal positioning system and method based on variable grid image feature detection in automatic driving
WO2019164498A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
KR102127679B1 (en) System for correcting geometry of mobile platform with sensor based on an orthophoto
CN111815765B (en) Heterogeneous data fusion-based image three-dimensional reconstruction method
Menozzi et al. Development of vision-aided navigation for a wearable outdoor augmented reality system
CN113870379A (en) Map generation method and device, electronic equipment and computer readable storage medium
CN113516692A (en) Multi-sensor fusion SLAM method and device
JP2023505891A (en) Methods for measuring environmental topography
CN111623773A (en) Target positioning method and device based on fisheye vision and inertial measurement
CN110986888A (en) Aerial photography integrated method
CN113345032B (en) Initialization map building method and system based on wide-angle camera large distortion map
CN113450334B (en) Overwater target detection method, electronic equipment and storage medium
KR102225321B1 (en) System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors
KR102249381B1 (en) System for generating spatial information of mobile device using 3D image information and method therefor
Zhao et al. Alignment of continuous video onto 3D point clouds
CN113129422A (en) Three-dimensional model construction method and device, storage medium and computer equipment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant