KR101864127B1 - Apparatus and method for environment mapping of an unmanned vehicle - Google Patents

Apparatus and method for environment mapping of an unmanned vehicle Download PDF

Info

Publication number
KR101864127B1
KR101864127B1 KR1020160114595A KR20160114595A KR101864127B1 KR 101864127 B1 KR101864127 B1 KR 101864127B1 KR 1020160114595 A KR1020160114595 A KR 1020160114595A KR 20160114595 A KR20160114595 A KR 20160114595A KR 101864127 B1 KR101864127 B1 KR 101864127B1
Authority
KR
South Korea
Prior art keywords
lattice
state
unmanned vehicle
grid
cluster
Prior art date
Application number
KR1020160114595A
Other languages
Korean (ko)
Other versions
KR20180027242A (en
Inventor
민지홍
강행봉
오상일
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020160114595A priority Critical patent/KR101864127B1/en
Publication of KR20180027242A publication Critical patent/KR20180027242A/en
Application granted granted Critical
Publication of KR101864127B1 publication Critical patent/KR101864127B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 무인 차량 주변의 환경을 매핑하는 방법에 대한 것으로, 상기 무인 차량에 구비된 적어도 하나의 카메라로부터 센싱된 영상 중 어느 하나로부터 기 설정된 방식에 따라 슈퍼 픽셀을 추출하는 단계와, 상기 무인 차량에 구비된 3차원 스캐너에서 상기 무인 차량 주변을 감지한 결과로부터 깊이 데이터 및 3D 포인트 데이터를 추출하는 단계와, 상기 추출된 슈퍼 픽셀에, 기 설정된 투영 행렬을 이용하여 상기 깊이 데이터 및 3D 포인트 데이터를 투영하여 상기 슈퍼 픽셀의 각 위치에 슈퍼 픽셀 인덱스를 할당하는 단계와, 할당된 슈퍼 픽셀 인덱스에 따라 상기 슈퍼 픽셀을 구성하는 각 격자를 군집화하는 단계와, 상기 슈퍼 픽셀의 각 격자 군집을, 상기 인식된 장애물에 근거하여 활성화 상태, 비활성화 상태, 그리고 상기 활성화된 상태 또는 비활성화 상태로 구분되지 않은 잠재적 상태로 구분하는 단계와, 상기 무인 차량의 이동 속도 및 회전각에 근거하여 현재 시점 k의 다음 시점인 k+1 시점의 각 격자 군집의 동적 상태를 예측하는 단계와, 예측된 동적 상태에 근거하여 각 격자 군집 간에 이동한 파티클들을 검출 및, 검출된 파티클들에 따라 상기 다음 시점의 각 격자 군집 상태를 예측하는 단계, 및, 상기 현재 시점 k 이전 시점인 k-1 시점에서 예측된 격자 군집 상태와, 현재 시점 k에서 측정된 각 격자 군집의 상태를 결합하여, 각 격자 군집의 상태를 갱신하는 단계를 포함하는 것을 특징으로 한다. A method for mapping an environment around an unmanned vehicle, the method comprising: extracting a superpixel from any one of images sensed by at least one camera provided in the unmanned vehicle according to a predetermined method; Extracting depth data and 3D point data from a result of sensing the periphery of the unmanned vehicle in a three-dimensional scanner provided in the stereoscopic image display apparatus, and outputting the depth data and 3D point data to the extracted super pixels using a predetermined projection matrix And superimposing a super pixel index at each position of the superpixel; clustering each grid constituting the superpixel according to the assigned superpixel index; Based on the detected obstacle, the activated state, the inactivated state, and the activated state or inactive state Estimating a dynamic state of each lattice community at a time point k + 1, which is the next time point of the current time k, based on the traveling speed and the rotation angle of the unmanned vehicle; Detecting particles moving between the lattice clusters based on the predicted dynamic state and estimating each lattice cluster state at the next time point according to the detected particles, And updating the state of each lattice community by combining the states of the lattice communities measured at the current point k.

Description

무인 차량을 위한 주변 환경 매핑 방법 및 장치{APPARATUS AND METHOD FOR ENVIRONMENT MAPPING OF AN UNMANNED VEHICLE}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method and an apparatus for mapping an environment for an unmanned vehicle,

본 발명은 무인 차량에서 주변 환경을 매핑하고, 감지된 장애물을 추적 및 예측을 보다 효율적으로 할 수 있도록 하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for mapping an environment in an unmanned vehicle, and for tracking and predicting detected obstacles more efficiently.

무인 차량의 자율주행 시스템을 위해서는 차량에 장착된 센서를 통해 주변 환경을 측정하고, 동적, 정적 장애물의 움직임을 추정해 경로를 예측 할 수 있어야 한다. 최근에는 이처럼 무인 차량에서 장애물의 움직임 추정 및 예측을 위해, 실시간 연산이 가능하도록 주변 환경을 이산적이며 동일한 크기의 격자 단위로 매핑하여, 활성화된 격자를 필터링하는 방법 (Occupancy Grid Filtering, 이하 OGF)이 제안되고 있다. 이러한 OGF는 현재의 격자 상태, 즉 주변환경을 격자로 매핑한 상태를 기반으로 다음 차례에 입력될 장애물의 위치를 예측하는 과정을 포함한다. 한편 특정 환경에서의 경로 예측은 정적 객체의 표현과 동적 객체의 추적을 통한 장애물의 움직임 상태 추정을 수반하고 있다. For an autonomous navigation system of an unmanned vehicle, it is necessary to measure the surrounding environment through a sensor mounted on the vehicle, and to estimate a path by estimating dynamic and static obstacle movement. In recent years, Occupancy Grid Filtering (OGF), which maps the surrounding environment to discrete and uniform lattice units so as to enable real-time calculation for the motion estimation and prediction of the obstacle in the unmanned vehicle, Has been proposed. The OGF includes a process of predicting a position of an obstacle to be inputted next based on a current lattice state, i.e., a state in which a surrounding environment is mapped to a lattice. On the other hand, the path prediction in a specific environment involves the representation of a static object and the estimation of the motion state of the obstacle by tracking the dynamic object.

이러한 OGF는 동적 환경에서 자율주행 차량의 경로설정에 중요한 기술이다. 이 방법은 주변 환경을 이산적인 격자 환경으로 표현하고 각 격자의 활성화 상태를 확률적으로 쉽게 나타낼 수 있다. 이러한 OGF는 자율주행 차량 주변의 객체 인식 혹은 의미 인지와 같은 고차원의 작업에는 사용 될 수 없지만, 동적 객체 또는ㅇ정적 객체의 추적, 추적된 객체의 위치 인식 그리고 경로 예측에 쉽게 적용 될 수 있다는 장점이 있다.This OGF is an important technology for routing autonomous vehicles in a dynamic environment. This method expresses the surrounding environment as a discrete lattice environment and can easily represent the activation state of each lattice stochastically. Although OGF can not be used for high-dimensional tasks such as object recognition or semantic recognition around an autonomous vehicle, it can be easily applied to tracking of dynamic objects or static objects, positional recognition of tracked objects, and path prediction. have.

한편 최근에는 단안 또는 양안 카메라, 레이저 스캐너, 레이더와 같은 단일 센서를 사용해 작업을 수행하는 것 대신, 다양한 환경에 적응적인 센싱을 위해 다중 센서 모달리티(modality)의 상호보완 능력을 활용한다. 그리고 이처럼 다중 센서를 이용하는 경우 하나의 장애물에 의해 활성화된 여러 개의 격자는 유사한 동적 상태를 지니게 된다. Recently, instead of performing tasks using a single sensor such as a monocular or binocular camera, a laser scanner, or a radar, it utilizes the mutual complementarity of multiple sensor modalities for various environmentally adaptive sensing. And, when using multiple sensors, multiple grids activated by one obstacle have a similar dynamic state.

이러한 격자의 무리를 독립적으로 다루게 될 경우, 같은 동적 상태를 가지고 있음에도 불구하고 서로 다른 예측 함수가 적용 될 가능성이 있다. 이러한 문제점은 시간이 지남에 따라 지속적으로 오류를 축적 시킨다. 또한, 하나의 장애물에 의해 활성화된 격자 무리를 매번 각각 처리하는 것은 계산의 효율성을 떨어트린다. It is possible that different prediction functions may be applied, even though they have the same dynamic state, if they handle such a group of grids independently. These problems continue to accumulate errors over time. Also, processing each of the grid clusters activated by one obstacle each time reduces the efficiency of computation.

이에 따라 기존의 단일 센서를 이용하여 주변 환경을 측정하고, 동적, 정적 장애물의 움직임을 추정해 경로를 예측하는 방식은, 다중 센서를 이용하는 경우에 적용할 수 어렵다는 문제점이 있다. Accordingly, there is a problem that it is difficult to apply the method of estimating the path of the dynamic and static obstacle by estimating the motion of the surrounding environment by using the existing single sensor.

본 발명의 목적은 상술한 문제를 해결하고자 하는 것으로, 다중 센서를 이용하는 경우에 보다 효율적으로 무인 차량이 주변 환경을 측정 및, 감지된 장애물을 추적 및 예측할 수 있도록 하는 장치 및 방법을 제공하는 것이다. SUMMARY OF THE INVENTION An object of the present invention is to provide an apparatus and method for enabling an unmanned vehicle to more effectively measure an environment and track and predict a detected obstacle when multiple sensors are used.

또한 본 발명의 다른 목적은, 서로 다른 기능을 가지는 복수의 센서 상호간에 서로의 단점을 상호보완하여 보다 정확하게 장애물을 추적 및 예측할 수 있도록 하는 장치 및 방법을 제공하는 것이다. Another object of the present invention is to provide an apparatus and method for more accurately tracking and predicting obstacles by complementing each other's disadvantages among a plurality of sensors having different functions.

상술한 목적을 달성하기 위한 본 발명의 실시 예에 따른 무인 차량 주변의 환경을 매핑하는 방법은, 상기 무인 차량에 구비된 적어도 하나의 카메라로부터 센싱된 영상 중 어느 하나로부터 기 설정된 방식에 따라 슈퍼 픽셀을 추출하는 단계와, 상기 무인 차량에 구비된 3차원 스캐너에서 상기 무인 차량 주변을 감지한 결과로부터 깊이 데이터 및 3D 포인트 데이터를 추출하는 단계와, 상기 추출된 슈퍼 픽셀에, 기 설정된 투영 행렬을 이용하여 상기 깊이 데이터 및 3D 포인트 데이터를 투영하여 상기 슈퍼 픽셀의 각 위치에 슈퍼 픽셀 인덱스를 할당하는 단계와, 할당된 슈퍼 픽셀 인덱스에 따라 상기 슈퍼 픽셀을 구성하는 각 격자를 군집화하는 단계와, 상기 슈퍼 픽셀의 각 격자 군집을, 상기 인식된 장애물에 근거하여 활성화 상태, 비활성화 상태, 그리고 상기 활성화된 상태 또는 비활성화 상태로 구분되지 않은 잠재적 상태로 구분하는 단계와, 상기 무인 차량의 이동 속도 및 회전각에 근거하여 현재 시점 k의 다음 시점인 k+1 시점의 각 격자 군집의 동적 상태를 예측하는 단계와, 예측된 동적 상태에 근거하여 각 격자 군집 간에 이동한 파티클들을 검출 및, 검출된 파티클들에 따라 상기 다음 시점의 각 격자 군집 상태를 예측하는 단계, 및, 상기 현재 시점 k 이전 시점인 k-1 시점에서 예측된 격자 군집 상태와, 현재 시점 k에서 측정된 각 격자 군집의 상태를 결합하여, 각 격자 군집의 상태를 갱신하는 단계를 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method of mapping an environment around an unmanned vehicle, the method comprising: Extracting depth data and 3D point data from a result of sensing the periphery of the unmanned vehicle by a three-dimensional scanner provided in the unmanned vehicle, and extracting depth data and 3D point data using a predetermined projection matrix A step of assigning a super pixel index to each position of the super pixel by projecting the depth data and the 3D point data, clustering each grid constituting the super pixel according to the assigned super pixel index, Each lattice cluster of pixels may be classified into an active state, a deactivated state, And determining a dynamic state of each grid cluster at a time point k + 1, which is the next time point of the current time k, based on the movement speed and the rotation angle of the unmanned vehicle, The method includes the steps of: predicting particles moving in each grid cluster based on a predicted dynamic state, and estimating each grid cluster state at the next point of time according to the detected particles, And updating the state of each grid cluster by combining the grid cluster state predicted at time k-1 and the state of each grid cluster measured at the current time k.

일 실시 예에 있어서, 상기 각 격자를 군집화하는 단계는, 동일한 슈퍼 픽셀 인덱스를 갖는 3차원 포인트 및 깊이 정보 간의 군집화를 수행하는 단계임을 특징으로 한다. In one embodiment, the clustering of the respective gratings is a step of clustering three-dimensional points having the same super pixel index and depth information.

일 실시 예에 있어서, 상기 각 격자 군집의 상태를 구분하는 단계는, 상기 격자 군집 중 어느 하나의 격자 군집을 구성하는 각 파티클들 중 활성화된 파티클들 및 비활성화된 파티클들에 따라 활성화 영역, 비활성화 영역으로 구분하는 제1 단계와, 상기 어느 하나의 격자 군집에 구분된 활성화 영역 및 비활성화 영역에 근거하여 잠재적 영역을 산출하는 제2 단계와, 상기 활성화 영역으로부터 활성화 질량, 상기 비활성화 영역으로부터 비활성화 질량, 그리고 상기 잠재적 영역으로부터 잠재적 질량을 산출하는 제3 단계와, 상기 산출된 활성화 질량, 비활성화 질량, 그리고 잠재적 질량에 근거하여 상기 어느 하나의 격자 군집의 상태를 구분하는 제4 단계와, 상기한 어느 하나의 격자 군집 외에 다른 격자 군집에 상기 제1 단계 내지 제4 단계를 반복하여, 상기 슈퍼 픽셀을 구성하는 각 격자 군집들의 상태를 구분하는 단계를 포함하는 것을 특징으로 한다. According to an embodiment of the present invention, the step of classifying the state of each lattice community may include a step of classifying the states of the lattice communities according to the activated particles and the deactivated particles among the particles constituting one of the lattice communities, A second step of calculating a potential region based on the active region and the inactive region divided in the one of the plurality of lattice communities; and a second step of calculating an inactive mass from the inactive region, an inactive mass from the inactive region, and A third step of calculating a potential mass from the potential region, a fourth step of classifying the states of any one of the grid clusters based on the calculated activation mass, inactivation mass, and potential mass, The first to fourth steps are repeated for other lattice communities other than the lattice community, Characterized in that it comprises the step that distinguishes the status of each grid clusters that make up the superpixel group.

일 실시 예에 있어서, 상기 각 격자 군집의 동적 상태를 예측하는 단계는, 상기 무인 차량에 구비된 관성 센서에 근거하여 상기 무인 차량의 이동 속도 및 회전각을 획득하는 단계와, 상기 획득된 이동 속도 및 회전각에 근거하여 기 설정된 시간 동안의 상기 무인 차량의 회전각 및 운전 거리를 산출하는 단계와, 산출된 상기 기 설정된 시간 동안의 회전각 및 운전 거리에 근거하여 각 격자 군집의 위치 근원을 산출하는 단계와, 산출된 위치 근원에 근거하여, 상기 각 격자 군집의 위치를 보상하는 단계, 및, 산출된 각 격자 군집의 위치 정보 및 기 설정된 이산 가우시안 잡음에 근거하여 상기 다음 시점의 각 격자 군집의 동적 상태를 예측하는 단계를 포함하는 것을 특징으로 한다. In one embodiment, the step of predicting the dynamic state of each lattice cluster comprises the steps of: acquiring the moving speed and the rotational angle of the unmanned vehicle based on the inertial sensor provided in the unmanned vehicle; Calculating a rotation angle and an operation distance of the unmanned vehicle during a predetermined period of time based on the rotation angle and the rotation angle of the vehicle; calculating a position source of each grid cluster based on the calculated rotation angle and the operation distance for the predetermined time; And calculating a position of each of the lattice communities based on the calculated positional information of the lattice constellations and the predetermined discrete Gaussian noise, And predicting the dynamic state.

상술한 목적을 달성하기 위한 본 발명의 실시 예에 따른 무인 차량 주변의 환경을 매핑하는 장치는, 3차원 스캐너 및 적어도 하나의 카메라, 그리고 상기 무인 차량의 속도 및 회전각을 감지하는 관성 센서를 포함하는 센서부와, 상기 3차원 스캐너로부터 센싱된 3D 포인트 데이터 및 깊이 정보, 그리고 기 설정된 투영 행렬에 근거하여, 상기 적어도 하나의 카메라 중 어느 하나로부터 센싱된 영상으로부터 추출된 슈퍼 픽셀의 각 영역에 슈퍼 픽셀 인덱스를 할당하며, 할당된 슈퍼 픽셀 인덱스에 근거하여 상기 슈퍼 픽셀을 구성하는 각 격자들을 군집화하고, 상기 슈퍼 픽셀 인덱스에 근거하여 상기 무인 차량 주변의 장애물을 인식하고, 인식된 장애물에 근거하여 상기 슈퍼 픽셀의 각 격자 군집을 활성화 상태와 비활성화 상태, 그리고 잠재적 상태로 구분하며, 상기 무인 차량의 이동 속도 및 회전각에 근거하여 현재 시점 k 다음 시점의 각 격자 군집의 동적 상태를 예측 및, 현재 시점 k에서 측정된 각 격자 군집의 상태와, 상기 현재 시점 k 이전 시점인 k-1 시점에서 예측된 각 격자 군집의 상태를 서로 결합하여 각 격자 군집의 상태를 갱신하는 제어부를 포함하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided an apparatus for mapping an environment around an unmanned vehicle, the apparatus including a three-dimensional scanner, at least one camera, and an inertial sensor for sensing a speed and a rotation angle of the unmanned vehicle And superimposed on each region of the super pixels extracted from the image sensed from any one of the at least one cameras based on 3D point data and depth information sensed from the 3D scanner and a predetermined projection matrix, Assigning a pixel index, grouping each grid constituting the superpixel based on the assigned superpixel index, recognizing an obstacle around the unmanned vehicle based on the superpixel index, Each grid of superpixels is activated and deactivated, Estimating a dynamic state of each lattice cluster at a point in time after the current point k on the basis of the moving speed and the rotation angle of the unmanned vehicle, calculating a state of each lattice cluster measured at the current point k, and a controller for combining the states of the respective lattice communities predicted at the time k-1 to update the state of each lattice community.

일 실시 예에 있어서, 상기 제어부는, 동일한 슈퍼 픽셀 인덱스를 갖는 3차원 포인트 및 깊이 정보 간의 군집화를 수행하여 상기 슈퍼 픽셀을 구성하는 각 격자들을 군집화하는 것을 특징으로 한다. In one embodiment, the controller performs clustering between three-dimensional points and depth information having the same super pixel index to group clusters constituting the super pixels.

일 실시 예에 있어서, 상기 제어부는, 상기 각 격자 군집을 구성하는 파티클들 중, 활성화된 파티클 및 비활성화된 파티클에 근거하여, 상기 각 격자 군집을 활성화 영역, 비활성화 영역, 그리고 잠재적 영역으로 구분하며, 상기 각 격자 군집의 활성화 영역, 비활성화 영역, 그리고 잠재적 영역에 근거하여 각 격자 군집으로부터 활성화 질량, 비활성화 질량, 그리고 잠재적 질량을 산출하고, 상기 산출된 각 격자 군집의 활성화 질량, 비활성화 질량, 그리고 잠재적 질량에 근거하여, 상기 각 격자 군집의 상태를 상기 활성화 상태와 비활성화 상태, 그리고 잠재적 상태로 구분하는 것을 특징으로 한다. In one embodiment, the controller divides each of the grid groups into an activation region, a deactivation region, and a potential region based on the activated particles and the deactivated particles, among the particles constituting the respective grid clusters, The active mass, inactivation mass, and potential mass are calculated from the respective lattice communities based on the activation regions, inactive regions, and potential regions of the respective lattice communities, and the activation mass, inactivation mass, and potential mass The state of each grid cluster is divided into the active state, the inactive state, and the potential state.

일 실시 예에 있어서, 상기 제어부는, 상기 획득된 속도 및 회전각에 근거하여 기 설정된 시간 동안의 상기 무인 차량의 회전각 및 운전 거리를 산출하고, 산출된 회전각 및 운전 거리에 근거하여 상기 각 격자 군집의 위치 근원을 산출하며, 산출된 각 격자 군집의 위치 근원에 근거하여, 상기 각 격자 군집의 위치를 보상 및, 보상된 각 격자 군집의 위치 및 기 설정된 이산 가우시안 잡음에 근거하여 상기 다음 시점의 각 격자 군집의 동적 상태를 예측하는 것을 특징으로 한다. In one embodiment, the control unit may calculate the rotation angle and the operation distance of the unmanned vehicle during a predetermined time based on the obtained speed and rotation angle, and calculate the rotation angle and the operation distance based on the calculated rotation angle and the operation distance, Calculating a location source of the lattice community based on the location of each of the lattice communities based on the location sources of the respective lattice communities and calculating a location of each of the lattice communities based on the positions of the compensated lattice communities and the next discrete Gaussian noise, And estimating a dynamic state of each lattice cluster of the plurality of lattice constellations.

본 발명에 따른 무인 차량의 주변 환경 매핑 방법 및 그 장치에 대해 설명하면 다음과 같다.A method and an apparatus for mapping an environment of an unmanned vehicle according to the present invention will now be described.

본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 격자 군집화를 통해 보다 효율적으로 OGF 과정이 진행되도록 함으로써, 기존의 장애물 추적 및 예측에 소요되는 시간을 보다 단축시킬 수 있도록 한다는 장점이 있다. According to at least one of the embodiments of the present invention, the OGF process proceeds more efficiently through the lattice clustering, thereby shortening the time required for existing obstacle tracking and prediction.

본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 하나의 장애물에 의해 활성화된 격자들에 동일한 예측 함수가 적용될 수 있도록 함으로써, 장애물의 추적 및 예측에 있어서 오류 발생률을 보다 낮출 수 있도록 한다는 장점이 있다. According to at least one of the embodiments of the present invention, the same prediction function can be applied to the grids activated by one obstacle, thereby making it possible to lower the error occurrence rate in the tracking and prediction of the obstacle have.

도 1은 본 발명의 실시 예에 따른 주변 환경 매핑 장치의 구성을 설명하기 위한 블록도이다.
도 2a 및 도 2b는 본 발명의 실시 예에 따른 주변 환경 매핑 장치를 구비한 무인 차량의 예를 도시한 것이다.
도 3은 본 발명의 실시 예에 따른 주변 환경 매핑 장치의 동작 흐름을 도시한 흐름도이다.
도 4는 본 발명의 실시 예에 따른 주변 환경 매핑 장치에서, 단안 영상의 슈퍼픽셀 공간으로부터 3차원 데이터 상에 슈퍼픽셀의 인덱스를 할당하는 예를 도시한 개념도이다.
1 is a block diagram for explaining a configuration of an environment mapping apparatus according to an embodiment of the present invention.
2A and 2B illustrate an example of an unmanned vehicle having an environment mapping apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating an operational flow of the environment mapping apparatus according to an embodiment of the present invention.
4 is a conceptual diagram illustrating an example of assigning an index of a superpixel on three-dimensional data from a superpixel space of a monocular image in an environment mapping apparatus according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다." 또는 "포함한다." 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.It is noted that the technical terms used herein are used only to describe specific embodiments and are not intended to limit the invention. Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In this specification, " comprises " Or " include. &Quot; Should not be construed to encompass the various components or steps described in the specification, and some of the components or portions may not be included, or may include additional components or steps And the like.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Further, in the description of the technology disclosed in this specification, a detailed description of related arts will be omitted if it is determined that the gist of the technology disclosed in this specification may be obscured.

우선 본 발명의 이해를 돕기 위해 본 발명을 간략하게 설명하면, 본 발명은 슈퍼픽셀 개념을 격자 환경에 적용함으로써 격자들의 군집화를 수행한다. 슈퍼픽셀은 중간 차원의 시각적 단서로, 객체 분할, 인식, 추적 등 다양한 컴퓨터 비전 알고리즘에 사용된다. 본 발명은 카메라 데이터의 슈퍼픽셀 공간에 3차원 레이저 스캐너의 데이터와, 상기 카메라로부터 추출된 깊이 정보 지도를 투영함으로써 동일한 슈퍼픽셀 인덱스를 갖는 3차원 포인트 및 깊이 정보간의 군집화를 수행한다. 이 방법은 하나의 장애물에 의해 활성화된 격자 무리에 동등한 예측 함수를 적용하기 때문에 더욱 효율적이며 효과적이다. In order to facilitate understanding of the present invention, the present invention briefly describes clustering of gratings by applying the superpixel concept to a grating environment. Superpixels are medium-level visual clues, used in various computer vision algorithms such as object segmentation, recognition, and tracking. The present invention performs clustering between three-dimensional point and depth information having the same super pixel index by projecting the data of the 3D laser scanner and the depth information map extracted from the camera in the super pixel space of the camera data. This method is more efficient and effective because it applies an equal prediction function to the grid clusters activated by one obstacle.

그리고 본 발명은 군집화된 격자들을 활성화 상태, 비활성화 상태 뿐만 아니라 활성화 혹은 비활성화 양쪽 모두 될 수 있는 상태로 격자의 상태를 표현하고, 각 상태별로 표현된 격자들을 통해 각 격자 군집의 사후 상태를 예측 및, 예측된 결과와 기 표현된 각 격자의 상태에 근거하여 각 격자의 상태를 갱신할 수 있도록 한다. The present invention also provides a method of representing a state of a lattice in a state in which clustered lattices can be both activated and deactivated, as well as being activated or deactivated, predicting the posterior state of each lattice community through the lattices represented by each state, The state of each grid can be updated based on the predicted result and the state of each grid represented.

도 1은 이러한 본 발명의 실시 예에 따른 주변 환경 매핑 장치(100)의 구성을 설명하기 위한 블록도이다. FIG. 1 is a block diagram for explaining a configuration of an environment mapping apparatus 100 according to an embodiment of the present invention.

먼저 도 1을 참조하여 살펴보면, 본 발명의 실시 예에 따른 주변 환경 매핑 장치(100)는 제어부(110), 및 제어부(110)와 연결되는 센서부(120), 예측부(130)를 포함할 수 있다. 도 1에 도시된 구성요소들은 본 발명의 실시 예에 따른 주변 환경 매핑 및 장애물 예측 장치(100를 구현하는데 있어서 필수적인 것은 아니어서, 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 1, the apparatus 100 for mapping the environment according to an exemplary embodiment of the present invention includes a controller 110, a sensor unit 120 connected to the controller 110, and a predictor 130 . The components shown in FIG. 1 are not essential for implementing the environment mapping and obstacle prediction apparatus 100 according to the embodiment of the present invention, and may have more or fewer components than the components listed above have.

먼저 센서부(120)는 무인 차량 주변의 환경을 센싱하기 위한 적어도 하나의 센서를 포함할 수 있다. 일 예로 상기 센서부(120)는 레이저 스캐너(122)와 좌안 영상 및 우안 영상을 센싱할 수 있는 양안 카메라(124)를 포함할 수 있다. 여기서 상기 레이저 스캐너(122)는 무인 차량 주변의 환경을 3차원으로 스캔할 수 있는 3차원 다중 레이어(Layer) 레이저스캐너(LIDAR, LIght Detection and Ranging)일 수 있다. First, the sensor unit 120 may include at least one sensor for sensing the environment around the unmanned vehicle. For example, the sensor unit 120 may include a laser scanner 122 and a binocular camera 124 capable of sensing a left eye image and a right eye image. The laser scanner 122 may be a three-dimensional multi-layer laser scanner (LIDAR) capable of scanning the environment around the unmanned vehicle in three dimensions.

도 2a 및 도 2b는 이처럼 레이저스캐너(122) 및 양안 카메라(124)가 구비된 무인 차량(200)의 예를 도시한 것이다. 2A and 2B show an example of the unmanned vehicle 200 having the laser scanner 122 and the binocular camera 124 as described above.

먼저 도 2a에서 보이고 있는 바와 같이, 본 발명의 실시 예에 따른 주변 환경 매핑 장치(100)를 구비한 무인 차량(200)은 레이저스캐너(122) 및 양안 카메라(124)를 구비할 수 있다. 이러한 경우 상기 레이저스캐너(122) 및 양안 카메라(124)는 도 2b에서 보이고 있는 바와 같이 배치될 수 있다. 2A, an unmanned vehicle 200 having an environment mapping apparatus 100 according to an embodiment of the present invention may include a laser scanner 122 and a binocular camera 124. In this case, the laser scanner 122 and the binocular camera 124 may be arranged as shown in FIG. 2B.

한편 레이저스캐너(122)는 고유한 측정 가능한 영역에 대해서 정확한 데이터 측정을 할 수 있지만, 도 2b의 레이저스캐너 탐지 영역(220)에서 보이고 있는 바와 같이 탐지 가능한 영역이 영상 센서, 즉 양안 카메라(124)에 비해 좁다는 단점이 있다. 반면 양안 카메라(124)는 도 2b의 좌안 영상 영역(210L), 우안 영상 영역(220L)에서 보이고 있는 바와 같이, 측정 가능 영역이 레이저스캐너(124)를 통해 탐지되는 영역 보다 넓으나, 레이저 스캐너(122)에 비해 정확한 뎁스(depth) 정보(깊이 정보) 측정이 어렵다는 단점이 있다. On the other hand, the laser scanner 122 can perform accurate data measurements on a unique measurable area, but as can be seen in the laser scanner detection area 220 of FIG. 2B, the detectable area is detected by the image sensor, As shown in FIG. On the other hand, as shown in the left eye image area 210L and the right eye image area 220L of FIG. 2B, the binocular camera 124 is wider than the area where the measurable area is detected through the laser scanner 124, It is difficult to accurately measure the depth information (depth information) as compared with the case of the second embodiment.

이하의 설명에서 본 발명은 상호 보완적인 작업 수행을 위해 이처럼 서로 기능이 다른 두 센서를 구비하는 것을 예로 들어 설명하기로 한다. 이하의 본 발명에서 제안되는 방법은 다른 센서 모달리티에 쉽게 적용 될 수 있지만, 단안 영상에서의 슈퍼 픽셀 추출이 기초가 되는 방법이므로, 단안 영상 데이터를 추출하는 것을 가정하기로 한다. 이에 따라 상기 센서부(120)에 포함되는 카메라(124)는 하나의 카메라만 구비되는 단안 카메라일 수도 있음은 물론이다. 또한 장애물의 정확한 동적 상태 예측을 위해 상기 센서부(120)는 관성 센서(예 : IMU(Inertial Measurement Unit) Sensor)를 더 구비할 수 있다. In the following description of the present invention, two sensors having different functions are provided to complement each other. The following method of the present invention can easily be applied to other sensor modalities, but it is assumed that extracting monocular image data is a method of extracting super pixels in a monocular image. Accordingly, it is needless to say that the camera 124 included in the sensor unit 120 may be a monocular camera having only one camera. In addition, the sensor unit 120 may further include an inertial sensor (e.g., an Inertial Measurement Unit (IMU) Sensor) to accurately predict the dynamic state of the obstacle.

한편 상기 센서부(120)는, 제어부(110)의 제어에 따라 구비된 레이저 스캐너(122) 및 양안 카메라(124)를 통해 무인 차량(200) 주변의 환경을 센싱할 수 있다. 그리고 센싱된 결과를 제어부(110)에 인가할 수 있다. The sensor unit 120 may sense the environment around the unmanned vehicle 200 through the laser scanner 122 and the binocular camera 124 according to the control of the controller 110. [ And the sensed result can be applied to the control unit 110.

그러면 제어부(110)는 상기 센서부(120)로부터 인가된 주변 환경 감지 결과를 이용하여 슈퍼 픽셀을 추출할 수 있다. 여기서 슈퍼 픽셀은 상술한 바와 같이, 객체 분할, 인식, 추적 등 다양한 비전(vision) 알고리즘에 사용되는 것으로, 상기 양안 카메라(124) 중 어느 하나의 영상으로부터 SLIC(Simple Linear Iterative Clustering) 방식을 통해 추출될 수 있다. 그리고 제어부(110)는 레이저 스캐너(122)로부터 스캔된 결과에 따른 깊이 데이터 및 3D 포인트 데이터를, 상기 추출된 2D 영상, 즉 상기 어느 하나의 영상으로부터 추출된 슈퍼 픽셀에, 기 설정된 투영 행렬을 이용하여 투영함으로써, 각각의 위치에 슈퍼 픽셀 인덱스를 할당할 수 있다. 여기서 슈퍼 픽셀이란 2D 영상 상에서 CIE Lab 색상 공간 등의 정보를 기반으로 유사한 정보를 가지고 있는 픽셀이 군집화 되어 있는 형태를 의미할 수 있다. 각 슈퍼 픽셀은 객체 분할 방법보다 작은 단위의 군집을 가지고 있으며, 각 군집이 하나의 슈퍼 픽셀을 의미할 수 있다. 그리고 한 장의 2D 영상 안에 각 픽셀 군집은 그 인덱스를 지닐 수 있다.Then, the control unit 110 may extract the super pixels using the ambient environment detection result from the sensor unit 120. [ As described above, the super pixel is used in various vision algorithms such as object segmentation, recognition, and tracking. The super pixel is extracted from any one of the binocular cameras 124 through SLIC (Simple Linear Iterative Clustering) . The control unit 110 converts the depth data and the 3D point data according to the result of the scan from the laser scanner 122 into the extracted 2D image, that is, super pixels extracted from any one of the images using a preset projection matrix So that a super pixel index can be assigned to each position. Here, the superpixel may refer to a form in which pixels having similar information are clustered based on information such as a CIE Lab color space on a 2D image. Each superpixel has a cluster of smaller units than the object division method, and each cluster can mean one superpixel. And each pixel cluster in a 2D image can have its index.

한편 이처럼 슈퍼 픽셀 인덱스가 슈퍼 픽셀의 각 위치에 할당되면, 제어부(110)는 동일한 슈퍼 픽셀 인덱스를 가지는 3차원 포인트 및 깊이 정보간의 군집화를 수행할 수 있다. 그리고 군집화된 각 슈퍼 픽셀의 격자들의 군집 상태를 표시할 수 있다. If the super-pixel index is assigned to each position of the super-pixel, the controller 110 may perform clustering between the three-dimensional point and the depth information having the same super-pixel index. And the cluster state of the grid of each superpixel clustered can be displayed.

예를 들어 제어부(110)는 각 격자들의 군집 상태를 활성화 상태, 비활성화 상태, 또는 활성화 상태나 비활성화 상태 중 어느 하나가 될 수 있는 상태(이하 잠재적 상태라고 칭하기로 한다)로 표현할 수 있다. For example, the control unit 110 may express a cluster state of each grid by an active state, a deactivated state, or a state that can be either an active state or an inactive state (hereinafter, referred to as a potential state).

여기서 활성화 상태라는 것은 하나의 격자 군집 안에 위치 할 수 있는 센서의 측정 값 중, 일정 임계값 이상 장애물에 의해 측정되는 상태를 의미할 수 있다. 예를 들어, LIDAR 센서에서 임의의 격자 군집 안에 반사되어 질 수 있는 레이저 빔 스캔의 양이 10개이며, 활성화 임계값이 5라고 가정 했을 때, 그 중 6개의 레이저 빔이 장애물에 부딪혀 측정되었다면 이 격자 군집은 활성화 상태가 되었다고 판단될 수 있다. 그리고 비활성화 상태라는 것은 하나의 격자 군집안에 위치 할 수 있는 센서의 측정 값 중, 일정 임계값 이하 장애물에 의해 측정되는 상태를 의미 할 수 있다. 즉, 위의 예시와 반대로, 10개의 측정 가능한 레이저 빔 스캔 중 4개의 빔만이 장애물에 부딪혀 측정되었다면 해당 격자 군집은 비활성화 상태로 판단될 수 있다. Here, the active state may mean a state measured by an obstacle above a certain threshold value among the measured values of the sensor that can be located in one grid cluster. For example, assuming that the LIDAR sensor has 10 laser beam scans that can be reflected in any lattice cluster and that the activation threshold is 5, if 6 laser beams are measured against an obstacle, It can be judged that the lattice cluster has become active. And the deactivated state may mean a state measured by an obstacle below a predetermined threshold value among the sensor values that can be located in one lattice cluster. That is, contrary to the above example, if only four beams among the ten measurable laser beam scans are measured against an obstacle, the lattice cluster may be determined as inactive.

이에 따라 제어부(110)는 상기 센서부(120)로부터 입력된 주변 환경 감지 결과에 따라 주변 환경을 구성하는 객체들(격자 군집)을 각각 서로 다른 상태로 인식할 수 있다. 그리고 상기 각 격자들의 상태에 따라 현재 무인 차량(200) 주변의 장애물을 인식할 수 있다. Accordingly, the controller 110 can recognize the objects (the lattice communities) constituting the surrounding environment in different states according to the detection result of the surrounding environment inputted from the sensor unit 120. An obstacle around the current unmanned vehicle 200 can be recognized according to the state of the respective grids.

한편 예측부(130)는 제어부(110)의 제어에 따라 각 격자 군집들의 상태로부터, 다음 시간(k+1)의 군집 상태를 예측할 수 있다. 즉, 제어부(110)는 상술한 바와 같이 활성화 상태, 비활성화 상태, 잠재적 상태로 표현된 각 격자 군집을 예측부(130)로 입력할 수 있다. 그러면 예측부(130)는 무인 차량(200)의 이동 상태, 즉 속도 및 회전각에 근거하여 기 설정된 시간동안의 장애물의 동적 상태를 예측할 수 있다. 여기서 상기 장애물은, 각 격자 군집을 의미하는 것일 수 있다. 즉 예측부(130)는 입력된 격자 군집들 각각의 동적 상태에 근거하여, 각 격자 군집의 이동 여부를 추정할 수 있다. 그리고 상기 무인 차량(200)의 속도 및 회전각은 상기 센서부(120)에 구비된 관성 센서(126)를 통해 획득될 수 있다. On the other hand, the predictor 130 can predict the cluster state of the next time (k + 1) from the state of each grid cluster under the control of the controller 110. [ That is, the controller 110 may input each grid cluster represented by the active state, the inactive state, and the latent state to the predictor 130 as described above. Then, the prediction unit 130 can predict the dynamic state of the obstacle for a predetermined time based on the moving state of the unmanned vehicle 200, that is, the speed and the rotation angle . Here, the obstacle may refer to each grid cluster. That is, the predicting unit 130 can estimate the movement of each grid cluster based on the dynamic state of each of the input grid clusters. The speed and the rotation angle of the unmanned vehicle 200 can be obtained through the inertial sensor 126 provided in the sensor unit 120. [

한편 상기 예측부(130)를 통해 시간 k+1 에서의 장애물의 동적 상태가 예측되면, 제어부(110)는 예측부(130)로부터 장애물의 동적 상태를 예측한 결과를 입력받을 수 있다. 그러면 제어부(110)는 상기 예측부(130)에서 예측된 격자 군집의 상태와, 실제 시간 k+1 에서 측정된 격자 군집을 서로 결합할 수 있다. 그리고 결합 결과에 따라 격자 군집의 상태를 갱신할 수 있다. 그리고 갱신된 격자 군집 상태에 근거하여 무인 차량(200)의 이동에 따른 잠재적인 장애물을 예측할 수 있도록 한다. Meanwhile, when the dynamic state of the obstacle at time k + 1 is predicted through the predictor 130, the controller 110 can receive the predicted result of the dynamic state of the obstacle from the predictor 130. Then, the controller 110 may combine the state of the grid cluster predicted by the predictor 130 and the grid cluster measured at the actual time k + 1. And the state of the lattice cluster can be updated according to the result of the combination. And to predict a potential obstacle due to the movement of the unmanned vehicle 200 based on the updated grid clustering state.

한편 도 3은 이러한 본 발명의 실시 예에 따른 주변 환경 매핑 장치(100)의 동작 흐름을 도시한 흐름도이다. 3 is a flowchart illustrating an operation flow of the environment mapping apparatus 100 according to the embodiment of the present invention.

먼저, 본 발명의 실시 예에 따른 주변 환경 매핑 장치(100)의 제어부(110)는 상술한 바와 같이 양안 카메라(124) 중 어느 하나로부터 센싱된 영상에 근거하여, 슈퍼 픽셀을 추출할 수 있다(S300). 추출된 슈퍼 픽셀은 복수의 격자로 표현될 수 있다. First, the controller 110 of the environment mapping apparatus 100 according to an exemplary embodiment of the present invention extracts a super pixel based on an image sensed by any one of the binocular cameras 124 as described above S300). The extracted super pixels can be represented by a plurality of grids.

한편 제어부(110)는 상기 S300 단계에서 슈퍼 픽셀이 추출되면, 추출된 슈퍼 픽셀에, 레이저스캐너(122)로부터 센싱된 3D 포인트 데이터 및 깊이 데이터를 기 설정된 투영 행렬 P를 이용하여 투영할 수 있다. 그러면 상기 슈퍼 픽셀의 각 위치에 관련된 슈퍼 픽셀 인덱스가 할당될 수 있다(S302). On the other hand, when the super-pixel is extracted in step S300, the controller 110 may project the 3D point data and the depth data sensed by the laser scanner 122 using the predetermined projection matrix P to the extracted super-pixel. Then, a super pixel index related to each position of the super pixel may be allocated (S302).

도 4는 본 발명의 실시 예에 따른 주변 환경 매핑 장치(100)에서, 이처럼 단안 영상의 슈퍼픽셀 공간으로부터 3차원 데이터 상에 슈퍼픽셀의 인덱스를 할당되는 예를 보이고 있는 것이다.FIG. 4 illustrates an example in which an index of a superpixel is allocated on three-dimensional data from a superpixel space of a monocular image in the apparatus 100 for mapping an environment according to an embodiment of the present invention.

도 4의 (가) 영상에서 붉은 경계는 슈퍼 픽셀의 경계를 보여주고 있으며, 주변 차량에 입혀진 포인트 집합은 레이저 스캐너(122)로부터 측정된 3차원 포인트 집합을 3차원 - 2차원 투영 행렬을 통해 2차원 상에 투영한 상태를 나타낼 수 있다. (가) 영상에서 2차원 영상 위에 투영된 각 포인트 집합은 해당 위치의 영상에서의 슈퍼 픽셀 인덱스가 할당될 수 있으며, (나) 영상은 각 포인트 데이터에 할당된 슈퍼 픽셀 인덱스를 보여준다. (다) 영상은 (나) 영상에서 무인 차량 앞에 위치한 장애물(예 : 다른 차량)의 뒷모습을 확대한 모습이다. 3차원 센서를 통해 측정된 데이터를 2차원 격자 지도상에 매핑을 한 후, (나) 영상을 통해 얻어진 각 포인트의 슈퍼 픽셀 인덱스를 통해 각 격자의 인덱스를 결정한다. 이 때, 같은 인덱스로 할당되어진 격자들은 (라) 영상과 (마) 영상과 같이 동일한 동적 상태를 가지고 있는 격자 군집으로 판단될 수 있다. In FIG. 4 (a), the red boundary shows the boundary of the superpixel, and the set of points imposed on the neighboring vehicle is obtained by dividing the set of three-dimensional points measured from the laser scanner 122 by a 2-dimensional projection matrix Dimensional image can be displayed. (A) Each set of points projected onto a two-dimensional image in the image can be assigned a super-pixel index in the image of the corresponding position, and (b) the image shows the super-pixel index assigned to each point data. (C) The image is an enlarged view of the rear view of an obstacle (eg another vehicle) located in front of an unmanned vehicle in the image (b). After mapping the data measured by the three-dimensional sensor on the two-dimensional grid map, (B) the index of each grid is determined through the super pixel index of each point obtained through the image. At this time, the grids assigned to the same index can be judged to be a lattice cluster having the same dynamic state as (D) image and (D) image.

하기 수학식 1은 이처럼 기 설정된 투영 행렬 P 에 따라 슈퍼 픽셀 인덱스가 할당되는 것을 나타낸 것이다. Equation (1) shows that a super pixel index is assigned according to the predetermined projection matrix P as described above.

Figure 112016086990160-pat00001
Figure 112016086990160-pat00001

여기서

Figure 112016086990160-pat00002
는 3D 포인트 데이터 혹은 깊이 영상 데이터의 픽셀을 의미하며, P는 3차원 포인트 데이터를 2차원 데이터 공간, 즉 2차원 영상에 투영하는 투영행렬을 의미한다. sp'와 sp는 각각 3D 포인트 데이터의 슈퍼픽셀 인덱스와 2D 데이터(2차원 영상)의 슈퍼 픽셀 인덱스를 의미할 수 있다. here
Figure 112016086990160-pat00002
Means a pixel of 3D point data or depth image data, and P means a projection matrix for projecting three-dimensional point data into a two-dimensional data space, i.e., a two-dimensional image. sp 'and sp can respectively mean a super pixel index of the 3D point data and a super pixel index of the 2D data (2D image).

한편 이처럼 슈퍼 픽셀 인덱스가, 슈퍼 픽셀의 각 위치에 할당되면, 제어부(110)는 동일한 슈퍼 픽셀 인덱스를 가지는 3차원 포인트 및 깊이 정보간의 군집화를 수행할 수 있다(S304). 여기서 격자 군집화는 동일한 장애물에 의해 활성화된 격자들의 집합을 각각 다른 동적 상태를 통해 처리하는 것이 아니라, 동일한 동적 상태를 할당하여 예측함으로써 계산의 비용과 정확성을 높일 수 있도록 하기 위한 것이다. If the super-pixel index is assigned to each position of the super-pixel, the controller 110 may perform clustering between the three-dimensional point and the depth information having the same super-pixel index (S304). Here, the lattice clustering is intended to increase the cost and accuracy of computation by assigning the same dynamic state to each of the sets of lattices activated by the same obstacle rather than through different dynamic states.

한편 상기 S304 단계에서 격자 군집화가 완료되면, 제어부(110)는 각 격자 군집을 서로 다른 상태로 표현할 수 있다(S306). 상기 S306 단계에서 제어부(110)는 각 격자 군집에서 활성화된 모든 파티클(particle)의 수 비율에 따라 활성화 상태 또는 비활성화 상태로 표현할 수 있다. Meanwhile, when the grid clustering is completed in step S304, the controller 110 can represent each grid cluster in different states (S306). In step S306, the controller 110 may represent the active state or the inactive state according to the ratio of the number of particles activated in each grid cluster.

여기서 각 격자 군집의 활성화 확률은 격자 군집 j에 가능한 모든 파티클의 수

Figure 112016086990160-pat00003
(예 : 군집 j영역에서 가능한 모든 레이저 스캐너의 레이저 반사 수)와 활성화된 모든 파티클의 수
Figure 112016086990160-pat00004
의 비율로 측정하며, 하기 수학식 2와 같다. 여기서 파티클이란 센서로부터 측정된 3차원 데이터를 의미하며, 활성화된 파티클은 장애물에 부딪힌 3차원 데이터를 의미한다. 예를 들어, 레이저 스캐너(122)의 경우 장애물에 의해 반사된 레이저 빔 하나가 하나의 활성화된 파티클을 의미할 수 있다. Here, the activation probability of each lattice cluster is the number of all possible particles in the lattice cluster j
Figure 112016086990160-pat00003
(Eg, the number of laser reflections of all possible laser scanners in cluster j area) and the number of all active particles
Figure 112016086990160-pat00004
And is expressed by the following equation (2). Here, a particle means three-dimensional data measured from a sensor, and an activated particle means three-dimensional data impinging on an obstacle. For example, in the case of the laser scanner 122, one laser beam reflected by the obstacle may mean one activated particle.

Figure 112016086990160-pat00005
Figure 112016086990160-pat00005

여기서 j는 격자 공간에서의 모든 격자 군집

Figure 112016086990160-pat00006
, N은 격자 군집 j에 활성화된 파티클의 수를 의미하며,
Figure 112016086990160-pat00007
는 각 격자 군집 j에 속한 격자 멤버 c의 가능한 모든 파티클의 수를 의미한다.
Figure 112016086990160-pat00008
는 j번째 군집에 속한 i번째 격자를 의미한다. 격자 군집 j가 비활성화 될 확률은
Figure 112016086990160-pat00009
로 표현될 수 있다.Where j is the sum of all grid clusters in the lattice space
Figure 112016086990160-pat00006
, N means the number of particles activated in the lattice cluster j,
Figure 112016086990160-pat00007
Is the number of all possible particles of the grid member c belonging to each grid cluster j.
Figure 112016086990160-pat00008
Is an i-th grid belonging to the j-th cluster. The probability of lattice cluster j being deactivated
Figure 112016086990160-pat00009
. ≪ / RTI >

한편 제어부(110)는 시간 '1'부터 현재 시간 'k'까지 측정된 레이저스캐너(122)의 데이터, 즉 3차원 센서 데이터 [X, Y, Z]로부터 2차원 격자 C = [X, Z]의 군집

Figure 112016086990160-pat00010
로 주변 환경의 상태를 확률
Figure 112016086990160-pat00011
로 표현할 수 있다. On the other hand, the controller 110 calculates the two-dimensional grid C = [X, Z] from the data of the laser scanner 122 measured from the time '1' to the current time 'k' Community of
Figure 112016086990160-pat00010
The probability of the state of the surrounding environment
Figure 112016086990160-pat00011
.

각 격자 군집의 상태

Figure 112016086990160-pat00012
는 2차원 위치와 속도 정보를 포함하는 동적 상태
Figure 112016086990160-pat00013
,
Figure 112016086990160-pat00014
와, 활성화 상태 확률
Figure 112016086990160-pat00015
,
Figure 112016086990160-pat00016
, 그리고 각 격자 군집에 속하는 격자 구성원
Figure 112016086990160-pat00017
로 구성된다. 따라서 격자 군집 i의 상태
Figure 112016086990160-pat00018
는 하기 수학식 3과 같이 표현될 수 있다. The state of each lattice cluster
Figure 112016086990160-pat00012
A dynamic state including two-dimensional position and velocity information
Figure 112016086990160-pat00013
,
Figure 112016086990160-pat00014
And an activation status probability
Figure 112016086990160-pat00015
,
Figure 112016086990160-pat00016
, And a lattice member belonging to each lattice community
Figure 112016086990160-pat00017
. Thus, the state of the grid cluster i
Figure 112016086990160-pat00018
Can be expressed by the following equation (3).

Figure 112016086990160-pat00019
Figure 112016086990160-pat00019

이에 따라 k시점에서의 격자 군집 j의 상태

Figure 112016086990160-pat00020
Figure 112016086990160-pat00021
로 표현될 수 있다. 여기서
Figure 112016086990160-pat00022
는 격자 군집 j의 구성원,
Figure 112016086990160-pat00023
는 격자 군집 j의 활성화 상태 확률(예 : 활성화 또는 비활성화 상태 확률),
Figure 112016086990160-pat00024
는 격자 군집 j의 동적 상태를 의미할 수 있다.Thus, the state of the grid cluster j at time k
Figure 112016086990160-pat00020
The
Figure 112016086990160-pat00021
. ≪ / RTI > here
Figure 112016086990160-pat00022
Is a member of lattice cluster j,
Figure 112016086990160-pat00023
(Eg, activation or deactivation probability) of the grid cluster j,
Figure 112016086990160-pat00024
May denote the dynamic state of the lattice cluster j.

하지만, 격자 공간상에서 대부분의 격자는 활성화 혹은 비활성화 상태로 판단될 수 있는 정보를 가지고 있지 않다. 예를 들어, 하나의 장애물에 의해 활성화된 격자의 뒷부분(자율주행 차량의 직선상에 놓인 영역으로부터)은 장애물 존재에 대한 판단을 센서의 측정만으로 판단하기 어려우며, 기존 방법의 대부분은 이 부분을 비활성 상태로 판단하였다. 하지만 실제 환경에서 이러한 영역은 활성화 혹은 비활성화 양쪽 모두 될 수 있는 잠재력(모두 다 가능한 확률)을 가지고 있으며, 이를 고려해야 보다 정확한 경로 예측이 가능하다. However, most of the gratings in the lattice space do not have information that can be judged as active or inactive. For example, it is difficult to judge the presence of an obstacle by the measurement of the sensor only at the rear part of the grating activated by one obstacle (from the area lying on the straight line of the autonomous vehicle) . However, in real-world environments, these areas have both potential (both probable probabilities) to be activated or deactivated, and this requires more accurate path prediction.

이러한 문제를 해결하기 위해, 본 발명에서는 알려진 영역(Known area, 센서의 원 위치로부터 첫 번째 장애물이 측정되는 영역)과 알려지지 않은 영역(Unknown area, 첫 번째 장애물 뒤로 측정 될 수 없는 영역)을 Dempster-Shafer의 증거이론을 사용해 분리하여 다루기로 한다. In order to solve this problem, in the present invention, a known area (area where the first obstacle is measured from the sensor's original position) and an unknown area (area that can not be measured after the first obstacle) Shafer's theory of evidence will be used separately.

이를 위해 각 격자 군집의 활성화 상태를 기초 신뢰 할당(Basic Belief Assignment, BBA)을 적용해 질량 함수로써 나타낸다. 여기서 BBA를 적용한 질량 함수란, 기존의 특정 상태를 확률로 표현하는 것이 아닌, 모든 상태에 대한 가능성의 확률을 질량함수로 표현하는 방법으로, 신뢰성을 다루는 시스템에 사용되는 단위이다. 즉, 예를 들어 활성 확률이 0.8 일 때, 비활성화 확률이 0.2=1-0.8 로 표현되는 것이 아니라, 활성화 확률, 비활성화 확률에 대한 상태를 독립적으로 다루며 이와 동시에 활성화와 비활성화가 모두 될 수 있는 상태(불확실 상태) 또한 질량함수로 표현한다. 이 때, 질량함수의 구성요소는 활성화 질량

Figure 112016086990160-pat00025
, 비활성화 질량
Figure 112016086990160-pat00026
, 그리고 알려지지 않은 영역(활성화 상태 또는 비활성화 상태가 될 수 있는 격자 군집의 영역), 즉 잠재적 영역의 질량
Figure 112016086990160-pat00027
이다.
Figure 112016086990160-pat00028
Figure 112016086990160-pat00029
로 계산된다. For this, the activation state of each lattice cluster is expressed as a mass function by applying Basic Belief Assignment (BBA). Here, the mass function using BBA is a unit that is used in a system that deals with reliability, by expressing the probability of possibility for all states as a mass function instead of expressing the existing specific state as a probability. That is, for example, when the activation probability is 0.8, the inactivation probability is not represented as 0.2 = 1-0.8, but the states of the activation probability and the inactivation probability are treated independently, and at the same time, Uncertain state) is also expressed as a mass function. At this time, the components of the mass function are the active mass
Figure 112016086990160-pat00025
, Inactive mass
Figure 112016086990160-pat00026
, And the unknown area (the area of the lattice cluster that can be in the active state or the inactive state), that is, the mass of the potential area
Figure 112016086990160-pat00027
to be.
Figure 112016086990160-pat00028
The
Figure 112016086990160-pat00029
.

결과적으로, k시점에서의 격자 군집 j의 상태

Figure 112016086990160-pat00030
Figure 112016086990160-pat00031
로 표현(representation)될 수 있다. 여기서 상기
Figure 112016086990160-pat00032
는 질량 함수, 즉 활성화 질량
Figure 112016086990160-pat00033
, 비활성화 질량
Figure 112016086990160-pat00034
, 그리고 잠재적 질량
Figure 112016086990160-pat00035
가 반영된 격자 군집의 상태 확률을 의미할 수 있다. As a result, the state of the grid cluster j at time k
Figure 112016086990160-pat00030
The
Figure 112016086990160-pat00031
As shown in FIG. Here,
Figure 112016086990160-pat00032
Is a mass function, that is,
Figure 112016086990160-pat00033
, Inactive mass
Figure 112016086990160-pat00034
, And potential mass
Figure 112016086990160-pat00035
Can be defined as the probability of the state of the grid clusters.

활성화 상태는 격자 군집에 속한 대부분의 파티클(임계값 이상의)이 장애물에 부딪혔을 경우를, 비활성화는 무인 차량으로부터 활성화된 격자 까지의 직선 상에 놓인 격자 군집 (즉, 무인차량~활성화 격자 사이에는 센서로부터 어떠한 측정이 없었기 때문에, 비활성화 확률이 높음), 그리고 알려지지 않은 영역은 무인차량으로부터 활성화 상태로 판단되는 격자군집 뒷 부분의 영역이 포함될 수 있다.The activation state is defined as the case where most of the particles belonging to the lattice cluster (above the threshold value) collide with the obstacle, and the inactivation is the lattice community lying on the straight line from the unmanned vehicle to the activated lattice The probability of inactivation is high because there is no measurement), and the unknown area may include the area behind the grid clusters determined to be active from the unmanned vehicle.

모든 격자 군집은 세 상태(활성화, 비활성화, 잠재적)에 대한 확률을 모두 가지고 있으며, 결과적으로, 초기 각 상태(활성화, 비활성화, 잠재적)는 다음과 같다. All grid clusters have all three probabilities (activation, deactivation, potential), and consequently, the initial angular states (activation, deactivation, potential) are as follows.

Figure 112016086990160-pat00036
는 위에서 명시된 확률 측정 방법으로 표현될 수 있다(0~1 의 값)(상기 수학식 2). 그리고
Figure 112016086990160-pat00037
는 무인 차량 ~ 활성화 확률이 0 인 격자 군집에서는 1 로, 그리고
Figure 112016086990160-pat00038
가 0 이상 1 미만인 격자 군집에서는 1 -
Figure 112016086990160-pat00039
으로 표현될 수 있다.
Figure 112016086990160-pat00040
Figure 112016086990160-pat00041
로 측정이 될 수 있다. 즉
Figure 112016086990160-pat00042
Figure 112016086990160-pat00043
가 없는 영역, 센서의 측정이 아직 이루어지지 않은 영역(
Figure 112016086990160-pat00044
= 0,
Figure 112016086990160-pat00045
= 0)은, 초기 상태로
Figure 112016086990160-pat00046
= 1 이 할당될 수 있다.
Figure 112016086990160-pat00036
Can be expressed by the above-described probability measurement method (a value of 0 to 1) (Equation 2). And
Figure 112016086990160-pat00037
Is 1 for unmanned vehicles ~ lattice communities with 0 activation probability, and
Figure 112016086990160-pat00038
Is 0 or more but less than 1,
Figure 112016086990160-pat00039
. ≪ / RTI >
Figure 112016086990160-pat00040
The
Figure 112016086990160-pat00041
. ≪ / RTI > In other words
Figure 112016086990160-pat00042
Wow
Figure 112016086990160-pat00043
The area where the sensor has not yet been measured (
Figure 112016086990160-pat00044
= 0,
Figure 112016086990160-pat00045
= 0), the initial state
Figure 112016086990160-pat00046
= 1 can be assigned.

한편 각 격자 군집의 상태가 활성화 상태, 비활성화 상태, 잠재적 상태로 표현되면, 제어부(110)는 현재 시간 k에서의 격자 군집

Figure 112016086990160-pat00047
상태로부터 다음 시간 k+1 에서의 상태를 예측할 수 있다(S308). 이 모델에서, 본 발명은 각 격자 군집의 사후 상태(Posterior state)를 하기 수학식 4와 같이 할당할 수 있다. If the state of each lattice cluster is expressed as an active state, an inactive state, and a latent state, the controller 110 determines
Figure 112016086990160-pat00047
The state at the next time k + 1 can be predicted (S308). In this model, the present invention can allocate the posterior state of each grid cluster as shown in Equation (4).

Figure 112016086990160-pat00048
Figure 112016086990160-pat00048

이를 위해 제어부(110)는 먼저 무인 차량(200)의 속도 v와 회전각(yaw rate)

Figure 112016086990160-pat00049
를 센서부(120)로부터 획득할 수 있다. 그리고 획득된 정보는 현재 프레임의 시간변화 T동안의 장애물 동적 상태를 정확히 예측하기 위해 사용될 수 있다. 시간 k와 k+1사이의 변화 T동안의 회전각은
Figure 112016086990160-pat00050
로 계산되며, 운전 거리는
Figure 112016086990160-pat00051
로 계산될 수 있다. 그러면 제어부(110)는 이를 이용하여 격자 군집의 위치 근원(origin)을 하기 수학식 5와 같이 계산할 수 있다. For this, the control unit 110 firstly calculates the velocity v and the yaw rate of the unmanned vehicle 200,
Figure 112016086990160-pat00049
Can be acquired from the sensor unit 120. And the obtained information can be used to accurately predict the dynamic state of the obstacle during the time variation T of the current frame. The angle of rotation during the change T between time k and k + 1 is
Figure 112016086990160-pat00050
, And the driving distance
Figure 112016086990160-pat00051
Lt; / RTI > Then, the control unit 110 can calculate the origin of the grid cluster according to Equation (5).

Figure 112016086990160-pat00052
Figure 112016086990160-pat00052

여기서

Figure 112016086990160-pat00053
Figure 112016086990160-pat00054
는 각각 격자 군집의 x축 크기와 z축 크기를 의미한다. 결과적으로, 각 격자 군집의 위치는 하기 수학식 6과 같이 보상(compensate)될 수 있다. here
Figure 112016086990160-pat00053
Wow
Figure 112016086990160-pat00054
Denote the x-axis size and the z-axis size of the lattice cluster, respectively. As a result, the position of each lattice cluster can be compensated as shown in Equation (6) below.

Figure 112016086990160-pat00055
Figure 112016086990160-pat00055

보상된 k에서의 각 격자 군집의 위치 정보를 기반으로 하기 수학식 7을 적용함으로써 제어부(110)는 k+1에서의 동적 상태를 예측 할 수 있다.The controller 110 can predict the dynamic state at k + 1 by applying Equation (7) based on the position information of each lattice cluster in the compensated k.

Figure 112016086990160-pat00056
Figure 112016086990160-pat00056

여기서

Figure 112016086990160-pat00057
는 임의적으로 그려진 이산 가우시안 잡음으로 평균값 0과 칼만 필터의 공분산 행렬 Q를 갖는다. here
Figure 112016086990160-pat00057
Is an arbitrarily drawn discrete Gaussian noise with mean value 0 and a covariance matrix Q of Kalman filter.

한편 예측된 각 격자 군집의 동적 상태를 기반으로, 시간 변화 T 동안 군집 a에서 j로 이동되는 파티클 이전(Transition) 상태를 측정함으로써 하기 수학식 8과 같이 연산 할 수 있다.On the other hand, based on the predicted dynamic state of each lattice cluster, it is possible to calculate the transition state of the particle moving from the cluster a to j during the time change T by the following equation (8).

Figure 112016086990160-pat00058
Figure 112016086990160-pat00058

여기서 N은 시간 k에서 k+1 동안 격자 a에서 j로 이동한 파티클의 개수를 의미할 수 있다. Where N can be the number of particles moving from grid a to j for k + 1 at time k.

한편 시간 k 에서의 격자 군집의 상태는 활성화 상태와 동적 상태로 이루어질 수 있다. 그리고 상기 수학시 8에서 보이고 있는 바와 같이 시간 k 에서의 격자 군집의 동적상태를 기반으로, 시간 k+1 에서의 격자 군집에 속한 파티클의 위치를 예측할 수 있다. 그리고 예측된 시간 k+1에서의 파티클의 위치를 통해 시간 k+1에서의 해당 격자 군집의 활성화 상태를 예측할 수 있다.On the other hand, the state of the grid cluster at time k can be made active and dynamic. And, as shown in the mathematical expression 8, the position of the particle belonging to the lattice community at time k + 1 can be predicted based on the dynamic state of the lattice community at time k. Then, the activation state of the corresponding lattice community at time k + 1 can be predicted through the position of the particle at the predicted time k + 1.

이 때, 시간변화 T 동안 이동하지 않은 파티클 즉,

Figure 112016086990160-pat00059
도 고려할 수 있다. 본 발명은 이처럼 상기 잠재적 영역의 질량(
Figure 112016086990160-pat00060
,
Figure 112016086990160-pat00061
=
Figure 112016086990160-pat00062
)에서 보이고 있는 바와 같이, 잠재적 영역에 대한 고려를 위해 비활성화 확률 또한 측정하기 위해 시간 종속 인자(time-dependent factor)를 더 이용해 비활성화 상태 예측을 하기 수학식 9와 같이 수행할 수 있다. At this time, particles that have not moved for a time variation T, i.e.,
Figure 112016086990160-pat00059
Can be considered. The present invention thus provides a method for determining the mass of the potential region
Figure 112016086990160-pat00060
,
Figure 112016086990160-pat00061
=
Figure 112016086990160-pat00062
), As shown in Equation (9), the deactivation state prediction can be further performed using a time-dependent factor to measure the deactivation probability for consideration of the potential area.

Figure 112016086990160-pat00063
Figure 112016086990160-pat00063

여기서

Figure 112016086990160-pat00064
는, 시간에 따른 불확실성의 증가를 모델링한 시간-절감 인자(time-discounting factor)를 의미할 수 있다. 만약 격자 군집이 일정 시간 동안 갱신 되지 않았을 때, 해당 군집의 기초 신뢰 할당(Basic Belief Assignment, BBA)은 신뢰성이 감소하는 사실을 모델링 한 것이다. here
Figure 112016086990160-pat00064
May refer to a time-discounting factor modeling an increase in uncertainty over time. The basic belief assignment (BBA) of the cluster is modeled when the lattice cluster is not updated for a certain period of time.

한편, 상기 S308 단계에서 격자 군집 상태의 예측이 완료되면 제어부(110)는 예측된 격자 군집의 상태(k+1)에 근거하여 격자 군집의 상태를 갱신할 수 있다(S310). 상기 S310 단계에서는, 시간 k 에서 측정된 격자 군집의 상태를 기반으로 예측한 시간 k+1에서의 격자 군집 상태와, 실제로 시간 k+1 이 되었을 때 측정된 격자 군집의 상태를 통해 상태를 갱신할 수 있다. 즉, 시간 k에서 예측된 k+1의 상태와 실제 시간 k+1 에서 측정된 상태를 통해 격자 군집의 상태를 갱신할 수 있다. If the prediction of the grid cluster state is completed in step S308, the controller 110 may update the state of the grid cluster based on the predicted state k + 1 of the grid cluster S310. In step S310, the state is updated through the grid cluster state at time k + 1 predicted based on the state of the grid cluster measured at time k and the state of the grid cluster measured at time k + 1 . That is, the state of the lattice cluster can be updated through the state of k + 1 predicted at time k and the state measured at actual time k + 1.

이 과정은 Dempster-Shafer 결합 이론을 통해 수행될 수 있다. 상기 S310 단계에서 제어부(110)는 현재 관측된 데이터(시간 k+1에서의 격자 군집 상태)와 시간 k에서 예측된 상태(예측된 시간 k+1에서의 격자 군집 상태)를 결합한다. 이 과정을 통해, 사후 활성화 BBA

Figure 112016086990160-pat00065
을 하기 수학식 10과 같이 얻을 수 있다.This process can be performed through the Dempster-Shafer coupling theory. In step S310, the controller 110 combines the currently observed data (the grid cluster state at time k + 1) and the predicted state at time k (the grid cluster state at the predicted time k + 1). Through this process, post-activation BBA
Figure 112016086990160-pat00065
Can be obtained as shown in Equation (10).

Figure 112016086990160-pat00066
Figure 112016086990160-pat00066

한편 제어부(110)는 상기 수학식 10의 결과에 대해 피그니스틱(pignistic) 변환을 수행할 수 있다. 여기서 피그니스틱 변환은 의사 결정을 위해 사용되어 진다. 피그니스틱 변환은 선형 요구(linearity requirement)에 의해 정이되어지며, 주어진 상태에 대한 세부 확률의 선형 결합을 통해 하나의 상태를 표현하는 방법이다. 상기 피그니스틱 변환 결과는 관측 데이터와 예측된 데이터에 각각 피그니스틱 변환을 적용하여 융합한 결과와 같다.Meanwhile, the controller 110 may perform a pignistic conversion on the result of Equation (10). Here Pigonist transformation is used for decision making. Pigonistic transformation is defined by a linearity requirement and is a way of expressing a state through a linear combination of detailed probabilities for a given state. The results of the pignic transformation are the same as those obtained by applying the pignic transformation to the observed data and the predicted data, respectively.

한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention. Accordingly, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the essential characteristics of the invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the scope of the present invention but to limit the scope of the technical idea of the present invention. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100 : 무인 차량의 주변 환경 매핑 장치
110 : 제어부 120 : 센서부
122 : 레이저 스캐너 124 : 양안 카메라
126 : 관성 센서 130 : 예측부
100: Unmanned vehicle environment mapping device
110: control unit 120: sensor unit
122: laser scanner 124: binocular camera
126: inertia sensor 130:

Claims (8)

무인 차량에서 주변 환경을 매핑하는 방법에 있어서,
상기 무인 차량에 구비된 적어도 하나의 카메라로부터 센싱된 영상 중 어느 하나로부터 기 설정된 방식에 따라 슈퍼 픽셀을 추출하는 단계;
상기 무인 차량에 구비된 3차원 스캐너에서 상기 무인 차량 주변을 감지한 결과로부터 깊이 데이터 및 3D 포인트 데이터를 추출하는 단계;
상기 추출된 슈퍼 픽셀에, 기 설정된 투영 행렬을 이용하여 상기 깊이 데이터 및 3D 포인트 데이터를 투영하여 상기 슈퍼 픽셀의 각 위치에 슈퍼 픽셀 인덱스를 할당하는 단계;
할당된 슈퍼 픽셀 인덱스에 따라 상기 슈퍼 픽셀을 구성하는 각 격자를 군집화하는 단계;
상기 슈퍼 픽셀의 각 격자 군집의 활성화 상태를, 인식된 장애물에 근거하여 활성화된 상태, 비활성화된 상태, 그리고 상기 활성화된 상태 또는 비활성화된 상태로 구분되지 않은 잠재적 상태로 구분하는 단계;
상기 무인 차량의 이동 속도 및 회전각에 근거하여 현재 시점 k의 다음 시점인 k+1 시점의 각 격자 군집의 동적 상태를 예측하는 단계;
예측된 동적 상태에 근거하여 각 격자 군집 간에 이동한 파티클들을 검출 및, 검출된 파티클들에 따라 상기 다음 시점의 각 격자 군집의 활성화 상태를 예측하는 단계; 및,
상기 현재 시점 k 이전 시점인 k-1 시점에서 예측된 격자 군집의 활성화 상태와, 현재 시점 k에서 측정된 각 격자 군집의 활성화 상태를 결합하여, 각 격자 군집의 활성화 상태를 갱신하는 단계를 포함하는 것을 특징으로 하는 무인 차량 주변의 환경을 매핑하는 방법.
A method for mapping an environment in an unmanned vehicle,
Extracting a super pixel from any one of images sensed by at least one camera provided in the unmanned vehicle according to a predetermined method;
Extracting depth data and 3D point data from a result of sensing the periphery of the unmanned vehicle in a three-dimensional scanner provided in the unmanned vehicle;
Projecting the depth data and 3D point data to the extracted super pixels using a predetermined projection matrix and assigning super pixel indices to respective positions of the super pixels;
Clustering each grid constituting the superpixel according to the assigned superpixel index;
Dividing an activation state of each lattice community of the super pixel into an activated state, an inactive state, and a latent state that is not classified as the activated state or the inactivated state based on the recognized obstacle;
Estimating a dynamic state of each lattice community at a time point k + 1 that is the next time point of the current time point k based on the moving speed and the rotation angle of the unmanned vehicle;
Detecting particles moving between the lattice clusters based on the predicted dynamic state, and predicting the activation state of each lattice cluster at the next time point according to the detected particles; And
And updating the activation state of each lattice community by combining the activation state of the lattice community predicted at the k-1 time point before the current point k and the activation state of each lattice community measured at the current point k, Wherein the method comprises the steps of:
제1항에 있어서, 상기 각 격자를 군집화하는 단계는,
동일한 슈퍼 픽셀 인덱스를 갖는 3차원 포인트 및 깊이 정보 간의 군집화를 수행하는 단계임을 특징으로 하는 무인 차량 주변의 환경을 매핑하는 방법.
The method of claim 1, wherein clustering each grid comprises:
Wherein the step of clustering between three-dimensional points and depth information having the same super pixel index is performed.
제1항에 있어서, 상기 각 격자 군집의 활성화 상태를 구분하는 단계는,
상기 격자 군집 중 어느 하나의 격자 군집을 구성하는 각 파티클들 중 활성화된 파티클들 및 비활성화된 파티클들에 따라 활성화 영역, 비활성화 영역으로 구분하는 제1 단계;
상기 어느 하나의 격자 군집에 구분된 활성화 영역 및 비활성화 영역에 근거하여 잠재적 영역을 산출하는 제2 단계;
상기 활성화 영역으로부터 활성화 질량, 상기 비활성화 영역으로부터 비활성화 질량, 그리고 상기 잠재적 영역으로부터 잠재적 질량을 산출하는 제3 단계;
상기 산출된 활성화 질량, 비활성화 질량, 그리고 잠재적 질량에 근거하여 상기 어느 하나의 격자 군집의 활성화 상태를 구분하는 제4 단계;
상기한 어느 하나의 격자 군집 외에 다른 격자 군집에 상기 제1 단계 내지 제4 단계를 반복하여, 상기 슈퍼 픽셀을 구성하는 각 격자 군집들의 활성화 상태를 구분하는 단계를 포함하는 것을 특징으로 하는 무인 차량 주변의 환경을 매핑하는 방법.
The method according to claim 1, wherein the dividing of the activation states of the grid groups comprises:
A first step of dividing the particles into active areas and inactive areas according to activated particles and deactivated particles among the particles constituting one of the grid clusters;
A second step of calculating a potential area based on the active area and the inactive area divided into one of the grid groups;
A third step of calculating an activation mass from the activation region, an inactive mass from the inactive region, and a potential mass from the potential region;
A fourth step of distinguishing activation states of any one of the grid clusters based on the calculated activation mass, inactivation mass, and potential mass;
And repeating the first to fourth steps in a different lattice community other than any one of the lattice communities described above to distinguish activation states of the lattice communities constituting the superpixel Of the environment.
제1항에 있어서, 상기 각 격자 군집의 동적 상태를 예측하는 단계는,
상기 무인 차량에 구비된 관성 센서에 근거하여 상기 무인 차량의 이동 속도 및 회전각을 획득하는 단계;
상기 획득된 이동 속도 및 회전각에 근거하여 기 설정된 시간 동안의 상기 무인 차량의 회전각 및 운전 거리를 산출하는 단계;
산출된 상기 기 설정된 시간 동안의 회전각 및 운전 거리에 근거하여 각 격자 군집의 위치 근원을 산출하는 단계;
산출된 위치 근원에 근거하여, 상기 각 격자 군집의 위치를 보상하는 단계; 및,
산출된 각 격자 군집의 위치 정보 및 기 설정된 이산 가우시안 잡음에 근거하여 상기 다음 시점의 각 격자 군집의 동적 상태를 예측하는 단계를 포함하는 것을 특징으로 하는 무인 차량 주변의 환경을 매핑하는 방법.
2. The method of claim 1, wherein the step of estimating the dynamic state of each lattice-
Acquiring a moving speed and an angle of rotation of the unmanned vehicle based on an inertial sensor provided in the unmanned vehicle;
Calculating a rotation angle and an operation distance of the unmanned vehicle during a predetermined time based on the obtained movement speed and rotation angle;
Calculating a location source of each lattice community based on the calculated rotation angle and operation distance for the predetermined time;
Compensating the position of each grid cluster based on the calculated position source; And
Estimating a dynamic state of each grid cluster at the next time point based on the calculated positional information of each grid cluster and predetermined discrete Gaussian noise.
무인 차량에서 주변 환경 매핑을 수행하는 장치에 있어서,
3차원 스캐너 및 적어도 하나의 카메라, 그리고 상기 무인 차량의 속도 및 회전각을 감지하는 관성 센서를 포함하는 센서부;
상기 3차원 스캐너로부터 센싱된 3D 포인트 데이터 및 깊이 정보, 그리고 기 설정된 투영 행렬에 근거하여, 상기 적어도 하나의 카메라 중 어느 하나로부터 센싱된 영상으로부터 추출된 슈퍼 픽셀의 각 영역에 슈퍼 픽셀 인덱스를 할당하며, 할당된 슈퍼 픽셀 인덱스에 근거하여 상기 슈퍼 픽셀을 구성하는 각 격자들을 군집화하고,
상기 슈퍼 픽셀 인덱스에 근거하여 상기 무인 차량 주변의 장애물을 인식하고, 인식된 장애물에 근거하여 상기 슈퍼 픽셀의 각 격자 군집의 활성화 상태를 활성화된 상태, 비활성화된 상태, 그리고 잠재적 상태로 구분하며,
상기 무인 차량의 이동 속도 및 회전각에 근거하여 현재 시점 k 다음 시점의 각 격자 군집의 동적 상태를 예측 및, 현재 시점 k에서 측정된 각 격자 군집의 상태와, 상기 현재 시점 k 이전 시점인 k-1 시점에서 예측된 각 격자 군집의 활성화 상태를 서로 결합하여 각 격자 군집의 활성화 상태를 갱신하는 제어부를 포함하는 것을 특징으로 하는 무인 차량 주변의 환경을 매핑하는 장치.
An apparatus for performing an environment mapping in an unmanned vehicle,
A sensor unit including a three-dimensional scanner, at least one camera, and an inertial sensor for sensing a speed and a rotation angle of the unmanned vehicle;
A super pixel index is assigned to each area of the super pixel extracted from the image sensed from any one of the at least one camera based on 3D point data and depth information sensed from the 3D scanner and a predetermined projection matrix , Clustering each grid constituting the superpixel based on the assigned superpixel index,
Recognizes an obstacle around the unmanned vehicle based on the super pixel index, and divides an activation state of each grid cluster of the super pixel into an activated state, an inactive state, and a potential state based on the recognized obstacle,
Estimating a dynamic state of each lattice cluster at a point in time after the current point k based on the moving speed and the rotation angle of the unmanned vehicle, calculating a state of each lattice cluster measured at the current point k, And a control unit for updating the activation state of each lattice community by combining the activation states of the respective lattice communities predicted at the one point in time.
제5항에 있어서, 상기 제어부는,
동일한 슈퍼 픽셀 인덱스를 갖는 3차원 포인트 및 깊이 정보 간의 군집화를 수행하여 상기 슈퍼 픽셀을 구성하는 각 격자들을 군집화하는 것을 특징으로 하는 무인 차량 주변의 환경을 매핑하는 장치.
6. The apparatus of claim 5,
And clustering the three-dimensional points and the depth information having the same super pixel index to cluster the respective gratings constituting the super pixel.
제5항에 있어서, 상기 제어부는,
상기 각 격자 군집을 구성하는 파티클들 중, 활성화된 파티클 및 비활성화된 파티클에 근거하여, 상기 각 격자 군집을 활성화 영역, 비활성화 영역, 그리고 잠재적 영역으로 구분하며,
상기 각 격자 군집의 활성화 영역, 비활성화 영역, 그리고 잠재적 영역에 근거하여 각 격자 군집으로부터 활성화 질량, 비활성화 질량, 그리고 잠재적 질량을 산출하고,
상기 산출된 각 격자 군집의 활성화 질량, 비활성화 질량, 그리고 잠재적 질량에 근거하여, 상기 각 격자 군집의 활성화 상태를 상기 활성화된 상태와 비활성화된 상태, 그리고 잠재적 상태 중 어느 하나로 구분하는 것을 특징으로 하는 무인 차량 주변의 환경을 매핑하는 장치.
6. The apparatus of claim 5,
Wherein each of the lattice communities is divided into an activation region, a deactivation region, and a potential region, based on the activated particles and the deactivated particles,
The active mass, the inactive mass, and the potential mass are calculated from the respective lattice communities based on the activation region, the inactive region, and the potential region of each lattice community,
Wherein the active state of each grid cluster is divided into the active state, the inactive state, and the latent state based on the calculated activation mass, inactivation mass, and potential mass of each grid community. An apparatus for mapping an environment around a vehicle.
제5항에 있어서, 상기 제어부는,
상기 무인 차량의 이동 속도 및 회전각에 근거하여 기 설정된 시간 동안의 상기 무인 차량의 회전각 및 운전 거리를 산출하고, 산출된 회전각 및 운전 거리에 근거하여 상기 각 격자 군집의 위치 근원을 산출하며, 산출된 각 격자 군집의 위치 근원에 근거하여, 상기 각 격자 군집의 위치를 보상 및, 보상된 각 격자 군집의 위치 및 기 설정된 이산 가우시안 잡음에 근거하여 상기 다음 시점의 각 격자 군집의 동적 상태를 예측하는 것을 특징으로 하는 무인 차량 주변의 환경을 매핑하는 장치.
6. The apparatus of claim 5,
Calculates a rotation angle and an operation distance of the unmanned vehicle during a predetermined time based on the moving speed and the rotation angle of the unmanned vehicle, calculates the position sources of the respective lattice communities based on the calculated rotation angle and the operation distance, And compensating for the position of each lattice community based on the location sources of the calculated lattice communities and calculating the dynamic state of each lattice community at the next time point based on the positions of the compensated lattice communities and predetermined discrete Gaussian noise And estimating an environment around the unmanned vehicle.
KR1020160114595A 2016-09-06 2016-09-06 Apparatus and method for environment mapping of an unmanned vehicle KR101864127B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160114595A KR101864127B1 (en) 2016-09-06 2016-09-06 Apparatus and method for environment mapping of an unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160114595A KR101864127B1 (en) 2016-09-06 2016-09-06 Apparatus and method for environment mapping of an unmanned vehicle

Publications (2)

Publication Number Publication Date
KR20180027242A KR20180027242A (en) 2018-03-14
KR101864127B1 true KR101864127B1 (en) 2018-06-29

Family

ID=61660669

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160114595A KR101864127B1 (en) 2016-09-06 2016-09-06 Apparatus and method for environment mapping of an unmanned vehicle

Country Status (1)

Country Link
KR (1) KR101864127B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220096564A (en) * 2020-12-31 2022-07-07 주식회사 선익시스템 Aligning apparatus in substrate processing equipment and aligning method thereof
KR20240125815A (en) 2023-02-10 2024-08-20 한화에어로스페이스 주식회사 Unmanned vehicle and method for tracking moving obstacles

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102560462B1 (en) * 2018-08-23 2023-07-26 엘지전자 주식회사 Moving robot
US11182623B2 (en) * 2019-04-30 2021-11-23 Baidu Usa Llc Flexible hardware design for camera calibration and image pre-procesing in autonomous driving vehicles
KR102247050B1 (en) * 2019-05-27 2021-04-30 주식회사 몹티콘 Multidirection unmanned camera system,and crackdown method by the camera
CN110992730A (en) * 2019-12-05 2020-04-10 北京京东乾石科技有限公司 Traffic data processing method and related equipment
KR102480715B1 (en) * 2022-10-13 2022-12-23 (주)올포랜드 Method of automatically creating evacuation route based on drawing images using deep learning

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233440A (en) 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
JP2010282615A (en) 2009-05-29 2010-12-16 Honda Research Inst Europe Gmbh Object motion detection system based on combining 3d warping technique and proper object motion (pom) detection
KR101097182B1 (en) 2010-07-12 2011-12-21 국방과학연구소 Method for extracting the machable information with elavation map in 3-dimension distance information
KR101409323B1 (en) 2013-03-19 2014-07-02 국방과학연구소 Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101188588B1 (en) * 2008-03-27 2012-10-08 주식회사 만도 Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233440A (en) 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
JP2010282615A (en) 2009-05-29 2010-12-16 Honda Research Inst Europe Gmbh Object motion detection system based on combining 3d warping technique and proper object motion (pom) detection
KR101097182B1 (en) 2010-07-12 2011-12-21 국방과학연구소 Method for extracting the machable information with elavation map in 3-dimension distance information
KR101409323B1 (en) 2013-03-19 2014-07-02 국방과학연구소 Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220096564A (en) * 2020-12-31 2022-07-07 주식회사 선익시스템 Aligning apparatus in substrate processing equipment and aligning method thereof
KR102664485B1 (en) 2020-12-31 2024-05-08 주식회사 선익시스템 Aligning apparatus in substrate processing equipment and aligning method thereof
KR20240125815A (en) 2023-02-10 2024-08-20 한화에어로스페이스 주식회사 Unmanned vehicle and method for tracking moving obstacles

Also Published As

Publication number Publication date
KR20180027242A (en) 2018-03-14

Similar Documents

Publication Publication Date Title
KR101864127B1 (en) Apparatus and method for environment mapping of an unmanned vehicle
EP3732657B1 (en) Vehicle localization
CN112292711B (en) Associating LIDAR data and image data
CN110363058B (en) Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural networks
US10949684B2 (en) Vehicle image verification
US10192113B1 (en) Quadocular sensor design in autonomous platforms
JP6672212B2 (en) Information processing apparatus, vehicle, information processing method and program
US10496104B1 (en) Positional awareness with quadocular sensor in autonomous platforms
Ćesić et al. Radar and stereo vision fusion for multitarget tracking on the special Euclidean group
Held et al. Precision tracking with sparse 3d and dense color 2d data
Siegemund et al. A temporal filter approach for detection and reconstruction of curbs and road surfaces based on conditional random fields
JP2022513866A (en) Object classification using out-of-domain context
JP5023186B2 (en) Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection
KR101628155B1 (en) Method for detecting and tracking unidentified multiple dynamic object in real time using Connected Component Labeling
KR102168288B1 (en) System and method for tracking multiple object using multi-LiDAR
KR20200075727A (en) Method and apparatus for calculating depth map
JP2021522607A (en) Methods and systems used in point cloud coloring
Danescu et al. Particle grid tracking system stereovision based obstacle perception in driving environments
US20230237210A1 (en) 3d multi-object simulation
Kumar Rath et al. Real‐time moving object detection and removal from 3D pointcloud data for humanoid navigation in dense GPS‐denied environments
KR20230036243A (en) Real-time 3D object detection and tracking system using visual and LiDAR
JP2022091474A (en) Information processor, information processing method, program and vehicle control system
WO2024015891A1 (en) Image and depth sensor fusion methods and systems
Høilund et al. Improving stereo camera depth measurements and benefiting from intermediate results
Madrigal et al. Motion priors for multiple target visual tracking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant