KR20200102108A - Apparatus for detecting object of vehicle and method thereof - Google Patents

Apparatus for detecting object of vehicle and method thereof Download PDF

Info

Publication number
KR20200102108A
KR20200102108A KR1020190020287A KR20190020287A KR20200102108A KR 20200102108 A KR20200102108 A KR 20200102108A KR 1020190020287 A KR1020190020287 A KR 1020190020287A KR 20190020287 A KR20190020287 A KR 20190020287A KR 20200102108 A KR20200102108 A KR 20200102108A
Authority
KR
South Korea
Prior art keywords
vehicle
feature points
unit
camera
feature point
Prior art date
Application number
KR1020190020287A
Other languages
Korean (ko)
Inventor
유소희
류수용
임종우
홍은태
최병헌
Original Assignee
현대모비스 주식회사
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사, 한양대학교 산학협력단 filed Critical 현대모비스 주식회사
Priority to KR1020190020287A priority Critical patent/KR20200102108A/en
Publication of KR20200102108A publication Critical patent/KR20200102108A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an apparatus for detecting an object of a vehicle and a method thereof. The apparatus comprises: a camera pose estimation unit which estimates camera pose information by converting vehicle pose information acquired through a vehicle wheel speed measurement system into a coordinate system of a camera of the vehicle; a feature point tracking unit which extracts a point existing on the image acquired through the camera, projects the point on a reference line existing on the image, and tracks, as a feature point, the point projected on the reference line according to a predefined feature point tracking algorithm; a three-dimensional environment map generating unit which calculates three-dimensional coordinates of the plurality of feature points tracked by the feature point tracking unit using the camera pose information estimated by the camera pose estimation unit and generates a three-dimensional environment map based on a plurality of three-dimensional feature points having the calculated three-dimensional coordinates; and a stationary object detection unit which clusters the three-dimensional feature points by projecting, onto a reference plane, the three-dimensional feature points on the three-dimensional environment map generated by the three-dimensional environment map generating unit, and detects a stationary object around the vehicle based on the clustering result.

Description

차량의 객체 검출 장치 및 방법{APPARATUS FOR DETECTING OBJECT OF VEHICLE AND METHOD THEREOF}Vehicle object detection device and method {APPARATUS FOR DETECTING OBJECT OF VEHICLE AND METHOD THEREOF}

본 발명은 차량의 객체 검출 장치 및 방법에 관한 것으로서, 더욱 상세하게는 차량의 궤적 상에 존재하는 정지 객체 및 이동 객체를 검출하는 차량의 객체 검출 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for detecting an object of a vehicle, and more particularly, to an apparatus and method for detecting an object of a vehicle for detecting a stationary object and a moving object existing on a trajectory of a vehicle.

종래의 카메라를 사용하여 물체를 검출하는 기술로서, 다수의 카메라를 통해 획득되는 이미지 영상에서 관측되는 픽셀들의 3차원 점을 복원하거나 카메라 및 다른 거리 탐지 센서를 통해 획득되는 3차원 점들을 분류하여 물체를 검출하는 방법이 적용되고 있다. 단안 카메라를 사용하여 물체를 검출할 경우에는 연속된 이미지 내에서 픽셀들을 이미지마다 추적하여 매칭된 픽셀들의 3차원 점을 구축하고 이를 분류하여 물체를 검출하는 방법을 사용한다. 연속된 이미지에서 픽셀들을 추적하는 방법은 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘을 통해 특징점을 추적하는 방법, 또는 SIFT(Scale-Invariant Feature Transform) 알고리즘을 통해 특징점을 추출하여 매칭하는 방법이 있으며, 특징점 매칭 방법은 여러 대의 카메라에서 같은 순간의 이미지끼리 특징점들을 매칭할 때도 쓰이고 있다.As a technology for detecting an object using a conventional camera, an object by restoring 3D points of pixels observed in an image image acquired through multiple cameras or by classifying 3D points acquired through cameras and other distance detection sensors. A method of detecting is applied. When an object is detected using a monocular camera, a method of detecting an object by constructing a 3D point of matched pixels by tracking pixels in a continuous image for each image is used. A method of tracking pixels in a continuous image includes a method of tracking a feature point through a Kanade-Lucas-Tomasi (KLT) tracking algorithm, or a method of extracting and matching a feature point through a Scale-Invariant Feature Transform (SIFT) algorithm. The feature point matching method is also used to match feature points between images at the same moment in multiple cameras.

한편, 차량에 장착된 하나의 카메라만을 사용하여 객체를 검출하고자 할 경우, 카메라를 통해 획득된 2D 이미지 상에서 객체를 검출할 수는 있지만, 해당 객체가 차량으로부터 실제로 얼마나 떨어져 있는지에 대한 정확한 거리 정보는 얻을 수 없는 문제점이 있다. 또한, 카메라와 차량의 속도 측정계를 같이 사용하는 종래의 기술은 전술한 KLT Tracking 알고리즘 또는 SIFT 알고리즘을 기반으로 시스템이 운영됨으로 인해 장애물과 같은 객체 검출에 어려움이 있으며, 이미지에 존재하는 모든 픽셀을 사용하는 dense한 방법을 사용하는 종래 기술들은 객체 검출에 소요되는 시간이 매우 크다는 단점이 있다.On the other hand, if you want to detect an object using only one camera mounted on the vehicle, you can detect the object on the 2D image acquired through the camera, but the accurate distance information about how far the object is actually from the vehicle is There is a problem that cannot be obtained. In addition, the conventional technology that uses the camera and the vehicle's speed measurement system together has difficulty in detecting objects such as obstacles because the system is operated based on the aforementioned KLT Tracking algorithm or SIFT algorithm, and all pixels present in the image are used. Conventional techniques using a dense method have a disadvantage in that the time required for object detection is very large.

본 발명의 배경기술은 대한민국 공개특허공보 제10-2011-0060600호(2011.06.08. 공개)에 개시되어 있다.The background technology of the present invention is disclosed in Korean Patent Application Publication No. 10-2011-0060600 (published on June 08, 2011).

본 발명은 전술한 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 일 측면에 따른 목적은 차량의 카메라를 통해 획득되는 이미지 영상과 차량의 휠 속도 측정계를 활용하여 차량 주변의 3차원 환경지도를 구축하고, 구축된 3차원 환경지도를 기반으로 차량 궤적 상의 객체를 검출하는 방식을 통해 차량 주변의 정지 객체 및 이동 객체를 정밀하게 검출함으로써 운전자의 주행 편의를 향상시키기 위한 차량의 객체 검출 장치 및 방법을 제공하는 것이다.The present invention was invented to solve the above-described problem, and an object according to an aspect of the present invention is to construct a 3D environment map around a vehicle using an image image acquired through a vehicle camera and a vehicle wheel speed measurement system. And, based on the established 3D environment map, the vehicle object detection apparatus and method for improving the driving convenience of the driver by precisely detecting the stationary and moving objects around the vehicle through a method of detecting objects on the vehicle trajectory. To provide.

본 발명의 일 실시예에 따른 차량의 객체 검출 장치는 차량의 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 상기 차량의 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정하는 카메라 포즈 추정부, 상기 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 상기 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 상기 기준 라인에 투영된 포인트를 특징점으로서 추적하는 특징점 추적부, 상기 카메라 포즈 추정부에 의해 추정된 카메라 포즈 정보를 이용하여 상기 특징점 추적부에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 상기 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성하는 3차원 환경지도 생성부, 및 상기 3차원 환경지도 생성부에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 상기 차량의 주변의 정지 객체를 검출하는 정지 객체 검출부를 포함하는 것을 특징으로 한다.The object detection apparatus of a vehicle according to an embodiment of the present invention is a camera pose estimating unit for estimating camera pose information by converting the vehicle pose information obtained through the vehicle wheel speed measurement system into the coordinate system of the camera of the vehicle, A feature point tracking unit for extracting a point existing in the image acquired through the camera and projecting it onto a reference line existing in the image, and tracking the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm, the The three-dimensional coordinates of the plurality of feature points tracked by the feature point tracking unit are calculated using the camera pose information estimated by the camera pose estimating unit, and based on the plurality of three-dimensional feature points having the calculated three-dimensional coordinates, 3 A 3D environment map generation unit that generates a dimensional environment map, and the 3D feature points on the 3D environment map generated by the 3D environment map generation unit are clustered through a method of projecting onto a reference plane, and based on the result of the clustering It characterized in that it comprises a stationary object detection unit for detecting a stationary object around the vehicle.

본 발명에 있어 상기 카메라 포즈 추정부는, 상기 차량의 후륜 축을 기준으로 결정되는 상기 차량 포즈 정보에 상기 카메라의 외부 파라미터를 적용하여 상기 카메라 포즈 정보를 추정하는 것을 특징으로 한다.In the present invention, the camera pose estimating unit may estimate the camera pose information by applying an external parameter of the camera to the vehicle pose information determined based on a rear wheel axis of the vehicle.

본 발명에 있어 상기 특징점 추적부는, 상기 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하고 상기 기준 라인에 투영하여 특징점을 추적하는 것을 특징으로 한다.In the present invention, the feature point tracking unit is characterized in that the feature point is tracked by extracting a point on an edge existing in the image and projecting it onto the reference line.

본 발명에 있어 상기 특징점 추적부는, 상기 에지 상의 포인트를 상기 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 상기 에피폴라 라인에 투영된 포인트를 상기 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적하는 것을 특징으로 한다.In the present invention, the feature point tracking unit projects a point on the edge onto an epipolar line, which is the reference line, and a point projected onto the epipolar line within a range satisfying an epipolar constraint. Is tracked according to the KLT (Kanade-Lucas-Tomasi) Tracking algorithm, which is the feature point tracking algorithm.

본 발명에 있어 상기 3차원 환경지도 생성부는, 상기 복수의 3차원 특징점을 오차에 따른 신뢰도를 통해 필터링한 후, 상기 필터링된 3차원 특징점들을 이용하여 상기 3차원 환경지도를 생성하는 것을 특징으로 한다.In the present invention, the 3D environment map generating unit is characterized in that after filtering the plurality of 3D feature points through reliability according to an error, and then generating the 3D environment map using the filtered 3D feature points. .

본 발명에 있어 상기 신뢰도는 상기 에피폴라 라인 및 상기 에지 간의 각도와, 상기 특징점 추적부에 의해 추적된 이미지의 수에 기초하여 결정되는 것을 특징으로 한다.In the present invention, the reliability is determined based on the angle between the epipolar line and the edge and the number of images tracked by the feature point tracking unit.

본 발명에 있어 상기 기준 평면은 격자(Grid)가 형성된 지면(Ground Plane)으로 결정되고, 상기 정지 객체 검출부는, 상기 3차원 환경지도 상의 3차원 특징점들 중 상기 기준 평면 위에 존재하는 3차원 특징점만을 상기 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 그 계산 결과를 토대로 각 격자를 분류하는 방식을 통해 상기 차량의 주변의 정지 객체를 검출하는 것을 특징으로 한다.In the present invention, the reference plane is determined as a ground plane on which a grid is formed, and the still object detection unit includes only three-dimensional feature points existing on the reference plane among three-dimensional feature points on the three-dimensional environment map. It is characterized by detecting a stationary object around the vehicle by projecting onto the reference plane and calculating the number of projected 3D feature points for each grid, and then classifying each grid based on the calculation result.

본 발명에 있어 상기 정지 객체 검출부는, 상기 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출하되, 해당 격자의 위치 및 해당 격자에 투영된 3차원 특징점의 수를 기반으로 해당 정지 객체의 위치 및 높이를 계산하여 해당 정지 객체를 검출하는 것을 특징으로 한다.In the present invention, the stationary object detection unit classifies each grid using a Connected Component algorithm based on the number of three-dimensional feature points calculated for each grid, and determines that a grid having the same component corresponds to the same object and stops. The object is detected, but the position and height of the corresponding still object are calculated based on the position of the corresponding grid and the number of 3D feature points projected on the corresponding grid to detect the corresponding still object.

본 발명에 있어 상기 카메라 포즈 추정부는, 상기 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT Tracking 알고리즘에 따라 추적하고, 상기 추적된 특징점을 기반으로 상기 카메라 포즈 정보를 최적화하고, 상기 카메라 포즈 정보의 최적화 과정에서 상기 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 상기 차량의 주변의 이동 객체를 검출하는 이동 객체 검출부를 더 포함하는 것을 특징으로 한다.In the present invention, the camera pose estimating unit tracks a feature point present in the image acquired through the camera according to a KLT Tracking algorithm, optimizes the camera pose information based on the tracked feature point, and calculates the camera pose information. In the optimization process, it is characterized in that it further comprises a moving object detection unit for detecting a moving object around the vehicle based on the feature points tracked according to the KLT Tracking algorithm.

본 발명에 있어 상기 이동 객체 검출부는, 상기 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 상기 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 상기 이미지에 형성된 격자 별로 카운트되는 상기 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출하는 것을 특징으로 한다.In the present invention, the moving object detection unit accumulatively analyzes the difference between the position coordinates and the three-dimensional coordinates of the pixel on the image with respect to the feature point tracked according to the KLT Tracking algorithm, and detects the feature point estimated as a moving object to move. When the score is increased and the movement score counted for each grid formed in the image exceeds a preset reference value, the corresponding grid is determined to correspond to a moving object, and the moving object is detected.

본 발명의 일 측면에 따른 차량의 객체 검출 방법은 카메라 포즈 추정부가, 차량의 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 상기 차량의 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정하는 단계, 특징점 추적부가, 상기 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 상기 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 상기 기준 라인에 투영된 포인트를 특징점으로서 추적하는 단계, 3차원 환경지도 생성부가, 상기 카메라 포즈 추정부에 의해 추정된 카메라 포즈 정보를 이용하여 상기 특징점 추적부에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 상기 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성하는 단계, 및 정지 객체 검출부가, 상기 3차원 환경지도 생성부에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 상기 차량의 주변의 정지 객체를 검출하는 단계를 포함하는 것을 특징으로 한다.In the method of detecting an object of a vehicle according to an aspect of the present invention, the camera pose estimating unit converts vehicle pose information obtained through a wheel speed measurement system of the vehicle into a coordinate system of the vehicle camera to estimate camera pose information. , A feature point tracking unit extracts a point existing in the image acquired through the camera and projects it onto a reference line existing in the image, and tracks the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm. Step, the 3D environment map generation unit calculates the 3D coordinates of the plurality of feature points tracked by the feature point tracking unit using the camera pose information estimated by the camera pose estimation unit, and calculates the calculated 3D coordinates Generating a three-dimensional environment map based on a plurality of three-dimensional feature points, and a method in which the still object detection unit projects three-dimensional feature points on the three-dimensional environment map generated by the three-dimensional environment map generator onto a reference plane And detecting a stationary object around the vehicle based on the clustering result.

본 발명의 일 측면에 따르면, 본 발명은 차량의 카메라를 통해 획득되는 이미지 영상과 차량의 휠 속도 측정계를 활용하여 차량 주변의 3차원 환경지도를 구축하고, 구축된 3차원 환경지도를 기반으로 차량 궤적 상의 객체를 검출하는 방식을 통해 차량 주변의 정지 객체 및 이동 객체를 정밀하게 검출함으로써 운전자의 주행 편의를 향상시킬 수 있다.According to an aspect of the present invention, the present invention constructs a 3D environment map around the vehicle using an image image acquired through a vehicle camera and a vehicle wheel speed measurement system, and based on the constructed 3D environment map, the vehicle The driving convenience of a driver can be improved by precisely detecting a stationary object and a moving object around the vehicle through a method of detecting an object on a trajectory.

또한, 본 발명은 차량의 자율 주행 시스템 또는 주차 보조 시스템에 적용되어 차량 주변의 장애물과 같은 객체를 검출하고 그 검출 결과를 기반으로 차량의 자율 주행 또는 주차가 정확하게 제어되도록 함으로써 차량의 자율 주행 제어 성능 및 주차 제어 성능이 개선되도록 할 수 있다.In addition, the present invention is applied to an autonomous driving system or a parking assistance system of a vehicle to detect an object such as an obstacle around the vehicle and to accurately control the autonomous driving or parking of the vehicle based on the detection result. And parking control performance may be improved.

도 1은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치를 설명하기 위한 블록구성도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 카메라 포즈 추정부의 동작을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 특징점 추적부의 동작을 설명하기 위한 예시도이다.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 정지 객체 검출부의 동작을 설명하기 위한 예시도이다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 이동 객체 검출부의 동작을 설명하기 위한 예시도이다.
도 10은 본 발명의 일 실시예에 따른 차량의 객체 검출 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating an apparatus for detecting an object of a vehicle according to an exemplary embodiment of the present invention.
2 and 3 are exemplary diagrams for explaining an operation of a camera pose estimation unit in the apparatus for detecting an object of a vehicle according to an embodiment of the present invention.
4 is an exemplary view for explaining the operation of a feature point tracking unit in the object detection apparatus of a vehicle according to an embodiment of the present invention.
5 to 7 are exemplary views for explaining the operation of a stationary object detection unit in the object detection apparatus of a vehicle according to an embodiment of the present invention.
8 and 9 are exemplary views for explaining an operation of a moving object detection unit in the object detection apparatus of a vehicle according to an embodiment of the present invention.
10 is a flowchart illustrating a method of detecting an object of a vehicle according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 차량의 객체 검출 장치 및 방법의 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, an embodiment of an apparatus and method for detecting an object of a vehicle according to the present invention will be described with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description. In addition, terms to be described later are terms defined in consideration of functions in the present invention and may vary according to the intention or custom of users or operators. Therefore, definitions of these terms should be made based on the contents throughout the present specification.

도 1은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치를 설명하기 위한 블록구성도이고, 도 2 및 도 3은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 카메라 포즈 추정부의 동작을 설명하기 위한 예시도이며, 도 4는 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 특징점 추적부의 동작을 설명하기 위한 예시도이고, 도 5 내지 도 7은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 정지 객체 검출부의 동작을 설명하기 위한 예시도이며, 도 8 및 도 9는 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 이동 객체 검출부의 동작을 설명하기 위한 예시도이다.1 is a block diagram illustrating an object detection apparatus of a vehicle according to an embodiment of the present invention, and FIGS. 2 and 3 are an operation of a camera pose estimation unit in an object detection apparatus of a vehicle according to an embodiment of the present invention. 4 is an exemplary view for explaining the operation of a feature point tracking unit in an object detection device of a vehicle according to an embodiment of the present invention, and FIGS. 5 to 7 are An exemplary diagram for explaining an operation of a stationary object detection unit in an object detection apparatus of a vehicle according to the present invention, and FIGS. 8 and 9 are examples for explaining the operation of a moving object detection unit in the object detection apparatus of a vehicle according to an embodiment of the present invention. Is also.

도 1을 참조하면 본 발명의 일 실시예에 따른 차량의 객체 검출 장치는 카메라 포즈 추정부(100), 특징점 추적부(200), 3차원 환경지도 생성부(300), 정지 객체 검출부(400) 및 이동 객체 검출부(500)를 포함할 수 있다. 카메라 포즈 추정부(100), 특징점 추적부(200), 3차원 환경지도 생성부(300) 및 정지 객체 검출부(400)를 통해 차량 주변의 정지 객체가 검출될 수 있고, 카메라 포즈 추정부(100) 및 이동 객체 검출부(500)를 통해 차량 주변의 이동 객체가 검출될 수 있다. 이하에서는 먼저 차량 주변의 정지 객체를 검출하는 과정에 대하여 설명한다.Referring to FIG. 1, a vehicle object detection apparatus according to an embodiment of the present invention includes a camera pose estimation unit 100, a feature point tracking unit 200, a 3D environment map generation unit 300, and a stationary object detection unit 400. And a moving object detection unit 500. Still objects around the vehicle may be detected through the camera pose estimating unit 100, the feature point tracking unit 200, the 3D environment map generation unit 300, and the still object detection unit 400, and the camera pose estimating unit 100 ) And the moving object detection unit 500 may detect a moving object around the vehicle. Hereinafter, a process of detecting a stationary object around a vehicle will be described first.

카메라 포즈 추정부(100)는 차량에 장착된 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 차량에 장착된 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정할 수 있다. 여기서, 차량 포즈 정보는 휠 속도 측정계를 통해 획득되는 차량의 자세 및 위치에 대한 정보를 포함할 수 있으며, 이에 따라 카메라 포즈 정보는 차량에 장착된 카메라의 자세 및 위치에 대한 정보를 포함할 수 있다.The camera pose estimating unit 100 may estimate camera pose information by converting vehicle pose information acquired through a wheel speed measurement system mounted on the vehicle into a coordinate system of a camera mounted on the vehicle. Here, the vehicle pose information may include information on the posture and position of the vehicle obtained through the wheel speed measuring system, and accordingly, the camera pose information may include information on the posture and position of the camera mounted on the vehicle. .

이때, 카메라 포즈 추정부(100)는 차량의 후륜 축을 기준으로 결정되는 차량 포즈 정보에 카메라의 외부 파라미터를 적용하여 카메라 포즈 정보를 추정할 수 있다.In this case, the camera pose estimating unit 100 may estimate the camera pose information by applying an external parameter of the camera to the vehicle pose information determined based on the rear wheel axis of the vehicle.

구체적으로, 본 실시예의 카메라 포즈 추정부(100)는 CAN 정보를 이용하여 짧은 구간에서 차량의 자세 및 위치를 제공하는 Wheel Odometry에 스케일(scale) 값을 융합한 Monocular Visual Odometry를 이용하여 카메라 포즈 정보를 추정할 수 있다. 즉, Wheel Odometry를 통해 획득되는 차량 포즈 정보는 후륜 축을 기준으로 하는 정보이므로, 카메라 포즈 추정부(100)는 도 2에 도시된 것과 같이 후륜 축 기준의 차량 포즈 정보에 카메라의 외부 파라미터(즉, 변환 매트릭스)를 적용하여 카메라 포즈 정보를 추정할 수 있다. 도 3에서 ①은 후륜 축 기준의 차량 포즈 정보를, ② 및 ③은 후륜 축 기준의 차량 포즈 정보로부터 변환된 카메라 포즈 정보를 나타낸다. 이에 따라, 카메라 포즈 정보는 하기 수학식 1에 의해 추정될 수 있다.Specifically, the camera pose estimating unit 100 according to the present embodiment uses Monocular Visual Odometry in which a scale value is fused to Wheel Odometry that provides the attitude and position of the vehicle in a short section using CAN information. Can be estimated. That is, since the vehicle pose information obtained through Wheel Odometry is information based on the rear wheel axis, the camera pose estimating unit 100 adds the vehicle pose information based on the rear wheel axis as shown in FIG. Transformation matrix) can be applied to estimate camera pose information. In FIG. 3, ① denotes vehicle pose information based on the rear wheel axis, and ② and ③ denote camera pose information converted from vehicle pose information based on the rear wheel axis. Accordingly, camera pose information can be estimated by Equation 1 below.

Figure pat00001
Figure pat00001

한편, 카메라 포즈 추정부(100)는 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적하고, 추적된 특징점을 기반으로 카메라 포즈 정보를 최적화할 수도 있다. 즉, 카메라 포즈 추정부(100)는 카메라를 통해 획득된 이미지에 KLT Tracking 알고리즘을 적용하여 특징점을 추적하고, 추적된 특징점들을 이전 획득된 이미지(프레임)에 투영하여 결정되는 재투영 오차(Reprojection Error)가 최소화되도록 카메라 포즈 정보를 최적화할 수 있다. 카메라 포즈 정보의 최적화 과정에서 KLT Tracking 알고리즘에 따라 추적되는 특징점은 차량 주변의 정지 객체가 아닌, 이동 객체를 검출하는 과정에 활용될 수 있으며, 이에 대한 구체적인 설명은 후술한다. 또한, 카메라 포즈 추정부(100)는 카메라 포즈 정보를 최적화할 때, 일정 크기의 슬라이딩 윈도우(Sliding Window) 내의 이미지(프레임)만을 활용하여 카메라 포즈 정보의 최적화에 소요되는 시간이 단축되도록 할 수도 있다.On the other hand, the camera pose estimating unit 100 may track a feature point existing in an image acquired through a camera according to a Kanade-Lucas-Tomasi (KLT) tracking algorithm, and optimize camera pose information based on the tracked feature point. . That is, the camera pose estimating unit 100 tracks the feature points by applying the KLT Tracking algorithm to the image acquired through the camera, and the reprojection error determined by projecting the tracked feature points onto the previously acquired image (frame). ) Can be optimized to minimize the camera pose information. In the process of optimizing camera pose information, the feature points tracked according to the KLT Tracking algorithm may be used in the process of detecting a moving object, not a stationary object around the vehicle, and a detailed description thereof will be described later. In addition, when optimizing camera pose information, the camera pose estimating unit 100 may reduce the time required for optimizing camera pose information by using only an image (frame) within a sliding window of a predetermined size. .

특징점 추적부(200)는 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 기준 라인에 투영된 포인트를 특징점으로서 추적할 수 있다.The feature point tracking unit 200 extracts a point existing in the image acquired through the camera and projects it onto a reference line existing in the image, and tracks the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm. have.

이때, 특징점 추적부(200)는 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하여 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 에피폴라 라인에 투영된 포인트를 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적할 수 있다.At this time, the feature point tracking unit 200 extracts a point on an edge existing in the image and projects it on an epipolar line, which is a reference line, and the epipolar constraint is satisfied within a range that satisfies the epipolar constraint. The point projected on the polar line can be tracked according to the KLT (Kanade-Lucas-Tomasi) tracking algorithm, which is a feature point tracking algorithm.

통상적인 KLT Tracking 알고리즘은 이미지에 존재하는 코너(corner)에 해당하는 점을 추적하는 알고리즘으로서, 이미지에 존재하는 에지 상의 점에 대하여는 부정확한 결과를 제공하는 한계가 존재한다. 공간에서 고정된 점은 연속된 이미지에서 에피폴라 라인을 따라 이동하기 때문에, 본 실시예에서는 통상적인 KLT Tracking 알고리즘에 따라 특징점을 추정함이 아닌, Epipolar KLT Tracking 알고리즘을 활용하여 이미지에 존재하는 에지 상의 포인트도 강건하게 추적함으로써 정지 객체를 정밀하게 검출하는 구성을 채용한다. 도 4는 추적된 현재 프레임의 특징점, 및 추적된 이전 프레임의 특징점을 통상적인 KLT Tracking 알고리즘과 Epipolar KLT Tracking 알고리즘으로 구분하여 도시하고 있다.A typical KLT Tracking algorithm is an algorithm that tracks a point corresponding to a corner present in an image, and there is a limit to providing inaccurate results for points on an edge existing in an image. Since a fixed point in space moves along an epipolar line in a continuous image, in this embodiment, the feature point is not estimated according to the conventional KLT Tracking algorithm, but on the edge existing in the image using the Epipolar KLT Tracking algorithm. It employs a configuration that accurately detects still objects by sturdy tracking points. FIG. 4 shows a feature point of a tracked current frame and a feature point of a tracked previous frame divided into a conventional KLT Tracking algorithm and an Epipolar KLT Tracking algorithm.

이에 따라, 특징점 추적부(200)는 이미지에 존재하는 에지 상의 포인트를 추출하여 에피폴라 라인에 투영하고, 에피폴라 제약조건(공간상의 한 점을 한 이미지에서 다른 이미지로 투영하였을 때 투영된 점은 에피폴라 라인상에 존재해야 하는 제약조건)이 충족되는 범위에서 에피폴라 라인에 투영된 포인트를 KLT Tracking 알고리즘에 따라 추적할 수 있다(즉, 이미지의 에지 포인트를 Epipolar KLT Tracking 알고리즘에 따라 특징점으로 추적할 수 있다).Accordingly, the feature point tracking unit 200 extracts a point on an edge existing in the image and projects it on an epipolar line, and the epipolar constraint (when a point in space is projected from one image to another image, the projected point is A point projected on an epipolar line can be tracked according to the KLT Tracking algorithm within the range of satisfying the constraints that must exist on the epipolar line (i.e., the edge point of the image is tracked as a feature point according to the Epipolar KLT Tracking algorithm). can do).

3차원 환경지도 생성부(300)는 카메라 포즈 추정부(100)에 의해 추정된 카메라 포즈 정보를 이용하여 특징점 추적부(200)에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성할 수 있다. 3차원 환경지도 생성부(300)는 카메라 포즈 정보를 토대로 삼각측량법(Triangulation)을 사용하여 복수의 특징점에 대한 3차원 좌표를 계산할 수 있다.The 3D environment map generation unit 300 calculates 3D coordinates of a plurality of feature points tracked by the feature point tracking unit 200 using the camera pose information estimated by the camera pose estimation unit 100, and the calculated A 3D environment map may be generated based on a plurality of 3D feature points having 3D coordinates. The 3D environment map generation unit 300 may calculate 3D coordinates for a plurality of feature points using triangulation based on camera pose information.

이때, 3차원 환경지도 생성부(300)는 복수의 3차원 특징점을 오차에 따른 신뢰도(Confidence)를 통해 필터링한 후, 필터링된 3차원 특징점들을 이용하여 3차원 환경지도를 생성할 수 있으며, 신뢰도는 전술한 에지 포인트가 투영된 에피폴라 라인 및 에지 간의 각도와, 특징점 추적부(200)에 의해 추적된 이미지의 수에 기초하여 결정될 수 있다.At this time, the 3D environment map generation unit 300 may filter a plurality of 3D feature points through confidence according to an error, and then generate a 3D environment map using the filtered 3D feature points. May be determined based on the angle between the epipolar line on which the above-described edge point is projected and the edge and the number of images tracked by the feature point tracking unit 200.

구체적으로, Epipolar KLT Tracking 알고리즘은 에피폴라 라인과 에지 간의 방향이 비슷하고 추적된 이미지의 수가 적을수록 그 오차가 증가하는 경향이 있기 때문에, 3차원 환경지도 생성부(300)는 3차원 특징점에 대한 신뢰도를 계산하고, 계산된 신뢰도가 미리 설정된 기준치 이상일 경우에만 해당 3차원 특징점을 3차원 환경지도 생성에 반영함으로써, 기준치 이상의 신뢰도를 갖는 3차원 특징점을 기반으로 정지 객체가 검출되도록 하여 그 검출 정밀도를 향상시킬 수 있다. 3차원 환경지도 생성부(300)는 하기 수학식 2에 따라 3차원 특징점의 신뢰도를 결정할 수 있다.Specifically, since the Epipolar KLT Tracking algorithm has similar directions between epipolar lines and edges and the error tends to increase as the number of tracked images decreases, the 3D environment map generator 300 By calculating the reliability and reflecting the 3D feature point to the 3D environment map generation only when the calculated reliability is greater than or equal to a preset reference value, a stationary object is detected based on a 3D feature point having a reliability greater than or equal to the reference value, thereby improving the detection accuracy. Can be improved. The 3D environment map generator 300 may determine the reliability of the 3D feature point according to Equation 2 below.

Figure pat00002
Figure pat00002

수학식 2에서, C는 해당 3차원 특징점의 신뢰도, α는 에피폴라 라인 및 에지 간의 각도와 추적된 이미지의 수에 대한 가중치 비율, COSTangle은 에피폴라 라인 및 에지 간의 각도에 대한 코스트, COSTage는 추적된 이미지의 수에 대한 코스트를 의미한다.In Equation 2, C is the reliability of the corresponding three-dimensional feature point, α is the ratio between the angle between the epipolar line and the edge and the number of traced images, and the COST angle is the cost for the angle between the epipolar line and the edge, and COST age Means the cost for the number of traced images.

정지 객체 검출부(400)는 3차원 환경지도 생성부(300)에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 차량의 주변의 정지 객체를 검출할 수 있다. 여기서, 3차원 특징점들이 투영되는 기준 평면은 격자(Grid)가 형성된 지면(Ground Plane)으로 결정될 수 있으며, 지면은 카메라의 외부 파라미터를 기반으로 정의될 수 있다.The stationary object detection unit 400 clusters the 3D feature points on the 3D environment map generated by the 3D environment map generation unit 300 on a reference plane, and stops around the vehicle based on the clustering result. Objects can be detected. Here, the reference plane on which the 3D feature points are projected may be determined as a ground plane on which a grid is formed, and the ground may be defined based on external parameters of the camera.

이때, 정지 객체 검출부(400)는 3차원 환경지도 상의 3차원 특징점들 중 기준 평면(지면) 위에 존재하는 3차원 특징점만을 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 그 계산 결과를 토대로 각 격자를 분류하는 방식을 통해 차량의 주변의 정지 객체를 검출할 수 있다.At this time, the still object detection unit 400 projects only the 3D feature points existing on the reference plane (ground) among the 3D feature points on the 3D environment map to the reference plane, and calculates the number of projected 3D feature points for each grid. Thereafter, a stationary object around the vehicle may be detected by classifying each grid based on the calculation result.

구체적으로, 정지 객체 검출부(400)는 도 5에 도시된 것과 같이 3차원 환경지도 상의 3차원 특징점들 중 지면 아래에 존재하는 3차원 특징점을 제거하고 지면 위에 존재하는 3차원 특징점만을 추출할 수 있다. 그리고, 정지 객체 검출부(400)는 도 6에 도시된 것과 같이 추출된 3차원 특징점을 지면에 투영하고(도 6의 좌측 도면), 투영된 3차원 특징점의 수를 각 격자별로 계산할 수 있다(도 6의 가운데 도면). Specifically, as shown in FIG. 5, the still object detection unit 400 may remove 3D feature points existing under the ground from among 3D feature points on the 3D environment map and extract only 3D feature points existing on the ground. . In addition, the still object detection unit 400 may project the extracted 3D feature points onto the ground as shown in FIG. 6 (left view of FIG. 6) and calculate the number of projected 3D feature points for each grid (Fig. 6, middle drawing).

이후, 정지 객체 검출부(400)는 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출할 수 있으며, 이때 해당 격자의 위치 및 해당 격자에 투영된 3차원 특징점의 수를 기반으로 해당 정지 객체의 위치 및 높이를 각각 계산하여 해당 정지 객체를 검출할 수 있다.Thereafter, the stationary object detection unit 400 classifies each grid using the Connected Component algorithm based on the number of 3D feature points calculated for each grid, and determines that the grid having the same component corresponds to the same object, and thus identifies the stationary object. In this case, based on the position of the corresponding grid and the number of 3D feature points projected on the corresponding grid, the position and height of the corresponding still object may be calculated, and the corresponding still object may be detected.

즉, Connected Component 알고리즘에 따라 각 격자에는 라벨 번호가 부여되며, 이에 따라 정지 객체 검출부(400)는 동일한 Component를 갖는 격자(즉, 라벨 번호가 동일한 격자)에는 동일한 객체가 존재하는 것으로 판단하여 정지 객체를 검출할 수 있다(도 6의 우측 도면). 이때, 정지 객체 검출부(400)는 해당 격자의 위치를 토대로 해당 정지 객체의 위치를 계산하고, 해당 격자에 투영된 3차원 특징점의 수를 토대로 해당 정지 객체를 계산함으로써 해당 정지 객체를 검출할 수 있다. 도 7의 좌측 도면은 정지 객체 검출부(400)에 의해 최종 검출된 정지 객체를 도시하고 있으며(좌우측 박스에 해당하는 객체는 차량의 궤적 밖에 존재하는 정지 객체를, 가운데 박스에 해당하는 객체는 차량의 궤적 내에 존재하는 정지 객체를 나타낸다), 도 7의 우측 도면은 각각 각 격자별로 투영된 특징점의 수, 및 동일한 객체에 해당하는 격자끼리 분류된 라벨 번호에 대한 각 그래프를 도시하고 있다.That is, a label number is assigned to each grid according to the Connected Component algorithm, and accordingly, the stationary object detection unit 400 determines that the same object exists in a grid having the same component (ie, a grid with the same label number), and Can be detected (right side of Fig. 6). In this case, the stationary object detection unit 400 may detect the stationary object by calculating the position of the stationary object based on the position of the grid and calculating the stationary object based on the number of 3D feature points projected on the grid. . The left drawing of FIG. 7 shows a still object finally detected by the still object detection unit 400 (objects corresponding to the left and right boxes represent stationary objects that exist outside the trajectory of the vehicle, and objects corresponding to the middle box are of the vehicle. A still object existing in the trajectory), and the right diagram of FIG. 7 shows graphs for the number of feature points projected for each grid, and label numbers classified among grids corresponding to the same object.

다음으로, 차량 주변의 이동 객체를 검출하는 과정에 대하여 설명한다.Next, a process of detecting a moving object around the vehicle will be described.

이동 객체 검출부(500)는 카메라 포즈 추정부(100)에 의한 카메라 포즈 정보의 최적화 과정에서 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 차량의 주변의 이동 객체를 검출할 수 있다. 즉, 이동 객체는 에피폴라 제약조건을 따르지 않아 전술한 Epipolar KLT Tracking 알고리즘을 적용할 수 없으므로, 이동 객체를 검출하는 경우에는 카메라 포즈 추정부(100)가 카메라 포즈 정보를 추정하는 과정에서 활용되며 에피폴라 제약조건을 따르지 않는 일반적인 KLT Tracking 알고리즘을 활용한다. 도 8은 이동 객체 검출부(500)의 동작 원리를 도시하고 있으며, 즉 정지 객체의 경우 카메라의 이동 거리만큼 역 방향으로의 이동이 예상되며, 따라서 기준 평면(Global Ground Plane) 상에서 해당 객체의 예상 위치 및 실제 위치를 비교하고 그 차이가 클수록 이동 객체에 확률이 높음을 보이고 있다.The moving object detection unit 500 may detect a moving object around the vehicle based on a feature point tracked according to a KLT Tracking algorithm in a process of optimizing camera pose information by the camera pose estimating unit 100. That is, since the moving object does not follow the epipolar constraint, the aforementioned Epipolar KLT Tracking algorithm cannot be applied. Therefore, when detecting a moving object, the camera pose estimator 100 is used in the process of estimating camera pose information. It uses a general KLT Tracking algorithm that does not follow the polar constraint. FIG. 8 shows the operating principle of the moving object detection unit 500. That is, in the case of a stationary object, it is expected to move in the reverse direction as much as the moving distance of the camera, and thus the expected position of the corresponding object on the global ground plane And the actual position is compared, and the greater the difference, the higher the probability of the moving object.

전술한 내용을 토대로 이동 객체 검출부(500)의 동작을 구체적으로 설명하면, 이동 객체 검출부(500)는 카메라 포즈 추정 과정에서 활용되는 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 이미지에 형성된 격자 별로 카운트되는 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출할 수 있다.When the operation of the moving object detection unit 500 is described in detail based on the above description, the moving object detection unit 500 is the position of a pixel in the image with respect to the feature point tracked according to the KLT Tracking algorithm used in the camera pose estimation process. The difference between the coordinates and the 3D coordinates is accumulated and analyzed, and the movement score is increased by detecting a feature point estimated as a moving object, and when the movement score counted for each grid formed in the image exceeds a preset reference value, the corresponding grid corresponds to the moving object. It is determined that the moving object can be detected.

즉, 이동 객체 검출부(500)는 도 9에 도시된 것과 같이 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한 2D 이미지 상에서의 픽셀의 위치 좌표 및 글로벌 3차원 좌표 간의 차이를 누적 분석하고 이동 객체에 해당하는 것으로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 이미지에 형성된 격자 별로 이동 스코어를 카운트하여 그 값이 미리 설정된 기준치를 초과하면 해당 격자를 Dynamic Box로 분류하여 해당 Dynamic Box에 이동 객체가 존재하는 것으로 판단하는 방식을 통해 이동 객체를 검출할 수 있다.That is, the moving object detection unit 500 accumulates and analyzes the difference between the position coordinates and the global 3D coordinates of the pixels on the 2D image for the feature points tracked according to the KLT Tracking algorithm as shown in FIG. It detects the presumed feature points to increase the movement score, counts the movement score for each grid formed in the image, and if the value exceeds a preset reference value, the corresponding grid is classified as a dynamic box, and the moving object exists in the dynamic box. The moving object can be detected through a method of determination.

도 10은 본 발명의 일 실시예에 따른 차량의 객체 검출 방법을 설명하기 위한 흐름도로서, 도 10을 참조하여 본 발명의 일 실시예에 따른 차량의 객체 검출 방법을 설명하며, 이하에서는 전술한 내용과 중복되는 설명은 생략한다.10 is a flowchart for explaining a method of detecting an object of a vehicle according to an embodiment of the present invention. With reference to FIG. 10, a method of detecting an object of a vehicle according to an embodiment of the present invention is described. The overlapping description with will be omitted.

먼저, 카메라 포즈 추정부(100)는 차량의 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 차량의 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정한다(S100). S100 단계에서, 카메라 포즈 추정부(100)는 차량의 후륜 축을 기준으로 결정되는 차량 포즈 정보에 카메라의 외부 파라미터를 적용하여 카메라 포즈 정보를 추정한다. 또한, S100 단계에서, 카메라 포즈 추정부(100)는 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT Tracking 알고리즘에 따라 추적하고, 추적된 특징점을 기반으로 카메라 포즈 정보를 최적화한다.First, the camera pose estimating unit 100 estimates the camera pose information by converting the vehicle pose information obtained through the vehicle wheel speed measurement system into a coordinate system of the vehicle camera (S100). In step S100, the camera pose estimating unit 100 estimates the camera pose information by applying an external parameter of the camera to the vehicle pose information determined based on the rear wheel axis of the vehicle. Further, in step S100, the camera pose estimating unit 100 tracks feature points present in the image acquired through the camera according to the KLT Tracking algorithm, and optimizes camera pose information based on the tracked feature points.

이어서, 특징점 추적부(200)는 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 기준 라인에 투영된 포인트를 특징점으로서 추적한다(S200). S200 단계에서, 특징점 추적부(200)는 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하여 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 에피폴라 라인에 투영된 포인트를 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적한다.Subsequently, the feature point tracking unit 200 extracts a point existing in the image acquired through the camera and projects it onto a reference line existing in the image, and tracks the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm. Do (S200). In step S200, the feature point tracking unit 200 extracts a point on an edge existing in the image and projects it onto an epipolar line, which is a reference line, and the range in which the epipolar constraint is satisfied. The point projected on the epipolar line is tracked according to the KLT (Kanade-Lucas-Tomasi) Tracking algorithm, which is a feature point tracking algorithm.

이어서, 3차원 환경지도 생성부(300)는 S100 단계에서 추정된 카메라 포즈 정보를 이용하여 S200 단계에서 추적된 복수의 특징점의 3차원 좌표를 계산하고, 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성한다(S300). S300 단계에서, 3차원 환경지도 생성부(300)는 복수의 3차원 특징점을 오차에 따른 신뢰도를 통해 필터링한 후, 필터링된 3차원 특징점들을 이용하여 3차원 환경지도를 생성하며, 3차원 특징점의 신뢰도는 에피폴라 라인 및 에지 간의 각도와, 특징점 추적부(200)에 의해 추적된 이미지의 수에 기초하여 결정될 수 있다.Subsequently, the 3D environment map generation unit 300 calculates 3D coordinates of the plurality of feature points tracked in step S200 using the camera pose information estimated in step S100, and calculates the 3D coordinates having the calculated 3D coordinates. A 3D environment map is generated based on the feature points (S300). In step S300, the 3D environment map generation unit 300 filters a plurality of 3D feature points through reliability according to an error, and then generates a 3D environment map using the filtered 3D feature points. The reliability may be determined based on the angle between the epipolar line and the edge and the number of images tracked by the feature point tracking unit 200.

이어서, 정지 객체 검출부(400)는 3차원 환경지도 생성부(300)에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 차량의 주변의 정지 객체를 검출한다(S400). S400 단계에서, 정지 객체 검출부(400)는 3차원 환경지도 상의 3차원 특징점들 중 기준 평면 위에 존재하는 3차원 특징점만을 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출한다. 이때, 정지 객체 검출부(400)는 해당 격자에 투영된 특징점들의 위치 및 개수를 기반으로 해당 정지 객체의 위치 및 높이를 계산하여 해당 정지 객체를 검출한다.Subsequently, the stationary object detection unit 400 clusters the 3D feature points on the 3D environment map generated by the 3D environment map generation unit 300 on a reference plane, and based on the clustering result, A still object of is detected (S400). In step S400, the still object detection unit 400 projects only the 3D feature points existing on the reference plane among the 3D feature points on the 3D environment map to the reference plane, and calculates the number of projected 3D feature points for each grid. , Based on the number of 3D feature points calculated for each grid, each grid is classified using the Connected Component algorithm, and a grid having the same component is determined to correspond to the same object, and a still object is detected. At this time, the stationary object detection unit 400 detects the stationary object by calculating the position and height of the stationary object based on the location and number of feature points projected on the grid.

한편, 이동 객체 검출부(500)는 S100 단계의 카메라 포즈 정보의 최적화 과정에서 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 차량의 주변의 이동 객체를 검출한다(S500). S500 단계에서 이동 객체 검출부(500)는 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 이미지에 형성된 격자 별로 카운트되는 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출한다. S500 단계는 S100 단계 내지 S400 단계와 독립적으로 수행되는 병렬적 구성으로서, 그 동작 순서가 상기한 기재순서에 한정되지 않는다.Meanwhile, the moving object detection unit 500 detects a moving object around the vehicle based on the feature point tracked according to the KLT Tracking algorithm in the process of optimizing the camera pose information in step S100 (S500). In step S500, the moving object detection unit 500 accumulates and analyzes the difference between the position coordinates and 3D coordinates of pixels on the image with respect to the feature point tracked according to the KLT Tracking algorithm, and detects the feature point estimated as the moving object to calculate the moving score. If the movement score is increased and counted for each grid formed in the image exceeds a preset reference value, the corresponding grid is determined to correspond to a moving object, and the moving object is detected. Step S500 is a parallel configuration performed independently from steps S100 to S400, and the operation sequence is not limited to the above described order.

이와 같이 본 실시예는 차량의 카메라를 통해 획득되는 이미지 영상과 차량의 휠 속도 측정계를 활용하여 차량 주변의 3차원 환경지도를 구축하고, 구축된 3차원 환경지도를 기반으로 차량 궤적 상의 객체를 검출하는 방식을 통해 차량 주변의 정지 객체 및 이동 객체를 정밀하게 검출함으로써 운전자의 주행 편의를 향상시킬 수 있다.As described above, this embodiment constructs a 3D environment map around the vehicle by using the image image acquired through the vehicle's camera and the vehicle's wheel speed measurement system, and detects an object on the vehicle trajectory based on the constructed 3D environment map. Through this method, it is possible to improve the driving convenience of the driver by precisely detecting the stationary and moving objects around the vehicle.

또한, 본 실시예는 차량의 자율 주행 시스템 또는 주차 보조 시스템에 적용되어 차량 주변의 장애물과 같은 객체를 검출하고 그 검출 결과를 기반으로 차량의 자율 주행 또는 주차가 정확하게 제어되도록 함으로써 차량의 자율 주행 제어 성능 및 주차 제어 성능이 개선되도록 할 수 있다.In addition, this embodiment is applied to an autonomous driving system or a parking assistance system of a vehicle to detect an object such as an obstacle around the vehicle and control autonomous driving of the vehicle by accurately controlling the autonomous driving or parking of the vehicle based on the detection result. Performance and parking control performance can be improved.

본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.The implementation described herein may be implemented in, for example, a method or process, an apparatus, a software program, a data stream or a signal. Although discussed only in the context of a single form of implementation (eg, only as a method), the implementation of the discussed features may also be implemented in other forms (eg, an apparatus or program). The device may be implemented with appropriate hardware, software and firmware. The method may be implemented in an apparatus such as a processor, which generally refers to a processing device including, for example, a computer, microprocessor, integrated circuit or programmable logic device, or the like. Processors also include communication devices such as computers, cell phones, personal digital assistants ("PDAs") and other devices that facilitate communication of information between end-users.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are only exemplary, and those of ordinary skill in the art to which the present technology pertains, various modifications and other equivalent embodiments are possible. I will understand. Therefore, the true technical protection scope of the present invention should be determined by the following claims.

100: 카메라 포즈 추정부
200: 특징점 추적부
300: 3차원 환경지도 생성부
400: 정지 객체 검출부
500: 이동 객체 검출부
100: camera pose estimation unit
200: feature point tracking unit
300: 3D environment map generation unit
400: still object detection unit
500: moving object detection unit

Claims (18)

차량의 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 상기 차량의 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정하는 카메라 포즈 추정부;
상기 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 상기 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 상기 기준 라인에 투영된 포인트를 특징점으로서 추적하는 특징점 추적부;
상기 카메라 포즈 추정부에 의해 추정된 카메라 포즈 정보를 이용하여 상기 특징점 추적부에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 상기 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성하는 3차원 환경지도 생성부; 및
상기 3차원 환경지도 생성부에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 상기 차량의 주변의 정지 객체를 검출하는 정지 객체 검출부;
를 포함하는 것을 특징으로 하는 차량의 객체 검출 장치.
A camera pose estimating unit for estimating camera pose information by converting vehicle pose information acquired through a vehicle wheel speed measurement system into a coordinate system of the vehicle camera;
A feature point tracking unit for extracting a point existing in the image acquired through the camera, projecting it onto a reference line existing in the image, and tracking the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm;
The three-dimensional coordinates of the plurality of feature points tracked by the feature point tracking unit are calculated using the camera pose information estimated by the camera pose estimating unit, and based on the plurality of three-dimensional feature points having the calculated three-dimensional coordinates A 3D environment map generator that generates a 3D environment map; And
A stationary object detector configured to cluster by projecting 3D feature points on a 3D environment map generated by the 3D environment map generator onto a reference plane, and detect a stationary object around the vehicle based on the clustering result;
Vehicle object detection apparatus comprising a.
제1항에 있어서,
상기 카메라 포즈 추정부는, 상기 차량의 후륜 축을 기준으로 결정되는 상기 차량 포즈 정보에 상기 카메라의 외부 파라미터를 적용하여 상기 카메라 포즈 정보를 추정하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 1,
And the camera pose estimating unit estimates the camera pose information by applying an external parameter of the camera to the vehicle pose information determined based on a rear wheel axis of the vehicle.
제1항에 있어서,
상기 특징점 추적부는, 상기 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하고 상기 기준 라인에 투영하여 특징점을 추적하는 것을 특징으로 차량의 객체 검출 장치.
The method of claim 1,
The feature point tracking unit extracts a point on an edge existing in the image and projects it onto the reference line to track the feature point.
제3항에 있어서,
상기 특징점 추적부는, 상기 에지 상의 포인트를 상기 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 상기 에피폴라 라인에 투영된 포인트를 상기 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 3,
The feature point tracking unit projects the point on the edge onto an epipolar line, which is the reference line, and tracks the point projected onto the epipolar line within a range satisfying an epipolar constraint. An object detection device of a vehicle, characterized in that tracking according to the algorithm KLT (Kanade-Lucas-Tomasi) Tracking algorithm.
제3항에 있어서,
상기 3차원 환경지도 생성부는, 상기 복수의 3차원 특징점을 오차에 따른 신뢰도를 통해 필터링한 후, 상기 필터링된 3차원 특징점들을 이용하여 상기 3차원 환경지도를 생성하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 3,
The 3D environment map generator, after filtering the plurality of 3D feature points through reliability according to an error, generates the 3D environment map using the filtered 3D feature points. Device.
제5항에 있어서,
상기 신뢰도는 상기 에피폴라 라인 및 상기 에지 간의 각도와, 상기 특징점 추적부에 의해 추적된 이미지의 수에 기초하여 결정되는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 5,
The reliability is determined based on an angle between the epipolar line and the edge and the number of images tracked by the feature point tracking unit.
제1항에 있어서,
상기 기준 평면은 격자(Grid)가 형성된 지면(Ground Plane)으로 결정되고,
상기 정지 객체 검출부는, 상기 3차원 환경지도 상의 3차원 특징점들 중 상기 기준 평면 위에 존재하는 3차원 특징점만을 상기 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 그 계산 결과를 토대로 각 격자를 분류하는 방식을 통해 상기 차량의 주변의 정지 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 1,
The reference plane is determined as a ground plane on which a grid is formed,
The still object detection unit projects only three-dimensional feature points existing on the reference plane among three-dimensional feature points on the three-dimensional environment map to the reference plane, calculates the number of projected three-dimensional feature points for each grid, and An object detection device for a vehicle, characterized in that for detecting a stationary object around the vehicle through a method of classifying each grid based on a calculation result.
제7항에 있어서,
상기 정지 객체 검출부는, 상기 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출하되, 해당 격자의 위치 및 해당 격자에 투영된 3차원 특징점의 수를 기반으로 해당 정지 객체의 위치 및 높이를 계산하여 해당 정지 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 7,
The still object detection unit classifies each grid using a Connected Component algorithm based on the number of three-dimensional feature points calculated for each grid, determines that a grid having the same component corresponds to the same object, and detects the still object. And calculating the position and height of the corresponding stationary object based on the position of the corresponding grid and the number of 3D feature points projected on the corresponding grid to detect the corresponding stationary object.
제1항에 있어서,
상기 카메라 포즈 추정부는, 상기 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT Tracking 알고리즘에 따라 추적하고, 상기 추적된 특징점을 기반으로 상기 카메라 포즈 정보를 최적화하고,
상기 카메라 포즈 정보의 최적화 과정에서 상기 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 상기 차량의 주변의 이동 객체를 검출하는 이동 객체 검출부;를 더 포함하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 1,
The camera pose estimating unit tracks feature points present in the image acquired through the camera according to the KLT Tracking algorithm, and optimizes the camera pose information based on the tracked feature points,
And a moving object detection unit configured to detect a moving object around the vehicle based on a feature point tracked according to the KLT Tracking algorithm in the process of optimizing the camera pose information.
제9항에 있어서,
상기 이동 객체 검출부는, 상기 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 상기 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 상기 이미지에 형성된 격자 별로 카운트되는 상기 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 9,
The moving object detection unit accumulates and analyzes the difference between the position coordinates and 3D coordinates of pixels on the image with respect to the feature point tracked according to the KLT Tracking algorithm, detects the feature point estimated as a moving object, and increases the moving score. And when the movement score counted for each grid formed on the image exceeds a preset reference value, the corresponding grid is determined to correspond to a moving object and detects the moving object.
카메라 포즈 추정부가, 차량의 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 상기 차량의 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정하는 단계;
특징점 추적부가, 상기 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 상기 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 상기 기준 라인에 투영된 포인트를 특징점으로서 추적하는 단계;
3차원 환경지도 생성부가, 상기 카메라 포즈 추정부에 의해 추정된 카메라 포즈 정보를 이용하여 상기 특징점 추적부에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 상기 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성하는 단계; 및
정지 객체 검출부가, 상기 3차원 환경지도 생성부에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 상기 차량의 주변의 정지 객체를 검출하는 단계;
를 포함하는 것을 특징으로 하는 차량의 객체 검출 방법.
Estimating camera pose information by converting, by a camera pose estimating unit, vehicle pose information obtained through a wheel speed measurement system of the vehicle into a coordinate system of the camera of the vehicle;
A step of extracting, by a feature point tracking unit, a point present in the image acquired through the camera, projecting it onto a reference line present in the image, and tracking the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm ;
The three-dimensional environment map generation unit calculates the three-dimensional coordinates of the plurality of feature points tracked by the feature point tracking unit by using the camera pose information estimated by the camera pose estimating unit, and a plurality having the calculated three-dimensional coordinates Generating a three-dimensional environment map based on the three-dimensional feature points of; And
The stationary object detection unit clusters by projecting 3D feature points on the 3D environment map generated by the 3D environment map generation unit onto a reference plane, and detects stationary objects around the vehicle based on the clustering result. Step to do;
Object detection method of a vehicle comprising a.
제11항에 있어서,
상기 추정하는 단계에서, 상기 카메라 포즈 추정부는,
상기 차량의 후륜 축을 기준으로 결정되는 상기 차량 포즈 정보에 상기 카메라의 외부 파라미터를 적용하여 상기 카메라 포즈 정보를 추정하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
In the estimating step, the camera pose estimation unit,
And estimating the camera pose information by applying an external parameter of the camera to the vehicle pose information determined based on a rear wheel axis of the vehicle.
제11항에 있어서,
상기 추적하는 단계에서, 상기 특징점 추적부는,
상기 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하여 상기 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 상기 에피폴라 라인에 투영된 포인트를 상기 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
In the tracking step, the feature point tracking unit,
A point on the edge existing in the image is extracted and projected on the epipolar line, which is the reference line, and a point projected on the epipolar line within a range satisfying the epipolar constraint The object detection method of a vehicle, characterized in that tracking according to the feature point tracking algorithm KLT (Kanade-Lucas-Tomasi) tracking algorithm.
제11항에 있어서,
상기 생성하는 단계에서, 상기 3차원 환경지도 생성부는,
상기 복수의 3차원 특징점을 오차에 따른 신뢰도를 통해 필터링한 후, 상기 필터링된 3차원 특징점들을 이용하여 상기 3차원 환경지도를 생성하되, 상기 신뢰도는 상기 에피폴라 라인 및 상기 에지 간의 각도와, 상기 특징점 추적부에 의해 추적된 이미지의 수에 기초하여 결정되는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
In the generating step, the 3D environment map generation unit,
After filtering the plurality of 3D feature points through reliability according to an error, the 3D environment map is generated using the filtered 3D feature points, wherein the reliability is an angle between the epipolar line and the edge, and the The object detection method of a vehicle, characterized in that it is determined based on the number of images tracked by the feature point tracking unit.
제11항에 있어서,
상기 기준 평면은 격자(Grid)가 형성된 지면(Ground Plane)으로 결정되고,
상기 검출하는 단계에서, 상기 정지 객체 검출부는,
상기 3차원 환경지도 상의 3차원 특징점들 중 상기 기준 평면 위에 존재하는 3차원 특징점만을 상기 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 그 계산 결과를 토대로 각 격자를 분류하는 방식을 통해 상기 차량의 주변의 정지 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
The reference plane is determined as a ground plane on which a grid is formed,
In the detecting step, the still object detection unit,
Among the three-dimensional feature points on the three-dimensional environment map, only three-dimensional feature points existing on the reference plane are projected onto the reference plane, the number of projected three-dimensional feature points is calculated for each grid, and then each grid is calculated based on the calculation result. An object detection method of a vehicle, characterized in that to detect a stationary object around the vehicle through a classification method.
제15항에 있어서,
상기 검출하는 단계에서, 상기 정지 객체 검출부는,
상기 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출하되, 해당 격자의 위치 및 해당 격자에 투영된 3차원 특징점의 수를 기반으로 해당 정지 객체의 위치 및 높이를 계산하여 해당 정지 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 15,
In the detecting step, the still object detection unit,
Based on the number of three-dimensional feature points calculated for each grid, each grid is classified using the Connected Component algorithm, and a grid having the same component is determined to correspond to the same object, and a stationary object is detected. An object detection method for a vehicle, comprising detecting a corresponding stationary object by calculating a position and a height of a corresponding stationary object based on the number of 3D feature points projected on a corresponding grid.
제11항에 있어서,
상기 추정하는 단계에서, 상기 카메라 포즈 추정부는,
상기 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT Tracking 알고리즘에 따라 추적하고, 상기 추적된 특징점을 기반으로 상기 카메라 포즈 정보를 최적화하고,
이동 객체 검출부가, 상기 카메라 포즈 정보의 최적화 과정에서 상기 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 상기 차량의 주변의 이동 객체를 검출하는 단계;를 더 포함하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
In the estimating step, the camera pose estimation unit,
A feature point present in an image acquired through the camera is tracked according to a KLT Tracking algorithm, and the camera pose information is optimized based on the tracked feature point,
The moving object detection unit further comprising: detecting a moving object around the vehicle based on a feature point tracked according to the KLT Tracking algorithm in the process of optimizing the camera pose information. .
제17항에 있어서,
상기 이동 객체를 검출하는 단계에서, 상기 이동 객체 검출부는,
상기 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 상기 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 상기 이미지에 형성된 격자 별로 카운트되는 상기 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 17,
In the step of detecting the moving object, the moving object detection unit,
Accumulatively analyzing the difference between the position coordinates and 3D coordinates of pixels on the image for the feature points tracked according to the KLT Tracking algorithm, detecting the feature points estimated as moving objects, increasing the movement score, and a grid formed on the image When the movement score counted for each exceeds a preset reference value, the corresponding grid determines that the moving object corresponds to and detects the moving object.
KR1020190020287A 2019-02-21 2019-02-21 Apparatus for detecting object of vehicle and method thereof KR20200102108A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190020287A KR20200102108A (en) 2019-02-21 2019-02-21 Apparatus for detecting object of vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190020287A KR20200102108A (en) 2019-02-21 2019-02-21 Apparatus for detecting object of vehicle and method thereof

Publications (1)

Publication Number Publication Date
KR20200102108A true KR20200102108A (en) 2020-08-31

Family

ID=72234420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190020287A KR20200102108A (en) 2019-02-21 2019-02-21 Apparatus for detecting object of vehicle and method thereof

Country Status (1)

Country Link
KR (1) KR20200102108A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763560A (en) * 2021-08-02 2021-12-07 纵目科技(上海)股份有限公司 Method, system and equipment for generating point cloud data and computer readable storage medium
WO2022050473A1 (en) * 2020-09-01 2022-03-10 주식회사 맥스트 Apparatus and method for estimating camera pose
KR20240046395A (en) * 2022-09-30 2024-04-09 에이치디현대로보틱스 주식회사 Disinfection robot and controlling method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022050473A1 (en) * 2020-09-01 2022-03-10 주식회사 맥스트 Apparatus and method for estimating camera pose
US11941845B2 (en) 2020-09-01 2024-03-26 Maxst Co., Ltd. Apparatus and method for estimating camera pose
CN113763560A (en) * 2021-08-02 2021-12-07 纵目科技(上海)股份有限公司 Method, system and equipment for generating point cloud data and computer readable storage medium
CN113763560B (en) * 2021-08-02 2024-02-09 纵目科技(上海)股份有限公司 Method, system, equipment and computer readable storage medium for generating point cloud data
KR20240046395A (en) * 2022-09-30 2024-04-09 에이치디현대로보틱스 주식회사 Disinfection robot and controlling method thereof

Similar Documents

Publication Publication Date Title
CN110163904B (en) Object labeling method, movement control method, device, equipment and storage medium
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
Kim et al. Deep learning based vehicle position and orientation estimation via inverse perspective mapping image
US10399228B2 (en) Apparatus for recognizing position of mobile robot using edge based refinement and method thereof
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
KR102462278B1 (en) Method for estimating ego motion of an object
US20170316569A1 (en) Robust Anytime Tracking Combining 3D Shape, Color, and Motion with Annealed Dynamic Histograms
WO2022188094A1 (en) Point cloud matching method and apparatus, navigation method and device, positioning method, and laser radar
EP2757527B1 (en) System and method for distorted camera image correction
Zhou et al. Moving object detection and segmentation in urban environments from a moving platform
JP5023186B2 (en) Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection
KR20160123668A (en) Device and method for recognition of obstacles and parking slots for unmanned autonomous parking
JP2016081525A (en) Vehicular image recognition system and corresponding method
JP2014138420A (en) Depth sensing method and system for autonomous vehicle
KR20200102108A (en) Apparatus for detecting object of vehicle and method thereof
KR20210090384A (en) Method and Apparatus for Detecting 3D Object Using Camera and Lidar Sensor
Daraei et al. Velocity and shape from tightly-coupled LiDAR and camera
US11080562B1 (en) Key point recognition with uncertainty measurement
JP2014067276A (en) Collision determination device for vehicle
KR20120048958A (en) Method for tracking object and for estimating
CN105225248A (en) The method and apparatus of the direction of motion of recognition object
CN115187941A (en) Target detection positioning method, system, equipment and storage medium
JP2014026555A (en) Mobile-object recognition system, mobile-object recognition program, and mobile-object recognition method
US20230030596A1 (en) Apparatus and method for estimating uncertainty of image coordinate

Legal Events

Date Code Title Description
A201 Request for examination