KR20200102108A - Apparatus for detecting object of vehicle and method thereof - Google Patents
Apparatus for detecting object of vehicle and method thereof Download PDFInfo
- Publication number
- KR20200102108A KR20200102108A KR1020190020287A KR20190020287A KR20200102108A KR 20200102108 A KR20200102108 A KR 20200102108A KR 1020190020287 A KR1020190020287 A KR 1020190020287A KR 20190020287 A KR20190020287 A KR 20190020287A KR 20200102108 A KR20200102108 A KR 20200102108A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- feature points
- unit
- camera
- feature point
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 차량의 객체 검출 장치 및 방법에 관한 것으로서, 더욱 상세하게는 차량의 궤적 상에 존재하는 정지 객체 및 이동 객체를 검출하는 차량의 객체 검출 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for detecting an object of a vehicle, and more particularly, to an apparatus and method for detecting an object of a vehicle for detecting a stationary object and a moving object existing on a trajectory of a vehicle.
종래의 카메라를 사용하여 물체를 검출하는 기술로서, 다수의 카메라를 통해 획득되는 이미지 영상에서 관측되는 픽셀들의 3차원 점을 복원하거나 카메라 및 다른 거리 탐지 센서를 통해 획득되는 3차원 점들을 분류하여 물체를 검출하는 방법이 적용되고 있다. 단안 카메라를 사용하여 물체를 검출할 경우에는 연속된 이미지 내에서 픽셀들을 이미지마다 추적하여 매칭된 픽셀들의 3차원 점을 구축하고 이를 분류하여 물체를 검출하는 방법을 사용한다. 연속된 이미지에서 픽셀들을 추적하는 방법은 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘을 통해 특징점을 추적하는 방법, 또는 SIFT(Scale-Invariant Feature Transform) 알고리즘을 통해 특징점을 추출하여 매칭하는 방법이 있으며, 특징점 매칭 방법은 여러 대의 카메라에서 같은 순간의 이미지끼리 특징점들을 매칭할 때도 쓰이고 있다.As a technology for detecting an object using a conventional camera, an object by restoring 3D points of pixels observed in an image image acquired through multiple cameras or by classifying 3D points acquired through cameras and other distance detection sensors. A method of detecting is applied. When an object is detected using a monocular camera, a method of detecting an object by constructing a 3D point of matched pixels by tracking pixels in a continuous image for each image is used. A method of tracking pixels in a continuous image includes a method of tracking a feature point through a Kanade-Lucas-Tomasi (KLT) tracking algorithm, or a method of extracting and matching a feature point through a Scale-Invariant Feature Transform (SIFT) algorithm. The feature point matching method is also used to match feature points between images at the same moment in multiple cameras.
한편, 차량에 장착된 하나의 카메라만을 사용하여 객체를 검출하고자 할 경우, 카메라를 통해 획득된 2D 이미지 상에서 객체를 검출할 수는 있지만, 해당 객체가 차량으로부터 실제로 얼마나 떨어져 있는지에 대한 정확한 거리 정보는 얻을 수 없는 문제점이 있다. 또한, 카메라와 차량의 속도 측정계를 같이 사용하는 종래의 기술은 전술한 KLT Tracking 알고리즘 또는 SIFT 알고리즘을 기반으로 시스템이 운영됨으로 인해 장애물과 같은 객체 검출에 어려움이 있으며, 이미지에 존재하는 모든 픽셀을 사용하는 dense한 방법을 사용하는 종래 기술들은 객체 검출에 소요되는 시간이 매우 크다는 단점이 있다.On the other hand, if you want to detect an object using only one camera mounted on the vehicle, you can detect the object on the 2D image acquired through the camera, but the accurate distance information about how far the object is actually from the vehicle is There is a problem that cannot be obtained. In addition, the conventional technology that uses the camera and the vehicle's speed measurement system together has difficulty in detecting objects such as obstacles because the system is operated based on the aforementioned KLT Tracking algorithm or SIFT algorithm, and all pixels present in the image are used. Conventional techniques using a dense method have a disadvantage in that the time required for object detection is very large.
본 발명의 배경기술은 대한민국 공개특허공보 제10-2011-0060600호(2011.06.08. 공개)에 개시되어 있다.The background technology of the present invention is disclosed in Korean Patent Application Publication No. 10-2011-0060600 (published on June 08, 2011).
본 발명은 전술한 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 일 측면에 따른 목적은 차량의 카메라를 통해 획득되는 이미지 영상과 차량의 휠 속도 측정계를 활용하여 차량 주변의 3차원 환경지도를 구축하고, 구축된 3차원 환경지도를 기반으로 차량 궤적 상의 객체를 검출하는 방식을 통해 차량 주변의 정지 객체 및 이동 객체를 정밀하게 검출함으로써 운전자의 주행 편의를 향상시키기 위한 차량의 객체 검출 장치 및 방법을 제공하는 것이다.The present invention was invented to solve the above-described problem, and an object according to an aspect of the present invention is to construct a 3D environment map around a vehicle using an image image acquired through a vehicle camera and a vehicle wheel speed measurement system. And, based on the established 3D environment map, the vehicle object detection apparatus and method for improving the driving convenience of the driver by precisely detecting the stationary and moving objects around the vehicle through a method of detecting objects on the vehicle trajectory. To provide.
본 발명의 일 실시예에 따른 차량의 객체 검출 장치는 차량의 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 상기 차량의 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정하는 카메라 포즈 추정부, 상기 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 상기 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 상기 기준 라인에 투영된 포인트를 특징점으로서 추적하는 특징점 추적부, 상기 카메라 포즈 추정부에 의해 추정된 카메라 포즈 정보를 이용하여 상기 특징점 추적부에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 상기 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성하는 3차원 환경지도 생성부, 및 상기 3차원 환경지도 생성부에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 상기 차량의 주변의 정지 객체를 검출하는 정지 객체 검출부를 포함하는 것을 특징으로 한다.The object detection apparatus of a vehicle according to an embodiment of the present invention is a camera pose estimating unit for estimating camera pose information by converting the vehicle pose information obtained through the vehicle wheel speed measurement system into the coordinate system of the camera of the vehicle, A feature point tracking unit for extracting a point existing in the image acquired through the camera and projecting it onto a reference line existing in the image, and tracking the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm, the The three-dimensional coordinates of the plurality of feature points tracked by the feature point tracking unit are calculated using the camera pose information estimated by the camera pose estimating unit, and based on the plurality of three-dimensional feature points having the calculated three-dimensional coordinates, 3 A 3D environment map generation unit that generates a dimensional environment map, and the 3D feature points on the 3D environment map generated by the 3D environment map generation unit are clustered through a method of projecting onto a reference plane, and based on the result of the clustering It characterized in that it comprises a stationary object detection unit for detecting a stationary object around the vehicle.
본 발명에 있어 상기 카메라 포즈 추정부는, 상기 차량의 후륜 축을 기준으로 결정되는 상기 차량 포즈 정보에 상기 카메라의 외부 파라미터를 적용하여 상기 카메라 포즈 정보를 추정하는 것을 특징으로 한다.In the present invention, the camera pose estimating unit may estimate the camera pose information by applying an external parameter of the camera to the vehicle pose information determined based on a rear wheel axis of the vehicle.
본 발명에 있어 상기 특징점 추적부는, 상기 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하고 상기 기준 라인에 투영하여 특징점을 추적하는 것을 특징으로 한다.In the present invention, the feature point tracking unit is characterized in that the feature point is tracked by extracting a point on an edge existing in the image and projecting it onto the reference line.
본 발명에 있어 상기 특징점 추적부는, 상기 에지 상의 포인트를 상기 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 상기 에피폴라 라인에 투영된 포인트를 상기 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적하는 것을 특징으로 한다.In the present invention, the feature point tracking unit projects a point on the edge onto an epipolar line, which is the reference line, and a point projected onto the epipolar line within a range satisfying an epipolar constraint. Is tracked according to the KLT (Kanade-Lucas-Tomasi) Tracking algorithm, which is the feature point tracking algorithm.
본 발명에 있어 상기 3차원 환경지도 생성부는, 상기 복수의 3차원 특징점을 오차에 따른 신뢰도를 통해 필터링한 후, 상기 필터링된 3차원 특징점들을 이용하여 상기 3차원 환경지도를 생성하는 것을 특징으로 한다.In the present invention, the 3D environment map generating unit is characterized in that after filtering the plurality of 3D feature points through reliability according to an error, and then generating the 3D environment map using the filtered 3D feature points. .
본 발명에 있어 상기 신뢰도는 상기 에피폴라 라인 및 상기 에지 간의 각도와, 상기 특징점 추적부에 의해 추적된 이미지의 수에 기초하여 결정되는 것을 특징으로 한다.In the present invention, the reliability is determined based on the angle between the epipolar line and the edge and the number of images tracked by the feature point tracking unit.
본 발명에 있어 상기 기준 평면은 격자(Grid)가 형성된 지면(Ground Plane)으로 결정되고, 상기 정지 객체 검출부는, 상기 3차원 환경지도 상의 3차원 특징점들 중 상기 기준 평면 위에 존재하는 3차원 특징점만을 상기 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 그 계산 결과를 토대로 각 격자를 분류하는 방식을 통해 상기 차량의 주변의 정지 객체를 검출하는 것을 특징으로 한다.In the present invention, the reference plane is determined as a ground plane on which a grid is formed, and the still object detection unit includes only three-dimensional feature points existing on the reference plane among three-dimensional feature points on the three-dimensional environment map. It is characterized by detecting a stationary object around the vehicle by projecting onto the reference plane and calculating the number of projected 3D feature points for each grid, and then classifying each grid based on the calculation result.
본 발명에 있어 상기 정지 객체 검출부는, 상기 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출하되, 해당 격자의 위치 및 해당 격자에 투영된 3차원 특징점의 수를 기반으로 해당 정지 객체의 위치 및 높이를 계산하여 해당 정지 객체를 검출하는 것을 특징으로 한다.In the present invention, the stationary object detection unit classifies each grid using a Connected Component algorithm based on the number of three-dimensional feature points calculated for each grid, and determines that a grid having the same component corresponds to the same object and stops. The object is detected, but the position and height of the corresponding still object are calculated based on the position of the corresponding grid and the number of 3D feature points projected on the corresponding grid to detect the corresponding still object.
본 발명에 있어 상기 카메라 포즈 추정부는, 상기 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT Tracking 알고리즘에 따라 추적하고, 상기 추적된 특징점을 기반으로 상기 카메라 포즈 정보를 최적화하고, 상기 카메라 포즈 정보의 최적화 과정에서 상기 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 상기 차량의 주변의 이동 객체를 검출하는 이동 객체 검출부를 더 포함하는 것을 특징으로 한다.In the present invention, the camera pose estimating unit tracks a feature point present in the image acquired through the camera according to a KLT Tracking algorithm, optimizes the camera pose information based on the tracked feature point, and calculates the camera pose information. In the optimization process, it is characterized in that it further comprises a moving object detection unit for detecting a moving object around the vehicle based on the feature points tracked according to the KLT Tracking algorithm.
본 발명에 있어 상기 이동 객체 검출부는, 상기 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 상기 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 상기 이미지에 형성된 격자 별로 카운트되는 상기 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출하는 것을 특징으로 한다.In the present invention, the moving object detection unit accumulatively analyzes the difference between the position coordinates and the three-dimensional coordinates of the pixel on the image with respect to the feature point tracked according to the KLT Tracking algorithm, and detects the feature point estimated as a moving object to move. When the score is increased and the movement score counted for each grid formed in the image exceeds a preset reference value, the corresponding grid is determined to correspond to a moving object, and the moving object is detected.
본 발명의 일 측면에 따른 차량의 객체 검출 방법은 카메라 포즈 추정부가, 차량의 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 상기 차량의 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정하는 단계, 특징점 추적부가, 상기 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 상기 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 상기 기준 라인에 투영된 포인트를 특징점으로서 추적하는 단계, 3차원 환경지도 생성부가, 상기 카메라 포즈 추정부에 의해 추정된 카메라 포즈 정보를 이용하여 상기 특징점 추적부에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 상기 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성하는 단계, 및 정지 객체 검출부가, 상기 3차원 환경지도 생성부에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 상기 차량의 주변의 정지 객체를 검출하는 단계를 포함하는 것을 특징으로 한다.In the method of detecting an object of a vehicle according to an aspect of the present invention, the camera pose estimating unit converts vehicle pose information obtained through a wheel speed measurement system of the vehicle into a coordinate system of the vehicle camera to estimate camera pose information. , A feature point tracking unit extracts a point existing in the image acquired through the camera and projects it onto a reference line existing in the image, and tracks the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm. Step, the 3D environment map generation unit calculates the 3D coordinates of the plurality of feature points tracked by the feature point tracking unit using the camera pose information estimated by the camera pose estimation unit, and calculates the calculated 3D coordinates Generating a three-dimensional environment map based on a plurality of three-dimensional feature points, and a method in which the still object detection unit projects three-dimensional feature points on the three-dimensional environment map generated by the three-dimensional environment map generator onto a reference plane And detecting a stationary object around the vehicle based on the clustering result.
본 발명의 일 측면에 따르면, 본 발명은 차량의 카메라를 통해 획득되는 이미지 영상과 차량의 휠 속도 측정계를 활용하여 차량 주변의 3차원 환경지도를 구축하고, 구축된 3차원 환경지도를 기반으로 차량 궤적 상의 객체를 검출하는 방식을 통해 차량 주변의 정지 객체 및 이동 객체를 정밀하게 검출함으로써 운전자의 주행 편의를 향상시킬 수 있다.According to an aspect of the present invention, the present invention constructs a 3D environment map around the vehicle using an image image acquired through a vehicle camera and a vehicle wheel speed measurement system, and based on the constructed 3D environment map, the vehicle The driving convenience of a driver can be improved by precisely detecting a stationary object and a moving object around the vehicle through a method of detecting an object on a trajectory.
또한, 본 발명은 차량의 자율 주행 시스템 또는 주차 보조 시스템에 적용되어 차량 주변의 장애물과 같은 객체를 검출하고 그 검출 결과를 기반으로 차량의 자율 주행 또는 주차가 정확하게 제어되도록 함으로써 차량의 자율 주행 제어 성능 및 주차 제어 성능이 개선되도록 할 수 있다.In addition, the present invention is applied to an autonomous driving system or a parking assistance system of a vehicle to detect an object such as an obstacle around the vehicle and to accurately control the autonomous driving or parking of the vehicle based on the detection result. And parking control performance may be improved.
도 1은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치를 설명하기 위한 블록구성도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 카메라 포즈 추정부의 동작을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 특징점 추적부의 동작을 설명하기 위한 예시도이다.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 정지 객체 검출부의 동작을 설명하기 위한 예시도이다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 이동 객체 검출부의 동작을 설명하기 위한 예시도이다.
도 10은 본 발명의 일 실시예에 따른 차량의 객체 검출 방법을 설명하기 위한 흐름도이다.1 is a block diagram illustrating an apparatus for detecting an object of a vehicle according to an exemplary embodiment of the present invention.
2 and 3 are exemplary diagrams for explaining an operation of a camera pose estimation unit in the apparatus for detecting an object of a vehicle according to an embodiment of the present invention.
4 is an exemplary view for explaining the operation of a feature point tracking unit in the object detection apparatus of a vehicle according to an embodiment of the present invention.
5 to 7 are exemplary views for explaining the operation of a stationary object detection unit in the object detection apparatus of a vehicle according to an embodiment of the present invention.
8 and 9 are exemplary views for explaining an operation of a moving object detection unit in the object detection apparatus of a vehicle according to an embodiment of the present invention.
10 is a flowchart illustrating a method of detecting an object of a vehicle according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명에 따른 차량의 객체 검출 장치 및 방법의 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, an embodiment of an apparatus and method for detecting an object of a vehicle according to the present invention will be described with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description. In addition, terms to be described later are terms defined in consideration of functions in the present invention and may vary according to the intention or custom of users or operators. Therefore, definitions of these terms should be made based on the contents throughout the present specification.
도 1은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치를 설명하기 위한 블록구성도이고, 도 2 및 도 3은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 카메라 포즈 추정부의 동작을 설명하기 위한 예시도이며, 도 4는 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 특징점 추적부의 동작을 설명하기 위한 예시도이고, 도 5 내지 도 7은 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 정지 객체 검출부의 동작을 설명하기 위한 예시도이며, 도 8 및 도 9는 본 발명의 일 실시예에 따른 차량의 객체 검출 장치에서 이동 객체 검출부의 동작을 설명하기 위한 예시도이다.1 is a block diagram illustrating an object detection apparatus of a vehicle according to an embodiment of the present invention, and FIGS. 2 and 3 are an operation of a camera pose estimation unit in an object detection apparatus of a vehicle according to an embodiment of the present invention. 4 is an exemplary view for explaining the operation of a feature point tracking unit in an object detection device of a vehicle according to an embodiment of the present invention, and FIGS. 5 to 7 are An exemplary diagram for explaining an operation of a stationary object detection unit in an object detection apparatus of a vehicle according to the present invention, and FIGS. 8 and 9 are examples for explaining the operation of a moving object detection unit in the object detection apparatus of a vehicle according to an embodiment of the present invention. Is also.
도 1을 참조하면 본 발명의 일 실시예에 따른 차량의 객체 검출 장치는 카메라 포즈 추정부(100), 특징점 추적부(200), 3차원 환경지도 생성부(300), 정지 객체 검출부(400) 및 이동 객체 검출부(500)를 포함할 수 있다. 카메라 포즈 추정부(100), 특징점 추적부(200), 3차원 환경지도 생성부(300) 및 정지 객체 검출부(400)를 통해 차량 주변의 정지 객체가 검출될 수 있고, 카메라 포즈 추정부(100) 및 이동 객체 검출부(500)를 통해 차량 주변의 이동 객체가 검출될 수 있다. 이하에서는 먼저 차량 주변의 정지 객체를 검출하는 과정에 대하여 설명한다.Referring to FIG. 1, a vehicle object detection apparatus according to an embodiment of the present invention includes a camera
카메라 포즈 추정부(100)는 차량에 장착된 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 차량에 장착된 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정할 수 있다. 여기서, 차량 포즈 정보는 휠 속도 측정계를 통해 획득되는 차량의 자세 및 위치에 대한 정보를 포함할 수 있으며, 이에 따라 카메라 포즈 정보는 차량에 장착된 카메라의 자세 및 위치에 대한 정보를 포함할 수 있다.The camera
이때, 카메라 포즈 추정부(100)는 차량의 후륜 축을 기준으로 결정되는 차량 포즈 정보에 카메라의 외부 파라미터를 적용하여 카메라 포즈 정보를 추정할 수 있다.In this case, the camera
구체적으로, 본 실시예의 카메라 포즈 추정부(100)는 CAN 정보를 이용하여 짧은 구간에서 차량의 자세 및 위치를 제공하는 Wheel Odometry에 스케일(scale) 값을 융합한 Monocular Visual Odometry를 이용하여 카메라 포즈 정보를 추정할 수 있다. 즉, Wheel Odometry를 통해 획득되는 차량 포즈 정보는 후륜 축을 기준으로 하는 정보이므로, 카메라 포즈 추정부(100)는 도 2에 도시된 것과 같이 후륜 축 기준의 차량 포즈 정보에 카메라의 외부 파라미터(즉, 변환 매트릭스)를 적용하여 카메라 포즈 정보를 추정할 수 있다. 도 3에서 ①은 후륜 축 기준의 차량 포즈 정보를, ② 및 ③은 후륜 축 기준의 차량 포즈 정보로부터 변환된 카메라 포즈 정보를 나타낸다. 이에 따라, 카메라 포즈 정보는 하기 수학식 1에 의해 추정될 수 있다.Specifically, the camera
한편, 카메라 포즈 추정부(100)는 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적하고, 추적된 특징점을 기반으로 카메라 포즈 정보를 최적화할 수도 있다. 즉, 카메라 포즈 추정부(100)는 카메라를 통해 획득된 이미지에 KLT Tracking 알고리즘을 적용하여 특징점을 추적하고, 추적된 특징점들을 이전 획득된 이미지(프레임)에 투영하여 결정되는 재투영 오차(Reprojection Error)가 최소화되도록 카메라 포즈 정보를 최적화할 수 있다. 카메라 포즈 정보의 최적화 과정에서 KLT Tracking 알고리즘에 따라 추적되는 특징점은 차량 주변의 정지 객체가 아닌, 이동 객체를 검출하는 과정에 활용될 수 있으며, 이에 대한 구체적인 설명은 후술한다. 또한, 카메라 포즈 추정부(100)는 카메라 포즈 정보를 최적화할 때, 일정 크기의 슬라이딩 윈도우(Sliding Window) 내의 이미지(프레임)만을 활용하여 카메라 포즈 정보의 최적화에 소요되는 시간이 단축되도록 할 수도 있다.On the other hand, the camera
특징점 추적부(200)는 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 기준 라인에 투영된 포인트를 특징점으로서 추적할 수 있다.The feature
이때, 특징점 추적부(200)는 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하여 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 에피폴라 라인에 투영된 포인트를 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적할 수 있다.At this time, the feature
통상적인 KLT Tracking 알고리즘은 이미지에 존재하는 코너(corner)에 해당하는 점을 추적하는 알고리즘으로서, 이미지에 존재하는 에지 상의 점에 대하여는 부정확한 결과를 제공하는 한계가 존재한다. 공간에서 고정된 점은 연속된 이미지에서 에피폴라 라인을 따라 이동하기 때문에, 본 실시예에서는 통상적인 KLT Tracking 알고리즘에 따라 특징점을 추정함이 아닌, Epipolar KLT Tracking 알고리즘을 활용하여 이미지에 존재하는 에지 상의 포인트도 강건하게 추적함으로써 정지 객체를 정밀하게 검출하는 구성을 채용한다. 도 4는 추적된 현재 프레임의 특징점, 및 추적된 이전 프레임의 특징점을 통상적인 KLT Tracking 알고리즘과 Epipolar KLT Tracking 알고리즘으로 구분하여 도시하고 있다.A typical KLT Tracking algorithm is an algorithm that tracks a point corresponding to a corner present in an image, and there is a limit to providing inaccurate results for points on an edge existing in an image. Since a fixed point in space moves along an epipolar line in a continuous image, in this embodiment, the feature point is not estimated according to the conventional KLT Tracking algorithm, but on the edge existing in the image using the Epipolar KLT Tracking algorithm. It employs a configuration that accurately detects still objects by sturdy tracking points. FIG. 4 shows a feature point of a tracked current frame and a feature point of a tracked previous frame divided into a conventional KLT Tracking algorithm and an Epipolar KLT Tracking algorithm.
이에 따라, 특징점 추적부(200)는 이미지에 존재하는 에지 상의 포인트를 추출하여 에피폴라 라인에 투영하고, 에피폴라 제약조건(공간상의 한 점을 한 이미지에서 다른 이미지로 투영하였을 때 투영된 점은 에피폴라 라인상에 존재해야 하는 제약조건)이 충족되는 범위에서 에피폴라 라인에 투영된 포인트를 KLT Tracking 알고리즘에 따라 추적할 수 있다(즉, 이미지의 에지 포인트를 Epipolar KLT Tracking 알고리즘에 따라 특징점으로 추적할 수 있다).Accordingly, the feature
3차원 환경지도 생성부(300)는 카메라 포즈 추정부(100)에 의해 추정된 카메라 포즈 정보를 이용하여 특징점 추적부(200)에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성할 수 있다. 3차원 환경지도 생성부(300)는 카메라 포즈 정보를 토대로 삼각측량법(Triangulation)을 사용하여 복수의 특징점에 대한 3차원 좌표를 계산할 수 있다.The 3D environment
이때, 3차원 환경지도 생성부(300)는 복수의 3차원 특징점을 오차에 따른 신뢰도(Confidence)를 통해 필터링한 후, 필터링된 3차원 특징점들을 이용하여 3차원 환경지도를 생성할 수 있으며, 신뢰도는 전술한 에지 포인트가 투영된 에피폴라 라인 및 에지 간의 각도와, 특징점 추적부(200)에 의해 추적된 이미지의 수에 기초하여 결정될 수 있다.At this time, the 3D environment
구체적으로, Epipolar KLT Tracking 알고리즘은 에피폴라 라인과 에지 간의 방향이 비슷하고 추적된 이미지의 수가 적을수록 그 오차가 증가하는 경향이 있기 때문에, 3차원 환경지도 생성부(300)는 3차원 특징점에 대한 신뢰도를 계산하고, 계산된 신뢰도가 미리 설정된 기준치 이상일 경우에만 해당 3차원 특징점을 3차원 환경지도 생성에 반영함으로써, 기준치 이상의 신뢰도를 갖는 3차원 특징점을 기반으로 정지 객체가 검출되도록 하여 그 검출 정밀도를 향상시킬 수 있다. 3차원 환경지도 생성부(300)는 하기 수학식 2에 따라 3차원 특징점의 신뢰도를 결정할 수 있다.Specifically, since the Epipolar KLT Tracking algorithm has similar directions between epipolar lines and edges and the error tends to increase as the number of tracked images decreases, the 3D
수학식 2에서, C는 해당 3차원 특징점의 신뢰도, α는 에피폴라 라인 및 에지 간의 각도와 추적된 이미지의 수에 대한 가중치 비율, COSTangle은 에피폴라 라인 및 에지 간의 각도에 대한 코스트, COSTage는 추적된 이미지의 수에 대한 코스트를 의미한다.In
정지 객체 검출부(400)는 3차원 환경지도 생성부(300)에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 차량의 주변의 정지 객체를 검출할 수 있다. 여기서, 3차원 특징점들이 투영되는 기준 평면은 격자(Grid)가 형성된 지면(Ground Plane)으로 결정될 수 있으며, 지면은 카메라의 외부 파라미터를 기반으로 정의될 수 있다.The stationary
이때, 정지 객체 검출부(400)는 3차원 환경지도 상의 3차원 특징점들 중 기준 평면(지면) 위에 존재하는 3차원 특징점만을 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 그 계산 결과를 토대로 각 격자를 분류하는 방식을 통해 차량의 주변의 정지 객체를 검출할 수 있다.At this time, the still object
구체적으로, 정지 객체 검출부(400)는 도 5에 도시된 것과 같이 3차원 환경지도 상의 3차원 특징점들 중 지면 아래에 존재하는 3차원 특징점을 제거하고 지면 위에 존재하는 3차원 특징점만을 추출할 수 있다. 그리고, 정지 객체 검출부(400)는 도 6에 도시된 것과 같이 추출된 3차원 특징점을 지면에 투영하고(도 6의 좌측 도면), 투영된 3차원 특징점의 수를 각 격자별로 계산할 수 있다(도 6의 가운데 도면). Specifically, as shown in FIG. 5, the still object
이후, 정지 객체 검출부(400)는 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출할 수 있으며, 이때 해당 격자의 위치 및 해당 격자에 투영된 3차원 특징점의 수를 기반으로 해당 정지 객체의 위치 및 높이를 각각 계산하여 해당 정지 객체를 검출할 수 있다.Thereafter, the stationary
즉, Connected Component 알고리즘에 따라 각 격자에는 라벨 번호가 부여되며, 이에 따라 정지 객체 검출부(400)는 동일한 Component를 갖는 격자(즉, 라벨 번호가 동일한 격자)에는 동일한 객체가 존재하는 것으로 판단하여 정지 객체를 검출할 수 있다(도 6의 우측 도면). 이때, 정지 객체 검출부(400)는 해당 격자의 위치를 토대로 해당 정지 객체의 위치를 계산하고, 해당 격자에 투영된 3차원 특징점의 수를 토대로 해당 정지 객체를 계산함으로써 해당 정지 객체를 검출할 수 있다. 도 7의 좌측 도면은 정지 객체 검출부(400)에 의해 최종 검출된 정지 객체를 도시하고 있으며(좌우측 박스에 해당하는 객체는 차량의 궤적 밖에 존재하는 정지 객체를, 가운데 박스에 해당하는 객체는 차량의 궤적 내에 존재하는 정지 객체를 나타낸다), 도 7의 우측 도면은 각각 각 격자별로 투영된 특징점의 수, 및 동일한 객체에 해당하는 격자끼리 분류된 라벨 번호에 대한 각 그래프를 도시하고 있다.That is, a label number is assigned to each grid according to the Connected Component algorithm, and accordingly, the stationary
다음으로, 차량 주변의 이동 객체를 검출하는 과정에 대하여 설명한다.Next, a process of detecting a moving object around the vehicle will be described.
이동 객체 검출부(500)는 카메라 포즈 추정부(100)에 의한 카메라 포즈 정보의 최적화 과정에서 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 차량의 주변의 이동 객체를 검출할 수 있다. 즉, 이동 객체는 에피폴라 제약조건을 따르지 않아 전술한 Epipolar KLT Tracking 알고리즘을 적용할 수 없으므로, 이동 객체를 검출하는 경우에는 카메라 포즈 추정부(100)가 카메라 포즈 정보를 추정하는 과정에서 활용되며 에피폴라 제약조건을 따르지 않는 일반적인 KLT Tracking 알고리즘을 활용한다. 도 8은 이동 객체 검출부(500)의 동작 원리를 도시하고 있으며, 즉 정지 객체의 경우 카메라의 이동 거리만큼 역 방향으로의 이동이 예상되며, 따라서 기준 평면(Global Ground Plane) 상에서 해당 객체의 예상 위치 및 실제 위치를 비교하고 그 차이가 클수록 이동 객체에 확률이 높음을 보이고 있다.The moving
전술한 내용을 토대로 이동 객체 검출부(500)의 동작을 구체적으로 설명하면, 이동 객체 검출부(500)는 카메라 포즈 추정 과정에서 활용되는 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 이미지에 형성된 격자 별로 카운트되는 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출할 수 있다.When the operation of the moving
즉, 이동 객체 검출부(500)는 도 9에 도시된 것과 같이 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한 2D 이미지 상에서의 픽셀의 위치 좌표 및 글로벌 3차원 좌표 간의 차이를 누적 분석하고 이동 객체에 해당하는 것으로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 이미지에 형성된 격자 별로 이동 스코어를 카운트하여 그 값이 미리 설정된 기준치를 초과하면 해당 격자를 Dynamic Box로 분류하여 해당 Dynamic Box에 이동 객체가 존재하는 것으로 판단하는 방식을 통해 이동 객체를 검출할 수 있다.That is, the moving
도 10은 본 발명의 일 실시예에 따른 차량의 객체 검출 방법을 설명하기 위한 흐름도로서, 도 10을 참조하여 본 발명의 일 실시예에 따른 차량의 객체 검출 방법을 설명하며, 이하에서는 전술한 내용과 중복되는 설명은 생략한다.10 is a flowchart for explaining a method of detecting an object of a vehicle according to an embodiment of the present invention. With reference to FIG. 10, a method of detecting an object of a vehicle according to an embodiment of the present invention is described. The overlapping description with will be omitted.
먼저, 카메라 포즈 추정부(100)는 차량의 휠 속도 측정계를 통해 획득된 차량 포즈(Pose) 정보를 차량의 카메라의 좌표계로 변환하여 카메라 포즈 정보를 추정한다(S100). S100 단계에서, 카메라 포즈 추정부(100)는 차량의 후륜 축을 기준으로 결정되는 차량 포즈 정보에 카메라의 외부 파라미터를 적용하여 카메라 포즈 정보를 추정한다. 또한, S100 단계에서, 카메라 포즈 추정부(100)는 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT Tracking 알고리즘에 따라 추적하고, 추적된 특징점을 기반으로 카메라 포즈 정보를 최적화한다.First, the camera pose estimating
이어서, 특징점 추적부(200)는 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 기준 라인에 투영된 포인트를 특징점으로서 추적한다(S200). S200 단계에서, 특징점 추적부(200)는 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하여 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 에피폴라 라인에 투영된 포인트를 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적한다.Subsequently, the feature
이어서, 3차원 환경지도 생성부(300)는 S100 단계에서 추정된 카메라 포즈 정보를 이용하여 S200 단계에서 추적된 복수의 특징점의 3차원 좌표를 계산하고, 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성한다(S300). S300 단계에서, 3차원 환경지도 생성부(300)는 복수의 3차원 특징점을 오차에 따른 신뢰도를 통해 필터링한 후, 필터링된 3차원 특징점들을 이용하여 3차원 환경지도를 생성하며, 3차원 특징점의 신뢰도는 에피폴라 라인 및 에지 간의 각도와, 특징점 추적부(200)에 의해 추적된 이미지의 수에 기초하여 결정될 수 있다.Subsequently, the 3D environment
이어서, 정지 객체 검출부(400)는 3차원 환경지도 생성부(300)에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 차량의 주변의 정지 객체를 검출한다(S400). S400 단계에서, 정지 객체 검출부(400)는 3차원 환경지도 상의 3차원 특징점들 중 기준 평면 위에 존재하는 3차원 특징점만을 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출한다. 이때, 정지 객체 검출부(400)는 해당 격자에 투영된 특징점들의 위치 및 개수를 기반으로 해당 정지 객체의 위치 및 높이를 계산하여 해당 정지 객체를 검출한다.Subsequently, the stationary
한편, 이동 객체 검출부(500)는 S100 단계의 카메라 포즈 정보의 최적화 과정에서 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 차량의 주변의 이동 객체를 검출한다(S500). S500 단계에서 이동 객체 검출부(500)는 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 이미지에 형성된 격자 별로 카운트되는 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출한다. S500 단계는 S100 단계 내지 S400 단계와 독립적으로 수행되는 병렬적 구성으로서, 그 동작 순서가 상기한 기재순서에 한정되지 않는다.Meanwhile, the moving
이와 같이 본 실시예는 차량의 카메라를 통해 획득되는 이미지 영상과 차량의 휠 속도 측정계를 활용하여 차량 주변의 3차원 환경지도를 구축하고, 구축된 3차원 환경지도를 기반으로 차량 궤적 상의 객체를 검출하는 방식을 통해 차량 주변의 정지 객체 및 이동 객체를 정밀하게 검출함으로써 운전자의 주행 편의를 향상시킬 수 있다.As described above, this embodiment constructs a 3D environment map around the vehicle by using the image image acquired through the vehicle's camera and the vehicle's wheel speed measurement system, and detects an object on the vehicle trajectory based on the constructed 3D environment map. Through this method, it is possible to improve the driving convenience of the driver by precisely detecting the stationary and moving objects around the vehicle.
또한, 본 실시예는 차량의 자율 주행 시스템 또는 주차 보조 시스템에 적용되어 차량 주변의 장애물과 같은 객체를 검출하고 그 검출 결과를 기반으로 차량의 자율 주행 또는 주차가 정확하게 제어되도록 함으로써 차량의 자율 주행 제어 성능 및 주차 제어 성능이 개선되도록 할 수 있다.In addition, this embodiment is applied to an autonomous driving system or a parking assistance system of a vehicle to detect an object such as an obstacle around the vehicle and control autonomous driving of the vehicle by accurately controlling the autonomous driving or parking of the vehicle based on the detection result. Performance and parking control performance can be improved.
본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.The implementation described herein may be implemented in, for example, a method or process, an apparatus, a software program, a data stream or a signal. Although discussed only in the context of a single form of implementation (eg, only as a method), the implementation of the discussed features may also be implemented in other forms (eg, an apparatus or program). The device may be implemented with appropriate hardware, software and firmware. The method may be implemented in an apparatus such as a processor, which generally refers to a processing device including, for example, a computer, microprocessor, integrated circuit or programmable logic device, or the like. Processors also include communication devices such as computers, cell phones, personal digital assistants ("PDAs") and other devices that facilitate communication of information between end-users.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are only exemplary, and those of ordinary skill in the art to which the present technology pertains, various modifications and other equivalent embodiments are possible. I will understand. Therefore, the true technical protection scope of the present invention should be determined by the following claims.
100: 카메라 포즈 추정부
200: 특징점 추적부
300: 3차원 환경지도 생성부
400: 정지 객체 검출부
500: 이동 객체 검출부100: camera pose estimation unit
200: feature point tracking unit
300: 3D environment map generation unit
400: still object detection unit
500: moving object detection unit
Claims (18)
상기 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 상기 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 상기 기준 라인에 투영된 포인트를 특징점으로서 추적하는 특징점 추적부;
상기 카메라 포즈 추정부에 의해 추정된 카메라 포즈 정보를 이용하여 상기 특징점 추적부에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 상기 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성하는 3차원 환경지도 생성부; 및
상기 3차원 환경지도 생성부에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 상기 차량의 주변의 정지 객체를 검출하는 정지 객체 검출부;
를 포함하는 것을 특징으로 하는 차량의 객체 검출 장치.
A camera pose estimating unit for estimating camera pose information by converting vehicle pose information acquired through a vehicle wheel speed measurement system into a coordinate system of the vehicle camera;
A feature point tracking unit for extracting a point existing in the image acquired through the camera, projecting it onto a reference line existing in the image, and tracking the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm;
The three-dimensional coordinates of the plurality of feature points tracked by the feature point tracking unit are calculated using the camera pose information estimated by the camera pose estimating unit, and based on the plurality of three-dimensional feature points having the calculated three-dimensional coordinates A 3D environment map generator that generates a 3D environment map; And
A stationary object detector configured to cluster by projecting 3D feature points on a 3D environment map generated by the 3D environment map generator onto a reference plane, and detect a stationary object around the vehicle based on the clustering result;
Vehicle object detection apparatus comprising a.
상기 카메라 포즈 추정부는, 상기 차량의 후륜 축을 기준으로 결정되는 상기 차량 포즈 정보에 상기 카메라의 외부 파라미터를 적용하여 상기 카메라 포즈 정보를 추정하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 1,
And the camera pose estimating unit estimates the camera pose information by applying an external parameter of the camera to the vehicle pose information determined based on a rear wheel axis of the vehicle.
상기 특징점 추적부는, 상기 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하고 상기 기준 라인에 투영하여 특징점을 추적하는 것을 특징으로 차량의 객체 검출 장치.
The method of claim 1,
The feature point tracking unit extracts a point on an edge existing in the image and projects it onto the reference line to track the feature point.
상기 특징점 추적부는, 상기 에지 상의 포인트를 상기 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 상기 에피폴라 라인에 투영된 포인트를 상기 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 3,
The feature point tracking unit projects the point on the edge onto an epipolar line, which is the reference line, and tracks the point projected onto the epipolar line within a range satisfying an epipolar constraint. An object detection device of a vehicle, characterized in that tracking according to the algorithm KLT (Kanade-Lucas-Tomasi) Tracking algorithm.
상기 3차원 환경지도 생성부는, 상기 복수의 3차원 특징점을 오차에 따른 신뢰도를 통해 필터링한 후, 상기 필터링된 3차원 특징점들을 이용하여 상기 3차원 환경지도를 생성하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 3,
The 3D environment map generator, after filtering the plurality of 3D feature points through reliability according to an error, generates the 3D environment map using the filtered 3D feature points. Device.
상기 신뢰도는 상기 에피폴라 라인 및 상기 에지 간의 각도와, 상기 특징점 추적부에 의해 추적된 이미지의 수에 기초하여 결정되는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 5,
The reliability is determined based on an angle between the epipolar line and the edge and the number of images tracked by the feature point tracking unit.
상기 기준 평면은 격자(Grid)가 형성된 지면(Ground Plane)으로 결정되고,
상기 정지 객체 검출부는, 상기 3차원 환경지도 상의 3차원 특징점들 중 상기 기준 평면 위에 존재하는 3차원 특징점만을 상기 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 그 계산 결과를 토대로 각 격자를 분류하는 방식을 통해 상기 차량의 주변의 정지 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 1,
The reference plane is determined as a ground plane on which a grid is formed,
The still object detection unit projects only three-dimensional feature points existing on the reference plane among three-dimensional feature points on the three-dimensional environment map to the reference plane, calculates the number of projected three-dimensional feature points for each grid, and An object detection device for a vehicle, characterized in that for detecting a stationary object around the vehicle through a method of classifying each grid based on a calculation result.
상기 정지 객체 검출부는, 상기 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출하되, 해당 격자의 위치 및 해당 격자에 투영된 3차원 특징점의 수를 기반으로 해당 정지 객체의 위치 및 높이를 계산하여 해당 정지 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 7,
The still object detection unit classifies each grid using a Connected Component algorithm based on the number of three-dimensional feature points calculated for each grid, determines that a grid having the same component corresponds to the same object, and detects the still object. And calculating the position and height of the corresponding stationary object based on the position of the corresponding grid and the number of 3D feature points projected on the corresponding grid to detect the corresponding stationary object.
상기 카메라 포즈 추정부는, 상기 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT Tracking 알고리즘에 따라 추적하고, 상기 추적된 특징점을 기반으로 상기 카메라 포즈 정보를 최적화하고,
상기 카메라 포즈 정보의 최적화 과정에서 상기 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 상기 차량의 주변의 이동 객체를 검출하는 이동 객체 검출부;를 더 포함하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 1,
The camera pose estimating unit tracks feature points present in the image acquired through the camera according to the KLT Tracking algorithm, and optimizes the camera pose information based on the tracked feature points,
And a moving object detection unit configured to detect a moving object around the vehicle based on a feature point tracked according to the KLT Tracking algorithm in the process of optimizing the camera pose information.
상기 이동 객체 검출부는, 상기 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 상기 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 상기 이미지에 형성된 격자 별로 카운트되는 상기 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 장치.
The method of claim 9,
The moving object detection unit accumulates and analyzes the difference between the position coordinates and 3D coordinates of pixels on the image with respect to the feature point tracked according to the KLT Tracking algorithm, detects the feature point estimated as a moving object, and increases the moving score. And when the movement score counted for each grid formed on the image exceeds a preset reference value, the corresponding grid is determined to correspond to a moving object and detects the moving object.
특징점 추적부가, 상기 카메라를 통해 획득된 이미지에 존재하는 포인트를 추출하여 상기 이미지에 존재하는 기준 라인에 투영하고, 미리 정의된 특징점 추적 알고리즘에 따라 상기 기준 라인에 투영된 포인트를 특징점으로서 추적하는 단계;
3차원 환경지도 생성부가, 상기 카메라 포즈 추정부에 의해 추정된 카메라 포즈 정보를 이용하여 상기 특징점 추적부에 의해 추적된 복수의 특징점의 3차원 좌표를 계산하고, 상기 계산된 3차원 좌표를 갖는 복수의 3차원 특징점에 기초하여 3차원 환경지도를 생성하는 단계; 및
정지 객체 검출부가, 상기 3차원 환경지도 생성부에 의해 생성된 3차원 환경지도 상의 3차원 특징점들을 기준 평면에 투영하는 방식을 통해 군집화하고, 군집화한 결과를 토대로 상기 차량의 주변의 정지 객체를 검출하는 단계;
를 포함하는 것을 특징으로 하는 차량의 객체 검출 방법.
Estimating camera pose information by converting, by a camera pose estimating unit, vehicle pose information obtained through a wheel speed measurement system of the vehicle into a coordinate system of the camera of the vehicle;
A step of extracting, by a feature point tracking unit, a point present in the image acquired through the camera, projecting it onto a reference line present in the image, and tracking the point projected on the reference line as a feature point according to a predefined feature point tracking algorithm ;
The three-dimensional environment map generation unit calculates the three-dimensional coordinates of the plurality of feature points tracked by the feature point tracking unit by using the camera pose information estimated by the camera pose estimating unit, and a plurality having the calculated three-dimensional coordinates Generating a three-dimensional environment map based on the three-dimensional feature points of; And
The stationary object detection unit clusters by projecting 3D feature points on the 3D environment map generated by the 3D environment map generation unit onto a reference plane, and detects stationary objects around the vehicle based on the clustering result. Step to do;
Object detection method of a vehicle comprising a.
상기 추정하는 단계에서, 상기 카메라 포즈 추정부는,
상기 차량의 후륜 축을 기준으로 결정되는 상기 차량 포즈 정보에 상기 카메라의 외부 파라미터를 적용하여 상기 카메라 포즈 정보를 추정하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
In the estimating step, the camera pose estimation unit,
And estimating the camera pose information by applying an external parameter of the camera to the vehicle pose information determined based on a rear wheel axis of the vehicle.
상기 추적하는 단계에서, 상기 특징점 추적부는,
상기 이미지에 존재하는 에지(Edge) 상의 포인트를 추출하여 상기 기준 라인인 에피폴라 라인(Epipolar Line)에 투영하고, 에피폴라 제약조건(Epipolar Constraint)이 충족되는 범위에서 상기 에피폴라 라인에 투영된 포인트를 상기 특징점 추적 알고리즘인 KLT(Kanade-Lucas-Tomasi) Tracking 알고리즘에 따라 추적하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
In the tracking step, the feature point tracking unit,
A point on the edge existing in the image is extracted and projected on the epipolar line, which is the reference line, and a point projected on the epipolar line within a range satisfying the epipolar constraint The object detection method of a vehicle, characterized in that tracking according to the feature point tracking algorithm KLT (Kanade-Lucas-Tomasi) tracking algorithm.
상기 생성하는 단계에서, 상기 3차원 환경지도 생성부는,
상기 복수의 3차원 특징점을 오차에 따른 신뢰도를 통해 필터링한 후, 상기 필터링된 3차원 특징점들을 이용하여 상기 3차원 환경지도를 생성하되, 상기 신뢰도는 상기 에피폴라 라인 및 상기 에지 간의 각도와, 상기 특징점 추적부에 의해 추적된 이미지의 수에 기초하여 결정되는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
In the generating step, the 3D environment map generation unit,
After filtering the plurality of 3D feature points through reliability according to an error, the 3D environment map is generated using the filtered 3D feature points, wherein the reliability is an angle between the epipolar line and the edge, and the The object detection method of a vehicle, characterized in that it is determined based on the number of images tracked by the feature point tracking unit.
상기 기준 평면은 격자(Grid)가 형성된 지면(Ground Plane)으로 결정되고,
상기 검출하는 단계에서, 상기 정지 객체 검출부는,
상기 3차원 환경지도 상의 3차원 특징점들 중 상기 기준 평면 위에 존재하는 3차원 특징점만을 상기 기준 평면에 투영하고, 투영된 3차원 특징점의 수를 각 격자별로 계산한 후, 그 계산 결과를 토대로 각 격자를 분류하는 방식을 통해 상기 차량의 주변의 정지 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
The reference plane is determined as a ground plane on which a grid is formed,
In the detecting step, the still object detection unit,
Among the three-dimensional feature points on the three-dimensional environment map, only three-dimensional feature points existing on the reference plane are projected onto the reference plane, the number of projected three-dimensional feature points is calculated for each grid, and then each grid is calculated based on the calculation result. An object detection method of a vehicle, characterized in that to detect a stationary object around the vehicle through a classification method.
상기 검출하는 단계에서, 상기 정지 객체 검출부는,
상기 각 격자별로 계산된 3차원 특징점의 수를 토대로 Connected Component 알고리즘을 이용하여 각 격자를 분류하고, 동일한 Component를 갖는 격자는 동일한 객체에 해당하는 것으로 판단하여 정지 객체를 검출하되, 해당 격자의 위치 및 해당 격자에 투영된 3차원 특징점의 수를 기반으로 해당 정지 객체의 위치 및 높이를 계산하여 해당 정지 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 15,
In the detecting step, the still object detection unit,
Based on the number of three-dimensional feature points calculated for each grid, each grid is classified using the Connected Component algorithm, and a grid having the same component is determined to correspond to the same object, and a stationary object is detected. An object detection method for a vehicle, comprising detecting a corresponding stationary object by calculating a position and a height of a corresponding stationary object based on the number of 3D feature points projected on a corresponding grid.
상기 추정하는 단계에서, 상기 카메라 포즈 추정부는,
상기 카메라를 통해 획득된 이미지에 존재하는 특징점을 KLT Tracking 알고리즘에 따라 추적하고, 상기 추적된 특징점을 기반으로 상기 카메라 포즈 정보를 최적화하고,
이동 객체 검출부가, 상기 카메라 포즈 정보의 최적화 과정에서 상기 KLT Tracking 알고리즘에 따라 추적된 특징점을 기반으로 상기 차량의 주변의 이동 객체를 검출하는 단계;를 더 포함하는 것을 특징으로 하는 차량의 객체 검출 방법.
The method of claim 11,
In the estimating step, the camera pose estimation unit,
A feature point present in an image acquired through the camera is tracked according to a KLT Tracking algorithm, and the camera pose information is optimized based on the tracked feature point,
The moving object detection unit further comprising: detecting a moving object around the vehicle based on a feature point tracked according to the KLT Tracking algorithm in the process of optimizing the camera pose information. .
상기 이동 객체를 검출하는 단계에서, 상기 이동 객체 검출부는,
상기 KLT Tracking 알고리즘에 따라 추적된 특징점에 대한, 상기 이미지 상에서의 픽셀의 위치 좌표 및 3차원 좌표 간의 차이를 누적 분석하고 이동 객체로 추정되는 특징점을 검출하여 이동 스코어를 증가시키고, 상기 이미지에 형성된 격자 별로 카운트되는 상기 이동 스코어가 미리 설정된 기준치를 초과하면 해당 격자는 이동 객체에 해당하는 것으로 판단하여 이동 객체를 검출하는 것을 특징으로 하는 차량의 객체 검출 방법.The method of claim 17,
In the step of detecting the moving object, the moving object detection unit,
Accumulatively analyzing the difference between the position coordinates and 3D coordinates of pixels on the image for the feature points tracked according to the KLT Tracking algorithm, detecting the feature points estimated as moving objects, increasing the movement score, and a grid formed on the image When the movement score counted for each exceeds a preset reference value, the corresponding grid determines that the moving object corresponds to and detects the moving object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190020287A KR20200102108A (en) | 2019-02-21 | 2019-02-21 | Apparatus for detecting object of vehicle and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190020287A KR20200102108A (en) | 2019-02-21 | 2019-02-21 | Apparatus for detecting object of vehicle and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200102108A true KR20200102108A (en) | 2020-08-31 |
Family
ID=72234420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190020287A KR20200102108A (en) | 2019-02-21 | 2019-02-21 | Apparatus for detecting object of vehicle and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200102108A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113763560A (en) * | 2021-08-02 | 2021-12-07 | 纵目科技(上海)股份有限公司 | Method, system and equipment for generating point cloud data and computer readable storage medium |
WO2022050473A1 (en) * | 2020-09-01 | 2022-03-10 | 주식회사 맥스트 | Apparatus and method for estimating camera pose |
KR20240046395A (en) * | 2022-09-30 | 2024-04-09 | 에이치디현대로보틱스 주식회사 | Disinfection robot and controlling method thereof |
-
2019
- 2019-02-21 KR KR1020190020287A patent/KR20200102108A/en active Search and Examination
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022050473A1 (en) * | 2020-09-01 | 2022-03-10 | 주식회사 맥스트 | Apparatus and method for estimating camera pose |
US11941845B2 (en) | 2020-09-01 | 2024-03-26 | Maxst Co., Ltd. | Apparatus and method for estimating camera pose |
CN113763560A (en) * | 2021-08-02 | 2021-12-07 | 纵目科技(上海)股份有限公司 | Method, system and equipment for generating point cloud data and computer readable storage medium |
CN113763560B (en) * | 2021-08-02 | 2024-02-09 | 纵目科技(上海)股份有限公司 | Method, system, equipment and computer readable storage medium for generating point cloud data |
KR20240046395A (en) * | 2022-09-30 | 2024-04-09 | 에이치디현대로보틱스 주식회사 | Disinfection robot and controlling method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163904B (en) | Object labeling method, movement control method, device, equipment and storage medium | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
Kim et al. | Deep learning based vehicle position and orientation estimation via inverse perspective mapping image | |
US10399228B2 (en) | Apparatus for recognizing position of mobile robot using edge based refinement and method thereof | |
KR101784183B1 (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
KR102462278B1 (en) | Method for estimating ego motion of an object | |
US20170316569A1 (en) | Robust Anytime Tracking Combining 3D Shape, Color, and Motion with Annealed Dynamic Histograms | |
WO2022188094A1 (en) | Point cloud matching method and apparatus, navigation method and device, positioning method, and laser radar | |
EP2757527B1 (en) | System and method for distorted camera image correction | |
Zhou et al. | Moving object detection and segmentation in urban environments from a moving platform | |
JP5023186B2 (en) | Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection | |
KR20160123668A (en) | Device and method for recognition of obstacles and parking slots for unmanned autonomous parking | |
JP2016081525A (en) | Vehicular image recognition system and corresponding method | |
JP2014138420A (en) | Depth sensing method and system for autonomous vehicle | |
KR20200102108A (en) | Apparatus for detecting object of vehicle and method thereof | |
KR20210090384A (en) | Method and Apparatus for Detecting 3D Object Using Camera and Lidar Sensor | |
Daraei et al. | Velocity and shape from tightly-coupled LiDAR and camera | |
US11080562B1 (en) | Key point recognition with uncertainty measurement | |
JP2014067276A (en) | Collision determination device for vehicle | |
KR20120048958A (en) | Method for tracking object and for estimating | |
CN105225248A (en) | The method and apparatus of the direction of motion of recognition object | |
CN115187941A (en) | Target detection positioning method, system, equipment and storage medium | |
JP2014026555A (en) | Mobile-object recognition system, mobile-object recognition program, and mobile-object recognition method | |
US20230030596A1 (en) | Apparatus and method for estimating uncertainty of image coordinate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |