KR101316387B1 - 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법 - Google Patents
비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법 Download PDFInfo
- Publication number
- KR101316387B1 KR101316387B1 KR1020110127749A KR20110127749A KR101316387B1 KR 101316387 B1 KR101316387 B1 KR 101316387B1 KR 1020110127749 A KR1020110127749 A KR 1020110127749A KR 20110127749 A KR20110127749 A KR 20110127749A KR 101316387 B1 KR101316387 B1 KR 101316387B1
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- data
- distance measurement
- sensing
- distance
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000005259 measurement Methods 0.000 claims abstract description 46
- 238000013507 mapping Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 abstract description 5
- 230000009466 transformation Effects 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000004927 fusion Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K31/00—Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
- B60K31/0008—Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
본 발명은 오브젝트(예; 차량 접근 장애물)을 인식하는 방법에 관한 것으로, 더욱 상세하게는 영상 변환 기법(Homography 기법)을 바탕으로 왜곡이 많은 영상 데이터를 기준으로 하여 거리측정 데이터를 영상 데이터에 맞게 변환해 영상 데이터[비전 센싱 결과]와 거리측정 데이터[거리측정 센싱 결과]을 융합해 오브젝트를 인식하는, 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법을 제공하고자 한다.
이를 위하여, 본 발명은, 오브젝트를 인식하는 방법에 있어서, 오브젝트에 관한 거리측정 데이터와 영상 데이터를 획득하는 단계; 상기 획득한 영상 데이터를 기준으로 하여 상기 획득한 거리측정 데이터를 융합하는 단계; 및 상기 영상 데이터와, 상기 영상 데이터 상에 변환된 상기 거리측정 데이터로부터 상기 오브젝트를 인식하는 단계를 포함하는 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법을 제공한다.
이를 위하여, 본 발명은, 오브젝트를 인식하는 방법에 있어서, 오브젝트에 관한 거리측정 데이터와 영상 데이터를 획득하는 단계; 상기 획득한 영상 데이터를 기준으로 하여 상기 획득한 거리측정 데이터를 융합하는 단계; 및 상기 영상 데이터와, 상기 영상 데이터 상에 변환된 상기 거리측정 데이터로부터 상기 오브젝트를 인식하는 단계를 포함하는 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법을 제공한다.
Description
본 발명은 오브젝트(예; 차량 접근 장애물)을 인식하는 방법에 관한 것으로, 더욱 상세하게는 영상 변환 기법(Homography 기법)을 바탕으로 왜곡이 많은 영상 데이터를 기준으로 하여 거리측정 데이터를 영상 데이터에 맞게 변환해 영상 데이터[비전 센싱 결과]와 거리측정 데이터[거리측정 센싱 결과]을 융합해 오브젝트를 인식하는, 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법에 관한 것이다.
차량 접근 장애물 인식 기술은 차량 주행 시 능동적으로 불안 요소를 미리 예측하고 탐지함으로써 주행 중 차량 사고의 위험성을 감소시키는데 필요하다.
현재까지 연구된 차량 접근 장애물 인식 기술은 크게 카메라 이용 기술, LIDAR 또는 레이다 이용 기술, 센서 융합 기술과 같이 세가지로 분류할 수 있다. 이러한 종래기술들은 다음과 같은 문제점을 가지고 있다.
카메라 이용 기술은 조도 변화에 민감하며, 정확한 거리를 측정하지 못하는 단점이 있다. 이를 극복하기 위해 스테레오 비전을 사용하기도 하나 Disparity Map 기반 거리정보의 정확도가 매우 낮다는 문제점이 있다.
횡 방향 해상도를 갖는 LIDAR 또는 레이다 이용 기술은 인접한 거리 데이터를 시간적으로 추적하여 클러스터를 인식함으로써 후보를 생성한다. 그러나, 획득된 거리 정보는 정확하나, 종 방향 해상도를 갖지 않기 때문에 추가 후보 검증 시스템이 필요하다는 단점이 있다.
센서 융합 기술은 거리 센서와 카메라를 조합시켜 차량 접근 장애물을 인식하는데, 카메라 이용 기술, LIDAR 또는 레이다 이용 기술에 비해 높은 신뢰성을 보여주고 있으나, 거리 센서를 이용하여 후보를 생성하고 영상 기반으로 검증하는 알고리즘 특성 상 강인한 인식 결과를 얻을 수 없는 문제점이 있다.
따라서, 비전 센싱과 거리측정 센싱을 융합하여 오브젝트를 인식하는데 있어 높은 신뢰성, 강인한 인식 결과(정확성)를 보장할 수 있는 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법의 개발이 절실히 요구되고 있다.
이에, 본 발명은 상기와 같은 문제점을 해결하고 상기와 같은 요구에 부응하기 위하여 제안된 것으로, 영상 변환 기법(Homography 기법)을 바탕으로 왜곡이 많은 영상 데이터를 기준으로 하여 거리측정 데이터를 영상 데이터에 맞게 변환해 영상 데이터[비전 센싱 결과]와 거리측정 데이터[거리측정 센싱 결과]을 융합해 오브젝트를 인식하는, 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법을 제공하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기의 목적을 달성하기 위한 본 발명은, 오브젝트를 인식하는 방법에 있어서, 오브젝트에 관한 거리측정 데이터와 영상 데이터를 획득하는 단계; 상기 획득한 영상 데이터를 기준으로 하여 상기 획득한 거리측정 데이터를 융합하는 단계; 및 상기 영상 데이터와, 상기 영상 데이터 상에 변환된 상기 거리측정 데이터로부터 상기 오브젝트를 인식하는 단계를 포함하는 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법을 제공한다.
상기와 같은 본 발명은 비전 센싱과 거리측정 센싱을 융합하여 높은 신뢰성, 강인한 인식 결과(정확성)를 보장하여 오브젝트를 인식할 수 있는 효과가 있다.
또한, 본 발명은 영상 데이터와 거리측정 데이터의 융합 결과가 이질감 없이 자연스러우며 정보가 없는 부분은 영상 데이터로 채워지기에 알고리즘의 높은 신뢰성, 강인한 인식 결과(정확성)를 보장할 수 있는 효과가 있다.
또한, 본 발명은 서로 다른 특성과 표현 방식을 갖는 영상 데이터와 거리측정 데이터 간을 융합할 수 있는 효과가 있다.
도 1은 레이저 스캐너에 의한 거리측정 데이터의 지리학적 특성을 보여주는 설명도.
도 2는 카메라에 의한 영상 데이터의 지리학적 특성을 보여주는 설명도.
도 3은 본 발명에서 제시하는 영상 데이터와 거리측정 데이터의 융합을 보여주는 설명도.
도 4는 영상 데이터와 거리측정 데이터를 보여주는 설명도.
도 5는 본 발명에서 제시하는 영상 변환 기법(Homography 기법)을 보여주는 설명도.
도 6은 본 발명에 따른 영상 데이터와 거리측정 데이터 융합 결과를 보여주는 설명도.
도 7은 종래기술 대비 본 발명이 적용된 제1 사례를 보여주는 설명도.
도 8은 종래기술 대비 본 발명이 적용된 제2 사례를 보여주는 설명도.
도 2는 카메라에 의한 영상 데이터의 지리학적 특성을 보여주는 설명도.
도 3은 본 발명에서 제시하는 영상 데이터와 거리측정 데이터의 융합을 보여주는 설명도.
도 4는 영상 데이터와 거리측정 데이터를 보여주는 설명도.
도 5는 본 발명에서 제시하는 영상 변환 기법(Homography 기법)을 보여주는 설명도.
도 6은 본 발명에 따른 영상 데이터와 거리측정 데이터 융합 결과를 보여주는 설명도.
도 7은 종래기술 대비 본 발명이 적용된 제1 사례를 보여주는 설명도.
도 8은 종래기술 대비 본 발명이 적용된 제2 사례를 보여주는 설명도.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면들을 함께 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.
본 발명에서는 비전 센싱과 거리측정 센싱을 융합하여 오브젝트를 인식하는 방법을 제시하며, 차량 주행 시 사고 요인이 될 수 있는 차량 접근 장애물(예; 사람, 다른 차량 등)을 오브젝트의 하나의 예시로서 설명하기로 하며, 이에 본 발명의 기술이 한정되는 것은 아님을 밝혀 둔다.
비전 센싱 기술과 거리측정 센싱 기술을 설명하면 다음과 같다.
비전 센싱 기술(영상 데이터 처리 기술)은 위치가 서로 다른 2개 이상의 카메라를 통해 획득한 영상 데이터와 위치 정보를 활용하여 특징점들 간의 대응관계로부터 거리 정보를 획득하는 기술로서 Stereo vision이라고도 한다. 획득된 거리 정보는 disparity map으로 표현된다. 본 발명에서는 영상 데이터를 획득하는 수단으로서 카메라를 하나의 예시로서 설명하기로 한다.
거리측정 센싱 기술(거리측정 데이터 처리 기술)은 레이다 또는 레이저 스캐너와 같은 거리측정 데이터를 표현 방식에 따라 변환하는 기술이다. 예로서 Polar coordinate, Cartesian coordinate 등이 있다. 본 발명에서는 거리측정 데이터를 획득하는 수단으로서 레이저 스캐너를 하나의 예시로서 설명하기로 한다.
도 1은 레이저 스캐너에 의한 거리측정 데이터의 지리학적 특성을 보여주는 설명도이다.
레이저 스캐너(10)와 관찰 오브젝트의 지리학적 관계는 수평선에 있으나, 레이저 스캐너(10)를 통해 획득한 거리측정 데이터는 레이저 스캐너(10)의 실제 위치로부터 오브젝트와의 거리를 표현하고 있기에, 도 1에 도시된 바와 같이 가상의 레이저 스캐너(15)가 위에서 오브젝트를 바라보는 형태(Bird view)가 된다.
도 2는 카메라에 의한 영상 데이터의 지리학적 특성을 보여주는 설명도이다.
만약에 카메라(20)가 레이저 스캐너(10)와 동일한 지리학적 관계를 가진다면, 카메라(20) 또한 관찰 오브젝트와 수평선에 위치하게 된다. 하지만 거리측정 데이터와 다른 점은 3차원 데이터가 2차원 평면으로 투영되므로 이미지 상의 오브젝트는 Warping된다는 점이다. 즉, 동일한 크기의 오브젝트라 할지라도 이미지 내부에 투영된 오브젝트 크기는 거리에 따라 변하는 것이다.
따라서, 본 발명에서는 다음과 같이 카메라(20)를 통해 획득한 영상 데이터와 레이저 스캐너(10)를 통해 획득한 거리측정 데이터의 융합 방법을 제시한다.
거리측정 데이터와 영상 데이터 중에서 어느 센싱 데이터를 기준으로 잡을 지 결정할 필요가 있다. 본 발명에서는 영상 변환 기법을 적용했을 때 왜곡이 많은 영상 데이터를 기준으로 한다.
영상 데이터는 거리가 멀어질수록 영상 내부에 투영된 오브젝트의 크기는 작아진다. 이러한 특징을 거리측정 데이터에 적용하여 적절히 Warping을 해 주어야 데이터 융합 시 이질감이 적어지는 것이다. 이때, Warping을 위해 영상 변환 기법으로서 Homography 기법(Homography transformation)을 사용한다.
도 3은 본 발명에서 제시하는 영상 데이터와 거리측정 데이터의 융합을 보여주는 설명도이다.
도 3은 육면체 오브젝트를 관찰하는 레이저 스캐너(10)와 카메라(20) 간의 위치 관계를 표현한다. 즉, 카메라(20)를 통해 획득한 영상 데이터와 레이저 스캐너(10)를 통해 획득한 거리측정 데이터에 대해 Homography 기법을 적용했을 때 지리학적 특성을 보여주고 있다.
도 3에서, 카메라(20)는 3차원 영상을 평면에 투영하는 형태이므로 가까운 오브젝트는 크게, 먼 오브젝트는 작아지는 형태로 영상 데이터가 표현된다. 하지만 레이저 스캐너(10)를 통해 획득한 일직선 거리측정 데이터의 경우 3차원 거리측정 데이터가 투영되지 않고 절대적인 거리와 각도로 표현된다. 즉, 실제 레이저 스캐너(10)와 관찰 오브젝트와의 거리가, 가상 레이저 스캐너(15)가 위에서 관찰하는 것처럼 거리측정 데이터가 표현된다.
위와 같이 서로 표현 방식이 다른 영상 데이터와 거리측정 데이터 간을 효과적으로 융합하기 위해서는 각각의 데이터 특성과 표현 방식을 이해하고 다른 한쪽으로의 표현 방식으로 변환 및 표현을 해야 한다.
도 4는 영상 데이터와 거리측정 데이터를 보여주는 설명도이다.
도 4의 좌측 (a)는 카메라(20)에서 바라본 오브젝트의 모습니다. 육면체의 하단 부분은 카메라(20)와 가깝기 때문에 크게 표현되고 상단 부분은 작게 표현된다.
도 4의 우측 (b)는 레이저 스캐너(10)로부터 관찰 오브젝트의 매질이 출력된 후 오브젝트로부터 반사되어 오는 시간을 측정한 데이터이다.
이하, 본 발명의 영상 데이터와 거리측정 데이터를 융합하는 알고리즘에 대해 구체적으로 설명하기로 한다.
도 5는 본 발명에서 제시하는 영상 변환 기법(Homography 기법)을 보여주는 설명도이다.
도 5는 우측 (b)의 입력 이미지(input image)[데이터]에 대해 좌측 (a)와 같은 Backward mapping을 하는 과정을 나타낸다. Backward mapping의 장점은 변형된 이미지의 plane 정보가 많은 쪽에서 적은 쪽으로 변화하기 때문에 결과 이미지는 어색함 없이 모두 채워진다. 하지만 변형된 plane이 아닌 부분은 채워야 할 정보가 없으므로 정보가 없이 비워진다.
본 발명에서는 영상 데이터가 아닌 거리측정 데이터를 Backward mapping하며, 그에 따라 영상 데이터와 거리측정 데이터의 융합 결과가 이질감 없이 자연스러우며 정보가 없는 부분은 영상 데이터로 채워지기에 알고리즘의 높은 신뢰성, 강인한 인식 결과(정확성)를 보장할 수 있는 것이다.
그럼, 본 발명에서 제시하는 Homography Transform 유도 과정을 다음의 수학식들을 통해 설명하기로 한다.
여기서, 'X'는 world plane coordinates의 벡터이고, 'x'는 image plane coordinates의 벡터이고, 'H'는 Homography matrix를 나타낸다.
수학식 1 내지 3과 같은 유도식은 8 DOF(Degree of freedom)가 필요한데, 이 때 8 DOF는 서로 대응되는 4쌍의 점을 통해 구할 수 있다. 단, 이 4쌍의 점들 중에서 동일 선상에 최소 3개의 점이 있으면 안된다는 전제조건이 존재한다.
Homography matrix인 'H'는 서로 대응되는 4쌍의 점들과 Least squares psedoinverse를 이용해서 다음의 수학식 4 및 5로 해결할 수 있다.
도 6은 본 발명에 따른 영상 데이터와 거리측정 데이터 융합 결과를 보여주는 설명도이다.
레이저 스캐너(10)를 통해 거리측정 데이터를 획득하고, 카메라(20)를 통해 영상 데이터를 획득한 후에, Homography 기법을 사용하여 거리측정 데이터를 Backward mapping한다. 여기서, 도 6의 상단 좌측 (a)는 레이저 스캐너(10)를 통해 획득한 전방에 있는 오브젝트의 거리측정 데이터이고, 도 6의 상단 우측 (b)는 카메라(20)를 통해 획득한 영상 데이터이다.
본 발명과 같이 거리측정 데이터를 Backward mapping하게 되면, 도 6과 같이 레이저 스캐너(10)를 통해 획득한 거리측정 데이터가 카메라(20)를 통해 획득한 영상 데이터의 투사면(Projection plane)에 맞도록 설정된 후, 영상 데이터와 거리측정 데이터가 융합되어 도 6의 하단 (c)와 같이 잘 표현이 된 것을 확인할 수 있다. 이와 같이 본 발명에서 제시하는 방법을 사용하게 되면 서로 다른 특성과 표현 방식을 갖는 영상 데이터와 거리측정 데이터 간을 융합할 수 있는 것이다. 즉, 상기 영상 데이터와, 이 영상 데이터 상에 변환된 거리측정 데이터로부터 오브젝트를 인식한다.
위와 같이 영상 데이터는 아무런 처리를 하지 않은 상황이며, 거리측정 데이터를 영상 데이터의 기하학적인 특성에 맞게 변환하여 영상에서 보이는 오브젝트와 거리측정 데이터의 오브젝트 영역이 자연스럽게 융합되었다. 이러한 본 발명은 서로 다른 이종 센서가 갖는 고유의 단점을 극복할 수 있을 뿐만 아니라, 이종 센서 융합을 통해 더 강인한 오브젝트 인식 결과를 이끌어낼 수 있다.
도 7은 종래기술 대비 본 발명이 적용된 제1 사례를 보여주는 설명도이다.
도 7의 좌측 (a)는 조도가 없는 어두운 차량 주행 환경에서 비전 센서만을 사용해 오브젝트를 인식한 결과를 보여주고 있는데, 차량 전방에 위험한 오브젝트가 나타났을 때 사람의 눈으로 인식이 어려운 경우가 많다. 즉, 비전 센서를 사용하더라도 조도의 영향을 많이 받기에 어두운 환경에서는 충분한 사물 인식이 힘들다.
도 7의 우측 (b)는 조도가 없는 어두운 차량 주행 환경에서 본 발명으로 오브젝트를 인식한 결과를 보여주고 있다.
일반적으로, 어두운 환경에서 갑작스럽게 전방 장애물이 나타나더라도 조도에 영향을 받지 않는 거리측정 데이터로 올바른 오브젝트 인식을 할 수 있다. 그러나, 거리측정 데이터가 영상 데이터와 융합되지 않은 경우에 정확한 지점을 알려주기 힘들다. 이에 소리나 디스플레이로 경고를 주기도 하나 운전자는 정확한 장애물 위치를 알기 힘들다.
이에 반해, 도 7의 우측 (b)와 같이 본 발명은 영상 데이터와 거리측정 데이터를 융합하여 운전자가 정확한 장애물 위치를 인식할 수 있게 할 수 있다.
도 8은 종래기술 대비 본 발명이 적용된 제2 사례를 보여주는 설명도이다.
도 8의 좌측 (a)는 사각지대에서 장애물(차량)이 나타날 경우에 비전 센서만을 사용해 오브젝트를 인식한 결과를 보여주고 있는데, 카메라(20)의 시야 범위에서 차량 전방의 새로운 장애물을 인식하더라도 다수의 오브젝트들 중에서 어떤 것이 위험 요소인지 구분해 주기 힘들다. 따라서, 종래기술은 장애물이 출현할 경우에 단순 소리나 메시지로만 경고를 하게 된다.
도 8의 우측 (b)는 사각지대에서 장애물(차량)이 나타날 경우에 본 발명으로 오브젝트를 인식한 결과를 보여주고 있다.
본 발명과 같이 레이저 스캐너(10)의 거리측정 데이터로 차량 전방의 새로운 장애물을 인식한 경우에 이미 카메라(20)와 레이저 스캐너(10)는 위치 정보가 공유되기 때문에 지속적으로 위험 요소에 대해 정확한 위치 정보를 나타내 줄 수 있다. 이는 운전자로 하여금 직관적인 위험 요소 인지를 가능하게 한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
10 : 레이저 스캐너
20 : 카메라
20 : 카메라
Claims (4)
- 오브젝트에 관한 서로 표현 방식이 다른 거리측정 데이터와 영상 데이터를 획득하는 단계;
상기 획득한 거리측정 데이터를 상기 획득한 영상 데이터에 맞게 변환하는 단계; 및
상기 영상 데이터와, 상기 영상 데이터 상에 변환된 거리측정 데이터로부터 상기 오브젝트를 인식하는 단계
를 포함하는 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법.
- 제 1 항에 있어서,
상기 변환하는 단계는,
영상변환(Homography) 기법을 바탕으로 상기 거리측정 데이터를 상기 영상 데이터에 맞게 변환하는 것을 특징으로 하는 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법.
- 제 2 항에 있어서,
상기 변환하는 단계는,
상기 획득한 거리측정 데이터를 백워드매핑(Backward mapping)하여 상기 영상 데이터 상에 상기 거리측정 데이터를 상기 영상 데이터에 맞게 변환하는 것을 특징으로 하는 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법.
- 제 2 항 또는 제 3 항에 있어서,
상기 영상 데이터에 맞게 변환하는 과정은,
상기 획득한 거리측정 데이터를 상기 획득한 영상 데이터의 투사면(Projection plane)에 맞도록 설정하여 상기 영상 데이터 상에 상기 거리측정 데이터를 융합하는 것을 특징으로 하는 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110127749A KR101316387B1 (ko) | 2011-12-01 | 2011-12-01 | 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110127749A KR101316387B1 (ko) | 2011-12-01 | 2011-12-01 | 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130061440A KR20130061440A (ko) | 2013-06-11 |
KR101316387B1 true KR101316387B1 (ko) | 2013-10-08 |
Family
ID=48859552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110127749A KR101316387B1 (ko) | 2011-12-01 | 2011-12-01 | 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101316387B1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102254157B1 (ko) * | 2019-07-09 | 2021-05-21 | 삼성전자주식회사 | 와핑된 이미지를 통해 바닥 객체를 식별하는 전자 장치 및 그 제어 방법 |
US11650597B2 (en) * | 2019-07-09 | 2023-05-16 | Samsung Electronics Co., Ltd. | Electronic apparatus for identifying object through warped image and control method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003084064A (ja) | 2001-09-12 | 2003-03-19 | Daihatsu Motor Co Ltd | 前方車両の認識装置及び認識方法 |
KR20070013719A (ko) * | 2005-07-27 | 2007-01-31 | 주식회사 현대오토넷 | 차량 안전거리 확인 장치 및 방법 |
JP2008158963A (ja) | 2006-12-26 | 2008-07-10 | Calsonic Kansei Corp | 車両周囲検知システム |
JP2009092655A (ja) | 2007-10-04 | 2009-04-30 | Gwangju Inst Of Science & Technology | レーザ距離測定機を用いた保安システムおよびレーザ距離測定機を用いた侵入者検出方法 |
-
2011
- 2011-12-01 KR KR1020110127749A patent/KR101316387B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003084064A (ja) | 2001-09-12 | 2003-03-19 | Daihatsu Motor Co Ltd | 前方車両の認識装置及び認識方法 |
KR20070013719A (ko) * | 2005-07-27 | 2007-01-31 | 주식회사 현대오토넷 | 차량 안전거리 확인 장치 및 방법 |
JP2008158963A (ja) | 2006-12-26 | 2008-07-10 | Calsonic Kansei Corp | 車両周囲検知システム |
JP2009092655A (ja) | 2007-10-04 | 2009-04-30 | Gwangju Inst Of Science & Technology | レーザ距離測定機を用いた保安システムおよびレーザ距離測定機を用いた侵入者検出方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20130061440A (ko) | 2013-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210058608A1 (en) | Method and apparatus for generating three-dimensional (3d) road model | |
US12008778B2 (en) | Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system | |
CN110503040B (zh) | 障碍物检测方法及装置 | |
KR101740231B1 (ko) | 3차원 얼굴 위치 추정 방법 및 장치 | |
KR102029850B1 (ko) | 카메라와 라이다 센서를 이용한 객체 검출 장치 및 그 방법 | |
CN110826499A (zh) | 物体空间参数检测方法、装置、电子设备及存储介质 | |
JP5663352B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
CN108352056A (zh) | 用于校正错误深度信息的系统和方法 | |
KR102151815B1 (ko) | 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 | |
KR101382772B1 (ko) | 디스플레이 시스템 및 방법 | |
JP6597795B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2009118415A (ja) | 鳥瞰画像生成装置および方法 | |
US11244145B2 (en) | Information processing apparatus, information processing method, and recording medium | |
CN109444916A (zh) | 一种无人驾驶可行驶区域确定装置及方法 | |
JP7389729B2 (ja) | 障害物検知装置、障害物検知システム及び障害物検知方法 | |
CN109155055B (zh) | 关注区域图像生成装置 | |
KR20140137577A (ko) | 차량의 주변환경 정보를 제공하는 장치 및 그 방법 | |
KR20150074544A (ko) | 차량 검출 방법 | |
JP2022045947A5 (ko) | ||
JPWO2017099199A1 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
KR101612822B1 (ko) | 차선 인식 장치 및 그 방법 | |
KR101868549B1 (ko) | 어라운드뷰 생성방법과 이를 수행하는 장치 | |
KR20220130513A (ko) | 라이더를 이용하는 가려진 객체 탐지 방법 및 장치 | |
KR101316387B1 (ko) | 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법 | |
KR20160125803A (ko) | 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180928 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190926 Year of fee payment: 7 |