KR101030210B1 - 자동차용 장애물 인식 시스템 및 그 방법 - Google Patents
자동차용 장애물 인식 시스템 및 그 방법 Download PDFInfo
- Publication number
- KR101030210B1 KR101030210B1 KR1020090119292A KR20090119292A KR101030210B1 KR 101030210 B1 KR101030210 B1 KR 101030210B1 KR 1020090119292 A KR1020090119292 A KR 1020090119292A KR 20090119292 A KR20090119292 A KR 20090119292A KR 101030210 B1 KR101030210 B1 KR 101030210B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- image data
- obstacle
- text information
- vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000005540 biological transmission Effects 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 28
- 238000012937 correction Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000005286 illumination Methods 0.000 abstract description 5
- 230000002093 peripheral effect Effects 0.000 abstract 1
- 238000007796 conventional method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
본 발명은 자동차용 장애물 인식 시스템 및 그 방법에 관한 것으로, 특히 운행하고 있는 자동차에 나타나는 장애물을 실시간으로 인식하여 데이터 처리를 수행하는 자동차용 장애물 인식 시스템 및 그 방법에 관한 것이다. 더욱 구체적으로 살펴보면, 본 발명의 자동차용 장애물 인식 시스템 및 그 방법은 차량의 주변상황을 촬영하고, 촬영한 영상데이터로부터 장애물과 관련된 텍스트정보를 획득하여 상기 텍스트정보 및 상기 영상데이터를 서로 다른 신호선으로 전송하는 지능형카메라부; 상기 텍스트정보 및 상기 영상데이터를 수신한 후, 수신한 텍스트정보 및 영상데이터를 차량 운전자에게 표시하는 제어부;를 포함하는 것을 특징으로 한다.
이러한 구성에 의해, 본 발명은 운행하고 있는 자동차에 나타나는 장애물을 실시간으로 인식하여 데이터 처리를 수행할 수 있다.
지능형 카메라, 장애물 인식, 영상처리, 영상전송
Description
본 발명은 자동차용 장애물 인식 시스템 및 그 방법에 관한 것으로, 운행하고 있는 자동차에 나타나는 장애물을 실시간으로 인식하여 데이터 처리를 수행할 수 있는 자동차용 장애물 인식 시스템 및 그 방법에 관한 것이다.
자동차 산업의 비약적인 발전으로 인해, 자동차제품과 직접적으로 관련된 분야 이외에도 자동차와 상기 자동차를 운전하는 운전자의 안전을 향상시키기 위한 다양한 방법이 연구되고 있다. 이러한 연구 중에 하나는 상기 자동차 주변의 상황을 카메라를 통해 촬영하여, 상기 자동차의 주변에 장애물 존재여부를 인식하는 것이다.
이러한 자동차 주변을 촬영하여, 상기 자동차 주변에 존재하는 장애물을 인식하는 방식에서, 자동차 주변을 촬영한 영상으로부터 정확한 텍스트정보를 획득하는 것이 중요한 관건이 된다.
그런데, 일반적으로 자동차용 카메라에서 촬영되는 영상은 고화질로서 데이터 전송 등에서 불리하므로, 종래에는 카메라로부터 촬영한 영상의 화질을 525라인/50Hz의 NTSC(National Television System Committee) 또는 626라인/50Hz의 PAL(Phase Alternation by Line)과 같은 아날로그 텔레비전 방식 급으로 저하시켜 데이터량을 낮추고, 이렇게 조정된 저화질의 영상데이터를 컨트롤러에 전송하고, 컨트롤러가 영상데이터를 디지털 데이터로 변환한 후, 이미지 처리를 수행하여 텍스트정보를 획득하는 방식을 채택하고 있다.
종래의 이러한 텍스트정보 획득방식은 복수의 카메라로부터 고해상도의 영상을 획득하더라도 획득한 영상을 저화질로 떨어뜨린 후 텍스트정보를 획득하기 때문에, 획득한 텍스트정보에 대한 정확성이 떨어지는 문제점이 발생했다.
한편, 이러한 텍스트정보를 획득하기 위한 다른 종래의 방법으로는 디지털 방식으로 획득한 영상을 YUV, RGB의 신호로 변환하여 고속의 전송회선을 통해 컨트롤러로 상기 신호를 전송하는 비압축 방식과, 복수의 카메라에서 촬영한 영상을 H.264 또는 MPEG4 형태로 압축한 후, 압축된 영상을 컨트롤러에 전송하고, 상기 컨트롤러가 수신한 영상을 이미지 처리하여 텍스트정보를 획득하는 압축방식이 사용되었다.
이 때, 상기 압축된 영상을 컨트롤러에 전송 시 디지털 전송방식을 사용할 수 있으나, 일반적으로 자동차에 적용되는 컨트롤러에 적용되는 중앙연산처리소자(CPU)는 2개 이상의 영상을 동시에 처리하지 못하므로, 카메라의 대수가 증가할 때 처리가 불가능해지는 문제가 발생한다.
이와 같이, 이러한 종래의 장애물정보 획득방법은 모두 자동차용 카메라로부터 취득한 영상데이터를 컨트롤러에 전송하고, 컨트롤러가 전송된 영상 데이터로부터 영상 처리를 수행하여 장애물정보를 획득하는 방식을 채택하고 있다. 그러나, 자동차에 적용되는 네트워크의 속도는 충분히 높지 않아, 영상데이터를 컨트롤러에 전송하는데 이용될 수 없다. 따라서, 영상데이터 전송을 위한 고속의 전송선을 별도로 구비해야 하며, 이는 카메라 대수의 증가됨에 따라 더욱 큰 문제점이 되고 있다.
상기와 같은 종래 기술의 문제점을 해결하기 위해, 본 발명은 복수 개의 카메라로부터 장애물정보를 신속하게 획득할 수 있는 자동차용 장애물 인식 시스템 및 그 방법을 제공하고자 한다.
위와 같은 과제를 해결하기 위한 본 발명의 한 특징에 따른 차량 주변의 장애물을 인식하는 자동차용 장애물 인식 시스템은 차량의 주변상황을 촬영하고, 촬영한 영상데이터로부터 장애물과 관련된 텍스트정보를 획득하여 상기 텍스트정보 및 상기 영상데이터를 서로 다른 신호선으로 전송하는 지능형카메라부; 상기 텍스트정보 및 상기 영상데이터를 수신한 후, 수신한 텍스트정보 및 영상데이터를 차량 운전자에게 표시하는 제어부;를 포함하는 것을 특징으로 한다.
바람직하게는 상기 장애물에 대한 크기, 거리, 상대속도, 좌표값, 충돌예측시간 중 적어도 하나를 포함하는 텍스트정보를 획득하는 텍스트정보획득부;를 더 포함하는 지능형카메라부를 포함할 수 있다.
바람직하게는 상기 영상데이터를 USB, Gigabit, 블루투스, 무선USB, NTSC(National Television System Committee), PAL(Phase Alternation by Line) 중 적어도 하나의 네트워크를 이용하여 상기 제어부로 전송하며, 상기 텍스트정보를 상기 영상데이터의 전송속도보다 낮은 전송속도를 갖는 네트워크를 이용하여 전송 하는 지능형카메라부를 포함할 수 있다.
특히 복수의 지능형카메라로부터 촬영된 복수의 영상데이터를 각각 다른 네트워크를 이용하여 개별적으로 전송하고, 상기 복수의 영상데이터로부터 획득한 복수의 텍스트정보를 하나의 네트워크를 이용하여 동시에 전송하는 지능형카메라부를 포함할 수 있다.
특히 복수의 지능형카메라로부터 촬영된 복수의 영상데이터를 하나의 네트워크를 이용하여 동시에 전송하고, 상기 복수의 영상데이터로부터 획득한 복수의 텍스트정보를 하나의 네트워크를 이용하여 동시에 전송하는 지능형카메라부를 포함할 수 있다.
특히 상기 텍스트정보 중 장애물에 대한 거리정보와 각도정보를 이용하여 상기 차량을 기준으로 하는 장애물의 절대좌표를 생성하는 절대좌표생성부;를 더 포함하는 지능형카메라부를 포함할 수 있다.
바람직하게는 복수의 지능형카메라를 구비하여, 상기 차량의 주변상황을 촬영하는 촬영부; 적외선소자를 구비하여, 촬영한 영상의 조도가 기준조도보다 낮은 경우 상기 적외선소자를 이용하여 적외선영상을 획득하는 적외선영상부; 광각렌즈를 구비하여, 상기 촬영한 영상의 조도가 기준조도보다 높은 경우 상기 광각렌즈를 이용하여 렌즈영상을 획득하는 렌즈영상부; 및 상기 적외선영상과 상기 렌즈영상에 존재하는 노이즈 및 왜곡을 보정하는 전처리부;를 포함하는 지능형카메라부를 포함할 수 있다.
위와 같은 과제를 해결하기 위한 본 발명의 다른 특징에 따른 차량 주변의 장애물을 인식하는 자동차용 장애물 인식 방법은 차량의 주변상황에 대하여 영상데이터를 획득하는 영상데이터획득단계; 상기 영상데이터에 대한 노이즈 제거 및 왜곡보정을 처리하는 영상처리단계; 상기 영상데이터로부터 장애물과 관련된 텍스트정보를 획득하는 텍스트정보획득단계; 및 상기 텍스트정보 및 영상데이터를 서로 다른 신호선을 이용하여 제어부에 전송하는 데이터전송단계;를 포함하는 것을 특징으로 한다.
바람직하게는 획득한 영상데이터의 조도가 기준조도 보다 낮은 경우, 적외선소자를 통해 적외선영상을 획득하거나, 상기 획득한 영상데이터의 조도가 기준조도 보다 높은 경우, 광각렌즈를 통해 렌즈영상을 획득하는 영상데이터획득단계를 포함할 수 있다.
특히 상기 적외선영상을 획득하는 경우, 상기 적외선영상에 대한 노이즈를 제거하는 노이즈제거과정; 상기 렌즈영상을 획득하는 경우, 상기 렌즈영상에 대한 왜곡보정을 수행하는 왜곡보정과정;을 더 포함하는 영상처리단계를 포함할 수 있다.
특히 상기 장애물에 대한 크기, 거리, 상대속도, 좌표값, 충돌예측시간 중 적어도 하나를 포함하는 텍스트정보를 획득하는 텍스트정보획득단계를 포함할 수 있다.
특히 상기 텍스트정보 중 장애물에 대한 거리정보와 각도정보를 이용하여 차량을 기준으로 하는 장애물의 절대좌표정보를 생성하는 것을 더 포함하는 텍스트정보획득단계를 포함할 수 있다.
바람직하게는 상기 영상데이터를 USB, Gigabit, 블루투스, 무선USB, NTSC(National Television System Committee), PAL(Phase Alternation by Line) 중 적어도 하나의 네트워크를 이용하여 전송하거나, 상기 텍스트정보를 상기 영상의 전송속도보다 낮은 전송속도를 갖는 네트워크를 이용하여 전송하는 데이터전송단계를 포함할 수 있다.
특히 복수의 영상데이터를 획득하는 경우, 상기 복수의 영상데이터를 각각 다른 네트워크를 이용하여 개별적으로 전송하고, 상기 복수의 영상데이터로부터 획득한 복수의 텍스트정보를 하나의 네트워크를 이용하여 동시에 전송하는 데이터전송단계를 포함할 수 있다.
특히 복수의 영상데이터를 획득하는 경우, 상기 복수의 영상데이터를 하나의 네트워크를 이용하여 동시에 전송하고, 상기 복수의 영상데이터로부터 획득한 복수의 텍스트정보를 하나의 네트워크를 이용하여 동시에 전송하는 데이터전송단계를 포함할 수 있다.
상술한 바와 같이, 본 발명의 자동차용 장애물 인식 시스템 및 그 방법은 카메라가 촬영한 영상으로부터 영상 및 텍스트정보를 구별하여 검출하고, 이와 같이 구별된 영상 및 텍스트정보를 서로 다른 전송속도를 가진 네트워크를 통해 전송함으로써, 데이터량에 따라 해당 데이터의 전송속도를 달리하여 상기 영상 및 텍스트정보에 대한 데이터처리를 실시간으로 빠르게 할 수 있다.
또한, 본 발명의 자동차용 장애물 인식 시스템은 시간이 소요되는 영상데이터 전송 및 처리와 별개로 장애물정보를 구별하여 컨트롤러에 신속하게 전달할 수 있다. 따라서, 영상데이터 처리로부터 장애물정보를 획득하는 종래 방식에 비하여 장애물정보획득 시간이 빠르며, 그에 따라 차량 운전자에게 보다 신속하게 장애물정보를 전달할 수 있다. 운행하고 있는 차량에서 보다 빠른 장애물정보 인식은 차량사고율을 크게 줄일 수 있다.
또한, 본 발명의 자동차용 장애물 인식 시스템은 장애물정보를 별도로 신속하게 컨트롤러에 전송하였으므로, 영상데이터의 해상도를 낮출 필요가 없어 보다 정확한 정보를 획득할 수 있다.
이와 더불어, 본 발명의 장애물 인식을 위한 영상처리 시스템은 자동차 주변상황을 보다 다양한 각도에서 촬영하기 위해 카메라 대수를 증가시키는 경우에도 급격히 많아진 영상데이터량을 빠르게 처리할 수 있다. 그에 따라, 보다 정확한 장애물정보를 실시간으로 획득할 수 있다.
이하, 본 발명을 바람직한 실시 예와 첨부한 도면을 참고로 하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시 예에 한정되는 것은 아니다.
이하, 도 1을 참조하여 본 발명의 한 실시 예에 따른 자동차용 장애물 인식 시스템을 구체적으로 살펴본다. 도 1은 본 발명의 한 실시 예에 따른 자동차용 장애물 인식 시스템의 구성을 개략적으로 보여주는 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 자동차용 장애물 인식 시스템은 지능형카메라부(110) 및 제어부(120)를 포함하여 이루어진다.
지능형카메라부(110)는 차량의 주변상황을 촬영하고, 촬영한 영상데이터로부터 장애물과 관련된 텍스트정보를 획득하여 상기 텍스트정보 및 상기 영상데이터를 서로 다른 신호선으로 상기 제어부(120)에 전송한다. 이 때, 상기 장애물과 관련된 텍스트정보는 장애물에 대한 크기, 거리, 상대속도, 좌표값, 충돌예측시간 중 적어도 하나를 포함할 수 있다.
이하, 지능형카메라부에 대하여 보다 구체적으로 살펴본다. 상기 지능형카메라부(110)는 영상처리부(111), 텍스트정보획득부(112), 절대좌표생성부(113), 저속전송부(114), 장애물정보저장부(115), 영상출력부(116) 및 고속전송부(117)를 포함한다.
영상처리부(111)는 복수의 지능형카메라를 통해 차량의 주변영상을 촬영하고, 촬영된 영상에 존재하는 각종 노이즈 및 왜곡을 보정한다.
이하, 도 2를 참조하여 상기 영상처리부를 좀 더 자세히 살펴본다. 도 2는 본 발명의 한 실시 예에 따른 자동차용 장애물 인식 시스템의 지능형카메라부의 영상처리부의 블록도이다.
도 2에 도시된 바와 같이, 영상처리부(111)는 촬영부(111a), 적외선영상부(111b), 렌즈영상부(111c), 전처리부(111d), 거리측정부(111e)를 포함한다.
촬영부(111a)는 복수의 지능형카메라를 구비하여, 차량의 주변상황을 다양한 각도로 촬영하여 영상을 획득한다.
적외선영상부(111b)는 적외선소자를 구비하여, 상기 지능형카메라가 촬영한 영상의 조도가 기준조도보다 낮은 경우에 상기 촬영한 영상으로부터 상기 적외선소자를 통해 적외선영상을 획득한다. 이와 같이 획득한 적외선영상은 상기 지능형카메라가 촬영한 원본영상이 낮은 조도로 인하여 영상 내 물체의 구별이 원활하지 않기 때문에, 상기 적외선소자를 이용하여 해당지역의 방사도, 미소 온도 차 등을 확인할 수 있다.
렌즈영상부(111c)는 광각렌즈를 구비하여, 상기 지능형카메라가 촬영한 영상의 조도가 기준조도보다 높은 경우에 상기 촬영한 영상으로부터 상기 광각렌즈를 통해 넓은 범위의 렌즈영상을 획득한다. 이 때, 상기 광각렌즈는 초점거리가 평균 35 mm 정도를 갖는 렌즈를 말한다. 예를 들어, 초점거리가 50mm인 표준렌즈를 이용하여 영상을 촬영하는 것 보다 초점거리가 24mm인 광각렌즈를 사용하는 경우, 1배 이상 더 넓게 영상의 범위를 촬영할 수 있다.
전처리부(111d)는 상기 적외선영상과 상기 렌즈영상에 존재하는 노이즈 및 왜곡을 보정한다. 예를 들어, 상기 적외선영상부(111b)에서 획득한 적외선영상의 경우, 방사도 또는 미소 온도 차 등을 검출하기 위한 목적으로 사용되기 때문에, 일반영상과 달리 많은 노이즈가 적외선영상에 포함된다. 이에 따라, 상기 전처리부(111d)는 노이즈가 포함된 적외선영상으로부터 상기 노이즈를 제거하여, 보다 정확한 텍스트정보 및 영상을 얻도록 전처리 과정을 수행한다. 또한, 상기 렌즈영상 부(111c)로부터 획득한 렌즈영상의 경우, 보다 넓은 범위에 대한 영상촬영을 목적으로 사용되기 때문에, 표준렌즈를 사용하는 영상과 달리, 영상의 왜곡상태가 심한 편임을 알 수 있다.
특히, 상기 렌즈영상은 상기 광각렌즈에 가까이 존재하는 물체의 경우, 실제 물체의 크기보다 더 크게 표현되거나, 상기 광각렌즈에 멀리 존재하는 물체의 경우, 실제 광각렌즈와 물체와의 거리보다 더 멀리 있는 것처럼 표현되므로, 상기 렌즈영상을 통해서는 심한 왜곡으로 인하여 물체의 정확한 거리 및 크기 측정이 어렵다. 이에 따라, 상기 전처리부(111d)는 영상의 왜곡이 포함된 렌즈영상으로부터 상기 왜곡을 보정하여 보다 정확한 텍스트정보 및 영상을 얻도록 전처리 과정을 수행한다.
거리측정부(111e)는 촬영부(111a)와 장애물 사이에 거리를 측정한다.
텍스트정보획득부(112)는 전처리부(111d)로부터 노이즈 제거 및 왜곡보정이 수행된 적외선영상 및 렌즈영상으로부터 상기 적외선영상 및 렌즈영상 내 포함된 장애물에 대한 종류, 크기, 거리, 상대속도 중 적어도 하나를 포함하는 텍스트정보를 검출한다. 이러한 텍스트정보는 텍스트정보저장부(114)에 기저장 되어있는 정보에 대응하여, 상기 텍스트정보를 검출할 수 있다.
예를 들어, 상기 적외선영상 및 렌즈영상 내 장애물의 폭, 넓이, 크기 등을 파악하여, 상기 장애물의 크기정보가 1미터, 촬영부와 장애물간 거리정보는 100미터, 상기 촬영부와 장애물 사이의 각도정보는 45도, 상기 장애물의 상대속도정보는 2km/h 이며, 이러한 정보를 통해 장애물의 종류정보가 어린이라는 다양한 장애물에 관련된 텍스트정보를 획득한다.
절대좌표생성부(113)는 상기 텍스트정보 중 장애물에 대한 거리 및 각도를 이용하여 상기 차량을 기준으로 하는 장애물의 절대좌표를 생성한다. 이러한 장애물의 절대좌표 생성은 촬영부의 위치좌표정보를 알고, 상기 촬영부(111a)로부터 장애물 사이의 거리정보를 알고, 상기 촬영부(111a)와 장애물 사이의 각도정보를 알고 있어, 이러한 정보를 기초로 하여, 상기 장애물의 절대좌표정보를 획득할 수 있다.
저속전송부(114)는 상기 텍스정보획득부에서 획득한 텍스트정보를 자동차용 네트워크인 CAN(Controller Area Network), LIN(Local Interconnect Network) 중 적어도 하나를 이용하여 제어부(120)로 전송한다.
장애물정보저장부(115)는 다양한 장애물에 대한 종류와 그 종류에 따른 폭, 넓이, 길이 등을 포함하는 장애물정보가 기저장된다. 예를 들어, 상기 장애물의 종류에는 자동차, 사람, 동물, 과속방지턱 등이 있으며, 이에 대한 자동차, 사람, 동물, 과속방지턱의 평균 폭, 넓이, 길이 등에 대한 정보가 상기 장애물정보저장부(115)에 저장된다.
영상출력부(116)는 상기 영상처리부(111)에서 영상데이터에 대한 노이즈 제거 및 왜곡보정 등의 영상처리가 완료된 적외선영상 및 렌즈영상을 수신하여 출력한다.
고속전송부는(117)는 출력하고자 하는 상기 적외선영상 및 렌즈영상에 대해
USB, Gigabit, 블루투스, 무선USB, NTSC, PAL 중 적어도 하나의 네트워크를 이용하 여 제어부(120)로 전송한다.
특히, 복수개의 지능형카메라로부터 획득한 복수개의 영상데이터 및 상기 영상데이터로부터 획득한 복수개의 텍스트정보를 다양한 방법을 통해 제어부로 전송가능하다.
우선, 상기 복수개의 영상데이터를 USB, Gigabit, 블루투스, 무선USB, NTSC, PAL 중 각기 다른 네트워크를 통해 각각 개별적으로 제어부로 전송하고, 상기 복수개의 텍스트정보는 CAN(Controller Area Network), LIN(Local Interconnect Network) 중 적어도 하나의 네트워크를 통해 동시에 전송하는 방법이 있다. 이러한 방법의 경우, 데이터량이 많은 영상데이터를 획득하자마자 바로 제어부로 전송하므로, 그 전송속도가 매우 빠르기 때문에 사용자가 영상데이터를 실시간으로 확인할 수 있다.
또는 USB, Gigabit, 블루투스, 무선USB, NTSC, PAL 중 하나의 네트워크를 선택한 후, 선택한 네트워크를 이용하여 상기 복수개의 영상데이터를 동시에 제어부로 전송하고, 상기 복수개의 텍스트정보는 CAN(Controller Area Network), LIN(Local Interconnect Network) 중 적어도 하나의 네트워크를 통해 동시에 전송하는 방법이 있다. 이러한 방법의 경우, 복수개의 영상데이터를 하나의 네트워크를 통해 제어부로 전송하므로, 데이터 전송에 따른 시스템 구축비용을 절감할 수 있다.
제어부(120)는 상기 텍스트정보 및 영상데이터를 수신한 후, 상기 텍스트정보 및 영상데이터를 차량 운전자에게 디스플레이한다. 이러한 제어부(120)는 상기 텍스트정보 및 영상데이터를 기초로 하여, 장애물의 위험도를 연산하고, 그 위험도를 상기 차량운전자에게 표시할 수 있다.
이하, 도 3을 참조하여 본 발명의 다른 실시 예에 따른 차량 주변의 장애물을 인식하는 자동차용 장애물 인식방법에 대하여 살펴보도록 한다.
도 3에 도시된 바와 같이, 먼저 촬영부가 차량의 주변상황을 촬영하여, 영상데이터를 획득한다(S210). 이 때, 복수의 지능형카메라를 포함하는 촬영부가 상기 차량을 중심으로 전후좌우앞뒤를 포함하여 촬영의 사각지역없이 상기 차량 주변의 상황을 영상으로 촬영한다.
이와 같이, 획득한 영상데이터에 대하여 상기 영상데이터의 조도가 기설정해 놓은 기준조도보다 작은지 비교한다(S220).
상기 영상데이터의 조도가 기준조도 보다 낮은 경우, 적외선소자를 이용하여 적외선영상을 획득한다(S221).
예를 들어, 상기 영상데이터의 조도가 150 Lux이고, 기설정 해놓은 기준조도가 600Lux 이라면, 상기 영상데이터의 조도는 기준조도보다 낮은 것을 알 수 있다. 이와 같이, 영상데이터의 조도가 기준조도보다 낮은 경우에는, 상기 영상데이터를 획득한 지역의 빛이 충분히 공급되지 않아, 영상촬영 시 물체의 구별이 어렵다는 판단을 할 수 있다. 이러한 경우를 대비하여, 빛이 충분히 공급되지 않는다고 판단되는 해당지역에 대해 적외선소자를 통해 적외선영상을 획득한다.
이와 같이, 획득한 적외선영상에 포함된 노이즈를 제거한다(S222). 앞서 획
득한 상기 적외선영상의 경우, 해당지역의 방사도 또는 미소 온도 차 등을 검출하 기 위한 목적으로 사용되기 때문에 일반영상과 달리 많은 노이즈가 포함되므로, 상기 노이즈를 제거하여 보다 정확한 텍스트정보 및 영상을 얻도록 전처리 과정을 수행한다.
또는 상기 영상데이터의 조도가 기준조도보다 높은 경우, 광각렌즈를 이용하여 렌즈영상을 획득한다(S223).
예를 들어, 상기 영상데이터의 조도가 1000 Lux이고, 기설정 해놓은 기준조도가 600 Lux 이라면, 상기 영상데이터의 조도는 기준조도보다 높은 것을 알 수 있다. 이와 같이, 영상데이터의 조도가 기준조도보다 높은 경우에는, 상기 영상데이터를 획득한 지역의 빛이 너무 많이 공급된 것을 알 수 있어, 동일한 광량을 이용하여 보다 넓은 지역의 영상을 획득할 수 있다. 이와 같이, 보다 넓은 지역의 영상을 획득하기 위해서, 해당지역에 대해 광각렌즈를 통해 촬영한 렌즈영상을 획득한다.
이처럼 획득한 렌즈영상에 대하여, 상기 렌즈영상 내 포함된 왜곡을 보정한다(S224).
앞서 설명한 바와 같이, 렌즈영상은 동일한 광량을 사용하여 보다 넓은 지역에 대한 영상촬영을 목적으로 사용되기 때문에, 표준렌즈를 사용하는 영상과 달리, 영상의 왜곡상태가 심한 편을 알 수 있다. 특히, 상기 렌즈영상은 상기 광각렌즈에 가까이 존재하는 물체의 경우, 실제 물체의 크기보다 더 크게 표현되거나, 상기 광각렌즈에 멀리 존재하는 물체의 경우, 실제 광각렌즈와 물체와의 거리보다 더 멀리 있는 것처럼 표현되므로, 상기 렌즈영상을 통해서는 심한 왜곡으로 인하여 물체의 정확한 거리 및 크기 측정이 어렵다. 따라서, 상기 렌즈영상 내 왜곡을 보정하여, 보다 정확한 텍스트정보 및 영상을 얻도록 전처리 과정을 수행한다.
이와 같이, 영상의 전처리과정이 수행된 적외선영상 및 렌즈영상을 출력한다(S230).
앞서 출력된 적외선영상 및 렌즈영상을 포함하는 영상데이터를 USB, Gigabit, 블루투스, 무선USB, NTSC, PAL 중 적어도 하나의 네트워크를 이용하여 제어부로 전송한다(S240). 이 때, 제어부로 전송하고자 하는 영상데이터가 복수 개일 때, 첫 번째 전송방법으로는 상기 복수개의 영상데이터를 USB, Gigabit, 블루투스, 무선USB, NTSC, PAL 중 각기 다른 네트워크를 통해 각각 개별적으로 제어부로 전송할 수 있다. 이에 따라, 데이터량이 많은 영상데이터가 획득되자마자 바로 제어부로 전송되므로, 그 전송속도가 매우 빠르기 때문에 사용자가 영상데이터를 실시간으로 확인할 수 있다.
두 번째 전송방법으로는 USB, Gigabit, 블루투스, 무선USB, NTSC, PAL 중 하나의 네트워크를 선택한 후, 선택한 네트워크를 이용하여 상기 복수개의 영상데이터를 동시에 제어부로 전송할 수 있다. 이러한 방법의 경우, 복수개의 영상데이터를 하나의 네트워크를 통해 제어부로 전송하므로, 데이터 전송에 따른 시스템 구축비용을 절감할 수 있다.
상기 영상데이터의 출력 및 전송과 동시에, 장애물정보저장부에 기저장된 장애물정보를 참고하여 상기 영상데이터에 포함된 장애물에 대한 텍스트정보를 획득한다(S250). 특히, 상기 장애물정보저장부에 자동차, 사람, 동물, 과속방지턱 등과 같은 장애물의 종류 및 각 장애물 종류에 대한 평균 폭, 넓이, 길이 등에 대한 정보가 기저장되어있다. 예를 들어, 폭이 50Cm, 길이는 1.5미터, 촬영부와 장애물간 거리는 100미터, 상기 촬영부와 장애물 사이의 각도는 45도, 상기 장애물의 상대속도는 2km/h 등의 정보를 상기 영상데이터로부터 획득하고, 상기 장애물정보저장부에 기저장된 장애물정보를 통해 이러한 조건에 부합하는 장애물의 종류가 사람인 것을 알 수 있다.
상기 영상데이터를 통해 장애물에 대한 텍스트정보를 획득한 후, 상기 텍스트정보 중 각도정보 및 거리정보를 이용하여 자동차를 기준으로 하는 상기 장애물의 절대좌표를 생성한다(S260). 이처럼 생성된 상기 장애물의 절대좌표를 이용하여 제어부가 상기 장애물의 위험도를 연산할 수 있다.
이처럼 획득한 텍스트정보를 비교적 낮은 데이터 전송속도를 갖는 자동차용 네트워크인 CAN(Controller Area Network), LIN(Local Interconnect Network) 중 적어도 하나를 이용하여 제어부로 전송한다(S270).
이에 따라, 데이터량이 비교적 많은 상기 영상은 고속의 데이터전송방식을 통해 상기 제어부로 빠르게 전송되는 반면, 상기 영상과 달리 상대적으로 데이터량이 적은 텍스트정보는 상기 영상전보의 전송속도보다 느린 저속의 데이터전송방식을 통해 상기 제어부로 전송된다. 결과적으로, 데이터전송의 낭비 또는 지연 없이 상기 영상 및 텍스트정보를 실시간으로 전송할 수 있어, 상기 제어부가 보다 빠른 데이터처리를 수행할 수 있도록 한다.
이와 같이, 수신된 상기 영상데이터 및 텍스트정보를 차량 운전자에게 디스 플레이한다. 이 때, 상기 영상데이터의 고속전송으로 인하여 제어부가 상기 영상데이터를 수신하자마자 바로 디스플레이하거나, 상기 영상데이터에 장애물 관련 텍스트정보를 포함하여 차량운전자에게 디스플레이 할 수 있다. 뿐만 아니라, 상기 텍스트정보 및 영상데이터를 기초로 하여, 장애물의 위험도를 연산하고, 그 위험도를 상기 차량운전자에게 표시할 수도 있다. 예를 들어, 상기 영상 및 텍스트정보로부터 장애물 A와 장애물 B가 검출되었다고 가정하도록 한다. 상기 장애물 A에 대한 영상 및 텍스트정보를 통해, 상기 장애물 A는 사람으로 그 크기는 1 미터, 촬영부와의 거리는 100미터, 상기 촬영부 사이의 각도는 45도, 상기 장애물 A의 상대속도는 2km/h 등을 알 수 있다.
한편, 장애물 B에 대한 영상 및 텍스트정보를 통해, 상기 장애물 B는 자동차로 그 크기는 4미터, 촬영부와의 거리는 100미터, 상기 촬영부 사이의 각도는 180도, 상기 장애물 B의 상대속도는 40km/h 등을 알 수 있다.
이와 같이, 검출된 각 정보들을 기초로 하여, 상기 제어부가 복수의 장애물 중 어느 장애물이 가장 위험도가 높은지 충돌예상시간을 연산하고, 그 연산결과가 가장 높은 순으로 하여 장애물에 대한 위험도를 연산한다. 이와 같이 연산된 장애물의 위험도를 외부에 존재하는 서버부 또는 차량으로 전달하여, 상기 차량이 장애물을 현재 상태를 예측하여 상기 장애물을 피해갈 수 있도록 한다.
예를 들어, 앞서 장애물 B의 촬영부와의 거리가 100미터, 장애물의 상대속도가 40km/h 일 경우, 제어부는 상기 거리를 상대속도로 나누어 장애물과 차량사이의 충돌예측시간을 연산할 수 있으므로, 100* 3600/40000 = 9초의 충돌예측시간을 획 득한다. 이러한 경우, 5초 이내에 상기 제어부는 차량의 운전자에게 위험경보를 발생한다.
이에 따라, 본 발명의 자동차용 장애물 인식 시스템 및 그 방법은 카메라가 촬영한 영상으로부터 영상 및 텍스트정보를 구별하여 검출하고, 이와 같이 구별된 영상 및 텍스트정보를 서로 다른 전송속도를 가진 네트워크를 통해 전송함으로써, 데이터량에 따라 해당 데이터의 전송속도를 달리하여 상기 영상 및 텍스트정보에 대한 데이터처리를 실시간으로 빠르게 할 수 있다.
또한, 본 발명의 자동차용 장애물 인식 시스템은 시간이 소요되는 영상데이터 전송 및 처리와 별개로 장애물정보를 구별하여 컨트롤러에 신속하게 전달할 수 있다. 따라서, 영상데이터 처리로부터 장애물정보를 획득하는 종래 방식에 비하여 장애물정보획득 시간이 빠르며, 그에 따라 차량 운전자에게 보다 신속하게 장애물정보를 전달할 수 있다. 운행하고 있는 차량에서 보다 빠른 장애물정보 인식은 차량사고율을 크게 줄일 수 있다.
또한, 본 발명의 자동차용 장애물 인식 시스템은 장애물정보를 별도로 신속하게 컨트롤러에 전송하였으므로, 영상데이터의 해상도를 낮출 필요가 없어 보다 정확한 정보를 획득할 수 있다.
이와 더불어, 본 발명의 장애물 인식을 위한 영상처리 시스템은 자동차 주변상황을 보다 다양한 각도에서 촬영하기 위해 카메라 대수를 증가시키는 경우에도 급격히 많아진 영상데이터량을 빠르게 처리할 수 있다. 그에 따라, 보다 정확한 장애물정보를 실시간으로 획득할 수 있다.
상기에서는 본 발명의 바람직한 실시 예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 본 발명의 기술 사상 범위 내에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 첨부된 특허청구범위에 속하는 것은 당연하다.
도 1은 본 발명의 한 실시 예에 따른 자동차용 장애물 인식 시스템의 구성을 개략적으로 보여주는 블록도이다.
도 2는 상기 장애물 인식을 위한 영상처리 시스템의 영상처리부의 블록도이다.
도 3은 본 발명의 다른 실시 예에 따른 장애물 인식을 위한 영상처리 방법의 순서도이다.
***도면의 주요부분에 대한 부호의 설명***
110: 지능형카메라부 111: 영상처리부
112: 텍스트정보획득부 113: 절대좌표생성부
114: 저속전송부 115: 장애물정보저장부
116: 영상출력부 117: 고속전송부
120: 제어부
Claims (15)
- 차량 주변의 장애물을 인식하는 자동차용 장애물 인식 시스템에 있어서,차량의 주변상황을 촬영하고, 촬영한 영상데이터로부터 장애물과 관련된 텍스트정보를 획득하여 상기 텍스트정보 및 상기 영상데이터를 서로 다른 신호선으로 전송하는 지능형카메라부;상기 텍스트정보 및 상기 영상데이터를 수신한 후, 수신한 텍스트정보 및 영상데이터를 차량 운전자에게 표시하는 제어부;를 포함하되,상기 지능형카메라부는복수의 지능형카메라를 구비하여, 상기 차량의 주변상황을 촬영하는 촬영부;적외선소자를 구비하여, 촬영한 영상의 조도가 기준조도보다 낮은 경우 상기 적외선소자를 이용하여 적외선영상을 획득하는 적외선영상부;광각렌즈를 구비하여, 상기 촬영한 영상의 조도가 기준조도보다 높은 경우 상기 광각렌즈를 이용하여 렌즈영상을 획득하는 렌즈영상부; 및상기 적외선영상과 상기 렌즈영상에 존재하는 노이즈 및 왜곡을 보정하는 전처리부;를 포함하는 것을 특징으로 하는 자동차용 장애물 인식 시스템.
- 제1항에 있어서,상기 지능형카메라부는상기 장애물에 대한 크기, 거리, 상대속도, 좌표값, 충돌예측시간 중 적어도 하나를 포함하는 텍스트정보를 획득하는 텍스트정보획득부;를 더 포함하는 것을 특징으로 하는 자동차용 장애물 인식 시스템.
- 제1항에 있어서,상기 지능형카메라부는상기 영상데이터를 USB, Gigabit, 블루투스, 무선USB, NTSC(National Television System Committee), PAL(Phase Alternation by Line) 중 적어도 하나의 네트워크를 이용하여 상기 제어부로 전송하며,상기 텍스트정보를 상기 영상데이터의 전송속도보다 낮은 전송속도를 갖는 CAN(Controller Area Network), LIN(Local Interconnect Network) 중 적어도 하나의 네트워크를 이용하여 전송하는 것을 특징으로 하는 자동차용 장애물 인식 시스템.
- 제3항에 있어서,상기 지능형카메라부는복수의 지능형카메라로부터 촬영된 복수의 영상데이터를 각각 다른 네트워크를 이용하여 개별적으로 전송하고,상기 복수의 영상데이터로부터 획득한 복수의 텍스트정보를 하나의 네트워크를 이용하여 동시에 전송하는 것을 특징으로 하는 자동차용 장애물 인식 시스템.
- 제3항에 있어서,상기 지능형카메라부는복수의 지능형카메라로부터 촬영된 복수의 영상데이터를 하나의 네트워크를 이용하여 동시에 전송하고,상기 복수의 영상데이터로부터 획득한 복수의 텍스트정보를 하나의 네트워크를 이용하여 동시에 전송하는 것을 특징으로 하는 자동차용 장애물 인식 시스템.
- 제1항에 있어서,상기 지능형카메라부는상기 텍스트정보 중 장애물에 대한 거리정보와 각도정보를 이용하여 상기 차량을 기준으로 하는 장애물의 절대좌표를 생성하는 절대좌표생성부;를 더 포함하는 것을 특징으로 하는 자동차용 장애물 인식 시스템.
- 삭제
- 차량 주변의 장애물을 인식하는 자동차용 장애물 인식 방법에 있어서,차량의 주변상황에 대하여 영상데이터를 획득하는 영상데이터획득단계;상기 영상데이터에 대한 노이즈 제거 및 왜곡보정을 처리하는 영상처리단계;상기 영상데이터로부터 장애물과 관련된 텍스트정보를 획득하는 텍스트정보획득단계;상기 텍스트정보 및 영상데이터를 서로 다른 신호선을 이용하여 제어부에 전송하는 데이터전송단계;를 포함하되,상기 영상데이터획득단계는획득한 영상데이터의 조도가 기준조도 보다 낮은 경우, 적외선소자를 통해 적외선영상을 획득하거나,상기 획득한 영상데이터의 조도가 기준조도 보다 높은 경우, 광각렌즈를 통해 렌즈영상을 획득하는 것을 특징으로 하는 자동차용 장애물 인식 방법.
- 삭제
- 제8항에 있어서,상기 영상처리단계는상기 적외선영상을 획득하는 경우, 상기 적외선영상에 대한 노이즈를 제거하는 노이즈제거과정;상기 렌즈영상을 획득하는 경우, 상기 렌즈영상에 대한 왜곡보정을 수행하는 왜곡보정과정;을 더 포함하는 것을 특징으로 하는 자동차용 장애물 인식 방법.
- 제8항에 있어서,상기 텍스트정보획득단계는상기 장애물에 대한 크기, 거리, 상대속도, 좌표값, 충돌예측시간 중 적어도 하나를 포함하는 텍스트정보를 획득하는 것을 특징으로 하는 자동차용 장애물 인식 방법.
- 제11항에 있어서,상기 텍스트정보획득단계는상기 텍스트정보 중 장애물에 대한 거리정보와 각도정보를 이용하여 차량을 기준으로 하는 장애물의 절대좌표정보를 생성하는 것을 더 포함하는 것을 특징으로 하는 자동차용 장애물 인식 방법.
- 제8항에 있어서,상기 데이터전송단계는상기 영상데이터를 USB, Gigabit, 블루투스, 무선USB, NTSC(National Television System Committee), PAL(Phase Alternation by Line) 중 적어도 하나의 네트워크를 이용하여 전송하거나,상기 텍스트정보를 상기 영상의 전송속도보다 낮은 전송속도를 갖는 CAN(Controller Area Network), LIN(Local Interconnect Network) 중 적어도 하나의 네트워크를 이용하여 전송하는 것을 특징으로 하는 자동차용 장애물 인식 방법.
- 제13항에 있어서,상기 데이터전송단계는복수의 영상데이터를 획득하는 경우, 상기 복수의 영상데이터를 각각 다른 네트워크를 이용하여 개별적으로 전송하고,상기 복수의 영상데이터로부터 획득한 복수의 텍스트정보를 하나의 네트워크 를 이용하여 동시에 전송하는 것을 특징으로 하는 자동차용 장애물 인식 방법.
- 제13항에 있어서,상기 데이터전송단계는복수의 영상데이터를 획득하는 경우, 상기 복수의 영상데이터를 하나의 네트워크를 이용하여 동시에 전송하고,상기 복수의 영상데이터로부터 획득한 복수의 텍스트정보를 하나의 네트워크를 이용하여 동시에 전송하는 것을 특징으로 하는 자동차용 장애물 인식 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090119292A KR101030210B1 (ko) | 2009-12-03 | 2009-12-03 | 자동차용 장애물 인식 시스템 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090119292A KR101030210B1 (ko) | 2009-12-03 | 2009-12-03 | 자동차용 장애물 인식 시스템 및 그 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101030210B1 true KR101030210B1 (ko) | 2011-04-22 |
Family
ID=44050358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090119292A KR101030210B1 (ko) | 2009-12-03 | 2009-12-03 | 자동차용 장애물 인식 시스템 및 그 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101030210B1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017177008A1 (en) * | 2016-04-06 | 2017-10-12 | Nec Laboratories America, Inc | Video capturing device for predicting special driving situations |
CN115396605A (zh) * | 2022-08-04 | 2022-11-25 | 南京奥莱科技有限公司 | 一种异构低时延多目视频拼接方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000003378A (ko) * | 1998-06-27 | 2000-01-15 | 홍종만 | 자동차의 추돌 방지 장치 및 그 방법 |
JP2008193606A (ja) * | 2007-02-07 | 2008-08-21 | Auto Network Gijutsu Kenkyusho:Kk | データ伝送システム及びデータ伝送方法 |
-
2009
- 2009-12-03 KR KR1020090119292A patent/KR101030210B1/ko not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000003378A (ko) * | 1998-06-27 | 2000-01-15 | 홍종만 | 자동차의 추돌 방지 장치 및 그 방법 |
JP2008193606A (ja) * | 2007-02-07 | 2008-08-21 | Auto Network Gijutsu Kenkyusho:Kk | データ伝送システム及びデータ伝送方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017177008A1 (en) * | 2016-04-06 | 2017-10-12 | Nec Laboratories America, Inc | Video capturing device for predicting special driving situations |
CN115396605A (zh) * | 2022-08-04 | 2022-11-25 | 南京奥莱科技有限公司 | 一种异构低时延多目视频拼接方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8077204B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
US20180308282A1 (en) | Shape measuring apparatus and method | |
JP4389999B2 (ja) | 露出制御装置及び露出制御プログラム | |
JP5435307B2 (ja) | 車載カメラ装置 | |
JP6970577B2 (ja) | 周辺監視装置および周辺監視方法 | |
EP3203725B1 (en) | Vehicle-mounted image recognition device | |
US20060171563A1 (en) | Vehicle-mounted image processor | |
WO2017134982A1 (ja) | 撮像装置 | |
CN107431747B (zh) | 摄像装置 | |
US10776649B2 (en) | Method and apparatus for monitoring region around vehicle | |
JP6723079B2 (ja) | 物体距離検出装置 | |
JP2013005234A5 (ko) | ||
CN110636271B (zh) | 半导体器件和消息图像输出方法 | |
JP2007172540A (ja) | 移動体判定システム、移動体判定方法、及びコンピュータプログラム | |
JP6903925B2 (ja) | 撮像表示システム、乗用装置 | |
CN108833797B (zh) | 一种提高车载双目视觉系统性能的装置及其使用方法 | |
KR101030210B1 (ko) | 자동차용 장애물 인식 시스템 및 그 방법 | |
US20170364765A1 (en) | Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method | |
JP2008026999A (ja) | 障害物検出システム、及び障害物検出方法 | |
KR102177878B1 (ko) | 영상 처리 장치 및 방법 | |
JP2008286648A (ja) | 距離計測装置、距離計測システム、距離計測方法 | |
US7567688B2 (en) | Apparatus for and method of extracting image | |
JP4804202B2 (ja) | ステレオ式監視装置 | |
WO2019058755A1 (ja) | 物体距離検出装置 | |
JP4797441B2 (ja) | 車両用画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140411 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |