KR20210064591A - 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법 - Google Patents
차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법 Download PDFInfo
- Publication number
- KR20210064591A KR20210064591A KR1020190152984A KR20190152984A KR20210064591A KR 20210064591 A KR20210064591 A KR 20210064591A KR 1020190152984 A KR1020190152984 A KR 1020190152984A KR 20190152984 A KR20190152984 A KR 20190152984A KR 20210064591 A KR20210064591 A KR 20210064591A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- sensor
- features
- deep learning
- vehicle
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000013135 deep learning Methods 0.000 title abstract description 30
- 238000003672 processing method Methods 0.000 claims abstract description 14
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G06K9/4661—
-
- G06K9/627—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
차량에 설치된 이종의 센서들로부터 생성되는 영상들을 입력으로 객체를 검출/분류하는 경량의 임베디드향 딥러닝 네트워크 구조 및 이를 이용한 처리 장치와 방법이 제공된다. 본 발명의 실시예에 따른 다중 영상 처리 방법은 제1 타입의 제1 영상을 입력받는 제1 입력단계; 제2 타입의 제2 영상을 입력받는 제2 입력단계; 입력된 제1 영상과 제2 영상을 인공지능 모델에 함께 입력하는 제3 입력단계; 인공지능 모델로 제1 영상의 특징과 제2 영상의 특징을 추출하는 단계; 및 추출된 제1 영상의 특징과 제2 영상을 이용하여, 객체를 검출하고 검출된 객체를 분류하는 검출 및 분류단계;를 포함한다.
이에 의해, 경량의 임베디드향 딥러닝 네트워크로 차량에 설치된 이종의 센서들로부터 생성되는 영상들을 입력받아 객체를 검출/분류할 수 있게 된다.
이에 의해, 경량의 임베디드향 딥러닝 네트워크로 차량에 설치된 이종의 센서들로부터 생성되는 영상들을 입력받아 객체를 검출/분류할 수 있게 된다.
Description
본 발명은 인공지능 기술을 활용한 영상 처리 및 SoC(System on Chip) 기술에 관한 것으로, 더욱 상세하게는 이종의 센서들로부터 영상들을 입력받아 딥러닝으로 처리하는 장치 및 방법에 관한 것이다.
카메라 등을 통해 생성한 영상 데이터로부터 추출한 특징 정보를 이용하여, 차량 외부에 대한 객체 검출, 차선 검출, 도로 검출 등 수 많은 응용에 대한 연구와 개발이 진행 중에 있다.
특히, 자율 주행 차량에 적용하기 위하여 외부에 RGB 카메라, 스테레오 카메라, ToF 센서, Lidar 등을 연동하여 외부 상황인지 개발에 대부분의 역량을 할애하고 있다.
하지만, 차량 내부 카메라 시스템은 운전자 상태 검출 정도로 아직 영상 기반의 다양한 센서 응용이 미약한 실정이다. 특히, RGB 영상 센서와 함께 신종 RCCC, RGBIR 등 다기능 센서 신호 처리 전용 프로세서가 없어 고가의 DSP 및 GPU를 활용하고 있다.
뿐만 아니라, 차량 내부 시스템에 적용 가능한 초경량의 딥러닝 하드웨어 플랫폼도 전무한 실정이다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 차량에 설치된 이종의 센서들로부터 생성되는 영상들을 입력으로 객체를 검출/분류하는 경량의 임베디드향 딥러닝 네트워크 구조 및 이를 이용한 처리 장치와 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 다중 영상 처리 방법은 제1 타입의 제1 영상을 입력받는 제1 입력단계; 제2 타입의 제2 영상을 입력받는 제2 입력단계; 입력된 제1 영상과 제2 영상을 인공지능 모델에 함께 입력하는 제3 입력단계; 인공지능 모델로 제1 영상의 특징과 제2 영상의 특징을 추출하는 단계; 및 추출된 제1 영상의 특징과 제2 영상을 이용하여, 객체를 검출하고 검출된 객체를 분류하는 검출 및 분류단계;를 포함한다.
본 발명에 따른 다중 영상 처리 방법은 제1 영상을 이용하여, 조도를 추정하는 단계;를 더 포함하고, 제3 입력단계는, 추정된 조도 정보를 제1 영상 및 제2 영상과 함께 인공지능 모델에 입력하는 단계일 수 있다.
추출 단계는, 추정된 조도 정보를 더 이용하여, 제1 영상의 특징과 제2 영상의 특징을 추출하는 단계일 수 있다.
본 발명에 따른 다중 영상 처리 방법은 추정된 조도 정보를 참조하여, 차량 내부와 사각 지대에 대한 영상인 제3 영상을 생성하는 제3 센서의 WDR(Wide Dynamic Range)과 조명을 제어하는 단계;를 더 포함할 수 있다.
본 발명에 따른 다중 영상 처리 방법은 제3 센서에서 생성된 제3 영상을 이용하여, 사각 지대의 장애물을 검출하는 단계;를 더 포함할 수 있다.
본 발명에 따른 다중 영상 처리 방법은 검출 및 분류단계에서 검출 및 분류된 객체와 검출 단계에서 검출된 장애물을 기초로, 상황을 인지하고 위험을 판단하는 단계;를 더 포함할 수 있다.
제1 영상은, RGB 영상이고, 제2 영상은, IR 영상일 수 있다.
본 발명의 다른 측면에 따르면, 제1 타입의 제1 영상을 생성하는 제1 센서; 제2 타입의 제2 영상을 생성하는 제2 센서; 및 제1 센서에 의해 생성된 제1 영상과 제2 센서에 의해 생성된 제2 영상을 인공지능 모델에 함께 입력하여, 인공지능 모델로 제1 영상의 특징과 제2 영상의 특징을 추출하고, 추출된 제1 영상의 특징과 제2 영상을 이용하여 객체를 검출하고 검출된 객체를 분류하는 객체 분류/검출기;를 포함하는 것을 특징으로 하는 다중 센서 처리 장치가 제공된다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 경량의 임베디드향 딥러닝 네트워크로 차량에 설치된 이종의 센서들로부터 생성되는 영상들을 입력받아 객체를 검출/분류할 수 있게 된다.
또한, 본 발명의 실시예들에 따르면, 차량 내부에 설치된 센서를 활용하여 외부 상황의 인지 및 위험 모니터링이 가능해진다.
도 1은 단일 센서 기반 객체 검출용 딥러닝 네트워크의 구조를 도시한 도면,
도 2는 본 발명의 일 실시예에 따른 차량용 다중 센서 기반의 객체 검출용 딥러닝 네트워크의 구조를 도시한 도면,
도 3은 본 발명의 다른 실시예에 따른 다중 센서 처리 장치의 블럭도,
도 4는 내부 센서의 설치예를 나타낸 도면, 그리고,
도 5는 본 발명의 또 다른 실시예에 따른 다중 센서 처리 방법의 설명에 제공되는 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 차량용 다중 센서 기반의 객체 검출용 딥러닝 네트워크의 구조를 도시한 도면,
도 3은 본 발명의 다른 실시예에 따른 다중 센서 처리 장치의 블럭도,
도 4는 내부 센서의 설치예를 나타낸 도면, 그리고,
도 5는 본 발명의 또 다른 실시예에 따른 다중 센서 처리 방법의 설명에 제공되는 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
본 발명의 실시예에서는, 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법을 제시한다. 구체적으로, 이종의 센서로 생성한 영상들인 RGB 영상과 IR 영상을 입력으로 객체를 검출/분류하는 딥러닝 네트워크의 새로운 구조를 제시한다.
본 발명의 실시예를 통해 제시하는 딥러닝 네트워크는, 다중 센서 기반의 객체 인식이 가능한 경량의 임베디드향 딥러닝 구조로, 모바일 반도체에 적용 가능하다.
나아가, 본 발명의 실시예에서는, 차량 내부와 차량 외부 사각 지대에서의 위험 상황까지 인지하여 경고를 발생시키는 방법을 제시한다.
도 1은 단일 센서 기반 객체 검출용 딥러닝 네트워크의 구조를 제시하였다. 도시된 객체 검출용 딥러닝 네트워크에서는 특징 생성과 객체 분류를 위한 딥러닝 네트워크가 센서 마다 별개로 구성된다.
나아가, 조도 예측을 위한 별도의 레이어를 추가하여야 하고, 각각의 센서들에서 생성된 영상들을 기반으로 딥러닝 처리된 각각의 결과들을 융합하여 최종 결과를 추출하여야 한다.
딥러닝 처리가 2번에 걸쳐 이루어진다는 점에서, 모바일 단말에서의 임베디드 시스템에서 구현하기에는 다소 부적합하다.
도 2는 본 발명의 일 실시예에 따른 차량용 다중 센서 기반의 객체 검출용 딥러닝 네트워크의 구조를 도시한 도면이다.
도시된 바와 같이, RGB 센서에서 생성된 RGB 영상과 IR 센서에서 생성된 IR 영상이 각각의 채널로 객체 검출용 딥러닝 네트워크에 입력된다.
객체 검출용 딥러닝 네트워크는 입력된 RGB 영상으로부토 조도(Light Condition)를 추정하고, 추정된 조도 정보를 RGB 영상 및 IR 영상과 함께 퓨전 레이어에 입력시킨다.
이에 의해, 객체 검출용 딥러닝 네트워크는, 하나의 네트워크로 RGB 영상와 IR 영상의 특징을 추출하며, 특징을 추출함에 있어서는 추정된 조도 정보까지 이용함으로써 조도 영향들을 보상하여 영상의 특징을 생성할 수 있다.
이 부분은 센서의 증가에 따른 확장성이 있다는 장점이 있고, 해당 네트워크를 적절히 수정할 경우 다양한 레이어에서의 융합이 가능하다.
다음, 객체 검출용 딥러닝 네트워크는, 추출된 RGB 영상의 특징과 IR 영상의 특징을 이용하여, 영상에 존재하는 객체를 검출하고, 검출된 객체를 분류한다. 검출 및 분류 결과는 영상에서 객체를 표시한 BB(Boundary Boc)와 정확도/신뢰도를 나타내는 스코어로 제시된다.
도 3은 본 발명의 다른 실시예에 따른 다중 센서 처리 장치의 블럭도이다. 본 발명의 실시예에 따른 다중 센서 처리 장치는, 도 2에 도시된 객체 검출용 딥러닝 네트워크를 이용하여 상황 인지와 경보 발생 등의 추가적인 응용 처리를 수행한다.
이와 같은 기능을 수행하는 본 발명의 실시예에 따른 다중 센서 처리 장치는, 도 3에 도시된 바와 같이, 외부 센서들(110-1, 110-2, ..., 110-n), 내부 센서(120), 센서 정보 추출부(130), 캘리브레이션부(140), 내부 센서 제어기(150), 객체 검출/분류기(160), 장애물 검출기(170) 및 인지/판단부(180)를 포함하여 구성된다.
외부 센서들(110-1, 110-2, ..., 110-n)은 차량 외부에 설치되어 있는 센서들로 이종의 영상들, 이를 테면, RGB 영상, IR 영상, ..., Lidar 영상을 생성한다. 센서들(110-1, 110-2, ..., 110-n)의 개수와 종류에 대한 제한은 없으며, 필요에 따른 자유로운 구현이 가능하다.
내부 센서(120)은 차량 내부에 설치된 광각의 센서로, 차량 내부 외에도 차량 외부, 특히, 사각 지대의 영상 생성이 가능하다.
도 4는 내부 센서(120)의 설치예를 나타낸 도면이다. 도시된 바와 같이, 내부 센서(120)는 차량 내부 천정 중간 보다 조금 앞부분에 설치할 수 있으며, RGBIR 센서로 구현할 수 있다.
내부 센서(120)의 화각을 190도 이상으로 구현한다면, 차량의 내부는 물론 차량 후방 측면들에 나타나는 사각 지대까지 영상으로 생성할 수 있다.
센서 정보 추출부(130)는 센서들(110-1, 110-2, ..., 110-n, 120)에 대한 내부 파라미터와 외부 파라미터를 추출한다. 캘리브레이션부(140)는 센서 정보 추출부(130)에 의해 추출된 파라미터들을 참조하여, 센서들(110-1, 110-2, 110-n, 120)에 대한 캘리브레이션을 수행한다.
객체 검출/분류기(160)는 외부 센서들(110-1, 110-2, 110-n)에 의해 생성된 이종의 영상들을 이용하여 영상에 존재하는 객체를 검출하고 분류하는 딥러닝 네트워크이다. 객체 검출/분류기(160)는 전술한 도 2에 제시된 객체 검출용 딥러닝 네트워크로 구현할 수 있다.
내부 센서 제어기(150)는 센서 정보 추출부(130)에 의해 추출된 내부 센서(120)의 파라미터와 객체 검출/분류기(160)에 의해 추정된 조도 정보를 기초로, IR 조명의 강도나 WDR(Wide Dynamic Range)을 능동적으로 조정한다.
차량 내부의 경우 IR cut filter를 사용하지 않는 RGBIR 센서의 경우 신호 처리 특성상 정상 조도에서의 색편향 문제 및 저조도 환경에서의 색 잡음, IR 투과율과 반사율이 서로 다른 물체들이 혼재된 환경이므로, 내부 센서 제어기(150)에 의한 조명과 셔터의 능동적 조정을 통해 균일한 화질을 확보한다.
이를 통해, 내부 센서(120)에 의해 생성되는 외부 영상 부분이 외부 환경(역광 상황, 저조도 상황 등)에 강인해질 수 있다.
장애물 검출기(170)는 내부 센서(120)에 의해 생성된 사각 지대의 영상을 분석하여, 장애물을 검출한다.
인지/판단부(180)는 객체 검출/분류기(160)에 의한 객체 객체 검출/분류 결과와 장애물 검출기(170)에 의한 사각 지대의 장애물 검출 결과를 기초로, 현재 상황을 인지하고, 위험을 판단하여, 필요시 경보를 발생시킨다.
도 5는 본 발명의 또 다른 실시예에 따른 다중 센서 처리 방법의 설명에 제공되는 흐름도이다.
도시된 바와 같이, 먼저, 센서 정보 추출부(130)가 센서들(110-1, 110-2, ..., 110-n, 120)에 대한 내부 파라미터와 외부 파라미터를 추출하고(S210), 캘리브레이션부(140)는 S210단계에서 추출된 파라미터들을 참조하여, 센서들(110-1, 110-2, 110-n, 120)에 대한 캘리브레이션을 수행한다(S220).
객체 검출/분류기(160)는 객체 검출용 딥러닝 네트워크에 외부 센서들(110-1, 110-2, 110-n)에 의해 생성된 이종의 영상들을 입력하여 영상에 존재하는 객체를 검출하고 분류한다(S230).
내부 센서 제어기(150)는 객체 검출/분류기(160)에 의해 추정된 조도 정보를 기초로, IR 조명의 강도나 내부 센서(120)의 WDR을 능동적으로 조정한다(S240).
장애물 검출기(170)는 내부 센서(120)에 의해 생성된 사각 지대의 영상을 분석하여, 장애물을 검출한다(S250).
인지/판단부(180)는 S230단계에 의한 객체 객체 검출/분류 결과와 S250단계에 의한 사각 지대의 장애물 검출 결과를 기초로, 현재 상황을 인지하고, 위험을 판단하여, 필요시 경보를 발생시킨다(S260).
지금까지, 차량용 다중 센서 딥러닝 처리 장치 및 방법에 대해 바람직한 실시예들을 들어 상세히 설명하였다.
본 발명의 실시예에서는, 막대한 연산을 최소화 할 수 있는 딥러닝 네트워크 구조를 적용하여, 임베디드 하드웨어에 구현 가능한 수준의 다중 센서 기반 객체 인지가 가능하게 하였다.
특히, 이종 센서와 더불어 신규 센서가 추가된 경우에도 동시 적용 가능한 구조를 제시하였고, 유연한 딥러닝 장치 및 신종 센서 입력에도 유지보수가 가능한 모델을 제시하였다.
본 발명의 실시예는, 단일 센서 기반의 처리와 더불어 이종의 센서 간의 딥러닝 처리를 위한 융합 기술의 적용으로 다양한 외부 센서 인터페이스에도 적용이 가능하다.
또한, 본 발명의 실시예에서는, 차량 내부에 설치된 센서를 활용하여, 차량 외부, 구체적으로는, 사각 지대의 상황/위험까지 모니터링할 수 있는 방법을 제시하였다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110-1, 110-2, ..., 110-n : 외부 센서
120 : 내부 센서
130 : 센서 정보 추출부
140 : 캘리브레이션부
150 : 내부 센서 제어기
160 : 객체 검출/분류기
170 : 장애물 검출기
180 : 인지/판단부
120 : 내부 센서
130 : 센서 정보 추출부
140 : 캘리브레이션부
150 : 내부 센서 제어기
160 : 객체 검출/분류기
170 : 장애물 검출기
180 : 인지/판단부
Claims (8)
- 제1 타입의 제1 영상을 입력받는 제1 입력단계;
제2 타입의 제2 영상을 입력받는 제2 입력단계;
입력된 제1 영상과 제2 영상을 인공지능 모델에 함께 입력하는 제3 입력단계;
인공지능 모델로 제1 영상의 특징과 제2 영상의 특징을 추출하는 단계; 및
추출된 제1 영상의 특징과 제2 영상을 이용하여, 객체를 검출하고 검출된 객체를 분류하는 검출 및 분류단계;를 포함하는 것을 특징으로 하는 다중 영상 처리 방법.
- 청구항 1에 있어서,
제1 영상을 이용하여, 조도를 추정하는 단계;를 더 포함하고,
제3 입력단계는,
추정된 조도 정보를 제1 영상 및 제2 영상과 함께 인공지능 모델에 입력하는 것을 특징으로 하는 다중 영상 처리 방법.
- 청구항 2에 있어서,
추출 단계는,
추정된 조도 정보를 더 이용하여, 제1 영상의 특징과 제2 영상의 특징을 추출하는 것을 특징으로 하는 다중 영상 처리 방법.
- 청구항 2에 있어서,
추정된 조도 정보를 참조하여, 차량 내부와 사각 지대에 대한 영상인 제3 영상을 생성하는 제3 센서의 WDR(Wide Dynamic Range)과 조명을 제어하는 단계;를 더 포함하는 것을 특징으로 하는 다중 영상 처리 방법.
- 청구항 4에 있어서,
제3 센서에서 생성된 제3 영상을 이용하여, 사각 지대의 장애물을 검출하는 단계;를 더 포함하는 것을 특징으로 하는 다중 영상 처리 방법.
- 청구항 5에 있어서,
검출 및 분류단계에서 검출 및 분류된 객체와 검출 단계에서 검출된 장애물을 기초로, 상황을 인지하고 위험을 판단하는 단계;를 더 포함하는 것을 특징으로 하는 다중 영상 처리 방법.
- 청구항 1에 있어서,
제1 영상은,
RGB 영상이고,
제2 영상은,
IR 영상인 것을 특징으로 하는 다중 영상 처리 방법.
- 제1 타입의 제1 영상을 생성하는 제1 센서;
제2 타입의 제2 영상을 생성하는 제2 센서; 및
제1 센서에 의해 생성된 제1 영상과 제2 센서에 의해 생성된 제2 영상을 인공지능 모델에 함께 입력하여, 인공지능 모델로 제1 영상의 특징과 제2 영상의 특징을 추출하고, 추출된 제1 영상의 특징과 제2 영상을 이용하여 객체를 검출하고 검출된 객체를 분류하는 객체 분류/검출기;를 포함하는 것을 특징으로 하는 다중 센서 처리 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190152984A KR102333107B1 (ko) | 2019-11-26 | 2019-11-26 | 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법 |
PCT/KR2019/016338 WO2021107171A1 (ko) | 2019-11-26 | 2019-11-26 | 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190152984A KR102333107B1 (ko) | 2019-11-26 | 2019-11-26 | 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210064591A true KR20210064591A (ko) | 2021-06-03 |
KR102333107B1 KR102333107B1 (ko) | 2021-11-30 |
Family
ID=76130605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190152984A KR102333107B1 (ko) | 2019-11-26 | 2019-11-26 | 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102333107B1 (ko) |
WO (1) | WO2021107171A1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537284A (zh) * | 2021-06-04 | 2021-10-22 | 中国人民解放军战略支援部队信息工程大学 | 基于拟态机制的深度学习实现方法及系统 |
WO2023277219A1 (ko) * | 2021-06-30 | 2023-01-05 | 한국전자기술연구원 | 환경 변화 적응형 특징 생성기를 적용한 차량용 경량 딥러닝 처리 장치 및 방법 |
KR20230048658A (ko) * | 2021-10-05 | 2023-04-12 | 한국전자기술연구원 | 깊이 영상으로부터 객체 검출 방법 및 장치 |
WO2023085464A1 (ko) * | 2021-11-12 | 2023-05-19 | 한국전자기술연구원 | 다중 채널 정보 추출기를 포함하는 경량 딥러닝 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180096101A (ko) * | 2017-02-20 | 2018-08-29 | 엘아이지넥스원 주식회사 | 지능형 적외선 대역 영상 융합 장치 및 방법 |
KR20190122606A (ko) * | 2019-10-11 | 2019-10-30 | 엘지전자 주식회사 | 차량 내 객체 모니터링 장치 및 방법 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101200974B1 (ko) * | 2010-11-19 | 2012-11-12 | 국방과학연구소 | 영상 표적 추출 시스템, 장치 및 방법 |
KR20160131261A (ko) * | 2015-05-06 | 2016-11-16 | 한화테크윈 주식회사 | 관심 영역을 감시하는 방법 |
KR101866676B1 (ko) * | 2017-01-03 | 2018-06-12 | 중앙대학교 산학협력단 | 다중 파장 영상을 이용한 객체 인식 장치 및 방법 |
-
2019
- 2019-11-26 WO PCT/KR2019/016338 patent/WO2021107171A1/ko active Application Filing
- 2019-11-26 KR KR1020190152984A patent/KR102333107B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180096101A (ko) * | 2017-02-20 | 2018-08-29 | 엘아이지넥스원 주식회사 | 지능형 적외선 대역 영상 융합 장치 및 방법 |
KR20190122606A (ko) * | 2019-10-11 | 2019-10-30 | 엘지전자 주식회사 | 차량 내 객체 모니터링 장치 및 방법 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537284A (zh) * | 2021-06-04 | 2021-10-22 | 中国人民解放军战略支援部队信息工程大学 | 基于拟态机制的深度学习实现方法及系统 |
CN113537284B (zh) * | 2021-06-04 | 2023-01-24 | 中国人民解放军战略支援部队信息工程大学 | 基于拟态机制的深度学习实现方法及系统 |
WO2023277219A1 (ko) * | 2021-06-30 | 2023-01-05 | 한국전자기술연구원 | 환경 변화 적응형 특징 생성기를 적용한 차량용 경량 딥러닝 처리 장치 및 방법 |
KR20230048658A (ko) * | 2021-10-05 | 2023-04-12 | 한국전자기술연구원 | 깊이 영상으로부터 객체 검출 방법 및 장치 |
WO2023085464A1 (ko) * | 2021-11-12 | 2023-05-19 | 한국전자기술연구원 | 다중 채널 정보 추출기를 포함하는 경량 딥러닝 장치 |
KR20230069334A (ko) * | 2021-11-12 | 2023-05-19 | 한국전자기술연구원 | 다중 채널 정보 추출기를 포함하는 경량 딥러닝 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR102333107B1 (ko) | 2021-11-30 |
WO2021107171A1 (ko) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102333107B1 (ko) | 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법 | |
KR102061445B1 (ko) | 가시광 및 적외선 융합 영상 기반 객체 검출 방법 및 장치 | |
US10339812B2 (en) | Surrounding view camera blockage detection | |
WO2018123360A1 (en) | Image processing device, image processing method, and image processing system | |
US10489664B2 (en) | Image processing device, device control system, and computer-readable storage medium | |
US11527077B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
US11970156B1 (en) | Parking assistance using a stereo camera and an added light source | |
US11715180B1 (en) | Emirror adaptable stitching | |
KR20160137247A (ko) | 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법 | |
KR102565778B1 (ko) | 객체 인식 방법 및 이를 수행하는 객체 인식 장치 | |
US11308641B1 (en) | Oncoming car detection using lateral emirror cameras | |
CN112750170B (zh) | 一种雾特征识别方法、装置及相关设备 | |
KR102686771B1 (ko) | 무인 선박 시스템의 상황인지 방법 및 장치 | |
US20190377082A1 (en) | System and method for detecting a vehicle in night time | |
KR20210066119A (ko) | 무인 항공기 영상 내 실시간 객체 검출 방법 및 장치 | |
KR20200102907A (ko) | 가시광 및 적외선 융합 영상 기반 객체 검출 방법 및 장치 | |
US20240027604A1 (en) | Extrinsic parameter calibration for 4d millimeter-wave radar and camera based on adaptive projection error | |
WO2018168182A1 (ja) | 移動体検出装置、移動体検出方法および移動体検出プログラム | |
US20230161399A1 (en) | Image recognition device and image recognition method | |
CN112752947A (zh) | 用于抑制在机动车的环境传感设备的摄像机的至少一个摄像机图像中的反射的成像的方法以及相对应的环境传感设备 | |
JP2021077061A (ja) | 障害物検知装置及び障害物検知方法 | |
US20220383146A1 (en) | Method and Device for Training a Machine Learning Algorithm | |
CN115665384A (zh) | 投影设备及投影设备的控制方法 | |
KR102107298B1 (ko) | 영상 분석 장치 및 방법 | |
KR102633340B1 (ko) | 다중 채널 정보 추출기를 포함하는 경량 딥러닝 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |