KR20200027789A - Image sysntehsis device and driving assitance system including the same - Google Patents

Image sysntehsis device and driving assitance system including the same Download PDF

Info

Publication number
KR20200027789A
KR20200027789A KR1020180106039A KR20180106039A KR20200027789A KR 20200027789 A KR20200027789 A KR 20200027789A KR 1020180106039 A KR1020180106039 A KR 1020180106039A KR 20180106039 A KR20180106039 A KR 20180106039A KR 20200027789 A KR20200027789 A KR 20200027789A
Authority
KR
South Korea
Prior art keywords
image
image data
weight
field
generate
Prior art date
Application number
KR1020180106039A
Other languages
Korean (ko)
Other versions
KR102146837B1 (en
Inventor
이정행
김재범
박찬영
정준호
Original Assignee
주식회사 옵트론텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 옵트론텍 filed Critical 주식회사 옵트론텍
Priority to KR1020180106039A priority Critical patent/KR102146837B1/en
Publication of KR20200027789A publication Critical patent/KR20200027789A/en
Application granted granted Critical
Publication of KR102146837B1 publication Critical patent/KR102146837B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

According to an exemplary embodiment of the present disclosure, an image integration device can comprise: a first camera module acquiring a visible light image from a field and generating first image data based on the visible light image; a second camera module acquiring an infrared image from the field and generating second image data based on the infrared image; a third camera module acquiring depth information of the field and generating third image data based on the depth information; and an image integration part generating first, second, and third weights corresponding to the first, second, and third image data respectively, and generating integrated image data from the first, second, and third image data based on the first, second, and third weights.

Description

이미지 통합 장치 및 이를 포함하는 운전 보조 시스템{IMAGE SYSNTEHSIS DEVICE AND DRIVING ASSITANCE SYSTEM INCLUDING THE SAME}Image integration device and driving assistance system including the same {IMAGE SYSNTEHSIS DEVICE AND DRIVING ASSITANCE SYSTEM INCLUDING THE SAME}

본 개시의 기술적 사상은 이미지 데이터 처리에 관한 것으로서, 자세하게는 3개의 상이한 카메라들로부터 수신된 이미지 데이터를 통합하기 위한 장치 및 이를 이용하는 운전 보조 시스템에 관한 것이다.The technical idea of the present disclosure relates to image data processing, and more particularly, to an apparatus for integrating image data received from three different cameras and a driving assistance system using the same.

일반적인 카메라는 사람이 눈으로 보는 것과 동일한 이미지, 즉 가시광선 이미지의 생성을 위하여 피사계(field)로부터 입사되는 가시광선을 감지할 수 있다. 그러나, 이러한 가시광선 카메라는 어두운 밤이나 연무 등과 같이 가시광선의 감지가 어려운 상황에서 유효한 이미지를 생성하지 못할 수 있다. 인물이나 풍경 등을 촬영하기 위한 카메라와 상이하게, CCTV, 블랙박스 등과 같이 피사계에서 발생하는 상황들을 촬영하는데 사용되는 카메라의 경우, 유효한 이미지를 생성하지 못하는 동안 유용성이 저하될 수 있다.A general camera can detect visible light incident from a field in order to generate the same image that a human eye sees, that is, a visible light image. However, such a visible light camera may not be able to generate an effective image in a situation in which it is difficult to detect visible light such as a dark night or haze. Unlike a camera for photographing a person or a landscape, in the case of a camera used to photograph situations occurring in the field of field such as CCTV, black box, etc., usefulness may be deteriorated while a valid image cannot be generated.

이러한 문제를 해결하기 위하여, 피사계로부터 입사되는 적외선을 감지하는 적외선 카메라가 가시광선 카메라와 함께 사용될 수 있다. 그러나, 적외선 카메라는 조도가 낮은 환경에서 유효한 이미지를 제공할 수 있으나, 파시계의 온도가 균등한 경우나 열감지가 어려운 상황에는 여전히 유효한 이미지를 제공할 수 없는 한계가 있다.To solve this problem, an infrared camera that detects infrared rays incident from the field of view can be used with the visible light camera. However, the infrared camera may provide an effective image in a low-light environment, but there is a limitation that the effective image cannot be provided even in a case where the temperature of the par-clock is uniform or heat sensing is difficult.

본 개시의 기술적 사상은, 사용자의 보조를 위하여 열악한 환경에서도 피사계의 정확한 이미지를 생성할 수 있는 이미지 통합 장치를 제공한다.The technical idea of the present disclosure provides an image integration device capable of generating an accurate image of a field of field even in a poor environment for assistance of a user.

상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상의 일측면에 따른 이미지 통합 장치는, 피사계(filed)로부터 가시광선 이미지를 획득하고 가시광선 이미지에 기초하여 제1 이미지 데이터를 생성하는 제1 카메라 모듈, 피사계로부터 적외선 이미지를 획득하고 적외선 이미지에 기초하여 제2 이미지 데이터를 생성하는 제2 카메라 모듈, 피사계에 대한 깊이 정보를 획득하고 깊이 정보에 기초하여 제3 이미지 데이터를 생성하는 제3 카메라 모듈, 및 제1, 제2 및 제3 이미지 데이터 각각에 대응하는 제1, 제2 및 제3 가중치를 생성하고, 제1, 제2 및 제3 가중치에 기초하여 제1, 제2 및 제3 이미지 데이터로부터 통합 이미지 데이터를 생성하는 이미지 통합부를 포함할 수 있다.In order to achieve the above object, an image integrating apparatus according to an aspect of the technical idea of the present disclosure is a first that acquires a visible light image from a filed and generates first image data based on the visible light image Camera module, a second camera module that acquires an infrared image from the depth of field and generates second image data based on the infrared image, a third camera that acquires depth information about the depth of field and generates third image data based on the depth information The module generates first, second, and third weights corresponding to the first, second, and third image data, respectively, and based on the first, second, and third weights, the first, second, and third And an image integrator generating integrated image data from the image data.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 피사계를 적어도 하나의 영역으로 분할하고, 하나의 영역에서 단일 제1 가중치, 단일 제2 가중치 및 단일 제3 가중치에 기초하여 하나의 영역에 대응하는 통합 이미지 데이터의 일부분을 생성할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator divides the field of view into at least one region and corresponds to one region based on a single first weight, a single second weight, and a single third weight in one region. Can generate a portion of the integrated image data.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 제1 이미지 데이터에 기초하여 피사계의 조도 정보를 획득하고, 조도 정보에 기초하여 피사계를 적어도 하나의 영역으로 분할할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator may acquire illumination information of the depth of field based on the first image data, and divide the depth of field into at least one area based on the illumination level information.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 제2 이미지 데이터에 기초하여 피사계의 온도 정보를 획득하고, 온도 정보에 기초하여 피사계를 적어도 하나의 영역으로 분할할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator may acquire temperature information of the field based on the second image data, and divide the field into at least one area based on the temperature information.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 깊이 정보에 기초하여 피사계를 적어도 하나의 영역으로 분할할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator may divide the depth of field into at least one area based on the depth information.

본 개시의 예시적 실시예에 따라, 적어도 하나의 영역 각각은, 단일폐곡선(simple closed curve)에 의해서 정의될 수 있다.According to an exemplary embodiment of the present disclosure, each of the at least one region may be defined by a simple closed curve.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 순차적으로 생성된 제3 이미지 데이터에 기초하여 적어도 하나의 영역의 속도를 추정하고, 추정된 속도에 기초하여 적어도 하나의 영역에 대응하는 제3 가중치를 변경할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator estimates a velocity of at least one region based on sequentially generated third image data, and a third corresponding to the at least one region based on the estimated velocity. The weight can be changed.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 적어도 하나의 영역에 대응하는 제1 가중치, 제2 가중치 및 제3 가중치 중 적어도 하나에 기초하여 적어도 하나의 영역을 강조하는 윈도우를 포함하도록 통합 이미지 데이터를 생성할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator is integrated to include a window that highlights at least one region based on at least one of a first weight, a second weight, and a third weight corresponding to the at least one region. You can create image data.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 2이상의 영역들에 대응하는 제1 가중치들, 제2 가중치들 및 제3 가중치들에 기초하여, 2이상의 영역들을 병합할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator may merge two or more regions based on first weights, second weights, and third weights corresponding to two or more regions.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 제1 이미지 데이터에 기초하여 피사계의 조도 정보를 획득하고, 제2 이미지 데이터에 기초하여 피사계의 온도 정보를 획득하고, 조도 정보, 온도 정보 및 깊이 정보 중 적어도 하나에 기초하여 제1 가중치, 제2 가중치 및 제3 가중치 각각을 생성할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator acquires illuminance information of the depth of field based on the first image data, acquires temperature information of the depth of field based on the second image data, and illuminance information, temperature information, and Each of the first weight, the second weight, and the third weight may be generated based on at least one of the depth information.

본 개시의 예시적 실시예에 따라, 제2 카메라 모듈은, 피사계로부터 수신되는 약 8 ㎛ 내지 약 12 ㎛ 파장 대역의 적외선으로부터 제2 이미지 데이터를 생성할 수 있다.According to an exemplary embodiment of the present disclosure, the second camera module may generate second image data from infrared rays in a wavelength band of about 8 μm to about 12 μm, which are received from a field of field.

본 개시의 기술적 사상의 일측면에 따른 운전 보조 시스템은, 통합 이미지 데이터를 생성하는 이미지 통합 장치, 및 통합 이미지 데이터에 기초하여 통합 이미지를 디스플레이하는 디스플레이 장치를 포함할 수 있고, 이미지 통합 장치는, 차량 주변으로부터 가시광선 이미지, 적외선 이미지 및 차량 주변에 대한 거리 정보를 각각 획득하는 제1, 제2 및 제3 카메라 모듈들, 및 제1, 제2 및 제3 카메라 모듈들로부터 각각 수신된 제1, 제2 및 제3 이미지 데이터에 기초하여 통합 이미지 데이터를 생성하는 이미지 통합부를 포함할 수 있다.A driving assistance system according to an aspect of the technical spirit of the present disclosure may include an image integrating device that generates integrated image data, and a display device that displays an integrated image based on the integrated image data, wherein the image integrating device includes: First, second and third camera modules for acquiring visible light images, infrared images, and distance information about the vehicle surroundings from the vehicle surroundings, and first received from the first, second, and third camera modules, respectively , An image integration unit generating integrated image data based on the second and third image data.

본 개시의 예시적 실시예에 따라, 이미지 통합 장치는, 제1, 제2 및 제3 이미지 데이터 각각에 대응하는 제1, 제2 및 제3 가중치를 생성하고, 제1, 제2 및 제3 가중치에 기초하여 통합 이미지 데이터를 생성할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator generates first, second, and third weights corresponding to the first, second, and third image data, respectively, and the first, second, and third Integrated image data may be generated based on the weight.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 피사계를 적어도 하나의 영역으로 분할하고, 하나의 영역에서 단일 제1 가중치, 단일 제2 가중치 및 단일 제3 가중치에 기초하여 하나의 영역에 대응하는 통합 이미지 데이터의 일부분을 생성할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator divides the field of view into at least one region and corresponds to one region based on a single first weight, a single second weight, and a single third weight in one region. Can generate a portion of the integrated image data.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 차량 주변의 조도에 대한 조도 정보 및 차량의 주행등이 조사되는 영역에 대한 주행등 정보를 획득하고, 조도 정보 및 주행등 정보에 기초하여, 차량 주변의 조도가 낮은 경우 차량의 주행등이 조사되는 영역에 대응하는 제1 가중치를 증가시키고 차량의 주행등이 조사되는 영역을 제외한 영역에 대응하는 제1 가중치를 감소시킬 수 있다.According to an exemplary embodiment of the present disclosure, the image integrating unit acquires illumination information about the ambient light around the vehicle and driving light information about an area where the driving light of the vehicle is irradiated, and based on the illumination information and the driving light information, When the ambient light around the vehicle is low, the first weight corresponding to the area where the driving light of the vehicle is irradiated may be increased, and the first weight corresponding to the area excluding the area where the driving light of the vehicle is irradiated may be decreased.

본 개시의 예시적 실시예에 따라, 이미지 통합부는, 거리 정보에 기초하여 경고 신호를 생성할 수 있고, 경고 신호에 기초하여 운전자가 인식가능한 신호를 생성하는 출력 장치를 더 포함할 수 있다.According to an exemplary embodiment of the present disclosure, the image integrator may further include an output device capable of generating a warning signal based on the distance information, and generating a signal recognizable by the driver based on the warning signal.

본 개시의 예시적 실시예에 따른 이미지 통합 장치 및 운전 보조 시스템에 의해서, 시계가 열악한 조건뿐만 아니라 피사체의 열감지가 어려운 상황에서도 피사계를 정확하게 나타내는 이미지가 획득될 수 있다.By the image integrating device and the driving assistance system according to the exemplary embodiment of the present disclosure, an image accurately representing the depth of field can be obtained even in a situation in which the field of view is difficult to detect, as well as in a poor viewing condition.

또한, 본 개시의 예시적 실시예에 따른 이미지 통합 장치 및 운전 보조 시스템에 의해서, 운전자의 시야를 보조할 뿐만 아니라 위험을 예측하고 경고함으로써 운전자의 안전은 물론 보행자의 안전 및 재산상 손해가 예방될 수 있다.In addition, the image integration device and the driving assistance system according to the exemplary embodiment of the present disclosure not only assist the driver's vision, but also predict and warn of danger, thereby preventing driver's safety as well as pedestrian safety and property damage. You can.

본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.The effects obtainable in the exemplary embodiments of the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned are common knowledge in the art to which the exemplary embodiments of the present disclosure belong from the following description. It can be clearly drawn and understood by those who have it. In other words, unintended effects of practicing exemplary embodiments of the present disclosure may also be derived by one of ordinary skill in the art from the exemplary embodiments of the present disclosure.

도 1은 본 개시의 예시적 실시예에 따른 이미지 통합 장치를 나타내는 블록도이다.
도 2a 내지 도 2c는 본 개시의 예시적 실시예들에 따라 피사계를 촬영한 이미지의 예시들을 나타낸다.
도 3은 본 개시의 예시적 실시예에 따른 도 1의 이미지 통합부의 예시를 나타낸다.
도 4는 본 개시의 예시적 실시예에 따른 피사계의 예시를 나타내는 도면이다.
도 5는 본 개시의 예시적 실시예에 따라 분할된 영역들을 포함하는 피사계의 예시를 나타낸다.
도 6은 본 개시의 예시적 실시예에 따라 통합 이미지 생성 동작의 예시를 나타낸다.
도 7은 본 개시의 예시적 실시예에 따른 운전 보조 시스템을 나타내는 블록도이다.
도 8은 본 개시의 예시적 실시예에 따라 도 7의 디스플레이 장치의 디스플레이의 예시를 나타낸다.
도 9a 및 도 9b는 본 개시의 예시적 실시예에 따른 이미지 통합부의 동작을 설명하기 위한 도면들이다.
도 10은 본 개시의 예시적 실시예에 따른 통합 이미지 생성 방법을 나타내는 도면이다.
도 11은 본 개시의 예시적 실시예에 따른 통합 이미지 장치를 포함하는 차량을 나타내는 도면이다.
1 is a block diagram illustrating an image integration apparatus according to an exemplary embodiment of the present disclosure.
2A to 2C show examples of an image photographed with a depth of field according to example embodiments of the present disclosure.
3 shows an example of the image integrator of FIG. 1 in accordance with an exemplary embodiment of the present disclosure.
4 is a diagram showing an example of a depth of field according to an exemplary embodiment of the present disclosure.
5 shows an example of a field of view including divided regions according to an exemplary embodiment of the present disclosure.
6 shows an example of an integrated image creation operation in accordance with an exemplary embodiment of the present disclosure.
7 is a block diagram illustrating a driving assistance system according to an exemplary embodiment of the present disclosure.
8 shows an example of a display of the display device of FIG. 7 in accordance with an exemplary embodiment of the present disclosure.
9A and 9B are diagrams for describing an operation of the image integrator according to an exemplary embodiment of the present disclosure.
10 is a diagram illustrating a method for generating an integrated image according to an exemplary embodiment of the present disclosure.
11 is a diagram illustrating a vehicle including an integrated imaging device according to an exemplary embodiment of the present disclosure.

이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다. 본 발명의 실시 예는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나 축소하여 도시한 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. The present invention can be applied to various changes and may have various forms, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to a specific disclosure form, and it should be understood that all modifications, equivalents, and substitutes included in the spirit and scope of the present invention are included. In describing each drawing, similar reference numerals are used for similar components. In the accompanying drawings, the dimensions of the structures are shown to be enlarged or reduced than actual to clarify the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "include" or "have" are intended to indicate the presence of features, numbers, steps, actions, elements, parts or combinations thereof described in the specification, one or more other features. It should be understood that the presence or addition possibilities of fields or numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and are not to be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. .

도 1은 본 개시의 예시적 실시예에 따른 이미지 통합 장치(100)를 나타내는 블록도이다. 도 1에 도시된 바와 같이, 이미지 통합 장치(100)는 피사계(5)를 촬영함으로써 피사계(5)를 나타내는 통합 이미지 데이터(IMG)를 생성할 수 있다. 이미지 통합 장치(100)는 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제3 카메라 모듈(130)을 포함할 수 있고, 이미지 통합부(140)를 포함할 수 있다.1 is a block diagram illustrating an image integrating apparatus 100 according to an exemplary embodiment of the present disclosure. As shown in FIG. 1, the image integrating apparatus 100 may generate integrated image data IMG representing the field 5 by photographing the field 5. The image integration device 100 may include a first camera module 110, a second camera module 120, and a third camera module 130, and may include an image integration unit 140.

제1 카메라 모듈(110)은 피사계(5)로부터 가시광선 이미지를 획득할 수 있고, 획득된 가시광선 이미지에 기초하여 제1 이미지 데이터(IMG1)를 생성할 수 있다. 본 명세서에서 제1 카메라 모듈(110)은 가시광선 카메라 또는 가시광선 카메라 모듈로서 지칭될 수 있다. 가시광선은, 예컨대 약 450㎚내지 약 650㎚ 사이 파장을 가지는 전자기파 또는 파장의 범위를 지칭할 수 있다. 일부 실시예들에서, 제1 카메라 모듈(110)은 렌즈, 조리개, 이미지 센서, 이미지 프로세서 등을 포함할 수 있고, 제1 카메라 모듈(110)에 포함된 이미지 센서는, 가사광선을 감지함으로써 전기적 신호를 생성하는 복수의 픽셀들이 배열된 픽셀 어레이를 포함할 수 있다. 이미지 프로세서는 픽셀 어레이로부터 수신된 신호를 처리함으로써 피사계(5)의 가시광선 이미지에 대응하는 제1 이미지 데이터(IMG1)를 생성할 수 있다.The first camera module 110 may acquire a visible light image from the depth of field 5 and generate first image data IMG1 based on the obtained visible light image. In the present specification, the first camera module 110 may be referred to as a visible light camera or a visible light camera module. Visible light, for example, may refer to an electromagnetic wave or a range of wavelengths having a wavelength between about 450 nm and about 650 nm. In some embodiments, the first camera module 110 may include a lens, an aperture, an image sensor, an image processor, and the like, and the image sensor included in the first camera module 110 may be electrically operated by sensing household light. A pixel array in which a plurality of pixels generating a signal are arranged may be included. The image processor may generate the first image data IMG1 corresponding to the visible light image of the depth of field 5 by processing the signal received from the pixel array.

제2 카메라 모듈(120)은 피사계(50)로부터 적외선 이미지를 획득할 수 있고, 획득된 적외선 이미지에 기초하여 제2 이미지 데이터(IMG2)를 생성할 수 있다. 본 명세서에서 제2 카메라 모듈(120)은 적외선 카메라 또는 적외선 카메라 모듈로서 지칭될 수 있다. 적외선은, 예컨대 약 750㎚내지 1㎜ 사이 파장을 가지는 전자기파 또는 파장의 범위를 지칭할 수 있다. 일부 실시예들에서, 제2 카메라 모듈(120)은 렌즈, 조리개, 이미지 센서, 이미지 프로세서 등을 포함할 수 있고, 제2 카메라 모듈(120)에 포함된 이미지 센서는, 적외선을 감지함으로써 전기적 신호를 생성하는 복수의 픽셀들이 배열된 픽셀 어레이를 포함할 수 있다. 예를 들면, 도 1에 도시된 바와 같이, 제2 카메라 모듈(120)에 포함된 이미지 센서는, 예컨대 약 8㎛ 내지 12㎛ 사이 파장의 원적외선을 감지할 수 있다. 절대온도 이상의 모든 물체는 적외선을 방사할 수 있고 온도에 따라 적외선 방사량이 결정되므로, 야간이나 터널 내부와 같이 피사계(5)의 조도가 낮은 상황에서도, 제2 카메라 모듈(120)은 피사계(5)에 포함된 피사체들이 식별된 적외선 이미지에 대응하는, 제2 이미지 데이터(IMG2)를 생성할 수 있다.The second camera module 120 may acquire an infrared image from the depth of field 50 and generate second image data IMG2 based on the acquired infrared image. In the present specification, the second camera module 120 may be referred to as an infrared camera or infrared camera module. Infrared light may refer to a range of electromagnetic waves or wavelengths, for example, having a wavelength between about 750 nm and 1 mm. In some embodiments, the second camera module 120 may include a lens, aperture, image sensor, image processor, and the like, and the image sensor included in the second camera module 120 may detect an infrared signal to detect electrical signals. It may include a pixel array in which a plurality of pixels generating. For example, as illustrated in FIG. 1, the image sensor included in the second camera module 120 may detect, for example, far infrared rays having a wavelength between about 8 μm and 12 μm. Since all objects above the absolute temperature can emit infrared rays and the amount of infrared radiation is determined according to the temperature, the second camera module 120 can be used to measure the depth of field 5 even at low illumination conditions, such as at night or inside a tunnel. Subjects included in may generate second image data IMG2 corresponding to the identified infrared image.

제3 카메라 모듈(130)은 피사계(5)에 대한 깊이 정보를 획득할 수 있고, 깊이 정보에 기초하여 제3 이미지 데이터(IMG3)를 생성할 수 있다. 본 명세서에서 제3 카메라 모듈(130)은 깊이 카메라 또는 깊이 카메라 모듈로서 지칭될 수 있다. 깊이 정보는 제3 카메라 모듈(130)(또는 이미지 통합 장치(100))로부터 피사계(5)에 포함된 피사체들의 거리 정보를 지칭할 수 있다. 일부 실시예들에서, 제3 카메라 모듈(130)은 광원, 렌즈, 픽셀 어레이, 컨트롤러를 포함할 수 있고, 픽셀 어레이는 광원으로부터 출력된 빛이 피사계(5)에 반사됨으로써 수신되는 빛을 감지할 수 있다. 예를 들면, 광원은 LED(Light Emitting Device)를 포함할 수도 있고, VCSEL(Vertical Cavity Surface Emitting Laser)와 같은 레이저 소자를 포함할 수도 있다. 광원은 컨트롤러가 생성한 변조된(modulated) 신호에 따라 변조된 빛을 출력할 수 있고, 필셀 어레이는 피사체에서 반사된 빛을 감지함으로써 생성된 전기적 신호를 컨트롤러에 제공할 수 있다. 컨트롤러는 수신된 신호에서 발생한 변이를 검출할 수 있고, 변이에 기초하여 TOF(Time Of Flight)를 추정할 수 있다. 컨트롤러는 추정된 TOF에 따라 피사계(5)의 깊이 정보를 생성할 수 있고, 피사계(5)에 대한 깊이 정보를 포함하는 제3 이미지 데이터(IMG3)를 생성할 수 있다. 이에 따라, 시계가 불투명한 조건뿐만 아니라 열감지가 어려운 피사체, 예컨대 높은 온도의 발열체와 인접한 피사체들에 대해서도 제3 카메라 모듈(130)은 해당 피사체와의 거리 정보를 획득할 수 있고, 제3 이미지 데이터(IMG3)는 그러한 거리 정보(또는 깊이 정보)를 포함할 수 있다.The third camera module 130 may acquire depth information about the depth of field 5 and generate third image data IMG3 based on the depth information. In the present specification, the third camera module 130 may be referred to as a depth camera or depth camera module. Depth information may refer to distance information of subjects included in the depth of field 5 from the third camera module 130 (or the image integration device 100). In some embodiments, the third camera module 130 may include a light source, a lens, a pixel array, and a controller, and the pixel array detects light received by reflecting light output from the light source to the depth of field 5. You can. For example, the light source may include a light emitting device (LED) or a laser device such as a vertical cavity surface emitting laser (VCSEL). The light source may output light modulated according to a modulated signal generated by the controller, and the pilcell array may provide the generated electrical signal to the controller by sensing the light reflected from the subject. The controller may detect a variation occurring in the received signal, and estimate a Time Of Flight (TOF) based on the variation. The controller may generate depth information of the depth of field 5 according to the estimated TOF, and may generate third image data IMG3 including depth information of the depth of field 5. Accordingly, the third camera module 130 may acquire distance information to the subject, not only in an opaque condition for a watch, but also for a subject that is difficult to sense heat, for example, a subject that is adjacent to a high-temperature heating element. The data IMG3 may include such distance information (or depth information).

이미지 통합부(140)는 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제3 카메라 모듈(130)을 제어할 수 있다. 또한, 이미지 통합부(140)는 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제3 카메라 모듈(130)로부터 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)를 각각 수신할 수 있고, 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)를 통합함으로써 통합 이미지 데이터(IMG)를 생성할 수 있다. 시계가 좋은 상태에서는 제1 카메라 모듈(110)이 출력하는 제1 이미지 데이터(IMG1)가 피사계(5)를 양호하게 나타낼 수 있는 한편, 시계가 열악한 상태에서는 제2 카메라 모듈(120)이 출력하는 제2 이미지 데이터(IMG2) 및/또는 제3 카메라 모듈(130)이 출력하는 제3 이미지 데이터(IMG3)가 피사계(5)를 나타내는데 사용될 수 있다. 이에 따라, 통합 이미지 데이터(IMG)는 다양한 조건들에서도 피사계(5)를 정확하게 나타낼 수 있다.The image integration unit 140 may control the first camera module 110, the second camera module 120, and the third camera module 130. In addition, the image integration unit 140 includes first image data IMG1, second image data IMG2, and first images from the first camera module 110, the second camera module 120, and the third camera module 130. Each of the three image data IMG3 can be received, and the integrated image data IMG can be generated by integrating the first image data IMG1, the second image data IMG2, and the third image data IMG3. . The first image data IMG1 output by the first camera module 110 in a good watch state can satisfactorily represent the depth of field 5, while the second camera module 120 outputs in a poor watch state. The second image data IMG2 and / or the third image data IMG3 output by the third camera module 130 may be used to represent the depth of field 5. Accordingly, the integrated image data IMG can accurately represent the field 5 even under various conditions.

일부 실시예들에서, 이미지 통합부(140)는 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)를 생성할 수 있고, 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)에 기초하여 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)로부터 통합 이미지 데이터(IMG)를 생성할 수 있다. 이미지 통합부(140)에 대한 자세한 내용은 도 3 등을 참조하여 후술될 것이다.In some embodiments, the image integrator 140 may generate the first weight W1, the second weight W2, and the third weight W3, and the first weight W1 and the second weight W The integrated image data IMG may be generated from the first image data IMG1, the second image data IMG2, and the third image data IMG3 based on the W2) and the third weight W3. Details of the image integration unit 140 will be described later with reference to FIG. 3 and the like.

도 2a 내지 도 2c는 본 개시의 예시적 실시예들에 따라 피사계를 촬영한 이미지의 예시들을 나타낸다. 구체적으로, 도 2a 내지 도 2c는 시계가 열악한 상태에서 피사계를 촬영한 가시광선 이미지 및 적외선 이미지를 나타내고, 적외선 이미지는 가시광선 이미지 프레임의 우측 하단에 도시된다. 도 1을 참조하여 전술된 바와 같이, 시계가 열악한 상태에서 제1 카메라 모듈(110)이 출력하는 제1 이미지 데이터(IMG1)는 피사계(5)를 양호하게 나타내지 아니할 수 있다.2A to 2C show examples of an image photographed with a depth of field according to example embodiments of the present disclosure. Specifically, FIGS. 2A to 2C show a visible light image and an infrared image taken with a field of view when the watch is in poor condition, and the infrared image is shown at the bottom right of the visible light image frame. As described above with reference to FIG. 1, the first image data IMG1 output by the first camera module 110 while the watch is in poor condition may not represent the field 5 satisfactorily.

피사계의 조도가 낮은 경우, 피사체는 가시광선 이미지에서 식별가능하게 표시되지 아니할 수 있다. 예를 들면, 도 2a에 도시된 바와 같이, 어두운 밤에 촬영된 가시광선 이미지에서 가시광을 방사하지 아니하는 피사체, 예컨대 사람 등은 가시광선 이미지에서 식별가능하게 표시되지 아니할 수 있다. 다른 한편으로, 도 2a의 우측 하단에 도시된 바와 같이, 적외선 이미지의 경우, 피사체의 온도(즉, 체온)에 기인하여 피사체가 선명하게 표시될 수 있다.When the illuminance of the depth of field is low, the subject may not be identifiably displayed in the visible light image. For example, as shown in FIG. 2A, an object that does not emit visible light in a visible light image photographed at a dark night, for example, a person, etc., may not be identifiably displayed in the visible light image. On the other hand, as shown in the lower right of FIG. 2A, in the case of an infrared image, the subject may be clearly displayed due to the temperature (ie, body temperature) of the subject.

피사계에서 조도 차이가 큰 경우, 피사체는 가시광선 이미지에서 식별가능하게 표시되지 아니할 수 있다. 예를 들면, 도 2b에 도시된 바와 같이, 터널에서 탈출하는 동안 촬영된 가시광선 이미지에서 조도가 높은 터널 외부에 존재하는 피사체, 예컨대 차량 등은 가시광선 이미지에서 식별가능하게 표시되지 아니할 수 있다. 다른 한편으로, 도 2b의 우측 하단에 도시된 바와 같이, 적외선 이미지의 경우, 피사체의 온도(즉, 차량 온도)에 기인하여 피사체가 선명하게 표시될 수 있다.When the difference in illuminance is large in the depth of field, the subject may not be identifiably displayed in the visible light image. For example, as illustrated in FIG. 2B, in a visible light image photographed while escaping from a tunnel, a subject existing outside the tunnel with high illumination may not be identifiably displayed in the visible light image. On the other hand, as shown in the lower right of FIG. 2B, in the case of an infrared image, the subject may be clearly displayed due to the temperature of the subject (ie, the vehicle temperature).

시계가 불투명한 경우, 피사체는 가시광선 이미지에서 식별가능하게 표시되지 아니할 수 있다. 예를 들면, 도 2c에 도시된 바와 같이, 카메라 모듈(예컨대, 도 1의 110) 및 피사계 사이에 연무가 발생한 경우, 가시광선 이미지에서 연무의 후방에 위치하는 피사체, 예컨대 사람 등은 가시광선 이미지에서 식별가능하게 표시되지 아니할 수 있다. 다른 한편으로, 도 2c의 우측 하단에 도시된 바와 같이, 적외선 이미지의 경우, 피사체의 온도(즉, 체온)에 기인하여 피사체가 선명하게 표시될 수 있다. 이와 같이, 피사계를 가시광선 이미지 만으로 정확하게 나타낼 수 없는 경우에도, 적외선 이미지는 피사계에 포함된 피사체를 정확하게 나타낼 수 있다.When the field of view is opaque, the subject may not be identifiably displayed in the visible light image. For example, as shown in FIG. 2C, when a haze occurs between a camera module (eg, 110 in FIG. 1) and a field of view, a subject located at the rear of the haze in the visible light image, such as a person, can see the visible light image It may not be displayed identifiably in. On the other hand, as shown in the lower right of FIG. 2C, in the case of an infrared image, the subject may be clearly displayed due to the temperature (ie, body temperature) of the subject. As described above, even when the field of view cannot be accurately represented by only the visible light image, the infrared image can accurately represent the subject included in the field of view.

또한, 도 1을 참조하여 전술된 바와 같이, 제3 카메라 모듈(130)이 출력하는 제3 이미지 데이터(IMG3)는 피사계(5)에 대한 깊이 정보를 포함할 수 있다. 피사계의 피사체들에 대한 깊이 정보가 획득될 수 있고, 획득된 깊이 정보는 이미지 형태로 표현될 수 있다. 예를 들면, 이미지에 포함된 픽셀들 각각은 깊이 정보를 가질 수 있고, 근사적으로 동일한 깊이에 대응하는 픽셀들이 등고선으로 경계 지어지는 하나의 영역으로 도시될 수 있고, 이에 따라 깊이 정보를 포함하는 이미지에서 객체, 예컨대 사람이 식별가능하게 표시될 수 있다.In addition, as described above with reference to FIG. 1, the third image data IMG3 output by the third camera module 130 may include depth information about the depth of field 5. Depth information about the subjects in the field can be obtained, and the acquired depth information can be expressed in the form of an image. For example, each of the pixels included in the image may have depth information, and pixels corresponding to the same depth may be shown as one region bounded by a contour line, and thus include depth information. In the image, an object, such as a person, can be displayed identifiably.

도 3은 본 개시의 예시적 실시예에 따른 도 1의 이미지 통합부(140)의 예시를 나타낸다. 도 1을 참조하여 전술된 바와 같이, 도 3의 이미지 통합부(140')는 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)로부터 통합 이미지 데이터(IMG)를 생성할 수 있다. 도 2a 내지 도 2c 를 참조하여 전술된 바와 같이, 가시광선 이미지뿐만 아니라 적외선 이미지 및 깊이 정보를 이용하는 경우, 피사체를 보다 정확하게 식별하는 이미지의 생성이 가능할 수 있다. 이미지 통합부(140')는 가시광선 이미지에 대응하는 제1 이미지 데이터(IMG1), 적외선 이미지에 대응하는 제2 이미지 데이터(IMG2) 및 깊이 정보를 포함하는 제3 이미지 데이터(IMG3)를 사용하여 악조건에서도 피사계를 정확하게 나타내는 통합 이미지 데이터(IMG)를 생성할 수 있다. 3 shows an example of the image integrator 140 of FIG. 1 according to an exemplary embodiment of the present disclosure. As described above with reference to FIG. 1, the image integration unit 140 ′ of FIG. 3 includes integrated image data IMG from the first image data IMG1, the second image data IMG2, and the third image data IMG3. ). As described above with reference to FIGS. 2A to 2C, when using not only a visible light image but also an infrared image and depth information, it may be possible to generate an image that more accurately identifies a subject. The image integration unit 140 'uses the first image data IMG1 corresponding to the visible light image, the second image data IMG2 corresponding to the infrared image, and the third image data IMG3 including depth information. Even in adverse conditions, it is possible to generate integrated image data (IMG) that accurately represents the depth of field.

일부 실시예들에서, 이미지 통합부(140')의 동작들은 동작들에 대응하는 명령어들을 포함하는 프로그램 코드를 실행하는 적어도 하나의 프로세서에 의해서 수행될 수 있다. 명령어들은 메모리에 저장될 수 있고, 프로세서는 하드웨어로 구현된 데이터 처리 장치로서, 예컨대 코드 및/또는 프로그램에 포함된 명령어들로서 표현된 동작들을 포함하는 원하는 동작들을 실행하도록 물리적으로 구조화된 회로를 포함할 수 있다. 일부 실시예들에서, 하드웨어로 구현된 데이터 처리 장치는, 비제한적인 예시로서 마이크로프로세서, CPU(Central Processing Unit), 프로세서 코어, 멀티-코어 프로세서, 멀티프로세서, ASIC(Application Specific Integrated Circuit) 및 FPGA(Field Programmable Gate Array)를 포함할 수 있다.In some embodiments, the operations of the image integrator 140 ′ may be performed by at least one processor executing program code including instructions corresponding to the operations. The instructions can be stored in memory, and the processor is a data processing device implemented in hardware, including circuitry that is physically structured to perform desired operations, including operations represented as instructions contained in code and / or programs, for example. You can. In some embodiments, a data processing device implemented in hardware includes, as non-limiting examples, a microprocessor, central processing unit (CPU), processor core, multi-core processor, multiprocessor, application specific integrated circuit (ASIC), and FPGA (Field Programmable Gate Array).

영역 분할부(142)는 피사계를 복수의 영역들(R1,...,Rn)로 분할할 수 있다. 복수의 영역들(R1,...,Rn) 각각은, 공통되는 특징을 가지는 픽셀들의 집합일 수 있고, 도 5를 참조하여 후술되는 바와 같이, 단일 폐곡선에 의해서 정의될 수 있다. 후술되는 바와 같이, 하나의 영역에 포함된 픽셀들은 동일한 가중치 집합의 가중치들에 의해서 처리될 수 있다. 일부 실시예들에서, 영역 분할부(142)는 가중치 생성부(144)가 생성하는 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)를 수신할 수 있고, 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)에 기초하여 2이상의 영역들을 병합할 수도 있다. 예를 들면, 상호 인접한 영역들에 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)가 모두 미리 정해진 기준치들 이하인 경우, 양 영역들은 상호 병합될 수 있다. The region dividing unit 142 may divide a field into a plurality of regions R1, ..., Rn. Each of the plurality of regions R1, ..., Rn may be a set of pixels having a common characteristic, and may be defined by a single closed curve, as described below with reference to FIG. 5. As described later, pixels included in one region can be processed by weights of the same weight set. In some embodiments, the region division unit 142 may receive the first weight W1, the second weight W2, and the third weight W3 generated by the weight generator 144, and the first Two or more regions may be merged based on the weight W1, the second weight W2, and the third weight W3. For example, when the first weight W1, the second weight W2, and the third weight W3 are adjacent to the mutually adjacent regions, both regions may be merged with each other.

일부 실시예들에서, 영역 분할부(142)는 제1 이미지 데이터(IMG1)에 기초하여 피사계의 조도 정보를 획득할 수 있고, 획득된 조도 정보에 기초하여 피사계를 적어도 하나의 영역으로 분할할 수 있다. 예를 들면, 영역 분할부(142)는 제1 이미지 데이터(IMG1)의 각 픽셀이 나타내는 조도를 적어도 하나의 기준치와 비교할 수 있고, 적어도 하나의 기준치에 따라 동일하게 분류되는 픽셀들을 하나의 영역으로 정의할 수 있다. 이에 따라, 도 2a의 어두운 부분이 하나의 영역으로 분할될 수도 있고, 도 2b의 밝은 부분이 하나의 영역으로 분할될 수도 있으며, 이러한 영역들은 제1 이미지 데이터(IMG1)에 대응하는 가시광선 이미지의 픽셀 값들보다 적외선 이미지의 픽셀 값 및/또는 깊이에 보다 의존하도록 통합 이미지 데이터(IMG)가 생성될 수 있다. 일부 실시예들에서, 적어도 하나의 기준치와 비교되는 조도는, 전체 피사체의 조도에 대하여 정규화된 조도일 수도 있고, 적어도 하나의 기준치 역시 전체 피사체의 조도 분포(예컨대, 분산 등)에 기초하여 결정될 수 있다.In some embodiments, the region dividing unit 142 may acquire illuminance information of the depth of field based on the first image data IMG1, and may divide the depth of field into at least one region based on the acquired illuminance information. have. For example, the region dividing unit 142 may compare the illuminance represented by each pixel of the first image data IMG1 with at least one reference value, and divide pixels equally classified according to at least one reference value into one region Can be defined. Accordingly, the dark portion of FIG. 2A may be divided into one region, and the bright portion of FIG. 2B may be divided into one region, and these regions may be used for the visible light image corresponding to the first image data IMG1. Integrated image data (IMG) may be generated to be more dependent on the pixel value and / or depth of the infrared image than the pixel values. In some embodiments, the illuminance compared to the at least one reference value may be normalized illuminance with respect to the illuminance of the entire subject, and the at least one reference value may also be determined based on the illuminance distribution (eg, variance, etc.) of the entire subject. have.

일부 실시예들에서, 영역 분할부(142)는 제2 이미지 데이터(IMG2)에 기초하여 피사계의 온도 정보를 획득할 수 있고, 획득된 온도 정보에 기초하여 피사계를 적어도 하나의 영역으로 분할할 수 있다. 예를 들면, 영역 분할부(142)는 제2 이미지 데이터(IMG2)의 각 픽셀이 나타내는 온도를 적어도 하나의 기준치와 비교할 수 있고, 적어도 하나의 기준치에 따라 동일하게 분류되는 픽셀들을 하나의 영역으로 정의할 수 있다. 이에 따라, 체온 또는 주행중의 차량과 같이 일정한 범위의 온도를 가지는 피사체가 하나의 영역으로 분할될 수 있고, 이러한 영역들은 상대적으로 제2 이미지 데이터(IMG2)에 대응하는 적외선 이미지의 픽셀 값들이 강조된 통합 이미지 데이터(IMG)가 생성될 수 있다. 일부 실시예들에서, 적어도 하나의 기준치와 비교되는 온도는, 전체 피사체의 온도에 대하여 정규화된 온도일 수도 있고, 적어도 하나의 기준치 역시 전체 피사체의 온도 분포(예컨대, 분산 등)에 기초하여 결정될 수 있다.In some embodiments, the region dividing unit 142 may acquire temperature information of the field based on the second image data IMG2, and may divide the field into at least one region based on the obtained temperature information. have. For example, the region dividing unit 142 may compare the temperature represented by each pixel of the second image data IMG2 with at least one reference value, and pixels that are equally classified according to the at least one reference value into one region Can be defined. Accordingly, a subject having a certain range of temperature, such as a body temperature or a driving vehicle, may be divided into one area, and these areas are relatively integrated with pixel values of an infrared image corresponding to the second image data IMG2. Image data (IMG) may be generated. In some embodiments, the temperature compared to the at least one reference value may be a temperature normalized to the temperature of the entire subject, and the at least one reference value may also be determined based on the temperature distribution (eg, dispersion, etc.) of the entire subject. have.

일부 실시예들에서, 영역 분할부(142)는 제3 이미지 데이터(IMG3)에 기초하여 피사계의 깊이 정보를 획득할 수 있고, 획득된 깊이 정보에 기초하여 피사계를 적어도 하나의 영역으로 분할할 수 있다. 예를 들면, 영역 분할부(142)는 제3 이미지 데이터(IMG3)의 각 픽셀에 대응하는 깊이를 적어도 하나의 기준치와 비교할 수 있고, 적어도 하나의 기준치에 따라 동일하게 분류되는 픽셀들을 하나의 영역으로 정의할 수 있다. 이에 따라, 매우 근접한 보행자, 차량, 기타 구조물이 하나의 영역으로 분할될 수 있고, 이러한 영역들은 상대적으로 제3 이미지 데이터(IMG3)에 대응하는 깊이 정보가 강조된 통합 이미지 데이터(IMG)가 생성될 수 있다. In some embodiments, the region dividing unit 142 may acquire depth information of the depth of field based on the third image data IMG3, and may divide the depth of field into at least one region based on the acquired depth information. have. For example, the region dividing unit 142 may compare a depth corresponding to each pixel of the third image data IMG3 with at least one reference value, and pixels that are equally classified according to at least one reference value in one region Can be defined as Accordingly, very close pedestrians, vehicles, and other structures may be divided into one area, and these areas may generate integrated image data (IMG) in which depth information corresponding to the third image data (IMG3) is relatively emphasized. have.

일부 실시예들에서, 영역 분할부(142)는 과거에 순차적으로 생성된 제3 이미지 데이터(IMG3)에 기초하여 영역의 속도를 추정할 수 있고, 추정된 속도를 적어도 하나의 기준치와 비교함으로써 현재 피사계를 적어도 하나의 영역으로 분할할 수도 있다. 예를 들면, 영역 분할부(142)는 실질적으로 동일한 기울기로 깊이(또는 거리)가 감소하거나 증가하는 픽셀들을 하나의 영역으로서 분할할 수 있다. 영역 분할부(142) 동작의 예시는 도 4를 참조하여 후술될 것이다.In some embodiments, the region dividing unit 142 may estimate the velocity of the region based on the third image data IMG3 sequentially generated in the past, and compare the estimated velocity with at least one reference value. The depth of field may be divided into at least one region. For example, the region dividing unit 142 may divide pixels in which the depth (or distance) decreases or increases at substantially the same slope as one region. An example of the operation of the region division unit 142 will be described later with reference to FIG. 4.

가중치 생성부(144)는 제1 이미지 데이터(IMG1)에 대응하는 제1 가중치(W1), 제2 이미지 데이터(IMG2)에 대응하는 제2 가중치(W2) 및 제3 이미지 데이터(IMG3)에 대응하는 제3 가중치(W3)를 생성할 수 있다. 가중치는 대응하는 이미지 데이터의 중요도를 나타낼 수 있고, 예컨대 가중치의 값이 클수록 대응하는 이미지 데이터가 통합 이미지 데이터(IMG)에 큰 영향을 미칠 수 있다. 가중치 생성부(144)는 복수의 영역들(R1,...,Rn) 각각에 대응하는 가중치들을 생성할 수 있고, 하나의 영역에 포함된 픽셀들은 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)를 공유할 수 있다. 예를 들면, 가중치 생성부(144)는, 조도에 따라 매우 밝은 부분으로서 분할된 영역 또는 매우 어두운 부분으로서 분할된 영역에 대한 제1 이미지 데이터(IMG1)의 영향이 감소하도록, 감소된 제1 가중치(W1)를 생성할 수 있다. 또한, 가중치 생성부(144)는 일정 범위의 온도(예컨대, 체온)를 가지는 것으로서 분할된 영역에 대한 제2 이미지 데이터(IMG2)의 영향이 증가하도록, 증가된 제2 가중치(W2)를 생성할 수 있다. 또한, 가중치 생성부(144)는 일정 거리 이하를 가지거나 일정 속도 이상을 가지는 것으로서 분할된 영역에 대한 제3 이미지 데이터(IMG3)의 영향이 증가하도록, 증가된 제3 가중치(W3)를 생성할 수 있다. 가중치 생성부(144)의 동작의 예시는 도 5를 참조하여 설명될 것이다.The weight generator 144 corresponds to the first weight W1 corresponding to the first image data IMG1, the second weight W2 corresponding to the second image data IMG2, and the third image data IMG3. A third weight W3 can be generated. The weight may indicate the importance of the corresponding image data, for example, the larger the value of the weight, the larger the corresponding image data may have a great influence on the integrated image data (IMG). The weight generator 144 may generate weights corresponding to each of the plurality of regions R1, ..., Rn, and pixels included in one region may include a first weight W1 and a second weight ( W2) and the third weight W3. For example, the weight generator 144 reduces the first weight to reduce the influence of the first image data IMG1 on the divided region as a very light portion or a very dark portion according to the illuminance. (W1). In addition, the weight generator 144 may generate an increased second weight W2 to increase the influence of the second image data IMG2 on the divided region as having a certain range of temperature (eg, body temperature). You can. In addition, the weight generation unit 144 may generate an increased third weight W3 to increase the influence of the third image data IMG3 on the divided region as having a certain distance or less or a certain speed or more. You can. An example of the operation of the weight generator 144 will be described with reference to FIG. 5.

일부 실시예들에서, 도 1의 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제3 카메라 모듈(130) 중 적어도 하나는 디스에이블될 수 있다. 즉, 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제3 카메라 모듈(130) 중 임의의 조합이 사용될 수 있다. 예를 들면, 이미지 통합 장치(100)의 전력 소모를 감소시키거나 이미지 통합 장치(100)가 사용되는 환경을 고려하여, 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제3 카메라 모듈(130) 중 적어도 하나가 외부의 제어에 따라 디스에이블될 수 있다. 이를 위하여, 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제3 카메라 모듈(130) 중 디스에이블된 카메라 모듈이 턴-오프될 수도 있고, 가중치 생성부(144)는 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3) 중 턴-오프된 카메라 모듈에 대응하는 것을 미리 정해진 일정한 값, 예컨대 영(zero)으로 결정할 수 있다. 또한, 일부 실시예들에서, 가중치 생성부(144)는 디스에이블된 카메라 모듈에 의한 픽셀 값이 생략되는 것을 보상하기 위하여, 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3) 중 인에이블된 카메라 모듈에 대응하는 기중치의 값을 균등하게 증가시킬 수도 있다.In some embodiments, at least one of the first camera module 110, the second camera module 120, and the third camera module 130 of FIG. 1 may be disabled. That is, any combination of the first camera module 110, the second camera module 120, and the third camera module 130 may be used. For example, the first camera module 110, the second camera module 120, and the third camera may be considered in order to reduce power consumption of the image integrator 100 or to consider an environment in which the image integrator 100 is used. At least one of the modules 130 may be disabled according to external control. To this end, the disabled camera module among the first camera module 110, the second camera module 120, and the third camera module 130 may be turned off, and the weight generator 144 may have a first weight Among the (W1), the second weight (W2), and the third weight (W3), it may be determined that a predetermined constant value, for example, zero, corresponds to the turned-off camera module. In addition, in some embodiments, the weight generator 144 compensates for the omission of the pixel value by the disabled camera module, so that the first weight W1, the second weight W2, and the third weight ( W3) It is also possible to equally increase the value of the weight value corresponding to the enabled camera module.

통합 이미지 생성부(146)는 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)에 기초하여 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)로부터 통합 이미지 데이터(IMG)를 생성할 수 있다. 통합 이미지 생성부(146)의 동작의 예시는 도 6을 참조하여 설명될 것이다.The integrated image generating unit 146 may include the first image data IMG1, the second image data IMG2, and the third image based on the first weight W1, the second weight W2, and the third weight W3. The integrated image data IMG can be generated from the data IMG3. An example of the operation of the integrated image generator 146 will be described with reference to FIG. 6.

도 4는 본 개시의 예시적 실시예에 따른 피사계의 예시를 나타내는 도면이다. 피사계(50)는 다수의 피사체들(51 내지 56)을 포함할 수 있고, 도 1의 이미지 통합부(140)는 피사체들(51 내지 56)을 정확하게 식별하는 통합 이미지 데이터(IMG)를 생성할 수 있다. 이하에서 도 4는, 도 1의 이미지 통합부(140)의 예시로서 도 3의 이미지 통합부(140')를 참조하여 설명될 것이다.4 is a diagram showing an example of a depth of field according to an exemplary embodiment of the present disclosure. The depth of field 50 may include a plurality of subjects 51 to 56, and the image integration unit 140 of FIG. 1 may generate integrated image data IMG for accurately identifying the subjects 51 to 56. You can. Hereinafter, FIG. 4 will be described with reference to the image integrator 140 ′ of FIG. 3 as an example of the image integrator 140 of FIG. 1.

일부 실시예들에서, 이미지 통합부(140')는 차량 운전을 보조하기 위하여 사용될 수 있다. 이에 따라, 시계가 열악한 상황에서도 장애물이나 위험요소를 식별가능하게 표시하는 이미지를 운전자에게 제공하거나, 식별된 장애물이나 위험요소에 따라 운전을 자동으로 제어(예컨대, 감속, 제동, 조향 등)할 수 있다. 이를 위하여, 이미지 통합부(140')는 차량의 전방을 촬영한 카메라들(예컨대, 도 1의 110, 120, 130)로부터 이미지 데이터(예컨대, IMG1, IMG2, IMG3)를 수신할 수 있다.In some embodiments, the image integrator 140 ′ may be used to assist in driving the vehicle. Accordingly, it is possible to provide the driver with an image that identifiably displays obstacles or hazards even when the watch is in poor condition, or to automatically control driving (eg, deceleration, braking, steering, etc.) according to the identified obstacles or hazards. have. To this end, the image integrator 140 ′ may receive image data (eg, IMG1, IMG2, and IMG3) from cameras (eg, 110, 120, and 130 of FIG. 1) photographing the front of the vehicle.

도 4를 참조하면, 일부 실시예들에서, 차량으로부터 비교적 근거리에 있는 피사체들(51, 52, 53)은 제3 이미지 데이터(IMG3)로부터 획득된 깊이 정보에 따라 각각 독립적인 영역으로 분할될 수 있다. 또한, 일부 실시예들에서, 상대적으로 원거리에 있더라도 체온과 같이 특정 범위의 온도를 가지는 피사체들(54, 55)은 제2 이미지 데이터(IMG2)로부터 획득된 온도에 따라 각각 독립적인 영역으로 분할될 수 있다. 또한, 상대적으로 원거리에 있더라도 주행중인 차량과 같이 일정한 속도를 가지는 피사체(56)는 일련의 제3 이미지 데이터(IMG3)로부터 획득된 속도 정보에 따라 독립적인 영역으로 분할될 수 있다.Referring to FIG. 4, in some embodiments, subjects 51, 52, and 53 that are relatively short distance from the vehicle may be divided into independent regions according to depth information obtained from the third image data IMG3. have. Further, in some embodiments, subjects 54 and 55 having a specific range of temperature, such as body temperature, even when relatively distant, may be divided into independent regions according to temperatures obtained from the second image data IMG2. You can. In addition, the subject 56 having a constant speed, such as a driving vehicle, may be divided into independent regions according to the speed information obtained from the series of third image data IMG3 even when it is relatively far.

도 5는 본 개시의 예시적 실시예에 따라 분할된 영역들을 포함하는 피사계의 예시를 나타낸다. 도 5에 도시된 바와 같이, 피사계(60)는 7개의 영역들(R1 내지 R7)로 분할될 수 있다. 도 3을 참조하여 전술된 바와 같이, 이미지 통합부(140')의 영역 분할부(142)는 다양한 방식으로 피사계(60)를 7개의 영역들(R1 내지 R7)로 분할할 수 있다. 이하에서, 도 5는 도 3을 참조하여 설명될 것이다.5 shows an example of a field of view including divided regions according to an exemplary embodiment of the present disclosure. As shown in FIG. 5, the depth of field 60 may be divided into seven regions R1 to R7. As described above with reference to FIG. 3, the region dividing unit 142 of the image integration unit 140 ′ may divide the field 60 into seven regions R1 to R7 in various ways. In the following, FIG. 5 will be described with reference to FIG. 3.

도 5를 참조하면, 7개의 영역들(R1 내지 R7) 각각은 한 세트의 가중치들을 가질 수 있다. 예를 들면, 제1 영역(R1)은 제1 가중치(W11), 제2 가중치(W21) 및 제3 가중치(W31)를 포함하는 세트를 가질 수 있고, 제2 영역(R2)은 제1 가중치(W12), 제2 가중치(W22) 및 제3 가중치(W32)를 포함하는 세트를 가질 수 있다.Referring to FIG. 5, each of the seven regions R1 to R7 may have a set of weights. For example, the first region R1 may have a set including the first weight W1 1 , the second weight W2 1 , and the third weight W3 1 , and the second region R2 is It may have a set including the first weight W1 2 , the second weight W2 2 , and the third weight W3 2 .

일부 실시예들에서, 영역 분할부(142)는 제1 이미지 데이터(IMG1)에 따라 분할된 영역들, 제2 이미지 데이터(IMG2)에 따라 분할된 영역들 및 제3 이미지 데이터(IMG3)에 따라 분할된 영역들을 각각 생성할 수도 있고, 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMT3) 중 적어도 2개에 기초하여 분할된 영역들을 생성할 수도 있다. 도 5에 도시된 바와 같이, 7개의 영역들(R1 내지 R7)은 단일 폐곡선(simple closed curve)에 의해서 정의될 수 있다.In some embodiments, the region dividing unit 142 may be divided into regions according to the first image data IMG1, regions divided according to the second image data IMG2, and the regions divided according to the third image data IMG3. The divided regions may be respectively generated, or the divided regions may be generated based on at least two of the first image data IMG1, the second image data IMG2, and the third image data IMT3. As shown in FIG. 5, the seven regions R1 to R7 may be defined by a simple closed curve.

도 6은 본 개시의 예시적 실시예에 따라 통합 이미지 생성 동작의 예시를 나타낸다. 도 3을 참조하여 전술된 바와 같이, 통합 이미지 생성부(146)는 1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)에 기초하여 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)로부터 통합 이미지 데이터(IMG)를 생성할 수 있다.6 shows an example of an integrated image creation operation in accordance with an exemplary embodiment of the present disclosure. As described above with reference to FIG. 3, the integrated image generation unit 146 may include first image data IMG1 and second based on the first weight W1, the second weight W2, and the third weight W3. Integrated image data IMG may be generated from the image data IMG2 and the third image data IMG3.

도 6을 참조하면, 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)는 동일한 크기의 이미지에 대응하도록 리사이즈(resize)될 수 있다. 예를 들면, 도 1의 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제3 카메라 모듈(130) 중 적어도 하나는 다른 카메라 모듈과 상이한 크기의 이미지에 대응하는 이미지 데이터를 생성할 수 있고, 이에 따라 해당 카메라 모듈이 생성한 이미지 데이터는 리사이즈된 이미지에 대응되도록 변환될 수 있다.Referring to FIG. 6, the first image data IMG1, the second image data IMG2, and the third image data IMG3 may be resized to correspond to an image of the same size. For example, at least one of the first camera module 110, the second camera module 120, and the third camera module 130 of FIG. 1 may generate image data corresponding to images of different sizes from other camera modules. Accordingly, the image data generated by the corresponding camera module may be converted to correspond to the resized image.

동일한 크기의 이미지들에서 상호 대응하는 위치의 픽셀들의 값들의 가중합(weighted sum)이 계산될 수 있고, 가중합은 통합 이미지에서 대응하는 위치의 픽셀의 값으로서 결정될 수 있다. 예를 들면, 도 6에 도시된 바와 같이, 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)에서 동일한 위치에 각각 대응하는 픽셀들의 값들을 P1, P2, P3라고 할 때, 통합 이미지 데이터(IMG)에서 픽셀의 값 P는 아래 [수학식 1]과 같이 계산될 수 있다.In images of the same size, a weighted sum of the values of pixels at positions corresponding to each other can be calculated, and the weighted sum can be determined as the value of the pixel at the corresponding position in the combined image. For example, as illustrated in FIG. 6, values of pixels corresponding to the same positions in the first image data IMG1, the second image data IMG2, and the third image data IMG3, respectively, are P1, P2, Speaking of P3, the pixel value P in the integrated image data IMG can be calculated as shown in [Equation 1] below.

Figure pat00001
Figure pat00001

도 3 등을 참조하여 전술된 바와 같이, 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)는 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)의 중요도를 각각 나타낼 수 있으므로, [수학식 1]에 따라 통합 이미지 데이터(IMG)는 시계가 열악한 상태에서도 피사체를 정확하게 나타낼 수 있다.As described above with reference to FIG. 3 and the like, the first weight W1, the second weight W2, and the third weight W3 include first image data IMG1, second image data IMG2, and third Since the importance of the image data IMG3 can be represented respectively, the integrated image data IMG according to Equation 1 can accurately represent the subject even when the watch is in poor condition.

도 7은 본 개시의 예시적 실시예에 따른 운전 보조 시스템(200)을 나타내는 블록도이다. 운전 보조 시스템(200)은 도 11을 참조하여 후술되는 바와 같이, 차량에 장착될 수 있고, 시계가 열악한 상황에서도 식별가능한 피사체를 표시하는 이미지를 운전자에게 제공할 수 있다. 도 7에 도시된 바와 같이, 운전 보조 시스템(200)은 이미지 통합 장치(210), 디스플레이 장치(220) 및 출력 장치(230)를 포함할 수 있다. 이하에서, 이미지 통합 장치(210)는 도 1의 이미지 통합 장치(100)에 포함된 구성요소들을 포함하는 것으로 가정되고, 도 7은 도 1을 참조하여 설명될 것이다.7 is a block diagram illustrating a driving assistance system 200 according to an exemplary embodiment of the present disclosure. The driving assistance system 200 may be mounted on a vehicle, as will be described later with reference to FIG. 11, and provide an image of a driver displaying an identifiable subject even in a situation in which the watch is poor. As illustrated in FIG. 7, the driving assistance system 200 may include an image integration device 210, a display device 220, and an output device 230. Hereinafter, the image integration device 210 is assumed to include the components included in the image integration device 100 of FIG. 1, and FIG. 7 will be described with reference to FIG. 1.

도면들을 참조하여 전술된 바와 같이, 이미지 통합 장치(210)는 통합 이미지 데이터(IMG)를 생성할 수 있다. 디스플레이 장치(220)는 이미지 통합 장치(210)로부터 수신된 통합 이미지 데이터(IMG)에 대응하는 이미지를 디스플레이할 수 있다. 예를 들면, 디스플레이 장치(220)는 LCD(Liquid Crystal Display), OLED(Organic Light-Emitting Diode) 등과 같은 임의의 디스플레이 모듈을 포함할 수 있다.As described above with reference to the drawings, the image integration device 210 may generate integrated image data (IMG). The display device 220 may display an image corresponding to the integrated image data IMG received from the image integration device 210. For example, the display device 220 may include any display module such as a liquid crystal display (LCD), an organic light-emitting diode (OLED), or the like.

일부 실시예들에서, 이미지 통합 장치(210)는 제3 이미지 데이터(IMG3)로부터 획득된 깊이 정보(또는 거리 정보)에 기초하여 경고 신호(WAR)를 생성할 수 있다. 예를 들면, 이미지 통합 장치(210)는 영역의 거리가 미리 정해진 기준치보다 작은 경우 활성화된 경고 신호(WAR)를 생성할 수도 있고, 영역의 속도가 차량에 가까워지는 방향으로 증가하는 경우 활성화된 경고 신호(WAR)를 생성할 수도 있다.In some embodiments, the image integrating device 210 may generate a warning signal WAR based on depth information (or distance information) obtained from the third image data IMG3. For example, the image integrating device 210 may generate an activated warning signal WAR when the distance of the area is smaller than a predetermined reference value, and an activated alert when the speed of the area increases in a direction closer to the vehicle. It is also possible to generate a signal WAR.

출력 장치(230)는 활성화된 경고 신호(WAR)에 응답하여 운전자가 인식할 수 있는 신호를 출력할 수 있다. 예를 들면, 출력 장치(230)는 램프, LED(Light Emitting Device) 등을 포함할 수 있고, 시각적 신호를 출력할 수 있다. 또한, 출력 장치(230)는 스피커, 부저(buzzer) 등을 포함할 수 있고, 청각적 신호를 출력할 수 있다. 또한, 출력 장치(230)는 모터 등을 포함할 수 있고, 진동을 출력할 수 있다. 운전자는 출력 장치(230)로부터 출력되는 신호를 인식할 수 있고, 이에 따라 운전자는 운전 중 미처 인지하지 못한 상황에 대처할 수 있다.The output device 230 may output a signal recognized by the driver in response to the activated warning signal WAR. For example, the output device 230 may include a lamp, a light emitting device (LED), and the like, and may output a visual signal. In addition, the output device 230 may include a speaker, a buzzer, and the like, and may output an audible signal. In addition, the output device 230 may include a motor or the like, and may output vibration. The driver may recognize a signal output from the output device 230, and accordingly, the driver may cope with a situation that is not recognized while driving.

일부 실시예들에서, 이미지 통합 장치(210)가 출력하는 경고 신호(WAR)는 운전 보조 시스템(200)의 외부로 출력될 수 있다. 운전 보조 시스템(200)의 외부로 출력된 경고 신호(WAR)는 운전을 자동으로 제어(예컨대, 감속, 제동, 조향 등)하는데 사용될 수 있고, 이에 따라 운전 보조 시스템(200)은 자율 주행 차량의 부품으로서 사용될 수 있다. 또한, 이미지 통합 장치(210)가 생성하는 통합 이미지 데이터(IMG)는 플래시 메모리 등과 같은 스토리지(storage)에 누적되어 저장될 수 있고, 이에 따라 통합 이미지 데이터(IMG)는 블랙박스 이미지로서 기능할 수도 있다.In some embodiments, the warning signal WAR output by the image integrating device 210 may be output outside the driving assistance system 200. The warning signal WAR output to the outside of the driving assistance system 200 may be used to automatically control driving (eg, deceleration, braking, steering, etc.), and thus the driving assistance system 200 may be configured to It can be used as a part. In addition, the integrated image data (IMG) generated by the image integration device 210 may be accumulated and stored in storage, such as a flash memory, and accordingly, the integrated image data (IMG) may function as a black box image. have.

도 8은 본 개시의 예시적 실시예에 따라 도 7의 디스플레이 장치(220)의 디스플레이의 예시를 나타낸다. 구체적으로, 도 8은 도 4와 동일한 피사계를 촬영함으로써 생성된 통합 이미지 데이터(IMG)로부터 디스플레이 장치(220)가 출력하는 디스플레이를 나타낸다. 이하에서, 도 8은 도 7을 참조하여 설명될 것이다.8 shows an example of a display of the display device 220 of FIG. 7 in accordance with an exemplary embodiment of the present disclosure. Specifically, FIG. 8 shows a display output by the display apparatus 220 from the integrated image data IMG generated by photographing the same depth of field as in FIG. 4. In the following, FIG. 8 will be described with reference to FIG. 7.

도 8에 도시된 바와 같이, 디스플레이(90)에는 복수의 객체들(91 내지 96)이 표시될 수 있다. 일부 실시예들에서, 이미지 통합 장치(210)는 분할된 영역(또는 객체)에 대한 강조 표시를 추가하여 통합 이미지 데이터(IMG)를 생성할 수 있다. 예를 들면, 도 8에 도시된 바와 같이, 운전 보조 시스템(200)이 장착된 차량에 근접한 객체들 중 차량의 진행 방향과 교차될 수 있는 위치에 있는 차량(92)이나 보행자(93)는 윈도우들(WIN1, WIN2)에 의해서 강조될 수 있고, 윈도우들(WIN1, WIN2)는 차량(92)이나 보행자(93)를 따라서 이동할 수 있다. 운전자는 출력 장치(230)에 의한 위험 상황 인식뿐만 아니라 디스플레이 장치(220)에 디스플레이되는 윈도우들(WIN1, WIN2)에 의해서 위험을 유발한 원인을 용이하게 파악할 수 있다.8, a plurality of objects 91 to 96 may be displayed on the display 90. In some embodiments, the image integrating device 210 may generate integrated image data (IMG) by adding a highlight for a divided area (or object). For example, as illustrated in FIG. 8, a vehicle 92 or a pedestrian 93 located at a position that can intersect with a vehicle traveling direction among objects close to a vehicle equipped with the driving assistance system 200 is a window. It can be emphasized by the fields (WIN1, WIN2), the windows (WIN1, WIN2) can move along the vehicle 92 or the pedestrian 93. The driver can easily recognize the cause of the danger by the windows WIN1 and WIN2 displayed on the display device 220 as well as the danger situation recognition by the output device 230.

도 9a 및 도 9b는 본 개시의 예시적 실시예에 따른 이미지 통합부의 동작을 설명하기 위한 도면들이다. 구체적으로, 도 9a 및 도 9b는 차량의 주행등이 조사되는 영역들(11a, 11b)을 각각 나타낸다. 이하에서, 도 9a 및 도 9b는 도 7의 운전 보조 시스템(200)을 참조하여 설명될 것이다.9A and 9B are diagrams for describing an operation of the image integrator according to an exemplary embodiment of the present disclosure. Specifically, FIGS. 9A and 9B show areas 11a and 11b to which the driving lights of the vehicle are irradiated, respectively. Hereinafter, FIGS. 9A and 9B will be described with reference to the driving assistance system 200 of FIG. 7.

도 9a를 참조하면, 주행등이 하향 조절되는 경우, 주행등이 조사되는 영역(11a)은 피사계에서 상대적으로 넓고 낮은 영역으로 한정될 수 있다. 다른 한편으로, 주행등이 상향 조절되는 경우, 주행등이 조사되는 영역(11b)은 피사계에서 상대적으로 좁고 높은 영역으로 한정될 수 있다. 이와 같은 주행등의 조사 방향에 대한 정보가 운전 보조 시스템(200)에 제공될 수 있다.Referring to FIG. 9A, when the driving light is adjusted downward, the area 11a to which the driving light is irradiated may be limited to a relatively wide and low area in the field. On the other hand, when the driving light is adjusted upward, the area 11b to which the driving light is irradiated may be limited to a relatively narrow and high area in the field. Information on the irradiation direction of the driving lights may be provided to the driving assistance system 200.

일부 실시예들에서, 운전 보조 시스템(200)의 이미지 통합 장치(210)는 차량의 주행등이 조사되는 영역에 대한 주행등 정보를 획득할 수 있고, 주행등 정보에 기초하여 주행등이 조사되는 영역 및 기타 영역에 적용되는 가중치를 조절할 수 있다. 예를 들면, 이미지 통합 장치(210)는 차량 주변의 조도에 대한 조도 정보를 획득할 수 있고, 차량 주변의 조도가 낮은 경우 야간이나 터널 안과 같이 주행등이 조사되는 영역 및 기타 영역의 조도 차이가 있는 것을 인식할 수 있다. 이미지 통합 장치(210)는 차량 주변의 조도가 낮은 경우, 차량의 주행등이 조사되는 영역에 대응하는 제1 가중치(W1)를 증가시키는 한편, 차량의 주행등이 조사되는 영역을 제외한 영역에 대응하는 제1 가중치(W1)를 감소시킬 수 있다.In some embodiments, the image integration device 210 of the driving assistance system 200 may obtain driving light information for an area in which the driving light of the vehicle is irradiated, and the driving light is irradiated based on the driving light information Weights applied to areas and other areas can be adjusted. For example, the image integration device 210 may obtain the illumination information about the illumination around the vehicle, and when the illumination around the vehicle is low, the difference in illumination between the area where the driving light is irradiated and other areas, such as at night or in a tunnel, is different. You can recognize that there is. The image integration device 210 increases the first weight W1 corresponding to the area where the driving light of the vehicle is irradiated when the light intensity around the vehicle is low, while responding to the area other than the area where the driving light of the vehicle is irradiated. The first weight W1 can be reduced.

도 10은 본 개시의 예시적 실시예에 따른 통합 이미지 생성 방법을 나타내는 도면이다. 예를 들면, 도 10의 방법은 도 3의 이미지 통합부(140')에 의해서 수행될 수 있고, 이하에서 도 10은 도 3을 참조하여 설명될 것이다.10 is a diagram illustrating a method for generating an integrated image according to an exemplary embodiment of the present disclosure. For example, the method of FIG. 10 may be performed by the image integrator 140 ′ of FIG. 3, and FIG. 10 will be described below with reference to FIG. 3.

단계 S20에서, 이미지 데이터를 획득하는 동작이 수행될 수 있다. 예를 들면, 이미지 통합부(140')는 가시광선 이미지에 대응하는 제1 이미지 데이터(IMG1), 적외선 이미지에 대응하는 제2 이미지 데이터(IMG2) 및 깊이 정보를 포함하는 제3 이미지 데이터(IMG3)를 복수의 카메라들로부터 획득할 수 있다.In step S20, an operation of acquiring image data may be performed. For example, the image integration unit 140 'includes first image data IMG1 corresponding to a visible light image, second image data IMG2 corresponding to an infrared image, and third image data IMG3 including depth information. ) Can be obtained from multiple cameras.

단계 S40에서, 적어도 하나의 영역으로 분할하는 동작이 수행될 수 있다. 예를 들면, 이미지 통합부(140')의 영역 분할부(142)는, 도 3 내지 도 5를 참조하여 전술된 바와 같이, 다양한 방식으로 이미지를 적어도 하나의 영역으로 분할할 수 있다. 분할된 영역은 하나의 피사체 또는 객체가 될 수도 있고, 피사체의 식별에 중요하지 아니한 배경이 될 수도 있다.In step S40, an operation of dividing into at least one region may be performed. For example, the region division unit 142 of the image integration unit 140 ′ may divide the image into at least one region in various ways, as described above with reference to FIGS. 3 to 5. The divided area may be a single object or an object, or a background that is not important for the identification of the object.

단계 S60에서, 가중치들을 생성하는 동작이 수행될 수 있다. 예를 들면, 이미지 통합부(140')의 가중치 생성부(144)는 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)에 각각 대응하는 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)를 생성할 수 있다. 또한, 가중치 생성부(144)는 단계 S40에서 분할된 영역들 마다 고유의 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)를 생성할 수 있다.In step S60, an operation for generating weights may be performed. For example, the weight generation unit 144 of the image integration unit 140 'may include first weights corresponding to the first image data IMG1, the second image data IMG2, and the third image data IMG3, respectively. W1), the second weight W2 and the third weight W3 may be generated. In addition, the weight generator 144 may generate a unique first weight W1, a second weight W2, and a third weight W3 for each of the divided regions in step S40.

단계 S80에서, 통합 이미지를 생성하는 동작이 수행될 수 있다. 예를 들면, 이미지 통합부(140')의 통합 이미지 생성부(146)는 제1 가중치(W1), 제2 가중치(W2) 및 제3 가중치(W3)에 기초하여 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)로부터 통합 이미지 데이터(IMG)를 생성할 수 있다. 도 6을 참조하여 전술된 바와 같이, 통합 이미지 데이터(IMG)의 픽셀들의 값들은 제1 이미지 데이터(IMG1), 제2 이미지 데이터(IMG2) 및 제3 이미지 데이터(IMG3)의 픽셀들 값들의 가중합으로서 계산될 수 있다.In step S80, an operation of generating an integrated image may be performed. For example, the integrated image generation unit 146 of the image integration unit 140 'is based on the first weight W1, the second weight W2, and the third weight W3, the first image data IMG1. , Integrated image data IMG may be generated from the second image data IMG2 and the third image data IMG3. As described above with reference to FIG. 6, the values of the pixels of the integrated image data IMG are weighted of the values of the pixels of the first image data IMG1, the second image data IMG2, and the third image data IMG3. It can be calculated as a sum.

도 11은 본 개시의 예시적 실시예에 따른 통합 이미지 장치를 포함하는 차량(300)을 나타내는 도면이다. 도 7을 참조하여 전술된 바와 같이, 이미지 통합 장치(210)는 운전 보조 시스템(200)의 구성요소로서 사용될 수 있다.11 is a diagram illustrating a vehicle 300 including an integrated imaging device according to an exemplary embodiment of the present disclosure. As described above with reference to FIG. 7, the image integrating device 210 can be used as a component of the driving assistance system 200.

도 11을 참조하면, 제1 통합 이미지 장치(310)는 차량의 전방을 피사계로서 획득하도록 장착될 수 있는 한편, 제2 통합 이미지 장치(320)는 차량의 후방을 피사계로서 획득하도록 장착될 수 있다. 또한, 도 11에 도시되지 아니하였으나, 통합 이미지 장치는 차량의 측면에 장착될 수도 있고, 차량의 선두나 선미에도 각각 장착될 수 있다. 이에 따라, 차량(300)의 운전자는 시계가 열악한 상태에서도 위험한 상황을 용이하게 인식할 수 있을 뿐만 아니라, 차량(300)의 자율 주행이 실현될 수 있다.Referring to FIG. 11, the first integrated image device 310 may be mounted to acquire the front of the vehicle as a field of view, while the second integrated image device 320 may be mounted to acquire the rear of the vehicle as the field of view. . In addition, although not shown in FIG. 11, the integrated image device may be mounted on the side of the vehicle, or may be mounted on the head or stern of the vehicle, respectively. Accordingly, the driver of the vehicle 300 can easily recognize a dangerous situation even when the clock is poor, and autonomous driving of the vehicle 300 can be realized.

이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, exemplary embodiments have been disclosed in the drawings and the specification. Although embodiments have been described using specific terms in this specification, they are used only for the purpose of describing the technical spirit of the present disclosure and are not used to limit the scope of the disclosure as defined in the meaning or claims. . Therefore, those of ordinary skill in the art will understand that various modifications and other equivalent embodiments are possible therefrom. Therefore, the true technical protection scope of the present disclosure should be defined by the technical spirit of the appended claims.

Claims (16)

피사계(filed)로부터 가시광선 이미지를 획득하고 상기 가시광선 이미지에 기초하여 제1 이미지 데이터를 생성하도록 구성된 제1 카메라 모듈;
상기 피사계로부터 적외선 이미지를 획득하고 상기 적외선 이미지에 기초하여 제2 이미지 데이터를 생성하도록 구성된 제2 카메라 모듈;
상기 피사계에 대한 깊이 정보를 획득하고 상기 깊이 정보에 기초하여 제3 이미지 데이터를 생성하도록 구성된 제3 카메라 모듈; 및
상기 제1, 제2 및 제3 이미지 데이터 각각에 대응하는 제1, 제2 및 제3 가중치를 생성하고, 상기 제1, 제2 및 제3 가중치에 기초하여 상기 제1, 제2 및 제3 이미지 데이터로부터 통합 이미지 데이터를 생성하도록 구성된 이미지 통합부를 포함하는 이미지 통합 장치.
A first camera module configured to acquire a visible light image from a filed and generate first image data based on the visible light image;
A second camera module configured to acquire an infrared image from the field and generate second image data based on the infrared image;
A third camera module configured to acquire depth information for the depth of field and generate third image data based on the depth information; And
First, second, and third weights corresponding to each of the first, second, and third image data are generated, and the first, second, and third weights are generated based on the first, second, and third weights. And an image integrator configured to generate integrated image data from the image data.
청구항 1에 있어서,
상기 이미지 통합부는, 상기 피사계를 적어도 하나의 영역으로 분할하고, 하나의 영역에서 단일 제1 가중치, 단일 제2 가중치 및 단일 제3 가중치에 기초하여 상기 하나의 영역에 대응하는 상기 통합 이미지 데이터의 일부분을 생성하도록 더 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 1,
The image integrator divides the depth of field into at least one area, and a portion of the integrated image data corresponding to the one area based on a single first weight, a single second weight, and a single third weight in one area The image integration device, characterized in that further configured to generate.
청구항 2에 있어서,
상기 이미지 통합부는, 상기 제1 이미지 데이터에 기초하여 상기 피사계의 조도 정보를 획득하고, 상기 조도 정보에 기초하여 상기 피사계를 상기 적어도 하나의 영역으로 분할하도록 더 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 2,
And the image integration unit is further configured to acquire illumination information of the field based on the first image data, and to divide the field into the at least one region based on the illumination information.
청구항 2에 있어서,
상기 이미지 통합부는, 상기 제2 이미지 데이터에 기초하여 상기 피사계의 온도 정보를 획득하고, 상기 온도 정보에 기초하여 상기 피사계를 상기 적어도 하나의 영역으로 분할하도록 더 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 2,
And the image integrating unit is further configured to acquire temperature information of the field based on the second image data, and to divide the field into the at least one region based on the temperature information.
청구항 2에 있어서,
상기 이미지 통합부는, 상기 깊이 정보에 기초하여 상기 피사계를 상기 적어도 하나의 영역으로 분할하도록 더 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 2,
And the image integrating unit is further configured to divide the depth of field into the at least one area based on the depth information.
청구항 2에 있어서,
상기 적어도 하나의 영역 각각은, 단일폐곡선(simple closed curve)에 의해서 정의되는 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 2,
Each of the at least one region is defined by a single closed curve (image closed device).
청구항 2에 있어서,
상기 이미지 통합부는, 순차적으로 생성된 제3 이미지 데이터에 기초하여 상기 적어도 하나의 영역의 속도를 추정하고, 추정된 상기 속도에 기초하여 상기 적어도 하나의 영역에 대응하는 제3 가중치를 변경하도록 더 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 2,
The image integration unit is further configured to estimate the velocity of the at least one region based on the sequentially generated third image data, and to change a third weight corresponding to the at least one region based on the estimated velocity. Image integration device characterized in that.
청구항 2에 있어서,
상기 이미지 통합부는, 상기 적어도 하나의 영역에 대응하는 제1 가중치, 제2 가중치 및 제3 가중치 중 적어도 하나에 기초하여 상기 적어도 하나의 영역을 강조하는 윈도우를 포함하도록 상기 통합 이미지 데이터를 생성하도록 더 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 2,
The image integration unit is further configured to generate the integrated image data to include a window that emphasizes the at least one region based on at least one of a first weight, a second weight, and a third weight corresponding to the at least one region. Image integration device, characterized in that configured.
청구항 2에 있어서,
상기 이미지 통합부는, 2이상의 영역들에 대응하는 제1 가중치들, 제2 가중치들 및 제3 가중치들에 기초하여, 상기 2이상의 영역들을 병합하도록 더 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 2,
The image integrating unit is further configured to merge the two or more regions based on first weights, second weights, and third weights corresponding to two or more regions.
청구항 1에 있어서,
상기 이미지 통합부는, 상기 제1 이미지 데이터에 기초하여 상기 피사계의 조도 정보를 획득하고, 상기 제2 이미지 데이터에 기초하여 상기 피사계의 온도 정보를 획득하고, 상기 조도 정보, 상기 온도 정보 및 상기 깊이 정보 중 적어도 하나에 기초하여 상기 제1 가중치, 상기 제2 가중치 및 상기 제3 가중치 각각을 생성하도록 더 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 1,
The image integration unit acquires illuminance information of the depth of field based on the first image data, obtains temperature information of the depth of field based on the second image data, and obtains the illuminance information, the temperature information, and the depth information. And configured to generate each of the first weight, the second weight, and the third weight based on at least one of them.
청구항 1에 있어서,
상기 제2 카메라 모듈은, 상기 피사계로부터 수신되는 약 8 ㎛ 내지 약 12 ㎛ 파장 대역의 적외선으로부터 상기 제2 이미지 데이터를 생성하도록 구성된 것을 특징으로 하는 이미지 통합 장치.
The method according to claim 1,
And the second camera module is configured to generate the second image data from infrared rays in a wavelength band of about 8 μm to about 12 μm received from the field.
통합 이미지 데이터를 생성하도록 구성된 이미지 통합 장치; 및
상기 통합 이미지 데이터에 기초하여 통합 이미지를 디스플레이하도록 구성된 디스플레이 장치를 포함하고,
상기 이미지 통합 장치는,
차량 주변으로부터 가시광선 이미지, 적외선 이미지 및 상기 차량 주변에 대한 거리 정보를 각각 획득하는 제1, 제2 및 제3 카메라 모듈들; 및
상기 제1, 제2 및 제3 카메라 모듈들로부터 각각 수신된 제1, 제2 및 제3 이미지 데이터에 기초하여 상기 통합 이미지 데이터를 생성하도록 구성된 이미지 통합부를 포함하는 것을 특징으로 하는 운전 보조 시스템.
An image integrating device configured to generate integrated image data; And
A display device configured to display an integrated image based on the integrated image data,
The image integration device,
First, second, and third camera modules for acquiring visible light images, infrared images, and distance information about the vehicle surroundings from the vehicle surroundings; And
And an image integrator configured to generate the integrated image data based on first, second, and third image data received from the first, second, and third camera modules, respectively.
청구항 12에 있어서,
상기 이미지 통합 장치는, 상기 제1, 제2 및 제3 이미지 데이터 각각에 대응하는 제1, 제2 및 제3 가중치를 생성하고, 상기 제1, 제2 및 제3 가중치에 기초하여 상기 통합 이미지 데이터를 생성하도록 더 구성된 것을 특징으로 하는 운전 보조 시스템.
The method according to claim 12,
The image integration device generates first, second, and third weights corresponding to each of the first, second, and third image data, and based on the first, second, and third weights, the integrated image Driving assistance system characterized in that it is further configured to generate data.
청구항 13에 있어서,
상기 이미지 통합부는, 피사계를 적어도 하나의 영역으로 분할하고, 하나의 영역에서 단일 제1 가중치, 단일 제2 가중치 및 단일 제3 가중치에 기초하여 상기 하나의 영역에 대응하는 상기 통합 이미지 데이터의 일부분을 생성하도록 더 구성된 것을 특징으로 하는 운전 보조 시스템.
The method according to claim 13,
The image integrator divides the field of view into at least one region, and a portion of the integrated image data corresponding to the one region based on a single first weight, a single second weight, and a single third weight in one region. Driving assistance system, characterized in that further configured to generate.
청구항 14에 있어서,
상기 이미지 통합부는, 상기 차량 주변의 조도에 대한 조도 정보 및 상기 차량의 주행등이 조사되는 영역에 대한 주행등 정보를 획득하고, 상기 조도 정보 및 상기 주행등 정보에 기초하여, 상기 차량 주변의 조도가 낮은 경우 상기 차량의 주행등이 조사되는 영역에 대응하는 제1 가중치를 증가시키고 상기 차량의 주행등이 조사되는 영역을 제외한 영역에 대응하는 제1 가중치를 감소시키도록 더 구성된 것을 특징으로 하는 운전 보조 시스템.
The method according to claim 14,
The image integration unit acquires illumination information about the illumination around the vehicle and driving lamp information about an area where the driving lights of the vehicle are irradiated, and based on the illumination information and the driving lamp information, the illumination around the vehicle If is low, driving is further configured to increase the first weight corresponding to the area where the driving light of the vehicle is irradiated and decrease the first weight corresponding to the area except the area where the driving light of the vehicle is irradiated. Auxiliary system.
청구항 12에 있어서,
상기 이미지 통합부는, 상기 거리 정보에 기초하여 경고 신호를 생성하도록 더 구성되고,
상기 경고 신호에 기초하여 운전자가 인식가능한 신호를 생성하도록 구성된 출력 장치를 더 포함하는 운전 보조 시스템.
The method according to claim 12,
The image integration unit is further configured to generate a warning signal based on the distance information,
And an output device configured to generate a signal recognizable by the driver based on the warning signal.
KR1020180106039A 2018-09-05 2018-09-05 Image sysntehsis device and driving assitance system including the same KR102146837B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180106039A KR102146837B1 (en) 2018-09-05 2018-09-05 Image sysntehsis device and driving assitance system including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180106039A KR102146837B1 (en) 2018-09-05 2018-09-05 Image sysntehsis device and driving assitance system including the same

Publications (2)

Publication Number Publication Date
KR20200027789A true KR20200027789A (en) 2020-03-13
KR102146837B1 KR102146837B1 (en) 2020-08-21

Family

ID=69938406

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180106039A KR102146837B1 (en) 2018-09-05 2018-09-05 Image sysntehsis device and driving assitance system including the same

Country Status (1)

Country Link
KR (1) KR102146837B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113810567A (en) * 2020-05-28 2021-12-17 三星电子株式会社 Electronic device for performing object detection and method of operating the same
KR20230076658A (en) * 2021-11-24 2023-05-31 주식회사 유엑스팩토리 Integrated image processing apparatus and method for improving image quality using complex sensor information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050103194A (en) * 2003-02-06 2005-10-27 바이에리셰 모토렌 베르케 악티엔게젤샤프트 Method and device for visualizing a motor vehicle environment with environment-dependent fusion of an infrared image and a visual image
KR20140137564A (en) * 2013-05-23 2014-12-03 경북대학교 산학협력단 3 Dimensional Image Sensing System for Human Tracking and Its Method
KR20150132968A (en) * 2014-05-19 2015-11-27 한국과학기술연구원 System and method for tracking multiple targets
KR20160136757A (en) * 2015-05-21 2016-11-30 주식회사 와이즈오토모티브 Apparatus for detecting obstacle using monocular camera
WO2017073344A1 (en) * 2015-10-27 2017-05-04 富士フイルム株式会社 Image capturing system, and object detecting device and method of operating same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050103194A (en) * 2003-02-06 2005-10-27 바이에리셰 모토렌 베르케 악티엔게젤샤프트 Method and device for visualizing a motor vehicle environment with environment-dependent fusion of an infrared image and a visual image
KR20140137564A (en) * 2013-05-23 2014-12-03 경북대학교 산학협력단 3 Dimensional Image Sensing System for Human Tracking and Its Method
KR20150132968A (en) * 2014-05-19 2015-11-27 한국과학기술연구원 System and method for tracking multiple targets
KR20160136757A (en) * 2015-05-21 2016-11-30 주식회사 와이즈오토모티브 Apparatus for detecting obstacle using monocular camera
WO2017073344A1 (en) * 2015-10-27 2017-05-04 富士フイルム株式会社 Image capturing system, and object detecting device and method of operating same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113810567A (en) * 2020-05-28 2021-12-17 三星电子株式会社 Electronic device for performing object detection and method of operating the same
KR20230076658A (en) * 2021-11-24 2023-05-31 주식회사 유엑스팩토리 Integrated image processing apparatus and method for improving image quality using complex sensor information

Also Published As

Publication number Publication date
KR102146837B1 (en) 2020-08-21

Similar Documents

Publication Publication Date Title
EP2288287B1 (en) Driver imaging apparatus and driver imaging method
JP5506745B2 (en) Image acquisition unit, method and associated control unit {IMAGEACQUISITIONUNIT, ACQUISITIONMETHODANDASSOCIATEDCONTROLLUNT}
US11386709B2 (en) System and method for improving signal to noise ratio in object tracking under poor light conditions
KR200490906Y1 (en) Systems and methods for detecting obstructions within the field-of-view of an image sensor
CN105960355B (en) For operating method, rear-camera head system and the motor vehicles of motor vehicles rear-camera head system after detection car light flash of light
WO2020045125A1 (en) Light receiving element and distance measuring system
KR102146837B1 (en) Image sysntehsis device and driving assitance system including the same
WO2020059488A1 (en) Light-receiving element and distance measurement system
US11708032B2 (en) Driving support device
JP2020139810A (en) Measuring device and range finder
CN112384400A (en) In-vehicle display control device and in-vehicle display control program
US11303817B2 (en) Active sensor, object identification system, vehicle and vehicle lamp
WO2021065494A1 (en) Distance measurement sensor, signal processing method, and distance measurement module
WO2021029262A1 (en) Device, measurement device, distance measurement system and method
WO2021065500A1 (en) Distance measurement sensor, signal processing method, and distance measurement module
WO2020075506A1 (en) Distance measurement system, calibration method, program, and electronic device
TWI839653B (en) Measuring device and distance measuring device
TWI839646B (en) Measuring device and distance measuring device
WO2020075496A1 (en) Distance measuring device, and detecting method
WO2021065495A1 (en) Ranging sensor, signal processing method, and ranging module
WO2022034844A1 (en) Surface-emitting laser device and electronic equipment
WO2021029270A1 (en) Measuring device and ranging device
JP7200652B2 (en) Notification control device, electronic mirror device, notification control method, notification control program
WO2021153615A1 (en) View point detection system
JP2023059552A (en) Driving support device and driving support method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right