KR102584573B1 - Integrated image processing apparatus and method for improving image quality using complex sensor information - Google Patents

Integrated image processing apparatus and method for improving image quality using complex sensor information Download PDF

Info

Publication number
KR102584573B1
KR102584573B1 KR1020210163792A KR20210163792A KR102584573B1 KR 102584573 B1 KR102584573 B1 KR 102584573B1 KR 1020210163792 A KR1020210163792 A KR 1020210163792A KR 20210163792 A KR20210163792 A KR 20210163792A KR 102584573 B1 KR102584573 B1 KR 102584573B1
Authority
KR
South Korea
Prior art keywords
image
sensor
correction
color temperature
neural network
Prior art date
Application number
KR1020210163792A
Other languages
Korean (ko)
Other versions
KR20230076658A (en
Inventor
박준영
김지혜
Original Assignee
주식회사 유엑스팩토리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유엑스팩토리 filed Critical 주식회사 유엑스팩토리
Priority to KR1020210163792A priority Critical patent/KR102584573B1/en
Publication of KR20230076658A publication Critical patent/KR20230076658A/en
Application granted granted Critical
Publication of KR102584573B1 publication Critical patent/KR102584573B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4046Scaling the whole image or part thereof using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • G06T3/4076Super resolution, i.e. output image resolution higher than sensor resolution by iteratively correcting the provisional high resolution image using the original low-resolution image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control

Abstract

본 발명의 통합 영상 처리 장치는 이미지 센서, ToF 센서, 및 열 감지 센서를 포함하는 복합 센서들 각각으로부터, 대응된 감지신호를 입력으로 받는 입력부; 미리 설정된 인공신경망(ANN) 알고리즘에 의거하여 상기 이미지 센서를 통해 감지된 이미지를 보정한 후, 상기 보정된 이미지, 상기 ToF 센서에서 출력되는 3차원 거리 정보, 및 상기 열 감지 센서에서 출력되는 저해상도 열화상 이미지를 결합하여 출력하는 다중 영상신호 처리부; 및 사전에 생성된 적어도 하나의 클래스별 데이터 셋을 학습하여 기준 데이터를 생성한 후 미리 저장하고, 상기 기준 데이터 및 미리 설정된 인공지능 알고리즘에 의거하여, 상기 다중 영상신호 처리부에서 생성된 이미지를 인식하는 AI 가속기를 포함함으로써, 인공신경망(ANN, Artificial Neural Network) 기반의 영상 인식 기술을 적용하되, 엣지단에서 처리하도록 함으로써, 서버와의 통신을 위한 전력 소모를 줄이고, 신속하게 영상을 처리하되, 사람의 눈으로 인식하는 수준과 비슷한 수준으로 이미지를 처리하여 출력할 수 있는 장점이 있다. The integrated image processing device of the present invention includes an input unit that receives corresponding detection signals from each of complex sensors including an image sensor, a ToF sensor, and a heat detection sensor; After correcting the image detected through the image sensor based on a preset artificial neural network (ANN) algorithm, the corrected image, 3D distance information output from the ToF sensor, and low-resolution heat output from the heat detection sensor A multi-video signal processing unit that combines image images and outputs them; And learning at least one pre-generated data set for each class to generate reference data and then storing it in advance, and recognizing the image generated by the multiple video signal processor based on the reference data and a preset artificial intelligence algorithm. By including an AI accelerator, image recognition technology based on an artificial neural network (ANN) is applied and processed at the edge, thereby reducing power consumption for communication with the server and processing images quickly, but without human intervention. It has the advantage of being able to process and output images at a level similar to that recognized by the human eye.

Description

복합 센서 정보를 이용하여 영상 화질을 개선하는 통합 영상 처리 장치 및 그 방법{INTEGRATED IMAGE PROCESSING APPARATUS AND METHOD FOR IMPROVING IMAGE QUALITY USING COMPLEX SENSOR INFORMATION}Integrated image processing device and method for improving image quality using complex sensor information {INTEGRATED IMAGE PROCESSING APPARATUS AND METHOD FOR IMPROVING IMAGE QUALITY USING COMPLEX SENSOR INFORMATION}

본 발명은 영상 처리 기술에 관한 것으로서, 보다 상세하게는, 복합 센서 정보를 이용하여 영상 화질을 개선하는 통합 영상 처리 장치 및 그 방법에 관한 것이다.The present invention relates to image processing technology, and more specifically, to an integrated image processing device and method for improving image quality using complex sensor information.

복합 신호를 기반으로 한 영상 처리 기술은 스마트폰을 비롯한 다양한 전자기기/제품, 그리고 미래 자율주행 자동차, 로봇, 드론, HMD 등 다수의 센서가 필요한 시스템에 핵심부품으로서 사용될 수 있다.Image processing technology based on complex signals can be used as a core component in various electronic devices/products, including smartphones, and in systems that require multiple sensors, such as future self-driving cars, robots, drones, and HMDs.

이러한 종래 기술의 예로서, 한국 공개특허 제 10-2018-0128168 호에는, 듀얼 이미지 센서 시스템을 지원하는 전자장치의 이미지 처리 방법에 있어서, 상기 전자장치에 배치되는 제1 센서와 제2 센서를 통해 데이터를 감지하는 단계; 상기 제1 센서를 통해 감지된 데이터와 상기 제2 센서를 통해 감지된 데이터에 기반하여 이미지를 합성하는 단계를 포함하고, 상기 제1 센서와 상기 제2 센서는 컬러 센서이며, 상기 제2 센서를 통해 감지되는 광량은 상기 제1 센서를 통해 감지되는 광량보다 큰 것을 특징으로 하는 전자장치의 이미지 처리 방법이 개시되어 있다.As an example of this prior art, Korean Patent Publication No. 10-2018-0128168 discloses an image processing method of an electronic device supporting a dual image sensor system, through a first sensor and a second sensor disposed in the electronic device. detecting data; Comprising: synthesizing an image based on data sensed through the first sensor and data sensed through the second sensor, wherein the first sensor and the second sensor are color sensors, and the second sensor An image processing method for an electronic device is disclosed, wherein the amount of light detected through the first sensor is greater than the amount of light sensed through the first sensor.

상기 특허에 의하면, 이미지 센서를 통해 취득되는 광량이 종래의 RGB 센서에 비해 증가함으로써, 저조도 환경에서 이미지의 SN 특성이 좋아지고, 두 개의 컬러 이미지 센서를 통해 이미지를 취득함으로써, 이미지 depth 정보의 정밀성을 향상시킬 수 있는 특징이 있다.According to the patent, by increasing the amount of light acquired through the image sensor compared to the conventional RGB sensor, the SN characteristics of the image are improved in a low-light environment, and by acquiring the image through two color image sensors, the precision of image depth information is improved. There are features that can improve.

하지만, 상기와 같은 종래의 기술은 역광 보정, 및 색 온도 보정 등의 영상 처리에 있어서, 정밀도가 떨어짐으로써, 실제 눈으로 보는 것과 같은 결과를 얻기 어려운 문제가 있다. 또한, 상기의 종래 기술은 복수의 이미지 센서만을 이용함으로써, 입체화된 이미지를 처리하는 데에 한계가 있다.However, the above-mentioned conventional technology has a problem in that it is difficult to obtain results similar to those seen with the actual eye due to low precision in image processing such as backlight correction and color temperature correction. Additionally, the above prior art has limitations in processing three-dimensional images by using only a plurality of image sensors.

따라서 최근에는 듀얼/트리플 이미징 센서, Depth 센서 등 다양한 복합 센서를 탑재하는 제품 개발이 선도 그룹들을 중심으로 적극적으로 추진되고 있다(예컨대, 애플사의 아이폰 등).Therefore, the development of products equipped with various complex sensors such as dual/triple imaging sensors and depth sensors is being actively promoted by leading groups (e.g., Apple's iPhone, etc.).

그런데, 이러한 최근의 기술들은 센서별 처리 엔진(Processing Engine)이 별도로 탑재되고, 기능적으로도 서로 융합되지 않으므로, 전력 및 면적면에서 비효율적이다. 이로 인해, 상기와 같은 최근의 기술 또한, 복합 신호 센서들의 데이터 접근 지연 없이 대용량의 데이터를 처리할 수 없음으로써, 실시간 서비스를 지원할 수 없는 문제가 있다.However, these recent technologies are inefficient in terms of power and area because the processing engines for each sensor are mounted separately and are not functionally integrated. Because of this, recent technologies such as those described above also have the problem of not being able to support real-time services by not being able to process large amounts of data without delay in data access from complex signal sensors.

한국 공개특허 제 10-2018-0128168 호Korean Patent Publication No. 10-2018-0128168

따라서 본 발명은 복합 센서의 신호들을 하나의 프로세서에서 통합 처리함으로써, 전력 및 면적을 효율적으로 활용하고, 이로 인해, 처리 속도를 향상시킴으로써, 데이터 접근 지연 없이 대용량의 데이터를 실시간으로 처리할 수 있는 통합 영상 처리 장치 및 그 방법을 제공하고자 한다.Therefore, the present invention integrates and processes signals from complex sensors in a single processor to efficiently utilize power and area, thereby improving processing speed, thereby enabling integrated processing of large amounts of data in real time without data access delay. The object is to provide an image processing device and method.

또한, 본 발명은 복합 센서 정보를 이용함으로써, 극 저조도, 연기, 안개, 혹은 화재로 인한 고열 등 다양한 환경에서 단독 이미지 센서에 의존하는 시스템의 한계를 극복할 수 있고, 이로 인해, 공장 등 실내 근로자, 화재 현장의 소방관, 작전 중인 군인 등 다양한 응용 분야에서 감지 정보 보조 수단으로 활용할 수 있어서, 활용 분야를 확장시킬 수 있는 통합 영상 처리 장치 및 그 방법을 제공하고자 한다.In addition, by using complex sensor information, the present invention can overcome the limitations of systems relying on a single image sensor in various environments such as extremely low light, smoke, fog, or high heat caused by fire, thereby enabling indoor workers such as factories. , We aim to provide an integrated image processing device and method that can be used as an auxiliary means of detection information in various application fields such as firefighters at the scene of a fire or soldiers in operation, thereby expanding the field of use.

또한, 본 발명은 인공신경망(ANN, Artificial Neural Network) 기반의 영상 인식 기술을 적용하되, 사전에 생성된 클래스별 데이터 셋을 이용하여 학습된 데이터를 엣지단에 구현하고, 상기 학습된 데이터를 이용하여 엣지단에서 영상을 처리함으로써, 서버와의 통신을 위한 전력 소모를 줄이고, 신속하게 영상을 처리하되, 사람의 눈으로 인식하는 수준과 비슷한 수준으로 이미지를 처리하여 출력할 수 있는 통합 영상 처리 방치 및 그 방법을 제공하고자 한다.In addition, the present invention applies image recognition technology based on an artificial neural network (ANN), implements learned data at the edge using a pre-generated data set for each class, and uses the learned data. By processing the image at the edge, power consumption for communication with the server is reduced and the image is processed quickly, but the integrated image processing that can process and output the image at a level similar to that recognized by the human eye is neglected. and to provide a method thereof.

상기 목적을 달성하기 위해, 본 발명에서 제공하는 통합 영상 처리 장치는 이미지 센서, ToF 센서, 및 열 감지 센서를 포함하는 복합 센서들 각각으로부터, 대응된 감지신호를 입력으로 받는 입력부; 미리 설정된 인공신경망(ANN) 알고리즘에 의거하여 상기 이미지 센서를 통해 감지된 이미지를 보정한 후, 상기 보정된 이미지, 상기 ToF 센서에서 출력되는 3차원 거리 정보, 및 상기 열 감지 센서에서 출력되는 저해상도 열화상 이미지를 결합하여 출력하는 다중 영상신호 처리부; 및 사전에 생성된 적어도 하나의 클래스별 데이터 셋을 학습하여 기준 데이터를 생성한 후 미리 저장하고, 상기 기준 데이터 및 미리 설정된 인공지능 알고리즘에 의거하여, 상기 다중 영상신호 처리부에서 생성된 이미지를 인식하는 AI 가속기를 포함하는 것을 특징으로 한다. In order to achieve the above object, the integrated image processing device provided by the present invention includes an input unit that receives corresponding detection signals from each of the complex sensors including an image sensor, a ToF sensor, and a heat detection sensor; After correcting the image detected through the image sensor based on a preset artificial neural network (ANN) algorithm, the corrected image, 3D distance information output from the ToF sensor, and low-resolution heat output from the heat detection sensor A multi-video signal processing unit that combines image images and outputs them; And learning at least one pre-generated data set for each class to generate reference data and then storing it in advance, and recognizing the image generated by the multiple video signal processor based on the reference data and a preset artificial intelligence algorithm. It is characterized by including an AI accelerator.

또한, 상기 목적을 달성하기 위해, 본 발명에서 제공하는 통합 영상 처리 방법은 이미지 센서, ToF 센서, 및 열 감지 센서를 포함하는 복합 센서를 구비한 통합 영상 처리 장치가 상기 복합 센서 정보를 이용하여 영상 화질을 개선하는 통합 영상 처리 방법에 있어서, 사전에 생성된 적어도 하나의 클래스별 데이터셋을 학습하여 이미지 감지를 위한 기준 데이터를 생성하여 저장하는 학습단계; 상기 이미지 센서, ToF 센서, 및 열 감지 센서를 포함하는 복합 센서들 각각으로부터, 대응된 감지신호를 입력으로 받는 입력단계; 미리 설정된 인공신경망(ANN) 알고리즘에 의거하여 상기 이미지 센서를 통해 감지된 이미지를 보정하는 보정단계; 상기 보정된 이미지, 상기 ToF 센서에서 출력되는 3차원 거리 정보, 및 상기 열 감지 센서에서 출력되는 저해상도 열화상 이미지를 결합하는 결합단계; 및 상기 기준 데이터 및 상기 결합된 이미지를 미리 설정된 인공지능 알고리즘에 적용하여, 이미지를 인식하는 인식단계를 포함하는 것을 특징으로 한다.In addition, in order to achieve the above object, the integrated image processing method provided by the present invention is an integrated image processing device equipped with a complex sensor including an image sensor, a ToF sensor, and a heat sensor, and uses the complex sensor information to image an image. An integrated image processing method for improving image quality, comprising: a learning step of generating and storing reference data for image detection by learning at least one pre-generated dataset for each class; An input step of receiving a corresponding detection signal from each of the complex sensors including the image sensor, the ToF sensor, and the heat detection sensor; A correction step of correcting the image detected through the image sensor based on a preset artificial neural network (ANN) algorithm; A combining step of combining the corrected image, 3D distance information output from the ToF sensor, and a low-resolution thermal image output from the heat detection sensor; And a recognition step of recognizing the image by applying the reference data and the combined image to a preset artificial intelligence algorithm.

상기한 바와 같은 본 발명의 통합 영상 처리 장치 및 그 방법은 복합 센서의 신호들을 하나의 프로세서에서 통합 처리함으로써, 전력 및 면적을 효율적으로 활용하고, 이로 인해, 처리 속도를 향상시킴으로써, 데이터 접근 지연 없이 대용량의 데이터를 실시간으로 처리할 수 있는 효과가 있다.The integrated image processing device and method of the present invention as described above efficiently utilize power and area by integrated processing of signals from complex sensors in one processor, thereby improving processing speed, without data access delay. It is effective in processing large amounts of data in real time.

또한, 본 발명의 통합 영상 처리 장치 및 그 방법은 복합 센서 정보를 이용함으로써, 극 저조도, 연기, 안개, 혹은 화재로 인한 고열 등 다양한 환경에서 단독 이미지 센서에 의존하는 시스템의 한계를 극복할 수 있고, 이로 인해, 공장 등 실내 근로자, 화재 현장의 소방관, 작전 중인 군인 등 다양한 응용 분야에서 감지 정보 보조 수단으로 활용함으로써, 활용 분야를 확장시킬 수 있는 효과가 있다.In addition, the integrated image processing device and method of the present invention can overcome the limitations of systems that rely on a single image sensor in various environments such as extremely low light, smoke, fog, or high heat due to fire by using complex sensor information. , This has the effect of expanding the field of use by using it as an auxiliary means of sensing information in various application fields such as indoor workers in factories, firefighters at fire sites, and soldiers on operations.

또한, 본 발명의 통합 영상 처리 장치 및 그 방법은 인공신경망(ANN, Artificial Neural Network) 기반의 영상 인식 기술을 적용하되, 사전에 생성된 클래스별 데이터 셋을 이용하여 학습된 데이터를 엣지단에 구현하고, 상기 학습된 데이터를 이용하여 엣지단에서 영상을 처리함으로써, 서버와의 통신을 위한 전력 소모를 줄이고, 신속하게 영상을 처리하되, 사람의 눈으로 인식하는 수준과 비슷한 수준으로 이미지를 처리하여 출력할 수 있는 효과가 있다. In addition, the integrated image processing device and method of the present invention apply image recognition technology based on an artificial neural network (ANN), and implement learned data at the edge using a pre-generated data set for each class. By processing the image at the edge using the learned data, power consumption for communication with the server is reduced and the image is processed quickly, but the image is processed at a level similar to that recognized by the human eye. There is an effect that can be printed.

도 1은 본 발명의 일 실시 예에 따른 통합 영상 처리 장치에 대한 개략적인 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 다중 영상신호 처리부에 대한 개략적인 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 보정부에 대한 개략적인 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 통합 영상 처리 방법에 대한 개략적인 처리 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 이미지 보정 단계에 대한 개략적인 처리 흐름도이다.
도 6은 본 발명의 일 실시 예에 따른 역광 보정의 효과를 종래와 비교하여 설명하기 위한 도면이다.
도 7a 및 도 7b는 본 발명의 일 실시 예에 따른 자동 색 온도 보정의 효과를 종래와 비교하여 설명하기 위한 도면들이다.
도 8은 본 발명의 일 실시 예에 따른 노이즈 제거 및 선명도 보정의 효과를 종래와 비교하여 설명하기 위한 도면이다.
1 is a schematic block diagram of an integrated image processing device according to an embodiment of the present invention.
Figure 2 is a schematic block diagram of a multiple video signal processor according to an embodiment of the present invention.
Figure 3 is a schematic block diagram of a correction unit according to an embodiment of the present invention.
Figure 4 is a schematic processing flowchart of an integrated image processing method according to an embodiment of the present invention.
Figure 5 is a schematic processing flowchart of an image correction step according to an embodiment of the present invention.
Figure 6 is a diagram for explaining the effect of backlight correction according to an embodiment of the present invention compared to the prior art.
FIGS. 7A and 7B are diagrams for explaining the effect of automatic color temperature correction according to an embodiment of the present invention compared to the prior art.
FIG. 8 is a diagram for explaining the effects of noise removal and sharpness correction according to an embodiment of the present invention compared to the prior art.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 설명하되, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 한편 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 또한 상세한 설명을 생략하여도 본 기술 분야의 당업자가 쉽게 이해할 수 있는 부분의 설명은 생략하였다.Below, embodiments of the present invention will be described with reference to the attached drawings, and will be described in detail so that those skilled in the art can easily practice the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. Meanwhile, in order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted, and similar parts are given similar reference numerals throughout the specification. In addition, descriptions of parts that can be easily understood by those skilled in the art are omitted even if detailed descriptions are omitted.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification and claims, when it is said that a part includes a certain component, this means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

도 1은 본 발명의 일 실시 예에 따른 통합 영상 처리 장치에 대한 개략적인 블록도이다. 도 1을 참조하면, 본 발명의 일 실시 예에 따른 통합 영상 처리 장치(100)는 복합센서부(110), 입력부(120), 다중 영상신호 처리부(130), AI 가속기(140), 기준데이터 관리 DB(150)를 포함한다.1 is a schematic block diagram of an integrated image processing device according to an embodiment of the present invention. Referring to Figure 1, the integrated image processing device 100 according to an embodiment of the present invention includes a complex sensor unit 110, an input unit 120, a multiple image signal processor 130, an AI accelerator 140, and reference data. Includes a management DB (150).

복합 센서부(110)는 다양한 종류의 데이터를 수집하는 적어도 하나의 센서들을 포함하되, ToF 센서(111), 이미지 센서(112) 및 열 감지 센서(113)를 포함할 수 있다.The complex sensor unit 110 includes at least one sensor that collects various types of data, and may include a ToF sensor 111, an image sensor 112, and a heat detection sensor 113.

입력부(120)는 복합 센서부(110)에 포함된 적어도 하나의 센서들(예컨대, ToF 센서(111), 이미지 센서(112) 및 열 감지 센서(113)) 각각으로부터, 대응된 감지신호를 입력으로 받는다. 이 때, 입력부(120)는 하나의 커넥터로 구성되며, 상기 적어도 하나의 센서들(예컨대, ToF 센서(111), 이미지 센서(112) 및 열 감지 센서(113)) 각각의 신호를 상기 하나의 커넥터로 입력받는다.The input unit 120 inputs a corresponding detection signal from each of at least one sensor (e.g., ToF sensor 111, image sensor 112, and heat detection sensor 113) included in the complex sensor unit 110. receive it as At this time, the input unit 120 is composed of one connector, and transmits a signal from each of the at least one sensor (e.g., ToF sensor 111, image sensor 112, and heat sensor 113) to the one Input is received through the connector.

다중 영상신호 처리부(130)는 입력부(120)를 통해 입력된 다수의 신호들을 결합하여 하나의 신호로 출력한다. 이를 위해, 다중 영상신호 처리부(130)는 미리 설정된 인공신경망(ANN) 알고리즘에 의거하여 이미지 센서(112)를 통해 감지된 이미지를 보정하는 과정을 먼저 수행한 후, 상기 보정된 이미지를, ToF 센서(111)에서 출력되는 3차원 거리 정보, 및 열 감지 센서(113)에서 출력되는 저해상도 열화상 이미지와 결합하여 출력한다. The multiple image signal processing unit 130 combines multiple signals input through the input unit 120 and outputs them as one signal. To this end, the multi-image signal processor 130 first performs a process of correcting the image detected through the image sensor 112 based on a preset artificial neural network (ANN) algorithm, and then sends the corrected image to the ToF sensor. The 3D distance information output from 111 and the low-resolution thermal image output from the heat detection sensor 113 are combined and output.

AI 가속기(140)는 미리 설정된 인공지능 알고리즘(예컨대, 이미지 인식 알고리즘)에 의거하여, 다중 영상신호 처리부(130)에서 생성된 이미지를 인식한다. 이를 위해, AI 가속기(140)는 사전에 생성된 적어도 하나의 클래스별 데이터셋(예컨대, 연기, 깊이, 온도들 각각에 대한 소정 개 이상의 이미지들을 취합하여 생성한 데이터셋)을 학습하여 기준 데이터를 생성한 후 미리 저장하고, 상기 기준 데이터 및 미리 설정된 인공지능 알고리즘에 의거하여, 다중 영상신호 처리부(130)에서 생성된 이미지를 인식한다. 즉, AI 가속기(140)는, 복합 센서부(110)를 통해 수집된 후 다중 영상신호 처리부(130)를 거쳐 보정된 이미지를 상기 인공지능 알고리즘에 적용하여, 사전에 학습된 기준 이미지들 중 어느 하나로 인식할 수 있다.The AI accelerator 140 recognizes the image generated by the multi-image signal processor 130 based on a preset artificial intelligence algorithm (eg, image recognition algorithm). To this end, the AI accelerator 140 learns at least one pre-generated dataset for each class (e.g., a dataset created by collecting a predetermined number of images for each of smoke, depth, and temperature) to provide reference data. After creation, it is stored in advance, and the image generated by the multi-video signal processor 130 is recognized based on the reference data and a preset artificial intelligence algorithm. That is, the AI accelerator 140 applies the image collected through the complex sensor unit 110 and then corrected through the multi-image signal processor 130 to the artificial intelligence algorithm, and selects one of the pre-learned reference images. It can be recognized as one.

이 때, 상기 기준 데이터는 AI 가속기(140)에 미리 저장될 수도 있고, AI 가속기(140)에 의해 접근 가능한 별도의 데이터베이스부(예컨대, 기준 데이터 관리 DB(150))로 구현될 수도 있다.At this time, the reference data may be pre-stored in the AI accelerator 140, or may be implemented as a separate database unit (eg, reference data management DB 150) accessible by the AI accelerator 140.

또한, AI 가속기(140)는 병렬 구조를 갖는 프로세서로서, 각각의 신호 처리 결과값을 병렬로 받아 데이터 접근 지연 없이 대용량의 데이터를 실시간으로 처리할 수 있다.In addition, the AI accelerator 140 is a processor with a parallel structure, and can receive each signal processing result in parallel and process large amounts of data in real time without data access delay.

도 2는 본 발명의 일 실시 예에 따른 다중 영상신호 처리부에 대한 개략적인 블록도이다. 도 1 및 도 2를 참조하면, 다중 영상신호 처리부(130)는 보정부(131), 및 이미지 결합부(132)를 포함한다.Figure 2 is a schematic block diagram of a multiple video signal processor according to an embodiment of the present invention. Referring to Figures 1 and 2, the multiple image signal processing unit 130 includes a correction unit 131 and an image combining unit 132.

보정부(131)는 이미지 센서(112)를 통해 감지된 이미지를 보정하는 보정하되, 후술될, 도 3에 예시된 바와 같이, 해상도 보정부(10), 역광 보정부(20), 자동 색온도 보정부(30), 및 노이즈 제거/선명도 보정부(40)를 포함한다. The correction unit 131 corrects the image detected through the image sensor 112, and as illustrated in FIG. 3, which will be described later, the resolution correction unit 10, the backlight correction unit 20, and the automatic color temperature correction. It includes a main unit (30), and a noise removal/clearness correction unit (40).

이미지 결합부(132)는 보정부(131)에서 보정된 이미지, ToF 센서(111)에서 출력되는 3차원 거리 정보, 및 열 감지 센서(113)에서 출력되는 저해상도 열화상 이미지를 결합한다. 이 때, 상기 보정된 이미지를 상기 3차원 거리정보, 및 저해상도 열화상 이미지와 결합하는 방법은, 공지된 다양한 이미지 결합 방식을 이용할 수 있다. 예를 들어, RGB카메라의 영상 데이터 또는 열화상 영상 데이터와 ToF 센서에서 받은 포인트 클라우드 데이터(PCD)인 거리(깊이)정보를 합성하는 방법과 ToF신호와 2대 이상의 카메라인 RGB카메라, 열화상 카메라를 사용하여 좌, 우 시차 영상을 입력으로 받아 각 시차 영상의 주요 특징을 추출하는 특징 추출부와 추출된 특징을 이용하여 시차 정보를 학습하는 깊이 학습부로 구성된 학습 모델인 GC-Net, PSMNet 등을 이용하여 전체 깊이 영상을 생성하는 방법을 통하여 상기 이미지들을 결합할 수 있다.The image combining unit 132 combines the image corrected by the correcting unit 131, the 3D distance information output from the ToF sensor 111, and the low-resolution thermal image output from the heat detection sensor 113. At this time, the method of combining the corrected image with the 3D distance information and the low-resolution thermal image can use various known image combining methods. For example, a method of combining image data or thermal image data from an RGB camera and distance (depth) information, which is point cloud data (PCD) received from a ToF sensor, and a ToF signal and two or more cameras, an RGB camera or a thermal image camera. GC-Net, PSMNet, etc. are learning models consisting of a feature extraction unit that receives left and right disparity images as input and extracts the main features of each disparity image, and a depth learning unit that learns disparity information using the extracted features. The images can be combined by using a method to generate a full depth image.

도 3은 본 발명의 일 실시 예에 따른 보정부에 대한 개략적인 블록도로서, 도 3을 참조하면, 상기 보정부(131)는 해상도 보정부(10), 역광 보정부(20), 자동 색온도 보정부(30), 및 노이즈 제거/선명도 보정부(40)를 포함한다. Figure 3 is a schematic block diagram of a correction unit according to an embodiment of the present invention. Referring to Figure 3, the correction unit 131 includes a resolution correction unit 10, a backlight correction unit 20, and an automatic color temperature correction unit. It includes a correction unit 30 and a noise removal/clearness correction unit 40.

해상도 보정부(10)는 이미지 센서(112)에서 감지된 저화질 이미지를 고화질 이미지로 변환한다.The resolution correction unit 10 converts the low-quality image detected by the image sensor 112 into a high-quality image.

역광 보정부(20)는 해상도 보정부(10)로부터 노출 시간을 달리한 3이상의 이미지를 전달받고, 상기 3이상의 이미지를 미리 설정된 역광 보정 신경망(WDR NN) 알고리즘에 적용하여 하나의 이미지로 결합함으로써 역광을 보정한다. The backlight correction unit 20 receives three or more images with different exposure times from the resolution correction unit 10, and combines the three or more images into one image by applying a preset backlight correction neural network (WDR NN) algorithm. Correct backlight.

자동 색 온도 보정부(30)는 역광 보정부(20)에서 역광 보정된 이미지의 색온도를 자동으로 보정한다. 이를 위해, 자동 색 온도 보정부(30)는 상기 역광 보정된 이미지에 포함된 객체별로 플랭크 화이트(Planck White) 곡선을 도출하고, 상기 객체별 플랭크 화이트 곡선을 미리 설정된 색 보정 신경망(AWB NN)에 적용하여 객체별 색 온도를 판단함으로써, 상기 객체별 색 온도를 자동으로 보정한다. The automatic color temperature correction unit 30 automatically corrects the color temperature of the backlight-corrected image in the backlight correction unit 20. To this end, the automatic color temperature correction unit 30 derives a Planck White curve for each object included in the backlight-corrected image, and applies the Planck White curve for each object to a preset color correction neural network (AWB NN). By determining the color temperature for each object, the color temperature for each object is automatically corrected.

노이즈 제거/선명도 보정부(40)는 자동 색 온도 보정부(30)로부터 전달된 색 온도 보정 이미지를, 미리 설정된 노이즈 제거/선명도 인공신경망(NR/Sharp NN)에 적용하여, 상기 색 온도 보정된 이미지에 포함된 경계선을 유지한 채 노이즈만을 제거한다. The noise removal/sharpness correction unit 40 applies the color temperature corrected image transmitted from the automatic color temperature correction unit 30 to a preset noise removal/sharpness artificial neural network (NR/Sharp NN) to produce the color temperature corrected image. Only noise is removed while maintaining the boundaries included in the image.

도 4는 본 발명의 일 실시 예에 따른 통합 영상 처리 방법에 대한 개략적인 처리 흐름도이고, 도 5는 본 발명의 일 실시 예에 따른 이미지 보정 단계에 대한 개략적인 처리 흐름도이다. 도 1 내지 도 5를 참조하여, 본 발명의 일 실시 예에 따른 통합 영상 처리 방법(즉, 복합 센서 정보를 이용하여 영상 화질을 개선하는 통합 영상 처리 방법)은 다음과 같다.FIG. 4 is a schematic processing flowchart of an integrated image processing method according to an embodiment of the present invention, and FIG. 5 is a schematic processing flowchart of an image correction step according to an embodiment of the present invention. With reference to FIGS. 1 to 5 , an integrated image processing method (i.e., an integrated image processing method that improves image quality using complex sensor information) according to an embodiment of the present invention is as follows.

먼저, 단계 S110에서는, AI 가속기(140)가 사전에 생성된 적어도 하나의 클래스별 데이터셋(예컨대, 연기, 깊이, 온도들 각각에 대한 소정 개 이상의 이미지들을 취합하여 생성한 데이터셋)을 학습하여 이미지 감지를 위한 기준 데이터를 생성하고, 그 결과를 저장한다. 이 때, AI 가속기(140)는 상기 기준 데이터를 별도의 데이터 베이스(예컨대, 기준 데이터 관리 DB(150))에 저장하거나, AI 가속기(140) 내에 자체적으로 저장할 수 있다.First, in step S110, the AI accelerator 140 learns at least one pre-generated dataset for each class (e.g., a dataset created by collecting a predetermined number of images for each of smoke, depth, and temperature) Generate reference data for image detection and store the results. At this time, the AI accelerator 140 may store the reference data in a separate database (eg, reference data management DB 150) or may store it within the AI accelerator 140 itself.

단계 S120에서는, 입력부(120)가 복합 센서부(110)에 포함된 ToF 센서(111), 이미지 센서(112), 및 열 감지 센서(113)들 각각으로부터, 대응된 감지신호를 입력받는다.In step S120, the input unit 120 receives corresponding detection signals from each of the ToF sensor 111, the image sensor 112, and the heat detection sensor 113 included in the complex sensor unit 110.

단계 S130에서는, 다중 영상신호 처리부(130)가, 미리 설정된 인공신경망(ANN, Artificial Neural Network) 알고리즘에 의거하여, 이미지 센서(112)를 통해 감지된 이미지를 보정한다. In step S130, the multiple image signal processor 130 corrects the image detected through the image sensor 112 based on a preset artificial neural network (ANN, Artificial Neural Network) algorithm.

즉, 단계 S131에서는 해상도 보정부(10)가 상기 이미지의 해상도를 보정한다. 이를 위해, 해상도 보정부(10)는 저화질의 이미지를 고화질로 향상시키기 위해 개발된 SR(Super Resolution) 알고리즘을 이용하되, 인공신경망에 기반한 SR 알고리즘을 이용함으로써, 해상도를 보다 효과적으로 높일 수 있도록 하였다.That is, in step S131, the resolution correction unit 10 corrects the resolution of the image. To this end, the resolution correction unit 10 uses the SR (Super Resolution) algorithm developed to improve low-quality images to high-quality images, and by using the SR algorithm based on an artificial neural network, the resolution can be increased more effectively.

기존의 전통적인 초해상화 기법(SR 알고리즘)들은 고해상도 영상을 복원하는 과정에서 디테일한 부분의 화질 저화 및 열화가 존재하며, 바이큐빅 보간법(Bicubic Interpolation)과 같은 다항식 기반의 보간법 혹은 선형 매핑을 사용함으로써, 복잡하고 비선형적인 저해상도-고해상도 모델을 구현하기 어려운 문제가 있었다. 따라서, 본 발명의 단계 S131에서는, 이를 해결하기 위해 여러 겹으로 쌓은 다층 네트워크를 사용하여 저해상도 입력과 고해상도 출력 간의 복잡한 비선형적 관계를 정밀하게 분석하여 보다 정확하게 변환할 수 있는 합성곱 필터 파라미터를 학습하고, 이를 통해 최적화된 고해상도 이미지를 생성할 수 있도록 하였다.Existing traditional super-resolution techniques (SR algorithms) suffer from lowering and deterioration of image quality in detailed parts during the process of restoring high-resolution images, and use polynomial-based interpolation such as bicubic interpolation or linear mapping. , there was a problem in implementing complex and nonlinear low-resolution-high-resolution models. Therefore, in step S131 of the present invention, in order to solve this problem, a multi-layer network is used to precisely analyze the complex non-linear relationship between low-resolution input and high-resolution output to learn convolution filter parameters that can be converted more accurately. , This enabled the creation of optimized high-resolution images.

단계 S132에서는, 역광 보정부(20)가 상기 단계 S131에서 고화질로 보정된 이미지에 포함된 역광을 보정한다. 이 때, 역광 보정부(20)는 밝은 영역에서의 고속도 셔터와, 어두운 영역에서의 저속도 셔터를 하나로 모아 형상화시킴으로써, 역광의 문제를 해결하고 영상 인식률을 높이도록 한다. 이를 위해, 역광 보정부(20)는, 다양한 조명환경에서도 높은 퀄리티의 이미지를 얻을 수 있도록 하기 위해 개발된 WDR(Wide Dynamic Range) 알고리즘을 이용하되, 인공신경망에 기반한 WDR(Wide Dynamic Range) 알고리즘(WDR NN, WDR Neural Network)을 이용함으로써, 더욱 효과적으로 역광을 보정할 수 있도록 하였다. In step S132, the backlight correction unit 20 corrects the backlight included in the image corrected to high definition in step S131. At this time, the backlight correction unit 20 combines the high-speed shutter in the bright area and the low-speed shutter in the dark area into one, thereby solving the backlight problem and increasing the image recognition rate. To this end, the backlight correction unit 20 uses the WDR (Wide Dynamic Range) algorithm developed to obtain high-quality images even in various lighting environments, and uses the WDR (Wide Dynamic Range) algorithm based on an artificial neural network ( By using WDR NN (WDR Neural Network), backlight can be corrected more effectively.

특히, 단계 S132에서, 역광 보정부(20)는 해상도 보정부(10)에서 고화질로 보정된 이미지들 중 노출 시간을 달리한 3 이상의 이미지를 상기 WDR NN 알고리즘에 적용하여 하나의 이미지로 결합함으로써, 다수의 이미지들을 하나로 합치는 과정에서 부자연스러운 이미지가 나타나는 현상을 해소하였다. 이 때, 노출 시간을 달리한 이미지를 많이 선택할수록, 더욱 자연스러운 이미지를 생성할 수 있다. 따라서 역광 보정부(20)는 연산 시간과 자연스러운 정도를 함께 고려하여 최적의 결과를 얻을 수 있도록 상기 노출 시간을 달리한 이미지의 장수를 결정할 수 있다.In particular, in step S132, the backlight correction unit 20 applies the WDR NN algorithm to three or more images with different exposure times among the images corrected to high quality in the resolution correction unit 10 to combine them into one image, The phenomenon of unnatural images appearing during the process of combining multiple images into one has been resolved. At this time, the more images with different exposure times are selected, the more natural images can be created. Therefore, the backlight correction unit 20 can determine the number of images with different exposure times to obtain optimal results by considering both computation time and naturalness.

한편, 사람의 눈은 카메라와 비교하여 밝은 영역보다 어두운 영역에 더 민감한 특징이 있다. 이는 두 배의 빛이 조사된 카메라의 센서는 선형적으로 두 배의 광량으로 인식하지만, 사람의 눈은 비선형적으로 일부만 밝은 것으로 인식하기 때문이다. 따라서 사진 보정시 밝은 부분과 어두운 부분을 정확히 대비시켜야 하는데, 이를 위해, 단계 S132에서, 역광 보정부(20)는 역광 인공신경망에 기반한 WDR(Wide Dynamic Range) 알고리즘(WDR NN, WDR Neural Network)을 적용함으로써 이러한 문제를 해결하였다. 즉, 단계 S132에서, 역광 보정부(20)는 보정 대상 이미지들을 바탕으로 최적화된 Contrast Gain Curve를 생성해 내어 대비 보정(Contrast Correction)을 정확히 함으로써, 기존 이미지 대비 어두운 영역을 개선하였다.Meanwhile, compared to cameras, the human eye has the characteristic of being more sensitive to dark areas than to bright areas. This is because the sensor of a camera that receives twice the amount of light linearly recognizes the amount of light as twice the amount of light, but the human eye non-linearly recognizes it as only partially bright. Therefore, when correcting a photo, it is necessary to accurately contrast the bright and dark parts. To this end, in step S132, the backlight correction unit 20 uses a WDR (Wide Dynamic Range) algorithm (WDR NN, WDR Neural Network) based on a backlight artificial neural network. This problem was solved by applying That is, in step S132, the backlight correction unit 20 generates an optimized Contrast Gain Curve based on the images subject to correction and accurately performs Contrast Correction, thereby improving the dark area compared to the existing image.

도 6은 이러한 본 발명의 역광 보정의 효과를 종래와 비교하여 설명하기 위한 도면으로서, 도 6의 (a)는 역광 보정을 위해 선택된, 노출 시간을 달리한 2장의 이미지들을 나타내고, 도 6의 (b)는 종래의 WDR 진행 과정(20a)의 예를 나타내고, 도 6의 (c)는 도 6의 (a)에 예시된 이미지들을 도 6의 (b)에 예시된 방식으로 처리한 결과로 도출된 이미지의 예를 나타내고, 도 6의 (d)는 본 발명의 일 실시 예에 따른 인공신경망(ANN) 기반의 WDR 진행 과정(20b)의 예를 나타내고, 도 6의 (e)는 도 6의 (a)에 예시된 이미지들을 도 6의 (d)에 예시된 방식으로 처리한 결과로 도출된 이미지의 예를 나타낸다. FIG. 6 is a diagram for explaining the effect of backlight correction of the present invention compared to the prior art. FIG. 6 (a) shows two images with different exposure times selected for backlight correction, and FIG. 6 (a) shows two images with different exposure times selected for backlight correction. b) shows an example of the conventional WDR process (20a), and Figure 6(c) is the result of processing the images illustrated in Figure 6(a) in the manner illustrated in Figure 6(b). Shows an example of an image, and Figure 6(d) shows an example of an artificial neural network (ANN)-based WDR process (20b) according to an embodiment of the present invention, Figure 6(e) shows an example of Figure 6 An example of an image derived as a result of processing the images illustrated in (a) in the manner illustrated in (d) of FIG. 6 is shown.

도 6의 (b)를 참조하면, 종래의 WDR 진행 과정(20a)은 도 6의 (a)에 예시된 이미지들(즉, 노출 시간을 달리한 이미지들)을 수집하는 과정(Long/Short Fusion)(21a), 상기 이미지들을 톤 매핑(Tone Mapping)하여 합치는 과정(22a), 및 톤 매핑(Tone Mapping) 결과에 대한 대비 보정(Contrast Correction) 과정(23a)을 포함한다. Referring to (b) of FIG. 6, the conventional WDR process (20a) is a process of collecting the images (i.e., images with different exposure times) illustrated in (a) of FIG. 6 (Long/Short Fusion) ) (21a), a process of combining the images by tone mapping (22a), and a contrast correction process (23a) for the tone mapping result.

한편, 도 6의 (d)를 참조하면, 본 발명의 일 실시 예에 따른 인공신경망(ANN) 기반의 WDR 진행 과정(20b)은 도 6의 (a)에 예시된 이미지들(즉, 노출 시간을 달리한 이미지들)을 수집하는 과정(Long/Short Fusion)(21b), 상기 이미지들을 톤 매핑(Tone Mapping)하여 합치는 과정(22b), 및 톤 매핑(Tone Mapping) 결과에 대한 대비 보정(Contrast Correction)(23b)과정을 포함하되, 상기 이미지 수집 과정(21b)을 위해 역광 보정 신경망(WDR NN)(24b)을 적용하고, 역광 보정 신경망(WDR NN)(24b)에 의해 보정 이득 커브(Contrast Gain Curve)를 생성(25b)한 후, 이를 대비보정 과정(23b)에 반영한다. 이는, 밝은 영역의 픽셀 이미지와 어두운 영역의 픽셀 이미지의 비율을 결정하기 위함이다.Meanwhile, referring to (d) of FIG. 6, the artificial neural network (ANN)-based WDR process (20b) according to an embodiment of the present invention uses the images illustrated in (a) of FIG. 6 (i.e., exposure time A process of collecting different images (Long/Short Fusion) (21b), a process of combining the images by tone mapping (22b), and contrast correction for the tone mapping results ( Contrast Correction (23b) process, applying a backlight correction neural network (WDR NN) (24b) for the image collection process (21b), and generating a correction gain curve (24b) by the backlight correction neural network (WDR NN) (24b) After creating a Contrast Gain Curve (25b), this is reflected in the contrast correction process (23b). This is to determine the ratio of the pixel image in the bright area and the pixel image in the dark area.

이로 인해, 도 6의 (c) 및 도 6의 (e)에 예시된 바와 같이, 본 발명의 일 실시 예에 따른 인공신경망(ANN) 기반의 WDR 진행 결과(e)가, 종래의 WDR 진행 결과(c) 보다 자연스러운 것을 알 수 있다.For this reason, as illustrated in Figures 6(c) and 6(e), the artificial neural network (ANN)-based WDR progress result (e) according to an embodiment of the present invention is different from the conventional WDR progress result. (c) You can see something more natural.

단계 S133에서는, 자동 색온도 보정부(30)가 상기 역광 보정된 이미지에 포함된 객체별로 색온도를 자동으로 보정한다. 즉, 단계 S133에서, 자동 색온도 보정부(30)는 역광 보정부(20)에서 출력된 이미지를 인공신경망에 인가하여 상기 객체별 색온도를 자동으로 보정한다. 이를 위해, 자동 색온도 보정부(30)는, 색온도를 적합하게 유지시켜줌으로써 화질을 개선시키고 영상 인식률을 증대시키도록 하기 위해 개발된 AWB(Auto White Balance) 알고리즘을 이용하되, 인공신경망에 기반한 AWB 알고리즘을 이용함으로써, 더욱 효과적으로 색온도를 보정할 수 있도록 하였다.In step S133, the automatic color temperature correction unit 30 automatically corrects the color temperature for each object included in the backlight-corrected image. That is, in step S133, the automatic color temperature correction unit 30 applies the image output from the backlight correction unit 20 to the artificial neural network to automatically correct the color temperature for each object. To this end, the automatic color temperature correction unit 30 uses the AWB (Auto White Balance) algorithm developed to improve image quality and increase image recognition rate by maintaining the color temperature appropriately, and uses the AWB algorithm based on an artificial neural network. By using , the color temperature can be corrected more effectively.

특히, 단계 S133에서, 자동 색온도 보정부(30)는 상기 역광 보정된 이미지로부터, 객체별 플랭크 화이트(Planck White) 곡선을 도출하여 색온도를 판단하고, 상기 객체별 플랭크 화이트 곡선을 미리 설정된 색 보정 신경망(AWB NN)에 적용하여 객체별 색 온도를 보정하는 일련의 과정을 수행한다. 예를 들어, 입력 영상에 포함된 임의의 객체에 대한 색온도가 낮으면, 붉은색을 띄므로, 차가운 색인 파란색 계열 필터를 사용하여 색 보정을 실시할 수 있다.In particular, in step S133, the automatic color temperature correction unit 30 determines the color temperature by deriving a Planck White curve for each object from the backlight-corrected image, and calculates the Planck White curve for each object using a preset color correction neural network. (AWB NN) is applied to perform a series of processes to correct the color temperature of each object. For example, if the color temperature of any object included in the input image is low, it appears red, so color correction can be performed using a cool blue filter.

도 7a 및 도 7b는 이러한 자동 색 온도 보정의 효과를 종래와 비교하여 설명하기 위한 도면들로서, 도 7a는 종래의 AWB 진행과정 및 그 결과를 예시하고, 도 7b는 본 발명의 일 실시 예에 따라 인공신경망에 기반한 AWB 진행과정 및 그 결과를 예시한다.FIGS. 7A and 7B are diagrams for explaining the effect of automatic color temperature correction compared to the prior art. FIG. 7A illustrates the conventional AWB process and its results, and FIG. 7B illustrates the conventional AWB process and its results according to an embodiment of the present invention. This illustrates the AWB process and results based on artificial neural networks.

이 때, 도 7a의 (a)는 풍경을 촬영한 원본사진으로서, 하늘객체(A)와 땅객체(B)를 포함하는 풍경사진의 예를 나타내고, 도 7a의 (b)는 도 7a의 (a)에 예시된 원본사진에 대한 객체별(A, B) 플랭크 화이트 곡선을 예시하고, 도 7a의 (c) 및 (d)는 종래의 AWB를 수행한 결과, 즉, 종래의 AWB로 보정된 결과로서, 도 7a의 (c)는 하늘색에 맞추어 파란색 필터가 적용된 예를 나타내고, 도 7a의 (d)는 땅 색에 맞추어 붉은색 필터가 적용된 예를 나타낸다.At this time, (a) in Figure 7a is an original photo of a landscape, showing an example of a landscape photo including a sky object (A) and a ground object (B), and (b) in Figure 7a (b) in Figure 7a ( The plank white curve for each object (A, B) for the original photo illustrated in a) is illustrated, and (c) and (d) of Figure 7a are the results of performing the conventional AWB, that is, the results corrected by the conventional AWB. As a result, Figure 7a (c) shows an example in which a blue filter is applied to match the sky color, and Figure 7a (d) shows an example in which a red filter is applied to match the ground color.

도 7a의 (c) 및 (d)를 참조하면, 종래의 자동 색온도 보정 시, 하늘색에 맞추어 파란색 필터를 적용한 경우 땅도 같이 파란색을 띄고, 땅 색에 맞추어 붉은색 필터를 적용한 경우 하늘도 붉은색을 띄게 되어, 원본 사진과 유사도가 떨어짐을 알 수 있다.Referring to (c) and (d) of Figure 7a, during conventional automatic color temperature correction, when a blue filter is applied to match the color of the sky, the ground is also blue, and when a red filter is applied to match the color of the ground, the sky is also red. You can see that it has less similarity to the original photo.

한편, 도 7b의 (a)는 도 7a의 (a)와 같이, 하늘객체(A)와 땅객체(B)를 포함하는 풍경사진의 예를 나타내고, 도 7b의 (b)는 도 7b의 (a)에 예시된 원본사진에 대한 객체별(A, B)로 플랭크 화이트 곡선을 도출한 후, 이를, 색 보정 인공신경망에 기반한 AWB(즉, AWB NN)에 적용하는 과정을 예시하고, 도 7b의 (c)는 ANN 기반 AWB를 수행한 결과, 즉, ANN 기반 AWB로 보정된 결과로서, 객체별 색온도 판단 결과에 따라 서로 다른 필터가 적용된 예를 나타낸다. 즉, 도 7b의 (c)는 하늘객체(A)와 땅객체(B) 각각에 서로 다른 필터를 적용하여 색온도를 보정한 예를 나타낸다.Meanwhile, (a) in Figure 7b shows an example of a landscape photo including a sky object (A) and a ground object (B), as in (a) in Figure 7a, and (b) in Figure 7b shows ( The process of deriving a Plank White curve for each object (A, B) for the original photo shown in a) and then applying it to AWB (i.e., AWB NN) based on a color correction artificial neural network is illustrated, Figure 7b (c) is the result of performing ANN-based AWB, that is, the result corrected by ANN-based AWB, and shows an example in which different filters are applied according to the color temperature judgment result for each object. That is, (c) in Figure 7b shows an example of color temperature correction by applying different filters to each of the sky object (A) and the ground object (B).

단계 S134에서는, 노이즈 제거/선명도 보정부(40)가 상기 자동 색온도 보정된 이미지에 포함된 노이즈를 제거하되, 선명도를 유지하면서 노이즈를 제거한다. 즉, 단계 S134에서, 노이즈 제거/선명도 보정부(40)는 영상에 노이즈가 많은 저조도 상태와 노이즈가 적은 야외 상태를 동시에 파악하여 서로 다른 노이즈 제거와 선명도 조절을 통해 저조도/고조도 이미지 양쪽을 만족하는 결과를 얻을 수 있도록 한다. 이를 위해, 단계 S134에서, 노이즈 제거/선명도 보정부(40)는 상기 자동 색온도 보정된 이미지를 노이즈 제거/선명도 인공신경망(NR/Shart NN)에 적용하되, 상기 색 온도가 보정된 이미지에 포함된 경계선의 세부적인 부분을 유지한 채 노이즈를 줄이는 다양한 필터(filter)들 중 하나를 선택 적용함으로써, 상기 이미지의 선명도를 유지하면서 노이즈를 제거할 수 있다. In step S134, the noise removal/sharpness correction unit 40 removes noise included in the automatically color temperature corrected image while maintaining sharpness. That is, in step S134, the noise removal/sharpness correction unit 40 simultaneously identifies a low-light state with a lot of noise in the image and an outdoor state with little noise, and satisfies both low-light and high-light images through different noise removal and sharpness adjustments. to achieve results. To this end, in step S134, the noise removal/sharpness correction unit 40 applies the automatically color temperature corrected image to a noise removal/sharpness artificial neural network (NR/Shart NN), and uses By selecting and applying one of various filters that reduce noise while maintaining the details of the border, noise can be removed while maintaining the clarity of the image.

예를 들어, 단계 S132의 역광 보정 과정 중, 가장 밝은 노출 컷에서도 최소한의 밝기가 제공되지 못하는 부분은 거친 노이즈값으로 채워지게 되며, 톤 매핑(Tone Mapping) 과정에서 노이즈가 더욱 증가하게 되는데, 이러한 노이즈를 감소 또는 제거하는 처리만 수행할 경우, 이미지는 전체적으로 부드러워지지만 선명도가 낮아져서 윤곽이 흐려질 수 있다. 따라서, 단계 S134에서는, 노이즈 제거/선명도 보정부(40)가 상기 NR/Shart NN을 적용하여 상기 이미지를 보정함으로써, 선명도를 유지하면서 노이즈를 제거할 수 있도록 한다.For example, during the backlight compensation process in step S132, areas where minimum brightness is not provided even in the brightest exposure cut are filled with rough noise values, and noise further increases during the tone mapping process. If you only perform processing to reduce or remove noise, the overall image will be smoother, but the sharpness may be lowered and the outlines may be blurred. Therefore, in step S134, the noise removal/sharpness correction unit 40 corrects the image by applying the NR/Shart NN to remove noise while maintaining sharpness.

도 8은 이러한 본 발명의 노이즈 제거 및 선명도 보정의 효과를 종래와 비교하여 설명하기 위한 도면으로서, 도 8의 (a)는 노이즈 제거 및 선명도 보정을 위해 선택된 2장의 이미지(즉, 고주파 이미지와 저주파 이미지)의 예를 나타내고, 도 8의 (b)는 종래의 노이즈 제거 및 선명도 보정 과정(40a)의 예를 나타내고, 도 8의 (c)는 도 8의 (a)에 예시된 이미지들을 도 8의 (b)에 예시된 방식으로 처리한 결과로 도출된 이미지의 예를 나타내고, 도 8의 (d)는 본 발명의 일 실시 예에 따른 인공신경망(ANN) 기반의 노이즈 제거 및 선명도 보정 과정(40b)의 예를 나타내고, 도 8의 (e)는 도 8의 (a)에 예시된 이미지들을 도 8의 (d)에 예시된 방식으로 처리한 결과로 도출된 이미지의 예를 나타낸다. FIG. 8 is a diagram for explaining the effects of noise removal and sharpness correction of the present invention compared to the prior art. FIG. 8 (a) shows two images (i.e., a high-frequency image and a low-frequency image) selected for noise removal and sharpness correction. (b) of FIG. 8 shows an example of the conventional noise removal and sharpness correction process 40a, and (c) of FIG. 8 shows the images illustrated in (a) of FIG. 8. An example of an image derived as a result of processing in the manner illustrated in (b) is shown, and (d) in Figure 8 shows the noise removal and sharpness correction process based on an artificial neural network (ANN) according to an embodiment of the present invention ( 40b) shows an example, and FIG. 8(e) shows an example of an image derived as a result of processing the images illustrated in FIG. 8(a) in the manner illustrated in FIG. 8(d).

도 8의 (b)를 참조하면, 종래의 노이즈 제거 및 선명도 보정 과정(40a)은 도 8의 (a)에 예시된 이미지들(즉, 고주파 이미지와 저주파 이미지)로부터 노이즈를 제거하는 과정(Noise Reduction)(41a), 선명도 보정과정(Sharpness)(42a), 및 상기 과정들(41a, 42a)의 강도를 제어하는 과정(Strength control)(43a)을 포함한다. Referring to (b) of FIG. 8, the conventional noise removal and sharpness correction process 40a is a process of removing noise from the images (i.e., high-frequency images and low-frequency images) illustrated in (a) of FIG. Reduction 41a, sharpness correction 42a, and strength control 43a of the processes 41a and 42a.

한편, 도 8의 (d)를 참조하면, 본 발명의 일 실시 예에 따른 인공신경망(ANN) 기반의 노이즈 제거 및 선명도 보정과정(40b)은 도 8의 (a)에 예시된 이미지들(즉, 고주파 이미지와 저주파 이미지)로부터 노이즈를 제거하는 과정(Noise Reduction)(41b), 선명도 보정과정(Sharpness)(42b), 및 상기 과정들(41b, 42b)의 동작을 제어하기 위한 필터 선택 과정(Filter Selection)(46a)을 포함하되, 상기 NR/Shart NN을 적용한 Scene Detection, 및 강도 제어(Strength control) 과정들(43b, 44b, 45b)을 더 포함할 수 있다. 이는 노이즈 제거와, 선명도 보정의 경계를 정확히 결정하기 위함이다.Meanwhile, referring to (d) of FIG. 8, the artificial neural network (ANN)-based noise removal and sharpness correction process (40b) according to an embodiment of the present invention is performed on the images illustrated in (a) of FIG. 8 (i.e. , a process of removing noise from high-frequency images and low-frequency images (Noise Reduction) (41b), a sharpness correction process (Sharpness) (42b), and a filter selection process ( Filter Selection) (46a), and may further include Scene Detection and Strength Control processes (43b, 44b, 45b) applying the NR/Shart NN. This is to accurately determine the boundary between noise removal and sharpness correction.

이와 같이 도 5에 예시된 일련의 과정들(S131 내지 S134)을 통해, 이미지가 보정되면, 단계 S140에서, 다중 영상신호 처리부(130)는, 상기 보정된 이미지, ToF 센서(111)에서 출력되는 3차원 거리 정보, 및 열 감지 센서(113)에서 출력되는 저해상도 열화상 이미지를 결합한다. 이 때, 상기 이미지들을 결합하기 위한 구체적인 처리 과정은 공지의 기술들을 이용할 수 있다.When the image is corrected through a series of processes (S131 to S134) illustrated in FIG. 5, in step S140, the multiple image signal processor 130 processes the corrected image output from the ToF sensor 111. The 3D distance information and the low-resolution thermal image output from the heat detection sensor 113 are combined. At this time, the specific processing process for combining the images can use known technologies.

단계 S150에서는, AI 가속기(140)가, 미리 저장된 기준 데이터, 및 단계 S140에서 결합된 이미지를 미리 설정된 인공지능 알고리즘에 적용하여, 이미지를 인식한다. In step S150, the AI accelerator 140 applies the pre-stored reference data and the image combined in step S140 to a preset artificial intelligence algorithm to recognize the image.

이와 같이 함으로써, 본 발명은 복합 센서의 신호들을 하나의 프로세서에서 통합 처리함으로써, 전력 및 면적을 효율적으로 활용하고, 이로 인해, 처리 속도를 향상시킴으로써, 데이터 접근 지연 없이 대용량의 데이터를 실시간으로 처리할 수 있는 특징이 있다.By doing this, the present invention integrates and processes signals from complex sensors in one processor, efficiently utilizing power and area, and thereby improving processing speed, making it possible to process large amounts of data in real time without data access delay. There are features that can be used.

또한, 본 발명은 복합 센서 정보를 이용함으로써, 단독 이미지 센서에 의존하는 시스템의 한계를 극복할 수 있고, 이로 인해, 공장 등 실내 근로자, 화재 현장의 소방관, 작전 중인 군인 등 다양한 응용 분야에서 감지 정보 보조 수단으로 활용할 수 있어서, 활용 분야를 확장시킬 수 있다. In addition, by using complex sensor information, the present invention can overcome the limitations of systems that rely on a single image sensor, thereby providing sensed information in various application fields such as indoor workers in factories, firefighters at fire sites, and soldiers in operation. It can be used as an auxiliary means, expanding the field of use.

이상에서는 본 발명의 실시 예를 설명하였으나, 본 발명의 권리범위는 이에 한정되지 아니하며 본 발명이 실시 예로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 용이하게 변경되어 균등한 것으로 인정되는 범위의 모든 변경 및 수정을 포함한다.Although the embodiments of the present invention have been described above, the scope of the rights of the present invention is not limited thereto, and the present invention can be easily modified from the embodiments by those skilled in the art in the technical field to which the present invention belongs and is recognized as equivalent. Includes all changes and modifications to the extent permitted.

100: 통합 영상 처리 장치 110: 복합센서부
111: ToF 센서 112: 이미지 센서
113: 열감지 센서 120: 입력부
130: 다중 영상신호 처리부 131: 보정부
10: 해상도 보정부 20: 역광 보정부
30: 자동 색온도 보정부 40: 노이즈 제거/선명도 보정부
132: 이미지 결합부 140: AI 가속기
150: 기준 데이터 관리 DB
100: Integrated image processing device 110: Complex sensor unit
111: ToF sensor 112: Image sensor
113: heat detection sensor 120: input unit
130: Multiple video signal processing unit 131: Correction unit
10: Resolution correction unit 20: Backlight correction unit
30: Automatic color temperature correction unit 40: Noise removal/clearness correction unit
132: Image combining unit 140: AI accelerator
150: Standard data management DB

Claims (7)

복합 센서 정보를 이용하여 영상 화질을 개선하는 통합 영상 처리 장치에 있어서,
이미지 센서, ToF 센서, 및 열 감지 센서를 포함하는 복합 센서들 각각으로부터, 대응된 감지신호를 입력으로 받는 입력부;
상기 입력부를 통해 입력된 다수의 신호들을 결합하여 하나의 신호로 출력하되, 미리 설정된 인공신경망(ANN) 알고리즘에 의거하여 상기 이미지 센서를 통해 감지된 이미지를 보정하는 보정부를 구비하고, 상기 보정부에서 보정된 이미지, 상기 ToF 센서에서 출력되는 3차원 거리 정보, 및 상기 열 감지 센서에서 출력되는 저해상도 열화상 이미지를 결합하여 출력하는 다중 영상신호 처리부; 및
사전에 생성된 적어도 하나의 클래스별 데이터 셋을 학습하여 기준 데이터를 생성한 후 미리 저장하고, 상기 기준 데이터 및 미리 설정된 인공지능 알고리즘에 의거하여, 상기 다중 영상신호 처리부에서 생성된 이미지를 인식하는 AI 가속기를 포함하고,
상기 보정부는
상기 이미지 센서를 통해 감지된 저화질 이미지를 고화질 이미지로 변환하는 해상도 보정부; 및
상기 해상도 보정부로부터 노출 시간을 달리한 3이상의 이미지를 전달받아 하나의 이미지로 결합함으로써 역광을 보정하되, 상기 3이상의 이미지들을 미리 설정된 역광보정신경망(WDR NN) 알고리즘에 적용하여 보정이득커브(Contrast Gain Curve)를 생성한 후, 상기 보정이득커브를 대비보정과정에 반영하여 밝은 영역의 픽셀이미지와 어두운 영역의 픽셀이미지 비율을 결정하는 역광 보정부를 포함하는 것을 특징으로 하는 통합 영상 처리 장치.
In an integrated image processing device that improves image quality using complex sensor information,
an input unit that receives corresponding detection signals from each of the complex sensors including an image sensor, a ToF sensor, and a heat detection sensor;
A correction unit is provided to combine a plurality of signals input through the input unit and output the signal as a single signal, and to correct the image detected through the image sensor based on a preset artificial neural network (ANN) algorithm. a multi-image signal processor that combines and outputs a corrected image, 3D distance information output from the ToF sensor, and a low-resolution thermal image output from the heat detection sensor; and
AI that learns at least one pre-generated data set for each class to generate reference data and stores it in advance, and recognizes the image generated by the multi-video signal processor based on the reference data and a preset artificial intelligence algorithm Contains an accelerator,
The correction unit
a resolution correction unit that converts a low-quality image detected through the image sensor into a high-quality image; and
Backlight is corrected by receiving three or more images with different exposure times from the resolution correction unit and combining them into one image, and applying the three or more images to a preset backlight correction neural network (WDR NN) algorithm to create a correction gain curve (Contrast) An integrated image processing device comprising a backlight correction unit that generates a gain curve and then determines the ratio of the pixel image in the bright area to the pixel image in the dark area by reflecting the compensation gain curve in the contrast correction process.
제1항에 있어서, 상기 다중 영상신호 처리부는
상기 보정된 이미지, 상기 ToF 센서에서 출력되는 3차원 거리 정보, 및 상기 열 감지 센서에서 출력되는 저해상도 열화상 이미지를 결합하는 이미지 결합부를 포함하는 것을 특징으로 하는 통합 영상 처리 장치.
The method of claim 1, wherein the multiple video signal processing unit
An integrated image processing device comprising an image combiner that combines the corrected image, 3D distance information output from the ToF sensor, and a low-resolution thermal image output from the heat detection sensor.
제2항에 있어서, 상기 보정부는
상기 역광 보정된 이미지에 포함된 객체별로 플랭크 화이트(Planck White) 곡선을 도출하고, 상기 객체별 플랭크 화이트 곡선을 미리 설정된 색 보정 신경망(AWB NN)에 적용하여 객체별 색 온도를 판단함으로써, 상기 객체별 색 온도를 자동으로 보정하는 자동 색 온도 보정부를 더 포함하는 것을 특징으로 하는 통합 영상 처리 장치.
The method of claim 2, wherein the correction unit
By deriving a Planck White curve for each object included in the backlight-corrected image and applying the Planck White curve for each object to a preset color correction neural network (AWB NN) to determine the color temperature for each object, the object An integrated image processing device further comprising an automatic color temperature correction unit that automatically corrects the star color temperature.
제3항에 있어서, 상기 보정부는
상기 자동 색 온도 보정부로부터 전달된 색 온도 보정 이미지를, 미리 설정된 노이즈 제거/선명도 인공신경망(NR/Sharp NN)에 적용하여, 상기 색 온도 보정 이미지에 포함된 경계선을 유지한 채 노이즈를 제거하는 노이즈 제거/선명도 보정부를 더 포함하는 것을 특징으로 하는 통합 영상 처리 장치.
The method of claim 3, wherein the correction unit
The color temperature correction image transmitted from the automatic color temperature correction unit is applied to a preset noise removal/sharpness artificial neural network (NR/Sharp NN) to remove noise while maintaining the boundary line included in the color temperature correction image. An integrated image processing device further comprising a noise removal/clearness correction unit.
이미지 센서, ToF 센서, 및 열 감지 센서를 포함하는 복합 센서를 구비한 통합 영상 처리 장치가 상기 복합 센서 정보를 이용하여 영상 화질을 개선하는 통합 영상 처리 방법에 있어서,
사전에 생성된 적어도 하나의 클래스별 데이터셋을 학습하여 이미지 감지를 위한 기준 데이터를 생성하여 저장하는 학습단계;
상기 이미지 센서, ToF 센서, 및 열 감지 센서를 포함하는 복합 센서들 각각으로부터, 대응된 감지신호를 입력으로 받는 입력단계;
미리 설정된 인공신경망(ANN) 알고리즘에 의거하여 상기 이미지 센서를 통해 감지된 이미지를 보정하는 보정단계;
상기 보정된 이미지, 상기 ToF 센서에서 출력되는 3차원 거리 정보, 및 상기 열 감지 센서에서 출력되는 저해상도 열화상 이미지를 하나로 결합하는 결합단계; 및
상기 기준 데이터 및 상기 결합된 이미지를 미리 설정된 인공지능 알고리즘에 적용하여, 이미지를 인식하는 인식단계를 포함하되,
상기 보정단계는
상기 이미지 센서를 통해 감지된 저화질 이미지를 고화질 이미지로 변환하는 해상도 보정단계; 및
상기 해상도 보정단계에서 처리된 이미지들 중 노출시간을 달리한 3이상의 이미지를 전달받아 하나의 이미지로 결합함으로써 역광을 보정하되, 상기 3이상의 이미지들을 미리 설정된 역광보정신경망(WDR NN) 알고리즘에 적용하여 보정이득커브(Contrast Gain Curve)를 생성한 후, 상기 보정이득커브를 대비보정과정에 반영하여 밝은 영역의 픽셀이미지와 어두운 영역의 픽셀이미지 비율을 결정하는 역광 보정단계를 포함하는 것을 특징으로 하는 통합 영상 처리 방법.
An integrated image processing method in which an integrated image processing device equipped with a complex sensor including an image sensor, a ToF sensor, and a heat sensor improves image quality by using the complex sensor information,
A learning step of generating and storing reference data for image detection by learning at least one pre-generated dataset for each class;
An input step of receiving a corresponding detection signal from each of the complex sensors including the image sensor, the ToF sensor, and the heat detection sensor;
A correction step of correcting the image detected through the image sensor based on a preset artificial neural network (ANN) algorithm;
A combining step of combining the corrected image, the 3D distance information output from the ToF sensor, and the low-resolution thermal image output from the heat detection sensor into one; and
A recognition step of recognizing the image by applying the reference data and the combined image to a preset artificial intelligence algorithm,
The correction step is
A resolution correction step of converting a low-quality image detected through the image sensor into a high-quality image; and
Among the images processed in the resolution correction step, three or more images with different exposure times are received and combined into one image to correct backlight, and the three or more images are applied to a preset backlight correction neural network (WDR NN) algorithm. Integration comprising a backlight correction step of generating a contrast gain curve and then reflecting the contrast gain curve in the contrast correction process to determine the ratio of the pixel image in the bright area and the pixel image in the dark area. Image processing method.
제5항에 있어서, 상기 보정단계는
상기 역광 보정된 이미지에 포함된 객체별로 플랭크 화이트(Planck White) 곡선을 도출하고, 상기 객체별 플랭크 화이트 곡선을 미리 설정된 색 보정 신경망(AWB NN)에 적용하여 객체별 색 온도를 판단함으로써, 상기 객체별 색 온도를 자동으로 보정하는 자동 색 온도 보정단계를 더 포함하는 것을 특징으로 하는 통합 영상 처리 방법.
The method of claim 5, wherein the correction step is
By deriving a Planck White curve for each object included in the backlight-corrected image and applying the Planck White curve for each object to a preset color correction neural network (AWB NN) to determine the color temperature for each object, the object An integrated image processing method further comprising an automatic color temperature correction step for automatically correcting the star color temperature.
제6항에 있어서, 상기 보정단계는
상기 자동 색 온도 보정단계에서 색 온도가 보정된 이미지를, 미리 설정된 노이즈 제거/선명도 인공신경망(NR/Sharp NN)에 적용하여, 상기 색 온도가 보정된 이미지에 포함된 경계선을 유지한 채 노이즈를 제거하는 노이즈 제거/선명도 보정단계를 더 포함하는 것을 특징으로 하는 통합 영상 처리 방법.
The method of claim 6, wherein the correction step is
In the automatic color temperature correction step, the color temperature corrected image is applied to a preset noise removal/sharpness artificial neural network (NR/Sharp NN) to reduce noise while maintaining the boundary line included in the color temperature corrected image. An integrated image processing method further comprising a noise removal/clearness correction step.
KR1020210163792A 2021-11-24 2021-11-24 Integrated image processing apparatus and method for improving image quality using complex sensor information KR102584573B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210163792A KR102584573B1 (en) 2021-11-24 2021-11-24 Integrated image processing apparatus and method for improving image quality using complex sensor information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210163792A KR102584573B1 (en) 2021-11-24 2021-11-24 Integrated image processing apparatus and method for improving image quality using complex sensor information

Publications (2)

Publication Number Publication Date
KR20230076658A KR20230076658A (en) 2023-05-31
KR102584573B1 true KR102584573B1 (en) 2023-10-04

Family

ID=86543082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210163792A KR102584573B1 (en) 2021-11-24 2021-11-24 Integrated image processing apparatus and method for improving image quality using complex sensor information

Country Status (1)

Country Link
KR (1) KR102584573B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210360214A1 (en) * 2020-05-18 2021-11-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102362447B1 (en) 2017-05-23 2022-02-14 삼성전자 주식회사 Method and apparatus for image processing by using dual image sensor
KR102146837B1 (en) * 2018-09-05 2020-08-21 주식회사 옵트론텍 Image sysntehsis device and driving assitance system including the same
US11940804B2 (en) * 2019-12-17 2024-03-26 Motional Ad Llc Automated object annotation using fused camera/LiDAR data points
KR20210127591A (en) * 2020-04-14 2021-10-22 에스케이하이닉스 주식회사 Image processing apparatus and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210360214A1 (en) * 2020-05-18 2021-11-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Also Published As

Publication number Publication date
KR20230076658A (en) 2023-05-31

Similar Documents

Publication Publication Date Title
US20240106971A1 (en) Method and system for generating at least one image of a real environment
US11037278B2 (en) Systems and methods for transforming raw sensor data captured in low-light conditions to well-exposed images using neural network architectures
CN106713755A (en) Method and apparatus for processing panoramic image
CN110473185A (en) Image processing method and device, electronic equipment, computer readable storage medium
CN102959942B (en) Image capture device for stereoscopic viewing-use and control method thereof
CN104023177A (en) Camera control method, device and camera
US20220172331A1 (en) Image inpainting with geometric and photometric transformations
CN111027415B (en) Vehicle detection method based on polarization image
US10109063B2 (en) Image processing in a multi-channel camera
CN115223004A (en) Method for generating confrontation network image enhancement based on improved multi-scale fusion
CN110276831B (en) Method and device for constructing three-dimensional model, equipment and computer-readable storage medium
WO2021184029A1 (en) Systems and methods for fusing color image and near-infrared image
CN104184935A (en) Image shooting device and method
CN110490196A (en) Subject detection method and apparatus, electronic equipment, computer readable storage medium
CN114862698A (en) Method and device for correcting real overexposure image based on channel guidance
CN113298177B (en) Night image coloring method, device, medium and equipment
CN113781326A (en) Demosaicing method and device, electronic equipment and storage medium
KR102584573B1 (en) Integrated image processing apparatus and method for improving image quality using complex sensor information
WO2023246392A1 (en) Image acquisition method, apparatus and device, and non-transient computer storage medium
KR102594892B1 (en) Object recognition system using artificial intelligence
GB2585197A (en) Method and system for obtaining depth data
WO2022193132A1 (en) Image detection method and apparatus, and electronic device
KR102389284B1 (en) Method and device for image inpainting based on artificial intelligence
CN106960421A (en) Evening images defogging method based on statistical property and illumination estimate
CN115699073A (en) Neural network supported camera image or video processing pipeline

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant