KR102625104B1 - Camera Image Compensation Apparatus and Method Thereof - Google Patents

Camera Image Compensation Apparatus and Method Thereof Download PDF

Info

Publication number
KR102625104B1
KR102625104B1 KR1020220135888A KR20220135888A KR102625104B1 KR 102625104 B1 KR102625104 B1 KR 102625104B1 KR 1020220135888 A KR1020220135888 A KR 1020220135888A KR 20220135888 A KR20220135888 A KR 20220135888A KR 102625104 B1 KR102625104 B1 KR 102625104B1
Authority
KR
South Korea
Prior art keywords
image
boundary value
images
target object
processing device
Prior art date
Application number
KR1020220135888A
Other languages
Korean (ko)
Inventor
김지은
정찬영
김용은
노형주
Original Assignee
한국자동차연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국자동차연구원 filed Critical 한국자동차연구원
Priority to KR1020220135888A priority Critical patent/KR102625104B1/en
Application granted granted Critical
Publication of KR102625104B1 publication Critical patent/KR102625104B1/en

Links

Classifications

    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Abstract

대상체에 대한 적어도 하나의 무편광 가시광 영상 및 적어도 하나의 편광 영상을 포함하는 복수의 영상을 획득하는 영상 획득부와, 획득한 상기 복수의 영상 중 적어도 일부를 재조합하는 영상 재조합부와, 재조합된 영상을 기반으로 인공 신경망 모델을 활용하여 영상 내 목적 객체의 경계값을 추출하도록 기계학습된 경계값 추출부와, 출력된 상기 경계값을 기초로 상기 무편광 가시광 영상에서 유실되거나 왜곡된 객체에 대한 복원을 하는 영상 최적화부를 포함하는 영상처리장치가 개시된다. An image acquisition unit that acquires a plurality of images including at least one unpolarized visible light image and at least one polarized image of an object, an image recombination unit that recombines at least a portion of the plurality of acquired images, and the recombined image Based on this, a machine-learned boundary value extractor uses an artificial neural network model to extract the boundary value of the target object in the image, and restoration of objects lost or distorted in the unpolarized visible light image based on the output boundary value. An image processing device including an image optimization unit that performs is disclosed.

Description

카메라 영상 보정을 수행하는 영상처리장치 및 그 방법{Camera Image Compensation Apparatus and Method Thereof}Image processing apparatus and method for performing camera image compensation {Camera Image Compensation Apparatus and Method Thereof}

본 발명은 반사광, 섬광, 카메라 렌즈의 오염 등으로 인한 카메라 영상 정보의 소실 및 왜곡을 개선시키는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for improving loss and distortion of camera image information due to reflected light, glare, camera lens contamination, etc.

카메라는 일상에 많이 쓰이고 있으며 다양한 내외부 환경에서 촬영이 이루어진다. 그렇기 때문에 반사광, 섬광, 카메라 렌즈의 오염(예컨대, 물방울 오염) 등으로 인한 카메라 영상 정보의 소실 및 왜곡되는 경우가 발생할 수 있다. Cameras are widely used in daily life, and photography takes place in a variety of internal and external environments. Therefore, camera image information may be lost or distorted due to reflected light, glare, contamination of the camera lens (e.g., water droplet contamination), etc.

예컨대, 차량내 카메라 영상의 경우, 도 1에서와 같이 차선 등의 노면 표시가 우중 반사광으로 인식되지 않을 수 있다. 블랙박스, 주율주행 모빌리티는 카메라 영상의 활용도가 높고 안전 및/또는 보안과 관련되어 있어서 카메라 영상의 중요성이 매우 높다. 예컨대, 자율주행 차량의 카메라 영상이 빗물에 의한 반사광으로 인하여 차선을 인식하지 못할 경우, 자율주행기능을 제대로 수행하지 못하고 교통사고 발생의 가능성이 생긴다. For example, in the case of in-vehicle camera images, road markings such as lanes may not be recognized as reflected light in the rain, as shown in FIG. 1. Black box and self-driving mobility have high utilization of camera images and are related to safety and/or security, so the importance of camera images is very high. For example, if the camera image of an autonomous vehicle cannot recognize lanes due to reflected light from rain, the autonomous driving function may not be properly performed and there is a possibility of a traffic accident occurring.

그 외의 여러 분야에서도 카메라 영상 정보의 소실 및 왜곡은 그 자체가 문제이기도 하며 카메라를 이용하는 다양한 응용에 있어 기능상 저하를 야기할 수 있다.In many other fields, loss and distortion of camera image information is a problem in itself and can cause functional deterioration in various applications using cameras.

따라서, 반사광, 섬광, 카메라 렌즈의 오염 등으로 인한 카메라 영상 정보의 소실 및 왜곡을 보정하여 원래의 정보를 복원하는 방법 및 장치의 필요성이 커지고 있다.Accordingly, the need for a method and device to restore the original information by correcting loss and distortion of camera image information due to reflected light, glare, contamination of the camera lens, etc. is increasing.

본 발명은 반사광, 섬광, 카메라 렌즈의 오염 등으로 인한 카메라 영상 정보의 소실 및 왜곡을 보정하여 원래의 정보를 복원하는 장치 및 방법을 제공하는 것을 목적으로 한다. The purpose of the present invention is to provide an apparatus and method for restoring original information by correcting loss and distortion of camera image information due to reflected light, glare, contamination of the camera lens, etc.

전술한 목적을 이루기 위하여 본 발명의 영상처리장치는, 대상체에 대한 적어도 하나의 무편광 가시광 영상 및 적어도 하나의 편광 영상을 포함하는 복수의 영상을 획득하는 영상 획득부와, 획득한 상기 복수의 영상 중 적어도 일부를 재조합하는 영상 재조합부와, 재조합된 영상을 기반으로 인공 신경망 모델을 활용하여 영상 내 목적 객체의 경계값을 추출하도록 기계학습된 경계값 추출부와, 출력된 상기 경계값을 기초로 상기 무편광 가시광 영상에서 유실되거나 왜곡된 객체에 대한 복원을 하는 영상 최적화부를 포함한다. In order to achieve the above-described object, the image processing apparatus of the present invention includes an image acquisition unit that acquires a plurality of images including at least one unpolarized visible light image and at least one polarized image of an object, and the plurality of acquired images. an image recombination unit that recombines at least a portion of and an image optimization unit that restores objects that are lost or distorted in the non-polarized visible light image.

본 발명의 다른 면에 따른 영상처리장치는, 대상체에 대한 적어도 하나의 무편광 가시광 영상 및 적어도 하나의 편광 영상을 획득하는 영상 획득부와, 획득한 상기 복수 영상 중 적어도 일부를 재조합하는 영상 재조합부와, 상기 영상 재조합부로부터 전달된 영상을 기반으로 각 영상 내 목적 객체의 경계값을 추출하는 경계값 추출부와, 출력된 각 영상 내 목적 객체의 경계값을 기초로 다수결 방식으로 상기 목적 객체의 경계값을 1차 결정하고, 상기 1차 결정시 고려되지 않은 소수의 영상에 대한 2차 융합을 통하여 상기 목적 객체의 경계값을 최종 결정하는 영상 최적화부를 포함한다. An image processing device according to another aspect of the present invention includes an image acquisition unit that acquires at least one unpolarized visible light image and at least one polarized image of an object, and an image recombination unit that recombines at least some of the acquired plural images. and a boundary value extraction unit that extracts the boundary value of the target object in each image based on the image transmitted from the image recombination unit, and a majority vote method based on the boundary value of the target object in each output image. It includes an image optimization unit that first determines a boundary value and finally determines the boundary value of the target object through secondary fusion of a small number of images that were not considered in the first decision.

본 발명의 또 다른 면에 따른 영상처리방법은, 대상체에 대한 적어도 하나의 무편광 가시광 영상 및 적어도 하나의 편광 영상을 포함하는 복수의 영상을 획득하는 영상 획득 단계와, 획득한 상기 복수의 영상 중 적어도 일부를 재조합하는 영상 재조합 단계와, 상기 복수의 영상 내 목적 객체의 경계값을 추출하는 경계값 추출 단계와, 출력된 상기 경계값을 기초로 상기 무편광 가시광 영상에서 유실되거나 왜곡된 객체에 대한 복원을 하는 영상 최적화 단계를 포함한다. An image processing method according to another aspect of the present invention includes an image acquisition step of acquiring a plurality of images including at least one unpolarized visible light image and at least one polarized image of an object, and one of the plurality of acquired images. An image reassembly step of recombining at least a portion of the image, a boundary value extraction step of extracting a boundary value of a target object in the plurality of images, and a search for an object lost or distorted in the unpolarized visible light image based on the output boundary value. It includes an image optimization step for restoration.

본 발명에 따르면, 반사광, 섬광, 카메라 렌즈의 오염 등으로 인한 카메라 영상 정보의 소실 및 왜곡을 보정하여 소실정보의 일부 또는 전부를 복원하여 영상내 필요 정보를 인식할 수 있다. According to the present invention, it is possible to recognize necessary information in the image by correcting loss and distortion of camera image information due to reflected light, glare, contamination of the camera lens, etc. and restoring part or all of the lost information.

특히, 모빌리티 분야에서는 주행상황에서 마주할 수 있는 반사광, 섬광 등으로 인하여 발생하는 영상정보의 소실 및 왜곡 상황을 도 2에서와 같이 개선시킴으로써 차선 등 노면 표시를 인식할 수 있도록 하여, 주행 중 영상정보의 신뢰성을 높이고 주행상황 인지 능력 향상에 기여할 수 있다.In particular, in the field of mobility, it is possible to recognize road markings such as lanes by improving the loss and distortion of image information caused by reflected light, glare, etc. that can be encountered in driving situations as shown in Figure 2, and image information while driving. It can increase reliability and contribute to improving driving situation recognition ability.

도 1은 반사광, 섬광, 카메라 렌즈의 오염 등으로 인한 카메라 영상 정보의 적어도 일부가 소실 또는 왜곡된 예를 나타낸 예시도.
도 2는 본 발명에 따라 반사광, 섬광, 카메라 렌즈의 오염 등으로 인하여 이미지의 적어도 일부가 소실 또는 왜곡된 카메라 영상 정보를 복원한 예를 나타낸 예시도.
도 3은 본 발명에 따른 영상처리장치의 구성도.
도 4는 본 발명에 따른 카메라 입력 영상의 재조합을 설명하기 위한 개념도.
도 5는 본 발명에 따른 영상처리방법의 순서도.
Figure 1 is an example diagram showing an example in which at least part of camera image information is lost or distorted due to reflected light, glare, contamination of the camera lens, etc.
Figure 2 is an example diagram showing an example of restoring camera image information in which at least part of the image is lost or distorted due to reflected light, glare, contamination of the camera lens, etc. according to the present invention.
Figure 3 is a configuration diagram of an image processing device according to the present invention.
Figure 4 is a conceptual diagram for explaining recombination of camera input images according to the present invention.
Figure 5 is a flowchart of the image processing method according to the present invention.

이하, 바람직한 몇몇 실시예들을 들어 본 발명의 구성에 대하여 상세히 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 권리범위는 실시예들로부터 관념되는 본 발명의 기술적 사상에 속하는 모든 변경, 변형, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the configuration of the present invention will be described in detail with reference to several preferred embodiments. However, this is not intended to limit the present invention to specific embodiments, and the scope of the present invention should be understood to include all changes, modifications, equivalents, or substitutes falling within the technical spirit of the present invention as conceived from the embodiments. do.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. The term “and/or” includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에만, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. Only when a component is said to be "directly connected" or "directly connected" to another component should it be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 제시되는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are merely used to describe the presented embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of other features, numbers, or steps. , it should be understood that this does not exclude in advance the possibility of the presence or addition of operations, components, parts, or combinations thereof.

기술적이거나 과학적인 용어를 포함해서 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있으며, 이상적이거나 과도하게 축소된 형식적인 의미로 해석되지 않아야 할 것이며, 본 명세서에서 어떤 용어의 의미를 정의할 경우 해 용어는 그 정의된 대로 해석되어야 한다.All terms used in this specification, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains, and are not idealized or excessively reduced formal terms. It should not be interpreted as meaning, and when the meaning of a term is defined in this specification, the term should be interpreted as defined.

본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.In order to facilitate overall understanding when describing the present invention, the same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

본 발명에 따른 영상처리장치는 무편광 가시광 영상이외에 편광 영상을 추가로 획득하고 편광 영상을 이용한 영상 재조합을 통해 소실되거나 왜곡된 원본 가시광 영상을 복원하거나 증강하는 것이다. The image processing device according to the present invention additionally acquires a polarized image in addition to the non-polarized visible light image and restores or augments the lost or distorted original visible light image through image recombination using the polarized image.

이를 위하여, 도 3에 도시된 바와 같이, 본 발명에 따른 영상처리장치(100)는 대상체에 대한 복수 영상을 획득하는 영상 획득부(110), 획득한 복수 영상 중 적어도 일부를 선택 조합하는 영상 재조합부(120), 재조합된 영상을 기반으로 인공 신경망 모델을 활용하여 영상 내 목적 객체의 경계값을 출력하도록 기계학습된 경계값 추출부(130), 경계값 추출 출력값을 통해 최종적으로 영상 최적화 및 무편광 가시광 영상에서 유실되거나 왜곡된 객체를 복원하는 영상 최적화부(140)를 포함한다. For this purpose, as shown in FIG. 3, the image processing apparatus 100 according to the present invention includes an image acquisition unit 110 that acquires multiple images of the object, and an image recombination function that selects and combines at least some of the acquired multiple images. Unit 120, a boundary value extraction unit 130 that is machine-learned to output the boundary value of the target object in the image using an artificial neural network model based on the recombined image, and finally image optimization and decomposition through the boundary value extraction output value. It includes an image optimization unit 140 that restores objects that are lost or distorted in a polarized visible light image.

영상 획득부(110)는 편광 카메라, 무편광 가시광 카메라를 포함한다. 그 외 열화상 카메라, 적외선 카메라도 포함될 수 있다. The image acquisition unit 110 includes a polarized light camera and a non-polarized visible light camera. Other thermal imaging cameras and infrared cameras may also be included.

영상 획득부를 구성되는 카메라들은 종, 횡 등 다양한 방식으로 배치가 가능하다. 배치된 카메라는 고정된 것을 전제하며, 배치를 변경할 경우 카메라 간 물리적 보정 정보(calibration information)를 변경한다.The cameras that make up the image acquisition unit can be arranged in various ways, such as vertically or horizontally. It is assumed that the placed cameras are fixed, and when the arrangement is changed, the physical calibration information between cameras changes.

각 편광/무편광 카메라들은 하나 또는 복수가 될 수 있다. Each polarized/unpolarized camera can be one or multiple.

이하의 바람직한 실시예에서 편광카메라는 하나의 카메라에서 0도, 45도, 90도, 135도 4방향의 편광각을 동시에 추출하는 편광카메라를 기준으로 설명한다. 그러나, 이에 한정되는 것은 아니고 다른 편광각을 추출하는 편광카메라가 이용될 수 있음은 물론이다.In the following preferred embodiment, the description will be based on a polarization camera that simultaneously extracts polarization angles in four directions: 0 degrees, 45 degrees, 90 degrees, and 135 degrees from one camera. However, it is not limited to this, and of course, a polarization camera that extracts other polarization angles can be used.

또한 편광카메라는 스펙트럼별로 복수 개의 카메라(예를 들어 660nm 편광카메라, 470nm 편광카메라 등)로 구성할 수 있다. Additionally, the polarization camera can be composed of multiple cameras for each spectrum (for example, a 660nm polarization camera, a 470nm polarization camera, etc.).

모든 입력 영상은 하나의 카메라를 기준으로 전술한 보정정보를 바탕으로 영상정합을 수행하며, 이렇게 하나의 카메라를 기준으로 영상정합이 완료된 영상들을 입력 영상이라고 정의한다. For all input images, image registration is performed based on the above-described correction information based on one camera, and images for which image registration has been completed based on one camera are defined as input images.

한편, 입력영상에 대한 이미지 변환을 통한 2차 정합을 더 수행할 수 있다. 카메라들의 물리적 정합이 완벽하더라도 렌즈의 왜곡 등으로 인해 확률적으로 발생하는 파라미터로 인하여 이미지간 정합이 정확하지 않을 수 있다. 이러한 점을 고려하여 선택적으로 2차 정합을 수행하여 정합도를 더 높일 수 있다.Meanwhile, secondary registration can be further performed through image conversion on the input image. Even if the physical registration of the cameras is perfect, the registration between images may not be accurate due to parameters that occur stochastically due to lens distortion, etc. Taking this into consideration, the degree of matching can be further improved by selectively performing secondary matching.

2차 정합의 구체적인 실시례를 살펴보면, 우선 선형변환(rigid registration)으로서 아핀 변환(affine transformation)을 이용할 수 있다. 아핀 변환은 병진(traslation), 축척(scalling), 회전(rotation), 층밀리기(shearing) 등 변환을 포함한다. 일반적인 카메라 영상 정합의 경우 회전과 병진 변환만을 수행하는 경우가 대부분이며, 대부분의 응용에 이용될 수 있는 결과가 도출된다. Looking at a specific example of quadratic registration, first, an affine transformation can be used as a linear transformation (rigid registration). Affine transformations include translation, scaling, rotation, and shearing. In the case of general camera image registration, only rotation and translation are performed in most cases, and results that can be used in most applications are derived.

이에 더하여, 보다 세밀하고(픽셀단위수준) 정확한 정합결과 도출을 기대하기 위해 통상의 카메라 정합이 아닌 비강체 변환(non-rigid registration)을 추가로 실시하여 b-스플라인(b-spline), 옵티컬 플로우(optical flow)을 이용하여 영상 정합을 할 수 있다. In addition, in order to expect more detailed (pixel-level) and accurate registration results, non-rigid registration was additionally performed instead of normal camera registration, using b-spline and optical flow. Image registration can be done using (optical flow).

비강체 변환은 기하학적 변환을 반영할수 있지만 정합의 초기 상태(initial)에 따라 정합결과에 영향을 많이 받으며 세부적인 구역들의 변환에 대해서는 정합을 잘 맞출수 있지만 광대역적인 정합에 이루어지지 않은 경우에 적용하면 세부 영역에 한정되어 정합을 하다보니 오히려 큰틀의 정합에 왜곡이 많이 발생할 수 있다. 그래서 1단계로 영상 내에서 우선 선형 변환을 통한 정합을 통해 정합될 영상을 큰틀에서 맞춘후에, 2 단계로 비강체 변환을 통해 세밀한 부분을 정합한다.Non-rigid transformation can reflect geometric transformation, but the registration result is greatly affected by the initial state of registration. Although it can achieve good registration for transformation of detailed regions, when applied in cases where broadband registration is not achieved, details Since the registration is limited to an area, a lot of distortion may occur in the registration of the larger frame. So, in the first step, the image to be matched is first aligned in the large frame through linear transformation within the image, and then in the second step, the detailed parts are matched through non-rigid transformation.

입력 영상은 어느 한 시점의 스냅샷일 수 있으나, 시간에 따른 시계열 영상이 되도록 획득될 수 있다. 이 경우, 후술하는 영상 재조합시 소정 범위의 전후 프레임에 대해서도 재조합을 수행하며, 이에 대해서는 뒤에 상세히 설명한다.The input image may be a snapshot at a certain point in time, but may be acquired to become a time series image over time. In this case, during image recombination, which will be described later, recombination is also performed on the front and rear frames within a predetermined range, which will be explained in detail later.

한편, 입력 영상의 데이터 증강(data augmentation)을 위한 영상 전처리부(미도시)를 더 포함할 수 있다. 본 실시예에서 데이터 증강의 한 방법으로 축척(scalling)을 이용한다. 영상 재조합부(120) 및 경계값 추출부(130)가 영상을 재조합하고 학습할 때 될 수록 많은 목적 객체의 특징들을 이용하는 것이 바람직한데, 자차와 목적 객체와의 거리가 멀어 획득 영상 내에 목적 객체가 작은 크기로 표현되면 이미지 학습시 목적 객체의 차별적 특징을 인식할 수 없어서 영상 관점에서는 목적 객체의 특징이 이미지 대비 적게 포함되는 상황이 된다. 이런 경우에는 영상 전처리부의 이미지 확대를 통해 확대 이미지를 학습하게 하여 이미지 내 타겟 객체의 특징이 더 많은 비율로 포함되도록 한다. Meanwhile, an image preprocessor (not shown) for data augmentation of the input image may be further included. In this embodiment, scaling is used as a method of data augmentation. When the image recombination unit 120 and the boundary value extraction unit 130 recombine and learn images, it is desirable to use as many features of the target object as possible. However, the distance between the host vehicle and the target object is long, so the target object is not present in the acquired image. If it is expressed in a small size, the discriminative features of the target object cannot be recognized during image learning, so from an image perspective, the target object's features are less contained compared to the image. In this case, the enlarged image is learned through image enlargement in the image preprocessor so that a greater proportion of the features of the target object in the image are included.

영상 재조합부(120)는 각 카메라를 통해 획득된 영상들을 재조합한다. The image recombination unit 120 recombines images acquired through each camera.

실질적으로, 재조합되는 영상들은 편광영상들이다.In reality, the recombined images are polarized images.

도 4에 도시된 바와 같이, 편광영상과 무편광영상은 조합방식이 각기 다르다. 도 4는 본 발명에 따른 영상 재조합 방식을 설명하기 위한 도면이다.As shown in Figure 4, polarized images and non-polarized images have different combining methods. Figure 4 is a diagram for explaining the image recombination method according to the present invention.

도시된 바와 같이, 무편광 가시광영상은 원본 영상과 채널 구성 변화가 없다. 원본의 R, G, B 채널을 그대로 가지는 3개의 채널을 가지는 재조합영상을 구성한다. 무편광 가시광카메라, 적외선 카메라와 열화상 카메라의 영상은 재구성되지 않고 원본 그대로 활용될 수 있다. As shown, the unpolarized visible light image has no change in channel configuration from the original image. Constructs a recombinant image with three channels that retains the original R, G, and B channels. Images from non-polarized visible light cameras, infrared cameras, and thermal imaging cameras can be used in their original form without being reconstructed.

편광카메라를 통해 획득된 영상인 편광영상의 경우, 편광영상 및 AoLP(Angle of Linear Polarizatio) 영상과 DoLP(Degree of Linear Polarizati)영상의 3개 채널로 재조합한다. In the case of a polarization image, which is an image acquired through a polarization camera, it is recombined into three channels: a polarization image, AoLP (Angle of Linear Polarizatio) image, and DoLP (Degree of Linear Polarizati) image.

이 때 각 파장별로 스펙트럼의 편광영상 및 AoLP, DoLP를 조합한다. 예컨대, 660 nm의 편광카메라의 편광영상, DoLP, AoLP로 3채널을 가지는 재조합영상을 구하며, 470nm의 편광카메라에 대해서도 동일한 방식의 재조합영상을 구한다.At this time, the polarization image, AoLP, and DoLP of the spectrum are combined for each wavelength. For example, a recombinant image with 3 channels is obtained using the polarization image, DoLP, and AoLP of a 660 nm polarization camera, and the same method is obtained for a 470 nm polarization camera.

편광카메라의 파장의 종류 및 갯수는 다양하게 구성할 수 있으며 각 적용별(자율주행 등 모빌리티분야, 실외내외 감시, 보안 분야 등)로 실험 또는 시뮬레이션을 통하여 최적 구성을 취할 수 있음은 물론이다.The type and number of wavelengths of the polarization camera can be configured in various ways, and of course, the optimal configuration can be taken through experiment or simulation for each application (mobility field such as autonomous driving, outdoor indoor/outdoor surveillance, security field, etc.).

시계열 영상에 대해서는 시간 순서를 고려하여 재조합한다. 다만 이용되는 시계열 영상의 프레임은 객체의 이동이 소정 범위 이내에서 일어난 것으로 한정한다. 즉, 동일 카메라 기준 동일 객체가 무게 중심픽셀 기준으로 x 픽셀 이하로 이동시에만 재조합에 포함시키며, x 픽셀은 예컨대 이미지 해상도의 0.001% 이하의 픽셀로 설정할 수 있다. 즉, 2M 영상의 경우 10픽셀의 이동은 객체 연결성이 있는 것으로 간주하여 이에 해당하는 복수의 프레임을 재조합에 이용할 수 있다. 이 경우 후술하는 경계값 추출부의 추론을 위한 입력 영상이 증가하여 보다 높은 정확도의 영상보정이 가능할 수 있다.Time-series images are recombined taking temporal order into account. However, the frames of the time series video used are limited to those where the movement of the object occurred within a predetermined range. That is, the same object based on the same camera is included in recombination only when it moves less than x pixels based on the center of gravity pixel, and x pixels can be set to, for example, a pixel less than 0.001% of the image resolution. That is, in the case of 2M video, a movement of 10 pixels is considered to have object connectivity, and multiple frames corresponding to it can be used for recombination. In this case, the input image for inference in the boundary value extraction unit, which will be described later, increases, allowing image correction with higher accuracy.

경계값 추출부(130)는 재조합된 영상과 원본 입력 영상들을 활용하여 역광 등으로 인해 소실 및 왜곡된 영상을 개선하기 위한 정보를 생성한다. 영상 재조합부(120)에서 생성된 영상을 입력으로 받아서, 복수 개의 영상 각각에 포함된 객체의 테두리를 생성하고 객체의 경계값을 추출한다. 여기에서 객체란 자율주행차량 영상에서는 자동차, 보행자, 신호등, 도로펜스, 나무 등 도로주행 상황에서 마주칠 수 있는 동적(움직이는), 정적(움직이지 않는) 사물 등일 수 있다. The boundary value extractor 130 uses the recombined image and the original input image to generate information to improve an image that is lost or distorted due to backlight, etc. The image generated by the image recombination unit 120 is received as input, the border of the object included in each of the plurality of images is generated, and the boundary value of the object is extracted. Here, the object may be a dynamic (moving) or static (non-moving) object that can be encountered in a road driving situation, such as a car, pedestrian, traffic light, road fence, or tree in an autonomous vehicle video.

경계값 추출부(130)은 AI 신경망 모델로 구성될 수 있으며, 인공신경망의 입력 영상은 영상재조합 과정을 통해 구성된 재조합영상 및 무편광가시광영상 원본이며, 적외선, 열화상 카메라 영상 원본이 더 포함될 수 있다. The boundary value extraction unit 130 may be composed of an AI neural network model, and the input image of the artificial neural network is the original recombinant image and unpolarized visible light image constructed through an image recombination process, and may further include original infrared and thermal camera images. there is.

재조합영상 및 원본영상에서 경계값 추출하기 위해서는, 목적 객체(target object)가 선정되어야 하며, 목적 객체는 목적에 따라 이용자가 선정할 수 있다. 본 발명의 바람직한 실시예에서는 자율주행모빌리티를 목적으로 예시를 제시할 수 있으며, 그 예시는 차량, 이륜차, 보행자, 신호등, 표지판, 노면표지 등으로 선정하여 각 객체의 세분화를 추가할 수 있다.In order to extract boundary values from the recombinant image and the original image, a target object must be selected, and the target object can be selected by the user depending on the purpose. In a preferred embodiment of the present invention, examples can be presented for the purpose of autonomous mobility, and the examples can be selected as vehicles, two-wheeled vehicles, pedestrians, traffic lights, signs, road signs, etc., and segmentation of each object can be added.

선정된 객체에 대해 경계값 추출을 위해 이에 대한 학습이 선행되며, 학습데이터는 왜곡이 없는 영상에서 객체의 경계값 정보를 정답(GT : ground truth)으로 하여 편광 및 무편광 영상과 함께 학습을 수행한다. Learning is conducted first to extract the boundary value for the selected object, and the learning data is trained with polarized and unpolarized images using the object's boundary value information as the correct answer (GT: ground truth) in the undistorted image. do.

인공신경망은 영상내 객체 분류, 객체 탐지 등 다양한 2차원 데이터 학습에 폭넓게 활용되는 CNN을 이용할 수 있으나 이에 한정되는 것이 아님은 물론이다. The artificial neural network can use CNN, which is widely used in learning various two-dimensional data such as object classification and object detection in images, but is of course not limited to this.

데이터 증강을 위하여 영상을 전처리하는 과정이 선행될 수 있음은 전술한 바와 같다.As mentioned above, the process of preprocessing the image may be preceded for data augmentation.

다른 실시예로서, AI 신경망을 이용하지 않고 기존의 경계값 추출 알고리즘을 이용하여 각 최종 입력 영상에서 경계값을 추출하여 영상 최적화부(140)로 전달할 수 있다. As another embodiment, the boundary value may be extracted from each final input image using an existing boundary value extraction algorithm without using an AI neural network and transmitted to the image optimization unit 140.

영상 최적화부(140)는 다음의 과정을 거쳐 재조합된 영상에서 인공신경망을 이용하여 검출된 목적 객체의 경계값 정보(segmentation)를 융합한다. The image optimization unit 140 fuses boundary value information (segmentation) of the target object detected using an artificial neural network in the recombined image through the following process.

1) 1차 정보 융합 : 다수결 방식(Majority voting)을 활용하여 1차 정보융합을 수행한다. 즉, 하나 이상의 파장대의 편광영상의 재조합영상, 무편광 가시광 영상에서 같은 결과를 내는 다수의 결과를 채택한다. 선택적으로 적외선 카메라와 열화상 카메라의 영상을 함께 이용할 수 있다. 1) Primary information fusion: Primary information fusion is performed using majority voting. In other words, multiple results that produce the same result are adopted from a recombinant image of a polarized image in one or more wavelength bands and an unpolarized visible light image. Optionally, images from an infrared camera and a thermal imaging camera can be used together.

한편, 본 발명은 가시광카메라에서 놓친 비가시적 정보(non-visible information)을 포함하여 추출하는 것이 주목적이므로, Majority voting을 통해 얻은 경계값을 반드시 포함하되, 선택되지 않은 편광 정보들을 가장 많이 포함되는 조합을 2차 정보융합에서 선택함이 바람직하다. Meanwhile, since the main purpose of the present invention is to extract non-visible information missed by visible light cameras, the boundary value obtained through majority voting must be included, and the combination that contains the most unselected polarization information is used. It is desirable to select in secondary information fusion.

2) 2차 정보 융합 : 1차 정보 융합에서 선택되지 않은 정보(1차 정보 융합에 포함되지 않은 정보)들 중에서 선택을 진행하는데, 1차융합에 포함되지 않은 정보들중 모두를 포함하는 것이 아닌 그중 일부를 포함한다. 포함되는 일부의 선택기준은 편광정보가 가장 많이 포함되는 조합, 즉 DoLP가 일정 수준 이상의 것들의 조합이다. 2) Secondary information fusion: Selection is made from information not selected in the primary information fusion (information not included in the primary information fusion), but does not include all of the information not included in the primary fusion. Includes some of them. Some of the selection criteria included are combinations that contain the most polarization information, that is, combinations of those with DoLP above a certain level.

따라서, 영상 내 DoLP가 일정 임계값(threshold)이상이 되는 범위에서의 목적 객체의 경계값 정보를 포함하여 2차 정보 융합을 실시한다. 보통 실외 영상에서 DoLP 기준 임계값은 0.5이며, DoLP가 0.5이상인 재조합영상만을 융합한다. 물론, 실험 또는 시뮬레이션을 통하여 다른 최적값을 구하고 이를 임계값으로 적용할 수 있다.Therefore, secondary information fusion is performed including boundary value information of the target object in the range where the DoLP in the image is above a certain threshold. Usually, the DoLP standard threshold for outdoor images is 0.5, and only recombinant images with a DoLP of 0.5 or higher are fused. Of course, other optimal values can be obtained through experiment or simulation and applied as the threshold.

3) 1차와 2차 정보의 합집합을 최종 객체 경계값정보로 규정하며, 2차 정보융합 결과값과 1차 정보융합결과의 차집합을 소실된 영역으로 규정하고 그 영역에 해당되는 편광영상을 무편광영상에 포함하여 최종 영상을 출력한다.3) The union of the first and second information is defined as the final object boundary value information, the difference between the secondary information fusion result and the first information fusion result is defined as the lost area, and the polarization image corresponding to that area is defined as the missing area. The final image is output by including it in the unpolarized image.

4) 편광영상-무편광영상을 융합(merge)하여 최종영상 산출시에는 두종의 영상간의 전술한 영상 정합에 이용된 정합정보를 활용할 수 있다. 또는 두 종류 영상간의 경계값 정보를 활용할 수 있다.4) When calculating the final image by merging the polarized image and the non-polarized image, the registration information used in the above-mentioned image registration between the two types of images can be used. Alternatively, boundary value information between two types of images can be used.

영상최적부(140)가 출력한 보정영상은 차량의 차선유지장치, 자율주행장치에 전달되어 차량의 안전 또는 주행에 이용될 수 있고, 또한 디스플레이부에 전달되어 운전자에게 제공될 수 있다.The corrected image output by the image optimization unit 140 can be delivered to the vehicle's lane keeping system and autonomous driving system to be used for vehicle safety or driving, and can also be delivered to the display unit and provided to the driver.

이하, 도 5를 참조하여 본 발명의 바람직한 실시예에 따른 영상처리방법을 설명한다.Hereinafter, an image processing method according to a preferred embodiment of the present invention will be described with reference to FIG. 5.

도 5에 도시된 바와 같이, 하나 이상의 편광 카메라 및 무편광 가시광 카메라로부터 무편광 가시광 영상 및 편광 영상을 획득한다(S110). 그 외 열화상 카메라, 적외선 카메라를 통해 열화상 및 적외선 영상을 획득할 수도 있다. As shown in FIG. 5, an unpolarized visible light image and a polarized image are acquired from one or more polarized cameras and an unpolarized visible light camera (S110). In addition, thermal and infrared images can also be acquired through thermal and infrared cameras.

편광 영상은 0도, 45도, 90도, 135도 4방향의 편광각을 동시에 추출하는 편광카메라를 통해 획득하며, 스펙트럼별로 복수 개의 카메라(예를 들어 660nm 편광카메라, 470nm 편광카메라 등)를 이용하여 스펙트럼별 편광 영상을 획득하는 것이 바람직하다. Polarization images are acquired through a polarization camera that simultaneously extracts polarization angles in four directions: 0 degrees, 45 degrees, 90 degrees, and 135 degrees, using multiple cameras for each spectrum (e.g., 660 nm polarization camera, 470 nm polarization camera, etc.) Therefore, it is desirable to obtain polarization images for each spectrum.

복수의 카메라들은 설치에 따른 카메라 간 물리적 보정 정보(calibration information)에 따라 물리적 보정을 하며, 모든 입력 영상은 하나의 카메라를 기준으로 전술한 보정정보를 바탕으로 영상정합을 수행하며(S120), 이렇게 하나의 카메라를 기준으로 영상정합이 완료된 영상들을 각 카메라별 최종 입력 영상으로 확보한다(S130). 입력 영상은 어느 한 시점의 스냅샷일 수 있으나, 시간에 따른 시계열 영상이 되도록 소정시간 동일 장소에 대한 복수의 영상 프레임을 포함할 수 있다. A plurality of cameras are physically corrected according to physical calibration information between cameras according to installation, and all input images are image registered based on the above-mentioned calibration information based on one camera (S120). Images for which image registration has been completed based on one camera are secured as the final input images for each camera (S130). The input image may be a snapshot at a certain point in time, but may include a plurality of image frames for the same location at a predetermined time to become a time series image according to time.

카메라별 최종 입력 영상이 확보되면, 영상 재조합부(120)를 통해 획득된 영상들 재조합한다(S140). Once the final input image for each camera is secured, the acquired images are recombined through the image recombination unit 120 (S140).

편광카메라를 통해 획득된 영상인 편광영상의 경우, 편광영상 및 AoLP(Angle of Linear Polarizatio) 영상과 DoLP(Degree of Linear Polarizati)영상의 3개 채널로 재조합한다. In the case of a polarization image, which is an image acquired through a polarization camera, it is recombined into three channels: a polarization image, AoLP (Angle of Linear Polarizatio) image, and DoLP (Degree of Linear Polarizati) image.

이 때 각 파장별로 스펙트럼의 편광영상 및 AoLP, DoLP를 조합한다. 예컨대, 660 nm의 편광카메라의 편광영상, DoLP, AoLP로 3채널을 가지는 재조합영상을 구하며, 470nm의 편광카메라에 대해서도 동일한 방식의 재조합영상을 구한다.At this time, the polarization image, AoLP, and DoLP of the spectrum are combined for each wavelength. For example, a recombinant image with 3 channels is obtained using the polarization image, DoLP, and AoLP of a 660 nm polarization camera, and the same method is obtained for a 470 nm polarization camera.

편광카메라의 파장의 종류 및 갯수는 다양하게 구성할 수 있으며 각 적용별(자율주행 등 모빌리티분야, 실외내외 감시, 보안 분야 등)로 실험 또는 시뮬레이션을 통하여 최적 구성을 취할 수 있음은 물론이다.The type and number of wavelengths of the polarization camera can be configured in various ways, and of course, the optimal configuration can be taken through experiment or simulation for each application (mobility field such as autonomous driving, outdoor indoor/outdoor surveillance, security field, etc.).

시계열 영상에 대해서는 시간 순서를 고려하여 재조합한다. 다만 이용되는 시계열 영상의 프레임은 객체의 이동이 소정 범위 이내에서 일어난 것으로 한정한다. 즉, 동일 카메라 기준 동일 객체가 무게 중심픽셀 기준으로 x 픽셀 이하로 이동시에만 재조합에 포함시키며, x 픽셀은 예컨대 이미지 해상도의 0.001% 이하의 픽셀로 설정할 수 있다. 즉, 2M 영상의 경우 10픽셀의 이동은 객체 연결성이 있는 것으로 간주하여 이에 해당하는 복수의 프레임을 재조합에 이용할 수 있다. 이 경우 후술하는 경계값 추출부의 추론을 위한 입력 영상이 증가하여 보다 높은 정확도의 영상보정이 가능할 수 있다.Time-series images are recombined taking temporal order into account. However, the frames of the time series video used are limited to those where the movement of the object occurred within a predetermined range. That is, the same object based on the same camera is included in recombination only when it moves less than x pixels based on the center of gravity pixel, and x pixels can be set to, for example, a pixel less than 0.001% of the image resolution. That is, in the case of 2M video, a movement of 10 pixels is considered to have object connectivity, and multiple frames corresponding to it can be used for recombination. In this case, the input image for inference in the boundary value extraction unit, which will be described later, increases, allowing image correction with higher accuracy.

그 다음, 재조합된 영상과 원본 입력 영상들을 활용하여 역광 등으로 인해 소실 및 왜곡된 영상을 개선하기 위한 정보를 생성한다. 구체적으로는, 재조합된 영상을 입력으로 받아서 복수 개의 영상 각각에 포함된 객체의 테두리를 생성하고 객체의 경계값을 추출한다(S150). Next, the recombined image and the original input image are used to generate information to improve images that are lost or distorted due to backlight, etc. Specifically, the recombined image is received as input, the border of the object included in each of the plurality of images is generated, and the boundary value of the object is extracted (S150).

여기에서 객체란 자율주행차량 영상에서는 자동차, 보행자, 신호등, 도로펜스, 나무 등 도로주행 상황에서 마주칠 수 있는 동적(움직이는), 정적(움직이지 않는) 사물 등일 수 있다. Here, the object may be a dynamic (moving) or static (non-moving) object that can be encountered in a road driving situation, such as a car, pedestrian, traffic light, road fence, or tree in an autonomous vehicle video.

인공신경망으로 입력되는 영상은 영상재조합 과정을 통해 구성된 재조합영상 및 무편광가시광영상 원본이며, 적외선, 열화상 카메라 영상 원본이 더 포함될 수 있다. The image input to the artificial neural network is the original recombinant image and unpolarized visible light image composed through an image recombination process, and may further include original infrared and thermal imaging camera images.

재조합영상 및 원본영상에서 객체의 경계값을 추출하기 위해서는, 목적 객체(target object)가 선정되어야 하며, 목적 객체는 목적에 따라 이용자가 선정할 수 있다. 본 발명의 바람직한 실시예에서는 자율주행모빌리티를 목적으로 예시를 제시할 수 있으며, 그 예시는 차량, 이륜차, 보행자, 신호등, 표지판, 노면표지 등으로 선정하여 각 객체의 세분화를 추가할 수 있다.In order to extract the boundary value of an object from the recombinant image and the original image, a target object must be selected, and the target object can be selected by the user depending on the purpose. In a preferred embodiment of the present invention, examples can be presented for the purpose of autonomous mobility, and the examples can be selected as vehicles, two-wheeled vehicles, pedestrians, traffic lights, signs, road signs, etc., and segmentation of each object can be added.

선정된 객체에 대해 경계값 추출을 위한 학습이 선행되며, 학습데이터는 왜곡이 없는 영상에서 객체의 경계값 정보를 정답(GT : ground truth)으로 하여 편광 및 무편광 영상과 함께 학습을 수행한다. Learning to extract the boundary value for the selected object is preceded, and the learning data is trained with polarized and unpolarized images by using the object's boundary value information as the correct answer (GT: ground truth) in the undistorted image.

인공신경망은 영상내 객체 분류, 객체 탐지 등 다양한 2차원 데이터 학습에 폭넓게 활용되는 CNN을 이용할 수 있으나 이에 한정되는 것이 아님은 물론이다.The artificial neural network can use CNN, which is widely used in learning various two-dimensional data such as object classification and object detection in images, but is of course not limited to this.

그 다음, 다음의 절차를 거쳐 재조합된 영상에서 인공신경망을 이용하여 검출된 목적 객체의 경계값 정보(segmentation)를 융합하여 최적화한다(S160). Next, the boundary value information (segmentation) of the target object detected using an artificial neural network in the recombined image is fused and optimized through the following procedure (S160).

1) 1차 정보 융합 : 다수결 방식(Majority voting)을 활용하여 1차 정보융합을 수행한다. 즉, 하나 이상의 파장대의 편광영상의 재조합영상, 무편광 가시광 영상에서 같은 결과를 내는 다수의 결과를 채택한다. 선택적으로 적외선 카메라와 열화상 카메라의 영상을 함께 이용할 수 있다. 1) Primary information fusion: Primary information fusion is performed using majority voting. In other words, multiple results that produce the same result are adopted from a recombinant image of a polarized image in one or more wavelength bands and an unpolarized visible light image. Optionally, images from an infrared camera and a thermal imaging camera can be used together.

한편, 본 발명은 가시광카메라에서 놓친 비가시적 정보(non-visible information)을 포함하여 추출하는 것이 주목적이므로, 다수결을 통해 얻은 경계값을 반드시 포함하되, 선택되지 않은 편광 정보들을 가장 많이 포함되는 조합을 2차 정보융합에서 선택함이 바람직하다. Meanwhile, since the main purpose of the present invention is to extract non-visible information missed by visible light cameras, the boundary value obtained through majority voting must be included, and the combination that contains the most unselected polarization information is selected. It is desirable to select from secondary information fusion.

2) 2차 정보 융합 : 1차 정보 융합에서 선택되지 않은 정보(1차 정보 융합에 포함되지 않은 정보)들 중에서 선택을 진행하는데, 1차융합에 포함되지 않은 정보들중 모두를 포함하는 것이 아닌 그중 일부를 포함한다. 포함되는 일부의 선택기준은 평광정보가 가장 많이 포함되는 조합, 즉 DoLP가 일정 수준 이상의 것들의 조합이다. 2) Secondary information fusion: Selection is made from information not selected in the primary information fusion (information not included in the primary information fusion), but does not include all of the information not included in the primary fusion. Includes some of them. Some of the selection criteria included are combinations that contain the most polarization information, that is, combinations of those with DoLP above a certain level.

따라서, 영상 내 DoLP가 일정 임계값(threshold)이상이 되는 범위에서의 목적 객체의 경계값 정보를 포함하여 2차 정보 융합을 실시한다. 보통 실외 영상에서 DoLP 기준 임계값은 0.5이며, DoLP가 0.5이상인 재조합영상만을 융합한다. 물론, 실험 또는 시뮬레이션을 통하여 다른 최적값을 구하고 이를 임계값으로 적용할 수 있다.Therefore, secondary information fusion is performed including boundary value information of the target object in the range where the DoLP in the image is above a certain threshold. Usually, the DoLP standard threshold for outdoor images is 0.5, and only recombinant images with a DoLP of 0.5 or higher are fused. Of course, other optimal values can be obtained through experiment or simulation and applied as the threshold.

3) 1차와 2차 정보의 합집합을 최종 객체 경계값정보로 규정하며, 2차 정보융합 결과값과 1차 정보융합결과의 차집합을 소실된 영역으로 규정하고 그 영역에 해당되는 편광영상을 무편광영상에 포함하여 최종 영상을 출력한다.3) The union of the first and second information is defined as the final object boundary value information, the difference between the secondary information fusion result and the first information fusion result is defined as the lost area, and the polarization image corresponding to that area is defined as the missing area. The final image is output by including it in the unpolarized image.

4) 편광영상-무편광영상을 융합(merge)하여 최종영상 산출시에는 두종의 영상간의 전술한 영상 정합에 이용된 정합정보를 활용할 수 있다. 또는 두 종류 영상간의 경계값 정보를 활용할 수 있다.4) When calculating the final image by merging the polarized image and the non-polarized image, the registration information used in the above-mentioned image registration between the two types of images can be used. Alternatively, boundary value information between two types of images can be used.

영상 최적화 단계(S160)를 거쳐 출력된 보정영상은 차량의 차선유지장치, 자율주행장치에 전달되어 차량의 안전 또는 주행에 이용될 수 있고, 또한 디스플레이부에 전달되어 운전자에게 제공될 수 있다.The corrected image output through the image optimization step (S160) can be transmitted to the vehicle's lane keeping device and autonomous driving device to be used for vehicle safety or driving, and can also be transmitted to the display unit and provided to the driver.

이상 본 발명의 바람직한 실시예를 들어, 본 발명의 구성에 대하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서 본 발명의 기술적 사상의 범주 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호범위는 이하의 특허청구범위의 기재에 의하여 정하여져야 할 것이다. Although the configuration of the present invention has been described in detail with reference to preferred embodiments of the present invention, this is only an example and various modifications and changes are possible within the scope of the technical idea of the present invention. Therefore, the scope of protection of the present invention should be determined by the description of the patent claims below.

Claims (20)

대상체에 대한 적어도 하나의 무편광 가시광 영상 및 적어도 하나의 편광 영상을 포함하는 복수의 영상을 획득하는 영상 획득부와,
획득한 상기 복수의 영상 중 적어도 일부를 재조합하는 영상 재조합부와,
재조합된 영상을 기반으로 인공 신경망 모델을 활용하여 영상 내 목적 객체의 경계값을 추출하도록 기계학습된 경계값 추출부와,
출력된 각 영상 내 목적 객체의 경계값을 기초로 상기 목적 객체의 경계값을 1차 결정하고, 상기 1차 결정시 고려되지 않은 소수의 영상에 대한 2차 융합을 통하여 상기 목적 객체의 경계값을 최종 결정하는 영상 최적화부
를 포함하는 영상처리장치.
an image acquisition unit that acquires a plurality of images including at least one unpolarized visible light image and at least one polarized image of the object;
an image reassembly unit that recombines at least some of the acquired plurality of images;
A boundary value extraction unit that is machine-learned to extract the boundary value of the target object in the image using an artificial neural network model based on the recombined image;
The boundary value of the target object is first determined based on the boundary value of the target object in each output image, and the boundary value of the target object is determined through secondary fusion of a small number of images that were not considered in the first decision. Video optimization department makes the final decision
An image processing device including a.
제1항에 있어서, 상기 영상 획득부는,
하나 이상의 편광 카메라 및 무편광 가시광 카메라를 포함하는 것인 영상처리장치.
The method of claim 1, wherein the image acquisition unit,
An image processing device comprising one or more polarized cameras and a non-polarized visible light camera.
제2항에 있어서, 상기 편광 카메라는,
0도, 45도, 90도, 135도의 4방향의 편광각을 동시에 추출하는 것인 영상처리장치.
The method of claim 2, wherein the polarization camera:
An image processing device that simultaneously extracts polarization angles in four directions: 0 degrees, 45 degrees, 90 degrees, and 135 degrees.
제2항에 있어서, 상기 편광 카메라는,
스펙트럼별로 복수 개의 카메라로 구성되는 것인 영상처리장치.
The method of claim 2, wherein the polarization camera:
An image processing device consisting of a plurality of cameras for each spectrum.
제1항에 있어서, 상기 영상 재조합부는,
상기 영상획득부가 획득한 하나 이상의 상기 편광 영상을 편광영상 및 AoLP, DoLP의 3개 채널로 재조합하는 것인 영상처리장치.
The method of claim 1, wherein the image recombination unit,
An image processing device for recombining one or more of the polarized images acquired by the image acquisition unit into three channels: a polarized image, AoLP, and DoLP.
제1항에 있어서, 상기 경계값 추출부는,
상기 영상 재조합부로부터 전달된 무편광 가시광 영상 및 편광 재조합 영상을 입력으로 받아서, 상기 무편광 가시광 영상 및 편광 재조합 영상 각각에 포함된 객체의 테두리를 생성하고 객체의 경계값을 추출하는 것인 영상처리장치.
The method of claim 1, wherein the boundary value extractor,
Image processing that receives the unpolarized visible light image and the polarized recombined image transmitted from the image recombination unit as input, generates the border of the object included in each of the unpolarized visible light image and the polarized recombined image, and extracts the boundary value of the object. Device.
제1항에 있어서, 상기 영상 최적화부는,
상기 경계값 추출부에서 검출된 각 영상에서의 경계값 정보를 융합하는 것인 영상처리장치.
The method of claim 1, wherein the image optimization unit,
An image processing device that fuses boundary value information in each image detected by the boundary value extraction unit.
대상체에 대한 적어도 하나의 무편광 가시광 영상 및 적어도 하나의 편광 영상을 획득하는 영상 획득부와,
획득한 복수 영상 중 적어도 일부를 재조합하는 영상 재조합부와,
상기 영상 재조합부로부터 전달된 영상을 기반으로 각 영상 내 목적 객체의 경계값을 추출하는 경계값 추출부와,
출력된 각 영상 내 목적 객체의 경계값을 기초로 다수결 방식으로 상기 목적 객체의 경계값을 1차 결정하고, 상기 1차 결정시 고려되지 않은 소수의 영상에 대한 2차 융합을 통하여 상기 목적 객체의 경계값을 최종 결정하는 영상 최적화부
를 포함하는 영상처리장치.
an image acquisition unit that acquires at least one unpolarized visible light image and at least one polarized image of the object;
an image recombination unit that recombines at least some of the acquired multiple images;
a boundary value extraction unit that extracts a boundary value of a target object in each image based on the image transmitted from the image recombination unit;
The boundary value of the target object is first determined by majority voting based on the boundary value of the target object in each output image, and the target object is determined through secondary fusion of a small number of images that were not considered in the first decision. Image optimization unit that finalizes the boundary value
An image processing device including a.
제8항에 있어서, 상기 영상 재조합부는,
상기 편광 영상의 DoLP를 추출하는 것인 영상처리장치.
The method of claim 8, wherein the image recombination unit,
An image processing device for extracting DoLP of the polarization image.
제9항에 있어서, 상기 영상 최적화부는,
상기 편광 영상의 DoLP를 기준으로 2차 융합에 이용될 영상을 선택하는 것인 영상처리장치.
The method of claim 9, wherein the image optimization unit,
An image processing device that selects an image to be used for secondary fusion based on the DoLP of the polarization image.
복수의 카메라를 이용하여 대상체에 대한 복수의 영상을 획득하되, 상기 복수의 카메라에 대한 물리적 차이를 보정하는 물리적 보정과, 상기 복수의 영상에 대한 영상 정합을 수행하여 최종 입력 영상을 획득하는 영상 획득부와,
상기 최종 입력 영상 중 적어도 일부를 재조합하는 영상 재조합부와,
상기 최종 입력 영상에서 각 영상 내 목적 객체의 경계값을 출력하는 경계값 추출부와,
출력된 각 영상 내 목적 객체의 경계값을 기초로 상기 목적 객체의 경계값을 1차 결정하고, 상기 1차 결정시 고려되지 않은 소수의 영상에 대한 2차 융합을 통하여 상기 목적 객체의 경계값을 최종 결정하여 무편광 가시광 영상에 반영하는 영상 최적화부
를 포함하는 영상처리장치.
A plurality of images of an object are acquired using a plurality of cameras, and image acquisition is performed by performing physical correction to correct physical differences between the plurality of cameras and image registration of the plurality of images to obtain a final input image. wealth,
an image reassembly unit that recombines at least a portion of the final input image;
a boundary value extractor that outputs a boundary value of a target object in each image from the final input image;
The boundary value of the target object is first determined based on the boundary value of the target object in each output image, and the boundary value of the target object is determined through secondary fusion of a small number of images that were not considered in the first decision. Image optimization unit that makes the final decision and reflects it on the non-polarized visible light image
An image processing device including a.
제11항에 있어서, 상기 영상 획득부는,
상기 복수의 카메라의 물리적 배치 정보를 기초로, 모든 획득 영상에 대하여 하나의 카메라를 기준으로 영상정합을 수행하는 물리적 보정을 수행하여 입력 영상을 획득하는 것인 영상처리장치.
The method of claim 11, wherein the image acquisition unit,
An image processing device that obtains an input image by performing physical correction to perform image matching on all acquired images based on one camera, based on the physical arrangement information of the plurality of cameras.
제12항에 있어서, 상기 영상 획득부는,
상기 물리적 보정 이후에, 상기 입력 영상에 대하여 선형변환 및 비강체변환의 2단계 입력 영상간 정합을 수행하여 최종 입력 영상을 획득하는 것인 영상처리장치.
The method of claim 12, wherein the image acquisition unit,
After the physical correction, the image processing device obtains the final input image by performing two-stage registration between the input images, linear transformation and non-rigid transformation, on the input image.
제11항에 있어서, 상기 영상 획득부는,
시간에 따른 시계열 영상을 획득하는 것인 영상처리장치.
The method of claim 11, wherein the image acquisition unit,
An image processing device that acquires time series images over time.
제14항에 있어서, 상기 영상 재조합부는,
상기 시계열 영상에 대하여 특정 객체에 대한 무게 중심 픽셀이 소정 범위 이내로 이동한 영상에 대해서 재조합을 수행하는 것인 영상처리장치.
The method of claim 14, wherein the image recombination unit,
An image processing device that performs recombination on images in which the center of gravity pixel for a specific object has moved within a predetermined range with respect to the time series images.
제11항에 있어서,
상기 입력 영상 데이터에 대한 데이터 증강을 위한 축척 변환을 수행하는 영상 전처리부를 더 포함하는 것인 영상처리장치.
According to clause 11,
An image processing device further comprising an image preprocessor that performs scale transformation for data augmentation of the input image data.
대상체에 대한 적어도 하나의 무편광 가시광 영상 및 적어도 하나의 편광 영상을 포함하는 복수의 영상을 획득하는 영상 획득 단계와,
획득한 상기 복수의 영상 중 적어도 일부를 재조합하는 영상 재조합 단계와,
상기 복수의 영상 내 목적 객체의 경계값을 추출하는 경계값 추출 단계와,
출력된 각 영상 내 목적 객체의 경계값을 기초로 상기 목적 객체의 경계값을 1차 결정하고, 상기 1차 결정시 고려되지 않은 소수의 영상에 대한 2차 융합을 통하여 상기 목적 객체의 경계값을 최종 결정하고 결정된 상기 경계값을 기초로 상기 무편광 가시광 영상에서 유실되거나 왜곡된 객체에 대한 복원을 하는 영상 최적화 단계
를 포함하는 영상처리방법.
An image acquisition step of acquiring a plurality of images including at least one unpolarized visible light image and at least one polarized image of the object;
An image reassembly step of recombining at least some of the acquired plurality of images;
A boundary value extraction step of extracting boundary values of target objects in the plurality of images,
The boundary value of the target object is first determined based on the boundary value of the target object in each output image, and the boundary value of the target object is determined through secondary fusion of a small number of images that were not considered in the first decision. An image optimization step of restoring objects lost or distorted in the non-polarized visible light image based on the final and determined boundary value.
An image processing method including.
제17항에 있어서, 상기 영상 획득 단계는,
상기 복수의 영상에 대하여 복수의 카메라에 대한 물리적 차이를 보정하는 물리적 보정과, 상기 복수의 영상에 대한 영상 정합을 수행하는 단계를 포함하는 것인 영상처리방법.
The method of claim 17, wherein the image acquisition step includes:
An image processing method comprising performing physical correction for correcting physical differences between a plurality of cameras with respect to the plurality of images, and performing image registration for the plurality of images.
제17항에 있어서, 상기 영상 재조합 단계는,
상기 편광 영상에서 DoLP를 추출하는 단계를 포함하는 것인 영상처리방법.
The method of claim 17, wherein the image reassembly step includes:
An image processing method comprising extracting DoLP from the polarization image.
제17항에 있어서, 상기 영상 최적화 단계는,
추출된 상기 경계값을 기초로 상기 목적 객체의 경계값을 최종 결정하여 무편광 가시광 영상에 반영하는 단계를 포함하는 것인 영상처리방법.
The method of claim 17, wherein the image optimization step is:
An image processing method comprising the step of finally determining the boundary value of the target object based on the extracted boundary value and reflecting it in an unpolarized visible light image.
KR1020220135888A 2022-10-20 2022-10-20 Camera Image Compensation Apparatus and Method Thereof KR102625104B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220135888A KR102625104B1 (en) 2022-10-20 2022-10-20 Camera Image Compensation Apparatus and Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220135888A KR102625104B1 (en) 2022-10-20 2022-10-20 Camera Image Compensation Apparatus and Method Thereof

Publications (1)

Publication Number Publication Date
KR102625104B1 true KR102625104B1 (en) 2024-01-16

Family

ID=89719316

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220135888A KR102625104B1 (en) 2022-10-20 2022-10-20 Camera Image Compensation Apparatus and Method Thereof

Country Status (1)

Country Link
KR (1) KR102625104B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101321974B1 (en) * 2012-05-09 2013-11-08 (주)비주얼 스포츠 A method for combining image of moving object using optical flow method
KR20190040550A (en) * 2017-10-11 2019-04-19 현대모비스 주식회사 Apparatus for detecting obstacle in vehicle and control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101321974B1 (en) * 2012-05-09 2013-11-08 (주)비주얼 스포츠 A method for combining image of moving object using optical flow method
KR20190040550A (en) * 2017-10-11 2019-04-19 현대모비스 주식회사 Apparatus for detecting obstacle in vehicle and control method thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kaite Xiang ET AL: "Polarization-driven semantic segmentation via efficient attention-bridged fusion", Optics Express Vol. 29, Issue 4, pp. 4802-4820, 15 Feb. 2021(2021.02.15.) 1부.* *
Ningbo Long ET AL: "Unifying Obstacle Detection, Recognition, and Fusion Based on the Polarization Color Stereo Camera and LiDAR for the ADAS", Sensors 2022, 22(7), 2453, 23 March 2022(2022.03.23.) 1부.* *

Similar Documents

Publication Publication Date Title
EP3631761B1 (en) Method and system for automatically colorizing night-vision images
Rateke et al. Road surface detection and differentiation considering surface damages
CN101621634B (en) Method for splicing large-scale video with separated dynamic foreground
Dasgupta et al. Spatio-contextual deep network-based multimodal pedestrian detection for autonomous driving
US20210174539A1 (en) A method for estimating the pose of a camera in the frame of reference of a three-dimensional scene, device, augmented reality system and computer program therefor
US20190197669A1 (en) Information processing device, learning processing method, learning device, and object recognition device
CN113255659B (en) License plate correction detection and identification method based on MSAFF-yolk 3
US20200160110A1 (en) Method and System for Object Tracking and Recognition Using Low Power Compressive Sensing Camera in Real-Time Applications
CN101783019A (en) Subject tracking apparatus and control method therefor, image capturing apparatus, and display apparatus
CN111965636A (en) Night target detection method based on millimeter wave radar and vision fusion
Speth et al. Deep learning with RGB and thermal images onboard a drone for monitoring operations
Kwan et al. Compressive vehicle tracking using deep learning
CN111582074A (en) Monitoring video leaf occlusion detection method based on scene depth information perception
Kwan et al. Deep learning based target tracking and classification for infrared videos using compressive measurements
CN111814567A (en) Method, device and equipment for detecting living human face and storage medium
KR102625104B1 (en) Camera Image Compensation Apparatus and Method Thereof
US11455710B2 (en) Device and method of object detection
CN114581911B (en) Steel coil label identification method and system
US11689820B2 (en) Combining grayscale scanned images with color image to create high-resolution overlay images in vehicles
CN112633089B (en) Video pedestrian re-identification method, intelligent terminal and storage medium
Zhang et al. Capitalizing on RGB-FIR hybrid imaging for road detection
Secci et al. Rgb cameras failures and their effects in autonomous driving applications
CN113066003A (en) Panoramic image generation method and device, electronic equipment and storage medium
Gowda et al. Does Thermal data make the detection systems more reliable?
KR102428106B1 (en) Phase calibration system for multi-lens optics device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant