KR20190047243A - Apparatus and method for warning contamination of camera lens - Google Patents

Apparatus and method for warning contamination of camera lens Download PDF

Info

Publication number
KR20190047243A
KR20190047243A KR1020170140890A KR20170140890A KR20190047243A KR 20190047243 A KR20190047243 A KR 20190047243A KR 1020170140890 A KR1020170140890 A KR 1020170140890A KR 20170140890 A KR20170140890 A KR 20170140890A KR 20190047243 A KR20190047243 A KR 20190047243A
Authority
KR
South Korea
Prior art keywords
state
image
pollution
warning
camera lens
Prior art date
Application number
KR1020170140890A
Other languages
Korean (ko)
Inventor
손민성
최진욱
설상훈
최태현
윤성욱
임재영
Original Assignee
현대자동차주식회사
고려대학교 산학협력단
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 고려대학교 산학협력단, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170140890A priority Critical patent/KR20190047243A/en
Publication of KR20190047243A publication Critical patent/KR20190047243A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N23/811Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation by dust removal, e.g. from surfaces of the image sensor or processing of the image signal output by the electronic image sensor
    • H04N5/2171
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an apparatus and a method for warning contamination of a camera lens which classify a contamination state of a camera lens by merging a space and a frequency domain. The apparatus for warning contamination of a camera lens comprises: an image obtainer for obtaining an image around a vehicle through at least one camera installed in the vehicle; a processor for classifying a contamination state of the camera lens by calculating a multi-domain deep neural network for the image obtained through the image obtainer; and an outputter for outputting a warning according to the contamination state by controlling the processor.

Description

카메라 렌즈 오염 경고 장치 및 방법{APPARATUS AND METHOD FOR WARNING CONTAMINATION OF CAMERA LENS}TECHNICAL FIELD [0001] The present invention relates to a camera lens contamination warning device,

본 발명은 공간 및 주파수 도메인 융합을 통해 카메라 렌즈의 오염을 검출하는 카메라 렌즈 오염 경고 장치 및 방법에 관한 것이다.The present invention relates to a camera lens contamination warning apparatus and method for detecting contamination of a camera lens through spatial and frequency domain convergence.

최근에는 운전자가 차량의 주변 상황을 편리하게 확인하여 주행 및 주차 등을 손쉽게 할 수 있도록 카메라를 이용하여 차량의 주변 영상을 제공하는 영상 처리 시스템이 보편적으로 적용되고 있다. 이러한 영상 처리 시스템은 날씨 또는 먼지 등과 같은 외부 요인으로 인해 카메라 렌즈가 오염되면 영상 처리 시 오류를 발생시킬 수 있어 시스템에 대한 신뢰성이 저하될 수 있다.2. Description of the Related Art Recently, an image processing system that provides a peripheral image of a vehicle using a camera has been widely applied so that a driver can conveniently check the surrounding situation of the vehicle and easily perform driving and parking. Such an image processing system may cause an error in the image processing if the camera lens is contaminated due to external factors such as weather or dust, so that the reliability of the system may be deteriorated.

이에, 종래에는 카메라 렌즈의 오염을 검출하기 위해 영상의 명암을 이용하거나 동영상에서 동일 영역의 면적을 계산하거나, 영상의 블러(blur) 현상 또는 에지 맵(edge map)을 이용하는 방법이 대부분이다. 그러나 이러한 종래기술은 특정 종류의 오염물에만 적용가능하거나 특정 환경에서 획득된 영상에서만 적용 가능할 수 있어 제한적이다.Conventionally, in order to detect the contamination of the camera lens, most methods are to use the brightness of the image or to calculate the area of the same area in the moving image, or to use blur phenomenon or edge map of the image. However, this conventional technique is applicable only to a certain kind of pollutants or is limited to be applicable only to images obtained in a specific environment.

[문헌 1] KR 1020150076371 A[Document 1] KR 1020150076371 A [문헌 2] KR 101525516 B1[Document 2] KR 101525516 B1 [문헌 3] US 20150009296 A1[Literature 3] US 20150009296 A1 [문헌 4] US 9319637 B2[Document 4] US 9319637 B2 [문헌 5] US 8208043 B2[Literature 5] US 8208043 B2 [문헌 6] US 20150177512 A1[Literature 6] US 20150177512 A1

본 발명은 공간 및 주파수 도메인 융합을 통해 카메라 렌즈의 오염 상태를 분류하는 카메라 렌즈 오염 경고 장치 및 방법을 제공하고자 한다.The present invention provides a camera lens contamination warning device and method for classifying the contamination state of a camera lens through spatial and frequency domain convergence.

또한, 본 발명은 오염 정보를 운전자에게 경고하는 카메라 렌즈 오염 경고 장치 및 방법을 제공하고자 한다.The present invention also provides a camera lens contamination warning device and method for warning a driver of contamination information.

상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 카메라 렌즈 오염 경고 장치는 차량에 장착된 적어도 하나 이상의 카메라를 통해 차량 주변의 영상을 획득하는 영상 획득기, 상기 영상 획득기를 통해 획득한 영상에 대해 멀티 도메인 심층 신경망 연산을 수행하여 카메라 렌즈의 오염 상태를 분류하는 처리기, 및 상기 처리기의 제어에 따라 오염 상태에 따른 경고를 출력하는 출력기를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for alerting a camera lens contamination, comprising: an image acquirer for acquiring an image of a periphery of the vehicle through at least one camera mounted on the vehicle; A processor for performing a multinomial domain neural network operation on the image to classify the contamination state of the camera lens, and an output unit for outputting a warning according to the contamination state under the control of the processor.

상기 처리기는, 상기 획득한 영상을 전처리하는 전처리부, 상기 전처리부에서 전처리된 영상에 대해 상기 멀티 도메인 심층 신경망 연산을 수행하여 오염 상태별 확률값을 연산하는 멀티 도메인 심층 신경망 처리부, 및 상기 오염 상태별 확률값에 근거하여 상기 카메라 렌즈의 오염 상태를 결정하는 오염 상태 결정부를 포함하는 것을 특징으로 한다.Wherein the processor comprises: a pre-processing unit for pre-processing the acquired image; a multidomain-based neural network processing unit for performing the multidomain-based neural network operation on an image preprocessed by the preprocessing unit to calculate a probability value for each contamination state; And a contamination state determiner for determining a contamination state of the camera lens based on the probability value.

상기 멀티 도메인 심층 신경망 처리부는, 콘볼루션 연산과 통합 연산을 수행하여 상기 전처리된 영상으로부터 공간 도메인 특징값을 추출하는 공간 도메인 특징 추출부, DCT(Discrete Cosine Transform) 콘볼루션 연산, 콘볼루션 연산 및 통합 연산을 수행하여 상기 전처리된 영상으로부터 주파수 도메인 특징값을 추출하는 주파수 도메인 특징 추출부, 연결 연산을 수행하여 상기 공간 도메인 특징값과 상기 주파수 도메인 특징값을 융합하는 융합부, 및 완전 연결 연산 및 소프트맥스 연산을 수행하여 상기 융합부에 의해 융합된 특징값에 근거하여 상기 오염 상태별 확률값을 추정하는 추정부를 포함하는 것을 특징으로 한다.The multi-domain neural network processor includes a spatial domain feature extraction unit for extracting spatial domain feature values from the preprocessed image by performing a convolution operation and an integration operation, a DCT (Discrete Cosine Transform) convolution operation, a convolution operation, and an integration And extracting a frequency domain feature value from the preprocessed image, a fusion unit for performing a connection operation to fuse the spatial domain feature value and the frequency domain feature value, And an estimator for performing a Max operation and estimating a probability value for each contamination state based on the characteristic values fused by the fusion unit.

상기 주파수 도메인 특징 추출부는, 적어도 하나 이상의 콘볼루션 계층의 가중치의 초기값을 DCT 행렬로 설정하는 것을 특징으로 한다.The frequency domain feature extraction unit may set an initial value of a weight of at least one convolution layer to a DCT matrix.

상기 오염 상태 결정부는, 상기 오염 상태별 확률값 중 가장 높은 확률값을 가지는 오염 상태를 상기 카메라 렌즈의 오염 상태로 결정하는 것을 특징으로 한다.The pollution state determination unit determines a pollution state having the highest probability value among the probability values of the pollution states as the pollution state of the camera lens.

상기 처리기는, 분류된 오염 상태가 미리 설정된 경고 필요 오염 상태 목록에 존재하는지를 확인하여 경고 필요여부를 판단하여 경고 출력을 제어하는 오염 상태 경고부를 포함하는 것을 특징으로 한다.The processor includes a pollution state warning unit for determining whether a classified pollution state is present in a predetermined warning-required pollution state list to determine whether or not a warning is required and controlling the warning output.

상기 오염 상태 경고부는, 상기 분류된 오염 상태가 상기 미리 설정된 경고 필요 오염 상태 목록에 존재하면 오염 상태를 알리는 경고를 출력하는 것을 특징으로 한다.And the pollution state warning unit outputs a warning indicating the pollution state if the classified pollution state is present in the preset warning required pollution state list.

한편, 본 발명의 일 실시예에 따른 카메라 렌즈 오염 경고 방법은 차량에 장착된 적어도 하나 이상의 카메라를 통해 영상을 획득하는 단계, 상기 적어도 하나 이상의 카메라를 통해 획득한 영상을 전처리하는 단계, 상기 전처리된 영상에 대해 멀티 도메인 심층 신경망 연산을 수행하여 카메라 렌즈의 오염 상태를 분류하는 단계, 및 상기 분류된 오염 상태에 따라 경고를 출력하는 단계를 포함하는 것을 특징으로 한다.Meanwhile, the camera lens contamination warning method according to an embodiment of the present invention includes the steps of acquiring an image through at least one camera mounted on a vehicle, pre-processing an image acquired through the at least one camera, Classifying the contaminated state of the camera lens by performing a multi-domain deep-neural network operation on the image, and outputting a warning according to the classified contamination state.

상기 획득한 영상을 전처리하는 단계는, 상기 획득한 영상의 크기를 조정하고, 상기 획득한 영상의 픽셀 값을 정규화하는 것을 특징으로 한다.The pre-processing of the acquired image may include adjusting the size of the acquired image, and normalizing the pixel value of the acquired image.

상기 카메라 렌즈의 오염 상태를 분류하는 단계는, 상기 전처리된 영상으로부터 공간 도메인 특징 및 주파수 도메인 특징을 추출하여 융합하고 융합된 특징에 근거하여 오염 상태별 확률값을 연산하는 것을 특징으로 한다.The classifying the contamination state of the camera lens may include extracting a spatial domain characteristic and a frequency domain characteristic from the preprocessed image, and calculating a probability value for each contamination state based on the fused and merged characteristics.

상기 카메라 렌즈의 오염 상태를 분류하는 단계는, DCT 콘볼루션 연산을 통해 상기 주파수 도메인 특징을 추출하는 것을 특징으로 한다.The step of classifying the contamination state of the camera lens is characterized by extracting the frequency domain characteristic through a DCT convolution operation.

상기 카메라 렌즈의 오염 상태를 분류하는 단계는, 상기 오염 상태별 확률값 중 가장 큰 확률값을 가지는 오염 상태를 상기 카메라 렌즈의 오염 상태로 분류하는 것을 특징으로 한다.The classifying the contamination state of the camera lens may include classifying the pollution state having the largest probability value among the probability values of the pollution states into a contamination state of the camera lens.

상기 경고를 출력하는 단계는, 상기 분류된 오염 상태가 미리 설정된 경고 필요 오염 상태 목록에 포함되는 경우 상기 카메라 렌즈의 오염 상태를 알리는 경고를 출력하는 것을 특징으로 한다.The step of outputting the warning may include outputting a warning indicating the contamination state of the camera lens when the classified pollution state is included in the pre-set alarm-required pollution state list.

본 발명은 공간 도메인 및 주파수 도메인의 융합을 통해 카메라 렌즈의 오염을 검출하므로, 특정 종류의 오염물 및 특정 환경에 제한없이 오염을 검출할 수 있다.The present invention detects contamination of the camera lens through fusion of the spatial domain and the frequency domain, so that contamination can be detected without limitation to certain kinds of pollutants and a specific environment.

또한, 본 발명은 카메라 렌즈의 오염 상태를 판단하여 운전자에게 오염 상태에 대한 정보를 제공하므로, 운전자에게 오염 상태에 따라 카메라 렌즈의 교체 및 세척의 필요여부를 판단하는데 도움을 줄 수 있으며 차량용 카메라를 사용하는 영상 처리 시스템의 신뢰성을 향상시킬 수 있다.In addition, the present invention provides a driver with information on the contamination state by determining the contamination state of the camera lens, which can help the driver to determine whether the camera lens needs to be replaced or cleaned depending on the contamination state, The reliability of the image processing system to be used can be improved.

도 1은 본 발명의 일 실시예에 따른 카메라 렌즈 오염 경고 장치를 도시한 블록구성도.
도 2는 도 1에 도시된 오염 상태 분류부의 블록구성도.
도 3은 도 2에 도시된 전처리부의 구성을 도시한 블록도.
도 4는 도 2에 도시된 멀티 도메인 심층 신경망 처리부를 도시한 블록구성도.
도 5는 도 1에 도시된 오염 상태 경고부의 구성을 도시한 블록도.
도 6은 본 발명과 관련된 주파수 도메인 특징을 추출하기 위한 연산 과정을 을 설명하기 위한 도면.
도 7은 도 4에 도시된 주파수 도메인 특징 추출부의 구조를 도시한 예시도.
도 8은 도 2에 도시된 멀티 도메인 심층 신경망 처리부의 구조를 도시한 예시도.
도 9는 본 발명의 일 실시예에 따른 카메라 렌즈 오염 경고 방법을 도시한 흐름도.
도 10은 본 발명에 따른 멀티 도메인 심층 신경망 처리를 설명하기 위한 도면.
도 11은 본 발명에 따른 렌즈 오염 상태에 따른 경고 출력을 도시한 예시도.
1 is a block diagram illustrating a camera lens contamination warning device according to an embodiment of the present invention;
2 is a block diagram of the pollution state classifying unit shown in FIG. 1;
3 is a block diagram showing the configuration of the preprocessing unit shown in Fig.
FIG. 4 is a block diagram showing a multi-domain deep-layer neural network processing unit shown in FIG. 2. FIG.
5 is a block diagram showing the configuration of the contamination state warning unit shown in Fig.
FIG. 6 is a diagram for explaining a calculation process for extracting frequency domain characteristics related to the present invention; FIG.
FIG. 7 is an exemplary diagram showing the structure of the frequency domain feature extraction unit shown in FIG. 4; FIG.
FIG. 8 is an exemplary diagram showing the structure of the multi-domain deep-layer neural network processor shown in FIG. 2. FIG.
FIG. 9 is a flowchart illustrating a camera lens contamination warning method according to an embodiment of the present invention. FIG.
10 is a diagram for explaining a multi-domain deep-layer neural network process according to the present invention.
11 is an exemplary view showing an alarm output according to the contamination state of the lens according to the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the difference that the embodiments of the present invention are not conclusive.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. Also, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

본 발명은 멀티 도메인 심층 신경망을 활용하여 카메라 렌즈의 오염 상태를 검출하여 검출된 오염 상태 정보를 운전자에게 경고하는 시스템에 관한 것이다.The present invention relates to a system for detecting a contamination state of a camera lens using a multi-domain deep-layer neural network and alerting the driver of the detected contamination state information.

도 1은 본 발명의 일 실시예에 따른 카메라 렌즈 오염 경고 장치를 도시한 블록구성도이고, 도 2는 도 1에 도시된 오염 상태 분류부의 블록구성도이며, 도 3은 도 2에 도시된 전처리부의 구성을 도시한 블록도이고, 도 4는 도 2에 도시된 멀티 도메인 심층 신경망 처리부를 도시한 블록구성도이며, 도 5는 도 1에 도시된 오염 상태 경고부의 구성을 도시한 블록도이고, 도 6은 본 발명과 관련된 주파수 도메인 특징을 추출하기 위한 연산 과정을 을 설명하기 위한 도면이며, 도 7은 도 4에 도시된 주파수 도메인 특징 추출부의 구조를 도시한 예시도이고, 도 8은 도 2에 도시된 멀티 도메인 심층 신경망 처리부의 구조를 도시한 예시도이다.FIG. 1 is a block diagram showing a camera lens contamination warning device according to an embodiment of the present invention. FIG. 2 is a block diagram of a pollution state classifying unit shown in FIG. 1, FIG. 4 is a block diagram showing the multi-domain deep-layer neural network processing unit shown in FIG. 2, FIG. 5 is a block diagram showing the configuration of the pollution status warning unit shown in FIG. 1, FIG. 6 is a diagram for explaining a calculation process for extracting frequency domain characteristics related to the present invention, FIG. 7 is an exemplary view showing a structure of the frequency domain feature extraction unit shown in FIG. 4, FIG. 3 is a diagram illustrating a structure of a multi-domain deep-layer neural network processing unit shown in FIG.

도 1에 도시된 바와 같이, 카메라 렌즈 오염 경고 장치는 영상 획득기(100), 처리기(200), 및 출력기(300)를 포함한다.As shown in FIG. 1, the camera lens pollution warning device includes an image acquirer 100, a processor 200, and an output device 300.

영상 획득기(100)는 차량에 장착된 적어도 하나 이상의 카메라(들)를 이용하여 차량 주변의 영상을 획득한다. 예컨대, 영상 획득기(100)는 전방 카메라, 후방 카메라, 및/또는 측방 카메라(사이드 카메라)를 통해 차량 주위의 외부 영상(전방 영상, 후방 영상 및/또는 측방 영상)을 획득할 수 있다. 영상 획득기(100)는 획득한 영상을 처리기(200)의 입력 데이터(입력 영상)로 제공한다.The image acquirer 100 acquires images of the surroundings of the vehicle using at least one camera (s) mounted on the vehicle. For example, the image acquirer 100 may acquire external images (front image, rear image, and / or side image) around the vehicle through a front camera, a rear camera, and / or a side camera (side camera). The image acquirer 100 provides the acquired image as input data (input image) of the processor 200.

카메라(미도시)는 CCD(charge coupled device) 영상센서(image sensor), CMOS(complementary metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등의 영상센서들 중 어느 하나를 포함할 수 있다. 또한, 카메라(미도시)는 표준렌즈, 광각렌즈, 어안렌즈 및 망원렌즈 중 어느 하나의 렌즈를 구비할 수 있다.The camera (not shown) may be a charge coupled device (CCD) image sensor, a complementary metal oxide semiconductor (CMOS) image sensor, a charge priming device (CPD) image sensor, and a charge injection device And may include any one of the image sensors. In addition, the camera (not shown) may include any one of a standard lens, a wide-angle lens, a fish-eye lens, and a telephoto lens.

처리기(200)는 영상 획득기(100)를 통해 획득한 영상에 대해 멀티 도메인 심층 신경망 처리를 수행하여 카메라 렌즈의 오염 상태를 검출하고 검출된 오염 상태에 따라 경고한다. 처리기(200)는 내부 및/또는 외부에 메모리(미도시)를 구비할 수 있다. 메모리(미도시)는 처리기(200)의 동작을 제어하기 위한 프로그램, 설정정보 및 처리기(200)의 입/출력 데이터를 저장할 수 있다.The processor 200 performs multinomial domain neural network processing on the image acquired through the image acquirer 100 to detect the contamination state of the camera lens and warns according to the detected contamination state. The processor 200 may include a memory (not shown) internally and / or externally. A memory (not shown) may store a program for controlling the operation of the processor 200, setting information, and input / output data of the processor 200.

처리기(200)는 멀티 도메인 심층 신경망을 활용하여 카메라 렌즈의 오염 상태를 분류하는 오염 상태 분류부(210) 및 오염 상태 분류부(210)에 의해 분류된 오염 상태에 따라 오염 경고를 출력하는 오염 상태 경고부(220)를 포함한다.The processor 200 includes a pollution state classifying unit 210 and a pollution state classifying unit 210. The pollution state classifying unit 210 classifies the pollution state of the camera lens using the multi domain deep- And a warning unit 220.

오염 상태 분류부(210)는 도 2에 도시된 바와 같이 전처리부(211), 멀티 도메인 심층 신경망 처리부(212) 및 오염 상태 결정부(213)를 포함한다.As shown in FIG. 2, the pollution state classifying unit 210 includes a pre-processing unit 211, a multidomain-based neural network processing unit 212, and a pollution state determining unit 213.

전처리부(211)는 획득한 영상에 대해 전처리를 수행한다. 이러한 전처리부(211)는 도 3에서와 같이 영상 크기 조절부(2111) 및 영상 정규화부(2112)를 포함한다.The preprocessing unit 211 preprocesses the acquired image. The pre-processing unit 211 includes an image size adjusting unit 2111 and an image normalizing unit 2112 as shown in FIG.

영상 크기 조절부(2111)는 영상 획득기(100)를 통해 획득한 영상을 멀티 도메인 심층 신경망 처리부(212)의 입력으로 사용하기 위하여 확대 및/또는 축소한다. 즉, 영상 크기 조절부(2111)는 획득한 영상을 멀티 도메인 심층 신경망 처리부(212)의 입력 데이터로 사용하기 위해 해당 영상의 크기를 조절한다.The image size adjuster 2111 enlarges and / or reduces an image acquired through the image acquirer 100 to use the input image as an input to the multi-domain neural network processor 212. That is, the image size adjustment unit 2111 adjusts the size of the image to use the acquired image as input data of the multidomain-based neural network processing unit 212.

영상 정규화부(2112)는 영상 크기 조절부(2111)에 의해 크기 조절된 영상을 정규화한다. 영상 정규화부(2112)는 공지된 정규화 방식들 중 어느 하나의 방식을 사용할 수 있다.The image normalization unit 2112 normalizes the image scaled by the image size adjustment unit 2111. The image normalization unit 2112 can use any one of known normalization methods.

영상 정규화부(2112)는 [수학식 1]을 사용하여 영상을 정규화할 수 있다.The image normalization unit 2112 can normalize the image using Equation (1).

Figure pat00001
Figure pat00001

여기서, x(i, j)는 정규화전 영상의 (i, j)번째 픽셀(pixel) 값이고, x'(i, j)는 정규화된 영상의 (i, j)번째 픽셀 값이다. Here, x (i, j) is the (i, j) th pixel value of the normalized image and x '(i, j) is the (i, j) th pixel value of the normalized image.

예컨대, 영상 크기 조절부(2111)에 의해 크기 조절된 영상이 0부터 255의 픽셀 값을 갖는 경우, 영상 정규화부(2112)는 영상의 각 픽셀 값을 -1부터 1사이의 값으로 정규화한다.For example, when the image resized by the image size adjusting unit 2111 has pixel values of 0 to 255, the image normalizing unit 2112 normalizes each pixel value of the image to a value between -1 and 1.

멀티 도메인 심층 신경망 처리부(212)는 전처리부(211)에 의해 전처리된 영상에 대해 멀티 도메인 심층 신경망 연산을 수행한다. 이때, 멀티 도메인 심층 신경망 처리부(212)에서 출력되는 멀티 도메인 심층 신경망 연산의 최종 연산 결과는 각 오염 상태별 확률값을 의미한다. 여기서, 오염 상태는 깨끗함, 반투명 오염 및 불투명 오염 등으로 구분된다.The multi-domain neural network processing unit 212 performs a multi-domain neural network operation on an image pre-processed by the preprocessing unit 211. At this time, the final computation result of the multi-domain deep-neural network computation output from the multi-domain neural network processor 212 means a probability value for each pollution state. Here, the pollution state is classified into clean, translucent pollution, and opaque pollution.

도 4를 참조하면, 멀티 도메인 심층 신경망 처리부(212)는 공간 도메인 특징 추출부(2121), 주파수 도메인 특징 추출부(2122), 융합부(2123) 및 추정부(2124)를 포함한다.Referring to FIG. 4, the multi-domain neural network processing unit 212 includes a spatial domain feature extraction unit 2121, a frequency domain feature extraction unit 2122, a fusion unit 2123, and an estimation unit 2124.

공간 도메인 특징 추출부(2121)는 콘볼루션(convolution) 연산과 통합(pooling) 연산을 수행하여 전처리된 영상으로부터 공간 도메인 특징값을 추출한다. 예컨대, 공간 도메인 특징 추출부(2121)는 기존의 심층 학습망 구조 중 하나인 VGG16(Simonyan, Karen, and Andrew Zisserman. "Very deep convolutional networks for large-scale image recognition." arXiv preprint arXiv:1409.1556, 2014)로 구현될 수 있다.The spatial domain feature extraction unit 2121 performs a convolution operation and a pooling operation to extract spatial domain feature values from the preprocessed image. For example, the spatial domain feature extraction unit 2121 extracts the spatial domain feature extraction unit 2121 from one of the existing deep learning network structures VGG16 (Simonyan, Karen, and Andrew Zisserman. "Very deep convolutional networks for large-scale image recognition." ArXiv preprint arXiv: 1409.1556, 2014 ). ≪ / RTI >

주파수 도메인 특징 추출부(2122)는 공간 도메인 특징 추출부(2121)와 병렬적으로 구성된다. 주파수 도메인 특징 추출부(2122)는 DCT(Discrete Cosine Transform) 콘볼루션, 콘볼루션 및 통합 연산을 수행하여 전처리된 영상에서 주파수 도메인 특징을 추출한다.The frequency domain feature extraction unit 2122 is configured in parallel with the spatial domain feature extraction unit 2121. The frequency domain feature extraction unit 2122 extracts frequency domain features from the preprocessed image by performing discrete cosine transform (DCT) convolution, convolution, and integration operations.

DCT 콘볼루션은 주파수 도메인의 특징을 추출하기 위한 연산으로, 가중치 wDCT의 초기값을 [수학식 2]와 같은 DCT 행렬(matrix)로 설정하여 학습시킨 가중치 wDCT를 이용한 콘볼루션 연산을 의미한다.DCT convolution in operation for extracting the feature of a frequency domain, the initial value of the weight w DCT means the convolution operation with which a weight w DCT learning by setting the DCT matrix (matrix), such as Equation (2) .

여기서,

Figure pat00003
이고,here,
Figure pat00003
ego,

Figure pat00004
이다.
Figure pat00004
to be.

x 및 y는 공간 도메인 상에서의 이미지 좌표이고, u 및 v는 주파수 도메인 상에서의 이미지 좌표이다.x and y are image coordinates on the spatial domain, and u and v are image coordinates on the frequency domain.

주파수 도메인 특징 추출부(2122)는 도 6에 도시된 바와 같이 DCT 콘볼루션 연산 후 배치 정규화(batch normalization, BN)과 쌍곡탄젠트(hyperbolic tangent, tanh) 연산을 진행한다.The frequency domain feature extraction unit 2122 performs batch normalization (BN) and hyperbolic tangent (tanh) operations after DCT convolution operation as shown in FIG.

배치 정규화는 DCT가 저주파 대역의 성분값이 고주파수 대역의 성분값에 비해 커서 학습이 어려워지는 현상을 해결하기 위한 방법이다. 배치 정규화는 저주파수 대역과 고주파수 대역을 각각 정규화하여 비슷한 크기의 성분값들을 가지도록 하는 역할을 한다.Batch normalization is a method for solving the problem that DCT is difficult to learn because the component value of the low frequency band is larger than the component value of the high frequency band. Batch normalization plays a role of normalizing the low frequency band and the high frequency band to have component values of similar size.

주파수 도메인 특징 추출부(2122)는 기존의 공간 도메인 특징 추출부의 콘볼루션 계층(convolution layer)을 DCT 콘볼루션 계층으로 대체하여 구성할 수 있다. 예를 들어, 주파수 도메인 특징 추출부(2122)는 도 7에 도시된 바와 같이 기존의 심층 학습망 구조 중 하나인 VGG16의 첫번째 콘볼루션 계층을 DCT 콘볼루션 계층으로 대체하여 구현될 수 있다. 다시 말해서, 본 실시예에서는 기존의 심층 학습망의 적어도 하나의 콘볼루션 계층의 파라미터(가중치)의 초기값을 DCT 행렬로 설정하여 주파수 도메인 특징 추출부(2122)를 구현하는 것이다.The frequency domain feature extraction unit 2122 may be configured by replacing the convolution layer of the existing spatial domain feature extraction unit with a DCT convolution layer. For example, the frequency domain feature extraction unit 2122 can be implemented by replacing the first convolution layer of the VGG 16, which is one of the existing deep learning networks, with the DCT convolution layer as shown in FIG. In other words, in this embodiment, the frequency domain feature extraction unit 2122 is implemented by setting initial values of parameters (weights) of at least one convolution layer of the existing deep learning network to a DCT matrix.

융합부(2123)는 추출된 공간 도메인 특징값과 주파수 도메인 특징값에 대해 연결(concatenation) 연산을 수행하여 융합한다. 즉, 융합부(2123)는 추출된 공간 도메인 특징과 주파수 도메인 특징을 융합한다.The fusion unit 2123 performs a concatenation operation on the extracted spatial domain characteristic value and the frequency domain characteristic value to fuse. That is, the fusion unit 2123 fuses the extracted spatial domain characteristic and the frequency domain characteristic.

추정부(2124)는 융합부(2123)에서 융합된 특징값을 사용하여 완전 연결(fully connected)과 소프트맥스(softmax) 연산을 수행하여 오염 상태별 확률값을 계산한다. 추정부(2124)는 융합된 특징값에 근거하여 오염 상태별 확률을 추정하는 것이다.The estimating unit 2124 calculates the probability values of the contaminated states by performing fully connected and softmax operations using the feature values fused in the fusion unit 2123. The estimating unit 2124 estimates the probability of each contamination state based on the fused characteristic values.

오염 상태 결정부(213)는 오염 상태 목록과 멀티 도메인 심층 신경망 처리부(212)의 결과를 결합하여 오염 상태를 결정한다. 오염 상태 결정부(213)는 추정부(2124)에서 계산된 오염 상태별 확률값 중 가장 높은 확률값을 가지는 오염 상태로 분류한다.The pollution state determiner 213 combines the pollution state list with the results of the multinomial deep-network neural network processor 212 to determine the pollution state. The pollution state determination unit 213 classifies the pollution state into a pollution state having the highest probability value among the pollution state-specific probability values calculated by the estimation unit 2124. [

오염 상태 결정부(213)는 오염 상태 목록에 해당되는 오염 상태들의 확률값 중 가장 높은 확률값을 가지는 오염 상태로 처리기(200)의 입력 영상을 촬영한 카메라의 렌즈 오염 상태를 결정한다.The pollution state determination unit 213 determines a lens pollution state of the camera that has captured the input image of the processor 200 as the pollution state having the highest probability value among the probability values of the pollution states corresponding to the pollution state list.

오염 상태 경고부(220)는 도 5에 도시된 바와 같이 오염 경고 결정부(221) 및 경고 출력 제어부(222)를 포함한다.The pollution state warning unit 220 includes a pollution warning determination unit 221 and a warning output control unit 222 as shown in FIG.

오염 경고 결정부(221)는 오염 상태 분류부(210)에 의해 분류된 카메라 렌즈의 오염 상태가 경고 출력을 통해 오염 상태 정보를 운전자에게 경고할 필요가 있는지를 결정한다. 오염 경고 결정부(221)는 오염 상태 결정부(213)에 의해 결정된 오염 상태가 미리 설정된 경고 필요 오염 상태 목록에 포함되어 있으면 경고 출력을 결정하고, 결정된 오염 상태가 미리 설정된 경고 필요 오염 상태 목록에 포함되어 있지 않으면 경고 미출력을 결정한다.The pollution warning determining unit 221 determines whether the contamination state of the camera lens classified by the pollution state classifying unit 210 needs to warn the driver of the contamination state information through the warning output. The pollution warning determination unit 221 determines the warning output when the pollution state determined by the pollution state determination unit 213 is included in the alarm-required pollution state list set in advance, If it is not included, it determines the warning power.

경고 출력 제어부(222)는 오염 경고 결정부(221)의 결정에 따라 오염 경고 출력을 제어한다. 예컨대, 경고 출력 제어부(222)는 오염 경고 결정부(221)의 결정에 따라 오염 상태에 대한 경고를 시각 정보만 출력하도록 제어하거나 시각 정보 및 청각 정보로 출력하도록 제어한다.The warning output control section 222 controls the pollution warning output in accordance with the determination of the pollution warning determination section 221. [ For example, the warning output control unit 222 controls to output only the time information or the time information and the audible information according to the determination of the contamination warning determination unit 221.

출력기(300)는 시각 정보, 청각 정보 및/또는 촉각 정보 등의 정보를 출력하기 위한 것으로, 디스플레이, 음향 출력 모듈 및 햅틱 모듈 등이 포함될 수 있다.The output device 300 is for outputting information such as time information, auditory information, and / or tactile information, and may include a display, an audio output module, and a haptic module.

디스플레이는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 투명디스플레이, 헤드업 디스플레이(head-up display, HUD), 터치스크린 및 클러스터(cluster) 중 적어도 하나 이상으로 구현될 수 있다.The display may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, (3D) display, a transparent display, a head-up display (HUD), a touch screen, and a cluster.

음향 출력 모듈은 메모리(미도시)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈은 리시버(receiver), 스피커(speaker), 및/또는 버저(buzzer) 등을 포함할 수 있다.The sound output module can output audio data stored in a memory (not shown). The sound output module may include a receiver, a speaker, and / or a buzzer.

햅틱 모듈은 사용자가 촉각으로 인지할 수 있는 형태의 신호를 출력한다. 예를 들어, 햅틱 모듈은 진동자로 구현되어 진동 세기 및 패턴 등을 제어할 수 있다.The haptic module outputs a signal of a type that the user can perceive by the tactile sense. For example, the haptic module can be implemented as a vibrator to control vibration intensity and pattern.

본 실시예는 도 8에 도시된 바와 같이 기존의 공간 도메인 특징 추출부(2121)의 적어도 하나 이상의 콘볼루션 계층의 가중치 초기값을 DCT 행렬로 대체하여 주파수 도메인 특징 추출부(2122)를 구현하고, 공간 도메인 특징 추출부(2121)과 병렬로 구성한다. 따라서, 본 발명에 따른 카메라 렌즈 오염 경고 장치는 영상 획득기(100)로부터 입력되는 영상으로부터 공간 도메인 특징과 주파수 도메인 특징을 모두 추출하여 오염 상태 분류에 사용하므로 오염 상태 분류 기술의 성능을 향상시킬 수 있다.8, the frequency domain feature extraction unit 2122 is implemented by replacing the weight initial values of at least one convolutional layer of the existing spatial domain feature extraction unit 2121 with a DCT matrix, Domain feature extraction unit 2121 in parallel. Therefore, the camera lens pollution warning apparatus according to the present invention extracts both the spatial domain characteristic and the frequency domain characteristic from the image input from the image acquirer 100, and uses it to classify the pollution state, have.

도 9는 본 발명의 일 실시예에 따른 카메라 렌즈 오염 경고 방법을 도시한 흐름도이고, 도 10은 본 발명에 따른 멀티 도메인 심층 신경망 처리를 설명하기 위한 도면이며, 도 11은 본 발명에 따른 렌즈 오염 상태에 따른 경고 출력을 도시한 예시도이다. 여기서, 카메라 렌즈 오염 경고 장치는 차량의 시동과 함께 개시되며 주행여부에 관계없이 렌즈 오염 검출을 수행한다.FIG. 9 is a flowchart illustrating a camera lens contamination warning method according to an embodiment of the present invention. FIG. 10 is a view for explaining a multinomial-depth neural network process according to the present invention, FIG. 2 is a diagram illustrating an example of warning output according to a state; FIG. Here, the camera lens pollution warning device starts with the start of the vehicle and performs lens contamination detection regardless of whether the vehicle is running or not.

카메라 렌즈 오염 경고 장치의 처리기(200)는 영상 획득기(100)를 통해 차량 주변의 영상(들)를 획득한다(S110). 영상 획득기(100)는 카메라를 통해 실시간으로 촬영한 영상을 처리기(200)의 입력 데이터로 제공한다.The processor 200 of the camera lens pollution warning device acquires the image (s) around the vehicle through the image acquirer 100 (S110). The image acquirer 100 provides an image taken in real time through a camera as input data of the processor 200.

처리기(200)는 영상 획득기(100)를 통해 획득한 영상을 전처리한다(S120). 처리기(200)는 멀티 도메인 심층 신경망 처리를 위해 획득한 영상을 확대 및/또는 축소하여 크기를 조정한다. 또한, 처리기(200)는 획득한 영상의 각 픽셀 값을 -1에서 1사이의 값으로 변환하여 정규화시킨다.The processor 200 preprocesses the image acquired through the image acquirer 100 (S120). The processor 200 scales and / or scales the acquired image for multi-domain deep-layer neural network processing. In addition, the processor 200 transforms each pixel value of the acquired image into a value between -1 and 1 to normalize the value.

처리기(200)는 전처리된 영상으로 멀티 도메인 심층 신경망 연산을 수행하여 카메라 렌즈의 오염 상태를 분류한다(S130). 처리기(200)는 전처리된 영상으로부터 공간 도메인 특징 및 주파수 도메인 특징을 추출하여 융합한다. 도 10에 도시된 바와 같이, 처리기(200)의 공간 도메인 특징 추출부(2121)과 주파수 도메인 특징 추출부(2122)는 입력되는 영상으로부터 공간 도메인 특징과 주파수 특징을 각각 추출한다. 그리고, 처리기(200)의 융합부(2123)는 연결(concatenation) 연산을 수행하여 추출된 공간 도메인 특징과 주파수 도메인 특징을 융합한다. 처리기(200))는 융합된 특징에 근거하여 오염 상태별 확률값을 연산하고, 연산된 오염 상태별 확률값 중 가장 큰 확률값을 가지는 오염 상태로 카메라 렌즈의 오염 상태를 분류한다.The processor 200 performs multi-domain deep-neural network computation on the preprocessed image to classify the contamination state of the camera lens (S130). The processor 200 extracts spatial domain features and frequency domain features from the preprocessed image and fuses them. 10, the spatial domain feature extraction unit 2121 and the frequency domain feature extraction unit 2122 of the processor 200 extract the spatial domain feature and the frequency feature from the input image, respectively. The fusion unit 2123 of the processor 200 performs a concatenation operation to fuse the extracted spatial domain characteristic and the frequency domain characteristic. The processor 200 calculates a probability value for each contamination state based on the fused characteristic and classifies the contamination state of the camera lens into the contamination state having the largest probability value among the calculated probability values for each pollution state.

처리기(200)는 분류된 오염 상태가 경고가 필요한지 여부를 판정한다(S140). 처리기(200)는 분류된 오염 상태가 미리 설정된(정해진) 경고 필요 오염 상태 목록에 존재하는지를 확인한다. 처리기(200)는 분류된 오염 상태가 미리 설정된 경고 필요 오염 상태 목록에 존재하면 오염 경고 출력을 결정한다. 한편, 처리기(200)는 분류된 오염 상태가 미리 설정된 경고 필요 오염 상태 목록에 존재하지 않으면 오염 경고 미출력을 결정한다. The processor 200 determines whether the classified contamination state requires warning (S140). The processor 200 checks whether the classified contamination status is present in the predetermined (predetermined) warning required contamination status list. The processor 200 determines a pollution warning output if the classified pollution condition is present in the pre-set alarm required pollution condition list. On the other hand, the processor 200 determines the pollution warning peak power if the classified pollution state is not present in the preset warning required pollution state list.

처리기(200)는 오염 상태에 대한 경고가 필요한 경우 카메라 렌즈가 오염되었음을 알리는 경고를 출력한다(S150). 이때, 출력기(300)는 처리기(200)의 제어에 따라 경고를 시각 정보, 청각 정보 및 촉각 정보 중 적어도 하나 이상의 정보를 출력한다. The processor 200 outputs a warning indicating that the camera lens is contaminated when a warning about the contamination state is required (S150). At this time, the output device 300 outputs at least one of the time information, the auditory information, and the tactile information according to the control of the processor 200.

한편, S140에서 오염 경고가 불필요하다고 판정되면, 처리기(200)는 경고를 출력하지 않는다.On the other hand, if it is determined in S140 that the contamination warning is unnecessary, the processor 200 does not output a warning.

예를 들어, 도 11에 도시된 바와 같이, 처리기(200)는 영상 획득기(100)을 통해 획득한 영상을 통해 카메라 렌즈의 오염 상태를 검출한 결과가 정상이면 경고를 하지 않는다. 한편, 처리기(200)는 획득한 영상을 분석한 결과 빗방울과 같은 투명도를 가지는 오염물에 의한 오염이 검출되면 해당 영상을 촬영한 카메라의 렌즈가 오염되었음을 알리는 경고를 출력한다. 또한, 처리기(200)는 진흙과 같은 불투명한 오염물에 의한 오염이 검출되면 해당 영상을 촬영한 카메라의 렌즈가 오염되었음을 알리는 경고를 출력한다.For example, as shown in FIG. 11, the processor 200 does not warn if the result of detecting the contamination state of the camera lens through the image acquired through the image acquirer 100 is normal. Meanwhile, the processor 200 outputs a warning indicating that the lens of the camera that captured the image is contaminated when the contamination by the pollutant having transparency such as the raindrop is detected as a result of analyzing the acquired image. In addition, the processor 200 outputs a warning indicating that the lens of the camera, which has photographed the image, is contaminated when contamination due to opaque contaminants such as mud is detected.

도 11에서는 반투명 오염물 및 불투명 오염물에 의한 카메라 렌즈 오염이 있는 경우 동일한 경고를 출력하는 것을 예로 들어 개시하고 있으나, 이에 한정되지 않고 오염 상태별로 상이한 경고를 출력하도록 구현할 수도 있다.FIG. 11 shows an example in which the same warning is output when the camera lens is contaminated by translucent contaminants or opaque contaminants. However, the present invention is not limited to this.

이상과 같이, 본 발명은 차량용 카메라에서 획득한 영상 정보를 사용하여 렌즈의 오염 상태를 판단하여 운전자에게 오염 상태에 대한 정보를 제공할 수 있다.As described above, the present invention can determine the contamination state of the lens using the image information acquired from the camera for the vehicle, and provide the driver with information on the contamination state.

또한, 본 발명은 운전자에게 카메라 렌즈의 교체 및 세척의 필요성을 인지시킴으로써, 차량용 카메라를 사용하는 영상 처리 시스템의 신뢰성을 향상시킬 수 있다.Further, the present invention recognizes the necessity of replacing and cleaning the camera lens to the driver, thereby improving the reliability of the image processing system using the vehicle camera.

또한, 본 발명은 카메라 렌즈의 오염 상태에 따라 운전자가 렌즈를 교체할지, 세척할지를 결정하거나 세척의 시급성을 판단하는 데에 도움을 줄 수 있다.In addition, the present invention can help the driver to decide whether to replace or clean the lens or to determine the urgency of the cleaning according to the contamination state of the camera lens.

또한, 본 발명은 공간 도메인 및 주파수 도메인의 융합을 통한 멀티 도메인 심층 신경망을 이용하여 오염물의 한가지 특성을 사용하던 기존 방법들과 달리 주파수 성질과 공간적 성질을 모두 사용함으로써, 오염물의 분류를 가능하게 한다.In addition, the present invention makes it possible to classify contaminants by using both the frequency property and the spatial property, unlike the existing methods using one characteristic of the contaminant using the multinomial domain neural network through fusion of the spatial domain and the frequency domain .

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 영상 획득기
200: 처리기
210: 오염 상태 분류부
211: 전처리부
2111: 영상 크기 조절부
2112: 영상 정규화부
212: 멀티 도메인 심층 신경망 처리부
2121: 공간 도메인 특징 추출부
2122: 주파수 도메인 특징 추출부
2123: 융합부
2124: 추정부
213: 오염 상태 결정부
220: 오염 상태 경고부
221: 오염 경고 결정부
222: 경고 출력 제어부
300: 출력기
100: image acquiring machine
200: processor
210: pollution state classification section
211:
2111:
2112: image normalization unit
212: Multi-domain deep-layer neural network processor
2121: Spatial domain feature extraction unit
2122: Frequency domain feature extraction unit
2123:
2124:
213: contamination state determination unit
220: Pollution status warning section
221: Pollution warning decision unit
222: a warning output control section
300:

Claims (13)

차량에 장착된 적어도 하나 이상의 카메라를 통해 차량 주변의 영상을 획득하는 영상 획득기,
상기 영상 획득기를 통해 획득한 영상에 대해 멀티 도메인 심층 신경망 연산을 수행하여 카메라 렌즈의 오염 상태를 분류하는 처리기, 및
상기 처리기의 제어에 따라 오염 상태에 따른 경고를 출력하는 출력기를 포함하는 것을 특징으로 하는 카메라 렌즈 오염 경고 장치.
An image acquiring device for acquiring images of the surroundings of the vehicle through at least one camera mounted on the vehicle,
A processor for performing a multinomial domain neural network operation on the image acquired through the image acquirer to classify the contamination state of the camera lens, and
And an output unit for outputting a warning based on the contamination state under the control of the processor.
제1항에 있어서,
상기 처리기는,
상기 획득한 영상을 전처리하는 전처리부,
상기 전처리부에서 전처리된 영상에 대해 상기 멀티 도메인 심층 신경망 연산을 수행하여 오염 상태별 확률값을 연산하는 멀티 도메인 심층 신경망 처리부, 및
상기 오염 상태별 확률값에 근거하여 상기 카메라 렌즈의 오염 상태를 결정하는 오염 상태 결정부를 포함하는 것을 특징으로 하는 카메라 렌즈 오염 경고 장치.
The method according to claim 1,
The processor includes:
A preprocessor for preprocessing the acquired image,
A multi-domain neural network processor for performing the multi-domain neural network computation on the preprocessed image in the preprocessing unit to calculate a probability value for each pollution state;
And a pollution state determiner for determining a pollution state of the camera lens based on the probability value for each pollution state.
제2항에 있어서,
상기 멀티 도메인 심층 신경망 처리부는,
콘볼루션 연산과 통합 연산을 수행하여 상기 전처리된 영상으로부터 공간 도메인 특징값을 추출하는 공간 도메인 특징 추출부,
DCT(Discrete Cosine Transform) 콘볼루션 연산, 콘볼루션 연산 및 통합 연산을 수행하여 상기 전처리된 영상으로부터 주파수 도메인 특징값을 추출하는 주파수 도메인 특징 추출부,
연결 연산을 수행하여 상기 공간 도메인 특징값과 상기 주파수 도메인 특징값을 융합하는 융합부, 및
완전 연결 연산 및 소프트맥스 연산을 수행하여 상기 융합부에 의해 융합된 특징값에 근거하여 상기 오염 상태별 확률값을 추정하는 추정부를 포함하는 것을 특징으로 하는 카메라 렌즈 오염 경고 장치.
3. The method of claim 2,
Wherein the multi-domain deep-
A spatial domain feature extraction unit for extracting spatial domain feature values from the preprocessed image by performing a convolution operation and an integration operation,
A frequency domain feature extraction unit for extracting a frequency domain feature value from the preprocessed image by performing a discrete cosine transform (DCT) convolution operation, a convolution operation,
A fusion unit for performing a connection operation to fuse the spatial domain feature value and the frequency domain feature value, and
And an estimator for performing a full connection operation and a soft max operation to estimate a probability value for each of the contamination states based on the feature values fused by the fusion unit.
제3항에 있어서,
상기 주파수 도메인 특징 추출부는,
적어도 하나 이상의 콘볼루션 계층의 가중치의 초기값을 DCT 행렬로 설정하는 것을 특징으로 하는 카메라 렌즈 오염 경고 장치.
The method of claim 3,
Wherein the frequency domain feature extraction unit comprises:
And sets an initial value of a weight of at least one convolution layer as a DCT matrix.
제2항에 있어서,
상기 오염 상태 결정부는,
상기 오염 상태별 확률값 중 가장 큰 확률값을 가지는 오염 상태를 상기 카메라 렌즈의 오염 상태로 결정하는 것을 특징으로 하는 카메라 렌즈 오염 경고 장치.
3. The method of claim 2,
The contamination state determination unit determines,
Wherein the pollution state of the camera lens is determined as a pollution state having a largest probability value among the probability values of the pollution states.
제1항에 있어서,
상기 처리기는,
분류된 오염 상태가 미리 설정된 경고 필요 오염 상태 목록에 존재하는지를 확인하여 경고 필요여부를 판단하여 경고 출력을 제어하는 오염 상태 경고부를 포함하는 것을 특징으로 하는 카메라 렌즈 오염 경고 장치.
The method according to claim 1,
The processor includes:
And a pollution state warning unit for determining whether the classified pollution state is present in the pre-set alarm-required pollution state list and determining whether or not a warning is required and controlling the warning output.
제6항에 있어서,
상기 오염 상태 경고부는,
상기 분류된 오염 상태가 상기 미리 설정된 경고 필요 오염 상태 목록에 존재하면 오염 상태를 알리는 경고를 출력하는 것을 특징으로 하는 카메라 렌즈 오염 경고 장치.
The method according to claim 6,
The contamination state warning unit,
And if the classified pollution state exists in the pre-set alarm-required pollution state list, outputs a warning indicating the pollution state.
차량에 장착된 적어도 하나 이상의 카메라를 통해 영상을 획득하는 단계,
상기 적어도 하나 이상의 카메라를 통해 획득한 영상을 전처리하는 단계,
상기 전처리된 영상에 대해 멀티 도메인 심층 신경망 연산을 수행하여 카메라 렌즈의 오염 상태를 분류하는 단계, 및
상기 분류된 오염 상태에 따라 경고를 출력하는 단계를 포함하는 것을 특징으로 하는 카메라 렌즈 오염 경고 방법.
Acquiring an image through at least one camera mounted on a vehicle,
Pre-processing an image acquired through the at least one camera,
Classifying the contaminated state of the camera lens by performing multi-domain deep-neural network computation on the preprocessed image, and
And outputting a warning in accordance with the classified pollution state.
제8항에 있어서,
상기 획득한 영상을 전처리하는 단계는,
상기 획득한 영상의 크기를 조정하고, 상기 획득한 영상의 픽셀 값을 정규화하는 것을 특징으로 하는 카메라 렌즈 오염 경고 방법.
9. The method of claim 8,
Wherein the pre-processing of the acquired image comprises:
Adjusting the size of the acquired image, and normalizing the pixel value of the acquired image.
제8항에 있어서,
상기 카메라 렌즈의 오염 상태를 분류하는 단계는,
상기 전처리된 영상으로부터 공간 도메인 특징 및 주파수 도메인 특징을 추출하여 융합하고 융합된 특징에 근거하여 오염 상태별 확률값을 연산하는 것을 특징으로 하는 카메라 렌즈 오염 경고 방법.
9. The method of claim 8,
The step of classifying the contamination state of the camera lens comprises:
Extracting a spatial domain characteristic and a frequency domain characteristic from the preprocessed image, and calculating a probability value for each of the pollution states based on fused and fused characteristics.
제10항에 있어서,
상기 카메라 렌즈의 오염 상태를 분류하는 단계는,
DCT 콘볼루션 연산을 통해 상기 주파수 도메인 특징을 추출하는 것을 특징으로 하는 카메라 렌즈 오염 경고 방법.
11. The method of claim 10,
The step of classifying the contamination state of the camera lens comprises:
DCT convolution operation to extract the frequency domain characteristic.
제10항에 있어서,
상기 카메라 렌즈의 오염 상태를 분류하는 단계는,
상기 오염 상태별 확률값 중 가장 큰 확률값을 가지는 오염 상태를 상기 카메라 렌즈의 오염 상태로 분류하는 것을 특징으로 하는 카메라 렌즈 오염 경고 방법.
11. The method of claim 10,
The step of classifying the contamination state of the camera lens comprises:
And the pollution state having the largest probability value among the probability values by the pollution state is classified into the pollution state of the camera lens.
제8항에 있어서,
상기 경고를 출력하는 단계는,
상기 분류된 오염 상태가 미리 설정된 경고 필요 오염 상태 목록에 포함되는 경우 상기 카메라 렌즈의 오염 상태를 알리는 경고를 출력하는 것을 특징으로 하는 카메라 렌즈 오염 경고 방법.
9. The method of claim 8,
The step of outputting the warning may include:
And outputting a warning indicating the contamination state of the camera lens when the classified pollution state is included in the preset alarm required pollution state list.
KR1020170140890A 2017-10-27 2017-10-27 Apparatus and method for warning contamination of camera lens KR20190047243A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170140890A KR20190047243A (en) 2017-10-27 2017-10-27 Apparatus and method for warning contamination of camera lens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170140890A KR20190047243A (en) 2017-10-27 2017-10-27 Apparatus and method for warning contamination of camera lens

Publications (1)

Publication Number Publication Date
KR20190047243A true KR20190047243A (en) 2019-05-08

Family

ID=66580119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170140890A KR20190047243A (en) 2017-10-27 2017-10-27 Apparatus and method for warning contamination of camera lens

Country Status (1)

Country Link
KR (1) KR20190047243A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232107A (en) * 2020-08-18 2021-01-15 中国商用飞机有限责任公司 Image type smoke detection system and method
CN114240935A (en) * 2022-02-24 2022-03-25 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) Space-frequency domain feature fusion medical image feature identification method and device
WO2022104080A1 (en) * 2020-11-12 2022-05-19 Argo AI, LLC Optical device validation
WO2023120988A1 (en) * 2021-12-22 2023-06-29 경북대학교 산학협력단 Vehicle camera occlusion classification device using deep learning-based object detector and method thereof
WO2023249911A1 (en) * 2022-06-21 2023-12-28 Apple Inc. Occlusion classification and feedback
US12006612B2 (en) 2021-05-26 2024-06-11 Haier Us Appliance Solutions, Inc. Automated lens cleaning for a camera assembly based on image recognition in a washing machine appliance

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8208043B2 (en) 2008-05-09 2012-06-26 Aptina Imaging Corporation Lens cleaning warning system and method
US20150009296A1 (en) 2013-07-03 2015-01-08 Kapsch Trafficcom Ab Method for identification of contamination upon a lens of a stereoscopic camera
KR101525516B1 (en) 2014-03-20 2015-06-03 주식회사 이미지넥스트 Camera Image Processing System and Method for Processing Pollution of Camera Lens
US20150177512A1 (en) 2012-07-27 2015-06-25 Nissan Motor Co., Ltd. Camera device, three-dimensional object detection device, and lens cleaning method
KR20150076371A (en) 2013-12-26 2015-07-07 재단법인 포항산업과학연구원 Apparatus for measuring contamination on lens
US9319637B2 (en) 2012-03-27 2016-04-19 Magna Electronics Inc. Vehicle vision system with lens pollution detection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8208043B2 (en) 2008-05-09 2012-06-26 Aptina Imaging Corporation Lens cleaning warning system and method
US9319637B2 (en) 2012-03-27 2016-04-19 Magna Electronics Inc. Vehicle vision system with lens pollution detection
US20150177512A1 (en) 2012-07-27 2015-06-25 Nissan Motor Co., Ltd. Camera device, three-dimensional object detection device, and lens cleaning method
US20150009296A1 (en) 2013-07-03 2015-01-08 Kapsch Trafficcom Ab Method for identification of contamination upon a lens of a stereoscopic camera
KR20150076371A (en) 2013-12-26 2015-07-07 재단법인 포항산업과학연구원 Apparatus for measuring contamination on lens
KR101525516B1 (en) 2014-03-20 2015-06-03 주식회사 이미지넥스트 Camera Image Processing System and Method for Processing Pollution of Camera Lens

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232107A (en) * 2020-08-18 2021-01-15 中国商用飞机有限责任公司 Image type smoke detection system and method
WO2022104080A1 (en) * 2020-11-12 2022-05-19 Argo AI, LLC Optical device validation
US12006612B2 (en) 2021-05-26 2024-06-11 Haier Us Appliance Solutions, Inc. Automated lens cleaning for a camera assembly based on image recognition in a washing machine appliance
WO2023120988A1 (en) * 2021-12-22 2023-06-29 경북대학교 산학협력단 Vehicle camera occlusion classification device using deep learning-based object detector and method thereof
CN114240935A (en) * 2022-02-24 2022-03-25 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) Space-frequency domain feature fusion medical image feature identification method and device
WO2023249911A1 (en) * 2022-06-21 2023-12-28 Apple Inc. Occlusion classification and feedback

Similar Documents

Publication Publication Date Title
KR20190047243A (en) Apparatus and method for warning contamination of camera lens
EP3149656B1 (en) Detection, identification, and mitigation of lens contamination for vehicle mounted camera systems
JP6266238B2 (en) Approaching object detection system and vehicle
KR101163446B1 (en) A lane departure warning system using a virtual lane and a system according to the same
CN109409186B (en) Driver assistance system and method for object detection and notification
US20190019042A1 (en) Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium
CN105769120A (en) Fatigue driving detection method and device
US9286512B2 (en) Method for detecting pedestrians based on far infrared ray camera at night
EP3069317A1 (en) Method for recognizing a covered state of a camera, camera system and motor vehicle
EP2573708A2 (en) Method and System for Detecting Vehicle Position by Employing Polarization Image
JP2009048629A (en) Detecting method
CN110135235B (en) Glare processing method and device and vehicle
EP3199914A1 (en) Imaging device
KR101236223B1 (en) Method for detecting traffic lane
CN111339808B (en) Vehicle collision probability prediction method, device, electronic equipment and storage medium
KR101522757B1 (en) Method for removing noise of image
CN116310598B (en) Obstacle detection method and device for severe weather
KR101823655B1 (en) System and method for detecting vehicle invasion using image
Lakmal et al. Pothole detection with image segmentation for advanced driver assisted systems
KR102348123B1 (en) Apparatus and method for warning contamination of camera lens
CN112417952A (en) Environment video information availability evaluation method of vehicle collision prevention and control system
CN108259819B (en) Dynamic image feature enhancement method and system
EP2579229B1 (en) Apparatus and method for monitoring surroundings of a vehicle
TWI630818B (en) Dynamic image feature enhancement method and system
CN115703471A (en) Driver attention and hand placement system and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application