KR20220162548A - Artificial intelligence learning method and apparatus for noise removal of image - Google Patents

Artificial intelligence learning method and apparatus for noise removal of image Download PDF

Info

Publication number
KR20220162548A
KR20220162548A KR1020210071119A KR20210071119A KR20220162548A KR 20220162548 A KR20220162548 A KR 20220162548A KR 1020210071119 A KR1020210071119 A KR 1020210071119A KR 20210071119 A KR20210071119 A KR 20210071119A KR 20220162548 A KR20220162548 A KR 20220162548A
Authority
KR
South Korea
Prior art keywords
feature map
feature
deep
image
extracting
Prior art date
Application number
KR1020210071119A
Other languages
Korean (ko)
Other versions
KR102670737B1 (en
Inventor
추현승
장윤선
손창환
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020210071119A priority Critical patent/KR102670737B1/en
Publication of KR20220162548A publication Critical patent/KR20220162548A/en
Application granted granted Critical
Publication of KR102670737B1 publication Critical patent/KR102670737B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to an image learning apparatus for noise removal which can increase image recognition performance. The image learning apparatus for noise removal comprises: a first continuous feature value extraction module (CFE1) performing continuous convolution operations twice on an input image to continuously extract a first feature map and a second feature map; a deep feature map extraction module (DFE) extracting deep feature maps based on the second feature map, and concatenating the deep feature maps to extract a third feature map; a global shortcut concatenation module (GSC) adding the first feature map and the third feature map to extract a fourth feature map; a second continuous feature value extraction module (CFE2) performing continuous convolution operations on the fourth feature map to extract a fifth feature map and a sixth feature map; and a global residual mapping (GRM) subtracting an output value of the second continuous feature value extraction module from the input image to generate a correction image.

Description

이미지의 노이즈 제거를 위한 인공지능 학습 방법 및 장치{Artificial intelligence learning method and apparatus for noise removal of image}Artificial intelligence learning method and apparatus for noise removal of image {Artificial intelligence learning method and apparatus for noise removal of image}

본 발명은 이미지의 노이즈 제거를 위한 인공지능 학습 방법 및 장치에 관한 것으로, 이미지를 인식하는 속도 및 이미지를 인식하는 성능을 향상시키기 위한 것이다. The present invention relates to an artificial intelligence learning method and apparatus for denoising images, and to improve image recognition speed and image recognition performance.

CCTV는 물리적 보안, 안전 그리고 범죄 예방에 많은 도움을 준다. 또한Dash Cam는 차량의 필수적인 부품이다. 게다가, 자율 주행 차량에서는 카메라 센서가 주변 도로와 물체 등 환경을 감지하는 운전자의 눈 역할을 하기 때문에 중요하다. 디지털 영상기기들은 일상생활에서 흔하기 때문에 영상 품질을 향상시키는 것에 대해 관심이 집중되고 있다. 하지만 영상 내에서 artifact의 존재는 이미지 손상으로 이어지며 image quality는 저하된다. 특히, 빗줄기와 같은 예측할 수 없는 artifacts는 object detection과 face detection과 같은 컴퓨터 비전의 성능을 떨어뜨린다. 이러한 이유로, 불필요한 artifacts를 제거하는 알고리즘을 개발할 필요가 있다. 본 논문에서 악천후에서 가시성을 확보하기 위해 우리는 single image rain removal problem를 다룬다.CCTV helps a lot in physical security, safety and crime prevention. Also, the dash cam is an essential part of the vehicle. Moreover, in autonomous vehicles, camera sensors are important because they act as the driver's eyes, sensing the environment, including the road and objects around them. Since digital imaging devices are common in everyday life, interest has been focused on improving image quality. However, the presence of artifacts in the image leads to image damage and degrades image quality. In particular, unpredictable artifacts such as raindrops degrade the performance of computer vision such as object detection and face detection. For this reason, it is necessary to develop an algorithm that removes unnecessary artifacts. In this paper, to secure visibility in bad weather, we deal with a single image rain removal problem.

본 발명은 이미지 인식 성능을 높일 수 있는 노이즈 제거를 위한 이미지 학습 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide an image learning method and apparatus for removing noise capable of improving image recognition performance.

본 발명은 이미지 인식 속도를 높일 수 있는 노이즈 제거를 위한 이미지 학습 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide an image learning method and apparatus for removing noise capable of increasing image recognition speed.

본 발명에 의한 노이즈 제거를 위한 이미지 학습 장치에 관한 것으로, 입력 이미지에 대해서 2회의 연속적인 컨볼루션 연산을 수행하여, 제1 특징맵 및 제2 특징맵을 연속적으로 추출하는 제1 연속 특징값 추출 모듈(CFE1); 제2 특징맵에 기초하여 심층 특징맵들을 추출하고, 심층 특징맵들을 연결(concatenation)하여 제3 특징맵을 추출하는 심층 특징맵 추출 모듈(DFE); 제1 특징맵과 제3 특징맵을 가산하여 제4 특징맵을 출력하는 광역 숏컷 연결 모듈(GSC); 제4 특징맵에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵을 추출하는 제2 연속 특징값 추출 모듈(CFE2); 및 입력 이미지에서 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성하는 광역 잔상 맵핑 모듈(GRM);을 포함한다.It relates to an image learning apparatus for denoising according to the present invention, and extracts a first continuous feature value by performing two consecutive convolution operations on an input image to continuously extract a first feature map and a second feature map. module (CFE1); a deep feature map extraction module (DFE) extracting deep feature maps based on the second feature map and extracting a third feature map by concatenating the deep feature maps; a wide area shortcut connection module (GSC) for outputting a fourth feature map by adding the first feature map and the third feature map; a second continuous feature value extraction module (CFE2) extracting fifth and sixth feature maps by performing continuous convolution operations on the fourth feature map; and a wide area afterimage mapping module (GRM) generating a corrected image by subtracting an output value of the second continuous feature value extraction module from the input image.

본 발명은 훈련 시간을 줄이면서 이미지 인식 처리 속도를 향상시킬 수 있다.The present invention can improve image recognition processing speed while reducing training time.

본 발명은 계층적으로 특징값을 추출함에 따라 이미지 인식 품질을 향상시킬 수 있다.According to the present invention, the image recognition quality can be improved by hierarchically extracting feature values.

도 1은 본 발명의 실시 예에 의한 이미지의 노이즈 제거를 위한 인공지능 학습 시스템을 나타내는 도면이다.
도 2는 본 발명의 실시 예에 의한 이미지의 노이즈 제거를 위한 인공지능 학습 방법을 나타내는 순서도이다.
도 3은 본 발명의 실시 예에 의한 심층 특징맵 추출 모듈을 나타내는 도면이다.
도 4 및 도 5는 실험 결과에 활용된 이미지를 나타내는 도면이다.
1 is a diagram illustrating an artificial intelligence learning system for removing noise from an image according to an embodiment of the present invention.
2 is a flowchart illustrating an artificial intelligence learning method for denoising an image according to an embodiment of the present invention.
3 is a diagram showing a deep feature map extraction module according to an embodiment of the present invention.
4 and 5 are diagrams showing images used for experimental results.

본 명세서의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 명세서는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 명세서의 개시가 완전하도록 하며, 본 명세서가 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 명세서는 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of this specification, and methods of achieving them, will become clear with reference to embodiments described below in detail in conjunction with the accompanying drawings. However, this specification is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and only these embodiments make the disclosure of this specification complete, and the common knowledge in the technical field to which this specification belongs. It is provided to fully inform the owner of the scope of the invention, and this specification is only defined by the scope of the claims.

본 명세서의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하고, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시할 수도 있다.Each feature of the various embodiments of the present specification can be partially or entirely combined or combined with each other, technically various interlocking and driving are possible, and each embodiment can be implemented independently of each other or can be implemented together in an association relationship. may be

도 1은 본 발명의 실시 예에 따른 이미지의 노이즈 제거를 위한 인공지능 학습 시스템을 나타내는 도면이다.1 is a diagram illustrating an artificial intelligence learning system for removing noise from an image according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 이미지의 노이즈 제거를 위한 인공지능 학습 시스템은 제1 연속 특징값 추출 모듈(100), 심층 특징맵 추출 모듈(200), 광역 숏컷 연결 모듈(300), 제2 연속 특징값 추출 모듈(400), 및 광역 잔상 맵핑 모듈(500)을 포함한다. Referring to FIG. 1, the artificial intelligence learning system for denoising an image according to an embodiment of the present invention includes a first continuous feature value extraction module 100, a deep feature map extraction module 200, and a wide area shortcut connection module 300. ), a second continuous feature value extraction module 400, and a wide area afterimage mapping module 500.

제1 연속 특징값 추출 모듈(Consecutive Feature Extraction; 이하, CFE)(100)은 입력 이미지에 대해서 2회의 연속적인 컨볼루션 연산을 수행하여, 제1 특징맵 및 제2 특징맵을 연속적으로 추출한다. The first continuous feature extraction module (hereinafter referred to as CFE) 100 continuously extracts a first feature map and a second feature map by performing two consecutive convolution operations on the input image.

심층 특징맵 추출 모듈(Dep Feature Extraction; 이하, DFE)(200)은 제2 특징맵에 기초하여 심층 특징맵들을 추출하고, 심층 특징맵들을 연결(concatenation)하여 제3 특징맵을 추출한다. 이를 통해서, DFE(200)는 입력 이미지(IMG)에서 빗줄기 등의 노이즈를 제거할 수 있다.A deep feature extraction module (hereinafter, DFE) 200 extracts deep feature maps based on the second feature map and extracts a third feature map by concatenating the deep feature maps. Through this, the DFE 200 may remove noise such as rain streaks from the input image IMG.

광역 숏컷 연결 모듈(Global Shortcut Connection; 이하, GSC)(300)은 제1 특징맵과 제3 특징맵을 가산하여 제4 특징맵을 출력한다. The Global Shortcut Connection (GSC) 300 adds the first feature map and the third feature map and outputs a fourth feature map.

제2 CFE(400)는 제4 특징맵에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵을 추출한다.The second CFE 400 extracts fifth and sixth feature maps by performing continuous convolution operations on the fourth feature map.

광역 잔상 맵핑 모듈(Global Residual Maping; 이하, GRM)(500)은 입력 이미지에서 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성한다. The Global Residual Mapping (GRM) 500 generates a corrected image by subtracting the output value of the second continuous feature value extraction module from the input image.

도 2는 본 발명의 실시 예에 의한 이미지의 노이즈 제거를 위한 인공지능 학습 방법을 나타내는 순서도이다. 2 is a flowchart illustrating an artificial intelligence learning method for denoising an image according to an embodiment of the present invention.

도 2를 참조하면, 이미지의 노이즈 제거를 위한 인공지능 학습 방법은 제1 단계(S210)에서, 제1 CFE(100)는 입력 이미지에 대해서 2회의 연속적인 컨볼루션 연산을 수행하여, 제1 특징맵 및 제2 특징맵을 연속적으로 추출한다. 이를 위해서, 제1 CFE(100)는 제1 및 제2 컨볼루션 레이어들(110,120)을 포함한다. Referring to FIG. 2, in the first step (S210) of the artificial intelligence learning method for denoising an image, the first CFE 100 performs two consecutive convolution operations on the input image to obtain a first characteristic The map and the second feature map are continuously extracted. To this end, the first CFE 100 includes first and second convolutional layers 110 and 120 .

제1 컨볼루션 레이어(110)는 입력 이미지(IMG)에 대한 컨볼루션 연산을 수행하여, 제1 특징맵(F1)을 추출한다. 본 명세서에서, 제1 컨볼루셔 레이어(110)가 제1 특징맵(F1)을 추출하는 연산은 다음의 [수학식 1]과 같이 정의하기로 한다.The first convolution layer 110 extracts a first feature map F1 by performing a convolution operation on the input image IMG. In this specification, an operation for extracting the first feature map F1 by the first convolutional layer 110 is defined as in [Equation 1] below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

제2 컨볼루션 레이어(120)는 제1 특징맵(F1)에 대한 컨볼루션 연산을 수행하여, 제2 특징맵(F2)을 추출한다. 본 명세서에서, 제2 컨볼루셔 레이어(120)가 제2 특징맵(F2)을 추출하는 연산은 다음의 [수학식 2]와 같이 정의하기로 한다.The second convolution layer 120 extracts a second feature map F2 by performing a convolution operation on the first feature map F1. In this specification, an operation for extracting the second feature map F2 by the second convolutional layer 120 is defined as in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

제1 특징맵(F1)의 개수 및 제2 특징맵(F2)의 개수는 서로 다를 수 있다.The number of first feature maps F1 and the number of second feature maps F2 may be different from each other.

제2 단계(S220)에서, DFE(200)들은 제2 특징맵(F2)에 기초하여 심층 특징맵들(DF1~DF5)을 추출하고, 심층 특징맵들(DF1~DF5)을 연결(concatenation)하여 제3 특징맵(F3)을 추출한다. In a second step S220, the DFEs 200 extract the deep feature maps DF1 to DF5 based on the second feature map F2, and concatenate the deep feature maps DF1 to DF5. to extract the third feature map F3.

이를 위해서, DFE(200)는 복수의 경량 잔상 블록(Light Residual Block; 이하, LRB)들(LRB1~ LRBn)(n은 자연수) 및 1×1 컨볼루션 레이어(230)를 포함한다. To this end, the DFE 200 includes a plurality of light residual blocks (hereinafter referred to as LRBs) LRB1 to LRBn (n is a natural number) and a 1×1 convolution layer 230 .

LRB들(LRB1~ LRBn)은 제2 특징맵(F2)을 입력받아서 심층적인 특징을 추출한다. 제1 LRB(LRB1)는 제2 특징맵(F2)을 입력받아서 제1 심층 특징맵(DF1)을 추출한다. 제i (i는 2 이상 n이하의 자연수)LRB는 제(i-1) LRB가 출력하는 제(i-1) 심층 특징맵(DF[i-1])을 입력받아서 제i 심층 특징맵(DFi)을 출력한다. The LRBs LRB1 to LRBn receive the second feature map F2 and extract in-depth features. The first LRB (LRB1) receives the second feature map (F2) and extracts the first deep feature map (DF1). The i-th (i is a natural number greater than or equal to 2 and less than or equal to n) LRB receives the (i-1)th deep feature map (DF[i-1]) output by the (i-1)th LRB, and receives the ith deep feature map ( DFi) output.

이를 위해서, LRB들 각각은 도 3에 도시된 바와 같이, 정류화 선형 유닛(Rectified Linear Unit; 이하, ReLU) 및 3×3 컨볼루션 레이어를 포함하는 컨벌루션 모듈이 복수 개로 구성된다. To this end, each of the LRBs is composed of a plurality of convolution modules including a rectified linear unit (hereinafter, ReLU) and a 3×3 convolution layer, as shown in FIG. 3 .

또한 컨켓테네이션(concatenation) 레이어는 LRB들 각각이 출력하는 심층 특징맵들을 컨켓테네이션(concatenation) 방식으로 결합하고, 결합된 결과를 1×1 컨볼루션 레이어로 제공한다.In addition, the concatenation layer combines the deep feature maps output from each of the LRBs in a concatenation method, and provides the combined result as a 1×1 convolution layer.

1×1 컨볼루션 레이어는 DFE(200)가 최종적으로 출력하는 제3 특징맵(F3)의 개수를 조절한다. The 1×1 convolution layer adjusts the number of third feature maps F3 finally output by the DFE 200 .

본 명세서에서, 제3 특징맵(F3)을 산출하는 과정은 다음의 [수학식 3]과 같이 정의하기로 한다.In this specification, the process of calculating the third feature map (F3) is defined as the following [Equation 3].

[수학식 3][Equation 3]

Figure pat00003
Figure pat00003

이때,

Figure pat00004
은 제3 특징맵(F3)의 개수를 조절하기 위해서 사용되는 1×1 컨볼루션 레이어를 지칭한다. At this time,
Figure pat00004
denotes a 1×1 convolution layer used to adjust the number of third feature maps F3.

DFE는 계층적으로 특징을 추출할 뿐만 아니라 DFE에서 사용되는 심도 연결(dense connection)에 의해서 모든 계층에서 생성된 심층 특징맵들을 연결한다. DFE not only extracts features hierarchically, but also connects the deep feature maps generated in all layers by the depth connection used in DFE.

모든 층의 output이 연결되기 때문에 L-layer 네트워크에서는 "{L(L+1)}/2" 개의 연결을 갖게 되어 학습 파라미터가 증가한다. 학습 파라미터가 증가하는 것을 보완하기 위해, 제i LRB는 초기 정보(

Figure pat00005
)를 각 계층의 출력에 연결하여 필요한 최소 계층을 제(i+1) LRB의 입력으로 연결한다. 본 명세서에서 LRB들 간의 연결은 [수학식 4]로 정의하기로 한다.Since the outputs of all layers are connected, the L-layer network has "{L(L+1)}/2" connections, increasing the learning parameter. To compensate for the increase in the learning parameter, the i th LRB provides initial information (
Figure pat00005
) to the output of each layer to connect the minimum required layer to the input of the (i+1)th LRB. In this specification, the connection between LRBs is defined by [Equation 4].

[수학식 4][Equation 4]

Figure pat00006
Figure pat00006

이때,

Figure pat00007
는 LRB의 3×3 컨볼루션 레이어와 ReLU를 결합한 복합 함수(composite function)이다.
Figure pat00008
Figure pat00009
과 초기 정보(
Figure pat00010
) 간의 연결(concatenation)을 의미한다. LRB는 연산의 효율성을 위해서 심층 특징맵의 개수를 줄이는 것이 중요하고, 따라서 LRB들의 출력에 해당하는 "
Figure pat00011
"는 1×1 컨볼루션 레이어의 입력에 해당한다. At this time,
Figure pat00007
is a composite function that combines the 3×3 convolutional layer of LRB and ReLU.
Figure pat00008
Is
Figure pat00009
and initial information (
Figure pat00010
) means the concatenation between them. For LRB, it is important to reduce the number of deep feature maps for operational efficiency, and therefore, the output of LRBs
Figure pat00011
" corresponds to the input of the 1×1 convolutional layer.

또한, 기울기 소멸(gradient vanishing) 현상을 방지하기 위해서, 최단 연결(shortcut connection)을 이용한다. 최단 연결은 다음의 [수학식 5]로 정의될 수 있다.In addition, in order to prevent gradient vanishing, a shortcut connection is used. The shortest connection may be defined by the following [Equation 5].

[수학식 5][Equation 5]

Figure pat00012
Figure pat00012

기울기 소멸 현상은 네트워크의 깊이가 깊어질수록 미분 연산이 증가하고, 이에 따라 미분값이 작아지면서 출력에 영향을 주는 가중치(weight)의 크기가 작아지는 현상을 지칭한다. 본 명세서에서는 최단 연결 방식을 이용함으로써 기울기 소멸 현상을 개선할 수 있다. Gradient vanishing refers to a phenomenon in which the differential operation increases as the depth of the network increases, and as a result, the differential value decreases and the size of the weight that affects the output decreases. In the present specification, the gradient vanishing phenomenon can be improved by using the shortest connection method.

LRB의 손실함수(Loss function)는 다음의 [수학식 6]과 같이 정의될 수 있다.The loss function of LRB may be defined as in [Equation 6] below.

[수학식 6][Equation 6]

Figure pat00013
Figure pat00013

이때,

Figure pat00014
는 유클리드 거리 손실(Euclidean distance loss)을 지칭하며, 두 픽셀 간의 거리를 측정하기 위해서 다음과 같은 [수학식 7]을 바탕으로 산출될 수 있다.At this time,
Figure pat00014
Refers to Euclidean distance loss, and can be calculated based on the following [Equation 7] to measure the distance between two pixels.

[수학식 7][Equation 7]

Figure pat00015
Figure pat00015

이때, R은 잔차 함수(residual function)이고, n은 패치 이미지(patch image)의 개수를 지칭한다. I는 입력,

Figure pat00016
는 훈련을 위한 지상 실측(ground truth) 내의 패치 이미지을 지칭하며,
Figure pat00017
는 LRB로부터의 평가 패치 이미지를 지칭한다. 또한, SSIM은 최대값이 1이며 크기가 클 수록 두 이미지 간의 유사도가 높은 것을 나타낸다. 따라서,
Figure pat00018
은 1-SSIM으로 정의될 수 있다.In this case, R is a residual function, and n refers to the number of patch images. I input,
Figure pat00016
denotes a patch image in the ground truth for training,
Figure pat00017
denotes the evaluation patch image from the LRB. In addition, SSIM has a maximum value of 1, and the larger the size, the higher the similarity between the two images. therefore,
Figure pat00018
may be defined as 1-SSIM.

제3 단계(S230)에서, GSC(300)는 제1 특징맵(F1)과 제3 특징맵(F3)을 가산하여 제4 특징맵을 출력한다. In a third step S230, the GSC 300 adds the first feature map F1 and the third feature map F3 to output a fourth feature map.

제4 단계(S240)에서, 제2 CFE(400)는 제4 특징맵(F4)에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵들(F5,Ic)을 추출한다. 제2 CFE(400)는 제1 CFE(100동일한 구조로 이루어질 수 있다.In a fourth step (S240), the second CFE 400 extracts fifth and sixth feature maps F5 and Ic by performing continuous convolution operations on the fourth feature map F4. The second CFE 400 may have the same structure as the first CFE 100.

제5 단계(S250)에서, GRM(500)입력 이미지에서 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성한다. 이를 통해서, GRM(500)은 입력 이미지에서 빗줄기 등의 노이즈가 제거된 보정 이미지를 생성할 수 있다.In a fifth step (S250), the GRM 500 generates a corrected image by subtracting the output value of the second continuous feature value extraction module from the input image. Through this, the GRM 500 may generate a corrected image from which noise such as rain streaks are removed from the input image.

본 발명에 의한 인공지능 학습 장치를 이용한 실험 결과를 살펴보면 다음과 같다. 도 4는 실험 결과에 활용된 이미지를 나타내는 도면이다. 도 4의 (a)는 가상의 빗줄기를 포함하는 이미지를 나타내는 도면이고, 도 4의 (b)는 빗줄기가 제거된 이미지를 나타내는 도면이다. 도 4의 (c)는 원본 이미지를 나타내는 도면이다.Examination results using the artificial intelligence learning device according to the present invention are as follows. 4 is a diagram showing images used for experimental results. FIG. 4(a) is a diagram showing an image including a virtual rain streak, and FIG. 4(b) is a diagram showing an image from which the rain streak is removed. Figure 4 (c) is a diagram showing the original image.

도 4에 도시된 각각의 이미지들은 16x16 크기의 패치 유닛(patch unit)으로 선택하고, 패치 유닛 내에서 128개의 패치를 랜덤하게 채택하여 본 발명에 의한 인공지능 학습 장치를 이용하여 훈련되었다. 실험 환경은 tensorflow 2 framework를 사용하여 Intel® Core™ i7-1070K and 2080 Super GPU를 사용한 PC에서 실험을 시행되었다.Each of the images shown in FIG. 4 was selected as a 16×16 patch unit, and 128 patches were randomly selected within the patch unit and trained using the artificial intelligence learning apparatus according to the present invention. The experiment environment was conducted on a PC using Intel® Core™ i7-1070K and 2080 Super GPU using tensorflow 2 framework.

이미지 품질을 정량적으로 평가하기 위하여 Peak Signal to Noise Ratio (PSNR)과 SSIM의 지표가 사용되었다.Peak Signal to Noise Ratio (PSNR) and SSIM indicators were used to quantitatively evaluate image quality.

아래의 [표 1]에서와 같이, 빗줄기 이미지와 빗줄기가 없는 원본 이미지 간의 PSNR이 18.722, SSIM이 0.7140이다. 그리고 빗줄기가 제거된 이미지와 빗줄기가 없는 원본 이미지 간의 PSNR이 31.158이 SSIM이 0.9363이다. As shown in [Table 1] below, PSNR between the rain streak image and the original image without rain streak is 18.722 and SSIM is 0.7140. And the PSNR between the image with rain streaks removed and the original image without rain streaks is 31.158, and the SSIM is 0.9363.

[표 1][Table 1]

Figure pat00019
Figure pat00019

[표 1]과 같은 실험결과에서 알 수 있듯이, 빗줄기 등의 노이즈는 도 4의 (a)이미지로부터 잘 제거되었으며, 본 발명에 의한 인공지능 학습 장치로부터 도출된 도 4의(b)에 도시된 빗줄기가 제거된 이미지는 도 4의 (c)에 도시된 원본 이미지와 유사함을 알 수 있다. 즉, 본 발명의 실시 예에 의하면 빗줄기가 포함된 이미지에서 빗줄기를 효과적으로 제거할 수 있다.As can be seen from the experimental results shown in [Table 1], noise such as rain streaks was well removed from the image (a) of FIG. 4, and the results shown in (b) of FIG. It can be seen that the image from which the rain streaks are removed is similar to the original image shown in FIG. 4(c). That is, according to an embodiment of the present invention, rain streaks can be effectively removed from an image including rain streaks.

도 5는 본 발명의 실시 예에 의한 노이즈 제거 시뮬레이션 결과를 나타내는 도면이다. 5 is a diagram showing noise removal simulation results according to an embodiment of the present invention.

도 5의 (a)는 가상의 눈(snow)을 포함하는 이미지이다. 도 5의 (b)는 본 발명의 실시 예를 바탕으로, 도 5의 (a)에서 눈을 제거한 이미지이다. 도 5의 (c)는 가상의 눈이 추가되지 않은 상태의 원본 이미지이다. 5(a) is an image including virtual snow. Figure 5 (b) is an image in which eyes are removed from Figure 5 (a) based on an embodiment of the present invention. 5(c) is an original image without adding a virtual eye.

도 5를 참조하면, 본 발명의 실시 예에 의하면, 눈과 같은 노이즈 또한 효율적으로 제거됨을 알 수 있다. 즉, 본 발명의 실시 예에 의하면, 빗줄기, 눈 등의 노이즈나 아티팩트들도 효율적으로 제거할 수 있다.Referring to FIG. 5 , according to an embodiment of the present invention, it can be seen that noise such as snow is also efficiently removed. That is, according to an embodiment of the present invention, noise or artifacts such as rain and snow can also be efficiently removed.

이상 설명한 내용을 통해 당업자라면 본 명세서의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 명세서의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.Through the above description, those skilled in the art will know that various changes and modifications are possible without departing from the technical spirit of the present specification. Therefore, the technical scope of the present specification is not limited to the contents described in the detailed description of the specification, but should be determined by the claims.

Claims (11)

입력 이미지에 대해서 2회의 연속적인 컨볼루션 연산을 수행하여, 제1 특징맵 및 제2 특징맵을 연속적으로 추출하는 제1 연속 특징값 추출 모듈(CFE1);
상기 제2 특징맵에 기초하여 심층 특징맵들을 추출하고, 상기 심층 특징맵들을 연결(concatenation)하여 제3 특징맵을 추출하는 심층 특징맵 추출 모듈(DFE);
상기 제1 특징맵과 상기 제3 특징맵을 가산하여 제4 특징맵을 출력하는 광역 숏컷 연결 모듈(GSC);
상기 제4 특징맵에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵을 추출하는 제2 연속 특징값 추출 모듈(CFE2); 및
상기 입력 이미지에서 상기 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성하는 광역 잔상 맵핑 모듈(GRM);을 포함하는 노이즈 제거를 위한 이미지 학습 장치.
a first continuous feature value extraction module (CFE1) for continuously extracting a first feature map and a second feature map by performing two consecutive convolution operations on the input image;
a deep feature map extraction module (DFE) extracting deep feature maps based on the second feature map and extracting a third feature map by concatenating the deep feature maps;
a wide area shortcut connection module (GSC) outputting a fourth feature map by adding the first feature map and the third feature map;
a second continuous feature value extraction module (CFE2) extracting fifth and sixth feature maps by performing continuous convolution operations on the fourth feature map; and
and a global afterimage mapping module (GRM) generating a corrected image by subtracting the output value of the second continuous feature extracting module from the input image.
제 1 항에 있어서,
상기 제1 연속 특징값 추출 모듈은
상기 입력 이미지에 대한 컨볼루션 연산을 수행하여, 상기 제1 특징맵을 추출하는 제1 컨볼루션 레이어; 및
상기 제1 특징맵에 대한 컨벌루션 연산을 수행하여, 상기 제2 특징맵을 추출하는 제2 컨볼루션 레이어;를 포함하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 1,
The first continuous feature value extraction module
a first convolution layer extracting the first feature map by performing a convolution operation on the input image; and
and a second convolution layer for extracting the second feature map by performing a convolution operation on the first feature map.
제 1 항에 있어서,
심층 특징맵 추출 모듈은
심층 신경망 기반으로 이미지에서 노이즈를 검출하며, 각각이 상기 심층 특징맵을 출력하는 경량 잔상 블록(LRB)들; 및
상기 경량 잔상 블록들이 출력하는 상기 심층 특징맵들의 개수를 조절하는 1×1 컨볼루션 레이어;를 포함하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 1,
The deep feature map extraction module
lightweight afterimage blocks (LRBs) that detect noise in an image based on a deep neural network and output the deep feature map; and
and a 1×1 convolution layer for adjusting the number of the deep feature maps output by the lightweight afterimage blocks.
제 3 항에 있어서,
상기 경량 잔상 블록들 중에서 제i(i는 자연수) 경량 잔상 블록은,
제(i-1) 경량 잔상 블록이 출력하는 제(i-1) 상기 심층 특징맵을 입력받아서, 제(i+1) 경량 잔상 블록으로 상기 심층 특징맵을 출력하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 3,
Among the lightweight afterimage blocks, the ith (i is a natural number) lightweight afterimage block,
Denoising, characterized in that by receiving the (i-1)th deep feature map output by the (i-1)th lightweight afterimage block, and outputting the deep feature map to the (i+1)th lightweight afterimage block. image learning device for
제 4 항에 있어서,
상기 제i 경량 잔상 블록은 정류화 선형 유닛 및 3×3 컨볼루션 레이어를 포함하는 컨벌루션 모듈이 복수 개로 구성되고,
각각의 상기 정류화 선형 유닛 및 3×3 컨볼루션 레이어는,
상기 각각의 컨벌루션 모듈은 제(i-1) 경량 잔상 블록이 출력한 심층 특징맵 및 이전 상기 컨벌루션 모듈이 출력한 특징을 결합하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 4,
The i-th lightweight afterimage block is composed of a plurality of convolution modules including a rectification linear unit and a 3×3 convolution layer,
Each of the rectified linear units and 3 × 3 convolutional layers,
Each of the convolution modules combines a deep feature map output by the (i-1)th lightweight afterimage block and a feature output by the previous convolution module.
제 5 항에 있어서,
상기 심층 특징맵 추출 모듈은
복수의 상기 경량 잔상 블록들이 출력하는 각각의 상기 심층 특징맵을 컨켓테네이션(concatenation) 방식으로 결합하여 상기 1×1 컨볼루션 레이어로 제공하는 컨켓테네이션 레이어를 더 포함하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 5,
The deep feature map extraction module
and a concatenation layer combining each of the deep feature maps output by the plurality of lightweight afterimage blocks by a concatenation method and providing them as the 1×1 convolution layer. image learning device for
제 1 항에 있어서,
상기 심층 특징맵 추출 모듈은
유클리드 거리 손실함수 및 SSIM 손실함수의 합으로 정의되는 손실함수에 기초하여 상기 심층 특징맵을 출력하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 1,
The deep feature map extraction module
An image learning device for denoising, characterized in that for outputting the deep feature map based on a loss function defined as the sum of a Euclidean distance loss function and an SSIM loss function.
입력 이미지에 대해서 2회의 연속적인 컨볼루션 연산을 수행하여, 제1 특징맵 및 제2 특징맵을 연속적으로 추출하는 단계;
상기 제2 특징맵에 기초하여 심층 특징맵들을 추출하고, 상기 심층 특징맵들을 연결(concatenation)하여 제3 특징맵을 추출하는 단계;
상기 제1 특징맵과 상기 제3 특징맵을 가산하여 제4 특징맵을 출력하는 단계;
상기 제4 특징맵에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵을 추출하는 단계; 및
상기 입력 이미지에서 상기 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성하는 단계를 포함하는 노이즈 제거를 위한 이미지 학습 방법.
sequentially extracting a first feature map and a second feature map by performing two consecutive convolution operations on the input image;
extracting deep feature maps based on the second feature map and extracting a third feature map by concatenating the deep feature maps;
outputting a fourth feature map by adding the first feature map and the third feature map;
extracting fifth and sixth feature maps by performing continuous convolution operations on the fourth feature map; and
and generating a correction image by subtracting an output value of the second continuous feature value extraction module from the input image.
제 8 항에 있어서,
상기 제2 특징맵을 연속적으로 추출하는 단계는
상기 입력 이미지에 대한 컨볼루션 연산을 수행하여, 상기 제1 특징맵을 추출하는 단계; 및
상기 제1 특징맵에 대한 컨벌루션 연산을 수행하여, 상기 제2 특징맵을 추출하는 단계를 포함하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 방법.
According to claim 8,
The step of continuously extracting the second feature map
extracting the first feature map by performing a convolution operation on the input image; and
An image learning method for denoising, comprising the step of extracting the second feature map by performing a convolution operation on the first feature map.
제 8 항에 있어서,
상기 제3 특징맵을 추출하는 단계는
심층 신경망 기반으로 상기 입력 이미지에서 노이즈를 검출하여 복수의 심층 특징맵들을 순차적으로 출력하며, 1×1 컨볼루션 레이어에 기초하여 상기 심층 특징맵들의 개수를 조절하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 방법.
According to claim 8,
Extracting the third feature map
Detecting noise in the input image based on a deep neural network, sequentially outputting a plurality of deep feature maps, and adjusting the number of the deep feature maps based on a 1×1 convolution layer. learning method.
제 10 항에 있어서,
각각의 제i 심층 특징맵은 정류화 선형 유닛 및 3×3 컨볼루션 레이어에 기반하여 단계별로 추출되되, j 번째 상기 심층 특징맵은 초기 심층 특징맵 및 j-1 번째 심층 특징맵이 결합되어 생성되는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 방법.
According to claim 10,
Each i-th deep feature map is extracted step by step based on a rectified linear unit and a 3×3 convolution layer, and the j-th deep feature map is generated by combining the initial deep feature map and the j-1-th deep feature map. Image learning method for noise removal, characterized in that.
KR1020210071119A 2021-06-01 2021-06-01 Artificial intelligence learning method and apparatus for noise removal of image KR102670737B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210071119A KR102670737B1 (en) 2021-06-01 2021-06-01 Artificial intelligence learning method and apparatus for noise removal of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210071119A KR102670737B1 (en) 2021-06-01 2021-06-01 Artificial intelligence learning method and apparatus for noise removal of image

Publications (2)

Publication Number Publication Date
KR20220162548A true KR20220162548A (en) 2022-12-08
KR102670737B1 KR102670737B1 (en) 2024-06-03

Family

ID=84436838

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210071119A KR102670737B1 (en) 2021-06-01 2021-06-01 Artificial intelligence learning method and apparatus for noise removal of image

Country Status (1)

Country Link
KR (1) KR102670737B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200025889A (en) * 2018-08-31 2020-03-10 서울대학교산학협력단 Apparatus and method for restoring image
KR20210038027A (en) * 2019-09-30 2021-04-07 영남대학교 산학협력단 Method for Training to Compress Neural Network and Method for Using Compressed Neural Network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200025889A (en) * 2018-08-31 2020-03-10 서울대학교산학협력단 Apparatus and method for restoring image
KR20210038027A (en) * 2019-09-30 2021-04-07 영남대학교 산학협력단 Method for Training to Compress Neural Network and Method for Using Compressed Neural Network

Also Published As

Publication number Publication date
KR102670737B1 (en) 2024-06-03

Similar Documents

Publication Publication Date Title
Li et al. Single image dehazing via conditional generative adversarial network
CN107274445B (en) Image depth estimation method and system
CN102768760B (en) Quick image dehazing method on basis of image textures
CN112150379A (en) Image defogging method and device for enhancing generation of countermeasure network based on perception discrimination
CN103049888A (en) Image/video demisting method based on combination of dark primary color of atmospheric scattered light
CN107808161A (en) A kind of Underwater targets recognition based on light vision
CN112836573A (en) Lane line image enhancement and completion method based on confrontation generation network
CN103778605A (en) Greasy weather image enhancement method
CN116152778A (en) Vehicle detection method and system with enhanced fusion of infrared and visible light images
CN112950521B (en) Image defogging method and generator network
CN112102214B (en) Image defogging method based on histogram and neural network
CN116757949A (en) Atmosphere-ocean scattering environment degradation image restoration method and system
CN110738624B (en) Area-adaptive image defogging system and method
KR102670737B1 (en) Artificial intelligence learning method and apparatus for noise removal of image
CN116977917A (en) Infrared image pedestrian detection method
CN116310598A (en) Obstacle detection method and device for severe weather
Abbasi et al. Fog-aware adaptive yolo for object detection in adverse weather
CN113191971A (en) Unmanned aerial vehicle image defogging method based on YUV color space
Wang et al. An Architecture for the detection of GAN-generated Flood Images with Localization Capabilities
CN113239865A (en) Deep learning-based lane line detection method
Jang et al. Lightweight deep extraction networks for single image de-raining
de Blois et al. Learning of image dehazing models for segmentation tasks
CN115272140B (en) Infrared image quantization and enhancement method, system and storage medium
CN116052135B (en) Foggy day traffic sign recognition method based on texture features
CN117671472B (en) Underwater multi-target group identification method based on dynamic visual sensor

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant