KR20220162548A - Artificial intelligence learning method and apparatus for noise removal of image - Google Patents
Artificial intelligence learning method and apparatus for noise removal of image Download PDFInfo
- Publication number
- KR20220162548A KR20220162548A KR1020210071119A KR20210071119A KR20220162548A KR 20220162548 A KR20220162548 A KR 20220162548A KR 1020210071119 A KR1020210071119 A KR 1020210071119A KR 20210071119 A KR20210071119 A KR 20210071119A KR 20220162548 A KR20220162548 A KR 20220162548A
- Authority
- KR
- South Korea
- Prior art keywords
- feature map
- feature
- deep
- image
- extracting
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 15
- 238000013473 artificial intelligence Methods 0.000 title description 10
- 238000000605 extraction Methods 0.000 claims abstract description 23
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 206010047571 Visual impairment Diseases 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims 2
- 239000000284 extract Substances 0.000 abstract description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G06T5/002—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 이미지의 노이즈 제거를 위한 인공지능 학습 방법 및 장치에 관한 것으로, 이미지를 인식하는 속도 및 이미지를 인식하는 성능을 향상시키기 위한 것이다. The present invention relates to an artificial intelligence learning method and apparatus for denoising images, and to improve image recognition speed and image recognition performance.
CCTV는 물리적 보안, 안전 그리고 범죄 예방에 많은 도움을 준다. 또한Dash Cam는 차량의 필수적인 부품이다. 게다가, 자율 주행 차량에서는 카메라 센서가 주변 도로와 물체 등 환경을 감지하는 운전자의 눈 역할을 하기 때문에 중요하다. 디지털 영상기기들은 일상생활에서 흔하기 때문에 영상 품질을 향상시키는 것에 대해 관심이 집중되고 있다. 하지만 영상 내에서 artifact의 존재는 이미지 손상으로 이어지며 image quality는 저하된다. 특히, 빗줄기와 같은 예측할 수 없는 artifacts는 object detection과 face detection과 같은 컴퓨터 비전의 성능을 떨어뜨린다. 이러한 이유로, 불필요한 artifacts를 제거하는 알고리즘을 개발할 필요가 있다. 본 논문에서 악천후에서 가시성을 확보하기 위해 우리는 single image rain removal problem를 다룬다.CCTV helps a lot in physical security, safety and crime prevention. Also, the dash cam is an essential part of the vehicle. Moreover, in autonomous vehicles, camera sensors are important because they act as the driver's eyes, sensing the environment, including the road and objects around them. Since digital imaging devices are common in everyday life, interest has been focused on improving image quality. However, the presence of artifacts in the image leads to image damage and degrades image quality. In particular, unpredictable artifacts such as raindrops degrade the performance of computer vision such as object detection and face detection. For this reason, it is necessary to develop an algorithm that removes unnecessary artifacts. In this paper, to secure visibility in bad weather, we deal with a single image rain removal problem.
본 발명은 이미지 인식 성능을 높일 수 있는 노이즈 제거를 위한 이미지 학습 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide an image learning method and apparatus for removing noise capable of improving image recognition performance.
본 발명은 이미지 인식 속도를 높일 수 있는 노이즈 제거를 위한 이미지 학습 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide an image learning method and apparatus for removing noise capable of increasing image recognition speed.
본 발명에 의한 노이즈 제거를 위한 이미지 학습 장치에 관한 것으로, 입력 이미지에 대해서 2회의 연속적인 컨볼루션 연산을 수행하여, 제1 특징맵 및 제2 특징맵을 연속적으로 추출하는 제1 연속 특징값 추출 모듈(CFE1); 제2 특징맵에 기초하여 심층 특징맵들을 추출하고, 심층 특징맵들을 연결(concatenation)하여 제3 특징맵을 추출하는 심층 특징맵 추출 모듈(DFE); 제1 특징맵과 제3 특징맵을 가산하여 제4 특징맵을 출력하는 광역 숏컷 연결 모듈(GSC); 제4 특징맵에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵을 추출하는 제2 연속 특징값 추출 모듈(CFE2); 및 입력 이미지에서 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성하는 광역 잔상 맵핑 모듈(GRM);을 포함한다.It relates to an image learning apparatus for denoising according to the present invention, and extracts a first continuous feature value by performing two consecutive convolution operations on an input image to continuously extract a first feature map and a second feature map. module (CFE1); a deep feature map extraction module (DFE) extracting deep feature maps based on the second feature map and extracting a third feature map by concatenating the deep feature maps; a wide area shortcut connection module (GSC) for outputting a fourth feature map by adding the first feature map and the third feature map; a second continuous feature value extraction module (CFE2) extracting fifth and sixth feature maps by performing continuous convolution operations on the fourth feature map; and a wide area afterimage mapping module (GRM) generating a corrected image by subtracting an output value of the second continuous feature value extraction module from the input image.
본 발명은 훈련 시간을 줄이면서 이미지 인식 처리 속도를 향상시킬 수 있다.The present invention can improve image recognition processing speed while reducing training time.
본 발명은 계층적으로 특징값을 추출함에 따라 이미지 인식 품질을 향상시킬 수 있다.According to the present invention, the image recognition quality can be improved by hierarchically extracting feature values.
도 1은 본 발명의 실시 예에 의한 이미지의 노이즈 제거를 위한 인공지능 학습 시스템을 나타내는 도면이다.
도 2는 본 발명의 실시 예에 의한 이미지의 노이즈 제거를 위한 인공지능 학습 방법을 나타내는 순서도이다.
도 3은 본 발명의 실시 예에 의한 심층 특징맵 추출 모듈을 나타내는 도면이다.
도 4 및 도 5는 실험 결과에 활용된 이미지를 나타내는 도면이다.1 is a diagram illustrating an artificial intelligence learning system for removing noise from an image according to an embodiment of the present invention.
2 is a flowchart illustrating an artificial intelligence learning method for denoising an image according to an embodiment of the present invention.
3 is a diagram showing a deep feature map extraction module according to an embodiment of the present invention.
4 and 5 are diagrams showing images used for experimental results.
본 명세서의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 명세서는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 명세서의 개시가 완전하도록 하며, 본 명세서가 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 명세서는 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of this specification, and methods of achieving them, will become clear with reference to embodiments described below in detail in conjunction with the accompanying drawings. However, this specification is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and only these embodiments make the disclosure of this specification complete, and the common knowledge in the technical field to which this specification belongs. It is provided to fully inform the owner of the scope of the invention, and this specification is only defined by the scope of the claims.
본 명세서의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하고, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시할 수도 있다.Each feature of the various embodiments of the present specification can be partially or entirely combined or combined with each other, technically various interlocking and driving are possible, and each embodiment can be implemented independently of each other or can be implemented together in an association relationship. may be
도 1은 본 발명의 실시 예에 따른 이미지의 노이즈 제거를 위한 인공지능 학습 시스템을 나타내는 도면이다.1 is a diagram illustrating an artificial intelligence learning system for removing noise from an image according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 이미지의 노이즈 제거를 위한 인공지능 학습 시스템은 제1 연속 특징값 추출 모듈(100), 심층 특징맵 추출 모듈(200), 광역 숏컷 연결 모듈(300), 제2 연속 특징값 추출 모듈(400), 및 광역 잔상 맵핑 모듈(500)을 포함한다. Referring to FIG. 1, the artificial intelligence learning system for denoising an image according to an embodiment of the present invention includes a first continuous feature
제1 연속 특징값 추출 모듈(Consecutive Feature Extraction; 이하, CFE)(100)은 입력 이미지에 대해서 2회의 연속적인 컨볼루션 연산을 수행하여, 제1 특징맵 및 제2 특징맵을 연속적으로 추출한다. The first continuous feature extraction module (hereinafter referred to as CFE) 100 continuously extracts a first feature map and a second feature map by performing two consecutive convolution operations on the input image.
심층 특징맵 추출 모듈(Dep Feature Extraction; 이하, DFE)(200)은 제2 특징맵에 기초하여 심층 특징맵들을 추출하고, 심층 특징맵들을 연결(concatenation)하여 제3 특징맵을 추출한다. 이를 통해서, DFE(200)는 입력 이미지(IMG)에서 빗줄기 등의 노이즈를 제거할 수 있다.A deep feature extraction module (hereinafter, DFE) 200 extracts deep feature maps based on the second feature map and extracts a third feature map by concatenating the deep feature maps. Through this, the DFE 200 may remove noise such as rain streaks from the input image IMG.
광역 숏컷 연결 모듈(Global Shortcut Connection; 이하, GSC)(300)은 제1 특징맵과 제3 특징맵을 가산하여 제4 특징맵을 출력한다. The Global Shortcut Connection (GSC) 300 adds the first feature map and the third feature map and outputs a fourth feature map.
제2 CFE(400)는 제4 특징맵에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵을 추출한다.The
광역 잔상 맵핑 모듈(Global Residual Maping; 이하, GRM)(500)은 입력 이미지에서 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성한다. The Global Residual Mapping (GRM) 500 generates a corrected image by subtracting the output value of the second continuous feature value extraction module from the input image.
도 2는 본 발명의 실시 예에 의한 이미지의 노이즈 제거를 위한 인공지능 학습 방법을 나타내는 순서도이다. 2 is a flowchart illustrating an artificial intelligence learning method for denoising an image according to an embodiment of the present invention.
도 2를 참조하면, 이미지의 노이즈 제거를 위한 인공지능 학습 방법은 제1 단계(S210)에서, 제1 CFE(100)는 입력 이미지에 대해서 2회의 연속적인 컨볼루션 연산을 수행하여, 제1 특징맵 및 제2 특징맵을 연속적으로 추출한다. 이를 위해서, 제1 CFE(100)는 제1 및 제2 컨볼루션 레이어들(110,120)을 포함한다. Referring to FIG. 2, in the first step (S210) of the artificial intelligence learning method for denoising an image, the
제1 컨볼루션 레이어(110)는 입력 이미지(IMG)에 대한 컨볼루션 연산을 수행하여, 제1 특징맵(F1)을 추출한다. 본 명세서에서, 제1 컨볼루셔 레이어(110)가 제1 특징맵(F1)을 추출하는 연산은 다음의 [수학식 1]과 같이 정의하기로 한다.The first convolution layer 110 extracts a first feature map F1 by performing a convolution operation on the input image IMG. In this specification, an operation for extracting the first feature map F1 by the first convolutional layer 110 is defined as in [Equation 1] below.
[수학식 1][Equation 1]
제2 컨볼루션 레이어(120)는 제1 특징맵(F1)에 대한 컨볼루션 연산을 수행하여, 제2 특징맵(F2)을 추출한다. 본 명세서에서, 제2 컨볼루셔 레이어(120)가 제2 특징맵(F2)을 추출하는 연산은 다음의 [수학식 2]와 같이 정의하기로 한다.The second convolution layer 120 extracts a second feature map F2 by performing a convolution operation on the first feature map F1. In this specification, an operation for extracting the second feature map F2 by the second convolutional layer 120 is defined as in
[수학식 2][Equation 2]
제1 특징맵(F1)의 개수 및 제2 특징맵(F2)의 개수는 서로 다를 수 있다.The number of first feature maps F1 and the number of second feature maps F2 may be different from each other.
제2 단계(S220)에서, DFE(200)들은 제2 특징맵(F2)에 기초하여 심층 특징맵들(DF1~DF5)을 추출하고, 심층 특징맵들(DF1~DF5)을 연결(concatenation)하여 제3 특징맵(F3)을 추출한다. In a second step S220, the DFEs 200 extract the deep feature maps DF1 to DF5 based on the second feature map F2, and concatenate the deep feature maps DF1 to DF5. to extract the third feature map F3.
이를 위해서, DFE(200)는 복수의 경량 잔상 블록(Light Residual Block; 이하, LRB)들(LRB1~ LRBn)(n은 자연수) 및 1×1 컨볼루션 레이어(230)를 포함한다. To this end, the DFE 200 includes a plurality of light residual blocks (hereinafter referred to as LRBs) LRB1 to LRBn (n is a natural number) and a 1×1 convolution layer 230 .
LRB들(LRB1~ LRBn)은 제2 특징맵(F2)을 입력받아서 심층적인 특징을 추출한다. 제1 LRB(LRB1)는 제2 특징맵(F2)을 입력받아서 제1 심층 특징맵(DF1)을 추출한다. 제i (i는 2 이상 n이하의 자연수)LRB는 제(i-1) LRB가 출력하는 제(i-1) 심층 특징맵(DF[i-1])을 입력받아서 제i 심층 특징맵(DFi)을 출력한다. The LRBs LRB1 to LRBn receive the second feature map F2 and extract in-depth features. The first LRB (LRB1) receives the second feature map (F2) and extracts the first deep feature map (DF1). The i-th (i is a natural number greater than or equal to 2 and less than or equal to n) LRB receives the (i-1)th deep feature map (DF[i-1]) output by the (i-1)th LRB, and receives the ith deep feature map ( DFi) output.
이를 위해서, LRB들 각각은 도 3에 도시된 바와 같이, 정류화 선형 유닛(Rectified Linear Unit; 이하, ReLU) 및 3×3 컨볼루션 레이어를 포함하는 컨벌루션 모듈이 복수 개로 구성된다. To this end, each of the LRBs is composed of a plurality of convolution modules including a rectified linear unit (hereinafter, ReLU) and a 3×3 convolution layer, as shown in FIG. 3 .
또한 컨켓테네이션(concatenation) 레이어는 LRB들 각각이 출력하는 심층 특징맵들을 컨켓테네이션(concatenation) 방식으로 결합하고, 결합된 결과를 1×1 컨볼루션 레이어로 제공한다.In addition, the concatenation layer combines the deep feature maps output from each of the LRBs in a concatenation method, and provides the combined result as a 1×1 convolution layer.
1×1 컨볼루션 레이어는 DFE(200)가 최종적으로 출력하는 제3 특징맵(F3)의 개수를 조절한다. The 1×1 convolution layer adjusts the number of third feature maps F3 finally output by the DFE 200 .
본 명세서에서, 제3 특징맵(F3)을 산출하는 과정은 다음의 [수학식 3]과 같이 정의하기로 한다.In this specification, the process of calculating the third feature map (F3) is defined as the following [Equation 3].
[수학식 3][Equation 3]
이때, 은 제3 특징맵(F3)의 개수를 조절하기 위해서 사용되는 1×1 컨볼루션 레이어를 지칭한다. At this time, denotes a 1×1 convolution layer used to adjust the number of third feature maps F3.
DFE는 계층적으로 특징을 추출할 뿐만 아니라 DFE에서 사용되는 심도 연결(dense connection)에 의해서 모든 계층에서 생성된 심층 특징맵들을 연결한다. DFE not only extracts features hierarchically, but also connects the deep feature maps generated in all layers by the depth connection used in DFE.
모든 층의 output이 연결되기 때문에 L-layer 네트워크에서는 "{L(L+1)}/2" 개의 연결을 갖게 되어 학습 파라미터가 증가한다. 학습 파라미터가 증가하는 것을 보완하기 위해, 제i LRB는 초기 정보()를 각 계층의 출력에 연결하여 필요한 최소 계층을 제(i+1) LRB의 입력으로 연결한다. 본 명세서에서 LRB들 간의 연결은 [수학식 4]로 정의하기로 한다.Since the outputs of all layers are connected, the L-layer network has "{L(L+1)}/2" connections, increasing the learning parameter. To compensate for the increase in the learning parameter, the i th LRB provides initial information ( ) to the output of each layer to connect the minimum required layer to the input of the (i+1)th LRB. In this specification, the connection between LRBs is defined by [Equation 4].
[수학식 4][Equation 4]
이때, 는 LRB의 3×3 컨볼루션 레이어와 ReLU를 결합한 복합 함수(composite function)이다. 는 과 초기 정보() 간의 연결(concatenation)을 의미한다. LRB는 연산의 효율성을 위해서 심층 특징맵의 개수를 줄이는 것이 중요하고, 따라서 LRB들의 출력에 해당하는 ""는 1×1 컨볼루션 레이어의 입력에 해당한다. At this time, is a composite function that combines the 3×3 convolutional layer of LRB and ReLU. Is and initial information ( ) means the concatenation between them. For LRB, it is important to reduce the number of deep feature maps for operational efficiency, and therefore, the output of LRBs " corresponds to the input of the 1×1 convolutional layer.
또한, 기울기 소멸(gradient vanishing) 현상을 방지하기 위해서, 최단 연결(shortcut connection)을 이용한다. 최단 연결은 다음의 [수학식 5]로 정의될 수 있다.In addition, in order to prevent gradient vanishing, a shortcut connection is used. The shortest connection may be defined by the following [Equation 5].
[수학식 5][Equation 5]
기울기 소멸 현상은 네트워크의 깊이가 깊어질수록 미분 연산이 증가하고, 이에 따라 미분값이 작아지면서 출력에 영향을 주는 가중치(weight)의 크기가 작아지는 현상을 지칭한다. 본 명세서에서는 최단 연결 방식을 이용함으로써 기울기 소멸 현상을 개선할 수 있다. Gradient vanishing refers to a phenomenon in which the differential operation increases as the depth of the network increases, and as a result, the differential value decreases and the size of the weight that affects the output decreases. In the present specification, the gradient vanishing phenomenon can be improved by using the shortest connection method.
LRB의 손실함수(Loss function)는 다음의 [수학식 6]과 같이 정의될 수 있다.The loss function of LRB may be defined as in [Equation 6] below.
[수학식 6][Equation 6]
이때, 는 유클리드 거리 손실(Euclidean distance loss)을 지칭하며, 두 픽셀 간의 거리를 측정하기 위해서 다음과 같은 [수학식 7]을 바탕으로 산출될 수 있다.At this time, Refers to Euclidean distance loss, and can be calculated based on the following [Equation 7] to measure the distance between two pixels.
[수학식 7][Equation 7]
이때, R은 잔차 함수(residual function)이고, n은 패치 이미지(patch image)의 개수를 지칭한다. I는 입력, 는 훈련을 위한 지상 실측(ground truth) 내의 패치 이미지을 지칭하며, 는 LRB로부터의 평가 패치 이미지를 지칭한다. 또한, SSIM은 최대값이 1이며 크기가 클 수록 두 이미지 간의 유사도가 높은 것을 나타낸다. 따라서, 은 1-SSIM으로 정의될 수 있다.In this case, R is a residual function, and n refers to the number of patch images. I input, denotes a patch image in the ground truth for training, denotes the evaluation patch image from the LRB. In addition, SSIM has a maximum value of 1, and the larger the size, the higher the similarity between the two images. therefore, may be defined as 1-SSIM.
제3 단계(S230)에서, GSC(300)는 제1 특징맵(F1)과 제3 특징맵(F3)을 가산하여 제4 특징맵을 출력한다. In a third step S230, the
제4 단계(S240)에서, 제2 CFE(400)는 제4 특징맵(F4)에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵들(F5,Ic)을 추출한다. 제2 CFE(400)는 제1 CFE(100동일한 구조로 이루어질 수 있다.In a fourth step (S240), the
제5 단계(S250)에서, GRM(500)입력 이미지에서 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성한다. 이를 통해서, GRM(500)은 입력 이미지에서 빗줄기 등의 노이즈가 제거된 보정 이미지를 생성할 수 있다.In a fifth step (S250), the
본 발명에 의한 인공지능 학습 장치를 이용한 실험 결과를 살펴보면 다음과 같다. 도 4는 실험 결과에 활용된 이미지를 나타내는 도면이다. 도 4의 (a)는 가상의 빗줄기를 포함하는 이미지를 나타내는 도면이고, 도 4의 (b)는 빗줄기가 제거된 이미지를 나타내는 도면이다. 도 4의 (c)는 원본 이미지를 나타내는 도면이다.Examination results using the artificial intelligence learning device according to the present invention are as follows. 4 is a diagram showing images used for experimental results. FIG. 4(a) is a diagram showing an image including a virtual rain streak, and FIG. 4(b) is a diagram showing an image from which the rain streak is removed. Figure 4 (c) is a diagram showing the original image.
도 4에 도시된 각각의 이미지들은 16x16 크기의 패치 유닛(patch unit)으로 선택하고, 패치 유닛 내에서 128개의 패치를 랜덤하게 채택하여 본 발명에 의한 인공지능 학습 장치를 이용하여 훈련되었다. 실험 환경은 tensorflow 2 framework를 사용하여 Intel® Core™ i7-1070K and 2080 Super GPU를 사용한 PC에서 실험을 시행되었다.Each of the images shown in FIG. 4 was selected as a 16×16 patch unit, and 128 patches were randomly selected within the patch unit and trained using the artificial intelligence learning apparatus according to the present invention. The experiment environment was conducted on a PC using Intel® Core™ i7-1070K and 2080 Super
이미지 품질을 정량적으로 평가하기 위하여 Peak Signal to Noise Ratio (PSNR)과 SSIM의 지표가 사용되었다.Peak Signal to Noise Ratio (PSNR) and SSIM indicators were used to quantitatively evaluate image quality.
아래의 [표 1]에서와 같이, 빗줄기 이미지와 빗줄기가 없는 원본 이미지 간의 PSNR이 18.722, SSIM이 0.7140이다. 그리고 빗줄기가 제거된 이미지와 빗줄기가 없는 원본 이미지 간의 PSNR이 31.158이 SSIM이 0.9363이다. As shown in [Table 1] below, PSNR between the rain streak image and the original image without rain streak is 18.722 and SSIM is 0.7140. And the PSNR between the image with rain streaks removed and the original image without rain streaks is 31.158, and the SSIM is 0.9363.
[표 1][Table 1]
[표 1]과 같은 실험결과에서 알 수 있듯이, 빗줄기 등의 노이즈는 도 4의 (a)이미지로부터 잘 제거되었으며, 본 발명에 의한 인공지능 학습 장치로부터 도출된 도 4의(b)에 도시된 빗줄기가 제거된 이미지는 도 4의 (c)에 도시된 원본 이미지와 유사함을 알 수 있다. 즉, 본 발명의 실시 예에 의하면 빗줄기가 포함된 이미지에서 빗줄기를 효과적으로 제거할 수 있다.As can be seen from the experimental results shown in [Table 1], noise such as rain streaks was well removed from the image (a) of FIG. 4, and the results shown in (b) of FIG. It can be seen that the image from which the rain streaks are removed is similar to the original image shown in FIG. 4(c). That is, according to an embodiment of the present invention, rain streaks can be effectively removed from an image including rain streaks.
도 5는 본 발명의 실시 예에 의한 노이즈 제거 시뮬레이션 결과를 나타내는 도면이다. 5 is a diagram showing noise removal simulation results according to an embodiment of the present invention.
도 5의 (a)는 가상의 눈(snow)을 포함하는 이미지이다. 도 5의 (b)는 본 발명의 실시 예를 바탕으로, 도 5의 (a)에서 눈을 제거한 이미지이다. 도 5의 (c)는 가상의 눈이 추가되지 않은 상태의 원본 이미지이다. 5(a) is an image including virtual snow. Figure 5 (b) is an image in which eyes are removed from Figure 5 (a) based on an embodiment of the present invention. 5(c) is an original image without adding a virtual eye.
도 5를 참조하면, 본 발명의 실시 예에 의하면, 눈과 같은 노이즈 또한 효율적으로 제거됨을 알 수 있다. 즉, 본 발명의 실시 예에 의하면, 빗줄기, 눈 등의 노이즈나 아티팩트들도 효율적으로 제거할 수 있다.Referring to FIG. 5 , according to an embodiment of the present invention, it can be seen that noise such as snow is also efficiently removed. That is, according to an embodiment of the present invention, noise or artifacts such as rain and snow can also be efficiently removed.
이상 설명한 내용을 통해 당업자라면 본 명세서의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 명세서의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.Through the above description, those skilled in the art will know that various changes and modifications are possible without departing from the technical spirit of the present specification. Therefore, the technical scope of the present specification is not limited to the contents described in the detailed description of the specification, but should be determined by the claims.
Claims (11)
상기 제2 특징맵에 기초하여 심층 특징맵들을 추출하고, 상기 심층 특징맵들을 연결(concatenation)하여 제3 특징맵을 추출하는 심층 특징맵 추출 모듈(DFE);
상기 제1 특징맵과 상기 제3 특징맵을 가산하여 제4 특징맵을 출력하는 광역 숏컷 연결 모듈(GSC);
상기 제4 특징맵에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵을 추출하는 제2 연속 특징값 추출 모듈(CFE2); 및
상기 입력 이미지에서 상기 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성하는 광역 잔상 맵핑 모듈(GRM);을 포함하는 노이즈 제거를 위한 이미지 학습 장치.
a first continuous feature value extraction module (CFE1) for continuously extracting a first feature map and a second feature map by performing two consecutive convolution operations on the input image;
a deep feature map extraction module (DFE) extracting deep feature maps based on the second feature map and extracting a third feature map by concatenating the deep feature maps;
a wide area shortcut connection module (GSC) outputting a fourth feature map by adding the first feature map and the third feature map;
a second continuous feature value extraction module (CFE2) extracting fifth and sixth feature maps by performing continuous convolution operations on the fourth feature map; and
and a global afterimage mapping module (GRM) generating a corrected image by subtracting the output value of the second continuous feature extracting module from the input image.
상기 제1 연속 특징값 추출 모듈은
상기 입력 이미지에 대한 컨볼루션 연산을 수행하여, 상기 제1 특징맵을 추출하는 제1 컨볼루션 레이어; 및
상기 제1 특징맵에 대한 컨벌루션 연산을 수행하여, 상기 제2 특징맵을 추출하는 제2 컨볼루션 레이어;를 포함하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 1,
The first continuous feature value extraction module
a first convolution layer extracting the first feature map by performing a convolution operation on the input image; and
and a second convolution layer for extracting the second feature map by performing a convolution operation on the first feature map.
심층 특징맵 추출 모듈은
심층 신경망 기반으로 이미지에서 노이즈를 검출하며, 각각이 상기 심층 특징맵을 출력하는 경량 잔상 블록(LRB)들; 및
상기 경량 잔상 블록들이 출력하는 상기 심층 특징맵들의 개수를 조절하는 1×1 컨볼루션 레이어;를 포함하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 1,
The deep feature map extraction module
lightweight afterimage blocks (LRBs) that detect noise in an image based on a deep neural network and output the deep feature map; and
and a 1×1 convolution layer for adjusting the number of the deep feature maps output by the lightweight afterimage blocks.
상기 경량 잔상 블록들 중에서 제i(i는 자연수) 경량 잔상 블록은,
제(i-1) 경량 잔상 블록이 출력하는 제(i-1) 상기 심층 특징맵을 입력받아서, 제(i+1) 경량 잔상 블록으로 상기 심층 특징맵을 출력하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 3,
Among the lightweight afterimage blocks, the ith (i is a natural number) lightweight afterimage block,
Denoising, characterized in that by receiving the (i-1)th deep feature map output by the (i-1)th lightweight afterimage block, and outputting the deep feature map to the (i+1)th lightweight afterimage block. image learning device for
상기 제i 경량 잔상 블록은 정류화 선형 유닛 및 3×3 컨볼루션 레이어를 포함하는 컨벌루션 모듈이 복수 개로 구성되고,
각각의 상기 정류화 선형 유닛 및 3×3 컨볼루션 레이어는,
상기 각각의 컨벌루션 모듈은 제(i-1) 경량 잔상 블록이 출력한 심층 특징맵 및 이전 상기 컨벌루션 모듈이 출력한 특징을 결합하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 4,
The i-th lightweight afterimage block is composed of a plurality of convolution modules including a rectification linear unit and a 3×3 convolution layer,
Each of the rectified linear units and 3 × 3 convolutional layers,
Each of the convolution modules combines a deep feature map output by the (i-1)th lightweight afterimage block and a feature output by the previous convolution module.
상기 심층 특징맵 추출 모듈은
복수의 상기 경량 잔상 블록들이 출력하는 각각의 상기 심층 특징맵을 컨켓테네이션(concatenation) 방식으로 결합하여 상기 1×1 컨볼루션 레이어로 제공하는 컨켓테네이션 레이어를 더 포함하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 5,
The deep feature map extraction module
and a concatenation layer combining each of the deep feature maps output by the plurality of lightweight afterimage blocks by a concatenation method and providing them as the 1×1 convolution layer. image learning device for
상기 심층 특징맵 추출 모듈은
유클리드 거리 손실함수 및 SSIM 손실함수의 합으로 정의되는 손실함수에 기초하여 상기 심층 특징맵을 출력하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 장치.
According to claim 1,
The deep feature map extraction module
An image learning device for denoising, characterized in that for outputting the deep feature map based on a loss function defined as the sum of a Euclidean distance loss function and an SSIM loss function.
상기 제2 특징맵에 기초하여 심층 특징맵들을 추출하고, 상기 심층 특징맵들을 연결(concatenation)하여 제3 특징맵을 추출하는 단계;
상기 제1 특징맵과 상기 제3 특징맵을 가산하여 제4 특징맵을 출력하는 단계;
상기 제4 특징맵에 대해서 연속적인 컨볼루션 연산을 수행하여, 제5 및 제6 특징맵을 추출하는 단계; 및
상기 입력 이미지에서 상기 제2 연속 특징값 추출 모듈의 출력값을 감산하여 보정 이미지를 생성하는 단계를 포함하는 노이즈 제거를 위한 이미지 학습 방법.
sequentially extracting a first feature map and a second feature map by performing two consecutive convolution operations on the input image;
extracting deep feature maps based on the second feature map and extracting a third feature map by concatenating the deep feature maps;
outputting a fourth feature map by adding the first feature map and the third feature map;
extracting fifth and sixth feature maps by performing continuous convolution operations on the fourth feature map; and
and generating a correction image by subtracting an output value of the second continuous feature value extraction module from the input image.
상기 제2 특징맵을 연속적으로 추출하는 단계는
상기 입력 이미지에 대한 컨볼루션 연산을 수행하여, 상기 제1 특징맵을 추출하는 단계; 및
상기 제1 특징맵에 대한 컨벌루션 연산을 수행하여, 상기 제2 특징맵을 추출하는 단계를 포함하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 방법.
According to claim 8,
The step of continuously extracting the second feature map
extracting the first feature map by performing a convolution operation on the input image; and
An image learning method for denoising, comprising the step of extracting the second feature map by performing a convolution operation on the first feature map.
상기 제3 특징맵을 추출하는 단계는
심층 신경망 기반으로 상기 입력 이미지에서 노이즈를 검출하여 복수의 심층 특징맵들을 순차적으로 출력하며, 1×1 컨볼루션 레이어에 기초하여 상기 심층 특징맵들의 개수를 조절하는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 방법.
According to claim 8,
Extracting the third feature map
Detecting noise in the input image based on a deep neural network, sequentially outputting a plurality of deep feature maps, and adjusting the number of the deep feature maps based on a 1×1 convolution layer. learning method.
각각의 제i 심층 특징맵은 정류화 선형 유닛 및 3×3 컨볼루션 레이어에 기반하여 단계별로 추출되되, j 번째 상기 심층 특징맵은 초기 심층 특징맵 및 j-1 번째 심층 특징맵이 결합되어 생성되는 것을 특징으로 하는 노이즈 제거를 위한 이미지 학습 방법.
According to claim 10,
Each i-th deep feature map is extracted step by step based on a rectified linear unit and a 3×3 convolution layer, and the j-th deep feature map is generated by combining the initial deep feature map and the j-1-th deep feature map. Image learning method for noise removal, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210071119A KR102670737B1 (en) | 2021-06-01 | 2021-06-01 | Artificial intelligence learning method and apparatus for noise removal of image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210071119A KR102670737B1 (en) | 2021-06-01 | 2021-06-01 | Artificial intelligence learning method and apparatus for noise removal of image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220162548A true KR20220162548A (en) | 2022-12-08 |
KR102670737B1 KR102670737B1 (en) | 2024-06-03 |
Family
ID=84436838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210071119A KR102670737B1 (en) | 2021-06-01 | 2021-06-01 | Artificial intelligence learning method and apparatus for noise removal of image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102670737B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200025889A (en) * | 2018-08-31 | 2020-03-10 | 서울대학교산학협력단 | Apparatus and method for restoring image |
KR20210038027A (en) * | 2019-09-30 | 2021-04-07 | 영남대학교 산학협력단 | Method for Training to Compress Neural Network and Method for Using Compressed Neural Network |
-
2021
- 2021-06-01 KR KR1020210071119A patent/KR102670737B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200025889A (en) * | 2018-08-31 | 2020-03-10 | 서울대학교산학협력단 | Apparatus and method for restoring image |
KR20210038027A (en) * | 2019-09-30 | 2021-04-07 | 영남대학교 산학협력단 | Method for Training to Compress Neural Network and Method for Using Compressed Neural Network |
Also Published As
Publication number | Publication date |
---|---|
KR102670737B1 (en) | 2024-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Single image dehazing via conditional generative adversarial network | |
CN107274445B (en) | Image depth estimation method and system | |
CN102768760B (en) | Quick image dehazing method on basis of image textures | |
CN112150379A (en) | Image defogging method and device for enhancing generation of countermeasure network based on perception discrimination | |
CN103049888A (en) | Image/video demisting method based on combination of dark primary color of atmospheric scattered light | |
CN107808161A (en) | A kind of Underwater targets recognition based on light vision | |
CN112836573A (en) | Lane line image enhancement and completion method based on confrontation generation network | |
CN103778605A (en) | Greasy weather image enhancement method | |
CN116152778A (en) | Vehicle detection method and system with enhanced fusion of infrared and visible light images | |
CN112950521B (en) | Image defogging method and generator network | |
CN112102214B (en) | Image defogging method based on histogram and neural network | |
CN116757949A (en) | Atmosphere-ocean scattering environment degradation image restoration method and system | |
CN110738624B (en) | Area-adaptive image defogging system and method | |
KR102670737B1 (en) | Artificial intelligence learning method and apparatus for noise removal of image | |
CN116977917A (en) | Infrared image pedestrian detection method | |
CN116310598A (en) | Obstacle detection method and device for severe weather | |
Abbasi et al. | Fog-aware adaptive yolo for object detection in adverse weather | |
CN113191971A (en) | Unmanned aerial vehicle image defogging method based on YUV color space | |
Wang et al. | An Architecture for the detection of GAN-generated Flood Images with Localization Capabilities | |
CN113239865A (en) | Deep learning-based lane line detection method | |
Jang et al. | Lightweight deep extraction networks for single image de-raining | |
de Blois et al. | Learning of image dehazing models for segmentation tasks | |
CN115272140B (en) | Infrared image quantization and enhancement method, system and storage medium | |
CN116052135B (en) | Foggy day traffic sign recognition method based on texture features | |
CN117671472B (en) | Underwater multi-target group identification method based on dynamic visual sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |