KR20210030573A - Apparatus and method for controlling weather effects in marine video based on neural network - Google Patents

Apparatus and method for controlling weather effects in marine video based on neural network Download PDF

Info

Publication number
KR20210030573A
KR20210030573A KR1020190111835A KR20190111835A KR20210030573A KR 20210030573 A KR20210030573 A KR 20210030573A KR 1020190111835 A KR1020190111835 A KR 1020190111835A KR 20190111835 A KR20190111835 A KR 20190111835A KR 20210030573 A KR20210030573 A KR 20210030573A
Authority
KR
South Korea
Prior art keywords
image
neural network
effect
generative
weather
Prior art date
Application number
KR1020190111835A
Other languages
Korean (ko)
Inventor
문성원
남도원
유원영
윤기송
이정수
이지원
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020190111835A priority Critical patent/KR20210030573A/en
Publication of KR20210030573A publication Critical patent/KR20210030573A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454

Abstract

The present invention provides a method of controlling a weather effect in a marine image by using a generative adversarial network (GAN) including a generator for generating an image and a discriminator for discriminating the generated image from an actual image. The method includes a step of training a first generative adversarial neural network (GAN) by extracting style features and context features of an image including a first weather effect from a generator of the first generative adversarial neural network (GAN); a step of regenerating an image including a second weather effect by inputting the style feature or context feature of the image including the extracted first weather effect into a generator of the second generative adversarial neural network; a step of training the second generative adversarial neural network to allow the discriminator of the second generative adversarial neural network to identify the image including actual second weather effect by comparing the regenerated image including the second weather effect with the image including the actual second weather effect; and a step of controlling a weather effect in the input marine image by using the learned first generative adversarial neural network or second generative adversarial neural network.

Description

신경망 기반 해상 영상 내 기상효과 조절 방법 및 장치 {APPARATUS AND METHOD FOR CONTROLLING WEATHER EFFECTS IN MARINE VIDEO BASED ON NEURAL NETWORK}Method and apparatus for controlling weather effects in maritime images based on neural networks {APPARATUS AND METHOD FOR CONTROLLING WEATHER EFFECTS IN MARINE VIDEO BASED ON NEURAL NETWORK}

본 발명은 해상 영상 내 기상효과를 조절하는 방법 및 장치에 관한 것으로, 더욱 상세하게는 해무, 우적 및 수면 반사광 등 다양한 기상효과가 존재하는 광학 해상 영상으로부터 선박 및 인공 구조물과 같은 해상 객체를 식별하기 해상 영상 내에서 기상효과를 조절하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for controlling meteorological effects in a maritime image, and more particularly, to identify maritime objects such as ships and artificial structures from optical maritime images in which various meteorological effects such as sea clouds, raindrops, and reflections of water exist. It relates to a method and apparatus for controlling a weather effect in a marine image.

운행 중인 선박이나 해안 초소, 관제 센터 등에서는 교통을 통제하거나 해양 사고를 지원하는 등 여러가지 목적을 위해 주변 선박 및 구조물 등을 광학영상으로부터 식별해야 한다. 따라서, 육상 환경과는 상이한 해상 환경 상에서 해상 객체를 식별하기 위해서는 해상 환경에 존재하는 해무, 우적 및 수면 반사광 등과 같은 다양한 기상효과 변화에도 해상 객체를 식별할 수 있는 식별 모델이 있어야 한다.Ships in operation, coastal guard posts, and control centers must identify surrounding ships and structures from optical images for various purposes, such as controlling traffic or supporting maritime accidents. Therefore, in order to identify marine objects in a marine environment different from the land environment, there must be an identification model capable of identifying marine objects even with changes in various weather effects such as sea clouds, raindrops, and reflections on the surface of the marine environment.

선행기술들은 광학 영상의 전처리를 통해 기상효과를 제거하는 기술들이 제안되었으며, 특히 광학 영상 내에 존재하는 안개에 대해서 전처리하는 기술들이 제안된 바 있다. 여기서, 선행기술은 안개가 존재하는 픽셀이 밝은 색임에 착안하여 영상 내의 가장 어두운 색상의 채널 영상을 통해 안개를 제거하는 알고리즘을 제안하였다. 또한, 선행기술은 영상 내의 해상 객체들을 식별하고 그 결과에 기반한 신경망을 통해 안개를 제거하는 기술을 제안하였다.Prior art techniques have been proposed to remove the meteorological effect through pre-processing of an optical image, and in particular, techniques for pre-processing the fog existing in the optical image have been proposed. Here, the prior art proposed an algorithm to remove the fog through the channel image of the darkest color in the image, focusing on the fact that the pixels in which the fog exists is a bright color. In addition, the prior art has proposed a technique for identifying marine objects in an image and removing fog through a neural network based on the result.

한편, 선행기술들은 하늘과 같이 매우 밝은 영역이 지배적인 영상에 대해서 제대로 작동하지 않는 문제가 있어 해상 환경에서 해상 객체를 식별하는데 부적합하다. On the other hand, the prior art has a problem that it does not work properly for the image dominated by a very bright area such as the sky, so it is unsuitable for identifying a marine object in a marine environment.

또한, 영상 내의 해상 객체들을 식별하고 그 결과에 기반한 신경망을 생성하기 위해서는 해상 객체의 식별이 선행되어야 하므로 객체 식별을 목적으로 하는 데 사용하기에는 부적합하다. In addition, in order to identify marine objects in an image and create a neural network based on the result, the identification of marine objects must be preceded, so it is not suitable to be used for object identification purposes.

또한, 선행기술의 대부분은 육상 환경에서 안개를 제거하는 식별 모델을 가정하는 바 대기 중 물 입자가 많고 수면으로 인해 난반사가 일어나는 해상 환경에서 해상 객체를 식별하는 모델로 사용하기에는 부적합한 문제가 있다.In addition, most of the prior art assumes an identification model that removes fog in a terrestrial environment, and thus, there is a problem that it is unsuitable to be used as a model for identifying a marine object in a marine environment in which there are many water particles in the atmosphere and diffuse reflection occurs due to the water surface.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 해상 환경에 적합한 기상 모델을 생성하여 다양한 기상 상황에 따른 해상 데이터를 생성하는 방법을 제공하는 데 있다.An object of the present invention for solving the above problems is to provide a method for generating sea data according to various weather conditions by generating a meteorological model suitable for a marine environment.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 객체 식별을 방해하는 기상효과를 제거하여 해상의 선박 및 다양한 인공 구조물과 같은 해상 객체를 식별하기 적합한 형태로 광학 해상 영상을 전처리하는 방법을 제공하는 데 있다.Another object of the present invention for solving the above problems is to provide a method of preprocessing an optical maritime image in a form suitable for identifying maritime objects such as marine vessels and various artificial structures by removing weather effects that hinder object identification. To provide.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 해상 영상 내 기상효과 조절 방법은, 영상을 생성하는 생성자(Generator) 및 생성된 영상과 실제 영상을 구별하는 식별자(Discriminator)를 포함하는 생성적 적대 신경망(Generative Adversarial Network; GAN)을 이용해 해상 영상 내 기상효과를 조절하는 방법으로서, 제 1 생성적 적대 신경망(GAN)의 생성자로부터 제 1 기상효과를 포함하는 영상의 스타일 특징 및 맥락 특징을 추출하여 제 1 생성적 적대 신경망을 학습시키는 단계; 상기 추출된 제 1 기상효과를 포함하는 영상의 스타일 특징 또는 맥락 특징을 제 2 생성적 적대 신경망의 생성자로 입력하여 제 2 기상효과를 포함하는 영상을 재생성하는 단계; 상기 재생성된 제 2 기상효과를 포함하는 영상과 실제 제 2 기상효과를 포함하는 영상을 비교함으로써 제 2 생성적 적대 신경망의 식별자가 실제 제 2 기상효과를 포함하는 영상을 식별하도록 제 2 생성적 적대 신경망을 학습시키는 단계; 및 상기 학습된 제 1 생성적 적대 신경망 또는 제 2 생성적 적대 신경망을 활용하여 입력된 해상 영상에서 기상효과를 조절하는 단계를 포함할 수 있다.In order to achieve the above object, a method for controlling weather effects in a marine image according to an embodiment of the present invention includes a generator for generating an image and a discriminator for distinguishing the generated image from the actual image. As a method of controlling meteorological effects in maritime images using a Generative Adversarial Network (GAN), the style features and context features of the image including the first meteorological effect are extracted from the generator of the first generative adversarial network (GAN). Thus learning the first generative adversarial neural network; Regenerating an image including a second meteorological effect by inputting a style feature or a context feature of the image including the extracted first meteorological effect as a generator of a second generative hostile neural network; The second generative hostility is such that the identifier of the second generative hostile neural network identifies the image including the actual second weather effect by comparing the regenerated image including the second weather effect with the image including the actual second weather effect. Training a neural network; And adjusting the weather effect in the input maritime image using the learned first generative hostile neural network or the second generative hostile neural network.

본 발명의 일 실시예에 따르면, 신경망 학습을 통해 다양한 기상효과가 부여된 영상을 생성하여 해상 환경에 적합한 해상 객체 식별 장치 학습을 위한 데이터를 생성할 수 있는 장점을 가진다.According to an embodiment of the present invention, it is possible to generate data for learning a marine object identification device suitable for a marine environment by generating images to which various weather effects are given through neural network learning.

본 발명의 일 실시예에 따르면, 신경망 학습을 하는 과정에서 도메인(Domain) 변환이 가능한 영상 인코더 및 디코더를 활용하여 다양한 기상효과를 생성 및 제거할 수 있는 장점을 가진다. According to an embodiment of the present invention, various weather effects can be generated and removed by using an image encoder and a decoder capable of domain transformation during neural network learning.

본 발명의 일 실시예에 따르면, 도메인 변환이 가능한 영상 인코더 및 영상 디코더를 활용하여 생성적 적대 신경망을 학습함으로써 신경망 학습에 필요한 학습 데이터 확보 문제를 해결할 수 있다.According to an embodiment of the present invention, a problem of securing training data required for neural network training may be solved by learning a generative hostile neural network using an image encoder and an image decoder capable of domain transformation.

도1은 청명한 영상에 안개 효과를 부여하는 기상효과 조절 시스템의 블록도이다.
도2는 생성적 적대 신경망(GAN)을 설명하기 위한 개념도이다.
도3은 본 발명의 일 실시예에 따른 기상효과를 조절하는 장치의 블록 구성도이다.
도4는 본 발명의 일 실시예에 따른 기상효과를 조절하는 장치의 블록 구성도이다.
도5는 본 발명에서 같은 도메인 내 인코더 및 디코더를 활용하여 생성적 적대 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도6은 본 발명에서 다른 도메인 간 인코더 및 디코더를 조합하여 생성적 적대 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도7은 본 발명에서 식별자를 활용하여 생성적 적대 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도8a는 본 발명의 일 실시예에 따른 기상효과를 조절하는 방법의 알고리즘을 나타낸 테이블이다.
도8b는 본 발명의 일 실시예에 따른 기상효과를 조절하는 방법의 알고리즘을 나타낸 테이블이다.
도9는 본 발명의 일 실시예에 따른 기상효과를 조절하는 방법의 동작 순서도이다.
도10은 본 발명의 다른 실시예에 따른 기상효과를 조절하는 장치의 블록 구성도이다.
1 is a block diagram of a weather effect control system that applies a fog effect to a clear image.
2 is a conceptual diagram illustrating a generative hostile neural network (GAN).
3 is a block diagram of an apparatus for controlling a weather effect according to an embodiment of the present invention.
4 is a block diagram of an apparatus for controlling a weather effect according to an embodiment of the present invention.
5 is a diagram for explaining a method of learning a generative adversarial neural network using an encoder and a decoder in the same domain in the present invention.
6 is a diagram for explaining a method of learning a generative adversarial neural network by combining encoders and decoders between different domains in the present invention.
7 is a diagram illustrating a method of learning a generative adversarial neural network using an identifier in the present invention.
8A is a table showing an algorithm of a method for controlling a weather effect according to an embodiment of the present invention.
8B is a table showing an algorithm of a method for controlling a weather effect according to an embodiment of the present invention.
9 is a flowchart illustrating an operation of a method for controlling a weather effect according to an embodiment of the present invention.
10 is a block diagram of an apparatus for controlling a weather effect according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term “and/or” includes a combination of a plurality of related described items or any of a plurality of related described items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms including technical or scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present application. Does not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도1은 청명한 영상에 안개 효과를 부여하는 기상효과 조절 시스템의 블록도이다.1 is a block diagram of a weather effect control system that applies a fog effect to a clear image.

도1을 참조하면, 청명한 영상에 안개 효과를 부여하는 알고리즘을 알 수 있다. 도 1과 수학식 1 및 2에 따르면, 영상 인코더에 청명한 영상을 입력하고, 임의적으로 샘플링된 스타일(Style) 특징과 입력된 청명한 영상의 맥락(Context) 특징을 영상 디코더에 입력하면 영상 디코더에서 안개 효과가 부여된 영상을 출력할 수 있다. Referring to FIG. 1, an algorithm for applying a fog effect to a clear image can be seen. According to Fig. 1 and Equations 1 and 2, when a clear image is input to an image encoder, and a randomly sampled style feature and a context feature of the input clear image are input to the image decoder, the image decoder An image with an effect can be output.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

여기서, I는 안개 효과가 부여된 영상을 의미할 수 있고, J는 청명한 영상을 의미할 수 있고, A는 전역 대기 밝기를 의미할 수 있고, t는 영상의 투과 맵을 의미할 수 있고,

Figure pat00003
는 는 투과 계수를 의미할 수 있고, d는 영상의 깊이 맵을 의미할 수 있다.Here, I may refer to an image to which a fog effect is applied, J may refer to a clear image, A may refer to the global atmospheric brightness, and t may refer to a transmission map of the image,
Figure pat00003
May denote a transmission coefficient, and d denote a depth map of an image.

다만, 상기 알고리즘은 영상의 깊이 맵(d)이 필수적으로 있어야 하는 바 문제가 된다. 따라서 후술하는, 생성적 적대 신경망(Generative Adversarial Network; GAN)을 활용하면 영상의 깊이 맵 없이도 청명한 영상에 안개 효과를 부여할 수 있다. However, the algorithm is a problem because the depth map (d) of the image must be essential. Therefore, by using a Generative Adversarial Network (GAN), which will be described later, a fog effect can be applied to a clear image without a depth map of the image.

도2는 생성적 적대 신경망(GAN)을 설명하기 위한 개념도이다.2 is a conceptual diagram illustrating a generative hostile neural network (GAN).

생성적 적대 신경망(Generative Adversarial Network; GAN)이란 두 개의 네트워크로 구성된 심층 신경망 구조를 말할 수 있다. 즉, 진짜(Real) 같은 가짜(Fake)를 생성하는 모델과 이에 대한 진위를 판별하는 모델의 경쟁을 통해 진짜 같은 가짜 이미지를 만들 수 있다. The Generative Adversarial Network (GAN) can refer to a deep neural network structure composed of two networks. In other words, it is possible to create a fake image that looks like the real through a competition between a model that creates a fake like real and a model that determines its authenticity.

도 2를 참조하면, 생성적 적대 신경망은 생성자(Generator) 및 식별자(Discriminator)로 불리는 두 모델을 포함할 수 있다. 즉, 생성자는 실제 데이터를 학습하고 이를 바탕으로 거짓(Fake) 데이터를 생성하여 실제(Real)에 가까운 거짓 데이터를 생성할 수 있다. 또한, 식별자는 생성자가 내놓은 데이터가 실제인지 거짓인지 식별할 수 있다. Referring to FIG. 2, a generative adversarial neural network may include two models called a generator and a discriminator. In other words, the generator learns real data and generates false data based on it, thereby generating false data close to real. In addition, the identifier can identify whether the data provided by the creator is real or false.

도3은 본 발명의 일 실시예에 따른 해상 영상 내에서 기상효과를 조절하는 장치의 블록 구성도이다.3 is a block diagram of an apparatus for controlling a weather effect in a marine image according to an embodiment of the present invention.

도3을 참조하면, 해상 영상 내에서 기상효과를 조절하는 장치(1000)는 제 1 생성적 적대 신경망 학습부(1100), 제 2 생성적 적대 신경망 학습부(1200) 및 기상효과 조절부(1300)를 포함할 수 있다.Referring to FIG. 3, an apparatus 1000 for adjusting a weather effect within a maritime image includes a first generative hostile neural network learning unit 1100, a second generative hostile neural network learning unit 1200, and a weather effect adjusting unit 1300. ) Can be included.

여기서, 제 1 생성적 적대 신경망 학습부(1100)는 생성자가 청명한 영상에서 안개 효과가 부여된 영상을 생성하고, 식별자가 생성된 안개 효과가 부여된 영상과 실제 안개 효과를 포함하는 영상과 비교하여 실제 안개 효과를 포함하는 영상을 식별할 수 있도록 학습될 수 있다.Here, the first generative hostile neural network learning unit 1100 generates an image to which a fog effect is applied from a clear image by the creator, and compares the image to which the identifier is generated with the fog effect to the image including the actual fog effect. It can be learned to identify an image including an actual fog effect.

또한, 제 2 생성적 적대 신경망 학습부(1200)은 생성자가 안개 효과가 부여된 영상에서 청명한 영상을 생성하고, 식별자가 생성된 청명한 영상과 실제 청명한 영상과 비교하여 실제 청명한 영상을 식별할 수 있도록 학습될 수 있다.In addition, the second generative hostile neural network learning unit 1200 allows the generator to generate a clear image from the image to which the fog effect is applied, and to identify the actual clear image by comparing the clear image with the identifier generated with the actual clear image. Can be learned.

여기서, 제 1 생성적 적대 신경망 학습부(1100)에서 실제 청명한 영상을 식별할 수 있도록 학습될 수 있고, 제 2 생성적 적대 신경망 학습부(1200)에서 실제 안개 효과를 포함하는 영상을 식별할 수 있도록 학습될 수 있다.Here, the first generative hostile neural network learning unit 1100 may learn to identify an actual clear image, and the second generative hostile neural network learning unit 1200 may identify an image including the actual fog effect. Can be learned to be.

또한, 기상효과 조절부(1300)는 제 1 생성적 적대 신경망 학습부 및 제 2 생성적 적대 신경망 학습부의 학습 결과를 활용하여 해상 영상 내에서 기상효과를 생성 및 제거할 수 있다. In addition, the meteorological effect controller 1300 may generate and remove the meteorological effect in the maritime image by using the learning results of the first generative hostile neural network learning unit and the second generative hostile neural network learning unit.

또한, 식별자의 식별 결과와 생성자가 생성한 영상에서 오차를 역전파(Back Propagation)할 수 있고, 생성자와 식별자를 번갈아가면서 경사 하강법으로 적대적 생성 신경망을 학습할 수 있다.In addition, errors in the identification result of the identifier and the image generated by the creator can be back propagated, and the hostile generated neural network can be learned by gradient descent by alternately between the generator and the identifier.

도4는 본 발명의 일 실시예에 따른 해상 영상 내에서 기상효과를 조절하는 장치의 블록 구성도이다.4 is a block diagram of an apparatus for controlling a weather effect in a marine image according to an embodiment of the present invention.

도4를 참조하면, 제 1 생성적 적대 신경망 학습부(1100)는 영상 생성자1(1110) 및 영상 식별자1(1120)을 포함할 수 있고, 제 2 생성적 적대 신경망 학습부(1200)는 영상 생성자2(1210) 및 영상 식별자2(1220)을 포함할 수 있다.4, the first generative adversarial neural network learning unit 1100 may include an image generator 1 1110 and an image identifier 1 1120, and the second generative adversarial neural network training unit 1200 It may include a creator 2 1210 and an image identifier 2 1220.

또한, 영상 생성자1(1110)은 영상 인코더1(1111) 및 영상 디코더1(1112)을 포함할 수 있고, 영상 생성자2(1210)은 영상 인코더2(1211) 및 영상 디코더2(1212)를 포함할 수 있다.In addition, the image generator 1 1110 may include an image encoder 1 1111 and an image decoder 1 1112, and the image generator 2 1210 includes an image encoder 2 1211 and an image decoder 2 1212. can do.

여기서, 영상 생성자1(1110) 및 영상 생성자2(1210)는 상호 정보를 교환하여 생성적 적대 신경망을 학습할 수 있다. 상기 영상 생성자 간에 교환되는 상호 정보에 대해서는 후술한다.Here, the image generator 1 1110 and the image generator 2 1210 may exchange information with each other to learn a generative adversarial neural network. Mutual information exchanged between the video creators will be described later.

도5는 본 발명에서 같은 도메인 내 인코더 및 디코더를 활용하여 생성적 적대 신경망을 학습하는 방법을 설명하기 위한 도면이다.5 is a diagram for explaining a method of learning a generative adversarial neural network using an encoder and a decoder in the same domain in the present invention.

영상 인코더(1111,1211)는 스타일(Style) 인코더 및 맥락(Context) 인코더로 구성될 수 있다. 따라서, 도 5를 참조하면, 영상 인코더1(1111)의 스타일 인코더에서 실제 청명한 영상(I1)을 입력 받아 실제 청명한 영상의 스타일 특징(Se1)을 생성할 수 있고, 맥락 인코더에서 실제 청명한 영상(I1)을 입력 받아 맥락 특징(C1)을 추출할 수 있다. 또한, 영상 디코더1(1112)에서는 실제 청명한 영상의 스타일 특징과 맥락 특징을 입력 받아 청명한 영상의 특징 정보를 포함하는 영상(I1′)을 생성할 수 있다. The video encoders 1111 and 1211 may be composed of a style encoder and a context encoder. Therefore, referring to FIG. 5, the style encoder of the image encoder 1 1111 can receive a real clear image I 1 to generate the style feature S e1 of the real clear image, and the context encoder can generate a real clear image Context feature (C 1 ) can be extracted by receiving (I 1 ). Also, the image decoder 1 1112 may generate an image I 1 ′ including feature information of the clear image by receiving style features and context features of the actual clear image.

마찬가지로, 영상 인코더 2(1211)의 스타일 인코더에서 실제 안개 효과를 포함하는 영상(I2)을 입력 받아 실제 안개 효과를 포함하는 영상의 스타일 특징(Se2)을 생성할 수 있고, 맥락 인코더에서 실제 안개 효과를 포함하는 영상(I2)을 입력 받아 맥락 특징(C2)을 추출할 수 있다. 또한, 영상 디코더 2(1212)에서는 실제 안개 효과를 포함하는 영상의 스타일 특징과 맥락 특징을 입력 받아 안개 효과가 부여된 영상의 특징 정보를 포함하는 영상(I2′)을 생성할 수 있다.Similarly, the style encoder of the image encoder 2 1211 can receive the image (I 2 ) including the actual fog effect and generate the style feature (S e2 ) of the image including the actual fog effect. The context feature C 2 may be extracted by receiving the image I 2 including the fog effect. In addition, the image decoder 2 1212 may generate an image I 2 ′ including feature information of the image to which the fog effect is applied by receiving style features and context features of the image including the actual fog effect.

다시 도4를 참조하면, 상기 영상 디코더1에서 생성된 청명한 영상의 특징 정보를 포함하는 영상(I1′)과 영상 식별자1(1120)에 입력된 실제 청명한 영상을 비교하여 영상 식별자1이 실제 청명한 영상을 식별할 수 있도록 제 1 생성적 적대 신경망이 학습될 수 있다. Referring back to FIG. 4, the image ID 1 is actually clear by comparing the image (I 1 ′) including the characteristic information of the clear image generated by the image decoder 1 and the actual clear image input to the image identifier 1 (1120). A first generative adversarial neural network may be trained to identify an image.

마찬가지로, 상기 영상 디코더2에서 생성된 안개 효과가 부여된 영상의 특징 정보를 포함하는 영상(I2′)과 영상 식별자2(1220)에 입력된 실제 안개 효과를 포함하는 영상을 비교하여 영상 식별자2가 실제 안개 효과를 포함하는 영상을 식별할 수 있도록 제 2생성적 적대 신경망이 학습될 수 있다. Similarly, by comparing the image (I 2 ′) including feature information of the image to which the fog effect is applied generated by the image decoder 2 and the image including the actual fog effect input to the image identifier 2 1220, the image identifier 2 A second generative adversarial neural network may be trained to identify an image including an actual fog effect.

따라서, 학습이 완료된 후 스타일 특징은 안개 효과에 관련된 정보를 포함할 수 있고, 맥락 특징은 해상 영상 내 객체의 외견에 관한 정보를 포함할 수 있다. 또한, 스타일 특징이 사용자가 임의로 지정한 확률 분포를 따를 수 있는 바 사용자가 임의로 스타일 특징을 변경할 수 있으므로 스타일 특징이 변경됨에 따라 청명한 영상에 부여할 안개 효과를 조절할 수 있다.Accordingly, after the learning is completed, the style feature may include information related to the fog effect, and the context feature may include information about the appearance of the object in the marine image. In addition, since the style feature can follow a probability distribution arbitrarily designated by the user, the user can arbitrarily change the style feature, and thus the fog effect to be applied to a clear image can be adjusted as the style feature changes.

도6은 본 발명에서 다른 도메인 간 인코더 및 디코더를 조합하여 생성적 적대 신경망을 학습하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of learning a generative adversarial neural network by combining encoders and decoders between different domains in the present invention.

도6을 참조하면, 영상 인코더1(1111)에서 추출한 청명한 영상의 맥락 특징(C1)과 임의적으로 샘플링된 스타일 특징(S2)을 영상 디코더2(1212)에 입력하여 안개 효과가 부여된 영상의 특징 정보를 포함하는 영상(I12)을 생성할 수 있다.Referring to FIG. 6, the image to which the fog effect is applied by inputting the context feature (C 1 ) of the clear image extracted from the image encoder 1 (1111) and the style feature (S 2) randomly sampled to the image decoder 2 (1212). An image I 12 including feature information of may be generated.

마찬가지로, 영상 인코더2(1211)에서 추출한 안개 효과가 부여된 영상의 맥락 특징(C2-)과 임의적으로 샘플링된 스타일 특징(S1-)을 영상 디코더1(1112)에 입력하여 청명한 영상의 특징 정보를 포함하는 영상(I21)을 생성할 수 있다. Similarly, by inputting the context feature (C 2- ) and the randomly sampled style feature (S 1- ) of the image to which the fog effect extracted from the image encoder 2 (1211) is applied to the image decoder 1 (1112), the characteristics of a clear image An image I 21 including information may be generated.

다시 도4를 참조하면, 상기 영상 디코더2(1212)에서 생성된 안개 효과가 부여된 영상의 특징 정보를 포함하는 영상(I12)과 영상 식별자2(1220)에 입력된 실제 안개 효과를 포함하는 영상을 비교하여 영상 식별자2가 실제 안개 효과를 포함하는 영상을 식별할 수 있도록 제 2 생성적 적대 신경망이 학습될 수 있다. Referring back to FIG. 4, the image I 12 including feature information of the image to which the fog effect generated by the image decoder 2 1212 is applied and the actual fog effect input to the image identifier 2 1220 are included. The second generative adversarial neural network may be trained so that the image identifier 2 can identify the image including the actual fog effect by comparing the images.

마찬가지로, 상기 영상 디코더1(1112)에서 생성된 청명한 영상의 특징 정보를 포함하는 영상(I21)과 영상 식별자1(1120)에 입력된 실제 청명한 영상을 비교하여 영상 식별자1이 실제 청명한 영상을 식별할 수 있도록 제 1 생성적 적대 신경망이 학습될 수 있다. Similarly, by comparing the image I 21 including the characteristic information of the clear image generated by the image decoder 1 1112 with the actual clear image input to the image identifier 1 1120, the image identifier 1 identifies the actual clear image. The first generative adversarial neural network may be trained to do so.

도7은 본 발명에서 식별자를 활용하여 생성적 적대 신경망을 학습하는 방법을 설명하기 위한 도면이다.7 is a diagram illustrating a method of learning a generative adversarial neural network using an identifier in the present invention.

도7을 참조하면, 영상 식별자1(1120)은 영상 인코더1 및 영상 디코더 1을 활용하여 생성한 청명한 영상(I1′) 또는 영상 인코더2 및 영상 디코더1을 활용하여 생성한 청명한 영상(I21)을 입력으로 받아 실제 청명한 영상(I1)과 비교하여 영상 식별자 1이 실제 청명한 영상을 식별하도록 제 1 생성적 적대 신경망을 학습할 수 있다. Referring to FIG. 7, the image identifier 1 1120 is a clear image (I 1 ′) generated using the image encoder 1 and the image decoder 1 or the clear image (I 21 ′) generated using the image encoder 2 and the image decoder 1. ) Is received as an input and compared with an actual clear image (I 1 ), the first generative adversarial neural network may be trained so that the image identifier 1 identifies an actual clear image.

마찬가지로, 영상 식별자2(1220)은 영상 인코더2 및 영상 디코더2를 활용하여 생성한 안개 효과가 부여된 영상(I2′) 또는 영상 인코더 1 및 영상 디코더2를 활용하여 생성한 안개 효과가 부여된 영상(I12)을 입력으로 받아 실제 안개 효과를 포함하는 영상(I2)과 비교하여 영상 식별자2가 실제 안개 효과를 포함하는 영상을 식별하도록 제 2 생성적 적대 신경망을 학습할 수 있다. Similarly, the image identifier 2 1220 is an image (I 2 ′) with a fog effect generated using the image encoder 2 and the image decoder 2, or a fog effect generated using the image encoder 1 and the image decoder 2. The second generative hostile neural network may be trained so that the image identifier 2 identifies an image including the actual fog effect by receiving the image I 12 as an input and comparing it with the image I 2 including the actual fog effect.

여기서, 영상 식별자는 실제 영상과 생성된 영상을 식별하여 0과 1 사이의 확률값으로 반환할 수 있다. 여기서, 1은 영상 식별자가 영상 생성자가 생성한 영상을 영상 식별자가 실제 영상으로 식별한 경우 반환하는 값일 수 있고, 0은 영상 식별자가 영상 생성자가 생성한 영상을 영상 식별자가 생성된 영상으로 식별한 경우 반환하는 값일 수 있다. Here, the image identifier may be returned as a probability value between 0 and 1 by identifying an actual image and a generated image. Here, 1 may be a value returned when the video identifier identifies the image generated by the image creator as an actual image, and 0 is the image identifier identifying the image generated by the image creator as an image for which the image identifier is generated. May be a return value.

또한, 영상 식별자는 실제 영상의 정답 값으로부터 피드백(Feedback)을 받을 수 있고, 영상 생성자는 영상 식별자로부터 피드백을 받을 수 있다.Also, the image identifier may receive feedback from the correct answer value of the actual image, and the image creator may receive feedback from the image identifier.

도8a 및 도8b는 본 발명의 일 실시예에 따른 기상효과를 조절하는 방법의 알고리즘을 나타낸 테이블이다.8A and 8B are tables showing an algorithm of a method for controlling a weather effect according to an embodiment of the present invention.

도8a 및 도8b를 참조하면, 먼저, 영상 인코더(1111,1211)의 스타일 인코더는 컨볼루션 계층(Convolutional Layer), 풀링 계층(Pooling Layer) 및 출력 계층(Output Layer)으로 구성될 수 있다. 여기서, 출력 계층은 컨볼루션 계층으로 구성될 수 있다. 여기서, 풀링 계층은 적응적 평균 풀링 계층(Adaptive Average Pooling Layer)를 의미할 수 있고, 풀링 계층은 H x W의 커널 크기(Kernel Size)를 갖는 바, 어떤 입력이 들어오더라도 항상 출력이 1 x 1이 될 수 있도록 스타일 인코더를 평균 풀링(Average Pooling)할 수 있다. Referring to FIGS. 8A and 8B, first, the style encoders of the video encoders 1111 and 1211 may be composed of a convolutional layer, a pooling layer, and an output layer. Here, the output layer may be configured as a convolutional layer. Here, the pooling layer may mean an adaptive average pooling layer, and the pooling layer has a kernel size of H x W, so that no matter what input is received, the output is always 1 x The style encoder can be average pooled so that it can be 1.

또한, 영상 인코더의 맥락 인코더는 컨볼루션 계층, 리사이덜 블록(Residual Block) 및 출력 계층으로 구성될 수 있다. 여기서, 출력 계층은 리사이덜 블록으로 구성될 수 있다. 또한, 리사이덜 블록은 3 x 3 컨볼루션 계층으로 구성될 수 있고, 리사이덜 연결(Residual Connection) 당 컨볼루션 계층 2개를 사용하고, 총 4 개의 리사이덜 연결이 존재할 수 있다.In addition, the context encoder of the video encoder may be composed of a convolution layer, a residual block, and an output layer. Here, the output layer may be composed of a recycler block. In addition, the resider block may be composed of a 3 x 3 convolutional layer, and two convolutional layers per residual connection may be used, and a total of four residual connections may exist.

또한, 영상 디코더(1112, 1212)는 완전 연결 계층(Fully-Connected Layer), 파라미터 출력 계층, 리사이덜 블록, 업샘플링 계층(Upsampling Layer), 컨볼루션 계층 및 출력계층으로 구성될 수 있다. 여기서, 출력 계층은 컨볼루션 계층으로 구성될 수 있다. 또한, 완전 연결 계층은 적응적 인스턴스 정규화(Adaptive Instance Normalization; AdaIN)를 위한 완전 연결 계층을 의미할 수 있다. 또한, 파라미터 출력 계층은 적응적 인스턴스 정규화를 위한 파라미터를 출력하는 계층을 의미할 수 있고, 리사이덜 블록 당 평균(Mean) 값 256개 및 표준 편차(Standard Deviation) 256개를 할당할 수 있으므로 파라미터 출력 계층은 총 2048차원의 벡터를 출력할 수 있다. 또한, 업샘플링 계층은 커널 크기만큼 이웃하게 근접한 픽셀을 업샘플링(Nearest Neighbor Upsampling)하는 계층을 의미할 수 있다.In addition, the image decoders 1112 and 1212 may be composed of a fully-connected layer, a parameter output layer, a resider block, an upsampling layer, a convolution layer, and an output layer. Here, the output layer may be configured as a convolutional layer. In addition, the fully connected layer may mean a fully connected layer for adaptive instance normalization (AdaIN). In addition, the parameter output layer can mean a layer that outputs parameters for adaptive instance normalization, and because 256 Mean values and 256 Standard Deviations can be allocated per resider block, the parameter is output. The layer can output a total of 2048 dimensional vectors. In addition, the upsampling layer may refer to a layer that upsampling (Nearest Neighbor Upsampling) pixels that are adjacent to each other by the size of the kernel.

또한, 영상 식별자(1120,1220)은 컨볼루션 계층 및 출력 계층으로 구성될 수 있다. Also, the image identifiers 1120 and 1220 may be composed of a convolution layer and an output layer.

상기 도8a, 도8b 및 수학식 3 내지 25에 의해 본 발명의 일 실시예에 따른 해상 영상 내 기상효과를 조절하는 방법의 알고리즘은 다음과 같다.An algorithm of a method of adjusting a weather effect in a marine image according to an embodiment of the present invention according to the above FIGS. 8A and 8B and Equations 3 to 25 is as follows.

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

여기서,

Figure pat00006
은 실제 청명한 영상을 의미할 수 있고,
Figure pat00007
는 실제 안개 낀 영상을 의미할 수 있고,
Figure pat00008
는 청명한 영상의 인코더를 의미할 수 있고,
Figure pat00009
는 안개 효과를 포함하는 영상의 인코더를 의미할 수 있고,
Figure pat00010
는 영상 인코더
Figure pat00011
-를 이용하여 추출한 영상
Figure pat00012
의 맥락 특징을 의미할 수 있고,
Figure pat00013
는 영상 인코더
Figure pat00014
를 이용해 추출한
Figure pat00015
-의 스타일 특징을 의미할 수 있다. 또한,
Figure pat00016
는 영상 인코더의 출력을 의미할 수 있다.here,
Figure pat00006
Can mean a real clear image,
Figure pat00007
May mean an actual foggy image,
Figure pat00008
May mean an encoder of a clear image,
Figure pat00009
May mean an encoder of an image including a fog effect,
Figure pat00010
Video encoder
Figure pat00011
-Extracted using the image
Figure pat00012
Can mean contextual features of,
Figure pat00013
Video encoder
Figure pat00014
Extracted using
Figure pat00015
- it can mean the style Features. Also,
Figure pat00016
May mean the output of the video encoder.

Figure pat00017
Figure pat00017

Figure pat00018
Figure pat00018

여기서,

Figure pat00019
는 신경망을 통해 재구성된 영상을 의미할 수 있고,
Figure pat00020
은 청명한 영상의 디코더를 의미할 수 있고,
Figure pat00021
은 안개 효과를 포함하는 영상의 디코더를 의미할 수 있고,
Figure pat00022
는 맥락 특징
Figure pat00023
와 스타일 특징
Figure pat00024
에 대한 영상 디코더의 출력을 의미할 수 있다.here,
Figure pat00019
Can mean an image reconstructed through a neural network,
Figure pat00020
May mean a clear video decoder,
Figure pat00021
May mean a decoder of an image including a fog effect,
Figure pat00022
Is a context feature
Figure pat00023
And style features
Figure pat00024
It may mean an output of an image decoder for.

Figure pat00025
Figure pat00025

Figure pat00026
Figure pat00026

여기서,

Figure pat00027
는 미리 정해 놓은 임의의 분포도에 따라 임의로 샘플링된 스타일 특징을 의미할 수 있고,
Figure pat00028
는 생성된 안개 효과가 부여된 영상을 의미할 수 있고,
Figure pat00029
은 생성된 청명한 영상을 의미할 수 있다. here,
Figure pat00027
May mean a style feature randomly sampled according to a predetermined distribution map,
Figure pat00028
May mean an image to which the generated fog effect is applied,
Figure pat00029
May mean the generated clear image.

Figure pat00030
Figure pat00030

Figure pat00031
Figure pat00031

Figure pat00032
Figure pat00032

Figure pat00033
Figure pat00033

여기서,

Figure pat00034
은 안개 효과가 부여된 영상에서 안개 효과를 제거한 영상을 의미할 수 있고,
Figure pat00035
는 안개 효과가 제거된 영상에서 안개 효과를 부여한 영상을 의미할 수 있다.here,
Figure pat00034
May mean an image in which the fog effect is removed from the image to which the fog effect is applied,
Figure pat00035
May mean an image to which a fog effect is applied from an image from which the fog effect is removed.

Figure pat00036
Figure pat00036

Figure pat00037
Figure pat00037

여기서,

Figure pat00038
은 청명한 영상의 재구성 손실 함수(Reconstruction Loss)를 의미할 수 있고,
Figure pat00039
는 안개 효과가 포함된 영상의 재구성 손실 함수를 의미할 수 있다.here,
Figure pat00038
May mean Reconstruction Loss of a clear image,
Figure pat00039
May mean a reconstruction loss function of an image including a fog effect.

Figure pat00040
Figure pat00040

여기서,

Figure pat00041
는 안개 효과가 포함된 영상의 스타일 특징 재구성 손실 함수를 의미할 수 있다.here,
Figure pat00041
May mean a loss function of reconstruction of style features of an image including a fog effect.

Figure pat00042
Figure pat00042

Figure pat00043
Figure pat00043

여기서,

Figure pat00044
은 청명한 영상의 맥락 특징 재구성 손실 함수를 의미할 수 있고,
Figure pat00045
는 안개 효과가 포함된 영상의 맥락 특징 재구성 손실 함수를 의미할 수 있다.here,
Figure pat00044
May mean the loss function of reconstructing the context feature of a clear image,
Figure pat00045
May mean a loss function for reconstructing the context feature of the image including the fog effect.

Figure pat00046
Figure pat00046

Figure pat00047
Figure pat00047

여기서,

Figure pat00048
은 청명한 영상의 순환 일관성 손실 함수(Cycle Consistency Loss)를 의미할 수 있고,
Figure pat00049
는 안개 효과가 포함된 영상의 순환 일관성 손실 함수를 의미할 수 있다.here,
Figure pat00048
May mean the cyclic consistency loss function (Cycle Consistency Loss) of a clear image,
Figure pat00049
May mean a cyclic coherence loss function of an image including a fog effect.

Figure pat00050
Figure pat00050

Figure pat00051
Figure pat00051

여기서,

Figure pat00052
은 청명한 영상의 식별자를 의미할 수 있고,
Figure pat00053
는 안개 효과가 포함된 영상의 식별자를 의미할 수 있고,
Figure pat00054
는 영상
Figure pat00055
에 대한 식별자
Figure pat00056
의 출력을 의미할 수 있고,
Figure pat00057
은 영상 식별자 1을 사용한 적대적 손실 함수를 의미할 수 있고,
Figure pat00058
는 영상 식별자 2를 사용한 적대적 손실 함수를 의미할 수 있다.here,
Figure pat00052
May mean an identifier of a clear image,
Figure pat00053
May mean the identifier of the image including the fog effect,
Figure pat00054
The video
Figure pat00055
Identifier for
Figure pat00056
Can mean the output of,
Figure pat00057
May mean a hostile loss function using image identifier 1,
Figure pat00058
May mean a hostile loss function using image identifier 2.

Figure pat00059
Figure pat00059

Figure pat00060
Figure pat00060

여기서,

Figure pat00061
은 영상 식별자 1을 학습하기 위한 손실 함수를 의미할 수 있고,
Figure pat00062
는 영상 식별자 2를 학습하기 위한 손실함수를 의미할 수 있다.here,
Figure pat00061
May mean a loss function for learning the image identifier 1,
Figure pat00062
May mean a loss function for learning the image identifier 2.

Figure pat00063
Figure pat00063

Figure pat00064
Figure pat00064

여기서,

Figure pat00065
는 영상 생성자 1 및 영상 생성자 2를 학습하기 위해 사용되는 손실 함수를 의미할 수 있고,
Figure pat00066
는 영상 식별자 1 및 영상 식별자2를 학습하기 위해 사용되는 손실함수를 의미할 수 있다.here,
Figure pat00065
May mean a loss function used to learn image creator 1 and image creator 2,
Figure pat00066
May mean a loss function used to learn the image identifier 1 and the image identifier 2.

전술한 알고리즘은 해상 영상 내에 존재하는 다양한 기상효과 중 안개 효과만을 예로 들어 설명하였으나, 스타일 특징이 사용자가 임의로 지정한 확률 분포를 따를 수 있는 바 사용자가 임의로 스타일 특징을 변경할 수 있으므로 스타일 특징이 변경됨에 따라 청명한 영상에 부여할 다양한 기상 효과를 조절할 수 있다.The above-described algorithm has been described by taking only the fog effect among various weather effects that exist in the maritime image, but the style characteristic can follow the probability distribution arbitrarily specified by the user, so the user can arbitrarily change the style characteristic, as the style characteristic changes. Various weather effects can be adjusted to give a clear image.

도9는 본 발명의 일 실시예에 따른 해상 영상 내 기상효과를 조절하는 방법의 동작 순서도이다.9 is a flowchart illustrating a method of controlling a weather effect in a marine image according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 해상 영상 내 기상효과를 조절하는 방법은, 생성자 및 식별자(Discriminator)로 구성된 생성적 적대 신경망(Generative Adversarial Network; GAN)을 활용하는 해상 영상 내 기상효과 조절 방법으로서, 제 1 생성적 적대 신경망(GAN)의 생성자로부터 제 1 기상효과를 포함하는 영상의 스타일 특징 및 맥락 특징을 추출하여 제 1 생성적 적대 신경망을 학습시키는 단계(S910)를 포함할 수 있다. 여기서, 복수의 생성적 적대 신경망(GAN)은 제 1 생성적 적대 신경망 및 제 2 생성적 적대 신경망을 포함할 수 있다. 또한, 상이한 기상효과를 포함하는 영상은 청명한 영상, 안개 효과가 부여된 영상 및 다양한 기상효과가 부여된 영상을 포함하는 영상일 수 있다.A method for adjusting weather effects in a marine image according to an embodiment of the present invention is a method for adjusting weather effects in a marine image using a Generative Adversarial Network (GAN) consisting of a generator and an identifier (Discriminator), The first generative hostile neural network may be trained (S910) by extracting style features and context features of the image including the first weather effect from the generator of the first generative hostile neural network (GAN). Here, the plurality of generative adversarial neural networks (GANs) may include a first generative adversarial neural network and a second generative adversarial neural network. Also, an image including different weather effects may be an image including a clear image, an image to which a fog effect is applied, and an image to which various weather effects are applied.

이어서, 상기 추출된 제 1 기상효과를 포함하는 영상의 스타일 특징 또는 맥락 특징을 제 2 생성적 적대 신경망의 생성자로 입력하여 제 2 기상효과를 포함하는 영상을 재생성하는 단계(S920)를 포함할 수 있다. Then, it may include regenerating the image including the second weather effect by inputting the style feature or the context feature of the image including the extracted first meteorological effect as a generator of the second generative hostile neural network (S920). have.

이어서, 상기 재생성된 제 2 기상효과를 포함하는 영상과 실제 제 2 기상효과를 포함하는 영상을 비교함으로써 제 2 생성적 적대 신경망의 식별자가 실제 제 2 기상효과를 포함하는 영상을 식별하도록 제 2 생성적 적대 신경망을 학습시키는 단계(S930)를 포함할 수 있다. 여기서, 생성적 적대 신경망의 식별자는 생성된 영상과 실제 영상을 비교하여 0 과 1 사이의 확률값으로 반환할 수 있고, 이에 기반하여 생성적 적대 신경망을 학습할 수 있다.Subsequently, by comparing the image including the regenerated second weather effect with the image including the actual second weather effect, the identifier of the second generative hostile neural network is generated so that the image including the actual second weather effect is identified. It may include the step of training the hostile neural network (S930). Here, the identifier of the generative adversarial neural network may be returned as a probability value between 0 and 1 by comparing the generated image and the real image, and the generative adversarial neural network may be trained based on this.

이어서, 상기 학습된 제 1 생성적 적대 신경망 또는 제 2 생성적 적대 신경망을 활용하여 입력된 해상 영상에서 기상효과를 조절하는 단계(S940)를 포함할 수 있다. 여기서, 학습된 생성적 적대 신경망을 활용하여 입력된 해상 영상에서 기상효과를 생성 및 제거함으로써 해상 영상 내 존재하는 해상 객체를 보다 구체적으로 식별할 수 있다.Subsequently, it may include a step (S940) of adjusting the weather effect in the input maritime image using the learned first generative hostile neural network or the second generative hostile neural network. Here, by using the learned generative hostile neural network to generate and remove weather effects from the input marine image, it is possible to more specifically identify the marine object existing in the marine image.

도10은 본 발명의 다른 실시예에 따른 해상 영상 내 기상효과를 조절하는 장치의 블록 구성도이다.10 is a block diagram of an apparatus for controlling a weather effect in a marine image according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 해상 영상 내 기상효과를 조절하는 장치(1000)는 프로세서(1010) 및 프로세서를 통해 실행되는 적어도 하나의 명령 및 명령 수행의 결과를 저장하는 메모리(1020) 및 네트워크와 연결되어 통신을 수행하는 송수신 장치(1030)를 포함할 수 있다. According to an embodiment of the present invention, the apparatus 1000 for controlling the weather effect in a marine image includes a processor 1010 and a memory 1020 for storing at least one command executed through the processor and a result of execution of the command, and a network. It may include a transmission/reception device 1030 connected to perform communication.

해상 영상 내 기상효과를 조절하는 장치(1000)는 또한, 입력 인터페이스 장치(1040), 출력 인터페이스 장치(1050), 저장 장치(1060) 등을 더 포함할 수 있다. 해상 영상 내 기상효과를 조절하는 장치(1000)에 포함된 각각의 구성 요소들은 버스(Bus)(1070)에 의해 연결되어 서로 통신을 수행할 수 있다. The apparatus 1000 for adjusting the weather effect in the marine image may further include an input interface device 1040, an output interface device 1050, a storage device 1060, and the like. Each of the constituent elements included in the apparatus 1000 for controlling the meteorological effect in the marine image may be connected by a bus 1070 to communicate with each other.

프로세서(1010)는 메모리(1020) 및 저장 장치(1060) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(1010)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(1020) 및 저장 장치(1060) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(1020)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중에서 적어도 하나로 구성될 수 있다.The processor 1010 may execute a program command stored in at least one of the memory 1020 and the storage device 1060. The processor 1010 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor in which methods according to an embodiment of the present invention are performed. Each of the memory 1020 and the storage device 1060 may be configured with at least one of a volatile storage medium and a nonvolatile storage medium. For example, the memory 1020 may be composed of at least one of read only memory (ROM) and random access memory (RAM).

저장 장치(1060)는 또한, 영상 인코더 1 및 영상 디코더 1을 활용하여 제 1 생성적 적대 신경망을 학습한 결과 및 영상 인코더 1 및 영상 디코더 2를 활용하여 제 2 생성적 적대 신경망을 학습한 결과를 저장할 수 있다. 또한, 영상 인코더 2 및 영상 디코더 2를 활용하여 제 2 생성적 적대 신경망을 학습한 결과 및 영상 인코더 2 및 영상 디코더 1를 활용하여 제 1 생성적 적대 신경망을 학습한 결과를 저장할 수 있다.The storage device 1060 also stores the results of learning the first generative hostile neural network using the image encoder 1 and the image decoder 1 and the results of learning the second generative hostile neural network using the image encoder 1 and the image decoder 2. Can be saved. In addition, the result of learning the second generative hostile neural network using the image encoder 2 and the image decoder 2 and the result of learning the first generative hostile neural network using the image encoder 2 and the image decoder 1 may be stored.

여기서, 적어도 하나의 명령은 제 1 생성적 적대 신경망(GAN)의 생성자로부터 제 1 기상효과를 포함하는 영상의 스타일 특징 및 맥락 특징을 추출하여 제 1 생성적 적대 신경망을 학습시키도록 하는 명령; 상기 추출된 제 1 기상효과를 포함하는 영상의 스타일 특징 또는 맥락 특징을 제 2 생성적 적대 신경망의 생성자로 입력하여 제 2 기상효과를 포함하는 영상을 재생성하도록 하는 명령; 상기 재생성된 제 2 기상효과를 포함하는 영상과 실제 제 2 기상효과를 포함하는 영상을 비교함으로써 제 2 생성적 적대 신경망의 식별자가 실제 제 2 기상효과를 포함하는 영상을 식별하도록 제 2 생성적 적대 신경망을 학습시키도록 하는 명령; 및 상기 학습된 제 1 생성적 적대 신경망 또는 제 2 생성적 적대 신경망을 활용하여 입력된 해상 영상에서 기상효과를 조절하도록 하는 명령을 포함할 수 있다.Here, the at least one command includes an instruction for learning the first generative hostile neural network by extracting the style feature and the context feature of the image including the first meteorological effect from the generator of the first generative hostile neural network (GAN); A command for regenerating an image including a second weather effect by inputting a style feature or a context feature of the image including the extracted first weather effect as a generator of a second generative hostile neural network; The second generative hostility is such that the identifier of the second generative hostile neural network identifies the image including the actual second weather effect by comparing the regenerated image including the second weather effect with the image including the actual second weather effect. Instruction to train a neural network; And a command to adjust the weather effect in the marine image input by using the learned first generative hostile neural network or the second generative hostile neural network.

본 발명의 실시예에 따른 방법의 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.The operation of the method according to the embodiment of the present invention can be implemented as a computer-readable program or code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. In addition, a computer-readable recording medium may be distributed over a network-connected computer system to store and execute a computer-readable program or code in a distributed manner.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Further, the computer-readable recording medium may include a hardware device specially configured to store and execute program commands, such as ROM, RAM, and flash memory. The program instructions may include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. While some aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, where a block or apparatus corresponds to a method step or characteristic of a method step. Similarly, aspects described in the context of a method can also be represented by a corresponding block or item or a feature of a corresponding device. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, a programmable computer or electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art will be able to variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can.

Claims (1)

영상을 생성하는 생성자(Generator) 및 생성된 영상과 실제 영상을 구별하는 식별자(Discriminator)를 포함하는 생성적 적대 신경망(Generative Adversarial Network; GAN)을 이용해 해상 영상 내 기상효과를 조절하는 방법으로서,
제 1 생성적 적대 신경망(GAN)의 생성자로부터 제 1 기상효과를 포함하는 영상의 스타일 특징 및 맥락 특징을 추출하여 제 1 생성적 적대 신경망을 학습시키는 단계;
상기 추출된 제 1 기상효과를 포함하는 영상의 스타일 특징 또는 맥락 특징을 제 2 생성적 적대 신경망의 생성자로 입력하여 제 2 기상효과를 포함하는 영상을 재생성하는 단계;
상기 재생성된 제 2 기상효과를 포함하는 영상과 실제 제 2 기상효과를 포함하는 영상을 비교함으로써 제 2 생성적 적대 신경망의 식별자가 실제 제 2 기상효과를 포함하는 영상을 식별하도록 제 2 생성적 적대 신경망을 학습시키는 단계; 및
상기 학습된 제 1 생성적 적대 신경망 또는 제 2 생성적 적대 신경망을 활용하여 입력된 해상 영상에서 기상효과를 조절하는 단계를 포함하는, 해상 영상 내 기상효과 조절 방법.
As a method of controlling weather effects in a marine image using a generative adversarial network (GAN) including a generator that generates an image and a discriminator that distinguishes the generated image from the actual image,
Learning a first generative adversarial neural network by extracting a style feature and a context feature of an image including a first meteorological effect from a generator of a first generative adversarial neural network (GAN);
Regenerating an image including a second meteorological effect by inputting a style feature or a context feature of the image including the extracted first meteorological effect as a generator of a second generative hostile neural network;
The second generative hostility is such that the identifier of the second generative hostile neural network identifies the image including the actual second weather effect by comparing the regenerated image including the second weather effect with the image including the actual second weather effect. Training a neural network; And
And adjusting a weather effect in an input marine image using the learned first generative hostile neural network or a second generative hostile neural network.
KR1020190111835A 2019-09-10 2019-09-10 Apparatus and method for controlling weather effects in marine video based on neural network KR20210030573A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190111835A KR20210030573A (en) 2019-09-10 2019-09-10 Apparatus and method for controlling weather effects in marine video based on neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190111835A KR20210030573A (en) 2019-09-10 2019-09-10 Apparatus and method for controlling weather effects in marine video based on neural network

Publications (1)

Publication Number Publication Date
KR20210030573A true KR20210030573A (en) 2021-03-18

Family

ID=75232258

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190111835A KR20210030573A (en) 2019-09-10 2019-09-10 Apparatus and method for controlling weather effects in marine video based on neural network

Country Status (1)

Country Link
KR (1) KR20210030573A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116437121A (en) * 2023-04-28 2023-07-14 华风气象传媒集团有限责任公司 Meteorological video processing method and system
WO2023158068A1 (en) * 2022-02-15 2023-08-24 김승모 Learning system and method for improving object detection rate

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023158068A1 (en) * 2022-02-15 2023-08-24 김승모 Learning system and method for improving object detection rate
CN116437121A (en) * 2023-04-28 2023-07-14 华风气象传媒集团有限责任公司 Meteorological video processing method and system
CN116437121B (en) * 2023-04-28 2023-10-13 华风气象传媒集团有限责任公司 Meteorological video processing method and system

Similar Documents

Publication Publication Date Title
US10748324B2 (en) Generating stylized-stroke images from source images utilizing style-transfer-neural networks with non-photorealistic-rendering
US11055828B2 (en) Video inpainting with deep internal learning
US11663798B2 (en) System and method for manipulating two-dimensional (2D) images of three-dimensional (3D) objects
CN114746904A (en) Three-dimensional face reconstruction
KR20210030573A (en) Apparatus and method for controlling weather effects in marine video based on neural network
CN115457169A (en) Voice-driven human face animation generation method and system
CN115131492A (en) Target object relighting method and device, storage medium and background replacement method
Liu et al. Facial image inpainting using multi-level generative network
CN112070703B (en) Method and system for enhancing underwater visual image of bionic robot fish
CN116310008B (en) Image processing method based on less sample learning and related equipment
JP2019191973A (en) Learning image generation apparatus, learning image generation method, image recognition device, and image recognition method
CN112734649A (en) Image degradation method and system based on lightweight neural network
CN115631274B (en) Face image generation method, device, equipment and storage medium
US11403491B2 (en) Object recognition from images using cad models as prior
KR20210048281A (en) Apparatus and method for generating video with background removed
KR102393761B1 (en) Method and system of learning artificial neural network model for image processing
CN116188720A (en) Digital person generation method, device, electronic equipment and storage medium
WO2022252372A1 (en) Image processing method, apparatus and device, and computer-readable storage medium
CN115082966A (en) Pedestrian re-recognition model training method, pedestrian re-recognition method, device and equipment
KR102583686B1 (en) Method and apparatus for detecting objects
CN116266376A (en) Rendering method and device
CN112184884A (en) Three-dimensional model construction method and device, computer equipment and storage medium
KR20210136331A (en) Fire image generation apparatus
KR102427657B1 (en) Apparatus for generating color of image using artificial neural network and method therefor
CN117115453B (en) Target image generation method, device and computer readable storage medium