KR20210041039A - 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 - Google Patents

이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 Download PDF

Info

Publication number
KR20210041039A
KR20210041039A KR1020217006639A KR20217006639A KR20210041039A KR 20210041039 A KR20210041039 A KR 20210041039A KR 1020217006639 A KR1020217006639 A KR 1020217006639A KR 20217006639 A KR20217006639 A KR 20217006639A KR 20210041039 A KR20210041039 A KR 20210041039A
Authority
KR
South Korea
Prior art keywords
image
target
background
target object
image block
Prior art date
Application number
KR1020217006639A
Other languages
English (en)
Inventor
밍양 황
창쉬 장
춘시아오 리우
지안핑 쉬
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20210041039A publication Critical patent/KR20210041039A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

본 발명은 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체에 관한 것으로, 상기 방법은 제1 이미지와, 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여, 하나 이상의 제1 부분 이미지 블록을 생성하는 것과, 제1 이미지와, 제2 시멘틱 세그먼테이션 마스크에 기초하여, 배경 이미지 블록을 생성하는 것과, 하나 이상의 제1 부분 이미지 블록과 배경 이미지 블록을 융합 처리하여, 목표 이미지를 취득하는 것을 포함하는 것으로, 본 발명의 실시예에 따른 이미지 처리 방법에 의하면, 제1 시멘틱 세그먼테이션 마스크에 나타내는 목표 대상물의 윤곽과 위치, 제2 시멘틱 세그먼테이션 마스크에 나타내는 배경 영역의 윤곽과 위치, 및 목표 스타일을 갖는 제1 이미지에 기초하여 목표 이미지를 생성할 수 있어 수집 비용이 낮은 제1 이미지를 선택 가능하고, 아울러 임의의 윤곽과 위치를 갖는 목표 대상물의 이미지 생성에 반복 사용할 수 있어 이미지의 생성 비용이 저감되고 처리 효율이 향상되는 것이다.

Description

이미지 처리 방법 및 장치, 전자 기기 및 기억 매체
본 발명은 2019년 8월 22일에 중국 국가지식산권국에 제출된, 출원번호가 201910778128.3이고, 발명의 명칭이 「이미지 처리 방법 및 장치, 전자 기기 및 기억 매체」인 중국 특허출원의 우선권을 주장하고, 그 모든 내용은 원용함으로써 본 발명에 포함된다.
본 발명은 컴퓨터 기술의 분야에 관한 것으로, 특히 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체에 관한 것이다.
관련 기술에서는 이미지의 생성 중에 뉴럴 네트워크에 의해 원이미지의 스타일을 변환하여 새로운 스타일을 갖는 이미지를 생성할 수 있다. 한편, 하나의 스타일 변환용의 뉴럴 네트워크를 트레이닝 하기 위해서는 통상 이미지의 내용이 동일하지만 스타일이 상이한 2군의 이미지가 필요하나, 이러한 2군의 이미지를 수집하는 것은 곤란하다.
본 발명은 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체를 제공한다.
본 발명의 일 측면에 의하면, 목표 스타일을 갖는 제1 이미지와, 1종의 목표 대상물의 존재 영역을 나타내는 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 1종의 목표 대상물을 포함하는 하나 이상의 제1 부분 이미지 블록을 생성하는 것과, 상기 제1 이미지와, 하나 이상의 목표 대상물의 존재 영역 이외의 배경 영역을 나타내는 제2 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 배경을 포함하는 배경 이미지 블록을 생성하는 것과, 하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여, 목표 스타일을 갖는 목표 대상물과 목표 스타일을 갖는 배경을 포함하는 목표 이미지를 취득하는 것을 포함하는 이미지 처리 방법이 제공된다.
본 발명의 실시예에 따른 이미지 처리 방법에 의하면, 제1 시멘틱 세그먼테이션 마스크에 나타내는 목표 대상물의 윤곽과 위치, 제2 시멘틱 세그먼테이션 마스크에 나타내는 배경 영역의 윤곽과 위치, 및 목표 스타일을 갖는 제1 이미지에 기초하여 목표 이미지를 생성할 수 있다. 이미지의 내용이 동일하지만 스타일이 상이한 2군의 이미지를 수집하지 않고 제1 이미지만을 수집함으로써 이미지 수집의 곤란성이 저감된다. 또한 제1 이미지는 임의의 윤곽과 위치를 갖는 목표 대상물의 이미지 생성에 반복 사용됨으로써 이미지의 생성 비용이 저감된다.
가능한 일 실현형태에서는, 하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여 목표 이미지를 취득하는 것은, 각 제1 부분 이미지 블록을 확대 축소 처리하여 상기 배경 이미지 블록과의 스티칭에 적합한 사이즈를 갖는 제2 부분 이미지 블록을 취득하는 것과, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 상기 목표 이미지를 취득하는 것을 포함한다.
가능한 일 실현형태에서는, 상기 배경 이미지 블록은 배경 영역에 목표 스타일을 갖는 배경이 포함되고 아울러 목표 대상물의 존재 영역이 비어 있는 이미지이고, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 목표 이미지를 취득하는 것은, 하나 이상의 제2 부분 이미지 블록을 상기 배경 이미지 블록에서의 대응하는 목표 대상물의 존재 영역에 부가하여 상기 목표 이미지를 취득하는 것을 포함한다.
이러한 형태에 의하면, 제1 시멘틱 세그먼테이션 마스크, 제2 시멘틱 세그먼테이션 마스크 및 제1 이미지에 의해 목표 스타일을 갖는 목표 이미지를 생성할 수 있고, 각 목표 대상물의 제1 시멘틱 세그먼테이션 마스크에 대해, 대응하는 제2 부분 이미지 블록을 생성하여, 생성된 목표 대상물을 다양화할 수 있다. 또한 제2 부분 이미지 블록은 제1 시멘틱 세그먼테이션 마스크와 제1 이미지에 기초하여 생성됨으로써, 스타일 변환용의 뉴럴 네트워크를 사용하여 새로운 스타일을 갖는 이미지를 생성할 필요가 없고 대량의 샘플을 사용하여 스타일 변환용의 뉴럴 네트워크에 대한 교사 트레이닝(supervised Training)을 행할 필요도 없고 추가로 대량의 샘플의 라벨링을 할 필요도 없어 이미지 처리의 효율이 향상된다.
가능한 일 실현형태에서는, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리한 후 및 상기 목표 이미지를 취득하기 전에, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록 간의 엣지를 평활화 처리하여 제2 이미지를 취득하는 것과, 상기 제2 이미지에서의 목표 대상물의 존재 영역 및 배경 영역에 대해 스타일 융합 처리를 행하여 상기 목표 이미지를 취득하는 것을 추가로 포함한다.
이러한 형태에 의하면, 목표 대상물의 존재 영역과 배경 영역 간의 엣지를 평활화 처리하여 이미지에 대해 스타일 융합 처리를 행할 수 있으므로 생성된 목표 이미지가 자연스럽고 조화로우며 보다 리얼성이 높은 것이 된다.
가능한 일 실현형태에서는, 피처리 이미지에 대해 시멘틱 세그먼테이션 처리를 행하여 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득하는 것을 추가로 포함한다.
가능한 일 실현형태에서는, 제1 이미지와 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여 하나 이상의 제1 부분 이미지 블록을 생성하는 것과, 상기 제1 이미지와 제2 시멘틱 세그먼테이션 마스크에 기초하여 배경 이미지 블록을 생성하는 것은 이미지 생성 네트워크에 의해 실행되고, 상기 이미지 생성 네트워크는 트레이닝되는 이미지 생성 네트워크에 의해 제1 샘플 이미지와 시멘틱 세그먼테이션 샘플 마스크에 기초하여 이미지 블록을 생성하는 단계로서, 여기서, 상기 제1 샘플 이미지는 임의의 스타일을 갖는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크는 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내거나 혹은 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크가 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 목표 대상물이 포함되고, 상기 시멘틱 세그먼테이션 샘플 마스크가 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 배경이 포함되는 단계와, 생성된 이미지 블록, 상기 제1 샘플 이미지 및 상기 제2 샘플 이미지에 기초하여 상기 트레이닝되는 이미지 생성 네트워크의 손실 함수를 결정하는 단계와, 결정된 손실 함수에 기초하여, 상기 트레이닝되는 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와, 생성된 이미지 블록 또는 제2 샘플 이미지를 입력 이미지로 하고, 트레이닝되는 이미지 판별기를 사용하여 상기 입력 이미지에서의 피식별 부분의 진위를 식별하는 단계로서, 생성된 이미지 블록에 목표 스타일을 갖는 목표 대상물이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 목표 대상물이 되고, 생성된 이미지 블록에 목표 스타일을 갖는 배경이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 배경이 되는 단계와, 상기 트레이닝되는 이미지 판별기의 출력 결과 및 상기 입력 이미지에 기초하여, 상기 트레이닝되는 이미지 판별기와 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와, 트레이닝되는 이미지 생성 네트워크의 트레이닝 종료 조건과 트레이닝되는 이미지 판별기의 트레이닝 종료 조건 간의 밸런스가 이루어질 때까지, 네트워크 파라미터값이 조정된 이미지 생성 네트워크를 트레이닝되는 이미지 생성 네트워크로 하고 아울러 네트워크 파라미터값이 조정된 이미지 판별기를 트레이닝되는 이미지 판별기로 하여 상기의 단계를 반복 실행하는 단계에 의해 트레이닝된 것이다.
이러한 형태에 의하면, 임의의 시멘틱 세그먼테이션 마스크와 임의의 스타일의 샘플 이미지에 의해 이미지 생성 네트워크를 트레이닝할 수 있다. 시멘틱 세그먼테이션 마스크와 샘플 이미지는 모두 재이용할 수 있고, 예를 들면, 동일군의 시멘틱 세그먼테이션 마스크 및 상이한 샘플 이미지를 사용하여 상이한 이미지 생성 네트워크를 트레이닝하거나, 또는 동일한 샘플 이미지 및 시멘틱 세그먼테이션 마스크에 의해 이미지 생성 네트워크를 트레이닝할 수 있으나, 트레이닝 샘플을 취득하기 위해 대량의 실제 이미지의 라벨링을 할 필요는 없어 라벨링의 비용이 절약될 뿐 아니라, 트레이닝된 이미지 생성 네트워크에 의해 생성되는 이미지는 샘플 이미지의 스타일을 갖고, 다른 내용의 이미지를 생성할 때 재트레이닝할 필요가 없으므로 처리 효율이 향상된다.
본 발명의 다른 방면에 의하면, 목표 스타일을 갖는 제1 이미지와, 1종의 목표 대상물의 존재 영역을 나타내는 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 1종의 목표 대상물을 포함하는 하나 이상의 제1 부분 이미지 블록을 생성하기 위한 제1 생성 모듈과, 상기 제1 이미지와, 하나 이상의 목표 대상물의 존재 영역 이외의 배경 영역을 나타내는 제2 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 배경을 포함하는 배경 이미지 블록을 생성하기 위한 제2 생성 모듈과, 하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여, 목표 스타일을 갖는 목표 대상물과 목표 스타일을 갖는 배경을 포함하는 목표 이미지를 취득하기 위한 융합 모듈을 포함하는 이미지 처리 장치가 제공된다.
가능한 일 실현형태에서는, 상기 융합 모듈은 추가로, 각 제1 부분 이미지 블록을 확대 축소 처리하여 상기 배경 이미지 블록과의 스티칭에 적합한 사이즈를 갖는 제2 부분 이미지 블록을 취득하고, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 상기 목표 이미지를 취득하도록 구성된다.
가능한 일 실현형태에서는, 상기 배경 이미지 블록은 배경 영역에 목표 스타일을 갖는 배경이 포함되고 아울러 목표 대상물의 존재 영역이 비어 있는 이미지이고, 상기 융합 모듈은 추가로, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 목표 이미지를 취득하는 것은, 하나 이상의 제2 부분 이미지 블록을 상기 배경 이미지 블록에서의 대응하는 목표 대상물의 존재 영역에 부가하여 상기 목표 이미지를 취득하도록 구성된다.
가능한 일 실현형태에서는, 상기 융합 모듈은 추가로, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리한 후 및 상기 목표 이미지를 취득하기 전에, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록 간의 엣지를 평활화 처리하여 제2 이미지를 취득하는 것과, 상기 제2 이미지에서의 목표 대상물의 존재 영역 및 배경 영역에 대해 스타일 융합 처리를 행하여 상기 목표 이미지를 취득하는 것에 사용된다.
가능한 일 실현형태에서는, 상기 장치는 피처리 이미지에 대해 시멘틱 세그먼테이션 처리를 행하여 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득하기 위한 세그먼테이션 모듈을 추가로 포함한다.
가능한 일 실현형태에서는, 상기 제1 생성 모듈과 상기 제2 생성 모듈의 기능은 이미지 생성 네트워크에 의해 실행되고, 상기 장치는 트레이닝 모듈을 추가로 포함하고, 상기 트레이닝 모듈은, 트레이닝되는 이미지 생성 네트워크에 의해 제1 샘플 이미지와 시멘틱 세그먼테이션 샘플 마스크에 기초하여 이미지 블록을 생성하는 단계로서, 여기서, 상기 제1 샘플 이미지는 임의의 스타일을 갖는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크는 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내거나 혹은 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크가 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 목표 대상물이 포함되고, 상기 시멘틱 세그먼테이션 샘플 마스크가 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 배경이 포함되는 단계와, 생성된 이미지 블록, 상기 제1 샘플 이미지 및 상기 제2 샘플 이미지에 기초하여 상기 트레이닝되는 이미지 생성 네트워크의 손실 함수를 결정하는 단계와, 결정된 손실 함수에 기초하여, 상기 트레이닝되는 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와, 생성된 이미지 블록 또는 제2 샘플 이미지를 입력 이미지로 하고, 트레이닝되는 이미지 판별기를 사용하여 상기 입력 이미지에서의 피식별 부분의 진위를 식별하는 단계로서, 생성된 이미지 블록에 목표 스타일을 갖는 목표 대상물이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 목표 대상물이 되고, 생성된 이미지 블록에 목표 스타일을 갖는 배경이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 배경이 되는 단계와, 상기 트레이닝되는 이미지 판별기의 출력 결과 및 상기 입력 이미지에 기초하여, 상기 트레이닝되는 이미지 판별기와 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와, 트레이닝되는 이미지 생성 네트워크의 트레이닝 종료 조건과 트레이닝되는 이미지 판별기의 트레이닝 종료 조건 간의 밸런스가 이루어질 때까지, 네트워크 파라미터값이 조정된 이미지 생성 네트워크를 트레이닝되는 이미지 생성 네트워크로 하고 아울러 네트워크 파라미터값이 조정된 이미지 판별기를 트레이닝되는 이미지 판별기로 하여 상기의 단계를 반복 실행하는 단계에 의해 트레이닝하여 상기 이미지 생성 네트워크를 얻는다.
본 발명의 다른 방면에 의하면, 프로세서와, 프로세서에 의해 실행 가능한 명령을 기억하기 위한 메모리를 포함하고, 상기 프로세서는 상기 이미지 처리 방법을 실행하도록 구성되는 전자 기기가 제공된다.
본 발명의 다른 방면에 의하면, 컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체로서, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 실행되면 상기 이미지 처리 방법을 실현하는 컴퓨터 판독 가능 기억 매체가 제공된다.
본 발명의 다른 방면에 의하면, 컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 가동되면, 상기 전자 기기의 프로세서에, 상기 이미지 처리 방법을 실현하기 위한 명령을 실행시키는 컴퓨터 프로그램이 제공된다.
아울러 상술한 개략적인 설명 및 다음의 상세한 설명은 예시적 및 해석적인 것에 지나지 않고, 본 발명을 한정하는 것은 아니다.
이하, 도면을 참고하면서 예시적인 실시예를 상세히 설명함으로써 본 발명의 다른 특징 및 측면은 명료해진다.
여기서, 본 명세서의 일부로서 포함되는 도면은, 본 발명의 실시예에 적합하고, 명세서와 함께 본 발명의 기술적 해결 수단의 설명에 사용된다.
도 1은 본 발명의 실시예에 따른 이미지 처리 방법의 흐름도를 나타낸다.
도 2는 본 발명의 실시예에 따른 제1 시멘틱 세그먼테이션 마스크의 모식도를 나타낸다.
도 3은 본 발명의 실시예에 따른 제2 시멘틱 세그먼테이션 마스크의 모식도를 나타낸다.
도 4는 본 발명의 실시예에 따른 이미지 처리 방법의 흐름도를 나타낸다.
도 5는 본 발명의 실시예에 따른 이미지 처리 방법의 응용 모식도를 나타낸다.
도 6은 본 발명의 실시예에 따른 이미지 처리 장치의 블록도를 나타낸다.
도 7은 본 발명의 실시예에 따른 이미지 처리 장치의 블록도를 나타낸다.
도 8은 본 발명의 실시예에 따른 전자 기기의 블록도를 나타낸다.
도 9는 본 발명의 실시예에 따른 전자 기기의 블록도를 나타낸다.
이하에 도면을 참조하면서 본 발명의 다양한 예시적 실시예, 특징 및 측면을 상세하게 설명한다. 도면에 있어서, 동일한 부호가 동일 또는 유사한 기능의 요소를 나타낸다. 도면에 있어서 실시예의 다양한 측면을 나타냈지만, 특별히 언급이 없는 한, 비례에 따라 도면을 그릴 필요가 없다.
여기에서의 용어 「예시적」이란 「예, 실시예로서 사용되는 것 또는 설명적인 것」을 의미한다. 여기에서 「예시적」으로 설명되는 어떠한 실시예도 다른 실시예보다 바람직하거나 또는 우수한 것으로 이해해서는 안된다.
본 명세서에서의 용어 「및/또는」은 관련 대상의 관련 관계를 기술하기 위한 것에 불과하고, 3개의 관계가 존재 가능함을 나타내며, 예를 들면, A 및/또는 B는 A만이 존재하거나, A와 B 전부가 존재하거나, B만이 존재하는 3개의 경우를 나타내도 된다. 또한, 본 명세서에서, 용어 「하나 이상」은 복수 중 하나 이상 또는 복수 중 적어도 2개의 임의의 조합을 나타내고, 예를 들면, A, B, 및 C 중 하나 이상을 포함하는 것은 A, B 및 C로 구성되는 집합에서 선택된 어느 하나 또는 복수의 요소를 포함하는 것을 나타내도 된다.
또한, 본 발명을 보다 효과적으로 설명하기 위해, 이하의 구체적인 실시형태에서 다양한 구체적인 상세를 나타낸다. 당업자라면 본 발명은 어떠한 구체적인 상세가 없어도 동일하게 실시할 수 있는 것으로 이해해야 한다. 일부 실시예에서는 본 발명의 취지를 강조하기 위해 당업자가 숙지하고 있는 방법, 수단, 요소 및 회로에 대해 상세한 설명을 하지 않는다.
도 1은 본 발명의 실시예에 따른 이미지 처리 방법의 흐름도를 나타낸다. 도 1에 나타내는 바와 같이, 상기 방법은 목표 스타일을 갖는 제1 이미지와, 1종의 목표 대상물의 존재 영역을 나타내는 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 1종의 목표 대상물을 포함하는 하나 이상의 제1 부분 이미지 블록을 생성하는 단계(S11)와, 상기 제1 이미지와, 하나 이상의 목표 대상물의 존재 영역 이외의 배경 영역을 나타내는 제2 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 배경을 포함하는 배경 이미지 블록을 생성하는 단계(S12)와, 하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여, 목표 스타일을 갖는 목표 대상물과 목표 스타일을 갖는 배경을 포함하는 목표 이미지를 취득하는 단계(S13)를 포함한다.
본 발명의 실시예에 따른 이미지 처리 방법에 의하면, 제1 시멘틱 세그먼테이션 마스크에 나타내는 목표 대상물의 윤곽과 위치, 제2 시멘틱 세그먼테이션 마스크에 나타내는 배경 영역의 윤곽과 위치, 및 목표 스타일을 갖는 제1 이미지에 기초하여 목표 이미지를 생성할 수 있다. 이미지의 내용이 동일하지만 스타일이 상이한 2군의 이미지를 수집하지 않고 제1 이미지만을 수집함으로써 이미지 수집의 곤란성이 저감된다. 아울러 제1 이미지는 임의의 윤곽과 위치를 갖는 목표 대상물의 이미지 생성에 반복 사용됨으로써 이미지의 생성 비용이 저감된다.
상기 이미지 처리 방법의 실행 주체는 이미지 처리 장치여도 된다. 예를 들면, 이미지 처리 방법은 사용자측 기기(User Equipment, UE), 휴대 기기, 사용자 단말, 단말, 셀룰러 폰, 무선 전화, 퍼스널 디지털 어시스턴트(Personal Digital Assistant, PDA), 휴대용 기기, 계산 장치, 차재 장치, 웨어러블 장치 등의 단말 장치, 서버 또는 다른 처리 장치에 의해 실행되어도 된다. 일부 가능한 실시형태에서는 이 이미지 처리 방법은 프로세서에 의해 메모리에 기억되어 있는 컴퓨터 판독 가능 명령을 불러냄으로써 실현될 수도 있다.
가능한 일실시형태에서는, 상기 제1 이미지는 하나 이상의 목표 대상물을 포함하고 아울러 목표 스타일을 갖는 것이다. 이미지의 스타일은 이미지 내의 명암, 콘트라스트, 조명, 색채, 예술적 특징이나 아트워크 등을 포함한다. 예시적으로 제1 이미지는, 주간, 야간, 비나 안개 등의 환경에서 촬상된 RGB 이미지여도 되고, 제1 이미지에는 예를 들면, 자동차, 비자동차, 사람, 교통 표지, 교통 신호기, 나무, 동물, 건물, 장애물 등의 하나 이상의 목표 대상물이 포함되어 있다. 제1 이미지에서의 목표 대상물의 존재 영역 이외의 영역이 배경 영역이다.
가능한 일실시형태에서는, 제1 시멘틱 세그먼테이션 마스크는 목표 대상물의 존재 영역의 라벨링을 하는 것이다. 예를 들면, 하나의 이미지에는 복수의 차량, 사람 및/또는 비자동차 등의 목표 대상물이 포함되어 있고, 제1 시멘틱 세그먼테이션 마스크는 목표 대상물의 존재 영역의 위치의 라벨링을 한 세그먼테이션 계수도(예를 들면, 이진 세그먼테이션 계수도)여도 된다. 예를 들면, 목표 대상물의 존재 영역에서는 세그먼테이션 계수는 1이고, 배경 영역에서는 세그먼테이션 계수는 0이고, 제1 시멘틱 세그먼테이션 마스크는 목표 대상물(예를 들면, 차량, 사람, 장애물 등)의 윤곽을 나타내도 된다.
도 2는 본 발명의 실시예에 따른 제1 시멘틱 세그먼테이션 마스크의 모식도를 나타낸다. 도 2에 나타내는 바와 같이, 하나의 이미지에는 차량이 포함되어 있고 이 이미지의 제1 시멘틱 세그먼테이션 마스크는 상기 차량의 존재 영역의 위치의 라벨링을 한 세그먼테이션 계수도이다. 즉, 상기 차량의 존재 영역에서는 세그먼테이션 계수는 1(도 2의 빗금으로 나타내는 부분)이고, 배경 영역에서는 세그먼테이션 계수는 0이다.
가능한 일 실시형태에서는, 제2 시멘틱 세그먼테이션 마스크는 목표 대상물의 존재 영역 이외의 배경 영역의 라벨링을 하는 것이다. 예를 들면, 하나의 이미지에는 복수의 차량, 사람 및/또는 비자동차 등의 목표 대상물이 포함되어 있고, 제2 시멘틱 세그먼테이션 마스크는 배경 영역의 위치의 라벨링을 한 세그먼테이션 계수도(예를 들면, 이진 세그먼테이션 계수도)여도 된다. 예를 들면, 목표 대상물의 존재 영역에서 세그먼테이션 계수는 0이고, 배경 영역에서는 세그먼테이션 계수는 1이다.
도 3은 본 발명의 실시예에 따른 제2 시멘틱 세그먼테이션 마스크의 모식도를 나타낸다. 도 3에 나타내는 바와 같이, 하나의 이미지에는 차량이 포함되어 있고, 상기 이미지의 제2 시멘틱 세그먼테이션 마스크는 상기 차량의 존재 영역 이외의 배경 영역의 위치의 라벨링을 한 세그먼테이션 계수도이다. 즉, 상기 차량의 존재 영역에서는 세그먼테이션 계수는 0이고, 배경 영역에서는 세그먼테이션 계수는 1(도 3의 빗금으로 나타내는 부분)이다.
가능한 일 실시형태에서는, 목표 대상물을 포함하는 피처리 이미지에 기초하여 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득할 수 있다.
도 4는 본 발명의 실시예에 따른 이미지 처리 방법의 흐름도를 나타낸다. 도 4에 나타내는 바와 같이, 상기 방법은 피처리 이미지에 대해 시멘틱 세그먼테이션 처리를 행하여 상기 제1 시멘틱 세그먼테이션 마스크와 상기 제2 시멘틱 세그먼테이션 마스크를 취득하는 단계(S14)를 추가로 포함한다.
가능한 일 실시형태에서는, 단계(S14)에서 피처리 이미지는 임의의 목표 대상물을 포함하는 임의의 이미지여도 되고, 피처리 이미지의 라벨링을 함으로써 피처리 이미지의 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득할 수 있다. 또는 시멘틱 세그먼테이션 네트워크에 의해 피처리 이미지에 대해 시멘틱 세그먼테이션 처리를 행하여 피처리 이미지의 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득할 수 있다. 본 발명에서는 시멘틱 세그먼테이션 처리의 형태가 한정되지 않는다.
가능한 일 실시형태에서는, 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크는 랜덤으로 생성되는 것이어도 된다. 예를 들면, 어느 구체적인 이미지에 대해 시멘틱 세그먼테이션 처리를 행하지 않고 이미지 생성 네트워크를 사용하여 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 랜덤으로 생성할 수 있다. 본 발명에서는 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크의 취득 형태가 한정되지 않는다.
가능한 일 실시형태에서는, 단계(S11)에서 목표 스타일을 갖는 제1 이미지와 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여 이미지 생성 네트워크에 의해 상기 제1 부분 이미지 블록을 취득할 수 있다. 상기 제1 시멘틱 세그먼테이션 마스크는 복수의 목표 대상물의 시멘틱 세그먼테이션 마스크여도 된다. 예를 들면, 상기 목표 대상물은 보행자, 자동차, 비자동차 등이어도 되고, 제1 시멘틱 세그먼테이션 마스크는 목표 대상물의 윤곽을 나타내도 되고, 상기 이미지 생성 네트워크는 합성곱 뉴럴 네트워크 등의 딥 러닝 뉴럴 네트워크를 포함해도 된다. 본 발명에서는 이미지 생성 네트워크의 종류가 한정되지 않는다. 예시적으로, 상기 제1 부분 이미지 블록에는 목표 스타일을 갖는 목표 대상물이 포함되어 있다. 예를 들면, 생성된 제1 부분 이미지 블록은 목표 스타일을 갖는 보행자의 이미지 블록, 자동차의 이미지 블록, 비자동차의 이미지 블록 또는 다른 물체의 이미지 블록 중 하나 이상여도 된다.
가능한 일 실시형태에서는, 제1 이미지와 제1 시멘틱 세그먼테이션 마스크에 기초하여 제1 부분 이미지 블록을 생성해도 된다. 예를 들면, 제2 시멘틱 세그먼테이션 마스크의 목표 대상물의 존재 영역에서는 세그먼테이션 계수는 0이고, 배경 영역에서는 세그먼테이션 계수는 1이므로, 제2 시멘틱 세그먼테이션 마스크는 피처리 이미지에서의 하나 이상의 목표 대상물의 위치 관계를 반영할 수 있다. 위치 관계가 상이하면 스타일이 상이할 가능성이 있고, 예를 들면, 목표 대상물끼리 차폐나 그림자가 생길 가능성이 있거나, 혹은 위치 관계가 상이하기 때문에 조명 조건이 상이할 가능성이 있다. 이 때문에, 제1 이미지와 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크에 기초하여 생성된 부분 이미지 블록은 위치 관계가 상이하므로 스타일도 완전히 동일하지 않을 가능성이 있다.
예시적으로, 제1 시멘틱 세그먼테이션 마스크는 피처리 이미지에서의 목표 대상물(예를 들면, 차량)의 존재 영역의 라벨링을 한 것이고, 이미지 생성 네트워크는 제1 시멘틱 세그먼테이션 마스크에 의해 라벨링된 목표 대상물의 윤곽을 갖고 아울러 제1 이미지의 목표 스타일을 갖는 RGB 이미지 블록인 제1 부분 이미지 블록을 생성할 수 있다.
가능한 일 실시형태에서는, 단계(S12)에서 제2 시멘틱 세그먼테이션 마스크와 목표 스타일을 갖는 제1 이미지에 기초하여 이미지 생성 네트워크에 의해 배경 이미지 블록을 생성할 수 있다. 즉, 제2 시멘틱 세그먼테이션 마스크와 제1 이미지를 이미지 생성 네트워크로 입력하여 배경 이미지 블록을 취득할 수 있다.
예시적으로, 제2 시멘틱 세그먼테이션 마스크는 피처리 이미지에서의 배경 영역의 라벨링을 한 것이고, 이미지 생성 네트워크는 제2 시멘틱 세그먼테이션 마스크에 의해 라벨링된 배경의 윤곽을 갖고 아울러 제1 이미지의 목표 스타일을 갖는 RGB 이미지 블록인 배경 이미지 블록을 생성할 수 있다. 상기 배경 이미지 블록은 배경 영역에 상기 목표 스타일을 갖는 배경을 포함하고 아울러 목표 대상물의 존재 영역이 비어 있는 이미지이다.
가능한 일 실시형태에서는, 단계(S13)에서 하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여 목표 이미지를 취득한다. 단계(S13)는 각 제1 부분 이미지 블록을 확대 축소 처리하여 상기 배경 이미지 블록과의 스티칭에 적합한 사이즈를 갖는 제2 부분 이미지 블록을 취득하는 것과, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 상기 목표 이미지를 취득하는 것을 포함할 수 있다.
가능한 일 실시형태에서는, 제1 부분 이미지 블록은 제1 시멘틱 세그먼테이션 마스크에서의 목표 대상물의 윤곽과 제1 이미지의 목표 스타일에 기초하여 생성된 목표 대상물의 윤곽을 갖는 이미지 블록이다. 그러나, 생성 중에 목표 대상물의 윤곽의 사이즈가 변화할 가능성이 있으므로, 제1 부분 이미지 블록을 확대 축소 처리하여 배경 이미지 블록의 사이즈에 대응하는 제2 부분 이미지 블록을 취득할 수 있다. 예를 들면, 제2 부분 이미지 블록의 사이즈는 배경 이미지 블록에서의 목표 대상물의 존재 영역(즉, 비어 있는 영역)의 사이즈와 일치한다.
가능한 일 실시형태에서는, 제2 부분 이미지 블록과 배경 이미지 블록을 스티칭 처리할 수 있다. 이 단계는 하나 이상의 제2 부분 이미지 블록을 상기 배경 이미지 블록에서의 대응하는 목표 대상물의 존재 영역에 부가하여 상기 목표 이미지를 취득하는 것을 포함할 수 있다. 목표 이미지에서의 목표 대상물의 존재 영역이 제2 부분 이미지 블록이고, 목표 이미지에서의 배경 영역이 배경 이미지 블록이다. 예를 들면, 사람, 자동차, 비자동차의 목표 대상물의 제2 부분 이미지 블록을 배경 이미지 블록에서의 대응하는 위치에 부가할 수 있다. 목표 이미지에서의 목표 대상물의 존재 영역과 배경 영역은 모두 목표 스타일을 갖지만, 스티칭된 목표 이미지 영역간의 엣지는 충분한 평활성을 갖고 있지 않을 가능성이 있다.
이러한 형태에 의하면, 제1 시멘틱 세그먼테이션 마스크, 제2 시멘틱 세그먼테이션 마스크 및 제1 이미지에 의해 목표 스타일을 갖는 목표 이미지를 생성할 수 있고, 각 목표 대상물의 제1 시멘틱 세그먼테이션 마스크에 대해, 대응하는 제2 부분 이미지 블록을 생성하여, 생성된 목표 대상물을 다양화할 수 있다. 또한 제2 부분 이미지 블록은 제1 시멘틱 세그먼테이션 마스크와 제1 이미지에 기초하여 생성됨으로써, 스타일 변환용의 뉴럴 네트워크를 사용하여 새로운 스타일을 갖는 이미지를 생성할 필요가 없고, 대량의 샘플을 사용하여 스타일 변환용의 뉴럴 네트워크에 대한 지도 트레이닝을 행할 필요도 없고, 추가로 대량의 샘플의 라벨링을 할 필요도 없어 이미지 처리의 효율이 향상된다.
가능한 일 실시형태에서는, 스티칭에 의해 형성된 목표 이미지의 목표 대상물의 존재 영역과 배경 영역 간의 엣지는 스티칭에 의해 형성된 것으로, 충분한 평활성을 갖고 있지 않을 가능성이 있으므로, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리한 후 및 상기 목표 이미지를 취득하기 전에 평활화 처리를 행하여 목표 이미지를 취득할 수 있다.
가능한 일 실시형태에서는, 상기 방법은, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리한 후 및 상기 목표 이미지를 취득하기 전에, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록 간의 엣지를 평활화 처리하여 제2 이미지를 취득하는 것과, 상기 제2 이미지에서의 목표 대상물의 존재 영역 및 배경 영역에 대해 스타일 융합 처리를 행하여 상기 목표 이미지를 취득하는 것을 추가로 포함한다.
가능한 일 실시형태에서는, 융합 네트워크에 의해 상기 제2 이미지에서의 목표 대상물과 배경을 융합 처리하여 목표 이미지를 취득할 수 있다.
가능한 일 실시형태에서는, 융합 네트워크에 의해 목표 대상물의 존재 영역과 배경 영역을 융합 처리할 수 있다. 상기 융합 네트워크는 합성곱 뉴럴 네트워크 등의 딥 러닝 뉴럴 네트워크여도 된다. 본 발명에서는 융합 네트워크의 종류는 한정되지 않는다. 예시적으로 융합 네트워크는 목표 대상물의 존재 영역과 배경 영역 간의 엣지의 위치를 특정하거나 또는 배경 이미지 블록에서의 비어 있는 영역의 위치에 기초하여 상기 엣지의 위치를 직접 특정하고, 엣지 근방의 화소점을 평활화 처리하여, 예를 들면, 엣지 근방의 화소점을 가우시안 필터 평활화 처리하여 상기 제2 이미지를 취득할 수 있다. 본 발명에서는 평활화 처리의 형태는 한정되지 않는다.
가능한 일 실시형태에서는, 융합 네트워크에 의해 제2 이미지에 대해 스타일 융합 처리를 행할 수 있다. 예를 들면, 제2 이미지에서의 목표 대상물의 존재 영역과 배경 영역의 스타일이 일치하고 또한 조화롭도록, 목표 대상물의 존재 영역과 배경 영역의 명암, 콘트라스트, 조명, 색채, 예술적 특징이나 아트워크 등의 스타일을 미세 조정하여 상기 목표 이미지를 취득할 수 있다. 본 발명에서는 스타일 융합 처리의 형태는 한정되지 않는다.
다른 예에서는, 동일 스타일의 배경에서, 상이한 목표 대상물의 스타일이 조금 상이할 가능성이 있다. 예를 들면, 야간의 스타일의 배경에서는, 상이한 목표 대상물은 그 존재 위치가 상이함으로써 수광한 광의 조사도 상이하여, 각 목표 대상물의 스타일이 조금 상이할 가능성이 있다. 각 목표 대상물의 존재 영역과 배경 영역의 스타일이 보다 조화롭도록 목표 이미지에서의 목표 대상물의 위치, 및 목표 대상물의 존재 위치 가까이에 있는 배경 영역의 스타일에 기초하여 상기 스타일 융합 처리에 의해 각 목표 대상물의 스타일을 미세 조정할 수 있다.
이러한 형태에 의하면, 목표 대상물의 존재 영역과 배경 영역 간의 엣지를 평활화 처리하여 이미지에 대해 스타일 융합 처리를 행할 수 있으므로 생성된 목표 이미지가 자연스럽고 조화로우며 또한 보다 리얼성이 높은 것이 된다.
가능한 일 실시형태에서는, 이미지 생성 네트워크와 융합 네트워크에 의해 목표 이미지를 생성하기 전에 이미지 생성 네트워크와 융합 네트워크를 트레이닝할 수 있는데, 예를 들면, 적대적 생성의 트레이닝 방법을 사용하여 상기 이미지 생성 네트워크와 융합 네트워크를 트레이닝할 수 있다.
가능한 일 실시형태에서는, 제1 이미지와 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여 하나 이상의 제1 부분 이미지 블록을 생성하는 것과, 상기 제1 이미지와 제2 시멘틱 세그먼테이션 마스크에 기초하여 배경 이미지 블록을 생성하는 것은 이미지 생성 네트워크에 의해 실행되고, 상기 이미지 생성 네트워크는 트레이닝되는 이미지 생성 네트워크에 의해 제1 샘플 이미지와 시멘틱 세그먼테이션 샘플 마스크에 기초하여 이미지 블록을 생성하는 단계로서, 여기서, 상기 제1 샘플 이미지는 임의의 스타일을 갖는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크는 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내거나 혹은 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크가 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 목표 대상물이 포함되고, 상기 시멘틱 세그먼테이션 샘플 마스크가 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 배경이 포함되는 단계와, 생성된 이미지 블록, 상기 제1 샘플 이미지 및 상기 제2 샘플 이미지에 기초하여 상기 트레이닝되는 이미지 생성 네트워크의 손실 함수를 결정하는 단계와, 결정된 손실 함수에 기초하여 상기 트레이닝되는 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와, 생성된 이미지 블록 또는 제2 샘플 이미지를 입력 이미지로 하고, 트레이닝되는 이미지 판별기를 사용하여 상기 입력 이미지에서의 피식별 부분의 진위를 식별하는 단계로서, 생성된 이미지 블록에 목표 스타일을 갖는 목표 대상물이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 목표 대상물이 되고, 생성된 이미지 블록에 목표 스타일을 갖는 배경이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 배경이 되는 단계와, 상기 트레이닝되는 이미지 판별기의 출력 결과 및 상기 입력 이미지에 기초하여, 상기 트레이닝되는 이미지 판별기와 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와, 트레이닝되는 이미지 생성 네트워크의 트레이닝 종료 조건과 트레이닝되는 이미지 판별기의 트레이닝 종료 조건 간의 밸런스가 이루어질 때까지, 네트워크 파라미터값이 조정된 이미지 생성 네트워크를 트레이닝되는 이미지 생성 네트워크로 하고 아울러 네트워크 파라미터값이 조정된 이미지 판별기를 트레이닝되는 이미지 판별기로 하여 상기의 단계를 반복 실행하는 단계에 의해 트레이닝된 것이다.
예를 들면, 시멘틱 세그먼테이션 샘플 마스크가 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내는 것인 경우, 이미지 생성 네트워크는 목표 스타일을 갖는 목표 대상물의 이미지 블록을 생성할 수 있고, 상기 이미지 판별기는, 입력 이미지에서의 목표 스타일을 갖는 목표 대상물의 이미지 블록의 진위를 식별함과 함께, 트레이닝되는 이미지 판별기의 출력 결과, 생성된 목표 스타일을 갖는 목표 대상물의 이미지 블록 및 제2 샘플 이미지에서의 목표 대상물의 이미지 블록에 기초하여, 상기 트레이닝되는 이미지 판별기와 이미지 생성 네트워크의 네트워크 파라미터값을 조정할 수 있고, 시멘틱 세그먼테이션 샘플 마스크가 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것인 경우, 이미지 생성 네트워크는 목표 스타일을 갖는 배경 이미지 블록을 생성할 수 있고, 상기 이미지 판별기는 입력 이미지에서의 목표 스타일을 갖는 배경 이미지 블록의 진위를 식별함과 함께, 트레이닝되는 이미지 판별기의 출력 결과, 생성된 목표 스타일을 갖는 배경 이미지 블록 및 제2 샘플 이미지에서의 배경 이미지 블록에 기초하여, 상기 트레이닝되는 이미지 판별기와 이미지 생성 네트워크의 네트워크 파라미터값을 조정할 수 있다.
또한 예를 들면, 시멘틱 세그먼테이션 샘플 마스크가 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내는 시멘틱 세그먼테이션 샘플 마스크와, 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 시멘틱 샘플 세그먼테이션마스크 양쪽을 포함하는 경우, 이미지 생성 네트워크는 목표 스타일을 갖는 목표 대상물의 이미지 블록과 목표 스타일을 갖는 배경 이미지 블록을 생성할 수 있다. 그리고 목표 스타일을 갖는 목표 대상물의 이미지 블록과 목표 스타일을 갖는 배경 이미지 블록을 융합하여 목표 이미지를 취득한다. 융합의 처리는 융합 네트워크에 의해 실행할 수 있다. 그리고, 이미지 판별기는 입력 이미지(입력 이미지는 취득된 목표 이미지 또는 제2 샘플 이미지임)의 진위를 식별함과 함께, 트레이닝되는 이미지 판별기의 출력 결과, 취득된 목표 이미지 및 제2 샘플 이미지에 기초하여, 상기 트레이닝되는 이미지 판별기, 이미지 생성 네트워크 및 융합 네트워크의 네트워크 파라미터값을 조정할 수 있다. 예시적으로, 생성된 이미지 블록, 상기 제1 샘플 이미지 및 상기 제2 샘플 이미지에 기초하여 상기 트레이닝되는 이미지 생성 네트워크의 손실 함수를 결정한다. 예를 들면, 이미지 블록과 상기 제1 샘플 이미지 간의 스타일 차이, 및 이미지 블록과 제2 샘플 이미지 간의 내용의 차이에 기초하여, 이미지 생성 네트워크의 네트워크 손실을 결정할 수 있다.
예시적으로, 생성된 이미지 블록 또는 제2 샘플 이미지를 입력 이미지로 하고, 트레이닝되는 이미지 판별기를 사용하여 상기 입력 이미지에서의 피식별 부분의 진위를 식별할 수 있고, 이미지 판별기의 출력 결과는, 입력 이미지가 실제 이미지일 확률이다. 생성된 이미지 블록에는 목표 스타일을 갖는 목표 대상물이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 목표 대상물이 되고, 생성된 이미지 블록에는 목표 스타일을 갖는 배경이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 배경이 된다.
예시적으로, 상기 이미지 생성 네트워크의 네트워크 손실과 상기 이미지 판별기의 출력 결과에 기초하여 상기 이미지 생성 네트워크와 이미지 판별기를 적대적 트레이닝할 수 있는데, 예를 들면, 상기 이미지 생성 네트워크의 네트워크 손실과 이미지 판별기의 출력 결과에 기초하여 이미지 생성 네트워크와 이미지 판별기의 네트워크 파라미터를 조정할 수 있다. 예를 들면, 이미지 생성 네트워크의 네트워크 손실이 최소화되거나 또는 설정 임계치보다 작아지는 제1 트레이닝 조건과, 예를 들면, 이미지 판별기의 출력 결과가 실제 이미지일 확률이 최대화되거나 또는 설정 임계치보다 커지는 제2 트레이닝 조건 간의 밸런스가 이루어질 때까지 상기 트레이닝 처리를 반복해 실행할 수 있다. 이러한 경우, 이미지 생성 네트워크에 의해 생성된 이미지 블록은 높은 리얼성을 가져, 즉 이미지 생성 네트워크에 의해 생성된 이미지의 효과가 양호하고, 이미지 판별기는 높은 정확도를 갖는다. 또한 네트워크 파라미터값이 조정된 이미지 생성 네트워크를 트레이닝되는 이미지 생성 네트워크로 하고 아울러 네트워크 파라미터값이 조정된 이미지 판별기를 트레이닝되는 이미지 판별기로 한다.
가능한 일 실시형태에서는, 이미지 블록에서의 목표 대상물과 배경을 스티칭한 후, 융합 네트워크에 입력하여 목표 이미지를 출력할 수 있다.
예시적으로, 목표 이미지와 상기 제2 샘플 이미지 간의 내용 차이, 및 목표 이미지와 제2 샘플 이미지 간의 스타일 차이에 의해 융합 네트워크의 네트워크 손실을 결정할 수 있다. 또한 융합 네트워크의 네트워크 손실에 기초하여 융합 네트워크의 네트워크 파라미터를 조정하고, 융합 네트워크의 네트워크 손실이 손실 임계치 이하가 되거나 또는 소정 구간에 포함될 때까지, 또는 조정 횟수가 횟수 임계치에 이를 때까지 융합 네트워크의 조정 단계를 반복 실행하여 트레이닝된 융합 네트워크를 취득할 수 있다. 이러한 경우, 융합 네트워크에 의해 출력되는 목표 이미지는 높은 리얼성을 갖는다. 즉, 융합 네트워크에 의해 출력되는 이미지의 엣지 평활화 효과가 양호하고, 전체적인 스타일이 조화를 이루고 있다.
예시적으로, 융합 네트워크와 이미지 생성 네트워크 및 이미지 판별기를 공동으로 트레이닝할 수도 있다. 즉, 이미지 생성 네트워크에 의해 생성된 목표 스타일을 갖는 목표 대상물의 이미지 블록과 배경 이미지 블록을 스티칭하고, 융합 네트워크에 의해 처리한 후, 목표 이미지를 생성하고, 목표 이미지 또는 제2 샘플 이미지를 입력 이미지로서 이미지 판별기에 입력하여 진위를 식별하고, 상기 트레이닝 조건을 만족할 때까지 이미지 판별기의 출력 목표 이미지, 제2 샘플 이미지에 의해 상기 트레이닝되는 이미지 판별기, 이미지 생성 네트워크 및 융합 네트워크의 네트워크 파라미터값을 조정한다.
관련 기술에서는, 이미지의 스타일 변환을 할 때, 스타일 변환용의 뉴럴 네트워크를 사용하여 원이미지를 처리하여 새로운 스타일을 갖는 이미지를 생성할 필요가 있고, 상기 스타일 변환용의 뉴럴 네트워크는 대량의 특정의 스타일을 갖는 샘플 이미지를 사용하여 트레이닝해야 하기 때문에 샘플 이미지의 취득 비용이 높다(예를 들면, 스타일이 악천후인 경우 악천후로 인해 샘플 이미지를 취득하기 곤란하고 비용이 높아진다). 게다가, 트레이닝된 뉴럴 네트워크는 상기 스타일의 이미지 밖에 생성하지 못한다. 즉, 입력된 이미지를 동일한 스타일로 밖에 변환할 수 없다. 다른 스타일로의 변환을 하려면 대량의 샘플 이미지를 사용하여 상기 뉴럴 네트워크를 재트레이닝해야 한다. 그 결과 샘플 이미지가 효율적으로 사용되지 못해 스타일 변경이 곤란하고 효율이 낮아진다.
본 발명의 실시예에 따른 이미지 처리 방법에 의하면, 제1 시멘틱 세그먼테이션 마스크, 제2 시멘틱 세그먼테이션 마스크, 목표 스타일을 갖는 제2 부분 이미지 블록 및 배경 이미지 블록에 기초하여, 각 목표 대상물의 제1 시멘틱 세그먼테이션 마스크마다 대응하는 제1 부분 이미지 블록을 생성할 수 있다. 제1 시멘틱 세그먼테이션 마스크의 취득이 용이하므로 복수 종류의 제1 시멘틱 세그먼테이션 마스크를 취득하여, 생성된 목표 대상물을 다양화할 수 있다. 또한 대량의 실제 이미지의 라벨링을 할 필요가 없어 라벨링 비용이 절약되고 처리 효율이 향상된다. 나아가 목표 대상물의 존재 영역과 배경 영역 간의 엣지를 평활화 처리하여 이미지에 대해 스타일 융합 처리를 행할 수 있으므로 생성된 목표 이미지가 자연스럽고 조화로우며 보다 리얼성이 높은 것이 된다. 또한 목표 이미지가 제1 이미지의 스타일을 갖도록 하고, 이미지의 생성 중에 제1 이미지를 치환할 수 있어, 예를 들면, 다른 스타일의 제1 이미지로 치환할 수 있어, 생성된 목표 이미지는 치환된 제1 이미지의 스타일을 가질 수 있다. 다른 스타일의 이미지를 생성할 때에 뉴럴 네트워크를 재트레이닝할 필요가 없어 처리 효율이 향상된다. 또한 목표 대상물의 마스크 및 배경 마스크에 기초하여 먼저 이미지 블록을 각각 생성하고, 이어서 생성된 이미지 블록을 융합함으로써 목표 대상물의 교환을 용이하게 할 수 있다. 또한, 광 등의 요인에 의해 각 이미지 블록(제1 부분 이미지 블록과 배경 이미지 블록을 포함함)의 스타일이 완전히 일치하지 않을 가능성이 있는데, 예를 들면, 동일하게 어두운 밤의 환경에서도 수광하는 광의 조사가 상이한 경우 각 목표 대상물의 스타일이 조금 상이하다. 각 제1 부분 이미지 블록과 배경 이미지 블록을 각각 생성함으로써 각 이미지 블록의 스타일을 유지하고 각 제1 부분 이미지 블록과 배경 이미지 블록 간의 조화성이 양호해지도록 한다.
도 5는 본 발명의 실시예에 따른 이미지 처리 방법의 응용 모식도를 나타낸다. 도 5에 나타내는 바와 같이, 이미지 생성 네트워크와 융합 네트워크에 의해, 목표 스타일을 갖는 목표 이미지를 취득할 수 있다.
가능한 일 실시형태에서는, 임의의 피처리 이미지에 대해 시멘틱 세그먼테이션 처리를 행하여 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득할 수 있다. 또는 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 랜덤으로 생성하고, 제1 시멘틱 세그먼테이션 마스크, 제2 시멘틱 세그먼테이션 마스크, 및 목표 스타일과 임의의 내용을 갖는 제1 이미지를 이미지 생성 네트워크로 입력할 수 있다. 이미지 생성 네트워크는 제1 시멘틱 세그먼테이션 마스크와 제1 이미지에 기초하여, 제1 시멘틱 세그먼테이션 마스크에 의해 라벨링된 목표 대상물의 윤곽을 갖고 아울러 제1 이미지의 목표 스타일을 갖는 제1 부분 이미지 블록을 출력함과 함께, 제1 이미지와 제2 시멘틱 세그먼테이션 마스크에 기초하여, 제2 시멘틱 세그먼테이션 마스크에 의해 라벨링된 배경의 윤곽을 갖고 아울러 제1 이미지의 목표 스타일을 갖는 배경 이미지 블록을 생성할 수 있다. 예시적으로, 제1 부분 이미지 블록의 수는 복수여도 된다. 즉 복수의 목표 대상물이 존재할 수도 있다. 또한 목표 대상물의 종류는 다를 수도 있는데, 예를 들면, 목표 대상물은 사람, 자동차, 비자동차 등을 포함할 수도 있다. 상기 제1 이미지의 이미지 스타일은 주간 스타일, 야간 스타일, 비 스타일 등이어도 된다. 본 발명에서는 제1 이미지의 스타일이 한정되지 않고, 제1 부분 이미지 블록의 수도 한정되지 않는다.
예시적으로 제1 이미지는 야간의 배경을 갖는 이미지여도 된다. 제1 시멘틱 세그먼테이션 마스크는 차량의 시멘틱 세그먼테이션 마스크이고, 차량의 윤곽을 가질 수 있다. 제1 시멘틱 세그먼테이션 마스크는 보행자의 시멘틱 세그먼테이션 마스크일 수도 있고, 보행자의 윤곽을 가질 수 있다. 제2 시멘틱 세그먼테이션 마스크는 배경의 시멘틱 세그먼테이션 마스크이다. 또한 제2 시멘틱 세그먼테이션 마스크는 배경에서의 각 목표 대상물의 위치를 나타낼 수도 있다. 예를 들면, 제2 시멘틱 세그먼테이션 마스크의 보행자 또는 차량의 존재 위치가 비어 있다. 이미지 생성 네트워크에 의한 처리 후, 야간의 스타일을 갖는 배경, 차량 및 보행자를 생성할 수 있다. 예를 들면, 배경에서는, 광이 어둡고, 차량이나 보행자도 어두운 환경에 있는 스타일, 예를 들면, 광이 어둡거나 외관이 흐릿한 것이다.
가능한 일 실시형태에서는 생성 중에 목표 대상물의 윤곽의 사이즈가 변화할 수 있어 제1 부분 이미지 블록의 사이즈와 배경 이미지 블록에서의 비어 있는 영역(즉, 배경 이미지 블록에서의 목표 대상물의 존재 영역)의 사이즈가 일치하지 않는 경우가 있다. 제1 부분 이미지 블록을 확대 축소 처리하여 제2 부분 이미지 블록을 취득할 수 있어 제2 부분 이미지 블록의 사이즈와 배경 이미지 블록에서의 목표 대상물의 존재 영역(즉, 비어 있는 영역)의 사이즈가 일치하고 있다.
예시적으로, 차량의 시멘틱 세그먼테이션 마스크는 복수 있을 가능성이 있고 윤곽은 동일해도 되고, 상이해도 되지만, 제2 시멘틱 세그먼테이션 마스크에서는 상이한 차량의 존재 위치가 상이하고, 사이즈가 상이해도 된다. 따라서 차량의 이미지 블록 및/또는 보행자의 이미지 블록(즉, 제1 부분 이미지 블록)의 사이즈와 배경 이미지 블록에서의 비어 있는 부분의 사이즈가 일치되도록 차량의 이미지 블록을 확대 축소할 수 있다.
가능한 일 실시형태에서는, 제2 부분 이미지 블록과 배경 이미지 블록을 스티칭 처리할 수 있는데, 예를 들면, 상기 제2 부분 이미지 블록을 상기 배경 이미지 블록에서의 목표 대상물의 존재 영역에 부가하여 스티칭에 의해 형성된 목표 이미지를 취득할 수 있다. 그러나, 목표 이미지의 목표 대상물의 존재 영역(즉, 제2 부분 이미지 블록)과 배경 영역(즉, 배경 이미지 블록)은 스티칭에 의해 형성된 것이기 때문에 영역간의 엣지는 충분한 평활성을 갖고 있지 않을 가능성이 있다. 예를 들면, 차량의 이미지 블록과 배경 간의 엣지는 충분한 평활성을 갖고 있지 않다.
가능한 일 실시형태에서는, 융합 네트워크에 의해 목표 이미지의 목표 대상물의 존재 영역과 배경 영역을 융합 처리할 수 있는데, 예를 들면, 목표 대상물의 존재 영역과 배경 영역 간의 엣지가 평활화되도록 엣지 근방의 화소점을 가우시안 필터 평활화 처리할 수 있음과 아울러, 목표 대상물의 존재 영역과 배경 영역에 대해 스타일 융합 처리를 행하여, 예를 들면, 목표 대상물의 존재 영역과 배경 영역의 스타일이 일치하고 조화롭도록 목표 대상물의 존재 영역과 배경 영역의 명암, 콘트라스트, 조명, 색채, 예술적 특징이나 아트워크 등의 스타일을 미세 조정하여, 목표 스타일을 갖는 평활화된 목표 이미지를 취득할 수 있다. 예시적으로 배경에서의 각 차량의 위치가 다르고 사이즈가 상이하여 스타일이 조금 상이하다. 예를 들면, 가로등에 조사된 경우 각 차량의 존재 영역의 밝음에 차이가 있거나 차체의 반사에 차이가 있어 각 차량과 배경의 스타일이 보다 조화롭도록 융합 네트워크에 의해 각 차량의 스타일을 미세 조정할 수 있다.
가능한 일 실시형태에서는, 상기 이미지 처리 방법은 시멘틱 세그먼테이션 마스크에 의해 목표 이미지를 취득할 수 있으므로 제1 이미지의 스타일과 일치하는 이미지 샘플을 보다 풍부하게 하여, 특히 하드 이미지 샘플(예를 들면, 극단적인 기상 조건 등의 드물게 만나는 기상 환경에서 수집된 이미지) 또는 소수의 이미지 샘플(예를 들면, 야간 등의 그다지 수집되지 않은 환경에서 수집된 이미지)에 대해는 수동에 의한 수집 비용을 큰 폭으로 삭감할 수 있다. 예시적으로 상기 이미지 처리 방법을 자동 운전의 분야에 적용할 수 있다. 시멘틱 세그먼테이션 마스크 및 임의의 스타일의 이미지만으로 리얼성이 높은 목표 이미지를 생성할 수 있다. 목표 이미지에서의 실례적인 목표 대상물의 리얼성이 높으므로 목표 이미지를 사용하여 자동 운전의 적용 장면을 넓히는 데에 도움이 되어 자동 운전 기술의 발전에 기여할 수 있다. 본 발명에서는 상기 이미지 처리 방법의 적용 분야가 한정되지 않는다.
본 발명에서 언급되는 상기 각 방법의 실시예는 원리와 논리에 위반하지 않는 이상 서로 조합하여 실시예를 형성할 수 있음을 이해하여야 한다. 분량에 한계가 있으므로 본 발명에서는 상세한 설명을 생략한다.
추가로, 본 발명에서는 이미지 처리 장치, 전자 기기, 컴퓨터 판독 가능 기억 매체, 프로그램이 제공된다. 이들은 전부 본 발명에 따른 이미지 처리 방법 중 어느 하나를 실현하기 위해 이용할 수 있다. 대응하는 기술적 해결 수단과 설명은 방법의 대응하는 기재를 참조해도 되고, 상세한 설명을 생략한다.
또한 당업자라면 구체적인 실시형태에 따른 상기의 방법에서는 각 단계의 기재 순서는 실행 순서를 엄밀히 한정하여 실시의 과정을 한정하는 것이 아니라 각 단계의 실행 순서가 그 기능과 내부의 논리에 의해 구체적으로 결정됨을 이해하여야 한다.
도 6은 본 발명의 실시예에 따른 이미지 처리 장치의 블록도를 나타낸다. 도 6에 나타내는 바와 같이, 상기 장치는 목표 스타일을 갖는 제1 이미지와, 1종의 목표 대상물의 존재 영역을 나타내는 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 1종의 목표 대상물을 포함하는 하나 이상의 제1 부분 이미지 블록을 생성하기 위한 제1 생성 모듈(11)과, 상기 제1 이미지와, 하나 이상의 목표 대상물의 존재 영역 이외의 배경 영역을 나타내는 제2 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 배경을 포함하는 배경 이미지 블록을 생성하기 위한 제2 생성 모듈(12)과, 하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여, 목표 스타일을 갖는 목표 대상물과 목표 스타일을 갖는 배경을 포함하는 목표 이미지를 취득하기 위한 융합 모듈(13)을 포함한다.
가능한 일 실시형태에서는, 상기 융합 모듈은 추가로, 각 제1 부분 이미지 블록을 확대 축소 처리하여 상기 배경 이미지 블록과의 스티칭에 적합한 사이즈를 갖는 제2 부분 이미지 블록을 취득하고, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 상기 목표 이미지를 취득하도록 구성된다.
가능한 일 실시형태에서는, 상기 배경 이미지 블록은 배경 영역에 목표 스타일을 갖는 배경이 포함되고 아울러 목표 대상물의 존재 영역이 비어 있는 이미지이고, 상기 융합 모듈은 추가로, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 목표 이미지를 취득하는 것은, 하나 이상의 제2 부분 이미지 블록을 상기 배경 이미지 블록에서의 대응하는 목표 대상물의 존재 영역에 부가하여 상기 목표 이미지를 취득하도록 구성된다.
가능한 일 실시형태에서는, 상기 융합 모듈은 추가로, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리한 후 및 상기 목표 이미지를 취득하기 전에, 하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록 간의 엣지를 평활화 처리하여 제2 이미지를 취득하는 것과, 상기 제2 이미지에서의 목표 대상물의 존재 영역 및 배경 영역에 대해 스타일 융합 처리를 행하여 상기 목표 이미지를 취득하는 것에 사용된다.
도 7은 본 발명의 실시예에 따른 이미지 처리 장치의 블록도를 나타낸다. 도 7에 나타내는 바와 같이, 상기 장치는 피처리 이미지에 대해 시멘틱 세그먼테이션 처리를 행하여 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득하기 위한 세그먼테이션 모듈(14)을 추가로 포함한다.
가능한 일 실시형태에서는, 상기 제1 생성 모듈과 상기 제2 생성 모듈의 기능은 이미지 생성 네트워크에 의해 실행되고, 상기 장치는 트레이닝 모듈을 추가로 포함하고, 상기 트레이닝 모듈은, 트레이닝되는 이미지 생성 네트워크에 의해 제1 샘플 이미지와 시멘틱 세그먼테이션 샘플 마스크에 기초하여 이미지 블록을 생성하는 단계로서, 여기서, 상기 제1 샘플 이미지는 임의의 스타일을 갖는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크는 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내거나 혹은 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크가 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 목표 대상물이 포함되고, 상기 시멘틱 세그먼테이션 샘플 마스크가 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 배경이 포함되는 단계와, 생성된 이미지 블록, 상기 제1 샘플 이미지 및 상기 제2 샘플 이미지에 기초하여 상기 트레이닝되는 이미지 생성 네트워크의 손실 함수를 결정하는 단계와, 결정된 손실 함수에 기초하여, 상기 트레이닝되는 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와, 생성된 이미지 블록 또는 제2 샘플 이미지를 입력 이미지로 하고, 트레이닝되는 이미지 판별기를 사용하여 상기 입력 이미지에서의 피식별 부분의 진위를 식별하는 단계로서, 생성된 이미지 블록에 목표 스타일을 갖는 목표 대상물이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 목표 대상물이 되고, 생성된 이미지 블록에 목표 스타일을 갖는 배경이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 배경이 되는 단계와, 상기 트레이닝되는 이미지 판별기의 출력 결과 및 상기 입력 이미지에 기초하여, 상기 트레이닝되는 이미지 판별기의 네트워크 파라미터값을 조정하는 단계와, 트레이닝되는 이미지 생성 네트워크의 트레이닝 종료 조건과 트레이닝되는 이미지 판별기의 트레이닝 종료 조건 간의 밸런스가 이루어질 때까지, 네트워크 파라미터값이 조정된 이미지 생성 네트워크를 트레이닝되는 이미지 생성 네트워크로 하고 아울러 네트워크 파라미터값이 조정된 이미지 판별기를 트레이닝되는 이미지 판별기로 하여 상기의 단계를 반복 실행하는 단계,에 의해 트레이닝하여 상기 이미지 생성 네트워크를 얻는다.
일부 실시예에서는 본 발명의 실시예에 따른 장치가 구비하는 기능 또는 모듈은, 상술한 방법의 실시예에 설명되는 방법을 실행하기 위해 이용할 수 있고, 그 구체적인 실현에 대해 상술한 방법의 실시예의 설명을 참조해도 되고, 간소화를 위해 여기서 상세한 설명을 생략한다.
본 발명의 실시예에서는 컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 가독 기억 매체로서, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 실행되면, 상기 방법을 실현시키는 컴퓨터 가독 기억 매체가 추가로 제공된다. 상기 컴퓨터 가독 기억 매체는 불휘발성 컴퓨터 가독 기억 매체여도 된다.
본 발명의 실시예에서는 프로세서와, 프로세서에 의해 실행 가능한 명령을 기억하는 메모리를 포함하고, 상기 프로세서는 상기의 방법을 실행하도록 구성되는 전자 기기가 추가로 제공된다.
전자 기기는 단말, 서버 또는 다른 형태의 기기로서 제공되어도 된다.
도 8은 예시적인 일 실시예의 전자 기기(800)의 블록도를 나타낸다. 예를 들면, 전자 기기(800)는 휴대 전화, 컴퓨터, 디지털 방송 단말, 메시지 송수신 기기, 게임 콘솔, 태블릿형 기기, 의료 기기, 피트니스 기기, 퍼스널 디지털 어시스턴트 등의 단말이어도 된다.
도 8을 참조하면, 전자 기기(800)는 처리 컴포넌트(802), 메모리(804), 전원 컴포넌트(806), 멀티미디어 컴포넌트(808), 오디오 컴포넌트(810), 입력/출력(I/O)의 인터페이스(812), 센서 컴포넌트(814), 및 통신 컴포넌트(816) 중 하나 이상을 포함해도 된다.
처리 컴포넌트(802)는 통상 전자 기기(800)의 전체적인 동작, 예를 들면, 표시, 전화의 호출, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작을 제어한다. 처리 컴포넌트(802)는 상기 방법의 전부 또는 일부 단계를 실행하기 위해, 명령을 실행하는 하나 이상의 프로세서(820)를 포함해도 된다. 또한, 처리 컴포넌트(802)는 다른 컴포넌트와의 상호 작용을 위한 하나 이상의 모듈을 포함해도 된다. 예를 들면, 처리 컴포넌트(802)는 멀티미디어 컴포넌트(808)와의 상호 작용을 위해, 멀티미디어 모듈을 포함해도 된다.
메모리(804)는 전자 기기(800)에서의 동작을 서포트하기 위한 다양한 타입의 데이터를 기억하도록 구성된다. 이들 데이터는 예로서, 전자 기기(800)에서 조작하는 모든 애플리케이션 프로그램 또는 방법의 명령, 연락처 데이터, 전화번호부 데이터, 메시지, 사진, 비디오 등을 포함한다. 메모리(804)는 예를 들면, 정적 랜덤 액세스 메모리(SRAM), 전기적 소거 가능 프로그래머블 판독 전용 메모리(EEPROM), 소거 가능 프로그래머블 판독 전용 메모리(EPROM), 프로그래머블 판독 전용 메모리(PROM), 판독 전용 메모리(ROM), 자기 메모리, 플래시 메모리, 자기 디스크 또는 광디스크 등 다양한 타입의 휘발성 또는 불휘발성 기억 기기 또는 이들의 조합에 의해 실현할 수 있다.
전원 컴포넌트(806)는 전자 기기(800)의 각 컴포넌트에 전력을 공급한다. 전원 컴포넌트(806)는 전원 관리 시스템, 하나 이상의 전원 및 전자 기기(800)를 위한 전력 생성, 관리 및 배분에 관련되는 다른 컴포넌트를 포함해도 된다.
멀티미디어 컴포넌트(808)는 상기 전자 기기(800)와 사용자 사이에서 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에서는 스크린은 액정 디스플레이(LCD) 및 터치 패널(TP)을 포함해도 된다. 스크린이 터치 패널을 포함하는 경우, 사용자로부터의 입력 신호를 수신하기 위한 터치 스크린으로서 실현해도 된다. 터치 패널은 터치, 슬라이드 및 터치 패널에서의 제스처를 검지하도록 하나 이상의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 슬라이드 동작의 경계를 검지할 뿐만 아니라, 상기 터치 또는 슬라이드 조작에 관련되는 지속 시간 및 압력을 검출하도록 해도 된다. 일부 실시예에서는 멀티미디어 컴포넌트(808)는 전면 카메라 및/또는 후면 카메라를 포함한다. 전자 기기(800)가 동작 모드, 예를 들면, 촬영 모드 또는 촬상 모드가 되는 경우, 전면 카메라 및/또는 후면 카메라는 외부의 멀티미디어 데이터를 수신하도록 해도 된다. 각 전면 카메라 및 후면 카메라는 고정된 광학 렌즈계 또는 초점 거리 및 광학 줌 능력을 갖는 것이어도 된다.
오디오 컴포넌트(810)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들면, 오디오 컴포넌트(810)는 하나의 마이크(MIC)를 포함하고, 마이크(MIC)는 전자 기기(800)가 동작 모드, 예를 들면, 호출 모드, 기록 모드 및 음성 인식 모드가 되는 경우, 외부의 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 추가로 메모리(804)에 기억되거나 또는 통신 컴포넌트(816)를 통해 송신되어도 된다. 일부 실시예에서는 오디오 컴포넌트(810)는 추가로 오디오 신호를 출력하기 위한 스피커를 포함한다.
I/O 인터페이스(812)는 처리 컴포넌트(802)와 주변 인터페이스 모듈 사이에서 인터페이스를 제공하고, 상기 주변 인터페이스 모듈은 키보드, 클릭 휠, 버튼 등이어도 된다. 이들 버튼에는 홈 버튼, 음량 버튼, 시작 버튼 및 잠금 버튼 등을 포함해도 되지만, 이들에 한정되지 않는다.
센서 컴포넌트(814)는 전자 기기(800)의 각 측면의 상태 평가를 위해 하나 이상의 센서를 포함한다. 예를 들면, 센서 컴포넌트(814)는 전자 기기(800)의 온/오프 상태, 예를 들면, 전자 기기(800)의 디스플레이 및 키패드와 같은 컴포넌트의 상대적 위치 결정을 검출해도 되고, 센서 컴포넌트(814)는 추가로 전자 기기(800) 또는 전자 기기(800)가 있는 컴포넌트의 위치 변화, 사용자와 전자 기기(800)의 접촉 유무, 전자 기기(800)의 방위 또는 가감속 및 전자 기기(800)의 온도 변화를 검출해도 된다. 센서 컴포넌트(814)는 어떠한 물리적 접촉도 없는 경우에 근방의 물체의 존재를 검출하도록 구성되는 근접 센서를 포함해도 된다. 센서 컴포넌트(814)는 추가로 CMOS 또는 CCD 이미지 센서와 같은 이미징 애플리케이션에서 사용하기 위한 광센서를 포함해도 된다. 일부 실시예에서는 상기 센서 컴포넌트(814)는 가속도 센서, 자이로 센서, 자기 센서, 압력 센서 또는 온도 센서를 포함해도 된다.
통신 컴포넌트(816)는 전자 기기(800)와 다른 기기의 유선 또는 무선 통신을 실현하도록 구성된다. 전자 기기(800)는 통신 규격에 기초하는 무선 네트워크, 예를 들면, WiFi, 2G, 3G, 또는 이들 조합에 액세스할 수 있다. 일 예시적 실시예에서는 통신 컴포넌트(816)는 방송 채널을 통해 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 일 예시적 실시예에서는 통신 컴포넌트(816)는 추가로 근거리 통신을 촉진시키기 위해 근거리 무선 통신(NFC) 모듈을 포함한다. 예를 들면, NFC 모듈은 무선 주파수 식별(RFID) 기술, 적외선 데이터 협회(IrDA) 기술, 초광대역(UWB) 기술, 블루투스(BT) 기술 및 다른 기술에 의해 실현될 수 있다.
예시적인 실시예에서는 전자 기기(800)는 하나 이상의 특정 용도용 집적 회로(ASIC), 디지털 신호 프로세서(DSP), 디지털 시그널 프로세서(DSPD), 프로그래머블 로직 디바이스(PLD), 필드 프로그래머블 게이트 어레이(FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 다른 전자 요소에 의해 실현되고, 상기 방법을 실행하기 위해 사용될 수 있다.
예시적인 실시예에서는 추가로, 불휘발성 컴퓨터 판독 가능 기억 매체, 예를 들면, 컴퓨터 프로그램 명령을 포함하는 메모리(804)가 제공되고, 상기 컴퓨터 프로그램 명령은 전자 기기(800)의 프로세서(820)에 의해 실행되면 상기 방법을 실행시킬 수 있다.
도 9는 예시적인 하나의 실시예의 전자 기기(1900)의 블록도를 나타낸다. 예를 들면, 전자 기기(1900)는 서버로서 제공되어도 된다. 도 9를 참조하면, 전자 기기(1900)는 하나 이상의 프로세서를 포함하는 처리 컴포넌트(1922), 및 처리 컴포넌트(1922)에 의해 실행 가능한 명령, 예를 들면, 어플리케이션 프로그램을 기억하기 위한 메모리(1932)를 대표로 하는 메모리 자원을 포함한다. 메모리(1932)에 기억되어 있는 어플리케이션 프로그램은 각각이 하나의 명령군에 대응하는 하나 이상의 모듈을 포함해도 된다. 또한, 처리 컴포넌트(1922)는 명령을 실행함으로써 상기 방법을 실행하도록 구성된다.
전자 기기(1900)는 추가로, 전자 기기(1900)의 전원 관리를 실행하도록 구성되는 전원 컴포넌트(1926)과, 전자 기기(1900)를 네트워크에 접속하도록 구성된 유선 또는 무선의 네트워크 인터페이스(1950)와, 입출력(I/O) 인터페이스(1958)를 포함해도 된다. 전자 기기(1900)는 메모리(1932)에 기억되어 있는 오퍼레이팅 시스템, 예를 들면, Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM, FreeBSDTM 또는 유사한 것에 기초하여 동작할 수 있다.
예시적인 실시예에서는 추가로, 불휘발성 컴퓨터 판독 가능 기억 매체, 예를 들면, 컴퓨터 프로그램 명령을 포함하는 메모리(1932)가 제공되고, 상기 컴퓨터 프로그램 명령은 전자 기기(1900)의 처리 컴포넌트(1922)에 의해 실행되면, 상기 방법을 실행시킬 수 있다.
컴퓨터 판독 가능 기억 매체는 명령 실행 기기에 사용되는 명령을 저장 및 기억 가능한 유형(有形)의 장치여도 된다. 컴퓨터 판독 가능 기억 매체는 예를 들면, 전기 기억 장치, 자기 기억 장치, 광 기억 장치, 전자 기억 장치, 반도체 기억 장치, 또는 상기의 임의의 적당한 조합이어도 되지만, 이들에 한정되지 않는다. 컴퓨터 판독 가능 기억 매체의 보다 구체적인 예(비망라적 리스트)로는 휴대형 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그래머블 판독 전용 메모리(EPROM 또는 플래시 메모리), 정적 랜덤 액세스 메모리(SRAM), 휴대형 콤팩트 디스크 판독 전용 메모리(CD-ROM), 디지털 다용도 디스크(DVD), 메모리 스틱, 플로피 디스크, 예를 들면, 명령이 기억되어 있는 천공 카드 또는 슬롯 내 돌기 구조와 같은 기계적 부호화 장치, 및 상기의 임의의 적당한 조합을 포함한다. 여기에서 사용되는 컴퓨터 판독 가능 기억 매체는 순시 신호 자체, 예를 들면, 무선 전파 또는 기타 자유롭게 전파되는 전자파, 도파로 또는 다른 전송 매체를 경유하여 전파되는 전자파(예를 들면, 광파이버 케이블을 통과하는 광펄스), 또는 전선을 경유하여 전송되는 전기 신호로 해석되는 것은 아니다.
여기에서 기술한 컴퓨터 판독 가능 프로그램 명령은 컴퓨터 판독 가능 기억 매체에서 각 계산/처리 기기에 다운로드되어도 되고, 또는 네트워크, 예를 들면, 인터넷, 로컬 에어리어 네트워크, 광역 네트워크 및/또는 무선 네트워크를 통해 외부의 컴퓨터 또는 외부 기억 장치에 다운로드되어도 된다. 네트워크는 구리 전송 케이블, 광파이버 전송, 무선 전송, 라우터, 방화벽, 교환기, 게이트웨이 컴퓨터 및/또는 에지 서버를 포함해도 된다. 각 계산/처리 기기 내의 네트워크 어댑터 카드 또는 네트워크 인터페이스는 네트워크에서 컴퓨터 판독 가능 프로그램 명령을 수신하고, 상기 컴퓨터 판독 가능 프로그램 명령을 전송하고, 각 계산/처리 기기 내의 컴퓨터 판독 가능 기억 매체에 기억시킨다.
본 발명의 동작을 실행하기 위한 컴퓨터 프로그램 명령은 어셈블리 명령, 명령 세트 아키텍처(ISA) 명령, 기계어 명령, 기계 의존 명령, 마이크로 코드, 펌웨어 명령, 상태 설정 데이터 또는 Smalltalk, C++ 등의 오브젝트 지향 프로그래밍 언어, 및 「C」언어 또는 유사한 프로그래밍 언어 등의 일반적인 절차형 프로그래밍 언어를 포함하는 하나 이상의 프로그래밍 언어의 임의의 조합으로 작성된 소스 코드 또는 목표 코드여도 된다. 컴퓨터 판독 가능 프로그램 명령은 완전히 사용자의 컴퓨터에서 실행되어도 되고, 부분적으로 사용자의 컴퓨터에서 실행되어도 되고, 독립형 소프트웨어 패키지로서 실행되어도 되고, 부분적으로 사용자의 컴퓨터에서 또한 부분적으로 리모트 컴퓨터에서 실행되어도 되고, 완전히 리모트 컴퓨터 또는 서버에서 실행되어도 된다. 리모트 컴퓨터의 경우, 리모트 컴퓨터는 로컬 에어리어(LAN) 또는 광역 네트워크(WAN)를 포함하는 임의의 종류의 네트워크를 경유하여 사용자의 컴퓨터에 접속되어도 되고, 또는 (예를 들면, 인터넷 서비스 프로바이더를 이용해 인터넷을 경유하여) 외부 컴퓨터에 접속되어도 된다. 일부 실시예에서는 컴퓨터 판독 가능 프로그램 명령의 상태 정보를 이용하여, 예를 들면, 프로그래머블 논리 회로, 필드 프로그래머블 게이트 어레이(FPGA) 또는 프로그래머블 논리 어레이(PLA) 등의 전자 회로를 맞춤 제조하고, 상기 전자 회로에 의해 컴퓨터 판독 가능 프로그램 명령을 실행함으로써 본 발명의 각 측면을 실현하도록 해도 된다.
여기에서 본 발명의 실시예에 의한 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하면서 본 발명의 각 양태를 설명했지만, 흐름도 및/또는 블록도의 각 블록 및 흐름도 및/또는 블록도의 각 블록의 조합은 전부 컴퓨터 판독 가능 프로그램 명령에 의해 실현할 수 있는 것을 이해해야 한다.
이들 컴퓨터 판독 가능 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그래머블 데이터 처리 장치의 프로세서에 제공되어 이들 명령이 컴퓨터 또는 기타 프로그래머블 데이터 처리 장치의 프로세서에 의해 실행되면, 흐름도 및/또는 블록도의 하나 이상의 블록에서 지정된 기능/동작을 실현하도록 기계를 제조해도 된다. 이들 컴퓨터 판독 가능 프로그램 명령은 컴퓨터 판독 가능 기억 매체에 기억되고, 컴퓨터, 프로그래머블 데이터 처리 장치 및/또는 다른 기기를 특정의 방식으로 동작시키도록 해도 된다. 이에 의해, 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체는 흐름도 및/또는 블록도 중 하나 이상의 블록에서 지정된 기능/동작의 각 측면을 실현하기 위한 명령을 갖는 제품을 포함한다.
컴퓨터 판독 가능 프로그램 명령은 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 기타 기기에 로드되어 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 다른 기기에 일련의 동작 단계를 실행시킴으로써, 컴퓨터에 의해 실현되는 프로세스를 생성하도록 해도 된다. 이렇게 하여, 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 기타 기기에서 실행되는 명령에 의해 흐름도 및/또는 블록도 중 하나 이상의 블록에서 지정된 기능/동작을 실현한다.
도면 중 흐름도 및 블록도는 본 발명의 복수의 실시예에 의한 시스템, 방법 및 컴퓨터 프로그램 제품의 실현 가능한 시스템 아키텍처, 기능 및 동작을 나타낸다. 이 점에서는 흐름도 또는 블록도에 있어서의 각 블록은 하나의 모듈, 프로그램 세그먼트 또는 명령의 일부분을 대표할 수 있고, 상기 모듈, 프로그램 세그먼트 또는 명령의 일부분은 지정된 논리 기능을 실현하기 위한 하나 이상의 실행 가능 명령을 포함한다. 일부 대체로서의 실현 형태에서는 블록에 표기되는 기능은 도면에 붙인 순서와 상이하게 실현되어도 된다. 예를 들면, 연속적인 두 개의 블록은 실질적으로 병렬로 실행해도 되고, 또한 관련된 기능에 따라 반대 순서로 실행해도 된다. 또한, 블록도 및/또는 흐름도에서의 각 블록 및 블록도 및/또는 흐름도에서의 블록의 조합은 지정되는 기능 또는 동작을 실행하는 하드웨어에 기초하는 전용 시스템에 의해 실현해도 되며, 또는 전용 하드웨어와 컴퓨터 명령의 조합에 의해 실현해도 된다는 점에도 주의해야 한다.
이상, 본 발명의 각 실시예를 기술했지만, 상기 설명은 예시적인 것에 불과하고, 망라적인 것이 아니며, 또한 개시된 각 실시예에 한정되는 것도 아니다. 당업자에게 있어서, 설명된 각 실시예의 범위 및 정신에서 벗어나지 않고, 다양한 수정 및 변경이 자명하다. 본 명세서에 선택된 용어는 각 실시예의 원리, 실제 적용 또는 시장에서의 기술에 대한 기술적 개선을 바람직하게 해석하거나, 또는 다른 당업자에게 본 명세서에 개시된 각 실시예를 이해시키기 위한 것이다.

Claims (15)

  1. 목표 스타일을 갖는 제1 이미지와, 1종의 목표 대상물의 존재 영역을 나타내는 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 1종의 목표 대상물을 포함하는 하나 이상의 제1 부분 이미지 블록을 생성하는 것과,
    상기 제1 이미지와, 하나 이상의 목표 대상물의 존재 영역 이외의 배경 영역을 나타내는 제2 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 배경을 포함하는 배경 이미지 블록을 생성하는 것과,
    하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여, 목표 스타일을 갖는 목표 대상물과 목표 스타일을 갖는 배경을 포함하는 목표 이미지를 취득하는 것을 포함하는, 이미지 처리 방법.
  2. 제 1 항에 있어서,
    하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여 목표 이미지를 취득하는 것은,
    각 제1 부분 이미지 블록을 확대 축소 처리하여 상기 배경 이미지 블록과의 스티칭에 적합한 사이즈를 갖는 제2 부분 이미지 블록을 취득하는 것과,
    하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 상기 목표 이미지를 취득하는 것을 포함하는, 이미지 처리 방법.
  3. 제 2 항에 있어서,
    상기 배경 이미지 블록은 배경 영역에 목표 스타일을 갖는 배경이 포함되고 아울러 목표 대상물의 존재 영역이 비어 있는 이미지이고,
    하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 목표 이미지를 취득하는 것은,
    하나 이상의 제2 부분 이미지 블록을 상기 배경 이미지 블록에서의 대응하는 목표 대상물의 존재 영역에 부가하여 상기 목표 이미지를 취득하는 것을 포함하는, 방법.
  4. 제 2 항 또는 제 3 항에 있어서,
    하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리한 후 및 상기 목표 이미지를 취득하기 전에,
    하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록 간의 엣지를 평활화 처리하여 제2 이미지를 취득하는 것과,
    상기 제2 이미지에서의 목표 대상물의 존재 영역 및 배경 영역에 대해 스타일 융합 처리를 행하여 상기 목표 이미지를 취득하는 것을 추가로 포함하는, 이미지 처리 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    피처리 이미지에 대해 시멘틱 세그먼테이션 처리를 행하여 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득하는 것을 추가로 포함하는, 이미지 처리 방법.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    제1 이미지와 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여 하나 이상의 제1 부분 이미지 블록을 생성하는 것과, 상기 제1 이미지와 제2 시멘틱 세그먼테이션 마스크에 기초하여 배경 이미지 블록을 생성하는 것은, 이미지 생성 네트워크에 의해 실행되고,
    상기 이미지 생성 네트워크는,
    트레이닝되는 이미지 생성 네트워크에 의해 제1 샘플 이미지와 시멘틱 세그먼테이션 샘플 마스크에 기초하여 이미지 블록을 생성하는 단계로서, 여기서, 상기 제1 샘플 이미지는 임의의 스타일을 갖는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크는 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내거나 혹은 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크가 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 목표 대상물이 포함되고, 상기 시멘틱 세그먼테이션 샘플 마스크가 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 배경이 포함되는 단계와,
    생성된 이미지 블록, 상기 제1 샘플 이미지 및 상기 제2 샘플 이미지에 기초하여 상기 트레이닝되는 이미지 생성 네트워크의 손실 함수를 결정하는 단계와,
    결정된 손실 함수에 기초하여, 상기 트레이닝되는 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와,
    생성된 이미지 블록 또는 제2 샘플 이미지를 입력 이미지로 하고, 트레이닝되는 이미지 판별기를 사용하여 상기 입력 이미지에서의 피식별 부분의 진위를 식별하는 단계로서, 생성된 이미지 블록에 목표 스타일을 갖는 목표 대상물이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 목표 대상물이 되고, 생성된 이미지 블록에 목표 스타일을 갖는 배경이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 배경이 되는 단계와,
    상기 트레이닝되는 이미지 판별기의 출력 결과 및 상기 입력 이미지에 기초하여, 상기 트레이닝되는 이미지 판별기와 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와,
    트레이닝되는 이미지 생성 네트워크의 트레이닝 종료 조건과 트레이닝되는 이미지 판별기의 트레이닝 종료 조건 간의 밸런스가 이루어질 때까지, 네트워크 파라미터값이 조정된 이미지 생성 네트워크를 트레이닝되는 이미지 생성 네트워크로 하고 아울러 네트워크 파라미터값이 조정된 이미지 판별기를 트레이닝되는 이미지 판별기로 하여 상기의 단계를 반복 실행하는 단계에 의해 트레이닝된 것인, 이미지 처리 방법.
  7. 목표 스타일을 갖는 제1 이미지와, 1종의 목표 대상물의 존재 영역을 나타내는 하나 이상의 제1 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 1종의 목표 대상물을 포함하는 하나 이상의 제1 부분 이미지 블록을 생성하기 위한 제1 생성 모듈과,
    상기 제1 이미지와, 하나 이상의 목표 대상물의 존재 영역 이외의 배경 영역을 나타내는 제2 시멘틱 세그먼테이션 마스크에 기초하여, 목표 스타일을 갖는 배경을 포함하는 배경 이미지 블록을 생성하기 위한 제2 생성 모듈과,
    하나 이상의 제1 부분 이미지 블록과 상기 배경 이미지 블록을 융합 처리하여, 목표 스타일을 갖는 목표 대상물과 목표 스타일을 갖는 배경을 포함하는 목표 이미지를 취득하기 위한 융합 모듈을 포함하는, 이미지 처리 장치.
  8. 제 7 항에 있어서,
    상기 융합 모듈은 추가로,
    각 제1 부분 이미지 블록을 확대 축소 처리하여 상기 배경 이미지 블록과의 스티칭에 적합한 사이즈를 갖는 제2 부분 이미지 블록을 취득하고,
    하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 상기 목표 이미지를 취득하도록 구성되는, 이미지 처리 장치.
  9. 제 8 항에 있어서,
    상기 배경 이미지 블록은 배경 영역에 목표 스타일을 갖는 배경이 포함되고 아울러 목표 대상물의 존재 영역이 비어 있는 이미지이고,
    상기 융합 모듈은 추가로,
    하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리하여 목표 이미지를 취득하는 것은,
    하나 이상의 제2 부분 이미지 블록을 상기 배경 이미지 블록에서의 대응하는 목표 대상물의 존재 영역에 부가하여 상기 목표 이미지를 취득하도록 구성되는, 이미지 처리 장치.
  10. 제 8 항 또는 제 9 항에 있어서,
    상기 융합 모듈은 추가로,
    하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록을 스티칭 처리한 후 및 상기 목표 이미지를 취득하기 전에,
    하나 이상의 제2 부분 이미지 블록과 상기 배경 이미지 블록 간의 엣지를 평활화 처리하여 제2 이미지를 취득하는 것과,
    상기 제2 이미지에서의 목표 대상물의 존재 영역 및 배경 영역에 대해 스타일 융합 처리를 행하여 상기 목표 이미지를 취득하는 것에 사용되는, 이미지 처리 장치.
  11. 제 7 항 내지 제 10 항 중 어느 한 항에 있어서,
    피처리 이미지에 대해 시멘틱 세그먼테이션 처리를 행하여 제1 시멘틱 세그먼테이션 마스크와 제2 시멘틱 세그먼테이션 마스크를 취득하기 위한 세그먼테이션 모듈을 추가로 포함하는, 이미지 처리 장치.
  12. 제 7 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 제1 생성 모듈과 상기 제2 생성 모듈의 기능은 이미지 생성 네트워크에 의해 실행되고,
    상기 장치는 트레이닝 모듈을 추가로 포함하고,
    상기 트레이닝 모듈은,
    트레이닝되는 이미지 생성 네트워크에 의해 제1 샘플 이미지와 시멘틱 세그먼테이션 샘플 마스크에 기초하여 이미지 블록을 생성하는 단계로서, 여기서, 상기 제1 샘플 이미지는 임의의 스타일을 갖는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크는 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내거나 혹은 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것이고, 상기 시멘틱 세그먼테이션 샘플 마스크가 제2 샘플 이미지에서의 목표 대상물의 존재 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 목표 대상물이 포함되고, 상기 시멘틱 세그먼테이션 샘플 마스크가 상기 제2 샘플 이미지에서의 목표 대상물의 존재 영역 이외의 영역을 나타내는 것인 경우, 상기 생성된 이미지 블록에는 목표 스타일을 갖는 배경이 포함되는 단계와,
    생성된 이미지 블록, 상기 제1 샘플 이미지 및 상기 제2 샘플 이미지에 기초하여 상기 트레이닝되는 이미지 생성 네트워크의 손실 함수를 결정하는 단계와,
    결정된 손실 함수에 기초하여, 상기 트레이닝되는 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와,
    생성된 이미지 블록 또는 제2 샘플 이미지를 입력 이미지로 하고, 트레이닝되는 이미지 판별기를 사용하여 상기 입력 이미지에서의 피식별 부분의 진위를 식별하는 단계로서, 생성된 이미지 블록에 목표 스타일을 갖는 목표 대상물이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 목표 대상물이 되고, 생성된 이미지 블록에 목표 스타일을 갖는 배경이 포함되면, 상기 입력 이미지에서의 피식별 부분은 상기 입력 이미지에서의 배경이 되는 단계와,
    상기 트레이닝되는 이미지 판별기의 출력 결과 및 상기 입력 이미지에 기초하여, 상기 트레이닝되는 이미지 판별기와 이미지 생성 네트워크의 네트워크 파라미터값을 조정하는 단계와,
    트레이닝되는 이미지 생성 네트워크의 트레이닝 종료 조건과 트레이닝되는 이미지 판별기의 트레이닝 종료 조건 간의 밸런스가 이루어질 때까지, 네트워크 파라미터값이 조정된 이미지 생성 네트워크를 트레이닝되는 이미지 생성 네트워크로 하고 아울러 네트워크 파라미터값이 조정된 이미지 판별기를 트레이닝되는 이미지 판별기로 하여 상기의 단계를 반복 실행하는 단계에 의해 트레이닝하여 상기 이미지 생성 네트워크를 얻는, 이미지 처리 장치.
  13. 프로세서와,
    프로세서에 의해 실행 가능한 명령을 기억하기 위한 메모리를 포함하고,
    상기 프로세서는, 상기 메모리에 기억되어 있는 명령을 불러내어 제 1 항 내지 제 6 항 중 어느 한 항의 방법을 실행하도록 구성되는, 전자 기기.
  14. 컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체로서, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 실행되면, 제 1 항 내지 제 6 항 중 어느 한 항의 방법을 실현하는, 컴퓨터 판독 가능 기억 매체.
  15. 컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 가동되면, 상기 전자 기기의 프로세서에, 제 1 항 내지 제 6 항 중 어느 한 항의 방법을 실현하기 위한 명령을 실행시키는, 컴퓨터 프로그램.
KR1020217006639A 2019-08-22 2019-12-31 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 KR20210041039A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910778128.3A CN112419328B (zh) 2019-08-22 2019-08-22 图像处理方法及装置、电子设备和存储介质
CN201910778128.3 2019-08-22
PCT/CN2019/130459 WO2021031506A1 (zh) 2019-08-22 2019-12-31 图像处理方法及装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
KR20210041039A true KR20210041039A (ko) 2021-04-14

Family

ID=74660091

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217006639A KR20210041039A (ko) 2019-08-22 2019-12-31 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체

Country Status (6)

Country Link
US (1) US20210118112A1 (ko)
JP (1) JP2022501688A (ko)
KR (1) KR20210041039A (ko)
CN (1) CN112419328B (ko)
SG (1) SG11202013139VA (ko)
WO (1) WO2021031506A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023068527A1 (ko) * 2021-10-18 2023-04-27 삼성전자 주식회사 콘텐트를 식별하기 위한 전자 장치 및 방법

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11080834B2 (en) * 2019-12-26 2021-08-03 Ping An Technology (Shenzhen) Co., Ltd. Image processing method and electronic device
CN113362351A (zh) * 2020-03-05 2021-09-07 阿里巴巴集团控股有限公司 一种图像处理方法、装置、电子设备以及存储介质
US20210304357A1 (en) * 2020-03-27 2021-09-30 Alibaba Group Holding Limited Method and system for video processing based on spatial or temporal importance
US11528493B2 (en) * 2020-05-06 2022-12-13 Alibaba Group Holding Limited Method and system for video transcoding based on spatial or temporal importance
CN111738268B (zh) * 2020-07-22 2023-11-14 浙江大学 一种基于随机块的高分遥感图像的语义分割方法及系统
US11272097B2 (en) * 2020-07-30 2022-03-08 Steven Brian Demers Aesthetic learning methods and apparatus for automating image capture device controls
CN113033334A (zh) * 2021-03-05 2021-06-25 北京字跳网络技术有限公司 图像处理方法、装置、电子设备、介质和计算机程序产品
CN112967355A (zh) * 2021-03-05 2021-06-15 北京百度网讯科技有限公司 图像填充方法及装置、电子设备和介质
CN112991158A (zh) * 2021-03-31 2021-06-18 商汤集团有限公司 一种图像生成方法、装置、设备及存储介质
CN113255813B (zh) * 2021-06-02 2022-12-02 北京理工大学 一种基于特征融合的多风格图像生成方法
CN113434633B (zh) * 2021-06-28 2022-09-16 平安科技(深圳)有限公司 基于头像的社交话题推荐方法、装置、设备及存储介质
CN113256499B (zh) * 2021-07-01 2021-10-08 北京世纪好未来教育科技有限公司 一种图像拼接方法及装置、系统
CN113486962A (zh) * 2021-07-12 2021-10-08 深圳市慧鲤科技有限公司 图像生成方法及装置、电子设备和存储介质
CN113506320B (zh) * 2021-07-15 2024-04-12 清华大学 图像处理方法及装置、电子设备和存储介质
CN113642612B (zh) * 2021-07-19 2022-11-18 北京百度网讯科技有限公司 样本图像生成方法、装置、电子设备及存储介质
CN113642576A (zh) * 2021-08-24 2021-11-12 凌云光技术股份有限公司 一种目标检测及语义分割任务中训练图像集合的生成方法及装置
CN113837205B (zh) * 2021-09-28 2023-04-28 北京有竹居网络技术有限公司 用于图像特征表示生成的方法、设备、装置和介质
CN114511488B (zh) * 2022-02-19 2024-02-27 西北工业大学 一种夜间场景的日间风格可视化方法
CN114897916A (zh) * 2022-05-07 2022-08-12 虹软科技股份有限公司 图像处理方法及装置、非易失性可读存储介质、电子设备
CN115359319A (zh) * 2022-08-23 2022-11-18 京东方科技集团股份有限公司 图像集的生成方法、装置、设备和计算机可读存储介质
CN115914495A (zh) * 2022-11-15 2023-04-04 大连海事大学 一种用于车载自动驾驶系统的目标与背景分离方法及装置
CN116452414B (zh) * 2023-06-14 2023-09-08 齐鲁工业大学(山东省科学院) 一种基于背景风格迁移的图像和谐化方法及系统
CN116958766A (zh) * 2023-07-04 2023-10-27 阿里巴巴(中国)有限公司 图像处理方法
CN117078790B (zh) * 2023-10-13 2024-03-29 腾讯科技(深圳)有限公司 图像生成方法、装置、计算机设备和存储介质
CN117710234A (zh) * 2024-02-06 2024-03-15 青岛海尔科技有限公司 基于大模型的图片生成方法、装置、设备和介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008282077A (ja) * 2007-05-08 2008-11-20 Nikon Corp 撮像装置および画像処理方法並びにそのプログラム
JP5159381B2 (ja) * 2008-03-19 2013-03-06 セコム株式会社 画像配信システム
JP5012967B2 (ja) * 2010-07-05 2012-08-29 カシオ計算機株式会社 画像処理装置及び方法、並びにプログラム
JP2013246578A (ja) * 2012-05-24 2013-12-09 Casio Comput Co Ltd 画像変換装置および画像変換方法、画像変換プログラム
WO2016197303A1 (en) * 2015-06-08 2016-12-15 Microsoft Technology Licensing, Llc. Image semantic segmentation
CN106778928B (zh) * 2016-12-21 2020-08-04 广州华多网络科技有限公司 图像处理方法及装置
JP2018132855A (ja) * 2017-02-14 2018-08-23 国立大学法人電気通信大学 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム
JP2018169690A (ja) * 2017-03-29 2018-11-01 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN107507216B (zh) * 2017-08-17 2020-06-09 北京觅己科技有限公司 图像中局部区域的替换方法、装置及存储介质
JP7145602B2 (ja) * 2017-10-25 2022-10-03 株式会社Nttファシリティーズ 情報処理システム、情報処理方法、及びプログラム
CN109978754A (zh) * 2017-12-28 2019-07-05 广东欧珀移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN108898610B (zh) * 2018-07-20 2020-11-20 电子科技大学 一种基于mask-RCNN的物体轮廓提取方法
CN109377537B (zh) * 2018-10-18 2020-11-06 云南大学 重彩画的风格转移方法
CN109840881B (zh) * 2018-12-12 2023-05-05 奥比中光科技集团股份有限公司 一种3d特效图像生成方法、装置及设备
CN110070483B (zh) * 2019-03-26 2023-10-20 中山大学 一种基于生成式对抗网络的人像卡通化方法
CN109978893B (zh) * 2019-03-26 2023-06-20 腾讯科技(深圳)有限公司 图像语义分割网络的训练方法、装置、设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023068527A1 (ko) * 2021-10-18 2023-04-27 삼성전자 주식회사 콘텐트를 식별하기 위한 전자 장치 및 방법

Also Published As

Publication number Publication date
WO2021031506A1 (zh) 2021-02-25
CN112419328A (zh) 2021-02-26
CN112419328B (zh) 2023-08-04
SG11202013139VA (en) 2021-03-30
JP2022501688A (ja) 2022-01-06
US20210118112A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
KR20210041039A (ko) 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체
JP7041284B2 (ja) 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム
JP7089106B2 (ja) 画像処理方法及び装置、電子機器、コンピュータ読取可能記憶媒体及びコンピュータプログラム
CN109829501B (zh) 图像处理方法及装置、电子设备和存储介质
US20210312214A1 (en) Image recognition method, apparatus and non-transitory computer readable storage medium
JP7097513B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN110889469B (zh) 图像处理方法及装置、电子设备和存储介质
CN110543850B (zh) 目标检测方法及装置、神经网络训练方法及装置
JP7061191B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN111340048B (zh) 图像处理方法及装置、电子设备和存储介质
JP7394147B2 (ja) 画像生成方法及び装置、電子機器並びに記憶媒体
CN110532956B (zh) 图像处理方法及装置、电子设备和存储介质
KR20220062107A (ko) 광 강도 조절 방법, 장치, 전자 기기 및 기억 매체
CN115641518B (zh) 一种无人机用视图感知网络模型及目标检测方法
JP7114811B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN114332503A (zh) 对象重识别方法及装置、电子设备和存储介质
CN111192218B (zh) 图像处理方法及装置、电子设备和存储介质
CN112819714A (zh) 目标对象曝光方法、装置、存储介质及设备
CN113313115B (zh) 车牌属性识别方法及装置、电子设备和存储介质
CN111435422B (zh) 动作识别方法、控制方法及装置、电子设备和存储介质
CN114677517A (zh) 一种无人机用语义分割网络模型及图像分割识别方法
WO2022141969A1 (zh) 图像分割方法及装置、电子设备、存储介质和程序
CN113486957A (zh) 神经网络训练和图像处理方法及装置
CN115131789A (zh) 文字识别方法、设备及存储介质
CN112381223A (zh) 神经网络训练与图像处理方法及装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application