KR20230096901A - 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치 - Google Patents

자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치 Download PDF

Info

Publication number
KR20230096901A
KR20230096901A KR1020220182725A KR20220182725A KR20230096901A KR 20230096901 A KR20230096901 A KR 20230096901A KR 1020220182725 A KR1020220182725 A KR 1020220182725A KR 20220182725 A KR20220182725 A KR 20220182725A KR 20230096901 A KR20230096901 A KR 20230096901A
Authority
KR
South Korea
Prior art keywords
style
vector
image
embedding vector
learning
Prior art date
Application number
KR1020220182725A
Other languages
English (en)
Inventor
민영근
김민규
Original Assignee
주식회사케이티넥스알
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사케이티넥스알 filed Critical 주식회사케이티넥스알
Publication of KR20230096901A publication Critical patent/KR20230096901A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치를 개시한다.
본 발명의 실시예에 따른 자율 주행 차량의 학습을 위한 데이터 증식 방법은, 컨텐츠 이미지 및 샘플 스타일 이미지를 이용하여 스타일 학습을 수행하고, 학습 결과에 따른 제1 임베딩 벡터를 출력하는 단계; 복수의 스타일 이미지 중 신규 스타일 이미지를 선정하고, 신규 스타일 이미지에 대한 제2 임베딩 벡터를 출력하는 단계; 상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터를 보간 처리하여 보간 임베딩 벡터를 생성하는 단계; 및 상기 컨텐츠 이미지와 보간 처리된 상기 보간 임베딩 벡터를 이용하여 신규 컨텐츠 이미지를 생성하는 단계를 포함할 수 있다.

Description

자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치{Method and Apparatus for Data Augmentation for Learning Autonomous Vehicle}
본 발명은 자율 주행 차량의 학습을 위한 도로 영상 스타일을 적용한 데이터를 증식하는 방법 및 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
모델 성능을 향상시키기 위해서는 다양한 데이터와 실제 상황에서 학습을 수행해야 하나 기존의 모델 학습 방식은 훈련 데이터의 제약, 학습 구조의 변경 등에 제한이 있다.
스타일을 적용하기 위한 기존의 방식은 대량의 이미지 데이터 학습이 필요하며 그 결과 학습에 사용된 스타일 이미지의 형식과 개수에 의존하게 되는 문제가 있다.
한국공개특허공보 제10-2020-0078214호 (2020.07.01)
본 발명의 실시예들은 한정된 도로 이미지에 다양한 스타일 이미지를 적용하여 학습용 데이터를 증식시키는데 주된 목적이 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
본 발명의 일 측면에 의하면, 상기 목적을 달성하기 위한 데이터 증식 장치에서, 자율 주행 차량의 학습을 위한 데이터 증식 방법에 있어서, 데이터 증식 방법은, 컨텐츠 이미지 및 샘플 스타일 이미지를 이용하여 스타일 학습을 수행하고, 학습 결과에 따른 제1 임베딩 벡터를 출력하는 단계; 복수의 스타일 이미지 중 신규 스타일 이미지를 선정하고, 신규 스타일 이미지에 대한 제2 임베딩 벡터를 출력하는 단계; 상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터를 보간 처리하여 보간 임베딩 벡터를 생성하는 단계; 및 상기 컨텐츠 이미지와 보간 처리된 상기 보간 임베딩 벡터를 이용하여 신규 컨텐츠 이미지를 생성하는 단계를 포함할 수 있다.
그리고, 상기 제1 임베딩 벡터를 출력하는 단계는, CNN(Convolutional Neural Networks) 학습 모델을 이용하여 상기 컨텐츠 이미지에서 스타일 이미지를 분류하고, 상기 스타일 이미지에 대한 제1 임베딩 벡터를 생성할 수 있다.
그리고, 상기 제2 임베딩 벡터를 출력하는 단계는, 다변량 가우시안 분포함수(Multivariate Gaussian distribution function)를 사용하여 상기 신규 스타일 이미지를 선정하고, 선정된 상기 신규 스타일 이미지에 대한 상기 제2 임베딩 벡터를 생성할 수 있다.
그리고, 상기 제2 임베딩 벡터를 출력하는 단계는, 신규 스타일 이미지를 생성하고, 상기 신규 스타일 이미지에 대한 임베딩 벡터를 상기 제2 임베딩 벡터로 출력할 수 있다.
그리고, 상기 제2 임베딩 벡터를 출력하는 단계는, 제1 분류 카테고리에 대응하는 제1 스타일 이미지를 학습하여 제1 스타일 벡터를 출력하는 단계; 제2 분류 카테고리에 대응하는 제2 스타일 이미지를 학습하여 제2 스타일 벡터를 출력하는 단계; 제3 분류 카테고리에 대응하는 제3 스타일 이미지를 학습하여 제3 스타일 벡터를 출력하는 단계; 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 중 적어도 하나의 조합을 선정하는 단계; 및 선정된 적어도 하나의 벡터를 기반으로 조합된 상기 신규 스타일 이미지를 생성하고, 상기 신규 스타일 이미지에 대한 임베딩 벡터를 상기 제2 임베딩 벡터로 출력하는 단계를 포함할 수 있다.
그리고, 상기 적어도 하나의 조합을 선정하는 단계는, 기 수집된 실제 수집 이미지에 대한 수집 스타일 벡터와 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 각각을 비교하고, 각각의 비교 결과에 근거하여 조합을 위한 스타일 벡터를 선정할 수 있다.
그리고, 상기 보간 임베딩 벡터를 생성하는 단계는, 상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터에 스타일 적용의 세기를 조절하기 위한 변수를 적용하여 상기 보간 임베딩 벡터를 생성할 수 있다.
또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 자율 주행 차량의 학습을 위한 데이터 증식 장치에 있어서, 데이터 증식 장치는, 컨텐츠 이미지 및 샘플 스타일 이미지를 이용하여 스타일 학습을 수행하고, 학습 결과에 따른 제1 임베딩 벡터를 출력하는 스타일 학습부; 복수의 스타일 이미지 중 신규 스타일 이미지를 선정하고, 신규 스타일 이미지에 대한 제2 임베딩 벡터를 출력하는 신규 스타일 선정부; 상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터를 보간 처리하여 보간 임베딩 벡터를 생성하는 보간 처리부; 및 상기 컨텐츠 이미지와 보간 처리된 상기 보간 임베딩 벡터를 이용하여 신규 컨텐츠 이미지를 생성하는 신규 컨텐츠 이미지 생성부를 포함할 수 있다.
그리고, 상기 신규 스타일 선정부는, 신규 스타일 이미지를 생성하고, 상기 신규 스타일 이미지에 대한 임베딩 벡터를 상기 제2 임베딩 벡터로 출력할 수 있다.
그리고, 상기 보간 처리부는, 상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터에 스타일 적용의 세기를 조절하기 위한 변수를 적용하여 상기 보간 임베딩 벡터를 생성할 수 있다.
이상에서 설명한 바와 같이, 본 발명은 평범한 도로 이미지로부터 배색, 대비, 표면의 질감이 변경된 이미지를 생성할 수 있어서 자율 주행 차량의 학습에 보다 실제 같은 데이터로 사용할 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 데이터 증식 장치를 개략적으로 나타낸 블록 구성도이다.
도 2는 본 발명의 실시예에 따른 데이터 증식 방법을 개략적으로 설명한 순서도이다.
도 3은 본 발명의 제1 실시예에 따른 데이터 증식 장치를 개략적으로 나타낸 블록 구성도이다.
도 4는 본 발명의 제1 실시예에 따른 데이터 증식 장치가 처리하는 네트워크 구조를 예시한 도면이다.
도 5는 본 발명의 제1 실시예에 따른 데이터 증식 방법을 설명하기 위한 순서도이다.
도 6은 본 발명의 제2 실시예에 따른 적어도 하나의 스타일을 조합한 조합 스타일 이미지를 생성하는 조합 스타일 이미지 생성 장치를 개략적으로 나타낸 블록 구성도이다.
도 7은 본 발명의 제2 실시예에 따른 조합 스타일 이미지 생성 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 제3 실시예에 따른 데이터 증식 장치를 개략적으로 나타낸 블록 구성도이다.
도 9는 본 발명의 제4 실시예에 따른 데이터 증식 장치를 개략적으로 나타낸 블록 구성도이다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. 이하에서는 도면들을 참조하여 본 발명에서 제안하는 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치에 대해 자세하게 설명하기로 한다.
본 실시예는 이미지의 스타일을 전달하는 방식을 통해 개수와 질에서 제한적인 학습용 이미지의 배색, 대비, 표면의 질감을 변경하여 다양한 이미지를 생성하고 이를 통하여 기존에는 학습시킬 수 없었던 영역까지 확장 가능하다.
기존의 제한된 학습 데이터 세트를 확장하여 더 사실적인 학습을 가능하게 한다. 카메라 렌즈의 흠집, 플레어 현상, 센서의 노후화 등으로 변조된 이미지를 모사할 수 있다.
도 1은 본 발명의 실시예에 따른 데이터 증식 장치를 개략적으로 나타낸 블록 구성도이다.
도로 영상 스타일 적용 데이터 증식 장치(110)는 적어도 하나의 프로세서(120), 컴퓨터 판독 가능한 저장매체(130) 및 통신 버스(170)를 포함한다.
프로세서(120)는 도로 영상 스타일 적용 데이터 증식 장치(110)로 동작하도록 제어할 수 있다. 예컨대, 프로세서(120)는 컴퓨터 판독 가능한 저장 매체(130)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 컴퓨터 실행 가능 명령어는 프로세서(120)에 의해 실행되는 경우 도로 영상 스타일 적용 데이터 증식 장치(110)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능한 저장 매체(130)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보는 입출력 인터페이스(150)나 통신 인터페이스(160)를 통해서도 주어질 수 있다. 컴퓨터 판독 가능한 저장 매체(130)에 저장된 프로그램(140)은 프로세서(120)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능한 저장 매체(130)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 도로 영상 스타일 적용 데이터 증식 장치(110)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(170)는 프로세서(120), 컴퓨터 판독 가능한 저장 매체(130)를 포함하여 도로 영상 스타일 적용 데이터 증식 장치(110)의 다른 다양한 컴포넌트들을 상호 연결한다.
도로 영상 스타일 적용 데이터 증식 장치(110)는 또한 하나 이상의 입출력 장치를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(150) 및 하나 이상의 통신 인터페이스(160)를 포함할 수 있다. 입출력 인터페이스(150) 및 통신 인터페이스(160)는 통신 버스(170)에 연결된다. 입출력 장치(미도시)는 입출력 인터페이스(150)를 통해 도로 영상 스타일 적용 데이터 증식 장치(110)의 다른 컴포넌트들에 연결될 수 있다.
도로 영상 스타일 적용 데이터 증식 장치(110)의 프로세서는 스타일을 적용하는 신경망, 스타일을 학습하는 신경망과 다변량 가우시안 분포함수를 기반으로 임의의 스타일을 생성하는 네트워크 구조를 형성하고, 네트워크 구조를 이용하여 도로 영상 데이터를 생성한다.
도 2는 본 발명의 실시예에 따른 데이터 증식 방법을 개략적으로 설명한 순서도이다.
도로 영상 스타일 적용 데이터 증식 방법은 도로 영상 스타일 적용 데이터 증식 장치에 의해 수행될 수 있다.
단계 S10에서는 스타일을 적용하는 신경망, 스타일을 학습하는 신경망과 다변량 가우시안 분포함수를 기반으로 임의의 스타일을 생성하는 네트워크 구조를 형성하는 단계를 수행한다.
단계 S20에서는 네트워크 구조를 이용하여 도로 영상 데이터를 생성하는 단계를 수행한다.
도로 영상 스타일 적용 데이터 증식 장치는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합에 의해 로직회로 내에서 구현될 수 있고, 범용 또는 특정 목적 컴퓨터를 이용하여 구현될 수도 있다. 장치는 고정배선형(Hardwired) 기기, 필드 프로그램 가능한 게이트 어레이(Field Programmable Gate Array, FPGA), 주문형 반도체(Application Specific Integrated Circuit, ASIC) 등을 이용하여 구현될 수 있다. 또한, 장치는 하나 이상의 프로세서 및 컨트롤러를 포함한 시스템온칩(System on Chip, SoC)으로 구현될 수 있다.
도로 영상 스타일 적용 데이터 증식 장치는 하드웨어적 요소가 마련된 컴퓨팅 디바이스 또는 서버에 소프트웨어, 하드웨어, 또는 이들의 조합하는 형태로 탑재될 수 있다. 컴퓨팅 디바이스 또는 서버는 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신장치, 프로그램을 실행하기 위한 데이터를 저장하는 메모리, 프로그램을 실행하여 연산 및 명령하기 위한 마이크로프로세서 등을 전부 또는 일부 포함한 다양한 장치를 의미할 수 있다.
도 2에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 2에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.
본 실시예들에 따른 동작은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 매체에 기록될 수 있다. 컴퓨터 판독 가능한 매체는 실행을 위해 프로세서에 명령어를 제공하는 데 참여한 임의의 매체를 나타낸다. 컴퓨터 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 또는 이들의 조합을 포함할 수 있다. 예를 들면, 자기 매체, 광기록 매체, 메모리 등이 있을 수 있다. 컴퓨터 프로그램은 네트워크로 연결된 컴퓨터 시스템 상에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드, 및 코드 세그먼트들은 본 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.
도 3은 본 발명의 제1 실시예에 따른 데이터 증식 장치를 개략적으로 나타낸 블록 구성도이다.
본 발명의 제1 실시예에 따른 데이터 증식 장치(110)는 스타일 이미지 획득부(410), 컨텐츠 이미지 획득부(420), 스타일 학습부(430), 신규 스타일 선정부(440), 보간 처리부(450) 및 신규 컨텐츠 이미지 생성부(460)를 포함한다. 도 3의 데이터 증식 장치(110)는 일 실시예에 따른 것으로서, 도 3에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 데이터 증식 장치(110)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.
스타일 이미지 획득부(410)는 외부 장치 또는 기 저장된 저장 모듈로부터 스타일 이미지를 획득하고, 획득된 스타일 이미지를 스타일 학습부(430)로 전달한다. 여기서, 스타일 이미지는 도로 영상에 적용될 수 있는 배색 정보, 대비 정보, 표면의 질감 정보, 렌즈의 흠집 현상 정보, 플레어 현상 정보, 센서의 노후로 인한 색 왜곡 현상 정보 등 일반적인 영상에 적용될 수 있는 하나의 현상 또는 적어도 하나의 현상이 조합된 스타일에 대한 이미지일 수 있다.
스타일 이미지 획득부(410)는 이미지 형태의 스타일을 획득하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 스타일에 대한 특징 벡터의 형태로 획득될 수도 있다.
컨텐츠 이미지 획득부(420)는 외부 장치 또는 기 저장된 저장 모듈로부터 컨텐츠 이미지를 획득하고, 획득된 컨텐츠 이미지를 스타일 학습부(430)로 전달한다. 여기서, 컨텐츠 이미지는 도로 영상에 대한 이미지로써, 자율 주행 차량의 학습을 위한 이미지일 수 있다.
스타일 학습부(430)는 컨텐츠 이미지 및 스타일 이미지를 입력으로 하는 기 정의된 이미지 분류 모델을 통해 학습을 수행한다. 스타일 학습부(430)는 컨텐츠 이미지에서 스타일 이미지를 분류하고, 스타일 이미지에 대한 제1 임베딩 벡터를 생성한다.
스타일 학습부(430)는 컨텐츠 이미지에서 임베딩 벡터(embedding vector) 형태의 제1 임베딩 벡터를 예측할 수 있다. 이를 통하여 원본 컨텐츠 이미지의 스타일의 대부분은 그대로 유지하는 형태의 벡터를 도출할 수 있다.
스타일 학습부(430)는 스타일 학습 네트워크(style learning network)을 이용하여 스타일 이미지를 분류할 수 있다. 여기서, 스타일 학습 네트워크는 CNN(Convolutional Neural Networks) 학습 모델일 수 있다. 예를 들어, 스타일 학습부(430)는 LeNet, AlexNet, VGGNet, InceptionNet, ResNet, DenseNet, MobileNet, EfficientNet 등의 학습 모델을 이용할 수 있으나 반드시 이에 한정되는 것은 아니며, 컨텐츠 이미지에서 스타일 이미지를 분류하여 임베딩 벡터를 도출할 수 있다면 다양한 형태의 학습 모델이 적용될 수 있다.
신규 스타일 선정부(440)는 기 저장된 복수의 스타일 이미지 중 하나의 스타일 이미지를 선정하고, 선정된 스타일 이미지에 대한 제2 임베딩 벡터를 생성한다.
예를 들어, 신규 스타일 선정부(440)는 다변량 가우시안 분포함수(Multivariate Gaussian distribution function)를 사용하여 선정된 스타일 이미지에 대한 제2 임베딩 벡터(G(μ, R))를 생성할 수 있다. 여기서, 제2 임베딩 벡터는 평균(μ)와 공분산(R)을 이용하여 생성될 수 있다.
신규 스타일 선정부(440)는 복수의 스타일 이미지를 포함하는 스타일 이미지 모음에서 임의로 하나의 이미지를 선택하기 위한 방식으로 사용하며, 전체 스타일 이미지를 학습하지 않으므로 연산 비용을 낮출 수 있다.
보간 처리부(450)는 제1 임베딩 벡터 및 제2 임베딩 벡터를 보간 처리하여 보간 처리된 보간 임베딩 벡터를 생성한다. 보간 처리부(450)는 제1 임베딩 벡터 P(c)와 제2 임베딩 벡터 G(μ, R)을 이용하여 보간 임베딩 벡터 v를 산출할 수 있다. 보간 임베딩 벡터는 [수학식 1]과 같이 정의될 수 있다.
Figure pat00001
여기서, α는 스타일이 적용되는 세기를 조절하는 변수를 의미한다.
신규 컨텐츠 이미지 생성부(460)는 컨텐츠 이미지와 보간 처리된 보간 임베딩 벡터를 이용하여 신규 컨텐츠 이미지를 생성한다.
신규 컨텐츠 이미지 생성부(460)는 컨텐츠 이미지에 보간 처리된 보간 임베딩 벡터 기반의 스타일을 적용한 신규 컨텐츠 이미지를 생성할 수 있다.
신규 컨텐츠 이미지 생성부(460)는 스타일 전이 네트워크(style transfer network)를 적용하여 신규 컨텐츠 이미지를 생성할 수 있다. 여기서, 스타일 전이 네트워크는 원본 컨텐츠 이미지와 보간 임베딩 벡터를 입력으로 하며, 예컨대, 총 16 개로 구성된 깊은 잔차 신경망 구조(deep residual network)를 사용할 수 있다. 스타일 전이 네트워크는 신규 스타일이 적용된 신규 컨텐츠 이미지 T(c, v)를 생성할 수 있다.
도 4는 본 발명의 제1 실시예에 따른 데이터 증식 장치가 처리하는 네트워크 구조를 예시한 도면이다.
본 실시예는 스타일을 적용하는 신경망, 스타일을 학습하는 신경망과 다변량 가우시안 분포함수로 구성된 임의의 스타일을 생성하는 네트워크 구조를 사용한다.
본 실시예는 다변량 가우시안 분포함수(Multivariate Gaussian distribution function) G를 적용한다. 다변량 가우시안 분포함수를 사용하여 스타일 임베딩 벡터 G(μ, R)를 생성한다. 평균 μ와 공분산 R로 생성한다. 스타일 이미지 모음에서 임의로 하나의 이미지를 선택하기 위한 방식으로 사용하여 전체 스타일 이미지를 학습하지 않으므로 연산 비용을 낮출 수 있다.
본 실시예는 스타일 학습 네트워크(style learning network) P를 적용한다. 예컨대, Inception-v3를 사용하며 원본 이미지 컨텐츠 c에서 임베딩 벡터(embedding vector) P(c)를 예측하는데 사용한다. 이를 통하여 원본 이미지 c의 스타일의 대부분은 그대로 유지할 수 있다.
본 실시예는 보간 스타일 임베딩 벡터(interpolated style embedding vector) v를 적용한다. 예측 임베딩 벡터 P(c)와 다변량 가우시안 분포함수의 스타일 임베딩 벡터 G(μ, R)로부터 보간 스타일 임베딩 벡터 v를 계산한다. v = αG(μ, R)+(1-α)P(c). α는 스타일이 적용되는 세기를 조절하는 변수이다.
본 실시예는 스타일전이네트워크(style transfer network) T를 적용한다. 원본 이미지 c와 보간 스타일 임베딩 벡터 v를 입력으로 한다. 예컨대, 총 16개로 구성된 깊은 잔차 신경망 구조(deep residual network)를 사용할 수 있다. 스타일이 적용된 이미지 T(c, v)를 생성한다.
본 실시예에 적용되는 모델은 다수의 레이어가 네트워크 구조로 연결되며 레이어는 파라미터를 포함할 수 있고, 레이어의 파라미터는 학습가능한 필터 집합을 포함할 수 있다. 파라미터는 노드 간의 가중치 및/또는 바이어스를 포함할 수 있다. 각 네트워크는 미리 정의된 손실 함수를 최소화하는 파라미터를 도출하도록 학습될 수 있다.
도 5는 본 발명의 제1 실시예에 따른 데이터 증식 방법을 설명하기 위한 순서도이다.
데이터 증식 장치(110)는 컨텐츠 이미지 및 스타일 이미지를 이용하여 스타일 학습을 수행하고, 학습 결과에 따른 제1 임베딩 벡터를 출력한다(S510).
데이터 증식 장치(110)는 복수의 스타일 이미지 중 신규 스타일 이미지를 선정하고, 신규 스타일 이미지에 대한 제2 임베딩 벡터를 출력한다(S520).
데이터 증식 장치(110)는 제1 임베딩 벡터 및 제2 임베딩 벡터를 보간 처리한다(S530).
데이터 증식 장치(110)는 컨텐츠 이미지와 보간 처리된 보간 임베딩 벡터를 이용하여 신규 컨텐츠 이미지를 생성한다(S540).
도 5에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 5에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 5는 시계열적인 순서로 한정되는 것은 아니다.
도 5에 기재된 본 실시예에 따른 데이터 증식 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 데이터 증식 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.
도 6은 본 발명의 제2 실시예에 따른 적어도 하나의 스타일을 조합한 조합 스타일 이미지를 생성하는 조합 스타일 이미지 생성 장치를 개략적으로 나타낸 블록 구성도이다.
본 발명의 제2 실시예에 따른 조합 스타일 이미지 생성 장치(600)는 제1 스타일 학습부(610), 제2 스타일 학습부(620), 제3 스타일 학습부(630), 스타일 조합 선정부(640), 실제 수집 이미지 기반 정보 저장부(650) 및 조합 스타일 이미지 생성부(660)를 포함한다. 도 6의 조합 스타일 이미지 생성 장치(600)는 일 실시예에 따른 것으로서, 도 6에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 조합 스타일 이미지 생성 장치(600)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.
조합 스타일 이미지 생성 장치(600)는 복수의 스타일 이미지를 기 설정된 조합 조건에 근거하여 조합 스타일 이미지를 생성한다. 이하, 조합 스타일 이미지 생성 장치(600)에 포함된 구성요소 각각에 대해 설명하도록 한다.
제1 스타일 학습부(610)는 제1 분류 카테고리에 대응하는 제1 스타일 이미지를 학습하여 제1 스타일 벡터를 출력한다.
제1 스타일 학습부(610)는 렌즈의 흠집 현상 정보 기반의 제1 분류 카테고리에 대응하는 스타일 이미지를 학습하고, 학습된 결과 중 하나의 스타일 이미지를 선정하여 제1 스타일 벡터를 생성할 수 있다. 여기서, 제1 스타일 벡터는 특징 벡터로서, 행렬의 형태로 산출될 수 있다. 여기서, 제1 스타일 학습부(610)는 CNN 학습 모델일 수 있다. 예를 들어, 제1 스타일 학습부(610)는 CNN 학습 모델을 이용하여 임의의 컨텐츠 이미지에서 제1 분류 카테고리에 대응하는 스타일 이미지를 학습할 수 있다.
한편, 제1 스타일 학습부(610)는 제1 스타일 이미지를 학습하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 기 학습된 제1 스타일 이미지들을 저장하는 형태로 구현될 수도 있다.
제2 스타일 학습부(620)는 제2 분류 카테고리에 대응하는 제2 스타일 이미지를 학습하여 제2 스타일 벡터를 출력한다.
제2 스타일 학습부(620)는 플레어 현상 정보 기반의 제2 분류 카테고리에 대응하는 스타일 이미지를 학습하고, 학습된 결과 중 하나의 스타일 이미지를 선정하여 제2 스타일 벡터를 생성할 수 있다. 여기서, 제2 스타일 벡터는 특징 벡터로서, 행렬의 형태로 산출될 수 있다. 여기서, 제2 스타일 학습부(620)는 CNN 학습 모델일 수 있다. 예를 들어, 제2 스타일 학습부(620)는 CNN 학습 모델을 이용하여 임의의 컨텐츠 이미지에서 제2 분류 카테고리에 대응하는 스타일 이미지를 학습할 수 있다.
한편, 제2 스타일 학습부(620)는 제2 스타일 이미지를 학습하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 기 학습된 제2 스타일 이미지들을 저장하는 형태로 구현될 수도 있다.
제3 스타일 학습부(630)는 제3 분류 카테고리에 대응하는 제3 스타일 이미지를 학습하여 제3 스타일 벡터를 출력한다.
제3 스타일 학습부(630)는 센서의 노후로 인한 색 왜곡 현상 정보 기반의 제3 분류 카테고리에 대응하는 스타일 이미지를 학습하고, 학습된 결과 중 하나의 스타일 이미지를 선정하여 제3 스타일 벡터를 생성할 수 있다. 여기서, 제3 스타일 벡터는 특징 벡터로서, 행렬의 형태로 산출될 수 있다. 여기서, 제3 스타일 학습부(630)는 CNN 학습 모델일 수 있다. 예를 들어, 제3 스타일 학습부(630)는 CNN 학습 모델을 이용하여 임의의 컨텐츠 이미지에서 제3 분류 카테고리에 대응하는 스타일 이미지를 학습할 수 있다.
한편, 제3 스타일 학습부(630)는 제3 스타일 이미지를 학습하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 기 학습된 제3 스타일 이미지들을 저장하는 형태로 구현될 수도 있다.
조합 스타일 이미지 생성 장치(600)에서는 제1 분류 카테고리는 렌즈의 흠집 현상 정보에 대한 카테고리이고, 제2 분류 카테고리는 플레어 현상 정보에 대한 카테고리이고, 제3 분류 카테고리는 색 왜곡 현상 정보에 대한 카테고리인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 각각의 분류 카테고리는 배색 정보, 대비 정보, 표면의 질감 정보, 렌즈의 흠집 현상 정보, 플레어 현상 정보, 센서의 노후로 인한 색 왜곡 현상 정보 중 하나로 각각 설정될 수 있으며, 분류 카테고리의 개수 즉, 제n(n은 3 이상의 자연수) 스타일 학습부의 개수는 변경될 수 있다.
스타일 조합 선정부(640)는 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 중 적어도 하나의 조합을 선정한다.
스타일 조합 선정부(640)는 실제 수집 이미지에 대한 수집 스타일 벡터와 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 각각을 비교하고, 각각의 비교 결과에 근거하여 조합을 위한 스타일 벡터를 선정한다.
스타일 조합 선정부(640)는 수집 스타일 벡터와 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 각각을 비교한 비교 결과, 매칭률이 기 설정된 임계치 이상인 스타일 벡터를 조합을 위한 스타일 벡터를 선정할 수 있다. 여기서, 매칭률은 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 각각의 실제 발생 가능성을 판단하기 위하여 수집 스타일 벡터와 일치하는 정도를 의미한다. 매칭률을 판단하기 위한 방법은 일치되는 벡터값을 이용하는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 차이값, 유사도 등 다양한 방법으로 판단될 수 있다.
예를 들어, 스타일 조합 선정부(640)는 매칭률이 기 설정된 임계치 이상인 스타일 벡터가 제1 스타일 벡터 및 제3 스타일 벡터인 경우, 제1 스타일 벡터 및 제3 스타일 벡터를 조합을 선정한다.
실제 수집 이미지 기반 정보 저장부(650)는 실제 수집된 이미지에서 추출된 스타일 이미지를 저장하는 모듈을 의미한다.
실제 수집 이미지 기반 정보 저장부(650)는 수집된 수집 스타일 이미지를 저장하거나, 수집 스타일 이미지에 대한 수집 스타일 벡터를 저장할 수도 있다.
실제 수집 이미지 기반 정보 저장부(650)는 조합 스타일 이미지 생성 장치(600) 내에 포함된 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 별도의 저장 장치 또는 데이터베이스로 구현될 수도 있다.
조합 스타일 이미지 생성부(660)는 선정된 적어도 하나의 스타일 벡터를 기반으로 조합된 조합 스타일 이미지를 생성한다. 예를 들어, 조합 스타일 이미지 생성부(660)는 제1 스타일 벡터 및 제3 스타일 벡터이 선정된 경우, 제1 스타일 벡터 및 제3 스타일 벡터를 조합하여 조합 스타일 이미지를 생성한다.
조합 스타일 이미지 생성부(660)는 서로 다른 두 개 이상의 스타일 벡터를 결합하는 방식으로 조합 스타일 이미지를 생성할 수 있으나 반드시 이에 한정되는 것은 아니며, 서로 다른 두 개 이상의 스타일 벡터를 조합하여 하나의 스타일 이미지를 생성할 수 있다면 다양한 방식을 사용할 수 있다.
도 7은 본 발명의 제2 실시예에 따른 조합 스타일 이미지 생성 방법을 설명하기 위한 순서도이다.
조합 스타일 이미지 생성 장치(600)는 제1 분류 카테고리에 대응하는 제1 스타일 이미지를 학습하여 제1 스타일 벡터를 출력한다(S710).
조합 스타일 이미지 생성 장치(600)는 제2 분류 카테고리에 대응하는 제2 스타일 이미지를 학습하여 제2 스타일 벡터를 출력한다(S720).
조합 스타일 이미지 생성 장치(600)는 제3 분류 카테고리에 대응하는 제3 스타일 이미지를 학습하여 제3 스타일 벡터를 출력한다(S730).
조합 스타일 이미지 생성 장치(600)는 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 중 적어도 하나의 조합을 선정한다(S740).
조합 스타일 이미지 생성 장치(600)는 선정된 적어도 하나의 벡터를 기반으로 조합된 조합 스타일 이미지를 생성한다(S750).
도 7에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 7에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 7은 시계열적인 순서로 한정되는 것은 아니다.
도 7에 기재된 본 실시예에 따른 조합 스타일 이미지 생성 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 조합 스타일 이미지 생성 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.
도 8은 본 발명의 제3 실시예에 따른 데이터 증식 장치를 개략적으로 나타낸 블록 구성도이다.
본 발명의 제3 실시예에 따른 데이터 증식 장치(110)는 신규 스타일 선정부(440)가 신규 스타일 이미지 생성부(810)로 변경된 구성을 포함한다.
도 8에서는 제1 실시예에 따른 데이터 증식 장치(110)와의 차이점에 대해 기재하며, 중복되는 구성에 대한 설명은 생략하도록 한다.
제3 실시예에 따른 신규 스타일 이미지 생성부(810)는 조합 스타일 이미지 생성 장치(600)에 대응되는 구성을 의미한다.
신규 스타일 이미지 생성부(810)는 조합 스타일 이미지 생성 장치(600)에서 생성된 조합 스타일 이미지를 신규 스타일 이미지로 출력한다. 신규 스타일 이미지 생성부(810)는 신규 스타일 이미지에 대한 임베딩 벡터를 제2 임베딩 벡터로 보간 처리부(450)에 전달한다.
보간 처리부(450)는 제1 임베딩 벡터 및 신규 스타일 이미지에 대한 임베딩 벡터를 입력 받는다.
보간 처리부(450)는 제1 임베딩 벡터 및 신규 스타일 이미지의 임베딩 벡터를 보간 처리하여 보간 처리된 보간 임베딩 벡터를 생성한다.
보간 처리부(450)는 보간 처리된 보간 임베딩 벡터를 신규 컨텐츠 이미지 생성부(460)로 전달하여 신규 컨텐츠 이미지가 생성되도록 한다.
도 9는 본 발명의 제4 실시예에 따른 데이터 증식 장치를 개략적으로 나타낸 블록 구성도이다.
본 발명의 제4 실시예에 따른 데이터 증식 장치(110)는 보간 처리부(450) 및 신규 컨텐츠 이미지 생성부(460) 사이에 신규 스타일 이미지 생성부(810)가 추가된 구성을 포함한다.
도 9에서는 제1 실시예에 따른 데이터 증식 장치(110)와의 차이점에 대해 기재하며, 중복되는 구성에 대한 설명은 생략하도록 한다.
제4 실시예에 따른 신규 스타일 이미지 생성부(810)는 조합 스타일 이미지 생성 장치(600)에 대응되는 구성을 의미한다.
신규 스타일 이미지 생성부(810)는 보간 처리부(450)로부터 보간 임베딩 벡터를 입력 받고, 보간 임베딩 벡터를 추가로 고려하여 조합 스타일 이미지를 생성한다. 신규 스타일 이미지 생성부(810)는 조합 스타일 이미지 생성 장치(600)에서 생성된 조합 스타일 이미지를 신규 스타일 이미지로 출력한다.
신규 스타일 이미지 생성부(810)에 포함된 조합 스타일 이미지 생성부(660)에 보간 임베딩 벡터를 추가로 입력한다.
스타일 조합 선정부(640)는 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 중 적어도 하나의 조합을 선정한다.
스타일 조합 선정부(640)는 실제 수집 이미지에 대한 수집 스타일 벡터와 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 각각을 비교하고, 각각의 비교 결과에 근거하여 조합을 위한 스타일 벡터를 선정한다. 스타일 조합 선정부(640)는 수집 스타일 벡터와 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 각각을 비교한 비교 결과, 매칭률이 기 설정된 임계치 이상인 스타일 벡터를 조합을 위한 스타일 벡터를 선정할 수 있다.
조합 스타일 이미지 생성부(660)는 선정된 적어도 하나의 스타일 벡터 및 추가로 입력된 보간 임베딩 벡터를 기반으로 조합된 조합 스타일 이미지를 생성한다. 예를 들어, 조합 스타일 이미지 생성부(660)는 제1 스타일 벡터 및 제3 스타일 벡터이 선정된 경우, 제1 스타일 벡터 및 제3 스타일 벡터와 추가로 입력된 보간 임베딩 벡터를 조합하여 조합 스타일 이미지를 생성한다.
신규 스타일 이미지 생성부(810)는 생성된 조합 스타일 이미지를 신규 스타일 이미지로 신규 컨텐츠 이미지 생성부(460)에 전달하여 신규 컨텐츠 이미지가 생성되도록 한다.
이상의 설명은 본 발명의 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 실시예들은 본 발명의 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
110: 데이터 증식 장치
410: 스타일 이미지 획득부 420: 컨텐츠 이미지 획득부
430: 스타일 학습부 440: 신규 스타일 선정부
450: 보간 처리부 460: 신규 컨텐츠 이미지 생성부

Claims (10)

  1. 데이터 증식 장치에서, 자율 주행 차량의 학습을 위한 데이터 증식 방법에 있어서,
    컨텐츠 이미지 및 샘플 스타일 이미지를 이용하여 스타일 학습을 수행하고, 학습 결과에 따른 제1 임베딩 벡터를 출력하는 단계;
    복수의 스타일 이미지 중 신규 스타일 이미지를 선정하고, 신규 스타일 이미지에 대한 제2 임베딩 벡터를 출력하는 단계;
    상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터를 보간 처리하여 보간 임베딩 벡터를 생성하는 단계; 및
    상기 컨텐츠 이미지와 보간 처리된 상기 보간 임베딩 벡터를 이용하여 신규 컨텐츠 이미지를 생성하는 단계
    를 포함하는 것을 특징으로 하는 데이터 증식 방법.
  2. 제1항에 있어서,
    상기 제1 임베딩 벡터를 출력하는 단계는,
    CNN(Convolutional Neural Networks) 학습 모델을 이용하여 상기 컨텐츠 이미지에서 스타일 이미지를 분류하고, 상기 스타일 이미지에 대한 제1 임베딩 벡터를 생성하는 것을 특징으로 하는 데이터 증식 방법.
  3. 제1항에 있어서,
    상기 제2 임베딩 벡터를 출력하는 단계는,
    다변량 가우시안 분포함수(Multivariate Gaussian distribution function)를 사용하여 상기 신규 스타일 이미지를 선정하고, 선정된 상기 신규 스타일 이미지에 대한 상기 제2 임베딩 벡터를 생성하는 것을 특징으로 하는 데이터 증식 방법.
  4. 제1항에 있어서,
    상기 제2 임베딩 벡터를 출력하는 단계는,
    신규 스타일 이미지를 생성하고, 상기 신규 스타일 이미지에 대한 임베딩 벡터를 상기 제2 임베딩 벡터로 출력하는 것을 특징으로 하는 데이터 증식 방법.
  5. 제4항에 있어서,
    상기 제2 임베딩 벡터를 출력하는 단계는,
    제1 분류 카테고리에 대응하는 제1 스타일 이미지를 학습하여 제1 스타일 벡터를 출력하는 단계;
    제2 분류 카테고리에 대응하는 제2 스타일 이미지를 학습하여 제2 스타일 벡터를 출력하는 단계;
    제3 분류 카테고리에 대응하는 제3 스타일 이미지를 학습하여 제3 스타일 벡터를 출력하는 단계;
    제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 중 적어도 하나의 조합을 선정하는 단계; 및
    선정된 적어도 하나의 벡터를 기반으로 조합된 상기 신규 스타일 이미지를 생성하고, 상기 신규 스타일 이미지에 대한 임베딩 벡터를 상기 제2 임베딩 벡터로 출력하는 단계
    를 포함하는 것을 특징으로 하는 데이터 증식 방법.
  6. 제5항에 있어서,
    상기 적어도 하나의 조합을 선정하는 단계는,
    기 수집된 실제 수집 이미지에 대한 수집 스타일 벡터와 제1 스타일 벡터, 제2 스타일 벡터 및 제3 스타일 벡터 각각을 비교하고, 각각의 비교 결과에 근거하여 조합을 위한 스타일 벡터를 선정하는 것을 특징으로 하는 데이터 증식 방법.
  7. 제1항에 있어서,
    상기 보간 임베딩 벡터를 생성하는 단계는,
    상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터에 스타일 적용의 세기를 조절하기 위한 변수를 적용하여 상기 보간 임베딩 벡터를 생성하는 것을 특징으로 하는 데이터 증식 방법.
  8. 자율 주행 차량의 학습을 위한 데이터 증식 장치에 있어서,
    컨텐츠 이미지 및 샘플 스타일 이미지를 이용하여 스타일 학습을 수행하고, 학습 결과에 따른 제1 임베딩 벡터를 출력하는 스타일 학습부;
    복수의 스타일 이미지 중 신규 스타일 이미지를 선정하고, 신규 스타일 이미지에 대한 제2 임베딩 벡터를 출력하는 신규 스타일 선정부;
    상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터를 보간 처리하여 보간 임베딩 벡터를 생성하는 보간 처리부; 및
    상기 컨텐츠 이미지와 보간 처리된 상기 보간 임베딩 벡터를 이용하여 신규 컨텐츠 이미지를 생성하는 신규 컨텐츠 이미지 생성부
    를 포함하는 것을 특징으로 하는 데이터 증식 장치.
  9. 제8항에 있어서,
    상기 신규 스타일 선정부는,
    신규 스타일 이미지를 생성하고, 상기 신규 스타일 이미지에 대한 임베딩 벡터를 상기 제2 임베딩 벡터로 출력하는 것을 특징으로 하는 데이터 증식 장치.
  10. 제8항에 있어서,
    상기 보간 처리부는,
    상기 제1 임베딩 벡터 및 상기 제2 임베딩 벡터에 스타일 적용의 세기를 조절하기 위한 변수를 적용하여 상기 보간
KR1020220182725A 2021-12-23 2022-12-23 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치 KR20230096901A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210186319 2021-12-23
KR1020210186319 2021-12-23

Publications (1)

Publication Number Publication Date
KR20230096901A true KR20230096901A (ko) 2023-06-30

Family

ID=86959671

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220182725A KR20230096901A (ko) 2021-12-23 2022-12-23 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치

Country Status (1)

Country Link
KR (1) KR20230096901A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102647337B1 (ko) 2023-07-24 2024-03-13 주식회사 아임토리 데이터 증식 및 분석 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200078214A (ko) 2018-12-21 2020-07-01 삼성전자주식회사 스타일 변환을 위한 영상 처리 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200078214A (ko) 2018-12-21 2020-07-01 삼성전자주식회사 스타일 변환을 위한 영상 처리 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102647337B1 (ko) 2023-07-24 2024-03-13 주식회사 아임토리 데이터 증식 및 분석 장치 및 방법

Similar Documents

Publication Publication Date Title
US11544831B2 (en) Utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image
US10325181B2 (en) Image classification method, electronic device, and storage medium
KR102641116B1 (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
CN111369572B (zh) 一种基于图像修复技术的弱监督语义分割方法和装置
JP6647632B2 (ja) 機械学習用訓練データの生成
US20210089845A1 (en) Teaching gan (generative adversarial networks) to generate per-pixel annotation
WO2021027759A1 (en) Facial image processing
US11314989B2 (en) Training a generative model and a discriminative model
CN113420729A (zh) 多尺度目标检测方法、模型、电子设备及其应用
CN107784288A (zh) 一种基于深度神经网络的迭代定位式人脸检测方法
CN111310156B (zh) 一种滑块验证码的自动识别方法及系统
KR20230096901A (ko) 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치
CN111242176B (zh) 计算机视觉任务的处理方法、装置及电子系统
CA3143928C (en) Dynamic image resolution assessment
CN111160459A (zh) 超参数的优化装置和方法
Pajot et al. Unsupervised adversarial image inpainting
JP2023508641A (ja) データ増強基盤事物分析モデル学習装置及び方法
Hepburn et al. Enforcing perceptual consistency on generative adversarial networks by using the normalised laplacian pyramid distance
US20230073175A1 (en) Method and system for processing image based on weighted multiple kernels
US11755688B2 (en) Apparatus and method for generating training data for a machine learning system
CN112488985A (zh) 图像质量确定方法、装置及设备
JP2018005405A (ja) 情報処理装置および情報処理方法
KR102413588B1 (ko) 학습 데이터에 따른 객체 인식 모델 추천 방법, 시스템 및 컴퓨터 프로그램
JP7362924B2 (ja) データ増強基盤空間分析モデル学習装置及び方法
CN116152082A (zh) 用于图像去模糊的方法和设备