KR102669255B1 - 다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치 - Google Patents

다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치 Download PDF

Info

Publication number
KR102669255B1
KR102669255B1 KR1020190042858A KR20190042858A KR102669255B1 KR 102669255 B1 KR102669255 B1 KR 102669255B1 KR 1020190042858 A KR1020190042858 A KR 1020190042858A KR 20190042858 A KR20190042858 A KR 20190042858A KR 102669255 B1 KR102669255 B1 KR 102669255B1
Authority
KR
South Korea
Prior art keywords
focus
image
images
focus image
map
Prior art date
Application number
KR1020190042858A
Other languages
English (en)
Other versions
KR20200096025A (ko
Inventor
박성진
김도형
김재우
배성준
장호욱
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US16/723,759 priority Critical patent/US11405547B2/en
Publication of KR20200096025A publication Critical patent/KR20200096025A/ko
Application granted granted Critical
Publication of KR102669255B1 publication Critical patent/KR102669255B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 올인포커스 영상 생성 장치의 동작은, 서로 다른 초점 영상들 및 상기 서로 다른 초점 영상들에 대응하는 레퍼런스 올인포커스 영상에 대한 딥러닝을 통하여 초점맵 계산 모델을 생성하는 단계, 카메라로부터 촬영된 다중 초점 영상들의 각각에 대하여 상기 초점맵 계산 모델을 이용하여 초점맵을 계산하는 단계, 및 상기 초점맵을 이용하여 상기 다중 초점 영상들에 대한 올인포커스 영상을 생성하는 단계를 포함할 수 있다.

Description

다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치{METHOD AND APPARATUS FOR GENERATING ALL-IN-FOCUS IMAGE USING MULTI-FOCUS IMAGE}
본 발명은 다중 초점 영상을 이용한 올인포커스 영상 생성 장치 및 그것의 동작 방법에 관한 것이다.
일반적으로, 사용자가 사진을 촬영할 때, 사용자가 원하는 물체에 초점을 맞추어 초점이 맞는 부분을 선명하게 나오도록 촬영한다. 이때, 초점을 맞춘 부분은 선명하게 나타나지만, 그 외의 부분은 초점이 맞지 않아서 흐릿하게 나타난다. 하지만, 촬영한 영상이 모두 선명하게 나타나기를 원하는 경우가 있다. 특히, 플렌옵틱(Plenoptic) 영상에서 올인포커스(All-in-Focus) 영상을 생성하기 위하여 다양한 깊이에서의 재초점 영상으로 구성된 포컬스택(Focal Stack)을 생성하고, 각 포컬스택에 대하여 초점이 얼마나 잘 맞았는지에 대하여 계산한 뒤, 각 픽셀에 대하여 어느 재초점 영상이 가장 초점이 잘 맞았는지를 찾아내어 올인포커스 영상을 생성한다.
미국등록특허: 9,143,678, 2015년 9월 22일, 제목: Apparatus and method for processing light field data using a mask with an attenuation pattern. 중국공개특허: CN 1068446463, 공개일: 2017년 6월 13일, 제목: Deep learning neural network-based microscopic image three-dimensional reconstruction method and system. 국제공개특허: WO 2018-218643, 공개일: 2018년 12월 6일, 제목: METHOD AND APPARTUS FOR ESTIMATING DEPTH OF FIELD INFORMATION.
본 발명의 목적은 동일한 위치에서 다양한 초점에서 영상을 촬영하여 멀티초점 영상을 획득하고, 이들의 관계를 이용하여 딥러닝 기반으로 각 초점 영상이 얼마나 초점이 맞는지에 대한 초점맵을 생성한 뒤 초점맵 기반으로 최종적으로 올인포커스 영상을 생성하는 올인포커스 영상 생성 장치 및 그것의 동작 방법을 제공하는데 있다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다
본 발명의 실시 예에 따른 올인포커스 영상 생성 장치의 동작은, 서로 다른 초점 영상들 및 상기 서로 다른 초점 영상들에 대응하는 레퍼런스 올인포커스 영상에 대한 딥러닝을 통하여 초점맵 계산 모델을 생성하는 단계; 카메라로부터 촬영된 다중 초점 영상들의 각각에 대하여 상기 초점맵 계산 모델을 이용하여 초점맵을 계산하는 단계; 및 상기 초점맵을 이용하여 상기 다중 초점 영상들에 대한 올인포커스 영상을 생성하는 단계를 포함할 수 있다.
실시 예에 있어서, 데이터베이스로부터 상기 다중 초점 영상들 및 상기 레퍼런스 올인포커스 영상을 읽는 단계를 더 포함할 수 있다.
실시 예에 있어서, 상기 카메라는 폴렌옵틱 카메라를 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 레퍼런스 올인포커스 영상은 상기 서로 다른 초점 영상들을 이용하여 생성되는 것을 특징으로 한다.
실시 예에 있어서, 상기 초점맵 계산 모델은 복수의 초점들의 각각에 대응하는 초점 맵을 생성하는 데 이용되는 것을 특징으로 한다.
실시 예에 있어서, 상기 올인포커스 영상을 생성하는 단계는, 상기 복수의 초점들에 대응하는 초점맵들을 이용하여 상기 다중 초점 영상들로부터 상기 올인포커스 영상을 생성하는 단계를 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 올인포커스 영상과 상기 레퍼런스 올인포커스 영상 사이의 에러 차이를 계산하는 단계를 더 포함할 수 있다.
실시 예에 있어서, 상기 에러 차이에 따라 상기 초점맵 계산 모델의 가중치를 업데이트 하는 단계를 더 포함할 수 있다.
실시 예에 있어서, 상기 올인포커스 영상을 생성하는 단계는, 상기 다중 초점 영상들의 각각의 초점맵을 기반으로 초점값에 비례하는 가중치를 생성하는 단계; 상기 올인포커스 영상의 픽셀의 컬러값을 얻기 위하여 상기 다중 초점 영상들의 각각의 가중치의 평균값을 계산하는 단계를 포함하는 단계를 더 포함할 수 있다.
본 발명의 실시 예에 따른 올인포커스 영상 생성 장치는, 적어도 하나의 프로세서 및 적어도 하나의 프로세서에 의해 실행되는 적어도 하나의 인스트럭션을 저장하는 메모리를 포함하고, 상기 적어도 하나의 인스트럭션은, 적어도 하나의 프로세서 및 적어도 하나의 프로세서에 의해 실행되는 적어도 하나의 인스트럭션을 저장하는 메모리를 포함하고, 상기 적어도 하나의 인스트럭션은, 카메라로부터 촬영된 다중 초점 영상들의 각각에 대하여 초점맵 계산 모델을 이용하여 초점맵을 계산하고; 및 상기 초점맵을 이용하여 상기 다중 초점 영상들에 대한 올인포커스 영상을 생성하도록 상기 적어도 하나의 프로세서에서 실행되는 것을 특징으로 한다.
실시 예에 있어서, 상기 적어도 하나의 인스트럭션은, 서로 다른 초점 영상들 및 상기 서로 다른 초점 영상들에 대응하는 레퍼런스 올인포커스 영상에 대한 딥러닝을 통하여 상기 초점맵 계산 모델을 생성하도록 상기 적어도 하나의 프로세서에 실행되는 것을 특징으로 한다.
실시 예에 있어서, 상기 딥러닝은 합성곱 신경망(Convolutional Neural Network, CNN)을 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 다중 초점 영상들은 상기 카메라의 동일한 위치에서 다양한 물체 혹은 깊이에 초점을 맞추어 촬영함으로써 획득되는 것을 특징으로 한다.
실시 예에 있어서, 상기 초점맵 계산 모델은 상기 다중 초점 영상들의 각각에 대응하는 초점맵을 생성하도록 이용되는 것을 특징으로 한다.
실시 예에 있어서, 상기 다중 초점 영상들에 대응하는 초점맵 값들에 대한 가중치 평균을 이용하여 상기 올인포커스 영상이 생성되는 것을 특징으로 한다.
실시 예에 있어서, 상기 올인포커스 영상과 상기 레퍼런스 올인포커스 영상 사이의 차이가 최소가 되도록 상기 초점맵 계산 모델이 학습되는 것을 특징으로 한다.
실시 예에 있어서, 상기 딥러닝은 합성곱 레이어, 배치 정규화 레이어 및 활성화 레이어를 조합으로써 구현되는 것을 특징으로 한다.
본 발명의 실시 예에 따른 전자 장치는, 플렌옵틱 카메라; 서로 다른 초점의 영상들과 상기 서로 다른 초점의 영상들에 대응하는 레퍼러스 올인포커스 영상으로 구성된 영상 세트를 저장하는 데이터베이스; 및 상기 데이터베이스로부터 상기 영상 세트를 읽어오고, 상기 읽혀진 영상 세트에 대한 딥러닝을 통하여 초점맵 계산 모델을 생성하고, 상기 초점맵 계산 모델을 이용하여 상기 플렌옵틱 카메라로부터 촬영한 다중 초점 영상들에 대한 올인포커스 영상을 생성하는 올인포커스 영상 생성 장치를 포함할 수 있다.
실시 예에 있어서, 상기 올인포커스 영상 생성 장치는, 상기 다중 초점 영상들의 각각에서 초점 영상에 대한 초점맵을 생성하고, 상기 생성된 초점맵을 기반으로 초점값에 비례하여 가중치를 생성하고, 생성된 가중치들의 평균값을 픽셀의 컬러값으로 계산함으로써 상기 올인포커스 영상을 생성하는 것을 특징으로 한다.
실시 예에 있어서, 상기 올인포커스 영상 생성 장치는, 상기 데이터베이스에서 레퍼런스 올인포커스 영상과 상기 올인포커스 영상에 대응하는 다중 초점 영상들을 이용하여 상기 초점맵 계산 모델을 학습하는 것을 특징으로 한다.
본 발명의 실시 예에 따른 올인포커스 영상 생성 장치 및 그것의 동작 방법은, 딥러닝을 이용하여 선명한 영상 생성의 정확도를 향상시킬 수 있다.
이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(100)를 예시적으로 보여주는 도면이다.
도 2는 본 발명의 실시 예에 따른 초점맵 계산 모델 학습부(110)의 동작을 예시적으로 보여주는 도면이다.
도 3은 본 발명의 실시 예에 따른 다중 초점 영상과 레퍼런스 올인포커스 영상에 대한 영상 세트를 얻는 과정을 예시적으로 보여주는 도면이다.
도 4는 본 발명의 실시 예에 따른 올인포커스 영상 생성부(120)의 동작을 예시적으로 보여주는 도면이다.
도 5는 학습과정에서 사용한 본 발명의 실시 예에 있어서 구성한 데이터베이스에서 획득한 다중 초점 영상들 중에서 하나를 예시적으로 보여주는 도면이다.
도 6은 동일한 데이터베이스에서 획득한 선명한 레퍼런스 올인포커스 영상을 예시적으로 보여주는 도면이다.
도 7은 도 5의 다중 초점 영상과 도 6의 선명한 레퍼런스 올인포커스 영상들을 이용하여 초점맵 모델을 학습하고, 이렇게 학습된 모델을 이용하여 도 5의 다중초점 영상을 입력으로 적용하여 최종적으로 생성한 올인포커스 영상에 대한 결과값을 예시적으로 보여주는 도면이다.
도 8은 본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(100)의 동작 방법을 예시적으로 보여주는 도면이다.
도 9는 본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(1000)를 예시적으로 보여주는 도면이다.
아래에서는 도면들을 이용하여 본 발명의 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 본 발명의 내용을 명확하고 상세하게 기재할 것이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 혹은 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 혹은 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 혹은 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것들의 존재 혹은 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(100)를 예시적으로 보여주는 도면이다. 도 1을 참조하면, 올인포커스 영상 생성 장치(100)는 올인포커스 영상 생성을 위한 모델 학습부(110) 및 올인포커스 영상 생성부(120)를 포함할 수 있다.
모델 학습부(110)는 학습을 통하여 초점맵 계산 모델을 생성하도록 구현될 수 있다. 실시 예에 있어서, 모델 학습부(110)는 다양한 방식으로 학습을 진행할 수 있다. 예를 들어, 학습은 딥러닝(deep learning)을 포함할 수 있다. 딥러닝은 합성곱 신경망(Convolutional Neural Networks, CNN), 리커런트 뉴럴 네트워크(Recurrent Neural Networks, RNN), Deep Belief Networks, Restricted Boltzman Machines 등에 해당될 수 있다. 아래에서는, 딥러닝이 합성곱 신경망(CNN)으로 설명되지만, 본 발명에 여기에 제한되지 않는다고 이해되어야 할 것이다.
실시 예에 있어서, 모델 학습부(110)는 딥러닝의 합성곱 신경망 기반 초점맵 모델을 생성/학습함으로써 초점맵을 계산할 수 있다. 실시 예에 있어서, 초점맵 모델을 학습하기 위하여 다중 초점 영상과 이에 대응하는 선명한 영상 세트가 구성된 데이터베이스가 구축될 수 있다.
올인포커스 영상 생성부(120)는 초점맵 계산 모델을 이용하여 다중 초점 영상으로부터 올인 포커스 영상을 생성하도록 현될 수 있다. 올인포커스 영상 생성부(120)는 다양한 초점에서 영상을 촬영하여 멀티초점 영상을 획득하고, 이들의 관계를 이용하여 딥러닝 기반으로 각 초점 영상이 얼마나 초점이 맞는지에 대한 초점맵을 생성한뒤 초점맵 기반으로 최종적으로 올인포커스 영상을 생성할 수 있다.
한편, 도 1에 도시된 모델 학습부(110) 및 올인포커스 영상 생성부(120)는 하드웨어/소프트웨어/펌웨어적으로 구현될 수 있다.
본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(100)는 초점맵 계산 모델을 이용하여 선명한 올인포커스 영상을 출력할 수 있다.
종래의 올인포커스 영상 생성 장치는 플렌옵틱 영상에서 재초점 영상을 생성하여 포컬스택을 구성하고, 이를 기반으로 각 영상에 대하여 얼마나 초점이 잘 맞는지 초점맵을 영상기반으로 계산하였다. 반면에 본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(100)는 초점맵을 영상 기반으로 하는 것이 아니라 딥러닝(deep learning)을 적용하여 선명한 영상 생성의 정확도를 향상시킬 수 있다.
도 2는 본 발명의 실시 예에 따른 초점맵 계산 모델 학습부(110)의 동작을 예시적으로 보여주는 도면이다. 도 2를 참조하면, 초점맵 계산 모델 학습부(110)는 다중 초점 영상과 이에 대응하는 레퍼런스 올인포커스 영상에 대한 영상 세트를 수신할 수 있다. 이미 존재하고 있는 데이터베이스에서 다중 초점 영상과 선명한 레퍼런스 올인포커스 영상에 대한 영상 세트가 초점맵 계산 모델을 생성하는데 사용될 수 있다.
실시 예에 있어서, 초점맵 계산 모델 학습부(110)는 촬영하여 생성한 학습 데이터베이스에서 레퍼런스 올인포커스영상과 이에 대응하는 다중초점 영상들을 이용하여 초점맵 계산 모델을 학습할 수 있다. 이때 초점맵 계산 모델 학습부(110)는 초점맵 계산모델을 통하여 획득된 초점맵을 수학식 1을 통하여 최종적으로 획득한 추정된 올인포커스 영상과 데이터베이스에서 획득한 레퍼런스 올인포커스 영상간의 차이가 최소가 되도록, 딥러닝기반으로 초점맵 계산모델을 학습할 수 있다.
여기서 는 x,y 좌표의 올인포커스된 픽셀 컬러값을 의미하고, 는 i번째 초점맵에서의 x,y좌표의 초점값, 는 i번째 초점 영상에서의 x,y좌표의 픽셀 컬러값을 의미한다.
실시 예에 있어서, 초점맵 계산 모델은 딥러닝 기반의 합성곱 신경망 모델을 사용하여 생성될 수 있다. 여기서 합성곱 신경망 모델은 크게 합성곱레이어, 배치정규화 레이어, 활성화 레이어로 구성될 수 있다. 실시 예에 있어서, 최적의 올인포커스 영상 생성을 위하여 이러한 세가지 레이어들이 다양하게 조합하여 모델 학습에 사용될 수 있다. 초점맵 계산모델의 마지막 레이어에서 최종적으로 초점값이 가중치형태, 즉 수학식 2와 같이 나오도록 수학식 3과 같이 조정될 수 있다.
여기서 는 합성곱 신경망의 i번째 초점 영상에 대한 마지막레이어의 결과값을 의미한다.
도 3은 본 발명의 실시 예에 따른 다중 초점 영상과 레퍼런스 올인포커스 영상에 대한 영상 세트를 얻는 과정을 예시적으로 보여주는 도면이다. 도 3을 참조하면, 서로 다른 초점 영상들로부터 영상 세트가 얻어질 수 있다. 예를 들어, 객체에 대하여 서로 다른 영상들 중에서 다중 초점 영상의 조합으로 하나의 올인포커스 영상이 생성될 수 있다. 다중 초점 영상과 이에 대응하는 레퍼런스 올인포커스 영상은 데이터베이스에 저장될 수 있다.
도 4는 본 발명의 실시 예에 따른 올인포커스 영상 생성부(120)의 동작을 예시적으로 보여주는 도면이다. 도 4를 참조하면, 올인포커스 영상 생성부(120)는 다중 초점 영상에서 각 초점 영상에 대한 초점맵을 생성하고, 이를 기반으로 초점값에 비례하여 가중치를 생성하고, 이후에 가중치 평균으로 최종 픽셀의 컬러값을 계산하여 최종적으로 올인포커스 영상을 생성할 수 있다.
우선, 사용자가 카메라로 동일한 위치에서 다양한 물체 혹은 깊이에 초점을 맞추어 촬영하여 다중 초점 영상이 획득될 수 있다. 이때, N개의 초점 영상을 획득하고, 이를 1초점 영상, 2초점 영상, ?? , N초점 영상으로 명명한다. 모델 학습부(110)에서 학습된 초점맵 계산모델을 통하여 N개의 초점 영상이 독립적으로 계산되어 총 N개의 초점맵이 생성될 수 있다. N개의 초점맵값을 가중치로 하여 N개의 초점 영상을 수학식 1과 같이 가중치 평균을 함으로써 최종적인 올인포커스 영상이 생성될 수 있다.
도 5는 학습과정에서 사용한 본 발명의 실시 예에 있어서 구성한 데이터베이스에서 획득한 다중 초점 영상들 중에서 하나를 예시적으로 보여주는 도면이다.
도 6은 동일한 데이터베이스에서 획득한 선명한 레퍼런스 올인포커스 영상을 예시적으로 보여주는 도면이다.
도 7은 도 5의 다중 초점 영상과 도 6의 선명한 레퍼런스 올인포커스 영상들을 이용하여 초점맵 모델을 학습하고, 이렇게 학습된 모델을 이용하여 도 5의 다중초점 영상을 입력으로 적용하여 최종적으로 생성한 올인포커스 영상에 대한 결과값을 예시적으로 보여주는 도면이다. 도 7을 참조하면, 도 5의 초점이 맞지 않은 부분들이 선명해져서 도 6의 선명한 영상과 유사해 졌음을 볼 수 있다.
도 8은 본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(100)의 동작 방법을 예시적으로 보여주는 도면이다. 도 1 내지 도 8을 참조하면, 움직임 영상 올인포커스 영상 생성 장치(100)는 다음과 같이 동작할 수 있다.
모델 학습부(110, 도 1 참조)는 데이터베이스로부터 다중 초점 영상과 그에 대응하는 레퍼런스 올인포커스 영상을 수신하고, 딥러닝(예를 들어, 합성곱 신경망)을 통하여 초점맵 계산 모델을 발생할 수 있다(S110). 올인포커스 영상 생성부(120, 도 1 참조)는 초점맵 계산 모델을 이용하여 플렌옵틱 카메라로부터 획득된 다중 초점 영상에 대한 선명한 올인포커스 영상을 생성할 수 있다(S120).
실시 예에 있어서, 데이터베이스로부터 다중 초점 영상들 및 레퍼런스 올인포커스 영상이 읽혀질 수 있다. 실시 예에 있어서, 카메라는 폴렌옵틱 카메라를 포함할 수 있다. 실시 예에 있어서, 레퍼런스 올인포커스 영상은 서로 다른 초점 영상들을 이용하여 생성될 수 있다.
실시 예에 있어서, 초점맵 계산 모델은 복수의 초점들의 각각에 대응하는 초점 맵을 생성하는 데 이용될 수 있다. 실시 예에 있어서, 복수의 초점들에 대응하는 초점맵들을 이용하여 다중 초점 영상들로부터 상기 올인포커스 영상이 생성될 수 있다.
실시 예에 있어서, 올인포커스 영상과 레퍼런스 올인포커스 영상 사이의 에러 차이가 계산될 수 있다. 실시 예에 있어서, 에러 차이에 따라 초점맵 계산 모델의 가중치가 업데이트 될 수 있다.
실시 예에 있어서, 다중 초점 영상들의 각각의 초점맵을 기반으로 초점값에 비례하는 가중치가 생성되고, 올인포커스 영상의 픽셀의 컬러값을 얻기 위하여 다중 초점 영상들의 각각의 가중치의 평균값이 계산될 수 있다.
도 9는 본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(1000)를 예시적으로 보여주는 도면이다. 도 9를 참조하면, 올인포커스 영상 생성 장치(1000)는 적어도 하나의 프로세서(1100), 네트워크 인터페이스(1200), 메모리(1300), 디스플레이(1400), 및 입출력 장치(1500)를 포함할 수 있다.
프로세서(1100)는 도 1 내지 도 8을 통하여 적어도 하나의 장치를 포함하거나, 도 1 내지 도 8을 통하여 전술한 적어도 하나의 방법으로 구현될 수 있다. 프로세서(1100)는, 상술된 바와 같이, 딥러닝을 통하여 초점맴 계산 모델을 생성하고, 초점맵 계산 모델을 이용하여 카메라로부터 획득된 다중 초점 영상에 대한 선명한 올인포커스 영상을 생성하도록 인스트럭션들(instructions)을 실행할 수 있다.
또한, 프로세서(1110)는 메모리(1300)로부터 뉴럴 네트워크 데이터, 예를 들어 이미지 데이터, 피처맵 데이터, 커널 데이터 등을 읽기/쓰고(read/write), 읽고/쓰기된 데이터를 이용하여 뉴럴 네트워크를 실행할 수 있다. 뉴럴 네트워크가 실행될 때, 프로세서(1100)는 출력 피처맵에 관한 데이터를 생성하기 위하여, 입력 피처맵과 커널 간의 컨볼루션 연산을 반복적으로 수행할 수 있다. 이때, 입력 피처맵의 채널 수, 커널의 채널 수, 입력 피처맵의 크기, 커널의 크기, 값의 정밀도(precision) 등의 다양한 팩터들에 의존하여 컨볼루션 연산의 연산량이 결정될 수 있다.
또한, 프로세서(1100)는 프로그램을 실행하고, 올인포커스 영상 생성 장치(1000)를 제어할 수 있다. 올인포커스 영상 생성 장치(1000)는 입출력 장치(1500)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 혹은 네트워크)에 연결되고, 데이터를 교환할 수 있다. 올인포커스 영상 생성 장치(1000)는 이동 전화, 스마트 폰, PDA, 태블릿 컴퓨터, 랩톱 컴퓨터 등 모바일 장치, 퍼스널 컴퓨터, 태블릿 컴퓨터, 넷북 등 컴퓨팅 장치, 혹은 텔레비전, 스마트 텔레비전, 게이트 제어를 위한 보안 장치 등 전자 제품 등 다양한 전자 장치에 포함될 수 있다.
네트워크 인터페이스(1200)는 외부의 네트워크와 다양한 유/무선 방식에 의해 통신을 수행하도록 구현될 수 있다.
메모리(1300)는 컴퓨터에서 읽을 수 있는 명령어(instruction)를 포함할 수 있다. 프로세서(1100)는 메모리(1300)에 저장된 명령어가 프로세서(1100)에서 실행됨에 따라 앞서 언급된 동작들을 수행할 수 있다. 메모리(1300)는 휘발성 메모리 혹은 비휘발성 메모리일 수 있다. 메모리(1300)는 사용자의 데이터를 저장하도록 저장 장치를 포함할 수 있다. 저장 장치는 eMMC(embedded multimedia card), SSD(solid state drive), UFS(universal flash storage) 등 일 수 있다. 저장 장치는 적어도 하나의 비휘발성 메모리 장치를 포함할 수 있다. 비휘발성 메모리 장치는, 낸드 플래시 메모리(NAND Flash Memory), 수직형 낸드 플래시 메모리(Vertical NAND; VNAND), 노아 플래시 메모리(NOR Flash Memory), 저항성 램(Resistive Random Access Memory: RRAM), 상변화 메모리(Phase-Change Memory: PRAM), 자기저항 메모리(Magnetoresistive Random Access Memory: MRAM), 강유전체 메모리(Ferroelectric Random Access Memory: FRAM), 스핀주입 자화반전 메모리(Spin Transfer Torque Random Access Memory: STT-RAM) 등이 될 수 있다.
이상에서 설명된 실시 예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/혹은 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 혹은 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 혹은 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(Operating System; OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.
또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 대응하는 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소 (processing element) 및/혹은 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수의 프로세서 혹은 하나의 프로세서 및 하나의 제어기(controller)를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 혹은 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 혹은 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/혹은 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 혹은 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 혹은 장치, 혹은 전송되는 신호파(signal wave)에 영구적으로, 혹은 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
본 발명의 실시 예에 따른 올인포커스 영상 생성 장치(1000)는, 적어도 하나의 프로세서(1100) 및 적어도 하나의 프로세서(1100)에 의해 실행되는 적어도 하나의 인스트럭션을 저장하는 메모리(1300)를 포함하고, 상기 적어도 하나의 인스트럭션은, 카메라로부터 촬영된 다중 초점 영상들의 각각에 대하여 초점맵 계산 모델을 이용하여 초점맵을 계산하고, 및 초점맵을 이용하여 다중 초점 영상들에 대한 올인포커스 영상을 생성하도록 적어도 하나의 프로세서(1100)에서 실행될 수 있다.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 혹은 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체 (magneto-optical media), 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
본 발명의 실시 예에 따른 다중 초점 영상을 이용한 올인포커스영상 생성 장치는, 딥러닝의 합성곱 신경망 기반 초점맵 모델을 생성하고 학습하여 초점맵 계산하고, 초점맵 모델을 학습하기 위하여 다중초점 영상과 이에 대응하는 선명한 영상 세트를 구성한 데이터베이스를 구비할 수 있다.
한편, 상술 된 본 발명의 내용은 발명을 실시하기 위한 구체적인 실시 예들에 불과하다. 본 발명은 구체적이고 실제로 이용할 수 있는 수단 자체뿐 아니라, 장차 기술로 활용할 수 있는 추상적이고 개념적인 아이디어인 기술적 사상을 포함할 것이다.
100, 1000: 올인포커스 영상 생성 장치
110: 초점맵 계산 모델 학습부
120: 올인포커스 영상 생성부

Claims (20)

  1. 모델 학습부 및 올인포커스 영상 생성부를 포함하는 올인포커스 영상 생성 장치의 동작 방법에 있어서,
    상기 모델 학습부가, 서로 다른 초점 영상들 및 상기 서로 다른 초점 영상들에 대응하는 레퍼런스 올인포커스 영상에 대한 딥러닝을 통하여 초점맵 계산 모델을 생성하는 단계;
    상기 올인포커스 영상 생성부가, 카메라로부터 촬영된 다중 초점 영상들의 각각에 대하여 상기 초점맵 계산 모델을 이용하여 초점맵을 계산하는 단계; 및
    상기 올인포커스 영상 생성부가, 상기 초점맵을 이용하여 상기 다중 초점 영상들에 대한 올인포커스 영상을 생성하는 단계를 포함하는 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 카메라는 폴렌옵틱 카메라를 포함하는 것을 특징으로 하는 방법.
  4. 제 1 항에 있어서,
    상기 레퍼런스 올인포커스 영상은 상기 서로 다른 초점 영상들을 이용하여 생성되는 것을 특징으로 하는 방법.
  5. 제 1 항에 있어서,
    상기 초점맵 계산 모델은 복수의 초점들의 각각에 대응하는 초점 맵을 생성하는 데 이용되는 것을 특징으로 하는 방법.
  6. 제 5 항에 있어서,
    상기 올인포커스 영상을 생성하는 단계는,
    상기 복수의 초점들에 대응하는 초점맵들을 이용하여 상기 다중 초점 영상들로부터 상기 올인포커스 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
  7. 제 6 항에 있어서,
    상기 올인포커스 영상을 생성하는 단계는,
    상기 다중 초점 영상들로부터 상기 올인포커스 영상을 생성하는 단계 이후에,
    상기 올인포커스 영상과 상기 레퍼런스 올인포커스 영상 사이의 에러 차이를 계산하는 단계를 더 포함하는 방법.
  8. 제 7 항에 있어서,
    상기 올인포커스 영상을 생성하는 단계는
    상기 에러 차이를 계산하는 단계 이후에,
    상기 에러 차이에 따라 상기 초점맵 계산 모델의 가중치를 업데이트 하는 단계를 더 포함하는 방법.
  9. 제 6 항에 있어서,
    상기 올인포커스 영상을 생성하는 단계는,
    상기 다중 초점 영상들로부터 상기 올인포커스 영상을 생성하는 단계 이전에,
    상기 다중 초점 영상들의 각각의 초점맵을 기반으로 초점값에 비례하는 가중치를 생성하는 단계;
    상기 올인포커스 영상의 픽셀의 컬러값을 얻기 위하여 상기 다중 초점 영상들의 각각의 가중치의 평균값을 계산하는 단계를 포함하는 단계를 더 포함하는 방법.
  10. 적어도 하나의 프로세서 및 적어도 하나의 프로세서에 의해 실행되는 적어도 하나의 인스트럭션을 저장하는 메모리를 포함하고,
    상기 적어도 하나의 인스트럭션은,
    적어도 하나의 프로세서 및 적어도 하나의 프로세서에 의해 실행되는 적어도 하나의 인스트럭션을 저장하는 메모리를 포함하고,
    상기 적어도 하나의 인스트럭션은,
    카메라로부터 촬영된 다중 초점 영상들의 각각에 대하여 초점맵 계산 모델을 이용하여 초점맵을 계산하고; 및
    상기 초점맵을 이용하여 상기 다중 초점 영상들에 대한 올인포커스 영상을 생성하도록 상기 적어도 하나의 프로세서에서 실행되는 것을 특징으로 하는 올인포커스 영상 생성 장치.
  11. 제 10 항에 있어서,
    상기 적어도 하나의 인스트럭션은,
    서로 다른 초점 영상들 및 상기 서로 다른 초점 영상들에 대응하는 레퍼런스 올인포커스 영상에 대한 딥러닝을 통하여 상기 초점맵 계산 모델을 생성하도록 상기 적어도 하나의 프로세서에 실행되는 것을 특징으로 하는 올인포커스 영상 생성 장치.
  12. 제 11 항에 있어서,
    상기 딥러닝은 합성곱 신경망(Convolutional Neural Network, CNN)을 포함하는 것을 특징으로 하는 올인포커스 영상 생성 장치.
  13. 제 11 항에 있어서,
    상기 다중 초점 영상들은 상기 카메라의 동일한 위치에서 다양한 물체 혹은 깊이에 초점을 맞추어 촬영함으로써 획득되는 것을 특징으로 하는 올인포커스 영상 생성 장치.
  14. 제 11 항에 있어서,
    상기 초점맵 계산 모델은 상기 다중 초점 영상들의 각각에 대응하는 초점맵을 생성하도록 이용되는 것을 특징으로 하는 올인포커스 영상 생성 장치.
  15. 제 14항에 있어서,
    상기 다중 초점 영상들에 대응하는 초점맵 값들에 대한 가중치 평균을 이용하여 상기 올인포커스 영상이 생성되는 것을 특징으로 하는 올인포커스 영상 생성 장치.
  16. 제 11항에 있어서,
    상기 올인포커스 영상과 상기 레퍼런스 올인포커스 영상 사이의 차이가 최소가 되도록 상기 초점맵 계산 모델이 학습되는 것을 특징으로 하는 올인포커스 영상 생성 장치.
  17. 제 16 항에 있어서,
    상기 딥러닝은 합성곱 레이어, 배치 정규화 레이어 및 활성화 레이어를 조합으로써 구현되는 것을 특징으로 하는 올인포커스 영상 생성 장치.
  18. 플렌옵틱 카메라;
    서로 다른 초점의 영상들과 상기 서로 다른 초점의 영상들에 대응하는 레퍼러스 올인포커스 영상으로 구성된 영상 세트를 저장하는 데이터베이스; 및
    상기 데이터베이스로부터 상기 영상 세트를 읽어오고, 상기 읽혀진 영상 세트에 대한 딥러닝을 통하여 초점맵 계산 모델을 생성하고, 상기 초점맵 계산 모델을 이용하여 상기 플렌옵틱 카메라로부터 촬영한 다중 초점 영상들에 대한 올인포커스 영상을 생성하는 올인포커스 영상 생성 장치를 포함하는 전자 장치.
  19. 제 18 항에 있어서,
    상기 올인포커스 영상 생성 장치는, 상기 다중 초점 영상들의 각각에서 초점 영상에 대한 초점맵을 생성하고, 상기 생성된 초점맵을 기반으로 초점값에 비례하여 가중치를 생성하고, 생성된 가중치들의 평균값을 픽셀의 컬러값으로 계산함으로써 상기 올인포커스 영상을 생성하는 것을 특징으로 하는 전자 장치.
  20. 제 18 항에 있어서,
    상기 올인포커스 영상 생성 장치는, 상기 데이터베이스에서 레퍼런스 올인포커스 영상과 상기 올인포커스 영상에 대응하는 다중 초점 영상들을 이용하여 상기 초점맵 계산 모델을 학습하는 것을 특징으로 하는 전자 장치.
KR1020190042858A 2019-02-01 2019-04-12 다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치 KR102669255B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/723,759 US11405547B2 (en) 2019-02-01 2019-12-20 Method and apparatus for generating all-in-focus image using multi-focus image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190013947 2019-02-01
KR20190013947 2019-02-01

Publications (2)

Publication Number Publication Date
KR20200096025A KR20200096025A (ko) 2020-08-11
KR102669255B1 true KR102669255B1 (ko) 2024-05-27

Family

ID=72048473

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190042858A KR102669255B1 (ko) 2019-02-01 2019-04-12 다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102669255B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018530225A (ja) 2015-09-07 2018-10-11 トムソン ライセンシングThomson Licensing 光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品
WO2019089039A1 (en) 2017-11-03 2019-05-09 Google Llc Aperture supervision for single-view depth prediction

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102462063B1 (ko) * 2016-12-09 2022-11-03 한국전자통신연구원 플렌옵틱 재초점을 이용한 자동 객체 분리 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018530225A (ja) 2015-09-07 2018-10-11 トムソン ライセンシングThomson Licensing 光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品
WO2019089039A1 (en) 2017-11-03 2019-05-09 Google Llc Aperture supervision for single-view depth prediction

Also Published As

Publication number Publication date
KR20200096025A (ko) 2020-08-11

Similar Documents

Publication Publication Date Title
US11232632B2 (en) Learning-based 3D model creation apparatus and method
Hazirbas et al. Deep depth from focus
CN110730970B (zh) 优化策略控制器的方法和系统
CN110383299B (zh) 记忆增强的生成时间模型
US20220335272A1 (en) Fast sparse neural networks
US20200118249A1 (en) Device configured to perform neural network operation and method of operating same
KR20200096026A (ko) 딥러닝을 이용한 움직임 블러제거 장치 및 동작 방법
US11405547B2 (en) Method and apparatus for generating all-in-focus image using multi-focus image
CA3207430A1 (en) Rendering new images of scenes using geometry-aware neural networks conditioned on latent variables
KR102365735B1 (ko) 플렌옵틱 영상 처리 장치, 그것을 포함하는 플렌옵틱 영상 처리 시스템 및 그것의 객체 분할 방법
CN112819151A (zh) 用于识别图像的方法和设备以及训练方法
US11803950B2 (en) Universal style transfer using multi-scale feature transform and user controls
Won et al. Learning depth from focus in the wild
KR102669255B1 (ko) 다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치
KR102029428B1 (ko) 기계학습 장치 및 방법
CN116263943A (zh) 图像修复方法和设备以及电子装置
CN116188349A (zh) 图像处理方法、装置、电子设备及存储介质
US12033276B2 (en) Learning-based 3D model creation apparatus and method
KR20200096027A (ko) 딥러닝을 이용한 디포커스 제거 장치 및 그것의 동작 방법
KR20220051378A (ko) 스파이킹 신경 유닛
CN111598189B (zh) 产生式模型的训练方法、数据生成方法、装置、介质和设备
US20240185589A1 (en) Method and apparatus with image restoration
US20210263859A1 (en) Memory-based reinforcement learning method for storing optional information in streaming data and system therefore
KR20200132660A (ko) 가우시안 가치 분포에 기초하여 현재 상태에 대한 행동을 선택하는 뉴럴 네트워크 장치 및 이를 이용하는 행동 선택 방법
KR20240107040A (ko) 복합 눈 카메라의 촬영 이미지를 위한 깊이 추정 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant