KR102614908B1 - 이미지 복원 방법 및 장치 - Google Patents

이미지 복원 방법 및 장치 Download PDF

Info

Publication number
KR102614908B1
KR102614908B1 KR1020180153829A KR20180153829A KR102614908B1 KR 102614908 B1 KR102614908 B1 KR 102614908B1 KR 1020180153829 A KR1020180153829 A KR 1020180153829A KR 20180153829 A KR20180153829 A KR 20180153829A KR 102614908 B1 KR102614908 B1 KR 102614908B1
Authority
KR
South Korea
Prior art keywords
image
image restoration
sensing elements
target
sensor
Prior art date
Application number
KR1020180153829A
Other languages
English (en)
Other versions
KR20200031012A (ko
Inventor
조양호
강덕영
남동경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/506,423 priority Critical patent/US11030724B2/en
Priority to CN201910664070.XA priority patent/CN110896467B/zh
Priority to EP19193566.7A priority patent/EP3624049B1/en
Priority to JP2019154767A priority patent/JP7101646B2/ja
Publication of KR20200031012A publication Critical patent/KR20200031012A/ko
Priority to US17/246,162 priority patent/US11663699B2/en
Application granted granted Critical
Publication of KR102614908B1 publication Critical patent/KR102614908B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

이미지 복원 장치 및 방법이 제공된다. 일 실시예에 따른 이미지 복원 장치는 여러 확장 간격을 가지는 커널들에 대응하는 컨볼루션 레이어를 포함하는 이미지 복원 모델을 저장할 수 있고, 해당 이미지 복원 모델을 이용하여 복산 시야 이미지가 재배열된 대상 이미지로부터 출력 이미지를 복원할 수 있다.

Description

이미지 복원 방법 및 장치{DEVICE AND METHOD TO RESTORE IMAGE}
이하, 이미지를 복원하는 기술이 제공된다.
광학 기술 및 이미지 처리 기술의 발달로 인해, 멀티미디어 컨텐츠, 보안 및 인식 등 광범위한 분야에 촬영 장치가 활용되고 있다. 예를 들어, 촬영 장치는 모바일 기기, 카메라, 차량 및 컴퓨터 등에 탑재되어, 이미지를 촬영하거나, 객체를 인식하거나, 기기를 제어하기 위한 데이터를 획득할 수 있다. 촬영 장치의 부피는 렌즈의 사이즈, 렌즈의 초점 거리(focal length) 및 센서의 사이즈 등에 의해 결정될 수 있다. 예를 들어, 렌즈의 사이즈와 센서의 사이즈에 기반하여 촬영 장치의 부피가 조절될 수 있다. 센서의 사이즈가 감소함에 따라, 센서에 입사되는 광량이 감소할 수 있다. 이에 따라, 이미지의 해상도가 낮아지거나, 저조도 환경에서의 촬영이 어려울 수 있다. 촬영 장치의 부피를 감소시키기 위해, 소형 렌즈들로 구성된 멀티 렌즈가 이용될 수 있다. 렌즈의 사이즈가 감소할 경우, 렌즈의 초점 거리가 줄어들 수 있다. 따라서, 멀티 렌즈를 통해 촬영 장치의 부피가 감소할 수 있다.
일 실시예에 따르면 이미지 복원 방법은, 대상 이미지를 획득하는 단계; 및 상기 획득된 대상 이미지로부터, 확장 간격(dilation gap)을 가지는 커널(kernel)에 대응하는 컨볼루션 레이어(convolutional layer)를 포함하는 이미지 복원 모델(image restoration model)에 기초하여, 출력 이미지(output image)를 복원(restore)하는 단계를 포함할 수 있다.
상기 출력 이미지를 복원하는 단계는, 이미지 센서 내에서 렌즈 및 센싱 엘리먼트의 배치 구조에 기초하여 결정된 복수의 확장 간격들의 각각에 대응하는 커널을 가지는 컨볼루션 레이어에 기초하여, 상기 출력 이미지를 산출하는 단계를 포함할 수 있다.
상기 이미지 복원 모델은, 상기 센싱 엘리먼트 배치 구조 및 이미지 센서로부터 지점까지의 거리에 기초하여 결정된 확장 간격을 가지는 커널을 가지는 컨볼루션 레이어를 포함할 수 있다.
상기 이미지 복원 모델은, 이미지 센서로부터 임계 거리보다 멀리 위치된 지점에서 방사된 광선들이 수신되는 센싱 엘리먼트들의 위치 관계에 기초하여 결정된 커널에 대응하는 컨볼루션 레이어를 포함할 수 있다.
상기 이미지 복원 모델은, 이미지 센서로부터 최소 촬영 거리에 위치된 지점에 방사된 광선들이 수신되는 센싱 엘리먼트들의 위치 관계에 기초하여 결정된 커널에 대응하는 컨볼루션 레이어를 포함할 수 있다.
상기 최소 촬영 거리에 대응하는 커널은, 이미지 센서의 최소 촬영 거리, 상기 이미지 센서의 중심 렌즈로부터 최외곽 렌즈까지의 거리, 및 렌즈의 초점 거리에 기초하여 산출된 최대 디스패리티에 따라 결정된 확장 간격(dilation gap)을 가질 수 있다.
상기 이미지 복원 모델은, 복수의 레벨들에 대응하는 컨볼루션 레이어들을 포함할 수 있다.
상기 이미지 복원 모델은, 서로 다른 확장 간격을 가지는 커널들의 각각에 대응하는 컨볼루션 레이어를 포함할 수 있다.
상기 출력 이미지를 복원하는 단계는, 상기 컨볼루션 레이어에 기초하여, 상기 대상 이미지로부터 특징 데이터를 추출하는 단계; 및 상기 특징 데이터로부터, 상기 이미지 복원 모델의 나머지 레이어에 기초하여, 상기 출력 이미지를 생성하는 단계를 포함할 수 있다.
상기 이미지 복원 모델은, 동일한 확장 간격을 가지는 복수의 커널들에 대응하는 컨볼루션 레이어들을 포함할 수 있다.
상기 출력 이미지를 복원하는 단계는, 기준 복안 이미지가 재배열된 기준 입력 이미지로부터 기준 출력 이미지를 출력하도록 트레이닝된 이미지 복원 모델에 기초하여, 상기 대상 이미지로부터 상기 출력 이미지를 산출하는 단계를 포함할 수 있다.
상기 대상 이미지를 획득하는 단계는, 복안 시야(CEV, compound eye vision) 이미지를 획득하는 단계; 및 상기 복안 시야 이미지를 재배열함으로써 상기 대상 이미지를 생성하는 단계를 포함할 수 있다.
상기 복안 시야 이미지를 획득하는 단계는, 어레이 형태로 배열된 복수의 렌즈들을 통해 상기 복수의 센싱 엘리먼트들에서 수신된 광선의 세기에 기초하여, 상기 복안 시야 이미지를 획득하는 단계를 포함할 수 있다.
상기 복수의 렌즈들 및 상기 복수의 센싱 엘리먼트들은, 서로에 대해 엇갈려서 배치될 수 있다.
상기 대상 이미지를 생성하는 단계는, 상기 복수의 센싱 엘리먼트들에서 센싱되는 라이트 필드 정보에 기초하여, 상기 복안 시야 이미지를 재배열하는 단계를 포함할 수 있다.
상기 복안 시야 이미지를 재배열하는 단계는, 상기 복수의 센싱 엘리먼트들에서 서로 유사한 라이트 필드 정보를 센싱한 센싱 엘리먼트들의 픽셀들이 서로 인접하도록, 상기 복안 시야 이미지의 픽셀들을 재배열하는 단계를 포함할 수 있다.
상기 복안 시야 이미지의 픽셀들을 재배열하는 단계는, 이미지 센서로부터 임계 거리(threshold distance)보다 먼 지점들(points)으로부터 방사되는 광선들 및 상기 복수의 센싱 엘리먼트들 간의 위치 관계에 기초하여, 상기 복수의 센싱 엘리먼트들의 각각에 대해 해당 센싱 엘리먼트에서 센싱되는 라이트 필드를 방출한 지점들을 결정하는 단계; 및 공간적으로 서로 인접한 지점들에서 방출된 라이트 필드 정보에 대응하는 픽셀들이 인접하도록 상기 픽셀들을 재배열하는 단계를 포함할 수 있다.
일 실시예에 따르면 이미지 복원 장치는, 대상 이미지를 획득하는 이미지 획득부; 및 상기 획득된 대상 이미지로부터, 확장 간격을 가지는 커널을 가지는 컨볼루션 레이어들을 포함하는 이미지 복원 모델에 기초하여, 출력 이미지를 복원하는 프로세서를 포함할 수 있다.
다른 일 실시예에 따르면 이미지 복원 방법은 이미지 센서 및 대상 객체(target object) 간의 거리별로 입력 이미지를 재배열함으로써, 복수의 대상 이미지들을 획득하는 단계; 및 상기 획득된 복수의 대상 이미지들의 각각으로부터, 컨볼루션 레이어들을 포함하는 이미지 복원 모델에 기초하여, 출력 이미지를 복원하는 단계를 포함할 수 있다.
도 1은 일 실시예에 따른 이미지 복원 장치의 구조를 도시한 도면이다.
도 2는 일 실시예에 따른 센싱 엘리먼트가 렌즈를 통해 광선을 수신하는 모습을 도시한 도면이다.
도 3은 일 실시예에 따른 센싱 엘리먼트에 대응하는 픽셀의 재배치를 개념적으로 도시한 도면이다.
도 4는 일 실시예에 따른 복안시야 이미지를 재배열하여 대상 이미지를 생성하는 과정을 설명하는 도면이다.
도 5 및 도 6은 일 실시예에 따른 객체와의 거리에 따라 광선을 수신하는 센싱 엘리먼트가 달라지는 것을 설명하는 도면이다.
도 7은 일 실시예에 따른 복안시야 이미지의 재배열에서 근접한 객체에 대한 해상도 저하를 설명하는 도면이다.
도 8은 일 실시예에 따른 대상 이미지로부터 출력 이미지를 복원하는 과정을 설명하는 도면이다.
도 9a 내지 도 9c는 일 실시예에 따른 컨볼루션 레이어에서 사용되는 확장 간격을 가지는 커널을 설명하는 도면이다.
도 10은 일 실시예에 따른 최대 디스패리티를 설명하는 도면이다.
도 11은 일 실시예에 따른 이미지 복원 모델의 상세 구조를 설명하는 도면이다.
도 12는 다른 일 실시예에 따른 이미지 복원 과정을 설명하는 도면이다.
도 13은 일 실시예에 따른 이미지 복원 방법을 설명하는 흐름도이다.
도 14는 일 실시예에 따른 이미지 복원 모델을 트레이닝시키는 방법을 설명하는 흐름도이다.
도 15는 일 실시예에 따른 이미지 복원 장치의 구성을 설명하는 블록도이다.
도 16은 일 실시예에 따른 트레이닝 장치의 구성을 설명하는 블록도이다.
도 17 및 도 18은 일 실시예에 따른 이미지 복원 장치가 구현될 수 있는 기기를 도시한 도면이다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 이미지 복원 장치의 구조를 도시한 도면이다.
도 1은 이미지 복원 장치(100)에서 이미지 센서의 구조를 주로 도시한다. 일 실시예에 따른 이미지 복원 장치(100)에 의하여 촬영 및 복원되는 이미지의 품질은 센서(120)에 포함된 센싱 엘리먼트들의 수, 및 센싱 엘리먼트에 입사되는 광량에 의하여 결정될 수 있다. 예를 들어, 이미지의 해상도는 센서(120)에 포함된 센싱 엘리먼트들의 수에 의하여 결정되고, 이미지의 감도는 센싱 엘리먼트에 입사되는 광량에 의하여 결정될 수 있다. 센싱 엘리먼트에 입사되는 광량은 센싱 엘리먼트의 사이즈에 기초하여 결정될 수 있다. 센싱 엘리먼트의 사이즈가 클수록 센싱 엘리먼트에 입사되는 광량은 증가할 수 있고, 센서(120)의 동적 범위(dynamic range)가 증가할 수 있다. 따라서, 센서(120)에 포함된 센싱 엘리먼트들의 수가 증가함에 따라 센서(120)는 고해상도 이미지를 촬영할 수 있고, 센싱 엘리먼트의 사이즈가 증가함에 따라 센서(120)는 저조도에서 고감도 이미지 촬영에 유리하게 작동할 수 있다.
이미지 복원 장치(100)의 부피는 렌즈(111)의 초점 거리(focal length)(f)에 의하여 결정될 수 있다. 보다 구체적으로, 이미지 복원 장치(100)의 부피는 렌즈(111)와 센서(120) 사이의 간격에 의하여 결정되는데, 렌즈(111)에 의하여 굴절된 빛(190)을 수집하기 위하여 센서(120)는 렌즈(111)의 초점 거리(f)에 위치해야 하므로 이미지 복원 장치(100)에 포함된 렌즈(111)와 센서(120)는 렌즈(111)의 초점 거리(f)만큼 이격되어 배치되어야 하기 때문이다. 렌즈(111)의 초점 거리(f)는 이미지 복원 장치(100)의 시야각과 렌즈(111)의 사이즈(예를 들어, 렌즈(111)의 구경의 반지름)에 의하여 결정된다. 예를 들어, 시야각이 고정될 경우 렌즈(111)의 사이즈에 비례하여 초점 거리(f)가 길어진다. 또한, 렌즈(111)의 사이즈는 센서(120)의 사이즈에 기초하여 결정될 수 있다. 예를 들어, 일정한 시야각 범위의 이미지를 촬영하기 위해서는, 센서(120)의 사이즈가 증가함에 따라 렌즈(111)의 사이즈가 증가되어야 한다.
전술한 바에 의하면, 시야각 및 이미지의 해상도를 유지하면서 이미지의 감도를 증가시키려면, 이미지 복원 장치(100)의 부피가 증가된다. 예를 들어, 이미지의 해상도를 유지하면서 이미지의 감도를 증가시키려면, 센서(120)에 포함된 센싱 엘리먼트들의 수를 유지하면서 각 센싱 엘리먼트의 사이즈를 증가시켜야 하므로 센서(120)의 사이즈가 증가된다. 이 때, 시야각을 유지하려면, 센서(120)의 사이즈가 증가함에 따라 렌즈(111)의 사이즈가 증가하며 렌즈(111)의 초점 거리(f)가 길어지므로, 이미지 복원 장치(100)의 부피가 증가된다.
이미지 복원 장치(100)의 부피를 감소시키기 위해, 센서(120)의 해상도를 유지하면서 센싱 엘리먼트의 사이즈를 감소시키거나, 센싱 엘리먼트의 사이즈를 유지하면서 센서(120)의 해상도를 감소시키는 설계 방법들이 고려될 수 있다. 다만, 센서(120)의 해상도를 유지하면서 센싱 엘리먼트의 사이즈를 감소시키는 경우, 센서(120)의 사이즈가 감소하고 렌즈(111)의 초점 거리(f)가 짧아져 이미지 복원 장치(100)의 부피를 감소시킬 수 있으나, 이미지의 감도가 저하된다. 이 경우, 저조도 화질이 감소될 수 있다. 또한, 센싱 엘리먼트의 사이즈를 유지하면서 센서(120)의 해상도를 감소시키는 경우, 센서(120)의 사이즈가 감소하고 렌즈(111)의 초점 거리(f)가 짧아져 이미지 복원 장치(100)의 부피를 감소시킬 수 있으나, 이미지의 해상도가 저하된다.
스마트폰 카메라의 이미지 화질(image quality)이 증가하고 있으나, 아직 DSLR 카메라의 이미지 화질보다는 낮다. 스마트폰 카메라에 의해 캡쳐될 수 있는 광량에서 차이가 있기 때문이다. 다만, 광량을 확보하기 위해 센서 크기가 증가된 구조는, 초점 길이(focal length) 및 개구 크기(aperture size) 등이 증가하게 되므로, 스마트폰의 폼 팩터를 충족시킬 수 없다. 아래에서는 렌즈 어레이(110)를 통해 스마트폰의 폼 팩터를 충족시키면서, 고해상도 이미지를 촬영할 수 있는 이미지 복원 장치(100)를 설명한다.
도 1을 참조하면, 이미지 복원 장치(100)는 렌즈 어레이(110) 및 센서(120)를 포함한다. 렌즈 어레이(110)는 렌즈들을 포함하고, 센서(120)는 센싱 엘리먼트들을 포함한다.
일 실시예에 따르면, 렌즈 어레이(110)에 포함된 렌즈들 각각의 사이즈를 감소시킬수록, 다시 말해 동일한 넓이에 포함되는 렌즈들의 수를 증가시킬수록 렌즈(111)의 초점 거리(f)는 작아질 수 있고, 이미지 복원 장치(100)의 두께는 감소할 수 있다. 이 경우, 이미지 복원 장치(100)는 각 렌즈(111)에서 촬영된 저해상도 이미지들을 조합하여 원본 고해상도 이미지를 복원할 수 있다. 따라서, 렌즈 어레이(110)에 포함된 렌즈들을 분할함으로써, 박형 카메라(thin camera)가 구현될 수 있다.
렌즈 어레이(110)의 개별 렌즈(111)는 자신의 사이즈에 대응하는 센서(120)의 일정 영역을 커버할 수 있다. 다시 말해, 해당 영역에 포함된 센서 (120)의 센싱 엘리먼트들에는 해당 개별 렌즈(111)를 통과한 빛(190)이 입사될 수 있다. 빛(190)은 복수의 광선들을 포함할 수 있다. 광선(191)은 광자(photon)(101)의 흐름에 대응할 수 있다. 센서(120)의 센싱 엘리먼트들 각각은 렌즈 어레이(110)의 렌즈들을 통과한 광선(191)에 기초하여 센싱 정보를 생성할 수 있다. 예를 들어, 센싱 엘리먼트(121)는 렌즈(111)를 통해 입사되는 광선(191)에 기초하여 센싱 정보를 생성할 수 있다. 이미지 복원 장치(100)는 센서(120)에 의해 출력된 센싱 정보에 기초하여, 이미지 복원 장치(100)의 시야에 포함된 지점들에 관한 원본 색상 신호(original color signal)에 대응하는 색상 정보(예를 들어, 색상 값)를 결정하고, 결정된 색상 정보에 기초하여 촬영 이미지를 복원할 수 있다.
또한, 센싱 엘리먼트(121)는 임의의 색상을 센싱 하기 위한 색상 필터를 포함할 수 있다. 센싱 엘리먼트(121)는 특정 색상에 대응하는 색상 값을 센싱 정보로서 생성할 수 있다. 센서(120)를 구성하는 복수의 센싱 엘리먼트들의 각각은 공간적으로 인접한 인접 센싱 엘리먼트와 다른 색상을 센싱하도록 배치될 수 있다.
센싱 정보의 다양성이 충분히 확보되어, 이미지 복원 장치(100)의 시야에 포함된 지점들에 대응하는 원본 신호 정보와 센싱 정보 사이에 완전 랭크(full rank) 관계가 형성될 때, 센서(120)의 최대 해상도에 대응하는 촬영 이미지가 도출될 수 있다. 센싱 정보의 다양성은 렌즈 어레이(110)에 포함된 렌즈들의 수 및 센서(120)에 포함된 센싱 엘리먼트들의 수와 같은 이미지 복원 장치(100)의 파라미터들에 기초하여 확보될 수 있다.
참고로, 도 1에 도시되지는 않았으나, 이미지 복원 장치(100)는 이미지를 복원하는데 사용되는 이미지 복원 모델을 저장하는 메모리, 및 이미지 복원 모델을 이용하여 이미지를 복원하는 프로세서를 포함할 수 있다.
일 실시예에 따른 이미지 복원 장치(100)는 이상적인 조건에서 벗어나는 다양한 노이즈 성분(noise component)에도 강인하게 이미지를 복원할 수 있다. 또한, 이미지 복원 장치(100)는 임의의 패턴(예를 들어, 베이어(Bayer) 패턴) 등과 무관하게 이미지를 복원할 수 있다. 아래에서 설명하는 실시예들은 이미지 복원 장치(100)가 다중 렌즈로 촬영된 다수의 저해상도 이미지를 이용하여 고해상도 이미지를 복원하는 동작을 설명한다. 후술하겠으나, 다수의 저해상도 이미지는 복안 시야 이미지의 형태로 나타날 수 있다.
도 2는 일 실시예에 따른 센싱 엘리먼트가 렌즈를 통해 광선을 수신하는 모습을 도시한 도면이다.
상술한 바와 같이, 센서는 개별 지점들(points)(230)(X1 내지 X10)에 대응하는 광선들을 수신할 수 있다. 광선들은 렌즈(210)를 통해 센서에 의해 검출될 수 있다. 예를 들어, 개별 지점들(230)의 각각으로부터 복수의 광선들이 방출될 수 있다. 동일한 지점으로부터 방출된 광선들은 라이트 필드(LF, light field)를 형성할 수 있다. 임의의 지점으로부터 방출된 라이트 필드는, 피사체(subject) 상의 임의의 지점에서 반사된 광선들의 방향 및 세기를 나타내는 필드(field)일 수 있다. 예를 들어, 제1 지점(X1)으로부터 방출된 광선들은 제1 라이트 필드를 형성할 수 있고, 제1 센싱 엘리먼트(S1), 제4 센싱 엘리먼트(S4), 및 제7 센싱 엘리먼트(S7)로 입사할 수 있다. 나머지 지점들(X2 내지 X10)의 각각으로부터 방출된 광선들도 각각 그에 대응하는 라이트 필드를 형성할 수 있다. 개별 지점들(230)은 예를 들어, 임의의 객체(예를 들어, 피사체) 상의 지점들일 수 있다. 개별 지점들(230)로부터 방출되는 광선들은, 예를 들어, 태양광 등이 객체로부터 반사된 광선들일 수 있다.
센싱 엘리먼트들(220)(예를 들어, S1 내지 S10)은 복수의 렌즈들을 통과한 광선들을 중첩하여 센싱할 수 있다. 예를 들어, 도 2에 도시된 렌즈 어레이에서, 렌즈(210)로부터 센서까지의 초점 거리가 감소될 수 있다. 따라서, 센싱 엘리먼트(S1)는 지점들(X1 내지 X3)로부터 방사된 광선들이 중첩된 센싱 정보(예를 들어, 세기 값)를 생성할 수 있다. 이미지 복원 장치는, 이미지를 복원하기 위하여, 이러한 중첩된 센싱 정보를 복원할 필요가 있다.
도 2에 도시된 센싱 엘리먼트들(S1 내지 S10)에 의해 생성되는 센싱 정보는, 하기 수학식 1에 따라, 지점들(230)의 각각으로부터 입사되는 광선에 대응하는 원본 신호 정보(예를 들어, 세기 값)로 모델링될 수 있다.
[수학식 1]
상술한 수학식 1에서, S는 개별 센싱 엘리먼트에 의해 센싱되는 센싱 정보(예를 들어, 검출된 세기 값)를 지시하는 행렬을 나타낼 수 있다. X는 개별 지점으로부터 센싱 엘리먼트들(S1 내지 S10)로 입사되는 광선에 대응하는 신호 값(예를 들어, 입사된 광선의 색상 값)을 지시하는 행렬을 나타낼 수 있다. T는 변환 행렬로서 센싱 엘리먼트들(S1 내지 S10)에 의해 검출된 센싱 정보 및 입사되는 빛에 대응하는 신호 정보 간의 관계를 나타낼 수 있다. 도 2에 도시된 구조에서 개별 지점들(X1 내지 X10)에 대응하는 광선들, 렌즈들 및 센싱 엘리먼트들(S1 내지 S10)은 하기 수학식 2와 같이 모델링될 수 있다. 하기 수학식 2에서 개별 지점들(X1 내지 X10)은 이미지 센서로부터 무한 초점 위치(infinite focal point)에 배치된 것으로 모델링될 수 있다. 예를 들어, 개별 지점들(X1 내지 X10) 및 이미지 센서 간의 거리는 임계 거리보다 클 수 있다.
[수학식 2]
상술한 수학식 2에서 설명의 편의를 위하여, 개별 지점들(X1 내지 X10)의 각각에 대응하는 광선의 신호 정보(예를 들어, 광선 세기 값)를 X1 내지 X10으로 표시하였다. 또한, 센싱 엘리먼트들(S1 내지 S10)에서 검출된 센싱 정보(예를 들어, 센싱 세기 값)도 S1 내지 S10으로 표시하였다. 일 실시예에 따르면, 센서를 구성하는 센싱 엘리먼트들(S1 내지 S10)에 대응하는 센싱 정보(예를 들어, 색상 정보)와 개별 지점으로부터 입사되는 광선들(X1 내지 X10)에 대응하는 원본 신호 간의 관계(예를 들어, 상술한 변환 행렬)는 상술한 렌즈(210)와 센서 간의 배치, 렌즈 어레이를 구성하는 렌즈들의 개수, 센서를 구성하는 센싱 엘리먼트들(S1 내지 S10)의 개수 등에 기초하여 결정될 수 있다.
하기 도 3에서는 상술한 모델링에 기초하여, 센싱 엘리먼트에 대응하는 픽셀을 재배치하는 동작을 설명한다.
도 3은 일 실시예에 따른 센싱 엘리먼트에 대응하는 픽셀의 재배치를 개념적으로 도시한 도면이다.
일 실시예에 따르면 복수의 렌즈들 및 복수의 센싱 엘리먼트들(311)은, 서로에 대해 엇갈려서 배치될 수 있다. 예를 들어, 렌즈가 정수 개수의 센싱 엘리먼트들(311)을 커버하는 것이 아니라, 비정수(non-integer) 개수의 센싱 엘리먼트들(311)을 커버할 수 있다. 일 실시예에 따른 멀티 렌즈 어레이 구조는 분수 정렬 구조(fractional alignment structure)로 구현될 수 있다. 도 3에 도시된 바와 같이, 각 렌즈는 광학 중심 축(OCA, optical center axis)가 서로 다르다. 멀티 렌즈 어레이 구조의 파라미터는, 센싱 엘리먼트들의 개수 및 렌즈들의 개수이다. 렌즈들의 개수 L 및 센싱 엘리먼트들의 개수 P 간의 비율 P/L은 실수(real number)로 결정될 수 있다. 렌즈들의 각각은 P/L에 대응하는 픽셀 오프셋과 동일한 개수의 센싱 엘리먼트들을 커버할 수 있다. 참고로, 도 3에서 각 렌즈는 3.33개의 센싱 엘리먼트들을 커버하는 것으로 도시되었다. 이와 같이 각 렌즈의 광학 중심 축이 조금씩(slightly) 다르므로, 각 렌즈는 서로 다른 라이트 필드 정보를 수신한다. 각 렌즈의 주 광선(chief ray)의 방향(direction)도 달라지게 되므로, 이미지 센서는 광학적으로 보다 많은 센싱 정보를 획득할 수 있다. 따라서, 이미지 복원 장치는 이와 같이 획득된 다양한 센싱 정보를 통해 보다 고해상도의 이미지를 복원할 수 있다.
도 3은 렌즈들 및 센싱 엘리먼트들(311) 간의 기하 구조를 도시한 단면도로서, 제1 렌즈는 제1 센싱 엘리먼트(S1) 내지 제3 센싱 엘리먼트(S3)의 전부와 함께, 제4 센싱 엘리먼트(S4)의 일부(예를 들어, 1/3에 해당하는 부분)를 커버할 수 있다. 제2 렌즈는 제4 센싱 엘리먼트(S4)의 일부 및 제7 센싱 엘리먼트(S7)의 일부와 함께 제5 센싱 엘리먼트(S5) 및 제6 센싱 엘리먼트(S6)의 전부를 커버할 수 있다. 제3 렌즈는 제8 센싱 엘리먼트(S8) 내지 제10 센싱 엘리먼트(S10) 및 제7 센싱 엘리먼트(S7)의 일부를 커버할 수 있다.
상술한 렌즈 및 센싱 엘리먼트들(311)의 기하 구조에 따라, 각 렌즈가 커버하는 센싱 엘리먼트들(311)은, 다른 렌즈에 의해 커버되는 센싱 엘리먼트가 센싱하는 라이트 필드 정보와 동일하지 않은 라이트 필드 정보를 센싱할 수 있다. 라이트 필드 정보는, 복수의 라이트 필드가 조합된 정보를 나타낼 수 있다. 예를 들어, 제1 렌즈에 의해 커버되는 제1 센싱 엘리먼트(S1)는 제1 지점(X1) 내지 제3 지점(X3)에 대응하는 라이트 필드를 센싱할 수 있다. 반면, 제2 렌즈에 의해 커버되는 제5 센싱 엘리먼트(S5)는 제3 지점(X3) 내지 제5 지점(X5)에 대응하는 라이트 필드를 센싱할 수 있다.
일 실시예에 따른 이미지 복원 장치는, 라이트 필드 정보 간의 상관성에 기초하여, 입력 이미지의 픽셀들의 위치를 재배열할 수 있다. 예를 들어, 이미지 복원 장치는 복수의 센싱 엘리먼트들(311)에서 서로 유사한 라이트 필드 정보를 센싱한 센싱 엘리먼트들(311)의 픽셀들이 서로 인접하도록, 입력 이미지(예를 들어, 복안 시야 이미지)의 픽셀들을 재배열할 수 있다.
예를 들어, 이미지 복원 장치는 도 3에 도시된 바와 같이, 개별 센싱 엘리먼트에서 센싱된 신호의 세기 값을 지시하는 픽셀들을, 해당 센싱 엘리먼트에서 센싱되는 라이트 필드 및 다른 센싱 엘리먼트에서 센싱되는 라이트 필드 정보 간의 유사도에 따라 재배열할 수 있다. 예를 들어, 두 센싱 엘리먼트들(311)에서 센싱된 두 라이트 필드 정보가 서로 동일한 라이트 필드를 많이 포함할수록, 두 라이트 필드 정보 간의 유사도가 높을 수 있다.
일 실시예에 따르면 이미지 복원 장치는 광선을 반사하는 지점들이 이미지 센서로부터 무한 초점 위치에 배치된 것을 가정하고, 각 센싱 엘리먼트에서 센싱될 라이트 필드 정보를 결정할 수 있다. 예를 들어, 이미지 복원 장치는, 이미지 센서로부터 임계 거리(threshold distance)보다 먼 지점들(points)으로부터 방사되는 광선들 및 복수의 센싱 엘리먼트들(311) 간의 위치 관계에 기초하여, 복수의 센싱 엘리먼트들(311)의 각각에 대해 해당 센싱 엘리먼트에서 센싱되는 라이트 필드를 방출하는 지점들을 결정할 수 있다. 이미지 복원 장치는 공간적으로 서로 인접한 지점들에서 방출되는 라이트 필드에 대응하는 픽셀들이 인접하도록 픽셀들을 재배열할 수 있다.
참고로, 도 2에서 개별 지점들(X1 내지 X10)은 서로 인접한 순서대로 도시된 것일 수 있다. 예를 들어, 제1 지점(X1)은 제2 지점(X2)과 인접할 수 있고, 제2 지점(X2)은 제1 지점(X1) 및 제3 지점(X3)과 인접할 수 있다. 서로 인접한 두 지점들은, 예를 들어, 피사체에서 공간적으로 인접한 지점들일 수 있다.
제1 센싱 엘리먼트(S1)에서 센싱된 라이트 필드 정보 및 제8 센싱 엘리먼트(S8)에서 센싱된 라이트 필드 정보는 둘 다 제2 시점(X2) 및 제3 시점(X3)에 대응하는 라이트 필드를 포함할 수 있다. 따라서, 제1 센싱 엘리먼트(S1) 및 제8 센싱 엘리먼트(S8)는 서로 유사한 라이트 필드 정보를 센싱할 수 있다. 상술한 수학식 2를 서로 유사한 라이트 필드 정보에 대응하는 픽셀들이 인접하도록 재배열하면, 아래 수학식 3과 같이 나타낼 수 있다.
[수학식 3]
상술한 수학식 3에 따라 재배열된 센싱 엘리먼트들(312)은 도 3과 같이 도시될 수 있다. 도 3에 도시된 바와 같이, 제1 센싱 엘리먼트(S1)는 제1 렌즈에 의해 커버되고, 제8 센싱 엘리먼트(S8)는 제3 렌즈에 의해 커버되며, 제5 센싱 엘리먼트(S5)는 제2 렌즈에 의해 커버될 수 있다. 따라서, 서로 다른 렌즈를 통과한 광선들에 대응하는 센싱 정보들이 인접하도록, 이미지 복원 장치는 픽셀들을 재배열할 수 있다.
아래 도 4에서는 재배열에 의한 이미지를 설명한다.
도 4는 일 실시예에 따른 복안시야 이미지를 재배열하여 대상 이미지를 생성하는 과정을 설명하는 도면이다.
일 실시예에 따른 이미지 복원 장치는 원본 장면(401)을 상술한 구조의 렌즈 및 센싱 엘리먼트들(410)을 통해 촬영할 수 있다. 복수의 렌즈들을 통과한 광선들을 센싱함으로써, 이미지 복원 장치는 복안 시야(CEV, compound eye vision) 이미지(402)를 획득할 수 있다. 복안 시야 이미지(402)는, 곤충의 겹눈을 통해 관측된 것처럼, 동일한 장면(401)을 중첩적으로 촬영한 이미지를 나타낼 수 있다. 예를 들어, 이미지 복원 장치는 어레이 형태로 배열된 복수의 렌즈들을 통해 복수의 센싱 엘리먼트들(410)에서 수신된 광선의 세기에 기초하여, 복안 시야 이미지(402)를 획득할 수 있다.
예를 들어, 도 4에서, 이미지 센서는 복수의 렌즈들에 의해 커버되는 영역들에 따라 센싱 엘리먼트들(410)이 분류될 수 있다. 도 4에서 제1 렌즈에 대응하는 영역(411) 내지 제9 렌즈에 대응하는 영역(419)으로 총 9개 영역이 도시되었는데, 설명의 편의를 위하여 영역들(411 내지 419)의 각각이 정수개의 센싱 엘리먼트들(410)을 포함하는 것으로 도시하였으나, 이로 한정하는 것은 아니고, 영역들(411 내지 419)의 각각이 비정수개(fractional number)의 센싱 엘리먼트들(410)을 포함할 수도 있다.
참고로, 도 4에서 장면(401)의 임의의 지점으로부터 반사된 광선이 이미지 센서에 도달하는 픽셀을 각각 1번 픽셀 내지 9번 픽셀로 도시하였다. 도 4에서 복안 시야 이미지(402)에 포함된 이미지들의 각각은 복수의 렌즈들의 각각에 대응할 수 있다.
이미지 복원 장치는 복수의 센싱 엘리먼트들(410)에서 센싱되는 라이트 필드 정보에 기초하여, 복안 시야 이미지(402)를 재배열할 수 있다. 이미지 복원 장치는 복안 시야 이미지(402)를 재배열함으로써 대상 이미지(403)를 생성할 수 있다. 예를 들어, 이미지 복원 장치는 상술한 수학식 3에서 설명한 바와 같이, 유사한 라이트 필드 정보를 센싱하는 것으로 결정된 센싱 엘리먼트들(410)의 픽셀들을 모을(gather) 수 있다.
예를 들어, 도 4에 도시된 바와 같이, 재배열된 픽셀들(440)에서 1번 픽셀 내지 9번 픽셀이 서로 인접할 수 있다. 이러한 픽셀의 재배열을 하기 수학식 4와 같이 나타낼 수 있다.
[수학식 4]
상술한 수학식 4에서 S는 개별 센싱 엘리먼트에 의해 센싱되는 센싱 정보를 지시하는 행렬을 나타낼 수 있다. X는 개별 지점으로부터 센싱 엘리먼트들(410)로 입사되는 광선에 대응하는 신호 값을 지시하는 행렬을 나타낼 수 있다. T는 변환 행렬로서 센싱 엘리먼트들(410)에 의해 검출된 센싱 정보 및 입사되는 빛에 대응하는 신호 정보 간의 관계를 나타낼 수 있다. P는 재배열 행렬로서, 이미지 센서 및 객체 간의 거리(예를 들어 임계값보다 큰 거리)에 기초하여 서로 유사한 라이트 필드 정보에 대응하는 픽셀들이 인접하도록 정렬시키는 행렬을 나타낼 수 있다.
이미지 복원 장치는 상술한 수학식 4에 따라, 원본 장면(401)을 복원하기 위해, 행렬 P·T의 역 행렬을 이용할 수 있다. 행렬 P·T의 역 행렬이 존재하기 위해서는, 행렬 P·T가 완전 랭크를 가져야 한다. 따라서, 촬영 장치의 파라미터들은 행렬 P·T가 완전 랭크를 가지도록 조절될 수 있다. 일 실시예에 따른 행렬 P·T는 역행렬이 존재하므로, 원본 신호 정보를 지시하는 행렬 X는 행렬 P·T의 역행렬 및 센싱 엘리먼트에 의해 검출된 센싱 정보를 지시하는 행렬 S의 곱으로부터 하기 수학식 5와 같이 계산될 수 있다.
[수학식 5]
상술한 수학식 5에서 N은 노이즈로서, 라이트 필드 정보의 센싱에서 발생하는 노이즈를 나타낼 수 있다.
일 실시예에 따른 이미지 복원 장치는 장면(401)을 촬영하여 획득된 복안 시야 이미지(402)를 재배열함으로써, 대상 이미지(403)를 생성할 수 있다. 장면(401)이 이미지 센서로부터 비교적 먼 거리에 위치한 객체만을 포함하는 경우, 도 4에 도시된 바와 같이 객체로부터 반사된 광선들에 대응하는 픽셀들끼리 서로 인접하게 재배열되므로, 이미지 복원 장치는 고해상도 이미지를 획득할 수 있다.
다만, 이는 객체가 이미지 센서에 대해 무한 초점 거리(예를 들어, 임계 거리) 이후에 위치하는 경우를 가정한 것이다. 아래에서는, 비교적 가까운 거리에 대한 이미지 복원 동작을 설명한다.
도 5 및 도 6은 일 실시예에 따른 객체와의 거리에 따라 광선을 수신하는 센싱 엘리먼트가 달라지는 것을 설명하는 도면이다.
이미지 센서에 대한 피사체의 위치가 변화하면, 임의의 라이트 필드 정보가 센싱되는 센싱 엘리먼트도 변화한다.
예를 들어, 도 5에 도시된 바와 같이, 임의의 피사체(531)가 무한 초점 위치인 제6 지점(X6)에 있을 경우, 제2 센싱 엘리먼트(S2), 제6 센싱 엘리먼트(S6), 및 제9 센싱 엘리먼트(S9)에서 제6 지점(X6)에 대응하는 라이트 필드가 센싱될 수 있다. 이와 달리, 제6 지점(X6)의 방향에서 피사체(532)가 한정된 깊이에 위치할 경우, 제1 센싱 엘리먼트(S1), 제6 센싱 엘리먼트(S6) 가 및 제10 센싱 엘리먼트(S10)에서 제6 지점(X6)에 대응하는 라이트 필드가 센싱될 수 있다. 따라서, 센싱 엘리먼트들(510)에서 동일한 방향의 지점에 대한 라이트 필드가 센싱되는 센싱 엘리먼트의 위치는, 이미지 센서와 지점 간의 거리에 따라 달라질 수 있다.
3 x 3 렌즈 어레이 구조에서, 도 6은 무한 초점 위치의 피사체(631)가 있을 경우 이미지 센서(610)에서 해당 피사체(631)의 임의의 지점에 대응하는 라이트 필드가 센싱되는 제1 센싱 엘리먼트들(691)을 도시한다. 무한 초점 위치 및 이미지 센서(610) 사이의 중간 거리에 피사체(632)가 있는 경우, 이미지 센서(610)는 임의의 지점에 대응하는 라이트 필드를 제2 센싱 엘리먼트들(692)에서 센싱할 수 있다. 그보다 가까운 거리에 피사체(633)가 있는 경우, 이미지 센서(610)는 제3 센싱 엘리먼트들(693)에서 피사체(633)의 임의의 지점에 대한 라이트 필드를 센싱할 수 있다.
일 실시예에 따른 이미지 복원 장치는 무한 초점 위치에서 라이트 필드 정보의 상관성이 높은 픽셀들끼리 인접하도록 재배열한 대상 이미지로부터, 피사체와의 깊이를 고려한 기계 학습 구조를 통해 출력 이미지를 복원할 수 있다. 이렇게 복원된 출력 이미지는 고해상도로 이미지일 수 있다.
도 7은 일 실시예에 따른 복안시야 이미지의 재배열에서 근접한 객체에 대한 해상도 저하를 설명하는 도면이다.
일 실시예에 따르면 이미지 복원 장치는 장면(701)을 촬영함으로써 복안 시야 이미지(702)를 생성할 수 있다. 예를 들어, 장면(701)은 이미지 센서에 아주 가까운 거리(예를 들어, 최소 거리 미만)에 위치한 디테일한 부분(781)을 포함할 수 있다. 또한, 장면(701)은 무한 초점 위치 및 이미지 센서 사이의 중간 정도 거리에 대상 부분(791)을 포함할 수 있다.
센싱 엘리먼트들(710)에 의해 센싱된 복안 시야 이미지(702)에서, 장면(701)의 대상 부분(791)에 대응하는 지점으로부터 반사된 광선은 제1 영역(711)에서 1번 픽셀에 대응할 수 있다. 유사하게, 대상 부분(791)에 대응하는 지점으로부터 반사된 광선은 제2 영역(712)에서 2번 픽셀, 제3 영역(713)에서 3번 픽셀, 제4 영역(714)에서 4번 픽셀, 제5 영역(715)에서 5번 픽셀, 제6 영역(716)에서 6번 픽셀, 제7 영역(717)에서 7번 픽셀, 제8 영역(718)에서 8번 픽셀, 제9 영역에서 9번 픽셀에 대응할 수 있다. 도 4에 도시된 바와 달리, 도 7에서는 대상 부분(791)에 대응하는 라이트 필드 중 일부가 각 렌즈에 의해 커버되는 중심 센싱 엘리먼트가 아닌, 그 주변 센싱 엘리먼트에서 센싱될 수 있다.
이미지 복원 장치는 도 3 및 도 4에서 상술한 바와 유사하게, 복안 시야 이미지(702)의 픽셀을 재배열할 수 있다. 다만, 대상 부분(791)에 대한 픽셀들(741)에서 대상 부분(791)으로부터 유발된 라이트 필드에 대응하는 1번 픽셀 내지 9번 픽셀들은 서로 인접하지 않게 재배열될 수 있다. 도 3 및 도 4에서는 객체가 무한 초점 위치에 있는 것을 가정하였으나, 도 7에서는 대상 부분(791)이 중간 정도 위치에 있기 때문이다. 따라서, 복안 시야 이미지(702)가 재배열된 대상 이미지(703)는 원본 장면 대비 블러(Blur)하게 나타날 수 있다.
더 나아가, 장면의 디테일한 부분(781)으로부터 복원된, 대상 이미지(703)에서 가까운 부분(782)은, 더 블러하게 복원될 수 있다. 디테일한 부분(781)에 대해 재배열된 픽셀들(742)은, 대상 부분(791)에 대해 재배열된 픽셀들(741)보다도 더 멀게 재배열되기 때문이다.
일 실시예에 따른 이미지 복원 장치는 이러한 거리에 따른 라이트 필드의 센싱 위치 변화를 고려하여, 다양한 확장 간격을 가지는 커널을 이용한 컨볼루션 뉴럴 네트워크에 기초하여, 복안 시야 이미지(702)를 고해상도로 복원할 수 있다.
아래에서는 컨볼루션 뉴럴 네트워크를 이용한, 대상 이미지(703)의 복원을 설명한다.
도 8은 일 실시예에 따른 대상 이미지로부터 출력 이미지를 복원하는 과정을 설명하는 도면이다.
일 실시예에 따른 이미지 복원 장치는 입력 레이어(812)에 센싱 엘리먼트들(811)에 의해 센싱된 복안 시야 이미지를 재배열하여 대상 이미지(803)를 생성할 수 있다. 이미지 복원 장치는 대상 이미지(803)의 픽셀들(812)을 이미지 복원 모델(850)에 입력할 수 있다.
이미지 복원 장치는 상술한 바에 따라 생성된 대상 이미지(803)로부터, 이미지 복원 모델(850)에 기초하여 출력 이미지(804)를 산출할 수 있다. 예를 들어, 이미지 복원 모델(850)은, 기준 복안 이미지가 재배열된 기준 입력 이미지로부터 기준 출력 이미지(804)를 출력하도록 트레이닝된 모델일 수 있다. 이미지 복원 모델(850)은, 입력 레이어, 복수의 히든 레이어들, 및 출력 레이어를 포함할 수 있다. 이미지 복원 모델(850)은, 예를 들어, 기계 학습 구조로서, 컨볼루션 뉴럴 네트워크를 포함할 수 있고, 히든 레이어는 컨볼루션 레이어를 포함할 수 있다. 컨볼루션 뉴럴 네트워크는 컨볼루션 레이어를 포함하는 뉴럴 네트워크를 나타낼 수 있다. 예를 들어, 이미지 복원 모델(850)은, 다양한 확장 간격을 가지는 커널에 대응하는 컨볼루션 레이어를 포함할 수 있다. 커널은 n x n 크기일 수 있다. 여기서, n은 1이상의 정수일 수 있으며, 아래에서는 n=3인 예시를 주로 설명한다. 다양한 확장 간격의 커널은 하기 도 9a 내지 도 9c에서 상세히 설명한다.
예를 들어, 이미지 복원 장치는 이미지 센서 내에서 렌즈 및 센싱 엘리먼트의 배치 구조에 기초하여 결정된 복수의 확장 간격들의 각각에 대응하는 커널을 가지는 컨볼루션 레이어에 기초하여, 출력 이미지(804)를 산출할 수 있다. 이러한 다양한 확장 간격에 대응하는 커널을 가지는 컨볼루션 레이어를 이용하여, 대상 이미지(803)에 대해 n x n 커널을 이용한 컨볼루션 연산을 반복함으로써 특징 데이터(예를 들어, 이미지 특징)을 추출할 수 있다. 이미지 복원 장치는 복수의 레벨들에 대응하는 컨볼루션 레이어를 통해 보다 추상화된 특징을 추출할 수 있다. 예를 들어, 이미지 복원 장치는 N개의 레벨들에 대응하는 컨볼루션 레이어들(예를 들어, Conv1 내지 ConvN)을 포함할 수 있다. 여기서, N은 1이상의 정수일 수 있다. 또한, 각 컨볼루션 레이어는 다양한 확장 간격을 가지는 복수의 커널들에 대응하는 히든 출력을 생성할 수 있다.
이미지 복원 장치는 복수의 레벨들에 대응하는 컨볼루션 레이어들의 하위 레벨(예를 들어, 입력 레이어에 가까운 레벨)로부터 상위 레벨(예를 들어, 출력 레이어에 가까운 레벨)로 대상 이미지(803)에 대응하는 입력 데이터를 전파함으로써, 대상 이미지(803)가 추상화된 특징 데이터를 추출할 수 있다. 또한, 이미지 복원 장치는 이러한 대상 이미지(803)가 추상화된 특징 데이터로부터 최종적으로 복원된 출력 이미지(804)를 산출할 수 있다. 출력 이미지(804)의 픽셀들(890)은, 실제 장면과 유사하게 고해상도로 복원된 픽셀 값을 가질 수 있다.
일 실시예에 따른 이미지 복원 장치는, 다양한 확장 간격을 가지는 커널에 대응하는 컨볼루션 레이어를 이용함으로써, 장면에 나타나는 객체까지의 정확한 깊이 추정 없이도, 고해상도의 출력 이미지(804)를 생성할 수 있다. 커널은 객체와 이미지 센서 간의 거리에 따라 이미지 센서로 입사되는 광선의 분포에 따라 설계된 확장 간격을 가질 수 있고, 이미지 복원 장치는 컨볼루션 레이어를 통해 이미지의 특징을 추출하면서, 상술한 커널을 통해 유사한 라이트 필드 정보를 가지는 픽셀들 포커싱할 수 있다. 도 8에 도시된 바와 같이, 대상 이미지(803)는 다소 블러한 형태의 가까운 객체(882)를 포함할 수 있으나, 이미지 복원 장치는 이미지 복원 모델(850)에 기초하여, 대상 이미지(803)로부터 선명한 형태의 가까운 객체(883)를 포함하는 출력 이미지(804)를 산출할 수 있다.
참고로, 대상 이미지(803)는 라이트 필드 간 상관성이 높은 픽셀들이 모인 이미지이므로, 이미지 복원 모델(850)은 해당 대상 이미지(803)로부터 보다 고해상도의 출력 이미지(804)를 산출할 수 있다. 예를 들어, 복안 시야 이미지를 직접 뉴럴 네트워크에 트레이닝시키는 것보다는, 재배열 후 트레이닝시키는 것이 더 유리하다. 복안 시야 이미지가 뉴럴 네트워크에 입력될 경우, 복원되어야 하는 픽셀 위치와 상관성이 낮은 이미지 신호가 뉴럴 네트워크에 참조되어 복원된 이미지의 해상도가 저하될 수 있기 때문이다.
참고로, 뉴럴 네트워크(neural network)는 딥 뉴럴 네트워크(DNN, deep neural network)의 예시에 해당할 수 있다. DNN은 완전 연결 네트워크(fully connected network), 딥 컨볼루셔널 네트워크(deep convolutional network) 및 리커런트 뉴럴 네트워크(recurrent neural network) 등을 포함할 수 있다. 뉴럴 네트워크는 딥 러닝에 기반하여 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 이미지 복원 등을 수행할 수 있다. 딥 러닝은 빅 데이터 세트로부터 이미지 복원과 같은 문제를 해결하기 위한 기계 학습 기법이다. 딥 러닝의 지도식(supervised) 또는 비지도식(unsupervised) 학습을 통해 입력 데이터 및 출력 데이터를 서로 매핑할 수 있다.
뉴럴 네트워크는 입력 레이어, 히든 레이어 및 출력 레이어를 포함한다. 입력 레이어, 히든 레이어 및 출력 레이어는 각각 복수의 노드들을 포함할 수 있다. 도 8에서 히든 레이어는 컨볼루션 레이어로 도시되었다.
도 8에 도시된 이미지 복원 모델(850)은 N개의 히든 레이어를 포함할 수 있다. N은 1이상의 정수일 수 있다. 또한, 뉴럴 네트워크는 입력 데이터를 수신하기 위한 별도의 입력 레이어를 포함할 수 있으나, 이로 한정하는 것은 아니고 입력 데이터가 히든 레이어에 직접 입력될 수 있다. 뉴럴 네트워크에서 출력 레이어를 제외한 레이어들의 노드들은 출력 신호를 전송하기 위한 링크들을 통해 다음 레이어의 노드들과 연결될 수 있다. 링크들의 수는 다음 레이어에 포함된 노드들의 수에 대응할 수 있다.
히든 레이어에 포함된 각각의 노드에는 이전 레이어에 포함된 노드들의 가중된 입력들(weighted inputs)에 관한 활성 함수(activation function)의 출력이 입력될 수 있다. 가중된 입력은 이전 레이어에 포함된 노드들의 입력에 가중치(weight)가 곱해진 것이다. 가중치는 뉴럴 네트워크의 파라미터로 지칭될 수 있다. 일 실시예에 따르면, 가중치는 컨볼루션 레이어에서 커널 행렬에 포함된 커널 원소에 대응할 수 있다. 활성 함수는 시그모이드(sigmoid), 하이퍼볼릭 탄젠트(hyperbolic tangent; tanh) 및 렐루(rectified linear unit; ReLU)를 포함할 수 있고, 활성 함수에 의해 뉴럴 네트워크에 비선형성이 형성될 수 있다. 출력 레이어에 포함된 각각의 노드에는 이전 레이어에 포함된 노드들의 가중된 입력들이 입력될 수 있다.
뉴럴 네트워크의 폭과 깊이가 충분히 크면 임의의 함수를 구현할 수 있을 만큼의 용량(capacity)을 가질 수 있다. 뉴럴 네트워크가 적절한 트레이닝 과정을 통해 충분히 많은 트레이닝 데이터를 학습하면, 최적의 복원 성능을 달성할 수 있다.
아래 도 9a 내지 도 9c에서는 각 컨볼루션 레이어에 대응하는, 다양한 확장 간격을 가지는 커널을 설명한다.
도 9a 내지 도 9c는 일 실시예에 따른 컨볼루션 레이어에서 사용되는 확장 간격을 가지는 커널을 설명하는 도면이다.
커널은 컨볼루션 뉴럴 네트워크의 파라미터로서, 예를 들어, 행렬로 정의될 수 있다. 커널은 컨볼루션 행렬(convolution matrix)이라고도 나타낼 수 있고, 필터(filter)라고 나타낼 수도 있다. 커널은 정사각 행렬로서, 예를 들어, n x n 행렬로 정의될 수 있다. n은 1이상의 정수일 수 있다. 커널이 행렬(이하, 커널 행렬)로 정의되는 경우, 커널 행렬은 복수의 원소들(elements)을 포함할 수 있다. n이 홀수인 경우, 본 명세서에서 커널 행렬에서, 첫번째 행의 첫번째 열의 원소(예를 들어, (1, 1)의 원소), 첫번째 행의 중간 열의 원소(예를 들어, (1, (n+1)/2)의 원소), 첫번째 행의 마지막 열의 원소(예를 들어, (1, n)의 원소), 중간 행의 첫번째 열의 원소(예를 들어, ((n+1)/2, 1)의 원소), 중심 원소(예를 들어, ((n+1)/2, (n+1)/2)의 원소), 중간 행의 마지막 열의 원소(예를 들어, ((n+1)/2, n)의 원소), 마지막 행의 첫번째 열의 원소(예를 들어, (n, 1)의 원소), 마지막 행의 중간 열의 원소(예를 들어, (n, (n+1)/2)의 원소), 및 마지막 행의 마지막 열의 원소(예를 들어, (n, n)의 원소)는 임의의 가중치(예를 들어, 넌제로 값(non-zero value))를 가지고, 나머지 원소는 0의 값을 가질 수 있으나, 이로 한정하는 것은 아니다. 본 명세서에서는, 커널 행렬에서 넌제로 값을 가지는 커널의 행렬의 원소를 커널 원소(kernel element)라고 나타낼 수 있다. 참고로, 도 9a 내지 도 9c에서는 커널 원소를 도트(dot)로 표현하였으며, 나머지 0의 값을 가지는 원소들은 공란(blank)으로 표현하였다.
뉴럴 네트워크를 구성하는 컨볼루션 레이어는 하나 또는 그 이상의 개수의 커널을 가질 수 있다. 프로세서는 컨볼루션 레이어의 커널을 이용하여, 컨볼루션 연산(convolution operation)(예를 들어, 합성곱 연산)을 수행할 수 있다. 예를 들어, 프로세서는 커널을 입력 데이터에 대해 순회(stride)시키면서, 커널이 순회된 픽셀 위치(pixel position)에서 커널의 원소들 및 입력 데이터에서 해당 커널 원소들에 대응하는 값들 간의 행렬 곱을 수행할 수 있다. 이와 같이, 프로세서는 임의의 픽셀 위치에 대해 커널의 원소들 및 그에 대응하는 입력 데이터의 값들의 행렬곱을 산출함으로써, 해당 픽셀 위치에 대한 특징 값을 출력할 수 있다.
프로세서는 개별 커널 별로 입력 데이터로부터 특징 맵(feature map)을 추출할 수 있다. 예를 들어, 컨볼루션 레이어가 m개의 커널을 가지는 경우, 프로세서는 해당 컨볼루션 레이어에 기초하여, 입력 데이터로부터 m개의 특징 맵을 추출할 수 있다. m은 1이상의 정수일 수 있다.
커널 행렬에 포함된 원소들(elements)은 일종의 가중치로서, 트레이닝의 대상이 될 수 있다. 예를 들어, 뉴럴 네트워크의 손실이 최소화되도록, 커널의 원소들이 업데이트될 수 있다. 다만, 이로 한정하는 것은 아니다.
커널의 크기는, 커널 행렬의 행 개수 및 열 개수에 따라 결정될 수 있다. 예를 들어, 커널이 정사각 행렬로서, n x n의 행렬로 구성되는 경우, 해당 커널의 크기는 n x n일 수 있다. 본 명세서에서는 n=3인 경우를 주로 설명하며, 이 경우 커널 행렬에 포함된 원소들의 개수는 총 9개일 수 있다.
일 실시예에 따르면 이미지 복원 모델은 다양한 확장 간격을 가지는 커널에 대응하는 컨볼루션 레이어들을 포함할 수 있다. 도 9a 내지 도 9c는 확장 간격을 가지는 커널들의 예시를 도시한다.
본 명세서에서 확장 간격은, 동일한 행 또는 동일한 열 내에서 임의의 커널 가중치 및 다른 커널 가중치가 배치된 원소들 간의 간격을 나타낼 수 있다.
이미지 복원 모델은, 이미지 센서로부터 임계 거리보다 멀리 위치된 지점에서 방사된 광선들이 수신되는 센싱 엘리먼트들의 위치 관계에 기초하여 결정된 커널에 대응하는 컨볼루션 레이어를 포함할 수 있다. 예를 들어, 도 9a는 피사체가 이미지 센서로부터 무한대 거리에 있다고 가정한 경우에 대해 최적화된 커널로서, 기본 커널(default kernel)이라고 나타낼 수 있다. 커널의 커널 가중치들 간에 이격되는 확장 간격(dilation gap)(961)이 기본 값(예를 들어, 1)일 수 있다.
도 9b는 확장 간격(962)이 2인 커널(952)을 도시한다. 도 9c는 확장 간격(963)이 3인 커널(953)을 도시한다. 다만, 커널들의 확장 간격을 도 9a 내지 도 9c로 한정하는 것은 아니다. 커널들의 확장 간격은 k일 수 있고, k는 1이상의 정수일 수 있다.
아울러, 이미지 복원 모델은, 이미지 센서로부터 최소 촬영 거리에 위치된 지점에 방사된 광선들이 수신되는 센싱 엘리먼트들의 위치 관계에 기초하여 결정된 커널에 대응하는 컨볼루션 레이어를 포함할 수 있다. 최소 촬영 거리에 대응하는 커널은, 이미지 센서의 최소 촬영 거리, 이미지 센서의 중심 렌즈로부터 최외곽 렌즈까지의 거리, 및 렌즈의 초점 거리에 기초하여 산출된 최대 디스패리티에 따라 결정된 확장 간격(dilation gap)을 가질 수 있다. 이와 같이, 피사체가 이미지 센서로부터 최소 촬영 거리에 있다고 가정하는 경우에 대해 계산된 확장 간격을 가지는 커널을 최대 커널이라고 나타낼 수 있다. 최대 커널은 해당 이미지 센서에 대해 사용될 수 있는 확장 간격들 중 가장 큰 확장 간격을 가질 수 있다. 최대 커널의 확장 간격은 최대 디스패리티에 따라 결정될 수 있으며, 최대 디스패리티는 하기 도 10에서 상세히 설명한다.
상술한 바와 같이, 이미지 복원 장치는 확장 간격이 다른 여러 개의 커널에 대응하는 컨볼루션 레이어를 포함하는 이미지 복원 모델에 기초하여, 피사체의 깊이에 따라 다중 렌즈를 통해 서로 다른 위치의 센싱 엘리먼트에서 센싱되는 픽셀 값들을 조합하여 고해상도 이미지를 복원할 수 있다.
도 10은 일 실시예에 따른 최대 디스패리티를 설명하는 도면이다.
디스패리티는 임의의 한 렌즈에 속하는 센싱 엘리먼트들(1010)에서 피사체와의 거리에 따라 광선이 센싱되는 위치가 가변될 때, 가변된 위치와 렌즈의 중심 위치 간의 차이를 나타낼 수 있다. 예를 들어, 이미지 복원 모델은, 이미지 센서의 기하 구조(예를 들어, 렌즈 및 센싱 엘리먼트의 배치)에 따라 모든 가능한 디스패티리 별 확장 간격을 가지는 커널에 대응하는 컨볼루션 레이어를 포함할 수 있다. 이미지 센서에서 각 렌즈에 의해 커버되는 센싱 엘리먼트의 개수는 한정되므로, 디스패리티도 이산적으로(discretely) 나타날 수 있다.
최대 디스패리티는, 렌즈 어레이 중 최외곽 렌즈에 의해 커버되는 영역에 위치한 센싱 엘리먼트들(1010)에서, 무한 초점 위치로부터 방출된 광선을 수신하는 센싱 엘리먼트 및 최소 촬영 거리로부터 방출된 광선을 수신하는 센싱 엘리먼트 간의 디스패리티(disparity)를 나타낼 수 있다.
최대 디스패리티는 이미지 센서의 최소 촬영 거리, 이미지 센서의 중심 렌즈로부터 최외곽 렌즈까지의 거리, 및 렌즈의 초점 거리에 기초하여 결정될 수 있다. 예를 들어, 도 10에서, 피사체가 이미지 센서로부터 최소 촬영 거리 D에 위치된 상황을 가정할 수 있다. 도 10에서 L은 중심 렌즈로부터 최외곽 렌즈까지의 거리, f는 렌즈의 초점 거리를 나타낼 수 있다. 이 때, 최대 디스패리티는 2 x h = 2 (L x f)/D로 계산될 수 있다. 최대 디스패리티를 픽셀 개수의 단위로 표현할 경우, (2 x h)/pixel_pitch로 나타낼 수 있다. pixel_pitch는 이미지에서 임의의 픽셀의 피치를 나타내는 길이로서, 예를 들어, 이미지 센서에 포함된 센싱 엘리먼트들(1010)의 각각의 길이 또는 너비에 대응할 수 있다.
일 실시예에 따른 이미지 복원 모델은, 최대 디스패리티를 기준으로 결정된 확장 거리들 및 개수의 커널에 대응하는 컨볼루션 레이어를 포함할 수 있다.
도 11은 일 실시예에 따른 이미지 복원 모델의 상세 구조를 설명하는 도면이다.
일 실시예에 따른 이미지 복원 장치는 상술한 바와 같이, 복안 시야 이미지(1102)로부터 재배열된 이미지(1103)(예를 들어, 대상 이미지)를 생성할 수 있다. 이미지 복원 장치는 대상 이미지로부터 이미지 복원 모델(1150)에 기초하여 출력 이미지(1104)를 산출할 수 있다.
예를 들어, 이미지 복원 장치는 이미지 센서 내에서 렌즈 및 센싱 엘리먼트의 배치 구조에 기초하여 결정된 복수의 확장 간격들의 각각에 대응하는 커널을 가지는 컨볼루션 레이어에 기초하여, 출력 이미지를 산출할 수 있다. 이미지 복원 모델(1150)은, 센싱 엘리먼트 배치 구조 및 이미지 센서로부터 지점까지의 거리에 기초하여 결정된 확장 간격을 가지는 커널을 가지는 컨볼루션 레이어를 포함할 수 있다.
이미지 복원 모델(1150)은, 복수의 레벨들(1151)에 대응하는 컨볼루션 레이어들을 포함할 수 있다. 이미지 복원 모델(1150)의 입력 측에 가까운 레이어일수록, 낮은 레벨에 대응하는 레이어일 수 있다. 이미지 복원 모델(1150)의 출력 측에 가까운 레이어일수록, 높은 레벨에 대응하는 레이어일 수 있다.
또한, 이미지 복원 모델(1150)은, 서로 다른 확장 간격을 가지는 커널들의 각각에 대응하는 컨볼루션 레이어를 포함할 수 있다. 이미지 복원 모델(1150)은, 동일한 확장 간격을 가지는 복수의 커널들에 대응하는 컨볼루션 레이어들을 포함할 수 있다. 예를 들어, 도 11에서, 제1 컨볼루션 레이어(1st Multi-Dilation Conv)는 동일한 크기(예를 들어, 3x3)의 커널을 다양한 확장 간격으로 포함할 수 있다. 제1 컨볼루션 레이어(1st Multi-Dilation Conv)는 확장 간격이 1인 커널은 7개, 확장 간격이 10인 커널은 6개, 확장 간격이 21인 커널을 7개, 확장 간격이 32인 커널을 6개, 확장 간격이 43인 커널을 6개, 확장 간격이 54인 커널은 7개, 확장 간격이 65인 커널은 6개, 확장 간격이 76인 커널은 7개, 확장 간격이 87인 커널을 6개, 확장 간격이 98인 커널을 6개 포함할 수 있다. 따라서, 제1 컨볼루션 레이어(1st Multi-Dilation Conv)의 커널들은 확장 간격이 1부터 98까지 다양하고, 이미지 복원 모델(1150)은 각 확장 간격마다 복수의 특징 맵을 추출할 수 있다. 예를 들어, 확장 간격이 1인 커널에 대응하여, 이미지 복원 모델(1150)은 7개의 특징 맵을 추출할 수 있다.
참고로, 도 11에서 각 레벨의 레이어는 레이어의 입력 측 및 출력 측에 컨볼루션 레이어를 포함하고, 두 컨볼루션 레이어 사이에 ReLU 레이어를 포함하는 것으로 도시되었으나, 이로 한정하는 것은 아니다.
이미지 복원 모델(1150)은 하위 레이어일수록 다양한 확장 간격의 커널에 대응하는 컨볼루션 레이어들을 포함할 수 있고, 상위 레이어일수록 감소된 확장 간격의 커널에 대응하는 컨볼루션 레이어들을 포함할 수 있다. 예를 들어, 이미지 복원 모델(1150)은, 하위 레이어로부터 상위 레이어까지 각 컨볼루션 레이어에 대응하는 커널의 확장 간격의 개수 및 크기가 점진적으로 감소할 수 있다. 예를 들어, 제2 컨볼루션 레이어(2nd Multi-Dilation Conv)는 제1 컨볼루션 레이어(1st Multi-Dilation Conv)에 비해, 확장 간격이 98인 커널의 개수가 6개로부터 2개로 감소하고, 대신 확장 간격이 1인 커널의 개수가 7개로부터 11개로 증가하도록 설계되었다. 또한, 레이어의 레벨이 증가할수록 커널의 확장 간격이 점진적으로 감소할 수 있다. 마지막 제19 컨볼루션 레이어(19th Multi-Dilation Conv)는 확장 간격이 1인 커널만을 64개 포함할 수 있다. 따라서, 이미지 복원 모델(1150)의 레이어들은 데이터의 차원을 유지하면서, 커널의 확장 간격이 점진적으로 감소하도록 설계될 수 있다. 상위 레이어는 보다 넓은 픽셀 영역을 커버할 수 있다.
일 실시예에 따른 이미지 복원 장치는 상술한 컨볼루션 레이어에 기초하여, 대상 이미지로부터 특징 데이터를 추출할 수 있다. 이미지 복원 장치는 특징 데이터로부터, 이미지 복원 모델(1150)의 나머지 레이어에 기초하여, 출력 이미지를 생성할 수 있다. 예를 들어, 이미지 복원 장치는 이미지 복원 모델(1150)의 하위 레이어로부터 상위 레이어를 향해, 대상 이미지를 전파시킴으로써 최종적으로 출력 이미지를 생성할 수 있다. 이미지 복원 모델(1150)의 하위 레이어로부터 상위 레이어로 전파될수록, 보다 추상화된 특징이 추출될 수 있다. 도 11에 도시된 예시에서, 이미지 복원 모델(1150)에서 각 레벨에 대응하는 컨볼루션 레이어는 총 64개의 특징 맵을 추출할 수 있고, 이미지 복원 장치는 이와 같이 추출된 특징 맵들로부터 출력 이미지를 생성할 수 있다.
커널의 크기는 유지하면서, 다양한 확장 간격의 커널을 이용함으로써, 이미지 복원 장치는 연산량의 증가 없이도 고해상도 이미지를 복원할 수 있다. 이미지 복원 장치는 각 객체에 대한 깊이 추정 없이도 고해상도 이미지를 복원할 수 있다.
도 1 내지 도 11에서는 다양한 확장 간격을 가지는 커널들을 이용한 이미지 복원을 설명하였으나, 하기 도 12에서는 단일 확장 간격을 가지는 커널을 이용한 이미지 복원을 설명한다.
도 12는 다른 일 실시예에 따른 이미지 복원 과정을 설명하는 도면이다.
일 실시예에 따르면 이미지 복원 모델(1250)은 단일 확장 간격을 가지는 커널에 대응하는 컨볼루션 레이어를 포함할 수 있다.
예를 들어, 이미지 복원 장치는 이미지 센서 및 대상 객체(target object) 간의 거리별로 입력 이미지를 재배열함으로써, 복수의 대상 이미지들(1231, 1232, 1233)을 획득할 수 있다. 상술한 바와 같이, 피사체 및 이미지 센서 간의 거리에 따라 서로 유사한 라이트 필드 정보가 센싱되는 센싱 엘리먼트의 위치가 달라질 수 있다. 서로 유사한 라이트 필드 정보가 센싱되는 센싱 엘리먼트의 위치는, 피사체 및 이미지 센서 간의 거리에 따른 디스패리티 별로 달라질 수 있다. 이미지 복원 장치는, 이미지 센서에서 나타날 수 있는 복수의 디스패리티들 중 각 디스패리티에 대응하는 재배열 행렬을 이용하여, 복안 시야 이미지(1202)를 변환할 수 있다. 깊이 추정 동작이 없으므로, 이미지 복원 장치는 깊이에 따라 발생할 수 있는 모든 케이스(case)에 대해 복안 시야 이미지(1202)로부터 대상 이미지들(1231, 1232, 1233)을 생성할 수 있다. 따라서 이미지 복원 장치는 이미지 센서에서 나타날 수 있는 디스패리티의 개수만큼의 대상 이미지들(1231, 1232, 1233)을 획득할 수 있다.
참고로, 상술한 수학식 4에서는 이미지 센서로부터 무한 초점 위치에 있는 피사체에 대해 촬영된 복안 시야 이미지(1202)를 재배열하는 재배열 행렬을 설명하였으나, 도 12에서는 각 디스패리티에 대응하는 거리 별 재배열 행렬들을 이용하여, 이미지 복원 장치가 피사체에 대해 촬영된 복안 시야 이미지(1202)를 재배열할 수 있다.
이미지 복원 장치는 획득된 복수의 대상 이미지들(1231, 1232, 1233)의 각각으로부터, 컨볼루션 레이어들을 포함하는 이미지 복원 모델(1250)에 기초하여, 출력 이미지(1204)를 복원할 수 있다. 디스패리티 별로 대상 이미지들(1231, 1232, 1233)이 생성되었으므로, 대상 이미지들(1231, 1232, 1233) 중 적어도 하나는 실제 장면(scene)에 나타나는 객체들 각각의 정확한 깊이에 대응할 수 있다. 이미지 복원 장치는 복수의 대상 이미지들로부터, 단일 확장 간격을 가지는 커널에 대응하는 컨볼루션 레이어를 포함하는 이미지 복원 모델(1250)에 기초하여, 출력 이미지(1204)를 산출할 수 있다. 실제 장면에 복수의 객체들이 존재하더라도, 이미지 복원 장치는 트레이닝된 이미지 복원 모델(1250)을 통해 복수의 대상 이미지들(1231, 1232, 1233)의 각각으로부터 각 객체의 깊이에 대응하는 부분들의 특징들을 추출함으로써, 그 특징들로부터 고해상도의 출력 이미지(1204)를 산출할 수 있다.
도 1 내지 도 11에서는 이미지 복원 장치가 이미지 센서에서 나타날 수 있는 디스패리티 별로 설정된 커널들을 이용하여, 깊이 정보 없이도 이미지를 고해상도로 복원할 수 있다. 도 12에서는 이미지 복원 장치가 이미지 센서에서 나타날 수 있는 디스패리티 별로 재배열 행렬을 결정하여, 재배열 행렬들에 기초하여 생성된 대상 이미지들(1231, 1232, 1233)을 이용하여, 깊이 정보 없이도 이미지를 고해상도로 복원할 수 있다.
도 13은 일 실시예에 따른 이미지 복원 방법을 설명하는 흐름도이다.
우선, 단계(1310)에서 이미지 복원 장치는 대상 이미지를 획득할 수 있다. 이미지 복원 장치는 이미지 센서를 통해 실제 장면을 촬영한 복안 시야 이미지를 획득할 수 있다. 이미지 복원 장치는 복안 시야 이미지를 재배열 행렬을 통해 변환함으로써, 대상 이미지를 획득할 수 있다.
그리고 단계(1320)에서 이미지 복원 장치는 획득된 대상 이미지로부터, 확장 간격(dilation gap)을 가지는 커널(kernel)에 대응하는 컨볼루션 레이어(convolutional layer)를 포함하는 이미지 복원 모델(image restoration model)에 기초하여, 출력 이미지(output image)를 복원(restore)할 수 있다.
다만 이미지 복원 방법을 도 13에 도시된 바로 한정하는 것은 아니고, 도 1 내지 도 12에서 설명된 동작들의 일부와 결합되어 병렬적으로 또는 시계열적으로 수행될 수도 있다.
도 14는 일 실시예에 따른 이미지 복원 모델을 트레이닝시키는 방법을 설명하는 흐름도이다.
우선, 단계(1410)에서 트레이닝 장치는 트레이닝 데이터로부터 기준 입력 이미지를 생성할 수 있다. 예를 들어, 트레이닝 데이터는 트레이닝 입력 및 트레이닝 출력의 쌍을 포함할 수 있다. 트레이닝 출력은, 임의의 트레이닝 입력에 대해 주어진 참값(ground truth)일 수 있다. 일 실시예에 따르면 트레이닝 입력은 복안 시야 이미지일 수 있고, 트레이닝 출력은 해당 복안 시야 이미지에 대한 실제 장면일 수 있다. 트레이닝 장치는 트레이닝 입력, 예를 들어, 복안 시야 이미지를 재배열 행렬을 통해 변환함으로써, 기준 입력 이미지를 생성할 수 있다. 기준 입력 이미지는 도 4 및 도 7에서 설명된 바와 같이 재배열 행렬을 통해 트레이닝 입력이 변환된 대상 이미지일 수 있다.
그리고 단계(1420)에서 트레이닝 장치는 이미지 복원 모델이 기준 입력 이미지로부터 기준 출력 이미지를 산출하도록, 확장 간격을 가지는 커널에 대응하는 컨볼루션 레이어를 포함하는 이미지 복원 모델을 트레이닝시킬 수 있다. 예를 들어, 트레이닝 장치는 이미지 복원 모델의 입력 레이어로부터 출력 레이어로 기준 입력 이미지를 전파시킴으로써, 임시 출력 이미지를 산출할 수 있다. 본 명세서에서 트레이닝이 완료되기 전의 이미지 복원 모델은 임시 모델이라고 나타낼 수 있고, 임시 모델의 출력은 임시 출력 이미지라고 나타낼 수 있다. 트레이닝 장치는 임시 출력 이미지 및 기준 출력 이미지 간의 손실을 산출할 수 있다. 손실은 다양한 손실 함수에 의해 산출될 수 있으며, 특정 함수로 한정되지 않는다. 트레이닝 장치는 손실이 최소화되도록, 이미지 복원 모델의 파라미터(예를 들어, 연결 가중치)를 업데이트할 수 있다. 트레이닝 장치는 손실이 수렴할 때까지, 임시 출력 이미지의 산출 및 그에 기초한 이미지 복원 모델의 파라미터 업데이트를 반복할 수 있다.
손실이 수렴하면 트레이닝 장치는 트레이닝을 종료하고, 트레이닝이 완료된 이미지 복원 모델 및 그에 대응하는 파라미터를 저장할 수 있다.
도 15는 일 실시예에 따른 이미지 복원 장치의 구성을 설명하는 블록도이다.
이미지 복원 장치(1500)는 프로세서(1510), 메모리(1520), 및 이미지 획득부(1530)를 포함할 수 있다.
프로세서(1510)는 획득된 대상 이미지로부터, 확장 간격을 가지는 커널을 가지는 컨볼루션 레이어들을 포함하는 이미지 복원 모델에 기초하여, 출력 이미지를 복원할 수 있다. 다만, 프로세서(1510)의 동작을 이로 한정하는 것은 아니고, 도 1 내지 도 14에서 설명된 동작을 수행할 수 있다.
메모리(1520)는 이미지 복원 모델 및 파라미터를 저장할 수 있다. 이미지 복원 모델은 트레이닝이 완료된 모델일 수 있다. 또한, 메모리(1520)는 이미지 복원 방법을 수행하는데 요구되는 데이터를 임시적으로 또는 영구적으로 저장할 수 있다. 예를 들어, 메모리(1520)는 이미지 획득부(1530)에 의해 획득되는 대상 이미지, 출력 이미지, 및 각 컨볼루션 레이어에서 출력되는 특징 데이터 등을 저장할 수 있다.
이미지 획득부(1530)는 대상 이미지를 획득할 수 있다. 예를 들어, 이미지 획득부(1530)는 복안 시야 이미지를 촬영하는 이미지 센서를 포함할 수 있다. 이미지 센서는 도 1 및 도 2에서 상술한 바와 같은 구조로 구현될 수 있다.
도 16은 일 실시예에 따른 트레이닝 장치의 구성을 설명하는 블록도이다.
트레이닝 장치(1600)는 프로세서(1610) 및 메모리(1620)를 포함할 수 있다.
프로세서(1610)는 메모리(1620)로부터 트레이닝 데이터(1621) 및 이미지 복원 모델(1622)을 로딩할 수 있다. 프로세서(1610)는 트레이닝 입력으로부터 재배열 행렬을 이용하여 기준 입력 이미지를 생성할 수 있다. 프로세서(1610)는 기준 입력 이미지로부터 트레이닝 출력을 산출하도록, 이미지 복원 모델(1622)을 트레이닝시킬 수 있다. 예를 들어, 프로세서(1610)는 이미지 복원 모델(1622)에 기준 입력 이미지를 전파시킴으로써, 임시 출력 이미지를 산출할 수 있고, 임시 출력 이미지 및 기준 출력 이미지 간의 손실이 최소화되도록 이미지 복원 모델(1622)의 파라미터를 업데이트할 수 있다.
기준 입력 이미지는 재배열 행렬을 통해 라이트 필드 정보의 상관성이 높은 픽셀들이 인접하도록 픽셀들이 재배열된 이미지이므로, 트레이닝 장치(1600)는 기준 입력 이미지를 통해 보다 고해상도의 이미지를 출력하도록 이미지 복원 모델(1622)을 트레이닝시킬 수 있다.
도 17 및 도 18은 일 실시예에 따른 이미지 복원 장치가 구현될 수 있는 기기를 도시한 도면이다.
일 실시예에 따른 이미지 복원 장치는 다양한 기술 분야에 적용될 수 있다. 이미지 복원 장치는, 복수의 렌즈들로 구성되는 렌즈 어레이 및 복수의 센싱 엘리먼트들로 구성되는 센서가 비교적 짧은 초점 거리로 이격되도록 설계될 수 있다. 따라서, 이미지 복원 장치는, 고화질 촬영을 위해 센서의 크기가 크면서도, 초박형 카메라(ultra thin camera)로 구현될 수 있다. 이와 같이 이미지 복원 장치는 멀티 렌즈 어레이 구조를 통해 보다 감소된 두께로 구현될 수 있다. 이미지 복원 장치는 AP, FPGA, Chip 등으로 구현되어 카메라의 이미지 신호 프로세서(Image Signal Processor)로서 구현될 수 있다. 이미지 복원 장치는 스마트폰의 전면 카메라 또는 후면 카메라에 적용될 수 있다. 이미지 복원 장치에서, 대형 풀 프레임 센서(Full Frame Sensor) 및 마이크로 렌즈 어레이(Micro-lens Array)가 결합된 구조로 휴대폰 카메라에 적용될 수 있다. 또한, 박형 구조 또는 커브드(Curved) 구조로 차량용으로 구현될 수도 있다.
예를 들어, 도 17에 도시된 바와 같이, 스마트폰 기기(1700)에 전면 카메라로서, 이미지 복원 장치(1710)가 구현될 수 있다. 이미지 복원 장치(1710)의 센서는 풀 프레임(full frame)으로 구현될 수 있고, 렌즈 어레이는 마이크로 렌즈(micro lens)로 구현될 수 있다.
또한, 도 18에 도시된 바와 같이, 차량(1800)에 곡선을 가지는 전면 카메라 또는 후면 카메라로서 이미지 복원 장치(1810)가 구현될 수 있다. 다만, 이로 한정하는 것은 아니고, 이미지 복원 장치는 DSLR 카메라, 드론(Drone), CCTV, 웹캠(Webcam)용 카메라, 360도 촬영 카메라, 영화 및 방송을 위한 카메라, 및 VR/AR 카메라 등에 사용될 수 있다. 더 나아가, 이미지 복원 장치는 유연하거나 연장될 수 있는 카메라(Flexible/Stretchable Camera), 곤충 눈 카메라, 컨택트 렌즈 타입(Contact lens type) 카메라 등과 같은 다양한 분야에도 적용될 수 있다.
더 나아가, 이미지 복원 장치는 연속된 프레임의 비디오 이미지(Video image)에서, 촬영된 다수의 프레임 정보를 이용하여 해상도를 증가하는 멀티 프레임 고해상도 이미지 복원(Multi-frame Super Resolution image restoration)에도 적용될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.  
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
1500: 이미지 복원 장치
1510: 프로세서
1520: 메모리
1530: 이미지 획득부

Claims (20)

  1. 이미지 복원 방법에 있어서,
    대상 이미지를 획득하는 단계; 및
    상기 획득된 대상 이미지로부터, 확장 간격(dilation gap)을 가지는 커널(kernel)에 대응하는 컨볼루션 레이어(convolutional layer)를 포함하는 이미지 복원 모델(image restoration model)에 기초하여, 출력 이미지(output image)를 복원(restore)하는 단계
    를 포함하고,
    상기 출력 이미지를 복원하는 단계는,
    개별적으로, 복수의 확장 간격들에 대응하는 복수의 커널들에 대응하는 컨볼루션 레이어에 기초하여 출력 이미지를 복원하는 단계를 포함하며,
    상기 복수의 확장 간격들은,
    이미지 센서 내에 포함된 렌즈들 및 상기 이미지 센서에 포함된 복수의 센싱 엘리먼트들의 배치 구조에 기초하여 결정되는,
    이미지 복원 방법.
  2. 삭제
  3. 이미지 복원 방법에 있어서,
    대상 이미지를 획득하는 단계; 및
    상기 획득된 대상 이미지로부터, 확장 간격(dilation gap)을 가지는 커널(kernel)에 대응하는 컨볼루션 레이어(convolutional layer)를 포함하는 이미지 복원 모델(image restoration model)에 기초하여, 출력 이미지(output image)를 복원(restore)하는 단계
    를 포함하고,
    상기 확장 간격은,
    이미지 센서로부터 이격된 객체의 지점과 상기 이미지 센서 간의 거리 및 상기 이미지 센서에 포함된 센싱 엘리먼트들의 배치 구조에 기초하여 결정되는,
    이미지 복원 방법.
  4. 제1항에 있어서,
    상기 이미지 복원 모델은,
    상기 이미지 센서로부터 임계 거리보다 멀리 위치된 지점에서 방사된 광선들이 수신되는 센싱 엘리먼트들의 위치 관계에 기초하여 결정된 커널에 대응하는 컨볼루션 레이어를 포함하는,
    이미지 복원 방법.
  5. 제1항에 있어서,
    상기 이미지 복원 모델은,
    상기 이미지 센서로부터 최소 촬영 거리에 위치된 지점에 방사된 광선들이 수신되는 센싱 엘리먼트들의 위치 관계에 기초하여 결정된 커널에 대응하는 컨볼루션 레이어를 포함하는,
    이미지 복원 방법.
  6. 제5항에 있어서,
    상기 최소 촬영 거리에 대응하는 커널은,
    상기 이미지 센서의 최소 촬영 거리, 상기 이미지 센서의 중심 렌즈로부터 최외곽 렌즈까지의 거리, 및 렌즈의 초점 거리에 기초하여 산출된 최대 디스패리티에 따라 결정된 확장 간격(dilation gap)을 가지는,
    이미지 복원 방법.
  7. 제1항에 있어서,
    상기 이미지 복원 모델은,
    복수의 레벨들에 대응하는 컨볼루션 레이어들을 포함하는,
    이미지 복원 방법.
  8. 제1항에 있어서,
    상기 이미지 복원 모델은,
    서로 다른 확장 간격을 가지는 상기 복수의 커널들의 각각에 대응하는 컨볼루션 레이어를 포함하는,
    이미지 복원 방법.
  9. 제1항에 있어서,
    상기 출력 이미지를 복원하는 단계는,
    상기 컨볼루션 레이어에 기초하여, 상기 대상 이미지로부터 특징 데이터를 추출하는 단계; 및
    상기 특징 데이터로부터, 상기 이미지 복원 모델의 나머지 레이어에 기초하여, 상기 출력 이미지를 생성하는 단계
    를 포함하는 이미지 복원 방법.
  10. 제1항에 있어서,
    상기 이미지 복원 모델은,
    동일한 확장 간격을 가지는 상기 복수의 커널들에 대응하는 컨볼루션 레이어들을 포함하는,
    이미지 복원 방법.
  11. 제1항에 있어서,
    상기 출력 이미지를 복원하는 단계는,
    기준 복안 이미지가 재배열된 기준 입력 이미지로부터 기준 출력 이미지를 출력하도록 트레이닝된 이미지 복원 모델에 기초하여, 상기 대상 이미지로부터 상기 출력 이미지를 산출하는 단계
    를 포함하는 이미지 복원 방법.
  12. 제1항에 있어서,
    상기 대상 이미지를 획득하는 단계는,
    복안 시야(CEV, compound eye vision) 이미지를 획득하는 단계; 및
    상기 복안 시야 이미지를 재배열함으로써 상기 대상 이미지를 생성하는 단계
    를 포함하는 이미지 복원 방법.
  13. 제12항에 있어서,
    상기 복안 시야 이미지를 획득하는 단계는,
    어레이 형태로 배열된 복수의 렌즈들을 통해 복수의 센싱 엘리먼트들에서 수신된 광선의 세기에 기초하여, 상기 복안 시야 이미지를 획득하는 단계
    를 포함하는 이미지 복원 방법.
  14. 제13항에 있어서,
    상기 복수의 렌즈들 및 상기 복수의 센싱 엘리먼트들은,
    서로에 대해 엇갈려서 배치되는,
    이미지 복원 방법.
  15. 제13항에 있어서,
    상기 대상 이미지를 생성하는 단계는,
    상기 복수의 센싱 엘리먼트들에서 센싱되는 라이트 필드 정보에 기초하여, 상기 복안 시야 이미지를 재배열하는 단계
    를 포함하는 이미지 복원 방법.
  16. 제15항에 있어서,
    상기 복안 시야 이미지를 재배열하는 단계는,
    상기 복수의 센싱 엘리먼트들에서 서로 유사한 라이트 필드 정보를 센싱한 센싱 엘리먼트들의 픽셀들이 서로 인접하도록, 상기 복안 시야 이미지의 픽셀들을 재배열하는 단계
    를 포함하는 이미지 복원 방법.
  17. 제15항에 있어서,
    상기 복안 시야 이미지의 픽셀들을 재배열하는 단계는,
    상기 이미지 센서로부터 임계 거리(threshold distance)보다 먼 지점들(points)으로부터 방사되는 광선들 및 상기 복수의 센싱 엘리먼트들 간의 위치 관계에 기초하여, 상기 복수의 센싱 엘리먼트들의 각각에 대해 해당 센싱 엘리먼트에서 센싱되는 라이트 필드를 방출한 지점들을 결정하는 단계; 및
    공간적으로 서로 인접한 지점들에서 방출된 라이트 필드 정보에 대응하는 픽셀들이 인접하도록 상기 픽셀들을 재배열하는 단계
    를 포함하는 이미지 복원 방법.
  18. 제1항 및 제3항 내지 제17항 중 어느 한 항의 방법을 수행하기 위한 명령어를 포함하는 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체.
  19. 이미지 복원 장치에 있어서,
    렌즈들 및 복수의 센싱 엘리먼트들을 포함하고, 대상 이미지를 획득하는 이미지 획득부; 및
    상기 획득된 대상 이미지로부터, 개별적으로, 복수의 확장 간격들에 대응하는 복수의 커널들에 대응하는 컨볼루션 레이어를 포함하는 이미지 복원 모델에 기초하여, 출력 이미지를 복원하는 프로세서
    를 포함하고,
    상기 복수의 확장 간격들은,
    상기 렌즈들 및 상기 복수의 센싱 엘리먼트들의 배치 구조에 기초하여 결정되는,
    이미지 복원 장치.
  20. 이미지 복원 방법에 있어서,
    이미지 센서 및 대상 객체(target object) 간의 각 거리에 대응하는 대상 객체의 입력 이미지를 재배열함으로써, 복수의 대상 이미지들을 획득하는 단계; 및
    상기 획득된 복수의 대상 이미지들의 각각으로부터, 개별적으로, 복수의 확장 간격들에 대응하는 복수의 커널들에 대응하는 컨볼루션 레이어들을 포함하는 이미지 복원 모델에 기초하여, 출력 이미지를 복원하는 단계
    를 포함하고,
    상기 복수의 확장 간격들은,
    이미지 센서 내에 포함된 렌즈들 및 상기 이미지 센서 내에 포함된 복수의 센싱 엘리먼트의 배치 구조에 기초하여 결정되는,
    이미지 복원 방법.
KR1020180153829A 2018-09-13 2018-12-03 이미지 복원 방법 및 장치 KR102614908B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/506,423 US11030724B2 (en) 2018-09-13 2019-07-09 Method and apparatus for restoring image
CN201910664070.XA CN110896467B (zh) 2018-09-13 2019-07-23 用于恢复图像的方法和设备
EP19193566.7A EP3624049B1 (en) 2018-09-13 2019-08-26 Method and apparatus for restoring image
JP2019154767A JP7101646B2 (ja) 2018-09-13 2019-08-27 イメージ復元方法及び装置
US17/246,162 US11663699B2 (en) 2018-09-13 2021-04-30 Method and apparatus for restoring image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862730641P 2018-09-13 2018-09-13
US62/730,641 2018-09-13

Publications (2)

Publication Number Publication Date
KR20200031012A KR20200031012A (ko) 2020-03-23
KR102614908B1 true KR102614908B1 (ko) 2023-12-18

Family

ID=69998668

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180153829A KR102614908B1 (ko) 2018-09-13 2018-12-03 이미지 복원 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102614908B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220121533A (ko) 2021-02-25 2022-09-01 삼성전자주식회사 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치
KR20230036409A (ko) * 2021-09-07 2023-03-14 삼성전자주식회사 이미지를 선명화하는 전자 장치 및 그 동작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241355A (ja) * 2007-03-26 2008-10-09 Funai Electric Co Ltd 物体の距離導出装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2431889C1 (ru) * 2010-08-06 2011-10-20 Дмитрий Валерьевич Шмунк Способ суперразрешения изображений и нелинейный цифровой фильтр для его осуществления

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241355A (ja) * 2007-03-26 2008-10-09 Funai Electric Co Ltd 物体の距離導出装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Huan Fu ET AL, Deep Ordinal Regression Network for Monocular Depth Estimation, CVPR, 6 June 2018(2018.06.06.) 1부.*
Youngjin Yoon ET AL, Light-Field Image Super-Resolution Using Convolutional Neural Network, IEEE Signal Processing Letters, Volume: 24, Issue: 6, June 2017(2017.06.30.) 1부.*

Also Published As

Publication number Publication date
KR20200031012A (ko) 2020-03-23

Similar Documents

Publication Publication Date Title
JP7101646B2 (ja) イメージ復元方法及び装置
US11663691B2 (en) Method and apparatus for restoring image
CN112308200B (zh) 神经网络的搜索方法及装置
US10154216B2 (en) Image capturing apparatus, image capturing method, and storage medium using compressive sensing
US20200259979A1 (en) Image sensor and image sensing method
EP3633969B1 (en) Image sensor and image sensing method
EP3828813A1 (en) Method and apparatus for restoring image
KR102614908B1 (ko) 이미지 복원 방법 및 장치
US11595575B2 (en) Image sensor
JP2020197774A (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
KR102644944B1 (ko) 이미지 센서 및 이미지 센싱 방법
US20230245277A1 (en) Image restoration method and device
JP7146461B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
KR20200072136A (ko) 렌즈 어레이 카메라 및 렌즈 어레이 카메라의 구동 방법
US20240147065A1 (en) Method and apparatus with autofocus
CN116681595B (zh) 一种基于多峰psf的远距离计算超分辨率成像装置
US10868957B2 (en) Apparatus and method for processing image to reconstruct image
KR20210137886A (ko) 이미지 센서
JP2024061326A (ja) 情報処理装置、情報処理方法及びプログラム
CN117956278A (zh) 自动对焦的方法和装置
CN116917934A (zh) 图像处理方法、装置和车辆

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant