KR20180057385A - 영상 처리 방법 및 영상 처리 장치 - Google Patents

영상 처리 방법 및 영상 처리 장치 Download PDF

Info

Publication number
KR20180057385A
KR20180057385A KR1020160155951A KR20160155951A KR20180057385A KR 20180057385 A KR20180057385 A KR 20180057385A KR 1020160155951 A KR1020160155951 A KR 1020160155951A KR 20160155951 A KR20160155951 A KR 20160155951A KR 20180057385 A KR20180057385 A KR 20180057385A
Authority
KR
South Korea
Prior art keywords
ray
rays
color value
image processing
image
Prior art date
Application number
KR1020160155951A
Other languages
English (en)
Other versions
KR102608466B1 (ko
Inventor
정영주
남동경
조양호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160155951A priority Critical patent/KR102608466B1/ko
Priority to US15/487,687 priority patent/US10304211B2/en
Publication of KR20180057385A publication Critical patent/KR20180057385A/ko
Application granted granted Critical
Publication of KR102608466B1 publication Critical patent/KR102608466B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/12Indexing scheme for image data processing or generation, in general involving antialiasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

영상 처리 방법 및 영상 처리 장치가 개시된다. 개시된 영상 처리 장치는 렌더링하고자 하는 영상에 해당하는 시점의 위치를 획득하고, 상기 위치에 기초하여, 서로 다른 기준 시점들에서 기 촬영된 기준 영상들에 포함된 복수의 기준 광선들 중에서 상기 영상에 포함된 광선에 가장 인접한 두 개의 기준 광선들을 선택하고, 상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단하며, 상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인 경우, 상기 선택된 기준 광선들의 컬러 값을 이용하여, 상기 광선의 컬러 값을 결정한다.

Description

영상 처리 방법 및 영상 처리 장치{METHOD AND APPARATUS FOR PROCESSING IMAGE}
아래 실시예들은 영상 처리 방법 및 영상 처리 장치에 관한 것이다.
다시점 영상 처리 기법은 복수개의 카메라를 통해 촬영된 영상들을 시청 영역을 분할하여 공간적으로 맵핑함으로써, 시청자들이 보는 위치에 따라 다른 시점의 영상들을 볼 수 있도록 한 것이다. 이러한 다시점 영상은 시청자에게 시점의 자유를 증가시킬 수 있다.
이와 같은 다시점 영상이 보다 자연스럽게 디스플레이되기 위해서는 시청 영역이 세밀하게 분할되어야 하며, 분할된 시청 영역에서 시청할 수 있는 시점 영상들이 가능한 많아야 한다.
일실시예에 따른 영상 처리 방법은 렌더링하고자 하는 영상에 해당하는 시점의 위치를 획득하는 단계; 상기 위치에 기초하여, 서로 다른 기준 시점들에서 기 촬영된 기준 영상들에 포함된 복수의 기준 광선들 중에서 상기 영상에 포함된 광선에 가장 인접한 두 개의 기준 광선들을 선택하는 단계; 상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단하는 단계; 및 상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인 경우, 상기 선택된 기준 광선들의 컬러 값을 이용하여, 상기 광선의 컬러 값을 결정하는 단계를 포함한다.
일실시예에 따른 영상 처리 방법에서 상기 기준 광선들을 선택하는 단계는, 상기 위치에 기초하여, 상기 서로 다른 기준 시점들 중에서 상기 광선에 가장 인접한 두 개의 기준 시점들을 결정하고, 상기 결정된 기준 시점들에 대응하는 기준 광선들 중에서 상기 광선에 가장 인접한 두 개의 기준 광선들을 선택할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 기준 광선들을 선택하는 단계는, 상기 결정된 기준 시점들에 대응하는 기준 광선들 중에서 상기 광선을 출력하는 픽셀에 대응하는 두 개의 기준 광선들을 선택할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 두 개의 기준 시점들은, 상기 서로 다른 기준 시점들로부터 상기 광선까지의 거리에 기초하여 상기 광선에 가장 인접한 두 개의 기준 시점들로 결정될 수 있다.
일실시예에 따른 영상 처리 방법은 상기 선택된 기준 광선들의 컬러 값 차이가 임계치를 초과하는 경우, 상기 광선을 출력하는 픽셀을 중심으로 대칭되는 주변 픽셀들에 대응하는 기준 광선들을 재 선택하는 단계를 더 포함하고, 상기 판단하는 단계는, 상기 재 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 기준 광선들을 재 선택하는 단계는, 상기 픽셀을 중심으로 대칭되는 주변 픽셀들에 에지가 존재하는지 여부에 기초하여 주변 픽셀들을 결정하고, 상기 결정된 주변 픽셀들로부터 출력되는 기준 광선들을 재 선택할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 기준 광선들을 재 선택하는 단계는, 상기 픽셀에 근접한 순서대로 상기 픽셀을 중심으로 대칭되는 주변 픽셀들을 결정하고, 상기 결정된 주변 픽셀들로부터 출력되는 기준 광선들을 재 선택할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 재 선택된 기준 광선들은, 상기 광선에 가장 인접한 것으로 결정된 두 개의 기준 시점들에 대응할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 광선의 컬러 값을 결정하는 단계는, 상기 선택된 기준 광선들의 컬러 값에 기초하여 상기 광선의 컬러 값을 보간(interpolate)할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 광선은, 상기 영상을 표시하는 디스플레이의 픽셀로부터 출력되어 상기 시점으로 전파될 수 있다.
일실시예에 따른 영상 처리 장치는 프로세서; 및 상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 포함하는 메모리를 포함하고, 상기 적어도 하나의 명령어가 상기 프로세서에서 실행되면, 상기 프로세서는 렌더링하고자 하는 영상에 해당하는 시점의 위치를 획득하고, 상기 위치에 기초하여, 서로 다른 기준 시점들에서 기 촬영된 기준 영상들에 포함된 복수의 기준 광선들 중에서 상기 영상에 포함된 광선에 가장 인접한 두 개의 기준 광선들을 선택하고, 상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단하며, 상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인 경우, 상기 선택된 기준 광선들의 컬러 값을 이용하여, 상기 광선의 컬러 값을 결정한다.
도 1 및 도 2는 일실시예에 따라 새로운 시점에 대응하는 광선을 결정하는 과정을 설명하기 위한 도면이다.
도 3는 일실시예에 따른 라이트 필드(light field) 공간 변환을 위한 축(axis)을 설명하기 위한 도면이다.
도 4 및 도 5는 일실시예에 따라 광선에 가장 인접한 두 개의 기준 시점들을 결정하는 과정을 설명하기 위한 도면이다.
도 6 및 도 7은 일실시예에 따라 광선의 컬러 값을 결정하는 과정을 설명하기 위한 도면이다.
도 8 내지 도 10은 다른 일실시예에 따라 광선의 컬러 값을 결정하는 과정을 설명하기 위한 도면이다.
도 11 내지 도 14는 일실시예에 따라 xu 평면을 이용하여 광선의 컬러 값을 결정하는 과정을 설명하기 위한 도면이다.
도 15는 일실시예에 따른 영상 처리 방법을 나타낸 도면이다.
도 16은 일실시예에 따른 영상 처리 장치를 나타낸 도면이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
하기에서 설명될 실시예들은 영상을 처리하는 데 사용될 수 있다. 이하, 영상을 처리하는 동작은 기 촬영된 다시점 영상으로부터 새로운 시점의 영상을 생성하는 동작을 포함할 수 있다. 실시예들은 스마트 폰, 웨어러블 장치, 태블릿 컴퓨터, 텔레비전, 퍼스널 컴퓨터, 랩톱 컴퓨터, 스마트 가전 기기 등 다양한 형태의 제품으로 구현될 수 있다. 예를 들어, 실시예들은 다양한 디스플레이 장치에서 영상을 처리하는 데 적용될 수 있다. 또한, 실시예들은 VR(virtual reality) 장치, AR(augmented reality) 장치 등에서 장치의 위치에 따른 영상을 생성하여 디스플레이하는 데에도 적용될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1 및 도 2는 일실시예에 따라 새로운 시점에 대응하는 광선을 결정하는 과정을 설명하기 위한 도면이다.
도 1을 참조하면, 일실시예에 따른 영상 처리 장치가 새로운 시점에 대응하는 광선을 결정하는 과정을 설명하기 위한 예시가 도시된다.
일실시예에 따른 영상 처리 장치는 영상을 처리하는 장치로서, 예를 들어, 다시점 영상으로부터 새로운 시점의 영상을 생성하는 장치를 포함할 수 있다. 예컨대, 영상 처리 장치는 FVR(free view rendering) 기법에 기반하여 새로운 시점의 영상을 생성할 수 있다.
다시점 영상은 서로 다른 기준 시점들에서 기 촬영된 기준 영상들을 포함할 수 있다. 예시적으로 도시된 도 1에서는, 다시점 영상은 제1 기준 시점 u1 내지 제5 기준 시점 u5에서 각각 촬영된 기준 영상들을 포함할 수 있다. 기준 시점들은 카메라를 통해 기 촬영된 영상에 대응되는 점에서, 카메라 평면에 위치할 수 있다.
일실시예에 따른 기준 영상은 해당하는 기준 시점에 대응하는 영상으로서, 복수의 광선들을 포함할 수 있다. 광선은 디스플레이의 픽셀로부터 출력되어 해당 기준 시점으로 전파되는 광선으로, 디스플레이의 픽셀에 고유하게 대응될 수 있다. 광선의 컬러 값은 대응하는 픽셀에 표시되는 컬러 값에 해당할 수 있다. 디스플레이에 포함된 픽셀들은 디스플레이 평면에 위치할 수 있다. 따라서, 기준 시점에 대응하는 광선들은 디스플레이의 복수의 픽셀들로부터 출력되어 해당 기준 시점으로 군집될 수 있다.
일실시예에 따른 영상 처리 장치가 새로운 시점 ui에 대응하는 영상을 생성하고자 하는 상황을 가정한다. 새로운 시점 ui에 대응하는 영상은 새로운 시점 ui에 대응하는 광선들의 컬러 값을 결정함으로써 생성될 수 있다.
예를 들어, 새로운 시점 ui에 대응하는 5개의 광선들(110~150)은 기 촬영된 기준 영상들에 포함된 광선들에 기반하여 생성될 수 있다. 제1 광선(110)은 제1 기준 시점 u1의 광선(111)으로 결정되고, 제2 광선(120)은 제2 기준 시점 u2의 광선(121)으로 결정되고, 제3 광선(130)은 제3 기준 시점 u3의 광선(131)으로 결정되고, 제4 광선(140)은 제4 기준 시점 u4의 광선(141)으로 결정되며, 제5 광선(150)은 제5 기준 시점 u5의 광선(151)으로 결정될 수 있다. 다시 말해, 새로운 시점 ui의 영상에 포함된 광선들은 기준 영상들에 포함된 광선들의 조합으로 생성될 수 있다. 다만, 일실시예에 따라서는 새로운 시점 ui에 대응하는 광선들이 기준 영상들에 포함된 광선들의 조합만으로 생성되지 않은 케이스가 존재할 수 있다. 이에 관해서는 도 2를 참조해서 후술한다.
도 2를 참조하면, 일실시예에 따른 영상 처리 장치가 새로운 시점에 대응하는 광선을 결정하는 과정을 설명하기 위한 다른 예시가 도시된다.
일실시예에 따라서는, 다시점 영상에 포함된 기준 영상들의 개수가 충분하지 않을 수 있고, 그래서 새로운 시점 ui의 영상에 포함된 광선이 기준 영상들에 존재하지 않을 수도 있다. 이 경우, 새로운 시점 ui의 영상에 포함된 하나의 광선을 결정하기 위해 기준 영상에 포함된 복수의 기준 광선들이 이용될 수 있다.
예를 들어, 새로운 시점 ui의 제1 광선(210)은 제1 광선(210)에 인접한 두 개의 기준 광선들(예컨대, 제3 기준 시점 u3의 기준 광선(211) 및 제4 기준 시점 u4의 기준 광선(213))에 기초하여 결정될 수 있다. 제1 광선(210)은 제3 기준 시점 u3의 기준 광선(211) 및 제4 기준 시점 u4의 기준 광선(213)에 기초한 보간(interpolation)을 통해 결정될 수 있다.
또한, 새로운 시점 ui의 제2 광선(220)은 제2 광선(220)에 인접한 두 개의 기준 광선들(예컨대, 제2 기준 시점 u2의 기준 광선(221) 및 제3 기준 시점 u3의 기준 광선(223))에 기초하여 결정될 수 있다. 제2 광선(220)은 제2 기준 시점 u2의 기준 광선(221) 및 제3 기준 시점 u3의 기준 광선(223)에 기초한 보간을 통해 결정될 수 있다.
앞서 설명된 것처럼, 새로운 시점 ui의 광선은 해당 광선에 인접한 기준 시점들의 기준 광선에 기초하여 결정될 수 있다. 또한, 새로운 시점 ui의 광선에 인접한 기준 시점은 결정하고자 하는 광선에 기초하여 결정될 수 있다. 새로운 시점 ui의 광선을 결정하는 과정은 추후 상세히 설명한다.
도 3는 일실시예에 따른 라이트 필드(light field) 공간 변환을 위한 축(axis)을 설명하기 위한 도면이다.
도 3을 참조하면, 일실시예에 따른 라이트 필드 공간 변환을 위한 x, y, u, z 축이 도시된다.
일실시예에 따른 디스플레이 평면은 디스플레이가 위치하는 평면을 나타내는 것으로, 해당 디스플레이에서 영상이 표시될 수 있다. 디스플레이 평면은 x 축과 y 축을 가질 수 있다. 아래에서는 설명의 편의를 위해 x 축을 기준으로 영상 처리 장치의 동작을 설명한다. 이러한 설명이 영상 처리 장치의 동작을 제한하지 않으며, y 축에 대해서도 마찬가지로 적용될 수 있다.
일실시예에 따른 카메라 평면은 다시점 영상을 촬영한 카메라가 위치하는 평면을 나타내는 것으로, 기준 시점들이 카메라 평면에 위치할 수 있다. 카메라 평면의 u 축은 디스플레이 평면의 x 축에 대응하는 축으로서, 기준 시점의 좌표 값을 정의할 수 있다.
일실시예에 따른 z 축은 디스플레이 평면으로부터의 거리를 나타내는 축으로, 디스플레이 평면을 기준으로 설정될 수 있다. 다른 실시예에 따르면, z 축의 방향이 도 3에 도시된 z 축의 방향과 반대로 설정될 수도 있다. 다만, 아래에서는 설명의 편의를 위해 도 3에 도시된 z 축의 방향을 기준으로 영상 처리 장치의 동작을 설명한다.
도 4 및 도 5는 일실시예에 따라 광선에 가장 인접한 두 개의 기준 시점들을 결정하는 과정을 설명하기 위한 도면이다.
도 4를 참조하면, 일실시예에 따른 영상 처리 장치가 광선에 가장 인접한 두 개의 기준 시점들을 결정하는 과정을 설명하기 위한 예시가 도시된다.
일실시예에 따라서, 영상 처리 장치에서 렌더링하고자 하는 영상의 시점 ui가 카메라 평면에 위치할 수 있다. 이 경우, 디스플레이의 픽셀(420)로부터 출력되어 시점 ui로 전파되는 광선(410)에 가장 인접한 두 개의 기준 시점들은 제3 기준 시점 u3 및 제4 기준 시점 u4로 결정될 수 있다. 시점 ui에 대응하는 다른 광선들에 대해서도, 가장 인접한 두 개의 기준 시점들은 제3 기준 시점 u3 및 제4 기준 시점 u4로 결정될 수 있다.
다시 말해, 시점 ui가 카메라 평면에 위치하는 경우, 시점 ui에 대응하는 광선에 따라 가장 인접한 두 개의 기준 시점이 달라지지 않으며, 시점 ui의 위치를 기준으로 가장 인접하게 위치한 두 개의 시점들이 결정될 수 있다.
도 5를 참조하면, 일실시예에 따른 광선에 가장 인접한 두 개의 기준 시점들을 결정하는 과정을 설명하기 위한 다른 예시가 도시된다.
일실시예에 따라서, 영상 처리 장치에서 렌더링하고자 하는 영상의 시점 ui가 카메라 평면에 위치하지 않을 수도 있다. 이 경우, 시점 ui에 대응하는 광선에 따라 가장 인접하는 두 개의 기준 시점이 달라질 수 있다.
예를 들어, 제1 픽셀(520)로부터 출력되어 시점 ui로 전파되는 제1 광선(510)의 경우, 제1 광선(510)에 가장 인접한 두 개의 기준 시점은 제2 기준 시점 u2 및 제3 기준 시점 u3으로 결정될 수 있다. 또한, 제2 픽셀(540)로부터 출력되어 시점 ui로 전파되는 제2 광선(530)의 경우, 제2 광선(530)에 가장 인접한 두 개의 기준 시점은 제3 기준 시점 u3 및 제4 기준 시점 u4로 결정될 수 있다.
다시 말해, 시점 ui가 카메라 평면에 위치하지 않는 경우, 시점 ui에 대응하는 광선에 따라 가장 인접한 두 개의 기준 시점이 달라질 수 있다.
일실시예에 따른 영상 처리 장치는 기준 시점으로부터 광선까지 거리에 기초하여 광선에 가장 인접한 두 개의 기준 시점들을 결정할 수 있다. 영상 처리 장치는 기준 시점으로부터 광선까지의 거리가 가장 짧은 두 개의 기준 시점들을 해당 광선에 가장 인접한 두 개의 기준 시점들로 결정할 수 있다. 예를 들어, 제1 광선(510)가 제2 기준 시점 u2와 제3 기준 시점 u3 사이로 전파됨에 따라, 제1 광선(510)에 가장 인접한 두 개의 기준 시점으로 제2 기준 시점 u2와 제3 기준 시점 u3이 결정될 수 있다.
도 6 및 도 7은 일실시예에 따라 광선의 컬러 값을 결정하는 과정을 설명하기 위한 도면이다.
도 6을 참조하면, 일실시예에 따른 영상 처리 장치가 가장 인접한 두 개의 기준 시점의 기준 광선들을 이용하여 광선의 컬러 값을 결정하는 과정을 설명하기 위한 예시가 도시된다.
도 6에 도시된 xu 평면은 도 3에서 전술한 디스플레이 평면 상의 x 축과 카메라 평면의 u 축으로 구성될 수 있다. xu 평면에 도시된 각 블록은 대응하는 시점에서 대응하는 픽셀로부터 출력된 광선을 나타낼 수 있다. 예를 들어, xu 평면에서 블록 (xi, um)은 제m 기준 시점 um에서 픽셀 xi로부터 출력되는 기준 광선을 나타내고, 블록 (xi, um)의 컬러 값은 제m 기준 시점 um에서 픽셀 xi로부터 출력되는 기준 광선의 컬러 값을 나타낼 수 있다. 따라서, u 값이 um에 해당하는 블록들은 제m 기준 시점 um에 해당하는 기준 광선들을 나타낼 수 있다. 마찬가지로, xu 평면에서 (xi, un)은 제n 기준 시점 un에서 픽셀 xi로부터 출력되는 기준 광선을 나타내고, (xi, un)의 컬러 값은 제n 기준 시점 un에서 픽셀 xi로부터 출력되는 기준 광선의 컬러 값을 나타낼 수 있다.
도 6에서 도시된 제m 기준 시점 um에 대응하는 블록들과 제n 기준 시점 un에 대응하는 블록들 사이에 위치한 블록들은 영상 처리 장치에서 생성하고자 하는 영상의 시점 ui에 대응하는 광선들을 나타낼 수 있다.
예를 들어, 영상 처리 장치가 광선(610)에 가장 인접한 두 개의 기준 시점으로 제m 기준 시점 um 및 제n 기준 시점 un을 결정한 것을 가정한다. 그리고, 영상 처리 장치는 제m 기준 시점 um의 기준 광선들 중에서 광선(610)에 가장 인접한 기준 광선 및 제n 기준 시점 un의 기준 광선들 중에서 광선(610)에 가장 인접한 기준 광선을 선택할 수 있다. 예를 들어, 영상 처리 장치는 제m 기준 시점 um의 기준 광선들 중에서 광선(610)에 가장 인접한 기준 광선으로 기준 광선(620)을 선택할 수 있다. 이 때, 기준 광선(620)은 제m 기준 시점 um의 기준 광선들 중에서 광선(610)을 출력하는 디스플레이의 픽셀 xi에 대응하는 기준 광선일 수 있다. 마찬가지로, 영상 처리 장치는 제n 기준 시점 un의 기준 광선들 중에서 광선(610)에 가장 인접한 기준 광선으로 기준 광선(630)을 선택할 수 있다.
도 7을 참조하면, 일실시예에 따른 영상 처리 장치가 선택된 기준 광선들(620, 630)을 이용하여 광선(610)의 컬러 값을 결정하는 과정을 설명하기 위한 예시가 도시된다.
영상 처리 장치는 선택된 기준 광선들(620, 630)의 컬러 값 차이가 임계치 이하인지 여부를 판단할 수 있다. 예를 들어, 영상 처리 장치는 기준 광선들(620, 630)의 컬러 값에 대한 SSD(Squared Sum Error)를 계산하고, 계산된 SSD가 임계치 이하인지 여부를 판단할 수 있다. 또는, 영상 처리 장치는 기준 광선들(620, 630)의 컬러 값에 대한 절대차(absolute difference)를 계산하고, 계산된 절대차가 임계치 이하인지 여부를 판단할 수 있다. 이외에도 기준 광선들(620, 630)의 컬러 값 차이를 계산할 수 있는 다양한 기법이 제한 없이 적용될 수 있다.
선택된 기준 광선들(620, 630)의 컬러 값 차이가 임계치 이하인 경우, 영상 처리 장치는 기준 광선들(620, 630)의 컬러 값을 이용하여 광선(610)의 컬러 값을 결정할 수 있다. 예를 들어, 영상 처리 장치는 기준 광선들(620, 630)의 컬러 값에 기초하여 광선(610)의 컬러 값을 보간할 수 있다. 이 때, 보간은 선형적으로 수행됨으로써 보간할 때 요구되는 연산량을 상당히 줄일 수 있다.
영상 처리 장치는 나머지 광선들에 대해서도 전술한 방법을 통해 컬러 값을 결정할 수 있다.
도 8 내지 도 10은 다른 일실시예에 따라 광선의 컬러 값을 결정하는 과정을 설명하기 위한 도면이다.
도 8을 참조하면, 일실시예에 따른 영상 처리 장치가 가장 인접한 두 개의 기준 시점의 기준 광선들을 이용하여 광선의 컬러 값을 결정하는 과정을 설명하기 위한 다른 예시가 도시된다.
예시적으로 도시된 도 8에서는, 광선(810)에 가장 인접한 것으로 선택된 기준 광선들(820, 830)의 컬러 값 차이가 임계치를 초과할 수 있다. 이 경우, 영상 처리 장치는 기준 광선들(820, 830)에서 에지(edge)가 존재하지 않는 것으로 판단하고, 기준 광선들(820, 830)의 컬러 값을 이용하여 광선(810)의 컬러 값을 결정하는 대신, 기준 광선들을 재 선택할 수 있다.
도 9를 참조하면, 일실시예에 따른 영상 처리 장치가 기준 광선들을 재 선택하는 과정을 설명하기 위한 예시가 도시된다.
도 8에서 설명한 것처럼, 제1 방향성(910)에서 에지(edge)를 이루는 방향성이 존재하지 않는 경우, 영상 처리 장치는 기준 광선들을 재 선택하기 위해 픽셀 xi의 주변 픽셀들 중에서 에지를 이루는 방향성을 탐색할 수 있다. 제1 방향성(910)은 가장 기본이 되는 방향성으로 도 6 및 도 7에서 전술한 케이스에 해당되는 것으로, 도 8의 케이스에서는 제1 방향성(910)에서 에지가 존재하지 않는다는 것을 이미 설명했다. 여기서, 제1 방향성(910)은 기본 방향성으로 지칭될 수 있다.
영상 처리 장치는 픽셀 xi에 인접한 주변 픽셀들의 컬러 값을 이용하여 주변 픽셀들에 에지를 이루는 방향성이 있는지 여부를 판단할 수 있다. 이러한 판단은 픽셀 xi에 인접한 순서대로 주변 픽셀들에 대해 수행될 수 있으며, 이 때 판단 대상이 되는 주변 픽셀들은 픽셀 xi를 중심으로 대칭되도록 선택될 수 있다.
예를 들어, 영상 처리 장치는 블록 (xi+1, um)과 블록 (xi-1, un)에 에지를 이루는 방향성(920)이 있는지 여부를 판단할 수 있다. 영상 처리 장치는 블록 (xi+1, um)과 블록 (xi-1, un) 간의 컬러 값 차이가 임계치를 초과하는 것으로 판단된 것에 기초하여, 방향성(920)에서는 에지가 존재하지 않는다고 판단할 수 있다.
또한, 영상 처리 장치는 블록 (xi-1, um)과 블록 (xi+1, un)에 기초한 방향성(930)에 에지가 존재하는지 여부를 판단할 수 있다. 영상 처리 장치는 블록 (xi-1, um)과 블록 (xi+1, un)의 컬러 값 차이가 임계치 이하인 것으로 판단된 것에 기초하여, 방향성(930)에 에지가 존재한다고 판단할 수 있다. 그리고, 영상 처리 장치는 방향성(930)에 기초하여 블록 (xi-1, um)과 블록 (xi+1, un)에 대응하는 기준 광선들을 재 선택할 수 있다.
만약, 주변 픽셀들 xi-1, xi+1에 대해서도 에지를 이루는 방향성이 존재하지 않는 것으로 판단되는 경우, 영상 처리 장치는 그 다음 주변 픽셀들 xi-2, xi+2에 대해서 에지를 이루는 방향성이 존재하는지 여부를 순차적으로 판단할 수 있다.
도 10을 참조하면, 일실시예에 따른 영상 처리 장치가 재 선택된 기준 광선들(840, 850)을 이용하여 광선(810)의 컬러 값을 결정하는 과정을 설명하기 위한 예시가 도시된다.
영상 처리 장치는 재 선택된 기준 광선들(840, 850)의 컬러 값을 이용하여 광선(810)의 컬러 값을 결정할 수 있다. 예를 들어, 영상 처리 장치는 기준 광선들(840, 850)의 컬러 값에 기초하여 광선(810)의 컬러 값을 보간할 수 있다.
영상 처리 장치는 나머지 광선들에 대해서도 해당 광선을 중심으로 에지를 형성하는 방향성을 탐색함으로써 해당 광선의 컬러 값을 결정할 수 있다. 예를 들어, 영상 처리 장치는 에지가 존재하는 턱스처(texture) 영역에 대해서는 에지에 기반하여 보간을 수행하며, 에지가 존재하지 않는 텍스처리스(textureless) 영역에서는 기본 방향성(예컨대, 상하 방향)으로 단순 보간을 수행할 수 있다.
도 11 내지 도 14는 일실시예에 따라 xu 평면을 이용하여 광선의 컬러 값을 결정하는 과정을 설명하기 위한 도면이다.
도 11을 참조하면, 일실시예에 따른 xu 평면을 이용하여 광선의 컬러 값을 결정하는 과정을 설명하기 위한 예시가 도시된다.
일실시예에 따라 영상 처리 장치에서 생성되는 영상의 시점이 카메라 평면에 위치하지 않을 수 있다. 이 경우, 해당 영상에 포함되는 광선들의 집합을 xu 평면 상에 직선(1110)으로 나타낼 수 있다. 직선(1110)은 일정한 기울기와 한 점(1111)으로 결정될 수 있다. 직선(1110)의 기울기와 한 점(1111)의 결정 과정은 도 12 내지 도 14를 참조하여 상세히 설명한다.
컬러 값을 결정하고자 하는 광선에 가장 인접한 두 개의 기준 시점들은 직선(1110)에 기초하여 결정될 수 있다. 예를 들어, 픽셀 xi로부터 출력되는 광선(1120)의 컬러 값을 결정하고자 하는 경우, 직선(1110)과 x=xi가 만나는 점에 대응하는 블록이 식별될 수 있다. 그리고, 해당 블록에 가장 인접한 두 개의 기준 시점들(um, un)이 식별될 수 있다. 그래서, 광선(1120)의 컬러 값을 결정하기 위해, 기준 시점들(um, un)의 기준 광선들 중 두 개의 기준 광선들이 이용될 수 있다. 기준 시점들(um, un)의 기준 광선들 중에서도 광선(1120)에 가장 인접한 두 개의 기준 시점들(1130, 1140)이 가장 먼저 선택될 수 있다. 선택된 기준 시점들(1130, 1140)은 광선(1120)과 동일한 픽셀 xi에 대응할 수 있다. 이 후 과정들은 앞서 설명된 동작들이 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
일실시예에 따른 직선(1110)이 일정한 기울기를 가짐에 따라, 컬러 값을 결정하고자 하는 광선에 따라 해당 광선에 가장 인접한 두 개의 기준 시점들이 달라질 수 있다.
만약 일실시예에 따라 영상 처리 장치에서 생성되는 영상의 시점이 카메라 평면에 위치하는 경우에는, 직선(1110)의 기울기가 0이 되고, 컬러 값을 결정하고자 하는 광선에 따라 가장 인접한 두 개의 기준 시점들이 달라지지 않으며, 고정될 수 있다.
도 12을 참조하면, 일실시예에 따라 시점(1210)이 카메라 평면보다 디스플레이 평면으로부터 멀리 위치한 경우에 도 11에서 설명한 직선(1110)의 기울기를 결정하는 과정을 설명하기 위한 예시가 도시된다.
시점(1210)이 카메라 평면보다 디스플레이 평면으로부터 멀리 위치한 경우(za>zu), 시점(1210)에 대응한 x 값이 증가함에 따라 u 값도 함께 증가하게 된다(도 12에 도시된 굵은 화살표 참조). 따라서, 도 11에서 설명한 직선(1110)의 기울기는 양(positive)의 값을 가지게 된다. 또한, 시점(1210)이 카메라 평면에 가까이 위치할 때보다 카메라 평면으로부터 멀리 위치할 때, x 값의 변화에 따른 u 값의 변화량이 크다. 따라서, 시점(1210)이 카메라 평면으로부터 멀리 위치할수록 직선(1110)의 기울기 값이 커질 수 있다.
도 13을 참조하면, 일실시예에 따라 도 11에서 설명한 직선(1110)의 한 점을 결정하는 과정을 설명하기 위한 예시가 도시된다.
시점(1210)에 대응하는 한 광선(1220)이 도시될 수 있다. 이 때, 해당 광선(1220)을 출력하는 픽셀 xa과 광선(1220)과 u 축이 만나는 지점 ua에 따라 직선(1110)의 한 점을 결정할 수 있다. 다시 말해, 직선(1110)의 한 점은 (xa, ua)로 결정될 수 있다.
도 14를 참조하면, 일실시예에 따라 시점(1410)이 카메라 평면보다 디스플레이 평면에 가까이 위치한 경우에 도 11에서 설명한 직선(1110)의 기울기를 결정하는 과정을 설명하기 위한 예시가 도시된다.
시점(1410)이 카메라 평면보다 디스플레이 평면에 가깝게 위치한 경우(za<zu), 시점(1410)에 대응한 x 값이 증가함에 따라 u 값은 반대로 감소하게 된다(도 14에 도시된 굵은 화살표 참조). 따라서, 도 11에서 설명한 직선(1110)의 기울기는 음(negative)의 값을 가지게 된다. 또한, 시점(1410)이 디스플레이 평면에 가까이 위치할 때보다 디스플레이 평면으로부터 멀리 위치할 때, x 값의 변화에 따른 u 값의 변화량이 작다. 따라서, 시점(1410)이 디스플레이 평면으로부터 멀리 위치할수록(단, za<zu의 경우이므로 시점(1410)이 카메라 평면보다 디스플레이 평면으로부터 멀리 위치할 수는 없다) 직선(1110)의 기울기의 절대 값이 작아질 수 있다.
시점(1410)이 카메라 평면보다 디스플레이 평면에 가깝게 위치한 경우에도, 도 13에서 설명한 방법에 기초하여 직선(1110)의 한 점을 결정할 수 있으므로, 보다 상세한 설명은 생략한다.
도 15는 일실시예에 따른 영상 처리 방법을 나타낸 도면이다.
도 15를 참조하면, 일실시예에 따라 영상 처리 장치의 프로세서에 의해 수행되는 영상 처리 방법이 도시된다.
단계(1510)에서, 영상 처리 장치는 렌더링하고자 하는 영상에 해당하는 시점의 위치를 획득한다. 예를 들어, 영상 처리 장치는 렌더링하고자 하는 영상에 해당하는 시점의 좌표 값(x, y, z)을 획득할 수 있다.
단계(1520)에서, 영상 처리 장치는 영상에 포함된 광선을 결정할 수 있다. 영상 처리 장치는 영상에 포함된 복수의 광선들 중에서 컬러 값을 결정할 광선을 결정할 수 있다. 이 때, 이미 컬러 값이 결정된 광선은 제외될 수 있다.
단계(1530)에서, 영상 처리 장치는 결정된 광선에 인접한 두 개의 기준 광선들을 선택한다. 우선, 영상 처리 장치는 결정된 광선에 가장 인접한 두 개의 기준 광선들을 선택한다.
영상 처리 장치는 시점의 위치에 기초하여 서로 다른 기준 시점들 중에서 광선에 가장 인접한 두 개의 기준 시점들을 결정할 수 있다. 예를 들어, 영상 처리 장치는 서로 다른 기준 시점들로부터 광선까지의 거리에 기초하여 광선에 가장 인접한 두 개의 기준 시점들을 결정할 수 있다.
그리고, 영상 처리 장치는 결정된 기준 시점들에 대응하는 기준 광선들 중에서 광선에 가장 인접한 두 개의 기준 광선들을 선택할 수 있다. 예를 들어, 영상 처리 장치는 결정된 기준 시점들에 대응하는 기준 광선들 중에서 광선을 출력하는 디스플레이의 픽셀에 대응하는 두 개의 기준 광선들을 선택할 수 있다.
단계(1540)에서, 영상 처리 장치는 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단한다. 예를 들어, 영상 처리 장치는 선택된 기준 광선들의 컬러 값 차이를 SSD 및 절대차로 계산할 수 있다.
선택된 기준 광선들의 컬러 값 차이가 임계치 이하인 경우, 단계(1550)에서, 영상 처리 장치는 선택된 기준 광선들의 컬러 값을 이용하여 광선의 컬러 값을 결정한다. 예를 들어, 영상 처리 장치는 선택된 기준 광선들의 컬러 값에 기초하여 광선의 컬러 값을 보간할 수 있다. 이 때, 영상 처리 장치가 수행하는 보간은 이중선형보간법(bilinear interpolation)에 해당할 수 있다.
만약 단계(1540)에서 선택된 기준 광선들의 컬러 값 차이가 임계치를 초과하는 경우, 단계(1530)에서, 영상 처리 장치는 광선을 출력하는 픽셀을 중심으로 대칭되는 주변 픽셀들에 대응하는 기준 광선들을 재 선택할 수 있다. 예를 들어, 영상 처리 장치는 픽셀을 중심으로 대칭되는 주변 픽셀들에 에지가 존재하는지 여부에 기초하여 주변 픽셀들을 결정하고, 결정된 주변 픽셀들로부터 출력되는 기준 광선들을 재 선택할 수 있다. 또한, 영상 처리 장치는 광선을 출력하는 픽셀에 근접한 순서대로 해당 픽셀을 중심으로 대칭되는 주변 픽셀들을 결정하고, 결정된 주변 픽셀들로부터 출력되는 기준 광선들을 재 선택할 수 있다. 이 때, 재 선택된 기준 광선들은 광선에 가장 인접한 것으로 결정된 두 개의 기준 시점들에 대응할 수 있다.
단계(1560)에서, 영상 처리 장치는 렌더링하고자 하는 영상에 포함된 모든 광선의 컬러 값을 결정하였는지 여부를 판단할 수 있다. 모든 광선의 컬러 값이 결정되지 않은 경우, 단계(1520)에서 영상 처리 장치는 컬러 값이 결정되지 않은 광선을 결정 수 있다. 반대로, 모든 광선의 컬러 값이 결정된 경우, 영상 처리 장치는 렌더링하고자 하는 영상을 생성하는 동작을 종료할 수 있다.
도 15에 도시된 각 단계들에는 도 1 내지 도 14를 통하여 전술한 사항들이 그대로 적용되므로, 보다 상세한 설명은 생략한다.
도 16은 일실시예에 따른 영상 처리 장치를 나타낸 도면이다.
도 16을 참조하면, 일실시예에 따른 영상 처리 장치(1600)는 메모리(1610) 및 프로세서(1620)를 포함한다. 메모리(1610) 및 프로세서(1620)는 버스(bus)(1630)를 통해 서로 데이터를 주고 받을 수 있다.
메모리(1610)는 휘발성 메모리 및 비휘발성 메모리를 포함할 수 있으며, 버스(1640)를 통해 수신된 정보를 저장할 수 있다. 메모리(1610)는 프로세서(1620)에 의해 실행 가능한 적어도 하나의 명령어를 포함할 수 있다.
프로세서(1620)는 메모리(1610)에 저장된 적어도 하나의 명령어를 실행할 수 있다. 프로세서(1620)는 렌더링하고자 하는 영상에 해당하는 시점의 위치를 획득한다. 그리고, 프로세서(1620)는 위치에 기초하여, 서로 다른 기준 시점들에서 기 촬영된 기준 영상들에 포함된 복수의 기준 광선들 중에서 영상에 포함된 광선에 가장 인접한 두 개의 기준 광선들을 선택한다. 그리고, 프로세서(1620)는 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단한다. 그리고, 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인 경우, 프로세서(1620)는 선택된 기준 광선들의 컬러 값을 이용하여, 광선의 컬러 값을 결정한다.
일실시예에 따른 영상 처리 장치(1600)는 사용자가 착용할 수 있는 VR 장치로 구현될 수 있다. 이 경우, 영상 처리 장치(1600)는 내장된 하나 이상의 센서(예컨대, 자이로 센서, 가속도 센서 등)를 통해 영상 처리 장치(1600)의 위치를 획득하고, 획득된 위치에 따른 영상을 사용자로 제공할 수 있다. 또한, 영상 처리 장치(1600)는 획득한 위치에 사용자의 양안 간의 거리를 반영한 스테레오 영상을 생성함으로써, 생성된 스테레오 영상을 시청하는 사용자가 사용자의 위치에 대응하는 시점의 영상뿐만 아니라 3차원 입체감도 느끼게 할 수 있다.
도 16에 도시된 각 구성요소들에는 도 1 내지 도 15를 통하여 전술한 사항들이 그대로 적용되므로, 보다 상세한 설명은 생략한다.
실시예들은 다시점 영상에 포함된 두 개의 기준 광선들의 보간에 기초하여 새로운 시점의 영상을 생성함으로써, 새로운 시점의 영상 생성에 요구되는 연산량, 연산 시간 및 데이터량을 효과적으로 줄일 수 있다.
실시예들은 다시점 영상에 포함된 기준 광선들 중에서 컬러 값을 결정하고자 하는 광선에 인접하면서도 에지가 포함된 두 개의 기준 광선들을 통해 광선의 컬러 값을 결정함으로써, 영상 처리 방법이 실시간 또는 온라인 상으로 구동될 수 있다. 앞서 설명한 실시예들은 칩 형태로 구현되어 모바일 기기, 태블릿, 디스플레이 장치, 3D 기기 등에 탑재되거나 또는 소프트웨어 솔류션으로 구현될 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (18)

  1. 렌더링하고자 하는 영상에 해당하는 시점의 위치를 획득하는 단계;
    상기 위치에 기초하여, 서로 다른 기준 시점들에서 기 촬영된 기준 영상들에 포함된 복수의 기준 광선들 중에서 상기 영상에 포함된 광선에 가장 인접한 두 개의 기준 광선들을 선택하는 단계;
    상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단하는 단계; 및
    상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인 경우, 상기 선택된 기준 광선들의 컬러 값을 이용하여, 상기 광선의 컬러 값을 결정하는 단계
    를 포함하는 영상 처리 방법.
  2. 제1항에 있어서,
    상기 기준 광선들을 선택하는 단계는,
    상기 위치에 기초하여 상기 서로 다른 기준 시점들 중에서 상기 광선에 가장 인접한 두 개의 기준 시점들을 결정하고, 상기 결정된 기준 시점들에 대응하는 기준 광선들 중에서 상기 광선에 가장 인접한 두 개의 기준 광선들을 선택하는, 영상 처리 방법.
  3. 제2항에 있어서,
    상기 기준 광선들을 선택하는 단계는,
    상기 결정된 기준 시점들에 대응하는 기준 광선들 중에서 상기 광선을 출력하는 픽셀에 대응하는 두 개의 기준 광선들을 선택하는, 영상 처리 방법.
  4. 제2항에 있어서,
    상기 두 개의 기준 시점들은,
    상기 서로 다른 기준 시점들로부터 상기 광선까지의 거리에 기초하여 상기 광선에 가장 인접한 두 개의 기준 시점들로 결정되는, 영상 처리 방법.
  5. 제1항에 있어서,
    상기 선택된 기준 광선들의 컬러 값 차이가 임계치를 초과하는 경우, 상기 광선을 출력하는 픽셀을 중심으로 대칭되는 주변 픽셀들에 대응하는 기준 광선들을 재 선택하는 단계
    를 더 포함하고,
    상기 판단하는 단계는,
    상기 재 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단하는, 영상 처리 방법.
  6. 제5항에 있어서,
    상기 기준 광선들을 재 선택하는 단계는,
    상기 픽셀을 중심으로 대칭되는 주변 픽셀들에 에지가 존재하는지 여부에 기초하여 주변 픽셀들을 결정하고, 상기 결정된 주변 픽셀들로부터 출력되는 기준 광선들을 재 선택하는, 영상 처리 방법.
  7. 제5항에 있어서,
    상기 기준 광선들을 재 선택하는 단계는,
    상기 픽셀에 근접한 순서대로 상기 픽셀을 중심으로 대칭되는 주변 픽셀들을 결정하고, 상기 결정된 주변 픽셀들로부터 출력되는 기준 광선들을 재 선택하는, 영상 처리 방법.
  8. 제5항에 있어서,
    상기 재 선택된 기준 광선들은,
    상기 광선에 가장 인접한 것으로 결정된 두 개의 기준 시점들에 대응하는, 영상 처리 방법.
  9. 제1항에 있어서,
    상기 광선의 컬러 값을 결정하는 단계는,
    상기 선택된 기준 광선들의 컬러 값에 기초하여 상기 광선의 컬러 값을 보간(interpolate)하는, 영상 처리 방법.
  10. 제1항에 있어서,
    상기 광선은,
    상기 영상을 표시하는 디스플레이의 픽셀로부터 출력되어 상기 시점으로 전파되는, 영상 처리 방법.
  11. 제1항 내지 제11항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
  12. 프로세서; 및
    상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 포함하는 메모리
    를 포함하고,
    상기 적어도 하나의 명령어가 상기 프로세서에서 실행되면, 상기 프로세서는 렌더링하고자 하는 영상에 해당하는 시점의 위치를 획득하고, 상기 위치에 기초하여 서로 다른 기준 시점들에서 기 촬영된 기준 영상들에 포함된 복수의 기준 광선들 중에서 상기 영상에 포함된 광선에 가장 인접한 두 개의 기준 광선들을 선택하고, 상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단하며, 상기 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인 경우, 상기 선택된 기준 광선들의 컬러 값을 이용하여, 상기 광선의 컬러 값을 결정하는
    영상 처리 장치.
  13. 제1항에 있어서,
    상기 프로세서는,
    상기 위치에 기초하여, 상기 서로 다른 기준 시점들 중에서 상기 광선에 가장 인접한 두 개의 기준 시점들을 결정하고, 상기 결정된 기준 시점들에 대응하는 기준 광선들 중에서 상기 광선에 가장 인접한 두 개의 기준 광선들을 선택하는, 영상 처리 장치.
  14. 제13항에 있어서,
    상기 기준 광선들을 선택하는 단계는,
    상기 결정된 기준 시점들에 대응하는 기준 광선들 중에서 상기 광선을 출력하는 픽셀에 대응하는 두 개의 기준 광선들을 선택하는, 영상 처리 장치.
  15. 제12항에 있어서,
    상기 프로세서는,
    상기 선택된 기준 광선들의 컬러 값 차이가 임계치를 초과하는 경우, 상기 광선을 출력하는 픽셀을 중심으로 대칭되는 주변 픽셀들에 대응하는 기준 광선들을 재 선택하고, 상기 재 선택된 기준 광선들의 컬러 값 차이가 임계치 이하인지 여부를 판단하는, 영상 처리 장치.
  16. 제15항에 있어서,
    상기 프로세서는,
    상기 픽셀에 근접한 순서대로 상기 픽셀을 중심으로 대칭되는 주변 픽셀들을 결정하고, 상기 결정된 주변 픽셀로부터 출력되는 기준 광선들을 재 선택하는, 영상 처리 장치.
  17. 제15항에 있어서,
    상기 재 선택된 기준 광선들은,
    상기 광선에 가장 인접한 것으로 결정된 두 개의 기준 시점들에 대응하는, 영상 처리 장치.
  18. 제12항에 있어서,
    상기 프로세서는,
    상기 선택된 기준 광선들의 컬러 값에 기초하여 상기 광선의 컬러 값을 보간하는, 영상 처리 장치.
KR1020160155951A 2016-11-22 2016-11-22 영상 처리 방법 및 영상 처리 장치 KR102608466B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160155951A KR102608466B1 (ko) 2016-11-22 2016-11-22 영상 처리 방법 및 영상 처리 장치
US15/487,687 US10304211B2 (en) 2016-11-22 2017-04-14 Method and apparatus for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160155951A KR102608466B1 (ko) 2016-11-22 2016-11-22 영상 처리 방법 및 영상 처리 장치

Publications (2)

Publication Number Publication Date
KR20180057385A true KR20180057385A (ko) 2018-05-30
KR102608466B1 KR102608466B1 (ko) 2023-12-01

Family

ID=62147718

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160155951A KR102608466B1 (ko) 2016-11-22 2016-11-22 영상 처리 방법 및 영상 처리 장치

Country Status (2)

Country Link
US (1) US10304211B2 (ko)
KR (1) KR102608466B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118660145A (zh) * 2024-08-21 2024-09-17 湖南苏科智能科技有限公司 安检图像转换方法、系统、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130003135A (ko) * 2011-06-30 2013-01-09 삼성전자주식회사 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
KR20140056748A (ko) * 2012-10-31 2014-05-12 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
KR20150118002A (ko) * 2014-04-11 2015-10-21 삼성전자주식회사 요약 컨텐츠 서비스를 위한 방송 수신 장치 및 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5651104A (en) * 1995-04-25 1997-07-22 Evans & Sutherland Computer Corporation Computer graphics system and process for adaptive supersampling
DE69734747T2 (de) * 1996-03-22 2006-07-27 Canon K.K. Verfahren und Gerät zur Bildverarbeitung
GB9716251D0 (en) 1997-08-01 1997-10-08 Philips Electronics Nv Attribute interpolation in 3d graphics
US7221381B2 (en) 2001-05-09 2007-05-22 Clairvoyante, Inc Methods and systems for sub-pixel rendering with gamma adjustment
RU2216781C2 (ru) 2001-06-29 2003-11-20 Самсунг Электроникс Ко., Лтд Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта
US6897879B2 (en) 2002-03-14 2005-05-24 Microsoft Corporation Hardware-enhanced graphics acceleration of pixel sub-component-oriented images
KR100603601B1 (ko) * 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
US7362325B2 (en) 2004-12-21 2008-04-22 Qualcomm Incorporated 2D/3D line rendering using 3D rasterization algorithms
KR101060322B1 (ko) 2009-05-18 2011-08-29 연세대학교 산학협력단 비사실적 렌더링을 이용하여 비실사 영상을 생성하는 장치와 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR101112142B1 (ko) 2010-03-30 2012-03-13 중앙대학교 산학협력단 참조 이미지를 이용한 카툰 렌더링 장치 및 방법
US8774267B2 (en) 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images
KR101798408B1 (ko) * 2011-01-03 2017-11-20 삼성전자주식회사 3d 디스플레이를 위한 고품질 멀티-뷰 영상의 생성 방법 및 장치
KR101960852B1 (ko) 2011-01-13 2019-03-22 삼성전자주식회사 배경 픽셀 확장 및 배경 우선 패치 매칭을 사용하는 멀티 뷰 렌더링 장치 및 방법
US9235749B2 (en) * 2011-02-24 2016-01-12 Sony Corporation Image processing device and image processing method
CN103404154A (zh) * 2011-03-08 2013-11-20 索尼公司 图像处理设备、图像处理方法以及程序
US9519972B2 (en) * 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
KR101856568B1 (ko) * 2013-09-16 2018-06-19 삼성전자주식회사 다시점 영상 디스플레이 장치 및 제어 방법
KR102156402B1 (ko) * 2013-11-05 2020-09-16 삼성전자주식회사 영상 처리 방법 및 장치
KR101574422B1 (ko) 2014-04-15 2015-12-03 한국과학기술원 단일 이미지 표현을 이용한 다시점 영상의 렌더링 속도 및 편집 능률 향상을 위한 방법
KR101602472B1 (ko) 2014-08-14 2016-03-16 이명익 2차원 이미지 변환을 통한 3차원 프린팅 파일 생성 장치 및 방법
KR102319538B1 (ko) 2015-12-21 2021-10-29 삼성전자주식회사 영상 데이터 전송 방법 및 장치, 및 3차원 영상 생성 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130003135A (ko) * 2011-06-30 2013-01-09 삼성전자주식회사 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
KR20140056748A (ko) * 2012-10-31 2014-05-12 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
KR20150118002A (ko) * 2014-04-11 2015-10-21 삼성전자주식회사 요약 컨텐츠 서비스를 위한 방송 수신 장치 및 방법

Also Published As

Publication number Publication date
US20180144504A1 (en) 2018-05-24
US10304211B2 (en) 2019-05-28
KR102608466B1 (ko) 2023-12-01

Similar Documents

Publication Publication Date Title
JP7173772B2 (ja) 深度値推定を用いた映像処理方法及び装置
US10116867B2 (en) Method and apparatus for displaying a light field based image on a user&#39;s device, and corresponding computer program product
KR101944911B1 (ko) 영상 처리 방법 및 영상 처리 장치
US10326981B2 (en) Generating 3D images using multi-resolution camera set
US9846960B2 (en) Automated camera array calibration
CN107370994B (zh) 海域全景监控方法、装置、服务器及系统
US11044398B2 (en) Panoramic light field capture, processing, and display
US8687000B2 (en) Image generating apparatus and computer program
JP6717576B2 (ja) 映像レンダリング装置及び方法
KR20190032440A (ko) 장면의 계층적 깊이 데이터를 생성하기 위한 방법
KR20200006001A (ko) 증강 현실 방법 및 장치
US12080026B2 (en) Method and apparatus for estimating pose
JP2017028510A (ja) 多視点映像生成装置及びそのプログラム、並びに、多視点映像生成システム
JP5178538B2 (ja) 深度マップを画像から決定する方法、深度マップを決定する装置
KR101208767B1 (ko) 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체
JP2009530701A5 (ko)
US20220191542A1 (en) Object Pose Estimation and Tracking Using Machine Learning
US9811943B2 (en) Processing device for label information for multi-viewpoint images and processing method for label information
KR102608466B1 (ko) 영상 처리 방법 및 영상 처리 장치
US10341683B1 (en) Apparatus and method to reduce an amount of coordinate data representing an object taken by an imaging device in a three dimensional space
US11257235B2 (en) Efficient sub-pixel disparity estimation for all sub-aperture images from densely sampled light field cameras
KR102055410B1 (ko) 비정형적 직사각형 레이-스페이스 360 구조
CN116188668B (zh) 一种基于ios平台的阴影渲染的方法、介质及电子设备
US20240203012A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
US10735670B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant