KR20130081569A - 3d 영상을 출력하기 위한 장치 및 방법 - Google Patents

3d 영상을 출력하기 위한 장치 및 방법 Download PDF

Info

Publication number
KR20130081569A
KR20130081569A KR1020120002627A KR20120002627A KR20130081569A KR 20130081569 A KR20130081569 A KR 20130081569A KR 1020120002627 A KR1020120002627 A KR 1020120002627A KR 20120002627 A KR20120002627 A KR 20120002627A KR 20130081569 A KR20130081569 A KR 20130081569A
Authority
KR
South Korea
Prior art keywords
image
plane
outputting
camera
camera information
Prior art date
Application number
KR1020120002627A
Other languages
English (en)
Inventor
정문식
이반 코르야코브스키
정상근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120002627A priority Critical patent/KR20130081569A/ko
Priority to US13/718,490 priority patent/US20130176405A1/en
Publication of KR20130081569A publication Critical patent/KR20130081569A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Abstract

본 발명은 3D 디스플레이 장치에 제한되지 않는 3D 영상을 출력하기 위한 방법에 관한 것으로, 이를 위해 본 발명은 3D 애니메이션이 포함된 3D 모델(Model) 데이터가 입력되면, 상기 3D 모델 데이터에 대한 하나 이상의 평면 간 위치를 결정한 후, 좌우 가상 카메라 정보를 구하여 좌우 영상을 생성하고, 생성된 좌우 영상을 기반으로 한 스테레오스코픽 영상을 출력하는 과정으로 이루어진다. 이렇게 함으로써, 사용자는 3D LFD 상에서의 DIBR 방식의 3D 컨텐츠와 유사한 입체 효과를 가지는 스테레오스코픽 방식의 3D 컨텐츠를 3D TV에서도 볼 수 있게 된다.

Description

3D 영상을 출력하기 위한 장치 및 방법{APPARATUS AND METHOD FOR OUTPUTTING 3D IMAGE}
본 발명은 3D 영상을 출력하기 위한 장치 및 방법에 관한 것으로, 특히 입체영상을 표시하는 장치의 종류에 대응하는 3D 영상을 출력하기 위한 장치 및 방법에 관한 것이다.
최근 전체 TV 시장에서 3D TV가 차지하는 비중이 점차적으로 증가할 것으로 예상되는 가운데, 이 3D TV에서 이용되는 3D 컨텐츠는 3D 게임, 3D 광고, 3D 영화 등으로 다양화되고 있다. 현재까지 출시된 3D TV 등의 디스플레이 장치는 셔터글라스 방식, 편광 방식 등으로 나뉜 전용 안경이 반드시 필요하다.
이에 대한 대안으로 전용 안경을 착용하지 않고도 입체영상을 볼 수 있는 무안경 방식에 대한 연구가 진행되고 있다. 이러한 무안경 방식의 입체영상 표시 장치의 예로는 3D 대형평판디스플레이(Large Format Display:이하 LFD) 장치가 있다. 이러한 3D LFD를 이용한다면 건물 로비 등 실내 공간은 물론 길거리에서 많은 사용자들이 안경없이 동시에 3D 영상을 마음껏 즐길 수 있을 것이다.
이러한 무안경 방식의 3D LFD 상에 입체영상을 출력하기 위해서 깊이 영상 기반 표현방식(Depth Image-Based Representation: 이하 DIBR)이 이용된다. DIBR 방식은 3D 영상을 일반적인 컬러 영상(RGB video)과 각각의 RGB 영상 픽셀의 깊이 정보를 포함하고 있는 깊이 영상(Depth Video)으로 표현하는 방식을 말한다.
하지만, 3D LFD는 일부 회사에 의해 제조되었으며, 이에 따라 DIBR 포맷으로 3D 컨텐츠 제작을 위한 전문 회사 및 인력의 부족으로 그 사용이 제한적이다. 게다가 3D LFD는 고가의 기기이므로, 규모가 작은 회사에서 예를 들어, 3D 광고 등의 3D 컨텐츠를 활용하기에는 어려움이 있는 실정이다. 또한, DIBR 방식으로 표현된 3D 컨텐츠는 3D LFD에서의 재생만 가능할 뿐만 아니라, DIBR 방식으로 렌더링하는 도중에는 3D 컨텐츠 제작 시 발생하는 오류를 수정할 방법이 없는 실정이다. 따라서 3D 디스플레이 장치의 종류에 상관없이 온라인 상에 미리 3D 컨텐츠를 확인할 수 있는 방법이 요구된다. 만일 3D LFD에 비해 상대적으로 저가인 3D TV에서 실시간으로 3D LFD 용 컨텐츠를 재생할 수 있다면 3D 컨텐츠 시장이 보다 활성화될 것이다. 따라서 입체 영상의 응용 분야와 컨텐츠 확대를 위해서는 3D LFD와 3D TV 간에 컨텐츠의 호환성이 요구된다.
따라서 본 발명은 3D 디스플레이 장치의 종류에 대응하여 효율적으로 3D 영상을 출력하기 위한 장치 및 방법을 제공한다.
또한 본 발명은 3D 디스플레이 장치에 제한되지 않는 3D 영상을 출력하기 위한 장치 및 방법을 제공한다.
또한, 본 발명은 무안경식 3D 디스플레이의 DIBR 데이터와 스테레오 방식에서의 3D 영상을 동일한 깊이(depth)와 효과를 가질 수 있도록 하는 장치 및 방법을 제공한다.
또한 본 발명은 3D LFD와 3D TV 간에 호환 가능한 3D 영상을 생성하여 출력하기 위한 장치 및 방법을 제공한다.
상기한 바를 달성하기 위한 본 발명은, 3D 영상을 출력하기 위한 장치에 있어서, 3D 객체를 포함하는 영상 데이터가 입력되면, 좌우 가상 카메라 각각에 대한 카메라 정보를 생성하는 카메라 정보 생성부와, 상기 영상 데이터에 상기 생성된 카메라 정보를 적용한 좌영상을 생성하는 좌영상 생성부와, 상기 영상 데이터에 상기 생성된 카메라 정보를 적용한 우영상을 생성하는 우영상 생성부와, 상기 생성된 좌영상 및 우영상을 기반으로 한 스테레오스코픽 영상을 생성하는 스테레오스코픽 영상 생성부를 포함함을 특징으로 한다.
또한 본 발명은, 입체영상 표시 장치에서 3D 영상을 출력하기 위한 방법에 있어서, 3D 객체를 포함하는 영상 데이터가 입력되면, 좌우 가상 카메라 각각에 대한 카메라 정보를 생성하는 과정과, 상기 영상 데이터에 상기 생성된 카메라 정보를 각각 적용한 좌영상 및 우영상을 생성하는 과정과, 상기 생성된 좌영상 및 우영상을 기반으로 한 스테레오스코픽 영상을 생성하여 출력하는 과정을 포함함을 특징으로 한다.
본 발명에 따르면, 3D LFD에 비해 상대적으로 저가인 3D TV에서도 실시간으로 3D LFD 용 컨텐츠를 재생할 수 있어, 3D 컨텐츠 시장이 보다 활성화될 것이다. 또한, 3D LFD 상에 3D 컨텐츠를 재생하기 전에 3D TV에서도 이를 미리 볼 수 있어, 손쉽고 빠른 처리가 가능한 이점이 있다. 또한 본 발명은, 무안경식 3D 디스플레이의 DIBR 데이터와 스테레오 방식에서의 3D 영상을 동일한 깊이(depth)와 효과를 가지도록 하는 이점이 있다.
도 1은 본 발명의 실시예에 따른 입체영상 표시 장치의 내부블록 구성도,
도 2는 DIBR 방식을 적용한 영상의 일례를 도시한 도면,
도 3은 DIBR 방식을 스테레오스코픽 방식으로 변환하는 방식을 적용한 영상의 일례를 도시한 도면,
도 4는 본 발명의 실시예에 따른 입체영상 표시 장치에서의 동작 흐름도,
도 5는 본 발명의 실시예에 따른 시점 정보 생성 방식을 설명하기 위한 도면,
도 6은 상기 도 5의 각 평면 간 거리에 따른 영상의 일례를 도시한 도면,
도 7은 상기 도 5의 베이스라인에 따른 영상의 일례를 도시한 도면.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시 예를 상세히 설명한다. 도면에서 동일한 구성요소들에 대해서는 비록 다른 도면에 표시되더라도 가능한 한 동일한 참조번호 및 부호로 나타내고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.
본 발명은 3D 디스플레이 장치에 제한되지 않는 3D 영상을 출력하기 위한 방법에 관한 것으로, 이를 위해 본 발명은 3D 애니메이션이 포함된 3D 모델(Model) 데이터가 입력되면, 상기 3D 모델 데이터에 대한 하나 이상의 평면 간 위치를 결정한 후, 좌우 가상 카메라 정보를 구하여 좌우 영상을 생성하고, 생성된 좌우 영상을 기반으로 한 스테레오스코픽 영상을 출력하는 과정으로 이루어진다. 이렇게 함으로써, 사용자는 3D LFD 상에서의 DIBR 방식의 3D 컨텐츠와 유사한 입체 효과를 가지는 스테레오스코픽 방식의 3D 컨텐츠를 3D TV에서도 볼 수 있게 된다.
상기한 바와 같은 구성을 가지는 입체영상 표시 장치의 구성요소 및 그 동작을 도 1을 참조하여 설명하기로 한다.
도 1을 참조하면, 입체영상 표시 장치는 영상을 렌더링하는 3D 엔진(100)을 포함하며, 사용자의 입력을 위한 저작툴을 포함할 수 있다. 3D 엔진(100)을 통해 렌더링된 스테레오스코픽 영상은 3D TV(135)로 출력된다. 만일 3D 엔진(100)에서 DIBR 방식의 영상을 생성하는 기능을 지원하는 경우에는 3D LFD(115)로 DIBR 영상을 출력할 수도 있다. 도 1에서는 스테레오스코픽 영상이 3D TV(135)로 출력되는 경우를 예시하고 있지만, 3D 화면을 가지는 태블릿 PC, 스마트폰 이외에 다른 3D 스테레오스코픽 디스플레이 장치이면 모두 가능함은 물론이다. 또한, 입체영상 표시 장치는 3D TV(135) 내에 포함되도록 구현될 수도 있다.
일반적으로 3D 영상을 표시하는 장치 예컨대, 3D TV, 3D LFD 각각에서 입체 효과를 생성하는 방식은 서로 다르다. 본 발명을 설명하기에 앞서, 본 발명의 이해를 돕기 위해 DIBR 방식의 영상에 대해 도 2를 참조하여 간략하게 설명하면 다음과 같다.
도 2를 참조하면, DIBR 영상은 크게 일반적인 RGB 텍스처 영상(200)과 원영상 즉, RGB 텍스처 영상의 깊이 정보를 포함하는 깊이 영상(205)으로 이루어진다. 깊이 영상(205)은 통상적으로 8비트 회색 영상으로 표현되는데 깊이값(depth value)이 클수록 카메라로부터의 거리가 가깝다. 따라서 카메라로부터 가장 먼 비하인드 평면(behind plane)(210)은 깊이값이 0이며, 중간 평면(middle plane)(215)은 깊이값이 127이며, 카메라로부터 가장 가까운 평면인 프론트 평면(front plane)(220)은 깊이값이 255에 해당한다. 이러한 원영상(200)과 깊이 영상(205)의 조합으로 DIBR 기반의 3D 영상이 생성되게 된다.
이러한 DIBR 영상과 동일한 3D 깊이와 애니메이션 효과를 스테레오 3D TV에서 구현하기 위하여 3D LFD 상에서 돌출되는(popping out) 객체는 3D TV 상에서도 돌출될 것이다. 하지만 현재 3D 모델 데이터로부터 DIBR과 스테레오에서의 동일한 깊이 효과와 애니메이션을 구현하기 위한 방법이 없는 실정이다.
게다가 입체감은 화면의 크기, 사용자와 3D 영상 표시 장치 간의 거리, 사용자 양안 간 거리 등에 따라 다르게 느껴질 수 있다. 이는 DIBR 방식을 스테레오스코픽 방식으로 1:1 변환하는 것이 어렵다는 것을 의미한다. 따라서 3D TV 상에 3D 영상을 출력할 때 DIBR 방식의 영상이 표시되는 3D LFD에서와 마찬가지의 입체 효과를 가지도록 3D 영상의 뷰 각도와 깊이를 적응적으로 제어할 필요성이 있다. 이를 위해 좌우 가상 카메라들의 파라미터들을 어떻게 변경할 것인지가 정해져야 하며, 이러한 좌우 가상 카메라들의 파라미터 정보를 구하는 방법에 대해서는 하기에서 상세히 후술하기로 한다.
본 발명은 DIBR 영상을 얻기 위한 1개의 가상 카메라와 좌우 가상 카메라에 대한 정보를 통하여 3D 모델로부터 동일한 효과의 DIBR 영상과 스테레오 영상을 얻기 위한 방법에 대한 것이다.
먼저, 3D 엔진(3Dimension Engine)(100)은 3D TV(135)에 3D 영상을 표기하도록 렌더링하는 역할을 하며, 이를 위해 OpenGL 방식을 지원한다. 3D 엔진(100)에 입력되는 영상의 예로는, 3D MAX 데이터 등이 해당된다. 이러한 영상은 카메라, 인터넷 등을 통해 입력될 수 있다. 이러한 3D 엔진(100)은 3D 영상의 생성을 위해 컬러 영상과 깊이 정보를 바탕으로 각각 OpenGL 영역의 x, y, 및 z 위치에 3D 객체를 할당하고 OpenGL API 사용하여 두 대의 좌우 가상 카메라로부터 입체 영상을 생성하도록 할 수 있다. 이러한 3D 엔진(100)은 크게 좌우 가상 카메라 정보 생성부(105), DIBR 영상 생성부(110), 좌영상 생성부(120), 우영상 생성부(125), 스테레오스코픽 영상 생성부(130)를 포함한다.
좌우 가상 카메라 정보 생성부(105)는 좌우 가상 카메라들의 위치, 좌우 가상 카메라들 간의 거리, 각 가상 카메라에 대해 조절된 프러스텀(frustum shift)을 포함하는 좌우 가상 카메라 정보를 생성한다. 이러한 좌우 가상 카메라 정보 생성부(105)는 각 가상 카메라에 대한 프러스텀을 DIBR 방식의 고정된 카메라를 사용했을 경우에서와 같은 시점을 갖도록 쉬프트한다.
그러면 좌영상 생성부(120) 및 우영상 생성부(125)에서는 이러한 좌우 가상 카메라 정보 생성부(105)에서 생성된 각 파라미터를 입력된 영상에 적용함으로써 각각의 좌우 영상을 생성한다. 이러한 좌우 영상은 스테레오스코픽 영상 생성부(130)로 전달되어 좌우 영상을 기반으로 한 스테레오스코픽 영상이 생성되게 된다. 이에 따라 스테레오스코픽 영상은 3D TV(135)를 통해 출력되므로, 사용자는 저작툴을 통해 만든 3D 영상을 볼 수 있게 된다.
반면, 좌우 가상 카메라 정보 생성부(105)에서 하나의 고정된 가상 카메라에 대해서는 DIBR 3D 정보를 얻기 위한 정보를 생성한다. 구체적으로, 고정된 카메라 정보를 생성할 경우에는 DIBR 영상 생성부(110)는 영상 예컨대, 3D MAX 데이터를 깊이영상 기반 표현 모델러(DIBR modeler)를 사용하여 고정된 카메라 정보와 그 카메라 정보에서의 깊이와 컬러 정보로 표현하여, DIBR 영상을 생성한다. 이러한 경우 DIBR 영상은 3D LFD(115)를 통해 출력된다.
이에 따라 DIBR 방식으로 영상을 렌더링하는 도중에도 스테레오스코픽 영상은 3D TV(135) 상에 표시될 수 있어, 3D 영상의 출력 결과가 만족스럽지 못하다면 사용자는 온라인으로 저작 툴을 통해 입체감을 느낄 수 있도록 평면들 위치를 조절할 수도 있다. 이에 따라 DIBR 방식의 경우 렌더링에 많은 시간이 소요되며, 렌더링 도중에 수정할 수 없었던 점을 상기와 같은 본 발명의 방식을 적용함으로써 도중에 손쉽고도 빠르게 수정할 수 있게 된다. 게다가 본 발명은 각 평면 위치를 적응적으로 변경할 수 있어 보다 쉬운 3D 영상의 제작이 가능한 이점이 있다.
한편, 도 4는 본 발명의 실시예에 따른 입체영상 표시 장치에서의 동작 흐름도를 도시한 것으로, 도 5 내지 도 7을 참조하여 그 동작을 설명하기로 한다.
도 4를 참조하면, 입체영상 표시 장치는 400단계에서 3D 객체를 포함하는 영상이 입력되면 405단계에서 3D TV로 출력할지 3D LFD로 출력할지를 결정한다. 만일 사용자가 3D LFD용 3D 영상을 제작하면서 도중에 확인하고자 하는 경우 3D TV로 출력하는 경우를 선택할 수 있을 것이다. 만일 3D LFD로 3D 영상을 출력해야 하는 경우 예컨대, 사용자가 3D 영상을 3D TV로 미리보기를 선택하지 않은 경우 등에는 입체영상 표시 장치는 410단계로 진행하여 DIBR 영상을 생성 후 3D LFD로 생성된 DIBR 영상을 출력한다. 이러한 DIBR 영상의 생성 및 출력 과정은 일반적인 DIBR 모델링 단계와 렌더링 단계에 대응하므로, 그 구체적인 설명은 생략하기로 한다. 또한, 410단계에서의 DIBR 영상의 생성 과정은 입체영상 표시 장치에 3D LFD는 구비되어 있지 않지만 사용자가 3D LFD에서와 동일한 입체 효과를 3D TV를 통해 보고 싶을 경우에는 생략될 수 있다.
이어, 3D TV로의 출력이 결정되면, 입체영상 표시 장치는 415단계에서 좌우 가상 카메라 정보를 생성한다. 여기서, 좌우 가상 카메라 정보는 OpenGL의 렌더링 함수를 적용함으로써 결정된다.
이러한 좌우 가상 카메라 정보를 생성하는 방식을 도 5를 참조하여 설명한다. 먼저, 본 발명에서는 DIBR 방식과 스테레오스코픽 방식의 시점에서 중간 평면을 일치시키는 것이 가능하다는 점을 고려하여 좌우 가상 카메라 정보를 생성하는 것이다.
도 5를 참조하면, DIBR 방식의 경우 영상 데이터는 프론트 평면(front plane), 중간 평면(middle plane), 비하인드 평면(behind plane) 등 하나 이상의 계층으로 구성되는데, DIBR 영상 생성을 위해 고정된 가상 카메라(505)에 대한 정보가 이용된다. 이러한 고정된 가상 카메라(505)의 정보는 가상 카메라(505)의 위치, 프러스텀(frustum) 등을 포함하며, 이러한 프러스텀은 카메라(505)의 시야(FOV)(540), 초점 거리 등 카메라(505)에 의해 정의된 뷰 영역을 의미한다. 여기서, 시야(FieldOfView: fov)는 카메라 시점으로부터 시각을 의미한다
본 발명의 실시예에 따라 스테레오스코픽 방식의 경우 이러한 프론트 평면, 중간 평면, 비하인드 평면의 위치는 렌더링 도중에 사용자에 의해 지정될 수 있으며, 필요에 따라 변경 가능하다. 여기서 프론트 평면은 DIBR 방식의 경우 깊이값이 255인 평면을 의미하며, 중간 평면은 깊이값이 127인 평면을 의미하며, 비하인드 평면은 깊이값이 0인 평면을 의미한다. 또한, 원거리 평면(far plane) 및 근거리 평면(near plane)은 OpenGL 카메라 설정값에 해당하는 평면으로써 3D 컨텐츠 제작자에 의해 정의될 수 있다. 근거리 평면(near plane)은 시점으로부터 가장 가까운 평면이며, 원거리 평면(far plane)은 시점으로부터 가장 먼 평면이다.
또한, 스테레오스코픽 방식의 경우 좌우 영상에 적용되는 좌우 가상 카메라 정보는 좌우 가상 카메라들의 위치, 좌우 가상 카메라들 간의 거리, 각 가상 카메라에 대해 조절된 프러스텀(frustum shift)(515)을 포함한다. 여기서, 좌측 가상 카메라(500)와 우측 가상 카메라(510) 간의 거리를 베이스라인(Baseline)이라고 정의한다.
이때, 좌측 가상 카메라(500)와 우측 가상 카메라(510) 각각의 프러스텀은 실질적으로 동일하지 않으며, 프러스텀 쉬프트는 하기 수학식 1을 통해 구해진다.
Figure pat00001
상기 수학식 1에서, Zmiddle는 가상 카메라로부터 중간 평면까지의 거리를 나타내며, Znear는 가상 카메라로부터 근거리 평면까지의 거리를 나타내며, △=0.5×Baseline이다.
만일 프론트 평면 상에 모든 3D 객체들이 좌우 가상 카메라(500, 510)에 의해 정의된 특정 차이(disparity)를 가지고 있다고 가정할 경우 이러한 특정 차이를 베이스라인(Baseline ')이라고 한다. 이러한 경우 두 베이스라인(Baseline ', Baseline ) 간의 관계는 하기 수학식 2에서와 같이 정의될 수 있다.
Figure pat00002
상기 수학식 2에서, 상기 베이스라인(Baseline ')은 특정값 예컨대, 1, 0.9, 1.1 중 어느 하나일 수 있다. 이러한 베이스라인(Baseline ')은 3D TV의 크기에 따라 적응적으로 달라질 수 있다.
상기 수학식 2의 베이스라인(Baseline)을 상기 수학식 1에 대입하면 하기 수학식 3 또는 수학식 4와 같이 표현될 수 있다.
Figure pat00003
Figure pat00004
상기와 같이 OpenGL의 렌더링 함수를 적용한다면, 각 가상 카메라에 대해 프러스텀 쉬프트를 알 수 있을 뿐만 아니라 좌우 가상 카메라들의 위치, 좌우 가상 카메라들 간의 거리도 알 수 있어 좌우 가상 카메라 정보를 구할 수 있게 된다.
이와 같이 입체영상 표시 장치는 좌우 가상 카메라 정보가 생성되면, 420단계에서 좌우 가상 카메라 정보를 이용하여 좌우 가상 카메라로부터 3D 객체를 바라보는 좌영상과 우영상을 각각 생성한다. 그리고나서 425단계에서 생성된 좌영상과 우영상을 기반으로 한 스테레오스코픽 영상을 생성한 후, 3D TV를 통해 스테레오스코픽 영상을 출력한다.
한편, 도 6(a)에서는 각 평면들(600, 605, 610) 간의 거리가 가까운 경우를 예시하며, 도 6(b)에서는 각 평면들(615, 620, 625) 간의 거리가 상대적으로 먼 경우를 예시하고 있다. 또한, 도 7(a)에서는 좌우 가상 카메라(500, 510) 간의 베이스라인이 긴 경우 각 평면들 간의 거리가 가까울 경우의 3D 영상을 예시하고 있으며, 도 7(b)에서는 좌우 가상 카메라(500, 510) 간의 베이스라인이 짧은 경우 각 평면들 간의 거리가 먼 경우의 3D 영상을 예시하고 있다. 이와 같이 평면들 간 거리 및 베이스라인의 길이가 달라짐에 따라 입체감은 다르게 느껴질 수 있으나, 사용자가 도 6(a) 및 도 6(b)에서와 같이 각 평면들을 어떠한 위치에 놓더라도 사용자는 DIBR 영상과 스테레오스코픽 영상을 통한 입체 효과가 동일하다고 느낄 수 있게 된다.
전술한 예에서, 3D 엔진은 3D TV 내에 구현될 수 있으며, 이러한 3D 엔진은 3D TV 내의 제어부 또는 제어부에 포함된 기능 모듈일 수 있다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계로 읽을 수 있는 저장 매체에 저장될 수 있다. 3D TV 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.

Claims (17)

  1. 3D 영상을 출력하기 위한 장치에 있어서,
    3D 객체를 포함하는 영상 데이터가 입력되면, 좌우 가상 카메라 각각에 대한 카메라 정보를 생성하는 카메라 정보 생성부와,
    상기 영상 데이터에 상기 생성된 카메라 정보를 적용한 좌영상을 생성하는 좌영상 생성부와,
    상기 영상 데이터에 상기 생성된 카메라 정보를 적용한 우영상을 생성하는 우영상 생성부와,
    상기 생성된 좌영상 및 우영상을 기반으로 한 스테레오스코픽 영상을 생성하는 스테레오스코픽 영상 생성부를 포함함을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  2. 제1항에 있어서, 상기 좌우 가상 카메라 각각에 대한 카메라 정보는,
    상기 좌우 가상 카메라들의 위치, 좌우 가상 카메라들 간의 거리, 각 가상 카메라에 대한 프러스텀 쉬프트(frustum shift) 중 적어도 하나를 포함함을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  3. 제1항에 있어서, 상기 좌우 가상 카메라 각각에 대한 카메라 정보는,
    OpenGL의 렌더링 함수를 적용함으로써 구해지는 것임을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  4. 제2항에 있어서, 상기 각 가상 카메라에 대한 프러스텀 쉬프트는,
    상기 각 가상 카메라 위치로부터 가장 가까운 근거리 평면(near plane)까지의 거리, 상기 각 가상 카메라 위치로부터 중간 평면(middle plane)까지의 거리, 상기 각 가상 카메라 위치로부터 프론트 평면(front plane)까지의 거리 및 상기 각 가상 카메라 간의 거리를 이용한 렌더링 함수를 이용하여 구해지는 것임을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  5. 제4항에 있어서, 상기 중간 평면은 깊이 영상 기반 표현방식의 깊이값이 127인 평면에 대응하며, 상기 프론트 평면은 상기 깊이 영상 기반 표현방식의 깊이값이 255인 평면에 대응하는 것임을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  6. 제1항에 있어서,
    상기 영상 데이터는 프론트 평면, 중간 평면, 비하인드 평면을 포함하는 계층으로 구성되며, 3D 영상을 출력하기 위한 장치는 상기 프론트 평면, 중간 평면, 비하인드 평면의 위치를 사용자로부터 지정받는 저작 툴을 더 포함함을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  7. 제1항에 있어서, 상기 스테레오스코픽 영상을 출력하는 3D TV를 더 포함함을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  8. 제1항에 있어서, 상기 영상 데이터는, 3D MAX 데이터인 것을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  9. 제1항에 있어서,
    상기 카메라 정보 생성부로부터, DIBR(Depth Image-Based Representation) 3D 정보를 얻긴 위한 하나의 고정된 가상 카메라에 대한 정보가 전달되면, 상기 고정된 가상 카메라 정보를 이용하여 깊이 영상 기반 표현방식의 영상을 생성하는 영상 생성부를 더 포함함을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  10. 제9항에 있어서, 상기 깊이 영상 기반 표현방식의 영상이 생성되면, 생성된 깊이 영상 기반 표현방식의 영상을 출력하는 3D 대형평판디스플레이를 더 포함함을 특징으로 하는 3D 영상을 출력하기 위한 장치.
  11. 입체영상 표시 장치에서 3D 영상을 출력하기 위한 방법에 있어서,
    3D 객체를 포함하는 영상 데이터가 입력되면, 좌우 가상 카메라 각각에 대한 카메라 정보를 생성하는 과정과,
    상기 영상 데이터에 상기 생성된 카메라 정보를 각각 적용한 좌영상 및 우영상을 생성하는 과정과,
    상기 생성된 좌영상 및 우영상을 기반으로 한 스테레오스코픽 영상을 생성하여 출력하는 과정을 포함함을 특징으로 하는 3D 영상을 출력하기 위한 방법.
  12. 제11항에 있어서, 상기 좌우 가상 카메라 각각에 대한 카메라 정보는,
    상기 좌우 가상 카메라들의 위치, 좌우 가상 카메라들 간의 거리, 각 가상 카메라에 대한 프러스텀 쉬프트(frustum shift) 중 적어도 하나를 포함함을 특징으로 하는 방법.
  13. 제11항에 있어서, 상기 좌우 가상 카메라 각각에 대한 카메라 정보는,
    OpenGL의 렌더링 함수를 적용함으로써 구해지는 것임을 특징으로 하는 3D 영상을 출력하기 위한 방법.
  14. 제12항에 있어서, 상기 각 가상 카메라에 대한 프러스텀 쉬프트는,
    상기 각 가상 카메라 위치로부터 가장 가까운 근거리 평면(near plane)까지의 거리, 상기 각 가상 카메라 위치로부터 중간 평면(middle plane)까지의 거리, 상기 각 가상 카메라 위치로부터 프론트 평면(front plane)까지의 거리 및 상기 각 가상 카메라 간의 거리를 이용한 렌더링 함수를 이용하여 구해지는 것임을 특징으로 하는 3D 영상을 출력하기 위한 방법.
  15. 제14항에 있어서, 상기 중간 평면은 깊이 영상 기반 표현방식의 깊이값이 127인 평면에 대응하며, 상기 프론트 평면은 상기 깊이 영상 기반 표현방식의 깊이값이 255인 평면에 대응하는 것임을 특징으로 하는 3D 영상을 출력하기 위한 방법.
  16. 제11항에 있어서, 상기 영상 데이터는, 3D MAX 데이터인 것을 특징으로 하는 3D 영상을 출력하기 위한 방법.
  17. 제11항 내지 제16항 중 어느 한 항에 따른 터치 인터페이스 제공 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체.
KR1020120002627A 2012-01-09 2012-01-09 3d 영상을 출력하기 위한 장치 및 방법 KR20130081569A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120002627A KR20130081569A (ko) 2012-01-09 2012-01-09 3d 영상을 출력하기 위한 장치 및 방법
US13/718,490 US20130176405A1 (en) 2012-01-09 2012-12-18 Apparatus and method for outputting 3d image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120002627A KR20130081569A (ko) 2012-01-09 2012-01-09 3d 영상을 출력하기 위한 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20130081569A true KR20130081569A (ko) 2013-07-17

Family

ID=48743646

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120002627A KR20130081569A (ko) 2012-01-09 2012-01-09 3d 영상을 출력하기 위한 장치 및 방법

Country Status (2)

Country Link
US (1) US20130176405A1 (ko)
KR (1) KR20130081569A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101451236B1 (ko) * 2014-03-03 2014-10-15 주식회사 비즈아크 3차원 영상 변환 방법 및 그 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102321364B1 (ko) * 2015-03-05 2021-11-03 삼성전자주식회사 3차원 배경 콘텐트를 합성하는 방법 및 디바이스

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5526050A (en) * 1994-03-31 1996-06-11 Cognex Corporation Methods and apparatus for concurrently acquiring video data from multiple video data sources
US7830588B2 (en) * 1996-12-19 2010-11-09 Qualcomm Mems Technologies, Inc. Method of making a light modulating display device and associated transistor circuitry and structures thereof
US6677945B2 (en) * 2001-04-20 2004-01-13 Xgi Cayman, Ltd. Multi-resolution depth buffer
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US8717423B2 (en) * 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
GB0716776D0 (en) * 2007-08-29 2007-10-10 Setred As Rendering improvement for 3D display
KR100932634B1 (ko) * 2007-12-27 2009-12-21 팅크웨어(주) 증강 현실을 이용한 3차원 웹 지도 서비스 방법 및 그시스템
KR20100128233A (ko) * 2009-05-27 2010-12-07 삼성전자주식회사 영상 처리 방법 및 장치
JP5405264B2 (ja) * 2009-10-20 2014-02-05 任天堂株式会社 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法
JP4754031B2 (ja) * 2009-11-04 2011-08-24 任天堂株式会社 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム
RU2010123652A (ru) * 2010-06-10 2011-12-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." (KR) Система и способ визуализации стереоизображений и многовидовых изображений для управления восприятием глубины стереоскопического изображения, создаваемого телевизионным приемником
KR101690034B1 (ko) * 2010-08-03 2016-12-28 삼성전자주식회사 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법
JP2012079291A (ja) * 2010-09-08 2012-04-19 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US20120139906A1 (en) * 2010-12-03 2012-06-07 Qualcomm Incorporated Hybrid reality for 3d human-machine interface
US9578299B2 (en) * 2011-03-14 2017-02-21 Qualcomm Incorporated Stereoscopic conversion for shader based graphics content
JP5757790B2 (ja) * 2011-06-03 2015-07-29 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法
JP5519580B2 (ja) * 2011-06-06 2014-06-11 株式会社コナミデジタルエンタテインメント ゲーム装置、画像表示装置、立体画像表示方法、および、プログラム
NZ621683A (en) * 2011-08-30 2016-05-27 Ericsson Telefon Ab L M Receiver-side adjustment of stereoscopic images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101451236B1 (ko) * 2014-03-03 2014-10-15 주식회사 비즈아크 3차원 영상 변환 방법 및 그 장치

Also Published As

Publication number Publication date
US20130176405A1 (en) 2013-07-11

Similar Documents

Publication Publication Date Title
US9031356B2 (en) Applying perceptually correct 3D film noise
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
TWI573434B (zh) 通用的三維圖片格式
JP5734964B2 (ja) ステレオスコープシネマ用のビューア中心ユーザインタフェース
JP2006325165A (ja) テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
US20090315981A1 (en) Image processing method and apparatus
JP2011086283A (ja) 動的レンダリング用3次元ビデオキャプチャ・ワークフロー用のシステム及び方法
KR101713875B1 (ko) 프로젝터 투사 환경하에서의 사용자 시점을 고려한 가상공간 구현 방법 및 시스템
US20130027389A1 (en) Making a two-dimensional image into three dimensions
JP6242346B2 (ja) 3dグラフィックス・アニメーションを3dステレオ・コンテンツに挿入する方法および装置
KR101177058B1 (ko) 마커 기반 3차원 입체 시스템
Smolic et al. Disparity-aware stereo 3d production tools
KR102459850B1 (ko) 3d 이미지 처리 방법 및 장치, 및 그래픽 처리 장치
KR101752691B1 (ko) 시점 선택이 가능한 3차원 가상 콘텐츠 동영상을 제공하는 장치 및 그 방법
KR20130081569A (ko) 3d 영상을 출력하기 위한 장치 및 방법
JP2020101847A (ja) 画像ファイル生成装置及び画像ファイル生成方法、画像生成装置及び画像生成方法、画像生成システム、並びにプログラム
US20140198098A1 (en) Experience Enhancement Environment
KR20100036683A (ko) 영상 출력 방법 및 장치
Schild et al. Integrating stereoscopic video in 3D games
US11962743B2 (en) 3D display system and 3D display method
KR101130044B1 (ko) 입체 프리젠테이션 영상 제작 프로그램이 저장된 컴퓨터로 읽을 수 있는 매체, 그 프로그램이 저장된 서버 시스템 및 무 안경 방식의 다 시점 입체영상 출력 엔진용 입체 프리젠테이션 영상 제작방법
RU2523980C2 (ru) Способ и система для визуализации набора мультимедиа объектов на 3d дисплее
US20210400255A1 (en) Image processing apparatus, image processing method, and program
KR101186808B1 (ko) 입체 프리젠테이션 영상 변환 프로그램이 저장된 컴퓨터로 읽을 수 있는 매체, 그 프로그램이 저장된 서버 시스템 및 입체 프리젠테이션 영상 변환방법
KR20070016414A (ko) 3d입체(온라인)쇼핑몰 제작(형성)방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid