KR101198557B1 - 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법 - Google Patents

시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법 Download PDF

Info

Publication number
KR101198557B1
KR101198557B1 KR1020110024656A KR20110024656A KR101198557B1 KR 101198557 B1 KR101198557 B1 KR 101198557B1 KR 1020110024656 A KR1020110024656 A KR 1020110024656A KR 20110024656 A KR20110024656 A KR 20110024656A KR 101198557 B1 KR101198557 B1 KR 101198557B1
Authority
KR
South Korea
Prior art keywords
image
viewer
stereoscopic
stereoscopic image
viewing
Prior art date
Application number
KR1020110024656A
Other languages
English (en)
Other versions
KR20120106919A (ko
Inventor
유병현
Original Assignee
유병현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유병현 filed Critical 유병현
Priority to KR1020110024656A priority Critical patent/KR101198557B1/ko
Publication of KR20120106919A publication Critical patent/KR20120106919A/ko
Application granted granted Critical
Publication of KR101198557B1 publication Critical patent/KR101198557B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Abstract

본 발명은 시청자의 머리의 기울임과 위치에 따라 입체영상이 변화하는 기능을 구비하여 시청자세의 변화에 따라 능동적으로 반응하는 3차원 입체영상의 생성 시스템과 방법에 관한 것이다.
본 발명에 따른 3차원 입체영상 생성 시스템은 입력 영상의 종류에 따라 주 영상과 보조 영상을 획득하는 영상 획득부와 시청자의 시청방향과 시청위치에 관한 시청자세정보를 수집하는 시청자세 수집부, 획득한 영상으로부터 시청자의 시청자세에 따라 3차원 입체영상을 생성하는 3차원 입체영상 생성부를 포함하는 것을 특징으로 한다.

Description

시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법 {3D stereoscopic image and video that is responsive to viewing angle and position}
본 발명은 3차원 입체영상 생성 및 재생 방법에 관한 것으로, 더욱 상세하게는 시청자의 머리의 기울임과 위치에 따라 입체영상이 변화하는 기능을 구비하여 시청자세의 변화에 따라 능동적으로 반응하는 3차원 입체영상의 생성 시스템과 방법에 관한 것이다.
정보기기의 발달로 일반 소비 가전시장과 엔터테인먼트 시장에서도 3차원 입체 디스플레이와 이를 이용한 디지털 콘텐츠의 저작 및 활용을 위한 기술이 중요해지고 있으며, 현실감은 보다 높고 어지러움은 더욱 적은 3차원 입체영상의 체험을 제공하기 위한 기술이 연구되고 있다. 3차원 입체영상의 가시화를 위해서는 사람의 두 눈과 뇌의 시공간적 인지모형에 기반한 양안 시차에 의한 입체형상 인식 방법이 가장 널리 사용되고 있다.
하지만 일반적인 입체영상 생성 기법에 의하여는 디스플레이 장치가 고정되어 있고 시청자의 두 눈이 수평으로 디스플레이 장치를 바라보는 시청자세를 권고하고 있다. 이는 일반적인 입체영상 생성 기법이 양안 시차에 의한 입체형상 인식방법을 이용하고 양안에 노출되는 좌안 영상과 우안 영상이 수평으로 배열되어 있다고 가정하기 때문이다. 따라서 일반적인 입체영상 생성 기법에 의하여는 영상의 수평 촬영과 수평 재생을 통한 수평 시청시에만 입체영상을 정확하게 생성할 수 있으며 시청자가 머리를 기울이거나 화면을 정면에서 바라보지 않고 머리를 움직이면서 시청하는 시도에 대하여 적절하게 대응하지 못할 수 있다. 일례로는 수평 촬영과 수평 재생을 통하여 생성되는 입체영상을 시청자가 머리를 90도 기울여서 시청하게 되면 양안 시차를 발생하는 영상의 변위 방향과 실제 시청자의 양안의 변위 방향이 90도로 교차하게 되어 입체영상을 적절하게 인지하지 못할 수 있다.
KR 10-0381817 B1 KR 10-0538471 B1
본 발명이 해결하고자 하는 일 과제는 시청자의 시청자세에 따라 반응하여 시청자의 머리 기울임에 따라 변화하는 3차원 입체영상의 생성 방법과 3D TV를 비롯한 빔 프로젝터 및 극장식 대화면 디스플레이를 포함한 3차원 입체영상의 생성 시스템과 방법을 제공하는 것이다.
이와 함께, 본 발명이 해결하고자 하는 다른 과제는 시청자의 시청자세에 따라 반응하여 시청자의 머리 기울임과 움직임 및 위치에 따라 변화하는 3차원 입체영상의 생성 방법과 3D TV를 비롯한 빔 프로젝터 및 극장식 대화면 디스플레이를 포함한 3차원 입체영상의 생성 시스템과 방법을 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 일 양태는 다양한 입력 영상을 받아들이는 입력 영상부; 영상을 획득하여 3차원 입체영상 생성을 하기 위한 준비단계를 수행하는 영상 획득부; 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향과 위치에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향 및 시청위치 정보에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.
상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 다른 양태는 다양한 입력 영상을 받아들이는 입력 영상부; 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향과 위치에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향 및 시청위치 정보에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.
상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 또 다른 양태는 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향과 위치에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향 및 시청위치 정보에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.
상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 또 다른 양태는 다양한 입력 영상을 받아들이는 입력 영상부; 영상을 획득하여 3차원 입체영상 생성을 하기 위한 준비단계를 수행하는 영상 획득부; 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.
상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 또 다른 양태는 다양한 입력 영상을 받아들이는 입력 영상부; 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.
상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 또 다른 양태는 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.
본 발명에서 기재한 시청자세의 일례는 3차원 입체영상을 시청하는 시청자의 머리 기울임을 포함한 시청방향을 말한다. 본 발명에서 기재한 시청자세의 다른 예는 3차원 입체영상을 시청하는 시청자의 양안의 위치를 포함한 시청위치를 말한다. 본 발명에서 기재한 시청자세의 또 다른 예는 3차원 입체영상을 시청하는 시청자의 머리 기울임을 포함한 시청방향과 양안의 위치를 포함한 시청위치를 말한다. 본 발명의 설명하는 시청자세는 이상에서 언급한 시청방향 및 시청위치로 제한되지 않으며, 언급되지 않은 또 다른 시청자세정보들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 의한 3차원 입체영상 생성 시스템 및 방법을 이용하면 시청자의 시청방향 및 시청위치 정보를 수집하여 3차원 입체영상을 구성하는 좌안 영상과 우안 영상의 생성에 이용되는 시점의 방향과 위치를 계산하고 3차원 입체영상의 생성에 반영할 수 있다. 시청자가 머리를 기울이거나 디스플레이의 정면에서 바라보지 않고 머리의 위치를 움직임에 따라서 3차원 입체영상이 적절하게 대응하기 때문에 본 발명에 의한 3차원 입체영상의 좌안 영상과 우안 영상의 변위 차이의 방향은 시청자의 양안의 방향과 항상 동일한 방향으로 유지할 수 있다. 또한 시청자의 머리의 방향과 위치의 변화에 따라 좌안 영상과 우안 영상이 적절하게 대응하기 때문에 양안의 시차에 의한 3차원 입체인식과 함께 시점의 움직임에 따른 움직임 시차(motion parallax)에 의한 입체인식 효과를 얻을 수 있다.
따라서 본 발명에 의한 3차원 입체영상 생성 시스템은 일반적인 입체영상 생성 방법 보다 현실감은 높고 어지러움은 적은 3차원 입체영상의 체험을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 시청자세를 반영하는 3차원 입체영상 생성 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 시청자세를 반영하는 3차원 입체영상 생성 시스템의 입력 영상부(200), 영상 획득부(300), 시청자부(400), 시청자세 수집부(500) 및 3차원 입체영상 생성부(600)의 흐름을 도시한 블록도이다.
도 3은 본 발명의 일 실시예의 3차원 입체영상(240)을 저작하기 위한 영상 획득 과정의 일례를 보여주는 도면이다.
도 4는 본 발명의 일 실시예의 시청자세정보(410)를 수집하기 위한 입체 안경의 일례를 보여주는 도면이다.
도 5는 본 발명의 일 실시예의 3차원 입체영상 생성부(600)에서 생성하는 좌안 영상(620)과 우안 영상(630)의 계산 방법의 일례를 보여주는 도면이다.
도 6은 본 발명의 일 실시예의 3차원 입체영상 생성부(600)에서 생성하는 좌안 영상(620)과 우안 영상(630)의 계산 방법의 다른 예를 보여주는 도면이다.
도 7은 본 발명의 일 실시예의 시청자가 입체 디스플레이부(700)의 정면에서 수평으로 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상(620)과 우안 영상(630)이 가시화 되는 입체 디스플레이부(700)의 일례를 보여주는 도면이다.
도 8은 본 발명의 일 실시예의 시청자가 입체 디스플레이부(700)의 정면에서 머리를 오른쪽으로 45도 기울이고 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상(620)과 우안 영상(630)이 가시화 되는 입체 디스플레이부(700)의 다른 예를 보여주는 도면이다.
도 9는 본 발명의 일 실시예의 시청자가 입체 디스플레이부(700)의 정면에서 머리를 오른쪽으로 90도 돌려 수직으로 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상(620)과 우안 영상(630)이 가시화 되는 입체 디스플레이부(700)의 또 다른 예를 보여주는 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 제시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
이하, 본 발명의 실시예들에 의하여 3차원 입체영상 생성 시스템 및 방법을 설명하기 위한 블록도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 블록도의 각 블록의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 하드웨어 또는 컨텐츠 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어 또는 컨텐츠에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함할 수 있다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 시청자세를 반영하는 3차원 입체영상 생성 시스템의 블록도를 보여준다.
본 발명의 일 실시예에 따른 3차원 입체영상 생성 시스템(100)은 입력 영상부(200), 영상 획득부(300), 시청자부(400), 시청자세 수집부(500), 3차원 입체영상 생성부(600), 입체 디스플레이부(700)를 포함할 수 있다.
입력 영상부(200)는 외부로부터 입력영상을 제공한다. 입력 영상부(200)는 영상 미디어 재생 장치로부터 저장된 영상 컨텐츠를 재생하거나 영상 촬영 장치로부터 영상을 제공하거나 컴퓨터, 게임기, 복합 멀티미디어 기기와 같은 영상 생성 장치로부터 영상을 제공한다.
영상 획득부(300)는 입력 영상부(200)로부터 제공되는 영상을 가공하여 3차원 입체영상 생성에 필요한 영상을 획득한다.
시청자부(400)는 3차원 입체영상을 시청하는 시청자의 시청자세를 제공한다. 시청자가 착용한 입체안경으로부터 시청자의 시청자세를 제공할 수 있다. 또한 입체안경을 사용하지 않고 시청자의 얼굴의 양안, 코, 입과 같은 특징 요소 만으로 시청자세를 제공할 수 있다.
시청자세 수집부(500)는 시청자부(400)에서 제공되는 시청자세를 수집하여 시청자의 양안의 시청방향과 시청위치를 계산한다.
3차원 입체영상 생성부(600)는 영상 획득부(300)로부터 획득한 영상을 시청자세 수집부(500)에서 제공하는 시청자의 시청방향과 시청위치를 이용하여 3차원 입체영상으로 변환한다.
입체 디스플레이부(700)는 3차원 입체영상 생성부(600)에서 생성된 입체영상을 시청자가 입체로 인지할 수 있도록 가시화한다.
도 2는 시청자세를 반영하는 3차원 입체영상 생성 시스템(100)을 구성하는 입력 영상부(200), 영상 획득부(300), 시청자부(400), 시청자세 수집부(500), 3차원 입체영상 생성부(600)의 처리 흐름을 나타내는 블록도를 보여준다.
입력 영상부(200)에서 입력에 사용되는 영상은 일반 2차원 영상(210), 일반 입체영상(220), 실시간 3차원 렌더링(230), 3차원 입체영상(240)을 포함할 수 있다. 일반 2차원 영상(210)은 공중파와 케이블 TV같은 방송신호, 저장된 영상 컨텐츠의 재생 장치의 출력신호, 게임기와 컴퓨터 및 멀티미디어 플레이어의 영상신호를 포함하며, 이상에서 언급한 예로 제한되지 않는다. 일반 입체영상(220)은 일반적인 3D 텔레비전 및 극장용 입체 상영 장치 또는 3D 블루레이 디스크와 같은 입체영상 컨텐츠에서 사용하는 좌안 영상과 우안 영상으로 구성된 입체영상을 포함한다. 실시간 3차원 렌더링(230)은 컴퓨터 그래픽을 이용하여 실시간으로 영상을 렌더링하여 생성된 영상으로, 사전에 제작되어 저장된 형태의 영상이 아니라 입체영상 생성 시스템에 영상이 디스플레이 될 때에 실시간으로 컴퓨터 또는 게임기 등과 같은 장치에 포함된 컴퓨터 그래픽 렌더링 파이프라인을 통하여 생성되는 영상을 포함한다. 3차원 입체영상(240)은 일반 입체영상(220)과 달리 거리영상(range image 또는 range video)를 포함하며, 영상을 촬영한 카메라로부터 피사체까지의 거리에 대한 정보가 포함된 영상이다. 3차원 입체영상(240)은 일반 2차원 영상과 거리영상의 조합으로 구성될 수 있다. 3차원 입체영상(240)은 또한 일반 입체영상과 거리영상의 조합으로 구성될 수도 있다. 3차원 입체영상(240)의 또 다른 예로는 실시간 3차원 렌더링의 결과로 생성되는 일반 2차원 영상과 컴퓨터 그래픽 렌더링 과정에서 사용되는 카메라로부터 렌더링 하는 픽셀의 거리에 대한 정보를 저장하고 있는 제트버퍼(Z buffer) 영상의 조합으로 구성될 수도 있다. 입력 영상부(200)에서 입력에 사용되는 영상은 이상에서 언급한 내용으로 제한되지 않으며, 이상으로 언급한 영상들의 조합이나 각 구성 요소의 뒤바뀜으로 구성하는 것도 가능하다. 예컨대 실시간 3차원 렌더링(230)으로 부터 공급되는 일반 영상과 3차원 입체 영상(240)의 거리영상의 조합으로 입력영상이 구성될 수 있다.
영상 전처리부(310)는 입력 영상부(200)에서 제공하는 영상의 종류에 따라 3차원 입체영상 생성이 용이하도록 외부에서 입력되는 영상의 전처리를 수행한다. 영상 전처리부(310)에서 수행하는 역할의 일 예로는 입력 영상부(200)에서 일반 2차원 영상(210)이 제공될 경우, 이미지 프로세싱을 통하여 원본 영상에 해당하는 주 영상(320)과 추가로 사용될 보조 영상(330)을 생성한다. 상기 보조 영상(330)은 일반 2차원 영상(210)의 각 화소의 밝기, 선예도, 선명도, 초점, 입력 영상의 이전 프레임과 현재 프레임 사이의 각 화소에서 차이에서 발생하는 움직임 변위, 색상, 인물과 배경의 형상의 특징 인식과 같은 영상의 특성, 자막이나 글씨의 특성을 이용한 영상의 특성을 이용하여 원본 영상의 각 화소에 대한 카메라로부터의 거리를 추정해서 계산해낸 결과를 이용하여 거리 영상을 생성하고 보조 영상(330)으로 이용할 수 있다.
영상 전처리부(310)에서 수행하는 역할의 다른 예로는 입력 영상부(200)에서 일반 입체영상(220)이 제공될 경우, 이미지 프로세싱을 통하여 원본 영상에 해당하는 주 영상(320)과 보조 영상(330)을 생성한다. 주 영상(320)은 시청자의 양안이 갖는 우성과 열성의 특성에 따라 입력된 일반 입체영상(220)의 좌안 영상과 우안 영상 중에서 선택할 수 있다. 일례로는 시청자의 양안이 좌안 우성의 특성을 갖는 경우, 입력된 일반 입체영상(220)의 좌안 영상을 주 영상(320)으로 사용할 수 있다. 주 영상(320)을 생성하는 다른 예로는 입력된 일반 입체영상(220)의 좌안 영상과 우안 영상으로부터 동일한 피사체를 구성하는 각 화소의 변위 차이를 계산하여 좌안 영상과 우안 영상을 촬영하거나 컴퓨터 그래픽 렌더링 과정을 거쳐 입력 영상을 생성할 당시의 카메라의 위치를 거꾸로 산출하여 좌안 영상의 카메라와 우안 영상의 카메라 위치를 계산하고, 두 카메라의 위치의 중앙에 위치하는 가상의 카메라에서 바라본 영상을 생성하여 주 영상(320)으로 사용할 수 있다. 입력 영상부(200)에서 일반 입체영상(220)이 제공될 경우 보조 영상(330)을 생성하는 일례로는 입력된 일반 입체영상(220)의 좌안 영상과 우안 영상으로부터 동일한 피사체를 구성하는 각 화소의 변위 차이를 이용하여 좌안 영상과 우안 영상을 촬영하거나 컴퓨터 그래픽 렌더링 과정을 거쳐 입력 영상을 생성할 당시의 카메라의 위치를 거꾸로 산출하여 좌안 영상의 카메라와 우안 영상의 카메라 위치를 계산하고 주 영상(320)으로 사용된 영상의 카메라의 위치로부터의 피사체를 구성하는 각 화소의 거리를 계산하여 거리 영상을 생성하고 보조 영상(330)으로 사용할 수 있다.
영상 전처리부(310)에서 수행하는 역할의 또 다른 예로는 입력 영상부(200)에서 실시간 3차원 렌더링(230)영상이 제공될 경우, 렌더링된 영상을 일반 2차원 영상(210)과 동일하게 처리할 수 있다. 입력 영상부(200)에서 실시간 3차원 렌더링(230)영상이 제공될 경우의 다른 예로는 렌더링 된 영상을 주 영상(320)으로 사용하고 컴퓨터 그래픽 렌더링 과정에서 사용되는 제트버퍼(Z buffer)에 저장된 거리 영상을 보조 영상(330)으로 사용할 수 있다. 입력 영상부(200)에서 실시간 3차원 렌더링(230)영상이 제공될 경우의 또 다른 예로는 렌더링 된 영상을 주 영상(320)으로 사용하고 컴퓨터 그래픽 렌더링 과정에서 거리 영상을 따로 생성하여 보조 영상(330)으로 사용할 수 있다.
영상 전처리부(310)에서 수행하는 역할의 또 다른 예로는 입력 영상부(200)에서 3차원 입체영상(240)이 제공될 경우, 3차원 입체영상의 일반 2차원 영상을 주 영상(320)으로 사용하고 3차원 입체영상의 거리 영상을 보조 영상(330)으로 사용할 수 있다.
도 3은 상기한 3차원 입체영상(240)을 저작하기 위한 영상 획득 과정의 일례를 보여주는 도면이다. 도 3의 카메라 장치(251)는 3차원 입체영상(240)을 저작하기 위한 장치로 일반 2차원 영상을 촬영하는 카메라와 동시에 카메라(251)로부터 피사체(252)의 거리를 기록하는 거리 카메라(range camera)와 같은 거리를 기록할 수 있는 장치로 구성된다. 일반 입체영상(220)이 두 개의 일반적인 카메라를 이용하여 좌안 영상과 우안 영상을 촬영하는 것과는 달리, 3차원 입체영상(240)을 저작하기 위한 장치는 일반 영상과 거리 영상을 생성할 수 있다. 3차원 입체영상(240)을 저작하기 위한 영상 획득 과정의 다른 예로는 컴퓨터 그래픽 렌더링 과정을 통하여 일반 2차원 영상과 거리 영상을 생성할 수 있다.
시청자세정보(410)는 3차원 입체영상을 시청하는 시청자(400)의 시청방향과 시청위치를 추출할 수 있는 정보를 포함한다. 시청자세정보(410)의 예로는 시청자의 얼굴의 특징형상, 시청자가 착용하는 일반 안경의 형상, 시청자가 3차원 입체영상을 시청하기 위하여 착용하는 입체 안경의 형상, 시청자가 착용할 수 있는 특수 안경의 형상, 시청자가 착용할 수 있는 특수 안경에 포함된 방향 및 위치 센서를 포함한다.
도 4는 본 발명의 일 실시예의 시청자세정보(410)를 수집하기 위한 입체 안경(420)의 일례를 보여주는 도면이다. 시청자세정보(410)는 일반 안경 또는 입체 안경(420)의 전면 프레임(421)의 형상을 입체 디스플레이부(700)에 포함된 카메라 또는 별도의 카메라로부터 촬영하여 패턴인식 기능을 갖는 이미지 프로세싱 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱을 통하여 일반 안경 또는 입체 안경의 3차원 공간 상의 기울어진 방향과 위치를 계산해 낼 수 있다. 시청자세정보(410)의 다른 예로는 3차원 입체영상을 시청하는 시청자의 얼굴을 입체 디스플레이부(700)에 포함된 카메라 또는 별도의 카메라로부터 촬영하여 패턴인식 기능을 갖는 갖는 이미지 프로세싱 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱을 통하여 시청자의 양안, 코, 입과 같은 얼굴의 특징 형상을 인식하여 3차원 공간상에 존재하는 시청자의 머리의 기울어진 방향과 위치를 개산해 낼 수 있다. 시청자세정보(410)의 또 다른 예로는 3차원 입체영상을 시청하는 시청자가 착용하는 일반 안경, 입체 안경(420) 또는 별도의 장치에 장착된 센서를 이용하여 시청자의 머리의 기울어진 방향과 위치를 계산해 낼 수 있다. 이상에서 언급된 일반 안경, 입체 안경(420) 또는 별도의 장치에 장착된 센서는 중력을 이용하여 장치의 기울기를 측정할 수 있는 중력 센서와 관성을 이용하여 장치의 기울기를 측정할 수 있는 자이로 센서를 모두 포함하거나 둘 중 하나의 센서만을 포함할 수 있다. 시청자의 시청자세에 관한 정보를 측정하기 위해서 일반 안경, 입체 안경(420) 또는 별도의 장치에 포함될 수 있는 센서의 종류는 이상에서 언급된 예로 제한되지 않으며, 일반 안경, 입체 안경 또는 별도의 장치에 포함되거나 간단하게 부착될 수 있는 형태로 만들어 질 수 있다. 이상에서 언급된 센서는 도 4의 422와 같이 입체 안경에 포함될 수 있다. 시청자세정보(410)의 수집을 용이하게 하기 위하여 일반 안경 또는 입체 안경의 전면에 패턴인식 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱 과정에서 인식이 가능한 마커를 부착할 수 있다.
시청자세 계산부(510)는 시청자세정보(410)로부터 제공되는 시청자의 자세정보를 획득하여 3차원 입체영상 계산에 사용하기 위한 시청방향위치정보를 계산하는 기능을 수행한다. 시청자세 계산부(510)가 수행하는 기능의 일례로는 이상에서 언급한 패턴인식 기능을 갖는 이미지 프로세싱 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱을 통하여 시청자세정보(410)에서 획득한 시청자의 양안, 코, 입과 같은 얼굴의 특징형상이 포함된 영상으로부터 시청자의 시청방향과 시청위치에 대한 정보를 계산해 낼 수 있다. 시청자세 계산부(510)가 수행하는 기능의 다른 예로는 이상에서 언급한 패턴인식 기능을 갖는 이미지 프로세싱 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱을 통하여 시청자세정보(410)에서 일반 안경 또는 입체 안경의 프레임이 갖는 형상의 특징을 이용하여 일반 안경 또는 입체 안경이 포함된 영상으로부터 시청자의 시청방향과 시청위치에 대한 정보를 계산해 낼 수 있다. 시청자세 계산부(510)가 수행하는 기능의 또 다른 예로는 이상에서 언급한 센서(들)로부터 측정한 값(들)을 획득하여 시청자의 시청방향과 시청위치에 대한 정보를 계산해 낼 수 있다. 시청자세 계산부(510)의 기능은 이상에서 언급한 내용들로 제한되지 않으며, 필요에 따라서 이상에서 언급한 내용들의 일부만 사용되거나 복합적으로 사용될 수도 있다.
3차원 입체영상 계산부(610)는 시청자세 계산부(510)에서 계산된 시청방향위치정보(520)를 이용하여 영상 획득부(300)에서 제공되는 주 영상(320)과 보조 영상(330)으로부터 시청자의 시청방향과 시청위치에 반응하는 3차원 입체영상을 생성하는 기능을 수행한다. 양안 시차를 이용한 일반적인 입체 영상은 좌안 영상과 우안 영상을 계산하기 위한 좌안의 위치와 우안의 위치를 수평으로 가정하고 수평 촬영과 수평 재생을 통한 입체영상을 구현한다. 일반적인 입체 영상과 달리 본 발명의 3차원 입체영상 계산부(610)는 좌안 영상과 우안 영상을 생성할 때 시청자의 머리의 기울기와 위치에 따라서 좌안의 위치와 우안의 위치의 기울기와 변위를 계산하여 좌안 영상과 우안 영상의 변위의 방향과 크기를 계산할 수 있다. 주 영상(320)과 보조 영상(330)으로부터 좌안 영상과 우안 영상으로 구성된 3차원 입체영상을 계산하는 방법은 대한민국 특허 10-0381817호 및 10-0538471호에서 발명을 실시하기 위한 구체적인 실시예로써 기술하고 있는 방법을 사용하거나 상기 특허(들)에서 기술하고 있는 실시예를 변형하여 사용할 수 있다.
도 5와 도 6을 이용하여 주 영상(320)과 보조 영상(330)으로부터 시청방향위치정보(520)를 반영하여 3차원 입체영상을 구성하는 좌안 영상(620)과 우안 영상(630)을 생성하는 방법을 상세히 설명하기로 한다.
도 5는 영상 획득부(300)에서 사용되는 주 영상(320)과 보조 영상(330)의 일례인 3차원 입체영상(240)의 저작 개념을 나타낸 도 3으로부터 피사체를 시청자가 수평으로 바라 보는 상황을 가정하여 표현한 도면이다. 카메라를 이용한 촬영이나 컴퓨터 그래픽 렌더링을 이용한 영상 저작과정에서 카메라는 시청자의 눈과 같은 역할을 하게 된다. 컴퓨터 그래픽에서 일반적으로 사용하는 카메라 모델을 생각하면 쉽게 이해가 가능할 것이다. 영상의 생성에 사용한 카메라의 기준위치(254)로부터 생성된 일반 2차원 영상을 그대로 시청자에게 보여주면 한쪽 눈으로 동일한 위치(254)에서 피사체(252)를 바라보는 효과를 얻을 수 있다. 일반 2차원 영상으로부터 3차원 입체영상을 생성하는 간단한 방법은 도 5에서 도시한 것과 같이 시청자의 좌안(또는 우안)의 기준위치(431)을 주 영상(320)의 카메라의 기준위치(254)와 동일하게 만들고 시청자의 우안(또는 좌안)을 좌안(또는 우안)과 수평 하게 위치시키는 것이다. 이상에서 언급한 경우는 특허 10-0381817호의 도면 2a, 도면 2b, 도면 2c 및 실시예에서 설명하고 있는 제트버퍼를 이용한 입체영상 생성방법과 유사하다. 보다 상세히는 카메라의 기준위치(254)와 동일한 시청자의 좌안의 기준위치(431)를 특허 10-0381817호의 도면 2a의 좌안을 나타내는 E(L)로 가정하고 시청자의 우안의 기준위치(432)를 특허 10-0381817호의 도면 2a의 우안을 나타내는 E(R)로 가정할 수 있다. 또한 이상에서 언급한 주 영상(320)을 특허 10-0381817호에서 설명하고 있는 단안에 의한 2차원 평면 이미지로 가정하고 보조 영상(330)에 저장된 거리 영상을 특허 10-0381817호에서 설명하고 있는 Z버퍼에 저장된 이미지의 거리정보로 가정할 수 있다. 또한 도 5의 피사체(252)의 일 꼭지점(253)을 특허 10-0381817호의 도면 2a의 점 P로 가정할 수 있다. 이상에서 언급한 가정은 도 5의 좌안과 우안의 위치 그리고 주 영상의 카메라의 기준위치가 특허 10-0381817호의 도면 2a, 도면 2b 및 도면 2c의 설명과 유사한 점을 근거로 하고 있기 때문에 당업자가 명확하게 동의할 수 있을 것이다. 따라서 도 5에서 도시한 시청자의 좌안과 우안이 수평으로 위치하고 시청자의 양안 중 일안이 주 영상(320)의 기준위치와 동일한 경우에는 3차원 입체영상을 생성하는 3차원 입체영상 계산부(610)에서 특허 10-0381817호와 특허 10-0381817호를 인용하고 있는 특허 10-0538471호에서 설명한 입체영상 생성방법을 수행할 수 있음이 당업자에게 명확하게 이해될 수 있을 것이다.
도 6은 영상 획득부(300)에서 사용하는 주 영상(320)과 보조 영상(330)의 일례인 3차원 입체영상(240)의 저작 개념을 나타낸 도 3으로부터 피사체를 시청자가 임의의 위치에서 임의의 기울어진 방향으로 바라 보는 상황을 가정하여 표현한 도면이다. 임의의 자세로 시청하는 시청자의 머리를 생각하면 시청자의 좌안의 기준위치(441)과 우안의 기준위치(442)가 주 영상(320)의 카메라의 기준위치(254)와 다른 곳에 임의의 방향으로 기울어져 위치할 수 있다. 이와 같이 시청자의 좌안의 기준위치(441)와 우안의 기준위치(442)가 모두 주 영상(320)의 카메라의 기준위치(254)와 다른 경우에는 주 영상(320)으로부터 보조 영상(330)을 이용하여 3차원 입체영상 계산부(610)에서 좌안 영상(620)과 우안 영상(630)을 각각 계산하여 생성할 수 있다. 당업자의 명확한 이해를 위해서 우선 좌안 영상(620)의 생성 과정을 설명하기로 한다. 도 6의 피사체(252)의 일 꼭지점(253)을 특허 10-0381817호의 도면 2a의 점 P로 가정할 수 있다. 도 6의 카메라의 기준위치(254)를 특허 10-0381817호의 도면 2a의 좌안의 위치 E(L)로 가정할 수 있다. 도 6의 시청자의 좌안의 기준 위치(441)을 특허 제 0381817호의 도면 2a의 우안의 위치 E(R)로 가정할 수 있다. 상기한 가정으로부터 도 6의 253, 254 및 441을 연결하는 삼각형과 특허 10-0381817호의 도면 2a의 P, E(L) 및 E(R)을 연결하는 삼각형의 유사성을 이용하여 특허 10-0381817호 및 특허 10-0381817호를 인용한 특허 10-0538471호의 입체영상 생성방법을 3차원 입체영상 계산부(610)에서 수행할 수 있다. 영상 획득부(300)에서 생성한 주 영상(320)과 보조 영상(330)을 특허 10-0381817호의 입체영상 생성방법에서 기재한 단안에 의한 2차원 평면 이미지와 Z버퍼에 저장된 이미지의 거리정보로 사용하여 3차원 입체영상 계산부(610)에서 좌안 영상(620)을 계산할 수 있다. 이상에서 설명한 것과 유사하게 이번에는 당업자의 명확한 이해를 위해서 우안 영상(630)의 생성 과정을 설명하기로 한다. 도 6의 피사체(252)의 일 꼭지점(253)을 특허 10-0381817호의 도면 2a의 점 P로 가정할 수 있다. 도 6의 카메라의 기준위치(254)를 특허 10-0381817호의 도면 2a의 좌안의 위치 E(L)로 가정할 수 있다. 도 6의 시청자의 우안의 기준 위치(442)을 특허 제 0381817호의 도면 2a의 우안의 위치 E(R)로 가정할 수 있다. 상기한 가정으로부터 도 6의 253, 254 및 442를 연결하는 삼각형과 특허 10-0381817호의 도면 2a의 P, E(L) 및 E(R)을 연결하는 삼각형의 유사성을 이용하여 특허 10-0381817호 및 특허 10-0381817호를 인용한 특허 10-0538471호의 입체영상 생성방법을 3차원 입체영상 계산부(610)에서 수행할 수 있다. 영상 획득부(300)에서 생성한 주 영상(320)과 보조 영상(330)을 특허 10-0381817호의 입체영상 생성방법에서 기재한 단안에 의한 2차원 평면 이미지와 Z버퍼에 저장된 이미지의 거리정보로 사용하여 3차원 입체영상 계산부(610)에서 우안 영상(630)을 계산할 수 있다. 이상에서 설명한 내용은 도 6에서 도시한 도면의 개념과 특허 10-0381817호 및 특허 10-0538471호의 입체영상 생성방법의 실시예의 유사성에서 비롯하여 당업자에게 명확하게 이해될 수 있을 것이다.
3차원 입체영상 계산부(610)의 수행 기능은 이상에서 언급한 기능으로 제한되지 않으며, 언급되지 않은 또 다른 기능은 특허 10-0381817호 및 특허 0538371호의 실시예를 통하여 당업자에게 명확하게 이해될 수 있을 것이므로 본 실시예의 설명에서는 생략하기로 한다.
도 7에서 9는 영상 획득부(300)에서 획득한 영상에 시청자세정보(410)로부터 계산한 시청방향위치정보(520)를 반영하여 3차원 입체영상 계산부(610)에서 생성한 좌안 영상(620)과 우안 영상(630)을 입체 디스플레이부(700)에 가시화하여 시청자에게 보여지는 원리를 보여주는 도면이다.
입체 디스플레이부(700)의 일례로는 입체영상을 가시화 하는 하드웨어 장치(710)와 입체 안경(420)으로 구성될 수 있다. 입체 디스플레이부(700)의 다른 예로는 안경을 필요로 하지 않는 입체영상을 가시화 하는 하드웨어 장치로 구성될 수 있다. 입체 디스플레이부(700)의 예는 이상에서 언급하는 내용으로 제한되지 않는다.
도 7은 본 발명의 일 실시예의 시청자(400)가 입체 안경(420)을 착용하고 입체 디스플레이부(700)의 정면에서 수평으로 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상과 우안 영상이 가시화 되는 입체 디스플레이부(700)의 일례를 보여주는 도면이다. 입체영상을 가시화 하는 하드웨어 장치(710)에 보여지는 좌안 영상(620)의 일 모서리(720)는 왼쪽 꼭지점(721)과 오른쪽 꼭지점(722)로 구성된다. 우안 영상(630)의 일 모서리(730)는 왼쪽 꼭지점(731)과 오른쪽 꼭지점(732)으로 구성된다. 좌안 영상(620)과 우안 영상(630)이 각각 시청자의 좌안과 우안에 투영되어 양안 시차에 의한 입체 인지과정을 통하여 시청자의 양안 앞의 공간에 가상의 물체(810)의 일 모서리(820)로 시청자에게 인지될 수 있다. 일 모서리(820)는 왼쪽 꼭지점(821)과 오른쪽 꼭지점(822)으로 구성된다. 도 7에서 도시하고 있는 3차원 입체영상의 가시화 과정의 일례는 시청자의 좌안과 우안의 위치가 수평으로 위치하고 있어 일반적인 입체영상의 가시화 과정과 유사함을 알 수 있다.
도 8은 본 발명의 일 실시예의 시청자(400)가 입체 디스플레이부(700)의 정면에서 머리를 오른쪽으로 45도 기울이고 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상과 우안 영상이 가시화 되는 입체 디스플레이부(700)의 일례를 보여주는 도면이다. 입체영상을 가시화 하는 하드웨어 장치(710)에 보여지는 좌안 영상(620)의 일 모서리(740)는 왼쪽 꼭지점(741)과 오른쪽 꼭지점(742)으로 구성된다. 우안 영상(630)의 일 모서리(750)는 왼쪽 꼭지점(751)과 오른쪽 꼭지점(752)으로 구성된다. 좌안 영상(620)과 우안 영상(630)이 각각 시청자의 좌안과 우안에 투영되어 양안 시차에 의한 입체 인지과정을 통하여 시청자의 양안 앞의 공간에 가상의 물체(830)의 일 모서리(840)로 시청자에게 인지될 수 있다. 일 모서리(840)는 왼쪽 꼭지점(841)과 오른쪽 꼭지점(842)으로 구성된다. 도 8에서 도시하고 있는 3차원 입체영상의 가시화 과정의 일례는 일반적인 입체영상의 가시화 과정과 달리 시청자의 시청자세에 따라 시청자의 머리가 오른쪽으로 45도 기울어져 있어 좌안 영상(620)과 우안 영상(630)에 의하여 가시화되는 물체(830)의 일 모서리(840)는 좌안 영상에는 740의 위치에 존재하고 우안 영상에는 750의 위치에 존재하게 된다. 도 8의 일 모서리(740)와 다른 일 모서리(750)의 변위의 방향과 크기의 차이를 도 7의 일 모서리(720)와 다른 일 모서리(730)의 변위의 방향과 크기의 차이와 비교하면 다음과 같다. 도7의 변위는 수평방향으로만 존재하나 도 8에서 나타난 변위는 시청방향과 유사하게 45도 방향으로 기울어져 있음을 알 수 있다. 이상의 설명으로부터 당업자는 본 발명의 3차원 입체영상 생성 방법이 좌안 영상과 우안 영상의 차이가 수평방향으로만 나타나는 일반적인 입체영상 생성 방법과는 차이가 있음을 명확하게 이해할 수 있을 것이다.
도 9는 본 발명의 일 실시예의 시청자(400)가 입체 디스플레이부(700)의 정면에서 머리를 오른쪽으로 90도 돌려 수직으로 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상과 우안 영상이 가시화 되는 입체 디스플레이부(700)의 일례를 보여주는 도면이다. 입체영상을 가시화 하는 하드웨어 장치(710)에 보여지는 좌안 영상(620)의 일 모서리(760)는 왼쪽 꼭지점(761)과 오른쪽 꼭지점(762)으로 구성된다. 우안 영상(630)의 일 모서리(770)는 왼쪽 꼭지점(771)과 오른쪽 꼭지점(772)으로 구성된다. 좌안 영상(620)과 우안 영상(630)이 각각 시청자의 좌안과 우안에 투영되어 양안 시차에 의한 입체 인지과정을 통하여 시청자의 양안 앞의 공간에 가상의 물체(850)의 일 모서리(860)로 시청자에게 인지될 수 있다. 일 모서리(860)는 왼쪽 꼭지점(861)과 오른쪽 꼭지점(862)으로 구성된다. 도 9에서 도시하고 있는 3차원 입체영상의 가시화 과정의 일례는 시청자의 시청자세에 따라 시청자의 머리가 오른쪽으로 90도 기울어져 있어 좌안 영상(620)과 우안 영상(630)에 의하여 가시화되는 물체(850)의 일 모서리(860)가 좌안 영상에는 760의 위치에 우안 영상에는 770의 위치에 존재하게 된다. 시청자의 시청자세에 따라 좌안과 우안이 수직 방향으로 위치하는 경우에는 좌안 영상(620)의 일 모서리(760)와 우안 영상(630)의 일 모서리(770)가 수직 방향으로 변위를 갖고 있음을 명확하게 이해할 수 있을 것이다. 이상의 설명으로부터 당업자는 본 발명의 3차원 입체영상 생성 방법이 시청자의 시청방향과 시청위치에 따라 좌안 영상과 우안 영상을 구성하는 점, 선, 및 면과 같은 영상의 구성단위의 위치가 다르게 반영됨을 명확하게 이해할 수 있을 것이다.
상기에서는 본 발명의 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명의 범위에 속하는 것은 당연하다.
입력 영상부(200)에서 일반 입체영상(220)이 제공되고, 시청자세 수집부(500)에서 계산된 시청방향이 수평일 경우에는 3차원 입체영상 생성부(600)에서 원본 영상에서 제공된 좌안 영상과 우안 영상을 입체영상으로 사용할 수 있다.
입력 영상부(200)에서 실시간 3차원 렌더링(230)영상이 제공될 경우의 다른 예로는 시청방향위치정보(520)를 실시간으로 반영하여 좌안 영상(620)과 우안 영상(630)을 실시간 3차원 렌더링(230)에서 직접 생성할 수 있다.
100: 3차원 입체영상 생성 시스템
200: 입력 영상부, 210: 일반 2차원 영상, 220: 일반 입체영상, 230: 실시간 3차원 렌더링, 240: 3차원 입체영상, 251: 카메라, 252: 피사체, 253: 피사체의 일 꼭지점, 254: 3차원 공간상의 카메라의 기준 위치
300: 영상 획득부, 310: 영상 전처리부, 320: 주 영상, 330: 보조 영상
400: 시청자부, 410: 시청자세정보, 420: 입체 안경, 421: 입체 안경 프레임, 422: 자세 측정 장치, 430: 시청자의 양안의 위치를 도시하기 위한 안경, 431: 시청자의 좌안의 기준 위치, 432: 시청자의 우안의 기준 위치, 440: 시청자의 양안의 위치를 도시하기 위한 안경, 441: 시청자의 좌안의 기준 위치, 442: 시청자의 우안의 기준 위치
500: 시청자세 수집부, 510: 시청자세 계산부, 520: 시청방향위치정보
600: 3차원 입체영상 생성부, 610: 3차원 입체영상 계산부, 620: 좌안 영상, 630: 우안 영상
700: 입체 디스플레이부, 710: 입체 디스플레이, 720: 좌안 영상의 일부로 가시화된 선의 일례, 721: 720의 왼쪽 꼭지점, 722: 720의 오른쪽 꼭지점, 730: 우안 영상의 일부로 가시화된 선의 일례, 731: 730의 왼쪽 꼭지점, 732: 730의 오른쪽 꼭지점, 740: 좌안 영상의 일부로 가시화된 선의 일례, 741: 740의 왼쪽 꼭지점, 742: 740의 오른쪽 꼭지점, 750: 우안 영상의 일부로 가시화된 선의 일례, 751: 750의 왼쪽 꼭지점, 752: 750의 오른쪽 꼭지점, 760: 좌안 영상의 일부로 가시화된 선의 일례, 761: 760의 왼쪽 꼭지점, 762: 760의 오른쪽 꼭지점, 770: 우안 영상의 일부로 가시화된 선의 일례, 771: 770의 왼쪽 꼭지점, 772: 770의 오른쪽 꼭지점
810: 3차원 입체영상으로 가시화된 가상의 피사체, 820: 가상의 피사체의 일 모서리, 821: 가상의 피사체의 일 모서리의 왼쪽 꼭지점, 822: 가상의 피사체의 일 모서리의 오른쪽 꼭지점, 830: 3차원 입체영상으로 가시화된 가상의 피사체, 840: 가상의 피사체의 일 모서리, 841: 가상의 피사체의 일 모서리의 왼쪽 꼭지점, 842: 가상의 피사체의 일 모서리의 오른쪽 꼭지점, 850: 3차원 입체영상으로 가시화된 가상의 피사체, 860: 가상의 피사체의 일 모서리, 861: 가상의 피사체의 일 모서리의 왼쪽 꼭지점, 862: 가상의 피사체의 일 모서리의 오른쪽 꼭지점

Claims (8)

  1. 외부로부터 입력되는 영상을 가공하여 3차원 입체영상 생성에 필요한 주 영상과 보조 영상을 획득하는 영상 획득부;
    3차원 입체영상을 시청하는 시청자로부터 시청자세를 수집하여 시청자의 양안의 시청자세정보를 계산하는 시청자세 수집부; 및
    상기 영상 획득부로부터 가공된 주 영상과 보조 영상으로부터 상기 시청자세 수집부에서 계산된 시청자의 양안의 시청자세정보를 반영하여 3차원 입체영상을 생성하는 3차원 입체영상 생성부를 포함하며,
    상기 3차원 입체영상 생성부에서 생성되는 입체영상은 시청자의 시청자세에 따라 좌안 영상과 우안 영상이 변화하는 3차원 입체영상 생성 시스템
  2. 제 1항에 있어서, 상기 영상 획득부는,
    외부로부터 입력되는 영상으로부터 3차원 입체영상 생성의 주된 영상으로 사용하는 주 영상과;
    주 영상 속의 사물의 거리정보를 나타내는 보조 영상을 생성하는, 3차원 입체영상 생성 시스템
  3. 제 1항에 있어서, 상기 시청자세 수집부는,
    시청자의 얼굴에 대한 영상으로부터 시청자의 얼굴 또는 일반 안경, 또는 입체 안경에 대한 특징정보를 추출하여, 추출된 특징정보를 이용하여 시청자의 시청자세를 계산하는, 3차원 입체영상 생성 시스템
  4. 제 1항에 있어서, 상기 시청자세 수집부는,
    시청자가 착용하는 일반 안경 또는 입체 안경에 부착된 자이로 센서 또는 중력 센서, 또는 부착물의 형태로 만들어진 자이로 센서 또는 중력 센서로부터 수신되는 정보로부터 시청자의 시청자세를 계산하는, 3차원 입체영상 생성 시스템
  5. 제 1항에 있어서, 상기 영상 획득부에 입력되는 외부 영상은, 일반 2차원 영상으로 이루어진 주 영상과;
    상기 주 영상의 각 화소에 대한 거리정보가 저장된 거리영상으로 이루어진 보조 영상을 포함하는, 3차원 입체영상 생성 시스템
  6. 삭제
  7. 삭제
  8. 외부로부터 입력되는 영상을 가공하여 3차원 입체영상 생성에 필요한 주 영상과 보조 영상을 획득하는 영상 획득방법;
    3차원 입체영상을 시청하는 시청자로부터 시청자세를 수집하여 시청자의 양안의 시청자세정보를 계산하는 시청자세 수집방법; 및
    상기 영상 획득방법으로 가공된 주 영상과 보조 영상으로부터 상기 시청자세 수집방법으로 산출된 시청자의 양안의 시청자세정보를 반영하여 3차원 입체영상을 생성하는 방법을 포함하며,
    상기 3차원 입체영상 생성방법에서 생성되는 입체영상은 시청자의 시청자세에 따라 좌안 영상과 우안 영상이 변화하는, 시청자세를 반영하는 3차원 입체영상 생성 방법
KR1020110024656A 2011-03-19 2011-03-19 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법 KR101198557B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110024656A KR101198557B1 (ko) 2011-03-19 2011-03-19 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110024656A KR101198557B1 (ko) 2011-03-19 2011-03-19 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20120106919A KR20120106919A (ko) 2012-09-27
KR101198557B1 true KR101198557B1 (ko) 2012-11-06

Family

ID=47113285

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110024656A KR101198557B1 (ko) 2011-03-19 2011-03-19 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101198557B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101413603B1 (ko) * 2014-01-21 2014-08-06 (주) 피디케이리미티드 시각 보정 기능을 가지는 비디오 영상을 이용한 3차원 영상 디스플레이 시스템 및 방법
CN107071388A (zh) * 2016-12-26 2017-08-18 深圳增强现实技术有限公司 一种立体增强现实显示方法及装置
US11641455B2 (en) 2020-10-06 2023-05-02 Samsung Electronics Co., Ltd. Method and apparatus for measuring dynamic crosstalk

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160017726A (ko) 2014-08-01 2016-02-17 황운아 3d 렌즈블록을 이용한 입체영상 촬영시스템
KR20240006552A (ko) 2021-05-10 2024-01-15 니폰 덴키 가라스 가부시키가이샤 무알칼리 유리판
KR20240006551A (ko) 2021-05-10 2024-01-15 니폰 덴키 가라스 가부시키가이샤 무알칼리 유리판
TW202319363A (zh) 2021-06-28 2023-05-16 日商日本電氣硝子股份有限公司 無鹼玻璃板

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101413603B1 (ko) * 2014-01-21 2014-08-06 (주) 피디케이리미티드 시각 보정 기능을 가지는 비디오 영상을 이용한 3차원 영상 디스플레이 시스템 및 방법
CN107071388A (zh) * 2016-12-26 2017-08-18 深圳增强现实技术有限公司 一种立体增强现实显示方法及装置
US11641455B2 (en) 2020-10-06 2023-05-02 Samsung Electronics Co., Ltd. Method and apparatus for measuring dynamic crosstalk

Also Published As

Publication number Publication date
KR20120106919A (ko) 2012-09-27

Similar Documents

Publication Publication Date Title
US11024093B2 (en) Live augmented reality guides
US10269177B2 (en) Headset removal in virtual, augmented, and mixed reality using an eye gaze database
US10257492B2 (en) Image encoding and display
US10306202B2 (en) Image encoding and display
US11010958B2 (en) Method and system for generating an image of a subject in a scene
KR101198557B1 (ko) 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법
JP5515301B2 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
US8750599B2 (en) Stereoscopic image processing method and apparatus
CN106066701B (zh) 一种ar和vr数据处理设备与方法
US20180338137A1 (en) LED-Based Integral Imaging Display System as Well as Its Control Method and Device
US20130113701A1 (en) Image generation device
JP6126821B2 (ja) 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
JP6126820B2 (ja) 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
CN108141578A (zh) 呈现相机
US20210225065A1 (en) Creating action shot video from multi-view capture data
CN113382224B (zh) 一种基于全息沙盘的交互手柄展示方法及装置
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
JP2003284095A (ja) 立体画像処理方法および装置
US11187895B2 (en) Content generation apparatus and method
JP2012234411A (ja) 画像生成装置、画像生成システム、画像生成プログラムおよび画像生成方法
US11128836B2 (en) Multi-camera display
GB2558283A (en) Image processing
EP4030752A1 (en) Image generation system and method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150920

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160805

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170801

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180904

Year of fee payment: 7