KR101746539B1 - 입체영상 처리 시스템, 입체영상 처리 방법 및 안경 - Google Patents

입체영상 처리 시스템, 입체영상 처리 방법 및 안경 Download PDF

Info

Publication number
KR101746539B1
KR101746539B1 KR1020100108790A KR20100108790A KR101746539B1 KR 101746539 B1 KR101746539 B1 KR 101746539B1 KR 1020100108790 A KR1020100108790 A KR 1020100108790A KR 20100108790 A KR20100108790 A KR 20100108790A KR 101746539 B1 KR101746539 B1 KR 101746539B1
Authority
KR
South Korea
Prior art keywords
value
stereoscopic image
distance
eye view
focal length
Prior art date
Application number
KR1020100108790A
Other languages
English (en)
Other versions
KR20120047099A (ko
Inventor
김달영
백지혜
노영진
김윤주
김재호
김도영
서하영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100108790A priority Critical patent/KR101746539B1/ko
Priority to PCT/KR2011/004477 priority patent/WO2012057434A1/en
Priority to US13/882,095 priority patent/US9395546B2/en
Publication of KR20120047099A publication Critical patent/KR20120047099A/ko
Application granted granted Critical
Publication of KR101746539B1 publication Critical patent/KR101746539B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명에 따른 입체영상 처리 시스템, 입체영상 처리 방법 및 안경이 개시된다. 입체영상 처리 시스템은 안경의 초점거리를 조절하기 위한 제어값을 전송하는 포맷터 및, 포맷터가 전송한 제어값 수신하고 수신된 제어값을 기초로 자신의 초점거리를 조절하며, 조절한 초점거리에 따라 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 조사된 광을 굴절시키는 안경을 포함한다.

Description

입체영상 처리 시스템, 입체영상 처리 방법 및 안경{System and device for processing stereo image, and glasses}
본 발명은 입체영상 처리 시스템, 입체영상 처리 방법 및 안경에 관한 것으로, 보다 상세하게는, 안경 방식으로 입체영상을 디스플레이하기 위한 입체영상 처리 시스템, 입체영상 처리 방법 및 안경에 관한 것이다.
현재에는 아날로그 방송에서 디지털 방송으로 방송환경이 급속히 전환되고 있다. 그에 따라 디지털 방송을 위한 컨텐츠의 양이 급속히 증가하고 있다. 또한, 디지털 방송을 위한 컨텐츠로는 2차원(2-dimensions: 2D) 영상 신호를 2차원 이미지로 디스플레이하는 컨텐츠 이외에도 3차원(3 dimensions: 3D) 영상 신호를 3차원 이미지로 디스플레이하는 컨텐츠가 제작 및 기획되고 있다.
3 차원 영상을 디스플레이하는 기술은 양안의 시차로 관찰자가 입체감을 느끼게 되는 양안 시차의 원리를 이용하는 것으로, 안경 방식(shutter glass method), 무안경 방식, 완전 3차원 방식 등으로 구분된다. 안경 방식은 입체영상을 관람하기 위하여 시청자가 특수한 기능의 안경을 착용하는 방식을 말한다. 안경 방식을 크게 구분하여, 좌우가 번갈아 개폐되는 셔터글라스 방식과 좌우안의 안경렌즈 부분에 서로 반대 방향의 원편광판을 장착하는 편광 방식으로 분류할 수 있다.
본 발명이 이루고자 하는 기술적 과제는 입체영상을 시청하는 중에 발생하는 휴먼팩터를 감속시키기 위한 입체영상 처리 시스템, 입체영상 처리 방법 및 안경을 제공하는데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 처리 방법은 안경의 초점거리를 조절하기 위한 제어값을 전송하는 단계, 상기 전송된 제어값을 기초로 상기 안경의 초점거리를 조절하는 단계, 및 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 조사된 광을 상기 조절된 초점거리에 따라 굴절시키는 단계를 포함할 수 있다. 여기서, 상기 제어값은 상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value), 초점거리값 및 전압값 중에 하나일 수 있다.
상기 안경의 초점거리를 조절하는 단계는, 상기 깊이 값 및 시거리를 이용하여 초점거리값을 산출하는 단계, 및 상기 안경의 초점거리를 상기 산출된 초점거리값으로 설정하는 단계를 포함할 수 있다. 또한 상기 설정하는 단계는, 상기 산출된 초점거리값을 기초로 상기 안경의 렌즈부에 인가될 전압값을 산출하는 단계, 및 상기 산출된 전압값에 따라 상기 안경의 렌즈부에 전압을 인가하는 단계를 포함할 수 있다. 또한 상기 초점거리값을 산출하는 단계는, 상기 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로 상기 초점거리값을 산출하는 단계를 포함할 수 있다.
상기 입체영상 처리 방법은, 상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value) 및 시거리를 이용하여 상기 제어값을 산출하는 단계를 더 포함할 수 있다.
상기 안경의 초점거리를 조절하는 단계는, 상기 전송된 제어값을 기초로 전압값을 산출하는 단계 및 상기 산출된 전압값에 따라 상기 안경의 렌즈부에 전압을 인가하는 단계를 포함할 수 있다.
상기 안경의 초점거리를 조절하는 단계는, 상기 전송된 제어값에 따라 상기 안경의 렌즈부에 전압을 인가하는 단계를 포함할 수 있다.
상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 안경은, 상기 안경의 초점거리를 조절하기 위한 제어값을 수신하는 수신부, 상기 전송된 제어값을 기초로 상기 안경의 초점거리를 조절하는 제어부 및 상기 조절된 초점거리에 따라 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 조사된 광을 구절시키는 렌즈부를 포함할 수 있다. 여기서, 상기 제어값은 상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value), 초점거리값 및 전압값 중에 하나일 수 있다.
상기 제어부는, 상기 깊이 값 및 시거리를 이용하여 초점거리값을 산출하고, 상기 안경의 초점거리가 상기 산출된 초점거리값으로 설정되도록 제어할 수 있다.
상기 제어부는, 상기 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로 상기 초점거리값을 산출할 수 있다.
상기 제어부는, 상기 산출된 초점거리값을 기초로 상기 렌즈부의 액정 화소에 인가될 전압값을 산출하고, 상기 산출된 전압값에 따라 상기 렌즈부의 액정 화소에 전압의 인가를 제어할 수 있다.
상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 처리 시스템은, 안경의 초점거리를 조절하기 위한 제어값을 전송하는 포맷터, 및 상기 전송된 제어값을 기초로 자신의 초점거리를 조절하고, 상기 조절된 초점거리에 따라 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 조사된 광을 굴절시키는 안경을 포함할 수 있다. 여기서, 상기 제어값은 상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value)일 수 있다.
상기 안경은, 상기 깊이 값 및 시거리를 이용하여 초점거리값을 산출하고, 상기 안경의 초점거리를 상기 산출된 초점거리값으로 설정할 수 있다.
상기 제어값은 초점거리값 및 전압값 중에 하나일 수 있다.
상기 입체영상 처리 시스템은 상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value) 및 시거리를 이용하여 상기 초점거리값을 산출하는 제어부를 더 포함할 수 있다.
상기 제어부는, 상기 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로 상기 초점거리값을 산출할 수 있다.
상기 제어부는, 상기 산출된 초점거리값을 기초로 상기 안경의 렌즈부에 인가될 전압에 대한 값인 전압값을 더 산출할 수 있다.
본 발명에 따른 입체영상 처리 시스템, 입체영상 처리 방법 및 안경에 의하면, 디스플레이되는 영상에 맞추어 안경의 초점거리를 변화시킴으로써, 입체영상을 시청할 때 조절 불일치 때문에 나타나는 눈과 뇌의 피로감을 감소시킬 수 있다.
도 1은 본 발명에 따른 입체영상 디스플레이 시스템에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 본 발명에 따른 입체영상 처리 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 3은 본 발명에 따른 안경에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 4는 입체영상의 깊이 값에 따른 초점거리 조절을 설명하기 위한 도면,
도 5는 디스플레이 앞으로 입체상이 튀어 나올 경우에 초점거리 조절을 설명하기 위한 도면,
도 6은 디스플레이 뒤로 입체상이 들어가는 경우에 초점거리 조절을 설명하기 위한 도면,
도 7은 본 발명에 따른 액정 패널이 입사한 광의 경로를 변경하는 과정의 일실시예를 도시한 도면,
도 8a 및 도 8b는 본 발명에 따른 액정 패널이 입사한 광의 경로를 변경하는 과정의 다른 실시예를 도시한 도면,
도 9는 본 발명에 따른 액정 패널이 입사한 광의 경로를 변경하는 과정의 또 다른 실시예를 도시한 도면,
도 10은 원거리와 근거리를 볼 때의 조절작용, 폭주작용 및 개산작용을 설명하기 위한 도면,
도 11은 2안식 입체영상 기술을 설명하기 위한 도면,
도 12는 다안식 입체영상 기술을 설명하기 위한 도면,
도 13은 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면,
도 14는 본 발명에 따른 안경 구동 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면,
도 15는 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면,
도 16은 본 발명에 따른 안경 구동 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면, 그리고,
도 17은 본 발명에 따른 안경 구동 방법에 대한 바람직한 또 다른 실시예의 수행과정을 도시한 도면이다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
도 1은 본 발명에 따른 입체영상 디스플레이 시스템에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 1을 참조하면, 입체영상 처리 시스템(100)은 입체영상 처리 장치(110), 안경(120) 및 디스플레이(130)를 포함할 수 있다. 입체영상 처리 시스템(100)은 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있다. 또한 입체영상 처리 시스템(100)은 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.
입체영상 처리 장치(110) 및 디스플레이(130)는 하나의 제품으로 제작되어 판매될 수 있고, 입체영상 처리 장치(110) 및 디스플레이(130)는 개별 제품으로 제작되어 판매될 수 있다.
입체영상 처리 장치(110)는 저장 매체에 저장된 멀티미디어 데이터를 재생할 수 있는 멀티미디어 기기일 수 있고, 방송 신호를 수신하고 수신한 방송 신호에 포함된 멀티미디어 데이터를 디코딩할 수 있는 방송 수신기일 수 있다. 여기서 멀티미디어 데이터는 2차원 영상뿐만 아니라 입체영상을 포함할 수 있다. 또한 입체영상은 다시점 영상일 수 있다. 다시점 영상은 일정한 거리나 각도를 갖는 복수의 카메라로 동일한 피사체를 촬영하여 획득한 복수의 영상을 말하고, 각 카메라에 의해 획득된 영상들을 각각 시점 영상으로 정의한다.
상기 방송 수신기는 지상파, 위성 및 케이블을 통해 전송되는 방송 및 인터넷을 통해 전송되는 방송 신호를 수신할 수 있는 방송 수신기일 수 있다. 또한 상기 방송 수신기는 인터넷 서비스를 시청자에게 제공할 수 있는 방송 수신기일 수 있다. 여기서 인터넷 서비스는 CoD(Content's on Demand) 서비스, 유튜브 서비스, 날씨, 뉴스, 지역 정보 및 검색 등의 인포메이션 서비스, 게임, 노래방 등의 엔터테인먼트 서비스, TV 메일, TV SMS(Short Message Service) 등의 커뮤니케이션 서비스 등 인터넷을 통해 제공될 수 있는 서비스를 의미한다. 이에 따라 본 발명에서 방송 수신기는 네트워크 TV, 웹 TV 및 브로드밴드 TV를 포함할 수 있다.
또한 상기 방송 수신기는 네트워크를 통해 서버로부터 애플리케이션을 수신하고, 이를 설치 및 실행할 수 있는 스마트 TV일 수 있다.
입체영상 처리 장치(110)는 안경(120)의 초점거리를 조절하기 위한 제어값을 산출하고 산출한 제어값을 안경(120)으로 전송할 수 있다. 여기서 제어값은 입체영상의 깊이 값(Depth value), 초점거리값 및 전압값 중 하나일 수 있다. 상기 전압값은 안경(120)의 렌즈부에 인가될 전압의 크기를 지시하는 것일 수 있다. 또한 입체영상 처리 장치(110)는 좌안 시점 영상 및 우안 시점 영상이 디스플레이되는 시점에 안경 셔터의 작동을 동기화하기 위한 신호인 동기 신호(Sync signal)를 안경(120)으로 전송할 수 있다.
안경(120)은 입체영상 처리 장치(110)로부터 전송된 제어값을 수신하고, 수신한 제어값을 기초로 안경(120)의 초점거리를 조절한다. 조절된 초점거리에 따라 안경(120)을 투과하는 광은 굴절되게 된다. 이에 따라, 시청자는 입체영상이 위치하는 지점에 맞추어진 초점거리(조절거리)에서 실제 화면을 볼 수 있어, 본 발명은 입체영상을 시청할 때 조절-폭주 불일치(accommodation-convergence mismatch) 때문에 발생하는 시각피로 현상을 획기적으로 감출할 수 있다.
또한 안경(120)은 셔터 안경일 수 있고, 편광 안경일 수 있다. 셔터 안경인 경우에는, 안경(120)은 입체영상 처리 장치(110)로부터 전송된 동기 신호를 수신하고, 수신된 동기 신호에 따라 셔터의 개폐를 제어할 수 있다.
또한 안경(120)은 액정의 전기광학 효과(electro-optic effect)를 이용하여 굴절력(diopter)을 갖는 액정 안경일 수 있다. 또한 안경(120)은 초점거리 조절이 가능한 렌즈부를 포함할 수 있다.
디스플레이(130)는 입체영상 처리 장치(110)의 제어에 따라 입체영상을 디스플레이한다. 디스플레이(130)는 셔터글라스 방식의 디스플레이일 수 있고, 편광 방식의 디스플레이일 수 있다. 즉 디스플레이(130)는 셔터글라스 방식으로 좌안 시점 영상 및 우안 시점 영상을 번갈아 디스플레이할 수 있다. 또한 디스플레이(130)는 편광 안경에 의해 편광될 수 있도록 좌안 시점 영상의 픽셀 위치와 우안 시점 영상의 픽셀 위치를 다르게 하여 디스플레이할 수 있다. 디스플레이(130)는 독립된 제품으로 구현될 수 있고, 입체영상 처리 장치(110)와 일체형으로 구현될 수 있다.
도 2는 본 발명에 따른 입체영상 처리 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 2를 참조하면, 본 발명에 따른 입체영상 처리 장치(110)는 튜너부(205), 복조부(210), 역다중화부(215), 네트워크 인터페이스부(220), 외부 신호 입력부(225), 비디오 디코더(230), 오디오 디코더(235), 제어부(240), 저장부(245), 스케일러(250), 믹서(Mixer)(260) 및 포맷터(formatter)(270)를 포함할 수 있다.
튜너부(205)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다. 튜너부(205)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
본 발명의 또 다른 실시예에 의하면, 입체영상 처리 장치(110)는 적어도 2개의 튜너부를 구비할 수 있다. 적어도 2개의 튜너부를 구비하는 경우, 제2 튜너부는 제1 튜너부와 유사하게 안테나를 통해 수신되는 RF 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.
또한, 제2 튜너부는 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. 제2 튜너부는 주기적으로 모든 방송 채널의 변환 작업을 수행할 수 있다. 따라서 입체영상 처리 장치(110)는 제1 튜너부를 통하여 변환된 방송 신호의 영상을 표시하면서, 제2 튜너부를 통하여 변환된 여러 채널의 영상을 썸 네일 형태로 제공할 수 있다. 이 경우, 제1 튜너부는 사용자가 선택한 메인 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환하고, 제2 튜너부는 메인 RF 방송 신호를 제외한 모든 RF 방송 신호를 순차적/주기적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.
복조부(210)는 튜너부(205)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 일예로, 튜너부(205)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(210)는 8-VSB(2-Vestigial Side Band) 복조를 수행한다. 또 다른 예로, 튜너부(205)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(210)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다.
또한, 복조부(210)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(210)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(210)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
역다중화부(215)는 복조부(210), 네트워크 인터페이스부(220) 및 외부 신호 입력부(225)로부터 스트림 신호를 수신할 수 있다. 또한 역다중화부(215)는 수신된 스트림 신호를 영상 신호, 음성 신호 및 데이터 신호로 역다중화하여 각각 비디오 디코더(230), 오디오 디코더(235) 및 제어부(240)로 출력할 수 있다.
비디오 디코더(230)는 역다중화부(215)로부터 영상 신호를 수신하고, 수신된 영상 신호를 복원하여 스케일러(250)로 출력한다. 여기서 영상 신호를 입체영상 신호를 포함할 수 있다.
오디오 디코더(235)는 역다중화부(215)로부터 영상 신호를 수신하고, 수신된 영상 신호를 복원하여 음성을 디스플레이(130) 또는 스케일러(250)로 출력한다.
네트워크 인터페이스부(220)는 네트워크 망으로부터 수신되는 패킷(packet)들을 수신하고, 네트워크 망으로 패킷을 전송한다. 즉 네트워크 인터페이스부(220)는 네트워크 망을 통해 서비스 제공 서버로부터 방송 데이터를 전달하는 IP 패킷을 수신한다. 여기서 방송 데이터는 컨텐츠, 입체영상 컨텐츠, 컨텐츠 업데이트 여부를 알리는 업데이트 메시지, 메타데이터, 서비스 정보 데이터, 소프트웨어 코드를 포함한다. 또한 서비스 정보는 실시간 방송 서비스에 대한 서비스 정보 및 인터넷 서비스에 대한 서비스 정보를 포함할 수 있다.
네트워크 인터페이스부(220)는 IP패킷이 스트림 신호를 포함하는 경우에는, IP패킷에서 스트림 신호를 추출하여 역다중화부(215)로 출력할 수 있다.
외부 신호 입력부(225)는 외부 장치와 입체영상 처리 장치(110)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미한다. 입체영상 처리 장치(110)는 외부 신호 입력부(225)로부터 수신된 영상 신호 및 음성 신호가 디스플레이되도록 제어할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다.
제어부(240)는 명령어를 실행하고 입체영상 처리 장치(110)와 연관된 동작을 수행한다. 예를 들면, 저장부(245)로부터 검색된 명령어를 사용하여, 제어부(240)는 입체영상 처리 장치(110)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(240)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(240)에 대해 사용될 수 있다. 또한 제어부(240)는 적어도 하나의 프로세스를 포함할 수 있다.
제어부(240)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(240)와 연결되어 동작하는 저장부(245) 내에 존재할 수 있다.
저장부(245)는 일반적으로 입체영상 처리 장치(110)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 예로서, 저장부(245)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 입체영상 처리 장치(110) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함한다.
스케일러(250)는 비디오 디코더(230) 및 오디오 디코더(235)에서 처리된 신호를 디스플레이(130) 또는 스피커(미도시)를 통하여 출력하기 위한 적절한 크기의 신호로 크기 조절(스케일링: scaling)한다. 구체적으로, 스케일러(250)는 입체영상을 수신하여 디스플레이(130)의 해상도 또는 소정 화면비(aspect ratio)에 맞도록 스케일링(scaling)한다. 디스플레이(130)는 제품 사양 별로 소정 해상도, 예를 들어 720x480 포맷, 1024x768 등을 갖는 영상 화면을 출력하도록 제작될 수 있다. 그에 따라서, 스케일러(250)는 다양한 값으로 입력될 수 있는 입체영상의 해상도를 해당 디스플레이의 해상도에 맞춰 변환할 수 있다.
또한, 스케일러(250)는 디스플레이되는 컨텐츠의 종류 또는 사용자 설정 등에 따라서, 입체영상의 화면비(aspect ratio)를 조절하여 출력한다. 화면비 값은 16:9, 4:3, 또는 3:2 등의 값이 될 수 있으며, 스케일러(250)는 가로 방향의 화면 길이 비와 세로 방향의 화면 길이 비가 특정 비율이 되도록 조절할 수도 있다.
스케일러(250)는 주 화면 스케일러(미도시)와 부 화면 스케일러(미도시)를 포함할 수 있다. 주 화면 스케일러(미도시)는 주 화면 또는 입체영상 신호의 좌안 시점 영상 또는 우안 시점 영상 중 어느 하나의 영상을 스케일링할 수 있다. 그리고, 부 화면 스케일러(미도시)는 부 화면 또는 입체영상 신호의 좌안 시점 영상 또는 우안 시점 영상 중 다른 영상을 스케일링할 수 있다.
또한, 스케일러(250)는 입체영상을 디스플레이하기 위하여 적용되는 화질 설정값(예를 들어, 색감(color), 선명도(sharpness) 등)을 입체영상 신호에 따른 좌안 및 우안 이미지에 각각 적용시킬 수 있다. 여기서, 화질 설정값은 제어부(240)에 의하여 구체적으로 조절 또는 설정될 수 있으며, 스케일러(250)는 제어부(240)의 제어에 따라서 소정 화질 설정값을 디스플레이할 입체영상 신호에 따른 좌안 및 우안 이미지에 각각 적용하여 출력한다. 또한, 소정 화질 설정값을 디스플레이할 입체영상 신호에 따른 좌안 및 우안 이미지에 각각 적용하여 출력하는 동작은 스케일러(250)가 아닌 포맷터(270)에서 수행될 수도 있다.
믹서(260)는 스케일러(250) 및 제어부(240)의 출력을 믹싱하여 출력한다.
포맷터(formatter)(270)는 믹서(260)에서 출력되는 영상 및 음성 신호들을 디스플레이(130)의 출력 포맷에 맞게 변환한다. 여기서, 포맷터(270)는 2D 영상을 디스플레이하는 경우에는 상기 변환 기능 수행 없이 입력받은 신호를 통과시킨다. 그리고, 입체영상을 디스플레이하는 경우에는, 포맷터(270)는 제어부(240)의 제어에 따라 입체영상의 포맷 및 디스플레이(130)의 출력 주파수 등에 맞게 3D 포맷으로 처리하는 3D 포맷터로 동작할 수 있다.
또한, 포맷터(270)는 입체영상을 구현하기 위하여 변환된 영상 신호를 디스플레이(130)로 출력하고, 출력되는 입체영상 신호에 관한 동기 신호(Sync signal)를 생성하여 안경(120)으로 전송할 수 있다. 포맷터(270)는 동기 신호의 전송을 위해 적외선 출력부(미도시)를 포함할 수 있다. 여기서, 동기 신호는 입체영상 신호에 따른 좌안 시점 영상 또는 우안 시점 영상의 디스플레이 시점과 셔터 안경(120)의 좌안 렌즈 또는 우안 렌즈의 개폐 시점을 동기시키기 위한 신호이다.
적외선 출력부(미도시)는 포맷터(270)가 생성한 동기 신호를 안경(120)으로 전송한다.
또한 포맷터(270)는 안경(120)의 초점거리를 조절하기 위한 제어값을 전송할 수 있다. 여기서 제어값은 상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value)일 수 있고, 초점거리값 또는 전압값일 수 있다.
도 3은 본 발명에 따른 안경에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 3을 참조하면, 안경(120)은 수신부(310), 제어부(320) 및 렌즈부(330)를 포함할 수 있다.
수신부(310)는 안경(120)의 초점거리를 조절하기 위한 제어값 및 동기 신호를 수신할 수 있다. 여기서 제어값은 좌안 시점 영상 및 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value)일 수 있고, 초점거리값 또는 전압값일 수 있다. 또한 동기 신호는 입체영상 신호에 따른 좌안 시점 영상 또는 우안 시점 영상의 디스플레이 시점과 안경(120)의 좌안 렌즈 또는 우안 렌즈의 개폐 시점을 동기 시키기 위한 신호일 수 있다.
제어부(320)는 수신한 동기 신호에 따라 좌안 셔터 렌즈(좌안 렌즈)와 우안 셔터 렌즈(우안 렌즈)의 셔터 오픈 주기를 제어할 수 있다. 구체적으로, 디스플레이(130)가 좌안 시점 영상을 디스플레이할 때, 좌안 셔터 렌즈는 광을 투과시키고 우안 셔터 렌즈는 광 투과를 차단한다. 그에 따라서, 좌안 시점 영상은 안경 사용자의 좌측 눈에만 전달된다. 그리고, 디스플레이(130)가 우안 시점 영상을 디스플레이할 때에는, 좌안 셔터 렌즈는 광 투과를 차단하고, 우안 셔터 렌즈는 광을 통과시킨다. 그에 따라서, 우안 시점 영상은 사용자의 우측 눈에만 전달된다.
제어부(320)는 수신부(310)가 수신한 깊이 값 및 시거리를 이용하여 초점거리값을 산출할 수 있다. 여기서 초점거리값은 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로 산출될 수 있다.
또한 제어부(320)는 산출한 초점거리값을 기초로 안경의 렌즈부에 인가될 전압값을 산출할 수 있다. 그리고 제어부(320)는 산출한 전압값에 따라 안경의 렌즈부에 전압 인가를 제어할 수 있다.
렌즈부(330)는 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 조사된 광을 설정된 초점거리에 따라 굴절시킬 수 있다.
일부 실시예로, 렌즈부(330)는 복수의 액정 화소(cell)를 포함할 수 있다. 렌즈부(330)는 액정 화소(cell)에 인가되는 전압의 크기에 따라 다른 굴절력을 가질 수 있고, 다른 초점거리를 가질 수 있다.
일부 실시예로, 렌즈부(330)는 초점거리 조절이 가능한 복수의 렌즈를 포함할 수 있다. 일예로, 렌즈부(330)는 줌렌즈를 포함할 수 있다.
도 4는 입체영상의 깊이 값에 따른 초점거리 조절을 설명하기 위한 도면이다.
도 4를 참조하면, 입체영상 처리 시스템(100)은 렌즈부(330)의 초점거리를 조절하여 입체영상의 깊이 값에 따른 조절 불일치를 해소할 수 있다. 디스플레이가 지점(410)에 위치해 있고 눈이 지점(430)에 위치한 경우에, 입체상의 깊이 값에 따라 뇌가 지각하는 입체상이 지점(420)에 위치하면, 눈(430)에서부터 디스플레이(410)까지의 거리인 시거리는 거리(451)가 되고 눈(430)에서부터 입체영상(420)까지의 거리는 거리(452)가 된다. 따라서 뇌가 지각하는 입체상(420)의 위치와 눈이 지각하는 실제상(410)이 서로 일치하지 않아 조절 불일치가 일어나게 된다. 이러한 조절 불일치는 다음의 수학식 1로 산출될 수 있다.
Figure 112010071814152-pat00001
여기서, f1은 시거리(451)이고, f2는 눈에서 입체영상까지의 거리(452)이다. 시거리(451)는 입체영상 처리 장치(110)에서 측정할 수 있고, 안경(120)에서 측정할 수 있으며, 입체영상 처리 장치(110) 및 안경(120)은 측정한 거리(451)를 상호 전송할 수 있고, 입체영상 처리 장치(110)는 입체영상의 깊이 값과 함께 측정한 거리(451)를 전송할 수도 있다. 또한 거리(451)는 Depth 카메라를 통해 측정될 수 있고, 시청자가 촬상된 영상을 통해 산출될 수 있으며, 광선 또는 전파를 이용하여 측정될 수 있다.
거리(452)는 시거리(451) 및 입체영상의 깊이 값을 기초로 산출될 수 있다. 일예로, 거리(452)는 다음 수학식 2로부터 산출될 수 있다.
Figure 112010071814152-pat00002
입체영상 처리 시스템(100)은 산출한 조절 불일치에 따라 렌즈부(330)의 초점거리를 조절하여, 조절 불일치로 인한 시청자의 시각적 피로감을 최소화할 수 있다. 여기서 렌즈부(330)의 초점거리 조절하기 위한 초점거리값은 다음의 수학식 3으로부터 산출될 수 있다.
Figure 112010071814152-pat00003
여기서, f3은 초점거리값이다.
입체영상 처리 시스템(100)은 수학식 1에 정의된 조절 불일치의 역수를 기초로 초점거리값 f3을 산출할 수 있고, 수학식 3을 이용하여 거리(451) 및 거리(452)를 기초로 초점거리값 f3을 산출할 수 있다. 그리고 입체영상 처리 시스템(100)은 렌즈부(330)의 초점거리를 산출한 초점거리값 f3으로 조절할 수 있다.
도 5는 디스플레이 앞으로 입체상이 튀어 나올 경우에 초점거리 조절을 설명하기 위한 도면이다.
도 5를 참조하면, 디스플레이(410) 앞으로 입체상(420)이 튀어 나올 경우에, 거리(452)는 거리(451)보다 거리(453)만큼 작아지고, 수학식 3에 따라 산출된 1/f3은 음수가 되며, 또한 f3은 음수가 된다. 따라서 렌즈부(330)의 초점거리가 상기 f3로 조절되면, 렌즈부(330)는 오목렌즈의 역할을 하게 된다.
오목렌즈(120)에 의해 디스플레이(410)의 상은 거리(453)만큼 당겨져 지점(420)에서 선명하게 보이게 된다. 또한 디스플레이(410)를 선명하게 보기 위해, 눈(430)의 수정체는 자동적으로 초점거리가 지점(420)에 맞도록 조절작용을 하게 된다. 그 결과, 시청자는 지점(420)에 맞는 조절거리에서 디스플레이(410)에 디스플레이된 영상을 선명하게 볼 수 있게 되고, 입체상(420)에 대한 눈의 조절작용과 디스플레이(410)에 디스플레이된 영상에 대한 눈의 조절작용이 일치될 수 있다. 따라서, 본 발명에 따른 입체영상 처리 시스템(100)은 시청자로 하여금 지점(420)에 맞는 조절거리에서 디스플레이 영상을 선명하게 볼 수 있게 하며, 또렷한 입체상을 형성하면서 동시에 조절과 폭주가 일치하게 하여 시청자로 하여금 시각피로를 느끼게 하는 것을 방지할 수 있다.
도 6은 디스플레이 뒤로 입체상이 들어가는 경우에 초점거리 조절을 설명하기 위한 도면이다.
도 6을 참조하면, 디스플레이(410) 뒤로 입체상(620)이 들어가는 경우에, 눈(430)에서 입체상(620)까지의 거리(652)는 거리(451)보다 거리(653)만큼 커지고, 수학식 3에 따라 산출된 1/f3은 양수가 되며, 또한 f3은 양수가 된다. 따라서 렌즈부(330)의 초점거리가 상기 f3로 조절되면, 렌즈부(330)는 볼록렌즈의 역할을 하게 된다.
볼록렌즈(120)에 의해 디스플레이(410)의 상은 거리(653)만큼 멀어진 지점(620)에서 선명하게 보이게 된다. 또한 디스플레이(610)를 선명하게 보기 위해, 눈(430)의 수정체는 자동적으로 초점거리가 지점(620)에 맞도록 조절작용을 하게 된다. 그 결과, 시청자는 지점(620)에 맞는 조절거리에서 디스플레이(610)에 디스플레이된 영상을 선명하게 볼 수 있게 되고, 입체상(420)에 대한 조절작용과 디스플레이(410)에 디스플레이된 영상에 대한 조절작용이 일치될 수 있다. 따라서, 입체상이 디스플레이 뒤로 들어가는 경우에도, 본 발명에 따른 입체영상 처리 시스템(100)은 시청자로 하여금 지점(620)에 맞는 조절거리에서 디스플레이 영상을 선명하게 볼 수 있게 하며, 또렷한 입체상을 형성하면서 동시에 조절과 폭주가 일치하게 하여 시청자로 하여금 시각피로를 느끼게 하는 것을 방지할 수 있다.
도 7은 본 발명에 따른 액정 패널이 입사한 광의 경로를 변경하는 과정의 일실시예를 도시한 도면이다.
도 7을 참조하면, 렌즈부(330)는 복수의 액정 화소(cell)를 포함하는 액정 패널(710)일 수 있다. 액정 패널(710)에 포함된 액정 화소(cell)에 각기 다른 전압을 걸어주면, 전기광학 효과에 의하여 각 액정 화소마다 다르게 빛을 굴절시킬 수 있다. 각 액정 화소에 인가되는 외부전압을 적절히 조절함으로써, 각 액정 화소를 지난 광선(730)들이 하나의 초점(740)에 모이도록 조절할 수 있고, 이렇게 빛이 모이는 현상은 렌즈와 동일하기 때문에 액정 패널은 렌즈 기능을 수행할 수 있다. 이에 따라 본 발명에 따른 안경은 액정 화소에 인가되는 전압을 적절히 조절하여 안경의 굴절력(diopter)을 가변적으로 조절할 수 있는 효과가 있고 굴절력을 조절하여 초점거리를 변경시킬 수 있는 효과가 있다.
도 8a 및 도 8b는 본 발명에 따른 액정 패널이 입사한 광의 경로를 변경하는 과정의 다른 실시예를 도시한 도면이다.
도 6에 도시된 것 같이 입체상(620)이 디스플레이(410) 뒤로 들어간 상태를 유지하며 입체상(620)의 위치하는 지점이 변경되면, 제어부(320)는 액정 패널(710)의 액정 화소에 인가되는 전압을 조절하여 초점(740)이 변경되는 입체상(620)의 지점에 따라 변경되도록 제어할 수 있다. 이에 따라 입체영상 처리 시스템(100)은 액정 패널(710)이 볼록렌즈 역할을 하도록 하면서 액정 패널(710)의 초점거리를 변경시킨다.
일예로, 입체상이 지점(620)에서 디스플레이(410) 쪽으로 이동된 지점에서 인식되는 경우에는, 제어부(320)는 액정 패널(710)의 액정 화소에 인가되는 전압을 조절하여 초점이 지점(740)에서 지점(850)으로 변경되도록 제어할 수 있다. 또한 입체상이 지점(620)에서 디스플레이(410) 뒤로 더 들어간 지점에서 인식되는 경우에는, 제어부(320)는 액정 패널(710)의 액정 화소에 인가되는 전압을 조절하여 초점이 지점(740)에서 지점(860)으로 변경되도록 제어할 수 있다.
도 9는 본 발명에 따른 액정 패널이 입사한 광의 경로를 변경하는 과정의 또 다른 실시예를 도시한 도면이다.
도 9를 참조하면, 도 5에 도시된 것 같이 입체상(420)이 디스플레이(410) 앞으로 튀어 나온 상태에 해당하는 지점에 위치하게 되면, 제어부(320)는 액정 패널(710)의 액정 화소에 인가되는 전압을 조절하여 초점(740)이 입체상(420)의 지점에 맞추어 변경되도록 제어할 수 있다.
일예로, 입체상이 위치하는 지점이 지점(620)에서 지점(420)으로 변경되면, 제어부(320)는 액정 패널(710)의 액정 화소에 인가되는 전압을 조절하여 초점이 지점(740)에서 지점(940)으로 변경되도록 제어할 수 있다. 이에 따라 액정 패널(710)은 오목렌즈 역할을 하게 된다.
2D 영상이 디스플레이될 때는, 제어부(320)는 액정 패널(710)이 굴절력을 가지지 않도록 전압이 인가되도록 제어하여, 안경(120)을 부착한 상태에서도 2D 영상을 볼 수 있도록 할 수 있다. 또한 입체영상이 디스플레이될 때는, 제어부(320)는 액정 패널(710)이 도 7 내지 도 9에 도시된 것과 같이 동작되도록 전압이 인가되도록 제어하여, 액정 패널(710)은 렌즈의 기능을 수행할 수 있다. 이에 따라, 본 발명에 따른 액정 안경은 2D 영상 및 3D 영상 사이에 전환이 있는 경우에도, 사용자로 하여금 불편 없이 계속해서 안경을 착용하여 시청할 수 있게 한다.
도 10은 원거리와 근거리를 볼 때의 조절작용, 폭주작용 및 개산작용을 설명하기 위한 도면이다.
도 10을 참조하면, 조절작용이란 눈의 수정체가 두께를 조절하여 초점거리를 변화시킴으로써 망막에 또렷한 상이 맺히도록 하는 작용이고, 폭주작용이란 양쪽 두 눈의 각도가 가까운 곳을 볼 때(근방시)는 중앙으로 모이는 작용이며, 개산작용이란 양쪽 두 눈의 각도가 먼 곳을 볼 때(원방시)는 양쪽으로 벌어지는 작용이다.
조절작용의 일예로, 두 눈(1021, 1022)이 먼 거리에 있는 사물(1011)을 볼 때는, 눈(1021)의 초점거리(또는 조절거리)가 지점(1021)부터 지점(1011)까지의 거리에 맞추어 지고, 눈(1022)의 초점거리(또는 조절거리)가 지점(1022)부터 지점(1011)까지의 거리에 맞추어져 두 눈(1021, 1022)의 수정체가 얇아지는 조절작용이 일어나게 된다. 조절작용의 다른 예로, 두 눈(1021, 1022)이 가까운 거리에 있는 사물(1012)을 볼 때는, 눈(1021)의 초점거리(또는 조절거리)가 지점(1021)부터 지점(1012)까지의 거리에 맞추어 지고, 눈(1022)의 초점거리(또는 조절거리)가 지점(1022)부터 지점(1012)까지의 거리에 맞추어져 두 눈(1021, 1022)의 수정체가 두꺼워지는 조절작용이 일어나게 된다.
개산작용의 일예로, 두 눈(1021, 1022)이 먼 거리에 있는 사물(1011)을 볼 때는, 양쪽 눈(1021, 1022)과 주시점(1011)이 이루는 각도인 폭주각이 1021-1011-1022 각도를 이루도록 양쪽 눈이 평행에 가깝게 벌어지는 개산작용이 발생한다. 폭주작용의 일예로, 두 눈(1021, 1022)이 가까운 거리에 있는 사물(1012)을 볼 때는, 양쪽 눈(1021, 1022)과 주시점(1012)이 이루는 폭주각이 1021-1012-1022 각도를 이루도록 양족 눈이 중앙으로 모이는 폭주작용이 일어나게 된다.
입체영상을 볼 때, 디스플레이 패널은 지점(1011)에 위치하지만, 디스플레이 패널을 통해 시청자에게 보여지는 입체상의 위치는 지점(1012)에 있어, 뇌가 지각하는 입체상의 위치(1012)와 눈이 지각하는 실제상의 위치(1011)가 서로 일치하지 않기 때문에, 조절 및 폭주에 의해 시각적인 피로감인 휴먼팩터가 발생하게 된다.
본 발명은 안경의 초점거리를 하여 조절 불일치를 해소함으로, 시점 영상을 뇌가 인지하는 입체영상에 대한 초점거리에서 볼 수 있게 한다. 따라서 본 발명은 시점 영상을 볼 때의 조절작용과 뇌가 인지하는 입체영상을 볼 때의 조절작용 간의 불일치로 발생하는 시각적 피로감을 최소화할 수 있다.
도 11은 2안식 입체영상 기술을 설명하기 위한 도면이다.
도 11을 참조하면, 2안식 입체영상 기술은 두 눈(1121, 1122)에 시차가 다른 영상(1101, 1102)을 입사시킴으로써 인위적으로 양안시차(binocular disparity)를 유발시키는 방식으로 시청자가 입체감을 느끼도록 만드는 입체영상 기술이다.
2안식 입체영상 기술에 본 발명을 적용하면, 본 발명은 안경(120)의 초점거리를 조절하여, 디스플레이(1130)에서 디스플레이되는 우안 시점 영상(1101)을 입체상(1113)에 대한 조절거리에서 또렷이 보이게 할 수 있고, 디스플레이(1130)에서 디스플레이되는 좌안 시점 영상(1102)을 입체상(1113)에 대한 조절거리에서 또렷이 보이게 할 수 있다.
2안식 입체영상 기술에서 초점을 지점(1101) 및 지점(1102)에 맞추면 폭주와의 불일치 문제가 발생할 수 있고, 초점을 지점(1113)에 맞추면 폭주와는 일치하지만 초점이 맞지 않아서 입체상(1113)이 흐리게 되어버리게 된다. 여기서, 주목해야할 사항은, 폭주 및 개산과 연결되어 있는 것은 안광학 시스템 전체의 초점거리가 아니며, 수정체의 조절(초점거리 변화)만이 양안의 폭주/개산과 연결되고 조절-폭주 불일치 문제에 관여한다는 사실이다.
따라서, 수정체의 초점거리(또는 조절거리)를 입체상(1113)에 먼저 맞추고 지점(1101)부터 지점(1113)까지의 거리와 지점(1102)부터 지점(1113)까지의 거리만큼을 각각 우안과 좌안에 착용하는 안경의 초점거리로 보충해 주면, 수정체의 조절과 양약의 폭주가 지점(1113)에서 일치하면서도, 안경의 초점거리를 고려한 안광학계 전체의 초점은 지점(1101) 및 지점(1102) 위에 있기 때문에, 시청자는 선명하게 입체영상을 볼 수 있다.
도 12는 다안식 입체영상 기술을 설명하기 위한 도면이다.
도 12를 참조하면, 다안식 입체영상 기술은 디스플레이(1230)가 시차가 있는 여러 개의 영상(1201, 1202, 1203, 1204, 1205)을 디스플레이하고, 디스플레이된 영상(1201, 1202, 1203, 1204, 1205)은 필터(1240)를 통해 여러 개의 다른 고정 시점(view-point)에 입사시키고, 양쪽 눈(1221, 1222)에는 각각 필터(1240)를 투과한 특정 고정 시점에 해당하는 영상이 입사되어, 입체상(1213)을 형성하는 입체영상 기술이다. 다안식 입체영상 기술은 복수의 시점을 표시함으로써, 양안시차(binocular disparity)와 운동시차(motion parallax)를 동시에 유발시켜서 시청자가 입체감을 느끼도록 만든다.
다안식 입체영상 기술의 여러 시점(view-point) 가운데 실제로 시청자의 눈에 입사되는 2개의 시점 영상에 대하여 2안식 입체영상 기술에 본 발명을 적용한 원리를 적용하면, 본 발명은 운동 시차를 제공할 수 있는 다안 방식의 장점이 결합되어 시각피로가 없으면서도 양안시차와 운동시차가 동시에 주어지는 더욱 개선된 입체영상을 시청자에게 제공할 수 있다.
도 13은 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.
도 13을 참조하면, 포맷터(270)는 좌안 시점 영상 및 우안 시점 영상을 출력한다(S100).
포맷터(270)는 출력된 좌안 시점 영상 및 우안 시점 영상으로 디스플레이되는 입체영상의 깊이 값을 전송한다(S110). 여기서 포맷터(270)는 깊이 값을 산출할 수 있고, 제어부(240)로부터 전송받을 수 있다. 포맷터(270)는 좌안 시점 영상 및 우안 시점 영상이 디스플레이되는 시점에 안경 셔터의 작동을 동기화하기 위한 동기 신호(Sync signal)를 깊이 값과 함께 전송할 수 있다.
안경(120)은 포맷터(270)가 전송한 깊이 값을 기초로 자신의 초점거리를 조절한다(S120). 여기서 안경(120)은 상기 깊이 값을 기초로 초점거리값을 산출하고, 산출한 초점거리값으로 초점거리를 조절할 수 있다. 상기 초점거리값은 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로산출될 수 있다. 또한 안경(120)은 전술된 수학식 3을 이용하여 초점거리값을 산출할 수 있다.
디스플레이(130)는 출력된 좌안 시점 영상 및 우안 시점 영상을 디스플레이한다(S130). 여기서 디스플레이(130)는 셔터글라스 방식으로 좌안 시점 영상 및 우안 시점 영상을 디스플레이할 수 있고, 편광 방식으로 좌안 시점 영상 및 우안 시점 영상을 디스플레이할 수 있다. 또한 디스플레이(130)는 도 11에서 도시된 2안식 입체영상 기술 또는 도 12에서 도시된 다안식 입체영상 기술에 따라 시점 영상을 디스플레이할 수 있다.
안경(120)은 조절한 초점거리에 따라 자신을 투과하는 광을 굴절시킨다(S140). 단계 S130에서 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 방출된 광은 안경의 렌즈부로 입사되고, 안경의 초점거리에 따라 입사된 광은 굴절되게 된다. 이에 따라, 시청자는 뇌가 인지하는 입체영상이 위치하는 지점에 맞는 초점거리(또는 조절거리)에서 실제 화면을 선명하게 볼 수 있어, 본 발명은 입체영상을 시청할 때 조절 불일치 때문에 발생하는 시각피로 현상을 획기적으로 감축할 수 있다.
도 14는 본 발명에 따른 안경 구동 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.
도 14를 참조하면, 수신부(310)는 입체영상 처리 장치(110)로부터 전송된 깊이 값을 수신한다(S200). 여기서 수신부(310)는 전술된 단계S110에서 전송된 깊이 값을 수신할 수 있다.
제어부(320)는 수신부(310)가 수신한 깊이 값 및 시거리를 이용하여 초점거리값을 산출한다(S210). 여기서 초점거리값은 상기 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로 산출될 수 있다. 또한 제어부(320)는 전술된 수학식 3을 이용하여 초점거리값을 산출할 수 있다.
제어부(320)는 산출한 초점거리값을 기초로 렌즈부(330)에 인가될 전압값을 산출한다(S220).
제어부(320)는 산출한 전압값에 따라 렌즈부(330)에 전압의 인가를 제어한다(S230).
전술된 단계 S120은 단계 S210, 단계 S220 및 단계 S230을 포함할 수 있다.
도 15는 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면이다.
도 15를 참조하면, 제어부(240)는 좌안 시점 영상 및 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value) 및 시거리를 이용하여 제어값을 산출한다(S300). 여기서 상기 제어값은 초점거리값 및 전압값 중에 하나일 수 있다. 또한 초점거리값은 상기 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로 산출될 수 있다. 제어부(240)는 전술된 수학식 3을 이용하여 초점거리값을 산출할 수 있다. 또한 제어부(240)는 산출한 초점거리값을 기초로 안경의 렌즈부에 인가될 전압값을 산출할 수 있다.
포맷터(270)는 좌안 시점 영상 및 우안 시점 영상을 출력한다(S310).
포맷터(270)는 제어부(240)가 산출한 제어값을 전송한다(S320). 포맷터(270)는 좌안 시점 영상 및 우안 시점 영상이 디스플레이되는 시점에 안경 셔터의 작동을 동기화하기 위한 동기 신호(Sync signal)를 깊이 값과 함께 전송할 수 있다.
일부 실시예로, 제어부(240) 대신에 포맷터(270)가 상기 제어값을 산출할 수 있다.
안경(120)은 전송된 제어값을 기초로 상기 안경의 초점거리를 조절한다(S330). 여기서 전송된 제어값이 초점거리값인 경우에는, 안경(120)은 전송된 제어값을 기초로 전압값을 산출하고, 산출한 전압값에 따라 렌즈부(330)에 전압을 인가할 수 있다. 전송된 제어값이 전압값인 경우에는, 안경(120)은 전송된 전압값에 따라 렌즈부(330)에 전압을 인가할 수 있다.
디스플레이(130)는 출력된 좌안 시점 영상 및 우안 시점 영상을 디스플레이한다(S340). 여기서 디스플레이(130)는 셔터글라스 방식으로 좌안 시점 영상 및 우안 시점 영상을 디스플레이할 수 있고, 편광 방식으로 좌안 시점 영상 및 우안 시점 영상을 디스플레이할 수 있다. 또한 디스플레이(130)는 도 11에서 도시된 2안식 입체영상 기술 또는 도 12에서 도시된 다안식 입체영상 기술에 따라 시점 영상을 디스플레이할 수 있다.
안경(120)은 조절한 초점거리에 따라 자신을 투과하는 광을 굴절시킨다(S350). 단계 S340에서 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 방출된 광은 안경(120)의 렌즈부(330)로 입사되고, 렌즈부(330)의 초점거리에 따라 입사된 광선은 굴절되게 된다.
도 16을 본 발명에 따른 안경 구동 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면이다.
도 16을 참조하면, 수신부(310)는 입체영상 처리 장치(110)로부터 전송된 제어값을 수신한다(S400). 여기서 수신부(310)는 전술된 단계 S320에서 전송된 제어값을 수신할 수 있다.
제어부(320)는 수신부(310)가 수신한 제어값을 기초로 전압값을 산출한다(S410).
제어부(320)는 산출한 전압값에 따라 렌즈부(330)에 전압을 인가한다(S420).
전술된 단계 S330은 단계 S410 및 단계 S420을 포함할 수 있다.
도 17은 본 발명에 따른 안경 구동 방법에 대한 바람직한 또 다른 실시예의 수행과정을 도시한 도면이다.
도 17을 참조하면, 수신부(310)는 입체영상 처리 장치로부터 전송된 제어값을 수신한다(S500). 여기서 수신부(310)는 전술된 단계 S320에서 전송된 제어값을 수신할 수 있다.
제어부(320)는 수신부(310)가 수신한 제어값에 따라 렌즈부(330)에 전압 인가를 제어한다(S510).
전술된 단계 S330은 단계 S510을 포함할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.

Claims (20)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 안경에 있어서,
    상기 안경의 초점거리를 조절하기 위한 제어값을 수신하는 수신부;
    상기 수신된 제어값을 기초로 상기 안경의 초점거리를 조절하는 제어부; 및
    상기 조절된 초점거리에 따라 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 조사된 광을 굴절시키는 렌즈부;를 포함하고,
    상기 렌즈부는 복수의 액정 화소를 포함하는 액정 패널이고, 상기 복수의 액정 화소는 인가되는 전압에 따라 굴절력이 조절되는 것을 특징으로 하는 안경.
  10. 제 9항에 있어서,
    상기 제어값은 상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value), 초점거리값 및 전압값 중에 하나인 것을 특징으로 하는 안경.
  11. 제 10항에 있어서,
    상기 제어부는,
    상기 깊이 값 및 시거리를 이용하여 초점거리값을 산출하고, 상기 안경의 초점거리가 상기 산출된 초점거리값으로 설정되도록 제어하는 것을 특징으로 하는 안경.
  12. 제 11항에 있어서,
    상기 제어부는,
    상기 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로 상기 초점거리값을 산출하는 것을 특징으로 하는 안경.
  13. 제 11항에 있어서,
    상기 제어부는,
    상기 산출된 초점거리값을 기초로 상기 렌즈부의 액정 화소에 인가될 전압값을 산출하고, 상기 산출된 전압값에 따라 상기 렌즈부의 액정 화소에 전압의 인가를 제어하는 것을 특징으로 하는 안경.
  14. 안경의 초점거리를 조절하기 위한 제어값을 전송하는 포맷터; 및
    상기 전송된 제어값을 기초로 자신의 초점거리를 조절하고, 상기 조절된 초점거리에 따라 좌안 시점 영상 및 우안 시점 영상을 디스플레이하기 위해 조사된 광을 굴절시키는 안경;을 포함하고,
    상기 제어값은 초점거리값 및 전압값 중에 하나인 것을 특징으로 하는 입체영상 처리 시스템.
  15. 제 14항에 있어서,
    상기 제어값은 상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value)인 것을 특징으로 하는 입체영상 처리 시스템.
  16. 제 15항에 있어서,
    상기 안경은,
    상기 깊이 값 및 시거리를 이용하여 초점거리값을 산출하고, 상기 안경의 초점거리를 상기 산출된 초점거리값으로 설정하는 것을 특징으로 하는 입체영상 처리 시스템.
  17. 삭제
  18. 제 15항에 있어서,
    상기 좌안 시점 영상 및 상기 우안 시점 영상으로 표시되는 입체영상의 깊이 값(Depth value) 및 시거리를 이용하여 상기 초점거리값을 산출하는 제어부;를 더 포함하는 것을 특징으로 하는 입체영상 처리 시스템.
  19. 제 18항에 있어서,
    상기 제어부는,
    상기 시거리의 역수, 및 상기 시거리 및 상기 깊이 값 간의 차이값의 역수 간의 차이값을 기초로 상기 초점거리값을 산출하는 것을 특징으로 하는 입체영상 처리 시스템.
  20. 제 18항에 있어서,
    상기 제어부는,
    상기 산출된 초점거리값을 기초로 상기 안경의 렌즈부에 인가될 전압에 대한 값인 전압값을 더 산출하는 것을 특징으로 하는 입체영상 처리 시스템.
KR1020100108790A 2010-10-29 2010-11-03 입체영상 처리 시스템, 입체영상 처리 방법 및 안경 KR101746539B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020100108790A KR101746539B1 (ko) 2010-11-03 2010-11-03 입체영상 처리 시스템, 입체영상 처리 방법 및 안경
PCT/KR2011/004477 WO2012057434A1 (en) 2010-10-29 2011-06-20 Stereoscopic image processing system and device and glasses
US13/882,095 US9395546B2 (en) 2010-10-29 2011-06-20 Stereoscopic image processing system and device and glasses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100108790A KR101746539B1 (ko) 2010-11-03 2010-11-03 입체영상 처리 시스템, 입체영상 처리 방법 및 안경

Publications (2)

Publication Number Publication Date
KR20120047099A KR20120047099A (ko) 2012-05-11
KR101746539B1 true KR101746539B1 (ko) 2017-06-13

Family

ID=46265978

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100108790A KR101746539B1 (ko) 2010-10-29 2010-11-03 입체영상 처리 시스템, 입체영상 처리 방법 및 안경

Country Status (1)

Country Link
KR (1) KR101746539B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004279743A (ja) * 2003-03-17 2004-10-07 Nippon Telegr & Teleph Corp <Ntt> 三次元表示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004279743A (ja) * 2003-03-17 2004-10-07 Nippon Telegr & Teleph Corp <Ntt> 三次元表示装置

Also Published As

Publication number Publication date
KR20120047099A (ko) 2012-05-11

Similar Documents

Publication Publication Date Title
KR101729556B1 (ko) 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
KR101695819B1 (ko) 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법
US9395546B2 (en) Stereoscopic image processing system and device and glasses
EP2413610B1 (en) Method and apparatus for displaying a 3-dimensional image
US8581967B2 (en) Three-dimensional (3D) display method and system
CN110234000B (zh) 远程会议方法和远程通信系统
KR101759943B1 (ko) 방송 수신기 및 3d 이미지 디스플레이 방법
KR101717787B1 (ko) 디스플레이장치 및 그의 음성신호 출력 방법
EP2532166B1 (en) Method, apparatus and computer program for selecting a stereoscopic imaging viewpoint pair
CN102918847B (zh) 显示图像的方法和设备
US20120236114A1 (en) Depth information generator for generating depth information output by only processing part of received images having different views, and related depth information generating method and depth adjusting apparatus thereof
EP2582144A2 (en) Image processing method and image display device according to the method
WO2008122838A1 (en) Improved image quality in stereoscopic multiview displays
KR101867815B1 (ko) 입체영상 처리 장치 및 입체영상의 시역 거리를 조절하기 위한 방법
Chauvier et al. Does size matter? The impact of screen size on stereoscopic 3DTV
KR100952045B1 (ko) 왜곡 없는 3차원 영상을 표시하기 위한 장치 및 방법
KR101746538B1 (ko) 입체영상 처리 시스템, 입체영상 처리 방법 및 액정 안경
KR101746539B1 (ko) 입체영상 처리 시스템, 입체영상 처리 방법 및 안경
EP2852149A1 (en) Method and apparatus for generation, processing and delivery of 3D video
US20140055564A1 (en) Apparatus and method for processing digital signal
KR101733488B1 (ko) 3차원 영상 표시 방법 및 그에 따른 3차원 영상 표시 장치
KR101758274B1 (ko) 입체영상 디스플레이 시스템, 입체영상 디스플레이 방법 및 입체영상 처리 장치
KR101728724B1 (ko) 영상 표시 방법 및 그에 따른 영상 표시 장치
KR101347744B1 (ko) 영상 처리 장치 및 방법
KR101895943B1 (ko) 셔터 안경, 셔터 안경을 제어하기 위한 방법 및 3차원 영상 처리 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant