KR20130020209A - 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법 - Google Patents

입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법 Download PDF

Info

Publication number
KR20130020209A
KR20130020209A KR1020110082688A KR20110082688A KR20130020209A KR 20130020209 A KR20130020209 A KR 20130020209A KR 1020110082688 A KR1020110082688 A KR 1020110082688A KR 20110082688 A KR20110082688 A KR 20110082688A KR 20130020209 A KR20130020209 A KR 20130020209A
Authority
KR
South Korea
Prior art keywords
image
glasses
controller
viewing
mark
Prior art date
Application number
KR1020110082688A
Other languages
English (en)
Inventor
김현석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110082688A priority Critical patent/KR20130020209A/ko
Priority to EP13177713.8A priority patent/EP2658270A3/en
Priority to EP12166628A priority patent/EP2523464A3/en
Priority to US13/468,315 priority patent/US20120287235A1/en
Priority to CN201210148757.6A priority patent/CN102780902B/zh
Publication of KR20130020209A publication Critical patent/KR20130020209A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법이 개시된다. 감지부는 입체영상 처리 장치의 주변 환경을 센싱한다. 제어부는 감지부가 센싱한 정보를 이용하여 사용자의 시청 의향에 관한 시청 의향 정보를 생성하고, 생성한 시청 의향 정보가 3차원 영상 시청을 지시하는지 여부를 확인하며, 확인 결과에 따라 3차원 영상을 디스플레이하기 위한 3차원 영상 모드로 전환을 제어한다.

Description

입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법{APPARATUS FOR PROCESSING A 3-DIMENSIONAL IMAGE AND METHOD FOR CHANGING AN IMAGE MODE OF THE SAME}
본 발명은 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법에 관한 것으로, 보다 상세하게는 입체영상을 디스플레이하는 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법에 관한 것이다.
최근 3 차원 영상을 표현하는 디스플레이 기술이 다양한 분야에서 연구 및 활용되고 있다. 특히 3차원 영상을 디스플레이하는 기술을 활용하여, 3차원 영상을 디스플레이하는 전자 장치가 주목을 받고 있다.
3 차원 영상을 디스플레이하는 기술은 양안의 시차로 관찰자가 입체감을 느끼게 되는 양안 시차의 원리를 이용하는 것으로, 안경 방식(shutter glass method), 무안경 방식, 완전 3차원 방식 등으로 구분된다. 안경 방식에는 사용자가 별도의 편광 안경과 같은 별도의 장비를 착용해야 하는 문제점이 있으며, 무안경 방식에는 사용자가 특정 위치에서만 3차원 영상을 볼 수 있는 문제점이 있다. 따라서, 안경 방식 및 무안경 방식에는 여러 문제점들이 존재하므로, 최근에는 완전 3차원 방식에 대한 연구가 활발히 진행되고 있다.
본 발명이 이루고자하는 기술적 과제는 사용자의 시청 의향에 맞추어 영상 모드를 전환할 수 있는 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법을 제공하는데 있다.
본 발명이 이루고자하는 다른 기술적 과제는 시 거리에 맞추어 적절할 입체영상을 디스플레이할 수 있는 입체영상 처리 장치 및 입체영상 처리 방법을 제공하는데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법은, 입체영상 처리 장치의 주변 환경을 센싱하는 단계, 상기 센싱된 정보를 이용하여 사용자의 시청 의향에 관한 시청 의향 정보를 생성하는 단계, 상기 생성된 시청 의향 정보가 3차원 영상 시청을 지시하는지 여부를 확인하는 단계 및 상기 확인 결과에 따라 3차원 영상을 디스플레이하기 위한 3차원 영상 모드로 전환하는 단계를 포함할 수 있다. 상기 센싱된 정보는, 촬상된 영상, 3D용 안경으로부터 전송된 신호 및 상기 3D용 안경이 방출하는 빔 중 적어도 하나를 포함할 수 있다.
시청 의향 정보를 생성하는 단계는, 촬상된 영상에서 3D용 안경의 마크가 검출되었는지 여부를 확인하는 단계를 포함할 수 있다. 상기 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성될 수 있다.
시청 의향 정보를 생성하는 단계는, 상기 3D용 안경이 상기 사용자에 의해 착용된 상태인지를 확인하는 단계를 더 포함할 수 있다. 여기서 상기 3D용 안경과 상기 사용자의 안구와의 상대적 위치를 기초로 상기 착용된 상태가 확인될 수 있다.
상기 3차원 영상 모드는 수신된 2차원 영상을 3차원 영상으로 디스플레이하는 제1 3차원 영상 모드 및 수신된 3차원 영상을 3차원 영상으로 디스플레이하는 제2 3차원 영상 모드를 포함할 수 있다. 상기 방법은 디스플레이되는 영상과 대응하는 3차원 영상이 존재하는지 여부 확인하는 단계 및 상기 확인 결과를 기초로 제1 3차원 영상 모드 및 제2 3차원 영상 모드 중 하나를 상기 3차원 영상 모드로 결정하는 단계를 더 포함할 수 있다.
상기 방법은, 상기 확인 결과에 따라 2차원 영상을 디스플레이하기 2차원 영상 모드로 전환하는 단계를 더 포함할 수 있다.
상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 처리 장치는, 입체영상 처리 장치의 주변 환경을 센싱하는 감지부, 및 상기 센싱된 정보를 이용하여 사용자의 시청 의향에 관한 시청 의향 정보를 생성하고, 상기 생성된 시청 의향 정보가 3차원 영상 시청을 지시하는지 여부를 확인하며, 상기 확인 결과에 따라 3차원 영상을 디스플레이하기 위한 3차원 영상 모드로 전환을 제어하는 제어부를 포함할 수 있다. 상기 센싱된 정보는, 촬상된 영상, 3D용 안경으로부터 전송된 신호 및 상기 3D용 안경이 방출하는 빔 중 적어도 하나를 포함할 수 있다.
상기 제어부는, 촬상된 영상에서 3D용 안경의 마크가 검출되었는지 여부를 확인하고, 상기 마크가 검출된 경우에는, 3차원 영상 시청을 지시하는 시청 의향 정보를 생성할 수 있다. 상기 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성될 수 있다.
상기 제어부는, 상기 검출된 마크가 새겨진 안경이 사용자에 의해 착용된 상태인지를 더 확인하고, 상기 안경이 착용된 상태인 경우에는, 3차원 영상 시청을 지시하는 시청 의향 정보를 생성할 수 있다.
상기 제어부는, 상기 3D용 안경과 상기 사용자의 안구와의 상대적 위치를 기초로 상기 착용된 상태를 확인할 수 있다.
상기 3차원 영상 모드는 수신된 2차원 영상을 3차원 영상으로 디스플레이하는 제1 3차원 영상 모드 및 수신된 3차원 영상을 3차원 영상으로 디스플레이하는 제2 3차원 영상 모드를 포함할 수 있다. 상기 제어부는, 디스플레이되는 영상과 대응하는 3차원 영상이 존재하는지 여부 확인하고, 상기 확인 결과를 기초로 제1 3차원 영상 모드 및 제2 3차원 모드 중 하나를 상기 3차원 영상 모드로 결정할 수 있다.
상기 제어부는, 상기 확인 결과에 따라 2차원 영상을 디스플레이하기 위한 2차원 영상 모드로 전환을 제어할 수 있다.
상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 처리 방법은 촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하는 단계, 상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하는 단계, 상기 거리값을 기초로 깊이 설정값을 산출하는 단계 및 상기 산출된 깊이 설정값을 기초로 입체영상의 깊이값을 조절하는 단계를 포함할 수 있다. 여기서, 상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치할 수 있다. 또한 상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 그리고, 상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리일 수 있다.
상기 입체영상 처리 방법은, 상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하는 단계를 더 포함할 수 있고, 상기 깊이 설정값을 산출하는 단계는, 상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출하는 단계를 포함할 수 있다. 여기서 상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출될 수 있다.
또한 상기 입체영상 처리 방법은, 상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하는 단계를 더 포함하고, 상기 확인 결과에 따라 상기 입체영상의 깊이값을 조절하는 단계의 수행 여부가 결정될 수 있다. 상기 화면 방향인지 확인하는 단계는, 상기 각도값이 사전에 설정된 각도 이상인지를 확인하는 단계를 더 포함할 수 있다.
상기 깊이 설정값을 산출하는 단계는, 상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하는 단계 및 상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출하는 단계를 포함할 수 있다. 상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출될 수 있다.
상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 처리 장치는, 입체영상을 수신하는 수신부 및 촬상된 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하고, 상기 검출된 제1 마크 및 상기 검출된 제2 마크 간의 거리값을 산출하며, 상기 산출된 거리값을 기초로 깊이 설정값을 산출하고, 상기 산출된 깊이 설정값을 기초로 상기 수신된 입체영상의 깊이값의 조절을 제어하는 제어부를 포함할 수 있다. 여기서, 상기 제1 마크 및 상기 제2 마크는 각각 상기 안경의 좌안 안구테 및 우안 안구테에 위치할 수 있다. 또한 상기 제1 마크 및 상기 제2 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 또한, 상기 거리값은 상기 제1 마크 및 상기 제2 마크 간의 픽셀거리일 수 있다.
상기 제어부는, 상기 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하고, 상기 거리값 및 상기 각도값을 기초로 상기 깊이 설정값을 산출할 수 있다. 상기 각도값은 상기 모양의 가로 크기, 가로 크기 및 세로 크기의 비율 중 적어도 하나를 기초로 산출될 수 있다.
상기 제어부는, 상기 각도값을 기초로 상기 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인하고, 상기 확인 결과에 따라 상기 입체영상의 깊이값의 조절을 제어할 수 있다. 상기 제어부는, 상기 각도값이 사전에 설정된 각도보다 작으면 상기 사용자의 시선 방향이 화면 방향이라고 확인할 수 있다.
상기 제어부는, 상기 거리값 및 상기 각도값을 이용하여 시 거리를 산출하고, 상기 산출된 시 거리를 기초로 상기 깊이 설정값을 산출할 수 있다. 상기 깊이 설정값은 기준 시 거리 및 상기 산출된 시 거리 간의 비율을 기초로 산출될 수 있다.
본 발명에 의하면, 입체영상 처리 장치의 주변 환경을 센싱하여 센싱된 정보를 이용하여 사용자 시청 의향을 파악하여 영상 모드를 전환하므로, 사용자의 시청 의향에 맞추어 영상 모드를 전환할 수 있고, 사용자는 별도로 영상 모드를 조절하지 않고 편리하게 3차원 영상을 시청할 수 있다. 또한 사용자의 상황에 맞추어 적절한 차원으로 영상을 디스플레이할 수 있어, 사용자의 시청 만족감을 높일 수 있고, 사용자의 편안함을 증대시킬 수 있다.
또한 안경에 새겨진 마크를 이용하여 시 거리를 감지하므로, 정확하게 사용자의 시 거리를 감지할 수 있고, 감지된 시 거리에 맞추어 적절하게 입체영상의 깊이값을 조절하므로, 사용자는 입체영상을 편하게 시청할 수 있다.
도 1은 본 발명에 따른 입체영상 처리 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 3은 안경의 마크의 실시예들을 도시한 도면,
도 4는 마크가 형성된 안경의 일실시예를 도시한 도면,
도 5는 촬상된 영상 프레임에서 추출된 안경의 마크 간의 간격을 개략적으로 도시한 도면,
도 6은 거리 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 7은 촬상된 영상 프레임에서 추출된 안경의 마크의 모양을 도시한 도면,
도 8은 각도 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 9는 각도 참조 테이블에 대한 바람직한 다른 실시예를 도시한 도면,
도 10은 깊이값 설정 참조 테이블에 대한 바람직한 일실시예를 도시한 도면,
도 11은 양안시차 방식을 도시한 도면,
도 12는 양안시차의 크기에 따른 물체의 거리감을 도시한 도면,
도 13은 입체영상의 깊이값을 조절하는 방법의 일실시예를 설명하기 위한 도면,
도 14는 영상에 포함된 오브젝트의 좌표를 도시한 도면,
도 15는 도 14에 도시된 오브젝트의 변위가 변환된 후에 오브젝트의 좌표를 도시한 도면,
도 16은 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 일실시예를 도시한 도면,
도 17은 3D용 안경이 사용자에 의해 착용된 상태가 촬상된 영상 프레임의 일실시예를 도시한 도면,
도 18은 3D용 안경의 인식을 알리는 메시지의 일실시예를 도시한 도면,
도 19는 3차원 영상 모드로 전환 여부를 묻는 메시지의 일실시예를 도시한 도면,
도 20은 본 발명에 따른 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면,
도 21은 시청 의향 정보 생성 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면,
도 22는 3차원 영상 모드 전환 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면, 그리고,
도 23은 본 발명에 따른 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면이다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
도 1은 본 발명에 따른 입체영상 처리 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명에 따른 입체영상 처리 장치(100)는 수신부(101), 신호 처리부(140), 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180) 및 제어부(190)를 포함할 수 있다. 일부 실시예로, 입체영상 처리 장치(100)는 촬영 장치(90)를 더 포함할 수 있다. 입체영상 처리 장치(100)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있고 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.
수신부(101)는 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신한다. 수신부(101)는 상기 영상 데이터에 대한 방송 정보를 더 수신할 수 있다. 영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 영상 데이터는 적어도 하나의 좌안 시점 영상 데이터 및 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다.
수신부(101)는 튜너부(110), 복조부(120), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(130)를 포함할 수 있다.
튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
복조부(120)에서 출력한 스트림 신호는 신호처리부(140)로 입력될 수 있다.
이동통신부(115)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
외부 신호 수신부(135)는 외부 장치와 입체영상 처리 장치(100)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미할 수 있고, USB 메모리 또는 USB 하드 디스크 등의 저장 장치일 수 있다. 입체영상 처리 장치(100)는 외부 신호 수신부(135)로부터 수신된 영상 신호 및 음성 신호가 디스플레이되도록 제어할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다.
또한 외부 장치는 촬영 장치(90)일 수 있다. 촬영 장치(90)는 복수의 카메라를 포함할 수 있다. 촬영 장치(90)는 사람을 촬상할 수 있고 사람이 촬상된 영상 프레임을 입체영상 처리 장치(100)로 전송할 수 있다.
신호처리부(140)는 복조부(210)가 출력한 스트림 신호를 역다중화하고 역다중화된 신호에 신호 처리 등을 수행한 후, 디스플레이(150)에 영상을 출력하고, 음성 출력부(160)로 음향(161)을 출력한다. 또한 신호 처리부(140)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 영상 데이터, 음성 데이터 및 방송 데이터를 수신할 수 있다.
신호 처리부(140)는 제어부(190)로부터 깊이 설정값을 지시하는 신호를 수신할 수 있다. 그리고 신호 처리부(140)는 수신한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.
일부 실시예로, 신호 처리부(140)는 영상 데이터에 포함된 오브젝트의 변위값을 산출하고, 깊이 설정값을 이용하여 산출된 변위값을 변경할 수 있다. 그리고 신호 처리부(140)는 변경된 변위값에 따라 상기 오브젝트의 변위값이 변경되도록 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.
디스플레이(150)는 영상(152)을 디스플레이한다. 여기서 영상(152)은 신호 처리부(140)가 재구성한 영상 데이터가 디스플레이되는 것일 수 있다. 즉 영상 데이터는 깊이값이 조절된 입체영상 데이터일 수 있다. 또한, 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 디스플레이(150)는 입체영상 처리 장치의 사용자와 운영 체제 또는 운영 체제 상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다.
음성 출력부(160)는 신호 처리부(140) 및 제어부(190)로부터 음성 데이터를 수신하고 수신한 음성 데이터가 재생된 음향(161)을 출력할 수 있다.
입력장치(170)는 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있고 터치패드일 수 있다. 터치 스크린은 디스플레이(150)와 일체로 되어 있거나 별개의 구성요소일 수 있다. 터치 스크린이 디스플레이(150)의 전방에 배치됨에 따라 사용자는 GUI(153)를 직접 조작할 수 있다. 예를 들어, 사용자는 단지 제어될 객체 상에 그의 손가락을 올려놓을 수 있다.
저장부(180)는 일반적으로 입체영상 처리 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 예로서, 저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 입체영상 처리 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함한다.
저장부(180)는 안경의 마크에 대한 정보, 거리 참조 테이블, 각도 참조 테이블 및 깊이값 설정 정보 참조 테이블을 저장할 수 있다. 여기서 안경의 마크에 대한 정보는 마크의 이미지 데이터, 마크의 색상 정보 및 마크에 대한 설명 정보를 포함할 수 있다.
제어부(190)는 명령어를 실행하고 입체영상 처리 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 입체영상 처리 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.
제어부(190)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.
제어부(190)는 사용자 조치(User Action)를 인식하고 인식한 사용자 조치에 기초하여 입체영상 처리 장치(100)를 제어할 수 있다. 여기서 사용자 조치는 입체영상 처리 장치 또는 리모컨의 물리적인 버튼의 선택, 터치 스크린 디스플레이면상의 소정의 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치로 촬영된 영상으로부터 인식되는 소정의 제스처의 실시 및 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 외부 신호 수신부(135)는 리모컨의 물리적인 버튼을 선택하는 사용자 조치에 대한 신호를 리모컨을 통해 수신할 수 있다. 제스처는 터치 제스처와 공간 제스처를 포함할 수 있다.
입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.
사용자가 하나 이상의 제스처를 행할 때, 입력장치(170)는 제스처 정보를 제어부(190)로 전달한다. 저장부(180)로부터의 명령어, 보다 상세하게는 제스처 작동 프로그램(181)을 사용하여, 제어부(190)는 제스처(171)를 해석하고 저장부(180), 디스플레이(150), 음성 출력부(160), 신호 처리부(140), 네트워크 인터페이스부(130) 및 입력장치(170) 등의 입체영상 처리 장치(100)의 서로 다른 컴포넌트를 제어한다. 제스처(171)는 저장부(180)에 저장된 애플리케이션에서의 동작을 수행하고, 디스플레이(150) 상에 나타난 GUI 객체를 수정하며, 저장부(180)에 저장된 데이터를 수정하고, 네트워크 인터페이스부(130), 신호 처리부(140)에서의 동작을 수행하는 명령으로서 식별될 수 있다.
제어부(190)는 시 거리를 기초로 깊이 설정값을 결정할 수 있다. 제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출하고, 검출한 제1 마크 및 제2 마크 간의 거리값을 이용하여 시 거리를 산출할 수 있다. 또한 제어부(190)는 검출한 제1 마크 및 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출하고, 산출한 각도값을 기초로 산출한 시 거리를 보정할 수 있다. 여기서 보정 전의 시 거리는 사용자 거리값으로 명명되고, 보정 후의 시 거리는 시거리로 명명될 수 있다.
일부 실시예로, 제어부(190)는 결정한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다. 일부 실시예로, 제어부(190)는 신호 처리부(140)로 하여금 결정한 깊이 설정값에 따라 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성하도록 제어할 수 있다.
도 2는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 2를 참조하면, 신호 처리부(140)는 역다중화부(210), 오디오 디코더(220), 비디오 디코더(230), 영상 가공부(240), 스케일러(260), 믹서(270) 및 포맷터(280)를 포함할 수 있다.
역다중화부(210)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 입력부(135)로부터 스트림 신호를 수신할 수 있고, 역다중화부(210)는 수신된 스트림 신호를 영상 데이터, 음성 데이터 및 데이터로 역다중화하여 각각 비디오 디코더(230), 오디오 디코더(220) 및 제어부(190)로 출력할 수 있다.
오디오 디코더(220)는 역다중화부(210)로부터 음성 데이터를 수신하고, 수신된 음성 데이터를 복원하여 복원된 데이터를 스케일러(260) 또는 음성 출력부(160)로 출력할 수 있다.
비디오 디코더(230)는 역다중화부(210)로부터 영상 데이터를 수신하고, 수신된 영상 데이터를 복원하여 영상 가공부(240)에 출력한다. 여기서 영상 신호는 입체영상 신호를 포함할 수 있다. 비디오 디코더(230) 및 영상 가공부(240)는 하나의 모듈로 구성될 수 있다. 영상 가공부(240)가 수행하는 역할을 제어부(190)가 대신 수행하는 경우에는, 비디오 디코더(230)는 복원한 영상 데이터를 제어부(190)로 출력할 수 있다.
영상 가공부(240)는 깊이 설정값에 따라 복원된 영상 데이터에 포함된 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다. 영상 가공부(240)는 변위 산출부(245), 변위 변경부(250) 및 영상 재구성부(255)를 포함할 수 있다.
변위 산출부(245)는 영상 데이터에 포함된 오브젝트의 변위값을 산출한다.
변위 변경부(250)는 깊이 설정값을 이용하여 변위 산출부(245)가 산출한 변위값을 변경한다. 여기서, 상기 변위 변경부는, 깊이 설정값 및 산출된 변위값을 기초로 상기 변경된 변위값을 산출할 수 있다.
영상 재구성부(255)는 변위 변경부(250)가 변경한 변위값에 따라 상기 오브젝트의 변위값이 변경되도록 영상 데이터의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.
스케일러(260)는 비디오 디코더(230), 영상 가공부(240) 및 제어부(190)에서 처리된 영상 데이터 및 오디오 디코더(220)에서 처리된 음성 데이터를 디스플레이(150) 또는 스피커(미도시)를 통하여 출력하기 위한 적절한 크기의 신호로 크기 조절(스케일링: scaling)한다. 구체적으로, 스케일러(260)는 입체영상을 수신하여 디스플레이(150)의 해상도 또는 소정 화면비(aspect ratio)에 맞도록 스케일링(scaling)한다. 디스플레이(150)는 제품 사양 별로 소정 해상도, 예를 들어 720x480 포맷, 1024x768 등을 갖는 영상 화면을 출력하도록 제작될 수 있다. 그에 따라서, 스케일러(260)는 다양한 값으로 입력될 수 있는 입체영상의 해상도를 해당 디스플레이의 해상도에 맞춰 변환할 수 있다.
믹서(270)는 스케일러(260) 및 제어부(190)의 출력을 믹싱하여 출력한다.
포맷터(280)는 입체영상을 구현하기 위하여 변환된 영상 데이터를 디스플레이(150)로 출력한다. 입체영상 디스플레이 방식이 패턴 리타드 방식인 경우에는, 포맷터(280)는 수신된 입체영상 프레임을 좌안 시점 영상 데이터 및 우아 시점 영상 데이터가 수평 또는 수직 방향으로 교번적으로 배열된 영상 프레임으로 샘플링하고, 샘플링한 영상 프레임을 출력할 수 있다.
입체영상 디스플레이 방식이 셔터 글라스 방식인 경우에는, 포맷터(280)는 출력되는 입체영상 신호에 동기 신호(Sync signal)를 생성하여 안경(201)으로 전송할 수 있다. 포맷터(280)는 동기 신호의 전송을 위해 적외선 출력부(미도시)를 포함할 수 있다. 여기서, 동기 신호는 입체영상 신호에 따른 좌안 시점 영상 또는 우안 시점 영상의 디스플레이 시점과 셔터 안경(201)의 좌안 렌즈 또는 우안 렌즈의 개폐 시점을 동기시키기 위한 신호이다.
도 3은 안경의 마크의 실시예들을 도시한 도면이다.
도 3을 참조하면, 안경의 마크는 마크(310), 마크(320) 및 마크(330) 중에 하나일 수 있다. 안경의 마크는 도 3에 도시된 실시예에 한정되지 않으며, 촬상된 영상 프레임의 포함된 안경의 피사체 상에서 식별가능한 마크는 본 발명의 안경의 마크로 사용가능하다. 또한 안경의 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성된 것일 수 있다. 이에 따라 본 발명에 따른 입체영상 처리 장치(100)는 어두운 환경에서도 사용자의 위치를 정확하게 추적할 수 있고, 추적된 사용자의 위치에 맞추어 최적의 깊이값을 갖는 입체영상을 디스플레이할 수 있다.
도 4는 마크가 형성된 안경의 일실시예를 도시한 도면이다.
도 4를 참조하면, 안경의 마크는 안경(400)에 표시될 수 있고, 동일한 형태의 두 개의 마크 또는 서로 다른 형태의 두 개의 마크가 안경(400)에 표시될 수 있다.
일예로, 안경의 마크로 마크(410) 및 마크(420)가 안경(400)에 표시될 수 있다. 마크(410)는 안경(400)의 우안 안구테에 위치하고, 마크(420)는 안경(400)의 좌안 안구테에 위치한다.
도 5는 촬상된 영상 프레임에서 추출된 안경의 마크 간의 간격을 개략적으로 도시한 도면이다.
도 5를 참조하면, 제어부(190)는 촬상된 영상 프레임(500)에서 제1 마크(510) 및 제2 마크(520)를 검출할 수 있다. 제어부(190)는 영상 프레임(500)에서 마크의 칼라 정보를 이용하여 제1 마크(510) 및 제2 마크(520)를 인식할 수 있다.
또한 제어부(190)는 제1 마크(510) 및 제2 마크(520) 간의 거리값(530)을 산출할 수 있다. 여기서 거리값(530)은 제1 마크(510) 및 제2 마크(520) 간의 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다.
또한 제어부(190)는 거리값(530)을 기초로 사용자 거리값을 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 1로 거리값(530) x의 사용자 거리값 y을 산출할 수 있다.
Figure pat00001
여기서, a는 기준 거리, c는 기준 거리일 때의 거리값을 지시하는 상수이고, b는 거리값(530)의 변화량에 따른 사용자 거리값의 변화의 비율을 지시하는 상수이다. 상수 a, b, c는 제조시에 결정될 수 있다.
도 6은 거리 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.
도 6을 참조하면, 제어부(190)는 거리 참조 테이블(600)을 이용하여 거리값(530)에 대한 사용자 거리값을 산출할 수 있다. 제어부(190)는 거리 참조 테이블(600)에서 거리값(530)과 연관되는 사용자 거리값을 검출할 수 있다. 예를 들면, 거리값(530)이 100픽셀일 때, 제어부(190)는 거리 참조 테이블(600)에서 100픽셀과 매핑된 사용자 거리값 2.2m를 검출할 수 있다. 또한 거리값(530)이 150픽셀일 때, 제어부(190)는 거리 참조 테이블(600)에서 150픽셀과 매핑된 사용자 거리값 2.0m를 산출할 수 있다.
만일 거리값(530)과 동일한 거리값이 거리 참조 테이블(600)에 존재하지 않는 경우에는, 제어부(190)는 거리값(530)과 가까운 거리값에 연관되는 사용자 거리값을 검출하고, 검출한 거리값을 이용하여 거리값(530)의 사용자 거리값을 산출할 수 있다. 거리값(530)이 거리 참조 테이블(600)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 2를 이용하여 거리값(530) x의 사용자 거리값 y을 산출할 수 있다.
Figure pat00002
여기서, x_low는 x 보다 작은 값 중 거리 참조 테이블(600)에 존재하는 거리값이고, x_high는 x 보다 큰 값 중 거리 참조 테이블(600)에 존재하는 거리값이며, y_high는 x_high의 사용자 거리값이고, y_low는 x_low의 사용자 거리값이다. 일예로, 거리값(530)이 125픽셀인 경우에는, 제어부(190)는 x_low로 100픽셀, x_high로 150픽셀을 선택할 수 있고, y_high로 2.0m를 검출하고 y_low로 2.2m를 걸출할 수 있다. 결과적으로 제어부(190)는 사용자 거리값을 2.1m로 산출할 수 있다.
도 7은 촬상된 영상 프레임에서 추출된 안경의 마크의 모양을 도시한 도면이다.
도 7을 참조하면, 제어부(190)는 촬영된 영상 프레임(700)에서 하나의 마크(710)를 검출할 수 있다. 여기서 제어부(190)는 마크(710)의 칼라 정보를 이용하여 마크(710)를 인식할 수 있다. 마크(710)의 칼라 정보는 사전에 저장부(180)에 저장될 수 있다.
제어부(190)는 마크의 가로 간격(711)을 산출할 수 있다. 여기서 가로 간격(711)은 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다. 제어부(190)는 가로 간격(711)을 기초로 각도값을 산출할 수 있다.
제어부(190)는 마크의 세로 간격(712)을 산출할 수 있다. 여기서 세로 간격(712)은 픽셀 거리일 수 있고, 미터법에 따른 길이일 수 있다. 제어부(190)는 가로 간격(711) 및 세로 간격(712)을 기초로 각도값을 산출할 수 있다.
도 8은 각도 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.
도 8을 참조하면, 제어부(190)는 각도 참조 테이블(800)을 이용하여 가로 간격(711)에 대한 각도값을 산출할 수 있다. 제어부(190)는 각도 참조 테이블(800)에서 가로 간격(711)과 연관되는 각도값을 검출할 수 있다. 일예로, 가로 간격(711)이 10픽셀일 때, 제어부(190)는 각도 참조 테이블(800)에서 10픽셀과 매핑된 각도값 60도를 검출할 수 있다. 또한 가로 간격(711)이 15픽셀일 때, 제어부(190)는 각도 참조 테이블(800)에서 15픽셀과 매핑된 각도값 50도를 산출할 수 있다.
만일 가로 간격(711)과 동일한 가로 간격이 각도 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 가로 간격(711)과 가까운 가로 간격에 연관되는 각도값을 검출하고, 검출한 가로 간격을 이용하여 가로 간격(711)의 각도값을 산출할 수 있다. 일실시예로, 가로 간격(711)이 거리 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 3을 이용하여 가로 간격(711) x의 각도값 y을 산출할 수 있다.
Figure pat00003
여기서, x_low는 x 보다 작은 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이고, x_high는 x 보다 큰 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이며, y_high는 x_high의 각도값이고, y_low는 x_low의 각도값이다. 일예로, 가로 간격(711)이 12.5픽셀인 경우에는, 제어부(190)는 x_low로 10픽셀, x_high로 15픽셀을 선택할 수 있고, y_high로 50도를 검출하고 y_low로 60도를 걸출할 수 있다. 결과적으로 제어부(190)는 각도값을 55도를 산출할 수 있다.
또한 제어부(190)는 각도값에 연관된 위치각 계수를 산출할 수 있다. 일예의 산출 방법으로, 제어부(190)는 각도 참조 테이블(800)을 이용하여 위치각 계수를 산출할 수 있다. 예를 들어, 산출된 각도값이 50도이면, 제어부(190)는 위치각 계수로 2.0을 산출한다.
또한 제어부(190)는 각도 참조 테이블(800)을 이용하여 가로 간격(711)에 연관된 위치각 계수를 산출할 수 있다. 예를 들어, 가로 간격(711)이 10픽셀이면, 제어부(190)는 위치각 계수로 2.2를 산출할 수 있다. 만일 산출된 가로 간격(711)과 연관된 위치각 계수가 각도 참조 테이블(800)에 존재하지 않는 경우에는, 제어부(190)는 다음의 수학식 4를 이용하여 가로 간격(711)의 위치각 계수를 산출할 수 있다.
Figure pat00004
여기서, x_low는 x 보다 작은 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이고, x_high는 x 보다 큰 값 중 각도 참조 테이블(800)에 존재하는 가로 간격이며, y_high는 x_high의 위치각 계수이고, y_low는 x_low의 위치각 계수이다. 일예로, 비율이 12.5픽셀인 경우에는, 제어부(190)는 x_low로 10픽셀, x_high로 15픽셀을 선택할 수 있고, y_high로 2.0을 검출하고 y_low로 2.2를 걸출할 수 있다. 결과적으로 제어부(190)는 위치각 계수로 2.1을 산출할 수 있다.
도 9는 각도 참조 테이블에 대한 바람직한 다른 실시예를 도시한 도면이다.
도 9를 참조하면, 제어부(190)는 각도 참조 테이블(900)을 이용하여 비율에 대한 각도값을 산출할 수 있다. 여기서 비율은 가로 간격(711) 및 세로 간격(712)의 비이다. 즉 비율은 다음의 수학식 5로 산출될 수 있다.
Figure pat00005
여기서, H는 가로 간격(711)이고, V는 세로 간격(712)이며, Y는 비율이다.
제어부(190)는 각도 참조 테이블(900)에서 산출한 비율과 연관되는 각도값을 검출할 수 있다. 일예로, 비율이 0.5일 때, 제어부(190)는 각도 참조 테이블(900)에서 0.5와 매핑된 각도값 60도를 검출할 수 있다. 또한 비율이 0.64일 때, 제어부(190)는 각도 참조 테이블(900)에서 0.64와 매핑된 각도값 50도를 산출할 수 있다.
또한 제어부(190)는 각도 참조 테이블(900)을 이용하여 위치각 계수를 산출할 수 있다. 예를 들어, 산출된 각도값이 50도이면, 제어부(190)는 위치각 계수로 2.0을 산출한다. 제어부(190)는 각도 참조 테이블(900)을 이용하여 비율과 연관된 위치각 계수를 산출할 수 있다. 예를 들어, 산출한 비율이 0.98일 때, 제어부(190)는 위치각 계수로 1.2를 산출할 수 있다.
제어부(190)는 사용자 거리값 및 위치각 계수를 기초로 시 거리를 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 6을 기초로 시 거리 y를 산출할 수 있다.
Figure pat00006
여기서, a는 위치각 계수이고, b는 사용자 거리값이다.
또한 제어부(190)는 사용자 거리값 및 각도값을 기초로 시 거리를 산출할 수 있다. 일부 실시예로, 제어부(190)는 다음의 수학식 7을 기초로 시 거리 y를 산출할 수 있다.
Figure pat00007
여기서, a는 사용자 거리값이고, θ는 각도값이다.
제어부(190)는 산출한 시 거리를 기초로 깊이 설정값을 산출할 수 있다.
도 10은 깊이값 설정 참조 테이블에 대한 바람직한 일실시예를 도시한 도면이다.
도 10을 참조하면, 제어부(190)는 깊이값 설정 참조 테이블(1000)을 이용하여 산출한 시 거리에 적합한 깊이 설정값을 산출할 수 있다. 예를 들면, 제어부(190)는 산출한 시 거리가 기준 거리 1.4인 경우에는, 깊이 설정값으로 0을 산출할 수 있다. 또한 제어부(190)는 산출한 시 거리가 1m인 경우에는, 깊이 설정값으로 -2를 산출할 수 있다. 그리고 제어부(190)는 산출한 시 거리가 2m인 경우에는, 깊이 설정값으로 3을 산출할 수 있다.
산출한 시 거리가 특정 거리 이하인 경우에는, 제어부(190)는 깊이 설정값으로 0을 산출할 수 있다. 즉 특정 거리 이하인 경우에는, 제어부(190)는 입체영상의 깊이값을 조절하지 않을 수 있다.
또한 제어부(190)는 각도값을 기초로 사용자의 시선 방향이 화면 방향인지를 확인할 수 있다. 즉 제어부(190)는 각도값이 사전에 설정된 값 이상인 경우에는, 사용자의 시선 방향이 화면 방향이 아니라고 판단할 수 있고, 각도값이 사전에 설정된 값 이하인 경우에는, 사용자의 시선 방향이 화면 방향이라고 판단할 수 있다.
제어부(190)는 시선 방향의 확인 결과에 따라 깊이 설정값을 0으로 산출할 수 있고, 입체영상의 깊이값을 조절하지 않을 수 있다. 즉 각도값이 70도 내지 90도인 경우에는, 제어부(190)는 깊이 설정값을 0으로 산출할 수 있다. 또한 각도값이 70도 내지 90도인 경우에는, 제어부(190)는 입체영상의 깊이값을 조절되지 않도록 제어할 수 있다.
제어부(190)는 산출한 깊이 설정값을 기초로 입체영상의 깊이값을 조절할 수 있다.
일부 실시예로, 제어부(190)는 시 거리 대신에 사용자 거리값을 기초로 깊이 설정값을 산출할 수 있다. 즉 제어부(190)는 깊이값 설정 참조 테이블(1000)을 이용하여 산출한 사용자 거리값에 적합한 깊이 설정값을 산출할 수 있다. 예를 들면, 제어부(190)는 산출한 사용자 거리값이 기준 거리 1.4인 경우에는, 깊이 설정값으로 0을 산출할 수 있고, 산출한 사용자 거리값이 1m인 경우에는, 깊이 설정값으로 -2를 산출할 수 있다.
도 11은 양안시차 방식을 도면이다.
도 11을 참조하면, 양안시차 방식은 양안 카메라 등으로 촬상된 적어도 하나의 좌안 시점 영상(1101) 및 우안 시점 영상(1102)을 시청자의 양 눈(1121, 1122)에 각각 보여줌으로써 공간감 또는 입체감을 제공하는 3차원 디스플레이 방식이다. 좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 양안 시차에 따라 깊이값이 달라지고 깊이값(Depth value)에 따라 시청자에게 제공되는 공간감 또는 입체감이 달라진다. 여기서 깊이값은 3차원 디스플레이 표면(1130)에서부터 표시된 3차원 영상(1113)까지의 거리이다.
좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 간격이 좁을수록 깊이값이 작아져, 좌안(1121) 및 우안(1122)로부터 먼 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 작아질 수 있다. 좌안 시점 영상(1101) 및 우안 시점 영상(1102)의 간격이 넓을수록 깊이값이 커져, 좌안(1121) 및 우안(1122)으로부터 가까운 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 커질 수 있다.
도 12는 양안시차의 크기에 따른 물체의 거리감을 도시한 도면이다.
도 12를 참조하면, 멀리 있는 물체(1210)를 양안으로 볼 때 좌안에 맺히는 상(1211) 및 우안에 맺히는 상(1212)의 간격이 좁아짐으로, 멀리 있는 물체(1210)를 볼 때의 양안 시차는 작다. 따라서 입체영상의 양안 시차를 작게 조절하여, 입체영상(1113)을 멀리 보이게 할 수 있고 입체영상(1113)의 깊이값이 작아지도록 조절할 수 있다.
가까이에 있는 물체(1220)를 양안으로 볼 때 좌안에 맺히는 상(1221) 및 우안에 맺히는 상(1222)의 간격이 넓어짐으로, 가까이에 있는 물체(1220)를 볼 때의 양안 시차는 크다. 즉 물체(1220)의 양안 시차는 물체(1210)의 양안 시차보다 크다. 따라서 입체영상의 양안 시차를 크게 조절하여, 입체영상(1113)을 가깝게 보이게 할 수 있고 입체영상(1113)의 깊이값이 커지도록 조절할 수 있다.
도 13은 입체영상의 깊이값을 조절하는 방법의 일실시예를 설명하기 위한 도면이다.
도 13을 참조하면, 입체영상 처리 장치(100)는 입체영상(1300) 내의 물체(1310)의 양안 시차를 작게 하여 입체영상(1300)의 깊이값을 작게 할 수 있다. 즉 물체(1310)의 양안 시차를 더욱 작게 조절하여 물체를 원래의 거리보다 시청자에게 더욱 멀게 보이게 함으로써, 입체영상(1300)의 깊이값을 작게 할 수 있다.
또한 입체영상 처리 장치(100)는 입체영상(1300) 내의 물체(1320)의 양안 시차를 크게 하여 입체영상(1300)의 깊이값을 크게 할 수 있다. 즉 물체(1320)의 양안 시차를 더욱 크게 조절하여 물체를 원래의 거리보다 시청자에게 더욱 가깝게 보이게 함으로써, 입체영상(1300)의 값이값을 크게 할 수 있다.
도 14는 영상에 포함된 오브젝트의 좌표를 도시한 도면이다.
도 14를 참조하면, 입체영상이 피사체의 좌표를 알 수 있는 벡터 그래픽으로 들어올 경우에는, 피사체의 좌표는 수학식 8 및 수학식 9에 따라 표시될 수 있다.
Figure pat00008
Figure pat00009
오브젝트 거리
Figure pat00010
는 오브젝트의 좌안 오브젝트의 위치와 상기 오브젝트의 우안 오브젝트의 위치의 차이를 의미하며, 오브젝트 간의 거리를 다음의 수학식 10으로 나타내질 수 있다. 여기서 좌안 오브젝트는 좌안 시점 영상 데이터에 포함된 오브젝트 또는 상기 오브젝트의 이미지를 표시하는 좌표를 의미하고, 우안 오브젝트는 우안 시점 영상 데이터에 포함된 오브젝트 또는 상기 오브젝트의 이미지를 표시하는 좌표를 의미한다. 즉 오브젝트(1410)의 좌안 오브젝트는 오브젝트(1411)이고 오브젝트(1410)의 우안 오브젝트는 우안 오브젝트(1412)이다.
Figure pat00011
오브젝트(1410)의 오브젝트 거리는 1이고, 오브젝트(1420)의 오브젝트 거리는 2이며, 오브젝트(1430)의 오브젝트 거리는 3이다.
또한 오브젝트 거리의 집합
Figure pat00012
는 다음의 수학식 11로 나타낼 수 있다.
Figure pat00013
오브젝트 거리는 다음의 수학식 12를 이용하여 변경할 수 있다.
Figure pat00014
여기서,
Figure pat00015
은 변경된 오브젝트 거리이다. a 는 입체감 정도를 나타내는 변수를 뜻하고, 변수 a의 값은 깊이 설정값 또는 깊이 설정값에 함수 관계를 갖는 값으로 설정될 수 있다.
양안 시차 방식에서 오브젝트 거리는 해당 오브젝트의 원근감을 듯하고, 해당 오브젝트의 양안 시차를 나타낸다고 볼 수 있다. 따라서, 수학식 12에서 변수 a가 O에 가까울수록 입체영상의 깊이값은 작아지고, 1인 경우에는 입체영상의 깊이값은 유지되고, 1보다 클수록 입체영상의 깊이값은 커질 수 있다.
또한 변경된 오브젝트 거리의 집합
Figure pat00016
는 다음의 수학식 13으로 나타낼 수 있다.
Figure pat00017
일부 실시예로, 입체영상 처리 장치(100)는 다음의 수학식 14를 이용하여 a를 산출할 수 있다.
Figure pat00018
여기서, b는 깊이 설정값이다. 예를 들어, b가 0인 경우에는, 입체영상의 깊이값은 조절되지 않고 유지된다.
도 15는 도 14에 도시된 오브젝트의 변위가 변환된 후에 오브젝트의 좌표를 도시한 도면이다.
도 15를 참조하면, 수학식 12에서 a가 2인 경우에는, 오브젝트(1510)의 오브젝트 거리는 2로 변경되고, 오브젝트(1520)의 오브젝트 거리는 2에서 4로 변경되며, 오브젝트(1530)의 오브젝트 거리는 3에서 6로 변경된다.
도 16은 본 발명에 따른 입체영상 처리 방법에 대한 바람직한 일실시예를 도시한 도면이다.
도 16을 참조하면, 수신부(101)는 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신한다(S100). 상기 영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다.
촬영 장치(90)는 사용자를 촬상한다(S105).
제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임에서 안경의 제1 마크 및 제2 마크를 검출한다(S110). 여기서, 상기 제1 마크 및 제2 마크는 도 3에서 도시된 마크(310, 320, 330)일 수 있고, 상기 안경은 도 4에 도시된 안경(400)일 수 있다.
제어부(190)는 제1 마크 및 상기 제2 마크 중 적어도 하나의 모양을 기초로 각도값을 산출한다(S115). 여기서 제어부(190)는 도 8에 도시된 각도 참조 테이블(800) 및 도 9에 도시된 각도 참조 테이블(900)을 이용하여 각도값을 산출할 수 있다.
제어부(190)는 각도값을 기초로 안경을 착용한 사용자의 시선 방향이 화면 방향인지를 확인한다(S120). 여기서 제어부(190)는 각도값이 70도 이상인 경우에는, 시선 방향이 화면 방향이 아니라고 확인할 수 있고, 그렇지 않은 경우에는, 시선 방향이 화면 방향이라고 확인할 수 있다.
시선 방향이 화면 방향인 경우에는, 제어부(190)는 검출한 제1 마크 및 제2 마크 간의 거리값을 산출한다(S125). 여기서 거리값은 사용자 거리값일 수 있고, 시 거리일 수 있다. 또한 제어부(190)는 도 6에 도시된 거리 참조 테이블(600)을 이용하여 사용자 거리값을 산출할 수 있고, 수학식 6을 이용하여 시 거리를 산출할 수 있다.
제어부(190)는 산출한 거리값을 기초로 깊이 설정값을 산출한다(S130). 여기서 제어부(190)는 도 10에 도시된 깊이값 설정 참조 테이블(1000)을 이용하여 깊이 설정값을 산출할 수 있다. 또한 제어부(190)는 산출한 시 거리 및 기준 시거리의 비율을 기초로 깊이 설정값을 산출할 수 있다. 제어부(190)는 산출한 시 거리가 기준 시거리보다 작은 경우에는, 깊이 설정값을 음수로 설정할 수 있고, 산출한 시 거리가 기준 시거리인 경우에는, 깊이 설정값을 0으로 설정할 수 있으며, 산출한 시거리가 기준 시거리 보다 큰 경에는, 깊이 설정값을 양수로 설정할 수 있다. 여기서 기준 시거리는 제조시에 설정된 값일 수 있고, 수신부(101)가 수신한 값일 수 있다. 또한 기준 시거리는 입체영상 데이터에 포함된 것일 수 있다.
제어부(190)는 산출한 깊이 설정값을 기초로 입체영상의 깊이값이 조절되도록 제어한다(S135). 여기서 변위 산출부(245)는 수신된 입체영상에서 오브젝트 거리를 산출할 수 있다. 이때 변위 산출부(245)는 수학식 10을 이용하여 오브젝트 거리를 산출할 수 있다. 변위 변경부(250)는 수학식 14를 이용하여 상기 깊이 설정값을 기초로 a값을 산출할 수 있다. 또한 변위 변경부(250)는 수학식 12를 이용하여 상기 산출된 a를 기초로 변경된 오브젝트 거리를 산출할 수 있다. 그리고 영상 재구성부(255)는 산출한 오브젝트 거리에 따라 오브젝트의 거리가 변경되도록 수신된 입체영상의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 재구성할 수 있다.
디스플레이(150)는 입체영상을 디스플레이한다(S140). 여기서 상기 디스플레이된 입체영상은 깊이값이 조절된 입체영상일 수 있고, 수신된 깊이값 그대로 디스플레이되는 입체영상일 수 있다.
도 17은 3D용 안경이 사용자에 의해 착용된 상태가 촬상된 영상 프레임의 일실시예를 도시한 도면이다.
도 17을 참조하면, 제어부(190)는 촬상된 영상 프레임(1700)에서 3D용 안경(1710)의 마크(1713, 1715)를 검출할 수 있다. 제어부(190)는 영상 프레임(1700)에서 마크의 칼라 정보를 이용하여 제1 마크(1713) 및 제2 마크(1715)를 인식할 수 있다. 여기서 3D용 안경(1710)은 셔터 안경 또는 편광 안경일 수 있고, 도 4에 도시된 안경(400)일 수 있다. 또한 3D용 안경의 마크(1713, 1715)는 도 3에서 도시된 마크(310, 320, 330)일 수 있다. 일부 실시예로, 제1 마크(1713) 및 제2 마크(1715) 중 하나가 3D용 안경(1710)에 표시될 수 있고, 제어부(190)는 3D용 안경(1710)에서 하나의 마크를 검출할 수 있다.
제어부(190)는 사용자(1701)의 얼굴 영역을 검출하고, 마크(1713, 1715)가 검출된 얼굴 영역에 위치하는지 여부를 확인하고, 위치한 경우에 3D용 안경(1710)이 사용자(1701)에 의해 착용된 것으로 확인할 수 있다.
또한 제어부(190)는 사용자(1701)의 얼굴 영역을 검출하고, 검출된 얼굴 영역에서 눈 이미지(1723, 1725)를 검출할 수 있다. 그리고 제어부(190)는 검출한 눈 이미지(1723, 1725)가 3D용 안경(1710)의 좌안 렌즈 및 우안 렌즈에 위치하고 있는지 여부를 확인하고, 위치한 경우에 3D용 안경(1710)이 사용자(1701)에 의해 착용된 것으로 확인할 수 있다. 또는 제어부(190)는 검출한 눈 이미지(1723, 1725)와 마크(1713, 1715)와 거리를 확인하고, 확인된 거리가 소정의 거리보다 작은 경우에 3D용 안경(1710)이 사용자(1701)에 의해 착용된 것으로 확인할 수 있다. 여기서 소정의 거리는 좌안과 우안간의 거리일 수 있다.
도 18은 3D용 안경의 인식을 알리는 메시지의 일실시예를 도시한 도면이다.
도 18을 참조하면, 제어부(190)는 3D용 안경의 인식을 알리는 메시지(1800)가 디스플레이되도록 제어할 수 있다. 메시지(1800)는 촬상된 영상 프레임(1700)에서 마크(1713, 1715)가 검출된 경우에 디스플레이될 수 있고, 3D용 안경(1710)이 사용자(1701)에 의해 착용된 상태로 인식된 경우에 디스플레이될 수 있다. 또한 메시지(1800)는 소정의 시간이 경과된 경우에 자동으로 디스플레이가 중단될 수 있다.
제어부(190)는 촬상된 영상 프레임(1700)에서 마크(1713, 1715)가 검출된 경에 3차원 영상 모드로 전환할 수 있고, 3D용 안경(1710)이 사용자(1701)에 의해 착용된 상태로 인식된 경우에 3차원 영상 모드로 전환할 수 있다. 3차원 영상 모드는 영상을 3차원으로 디스플레이하는 영상 모드이고, 수신된 2차원 영상을 3차원 영상으로 디스플레이하는 제1 3차원 영상 모드 및 수신된 3차원 영상을 3차원 영상으로 디스플레이하는 제2 3차원 영상 모드를 포함할 수 있다. 2차원 영상 모드는 영상을 2차원으로 디스플레이하는 영상 모드이다.
도 19는 3차원 영상 모드로 전환 여부를 묻는 메시지의 일실시예를 도시한 도면이다.
도 19를 참조하면, 제어부(190)는 3차원 영상 모드로 전환 여부를 묻는 메시지(1900)가 디스플레이되도록 제어할 수 있다. 메시지(1900)는 촬상된 영상 프레임(1700)에서 마크(1713, 1715)가 검출된 경우에 디스플레이될 수 있고, 3D용 안경(1710)이 사용자(1701)에 의해 착용된 상태로 인식된 경우에 디스플레이될 수 있다.
메시지(1900)는 3차원 영상 모드로 전환을 선택하기 위한 버튼(1910) 및 현재 영상 모드 유지를 선택하기 위한 버튼(1920)을 포함할 수 있다. 버튼(1910)을 누르는 사용자 조치를 감지한 경우에는, 상기 사용자 조치 감지에 응답하여 제어부(190)는 3차원 영상 모드로 전환한다. 버튼(1920)을 누르는 사용자 조치를 감지한 경우에는, 상기 사용자 조치 감지에 응답하여 제어부(190)는 현재 영상 모드를 유지한다.
도 20은 본 발명에 따른 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.
도 20을 참조하면, 감지부는 입체영상 처리 장치(100)의 주변 환경을 센싱한다(S200). 감지부가 센싱한 정보는 촬상된 영상, 3D용 안경으로부터 전송된 신호 및 3D용 안경이 방출하는 빔을 포함할 수 있다. 감지부는 촬영 장치(90), 외부 신호 수신부(135) 및 입력장치(170)를 포함할 수 있다. 촬영 장치(90)는 입체영상 처리 장치(100)의 주변 환경을 촬상할 수 있고, 촬상된 영상을 외부 신호 수신부(135)로 출력할 수 있다. 그리고, 외부 신호 수신부(135)는 촬영 장치(90)가 출력한 영상을 제어부(190)로 출력할 수 있다. 또한 외부 신호 수신부(135)는 3D용 안경으로부터 전송된 신호를 수신할 수 있고, 수신된 신호를 제어부(190)로 전송할 수 있다.
제어부(190)는 센싱된 정보를 이용하여 사용자의 시청 의향에 관한 시청 의향 정보를 생성한다(S210). 제어부(190)는 3차원 영상 시청을 지시하는 시청 의향 정보를 생성할 수 있고, 2차원 영상 시청을 지시하는 시청 의향 정보를 생성할 수 있다. 일예로, 시청 의향 정보는 플래그로 생성될 수 있다. 플래그가 '1'의 값을 갖는 경우에는, 시청 의향 정보는 3차원 영상 시청을 지시하고, 플래그가 '0'의 값을 갖는 경우에는, 시청 의향 정보는 2차원 영상 시청을 지시할 수 있다.
단계 S210는 도 21의 수행과정을 포함할 수 있다.
제어부(190)는 생성된 시청 의향 정보가 3차원 영상 시청을 지시하는지 여부를 확인한다(S220).
생성된 시청 의향 정보가 3차원 영상 시청을 지시하는 경우에는, 제어부(190)는 영상 모드가 3차원 영상 모드로 전환되도록 제어한다(S230). 단계 S230에서 제어부(190)는 도 18의 메시지(1800) 또는 도 19의 메시지(1900)가 디스플레이되도록 제어할 수 있다. 또한 도 19의 메시지(1900)가 디스플레이된 경우에는, 제어부(190)는 버튼(1910)을 누르는 사용자 조치가 감지된 경우에 상기 3차원 영상 모드로 전환되도록 제어하고, 버튼(1920)을 누르는 사용자 조치가 감지된 경우에 현재 영상 모드로 유지되도록 제어할 수 있다.
또한 단계 S230는 도 22의 수행과정을 포함할 수 있다.
입체영상 처리 장치(100)는 전환된 3차원 영상 모드로 영상을 디스플레이한다(S240). 단계 S240는 도 16에 도시된 입체영상 처리 방법의 수행과정을 포함할 수 있다.
생성된 시청 의향 정보가 3차원 영상 시청을 지시하지 않는 경우에는, 입체영상 처리 장치(100)는 2차원 영상 모드로 영상을 디스플레이한다(S250).
도 21은 시청 의향 정보 생성 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.
도 21을 참조하면, 제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임을 이용하여 주변 환경에서 3D용 안경의 마크가 검출되었는지 여부를 확인한다(S300). 여기서 영상 프레임은 도 17의 영상 프레임(1700)일 수 있고, 3D용 안경의 마크는 마크(1713) 및 마크(1715) 중 적어도 하나를 포함할 수 있다. 또한 3D용 안경은 안경(1710)일 수 있다. 제어부(190)는 영상 프레임(1700)에서 마크(1713, 1715)가 검출된 경우에는, 입체영상 처리 장치의 주변 환경에서 3D 안경의 마크가 검출된 것으로 인식할 수 있다.
3D용 안경의 마크가 검출된 경우에는, 제어부(190)는 3D용 안경이 사용자에 의해 착용된 상태인지 여부를 확인한다(S310). 여기서 제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임에서 사용자의 얼굴 영역을 검출하고, 검출된 얼굴영역에 3D용 안경의 마크가 위치하는지 여부를 확인하고, 위치한 경우에 3D용 안경이 사용자에 의해 착용된 것으로 인식할 수 있다.
또한 제어부(190)는 촬영 장치(90)가 촬상한 영상 프레임에서 사용자의 얼굴 영역을 검출하고, 검출된 얼굴 영역에서 눈 이미지를 검출할 수 있다. 그리고 제어부(190)는 검출한 눈 이미지가 3D용 안경의 좌안 렌즈 및 우안 렌즈에 위치하고 있는지 여부를 확인하고, 위치한 경우에 3D용 안경이 사용자에 의해 착용된 것으로 인식할 수 있다. 또는 제어부(190)는 검출한 눈 이미지와 마크와 거리를 확인하고, 확인된 거리가 소정의 거리보다 작은 경우에 3D용 안경이 사용자에 의해 착용된 것으로 확인할 수 있다. 여기서 소정의 거리는 좌안과 우안 간의 거리일 수 있다.
3D용 안경이 착용된 상태인 경우에는, 제어부(190)는 3차원 영상 시청을 지시하는 시청 의향 정보를 생성한다(S320).
3D용 안경이 착용된 상태가 아닌 경우에는, 제어부(190)는 2차원 영상 시청을 지시하는 시청 의향 정보를 생성한다(S330).
일부 실시예로, 도 21의 단계 S300에서 3D용 안경의 마크가 검출된 경우에 단계 S320이 진행될 수 있고, 도 20의 단계 S210은 도 21의 단계 S300에서 3D용 안경의 마크가 검출된 경우에 단계 S320이 진행되는 수행과정을 포함할 수 있다.
도 22는 3차원 영상 모드 전환 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.
도 22를 참조하면, 제어부(190)는 디스플레이되는 영상과 대응하는 3차원 영상이 존재하는지 여부를 확인한다(S400). 여기서 디스플레이되는 영상은 2차원 영상일 수 있고, 3차원 영상이 2차원 영상으로 디스플레이된 것일 수 있다. 디스플레이되는 영상이 2차원 영상인 경우에는, 디스플레이되는 영상과 대응하는 3차원 영상은 상기 2차원 영상과 함께 수신된 3차원 영상일 수 있고, 상기 2차원 영상 및 상기 2차원 영상을 3차원 영상으로 디스플레이하기 위한 정보를 포함하는 영상 데이터일 수 있다. 또한 디스플레이되는 영상이 2차원 영상으로 디스플레이되는 3차원 영상 경우에는, 디스플레이되는 영상과 대응하는 3차원 영상은 상기 2차원 영상으로 디스플레이되는 3차원 영상일 수 있다.
상기 3차원 영상이 존재하지 않는 경우에는, 제어부(190)는 영상 모드가 제1 3차원 영상 모드로 전환되도록 제어한다(S410).
상기 3차원 영상이 존재하는 경우에는, 제어부(190)는 영상 모드가 제2 3차원 영상 모드로 전환되도록 제어한다(S420).
도 23은 본 발명에 따른 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면이다.
도 23을 참조하면, 입체영상 처리 장치(100)는 2차원 영상 모드로 영상이 디스플레이한다(S500). 여기서 단계 S500는 부팅 완료 후 또는 2차원 영상 모드가 디폴트로 선택되었거나 사용자에 의해 선택된 경우에, 진행되는 단계일 수 있다.
감지부는 입체영상 처리 장치(100)의 주변 환경을 센싱한다(S505). 감지부가 센싱한 정보는 촬상된 영상, 3D용 안경으로부터 전송된 신호 및 3D용 안경이 방출하는 빔을 포함할 수 있다. 감지부는 촬영 장치(90), 외부 신호 수신부(135), 입력장치(170)를 포함할 수 있다. 촬영 장치(90)는 입체영상 처리 장치(100)의 주변 환경을 촬상할 수 있고, 촬상된 영상을 외부 신호 수신부(135)로 출력할 수 있다. 그리고, 외부 신호 수신부(135)는 촬영 장치(90)가 출력한 영상을 제어부(190)로 출력할 수 있다. 또한 외부 신호 수신부(135)는 3D용 안경으로부터 전송된 신호를 수신할 수 있고, 수신된 신호를 제어부(190)로 전송할 수 있다.
제어부(190)는 센싱된 정보를 이용하여 사용자의 시청 의향에 관한 시청 의향 정보를 생성한다(S510). 제어부(190)는 3차원 영상 시청을 지시하는 시청 의향 정보를 생성할 수 있고, 2차원 영상 시청을 지시하는 시청 의향 정보를 생성할 수 있다. 일예로, 시청 의향 정보는 플래그로 생성될 수 있다. 플래그가 '1'의 값을 갖는 경우에는, 시청 의향 정보는 3차원 영상 시청을 지시하고, 플래그가 '0'의 값을 갖는 경우에는, 시청 의향 정보는 2차원 영상 시청을 지시할 수 있다.
단계 S510는 도 21의 수행과정을 포함할 수 있다.
제어부(190)는 생성된 시청 의향 정보가 3차원 영상 시청을 지시하는지 여부를 확인한다(S515).
생성된 시청 의향 정보가 3차원 영상 시청을 지시하는 경우에는, 제어부(190)는 영상 모드가 3차원 영상 모드로 전환되도록 제어한다(S520). 단계 S520에서 제어부(190)는 도 18의 메시지(1800) 또는 도 19의 메시지(1900)가 디스플레이되도록 제어할 수 있다. 또한 도 19의 메시지(1900)가 디스플레이된 경우에는, 제어부(190)는 버튼(1910)을 누르는 사용자 조치가 감지된 경우에 상기 3차원 영상 모드로 전환되도록 제어하고, 버튼(1920)을 누르는 사용자 조치가 감지된 경우에 현재 영상 모드로 유지되도록 제어할 수 있다.
또한 단계 S520는 도 22의 수행과정을 포함할 수 있다.
입체영상 처리 장치(100)는 전환된 3차원 영상 모드로 영상을 디스플레이한다(S525). 단계 S525는 도 16에 도시된 입체영상 처리 방법의 수행과정을 포함할 수 있다.
감지부는 입체영상 처리 장치(100)의 주변 환경을 센싱한다(S530).
제어부(190)는 센싱된 정보를 이용하여 사용자의 시청 의향에 관한 시청 의향 정보를 생성한다(S535).
제어부(190)는 생성된 시청 의향 정보가 2차원 영상 시청을 지시하는지 여부를 확인한다(S540).
생성된 시청 의향 정보가 2차원 영상 시청을 지시하는 경우에는, 제어부(190)는 영상 모드가 2차원 영상 모드로 전환되도록 제어한다(S545).
입체영상 처리 장치(100)는 전환된 2차원 영상 모드로 영상을 디스플레이한다(S550).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.

Claims (18)

  1. 입체영상 처리 장치의 주변 환경을 센싱하는 단계;
    상기 센싱된 정보를 이용하여 사용자의 시청 의향에 관한 시청 의향 정보를 생성하는 단계;
    상기 생성된 시청 의향 정보가 3차원 영상 시청을 지시하는지 여부를 확인하는 단계; 및
    상기 확인 결과에 따라 3차원 영상을 디스플레이하기 위한 3차원 영상 모드로 전환하는 단계를 포함하는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  2. 제 1항에 있어서,
    상기 센싱된 정보는,
    촬상된 영상, 3D용 안경으로부터 전송된 신호 및 상기 3D용 안경이 방출하는 빔 중 적어도 하나를 포함하는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  3. 제 1항에 있어서,
    시청 의향 정보를 생성하는 단계는,
    촬상된 영상에서 3D용 안경의 마크가 검출되었는지 여부를 확인하는 단계를 포함하는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  4. 제 3항에 있어서,
    상기 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성되는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  5. 제 3항에 있어서,
    시청 의향 정보를 생성하는 단계는,
    상기 3D용 안경이 상기 사용자에 의해 착용된 상태인지를 확인하는 단계를 더 포함하는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  6. 제 5항에 있어서,
    상기 3D용 안경과 상기 사용자의 안구와의 상대적 위치를 기초로 상기 착용된 상태가 확인되는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  7. 제 1항에 있어서,
    상기 3차원 영상 모드는 수신된 2차원 영상을 3차원 영상으로 디스플레이하는 제1 3차원 영상 모드 및 수신된 3차원 영상을 3차원 영상으로 디스플레이하는 제2 3차원 영상 모드를 포함하는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  8. 제 7항에 있어서,
    디스플레이되는 영상과 대응하는 3차원 영상이 존재하는지 여부 확인하는 단계; 및
    상기 확인 결과를 기초로 제1 3차원 영상 모드 및 제2 3차원 영상 모드 중 하나를 상기 3차원 영상 모드로 결정하는 단계를 더 포함하는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  9. 제 1항에 있어서,
    상기 확인 결과에 따라 2차원 영상을 디스플레이하기 2차원 영상 모드로 전환하는 단계를 더 포함하는 것을 특징으로 하는 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법.
  10. 입체영상 처리 장치의 주변 환경을 센싱하는 감지부; 및
    상기 센싱된 정보를 이용하여 사용자의 시청 의향에 관한 시청 의향 정보를 생성하고, 상기 생성된 시청 의향 정보가 3차원 영상 시청을 지시하는지 여부를 확인하며, 상기 확인 결과에 따라 3차원 영상을 디스플레이하기 위한 3차원 영상 모드로 전환을 제어하는 제어부를 포함하는 것을 특징으로 하는 입체영상 처리 장치.
  11. 제 10항에 있어서,
    상기 센싱된 정보는,
    촬상된 영상, 3D용 안경으로부터 전송된 신호 및 상기 3D용 안경이 방출하는 빔 중 적어도 하나를 포함하는 것을 특징으로 하는 입체영상 처리 장치.
  12. 제 10항에 있어서,
    상기 제어부는,
    촬상된 영상에서 3D용 안경의 마크가 검출되었는지 여부를 확인하고, 상기 마크가 검출된 경우에는, 3차원 영상 시청을 지시하는 시청 의향 정보를 생성하는 것을 특징으로 하는 입체영상 처리 장치.
  13. 제 12항에 있어서,
    상기 마크는 LED 불빛, 야광물질 및 형광물질 중 적어도 하나로 형성되는 것을 특징으로 하는 입체영상 처리 장치.
  14. 제 12항에 있어서,
    상기 제어부는,
    상기 검출된 마크가 새겨진 안경이 사용자에 의해 착용된 상태인지를 더 확인하고, 상기 안경이 착용된 상태인 경우에는, 3차원 영상 시청을 지시하는 시청 의향 정보를 생성하는 것을 특징으로 하는 입체영상 처리 장치.
  15. 제 14항에 있어서,
    상기 제어부는,
    상기 3D용 안경과 상기 사용자의 안구와의 상대적 위치를 기초로 상기 착용된 상태를 확인하는 것을 특징으로 하는 입체영상 처리 장치.
  16. 제 10항에 있어서,
    상기 3차원 영상 모드는 수신된 2차원 영상을 3차원 영상으로 디스플레이하는 제1 3차원 영상 모드 및 수신된 3차원 영상을 3차원 영상으로 디스플레이하는 제2 3차원 영상 모드를 포함하는 것을 특징으로 하는 입체영상 처리 장치.
  17. 제 16항에 있어서,
    상기 제어부는,
    디스플레이되는 영상과 대응하는 3차원 영상이 존재하는지 여부 확인하고, 상기 확인 결과를 기초로 제1 3차원 영상 모드 및 제2 3차원 모드 중 하나를 상기 3차원 영상 모드로 결정하는 것을 특징으로 하는 입체영상 처리 장치.
  18. 제 10항에 있어서,
    상기 제어부는,
    상기 확인 결과에 따라 2차원 영상을 디스플레이하기 위한 2차원 영상 모드로 전환을 제어하는 것을 특징으로 하는 입체영상 처리 장치.
KR1020110082688A 2011-05-13 2011-08-19 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법 KR20130020209A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020110082688A KR20130020209A (ko) 2011-08-19 2011-08-19 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법
EP13177713.8A EP2658270A3 (en) 2011-05-13 2012-05-03 Apparatus and method for processing 3-dimensional image
EP12166628A EP2523464A3 (en) 2011-05-13 2012-05-03 Apparatus and method for processing 3-dimensional image
US13/468,315 US20120287235A1 (en) 2011-05-13 2012-05-10 Apparatus and method for processing 3-dimensional image
CN201210148757.6A CN102780902B (zh) 2011-05-13 2012-05-14 处理三维图像的装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110082688A KR20130020209A (ko) 2011-08-19 2011-08-19 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법

Publications (1)

Publication Number Publication Date
KR20130020209A true KR20130020209A (ko) 2013-02-27

Family

ID=47898197

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110082688A KR20130020209A (ko) 2011-05-13 2011-08-19 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법

Country Status (1)

Country Link
KR (1) KR20130020209A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115665399A (zh) * 2022-10-21 2023-01-31 人民百业科技有限公司 一种基于液晶光栅的3d显示切换方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115665399A (zh) * 2022-10-21 2023-01-31 人民百业科技有限公司 一种基于液晶光栅的3d显示切换方法
CN115665399B (zh) * 2022-10-21 2024-02-06 人民百业科技有限公司 一种基于液晶光栅的3d显示切换方法

Similar Documents

Publication Publication Date Title
EP2701390B1 (en) Apparatus for adjusting displayed picture, display apparatus and display method
EP2658270A2 (en) Apparatus and method for processing 3-dimensional image
US9838673B2 (en) Method and apparatus for adjusting viewing area, and device capable of three-dimension displaying video signal
US20110156998A1 (en) Method for switching to display three-dimensional images and digital display system
KR101911250B1 (ko) 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법
KR101975247B1 (ko) 영상 처리 장치 및 그 영상 처리 방법
TWI508525B (zh) 行動終端機及控制該行動終端機操作的方法
US20140347456A1 (en) Viewer with varifocal lens and video display system
US20090315981A1 (en) Image processing method and apparatus
EP3039476B1 (en) Head mounted display device and method for controlling the same
EP2670149A2 (en) Apparatus and method for providing image in terminal
EP3402410B1 (en) Detection system
US20130009949A1 (en) Method, system and computer program product for re-convergence of a stereoscopic image
KR20120126897A (ko) 전자 장치 및 입체영상 처리 방법
KR101783608B1 (ko) 전자 장치 및 입체감 조정 방법
KR20130020209A (ko) 입체영상 처리 장치 및 입체영상 처리 장치의 영상 모드를 전환하기 위한 방법
JP5539146B2 (ja) 立体映像処理装置及びその制御方法
JP2015149547A (ja) 画像処理方法、画像処理装置、及び電子機器
KR20120087738A (ko) 입체영상 디스플레이 시스템, 입체영상 디스플레이 방법 및 입체영상 처리 장치
JP2012169822A (ja) 画像処理方法及び画像処理装置
KR20130010613A (ko) 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법
US11039116B2 (en) Electronic device and subtitle-embedding method for virtual-reality video
KR20150012692A (ko) 입체 영상 처리 장치 및 방법
JP6131256B6 (ja) 映像処理装置及びその映像処理方法
KR20160100008A (ko) 웨어러블 디바이스 및 웨어러블 디바이스 디스플레이 제어 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination