KR101924058B1 - 영상표시장치 및 그 동작방법 - Google Patents

영상표시장치 및 그 동작방법 Download PDF

Info

Publication number
KR101924058B1
KR101924058B1 KR1020120034538A KR20120034538A KR101924058B1 KR 101924058 B1 KR101924058 B1 KR 101924058B1 KR 1020120034538 A KR1020120034538 A KR 1020120034538A KR 20120034538 A KR20120034538 A KR 20120034538A KR 101924058 B1 KR101924058 B1 KR 101924058B1
Authority
KR
South Korea
Prior art keywords
viewer
viewpoint
image
unit
display
Prior art date
Application number
KR1020120034538A
Other languages
English (en)
Other versions
KR20130112281A (ko
Inventor
이용욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120034538A priority Critical patent/KR101924058B1/ko
Priority to US13/741,455 priority patent/US9335552B2/en
Priority to CN201310019531.0A priority patent/CN103369335B/zh
Priority to EP13158911.1A priority patent/EP2648413A3/en
Publication of KR20130112281A publication Critical patent/KR20130112281A/ko
Application granted granted Critical
Publication of KR101924058B1 publication Critical patent/KR101924058B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. 본 발명의 실시예에 따른 영상표시장치는, 복수 시점 영상이 표시되는 디스플레이, 상기 디스플레이의 전면에 배치되고, 상기 복수 시점 영상을 방향별로 분리하는 렌즈부 및 제1 시청자의 좌안에 인식되는 시점 영상과 우안에 인식되는 시점 영상 중 적어도 일부가 중복되는 경우, 상기 중복되는 시점 영상 중 적어도 일부가 블랙으로 처리되도록 제어하는 제어부를 포함한다. 이에 의해, 무안경 방식에 의한 입체 영상 표시시 사용자의 이용 편의성을 향상시킬 수 있게 된다.

Description

영상표시장치 및 그 동작방법{Image display apparatus, and method for operating the same}
본 발명은 영상표시장치 및 그 동작방법에 관한 것이며, 더욱 상세하게는 무안경 방식에 의한 입체 영상 표시시 사용자의 이용 편의성을 향상시킬 수 있는 영상표시장치 및 그 동작방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
본 발명의 목적은, 무안경 방식에 의한 입체 영상 표시시 사용자의 이용 편의성을 향상시킬 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.
또한, 본 발명의 다른 목적은, 무안경 방식에 의한 입체 영상을 복수의 시청자가 함께 시청하는 경우 안정적인 입체 영상의 표시가 가능한 영상표시장치 및 그 동작방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 복수 시점 영상이 표시되는 디스플레이, 상기 디스플레이의 전면에 배치되고, 상기 복수 시점 영상을 방향별로 분리하는 렌즈부 및 제1 시청자의 좌안에 인식되는 시점 영상과 우안에 인식되는 시점 영상 중 적어도 일부가 중복되는 경우, 상기 중복되는 시점 영상 중 적어도 일부가 블랙으로 처리되도록 제어하는 제어부를 포함한다.
또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 제1 시청자의 좌안 및 우안의 제1 위치정보를 수신하는 단계, 상기 제1 위치정보를 이용하여 제1 시청자의 좌안에 인식되는 시점 영상과, 우안에 인식되는 시점 영상을 연산하는 단계 및 상기 제1 시청자의 좌안에 인식되는 시점 영상과, 우안에 인식되는 시점 영상 중 적어도 일부가 중복되는 경우, 상기 중복되는 시점 영상 중 적어도 일부를 블랙으로 처리하여 표시하는 단계를 포함한다.
본 발명의 실시예에 따르면, 시청자의 좌안 및 우안에 중복하여 인식되는 시점 영상 중 적어도 일부를 블랙으로 처리함으로써, 크로스 토크를 저감시켜, 안정적인 입체 영상 표시가 가능하다. 또한, 복수의 시청자가 함께 시청하는 경우에도, 알림메시지를 통하여 시청자에게 이동 요청을 하여, 안정적인 입체 영상의 표시가 가능하다. 이에 따라, 사용자의 이용 편의성이 향상된다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 외관을 나타내는 도면이다.
도 2는 도 1의 영상표시장치의 렌즈부와 디스플레이를 분리하여 표시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 4는 도 3의 제어부의 내부 블록도이다.
도 5는 도 3의 원격제어장치의 제어 방법을 도시한 도면이다.
도 6은 도 3의 원격제어장치의 내부 블록도이다.
도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이다.
도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다.
도 9는 무안경 방식의 입체 영상표시장치의 원리를 설명하기 위해 참조되는 도면이다.
도 10 내지 14는 복수 시점 영상을 포함하는 영상표시장치의 원리를 설명하기 위하여 참조되는 도면이다.
도 15는 일 실시예에 따른 영상표시장치에서의 동작방법을 보여주는 순서도이다.
도 16 내지 18은 도 15의 영상표시장치의 동작방법을 설명하기 위해 참조되는 도면이다.
도 19는 일 실시예에 따른 영상표시장치에서의 동작방법을 보여주는 순서도이다.
도 20 내지 22는 도 19의 영상표시장치의 동작방법을 설명하기 위해 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 외관을 나타내는 블록도이고, 도 2는 도 1의 영상표시장치의 렌즈부와 디스플레이를 분리하여 표시한 도면이다.
도면을 참조하면, 본 발명의 일 실시예에 따른 영상표시장치는, 입체 영상, 즉 3D 영상 표시가 가능한 영상표시장치이다. 본 발명의 실시예에서는, 무안경 방식의 3D 영상 표시가 가능한 영상표시장치를 예시한다.
이를 위해, 영상표시장치(100)는, 디스플레이(180)와, 렌즈부(195)를 포함한다.
디스플레이(180)는, 입력되는 영상을 표시할 수 있으며, 특히, 본 발명의 실시예에 따라, 복수 시점 영상을 표시할 수 있다. 구체적으로는, 복수 시점 영상을구성하는 서브 픽셀이 일정한 패턴으로 배열되어 표시될 수 있다.
렌즈부(195)는, 디스플레이(180)에 일정 간격으로 이격되어 사용자 방향으로 배치될 수 있다. 도 2에서는, 디스플레이(180)와 렌즈부(195) 간격을 분리하는 것을 예시한다.
한편, 렌즈부(195)는, 렌티큘라 렌즈(Lenticular Lens)를 이용하는 렌티큘라 방식, 슬릿 어레이(Slit Array)를 이용하는 패럴랙스(Parallax)방식, 마이크로 렌즈 어레이(microlens array)를 이용하는 방식 등이 가능하다. 본 발명의 실시예에서는, 렌티큘라 방식을 중심으로 기술한다.
도 3은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 3을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 방송 수신부(105), 외부장치 인터페이스부(130), 저장부(140), 사용자입력 인터페이스부(150), 촬영부(155), 센서부(미도시), 제어부(170), 디스플레이(180), 오디오 출력부(185), 전원 공급부(190) 및 렌즈부(195)를 포함할 수 있다.
방송 수신부(105)는, 튜너부(110), 복조부(120), 및 네트워크 인터페이스부(130)를 포함할 수 있다. 물론, 필요에 따라, 튜너부(110)와 복조부(120)를 구비하면서 네트워크 인터페이스부(130)는 포함하지 않도록 설계하는 것도 가능하며, 반대로 네트워크 인터페이스부(130)를 구비하면서 튜너부(110)와 복조부(120)는 포함하지 않도록 설계하는 것도 가능하다.
튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너부(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.
또한, 튜너부(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너부(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.
한편, 튜너부(110)는, 복수 채널의 방송 신호를 수신하기 위해, 복수의 튜너를 구비하는 것이 가능하다. 또는, 복수 채널의 방송 신호를 동시에 수신하는 단일 튜너도 가능하다.
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다.
외부장치 인터페이스부(130)는, 접속된 외부 장치(190)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북), 셋탑 박스 등과 같은 외부 장치와 유/무선으로 접속될 수 있으며, 외부 장치와 입력/출력 동작을 수행할 수도 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 입력받을 수 있다. 한편, 무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다.
네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 예를 들어, 네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.
또한, 저장부(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
도 3의 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다.
예를 들어, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 송신/수신하거나, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 사용자의 제스처를 센싱하는 센서부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센서부(미도시)로 송신할 수 있다.
제어부(170)는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
도 3에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 4을 참조하여 후술한다.
그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너부(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 3D 영상일 수 있다.
한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 중에, 소정 오브젝트에 대해 3D 오브젝트로 생성하여 표시되도록 할 수 있다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다.
이러한 3D 오브젝트는, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록 처리될 수 있다. 바람직하게는 3D 오브젝트가 디스플레이(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다.
한편, 제어부(170)는, 촬영부(155)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식할 수 있다. 예를 들어, 사용자와 영상표시장치(100)간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 디스플레이(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 복호화딘 영상 등과 함께 스트림 복호화되어 제어부(170)로 입력될 수 있다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다.
이때의 썸네일 리스트는, 디스플레이(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다. 이러한 썸네일 리스트 내의 썸네일 영상은 순차적으로 업데이트 될 수 있다.
디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다.
디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 또한, 3차원 디스플레이(3D display)가 가능하다.
상술한 바와 같이, 본 발명의 실시예에 따른 디스플레이(180)는, 별도의 안경(glass)이 필요 없는 무안경 방식의 3D 영상 표시 가능한 디스플레이이다. 이를 위해, 렌티큘러 방식의 렌즈부(195)를 구비한다.
전원 공급부(190)는, 영상표시장치(100) 내의 전반적인 전원을 공급한다. 이에 따라, 영상표시장치(100) 내의 각 모듈 또는 유닛 등이 동작할 수 있게 된다.
또한, 디스플레이(180)는 2D 영상 영역과 3D 영상 영역을 포함하도록 구성할 수 있으며, 이러한 경우에 전원 공급부(190)는, 서로 다른 제1 전원과 제2 전원을 렌즈부(195)에 공급할 수 있다. 이러한 제1 전원 공급 및 제2 전원 공급은, 제어부(170)의 제어에 의하여 수행될 수 있다.
렌즈부(195)는, 인가되는 전원에 따라 광의 진행 방향을 가변한다.
디스플레이(180)의 2D 영상 영역에 대응하는 렌즈부의 제1 영역에는 제1 전원이 인가될 수 있으며, 이에 따라, 디스플레이(180)의 2D 영상 영역에서 방출되는 광과 동일한 방향으로 광이 방출될 수 있다. 이에 따라, 표시되는 2D 영상을 사용자가 2D 영상으로 인지하게 된다.
다른 예로, 디스플레이(180)의 3D 영상 영역에 대응하는 렌즈부의 제2 영역에는 제2 전원이 인가될 수 있으며, 이에 따라, 디스플레이(180)의 3D 영상 영역에서 방출되는 광이 산란되어, 산란된 광이 발생하게 된다. 이에 따라 3D 효과가 발생하여, 표시되는 3D 영상을 별도의 글래스 착용 없이도 사용자가 입체 영상으로 인지하게 된다.
한편, 렌즈부(195)는, 디스플레이(180)에 이격되어, 사용자 방향으로 배치될 수 있다. 특히, 렌즈부(195)는 디스플레이(180)와의 간격이 평행하거나, 소정각도로 경사지게 배치되거나, 오목하거나 볼록하게 배치될 수 있다. 한편, 렌즈부(195)는, 시트 형태로 배치될 수 있다. 이에 따라, 본 발명의 실시예에 따른 렌즈부(195)는, 렌즈 시트라고 명명될 수도 있다.
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호를 입력 받아 음성으로 출력한다.
촬영부(155)는 사용자를 촬영한다. 촬영부(155)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 한편, 촬영부(155)는 디스플레이(180) 상부에 영상표시장치(100)에 매립되거나 또는 별도로 배치될 수 있다. 촬영부(155)에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다.
제어부(170)는, 촬영부(155)로부터 촬영된 영상, 또는 센서부(미도시)로부터의 감지된 신호 각각 또는 그 조합에 기초하여 사용자의 제스처를 감지할 수 있다.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
한편, 상술한 영상표시장치(100)는, 고정형 또는 이동형 디지털 방송 수신 가능한 디지털 방송 수신기일 수 있다.
한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 모니터, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.
한편, 도 3에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
한편, 영상표시장치(100)는 도 3에 도시된 바와 달리, 도 3의 도시된 튜너부(110)와 복조부(120)를 구비하지 않고, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)를 통해서, 영상 컨텐츠를 수신하고, 이를 재생할 수도 있다.
한편, 영상표시장치(100)는, 장치 내에 저장된 영상 또는 입력되는 영상의 신호 처리를 수행하는 영상신호 처리장치의 일예이다, 영상신호 처리장치의 다른 예로는, 도 3에서 도시된 디스플레이(180)와 오디오 출력부(185)가 제외된 셋탑 박스, 상술한 DVD 플레이어, 블루레이 플레이어, 게임기기, 컴퓨터 등이 더 예시될 수 있다.
도 4은 도 3의 제어부의 내부 블록도이다.
도면을 참조하여 설명하면, 본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(310), 영상 처리부(320), 프로세서(330), OSD 생성부(340), 믹서(345), 프레임 레이트 변환부(350), 및 포맷터(360)를 포함할 수 있다. 그 외 오디오 처리부(미도시), 데이터 처리부(미도시)를 더 포함할 수 있다.
역다중화부(310)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.
영상 처리부(320)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(320)는, 영상 디코더(225), 및 스케일러(235)를 구비할 수 있다.
영상 디코더(225)는, 역다중화된 영상신호를 복호화하며, 스케일러(235)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.
영상 디코더(225)는 다양한 규격의 디코더를 구비하는 것이 가능하다.
한편, 영상 처리부(320)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다.
예를 들어, 외부 장치(190)으로부터 입력되는 외부 영상 신호 또는 튜너부(110)에서 수신되는 방송 신호의 방송 영상 신호가, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있으며, 이에 따라, 이후의 제어부(170), 특히 영상 처리부(320) 등에서 신호 처리되어, 각각 2D 영상 신호, 2D 영상 신호와 3D 영상 신호의 혼합 신호, 3D 영상 신호가 출력될 수 있다.
한편, 영상 처리부(320)에서 복호화된 영상 신호는, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다.
여기서, 3D 영상 신호의 포맷은, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷, 상,하로 배치하는 탑 다운(Top / Down) 포맷, 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷, 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷, 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷 등일 수 있다.
프로세서(330)는, 영상표시장치(100) 내 또는 제어부(170) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(330)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 프로세서(330)는, 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
또한, 프로세서(330)는, 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(130)와의 데이터 전송 제어를 수행할 수 있다.
또한, 프로세서(330)는, 제어부(170) 내의 역다중화부(310), 영상 처리부(320), OSD 생성부(340) 등의 동작을 제어할 수 있다.
OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다.
또한, OSD 생성부(340)는, 원격제어장치(200)로부터 입력되는 포인팅 신호에 기초하여, 디스플레이에 표시 가능한, 포인터를 생성할 수 있다. 특히, 이러한 포인터는, 포인팅 신호 처리부에서 생성될 수 있으며, OSD 생성부(240)는, 이러한 포인팅 신호 처리부(미도시)를 포함할 수 있다. 물론, 포인팅 신호 처리부(미도시)가 OSD 생성부(240) 내에 구비되지 않고 별도로 마련되는 것도 가능하다.
믹서(345)는, OSD 생성부(340)에서 생성된 OSD 신호와 영상 처리부(320)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 이때, OSD 신호와 복호화된 영상 신호는 각각 2D 신호 및 3D 신호 중 적어도 하나를 포함할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(350)에 제공된다.
프레임 레이트 변환부(Frame Rate Conveter, FRC)(350)는, 입력되는 영상의 프레임 레이트를 변환할 수 있다. 한편, 프레임 레이트 변환부(350)는, 별도의 프레임 레이트 변환 없이, 그대로 출력하는 것도 가능하다.
포맷터(360)는, 프레임 레이트 변환된 3D 영상을 배열할 수 있다.
한편, 포맷터(Formatter)(360)는, 믹서(345)에서 믹싱된 신호, 즉 OSD 신호와 복호화된 영상 신호를 입력받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다.
한편, 본 명세서에서, 3D 영상 신호는 3D 오브젝트를 포함하는 것을 의미하며, 이러한 오브젝트의 예로는 PIP(picuture in picture) 영상(정지 영상 또는 동영상), 방송 프로그램 정보를 나타내는 EPG, 다양한 메뉴, 위젯, 아이콘, 텍스트, 영상 내의 사물, 인물, 배경, 웹 화면(신문, 잡지 등) 등이 있을 수 있다.
한편, 포맷터(360)는, 3D 영상 신호의 포맷을 변경할 수 있다. 예를 들어, 상술한 다양한 포맷으로 3D 영상이 입력되는 경우, 복수 시점 영상으로 변경할 수 있다. 특히, 복수 시점 영상이 반복되도록 변경할 수 있다. 이에 의해, 무안경 타입의 3D 영상이 표시될 수 있게 된다.
한편, 포맷터(360)는, 2D 영상 신호를 3D 영상 신호로 전환할 수도 있다. 예를 들어, 3D 영상 생성 알고리즘에 따라, 2D 영상 신호 내에서 에지(edge) 또는 선택 가능한 오브젝트를 검출하고, 검출된 에지(edge)에 따른 오브젝트 또는 선택 가능한 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 이때, 생성된 3D 영상 신호는, 상술한 바와 같이, 복수 시점 영상 신호일 수 있다.
한편, 도면에서는 도시하지 않았지만, 포맷터(360) 이후에, 3D 효과(3-dimensional effect) 신호 처리를 위한 3D 프로세서(미도시)가 더 배치되는 것도 가능하다. 이러한 3D 프로세서(미도시)는, 3D 효과의 개선을 위해, 영상 신호의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등을 처리할 수 있다.
한편, 제어부(170) 내의 오디오 처리부(미도시)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(미도시)는 다양한 디코더를 구비할 수 있다.
또한, 제어부(170) 내의 오디오 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다.
한편, 도 4에서는 OSD 생성부(340)와 영상 처리부(320)로부터의 신호를 믹서(345)에서 믹싱한 후, 포맷터(360)에서 3D 처리 등을 하는 것으로 도시하나, 이에 한정되지 않으며, 믹서가 포맷터 뒤에 위치하는 것도 가능하다. 즉, 영상 처리부(320)의 출력을 포맷터(360)에서 3D 처리하고, OSD 생성부(340)는 OSD 생성과 함께 3D 처리를 수행한 후, 믹서(345)에서 각각의 처리된 3D 신호를 믹싱하는 것도 가능하다.
한편, 도 4에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
특히, 프레임 레이트 변환부(350), 및 포맷터(360)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비될 수도 있다.
도 5는 도 3의 원격제어장치의 제어 방법을 도시한 도면이다.
도 5의 (a)에 도시된 바와 같이, 디스플레이(180)에 원격제어장치(200)에 대응하는 포인터(205)가 표시되는 것을 예시한다.
사용자는 원격제어장치(200)를 상하, 좌우(도 5의 (b)), 앞뒤(도 5의 (c))로 움직이거나 회전할 수 있다. 영상표시장치의 디스플레이(180)에 표시된 포인터(205)는 원격제어장치(200)의 움직임에 대응한다. 이러한 원격제어장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 5의 (b)는 사용자가 원격제어장치(200)를 왼쪽으로 이동하면, 영상표시장치의 디스플레이(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격제어장치(200)의 센서를 통하여 감지된 원격제어장치(200)의 움직임에 관한 정보는 영상표시장치로 전송된다. 영상표시장치는 원격제어장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 영상표시장치는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 5의 (c)는, 원격제어장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격제어장치(200)를 디스플레이(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다. 이와 반대로, 사용자가 원격제어장치(200)를 디스플레이(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다. 한편, 원격제어장치(200)가 디스플레이(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격제어장치(200)가 디스플레이(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
한편, 원격제어장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격제어장치(200)가 디스플레이(180)에서 멀어지거나 접근하도록 이동하는 경우, 상,하,좌,우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격제어장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격제어장치(200)의 상,하, 좌,우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격제어장치(200)의 이동속도나 이동방향에 대응할 수 있다.
도 6은 도 3의 원격제어장치의 내부 블록도이다.
도면을 참조하여 설명하면, 원격제어장치(200)는 무선통신부(420), 사용자 입력부(435), 센서부(440), 출력부(450), 전원공급부(460), 저장부(470), 제어부(480)를 포함할 수 있다.
무선통신부(420)는 전술하여 설명한 본 발명의 실시예들에 따른 영상표시장치 중 임의의 어느 하나와 신호를 송수신한다. 본 발명의 실시예들에 따른 영상표시장치들 중에서, 하나의 영상표시장치(100)를 일예로 설명하도록 하겠다.
본 실시예에서, 원격제어장치(200)는 RF 통신규격에 따라 영상표시장치(100)와 신호를 송수신할 수 있는 RF 모듈(421)을 구비할 수 있다. 또한 원격제어장치(200)는 IR 통신규격에 따라 영상표시장치(100)와 신호를 송수신할 수 있는 IR 모듈(423)을 구비할 수 있다.
본 실시예에서, 원격제어장치(200)는 영상표시장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 RF 모듈(421)을 통하여 전송한다.
또한, 원격제어장치(200)는 영상표시장치(100)가 전송한 신호를 RF 모듈(421)을 통하여 수신할 수 있다. 또한, 원격제어장치(200)는 필요에 따라 IR 모듈(423)을 통하여 영상표시장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(430)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(430)를 조작하여 원격제어장치(200)으로 영상표시장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(430)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 영상표시장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(430)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)으로 영상표시장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(430)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(440)는 자이로 센서(441) 또는 가속도 센서(443)를 구비할 수 있다. 자이로 센서(441)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
일예로, 자이로 센서(441)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있다. 가속도 센서(443)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 거리측정센서를 더 구비할 수 있으며, 이에 의해, 디스플레이(180)와의 거리를 센싱할 수 있다.
출력부(450)는 사용자 입력부(430)의 조작에 대응하거나 영상표시장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(450)를 통하여 사용자는 사용자 입력부(430)의 조작 여부 또는 영상표시장치(100)의 제어 여부를 인지할 수 있다.
일예로, 출력부(450)는 사용자 입력부(430)가 조작되거나 무선 통신부(420)을 통하여 영상표시장치(100)와 신호가 송수신되면 점등되는 LED 모듈(451), 진동을 발생하는 진동 모듈(453), 음향을 출력하는 음향 출력 모듈(455), 또는 영상을 출력하는 디스플레이 모듈(457)을 구비할 수 있다.
전원공급부(460)는 원격제어장치(200)으로 전원을 공급한다. 전원공급부(460)는 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(460)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(470)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 영상표시장치(100)와 RF 모듈(421)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)와 영상표시장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다. 원격제어장치(200)의 제어부(480)는 원격제어장치(200)와 페어링된 영상표시장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(470)에 저장하고 참조할 수 있다.
제어부(480)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(480)는 사용자 입력부(430)의 소정 키 조작에 대응하는 신호 또는 센서부(440)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(420)를 통하여 영상표시장치(100)로 전송할 수 있다.
영상표시장치(100)의 사용자 입력 인터페이스부(150)는, 원격제어장치(200)와 무선으로 신호를 송수신할 수 있는 무선통신부(411)와, 원격제어장치(200)의 동작에 대응하는 포인터의 좌표값을 산출할 수 있는 좌표값 산출부(415)를 구비할 수 있다.
사용자 입력 인터페이스부(150)는, RF 모듈(412)을 통하여 원격제어장치(200)와 무선으로 신호를 송수신할 수 있다. 또한 IR 모듈(413)을 통하여 원격제어장치(200)이 IR 통신 규격에 따라 전송한 신호를 수신할 수 있다.
좌표값 산출부(415)는 무선통신부(411)를 통하여 수신된 원격제어장치(200)의 동작에 대응하는 신호로부터 손떨림이나 오차를 수정하여 디스플레이(170)에 표시할 포인터(202)의 좌표값(x,y)을 산출할 수 있다.
사용자 입력 인터페이스부(150)를 통하여 영상표시장치(100)로 입력된 원격제어장치(200) 전송 신호는 영상표시장치(100)의 제어부(170)로 전송된다. 제어부(170)는 원격제어장치(200)에서 전송한 신호로부터 원격제어장치(200)의 동작 및 키 조작에 관한 정보를 판별하고, 그에 대응하여 영상표시장치(100)를 제어할 수 있다.
또 다른 예로, 원격제어장치(200)는, 그 동작에 대응하는 포인터 좌표값을 산출하여 영상표시장치(100)의 사용자 입력 인터페이스부(150)로 출력할 수 있다. 이 경우, 영상표시장치(100)의 사용자 입력 인터페이스부(150)는 별도의 손떨림이나 오차 보정 과정 없이 수신된 포인터 좌표값에 관한 정보를 제어부(170)로 전송할 수 있다.
또한, 다른 예로, 좌표값 산출부(415)가, 도면과 달리 사용자 입력 인터페이스부(150)가 아닌, 제어부(170) 내부에 구비되는 것도 가능하다.
도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이며, 도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다.
먼저, 도 7을 참조하면, 복수의 영상 또는 복수의 오브젝트들(515,525,535,545)이 예시된다.
먼저, 제1 오브젝트(515)는, 제1 좌안 영상신호에 기초하는 제1 좌안 영상(511,L)과 제1 우안 영상신호에 기초하는 제1 우안 영상(513,R)를 포함하며, 제1 좌안 영상(511,L)과 제1 우안 영상(513,R)의 간격은 디스플레이(180) 상에서 d1 인 것이 예시된다. 이때, 사용자는 좌안(501)과 제1 좌안 영상(511)을 연결하는 연장선, 및 우안(503)과 제1 우안 영상(503)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제1 오브젝트(515)가 디스플레이(180) 보다 뒤에 위치하는 것으로 인식한다.
다음, 제2 오브젝트(525)는, 제2 좌안 영상(521,L)과 제2 우안 영상(523,R)를 포함하며, 서로 겹쳐져 디스플레이(180)에 표시되므로, 그 간격은 0 인 것이 예시된다. 이에 따라, 사용자는 제2 오브젝트(525)가 디스플레이(180) 상에 위치 것으로 인식한다.
다음, 제3 오브젝트(535)와 제4 오브젝트(545)는, 각각 제3 좌안 영상(531,L)과 제2 우안 영상(533,R), 제4 좌안 영상(541,L)과 제4 우안 영상(543,R)를 포함하며, 그 간격이 각각 d3, d4 인 것이 예시된다.
상술한 방식에 따라, 사용자는 상이 맺히는 위치에, 각각 제3 오브젝트(535)와 제4 오브젝트(545)가 위치하는 것으로 인식하며, 도면에서는, 각각 디스플레이(180) 보다 앞에 위치하는 것으로 인식한다.
이때, 제4 오브젝트(545)가 제3 오브젝트(535) 보다 더 앞에, 즉 더 돌출되는 것으로 인식되며, 이는 제4 좌안 영상(541,L)과 제4 우안 영상(543,R)의 간격(d4)이, 제3 좌안 영상(531,L)과 제3 우안 영상(533,R)의 간격(d3) 보다 더 큰 것에 기인한다.
한편, 본 발명의 실시예에서는, 디스플레이(180)와 사용자에게 인식되는 오브젝트(515,525,535,545) 사이의 거리를 깊이(depth)로 표현한다. 이에 따라, 디스플레이(180)보다 뒤에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(-)을 가지는 것으로 하며, 디스플레이(180)보다 앞에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(+)을 가지는 것으로 한다. 즉, 사용자 방향으로 돌출 정도가 더 클수록, 깊이의 크기는 더 커지게 된다.
도 8을 보면, 도 8(a)의 좌안 영상(601)과 우안 영상(602) 간의 간격(a)이, 도 8(b)에 도시된 좌안 영상(601)과 우안 영상(602) 간의 간격(b)이 더 작은 경우, 도 8(a)의 3D 오브젝트의 깊이(a')가 도 8(b)의 3D 오브젝트의 깊이(b') 보다 더 작은 것을 알 수 있다.
이와 같이, 3D 영상이 좌안 영상과 우안 영상으로 예시되는 경우, 좌안 영상과 우안 영상 간의 간격에 의해, 사용자 입장에서 상이 맺히는 것으로 인식되는 위치가 달라지게 된다. 따라서, 좌안 영상과 우안 영상의 표시간격을 조절함으로써, 좌안 영상과 우안 영상으로 구성되는 3D 영상 또는 3D 오브젝트의 깊이를 조절할 수 있게 된다.
도 9는 무안경 방식의 입체 영상표시장치의 원리를 설명하기 위해 참조되는 도이다.
무안경 방식의 입체 영상표시장치는 앞에서 설명한 바와 같이, 렌티큘라(Lenticular) 방식과 패럴렉스(Parallax)방식이 있으며, 이외에도 마이크로 렌즈 어레이(microlens array)를 이용하는 방식 등이 있다. 이하에서는 렌티큘라 방식과 패럴랙스 방식에 대하여 자세히 설명하기로 한다. 또한, 이하에서는 시점 영상이 좌안용 시점 영상 과 우안용 시점 영상 2개로 구성되는 것을 예를 들어 설명하나, 이는 설명의 편의를 위한 것이고, 이에 한정되는 것은 아니다.
도 9(a)는 렌티큘라 렌즈(Lenticular Lens)를 이용하는 렌티큘라 방식을 나타내는 도면이다. 도 9(a)를 참조하면, 디스플레이(180)에는 좌안용 시점 영상을 구성하는 블록(720, L)과 우안용 시점 영상을 구성하는 블록(710, R)이 교대로 배열될 수 있다. 이때, 각 블록은, 복수의 픽셀을 포함할 수 있으나, 하나의 픽셀을 포함하는 것도 가능하다. 이하에서는, 각 블록이 하나의 픽셀로 구성되는 경우를 중심으로 기술한다.
렌티귤라 방식에서는 렌즈부(195)에 렌티큘라 렌즈(195a)가 배치되는데, 디스플레이(180)의 전면에 배치된 렌티큘라 렌즈(195a)는 상기 픽셀(710, 720)로 부터 방출되는 광의 진행 방향을 가변시킬 수 있다. 예를 들어, 좌안용 시점 영상을 구성하는 픽셀(720, L)로부터 방출된 광은 시청자의 좌안(701)을 향하도록 진행방향을 가변시키고, 우안용 시점 영상을 구성하는 픽셀(710, R)로부터 방출된 광은 시청자의 우안(702)을 향하도록 가변시킬 수 있다.
이에 따라, 사용자는 좌안(702)에서는 좌안용 시점 영상을 구성하는 픽셀(720, L)로부터 방출된 광이 합쳐져 좌안용 시점 영상을 보게 되고, 우안(701)에서는 우안용 시점 영상을 구성하는 픽셀(710, R)로부터 방출된 광이 합쳐져 우안용 시점 영상을 보게 되며, 별도의 안경 착용 없이도 시청자가 입체 영상으로 인지하게 된다.
도 9(b)는 슬릿 어레이(Slit array)를 이용하는 패럴랙스 방식을 나타내는 도면이다. 도 9(b)를 참조하면, 도 9(a)와 마찬가지로 디스플레이(180)에는 좌안용 시점 영상을 구성하는 픽셀(720, L)과 우안용 시점 영상을 구성하는 픽셀(710, R)이 교대로 배열될 수 있다. 또한, 패럴랙스 방식에서는 렌즈부(195)에 슬릿 어레이(195b)가 배치되는데, 슬릿 어레이(195b)가 배리어(barrier)의 역할을 하여 상기 픽셀로부터 방출되는 광이 일정방향으로만 진행할 수 있도록 한다. 이에 따라, 렌티큘라 방식과 마찬가지로 사용자는 좌안(702)에서는 좌안용 시점 영상을 보게 되고, 우안(701)에서는 우안용 시점 영상을 보게 되며, 별도의 안경 착용 없이도 시청자가 입체 영상으로 인지하게 된다.
도 10 내지 14는 복수 시점 영상을 포함하는 영상표시장치의 원리를 설명하기 위하여 참조되는 도이다.
도 10은 3개의 시점 영역(821, 822, 823)을 포함하는 영상표시장치(100)를 나타내는 도면으로, 3개의 시점 영역에 각각 디스플레이되는 3개의 시점 영상을 구성하는 일부 픽셀들이 도 10에 도시한 바와 같이, 디스플레이(180)에 재배열되어 표시될 수 있다. 이때, 픽셀을 재배열하는 것은 픽셀의 물리적인 위치 변경이 아니고, 디스플레이(180)에 표시된 픽셀의 값을 변경하여 표시하는 것을 의미한다.
3개의 시점 영상은 도 11에 도시된 바와 같이, 서로 다른 방향에서 오브젝트(910)를 촬영한 영상일 수 있다.
디스플레이(180)에 표시된 제1 픽셀(811)은 제1 서브 픽셀(801), 제2 서브 픽셀(802) 및 제3 서브 픽셀(803)로 구성될 수 있으며, 제1,2 및 3 서브 픽셀(801, 802, 803)은 각각 적색, 녹색, 청색 중 어느 하나를 나타내는 서브 픽셀일 수 있다.
도 10은 3개의 시점 영상을 구성하는 픽셀들이 재배열되어 표시된 일 패턴을 도시한 것으로, 이에 한정되는 것은 아니며, 렌즈부(195)에 따라, 다양한 패턴으로 재배열되어 표시될 수 있다.
도 10에서 숫자 1이 기재된 서브 픽셀들(801, 802, 803)은 제1 시점 영상을 구성하는 서브 픽셀이고, 숫자 2가 기재된 서브 픽셀들은 제2 시점 영상을 구성하는 서브 픽셀이며, 숫자 3이 기재된 서브 픽셀들은 제3 시점 영상을 구성하는 서브 픽셀들일 수 있다.
따라서, 제1 시점 영역(821)에서는 숫자 1이 기재된 서브 픽셀들이 합쳐져, 제1 시점 영상이 디스플레이되고, 제2 시점 영역(822)에서는 숫자 2가 기재된 서브 픽셀들이 합쳐져 제2 시점 영상이 디스플레이되며, 제3 시점 영역에서는 숫자 3이 기재된 서브 픽셀들이 합쳐져 제3 시점 영상이 디스플레이될 수 있다.
즉, 도 11에 도시된, 제1 시점 영상(901), 제2 시점 영상(902) 및 제3 시점 영상(903)은 각각 시점 방향에 따라 디스플레이되는 영상을 나타낸 것이다. 또한, 제1 시점 영상(901)은 제1 시점 방향에서, 제2 시점 영상(902)은 제2 시점 방향에서, 제3 시점 영상(903)은 제3 시점 방향에서 오브젝트(910)를 촬영한 영상일 수 있다.
따라서, 도 12(a)에 도시한 바와 같이, 시청자의 좌안(922)이 제3 시점 영역(823)에 위치하고, 우안(921)이 제2 시점 영역(822)에 위치하는 경우, 좌안(922)은 제3 시점 영상(903)을 보게되고, 우안(921)은 제2 시점 영상(902)을 보게 된다. 이에 따라, 도 12(b)에 도시한 바와 같이, 도 7에서 설명한 원리에 의해 오브젝트(910)가 디스플레이(180)보다 앞에 위치하는 것으로 인식하여, 별도의 안경 착용 없이도 시청자가 입체 영상으로 인지하게 된다. 또한, 시청자의 좌안(922)이 제2 시점 영역(822)에 위치하고, 우안(921)이 제1 시점 영역(821)에 위치하는 경우도 마찬가지로 입체 영상(3D 영상)으로 인지할 수 있다.
한편, 도 10에 도시한 바와 같이 복수 시점 영상의 픽셀을 수평방향으로만 재배열하면, 수평해상도가 2D 영상에 비해 1/n(복수 시점 영상의 개수)로 줄어든다. 예를 들어, 도 10의 입체 영상(3D 영상)의 수평해상도는 2D 영상에 비해 1/3로 줄어들게 된다. 그에 반해, 수직해상도는 재배열되기 전의 복수 시점 영상(901, 902, 903)과 같은 해상도를 가지게 된다.
방향별 시점 영상의 개수가 많은 경우(시점 영상의 개수를 증가시켜야 하는 이유에 대해서는 도 14에서 후술하기로 한다)에는 수직해상도에 비해 수평해상도만 줄어들어, 해상도의 불균형이 심하여 3D 영상의 전체적인 품질이 저하될 수 있다는 문제점이 발생한다.
이러한 점을 개선하기 위해, 도 13에 도시한 바와 같이, 렌즈부(195)를 디스플레이(180)의 전면에 디스플레이의 종축(185)과 일정각도(α)를 이루도록 기울여서 배치하고, 렌즈부(195)의 기울여진 각도에 따라 복수 시점 영상을 구성하는 서브 픽셀을 다양한 패턴으로 재배열하여 표시할 수 있다. 도 13은 본 발명의 일 실시예로서, 25개의 방향별 복수 시점을 포함하는 영상표시장치를 나타내며, 이 때, 렌즈부(195)는 렌티큘라 렌즈 또는 슬릿 어레이일 수 있다.
상기와 같이 렌즈부(195)를 기울여서 배치하면, 도 13에 도시한 바와 같이 제6 시점 영상을 구성하는 적색의 서브 픽셀이 수평 및 수직방향으로 5 픽셀마다 나타나게 되고, 입체 영상(3D 영상)은 재배열되기 전의 방향별 복수 시점 영상에 비해 수평 및 수직해상도가 1/5로 줄어들도록 구성할 수 있다. 따라서, 기존의 수평해상도만 1/25로 줄어드는 방식에 비하여, 해상도 저하의 균형을 맞출 수 있게 된다.
도 14는 영상표시장치의 전면에 나타나는 스윗 존과 데드 존을 설명하기 위한 도면이다.
상술한 바와 같은 영상표시장치(100)를 이용하여 입체 영상을 시청하는 경우 특수 입체 안경을 착용하지 않은 복수의 시청자들에게 입체감을 느끼게 할 수 있는 장점이 있지만, 일부 영역으로 제한된다는 단점이 있다. 시청자가 최적의 영상을 시청할 수 있는 영역이 존재하는데, 이는 최적시청거리(OVD; optimum viewing distance, D) 및 스윗 존(sweet zone, 1020)에 의하여 정의될 수 있다. 우선, 최적시청거리(D)는 좌안 및 우안의 간격, 렌즈부의 피치 및 렌즈의 초점거리에 의하여 결정될 수 있다. 스윗 존(1020)은 복수의 시점 영역이 순차적으로 위치하여 시청자가 입체감을 안정적으로 느낄 수 있는 영역이다. 도 14에 도시한 바와 같이, 시청자가 스윗 존(1020)에 위치하는 경우(a), 우안(1001)에는 제12 내지 14 시점 영상이, 좌안(1002)에는 제17 내지 19 시점 영상이 인식되어, 좌안(1002)과 우안(1001)에 방향별 시점 영상이 순차적으로 인식될 수 있다. 따라서, 도 12에서 설명한 바와 같이, 좌안의 영상과 우안의 영상에 의해 입체감을 느낄 수 있다.
반면에, 시청자가 스윗 존(1020)을 벗어나서 데드 존(dead zone, 1015)에 위치하는 경우(b), 예를 들어, 좌안(1003)에는 제1 내지 3 시점 영상이, 우안(1004)에는 제23 내지 25시점 영상이 인식되는 경우, 좌안(1003)과 우안(1004)에 방향별 시점 영상이 순차적으로 인식되지 않으며, 좌안 영상과 우안 영상의 역전이 일어날 수 있어 입체감을 제대로 느끼지 못할 수 있다. 또한, 좌안(1003) 또는 우안(1004)에 제1 시점 영상과 제25 시점 영상이 한번에 인식되는 경우에는 어지러움을 느낄 수 있다.
스윗 존(1020)의 크기는 방향별 복수 시점 영상의 개수(n)와 하나의 시점에 대응되는 거리에 의해서 정해질 수 있다. 하나의 시점에 대응되는 거리는 시청자의 양안 사이의 거리보다 작아야 하므로, 그 크기를 증가시키는 데에 한계가 있어, 스윗 존(1020)의 크기를 증가시키기 위해서는 방향별 복수 시점 영상의 개수(n)를 증가시켜야 한다.
방향별 복수 시점 영상의 개수(n)가 증가하는 경우, 시청자의 좌안 또는 우안에 인식되는 시점 영상의 개수가 증가하고, 도 16에 도시한 바와 같이, 양안에 약하게 인식되는 시점 영상(제14 시점 영상(1035) 및 제15 시점 영상(1045))이 겹치게 되는 크로스토크(crosstalk)가 발생하게 된다. 방향별 복수 시점 영상의 개수가 증가할수록, 시청자의 좌안(1002) 및 우안(1001)에 인식되는 시점 영상의 개수가 증가하게 되고, 이에 따라 좌안(1002) 및 우안(1001)에 중복되는 시점 영상의 개수가 증가하게 되므로 크로스토크가 심화될 수 있으며, 3D 오브젝트의 깊이 정도에 따라서도 크로스토크가 심화될 수 있다. 예를 들어, 방향별 복수 시점 영상이 35개인 경우에 시청자의 좌안 및 우안에 중복되는 시점 영상의 개수는 도 16에서 도시한 바와 달리 3개 이상으로 나타날 수 있다.
이러한 점을 개선하기 위해, 본 발명의 실시예에서는, 크로스토크에 대응하는 시점 영상 중 적어도 일부를 블랙으로 처리하는 영상표시장치를 제공한다. 이하에서, 상기 영상표시장치에 대해 자세히 설명하도록 한다.
도 15는 일 실시예에 따른 영상표시장치에서의 동작방법을 보여주는 순서도이고, 도 16 내지 18은 도 15의 영상표시장치의 동작방법을 설명하기 위해 참조되는 도면이다.
도 15를 참조하면, 촬영부(155)는 시청자의 위치를 감지할 수 있으며, 아이트랙킹(eyetracking)을 이용하여 시청자의 좌안 및 우안의 위치를 실시간으로 추적하여, 시청자의 위치정보를 제어부(170)로 전송한다. 제어부(170)는 시청자의 좌안 및 우안의 위치정보를 수신(S1110)하여, 시점정보를 연산한다(S1120). 시점정보는 좌안 및 우안에 인식되는 시점 영상의 개수, 시점 영상의 번호 및 좌안 및 우안의 중앙에서 인식되는 시점 영상의 번호 중 적어도 하나를 포함할 수 있다.
제어부(170)는 상기와 같은 시점정보를 통해 크로스 토크를 발생시키는 시점 영상을 찾아낼 수 있다.
예를 들어, 도 16에 도시된 그래프는 좌안(L)과 우안(R)에서의 시점 영상에 대한 인식 강도를 나타내는데, 도 16에 도시한 바와 같이, 시청자의 양안(L, R)에는 각각 8개의 시점 영상이 인식되고, 좌안(L)에 제14 내지 21 시점 영상이 인식되며, 우안(R)에는 제8 내지 15 시점 영상이 인식되는 경우, 좌안(L)은 중앙에서 인식하는 5개의 시점 영상인 제15 내지 19 시점 영상은 강하게 인식하고, 제14 시점 영상, 제20 시점 영상 및 제21 시점 영상을 약하게 인식한다. 마찬가지로 우안(R)도 중앙에서 인식하는 5개의 시점 영상인 제10 내지 14 시점 영상은 강하게 인식하고, 제8 시점 영상, 제9 시점 영상 및 제15 시점 영상은 약하게 인식한다.
이때, 좌안(L) 및 우안(R)은 제14 시점 영상(1035)과 제15 시점 영상(1045)을 동시에 인식하게 되어 그래프에 도시된 바와 같이 크로스 토크가 나타날 수 있으며, 이로 인해, 좌안의 영상과 우안의 영상이 서로 겹쳐 보이게 되어 입체감을 떨어뜨리고 어지러움을 유발할 수 있다.
따라서, 제어부(170)는 연산한 시점정보를 이용하여 좌안(L) 및 우안(R)에 중복되는 시점 영상을 추출하고(S1130), 추출된 시점 영상을 블랙으로 처리한다(S1140).
이때, 추출된 시점 영상을 구성하는 서브 픽셀들 중 적어도 일부에 블랙데이터를 삽입할 수 있다. 예를 들어, 도 16에 도시한 바와 같이, 좌안 및 우안에 중복되는 시점 영상이 제14 시점 영상(1035)과 제15 시점 영상(1045)일 경우, 도 17에 도시한 바와 같이, 제어부(170)는 제14 시점 영상(1035)과 제15 시점 영상(1045)를 구성하는 서브 픽셀(1055)에 블랙데이터를 삽입할 수 있다.
상기와 같이 제14 시점 영상(1035)과 제15 시점 영상(1045)를 구성하는 서브 픽셀(1055)에 블랙데이터를 삽입하면, 도 18에 도시한 바와 같이, 제14 시점 영상(1210) 및 제15 시점 영상(1215)이 블랙으로 처리되어, 좌안(L) 및 우안(R)에서의 크로스토크 현상이 저감될 수 있고, 좌안(L) 및 우안(R)에 시점 영상이 겹쳐서 표지 되지 않는다.
또한, 상기와 같이 중복되는 시점 영상을 블랙으로 처리하는 방법 이외에, 중복되는 시점 영상에 포함되는 서브 픽셀의 휘도나 크기를 가변하여 표시함으로써, 크로스토크 현상을 저감시킬수 있다. 예를 들어, 서브 픽셀의 휘도를 낮춤으로써, 사용자가 해당 픽셀을 잘 인식하지 못하도록 하여, 크로스 토크를 저감시킬 수도 있으며, 그 픽셀의 크기를 작게 하여, 크로스 토크를 저감시킬 수도 있다.
도 19는 일 실시예에 따른 영상표시장치에서의 동작방법을 보여주는 순서도이고, 도 20 내지 22는 도 19의 영상표시장치의 동작방법을 설명하기 위해 참조되는 도면이다.
도 20은 제1 시청자의 위치 및 제2 시청자의 위치에 따 다양한 예를 나타낸 도면으로, 도 20(a)는 제1 시청자의 좌안(1320) 및 우안(1325)의 위치를 나타낸 도면이고, 도 20(b) 내지 도 20(g)는 제2 시청자의 좌안(1330) 및 우안(1335)의 위치를 나타낸 도면이다.
도 20(a)를 참조하면, 제1 시청자의 좌안(1320)에 제18 시점 내지 제23 시점 영상이 인식되고, 우안(1325)이 제14 시점 내지 제19 시점 영상이 인식되는 경우, 앞에서 설명한, 도 15의 동작방법에 따라, 좌안(1320) 및 우안(1325)에 중복되는 시점 영상인 제18 시점 영상(1315) 및 제19 시점 영상(1310)이 블랙으로 처리될 수 있다.
이때, 도 20(b)에 도시한 바와 같이, 제2 시청자가 제1 시청자를 기준으로 1개 시점 영역만큼 이동한 위치에 있는 경우, 제1 시청자를 기준으로 제18 시점 영상(1315) 및 제19 시점 영상(1310)이 블랙으로 처리되어, 제2 시청자의 좌안(1330)은 블랙으로 처리된 제19 시점 영상(1310)을 강하게 인식하게 되고, 이에 따라, 블랙영상을 보게 되는 문제점이 있다.
또한, 제2 시청자가 제1 시청자를 기준으로 2개 시점 영역만큼 이동한 위치에 있는 경우(도 20(c))나 3개 시점 영역만큼 이동한 위치에 있는 경우(도 20(d))에도, 제2 시청자의 좌안(1330)은 블랙으로 처리된 제18 시점 영상(1315) 및 제19 시점 영상(1310)을 강하게 인식하게 되어, 블랙영상을 보게 되는 문제점이 있다.
도 20(e)의 경우에도, 제2 시청자의 좌안(1330)은 제18 시점 영상(1315)을 강하게 인식하여, 블랙영상을 볼 수 있다. 다만, 도 20(f)의 경우에는, 제18 시점영상(1315)을 약하게 인식하여, 블랙영상을 보지 않을 수 있다.
도 20(g)에 도시한 바와 같이, 제2 시청자가 제1 시청자를 기준으로 6개의 시점만큼 이동한 위치에 있는 경우에는, 제1 시청자의 좌안(1320) 및 우안(1325)에 대해서는 제18 시점 영상(1315) 및 제19 시점 영상(1310)을, 제2 시청자의 좌안(1330) 및 우안(1335)에 대해서는 제12 시점 영상(1345) 및 제13 시점 영상(1340)을 각각 안정적으로 블랙영상으로 처리할 수 있다.
따라서, 제1 시청자를 기준으로 블랙데이터를 삽입하는 경우, 도 20(b) 내지 도 20(e)와 같이, 제2 시청자가 블랙영상을 보게 되는 문제점을 개선하기 위하여, 본 발명의 실시예에서는, 알림메시지를 표시하여 시청자에게 이를 알려주는 영상표시장치를 제공한다. 이하에서, 상기 영상표시장치에 대해 자세히 설명하도록 한다.
도 19를 참조하면, 촬영부(155)는 제1 시청자의 위치를 감지한다. 촬영부(155)는 아이트랙킹(eye tracking)을 이용하여, 제1 시청자의 좌안 및 우안의 위치를 실시간으로 추적하고, 제1 시청자의 좌안 및 우안에 대한 제1 위치정보를 제어부(170)로 전송한다. 촬영부(155)는 제1 시청자 이외에 제2 시청자가 있는지를 판단한다(S1420).
제2 시청자가 감지되지 않는 경우에는, 도 15에서 설명한 바와 같이, 제1 위치정보를 이용하여 제1 시점정보를 연산하고, 중복되는 시점을 추출하여(S1130), 중복되는 시점에 블랙데이터로 처리하도록 제어한다(S1140).
제2 시청자가 감지되는 경우에는, 촬영부(155)는 아이트랙킹을 이용하여, 제2 시청자의 좌안 및 우안의 위치를 실시간으로 추적하고, 제2 시청자의 좌안 및 우안에 대한 제2 위치정보를 제어부(170)로 전송한다.
촬영부(155)는 한개의 카메라를 포함하여, 제1 시청자 및 제2 시청자의 위치를 순차적으로 추적할 수도 있으며, 카메라를 복수개로 구비하여, 제1 시청자 및 제2 시청자의 위치를 각각 동시에 실시간으로 추적할 수 있다.
제어부(170)는 제2 위치정보를 이용하여 제2 시점정보를 연산할 수 있으며, 제1 위치정보와 제2 위치정보를 비교하여, 제1 시청자의 위치와 제2 시청자의 위치의 차이가 기준거리 이상인지 여부를 판단한다(S1440).
이때, 기준거리는 제1 시점정보 또는 제2 시점정보를 기반으로 결정될 수 있다. 예를 들어, 제1 시청자의 좌안 또는 우안에 인식되는 시점 영상의 개수와 제2 시청자의 좌안 또는 우안에 인식되는 시점 영상의 개수가 5개라는 정보를 통하여, 제1 시청자와 제2 시청자에 대해서 안정적으로 블랙데이터를 삽입할 수 있는 기준거리는 6개의 시점 영역만큼 이동한 거리(도 20의 (g)참조)로 정할 수 있다. 따라서, 제2 시청자가 제1 시청자를 기준으로 왼쪽 또는 오른쪽으로 6개의 시점 영역 이상만큼 이동한 위치에 존재하는지 여부를 판단하여, 알림메시지 표시 여부를 결정할 수 있다.
제1 시청자 및 제2 시청자의 좌안 또는 우안에 인식되는 시점 영상의 개수가 작아지면, 기준거리도 작아질 수 있으며, 반대로 제1 시청자 및 제2 시청자의 좌안 또는 우안에 인식되는 시점 영상의 개수가 많아지면, 기준거리는 커질 수 있다.
제1 시청자의 위치와 제2 시청자의 위치 차이가 기준거리 이상인 경우에는, 도 15에서 설명한 바와 같이, 제1 위치정보와 제2 위치정보에 대해 각각 제1 시점정보와 제2 시점정보를 연산하고(S1120), 제1 시청자의 좌안 및 우안에 중복되는 시점 영상, 제2 시청자의 좌안 및 우안에 중복되는 시점 영상을 각각 추출하여(S1130), 상기 추출된 중복되는 시점 영상 중 적어도 일부를 블랙으로 처리하도록 제어한다(S1140).
한편, 제1 시청자의 위치와 제2 시청자의 위치 차이가 기준거리보다 작은 경우에는, 디스플레이(180)에 알림메시지를 표시한다(S1450). 이때, 알림메시지는 디스플레이(180)에 표시될 수 있으며, 알림음으로 출력될 수도 있고, 이에 한정하지 않는다.
도 21 및 22는 일 실시예에 따른 알림메시지가 표시되는 화면을 나타내는 도면이다.
도 21을 참조하면, 알림메시지(1510)는 제1 시청자 또는 제2 시청자에게 이동을 요청하는 메시지일 수 있다. 또한, 제1 시청자 및 제2 시청자 중 한 사람에게만 메시지가 표시되도록 할 수 있다. 예를 들어, 도 20(e)와 같은 경우, 제11 시점 영상 내지 제13 시점 영상에 알림메시지(1510)가 표시되도록 하면, 제1 시청자의 경우, 좌안(1320) 및 우안(1325)에 제11 시점 내지 제13 시점 영상이 인식되지 않으므로 제1 시청자에게는 알림메시지가 표시될 수 없고, 제2 시청자의 경우, 우안(1335)에 제11 시점 내지 제13 시점 영상이 인식되므로, 제2 시청자에게는 알림메시지(1510)가 표시될 수 있다.
또한, 알림메시지(1510)는 제1 시청자 또는 제2 시청자에게 이동방향 및 이동 최소 거리 중 적어도 하나를 포함할 수 있다.
도 22를 참조하면, 제어부(170)는 촬영부(155)를 이용하여 제1 시청자(1501) 및 제2 시청자(1502)를 촬영하고, 촬영된 영상(1520)을 디스플레이(180)에 표시하도록 하여, 알림메시지를 표시할 수 있다. 또한, 상기와 같이 표시된 영상(1520)에 제1 시청자(1501) 및 제2 시청자(1502) 중 한 명이 선택되어, 이동을 요청하는 메시지를 표시하도록 제어할 수 있다.
이때, 제어부(170)는 제1 시청자(1501) 및 제2 시청자(1502) 중 디스플레이(180)의 중심을 기준으로 더 멀리 떨어진 시청자를 선택하여 이동을 요청하는 메시지를 표시하도록 제어할 수 있다.
본 발명에 따른 영상표시장치 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (18)

  1. 복수 시점 영상이 표시되는 디스플레이;
    상기 디스플레이의 전면에 배치되고, 상기 복수 시점 영상을 방향별로 분리하는 렌즈부;
    제1 시청자의 좌안에 인식되는 시점 영상과 우안에 인식되는 시점 영상 중 적어도 일부가 중복되는 경우, 상기 중복되는 시점 영상 중 적어도 일부가 블랙으로 처리되도록 제어하는 제어부; 및
    상기 제1 시청자의 좌안 및 우안의 위치를 추적하여, 상기 위치에 관한 제1 위치정보를 상기 제어부로 전송하는 촬영부;를 포함하고,
    상기 제어부는
    제1 위치정보를 이용하여, 상기 좌안 및 우안에 관련된 제1 시점정보를 연산하고,
    상기 제어부는,
    제2 시청자의 좌안 및 우안의 위치를 수신하고, 상기 제2 시청자의 좌안 및 우안의 위치에 관한 제2 위치정보를 이용하여, 상기 제2 시청자의 좌안 및 우안에 관련된 제2 시점정보를 연산하며,
    상기 제1 시청자의 위치와 상기 제2 시청자의 위치 차이가 기준거리보다 작은 경우, 알림 메시지를 표시하도록 제어하며,
    상기 제1 시청자의 위치와 상기 제2 시청자의 위치 차이가 상기 기준거리보다 이상인 경우, 상기 제1 시청자의 좌안 및 우안에 중복되는 시점 영상, 상기 제2 시청자의 좌안 및 우안에 중복되는 제2 시점 영상을 각각 추출하여, 상기 추출된 중복되는 시점 영상 중 적어도 일부를 블랙으로 처리하도록 제어하는 영상표시장치.
  2. 제1항에 있어서,
    상기 블랙으로 처리되는 시점 영상의 개수는 상기 복수 시점 영상의 개수에 비례하는 영상표시장치.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 제1 시점정보는,
    상기 제1 시청자의 좌안 및 우안에 인식되는 시점 영상의 개수, 시점 영상의 번호 및 상기 좌안 및 우안의 중앙에서 인식되는 시점 영상의 번호 중 적어도 하나를 포함하는 영상표시장치.
  6. 삭제
  7. 제1항에 있어서,
    상기 기준거리는,
    상기 제1 시점정보 또는 제2 시점정보를 기반으로 결정되는 영상표시장치.
  8. 제1항에 있어서,
    상기 알림메시지는,
    상기 제1 시청자 또는 제2 시청자에게 이동을 요청하는 메시지인 영상표시장치.
  9. 제8항에 있어서,
    상기 알림메시지는,
    상기 제1 시청자 또는 제2 시청자의 이동방향 및 이동 최소거리 중 적어도 하나를 포함하는 영상표시장치.
  10. 제1항에 있어서,
    상기 렌즈부는,
    렌티큘라 렌즈를 포함하는 영상표시장치.
  11. 제10항에 있어서,
    상기 렌티큘라 렌즈는 상기 디스플레이와 소정의 각도를 이루며 기울어진 영상표시장치.
  12. 복수 시점 영상을 표시하는 영상표시장치의 동작방법에 있어서,
    제1 시청자의 좌안 및 우안의 제1 위치정보를 수신하는 단계;
    상기 제1 위치정보를 이용하여 제1 시청자의 좌안에 인식되는 시점 영상과, 우안에 인식되는 시점 영상을 연산하는 단계 ; 및
    상기 제1 시청자의 좌안에 인식되는 시점 영상과, 우안에 인식되는 시점 영상 중 적어도 일부가 중복되는 경우, 상기 중복되는 시점 영상 중 적어도 일부를 블랙으로 처리하여 표시하는 단계를 포함하며,
    촬영부를 통해, 상기 제1 시청자의 좌안 및 우안의 위치를 추적하여, 상기 위치에 관한 제1 위치정보를 획득하고,
    제1 위치정보를 이용하여, 상기 좌안 및 우안에 관련된 제1 시점정보가 연산되며 ,
    제2 시청자의 좌안 및 우안의 위치에 관한 제2 위치 정보를 획득하고, 상기 제2 위치정보를 이용하여, 상기 제2 시청자의 좌안 및 우안에 관련된 제2 시점정보가 연산되며,
    상기 제1 시청자의 위치와 상기 제2 시청자의 위치 차이가 기준거리보다 작은 경우, 알림 메시지가 표시되며,
    상기 제1 시청자의 위치와 상기 제2 시청자의 위치 차이가 상기 기준거리보다 이상인 경우, 상기 제1 시청자의 좌안 및 우안에 중복되는 시점 영상, 상기 제2 시청자의 좌안 및 우안에 중복되는 제2 시점 영상을 각각 추출하여, 상기 추출된 중복되는 시점 영상 중 적어도 일부를 블랙으로 처리하는 영상표시장치의 동작방법.
  13. 제12항에 있어서,
    상기 제1 위치정보는 아이트래킹(eye tracking)을 통하여 획득하는 영상표시장치의 동작방법.
  14. 제12항에 있어서,
    상기 제1 시점정보는, 상기 제1 시청자의 좌안 및 우안에서 인식되는 시점 영상의 개수, 시점 영상의 번호 및 상기 제1 시청자의 좌안 및 우안의 중앙에서 인식되는 시점 영상의 번호 중 적어도 하나를 포함하는 영상표시장치의 동작방법.
  15. 삭제
  16. 제12항에 있어서,
    상기 기준거리는,
    상기 제1 시점정보 또는 제2 시점정보를 기반으로 결정되는 영상표시장치의 동작방법.
  17. 제12항에 있어서,
    상기 알림메시지는,
    상기 제1 시청자 또는 제2 시청자에게 이동을 요청하는 메시지인 영상표시장치의 동작방법.
  18. 제12항에 있어서,
    상기 알림메시지는,
    상기 제1 시청자 또는 제2 시청자의 이동방향 및 이동 최소거리 중 적어도 하나를 포함하는 영상표시장치의 동작방법.
KR1020120034538A 2012-04-03 2012-04-03 영상표시장치 및 그 동작방법 KR101924058B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120034538A KR101924058B1 (ko) 2012-04-03 2012-04-03 영상표시장치 및 그 동작방법
US13/741,455 US9335552B2 (en) 2012-04-03 2013-01-15 Image display apparatus and method for operating the same
CN201310019531.0A CN103369335B (zh) 2012-04-03 2013-01-18 图像显示设备及其操作方法
EP13158911.1A EP2648413A3 (en) 2012-04-03 2013-03-13 Image display apparatus and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120034538A KR101924058B1 (ko) 2012-04-03 2012-04-03 영상표시장치 및 그 동작방법

Publications (2)

Publication Number Publication Date
KR20130112281A KR20130112281A (ko) 2013-10-14
KR101924058B1 true KR101924058B1 (ko) 2018-11-30

Family

ID=48044533

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120034538A KR101924058B1 (ko) 2012-04-03 2012-04-03 영상표시장치 및 그 동작방법

Country Status (4)

Country Link
US (1) US9335552B2 (ko)
EP (1) EP2648413A3 (ko)
KR (1) KR101924058B1 (ko)
CN (1) CN103369335B (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6224068B2 (ja) * 2012-03-27 2017-11-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 複数の観視者用の3dディスプレイ
EP2853936A1 (en) * 2013-09-27 2015-04-01 Samsung Electronics Co., Ltd Display apparatus and method
WO2015074807A2 (en) * 2013-11-20 2015-05-28 Koninklijke Philips N.V. Generation of images for an autosteroscopic multi-view display
CN104023222A (zh) * 2014-05-29 2014-09-03 京东方科技集团股份有限公司 裸眼3d显示控制方法、装置及系统
CN104394393A (zh) * 2014-09-30 2015-03-04 深圳市亿思达科技集团有限公司 同时为多个观察者提供全息图像的显示方法、装置及系统
CN104394394A (zh) * 2014-09-30 2015-03-04 深圳市亿思达科技集团有限公司 一种实现全息图像显示的三维显示方法、装置及系统
CN104597610B (zh) 2015-02-10 2016-12-07 京东方科技集团股份有限公司 一种裸眼3d的显示处理方法、装置及显示设备
CN104702939B (zh) 2015-03-17 2017-09-15 京东方科技集团股份有限公司 图像处理系统、方法、确定位置的方法及显示系统
KR102415502B1 (ko) * 2015-08-07 2022-07-01 삼성전자주식회사 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
KR102447101B1 (ko) * 2017-09-12 2022-09-26 삼성전자주식회사 무안경 3d 디스플레이를 위한 영상 처리 방법 및 장치
WO2020004258A1 (ja) 2018-06-25 2020-01-02 京セラ株式会社 3次元表示システム、光学素子、設置方法、制御方法、および移動体
WO2020004275A1 (ja) * 2018-06-26 2020-01-02 京セラ株式会社 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
JP7188981B2 (ja) * 2018-11-05 2022-12-13 京セラ株式会社 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
CN109581731B (zh) * 2019-01-23 2022-04-12 京东方科技集团股份有限公司 一种显示面板、其视点标的方法及可读性存储介质
CN110662012A (zh) * 2019-09-18 2020-01-07 深圳市维超智能科技有限公司 一种裸眼3d显示效果优化的排图方法、系统及电子设备
JP2021057844A (ja) * 2019-10-01 2021-04-08 京セラ株式会社 3次元表示装置、3次元表示システム及び移動体
CN112532964B (zh) * 2020-11-30 2023-01-20 深圳英伦科技股份有限公司 图像处理方法、设备、装置及可读存储介质
EP4262198A1 (en) * 2020-12-14 2023-10-18 Kyocera Corporation Three-dimensional display device, image display system, and moving body
WO2023230965A1 (zh) * 2022-06-01 2023-12-07 京东方科技集团股份有限公司 显示方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011063993A1 (en) * 2009-11-30 2011-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for displaying image information and autostereoscopic screen
WO2012026372A1 (ja) * 2010-08-24 2012-03-01 シャープ株式会社 立体表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4403162B2 (ja) * 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
CN102449534B (zh) * 2010-04-21 2014-07-02 松下电器产业株式会社 立体影像显示装置、立体影像显示方法
KR101073512B1 (ko) * 2010-05-20 2011-10-17 한국과학기술연구원 시역 확장을 이용한 3차원 영상 표시 장치
JP5269027B2 (ja) * 2010-09-30 2013-08-21 株式会社東芝 三次元画像表示装置および画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011063993A1 (en) * 2009-11-30 2011-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for displaying image information and autostereoscopic screen
WO2012026372A1 (ja) * 2010-08-24 2012-03-01 シャープ株式会社 立体表示装置

Also Published As

Publication number Publication date
EP2648413A2 (en) 2013-10-09
US20130257928A1 (en) 2013-10-03
US9335552B2 (en) 2016-05-10
KR20130112281A (ko) 2013-10-14
CN103369335B (zh) 2016-08-24
CN103369335A (zh) 2013-10-23
EP2648413A3 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
KR101924058B1 (ko) 영상표시장치 및 그 동작방법
US20140143733A1 (en) Image display apparatus and method for operating the same
KR20150116302A (ko) 영상표시장치, 및 그 동작방법
KR20150044732A (ko) 무안경 방식의 입체 영상 표시장치, 및 그 동작방법
US20140132726A1 (en) Image display apparatus and method for operating the same
KR101855939B1 (ko) 영상표시장치의 동작 방법
EP2672716A2 (en) Image display apparatus and method for operating the same
KR101832225B1 (ko) 영상표시장치 및 그 동작방법
EP2566165A2 (en) Image display apparatus and method for operating the same
KR101912635B1 (ko) 영상표시장치 및 그 동작방법
KR101836846B1 (ko) 영상표시장치, 및 그 동작방법
KR20130120255A (ko) 영상표시장치 및 그 동작방법
KR20140098512A (ko) 영상표시장치 및 그 동작방법
KR20150043875A (ko) 무안경 방식의 입체 영상 표시장치, 및 그 동작방법
KR101878808B1 (ko) 영상표시장치 및 그 동작 방법
KR20140063275A (ko) 영상표시장치, 및 그 동작방법
KR20140063276A (ko) 영상표시장치, 및 그 동작방법
KR101890323B1 (ko) 영상표시장치, 셋탑 박스 및 그 동작방법
KR20140073231A (ko) 영상표시장치 및 그 동작방법
KR101825669B1 (ko) 영상표시장치 및 그 동작방법
KR101945811B1 (ko) 영상표시장치 및 그 동작방법
KR20140107923A (ko) 영상표시장치
KR20140008188A (ko) 영상표시장치 및 그 동작방법
KR101882214B1 (ko) 영상표시장치, 서버 및 그 동작방법
KR20130068964A (ko) 영상표시장치의 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant