KR20120006742A - 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기 - Google Patents

3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기 Download PDF

Info

Publication number
KR20120006742A
KR20120006742A KR1020100067377A KR20100067377A KR20120006742A KR 20120006742 A KR20120006742 A KR 20120006742A KR 1020100067377 A KR1020100067377 A KR 1020100067377A KR 20100067377 A KR20100067377 A KR 20100067377A KR 20120006742 A KR20120006742 A KR 20120006742A
Authority
KR
South Korea
Prior art keywords
user interface
user
output
location
display device
Prior art date
Application number
KR1020100067377A
Other languages
English (en)
Other versions
KR101719981B1 (ko
Inventor
황도청
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100067377A priority Critical patent/KR101719981B1/ko
Priority to US13/181,097 priority patent/US9030467B2/en
Priority to CN201110240216.1A priority patent/CN102447861B/zh
Priority to EP11173635.1A priority patent/EP2408215B1/en
Publication of KR20120006742A publication Critical patent/KR20120006742A/ko
Application granted granted Critical
Publication of KR101719981B1 publication Critical patent/KR101719981B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것으로, 더욱 상세하게는 사용자의 위치를 판단하고, 사용자 위치에서 최적화된 위치에 사용자 인터페이스를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것이다.

Description

3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기{METHOD FOR OUTPUTTING USERINTERFACE AND DISPLAY SYSTEM ENABLING OF THE METHOD}
본 발명은 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것으로, 더욱 상세하게는 사용자의 위치를 판단하고, 사용자 위치에서 최적화된 위치에 사용자 인터페이스를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것이다.
현재 방송 환경은 아날로그 방송에서 디지털 방송으로의 전환이 급속히 이루어지고 있다. 이와 함께 종래 아날로그 방송에 비하여 디지털 방송을 위한 컨텐츠의 양이 많이 증가하고 있으며 그 종류도 매우 다양해지고 있다. 특히, 최근에는 2차원(2-dimensional: 2D)의 컨텐츠에 비해 보다 현실감과 입체감을 주는 3차원(3-dimensional: 3D) 컨텐츠에 대한 관심이 증가하였으며 많이 제작되고 있다.
그런데, 종래 기술의 3차원 디스플레이 기기의 경우 사용자가 메뉴 출력을 선택하면, 메뉴가 출력되는 위치가 사용자의 위치 또는 사용자와의 거리와는 상관없이 제조사의 설정대로 출력되어, 사용자의 메뉴 사용에 불편함이 있을 수 있는 문제점이 있었다.
따라서, 이러한 종래 기술의 문제점을 해결하여, 사용자의 선호를 반영하여 사용자 인터페이스의 위치 또는 뎁쓰를 조정하여 출력함으로써, 사용자 편의성을 증진시킬 수 있는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기 개발의 필요성이 요청되고 있다.
본 발명은 상기와 같은 종래 기술의 문제점을 해결하여, 사용자의 위치 또는 사용자의 선호를 반영하여 사용자 인터페이스를 3차원 이미지 데이터로 제공하면서, 위치 또는 뎁쓰를 조정하여 출력함으로써, 사용자 편의성을 증진시킬 수 있는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기를 제공하는 것을 그 목적으로 한다.
본 발명의 일실시예에 따른 3D 사용자 인터페이스 출력 방법은, 사용자 인터페이스 출력 명령을 입력받는 단계; 상기 사용자 인터페이스 출력 명령에 따라 사용자의 위치를 판단하는 단계; 및 상기 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 결정한 후, 상기 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력하는 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명의 다른 실시예에 따른 3D 디스플레이 기기는, 사용자 인터페이스 출력 명령을 입력받는 사용자 입력부; 상기 사용자 인터페이스 출력 명령에 따라 사용자의 위치를 판단하는 위치 판단 모듈; 및 상기 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 결정하는 제어부; 상기 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력하는 출력 포맷터를 포함하는 것을 특징으로 한다.
따라서, 본 발명은 3D 출력 모드에서 사용자가 사용자 인터페이스를 출력할 경우, 사용자 위치에 대응하여 출력될 사용자 인터페이스의 위치를 계산하여 출력함으로써, 동일한 위치, 동일한 크기로, 사용자 인터페이스가 사용자에게 보이도록 함으로써, 사용자는 디스플레이 기기와의 거리에 상관없이 출력되는 사용자 인터페이스에 안정감을 느끼도록 함으로써, 사용자 편의성을 증진시키는 효과가 있다.
즉, 3차원 이미지 데이터를 출력하는 3D 출력 모드에서 사용자 인터페이스(즉, 메뉴)마저 들쑥날쑥하게 보일 경우, 사용자의 사용자 인터페이스 인식에 어려움을 느낄 수 있는데, 본 발명은 이러한 문제를 해결하는 효과가 있다.
또한, 본 발명은 사용자와 사용자 인터페이스와의 수직 거리 뿐 아니라, 출력 위치 또한 사용자 위치에 관계없이 일정하게 유지되어 출력되도록 함으로써, 사용자가 사용자 인터페이스 출력에 안정감을 느낄 수 있도록 하는 효과가 있다.
또한, 본 발명은 사용자가 3D로 출력될 사용자 인터페이스의 사용자 인터페이스의 출력 위치를 설정하는 사용자 인터페이스를 제공하고, 사용자 선택에 따라 3D 사용자 인터페이스의 출력 위치를 결정하여 제공함으로써, 사용자가 자신이 원하는 위치에서 메뉴 설정 선택을 할 수 있도록 하는 효과가 있다.
도 1은 본 발명에 따라 3차원 컨텐츠를 제공하는 디스플레이 기기의 일실시예를 도시한 도면.
도 2은 좌 이미지 데이터와 우 이미지 데이터의 간격 또는 시차(이하 간격이라 함)에 따른 원근감을 설명하기 위해 도시한 도면.
도 3은 본 발명의 일실시예에 따른 디스플레이 기기에서 3차원 사용자 인터페이스를 제공하는 과정을 도시한 도면.
도 4는 본 발명에 따라 사용자 위치를 판단하는 일실시예를 도시한 도면.
도 5는 본 발명에 따라 사용자 위치로부터 소정의 거리에 사용자 인터페이스를 출력하는 일실시예를 도시한 도면.
도 6은 본 발명에 따라 사용자 위치로부터 소정의 위치에 사용자 인터페이스를 출력하는 일실시예를 도시한 도면.
도 7은 본 발명과 관련하여, 디스플레이 기기에서 3차원 이미지를 구현하는 방법의 일 예를 설명하기 위해 도시한 다이어그램.
도 8은 본 발명에 따라 사용자 위치가 변화함에 따라 사용자 인터페이스의 출력 위치도 변화하는 실시예를 도시한 도면.
도 9는 본 발명에 따라 3차원 사용자 인터페이스의 출력 위치를 설정하는 사용자 인터페이스의 일실시예를 도시한 도면.
도 10은 본 발명의 일실시예에 따라 사용자가 3D 사용자 인터페이스의 출력 위치를 설정하는 다른 실시예를 도시한 도면.
도 11은 본 발명에 따라 복수의 3D 사용자 인터페이스 각각의 출력 위치를 설정하는 실시예를 도시한 도면
도 12는 본 발명의 일실시예에 따른 디스플레이 기기의 구성을 도시한 블럭도.
도 13은 본 발명의 일실시예에 따른 셔터 안경의 구성을 도시한 도면.
본 발명은 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것으로, 이하 첨부된 도면을 참조하여 더욱 상세하게 설명한다.
도면에 도시되고 도면에 의해 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이러한 실시예 등에 의해 본 발명의 기술적 사상과 구성 및 작용이 제한되지 않는다. 본 발명에서 사용되는 용어는 본 발명의 구성과 기능을 고려하여 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 및 관례 또는 새로운 기술의 출현 등에 의해 달라질 수도 있다. 특정 경우에는 본 명세서에서 임의로 선정한 용어도 있으며, 이 경우 해당 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다.
도 1은 본 발명에 따라 3차원 컨텐츠를 제공하는 디스플레이 기기의 일실시예를 도시한 도면이다.
본 발명과 관련하여 3차원 컨텐츠를 보여주는 방식에는 크게 안경을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다. 또한, 안경을 착용하는 방식은 다시 패시브(passive) 방식과 액티브(active) 방식으로 나뉜다. 상기 패시브 방식은 편광 필터를 사용해서 좌 이미지와 우 이미지를 구분해서 보여주는 방식이다. 또는 양안에 각각 청색과 적색의 색안경을 쓰고 보는 방식도 패시브 방식에 해당된다. 상기 액티브 방식은 액정 셔터를 이용하여 좌우 안을 구분하는 방식으로, 시간적으로 좌안(왼쪽 눈)과 우안(오른쪽 눈)을 순차적으로 가림으로써 좌 이미지와 우 이미지를 구분하는 방식이다. 즉, 상기 액티브 방식은 시간 분할된 화면을 주기적으로 반복시키고 이 주기에 동기 시킨 전자 셔터가 설치된 안경을 쓰고 보는 방식이며, 시분할 방식(time split type) 또는 셔텨드 글래스(shuttered glass) 방식이라 하기도 한다. 안경을 착용하지 않는 무안경 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈 어레이(lens array)를 수직으로 배열한 렌티큘러(lenticular) 렌즈 판을 이미지 패널 전방에 설치하는 렌티큘러 방식과, 이미지 패널 상부에 주기적인 슬릿을 갖는 배리어 층을 구비하는 패러랙스 배리어(parallax barrier) 방식이 있다.
도 1은 3D 디스플레이 방식 중 스테레오스코픽 방식, 상기 스테레오스코픽 방식 중 액티브 방식인 경우의 실시예이다. 다만, 액티브 방식의 매체로 셔터 안경을 예로 하여 설명하나 본 발명은 이에 한정되는 것은 아니고, 다른 매체를 이용하는 경우에도 후술하는 바와 같이 적용 가능함을 미리 밝혀둔다.
도 1을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 3차원 이미지 데이터를 디스플레이부에서 출력하고, 출력되는 3차원 이미지 데이터를 셔터 안경(200)에서 시청 시에 동기가 맞도록 상기 구성된 3차원 이미지 데이터에 관한 동기 신호(Vsync)를 생성하여 상기 셔터 안경 내 IR 에미터(Emitter)(미도시)로 출력하여 셔터 안경(200)에서 디스플레이 동기에 맞춰 시청 가능하도록 한다.
셔터 안경(200)은 IR 에미터(미도시)를 거쳐 수신되는 동기 신호에 따라 좌안 또는 우안 셔터 액정 패널의 오픈 주기를 조정함으로써, 디스플레이부 기기(100)에서 출력되는 3차원 이미지 데이터(300)의 동기에 맞출 수 있다.
이 때, 디스플레이 기기는, 3차원 이미지 데이터를 스테레오스코픽 방식의 원리를 이용하여 처리한다. 즉, 하나의 객체를 서로 다른 위치의 2개의 카메라로 촬영하여 좌 이미지 데이터와 우 이미지 데이터를 생성하고, 생성된 각 이미지 데이터가 사람의 좌안과 우안에 각각 서로 직교하도록 분리하여 입력하면, 사람의 두뇌에서 좌안과 우안에 각각 입력된 이미지 데이터가 결합되어 3차원 이미지가 생성되도록 하는 원리이다. 상기에서 이미지 데이터가 서로 직교하도록 배열된다는 의미는, 각 이미지 데이터가 서로 간섭을 일으키지 않는다는 것을 의미한다.
도 2은 좌 이미지 데이터와 우 이미지 데이터의 간격 또는 시차(이하 간격이라 함)에 따른 원근감을 설명하기 위해 도시한 도면이다.
도 2(a)는 우 이미지 데이터(201)와 좌 이미지 데이터(202)의 간격이 좁은 경우 상기 양 데이터가 겹합되어 맺히는 상의 위치(203)를 설명하고, 도 2(b)는 우 이미지 데이터(211)와 좌 이미지 데이터(212)의 간격이 넓은 경우 맺히는 상의 위치(213)를 설명하고 있다.
즉, 도 2(a) 내지 2(b)는 이미지 신호 처리장치에서 좌 이미지 데이터와 우 이미지 데이터의 간격에 따라 서로 다른 위치에서 상이 맺히는 원근감의 정도를 나타낸다.
도 2(a)를 참조하면, 상은 우안으로 우 이미지 데이터(201)의 일측과 다른 측을 바라보는 연장선(R1,R2)을 그리고, 좌안으로 좌 이미지 데이터(202)의 일측과 다른 측을 바라보는 연장선(L1,L2)을 그릴 때, 상기 우 이미지 데이터에 대한 연장선(R1)과 좌 이미지 데이터에 대한 연장선(L1)이 우안 및 좌안으로부터 일정 거리(d1)에서 서로 교차되는 지점(203)에 맺힌다.
도 2(b)를 참조하면, 상은 도 2(a)에서 전술한 내용을 기초로 하면 우 이미지 데이터에 대한 연장선(R3)과 좌 이미지 데이터에 대한 연장선(L3)이 우안 및 좌안으로부터 일정 거리(d2)에서 서로 교차되는 지점(213)에서 맺힌다.
여기서, 좌안 및 우안으로부터 상이 맺히는 위치(203, 213)까지의 거리를 나타내는 도 2(a)에서 d1과 도 2(b)에서 d2를 비교하면, 상기 d1이 d2보다 좌안 내지 우안으로부터 거리가 더 멀다. 즉, 도 2(a)에서의 상이 도 3(b)에서의 상보다 좌안 및 우안으로부터 보다 먼 거리에서 맺힌다.
이는 우 이미지 데이터와 좌 이미지 데이터의 간격(도면을 기준으로 동서 방향)에서 기인한다.
예를 들면, 도 2(a)에서의 우 이미지 데이터(201)와 좌 이미지 데이터(202)의 간격은, 도 2(b)에서의 우 이미지 데이터(203)와 좌 이미지 데이터(204)의 간격에 비하여 상대적으로 좁다.
그러므로 도 2(a) 및 2(b)에 근거하여 유추하면, 각 이미지 데이터의 간격이 좁을수록 좌 이미지 데이터와 우 이미지 데이터의 결합에 의해 맺혀지는 상은 사람의 눈으로부터 먼 거리에서 맺혀 멀게 느껴진다.
한편, 3차원 이미지 데이터는 틸트(tilt) 내지 뎁스(depth)를 주거나 3D 이펙트(3D effect)를 주는 등 여러 가지 방법에 의해 3D로 구현될 수 있다.
도 3은 본 발명의 일실시예에 따른 디스플레이 기기에서 3차원 사용자 인터페이스를 제공하는 과정을 도시한 도면이다.
도 3을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 단계(S301)에서 사용자 인터페이스 출력 명령이 수신되는지 판단한다. 사용자 인터페이스 출력 명령은 디스플레이 기기의 동작과 관련된 사용자 인터페이스를 출력하기 위한 명령으로, 사용자로부터 입력될 수 있으며, 예를 들어, 소정의 원격 제어 장치로부터 수신될 수 있다.
단계(S302)에서 디스플레이 기기는 3D 출력 모드가 설정되어 있는지 판단한다. 3D 출력 모드란 출력 대상인 영상 신호가 3D 출력 포맷터에서 3D 포맷으로 출력 처리되도록 설정되는 모드이고, 2D 출력 모드는 출력 대상인 영상 신호가 3D 출력 포맷터를 바이패스하여, 2D 포맷으로 출력 처리되도록 설정되는 모드이다.
단계(S302)의 판단 결과, 2D 출력 모드로 설정되어 있는 것으로 판단되면, 디스플레이 기기는 단계(S306)에서 사용자 인터페이스 출력 명령에 대응하는 사용자 인터페이스를 2D로 출력한다.
단계(S302)의 판단 결과, 3D 출력 모드로 설정되어 있는 것으로 판단되면, 디스플레이 기기는 단계(S303)에서 사용자 인터페이스 출력 명령에 따라 사용자의 위치를 판단한다.
이 때, 사용자의 위치를 판단하는 방법은 여러가지 실시예가 적용될 수 있는데, 예를 들어, 본 발명의 디스플레이 기기가 무안경 방식인 경우, 디스플레이 기기에 포함된 센서에서 사용자 위치를 디텍팅하여 위치 정보를 생성할 수 있고, 본 발명의 디스플레이 기기가 안경 방식인 경우, 셔터 안경의 위치를 감지하거나, 셔터 안경으로부터 위치 정보를 수신하여 셔터 안경에 대한 위치 정보를 획득할 수 있다.
예를 들어, 셔터 안경은 위치 감지 센서에서 사용자의 위치를 감지하기 위한 정보를 센싱한 후, 센싱된 센싱 정보를 디스플레이 기기로 전송하고, 디스플레이 기기는 셔터 안경에서 센싱된 센싱 정보를 수신하고, 수신된 센싱 정보를 이용하여 셔터 안경의 위치, 즉 사용자 위치를 판단할 수 있다.
또한, 디스플레이 기기에 IR 센서를 장착한 후, 셔터 안경에서 송출하는 IR 신호를 디텍팅하여 x,y,z 축과의 거리를 계산하여 셔터 안경의 위치를 판단할 수 있다.
또한, 다른 실시예에 따르면 디스플레이 기기에 카메라 모듈을 구비하여 이미지를 촬영한 후, 촬영된 이미지에서 기지정된 패턴(셔터 안경 이미지 또는 사용자의 안면) 인식한 후, 인식된 패턴의 크기 및 각도를 분석하여 따라 사용자의 위치를 판단할 수도 있다.
또한, 디스플레이 기기에 IR 송신 모듈을 장착하고, 셔터 안경에 IR 카메라를 장착한 후, IR 카메라에서 촬영된 IR 송신 모듈의 이미지 데이터를 분석하여 셔터 안경의 위치를 판단할 수 있다. 이 때, IR 송신 모듈이 복수로 장착되면, 셔터 안경에서 촬영된 이미지에서 복수의 IR 송신 모듈의 이미지를 분석하여 셔터 안경의 위치를 판단할 수 있으며, 셔터 안경의 위치가 사용자 위치로 사용될 수 있다.
다음으로, 단계(S304)에서 디스플레이 기기는 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 판단하고, 단계(S305)에서 디스플레이 기기는 판단된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력한다.
이 때, 실시예에 따라 디스플레이 기기는 사용자 인터페이스와 상기 사용자와의 거리가 소정치가 되도록 상기 사용자 인터페이스가 출력될 뎁쓰값을 결정한 후, 3D 포맷으로 출력할 수 있다.
또한, 실시예에 따라 디스플레이 기기는 사용자 인터페이스와 상기 사용자와의 거리가 상기 사용자가 설정한 거리가 되도록 상기 사용자 인터페이스가 출력될 뎁쓰값을 결정할 수 있다.
이 때, 디스플레이 기기는 사용자 인터페이스와 사용자와의 거리를 설정할 수 있는 사용자 인터페이스를 별도로 제공할 수 있다.
또한, 실시예에 따라 디스플레이 기기는 사용자의 위치에 대응하여 상기 사용자 인터페이스를 출력할 위치를 사용자로부터 설정받고, 상기 사용자 인터페이스를 출력할 위치 정보를 저장 수단에 저장한 후, 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 결정한 후, 저장 수단를 참조하여, 상기 사용자 인터페이스를 출력할 위치를 결정할 수 있다.
이 때, 디스플레이 기기는 사용자 위치에 대응하여 사용자 인터페이스를 출력할 위치를 사용자로부터 설정받는 별도의 사용자 인터페이스를 제공할 수 있다.
사용자 인터페이스가 출력될 위치는 복수의 사용자 인터페이스별로 각각 설정될 수도 있으며, 사용자별로 사용자 인터페이스가 출력될 위치가 상이하게 설정될 수도 있다.
또한, 실시예에 따라 디스플레이 기기는 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 사용자의 위치가 변경되면, 상기 사용자 인터페이스가 출력되는 위치도 상기 사용자의 위치 변경에 대응하여 변경할 수 있다.
도 4는 본 발명에 따라 사용자 위치를 판단하는 일실시예를 도시한 도면이다. 도 4는 안경 방식을 사용하는 디스플레이 기기의 경우를 예로 들어 설명한 것이다.
도 4를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 소정의 위치 감지 센서(401)를 포함하여, 셔터 안경(402)의 위치가 변화되는 지를 판단한다.
셔터 안경(402)는 소정의 IR 출력부 또는 IR 센서(403)를 포함하여, 디스플레이 기기에서 그 위치를 판단할 수 있도록 구현될 수 있다.
도 5는 본 발명에 따라 사용자 위치로부터 소정의 거리에 사용자 인터페이스를 출력하는 일실시예를 도시한 도면이다.
도 5를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 사용자의 위치, 즉, 셔터 안경의 위치(510)와 디스플레이 기기(500)의 거리가 D1(501)으로 판단되면, 셔터 안경(510)과 사용자 인터페이스(504)의 거리가 D3(503)이 되도록 사용자 인터페이스(504)의 뎁쓰값을 D2(502)로 결정하여 3D 포맷으로 출력할 수 있다.
이 때, 사용자 즉 셔터 안경의 위치(510)와 사용자 인터페이스(504)와의 거리 D3(503)는 최적화된 디폴트값으로 설정될 수도 있으며, 사용자가 소정의 사용자 인터페이스에서 입력한 값일 수도 있다.
도 6은 본 발명에 따라 사용자 위치로부터 소정의 위치에 사용자 인터페이스를 출력하는 일실시예를 도시한 도면이다.
도 6을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 사용자 즉, 셔터 안경의 위치(510)에서 소정 위치에 사용자 인터페이스(504)를 출력할 수 있다.
즉, 디스플레이 기기는 사용자 위치로부터의 수직 거리는 D3(503), 직선 거리는 D4(601)가 되면서, 사용자 인터페이스(504)의 수평면과 사용자 위치(510)와 사용자 인터페이스의 중심점을 연결한 직선이 이루는 각도가
Figure pat00001
가 되도록 사용자 인터페이스의 출력 위치 (x1, y1, z1)을 결정하고, 3D 포맷 처리하여 출력할 수 있다.
도 7은 본 발명과 관련하여, 디스플레이 기기에서 3차원 사용자 인터페이스를 구현하는 방법의 일 예를 설명하기 위해 도시한 다이어그램이다.
도 7(a)의 경우에는 3차원 사용자 인터페이스를 구성하는 좌 이미지 데이터(701)와 우 이미지 데이터(702)의 간격이 좁은 경우이고, 도 7(b)의 경우에는 3차원 사용자 인터페이스를 구성하는 좌 이미지 데이터(704)와 우 이미지 데이터(705)의 간격이 넓은 경우이다.
따라서, 도 7(a)와 7(b)에서 각 이미지 데이터의 간격에 따라 구현되는 3차원 사용자 인터페이스는 전술한 도 2의 원리에 근거하면 도 7(a)에서 구현된 3D 이미지(703)는 사람의 눈에서 먼 곳에 상이 맺혀 멀리 보이고, 도 7(b)에서 구현된 3D 이미지(706)는 사람의 눈에서 가까운 곳에 상이 맺혀 가까이 즉, 상대적으로 더 튀어 나와 보인다. 상술한 원리 즉, 3차원 사용자 인터페이스를 구성하는 좌 이미지 데이터와 우 이미지 데이터의 간격을 조정함으로써 3차원 사용자 인터페이스에 적절한 정도의 뎁스를 줄 수 있다.
도 8은 본 발명에 따라 사용자 위치가 변화함에 따라 사용자 인터페이스의 출력 위치도 변화하는 실시예를 도시한 도면이다.
도 8을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기(800)와 사용자의 위치(806)의 수직 거리가 3m 인 경우, 사용자 인터페이스(803)의 뎁쓰값을 2.5m로 조정하여 사용자의 위치(806)와 사용자 인터페이스(803)의 거리가 0.5m 가 되도록 출력할 수 있다.
또한, 디스플레이 기기(801)와 사용자의 위치(807)의 수직 거리가 2m 인 경우, 사용자 인터페이스(804)의 뎁쓰값을 1.5m로 조정하여 사용자의 위치(807)와 사용자 인터페이스(804)의 거리가 0.5m 가 되도록 출력할 수 있다.
또한, 디스플레이 기기(802)와 사용자의 위치(808)의 수직 거리가 1m 인 경우, 사용자 인터페이스(805)의 뎁쓰값을 0.5m로 조정하여 사용자의 위치(808)와 사용자 인터페이스(805)의 거리가 0.5m 가 되도록 출력할 수 있다.
이 때, 디스플레이 기기는 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 사용자의 위치가 변경되면, 상기 사용자 인터페이스가 출력되는 위치도 상기 사용자의 위치 변경에 대응하여 변경할 수 있음은 이미 설명한 바와 같다.
즉, 사용자의 위치가, 도면부호(806), 도면부호(807), 도면부호(808)로 이동될 경우, 사용자 인터페이스의 위치는 도면부호(803), 도면부호(804), 도면부호(805)로 이동되면서, 사용자의 위치에서 일정한 거리를 유지하도록 조정될 수 있다.
또한, 사용자 인터페이스가 출력될 위치는 복수의 사용자 인터페이스별로 각상이하게 설정될 수도 있으며, 사용자별로 사용자 인터페이스가 출력될 위치가 상이하게 설정될 수도 있음은 이미 설명한 바와 같다.
따라서, 본 발명은 3D 출력 모드에서 사용자가 사용자 인터페이스를 출력할 경우, 사용자 위치에 대응하여 출력될 사용자 인터페이스의 위치를 계산하여 출력함으로써, 동일한 위치, 동일한 크기로, 사용자 인터페이스가 사용자에게 보이도록 함으로써, 사용자는 디스플레이 기기와의 거리에 상관없이 출력되는 사용자 인터페이스에 안정감을 느끼도록 함으로써, 사용자 편의성을 증진시키는 효과가 있다.
즉, 3차원 이미지 데이터를 출력하는 3D 출력 모드에서 사용자 인터페이스(즉, 메뉴)마저 들쑥날쑥하게 보일 경우, 사용자의 사용자 인터페이스 인식에 어려움을 느낄 수 있는데, 본 발명은 이러한 문제를 해결하는 효과가 있다.
또한, 본 발명은 사용자와 사용자 인터페이스와의 수직 거리 뿐 아니라, 출력 위치 또한 사용자 위치에 관계없이 일정하게 유지되어 출력되도록 함으로써, 사용자가 사용자 인터페이스 출력에 안정감을 느낄 수 있도록 하는 효과가 있다.
도 9는 본 발명에 따라 3차원 사용자 인터페이스의 출력 위치를 설정하는 사용자 인터페이스의 일실시예를 도시한 도면이다.
도 9를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 사용자 인터페이스와 사용자 사이의 거리(901), 사용자 인터페이스가 출력될 대략적인 위치(902), 사용자 인터페이스가 출력될 뎁쓰값(903), 또는 사용자 인터페이스가 출력될 상세 위치(904)를 설정할 수 있는 사용자 인터페이스를 출력할 수 있다.
예를 들어, 사용자는 사용자 인터페이스와 사용자 사이의 거리(900)를 '0.5m'가 되도록 설정할 수 있고, 디스플레이 기기는 사용자 인터페이스 출력 명령이 수신되면, 사용자의 위치를 판단하고, 사용자 인터페이스의 뎁쓰값을 조정하여 3D 포맷 출력함으로써, 사용자 위치와 사용자 인터페이스 사이의 거리가 0.5m 가 되도록 한다.
또한, 사용자는 사용자 인터페이스가 출력될 대략적인 위치(902)를 선택할 수 있는데, 예를 들어, '좌상', '좌하', '중앙', '우상', '우하' 중에서 하나를 선택할 수 있다. 디스플레이 기기는 사용자 인터페이스가 출력될 대략적인 위치를 선택할 경우, 선택된 위치에 사용자 인터페이스를 출력할 수 있다.
또한, 실시예에 따라 사용자는 사용자 인터페이스가 출력될 뎁쓰값(903)을 선택할 수 있고, 디스플레이 기기는 사용자 인터페이스를 선택된 뎁쓰값(903)으로 3D 포맷 출력처리 할 수 있다.
또한, 실시예에 따라 사용자는 사용자 인터페이스가 출력될 상세 위치(904) 를 설정할 것을 선택할 수 있다. 상세 위치 설정(904)을 선택하면, 도 10과같은 사용자 인터페이스가 제공될 수 있다.
실시예에 따라, 도 9의 사용자 인터페이스는 3D 사용자 인터페이스의 종류별로 제공될 수 있으며, 사용자는 각각의 3D 사용자 인터페이스가 출력될 위치를 설정할 수 있다.
따라서, 사용자 인터페이스가 출력될 위치는 복수의 사용자 인터페이스별로 각상이하게 설정될 수 있다.
또한, 도 9의 사용자 인터페이스는 사용자별로 제공될 수 있으며, 복수의 사용자는 각각 3D 사용자 인터페이스가 출력될 위치를 개별로 상이하게 설정할 수 있다.
이 경우, 사용자별로 사용자 인터페이스의 출력 위치 정보를 저장하고, 디스플레이 기기로 사용자가 로그인할 경우, 로그인 된 사용자에 해당하는 사용자 인터페이스 출력 위치 정보를 판독하여 3D 사용자 인터페이스를 판독된 출력 위치에 출력할 수 있다.
따라서, 본 발명은 사용자가 3D로 출력될 사용자 인터페이스의 사용자 인터페이스의 출력 위치를 설정하는 사용자 인터페이스를 제공하고, 사용자 선택에 따라 3D 사용자 인터페이스의 출력 위치를 결정하여 제공함으로써, 사용자가 사용자위치를 기준으로 자신이 원하는 위치에서 메뉴 설정 선택을 할 수 있도록 하는 효과가 있다.
도 10은 본 발명의 일실시예에 따라 사용자가 3D 사용자 인터페이스의 출력 위치를 설정하는 다른 실시예를 도시한 도면이다.
사용자가 도 9와 같은 사용자 인터페이스에서 상세 위치 설정(904)을 선택하면, 도 10과 같은 사용자 인터페이스(1000)가 출력된다. 사용자는 3D 사용자 인터페이스(1001)를 선택한 후, 자신이 원하는 출력 위치(1003)로 이동시킬 수 있다.
이 때, 사용자는 원격 제어 장치(1100)를 이용하여 3D 사용자 인터페이스(1001) 상에 위치한 포인터(1002)를 자신이 원하는 출력 위치(1004)로 이동시킬 수 있다.
실시예에 따라 원격 제어 장치(1100)는 공간 리모컨일 수 있으며, 원격제어장치(1100)에 대응하는 포인터(1002, 1004)가 표시되는 것을 예시한다.
사용자는 원격제어장치(1100)를 상하, 좌우, 앞뒤로 움직이거나 회전할 수 있다. 디스플레이 기기에 표시된 포인터(1002, 1004)는 원격제어장치(1100)의 움직임에 대응한다. 이러한 원격제어장치(1100)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(1002, 1004)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
원격제어장치(1100)의 센서를 통하여 감지된 원격제어장치(1100)의 움직임에 관한 정보는 디스플레이 기기(1000)로 전송된다. 디스플레이 기기(1000)는 원격제어장치(1100)의 움직임에 관한 정보로부터 포인터(1002, 1004)의 좌표를 산출하고, 산출한 좌표에 대응하도록 포인터(1002, 1004)를 표시할 수 있다.
디스플레이 기기는 인식된 사용자 위치에 대응하여, 이동된 사용자 인터페이스(1003)의 위치 정보를 저장 수단에 저장한 후, 사용자 인터페이스 출력 명령이 수신되면, 저장 수단를 참조하여, 상기 사용자 인터페이스를 출력할 위치를 결정하여 사용자 인터페이스를 3D 포맷으로 출력할 수 있다. 따라서, 각각의 3D 사용자 인터페이스는 사용자를 기준으로 사용자가 지정한 위치에 출력될 수 있다.
도 10은 공간 리모컨을 사용하여 3D 사용자 인터페이스의 출력 위치를 설정하는 경우를 예로 들어 설명하였으나, 제스처 인식, 모션 인식 등의 방법 등 다양한 실시예를 적용하여 3D 사용자 인터페이스의 출력 위치를 설정할 수 있다.
도 11은 본 발명에 따라 복수의 3D 사용자 인터페이스 각각의 출력 위치를 설정하는 실시예를 도시한 도면이다.
도 11을 참조하면, 사용자가 도 9와 같은 사용자 인터페이스에서 상세 위치 설정(904)을 선택하면, 도 11과 같은 사용자 인터페이스가 출력될 수 있다. 사용자는 복수의 3D 사용자 인터페이스(1101, 1102, 1103, 1104, 1105, 1106) 각각을 선택한 후, 자신이 원하는 출력 위치로 이동시킬 수 있다.
이 때, 도 10과 마찬가지로 사용자는 원격 제어 장치를 이용하여 3D 사용자 인터페이스(1101, 1102, 1103, 1104, 1105, 1106) 상에 위치한 포인터를 자신이 원하는 출력 위치로 이동시킬 수 있다.
예를 들어, 사용자는 제1 사용자 인터페이스(1101)를 자신이 원하는 출력 위치(1107)로 이동시킬 수 있다. 또한, 제2 사용자 인터페이스(1102)를 자신이 원하는 출력 위치(1108)로 이동시킬 수 있으며, 마찬가지로 제3 인터페이스(1103)를 자신이 원하는 출력 위치(1109)로 이동시킬 수 있다. 또한, 제4 인터페이스(1104)를 자신이 원하는 출력 위치(1110)로 이동시킬 수 있으며, 제5 인터페이스(1105)를 자신이 원하는 출력 위치(1111)로 이동시킬 수 있으며, 제6 사용자 인터페이스(1106)를 자신이 원하는 출력 위치(1112)로 이동시킬 수 있다.
사용자는 3D 사용자 인터페이스(1101, 1102, 1103, 1104, 1105, 1106) 각각을 원격제어장치로 선택한 후, 원격제어장치를 상하, 좌우, 앞뒤로 이동시킴으로써, 자신이 원하는 출력 위치로 3D 사용자 인터페이스(1101, 1102, 1103, 1104, 1105, 1106)를 이동시킬 수 있다.
디스플레이 기기는 인식된 사용자 위치에 대응하여, 이동된 3D 사용자 인터페이스의 위치 정보(1107, 1108, 1109, 1110, 1111, 1112)를 저장 수단에 저장한 후, 각 사용자 인터페이스 출력 명령이 수신되면, 저장 수단를 참조하여, 사용자 인터페이스를 출력할 위치를 결정하여 사용자 인터페이스를 3D 포맷으로 출력할 수 있다. 따라서, 각각의 3D 사용자 인터페이스들은 사용자를 기준으로 사용자가 지정한 위치에 출력될 수 있다.
이상에서는 공간 리모컨을 이용한 드래그 방식으로 복수의 3D 사용자 인터페이스의 출력 위치를 지정하는 실시예를 설명하였으나, 도 9와 같은 사용자 인터페이스를 통해 복수의 3D 사용자 인터페이스의 출력 위치를 설정받을 수 있음은 물론이다.
또한, 상술한 바와 같이 사용자별로 복수의 3D 사용자 인터페이스의 출력 위치를 설정받을 수도 있다. 이 경우, 사용자가 사용자 식별자 및 암호를 입력하여 로그인하는 경우, 해당 사용자가 설정한 사용자로부터의 출력 위치에 복수의 3D 사용자 인터페이스들을 출력할 수 있다.
도 12는 본 발명의 일실시예에 따른 디스플레이 기기의 구성을 도시한 블럭도이다. 도 12는 본 발명의 디스플레이 기기가 디지털 방송 수신기인 경우의 구성을 도시한 블록도이다.
도 12를 참조하면, 본 발명에 따른 디지털 방송 수신기는 튜너(101), 복조기(102), 역다중화부(103), 시그널링 정보 프로세서(104), 어플리케이션 제어부(105), 저장 수단(108), 외부 입력 수신부(109), 디코더/스케일러(110), 제어부(115), 믹서(118), 출력 포맷터(119) 및 디스플레이부(120)을 포함하여 구성된다. 상기 디지털 방송 수신기에는 도 12에서 도시되는 구성 이외에 필요한 다른 구성이 더 포함될 수 있다.
튜너(101)는 특정 채널을 튜닝하여 컨텐츠가 포함된 방송 신호를 수신한다.
복조기(102)는 튜너(101)로부터 입력되는 방송 신호를 복조한다.
역다중화부(103)는 복조된 방송 신호로부터 오디오 신호, 비디오 신호 및 시그널링 정보를 역다중화(demultiplex)한다. 여기서, 상기 역다중화는 PID(Packet IDentifier) 필터링을 통해 수행될 수 있다. 또한, 상기 시그널링 정보는 설명의 편의를 위해 이하 본 명세서에서는 PSI/PSIP(Program Specific Information/Program and System Information Protocol)와 같은 SI(System Information) 정보를 예로 하여 설명한다.
역다중화부(103)는 역다중화된 오디오 신호/비디오 신호는 디코더/스케일러(110)로 출력하고, 시그널링 정보(signaling information)는 시그널링 정보 프로세서(104)로 출력한다.
시그널링 정보 프로세서(104)는 역다중화된 시그널링 정보를 처리하여 어플리케이션 제어부(105), 제어부(115) 및 믹서(118)로 출력한다. 여기서, 상기 시그널링 프로세서(104)는 상기 처리되는 시그널링 정보를 일시 저장하는 데이터베이스(미도시)를 내부에 포함할 수도 있다.
어플리케이션 제어부(105)는, 채널 매니저(106)와 채널 맵(107)을 포함한다. 채널 매니저(106)는 시그널링 정보에 기초하여 채널 맵(107)을 형성하고 관리하며, 사용자의 입력에 따라 상기 채널 맵(107)에 기초하여 채널 전환 등이 되도록 제어할 수 있다.
디코더/스케일러(110)는, 비디오 디코더(111), 오디오 디코더(112), 스케일러(113) 및 비디오 프로세서(114)를 포함한다.
비디오 디코더/오디오 디코더(111/112)는 역다중화된 오디오 신호와 비디오 신호를 수신하여 처리한다.
스케일러(113)는 상기 디코더들(111/112)에서 처리된 신호를 출력을 위한 적절한 크기의 신호로 스케일링한다.
사용자 입력부(123)는, 리모컨 등을 통한 사용자 등의 키 입력을 수신하는 사용자 입력부(미도시) 포함한다.
어플리케이션 제어부(105)는 상기 UI 구성을 위한 OSD 데이터 생성부(미도시)를 더 포함할 수 있다. 또는 OSD 데이터 생성부는 상기 어플리케이션 제어부(105)의 제어에 따라 UI 구성을 위한 OSD 데이터를 생성할 수 있다.
디스플레이부(120)은 컨텐츠, UI 등을 출력한다.
믹서(118)는, 시그널링 프로세서(104), 디코더/스케일러(110) 및 어플리케이션 제어부(105)의 입력을 믹싱하여 출력한다.
출력 포맷터(119)는 믹서(118)의 출력을 디스플레이부의 출력 포맷에 맞게 구성한다. 여기서, 출력 포맷터(119)는 예를 들어, 2D 컨텐츠의 경우에는 바이패스 하고, 3D 컨텐츠는 제어부(115)의 제어에 따라 그 포맷 및 디스플레이부(120)의 출력 주파수 등에 맞게 3D 포맷으로 처리하는 출력 포맷터로 동작할 수 있다.
출력 포맷터(119)는 3차원 이미지 데이터를 디스플레이부(120)로 출력하고, 출력되는 3차원 이미지 데이터를 셔터 안경(121)으로 시청 시에 동기가 맞도록 상기 구성된 3차원 이미지 데이터에 관한 동기 신호(Vsync)를 생성하여 상기 셔터 안경 내 IR 에미터(Emitter)(미도시)로 출력하여 셔터 안경(121)에서 디스플레이 동기에 맞춰 시청 가능하도록 한다.
또한, 디지털 방송 수신기는 사용자의 위치 변화값을 판단하는 위치 판단 모듈(122)을 더 포함하고, 위치 판단 모듈(122)은, 상기 사용자의 위치를 소정 시간 간격으로 센싱한다.
사용자 입력부(123)는 사용자 인터페이스 출력 명령을 입력받는다.
위치 판단 모듈(122)은 상기 사용자 인터페이스 출력 명령에 따라 사용자의 위치를 판단한다.
제어부(115)는 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 결정한다. 이 때, 상기 제어부(115)는 사용자 인터페이스와 상기 사용자와의 거리가 소정치가 되도록 상기 사용자 인터페이스가 출력될 뎁쓰값을 결정할 수 있다.
또한, 제어부(115)는, 사용자 인터페이스와 상기 사용자와의 거리가 상기 사용자가 설정한 거리가 되도록 상기 사용자 인터페이스가 출력될 뎁쓰값을 결정할 수 있다.
출력 포맷터(119)는 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력한다.
사용자 입력부(124)은 사용자의 위치에 대응하여 상기 사용자 인터페이스를 출력할 위치를 사용자로부터 설정받을 수 있다.
이 때, 저장 수단(108)은 사용자 인터페이스를 출력할 위치 정보를 저장하고, 제어부(115)는, 저장 수단(108)을 참조하여, 상기 사용자 인터페이스를 출력할 위치를 결정할 수 있다.
실시에에 따라, 위치 판단 모듈(122)은 상기 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 제어부(115)는 상기 사용자의 위치가 변경되면, 상기 사용자 인터페이스가 출력되는 위치도 상기 사용자의 위치 변경에 대응하여 변경할 수있다.
또한, 상기 위치 판단 모듈(122)은, 디스플레이 기기가 3D 출력 모드로 설정되어 있으면, 상기 사용자 인터페이스 출력 명령에 따라 상기 사용자의 위치를 판단할 수 있다.
IR 에미터는 출력 포맷터(119)에서 생성된 동기 신호를 수신하여 셔터 안경(121) 내 수광부(미도시)로 출력하고, 셔터 안경(150)은 상기 수광부를 통해 IR 에미터(미도시)를 거쳐 수신되는 동기 신호에 따라 셔터 오픈 주기를 조정함으로써, 상기 디스플레이부(120)에서 출력되는 3차원 이미지 데이터의 동기에 맞출 수 있다.
도 13은 본 발명의 일실시예에 따른 셔터 안경의 구성을 도시한 도면이다.
도 13을 참조하면, 셔터 안경은 좌안 셔터 액정 패널(1200)과 우안 셔터 액정 패널(1230)을 구비한다. 셔터 액정 패널들(1200, 1230)은 소스 구동 전압에 따라 광을 단순히 통과 또는 차단시키는 기능을 수행한다. 디스플레이 기기에 좌 이미지 데이터가 표시될 때, 좌안 셔터 액정 패널(1200)은 광을 통과시키고 우안 셔터 액정 패널(1230)은 광 투과를 차단하여, 좌 이미지 데이터가 셔터 안경 사용자의 좌측 눈에만 전달되게 한다. 한편, 디스플레이 기기에 우 이미지 데이터가 표시될 때에는, 좌안 셔터 액정 패널(1200)은 광 투과를 차단하고, 우안 셔터 액정 패널(1230)은 광을 통과시켜서, 우 이미지 데이터가 사용자의 우측 눈에만 전달되게 한다.
이 과정에서, 셔터 안경(1150)의 적외선 송수신부(1160)는 디스플레이 기기로부터 수신된 적외선 신호를 전기적 신호로 변환하여 제어부(1170)에 제공한다. 제어부(1170)는 동기 기준 신호에 따라서 좌안 셔터 액정 패널(1200)과 우안 셔터 액정 패널(1230)이 교대로 온오프되게 제어한다.
상술한 바와 같이 셔터 안경는 사용자 위치를 감지하기 위한 IR 센서를 추가적으로 구비할 수 있으며, 적외선 송수신부(1160)는 IR 센서에서 감지된 정보를 디스플레이 기기로 전송할 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.
101: 튜너
102: 복조기
103: 역다중화부
104: 시그널링 정보 프로세서
105: 애플리케이션 제어부
108: 저장 수단
109: 외부 입력 수신부
110: 디코더/스케일러
115: 제어부
118: 믹서
119: 출력 포맷터
120: 디스플레이부

Claims (12)

  1. 3D 사용자 인터페이스 출력 방법에 있어서,
    사용자 인터페이스 출력 명령을 입력받는 단계;
    상기 사용자 인터페이스 출력 명령에 따라 사용자의 위치를 판단하는 단계; 및
    상기 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 결정한 후, 상기 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력하는 단계
    를 포함하는 것을 특징으로 하는 디스플레이 기기의 사용자 인터페이스 출력 방법.
  2. 제1항에 있어서,
    상기 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치을 결정한 후, 상기 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력하는 단계는,
    상기 사용자 인터페이스와 상기 사용자와의 거리가 소정치가 되도록 상기 사용자 인터페이스가 출력될 뎁쓰값을 결정하는 단계
    를 포함하는 것을 특징으로 하는 디스플레이 기기의 사용자 인터페이스 출력 방법.
  3. 제1항에 있어서,
    상기 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치을 결정한 후, 상기 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력하는 단계는,
    상기 사용자 인터페이스와 상기 사용자와의 거리가 상기 사용자가 설정한 거리가 되도록 상기 사용자 인터페이스가 출력될 뎁쓰값을 결정하는 단계
    를 포함하는 것을 특징으로 하는 디스플레이 기기의 사용자 인터페이스 출력 방법.
  4. 제1항에 있어서,
    상기 사용자의 위치에 대응하여 상기 사용자 인터페이스를 출력할 위치를 사용자로부터 설정받고, 상기 사용자 인터페이스를 출력할 위치 정보를 저장 수단에 저장하는 단계
    를 더 포함하고,
    상기 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 결정한 후, 상기 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력하는 단계는,
    상기 저장 수단를 참조하여, 상기 사용자 인터페이스를 출력할 위치를 결정하는 단계
    를 포함하는 것을 특징으로 하는 디스플레이 기기의 사용자 인터페이스 출력 방법.
  5. 제1항에 있어서,
    상기 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 결정한 후, 상기 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력하는 단계는,
    상기 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 사용자의 위치가 변경되면, 상기 사용자 인터페이스가 출력되는 위치도 상기 사용자의 위치 변경에 대응하여 변경하는 단계
    를 더 포함하는 것을 특징으로 하는 디스플레이 기기의 사용자 인터페이스 출력 방법.
  6. 제1항에 있어서,
    상기 사용자 인터페이스 출력 명령에 따라 사용자의 위치를 판단하는 단계는,
    상기 디스플레이 기기가 3D 출력 모드로 설정되어 있으면, 상기 사용자 인터페이스 출력 명령에 따라 상기 사용자의 위치를 판단하는 단계
    를 포함하는 것을 특징으로 하는 디스플레이 기기의 사용자 인터페이스 출력 방법.
  7. 3D 디스플레이 기기에 있어서,
    사용자 인터페이스 출력 명령을 입력받는 사용자 입력부;
    상기 사용자 인터페이스 출력 명령에 따라 사용자의 위치를 판단하는 위치 판단 모듈; 및
    상기 판단된 사용자의 위치에 따라 상기 사용자 인터페이스를 출력할 위치를 결정하는 제어부;
    상기 결정된 위치에 상기 사용자 인터페이스를 3D 포맷으로 출력하는 출력 포맷터
    를 포함하는 것을 특징으로 하는 디스플레이 기기의 사용자 인터페이스 출력 방법.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 사용자 인터페이스와 상기 사용자와의 거리가 소정치가 되도록 상기 사용자 인터페이스가 출력될 뎁쓰값을 결정하는 것을 특징으로 하는 디스플레이 기기.
  9. 제7항에 있어서,
    상기 제어부는,
    상기 사용자 인터페이스와 상기 사용자와의 거리가 상기 사용자가 설정한 거리가 되도록 상기 사용자 인터페이스가 출력될 뎁쓰값을 결정하는 것을 특징으로 하는 디스플레이 기기.
  10. 제7항에 있어서,
    상기 사용자의 위치에 대응하여 상기 사용자 인터페이스를 출력할 위치를 사용자로부터 설정받는 사용자 입력부; 및
    상기 사용자 인터페이스를 출력할 위치 정보를 저장하는 저장 수단
    를 더 포함하고,
    상기 제어부는,
    상기 저장 수단를 참조하여, 상기 사용자 인터페이스를 출력할 위치를 결정하는 것을 특징으로 하는 디스플레이 기기.
  11. 제7항에 있어서,
    상기 위치 판단 모듈은 상기 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 제어부는 상기 사용자의 위치가 변경되면, 상기 사용자 인터페이스가 출력되는 위치도 상기 사용자의 위치 변경에 대응하여 변경하는 것을 특징으로 하는 디스플레이 기기.
  12. 제7항에 있어서,
    상기 위치 판단 모듈은,
    상기 디스플레이 기기가 3D 출력 모드로 설정되어 있으면, 상기 사용자 인터페이스 출력 명령에 따라 상기 사용자의 위치를 판단하는 것을 특징으로 하는 디스플레이 기기.
KR1020100067377A 2010-07-13 2010-07-13 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기 KR101719981B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020100067377A KR101719981B1 (ko) 2010-07-13 2010-07-13 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기
US13/181,097 US9030467B2 (en) 2010-07-13 2011-07-12 Electronic apparatus and method for displaying graphical user interface as 3D image
CN201110240216.1A CN102447861B (zh) 2010-07-13 2011-07-12 按照3d图像来显示图形用户界面的电子设备及方法
EP11173635.1A EP2408215B1 (en) 2010-07-13 2011-07-12 Electronic apparatus and method for displaying graphical user interface as 3d image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100067377A KR101719981B1 (ko) 2010-07-13 2010-07-13 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기

Publications (2)

Publication Number Publication Date
KR20120006742A true KR20120006742A (ko) 2012-01-19
KR101719981B1 KR101719981B1 (ko) 2017-03-27

Family

ID=44582201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100067377A KR101719981B1 (ko) 2010-07-13 2010-07-13 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기

Country Status (4)

Country Link
US (1) US9030467B2 (ko)
EP (1) EP2408215B1 (ko)
KR (1) KR101719981B1 (ko)
CN (1) CN102447861B (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120218321A1 (en) * 2009-11-19 2012-08-30 Yasunori Ake Image display system
KR101816846B1 (ko) * 2010-08-19 2018-01-12 삼성전자주식회사 디스플레이 장치 및 이에 적용되는 osd 제공방법
KR20130013248A (ko) * 2011-07-27 2013-02-06 삼성전자주식회사 3d 영상 재생 기기 및 그 3d 영상 제어 방법
JP5242762B2 (ja) * 2011-11-30 2013-07-24 株式会社東芝 画像再生装置、画像再生方法及びデータ構造
EP2610273B1 (en) * 2011-12-30 2018-02-07 Borealis AG Catalyst component
WO2014000129A1 (en) 2012-06-30 2014-01-03 Intel Corporation 3d graphical user interface
US11237695B2 (en) * 2012-10-12 2022-02-01 Sling Media L.L.C. EPG menu with a projected 3D image
KR20140061098A (ko) * 2012-11-13 2014-05-21 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN103024415B (zh) * 2012-12-07 2015-11-18 深圳Tcl新技术有限公司 基于一屏双显的信源识别方法和装置
CN103034346B (zh) * 2012-12-24 2016-11-23 华为软件技术有限公司 终端、遥控器及三维播放模式下显示器的调整方法
CN104063137B (zh) * 2013-03-18 2017-11-28 联想(北京)有限公司 一种控制方法及电子设备
KR20180045609A (ko) * 2016-10-26 2018-05-04 삼성전자주식회사 전자 장치 및 전자 장치의 표시 방법
US10974135B2 (en) * 2017-09-28 2021-04-13 James Andrew Aman Interactive game theater with secret message imaging system
US10891803B2 (en) 2017-10-16 2021-01-12 Comcast Cable Communications, Llc User interface and functions for virtual reality and augmented reality
WO2022156729A1 (zh) * 2021-01-22 2022-07-28 海信视像科技股份有限公司 一种显示设备及显示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1083460A (ja) * 1996-06-27 1998-03-31 Toshiba Corp 立体視システム、立体視方法、及び、異なる2つの視点から見た一対の画像を立体視可能に表示させるコンピュータプログラムを格納する記憶媒体
KR19990030307A (ko) * 1997-09-30 1999-04-26 이데이 노부유끼 3차원 영상 표시 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5694530A (en) * 1994-01-18 1997-12-02 Hitachi Medical Corporation Method of constructing three-dimensional image according to central projection method and apparatus for same
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US20040246272A1 (en) * 2003-02-10 2004-12-09 Artoun Ramian Visual magnification apparatus and method
FR2895811B1 (fr) * 2006-01-04 2008-03-14 Bernard Szajner Procede d'interaction en temps reel avec des images en relief
CN101266546A (zh) 2008-05-12 2008-09-17 深圳华为通信技术有限公司 一种实现操作系统三维显示的方法和一种三维操作系统
AU2009275052B2 (en) * 2008-07-24 2014-05-29 Panasonic Corporation Playback device capable of stereoscopic playback, playback method, and program
MX2011002553A (es) * 2008-09-18 2011-04-04 Panasonic Corp Dispositivo de reproduccion de video estereoscopico y dispositivo de presentacion visual de video estereoscopico.
EP2194504A1 (en) * 2008-12-02 2010-06-09 Koninklijke Philips Electronics N.V. Generation of a depth map

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1083460A (ja) * 1996-06-27 1998-03-31 Toshiba Corp 立体視システム、立体視方法、及び、異なる2つの視点から見た一対の画像を立体視可能に表示させるコンピュータプログラムを格納する記憶媒体
KR19990030307A (ko) * 1997-09-30 1999-04-26 이데이 노부유끼 3차원 영상 표시 장치

Also Published As

Publication number Publication date
CN102447861B (zh) 2016-06-01
EP2408215A2 (en) 2012-01-18
US9030467B2 (en) 2015-05-12
US20120013612A1 (en) 2012-01-19
CN102447861A (zh) 2012-05-09
KR101719981B1 (ko) 2017-03-27
EP2408215B1 (en) 2016-06-15
EP2408215A3 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
KR101719981B1 (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기
KR101719980B1 (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
KR20120016408A (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 출력 방법 및 그 방법을 채용한 디스플레이 기기
US20110296327A1 (en) Display apparatus and display method thereof
KR101911250B1 (ko) 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법
KR20110057629A (ko) Ui 제공 방법 및 디지털 방송 수신기
KR101888082B1 (ko) 영상표시장치 및 그 동작방법
KR20120018864A (ko) 3차원 컨텐츠를 출력하는 멀티비전 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 멀티비전 디스플레이 기기
JP2013128181A (ja) 表示装置、表示方法および表示プログラム
KR20120059947A (ko) 3차원 안경 및 이에 적용되는 3차원 안경 제어방법
KR20120009897A (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기
KR20110136326A (ko) 삼차원 입체안경의 수평각 정보를 반영한 삼차원 스테레오스코픽 렌더링 시스템
KR101737832B1 (ko) Ui 제공 방법 및 디지털 방송 수신기
KR101598916B1 (ko) 사용자 인터페이스 제공 방법 및 그 방법을 채용한 디지털 방송 수신기
KR101660731B1 (ko) 디지털 방송 수신기의 시청 제한 방법 및 그 방법을 채용한 디지털 방송 수신기
US20120081523A1 (en) 2d/3d compatible display system which automatically switches operational modes
KR101662077B1 (ko) 방송프로그램 정보 제공 방법 및 그 방법을 채용한 디지털 방송 수신기
KR20120004673A (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 동작 방법 및 그 방법을 채용한 디스플레이 기기
KR101620969B1 (ko) 디스플레이 장치 및 이에 적용되는 3d 영상 미리보기 제공 방법, 그리고 3d 영상 제공 시스템
KR101651132B1 (ko) 3차원 컨텐츠 출력 방법 및 그 방법을 채용한 디지털 방송 수신기
KR20110085082A (ko) 사용자 인터페이스 제공 방법 및 그 방법을 채용한 디지털 방송 수신기
KR20110062983A (ko) 3d 영상의 입체감 조절 요소를 설정하는 gui를 표시하는 디스플레이 장치 및 이에 적용되는 gui 제공 방법
KR20110136563A (ko) 디지털 방송 수신기의 시청 안내 방법 및 그 방법을 채용한 디지털 방송 수신기
KR20110091409A (ko) Ui 제공 방법 및 디지털 방송 수신기
KR20110088808A (ko) 방송프로그램 정보 제공 방법 및 그 방법을 채용한 디지털 방송 수신기

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200224

Year of fee payment: 4