KR20140039641A - 영상표시장치, 및 그 동작방법 - Google Patents

영상표시장치, 및 그 동작방법 Download PDF

Info

Publication number
KR20140039641A
KR20140039641A KR1020120106033A KR20120106033A KR20140039641A KR 20140039641 A KR20140039641 A KR 20140039641A KR 1020120106033 A KR1020120106033 A KR 1020120106033A KR 20120106033 A KR20120106033 A KR 20120106033A KR 20140039641 A KR20140039641 A KR 20140039641A
Authority
KR
South Korea
Prior art keywords
user
gesture
hand
menu
image
Prior art date
Application number
KR1020120106033A
Other languages
English (en)
Other versions
KR102035134B1 (ko
Inventor
최은정
최광수
박성희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120106033A priority Critical patent/KR102035134B1/ko
Priority to US13/828,921 priority patent/US9250707B2/en
Priority to EP13001374.1A priority patent/EP2711807B1/en
Priority to CN201310128638.9A priority patent/CN103686269B/zh
Publication of KR20140039641A publication Critical patent/KR20140039641A/ko
Application granted granted Critical
Publication of KR102035134B1 publication Critical patent/KR102035134B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 영상표시장치, 및 그 동작방법에 관한 것이다. 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 사용자의 손에 기초한 제1 제스쳐를 인식하는 단계와, 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 사용자 손의 위치에 대응하는 위치에, 표시하는 단계와, 사용자의 손이 인식되지 않거나, 사용자 손에 기초한 제2 제스처가 인식되는 경우, 메뉴 표시를 종료하는 단계를 포함한다. 이에 의해, 사용자의 이용 편의성을 향상시킬 수 있게 된다.

Description

영상표시장치, 및 그 동작방법{Image display apparatus and method for operating the same}
본 발명은 영상표시장치, 및 그 동작방법에 관한 것이며, 더욱 상세하게는 사용자의 이용 편의성을 향상시킬 수 있는 영상표시장치, 및 그 동작방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
본 발명의 목적은, 사용자의 이용 편의성을 향상시킬 수 있는 영상표시장치, 및 그 동작방법을 제공함에 있다.
또한, 본 발명의 다른 목적은, 사용자 제스쳐에 따라 대응하는 메뉴를 표시할 수 있는 영상표시장치, 및 그 동작방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 사용자의 손에 기초한 제1 제스쳐를 인식하는 단계와, 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 사용자 손의 위치에 대응하는 위치에, 표시하는 단계와, 사용자의 손이 인식되지 않거나, 사용자 손에 기초한 제2 제스처가 인식되는 경우, 메뉴 표시를 종료하는 단계를 포함한다.
또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 사용자의 얼굴을 인식하는 단계와, 사용자의 손에 기초한 제1 제스쳐를 인식하는 단계와, 인식된 사용자 얼굴 및 제1 제스쳐에 기초하여, 해당하는 메뉴를, 사용자의 손의 위치에 대응하는 위치에, 표시하는 단계를 포함한다.
또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 촬영 영상을 획득하는 카메라와, 촬영 영상에 기초하여, 사용자의 손에 기초한 제1 제스쳐를 인식하고, 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 사용자 손의 위치에 대응하는 위치에, 표시하도록 제어하는 제어부를 포함하고, 제어부는, 사용자의 손이 인식되지 않거나, 사용자 손에 기초한 제2 제스처가 인식되는 경우, 메뉴 표시를 종료하도록 제어한다.
또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 디스플레이와, 촬영 영상을 수신하고, 촬영 영상에 기초하여, 사용자의 손에 기초한 제1 제스쳐를 인식하고, 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 사용자 손의 위치에 대응하는 위치에, 표시하도록 제어하는 제어부를 포함하고, 제어부는, 사용자의 손이 인식되지 않거나, 사용자 손에 기초한 제2 제스처가 인식되는 경우, 메뉴 표시를 종료하도록 제어한다.
본 발명의 일실시예에 따르면, 영상표시장치는, 사용자의 손에 기초한 제1 제스쳐를 인식하고, 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 사용자의 손의 위치에 대응하여, 디스플레이 상에 표시함으로써, 사용자가 원하는 영역에 메뉴를 표시할 수 있게 된다. 따라서, 사용자의 이용 편의성이 증대될 수 있게 된다.
한편, 사용자 제스쳐에 의해 표시되는 메뉴는 이동 가능하며, 이에 사용자의 이용 편의성이 더욱 증대될 수 있다.
한편, 사용자의 다른 손에 기초한 제스쳐가 있는 경우, 표시되는 메뉴가 가변될 수 있으며, 이에 따라, 사용자가 원하는 메뉴를 용이하게 표시할 수 있게 된다.
한편, 제1 사용자의 손에 기초한 제스쳐를 통해 메뉴가 표시되고 있는 상태에서, 다른 사용자의 손에 기초한 제스쳐가 있는 경우, 제어권이 부여된 제1 사용자에게 우선권을 할당하여, 표시되던 메뉴를 계속 표시함으로써, 제스쳐에 대한 오동작을 방지할 수 있게 된다.
한편, 메뉴가 표시된 상태에서, 사용자의 손가락 제스쳐가 있는 경우, 해당 손가락에 대응하는 메뉴 항목이 포커싱될 수 있다. 이에 따라, 사용자가 간편하게 원하는 항목을 포커싱할 수 있게 된다.
다음, 사용자가 특정 항목이 포커싱된 상태에서, 그립 제스쳐를 취하는 경우, 해당 항목을 간편하게 선택할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 외관을 보여주는 도면이다.
도 2는 도 1의 영상표시장치의 내부 블록도이다.
도 3은 도 2의 제어부의 내부 블록도의 일예이다.
도 4는 본 발명의 일 실시예에 따른 영상표시장치의 동작방법을 보여주는 순서도이다.
도 5a 내지 도 14d는 도 4의 영상표시장치의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 외관을 보여주는 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 의한, 영상표시장치(100)는, 사용자 제스처를 인식할 수 있는 영상표시장치일 수 있다. 이를 위해, 영상표시장치(100)는, 카메라(190)를 구비할 수 있다.
도면에서는 카메라(190)가, 영상표시장치(100)의 상부에 배치되는 것을 예시하나, 다양한 예가 가능하다.
한편, 카메라(190)는, 사용자를 촬영하고, 촬영된 이미지를 영상표시장치(100) 내의 제어부(170)로 전송할 수 있다.
한편, 도면과 달리, 영상표시장치(100)와 카메라가 별도의 장치인 것도 가능하다.
본 발명의 실시예에 따르면, 영상표시장치(100)는, 촬영된 이미지를 통해, 사용자의 손에 기초한 제1 제스쳐를 인식하고, 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 사용자 손의 위치에 대응하는 위치에, 표시한다.
예를 들어, 도 1과 같이, 사용자가 오른 손을 내린 상태에서, 올리는 제스처(gesture)를 취한 경우, 영상표시장치(100)는, 카메라(190)를 통해 촬영된 이미지를 통해, 유효한 제스쳐로서 인식할 수 있다. 즉, 제1 제스쳐로서 인식할 수 있다. 이에 따라, 영상표시장치(100)는, 소정 메뉴를, 사용자의 손의 위치에 대응하여, 디스플레이(180) 상에 표시한다. 이와 같이, 사용자가 원하는 영역에 메뉴를 표시할 수 있게 되어, 사용자의 이용 편의성이 증대될 수 있게 된다.
한편, 사용자 제스쳐에 대한 메뉴 표시 등에 대해서는, 도 4 이하를 참조하여, 상술한다.
한편, 영상표시장치(100)는, 수신되는 방송 신호, 외부 입력 신호, 또는 스트리밍 신호를, 신호 처리하여, 해당 영상을 디스플레이(180)에 표시하고, 해당 음성을 출력할 수 있다.
한편, 영상표시장치(100)는, 방송 표시 가능한 티브이(TV), 모니터, 컴퓨터, 노트북, 태블릿 PC 등을 포함할 수 있다. 이하에서는, 영상표시장치(100)로 티브이를 중심으로 기술한다.
도 2는 도 1의 영상표시장치의 내부 블록도이다.
도 2을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는, 방송 수신부(105), 외부장치 인터페이스부(130), 저장부(140), 사용자입력 인터페이스부(150), 센서부(미도시), 제어부(170), 디스플레이(180), 오디오 출력부(185), 및 원격제어장치(200)를 포함할 수 있다.
방송 수신부(105)는, 튜너부(110), 복조부(120), 및 네트워크 인터페이스부(135)를 포함할 수 있다. 물론, 필요에 따라, 튜너부(110)와 복조부(120)를 구비하면서 네트워크 인터페이스부(135)는 포함하지 않도록 설계하는 것도 가능하며, 반대로 네트워크 인터페이스부(135)를 구비하면서 튜너부(110)와 복조부(120)는 포함하지 않도록 설계하는 것도 가능하다.
튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너부(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.
또한, 튜너부(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너부(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.
한편, 튜너부(110)는, 복수 채널의 방송 신호를 수신하기 위해, 복수의 튜너를 구비하는 것이 가능하다. 또는, 복수 채널의 방송 신호를 동시에 수신하는 단일 튜너도 가능하다.
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다.
외부장치 인터페이스부(130)는, 접속된 외부 장치(미도시)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북), 셋탑 박스 등과 같은 외부 장치와 유/무선으로 접속될 수 있으며, 외부 장치와 입력/출력 동작을 수행할 수도 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 입력받을 수 있다. 한편, 무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다.
네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 이를 위해, 네트워크 인터페이스부(135)는, 유선 통신부(미도시), 또는 무선 통신부(미도시)를 구비할 수 있다.
예를 들어, 네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 서버(미도시)로부터 컨텐츠 또는 데이터들을 수신할 수 있다.
한편, 네트워크 인터페이스부(135)는, 네트워크 공유기(500)와의 데이터 통신을 수행하고, 네트워크 공유기(500) 하의 네트워크 내에서, 데이터를 교환하는 것이 가능하다.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.
또한, 저장부(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
도 2의 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수도 있다.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다.
예를 들어, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 송신/수신하거나, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 사용자의 제스처를 센싱하는 센서부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센서부(미도시)로 송신할 수 있다.
제어부(170)는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
도 2에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 3를 참조하여 후술한다.
그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너부(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
한편, 제어부(170)는, 카메라(190)로부터 촬영된 영상에 기초하여, 사용자의 제스쳐를 파악할 수 있다. 특히, 제어부(170)는, 촬영된 이미지로부터, 사용자의 얼굴과 손을 인식하고, 사용자 얼굴과 손의 위치가 소정치 미만인 상태에서, 사용자가 손을 올리는 제스쳐를 취한 경우, 해당 제스쳐를, 유효한 제스쳐로 판단할 수 있다. 그리고, 제어부(170)는, 해당 제스쳐예 따라, 소정 메뉴를 사용자의 손의 위치에 대응하는 영역에 표시하도록 제어할 수 있다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 복호화된 영상 등과 함께 스트림 복호화되어 제어부(170)로 입력될 수 있다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다.
이때의 썸네일 리스트는, 디스플레이(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다. 이러한 썸네일 리스트 내의 썸네일 영상은 순차적으로 업데이트 될 수 있다.
디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다.
디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 또한, 3차원 디스플레이(3D display)가 가능할 수도 있다.
이러한, 3차원 영상 시청을 위해, 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.
단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경(glass) 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다.
한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 시청장치(미도시)로서 추가 디스플레이를 사용하여, 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다.
한편, 안경 타입은, 편광 안경 타입 등의 패시브(passive) 방식과, 셔터 글래스(ShutterGlass) 타입 등의 액티브(active) 방식으로 다시 나뉠 수 있다. 그리고, 헤드 마운트 디스플레이 타입에서도 패시브 방식과 액티브 방식으로 나뉠 수 있다.
한편, 시청장치(미도시)는, 입체 영상 시청이 가능한 3D용 글래스일 수도 있다. 3D용 글래스(미도시)는, 패시브 방식의 편광 글래스 또는 액티브 방식의 셔터 글래스를 포함할 수 있으며, 상술한 헤드 마운트 타입도 포함하는 개념일 수 있다.
한편, 시청장치(미도시)는, 사용자 별로 각각 서로 다른 영상의 시청이 가능한 글래스일 수 있다. 예를 들어, 제1 시청장치는 제1 영상만이 시청 가능한 글래스이고, 제2 시청장치는 제2 영상만이 시청 가능한 글래스일 수 있다.
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호를 입력 받아 음성으로 출력한다.
카메라(190)는 사용자를 촬영한다. 카메라(190)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 한편, 카메라(190)는 디스플레이(180) 상부에 영상표시장치(100)에 매립되거나 또는 별도로 배치될 수 있다. 카메라(190)에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다.
제어부(170)는, 카메라(190)로부터 촬영된 영상, 또는 센서부(미도시)로부터의 감지된 신호 각각 또는 그 조합에 기초하여 사용자의 제스처를 감지할 수 있다.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
한편, 상술한 영상표시장치(100)는, 고정형 또는 이동형 디지털 방송 수신 가능한 디지털 방송 수신기일 수 있다.
한편, 도 2에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
한편, 영상표시장치(100)는 도 2에 도시된 바와 달리, 도 2의 도시된 튜너부(110)와 복조부(120)를 구비하지 않고, 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(135)를 통해서, 방송 컨텐츠를 수신하고, 이를 재생할 수도 있다.
도 3은 도 2의 제어부의 내부 블록도의 일예이다.
도면을 참조하여 설명하면, 본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(310), 오디오 처리부(315), 영상 처리부(320), 프로세서(330), OSD 생성부(340), 믹서(345)를 포함할 수 있다. 그 외, 데이터 처리부(미도시)를 더 포함할 수 있다.
역다중화부(310)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.
오디오 처리부(315)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(315)는 다양한 디코더를 구비할 수 있다. 한편, 외부 장치(미도시)로의 오디오 데이터의 효율적인 전송을 위해, 오디오 처리부(315)는, 인코더(미도시)를 더 구비할 수도 있다.
또한, 오디오 처리부(315)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
영상 처리부(320)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(320)는, 영상 디코더(325), 및 스케일러(335)를 구비할 수 있다.
영상 디코더(325)는, 역다중화된 영상신호를 복호화하며, 스케일러(335)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.
프로세서(330)는, 영상표시장치(100) 내 또는 제어부(170) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(330)는 튜너부(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 프로세서(330)는, 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
또한, 프로세서(330)는, 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(130)와의 데이터 전송 제어를 수행할 수 있다.
또한, 프로세서(330)는, 제어부(170) 내의 역다중화부(310), 영상 처리부(320), OSD 생성부(340) 등의 동작을 제어할 수 있다.
한편, 본 발명의 실시예와 관련하여, 프로세서(330)는, 카메라(190)로부터 촬영된 영상에 기초하여, 사용자의 제스쳐를 파악할 수 있다. 특히, 프로세서(330)는, 촬영된 이미지로부터, 사용자의 얼굴과 손을 인식하고, 사용자 얼굴과 손의 위치가 소정치 미만인 상태에서, 사용자가 손을 올리는 제스쳐를 취한 경우, 해당 제스쳐를, 유효한 제스쳐로 판단할 수 있다. 그리고, 프로세서(330)는, 해당 제스쳐예 따라, 소정 메뉴를 사용자의 손의 위치에 대응하는 영역에 표시하도록 제어할 수 있다.
OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다.
또한, OSD 생성부(340)는, 원격제어장치(200)로부터 입력되는 포인팅 신호에 기초하여, 디스플레이에 표시 가능한, 포인터를 생성할 수 있다. 특히, 이러한 포인터는, 포인팅 신호 처리부에서 생성될 수 있으며, OSD 생성부(340)는, 이러한 포인팅 신호 처리부(미도시)를 포함할 수 있다. 물론, 포인팅 신호 처리부(미도시)가 OSD 생성부(340) 내에 구비되지 않고 별도로 마련되는 것도 가능하다.
한편, OSD 생성부(340)는, 프로세서(330)에서 인식된 제스쳐에 대응하는, 메뉴를 생성할 수 있다. 제스쳐 별로, 또는 사용자 별로, 또는 사용자의 오른 손/ 왼손 별로, 서로 다른 메뉴를 생성할 수 있다.
믹서(345)는, OSD 생성부(340)에서 생성된 OSD 신호와 영상 처리부(320)에서 영상 처리된 복호화된 영상 신호를 믹싱하여 출력할 수 있다.
한편, 믹서(345)는, 영상 처리부(320)에서 영상 처리된 복호화된 영상 신호와, OSD 생성부(340)에서, 사용자의 제스쳐에 대응하여 생성된 메뉴를 믹싱할 수 있다. 이때, 사용자의 손의 위치에 대응하여, 메뉴 표시 위치가 가변될 수 있다. 즉, 사용자의 손의 위치에 대응하여, 메뉴 표시 위치가 결정될 수 있다.
제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다.
한편, 도 3에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
도 4는 본 발명의 일 실시예에 따른 영상표시장치의 동작방법을 보여주는 순서도이고, 도 5a 내지 도 14d는 도 4의 영상표시장치의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
먼저, 도 4를 참조하면, 영상표시장치(100)의 제어부(170)는, 사용자의 손에 기초한 제1 제스쳐가 있는 지 여부를 판단한다(S405). 그리고, 해당하는 경우, 제1 제스쳐를 인식한다(S410).
도 5a는, 사용자(500)가, 영상표시장치(100)를 통해, 특정 채널(CH 9)의 방송 영상(510)을 시청하다가, 오른 손을 올리는 제스쳐를 수행하는 것을 예시한다.
영상표시장치(100)의 카메라(190)는, 사용자에 대한 영상을 촬영한다. 도 5b는 카메라(150)를 통해, 촬영된 영상(520)을 예시한다. 도면에는, 사용자가 오른 손을 올리는 제스쳐를 수행한 순간의 영상(520)을 예시한다.
한편, 카메라(190)는, 연속으로 사용자에 대한 촬영 영상을 촬영할 수 있다. 촬영된 영상은, 영상표시장치(100)의 제어부(170)에 입력된다.
영상표시장치(100)의 제어부(170)는, 카메라(190)를 통해, 사용자가 오른 손을 올리기 이전 영상을 입력 받을 수 있다. 이러한 경우, 영상표시장치(100)의 제어부(170)는, 별다른 제스쳐가 없는 것으로 처리할 수 있다. 한편, 이때, 영상표시장치(100)의 제어부(170)는, 사용자의 얼굴(도 5b의 515)만 인식하고 있을 수 있다.
다음, 영상표시장치(100)의 제어부(170)는, 카메라(190)를 통해, 도 5b와 같이, 사용자가 오른 손을 올리는 제스쳐를 수행한 순간의 영상(520)을 입력받을 수 있다.
이러한 경우, 영상표시장치(100)의 제어부(170)는, 사용자의 얼굴(도 5b의 515)과, 사용자의 오른 손(505) 사이의 거리를 측정하고, 측정된 거리(D1)가 기준 거리(Dref) 이하인지 여부를 판단할 수 있다. 그리고, 측정된 거리(D1)가 기준 거리(Dref) 이하인 경우, 기 설정된 제1 제스쳐로 인식할 수 있다.
다음, 영상표시장치(100)는, 제1 제스쳐에 기초하여, 해당하는 메뉴를 사용자의 손의 위치에 대응하는 위치에 표시한다(S415).
영상표시장치(100)의 제어부(170)는, 제1 제스쳐가 인식된 경우, 해당하는 메뉴를 사용자의 손의 위치에 대응하는 위치에 표시하도록 제어한다.
구체적으로, 제어부(170) 내의 OSD 생성부(340)는, 프로세서(330)에서 인식된 제스쳐에 대응하는, 메뉴를 생성할 수 있다. 도 5a와 같이, 오른 손을 올리는 제1 제스쳐에 대응하는 메뉴를 생성할 수 있다.
제어부(170) 내의 믹서(345)는, 영상 처리부(320)에서 영상 처리된 복호화된 방송 영상 신호와, OSD 생성부(340)에서, 사용자의 제1 제스쳐에 대응하여 생성된 메뉴를 믹싱할 수 있다. 이때, 사용자의 손의 위치에 대응하여, 메뉴 표시 위치가 결정될 수 있다.
즉, 도 5a에서와 같이, 사용자의 오른 손의 위치가 Pa 위치인 경우, 디스플레이(180)에 표시되는 메뉴의 위치는 Pa에 대응하는 제1 위치(P1)일 수 있다.
도 5c에서는, 표시되는 방송 영상(510)과 함께, 복수의 항목들을 포함하는 메뉴(550)가, 사용자(500)의 오른 손의 위치(Pa)에 대응하는 제1 위치(P1)에 표시되는 것을 예시한다. 이와 같이, 사용자의 손의 위치에 대응하여, 디스플레이 상에 표시함으로써, 사용자가 원하는 영역에 메뉴를 표시할 수 있게 된다. 따라서, 사용자의 이용 편의성이 증대될 수 있게 된다.
한편, 도 5c는, 메뉴(550)가, 볼륨 조절 가능한 볼륨 조절 항목(551,552), 채널 조절 가능한 채널 조절 항목(553,554), 전원 오프 가능한 전원 오프 항목(555), 외부 입력 영상을 시청할 수 있는 외부 입력 항목(556)을 구비하는 것을 예시한다. 그 외, 메뉴(550)는, 현재 시청하고 있는 영상의 정보, 예를 들어, 방송 영상의 경우 채널 정보(DTV 9-1)를 더 포함할 수 있다.
한편, 메뉴(550)는, 사용자의 손의 위치를 나타내는 포인터(509)를 더 표시할 수 있다. 도면에서는, 손 모양의 포인터(509)를 예시하나, 다양한 예가 가능하다. 한편, 이러한 포인터가 표시되지 않는 것도 가능하다.
한편, 도 6a는, 사용자(500)가, 영상표시장치(100)를 통해, 특정 채널(CH 9)의 방송 영상(510)을 시청하다가, 오른 손을 올리는 제스쳐를 수행하는 것을 예시한다.
영상표시장치(100)의 제어부(170)는, 카메라(190)를 통해, 도 6b와 같이, 사용자가 오른 손을 올리는 제스쳐를 수행한 순간의 영상(520)을 입력받을 수 있다.
이러한 경우, 영상표시장치(100)의 제어부(170)는, 사용자의 얼굴(도 6b의 515)과, 사용자의 오른 손(505) 사이의 거리를 측정하고, 측정된 거리(D2)가 기준 거리(Dref) 이하인지 여부를 판단할 수 있다. 그리고, 측정된 거리(D2)가 기준 거리(Dref) 이하인 경우, 기 설정된 제1 제스쳐로 인식할 수 있다.
한편, 도 6a는, 사용자의 오른 손의 위치가, 도 5a 보다 사용자 얼굴에서 더 멀리 떨어진, Pb 위치인 것을 예시한다.
이러한 경우, 영상표시장치(100)의 제어부(170)는, 디스플레이(180)에 표시되는 메뉴의 위치가 Pb에 대응하는 제2 위치(P2)가 되도록 제어할 수 있다.
도 6c에서는, 표시되는 방송 영상(510)과 함께, 복수의 항목들을 포함하는 메뉴(550)가, 사용자(500)의 오른 손의 위치(Pb)에 대응하는 제2 위치(P1)에 표시되는 것을 예시한다. 이와 같이, 사용자의 손의 위치에 대응하여, 디스플레이 상에 표시함으로써, 사용자가 원하는 영역에 메뉴를 표시할 수 있게 된다. 따라서, 사용자의 이용 편의성이 증대될 수 있게 된다.
한편, 도 6c는, 도 5c와 같이, 메뉴(550)가, 볼륨 조절 가능한 볼륨 조절 항목(551,552), 채널 조절 가능한 채널 조절 항목(553,554), 전원 오프 가능한 전원 오프 항목(555), 외부 입력 영상을 시청할 수 있는 외부 입력 항목(556)을 구비하는 것을 예시한다. 그 외, 메뉴(550)는, 현재 시청하고 있는 영상의 정보, 예를 들어, 방송 영상의 경우 채널 정보(DTV 9-1)를 더 포함할 수 있다.
다음, 영상표시장치(100)는, 메뉴가 표시된 상태에서, 손 인식이 안되거나, 제2 제스쳐가 있는 지 여부를 판단한다(S420). 그리고, 해당하는 경우, 메뉴 표시를 종료한다(S425).
영상표시장치(100)의 제어부(170)는, 메뉴가 표시된 상태에서, 카메라(190)에서 촬영된 촬영 영상 내에 손 인식이 되지 않거나, 들었던 오른 손을 내리는 제2 제스쳐가 있는 경우, 표시되던 메뉴를 더 이상 표시하지 않도록 제어한다.
영상표시장치(100)의 제어부(170)는, 사용자가, 오른 손을 내리는 제2 제스쳐를 수행하는 경우, 더 이상 메뉴를 통한, 사용자 입력에 대한 의사가 없는 것으로 판단하고, 표시되던 메뉴를 더 이상 표시하지 않도록 제어할 수 있다. 즉, 도 5a의 화면과 같이, 방송 영상(510) 만이 표시될 수 있다.
한편, 영상표시장치(100)의 제어부(170)는, 카메라(190) 동작 이상으로, 촬영이 수행되지 않는 경우, 더 이상 사용자 제스쳐를 통한 사용자 입력이 불가능하므로, 표시되던 메뉴를 더 이상 표시하지 않도록 제어할 수 있다.
한편, 제415 단계(S415) 이후, 영상표시장치(100)는, 손 이동이 있는 지 여부를 판단한다(S430). 그리고, 해당하는 경우, 손 이동에 대응하여, 메뉴 위치를 가변 표시한다(S435).
영상표시장치(100)의 제어부(170)는, 사용자의 손 이동이 있는 지 여부를 판단하고, 해당하는 경우, 손 이동에 대응하여, 메뉴 위치를 가변 표시하도록 제어할 수 있다.
도 7a는, 사용자가 오른 손을 드는 제1 제스쳐에 의해, 메뉴(550)가 디스플레이(180) 내의 제1 위치(P1)에 표시되는 것을 예시한다.
다음, 도 7b는, 사용자가 오른 손을 Pa 위치에서 Pc 위치로 이동하는 것을 예시한다. 이에 따라, 영상표시장치(100)의 제어부(170)는, 카메라(190)를 통해 촬영한 촬영 영상을 기초로, 사용자의 손 위치 이동을 감지하고, 이동 위치에 대응하여, 표시되던 메뉴(550)가 이동하여 표시되도록 제어할 수 있다.
도 7b는, 사용자의 오른 손 위치가 Pa 위치에서 Pc 위치로 이동하는 것에 대응하여, 메뉴(550) 위치가, 제1 위치(P1)에서 제3 위치(P3)로 이동하여 표시되는 것을 예시한다. 이에 따라, 사용자가 원하는 영역에 메뉴 표시가 가능하게 되어, 사용자의 이용 편의성이 더욱 증대될 수 있다.
도 7c는, 사용자의 오른 손 위치가 Pa 위치에서 Pc 위치로 이동하는 것에 대응하여, 메뉴(550) 내의 일부 항목은, 제1 위치(P1)에서 제3 위치(P3)로 이동하여 표시되고, 나머지 항목은, 제1 위치(P1)에서 그대로 표시되는 것을 예시한다.
예를 들어, 사용자가 빈번히 이용 가능한, 볼륨 조절 항목(551,552), 채널 조절 가능한 채널 조절 항목(553,554)은, 도 7c와 같이, 제1 위치(P1)에서 제3 위치(P3)로 이동하여 표시될 수 있고, 사용자가 빈번히 이용하지 않는, 전원 오프 가능한 전원 오프 항목(555), 외부 입력 영상을 시청할 수 있는 외부 입력 항목(556)은, 도 7c와 같이, 제1 위치(P1)에서 그대로 표시될 수 있다. 이에 따라, 사용자가 원하는 영역에 메뉴 표시가 가능하게 되어, 사용자의 이용 편의성이 더욱 증대될 수 있다.
한편, 도 7c와 달리 다양한 설정이 가능하다.
한편, 제415 단계(S415) 이후, 영상표시장치(100)는, 손가락 제스쳐가 있는 지 여부를 판단한다(S440). 그리고, 어느 한 손가락 제스쳐가 있는 경우, 그 손가락에 대응하여 메뉴 내의 소정 항목을 포커싱한다(S445).
영상표시장치(100)의 제어부(170)는, 메뉴가 표시된 상태에서, 사용자의 손가락 제스쳐가 있는 지 여부를 판단하고, 어느 한 손가락 제스쳐가 있는 경우, 그 손가락에 대응하여 메뉴 내의 소정 항목을 포커싱하도록 제어할 수 있다.
도 8a는, 사용자의 오른 손을 올리는 제1 제스쳐에 의해, 메뉴(550)가 디스플레이(180)에 표시되는 것을 예시한다.
다음, 도 8b는, 메뉴(550)가 디스플레이(180)에 표시된 상태에서, 사용자가 오른 손 중 네번째 손가락(약지)에 대한 제스쳐를 수행하는 것을 예시한다.
영상표시장치(100)의 제어부(170)는, 카메라(190)를 통해 촬영한 촬영 영상을 기초로, 사용자의 오른 손 중 손가락 제스쳐를 감지할 수 있다. 특히, 다섯 손가락 중 움직임이 가장 큰 손가락을 추출하고, 해당 손가락에 대한 손가락 제스쳐가 있는 것으로 판단할 수 있다.
도 8b와 같이, 네번째 손가락(약지)(506)에 대한 제스쳐가 있는 경우, 영상표시장치(100)의 제어부(170)는, 네번째 손가락에 대응하는, 메뉴(550) 중 채널 업 항목(553)을 포커싱하도록 제어할 수 있다. 이에 따라, 사용자가 간편하게 원하는 항목을 포커싱할 수 있게 된다.
한편, 포커싱의 예로, 휘도, 색상, 크기 중 적어도 하나를 가변하는 것이 가능하다.
한편, 메뉴(550) 중 볼륨 다운 항목(552)은, 사용자의 오른 손 중 첫번째 손가락(엄지)에 대응하며, 볼륨 업 항목(551)은, 사용자의 오른 손 중 두번째 손가락(검지)에 대응하며, 원 오프 항목(555) 또는 외부 입력 항목(556)은, 사용자의 오른 손 중 세번째 손가락(중지)에 대응하며, 채널 다운 항목(554)은, 사용자의 오른 손 중 다섯번째 손가락(소지)에 대응할 수 있다.
한편, 도 8c는, 메뉴 내의 어느 한 항목이 포커싱되는 경우, 그 이후 동작 가이드를 위한, 제스쳐 가이드(805)가 표시되는 것을 예시한다.
제어부(170)는, 메뉴 내의 어느 한 항목이 포커싱되는 경우, 가이드를 위한, 제스쳐 가이드(805)가 표시되도록 제어할 수 있다. 이러한 제스쳐 가이드는 제어부(170) 내의 OSD 생성부(340)에서 생성될 수 있다.
한편, 이러한 제스쳐 가이드는, 메뉴 내의 어느 한 항목이 포커싱되기 이전, 메뉴가 표시되기만 하면, 디스플레이(180)에 표시되는 것도 가능하다. 즉, 도 8a와 같이, 메뉴(550)가 표시된 상태에서, 사용자의 제스쳐 가이드를 위해, 도 8c와 같은, 제스쳐 가이드(805)가 표시되는 것도 가능하다.
다음, 영상표시장치(100)는, 어느 하나의 항목이 포커싱된 상태에서, 그립 제스쳐가 있는 지 여부를 판단한다(S450). 그리고, 그립 제스쳐가 있는 경우, 포커싱된 항목을 선택한다(S455). 그리고, 선택된 항목에 대응하는 동작을 실행한다(S460).
영상표시장치(100)의 제어부(170)는, 메뉴 내의 어느 한 항목이 포커싱된 상태에서, 그립 제스쳐가 있는 경우, 포커싱된 항목을 선택하고, 선택된 항목에 대응하는 동작을 실행하도록 제어한다.
도 8d는, 사용자가 오른 손을 쥐는 그립(grip) 제스쳐를 수행하는 것을 예시한다. 도 8b 또는 도 8c와 같이, 메뉴 내의 채널 업 항목(553)이 포커싱된 상태에서, 사용자가 오른 손을 쥐는 그립(grip) 제스쳐가 있는 경우, 채널 업 항목(553)이 선택되어, 채널 업이 수행되게 된다.
도 8d는 표시되던 방송 영상의 채널이 Ch 9에서 Ch 10으로 채널 업이 되어, 해당 방송 영상(810)이 표시되는 것을 예시한다. 이러한 그립 제스쳐에 의해, 사용자가 원하는 동작을 간편하게 수행할 수 있게 된다. 한편, 그립 제스쳐 이후, 사용자의 또 다른 입력을 위해, 메뉴(550)가 계속 표시되는 것도 가능하다.
한편, 사용자의 손라각 제스쳐, 그립 제스쳐 등에 의해, 메뉴 중 소정 항목이 연속적으로 선택되는 경우, 해당 항목에 대한 빠른 탐색을 위한 스크롤 바가 표시되는 것도 가능하다.
예를 들어, 도 8d와 같이, 그립(grip) 제스쳐가 있는 경우, 채널 업 항목(553)이 선택된 이후, 연속적으로, 그립(grip) 제스쳐가 있는 경우, 채널 업 항목(5530)이 연속적으로 선택 가능하다. 이러한 경우, 반복되는 그립 제스쳐를 통해, 빠른 채널 업을 위한, 채널 스크롤 바(미도시)를 표시하는 것이 가능하다. 이에 의해, 반복 동작에 의한, 항목 선택이 더욱 용이하게 수행될 수 있게 된다.
한편, 사용자의 오른 손을 올리는 제1 제스쳐에 의해, 메뉴가 표시될 때, 사용자가 시청하고 있는 영상 종류에 따라, 즉, 표시 영상의 속성에 따라, 서로 다른 메뉴를 표시하는 것도 가능하다.
도 9a는, 방송 영상(510) 시청시, 사용자의 오른 손을 올리는 제1 제스쳐가 수행되는 것을 예시하며, 도 9b는, 이에 따라, 볼륨 조절 항목(551,552), 채널 조절 항목(553,554), 전원 오프 항목(555), 외부 입력 항목(556)을 구비하는 제1 메뉴(550)가 표시되는 것을 예시한다.
한편, 도 10a는, VOD 영상(1010) 시청시, 사용자의 오른 손을 올리는 제1 제스쳐가 수행되는 것을 예시하며, 도 10b는, 이에 따라, 볼륨 조절 항목(1051,1052), 앞으로 이동/뒤로 이동 항목(1053,1054), 일시 정지 항목(1055), 정지 항목(1056)을 구비하는 제2 메뉴(1050)가 표시되는 것을 예시한다. 이와 같이, 사용자가 시청하고 있는 컨텐츠 속성에 따라, 사용자 제스쳐에 의한 메뉴를 가변하므로, 사용자의 이용 편의성이 증대될 수 있다.
한편, 사용자의 오른 손을 올리는 제1 제스쳐에 의해, 메뉴가 표시된 이후, 사용자가 손을 회전하는 회전 제스쳐가 있는 경우, 다른 메뉴를 표시하는 것도 가능하다.
도 11a는, 방송 영상(510) 시청시, 사용자의 오른 손을 올리는 제1 제스쳐에 따라, 볼륨 조절 항목(551,552), 채널 조절 항목(553,554), 전원 오프 항목(555), 외부 입력 항목(556)을 구비하는 제1 메뉴(550)가 표시되는 것을 예시한다.
한편, 도 11b는, 제1 메뉴(550)가 표시된 상태에서, 사용자가 오른 손의 위치는 변경하지 않으면서, 좌 또는 우로, 손을 회전하는 회전 제스쳐를 수행하는 경우, 해당 회전 제스쳐에 따라, 홈 화면으로의 이동을 위한 홈 항목(1151), 3D 시청을 위한 3D 항목(1152), 시청 중인 영상 녹화를 위한 녹화 항목(1153), 방송 정보 시청을 위한 방송 정보 항목(1154), 소셜 네트워크로의 이동을 위한 소셜 네트워크 항목(1155), 다른 사용자로의 추천을 위한 추천 항목(1156)을 포함하는 제3 메뉴(1150)가 표시될 수 있다. 이와 같이, 사용자의 간단한 회전 제스쳐를 통해, 사용자가 원하는 다른 항목의 메뉴를 표시할 수 있게 되어, 사용자의 이용 편의성이 증대될 수 있다.
한편, 제415 단계(S415) 이후, 영상표시장치(100)는, 동일 사용자의 다른 손에 기초한 제1 제스쳐가 있는 지 여부를 판단한다(S470). 그리고, 해당하는 경우, 다른 손 위치에 대응하여 메뉴를 이동 표시한다(S475).
영상표시장치(100)의 제어부(170)는, 동일 사용자의 다른 손에 기초한 제1 제스쳐가 있는 경우, 다른 손 위치에 대응하여 메뉴를 이동 표시하도록 제어할 수 있다.
도 12a는, 방송 영상(510) 시청시, 사용자의 오른 손을 올리는 제1 제스쳐에 따라, 복수의 항목들을 포함하는 메뉴(550)가, 사용자(500)의 오른 손의 위치(Pa)에 대응하는 제1 위치(P1)에 표시되는 것을 예시한다.
도 12b는, 사용자가 오른 손을 내리고, 바로 왼 손을 올리는 제1 제스쳐를 수행하는 것을 예시한다.
이에 따라, 영상표시장치의 제어부(170)는, 왼 손에 대한 제1 제스쳐를 인식하고, 왼 손의 위치가 Pc 위치인 경우, Pc 위치를 고려하여, 메뉴(550) 위치가, 제1 위치(P1)에서 제3 위치(P3)로 이동하여 표시되도록 제어할 수 있다. 이에 따라, 사용자가 원하는 영역에 메뉴 표시가 가능하게 되어, 사용자의 이용 편의성이 더욱 증대될 수 있다.
한편, 영상표시장치(100)의 제어부(170)는, 동일 사용자의 다른 손에 기초한 제1 제스쳐가 있는 경우, 다른 손 위치에 대응하여, 표시되던 메뉴와 다른 메뉴를 이동 표시하도록 제어할 수도 있다.
도 12c는, 사용자가 오른 손을 내리고, 바로 왼 손을 올리는 제1 제스쳐를 수행하는 것을 예시한다.
이에 따라, 영상표시장치의 제어부(170)는, 왼 손에 대한 제1 제스쳐를 인식하고, 왼 손의 위치가 Pc 위치인 경우, Pc 위치를 고려하여, 제3 메뉴(1150)가 제3 위치(P3)로 이동하여 표시되도록 제어할 수 있다.
제3 메뉴(1150)는, 상술한 바와 같이, 홈 항목(1151), 3D 항목(1152), 녹화 항목(1153), 방송 정보 항목(1154), 소셜 네트워크 항목(1155), 추천 항목(1156)을 포함할 수 있다. 한편, 도면과 달리, 제3 메뉴 내의 항목들은 다양한 변경이 가능하다.
한편, 영상표시장치(100)의 제어부(170)는, 사용자의 제1 제스쳐에 의해, 메뉴가 표시된 상태에서, 다른 사용자의 제스쳐가 있는 경우, 다른 사용자의 제1 제스쳐와 관련 없이, 표시되던 메뉴를 계속 표시하도록 제어할 수 있다.
즉, 영상표시장치(100)의 제어부(170)는, 제어권을 먼저 제스쳐를 취한 사용자에게 할당할 수 있다.
도 13a는, 방송 영상(510) 시청시, 사용자(500)의 오른 손을 올리는 제1 제스쳐에 따라, 복수의 항목들을 포함하는 메뉴(550)가, 사용자(500)의 오른 손의 위치(Pa)에 대응하는 제1 위치(P1)에 표시되는 것을 예시한다.
도 13b는, 사용자(500)과 별도로, 제2 사용자(1300)가 사용자가 오른 손(1305)을 올리는 제1 제1 제스쳐를 수행하는 것을 예시한다.
제2 사용자(1300)의 제스쳐에도 불구하고, 사용자(500)가 먼저, 제1 제스쳐를 취해, 메뉴(550)가 표시되고 있었으므로, 영상표시장치(100)는 별 다른 변화 없이, 표시되던 메뉴(550)를 계속 표시할 수 있다.
한편, 영상표시장치(100)의 제어부(170)는, 사용자와 영상표시장치 사이의 거리에 따라, 사용자의 제스쳐에 의해 표시되는 메뉴의 크기, 휘도, 색상 중 적어도 하나가 가변되도록 제어할 수 있다.
도 14a는 사용자(500)와 영상표시장치(100) 사이의 거리가 제1 거리(Za)인 것을 예시하며, 도 14c는 사용자(500)와 영상표시장치(100) 사이의 거리가 제1 거리(Za) 보다 가까운 제2 거리(Zb)인 것을 예시한다.
영상표시장치(100)의 제어부(170)는, 사용자(500)와 영상표시장치(100) 사이의 거리가 제1 거리(Za)인 상태에서, 사용자의 오른 손에 의한 제1 제스쳐가 있는 경우, 제1 크기의 제1 메뉴(550)를 표시하도록 제어한다.
한편, 영상표시장치(100)의 제어부(170)는, 사용자(500)와 영상표시장치(100) 사이의 거리가 제2 거리(Zb)인 상태에서, 사용자의 오른 손에 의한 제1 제스쳐가 있는 경우, 제1 메뉴(550) 보다 크기가 큰 제2 크기의 제2 메뉴(1450)를 표시하도록 제어할 수 있다. 또는 제2 메뉴 내의 각 항목들(1451,1452,1453,1454,1455,1456)의 크기도 더 클 수 있다. 한편, 사용자의 손의 위치를 나타내는 포인터(1409)도 더 크게 표시될 수 있다.
즉, 사용자(500)와 영상표시장치(100) 사이의 거리가 가까울수록, 사용자 제스쳐에 따라 표시되는 메뉴의 크기가 더 커질 수 있다. 이에 의해, 사용자는 직관적으로, 사용자(500)와 영상표시장치(100) 사이의 거리를 인식할 수 있게 된다.
한편, 역으로, 사용자(500)와 영상표시장치(100) 사이의 거리가 멀어질수록, 사용자 제스쳐에 따라 표시되는 메뉴의 크기가 더 커질 수도 있다. 이는, 거리가 멀어질수록, 메뉴가 잘 안보이는 것을 방지하기 위함이다.
한편, 영상표시장치(100)의 제어부(170)는, 사용자의 제1 제스쳐에 따라, 메뉴 표시시, 영상 내에 화면 변화가 적은 영역 중, 사용자 손의 위치에 대응하는 위치에, 표시하도록 제어할 수 있다.
도 15a는, 사용자의 오른 손의 위치가 Pa 위치인 상태에서, 제1 제스쳐가 수행되는 것을 예시한다.
이때, 표시되는 방송 영상(510)과 표시할 메뉴의 위치가 일부 중첩되는 경우, 사용자의 방송 영상 시청 몰입을 위해, 영상표시장치(100)의 제어부(170)는, 프레임 별, 움직임 벡터를 통해, 방송 영상(510) 중 화면 변화가 적은 영역과, 사용자의 손의 위치를 고려하여, 표시 위치를 결정할 수 있다.
만약, 메뉴 표시 위치가, 방송 영상 내의 오브젝트와 중첩되거나, 화면 변화가 큰 영역과 중첩되는 경우, 영상표시장치(100)의 제어부(170)는, 사용자의 손 위치를 이동할 것을 나타내는 오브젝트를 표시하도록 제어할 수 있다.
도 15b는, 사용자의 손 위치를 이동할 것을 나타내는 오브젝트(1510) 것을 예시한다.
다음, 도 15c과 같이, 오른 손의 위치가, Pd 위치에 위치한 상테에서, 제1 제스쳐가 수행되는 경우, 도 15d와 같이, 방송 영상(510) 중 화면 변화가 적은 영역, 즉, 제4 위치(P4)에, 메뉴(1550)가 표시될 수 있다. 이에 의해, 사용자는, 시청 중인 영상에 방해 없이, 원하는 메뉴를 볼 수 있게 된다.
한편, 본 발명의 실시예에 따른 제스쳐를 통한 메뉴 표시는, 사용자가 누워서 TV를 시청하는 경우에도 적용 가능하다.
도 16a는, 사용자(500)가, 영상표시장치(100)를 통해, 방송 영상(510)을 시청하는 경우, 오른 손을 올리는 제1 제스쳐를 수행하는 것을 예시한다.
이에 따라, 카메라(190)는, 사용자의 얼굴 및 손을 포함하는 영상을 촬영하며, 촬영된 영상은 제어부(170)로 전달된다.
제어부(170)는, 사용자의 얼굴(도 5b의 515)과, 사용자의 오른 손(505) 사이의 거리를 측정하고, 측정된 거리(Da)가 기준 거리(Dref) 이하인지 여부를 판단할 수 있다. 그리고, 측정된 거리(Da)가 기준 거리(Dref) 이하인 경우, 기 설정된 제1 제스쳐로 인식할 수 있다.
이에 따라, 도 16c와 같이, 표시되는 방송 영상(510)과 함께, 복수의 항목들을 포함하는 메뉴(550)가, 사용자(500)의 오른 손의 위치(Pa)에 대응하는 제1 위치(P1)에 표시될 수 있다. 이와 같이, 사용자의 손의 위치에 대응하여, 디스플레이 상에 표시함으로써, 사용자가 원하는 영역에 메뉴를 표시할 수 있게 된다. 따라서, 사용자의 이용 편의성이 증대될 수 있게 된다.
한편, 사용자의 손에 기초한 상기 제1 제스쳐 동작은, 영상표시장치의 전원이 오프된 경우에도 적용 가능하다.
예를 들어, 전원이 오프된 영상표시장치에 대해, 사용자의 오른 손을 올리는 제1 제스쳐가 수행되는 경우, 전원이 오프되어, 디스플레이에 영상이 표시되지는 않으나, 대기 상태인, 카메라(190)와 제어부(170)는, 동작하게 된다.
즉, 카메라(190)는, 사용자의 얼굴 및 손을 포함하는 영상을 촬영하며, 촬영된 영상은 제어부(170)로 전달된다.
제어부(170)는, 사용자의 얼굴과, 사용자의 오른 손 사이의 거리를 측정하고, 측정된 거리가 기준 거리(Dref) 이하인 경우, 기 설정된 제1 제스쳐로 인식할 수 있다.
이에 따라, 제1 제스쳐에 기초하여, 제어부(170)는, 영상표시장치의 전원을 온시키도록 제어할 수 있다. 즉, 디스플레이(180)에 소정 영상이 표시되도록 제어할 수 있다. 이에 따라, 사용자의 이용 편의성이 증대될 수 있게 된다.
본 발명에 따른 영상표시장치, 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 영상표시장치의 동작방법은, 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (24)

  1. 사용자의 손에 기초한 제1 제스쳐를 인식하는 단계;
    상기 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 상기 사용자 손의 위치에 대응하는 위치에, 표시하는 단계; 및
    상기 사용자의 손이 인식되지 않거나, 상기 사용자 손에 기초한 제2 제스처가 인식되는 경우, 상기 메뉴 표시를 종료하는 단계;를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  2. 제1항에 있어서,
    상기 제1 제스쳐 인식 이후, 상기 사용자의 손이 이동하는 경우, 상기 손의 이동에 따라, 상기 메뉴 위치를 가변하거나, 상기 메뉴 내의 복수 항목 중 일부 항목을 가변하여 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  3. 제1항에 있어서,
    소정 영상을 표시하는 단계;를 더 포함하고,
    상기 메뉴 표시 단계는,
    상기 영상 내에 화면 변화가 적은 영역 중, 상기 사용자 손의 위치에 대응하는 위치에, 표시하는 것을 특징으로 하는 영상표시장치의 동작방법.
  4. 제1항에 있어서,
    소정 영상을 표시하는 단계;를 더 포함하고,
    상기 메뉴 표시 단계는,
    상기 표시 영상의 속성에 따라, 서로 다른 메뉴를 표시하는 것을 특징으로 하는 영상표시장치의 동작방법.
  5. 제1항에 있어서,
    상기 메뉴는,
    상기 사용자의 손가락 위치에 대응하는 복수의 항목을 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  6. 제1항에 있어서,
    상기 사용자의 그립 제스쳐에 기초하여, 상기 메뉴 내의 복수의 항목 중 어느 하나를 선택하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  7. 제1항에 있어서,
    상기 사용자의 그립 제스쳐에 기초하여, 상기 메뉴 내의 복수의 항목 중 어느 하나를 선택하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  8. 제1항에 있어서,
    상기 사용자의 손가락 제스쳐에 기초하여, 상기 메뉴 내의 복수의 항목 중 어느 하나를 포커싱하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  9. 제1항에 있어서,
    상기 메뉴가 표시된 상태에서, 제스쳐 가이드를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  10. 제1항에 있어서,
    상기 사용자와 상기 영상표시장치 사이의 거리에 따라, 상기 표시되는 메뉴의 크기, 휘도, 색상 중 적어도 하나가 가변되는 것을 특징으로 하는 영상표시장치의 동작방법.
  11. 제1항에 있어서,
    상기 제1 제스쳐 이후, 상기 사용자 손을 회전하는 회전 제스쳐가 있는 경우, 상기 표시되는 메뉴와 다른 메뉴를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  12. 제1항에 있어서,
    상기 메뉴 내의 소정 항목이 연속적으로 선택되는 경우, 상기 항목에 대한 탐색을 위한 스크롤 바를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  13. 제1항에 있어서,
    상기 사용자의 다른 손에 기초한 상기 제1 제스쳐 동작이 있는 경우, 상기 다른 손에 기초한 상기 제1 제스쳐 동작을 인식하는 단계;
    상기 인식된 다른 손에 기초한 상기 제1 제스쳐 동작에 기초하여, 상기 표시되는 메뉴와 다른 메뉴를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  14. 제1항에 있어서,
    상기 사용자의 다른 손에 기초한 상기 제1 제스쳐 동작이 있는 경우, 상기 다른 손에 기초한 상기 제1 제스쳐 동작을 인식하는 단계;
    상기 인식된 다른 손에 기초한 상기 제1 제스쳐 동작에 기초하여, 상기 표시되는 메뉴를 이동하여, 상기 다른 손의 위치에 대응하는 위치에, 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  15. 제1항에 있어서,
    전원이 오프된 영상표시장치에 대해, 상기 사용자의 손에 기초한 상기 제1 제스쳐 동작이 있는 경우, 상기 제1 제스쳐 동작을 인식하는 단계;
    상기 인식된 제1 제스쳐 동작에 기초하여, 상기 영상표시장치의 전원을 온시키는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  16. 제1항에 있어서,
    상기 제1 제스쳐 인식에 따라, 상기 사용자의 손 위치를 이동할 것을 나타내는 오브젝트를 표시하는 단계;를 더 포함하고,
    상기 메뉴 표시 단계는,
    상기 사용자의 손 위치 이동에 기초하여, 상기 메뉴를 상기 사용자의 손 위치에 대응하는 위치에 표시하는 것을 특징으로 하는 영상표시장치의 동작방법.
  17. 제1항에 있어서,
    상기 사용자의 얼굴을 인식하는 단계;를 더 포함하며,
    상기 제1 제스쳐 인식은, 상기 사용자의 얼굴과 상기 사용자의 손 사이의 거리가 소정치 이하인 경우에 수행되는 것을 특징으로 하는 영상표시장치의 동작방법.
  18. 제1항에 있어서,
    다른 사용자의 손에 기초한 상기 제1 제스쳐를 인식하는 단계;를 더 포함하고,
    상기 메뉴는, 상기 다른 사용자의 제1 제스쳐와 관련 없이 계속 표시되는 것을 특징으로 하는 영상표시장치의 동작방법.
  19. 사용자의 얼굴을 인식하는 단계;
    상기 사용자의 손에 기초한 제1 제스쳐를 인식하는 단계; 및
    상기 인식된 사용자 얼굴 및 제1 제스쳐에 기초하여, 해당하는 메뉴를, 상기 사용자의 손의 위치에 대응하는 위치에, 표시하는 단계;를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  20. 촬영 영상을 획득하는 카메라; 및
    상기 촬영 영상에 기초하여, 사용자의 손에 기초한 제1 제스쳐를 인식하고, 상기 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 상기 사용자 손의 위치에 대응하는 위치에, 표시하도록 제어하는 제어부;를 포함하고,
    상기 제어부는, 상기 사용자의 손이 인식되지 않거나, 상기 사용자 손에 기초한 제2 제스처가 인식되는 경우, 상기 메뉴 표시를 종료하도록 제어하는 것을 특징으로 하는 영상표시장치.
  21. 제20항에 있어서,
    상기 메뉴를 표시하는 디스플레이;를 더 포함하는 것을 특징으로 하는 영상표시장치.
  22. 제20항에 있어서,
    상기 제어부는,
    상기 제1 제스쳐 인식 이후, 상기 사용자의 손이 이동하는 경우, 상기 손의 이동에 따라, 상기 메뉴 위치를 가변하거나, 상기 메뉴 내의 복수 항목 중 일부 항목을 가변하여 표시하도록 제어하는 것을 특징으로 하는 영상표시장치.
  23. 제21항에 있어서,
    방송 영상을 수신하는 방송 수신부;
    외부 입력 영상을 수신하는 외부장치 인터페이스부;를 더 포함하고,
    상기 제어부는,
    상기 방송 영상 수신시, 상기 제1 제스쳐에 기초하여, 제1 메뉴를 상기 디스플레이에 표시하도록 제어하고, 상기 외부 입력 영상 수신시, 상기 제1 제스처에 기초하여, 제2 메뉴를 상기 디스플레이에 표시하도록 제어하는 것을 특징으로 하는 영상표시장치.
  24. 디스플레이; 및
    촬영 영상을 수신하고, 상기 촬영 영상에 기초하여, 사용자의 손에 기초한 제1 제스쳐를 인식하고, 상기 인식된 제1 제스쳐에 기초하여, 해당하는 메뉴를, 상기 사용자 손의 위치에 대응하는 위치에, 표시하도록 제어하는 제어부;를 포함하고,
    상기 제어부는, 상기 사용자의 손이 인식되지 않거나, 상기 사용자 손에 기초한 제2 제스처가 인식되는 경우, 상기 메뉴 표시를 종료하도록 제어하는 것을 특징으로 하는 영상표시장치.
KR1020120106033A 2012-09-24 2012-09-24 영상표시장치, 및 그 동작방법 KR102035134B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120106033A KR102035134B1 (ko) 2012-09-24 2012-09-24 영상표시장치, 및 그 동작방법
US13/828,921 US9250707B2 (en) 2012-09-24 2013-03-14 Image display apparatus and method for operating the same
EP13001374.1A EP2711807B1 (en) 2012-09-24 2013-03-18 Image display apparatus and method for operating the same
CN201310128638.9A CN103686269B (zh) 2012-09-24 2013-04-15 图像显示装置及其操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120106033A KR102035134B1 (ko) 2012-09-24 2012-09-24 영상표시장치, 및 그 동작방법

Publications (2)

Publication Number Publication Date
KR20140039641A true KR20140039641A (ko) 2014-04-02
KR102035134B1 KR102035134B1 (ko) 2019-10-22

Family

ID=48050373

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120106033A KR102035134B1 (ko) 2012-09-24 2012-09-24 영상표시장치, 및 그 동작방법

Country Status (4)

Country Link
US (1) US9250707B2 (ko)
EP (1) EP2711807B1 (ko)
KR (1) KR102035134B1 (ko)
CN (1) CN103686269B (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101962464B1 (ko) * 2018-10-31 2019-07-17 주식회사 드림한스 손동작 매크로 기능을 이용하여 다중 메뉴 및 기능 제어를 위한 제스처 인식 장치
KR20210123266A (ko) * 2015-01-12 2021-10-13 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
WO2022231160A1 (ko) * 2021-04-30 2022-11-03 삼성전자 주식회사 손 제스처에 기반하여 기능을 실행하는 전자 장치 및 그 작동 방법
US11837194B2 (en) 2021-01-29 2023-12-05 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11947728B2 (en) 2021-04-30 2024-04-02 Samsung Electronics Co., Ltd. Electronic device for executing function based on hand gesture and method for operating thereof

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104756065B (zh) * 2012-11-09 2018-11-13 索尼公司 信息处理装置、信息处理方法以及计算机可读记录介质
KR20140087787A (ko) * 2012-12-31 2014-07-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
US9307386B2 (en) 2013-03-22 2016-04-05 Global Tel*Link Corporation Multifunction wireless device
EP2983064B1 (en) * 2013-04-02 2019-11-27 Sony Corporation Information processing apparatus, information processing method, and program
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9891712B2 (en) 2013-12-16 2018-02-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras with vectors
US9304674B1 (en) * 2013-12-18 2016-04-05 Amazon Technologies, Inc. Depth-based display navigation
US10503357B2 (en) * 2014-04-03 2019-12-10 Oath Inc. Systems and methods for delivering task-oriented content using a desktop widget
KR20150082963A (ko) * 2014-01-08 2015-07-16 삼성전자주식회사 모션 인식을 이용한 서비스 실행 방법 및 이를 적용한 디스플레이 장치
US9971490B2 (en) * 2014-02-26 2018-05-15 Microsoft Technology Licensing, Llc Device control
EP2924539B1 (en) * 2014-03-27 2019-04-17 Lg Electronics Inc. Display device and operating method thereof using gestures
US20150277570A1 (en) * 2014-03-31 2015-10-01 Google Inc. Providing Onscreen Visualizations of Gesture Movements
JP6282188B2 (ja) * 2014-07-04 2018-02-21 クラリオン株式会社 情報処理装置
EP2988192A1 (en) * 2014-08-20 2016-02-24 Posterfy Oy Apparatus for providing touchless user interface
US9836130B2 (en) 2014-12-26 2017-12-05 Nextedge Technology K.K. Operation input device, operation input method, and program
CN104571823B (zh) * 2015-01-12 2015-12-02 济南大学 一种基于智能电视的非接触式虚拟人机交互方法
TWI610198B (zh) * 2015-04-17 2018-01-01 鈺立微電子股份有限公司 遙控裝置與根據至少一靜態手勢產生控制指令的方法
JP6455310B2 (ja) * 2015-05-18 2019-01-23 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
CN104918085B (zh) * 2015-06-01 2018-02-09 天脉聚源(北京)传媒科技有限公司 一种切换频道的方法及装置
US9990078B2 (en) * 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
US10599322B2 (en) * 2016-03-08 2020-03-24 Rakuten, Inc. Display control system, display control method, and display control program for displaying content to user in consideration of position relationship with user terminal
US10176641B2 (en) * 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
CN106484287A (zh) * 2016-09-27 2017-03-08 北京小米移动软件有限公司 显示设备控制方法、装置和显示设备
US10477277B2 (en) * 2017-01-06 2019-11-12 Google Llc Electronic programming guide with expanding cells for video preview
US10721624B2 (en) 2017-02-17 2020-07-21 Global Tel*Link Corporation Security system for inmate wireless devices
JP2018151851A (ja) * 2017-03-13 2018-09-27 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
US11880493B2 (en) 2017-03-27 2024-01-23 Global Tel*Link Corporation Wearable devices in a controlled environment
US9892242B1 (en) 2017-04-28 2018-02-13 Global Tel*Link Corporation Unified enterprise management of wireless devices in a controlled environment
US10068398B1 (en) 2017-08-03 2018-09-04 Global Tel*Link Corporation Release monitoring through check-in and tethering system
CN107493495B (zh) 2017-08-14 2019-12-13 深圳市国华识别科技开发有限公司 交互位置确定方法、系统、存储介质和智能终端
KR102656447B1 (ko) * 2018-02-27 2024-04-12 삼성전자주식회사 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US10579153B2 (en) * 2018-06-14 2020-03-03 Dell Products, L.P. One-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications
CN108960109B (zh) * 2018-06-26 2020-01-21 哈尔滨拓博科技有限公司 一种基于两个单目摄像头的空间手势定位装置及定位方法
US20200027297A1 (en) * 2018-07-23 2020-01-23 Dominion Voting Systems, Inc. Voting techniques using virtual or augmented reality
DE102019210912A1 (de) * 2019-07-23 2021-01-28 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verstellvorrichtung und Verfahren für die fremdkraftbetätigte Verstellung eines Verstellteils an einem Fahrzeug auf Basis wenigstens eines Bedienereignisses
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11809633B2 (en) 2021-03-16 2023-11-07 Snap Inc. Mirroring device with pointing based navigation
US11978283B2 (en) 2021-03-16 2024-05-07 Snap Inc. Mirroring device with a hands-free mode
US11908243B2 (en) * 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11798201B2 (en) 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
CN115202530B (zh) * 2022-05-26 2024-04-09 当趣网络科技(杭州)有限公司 一种用户界面的手势交互方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040013855A (ko) * 2002-08-08 2004-02-14 삼성전자주식회사 영상 기록/재생 장치 및 그 메뉴안내 표시방법
US20090262187A1 (en) * 2008-04-22 2009-10-22 Yukinori Asada Input device
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
KR20120020006A (ko) * 2010-08-27 2012-03-07 엘지전자 주식회사 그래픽 유저 인터페이스(gui)표시 방법 및 그를 이용한 휴대용 단말기

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
WO2000073970A2 (en) * 1999-05-19 2000-12-07 Nicholas James J Cursor movable interactive message
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7770135B2 (en) * 2002-10-18 2010-08-03 Autodesk, Inc. Tracking menus, system and method
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
JP2008146243A (ja) 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
US8352881B2 (en) * 2007-03-08 2013-01-08 International Business Machines Corporation Method, apparatus and program storage device for providing customizable, immediate and radiating menus for accessing applications and actions
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US20090225026A1 (en) 2008-03-06 2009-09-10 Yaron Sheba Electronic device for selecting an application based on sensed orientation and methods for use therewith
CN101874234B (zh) 2008-09-29 2014-09-24 松下电器产业株式会社 用户接口装置、用户接口方法、以及记录媒体
US8321802B2 (en) * 2008-11-13 2012-11-27 Qualcomm Incorporated Method and system for context dependent pop-up menus
US8112719B2 (en) * 2009-05-26 2012-02-07 Topseed Technology Corp. Method for controlling gesture-based remote control system
CN102822774B (zh) * 2010-02-25 2015-08-05 惠普发展公司,有限责任合伙企业 代表性图像
TW201142465A (en) 2010-05-17 2011-12-01 Hon Hai Prec Ind Co Ltd Front projection device and front projection controlling method
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
WO2012091185A1 (en) * 2010-12-27 2012-07-05 Lg Electronics Inc. Display device and method of providing feedback for gestures thereof
JP5653206B2 (ja) 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
CN103797513A (zh) 2011-01-06 2014-05-14 珀恩特格拉伯有限公司 对内容的基于计算机视觉的双手控制
TW201237773A (en) 2011-03-15 2012-09-16 Wistron Corp An electronic system, image adjusting method and computer program product thereof
US20120320080A1 (en) * 2011-06-14 2012-12-20 Microsoft Corporation Motion based virtual object navigation
US20130067392A1 (en) * 2011-09-12 2013-03-14 Microsoft Corporation Multi-Input Rearrange
CN107665042B (zh) * 2012-03-26 2021-05-07 苹果公司 增强的虚拟触摸板和触摸屏
TWI454966B (zh) * 2012-04-24 2014-10-01 Wistron Corp 手勢控制方法及手勢控制裝置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040013855A (ko) * 2002-08-08 2004-02-14 삼성전자주식회사 영상 기록/재생 장치 및 그 메뉴안내 표시방법
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
US20090262187A1 (en) * 2008-04-22 2009-10-22 Yukinori Asada Input device
KR20120020006A (ko) * 2010-08-27 2012-03-07 엘지전자 주식회사 그래픽 유저 인터페이스(gui)표시 방법 및 그를 이용한 휴대용 단말기

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210123266A (ko) * 2015-01-12 2021-10-13 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11442611B2 (en) 2015-01-12 2022-09-13 Samsung Electronics Co., Ltd. Display apparatus for performing function of user selected menu item on a user interface and method for controlling display apparatus
US11782591B2 (en) 2015-01-12 2023-10-10 Samsung Electronics Co., Ltd. Display apparatus for performing function of user selected menu item on a user interface and method for controlling display apparatus
KR101962464B1 (ko) * 2018-10-31 2019-07-17 주식회사 드림한스 손동작 매크로 기능을 이용하여 다중 메뉴 및 기능 제어를 위한 제스처 인식 장치
US11837194B2 (en) 2021-01-29 2023-12-05 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
WO2022231160A1 (ko) * 2021-04-30 2022-11-03 삼성전자 주식회사 손 제스처에 기반하여 기능을 실행하는 전자 장치 및 그 작동 방법
US11947728B2 (en) 2021-04-30 2024-04-02 Samsung Electronics Co., Ltd. Electronic device for executing function based on hand gesture and method for operating thereof

Also Published As

Publication number Publication date
US20140089849A1 (en) 2014-03-27
CN103686269A (zh) 2014-03-26
EP2711807A1 (en) 2014-03-26
US9250707B2 (en) 2016-02-02
CN103686269B (zh) 2017-08-08
EP2711807B1 (en) 2018-09-19
KR102035134B1 (ko) 2019-10-22

Similar Documents

Publication Publication Date Title
KR102035134B1 (ko) 영상표시장치, 및 그 동작방법
KR102396036B1 (ko) 디스플레이 디바이스 및 그 제어 방법
US9432739B2 (en) Image display apparatus and method for operating the same
KR101899597B1 (ko) 오브젝트 정보 검색 방법 및 그를 이용한 영상 표시 장치
US20150237402A1 (en) Image display apparatus, server and method for operating the same
KR20150005131A (ko) 영상표시장치 및 영상표시장치 동작방법
KR20150008769A (ko) 영상표시장치 및 그 동작방법
US20170289631A1 (en) Image providing device and method for operating same
KR20140094132A (ko) 영상표시장치 및 그 동작 방법
KR20170017606A (ko) 디지털 디바이스 및 상기 디지털 디바이스에서 데이터 처리 방법
KR20160009415A (ko) 외부 입력장치와 컨텐츠 연동이 가능한 영상표시장치
KR102243213B1 (ko) 영상표시장치 및 영상표시장치 동작방법
KR102206382B1 (ko) 영상표시장치 및 영상표시장치 동작방법
US20230247247A1 (en) Image display apparatus
US20230247261A1 (en) Image display apparatus
KR101828399B1 (ko) 영상표시장치 및 휴대 단말기의 동작 방법
KR102105459B1 (ko) 영상표시장치 및 영상표시장치 동작방법
KR102042219B1 (ko) 영상표시장치의 동작 방법
US20230247260A1 (en) Mobile terminal
US20160062479A1 (en) Image display apparatus and method for operating the same
KR101980546B1 (ko) 영상표시장치의 동작 방법
KR20140093121A (ko) 영상표시장치 및 그 동작 방법
KR20230116662A (ko) 영상표시장치
KR20130082260A (ko) 적어도 하나 이상의 기능을 수행하는 컴퓨팅 디바이스 및 컨트롤 방법
KR20130033182A (ko) 영상표시장치의 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant