KR102360628B1 - 영상 투사 장치 및 그의 동작 방법 - Google Patents

영상 투사 장치 및 그의 동작 방법 Download PDF

Info

Publication number
KR102360628B1
KR102360628B1 KR1020150071272A KR20150071272A KR102360628B1 KR 102360628 B1 KR102360628 B1 KR 102360628B1 KR 1020150071272 A KR1020150071272 A KR 1020150071272A KR 20150071272 A KR20150071272 A KR 20150071272A KR 102360628 B1 KR102360628 B1 KR 102360628B1
Authority
KR
South Korea
Prior art keywords
image projection
distance
image
menu
sensing
Prior art date
Application number
KR1020150071272A
Other languages
English (en)
Other versions
KR20160136963A (ko
Inventor
이상호
윤현식
김태순
강상규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150071272A priority Critical patent/KR102360628B1/ko
Priority to US15/549,131 priority patent/US10310676B2/en
Priority to PCT/KR2015/008366 priority patent/WO2016125966A1/ko
Publication of KR20160136963A publication Critical patent/KR20160136963A/ko
Application granted granted Critical
Publication of KR102360628B1 publication Critical patent/KR102360628B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 실시 예에 따른 영상 투사 장치는 하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하고, 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱한다. 영상 투사 장치는 센싱된 제1 거리를 기초로, 메뉴에 대응하는 동작을 수행한다.

Description

영상 투사 장치 및 그의 동작 방법{VIDEO PROJECTOR AND OPERATING METHOD THEREOF}
본 발명은 영상 투사 장치 및 그의 동작 방법에 관한 것으로, 보다 상세하게는 영상이 투사되는 영상 투사 영역에 대한 거리 센싱을 통해, 사용자 입력을 인식하는 영상 투사 장치 및 그의 동작 방법에 관한 것이다.
최근 들어, 영상을 표시하는 방법은 디스플레이 장치와 같이 장치 내에 영상을 표시하는 방법뿐만 아니라, 프로젝터와 같이 영상을 일정 영역에 투사하는 방법도 이용되고 있다.
디스플레이 장치를 통한 영상 표시는 영상을 표시할 수 있는 화면 크기에 한계가 있고, 디스플레이 장치의 화면 이외의 다른 영역에는 영상을 표시할 수 없는 한계가 있다.
반면에 프로젝터와 같은 영상 투사 장치는 디스플레이 장치보다 큰 화면을 제공할 수 있으며, 영상을 투사하는 방향에 따라 다양한 위치에 영상을 표시할 수 있는 장점이 있다.
한편, 최근에는 다양한 터치 방식을 통해 디스플레이 장치에 표시된 화면을 사용자가 직접 터치하는 방식의 입력 방식이 널리 사용되고 있다. 터치 방식의 사용자 입력 방식은 표시된 화면에 대해 사용자가 직접적인 터치 동작을 할 수 있어서, 사용자가 입력 방식, 사용 방식을 직관적으로 인식할 수 있는 장점이 있다.
하지만 영상 투사 장치는 일정한 디스플레이가 없는 특징으로 인해 터치 방식을 통한 사용자 입력을 수신하지 못하는 단점이 있다.
따라서, 영상 투사 장치에서도 터치 방식과 유사하게 사용자 입력을 수신할 수 있는 방법이 필요하다.
본 발명에 따른 영상 투사 장치는 거리 센싱을 통해, 사용자 입력을 인식할 수 있어서, 사용자에게 직관적인 입력 방식을 제공하는데 목적이 있다.
본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법은 하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 단계; 상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 단계; 상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 단계를 포함한다.
본 발명의 실시 예에 따른 영상 투사 장치는 하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 영상 투사부; 상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 거리 센서; 및 상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 제어부를 포함한다.
본 발명의 다양한 실시 예에 따르면, 본 발명에 따른 영상 투사 장치는 장치는 거리 센싱을 통해 사용자 입력을 인식할 수 있어서, 사용자에게 직관적인 입력 방식을 제공할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 일 실시 예에 따른 영상 투사의 개념도이다.
도 3은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 4는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 6은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 센싱 영역까지의 거리 센싱을 나타내는 예시도이다.
도 8은 본 발명의 일 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 9는 본 발명의 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 10은 본 발명의 또 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 11은 본 발명의 일 실시 예에 따른 상하 방향의 트리거 동작에 대한 예시도이다.
도 12는 본 발명의 일 실시 예에 따른 좌우 방향의 트리거 동작에 대한 예시도이다.
도 13은 본 발명의 일 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 14는 본 발명의 일 실시 예에 따른 채널 메뉴 표시에 대한 예시도이다.
도 15는 본 발명의 일 실시 예에 따른 볼륨 메뉴 표시에 대한 예시도이다.
도 16은 본 발명의 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 17은 본 발명의 또 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법 및 그를 이용한 영상 투사 장치에 관하여 상세히 설명한다.
본 발명의 실시 예에 따른 영상 투사 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 영상 투사 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 음성 명령 인식, 제스처 동작 인식, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행 가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 영상 투사 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 영상 투사 장치는, 보다 구체적으로 예를 들면, 영상 프로젝터가 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 영상 투사 장치(100)는 센싱부(105), 음성 획득부(110), 영상 획득부(120), 방송 수신부(130), 외부 장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 통신부(160), 제어부(170), 영상 투사부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다.
센싱부(105)는 영상 투사 장치 내 정보, 영상 투사 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.
예를 들어, 센싱부(105)는 거리 센서(106), 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor, 107), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 건강케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 영상 투사 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
거리 센서(106)는 거리를 센싱할 수 있는 하나 이상의 센서를 포함할 수 있다.
일 실시 예로 거리 센서(106)는 적외선 센서를 포함할 수 있고, 다양한 물체, 영상이 투사되는 지점 등에 대한 거리를 센싱할 수 있다. 예를 들면, 거리 센서(106)에 포함된 적외선 센서는 적외선을 출력하고, 출력된 적외선이 물체 등에 의해 반사되면 반사된 적외선을 거리 센서(106)에 포함된 이미지 센서로 인식할 수 있다.
거리 센서(106)는 적외선 센서 이외에도 다양한 센서를 포함할 수 있다. 예를 들면 거리 센서(106)는 초음파 센서를 포함할 수 있고, 적외선 이외의 다른 파장의 광선을 출력할 수도 있다. 거리 센서(106)의 구체적인 동작에 대해서는 후술하기로 한다.
한편, 센싱부(105)는 별도로 구비된 센서를 통해 영상이 투사되는 영역의 상태를 인식할 수도 있다.
예를 들어, 센싱부(105)는 영상이 투사되는 영역에 구비된 자석형 센서, 스위치형 센서 등으로부터 영상이 투사되는 영역의 움직임에 대한 정보를 획득할 수 있다.
음성 획득부(110)는 음성을 획득할 수 있다.
음성 획득부(110)는 적어도 하나 이상의 마이크를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.
그리고 음성 획득부(110)는 획득된 음성을 제어부(170)에 전달할 수 있다.
영상 획득부(120)는 영상을 획득할 수 있다.
영상 획득부(120)는 적어도 하나 이상의 카메라를 포함할 수 있어서, 포함된 카메라를 통해 영상을 획득할 수 있다. 이에 따라, 영상 획득부(120)는 사용자에 대한 영상을 획득할 수 있다. 또한, 영상 획득부(120)는 사용자의 홍채, 정맥과 같은 생체 정보에 대한 영상도 획득할 수 있다.
그리고 영상 획득부(120)는 획득한 영상을 제어부(170)에 전달할 수 있다.
한편, 음성 획득부(110)와 영상 획득부(120)는 사용자입력 인터페이스부(150)에 포함될 수 있다.
한편, 방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다.
외부 장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부 장치 인터페이스부(135)는 외부 장치와 연결하기 위한 단자(terminal)를 포함할 수 있어서, 외부 장치의 커넥터(connecter)와 연결될 수 있다.
외부 장치 인터페이스부(135)는 전원 공급부(190)로부터 공급받은 전원을 연결된 외부 장치에 구동 전원으로 공급할 수 있다.
또한, 외부 장치 인터페이스부(135)는 외부 장치가 송신한 동작 신호를 제어부(170)에 전달할 수 있다.
한편, 외부 장치 인터페이스부(135)는 외부 장치의 연결을 감지할 수 있는 센서가 포함될 수 있어서, 외부 장치의 연결을 인식할 수 있다.
네트워크 인터페이스부(133)는 영상 투사 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 영상 투사 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 영상 투사 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
또한, 저장부(140)는 사용자의 생체 정보를 저장할 수 있다. 여기서 사용자의 생체 정보란, 사용자의 지문, 홍채, 정맥, 얼굴, 음성과 같은 사용자의 신체와 관련된 고유의 정보를 의미할 수 있다.
영상 투사 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
저장부(140)는 사용자에 대한 개인화 서비스 정보를 저장할 수 있다. 여기서 사용자에 대한 개인화 서비스 정보는 사용자가 자주 사용하는 기능, 자주 시청하는 채널, 컨텐츠 및 사용자가 설정한 설정값 중 하나 이상에 대한 정보를 포함할 수 있다. 그리고 사용자에 대한 개인화 서비스 정보는 복수의 사용자 각각에 대해 개인화된 기능, 개인화된 메뉴에 대한 정보를 포함할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
통신부(160)는 영상 투사 장치(100)와 네트워크 또는 영상 투사 장치(100)와 주변 기기가 유선 통신 또는 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
예를 들면, 통신부(160)는 인터넷 접속을 위한 인터넷 모듈을 포함할 수 있으며, 인터넷 모듈을 통해 유선 또는 무선 통신을 통해 영상 투사 장치(100)가 인터넷에 접속할 수 있도록 할 수 있다.
다른 예를 들면, 통신부(160)는 영상 투사 장치(100)와 다른 기기가 무선 통신할 수 있도록 근거리 통신 모듈을 포함할 수 있다. 일 실시예로 통신부(160)에 포함된 근거리 통신 모듈은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, WLAN(Wireless LAN)(Wi-Fi), NFC(Near Field Communication) 등을 이용할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 영상 투사부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부 장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부 장치 인터페이스부(135)를 통하여 외부 장치로 입력될 수 있다.
또한, 제어부(170)는 후술할 오디오 출력 장치(300)에 처리된 음성 신호를 전달하여, 오디오 출력 장치(300)가 오디오 출력하도록 제어할 수도 있다.
그 외, 제어부(170)는 영상 투사 장치(100) 내의 전반적인 동작을 제어할 수 있다.
제어부(170)는 외부 장치 인터페이스부(135)로부터 외부 장치의 연결에 대한 감지 신호를 입력받아, 외부 장치 인터페이스부(135)를 통해 연결된 외부 장치에 구동 전원이 전달되도록 전원 공급부(190)를 제어할 수 있다.
또한, 제어부(170)는 음성 획득부(110)를 통해 획득한 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.
그리고 제어부(170)는 사용자의 음성에 대한 복수의 음성 신호를 비교하고, 가장 품질 좋은 음성 신호의 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.
제어부(170)는 복수의 마이크가 구비된 음성 획득부(110)로부터 획득된 복수의 음성을 비교하여 사용자의 위치를 판단할 수 있다. 구체적으로 제어부(170)는 복수의 마이크 각각이 획득한 음성을 비교하여, 음성을 발화한 사용자의 위치를 판단할 수 있다.
한편, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상 투사 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 영상 투사 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 영상 투사부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부 장치 영상 재생 명령에 따라, 외부 장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 영상 투사부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 영상 투사부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부 장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 영상 투사부(180)에서 투사되도록 제어할 수 있다. 이 경우, 영상 투사부(180)에서 투사되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 영상 투사 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 투사되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기 저장된 생체 정보, 패턴 정보 중 하나 이상과 비교할 수 있다. 이에 따라 제어부(170)는 기 저장된 생체 정보, 패턴 정보 중 하나 이상에서 입력된 사용자의 생체 정보와 동일한 생체 정보를 검색할 수도 있다.
또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기초로 입력된 생체 정보, 패턴 정보 중 하나 이상에 대응하는 사용자의 개인화 서비스 정보를 획득할 수 있다. 예를 들면, 제어부(170)는 수신된 사용자의 지문 이미지 또는 지문에 대한 정보를 기초로, 사용자를 인식할 수 있다. 그리고 제어부(170)는 인식된 사용자에 대응하는 개인화 서비스 정보를 획득할 수 있다.
또한, 제어부(170)는 영상이 투사될 지점인 영상 투사 영역까지의 거리를 기초로 투사될 영상을 조절할 수 있다.
또한, 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역, 영상 투사 장치(100)와 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역에 대한 사용자 입력을 감지할 수도 있다. 이에 대해서는 후술한다.
영상 투사부(180)는 다양한 영상을 투사할 수 있다.
영상 투사부(180)는 광원부(181), 렌즈부(182), 반사부(183)를 포함할 수 있다.
광원부(181)는 빔을 발광한다.
렌즈부(182)는 광원부(181)에서 발생된 빔의 소정 파장만을 선택적으로 투과시킨다. 렌즈부(182)는 설계에 따라 복수의 렌즈를 포함할 수도 있다.
반사부(183)는 렌즈부(182)에서 투과된 빔을 반사시킨다. 또한, 반사부(183)는 상하좌우 방향으로 회전 가능하여, 투과된 빔을 다양한 방향으로 반사시킬 수도 있다.
영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하여 투사될 지점에 영상을 투사할 수 있다.
또한, 영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하고, 반사부(183)에서 반사되어, 투사될 지점에 영상을 투사할 수도 있다.
이를 도 2 내지 도 3을 참고하여 설명한다.
도 2는 본 발명의 일 실시 예에 따른 영상 투사의 개념도이다.
도 2를 참조하면, 영상 투사부(180)는 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하고, 반사부(183)에서 반사되어 투사될 지점에 영상을 투사되도록 할 수 있다. 이에 따라 영상이 투사되는 일면에는 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(400)이 표시될 수 있다.
도 3은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 3을 참조하면, 영상 투사부(180)는 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하여 투사될 지점에 영상을 투사되도록 할 수 있다. 이에 따라 영상이 투사되는 일면에는 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(400)이 표시될 수 있다.
이와 같이 영상 투사부(180)는 반사부(183)를 이용하여, 다양한 투사 방향으로 영상을 투사할 수 있다.
영상 투사부(180)의 영상 투사 방법에 대한 내용은 공지 기술이므로 자세한 내용은 생략한다.
영상 투사부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부 장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 영상 투사 장치(100)는 본 발명의 일 실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 영상 투사 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 영상 투사 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부 장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 영상 투사 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 이미지 표시 방법은 도 1을 참조하여 설명한 바와 같은 영상 투사 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 영상 투사부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 4 내지 도 5를 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 4는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 5는 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
먼저, 도 4를 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280) 및 음성 획득부(290)를 포함할 수 있다.
무선통신부(220)는 전술하여 설명한 본 발명의 실시 예들에 따른 영상표시기기 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 영상 투사 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선통신부(220)를 통하여 전송한다.
한편, 원격제어장치(200)는 영상 투사 장치(100)가 전송한 신호를 무선통신부(220)를 통하여 수신할 수 있으며, 필요에 따라 무선통신부(220)를 통하여 영상 투사 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 휠 키 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 5를 참조하여 설명한다.
도 5를 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), LIVE 버튼(233), 외부입력 버튼(234), 음량 버튼(235), 음성 인식 버튼(236), 채널 버튼(237), 휠 키(238) 및 취소 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다.
전원 버튼(231)은 영상 투사 장치(100), 외부기기의 전원을 온/오프 하기 위한 버튼일 수 있다.
홈 버튼(232)은 영상 투사 장치(100)의 기본 메뉴를 표시하기 위한 버튼일 수 있다.
LIVE 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.
외부입력 버튼(234)는 외부기기로부터 수신된 영상을 표시하기 위한 버튼일 수 있다.
음량 버튼(235)은 영상 투사 장치(100)의 오디오 출력을 조절하기 위한 버튼일 수 있다.
음성 인식 버튼(236)은 사용자의 음성을 인식하기 위한 버튼일 수 있다.
채널 버튼(237)은 특정 방송 채널, 특정 방송 서비스의 방송 신호를 수신하기 위한 버튼일 수 있다.
휠 키(238)는 일 방향 이상에 대한 사용자 입력을 수신할 수 있는 휠(Wheel)형태의 키일 수 있다. 예를 들면 휠 키(238)은 상, 하 방향 또는 상, 하, 좌, 우 방향에 대한 사용자 입력을 수신할 수 있는 휠(Wheel) 형태의 키일 수 있다. 또한, 휠 키(238)은 방향키를 더 포함할 수 있다. 여기서 휠 키(238)의 상, 하 방향에 대한 사용자 입력은 휠 키(238)를 회전시키는 사용자 입력일 있고, 좌, 우 방향에 대한 사용자 입력은 휠 키(238)를 틸트시키는 사용자 입력일 수 있다. 또한, 휠 키(238)는 푸쉬 입력을 수신할 수도 있다.
취소 버튼(239)은 선택된 메뉴를 취소하거나 이전 메뉴로 돌아가기 위한 버튼일 수 있다.
다시 도 4를 설명한다.
사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다.
또한, 사용자 입력부(230)는 스크롤 키, 조그 키, 터치 패드 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 영상 투사 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 영상 투사 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 영상 투사 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력부(250)는 사용자 입력부(230)가 조작되거나 무선 통신부(220)를 통하여 영상 투사 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 영상 투사 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 영상 투사 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 영상 투사 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(230)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 영상 투사 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.
음성 획득부(290)는 적어도 하나 이상의 마이크(미도시)를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.
그리고 음성 획득부(290)는 획득된 음성을 제어부(280)에 전달할 수 있다.
이하, 상술한 영상 투사 장치(100)에 대한 설명을 기초로 영상 투사 장치(100)의 동작 방법을 설명한다.
도 6은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 6을 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상이 투사되는 영상 투사 영역에 대응하는 센싱 영역까지의 거리를 센싱한다(S210).
거리 센서(106)는 거리 센서(106)가 대응하는 방향인, 영상이 투사되는 영상 투사 영역에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다.
이에 대해 도 7을 참조하여 자세히 설명한다.
도 7은 본 발명의 일 실시 예에 따른 센싱 영역까지의 거리 센싱을 나타내는 예시도이다.
도 7을 참조하면, 영상 투사 장치(100)는 영상 투사 장치(100)와 근접한 일면에 대해 영상을 투사할 수 있다. 이에 따라 영상이 투사되는 영역을 영상 투사 영역(500)이라고 할 수 있다. 영상 투사 장치(100)의 거리 센서(106)는 영상이 투사되는 영상 투사 영역(500)에 대응하는 센싱 영역(700)까지의 거리를 센싱할 수 있다. 여기서 센싱 영역(700)은 영상 투사 영역(500)에 근접한 영역일 수 있고, 영상 투사 영역(500)에 밀착된 영역일 수도 있다. 여기서 영상 투사 장치(100)가 거리 센싱하는 상태는 영상 투사 영역(500)에 영상을 투사하는 상태일 수도 있고, 영상을 투사하지 않는 상태일 수도 있다. 한편, 센싱 영역(700)은 구분된, 복수의 센싱 영역을 포함할 수 있다. 예를 들면 도 7에 도시된 바와 같이, 센싱 영역(700)은 센싱 상단 영역(710) 및 센싱 하단 영역(730)을 포함할 수 있다.
복수의 센싱 영역에 대해 도 8 내지 도 10을 참조하여 상세히 설명한다.
복수의 센싱 영역에 대한 일 실시 예를 도 8을 참조하여 설명한다.
도 8은 본 발명의 일 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 8을 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상을 투사하는 영상 투사 영역(500)에 대응하는 제1 센싱 영역(711) 및 제2 센싱 영역(731)에 대해 거리를 센싱할 수 있다. 여기서 제1 센싱 영역(711)은 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역일 수 있고, 제2 센싱 영역(731)은 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역일 수 있다. 이에 따라 제어부(170)는 거리 센서(106)의 거리 센싱값을 기초로, 특정 오브젝트가 제1 센싱 영역(711) 또는 제2 센싱 영역(731)에 위치하는지 인식할 수 있다.
복수의 센싱 영역에 대한 다른 실시 예를 도 9를 참조하여 설명한다.
도 9는 본 발명의 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 9를 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제3 센싱 영역(713) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제4 센싱 영역(733)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제5 센싱 영역(714) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제6 센싱 영역(734)에 대해 거리를 센싱할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a), 제2 거리 센서(106b) 각각의 거리 센싱값을 기초로, 특정 오브젝트가 제3 센싱 영역(713), 제4 센싱 영역(733), 제5 센싱 영역(714) 및 제6 센싱 영역(733) 중 하나 이상에 위치하는지 인식할 수 있다.
복수의 센싱 영역에 대한 또 다른 실시 예를 도 10을 참조하여 설명한다.
도 10은 본 발명의 또 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 10을 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제3 거리(d3) 이내인 영역인 제7 센싱 영역(715), 제7 센싱 영역(715)의 하단에서 영상 투사 영역(500)의 하단 방향으로 제4 거리(d4) 이내인 영역인 제8 센싱 영역(725) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제5 거리(d5) 이내인 제9 센싱 영역(735)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제3 거리(d3) 이내인 영역인 제10 센싱 영역(717), 제10 센싱 영역(717)의 하단에서 영상 투사 영역(500)의 하단 방향으로 제4 거리(d4) 이내인 영역인 제11 센싱 영역(727) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제5 거리(d5) 이내인 영역인 제12 센싱 영역(737)에 대해 거리를 센싱할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a), 제2 거리 센서(106b) 각각의 거리 센싱값을 기초로, 특정 오브젝트가 제7 센싱 영역(715), 제8 센싱 영역(725), 제9 센싱 영역(735), 제10 센싱 영역(717), 제11 센싱 영역(727) 및 제12 센싱 영역(737) 중 하나 이상에 위치하는지 인식할 수 있다.
상술한 거리 센서 및 센싱 영역에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 거리 센서의 배치 및 거리 센서의 수가 변경될 수 있다. 또한 센싱 영역도 사용자 또는 설계자의 선택에 따라 다양한 거리 및 방향으로 설정될 수 있다.
다시 도 6을 참조한다.
도 6을 참조하면, 영상 투사 장치(100)의 제어부(170)는 센싱된 거리를 기초로, 하나 이상의 메뉴를 표시하기 위한 트리거 동작을 인식한다(S230).
제어부(170)는 하나 이상의 거리 센서(106)로부터, 센싱 영역(700)에 대해 센싱된 거리를 획득하고, 획득된 거리를 기초로 하나 이상의 메뉴를 표시하기 위한 트리거 동작을 인식할 수 있다.
일 실시 예로, 메뉴를 표시하기 위한 트리거 동작은 영상 투사 영역(500)에 대응하는 센싱 영역(700)에서 일 방향으로 스와이프하는 사용자 입력일 수 있다.
이에 대해 도 11 내지 도 12를 참조하여 설명한다.
도 11은 본 발명의 일 실시 예에 따른 상하 방향의 트리거 동작에 대한 예시도이다.
도 11을 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상을 투사하는 영상 투사 영역(500)에 대응하는 제1 센싱 영역(711) 및 제2 센싱 영역(731)에 대해 거리를 센싱할 수 있다. 여기서 제1 센싱 영역(711)은 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역일 수 있고, 제2 센싱 영역(731)은 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역일 수 있다. 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 사용자의 손이 제1 영역(711)에서 제2 영역(731)으로 이동하는 스와이프 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 스와이프 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다.
한편, 영상 투사 장치(100)의 제어부(170)는 동일한 센싱 영역 내에서 상하 방향으로 스와이프하는 동작을 트리거 동작으로 인식할 수도 있다.
또한, 메뉴를 표시하기 위한 트리거 동작은 상측에서 하측으로 스와이프하는 동작일 수도 있고, 하측에서 상측으로 스와이프하는 동작일 수도 있다.
도 12는 본 발명의 일 실시 예에 따른 좌우 방향의 트리거 동작에 대한 예시도이다.
도 12를 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제3 센싱 영역(713) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제4 센싱 영역(733)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제5 센싱 영역(714) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제6 센싱 영역(734)에 대해 거리를 센싱할 수 있다. 제어부(170)는 제1 거리 센서(106a) 및 제2 거리 센서(106b) 중 하나 이상이 센싱한 거리를 기초로, 사용자의 손이 제1 거리 센서(106a)에 대응하는 센싱 영역에서 제2 거리 센서(106b)에 대응하는 센싱 영역으로 이동하는 스와이프 동작을 인식할 수 있다. 예를 들면, 제어부(170)는 제1 거리 센서(106a) 및 제2 거리 센서(106b)가 센싱한 거리를 기초로, 사용자의 손이 제6 센싱 영역(733)에서 제8 센싱 영역(734)으로 이동하는 스와이프 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 스와이프 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다.
한편, 메뉴를 표시하기 위한 트리거 동작은 좌측에서 우측으로 스와이프하는 동작일 수도 있고, 우측에서 좌측으로 스와이프하는 동작일 수도 있다.
한편, 영상 투사 장치(100)의 제어부(170)는 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수도 있다.
예를 들면, 제어부(170)는 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작에 따라 거리 센서(106)의 센싱되는 거리값에 변동을 기초로, 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 탭 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다.
상술한 트리거 동작에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라, 다양한 동작이 메뉴를 표시하기 위한 트리거 동작으로 인식될 수 있다.
다시 도 6을 참조한다.
도 6을 참조하면, 영상 투사 장치(100)의 제어부(170)는 하나 이상의 동작에 대한 메뉴를 영상 투사 영역(500)에 표시한다(S250). 제어부(170)는 표시된 메뉴에 대응하는 사용자 입력에 대한 거리를 센싱하고(S270), 센싱된 거리에 대응하는 동작을 수행한다(S290).
제어부(170)는 영상 투사부(180)가 영상 투사 영역(500)에 영상을 투사하도록 제어할 수 있다. 그리고 제어부(170)는 인식된 트리거 동작을 기초로, 영상 투사 장치(100)의 하나 이상의 동작과 관련된 메뉴를 영상 투사 영역(500)에 표시하도록 영상 투사부(180)를 제어할 수 있다. 이에 따라, 영상 투사부(180)는 영상 투사 영역(500)에 투사되는 영상에 하나 이상의 동작과 관련된 메뉴를 표시할 수 있다. 거리 센서(106)는 영상 투사 영역(500)에 표시되는 하나 이상의 메뉴에 대응하는 사용자 입력에 따른, 오브젝트까지의 거리를 센싱할 수 있다. 여기서 오브젝트는 사용자의 손일 수 있다. 그리고 제어부(170)는 표시된 메뉴 및 센싱된 거리에 대응하는 동작을 수행할 수 있다. 예를 들면, 제어부(170)는 센싱된 거리가 표시된 하나의 메뉴를 선택하기 위한 사용자 입력에 대응하면, 선택된 메뉴에 대응하는 동작을 수행할 수 있다.
이에 대해 도 13 내지 도 17을 참조하여 설명한다.
먼저, 하나의 거리 센서(106)가 구비된 경우에 대해 도 13 내지 도 15를 참조하여 설명한다.
도 13은 본 발명의 일 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 14는 본 발명의 일 실시 예에 따른 채널 메뉴 표시에 대한 예시도이다.
도 15는 본 발명의 일 실시 예에 따른 볼륨 메뉴 표시에 대한 예시도이다.
도 13을 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 영상 투사 영역(500)의 일 영역에 채널 메뉴(561) 및 볼륨 메뉴(571)를 각각 표시할 수 있다. 여기서 채널 메뉴(561)는 채널 변경 메뉴를 표시하기 위한 메뉴일 수 있고, 볼륨 메뉴(571)는 볼륨 변경 메뉴를 표시하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 메뉴(561)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 볼륨 메뉴(571)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 채널 메뉴(561)를 선택한 것으로 인식할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 메뉴(571)를 선택한 것으로 인식할 수 있다.
한편, 제어부(170)는 사용자가 채널 메뉴(561)을 선택한 경우에 채널 변경 메뉴를 영상 투사 영역(500)에 표시할 수 있다. 도 14를 참조하면, 제어부(170)는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562) 및 채널 다운 메뉴(572)를 각각 표시할 수 있다. 여기서 채널 업 메뉴(562) 및 채널 다운 메뉴(572)는 영상 투사 영역(500)에 표시되는 채널을 변경하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다.
한편, 제어부(170)는 사용자가 볼륨 메뉴(571)을 선택한 경우에 볼륨 변경 메뉴를 영상 투사 영역(500)에 표시할 수 있다. 도 15를 참조하면, 제어부(170)는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(563) 및 볼륨 다운 메뉴(573)를 각각 표시할 수 있다. 여기서 볼륨 업 메뉴(563)는 오디오 출력부(185)에서 출력되는 오디오의 볼륨을 높이기 위한 메뉴일 수 있고, 볼륨 다운 메뉴(573)는 오디오 출력부(185)에서 출력되는 오디오의 볼륨을 낮추기 위한 메뉴일 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(563)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다.
다음으로, 복수의 거리 센서(106a, 106b)가 구비된 경우에 대해 도 16을 참조하여 설명한다.
도 16은 본 발명의 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 16을 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 제1 거리영상 센서(106a)에 대응하는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562) 및 채널 다운 메뉴(563)을 표시할 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제3 센싱 영역(713)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 영상 투사 영역에서 제4 센싱 영역(733)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제3 센싱 영역(713)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제4 센싱 영역(733)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다. 제어부(180)는 인식된 트리거 동작에 대응하여, 제2 거리영상 센서(106b)에 대응하는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(572) 및 볼륨 다운 메뉴(573)을 표시할 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(572)를 영상 투사 영역(500)에서 제5 센싱 영역(714)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제6 센싱 영역(734)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제5 센싱 영역(714)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제6 센싱 영역(734)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다.
다음으로, 복수의 거리 센서(106a, 106b)가 구비된 경우에 대한 다른 실시예를 도 17을 참조하여 설명한다.
도 17은 본 발명의 또 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 17을 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 제1 거리영상 센서(106a)에 대응하는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562), 채널 리스트 메뉴(564) 및 채널 다운 메뉴(563)을 표시할 수 있다. 여기서 채널 리스트 메뉴(564)는 하나 이상의 채널에 대한 리스트를 표시하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제7 센싱 영역(715)에 대응하는 위치에 표시할 수 있고, 채널 리스트 메뉴(564)를 제8 센싱 영역(725)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 제9 센싱 영역(735)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제7 센싱 영역(715)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제8 센싱 영역(725)에 대한 사용자 입력을 인식하면, 사용자가 채널 리스트 메뉴(564)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역(500)에 채널 리스트를 표시할 수 있다. 그리고 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제9 센싱 영역(735)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다.
한편, 제어부(180)는 인식된 트리거 동작에 대응하여, 제2 거리영상 센서(106b)에 대응하는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(572), 음소거 메뉴(574) 및 볼륨 다운 메뉴(573)을 표시할 수 있다. 여기서 음소거 메뉴(574)는 오디오 출력부(185)의 오디오 출력을 정지하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(572)를 영상 투사 영역(500)에서 제10 센싱 영역(717)에 대응하는 위치에 표시할 수 있고, 음소거 메뉴(574)를 영상 투사 영역(500)에서 제11 센싱 영역(727)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제12 센싱 영역(737)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제10 센싱 영역(717)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제11 센싱 영역(727)에 대한 사용자 입력을 인식하면, 사용자가 음소거 메뉴(574)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력을 정지할 수 있다. 그리고 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제12 센싱 영역(737)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다.
한편, 상술한 센싱 거리에 대응하는 동작 수행에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 다양한 메뉴가 표시될 수 있으며, 다양한 메뉴에 대응하는 다양한 동작이 영상 투사 장치(100)에서 수행될 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 영상 투사 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (10)

  1. 영상 투사 장치의 동작 방법에 있어서,
    하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 단계;
    상기 영상 투사 영역에 대응하는 센싱 영역에서 상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 단계;
    상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  2. 제1항에 있어서,
    상기 하나 이상의 메뉴를 포함하는 영상을 투사하는 단계는
    상기 영상 투사 영역에 대응하는 센싱 영역에서 상기 영상이 투사될 영상 투사 영역에 대응하는 센싱 영역에 대한 제2 거리를 센싱하는 단계와,
    상기 센싱된 제2 거리의 거리값이 변동되면, 상기 메뉴를 포함하는 영상을 투사하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  3. 제1항에 있어서,
    상기 메뉴에 대응하는 동작을 수행하는 단계는
    상기 영상 투사 영역에 대응하는 센싱 영역에서 상기 영상에 포함된 하나 이상의 메뉴 중 상기 센싱된 제1 거리의 거리값이 변동된 메뉴에 대응하는 동작을 수행하는
    영상 투사 장치의 동작 방법.
  4. 제3항에 있어서,
    상기 제1 거리의 거리값이 변동된 메뉴가 세부 메뉴를 표시하기 위한 메뉴이면, 상기 제1 거리의 거리값이 변동된 메뉴에 대응하는 하나 이상의 세부 메뉴를 포함하는 영상을 상기 영상 투사 영역에 투사하는 단계;
    상기 영상 투사 영역에 대응하는 센싱 영역에서 상기 세부 메뉴에 대응하는 사용자 입력에 대한 제3 거리를 센싱하는 단계; 및
    상기 센싱된 제3 거리를 기초로, 상기 세부 메뉴에 대응하는 동작을 수행하는 단계를 더 포함하는
    영상 투사 장치의 동작 방법.
  5. 제4항에 있어서,
    상기 세부 메뉴에 대응하는 동작을 수행하는 단계는
    상기 영상에 포함된 하나 이상의 세부 메뉴 중 상기 센싱된 제3 거리의 거리값이 변동된 세부 메뉴에 대응하는 동작을 수행하는
    영상 투사 장치의 동작 방법.
  6. 영상 투사 장치에 있어서,
    하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 영상 투사부;
    상기 영상 투사 영역에 대응하는 센싱 영역에서 상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 거리 센서; 및
    상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 제어부를 포함하는
    영상 투사 장치.
  7. 제6항에 있어서,
    상기 거리 센서는
    상기 영상이 투사될 영상 투사 영역에 대응하는 센싱 영역에 대한 제2 거리를 센싱하고,
    상기 제어부는
    상기 센싱된 제2 거리의 거리값이 변동되면, 상기 메뉴를 포함하는 영상을 상기 영상 투사부가 투사하도록 제어하는
    영상 투사 장치.
  8. 제6항에 있어서,
    상기 제어부는
    상기 영상에 포함된 하나 이상의 메뉴 중 상기 센싱된 제1 거리의 거리값이 변동된 메뉴에 대응하는 동작을 수행하는
    영상 투사 장치.
  9. 제8항에 있어서,
    상기 제어부는
    상기 제1 거리의 거리값이 변동된 메뉴가 세부 메뉴를 표시하기 위한 메뉴이면, 상기 제1 거리의 거리값이 변동된 메뉴에 대응하는 하나 이상의 세부 메뉴를 포함하는 영상을 상기 영상 투사 영역에 투사하고, 상기 영상 투사 영역에 대응하는 센싱 영역에서 상기 세부 메뉴에 대응하는 사용자 입력에 대해 센싱된 제3 거리를 기초로, 상기 세부 메뉴에 대응하는 동작을 수행하는
    영상 투사 장치.
  10. 제9항에 있어서,
    상기 제어부는
    상기 영상에 포함된 하나 이상의 세부 메뉴 중 상기 센싱된 제3 거리의 거리값이 변동된 세부 메뉴에 대응하는 동작을 수행하는
    영상 투사 장치.
KR1020150071272A 2015-02-04 2015-05-21 영상 투사 장치 및 그의 동작 방법 KR102360628B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150071272A KR102360628B1 (ko) 2015-05-21 2015-05-21 영상 투사 장치 및 그의 동작 방법
US15/549,131 US10310676B2 (en) 2015-02-04 2015-08-10 Image projection apparatus and operation method thereof
PCT/KR2015/008366 WO2016125966A1 (ko) 2015-02-04 2015-08-10 영상 투사 장치 및 그의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150071272A KR102360628B1 (ko) 2015-05-21 2015-05-21 영상 투사 장치 및 그의 동작 방법

Publications (2)

Publication Number Publication Date
KR20160136963A KR20160136963A (ko) 2016-11-30
KR102360628B1 true KR102360628B1 (ko) 2022-02-09

Family

ID=57707184

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150071272A KR102360628B1 (ko) 2015-02-04 2015-05-21 영상 투사 장치 및 그의 동작 방법

Country Status (1)

Country Link
KR (1) KR102360628B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018213980A1 (de) * 2018-08-20 2020-02-20 BSH Hausgeräte GmbH Haushaltsgerät mit einer manuellen Eingabevorrichtung
JP2020034765A (ja) 2018-08-30 2020-03-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120139689A1 (en) * 2010-12-06 2012-06-07 Mayumi Nakade Operation controlling apparatus
JP2014163954A (ja) * 2013-02-21 2014-09-08 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120139689A1 (en) * 2010-12-06 2012-06-07 Mayumi Nakade Operation controlling apparatus
JP2014163954A (ja) * 2013-02-21 2014-09-08 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法

Also Published As

Publication number Publication date
KR20160136963A (ko) 2016-11-30

Similar Documents

Publication Publication Date Title
EP2960882B1 (en) Display device and operating method thereof
US9720580B2 (en) Graphical user interface and data transfer methods in a controlling device
KR102521343B1 (ko) 디스플레이 장치 및 그의 동작 방법
US10721430B2 (en) Display device and method of operating the same
KR102570379B1 (ko) 스크린 미러링 기능을 제공하는 디스플레이 장치 및 그의 동작 방법
US20180270525A1 (en) Display device and operating method therefor
US10133903B2 (en) Remote control device and operating method thereof
CN108476339B (zh) 一种遥控方法和终端
KR102209354B1 (ko) 영상 표시 기기 및 그의 동작 방법
US20150256875A1 (en) Display device and operating method thereof
US20160334880A1 (en) Gesture recognition method, computing device, and control device
KR102271184B1 (ko) 영상 투사 장치 및 그의 동작 방법
KR102333931B1 (ko) 영상 투사 장치 및 그의 동작 방법
KR102360628B1 (ko) 영상 투사 장치 및 그의 동작 방법
US10310676B2 (en) Image projection apparatus and operation method thereof
KR102167289B1 (ko) 영상 표시 기기 및 그의 동작 방법
KR20200102861A (ko) 디스플레이 장치 및 그의 동작 방법
KR20160095377A (ko) 디스플레이 장치 및 그의 동작 방법
US20220319511A1 (en) Display device and operation method for same
KR20170081454A (ko) 디스플레이 장치
US10742922B2 (en) Display device and operation method therefor
KR102400640B1 (ko) 디스플레이 장치 및 이의 동작 방법
US10567694B2 (en) Electronic apparatus and method for controlling sound of electronic apparatus
KR20230111526A (ko) 디스플레이 장치
KR20240044943A (ko) 투명 디스플레이 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right