KR20160136963A - Video projector and operating method thereof - Google Patents

Video projector and operating method thereof Download PDF

Info

Publication number
KR20160136963A
KR20160136963A KR1020150071272A KR20150071272A KR20160136963A KR 20160136963 A KR20160136963 A KR 20160136963A KR 1020150071272 A KR1020150071272 A KR 1020150071272A KR 20150071272 A KR20150071272 A KR 20150071272A KR 20160136963 A KR20160136963 A KR 20160136963A
Authority
KR
South Korea
Prior art keywords
distance
image projection
image
menu
area
Prior art date
Application number
KR1020150071272A
Other languages
Korean (ko)
Other versions
KR102360628B1 (en
Inventor
이상호
윤현식
김태순
강상규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150071272A priority Critical patent/KR102360628B1/en
Priority to PCT/KR2015/008366 priority patent/WO2016125966A1/en
Priority to US15/549,131 priority patent/US10310676B2/en
Publication of KR20160136963A publication Critical patent/KR20160136963A/en
Application granted granted Critical
Publication of KR102360628B1 publication Critical patent/KR102360628B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

According to an embodiment of the present invention, an image projection apparatus projects an image including one or more menus onto an image projection area, and senses a first distance for a user input corresponding to the menus. The image projection apparatus performs an operation corresponding to the menus based on the sensed first distance. The image projection apparatus can provide a user with an intuitive input method.

Description

영상 투사 장치 및 그의 동작 방법{VIDEO PROJECTOR AND OPERATING METHOD THEREOF}Technical Field [0001] The present invention relates to an image projecting apparatus,

본 발명은 영상 투사 장치 및 그의 동작 방법에 관한 것으로, 보다 상세하게는 영상이 투사되는 영상 투사 영역에 대한 거리 센싱을 통해, 사용자 입력을 인식하는 영상 투사 장치 및 그의 동작 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image projection apparatus and an operation method thereof, and more particularly, to an image projection apparatus and an operation method thereof that recognize a user input through distance sensing of an image projection region in which an image is projected.

최근 들어, 영상을 표시하는 방법은 디스플레이 장치와 같이 장치 내에 영상을 표시하는 방법뿐만 아니라, 프로젝터와 같이 영상을 일정 영역에 투사하는 방법도 이용되고 있다.In recent years, a method of displaying an image has been used not only a method of displaying an image in a device such as a display device, but also a method of projecting an image to a certain area like a projector.

디스플레이 장치를 통한 영상 표시는 영상을 표시할 수 있는 화면 크기에 한계가 있고, 디스플레이 장치의 화면 이외의 다른 영역에는 영상을 표시할 수 없는 한계가 있다.The image display through the display device has a limitation on the screen size in which the image can be displayed and the image can not be displayed in other areas than the screen of the display device.

반면에 프로젝터와 같은 영상 투사 장치는 디스플레이 장치보다 큰 화면을 제공할 수 있으며, 영상을 투사하는 방향에 따라 다양한 위치에 영상을 표시할 수 있는 장점이 있다.On the other hand, an image projection device such as a projector can provide a larger screen than a display device, and an image can be displayed at various positions according to a direction in which an image is projected.

한편, 최근에는 다양한 터치 방식을 통해 디스플레이 장치에 표시된 화면을 사용자가 직접 터치하는 방식의 입력 방식이 널리 사용되고 있다. 터치 방식의 사용자 입력 방식은 표시된 화면에 대해 사용자가 직접적인 터치 동작을 할 수 있어서, 사용자가 입력 방식, 사용 방식을 직관적으로 인식할 수 있는 장점이 있다.Meanwhile, in recent years, an input method in which a user directly touches a screen displayed on a display device through various touch methods is widely used. The touch-type user input method has a merit in that the user can perform a direct touch operation on the displayed screen, so that the user can intuitively recognize the input method and the usage method.

하지만 영상 투사 장치는 일정한 디스플레이가 없는 특징으로 인해 터치 방식을 통한 사용자 입력을 수신하지 못하는 단점이 있다. However, the image projection apparatus has a drawback in that it can not receive the user input through the touch method due to the feature that there is no constant display.

따라서, 영상 투사 장치에서도 터치 방식과 유사하게 사용자 입력을 수신할 수 있는 방법이 필요하다.Therefore, there is a need for a method capable of receiving user input similarly to the touch method in an image projection apparatus.

본 발명에 따른 영상 투사 장치는 거리 센싱을 통해, 사용자 입력을 인식할 수 있어서, 사용자에게 직관적인 입력 방식을 제공하는데 목적이 있다.An image projection apparatus according to the present invention is capable of recognizing a user input through distance sensing, thereby providing an intuitive input method to a user.

본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법은 하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 단계; 상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 단계; 상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 단계를 포함한다.A method of operating an image projection apparatus according to an exemplary embodiment of the present invention includes projecting an image including at least one menu onto an image projection area; Sensing a first distance to a user input corresponding to the menu; And performing an operation corresponding to the menu based on the sensed first distance.

본 발명의 실시 예에 따른 영상 투사 장치는 하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 영상 투사부; 상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 거리 센서; 및 상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 제어부를 포함한다.An image projection apparatus according to an embodiment of the present invention includes an image projection unit that projects an image including one or more menus to an image projection area; A distance sensor for sensing a first distance to a user input corresponding to the menu; And a controller for performing an operation corresponding to the menu based on the sensed first distance.

본 발명의 다양한 실시 예에 따르면, 본 발명에 따른 영상 투사 장치는 장치는 거리 센싱을 통해 사용자 입력을 인식할 수 있어서, 사용자에게 직관적인 입력 방식을 제공할 수 있다.According to various embodiments of the present invention, an image projection apparatus according to the present invention can recognize a user input through distance sensing, thereby providing an intuitive input method to a user.

도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 일 실시 예에 따른 영상 투사의 개념도이다.
도 3은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 4는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 6은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 센싱 영역까지의 거리 센싱을 나타내는 예시도이다.
도 8은 본 발명의 일 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 9는 본 발명의 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 10은 본 발명의 또 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.
도 11은 본 발명의 일 실시 예에 따른 상하 방향의 트리거 동작에 대한 예시도이다.
도 12는 본 발명의 일 실시 예에 따른 좌우 방향의 트리거 동작에 대한 예시도이다.
도 13은 본 발명의 일 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 14는 본 발명의 일 실시 예에 따른 채널 메뉴 표시에 대한 예시도이다.
도 15는 본 발명의 일 실시 예에 따른 볼륨 메뉴 표시에 대한 예시도이다.
도 16은 본 발명의 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
도 17은 본 발명의 또 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.
1 is a block diagram of a configuration of an image projection apparatus according to an embodiment of the present invention.
2 is a conceptual diagram of an image projection according to an embodiment of the present invention.
3 is a conceptual diagram of an image projection according to another embodiment of the present invention.
4 is a block diagram of a remote control device according to an embodiment of the present invention.
5 shows an example of an actual configuration of a remote control apparatus according to an embodiment of the present invention.
6 is a flowchart illustrating an operation method of an image projection apparatus according to an exemplary embodiment of the present invention.
7 is a diagram illustrating distance sensing to a sensing region according to an embodiment of the present invention.
8 is an exemplary diagram illustrating a plurality of sensing regions according to an embodiment of the present invention.
9 is an exemplary diagram illustrating a plurality of sensing regions according to another embodiment of the present invention.
10 is an exemplary diagram illustrating a plurality of sensing regions according to another embodiment of the present invention.
11 is a diagram illustrating an example of a vertical trigger operation according to an embodiment of the present invention.
12 is a diagram illustrating an example of a trigger operation in the left and right direction according to an embodiment of the present invention.
13 is an exemplary diagram illustrating an operation selection menu display according to an embodiment of the present invention.
14 is a view illustrating an example of a channel menu display according to an embodiment of the present invention.
15 is an exemplary view of a volume menu display according to an embodiment of the present invention.
16 is an exemplary view illustrating an operation selection menu display according to another embodiment of the present invention.
17 is an exemplary diagram illustrating an operation selection menu display according to another embodiment of the present invention.

이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, embodiments related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법 및 그를 이용한 영상 투사 장치에 관하여 상세히 설명한다.Hereinafter, an operation method of an image projection apparatus according to an embodiment of the present invention and an image projection apparatus using the same will be described in detail with reference to the accompanying drawings.

본 발명의 실시 예에 따른 영상 투사 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 영상 투사 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 음성 명령 인식, 제스처 동작 인식, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행 가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.An image projection apparatus according to an embodiment of the present invention is an intelligent image projection apparatus that adds a computer support function to a broadcast reception function, for example, and is equipped with an Internet function while being faithful to a broadcast reception function. It can be equipped with more convenient interface such as recognition, handwriting input device, touch screen or space remote control. Also, it can be connected to the Internet and a computer by the support of a wired or wireless Internet function, and can perform functions such as e-mail, web browsing, banking or game. A standardized general-purpose OS can be used for these various functions.

따라서, 본 발명에서 기술되는 영상 투사 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 영상 투사 장치는, 보다 구체적으로 예를 들면, 영상 프로젝터가 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.Therefore, the image projection apparatus described in the present invention can freely add or delete various applications, for example, on a general-purpose OS kernel, so that various user-friendly functions can be performed. More specifically, the image projection apparatus may be, for example, a video projector, and may be applied to a smartphone in some cases.

도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.1 is a block diagram of a configuration of an image projection apparatus according to an embodiment of the present invention.

도 1을 참조하면, 영상 투사 장치(100)는 센싱부(105), 음성 획득부(110), 영상 획득부(120), 방송 수신부(130), 외부 장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 통신부(160), 제어부(170), 영상 투사부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다. 1, the image projection apparatus 100 includes a sensing unit 105, a sound acquisition unit 110, an image acquisition unit 120, a broadcast reception unit 130, an external device interface unit 135, a storage unit A user input interface unit 150, a communication unit 160, a control unit 170, an image projection unit 180, an audio output unit 185, and a power supply unit 190.

센싱부(105)는 영상 투사 장치 내 정보, 영상 투사 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. The sensing unit 105 may include one or more sensors for sensing at least one of information in the image projection apparatus, surrounding environment information surrounding the image projection apparatus, and user information.

예를 들어, 센싱부(105)는 거리 센서(106), 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor, 107), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 건강케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 영상 투사 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다. For example, the sensing unit 105 may include a distance sensor 106, a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, A G-sensor, a gyroscope sensor, a motion sensor 107, an RGB sensor, an infrared sensor (infrared sensor), a finger scan sensor, an ultrasonic sensor an ultrasonic sensor, an optical sensor, a battery gauge, an environmental sensor (for example, a barometer, a hygrometer, a thermometer, a radiation sensor, a thermal sensor, For example, an electronic nose, a health care sensor, a biometric sensor, etc.). Meanwhile, the image projection apparatus 100 disclosed in the present specification can combine and use information sensed by at least two sensors among the sensors.

거리 센서(106)는 거리를 센싱할 수 있는 하나 이상의 센서를 포함할 수 있다.The distance sensor 106 may include one or more sensors capable of sensing distances.

일 실시 예로 거리 센서(106)는 적외선 센서를 포함할 수 있고, 다양한 물체, 영상이 투사되는 지점 등에 대한 거리를 센싱할 수 있다. 예를 들면, 거리 센서(106)에 포함된 적외선 센서는 적외선을 출력하고, 출력된 적외선이 물체 등에 의해 반사되면 반사된 적외선을 거리 센서(106)에 포함된 이미지 센서로 인식할 수 있다. In one embodiment, the distance sensor 106 may include an infrared sensor, and may sense a distance to various objects, a point at which the image is projected, and the like. For example, the infrared sensor included in the distance sensor 106 outputs infrared rays, and when the output infrared rays are reflected by an object or the like, the reflected infrared rays can be recognized as an image sensor included in the distance sensor 106.

거리 센서(106)는 적외선 센서 이외에도 다양한 센서를 포함할 수 있다. 예를 들면 거리 센서(106)는 초음파 센서를 포함할 수 있고, 적외선 이외의 다른 파장의 광선을 출력할 수도 있다. 거리 센서(106)의 구체적인 동작에 대해서는 후술하기로 한다. The distance sensor 106 may include various sensors in addition to the infrared sensor. For example, the distance sensor 106 may include an ultrasonic sensor and may output a light beam of a wavelength other than infrared light. The specific operation of the distance sensor 106 will be described later.

한편, 센싱부(105)는 별도로 구비된 센서를 통해 영상이 투사되는 영역의 상태를 인식할 수도 있다.Meanwhile, the sensing unit 105 may recognize the state of an area where an image is projected through a sensor provided separately.

예를 들어, 센싱부(105)는 영상이 투사되는 영역에 구비된 자석형 센서, 스위치형 센서 등으로부터 영상이 투사되는 영역의 움직임에 대한 정보를 획득할 수 있다. For example, the sensing unit 105 can acquire information on the motion of the region where the image is projected from the magnet type sensor, the switch type sensor, and the like provided in the region where the image is projected.

음성 획득부(110)는 음성을 획득할 수 있다.The voice acquiring unit 110 can acquire the voice.

음성 획득부(110)는 적어도 하나 이상의 마이크를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.The voice acquiring unit 110 may include at least one microphone so as to acquire voice through the included microphone.

그리고 음성 획득부(110)는 획득된 음성을 제어부(170)에 전달할 수 있다.And the voice acquisition unit 110 may transmit the acquired voice to the control unit 170. [

영상 획득부(120)는 영상을 획득할 수 있다.The image acquisition unit 120 may acquire an image.

영상 획득부(120)는 적어도 하나 이상의 카메라를 포함할 수 있어서, 포함된 카메라를 통해 영상을 획득할 수 있다. 이에 따라, 영상 획득부(120)는 사용자에 대한 영상을 획득할 수 있다. 또한, 영상 획득부(120)는 사용자의 홍채, 정맥과 같은 생체 정보에 대한 영상도 획득할 수 있다.The image acquiring unit 120 may include at least one or more cameras to acquire an image through the included camera. Accordingly, the image acquisition unit 120 can acquire an image for the user. Also, the image acquisition unit 120 may acquire images of biometric information such as irises and veins of the user.

그리고 영상 획득부(120)는 획득한 영상을 제어부(170)에 전달할 수 있다.The image acquiring unit 120 may transmit the acquired image to the controller 170. [

한편, 음성 획득부(110)와 영상 획득부(120)는 사용자입력 인터페이스부(150)에 포함될 수 있다.Meanwhile, the audio acquisition unit 110 and the image acquisition unit 120 may be included in the user input interface unit 150.

한편, 방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다. The broadcast receiver 130 may include a tuner 131, a demodulator 132, and a network interface 133.

외부 장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.The external device interface unit 135 may receive an application or application list in an adjacent external device and may transmit the received application or application list to the control unit 170 or the storage unit 140.

외부 장치 인터페이스부(135)는 외부 장치와 연결하기 위한 단자(terminal)를 포함할 수 있어서, 외부 장치의 커넥터(connecter)와 연결될 수 있다.The external device interface unit 135 may include a terminal for connection to an external device, and may be connected to a connector of an external device.

외부 장치 인터페이스부(135)는 전원 공급부(190)로부터 공급받은 전원을 연결된 외부 장치에 구동 전원으로 공급할 수 있다.The external device interface unit 135 may supply the power supplied from the power supply unit 190 to the connected external device as driving power.

또한, 외부 장치 인터페이스부(135)는 외부 장치가 송신한 동작 신호를 제어부(170)에 전달할 수 있다.In addition, the external device interface unit 135 may transmit an operation signal transmitted from the external device to the controller 170. [

한편, 외부 장치 인터페이스부(135)는 외부 장치의 연결을 감지할 수 있는 센서가 포함될 수 있어서, 외부 장치의 연결을 인식할 수 있다.Meanwhile, the external device interface unit 135 may include a sensor capable of detecting connection of the external device, so that the external device interface unit 135 can recognize the connection of the external device.

네트워크 인터페이스부(133)는 영상 투사 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. The network interface unit 133 may provide an interface for connecting the image projection apparatus 100 to a wired / wireless network including the Internet network. The network interface unit 133 can transmit or receive data to another user or another electronic device via the network connected thereto or another network linked to the connected network.

또한, 영상 투사 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 영상 투사 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.Further, it is possible to transmit some content data stored in the image projection apparatus 100 to another user registered in advance in the image projection apparatus 100 or a selected user or selected electronic apparatus among other electronic apparatuses.

네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.The network interface unit 133 can access a predetermined web page through the connected network or another network linked to the connected network. That is, it is possible to access a predetermined web page through a network and transmit or receive data with the server.

그리고 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.The network interface unit 133 may receive content or data provided by the content provider or the network operator. That is, the network interface unit 133 can receive contents such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.

또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.In addition, the network interface unit 133 can receive update information and an update file of the firmware provided by the network operator, and can transmit data to the Internet or a content provider or a network operator.

네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다. The network interface unit 133 can select and receive a desired application among applications open to the public via the network.

저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.The storage unit 140 stores programs for signal processing and control in the controller 170, and can store image-processed video, audio, or data signals.

또한, 저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.The storage unit 140 may perform a function for temporarily storing video, audio, or data signals input from the external device interface unit 135 or the network interface unit 133, It may also store information about the image.

저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.The storage unit 140 may store a list of applications or applications input from the external device interface unit 135 or the network interface unit 133. [

또한, 저장부(140)는 사용자의 생체 정보를 저장할 수 있다. 여기서 사용자의 생체 정보란, 사용자의 지문, 홍채, 정맥, 얼굴, 음성과 같은 사용자의 신체와 관련된 고유의 정보를 의미할 수 있다.In addition, the storage unit 140 may store biometric information of a user. Here, the biometric information of the user may be information inherent to the user's body such as the fingerprint, iris, vein, face, and voice of the user.

영상 투사 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.The image projection apparatus 100 may reproduce and provide a content file (a moving image file, a still image file, a music file, a document file, an application file, etc.) stored in the storage unit 140 to a user.

저장부(140)는 사용자에 대한 개인화 서비스 정보를 저장할 수 있다. 여기서 사용자에 대한 개인화 서비스 정보는 사용자가 자주 사용하는 기능, 자주 시청하는 채널, 컨텐츠 및 사용자가 설정한 설정값 중 하나 이상에 대한 정보를 포함할 수 있다. 그리고 사용자에 대한 개인화 서비스 정보는 복수의 사용자 각각에 대해 개인화된 기능, 개인화된 메뉴에 대한 정보를 포함할 수 있다.The storage unit 140 may store personalization service information for the user. Here, the personalization service information for the user may include information about one or more of frequently used functions, frequently viewed channels, contents, and user-set values. The personalization service information for the user may include information on personalized functions and personalized menus for each of a plurality of users.

사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.The user input interface unit 150 may transmit a signal input by the user to the control unit 170 or may transmit a signal from the control unit 170 to the user. For example, the user input interface unit 150 may be implemented by various communication methods such as Bluetooth, Ultra Wideband (WB), ZigBee, RF (Radio Frequency) communication, and infrared (IR) It is possible to receive and process control signals such as power on / off, channel selection, screen setting, and the like from the remote control device 200, or transmit control signals from the control unit 170 to the remote control device 200. [

또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.The user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.

통신부(160)는 영상 투사 장치(100)와 네트워크 또는 영상 투사 장치(100)와 주변 기기가 유선 통신 또는 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The communication unit 160 may include one or more modules that enable the image projection apparatus 100 and the network or the image projection apparatus 100 and peripheral devices to perform wired communication or wireless communication.

예를 들면, 통신부(160)는 인터넷 접속을 위한 인터넷 모듈을 포함할 수 있으며, 인터넷 모듈을 통해 유선 또는 무선 통신을 통해 영상 투사 장치(100)가 인터넷에 접속할 수 있도록 할 수 있다.For example, the communication unit 160 may include an Internet module for Internet connection, and may allow the image projection apparatus 100 to access the Internet through wired or wireless communication through the Internet module.

다른 예를 들면, 통신부(160)는 영상 투사 장치(100)와 다른 기기가 무선 통신할 수 있도록 근거리 통신 모듈을 포함할 수 있다. 일 실시예로 통신부(160)에 포함된 근거리 통신 모듈은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, WLAN(Wireless LAN)(Wi-Fi), NFC(Near Field Communication) 등을 이용할 수 있다.For example, the communication unit 160 may include a short-range communication module so that the image projection apparatus 100 can wirelessly communicate with another apparatus. The local communication module included in the communication unit 160 may be Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, WLAN (Wi-Fi), and Near Field Communication (NFC).

제어부(170)에서 영상 처리된 영상 신호는 영상 투사부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부 장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.The image signal processed by the controller 170 may be input to the image projection unit 180 and displayed as an image corresponding to the image signal. The video signal processed by the controller 170 may be input to the external output device through the external device interface 135. [

제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부 장치 인터페이스부(135)를 통하여 외부 장치로 입력될 수 있다. The audio signal processed by the control unit 170 may be output to the audio output unit 185 through audio. The audio signal processed by the controller 170 may be input to the external device through the external device interface unit 135. [

또한, 제어부(170)는 후술할 오디오 출력 장치(300)에 처리된 음성 신호를 전달하여, 오디오 출력 장치(300)가 오디오 출력하도록 제어할 수도 있다.In addition, the control unit 170 may transmit the processed voice signal to the audio output device 300 to be described later, and may control the audio output device 300 to output audio.

그 외, 제어부(170)는 영상 투사 장치(100) 내의 전반적인 동작을 제어할 수 있다. In addition, the control unit 170 can control the overall operation of the image projection apparatus 100.

제어부(170)는 외부 장치 인터페이스부(135)로부터 외부 장치의 연결에 대한 감지 신호를 입력받아, 외부 장치 인터페이스부(135)를 통해 연결된 외부 장치에 구동 전원이 전달되도록 전원 공급부(190)를 제어할 수 있다.The control unit 170 receives a sensing signal for connection of an external device from the external device interface unit 135 and controls the power supply unit 190 to transmit driving power to an external device connected through the external device interface unit 135 can do.

또한, 제어부(170)는 음성 획득부(110)를 통해 획득한 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.In addition, the control unit 170 can recognize the voice acquired through the voice acquisition unit 110 and perform a control operation corresponding to the recognized voice.

그리고 제어부(170)는 사용자의 음성에 대한 복수의 음성 신호를 비교하고, 가장 품질 좋은 음성 신호의 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.The control unit 170 compares a plurality of voice signals with respect to the user's voice, recognizes the voice of the highest quality voice signal, and performs a control operation corresponding to the recognized voice.

제어부(170)는 복수의 마이크가 구비된 음성 획득부(110)로부터 획득된 복수의 음성을 비교하여 사용자의 위치를 판단할 수 있다. 구체적으로 제어부(170)는 복수의 마이크 각각이 획득한 음성을 비교하여, 음성을 발화한 사용자의 위치를 판단할 수 있다.The control unit 170 may compare the plurality of voices acquired from the voice acquisition unit 110 having a plurality of microphones to determine the location of the user. Specifically, the control unit 170 can compare the voice acquired by each of the plurality of microphones to determine the location of the user who uttered the voice.

한편, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상 투사 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 영상 투사 장치(100) 내로 다운받을 수 있도록 할 수 있다.Meanwhile, the control unit 170 can control the image projection apparatus 100 by a user command or an internal program input through the user input interface unit 150, and can connect to the network and display a list of applications or applications desired by the user So that it can be downloaded into the projection apparatus 100.

제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 영상 투사부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.The control unit 170 can output the video or audio signal processed by the user through the image projection unit 180 or the audio output unit 185 together with the processed channel information or the like.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부 장치 영상 재생 명령에 따라, 외부 장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 영상 투사부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.The control unit 170 controls the operation of the external device through the external device interface unit 135 according to an external device video playback command received through the user input interface unit 150. For example, So that a video signal or a voice signal can be output through the image projection unit 180 or the audio output unit 185.

한편, 제어부(170)는 영상을 표시하도록 영상 투사부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부 장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 영상 투사부(180)에서 투사되도록 제어할 수 있다. 이 경우, 영상 투사부(180)에서 투사되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.The control unit 170 may control the image projecting unit 180 to display an image and may receive the broadcast image input through the tuner 131 or the external image input through the external device interface unit 135, The input image, the image input through the network interface unit, or the image stored in the storage unit 140 may be projected from the image projection unit 180. [ In this case, the image projected by the image projecting unit 180 may be a still image or a moving image, and may be a 2D image or a 3D image.

또한, 제어부(170)는 영상 투사 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 투사되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.In addition, the control unit 170 may control the content stored in the image projection apparatus 100, received broadcast content, or external input content input from the outside to be projected, and the content may be a broadcast image, an external input image, Files, still images, connected web screens, and document files.

또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기 저장된 생체 정보, 패턴 정보 중 하나 이상과 비교할 수 있다. 이에 따라 제어부(170)는 기 저장된 생체 정보, 패턴 정보 중 하나 이상에서 입력된 사용자의 생체 정보와 동일한 생체 정보를 검색할 수도 있다.In addition, the controller 170 may compare one or more of the inputted biometric information and pattern information with one or more of the previously stored biometric information and pattern information. Accordingly, the controller 170 may search for the same biometric information as the biometric information of the user inputted from one or more of the stored biometric information and pattern information.

또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기초로 입력된 생체 정보, 패턴 정보 중 하나 이상에 대응하는 사용자의 개인화 서비스 정보를 획득할 수 있다. 예를 들면, 제어부(170)는 수신된 사용자의 지문 이미지 또는 지문에 대한 정보를 기초로, 사용자를 인식할 수 있다. 그리고 제어부(170)는 인식된 사용자에 대응하는 개인화 서비스 정보를 획득할 수 있다.In addition, the controller 170 can acquire personalization service information of a user corresponding to at least one of biometric information and pattern information input based on at least one of the inputted biometric information and pattern information of the user. For example, the control unit 170 can recognize the user based on the fingerprint image or the fingerprint information of the received user. Then, the controller 170 can acquire the personalized service information corresponding to the recognized user.

또한, 제어부(170)는 영상이 투사될 지점인 영상 투사 영역까지의 거리를 기초로 투사될 영상을 조절할 수 있다.In addition, the controller 170 can adjust the image to be projected based on the distance to the image projection area where the image is projected.

또한, 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역, 영상 투사 장치(100)와 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역에 대한 사용자 입력을 감지할 수도 있다. 이에 대해서는 후술한다.In addition, the controller 170 controls the image projection state including the state of at least one of the image projection area, the space between the image projection apparatus 100 and the image projection area based on the sensing value sensed by the distance sensor 106 It can be judged. The controller 170 may sense a user input of the image projection area on the basis of the sensing value sensed by the distance sensor 106. This will be described later.

영상 투사부(180)는 다양한 영상을 투사할 수 있다.The image projecting unit 180 can project various images.

영상 투사부(180)는 광원부(181), 렌즈부(182), 반사부(183)를 포함할 수 있다.The image projecting unit 180 may include a light source unit 181, a lens unit 182, and a reflector 183.

광원부(181)는 빔을 발광한다.The light source unit 181 emits a beam.

렌즈부(182)는 광원부(181)에서 발생된 빔의 소정 파장만을 선택적으로 투과시킨다. 렌즈부(182)는 설계에 따라 복수의 렌즈를 포함할 수도 있다.The lens unit 182 selectively transmits only a predetermined wavelength of the beam generated from the light source unit 181. The lens portion 182 may include a plurality of lenses depending on the design.

반사부(183)는 렌즈부(182)에서 투과된 빔을 반사시킨다. 또한, 반사부(183)는 상하좌우 방향으로 회전 가능하여, 투과된 빔을 다양한 방향으로 반사시킬 수도 있다.The reflecting portion 183 reflects the beam transmitted from the lens portion 182. [ Further, the reflecting portion 183 can be rotated in the up, down, left, and right directions to reflect the transmitted beam in various directions.

영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하여 투사될 지점에 영상을 투사할 수 있다.The image projection unit 180 can project an image at a point where the beam emitted from the light source unit 181 passes through the lens unit 182 and is projected.

또한, 영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하고, 반사부(183)에서 반사되어, 투사될 지점에 영상을 투사할 수도 있다.In addition, the image projecting unit 180 may be configured such that the beam emitted from the light source unit 181 passes through the lens unit 182, is reflected by the reflector 183, and is projected at a point to be projected.

이를 도 2 내지 도 3을 참고하여 설명한다.This will be described with reference to FIG. 2 to FIG.

도 2는 본 발명의 일 실시 예에 따른 영상 투사의 개념도이다.2 is a conceptual diagram of an image projection according to an embodiment of the present invention.

도 2를 참조하면, 영상 투사부(180)는 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하고, 반사부(183)에서 반사되어 투사될 지점에 영상을 투사되도록 할 수 있다. 이에 따라 영상이 투사되는 일면에는 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(400)이 표시될 수 있다.2, the image projecting unit 180 may project an image at a point where the beam generated from the light source unit 181 passes through the lens unit 182 and is reflected by the reflector 183 to be projected . Accordingly, the image screen 400 on which the image projected from the image projecting unit 180 is displayed may be displayed on one side of the image.

도 3은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.3 is a conceptual diagram of an image projection according to another embodiment of the present invention.

도 3을 참조하면, 영상 투사부(180)는 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하여 투사될 지점에 영상을 투사되도록 할 수 있다. 이에 따라 영상이 투사되는 일면에는 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(400)이 표시될 수 있다.Referring to FIG. 3, the image projection unit 180 may project an image at a point where the beam generated from the light source unit 181 passes through the lens unit 182 and is projected. Accordingly, the image screen 400 on which the image projected from the image projecting unit 180 is displayed may be displayed on one side of the image.

이와 같이 영상 투사부(180)는 반사부(183)를 이용하여, 다양한 투사 방향으로 영상을 투사할 수 있다.As described above, the image projection unit 180 can project images in various projection directions using the reflection unit 183.

영상 투사부(180)의 영상 투사 방법에 대한 내용은 공지 기술이므로 자세한 내용은 생략한다.Details of the image projection method of the image projection unit 180 are well known in the art and will not be described in detail.

영상 투사부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부 장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.The image projection unit 180 converts the image signal, the data signal, the OSD signal processed by the control unit 170 or the image signal and the data signal received from the external device interface unit 135 into R, G, and B signals, respectively A driving signal can be generated.

한편, 도 1에 도시된 영상 투사 장치(100)는 본 발명의 일 실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 영상 투사 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.Meanwhile, the image projection apparatus 100 shown in FIG. 1 is only an embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted depending on the specifications of the image projection apparatus 100 actually implemented.

즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.That is, two or more constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary. In addition, the functions performed in each block are intended to illustrate the embodiments of the present invention, and the specific operations and apparatuses do not limit the scope of the present invention.

본 발명의 또 다른 실시예에 따르면, 영상 투사 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부 장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.1, the image projecting apparatus 100 may include a tuner 131 and a demodulating unit 132 and may include a network interface unit 133 or an external device interface unit 133. [ It is also possible to receive and reproduce an image through the display unit 135.

예를 들어, 영상 투사 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.For example, the image projection apparatus 100 may be divided into an image processing apparatus such as a set-top box for receiving broadcast signals or contents according to various network services, and a content reproduction apparatus for reproducing contents inputted from the image processing apparatus .

이 경우, 이하에서 설명할 본 발명의 실시예에 따른 이미지 표시 방법은 도 1을 참조하여 설명한 바와 같은 영상 투사 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 영상 투사부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.In this case, the image display method according to the embodiment of the present invention to be described below may be applied not only to the image projection apparatus 100 as described with reference to FIG. 1, but also to the image processing apparatus such as the separated set- 180, and an audio output unit 185. The content playback apparatus may be implemented by any one of the above-described content playback apparatuses.

다음으로, 도 4 내지 도 5를 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.Next, a remote control apparatus according to an embodiment of the present invention will be described with reference to Figs. 4 to 5. Fig.

도 4는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 5는 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.FIG. 4 is a block diagram of a remote control apparatus according to an embodiment of the present invention, and FIG. 5 shows an example of an actual configuration of a remote control apparatus according to an embodiment of the present invention.

먼저, 도 4를 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280) 및 음성 획득부(290)를 포함할 수 있다. 4, the remote control apparatus 200 includes a fingerprint recognition unit 210, a wireless communication unit 220, a user input unit 230, a sensor unit 240, an output unit 250, a power supply unit 260 A storage unit 270, a control unit 280, and a voice acquisition unit 290.

무선통신부(220)는 전술하여 설명한 본 발명의 실시 예들에 따른 영상표시기기 중 임의의 어느 하나와 신호를 송수신한다.The wireless communication unit 220 transmits / receives signals to / from any one of the video display devices according to the embodiments of the present invention described above.

원격제어장치(200)는 RF 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.The remote control apparatus 200 includes an RF module 221 capable of transmitting and receiving signals to and from the image projection apparatus 100 according to an RF communication standard and transmits and receives signals to and from the image projection apparatus 100 according to an IR communication standard An IR module 223 may be provided. In addition, the remote control device 200 may include a Bluetooth module 225 capable of transmitting and receiving signals with the image projection apparatus 100 according to the Bluetooth communication standard. The remote control apparatus 200 is also provided with an NFC module 227 capable of transmitting and receiving signals to and from the image projection apparatus 100 according to a NFC (Near Field Communication) communication standard. And a WLAN module 229 capable of transmitting and receiving signals to and from the image projection apparatus 100.

또한, 원격제어장치(200)는 영상 투사 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선통신부(220)를 통하여 전송한다. The remote control device 200 transmits a signal containing information on the motion of the remote control device 200 to the image projection apparatus 100 through the wireless communication unit 220.

한편, 원격제어장치(200)는 영상 투사 장치(100)가 전송한 신호를 무선통신부(220)를 통하여 수신할 수 있으며, 필요에 따라 무선통신부(220)를 통하여 영상 투사 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다. The remote control device 200 can receive a signal transmitted from the image projection apparatus 100 through the wireless communication unit 220 and transmit the image signal to the image projection apparatus 100 through the wireless communication unit 220, On / off, channel change, volume change, and the like.

사용자 입력부(230)는 키패드, 버튼, 터치 패드, 휠 키 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 5를 참조하여 설명한다.The user input unit 230 may include a keypad, a button, a touch pad, a wheel key, or a touch screen. The user can input a command related to the image projection apparatus 100 to the remote control apparatus 200 by operating the user input unit 230. [ When the user input unit 230 includes a hard key button, the user can input a command related to the image projection apparatus 100 to the remote control device 200 through the push operation of the hard key button. This will be described with reference to FIG.

도 5를 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), LIVE 버튼(233), 외부입력 버튼(234), 음량 버튼(235), 음성 인식 버튼(236), 채널 버튼(237), 휠 키(238) 및 취소 버튼(239)을 포함할 수 있다.Referring to FIG. 5, the remote control apparatus 200 may include a plurality of buttons. The plurality of buttons include a fingerprint recognition button 212, a power button 231, a home button 232, a LIVE button 233, an external input button 234, a volume button 235, a voice recognition button 236, A button 237, a wheel key 238, and a cancel button 239. [

지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다. The fingerprint recognition button 212 may be a button for recognizing the fingerprint of the user. In one embodiment, the fingerprint recognition button 212 is capable of a push operation and may receive a push operation and a fingerprint recognition operation.

전원 버튼(231)은 영상 투사 장치(100), 외부기기의 전원을 온/오프 하기 위한 버튼일 수 있다.The power button 231 may be a button for turning on and off the power of the image projection apparatus 100 and an external device.

홈 버튼(232)은 영상 투사 장치(100)의 기본 메뉴를 표시하기 위한 버튼일 수 있다.The home button 232 may be a button for displaying a basic menu of the image projection apparatus 100.

LIVE 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.The LIVE button 233 may be a button for displaying a real time broadcast program.

외부입력 버튼(234)는 외부기기로부터 수신된 영상을 표시하기 위한 버튼일 수 있다.The external input button 234 may be a button for displaying an image received from an external device.

음량 버튼(235)은 영상 투사 장치(100)의 오디오 출력을 조절하기 위한 버튼일 수 있다.The volume button 235 may be a button for adjusting the audio output of the image projection apparatus 100.

음성 인식 버튼(236)은 사용자의 음성을 인식하기 위한 버튼일 수 있다.The voice recognition button 236 may be a button for recognizing the voice of the user.

채널 버튼(237)은 특정 방송 채널, 특정 방송 서비스의 방송 신호를 수신하기 위한 버튼일 수 있다.The channel button 237 may be a button for receiving a broadcast signal of a specific broadcast channel or a specific broadcast service.

휠 키(238)는 일 방향 이상에 대한 사용자 입력을 수신할 수 있는 휠(Wheel)형태의 키일 수 있다. 예를 들면 휠 키(238)은 상, 하 방향 또는 상, 하, 좌, 우 방향에 대한 사용자 입력을 수신할 수 있는 휠(Wheel) 형태의 키일 수 있다. 또한, 휠 키(238)은 방향키를 더 포함할 수 있다. 여기서 휠 키(238)의 상, 하 방향에 대한 사용자 입력은 휠 키(238)를 회전시키는 사용자 입력일 있고, 좌, 우 방향에 대한 사용자 입력은 휠 키(238)를 틸트시키는 사용자 입력일 수 있다. 또한, 휠 키(238)는 푸쉬 입력을 수신할 수도 있다.The wheel key 238 may be a wheel-shaped key that can receive user input for more than one direction. For example, the wheel key 238 may be a wheel-shaped key that can receive user inputs in up, down, or up, down, left, and right directions. Further, the wheel key 238 may further include a direction key. Here, the user input for the up and down directions of the wheel key 238 is a user input for rotating the wheel key 238, and the user input for the left and right directions can be a user input for tilting the wheel key 238. [ Wheel key 238 may also receive a push input.

취소 버튼(239)은 선택된 메뉴를 취소하거나 이전 메뉴로 돌아가기 위한 버튼일 수 있다. The cancel button 239 may be a button for canceling the selected menu or returning to the previous menu.

다시 도 4를 설명한다. 4 will be described again.

사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. When the user input unit 230 includes a touch screen, the user may touch a soft key of the touch screen to input a command related to the image projection apparatus 100 to the remote control apparatus 200. [

또한, 사용자 입력부(230)는 스크롤 키, 조그 키, 터치 패드 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.In addition, the user input unit 230 may include various types of input means such as a scroll key, a jog key, and a touch pad that can be operated by the user, and the present invention is not limited to the scope of the present invention.

센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다. The sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243 and the gyro sensor 241 may sense information on the motion of the remote control device 200. [

예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 영상 투사 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.For example, the gyro sensor 241 may sense information about the operation of the remote control device 200 on the basis of the x, y, and z axes, and the acceleration sensor 243 may sense the movement speed of the remote control device 200 And the like can be sensed. The remote control device 200 may further include a distance measuring sensor to sense a distance from the display unit 180 of the image projection apparatus 100. [

출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 영상 투사 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 영상 투사 장치(100)의 제어 여부를 인지할 수 있다. The output unit 250 may output an image or voice signal corresponding to the operation of the user input unit 235 or corresponding to the signal transmitted from the image projection apparatus 100. [ The user can recognize whether the user input unit 235 is operated or whether the image projection apparatus 100 is controlled through the output unit 250.

예를 들어, 출력부(250)는 사용자 입력부(230)가 조작되거나 무선 통신부(220)를 통하여 영상 투사 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다. For example, the output unit 250 may include an LED module 251 that is turned on when the user input unit 230 is operated or a signal is transmitted / received to / from the image projection apparatus 100 through the wireless communication unit 220, An audio output module 255 for outputting sound, or a display module 257 for outputting an image.

또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.Also, the power supply unit 260 supplies power to the remote control device 200, and if the remote control device 200 is not moved for a predetermined time, the power supply is interrupted, thereby reducing power waste. The power supply unit 260 may resume power supply when a predetermined key provided in the remote control device 200 is operated.

저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 영상 투사 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 영상 투사 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.The storage unit 270 may store various types of programs, application data, and the like necessary for the control or operation of the remote control apparatus 200. [ If the remote control apparatus 200 wirelessly transmits and receives a signal through the image projection apparatus 100 and the RF module 221, the remote control apparatus 200 and the image projection apparatus 100 transmit signals through a predetermined frequency band Send and receive.

원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 영상 투사 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.The control unit 280 of the remote control device 200 stores information on a frequency band and the like capable of wirelessly transmitting and receiving a signal with the image projection apparatus 100 paired with the remote control device 200 in the storage unit 270 Can be referenced.

제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(230)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 영상 투사 장치(100)로 전송할 수 있다.The control unit 280 controls various matters related to the control of the remote control device 200. [ The control unit 280 transmits a signal corresponding to a predetermined key operation of the user input unit 230 or a signal corresponding to the motion of the remote control device 200 sensed by the sensor unit 240, (100).

또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.Also, the voice acquisition unit 290 of the remote control device 200 can acquire voice.

음성 획득부(290)는 적어도 하나 이상의 마이크(미도시)를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.The voice acquisition unit 290 may include at least one microphone (not shown) to acquire voice through the included microphone.

그리고 음성 획득부(290)는 획득된 음성을 제어부(280)에 전달할 수 있다.The voice acquisition unit 290 may transmit the acquired voice to the control unit 280. [

이하, 상술한 영상 투사 장치(100)에 대한 설명을 기초로 영상 투사 장치(100)의 동작 방법을 설명한다.Hereinafter, an operation method of the image projection apparatus 100 will be described based on the description of the image projection apparatus 100 described above.

도 6은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.6 is a flowchart illustrating an operation method of an image projection apparatus according to an exemplary embodiment of the present invention.

도 6을 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상이 투사되는 영상 투사 영역에 대응하는 센싱 영역까지의 거리를 센싱한다(S210).Referring to FIG. 6, the distance sensor 106 of the image projection apparatus 100 senses a distance to a sensing region corresponding to an image projection region where an image is projected (S210).

거리 센서(106)는 거리 센서(106)가 대응하는 방향인, 영상이 투사되는 영상 투사 영역에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다.The distance sensor 106 can sense the distance to the sensing area corresponding to the image projection area where the image is projected, which is the direction corresponding to the distance sensor 106. [

이에 대해 도 7을 참조하여 자세히 설명한다.This will be described in detail with reference to FIG.

도 7은 본 발명의 일 실시 예에 따른 센싱 영역까지의 거리 센싱을 나타내는 예시도이다.7 is a diagram illustrating distance sensing to a sensing region according to an embodiment of the present invention.

도 7을 참조하면, 영상 투사 장치(100)는 영상 투사 장치(100)와 근접한 일면에 대해 영상을 투사할 수 있다. 이에 따라 영상이 투사되는 영역을 영상 투사 영역(500)이라고 할 수 있다. 영상 투사 장치(100)의 거리 센서(106)는 영상이 투사되는 영상 투사 영역(500)에 대응하는 센싱 영역(700)까지의 거리를 센싱할 수 있다. 여기서 센싱 영역(700)은 영상 투사 영역(500)에 근접한 영역일 수 있고, 영상 투사 영역(500)에 밀착된 영역일 수도 있다. 여기서 영상 투사 장치(100)가 거리 센싱하는 상태는 영상 투사 영역(500)에 영상을 투사하는 상태일 수도 있고, 영상을 투사하지 않는 상태일 수도 있다. 한편, 센싱 영역(700)은 구분된, 복수의 센싱 영역을 포함할 수 있다. 예를 들면 도 7에 도시된 바와 같이, 센싱 영역(700)은 센싱 상단 영역(710) 및 센싱 하단 영역(730)을 포함할 수 있다. Referring to FIG. 7, the image projection apparatus 100 may project an image on one surface close to the image projection apparatus 100. [0054] FIG. Accordingly, an area where an image is projected can be referred to as an image projection area 500. The distance sensor 106 of the image projection apparatus 100 can sense the distance to the sensing region 700 corresponding to the image projection region 500 in which the image is projected. Here, the sensing area 700 may be an area close to the image projection area 500 or an area close to the image projection area 500. Here, the state in which the image projection apparatus 100 senses the distance may be a state of projecting an image in the image projection region 500 or a state of not projecting an image. Meanwhile, the sensing area 700 may include a plurality of sensing areas. For example, as shown in FIG. 7, the sensing region 700 may include a sensing top region 710 and a sensing bottom region 730.

복수의 센싱 영역에 대해 도 8 내지 도 10을 참조하여 상세히 설명한다.A plurality of sensing regions will be described in detail with reference to FIGS. 8 to 10. FIG.

복수의 센싱 영역에 대한 일 실시 예를 도 8을 참조하여 설명한다.One embodiment of a plurality of sensing regions will be described with reference to Fig.

도 8은 본 발명의 일 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.8 is an exemplary diagram illustrating a plurality of sensing regions according to an embodiment of the present invention.

도 8을 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상을 투사하는 영상 투사 영역(500)에 대응하는 제1 센싱 영역(711) 및 제2 센싱 영역(731)에 대해 거리를 센싱할 수 있다. 여기서 제1 센싱 영역(711)은 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역일 수 있고, 제2 센싱 영역(731)은 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역일 수 있다. 이에 따라 제어부(170)는 거리 센서(106)의 거리 센싱값을 기초로, 특정 오브젝트가 제1 센싱 영역(711) 또는 제2 센싱 영역(731)에 위치하는지 인식할 수 있다.8, the distance sensor 106 of the image projection apparatus 100 detects a distance between the first sensing area 711 and the second sensing area 731 corresponding to the image projection area 500, Can be sensed. The first sensing area 711 may be an area within the first distance d1 from the upper end to the lower end of the image projection area 500 and the second sensing area 731 may be an area between the lower end of the image projection area 500 And the second distance d2 in the upper direction. The controller 170 can recognize whether the specific object is located in the first sensing area 711 or the second sensing area 731 based on the distance sensing value of the distance sensor 106. [

복수의 센싱 영역에 대한 다른 실시 예를 도 9를 참조하여 설명한다.Another embodiment of a plurality of sensing areas will be described with reference to Fig.

도 9는 본 발명의 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.9 is an exemplary diagram illustrating a plurality of sensing regions according to another embodiment of the present invention.

도 9를 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제3 센싱 영역(713) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제4 센싱 영역(733)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제5 센싱 영역(714) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제6 센싱 영역(734)에 대해 거리를 센싱할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a), 제2 거리 센서(106b) 각각의 거리 센싱값을 기초로, 특정 오브젝트가 제3 센싱 영역(713), 제4 센싱 영역(733), 제5 센싱 영역(714) 및 제6 센싱 영역(733) 중 하나 이상에 위치하는지 인식할 수 있다.Referring to FIG. 9, the image projection apparatus 100 may include a first distance sensor 106a and a second distance sensor 106b, which are a plurality of distance sensors 106. Each of the first distance sensor 106a and the second distance sensor 106b may sense the distance to the sensing area corresponding to the image projection area 500. [ The first distance sensor 106a includes a third sensing area 713 which is an area within the first distance d1 from the upper end to the lower end of the image projection area 500 in one area on the left side of the image projection area 500, The distance can be sensed with respect to the fourth sensing area 733 which is an area within the second distance d2 from the lower end of the image projection area 500 to the upper end. The second distance sensor 106b includes a fifth sensing area 714 which is an area within the first distance d1 from the upper end to the lower end of the image projection area 500 in one area on the right side of the image projection area 500, The distance to the sixth sensing area 734 which is an area within the second distance d2 from the lower end of the image projection area 500 to the upper end can be sensed. The controller 170 determines whether the specific object is the third sensing area 713, the fourth sensing area 733, the third sensing area 733, or the third sensing area 734 based on the distance sensing values of the first distance sensor 106a and the second distance sensor 106b, The fifth sensing area 714, and the sixth sensing area 733, as shown in FIG.

복수의 센싱 영역에 대한 또 다른 실시 예를 도 10을 참조하여 설명한다.Another embodiment of a plurality of sensing areas will be described with reference to Fig.

도 10은 본 발명의 또 다른 실시 예에 따른 복수의 센싱 영역을 나타내는 예시도이다.10 is an exemplary diagram illustrating a plurality of sensing regions according to another embodiment of the present invention.

도 10을 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제3 거리(d3) 이내인 영역인 제7 센싱 영역(715), 제7 센싱 영역(715)의 하단에서 영상 투사 영역(500)의 하단 방향으로 제4 거리(d4) 이내인 영역인 제8 센싱 영역(725) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제5 거리(d5) 이내인 제9 센싱 영역(735)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제3 거리(d3) 이내인 영역인 제10 센싱 영역(717), 제10 센싱 영역(717)의 하단에서 영상 투사 영역(500)의 하단 방향으로 제4 거리(d4) 이내인 영역인 제11 센싱 영역(727) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제5 거리(d5) 이내인 영역인 제12 센싱 영역(737)에 대해 거리를 센싱할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a), 제2 거리 센서(106b) 각각의 거리 센싱값을 기초로, 특정 오브젝트가 제7 센싱 영역(715), 제8 센싱 영역(725), 제9 센싱 영역(735), 제10 센싱 영역(717), 제11 센싱 영역(727) 및 제12 센싱 영역(737) 중 하나 이상에 위치하는지 인식할 수 있다.Referring to FIG. 10, the image projection apparatus 100 may include a first distance sensor 106a and a second distance sensor 106b, which are a plurality of distance sensors 106. Each of the first distance sensor 106a and the second distance sensor 106b may sense the distance to the sensing area corresponding to the image projection area 500. [ The first distance sensor 106a includes a seventh sensing area 715 which is an area within the third distance d3 from the top of the image projection area 500 to the bottom of the image projection area 500, An eighth sensing area 725 which is an area within the fourth distance d4 from the lower end of the seventh sensing area 715 to the lower end of the image projection area 500 and It is possible to sense the distance to the ninth sensing region 735 within the fifth distance d5. The second distance sensor 106b includes a tenth sensing area 717 which is an area within the third distance d3 from the top of the image projection area 500 to the bottom of the image projection area 500, The eleventh sensing region 727 which is an area within the fourth distance d4 from the lower end of the tenth sensing region 717 toward the lower end of the image projection region 500 and the lower end of the image projection region 500 It is possible to sense the distance to the twelfth sensing region 737 which is an area within the fifth distance d5. The control unit 170 determines whether the specific object is the seventh sensing area 715, the eighth sensing area 725, the eighth sensing area 720, The ninth sensing region 735, the tenth sensing region 717, the eleventh sensing region 727, and the twelfth sensing region 737. [

상술한 거리 센서 및 센싱 영역에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 거리 센서의 배치 및 거리 센서의 수가 변경될 수 있다. 또한 센싱 영역도 사용자 또는 설계자의 선택에 따라 다양한 거리 및 방향으로 설정될 수 있다. The description of the above-described distance sensor and sensing area is for illustrative purposes only, and is not limited thereto. Therefore, the arrangement of the distance sensors and the number of the distance sensors may be changed according to the selection of the user or the designer. Also, the sensing area can be set to various distances and directions depending on the user or designer's selection.

다시 도 6을 참조한다.Referring back to FIG.

도 6을 참조하면, 영상 투사 장치(100)의 제어부(170)는 센싱된 거리를 기초로, 하나 이상의 메뉴를 표시하기 위한 트리거 동작을 인식한다(S230).Referring to FIG. 6, the controller 170 of the image projection apparatus 100 recognizes a trigger operation for displaying one or more menus based on the sensed distance (S230).

제어부(170)는 하나 이상의 거리 센서(106)로부터, 센싱 영역(700)에 대해 센싱된 거리를 획득하고, 획득된 거리를 기초로 하나 이상의 메뉴를 표시하기 위한 트리거 동작을 인식할 수 있다.The control unit 170 may obtain the sensed distance from the one or more distance sensors 106 to the sensing area 700 and recognize the triggering action to display one or more menus based on the obtained distance.

일 실시 예로, 메뉴를 표시하기 위한 트리거 동작은 영상 투사 영역(500)에 대응하는 센싱 영역(700)에서 일 방향으로 스와이프하는 사용자 입력일 수 있다.In one embodiment, a triggering operation for displaying a menu may be a user input swiping in one direction in the sensing area 700 corresponding to the image projection area 500.

이에 대해 도 11 내지 도 12를 참조하여 설명한다.This will be described with reference to Figs. 11 to 12. Fig.

도 11은 본 발명의 일 실시 예에 따른 상하 방향의 트리거 동작에 대한 예시도이다.11 is a diagram illustrating an example of a vertical trigger operation according to an embodiment of the present invention.

도 11을 참조하면, 영상 투사 장치(100)의 거리 센서(106)는 영상을 투사하는 영상 투사 영역(500)에 대응하는 제1 센싱 영역(711) 및 제2 센싱 영역(731)에 대해 거리를 센싱할 수 있다. 여기서 제1 센싱 영역(711)은 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역일 수 있고, 제2 센싱 영역(731)은 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역일 수 있다. 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 사용자의 손이 제1 영역(711)에서 제2 영역(731)으로 이동하는 스와이프 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 스와이프 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다. 11, the distance sensor 106 of the image projection apparatus 100 detects a distance between the first sensing area 711 and the second sensing area 731 corresponding to the image projection area 500, Can be sensed. The first sensing area 711 may be an area within the first distance d1 from the upper end to the lower end of the image projection area 500 and the second sensing area 731 may be an area between the lower end of the image projection area 500 And the second distance d2 in the upper direction. The control unit 170 can recognize the swipe operation in which the user's hand moves from the first area 711 to the second area 731 based on the distance sensed by the distance sensor 106. [ The control unit 170 can recognize the recognized swipe operation as a trigger operation for displaying a menu.

한편, 영상 투사 장치(100)의 제어부(170)는 동일한 센싱 영역 내에서 상하 방향으로 스와이프하는 동작을 트리거 동작으로 인식할 수도 있다. On the other hand, the controller 170 of the image projection apparatus 100 may recognize the operation of sweeping up and down in the same sensing area as a trigger operation.

또한, 메뉴를 표시하기 위한 트리거 동작은 상측에서 하측으로 스와이프하는 동작일 수도 있고, 하측에서 상측으로 스와이프하는 동작일 수도 있다.The triggering operation for displaying the menu may be an operation of swiping from the upper side to the lower side or an operation of swiping from the lower side to the upper side.

도 12는 본 발명의 일 실시 예에 따른 좌우 방향의 트리거 동작에 대한 예시도이다.12 is a diagram illustrating an example of a trigger operation in the left and right direction according to an embodiment of the present invention.

도 12를 참조하면, 영상 투사 장치(100)는 복수의 거리 센서(106)인 제1 거리 센서(106a) 및 제2 거리 센서(106b)를 포함할 수 있다. 제1 거리 센서(106a) 및 제2 거리 센서(106b) 각각은 영상 투사 영역(500)에 대응하는 센싱 영역까지의 거리를 센싱할 수 있다. 제1 거리 센서(106a)는 영상 투사 영역(500)의 좌측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제3 센싱 영역(713) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제4 센싱 영역(733)에 대해 거리를 센싱할 수 있다. 제2 거리 센서(106b)는 영상 투사 영역(500)의 우측 일 영역에서, 영상 투사 영역(500)의 상단에서 하단 방향으로 제1 거리(d1) 이내인 영역인 제5 센싱 영역(714) 및 영상 투사 영역(500)의 하단에서 상단 방향으로 제2 거리(d2) 이내인 영역인 제6 센싱 영역(734)에 대해 거리를 센싱할 수 있다. 제어부(170)는 제1 거리 센서(106a) 및 제2 거리 센서(106b) 중 하나 이상이 센싱한 거리를 기초로, 사용자의 손이 제1 거리 센서(106a)에 대응하는 센싱 영역에서 제2 거리 센서(106b)에 대응하는 센싱 영역으로 이동하는 스와이프 동작을 인식할 수 있다. 예를 들면, 제어부(170)는 제1 거리 센서(106a) 및 제2 거리 센서(106b)가 센싱한 거리를 기초로, 사용자의 손이 제6 센싱 영역(733)에서 제8 센싱 영역(734)으로 이동하는 스와이프 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 스와이프 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다.Referring to FIG. 12, the image projection apparatus 100 may include a first distance sensor 106a and a second distance sensor 106b, which are a plurality of distance sensors 106. Each of the first distance sensor 106a and the second distance sensor 106b may sense the distance to the sensing area corresponding to the image projection area 500. [ The first distance sensor 106a includes a third sensing area 713 which is an area within the first distance d1 from the upper end to the lower end of the image projection area 500 in one area on the left side of the image projection area 500, The distance can be sensed with respect to the fourth sensing area 733 which is an area within the second distance d2 from the lower end of the image projection area 500 to the upper end. The second distance sensor 106b includes a fifth sensing area 714 which is an area within the first distance d1 from the upper end to the lower end of the image projection area 500 in one area on the right side of the image projection area 500, The distance to the sixth sensing area 734 which is an area within the second distance d2 from the lower end of the image projection area 500 to the upper end can be sensed. The control unit 170 determines whether or not the user's hand is in the sensing area corresponding to the first distance sensor 106a based on the distance sensed by at least one of the first distance sensor 106a and the second distance sensor 106b, It is possible to recognize the swipe operation to move to the sensing area corresponding to the distance sensor 106b. For example, based on the distance sensed by the first distance sensor 106a and the second distance sensor 106b, the control unit 170 determines whether the user's hand is moving from the sixth sensing area 733 to the eighth sensing area 734 ) Can be recognized. The control unit 170 can recognize the recognized swipe operation as a trigger operation for displaying a menu.

한편, 메뉴를 표시하기 위한 트리거 동작은 좌측에서 우측으로 스와이프하는 동작일 수도 있고, 우측에서 좌측으로 스와이프하는 동작일 수도 있다.On the other hand, the triggering operation for displaying the menu may be an operation of swiping from left to right or an operation of swiping from right to left.

한편, 영상 투사 장치(100)의 제어부(170)는 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수도 있다.Meanwhile, the control unit 170 of the image projection apparatus 100 may recognize the tab operation for moving the hand in the forward and backward directions with respect to the image projection area 500 as a trigger operation for displaying a menu.

예를 들면, 제어부(170)는 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작에 따라 거리 센서(106)의 센싱되는 거리값에 변동을 기초로, 영상 투사 영역(500)에 대해 전후 방향으로 손을 이동시키는 탭 동작을 인식할 수 있다. 그리고 제어부(170)는 인식된 탭 동작을 메뉴를 표시하기 위한 트리거 동작으로 인식할 수 있다.For example, the control unit 170 controls the image projection area 500 based on the variation in the sensed distance value of the distance sensor 106 in accordance with the tap operation for moving the hand in the forward and backward directions with respect to the image projection area 500. [ It is possible to recognize the tapping operation of moving the hand in the forward and backward directions with respect to the user. The control unit 170 can recognize the recognized tap operation as a trigger operation for displaying a menu.

상술한 트리거 동작에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라, 다양한 동작이 메뉴를 표시하기 위한 트리거 동작으로 인식될 수 있다.The description of the above-described trigger operation is for illustrative purposes only, and is not limited thereto. Accordingly, various operations can be recognized as a trigger operation for displaying the menu, depending on the selection of the user or the designer.

다시 도 6을 참조한다.Referring back to FIG.

도 6을 참조하면, 영상 투사 장치(100)의 제어부(170)는 하나 이상의 동작에 대한 메뉴를 영상 투사 영역(500)에 표시한다(S250). 제어부(170)는 표시된 메뉴에 대응하는 사용자 입력에 대한 거리를 센싱하고(S270), 센싱된 거리에 대응하는 동작을 수행한다(S290).Referring to FIG. 6, the controller 170 of the image projection apparatus 100 displays a menu for one or more operations on the image projection area 500 (S250). The controller 170 senses the distance to the user input corresponding to the displayed menu (S270), and performs an operation corresponding to the sensed distance (S290).

제어부(170)는 영상 투사부(180)가 영상 투사 영역(500)에 영상을 투사하도록 제어할 수 있다. 그리고 제어부(170)는 인식된 트리거 동작을 기초로, 영상 투사 장치(100)의 하나 이상의 동작과 관련된 메뉴를 영상 투사 영역(500)에 표시하도록 영상 투사부(180)를 제어할 수 있다. 이에 따라, 영상 투사부(180)는 영상 투사 영역(500)에 투사되는 영상에 하나 이상의 동작과 관련된 메뉴를 표시할 수 있다. 거리 센서(106)는 영상 투사 영역(500)에 표시되는 하나 이상의 메뉴에 대응하는 사용자 입력에 따른, 오브젝트까지의 거리를 센싱할 수 있다. 여기서 오브젝트는 사용자의 손일 수 있다. 그리고 제어부(170)는 표시된 메뉴 및 센싱된 거리에 대응하는 동작을 수행할 수 있다. 예를 들면, 제어부(170)는 센싱된 거리가 표시된 하나의 메뉴를 선택하기 위한 사용자 입력에 대응하면, 선택된 메뉴에 대응하는 동작을 수행할 수 있다.The control unit 170 may control the image projection unit 180 to project the image to the image projection area 500. [ The control unit 170 may control the image projection unit 180 to display a menu related to one or more operations of the image projection apparatus 100 on the image projection area 500 based on the recognized trigger operation. Accordingly, the image projecting unit 180 can display a menu related to one or more operations on the image projected on the image projecting area 500. The distance sensor 106 may sense a distance to an object according to a user input corresponding to one or more menus displayed in the image projection area 500. Here, the object may be the user's hand. And the controller 170 may perform an operation corresponding to the displayed menu and the sensed distance. For example, the controller 170 may perform an operation corresponding to the selected menu if the sensed distance corresponds to a user input for selecting one menu displayed.

이에 대해 도 13 내지 도 17을 참조하여 설명한다.This will be described with reference to FIG. 13 to FIG.

먼저, 하나의 거리 센서(106)가 구비된 경우에 대해 도 13 내지 도 15를 참조하여 설명한다.First, the case where one distance sensor 106 is provided will be described with reference to Figs. 13 to 15. Fig.

도 13은 본 발명의 일 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.13 is an exemplary diagram illustrating an operation selection menu display according to an embodiment of the present invention.

도 14는 본 발명의 일 실시 예에 따른 채널 메뉴 표시에 대한 예시도이다.14 is a view illustrating an example of a channel menu display according to an embodiment of the present invention.

도 15는 본 발명의 일 실시 예에 따른 볼륨 메뉴 표시에 대한 예시도이다.15 is an exemplary view of a volume menu display according to an embodiment of the present invention.

도 13을 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 영상 투사 영역(500)의 일 영역에 채널 메뉴(561) 및 볼륨 메뉴(571)를 각각 표시할 수 있다. 여기서 채널 메뉴(561)는 채널 변경 메뉴를 표시하기 위한 메뉴일 수 있고, 볼륨 메뉴(571)는 볼륨 변경 메뉴를 표시하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 메뉴(561)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 볼륨 메뉴(571)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 채널 메뉴(561)를 선택한 것으로 인식할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 메뉴(571)를 선택한 것으로 인식할 수 있다. Referring to FIG. 13, the controller 170 may display a channel menu 561 and a volume menu 571 in one area of the image projection area 500, respectively, in response to the recognized trigger operation. Here, the channel menu 561 may be a menu for displaying a channel change menu, and the volume menu 571 may be a menu for displaying a volume change menu. The control unit 170 may display the channel menu 561 at a position corresponding to the first sensing area 711 in the image projection area 500 and may display the volume menu 571 in the image sensing area at the second sensing area 711. [ Can be displayed at a position corresponding to the position 731 shown in Fig. Accordingly, when the controller 170 recognizes the user input to the first sensing area 711 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the channel menu 561. If the controller 170 recognizes the user input to the second sensing area 731 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the volume menu 571. [

한편, 제어부(170)는 사용자가 채널 메뉴(561)을 선택한 경우에 채널 변경 메뉴를 영상 투사 영역(500)에 표시할 수 있다. 도 14를 참조하면, 제어부(170)는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562) 및 채널 다운 메뉴(572)를 각각 표시할 수 있다. 여기서 채널 업 메뉴(562) 및 채널 다운 메뉴(572)는 영상 투사 영역(500)에 표시되는 채널을 변경하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다.On the other hand, when the user selects the channel menu 561, the control unit 170 can display the channel change menu in the image projection area 500. Referring to FIG. 14, the controller 170 may display a channel up menu 562 and a channel down menu 572 in one area of the image projection area 500, respectively. Here, the channel up menu 562 and the channel down menu 572 may be menus for changing the channel displayed in the image projection area 500. The controller 170 may display the channel up menu 562 at a position corresponding to the first sensing area 711 in the image projection area 500 and may display the channel down menu 563 at a position corresponding to the second And can be displayed at a position corresponding to the sensing area 731. [ Accordingly, when the controller 170 recognizes the user input to the first sensing area 711 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the channel up menu 562 . Thus, the control unit 170 can change the channel displayed in the image projection area 500 to the next channel. If the controller 170 recognizes the user input to the second sensing area 731 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the channel down menu 572. Thus, the control unit 170 can change the channel displayed in the image projection area 500 to the previous channel.

한편, 제어부(170)는 사용자가 볼륨 메뉴(571)을 선택한 경우에 볼륨 변경 메뉴를 영상 투사 영역(500)에 표시할 수 있다. 도 15를 참조하면, 제어부(170)는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(563) 및 볼륨 다운 메뉴(573)를 각각 표시할 수 있다. 여기서 볼륨 업 메뉴(563)는 오디오 출력부(185)에서 출력되는 오디오의 볼륨을 높이기 위한 메뉴일 수 있고, 볼륨 다운 메뉴(573)는 오디오 출력부(185)에서 출력되는 오디오의 볼륨을 낮추기 위한 메뉴일 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(563)를 영상 투사 영역(500)에서 제1 센싱 영역(711)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제2 센싱 영역(731)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제1 센싱 영역(711)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제2 센싱 영역(731)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다. On the other hand, when the user selects the volume menu 571, the control unit 170 may display the volume change menu in the image projection area 500. Referring to FIG. 15, the controller 170 may display a volume up menu 563 and a volume down menu 573 in one area of the image projection area 500, respectively. The volume up menu 563 may be a menu for increasing the volume of audio output from the audio output unit 185 and the volume down menu 573 may be a menu for increasing the volume of audio output from the audio output unit 185. [ Menu. The control unit 170 may display the volume up menu 563 at a position corresponding to the first sensing area 711 in the image projection area 500 and may display the volume down menu 573 at the position corresponding to the second And can be displayed at a position corresponding to the sensing area 731. [ Accordingly, when the controller 170 recognizes the user input to the first sensing area 711 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the volume up menu 563 . Thus, the control unit 170 can increase the audio volume output from the audio output unit 185. FIG. If the controller 170 recognizes the user input to the second sensing area 731 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the volume down menu 573. Therefore, the control unit 170 can lower the audio volume output from the audio output unit 185. [

다음으로, 복수의 거리 센서(106a, 106b)가 구비된 경우에 대해 도 16을 참조하여 설명한다.Next, a case in which a plurality of distance sensors 106a and 106b are provided will be described with reference to Fig.

도 16은 본 발명의 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.16 is an exemplary view illustrating an operation selection menu display according to another embodiment of the present invention.

도 16을 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 제1 거리영상 센서(106a)에 대응하는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562) 및 채널 다운 메뉴(563)을 표시할 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제3 센싱 영역(713)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 영상 투사 영역에서 제4 센싱 영역(733)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제3 센싱 영역(713)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제4 센싱 영역(733)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다. 제어부(180)는 인식된 트리거 동작에 대응하여, 제2 거리영상 센서(106b)에 대응하는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(572) 및 볼륨 다운 메뉴(573)을 표시할 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(572)를 영상 투사 영역(500)에서 제5 센싱 영역(714)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제6 센싱 영역(734)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제5 센싱 영역(714)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 거리를 기초로, 제6 센싱 영역(734)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다.16, in response to the recognized trigger operation, the controller 170 displays a channel up menu 562 and a channel down menu 562 in one area of the image projection area 500 corresponding to the first distance image sensor 106a, (563) can be displayed. The control unit 170 may display the channel up menu 562 at a position corresponding to the third sensing area 713 in the image projection area 500 and may display the channel down menu 563 at a position corresponding to the fourth Can be displayed at a position corresponding to the sensing area 733. Accordingly, when the controller 170 recognizes the user input to the third sensing area 713 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the channel up menu 562 . Thus, the control unit 170 can change the channel displayed in the image projection area 500 to the next channel. When the controller 170 recognizes the user input to the fourth sensing area 733 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the channel down menu 563. Thus, the control unit 170 can change the channel displayed in the image projection area 500 to the previous channel. The control unit 180 displays the volume up menu 572 and the volume down menu 573 in one area of the image projection area 500 corresponding to the second distance image sensor 106b . The control unit 170 may display the volume up menu 572 at a position corresponding to the fifth sensing area 714 in the image projection area 500 and may display the volume down menu 573 at the position corresponding to the sixth Can be displayed at a position corresponding to the sensing area 734. Accordingly, when the controller 170 recognizes the user input to the fifth sensing area 714 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the volume up menu 572 . Thus, the control unit 170 can increase the audio volume output from the audio output unit 185. FIG. When the controller 170 recognizes the user input to the sixth sensing area 734 based on the distance sensed by the distance sensor 106, the controller 170 can recognize that the user has selected the volume down menu 573. Therefore, the control unit 170 can lower the audio volume output from the audio output unit 185. [

다음으로, 복수의 거리 센서(106a, 106b)가 구비된 경우에 대한 다른 실시예를 도 17을 참조하여 설명한다. Next, another embodiment in which a plurality of distance sensors 106a and 106b are provided will be described with reference to Fig.

도 17은 본 발명의 또 다른 실시 예에 따른 동작 선택 메뉴 표시에 대한 예시도이다.17 is an exemplary diagram illustrating an operation selection menu display according to another embodiment of the present invention.

도 17을 참조하면, 제어부(170)는 인식된 트리거 동작에 대응하여, 제1 거리영상 센서(106a)에 대응하는 영상 투사 영역(500)의 일 영역에 채널 업 메뉴(562), 채널 리스트 메뉴(564) 및 채널 다운 메뉴(563)을 표시할 수 있다. 여기서 채널 리스트 메뉴(564)는 하나 이상의 채널에 대한 리스트를 표시하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 채널 업 메뉴(562)를 영상 투사 영역(500)에서 제7 센싱 영역(715)에 대응하는 위치에 표시할 수 있고, 채널 리스트 메뉴(564)를 제8 센싱 영역(725)에 대응하는 위치에 표시할 수 있고, 채널 다운 메뉴(563)를 제9 센싱 영역(735)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제7 센싱 영역(715)에 대한 사용자 입력을 인식하면, 사용자가 채널 업 메뉴(562)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 다음 채널로 변경할 수 있다. 그리고 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제8 센싱 영역(725)에 대한 사용자 입력을 인식하면, 사용자가 채널 리스트 메뉴(564)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역(500)에 채널 리스트를 표시할 수 있다. 그리고 제어부(170)는 제1 거리 센서(106a)가 센싱한 거리를 기초로, 제9 센싱 영역(735)에 대한 사용자 입력을 인식하면, 사용자가 채널 다운 메뉴(563)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 영상 투사 영역(500)에 표시되는 채널을 이전 채널로 변경할 수 있다. 17, in response to the recognized trigger operation, the controller 170 displays a channel up menu 562, a channel list menu 562, and a channel list menu 544 in one area of the image projection area 500 corresponding to the first distance image sensor 106a. A channel down menu 564 and a channel down menu 563. Here, the channel list menu 564 may be a menu for displaying a list of one or more channels. The control unit 170 may display the channel up menu 562 at a position corresponding to the seventh sensing area 715 in the image projection area 500 and may display the channel list menu 564 at the eighth sensing area 725 And the channel down menu 563 can be displayed at a position corresponding to the ninth sensing area 735. [ Accordingly, when the controller 170 recognizes the user input to the seventh sensing area 715 based on the distance sensed by the first distance sensor 106a, the controller 170 recognizes that the user has selected the channel up menu 562 . Thus, the control unit 170 can change the channel displayed in the image projection area 500 to the next channel. When the controller 170 recognizes the user input to the eighth sensing area 725 based on the distance sensed by the first distance sensor 106a, the controller 170 recognizes that the user has selected the channel list menu 564 have. Thus, the controller 170 can display the channel list in the image projection area 500 through the image projection unit 180. When the controller 170 recognizes the user input to the ninth sensing area 735 based on the distance sensed by the first distance sensor 106a, the controller 170 recognizes that the user has selected the channel down menu 563 have. Thus, the control unit 170 can change the channel displayed in the image projection area 500 to the previous channel.

한편, 제어부(180)는 인식된 트리거 동작에 대응하여, 제2 거리영상 센서(106b)에 대응하는 영상 투사 영역(500)의 일 영역에 볼륨 업 메뉴(572), 음소거 메뉴(574) 및 볼륨 다운 메뉴(573)을 표시할 수 있다. 여기서 음소거 메뉴(574)는 오디오 출력부(185)의 오디오 출력을 정지하기 위한 메뉴일 수 있다. 그리고 제어부(170)는 볼륨 업 메뉴(572)를 영상 투사 영역(500)에서 제10 센싱 영역(717)에 대응하는 위치에 표시할 수 있고, 음소거 메뉴(574)를 영상 투사 영역(500)에서 제11 센싱 영역(727)에 대응하는 위치에 표시할 수 있고, 볼륨 다운 메뉴(573)를 영상 투사 영역에서 제12 센싱 영역(737)에 대응하는 위치에 표시할 수 있다. 이에 따라 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제10 센싱 영역(717)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 업 메뉴(572)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 높일 수 있다. 그리고 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제11 센싱 영역(727)에 대한 사용자 입력을 인식하면, 사용자가 음소거 메뉴(574)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력을 정지할 수 있다. 그리고 제어부(170)는 제2 거리 센서(106b)가 센싱한 거리를 기초로, 제12 센싱 영역(737)에 대한 사용자 입력을 인식하면, 사용자가 볼륨 다운 메뉴(573)를 선택한 것으로 인식할 수 있다. 그래서 제어부(170)는 오디오 출력부(185)가 출력하는 오디오 볼륨을 낮출 수 있다.On the other hand, in response to the recognized trigger operation, the control unit 180 displays a volume up menu 572, a mute menu 574, and a volume control menu 572 in one area of the image projection area 500 corresponding to the second distance image sensor 106b. Down menu 573 can be displayed. Here, the mute menu 574 may be a menu for stopping the audio output of the audio output unit 185. The control unit 170 may display the volume up menu 572 at a position corresponding to the tenth sensing area 717 in the image projection area 500 and may display the mute menu 574 in the image projection area 500 The volume down menu 573 can be displayed at a position corresponding to the twelfth sensing area 737 in the image projection area. Accordingly, when the controller 170 recognizes the user input to the tenth sensing area 717 based on the distance sensed by the second distance sensor 106b, the controller 170 recognizes that the user has selected the volume up menu 572 . Thus, the control unit 170 can increase the audio volume output from the audio output unit 185. FIG. If the controller 170 recognizes the user input to the eleventh sensing area 727 based on the distance sensed by the second distance sensor 106b, the controller 170 may recognize that the user has selected the mute menu 574 . Therefore, the control unit 170 can stop the audio output. When the controller 170 recognizes the user input to the twelfth sensing area 737 based on the distance sensed by the second distance sensor 106b, the controller 170 recognizes that the user has selected the volume down menu 573 have. Therefore, the control unit 170 can lower the audio volume output from the audio output unit 185. [

한편, 상술한 센싱 거리에 대응하는 동작 수행에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 다양한 메뉴가 표시될 수 있으며, 다양한 메뉴에 대응하는 다양한 동작이 영상 투사 장치(100)에서 수행될 수 있다.
In the meantime, the description of the performance of the operation corresponding to the sensing distance described above is for illustrative purposes only and is not limited thereto. Accordingly, various menus can be displayed according to the selection of the user or the designer, and various operations corresponding to various menus can be performed in the image projection apparatus 100.

본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to an embodiment of the present invention, the above-described method can be implemented as a code readable by a processor on a medium on which a program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 영상 투사 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described image projection apparatus is not limited to the configuration and method of the above-described embodiments, but the embodiments may be modified such that all or some of the embodiments are selectively combined .

Claims (10)

영상 투사 장치의 동작 방법에 있어서,
하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 단계;
상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 단계;
상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 단계를 포함하는
영상 투사 장치의 동작 방법.
A method of operating an image projection apparatus,
Projecting an image including at least one menu onto an image projection area;
Sensing a first distance to a user input corresponding to the menu;
And performing an action corresponding to the menu based on the sensed first distance
A method of operating an image projection apparatus.
제1항에 있어서,
상기 하나 이상의 메뉴를 포함하는 영상을 투사하는 단계는
상기 영상이 투사될 영상 투사 영역에 대응하는 센싱 영역에 대한 제2 거리를 센싱하는 단계와,
상기 센싱된 제2 거리의 거리값이 변동되면, 상기 메뉴를 포함하는 영상을 투사하는 단계를 포함하는
영상 투사 장치의 동작 방법.
The method according to claim 1,
Wherein projecting the image comprising the one or more menus comprises:
Sensing a second distance to a sensing area corresponding to an image projection area to which the image is to be projected;
And projecting an image including the menu if the distance value of the sensed second distance is changed
A method of operating an image projection apparatus.
제1항에 있어서,
상기 메뉴에 대응하는 동작을 수행하는 단계는
상기 영상에 포함된 하나 이상의 메뉴 중 상기 센싱된 제1 거리의 거리값이 변동된 메뉴에 대응하는 동작을 수행하는
영상 투사 장치의 동작 방법.
The method according to claim 1,
The step of performing an operation corresponding to the menu
Performing an operation corresponding to a menu in which the distance value of the sensed first distance is changed among at least one menu included in the image
A method of operating an image projection apparatus.
제3항에 있어서,
상기 제1 거리의 거리값이 변동된 메뉴가 세부 메뉴를 표시하기 위한 메뉴이면, 상기 제1 거리의 거리값이 변동된 메뉴에 대응하는 하나 이상의 세부 메뉴를 포함하는 영상을 상기 영상 투사 영역에 투사하는 단계;
상기 세부 메뉴에 대응하는 사용자 입력에 대한 제3 거리를 센싱하는 단계; 및
상기 센싱된 제3 거리를 기초로, 상기 세부 메뉴에 대응하는 동작을 수행하는 단계를 더 포함하는
영상 투사 장치의 동작 방법.
The method of claim 3,
If the menu in which the distance value of the first distance is varied is a menu for displaying a submenu, an image including at least one submenu corresponding to the menu in which the distance value of the first distance varies is projected onto the image projection area ;
Sensing a third distance to a user input corresponding to the submenu; And
And performing an operation corresponding to the submenu based on the sensed third distance
A method of operating an image projection apparatus.
제4항에 있어서,
상기 세부 메뉴에 대응하는 동작을 수행하는 단계는
상기 영상에 포함된 하나 이상의 세부 메뉴 중 상기 센싱된 제3 거리의 거리값이 변동된 세부 메뉴에 대응하는 동작을 수행하는
영상 투사 장치의 동작 방법.
5. The method of claim 4,
The step of performing an operation corresponding to the submenu
Performing an operation corresponding to a submenu in which a distance value of the sensed third distance among the one or more submenus included in the image is varied
A method of operating an image projection apparatus.
영상 투사 장치에 있어서,
하나 이상의 메뉴를 포함하는 영상을 영상 투사 영역에 투사하는 영상 투사부;
상기 메뉴에 대응하는 사용자 입력에 대한 제1 거리를 센싱하는 거리 센서; 및
상기 센싱된 제1 거리를 기초로, 상기 메뉴에 대응하는 동작을 수행하는 제어부를 포함하는
영상 투사 장치.
In the image projection apparatus,
An image projecting unit for projecting an image including at least one menu onto an image projection area;
A distance sensor for sensing a first distance to a user input corresponding to the menu; And
And a controller for performing an operation corresponding to the menu based on the sensed first distance
An image projection device.
제6항에 있어서,
상기 거리 센서는
상기 영상이 투사될 영상 투사 영역에 대응하는 센싱 영역에 대한 제2 거리를 센싱하고,
상기 제어부는
상기 센싱된 제2 거리의 거리값이 변동되면, 상기 메뉴를 포함하는 영상을 상기 영상 투사부가 투사하도록 제어하는
영상 투사 장치.
The method according to claim 6,
The distance sensor
Sensing a second distance to a sensing area corresponding to an image projection area to which the image is to be projected,
The control unit
And controlling the image projection unit to project an image including the menu if the distance value of the sensed second distance changes
An image projection device.
제6항에 있어서,
상기 제어부는
상기 영상에 포함된 하나 이상의 메뉴 중 상기 센싱된 제1 거리의 거리값이 변동된 메뉴에 대응하는 동작을 수행하는
영상 투사 장치.
The method according to claim 6,
The control unit
Performing an operation corresponding to a menu in which the distance value of the sensed first distance is changed among at least one menu included in the image
An image projection device.
제8항에 있어서,
상기 제어부는
상기 제1 거리의 거리값이 변동된 메뉴가 세부 메뉴를 표시하기 위한 메뉴이면, 상기 제1 거리의 거리값이 변동된 메뉴에 대응하는 하나 이상의 세부 메뉴를 포함하는 영상을 상기 영상 투사 영역에 투사하고, 상기 세부 메뉴에 대응하는 사용자 입력에 대해 센싱된 제3 거리를 기초로, 상기 세부 메뉴에 대응하는 동작을 수행하는
영상 투사 장치.
9. The method of claim 8,
The control unit
If the menu in which the distance value of the first distance is varied is a menu for displaying a submenu, an image including at least one submenu corresponding to the menu in which the distance value of the first distance varies is projected onto the image projection area And performs an operation corresponding to the submenu based on a third distance sensed for a user input corresponding to the submenu
An image projection device.
제9항에 있어서,
상기 제어부는
상기 영상에 포함된 하나 이상의 세부 메뉴 중 상기 센싱된 제3 거리의 거리값이 변동된 세부 메뉴에 대응하는 동작을 수행하는
영상 투사 장치.
10. The method of claim 9,
The control unit
Performing an operation corresponding to a submenu in which a distance value of the sensed third distance among the one or more submenus included in the image is varied
An image projection device.
KR1020150071272A 2015-02-04 2015-05-21 Video projector and operating method thereof KR102360628B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150071272A KR102360628B1 (en) 2015-05-21 2015-05-21 Video projector and operating method thereof
PCT/KR2015/008366 WO2016125966A1 (en) 2015-02-04 2015-08-10 Image projection apparatus and operation method thereof
US15/549,131 US10310676B2 (en) 2015-02-04 2015-08-10 Image projection apparatus and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150071272A KR102360628B1 (en) 2015-05-21 2015-05-21 Video projector and operating method thereof

Publications (2)

Publication Number Publication Date
KR20160136963A true KR20160136963A (en) 2016-11-30
KR102360628B1 KR102360628B1 (en) 2022-02-09

Family

ID=57707184

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150071272A KR102360628B1 (en) 2015-02-04 2015-05-21 Video projector and operating method thereof

Country Status (1)

Country Link
KR (1) KR102360628B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110888287A (en) * 2018-08-20 2020-03-17 Bsh家用电器有限公司 Household appliance with a hand-operated input device
US11689702B2 (en) 2018-08-30 2023-06-27 Sony Corporation Information processing apparatus and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120139689A1 (en) * 2010-12-06 2012-06-07 Mayumi Nakade Operation controlling apparatus
JP2014163954A (en) * 2013-02-21 2014-09-08 Seiko Epson Corp Projector and method for controlling the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120139689A1 (en) * 2010-12-06 2012-06-07 Mayumi Nakade Operation controlling apparatus
JP2014163954A (en) * 2013-02-21 2014-09-08 Seiko Epson Corp Projector and method for controlling the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110888287A (en) * 2018-08-20 2020-03-17 Bsh家用电器有限公司 Household appliance with a hand-operated input device
CN110888287B (en) * 2018-08-20 2022-07-22 Bsh家用电器有限公司 Household appliance with a hand-operated input device
US11689702B2 (en) 2018-08-30 2023-06-27 Sony Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
KR102360628B1 (en) 2022-02-09

Similar Documents

Publication Publication Date Title
EP2960882B1 (en) Display device and operating method thereof
KR101790429B1 (en) Display device and operating method thereof
KR102521343B1 (en) Display device and operating method thereof
CN108476339B (en) Remote control method and terminal
KR102217238B1 (en) Remote controller and operating method thereof
KR102271184B1 (en) Video projector and operating method thereof
KR102209354B1 (en) Video display device and operating method thereof
KR20150104711A (en) Video display device and operating method thereof
KR102333931B1 (en) Video projector and operating method thereof
US10310676B2 (en) Image projection apparatus and operation method thereof
KR102360628B1 (en) Video projector and operating method thereof
KR102194011B1 (en) Video display device and operating method thereof
KR102167289B1 (en) Video display device and operating method thereof
KR102654415B1 (en) Display device and operating method thereof
KR20210120589A (en) Electronic device and method for sharing screens
KR20160095377A (en) Display device and operating method thereof
KR101772288B1 (en) Display device and operating method thereof
KR20160102653A (en) Terminal and operating method thereof
KR20180054052A (en) Display device and operating method thereof
KR20170081454A (en) Display device and operating method thereof
US20240105172A1 (en) Display device and operating method thereof
KR20170138145A (en) Display device and operating method thereof
KR102412918B1 (en) Display device and operating method thereof
KR20160096884A (en) Display device and operating method thereof
KR20220161388A (en) Display device and its operating method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right