KR102333931B1 - Video projector and operating method thereof - Google Patents

Video projector and operating method thereof Download PDF

Info

Publication number
KR102333931B1
KR102333931B1 KR1020150017547A KR20150017547A KR102333931B1 KR 102333931 B1 KR102333931 B1 KR 102333931B1 KR 1020150017547 A KR1020150017547 A KR 1020150017547A KR 20150017547 A KR20150017547 A KR 20150017547A KR 102333931 B1 KR102333931 B1 KR 102333931B1
Authority
KR
South Korea
Prior art keywords
image
image projection
projected
distance
area
Prior art date
Application number
KR1020150017547A
Other languages
Korean (ko)
Other versions
KR20160095923A (en
Inventor
김경중
이경호
이상호
유현희
윤현식
김양식
임지환
박정훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150017547A priority Critical patent/KR102333931B1/en
Priority to PCT/KR2015/008366 priority patent/WO2016125966A1/en
Priority to US15/549,131 priority patent/US10310676B2/en
Publication of KR20160095923A publication Critical patent/KR20160095923A/en
Application granted granted Critical
Publication of KR102333931B1 publication Critical patent/KR102333931B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3138Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using arrays of modulated light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

본 발명의 실시 예에 따른 영상 투사 장치는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하고, 센싱된 거리를 기초로 영상 투사 영역, 영상 투사 장치와 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단한다. 영상 투사 장치는 판단된 영상 투사 상태를 기초로 영상 투사 영역에 영상을 투사한다.An image projection apparatus according to an embodiment of the present invention senses a distance to an image projection area on which an image is projected, and based on the sensed distance, for at least one of an image projection area and a space between the image projection apparatus and the image projection area The image projection state including the state is determined. The image projection apparatus projects an image on the image projection area based on the determined image projection state.

Description

영상 투사 장치 및 그의 동작 방법{VIDEO PROJECTOR AND OPERATING METHOD THEREOF}Image projection apparatus and its operating method {VIDEO PROJECTOR AND OPERATING METHOD THEREOF}

본 발명은 영상 투사 장치 및 그의 동작 방법에 관한 것으로, 보다 상세하게는 영상이 투사되는 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역의 상태에 대응하는 동작을 수행하는 영상 투사 장치 및 그의 동작 방법에 관한 것이다.The present invention relates to an image projection apparatus and an operating method thereof, and more particularly, to an image projection apparatus for determining a state of an image projection area onto which an image is projected, and performing an operation corresponding to the determined state of the image projection area, and an image projection apparatus thereof It's about how it works.

최근 들어, 영상을 표시하는 방법은 디스플레이 장치와 같이 장치 내에 영상을 표시하는 방법뿐만 아니라, 프로젝터와 같이 영상을 일정 영역에 투사하는 방법도 이용되고 있다.Recently, as a method of displaying an image, not only a method of displaying an image in a device such as a display device, but also a method of projecting an image on a predetermined area such as a projector are used.

디스플레이 장치를 통한 영상 표시는 영상을 표시할 수 있는 화면 크기에 한계가 있고, 디스플레이 장치의 화면 이외의 다른 영역에는 영상을 표시할 수 없는 한계가 있다.Displaying an image through a display device has a limit in the size of a screen capable of displaying an image, and there is a limit in that an image cannot be displayed on an area other than the screen of the display device.

반면에 프로젝터와 같은 영상 투사 장치는 디스플레이 장치보다 큰 화면을 제공할 수 있으며, 영상을 투사하는 방향에 따라 다양한 위치에 영상을 표시할 수 있는 장점이 있다.On the other hand, an image projection device such as a projector can provide a larger screen than a display device, and has the advantage of being able to display an image in various positions depending on the direction in which the image is projected.

한편, 최근에는 다양한 터치 방식을 통해 디스플레이 장치에 표시된 화면을 사용자가 직접 터치하는 방식의 입력 방식이 널리 사용되고 있다. 터치 방식의 사용자 입력 방식은 표시된 화면에 대해 사용자가 직접적인 터치 동작을 할 수 있어서, 사용자가 입력 방식, 사용 방식을 직관적으로 인식할 수 있는 장점이 있다.Meanwhile, recently, an input method in which a user directly touches a screen displayed on a display device through various touch methods is widely used. The touch-based user input method has an advantage in that the user can directly perform a touch operation on the displayed screen, and thus the user can intuitively recognize the input method and the usage method.

하지만 영상 투사 장치는 일정한 디스플레이가 없는 특징으로 인해 터치 방식을 통한 사용자 입력을 수신하지 못하는 단점이 있다. However, the image projection apparatus has a disadvantage in that it cannot receive a user input through a touch method due to the characteristic that there is no constant display.

또한, 영상 투사 장치는 영상이 투사되는 지점과 영상 투사 장치 사이에 장애물이 있으면, 투사되는 영상이 가려지는 단점도 있으며, 사용자가 투사되는 영상에 직접적으로 노출되면 사용자의 시력이 손상될 우려도 있다.In addition, the image projection device has a disadvantage in that if there is an obstacle between the point where the image is projected and the image projection device, the projected image is blocked, and when the user is directly exposed to the projected image, there is a risk that the user's eyesight may be damaged. .

이러한 영상 투사 장치의 단점을 해결할 필요가 있다.There is a need to solve the disadvantages of such an image projection apparatus.

본 발명에 따른 영상 투사 장치는 다양한 위치에 영상을 투사할 수 있어서, 공간 활용성을 높이고 미관을 향상시키는데 목적이 있다.The image projection apparatus according to the present invention is capable of projecting an image in various positions, thereby increasing space utilization and improving aesthetics.

또한, 본 발명은 영상이 투사되는 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역에 대응하는 영상을 투사하여, 쾌적한 시청 환경을 사용자에 제공하는데 목적이 있다.Another object of the present invention is to provide a user with a comfortable viewing environment by determining the state of an image projection area on which an image is projected, and projecting an image corresponding to the determined image projection area.

또한, 본 발명은 투사되는 화면에 대한 사용자 입력을 인식하여, 투사되는 영상에 대한 제어 동작을 수행하는데 목적이 있다.Another object of the present invention is to perform a control operation on a projected image by recognizing a user input for a projected screen.

본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법은 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하는 단계; 상기 센싱된 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하는 단계; 및 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하는 단계를 포함한다.An operating method of an image projection apparatus according to an embodiment of the present invention includes sensing a distance to an image projection area on which an image is projected; determining an image projection state including a state of at least one of the image projection area and a space between the image projection apparatus and the image projection area based on the sensed distance; and projecting an image to the image projection area based on the determined image projection state.

본 발명의 실시 예에 따른 영상 투사 장치는 영상을 투사하는 영상 투사부; 상기 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하는 센싱부; 및 상기 센싱된 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하고, 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하도록 제어하는 제어부를 포함한다.An image projection apparatus according to an embodiment of the present invention includes an image projection unit for projecting an image; a sensing unit sensing a distance to an image projection area on which the image is projected; and determining an image projection state including a state of at least one of the image projection region, the space between the image projection apparatus and the image projection region based on the sensed distance, and based on the determined image projection state and a control unit controlling the image to be projected on the image projection area.

본 발명의 다양한 실시 예에 따르면, 본 발명에 따른 영상 투사 장치는 다양한 위치에 영상을 투사할 수 있어서, 공간 활용성을 높이고 미관을 향상시킬 수 있다.According to various embodiments of the present disclosure, the image projection apparatus according to the present disclosure may project an image to various locations, thereby increasing space utilization and improving aesthetics.

또한, 본 발명은 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역에 대응하는 영상을 투사할 수 있어서, 사용자에 쾌적한 시청 환경을 제공할 수 있다.In addition, the present invention can determine the state of the image projection area and project an image corresponding to the determined image projection area, thereby providing a user with a comfortable viewing environment.

또한, 본 발명은 투사되는 영상에 대한 사용자 입력을 인식할 수 있어서, 사용자가 원하는 동작 및 기능을 용이하게 실행할 수 있다.In addition, the present invention can recognize a user input for a projected image, so that the user can easily execute the desired operation and function.

도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 일 실시 예에 따른 영상 투사를 일 방면에서 바라본 개념도이다.
도 3은 본 발명의 일 실시 예에 따른 영상 투사를 다른 방면에서 바라본 개념도이다.
도 4는 본 발명의 일 실시 예에 따른 케이스에 대한 예시도이다.
도 5는 본 발명의 일 실시 예에 따른 영상 투사되는 케이스를 나타내는 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 8은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 9는 본 발명의 일 실시 예에 따른 영상 투사 장치의 구체적인 동작에 대한 흐름도이다.
도 10은 본 발명의 일 실시 예에 따른 거리 센서의 거리 센싱을 나타내는 예시도이다.
도 11은 본 발명의 일 실시 예에 따른 장애물 인식을 나타내기 위한 개념도이다.
도 12는 본 발명의 일 실시 예에 따른 장애물을 회피하기 위한 영상 투사에 대한 예시도이다.
도 13은 본 발명의 일 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 14는 본 발명의 일 실시 예에 따른 사용자 입력에 대한 센싱을 나타내는 예시도이다.
도 15는 본 발명의 일 실시 예에 따른 기능 UI 표시 화면을 나타내는 예시도이다.
도 16은 본 발명의 일 실시 예에 따른 도어 열림 인식에 대한 예시도이다.
도 17은 본 발명의 다른 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 18은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 19는 본 발명의 일 실시 예에 따른 도어에 대한 영상 투사를 나타내는 예시도이다.
도 20은 본 발명의 일 실시 예에 따른 벽면에 대한 영상 투사를 나타내는 예시도이다.
도 21은 본 발명의 일 실시 예에 따른 오디오 출력 장치의 실제 구성 예를 보여준다.
도 22는 본 발명의 일 실시 예에 따른 오디오 출력 장치를 나타내는 예시도이다.
1 is a block diagram showing the configuration of an image projection apparatus according to an embodiment of the present invention.
2 is a conceptual diagram viewed from one side of image projection according to an embodiment of the present invention.
3 is a conceptual diagram viewed from another direction of image projection according to an embodiment of the present invention.
4 is an exemplary diagram of a case according to an embodiment of the present invention.
5 is an exemplary diagram illustrating a case in which an image is projected according to an embodiment of the present invention.
6 is a block diagram of a remote control device according to an embodiment of the present invention.
7 shows an actual configuration example of a remote control device according to an embodiment of the present invention.
8 is a flowchart illustrating a method of operating an image projection apparatus according to an embodiment of the present invention.
9 is a flowchart of a detailed operation of an image projection apparatus according to an embodiment of the present invention.
10 is an exemplary diagram illustrating distance sensing of a distance sensor according to an embodiment of the present invention.
11 is a conceptual diagram illustrating obstacle recognition according to an embodiment of the present invention.
12 is an exemplary diagram of image projection for avoiding an obstacle according to an embodiment of the present invention.
13 is an exemplary diagram illustrating image projection for an adjacent door according to an embodiment of the present invention.
14 is an exemplary diagram illustrating sensing of a user input according to an embodiment of the present invention.
15 is an exemplary diagram illustrating a functional UI display screen according to an embodiment of the present invention.
16 is an exemplary diagram of door open recognition according to an embodiment of the present invention.
17 is an exemplary view illustrating image projection on an adjacent door according to another embodiment of the present invention.
18 is a conceptual diagram of image projection according to another embodiment of the present invention.
19 is an exemplary diagram illustrating image projection on a door according to an embodiment of the present invention.
20 is an exemplary diagram illustrating image projection on a wall according to an embodiment of the present invention.
21 shows an example of an actual configuration of an audio output device according to an embodiment of the present invention.
22 is an exemplary diagram illustrating an audio output device according to an embodiment of the present invention.

이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, embodiments related to the present invention will be described in more detail with reference to the drawings. The suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have a meaning or role distinct from each other by themselves.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법 및 그를 이용한 영상 투사 장치에 관하여 상세히 설명한다.Hereinafter, a method of operating an image projection apparatus according to an embodiment of the present invention and an image projection apparatus using the same will be described in detail with reference to the accompanying drawings.

본 발명의 실시 예에 따른 영상 투사 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 영상 투사 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 음성 명령 인식, 제스처 동작 인식, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행 가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.The image projection apparatus according to an embodiment of the present invention is, for example, an intelligent image projection apparatus in which a computer support function is added to a broadcast reception function, and is faithful to a broadcast reception function and an Internet function is added, so that voice command recognition, gesture operation, etc. are added. It can have a more user-friendly interface, such as a recognition, handwritten input device, a touch screen or a spatial remote control. In addition, it is connected to the Internet and a computer with the support of a wired or wireless Internet function, so that functions such as e-mail, web browsing, banking, or games can also be performed. A standardized general-purpose OS may be used for these various functions.

따라서, 본 발명에서 기술되는 영상 투사 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 영상 투사 장치는, 보다 구체적으로 예를 들면, 영상 프로젝터가 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.Accordingly, in the image projection apparatus described in the present invention, for example, various applications can be freely added or deleted on a general-purpose OS kernel, so that various user-friendly functions can be performed. The image projection device may be, for example, an image projector, more specifically, may be applied to a smart phone in some cases.

도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.1 is a block diagram showing the configuration of an image projection apparatus according to an embodiment of the present invention.

도 1을 참조하면, 영상 투사 장치(100)는 센싱부(105), 음성 획득부(110), 영상 획득부(120), 방송 수신부(130), 외부 장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 통신부(160), 제어부(170), 영상 투사부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다. Referring to FIG. 1 , the image projection apparatus 100 includes a sensing unit 105 , a voice obtaining unit 110 , an image obtaining unit 120 , a broadcast receiving unit 130 , an external device interface unit 135 , and a storage unit ( 140 ), a user input interface unit 150 , a communication unit 160 , a control unit 170 , an image projection unit 180 , an audio output unit 185 , and a power supply unit 190 .

센싱부(105)는 영상 투사 장치 내 정보, 영상 투사 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. The sensing unit 105 may include one or more sensors for sensing at least one of information in the image projecting device, surrounding environment information surrounding the image projecting device, and user information.

예를 들어, 센싱부(105)는 거리 센서(106), 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor, 107), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 건강케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 영상 투사 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다. For example, the sensing unit 105 may include a distance sensor 106 , a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, and a magnetic sensor. , Gravity sensor (G-sensor), gyroscope sensor, motion sensor (107), RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor (ultrasonic sensor), optical sensor (battery gauge), environmental sensor (eg barometer, hygrometer, thermometer, radiation detection sensor, thermal sensor, gas detection sensor, etc.), chemical sensor (eg for example, an electronic nose, a health care sensor, a biometric sensor, etc.). Meanwhile, the image projection apparatus 100 disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.

거리 센서(106)는 거리를 센싱할 수 있는 하나 이상의 센서를 포함할 수 있다.The distance sensor 106 may include one or more sensors capable of sensing a distance.

일 실시 예로 거리 센서(106)는 적외선 센서를 포함할 수 있고, 다양한 물체, 영상이 투사되는 지점 등에 대한 거리를 센싱할 수 있다. 예를 들면, 거리 센서(106)에 포함된 적외선 센서는 적외선을 출력하고, 출력된 적외선이 물체 등에 의해 반사되면 반사된 적외선을 거리 센서(106)에 포함된 이미지 센서로 인식할 수 있다. In an embodiment, the distance sensor 106 may include an infrared sensor, and may sense distances to various objects, points to which images are projected, and the like. For example, the infrared sensor included in the distance sensor 106 may output infrared rays, and when the output infrared rays are reflected by an object, the reflected infrared rays may be recognized as the image sensor included in the distance sensor 106 .

거리 센서(106)는 적외선 센서 이외에도 다양한 센서를 포함할 수 있다. 예를 들면 거리 센서(106)는 초음파 센서를 포함할 수 있고, 적외선 이외의 다른 파장의 광선을 출력할 수도 있다. 거리 센서(106)의 구체적인 동작에 대해서는 후술하기로 한다. The distance sensor 106 may include various sensors in addition to the infrared sensor. For example, the distance sensor 106 may include an ultrasonic sensor, and may output light of a wavelength other than infrared. A detailed operation of the distance sensor 106 will be described later.

한편, 센싱부(105)는 별도로 구비된 센서를 통해 영상이 투사되는 영역의 상태를 인식할 수도 있다.On the other hand, the sensing unit 105 may recognize the state of the area on which the image is projected through a separately provided sensor.

예를 들어, 센싱부(105)는 영상이 투사되는 영역에 구비된 자석형 센서, 스위치형 센서 등으로부터 영상이 투사되는 영역의 움직임에 대한 정보를 획득할 수 있다. For example, the sensing unit 105 may obtain information about the movement of the image projected area from a magnetic sensor or a switch sensor provided in the image projected area.

음성 획득부(110)는 음성을 획득할 수 있다.The voice acquisition unit 110 may acquire a voice.

음성 획득부(110)는 적어도 하나 이상의 마이크를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.The voice acquisition unit 110 may include at least one microphone, and thus may acquire a voice through the included microphone.

그리고 음성 획득부(110)는 획득된 음성을 제어부(170)에 전달할 수 있다.In addition, the voice acquisition unit 110 may transmit the acquired voice to the control unit 170 .

영상 획득부(120)는 영상을 획득할 수 있다.The image acquisition unit 120 may acquire an image.

영상 획득부(120)는 적어도 하나 이상의 카메라를 포함할 수 있어서, 포함된 카메라를 통해 영상을 획득할 수 있다. 이에 따라, 영상 획득부(120)는 사용자에 대한 영상을 획득할 수 있다. 또한, 영상 획득부(120)는 사용자의 홍채, 정맥과 같은 생체 정보에 대한 영상도 획득할 수 있다.The image acquisition unit 120 may include at least one or more cameras, and thus may acquire an image through the included cameras. Accordingly, the image acquisition unit 120 may acquire an image of the user. Also, the image acquisition unit 120 may acquire an image of biometric information such as the user's iris and veins.

그리고 영상 획득부(120)는 획득한 영상을 제어부(170)에 전달할 수 있다.In addition, the image acquisition unit 120 may transmit the acquired image to the control unit 170 .

한편, 음성 획득부(110)와 영상 획득부(120)는 사용자입력 인터페이스부(150)에 포함될 수 있다.Meanwhile, the voice acquisition unit 110 and the image acquisition unit 120 may be included in the user input interface unit 150 .

한편, 방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다. Meanwhile, the broadcast reception unit 130 may include a tuner 131 , a demodulator 132 , and a network interface unit 133 .

외부 장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.The external device interface unit 135 may receive an application or an application list in an adjacent external device and transmit it to the controller 170 or the storage unit 140 .

외부 장치 인터페이스부(135)는 외부 장치와 연결하기 위한 단자(terminal)를 포함할 수 있어서, 외부 장치의 커넥터(connecter)와 연결될 수 있다.The external device interface unit 135 may include a terminal for connecting to an external device, and thus may be connected to a connector of the external device.

외부 장치 인터페이스부(135)는 전원 공급부(190)로부터 공급받은 전원을 연결된 외부 장치에 구동 전원으로 공급할 수 있다.The external device interface unit 135 may supply power supplied from the power supply unit 190 to the connected external device as driving power.

또한, 외부 장치 인터페이스부(135)는 외부 장치가 송신한 동작 신호를 제어부(170)에 전달할 수 있다.Also, the external device interface unit 135 may transmit an operation signal transmitted by the external device to the control unit 170 .

한편, 외부 장치 인터페이스부(135)는 외부 장치의 연결을 감지할 수 있는 센서가 포함될 수 있어서, 외부 장치의 연결을 인식할 수 있다.Meanwhile, the external device interface unit 135 may include a sensor capable of detecting the connection of the external device, so that the connection of the external device may be recognized.

네트워크 인터페이스부(133)는 영상 투사 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. The network interface unit 133 may provide an interface for connecting the image projection apparatus 100 to a wired/wireless network including an Internet network. The network interface unit 133 may transmit or receive data to or from another user or other electronic device through the connected network or another network linked to the connected network.

또한, 영상 투사 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 영상 투사 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.In addition, some content data stored in the image projection apparatus 100 may be transmitted to another user registered in advance in the image projection apparatus 100 or to a user selected from among other users or other electronic devices or to a selected electronic device.

네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.The network interface unit 133 may access a predetermined web page through the connected network or another network linked to the connected network. That is, by accessing a predetermined web page through a network, it is possible to transmit or receive data with a corresponding server.

그리고 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.In addition, the network interface unit 133 may receive content or data provided by a content provider or a network operator. That is, the network interface unit 133 may receive contents such as movies, advertisements, games, VODs, broadcast signals, etc. and related information provided from the contents provider or the network provider through the network.

또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.Also, the network interface unit 133 may receive firmware update information and an update file provided by a network operator, and transmit data to the Internet or a content provider or network operator.

네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다. The network interface unit 133 may select and receive a desired application from among applications open to the public through a network.

저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.The storage unit 140 may store programs for each signal processing and control in the control unit 170 , and may store signal-processed image, audio, or data signals.

또한, 저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.In addition, the storage unit 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface unit 135 or the network interface unit 133 , and may perform a predetermined function through the channel storage function. It is also possible to store information about the image.

저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.The storage unit 140 may store an application or an application list input from the external device interface unit 135 or the network interface unit 133 .

또한, 저장부(140)는 사용자의 생체 정보를 저장할 수 있다. 여기서 사용자의 생체 정보란, 사용자의 지문, 홍채, 정맥, 얼굴, 음성과 같은 사용자의 신체와 관련된 고유의 정보를 의미할 수 있다.Also, the storage unit 140 may store the user's biometric information. Here, the user's biometric information may mean unique information related to the user's body, such as the user's fingerprint, iris, vein, face, and voice.

영상 투사 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.The image projection apparatus 100 may reproduce content files (movie files, still image files, music files, document files, application files, etc.) stored in the storage unit 140 and provide them to the user.

저장부(140)는 사용자에 대한 개인화 서비스 정보를 저장할 수 있다. 여기서 사용자에 대한 개인화 서비스 정보는 사용자가 자주 사용하는 기능, 자주 시청하는 채널, 컨텐츠 및 사용자가 설정한 설정값 중 하나 이상에 대한 정보를 포함할 수 있다. 그리고 사용자에 대한 개인화 서비스 정보는 복수의 사용자 각각에 대해 개인화된 기능, 개인화된 메뉴에 대한 정보를 포함할 수 있다.The storage unit 140 may store personalization service information for the user. Here, the personalization service information for the user may include information about one or more of a function frequently used by the user, a channel frequently viewed by the user, content, and a setting value set by the user. In addition, the personalized service information for the user may include information on a function personalized for each of a plurality of users and a personalized menu.

사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.The user input interface unit 150 may transmit a signal input by the user to the control unit 170 or may transmit a signal from the control unit 170 to the user. For example, the user input interface unit 150 is Bluetooth (Bluetooth), WB (Ultra Wideband), ZigBee (ZigBee) method, according to various communication methods such as RF (Radio Frequency) communication method or infrared (IR) communication method, Control signals such as power on/off, channel selection, and screen setting may be received and processed from the remote control device 200 , or a control signal from the control unit 170 may be transmitted to the remote control device 200 .

또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.Also, the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a setting value to the control unit 170 .

통신부(160)는 영상 투사 장치(100)와 네트워크 또는 영상 투사 장치(100)와 주변 기기가 유선 통신 또는 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The communication unit 160 may include one or more modules that enable wired communication or wireless communication between the image projection apparatus 100 and the network or the image projection apparatus 100 and a peripheral device.

예를 들면, 통신부(160)는 인터넷 접속을 위한 인터넷 모듈을 포함할 수 있으며, 인터넷 모듈을 통해 유선 또는 무선 통신을 통해 영상 투사 장치(100)가 인터넷에 접속할 수 있도록 할 수 있다.For example, the communication unit 160 may include an Internet module for Internet access, and may allow the image projection apparatus 100 to access the Internet through wired or wireless communication through the Internet module.

다른 예를 들면, 통신부(160)는 영상 투사 장치(100)와 다른 기기가 무선 통신할 수 있도록 근거리 통신 모듈을 포함할 수 있다. 일 실시예로 통신부(160)에 포함된 근거리 통신 모듈은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, WLAN(Wireless LAN)(Wi-Fi), NFC(Near Field Communication) 등을 이용할 수 있다.For another example, the communication unit 160 may include a short-range communication module so that the image projection apparatus 100 and other devices can communicate wirelessly. In an embodiment, the short-distance communication module included in the communication unit 160 includes Bluetooth (Bluetooth), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Wireless LAN (WLAN). (Wi-Fi), NFC (Near Field Communication), etc. can be used.

제어부(170)에서 영상 처리된 영상 신호는 영상 투사부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부 장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.The image signal processed by the controller 170 may be input to the image projector 180 and displayed as an image corresponding to the image signal. Also, the image signal processed by the controller 170 may be input to an external output device through the external device interface unit 135 .

제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부 장치 인터페이스부(135)를 통하여 외부 장치로 입력될 수 있다. The audio signal processed by the control unit 170 may be audio output to the audio output unit 185 . Also, the voice signal processed by the controller 170 may be input to an external device through the external device interface unit 135 .

또한, 제어부(170)는 후술할 오디오 출력 장치(300)에 처리된 음성 신호를 전달하여, 오디오 출력 장치(300)가 오디오 출력하도록 제어할 수도 있다.Also, the controller 170 may control the audio output device 300 to output audio by transmitting the processed voice signal to the audio output device 300 to be described later.

그 외, 제어부(170)는 영상 투사 장치(100) 내의 전반적인 동작을 제어할 수 있다. In addition, the controller 170 may control overall operations in the image projection apparatus 100 .

제어부(170)는 외부 장치 인터페이스부(135)로부터 외부 장치의 연결에 대한 감지 신호를 입력받아, 외부 장치 인터페이스부(135)를 통해 연결된 외부 장치에 구동 전원이 전달되도록 전원 공급부(190)를 제어할 수 있다.The control unit 170 receives a detection signal for connection of an external device from the external device interface unit 135 , and controls the power supply unit 190 to transmit driving power to the external device connected through the external device interface unit 135 . can do.

또한, 제어부(170)는 음성 획득부(110)를 통해 획득한 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.Also, the controller 170 may recognize the voice acquired through the voice acquirer 110 and perform a control operation corresponding to the recognized voice.

그리고 제어부(170)는 사용자의 음성에 대한 복수의 음성 신호를 비교하고, 가장 품질 좋은 음성 신호의 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.In addition, the controller 170 may compare a plurality of voice signals with respect to the user's voice, recognize the voice of the highest quality voice signal, and perform a control operation corresponding to the recognized voice.

제어부(170)는 복수의 마이크가 구비된 음성 획득부(110)로부터 획득된 복수의 음성을 비교하여 사용자의 위치를 판단할 수 있다. 구체적으로 제어부(170)는 복수의 마이크 각각이 획득한 음성을 비교하여, 음성을 발화한 사용자의 위치를 판단할 수 있다.The controller 170 may determine the location of the user by comparing a plurality of voices acquired from the voice acquisition unit 110 equipped with a plurality of microphones. Specifically, the controller 170 may compare the voices acquired by each of the plurality of microphones to determine the location of the user who uttered the voice.

한편, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상 투사 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 영상 투사 장치(100) 내로 다운받을 수 있도록 할 수 있다.On the other hand, the control unit 170 may control the image projection apparatus 100 according to a user command input through the user input interface unit 150 or an internal program, and access the network to display an application or a list of applications desired by the user. It can be downloaded into the projection device 100 .

제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 영상 투사부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.The control unit 170 allows the user-selected channel information to be output through the image projector 180 or the audio output unit 185 together with the processed image or audio signal.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부 장치 영상 재생 명령에 따라, 외부 장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 영상 투사부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.In addition, the control unit 170, according to the external device image reproduction command received through the user input interface unit 150, from an external device input through the external device interface unit 135, for example, a camera or a camcorder, An image signal or an audio signal may be output through the image projection unit 180 or the audio output unit 185 .

한편, 제어부(170)는 영상을 표시하도록 영상 투사부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부 장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 영상 투사부(180)에서 투사되도록 제어할 수 있다. 이 경우, 영상 투사부(180)에서 투사되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.Meanwhile, the controller 170 may control the image projector 180 to display an image, for example, a broadcast image input through the tuner 131 , or an external input through the external device interface unit 135 . An input image, an image input through the network interface unit, or an image stored in the storage unit 140 may be controlled to be projected by the image projector 180 . In this case, the image projected by the image projector 180 may be a still image or a moving image, and may be a 2D image or a 3D image.

또한, 제어부(170)는 영상 투사 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 투사되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.In addition, the control unit 170 may control the content stored in the image projection apparatus 100, received broadcast content, or external input content input from the outside to be projected, and the content includes a broadcast image, an external input image, and an audio. It may be in various forms, such as a file, a still image, a connected web screen, and a document file.

또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기 저장된 생체 정보, 패턴 정보 중 하나 이상과 비교할 수 있다. 이에 따라 제어부(170)는 기 저장된 생체 정보, 패턴 정보 중 하나 이상에서 입력된 사용자의 생체 정보와 동일한 생체 정보를 검색할 수도 있다.Also, the controller 170 may compare one or more of the input user's biometric information and pattern information with one or more of pre-stored biometric information and pattern information. Accordingly, the controller 170 may search for the same biometric information as the user's biometric information input from at least one of pre-stored biometric information and pattern information.

또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기초로 입력된 생체 정보, 패턴 정보 중 하나 이상에 대응하는 사용자의 개인화 서비스 정보를 획득할 수 있다. 예를 들면, 제어부(180)는 수신된 사용자의 지문 이미지 또는 지문에 대한 정보를 기초로, 사용자를 인식할 수 있다. 그리고 제어부(180)는 인식된 사용자에 대응하는 개인화 서비스 정보를 획득할 수 있다.In addition, the controller 170 may acquire the user's personalized service information corresponding to one or more of the input biometric information and the pattern information based on one or more of the inputted user's biometric information and pattern information. For example, the controller 180 may recognize the user based on the received user's fingerprint image or fingerprint information. In addition, the controller 180 may acquire personalized service information corresponding to the recognized user.

또한, 제어부(170)는 영상이 투사될 지점인 영상 투사 영역까지의 거리를 기초로 투사될 영상을 조절할 수 있다.Also, the controller 170 may adjust the image to be projected based on the distance to the image projection area, which is the point at which the image is to be projected.

또한, 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역, 영상 투사 장치(100)와 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역에 대한 사용자 입력을 감지할 수도 있다. 이에 대해서는 후술한다.In addition, the controller 170 determines an image projection state including a state of at least one of an image projection area and a space between the image projection apparatus 100 and the image projection area based on the sensing value sensed by the distance sensor 106 . can judge In addition, the controller 170 may detect a user input to the image projection area based on the sensed value sensed by the distance sensor 106 . This will be described later.

영상 투사부(180)는 다양한 영상을 투사할 수 있다.The image projector 180 may project various images.

영상 투사부(180)는 광원부(181), 렌즈부(182), 반사부(183)를 포함할 수 있다.The image projector 180 may include a light source unit 181 , a lens unit 182 , and a reflection unit 183 .

광원부(181)는 빔을 발광한다.The light source unit 181 emits a beam.

렌즈부(182)는 광원부(181)에서 발생된 빔의 소정 파장만을 선택적으로 투과시킨다. 렌즈부(182)는 설계에 따라 복수의 렌즈를 포함할 수도 있다.The lens unit 182 selectively transmits only a predetermined wavelength of the beam generated by the light source unit 181 . The lens unit 182 may include a plurality of lenses according to design.

반사부(183)는 렌즈부(182)에서 투과된 빔을 반사시킨다. 또한, 반사부(183)는 상하좌우 방향으로 회전 가능하여, 투과된 빔을 다양한 방향으로 반사시킬 수도 있다.The reflection unit 183 reflects the beam transmitted from the lens unit 182 . In addition, the reflection unit 183 may be rotated in vertical, horizontal, and vertical directions to reflect the transmitted beam in various directions.

영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하여 투사될 지점에 영상을 투사할 수 있다.The image projector 180 may project an image to a point where the beam emitted from the light source 181 is projected through the lens unit 182 .

또한, 영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하고, 반사부(183)에서 반사되어, 투사될 지점에 영상을 투사할 수도 있다.Also, the image projector 180 may project an image to a point where a beam emitted from the light source 181 passes through the lens unit 182 and is reflected by the reflector 183 to be projected.

이를 도 2 내지 도 3을 참고하여 설명한다.This will be described with reference to FIGS. 2 to 3 .

도 2는 본 발명의 일 실시 예에 따른 영상 투사를 일 방면에서 바라본 개념도이다.2 is a conceptual diagram viewed from one side of image projection according to an embodiment of the present invention.

도 2를 참조하면, 영상 투사 장치(100)는 케이스(400) 내에 구비되어, 케이스(400)의 도어(410)에 영상을 투사할 수 있다. 구체적으로, 영상 투사 장치(100)는 영상 투사부(180)에 포함된 광원부(181)에서 빔을 발생시키고, 발생된 빔이 렌즈부(182)를 통과하고 반사부(183)에서 반사되어 투사될 지점인 도어(410)에 영상이 투사되도록 할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.Referring to FIG. 2 , the image projection apparatus 100 may be provided in the case 400 to project an image on the door 410 of the case 400 . Specifically, the image projection apparatus 100 generates a beam from the light source unit 181 included in the image projection unit 180 , and the generated beam passes through the lens unit 182 and is reflected by the reflection unit 183 and is projected. An image may be projected on the door 410, which is a point to be formed. Accordingly, the image screen 500 on which the image projected from the image projector 180 is displayed may be displayed on the door 410 of the case 400 .

여기서 도어(410)는 케이스(400)의 도어일 수 있고, 탈부착 또는 일방향 이상으로 오픈 가능한 구조일 수 있다. Here, the door 410 may be a door of the case 400 , and may have a structure that can be detached or opened in one or more directions.

또한, 도어(410)는 투명 또는 불투명한 구조일 수 있으며, 예를 들면 유리 재질로 구성될 수 있다. 그리고 도어(410)는 투사되는 영상이 명확하게 표시되기 위한 시트지 등이 부착될 수도 있다.In addition, the door 410 may have a transparent or opaque structure, and may be made of, for example, a glass material. And the door 410 may be attached to a sheet for clearly displaying the projected image.

한편, 영상 투사 장치(100)는 케이스(400) 밖에 구비될 수도 있다.Meanwhile, the image projection apparatus 100 may be provided outside the case 400 .

여기서 케이스(400)는 가구일 수 있다. 예를 들면 수납장, 장식장일 수 있다. 또한, 케이스(400)는 가구의 일부 또는 전체일 수도 있다.Here, the case 400 may be furniture. For example, it may be a storage cabinet or a decorative cabinet. In addition, the case 400 may be a part or all of the furniture.

도 3은 본 발명의 일 실시 예에 따른 영상 투사를 다른 방면에서 바라본 개념도이다.3 is a conceptual diagram viewed from another direction of image projection according to an embodiment of the present invention.

도 3을 참조하면, 영상 투사 장치(100)의 영상 투사부(180)는 광원부(181)에서 빔을 발생시키고, 발생된 빔이 렌즈부(182)를 통과하고 반사부(183)에서 반사되어 투사될 지점인 도어(410)에 영상을 투사되도록 할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.Referring to FIG. 3 , the image projection unit 180 of the image projection apparatus 100 generates a beam from the light source unit 181 , and the generated beam passes through the lens unit 182 and is reflected by the reflection unit 183 . An image may be projected on the door 410 which is a point to be projected. Accordingly, the image screen 500 on which the image projected from the image projector 180 is displayed may be displayed on the door 410 of the case 400 .

영상 투사부(180)로부터 투사된 영상이 표시되는 구체적인 실시 예를 도 4 내지 도 5를 참조하여 설명한다.A specific embodiment in which an image projected from the image projector 180 is displayed will be described with reference to FIGS. 4 to 5 .

도 4는 본 발명의 일 실시 예에 따른 케이스에 대한 예시도이다.4 is an exemplary diagram of a case according to an embodiment of the present invention.

도 4를 참조하면, 케이스(400)는 하나 이상의 수납 공간 또는 장식 공간을 포함하는 가구일 수 있다. 이에 따라 케이스(400)는 하나 이상의 도어(410)를 포함할 수 있다. 그리고 도어(410)는 투명 또는 불투명한 소재로 구성될 수 있다. 이에 따라 도어(410)는 영상이 투사되지 않을 때에는 일반적인 도어 형태일 수 있다.Referring to FIG. 4 , a case 400 may be a piece of furniture including one or more storage spaces or decorative spaces. Accordingly, the case 400 may include one or more doors 410 . And the door 410 may be made of a transparent or opaque material. Accordingly, the door 410 may have a general door shape when no image is projected.

도 5는 본 발명의 일 실시 예에 따른 영상 투사되는 케이스를 나타내는 예시도이다.5 is an exemplary diagram illustrating a case in which an image is projected according to an embodiment of the present invention.

도 5를 참조하면, 케이스(400)의 도어(410)는 영상 투사 장치(100)가 투사하는 영상이 투사될 수 있다. 이에 따라 도어(410)의 전체 또는 일부에 투사되는 영상에 따른 영상 화면(500)이 표시될 수 있다.Referring to FIG. 5 , an image projected by the image projection apparatus 100 may be projected on the door 410 of the case 400 . Accordingly, the image screen 500 according to the image projected on all or part of the door 410 may be displayed.

이와 같이 영상 투사부(180)는 영상이 투사될 지점에 영상을 투사하여, 영상 화면(500)이 표시되도록 할 수 있다.In this way, the image projector 180 may project the image to the point where the image is to be projected, so that the image screen 500 is displayed.

또한, 영상 투사 장치(100)는 도어(410) 이외에도 다양한 영역 또는 물체에 영상을 투사할 수 있다. 이에 대해서는 후술한다.Also, the image projection apparatus 100 may project an image on various areas or objects other than the door 410 . This will be described later.

한편, 영상 투사부(180)는 상술한 반사부(183)의 반사 과정을 제외하고 영상을 투사할 수도 있다. 이에 따라 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하여 영상이 투사될 지점에 영상이 투사될 수도 있다.Meanwhile, the image projector 180 may project an image except for the above-described reflection process of the reflector 183 . Accordingly, the image may be projected to a point where the beam generated from the light source unit 181 passes through the lens unit 182 and the image is projected.

영상 투사부(180)의 영상 투사 방법에 대한 내용은 공지 기술이므로 자세한 내용은 생략한다.Since the image projection method of the image projection unit 180 is a known technology, the detailed information will be omitted.

영상 투사부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부 장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.The image projection unit 180 converts the image signal, the data signal, the OSD signal processed by the controller 170, or the image signal and the data signal received from the external device interface unit 135 into R, G, and B signals, respectively. A driving signal can be generated.

한편, 도 1에 도시된 영상 투사 장치(100)는 본 발명의 일 실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 영상 투사 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.Meanwhile, since the image projection apparatus 100 shown in FIG. 1 is only an embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted according to the specifications of the image projection apparatus 100 that are actually implemented.

즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.That is, two or more components may be combined into one component, or one component may be subdivided into two or more components as needed. In addition, the function performed in each block is for explaining the embodiment of the present invention, and the specific operation or device does not limit the scope of the present invention.

본 발명의 또 다른 실시예에 따르면, 영상 투사 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부 장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.According to another embodiment of the present invention, the image projection apparatus 100 does not include the tuner 131 and the demodulator 132 , and does not include the network interface unit 133 or the external device interface unit, as shown in FIG. 1 . An image may be received and reproduced through (135).

예를 들어, 영상 투사 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.For example, the image projection apparatus 100 is divided into an image processing apparatus such as a set-top box for receiving contents according to a broadcast signal or various network services, and a content reproduction apparatus which reproduces content input from the image processing apparatus and can be implemented.

이 경우, 이하에서 설명할 본 발명의 실시예에 따른 이미지 표시 방법은 도 1을 참조하여 설명한 바와 같은 영상 투사 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 영상 투사부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.In this case, the image display method according to an embodiment of the present invention, which will be described below, includes not only the image projection apparatus 100 as described with reference to FIG. 1 , but also an image processing device such as the separated set-top box or an image projection unit ( 180) and the audio output unit 185 may be performed by any one of the content reproducing apparatus.

다음으로, 도 6 내지 도 7을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.Next, a remote control device according to an embodiment of the present invention will be described with reference to FIGS. 6 to 7 .

도 6은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 7은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.6 is a block diagram of a remote control apparatus according to an embodiment of the present invention, and FIG. 7 shows an actual configuration example of the remote control apparatus according to an embodiment of the present invention.

먼저, 도 6을 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280) 및 음성 획득부(290)를 포함할 수 있다. First, referring to FIG. 6 , the remote control device 200 includes a fingerprint recognition unit 210 , a wireless communication unit 220 , a user input unit 230 , a sensor unit 240 , an output unit 250 , and a power supply unit 260 . ), a storage unit 270 , a control unit 280 , and a voice acquisition unit 290 .

무선통신부(220)는 전술하여 설명한 본 발명의 실시 예들에 따른 영상표시기기 중 임의의 어느 하나와 신호를 송수신한다.The wireless communication unit 220 transmits/receives a signal to and from any one of the image display devices according to the embodiments of the present invention described above.

원격제어장치(200)는 RF 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.The remote control device 200 includes an RF module 221 capable of transmitting and receiving signals to and from the image projection device 100 according to the RF communication standard, and transmits/receives signals to and from the image projection device 100 according to the IR communication standard. It may be provided with an IR module 223 capable of. In addition, the remote control device 200 may include a Bluetooth module 225 capable of transmitting and receiving a signal to and from the image projection device 100 according to the Bluetooth communication standard. In addition, the remote control device 200 is provided with an NFC module 227 capable of transmitting and receiving signals to and from the image projection device 100 according to the NFC (Near Field Communication) communication standard, and according to the WLAN (Wireless LAN) communication standard. A WLAN module 229 capable of transmitting and receiving signals to and from the image projection device 100 may be provided.

또한, 원격제어장치(200)는 영상 투사 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선통신부(220)를 통하여 전송한다. In addition, the remote control device 200 transmits a signal containing information about the movement of the remote control device 200 to the image projection device 100 through the wireless communication unit 220 .

한편, 원격제어장치(200)는 영상 투사 장치(100)가 전송한 신호를 무선통신부(220)를 통하여 수신할 수 있으며, 필요에 따라 무선통신부(220)를 통하여 영상 투사 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다. On the other hand, the remote control device 200 may receive a signal transmitted by the image projection device 100 through the wireless communication unit 220, if necessary, power to the image projection device 100 through the wireless communication unit 220 Commands related to on/off, channel change, volume change, and the like can be transmitted.

사용자 입력부(230)는 키패드, 버튼, 터치 패드, 휠 키 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 7을 참조하여 설명한다.The user input unit 230 may include a keypad, a button, a touch pad, a wheel key, or a touch screen. The user may input a command related to the image projection apparatus 100 to the remote control apparatus 200 by manipulating the user input unit 230 . When the user input unit 230 includes a hard key button, the user may input a command related to the image projection apparatus 100 to the remote control device 200 through a push operation of the hard key button. This will be described with reference to FIG. 7 .

도 7을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), LIVE 버튼(233), 외부입력 버튼(234), 음량 버튼(235), 음성 인식 버튼(236), 채널 버튼(237), 휠 키(238) 및 취소 버튼(239)을 포함할 수 있다.Referring to FIG. 7 , the remote control device 200 may include a plurality of buttons. The plurality of buttons include a fingerprint recognition button 212, a power button 231, a home button 232, a LIVE button 233, an external input button 234, a volume button 235, a voice recognition button 236, a channel It may include a button 237 , a wheel key 238 , and a cancel button 239 .

지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다. The fingerprint recognition button 212 may be a button for recognizing a user's fingerprint. In an embodiment, the fingerprint recognition button 212 may perform a push operation, and thus may receive a push operation and a fingerprint recognition operation.

전원 버튼(231)은 영상 투사 장치(100), 외부기기의 전원을 온/오프 하기 위한 버튼일 수 있다.The power button 231 may be a button for turning on/off the power of the image projection apparatus 100 and an external device.

홈 버튼(232)은 영상 투사 장치(100)의 기본 메뉴를 표시하기 위한 버튼일 수 있다.The home button 232 may be a button for displaying a basic menu of the image projection apparatus 100 .

LIVE 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.The LIVE button 233 may be a button for displaying a real-time broadcast program.

외부입력 버튼(234)는 외부기기로부터 수신된 영상을 표시하기 위한 버튼일 수 있다.The external input button 234 may be a button for displaying an image received from an external device.

음량 버튼(235)는 영상 투사 장치(100)의 오디오 출력을 조절하기 위한 버튼일 수 있다.The volume button 235 may be a button for controlling an audio output of the image projection apparatus 100 .

음성 인식 버튼(236)은 사용자의 음성을 인식하기 위한 버튼일 수 있다.The voice recognition button 236 may be a button for recognizing a user's voice.

채널 버튼(237)은 특정 방송 채널, 특정 방송 서비스의 방송 신호를 수신하기 위한 버튼일 수 있다.The channel button 237 may be a button for receiving a broadcast signal of a specific broadcast channel or a specific broadcast service.

휠 키(238)는 일 방향 이상에 대한 사용자 입력을 수신할 수 있는 휠(Wheel)형태의 키일 수 있다. 예를 들면 휠 키(238)은 상, 하 방향 또는 상, 하, 좌, 우 방향에 대한 사용자 입력을 수신할 수 있는 휠(Wheel) 형태의 키일 수 있다. 또한, 휠 키(238)은 방향키를 더 포함할 수 있다. 여기서 휠 키(238)의 상, 하 방향에 대한 사용자 입력은 휠 키(238)를 회전시키는 사용자 입력일 있고, 좌, 우 방향에 대한 사용자 입력은 휠 키(238)를 틸트시키는 사용자 입력일 수 있다. 또한, 휠 키(238)는 푸쉬 입력을 수신할 수도 있다.The wheel key 238 may be a wheel-shaped key capable of receiving a user input in one or more directions. For example, the wheel key 238 may be a wheel-shaped key capable of receiving a user input in up, down, or up, down, left, or right directions. In addition, the wheel key 238 may further include a direction key. Here, the user input for the up and down directions of the wheel key 238 may be a user input for rotating the wheel key 238 , and the user input for the left and right directions may be a user input for tilting the wheel key 238 . The wheel key 238 may also receive a push input.

LIVE 버튼(297)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.The LIVE button 297 may be a button for displaying a real-time broadcast program.

다시 도 6을 설명한다. Fig. 6 will be described again.

사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. When the user input unit 230 includes a touch screen, the user may input a command related to the image projection apparatus 100 to the remote control apparatus 200 by touching a soft key of the touch screen.

또한, 사용자 입력부(230)는 스크롤 키, 조그 키, 터치 패드 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.In addition, the user input unit 230 may include various types of input means that the user can operate, such as a scroll key, a jog key, and a touch pad, and this embodiment does not limit the scope of the present invention.

센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다. The sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243 , and the gyro sensor 241 may sense information regarding the movement of the remote control device 200 .

예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 영상 투사 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.For example, the gyro sensor 241 may sense information about the operation of the remote control device 200 based on the x, y, and z axes, and the acceleration sensor 243 is the moving speed of the remote control device 200 . It is possible to sense information about the On the other hand, the remote control device 200 may further include a distance measuring sensor, it is possible to sense the distance to the display unit 180 of the image projection apparatus 100 .

출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 영상 투사 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 영상 투사 장치(100)의 제어 여부를 인지할 수 있다. The output unit 250 may output an image or audio signal corresponding to a manipulation of the user input unit 235 or a signal transmitted from the image projection apparatus 100 . Through the output unit 250 , the user may recognize whether the user input unit 235 is manipulated or whether the image projection apparatus 100 is controlled.

예를 들어, 출력부(250)는 사용자 입력부(230)가 조작되거나 무선 통신부(220)를 통하여 영상 투사 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다. For example, the output unit 250 is an LED module 251 that is turned on when the user input unit 230 is manipulated or a signal is transmitted and received with the image projection apparatus 100 through the wireless communication unit 220, and a vibration module that generates vibration 253 , a sound output module 255 for outputting a sound, or a display module 257 for outputting an image may be provided.

또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.In addition, the power supply unit 260 supplies power to the remote control device 200, and when the remote control device 200 does not move for a predetermined time, the power supply is stopped, thereby reducing power wastage. The power supply unit 260 may resume power supply when a predetermined key provided in the remote control device 200 is operated.

저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 영상 투사 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 영상 투사 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.The storage unit 270 may store various types of programs and application data required for control or operation of the remote control device 200 . If the remote control device 200 wirelessly transmits and receives a signal through the image projecting device 100 and the RF module 221 , the remote control device 200 and the image projecting device 100 transmit the signal through a predetermined frequency band. send and receive

원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 영상 투사 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.The control unit 280 of the remote control device 200 stores information about a frequency band in which a signal can be wirelessly transmitted and received with the image projection device 100 paired with the remote control device 200 in the storage unit 270 and can refer to

제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(230)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 영상 투사 장치(100)로 전송할 수 있다.The controller 280 controls all matters related to the control of the remote control device 200 . The control unit 280 transmits a signal corresponding to a predetermined key operation of the user input unit 230 or a signal corresponding to the movement of the remote control device 200 sensed by the sensor unit 240 to the image projection device through the wireless communication unit 220 . (100) can be transmitted.

또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.Also, the voice acquisition unit 290 of the remote control device 200 may acquire a voice.

음성 획득부(290)는 적어도 하나 이상의 마이크(미도시)를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.The voice acquisition unit 290 may include at least one microphone (not shown), and thus may acquire a voice through the included microphone.

그리고 음성 획득부(290)는 획득된 음성을 제어부(280)에 전달할 수 있다.In addition, the voice acquisition unit 290 may transmit the acquired voice to the controller 280 .

이하, 상술한 영상 투사 장치(100)에 대한 설명을 기초로 영상 투사 장치(100)의 동작 방법을 설명한다.Hereinafter, an operation method of the image projection apparatus 100 will be described based on the description of the image projection apparatus 100 described above.

도 8은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.8 is a flowchart illustrating a method of operating an image projection apparatus according to an embodiment of the present invention.

도 8을 참조하면, 영상 투사 장치(100)의 센싱부(105)는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱한다(S110).Referring to FIG. 8 , the sensing unit 105 of the image projection apparatus 100 senses a distance to an image projection area onto which an image is projected ( S110 ).

센싱부(105)는 포함된 다양한 센서를 통해 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다. 예를 들면 센싱부(105)는 거리 센서(106)을 통해 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다.The sensing unit 105 may sense a distance to an image projection area onto which an image is projected through various included sensors. For example, the sensing unit 105 may sense the distance to the image projection area on which the image is projected through the distance sensor 106 .

여기서 영상이 투사되는 영상 투사 영역에 대한 거리는 영상 투사 장치(100)와 영상 투사 영역 사이의 거리를 의미할 수 있다. 이에 따라 센싱부(105)는 영상 투사 장치(100)와 영상 투사 영역 사이의 물체 또는 영역까지의 거리를 센싱할 수도 있다.Here, the distance to the image projection area on which the image is projected may mean a distance between the image projection apparatus 100 and the image projection area. Accordingly, the sensing unit 105 may sense a distance to an object or an area between the image projection apparatus 100 and the image projection area.

또한, 센싱부(105)는 상술한 영상 투사 영역을 넘어선 영역에 대한 거리도 센싱할 수 있다. 예를 들면, 센싱부(105)는 케이스(400)의 도어(410)가 영상 투사 영역이면, 도어(410)를 넘어선 영역에 대한 거리도 센싱할 수 있다. 이에 따라 센싱부(105)는 영상 투사 영역에 대한 사용자 입력도 센싱할 수 있다. 여기서 사용자 입력은 영상이 투사되는 도어(410)에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다. 이에 대해서는 후술한다.Also, the sensing unit 105 may sense a distance to an area beyond the above-described image projection area. For example, if the door 410 of the case 400 is an image projection area, the sensing unit 105 may sense a distance to an area beyond the door 410 . Accordingly, the sensing unit 105 may also sense a user input to the image projection area. Here, the user input may include a user input that touches the door 410 on which an image is projected, and a user input that approaches the door 410 within a predetermined distance. This will be described later.

영상 투사 장치(100)의 제어부(170)는 센싱된 거리를 기초로 영상 투사 영역의 상태, 영상 투사 장치(100)와 영상 투사 영역 사이의 상태, 영상 투사 영역에 대한 사용자 입력 상태 중 하나 이상을 포함하는 영상 투사 상태를 판단한다(S130).The controller 170 of the image projection apparatus 100 selects one or more of the state of the image projection area, the state between the image projection apparatus 100 and the image projection area, and the user input state for the image projection area based on the sensed distance. It is determined that the image projection state is included (S130).

제어부(170)는 센싱된 거리를 기초로 영상 투사 영역의 상태를 판단할 수 있다.The controller 170 may determine the state of the image projection area based on the sensed distance.

일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역인 케이스(400)의 도어(410)의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 이상이면, 도어(410)가 오픈된 것으로 판단할 수 있다. 이에 따라 제어부(170)는 도어(410)의 오픈 여부를 판단할 수 있다. As an example, the controller 170 may determine the state of the door 410 of the case 400, which is an area to which an image is projected, based on the sensed distance. For example, the controller 170 may determine that the door 410 is open when the sensed distance is greater than or equal to the first distance that is the distance to the door 410 on which the image is projected. Accordingly, the control unit 170 may determine whether the door 410 is open.

또한, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역이 케이스(400)의 일부분이 아닌 다른 영역인지 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 제1 거리 이상인 제2 거리이면, 영상이 투사되는 영역이 케이스(400)의 일부분이 아닌 다른 영역인 것으로 판단할 수 있다. In addition, the controller 170 may determine whether the region to which the image is projected is a region other than a part of the case 400 based on the sensed distance. For example, when the sensed distance is a second distance equal to or greater than the first distance, the controller 170 may determine that the image is projected is a region other than a part of the case 400 .

다른 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다. 그래서 제어부(170)는 판단된 물체의 위치에 따라 투사되는 영상의 일부 또는 전부가 영상이 투사되는 도어(410)에 도달하지 않고, 판단된 물체에 투사되는 영상의 일부 또는 전부가 투사되는 것을 판단할 수 있다. 이에 따라 제어부(170)는 투사되는 영상의 일부 또는 전부가 영상 투사 영역인 도어(410)에 도달하지 않는 상태를 판단할 수 있다.In another embodiment, the controller 170 may determine a state between the image projection apparatus 100 and the image projection area based on the sensed distance. For example, if the sensed distance is less than the first distance that is the distance to the door 410 on which the image was projected, the controller 170 determines that there is an object between the door 410 and the image projection apparatus 100 . can Therefore, the control unit 170 determines that part or all of the image projected on the determined object does not reach the door 410 on which the image is projected, and part or all of the image projected on the determined object is projected according to the determined position of the object. can do. Accordingly, the controller 170 may determine a state in which a part or all of the projected image does not reach the door 410 that is the image projection area.

또 다른 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량을 기초로 영상이 투사되는 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 일 실시 예로 제어부(170)는 영상이 투사되는 도어(410)에 대한 센싱값의 변화량을 기초로 도어(410)에 대한 사용자 입력을 인식할 수 있다. 여기서 사용자 입력은 영상이 투사되는 도어(410)에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다.As another embodiment, the controller 170 may determine a user input state for the image projection area based on the sensed distance. For example, the controller 170 may determine the user input state for the image projection area onto which the image is projected based on the amount of change in the sensed value corresponding to the sensed distance. As an example, the controller 170 may recognize a user input for the door 410 based on a change amount of a sensed value for the door 410 on which an image is projected. Here, the user input may include a user input that touches the door 410 on which an image is projected, and a user input that approaches the door 410 within a predetermined distance.

영상 투사 장치(100)의 제어부(170)는 판단된 영상 투사 상태를 기초로 동작한다(S150).The controller 170 of the image projection apparatus 100 operates based on the determined image projection state (S150).

일 실시 예로 제어부(170)는 영상이 투사되는 영역인 케이스(400)의 도어(410) 상태가 오픈된 것으로 판단되면, 투사 중인 영상의 밝기를 낮추거나 다른 영역에 영상을 투사할 수 있다.In an embodiment, when it is determined that the door 410 of the case 400, which is the area on which the image is projected, is open, the controller 170 may lower the brightness of the image being projected or project the image to another area.

다른 실시 예로 제어부(170)는 영상이 투사되는 영역까지의 거리가 변경된 것으로 판단되면, 변경된 거리에 대응하여 영상을 투사할 수 있다. 이에 따라 제어부(170)는 영상 투사부(180)가 투사하는 영상의 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 조절할 수 있다.In another embodiment, if it is determined that the distance to the area on which the image is projected has changed, the controller 170 may project the image corresponding to the changed distance. Accordingly, the controller 170 may adjust one or more of focus, resolution, size, brightness, color, and contrast of the image projected by the image projector 180 .

또 다른 실시 예로 제어부(170)는 영상 투사 장치(100)와 영상 투사 영역 사이에 어떠한 물체가 있는 것으로 판단되고, 해당 물체로 인해 투사되는 영상의 일부 또는 전부가 영상 투사 영역에 도달하지 못한다고 판단되면, 영상 투사에 대한 장애물이 있음을 알리는 알람을 투사되는 영상에 표시할 수 있다. 또한, 제어부(170)는 장애물이 있음을 알리는 알람을 오디오 출력부(185)를 통해 오디오로 출력할 수도 있다.In another embodiment, when it is determined that there is an object between the image projection apparatus 100 and the image projection area, and it is determined that some or all of the image projected due to the object does not reach the image projection area, , an alarm indicating that there is an obstacle to image projection may be displayed on the projected image. Also, the controller 170 may output an alarm indicating that there is an obstacle as an audio through the audio output unit 185 .

또 다른 실시 예로 제어부(170)는 영상 투사 영역에 대한 사용자 입력을 인식한 것으로 판단하면, 판단된 사용자 입력을 기초로 동작할 수 있다. 예를 들면 제어부(170)는 영상 투사 장치(100)의 동작과 관련된 사용자 입력을 인식하고, 인식된 사용자 입력에 대응하는 동작을 수행할 수 있다. 여기서 영상 투사 장치(100)의 동작과 관련된 사용자 입력은 영상 투사 장치(100)가 표시하는 영상에 대한 영상 전환, 출력되는 오디오에 대한 볼륨 조절, 영상 투사 장치(100)의 턴온, 턴오프 등 다양한 동작에 대한 사용자 입력일 수 있다.In another embodiment, if it is determined that the user input for the image projection area has been recognized, the controller 170 may operate based on the determined user input. For example, the controller 170 may recognize a user input related to an operation of the image projection apparatus 100 and perform an operation corresponding to the recognized user input. Here, the user input related to the operation of the image projection apparatus 100 may include switching an image for an image displayed by the image projection apparatus 100, adjusting a volume for outputted audio, turning on or off the image projection apparatus 100, etc. It may be a user input for an action.

한편, 상술한 영상 투사 장치(100)의 동작에 대한 구체적인 일 실시 예를 상세히 설명한다.Meanwhile, a specific embodiment of the operation of the above-described image projection apparatus 100 will be described in detail.

도 9는 본 발명의 일 실시 예에 따른 영상 투사 장치의 구체적인 동작에 대한 흐름도이다.9 is a flowchart of a detailed operation of an image projection apparatus according to an embodiment of the present invention.

도 9를 참조하면, 영상 투사 장치(100)의 센싱부(105)는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱한다(S200).Referring to FIG. 9 , the sensing unit 105 of the image projection apparatus 100 senses a distance to an image projection area onto which an image is projected ( S200 ).

센싱부(105)는 거리 센서(106)을 포함할 수 있고, 거리 센서(106)는 복수의 거리 센서(106a, 106b, 106c, 106d)를 포함할 수 있다. 그리고 복수의 거리 센서 각각은 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다.The sensing unit 105 may include a distance sensor 106 , and the distance sensor 106 may include a plurality of distance sensors 106a, 106b, 106c, and 106d. In addition, each of the plurality of distance sensors may sense a distance to an image projection area onto which an image is projected.

이에 대해 도 10을 참조하여 설명한다.This will be described with reference to FIG. 10 .

도 10은 본 발명의 일 실시 예에 따른 거리 센서의 거리 센싱을 나타내는 예시도이다.10 is an exemplary diagram illustrating distance sensing of a distance sensor according to an embodiment of the present invention.

도 10을 참조하면, 거리 센서(106)은 복수의 거리 센서(106a, 106b, 106c, 106d)를 포함할 수 있다. 복수의 거리 센서(106a, 106b, 106c, 106d) 각각은 영상이 투사되는 영역인 도어(410)에 대한 거리를 각각 센싱할 수 있다. 한편, 복수의 거리 센서(106a, 106b, 106c, 106d) 각각이 센싱하는 영역은 일부 또는 전부가 겹쳐질 수도 있다. 이에 따라 복수의 거리 센서(106a, 106b, 106c, 106d) 각각은 도어(410)의 서로 다른 영역을 센싱할 수 있다. 또한, 거리 센서(106)에 포함된 복수의 거리 센서는 다양한 개수로 구성될 수 있으며, 영상 투사 기기(100)의 다양한 위치에 구비될 수 있다. 이에 따라 거리 센서(106)에 포함된 복수의 거리 센서는 영상이 투사되는 영역에 대해 다양한 각도, 방향으로 거리를 센싱할 수 있다.Referring to FIG. 10 , the distance sensor 106 may include a plurality of distance sensors 106a, 106b, 106c, and 106d. Each of the plurality of distance sensors 106a, 106b, 106c, and 106d may sense a distance to the door 410, which is an area on which an image is projected, respectively. Meanwhile, some or all of the regions sensed by each of the plurality of distance sensors 106a, 106b, 106c, and 106d may overlap. Accordingly, each of the plurality of distance sensors 106a, 106b, 106c, and 106d may sense different regions of the door 410 . In addition, the plurality of distance sensors included in the distance sensor 106 may be configured in various numbers, and may be provided in various positions of the image projection device 100 . Accordingly, the plurality of distance sensors included in the distance sensor 106 may sense distances in various angles and directions with respect to the area on which the image is projected.

센싱부(105)의 거리 센싱에 대해서는 상술한 바 있어 자세한 설명은 생략한다.Since the distance sensing of the sensing unit 105 has been described above, a detailed description thereof will be omitted.

제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 있는지 판단하고(S201), 장애물이 없는 것으로 판단되면 영상 투사 영역에 영상을 투사한다(S203).The controller 170 determines whether there is an obstacle between the image projection apparatus 100 and the image projection area based on the sensed distance (S201), and if it is determined that there is no obstacle, projects the image on the image projection area (S203).

일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되는 영상 투사 영역까지의 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다. 그래서 제어부(170)는 판단된 물체의 위치에 따라 투사되는 영상의 일부 또는 전부가 영상이 투사되는 도어(410)에 도달하지 않고, 판단된 물체에 투사되는 영상의 일부 또는 전부가 투사되는 것을 판단할 수 있다. 이에 따라 제어부(170)는 투사되는 영상의 일부 또는 전부가 영상 투사 영역인 도어(410)에 도달하지 않는 상태를 판단할 수 있다.For example, the controller 170 may determine a state between the image projection apparatus 100 and the image projection area based on the sensed distance. For example, if the sensed distance is less than the distance to the image projection area on which the image is projected, the controller 170 may determine that there is an object between the door 410 and the image projection apparatus 100 . Therefore, the control unit 170 determines that part or all of the image projected on the determined object does not reach the door 410 on which the image is projected, and part or all of the image projected on the determined object is projected according to the determined position of the object. can do. Accordingly, the controller 170 may determine a state in which a part or all of the projected image does not reach the door 410 that is the image projection area.

예를 들면, 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다. For example, if the sensed distance is less than the first distance that is the distance to the door 410 on which the image was projected, the controller 170 determines that there is an object between the door 410 and the image projection apparatus 100 . can do.

제어부(170)는 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 없는 것으로 판단되면, 영상 투사 영역에 영상 투사부(180)를 통해 영상을 투사할 수 있다.When it is determined that there is no obstacle between the image projection apparatus 100 and the image projection area, the controller 170 may project an image to the image projection area through the image projection unit 180 .

예를 들면, 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역인 도어(410)에 영상을 투사할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.For example, the controller 170 may project an image on the door 410 that is an image projection area through the image projector 180 . Accordingly, the image screen 500 on which the image projected from the image projector 180 is displayed may be displayed on the door 410 of the case 400 .

한편, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 있는지 판단하고(S201), 장애물이 있는 것으로 판단되면 장애물이 인식되었음을 알리는 알람을 표시한다(S213). On the other hand, the control unit 170 determines whether there is an obstacle between the image projection apparatus 100 and the image projection area based on the sensed distance (S201), and if it is determined that there is an obstacle, displays an alarm indicating that the obstacle is recognized ( S213).

제어부(170)는 센싱부(105)에 포함된 거리 센서(106)를 통해 영상 투사 장치(100)와 영상 투사 영역 사이의 전부 또는 일부에 장애물이 있는지 판단할 수 있다.The controller 170 may determine whether there is an obstacle in all or a part of the image projection apparatus 100 and the image projection area through the distance sensor 106 included in the sensing unit 105 .

이에 대해 도 11을 참조하여 설명한다.This will be described with reference to FIG. 11 .

도 11은 본 발명의 일 실시 예에 따른 장애물 인식을 나타내기 위한 개념도이다.11 is a conceptual diagram illustrating obstacle recognition according to an embodiment of the present invention.

도 11을 참조하면, 거리 센서(106)는 영상 투사 영역에 대해 복수의 센서를 통해 거리를 센싱할 수 있고, 영상 투사 영역인 도어(410)와 영상 투사 장치(100) 사이의 장애물(600)을 센싱할 수 있다. 그리고 제어부(170)는 거리 센서(106)에 포함된 복수의 거리 센서(106a, 106b, 106c, 106d) 중 하나의 거리 센서(106a)가 센싱한 센싱값이 다른 거리 센서들(106a, 106b, 106c, 106d)이 센싱한 센싱값과 다르면, 도어(410)와 영상 투사 장치(100) 사이에 장애물(600)이 있는 것으로 판단할 수 있다.Referring to FIG. 11 , the distance sensor 106 may sense a distance with respect to the image projection area through a plurality of sensors, and an obstacle 600 between the door 410 which is the image projection area and the image projection apparatus 100 . can be sensed. In addition, the control unit 170 includes the distance sensors 106a, 106b, which have different sensing values sensed by one of the distance sensors 106a, 106b, 106c, and 106d included in the distance sensor 106. When the values 106c and 106d are different from the sensed values, it may be determined that there is an obstacle 600 between the door 410 and the image projection apparatus 100 .

제어부(170)는 영상 투사 영역과 영상 투사 장치(100) 사이에 장애물이 있는 것으로 판단하면, 투사되는 영상 화면(500)에 장애물이 있음을 알리는 알람을 표시할 수 있고, 오디오 출력부(185)를 통해 장애물이 있음을 알리는 알람을 출력할 수도 있다.If it is determined that there is an obstacle between the image projection area and the image projection apparatus 100 , the controller 170 may display an alarm notifying that there is an obstacle on the projected image screen 500 , and the audio output unit 185 . It is also possible to output an alarm indicating that there is an obstacle.

영상 투사 장치(100)의 제어부(170)는 인식된 장애물을 회피하여 영상을 영상 투사 영역에 투사한다(S215).The controller 170 of the image projection apparatus 100 projects the image onto the image projection area by avoiding the recognized obstacle (S215).

일 실시 예로, 제어부(170)는 인식된 장애물을 회피하여, 영상 투사 영역의 일부 영역에 영상을 투사할 수 있다. 또한, 제어부(170)는 인식된 장애물을 회피하여, 영상 투사 영역에 투사되는 영상의 크기를 조절할 수도 있다.As an embodiment, the controller 170 may project an image to a partial area of the image projection area by avoiding the recognized obstacle. Also, the controller 170 may adjust the size of the image projected on the image projection area by avoiding the recognized obstacle.

이에 대해 도 12를 참조하여 설명한다.This will be described with reference to FIG. 12 .

도 12는 본 발명의 일 실시 예에 따른 장애물을 회피하기 위한 영상 투사에 대한 예시도이다.12 is an exemplary diagram of image projection for avoiding an obstacle according to an embodiment of the present invention.

도 12를 참조하면, 제어부(170)는 인식된 장애물(600)에 투사되는 영상이 투사되지 않고, 영상 투사 영역인 도어(410)에 영상 전체가 투사되도록 투사되는 영상의 크기를 축소할 수 있다. 이에 따라 제어부(170)는 영상 투사부(180)를 통해 도어(410)에 투사되는 영상의 크기를 축소시킬 수 있다.Referring to FIG. 12 , the controller 170 may reduce the size of the projected image so that the image projected on the recognized obstacle 600 is not projected, and the entire image is projected on the door 410 that is the image projection area. . Accordingly, the controller 170 may reduce the size of the image projected on the door 410 through the image projector 180 .

다른 실시 예로, 제어부(170)는 인식된 장애물을 회피하여, 영상이 투사되던 영역이 아닌 다른 영역에 영상을 투사할 수도 있다.In another embodiment, the controller 170 may project the image to an area other than the area on which the image was projected by avoiding the recognized obstacle.

이에 대해 도 13을 참조하여 설명한다.This will be described with reference to FIG. 13 .

도 13은 본 발명의 일 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.13 is an exemplary diagram illustrating image projection for an adjacent door according to an embodiment of the present invention.

도 13을 참조하면, 제어부(170)는 인식된 장애물(600)로 인해 투사되는 영상의 전체 또는 일부가 투사되지 않는 도어(410)가 아닌 다른 영역인 인접 도어(420)에 영상을 투사할 수 있다. 구체적으로 제어부(170)는 영상 투사부(180)의 영상 투사 각도를 조절할 수 있고, 각도가 조절된 영상 투사부(180)를 통해 인접 도어(420)에 영상을 투사할 수 있다. 이에 따라 인접 도어(420)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.Referring to FIG. 13 , the controller 170 may project an image onto the adjacent door 420, which is an area other than the door 410 on which all or part of the projected image is not projected due to the recognized obstacle 600 . have. Specifically, the controller 170 may adjust the image projection angle of the image projection unit 180 , and may project the image on the adjacent door 420 through the image projection unit 180 whose angle is adjusted. Accordingly, the image screen 500 on which the image projected from the image projector 180 is displayed may be displayed on the adjacent door 420 .

다시 도 9를 참조한다.Reference is again made to FIG. 9 .

제어부(170)는 센싱된 거리를 기초로 영상 투사 영역에 표시되는 영상 화면(500)에 대한 사용자 입력이 인식되는지 판단하고(S205), 사용자 입력이 인식되면 인식된 사용자 입력에 대응하는 동작을 수행한다(S207).The controller 170 determines whether a user input to the image screen 500 displayed on the image projection area is recognized based on the sensed distance (S205), and when the user input is recognized, an operation corresponding to the recognized user input is performed do (S207).

예를 들면 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량을 기초로 영상이 투사되는 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 구체적으로 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식할 수 있다.For example, the controller 170 may determine the user input state for the image projection area onto which the image is projected based on the amount of change in the sensed value corresponding to the sensed distance. In more detail, the controller 170 may recognize a user input for a region in which a change amount of a sensed value corresponding to a sensed distance is equal to or greater than a reference amount.

이에 대해 도 14 및 도 15를 참조하여 설명한다.This will be described with reference to FIGS. 14 and 15 .

도 14는 본 발명의 일 실시 예에 따른 사용자 입력에 대한 센싱을 나타내는 예시도이다.14 is an exemplary diagram illustrating sensing of a user input according to an embodiment of the present invention.

도 14를 참조하면, 거리 센서(106)에 포함된 복수의 거리 센서(106a, 106b, 106c, 106c) 각각은 영상이 투사되는 영역인 도어(410)의 서로 다른 영역에 대해 센싱할 수 있다. 그리고 제어부(170)는 복수의 거리 센서(106a, 106b, 106c, 106c) 각각이 센싱한 센싱값의 변화량을 기초로 도어(410)에 포함된 제1 영역(411), 제2 영역(412), 제3 영역(413), 제4 영역(414), 제5 영역(415) 각각에 대한 사용자 입력을 인식할 수 있다. 구체적으로 제어부(170)는 제1 거리 센서(106a)에 대응하는 제1 영역(411), 제1 거리 센서(106a) 및 제2 거리 센서(106b)에 대응하는 제2 영역(412), 제2 거리 센서(106b) 및 제3 거리 센서(106c)에 대응하는 제3 영역(413), 제3 거리 센서(106c) 및 제4 거리 센서(106d)에 대응하는 제4 영역(414), 제4 거리 센서(106d)에 대응하는 제5 영역(415) 각각에 대한 사용자 입력을 인식할 수 있다. 여기서 사용자 입력은 도어(410)에 포함된 제1 영역(411), 제2 영역(412), 제3 영역(413), 제4 영역(414), 제5 영역(415) 각각에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다.Referring to FIG. 14 , each of the plurality of distance sensors 106a , 106b , 106c , and 106c included in the distance sensor 106 may sense a different area of the door 410 , which is an area on which an image is projected. In addition, the control unit 170 includes a first area 411 and a second area 412 included in the door 410 based on the amount of change in the sensed value sensed by each of the plurality of distance sensors 106a, 106b, 106c, and 106c. , a user input for each of the third area 413 , the fourth area 414 , and the fifth area 415 may be recognized. Specifically, the control unit 170 includes a first area 411 corresponding to the first distance sensor 106a, a second area 412 corresponding to the first distance sensor 106a and the second distance sensor 106b, and a second area 411 corresponding to the first distance sensor 106a. A third area 413 corresponding to the second distance sensor 106b and the third distance sensor 106c, a fourth area 414 corresponding to the third distance sensor 106c and the fourth distance sensor 106d, 4 A user input for each of the fifth regions 415 corresponding to the distance sensor 106d may be recognized. Here, the user input is performed by touching each of the first area 411 , the second area 412 , the third area 413 , the fourth area 414 , and the fifth area 415 included in the door 410 . The user input may include a user input that approaches the door 410 within a predetermined distance.

또한, 제어부(170)는 영상 투사 영역의 복수의 영역인 제1 내지 제5 영역(411, 412, 413, 414, 415)에 대응하는 기능을 나타내는 기능 UI(User Interface)를 영상 화면(500)에 표시할 수도 있다. 그리고 제어부(170)는 기능 UI에 대한 사용자 입력을 인식하고, 인식된 사용자 입력을 기초로 기능 UI에 대응하는 기능을 수행할 수 있다. 이에 대해 도 15를 참조하여 설명한다.In addition, the control unit 170 displays a function UI (User Interface) indicating a function corresponding to the first to fifth regions 411 , 412 , 413 , 414 , 415 which is a plurality of regions of the image projection region to the image screen 500 . can also be displayed in In addition, the controller 170 may recognize a user input for the functional UI, and perform a function corresponding to the functional UI based on the recognized user input. This will be described with reference to FIG. 15 .

도 15는 본 발명의 일 실시 예에 따른 기능 UI 표시 화면을 나타내는 예시도이다.15 is an exemplary diagram illustrating a functional UI display screen according to an embodiment of the present invention.

도 15를 참조하면, 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역인 도어(410)에 투사되는 영상에 사용자 입력을 인식하는 복수의 영역 각각에 대응하는 기능 UI를 표시할 수 있다. 예를 들면, 제어부(170)는 영상 투사부(180)를 통해 도어(410)에 투사되는 영상 화면(500)에 제1 영역(411)에 대응하는 제1 UI(510), 제2 영역(412)에 대응하는 제2 UI(520), 제3 영역(413)에 대응하는 제3 UI(530), 제4 영역에 대응하는 제4 UI(540), 제5 영역(415)에 대응하는 제5 UI(550)을 표시할 수 있다. 여기서 제1 UI(510)는 채널 업에 대응하고, 제2 UI(520)는 채널 다운에 대응할 수 있다. 제3 UI(530)는 볼륨 업에 대응하고, 제4 UI(540)는 볼륨 다운에 대응할 수 있다. 제5 UI(550)는 전원 오프에 대응할 수 있다. 그리고 제어부(170)는 제1 내지 제5 UI(510, 520, 530, 540, 550)에 대응하는 사용자 입력을 인식하면, 인식된 사용자 입력에 대응하는 동작을 수행할 수 있다.Referring to FIG. 15 , the controller 170 may display a function UI corresponding to each of a plurality of regions for recognizing a user input on an image projected to a door 410 that is an image projection region through the image projector 180 . have. For example, the control unit 170 may control the first UI 510 corresponding to the first area 411, the second area ( The second UI 520 corresponding to 412 , the third UI 530 corresponding to the third area 413 , the fourth UI 540 corresponding to the fourth area, and the fifth area 415 . A fifth UI 550 may be displayed. Here, the first UI 510 may correspond to a channel up, and the second UI 520 may correspond to a channel down. The third UI 530 may correspond to volume up, and the fourth UI 540 may correspond to volume down. The fifth UI 550 may correspond to power off. In addition, when recognizing a user input corresponding to the first to fifth UIs 510 , 520 , 530 , 540 , and 550 , the controller 170 may perform an operation corresponding to the recognized user input.

한편, 상술한 기능 UI 및 기능 동작 수행에 대한 설명은 설명을 위한 예시로 사용자 또는 설계자의 설정에 따라 다양한 기능에 대해 구현될 수 있다.On the other hand, the above-described functional UI and the description of the functional operation is an example for description, and may be implemented for various functions according to a setting of a user or a designer.

다시 도 9를 참조한다.Reference is again made to FIG. 9 .

제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영상 투사 영역인 도어의 도어 열림 여부를 판단하고(S209), 도어(410)가 열린 것으로 판단되면 영상 투사부(180)가 투사하는 영상을 조절한다(S211).The control unit 170 determines whether the door is open of the door, which is the image projection area on which the image is projected, based on the sensed distance (S209), and when it is determined that the door 410 is open, the image projected by the image projector 180 is adjusted (S211).

일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역인 케이스(400)의 도어(410)의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 이상이면, 도어(410)가 오픈된 것으로 판단할 수 있다. 이에 따라 제어부(170)는 도어(410)의 오픈 여부를 판단할 수 있다. As an example, the controller 170 may determine the state of the door 410 of the case 400, which is an area to which an image is projected, based on the sensed distance. For example, the controller 170 may determine that the door 410 is open when the sensed distance is greater than or equal to the first distance that is the distance to the door 410 on which the image is projected. Accordingly, the control unit 170 may determine whether the door 410 is open.

도 16을 참조하여 상세히 설명한다.It will be described in detail with reference to FIG. 16 .

도 16은 본 발명의 일 실시 예에 따른 도어 열림 인식에 대한 예시도이다.16 is an exemplary diagram of door open recognition according to an embodiment of the present invention.

도 16을 참조하면, 거리 센서(106)은 영상이 투사되는 영역에 대응하는 방향에 대해 거리를 센싱할 수 있다. 거리 센서(106)은 영상이 투사되던 도어(410)가 오픈되면, 센싱되던 거리값이 증가되는 것을 센싱할 수 있다. 이에 따라 제어부(170)는 센싱된 거리를 기초로 도어(410)의 오픈을 인식할 수 있다. Referring to FIG. 16 , the distance sensor 106 may sense a distance with respect to a direction corresponding to a region on which an image is projected. The distance sensor 106 may sense that the sensed distance value increases when the door 410 on which the image is projected is opened. Accordingly, the control unit 170 may recognize the opening of the door 410 based on the sensed distance.

제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 영상 투사부(180)가 투사하는 영상의 밝기를 낮출 수 있다. When the controller 170 recognizes that the door 410 on which the image was projected is open, the controller 170 may lower the brightness of the image projected by the image projector 180 .

또한, 제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 영상 투사부(180)가 영상 투사 동작을 중지하도록 할 수도 있다.Also, when the controller 170 recognizes that the door 410 on which the image was projected is opened, the controller 170 may cause the image projector 180 to stop the image projection operation.

또한, 제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 다른 영역에 영상을 투사할 수도 있다.In addition, when recognizing that the door 410 on which the image was projected is opened, the controller 170 may project the image to another area.

이에 대해 도 17을 참조하여 설명한다.This will be described with reference to FIG. 17 .

도 17은 본 발명의 다른 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.17 is an exemplary diagram illustrating image projection on an adjacent door according to another embodiment of the present invention.

도 17을 참조하면, 제어부(170)는 도어(410)의 오픈을 인식하면, 영상 투사부(180)가 다른 영역인 인접 도어(420)에 영상을 투사하도록 제어할 수 있다. 구체적으로 제어부(170)는 영상 투사부(180)의 영상 투사 각도를 조절할 수 있고, 각도가 조절된 영상 투사부(180)를 통해 인접 도어(420)에 영상을 투사할 수 있다. 이에 따라 인접 도어(420)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.Referring to FIG. 17 , upon recognizing that the door 410 is opened, the controller 170 may control the image projector 180 to project an image onto the adjacent door 420 , which is another area. Specifically, the controller 170 may adjust the image projection angle of the image projection unit 180 , and may project the image on the adjacent door 420 through the image projection unit 180 whose angle is adjusted. Accordingly, the image screen 500 on which the image projected from the image projector 180 is displayed may be displayed on the adjacent door 420 .

한편, 제어부(170)는 상술한 자석형 센서, 스위치형 센서 등으로부터 영상이 투사되는 영역의 움직임에 대한 정보를 획득하고, 획득된 정보를 기초로 투사되는 영상의 밝기를 조절하거나, 영상 투사 동작을 중지하도록 할 수도 있다. 또한, 제어부(170)는 획득된 정보를 기초로 투사되는 영상을 다른 영역에 투사할 수도 있다.On the other hand, the control unit 170 obtains information on the movement of the image projected area from the above-described magnetic sensor, switch type sensor, etc., adjusts the brightness of the projected image based on the obtained information, or performs an image projection operation may be made to stop. Also, the controller 170 may project the projected image to another area based on the obtained information.

이와 같이 본 발명에 따른 영상 투사 장치(100)는 영상이 투사되던 도어(410)가 오픈되면 다른 영역에 영상을 투사할 수 있다.As described above, the image projection apparatus 100 according to the present invention may project an image to another area when the door 410 on which the image was projected is opened.

한편, 상술한 도어 오픈에 따른 영상 조절에 대한 설명은 설명을 위한 예시로 사용자 또는 설계자의 설정에 따라 다양한 방식 및 다양한 영역에 대해 투사되는 영상을 조절할 수 있다.On the other hand, the description of the image adjustment according to the door opening described above is an example for explanation, and the image projected for various methods and various areas may be adjusted according to a setting of a user or a designer.

본 발명의 영상 투사 장치(100)는 다양한 거리에 영상을 투사할 수 있고, 영상이 투사되는 지점까지의 거리에 따라 다양한 크기의 영상 화면을 표시할 수 있다.The image projection apparatus 100 of the present invention may project an image at various distances, and may display image screens of various sizes according to the distance to the point where the image is projected.

예를 들면, 영상 투사 장치(100)는 케이스(400)의 도어(410)보다 더 먼 거리인 영역에 영상을 투사하여, 도어(410)에 투사되던 영상 화면(500)보다 더 큰 영상 화면을 표시할 수 있다.For example, the image projection apparatus 100 projects an image to an area that is a greater distance than the door 410 of the case 400 to display a larger image screen than the image screen 500 that was projected on the door 410 . can be displayed

이에 대해 도 18 내지 도 20을 참조하여 설명한다.This will be described with reference to FIGS. 18 to 20 .

도 18은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다. 18 is a conceptual diagram of image projection according to another embodiment of the present invention.

도 18을 참조하면, 영상 투사 장치(100)는 케이스(400)의 도어(410)보다 원거리에 있는 벽면(700)에 영상을 투사할 수 있다. 일 실시 예로, 제어부(170)는 도어(410)가 오픈된 것으로 인식되면, 원거리에 있는 벽면(700)에 영상이 투사되도록 영상 투사부(180)의 영상 투사 동작을 제어할 수 있다. 구체적으로 거리 센서(106)은 벽면(700)까지의 거리를 센싱할 수 있다. 제어부(170)는 센싱된 거리를 기초로, 영상 투사부(180)가 투사하는 영상의 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 조절할 수 있다. 영상 투사부(180)는 조절된 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 기초로 영상을 벽면(700)에 투사할 수 있다. 이에 따라 영상 투사 장치(100)는 도어(410)보다 원거리에 있는 벽면(700)에 최적의 영상을 투사할 수 있다.Referring to FIG. 18 , the image projection apparatus 100 may project an image on a wall surface 700 that is farther than the door 410 of the case 400 . As an example, when it is recognized that the door 410 is opened, the controller 170 may control the image projection operation of the image projector 180 to project the image on the wall 700 at a distance. Specifically, the distance sensor 106 may sense the distance to the wall surface 700 . The controller 170 may adjust one or more of focus, resolution, size, brightness, color, and contrast of the image projected by the image projector 180 based on the sensed distance. The image projector 180 may project an image on the wall 700 based on one or more of the adjusted focus, resolution, size, brightness, color, and contrast. Accordingly, the image projection apparatus 100 may project an optimal image on the wall surface 700 that is farther than the door 410 .

한편, 도어(410)는 복수의 패널로 구성될 수 있다. 예를 들면, 도어(410)는 스크린 패널(412) 및 투과 패널(415)을 포함할 수 있다. 그리고 도어(410)의 스크린 패널(412) 및 투과 패널(415)은 슬라이딩 또는 착탈 방식을 통해 도어(410)에서 분리될 수 있다. 이에 따라 도어(410)의 스크린 패널(412), 투과 패널(415)의 슬라이딩 또는 착탈에 따라 영상 투사 장치(100)에서 투사되는 영상이 투사되는 영역을 조절할 수 있다.Meanwhile, the door 410 may include a plurality of panels. For example, the door 410 may include a screen panel 412 and a transmissive panel 415 . In addition, the screen panel 412 and the transmission panel 415 of the door 410 may be separated from the door 410 through a sliding or detachable method. Accordingly, according to sliding or detachment of the screen panel 412 and the transmission panel 415 of the door 410 , the area on which the image projected from the image projection apparatus 100 is projected may be adjusted.

이에 대해 도 19 및 도 20을 참조하여 자세히 설명한다.This will be described in detail with reference to FIGS. 19 and 20 .

도 19는 본 발명의 일 실시 예에 따른 도어에 대한 영상 투사를 나타내는 예시도이다.19 is an exemplary diagram illustrating image projection on a door according to an embodiment of the present invention.

도 19를 참조하면, 도어(410)는 스크린 패널(412) 및 투과 패널(415)을 포함할 수 있다. 이에 따라 영상 투사 장치(100)에서 투사되는 영상은 도어(410)를 통과하지 못하고, 도어(410)에 투사될 수 있다. 이에 따라 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.Referring to FIG. 19 , the door 410 may include a screen panel 412 and a transmission panel 415 . Accordingly, the image projected from the image projection apparatus 100 may not pass through the door 410 , but may be projected on the door 410 . Accordingly, the image screen 500 on which the image projected from the image projector 180 is displayed may be displayed on the door 410 .

도 20은 본 발명의 일 실시 예에 따른 벽면에 대한 영상 투사를 나타내는 예시도이다.20 is an exemplary diagram illustrating image projection on a wall according to an embodiment of the present invention.

도 20을 참조하면, 도어(410)는 스크린 패널(412)이 분리될 수 있고, 투과 패널(415)를 포함할 수 있다. 이에 따라 영상 투사 장치(100)에서 투사되는 영상은 도어(410)를 통과할 수 있다. 이에 따라 벽면(700)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.Referring to FIG. 20 , the door 410 may include a screen panel 412 and a transparent panel 415 . Accordingly, the image projected from the image projection apparatus 100 may pass through the door 410 . Accordingly, an image screen 500 on which an image projected from the image projector 180 is displayed may be displayed on the wall surface 700 .

한편, 도어(410)는 전기적으로 투명도가 조절 가능한 구조일 수 있다. 예를 들면 도어(410)는 일렉트로크로미즘(Electrochromism)을 나타내는 재료를 포함할 수 있어서, 사용자는 도어(410)의 투명도를 전기적으로 조절할 수 있다. 이에 따라, 영상 투사 장치(100)는 도어(410)의 투명도 조절에 따라 도어(410) 또는 벽면(700)에 영상을 투사할 수도 있다.On the other hand, the door 410 may be electrically adjustable in transparency. For example, the door 410 may include a material exhibiting electrochromism, so that the user can electrically control the transparency of the door 410 . Accordingly, the image projection apparatus 100 may project an image on the door 410 or the wall 700 according to the transparency adjustment of the door 410 .

한편, 본 발명에 따른 영상 투사 장치(100)의 제어부(170)는 오디오 출력 장치(300)를 제어할 수 있다. 예를 들면 영상 투사 장치(100)의 제어부(170)는 투사되는 영상에 대응하는 오디오가 오디오 출력 장치(300)에 출력되도록 제어할 수 있다. 또한, 영상 투사 장치(100)의 제어부(170)는 오디오 출력 장치(300)에 포함된 조명부(350)의 조명 동작을 제어할 수도 있다.Meanwhile, the controller 170 of the image projection apparatus 100 according to the present invention may control the audio output apparatus 300 . For example, the controller 170 of the image projection apparatus 100 may control the audio corresponding to the projected image to be output to the audio output apparatus 300 . Also, the controller 170 of the image projection apparatus 100 may control the lighting operation of the lighting unit 350 included in the audio output apparatus 300 .

이에 대해 도 21 및 도 22를 참조하여 자세히 설명한다.This will be described in detail with reference to FIGS. 21 and 22 .

도 21은 본 발명의 일 실시 예에 따른 오디오 출력 장치(300)의 실제 구성 예를 보여준다.21 shows an example of an actual configuration of an audio output device 300 according to an embodiment of the present invention.

도 21을 참조하면, 오디오 출력 장치(300)는 사용자 입력을 획득하는 조작부(310), 오디오를 출력하는 스피커부(330)를 포함할 수 있다.Referring to FIG. 21 , the audio output apparatus 300 may include a manipulation unit 310 for obtaining a user input and a speaker unit 330 for outputting audio.

영상 투사 장치(100)의 제어부(170)는 투사되는 영상에 대응하는 오디오를 오디오 출력 장치(300)의 스피커부(330)로 출력할 수 있다.The controller 170 of the image projection apparatus 100 may output audio corresponding to the projected image to the speaker unit 330 of the audio output apparatus 300 .

오디오 출력 장치(300)는 조작부(310)에 대한 사용자 입력을 획득하고, 획득된 사용자 입력을 영상 투사 장치(100)에 전달할 수 있다. 그리고 영상 투사 장치(100)의 제어부(170)는 전달된 사용자 입력에 대응하는 동작을 수행할 수 있다.The audio output apparatus 300 may obtain a user input for the manipulation unit 310 and transmit the obtained user input to the image projection apparatus 100 . In addition, the controller 170 of the image projection apparatus 100 may perform an operation corresponding to the transmitted user input.

한편, 오디오 출력 장치(300)는 영상 투사 장치(100)가 구비된 케이스(400)의 일면 또는 일측면에 구비될 수 있다. Meanwhile, the audio output device 300 may be provided on one side or one side of the case 400 provided with the image projection device 100 .

또한 오디오 출력 장치(300)는 발광하는 조명부(350)을 더 포함할 수 있다.Also, the audio output device 300 may further include a lighting unit 350 that emits light.

조명부(350)는 특정 방향으로 빛을 발광할 수 있다. 예를 들면, 조명부(350)는 오디오 출력 장치(300)가 구비된 케이스(400)의 하측 방향으로 빛을 발광할 수 있다. 이에 대해 도 22를 참조하여 설명한다.The lighting unit 350 may emit light in a specific direction. For example, the lighting unit 350 may emit light in a downward direction of the case 400 in which the audio output device 300 is provided. This will be described with reference to FIG. 22 .

도 22는 본 발명의 일 실시 예에 따른 오디오 출력 장치(300)를 나타내는 예시도이다.22 is an exemplary diagram illustrating an audio output device 300 according to an embodiment of the present invention.

도 22를 참조하면, 오디오 출력 장치(300)는 케이스(400)의 하단에 구비될 수 있다. 그리고 오디오 출력 장치(300)는 조작부(310)에 대한 사용자 입력 또는 영상 투사 장치(100)의 제어부(170)의 제어에 의해 조명부(350)가 발광할 수 있다.Referring to FIG. 22 , the audio output device 300 may be provided at the lower end of the case 400 . In addition, in the audio output device 300 , the lighting unit 350 may emit light according to a user input to the manipulation unit 310 or control of the control unit 170 of the image projection apparatus 100 .

일 실시 예로, 케이스(400)가 주방에 설치된 수납장인 경우, 오디오 출력 장치(300)는 수납장의 하단 또는 일 측면에 구비될 수 있고, 오디오 출력 장치(300)에 포함된 조명부(350)는 수납장의 하측 방향으로 빛을 발광할 수 있다. 이에 따라 조명부(350)는 일반적인 조명, 스탠드 조명 등과 같은 기능을 수행할 수 있다.For example, when the case 400 is a cabinet installed in a kitchen, the audio output device 300 may be provided at the bottom or one side of the cabinet, and the lighting unit 350 included in the audio output device 300 is a cabinet. Light can be emitted in the downward direction of Accordingly, the lighting unit 350 may perform functions such as general lighting and stand lighting.

한편, 조명부(350)는 하나 이상의 색상으로 발광할 수 있고, 다양한 발광 패턴으로 발광할 수도 있다.Meanwhile, the lighting unit 350 may emit light in one or more colors and may emit light in various light emission patterns.

조명부(350)는 알람 상황 시에 발광할 수 있다.The lighting unit 350 may emit light in an alarm situation.

여기서 알람 상황은 사용자가 설정한 일정, 재난 상황, 연동된 단말기(미도시)로부터 획득한 알람, 연동된 홈 네트워크로부터 획득한 알람 중 하나 이상을 의미할 수 있다.Here, the alarm situation may mean one or more of a schedule set by a user, a disaster situation, an alarm acquired from an interlocked terminal (not shown), and an alarm acquired from an interlocked home network.

일 실시 예로, 영상 투사 장치(100)의 제어부(170)는 화재, 지진 등과 같은 재난 시에 오디오 출력 장치(300)의 조명부(350)가 발광하도록 제어할 수 있다. 이 때 제어부(170)는 재난 종류에 따라 다양한 색상, 다양한 발광 패턴으로 조명부(350)가 발광하도록 제어할 수 있다.In an embodiment, the controller 170 of the image projection apparatus 100 may control the lighting unit 350 of the audio output apparatus 300 to emit light in the event of a disaster such as a fire or an earthquake. At this time, the controller 170 may control the lighting unit 350 to emit light in various colors and various light emission patterns according to the type of disaster.

다른 실시 예로, 제어부(170)는 연동된 단말기(미도시)로부터 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 획득된 알람 정보에 대응하여 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 연동된 단말기(미도시)로부터 전화 수신, 메시지 수신 등에 대한 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 전화 수신, 메시지 수신 등을 알리는 발광 동작을 하도록 제어할 수 있다. 한편, 상술한 단말기는 개인용 단말기, 가정용 단말기, 사무용 단말기 등 다양한 단말기를 포함할 수 있다.In another embodiment, the controller 170 may obtain alarm information from an interlocked terminal (not shown), and control the lighting unit 350 of the audio output device 300 to emit light in response to the acquired alarm information. For example, the control unit 170 obtains alarm information for a call reception, a message reception, etc. from an interlocked terminal (not shown), and the lighting unit 350 of the audio output device 300 notifies the reception of a phone call, a message reception, etc. It can be controlled to emit light. Meanwhile, the aforementioned terminal may include various terminals such as a personal terminal, a home terminal, and an office terminal.

또 다른 실시 예로, 제어부(170)는 연동된 홈 네트워크로부터 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 획득된 알람 정보에 대응하여 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 연동된 홈 네트워크로부터 방문자 알림 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 방문자 있음을 알리는 발광 동작을 하도록 제어할 수 있다. In another embodiment, the controller 170 may obtain alarm information from an interlocked home network, and control the lighting unit 350 of the audio output device 300 to emit light in response to the acquired alarm information. For example, the controller 170 may obtain visitor notification information from an interlocked home network, and control the lighting unit 350 of the audio output device 300 to perform a light-emitting operation to notify the presence of a visitor.

또한, 제어부(170)는 다양한 알람에 대응하여 조명부(350)가 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 영상 투사 장치(100)가 구비된 영역 또는 다른 영역에 움직임이 감지되면 조명부(350)가 발광하도록 제어할 수도 있다.Also, the controller 170 may control the lighting unit 350 to emit light in response to various alarms. For example, the controller 170 may control the lighting unit 350 to emit light when motion is sensed in the area where the image projection apparatus 100 is provided or in another area.

이에 따라 본 발명의 영상 투사 장치(100), 오디오 출력 장치(300)는 다양한 환경에서도 조명부(350)를 통해 알람 정보를 제공할 수 있다.Accordingly, the image projection apparatus 100 and the audio output apparatus 300 of the present invention may provide alarm information through the lighting unit 350 in various environments.

이와 같이 오디오 출력 장치(300)의 조명부(350)는 다양한 알람 상황에 대한 알람 정보를 발광 동작으로 사용자에 알릴 수 있다. 그래서 사용자는 소음 등으로 인해 알람 정보를 인지하기 어려운 경우에도 조명부(350)의 발광 동작을 통해 알람 정보를 인지할 수 있다. 또한, 사용자는 원거리에 있는 단말기에 대한 알람을 용이하게 인지할 수 있다.As described above, the lighting unit 350 of the audio output device 300 may notify the user of alarm information for various alarm situations through a light-emitting operation. Therefore, the user can recognize the alarm information through the light-emitting operation of the lighting unit 350 even when it is difficult to recognize the alarm information due to noise or the like. In addition, the user can easily recognize the alarm for the remote terminal.

한편, 상술한 오디오 출력 장치(300)의 동작에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 다양한 동작이 설정될 수 있다.
Meanwhile, the description of the operation of the audio output device 300 described above is an example for description and is not limited thereto. Accordingly, various operations may be set according to a user's or designer's selection.

본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to an embodiment of the present invention, the above-described method can be implemented as processor-readable code on a medium in which a program is recorded. Examples of the processor-readable medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., and may be implemented in the form of a carrier wave (eg, transmission over the Internet). include

상기와 같이 설명된 영상 투사 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.In the image projection apparatus described above, the configuration and method of the above-described embodiments are not limitedly applicable, but all or part of each embodiment is selectively combined so that various modifications can be made. it might be

Claims (12)

영상 투사 장치의 동작 방법에 있어서,
영상이 투사되는 영상 투사 영역에 대한 적어도 하나의 거리를 센싱하는 단계-상기 영상 투사 영역은 스크린을 포함하고, 상기 적어도 하나의 거리는 상기 스크린에 대한 제1 거리를 포함함-;
상기 센싱된 적어도 하나의 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하는 단계; 및
상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하는 단계를 포함하고,
상기 영상을 투사하는 단계는,
상기 영상 투사 상태의 변경에 따라 변경된 상기 영상 투사 영역에 대해 센싱된 제2 거리가 상기 제1 거리보다 큰 경우, 상기 변경된 투사되는 영상을 조절하는 단계를 포함하는
영상 투사 장치의 동작 방법.
In the operating method of the image projection device,
sensing at least one distance to an image projection area onto which an image is projected, wherein the image projection area includes a screen, and wherein the at least one distance includes a first distance to the screen;
determining an image projection state including a state of at least one of the image projection area and a space between the image projection apparatus and the image projection area based on the sensed at least one distance; and
Projecting an image to the image projection area based on the determined image projection state,
Projecting the image includes:
When a second distance sensed with respect to the image projection area changed according to the change of the image projection state is greater than the first distance, adjusting the changed projected image
How an image projection device works.
제1항에 있어서,
상기 영상 투사 영역에 대한 적어도 하나의 거리를 센싱하는 단계는
상기 영상 투사 영역에 포함된 복수의 영역에 대한 거리를 각각 센싱하는 단계를 포함하고,
상기 영상 투사 상태를 판단하는 단계는
상기 복수의 영역 각각에 대해 센싱된 거리의 변화량을 기초로 상기 영상 투사 영역에 투사되는 영상 화면에 대한 사용자 입력을 인식하는 단계를 포함하고,
상기 영상 투사 영역에 영상을 투사하는 단계는
상기 인식된 사용자 입력에 대응하는 동작을 수행하는 단계를 포함하는
영상 투사 장치의 동작 방법.
According to claim 1,
The step of sensing at least one distance to the image projection area includes:
Sensing each distance to a plurality of regions included in the image projection region,
The step of determining the image projection state
Recognizing a user input to the image screen projected on the image projection region based on the amount of change in the sensed distance for each of the plurality of regions,
Projecting an image to the image projection area includes:
performing an operation corresponding to the recognized user input;
How an image projection device works.
제2항에 있어서,
상기 영상 화면에 대한 사용자 입력을 인식하는 단계는
상기 복수의 영역 중 상기 센싱된 거리의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식하는 단계를 포함하고,
상기 인식된 사용자 입력에 대응하는 동작을 수행하는 단계는
상기 변화량이 기준량 이상인 영역에 대응하는 동작을 수행하는 단계를 포함하는
영상 투사 장치의 동작 방법.
3. The method of claim 2,
The step of recognizing a user input to the video screen is
Recognizing a user input for an area in which the change amount of the sensed distance is greater than or equal to a reference amount among the plurality of areas;
The step of performing an operation corresponding to the recognized user input includes:
performing an operation corresponding to a region in which the change amount is greater than or equal to a reference amount
How an image projection device works.
제1항에 있어서,
상기 투사되는 영상을 조절하는 단계는
상기 영상 투사 상태의 변경에 대응하여, 상기 투사되는 영상의 밝기를 조절하는 단계를 포함하는
영상 투사 장치의 동작 방법.
According to claim 1,
The step of adjusting the projected image is
In response to the change of the image projection state, comprising the step of adjusting the brightness of the projected image
How an image projection device works.
제1항에 있어서,
상기 투사되는 영상을 조절하는 단계는
상기 영상 투사 상태의 변경에 대응하여, 상기 투사되는 영상을 상기 영상 투사 영역이 아닌 다른 영역에 투사하는 단계를 포함하는
영상 투사 장치의 동작 방법.
According to claim 1,
The step of adjusting the projected image is
In response to the change of the image projection state, comprising the step of projecting the projected image to an area other than the image projection area
How an image projection device works.
제1항에 있어서,
상기 영상 투사 상태를 판단하는 단계는
상기 센싱된 적어도 하나의 거리를 기초로 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간의 장애물을 인식하는 단계를 포함하고,
상기 투사되는 영상을 조절하는 단계는
상기 인식된 장애물에 대응하여, 상기 투사되는 영상의 투사 방향 또는 투사되는 영상의 크기 중 하나 이상을 조절하는 단계를 포함하는
영상 투사 장치의 동작 방법.
According to claim 1,
The step of determining the image projection state
Recognizing an obstacle in a space between the image projection device and the image projection area based on the sensed at least one distance,
The step of adjusting the projected image is
In response to the recognized obstacle, comprising the step of adjusting one or more of the projection direction of the projected image or the size of the projected image
How an image projection device works.
영상 투사 장치에 있어서,
영상을 투사하는 영상 투사부;
상기 영상이 투사되는 영상 투사 영역에 대한 적어도 하나의 거리를 센싱하는 센싱부-상기 영상 투사 영역은 스크린을 포함하고, 상기 적어도 하나의 거리는 상기 스크린에 대한 제1 거리를 포함함-; 및
상기 센싱된 적어도 하나의 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하고, 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하도록 제어하는 제어부를 포함하고,
상기 제어부는,
상기 영상 투사 상태의 변경에 따라 변경된 상기 영상 투사 영역에 대해 센싱된 제2 거리가 상기 제1 거리보다 큰 경우, 상기 변경된 투사되는 영상을 조절하는
영상 투사 장치.
In the image projection device,
an image projection unit for projecting an image;
a sensing unit sensing at least one distance to an image projection area on which the image is projected, wherein the image projection area includes a screen, and the at least one distance includes a first distance to the screen; and
Determine an image projection state including a state of at least one of the image projection region, the space between the image projection apparatus and the image projection region based on the sensed at least one distance, and determine the determined image projection state Includes a control unit for controlling to project the image to the image projection area based on,
The control unit is
When the second distance sensed with respect to the image projection area changed according to the change of the image projection state is greater than the first distance, adjusting the changed projected image
image projection device.
제7항에 있어서,
상기 센싱부는
상기 영상 투사 영역에 포함된 복수의 영역에 대한 거리를 각각 센싱하고,
상기 제어부는
상기 복수의 영역 각각에 대해 센싱된 거리의 변화량을 기초로 상기 영상 투사 영역에 투사되는 영상 화면에 대한 사용자 입력을 인식하고, 상기 인식된 사용자 입력에 대응하는 동작을 수행하는
영상 투사 장치.
8. The method of claim 7,
The sensing unit
sensing distances to a plurality of regions included in the image projection region, respectively;
the control unit
Recognizing a user input to the image screen projected to the image projection area based on the change amount of the distance sensed for each of the plurality of areas, and performing an operation corresponding to the recognized user input
image projection device.
제8항에 있어서,
상기 제어부는
상기 복수의 영역 중 상기 센싱된 거리의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식하고,
상기 변화량이 기준량 이상인 영역에 대응하는 동작을 수행하는
영상 투사 장치.
9. The method of claim 8,
the control unit
Recognizing a user input for an area in which the change amount of the sensed distance is greater than or equal to a reference amount among the plurality of areas,
performing an operation corresponding to an area in which the change amount is greater than or equal to a reference amount
image projection device.
제7항에 있어서,
상기 제어부는
상기 영상 투사 상태의 변경에 대응하여, 상기 투사되는 영상의 밝기를 조절함으로써 상기 투사되는 영상을 조절하는
영상 투사 장치.
8. The method of claim 7,
the control unit
In response to a change in the image projection state, adjusting the projected image by adjusting the brightness of the projected image
image projection device.
제7항에 있어서,
상기 제어부는
상기 영상 투사 상태의 변경에 대응하여, 상기 투사되는 영상을 상기 영상 투사 영역이 아닌 다른 영역에 투사함으로써 상기 투사되는 영상을 조절하는
영상 투사 장치.
8. The method of claim 7,
the control unit
adjusting the projected image by projecting the projected image to an area other than the image projection area in response to a change in the image projection state
image projection device.
제7항에 있어서,
상기 제어부는
상기 센싱된 적어도 하나의 거리를 기초로 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간의 장애물을 인식하고,
상기 인식된 장애물에 대응하여, 상기 투사되는 영상의 투사 방향 또는 투사되는 영상의 크기 중 하나 이상을 조절함으로써 상기 투사되는 영상을 조절하는
영상 투사 장치.
8. The method of claim 7,
the control unit
Recognizing an obstacle in a space between the image projection device and the image projection area based on the sensed at least one distance,
In response to the recognized obstacle, adjusting the projected image by adjusting one or more of a projection direction of the projected image or a size of the projected image
image projection device.
KR1020150017547A 2015-02-04 2015-02-04 Video projector and operating method thereof KR102333931B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150017547A KR102333931B1 (en) 2015-02-04 2015-02-04 Video projector and operating method thereof
PCT/KR2015/008366 WO2016125966A1 (en) 2015-02-04 2015-08-10 Image projection apparatus and operation method thereof
US15/549,131 US10310676B2 (en) 2015-02-04 2015-08-10 Image projection apparatus and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150017547A KR102333931B1 (en) 2015-02-04 2015-02-04 Video projector and operating method thereof

Publications (2)

Publication Number Publication Date
KR20160095923A KR20160095923A (en) 2016-08-12
KR102333931B1 true KR102333931B1 (en) 2021-12-02

Family

ID=56714861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150017547A KR102333931B1 (en) 2015-02-04 2015-02-04 Video projector and operating method thereof

Country Status (1)

Country Link
KR (1) KR102333931B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071579A1 (en) * 2022-09-29 2024-04-04 삼성전자 주식회사 Projection device and method for operating same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020034765A (en) 2018-08-30 2020-03-05 ソニー株式会社 Information processor, method for processing information, and program
CN114460881A (en) * 2022-02-11 2022-05-10 广东好太太智能家居有限公司 Clothes airing equipment control device and method and clothes airing equipment
KR20240015494A (en) * 2022-07-27 2024-02-05 삼성전자주식회사 Electronic apparatus for projecting an image and controlling method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014138257A (en) * 2013-01-16 2014-07-28 Ricoh Co Ltd Image projection device, image projection system, control method and program
JP2014163954A (en) * 2013-02-21 2014-09-08 Seiko Epson Corp Projector and method for controlling the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014138257A (en) * 2013-01-16 2014-07-28 Ricoh Co Ltd Image projection device, image projection system, control method and program
JP2014163954A (en) * 2013-02-21 2014-09-08 Seiko Epson Corp Projector and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071579A1 (en) * 2022-09-29 2024-04-04 삼성전자 주식회사 Projection device and method for operating same

Also Published As

Publication number Publication date
KR20160095923A (en) 2016-08-12

Similar Documents

Publication Publication Date Title
KR102138533B1 (en) Apparatus and method of providing user interface on head mounted display and head mounted display threrof
KR101541561B1 (en) User interface device, user interface method, and recording medium
AU2014358019B2 (en) Method of displaying pointing information and device for performing the method
CN107102804B (en) Control device, control method, and recording medium
TW201635092A (en) Display device, electronic device, hand-wearing device and control system
KR102333931B1 (en) Video projector and operating method thereof
CN111052063B (en) Electronic device and control method thereof
JP6242535B2 (en) Method for obtaining gesture area definition data for a control system based on user input
US20170083268A1 (en) Mobile terminal and method of controlling the same
US20160070410A1 (en) Display apparatus, electronic apparatus, hand-wearing apparatus and control system
KR102271184B1 (en) Video projector and operating method thereof
WO2020010577A1 (en) Micro projector having ai interaction function and projection method therefor
KR102004991B1 (en) Image processing method and apparatus tereof
KR20150104711A (en) Video display device and operating method thereof
US10310676B2 (en) Image projection apparatus and operation method thereof
CN112041803A (en) Electronic device and operation method thereof
US10506290B2 (en) Image information projection device and projection device control method
KR102360628B1 (en) Video projector and operating method thereof
RU2673464C1 (en) Method for recognition and control of household appliances via mobile phone and mobile phone for its implementation
KR20160019741A (en) Mirror display device and operating method thereof
CN111033606A (en) Information processing apparatus, information processing method, and program
WO2022009338A1 (en) Information processing terminal, remote control method, and program
KR102404452B1 (en) Method for setting angle of view in electronic board system based on infrared light, terminal device and electronic board system based on infrared light thereof
KR102225399B1 (en) Image processing method and apparatus tereof
KR20200092158A (en) Electronic apparatus and control method of the electronic apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant