KR102102760B1 - Display apparatus for rear projection-type capable of detecting touch input and gesture input - Google Patents
Display apparatus for rear projection-type capable of detecting touch input and gesture input Download PDFInfo
- Publication number
- KR102102760B1 KR102102760B1 KR1020130083758A KR20130083758A KR102102760B1 KR 102102760 B1 KR102102760 B1 KR 102102760B1 KR 1020130083758 A KR1020130083758 A KR 1020130083758A KR 20130083758 A KR20130083758 A KR 20130083758A KR 102102760 B1 KR102102760 B1 KR 102102760B1
- Authority
- KR
- South Korea
- Prior art keywords
- light
- screen
- output
- during
- frame period
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/10—Projectors with built-in or built-on screen
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/54—Accessories
- G03B21/56—Projection screens
- G03B21/60—Projection screens characterised by the nature of the surface
- G03B21/62—Translucent screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3129—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/20—Lamp housings
- G03B21/2006—Lamp housings characterised by the light source
- G03B21/2033—LED or laser light sources
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B33/00—Colour photography, other than mere exposure or projection of a colour film
- G03B33/04—Colour photography, other than mere exposure or projection of a colour film by four or more separation records
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0686—Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Position Input By Displaying (AREA)
- Projection Apparatus (AREA)
- Mechanical Optical Scanning Systems (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
본 발명은 디스플레이 장치에 관한 것이다. 본 발명의 실시예에 따른 디스플레이 장치는, 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안, 제2 투명도를 가지는 스크린과, 외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부와, 외부 대상물로부터의 수신광을 수신하는 광 검출부와, 출력광 및 수신광에 기초하여, 제1 프레임 구간 동안, 터치 입력을 처리하고, 제2 프레임 구간 동안, 제스쳐 입력을 처리하는 프로세서를 포함한다. 이에 의해, 터치 입력 및 제스쳐 입력 감지가 가능하게 된다. The present invention relates to a display device. A display device according to an exemplary embodiment of the present invention includes a screen having a first transparency during a first frame period, a second transparency during a second frame period, and a light source unit outputting output light for detecting a distance of an external object And a processor for processing a touch input during a first frame section and processing a gesture input during a second frame section based on the output light and the received light, and a light detector for receiving light received from an external object. do. Accordingly, touch input and gesture input detection can be performed.
Description
본 발명은 디스플레이 장치에 관한 것이며, 더욱 상세하게는 터치 입력 및 제스쳐 입력 감지가 가능한 후면 투사 방식의 디스플레이 장치에 관한 것이다.The present invention relates to a display device, and more particularly, to a rear projection type display device capable of sensing touch input and gesture input.
디스플레이 장치는 영상을 표시하는 장치이다. 한편, 디스플레이 장치 중 프로젝터는 영상을 스크린에 투사하는 장치이다. The display device is a device that displays an image. Meanwhile, among the display devices, a projector is a device that projects an image onto a screen.
한편, 스크린으로의 투사 영상을 표시하면서, 사용자에 의한 터치 입력이나 제스쳐 입력 등에 의한, 사용자 인터렉션(interaction) 요구가 증대되고 있다.On the other hand, while displaying a projected image on a screen, a user interaction request by a touch input or a gesture input by a user is increasing.
이에 대해, 전면 투사 방식의 경우, 제스쳐 입력 감지 방안이 제시되고 있고, 후면 투사 방식의 경우, 터치 입력 감지 방안이 제시되고 있다.On the other hand, in the case of the front projection method, a gesture input detection method is proposed, and in the case of the rear projection method, a touch input detection method is proposed.
그러나, 터치 입력과 제스쳐 입력을 동시에 감지하는 데에는 일정한 제약이 발생하고 있다. However, there are certain limitations in simultaneously detecting touch input and gesture input.
본 발명의 목적은, 터치 입력 및 제스쳐 입력 감지가 가능한 후면 투사 방식의 디스플레이 장치를 제공함에 있다.An object of the present invention is to provide a rear projection type display device capable of sensing touch input and gesture input.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 디스플레이 장치는, 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안, 제2 투명도를 가지는 스크린과, 외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부와, 외부 대상물로부터의 수신광을 수신하는 광 검출부와, 출력광 및 수신광에 기초하여, 제1 프레임 구간 동안, 터치 입력을 처리하고, 제2 프레임 구간 동안, 제스쳐 입력을 처리하는 프로세서를 포함한다.A display device according to an embodiment of the present invention for achieving the above object, during a first frame section, having a first transparency, during a second frame section, a screen having a second transparency, and for detecting the distance of an external object A light source unit for outputting light, a light detection unit for receiving light received from an external object, and a touch input process during a first frame period, a gesture input during a second frame period, based on the output light and the received light It includes a processor to process.
또한, 상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 디스플레이 장치는, 제1 영역이 제1 투명도를 가지며, 제2 영역이 제2 투명도를 가지는 스크린과, 외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부와, 외부 대상물로부터의 수신광을 수신하는 광검출부와, 출력광 및 수신광에 기초하여, 스크린 상의 제1 영역에서의 터치 입력을 처리하고, 스크린 상의 제2 영역에서의 제스쳐 입력을 처리하는 프로세서를 포함한다.In addition, the display device according to another embodiment of the present invention for achieving the above object, the first area has a first transparency, the second area has a second transparency screen, and the output for detecting the distance of the external object A light source unit for outputting light, a photodetector for receiving received light from an external object, and a touch input in the first area on the screen based on the output light and the received light, and gestures in the second area on the screen And a processor that processes input.
본 발명의 일 실시예에 따른 디스플레이 장치는, 제1 프레임 구간 동안 스크린이 제1 투명도를 가지는 상태에서, 터치 입력을 감지하고, 제2 프레임 구간 동안 스크린이 제2 투명도를 가지는 상태에서, 제스쳐 입력을 감지한다. 특히, 외부 대상물의 거리 검출을 위한, 출력광을, 각각 출력함으로써, 출력광과 출력광에 대응하는 수신광에 기초하여, 터치 입력 및 제스쳐 입력을 감지할 수 있게 된다.A display device according to an embodiment of the present invention detects a touch input while a screen has a first transparency during a first frame period, and a gesture input while a screen has a second transparency during a second frame period Detects. In particular, by outputting the output light for detecting the distance of the external object, respectively, it is possible to sense the touch input and the gesture input based on the output light and the received light corresponding to the output light.
한편, 디스플레이 장치가, 후면 투사 방식에 의해, 투사 영상을 출력하는 경우, 출력광은 투사 영상과 함께 출력될 수 있으며, 이에 의해, 영상 투사와 동시에, 터치 입력 또는 제스쳐 입력의 감지가 가능하게 된다. On the other hand, when the display device outputs the projected image by the rear projection method, the output light can be output together with the projected image, whereby it is possible to simultaneously sense the touch input or gesture input while projecting the image. .
한편, 본 발명의 다른 실시예에 따른 디스플레이 장치는, 카메라를 더 구비할 수 있으며, 제2 프레임 구간 동안, 스크린이 제2 투명도를 가지는 상태에서, 카메라를 통해, 외부 대상물에 대한 촬영 영상을 획득하고, 촬영 영상을 다시 스크린에 투사 영상으로서 표시할 수 있다. Meanwhile, the display device according to another embodiment of the present invention may further include a camera, and during a second frame period, while a screen has a second transparency, a captured image of an external object is acquired through the camera Then, the captured image can be displayed again on the screen as a projected image.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 개념도를 예시한다.
도 2는 도 1의 디스플레이 장치의 간략한 내부 블록도의 일예이다.
도 3은 도 1의 광출력 모듈에서 투사 영상과 거리 검출을 위한 광을 동시에 출력하는 것을 도시한다.
도 4a 내지 도 4b는 도 1의 광출력 모듈에서의 터치 입력 및 제스쳐 입력의 감지를 설명하기 위해 참조되는 도면이다.
도 5a 내지 도 5b는 도 4a 내지 도 4b의 광출력 모듈의 거리 검출 방법을 설명하기 위해 참조되는 도면이다.
도 6a 내지 도 6d는 도 4a 내지 도 4b의 스크린을 설명하는 도면이다.
도 7은 도 1의 디스플레이 장치의 구현 예를 예시한다.
도 8은 도 1의 디스플레이 장치의 간략한 내부 블록도의 다른 예이다.
도 9는 도 8의 광출력 모듈에서의 제스쳐 입력의 감지를 설명하기 위해 참조되는 도면이다.
도 10은 도 8의 광출력 모듈에서 영상이 투사되는 것을 예시한다.
도 11은 본 발명의 일 실시예에 따른 디스플레이 장치의 동작방법을 나타내는 순서도이다.
도 12 및 도 13은 제1 프레임 구간과 제2 프레임 구간 배열에 대한 다양한 예를 예시한다.
도 14a 및 도 14b는 스크린 상의 터치 입력 및 제스쳐 입력에 따른 동작을 설명하는 도면이다.
도 15는 도 4a 내지 도 4b의 광원부의 동작을 설명하는 도면이다.
도 16 내지 도 17는 터치 입력 및 제스쳐 입력에 대한 다양한 예를 예시하는 도면이다. 1 illustrates a conceptual diagram of a display device according to an embodiment of the present invention.
FIG. 2 is an example of a simplified internal block diagram of the display device of FIG. 1.
FIG. 3 illustrates simultaneous output of a projection image and light for distance detection in the optical output module of FIG. 1.
4A to 4B are diagrams referenced to describe the detection of touch input and gesture input in the optical output module of FIG. 1.
5A to 5B are views referred to for explaining a distance detection method of the light output module of FIGS. 4A to 4B.
6A to 6D are views for explaining the screens of FIGS. 4A to 4B.
7 illustrates an implementation example of the display device of FIG. 1.
8 is another example of a simplified internal block diagram of the display device of FIG. 1.
9 is a view referred to for explaining the detection of the gesture input in the optical output module of FIG. 8.
FIG. 10 illustrates that an image is projected from the light output module of FIG. 8.
11 is a flowchart illustrating a method of operating a display device according to an embodiment of the present invention.
12 and 13 illustrate various examples of the arrangement of the first frame section and the second frame section.
14A and 14B are views illustrating an operation according to a touch input and a gesture input on a screen.
15 is a view for explaining the operation of the light source unit of FIGS. 4A to 4B.
16 to 17 are diagrams illustrating various examples of touch input and gesture input.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "modules" and "parts" for components used in the following description are given simply by considering the ease of writing this specification, and do not imply any special significance or role in itself. Therefore, the "module" and the "unit" may be used interchangeably.
본 명세서에서 기술되는 디스플레이 장치는, 스캐닝 방식에 의해, 듀얼 스크린 상에 투사 영상 표시가 가능한 디스플레이 장치이다. 특히, 스캐닝 방식에 의해 듀얼 스크린 상에 투사 영상을 표시하면서, 외부 대상물의 거리 또는 움직임을 파악할 수 있게 된다.The display device described in this specification is a display device capable of displaying a projected image on a dual screen by a scanning method. In particular, while displaying a projected image on a dual screen by a scanning method, it is possible to grasp the distance or movement of an external object.
이를 위해 디스플레이 장치는, 외부 대상물의 거리 검출을 위한 출력광을 출력하기 위한 광 출력 모듈을 구비할 수 있다. 또한, 광 출력 모듈은, 출력광 외에, 스크린 상에 영상 표시를 위한 투사 영상을 출력할 수 있다.To this end, the display device may include a light output module for outputting output light for detecting a distance of an external object. In addition, the light output module may output a projected image for displaying an image on the screen, in addition to the output light.
이러한, 디스플레이 장치는, 외부 대상물에서 산란 또는 반사되는 수신광을 수신하고, 출력광과 수신광의 차이에 기초하여, 외부 대상물에 대한 거리 등을 검출할 수 있다. The display device may receive the received light scattered or reflected from the external object, and detect a distance, etc. to the external object based on the difference between the output light and the received light.
특히, 디스플레이 장치는, 제1 프레임 구간 동안 스크린이 제1 투명도를 가지는 상태에서, 터치 입력을 감지하고, 제2 프레임 구간 동안 스크린이 제2 투명도를 가지는 상태에서, 제스쳐 입력을 감지할 수 있다. In particular, the display device may detect a touch input while the screen has the first transparency during the first frame period, and detect a gesture input while the screen has the second transparency during the second frame period.
한편, 이러한 디스플레이 장치는, TV, 미디어 플레이어, 게임 기기, 에어컨, 냉장고, 세탁기, 조리기기, 로봇 청소기 등의 가전기기 내에 포함되는 것도 가능하며, 자동차 등의 차량 내에 포함되는 것도 가능하다. Meanwhile, such a display device may be included in a household appliance such as a TV, a media player, a game device, an air conditioner, a refrigerator, a washing machine, a cooking appliance, a robot cleaner, or may be included in a vehicle such as an automobile.
이하에서는 이러한 디스플레이 장치에 대해 상세히 기술한다. Hereinafter, such a display device will be described in detail.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 개념도를 예시한다.1 illustrates a conceptual diagram of a display device according to an embodiment of the present invention.
도면을 참조하면, 디스플레이 장치(10)는, 광 출력 모듈(100), 및 스크린(200)을 구비할 수 있다.Referring to the drawings, the
광 출력 모듈(100)은, 외부 대상물의 거리 검출을 위한 출력광을, 제1 방향 스캐닝 및 제2 방향 스캐닝에 의해, 외부로 출력하며, 출력광에 대응하는 수신광을 수신하며, 출력광과 수신광에 기초하여 외부 대상물의 거리 또는 움직임을 검출할 수 있다.The
또한, 광 출력 모듈(100)은, 출력광과 함께, 가시광에 기초한 투사 영상을, 방향 스캐닝 및 제2 방향 스캐닝에 의해, 외부로 출력할 수 있다.In addition, the
이를 위해, 광출력 모듈(100)은, 스캐닝 방식에 의해, 투사 영상과 출력광을 동시에 출력할 수 있는 2D 스캐너를 구비할 수 있다.To this end, the
한편, 광출력 모듈(100)의 반대편에 위치하는 사용자(700)가, 스크린(200) 상에 투사되는 투사 영상을 인식하므로, 이러한 방식을, 후면 투사 방식이라 명명할 수 있다.On the other hand, since the
한편, 스크린(200) 앞에 위치하는 사용자(700)에 대해서는, 스크린(200) 방향으로 출력되는 출력광에 기초하여, 거리 검출 수행이 가능하게 된다.On the other hand, for the
예를 들어, 도면과 같이, 스크린(200) 앞에 위치하는 사용자가 손가락(20)을 이용하여, 스크린(200)을 터치하는 터치 입력을 수행하는 경우, 광출력 모듈(100)은, 사용자 손가락(20)에서 산란 또는 반사되는 수신광을 수신하고, 출력광과 수신광에 기초하여, 터치 입력을 감지할 수 있다.For example, as shown in the drawing, when a user positioned in front of the
다른 예로, 도면과 같이, 스크린(200) 앞에 위치하는 사용자(700)가 손(60)을 이용하여, 스크린(200) 앞에서 제스쳐 입력을 수행하는 경우, 광출력 모듈(100)은, 사용자 손(60)에서 산란 또는 반사되는 수신광을 수신하고, 출력광과 수신광에 기초하여, 제스쳐 입력을 감지할 수 있다.As another example, as shown in the drawing, when the
한편, 본 발명의 실시예에 따른 디스플레이 장치(10)는, 터치 입력 및 제스쳐 입력을 원활하게 감지하기 위해, 제1 프레임 구간 동안은, 스크린(200)이 제1 투명도를 가지게 하여, 제1 프레임 구간 동안, 터치 입력을 감지하고, 제2 프레임 구간 동안은, 스크린(200)이 제1 투명도 보다 낮은 제2 투명도를 가지게 하여, 제2 프레임 구간 동안, 제스쳐 입력을 감지할 수 있다. On the other hand, the
결국, 이러한 디스플레이 장치(100)에 의하면, 터치 입력 및 제스쳐 입력이 가능하게 된다. As a result, according to the
도 2는 도 1의 광출력 모듈의 간략한 내부 블록도이다.FIG. 2 is a simplified internal block diagram of the light output module of FIG. 1.
도면을 참조하면, 광출력 모듈(100)은, TOF(Time of Flight) 방식으로 투사 영상 및 출력광을 출력한다.Referring to the drawings, the
이를 위해, 광출력 모듈(100)은, 메모리(120), 스캐너(140), 프로세서(170), 통신 모듈(180), 구동부(185), 전원 공급부(190), 광원부(210), 광 검출부(280) 등을 구비할 수 있다. To this end, the
메모리(120)는 프로세서(170)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The
통신 모듈(135)은 광출력 모듈(100)에 유선 또는 무선으로 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 통신 모듈(135)은 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 광출력 모듈(100) 내부의 각 구성 요소에 전달할 수 있고, 광출력 모듈(100) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The communication module 135 serves as an interface with all external devices connected to the
특히, 통신 모듈(135)은, 인접하는 이동 단말기(미도시)로부터 무선 신호를 수신할 수 있다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자 데이터, 영상 데이터 등 다양한 형태의 데이터를 포함할 수 있다. In particular, the communication module 135 may receive a wireless signal from an adjacent mobile terminal (not shown). Here, the wireless signal may include various types of data such as a voice call signal, a video call signal, or text data and video data.
이를 위해, 통신 모듈(135)은, 근거리 통신 모듈(미도시)를 구비할 수 있다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), NFC(Near Field Communication) 등이 이용될 수 있다.To this end, the communication module 135 may include a short-range communication module (not shown). Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, Near Field Communication (NFC) may be used as the short-range communication technology.
스캐너(140)는, 입력되는 광을, 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차 및 반복적으로 수행하여, 외부에 출력할 수 있다.The
스캐너(140)에 입력되는 광은, 투사 영상에 대응하는 가시광과, 외부 대상물에 대한 거리 검출을 위한 출력광을 포함할 수 있다. 여기서 출력광은, 적외선광일 수 있다. The light input to the
스캐너(140)는, 외부 스캔 영역에 대해, 좌에서 우 방향 스캐닝 및 우에서 좌방향 스캐닝을 순차 및 반복적으로 수행하면서, 외부 스캔 영역 전체에 대한 스캐닝을 프레임 단위로 수행할 수 있다. 그리고, 이러한 스캐닝에 의해, 가시광에 기초한 투사 영상과, 출력광을, 외부 스캔 영역에 대해 출력할 수 있다.The
프로세서(170)는, 광출력 모듈(100)의 전반적인 제어 동작을 수행할 수 있다. 구체적으로, 광출력 모듈(100) 내의 각 유닛의 동작을 제어할 수 있다.The
프로세서(170)는, 메모리(120)에 저장되는 비디오 영상, 또는 통신 모듈(135)을 통해 외부로부터 수신되는 비디오 영상을, 투사 영상으로서, 외부 스캔 영역에 출력되도록 제어할 수 있다.The
이를 위해, 프로세서(170)는, R,G,B 등의 가시광을 출력하는 광원부(210)를 제어하는 구동부(185)를 제어할 수 있다. 구체적으로, 구동부(185)에, 표시할 비디오 영상에 대응하는 R,G,B 신호를 출력할 수 있다. To this end, the
한편, 프로세서(170)는, 외부 대상물의 거리 검출을 위해, 출력광에 대응하는 전기 신호를 구동부(185)로 전송할 수 있다. Meanwhile, the
프로세서(170)는, 스캐너(140)의 동작을 제어할 수 있다. 구체적으로, 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차 및 반복적으로 수행하여, 외부에 투사 영상 및 출력광을 출력하도록 제어할 수 있다.The
한편, 프로세서(170)는, 스캐너(140)의 동작 제어시, 프레임 레이트를 가변하여, 스캐너(140)의 스캐닝 속도를 가변할 수 있다. Meanwhile, the
한편, 프로세서(170)는, 구동부(185)로 전송되는 출력광에 대응하는 전기 신호와, 광 검출부(280)에서 수신되는 수신광에 기초한 전기 신호에 기초하여, 외부 대상물에 대한 거리 검출을 수행할 수 있다. Meanwhile, the
예를 들어, 프로세서(170)는, 출력광에 대응하는 전기 신호와, 수신광에 대응하는 전기 신호의 위상 차이를 이용하여, 외부 스캔 영역(40)에 거리를 검출할 수 있다. 그리고, 프로세서(170)는, 프레임 단위로 검출되는 외부 스캔 영역에 대한 거리 정보에 기초하여, 사용자의 제스쳐 동작을 검출할 수 있다.For example, the
구체적으로, 프로세서(170)는, 제1 프레임 구간 동안은, 스크린(200)이 제1 투명도를 가지게 하여, 제1 프레임 구간 동안, 터치 입력을 처리하고, 제2 프레임 구간 동안은, 스크린(200)이 제1 투명도 보다 낮은 제2 투명도를 가지게 하여, 제2 프레임 구간 동안, 제스쳐 입력을 처리할 수 있다. Specifically, the
한편, 프로세서(170)는, 광출력 모듈(100) 외부의 스크린(200)을 제어하는 스크린 제어부(205)를 제어할 수 있다.Meanwhile, the
스크린(200)은, 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안, 제1 투명도 보다 낮은 제2 투명도를 가질 수 있다. 구체적으로, 제1 프레임 구간 동안, 스크린(200)은, 불투명하게 변하여, 투사 영상이 스크린(200) 상에서, 표시되도록 하고, 제2 프레임 구간 동안, 스크린(200)은, 투명하게 변하여, 출력광이 스크린(200)을 투과하여, 스크린(200) 앞에 위치하는 사용자를 검출 가능하도록 한다.The
이러한 프레임 구간 별, 스크린의 투명도 조절은, 스크린 제어부(205)에 의해 수행될 수 있다. For each frame section, adjustment of the transparency of the screen may be performed by the
스크린(200)이, 서로 교차하는 제1 투명 전극과 제2 투명 전극, 및 제1 투명 전극과 제2 투명 전극 사이에 배치되는 이방체를 포함하는 경우, 스크린 제어부(205)는, 제1 투명 전극과 제2 투명 전극 사이에 인가되는 전원에 따라, 이방체의 배열 방향을 가변시켜, 스크린(200)이, 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안 제2 투명도를 가지도록 제어할 수 있다.When the
한편, 프레임 동기 신호 등은, 프로세서(170)에서, 스크린 제어부(205)로 전달될 수 있다. Meanwhile, the frame synchronization signal or the like may be transmitted from the
광원부(210)는, 청색 단일광을 출력하는 청색 광원부, 녹색 단일광을 출력하는 녹색 광원부, 및 적색 단일광을 출력하는 적색 광원부를 포함할 수 있다. 이때, 각 광원부는, 레이저 다이오드로 구현될 수 있다. 또는, LED로 구현될 수도 있다.The
또한, 광원부(210)는, 적외선 광을 출력하는 적외선 광원부를 포함할 수 있다.In addition, the
광검출부(280)는, 출력광에 대응하여 외부로부터 수신되는 수신광을 전기 신호로 변환할 수 있다. 이를 위해, 광검출부(280)는, 광 신호를 수신 신호, 즉 전기신호로 변환하는 포토 다이오드(Photodiode)를 포함할 수 있다. 특히, 광검출부(280)는, 고 광전 효율의 포토 다이오드로 외부 대상물로부터 산란된 수신광을 전기 신호로 변환해주는 Avalanche Photodiode를 포함할 수 있다.The
한편, 광검출부(280)는, 출력광이 적외선광인 경우, 적외선광의 수신광을 수신하기 위해, CCD(Charge Coupled Device), 또는 CMOS 센서를 포함할 수도 있다. Meanwhile, when the output light is infrared light, the
한편, 도면에는 도시하지 않았으나, 광검출부(280)와 프로세서(170) 사이에, 아날로그 신호를 디지털 신호로 변환하는 샘플러(미도시)가 더 구비될 수 있다.Meanwhile, although not illustrated in the drawing, a sampler (not shown) for converting an analog signal to a digital signal may be further provided between the
구동부(185)는, 프로세서(170)로부터 수신되는 R,G,B 신호에 대응하여, 구동부(185) 내의 적색 광원부, 녹색 광원부, 청색 광원부에서, 각각 적색광, 녹색광, 청색광이 출력되도록 제어할 수 있다.The driving
한편, 구동부(185)는, 프로세서(170)로부터 수신되는 출력광에 대응하는 전기 신호에 대응하여, 구동부(185) 내의 적외선 광원에서, 적외선광이 출력되도록 제어할 수 있다.Meanwhile, the driving
전원 공급부(190)는 프로세서(170)의 제어에 의해 외부의 전원 또는 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.The
도 3은 도 1의 광출력 모듈에서 투사 영상과 거리 검출을 위한 광을 동시에 출력하는 것을 도시한다. FIG. 3 illustrates simultaneous output of a projection image and light for distance detection in the optical output module of FIG. 1.
도면을 참조하면, 본 발명의 실시예에 따른 광출력 모듈(100) 내의 스캐너(140)는, 입력되는 광을, 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차 및 반복적으로 수행하여, 외부 스캔 영역에 출력할 수 있다. 도면에서는 스크린(200)에, 투사 영상(202a)(RGB) 및 출력광(IR)이 출력되는 것을 예시한다.Referring to the drawings, the
본 발명의 실시예에 따른 광출력 모듈(100) 내의 스캐너(140)는, 입력되는 가시광에 기초한 투사 영상(RGB)과, 적외선광인 출력광(IR)을 동시에 출력할 수 있다. 특히, 외부 스캔 영역에 대해, 좌에서 우 방향 스캐닝 및 우에서 좌방향 스캐닝을 순차 및 반복적으로 수행하면서, 외부 스캔 영역 전체에 대한 스캐닝을 프레임 단위로 수행할 수 있다.The
즉, 본 발명의 실시예에 따른 광출력 모듈(100)에 따르면, 외부로 영상을 투사하면서, 외부 대상물의 거리를 검출할 수 있으므로, 대상물의 거리 또는 움직임에 기초하여 관련 영상을 표시하거나, 사용자 제스쳐에 대응하는 영상을 표시할 수 있다.That is, according to the
한편, 이하에서는 광출력 모듈(100) 내부에 대해 보다 상세히 기술한다.Meanwhile, hereinafter, the inside of the
도 4a 내지 도 4b는 도 1의 광출력 모듈에서의 터치 입력 및 제스쳐 입력의 감지를 설명하기 위해 참조되는 도면이다. 4A to 4B are diagrams referenced to describe the detection of touch input and gesture input in the optical output module of FIG. 1.
도 4a 및 도 4b의 광출력 모듈(100a)은 동일한 광출력 모듈로서, 광원부(210), 집광부(212), 광합성부(220), 광반사부(256), 스캐너(140), 프로세서(170), 구동부(185), 집광부(218), 적외선 투과 필터(282), 및 광검출부(280)를 구비할 수 있다.The
광원부(210)는, 복수의 광원부를 구비할 수 있다. 즉, 광원부(210)는, 적색 광원부(210R), 녹색 광원부(210G), 청색 광원부(210B), 적외선 방식의 출력광을 출력하는 출력광 광원부(210IR)를 구비할 수 있다. 이 중, 광원부(210R,210G,210B)는, 레이저 다이오드를 구비할 수 있다. The
한편, 각 광원부(210R,210G,210B,210IR)는, 구동부(185)로부터의 각 전기 신호에 의해, 구동될 수 있으며, 이러한 구동부(185)의 전기 신호는, 프로세서(170)의 제어에 의해, 생성될 수 있다. 한편, 출력광에 대응하는 전기 신호에 의해, 출력광 광원부(210IR)가 출력광을 출력할 수 있다.Meanwhile, each of the
각 광원부(210R,210G,210B,210IR)에서 출력되는 광들은, 집광부(212) 내의 각 집광 렌즈(collimator lens)를 통해, 시준된다(collimate).The light output from each of the
광합성부(220)는, 각 광원부(210R,210G,210B,210IR)에서에서 출력되는 광을 합성하여 일 방향으로 출력한다. 이를 위해, 광합성부(220)는, 4개의 2D MEMS 미러(mirror)(220a,220b,220c,220d)를 구비할 수 있다.The
즉, 제1 광합성부(220a), 제2 광합성부(220b), 제3 광합성부(220c), 및 제4 광합성부(220d)는, 각각, 적색 광원부(210R)에서 출력되는 적색광, 녹색 광원부(210G)에서 출력되는 녹색광, 청색 광원부(210B)에서 출력되는 청색광, 출력광 광원부(210IR)에서 출력되는 출력광을, 스캐너(140) 방향으로 출력하도록 한다.That is, the
광반사부(256)는, 광합성부(220)를 통과한 적색광,녹색광,청색광,출력광을 스캐너(140) 방향으로 반사시킨다. 광반사부(256)는, 다양한 파장의 광을 반사시키며, 이를 위해, Total Mirror(TM)로 구현될 수 있다.The
한편, 스캐너(140)는, 광원부(210)으로부터의 가시광(RGB),출력광(IR)을, 입력받아, 외부로 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차적으로, 그리고 반복적으로 수행할 수 있다. 이와 같은 스캐닝 동작을, 외부 스캔 영역의 전체에 대해, 반복하여 수행한다. 특히, 스캐너(140)에서 출력되는 가시광(RGB),및 출력광(IR)은, 스크린(200)에 출력될 수 있다.Meanwhile, the
이에 의해, 스크린(200) 상에 가시광(RGB)에 대응하는 투사 영상이 표시될 수 있다. Accordingly, a projected image corresponding to visible light (RGB) may be displayed on the
한편, 광출력 모듈(100)의 반대편에 위치하는 사용자(700)가, 스크린(200) 상에 투사되는 투사 영상을 인식하므로, 이러한 방식을, 후면 투사 방식이라 명명할 수 있다.On the other hand, since the
한편, 스크린(200) 앞에 위치하는 사용자에 대해서는, 스크린(200)에 출력되는 출력광에 기초하여, 거리 검출 수행이 가능하게 된다.On the other hand, for a user located in front of the
구체적으로, 광출력 모듈(100)은 제1 프레임 구간 동안에는, 스크린(200) 상에 터치되는 사용자 손가락(20)에 의한 터치 입력을 감지하고, 제2 프레임 구간 동안에는, 스크린(200) 건너편에 위치하는 사용자의 손(60) 동작에 의한 제스쳐 입력을 감지한다. 이를 위해, 제1 프레임 구간 동안은, 스크린(200)은 불투명하게 되며, 제2 프레임 구간 동안 스크린(200)은 투명하게 될 수 있다.Specifically, the
도 4a는, 제1 프레임 구간 동안, 스크린(200)이 불투명한 것을 예시하며, 이때, 광출력 모듈(100)은, 가시광에 의한 투사 영상(RGB)와 출력광(IR)을 함께 출력할 수 있다. 제1 프레임 구간 동안에, 사용자가 손가락(20)을 움직여, 스크린(200) 상에 터치 입력을 수행하는 경우, 손가락(20)에 의해 출력광(IR)이, 산란 또는 반사되어, 수신광이, 광출력 모듈(100)로 입사될 수 있다. 구체적으로, 수신광이, 집광부(218), 적외선 투과 필터(282)를 거쳐, 광검출부(280)로 입력될 수 있다.FIG. 4A illustrates that during the first frame period, the
광검출부(280)는, 이러한 수신광을 전기 신호로 변환하고, 프로세서(170)는, 손가락(20)에 의한 수신광과 출력광에 기초하여, 거리 검출 그리고 터치 입력 처리를 수행할 수 있다.The
도 4b는, 제2 프레임 구간 동안, 스크린(200)이 투명한 것을 예시하며, 이때, 광출력 모듈(100)은, 출력광(IR)을 출력할 수 있다. 또는, 광출력 모듈(100)은, 가시광에 의한 투사 영상(RGB)과 출력광(IR)을 함께 출력할 수 있다. 제2 프레임 구간 동안에, 사용자가 손(60)을 움직여, 스크린(200) 앞에서 제스쳐 입력을 수행하는 경우, 사용자 손(60)에 의해 출력광(IR)이, 산란 또는 반사되어, 수신광이, 광출력 모듈(100)로 입사될 수 있다. 구체적으로, 수신광이, 집광부(218), 적외선 투과 필터(282)를 거쳐, 광검출부(280)로 입력될 수 있다.4B illustrates that the
광검출부(280)는, 이러한 수신광을 전기 신호로 변환하고, 프로세서(170)는, 사용자 손(60)에 의한 수신광과 출력광에 기초하여, 거리 검출 그리고 제스쳐 입력 처리를 수행할 수 있다.The
한편, 제1 프레임 구간과 제2 프레임 구간은, 서로 교호하게 배치될 수 있으나, 이에 한정되지 않고 다양한 예가 가능하다.Meanwhile, the first frame section and the second frame section may be alternately arranged, but are not limited thereto, and various examples are possible.
한편, 본 발명의 실시예에 따르면, 스캐너(140)에서 출력되는 가시광(RGB)을 출력하므로, 투사 영상이 표시되는 스크린(200)이 자유 곡면(free-form)을 가져도, 해당 스크린의 곡면에 대응하여, 투사 영상을 표시하는 것이 가능하다. 예를 들어, 스크린(200)의 곡면 상태를, 출력광에 의한 거리 검출을 통해, 파악하고, 해당 곡면에 대응하여, 표시 영상의 스케일링을 수행하고, 스케일링된 투사 영상을 표시하는 것도 가능하다. 이에 따라, 자유 곡면 디스플레이가 가능하게 된다.Meanwhile, according to an embodiment of the present invention, since the visible light RGB output from the
도 5a 내지 도 5b는 도 4a 내지 도 4b의 광출력 모듈의 거리 검출 방법을 설명하기 위해 참조되는 도면이다.5A to 5B are views referred to for explaining a distance detection method of the light output module of FIGS. 4A to 4B.
먼저, 도 5a는, 제1 프레임 구간 동안, 도 4a의 스크린(200) 상에서의 터치 입력 감지를 설명하기 위해 참조되는 도면이다.First, FIG. 5A is a diagram referenced to describe touch input detection on the
스크린(200) 상에 출력광이 출력되는 상태에서, 도 5a의 (a)와 같이, 스크린 상의 제1 지점(P1)에 사용자가 터치하는 경우, 예를 들어, 사용자의 손을 이용하여 터치하는 경우, 출력광이, 사용자 손에 의해 산란 또는 반사되어, 광 검출부(280)로 수신된다.In a state in which output light is output on the
도면에서는 제1 지점(P1)에 대응하는 x 좌표, y 좌표에서의 수신광의 크기(amplitude)가 커지는 것을 예시한다. In the drawing, it is exemplified that the amplitude of the received light at the x and y coordinates corresponding to the first point P1 is increased.
도 5a의 (b)는 출력광의 전기 신호(tx)와, 수신광의 전기 신호(Rx)를 예시하며, 특히 제1 지점(P1)에 대응하는 x 좌표, y 좌표에서의 수신광의 크기(amplitude)Ae 인 것을 예시한다. 즉, 사용자 터치에 의해, 터치 지점에서의 수신광의 전기신호의 크기는 다른 스크린 상의 지점에서의 크기보다 크게 된다.FIG. 5A (b) illustrates the electrical signal tx of the output light and the electrical signal Rx of the received light, and in particular, the size of the received light at the x coordinate and the y coordinate corresponding to the first point P1 ( amplitude) Ae. That is, by the user's touch, the magnitude of the electrical signal of the received light at the touch point becomes larger than the magnitude at the point on the other screen.
이러한 특성을 이용하여, 프로세서(170)는, 스크린(200) 상의 터치 지점을 검출하여 처리하게 된다. 특히, 프로세서(170)는, 스크린(200)이 제1 투명도를 가지는 경우, 터치 입력의 좌표를 연산할 수 있다. Using these characteristics, the
다음, 도 5b는, 제2 프레임 구간 동안, 도 4b의 스크린(200) 앞에서 수행되는 제스쳐 입력 감지를 설명하기 위해 참조되는 도면이다.Next, FIG. 5B is a view referred to for explaining gesture input detection performed in front of the
여기서, Tx는 출력광의 전기 신호, Rx는 스크린 앞에, 사용자의 제스쳐 에 의한 수신광의, 전기 신호를 나타낸다.Here, Tx represents the electrical signal of the output light, Rx represents the electrical signal of the received light by the user's gesture in front of the screen.
스크린이, 출력광을 투과하는 경우, 스크린 앞에, 위치하는 사용자 손(60)의 제스쳐 입력에 따른 출력광이, 광출력 모듈(100)로 수신될 수 있다.When the screen transmits the output light, the output light according to the gesture input of the user's
그리고, 프로세서(170)는, 출력광의 전기 신호와 수신광의 전기 신호의 위상 차이(Φ)에 따라, 거리 정보를 산출하고, 이에 기초하여, 제스쳐 입력을 처리할 수 있다.In addition, the
도 6a 내지 도 6d는 도 4a 내지 도 4b의 스크린을 설명하는 도면이다.6A to 6D are views for explaining the screens of FIGS. 4A to 4B.
먼저, 도 6a는 본 발명의 일실시예에 따른 스크린(200)의 단면도를 예시한다. 스크린(200)은, 보호 필름(905), 상판 글래스(910)와 하판 글래스(920), 상판 글래스(910)와 하판 글래스(920) 사이에 배치되는 제1 전극(915) 및 제2 전극(925), 제1 전극(915)과 제2 전극(925) 사이에 배치되는 이방체(930)를 포함할 수 있다.First, FIG. 6A illustrates a cross-sectional view of the
보호 필름(905)은, 스크린(200)을 보호할 수 있다. The
상판 글래스(910)와 하판 글래스(920) 사이에 배치되는 제1 전극(915) 및 제2 전극(925)은, ITO와 같은 투명 전극일 수 있다.The
제1 전극(915)과 제2 전극(925) 사이에 배치되는 이방체(930)는, 제1 전극(915)과 제2 전극(925) 사이에 인갇괴는 전원에 따라, 배열 방향이 가변하며, 가변되는 배열 방향에 따라, 서로 다른 굴절율을 가질 수 있다. 예를 들어, 이방체(930)는 액정(liquid crystal)일 수 있다.The
다음, 도 6b는 도 6a의 스크린의 상판 글래스와 제1 전극의 배치를 예시하는 도면이다.Next, FIG. 6B is a diagram illustrating the arrangement of the top glass and the first electrode of the screen of FIG. 6A.
도면에서는, 상판 글래스에 배치되는 제1 전극(915)이, 수직 방향으로 배치되는 것을 예시한다. 도면에서는, m개의 제1 전극들(V1, ,...VmN)이 수직 방향으로 배치되는 것을 예시한다. 한편, 도면에서는 제1 전극들(V1, ,...VmN)이 전기적으로 접속되는 것으로 도시하나, 이와 달리, 서로 이격될 수 있다.In the drawing, it is exemplified that the
도 6c는 도 6b의 제1 전극에 인가되는 전원 인가 파형을 예시한다. 도면과 같이, 제1 프레임 구간(1 frame) 동안, 제1 전극들(V1, ,...VmN)에 로우 레벨(L)의 전원 인가되고, 제2 프레임 구간(2 frame) 동안, 제1 전극들(V1, ,...VmN)에 하이 레벨(H)의 전원 인가될 수 있다. 6C illustrates a power supply application waveform applied to the first electrode of FIG. 6B. As shown in the figure, during the first frame period (1 frame), the first electrodes (V1, ... ... VmN) is applied to the low level (L) power, during the second frame period (2 frame), the first A high level (H) power source may be applied to the electrodes V1, ... VmN.
다음, 도 6d는 도 6a의 스크린의 상판 글래스와 제2 전극의 배치를 예시하는 도면이다.Next, FIG. 6D is a diagram illustrating the arrangement of the top glass and the second electrode of the screen of FIG. 6A.
도면에서는, 하판 글래스에 배치되는 제2 전극(925)이, 수평 방향으로 평행하게 배치되는 것을 예시한다. 도면에서는, n개의 제2 전극들(H1, ,...HN)이 수평q방향으로 배치되는 것을 예시한다. In the drawing, it is exemplified that the
도 6e는 도 6d의 제2 전극에 인가되는 전원 인가 파형을 예시한다. 도면과 같이, 제1 프레임 구간(1 frame) 동안, 제2 전극들(H1, ,...HN)에 로우 레벨(L)의 전원 인가되고, 제2 프레임 구간(2 frame) 동안, 제2 전극들(H1, ,...HN)에 하이 레벨(H)의 전원 인가될 수 있다. 6E illustrates a power supply application waveform applied to the second electrode of FIG. 6D. As shown in the figure, during the first frame period (1 frame), the second electrode (H1, ...... HN) is applied to the low level (L) power, during the second frame period (2 frame), the second A high level (H) power supply may be applied to the electrodes H1, ... HN.
이와 같이, 제1 및 제2 전극들에, 각각 로우 레벨의 전원의 인가되면, 이방체(930)의 배열 방향이 변하지 않아, 스크린(200)은 제1 투명도, 즉 불투명하게 될 수 있다. As described above, when low-level power is applied to the first and second electrodes, the arrangement direction of the
한편, 제1 및 제2 전극들에, 각각 하이 레벨의 전원의 인가되면, 이방체(930)의 배열 방향이 가변하여, 스크린(200)은 제2 투명도, 즉 투명하게 될 수 있다.Meanwhile, when a high-level power is applied to the first and second electrodes, the arrangement direction of the
이에 의해, 스크린(200)은, 제1 프레임 구간 동안, 불투명하게 되고, 제2 프레임 구간 동안 투명하게 변하게 된다.Thereby, the
도 7은 도 1의 디스플레이 장치의 구현 예를 예시한다.7 illustrates an implementation example of the display device of FIG. 1.
도면을 참조하면, 본 발명의 디스플레이 장치(10)는, 터치 입력 및 제스쳐 입력의 감지가 가능한 후면 투사 방식의 디스플레이 장치로서, 공연장, 터미널, 공항 등의 공공 장소에서, 디스플레이를 위한 장치로서 구현될 수 있다. 또는, 개인화된 공간 중, 집에서, 거실 및 안방을 위한 디스플레이 장치로서 구현될 수 있다. 또는, 개인화된 공간 중, 차량 내부의 디스플레이 장치로서 구현될 수 있다.Referring to the drawings, the
도 7은 차량 내부에 자유 곡면을 가지는, 센타 페시아(center fascia)(610)에, 본 발명의 실시예에 따른 디스플레이 장치가 구현되는 것을 예시한다. 7 illustrates that a display device according to an exemplary embodiment of the present invention is implemented in a
이러한 센타 페시아(610)는, 운전대(403) 앞에, 계기판이 배치되는 대시보드 영역에 대응하는 스크린(200)을 구비할 수 있다.The
도면에서는, 스크린(200)에, 계기판 영상이 표시되는 것을 예시한다. In the drawing, it is illustrated that the instrument panel image is displayed on the
이에 의해, 운전자는, 스크린(200)에 표시되는 계기판 영상을 확인할 수 있다. 한편, 운전자는, 스크린(200) 상에 터치 입력을 수행하거나, 스크린(200) 앞에서, 제스쳐 입력을 수행할 수 있다. Thereby, the driver can check the instrument panel image displayed on the
이러한 경우, 본 발명의 디스플레이 장치(10)는, 광출력 모듈(100)에서 출력되는 출력광과 출력광에 대응하는 수신광에 기초하여, 터치 입력 또는 제스쳐 입력을 감지할 수 있다.In this case, the
그리고, 본 발명의 디스플레이 장치(10)는, 사용자의 터치 입력 또는 제스쳐 입력에 대응하는 영상을 스크린(200)에 제공할 수 있다. In addition, the
도 8은 도 1의 디스플레이 장치의 간략한 내부 블록도의 다른 예이다.8 is another example of a simplified internal block diagram of the display device of FIG. 1.
도 8은 본 발명의 다른 실시예에 따른 디스플레이 장치(10)로서, 도 2의 디스플레이 장치(10)와 유사하나, 카메라(195)를 더 구비하는 것에 그 차이가 있다.8 is a
카메라(195)는, 광출력 모듈(100) 내에 구비되나, 이에 한정되지 않고 다양한 예가 가능하다. The
카메라(195)는, 제2 프레임 구간 동안, 즉, 스크린(200)이 제2 투명도를 가지는 경우, 투명한 스크린(200) 너머에 위치하는 외부 대상물을 촬영할 수 있다. The
이를 위해, 카메라(195)는, RGB 카메라로서, 외부 대상물에 대한 촬영 영상을 획득할 수 있다. 예를 들어, 카메라(195)는, CCD(Charge Coupled Device), 또는 CMOS 센서를 포함할 수도 있다. To this end, the
카메라(195)에서 촬영된 영상은 프로세서(170)로 전달되어, 제1 프레임 구간 동안, 스크린(200) 상에 투사 영상으로서 출력될 수도 있다.The image captured by the
도 9는 도 8의 광출력 모듈에서의 제스쳐 입력의 감지를 설명하기 위해 참조되는 도면이다. 9 is a view referred to for explaining the detection of the gesture input in the optical output module of FIG.
도 9는 도 4b와 유사하게, 제2 프레임 구간 동안, 제스쳐 입력 등, 외부 대상물의 거리를 검출할 수 있다.9B, similar to FIG. 4B, during the second frame period, a distance of an external object, such as a gesture input, may be detected.
나아가, 광출력 모듈(100a)이 카메라(195)를 구비함으로써, 카메라(195)는, 외부 대상물에 대한 촬영 영상을 획득할 수 있다. 구체적으로 사용자 손(60)을 비롯한 사용자에 대한 촬영 영상을 획득할 수 있다. Furthermore, since the
도 10은 도 8의 광출력 모듈에서 영상이 투사되는 것을 예시한다.FIG. 10 illustrates that an image is projected from the light output module of FIG. 8.
도면을 참조하면, 제2 프레임 구간 동안, 광출력 모듈(100) 내의 카메라(195)에서 촬영된 영상은, 다시 스크린(200) 상에 투사 영상으로서 표시될 수 있다. 그리고, 사용자(700)는, 자신의 모습을 촬영한 영상(650)을 확인할 수 있게 된다.Referring to the drawings, during the second frame period, an image captured by the
한편, 광출력 모듈(100)은, 카메라 촬영 이후의 제1 프레임 구간 동안, 투사 영상(650)을 출력할 수 있다.Meanwhile, the
한편, 이러한 광출력 모듈(100)을 구비하는 디스플레이 장치(10)는, 통신 모듈(180)을 통해, 네트워크에 접속하거나, 외부 단말 장치에 접속하여, 데이터 교환을 수행할 수 있다.Meanwhile, the
이에 따라, 도 10과 같은, 촬영 영상(650)을 상대 단말 장치로 전송할 수 있으며, 상대 단말 장치로부터, 상대방 촬영 영상을 수신할 수도 있다. 이에 따라, 화상 회의 시스템 구현이 가능할 수 있다.Accordingly, as shown in FIG. 10, the photographed
한편, 도 2 등에서는 도시하지 않았지만, 본 발명의 디스플레이 장치(10)는, 오디오 출력부, 오디오 입력부 등을 더 구비할 수 있으며, 이에 따라, 화상 전화 시스템 구현이 가능할 수 있다.Meanwhile, although not illustrated in FIG. 2 and the like, the
도 11은 본 발명의 일 실시예에 따른 디스플레이 장치의 동작방법을 나타내는 순서도이다. 11 is a flowchart illustrating a method of operating a display device according to an embodiment of the present invention.
도면을 참조하면, 본 발명의 실시예에 따른 디스플레이 장치는, 제1 프레임 구간 동안 스크린을 제1 투명도로 설정한다(S810).Referring to the drawings, the display device according to an embodiment of the present invention sets the screen to the first transparency during the first frame period (S810).
프로세서(170)는, 스크린 제어부(210)를 통해, 스크린(200)의 제1 전극(915) 및 제2 전극(925)에 로우 레벨 전원이 인가되도록 제어할 수 있다. 이에 의해, 스크린(200)은, 제1 투명도, 즉 불투명하게 설정될 수 있다.The
다음, 디스플레이 장치는, 제1 프레임 구간 동안, 스크린 상의 터치 입력을 감지한다(S820). 광원부(210)는 제1 프레임 구간 동안, 가시광 및 출력광을 출력할 수 있다. 그리고, 스캐너(140)는, 가시광에 기초한 투사 영상과 출력광을, 스크린(200)으로 스캐닝하여 출력할 수 있다.Next, during the first frame period, the display device detects a touch input on the screen (S820). The
이때, 스크린(200)이 불투명하므로, 투사 영상은 스크린(200) 상에 확산되어 표시되며, 출력광은, 스크린(200) 내에 반사된다. 한편, 스크린(200) 상에 터치 입력이 있는 경우, 스크린(200)에서 반사되는 수신광과 달리, 터치 입력 지점에서의 수신광의 크기가 달라지게 된다. At this time, since the
구체적으로, 터치 입력 지점에서의 수신광에 의한 전기 신호는, 도 5a의 RX2 파형에 대응할 수 있으며, 터치 입력 지점 외의 스크린에 의해 반사되어 수신되는 수신광에 의한 전기 신호는, 도 5b의 RX1 파형에 대응할 수 있다. 즉, 터치 입력 지점에서의 수신광에 의한 전기 신호의 크기(amplitude)가 더 크게 된다. Specifically, the electrical signal by the received light at the touch input point may correspond to the RX2 waveform of FIG. 5A, and the electrical signal by the received light reflected and received by the screen other than the touch input point may be the RX1 waveform of FIG. 5B. Can respond to. That is, the amplitude of the electric signal by the received light at the touch input point becomes larger.
결국, 프로세서(170)는, 출력광에 대응하는 전기 신호와 수신광에 대응하는 전기 신호의 위상 차이 및, 수신광에 대응하는 전기 신호의 크기에 기초하여, 터치 입력을 처리할 수 있다. 한편, 위상 차이는, 스크린(200)의 거리 검출을 위해 사용될 뿐이고, 터치 입력 감지시, 고려되지 않을 수도 있다. 즉, 프로세서(170)는, 수신광에 대응하는 전기 신호의 크기에 기초하여, 터치 입력을 처리할 수도 있다. As a result, the
다음, 디스플레이 장치는, 제2 프레임 구간 동안, 스크린을 제2 투명도로 설정한다(S830).Next, during the second frame period, the display device sets the screen to the second transparency (S830).
프로세서(170)는, 스크린 제어부(210)를 통해, 스크린(200)의 제1 전극(915) 및 제2 전극(925)에 하이 레벨 전원이 인가되도록 제어할 수 있다. 이에 의해, 스크린(200)은, 제1 투명도 보다 낮은 투명도인 제2 투명도, 즉 투명하게 설정될 수 있다.The
다음, 디스플레이 장치는, 제2 프레임 구간 동안, 스크린 앞에서의 사용자의 제스쳐 입력을 감지한다(S840). Next, during the second frame period, the display device detects a user's gesture input in front of the screen (S840).
광원부(210)는 제2 프레임 구간 동안, 가시광을 제외하고, 출력광만 출력할 수 있으나, 이에 한정되지 않고 다양한 예가 가능하다.The
스캐너(140)는, 출력광을, 스크린(200)으로 스캐닝하여 출력할 수 있다.The
이때, 스크린(200)이 투명하므로, 출력광은, 스크린(200)을 투과하여, 스크린(200) 앞에 위치하는 사용자 부근까지 도달할 수 있다. 그리고, 사용자 손(60)에 의해 출력광이 산란 또는 반사되어, 수신광이 수신될 수 있다.At this time, since the
이때의 제스쳐에 의한 수신광에 의한 전기 신호는, 도 5b의 RX 파형에 대응할 수 있다 At this time, the electrical signal by the received light by the gesture can correspond to the RX waveform of FIG. 5B.
결국, 프로세서(170)는, 출력광에 대응하는 전기 신호와 수신광에 대응하는 전기 신호의 위상 차이에 기초하여, 제스쳐 입력을 처리할 수 있다. As a result, the
한편, 제2 프레임 구간에서의, 출력광이 스크린(200)을 투과하여야 하므로, 제스쳐 입력 감지의 정확성을 향상시키기 위해, 광원부(210)는, 제1 프레임 구간에 비해, 제2 프레임 구간에서 출력되는 출력광의 세기를 더 크게할 수 있다. Meanwhile, in the second frame section, since the output light must pass through the
한편, 제1 프레임 구간과 제2 프레임 구간의 배열은 다양한 예가 가능하다. 이에 대해서는 도 12 및 도 13을 참조하여 기술한다.Meanwhile, various examples of arrangement of the first frame section and the second frame section are possible. This will be described with reference to FIGS. 12 and 13.
도 12 및 도 13은 제1 프레임 구간과 제2 프레임 구간 배열에 대한 다양한 예를 예시한다. 12 and 13 illustrate various examples of the arrangement of the first frame section and the second frame section.
먼저, 도 12는 터치 입력 감지를 위한 제1 프레임 구간과 제스쳐 입력 감지를 위한 제2 프레임 구간이, 교호하게 배치되는 것을 예시한다. 이에 따라, 스크린(200)은, 기수 프레임 구간(1,3,...n-1 frame)에서는 불투명하게 변하며, 우수 프레임 구간(2,4,...n frame)에서는 투명하게 변할 수 있다. First, FIG. 12 illustrates that the first frame section for sensing the touch input and the second frame section for sensing the gesture input are alternately arranged. Accordingly, the
즉, 기수 프레임 구간(1,3,...n-1 frame)은, 상술한 제1 프레임 구간에 해당하며, 우수 프레임 구간(2,4,...n frame)은 상술한 제2 프레임 구간에 대응할 수 있다.That is, the odd frame section (1,3, ... n-1 frame) corresponds to the first frame section described above, and the superior frame section (2,4, ... n frame) is the second frame described above. Can correspond to the section.
기수 프레임 구간(1,3,...n-1 frame)에서는, 각각 해당하는 투사 영상(910a,910c,..,910y)가 스캐닝 방식으로, 스크린 상에 표시될 수 있으며, 우수 프레임 구간(2,4,...n frame)에서는, 각각 해당하는 투사 영상(910b,910d,..,910z) 이 스캐닝 방식으로, 스크린 상에 표시될 수 있다.In the odd frame section (1,3, ... n-1 frame), corresponding
한편, 도 12와 달리, 우수 프레임 구간(2,4,...n frame)에서, 투사 영상이 스크린 상에 표시되지 않는 것도 가능하다. 이러한 경우, 광원부(210) 중 가시광을 출력하는 광원부가 오프(off)될 수 있다. On the other hand, unlike FIG. 12, it is also possible that the projected image is not displayed on the screen in the excellent frame section (2, 4, ... n frame). In this case, the light source unit for outputting visible light among the
한편, 도 12와 달리, 제1 프레임 구간의 빈도수와 제2 프레임 구간의 빈도수가 다른 것도 가능하다.Meanwhile, unlike FIG. 12, it is possible that the frequency of the first frame section is different from the frequency of the second frame section.
도 13은, 터치 입력의 정확성을 높이기 위해, 제1 프레임 구간의 빈도수가, 제2 프레임 구간의 빈도수 보다 더 큰 것을 예시한다.13 illustrates that the frequency of the first frame section is greater than the frequency of the second frame section to increase the accuracy of the touch input.
도면에서는, 4번째 프레임 구간(4 frame)을 제외하고는, 모든 프레임 구간(1,2,3,...n-1, n frmae)에서, 스크린(200)이 불투명하게 변하고, 해당하는 투사 영상을 표시하는 것을 예시한다. 한편, 4 번째 프레임 구간(4 frame)에서는 스크린(200)이 투명하게 변하고, 해당하는 투사 영상이 표시될 수 있다.In the drawing, in every frame section (1,2,3, ... n-1, n frmae), except for the fourth frame section (4 frames), the
한편, 도 13과 달리, 제스쳐 입력의 정확성을 높이기 위해, 제2 프레임 구간의 빈도수가, 제1 프레임 구간의 빈도수 보다 더 큰 것도 가능하다.Meanwhile, unlike FIG. 13, in order to increase the accuracy of gesture input, it is possible that the frequency of the second frame section is greater than the frequency of the first frame section.
이러한, 제1 프레임 구간의 빈도수와 제2 프레임 구간의 빈도수 조정은, 프로세서(170)에서 제어할 수 있다.The adjustment of the frequency of the first frame section and the frequency of the second frame section can be controlled by the
한편, 도 13과 같이, 제1 프레임 구간의 빈도수가, 제2 프레임 구간의 빈도수 보다 더 크게 한 상태에서, 4번째 프레임 구간(4 frame)에서 제스쳐 입력이 감지되기 시작하면, 도 13 보다, 제2 프레임 구간의 빈도수를 더 증가시키는 것이 가능하다. 예를 들어, 도 12와 같이, 제1 프레임 구간과 제2 프레임 구간을 교호하게 배열하는 것도 가능하다.On the other hand, as shown in FIG. 13, when the frequency of the first frame section is greater than the frequency of the second frame section, when the gesture input is detected in the fourth frame section (4 frame), than in FIG. It is possible to further increase the frequency of 2 frame sections. For example, as shown in FIG. 12, it is also possible to alternately arrange the first frame section and the second frame section.
역으로, 제2 프레임 구간의 빈도수가, 제1 프레임 구간의 빈도수 보다 더 크게 한 상태에서, 터치 입력이 감지되기 시작하면, 제1 프레임 구간의 빈도수를 더 증가시키는 것도 가능하다.Conversely, when the frequency of the second frame section is greater than the frequency of the first frame section, when the touch input starts to be detected, it is also possible to further increase the frequency of the first frame section.
도 14a 및 도 14b는 스크린 상의 터치 입력 및 제스쳐 입력에 따른 동작을 설명하는 도면이다. 14A and 14B are views illustrating an operation according to a touch input and a gesture input on a screen.
먼저, 도 14a(a)는 스크린(200) 상에, 계기판 정보를 알려주는 투사 영상(1100)이 표시되는 것을 예시한다. 이때, 사용자 손가락(20)에 의한 터치 입력이 있는 경우, 본 발명의 실시예에 따른 디스플레이 장치(10)는, 수신광에 기초하여, 터치 입력을 감지하고, 그에 대응하는 동작을 수행할 수 있다.First, FIG. 14A (a) illustrates that a projection image 1100 indicating instrument panel information is displayed on the
도 14a(b)는, 터치 입력에 따른, 시간 정보를 알려주는 투사 영상(1120)이 표시되는 것을 알 수 있다. 이에 의해, 사용자 이용 편의성이 증대될 수 있다. 14A (b), it can be seen that a
다음, 도 14b(a)는 스크린(200) 상에, 제1 채널(CH 9)의 방송 영상이 투사 영상(1210)으로서 표시되는 것을 예시한다. 이때, 사용자 손(50)에 의한 제스쳐 입력이 있는 경우, 본 발명의 실시예에 따른 디스플레이 장치(10)는, 수신광에 기초하여, 제스쳐 입력을 감지하고, 그에 대응하는 동작을 수행할 수 있다.Next, FIG. 14B (a) illustrates that the broadcast image of the first channel CH 9 is displayed as the projected
도 14b(b)는, 제스쳐 입력에 따른, 채널 업을 수행하고, 그에 따라, 제2 채널(CH 11)의 방송 영상이 투사 영상(1220)으로서 표시되는 예시한다. 이에 의해, 사용자 이용 편의성이 증대될 수 있다. 14B (b) illustrates that the channel image is performed according to the gesture input, and accordingly, the broadcast image of the second channel CH 11 is displayed as the projected
도 15는 도 4a 내지 도 4b의 광원부의 동작을 설명하는 도면이다.15 is a view for explaining the operation of the light source unit of FIGS. 4A to 4B.
상술한 바와 같이, 터치 입력 감지를 위한 제1 프레임 구간 동안에는, 투사영상 및 출력광이 출력되나, 제스쳐 입력 감지를 위한 제2 프레임 구간 동안에는, 투사 영상은 출력되지 않고 출력광만 출력되는 것이 가능하다.As described above, during the first frame period for sensing the touch input, the projected image and the output light are output, but during the second frame period for detecting the gesture input, the projected image is not output but only the output light can be output. .
이에 따라, 도면과 같이, 제1 프레임 구간 동안, 광원부(210) 내의 적색 광원부(210R), 녹색 광원부(210G), 청색 광원부(210B), 및 출력광 광원부(210IR)는 턴 온되고, 제2 프레임 구간 동안, 광원부(210) 내의 적색 광원부(210R), 녹색 광원부(210G), 및 청색 광원부(210B)은 턴 오프, 출력광 광원부(210IR)는 턴 온될 수 있다. 이에 의해, 불필요한 전력 소비를 줄일 수 있게 된다.Accordingly, as shown in the drawing, during the first frame period, the red
한편, 터치 입력 및 제스쳐 입력 감지를 위한 방법으로, 프레임 구간 별로, 터치 입력 구간과 제스쳐 입력 구간을, 시간적으로 구분하여 기술하였으나, 이와 달리, 공간적으로 구분하는 것도 가능하다. On the other hand, as a method for detecting a touch input and a gesture input, the touch input section and the gesture input section are described in terms of time for each frame section, but unlike this, spatial division is also possible.
즉, 본 발명의 다른 실시예에 다른 디스플레이 장치는, 제1 영역이 제1 투명도를 가지며, 제2 영역이 제1 투명도 보다 낮은 제2 투명도를 가지는 스크린과, 외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부와, 스크린 상의 제1 영역에서 터치 입력이 있는 경우, 출력광에 대응하는 수신광에 기초하여, 터치 입력을 처리하고, 스크린 상의 제2 영역에서 제스쳐 입력이 있는 경우, 출력광에 대응하는 수신광에 기초하여, 제스쳐 입력을 처리하는 프로세서를 포함할 수 있다. That is, the display device according to another embodiment of the present invention, the first area has a first transparency, the second area is a screen having a second transparency lower than the first transparency, and the output light for detecting the distance of the external object A light source unit for outputting, and if there is a touch input in the first area on the screen, processes the touch input based on the received light corresponding to the output light, and when there is a gesture input in the second area on the screen, the output light A processor may process a gesture input based on the corresponding received light.
이때, 스크린(200)의 제1 영역은 제1 투명도를 가지며, 제2 영역은 제1 투명도 보다 낮은 제2 투명도를 가지도록 설정하는 것이 가능하다. At this time, the first area of the
그리고, 프로세서(170)는, 스크린(200) 상의 제1 영역에서 터치 입력이 있는 경우, 출력광에 대응하는 수신광에 기초하여, 터치 입력을 처리하고, 스크린(200) 상의 제2 영역에서 제스쳐 입력이 있는 경우, 출력광에 대응하는 수신광에 기초하여, 제스쳐 입력을 처리할 수 있다.And, when there is a touch input in the first area on the
이때, 광원부(210)는, 가시광에 기초한 투사 영상과 출력광을 함께 출력할 수 있으며, 스캐너(140)는, 제1 방향 스캐닝 및 제2 방향 스캐닝을 수행하여, 투사 영상과 출력광을 스크린(200) 상에 함께 출력할 수 있다.At this time, the
한편, 프로세서(170)는, 표시할 영상을 스케일링하여, 스크린(200) 상의 제1 영역에 표시할 영상이 투사되도록 제어할 수도 있다.Meanwhile, the
이와 같이, 본 발명의 다른 실시예에 다른 디스플레이 장치에 대한 설명은, 도 4a 내지 도 15를 참조하여, 생략한다. As described above, description of a display device according to another embodiment of the present invention will be omitted with reference to FIGS. 4A to 15.
도 16 내지 도 17는 터치 입력 및 제스쳐 입력에 대한 다양한 예를 예시하는 도면이다. 16 to 17 are diagrams illustrating various examples of touch input and gesture input.
먼저, 도 16(a)은, 스크린(200) 상의 제1 영역(1310)이 불투명하고, 제2 영역(1320)이 투명한 것을 예시한다. 이때, 사용자 손가락(20)이 제1 영역(1310) 내의 소정 지점을 터치하는 경우, 디스플레이 장치(10)는, 수신광에 기초하여, 이를 감지할 수 있다. 그리고, 원활한 터치 입력 감지를 위해, 스크린(200) 상의 제1 영역(1310)의 크기를 가변할 수 있다. First, FIG. 16 (a) illustrates that the
도 16(b)에서는, 스크린(200) 상의 전 영역(1315)이 불투명한 것을 예시한다. 이에 따라, 스크린(200) 상의 전 영역(1315)에 대한 터치 입력 감지가 가능해진다.In FIG. 16B, it is illustrated that the
다음, 도 17(a)는, 스크린(200) 상의 제1 영역(1310)이 불투명하고, 제2 영역(1320)이 투명한 것을 예시한다. 이때, 사용자 손(60)이 제2 영역(1320) 앞에서 제스쳐 동작을 취하는 경우, 디스플레이 장치(10)는, 수신광에 기초하여, 이를 감지할 수 있다. 그리고, 디스플레이 장치(10)는, 원활한 제스쳐 입력 감지를 위해, 스크린(200) 상의 제2 영역(1320)의 크기를 가변할 수 있다. Next, FIG. 17A illustrates that the
도 17(b)에서는, 스크린(200) 상의 전 영역(1325)이 투명한 것을 예시한다. 이에 따라, 스크린(200) 상의 전 영역(1325)에 대한 제스쳐 입력 감지가 가능해진다.In FIG. 17 (b), it is illustrated that the
한편, 이러한, 투명 영역과 불투명 영역의 가변은, 도 6a 내지 도 6e에서 기술한 스크린(200) 내의 제1 전극들(H1,...Hm), 및 제2 전극들(V1,...Vn)의 일부는 하이 레벨(H)을 인가하고, 다른 일부는 로우 레벨(L)을 인가함으로써, 구현 가능하다.On the other hand, the variable of the transparent area and the opaque area, the first electrodes (H1, ... Hm), and the second electrodes (V1, ...) in the
본 발명의 실시예에 따른 디스플레이 장치는 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The display device according to the embodiment of the present invention is not limited to the configuration and method of the embodiments described as described above, the embodiments are all or part of each embodiment is optional so that various modifications can be made It may be configured in combination.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be implemented by those skilled in the art, and these modifications should not be individually understood from the technical idea or prospect of the present invention.
Claims (10)
외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부;
상기 외부 대상물로부터의 수신광을 수신하는 광 검출부;
스캐너; 및
상기 출력광 및 상기 수신광에 기초하여, 상기 제1 프레임 구간 동안, 터치 입력을 처리하고, 상기 제2 프레임 구간 동안, 제스쳐 입력을 처리하는 프로세서;를 포함하고,
상기 광원부는,
가시광에 기초한 투사 영상과 상기 출력광을 함께 출력하며,
상기 스캐너는,
상기 제1 프레임 구간 동안, 상기 투사 영상과 상기 출력광을 상기 스크린 방향으로 출력하며,
상기 제2 프레임 구간 동안, 상기 출력광을 상기 스크린 방향으로 출력하는 것을 특징으로 하는 디스플레이 장치.A screen having a first transparency during the first frame period and a second transparency during the second frame period;
A light source unit outputting output light for detecting a distance of an external object;
A light detector for receiving light received from the external object;
scanner; And
And a processor configured to process a touch input during the first frame period and a gesture input during the second frame period based on the output light and the received light.
The light source unit,
The projected image based on visible light and the output light are output together.
The scanner,
During the first frame period, the projected image and the output light are output in the screen direction,
During the second frame period, the display device outputs the output light in the screen direction.
상기 스크린은,
상기 제1 프레임 구간 동안, 상기 투사 영상을 표시하며, 상기 제2 프레임 구간 동안, 상기 투사 영상을 표시하지 않는 것을 특징으로 하는 디스플레이 장치.According to claim 1,
The screen,
A display device characterized by displaying the projected image during the first frame period and not displaying the projected image during the second frame period.
상기 스캐너는,
제1 방향 스캐닝 및 제2 방향 스캐닝을 수행하여, 상기 출력광을 상기 스크린 방향으로 출력하는 것을 특징으로 하는 디스플레이 장치.According to claim 1,
The scanner,
And performing the first direction scanning and the second direction scanning to output the output light in the screen direction.
외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부;
상기 외부 대상물로부터의 수신광을 수신하는 광 검출부; 및
상기 출력광 및 상기 수신광에 기초하여, 상기 제1 프레임 구간 동안, 터치 입력을 처리하고, 상기 제2 프레임 구간 동안, 제스쳐 입력을 처리하는 프로세서;를 포함하고,
상기 프로세서는,
상기 터치 입력 또는 상기 제스쳐 입력에 따라, 상기 제1 프레임 구간의 빈도수와 상기 제2 프레임 구간의 빈도수를 가변하는 것을 특징으로 하는 디스플레이 장치.A screen having a first transparency during the first frame period and a second transparency during the second frame period;
A light source unit outputting output light for detecting a distance of an external object;
A light detector for receiving light received from the external object; And
And a processor configured to process a touch input during the first frame period and a gesture input during the second frame period based on the output light and the received light.
The processor,
A display device characterized by varying the frequency of the first frame section and the frequency of the second frame section according to the touch input or the gesture input.
상기 스크린은,
서로 교차하는 제1 전극과 제2 전극, 및 상기 제1 전극과 제2 전극 사이에 배치되는 이방체를 포함하고,
상기 제1 전극과 상기 제2 전극 사이에 인가되는 전원에 따라, 상기 이방체의 배열 방향을 가변시켜, 상기 제1 프레임 구간 동안, 상기 제1 투명도를 가지며, 상기 제2 프레임 구간 동안 상기 제2 투명도를 가지는 것을 특징으로 하는 디스플레이 장치.According to claim 1,
The screen,
It includes a first electrode and a second electrode crossing each other, and an anisotropic body disposed between the first electrode and the second electrode,
Depending on the power applied between the first electrode and the second electrode, the arrangement direction of the anisotropic body is varied to have the first transparency during the first frame section and the second transparency during the second frame section. Display device characterized in that it has a.
상기 스크린을 기준으로 상기 외부 대상물의 반대편에 배치되며, 상기 제2 프레임 구간 동안, 상기 외부 대상물을 촬영하는 카메라;를 더 포함하고,
상기 프로세서는, 상기 외부 대상물에 대한 촬영 영상을 수신하는 것을 특징으로 하는 디스플레이 장치.According to claim 1,
It is disposed on the other side of the external object with respect to the screen, and during the second frame section, the camera for photographing the external object; further includes,
The processor, the display device, characterized in that for receiving the captured image of the external object.
외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부;
상기 외부 대상물로부터의 수신광을 수신하는 광검출부;
스캐너; 및
상기 출력광 및 상기 수신광에 기초하여, 상기 스크린 상의 상기 제1 영역에서의 터치 입력을 처리하고, 상기 스크린 상의 상기 제2 영역에서의 제스쳐 입력을 처리하는 프로세서;를 포함하고,
상기 광원부는,
가시광에 기초한 투사 영상과 상기 출력광을 함께 출력하며,
상기 스캐너는,
상기 제1 영역 방향으로, 상기 투사 영상과 상기 출력광을 출력하며,
상기 제2 영역 방향으로, 상기 출력광을 출력하는 것을 특징으로 하는 디스플레이 장치.A screen in which the first region has a first transparency and the second region has a second transparency;
A light source unit outputting output light for detecting a distance of an external object;
A photodetector configured to receive received light from the external object;
scanner; And
And a processor configured to process a touch input in the first area on the screen and a gesture input in the second area on the screen based on the output light and the received light.
The light source unit,
The projected image based on visible light and the output light are output together.
The scanner,
In the direction of the first area, the projection image and the output light are output,
And displaying the output light in the direction of the second region.
상기 스캐너는,
제1 방향 스캐닝 및 제2 방향 스캐닝을 수행하여, 상기 출력광을 상기 스크린 방향으로 출력하는 것을 특징으로 하는 디스플레이 장치.The method of claim 8,
The scanner,
And performing the first direction scanning and the second direction scanning to output the output light in the screen direction.
외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부;
상기 외부 대상물로부터의 수신광을 수신하는 광검출부; 및
상기 출력광 및 상기 수신광에 기초하여, 상기 스크린 상의 상기 제1 영역에서의 터치 입력을 처리하고, 상기 스크린 상의 상기 제2 영역에서의 제스쳐 입력을 처리하는 프로세서;를 포함하고,
상기 스크린은,
상기 터치 입력 또는 상기 제스쳐 입력에 따라, 상기 제1 영역 및 상기 제2 영역의 크기를 가변하는 것을 특징으로 하는 디스플레이 장치.A screen in which the first region has a first transparency and the second region has a second transparency;
A light source unit outputting output light for detecting a distance of an external object;
A photodetector configured to receive received light from the external object; And
And a processor configured to process a touch input in the first area on the screen and a gesture input in the second area on the screen based on the output light and the received light.
The screen,
And a size of the first area and the second area is varied according to the touch input or the gesture input.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130083758A KR102102760B1 (en) | 2013-07-16 | 2013-07-16 | Display apparatus for rear projection-type capable of detecting touch input and gesture input |
PCT/KR2014/001668 WO2015008915A1 (en) | 2013-07-16 | 2014-02-28 | Rear projection type display apparatus capable of sensing touch input and gesture input |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130083758A KR102102760B1 (en) | 2013-07-16 | 2013-07-16 | Display apparatus for rear projection-type capable of detecting touch input and gesture input |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150009360A KR20150009360A (en) | 2015-01-26 |
KR102102760B1 true KR102102760B1 (en) | 2020-05-29 |
Family
ID=52346338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130083758A KR102102760B1 (en) | 2013-07-16 | 2013-07-16 | Display apparatus for rear projection-type capable of detecting touch input and gesture input |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102102760B1 (en) |
WO (1) | WO2015008915A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113503440B (en) * | 2021-07-21 | 2023-03-31 | 许昌学院 | Intelligent home projector based on hand motion recognition |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103496A (en) * | 2010-11-10 | 2012-05-31 | Funai Electric Co Ltd | Projector |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8487881B2 (en) * | 2007-10-17 | 2013-07-16 | Smart Technologies Ulc | Interactive input system, controller therefor and method of controlling an appliance |
KR101441584B1 (en) * | 2008-01-02 | 2014-09-23 | 삼성전자 주식회사 | See-through display apparatus and method |
KR101071864B1 (en) * | 2010-03-10 | 2011-10-10 | 전남대학교산학협력단 | Touch and Touch Gesture Recognition System |
US20120274550A1 (en) * | 2010-03-24 | 2012-11-01 | Robert Campbell | Gesture mapping for display device |
EP2601565A4 (en) * | 2010-08-04 | 2016-10-26 | Hewlett Packard Development Co | System and method for enabling multi-display input |
KR101688942B1 (en) * | 2010-09-03 | 2016-12-22 | 엘지전자 주식회사 | Method for providing user interface based on multiple display and mobile terminal using this method |
KR101760804B1 (en) * | 2011-11-23 | 2017-07-24 | 인텔 코포레이션 | Gesture input with multiple views, displays and physics |
-
2013
- 2013-07-16 KR KR1020130083758A patent/KR102102760B1/en active IP Right Grant
-
2014
- 2014-02-28 WO PCT/KR2014/001668 patent/WO2015008915A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103496A (en) * | 2010-11-10 | 2012-05-31 | Funai Electric Co Ltd | Projector |
Also Published As
Publication number | Publication date |
---|---|
KR20150009360A (en) | 2015-01-26 |
WO2015008915A1 (en) | 2015-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102129923B1 (en) | Display apparatus capable of displaying projection images on dual screen | |
CN107223223B (en) | Control method and system for first-view-angle flight of unmanned aerial vehicle and intelligent glasses | |
US9075572B2 (en) | Media enhancement dock | |
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
KR102124930B1 (en) | Distance detecting apparatus capable of deriving distance information having changed space resolution | |
KR102393297B1 (en) | A eletronic device and a method | |
CN104049720B (en) | Electronic equipment and the display methods for it | |
EP3208699B1 (en) | Control device, control method, and program | |
CN102160018A (en) | Touchscreen display with plural cameras | |
US10114512B2 (en) | Projection system manager | |
US11663992B2 (en) | Fade-in user interface display based on finger distance or hand proximity | |
US20120038592A1 (en) | Input/output device and human-machine interaction system and method thereof | |
US9686522B2 (en) | Display apparatus capable of seamlessly displaying a plurality of projection images on screen | |
Wang et al. | Bare finger 3D air-touch system using an embedded optical sensor array for mobile displays | |
US10506290B2 (en) | Image information projection device and projection device control method | |
KR102102760B1 (en) | Display apparatus for rear projection-type capable of detecting touch input and gesture input | |
JP6740613B2 (en) | Display device, display device control method, and program | |
KR20140139883A (en) | Display apparatus | |
WO2016039713A1 (en) | Capture and projection of an object image | |
US11762202B1 (en) | Ring-mounted flexible circuit remote control | |
KR20150007812A (en) | Distance detecting apparatus and display apparatus for improving performance of receiving light | |
KR20150019928A (en) | Distance detecting apparatus capable of safely deriving distance information | |
KR102179432B1 (en) | Method and apparatus for detecting three-dimensional informaion | |
KR20160008856A (en) | Docking station and Robot cleaning system including the same | |
CN109417579A (en) | A kind of equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |