KR102102760B1 - Display apparatus for rear projection-type capable of detecting touch input and gesture input - Google Patents

Display apparatus for rear projection-type capable of detecting touch input and gesture input Download PDF

Info

Publication number
KR102102760B1
KR102102760B1 KR1020130083758A KR20130083758A KR102102760B1 KR 102102760 B1 KR102102760 B1 KR 102102760B1 KR 1020130083758 A KR1020130083758 A KR 1020130083758A KR 20130083758 A KR20130083758 A KR 20130083758A KR 102102760 B1 KR102102760 B1 KR 102102760B1
Authority
KR
South Korea
Prior art keywords
light
screen
output
during
frame period
Prior art date
Application number
KR1020130083758A
Other languages
Korean (ko)
Other versions
KR20150009360A (en
Inventor
이재광
조용호
정필원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130083758A priority Critical patent/KR102102760B1/en
Priority to PCT/KR2014/001668 priority patent/WO2015008915A1/en
Publication of KR20150009360A publication Critical patent/KR20150009360A/en
Application granted granted Critical
Publication of KR102102760B1 publication Critical patent/KR102102760B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • G03B21/60Projection screens characterised by the nature of the surface
    • G03B21/62Translucent screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2006Lamp housings characterised by the light source
    • G03B21/2033LED or laser light sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B33/00Colour photography, other than mere exposure or projection of a colour film
    • G03B33/04Colour photography, other than mere exposure or projection of a colour film by four or more separation records
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • Projection Apparatus (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 디스플레이 장치에 관한 것이다. 본 발명의 실시예에 따른 디스플레이 장치는, 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안, 제2 투명도를 가지는 스크린과, 외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부와, 외부 대상물로부터의 수신광을 수신하는 광 검출부와, 출력광 및 수신광에 기초하여, 제1 프레임 구간 동안, 터치 입력을 처리하고, 제2 프레임 구간 동안, 제스쳐 입력을 처리하는 프로세서를 포함한다. 이에 의해, 터치 입력 및 제스쳐 입력 감지가 가능하게 된다. The present invention relates to a display device. A display device according to an exemplary embodiment of the present invention includes a screen having a first transparency during a first frame period, a second transparency during a second frame period, and a light source unit outputting output light for detecting a distance of an external object And a processor for processing a touch input during a first frame section and processing a gesture input during a second frame section based on the output light and the received light, and a light detector for receiving light received from an external object. do. Accordingly, touch input and gesture input detection can be performed.

Description

터치 입력 및 제스쳐 입력 감지가 가능한 후면 투사 방식의 디스플레이 장치{Display apparatus for rear projection-type capable of detecting touch input and gesture input}Display apparatus for rear projection-type capable of detecting touch input and gesture input}

본 발명은 디스플레이 장치에 관한 것이며, 더욱 상세하게는 터치 입력 및 제스쳐 입력 감지가 가능한 후면 투사 방식의 디스플레이 장치에 관한 것이다.The present invention relates to a display device, and more particularly, to a rear projection type display device capable of sensing touch input and gesture input.

디스플레이 장치는 영상을 표시하는 장치이다. 한편, 디스플레이 장치 중 프로젝터는 영상을 스크린에 투사하는 장치이다. The display device is a device that displays an image. Meanwhile, among the display devices, a projector is a device that projects an image onto a screen.

한편, 스크린으로의 투사 영상을 표시하면서, 사용자에 의한 터치 입력이나 제스쳐 입력 등에 의한, 사용자 인터렉션(interaction) 요구가 증대되고 있다.On the other hand, while displaying a projected image on a screen, a user interaction request by a touch input or a gesture input by a user is increasing.

이에 대해, 전면 투사 방식의 경우, 제스쳐 입력 감지 방안이 제시되고 있고, 후면 투사 방식의 경우, 터치 입력 감지 방안이 제시되고 있다.On the other hand, in the case of the front projection method, a gesture input detection method is proposed, and in the case of the rear projection method, a touch input detection method is proposed.

그러나, 터치 입력과 제스쳐 입력을 동시에 감지하는 데에는 일정한 제약이 발생하고 있다. However, there are certain limitations in simultaneously detecting touch input and gesture input.

본 발명의 목적은, 터치 입력 및 제스쳐 입력 감지가 가능한 후면 투사 방식의 디스플레이 장치를 제공함에 있다.An object of the present invention is to provide a rear projection type display device capable of sensing touch input and gesture input.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 디스플레이 장치는, 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안, 제2 투명도를 가지는 스크린과, 외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부와, 외부 대상물로부터의 수신광을 수신하는 광 검출부와, 출력광 및 수신광에 기초하여, 제1 프레임 구간 동안, 터치 입력을 처리하고, 제2 프레임 구간 동안, 제스쳐 입력을 처리하는 프로세서를 포함한다.A display device according to an embodiment of the present invention for achieving the above object, during a first frame section, having a first transparency, during a second frame section, a screen having a second transparency, and for detecting the distance of an external object A light source unit for outputting light, a light detection unit for receiving light received from an external object, and a touch input process during a first frame period, a gesture input during a second frame period, based on the output light and the received light It includes a processor to process.

또한, 상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 디스플레이 장치는, 제1 영역이 제1 투명도를 가지며, 제2 영역이 제2 투명도를 가지는 스크린과, 외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부와, 외부 대상물로부터의 수신광을 수신하는 광검출부와, 출력광 및 수신광에 기초하여, 스크린 상의 제1 영역에서의 터치 입력을 처리하고, 스크린 상의 제2 영역에서의 제스쳐 입력을 처리하는 프로세서를 포함한다.In addition, the display device according to another embodiment of the present invention for achieving the above object, the first area has a first transparency, the second area has a second transparency screen, and the output for detecting the distance of the external object A light source unit for outputting light, a photodetector for receiving received light from an external object, and a touch input in the first area on the screen based on the output light and the received light, and gestures in the second area on the screen And a processor that processes input.

본 발명의 일 실시예에 따른 디스플레이 장치는, 제1 프레임 구간 동안 스크린이 제1 투명도를 가지는 상태에서, 터치 입력을 감지하고, 제2 프레임 구간 동안 스크린이 제2 투명도를 가지는 상태에서, 제스쳐 입력을 감지한다. 특히, 외부 대상물의 거리 검출을 위한, 출력광을, 각각 출력함으로써, 출력광과 출력광에 대응하는 수신광에 기초하여, 터치 입력 및 제스쳐 입력을 감지할 수 있게 된다.A display device according to an embodiment of the present invention detects a touch input while a screen has a first transparency during a first frame period, and a gesture input while a screen has a second transparency during a second frame period Detects. In particular, by outputting the output light for detecting the distance of the external object, respectively, it is possible to sense the touch input and the gesture input based on the output light and the received light corresponding to the output light.

한편, 디스플레이 장치가, 후면 투사 방식에 의해, 투사 영상을 출력하는 경우, 출력광은 투사 영상과 함께 출력될 수 있으며, 이에 의해, 영상 투사와 동시에, 터치 입력 또는 제스쳐 입력의 감지가 가능하게 된다. On the other hand, when the display device outputs the projected image by the rear projection method, the output light can be output together with the projected image, whereby it is possible to simultaneously sense the touch input or gesture input while projecting the image. .

한편, 본 발명의 다른 실시예에 따른 디스플레이 장치는, 카메라를 더 구비할 수 있으며, 제2 프레임 구간 동안, 스크린이 제2 투명도를 가지는 상태에서, 카메라를 통해, 외부 대상물에 대한 촬영 영상을 획득하고, 촬영 영상을 다시 스크린에 투사 영상으로서 표시할 수 있다. Meanwhile, the display device according to another embodiment of the present invention may further include a camera, and during a second frame period, while a screen has a second transparency, a captured image of an external object is acquired through the camera Then, the captured image can be displayed again on the screen as a projected image.

도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 개념도를 예시한다.
도 2는 도 1의 디스플레이 장치의 간략한 내부 블록도의 일예이다.
도 3은 도 1의 광출력 모듈에서 투사 영상과 거리 검출을 위한 광을 동시에 출력하는 것을 도시한다.
도 4a 내지 도 4b는 도 1의 광출력 모듈에서의 터치 입력 및 제스쳐 입력의 감지를 설명하기 위해 참조되는 도면이다.
도 5a 내지 도 5b는 도 4a 내지 도 4b의 광출력 모듈의 거리 검출 방법을 설명하기 위해 참조되는 도면이다.
도 6a 내지 도 6d는 도 4a 내지 도 4b의 스크린을 설명하는 도면이다.
도 7은 도 1의 디스플레이 장치의 구현 예를 예시한다.
도 8은 도 1의 디스플레이 장치의 간략한 내부 블록도의 다른 예이다.
도 9는 도 8의 광출력 모듈에서의 제스쳐 입력의 감지를 설명하기 위해 참조되는 도면이다.
도 10은 도 8의 광출력 모듈에서 영상이 투사되는 것을 예시한다.
도 11은 본 발명의 일 실시예에 따른 디스플레이 장치의 동작방법을 나타내는 순서도이다.
도 12 및 도 13은 제1 프레임 구간과 제2 프레임 구간 배열에 대한 다양한 예를 예시한다.
도 14a 및 도 14b는 스크린 상의 터치 입력 및 제스쳐 입력에 따른 동작을 설명하는 도면이다.
도 15는 도 4a 내지 도 4b의 광원부의 동작을 설명하는 도면이다.
도 16 내지 도 17는 터치 입력 및 제스쳐 입력에 대한 다양한 예를 예시하는 도면이다.
1 illustrates a conceptual diagram of a display device according to an embodiment of the present invention.
FIG. 2 is an example of a simplified internal block diagram of the display device of FIG. 1.
FIG. 3 illustrates simultaneous output of a projection image and light for distance detection in the optical output module of FIG. 1.
4A to 4B are diagrams referenced to describe the detection of touch input and gesture input in the optical output module of FIG. 1.
5A to 5B are views referred to for explaining a distance detection method of the light output module of FIGS. 4A to 4B.
6A to 6D are views for explaining the screens of FIGS. 4A to 4B.
7 illustrates an implementation example of the display device of FIG. 1.
8 is another example of a simplified internal block diagram of the display device of FIG. 1.
9 is a view referred to for explaining the detection of the gesture input in the optical output module of FIG. 8.
FIG. 10 illustrates that an image is projected from the light output module of FIG. 8.
11 is a flowchart illustrating a method of operating a display device according to an embodiment of the present invention.
12 and 13 illustrate various examples of the arrangement of the first frame section and the second frame section.
14A and 14B are views illustrating an operation according to a touch input and a gesture input on a screen.
15 is a view for explaining the operation of the light source unit of FIGS. 4A to 4B.
16 to 17 are diagrams illustrating various examples of touch input and gesture input.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "modules" and "parts" for components used in the following description are given simply by considering the ease of writing this specification, and do not imply any special significance or role in itself. Therefore, the "module" and the "unit" may be used interchangeably.

본 명세서에서 기술되는 디스플레이 장치는, 스캐닝 방식에 의해, 듀얼 스크린 상에 투사 영상 표시가 가능한 디스플레이 장치이다. 특히, 스캐닝 방식에 의해 듀얼 스크린 상에 투사 영상을 표시하면서, 외부 대상물의 거리 또는 움직임을 파악할 수 있게 된다.The display device described in this specification is a display device capable of displaying a projected image on a dual screen by a scanning method. In particular, while displaying a projected image on a dual screen by a scanning method, it is possible to grasp the distance or movement of an external object.

이를 위해 디스플레이 장치는, 외부 대상물의 거리 검출을 위한 출력광을 출력하기 위한 광 출력 모듈을 구비할 수 있다. 또한, 광 출력 모듈은, 출력광 외에, 스크린 상에 영상 표시를 위한 투사 영상을 출력할 수 있다.To this end, the display device may include a light output module for outputting output light for detecting a distance of an external object. In addition, the light output module may output a projected image for displaying an image on the screen, in addition to the output light.

이러한, 디스플레이 장치는, 외부 대상물에서 산란 또는 반사되는 수신광을 수신하고, 출력광과 수신광의 차이에 기초하여, 외부 대상물에 대한 거리 등을 검출할 수 있다. The display device may receive the received light scattered or reflected from the external object, and detect a distance, etc. to the external object based on the difference between the output light and the received light.

특히, 디스플레이 장치는, 제1 프레임 구간 동안 스크린이 제1 투명도를 가지는 상태에서, 터치 입력을 감지하고, 제2 프레임 구간 동안 스크린이 제2 투명도를 가지는 상태에서, 제스쳐 입력을 감지할 수 있다. In particular, the display device may detect a touch input while the screen has the first transparency during the first frame period, and detect a gesture input while the screen has the second transparency during the second frame period.

한편, 이러한 디스플레이 장치는, TV, 미디어 플레이어, 게임 기기, 에어컨, 냉장고, 세탁기, 조리기기, 로봇 청소기 등의 가전기기 내에 포함되는 것도 가능하며, 자동차 등의 차량 내에 포함되는 것도 가능하다. Meanwhile, such a display device may be included in a household appliance such as a TV, a media player, a game device, an air conditioner, a refrigerator, a washing machine, a cooking appliance, a robot cleaner, or may be included in a vehicle such as an automobile.

이하에서는 이러한 디스플레이 장치에 대해 상세히 기술한다. Hereinafter, such a display device will be described in detail.

도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 개념도를 예시한다.1 illustrates a conceptual diagram of a display device according to an embodiment of the present invention.

도면을 참조하면, 디스플레이 장치(10)는, 광 출력 모듈(100), 및 스크린(200)을 구비할 수 있다.Referring to the drawings, the display device 10 may include a light output module 100 and a screen 200.

광 출력 모듈(100)은, 외부 대상물의 거리 검출을 위한 출력광을, 제1 방향 스캐닝 및 제2 방향 스캐닝에 의해, 외부로 출력하며, 출력광에 대응하는 수신광을 수신하며, 출력광과 수신광에 기초하여 외부 대상물의 거리 또는 움직임을 검출할 수 있다.The light output module 100 outputs the output light for detecting the distance of the external object to the outside by scanning in the first direction and scanning in the second direction, receives the received light corresponding to the output light, and output light The distance or movement of the external object can be detected based on the received light.

또한, 광 출력 모듈(100)은, 출력광과 함께, 가시광에 기초한 투사 영상을, 방향 스캐닝 및 제2 방향 스캐닝에 의해, 외부로 출력할 수 있다.In addition, the light output module 100 may output, together with the output light, a projected image based on visible light, by direction scanning and second direction scanning, to the outside.

이를 위해, 광출력 모듈(100)은, 스캐닝 방식에 의해, 투사 영상과 출력광을 동시에 출력할 수 있는 2D 스캐너를 구비할 수 있다.To this end, the optical output module 100 may include a 2D scanner capable of simultaneously outputting a projected image and output light by a scanning method.

한편, 광출력 모듈(100)의 반대편에 위치하는 사용자(700)가, 스크린(200) 상에 투사되는 투사 영상을 인식하므로, 이러한 방식을, 후면 투사 방식이라 명명할 수 있다.On the other hand, since the user 700 located on the opposite side of the light output module 100 recognizes the projected image projected on the screen 200, this method may be referred to as a rear projection method.

한편, 스크린(200) 앞에 위치하는 사용자(700)에 대해서는, 스크린(200) 방향으로 출력되는 출력광에 기초하여, 거리 검출 수행이 가능하게 된다.On the other hand, for the user 700 located in front of the screen 200, it is possible to perform distance detection based on the output light output in the direction of the screen 200.

예를 들어, 도면과 같이, 스크린(200) 앞에 위치하는 사용자가 손가락(20)을 이용하여, 스크린(200)을 터치하는 터치 입력을 수행하는 경우, 광출력 모듈(100)은, 사용자 손가락(20)에서 산란 또는 반사되는 수신광을 수신하고, 출력광과 수신광에 기초하여, 터치 입력을 감지할 수 있다.For example, as shown in the drawing, when a user positioned in front of the screen 200 performs a touch input using the finger 20 to touch the screen 200, the light output module 100 may display a user finger ( In 20), scattered or reflected received light may be received, and a touch input may be sensed based on the output light and the received light.

다른 예로, 도면과 같이, 스크린(200) 앞에 위치하는 사용자(700)가 손(60)을 이용하여, 스크린(200) 앞에서 제스쳐 입력을 수행하는 경우, 광출력 모듈(100)은, 사용자 손(60)에서 산란 또는 반사되는 수신광을 수신하고, 출력광과 수신광에 기초하여, 제스쳐 입력을 감지할 수 있다.As another example, as shown in the drawing, when the user 700 located in front of the screen 200 performs a gesture input in front of the screen 200 using the hand 60, the light output module 100 may display a user hand ( In 60), scattered or reflected received light may be received, and a gesture input may be sensed based on the output light and the received light.

한편, 본 발명의 실시예에 따른 디스플레이 장치(10)는, 터치 입력 및 제스쳐 입력을 원활하게 감지하기 위해, 제1 프레임 구간 동안은, 스크린(200)이 제1 투명도를 가지게 하여, 제1 프레임 구간 동안, 터치 입력을 감지하고, 제2 프레임 구간 동안은, 스크린(200)이 제1 투명도 보다 낮은 제2 투명도를 가지게 하여, 제2 프레임 구간 동안, 제스쳐 입력을 감지할 수 있다. On the other hand, the display device 10 according to an embodiment of the present invention, in order to smoothly detect the touch input and the gesture input, during the first frame period, the screen 200 has the first transparency, the first frame During the period, the touch input is sensed, and during the second frame period, the screen 200 may have a second transparency lower than the first transparency, so that during the second frame period, the gesture input may be detected.

결국, 이러한 디스플레이 장치(100)에 의하면, 터치 입력 및 제스쳐 입력이 가능하게 된다. As a result, according to the display device 100, touch input and gesture input are enabled.

도 2는 도 1의 광출력 모듈의 간략한 내부 블록도이다.FIG. 2 is a simplified internal block diagram of the light output module of FIG. 1.

도면을 참조하면, 광출력 모듈(100)은, TOF(Time of Flight) 방식으로 투사 영상 및 출력광을 출력한다.Referring to the drawings, the optical output module 100 outputs a projected image and output light in a time of flight (TOF) method.

이를 위해, 광출력 모듈(100)은, 메모리(120), 스캐너(140), 프로세서(170), 통신 모듈(180), 구동부(185), 전원 공급부(190), 광원부(210), 광 검출부(280) 등을 구비할 수 있다. To this end, the optical output module 100 includes a memory 120, a scanner 140, a processor 170, a communication module 180, a driving unit 185, a power supply unit 190, a light source unit 210, and a light detection unit 280 and the like.

메모리(120)는 프로세서(170)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The memory 120 may store a program for processing and control of the processor 170, or may perform a function for temporarily storing input or output data (eg, still images, videos, etc.). .

통신 모듈(135)은 광출력 모듈(100)에 유선 또는 무선으로 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 통신 모듈(135)은 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 광출력 모듈(100) 내부의 각 구성 요소에 전달할 수 있고, 광출력 모듈(100) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The communication module 135 serves as an interface with all external devices connected to the optical output module 100 by wire or wireless. The communication module 135 may receive data from these external devices or receive power and transmit the data to each component inside the optical output module 100, so that the data inside the optical output module 100 is transmitted to the external device. Can be.

특히, 통신 모듈(135)은, 인접하는 이동 단말기(미도시)로부터 무선 신호를 수신할 수 있다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자 데이터, 영상 데이터 등 다양한 형태의 데이터를 포함할 수 있다. In particular, the communication module 135 may receive a wireless signal from an adjacent mobile terminal (not shown). Here, the wireless signal may include various types of data such as a voice call signal, a video call signal, or text data and video data.

이를 위해, 통신 모듈(135)은, 근거리 통신 모듈(미도시)를 구비할 수 있다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), NFC(Near Field Communication) 등이 이용될 수 있다.To this end, the communication module 135 may include a short-range communication module (not shown). Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, Near Field Communication (NFC) may be used as the short-range communication technology.

스캐너(140)는, 입력되는 광을, 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차 및 반복적으로 수행하여, 외부에 출력할 수 있다.The scanner 140 may sequentially and repeatedly perform the first direction scanning and the second direction scanning, and output the input light to the outside.

스캐너(140)에 입력되는 광은, 투사 영상에 대응하는 가시광과, 외부 대상물에 대한 거리 검출을 위한 출력광을 포함할 수 있다. 여기서 출력광은, 적외선광일 수 있다. The light input to the scanner 140 may include visible light corresponding to the projected image and output light for detecting a distance to an external object. Here, the output light may be infrared light.

스캐너(140)는, 외부 스캔 영역에 대해, 좌에서 우 방향 스캐닝 및 우에서 좌방향 스캐닝을 순차 및 반복적으로 수행하면서, 외부 스캔 영역 전체에 대한 스캐닝을 프레임 단위로 수행할 수 있다. 그리고, 이러한 스캐닝에 의해, 가시광에 기초한 투사 영상과, 출력광을, 외부 스캔 영역에 대해 출력할 수 있다.The scanner 140 may sequentially and repeatedly perform scanning from left to right and scanning from right to left with respect to the external scan area, while scanning the entire external scan area on a frame-by-frame basis. Then, the projection image based on visible light and the output light can be output to the external scan area by such scanning.

프로세서(170)는, 광출력 모듈(100)의 전반적인 제어 동작을 수행할 수 있다. 구체적으로, 광출력 모듈(100) 내의 각 유닛의 동작을 제어할 수 있다.The processor 170 may perform an overall control operation of the optical output module 100. Specifically, the operation of each unit in the optical output module 100 can be controlled.

프로세서(170)는, 메모리(120)에 저장되는 비디오 영상, 또는 통신 모듈(135)을 통해 외부로부터 수신되는 비디오 영상을, 투사 영상으로서, 외부 스캔 영역에 출력되도록 제어할 수 있다.The processor 170 may control a video image stored in the memory 120 or a video image received from the outside through the communication module 135 to be output to an external scan area as a projection image.

이를 위해, 프로세서(170)는, R,G,B 등의 가시광을 출력하는 광원부(210)를 제어하는 구동부(185)를 제어할 수 있다. 구체적으로, 구동부(185)에, 표시할 비디오 영상에 대응하는 R,G,B 신호를 출력할 수 있다. To this end, the processor 170 may control the driving unit 185 that controls the light source unit 210 that outputs visible light such as R, G, and B. Specifically, the R, G, and B signals corresponding to the video image to be displayed may be output to the driver 185.

한편, 프로세서(170)는, 외부 대상물의 거리 검출을 위해, 출력광에 대응하는 전기 신호를 구동부(185)로 전송할 수 있다. Meanwhile, the processor 170 may transmit an electrical signal corresponding to the output light to the driver 185 for detecting the distance of the external object.

프로세서(170)는, 스캐너(140)의 동작을 제어할 수 있다. 구체적으로, 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차 및 반복적으로 수행하여, 외부에 투사 영상 및 출력광을 출력하도록 제어할 수 있다.The processor 170 may control the operation of the scanner 140. Specifically, the first direction scanning and the second direction scanning may be sequentially and repeatedly performed to control to output a projected image and output light to the outside.

한편, 프로세서(170)는, 스캐너(140)의 동작 제어시, 프레임 레이트를 가변하여, 스캐너(140)의 스캐닝 속도를 가변할 수 있다. Meanwhile, the processor 170 may control the scanning speed of the scanner 140 by varying the frame rate when controlling the operation of the scanner 140.

한편, 프로세서(170)는, 구동부(185)로 전송되는 출력광에 대응하는 전기 신호와, 광 검출부(280)에서 수신되는 수신광에 기초한 전기 신호에 기초하여, 외부 대상물에 대한 거리 검출을 수행할 수 있다. Meanwhile, the processor 170 performs distance detection on an external object based on an electrical signal corresponding to the output light transmitted to the driver 185 and an electrical signal based on the received light received from the light detector 280. can do.

예를 들어, 프로세서(170)는, 출력광에 대응하는 전기 신호와, 수신광에 대응하는 전기 신호의 위상 차이를 이용하여, 외부 스캔 영역(40)에 거리를 검출할 수 있다. 그리고, 프로세서(170)는, 프레임 단위로 검출되는 외부 스캔 영역에 대한 거리 정보에 기초하여, 사용자의 제스쳐 동작을 검출할 수 있다.For example, the processor 170 may detect a distance in the external scan area 40 using a phase difference between an electrical signal corresponding to the output light and an electrical signal corresponding to the received light. In addition, the processor 170 may detect a gesture gesture of the user based on the distance information for the external scan area detected in units of frames.

구체적으로, 프로세서(170)는, 제1 프레임 구간 동안은, 스크린(200)이 제1 투명도를 가지게 하여, 제1 프레임 구간 동안, 터치 입력을 처리하고, 제2 프레임 구간 동안은, 스크린(200)이 제1 투명도 보다 낮은 제2 투명도를 가지게 하여, 제2 프레임 구간 동안, 제스쳐 입력을 처리할 수 있다. Specifically, the processor 170, during the first frame period, causes the screen 200 to have the first transparency, processes the touch input during the first frame period, and the screen 200 during the second frame period. ) Has a second transparency lower than the first transparency, so that a gesture input can be processed during the second frame period.

한편, 프로세서(170)는, 광출력 모듈(100) 외부의 스크린(200)을 제어하는 스크린 제어부(205)를 제어할 수 있다.Meanwhile, the processor 170 may control the screen control unit 205 that controls the screen 200 outside the light output module 100.

스크린(200)은, 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안, 제1 투명도 보다 낮은 제2 투명도를 가질 수 있다. 구체적으로, 제1 프레임 구간 동안, 스크린(200)은, 불투명하게 변하여, 투사 영상이 스크린(200) 상에서, 표시되도록 하고, 제2 프레임 구간 동안, 스크린(200)은, 투명하게 변하여, 출력광이 스크린(200)을 투과하여, 스크린(200) 앞에 위치하는 사용자를 검출 가능하도록 한다.The screen 200 may have a first transparency during the first frame period, and a second transparency lower than the first transparency during the second frame period. Specifically, during the first frame period, the screen 200 is changed to be opaque so that the projected image is displayed on the screen 200, and during the second frame period, the screen 200 is transparently changed to output light Through this screen 200, it is possible to detect a user located in front of the screen 200.

이러한 프레임 구간 별, 스크린의 투명도 조절은, 스크린 제어부(205)에 의해 수행될 수 있다. For each frame section, adjustment of the transparency of the screen may be performed by the screen control unit 205.

스크린(200)이, 서로 교차하는 제1 투명 전극과 제2 투명 전극, 및 제1 투명 전극과 제2 투명 전극 사이에 배치되는 이방체를 포함하는 경우, 스크린 제어부(205)는, 제1 투명 전극과 제2 투명 전극 사이에 인가되는 전원에 따라, 이방체의 배열 방향을 가변시켜, 스크린(200)이, 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안 제2 투명도를 가지도록 제어할 수 있다.When the screen 200 includes a first transparent electrode and a second transparent electrode intersecting each other, and an anisotropic body disposed between the first transparent electrode and the second transparent electrode, the screen control unit 205 may include the first transparent electrode Depending on the power applied between the second transparent electrode, the arrangement direction of the anisotropic body is varied so that the screen 200 has a first transparency during the first frame section and a second transparency during the second frame section. Can be controlled.

한편, 프레임 동기 신호 등은, 프로세서(170)에서, 스크린 제어부(205)로 전달될 수 있다. Meanwhile, the frame synchronization signal or the like may be transmitted from the processor 170 to the screen control unit 205.

광원부(210)는, 청색 단일광을 출력하는 청색 광원부, 녹색 단일광을 출력하는 녹색 광원부, 및 적색 단일광을 출력하는 적색 광원부를 포함할 수 있다. 이때, 각 광원부는, 레이저 다이오드로 구현될 수 있다. 또는, LED로 구현될 수도 있다.The light source unit 210 may include a blue light source unit outputting blue single light, a green light source unit outputting green single light, and a red light source unit outputting red single light. At this time, each light source unit may be implemented with a laser diode. Alternatively, it may be implemented as an LED.

또한, 광원부(210)는, 적외선 광을 출력하는 적외선 광원부를 포함할 수 있다.In addition, the light source unit 210 may include an infrared light source unit that outputs infrared light.

광검출부(280)는, 출력광에 대응하여 외부로부터 수신되는 수신광을 전기 신호로 변환할 수 있다. 이를 위해, 광검출부(280)는, 광 신호를 수신 신호, 즉 전기신호로 변환하는 포토 다이오드(Photodiode)를 포함할 수 있다. 특히, 광검출부(280)는, 고 광전 효율의 포토 다이오드로 외부 대상물로부터 산란된 수신광을 전기 신호로 변환해주는 Avalanche Photodiode를 포함할 수 있다.The photodetector 280 may convert received light received from the outside into an electrical signal corresponding to the output light. To this end, the photodetector 280 may include a photodiode that converts the optical signal into a received signal, that is, an electrical signal. In particular, the photodetector 280 may include an Avalanche Photodiode that converts received light scattered from an external object into an electric signal with a high photoelectric efficiency photodiode.

한편, 광검출부(280)는, 출력광이 적외선광인 경우, 적외선광의 수신광을 수신하기 위해, CCD(Charge Coupled Device), 또는 CMOS 센서를 포함할 수도 있다. Meanwhile, when the output light is infrared light, the photodetector 280 may include a charge coupled device (CCD) or a CMOS sensor to receive the received light of infrared light.

한편, 도면에는 도시하지 않았으나, 광검출부(280)와 프로세서(170) 사이에, 아날로그 신호를 디지털 신호로 변환하는 샘플러(미도시)가 더 구비될 수 있다.Meanwhile, although not illustrated in the drawing, a sampler (not shown) for converting an analog signal to a digital signal may be further provided between the photodetector 280 and the processor 170.

구동부(185)는, 프로세서(170)로부터 수신되는 R,G,B 신호에 대응하여, 구동부(185) 내의 적색 광원부, 녹색 광원부, 청색 광원부에서, 각각 적색광, 녹색광, 청색광이 출력되도록 제어할 수 있다.The driving unit 185 may control the red light source, the green light source, and the blue light source in the driving unit 185 to output red light, green light, and blue light, respectively, in response to R, G, and B signals received from the processor 170. have.

한편, 구동부(185)는, 프로세서(170)로부터 수신되는 출력광에 대응하는 전기 신호에 대응하여, 구동부(185) 내의 적외선 광원에서, 적외선광이 출력되도록 제어할 수 있다.Meanwhile, the driving unit 185 may control the infrared light to be output from the infrared light source in the driving unit 185 in response to an electrical signal corresponding to the output light received from the processor 170.

전원 공급부(190)는 프로세서(170)의 제어에 의해 외부의 전원 또는 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.The power supply unit 190 may receive external power or internal power under the control of the processor 170 to supply power required for the operation of each component.

도 3은 도 1의 광출력 모듈에서 투사 영상과 거리 검출을 위한 광을 동시에 출력하는 것을 도시한다. FIG. 3 illustrates simultaneous output of a projection image and light for distance detection in the optical output module of FIG. 1.

도면을 참조하면, 본 발명의 실시예에 따른 광출력 모듈(100) 내의 스캐너(140)는, 입력되는 광을, 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차 및 반복적으로 수행하여, 외부 스캔 영역에 출력할 수 있다. 도면에서는 스크린(200)에, 투사 영상(202a)(RGB) 및 출력광(IR)이 출력되는 것을 예시한다.Referring to the drawings, the scanner 140 in the optical output module 100 according to an embodiment of the present invention sequentially and repeatedly performs input light, scanning in the first direction and scanning in the second direction, and thereby an external scan area Can be output to In the drawing, it is illustrated that the projection image 202a (RGB) and the output light IR are output to the screen 200.

본 발명의 실시예에 따른 광출력 모듈(100) 내의 스캐너(140)는, 입력되는 가시광에 기초한 투사 영상(RGB)과, 적외선광인 출력광(IR)을 동시에 출력할 수 있다. 특히, 외부 스캔 영역에 대해, 좌에서 우 방향 스캐닝 및 우에서 좌방향 스캐닝을 순차 및 반복적으로 수행하면서, 외부 스캔 영역 전체에 대한 스캐닝을 프레임 단위로 수행할 수 있다.The scanner 140 in the optical output module 100 according to an embodiment of the present invention can simultaneously output a projection image RGB based on visible light input and an output light IR that is infrared light. Particularly, for the external scan area, scanning of the entire external scan area may be performed on a frame-by-frame basis while sequentially and repeatedly performing left-to-right scanning and right-to-left scanning.

즉, 본 발명의 실시예에 따른 광출력 모듈(100)에 따르면, 외부로 영상을 투사하면서, 외부 대상물의 거리를 검출할 수 있으므로, 대상물의 거리 또는 움직임에 기초하여 관련 영상을 표시하거나, 사용자 제스쳐에 대응하는 영상을 표시할 수 있다.That is, according to the optical output module 100 according to an embodiment of the present invention, while projecting an image to the outside, it is possible to detect the distance of the external object, so based on the distance or movement of the object to display the related image, or An image corresponding to a gesture can be displayed.

한편, 이하에서는 광출력 모듈(100) 내부에 대해 보다 상세히 기술한다.Meanwhile, hereinafter, the inside of the light output module 100 will be described in more detail.

도 4a 내지 도 4b는 도 1의 광출력 모듈에서의 터치 입력 및 제스쳐 입력의 감지를 설명하기 위해 참조되는 도면이다. 4A to 4B are diagrams referenced to describe the detection of touch input and gesture input in the optical output module of FIG. 1.

도 4a 및 도 4b의 광출력 모듈(100a)은 동일한 광출력 모듈로서, 광원부(210), 집광부(212), 광합성부(220), 광반사부(256), 스캐너(140), 프로세서(170), 구동부(185), 집광부(218), 적외선 투과 필터(282), 및 광검출부(280)를 구비할 수 있다.The light output module 100a of FIGS. 4A and 4B is the same light output module, a light source unit 210, a light collection unit 212, a photosynthesis unit 220, a light reflection unit 256, a scanner 140, a processor ( 170), a driving unit 185, a light collecting unit 218, an infrared transmission filter 282, and a light detection unit 280.

광원부(210)는, 복수의 광원부를 구비할 수 있다. 즉, 광원부(210)는, 적색 광원부(210R), 녹색 광원부(210G), 청색 광원부(210B), 적외선 방식의 출력광을 출력하는 출력광 광원부(210IR)를 구비할 수 있다. 이 중, 광원부(210R,210G,210B)는, 레이저 다이오드를 구비할 수 있다. The light source unit 210 may include a plurality of light source units. That is, the light source unit 210 may include a red light source unit 210R, a green light source unit 210G, a blue light source unit 210B, and an output light source unit 210IR for outputting infrared-type output light. Among them, the light source units 210R, 210G, and 210B may include laser diodes.

한편, 각 광원부(210R,210G,210B,210IR)는, 구동부(185)로부터의 각 전기 신호에 의해, 구동될 수 있으며, 이러한 구동부(185)의 전기 신호는, 프로세서(170)의 제어에 의해, 생성될 수 있다. 한편, 출력광에 대응하는 전기 신호에 의해, 출력광 광원부(210IR)가 출력광을 출력할 수 있다.Meanwhile, each of the light source units 210R, 210G, 210B, and 210IR may be driven by each electric signal from the driving unit 185, and the electric signal of the driving unit 185 may be controlled by the processor 170. , Can be generated. Meanwhile, the output light source unit 210IR may output the output light by an electric signal corresponding to the output light.

각 광원부(210R,210G,210B,210IR)에서 출력되는 광들은, 집광부(212) 내의 각 집광 렌즈(collimator lens)를 통해, 시준된다(collimate).The light output from each of the light source units 210R, 210G, 210B, and 210IR is collimated through each collimator lens in the light collecting unit 212.

광합성부(220)는, 각 광원부(210R,210G,210B,210IR)에서에서 출력되는 광을 합성하여 일 방향으로 출력한다. 이를 위해, 광합성부(220)는, 4개의 2D MEMS 미러(mirror)(220a,220b,220c,220d)를 구비할 수 있다.The photosynthesis unit 220 synthesizes the light output from each of the light source units 210R, 210G, 210B, and 210IR and outputs them in one direction. To this end, the photosynthesis unit 220 may include four 2D MEMS mirrors 220a, 220b, 220c, and 220d.

즉, 제1 광합성부(220a), 제2 광합성부(220b), 제3 광합성부(220c), 및 제4 광합성부(220d)는, 각각, 적색 광원부(210R)에서 출력되는 적색광, 녹색 광원부(210G)에서 출력되는 녹색광, 청색 광원부(210B)에서 출력되는 청색광, 출력광 광원부(210IR)에서 출력되는 출력광을, 스캐너(140) 방향으로 출력하도록 한다.That is, the first photosynthesis unit 220a, the second photosynthesis unit 220b, the third photosynthesis unit 220c, and the fourth photosynthesis unit 220d, respectively, are red light and a green light source unit output from the red light source unit 210R. The green light output from the 210G, the blue light output from the blue light source unit 210B, and the output light output from the output light source unit 210IR are output to the scanner 140.

광반사부(256)는, 광합성부(220)를 통과한 적색광,녹색광,청색광,출력광을 스캐너(140) 방향으로 반사시킨다. 광반사부(256)는, 다양한 파장의 광을 반사시키며, 이를 위해, Total Mirror(TM)로 구현될 수 있다.The light reflection unit 256 reflects the red light, the green light, the blue light, and the output light that have passed through the photosynthesis unit 220 toward the scanner 140. The light reflection unit 256 reflects light of various wavelengths, and for this purpose, may be implemented with Total Mirror (TM).

한편, 스캐너(140)는, 광원부(210)으로부터의 가시광(RGB),출력광(IR)을, 입력받아, 외부로 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차적으로, 그리고 반복적으로 수행할 수 있다. 이와 같은 스캐닝 동작을, 외부 스캔 영역의 전체에 대해, 반복하여 수행한다. 특히, 스캐너(140)에서 출력되는 가시광(RGB),및 출력광(IR)은, 스크린(200)에 출력될 수 있다.Meanwhile, the scanner 140 may receive visible light (RGB) and output light (IR) from the light source unit 210, and sequentially and repeatedly perform first direction scanning and second direction scanning to the outside. have. This scanning operation is repeatedly performed for the entire external scan area. In particular, the visible light RGB output from the scanner 140 and the output light IR may be output to the screen 200.

이에 의해, 스크린(200) 상에 가시광(RGB)에 대응하는 투사 영상이 표시될 수 있다. Accordingly, a projected image corresponding to visible light (RGB) may be displayed on the screen 200.

한편, 광출력 모듈(100)의 반대편에 위치하는 사용자(700)가, 스크린(200) 상에 투사되는 투사 영상을 인식하므로, 이러한 방식을, 후면 투사 방식이라 명명할 수 있다.On the other hand, since the user 700 located on the opposite side of the light output module 100 recognizes the projected image projected on the screen 200, this method may be referred to as a rear projection method.

한편, 스크린(200) 앞에 위치하는 사용자에 대해서는, 스크린(200)에 출력되는 출력광에 기초하여, 거리 검출 수행이 가능하게 된다.On the other hand, for a user located in front of the screen 200, it is possible to perform distance detection based on the output light output to the screen 200.

구체적으로, 광출력 모듈(100)은 제1 프레임 구간 동안에는, 스크린(200) 상에 터치되는 사용자 손가락(20)에 의한 터치 입력을 감지하고, 제2 프레임 구간 동안에는, 스크린(200) 건너편에 위치하는 사용자의 손(60) 동작에 의한 제스쳐 입력을 감지한다. 이를 위해, 제1 프레임 구간 동안은, 스크린(200)은 불투명하게 되며, 제2 프레임 구간 동안 스크린(200)은 투명하게 될 수 있다.Specifically, the optical output module 100 detects a touch input by the user's finger 20 that is touched on the screen 200 during the first frame section, and is located across the screen 200 during the second frame section. Gesture input by the user's hand 60 is detected. To this end, during the first frame period, the screen 200 may be opaque, and during the second frame period, the screen 200 may be transparent.

도 4a는, 제1 프레임 구간 동안, 스크린(200)이 불투명한 것을 예시하며, 이때, 광출력 모듈(100)은, 가시광에 의한 투사 영상(RGB)와 출력광(IR)을 함께 출력할 수 있다. 제1 프레임 구간 동안에, 사용자가 손가락(20)을 움직여, 스크린(200) 상에 터치 입력을 수행하는 경우, 손가락(20)에 의해 출력광(IR)이, 산란 또는 반사되어, 수신광이, 광출력 모듈(100)로 입사될 수 있다. 구체적으로, 수신광이, 집광부(218), 적외선 투과 필터(282)를 거쳐, 광검출부(280)로 입력될 수 있다.FIG. 4A illustrates that during the first frame period, the screen 200 is opaque. At this time, the optical output module 100 may simultaneously output a projection image RGB and output light IR by visible light. have. During the first frame period, when the user moves the finger 20 to perform touch input on the screen 200, the output light IR is scattered or reflected by the finger 20 to receive light, It may be incident on the light output module 100. Specifically, the received light may be input to the light detection unit 280 through the light collecting unit 218 and the infrared transmission filter 282.

광검출부(280)는, 이러한 수신광을 전기 신호로 변환하고, 프로세서(170)는, 손가락(20)에 의한 수신광과 출력광에 기초하여, 거리 검출 그리고 터치 입력 처리를 수행할 수 있다.The photodetector 280 converts the received light into an electrical signal, and the processor 170 may perform distance detection and touch input processing based on the received light and the output light by the finger 20.

도 4b는, 제2 프레임 구간 동안, 스크린(200)이 투명한 것을 예시하며, 이때, 광출력 모듈(100)은, 출력광(IR)을 출력할 수 있다. 또는, 광출력 모듈(100)은, 가시광에 의한 투사 영상(RGB)과 출력광(IR)을 함께 출력할 수 있다. 제2 프레임 구간 동안에, 사용자가 손(60)을 움직여, 스크린(200) 앞에서 제스쳐 입력을 수행하는 경우, 사용자 손(60)에 의해 출력광(IR)이, 산란 또는 반사되어, 수신광이, 광출력 모듈(100)로 입사될 수 있다. 구체적으로, 수신광이, 집광부(218), 적외선 투과 필터(282)를 거쳐, 광검출부(280)로 입력될 수 있다.4B illustrates that the screen 200 is transparent during the second frame period, and in this case, the optical output module 100 may output the output light IR. Alternatively, the optical output module 100 may output the projected image RGB and visible light IR by visible light together. During the second frame period, when the user moves the hand 60 to perform gesture input in front of the screen 200, the output light IR is scattered or reflected by the user hand 60 to receive light, It may be incident on the light output module 100. Specifically, the received light may be input to the light detection unit 280 through the light collecting unit 218 and the infrared transmission filter 282.

광검출부(280)는, 이러한 수신광을 전기 신호로 변환하고, 프로세서(170)는, 사용자 손(60)에 의한 수신광과 출력광에 기초하여, 거리 검출 그리고 제스쳐 입력 처리를 수행할 수 있다.The photodetector 280 converts the received light into an electrical signal, and the processor 170 may perform distance detection and gesture input processing based on the received light and the output light by the user's hand 60. .

한편, 제1 프레임 구간과 제2 프레임 구간은, 서로 교호하게 배치될 수 있으나, 이에 한정되지 않고 다양한 예가 가능하다.Meanwhile, the first frame section and the second frame section may be alternately arranged, but are not limited thereto, and various examples are possible.

한편, 본 발명의 실시예에 따르면, 스캐너(140)에서 출력되는 가시광(RGB)을 출력하므로, 투사 영상이 표시되는 스크린(200)이 자유 곡면(free-form)을 가져도, 해당 스크린의 곡면에 대응하여, 투사 영상을 표시하는 것이 가능하다. 예를 들어, 스크린(200)의 곡면 상태를, 출력광에 의한 거리 검출을 통해, 파악하고, 해당 곡면에 대응하여, 표시 영상의 스케일링을 수행하고, 스케일링된 투사 영상을 표시하는 것도 가능하다. 이에 따라, 자유 곡면 디스플레이가 가능하게 된다.Meanwhile, according to an embodiment of the present invention, since the visible light RGB output from the scanner 140 is output, even if the screen 200 on which the projected image is displayed has a free-form, the curved surface of the screen Correspondingly, it is possible to display the projected image. For example, it is also possible to grasp the curved state of the screen 200 through distance detection by the output light, perform scaling of the display image in response to the curved surface, and display the scaled projected image. Accordingly, a free-form surface display is possible.

도 5a 내지 도 5b는 도 4a 내지 도 4b의 광출력 모듈의 거리 검출 방법을 설명하기 위해 참조되는 도면이다.5A to 5B are views referred to for explaining a distance detection method of the light output module of FIGS. 4A to 4B.

먼저, 도 5a는, 제1 프레임 구간 동안, 도 4a의 스크린(200) 상에서의 터치 입력 감지를 설명하기 위해 참조되는 도면이다.First, FIG. 5A is a diagram referenced to describe touch input detection on the screen 200 of FIG. 4A during a first frame period.

스크린(200) 상에 출력광이 출력되는 상태에서, 도 5a의 (a)와 같이, 스크린 상의 제1 지점(P1)에 사용자가 터치하는 경우, 예를 들어, 사용자의 손을 이용하여 터치하는 경우, 출력광이, 사용자 손에 의해 산란 또는 반사되어, 광 검출부(280)로 수신된다.In a state in which output light is output on the screen 200, when the user touches the first point P1 on the screen, as shown in (a) of FIG. 5A, for example, using the user's hand to touch In this case, the output light is scattered or reflected by the user's hand and is received by the light detector 280.

도면에서는 제1 지점(P1)에 대응하는 x 좌표, y 좌표에서의 수신광의 크기(amplitude)가 커지는 것을 예시한다. In the drawing, it is exemplified that the amplitude of the received light at the x and y coordinates corresponding to the first point P1 is increased.

도 5a의 (b)는 출력광의 전기 신호(tx)와, 수신광의 전기 신호(Rx)를 예시하며, 특히 제1 지점(P1)에 대응하는 x 좌표, y 좌표에서의 수신광의 크기(amplitude)Ae 인 것을 예시한다. 즉, 사용자 터치에 의해, 터치 지점에서의 수신광의 전기신호의 크기는 다른 스크린 상의 지점에서의 크기보다 크게 된다.FIG. 5A (b) illustrates the electrical signal tx of the output light and the electrical signal Rx of the received light, and in particular, the size of the received light at the x coordinate and the y coordinate corresponding to the first point P1 ( amplitude) Ae. That is, by the user's touch, the magnitude of the electrical signal of the received light at the touch point becomes larger than the magnitude at the point on the other screen.

이러한 특성을 이용하여, 프로세서(170)는, 스크린(200) 상의 터치 지점을 검출하여 처리하게 된다. 특히, 프로세서(170)는, 스크린(200)이 제1 투명도를 가지는 경우, 터치 입력의 좌표를 연산할 수 있다. Using these characteristics, the processor 170 detects and processes a touch point on the screen 200. In particular, when the screen 200 has the first transparency, the processor 170 may calculate the coordinates of the touch input.

다음, 도 5b는, 제2 프레임 구간 동안, 도 4b의 스크린(200) 앞에서 수행되는 제스쳐 입력 감지를 설명하기 위해 참조되는 도면이다.Next, FIG. 5B is a view referred to for explaining gesture input detection performed in front of the screen 200 of FIG. 4B during the second frame period.

여기서, Tx는 출력광의 전기 신호, Rx는 스크린 앞에, 사용자의 제스쳐 에 의한 수신광의, 전기 신호를 나타낸다.Here, Tx represents the electrical signal of the output light, Rx represents the electrical signal of the received light by the user's gesture in front of the screen.

스크린이, 출력광을 투과하는 경우, 스크린 앞에, 위치하는 사용자 손(60)의 제스쳐 입력에 따른 출력광이, 광출력 모듈(100)로 수신될 수 있다.When the screen transmits the output light, the output light according to the gesture input of the user's hand 60 positioned in front of the screen may be received by the light output module 100.

그리고, 프로세서(170)는, 출력광의 전기 신호와 수신광의 전기 신호의 위상 차이(Φ)에 따라, 거리 정보를 산출하고, 이에 기초하여, 제스쳐 입력을 처리할 수 있다.In addition, the processor 170 may calculate distance information according to a phase difference Φ between the electrical signal of the output light and the electrical signal of the received light, and process the gesture input based on the distance information.

도 6a 내지 도 6d는 도 4a 내지 도 4b의 스크린을 설명하는 도면이다.6A to 6D are views for explaining the screens of FIGS. 4A to 4B.

먼저, 도 6a는 본 발명의 일실시예에 따른 스크린(200)의 단면도를 예시한다. 스크린(200)은, 보호 필름(905), 상판 글래스(910)와 하판 글래스(920), 상판 글래스(910)와 하판 글래스(920) 사이에 배치되는 제1 전극(915) 및 제2 전극(925), 제1 전극(915)과 제2 전극(925) 사이에 배치되는 이방체(930)를 포함할 수 있다.First, FIG. 6A illustrates a cross-sectional view of the screen 200 according to an embodiment of the present invention. The screen 200 includes a protective film 905, a top glass 910 and a bottom glass 920, and a first electrode 915 and a second electrode (between the top glass 910 and the bottom glass 920). 925), and may include an anisotropic body 930 disposed between the first electrode 915 and the second electrode 925.

보호 필름(905)은, 스크린(200)을 보호할 수 있다. The protective film 905 can protect the screen 200.

상판 글래스(910)와 하판 글래스(920) 사이에 배치되는 제1 전극(915) 및 제2 전극(925)은, ITO와 같은 투명 전극일 수 있다.The first electrode 915 and the second electrode 925 disposed between the upper glass 910 and the lower glass 920 may be transparent electrodes such as ITO.

제1 전극(915)과 제2 전극(925) 사이에 배치되는 이방체(930)는, 제1 전극(915)과 제2 전극(925) 사이에 인갇괴는 전원에 따라, 배열 방향이 가변하며, 가변되는 배열 방향에 따라, 서로 다른 굴절율을 가질 수 있다. 예를 들어, 이방체(930)는 액정(liquid crystal)일 수 있다.The anisotropic body 930 disposed between the first electrode 915 and the second electrode 925 has an array direction variable according to a power source enclosed between the first electrode 915 and the second electrode 925, Depending on the variable arrangement direction, different refractive indices may be obtained. For example, the anisotropic body 930 may be a liquid crystal.

다음, 도 6b는 도 6a의 스크린의 상판 글래스와 제1 전극의 배치를 예시하는 도면이다.Next, FIG. 6B is a diagram illustrating the arrangement of the top glass and the first electrode of the screen of FIG. 6A.

도면에서는, 상판 글래스에 배치되는 제1 전극(915)이, 수직 방향으로 배치되는 것을 예시한다. 도면에서는, m개의 제1 전극들(V1, ,...VmN)이 수직 방향으로 배치되는 것을 예시한다. 한편, 도면에서는 제1 전극들(V1, ,...VmN)이 전기적으로 접속되는 것으로 도시하나, 이와 달리, 서로 이격될 수 있다.In the drawing, it is exemplified that the first electrode 915 disposed on the top glass is disposed in the vertical direction. In the drawing, it is illustrated that m first electrodes V1, ... VmN are arranged in a vertical direction. On the other hand, although the drawings show that the first electrodes V1, ... VmN are electrically connected, differently, they may be spaced apart from each other.

도 6c는 도 6b의 제1 전극에 인가되는 전원 인가 파형을 예시한다. 도면과 같이, 제1 프레임 구간(1 frame) 동안, 제1 전극들(V1, ,...VmN)에 로우 레벨(L)의 전원 인가되고, 제2 프레임 구간(2 frame) 동안, 제1 전극들(V1, ,...VmN)에 하이 레벨(H)의 전원 인가될 수 있다. 6C illustrates a power supply application waveform applied to the first electrode of FIG. 6B. As shown in the figure, during the first frame period (1 frame), the first electrodes (V1, ... ... VmN) is applied to the low level (L) power, during the second frame period (2 frame), the first A high level (H) power source may be applied to the electrodes V1, ... VmN.

다음, 도 6d는 도 6a의 스크린의 상판 글래스와 제2 전극의 배치를 예시하는 도면이다.Next, FIG. 6D is a diagram illustrating the arrangement of the top glass and the second electrode of the screen of FIG. 6A.

도면에서는, 하판 글래스에 배치되는 제2 전극(925)이, 수평 방향으로 평행하게 배치되는 것을 예시한다. 도면에서는, n개의 제2 전극들(H1, ,...HN)이 수평q방향으로 배치되는 것을 예시한다. In the drawing, it is exemplified that the second electrodes 925 disposed on the lower glass are disposed in parallel in the horizontal direction. In the drawing, it is exemplified that n second electrodes H1, ... HN are arranged in the horizontal q direction.

도 6e는 도 6d의 제2 전극에 인가되는 전원 인가 파형을 예시한다. 도면과 같이, 제1 프레임 구간(1 frame) 동안, 제2 전극들(H1, ,...HN)에 로우 레벨(L)의 전원 인가되고, 제2 프레임 구간(2 frame) 동안, 제2 전극들(H1, ,...HN)에 하이 레벨(H)의 전원 인가될 수 있다. 6E illustrates a power supply application waveform applied to the second electrode of FIG. 6D. As shown in the figure, during the first frame period (1 frame), the second electrode (H1, ...... HN) is applied to the low level (L) power, during the second frame period (2 frame), the second A high level (H) power supply may be applied to the electrodes H1, ... HN.

이와 같이, 제1 및 제2 전극들에, 각각 로우 레벨의 전원의 인가되면, 이방체(930)의 배열 방향이 변하지 않아, 스크린(200)은 제1 투명도, 즉 불투명하게 될 수 있다. As described above, when low-level power is applied to the first and second electrodes, the arrangement direction of the anisotropic body 930 does not change, so that the screen 200 may have a first transparency, that is, opacity.

한편, 제1 및 제2 전극들에, 각각 하이 레벨의 전원의 인가되면, 이방체(930)의 배열 방향이 가변하여, 스크린(200)은 제2 투명도, 즉 투명하게 될 수 있다.Meanwhile, when a high-level power is applied to the first and second electrodes, the arrangement direction of the anisotropic body 930 is variable, so that the screen 200 may have a second transparency, that is, transparency.

이에 의해, 스크린(200)은, 제1 프레임 구간 동안, 불투명하게 되고, 제2 프레임 구간 동안 투명하게 변하게 된다.Thereby, the screen 200 becomes opaque during the first frame period, and becomes transparent during the second frame period.

도 7은 도 1의 디스플레이 장치의 구현 예를 예시한다.7 illustrates an implementation example of the display device of FIG. 1.

도면을 참조하면, 본 발명의 디스플레이 장치(10)는, 터치 입력 및 제스쳐 입력의 감지가 가능한 후면 투사 방식의 디스플레이 장치로서, 공연장, 터미널, 공항 등의 공공 장소에서, 디스플레이를 위한 장치로서 구현될 수 있다. 또는, 개인화된 공간 중, 집에서, 거실 및 안방을 위한 디스플레이 장치로서 구현될 수 있다. 또는, 개인화된 공간 중, 차량 내부의 디스플레이 장치로서 구현될 수 있다.Referring to the drawings, the display device 10 of the present invention is a rear projection type display device capable of sensing touch input and gesture input, and may be implemented as a device for display in public places such as a venue, a terminal, or an airport Can be. Alternatively, it may be embodied as a display device for a living room and a master room in a personalized space, at home. Alternatively, it may be embodied as a display device inside a vehicle in a personalized space.

도 7은 차량 내부에 자유 곡면을 가지는, 센타 페시아(center fascia)(610)에, 본 발명의 실시예에 따른 디스플레이 장치가 구현되는 것을 예시한다. 7 illustrates that a display device according to an exemplary embodiment of the present invention is implemented in a center fascia 610 having a free curved surface inside a vehicle.

이러한 센타 페시아(610)는, 운전대(403) 앞에, 계기판이 배치되는 대시보드 영역에 대응하는 스크린(200)을 구비할 수 있다.The center fascia 610 may include a screen 200 corresponding to a dashboard area in which an instrument panel is disposed, in front of the steering wheel 403.

도면에서는, 스크린(200)에, 계기판 영상이 표시되는 것을 예시한다. In the drawing, it is illustrated that the instrument panel image is displayed on the screen 200.

이에 의해, 운전자는, 스크린(200)에 표시되는 계기판 영상을 확인할 수 있다. 한편, 운전자는, 스크린(200) 상에 터치 입력을 수행하거나, 스크린(200) 앞에서, 제스쳐 입력을 수행할 수 있다. Thereby, the driver can check the instrument panel image displayed on the screen 200. Meanwhile, the driver may perform touch input on the screen 200 or, in front of the screen 200, gesture input.

이러한 경우, 본 발명의 디스플레이 장치(10)는, 광출력 모듈(100)에서 출력되는 출력광과 출력광에 대응하는 수신광에 기초하여, 터치 입력 또는 제스쳐 입력을 감지할 수 있다.In this case, the display device 10 of the present invention may sense a touch input or gesture input based on output light output from the light output module 100 and received light corresponding to the output light.

그리고, 본 발명의 디스플레이 장치(10)는, 사용자의 터치 입력 또는 제스쳐 입력에 대응하는 영상을 스크린(200)에 제공할 수 있다. In addition, the display device 10 of the present invention may provide an image corresponding to a user's touch input or gesture input to the screen 200.

도 8은 도 1의 디스플레이 장치의 간략한 내부 블록도의 다른 예이다.8 is another example of a simplified internal block diagram of the display device of FIG. 1.

도 8은 본 발명의 다른 실시예에 따른 디스플레이 장치(10)로서, 도 2의 디스플레이 장치(10)와 유사하나, 카메라(195)를 더 구비하는 것에 그 차이가 있다.8 is a display device 10 according to another embodiment of the present invention, similar to the display device 10 of FIG. 2, but differs in that the camera 195 is further provided.

카메라(195)는, 광출력 모듈(100) 내에 구비되나, 이에 한정되지 않고 다양한 예가 가능하다. The camera 195 is provided in the light output module 100, but is not limited thereto, and various examples are possible.

카메라(195)는, 제2 프레임 구간 동안, 즉, 스크린(200)이 제2 투명도를 가지는 경우, 투명한 스크린(200) 너머에 위치하는 외부 대상물을 촬영할 수 있다. The camera 195 may photograph an external object located over the transparent screen 200 during the second frame period, that is, when the screen 200 has the second transparency.

이를 위해, 카메라(195)는, RGB 카메라로서, 외부 대상물에 대한 촬영 영상을 획득할 수 있다. 예를 들어, 카메라(195)는, CCD(Charge Coupled Device), 또는 CMOS 센서를 포함할 수도 있다. To this end, the camera 195, as an RGB camera, may acquire a captured image of an external object. For example, the camera 195 may include a CCD (Charge Coupled Device), or a CMOS sensor.

카메라(195)에서 촬영된 영상은 프로세서(170)로 전달되어, 제1 프레임 구간 동안, 스크린(200) 상에 투사 영상으로서 출력될 수도 있다.The image captured by the camera 195 may be transferred to the processor 170 and output as a projected image on the screen 200 during the first frame period.

도 9는 도 8의 광출력 모듈에서의 제스쳐 입력의 감지를 설명하기 위해 참조되는 도면이다. 9 is a view referred to for explaining the detection of the gesture input in the optical output module of FIG.

도 9는 도 4b와 유사하게, 제2 프레임 구간 동안, 제스쳐 입력 등, 외부 대상물의 거리를 검출할 수 있다.9B, similar to FIG. 4B, during the second frame period, a distance of an external object, such as a gesture input, may be detected.

나아가, 광출력 모듈(100a)이 카메라(195)를 구비함으로써, 카메라(195)는, 외부 대상물에 대한 촬영 영상을 획득할 수 있다. 구체적으로 사용자 손(60)을 비롯한 사용자에 대한 촬영 영상을 획득할 수 있다. Furthermore, since the light output module 100a includes a camera 195, the camera 195 can acquire a captured image of an external object. Specifically, a captured image of a user, including the user's hand 60, may be obtained.

도 10은 도 8의 광출력 모듈에서 영상이 투사되는 것을 예시한다.FIG. 10 illustrates that an image is projected from the light output module of FIG. 8.

도면을 참조하면, 제2 프레임 구간 동안, 광출력 모듈(100) 내의 카메라(195)에서 촬영된 영상은, 다시 스크린(200) 상에 투사 영상으로서 표시될 수 있다. 그리고, 사용자(700)는, 자신의 모습을 촬영한 영상(650)을 확인할 수 있게 된다.Referring to the drawings, during the second frame period, an image captured by the camera 195 in the optical output module 100 may be displayed again as a projected image on the screen 200. Then, the user 700 is able to check the image 650 photographing his or her appearance.

한편, 광출력 모듈(100)은, 카메라 촬영 이후의 제1 프레임 구간 동안, 투사 영상(650)을 출력할 수 있다.Meanwhile, the optical output module 100 may output the projected image 650 during the first frame period after the camera is photographed.

한편, 이러한 광출력 모듈(100)을 구비하는 디스플레이 장치(10)는, 통신 모듈(180)을 통해, 네트워크에 접속하거나, 외부 단말 장치에 접속하여, 데이터 교환을 수행할 수 있다.Meanwhile, the display device 10 including the optical output module 100 may perform data exchange by connecting to a network or an external terminal device through the communication module 180.

이에 따라, 도 10과 같은, 촬영 영상(650)을 상대 단말 장치로 전송할 수 있으며, 상대 단말 장치로부터, 상대방 촬영 영상을 수신할 수도 있다. 이에 따라, 화상 회의 시스템 구현이 가능할 수 있다.Accordingly, as shown in FIG. 10, the photographed image 650 may be transmitted to the counterpart terminal device, and the counterpart photographed image may be received from the counterpart terminal device. Accordingly, a video conferencing system may be implemented.

한편, 도 2 등에서는 도시하지 않았지만, 본 발명의 디스플레이 장치(10)는, 오디오 출력부, 오디오 입력부 등을 더 구비할 수 있으며, 이에 따라, 화상 전화 시스템 구현이 가능할 수 있다.Meanwhile, although not illustrated in FIG. 2 and the like, the display device 10 of the present invention may further include an audio output unit, an audio input unit, and the like, and thus, a video telephone system may be implemented.

도 11은 본 발명의 일 실시예에 따른 디스플레이 장치의 동작방법을 나타내는 순서도이다. 11 is a flowchart illustrating a method of operating a display device according to an embodiment of the present invention.

도면을 참조하면, 본 발명의 실시예에 따른 디스플레이 장치는, 제1 프레임 구간 동안 스크린을 제1 투명도로 설정한다(S810).Referring to the drawings, the display device according to an embodiment of the present invention sets the screen to the first transparency during the first frame period (S810).

프로세서(170)는, 스크린 제어부(210)를 통해, 스크린(200)의 제1 전극(915) 및 제2 전극(925)에 로우 레벨 전원이 인가되도록 제어할 수 있다. 이에 의해, 스크린(200)은, 제1 투명도, 즉 불투명하게 설정될 수 있다.The processor 170 may control the low-level power to be applied to the first electrode 915 and the second electrode 925 of the screen 200 through the screen control unit 210. Thereby, the screen 200 may be set to a first transparency, that is, opaque.

다음, 디스플레이 장치는, 제1 프레임 구간 동안, 스크린 상의 터치 입력을 감지한다(S820). 광원부(210)는 제1 프레임 구간 동안, 가시광 및 출력광을 출력할 수 있다. 그리고, 스캐너(140)는, 가시광에 기초한 투사 영상과 출력광을, 스크린(200)으로 스캐닝하여 출력할 수 있다.Next, during the first frame period, the display device detects a touch input on the screen (S820). The light source unit 210 may output visible light and output light during the first frame period. Then, the scanner 140 may scan and output a projection image and output light based on visible light to the screen 200.

이때, 스크린(200)이 불투명하므로, 투사 영상은 스크린(200) 상에 확산되어 표시되며, 출력광은, 스크린(200) 내에 반사된다. 한편, 스크린(200) 상에 터치 입력이 있는 경우, 스크린(200)에서 반사되는 수신광과 달리, 터치 입력 지점에서의 수신광의 크기가 달라지게 된다. At this time, since the screen 200 is opaque, the projected image is displayed by being diffused on the screen 200, and the output light is reflected in the screen 200. On the other hand, when there is a touch input on the screen 200, unlike the received light reflected from the screen 200, the size of the received light at the touch input point is different.

구체적으로, 터치 입력 지점에서의 수신광에 의한 전기 신호는, 도 5a의 RX2 파형에 대응할 수 있으며, 터치 입력 지점 외의 스크린에 의해 반사되어 수신되는 수신광에 의한 전기 신호는, 도 5b의 RX1 파형에 대응할 수 있다. 즉, 터치 입력 지점에서의 수신광에 의한 전기 신호의 크기(amplitude)가 더 크게 된다. Specifically, the electrical signal by the received light at the touch input point may correspond to the RX2 waveform of FIG. 5A, and the electrical signal by the received light reflected and received by the screen other than the touch input point may be the RX1 waveform of FIG. 5B. Can respond to. That is, the amplitude of the electric signal by the received light at the touch input point becomes larger.

결국, 프로세서(170)는, 출력광에 대응하는 전기 신호와 수신광에 대응하는 전기 신호의 위상 차이 및, 수신광에 대응하는 전기 신호의 크기에 기초하여, 터치 입력을 처리할 수 있다. 한편, 위상 차이는, 스크린(200)의 거리 검출을 위해 사용될 뿐이고, 터치 입력 감지시, 고려되지 않을 수도 있다. 즉, 프로세서(170)는, 수신광에 대응하는 전기 신호의 크기에 기초하여, 터치 입력을 처리할 수도 있다. As a result, the processor 170 may process the touch input based on the phase difference between the electrical signal corresponding to the output light and the electrical signal corresponding to the received light, and the magnitude of the electrical signal corresponding to the received light. Meanwhile, the phase difference is only used to detect the distance of the screen 200 and may not be considered when sensing the touch input. That is, the processor 170 may process the touch input based on the magnitude of the electrical signal corresponding to the received light.

다음, 디스플레이 장치는, 제2 프레임 구간 동안, 스크린을 제2 투명도로 설정한다(S830).Next, during the second frame period, the display device sets the screen to the second transparency (S830).

프로세서(170)는, 스크린 제어부(210)를 통해, 스크린(200)의 제1 전극(915) 및 제2 전극(925)에 하이 레벨 전원이 인가되도록 제어할 수 있다. 이에 의해, 스크린(200)은, 제1 투명도 보다 낮은 투명도인 제2 투명도, 즉 투명하게 설정될 수 있다.The processor 170 may control the high-level power to be applied to the first electrode 915 and the second electrode 925 of the screen 200 through the screen control unit 210. Accordingly, the screen 200 may be set to have a second transparency that is lower than the first transparency, that is, transparency.

다음, 디스플레이 장치는, 제2 프레임 구간 동안, 스크린 앞에서의 사용자의 제스쳐 입력을 감지한다(S840). Next, during the second frame period, the display device detects a user's gesture input in front of the screen (S840).

광원부(210)는 제2 프레임 구간 동안, 가시광을 제외하고, 출력광만 출력할 수 있으나, 이에 한정되지 않고 다양한 예가 가능하다.The light source unit 210 may output only output light, except for visible light, during the second frame period, but is not limited thereto, and various examples are possible.

스캐너(140)는, 출력광을, 스크린(200)으로 스캐닝하여 출력할 수 있다.The scanner 140 may scan and output the output light to the screen 200.

이때, 스크린(200)이 투명하므로, 출력광은, 스크린(200)을 투과하여, 스크린(200) 앞에 위치하는 사용자 부근까지 도달할 수 있다. 그리고, 사용자 손(60)에 의해 출력광이 산란 또는 반사되어, 수신광이 수신될 수 있다.At this time, since the screen 200 is transparent, the output light can pass through the screen 200 and reach the user near the screen 200. Then, the output light is scattered or reflected by the user's hand 60, so that the received light can be received.

이때의 제스쳐에 의한 수신광에 의한 전기 신호는, 도 5b의 RX 파형에 대응할 수 있다 At this time, the electrical signal by the received light by the gesture can correspond to the RX waveform of FIG. 5B.

결국, 프로세서(170)는, 출력광에 대응하는 전기 신호와 수신광에 대응하는 전기 신호의 위상 차이에 기초하여, 제스쳐 입력을 처리할 수 있다. As a result, the processor 170 may process the gesture input based on the phase difference between the electrical signal corresponding to the output light and the electrical signal corresponding to the received light.

한편, 제2 프레임 구간에서의, 출력광이 스크린(200)을 투과하여야 하므로, 제스쳐 입력 감지의 정확성을 향상시키기 위해, 광원부(210)는, 제1 프레임 구간에 비해, 제2 프레임 구간에서 출력되는 출력광의 세기를 더 크게할 수 있다. Meanwhile, in the second frame section, since the output light must pass through the screen 200, in order to improve the accuracy of gesture input detection, the light source unit 210 outputs in the second frame section, compared to the first frame section. It is possible to increase the intensity of the output light.

한편, 제1 프레임 구간과 제2 프레임 구간의 배열은 다양한 예가 가능하다. 이에 대해서는 도 12 및 도 13을 참조하여 기술한다.Meanwhile, various examples of arrangement of the first frame section and the second frame section are possible. This will be described with reference to FIGS. 12 and 13.

도 12 및 도 13은 제1 프레임 구간과 제2 프레임 구간 배열에 대한 다양한 예를 예시한다. 12 and 13 illustrate various examples of the arrangement of the first frame section and the second frame section.

먼저, 도 12는 터치 입력 감지를 위한 제1 프레임 구간과 제스쳐 입력 감지를 위한 제2 프레임 구간이, 교호하게 배치되는 것을 예시한다. 이에 따라, 스크린(200)은, 기수 프레임 구간(1,3,...n-1 frame)에서는 불투명하게 변하며, 우수 프레임 구간(2,4,...n frame)에서는 투명하게 변할 수 있다. First, FIG. 12 illustrates that the first frame section for sensing the touch input and the second frame section for sensing the gesture input are alternately arranged. Accordingly, the screen 200 may change opaquely in the odd frame section (1,3, ... n-1 frame) and transparently in the superior frame section (2,4, ... n frame). .

즉, 기수 프레임 구간(1,3,...n-1 frame)은, 상술한 제1 프레임 구간에 해당하며, 우수 프레임 구간(2,4,...n frame)은 상술한 제2 프레임 구간에 대응할 수 있다.That is, the odd frame section (1,3, ... n-1 frame) corresponds to the first frame section described above, and the superior frame section (2,4, ... n frame) is the second frame described above. Can correspond to the section.

기수 프레임 구간(1,3,...n-1 frame)에서는, 각각 해당하는 투사 영상(910a,910c,..,910y)가 스캐닝 방식으로, 스크린 상에 표시될 수 있으며, 우수 프레임 구간(2,4,...n frame)에서는, 각각 해당하는 투사 영상(910b,910d,..,910z) 이 스캐닝 방식으로, 스크린 상에 표시될 수 있다.In the odd frame section (1,3, ... n-1 frame), corresponding projection images 910a, 910c, .., 910y may be displayed on the screen in a scanning manner, and the excellent frame section ( 2,4, ... n frames), corresponding projection images 910b, 910d, .., 910z may be displayed on the screen in a scanning manner.

한편, 도 12와 달리, 우수 프레임 구간(2,4,...n frame)에서, 투사 영상이 스크린 상에 표시되지 않는 것도 가능하다. 이러한 경우, 광원부(210) 중 가시광을 출력하는 광원부가 오프(off)될 수 있다. On the other hand, unlike FIG. 12, it is also possible that the projected image is not displayed on the screen in the excellent frame section (2, 4, ... n frame). In this case, the light source unit for outputting visible light among the light source units 210 may be turned off.

한편, 도 12와 달리, 제1 프레임 구간의 빈도수와 제2 프레임 구간의 빈도수가 다른 것도 가능하다.Meanwhile, unlike FIG. 12, it is possible that the frequency of the first frame section is different from the frequency of the second frame section.

도 13은, 터치 입력의 정확성을 높이기 위해, 제1 프레임 구간의 빈도수가, 제2 프레임 구간의 빈도수 보다 더 큰 것을 예시한다.13 illustrates that the frequency of the first frame section is greater than the frequency of the second frame section to increase the accuracy of the touch input.

도면에서는, 4번째 프레임 구간(4 frame)을 제외하고는, 모든 프레임 구간(1,2,3,...n-1, n frmae)에서, 스크린(200)이 불투명하게 변하고, 해당하는 투사 영상을 표시하는 것을 예시한다. 한편, 4 번째 프레임 구간(4 frame)에서는 스크린(200)이 투명하게 변하고, 해당하는 투사 영상이 표시될 수 있다.In the drawing, in every frame section (1,2,3, ... n-1, n frmae), except for the fourth frame section (4 frames), the screen 200 changes to be opaque and the corresponding projection Illustrates displaying an image. On the other hand, in the fourth frame section (4 frame), the screen 200 is transparently changed, and a corresponding projection image may be displayed.

한편, 도 13과 달리, 제스쳐 입력의 정확성을 높이기 위해, 제2 프레임 구간의 빈도수가, 제1 프레임 구간의 빈도수 보다 더 큰 것도 가능하다.Meanwhile, unlike FIG. 13, in order to increase the accuracy of gesture input, it is possible that the frequency of the second frame section is greater than the frequency of the first frame section.

이러한, 제1 프레임 구간의 빈도수와 제2 프레임 구간의 빈도수 조정은, 프로세서(170)에서 제어할 수 있다.The adjustment of the frequency of the first frame section and the frequency of the second frame section can be controlled by the processor 170.

한편, 도 13과 같이, 제1 프레임 구간의 빈도수가, 제2 프레임 구간의 빈도수 보다 더 크게 한 상태에서, 4번째 프레임 구간(4 frame)에서 제스쳐 입력이 감지되기 시작하면, 도 13 보다, 제2 프레임 구간의 빈도수를 더 증가시키는 것이 가능하다. 예를 들어, 도 12와 같이, 제1 프레임 구간과 제2 프레임 구간을 교호하게 배열하는 것도 가능하다.On the other hand, as shown in FIG. 13, when the frequency of the first frame section is greater than the frequency of the second frame section, when the gesture input is detected in the fourth frame section (4 frame), than in FIG. It is possible to further increase the frequency of 2 frame sections. For example, as shown in FIG. 12, it is also possible to alternately arrange the first frame section and the second frame section.

역으로, 제2 프레임 구간의 빈도수가, 제1 프레임 구간의 빈도수 보다 더 크게 한 상태에서, 터치 입력이 감지되기 시작하면, 제1 프레임 구간의 빈도수를 더 증가시키는 것도 가능하다.Conversely, when the frequency of the second frame section is greater than the frequency of the first frame section, when the touch input starts to be detected, it is also possible to further increase the frequency of the first frame section.

도 14a 및 도 14b는 스크린 상의 터치 입력 및 제스쳐 입력에 따른 동작을 설명하는 도면이다. 14A and 14B are views illustrating an operation according to a touch input and a gesture input on a screen.

먼저, 도 14a(a)는 스크린(200) 상에, 계기판 정보를 알려주는 투사 영상(1100)이 표시되는 것을 예시한다. 이때, 사용자 손가락(20)에 의한 터치 입력이 있는 경우, 본 발명의 실시예에 따른 디스플레이 장치(10)는, 수신광에 기초하여, 터치 입력을 감지하고, 그에 대응하는 동작을 수행할 수 있다.First, FIG. 14A (a) illustrates that a projection image 1100 indicating instrument panel information is displayed on the screen 200. At this time, when there is a touch input by the user finger 20, the display device 10 according to an embodiment of the present invention may detect a touch input based on the received light and perform an operation corresponding thereto. .

도 14a(b)는, 터치 입력에 따른, 시간 정보를 알려주는 투사 영상(1120)이 표시되는 것을 알 수 있다. 이에 의해, 사용자 이용 편의성이 증대될 수 있다. 14A (b), it can be seen that a projection image 1120 indicating time information according to a touch input is displayed. Thereby, user convenience can be increased.

다음, 도 14b(a)는 스크린(200) 상에, 제1 채널(CH 9)의 방송 영상이 투사 영상(1210)으로서 표시되는 것을 예시한다. 이때, 사용자 손(50)에 의한 제스쳐 입력이 있는 경우, 본 발명의 실시예에 따른 디스플레이 장치(10)는, 수신광에 기초하여, 제스쳐 입력을 감지하고, 그에 대응하는 동작을 수행할 수 있다.Next, FIG. 14B (a) illustrates that the broadcast image of the first channel CH 9 is displayed as the projected image 1210 on the screen 200. At this time, if there is a gesture input by the user's hand 50, the display device 10 according to an embodiment of the present invention, based on the received light, can detect the gesture input, and perform an operation corresponding thereto. .

도 14b(b)는, 제스쳐 입력에 따른, 채널 업을 수행하고, 그에 따라, 제2 채널(CH 11)의 방송 영상이 투사 영상(1220)으로서 표시되는 예시한다. 이에 의해, 사용자 이용 편의성이 증대될 수 있다. 14B (b) illustrates that the channel image is performed according to the gesture input, and accordingly, the broadcast image of the second channel CH 11 is displayed as the projected image 1220. Thereby, user convenience can be increased.

도 15는 도 4a 내지 도 4b의 광원부의 동작을 설명하는 도면이다.15 is a view for explaining the operation of the light source unit of FIGS. 4A to 4B.

상술한 바와 같이, 터치 입력 감지를 위한 제1 프레임 구간 동안에는, 투사영상 및 출력광이 출력되나, 제스쳐 입력 감지를 위한 제2 프레임 구간 동안에는, 투사 영상은 출력되지 않고 출력광만 출력되는 것이 가능하다.As described above, during the first frame period for sensing the touch input, the projected image and the output light are output, but during the second frame period for detecting the gesture input, the projected image is not output but only the output light can be output. .

이에 따라, 도면과 같이, 제1 프레임 구간 동안, 광원부(210) 내의 적색 광원부(210R), 녹색 광원부(210G), 청색 광원부(210B), 및 출력광 광원부(210IR)는 턴 온되고, 제2 프레임 구간 동안, 광원부(210) 내의 적색 광원부(210R), 녹색 광원부(210G), 및 청색 광원부(210B)은 턴 오프, 출력광 광원부(210IR)는 턴 온될 수 있다. 이에 의해, 불필요한 전력 소비를 줄일 수 있게 된다.Accordingly, as shown in the drawing, during the first frame period, the red light source unit 210R, the green light source unit 210G, the blue light source unit 210B, and the output light source unit 210IR in the light source unit 210 are turned on, and the second light source unit 210IR is turned on. During the frame period, the red light source unit 210R, the green light source unit 210G, and the blue light source unit 210B in the light source unit 210 may be turned off, and the output light source unit 210IR may be turned on. Thereby, unnecessary power consumption can be reduced.

한편, 터치 입력 및 제스쳐 입력 감지를 위한 방법으로, 프레임 구간 별로, 터치 입력 구간과 제스쳐 입력 구간을, 시간적으로 구분하여 기술하였으나, 이와 달리, 공간적으로 구분하는 것도 가능하다. On the other hand, as a method for detecting a touch input and a gesture input, the touch input section and the gesture input section are described in terms of time for each frame section, but unlike this, spatial division is also possible.

즉, 본 발명의 다른 실시예에 다른 디스플레이 장치는, 제1 영역이 제1 투명도를 가지며, 제2 영역이 제1 투명도 보다 낮은 제2 투명도를 가지는 스크린과, 외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부와, 스크린 상의 제1 영역에서 터치 입력이 있는 경우, 출력광에 대응하는 수신광에 기초하여, 터치 입력을 처리하고, 스크린 상의 제2 영역에서 제스쳐 입력이 있는 경우, 출력광에 대응하는 수신광에 기초하여, 제스쳐 입력을 처리하는 프로세서를 포함할 수 있다. That is, the display device according to another embodiment of the present invention, the first area has a first transparency, the second area is a screen having a second transparency lower than the first transparency, and the output light for detecting the distance of the external object A light source unit for outputting, and if there is a touch input in the first area on the screen, processes the touch input based on the received light corresponding to the output light, and when there is a gesture input in the second area on the screen, the output light A processor may process a gesture input based on the corresponding received light.

이때, 스크린(200)의 제1 영역은 제1 투명도를 가지며, 제2 영역은 제1 투명도 보다 낮은 제2 투명도를 가지도록 설정하는 것이 가능하다. At this time, the first area of the screen 200 may have a first transparency, and the second area may be set to have a second transparency lower than the first transparency.

그리고, 프로세서(170)는, 스크린(200) 상의 제1 영역에서 터치 입력이 있는 경우, 출력광에 대응하는 수신광에 기초하여, 터치 입력을 처리하고, 스크린(200) 상의 제2 영역에서 제스쳐 입력이 있는 경우, 출력광에 대응하는 수신광에 기초하여, 제스쳐 입력을 처리할 수 있다.And, when there is a touch input in the first area on the screen 200, the processor 170 processes the touch input based on the received light corresponding to the output light, and gestures in the second area on the screen 200 If there is input, a gesture input can be processed based on the received light corresponding to the output light.

이때, 광원부(210)는, 가시광에 기초한 투사 영상과 출력광을 함께 출력할 수 있으며, 스캐너(140)는, 제1 방향 스캐닝 및 제2 방향 스캐닝을 수행하여, 투사 영상과 출력광을 스크린(200) 상에 함께 출력할 수 있다.At this time, the light source unit 210 may output a projection image based on visible light and output light together, and the scanner 140 performs first direction scanning and second direction scanning to screen the projected image and output light ( 200) can be output together.

한편, 프로세서(170)는, 표시할 영상을 스케일링하여, 스크린(200) 상의 제1 영역에 표시할 영상이 투사되도록 제어할 수도 있다.Meanwhile, the processor 170 may control an image to be displayed to be projected on a first area on the screen 200 by scaling an image to be displayed.

이와 같이, 본 발명의 다른 실시예에 다른 디스플레이 장치에 대한 설명은, 도 4a 내지 도 15를 참조하여, 생략한다. As described above, description of a display device according to another embodiment of the present invention will be omitted with reference to FIGS. 4A to 15.

도 16 내지 도 17는 터치 입력 및 제스쳐 입력에 대한 다양한 예를 예시하는 도면이다. 16 to 17 are diagrams illustrating various examples of touch input and gesture input.

먼저, 도 16(a)은, 스크린(200) 상의 제1 영역(1310)이 불투명하고, 제2 영역(1320)이 투명한 것을 예시한다. 이때, 사용자 손가락(20)이 제1 영역(1310) 내의 소정 지점을 터치하는 경우, 디스플레이 장치(10)는, 수신광에 기초하여, 이를 감지할 수 있다. 그리고, 원활한 터치 입력 감지를 위해, 스크린(200) 상의 제1 영역(1310)의 크기를 가변할 수 있다. First, FIG. 16 (a) illustrates that the first region 1310 on the screen 200 is opaque and the second region 1320 is transparent. At this time, when the user finger 20 touches a predetermined point in the first area 1310, the display device 10 may detect it based on the received light. And, for smooth touch input detection, the size of the first area 1310 on the screen 200 may be varied.

도 16(b)에서는, 스크린(200) 상의 전 영역(1315)이 불투명한 것을 예시한다. 이에 따라, 스크린(200) 상의 전 영역(1315)에 대한 터치 입력 감지가 가능해진다.In FIG. 16B, it is illustrated that the entire area 1315 on the screen 200 is opaque. Accordingly, it is possible to sense a touch input to all areas 1315 on the screen 200.

다음, 도 17(a)는, 스크린(200) 상의 제1 영역(1310)이 불투명하고, 제2 영역(1320)이 투명한 것을 예시한다. 이때, 사용자 손(60)이 제2 영역(1320) 앞에서 제스쳐 동작을 취하는 경우, 디스플레이 장치(10)는, 수신광에 기초하여, 이를 감지할 수 있다. 그리고, 디스플레이 장치(10)는, 원활한 제스쳐 입력 감지를 위해, 스크린(200) 상의 제2 영역(1320)의 크기를 가변할 수 있다. Next, FIG. 17A illustrates that the first area 1310 on the screen 200 is opaque and the second area 1320 is transparent. At this time, when the user's hand 60 gestures in front of the second area 1320, the display device 10 may detect it based on the received light. In addition, the display device 10 may vary the size of the second area 1320 on the screen 200 for smooth gesture input detection.

도 17(b)에서는, 스크린(200) 상의 전 영역(1325)이 투명한 것을 예시한다. 이에 따라, 스크린(200) 상의 전 영역(1325)에 대한 제스쳐 입력 감지가 가능해진다.In FIG. 17 (b), it is illustrated that the entire area 1325 on the screen 200 is transparent. Accordingly, gesture input detection for all areas 1325 on the screen 200 becomes possible.

한편, 이러한, 투명 영역과 불투명 영역의 가변은, 도 6a 내지 도 6e에서 기술한 스크린(200) 내의 제1 전극들(H1,...Hm), 및 제2 전극들(V1,...Vn)의 일부는 하이 레벨(H)을 인가하고, 다른 일부는 로우 레벨(L)을 인가함으로써, 구현 가능하다.On the other hand, the variable of the transparent area and the opaque area, the first electrodes (H1, ... Hm), and the second electrodes (V1, ...) in the screen 200 described in FIGS. 6A to 6E. A part of Vn) can be implemented by applying a high level (H) and another part by applying a low level (L).

본 발명의 실시예에 따른 디스플레이 장치는 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The display device according to the embodiment of the present invention is not limited to the configuration and method of the embodiments described as described above, the embodiments are all or part of each embodiment is optional so that various modifications can be made It may be configured in combination.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be implemented by those skilled in the art, and these modifications should not be individually understood from the technical idea or prospect of the present invention.

Claims (10)

제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안, 제2 투명도를 가지는 스크린;
외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부;
상기 외부 대상물로부터의 수신광을 수신하는 광 검출부;
스캐너; 및
상기 출력광 및 상기 수신광에 기초하여, 상기 제1 프레임 구간 동안, 터치 입력을 처리하고, 상기 제2 프레임 구간 동안, 제스쳐 입력을 처리하는 프로세서;를 포함하고,
상기 광원부는,
가시광에 기초한 투사 영상과 상기 출력광을 함께 출력하며,
상기 스캐너는,
상기 제1 프레임 구간 동안, 상기 투사 영상과 상기 출력광을 상기 스크린 방향으로 출력하며,
상기 제2 프레임 구간 동안, 상기 출력광을 상기 스크린 방향으로 출력하는 것을 특징으로 하는 디스플레이 장치.
A screen having a first transparency during the first frame period and a second transparency during the second frame period;
A light source unit outputting output light for detecting a distance of an external object;
A light detector for receiving light received from the external object;
scanner; And
And a processor configured to process a touch input during the first frame period and a gesture input during the second frame period based on the output light and the received light.
The light source unit,
The projected image based on visible light and the output light are output together.
The scanner,
During the first frame period, the projected image and the output light are output in the screen direction,
During the second frame period, the display device outputs the output light in the screen direction.
제1항에 있어서,
상기 스크린은,
상기 제1 프레임 구간 동안, 상기 투사 영상을 표시하며, 상기 제2 프레임 구간 동안, 상기 투사 영상을 표시하지 않는 것을 특징으로 하는 디스플레이 장치.
According to claim 1,
The screen,
A display device characterized by displaying the projected image during the first frame period and not displaying the projected image during the second frame period.
제1항에 있어서,
상기 스캐너는,
제1 방향 스캐닝 및 제2 방향 스캐닝을 수행하여, 상기 출력광을 상기 스크린 방향으로 출력하는 것을 특징으로 하는 디스플레이 장치.
According to claim 1,
The scanner,
And performing the first direction scanning and the second direction scanning to output the output light in the screen direction.
삭제delete 제1 프레임 구간 동안, 제1 투명도를 가지며, 제2 프레임 구간 동안, 제2 투명도를 가지는 스크린;
외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부;
상기 외부 대상물로부터의 수신광을 수신하는 광 검출부; 및
상기 출력광 및 상기 수신광에 기초하여, 상기 제1 프레임 구간 동안, 터치 입력을 처리하고, 상기 제2 프레임 구간 동안, 제스쳐 입력을 처리하는 프로세서;를 포함하고,
상기 프로세서는,
상기 터치 입력 또는 상기 제스쳐 입력에 따라, 상기 제1 프레임 구간의 빈도수와 상기 제2 프레임 구간의 빈도수를 가변하는 것을 특징으로 하는 디스플레이 장치.
A screen having a first transparency during the first frame period and a second transparency during the second frame period;
A light source unit outputting output light for detecting a distance of an external object;
A light detector for receiving light received from the external object; And
And a processor configured to process a touch input during the first frame period and a gesture input during the second frame period based on the output light and the received light.
The processor,
A display device characterized by varying the frequency of the first frame section and the frequency of the second frame section according to the touch input or the gesture input.
제1항에 있어서,
상기 스크린은,
서로 교차하는 제1 전극과 제2 전극, 및 상기 제1 전극과 제2 전극 사이에 배치되는 이방체를 포함하고,
상기 제1 전극과 상기 제2 전극 사이에 인가되는 전원에 따라, 상기 이방체의 배열 방향을 가변시켜, 상기 제1 프레임 구간 동안, 상기 제1 투명도를 가지며, 상기 제2 프레임 구간 동안 상기 제2 투명도를 가지는 것을 특징으로 하는 디스플레이 장치.
According to claim 1,
The screen,
It includes a first electrode and a second electrode crossing each other, and an anisotropic body disposed between the first electrode and the second electrode,
Depending on the power applied between the first electrode and the second electrode, the arrangement direction of the anisotropic body is varied to have the first transparency during the first frame section and the second transparency during the second frame section. Display device characterized in that it has a.
제1항에 있어서,
상기 스크린을 기준으로 상기 외부 대상물의 반대편에 배치되며, 상기 제2 프레임 구간 동안, 상기 외부 대상물을 촬영하는 카메라;를 더 포함하고,
상기 프로세서는, 상기 외부 대상물에 대한 촬영 영상을 수신하는 것을 특징으로 하는 디스플레이 장치.
According to claim 1,
It is disposed on the other side of the external object with respect to the screen, and during the second frame section, the camera for photographing the external object; further includes,
The processor, the display device, characterized in that for receiving the captured image of the external object.
제1 영역이 제1 투명도를 가지며, 제2 영역이 제2 투명도를 가지는 스크린;
외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부;
상기 외부 대상물로부터의 수신광을 수신하는 광검출부;
스캐너; 및
상기 출력광 및 상기 수신광에 기초하여, 상기 스크린 상의 상기 제1 영역에서의 터치 입력을 처리하고, 상기 스크린 상의 상기 제2 영역에서의 제스쳐 입력을 처리하는 프로세서;를 포함하고,
상기 광원부는,
가시광에 기초한 투사 영상과 상기 출력광을 함께 출력하며,
상기 스캐너는,
상기 제1 영역 방향으로, 상기 투사 영상과 상기 출력광을 출력하며,
상기 제2 영역 방향으로, 상기 출력광을 출력하는 것을 특징으로 하는 디스플레이 장치.
A screen in which the first region has a first transparency and the second region has a second transparency;
A light source unit outputting output light for detecting a distance of an external object;
A photodetector configured to receive received light from the external object;
scanner; And
And a processor configured to process a touch input in the first area on the screen and a gesture input in the second area on the screen based on the output light and the received light.
The light source unit,
The projected image based on visible light and the output light are output together.
The scanner,
In the direction of the first area, the projection image and the output light are output,
And displaying the output light in the direction of the second region.
제8항에 있어서,
상기 스캐너는,
제1 방향 스캐닝 및 제2 방향 스캐닝을 수행하여, 상기 출력광을 상기 스크린 방향으로 출력하는 것을 특징으로 하는 디스플레이 장치.
The method of claim 8,
The scanner,
And performing the first direction scanning and the second direction scanning to output the output light in the screen direction.
제1 영역이 제1 투명도를 가지며, 제2 영역이 제2 투명도를 가지는 스크린;
외부 대상물의 거리 검출을 위한 출력광을 출력하는 광원부;
상기 외부 대상물로부터의 수신광을 수신하는 광검출부; 및
상기 출력광 및 상기 수신광에 기초하여, 상기 스크린 상의 상기 제1 영역에서의 터치 입력을 처리하고, 상기 스크린 상의 상기 제2 영역에서의 제스쳐 입력을 처리하는 프로세서;를 포함하고,
상기 스크린은,
상기 터치 입력 또는 상기 제스쳐 입력에 따라, 상기 제1 영역 및 상기 제2 영역의 크기를 가변하는 것을 특징으로 하는 디스플레이 장치.
A screen in which the first region has a first transparency and the second region has a second transparency;
A light source unit outputting output light for detecting a distance of an external object;
A photodetector configured to receive received light from the external object; And
And a processor configured to process a touch input in the first area on the screen and a gesture input in the second area on the screen based on the output light and the received light.
The screen,
And a size of the first area and the second area is varied according to the touch input or the gesture input.
KR1020130083758A 2013-07-16 2013-07-16 Display apparatus for rear projection-type capable of detecting touch input and gesture input KR102102760B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130083758A KR102102760B1 (en) 2013-07-16 2013-07-16 Display apparatus for rear projection-type capable of detecting touch input and gesture input
PCT/KR2014/001668 WO2015008915A1 (en) 2013-07-16 2014-02-28 Rear projection type display apparatus capable of sensing touch input and gesture input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130083758A KR102102760B1 (en) 2013-07-16 2013-07-16 Display apparatus for rear projection-type capable of detecting touch input and gesture input

Publications (2)

Publication Number Publication Date
KR20150009360A KR20150009360A (en) 2015-01-26
KR102102760B1 true KR102102760B1 (en) 2020-05-29

Family

ID=52346338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130083758A KR102102760B1 (en) 2013-07-16 2013-07-16 Display apparatus for rear projection-type capable of detecting touch input and gesture input

Country Status (2)

Country Link
KR (1) KR102102760B1 (en)
WO (1) WO2015008915A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113503440B (en) * 2021-07-21 2023-03-31 许昌学院 Intelligent home projector based on hand motion recognition

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103496A (en) * 2010-11-10 2012-05-31 Funai Electric Co Ltd Projector

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8487881B2 (en) * 2007-10-17 2013-07-16 Smart Technologies Ulc Interactive input system, controller therefor and method of controlling an appliance
KR101441584B1 (en) * 2008-01-02 2014-09-23 삼성전자 주식회사 See-through display apparatus and method
KR101071864B1 (en) * 2010-03-10 2011-10-10 전남대학교산학협력단 Touch and Touch Gesture Recognition System
US20120274550A1 (en) * 2010-03-24 2012-11-01 Robert Campbell Gesture mapping for display device
EP2601565A4 (en) * 2010-08-04 2016-10-26 Hewlett Packard Development Co System and method for enabling multi-display input
KR101688942B1 (en) * 2010-09-03 2016-12-22 엘지전자 주식회사 Method for providing user interface based on multiple display and mobile terminal using this method
KR101760804B1 (en) * 2011-11-23 2017-07-24 인텔 코포레이션 Gesture input with multiple views, displays and physics

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103496A (en) * 2010-11-10 2012-05-31 Funai Electric Co Ltd Projector

Also Published As

Publication number Publication date
KR20150009360A (en) 2015-01-26
WO2015008915A1 (en) 2015-01-22

Similar Documents

Publication Publication Date Title
KR102129923B1 (en) Display apparatus capable of displaying projection images on dual screen
CN107223223B (en) Control method and system for first-view-angle flight of unmanned aerial vehicle and intelligent glasses
US9075572B2 (en) Media enhancement dock
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
KR102124930B1 (en) Distance detecting apparatus capable of deriving distance information having changed space resolution
KR102393297B1 (en) A eletronic device and a method
CN104049720B (en) Electronic equipment and the display methods for it
EP3208699B1 (en) Control device, control method, and program
CN102160018A (en) Touchscreen display with plural cameras
US10114512B2 (en) Projection system manager
US11663992B2 (en) Fade-in user interface display based on finger distance or hand proximity
US20120038592A1 (en) Input/output device and human-machine interaction system and method thereof
US9686522B2 (en) Display apparatus capable of seamlessly displaying a plurality of projection images on screen
Wang et al. Bare finger 3D air-touch system using an embedded optical sensor array for mobile displays
US10506290B2 (en) Image information projection device and projection device control method
KR102102760B1 (en) Display apparatus for rear projection-type capable of detecting touch input and gesture input
JP6740613B2 (en) Display device, display device control method, and program
KR20140139883A (en) Display apparatus
WO2016039713A1 (en) Capture and projection of an object image
US11762202B1 (en) Ring-mounted flexible circuit remote control
KR20150007812A (en) Distance detecting apparatus and display apparatus for improving performance of receiving light
KR20150019928A (en) Distance detecting apparatus capable of safely deriving distance information
KR102179432B1 (en) Method and apparatus for detecting three-dimensional informaion
KR20160008856A (en) Docking station and Robot cleaning system including the same
CN109417579A (en) A kind of equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant