KR102158613B1 - Method of space touch detecting and display device performing the same - Google Patents

Method of space touch detecting and display device performing the same Download PDF

Info

Publication number
KR102158613B1
KR102158613B1 KR1020180119673A KR20180119673A KR102158613B1 KR 102158613 B1 KR102158613 B1 KR 102158613B1 KR 1020180119673 A KR1020180119673 A KR 1020180119673A KR 20180119673 A KR20180119673 A KR 20180119673A KR 102158613 B1 KR102158613 B1 KR 102158613B1
Authority
KR
South Korea
Prior art keywords
image
input object
camera device
unit
display
Prior art date
Application number
KR1020180119673A
Other languages
Korean (ko)
Other versions
KR20200039995A (en
Inventor
김준석
장은석
권지인
Original Assignee
주식회사 토비스
(주)나노티에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 토비스, (주)나노티에스 filed Critical 주식회사 토비스
Priority to KR1020180119673A priority Critical patent/KR102158613B1/en
Publication of KR20200039995A publication Critical patent/KR20200039995A/en
Application granted granted Critical
Publication of KR102158613B1 publication Critical patent/KR102158613B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • G06K9/00201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

표시 장치는, 표시 패널을 포함한다. 제1 카메라 장치는, 표시 패널의 전방에 배치되며, 표시 패널의 표시면으로부터 기 설정된 거리까지의 감지 공간에 대한 제1 측면 영상을 생성한다. 제2 카메라 장치는, 표시 패널의 전방에서 제1 카메라 장치로부터 이격되어 배치되며, 감지 공간에 대한 제2 측면 영상을 생성한다. 제어부는, 제1 및 제2 측면 영상들에 기초하여 감지 공간 내에서 비접촉 방식의 공간 터치 입력을 인식한다. 여기서, 제어부는, 제1 및 제2 측면 영상들로부터 감지 공간에 위치하는 제1 입력 객체를 검출하는 추출부, 및 제1 입력 객체의 제1 측면 영상 내 제1 위치 정보와 제2 측면 영상 내 제2 위치 정보에 기초하여 제1 입력 객체의 3차원 위치 정보를 산출하는 산출부를 포함한다.The display device includes a display panel. The first camera device is disposed in front of the display panel, and generates a first side image of a sensing space from a display surface of the display panel to a preset distance. The second camera device is disposed spaced apart from the first camera device in front of the display panel, and generates a second side image of the sensing space. The controller recognizes a non-contact spatial touch input within the sensing space based on the first and second side images. Here, the control unit includes an extraction unit that detects a first input object located in the sensing space from the first and second side images, and the first position information in the first side image and the second side image of the first input object. And a calculator configured to calculate 3D location information of the first input object based on the second location information.

Description

공간 터치 감지 방법 및 이를 수행하는 표시 장치{METHOD OF SPACE TOUCH DETECTING AND DISPLAY DEVICE PERFORMING THE SAME}A method of sensing spatial touch and a display device that performs it {METHOD OF SPACE TOUCH DETECTING AND DISPLAY DEVICE PERFORMING THE SAME}

본 발명은 표시 장치에 관한 것으로, 보다 구체적으로, 공간 터치를 감지하는 공간 터치 감지 방법 및 이를 수행하는 표시 장치에 관한 것이다.The present invention relates to a display device, and more particularly, to a spatial touch sensing method for sensing a spatial touch and a display device for performing the same.

표시 장치 상에 설치되어 손가락이나 펜 등을 이용해 단순 접촉하여 데이터를 입력하는 터치스크린이 널리 사용되고 있다.A touch screen installed on a display device to input data by simply touching it using a finger or a pen is widely used.

터치스크린은 표시 패널에 터치 패널(Touch Panel)을 덧붙여서 손가락이나 펜 등이 접촉할 때 해당 영역(즉, 손가락 등이 접촉한 영역)의 특성이 변화하는 것을 인지하여 사용자 입력의 발생을 감지한다.The touch screen detects the occurrence of a user input by adding a touch panel to the display panel and recognizing that the characteristics of a corresponding region (ie, a region touched by a finger, etc.) change when a finger or a pen touches it.

상기한 바와 같은 터치스크린은 통상 디스플레이 화면과 터치 패널을 동일한 면에 배치하는 2차원 평면에서 동작하는 방식을 채택하기 때문에 사용자 인터페이스의 다양한 표현을 제공하는데 있어서 한계가 있다.Since the touch screen as described above generally employs a method of operating in a two-dimensional plane in which the display screen and the touch panel are disposed on the same surface, there is a limitation in providing various expressions of the user interface.

이에, 본 발명이 해결하고자 하는 과제는 3차원의 터치 입력을 감지할 수 있는 표시 장치를 제공하는 것이다.Accordingly, a problem to be solved by the present invention is to provide a display device capable of sensing a three-dimensional touch input.

본 발명이 해결하고자 하는 다른 과제는 3차원의 터치 입력을 감지할 수 있는 공간 터치 감지 방법을 제공하는 것이다.Another problem to be solved by the present invention is to provide a spatial touch sensing method capable of sensing a three-dimensional touch input.

본 발명의 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 표시 장치는, 표시 패널; 상기 표시 패널의 전방에 배치되며, 상기 표시 패널의 표시면으로부터 기 설정된 거리까지의 감지 공간에 대한 제1 측면 영상을 생성하는 제1 카메라 장치; 상기 표시 패널의 전방에서 상기 제1 카메라 장치로부터 이격되어 배치되며, 상기 감지 공간에 대한 제2 측면 영상을 생성하는 제2 카메라 장치; 및 상기 제1 및 제2 측면 영상들에 기초하여 상기 감지 공간 내에서 비접촉 방식의 공간 터치 입력을 인식하는 제어부를 포함한다. 여기서, 상기 제어부는, 상기 제1 및 제2 측면 영상들로부터 상기 감지 공간에 위치하는 제1 입력 객체를 검출하는 추출부; 및 상기 제1 입력 객체의 상기 제1 측면 영상 내 제1 위치 정보와 상기 제2 측면 영상 내 제2 위치 정보에 기초하여 상기 제1 입력 객체의 3차원 위치 정보를 산출하는 산출부를 포함한다.A display device according to an exemplary embodiment of the present invention for solving the above problem includes: a display panel; A first camera device disposed in front of the display panel and generating a first side image of a sensing space from a display surface of the display panel to a preset distance; A second camera device disposed in front of the display panel and spaced apart from the first camera device, and generating a second side image of the sensing space; And a controller configured to recognize a non-contact type spatial touch input within the sensing space based on the first and second side images. Here, the control unit may include an extraction unit configured to detect a first input object located in the sensing space from the first and second side images; And a calculator configured to calculate 3D location information of the first input object based on first location information in the first side image and second location information in the second side image of the first input object.

상기 추출부는, 기 설정된 패턴에 기초하여 상기 제1 측면 영상으로부터 상기 제1 입력 객체에 대응하는 제1 객체 영상을 검출하고, 기 설정된 패턴에 기 정의된 특징점에 기초하여 상기 제1 객체 영상의 제1 기준점을 결정하며, 기 설정된 패턴에 기초하여 상기 제2 측면 영상으로부터 상기 제1 입력 객체에 대응하는 제2 객체 영상을 검출하고, 기 설정된 패턴에 기 정의된 특징점에 기초하여 상기 제2 객체 영상의 제2 기준점을 결정할 수 있다.The extraction unit may detect a first object image corresponding to the first input object from the first side image based on a preset pattern, and a first object image of the first object image based on a feature point predefined in a preset pattern. 1 A reference point is determined, a second object image corresponding to the first input object is detected from the second side image based on a preset pattern, and the second object image is based on a predefined feature point in a preset pattern. The second reference point of can be determined.

상기 산출부는, 상기 제1 측면 영상에서 상기 제1 기준점의 위치에 기초하여 제1 위치각을 산출하고, 상기 제2 측면 영상에서 상기 제2 기준점의 위치에 기초하여 제2 위치각을 산출하며, 상기 제1 카메라 장치의 제1 위치 정보, 상기 제2 카메라 장치의 제2 위치 정보, 상기 제1 위치각 및 상기 제2 위치각에 기초하여 상기 제1 입력 객체의 2차원 위치 정보를 생성하는 제1 위치 산출부; 및 상기 제1 측면 영상에서 상기 제1 기준점의 위치에 기초하여 제3 위치각을 산출하고, 상기 제2 측면 영상에서 상기 제2 기준점의 위치에 기초하여 제4 위치각을 산출하며, 상기 제1 카메라 장치의 제1 위치 정보, 상기 제2 카메라 장치의 제2 위치 정보, 상기 제3 위치각 및 상기 제4 위치각에 기초하여 상기 제1 입력 객체의 깊이(depth) 정보를 생성하는 제2 위치 산출부를 포함하고, 상기 제1 위치각은 상기 제1 카메라 장치를 기준으로, 상기 감지 공간의 일면과 상기 제1 입력 객체 사이의 각도이며, 상기 제2 위치각은 상기 제2 카메라 장치를 기준으로, 상기 감지 공간의 상기 일면과 상기 제1 입력 객체 사이의 각도이고, 상기 제3 위치각은 상기 제1 카메라 장치를 기준으로, 상기 표시 패널과 상기 제1 입력 객체 사이의 각도이며, 상기 제3 위치각은 상기 제1 카메라 장치를 기준으로, 상기 표시 패널과 상기 제1 입력 객체 사이의 각도이고, 상기 제1 입력 객체의 상기 3차원 위치 정보는 상기 2차원 위치 정보와 상기 깊이 정보를 포함할 수 있다.The calculator calculates a first position angle based on the position of the first reference point in the first side image, and calculates a second position angle based on the position of the second reference point in the second side image, The first position information of the first camera device, the second position information of the second camera device, the first position angle, and the second position angle to generate two-dimensional position information of the first input object 1 position calculator; And calculating a third position angle based on the position of the first reference point in the first side image, calculating a fourth position angle based on the position of the second reference point in the second side image, and the first A second position for generating depth information of the first input object based on first position information of the camera device, second position information of the second camera device, the third position angle, and the fourth position angle A calculation unit, wherein the first position angle is an angle between one surface of the sensing space and the first input object with respect to the first camera device, and the second position angle is based on the second camera device. , An angle between the one surface of the sensing space and the first input object, the third position angle is an angle between the display panel and the first input object based on the first camera device, and the third The position angle is an angle between the display panel and the first input object based on the first camera device, and the 3D position information of the first input object includes the 2D position information and the depth information. I can.

상기 추출부는, 상기 제1 기준점의 시간 경과에 따른 변화를 추적하는 추적부; 및 상기 제1 기준점의 상기 변화를 칼만 필터 또는 저주파 필터를 이용하여 보정하는 보정부를 포함할 수 있다.The extraction unit may include a tracking unit for tracking a change in the first reference point over time; And a correction unit for correcting the change in the first reference point using a Kalman filter or a low frequency filter.

상기 제어부는, 상기 제1 측면 영상으로부터 배경 영상을 제거하여 제1 전처리 영상을 생성하는 배경 제거부; 상기 제1 전처리 영상을 기 설정된 임계값에 기초하여 이진화하여 제1 원본 영상을 각각 생성하는 노이즈 제거부; 및 상기 제1 원본 영상에 포함된 후보 객체 영상들의 크기, 상기 후보 객체 영상들 간의 대칭성 및 상기 후보 객체 영상들의 배치 위치들 중 적어도 하나에 기초하여 상기 후보 객체 영상들 중 하나를 그림자 영상으로 선택하고, 상기 제1 원본 영상으로부터 상기 그림자 영상을 제거하여 제1 그림자 제거 영상을 생성하는 그림자 제거부를 더 포함하고, 상기 제1 그림자 제거 영상은 상기 제1 측면 영상으로서 상기 추출부에 제공될 수 있다.The control unit may include a background removal unit configured to generate a first preprocessed image by removing a background image from the first side image; A noise removing unit for generating first original images by binarizing the first preprocessed images based on a preset threshold; And selecting one of the candidate object images as a shadow image based on at least one of sizes of candidate object images included in the first original image, symmetry between the candidate object images, and placement positions of the candidate object images. And a shadow removal unit configured to generate a first shadow removal image by removing the shadow image from the first original image, and the first shadow removal image may be provided to the extraction unit as the first side image.

상기 추출부는, 상기 제1 입력 객체가 상호 구분된 복수의 서브 객체들을 포함하는 경우, 상기 서브 객체들 중 상기 표시 패널의 일측에 인접한 제1 서브 객체를 제1 입력 객체로서 선택할 수 있다.When the first input object includes a plurality of sub-objects separated from each other, the extraction unit may select a first sub-object adjacent to one side of the display panel among the sub-objects as the first input object.

상기 표시 장치는, 상기 표시 패널의 전방에서 상기 제1 및 제2 카메라 장치들로부터 이격되어 배치되며, 상기 감지 공간에 대한 제3 측면 영상을 생성하는 제3 카메라 장치; 및 상기 표시 패널의 전방에서 상기 제1 내지 제3 카메라 장치들로부터 이격되어 배치되며, 상기 감지 공간에 대한 제4 측면 영상을 생성하는 제4 카메라 장치를 더 포함할 수 있다. 이 경우, 상기 추출부는 상기 제3 및 제4 측면 영상들로부터 상기 감지 공간에 위치하는 제2 입력 객체를 검출하며, 상기 산출부는 상기 제2 입력 객체의 상기 제3 측면 영상 내 제3 위치 정보와 상기 제4 측면 영상 내 제4 위치 정보에 기초하여 상기 제2 입력 객체의 3차원 위치 정보를 산출할 수 있다.The display device includes: a third camera device disposed in front of the display panel and spaced apart from the first and second camera devices, and generating a third side image of the sensing space; And a fourth camera device disposed in front of the display panel and spaced apart from the first to third camera devices, and generating a fourth side image of the sensing space. In this case, the extraction unit detects a second input object located in the sensing space from the third and fourth side images, and the calculation unit includes third position information of the second input object in the third side image and 3D location information of the second input object may be calculated based on the fourth location information in the fourth side image.

상기 추출부는 상기 제1 측면 영상과 상기 제2 측면 영상 중 적어도 하나가 상기 제1 입력 객체에 대한 근거리의 부분 영상일 경우 그에 대한 형태 분석을 수행하는 형태 분석부, 및 상기 제1 측면 영상과 상기 제2 측면 영상 중 적어도 하나가 상기 제1 입력 객체에 대한 원거리 전체 영상일 경우 그에 대한 비율 분석을 수행하는 비율 분석부를 더 포함할 수 있다.When at least one of the first side image and the second side image is a partial image near the first input object, the extracting unit performs a shape analysis, and the first side image and the When at least one of the second side images is the entire distant image of the first input object, a ratio analysis unit for performing ratio analysis may be further included.

상기 다른 과제를 해결하기 위한 일 실시예에 따른 공간 터치 감지 방법은, 표시 패널의 전방에서 상호 이격되어 배치되는 제1 및 제2 카메라 장치들을 포함하는 표시 장치에서 수행된다. 상기 방법은, 상기 제1 및 제2 카메라 장치들을 통해 상기 표시 패널의 표시면으로부터 기 설정된 거리까지의 감지 공간에 대한 제1 및 제2 측면 영상들을 생성하는 단계; 상기 제1 및 제2 측면 영상들로부터 상기 감지 공간에 위치하는 입력 객체를 검출하는 단계; 및 상기 입력 객체의 상기 제1 측면 영상 내 제1 위치 정보와 상기 제2 측면 영상 내 제2 위치 정보에 기초하여 상기 입력 객체의 3차원 위치 정보를 산출하는 단계를 포함한다.The spatial touch sensing method according to an exemplary embodiment for solving the above other problems is performed in a display device including first and second camera devices disposed to be spaced apart from each other in front of a display panel. The method includes: generating first and second side images of a sensing space from a display surface of the display panel to a preset distance through the first and second camera devices; Detecting an input object located in the sensing space from the first and second side images; And calculating 3D location information of the input object based on first location information in the first side image and second location information in the second side image of the input object.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.

본 발명의 실시예들에 따른 표시 장치는, 표시부의 전방에서 감지 공간의 측면 영상들을 획득하고, 측면 영상들로부터 감지 공간 내 입력 객체의 3차원 위치를 산출함으로써, 표시부로부터 근거리에 형성된 감지 공간 내에서 3차원의 터치 입력을 감지할 수 있다.The display device according to the exemplary embodiment of the present invention obtains side images of the sensing space from the front of the display unit and calculates a three-dimensional position of the input object in the sensing space from the side images. 3D touch input can be detected.

본 발명의 실시예들에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the embodiments of the present invention are not limited by the contents illustrated above, and more various effects are included in the present specification.

도 1은 본 발명의 일 실시예에 따른 표시 장치를 나타내는 사시도이다.
도 2a 및 도 2b는 도 1의 표시 장치에 포함된 표시부의 일 예를 나타내는 분해 사시도들이다.
도 2c는 도 1의 표시 장치의 일 예를 나타내는 하측면도이다.
도 2d는 도 1의 Q1 영역을 확대한 도면이다.
도 3a 내지 도 3c는 도 1의 표시 장치에 포함된 입력 감지부에 의해 형성된 감지 공간의 일 예를 나타내는 도면들이다.
도 4는 본 발명의 다른 실시예들에 따른 표시 장치를 나타내는 도면이다.
도 5는 도 4의 표시 장치에 의해 형성된 감지 공간의 일 예를 나타내는 평면도이다.
도 6은 도 1의 표시 장치에 포함된 제어부의 일 예를 나타내는 블록도이다.
도 7a 내지 도 7f는 도 6의 제어부에서 입력 객체를 감지하는 과정을 설명하는 도면들이다.
도 8a 및 도 8b는 위치에 따른 포인터의 입력 이미지를 나타낸 개략도들이다.
도 9는 근접 포인터의 원본 영상과 변환 영상을 비교 도시한 개략도이다.
도 10은 변환 영상의 비율 분석 방법을 나타낸 개략도이다.
도 11a 및 도 11b는 도 1의 표시 장치에 포함된 감각 제공부의 일 예를 나타내는 도면이다.
도 12는 본 발명의 또 다른 실시예에 따른 표시 장치를 나타내는 도면이다.
도 13은 도 12의 표시 장치가 멀티 입력을 감지하는 구성을 설명하는 도면이다.
도 14는 도 1의 표시 장치에서 수행되는 공간 터치 감지 방법의 일 예를 나타내는 순서도이다.
도 15a는 도 14의 방법이 측면 영상을 전처리하는 과정의 일 예를 나타내는 순서도이다.
도 15b는 도 14의 방법이 입력 객체를 검출하는 과정의 일 예를 나타내는 순서도이다.
도 16은 도 12의 표시 장치에서 수행되는 공간 터치 감지 방법의 다른 일 예를 나타내는 순서도이다.
1 is a perspective view illustrating a display device according to an exemplary embodiment of the present invention.
2A and 2B are exploded perspective views illustrating an example of a display unit included in the display device of FIG. 1.
2C is a bottom side view illustrating an example of the display device of FIG. 1.
FIG. 2D is an enlarged view of area Q1 of FIG. 1.
3A to 3C are diagrams illustrating an example of a sensing space formed by an input sensing unit included in the display device of FIG. 1.
4 is a diagram illustrating a display device according to other exemplary embodiments of the present invention.
5 is a plan view illustrating an example of a sensing space formed by the display device of FIG. 4.
6 is a block diagram illustrating an example of a control unit included in the display device of FIG. 1.
7A to 7F are diagrams illustrating a process of detecting an input object by the controller of FIG. 6.
8A and 8B are schematic diagrams illustrating an input image of a pointer according to a location.
9 is a schematic diagram illustrating a comparison between an original image of a proximity pointer and a converted image.
10 is a schematic diagram showing a method of analyzing a ratio of a converted image.
11A and 11B are diagrams illustrating an example of a sense providing unit included in the display device of FIG. 1.
12 is a diagram illustrating a display device according to another exemplary embodiment of the present invention.
13 is a diagram illustrating a configuration in which the display device of FIG. 12 detects a multi-input.
14 is a flowchart illustrating an example of a spatial touch sensing method performed in the display device of FIG. 1.
15A is a flowchart illustrating an example of a process of preprocessing a side image in the method of FIG. 14.
15B is a flowchart illustrating an example of a process of detecting an input object in the method of FIG. 14.
16 is a flowchart illustrating another example of a spatial touch sensing method performed in the display device of FIG. 12.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms different from each other, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have it, and the invention is only defined by the scope of the claims.

비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Although the first, second, and the like are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

이하, 첨부된 도면을 참고로 하여 본 발명의 실시예들에 대해 설명한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 일 실시예에 따른 표시 장치를 나타내는 사시도이다.1 is a perspective view illustrating a display device according to an exemplary embodiment.

도 1을 참조하면, 표시 장치(1)는 표시부(100), 입력 감지부(300) 및 제어부(500)를 포함한다.Referring to FIG. 1, the display device 1 includes a display unit 100, an input detection unit 300, and a control unit 500.

표시부(100)는 영상을 제공할 수 있다. 여기서, 영상이 표시되는 표시부(100)의 일 면을 표시면으로 정의하고, 표시 장치(1)의 상측, 하측, 좌측, 우측은 도 1에 도시된 표시부(100)의 표시면을 기준으로(예를 들어, 제1 방향(D1) 및 제2 방향(D2)에 의해 형성되는 면을 기준으로) 상측, 하측, 좌측, 우측으로 정의한다. 또한, 표시 장치(1)의 전방(또는, 상부)은 표시면에 수직하는 방향(즉, 제3 방향(D3))을 기준으로 표시면이 보이는 방향으로 정의하고, 표시 장치(1)의 후방(또는, 하부)은 표시면이 보이지 않는 방향으로 정의한다.The display unit 100 may provide an image. Here, one surface of the display unit 100 on which an image is displayed is defined as a display surface, and the upper, lower, left, and right sides of the display device 1 are based on the display surface of the display unit 100 shown in FIG. 1 ( For example, based on a surface formed by the first direction D1 and the second direction D2), it is defined as upper, lower, left, and right. In addition, the front (or upper) of the display device 1 is defined as the direction in which the display surface is visible based on a direction perpendicular to the display surface (i.e., the third direction D3), and the rear of the display device 1 (Or, the lower part) is defined as the direction in which the display surface is not visible.

표시부(100)는 사각형의 평면 형상을 가질 수 있다. 표시부(100)는 특정 곡률 반경을 가지는 휘어진 곡면형 표시 모듈일 수 있다. 예를 들어, 표시부(100)의 표시면은 약 1.5m의 곡률 반경을 가지고 휘어질 수 있다. 표시부(100)는 도 1에 도시된 바와 같이 전방에서 후방으로 오목한 형상을 가질 수도 있고, 그와 반대로 볼록한 형상을 가질 수도 있다. 그러나, 이에 제한되는 것은 아니며, 표시부(100)는 평탄한 표시면을 가지는 평면형 표시 모듈일 수도 있다. 이하에서는, 표시부(100)는 곡면형 표시 모듈인 경우를 예로 하여 설명하기로 한다.The display unit 100 may have a rectangular planar shape. The display unit 100 may be a curved display module having a specific radius of curvature. For example, the display surface of the display unit 100 may be curved with a radius of curvature of about 1.5 m. As shown in FIG. 1, the display unit 100 may have a concave shape from the front to the rear, or may have a convex shape on the contrary. However, the present invention is not limited thereto, and the display unit 100 may be a flat display module having a flat display surface. Hereinafter, a case where the display unit 100 is a curved display module will be described as an example.

표시부(100)은 광을 방출하는 방식에 따라, 액정 표시 장치(LCD), 유기발광 표시 장치(OLED), 플라즈마 표시 장치(PDP), 전계방출 표시 장치(FED) 등일 수 있다. 표시부(100)의 보다 구체적인 구성에 대해서는 도 2a를 참조하여 후술하기로 한다.The display unit 100 may be a liquid crystal display device (LCD), an organic light emitting display device (OLED), a plasma display device (PDP), a field emission display device (FED), or the like according to a method of emitting light. A more specific configuration of the display unit 100 will be described later with reference to FIG. 2A.

입력 감지부(300)는 표시부(100)의 전방에 설정된 감지 공간(또는, 감지 영역, 도 3a 참조)에 대한 감지 데이터를 생성할 수 있다. 여기서, 감지 공간은 표시부(100)의 표시면과 동일하거나 유사한 면적(표시면에 평행한 평면 또는 곡면 기준)을 가지고 표시부(100)의 표시면으로부터 기 설정된 거리(예를 들어, 최대 1m) 이내에 위치하는 공간으로 소정의 체적을 갖는 3차원적 공간이며, 입력 객체(OBJ)에 의해 비접촉 방식의 공간 터치(air touch)가 입력되는 공간일 수 있다. 입력 객체(OBJ)는 포인터를 포함할 수 있다. 포인터는 방향이나 위치를 나타내는 지시 수단으로, 사용자의 손가락, 펜, 지시봉, 지휘봉, 안테나, 막대기 등이 포인터로 사용될 수 있다. 도면에서는 포인터의 예로서, 사용자의 손(또는 손가락)과 펜이 예시되어 있지만, 적용가능한 포인터의 예가 그에 제한되는 것은 아님은 자명하다. The input sensing unit 300 may generate sensing data for a sensing space (or sensing region, see FIG. 3A) set in front of the display unit 100. Here, the sensing space has an area equal to or similar to the display surface of the display unit 100 (based on a plane or curved surface parallel to the display surface) and within a preset distance (eg, maximum 1m) from the display surface of the display unit 100. A space in which it is located is a three-dimensional space having a predetermined volume, and may be a space in which a non-contact air touch is input by the input object OBJ. The input object OBJ may include a pointer. The pointer is an indication means indicating a direction or location, and a user's finger, a pen, an indicator rod, a baton, an antenna, a stick, etc. may be used as a pointer. In the drawings, as examples of the pointer, a user's hand (or finger) and a pen are illustrated, but it is obvious that examples of applicable pointers are not limited thereto.

입력 감지부(300)는 입력 객체(OBJ)가 위치하는 감지 공간에 대한 감지 데이터를 생성할 수 있다. 감지 데이터는 후술하는 제어부(500)에 의해 터치 이벤트를 생성하는데 이용될 수 있다.The input sensing unit 300 may generate sensing data for a sensing space in which the input object OBJ is located. The sensing data may be used to generate a touch event by the controller 500 to be described later.

실시예들에서, 입력 감지부(300)는 표시부(100)의 전방에 배치되며, 감지 공간에 대한 측면 영상들(또는, 측면 영상 데이터들)을 획득할 수 있다.In embodiments, the input sensing unit 300 is disposed in front of the display unit 100 and may acquire side images (or side image data) of the sensing space.

일 실시예에서, 입력 감지부(300)는 제1 카메라 장치(311) 및 제2 카메라 장치(312)를 포함할 수 있다. 제1 카메라 장치(311)는 표시부(100)의 전방에 배치되되, 표시부(100)의 표시면을 가로지르는 제1 시선 방향(DR1)을 향하여 배치되며, 감지 공간에 대한 제1 측면 영상을 생성할 수 있다. 제1 시선 방향(DR1)은 표시면을 사선 방향(즉, 표시면의 변을 기준으로 경사진 방향)으로 가로지르는 방향일 수 있고, 예를 들어, 표시부(100)의 모서리들(또는, 코너부들) 중 하나의 모서리로부터 표시면의 면적 중심을 향하는 방향일 수 있다. In an embodiment, the input detection unit 300 may include a first camera device 311 and a second camera device 312. The first camera device 311 is disposed in front of the display unit 100, but is disposed toward a first gaze direction DR1 that crosses the display surface of the display unit 100, and generates a first side image of the sensing space. can do. The first gaze direction DR1 may be a direction crossing the display surface in an oblique direction (ie, a direction inclined with respect to the side of the display surface), and, for example, corners (or corners) of the display unit 100 It may be a direction toward the center of the area of the display surface from an edge of one of the parts).

유사하게, 제2 카메라 장치(312)는 표시부(100)의 전방에서 제1 카메라 장치(311)로부터 이격되어 배치되되, 표시부(100)의 표시면을 가로지르는 제2 시선 방향(DR2)을 향하여 배치되며, 감지 공간에 대한 제2 측면 영상을 생성할 수 있다. 여기서, 제2 시선 방향(DR2)은 제1 시선 방향(DR1)과 교차하고, 예를 들어, 제2 시선 방향(DR2)은 제1 시선 방향(DR1)에 수직하거나, 둔각을 형성할 수 있다. 제2 시선 방향(DR2)은 표시면을 사선 방향으로 가로지르는 방향일 수 있고, 예를 들어, 표시부(100)의 모서리들 중 다른 하나의 모서리로부터 표시면의 면적 중심을 향하는 방향일 수 있다.Similarly, the second camera device 312 is disposed to be spaced apart from the first camera device 311 in front of the display unit 100, but toward the second line of sight direction DR2 that crosses the display surface of the display unit 100 It is disposed, and a second side image of the sensing space may be generated. Here, the second gaze direction DR2 intersects the first gaze direction DR1, and for example, the second gaze direction DR2 may be perpendicular to the first gaze direction DR1 or may form an obtuse angle. . The second line of sight direction DR2 may be a direction crossing the display surface in an oblique direction, and for example, may be a direction from the other one of the corners of the display unit 100 toward the center of the area of the display surface.

도 1에 도시된 바와 같이, 제1 카메라 장치(311)는 표시부(100)의 좌측 상단 모서리에 배치되되, 제1 카메라 장치(311)의 시선축이 표시면의 면적 중심을 향하도록 배치될 수 있다. 유사하게, 제2 카메라 장치(312)는 표시부(100)의 우측 상단 모서리에 배치되되, 제2 카메라 장치(312)의 시선축이 표시면의 면적 중심을 향하도록 배치될 수 있다. As shown in FIG. 1, the first camera device 311 may be disposed at the upper left corner of the display unit 100, and the gaze axis of the first camera device 311 may be disposed toward the center of the area of the display surface. have. Similarly, the second camera device 312 may be disposed at the upper right corner of the display unit 100, but may be disposed such that the gaze axis of the second camera device 312 faces the center of the area of the display surface.

제1 및 제2 카메라 장치들(311, 312)은 90도 이상의 화각(view angle, 또는 field of view)을 가질 수 있다. 이 경우, 제1 및 제2 카메라 장치들(311, 312) 각각은 표시부(100)의 전방의 감지 공간을 음영 구역 없이 촬영할 수 있다.The first and second camera devices 311 and 312 may have a view angle (or field of view) of 90 degrees or more. In this case, each of the first and second camera devices 311 and 312 may capture a sensing space in front of the display unit 100 without a shaded area.

참고로, 영상(또는, 비전)에 기초하여 입력 객체(OBJ)를 감지하기 위해 사용되는 일반적인 카메라 장치는, 일반적인 표시 장치의 일 측에서 표시 장치의 전방을 향하여 배치되어 비교 감지 공간에 대한 정면 영상을 획득한다. 여기서, 실시예에 따른 감지 공간에 대응하는 공간인 비교 감지 공간은 통상 표시부(100) 표면으로부터 카메라 장치의 최소 초점거리 이상의 거리만큼 이격된다. 즉, 일반적인 카메라 장치의 렌즈 초점거리에 의할 때, 사용자의 손이 일반적인 카메라 장치로부터 20cm 이상 이격되어야 사용자의 손을 정확히 감지할 수 있기 때문에, 그보다 가까운 거리에 위치하는 공간에서는 입력 객체(OBJ)를 감지하기 어렵다. 이와 같은 한계를 뛰어넘기 위해 렌즈 초점 거리가 짧은 카메라 장치를 사용할 수 있지만, 해당 카메라 장치는 화각이 좁아 표시 장치 전면 전체에서 입력 객체(OBJ)를 감지하는 데에 어려움이 있다.For reference, a general camera device used to detect an input object (OBJ) based on an image (or vision) is disposed from one side of the general display device toward the front of the display device to provide a front image of the comparison sensing space. To obtain. Here, the comparative sensing space, which is a space corresponding to the sensing space according to the embodiment, is usually spaced apart from the surface of the display unit 100 by a distance equal to or greater than the minimum focal length of the camera device. That is, according to the focal length of the lens of a general camera device, since the user's hand must be separated from the general camera device by 20 cm or more to accurately detect the user's hand, the input object (OBJ) is Is difficult to detect. In order to overcome this limitation, a camera device having a short focal length lens may be used, but the camera device has a narrow angle of view, so it is difficult to detect the input object OBJ from the entire front of the display device.

반면, 실시예들에 따른 입력 감지부(300)는 상호 이격되어 배치되고, 감지 공간에 대한 정면 영상이 아닌 측면 영상들을 획득하여 위치를 감지하기 때문에, 표시부(100)의 표면으로부터 그에 인접한 공간(예를 들어, 표시부(100)의 표시면으로부터 1m 이내의 공간) 내에 위치하는 입력 객체(OBJ)를 모두 감지할 수 있다.On the other hand, since the input sensing unit 300 according to the exemplary embodiments is disposed to be spaced apart from each other, and detects the position by acquiring side images of the sensing space, not the front image, the space adjacent thereto ( For example, all input objects OBJ located within a space within 1m from the display surface of the display unit 100 may be detected.

한편, 도 1에서 제1 및 제2 카메라 장치들(311, 312)이 표시부(100)의 좌측 상단 모서리 및 우측 상단 모서리에 배치되는 것으로 도시되어 있으나, 이는 예시적인 것으로, 이에 한정되는 것은 아니다.Meanwhile, in FIG. 1, the first and second camera devices 311 and 312 are shown to be disposed at the upper left corner and the upper right corner of the display unit 100, but these are exemplary and are not limited thereto.

또한, 도 1에서 입력 감지부(300)는 2개의 카메라 장치들(311, 312)를 포함하는 것으로 도시되어 있으나, 이는 예시적인 것으로, 입력 감지부(300)는 3개 이상의 카메라 장치들을 포함할 수도 있다. 이에 대해서는 도 12를 참조하여 후술하기로 한다.In addition, in FIG. 1, the input detection unit 300 is shown to include two camera devices 311 and 312, but this is exemplary, and the input detection unit 300 includes three or more camera devices. May be. This will be described later with reference to FIG. 12.

일 실시예에서, 입력 감지부(300)는 적외선 광원(320)을 더 포함할 수 있다. 적외선 광원(320)은 감지 공간에 적외선 광을 투사할 수 있다. 여기서, 적외선 광은 약 940nm의 파장을 가지며, 감시 카메라에 사용되는 850nm의 파장을 가지는 적외선 광과 구분될 수 있다. 적외선 광원(320)은 투사각이 상대적으로 넓은 적외선 LED들, 또는 투사 밀도가 상대적으로 큰 적외선 레이저 광원들을 포함할 수 있다. In one embodiment, the input sensing unit 300 may further include an infrared light source 320. The infrared light source 320 may project infrared light into the sensing space. Here, the infrared light has a wavelength of about 940 nm, and can be distinguished from the infrared light having a wavelength of 850 nm used in a surveillance camera. The infrared light source 320 may include infrared LEDs having a relatively wide projection angle or infrared laser light sources having a relatively large projection density.

적외선 광원(320)이 구비되는 경우, 제1 카메라 장치(311) 및 제2 카메라 장치(312)는 적외선 카메라로 구현되거나, 가시 광선을 차단하는 가시광선 차단 필터를 포함할 수 있다. 이에 따라, 측면 영상들에 대한 감도가 향상되고, 입력 객체(OBJ)에 의해 반사된 적외선 광에 의해 입력 객체(OBJ)가 보다 용이하게 검출될 수 있다. 한편, 표시 장치(1)는 슬롯 머신과 같은 오락기기에 적용되어, 카지노와 같은 오락장에서 사용될 수 있는데, 오락장의 높은 휘도의 조명, 영상들에 의해 일반적인 가시 영상에 대한 가공만으로는 입력 객체(OBJ)가 용이하게 검출되지 않을 수 있다. 따라서, 실시예들에 따른 입력 감지부(300)는 가시 광선과는 다른 적외선 광(또한, 오락장의 감시 카메라에서 사용되는 적외선 광과는 구별되는 파장의 적외선 광)을 이용함으로써, 입력 객체(OBJ)를 보다 정확하게 검출할 수 있다.When the infrared light source 320 is provided, the first camera device 311 and the second camera device 312 may be implemented as infrared cameras, or may include a visible light cut filter that blocks visible light. Accordingly, sensitivity to side images is improved, and the input object OBJ can be more easily detected by infrared light reflected by the input object OBJ. On the other hand, the display device 1 is applied to an entertainment device such as a slot machine and can be used in an entertainment venue such as a casino. The input object (OBJ) is performed only by processing a general visible image by lighting and images of high luminance in the entertainment venue. May not be easily detected. Accordingly, the input sensing unit 300 according to the embodiments uses infrared light different from visible light (also, infrared light having a wavelength different from infrared light used in a surveillance camera of an entertainment venue), and thus the input object OBJ ) Can be detected more accurately.

도 1에 도시된 바와 같이, 적외선 광원(320)은 표시부(100)의 상측변에 인접하여 배치될 수 있다. 다만, 이는 예시적인 것으로, 적외선 광원(320)은 표시부(100)의 하측변에 인접하여 배치되거나, 표시부(100)의 상측변 및 하측변 각각에 배치될 수도 있다. 또한, 적외선 광원(320)은 표시부(100)의 좌측변, 또는 우측변에 배치될 수도 있다.1, the infrared light source 320 may be disposed adjacent to the upper side of the display unit 100. However, this is exemplary, and the infrared light source 320 may be disposed adjacent to the lower side of the display unit 100, or may be disposed on the upper and lower sides of the display unit 100, respectively. In addition, the infrared light source 320 may be disposed on the left side or the right side of the display unit 100.

제어부(500)는 측면 영상들(즉, 입력 감지부(300)에서 획득한 감지 데이터)로부터 입력 객체(OBJ)를 검출하고, 측면 영상들에서의 입력 객체(OBJ)의 위치 정보에 기초하여 입력 객체(OBJ)의 3차원 위치 정보를 산출하며, 3차원 위치 정보에 기초하여 공간 터치 입력을 인식하거나 터치 이벤트를 생성할 수 있다. 예를 들어, 제어부(500)는 측면 영상들을 영상 처리하여 입력 객체를 검출하고, 기 설정된 카메라 장치들(300: 311, 312) 각각의 위치 정보, 측면 영상들에서 입력 객체의 위치 정보(또는, 방향 정보)에 기초하여 입력 객체의 3차원 위치 정보를 산출하며, 상기 3차원 위치 정보의 변화(예를 들어, 제3 방향(D3)으로의 변화)에 기초하여 터치 이벤트를 생성할 수 있다.The control unit 500 detects the input object OBJ from side images (ie, detection data acquired by the input detection unit 300), and inputs the input object based on the position information of the input object OBJ in the side images. 3D location information of the object OBJ is calculated, and a spatial touch input or a touch event may be generated based on the 3D location information. For example, the controller 500 detects an input object by image processing side images, and position information of each of preset camera devices 300: 311 and 312, and position information of the input object in the side images (or 3D location information of the input object may be calculated based on direction information), and a touch event may be generated based on a change in the 3D location information (eg, change in the third direction D3).

또한, 제어부(500)는 표시부(100)에 영상 데이터를 제공하며, 터치 이벤트에 대응하여 영상 데이터를 제어하거나 변화시킬 수 있다. 나아가, 제어부(500)는 터치 이벤트에 대응하여 감각 제어 신호를 생성할 수도 있다.Further, the controller 500 provides image data to the display unit 100 and may control or change the image data in response to a touch event. Furthermore, the controller 500 may generate a sensory control signal in response to a touch event.

몇몇 실시예에서, 표시 장치(1)는 감각 제공부(700)를 더 포함할 수 있다. 감각 제공부(700)는 입력 객체(OBJ)에 대해 특정 감각(예를 들어, 촉감)을 제공할 수 있다.In some embodiments, the display device 1 may further include a sense providing unit 700. The sense providing unit 700 may provide a specific sense (eg, tactile sense) to the input object OBJ.

감각 제공부(700)는 표시부(100)의 전방에 배치될 수 있다. 도 1에 도시된 바와 같이, 감각 제공부(700)는 표시부(100)의 하측변에 인접하여 배치되며, 감지 공간에 감각 신호를 제공할 수 있다. 예를 들어, 감각 제공부(700)는 초음파 발생기들(또는, 초음파 트랜스듀서들)을 포함하고, 초음파 발생기들은 표시부(100)의 하측변으로부터 표시부(100)의 상측변을 향해 초음파를 발산할 수 있다.The sense providing unit 700 may be disposed in front of the display unit 100. As shown in FIG. 1, the sensory providing unit 700 is disposed adjacent to the lower side of the display unit 100 and may provide a sensory signal to the sensing space. For example, the sense providing unit 700 includes ultrasonic generators (or ultrasonic transducers), and the ultrasonic generators emit ultrasonic waves from the lower side of the display unit 100 toward the upper side of the display unit 100. I can.

입력 객체(OBJ)가 감각 영역(예를 들어, 초음파가 미치는 영역으로, 감지 공간과 유사하거나 이에 포함되는 공간) 내에 진입하는 경우, 초음파에 의해 입력 객체(OBJ)의 단부(즉, 감각 영역 내에 진입한 부분)가 진동할 수 있으며, 사용자는 입력 객체(OBJ)의 진동(예를 들어, 손의 진동)에 기초하여 터치 이벤트가 발생됨을 인지할 수 있다.When the input object OBJ enters the sensory area (eg, an area affected by ultrasound, a space similar to or included in the sensing space), the end of the input object OBJ (ie, within the sensory area) is The entered part) may vibrate, and the user may recognize that a touch event is generated based on the vibration of the input object OBJ (eg, vibration of the hand).

감각 제공부(700)는 제어부(500)에서 제공되는 감각 제어 신호에 기초하여 초음파를 발생시킬 수 있다. 즉, 감각 제공부(700)는 터치 이벤트가 발생한 경우에 한하여 초음파를 발생시킬 수 있다. 이와 달리, 감각 제공부(7000는 감각 제어 신호와 무관하게 주기적으로 초음파를 발생시킬 수도 있다.The sensory providing unit 700 may generate ultrasonic waves based on the sensory control signal provided by the controller 500. That is, the sense providing unit 700 may generate ultrasonic waves only when a touch event occurs. Alternatively, the sensory providing unit 7000 may periodically generate ultrasonic waves irrespective of the sensory control signal.

일 실시예에서, 감각 제공부(700)는 입력 객체(OBJ)와 표시부(100) 사이의 거리에 기초하여 초음파의 세기(즉, 촉감각의 크기)를 변화시킬 수 있다. 예를 들어, 감각 제공부(700)는 입력 객체(OBJ)가 표시부(100)에 인접할수록 초음파의 세기를 증가시킬 수 있다.In an embodiment, the sensory providing unit 700 may change the intensity of the ultrasound (ie, the size of a tactile sense) based on a distance between the input object OBJ and the display unit 100. For example, the sensory providing unit 700 may increase the intensity of ultrasound as the input object OBJ is adjacent to the display unit 100.

도 1을 참조하여 설명한 바와 같이, 표시 장치(1)는 입력 감지부(300)를 통해 감지 공간에 대한 측면 영상들을 획득하며, 제어부(500)를 통해 측면 영상들로부터 입력 객체(OBJ)를 추출하고, 입력 객체(OBJ)의 3차원 위치에 기초하여 공간 터치 입력을 인지하거나 터치 이벤트를 생성할 수 있다.As described with reference to FIG. 1, the display device 1 acquires side images of the sensing space through the input detection unit 300, and extracts the input object OBJ from the side images through the control unit 500. And, based on the 3D position of the input object OBJ, a spatial touch input may be recognized or a touch event may be generated.

또한, 입력 감지부(300)는 감지 공간에 대한 측면 영상들을 획득함으로써, 표시부(100)의 표시면에 인접한 입력 객체(OBJ)를 감지하고, 입력 객체(OBJ)의 제3 방향(D3)으로의 위치 변화(또는, 표시면으로부터 입력 객체(OBJ)까지의 거리)를 보다 정확하게 감지할 수 있다.In addition, the input detection unit 300 detects the input object OBJ adjacent to the display surface of the display unit 100 by acquiring side images of the sensing space, and moves in the third direction D3 of the input object OBJ. The position change (or the distance from the display surface to the input object OBJ) can be more accurately detected.

나아가, 입력 감지부(300)에 포함된 제1 및 제2 카메라 장치들(311, 312)은 상호 이격되어, 표시부(100)의 상호 다른 모서리들에 각각 인접하여 배치됨으로써, 음영 구역 없이 표시면의 전방 전체의 감지 공간에서 입력 객체(OBJ)를 감지할 수 있다.Further, the first and second camera devices 311 and 312 included in the input detection unit 300 are spaced apart from each other and are disposed adjacent to different corners of the display unit 100, so that the display surface without a shaded area The input object (OBJ) can be detected in the entire sensing space in front of.

한편, 입력 감지부(300), 제어부(500)(및 감각 제공부(700))는 하나의 모듈(예를 들어, 공간 터치 감지 모듈)로 구현될 수 있다.Meanwhile, the input sensing unit 300 and the control unit 500 (and the sense providing unit 700) may be implemented as one module (eg, a spatial touch sensing module).

도 2a 및 도 2b는 도 1의 표시 장치에 포함된 표시부의 일 예를 나타내는 분해 사시도들이다. 도 2c는 도 1의 표시 장치의 일 예를 나타내는 하측면도이다. 도 2d는 도 1의 Q1 영역을 확대한 도면이다.2A and 2B are exploded perspective views illustrating an example of a display unit included in the display device of FIG. 1. 2C is a bottom side view illustrating an example of the display device of FIG. 1. FIG. 2D is an enlarged view of area Q1 of FIG. 1.

도 2a 내지 도 2d를 참조하면, 표시부(100)는 표시 모듈(110) 및 하우징(130: 131, 132, 133, 134)을 포함할 수 있다.2A to 2D, the display unit 100 may include a display module 110 and a housing 130: 131, 132, 133, and 134.

표시 모듈(110)은 액정표시모듈로 구현되고, 도 2b에 도시된 바와 같이, 액정 표시 패널(111), 광원(113), 백플레이트(115) 및 확산 시트(117)를 포함할 수 있다.The display module 110 is implemented as a liquid crystal display module, and may include a liquid crystal display panel 111, a light source 113, a back plate 115, and a diffusion sheet 117, as shown in FIG. 2B.

액정 표시 패널(111)은 수직축을 기준으로 좌우로 오목하게 휘어진 곡면형 표시 패널일 수 있다. 액정 표시 패널(111)은 상호 대향하는 화소 전극과 공통 전극, 이들 사이에 배치된 액정층(또는, 액정 셀들), 화소 전극에 전압을 전달하는 트랜지스터들, 컬러 필터 및 편광 부재들을 포함할 수 있다.The liquid crystal display panel 111 may be a curved display panel that is concavely curved left and right with respect to a vertical axis. The liquid crystal display panel 111 may include a pixel electrode and a common electrode facing each other, a liquid crystal layer (or liquid crystal cells) disposed therebetween, transistors that transmit voltage to the pixel electrode, color filters, and polarizing members. .

광원(113)은 액정 표시 패널(111)에 광을 제공할 수 있다. 광원(113)은 복수의 LED들을 포함하고, LED들은 매트릭스 형태로 백플레이트(115)에 부착될 수 있다. 도 2에서는 광원(113)이 직하형으로 배치되어 있는 것이 도시되어 있으나, 광원(113)은 에지형으로 배치될 수도 있다. The light source 113 may provide light to the liquid crystal display panel 111. The light source 113 includes a plurality of LEDs, and the LEDs may be attached to the backplate 115 in a matrix form. 2 shows that the light source 113 is disposed in a direct type, the light source 113 may be disposed in an edge type.

백플레이트(115)는 광원(113)을 지지하고, 액정 표시 패널(111)을 커버할 수 있다. 백플레이트(115)는 곡면 형태로 휘어진 액정 표시 패널(111)의 원점(즉, 곡면을 연장하여 얻어진 가상의 원의 중심)과 동일한 원점의 동심원 상에서 액정 표시 패널(111)의 원주 방향을 따라 기 설정된 폭을 가질 수 있다. 백플레이트(115)는 복수의 직사각형의 플레이트들을 포함할 수 있고, 각 플레이트들은 액정 표시 패널(111)의 원점을 향하도록 배치될 수 있다.The back plate 115 supports the light source 113 and may cover the liquid crystal display panel 111. The back plate 115 is formed along the circumferential direction of the liquid crystal display panel 111 on a concentric circle of the same origin as the origin of the liquid crystal display panel 111 (that is, the center of a virtual circle obtained by extending the curved surface). It can have a set width. The back plate 115 may include a plurality of rectangular plates, and each of the plates may be disposed to face the origin of the liquid crystal display panel 111.

광학 시트(117)는 액정 표시 패널(111)과 광원(113) 사이에 배치된다. 광학 시트(117)는 확산 시트, 프리즘 시트, 휘도 향상 시트 등을 포함할 수 있다. The optical sheet 117 is disposed between the liquid crystal display panel 111 and the light source 113. The optical sheet 117 may include a diffusion sheet, a prism sheet, and a brightness enhancement sheet.

한편, 도시되지 않았으나, 표시 모듈(110)은 액정 표시 패널(111)의 전방에 배치되어 액정 표시 패널(111)을 보호하는 윈도우를 더 포함할 수 있다.Meanwhile, although not shown, the display module 110 may further include a window disposed in front of the liquid crystal display panel 111 to protect the liquid crystal display panel 111.

다시 도 2a를 참조하면, 하우징(130)은 표시 모듈(110)을 수납하고, 표시 모듈(110)의 후면 및 측면으로부터 표시 모듈(110)을 보호할 수 있다. 또한, 하우징(130)은 입력 감지부(300) 및/또는 감각 제공부(700)를 수납하거나, 하우징(130)에 입력 감지부(300) 및/또는 감각 제공부(700)가 설치(mounted)될 수 있다.Referring back to FIG. 2A, the housing 130 may accommodate the display module 110 and protect the display module 110 from the rear and side surfaces of the display module 110. In addition, the housing 130 accommodates the input sensing unit 300 and/or the sense providing unit 700, or the input sensing unit 300 and/or the sense providing unit 700 is mounted in the housing 130. ) Can be.

하우징(130)은 본체부(131), 상부 커버(132), 측면 커버(133) 및 지지부(134)를 포함할 수 있다.The housing 130 may include a body part 131, an upper cover 132, a side cover 133, and a support part 134.

본체부(131)는 표시 모듈(110)에 대응하여 사각형의 평면 형상을 가지고, 표시 장치(1)가 휘어지는 방향으로 함께 휘어지며, 전면이 함몰되어 형성된 수납 공간을 포함할 수 있다. 수납 공간에는 표시 모듈(110)이 수납될 수 있다.The main body 131 may have a rectangular planar shape corresponding to the display module 110, may be bent together in a direction in which the display device 1 is bent, and may include a storage space formed by recessing the front surface. The display module 110 may be accommodated in the storage space.

본체부(131)의 후면의 적어도 일부는 절개되거나 개방(open)될 수 있으며, 본체부(131)의 절개 또는 개방된 부분에는 모듈 형태의 제어부(150)가 배치될 수 있다.At least a portion of the rear surface of the main body 131 may be cut off or open, and a module-type control unit 150 may be disposed at the cut or open portion of the main body 131.

상부 커버(132)는 본체부(131)의 상측(또는, 상측 전면)에 배치되며, 내부에 본체부(131)와의 사이에서 형성된 빈 공간을 포함할 수 있다. 빈 공간에는 입력 감지부(300)가 배치될 수 있다. 상부 커버(132)와 입력 감지부(300)는 하나의 모듈로 구성되어, 본체부(131)의 상측에 배치 또는 결합될 수 있다.The upper cover 132 is disposed on the upper side (or upper front surface) of the main body 131 and may include an empty space formed therein between the main body 131 and the main body 131. The input detection unit 300 may be disposed in the empty space. The upper cover 132 and the input sensing unit 300 may be configured as one module, and may be disposed or coupled to the upper side of the main body 131.

도 2c에 도시된 바와 같이, 상부 커버(132)의 하측에는, 상부 커버(132)와 본체부(131) 사이에서 빈 공간과 외부를 연통하는 개구(OP)가 형성될 수 있다. 하우징(130)은 개구의 적어도 일부를 커버하는 투명판(132-1)을 더 포함할 수 있다. 상부 커버(132)는 불투명하고 강성의 재질로 구성되어, 입력 감지부(300)가 외부에 노출되는 것을 방지할 수 있다. 개구(OP)에 배치되는 투명판(132-1)을 통해서는 입력 감지부(300)(또는, 적외선 광원(320))로부터 발산된 적외선 광이 투과되어 감지 공간에 제공될 수 있다.As shown in FIG. 2C, an opening OP communicating the empty space and the outside may be formed between the upper cover 132 and the main body 131 at the lower side of the upper cover 132. The housing 130 may further include a transparent plate 132-1 covering at least a portion of the opening. The upper cover 132 is made of an opaque and rigid material, so that the input sensing unit 300 can be prevented from being exposed to the outside. Infrared light emitted from the input sensing unit 300 (or the infrared light source 320) may be transmitted through the transparent plate 132-1 disposed in the opening OP to be provided to the sensing space.

한편, 상부 커버(132)의 개구(OP)의 일부는 투명판(132-1)에 의해 커버되지 않고, 제1 및 제2 카메라 장치들(311, 312)(예를 들어, 카메라 장치들(311, 312) 각각의 렌즈)이 외부로 노출될 수 있다. 이와 같은 구조에 의해 입력 객체(OBJ)에 의해 반사된 적외선 광이 투명판(132-1)(또는, 투명판(132-1)의 굴절률)에 의해 전반사되는 것이 방지될 수 있다.On the other hand, part of the opening OP of the upper cover 132 is not covered by the transparent plate 132-1, and the first and second camera devices 311 and 312 (for example, camera devices ( 311, 312) each lens) may be exposed to the outside. With such a structure, the infrared light reflected by the input object OBJ may be prevented from being totally reflected by the transparent plate 132-1 (or the refractive index of the transparent plate 132-1 ).

다시 도 2a를 참조하면, 측면 커버(133)는 직사각형의 평면 형상을 가지고, 본체부(131)의 측면에 배치될 수 있다. 측면 커버(133)는 표시 모듈(110)의 측면으로부터 유입되는 광(예를 들어, 적외선 광)을 차단할 수 있다. 또한, 측면 커버(133)는 입력 감지부(300)(또는, 제1 및 제2 카메라 장치들(321, 322))의 설치 영역을 제공할 수도 있다.Referring back to FIG. 2A, the side cover 133 may have a rectangular planar shape and may be disposed on the side of the body portion 131. The side cover 133 may block light (eg, infrared light) flowing from the side of the display module 110. In addition, the side cover 133 may provide an installation area of the input sensing unit 300 (or the first and second camera devices 321 and 322 ).

일 실시예에서, 측면 커버(133)는 감지 공간을 정의할 수 있다. 예를 들어, 제1 및 제2 카메라 장치들(321, 322)로부터 획득한 측면 영상들에서, 측면 커버(133)와 중첩하여 표시되는 입력 객체(OBJ)만이 감지 영역 내에 존재하는 것으로 판단될 수도 있다.In one embodiment, the side cover 133 may define a sensing space. For example, in side images acquired from the first and second camera devices 321 and 322, it may be determined that only the input object OBJ displayed by overlapping with the side cover 133 exists in the sensing area. have.

지지부(134)(또는, 지지부재)는 제1 및 제2 카메라 장치들(311, 312)와 적외선 광원(320)을 지지할 수 있다. 지지부(134)는 제1 및 제2 카메라 장치들(311, 312)을 지지하는 제1 지지부(134-1)와 적외선 광원(320)을 지지하는 제2 지지부(미도시)를 포함할 수 있다.The support 134 (or the support member) may support the first and second camera devices 311 and 312 and the infrared light source 320. The support part 134 may include a first support part 134-1 for supporting the first and second camera devices 311 and 312 and a second support part (not shown) for supporting the infrared light source 320. .

도 2d에 도시된 바와 같이, 제1 지지부(134-1)는 본체부(131)(또는, 표시 모듈(110))의 상측면에 고정되는 고정부(134a)와, 고정부(134a)로부터 사선 방향(즉, 제4 방향(D4), 제1 카메라 장치(311)의 시선축에 수직하는 방향, 또는 고정부(134a)와 예각을 형성하는 방향)을 따라 연장된 제1 연장부(134b)와, 제1 연장부(134b)로부터 표시 모듈(110)의 전방으로 연장된 제2 연장부(134c)를 포함할 수 있다. 제2 연장부(134c)의 내측면에는 제1 카메라 장치(311)(또는, 제2 카메라 장치(312))가 고정될 수 있다.As shown in FIG. 2D, the first support part 134-1 is from the fixing part 134a fixed to the upper surface of the main body 131 (or the display module 110) and the fixing part 134a. A first extension portion 134b extending along an oblique direction (ie, a fourth direction D4, a direction perpendicular to the line of sight axis of the first camera device 311, or a direction forming an acute angle with the fixing portion 134a) ), and a second extension part 134c extending from the first extension part 134b to the front of the display module 110. The first camera device 311 (or the second camera device 312) may be fixed to the inner surface of the second extension part 134c.

고정부(134a)와 본체부(131)의 얼라인에 따라 제1 카메라 장치(311)의 수평각(즉, 제1 카메라 장치(311)의 시선축의 수평 성분)이 조절되고, 고정부(134a)를 기준으로 제1 연장부(134b)의 절곡된 각도에 따라 제1 카메라 장치(311)의 수직각(즉, 제1 카메라 장치(311)의 시선축의 수직 성분)이 조절될 수 있다.The horizontal angle of the first camera device 311 (that is, the horizontal component of the gaze axis of the first camera device 311) is adjusted according to the alignment of the fixing part 134a and the main body part 131, and the fixing part 134a The vertical angle of the first camera device 311 (ie, a vertical component of the line of sight of the first camera device 311) may be adjusted according to the bent angle of the first extension part 134b based on.

한편, 도 2d에서는 제1 지지부(134-1)가 본체부(131)의 상측면에 배치되는 것으로 도시되어 있으나, 이에 한정되는 것은 아니며, 제1 지지부(134-1)는 본체부(131)의 측면 또는 측면 커버(133)에 배치될 수도 있다.Meanwhile, in FIG. 2D, the first support 134-1 is shown to be disposed on the upper side of the main body 131, but is not limited thereto, and the first support 134-1 is the main body 131 It may be disposed on the side or side cover 133 of the.

제2 지지부(미도시)는 본체부(131)(또는, 표시 모듈(110))의 상측면으로부터 상측으로 연장되고, 표시 모듈(110)의 전방으로 절곡되어 형성될 수 있다. 제2 지지부는 "ㄱ"자(또는, 역 "L"자) 형상을 가지며, 제2 지지부(미도시)의 내측면(즉, 본체부(131)의 상측면에 대향하는 면)에 적외선 광원(320)이 배치될 수 있다. 제2 지지부는 적외선 광원(320)으로부터 발산되는 적외선 광이 수평 방향으로 진행하는 것(즉, 적외선 광이 제1 및 제2 카메라 장치들(311, 312)로 직접적으로 유입되는 것)을 방지하는 측면 차광부재를 포함할 수도 있다.The second support part (not shown) may extend upward from the upper side of the main body 131 (or the display module 110 ), and may be formed by bending toward the front of the display module 110. The second support part has a "L" shape (or inverse "L" shape), and an infrared light source on the inner surface of the second support part (not shown) (that is, a surface facing the upper surface of the main body 131) 320 may be placed. The second support part prevents the infrared light emitted from the infrared light source 320 from traveling in the horizontal direction (that is, the infrared light directly entering the first and second camera devices 311 and 312). It may also include a side light blocking member.

몇몇 실시예에서, 표시부(100)는 입체필터부(미도시)를 더 포함할 수 있다. 입체필터부는 표시 모듈(110)의 전방에 배치될 수 있다. 예를 들어, 입체필터부는 표시 모듈(110)의 곡률 반경과 실질적으로 동일하거나 유사한 곡률 반경을 가지고, 표시 모듈(110)의 전방에 배치될 수 있다. 입체필터부는 표시 모듈(110)의 전면에 밀착되거나, 표시 모듈(110)의 전면으로부터 이격되어 배치될 수 있다.In some embodiments, the display unit 100 may further include a three-dimensional filter unit (not shown). The three-dimensional filter unit may be disposed in front of the display module 110. For example, the three-dimensional filter unit may have a radius of curvature that is substantially the same as or similar to that of the display module 110 and may be disposed in front of the display module 110. The three-dimensional filter unit may be disposed in close contact with the front surface of the display module 110 or spaced apart from the front surface of the display module 110.

입체필터부(미도시)는 렌티큘러 렌즈(lenticular lens sheet)를 포함할 수 있다. 렌티큘러 렌즈에 의해 표시 모듈(110)의 좌안 영상을 사용자의 왼쪽 눈에, 우안 영상을 사용자의 오른쪽 눈에 제공함으로써, 사용자에게 3차원 입체 영상을 제공할 수 있다. 렌티큘러 렌즈가 표시 모듈(110)과 동일한 곡률로 오목하게 형성되는 경우, 오목한 공간인 허공에서 영상이 존재하는 것과 같은 착시 현상이 발생할 수 있다. 따라서, 착시 현상으로 인하여 공간 상에 영상이 표시되는 것처럼 보이고, 사용자는 오목한 공간의 일정 깊이로 손을 넣어 영상을 터치함으로써, 공간감이 극대화될 수 있다.The three-dimensional filter unit (not shown) may include a lenticular lens sheet. By providing the left eye image of the display module 110 to the user's left eye and the right eye image to the user's right eye by the lenticular lens, a 3D stereoscopic image may be provided to the user. When the lenticular lens is formed to be concave with the same curvature as that of the display module 110, an optical illusion phenomenon such as the existence of an image in the concave space may occur. Accordingly, the image appears to be displayed on the space due to the optical illusion, and the sense of space can be maximized by the user touching the image by putting his hand in a certain depth of the concave space.

도 2a 내지 도 2d를 참조하여 설명한 바와 같이, 표시부(100)는 상부 커버(132)를 이용하여 입력 감지부(300)를 커버하되, 상부 커버(132)의 적어도 일부는 입력 감지부(300)의 제1 및 제2 카메라 장치들(311, 312)을 노출시켜, 입력 객체(OBJ)에 의해 반사된 광을 모두 반영한 측면 영상들이 생성될 수 있도록 할 수 있다. 또한, 표시부(100)는 표시 모듈(110)의 측면에 배치되는 측면 커버들(133a, 133b)을 포함함으로써, 외부로부터 유입되는 광을 차단하고, 또한, 감지 공간을 보다 용이하게 정의하거나 형성할 수 있다.As described with reference to FIGS. 2A to 2D, the display unit 100 covers the input sensing unit 300 using the upper cover 132, but at least a part of the upper cover 132 is the input sensing unit 300. The first and second camera devices 311 and 312 of are exposed so that side images reflecting all of the light reflected by the input object OBJ can be generated. In addition, the display unit 100 includes side covers 133a and 133b disposed on the side of the display module 110 to block light from outside, and to more easily define or form a sensing space. I can.

도 3a 내지 도 3c는 도 1의 표시 장치에 포함된 입력 감지부에 의해 형성된 감지 공간의 일 예를 나타내는 도면들이다. 도 3b 및 도 3c에는 감지 공간의 평면이 도시되어 있다.3A to 3C are diagrams illustrating an example of a sensing space formed by an input sensing unit included in the display device of FIG. 1. 3B and 3C illustrate a plane of the sensing space.

먼저 도 3a 및 도 3b를 참조하면, 제1 및 제2 카메라 장치들(311, 312)은 앞서 설명한 바와 같이, 표시부(110)의 전방에 배치되되, 표시부(110)의 좌상측 모서리 및 우상측 모서리에 각각 배치될 수 있다. 또한, 제1 및 제2 카메라 장치들(311, 312)의 시선축이 표시면의 면적 중심을 향하도록, 제1 및 제2 카메라 장치들(311, 312)이 배치될 수 있다. 제1 및 제2 카메라 장치들(311, 312)은 90도 이상의 화각, 예를 들어, 90도 또는 140도의 화각을 가질 수 있다.First, referring to FIGS. 3A and 3B, the first and second camera devices 311 and 312 are disposed in front of the display unit 110 as described above, but the upper left and upper right corners of the display unit 110 Each can be placed in the corner. In addition, the first and second camera devices 311 and 312 may be disposed such that the gaze axes of the first and second camera devices 311 and 312 face the center of the area of the display surface. The first and second camera devices 311 and 312 may have a view angle of 90 degrees or more, for example, 90 degrees or 140 degrees.

감지 공간(SA)은 제1 카메라 장치(311)의 촬영 영역과 제2 카메라 장치(312)의 촬영 영역이 중첩하는 영역에 형성될 수 있다. 감지 공간(SA)은 제1 및 제2 카메라 장치들(311, 312)에 인접할수록 그 폭(또는, 두께, 즉, 표시부(110)의 표시면에 수직하는 방향으로의 길이)는 작고, 제1 및 제2 카메라 장치들(311, 312)로부터 멀어질수록 그 폭은 커질 수 있다. 다만, 이에 제한되는 것은 아니며, 표시부(110)의 곡률, 제1 및 제2 카메라 장치들(311, 312)의 배치 방향에 따라 감지 공간의 형상 및 폭은 달라질 수 있다.The sensing space SA may be formed in a region where the photographing region of the first camera device 311 and the photographing region of the second camera device 312 overlap. As the sensing space SA is adjacent to the first and second camera devices 311 and 312, the width (or thickness, that is, the length in the direction perpendicular to the display surface of the display unit 110) is smaller, The width may increase as the distance from the first and second camera devices 311 and 312 increases. However, the present invention is not limited thereto, and the shape and width of the sensing space may vary according to the curvature of the display unit 110 and the arrangement direction of the first and second camera devices 311 and 312.

도 3b에 도시된 바와 같이, 감지 공간(SA)은 표시 장치(1)의 전방에 위치하는 일 지점('P0' 참조)을 기준으로 원호(또는, 부채꼴)의 평면 형상을 가질 수 있다.As illustrated in FIG. 3B, the sensing space SA may have a planar shape of an arc (or sector) based on a point (refer to “P0”) positioned in front of the display device 1.

일 실시예에서, 제1 카메라 장치(311)의 시야각의 에지와 제2 카메라 장치(312)의 시야각의 에지가 표시 장치(1)(또는, 표시부(100)의 표시면))의 원점(P0)을 지나거나, 표시 장치(1)의 원점(P0)이 제1 카메라 장치(311)의 시야 범위와 제2 카메라 장치(312)의 시야 범위 내에 위치할 수 있다. 이 경우, 감지 공간(SA)은 표시 장치(1)의 전면 전체에서 동일한 두께(즉, 표시면에 수직하는 방향으로의 길이)를 가지고, 감지 공간의 형상에 따라 표시 장치(1)의 전면에서 동일한 최대 깊이(depth)를 가지는 공간 터치의 입력 범위가 제공될 수 있다. 예를 들어, 표시 장치(1)가 55인치의 표시면을 가지고 약 1.5m의 곡률 반경을 가지는 경우, 또한, 제1 및 제2 카메라 장치들(311, 312)이 표시면의 면적 중심('P1' 참조)을 향하여 배치된 경우, 제1 및 제2 카메라 장치들(311, 312)의 시야각의 에지는 표시 장치(1)의 원점(P0)을 지날 수 있다. 이 경우, 감지 공간(SA)은 약 1.5m의 반경을 가지는 원호 형상을 가지며, 표시 장치(1)는 표시 장치(1)의 원점(P0)에 위치하는 사용자(또는, 사용자의 시선)를 기준으로, 표시 장치(1)의 전면 전체 영역에서 최대 1.5m의 동일한 깊이(DE1)를 가지는 공간 터치의 입력 범위가 제공될 수 있다.In one embodiment, the edge of the viewing angle of the first camera device 311 and the edge of the viewing angle of the second camera device 312 are the origin of the display device 1 (or the display surface of the display unit 100) (P0 ) Or the origin P0 of the display device 1 may be located within the viewing range of the first camera device 311 and the viewing range of the second camera device 312. In this case, the sensing space SA has the same thickness (i.e., the length in a direction perpendicular to the display surface) over the entire front surface of the display device 1, and is located in the front surface of the display device 1 according to the shape of the sensing space. An input range of spatial touch having the same maximum depth may be provided. For example, when the display device 1 has a display surface of 55 inches and a radius of curvature of about 1.5 m, the first and second camera devices 311 and 312 are located at the center of the area of the display surface (' P1'), the edge of the viewing angle of the first and second camera devices 311 and 312 may pass through the origin P0 of the display device 1. In this case, the sensing space SA has an arc shape with a radius of about 1.5 m, and the display device 1 is based on the user (or the user's gaze) located at the origin P0 of the display device 1 As a result, an input range of spatial touch having the same depth DE1 of at most 1.5m over the entire front area of the display device 1 may be provided.

한편, 적외선 광원(320)이 표시 장치(1)의 전방으로 일정한 폭(예를 들어, 30cm)을 가지는 영역에 적외선 광을 투사하는 경우, 표시 장치(1)는 도 3c에 도시된 바와 같이 전면 전체 영역에서 동일한 깊이(DE2)(예를 들어, 최대 30cm 깊이)를 가지는 감지 공간(SA)이 형성될 수도 있다.Meanwhile, when the infrared light source 320 projects infrared light to an area having a certain width (eg, 30 cm) in front of the display device 1, the display device 1 A sensing space SA having the same depth DE2 (eg, a maximum depth of 30 cm) may be formed in the entire area.

도 3a 내지 도 3c를 참조하여 설명한 바와 같이, 제1 및 제2 카메라 장치들(311, 312)의 시야각이, 표시 장치(1)의 곡률 반경의 원점(P0)을 지나도록 배치되는 경우, 별도의 영상 처리 없이, 표시 장치(1)의 전면 전체에서 동일한 깊이(도 3c의 'DE2')를 가지는 감지 공간(SA)이 형성되거나, 표시 장치(1)의 전면 전체에서 동일한 최대 깊이(도 3b의 'DE1')를 가지는 공간 터치의 입력 범위가 제공될 수 있다.As described with reference to FIGS. 3A to 3C, when the viewing angles of the first and second camera devices 311 and 312 are disposed to pass through the origin P0 of the radius of curvature of the display device 1, a separate Without image processing, the sensing space SA having the same depth ('DE2' in FIG. 3C) is formed over the entire front surface of the display device 1, or the same maximum depth (FIG. 3B) over the entire front surface of the display device 1 An input range of spatial touch having'DE1') of may be provided.

도 4는 본 발명의 다른 실시예들에 따른 표시 장치를 나타내는 도면이다. 도 5는 도 4의 표시 장치에 의해 형성된 감지 공간의 일 예를 나타내는 평면도이다.4 is a diagram illustrating a display device according to other exemplary embodiments of the present invention. 5 is a plan view illustrating an example of a sensing space formed by the display device of FIG. 4.

도 1, 도 4 및 도 5를 참조하면, 표시 장치(1_6)는 평면형 표시부(100)를 포함한다는 점에서, 도 1의 표시 장치(1)와 상이하다. 평면형 표시부(100)(및 평면형 표시부(100)에 대응하는 구성들)를 제외하고, 도 4의 표시 장치(1_6)는 도 1의 표시 장치(1)와 실질적으로 동일하거나 유사하므로, 중복되는 설명은 반복하지 않기로 한다.1, 4 and 5, the display device 1_6 is different from the display device 1 of FIG. 1 in that it includes a flat display unit 100. Except for the flat display unit 100 (and configurations corresponding to the flat display unit 100), the display device 1_6 of FIG. 4 is substantially the same as or similar to the display device 1 of FIG. Decided not to repeat.

표시 장치(1_6)는 제1 및 제2 카메라 장치들(311, 312)을 포함하고, 제1 카메라 장치(311)는 표시부(100)의 좌상측 모서리에 인접하여 배치되고, 제2 카메라 장치(312)는 표시부(100)의 우상측 모서리에 인접하여 배치될 수 있다.The display device 1_6 includes first and second camera devices 311 and 312, and the first camera device 311 is disposed adjacent to the upper left corner of the display unit 100, and the second camera device ( 312 may be disposed adjacent to the upper right corner of the display unit 100.

다만, 제1 카메라 장치(311)는 표시부(100)의 좌측변에 결합된 제1 측면 커버(133a)(또는, 좌측면 커버)의 단부에 인접하여 배치되고, 제2 카메라 장치(312)는 표시부(100)의 우측변에 결합된 제2 측면 커버(133b)(또는, 우측면 커버)의 단부에 인접하여 배치될 수 있다. 즉, 제1 및 제2 카메라 장치들(311, 312)는 표시부(100)(또는, 표시면)으로부터 제1 및 제2 측면 커버들(133a, 133b)의 폭(즉, 표시면에 수직하는 방향으로의 길이)만큼 이격되어 배치될 수 있다.However, the first camera device 311 is disposed adjacent to the end of the first side cover 133a (or left side cover) coupled to the left side of the display unit 100, and the second camera device 312 is It may be disposed adjacent to the end of the second side cover 133b (or right side cover) coupled to the right side of the display unit 100. That is, the first and second camera devices 311 and 312 have the width of the first and second side covers 133a and 133b from the display unit 100 (or display surface) (that is, perpendicular to the display surface). It can be arranged spaced apart by the length in the direction).

표시부(100)가 곡면형이 아닌 평면형으로 구현됨에 따라, 도 5b를 기준으로 제1 및 제2 카메라 장치(311, 312)가 표시면에 인접하여 배치되는 경우, 표시부(100)의 양측변에서 감지 공간의 두께가 상대적으로 작아, 표시부(100)의 양측변에서 충분한 깊이의 공간 터치 입력이 제공되지 않을 수 있다. 이와 달리, 제1 및 제2 카메라 장치(311, 312)가 전방을 향하여 배치되는 경우, 감지 공간(SA)이 불필요하게 커지며 불필요한 정보들(예를 들어, 표시면으로부터 1m 이상 이격된 객체들)이 감지되어, 표시 장치의 부하가 증가될 수 있다.As the display unit 100 is implemented in a flat type rather than a curved type, when the first and second camera devices 311 and 312 are disposed adjacent to the display surface, based on FIG. 5B, at both sides of the display unit 100 Since the thickness of the sensing space is relatively small, a spatial touch input having a sufficient depth may not be provided on both sides of the display unit 100. On the contrary, when the first and second camera devices 311 and 312 are arranged facing the front, the sensing space SA becomes unnecessarily large and unnecessary information (eg, objects separated by 1 m or more from the display surface) As this is sensed, the load of the display device may increase.

따라서, 표시부(100)의 양측변에서 제공되어야 할 공간 터치 입력의 깊이를 고려하여, 제1 및 제2 카메라 장치들(311, 312)은 표시부(100)로부터 전방으로 이격되어, 제1 및 제2 측면 커버들(133a, 133b)에 각각 배치될 수 있다. 예를 들어, 제공되어야 할 공간 터치 입력의 깊이가 클수록, 제1 및 제2 카메라 장치들(311, 312)은 표시부(100)로부터 보다 이격되어 배치될 수 있고, 또한, 제1 및 제2 측면 커버들(133a, 133b)의 폭(즉, 표시면에 수직하는 방향으로의 길이)도 증가될 수 있다.Therefore, in consideration of the depth of the spatial touch input to be provided on both sides of the display unit 100, the first and second camera devices 311 and 312 are spaced forward from the display unit 100, 2 It may be disposed on the side covers 133a and 133b, respectively. For example, as the depth of the spatial touch input to be provided increases, the first and second camera devices 311 and 312 may be disposed more spaced apart from the display unit 100, and the first and second side surfaces The width of the covers 133a and 133b (that is, the length in a direction perpendicular to the display surface) may also be increased.

한편, 제1 및 제2 카메라 장치들(311, 312)이 표시부(100)로부터 이격되는 경우, 표시부(100)의 양측변에서 음영 구역이 발생할 수 있다. 따라서, 제1 및 제2 카메라 장치들(311, 312)는 표시면의 면적 중심이 아닌 표시면의 후방에 위치하는 기준점을 향하도록 배치될 수 있다.On the other hand, when the first and second camera devices 311 and 312 are separated from the display unit 100, shadow areas may occur on both sides of the display unit 100. Accordingly, the first and second camera devices 311 and 312 may be arranged to face a reference point located at the rear of the display surface rather than the area center of the display surface.

도 6은 도 1의 표시 장치에 포함된 제어부의 일 예를 나타내는 블록도이다. 도 7a 내지 도 7f는 도 6의 제어부에서 입력 객체를 감지하는 과정을 설명하는 도면들이다.6 is a block diagram illustrating an example of a control unit included in the display device of FIG. 1. 7A to 7F are diagrams illustrating a process of detecting an input object by the controller of FIG. 6.

도 7a에는 입력 객체인 포인터의 일예로서 표시 장치(1)의 감지 공간 내에 위치하는 사용자의 손이 예시적으로 도시되어 있으며, 도 7b에는 도 7a의 표시 장치(1)에 포함된 제1 카메라 장치(311)에서 획득된 제1 측면 영상이 도시되고, 도 7c에는 도 7a의 표시 장치(1)에 포함된 제2 카메라 장치(312)에서 획득된 제2 측면 영상이 도시되어 있다. 적외선 광(즉, 도 1을 참조하여 설명한 적외선 광원(320)으로부터 감지 공간에 투사된 적외선 광)이 감지 공간 내 위치하는 사용자의 손에 의해 반사 또는 산란되어, 사용자의 손은 상대적으로 밝게 보일 수 있다.7A illustrates an example of a user's hand positioned in the sensing space of the display device 1 as an example of a pointer as an input object, and FIG. 7B shows a first camera device included in the display device 1 of FIG. 7A A first side image acquired at 311 is shown, and FIG. 7C shows a second side image acquired by a second camera device 312 included in the display device 1 of FIG. 7A. Infrared light (that is, the infrared light projected from the infrared light source 320 described with reference to FIG. 1 to the sensing space) is reflected or scattered by the user's hand located in the sensing space, so that the user's hand may appear relatively bright. have.

도 6을 참조하면, 제어부(500)는 전처리부(610), 추출부(620) 및 산출부(630)를 포함할 수 있다. 또한, 제어부(500)는 이벤트 생성부(640)를 더 포함할 수 있다. 제1 및 제2 측면 영상들(IMGAE1, IMAGE2)에 대한 영상 처리 과정은 상호 실질적으로 동일하거나 유사하므로, 제1 및 제2 측면 영상들(IMGAE1, IMAGE2)에 대한 영상 처리 과정들 중 상호 공통되는 과정에 대해서는 제1 측면 영상(IMAGE1)을 기준으로 설명한다.Referring to FIG. 6, the control unit 500 may include a preprocessing unit 610, an extraction unit 620, and a calculation unit 630. In addition, the control unit 500 may further include an event generating unit 640. Since the image processing processes for the first and second side images IMGAE1 and IMAGE2 are substantially the same or similar to each other, the image processing processes for the first and second side images IMGAE1 and IMAGE2 are mutually common. The process will be described based on the first side image IMAGE1.

전처리부(610)는 제1 측면 영상(IMAGE1)에서 배경 영상을 제거하고, 노이즈를 제거하며, 또한, 입력 객체의 그림자를 제거할 수 있다. 즉, 전처리부(610)는 제1 측면 영상(IMAGE1)으로부터 손 영상이 용이하게 추출될 수 있도록, 제1 측면 영상을 전처리할 수 있다.The preprocessor 610 may remove the background image from the first side image IMAGE1, remove noise, and also remove the shadow of the input object. That is, the preprocessor 610 may pre-process the first side image so that the hand image can be easily extracted from the first side image IMAGE1.

전처리부(610)는 배경 제거부(611), 노이즈 제거부(612) 및 그림자 제거부(613)를 포함할 수 있다.The preprocessor 610 may include a background removing unit 611, a noise removing unit 612, and a shadow removing unit 613.

배경 제거부(611)는 제1 측면 영상(IMAGE1)으로부터 기 설정된 배경 영상(IMAGE_BACK)을 차연산하여 제1 전처리 영상(IMAGE_B1)을 생성하거나 획득할 수 있다. 여기서, 기 설정된 배경 영상(IMAGE_BACK)은 표시부(100)의 표시면만이 표시되는 영역의 영상일 수 있다. 배경 제거부(611)는 해당 영역의 화소값을 0(예를 들어, 흑색)으로 변환할 수도 있다.The background removal unit 611 may generate or obtain a first preprocessed image IMAGE_B1 by performing a difference calculation on a preset background image IMAGE_BACK from the first side image IMAGE1. Here, the preset background image IMAGE_BACK may be an image of an area in which only the display surface of the display unit 100 is displayed. The background removal unit 611 may convert the pixel value of the corresponding region to 0 (eg, black).

노이즈 제거부(612)는 제1 전처리 영상(IMAGE_B1)을 샘플링(또는, 이진화)하고 평활화(smoothing)하여, 노이즈가 제거된 제1 원본 영상(IMAEG_N1)을 획득할 수 있다. 예를 들어, 노이즈 제거부(612)는 임계값을 기준으로, 제1 전처리 영상(IMAGE_B1) 내 화소값들을 0 (예를 들어, 흑색) 또는 255 (예를 들어, 백색)으로 치환할 수 있다.The noise removal unit 612 samples (or binarizes) the first preprocessed image IMAGE_B1 and smoothes it to obtain a first original image IMAEG_N1 from which noise has been removed. For example, the noise removal unit 612 may replace pixel values in the first preprocessed image IMAGE_B1 with 0 (eg, black) or 255 (eg, white) based on the threshold value. .

그림자 제거부(613)는 제1 원본 영상(IMAGE_N1)에 대해 그림자 제거 알고리즘을 적용하여 그림자 영상을 제거하고 그림자 제거 영상(IMAGE_S1)을 생성할 수 있다. 여기서, 그림자 영상은 표시부(100)의 표시면에 의해 손이 반사되어 표시되는 영상일 수 있다.The shadow removal unit 613 may remove the shadow image by applying a shadow removal algorithm to the first original image IMAGE_N1 and generate the shadow removal image IMAGE_S1. Here, the shadow image may be an image in which a hand is reflected and displayed by the display surface of the display unit 100.

도 7d에 도시된 바와 같이, 제1 원본 영상(IMAGE_N1)은 후보 객체 영상들(OBJ_1, OBJ_1S)를 포함할 수 있다. 여기서, 후보 객체 영상들(OBJ_1, OBJ_1S)은 입력 객체(OBJ)로 인식될 수 있는 영상들로, 기준 크기(또는, 기준 면적) 이상의 크기를 가질 수 있다. 이 경우, 그림자 제거부(613)는 후보 객체 영상들(OBJ_1, OBJ_1S)의 크기, 대칭성, 배치 위치에 기초하여, 후보 객체 영상들(OBJ_1, OBJ_1S) 중 그림자 영상(OBJ_1S)을 결정하고, 제1 원본 영상(IMAGE_N1)으로부터 그림자 영상(OBJ_1S)을 제거할 수 있다. 예를 들어, 상호 동일하거나 유사한 형상의 후보 객체 영상들(OBJ_1, OBJ_1S)이 존재하는 경우, 상대적으로 크기가 작고 표시부(100)에 인접한 그림자 영상(OBJ_1S)을 선택하여, 제거할 수 있다.As shown in FIG. 7D, the first original image IMAGE_N1 may include candidate object images OBJ_1 and OBJ_1S. Here, the candidate object images OBJ_1 and OBJ_1S are images that can be recognized as the input object OBJ, and may have a size equal to or larger than a reference size (or a reference area). In this case, the shadow removal unit 613 determines the shadow image OBJ_1S among the candidate object images OBJ_1 and OBJ_1S based on the size, symmetry, and placement position of the candidate object images OBJ_1 and OBJ_1S, and 1 The shadow image OBJ_1S may be removed from the original image IMAGE_N1. For example, when candidate object images OBJ_1 and OBJ_1S having the same or similar shape to each other exist, a shadow image OBJ_1S having a relatively small size and adjacent to the display unit 100 may be selected and removed.

추출부(620)는 전처리부(610)에서 최종 출력된 그림자 제거 영상(IMAGE_S1)으로부터 손 영상을 추출할 수 있다. 추출부(620)는 검출부(621), 추적부(622) 및 보정부(623)를 포함할 수 있다.The extraction unit 620 may extract a hand image from the shadow removal image IMAGE_S1 finally output from the preprocessor 610. The extraction unit 620 may include a detection unit 621, a tracking unit 622 and a correction unit 623.

검출부(621)는 그림자 제거 영상(IMAGE_S1)에 대해 기 설정된 패턴들(예를 들어, 입력 객체의 특징 또는 특징점들을 포함하는 객체 패턴들)을 매칭하여, 포인터 영상을 검출할 수 있다. 예를 들어, 검출부(621)는 기 설정된 크기(즉, 기 설정된 개수 이상의 화소들)를 가지는 후보 객체 영상(OBJ1)을 추출하고, 후보 객체 영상(OBJ1)을 기 설정된 패턴과 매칭하여 손 영상을 검출할 수 있다. 여기서, 기 설정된 패턴들은, 예를 들어, 하나의 손가락만이 펴진 손에 대응하는 패턴(손가락, 손바닥, 손목 부분까지 특징점들을 포함하는 패턴), 주먹을 쥔 손에 대응하는 패턴, 손가락을 모두 펴진 손에 대응하는 패턴 등을 포함할 수 있다.The detector 621 may detect a pointer image by matching preset patterns (eg, features of an input object or object patterns including feature points) with respect to the shadow removal image IMAGE_S1. For example, the detection unit 621 extracts a candidate object image OBJ1 having a preset size (i.e., pixels greater than or equal to a preset number) and matches the candidate object image OBJ1 with a preset pattern to obtain a hand image. Can be detected. Here, the preset patterns are, for example, a pattern corresponding to a hand with only one finger open (a pattern including feature points up to a finger, palm, and wrist), a pattern corresponding to a hand with a fist, and A pattern corresponding to the hand may be included.

또한, 추출부(620)의 검출부(621)는 입력 객체인 포인터의 영상(도면에서 손 영상)이 검출되는 경우, 대응되는 패턴(즉, 손 영상의 검출에 사용된 패턴, 또는, 대응되는 패턴에 기 정의된 특징점)에 기초하여 입력 객체 영상의 기준점을 결정할 수 있다. 예를 들어, 도 7d에 도시된 바와 같이, 손가락 하나를 편 상태를 나타내는 패턴에 대응하는 손 영상(OBJ_1)이 검출된 경우, 손가락의 단부의 점이 기준점(P_OBJ1)으로 결정될 수 있다. 다른 예를 들어, 손가락을 모두 편 상태를 나타내는 패턴에 대응하는 손 영상이 검출된 경우, 손바닥의 중심 점이 기준점(P_OBJ1)으로 결정될 수 있다.In addition, the detection unit 621 of the extraction unit 620, when the image of the pointer as an input object (a hand image in the drawing) is detected, a corresponding pattern (ie, a pattern used to detect a hand image, or a corresponding pattern) A reference point of the input object image may be determined based on the feature point defined in [0104]. For example, as illustrated in FIG. 7D, when a hand image OBJ_1 corresponding to a pattern indicating a state in which one finger is opened is detected, a point at the end of the finger may be determined as the reference point P_OBJ1. For another example, when a hand image corresponding to a pattern indicating a state in which all fingers are opened is detected, the center point of the palm may be determined as the reference point P_OBJ1.

한편, 손가락이나 펜 등의 포인터는 제1 및 제2 카메라 장치(311, 312)와의 거리에 따라 입력 이미지의 형태가 달라질 수 있다. 이와 같이 입력 이미지 형태가 달라지는 경우에도 포인터를 정확하게 인식하고 검출하기 위해 검출부(621)는 형태 분석, 비율(크기) 분석 및/또는 다중 카메라 가중치 분석을 더 수행할 수 있다. 이를 위해 검출부(621)는 형태 분석부, 비율(크기) 분석부 및/또는 다중 카메라 가중치 분석부를 더 포함할 수 있다. 이에 대한 상세한 설명을 위해 도 8 내지 도 10이 참조된다. Meanwhile, the shape of the input image of the pointer such as a finger or a pen may vary according to the distance between the first and second camera devices 311 and 312. Even when the shape of the input image is changed as described above, in order to accurately recognize and detect the pointer, the detection unit 621 may further perform shape analysis, ratio (size) analysis, and/or multi-camera weight analysis. To this end, the detection unit 621 may further include a shape analysis unit, a ratio (size) analysis unit, and/or a multi-camera weight analysis unit. 8 to 10 are referred to for a detailed description thereof.

도 8a 및 도 8b는 위치에 따른 포인터의 입력 이미지를 나타낸 개략도들이다. 8A and 8B are schematic diagrams illustrating an input image of a pointer according to a location.

도 8a 및 도 8b를 참조하면, 카메라 장치(310)로부터 포인터가 떨어진 거리에 따라 카메라 장치(310)에 입력되는 포인터의 이미지 영상 형태가 달라진다. 즉, 사용자의 손의 경우 도 8a에 도시된 바와 같이 원거리에서는 손 전체의 형상이 이미지 영상으로 입력될 수 있지만, 근거리에서는 손의 형태가 부분 형태로서 하나의 덩어리로 인식될 수 있다. 또한, 펜의 경우에도 도 8b에 도시된 것처럼 원거리에서는 펜 전체의 형상에 대한 입력 이미지를 얻을 수 있지만, 근거리에서는 펜의 형태가 부분적으로만 입력되어 하나의 덩어리로 보여질 수 있다. Referring to FIGS. 8A and 8B, the image type of the pointer input to the camera device 310 varies according to the distance the pointer is away from the camera device 310. That is, in the case of the user's hand, as shown in FIG. 8A, the shape of the entire hand may be input as an image image at a distance, but at a close distance, the shape of the hand may be recognized as a single mass as a partial shape. In addition, in the case of a pen, as shown in FIG. 8B, an input image for the entire shape of the pen can be obtained at a distance, but at a close distance, the shape of the pen is only partially input and thus can be viewed as a single block.

이와 같이 포인터가 근거리에 위치하는 경우에도 형태 분석을 수행하면 포인터가 화면상 어디를 가리키는지 식별할 수 있다. 도 9는 근접 포인터의 원본 영상과 변환 영상을 비교 도시한 개략도이다. 도 9에 도시된 바와 같이, 근거리의 원본 이미지에 대해 특징점을 추출하여 연결해보면 손이나 펜의 단부는 주변에 비해 상대적으로 작은 곡률을 갖는다. 이와 같은 곡률을 인식함으로써, 근거리의 부분 입력 이미지에서 포인터가 어디를 향하고 있는지 결정할 수 있다. 근거리 부분 입력 이미지에 포인터 단부는 미리 저장되어 있는 이미지 패턴의 곡률과 비교하여 동일한 곡률을 갖는 지점으로 결정되거나, 특징점에 의해 형성되는 곡선에서 최소 곡률을 갖는 지점으로 결정될 수 있다. In this way, even when the pointer is located in a short distance, it is possible to identify where the pointer points on the screen by performing shape analysis. 9 is a schematic diagram illustrating a comparison between an original image of a proximity pointer and a converted image. As shown in FIG. 9, when feature points are extracted and connected to an original image in a near distance, the end of the hand or the pen has a relatively small curvature compared to the surroundings. By recognizing such a curvature, it is possible to determine where the pointer is pointing in a partial input image at a short distance. In the near-field input image, the end of the pointer may be determined as a point having the same curvature compared to a curvature of a previously stored image pattern, or may be determined as a point having the minimum curvature in a curve formed by the feature points.

도 10은 변환 영상의 비율 분석 방법을 나타낸 개략도이다. 도 10을 참조하면, 원거리 이미지 영상의 경우에도 포인터를 노이즈 이미지와 구분하기 위해 비율 분석을 수행할 수 있다. 비율 분석은 이미지의 세로 방향의 폭(상하 폭)과 가로 방향의 폭(좌우 폭)의 비율을 비교하는 방식으로 진행될 수 있다. 예를 들어, 손이나 펜의 경우에는 가로 방향의 폭이 세로 방향의 폭보다 큰 반면, 사람 몸의 경우 세로 방향의 폭이 가로 방향의 폭보다 더 큰 것으로 분석될 수 있다. 다른 예로, 비율 분석은 가장 긴 방향의 제1 폭과 제1 폭에 교차(대체로 수직)하는 방향의 제2 폭의 비율을 비교하는 방식으로 진행될 수도 있다. 도시된 예에서, 손이나 펜은 제1 폭과 제2 폭의 비가 2:1 이상이지만, 사람 몸은 제1 폭과 제2 폭의 비가 2:1 미만인 것으로 구분될 수 있다. 이와 같이, 세로 방향의 폭과 가로 방향의 폭의 비율 또는 제1 폭과 제2 폭의 비율을 비교함으로써 포인터를 정확하게 인식하고, 노이즈 이미지를 제거할 수 있다. 10 is a schematic diagram showing a method of analyzing a ratio of a converted image. Referring to FIG. 10, ratio analysis may be performed to distinguish a pointer from a noise image even in the case of a distant image image. The ratio analysis may be performed by comparing the ratio of the vertical width (up and down width) and the horizontal width (left and right width) of the image. For example, in the case of a hand or a pen, the width in the horizontal direction is larger than the width in the vertical direction, whereas in the case of a human body, the width in the vertical direction may be analyzed as being larger than the width in the horizontal direction. As another example, the ratio analysis may be performed by comparing the ratio of the first width in the longest direction and the second width in a direction intersecting (usually perpendicular to) the first width. In the illustrated example, the hand or pen has a ratio of the first width and the second width of 2:1 or more, but the human body may be classified as having a ratio of the first width and the second width of less than 2:1. In this way, by comparing the ratio of the width in the vertical direction and the width in the horizontal direction or the ratio of the first width and the second width, the pointer can be accurately recognized and the noise image can be removed.

한편, 하나의 포인터가 각 카메라 장치(311, 312)에 입력되는 입력 이미지는 거리에 따라 상이하다. 정확한 객체 인식을 위해 카메라 장치(311, 312)와의 거리별로 가중치를 다르게 부여할 수 있다. 상술한 바와 같이, 근거리의 부분 입력 이미지도 형태 분석을 통해 포인터의 단부 및 포인터가 향하는 방향을 결정할 수 있지만, 원거리 전체 입력 이미지에 비해 그 정확도가 떨어질 수 있다. 이를 보완하기 위해 하나의 포인터에 대한 복수의 입력 이미지 중 원거리 입력 이미지에 가중치를 더 부여함으로써, 객체 인식의 정확도를 개선할 수 있다. 예를 들어, 도 1에 도시된 표시 장치(1)에서 입력 객체(OBJ)가 제2 카메라 장치(312)보다 제1 카메라 장치(311)에 상대적으로 가깝게 위치하는 경우, 제2 카메라 장치(312)를 통해 입력되는 영상 이미지에 더 많은 가중치를 부여하여 객체 인식을 수행할 수 있다. 가중치는 떨어진 거리에 따라 100:0의 비율부터 50:50의 비율까지 조절될 수 있다. 카메라 장치(311, 312)로부터 떨어진 거리는 포인터의 이미지의 크기를 측정하여 계산하거나, 후술하는 산출부(630)에 의해 산출된 포인터의 3차원 위치를 피드백 받아 그로부터 계산될 수 있다. Meanwhile, an input image inputted to each of the camera devices 311 and 312 by a single pointer is different according to the distance. For accurate object recognition, different weights may be given for each distance to the camera devices 311 and 312. As described above, even a partial input image at a short distance may determine the end of the pointer and a direction in which the pointer is directed through shape analysis, but the accuracy may be lower than that of the entire input image at a distance. In order to compensate for this, the accuracy of object recognition may be improved by adding weight to a far input image among a plurality of input images for one pointer. For example, when the input object OBJ is located relatively closer to the first camera device 311 than the second camera device 312 in the display device 1 illustrated in FIG. 1, the second camera device 312 Object recognition can be performed by giving more weight to the image image input through ). The weight can be adjusted from a ratio of 100:0 to a ratio of 50:50 depending on the distance. The distance away from the camera devices 311 and 312 may be calculated by measuring the size of an image of the pointer, or may be calculated by receiving feedback from the three-dimensional position of the pointer calculated by the calculation unit 630 described later.

다시 도 6 및 도 7을 참조하면, 추적부(622)는 대상 객체인 포인터(도면에서 손) 추적 알고리즘을 이용하여 포인터 영상을 시간 경과에 따라 추적할 수 있다. 예를 들어, 추적부(622)는 시간 경과에 따른 손 영상(또는, 기준점)의 이동 경로에 기초하여 손 영상의 다음 위치를 예측할 수 있고, 예측된 손 영상의 다음 위치에 기초하여 손 영상을 신속하게 검출하거나, 손 영상이 일시적으로 검출되지 않더라도, 손 영상(또는, 기준점)을 특정 시간동안 유지시킬 수 있다. 이와 같은 방식을 통해 손 영상이 일시적으로 인식되지 않아 터치 입력이 이루어지지 않는 것을 방지할 수 있다.Referring back to FIGS. 6 and 7, the tracking unit 622 may track a pointer image over time using a pointer (hand in the drawing) tracking algorithm as a target object. For example, the tracking unit 622 may predict the next position of the hand image based on the movement path of the hand image (or reference point) over time, and the hand image may be calculated based on the next position of the predicted hand image. Even if the hand image is not detected quickly or the hand image is temporarily not detected, the hand image (or reference point) can be maintained for a specific time. Through this method, it is possible to prevent the hand image from being temporarily recognized and thus not performing a touch input.

보정부(623)는 기준점(P_OBJ1)의 위치 변화에 대한 시간 경과에 따른 노이즈를 제거할 수 있다. 예를 들어, 추적하는 포인터가 빠르게 움직이거나, 인식된 기준점(P_OBJ1)이 떨리는 경우, 보정부(623)는 칼만 필터, 로우 패스(low pass) 필터 등과 같은 필터를 이용하여 기준점(P_OBJ1)의 위치를 보정할 수 있다.The correction unit 623 may remove noise over time due to a change in the position of the reference point P_OBJ1. For example, when the tracking pointer moves quickly or the recognized reference point P_OBJ1 shakes, the correction unit 623 uses a filter such as a Kalman filter or a low pass filter to determine the location of the reference point P_OBJ1. Can be corrected.

즉, 추출부(620)는 전처리된 측면 영상들로부터 포인터 영상(및/또는, 포인터 영상의 기준점)을 검출하되, 공간 터치 입력으로서 이용하기에 적합하게, 포인터 영상을 추적 및 보정할 수 있다.That is, the extraction unit 620 may detect the pointer image (and/or the reference point of the pointer image) from the preprocessed side images, but may track and correct the pointer image suitable for use as a spatial touch input.

산출부(630)는 포인터 영상(또는, 기준점(P_OBJ1))에 기초하여, 감지 공간 내에서의 포인터의 3차원 위치를 산출할 수 있다. 산출부(630)는 제1 위치 산출부(631) 및 제2 위치 산출부(632)를 포함할 수 있다.The calculator 630 may calculate a 3D position of the pointer in the sensing space based on the pointer image (or the reference point P_OBJ1). The calculation unit 630 may include a first position calculation unit 631 and a second position calculation unit 632.

제1 위치 산출부(631)는 표시부(100)의 표시면에 대응하는 평면에서의 포인터의 2차원 위치(또는, 좌표)를 산출할 수 있다. 도 7a에 도시된 바와 같이, 제1 위치 산출부(631)는 손 영상(OBJ_1)의 기준점에 기초하여 손 영상(OBJ_1)의 제11 위치각(ANG11)을 산출할 수 있다. 여기서, 제11 위치각(ANG11)은 제1 카메라 장치(131)를 기준으로 감지 공간의 상측면으로부터 입력 객체(OBJ) 사이의 각도일 수 있다. 제1 위치 산출부(631)는 제1 측면 영상의 상측변으로부터 손 영상(OBJ_1)의 기준점 사이의 거리(또는, 화소들의 수)에 기초하여 제11 위치각(ANG11)을 산출할 수 있다. 유사하게, 도 7c에 도시된 바와 같이, 제1 위치 산출부(631)는 손 영상(OBJ_2)의 기준점에 기초하여 손 영상(OBJ_2)의 제21 위치각(ANG21)을 산출할 수 있다.The first position calculator 631 may calculate a two-dimensional position (or coordinates) of the pointer on a plane corresponding to the display surface of the display unit 100. As shown in FIG. 7A, the first position calculator 631 may calculate the eleventh position angle ANG11 of the hand image OBJ_1 based on the reference point of the hand image OBJ_1. Here, the eleventh position angle ANG11 may be an angle between the input object OBJ from the upper surface of the sensing space with respect to the first camera device 131. The first position calculator 631 may calculate the eleventh position angle ANG11 based on a distance (or the number of pixels) between the reference point of the hand image OBJ_1 from the upper side of the first side image. Similarly, as shown in FIG. 7C, the first position calculator 631 may calculate the 21st position angle ANG21 of the hand image OBJ_2 based on the reference point of the hand image OBJ_2.

이후, 도 7e에 도시된 바와 같이, 제1 위치 산출부(631)는 기 설정된 제1 카메라 장치(311)의 제1 카메라 위치 정보(P_C1), 제2 카메라 장치(312)의 제2 카메라 위치 정보(P_C2), 제11 위치각(ANG11) 및 제21 위치각(ANG21)에 기초하여, 포인터인 손의 2차원 위치(P_OBJ_XY)를 산출할 수 있다. 손의 2차원 위치(P_OBJ_XY)는 표시부(100)의 표시면 상에서 손이 위치하는 지점(또는, 좌표)일 수 있다.Thereafter, as shown in FIG. 7E, the first position calculating unit 631 includes the first camera position information P_C1 of the first camera device 311 and the second camera position of the second camera device 312. Based on the information P_C2, the eleventh position angle ANG11, and the 21st position angle ANG21, the two-dimensional position P_OBJ_XY of the hand as a pointer may be calculated. The two-dimensional position (P_OBJ_XY) of the hand may be a point (or coordinates) where the hand is positioned on the display surface of the display unit 100.

제2 위치 산출부(632)는 표시부(100)의 표시면을 기준으로 포인터의 깊이(또는, 깊이 값, 손이 표시면으로부터 이격된 거리)를 산출할 수 있다. 도 7a 내지 도 7c에 도시된 바와 같이, 제2 위치 산출부(632)는 손 영상(OBJ_1, OBJ_2)의 기준점에 기초하여 제12 위치각(ANG12) 및 제22 위치각(ANG22)을 산출할 수 있다. 여기서, 제12 위치각(ANG12)은 제1 카메라 장치(131)를 기준으로 감지 공간의 정면(또는, 표시부(100)의 표시면)으로부터 입력 객체(OBJ) 사이의 각도일 수 있다. The second position calculator 632 may calculate a depth of the pointer (or a depth value, a distance a hand is separated from the display surface) based on the display surface of the display unit 100. 7A to 7C, the second position calculator 632 calculates the twelfth position angle ANG12 and the 22nd position angle ANG22 based on the reference points of the hand images OBJ_1 and OBJ_2. I can. Here, the twelfth position angle ANG12 may be an angle between the input object OBJ from the front of the sensing space (or the display surface of the display unit 100) with respect to the first camera device 131.

이후, 제2 위치 산출부(632)는, 도 7f에 도시된 바와 같이, 기 설정된 제1 카메라 장치(311)의 제1 카메라 위치 정보(P_C1), 제2 카메라 장치(312)의 제2 카메라 위치 정보(P_C2), 제12 위치각(ANG12) 및 제22 위치각(ANG22)에 기초하여, 포인터인 손의 깊이(P_OBJ_Z)를 산출할 수 있다.Thereafter, as shown in FIG. 7F, the second position calculating unit 632 includes preset first camera position information (P_C1) of the first camera device 311 and a second camera of the second camera device 312. Based on the location information P_C2, the twelfth position angle ANG12, and the 22nd position angle ANG22, the depth of the hand, which is a pointer, P_OBJ_Z may be calculated.

다시 도 6을 참조하면, 제2 위치 산출부(632)는 제1 위치 산출부(631)에서 산출된 손의 2차원 위치(P_OBJ_XY)와 손의 깊이(P_OBJ_Z)에 기초하여 손의 3차원 위치(P_XYZ)를 생성할 수 있다.Referring back to FIG. 6, the second position calculating unit 632 is based on the two-dimensional position of the hand (P_OBJ_XY) and the depth of the hand (P_OBJ_Z) calculated by the first position calculating unit 631. (P_XYZ) can be created.

한편, 이벤트 생성부(640)는 산출부(630)에서 생성된 포인터(손)의 3차원 위치(P_XYZ)에 기초하여 터치 이벤트를 생성할 수 있다.Meanwhile, the event generator 640 may generate a touch event based on the three-dimensional position P_XYZ of the pointer (hand) generated by the calculator 630.

도 6 내지 도 7f를 참조하여 설명한 바와 같이, 제어부(600)는 영상 처리를 통해 측면 영상들로부터 입력 객체인 포인터(또는 손)을 검출하고, 포인터의 3차원 위치를 산출하며, 포인터의 3차원 위치에 기초하여 터치 이벤트를 생성할 수 있다.As described with reference to FIGS. 6 to 7F, the controller 600 detects a pointer (or hand) as an input object from side images through image processing, calculates a three-dimensional position of the pointer, and calculates the three-dimensional position of the pointer. A touch event may be generated based on the location.

또한, 제어부(600)는 표시부(100)의 표시면에 반사되어 나타나는 그림자를 제거함으로써, 포인터를 보다 정확하게 검출할 수 있다.In addition, the control unit 600 may more accurately detect the pointer by removing the shadow reflected from the display surface of the display unit 100.

나아가, 제어부(600)는 포인터 영상을 추적하고, 포인터 영상을 시간 경과에 따라 보정함으로써, 보다 정확한 터치 이벤트를 생성할 수 있다.Furthermore, the controller 600 may generate a more accurate touch event by tracking the pointer image and correcting the pointer image over time.

도 11a 및 도 11b는 도 1의 표시 장치에 포함된 감각 제공부의 일 예를 나타내는 도면이다.11A and 11B are diagrams illustrating an example of a sense providing unit included in the display device of FIG. 1.

도 1 및 도 11a를 참조하면, 감각 제공부(700)는 표시부(100)의 전방 하측에 배치되되, 제1 방향(D1)을 따라 배열된 복수의 초음파 트랜스듀서들(710)을 포함할 수 있다. 초음파 트랜스듀서(710)는 제2 방향(D2)으로 지향성을 가지는 초음파(예를 들어, 40kHZ의 주파수를 가지는 초음파)를 발생시켜, 입력 객체(OBJ) 의 적어도 일부에 압력을 가할 수 있다. 즉, 감각 제공부(700)는 음향방사력(acoustic radiation force) 법칙을 이용하여, 입력 객체(OBJ)에 촉감을 제공할 수 있다.Referring to FIGS. 1 and 11A, the sensory providing unit 700 may include a plurality of ultrasonic transducers 710 arranged in the front and lower sides of the display unit 100 and arranged along the first direction D1. have. The ultrasonic transducer 710 may generate directional ultrasonic waves (eg, ultrasonic waves having a frequency of 40 kHz) in the second direction D2 to apply pressure to at least a portion of the input object OBJ. That is, the sensory providing unit 700 may provide a tactile sensation to the input object OBJ using the law of acoustic radiation force.

일 실시예에서, 감각 제공부(700)는 상호 다른 주파수 또는 상호 다른 강도(intensity)를 가지는 제1 초음파 트랜스듀서(711) 및 제2 초음파 트랜스듀서(712)를 포함할 수 있다. 제1 초음파 트랜스듀서(711)와 제2 초음파 트랜스듀서(712)는 복수의 행 또는 열로서 배열될 수 있다. 예를 들어, 제1 초음파 트랜스듀서(711)와 제2 초음파 트랜스듀서(712)는 각각 하나의 열을 이루며 제1 방향(D1)을 따라 배열되되, 제2 초음파 트랜스듀서(712)는 제1 초음파 트랜스듀서(712)보다 표시부(100)에 인접하여 배치될 수 있다.In an embodiment, the sensory providing unit 700 may include a first ultrasonic transducer 711 and a second ultrasonic transducer 712 having different frequencies or different intensities. The first ultrasonic transducer 711 and the second ultrasonic transducer 712 may be arranged as a plurality of rows or columns. For example, the first ultrasonic transducer 711 and the second ultrasonic transducer 712 each form a row and are arranged along the first direction D1, the second ultrasonic transducer 712 is the first The ultrasonic transducer 712 may be disposed adjacent to the display unit 100.

제2 초음파 트랜스듀서(712)는 제1 초음파 트랜스듀서(711)에 비해 낮은 주파수 또는 큰 강도를 가질 수 있다. 이 경우, 입력 객체(OBJ)가 표시부(100)에 인접할수록 보다, 입력 객체(OBJ)에 보다 큰 압력(또는, 촉감)이 제공될 수 있다. The second ultrasonic transducer 712 may have a lower frequency or higher intensity than the first ultrasonic transducer 711. In this case, the closer the input object OBJ is to the display unit 100, the greater pressure (or tactile sensation) may be provided to the input object OBJ.

도 11a에서 초음파 트랜스듀서(710)는 제2 방향(D2)으로 초음파를 발산하는 것으로 도시되어 있으나, 이에 한정되는 것은 아니다.In FIG. 11A, the ultrasonic transducer 710 is shown to emit ultrasonic waves in the second direction D2, but the present invention is not limited thereto.

도 11b를 참조하면, 감각 제공부(700_1)는 제3 초음파 트랜스듀서들(713) 및 제4 초음파 트랜스듀서들(714)을 포함할 수 있다. 제3 초음파 트랜스듀서들(713) 및 제4 초음파 트랜스듀서들(714)은 동일한 주파수(예를 들어, 40KHz)를 가지는 초음파를 생성 및 출력할 수 있다.Referring to FIG. 11B, the sense providing unit 700_1 may include third ultrasonic transducers 713 and fourth ultrasonic transducers 714. The third ultrasonic transducers 713 and the fourth ultrasonic transducers 714 may generate and output ultrasonic waves having the same frequency (eg, 40 KHz).

제3 초음파 트랜스듀서들(713)은 표시부(100)의 전방 하측에서 좌측변에 인접하여 배치되되, 제5 방향(D5)을 향하도록 배치되어, 제5 방향(D5)을 향하여 초음파를 발산할 수 있다. 유사하게, 제4 초음파 트랜스듀서들(714)은 표시부(100)의 전방 하측에서 우측변에 인접하여 배치되되, 제6 방향(D6)을 향하도록 배치되어, 제6 방향(D6)을 향하여 초음파를 발산할 수 있다. 제6 방향(D6)은 제5 방향(D5)과 교차함에 따라, 제3 초음파 트랜스듀서들(713)로부터 출력되는 초음파는 제4 초음파 트랜스듀서들(714)로부터 출력되는 초음파와, 복수의 지점들에서 교차할 수 있다.The third ultrasonic transducers 713 are disposed adjacent to the left side from the front lower side of the display unit 100, and are disposed to face the fifth direction D5, so that they can emit ultrasonic waves toward the fifth direction D5. I can. Similarly, the fourth ultrasonic transducers 714 are disposed adjacent to the right side from the front lower side of the display unit 100, and are disposed to face the sixth direction D6, so that the fourth ultrasonic transducers 714 are disposed toward the sixth direction D6. Can radiate. As the sixth direction D6 crosses the fifth direction D5, the ultrasonic waves output from the third ultrasonic transducers 713 are ultrasonic waves output from the fourth ultrasonic transducers 714, and a plurality of points. Can cross in the field.

이 경우, 제어부(500)는 입력 객체(OBJ)의 3차원 위치에 기초하여 특정 지점(즉, 촉감을 제공해야 할 지점)을 결정하고, 결정된 지점에 기초하여 제3 및 제4 초음파 트랜스듀서들(713, 714) 중 일부를 동작시키거나, 이들을 동작시키는 감각 제어 신호를 생성할 수 있다. 예를 들어, 도 11b에 도시된 입력 객체(OBJ)에 촉감을 제공하기 위해, 제어부(700)는 제1 서브 초음파 트랜스듀서(713a)와 제2 서브 초음파 트랜스듀서(714a)를 동작시킬 수 있다. 이때, 초음파가 중첩된 지점(또는, 영역)에서만 사용자에게 촉감으로 인식되기에 충분한 압력이 제공될 수 있다. 즉, 초음파가 중첩된 지점에서만 사용자는 촉감을 받을 수 있다.In this case, the control unit 500 determines a specific point (that is, a point to which tactile sensation should be provided) based on the three-dimensional position of the input object OBJ, and the third and fourth ultrasonic transducers based on the determined point. Some of the 713 and 714 may be operated, or a sensory control signal for operating them may be generated. For example, in order to provide a tactile sensation to the input object OBJ shown in FIG. 11B, the controller 700 may operate the first sub ultrasonic transducer 713a and the second sub ultrasonic transducer 714a. . In this case, a pressure sufficient to be recognized as a tactile sense to a user may be provided only at a point (or region) where the ultrasonic waves are overlapped. That is, the user can receive a tactile sensation only at the point where the ultrasonic waves overlap.

한편, 도 11b에서 제3 초음파 트랜스듀서들(713) 및 제4 초음파 트랜스듀서들(714)은 표시부(100)의 하측에서 상호 구분되어 배열되는 것으로 도시되어 있으나, 이는 예시적인 것으로 이에 한정되는 것은 아니다. 예를 들어, 제3 및 제4 초음파 트랜스듀서들(713, 714)은 상호 교대로 배열될 수 있다. 다른 예를 들어, 제3 초음파 트랜스듀서들(713)은 표시부(100)의 하측에 배치되고, 제4 초음파 트랜스듀서들(714)은 표시부(100)의 좌측(또는, 우측)에 배치되며, 이들은 상호 교차하는 방향들로 초음파를 발산할 수도 있다. 즉, 제3 및 제4 초음파 트랜스듀설들(713, 714)은 복수의 지점들에서 상호 교차하는 초음파를 발산하는 경우라면, 이들의 위치는 제한되지 않는다.Meanwhile, in FIG. 11B, the third ultrasonic transducers 713 and the fourth ultrasonic transducers 714 are shown to be arranged to be separated from each other on the lower side of the display unit 100, but this is only an example and is limited thereto. no. For example, the third and fourth ultrasonic transducers 713 and 714 may be alternately arranged with each other. For another example, the third ultrasonic transducers 713 are disposed under the display unit 100, and the fourth ultrasonic transducers 714 are disposed on the left (or right) of the display unit 100, They may emit ultrasonic waves in directions that intersect each other. That is, if the third and fourth ultrasonic transducers 713 and 714 emit ultrasonic waves crossing each other at a plurality of points, their positions are not limited.

또한, 제3 및 제4 초음파 트랜스듀서들(713, 714)은 도 11a에 도시된 감각 제공부(700)와 유사하게, 복수의 열들(또는, 복수의 행들)을 따라 배열될 수도 있다.In addition, the third and fourth ultrasonic transducers 713 and 714 may be arranged along a plurality of columns (or a plurality of rows), similar to the sensory providing unit 700 illustrated in FIG. 11A.

도 12는 본 발명의 또 다른 실시예에 따른 표시 장치를 나타내는 도면이다. 도 13은 도 12의 표시 장치가 멀티 입력을 감지하는 구성을 설명하는 도면이다. 도 13에는 표시 장치의 전면 상에서 카메라 장치들(311 내지 314)과 입력 객체들(OBJ1, OBJ2)의 위치가 도시되어 있다.12 is a diagram illustrating a display device according to another exemplary embodiment of the present invention. 13 is a diagram illustrating a configuration in which the display device of FIG. 12 detects a multi-input. 13 illustrates positions of camera devices 311 to 314 and input objects OBJ1 and OBJ2 on the front side of the display device.

도 12를 참조하면, 표시 장치(1_7)는 제3 및 제4 카메라 장치들(313, 314)을 더 포함한다는 점에서, 도 1의 표시 장치(1)와 상이하다. Referring to FIG. 12, the display device 1_7 is different from the display device 1 of FIG. 1 in that it further includes third and fourth camera devices 313 and 314.

제3 카메라 장치(313)는 표시부(100)의 전방에서 제1 및 제2 카메라 장치들(311, 312)로부터 이격되어 배치되되, 표시부(100)의 표시면을 가로지르는 제3 시선 방향(DR3)을 향하여 배치되어, 감지 공간에 대한 제3 측면 영상을 생성할 수 있다. 유사하게, 제4 카메라 장치(314)는 표시부(100)의 전방에서 제3 카메라 장치(313)(및 제1 및 제2 카메라 장치들(311, 312))로부터 이격되어 배치되되, 표시 장치(1)의 표시면을 가로지르는 제4 시선 방향(DR4)을 향하여 배치되어, 감지 공간에 대한 제4 측면 영상을 생성할 수 있다.The third camera device 313 is disposed to be spaced apart from the first and second camera devices 311 and 312 in front of the display unit 100, and a third line of sight direction DR3 crossing the display surface of the display unit 100 ), it is possible to generate a third side image of the sensing space. Similarly, the fourth camera device 314 is disposed to be spaced apart from the third camera device 313 (and the first and second camera devices 311 and 312) in front of the display unit 100, but the display device ( It is disposed toward the fourth gaze direction DR4 that crosses the display surface of 1) to generate a fourth side image of the sensing space.

제3 및 제4 카메라 장치들(313, 314)은 도 2a를 참조하여 설명한 상부 커버(132)와 실질적으로 동일하거나 유사한 하부 커버 내에 구비될 수 있다. 또한, 제3 및 제4 카메라 장치들(313, 314)은 도 2d를 참조하여 설명한 지지부(134)에 의해 고정될 수도 있다.The third and fourth camera devices 313 and 314 may be provided in a lower cover that is substantially the same as or similar to the upper cover 132 described with reference to FIG. 2A. Further, the third and fourth camera devices 313 and 314 may be fixed by the support 134 described with reference to FIG. 2D.

표시 장치(1_7)는 제1 내지 제4 카메라 장치들(311, 312, 313, 314)을 통해 2개의 입력 객체들(예를 들어, 사용자의 2개의 손들)을 감지할 수 있다.The display device 1_7 may detect two input objects (eg, two hands of a user) through the first to fourth camera devices 311, 312, 313, and 314.

표시 장치(1_7)의 전방의 감지 공간 내에 제1 및 제2 입력 객체들(OBJ1, OBJ2)이 위치하는 경우, 제1 및 제2 카메라 장치들(311, 312) 중 하나는 제1 및 제2 입력 객체들(OBJ1, OBJ2) 중 하나에 대한 영상을 획득하지 못할 수 있다.When the first and second input objects OBJ1 and OBJ2 are located in the sensing space in front of the display device 1_7, one of the first and second camera devices 311 and 312 is An image of one of the input objects OBJ1 and OBJ2 may not be acquired.

즉, 도 12에 도시된 바와 같이, 제1 입력 객체(OBJ1)과 제2 입력 객체(OBJ2)가 제1 시선 방향(DRR1)(또는, 제3 시선 방향(DRR3))을 따라 위치하는 경우, 제1 카메라 장치(311)를 기준으로 제2 입력 객체(OBJ2)는 제1 입력 객체(OBJ1)에 의해 가려지므로, 제1 카메라 장치(311)는 제2 입력 객체(OBJ2)에 대한 영상을 생성하지 못할 수 있다. 제1 입력 객체(OBJ1)는 점이 아닌 부피를 가짐에 따라, 도 13에 도시된 바와 같이, 제1 카메라 장치(311)에 대한 음영구역(SZ)이 발생할 수 있다.That is, as shown in FIG. 12, when the first input object OBJ1 and the second input object OBJ2 are located along the first gaze direction DRR1 (or the third gaze direction DRR3), Based on the first camera device 311, the second input object OBJ2 is covered by the first input object OBJ1, so the first camera device 311 generates an image for the second input object OBJ2. It may not be possible. As the first input object OBJ1 has a volume rather than a point, as shown in FIG. 13, a shadow area SZ for the first camera device 311 may occur.

따라서, 표시 장치(1_7)는 제3 및 제4 카메라 장치들(313, 314)를 더 포함하고, 제3 및 제4 카메라 장치들(313, 314)를 이용하여 제1 입력 객체(OBJ1) 뿐만 아니라 음영구역(SZ) 내 위치하는 제2 입력 객체(OBJ2)를 검출할 수 있다.Accordingly, the display device 1_7 further includes third and fourth camera devices 313 and 314, and not only the first input object OBJ1 using the third and fourth camera devices 313 and 314 In addition, the second input object OBJ2 located in the shaded area SZ may be detected.

도 6 및 도 13을 참조하면, 제1 카메라 장치(311)로부터 획득한 제1 측면 영상으로부터 제1 입력 객체(OBJ)에 대한 제1 기준점(P_OBJ1)의 위치 정보(예를 들어, 제11 위치각(ANG11))만이 획득될 수 있다. 유사하게, 제4 카메라 장치(314)로부터 획득한 제4 측면 영상으로부터 제2 입력 객체(OBJ2)에 대한 제2 기준점(P_OBJ2)의 위치 정보(예를 들어, 제42 위치각(ANG42))만이 획득될 수 있다. 한편, 제2 및 제3 카메라 장치들(312, 313)로부터 획득한 제2 및 제3 측면 영상들로부터 제1 및 제2 입력 객체들(OBJ1, OBJ2) 각각에 대한 위치 정보가 획득될 수 있다.6 and 13, position information of a first reference point P_OBJ1 for a first input object OBJ from a first side image obtained from the first camera device 311 (for example, the 11th position Only angle (ANG11)) can be obtained. Similarly, from the fourth side image acquired from the fourth camera device 314, only the positional information of the second reference point P_OBJ2 for the second input object OBJ2 (for example, the 42nd position angle ANG42) Can be obtained. Meanwhile, location information for each of the first and second input objects OBJ1 and OBJ2 may be obtained from the second and third side images acquired from the second and third camera devices 312 and 313. .

이 경우, 제어부(600)는 하나의 입력 객체에 대한 위치 정보만이 획득된 카메라 장치와 2개의 입력 객체들에 대한 위치 정보들이 획득된 카메라 장치를 하나의 그룹으로 결정하고, 해당 그룹의 정보에 기초하여 상기 하나의 입력 객체에 대한 3차원 위치를 산출할 수 있다. 또한, 나머지 2개의 카메라 장치들을 다른 하나의 그룹으로 결정하며, 해당 그룹의 정보에 기초하여 2개의 입력 객체들 중 다른 하나에 대한 3차원 위치를 산출할 수 있다.In this case, the controller 600 determines a camera device from which only location information on one input object is obtained and a camera device from which location information on two input objects is obtained as one group, and Based on the three-dimensional position of the one input object can be calculated. In addition, the remaining two camera devices may be determined as another group, and a 3D position of the other of the two input objects may be calculated based on information of the corresponding group.

예를 들어, 제2 카메라 장치(312)는 제1 카메라 장치(311)와 함께 제1 그룹으로 그룹핑되고, 제1 및 제2 카메라 장치들(311, 312)은 표시 장치(1_7)의 제1 장변(LS1)에 위치함에 따라, 제1 및 제2 입력 객체들 중 제1 장변(LS1)에 인접한 제1 입력 객체(OBJ1)에 대한 3차원 위치를 산출할 수 있다. 제2 카메라 장치(312)를 기준으로, 제1 입력 객체(OBJ1)의 제21 위치각(ANG21)은 제2 입력 객체(OBJ2)의 제22 위치각(ANG22)보다 작으므로, 제어부(500)는 제21 위치각(ANG21)을 제1 입력 객체(OBJ1)의 위치각으로 결정하고, 제11 위치각(ANG11) 및 제21 위치각(ANG21)에 기초하여 제1 입력 객체(OBJ1)의 3차원 위치를 산출할 수 있다.For example, the second camera device 312 is grouped together with the first camera device 311 into a first group, and the first and second camera devices 311 and 312 are the first camera devices 312 of the display device 1_7. As it is positioned on the long side LS1, a three-dimensional position of the first input object OBJ1 adjacent to the first long side LS1 among the first and second input objects may be calculated. Based on the second camera device 312, since the 21st position angle ANG21 of the first input object OBJ1 is smaller than the 22nd position angle ANG22 of the second input object OBJ2, the controller 500 Is determined by determining the 21st position angle ANG21 as the position angle of the first input object OBJ1, and based on the eleventh position angle ANG11 and the 21st position angle ANG21, 3 of the first input object OBJ1 You can calculate the dimensional position.

유사하게, 제3 카메라 장치(313)는 제4 카메라 장치(314)와 함께 제2 그룹으로 그룹핑되고, 제3 및 제4 카메라 장치들(313, 314)은 표시 장치(1_7)의 제2 장변(LS2)에 위치함에 따라, 제1 및 제2 입력 객체들 중 제2 장변(LS2)에 인접한 제2 입력 객체(OBJ2)에 대한 3차원 위치를 산출할 수 있다. 제3 카메라 장치(313)를 기준으로, 제2 입력 객체(OBJ2)의 제32 위치각(ANG32)은 제1 입력 객체(OBJ1)의 제31 위치각(ANG31)보다 작으므로, 제어부(500)는 제32 위치각(ANG32)을 제2 입력 객체(OBJ2)의 위치각으로 결정하고, 제32 위치각(ANG32) 및 제42 위치각(ANG42)에 기초하여 제2 입력 객체(OBJ2)의 3차원 위치를 산출할 수 있다.Similarly, the third camera device 313 is grouped together with the fourth camera device 314 into a second group, and the third and fourth camera devices 313 and 314 are the second long side of the display device 1_7. According to the position at LS2, a 3D position of the second input object OBJ2 adjacent to the second long side LS2 among the first and second input objects may be calculated. Based on the third camera device 313, since the 32nd position angle ANG32 of the second input object OBJ2 is smaller than the 31st position angle ANG31 of the first input object OBJ1, the controller 500 Is determined as the 32nd position angle ANG32 as the position angle of the second input object OBJ2, and based on the 32nd position angle ANG32 and the 42nd position angle ANG42, 3 of the second input object OBJ2 You can calculate the dimensional position.

다른 예를 들어, 제3 카메라 장치(313)는 제1 카메라 장치(311)와 함께 제1 그룹으로 그룹핑되고, 제1 및 제3 카메라 장치들(311, 313)은 표시 장치(1_7)의 제1 단변(SS1)에 인접함에 따라, 제1 및 제2 입력 객체들 중 제1 단변(SS1)에 인접한 제1 입력 객체(OBJ1)에 대한 3차원 위치를 산출할 수 있다. 제3 카메라 장치(313)를 기준으로, 제1 입력 객체(OBJ1)의 제31 위치각(ANG31)은 제2 입력 객체(OBJ2)의 제32 위치각(ANG32)보다 크므로, 제어부(500)는 제31 위치각(ANG31)을 제1 입력 객체(OBJ1)의 위치각으로 결정하고, 제11 위치각(ANG11) 및 제31 위치각(ANG31)에 기초하여 제1 입력 객체(OBJ1)의 3차원 위치를 산출할 수 있다.For another example, the third camera device 313 is grouped together with the first camera device 311 into a first group, and the first and third camera devices 311 and 313 are As adjacent to the first short side SS1, a 3D position of the first input object OBJ1 adjacent to the first short side SS1 among the first and second input objects may be calculated. Based on the third camera device 313, since the 31st position angle ANG31 of the first input object OBJ1 is larger than the 32nd position angle ANG32 of the second input object OBJ2, the controller 500 Determines the 31st position angle ANG31 as the position angle of the first input object OBJ1, and based on the eleventh position angle ANG11 and the 31st position angle ANG31, 3 of the first input object OBJ1 You can calculate the dimensional position.

유사하게, 제2 카메라 장치(312)는 제4 카메라 장치(314)와 함께 제2 그룹으로 그룹핑되고, 제2 및 제4 카메라 장치들(312, 314)은 표시 장치(1_7)의 제2 단변(SS2)에 위치함에 따라, 제1 및 제2 입력 객체들 중 제2 단변(SS2)에 인접한 제2 입력 객체(OBJ2)에 대한 3차원 위치를 산출할 수 있다. 제2 카메라 장치(312)를 기준으로, 제2 입력 객체(OBJ2)의 제22 위치각(ANG32)은 제1 입력 객체(OBJ1)의 제21 위치각(ANG31)보다 크므로, 제어부(500)는 제22 위치각(ANG22)을 제2 입력 객체(OBJ2)의 위치각으로 결정하고, 제22 위치각(ANG22) 및 제42 위치각(ANG42)에 기초하여 제2 입력 객체(OBJ2)의 3차원 위치를 산출할 수 있다.Similarly, the second camera device 312 is grouped together with the fourth camera device 314 into a second group, and the second and fourth camera devices 312 and 314 are the second short sides of the display device 1_7. As it is positioned at SS2, a 3D position of the second input object OBJ2 adjacent to the second short side SS2 among the first and second input objects may be calculated. Based on the second camera device 312, since the 22nd position angle ANG32 of the second input object OBJ2 is larger than the 21st position angle ANG31 of the first input object OBJ1, the controller 500 Is determined by determining the 22nd position angle ANG22 as the position angle of the second input object OBJ2, and based on the 22nd position angle ANG22 and the 42nd position angle ANG42, 3 of the second input object OBJ2 You can calculate the dimensional position.

즉, 제어부(500)는 제1 내지 제4 카메라 장치들(311, 312, 313, 314)을 제1 및 제2 그룹들로 그룹핑하고, 제1 그룹에 대응하는 측면 영상들 중에서 제1 입력 객체(또는, 입력 객체의 정보)만을 획득하여 제1 입력 객체의 3차원 위치를 산출하며, 제2 그룹에 대응하는 측면 영상들 중에서 제2 입력 객체만을 획득하여 제2 입력 객체의 3차원 위치를 산출할 수 있다.That is, the control unit 500 groups the first to fourth camera devices 311, 312, 313, and 314 into first and second groups, and the first input object among side images corresponding to the first group (Or, only information on the input object) is obtained to calculate the 3D position of the first input object, and only the second input object is obtained from the side images corresponding to the second group to calculate the 3D position of the second input object can do.

도 12 및 도 13을 참조하여 설명한 바와 같이, 표시 장치(1_7)는 2개의 카메라 장치들을 하나의 그룹으로 설정하여, 그룹별로 하나의 입력 객체를 감지할 수 있고, 이에 따라, 표시 장치(1_7)는 복수의 입력 객체들을 감지할 수 있다.As described with reference to FIGS. 12 and 13, the display device 1_7 may set two camera devices as a group and detect one input object for each group. Accordingly, the display device 1_7 Can detect a plurality of input objects.

한편, 도 12 및 도 13에서, 표시 장치(1_7)는 4개의 카메라 장치들을 이용하여 2개의 입력 객체들을 감지하는 것으로 도시되어 있으나, 이는 예시적인 것으로 이에 한정되는 것은 아니다. 표시 장치(1_7)는 상호 이격되어 배치된 2N(단, N은 2 이상의 정수)개의 카메라 장치들을 이용하여 N개의 입력 객체들을 정확하게 감지할 수 있다.Meanwhile, in FIGS. 12 and 13, the display device 1_7 is shown to detect two input objects using four camera devices, but this is only an example and is not limited thereto. The display device 1_7 may accurately detect N input objects using 2N (where, N is an integer greater than or equal to 2) camera devices arranged to be spaced apart from each other.

도 14는 도 1의 표시 장치에서 수행되는 공간 터치 감지 방법의 일 예를 나타내는 순서도이다. 도 15a는 도 14의 방법이 측면 영상을 전처리하는 과정의 일 예를 나타내는 순서도이다. 도 15b는 도 14의 방법이 입력 객체를 검출하는 과정의 일 예를 나타내는 순서도이다.14 is a flowchart illustrating an example of a spatial touch sensing method performed in the display device of FIG. 1. 15A is a flowchart illustrating an example of a process of preprocessing a side image in the method of FIG. 14. 15B is a flowchart illustrating an example of a process of detecting an input object in the method of FIG. 14.

도 1, 도 6, 도 14 및 도 15를 참조하면, 도 14의 방법은 입력 감지부(300)(또는, 제1 및 제2 카메라 장치들(311, 312))을 이용하여 감지 공간에 대한 측면 영상들을 획득할 수 있다(S1110).1, 6, 14, and 15, the method of FIG. 14 uses the input sensing unit 300 (or the first and second camera devices 311 and 312). Side images may be acquired (S1110).

이후, 도 14의 방법은 측면 영상들을 전처리 할 수 있다(S1120). 도 14의 방법은, 도 6을 참조하여 설명한 바와 같이, 측면 영상들로부터 기 설정된 배경 영상을 제거하고(S1210), 측면 영상들을 이진화 및 평활화하여 노이즈를 제거하며(S1220), 측면 영상들에 포함된 후보 객체 영상들의 크기, 대칭성 등에 기초하여 그림자 영상을 제거할 수 있다(S1230).Thereafter, the method of FIG. 14 may pre-process side images (S1120). In the method of FIG. 14, as described with reference to FIG. 6, a preset background image is removed from side images (S1210), and noise is removed by binarizing and smoothing the side images (S1220), and included in the side images. The shadow image may be removed based on the size and symmetry of the candidate object images (S1230).

이후, 도 14의 방법은, 전처리 영상들(즉, 전처리된 측면 영상들)로부터 입력 객체를 검출할 수 있다(S1130). 도 6을 참조하여 설명한 바와 같이, 도 14의 방법은 기 설정된 패턴과의 매핑을 통해 입력 객체에 대한 객체 영상을 검출하고, 검출된 객체 영상으로부터, 기 설정된 패턴에 기초하여 입력 객체의 기준점을 결정하고, 전처리 영상들에서의 기준점의 위치(예를 들어, 위치각들)을 산출할 수 있다(S1240).Thereafter, the method of FIG. 14 may detect an input object from preprocessed images (ie, preprocessed side images) (S1130). As described with reference to FIG. 6, the method of FIG. 14 detects an object image for an input object through mapping with a preset pattern, and determines a reference point of the input object based on a preset pattern from the detected object image. Then, the position (eg, position angles) of the reference point in the pre-processed images may be calculated (S1240).

도 7a 내지 도 7c를 참조하여 예를 들면, 도 14의 방법은, 기 설정된 패턴에 기초하여 제1 측면 영상(IMAGE1)으로부터 입력 객체(OBJ)에 대응하는 제1 객체 영상(OBJ_1)을 검출하고, 기 설정된 패턴에 기 정의된 특징점에 기초하여 제1 객체 영상(OBJ_1)의 제1 기준점을 결정하며, 기 설정된 패턴에 기초하여 제2 측면 영상(IMAGE2)으로부터 입력 객체(OBJ)에 대응하는 제2 객체 영상(OBJ_2)을 검출하고, 기 설정된 패턴에 기 정의된 특징점에 기초하여 제2 객체 영상(OBJ_2)의 제2 기준점을 결정할 수 있다.With reference to FIGS. 7A to 7C, for example, the method of FIG. 14 detects a first object image OBJ_1 corresponding to the input object OBJ from the first side image IMAGE1 based on a preset pattern, and , A first reference point of the first object image OBJ_1 is determined based on a predefined feature point in a preset pattern, and a first reference point corresponding to the input object OBJ from the second side image IMAGE2 is determined based on the preset pattern. 2 The object image OBJ_2 may be detected, and a second reference point of the second object image OBJ_2 may be determined based on a feature point predefined in a preset pattern.

또한, 도 14의 방법은, 측면 영상들 내 입력 객체(또는, 기준점)의 위치를 시간 경과에 따라 지속적으로 추적하며(S1250), 시간 경과에 따른 입력 객체(또는, 기준점)의 일시적인 위치 변화를 보정할 수 있다(S1260).In addition, the method of FIG. 14 continuously tracks the position of the input object (or reference point) in the side images over time (S1250), and temporarily changes the position of the input object (or reference point) over time. It can be corrected (S1260).

이후, 도 14의 방법은, 객체 영상(또는, 기준점)에 기초하여 입력 객체의 3차원 위치를 산출할 수 있다(S1140). 도 6을 참조하여 설명한 바와 같이, 도 14의 방법은 기 설정된 제1 및 제2 카메라 장치들(311, 312)의 위치 정보들과, 산출된 입력 객체의 기준점(예를 들어, 입력 객체의 위치각들)에 기초하여, 입력 객체의 3차원 위치를 산출할 수 있다.Thereafter, the method of FIG. 14 may calculate a 3D position of the input object based on the object image (or reference point) (S1140). As described with reference to FIG. 6, the method of FIG. 14 includes preset location information of the first and second camera devices 311 and 312 and a reference point of the calculated input object (eg, the location of the input object. Angles), it is possible to calculate the three-dimensional position of the input object.

도 7a 내지 도 7e를 참조하여 예를 들면, 도 14의 방법은, 제1 측면 영상(IMAGE1)에서 제1 기준점의 위치에 기초하여 제11 위치각(ANG11)을 산출하고, 제2 측면 영상(IMAGE2)에서 제2 기준점의 위치에 기초하여 제21 위치각(ANG21)을 산출하며, 제1 카메라 장치(311)의 제1 위치 정보(P_C1), 제2 카메라 장치(312)의 제2 위치 정보(P_C2), 제11 위치각(ANG11) 및 제21 위치각(ANG21)에 기초하여 입력 객체(OBJ)의 2차원 위치 정보(P_OBJ_XY)를 생성할 수 있다. 또한, 도 14의 방법은, 제1 측면 영상(IMAGE1)에서 제1 기준점의 위치에 기초하여 제12 위치각(ANG12)을 산출하고, 제2 측면 영상(IMAGE2)에서 제2 기준점의 위치에 기초하여 제22 위치각(ANG22)을 산출하며, 제1 카메라 장치(311)의 제1 위치 정보(P_C1), 제2 카메라 장치(312)의 제2 위치 정보(P_C2), 제12 위치각(ANG12) 및 제22 위치각(ANG22)에 기초하여 입력 객체(OBJ)의 깊이(depth) 정보(P_OBJ_Z)를 생성할 수 있다. Referring to FIGS. 7A to 7E, for example, in the method of FIG. 14, an eleventh position angle ANG11 is calculated based on the position of a first reference point in the first side image IMAGE1, and the second side image ( In IMAGE2), the 21st position angle ANG21 is calculated based on the position of the second reference point, and the first positional information P_C1 of the first camera device 311, and the second positional information of the second camera device 312 2D position information P_OBJ_XY of the input object OBJ may be generated based on (P_C2), the eleventh position angle ANG11, and the 21st position angle ANG21. In addition, the method of FIG. 14 calculates the twelfth position angle ANG12 based on the position of the first reference point in the first side image IMAGE1, and calculates the position of the second reference point in the second side image IMAGE2. The 22nd position angle ANG22 is calculated, and the first position information P_C1 of the first camera device 311, the second position information P_C2 of the second camera device 312, and the twelfth position angle ANG12 ) And depth information P_OBJ_Z of the input object OBJ based on the 22nd position angle ANG22.

도 14의 방법은, 입력 객체의 3차원 위치에 기초하여 입력 객체에 의해 공간 터치 입력이 발생하는지 여부를 판단하고, 터치 이벤트를 생성할 수 있다(S1150). 예를 들어, 입력 객체의 3차원 위치 중 깊이(즉, 표시 장치의 전면으로부터 입력 객체까지의 거리)가 기준 범위 이내인지 여부를 판단하고, 기준 범위 이내인 경우, 입력 객체에 대응하는 표시 장치의 일 지점(또는, 일 영역)에 터치 입력이 발생한 것으로 판단할 수 있다. 터치 입력에 대응하여 실행될 기능(예를 들어, 표시되어야 할 영상 등)이 존재하는 경우, 도 14의 방법은 상기 기능을 실행하는 터치 이벤트를 생성할 수 있다.The method of FIG. 14 may determine whether a spatial touch input is generated by the input object based on a three-dimensional position of the input object, and generate a touch event (S1150). For example, it is determined whether the depth (that is, the distance from the front of the display device to the input object) among the three-dimensional positions of the input object is within the reference range, and if it is within the reference range, the display device corresponding to the input object It may be determined that a touch input has occurred at one point (or one area). When a function to be executed (eg, an image to be displayed) exists in response to a touch input, the method of FIG. 14 may generate a touch event for executing the function.

도 16은 도 12의 표시 장치에서 수행되는 공간 터치 감지 방법의 다른 일 예를 나타내는 순서도이다.16 is a flowchart illustrating another example of a spatial touch sensing method performed in the display device of FIG. 12.

도 6, 도 12, 도 13 및 도 16을 참조하면, 도 16의 방법은, 측면 영상들을 각각 전처리 할 수 있다(S1310). 여기서, 측면 영상들은 도 12를 참조하여 설명한 제1 내지 제4 카메라 장치들(311 내지 314)로부터 획득될 수 있다.6, 12, 13, and 16, the method of FIG. 16 may pre-process side images, respectively (S1310). Here, the side images may be obtained from the first to fourth camera devices 311 to 314 described with reference to FIG. 12.

이후, 도 16의 방법은, 전처리 영상들(즉, 전처리된 측면 영상들) 각각으로부터 입력 객체를 검출할 수 있다(S1120).Thereafter, the method of FIG. 16 may detect an input object from each of the pre-processed images (ie, pre-processed side images) (S1120).

도 16의 방법은 입력 객체가 복수의 서브 객체들을 포함하는지 여부를 판단할 수 있다(S1330). 여기서, 서브 객체들은 상호 구분 또는 분리되어, 각각이 하나의 입력 객체로 인식될 수 있는 영상에 해당할 수 있다.The method of FIG. 16 may determine whether the input object includes a plurality of sub-objects (S1330). Here, the sub-objects may be separated or separated from each other, and each may correspond to an image that can be recognized as one input object.

입력 객체가 하나의 서브 객체만을 포함하는 경우, 도 16의 방법은 하나의 터치 입력만이 존재하는 것으로 판단하고, 도 14을 참조하여 설명한 바와 같이, 입력 객체의 3차원 위치를 산출하고(S1350), 3차원 위치에 기초하여 터치 이벤트를 생성할 수 있다(S1360).When the input object includes only one sub-object, the method of FIG. 16 determines that only one touch input exists, and, as described with reference to FIG. 14, calculates a three-dimensional position of the input object (S1350). , A touch event may be generated based on the 3D location (S1360).

이와 달리, 입력 객체가 복수의 서브 객체들을 포함하는 경우, 도 16의 방법은 멀티 터치 입력이 존재하는 것으로 판단하고, 제1 조건에 기초하여 하나의 서브 객체를 입력 객체로 결정할 수 있다(S1340). 여기서, 제1 조건은 도 13을 참조하여 설명한 바와 같이, 그룹핑된 카메라 장치들에 공통된 특징일 수 있으며, 예를 들어, 도 13을 참조하여 설명한 바와 같이, 표시 장치의 특정 변에 인접한 입력 객체를 판단하기 위해, 가장 크거나 작은 위치각을 가지는 입력 객체를 선택하는 조건 등일 수 있다.In contrast, when the input object includes a plurality of sub-objects, the method of FIG. 16 may determine that a multi-touch input exists and determine one sub-object as the input object based on the first condition (S1340). . Here, the first condition may be a characteristic common to grouped camera devices, as described with reference to FIG. 13. For example, as described with reference to FIG. 13, an input object adjacent to a specific side of the display device is For determination, it may be a condition for selecting an input object having the largest or smallest position angle.

도 13을 참조하여 예를 들면, 도 16의 방법은 제1 및 제2 측면 영상들(또는, 전처리된 제1 및 제2 측면 영상들)로부터 가장 작은 위치각을 가지는 제1 입력 객체를 선택하고, 제3 및 제4 측면 영상들(또는, 전처리된 제3 및 제4 측면 영상들)로부터 가장 작은 위치각을 가지는 제2 입력 객체를 선택할 수 있다.Referring to FIG. 13, for example, the method of FIG. 16 selects a first input object having the smallest position angle from first and second side images (or preprocessed first and second side images), and , A second input object having the smallest position angle may be selected from the third and fourth side images (or pre-processed third and fourth side images).

이후, 도 16의 방법은 결정된(또는, 선택된) 입력 객체의 3차원 위치를 산출할 수 있다(S1350). 예를 들어, 제1 및 제2 측면 영상들로부터 선택된 제1 입력 객체의 위치각들에 기초하여 제1 입력 객체의 3차원 위치를 산출할 수 있다. 유사하게, 제3 및 제4 측면 영상들로부터 선택된 제2 입력 객체의 위치각들에 기초하여 제2 입력 객체의 3차원 위치를 산출할 수 있다.Thereafter, the method of FIG. 16 may calculate a 3D position of the determined (or selected) input object (S1350). For example, the 3D position of the first input object may be calculated based on the position angles of the first input object selected from the first and second side images. Similarly, the 3D position of the second input object may be calculated based on the position angles of the second input object selected from the third and fourth side images.

도 16의 방법은, 입력 객체의 3차원 위치에 기초하여 입력 객체에 의해 공간 터치 입력이 발생하는지 여부를 판단하고, 터치 이벤트를 생성할 수 있다(S1360). 예를 들어, 도 16의 방법은 제1 입력 객체의 3차원 위치 및 제2 입력 객체의 3차원 위치 중 적어도 하나가 터치 입력 조건을 만족하는지 여부를 판단하고, 조건 만족 여부에 기초하여 터치 이벤트를 생성할 수 있다.The method of FIG. 16 may determine whether a spatial touch input is generated by the input object based on a three-dimensional position of the input object, and generate a touch event (S1360). For example, the method of FIG. 16 determines whether at least one of a three-dimensional position of a first input object and a three-dimensional position of a second input object satisfies a touch input condition, and generates a touch event based on whether the condition is satisfied. Can be generated.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.The embodiments of the present invention have been described above with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. You can understand. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting.

1: 표시 장치
10: 공간 터치 감지 모듈
100: 표시부
130: 하우징
131: 본체부
132: 상부 커버
133: 측면 커버
134: 지지부
300: 입력 감지부
311, 312, 313, 314: 제1 내지 제4 카메라 장치들
320: 적외선 광원
500: 제어부
700: 감각 제공부
1: display device
10: spatial touch detection module
100: display
130: housing
131: main body
132: top cover
133: side cover
134: support
300: input detection unit
311, 312, 313, 314: first to fourth camera devices
320: infrared light source
500: control unit
700: sensory provision unit

Claims (9)

표시 패널;
상기 표시 패널의 전방에 배치되며, 상기 표시 패널의 표시면으로부터 기 설정된 거리까지의 감지 공간에 대한 제1 측면 영상을 생성하는 제1 카메라 장치;
상기 표시 패널의 전방에서 상기 제1 카메라 장치로부터 이격되어 배치되며, 상기 감지 공간에 대한 제2 측면 영상을 생성하는 제2 카메라 장치; 및
상기 제1 및 제2 측면 영상들에 기초하여 상기 감지 공간 내에서 비접촉 방식의 공간 터치 입력을 인식하는 제어부를 포함하고,
상기 제어부는,
상기 제1 및 제2 측면 영상들로부터 상기 감지 공간에 위치하는 제1 입력 객체를 검출하는 추출부; 및
상기 제1 입력 객체의 상기 제1 측면 영상 내 제1 위치 정보와 상기 제2 측면 영상 내 제2 위치 정보에 기초하여 상기 제1 입력 객체의 3차원 위치 정보를 산출하는 산출부를 포함하고,
상기 감지 공간에 적외선 광을 투사하여 상기 감지 공간의 깊이를 형성하는 적외선 광원을 더 포함하고,
상기 제1 카메라 장치, 및 상기 제2 카메라 장치의 화각은 각각 130도 내지 150도를 갖고,
상기 제1 카메라 장치의 상기 화각의 중심은 제1 방향을 향하고,
상기 제2 카메라 장치의 상기 화각의 중심은 상기 제1 방향과 교차하는 제2 방향을 향하며,
상기 제1 방향, 및 상기 제2 방향은 각각 상기 표시면의 면적 중심을 향하는 표시 장치.
Display panel;
A first camera device disposed in front of the display panel and generating a first side image of a sensing space from a display surface of the display panel to a preset distance;
A second camera device disposed in front of the display panel and spaced apart from the first camera device, and generating a second side image of the sensing space; And
And a control unit for recognizing a non-contact type spatial touch input within the sensing space based on the first and second side images,
The control unit,
An extractor configured to detect a first input object located in the sensing space from the first and second side images; And
A calculator configured to calculate 3D location information of the first input object based on first location information in the first side image of the first input object and second location information in the second side image,
Further comprising an infrared light source for forming a depth of the sensing space by projecting infrared light into the sensing space,
The angles of view of the first camera device and the second camera device each have 130 degrees to 150 degrees,
The center of the angle of view of the first camera device faces a first direction,
The center of the angle of view of the second camera device faces a second direction crossing the first direction,
The first direction and the second direction each face an area center of the display surface.
제1 항에 있어서, 상기 추출부는,
기 설정된 패턴에 기초하여 상기 제1 측면 영상으로부터 상기 제1 입력 객체에 대응하는 제1 객체 영상을 검출하고,
기 설정된 패턴에 기 정의된 특징점에 기초하여 상기 제1 객체 영상의 제1 기준점을 결정하며,
기 설정된 패턴에 기초하여 상기 제2 측면 영상으로부터 상기 제1 입력 객체에 대응하는 제2 객체 영상을 검출하고,
기 설정된 패턴에 기 정의된 특징점에 기초하여 상기 제2 객체 영상의 제2 기준점을 결정하는 표시 장치.
The method of claim 1, wherein the extraction unit,
Detecting a first object image corresponding to the first input object from the first side image based on a preset pattern,
A first reference point of the first object image is determined based on a predefined feature point in a preset pattern,
Detecting a second object image corresponding to the first input object from the second side image based on a preset pattern,
A display device that determines a second reference point of the second object image based on a predefined feature point in a preset pattern.
제2 항에 있어서, 상기 산출부는,
상기 제1 측면 영상에서 상기 제1 기준점의 위치에 기초하여 제1 위치각을 산출하고, 상기 제2 측면 영상에서 상기 제2 기준점의 위치에 기초하여 제2 위치각을 산출하며, 상기 제1 카메라 장치의 제1 위치 정보, 상기 제2 카메라 장치의 제2 위치 정보, 상기 제1 위치각 및 상기 제2 위치각에 기초하여 상기 제1 입력 객체의 2차원 위치 정보를 생성하는 제1 위치 산출부; 및
상기 제1 측면 영상에서 상기 제1 기준점의 위치에 기초하여 제3 위치각을 산출하고, 상기 제2 측면 영상에서 상기 제2 기준점의 위치에 기초하여 제4 위치각을 산출하며, 상기 제1 카메라 장치의 제1 위치 정보, 상기 제2 카메라 장치의 제2 위치 정보, 상기 제3 위치각 및 상기 제4 위치각에 기초하여 상기 제1 입력 객체의 깊이(depth) 정보를 생성하는 제2 위치 산출부를 포함하고,
상기 제1 위치각은 상기 제1 카메라 장치를 기준으로, 상기 감지 공간의 일면과 상기 제1 입력 객체 사이의 각도이며,
상기 제2 위치각은 상기 제2 카메라 장치를 기준으로, 상기 감지 공간의 상기 일면과 상기 제1 입력 객체 사이의 각도이고,
상기 제3 위치각은 상기 제1 카메라 장치를 기준으로, 상기 표시 패널과 상기 제1 입력 객체 사이의 각도이며,
상기 제3 위치각은 상기 제1 카메라 장치를 기준으로, 상기 표시 패널과 상기 제1 입력 객체 사이의 각도이고,
상기 제1 입력 객체의 상기 3차원 위치 정보는 상기 2차원 위치 정보와 상기 깊이 정보를 포함하는 표시 장치.
The method of claim 2, wherein the calculation unit,
Calculate a first position angle based on the position of the first reference point in the first side image, calculate a second position angle based on the position of the second reference point in the second side image, and the first camera A first location calculator that generates two-dimensional location information of the first input object based on first location information of the device, second location information of the second camera device, the first location angle, and the second location angle ; And
Calculate a third position angle based on the position of the first reference point in the first side image, calculate a fourth position angle based on the position of the second reference point in the second side image, and the first camera A second position calculation that generates depth information of the first input object based on the first position information of the device, the second position information of the second camera device, the third position angle, and the fourth position angle Includes wealth,
The first position angle is an angle between one surface of the sensing space and the first input object based on the first camera device,
The second position angle is an angle between the one surface of the sensing space and the first input object based on the second camera device,
The third position angle is an angle between the display panel and the first input object based on the first camera device,
The third position angle is an angle between the display panel and the first input object based on the first camera device,
The 3D location information of the first input object includes the 2D location information and the depth information.
제2 항에 있어서, 상기 추출부는,
상기 제1 기준점의 시간 경과에 따른 변화를 추적하는 추적부; 및
상기 제1 기준점의 상기 변화를 칼만 필터 또는 저주파 필터를 이용하여 보정하는 보정부를 포함하는 표시 장치.
The method of claim 2, wherein the extraction unit,
A tracking unit for tracking a change of the first reference point over time; And
A display device comprising: a correction unit correcting the change of the first reference point using a Kalman filter or a low frequency filter.
제1 항에 있어서, 상기 제어부는,
상기 제1 측면 영상으로부터 배경 영상을 제거하여 제1 전처리 영상을 생성하는 배경 제거부;
상기 제1 전처리 영상을 기 설정된 임계값에 기초하여 이진화하여 제1 원본 영상을 각각 생성하는 노이즈 제거부; 및
상기 제1 원본 영상에 포함된 후보 객체 영상들의 크기, 상기 후보 객체 영상들 간의 대칭성 및 상기 후보 객체 영상들의 배치 위치들 중 적어도 하나에 기초하여 상기 후보 객체 영상들 중 하나를 그림자 영상으로 선택하고, 상기 제1 원본 영상으로부터 상기 그림자 영상을 제거하여 제1 그림자 제거 영상을 생성하는 그림자 제거부를 더 포함하고,
상기 제1 그림자 제거 영상은 상기 제1 측면 영상으로서 상기 추출부에 제공되는 표시 장치.
The method of claim 1, wherein the control unit,
A background removal unit configured to generate a first preprocessed image by removing a background image from the first side image;
A noise removing unit for generating first original images by binarizing the first preprocessed images based on a preset threshold; And
Selecting one of the candidate object images as a shadow image based on at least one of sizes of candidate object images included in the first original image, symmetry between the candidate object images, and placement positions of the candidate object images, Further comprising a shadow removal unit for generating a first shadow removal image by removing the shadow image from the first original image,
The first shadow removal image is provided to the extraction unit as the first side image.
제1 항에 있어서, 상기 추출부는, 상기 제1 입력 객체가 상호 구분된 복수의 서브 객체들을 포함하는 경우, 상기 서브 객체들 중 상기 표시 패널의 일측에 인접한 제1 서브 객체를 제1 입력 객체로서 선택하는 표시 장치.The method of claim 1, wherein, when the first input object includes a plurality of sub-objects that are separated from each other, the extraction unit selects a first sub-object adjacent to one side of the display panel among the sub-objects as a first input object. Display device to choose from. 제6 항에 있어서,
상기 표시 패널의 전방에서 상기 제1 및 제2 카메라 장치들로부터 이격되어 배치되며, 상기 감지 공간에 대한 제3 측면 영상을 생성하는 제3 카메라 장치; 및
상기 표시 패널의 전방에서 상기 제1 내지 제3 카메라 장치들로부터 이격되어 배치되며, 상기 감지 공간에 대한 제4 측면 영상을 생성하는 제4 카메라 장치를 더 포함하고,
상기 추출부는 상기 제3 및 제4 측면 영상들로부터 상기 감지 공간에 위치하는 제2 입력 객체를 검출하며,
상기 산출부는 상기 제2 입력 객체의 상기 제3 측면 영상 내 제3 위치 정보와 상기 제4 측면 영상 내 제4 위치 정보에 기초하여 상기 제2 입력 객체의 3차원 위치 정보를 산출하는 표시 장치.
The method of claim 6,
A third camera device disposed in front of the display panel and spaced apart from the first and second camera devices, and generating a third side image of the sensing space; And
A fourth camera device disposed in front of the display panel and spaced apart from the first to third camera devices, and further comprising a fourth camera device for generating a fourth side image of the sensing space,
The extraction unit detects a second input object located in the sensing space from the third and fourth side images,
The calculation unit calculates 3D position information of the second input object based on third position information in the third side image of the second input object and fourth position information in the fourth side image.
제1 항에 있어서, 상기 추출부는,
상기 제1 측면 영상과 상기 제2 측면 영상 중 적어도 하나가 상기 제1 입력 객체에 대한 근거리의 부분 영상일 경우 그에 대한 형태 분석을 수행하는 형태 분석부, 및
상기 제1 측면 영상과 상기 제2 측면 영상 중 적어도 하나가 상기 제1 입력 객체에 대한 원거리 전체 영상일 경우 그에 대한 비율 분석을 수행하는 비율 분석부를 더 포함하는 표시 장치.
The method of claim 1, wherein the extraction unit,
When at least one of the first side image and the second side image is a partial image near the first input object, a shape analysis unit that performs shape analysis on the first input object, and
When at least one of the first side image and the second side image is an entire distant image of the first input object, the display device further comprises a ratio analysis unit configured to perform ratio analysis on the first input object.
표시 패널의 전방에서 상호 이격되어 배치되는 제1 및 제2 카메라 장치들을 포함하는 표시 장치에서 수행되는 공간 터치 감지 방법에서,
상기 제1 및 제2 카메라 장치들을 통해 상기 표시 패널의 표시면으로부터 기 설정된 거리까지의 감지 공간에 대한 제1 및 제2 측면 영상들을 생성하는 단계;
상기 제1 및 제2 측면 영상들로부터 상기 감지 공간에 위치하는 입력 객체를 검출하는 단계; 및
상기 입력 객체의 상기 제1 측면 영상 내 제1 위치 정보와 상기 제2 측면 영상 내 제2 위치 정보에 기초하여 상기 입력 객체의 3차원 위치 정보를 산출하는 단계를 포함하되,
상기 제1 및 제2 측면 영상들을 생성하는 단계에서 적외선 광원은 상기 감지 공간에 적외선 광을 투사하여 상기 감지 공간의 깊이를 형성하고,
상기 제1 카메라 장치, 및 상기 제2 카메라 장치의 화각은 각각 130도 내지 150도를 갖고,
상기 제1 카메라 장치의 상기 화각의 중심은 제1 방향을 향하고,
상기 제2 카메라 장치의 상기 화각의 중심은 상기 제1 방향과 교차하는 제2 방향을 향하며,
상기 제1 방향, 및 상기 제2 방향은 각각 상기 표시면의 면적 중심을 향하는 공간 터치 감지 방법.
In a spatial touch sensing method performed in a display device including first and second camera devices disposed to be spaced apart from each other in front of a display panel,
Generating first and second side images of a sensing space from a display surface of the display panel to a preset distance through the first and second camera devices;
Detecting an input object located in the sensing space from the first and second side images; And
Comprising the step of calculating 3D location information of the input object based on the first location information in the first side image of the input object and the second location information in the second side image,
In the step of generating the first and second side images, an infrared light source projects infrared light onto the sensing space to form a depth of the sensing space,
The angles of view of the first camera device and the second camera device each have 130 degrees to 150 degrees,
The center of the angle of view of the first camera device faces a first direction,
The center of the angle of view of the second camera device faces a second direction crossing the first direction,
The first direction and the second direction are respectively directed toward the center of an area of the display surface.
KR1020180119673A 2018-10-08 2018-10-08 Method of space touch detecting and display device performing the same KR102158613B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180119673A KR102158613B1 (en) 2018-10-08 2018-10-08 Method of space touch detecting and display device performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180119673A KR102158613B1 (en) 2018-10-08 2018-10-08 Method of space touch detecting and display device performing the same

Publications (2)

Publication Number Publication Date
KR20200039995A KR20200039995A (en) 2020-04-17
KR102158613B1 true KR102158613B1 (en) 2020-09-22

Family

ID=70460897

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180119673A KR102158613B1 (en) 2018-10-08 2018-10-08 Method of space touch detecting and display device performing the same

Country Status (1)

Country Link
KR (1) KR102158613B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230000775A (en) * 2021-06-25 2023-01-03 (주)자이언트스텝 Input device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102400820B1 (en) * 2022-01-13 2022-05-24 주식회사 아이윈 Device for setting a non-contact activation area of a non-contact screen

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101511146B1 (en) * 2014-07-29 2015-04-17 연세대학교 산학협력단 Smart 3d gesture recognition apparatus and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007021537B4 (en) * 2006-12-13 2020-01-02 Lg Display Co., Ltd. Display unit with multi-touch detection function
KR20130055119A (en) * 2011-11-18 2013-05-28 전자부품연구원 Apparatus for touching a projection of 3d images on an infrared screen using single-infrared camera
KR20130085094A (en) * 2012-01-19 2013-07-29 삼성전기주식회사 User interface device and user interface providing thereof
KR101812605B1 (en) * 2016-01-07 2017-12-29 한국원자력연구원 Apparatus and method for user input display using gesture

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101511146B1 (en) * 2014-07-29 2015-04-17 연세대학교 산학협력단 Smart 3d gesture recognition apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230000775A (en) * 2021-06-25 2023-01-03 (주)자이언트스텝 Input device
KR102530664B1 (en) * 2021-06-25 2023-05-11 (주)자이언트스텝 Input device

Also Published As

Publication number Publication date
KR20200039995A (en) 2020-04-17

Similar Documents

Publication Publication Date Title
KR102335132B1 (en) Multi-modal gesture based interactive system and method using one single sensing system
CN102799318B (en) A kind of man-machine interaction method based on binocular stereo vision and system
EP2353069B1 (en) Stereo optical sensors for resolving multi-touch in a touch detection system
US20160202844A1 (en) Interactive input system and method
JP6270898B2 (en) Non-contact input method
US9454260B2 (en) System and method for enabling multi-display input
US20100026723A1 (en) Image magnification system for computer interface
US10019115B2 (en) Method and apparatus for contactlessly detecting indicated position on reproduced image
US20110261016A1 (en) Optical touch screen system and method for recognizing a relative distance of objects
KR20110112831A (en) Gesture recognition method and interactive input system employing same
EP2302491A2 (en) Optical touch system and method
NO20130843A1 (en) Camera based, multitouch interaction and lighting device as well as system and method
US8531506B2 (en) Interactive stereo display system and method for calculating three-dimensional coordinate
JP2016154035A5 (en)
KR102158613B1 (en) Method of space touch detecting and display device performing the same
KR102174464B1 (en) Space touch detecting device and display device having the same
KR100936666B1 (en) Apparatus for touching reflection image using an infrared screen
US20150115130A1 (en) Optical touch system, method of touch detection, and computer program product
JP6663736B2 (en) Non-contact display input device and method
KR20120066814A (en) Optical touch pannel
JP4546224B2 (en) Coordinate input method and apparatus
KR101002071B1 (en) Apparatus for touching a projection of 3d images on an infrared screen using multi-infrared camera
EP3973376A1 (en) System for detecting interactions with a surface
KR101138653B1 (en) Method for judgement of opening time of deciphering of touch-position
WO2018207490A1 (en) Contactless three-dimensional touch panel, contactless three-dimensional touch panel system, contactless three-dimensional touch panel control method, program and recording medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant