KR101753090B1 - Display apparatus and object recognition method - Google Patents

Display apparatus and object recognition method Download PDF

Info

Publication number
KR101753090B1
KR101753090B1 KR1020160117220A KR20160117220A KR101753090B1 KR 101753090 B1 KR101753090 B1 KR 101753090B1 KR 1020160117220 A KR1020160117220 A KR 1020160117220A KR 20160117220 A KR20160117220 A KR 20160117220A KR 101753090 B1 KR101753090 B1 KR 101753090B1
Authority
KR
South Korea
Prior art keywords
touch
display panel
coordinate information
information
sensing
Prior art date
Application number
KR1020160117220A
Other languages
Korean (ko)
Inventor
임국찬
이학순
신승민
전진수
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020160117220A priority Critical patent/KR101753090B1/en
Application granted granted Critical
Publication of KR101753090B1 publication Critical patent/KR101753090B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 디스플레이 장치 및 그 객체 인식 방법에 관한 것이다. 개시된 디스플레이 장치는 디스플레이 패널 상부에서의 광전달 특성에 따라 객체를 센싱하고 모양을 파악하며, 디스플레이 패널에 대한 객체의 터치 정보와 파악된 모양을 기초로 하여 객체를 인식한다. 따라서, 객체가 정전 변화 유도 재질로 구성된 터치 유닛 등과 같은 전용의 장비를 구비하지 않더라도 디스플레이 장치에서 해당 객체를 인식할 수 있다. 나아가, 터치 유닛 등을 구비한 객체의 경우에 종래에는 디스플레이 장치에서 터치 유닛을 인식하는 것에 머물렀으나, 본 발명은 터치 유닛 등과 같은 기존의 장비와 연동할 경우에 터치 유닛의 내부에 있는 정전 변화 유도 재질의 무게 또는 용량까지 추정할 수 있다. 스마트폰의 경우에는 표시창이 디스플레이 패널에 접촉되어 있는 경우와 케이스가 디스플레이 패널에 접촉되어 있는 경우를 디스플레이 장치가 파악할 수 있기 때문에, 이러한 디스플레이 장치의 기능과 스마트폰의 연동을 통해 다양한 부가 서비스를 제공할 수 있다. 또, 디스플레이 패널을 이용한 터치 감지 이외에 디스플레이 패널 상부에서의 광전달 특성까지 이용하여 객체를 인식함으로써, 디스플레이 패널을 이용한 터치 감지만으로 객체를 인식할 때와 비교할 때에 객체 인식의 정확도가 향상되는 이점이 있다.The present invention relates to a display device and a method of recognizing the object. The disclosed display device recognizes an object based on the touch information of the object and the grasped shape of the object on the display panel. Therefore, even if the object does not have dedicated equipment such as a touch unit made of an electrostatic-change inducing material, the object can be recognized by the display device. Further, in the case of an object having a touch unit or the like, conventionally, the display unit recognizes the touch unit. However, the present invention can be applied to an electrostatic charge induction material Of the weight or the capacity of the sample. In the case of a smartphone, since the display device can grasp the case where the display window is in contact with the display panel and the case where the case is in contact with the display panel, various additional services are provided through the function of the display device and the interlocking of the smartphone can do. In addition to the touch detection using the display panel, recognition of the object using up to the light transmission characteristic at the upper part of the display panel has an advantage in that accuracy of object recognition is improved when compared with recognition of the object only by touch sensing using the display panel .

Description

디스플레이 장치 및 그 객체 인식 방법{DISPLAY APPARATUS AND OBJECT RECOGNITION METHOD}[0001] DISPLAY APPARATUS AND OBJECT RECOGNITION METHOD [0002]

본 발명은 디스플레이 장치에 관한 것으로, 더욱 상세하게는 디스플레이 패널에 올려진 객체를 인식할 수 있는 디스플레이 장치와 그 객체를 인식하는 방법에 관한 것이다.The present invention relates to a display device, and more particularly, to a display device capable of recognizing an object placed on a display panel and a method of recognizing the object.

주지하고 있는 바와 같이, 컴퓨터는 공동 작업을 위한 도구로서 이용할 수 있으며, 테이블의 상면에 터치스크린을 구비한 테이블 탑 디스플레이 장치가 컴퓨터를 이용한 공동 작업의 용이성이 높아서 주목 받고 있다. 이러한 테이블 탑 디스플레이 장치는 다수의 사람들이 공동 작업을 할 때에 상호 작용을 용이하게 할 수 있도록 대형화되는 추세에 있다.As is known, a computer can be used as a tool for collaborative work, and a table top display device having a touch screen on the top surface of the table is attracting attention because of its high ease of collaboration using a computer. Such a tabletop display device is in a trend of being enlarged so as to facilitate interaction when a large number of people collaborate.

이처럼, 테이블 탑 디스플레이 장치는 공동 작업의 도구로서 이용되기에 디스플레이 패널 위에 다양한 물체가 올려질 가능성이 높아서 이렇게 테이블 탑 디스플레이 장치 위에 올려진 객체를 인식할 수 있는 기능이 요구되었다.As such, the table top display device is used as a tool for collaborative work, so that there is a high possibility that various objects are placed on the display panel, and thus a function of recognizing the objects placed on the table top display device is required.

종래에는 테이블 탑 디스플레이 장치에서 객체를 인식할 수 있도록 하기 위하여 전자식 터치 유닛이 제안되었다. 이러한 전자식 터치 유닛은 정전 변화 유도 재질로 구성되며 상호 절연된 복수의 터치부, 복수의 터치부 중 지정된 개수의 터치부에 지정된 정전 용량이 선택적으로 축전되도록 제어하는 제어모듈을 구비한다. 제어모듈에 의해 복수의 터치부 중 지정된 개수의 터치부에 지정된 정전용량이 선택적으로 축전되도록 제어되는 중에, 전자식 터치 유닛이 터치스크린에 터치되면, 터치스크린에 다중 터치된 터치 점이 인식된다.Conventionally, an electronic touch unit has been proposed to enable an object to be recognized by a tabletop display device. The electronic touch unit includes a plurality of mutually insulated touch units and a control module configured to selectively charge capacitors assigned to a specified number of touch units among the plurality of touch units. When the electronic touch unit is touched to the touch screen while the control module controls the capacitors assigned to a specified number of touch units of the plurality of touch units to be selectively stored, the multi touch touched point is recognized on the touch screen.

그러나, 이러한 종래 기술은 객체가 정전 변화 유도 재질로 구성된 전용의 전자식 터치 유닛을 반드시 구비하여야 하기에 범용적으로 이용될 수 없는 문제점이 있었다.However, this prior art has a problem that the object can not be used universally because it must necessarily have a dedicated electronic touch unit composed of an electrostatic-change inducing material.

한국 공개특허공보 제2015-0134118호, 공개일자 2015년 12월 01일.Korean Published Patent Application No. 2015-0134118, published on 01 December 2015.

본 발명의 실시예에 따르면, 디스플레이 패널을 이용한 터치 감지 이외에 디스플레이 패널의 상부에 광을 조사하여 객체 인식에 이용함으로써, 객체가 전용의 장비를 구비할 필요가 없으면서도 객체 인식의 정확도가 향상되도록 한 디스플레이 장치와 그 객체 인식 방법을 제공한다.According to the embodiment of the present invention, in addition to touch sensing using a display panel, light is irradiated on an upper part of a display panel to be used for object recognition, so that the accuracy of object recognition can be improved A display device and a method for recognizing the object are provided.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and another problem to be solved can be clearly understood by those skilled in the art from the following description.

본 발명의 일 관점으로서 디스플레이 장치는, 디스플레이 패널과 터치센서를 구비한 디스플레이부와, 상기 디스플레이 패널의 주연부를 따라 배치되어 상기 주연부의 내측으로 광을 조사하는 복수의 발광소자와 상기 발광소자에 의해 조사된 광을 수광하는 복수의 수광소자를 구비한 광학부와, 상기 디스플레이부 및 상기 광학부를 제어하는 제어부를 포함하며, 상기 제어부는, 상기 발광소자의 발광 정보 및 상기 수광소자의 수광 정보에 따라 객체에 대한 센싱에 의한 좌표 정보를 파악하며, 상기 센싱에 의한 좌표 정보가 소정 시간동안 변화되지 않은 경우에 객체 인식 이벤트가 발생한 것으로 판단해 상기 센싱에 의한 좌표 정보를 상기 객체의 모양 정보로서 수집하며, 상기 터치센서의 감지값에 따라 터치에 의한 좌표 정보를 파악하고, 상기 모양 정보와 상기 터치에 의한 좌표 정보를 기초로 하여 상기 객체를 인식할 수 있다.According to one aspect of the present invention, there is provided a display device comprising: a display portion having a display panel and a touch sensor; a plurality of light emitting elements arranged along a periphery of the display panel to emit light toward the inside of the peripheral portion; And a control unit for controlling the display unit and the optical unit, wherein the control unit controls the display unit and the light receiving unit based on the light emission information of the light emitting device and the light receiving information of the light receiving device The coordinate information by sensing the object is detected and when the coordinate information by the sensing is not changed for a predetermined time, it is determined that the object recognition event has occurred and the coordinate information by the sensing is collected as the shape information of the object , Coordinate information by touch according to the sensed value of the touch sensor, The object can be recognized based on the information and the coordinate information by the touch.

본 발명의 다른 관점으로서, 디스플레이 패널, 터치센서, 상기 디스플레이 패널의 주연부를 따라 배치되어 상기 주연부의 내측으로 광을 조사하는 복수의 발광소자, 상기 발광소자에 의해 조사된 광을 수광하는 복수의 수광소자를 포함하는 디스플레이 장치에서 수행되는 객체에 대한 인식 방법은, 상기 발광소자의 발광 정보 및 상기 수광소자의 수광 정보에 따라 상기 객체에 대한 센싱에 의한 좌표 정보를 파악하며, 상기 센싱에 의한 좌표 정보가 소정 시간동안 변화되지 않은 경우에 객체 인식 이벤트가 발생한 것으로 판단해 상기 센싱에 의한 좌표 정보를 상기 객체의 모양 정보로서 수집하는 단계와, 상기 터치센서의 감지값에 따라 터치에 의한 좌표 정보를 파악하는 단계와, 상기 모양 정보와 상기 터치에 의한 좌표 정보를 기초로 하여 상기 객체를 인식하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a display device including a display panel, a touch sensor, a plurality of light emitting elements arranged along a periphery of the display panel to irradiate light to the inside of the peripheral portion, A method of recognizing an object performed by a display device including a device includes the steps of sensing coordinate information by sensing for the object according to light emission information of the light emitting device and light receiving information of the light receiving device, Determining that an object recognition event has occurred and collecting the coordinate information by the sensing as shape information of the object if the object recognition event is not changed for a predetermined time; Based on the shape information and the coordinate information by the touch, A may include the step of recognizing.

본 발명의 실시예에 의하면, 디스플레이 패널 상부에서의 광전달 특성에 따라 객체를 센싱하여 모양 정보를 수집하며, 디스플레이 패널에 대한 객체의 터치 정보와 수집된 모양 정보를 기초로 하여, 객체를 인식한다.According to the embodiment of the present invention, the object is sensed according to the light transmission characteristic on the display panel to collect shape information, and the object is recognized based on the touch information of the object and the collected shape information on the display panel .

따라서, 객체가 정전 변화 유도 재질로 구성된 터치 유닛 등과 같은 전용의 장비를 구비하지 않더라도 디스플레이 장치에서 해당 객체를 인식할 수 있다.Therefore, even if the object does not have dedicated equipment such as a touch unit made of an electrostatic-change inducing material, the object can be recognized by the display device.

나아가, 터치 유닛 등을 구비한 객체의 경우에 종래에는 디스플레이 장치에서 터치 유닛을 인식하는 것에 머물렀으나, 본 발명은 터치 유닛 등과 같은 기존의 장비와 연동할 경우에 터치 유닛의 내부에 있는 정전 변화 유도 재질의 무게 또는 용량까지 추정할 수 있다.Further, in the case of an object having a touch unit or the like, conventionally, the display unit recognizes the touch unit. However, the present invention can be applied to an electrostatic charge induction material Of the weight or the capacity of the sample.

예컨대, 스마트폰의 경우에는 표시창이 디스플레이 패널에 접촉되어 있는 경우와 케이스가 디스플레이 패널에 접촉되어 있는 경우를 디스플레이 장치가 파악할 수 있기 때문에, 이러한 디스플레이 장치의 기능과 스마트폰의 연동을 통해 다양한 부가 서비스를 제공할 수 있다.For example, in the case of a smart phone, since the display device can grasp the case where the display window is in contact with the display panel and the case where the case is in contact with the display panel, Can be provided.

또, 디스플레이 패널을 이용한 터치 감지 이외에 디스플레이 패널 상부에서의 광전달 특성까지 이용하여 객체를 인식함으로써, 디스플레이 패널을 이용한 터치 감지만으로 객체를 인식할 때와 비교할 때에 객체 인식의 정확도가 향상되는 효과가 있다.In addition, since the object is recognized by using the light transmission characteristic at the upper part of the display panel in addition to the touch detection using the display panel, the accuracy of object recognition is improved when compared with the case of recognizing the object only by touch sensing using the display panel .

도 1은 본 발명의 제 1 실시예에 따른 디스플레이 장치를 구성하는 디스플레이부와 광학부의 적층 구조를 보인 도면이다.
도 2는 본 발명의 제 2 실시예에 따른 디스플레이 장치를 구성하는 디스플레이부와 광학부 및 추가 광학부의 적층 구조를 보인 도면이다.
도 3은 본 발명의 제 2 실시예에 따른 디스플레이 장치의 블록 구성도이다.
도 4는 본 발명의 실시예에 따른 디스플레이 장치에서 수행되는 객체 인식 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시예에 따른 디스플레이 장치에서 디스플레이 패널과 객체의 접촉면의 변경에 따른 정전용량의 변화를 보인 도면이다.
도 6은 본 발명의 실시예에 따른 디스플레이 장치에서 객체의 무게 변동에 따른 정전용량의 변화를 보인 도면이다.
1 is a view showing a stacked structure of a display unit and an optical unit constituting a display device according to a first embodiment of the present invention.
2 is a view illustrating a stacked structure of a display unit, an optical unit, and an additional optical unit included in a display device according to a second embodiment of the present invention.
3 is a block diagram of a display device according to a second embodiment of the present invention.
4 is a flowchart illustrating an object recognition method performed in a display device according to an embodiment of the present invention.
5 is a graph showing a change in capacitance due to a change in a contact surface between a display panel and an object in a display device according to an exemplary embodiment of the present invention.
6 is a graph showing a change in capacitance due to weight variation of an object in a display device according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

도 1은 본 발명의 제 1 실시예에 따른 디스플레이 장치를 구성하는 디스플레이부와 광학부의 적층 구조를 보인 도면으로서, (a)는 사시도이고, (b)는 단면도이다. 도 2는 본 발명의 제 2 실시예에 따른 디스플레이 장치를 구성하는 디스플레이부와 광학부 및 추가 광학부의 적층 구조를 보인 도면으로서, (a)는 사시도이고, (b)는 단면도이다. 도 3은 본 발명의 제 2 실시예에 따른 디스플레이 장치의 블록 구성도이다.BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a view showing a laminated structure of a display section and an optical section constituting a display apparatus according to a first embodiment of the present invention, wherein (a) is a perspective view and (b) is a sectional view. FIG. 2 is a view showing a laminated structure of a display portion, an optical portion and a further optical portion constituting a display device according to a second embodiment of the present invention, wherein FIG. 2A is a perspective view and FIG. 3 is a block diagram of a display device according to a second embodiment of the present invention.

먼저, 도 1에 도시된 제 1 실시예와 도 2에 도시된 제 2 실시예를 비교하여 보면, 제 1 실시예는 단일의 광학부(120)를 포함하지만, 제 2 실시예는 광학부(120)와 추가 광학부(140)를 포함하는 차이를 가진다. 이외의 구성요소는 제 1 실시예와 제 2 실시예가 동일하기에, 아래에서는 제 2 실시예에 중점을 두어 설명하기로 한다.First, comparing the first embodiment shown in Fig. 1 with the second embodiment shown in Fig. 2, the first embodiment includes a single optical section 120, while the second embodiment includes the optical section 120 and the additional optics 140. [ The other components are the same as those of the first embodiment and the second embodiment, and the following description will focus on the second embodiment.

본 발명의 실시예에 따른 디스플레이 장치는, 디스플레이부(110), 광학부(120), 프레임부(130), 추가 광학부(140), 제어부(150), 저장부(160), 기울기 센서부(170)를 포함한다. 디스플레이부(110)는 디스플레이 패널(111), 터치센서(112)를 포함한다.A display unit according to an embodiment of the present invention includes a display unit 110, an optical unit 120, a frame unit 130, an additional optical unit 140, a control unit 150, a storage unit 160, (Not shown). The display unit 110 includes a display panel 111 and a touch sensor 112.

디스플레이 패널(111)은 제어부(150)의 제어신호에 따라 영상을 표시한다. 예컨대, 디스플레이 패널(111)은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode) 등을 적용한 평판 디스플레이 장치로 구현할 수 있다.The display panel 111 displays an image according to a control signal of the controller 150. For example, the display panel 111 may be a flat panel display device using a liquid crystal display (LCD), an organic light emitting diode (OLED), or the like.

터치센서(112)는 디스플레이 패널(111)에 대한 객체의 터치를 감지하며, 터치의 감지값을 제어부(150)에게 제공한다. 예컨대, 터치센서(112)는 디스플레이 패널(111)의 상면에 배치되어 터치에 의해 변화되는 정전용량을 측정하는 터치스크린(Touch Screen)으로 구현할 수 있다.The touch sensor 112 senses the touch of the object with respect to the display panel 111 and provides the sensed value of the touch to the control unit 150. For example, the touch sensor 112 may be implemented as a touch screen that is disposed on the upper surface of the display panel 111 and measures a capacitance that is changed by a touch.

광학부(120)는 복수의 발광소자와 복수의 수광소자를 포함한다. 복수의 발광소자는 디스플레이 패널(111)의 주연부를 따라 배치되어 주연부의 내측으로 광을 조사하며, 복수의 수광소자는 디스플레이 패널(111)의 주연부를 따라 배치되어 발광소자에 의해 조사된 광을 수광한다. 예컨대, 하나의 발광소자가 디스플레이 패널(111)의 주연부 중에서 한 변에 배치되면 이에 대응하는 발광소자가 디스플레이 패널의 주연부 중에서 반대편에 위치하는 변에 배치될 수 있다. 이러한 발광소자와 수광소자의 배치는 기 설정된 이격거리를 두고 반복적으로 이루어지며, 발광소자들에서 조사된 광의 경로와 수광소자들에서 수광된 광의 경로를 가상의 면에 모두 표시하면 디스플레이 패널(111)의 터치 좌표처럼 모든 센싱 영역을 좌표로 표현할 수 있는 격자 구조를 가진다.The optical section 120 includes a plurality of light emitting elements and a plurality of light receiving elements. The plurality of light emitting elements are arranged along the periphery of the display panel 111 to irradiate light to the inside of the peripheral portion, and the plurality of light receiving elements are arranged along the peripheral portion of the display panel 111, do. For example, when one light emitting element is disposed on one side of the periphery of the display panel 111, the corresponding light emitting element may be disposed on the opposite side of the periphery of the display panel. The arrangement of the light emitting device and the light receiving device is repeatedly performed at a predetermined distance. When the path of the light emitted from the light emitting devices and the path of the light received by the light receiving devices are displayed on the virtual surface, Such as the touch coordinates of the sensing area.

프레임부(130)는 디스플레이 패널(111)의 주연부와 광학부(120)의 사이에 설치된다. 여기서, 터치센서(112)가 터치스크린으로 구현되어 디스플레이 패널(111)의 상면에 배치된 경우라면 프레임부(130)는 터치센서(112)의 주연부와 광학부(120)의 사이에 설치된다. 이러한 프레임부(130)는 광학부(120)를 구성하는 발광소자 및 수광소자가 디스플레이 패널(111)로부터 기 설정된 거리로 이격되도록 하는 역할을 한다.The frame part 130 is provided between the periphery of the display panel 111 and the optical part 120. Here, if the touch sensor 112 is implemented as a touch screen and disposed on the upper surface of the display panel 111, the frame unit 130 is installed between the periphery of the touch sensor 112 and the optical unit 120. The frame part 130 serves to make the light emitting element and the light receiving element constituting the optical part 120 to be spaced from the display panel 111 by a predetermined distance.

추가 광학부(140)는 광학부(120)의 상부에 배치되며, 복수의 발광소자와 복수의 수광소자를 포함한다. 이러한 추가 광학부(140)는 광학부(120)와 마찬가지로 발광소자는 디스플레이 패널(111)의 내측으로 광을 조사하며, 수광소자는 발광소자에 의해 조사된 광을 수광한다. 도 2에는 추가 광학부(140)를 하나만 도시하였으나, 복수의 추가 광학부(140)가 광학부(120)의 상부에 적층될 수 있다.The additional optical section 140 is disposed on the optical section 120 and includes a plurality of light emitting elements and a plurality of light receiving elements. The additional optical unit 140 irradiates light to the inside of the display panel 111, like the optical unit 120, and the light receiving element receives the light irradiated by the light emitting element. Although only one additional optical section 140 is shown in FIG. 2, a plurality of additional optical sections 140 may be stacked on top of the optical section 120.

저장부(160)에는 광학부(120) 및 추가 광학부(140)에서 수행된 객체의 센싱에 의한 좌표 정보와 터치센서(112)에서 감지된 터치에 의한 좌표 정보가 다수의 객체에 각각 대응하게 저장된다. 즉, 객체별 기준 정보가 센싱에 의한 좌표 정보와 터치에 의한 좌표 정보를 포함하는 형태로 저장된다. 예컨대, 저장부(160)에는 특정 객체에게 할당된 ID(Identification)와 특정 객체를 식별할 수 있는 센싱에 의한 좌표 정보 및 터치에 의한 좌표 정보가 일대일 대응하게 저장될 수 있다. 예컨대, 저장부(160)는 EEPROM(Electrically Erasable Programmable Read-Only Memory) 등의 비휘발성 메모리 소자로 구현할 수 있다.The coordinate information by the sensing of the object performed by the optical unit 120 and the additional optical unit 140 and the coordinate information by the touch sensed by the touch sensor 112 correspond to a plurality of objects respectively in the storage unit 160 . That is, the object-specific reference information is stored in a form including coordinate information by sensing and coordinate information by touch. For example, in the storage unit 160, an ID (Identification) assigned to a specific object, coordinate information by sensing to identify a specific object, and coordinate information by touch can be stored in a one-to-one correspondence. For example, the storage unit 160 may be implemented as a nonvolatile memory device such as an EEPROM (Electrically Erasable Programmable Read-Only Memory).

기울기 센서부(170)는 디스플레이 패널(111)의 기울기를 측정하며, 측정된 기울기값을 제어부(150)에게 제공한다. 예컨대, 기울기 센서부(170)는 관성센서(Inertial Sensor)로 구현할 수 있다.The tilt sensor unit 170 measures the tilt of the display panel 111 and provides the measured tilt value to the controller 150. For example, the tilt sensor unit 170 may be implemented as an inertial sensor.

제어부(150)는 디스플레이부(110)와 광학부(120) 및 추가 광학부(140)를 제어한다. 또, 제어부(150)는 기울기 센서부(170)에 의해 측정된 디스플레이 패널(111)의 기울기 값에 따라 객체에 대한 인식 여부를 결정한다. 예컨대, 디스플레이 패널(111)의 기울기 값이 설정 범위 내에 포함되어 있어서 수평 상태라고 볼 수 있을 때에 테이블 탑 형태로 운용 중이라고 판단하여 객체 인식을 수행하게 할 수 있다.The control unit 150 controls the display unit 110, the optical unit 120, and the additional optical unit 140. The control unit 150 determines whether the object is recognized according to the tilt value of the display panel 111 measured by the tilt sensor unit 170. For example, when the inclination value of the display panel 111 is included in the set range and can be regarded as a horizontal state, it can be determined that the object is being operated in the form of a table top so that object recognition can be performed.

그리고, 제어부(150)는 광학부(120) 및 추가 광학부(140)를 구성하는 발광소자의 발광 정보 및 수광소자의 수광 정보에 따라 디스플레이 패널(111)의 위에 놓인 객체에 의한 좌표 정보를 객체의 모양 정보로서 수집한다. 아울러, 제어부(150)는 터치센서(112)의 감지값에 따라 객체에 의한 디스플레이 패널(111)의 터치에 대한 좌표 정보를 파악하고, 수집된 모양 정보와 터치에 의한 좌표 정보를 기초로 하여, 디스플레이 패널(111)의 위에 놓인 객체를 인식한다.The control unit 150 converts the coordinate information by the object placed on the display panel 111 into the object information according to the light emission information of the light emitting element and the light receiving information of the light receiving element constituting the optical unit 120 and the additional optical unit 140 As shown in FIG. In addition, the controller 150 grasps the coordinate information on the touch of the display panel 111 by the object according to the sensed value of the touch sensor 112, and based on the collected shape information and the coordinate information by touch, And recognizes the object placed on the display panel 111.

또, 제어부(150)는 광학부(120) 및 추가 광학부(140)로부터 발광소자의 발광 정보 및 수광소자의 수광 정보를 입력받아 디스플레이 패널(111)의 위에 놓인 객체의 높이 방향에 대한 복수의 모양 정보를 수집하고, 복수의 모양 정보와 터치에 의한 좌표 정보를 기초로 하여 객체를 입체적으로 인식 및 파악한다. 아울러, 제어부(150)는 광학부(120) 및 추가 광학부(140)의 센싱에 의한 좌표 정보를 파악하며, 터치센서(112)를 통해 디스플레이 패널(111)의 터치에 의한 좌표 정보를 파악하고, 파악된 센싱에 의한 좌표 정보와 터치에 의한 좌표 정보를 저장부(160)에 기 저장된 객체별 기준 정보와 비교하며, 그 비교 결과에 따라 디스플레이 패널(111)의 위에 놓인 객체를 인식한다. 또, 제어부(150)는 복수 회에 걸쳐서 동일한 객체가 인식될 경우에, 터치센서(112)에 의해 감지된 터치 강도 또는 정전용량에 따라 동일한 객체 내에 담긴 물질의 무게나 용량의 차이를 파악할 수 있다. 즉, 제어부(150)는 터치센서(112)에 의해 감지된 터치 강도 또는 정전용량을 기초로 하여 객체 내에 담긴 물질의 무게나 용량을 파악할 수 있다. 또, 제어부(150)는 터치센서(112)에 의해 인식된 객체의 정전용량에 따라, 디스플레이 패널(111)에 대한 객체의 접촉면의 종류를 파악할 수도 있다. 예컨대, 제어부(150)는 CPU(Central Processing Unit) 등과 같은 프로세서로 구현할 수 있다.The control unit 150 receives the light emission information of the light emitting element and the light receiving information of the light receiving element from the optical unit 120 and the additional optical unit 140 and receives a plurality of Acquires shape information, and recognizes and grasps the object in three dimensions based on a plurality of shape information and coordinate information by touch. The control unit 150 grasps the coordinate information by sensing the optical unit 120 and the additional optical unit 140 and grasps coordinate information by touching the display panel 111 through the touch sensor 112 The coordinate information by sensing and the coordinate information by touch are compared with the reference information for each object stored in the storage unit 160 and the object placed on the display panel 111 is recognized according to the comparison result. In addition, when the same object is recognized a plurality of times, the control unit 150 can grasp a difference in weight or capacity of a substance contained in the same object according to the touch intensity or the capacitance detected by the touch sensor 112 . That is, the control unit 150 can determine the weight or the capacity of the substance contained in the object based on the touch intensity or the capacitance detected by the touch sensor 112. The controller 150 may determine the type of contact surface of the object with respect to the display panel 111 according to the capacitance of the object recognized by the touch sensor 112. [ For example, the control unit 150 may be implemented by a processor such as a CPU (Central Processing Unit).

도 4는 본 발명의 실시예에 따른 디스플레이 장치에서 수행되는 객체 인식 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating an object recognition method performed in a display device according to an embodiment of the present invention.

이에 나타낸 바와 같이 실시예에 따른 객체 인식 방법은, 디스플레이 패널의 기울기를 측정한 후, 측정된 기울기 값에 따라 수평 상태라고 판단되면 디스플레이 패널의 위에 객체가 놓여있는지를 탐색하는 단계(S201 내지 S205)를 포함한다.As described above, the object recognition method according to an embodiment of the present invention includes steps S201 to S205 of detecting an object on a display panel when it is determined that the object is horizontal according to a measured tilt value after measuring a tilt of the display panel, .

그리고, 발광소자의 발광 정보 및 수광소자의 수광 정보를 기초로 하여, 객체가 센싱되면 소정 시간동안 센싱 좌표가 변화되지 않은 경우에 객체 인식 이벤트가 발생한 것으로 판단하여 센싱 좌표를 객체의 모양 정보로서 수집하고 터치센서를 활성화하는 단계(S207 내지 S213)를 더 포함한다.Then, based on the light emission information of the light emitting element and the light receiving information of the light receiving element, if the sensing coordinate is not changed for a predetermined time after the object is sensed, it is determined that an object recognition event has occurred and the sensing coordinates are collected And activating the touch sensor (S207 to S213).

아울러, 터치센서의 감지값을 기초로 하여, 터치에 대한 좌표 정보를 파악하는 단계(S215 및 S217)를 더 포함한다.The method further includes steps (S215 and S217) of grasping coordinate information on the touch based on the sensed value of the touch sensor.

다음으로, 객체의 모양 정보와 터치에 의한 좌표 정보를 기초로 하여, 객체를 인식하는 단계(S219 및 S221)를 더 포함한다. 여기서, 센싱에 의한 좌표 정보와 터치에 의한 좌표 정보 및 다수의 객체에 대응하여 기 설정된 객체별 기준 정보와의 비교 결과에 따라 객체를 인식할 수 있다. 또, 복수 회에 걸쳐서 동일한 객체가 인식될 경우에 터치센서에 의해 감지된 터치 강도 또는 정전용량에 따라 동일한 객체 내에 담긴 물질의 무게나 용량의 차이를 파악할 수 있다. 즉, 터치센서에 의해 감지된 터치 강도 또는 정전용량을 기초로 하여 객체 내에 담긴 물질의 무게나 용량을 파악할 수 있다. 또, 터치센서에 의해 감지된 객체의 정전용량에 따라, 디스플레이 패널에 대한 객체의 접촉면의 종류를 파악할 수도 있다.Next, the method further includes a step (S219 and S221) of recognizing the object based on the shape information of the object and the coordinate information by touching. Here, the object can be recognized according to the result of comparison between the coordinate information by sensing, the coordinate information by touch, and the reference information for each object previously set corresponding to a plurality of objects. In addition, when the same object is recognized a plurality of times, it is possible to grasp a difference in weight or capacity of a substance contained in the same object according to the touch intensity or the capacitance detected by the touch sensor. That is, the weight or the capacity of the substance contained in the object can be grasped based on the touch intensity or the electrostatic capacity sensed by the touch sensor. Also, depending on the capacitance of the object sensed by the touch sensor, the kind of the contact surface of the object with respect to the display panel can be grasped.

이하, 도 1 내지 도 6을 참조하여 본 발명의 실시예에 따른 디스플레이 장치에서 수행되는 객체 인식 방법에 대해 자세히 살펴보기로 한다.Hereinafter, an object recognition method performed in the display device according to the embodiment of the present invention will be described in detail with reference to FIG. 1 to FIG.

먼저, 기울기 센서부(170)는 디스플레이 패널(111)의 기울기를 측정한 후, 측정된 기울기 값을 제어부(150)에게 전달한다(S201). 그러면, 제어부(150)는 측정된 기울기 값과 기 설정된 기울기 범위를 비교하여 디스플레이 패널(111)이 수평 상태인지를 판단한다(S203). 여기서, 디스플레이 패널(111)의 수평 상태가 확인되면 제어부(150)는 디스플레이 장치가 테이블 탑 형태로 운용 중인 것으로 인지하며, 광학부(120) 및 추가 광학부(140)를 통해 디스플레이 패널(111) 위에 객체가 놓여있는지를 탐색하게 된다(S205). 이러한 단계 S201 내지 S205는 디스플레이 장치가 테이블 탑 형태로 운용 중일 경우에만 객체를 인식할 필요가 있을 경우에, 테이블 탑 형태로 운용 중인 경우와 테이블 탑 형태로 운용되지 않는 경우를 구별하기 위해 수행되는 것이다. 즉, 어떠한 형태로 운용되는 경우라 할지라도 항상 객체를 인식하여야 한다면 단계 S201 및 S203은 수행하지 않을 수도 있다.First, the tilt sensor 170 measures the tilt of the display panel 111 and then transmits the measured tilt value to the controller 150 (S201). Then, the controller 150 determines whether the display panel 111 is in a horizontal state by comparing the measured slope value with a preset slope range (S203). When the horizontal state of the display panel 111 is confirmed, the controller 150 recognizes that the display device is being operated in the form of a table top, and recognizes the operation of the display panel 111 through the optical unit 120 and the additional optical unit 140. [ It is searched whether or not the object is laid on it (S205). These steps S201 to S205 are performed in order to distinguish between the case of operating in a table top mode and the case of not operating in a table top mode when the display device needs to recognize an object only when the display device is operating in a table top form . That is, steps S201 and S203 may not be performed if the object is always recognized regardless of whether the object is operated in any form.

여기서, 제어부(150)의 제어에 따라 구동되는 광학부(120) 및 추가 광학부(140)는 복수의 발광소자 및 복수의 수광소자를 구동하여 디스플레이 패널(111)의 위에 객체가 놓여있는지를 센싱하게 된다. 발광소자가 발광을 하여 광을 조사할 경우에 해당 광이 조사되는 광경로 상에 객체가 위치하지 않는다면 해당 발광소자에 대응하는 수광소자에 의해 광이 수광되어야 한다. 하지만, 디스플레이 패널(111)의 위에 객체가 놓여 있어서 해당 광경로를 차단하면 대응하는 수광소자에 의해 광이 수광되지 않는다. 이처럼, 발광소자에서 조사된 광이 발광소자와 한 쌍을 이루는 수광소자에서 수광되지 않으면 객체가 센싱되는 경우에 해당한다(S207).The optical unit 120 and the additional optical unit 140 driven by the control unit 150 drive the plurality of light emitting devices and the plurality of light receiving devices to sense whether an object is placed on the display panel 111 . When the light emitting device emits light and irradiates the light, if the object is not positioned on the optical path to which the light is irradiated, the light must be received by the light receiving device corresponding to the light emitting device. However, when an object is placed on the display panel 111 and the light path is blocked, light is not received by the corresponding light receiving element. If the light emitted from the light emitting element is not received by the light receiving element that is paired with the light emitting element, the object is sensed (S207).

그리고, 제어부(150)는 광학부(120) 및 추가 광학부(140)에 의한 발광소자의 발광 정보 및 수광소자의 수광 정보를 기초로 하여, 객체가 센싱된 좌표 정보를 파악하며, 소정 시간동안 센싱 좌표가 변화되지 않은 경우(S209)에 객체 인식 이벤트가 발생한 것으로 판단한다. 여기서, 광학부(120) 및 추가 광학부(140)의 발광소자들에서 조사된 광의 경로와 수광소자들에서 수광된 광의 경로를 가상의 면에 모두 표시하면 디스플레이 패널(111)의 터치 좌표처럼 모든 센싱 영역을 좌표로 표현할 수 있는 격자 구조를 가지기 때문에 제어부(150)가 객체에 대한 센싱 좌표를 파악할 수 있다. 또, 기 설정된 시간동안에 센싱 좌표가 변화되지 않은 경우에 객체 인식 이벤트가 발생하는 것으로 판단하는 것은 사용자가 터치 입력 등의 행위를 하는 경우에도 광학부(120) 및 추가 광학부(140)에 의해 센싱되기 때문에 이를 구분하여 제외하기 위한 것이다(S211).The control unit 150 grasps the coordinate information on which the object is sensed based on the light emission information of the light emitting element and the light receiving information of the light receiving element by the optical unit 120 and the additional optical unit 140, If the sensing coordinates are not changed (S209), it is determined that an object recognition event has occurred. If the path of the light emitted from the light emitting elements of the optical unit 120 and the additional optical unit 140 and the path of the light received by the light receiving elements are all displayed on the virtual surface, The control unit 150 can grasp the sensing coordinates of the object because it has a lattice structure that can express the sensing area as coordinates. In addition, it is determined that an object recognition event occurs when the sensing coordinates are not changed within a preset time, even when the user performs an action such as touch input, the sensing by the optical unit 120 and the additional optical unit 140 (S211).

여기서, 제어부(150)는 광학부(120) 또는 추가 광학부(140)에 의해 센싱된 객체의 좌표 정보를 모양 정보로서 수집한다. 발광소자가 발광을 하여 광을 조사할 경우에 해당 광이 조사되는 광경로 상에 객체가 위치하지 않는다면 해당 발광소자에 대응하는 수광소자에 의해 광이 수광되어야 한다. 하지만, 디스플레이 패널(111)의 위에 객체가 놓여 있어서 해당 광경로를 차단하면 대응하는 수광소자에 의해 광이 수광되지 않는다. 따라서, 광경로가 차단된 좌표 정보를 제어부(150)가 취합하면 객체의 모양을 파악할 수 있다. 더욱이, 광학부(120) 및 추가 광학부(140)에 의해 센싱된 객체의 좌표 정보를 모두 이용하는 경우에는 광학부(120)만을 이용하는 경우와 비교할 때에 객체의 높이 방향에 대한 복수의 모양 정보를 수집할 수 있기 때문에 위쪽 부분의 모양까지 파악할 수 있으므로 객체의 모양을 좀더 입체적으로 파악 및 인식할 수 있다.Here, the controller 150 collects the coordinate information of the object sensed by the optical unit 120 or the additional optical unit 140 as shape information. When the light emitting device emits light and irradiates the light, if the object is not positioned on the optical path to which the light is irradiated, the light must be received by the light receiving device corresponding to the light emitting device. However, when an object is placed on the display panel 111 and the light path is blocked, light is not received by the corresponding light receiving element. Accordingly, when the control unit 150 collects the coordinate information in which the light path is blocked, the shape of the object can be grasped. In addition, when all the coordinate information of the object sensed by the optical unit 120 and the additional optical unit 140 is used, a plurality of shape information about the height direction of the object is collected when compared with the case of using only the optical unit 120 Since the shape of the upper part can be grasped, the shape of the object can be grasped and recognized more stereoscopically.

다음으로, 객체 인식 이벤트가 발생한 것으로 판단한 제어부(150)는 터치센서(112)를 제어하여 활성화시키며(S213), 활성화된 터치센서(112)는 디스플레이 패널(111)에 대한 터치를 감지하며, 터치에 대한 감지값을 제어부(150)에게 전달한다(S215).The control unit 150 determines that an object recognition event has occurred and controls the touch sensor 112 to activate the touch sensor 112 in step S213. The activated touch sensor 112 detects a touch on the display panel 111, To the control unit 150 (S215).

그러면, 제어부(150)는 터치센서(112)에 의한 감지값을 기초로 하여 객체의 터치에 의한 좌표 정보를 파악한다. 이때, 제어부(150)가 터치에 의한 좌표 정보를 파악하는 과정은 통상의 터치스크린에서 터치 좌표를 파악하는 것과 동일 또는 유사한 원리가 이용된다(S217).Then, the control unit 150 grasps the coordinate information by touching the object based on the sensed value by the touch sensor 112. At this time, the control unit 150 grasps the coordinate information by touching the same or similar principle as that used for grasping the touch coordinates in a normal touch screen (S217).

그리고, 제어부(150)는 단계 S207의 객체 센싱 과정에서 파악된 객체의 모양 정보와 단계 S217에서 파악된 터치에 의한 좌표 정보를 기초로 하여, 객체를 인식한다. 여기서, 제어부(150)는 단계 S217에서 파악된 터치에 의한 좌표 정보에 의거하여, 디스플레이 패널(111)에 접촉된 객체의 접촉면 모양과 접촉 면적을 파악하고, 단계 S207에서 파악된 객체의 모양을 종합하여 3차원 정보를 생성할 수 있으며, 이러한 3차원 정보에 의거하여 객체를 인식할 수 있다.Then, the controller 150 recognizes the object based on the shape information of the object detected in the object sensing process in step S207 and the coordinate information on the touch detected in step S217. Here, the control unit 150 grasps the contact surface shape and the contact area of the object contacted to the display panel 111 based on the coordinate information by touch detected in step S217, and compares the shape of the object identified in step S207 Dimensional information, and the object can be recognized based on the three-dimensional information.

또, 제어부(150)는 저장부(160)에 기 설정된 객체별 기준 정보를 이용하여 객체를 좀더 정확하게 인식할 수 있다. 저장부(160)에는 다수의 객체에 대응하여, 광학부(120) 또는 추가 광학부(140)의 센싱에 의한 좌표 정보와 터치센서(112)의 터치에 의한 좌표 정보가 사전에 등록 및 저장된다. 여기서, 제어부(150)는 단계 S207의 센싱에 의한 좌표 정보와 단계 S215의 터치 감지에 의한 좌표 정보를 저장부(160)에 저장된 복수의 객체별 기준 정보와 비교하며(S219), 복수의 객체별 기준 정보 중에서 일치되거나 가장 유사한 객체별 기준 정보를 선택하고, 선택된 객체별 기준 정보에 대응하게 등록된 객체가 단계 S207에서 센싱된 객체라고 인식한다(S221).In addition, the control unit 150 can recognize the object more accurately by using the preset reference information for each object in the storage unit 160. [ The coordinate information by the sensing of the optical unit 120 or the additional optical unit 140 and the coordinate information by the touch of the touch sensor 112 are registered and stored in advance in the storage unit 160 corresponding to a plurality of objects . Here, the controller 150 compares coordinate information by sensing in step S207 and coordinate information by touch sensing in step S215 with a plurality of object-specific reference information stored in the storage unit 160 (S219) Selects matching or nearest object-specific reference information from the reference information, and recognizes the registered object corresponding to the selected object-specific reference information as an object sensed in step S207 (S221).

예컨대, 저장부(160)에는 아래의 표 1과 같이 복수의 객체별 기준 정보를 포함하는 테이블이 사전에 등록 및 저장될 수 있다. 표 1에는 2가지의 객체에 대한 객체별 기준 정보를 예시하였으나, 필요에 따라 객체의 수는 얼마든지 증가될 수 있다.For example, a table including a plurality of object-specific reference information may be registered and stored in the storage unit 160 as shown in Table 1 below. Table 1 shows object-by-object reference information for two objects, but the number of objects can be increased as needed.

객체명Object name 센싱 영역Sensing area 터치 강도Touch Strength 센싱 영역 좌표Sensing area coordinates 정전용량 데이터Capacitance data 물컵Water cup 2828 1313 (111, 222)(111, 222) 1313 (112, 222)(112, 222) 1414 ... ... 스마트폰Smartphone 7272 3333 (111, 222)(111, 222) 3232 (112, 222)(112, 222) 3434 ... ...

예컨대, 표 1과 같이, 단계 S207에서 객체가 센싱된 좌표의 수와 비교할 수 있는 객체별 기준 정보를 센싱 영역 필드에 저장할 수 있고, 단계 S217에서 터치가 감지된 좌표들의 정전용량 평균값과 비교할 수 있는 객체별 기준 정보를 터치 강도 필드에 저장할 수 있다. 센싱 영역 좌표 필드에는 단계 S207에서 센싱된 모든 좌표 정보를 저장할 수 있으며, 정전용량 데이터 필드에는 단계 S217에서 터치가 감지된 모든 좌표들의 정전용량값을 저장할 수 있다.For example, as shown in Table 1, it is possible to store, in the sensing area field, object-by-object reference information that can be compared with the number of coordinates at which the object is sensed in step S207, and to compare the sensed- The per-object reference information can be stored in the touch strength field. In the sensing area coordinate field, all the coordinate information sensed in step S207 can be stored. In the capacitance data field, the electrostatic capacitance value of all the coordinates sensed in step S217 can be stored.

여기서, 제어부(150)는 센싱 영역 필드와 터치 강도 필드의 객체별 기준 정보와 단계 S207의 센싱에 의한 좌표 정보 및 단계 S215의 터치 감지에 의한 좌표 정보를 비교하며, 그 비교 결과에 따라 객체를 인식할 수 있다. 또는, 센싱 영역 필드, 터치 강도 필드, 센싱 영역 좌표 필드 및 정전용량 데이터 필드를 모두 단계 S207의 센싱에 의한 좌표 정보 및 단계 S215의 터치 감지에 의한 좌표 정보와 비교하며, 그 비교 결과에 따라 객체를 인식할 수 있다. 일부의 필드만을 비교하여 객체를 인식하는 경우에는 모든 필드를 비교하여 객체를 인식하는 경우보다 상대적으로 빠른 인덱싱(indexing)이 가능하다. 또, 모든 필드를 비교하여 객체를 인식하는 경우에는 일부 필드만을 비교하여 객체를 인식하는 경우보다 상대적으로 객체 인식의 정확도를 향상시킬 수 있다.Here, the controller 150 compares the reference information for each object of the sensing area field and the touch strength field with the coordinate information by sensing in step S207 and the coordinate information by touch sensing in step S215, and recognizes the object can do. Alternatively, the sensing area field, the touch intensity field, the sensing area coordinate field, and the capacitance data field are all compared with the coordinate information by sensing in step S207 and the coordinate information by touch sensing in step S215, Can be recognized. In case of recognizing an object by comparing only a part of fields, it is possible to perform indexing relatively fast compared to recognition of an object by comparing all the fields. In addition, in the case of recognizing an object by comparing all the fields, it is possible to improve the accuracy of recognizing the object relatively more than the case of recognizing the object by comparing only some fields.

또한, 제어부(150)는 단계 S215에서 감지된 터치센서(112)에 의한 터치 강도와 단계 S221에서 인식된 객체에 대한 정보를 기초로 하여, 디스플레이 패널(111)에 대한 객체의 접촉면의 종류를 파악할 수 있다.The controller 150 determines the type of contact surface of the object with respect to the display panel 111 based on the touch intensity detected by the touch sensor 112 and the information about the object recognized in step S221 .

예컨대, 스마트폰의 경우에는 표시창이 디스플레이 패널(111)에 접촉되어 있는 경우와 케이스가 디스플레이 패널(111)에 접촉되어 있는 경우에 정전용량값이 다르게 측정된다. 제어부(150)는 단계 S221에서 스마트폰이라고 인식된 경우에, 도 5의 (a)와 같이 특정한 센싱 영역에서 정전용량값이 측정되지 않으면 스마트폰의 케이스가 디스플레이 패널(111)에 접촉된 상태라고 파악한다. 그리고, 도 5의 (b)와 같이 특정한 센싱 영역에서 정전용량값이 측정되면 스마트폰의 표시창이 디스플레이 패널(111)에 접촉된 상태라고 파악한다.For example, in the case of a smartphone, capacitance values are measured differently when the display window is in contact with the display panel 111 and when the case is in contact with the display panel 111. [ 5A, if the capacitance value is not measured in a specific sensing area, the controller 150 determines that the case of the smartphone is in contact with the display panel 111 I understand. 5 (b), it is determined that the display window of the smartphone is in contact with the display panel 111 when the capacitance value is measured in a specific sensing area.

또, 제어부(150)는 단계 S215에서 감지된 터치센서(112)에 의한 터치 강도와 단계 S221에서 인식된 객체에 대한 정보를 기초로 하여, 객체 내에 담긴 물질의 무게를 파악할 수 있다.In addition, the control unit 150 can determine the weight of the substance contained in the object based on the touch intensity detected by the touch sensor 112 and the information about the object recognized in step S221, as detected in step S215.

예컨대, 복수 회에 걸친 객체에 대한 인식 결과가 모두 물컵인 경우에는 물컵에 담긴 물의 용량에 따라 정전용량값이 다르게 측정된다. 제어부(150)는 단계 S221에서 물컵이라고 인식된 경우에, 센싱 영역에서 도 6의 (a)와 같이 정전용량값이 측정되면 도 6의 (b)와 같이 정전용량값이 측정된 경우보다 물컵의 무게가 가볍다고 판단하여 물컵에 담긴 물의 용량이 상대적으로 적다고 파악한다. 그리고, 도 6의 (b)와 같이 정전용량값이 측정되면 도 6의 (a)와 같이 정전용량값이 측정된 경우보다 물컵의 무게가 무겁다고 판단하여 물컵에 담긴 물의 용량이 상대적으로 많다고 파악한다.For example, when the recognition results for a plurality of objects are all water cups, capacitance values are measured differently depending on the volume of water contained in the water cups. 6 (b), when the capacitance value is measured in the sensing area as shown in FIG. 6 (a), the controller 150 determines that the capacitance value of the water cup It is judged that the weight is light, so that the amount of water in the water cup is relatively small. When the electrostatic capacitance value is measured as shown in FIG. 6 (b), it is determined that the weight of the water cup is heavier than the case where the electrostatic capacitance value is measured as shown in FIG. 6 (a) do.

지금까지 설명한 바와 같이, 본 발명의 실시예에 의하면, 디스플레이 패널 상부에서의 광전달 특성에 따라 객체를 센싱하여 모양 정보를 수집하며, 디스플레이 패널에 대한 객체의 터치 정보와 파악된 모양을 기초로 하여, 객체를 인식한다.As described above, according to the embodiment of the present invention, the shape information is collected by sensing the object according to the optical transmission characteristics on the display panel, and based on the touch information of the object and the grasped shape of the object on the display panel , And recognizes the object.

따라서, 객체가 정전 변화 유도 재질로 구성된 터치 유닛 등과 같은 전용의 장비를 구비하지 않더라도 디스플레이 장치에서 해당 객체를 인식할 수 있다.Therefore, even if the object does not have dedicated equipment such as a touch unit made of an electrostatic-change inducing material, the object can be recognized by the display device.

나아가, 터치 유닛 등을 구비한 객체의 경우에 종래에는 디스플레이 장치에서 터치 유닛을 인식하는 것에 머물렀으나, 본 발명은 터치 유닛 등과 같은 기존의 장비와 연동할 경우에 터치 유닛의 내부에 있는 정전 변화 유도 재질의 무게 또는 용량까지 추정할 수 있다.Further, in the case of an object having a touch unit or the like, conventionally, the display unit recognizes the touch unit. However, the present invention can be applied to an electrostatic charge induction material Of the weight or the capacity of the sample.

예컨대, 스마트폰의 경우에는 표시창이 디스플레이 패널에 접촉되어 있는 경우와 케이스가 디스플레이 패널에 접촉되어 있는 경우를 디스플레이 장치가 파악할 수 있기 때문에, 이러한 디스플레이 장치의 기능과 스마트폰의 연동을 통해 다양한 부가 서비스를 제공할 수 있다.For example, in the case of a smart phone, since the display device can grasp the case where the display window is in contact with the display panel and the case where the case is in contact with the display panel, Can be provided.

또, 디스플레이 패널을 이용한 터치 감지 이외에 디스플레이 패널 상부에서의 광전달 특성까지 이용하여 객체를 인식함으로써, 디스플레이 패널을 이용한 터치 감지만으로 객체를 인식할 때와 비교할 때에 객체 인식의 정확도가 향상된다.In addition, by recognizing an object using up to the light transmission characteristic at the upper part of the display panel in addition to the touch sensing using the display panel, accuracy of object recognition is improved as compared with recognition of an object only by touch sensing using a display panel.

본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Combinations of the steps of each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which are executed via a processor of a computer or other programmable data processing apparatus, Lt; / RTI > These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible to produce manufacturing items that contain instruction means for performing the functions described in each step of the flowchart. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the steps may occur out of order. For example, the two steps shown in succession may in fact be performed substantially concurrently, or the steps may sometimes be performed in reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명은 대형 테이블 탑 인터페이스를 위한 디스플레이 패널을 포함하는 테이블 탑 디스플레이 장치에서 디스플레이 패널 위에 놓인 객체를 인식하는 기술분야에 이용할 수 있다.The present invention can be applied to a technology for recognizing an object placed on a display panel in a tabletop display device including a display panel for a large table top interface.

110 : 디스플레이부 111 : 디스플레이 패널
112 : 터치센서 120 : 광학부
130 : 프레임부 140 : 추가 광학부
150 : 제어부 160 : 저장부
170 : 기울기 센서부
110: display unit 111: display panel
112: touch sensor 120: optical part
130: frame part 140: additional optical part
150: control unit 160:
170: tilt sensor unit

Claims (13)

디스플레이 패널과 터치센서를 구비한 디스플레이부와,
상기 디스플레이 패널의 주연부를 따라 배치되어 상기 주연부의 내측으로 광을 조사하는 복수의 발광소자와 상기 발광소자에 의해 조사된 광을 수광하는 복수의 수광소자를 구비한 광학부와,
상기 디스플레이부 및 상기 광학부를 제어하는 제어부를 포함하며,
상기 제어부는,
상기 발광소자의 발광 정보 및 상기 수광소자의 수광 정보에 따라 객체에 대한 센싱에 의한 좌표 정보를 파악하며, 상기 센싱에 의한 좌표 정보가 소정 시간동안 변화되지 않은 경우에 객체 인식 이벤트가 발생한 것으로 판단해 상기 센싱에 의한 좌표 정보를 상기 객체의 모양 정보로서 수집하며, 상기 터치센서의 감지값에 따라 터치에 의한 좌표 정보를 파악하고, 상기 모양 정보와 상기 터치에 의한 좌표 정보를 기초로 하여 상기 객체를 인식하는
디스플레이 장치.
A display unit having a display panel and a touch sensor,
An optical portion having a plurality of light emitting elements arranged along a peripheral portion of the display panel and emitting light to the inside of the peripheral portion and a plurality of light receiving elements for receiving light emitted by the light emitting element;
And a control unit for controlling the display unit and the optical unit,
Wherein,
The coordinate information by the sensing of the object is grasped according to the light emission information of the light emitting element and the light receiving information of the light receiving element and it is judged that the object recognition event occurs when the coordinate information by the sensing is not changed for a predetermined time Acquiring the coordinate information by the sensing as shape information of the object, grasping coordinate information by touch according to the sensed value of the touch sensor, calculating the coordinate information by the touch based on the shape information and the coordinate information by touch Recognizable
Display device.
제 1 항에 있어서,
상기 디스플레이 패널의 주연부와 상기 광학부 사이에 설치되어, 상기 발광소자 및 상기 수광소자가 상기 디스플레이 패널로부터 기 설정된 거리로 이격되도록 하는 프레임부를 더 포함하는
디스플레이 장치.
The method according to claim 1,
And a frame portion provided between the peripheral portion of the display panel and the optical portion so that the light emitting element and the light receiving element are spaced from the display panel by a predetermined distance
Display device.
제 1 항 또는 제 2 항에 있어서,
상기 광학부의 상부에 복수의 발광소자 및 복수의 수광소자를 포함하는 추가 광학부가 배치된
디스플레이 장치.
3. The method according to claim 1 or 2,
Wherein an additional optical portion including a plurality of light emitting elements and a plurality of light receiving elements is disposed on the optical portion
Display device.
제 3 항에 있어서,
상기 제어부는, 상기 광학부 및 상기 추가 광학부로부터 상기 객체의 높이 방향에 대한 복수의 상기 모양 정보를 수집하며, 상기 복수의 모양 정보와 상기 터치에 의한 좌표 정보를 기초로 하여 상기 객체를 인식하는
디스플레이 장치.
The method of claim 3,
Wherein the control unit collects a plurality of shape information about a height direction of the object from the optical unit and the additional optical unit and recognizes the object based on the plurality of shape information and the coordinate information by touch
Display device.
제 1 항에 있어서,
상기 제어부는, 상기 센싱에 의한 좌표 정보와 상기 터치에 의한 좌표 정보 및 다수의 객체에 대응하여 기 설정된 객체별 기준 정보와의 비교 결과에 따라 상기 객체를 인식하는
디스플레이 장치.
The method according to claim 1,
The control unit recognizes the object according to a result of comparison between the coordinate information by the sensing, the coordinate information by the touch, and reference information for each object previously set corresponding to a plurality of objects
Display device.
제 5 항에 있어서,
상기 제어부는, 상기 터치센서에 의해 감지된 터치 강도 또는 정전용량에 따라 상기 객체 내에 담긴 물질의 무게나 용량을 파악하는
디스플레이 장치.
6. The method of claim 5,
The control unit may determine the weight or capacity of the substance contained in the object according to the touch intensity or electrostatic capacity sensed by the touch sensor
Display device.
제 5 항에 있어서,
상기 제어부는, 상기 터치센서에 의해 감지된 상기 객체의 정전용량에 따라, 상기 디스플레이 패널에 대한 상기 객체의 접촉면의 종류를 파악하는
디스플레이 장치.
6. The method of claim 5,
The controller may determine the type of contact surface of the object with respect to the display panel according to the capacitance of the object sensed by the touch sensor
Display device.
제 1 항에 있어서,
상기 디스플레이 패널의 기울기를 측정하는 기울기 센서부를 더 포함하며,
상기 제어부는, 상기 기울기 센서부에 의해 측정된 기울기 값에 따라 상기 객체에 대한 인식 여부를 결정하는
디스플레이 장치.
The method according to claim 1,
And a tilt sensor unit for measuring a tilt of the display panel,
The control unit determines whether the object is recognized according to a tilt value measured by the tilt sensor unit
Display device.
디스플레이 패널, 터치센서, 상기 디스플레이 패널의 주연부를 따라 배치되어 상기 주연부의 내측으로 광을 조사하는 복수의 발광소자, 상기 발광소자에 의해 조사된 광을 수광하는 복수의 수광소자를 포함하는 디스플레이 장치에서 수행되는 객체에 대한 인식 방법으로서,
상기 발광소자의 발광 정보 및 상기 수광소자의 수광 정보에 따라 상기 객체에 대한 센싱에 의한 좌표 정보를 파악하되, 상기 센싱에 의한 좌표 정보가 소정 시간동안 변화되지 않은 경우에 객체 인식 이벤트가 발생한 것으로 판단해 상기 센싱에 의한 좌표 정보를 상기 객체의 모양 정보로서 수집하는 단계와,
상기 터치센서의 감지값에 따라 터치에 의한 좌표 정보를 파악하는 단계와,
상기 모양 정보와 상기 터치에 의한 좌표 정보를 기초로 하여 상기 객체를 인식하는 단계를 포함하는
객체 인식 방법.
A display device comprising a display panel, a touch sensor, a plurality of light emitting elements arranged along a periphery of the display panel to irradiate light to the inside of the peripheral portion, and a plurality of light receiving elements for receiving light emitted by the light emitting element A method for recognizing an object to be performed,
The coordinate information by the sensing of the object is grasped according to the light emission information of the light emitting element and the light receiving information of the light receiving element, and when the coordinate information by the sensing does not change for a predetermined time, Collecting coordinate information by the sensing as shape information of the object,
Determining coordinate information by touch according to the sensing value of the touch sensor;
And recognizing the object based on the shape information and the coordinate information by the touch
Object recognition method.
제 9 항에 있어서,
상기 객체를 인식하는 단계는, 상기 센싱에 의한 좌표 정보와 상기 터치에 의한 좌표 정보 및 다수의 객체에 대응하여 기 설정된 객체별 기준 정보와의 비교 결과에 따라 상기 객체를 인식하는
객체 인식 방법.
10. The method of claim 9,
The step of recognizing the object may include recognizing the object according to a result of comparison between the coordinate information by the sensing, the coordinate information by the touch, and the reference information for each object previously set corresponding to a plurality of objects
Object recognition method.
제 10 항에 있어서,
상기 객체를 인식하는 단계는, 상기 터치센서에 의해 감지된 터치 강도 또는 정전용량에 따라 상기 객체 내에 담긴 물질의 무게나 용량을 파악하는
객체 인식 방법.
11. The method of claim 10,
The step of recognizing the object may include sensing a weight or a capacity of the material contained in the object according to the touch intensity or capacitance detected by the touch sensor
Object recognition method.
제 10 항에 있어서,
상기 객체를 인식하는 단계는, 상기 터치센서에 의해 감지된 상기 객체의 정전용량에 따라, 상기 디스플레이 패널에 대한 상기 객체의 접촉면의 종류를 파악하는
객체 인식 방법.
11. The method of claim 10,
The step of recognizing the object may include determining a type of the contact surface of the object with respect to the display panel according to the capacitance of the object sensed by the touch sensor
Object recognition method.
제 9 항에 있어서,
상기 디스플레이 패널의 기울기를 측정한 후, 측정된 기울기 값에 따라 상기 객체에 대한 인식 여부를 결정하는 단계를 더 포함하는
객체 인식 방법.
10. The method of claim 9,
Further comprising the step of determining whether the object is recognized according to the measured slope value after measuring the slope of the display panel
Object recognition method.
KR1020160117220A 2016-09-12 2016-09-12 Display apparatus and object recognition method KR101753090B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160117220A KR101753090B1 (en) 2016-09-12 2016-09-12 Display apparatus and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160117220A KR101753090B1 (en) 2016-09-12 2016-09-12 Display apparatus and object recognition method

Publications (1)

Publication Number Publication Date
KR101753090B1 true KR101753090B1 (en) 2017-07-03

Family

ID=59358097

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160117220A KR101753090B1 (en) 2016-09-12 2016-09-12 Display apparatus and object recognition method

Country Status (1)

Country Link
KR (1) KR101753090B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059296A (en) * 2004-08-24 2006-03-02 Touch Panel Systems Kk Touch panel

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059296A (en) * 2004-08-24 2006-03-02 Touch Panel Systems Kk Touch panel

Similar Documents

Publication Publication Date Title
US9703380B2 (en) Vehicle operation input device
JP2018063732A (en) Method for interacting with apparatus implementing capacitive control surface, and interface and apparatus implementing this method
US20080170042A1 (en) Touch signal recognition apparatus and method and medium for the same
CN109583320A (en) Fingerprint identification method and relevant apparatus
CN104039582A (en) Method and device for operating functions displayed on a display unit of a vehicle using gestures which are carried out in a three-dimensional space, and corresponding computer program product
US8928595B2 (en) Touch screen calibration sensor
US20140225860A1 (en) Display apparatus
KR101728723B1 (en) Electric white board display and control method therof
CN102693060A (en) Method and apparatus for controlling switching of terminal state, and terminal
KR101609796B1 (en) Touch input device
CN104571731B (en) Touch panel and display device
KR20130120708A (en) Apparatus and method for displaying using multiplex display pannel
US10204257B2 (en) Display apparatus and display method
KR101753090B1 (en) Display apparatus and object recognition method
KR101598790B1 (en) Touch sensing apparatus and method for detecting multi-touch signal using multi-frequency
CN104252263B (en) Electronic equipment and its touch-sensing method
KR20160145236A (en) A pressure sensing touch system on the device using display panel of based on organic light emitting diodes
CN105630256B (en) A kind of touch key-press recognition methods of capacitance touching control screen
JP2017058718A (en) Operation detection device
CN104102404B (en) Relative azimuth determination method and relative azimuth determination device
CN114503062A (en) Construction identified by touch-sensitive sensor matrix
KR101292541B1 (en) Contactless input device
US10884559B2 (en) Touch panel, touch method of the same, and touch apparatus
JP2015032264A (en) Touch panel device, display device, and display control method
JP6451671B2 (en) Input device and input method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant