KR101777733B1 - 3D touch divice having image sensors and opaque members - Google Patents

3D touch divice having image sensors and opaque members Download PDF

Info

Publication number
KR101777733B1
KR101777733B1 KR1020160110096A KR20160110096A KR101777733B1 KR 101777733 B1 KR101777733 B1 KR 101777733B1 KR 1020160110096 A KR1020160110096 A KR 1020160110096A KR 20160110096 A KR20160110096 A KR 20160110096A KR 101777733 B1 KR101777733 B1 KR 101777733B1
Authority
KR
South Korea
Prior art keywords
touch
image
unit
value
image sensor
Prior art date
Application number
KR1020160110096A
Other languages
Korean (ko)
Inventor
이수웅
권순오
이강원
조보람
이종일
안희경
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020160110096A priority Critical patent/KR101777733B1/en
Application granted granted Critical
Publication of KR101777733B1 publication Critical patent/KR101777733B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

According to an embodiment of the present invention, provided is a 3D touch device capable of performing a 3D input by a touch by performing not only a horizontal movement input of an image generated by the touch but also a vertical movement input by an image change due to pressing by including an image sensor and an opaque member. The 3D touch device using the image sensor and the opaque member according to an embodiment of the present invention includes: a touch unit which is made of an optically opaque material; an image sensor unit for recognizing a touch image which is an image through which the touch which is a contact with a part of the body of the user with respect to the touch unit passes; and a processor unit for processing the touch image to calculate a moving value and a pressing intensity value for the movement of the touch. Accordingly, the present invention can simplify production processes and reduce production costs.

Description

이미지센서와 불투명 부재를 이용한 3D 터치 장치{3D touch divice having image sensors and opaque members}Technical Field [0001] The present invention relates to a 3D touch device using an image sensor and an opaque member,

본 발명은 이미지센서와 불투명 부재를 이용한 3D 터치 장치에 관한 것으로, 더욱 상세하게는, 이미지센서와 불투명 부재를 구비하여, 터치에 의해 생성되는 이미지의 수평 이동뿐만 아니라 누름에 의한 이미지 변화에 의해 수직 이동도 입력 가능하여, 터치에 의한 3차원 입력이 가능한 3D 터치 장치에 관한 것이다. The present invention relates to a 3D touch device using an image sensor and a non-transparent member, and more particularly, to a touch screen device having an image sensor and an opaque member, The present invention also relates to a 3D touch device capable of three-dimensional input by touch.

일반적으로 전자기기에서 터치에 의해 사용자의 동작을 인식하는 제품에는 터치 센서와 디스플레이 패널이 결합한 터치 패널이 사용되고 있다. 이러한 터치 패널은 휴대용 전자기기와 같은 장치에 다양하게 설치되어 있다.2. Description of the Related Art [0002] In general, a touch panel in which a touch sensor and a display panel are combined is used in a product that recognizes an operation of a user by a touch in an electronic device. Such a touch panel is variously installed in a device such as a portable electronic device.

현재 이용되고 있는 터치패널과 같은 입력장치는 간단한 조작으로 사용자의 동작에 의한 입력 정보를 생성할 수 있기는 하나, 사용량의 증가에 따라 단점도 많이 지적되고 있다. 본 명세서에 기재된 발명은 기존의 터치식 입력장치의 단점을 해결하기 위해 전혀 다른 방식의 터치식 입력장치를 제공하는데 목적이 있다. Although input devices such as a touch panel currently used can generate input information by a user's operation with a simple operation, many drawbacks are pointed out as the usage increases. SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide a touch input device of a completely different type in order to solve the disadvantages of the conventional touch input device.

대한민국 등록특허 제10-1597483호(발명의 명칭: 단일 층 터치-감지 디스플레이, 이하 종래기술 1이라 한다)에서는, 제1 방향을 따라 배치되고, 단일 층 상에 형성되며, 기판의 한 측면 상에 지지되는 전도성 재료의 복수의 패턴들; 및 상기 기판의, 상기 전도성 재료의 복수의 패턴들과 동일한 측면 상에 지지되는 상기 전도성 재료의 복수의 개별적인(distinct) 패치들 - 상기 복수의 개별적인 패치들은 실질적으로 같은 단일 층에 배치되고, 상기 복수의 개별적인 패치들의 복수의 그룹들은 상기 제1 방향과 다른 제2 방향을 따라 배치되며, 특정 그룹 내의 상기 개별적인 패치들은 복수의 전도체 트레이스(conductor trace)들 중 적어도 하나를 통해 함께 연결됨 -을 포함하고, 적어도 상기 복수의 개별적인 패치들의 섹션들은 상기 전도성 재료의 복수의 패턴들의 섹션들로부터 분리되어 있고(separated from), 겹치지 않으며(non-overlapping with), 인접함으로써(adjacent to), 실질적으로 동일 평면상의, 단일 층 어레이의 상호 정전용량 센서들을 형성하고, 상기 제1 방향을 따라 배치된 상기 전도성 재료의 복수의 패턴들은, 상기 상호 정전용량 센서들의 어레이에 대한 드라이브 라인 또는 센스 라인 중 하나로 구성되고, 상기 제2 방향을 따라 배치된 상기 복수의 개별적인 패치들의 상기 복수의 그룹들은, 상기 실질적으로 동일 평면상의, 단일 층 어레이의 상호 정전용량 센서에 대한 상기 드라이브 라인 또는 상기 센스 라인 중 다른 하나로 구성되는 터치 센서 패널이 개시되어 있다.In Korean Patent No. 10-1597483 (titled as a single-layer touch-sensitive display, hereinafter referred to as Prior Art 1), it is arranged in a first direction and formed on a single layer, A plurality of patterns of supported conductive material; And a plurality of distinct patches of the conductive material of the substrate supported on the same side of the plurality of patterns of the conductive material, the plurality of individual patches being disposed in substantially the same single layer, Wherein the plurality of groups of individual patches in a particular group are arranged along a second direction different from the first direction and the individual patches in a particular group are connected together via at least one of a plurality of conductor traces, At least the sections of the plurality of individual patches are separated from each other by a plurality of patterns of the conductive material, are non-overlapping with, adjacent to, substantially coplanar, Forming a single layer array of mutual capacitance sensors, Wherein the plurality of patterns are comprised of one of a drive line or a sense line for the array of mutual capacitive sensors and wherein the plurality of groups of the plurality of individual patches disposed along the second direction are substantially coplanar , A touch sensor panel consisting of the drive line for the mutual capacitance sensor of a single layer array or the other of the sense lines.

대한민국 등록특허 제10-1597483호Korean Patent No. 10-1597483

종래기술 1은, 전도성 재료의 복수의 패턴들, 전도성 재료의 복수의 개별적인 패치, 상호 정전용량 센서들을 포함하는 다양한 부품으로 구성되므로, 생산 공정이 복잡하고 생산 비용이 증가한다는 제1문제점을 갖는다.The prior art 1 has a first problem that the production process is complicated and the production cost is increased because it is composed of a plurality of patterns of the conductive material, a plurality of individual patches of the conductive material, and mutual capacitance sensors.

또한, 종래기술 1은, 복수 개의 다양한 부품을 이용하여 단일 층 어레이의 터치 감지 장치를 형성하므로, 터치 감지 장치의 중량 및 크기 축소에 한계가 있다는 제2문제점을 갖는다.In addition, the conventional art 1 has a second problem that the touch sensing apparatus of a single-layer array is formed by using a plurality of various components, which limits the weight and size of the touch sensing apparatus.

그리고, 종래기술 1은, 터치에 의한 동일 평면 상의 이동을 주로 인식하도록 설계되므로, 터치에 의한 3차원 입력에는 한계가 있다는 제3문제점을 갖는다. The prior art 1 has a third problem that it is designed to mainly recognize movement on the same plane by touching, and thus there is a limit to three-dimensional input by touch.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. There will be.

상기 기술적 과제를 달성하기 위하여, 본 발명의 일실시 예는, 광학적으로 불투명한 소재로 형성되는 부재인 터치부; 상기 터치부에 대한 사용자 신체 일부위의 접촉인 터치가 투과되는 이미지인 터치이미지를 인식하는 이미지센서부; 및 상기 터치이미지를 처리하여 상기 터치의 움직임에 대한 이동값과 누름강도값을 연산하는 프로세서부;를 포함하여 이루어지는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치를 제공한다. According to an aspect of the present invention, there is provided a touch sensing device comprising: a touch unit including a member formed of an optically opaque material; An image sensor unit for recognizing a touch image, which is an image through which a touch, which is a contact on a part of the user's body, with respect to the touch unit is transmitted; And a processor unit for processing the touch image to calculate a movement value and a pushing intensity value for the movement of the touch, and a 3D touch device using the image sensor and the opaque member.

본 발명의 실시 예에 있어서, 상기 터치부는, 판재 또는 렌즈 형상일 수 있다.In an embodiment of the present invention, the touch portion may be a plate or a lens.

본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 이동값과 상기 누름강도값에 의해 3차원 좌표 변화를 연산할 수 있다.In the embodiment of the present invention, the processor unit may calculate a three-dimensional coordinate change by the movement value and the pushing intensity value.

본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 터치이미지의 중심점을 기준으로 상기 터치이미지의 x축 값과 y축 값을 연산할 수 있다.In the embodiment of the present invention, the processor unit may calculate the x-axis value and the y-axis value of the touch image based on the center point of the touch image.

본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 터치이미지의 중심점의 x축 값과 y축 값 변화에 의해 상기 이동값을 연산할 수 있다.In the embodiment of the present invention, the processor may calculate the movement value by changing the x-axis value and the y-axis value of the center point of the touch image.

본 발명의 실시 예에 있어서, 상기 터치이미지의 중심점은, 상기 터치 수행 시 하나의 픽셀로 선택될 수 있다.In an embodiment of the present invention, the center point of the touch image may be selected as one pixel during the touch operation.

본 발명의 실시 예에 있어서, 상기 누름강도값은, 상기 터치이미지의 면적 변화에 의해 인식될 수 있다.In the embodiment of the present invention, the pressing intensity value can be recognized by the change in the area of the touch image.

본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 누름강도값의 변화에 의해 상기 터치이미지의 중심점의 z축 값 변화를 연산할 수 있다.In the embodiment of the present invention, the processor unit can calculate the z-axis value change of the center point of the touch image by the change of the pressing intensity value.

본 발명의 실시 예에 있어서, 상기 터치부를 향해 광을 조사하도록 설치되는 조명부를 더 포함할 수 있다.According to an embodiment of the present invention, the display device may further include an illumination unit installed to irradiate light toward the touch unit.

본 발명의 실시 예에 있어서, 상기 터치부는, 투과도를 변경하여 교체 가능할 수 있다.In an embodiment of the present invention, the touch portion may be replaceable by changing the transmittance.

본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 터치이미지의 인식 시간을 연산하여 클릭 이벤트를 생성할 수 있다.In the embodiment of the present invention, the processor unit may generate a click event by calculating a recognition time of the touch image.

본 발명의 실시 예에 있어서, 상기 터치부는, 유연한 소재로 형성될 수 있다.In an embodiment of the present invention, the touch portion may be formed of a flexible material.

본 발명은, 이미지센서와 불투명 부재를 주요 구성요소로 하여 단순하게 구성되므로, 생산 공정이 단순하고 생산 비용이 저감된다는 제1효과를 갖는다.The present invention has a first effect that the production process is simple and the production cost is reduced because the image sensor and the opaque member are simply constituted as main components.

또한, 본 발명은, 불투명 부재의 크기 등을 다양하게 조절하고 이미지센서의 종류를 변화 가능하여, 터치 감지 장치의 중량 및 크기 변화에 용이하다는 제2효과를 갖는다.In addition, the present invention has a second effect that the sizes and the like of the opaque member can be variously adjusted and the kind of the image sensor can be changed, so that it is easy to change the weight and the size of the touch sensing device.

그리고, 본 발명은, 터치에 의해 생성되는 이미지의 수평 이동뿐만 아니라 누름에 의한 이미지 변화에 의해 수직 이동도 입력 가능하여, 터치에 의한 3차원 입력이 가능하다는 제3효과를 갖는다. The present invention has the third effect that not only the horizontal movement of the image generated by the touch but also the vertical movement can be inputted by the image change due to pressing, thereby enabling the three-dimensional input by the touch.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다. It should be understood that the effects of the present invention are not limited to the above effects and include all effects that can be deduced from the detailed description of the present invention or the configuration of the invention described in the claims.

도1은 본 발명의 실시 예에 따른 3D 터치 장치의 개략도이다.
도2는 본 발명의 실시 예에 따른 3D 터치 장치의 터치이미지에 대한 모식도이다.
도3은 본 발명의 실시 예에 따른 3D 터치 장치의 터치이미지 이동에 대한 모식도이다.
도4는 본 발명의 실시 예에 따른 누름 강도의 변화에 대한 터치이미지 변화의 평면도이다.
도5는 본 발명의 실시 예에 따른 3D 터치 장치의 실시상태도이다.
1 is a schematic view of a 3D touch device according to an embodiment of the present invention.
2 is a schematic diagram of a touch image of a 3D touch device according to an embodiment of the present invention.
3 is a schematic diagram of a touch image movement of a 3D touch device according to an embodiment of the present invention.
4 is a top view of a touch image change with respect to a change in pressing strength according to an embodiment of the present invention.
5 is an operational state diagram of a 3D touch device according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시 예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다. Throughout the specification, when a part is referred to as being "connected" (connected, connected, coupled) with another part, it is not only the case where it is "directly connected" "Is included. Also, when an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이하 첨부된 도면을 참고하여 본 발명의 실시 예를 상세히 설명하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 발명의 실시 예에 따른 3D 터치 장치의 개략도이고, 도2는 본 발명의 실시 예에 따른 3D 터치 장치의 터치이미지(110)에 대한 모식도이다. 도2의 (a)는 사용자의 터치 동작을 나타내고, 도2의 (b)는 터치에 의해 생성되는 터치이미지(110)를 나타낸다.FIG. 1 is a schematic view of a 3D touch device according to an embodiment of the present invention, and FIG. 2 is a schematic diagram of a touch image 110 of a 3D touch device according to an embodiment of the present invention. 2 (a) shows a touch operation of the user, and FIG. 2 (b) shows a touch image 110 generated by a touch.

도1에서 보는 바와 같이, 본 발명의 이미지센서와 불투명 부재를 이용한 3D 터치 장치는, 광학적으로 불투명한 소재로 형성되는 부재인 터치부(100); 터치부(100)에 사용자 신체 일부위(10)의 접촉인 터치가 투과되는 이미지인 터치이미지(110)를 인식하는 이미지센서부(200); 및 터치이미지(110)를 처리하여 사용자 신체 일부위(10)의 움직임에 대한 이동값과 누름강도값을 연산하는 프로세서부(300);를 포함하여 이루어질 수 있다.As shown in FIG. 1, the 3D touch device using the image sensor and the opaque member of the present invention includes a touch part 100, which is a member formed of optically opaque material; An image sensor unit 200 for recognizing a touch image 110, which is an image through which a touch in contact with a part of the user's body 10 is transmitted to the touch unit 100; And a processor unit 300 for processing the touch image 110 to calculate a movement value and a pushing intensity value for a movement of a part of the user's body 10.

광학적으로 불투명한 소재는, 광의 투과가 제한적이므로, 접촉되는 물체의 상이 상대적으로 선명하게 나타나는 소재를 의미할 수 있다.An optically opaque material may mean a material in which the image of the object to be contacted appears relatively clearly because the transmission of light is limited.

터치부(100)는, 판재 또는 렌즈 형상일 수 있다.The touch portion 100 may be a plate or a lens.

터치부(100)는, 불투명한 유리판이나, 불투명한 아크릴판과 같은 불투명한 고분자 소재의 판재일 수 있다. 또는, 투명한 유리판이나 고분자 소재 판재에 불투명 효과를 위해 코팅을 수행한 부재일 수 있다. 여기서, 코팅은 습식코팅 또는 증착으로 수행될 수 있다.The touch part 100 may be an opaque glass plate or an opaque polymer plate material such as an opaque acrylic plate. Alternatively, it may be a transparent glass plate or a member which has been coated with a polymeric material for an opaque effect. Here, the coating can be performed by wet coating or vapor deposition.

또한, 터치부(100)는, 렌즈 형상일 수 있으며, 볼록 렌즈 형상 또는 오목 렌즈 형상일 수 있다. In addition, the touch portion 100 may be a lens shape, a convex lens shape, or a concave lens shape.

여기서, 터치가 수행되는 터치부(100)의 면은 평면이고, 이미지센서부(200)를 향하는 터치부(100)의 면은 볼록 렌즈 또는 오목 렌즈 형상일 수 있다.Here, the surface of the touch unit 100 on which the touch is performed is plane, and the surface of the touch unit 100 facing the image sensor unit 200 may be a convex lens or a concave lens.

터치부(100)가 볼록 렌즈 형상인 경우, 터치이미지(110)의 크기가 실제 터치보다 더 크게 인식되어, 실제 터치의 3차원 변위보다 터치이미지(110)의 3차원 변위가 더 크게 인식될 수 있으므로, 터치부(100)가 소형으로 제작되더라도 터치이미지(110)의 인식 효율이 증대되게 할 수 있다.When the touch unit 100 is in the shape of a convex lens, the size of the touch image 110 is recognized to be larger than the actual touch, so that the three-dimensional displacement of the touch image 110 is recognized to be larger than the three- Therefore, the recognition efficiency of the touch image 110 can be increased even if the touch unit 100 is manufactured in a small size.

그리고, 터치부(100)가 오목 렌즈 형상인 경우, 터치이미지(110)의 크기가 실제 터치보다 더 작게 인식되어, 실제 터치의 3차원 변위보다 터치이미지(110)의 3차원 변위가 더 작게 인식될 수 있으므로, 미세한 조정을 터치로 수행하는 경우 용이할 수 있다.When the touch unit 100 is in the shape of a concave lens, the size of the touch image 110 is recognized to be smaller than the actual touch, and the three-dimensional displacement of the touch image 110 is recognized to be smaller than the three- So that fine adjustment can be easily performed by touching.

터치부(100)의 양면이 렌즈와 같이 곡면으로 형성될 수 있음은 물론이다.It is needless to say that both surfaces of the touch part 100 may be formed as a curved surface like a lens.

본 발명의 실시 예에서는, 터치부(100)가 평면이거나 터치부(100)의 일면 또는 양면이 곡면이라고 설명하고 있으나, 반드시 이에 한정되는 것은 아니며, 터치부(100) 자체가 휘어져 곡면으로 형성될 수도 있고, 터치부(100) 자체가 휘어져 형성되는 곡면에 적합하도록 이미지센서부(200)의 이미지센서가 복수 개로 센싱 방향을 각각 달리하여 설치될 수 있다. In the embodiment of the present invention, the touch part 100 is a flat surface or one side or both sides of the touch part 100 is a curved surface. However, the present invention is not limited thereto, and the touch part 100 may be curved And the image sensors of the image sensor unit 200 may be installed in a plurality of different sensing directions such that the touch sensor unit 100 itself is curved.

또한, 터치부(100)는, 유연한 소재로 형성될 수 있다.Further, the touch portion 100 may be formed of a flexible material.

여기서, 터치부(100)는, 유연한 성질을 구비하기 위해 플라스틱과 같은 고분자 화합물 소재로 형성될 수 있다. Here, the touch part 100 may be formed of a polymer compound material such as plastic to have a flexible property.

터치부(100)가 유연한 소재로 형성되는 경우, 형상이 변형되면서 이용되는 제품에 터치 인식 장치로 사용될 수 있다.When the touch unit 100 is formed of a flexible material, the touch unit 100 may be used as a touch recognition device for a product used in a deformed shape.

도3은 본 발명의 실시 예에 따른 3D 터치 장치의 터치이미지(110) 이동에 대한 모식도이고, 도4는 본 발명의 실시 예에 따른 누름 강도의 변화에 대한 터치이미지(110) 변화의 평면도이다. 도3의 (a)는 사용자가 터치 상태로 신체 일부위를 이동시키는 것을 나타내고, 도3의 (b)는 도3의 (a)의 동작에 대응하여 이동하는 터치이미지(110)를 나타낸 것이다. 그리고, 도4의 (a)는 누름 강도가 상대적으로 작은 경우 터치이미지(110)를 나타내고, 도4의 (b)는 누름 강도가 상대적으로 큰 경우 터치이미지(110)를 나타낸다.FIG. 3 is a schematic diagram of a touch image 110 movement of a 3D touch device according to an embodiment of the present invention, and FIG. 4 is a plan view of a touch image 110 change with respect to a change in touch intensity according to an embodiment of the present invention . 3 (a) shows a user moving on a part of the body in a touch state, and FIG. 3 (b) shows a touch image 110 moving corresponding to the operation of FIG. 4 (a) shows the touch image 110 when the pressing strength is relatively small, and FIG. 4 (b) shows the touch image 110 when the pressing strength is relatively large.

(누름 강도는, 손가락 말단과 같은 사용자의 신체 일부위로 터치부(100)를 누르는 힘의 강도를 의미할 수 있다. 이하 동일하다.)(The pressing strength may mean the strength of the force of pressing the touch part 100 over a part of the user's body such as the end of the finger.

프로세서부(300)는, 이동값과 누름강도값에 의해 3차원 좌표 변화를 연산할 수 있다. The processor unit 300 can calculate the three-dimensional coordinate change by the movement value and the pushing intensity value.

여기서, 3차원 좌표는, 수평 방향으로 x축 값과 y축 값으로 형성되고, 수직 방향으로 z축 값으로 형성될 수 있다. 수평 방향은 터치부(100)의 평면에 대해 평행한 방향을 의미하고, 수직 방향은 터치부(100)의 평면에 대해 수직인 방향을 의미할 수 있다.Here, the three-dimensional coordinate may be formed as an x-axis value and a y-axis value in the horizontal direction and a z-axis value in the vertical direction. The horizontal direction means a direction parallel to the plane of the touch part 100 and the vertical direction can mean a direction perpendicular to the plane of the touch part 100. [

프로세서부(300)는, 터치이미지(110)의 중심점을 기준으로 터치이미지(110)의 x축 값과 y축 값을 연산할 수 있다.The processor unit 300 can calculate the x-axis value and the y-axis value of the touch image 110 based on the center point of the touch image 110. [

그리고, 도3에서 보는 바와 같이, 프로세서부(300)는, 터치이미지(110)의 중심점의 x축 값과 y축 값 변화에 의해 이동값을 연산할 수 있다. 3, the processor unit 300 may calculate a movement value by changing the x-axis value and the y-axis value of the center point of the touch image 110. [

터치이미지(110)의 중심점은, 터치 수행 시 하나의 픽셀로 선택될 수 있다.The center point of the touch image 110 may be selected as one pixel in touch execution.

이미지센서부(200)에 의해 인식된 터치이미지(110)는 프로세서부(300)로 전달되어 픽셀화될 수 있다.The touch image 110 recognized by the image sensor unit 200 may be transmitted to the processor unit 300 and may be pixelized.

터치이미지(110)의 중심점은, 픽셀화된 터치이미지(110)의 면적 중심에 위치한 하나의 픽셀로 선택될 수 있다. The center point of the touch image 110 may be selected as one pixel located at the center of the area of the pixelized touch image 110. [

터치가 수행되면, 프로세서부(300)는, 터치이미지(110)의 중심점 픽셀에 대한 x축 값과 y축 값을 연산하여 터치이미지(110)의 위치를 규정할 수 있다. When the touch is performed, the processor unit 300 can calculate the position of the touch image 110 by calculating the x-axis value and the y-axis value of the center pixel of the touch image 110. [

도3에서 보는 바와 같이, 터치의 수평 방향 이동으로 터치이미지(110)가 이동하면, 터치이미지(110)의 중심점도 이동하며, 터치이미지(110)의 중심점의 변화에 의한 x축 값과 y축 값의 변위량에 의해 터치이미지(110)의 이동값이 연산될 수 있다.3, when the touch image 110 moves due to the horizontal movement of the touch, the center point of the touch image 110 is also shifted, and the x-axis value due to the change of the center point of the touch image 110 and the y- The movement value of the touch image 110 can be calculated by the displacement amount of the value.

본 발명의 실시 예에서는, 터치이미지(110)의 중심점을 기준으로 터치이미지(110)의 위치 또는 이동값을 연산한다고 설명하고 있으나, 반드시 이에 한정되는 것은 아니며, 터치이미지(110) 가장 자리나 내부의 한 점을 기준으로 위치 또는 이동값을 연산하는 것과 같이 기준을 달리하여 위치 또는 이동값 연산을 수행할 수 있다.The position or the movement value of the touch image 110 is calculated based on the center point of the touch image 110. However, the present invention is not limited to this, A position or a moving value operation can be performed with a different criterion, such as calculating a position or moving value based on a point of a point.

도4에서 보는 바와 같이, 누름강도값은, 터치이미지(110)의 면적 변화에 의해 인식될 수 있다. As shown in FIG. 4, the pressing strength value can be recognized by the change in the area of the touch image 110.

그리고, 프로세서부(300)는, 누름강도값의 변화에 의해 터치이미지(110)의 중심점의 z축 값 변화를 연산할 수 있다. The processor unit 300 can calculate the z-axis value change of the center point of the touch image 110 by the change in the pressing intensity value.

도4의 (a)와 도4의 (b)에서 보는 바와 같이, 누름 강도가 작으면 터치이미지(110)의 면적이 상대적으로 작고, 누름 강도가 크면 터치이미지(110)의 면적이 상대적으로 클 수 있다. As shown in FIGS. 4A and 4B, when the pressing strength is small, the area of the touch image 110 is relatively small, and when the pressing strength is large, the area of the touch image 110 is relatively large .

이에 따라, 도4의 (a)의 터치이미지(110) 면적에서 도4의 (b)의 터치이미지(110) 면적으로 변화하면 누름강도값이 증가하여 누름 강도가 증가하는 것으로 인식되고, z축 값이 양(+)의 방향으로 이동하는 것으로 연산될 수 있다.Accordingly, when the area of the touch image 110 shown in FIG. 4A is changed to the area of the touch image 110 shown in FIG. 4B, the pressing strength value increases and the pressing strength increases. The value can be calculated by moving in the positive direction.

그리고, 도4의 (b)의 터치이미지(110) 면적에서 도4의 (a)의 터치이미지(110) 면적으로 변화하면 누름강도값이 감소하여 누름 강도가 작아지는 것으로 인식되고, z축 값이 음(-)의 방향으로 이동하는 것으로 연산될 수 있다.When the area of the touch image 110 shown in FIG. 4B is changed to the area of the touch image 110 shown in FIG. 4A, the pressing strength value decreases and the pressing strength decreases. Can be calculated by moving in the direction of negative (-).

상기의 실시 예와 반대인 경우로써 프로세서부(300)의 설정 변경에 따라, 터치이미지(110) 면적의 증가로 누름강도값이 증가하여 z축 값이 음(-)의 방향으로 이동하고, 터치이미지(110) 면적의 감소로 누름강도값이 감소하여 z축 값이 양(+)의 방향으로 이동하는 것으로 연산될 수 있다.In the opposite case to the above embodiment, as the setting of the processor unit 300 is changed, the pressing intensity value increases due to the increase of the area of the touch image 110, the z axis value moves in the negative direction, As the area of the image 110 decreases, the pressing intensity value decreases and the z-axis value moves in the positive direction.

이미지센서부(200)는, 터치가 수행되는 터치부(100)의 면에 대응되는 면의 방향에 위치할 수 있다.The image sensor unit 200 may be positioned in the direction of the surface corresponding to the surface of the touch unit 100 where the touch is performed.

이미지센서부(200)는, 터치이미지(110)만 인식하면 되므로, 해상도가 높거나 색상을 촬영할 수 있는 수단이 아닐 수도 있으며, 터치이미지(110)를 인식할 수 있는 장치라면 어떠한 것이라도 적용 가능할 수 있다.Since the image sensor unit 200 recognizes only the touch image 110, the image sensor unit 200 may not be a means for shooting a high resolution or color, and may be any device capable of recognizing the touch image 110 .

이미지센서부(200)가 이미지센서를 구비하는 경우, 이미지센서는, CCD(Charge Coupled Device) 이미지센서 또는 CMOS(Complementary Metal Oxide Semiconductor) 이미지센서일 수 있다. When the image sensor unit 200 includes an image sensor, the image sensor may be a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

본 발명의 이미지센서와 불투명 부재를 이용한 3D 터치 장치는 터치부(100)를 향해 광을 조사하도록 설치되는 조명부(400)를 더 포함할 수 있다. The 3D touch device using the image sensor and the opaque member according to the present invention may further include an illumination unit 400 installed to irradiate the light toward the touch unit 100.

조명부(400)에 구비되는 조명은, LED 조명일 수 있으며, 복수 개의 조명이 조명부(400)에 구비될 수 있다. The illumination provided in the illumination unit 400 may be an LED illumination, and a plurality of lights may be provided in the illumination unit 400.

주위 환경이 어두워 터치이미지(110)가 제대로 인식되지 않을 수 있다. 이러한 경우, 조명부(400)에서 터치부(100)를 향해 광을 조사하여 터치이미지(110)의 선명도를 증대시킬 수 있다.The touch image 110 may not be correctly recognized because the surrounding environment is dark. In this case, the sharpness of the touch image 110 can be increased by irradiating light toward the touch unit 100 from the illumination unit 400.

조명부(400)는, 터치가 수행되는 터치부(100)의 면에 대응되는 면을 향해 광을 조사할 수 있고, 터치가 수행되는 터치부(100)의 면에 광을 조사할 수도 있다.The illumination unit 400 may irradiate light toward the surface corresponding to the surface of the touch unit 100 to be touched and may irradiate the surface of the touch unit 100 to which the touch is performed.

터치부(100)는, 투과도를 변경하여 교체 가능할 수 있다.The touch unit 100 can be changed by changing the transmittance.

터치부(100)가 설치되는 3D 터치 장치가 사용되는 환경에 따라 터치부(100)의 투과도를 달리 적용될 수 있다.The transmittance of the touch part 100 may be differently applied depending on the environment in which the 3D touch device provided with the touch part 100 is used.

구체적으로, 일상의 환경보다 밝은 환경에서 지속적으로 터치 동작이 수행되는 경우, 터치부(100)에 접촉되는 사용자 신체 일부위(10) 외의 신체 부위에 의한 그림자가 터치이미지(110)로 인식될 수 있어, 일상의 환경에서 사용되는 터치부(100)보다 투과도가 작은 터치부(100)가 이용될 수 있다.Specifically, when a touch operation is continuously performed in a bright environment than in a normal environment, a shadow due to a body part other than a part of the user's body 10 contacting the touch part 100 may be recognized as a touch image 110 And the touch portion 100 having a smaller degree of transmittance than that of the touch portion 100 used in an ordinary environment can be used.

그리고, 일상의 환경보다 어두운 환경에서 지속적으로 터치 동작이 수행되는 경우, 조명부(400)에 의한 광의 조사에도 불구하고 터치이미지(110)가 제대로 인식되지 않을 수 있어, 일상의 환경에서 사용되는 터치부(100)보다 투과도가 큰 터치부(100)가 이용될 수 있다. In addition, when the touch operation is continuously performed in a darker environment than the normal environment, the touch image 110 may not be properly recognized even though the illumination unit 400 irradiates light, The touch part 100 having a higher transmittance than the touch part 100 can be used.

프로세서부(300)는, 터치이미지(110)의 인식 시간을 연산하여 클릭 이벤트를 생성할 수 있다. The processor unit 300 may generate a click event by calculating the recognition time of the touch image 110. [

사용자가 터치를 수행하면 터치이미지(110)의 인식이 시작되고, 사용자의 터치가 해제되면 터치이미지(110)의 인식이 종료될 수 있다. 이때, 터치이미지(110)의 인식 시작 시각과 터치이미지(110)의 인식 종료 시각 간 인식 시간을 연산하여, 설정된 단시간 내 인식 시간이 존재하면 프로세서부(300)가 클릭 이벤트로 처리할 수 있다.When the user performs a touch, recognition of the touch image 110 is started, and when the user's touch is released, recognition of the touch image 110 may be terminated. At this time, the recognition time between the recognition start time of the touch image 110 and the recognition end time of the touch image 110 is calculated, and if there is a preset short recognition time, the processor unit 300 can process it as a click event.

여기서, 설정된 단시간은 1초 이하일 수 있다. 단, 1초 이하로 한정되는 것은 아니다.Here, the set short time may be 1 second or less. However, it is not limited to 1 second or less.

도5는 본 발명의 실시 예에 따른 3D 터치 장치의 실시상태도이다.5 is an operational state diagram of a 3D touch device according to an embodiment of the present invention.

도5에서 보는 바와 같이, 스마트폰(20)의 카메라 장치(30)를 이용하여 본 발명의 3D 터치 장치를 구현하여 사용할 수 있다.As shown in FIG. 5, the 3D touch device of the present invention can be implemented by using the camera device 30 of the smartphone 20 and used.

이때, 스마트폰(20)의 카메라 장치(30)에서 투명한 렌즈 보호판이 불투명한 렌즈 보호판으로 교체되도록 하거나, 스마트폰(20) 카메라 렌즈 자체의 투명도를 제어하여 불투명한 렌즈에 대해 터치가 수행되게 할 수도 있다. At this time, in the camera device 30 of the smartphone 20, the transparent lens-protecting plate is replaced with an opaque lens-protecting plate, or the transparency of the camera lens itself of the smartphone 20 is controlled to perform a touch on the opaque lens It is possible.

그리고, 스마트폰(20)의 카메라 장치(30)를 이용하는 외에, 전자기기에 별도로 본 발명의 3D 터치 장치를 부착하여 사용할 수 있다. In addition to using the camera device 30 of the smartphone 20, the 3D touch device of the present invention may be separately attached to electronic devices.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is defined by the appended claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

10 : 사용자 신체 일부위
20 : 스마트폰
30 : 카메라 장치
100 : 터치부
110 : 터치이미지
200 : 이미지센서부
300 : 프로세서부
400 : 조명부
10: Part of the user's body
20: Smartphones
30: Camera device
100:
110: Touch image
200: image sensor unit
300:
400:

Claims (12)

이미지센서와 불투명 부재를 이용한 3D 터치 장치에 있어서,
광학적으로 불투명한 소재로 형성되는 부재인 터치부;
상기 터치부에 대한 사용자 신체 일부위의 접촉인 터치가 투과되는 이미지인 터치이미지를 인식하는 이미지센서부; 및
상기 터치이미지를 처리하여 상기 터치의 움직임에 대한 이동값과 누름강도값을 연산하는 프로세서부;
를 포함하고,
상기 누름강도값은, 상기 터치이미지의 면적 변화에 의해 인식되는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
A 3D touch device using an image sensor and a non-transparent member,
A touch portion that is a member formed of an optically opaque material;
An image sensor unit for recognizing a touch image, which is an image through which a touch, which is a contact on a part of the user's body, with respect to the touch unit is transmitted; And
A processor for processing the touch image to calculate a movement value and a pushing intensity value for the movement of the touch;
Lt; / RTI >
Wherein the touch intensity value is recognized by a change in the area of the touch image, and the 3D touch device using the opaque member.
청구항 1에 있어서,
상기 터치부는, 판재 또는 렌즈 형상인 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the touch unit has a plate or lens shape, and the 3D touch device using the opaque member.
청구항 1에 있어서,
상기 프로세서부는, 상기 이동값과 상기 누름강도값에 의해 3차원 좌표 변화를 연산하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the processor unit calculates a three-dimensional coordinate change based on the movement value and the pushing intensity value, and the 3D touch device using the image sensor and the opaque member.
청구항 1에 있어서,
상기 프로세서부는, 상기 터치이미지의 중심점을 기준으로 상기 터치이미지의 x축 값과 y축 값을 연산하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the processor unit calculates an x-axis value and a y-axis value of the touch image based on a center point of the touch image, and the 3D touch apparatus using the opaque member.
청구항 4에 있어서,
상기 프로세서부는, 상기 터치이미지의 중심점의 x축 값과 y축 값 변화에 의해 상기 이동값을 연산하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method of claim 4,
Wherein the processor calculates the movement value by changing the x-axis value and the y-axis value of the center point of the touch image.
청구항 4에 있어서,
상기 터치이미지의 중심점은, 상기 터치의 수행 시 하나의 픽셀로 선택되는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method of claim 4,
Wherein the center point of the touch image is selected as one pixel at the time of performing the touch, and the 3D touch device using the opaque member.
삭제delete 청구항 1에 있어서,
상기 프로세서부는, 상기 누름강도값의 변화에 의해 상기 터치이미지의 중심점의 z축 값 변화를 연산하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the processor unit calculates a z-axis value change of a center point of the touch image by a change in the pushing intensity value, and the 3D touch apparatus using the opaque member.
청구항 1에 있어서,
상기 터치부를 향해 광을 조사하도록 설치되는 조명부를 더 포함하여 이루어지는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Further comprising an illumination unit installed to irradiate light toward the touch unit. The 3D touch apparatus using the image sensor and the opaque member.
청구항 1에 있어서,
상기 터치부는, 투과도를 변경하여 교체 가능한 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the touch unit is replaceable by changing the transmittance. 3. The 3D touch device using the image sensor and the opaque member.
청구항 1에 있어서,
상기 프로세서부는, 상기 터치이미지의 인식 시간을 연산하여 클릭 이벤트를 생성하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the processor unit generates a click event by calculating a recognition time of the touch image.
청구항 1에 있어서,
상기 터치부는, 유연한 소재로 형성되는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the touch unit is formed of a flexible material. 3. The 3D touch device using the image sensor and the opaque member.
KR1020160110096A 2016-08-29 2016-08-29 3D touch divice having image sensors and opaque members KR101777733B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160110096A KR101777733B1 (en) 2016-08-29 2016-08-29 3D touch divice having image sensors and opaque members

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160110096A KR101777733B1 (en) 2016-08-29 2016-08-29 3D touch divice having image sensors and opaque members

Publications (1)

Publication Number Publication Date
KR101777733B1 true KR101777733B1 (en) 2017-09-13

Family

ID=59967493

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160110096A KR101777733B1 (en) 2016-08-29 2016-08-29 3D touch divice having image sensors and opaque members

Country Status (1)

Country Link
KR (1) KR101777733B1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190094990A (en) 2018-02-06 2019-08-14 (주)파트론 Touch sensor module and touch panel having the same
KR20190095174A (en) 2019-07-02 2019-08-14 (주)파트론 Touch sensor module and touch panel having the same
KR20190094989A (en) 2018-02-06 2019-08-14 (주)파트론 Touch sensor module and touch panel having the same
KR20190100759A (en) 2018-02-21 2019-08-29 (주)파트론 Force sensor and data compensation method thereof
KR20190116756A (en) 2018-04-05 2019-10-15 (주)파트론 Touch sensor module and touch panel having the same
KR20190116757A (en) 2018-04-05 2019-10-15 (주)파트론 Touch sensor module and touch panel having the same
KR20200000061A (en) 2018-06-22 2020-01-02 (주)파트론 Touch sensor module
KR20200020082A (en) 2018-08-16 2020-02-26 (주)파트론 Touch sensor module
KR20200065847A (en) 2018-11-30 2020-06-09 (주)파트론 Apparatus for controlling touch determination operation
KR20200097570A (en) 2019-02-08 2020-08-19 (주)파트론 Touch sensor module
KR20200105251A (en) 2019-02-28 2020-09-07 (주)파트론 Touch sensor module
KR20200137861A (en) 2019-05-31 2020-12-09 (주)파트론 Touch sensor module
KR20210004463A (en) 2019-07-04 2021-01-13 (주)파트론 Touch sensor module
KR20210029034A (en) 2019-09-05 2021-03-15 (주)파트론 Touch sensor module
KR20210064439A (en) 2019-11-01 2021-06-03 (주)파트론 Touch apparatus
KR20210105230A (en) 2020-02-18 2021-08-26 (주)파트론 Touch sensor module and electronic device using the same
KR102376665B1 (en) * 2020-09-28 2022-03-22 한국생산기술연구원 Apparatus and method for performing non-contact recognition using opaque materials

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190094990A (en) 2018-02-06 2019-08-14 (주)파트론 Touch sensor module and touch panel having the same
KR20190094989A (en) 2018-02-06 2019-08-14 (주)파트론 Touch sensor module and touch panel having the same
KR20190100759A (en) 2018-02-21 2019-08-29 (주)파트론 Force sensor and data compensation method thereof
KR20190116756A (en) 2018-04-05 2019-10-15 (주)파트론 Touch sensor module and touch panel having the same
KR20190116757A (en) 2018-04-05 2019-10-15 (주)파트론 Touch sensor module and touch panel having the same
KR20200000061A (en) 2018-06-22 2020-01-02 (주)파트론 Touch sensor module
KR20200020082A (en) 2018-08-16 2020-02-26 (주)파트론 Touch sensor module
KR20200065847A (en) 2018-11-30 2020-06-09 (주)파트론 Apparatus for controlling touch determination operation
KR20200097570A (en) 2019-02-08 2020-08-19 (주)파트론 Touch sensor module
KR20200105251A (en) 2019-02-28 2020-09-07 (주)파트론 Touch sensor module
KR20200137861A (en) 2019-05-31 2020-12-09 (주)파트론 Touch sensor module
KR20190095174A (en) 2019-07-02 2019-08-14 (주)파트론 Touch sensor module and touch panel having the same
KR20210004463A (en) 2019-07-04 2021-01-13 (주)파트론 Touch sensor module
KR20210029034A (en) 2019-09-05 2021-03-15 (주)파트론 Touch sensor module
KR20210064439A (en) 2019-11-01 2021-06-03 (주)파트론 Touch apparatus
KR20210105230A (en) 2020-02-18 2021-08-26 (주)파트론 Touch sensor module and electronic device using the same
KR102376665B1 (en) * 2020-09-28 2022-03-22 한국생산기술연구원 Apparatus and method for performing non-contact recognition using opaque materials

Similar Documents

Publication Publication Date Title
KR101777733B1 (en) 3D touch divice having image sensors and opaque members
JP6539816B2 (en) Multi-modal gesture based interactive system and method using one single sensing system
JP6270898B2 (en) Non-contact input method
US9347833B2 (en) Infrared touch and hover system using time-sequential measurements
TWI387913B (en) Optical touch device and its control method
JP2014063163A (en) Microlens array film and display device having the same
US10019115B2 (en) Method and apparatus for contactlessly detecting indicated position on reproduced image
CN106934379A (en) A kind of fingerprint identification device and fingerprint identification method, touch control display apparatus
CN103744542B (en) Hybrid pointing device
US10401969B2 (en) Apparatus and method of recognizing movement of subject
CN101776971B (en) Multi-point touch screen device and positioning method
US20210389818A1 (en) System and method for human interaction with virtual objects
US20140111478A1 (en) Optical Touch Control Apparatus
KR101382287B1 (en) Apparatus and method for recognizing touching of touch screen by infrared light
KR20130136313A (en) Touch screen system using touch pen and touch recognition metod thereof
KR102033740B1 (en) Microlens array film and display device having the same
TWI796901B (en) Handheld input device and electronic system
JP2018156535A (en) Touch pad
TWI396113B (en) Optical control device and method thereof
TWI488087B (en) Input device
CN102043539A (en) Device for detecting position of panel display and method thereof
RU2577467C1 (en) Mobile device for sensor plane
TWM579772U (en) Fingerprint identification module
JPWO2016132568A1 (en) Non-contact input device and method
US20160188027A1 (en) Optical touch display

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant