KR101777733B1 - 3D touch divice having image sensors and opaque members - Google Patents
3D touch divice having image sensors and opaque members Download PDFInfo
- Publication number
- KR101777733B1 KR101777733B1 KR1020160110096A KR20160110096A KR101777733B1 KR 101777733 B1 KR101777733 B1 KR 101777733B1 KR 1020160110096 A KR1020160110096 A KR 1020160110096A KR 20160110096 A KR20160110096 A KR 20160110096A KR 101777733 B1 KR101777733 B1 KR 101777733B1
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- image
- unit
- value
- image sensor
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Abstract
Description
본 발명은 이미지센서와 불투명 부재를 이용한 3D 터치 장치에 관한 것으로, 더욱 상세하게는, 이미지센서와 불투명 부재를 구비하여, 터치에 의해 생성되는 이미지의 수평 이동뿐만 아니라 누름에 의한 이미지 변화에 의해 수직 이동도 입력 가능하여, 터치에 의한 3차원 입력이 가능한 3D 터치 장치에 관한 것이다. The present invention relates to a 3D touch device using an image sensor and a non-transparent member, and more particularly, to a touch screen device having an image sensor and an opaque member, The present invention also relates to a 3D touch device capable of three-dimensional input by touch.
일반적으로 전자기기에서 터치에 의해 사용자의 동작을 인식하는 제품에는 터치 센서와 디스플레이 패널이 결합한 터치 패널이 사용되고 있다. 이러한 터치 패널은 휴대용 전자기기와 같은 장치에 다양하게 설치되어 있다.2. Description of the Related Art [0002] In general, a touch panel in which a touch sensor and a display panel are combined is used in a product that recognizes an operation of a user by a touch in an electronic device. Such a touch panel is variously installed in a device such as a portable electronic device.
현재 이용되고 있는 터치패널과 같은 입력장치는 간단한 조작으로 사용자의 동작에 의한 입력 정보를 생성할 수 있기는 하나, 사용량의 증가에 따라 단점도 많이 지적되고 있다. 본 명세서에 기재된 발명은 기존의 터치식 입력장치의 단점을 해결하기 위해 전혀 다른 방식의 터치식 입력장치를 제공하는데 목적이 있다. Although input devices such as a touch panel currently used can generate input information by a user's operation with a simple operation, many drawbacks are pointed out as the usage increases. SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide a touch input device of a completely different type in order to solve the disadvantages of the conventional touch input device.
대한민국 등록특허 제10-1597483호(발명의 명칭: 단일 층 터치-감지 디스플레이, 이하 종래기술 1이라 한다)에서는, 제1 방향을 따라 배치되고, 단일 층 상에 형성되며, 기판의 한 측면 상에 지지되는 전도성 재료의 복수의 패턴들; 및 상기 기판의, 상기 전도성 재료의 복수의 패턴들과 동일한 측면 상에 지지되는 상기 전도성 재료의 복수의 개별적인(distinct) 패치들 - 상기 복수의 개별적인 패치들은 실질적으로 같은 단일 층에 배치되고, 상기 복수의 개별적인 패치들의 복수의 그룹들은 상기 제1 방향과 다른 제2 방향을 따라 배치되며, 특정 그룹 내의 상기 개별적인 패치들은 복수의 전도체 트레이스(conductor trace)들 중 적어도 하나를 통해 함께 연결됨 -을 포함하고, 적어도 상기 복수의 개별적인 패치들의 섹션들은 상기 전도성 재료의 복수의 패턴들의 섹션들로부터 분리되어 있고(separated from), 겹치지 않으며(non-overlapping with), 인접함으로써(adjacent to), 실질적으로 동일 평면상의, 단일 층 어레이의 상호 정전용량 센서들을 형성하고, 상기 제1 방향을 따라 배치된 상기 전도성 재료의 복수의 패턴들은, 상기 상호 정전용량 센서들의 어레이에 대한 드라이브 라인 또는 센스 라인 중 하나로 구성되고, 상기 제2 방향을 따라 배치된 상기 복수의 개별적인 패치들의 상기 복수의 그룹들은, 상기 실질적으로 동일 평면상의, 단일 층 어레이의 상호 정전용량 센서에 대한 상기 드라이브 라인 또는 상기 센스 라인 중 다른 하나로 구성되는 터치 센서 패널이 개시되어 있다.In Korean Patent No. 10-1597483 (titled as a single-layer touch-sensitive display, hereinafter referred to as Prior Art 1), it is arranged in a first direction and formed on a single layer, A plurality of patterns of supported conductive material; And a plurality of distinct patches of the conductive material of the substrate supported on the same side of the plurality of patterns of the conductive material, the plurality of individual patches being disposed in substantially the same single layer, Wherein the plurality of groups of individual patches in a particular group are arranged along a second direction different from the first direction and the individual patches in a particular group are connected together via at least one of a plurality of conductor traces, At least the sections of the plurality of individual patches are separated from each other by a plurality of patterns of the conductive material, are non-overlapping with, adjacent to, substantially coplanar, Forming a single layer array of mutual capacitance sensors, Wherein the plurality of patterns are comprised of one of a drive line or a sense line for the array of mutual capacitive sensors and wherein the plurality of groups of the plurality of individual patches disposed along the second direction are substantially coplanar , A touch sensor panel consisting of the drive line for the mutual capacitance sensor of a single layer array or the other of the sense lines.
종래기술 1은, 전도성 재료의 복수의 패턴들, 전도성 재료의 복수의 개별적인 패치, 상호 정전용량 센서들을 포함하는 다양한 부품으로 구성되므로, 생산 공정이 복잡하고 생산 비용이 증가한다는 제1문제점을 갖는다.The
또한, 종래기술 1은, 복수 개의 다양한 부품을 이용하여 단일 층 어레이의 터치 감지 장치를 형성하므로, 터치 감지 장치의 중량 및 크기 축소에 한계가 있다는 제2문제점을 갖는다.In addition, the
그리고, 종래기술 1은, 터치에 의한 동일 평면 상의 이동을 주로 인식하도록 설계되므로, 터치에 의한 3차원 입력에는 한계가 있다는 제3문제점을 갖는다. The
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. There will be.
상기 기술적 과제를 달성하기 위하여, 본 발명의 일실시 예는, 광학적으로 불투명한 소재로 형성되는 부재인 터치부; 상기 터치부에 대한 사용자 신체 일부위의 접촉인 터치가 투과되는 이미지인 터치이미지를 인식하는 이미지센서부; 및 상기 터치이미지를 처리하여 상기 터치의 움직임에 대한 이동값과 누름강도값을 연산하는 프로세서부;를 포함하여 이루어지는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치를 제공한다. According to an aspect of the present invention, there is provided a touch sensing device comprising: a touch unit including a member formed of an optically opaque material; An image sensor unit for recognizing a touch image, which is an image through which a touch, which is a contact on a part of the user's body, with respect to the touch unit is transmitted; And a processor unit for processing the touch image to calculate a movement value and a pushing intensity value for the movement of the touch, and a 3D touch device using the image sensor and the opaque member.
본 발명의 실시 예에 있어서, 상기 터치부는, 판재 또는 렌즈 형상일 수 있다.In an embodiment of the present invention, the touch portion may be a plate or a lens.
본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 이동값과 상기 누름강도값에 의해 3차원 좌표 변화를 연산할 수 있다.In the embodiment of the present invention, the processor unit may calculate a three-dimensional coordinate change by the movement value and the pushing intensity value.
본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 터치이미지의 중심점을 기준으로 상기 터치이미지의 x축 값과 y축 값을 연산할 수 있다.In the embodiment of the present invention, the processor unit may calculate the x-axis value and the y-axis value of the touch image based on the center point of the touch image.
본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 터치이미지의 중심점의 x축 값과 y축 값 변화에 의해 상기 이동값을 연산할 수 있다.In the embodiment of the present invention, the processor may calculate the movement value by changing the x-axis value and the y-axis value of the center point of the touch image.
본 발명의 실시 예에 있어서, 상기 터치이미지의 중심점은, 상기 터치 수행 시 하나의 픽셀로 선택될 수 있다.In an embodiment of the present invention, the center point of the touch image may be selected as one pixel during the touch operation.
본 발명의 실시 예에 있어서, 상기 누름강도값은, 상기 터치이미지의 면적 변화에 의해 인식될 수 있다.In the embodiment of the present invention, the pressing intensity value can be recognized by the change in the area of the touch image.
본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 누름강도값의 변화에 의해 상기 터치이미지의 중심점의 z축 값 변화를 연산할 수 있다.In the embodiment of the present invention, the processor unit can calculate the z-axis value change of the center point of the touch image by the change of the pressing intensity value.
본 발명의 실시 예에 있어서, 상기 터치부를 향해 광을 조사하도록 설치되는 조명부를 더 포함할 수 있다.According to an embodiment of the present invention, the display device may further include an illumination unit installed to irradiate light toward the touch unit.
본 발명의 실시 예에 있어서, 상기 터치부는, 투과도를 변경하여 교체 가능할 수 있다.In an embodiment of the present invention, the touch portion may be replaceable by changing the transmittance.
본 발명의 실시 예에 있어서, 상기 프로세서부는, 상기 터치이미지의 인식 시간을 연산하여 클릭 이벤트를 생성할 수 있다.In the embodiment of the present invention, the processor unit may generate a click event by calculating a recognition time of the touch image.
본 발명의 실시 예에 있어서, 상기 터치부는, 유연한 소재로 형성될 수 있다.In an embodiment of the present invention, the touch portion may be formed of a flexible material.
본 발명은, 이미지센서와 불투명 부재를 주요 구성요소로 하여 단순하게 구성되므로, 생산 공정이 단순하고 생산 비용이 저감된다는 제1효과를 갖는다.The present invention has a first effect that the production process is simple and the production cost is reduced because the image sensor and the opaque member are simply constituted as main components.
또한, 본 발명은, 불투명 부재의 크기 등을 다양하게 조절하고 이미지센서의 종류를 변화 가능하여, 터치 감지 장치의 중량 및 크기 변화에 용이하다는 제2효과를 갖는다.In addition, the present invention has a second effect that the sizes and the like of the opaque member can be variously adjusted and the kind of the image sensor can be changed, so that it is easy to change the weight and the size of the touch sensing device.
그리고, 본 발명은, 터치에 의해 생성되는 이미지의 수평 이동뿐만 아니라 누름에 의한 이미지 변화에 의해 수직 이동도 입력 가능하여, 터치에 의한 3차원 입력이 가능하다는 제3효과를 갖는다. The present invention has the third effect that not only the horizontal movement of the image generated by the touch but also the vertical movement can be inputted by the image change due to pressing, thereby enabling the three-dimensional input by the touch.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다. It should be understood that the effects of the present invention are not limited to the above effects and include all effects that can be deduced from the detailed description of the present invention or the configuration of the invention described in the claims.
도1은 본 발명의 실시 예에 따른 3D 터치 장치의 개략도이다.
도2는 본 발명의 실시 예에 따른 3D 터치 장치의 터치이미지에 대한 모식도이다.
도3은 본 발명의 실시 예에 따른 3D 터치 장치의 터치이미지 이동에 대한 모식도이다.
도4는 본 발명의 실시 예에 따른 누름 강도의 변화에 대한 터치이미지 변화의 평면도이다.
도5는 본 발명의 실시 예에 따른 3D 터치 장치의 실시상태도이다. 1 is a schematic view of a 3D touch device according to an embodiment of the present invention.
2 is a schematic diagram of a touch image of a 3D touch device according to an embodiment of the present invention.
3 is a schematic diagram of a touch image movement of a 3D touch device according to an embodiment of the present invention.
4 is a top view of a touch image change with respect to a change in pressing strength according to an embodiment of the present invention.
5 is an operational state diagram of a 3D touch device according to an embodiment of the present invention.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시 예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다. Throughout the specification, when a part is referred to as being "connected" (connected, connected, coupled) with another part, it is not only the case where it is "directly connected" "Is included. Also, when an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
이하 첨부된 도면을 참고하여 본 발명의 실시 예를 상세히 설명하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도1은 본 발명의 실시 예에 따른 3D 터치 장치의 개략도이고, 도2는 본 발명의 실시 예에 따른 3D 터치 장치의 터치이미지(110)에 대한 모식도이다. 도2의 (a)는 사용자의 터치 동작을 나타내고, 도2의 (b)는 터치에 의해 생성되는 터치이미지(110)를 나타낸다.FIG. 1 is a schematic view of a 3D touch device according to an embodiment of the present invention, and FIG. 2 is a schematic diagram of a
도1에서 보는 바와 같이, 본 발명의 이미지센서와 불투명 부재를 이용한 3D 터치 장치는, 광학적으로 불투명한 소재로 형성되는 부재인 터치부(100); 터치부(100)에 사용자 신체 일부위(10)의 접촉인 터치가 투과되는 이미지인 터치이미지(110)를 인식하는 이미지센서부(200); 및 터치이미지(110)를 처리하여 사용자 신체 일부위(10)의 움직임에 대한 이동값과 누름강도값을 연산하는 프로세서부(300);를 포함하여 이루어질 수 있다.As shown in FIG. 1, the 3D touch device using the image sensor and the opaque member of the present invention includes a
광학적으로 불투명한 소재는, 광의 투과가 제한적이므로, 접촉되는 물체의 상이 상대적으로 선명하게 나타나는 소재를 의미할 수 있다.An optically opaque material may mean a material in which the image of the object to be contacted appears relatively clearly because the transmission of light is limited.
터치부(100)는, 판재 또는 렌즈 형상일 수 있다.The
터치부(100)는, 불투명한 유리판이나, 불투명한 아크릴판과 같은 불투명한 고분자 소재의 판재일 수 있다. 또는, 투명한 유리판이나 고분자 소재 판재에 불투명 효과를 위해 코팅을 수행한 부재일 수 있다. 여기서, 코팅은 습식코팅 또는 증착으로 수행될 수 있다.The
또한, 터치부(100)는, 렌즈 형상일 수 있으며, 볼록 렌즈 형상 또는 오목 렌즈 형상일 수 있다. In addition, the
여기서, 터치가 수행되는 터치부(100)의 면은 평면이고, 이미지센서부(200)를 향하는 터치부(100)의 면은 볼록 렌즈 또는 오목 렌즈 형상일 수 있다.Here, the surface of the
터치부(100)가 볼록 렌즈 형상인 경우, 터치이미지(110)의 크기가 실제 터치보다 더 크게 인식되어, 실제 터치의 3차원 변위보다 터치이미지(110)의 3차원 변위가 더 크게 인식될 수 있으므로, 터치부(100)가 소형으로 제작되더라도 터치이미지(110)의 인식 효율이 증대되게 할 수 있다.When the
그리고, 터치부(100)가 오목 렌즈 형상인 경우, 터치이미지(110)의 크기가 실제 터치보다 더 작게 인식되어, 실제 터치의 3차원 변위보다 터치이미지(110)의 3차원 변위가 더 작게 인식될 수 있으므로, 미세한 조정을 터치로 수행하는 경우 용이할 수 있다.When the
터치부(100)의 양면이 렌즈와 같이 곡면으로 형성될 수 있음은 물론이다.It is needless to say that both surfaces of the
본 발명의 실시 예에서는, 터치부(100)가 평면이거나 터치부(100)의 일면 또는 양면이 곡면이라고 설명하고 있으나, 반드시 이에 한정되는 것은 아니며, 터치부(100) 자체가 휘어져 곡면으로 형성될 수도 있고, 터치부(100) 자체가 휘어져 형성되는 곡면에 적합하도록 이미지센서부(200)의 이미지센서가 복수 개로 센싱 방향을 각각 달리하여 설치될 수 있다. In the embodiment of the present invention, the
또한, 터치부(100)는, 유연한 소재로 형성될 수 있다.Further, the
여기서, 터치부(100)는, 유연한 성질을 구비하기 위해 플라스틱과 같은 고분자 화합물 소재로 형성될 수 있다. Here, the
터치부(100)가 유연한 소재로 형성되는 경우, 형상이 변형되면서 이용되는 제품에 터치 인식 장치로 사용될 수 있다.When the
도3은 본 발명의 실시 예에 따른 3D 터치 장치의 터치이미지(110) 이동에 대한 모식도이고, 도4는 본 발명의 실시 예에 따른 누름 강도의 변화에 대한 터치이미지(110) 변화의 평면도이다. 도3의 (a)는 사용자가 터치 상태로 신체 일부위를 이동시키는 것을 나타내고, 도3의 (b)는 도3의 (a)의 동작에 대응하여 이동하는 터치이미지(110)를 나타낸 것이다. 그리고, 도4의 (a)는 누름 강도가 상대적으로 작은 경우 터치이미지(110)를 나타내고, 도4의 (b)는 누름 강도가 상대적으로 큰 경우 터치이미지(110)를 나타낸다.FIG. 3 is a schematic diagram of a
(누름 강도는, 손가락 말단과 같은 사용자의 신체 일부위로 터치부(100)를 누르는 힘의 강도를 의미할 수 있다. 이하 동일하다.)(The pressing strength may mean the strength of the force of pressing the
프로세서부(300)는, 이동값과 누름강도값에 의해 3차원 좌표 변화를 연산할 수 있다. The
여기서, 3차원 좌표는, 수평 방향으로 x축 값과 y축 값으로 형성되고, 수직 방향으로 z축 값으로 형성될 수 있다. 수평 방향은 터치부(100)의 평면에 대해 평행한 방향을 의미하고, 수직 방향은 터치부(100)의 평면에 대해 수직인 방향을 의미할 수 있다.Here, the three-dimensional coordinate may be formed as an x-axis value and a y-axis value in the horizontal direction and a z-axis value in the vertical direction. The horizontal direction means a direction parallel to the plane of the
프로세서부(300)는, 터치이미지(110)의 중심점을 기준으로 터치이미지(110)의 x축 값과 y축 값을 연산할 수 있다.The
그리고, 도3에서 보는 바와 같이, 프로세서부(300)는, 터치이미지(110)의 중심점의 x축 값과 y축 값 변화에 의해 이동값을 연산할 수 있다. 3, the
터치이미지(110)의 중심점은, 터치 수행 시 하나의 픽셀로 선택될 수 있다.The center point of the
이미지센서부(200)에 의해 인식된 터치이미지(110)는 프로세서부(300)로 전달되어 픽셀화될 수 있다.The
터치이미지(110)의 중심점은, 픽셀화된 터치이미지(110)의 면적 중심에 위치한 하나의 픽셀로 선택될 수 있다. The center point of the
터치가 수행되면, 프로세서부(300)는, 터치이미지(110)의 중심점 픽셀에 대한 x축 값과 y축 값을 연산하여 터치이미지(110)의 위치를 규정할 수 있다. When the touch is performed, the
도3에서 보는 바와 같이, 터치의 수평 방향 이동으로 터치이미지(110)가 이동하면, 터치이미지(110)의 중심점도 이동하며, 터치이미지(110)의 중심점의 변화에 의한 x축 값과 y축 값의 변위량에 의해 터치이미지(110)의 이동값이 연산될 수 있다.3, when the
본 발명의 실시 예에서는, 터치이미지(110)의 중심점을 기준으로 터치이미지(110)의 위치 또는 이동값을 연산한다고 설명하고 있으나, 반드시 이에 한정되는 것은 아니며, 터치이미지(110) 가장 자리나 내부의 한 점을 기준으로 위치 또는 이동값을 연산하는 것과 같이 기준을 달리하여 위치 또는 이동값 연산을 수행할 수 있다.The position or the movement value of the
도4에서 보는 바와 같이, 누름강도값은, 터치이미지(110)의 면적 변화에 의해 인식될 수 있다. As shown in FIG. 4, the pressing strength value can be recognized by the change in the area of the
그리고, 프로세서부(300)는, 누름강도값의 변화에 의해 터치이미지(110)의 중심점의 z축 값 변화를 연산할 수 있다. The
도4의 (a)와 도4의 (b)에서 보는 바와 같이, 누름 강도가 작으면 터치이미지(110)의 면적이 상대적으로 작고, 누름 강도가 크면 터치이미지(110)의 면적이 상대적으로 클 수 있다. As shown in FIGS. 4A and 4B, when the pressing strength is small, the area of the
이에 따라, 도4의 (a)의 터치이미지(110) 면적에서 도4의 (b)의 터치이미지(110) 면적으로 변화하면 누름강도값이 증가하여 누름 강도가 증가하는 것으로 인식되고, z축 값이 양(+)의 방향으로 이동하는 것으로 연산될 수 있다.Accordingly, when the area of the
그리고, 도4의 (b)의 터치이미지(110) 면적에서 도4의 (a)의 터치이미지(110) 면적으로 변화하면 누름강도값이 감소하여 누름 강도가 작아지는 것으로 인식되고, z축 값이 음(-)의 방향으로 이동하는 것으로 연산될 수 있다.When the area of the
상기의 실시 예와 반대인 경우로써 프로세서부(300)의 설정 변경에 따라, 터치이미지(110) 면적의 증가로 누름강도값이 증가하여 z축 값이 음(-)의 방향으로 이동하고, 터치이미지(110) 면적의 감소로 누름강도값이 감소하여 z축 값이 양(+)의 방향으로 이동하는 것으로 연산될 수 있다.In the opposite case to the above embodiment, as the setting of the
이미지센서부(200)는, 터치가 수행되는 터치부(100)의 면에 대응되는 면의 방향에 위치할 수 있다.The
이미지센서부(200)는, 터치이미지(110)만 인식하면 되므로, 해상도가 높거나 색상을 촬영할 수 있는 수단이 아닐 수도 있으며, 터치이미지(110)를 인식할 수 있는 장치라면 어떠한 것이라도 적용 가능할 수 있다.Since the
이미지센서부(200)가 이미지센서를 구비하는 경우, 이미지센서는, CCD(Charge Coupled Device) 이미지센서 또는 CMOS(Complementary Metal Oxide Semiconductor) 이미지센서일 수 있다. When the
본 발명의 이미지센서와 불투명 부재를 이용한 3D 터치 장치는 터치부(100)를 향해 광을 조사하도록 설치되는 조명부(400)를 더 포함할 수 있다. The 3D touch device using the image sensor and the opaque member according to the present invention may further include an
조명부(400)에 구비되는 조명은, LED 조명일 수 있으며, 복수 개의 조명이 조명부(400)에 구비될 수 있다. The illumination provided in the
주위 환경이 어두워 터치이미지(110)가 제대로 인식되지 않을 수 있다. 이러한 경우, 조명부(400)에서 터치부(100)를 향해 광을 조사하여 터치이미지(110)의 선명도를 증대시킬 수 있다.The
조명부(400)는, 터치가 수행되는 터치부(100)의 면에 대응되는 면을 향해 광을 조사할 수 있고, 터치가 수행되는 터치부(100)의 면에 광을 조사할 수도 있다.The
터치부(100)는, 투과도를 변경하여 교체 가능할 수 있다.The
터치부(100)가 설치되는 3D 터치 장치가 사용되는 환경에 따라 터치부(100)의 투과도를 달리 적용될 수 있다.The transmittance of the
구체적으로, 일상의 환경보다 밝은 환경에서 지속적으로 터치 동작이 수행되는 경우, 터치부(100)에 접촉되는 사용자 신체 일부위(10) 외의 신체 부위에 의한 그림자가 터치이미지(110)로 인식될 수 있어, 일상의 환경에서 사용되는 터치부(100)보다 투과도가 작은 터치부(100)가 이용될 수 있다.Specifically, when a touch operation is continuously performed in a bright environment than in a normal environment, a shadow due to a body part other than a part of the user's
그리고, 일상의 환경보다 어두운 환경에서 지속적으로 터치 동작이 수행되는 경우, 조명부(400)에 의한 광의 조사에도 불구하고 터치이미지(110)가 제대로 인식되지 않을 수 있어, 일상의 환경에서 사용되는 터치부(100)보다 투과도가 큰 터치부(100)가 이용될 수 있다. In addition, when the touch operation is continuously performed in a darker environment than the normal environment, the
프로세서부(300)는, 터치이미지(110)의 인식 시간을 연산하여 클릭 이벤트를 생성할 수 있다. The
사용자가 터치를 수행하면 터치이미지(110)의 인식이 시작되고, 사용자의 터치가 해제되면 터치이미지(110)의 인식이 종료될 수 있다. 이때, 터치이미지(110)의 인식 시작 시각과 터치이미지(110)의 인식 종료 시각 간 인식 시간을 연산하여, 설정된 단시간 내 인식 시간이 존재하면 프로세서부(300)가 클릭 이벤트로 처리할 수 있다.When the user performs a touch, recognition of the
여기서, 설정된 단시간은 1초 이하일 수 있다. 단, 1초 이하로 한정되는 것은 아니다.Here, the set short time may be 1 second or less. However, it is not limited to 1 second or less.
도5는 본 발명의 실시 예에 따른 3D 터치 장치의 실시상태도이다.5 is an operational state diagram of a 3D touch device according to an embodiment of the present invention.
도5에서 보는 바와 같이, 스마트폰(20)의 카메라 장치(30)를 이용하여 본 발명의 3D 터치 장치를 구현하여 사용할 수 있다.As shown in FIG. 5, the 3D touch device of the present invention can be implemented by using the
이때, 스마트폰(20)의 카메라 장치(30)에서 투명한 렌즈 보호판이 불투명한 렌즈 보호판으로 교체되도록 하거나, 스마트폰(20) 카메라 렌즈 자체의 투명도를 제어하여 불투명한 렌즈에 대해 터치가 수행되게 할 수도 있다. At this time, in the
그리고, 스마트폰(20)의 카메라 장치(30)를 이용하는 외에, 전자기기에 별도로 본 발명의 3D 터치 장치를 부착하여 사용할 수 있다. In addition to using the
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is defined by the appended claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.
10 : 사용자 신체 일부위
20 : 스마트폰
30 : 카메라 장치
100 : 터치부
110 : 터치이미지
200 : 이미지센서부
300 : 프로세서부
400 : 조명부 10: Part of the user's body
20: Smartphones
30: Camera device
100:
110: Touch image
200: image sensor unit
300:
400:
Claims (12)
광학적으로 불투명한 소재로 형성되는 부재인 터치부;
상기 터치부에 대한 사용자 신체 일부위의 접촉인 터치가 투과되는 이미지인 터치이미지를 인식하는 이미지센서부; 및
상기 터치이미지를 처리하여 상기 터치의 움직임에 대한 이동값과 누름강도값을 연산하는 프로세서부;
를 포함하고,
상기 누름강도값은, 상기 터치이미지의 면적 변화에 의해 인식되는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
A 3D touch device using an image sensor and a non-transparent member,
A touch portion that is a member formed of an optically opaque material;
An image sensor unit for recognizing a touch image, which is an image through which a touch, which is a contact on a part of the user's body, with respect to the touch unit is transmitted; And
A processor for processing the touch image to calculate a movement value and a pushing intensity value for the movement of the touch;
Lt; / RTI >
Wherein the touch intensity value is recognized by a change in the area of the touch image, and the 3D touch device using the opaque member.
상기 터치부는, 판재 또는 렌즈 형상인 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the touch unit has a plate or lens shape, and the 3D touch device using the opaque member.
상기 프로세서부는, 상기 이동값과 상기 누름강도값에 의해 3차원 좌표 변화를 연산하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the processor unit calculates a three-dimensional coordinate change based on the movement value and the pushing intensity value, and the 3D touch device using the image sensor and the opaque member.
상기 프로세서부는, 상기 터치이미지의 중심점을 기준으로 상기 터치이미지의 x축 값과 y축 값을 연산하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the processor unit calculates an x-axis value and a y-axis value of the touch image based on a center point of the touch image, and the 3D touch apparatus using the opaque member.
상기 프로세서부는, 상기 터치이미지의 중심점의 x축 값과 y축 값 변화에 의해 상기 이동값을 연산하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method of claim 4,
Wherein the processor calculates the movement value by changing the x-axis value and the y-axis value of the center point of the touch image.
상기 터치이미지의 중심점은, 상기 터치의 수행 시 하나의 픽셀로 선택되는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method of claim 4,
Wherein the center point of the touch image is selected as one pixel at the time of performing the touch, and the 3D touch device using the opaque member.
상기 프로세서부는, 상기 누름강도값의 변화에 의해 상기 터치이미지의 중심점의 z축 값 변화를 연산하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the processor unit calculates a z-axis value change of a center point of the touch image by a change in the pushing intensity value, and the 3D touch apparatus using the opaque member.
상기 터치부를 향해 광을 조사하도록 설치되는 조명부를 더 포함하여 이루어지는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Further comprising an illumination unit installed to irradiate light toward the touch unit. The 3D touch apparatus using the image sensor and the opaque member.
상기 터치부는, 투과도를 변경하여 교체 가능한 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the touch unit is replaceable by changing the transmittance. 3. The 3D touch device using the image sensor and the opaque member.
상기 프로세서부는, 상기 터치이미지의 인식 시간을 연산하여 클릭 이벤트를 생성하는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치.
The method according to claim 1,
Wherein the processor unit generates a click event by calculating a recognition time of the touch image.
상기 터치부는, 유연한 소재로 형성되는 것을 특징으로 하는 이미지센서와 불투명 부재를 이용한 3D 터치 장치. The method according to claim 1,
Wherein the touch unit is formed of a flexible material. 3. The 3D touch device using the image sensor and the opaque member.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160110096A KR101777733B1 (en) | 2016-08-29 | 2016-08-29 | 3D touch divice having image sensors and opaque members |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160110096A KR101777733B1 (en) | 2016-08-29 | 2016-08-29 | 3D touch divice having image sensors and opaque members |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101777733B1 true KR101777733B1 (en) | 2017-09-13 |
Family
ID=59967493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160110096A KR101777733B1 (en) | 2016-08-29 | 2016-08-29 | 3D touch divice having image sensors and opaque members |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101777733B1 (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190094990A (en) | 2018-02-06 | 2019-08-14 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20190095174A (en) | 2019-07-02 | 2019-08-14 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20190094989A (en) | 2018-02-06 | 2019-08-14 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20190100759A (en) | 2018-02-21 | 2019-08-29 | (주)파트론 | Force sensor and data compensation method thereof |
KR20190116756A (en) | 2018-04-05 | 2019-10-15 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20190116757A (en) | 2018-04-05 | 2019-10-15 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20200000061A (en) | 2018-06-22 | 2020-01-02 | (주)파트론 | Touch sensor module |
KR20200020082A (en) | 2018-08-16 | 2020-02-26 | (주)파트론 | Touch sensor module |
KR20200065847A (en) | 2018-11-30 | 2020-06-09 | (주)파트론 | Apparatus for controlling touch determination operation |
KR20200097570A (en) | 2019-02-08 | 2020-08-19 | (주)파트론 | Touch sensor module |
KR20200105251A (en) | 2019-02-28 | 2020-09-07 | (주)파트론 | Touch sensor module |
KR20200137861A (en) | 2019-05-31 | 2020-12-09 | (주)파트론 | Touch sensor module |
KR20210004463A (en) | 2019-07-04 | 2021-01-13 | (주)파트론 | Touch sensor module |
KR20210029034A (en) | 2019-09-05 | 2021-03-15 | (주)파트론 | Touch sensor module |
KR20210064439A (en) | 2019-11-01 | 2021-06-03 | (주)파트론 | Touch apparatus |
KR20210105230A (en) | 2020-02-18 | 2021-08-26 | (주)파트론 | Touch sensor module and electronic device using the same |
KR102376665B1 (en) * | 2020-09-28 | 2022-03-22 | 한국생산기술연구원 | Apparatus and method for performing non-contact recognition using opaque materials |
-
2016
- 2016-08-29 KR KR1020160110096A patent/KR101777733B1/en active IP Right Grant
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190094990A (en) | 2018-02-06 | 2019-08-14 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20190094989A (en) | 2018-02-06 | 2019-08-14 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20190100759A (en) | 2018-02-21 | 2019-08-29 | (주)파트론 | Force sensor and data compensation method thereof |
KR20190116756A (en) | 2018-04-05 | 2019-10-15 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20190116757A (en) | 2018-04-05 | 2019-10-15 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20200000061A (en) | 2018-06-22 | 2020-01-02 | (주)파트론 | Touch sensor module |
KR20200020082A (en) | 2018-08-16 | 2020-02-26 | (주)파트론 | Touch sensor module |
KR20200065847A (en) | 2018-11-30 | 2020-06-09 | (주)파트론 | Apparatus for controlling touch determination operation |
KR20200097570A (en) | 2019-02-08 | 2020-08-19 | (주)파트론 | Touch sensor module |
KR20200105251A (en) | 2019-02-28 | 2020-09-07 | (주)파트론 | Touch sensor module |
KR20200137861A (en) | 2019-05-31 | 2020-12-09 | (주)파트론 | Touch sensor module |
KR20190095174A (en) | 2019-07-02 | 2019-08-14 | (주)파트론 | Touch sensor module and touch panel having the same |
KR20210004463A (en) | 2019-07-04 | 2021-01-13 | (주)파트론 | Touch sensor module |
KR20210029034A (en) | 2019-09-05 | 2021-03-15 | (주)파트론 | Touch sensor module |
KR20210064439A (en) | 2019-11-01 | 2021-06-03 | (주)파트론 | Touch apparatus |
KR20210105230A (en) | 2020-02-18 | 2021-08-26 | (주)파트론 | Touch sensor module and electronic device using the same |
KR102376665B1 (en) * | 2020-09-28 | 2022-03-22 | 한국생산기술연구원 | Apparatus and method for performing non-contact recognition using opaque materials |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101777733B1 (en) | 3D touch divice having image sensors and opaque members | |
JP6539816B2 (en) | Multi-modal gesture based interactive system and method using one single sensing system | |
JP6270898B2 (en) | Non-contact input method | |
US9347833B2 (en) | Infrared touch and hover system using time-sequential measurements | |
TWI387913B (en) | Optical touch device and its control method | |
JP2014063163A (en) | Microlens array film and display device having the same | |
US10019115B2 (en) | Method and apparatus for contactlessly detecting indicated position on reproduced image | |
CN106934379A (en) | A kind of fingerprint identification device and fingerprint identification method, touch control display apparatus | |
CN103744542B (en) | Hybrid pointing device | |
US10401969B2 (en) | Apparatus and method of recognizing movement of subject | |
CN101776971B (en) | Multi-point touch screen device and positioning method | |
US20210389818A1 (en) | System and method for human interaction with virtual objects | |
US20140111478A1 (en) | Optical Touch Control Apparatus | |
KR101382287B1 (en) | Apparatus and method for recognizing touching of touch screen by infrared light | |
KR20130136313A (en) | Touch screen system using touch pen and touch recognition metod thereof | |
KR102033740B1 (en) | Microlens array film and display device having the same | |
TWI796901B (en) | Handheld input device and electronic system | |
JP2018156535A (en) | Touch pad | |
TWI396113B (en) | Optical control device and method thereof | |
TWI488087B (en) | Input device | |
CN102043539A (en) | Device for detecting position of panel display and method thereof | |
RU2577467C1 (en) | Mobile device for sensor plane | |
TWM579772U (en) | Fingerprint identification module | |
JPWO2016132568A1 (en) | Non-contact input device and method | |
US20160188027A1 (en) | Optical touch display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |