KR101714302B1 - 3차원 터치 인식 장치 및 방법 - Google Patents

3차원 터치 인식 장치 및 방법 Download PDF

Info

Publication number
KR101714302B1
KR101714302B1 KR1020160011590A KR20160011590A KR101714302B1 KR 101714302 B1 KR101714302 B1 KR 101714302B1 KR 1020160011590 A KR1020160011590 A KR 1020160011590A KR 20160011590 A KR20160011590 A KR 20160011590A KR 101714302 B1 KR101714302 B1 KR 101714302B1
Authority
KR
South Korea
Prior art keywords
touch
sensor unit
touch position
force
distance
Prior art date
Application number
KR1020160011590A
Other languages
English (en)
Inventor
사성진
오광명
박성민
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160011590A priority Critical patent/KR101714302B1/ko
Priority to US15/413,548 priority patent/US20170220170A1/en
Application granted granted Critical
Publication of KR101714302B1 publication Critical patent/KR101714302B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/0028Force sensors associated with force applying means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Abstract

본 발명은 3차원 터치 인식 장치 및 방법에 관한 것으로, 터치를 감지하는 제1센서부, 상기 제1센서부과 수직방향으로 이격되어 상기 터치를 감지할 때 외부에서 가해지는 터치 힘을 복수 개의 측정 지점에서 측정하는 제2센서부, 및 상기 제1센서부에 의해 측정된 제1터치위치와 상기 제2센서부에 의해 측정된 제2터치위치 사이의 거리를 산출하고 산출된 제1터치위치와 제2터치위치 사이의 거리의 임계치 초과여부를 확인하여 터치 입력을 인식하는 제어장치를 포함한다.

Description

3차원 터치 인식 장치 및 방법{3 DIMENSIONAL TOUCH RECOGNITION APPARATUS AND METHOD}
본 발명은 힘 센서를 이용하여 3차원 터치 입력을 인식할 수 있는 3차원 터치 인식 장치 및 방법에 관한 것이다.
터치 패널(touch panel)은 손가락이나 전자펜 등으로 디스플레이 표면이나 정해진 접촉면을 터치함으로써 간단하고 직관적으로 사용자 조작을 입력할 수 있는 사용자 인터페이스(user interface)이다. 이러한 터치 패널은 네비게이션 단말기(navigation device), 텔레매틱스 단말기(telematics terminal), PDA(Personal Digital Assistant), 랩톱 컴퓨터(laptop computer), 노트북 컴퓨터(notebook computer) 및 스마트폰(smart phone) 등의 다양한 분야에 적용되고 있다.
터치 패널은 저항막 방식(Resistive Overlay), 정전용량방식(Capacitive Overlay), 표면초음파 방식(Surface Acoustic Wave) 및 적외선 방식(Infrared Beam) 등의 터치 인식 기술을 이용한다. 기존의 터치 인식 기술은 평면에서 터치 좌표 즉, X축 좌표와 Y축 좌표를 인식하므로, 2차원 터치 인터렉션(2D touch interaction)에 제한된다.
이러한 2차원 터치 인터렉션의 한계를 극복하기 위해 힘 센서를 이용하여 터치 좌표와 함께 터치 힘을 인식하는 힘 기반 터치 인식 기술(3차원 터치 인터렉션)이 제안되고 있다. 힘 기반 터치 인식 기술에 의한 인터렉션의 확장은 수직 방향으로 작용된 수직 하중의 크기 및 수평 방향으로의 손가락과 터치 접촉면 사이의 마찰력에 의해 발생되는 시어 포스(shear force)의 크기를 바탕으로 한다.
이 중 시어 포스를 활용하는데 있어, 슬라이딩(sliding)과 시어 포스 입력 방식의 제스쳐 및 입력에 따른 터치 좌표 이동의 유사성으로 인해 힘 기반 터치 인식 기술에서 두 개의 다른 입력을 구분하는 것이 매우 중요하다. 이를 구분하기 위한 기존 방식은 슬라이딩에 의한 터치 좌표 이동과 시어 포스에 따른 터치 좌표 이동을 단순 좌표 이동 시간 기준으로 구분하는 것으로 터치 입력에 대한 인식 오류가 발생할 가능성이 높다.
US 5038142 A US 2013/0342501 A1
Chris Harrison, Scott E. Hudson. Using Shear as a Supplemental Two-Dimensional Input Channel for Rich Touchscreen Interaction. In Proc. CHI '12. Pages 3149-3152. Seongkook Heo, Geehyuk Lee. Indirect Shear Force Estimation for Multi-Point Shear Force Operations. Proceedings of the SIGCHI Conference. 2013. Pages 2835-2836.
본 발명은 이상과 같은 종래기술의 문제점을 해결하기 위하여 안출된 것으로, 터치 센서와 힘 센서의 이격 구조에 의해 발생되는 시어 포스(shear force) 이벤트를 정확하게 인식할 수 있는 3차원 터치 인식 장치 및 방법을 제공하고자 한다.
상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 3차원 터치 인식 장치는 터치를 감지하는 제1센서부, 상기 제1센서부과 수직방향으로 이격되어 상기 터치를 감지할 때 외부에서 가해지는 터치 힘을 복수 개의 측정 지점에서 측정하는 제2센서부, 및 상기 제1센서부에 의해 측정된 제1터치위치와 상기 제2센서부에 의해 측정된 제2터치위치 사이의 거리를 산출하고 산출된 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하는지를 확인하여 터치 입력을 인식하는 제어장치를 포함하는 것을 특징으로 한다.
상기 제1센서부는, 터치 패드, 터치 필름 및 터치 시트 중 어느 하나의 형태로 구현되는 것을 특징으로 한다.
상기 제1센서부는, 저항막 방식, 정전용량 방식, 표면초음파 방식 및 적외선 방식 중 어느 하나의 터치 인식 기술을 이용하는 것을 특징으로 한다.
상기 제2센서부는, 상기 제1센서부의 일측방에 서로 다른 위치에 배치되는 복수 개의 힘 센서로 구성되는 것을 특징으로 한다.
상기 제어장치는, 상기 제1센서부로부터 출력되는 신호에 근거하여 상기 제1터치위치를 산출하는 제1센서 제어부, 상기 제2센서부로부터 복수 개의 힘 데이터들이 입력되면 힘 기반 터치 위치 인식 알고리즘을 이용하여 상기 제2터치위치를 산출하는 제2센서 제어부, 및 상기 제1터치위치와 제2터치위치 사이의 거리를 산출하여 상기 임계치를 초과하는지를 확인하고 확인결과에 따라 터치 입력을 구분하여 인식하는 처리부를 포함하는 것을 특징으로 한다.
상기 처리부는, 상기 복수 개의 힘 데이터들을 이용하여 상기 제2터치위치에 대한 수직하중 크기를 연산하고 연산된 수직하중 크기에 따라 상기 임계치를 설정하는 것을 특징으로 한다.
상기 처리부는, 임계치 설정 시 센서 오차를 고려하는 것을 특징으로 한다.
상기 터치 입력은, 시어 포스(shear force) 이벤트와 슬라이딩(sliding) 이벤트로 구분되는 것을 특징으로 한다.
한편, 본 발명의 일 실시예에 따른 3차원 터치 인식 방법은 수직방향으로 이격된 제1센서부 및 제2센서부를 통해 터치 및 터치 힘을 감지하는 단계, 상기 제1센서부에 의해 측정된 제1터치위치와 상기 제2센서부에 의해 측정된 제2터치위치를 산출하는 단계, 상기 제1터치위치와 제2터치위치 사이의 거리를 연산하는 단계, 상기 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하는지를 확인하는 단계, 및 상기 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하는지 여부에 따라 터치 입력을 인식하는 단계를 포함하는 것을 특징으로 한다.
상기 제1센서부는, 저항막 방식, 정전용량 방식, 표면초음파 방식 및 적외선 방식 중 어느 하나의 터치 인식 기술을 이용하는 센서로 구성되는 것을 특징으로 한다.
상기 제2센서부는, 상기 제1센서부의 일측방에 서로 다른 위치에 배치되는 복수 개의 힘 센서로 구성되는 것을 특징으로 한다.
상기 제1터치위치는, 상기 제1센서부로부터 출력되는 신호에 근거하여 산출되는 것을 특징으로 한다.
상기 제2터치위치는, 상기 제2센서부가 복수 개의 측정 지점에서 측정한 복수 개의 힘 데이터들을 입력되면 힘 기반 터치 위치 인식 알고리즘을 적용하여 산출되는 것을 특징으로 한다.
상기 터치 및 터치 힘을 감지하는 단계 이후, 상기 제2센서부로부터 출력되는 복수 개의 힘 데이터들을 이용하여 수직하중의 크기를 연산하는 단계, 및 상기 수직하중의 크기에 따라 상기 임계치를 설정하는 단계를 더 포함하는 것을 특징으로 한다.
상기 터치 입력을 인식하는 단계는, 상기 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하면, 시어 포스(shear force) 이벤트로 인식하는 것을 특징으로 한다.
상기 터치 입력을 인식하는 단계는, 상기 제1터치위치와 제2터치위치 사이의 거리가 임계치 이하이면, 슬라이딩 이벤트로 인식하는 것을 특징으로 한다.
본 발명에 따르면, 터치 센서와 힘 센서의 이격 구조를 이용하여 시어 포스(shear force) 이벤트를 정확하게 인식할 수 있다.
또한, 본 발명에 따르면, 터치 힘에 의한 수직하중 크기에 따라 사용자의 터치 입력 의도를 구분하기 위한 기준을 조정하므로, 시어 포스(shear force) 이벤트의 인식률을 향상시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 3차원 터치 인식 장치의 블록구성도.
도 2는 도 1에 도시된 터치입력장치의 구조도.
도 3 내지 도 7은 본 발명과 관련된 제2터치위치 산출방식을 설명하기 위한 도면.
도 8은 본 발명과 관련된 임계치 설정을 설명하기 위한 도면.
도 9는 본 발명의 일 실시예에 따른 3차원 터치 인식 방법을 도시한 흐름도.
도 10은 본 발명에 따른 시어 포스 이벤트를 통해 확대 및 축소를 수행하는 일 예를 도시한 도면.
도 11은 본 발명에 따른 시어 포스 터치를 통해 회전을 수행하는 일 예를 도시한 도면.
도 12는 본 발명에 따른 시어 포스 터치를 통해 메뉴를 선택하는 일 예를 도시한 도면.
본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.
본 발명은 힘 센서를 구비한 터치입력장치에서의 시어 포스(shear force)를 구분하여 인식할 수 있도록 하는 3차원 터치 인식 기술에 관한 것이다.
본 명세서에서 시어 포스는 터치면에서 수평방향으로 작용하는 힘으로, 마찰력(friction force)이라고도 한다. 터치입력장치에서의 시어 포스는 정지 마찰력(static shear force)과 운동 마찰력(kinetic shear force)으로 구분된다. 본 발명은 정지 마찰력에 의한 전위(dislocation)과 운동 마찰력에 의한 슬라이딩(sliding)을 구분하여 인식하는 3차원 터치 인식 기술을 제공한다.
도 1은 본 발명의 일 실시예에 따른 3차원 터치 인식 장치를 도시한 블록구성도이다.
도 1에 도시된 바와 같이, 3차원 터치 인식 장치는 터치입력장치(100), 제어장치(200) 및 출력장치(300)를 포함한다.
터치입력장치(100)는 터치를 감지하는 제1센서부(110)와 터치 힘을 측정하는 제2센서부(120)를 포함한다. 여기서, 터치 힘은 터치의 입력에 의해 가해지는 외력을 의미한다.
제1센서부(110)는 손가락 또는 스타일러스(stylus) 등의 객체에 의한 터치를 감지한다. 제1센서부(110)는 터치 패널(touch panel), 터치 패드(touch pad), 터치 필름(touch film) 및 터치 시트(touch sheet) 등의 형태로 구현될 수 있다.
이러한 제1센서부(110)는 저항막 방식(Resistive Overlay), 정전용량방식(Capacitive Overlay), 표면초음파 방식(Surface Acoustic Wave) 및 적외선 방식(Infrared Beam) 중 어느 하나의 터치 인식 기술을 이용한다.
제2센서부(120)는 제1센서부(110)의 일측면으로부터 수직방향으로 일정 간격 이격되도록 설치된다. 제2센서부(120)는 제1센서부(110)를 통해 터치를 감지할 때 외부에서 가해지는 터치 힘을 서로 다른 복수 개의 측정 지점에서 측정한다.
제2센서부(120)는 터치 힘에 의한 변형률(strain rate)을 측정하는 스트레인 게이지(strain gauge) 등의 힘 센서로 구성된다. 즉, 제2센서부(120)는 각 측정 지점에 설치된 복수 개의 힘 센서를 통해 각 측정 지점에서의 힘 데이터를 측정한다.
제어장치(200)는 터치입력장치(100)에 입력되는 터치 입력을 인식하여 그에 대응하는 어플리케이션의 동작을 제어하는 것으로, 제1센서 제어부(210), 제2센서 제어부(220), 메모리(230) 및 처리부(240)를 포함한다.
제1센서 제어부(210)는 터치 입력이 발생한 경우 제1센서부(110)로부터 출력되는 신호에 근거하여 제1터치위치를 산출한다. 예를 들어, 제1센서 제어부(210)는 터치 입력이 감지되면 제1센서부(110)의 터치면 상에 손가락이 접촉한 접촉면적(contact area)의 중심좌표를 산출한다.
제2센서 제어부(220)는 제2센서부(120)로부터 출력되는 복수 개의 힘 데이터들을 입력 받으면 힘 기반 터치 위치 인식 알고리즘을 이용하여 제2터치위치를 산출한다. 여기서, 제2터치위치는 터치 힘에 의한 접촉면적의 중심좌표(힘의 중심좌표)를 산출한다.
메모리(230)는 힘 기반 터치 위치 인식 알고리즘, 임계치 룩업테이블(lookup table), 설정 데이터 및 입출력 데이터 등을 저장한다.
메모리(230)는 플래시 메모리(flash memory), 하드디스크(hard disk), SD 카드(Secure Digital Card), 램(Random Access Memory, RAM), 롬(Read Only Memory, ROM), 및 웹 스토리지(web storage) 등의 저장매체 중 어느 하나 이상의 저장매체로 구현될 수 있다.
처리부(240)는 제2센서 제어부(220)를 통해 측정한 복수 개의 힘 데이터들을 이용하여 수직하중의 크기를 연산한다. 처리부(240)는 수직하중의 크기 및 센서 오차 등을 고려하여 임계치를 설정한다.
처리부(240)는 제1센서 제어부(210)와 제2센서 제어부(220)로부터 출력되는 제1터치위치와 제2터치위치 사이의 거리를 산출한다. 처리부(240)는 산출한 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하는지를 확인하여 터치 입력을 구분한다. 여기서, 터치 입력은 시어 포스(shear force) 이벤트 또는 슬라이딩(sliding) 이벤트를 포함한다.
처리부(240)는 산출한 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하면 시어 포스 이벤트가 발생한 것으로 인식한다. 한편, 처리부(240)는 산출한 제1터치위치와 제2터치위치 사이의 거리가 임계치 이하이면 슬라이딩 이벤트로 인식한다.
출력장치(300)는 시각정보, 청각정보 및 촉각정보 중 적어도 하나 이상의 정보를 발생시키는 것으로, 디스플레이부(310) 및 음향 출력부(320) 등을 포함한다.
디스플레이부(310)는 3차원 터치 인식 장치의 동작에 따른 처리 과정 및 결과를 표시한다.
디스플레이부(310)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 투명디스플레이 및 헤드업 디스플레이(head-up display, HUD) 중 어느 하나 이상을 포함할 수 있다.
디스플레이부(310)는 제1센서부(110)과 상호 레이어 구조를 이루는 터치 스크린으로 구현될 수도 있다. 이 경우, 디스플레이부(310)는 출력장치 이외에 입력장치로도 사용될 수 있다.
음향 출력부(320)는 메모리(230)에 저장된 오디오 데이터를 출력한다. 음향 출력부(320)는 3차원 터치 인식 장치에서 수행되는 기능과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(320)는 리시버(receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
도 2는 도 1에 도시된 터치입력장치(100)의 구조도를 도시하고, 도 3 내지 도 7은 본 발명과 관련된 제2터치위치 산출방식을 설명하기 위한 도면이다
도 2를 참조하면, 터치입력장치(100)는 제1센서부(110), 제2센서부(120), 탄성체(130), 지지체(135) 및 연결부재(140)를 포함한다.
제1센서부(110)는 도 2에 도시된 바와 같이 평면 패드 형태로 구현될 수 있다. 본 실시예에서는 제1센서부(110)가 평면 패드 형태로 구현되는 것을 예로 들어 설명하고 있으나, 이에 한정되지 않고 곡률을 가지는 플레이트(plate) 형태로 구현될 수도 있다.
제1센서부(110)의 제1면(111)은 터치가 입력되는 터치면이다. 제1센서부(110)는 제1면(111) 상에 객체의 터치(접촉)을 감지한다.
연결부재(140)의 일단은 제1센서부(110)의 제2면(112)에 연결되고, 타단은 탄성체(130)의 일단과 연결된다. 즉, 연결부재(140)는 제1센서부(110)와 탄성체(130)을 연결한다.
탄성체(130)의 타단에는 지지체(135)와 제2센서부(120)가 배치된다. 제2센서부(120)는 제1센서부(110)의 제2면(112)으로부터 일정 이격 간격(T)만큼 이격되게 설치된다. 여기서, 이격 간격(T)은 본 발명에 의한 터치입력장치(100)가 적용되는 기기의 사양에 따라 조절될 수 있다.
탄성체(130)는 제1센서부(110)의 제1면(111)에 가해지는 터치 힘에 의해 상하방향으로 변형됨으로써 제2센서부(120)로 터치 힘을 전달할 수 있다.
지지체(135)는 탄성체(130)를 지지하며 베이스 플레이트(base plate)(115)에 연결한다.
이하, 상기한 구조를 가지는 터치입력장치(100)에서 시어 포스 발생 메커니즘 및 제2터치위치 연산방법을 설명한다. 여기서는 도 2에 도시된 바와 같이 제1센서부(110)의 하부에 2개의 힘 센서(120)가 A 지점 및 B 지점에 각각 설치된 경우를 예로 들어 설명한다.
도 2와 같이, 사용자의 손가락 또는 스타일러스 등의 객체가 제1센서부(110)의 제1저면(111) 상의 일 지점에 힘을 가하며 접촉(터치)하는 경우, 제1센서 제어부(210)는 객체가 제1면(111) 상에 접촉할 때 제1센서부(110)에 의해 측정된 데이터에 근거하여 객체가 터치한 지점을 제1터치위치(P1)로 산출한다.
도 2에서와 같이 제1터치위치(P1) 상의 터치 입력 시 가해지는 힘이 제1저면(111)에 수직한 방향으로 작용하지 않는 경우, 수평 성분의 시어 포스(S)가 발생한다. 이로 인해, 제2센서 제어부(220)는 제1터치위치(P1)로부터 시어 포스가 작용한 방향으로 일정 거리(D) 옮겨진 제2터치위치(P2)를 터치위치로 산출한다. 여기서, 제2센서 제어부(220)는 모멘트 방정식(moment equation)을 이용하여 제2터치위치 (P2)의 좌표를 산출할 수 있다.
이와 같이, 시어 포스(S) 발생 시 제1센서부(110)에 의해 측정되는 터치위치(P1)와 제2센서부(120)에 의해 측정되는 터치위치(P2)는 서로 다르다. 본 발명에서는 제1센서부(110)에 의해 측정된 터치위치(P1)와 제2센서부(120)에 의해 측정된 터치위치(P2)의 오차를 거리(D)라 한다. 다시 말해서, 거리(D)는 제1터치위치(P1)와 제2터치위치(P2) 사이의 거리로, A 지점(기준)과 제1터치위치(P1) 사이의 거리(D1)과 A 지점과 제2터치위치(P2) 사이의 거리 (D2)간의 차이이다.
한편, 도 3 내지 도 7을 참조하여 A 지점과 제2터치위치(P2) 사이의 거리(D2)를 산출하는 방식을 설명한다.
도 3은 제1터치위치(P1)에 수직하중(Fy)만이 인가된 경우를 가정한 상태에서의 제1센서부(110) 및 제2센서부(120)에 작용하는 힘의 관계를 나타낸 자유물체도(free body diagram)이다.
도 3에 도시된 바와 같이, 제1터치위치(P1)에 인가되는 수직하중(Fy)에 의해 일측의 제2센서부(120)가 고정된 A지점에는 수직반력(Ry1)이 작용하고, 타측의 제2센서부(120)가 고정된 B지점에는 수직반력(Ry2)이 각각 작용할 수 있다. 이러한 수직반력(Ry1, Ry2)은 좌표계의 Y축에서 양의 값을 가지도록 가정될 수 있다.
도 3에서 수평방향으로 작용하는 힘의 평형방정식을 적용하면, ∑FY = Ry1 + Ry2 - Fy = 0가 되고, 이로부터 아래의 수학식 (1)이 산출될 수 있다.
Figure 112016010059275-pat00001
그리고, 도 3에서 A지점에 대한 모멘트의 평형방정식을 적용하면, ∑MA = -D1Fy + LRy2 = 0 이 될 수 있고, 이로부터 아래의 수학식(2)가 산출될 수 있다.
Figure 112016010059275-pat00002
도 4 내지 도 7은 제1센서부(110)에 시어 포스가 발생하기 시작한 상태에서 제1센서부(110) 및 제2센서부(120)에 작용하는 힘의 평형관계를 나타낸 자유물체도이다.
도 4는 시어 포스를 발생할 정도의 힘(F)이 수직선에 대해 일정각도(θ)로 경사지게 인가되는 상태를 나타낸 자유물체도이다.
도 5는 도 4의 힘(F)을 수직하중(Fy)과 수평하중(Fx)으로 분해한 상태를 나타낸 것으로, 도 4에 대한 등가 자유물체도이다.
도 6은 도 5의 수평하중(Fx)을 D1지점에서 모멘트(M)로 등가시켜 나타낸 것으로, 도 5에 대한 등가 자유물체도이다.
도 7은 도 6의 모멘트(M)에 의해 수직하중(Fy)의 작용점이 D2지점으로 이동함을 나타낸 것으로, 도 6에 대한 등가 자유물체도이다.
도 4 내지 도 7에 도시된 바와 같이, 제1터치위치(P1)에 인가되는 수직하중(Fy) 및 수평하중(Fx)에 의해 일측의 제2센서부(120)가 고정된 A지점에는 수직반력(Ry1') 및 수평반력(Rx1')이 작용하고, 타측의 제2센서부(120)가 고정된 B지점에는 수직반력(Ry2') 및 수평반력(Rx2')이 작용할 수 있다. 여기서, 수직반력(Ry1', Ry2')은 좌표계의 Y축에서 양의 값을 가지고, 수평반력(Rx1', Rx2')은 좌표계의 X축에서 양의 값을 가지도록 가정될 수 있다.
도 5에서 A지점에 대한 모멘트의 평형방정식을 적용하면, ∑MA = -D1Fy -TFx + LRy2' = 0 이 될 수 있고, 이로부터 아래의 수학식(3)이 산출될 수 있다.
Figure 112016010059275-pat00003
도 5에서 수평방향으로 작용하는 힘의 평형방정식을 적용하면, ∑FX = Rx1' + Rx2' + Fx = 0가 될 수 있다.
도 5에서 수직방향으로 작용하는 힘의 평형방정식을 적용하면, ∑FY = Ry1' + Ry2' - Fy = 0가 되고, 이에 상술한 수학식(3)을 대입하면 아래의 수학식 (4)가 산출될 수 있다.
Figure 112016010059275-pat00004
한편, 상술한 수학식(4)에 수학식(1)을 대입하면 아래의 수학식(5)가 산출될 수 있다.
Figure 112016010059275-pat00005
그리고, 수학식(3)에 수학식(2)를 대입하면 아래의 수학식(6)이 산출될 수 있다.
Figure 112016010059275-pat00006
상술한 수학식(5) 및 수학식(6)으로부터, 수직하중(Fy)과 수평하중(Fx)이 함께 인가되는 경우는 수직하중(Fy)만이 인가된 경우와 비교하여 그 수평하중(Fx) 및 상하 이격간격(T)에 의한 모멘트의 영향으로 인해 그 수직반력(Ry1', Ry2')이 증가 또는 감소함을 알 수 있다.
그리고, 도 7에서 A지점에 대한 모멘트의 평형방정식을 적용하면, ∑MA = -D2Fy + LRy2' = 0 이 될 수 있고, 이에 Fy = Ry1' + Ry2'를 대입하면 아래의 수학식(7)이 산출될 수 있다.
Figure 112016010059275-pat00007
여기서, 수직반력(Ry1', Ry2')는 제2센서부(120)에 의해 측정될 수 있고, L은 공지된 값이므로, D2가 용이하게 산출할 수 있다.
그리고, 수학식(7)에 수학식(3) 및 수학식(2)를 대입하면 아래의 수학식(8)이 산출될 수 있다.
Figure 112016010059275-pat00008
이러한 수학식(8)로부터 시어 포스에 의해 변화된 제2터치위치(P2)의 수평거리(D2)는 제1센서부(110)에 가해지는 최초 터치인 제1터치위치(D1)와, 제1센서부(110) 및 제2센서부(120) 사이의 상하 이격간격(T)와, 터치 시에 가해지는 힘의 경사각(θ) 등에 영향을 받음을 알 수 있다.
상술한 바와 같은 힘의 평형방정식 및 제2센서부(120)에 의해 측정된 수직반력(Ry1', Ry2')을 통해 D2이 산출되면, D2와 D1의 차이값이 시어 포스(S)에 의한 '제1터치위치(P1)와 제2터치위치(P2) 사이의 거리(D= D2 -D1)'로 연산될 수 있다.
또한, 수학식(7) 및 수학식(8)로부터 알 수 있듯이, 상술한 거리(D)는 제1센서부(110) 및 제2센서부(120)의 상하 이격간격(T)을 변수로 하는 함수임을 알 수 있다.
그리고, 상술한 거리(D) 및 각종 오차를 변수로 하는 임계치(threshold) 함수를 판단기준으로 하여 시어 포스(S) 및 슬라이드를 판단될 수 있다. 예컨대, 산출된 거리(D)가 상술한 임계치 함수 보다 더 클 경우에는 시어 포스로 인식하고, 산출된 거리(D)가 상술한 임계치 함수 보다 작을 경우에는 슬라이드로 인식할 수 있다.
이와 같이, 본 발명은 제1센서부(110)와 제2센서부(120)가 상하방향으로 이격됨에 따라, 제1센서부(110)에 대한 터치 시에 시어 포스의 발생이 용이할 뿐만 아니라 제2센서부(120)에 의해 측정된 힘을 이용하여 시어 포스에 의한 이격거리를 정밀하게 연산할 수 있으므로, 시어 포스에 대한 정밀한 인식을 용이하게 할 수 있다.
도 8은 본 발명과 관련된 임계치 설정을 설명하기 위한 도면이다.
도 8에 도시된 바와 같이, 처리부(240)는 수직하중 크기에 따라 임계치(R)을 변경하여 설정한다. 여기서, 임계치(R)는 사용자의 터치 입력 의도를 판단하는 기준이 된다.
처리부(240)는 제2센서부(120)에 의해 제2터치위치로 P2가 측정되면, 제1터치위치(기준위치) P1으로부터 제2터치위치 P2까지의 거리를 산출하여 임계치(R) 초과여부를 확인한다. 처리부(240)는 산출한 제1터치위치 P1와 제2터치위치 P2 사이의 거리가 임계치(R) 이하이면 슬라이딩 이벤트가 발생한 것으로 인식한다.
한편, 처리부(240)는 제2센서부(120)에 의해 제2터치위치로 P3가 측정되면, 제1터치위치 P1으로부터 제2터치위치 P3까지의 거리를 산출한다. 처리부(240)는 산출한 제1터치위치 P1와 제2터치위치 P3 사이의 거리가 임계치(R)를 초과하면 시어 포스 이벤트로 인식한다.
도 9는 본 발명의 일 실시예에 따른 3차원 터치 인식 방법을 도시한 흐름도이다.
먼저, 제어장치(200)는 제1센서부(110)와 제2센서부(120)를 통해 터치 및 터치 힘을 센싱한다(S110). 제1센서부(110)는 터치면(111)에 터치 입력이 발생하면 그에 대응하는 신호를 출력한다. 그리고, 제2센서부(120)는 터치 힘에 의해 가해지는 힘 데이터를 복수의 측정지점에서 측정한다.
제어장치(200)는 제1센서부(110)에 의해 측정된 제1터치위치와 제2센서부(120)에 의해 측정된 제2터치위치를 산출한다(S120). 여기서, 제1센서 제어부(210)는 제1센서부(110)의 터치면에 터치 입력이 감지되면 손가락이 접촉한 접촉영역의 중심좌표를 제1터치위치로 연산한다. 그리고, 제2센서 제어부(220)는 제2센서부(120)로부터 복수의 힘 데이터들을 입력 받으면 힘 기반 터치 위치 인식 알고리즘을 이용하여 제2터치위치를 산출한다.
제어장치(200)는 산출된 제1터치위치와 제2터치위치 사이의 거리를 산출한다(S130). 다시 말해서, 제어장치(200)는 제1센서부(110)에 의해 측정된 제1터치위치와 제2센서부(120)를 통해 측정된 제2터치위치 사이의 차이를 산출한다.
제어장치(200)는 제1터치위치 및 제2터치위치를 연산하며 제2센서부(120)에 의해 측정된 복수의 힘 데이터들을 이용하여 수직하중의 크기를 연산한다(S125). 이때, 수직하중의 크기는 제2센서부(120)로부터 출력되는 복수의 힘 데이터들의 합이다.
이어서, 제어장치(200)는 연산된 수직하중 크기 및 센서 오차 등을 고려하여 임계치를 설정한다(S135). 여기서, 임계치는 사용자의 터치 입력 의도를 판단하기 위한 기준이다.
제어장치(200)는 산출한 제1터치위치와 제2터치위치 사이의 거리가 설정된 임계치를 초과하는지를 확인한다(S140).
제어장치(200)는 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하면 시어 포스 이벤트로 인식한다(S150). 즉, 제어장치(200)는 사용자에 의해 시어 포스 터치가 입력된 것으로 인식한다.
한편, 제어장치(200)는 제1터치위치와 제2터치위치 사이의 거리가 임계치 이하이면 슬라이딩 이벤트로 인식한다(S160). 예컨대, 제어장치(200)는 플릭킹(flicking)과 같은 터치 입력이 발생한 것으로 인식한다.
도 10은 본 발명에 따른 시어 포스 이벤트를 통해 확대 및 축소를 수행하는 일 예를 도시한 도면이다.
도 10에 도시된 바와 같이, 사용자가 디스플레이 화면 상에 표시되는 특정 객체를 터치한 상태(a)에서 우측 하방으로 일정 힘을 가하면, 제어장치(200)는 시어 포스를 인식하여 터치된 객체를 우측 하방으로 확대한다(b). 제어장치(200)는 터치 힘이 가해지는 동안 해당 방향으로 터치된 객체의 크기를 일정 비율로 증가시킨다.
한편, 제어장치(200)는 좌측 상방으로의 시어 포스 터치가 감지되면 시어 포스가 가해지는 방향으로 터치된 객체의 크기를 축소한다(c).
도 11은 본 발명에 따른 시어 포스 터치를 통해 회전을 수행하는 일 예를 도시한다.
도 11에 도시된 바와 같이, 사용자가 화면 상에 손가락을 터치한 상태(a)에서 일정 힘을 가하며 시계방향으로 회전을 하면, 제어장치(200)는 시어 포스가 가해지는 힘의 방향을 산출한다. 제어장치(200)는 시어 포스가 가해지는 힘의 방향을 따라 사용자의 손가락에 의해 터치된 객체를 회전시킨다(b).
도 12는 본 발명에 따른 시어 포스 터치를 통해 메뉴를 선택하는 일 예를 도시한다.
도 12와 같이, 사용자가 디스플레이부(310)에 표시되는 객체를 터치한 상태에서 일 방향으로 시어 포스를 일정 시간 이상 가하면 제어장치(200)는 터치 위치를 기준으로 메뉴를 표시한다.
제어장치(200)는 표시되는 메뉴 중 어느 하나의 항목이 위치하는 방향으로 시어 포스를 변경하면 해당 항목을 선택한다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.
100: 터치입력장치
110: 제1센서부
120: 제2센서부
200: 제어기
210: 제1센서 제어부
220: 제2센서 제어부
230: 메모리
240: 처리부
300: 출력장치
310: 디스플레이부
320: 음향 출력부

Claims (16)

  1. 터치를 감지하는 제1센서부,
    상기 제1센서부과 수직방향으로 이격되어 상기 터치를 감지할 때 외부에서 가해지는 터치 힘을 복수 개의 측정 지점에서 측정하는 제2센서부, 및
    상기 제1센서부에 의해 측정된 제1터치위치와 상기 제2센서부에 의해 측정된 제2터치위치 사이의 거리를 산출하고 산출된 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하는지를 확인하여 터치 입력을 인식하는 제어장치를 포함하되,
    상기 제어장치는 상기 제2센서부로부터 입력되는 복수 개의 힘 데이터들을 이용하여 상기 제2터치위치에 대한 수직하중 크기를 연산하고 연산된 수직하중 크기에 따라 상기 임계치를 설정하는 것을 특징으로 하는 3차원 터치 인식 장치.
  2. 제1항에 있어서,
    상기 제1센서부는,
    터치 패드, 터치 필름 및 터치 시트 중 어느 하나의 형태로 구현되는 것을 특징으로 하는 3차원 터치 인식 장치.
  3. 제1항에 있어서,
    상기 제1센서부는,
    저항막 방식, 정전용량 방식, 표면초음파 방식 및 적외선 방식 중 어느 하나의 터치 인식 기술을 이용하는 것을 특징으로 하는 3차원 터치 인식 장치.
  4. 제1항에 있어서,
    상기 제2센서부는,
    상기 제1센서부의 일측방에 서로 다른 위치에 배치되는 복수 개의 힘 센서로 구성되는 것을 특징으로 하는 3차원 터치 인식 장치.
  5. 제1항에 있어서,
    상기 제어장치는,
    상기 제1센서부로부터 출력되는 신호에 근거하여 상기 제1터치위치를 산출하는 제1센서 제어부,
    상기 제2센서부로부터 복수 개의 힘 데이터들이 입력되면 힘 기반 터치 위치 인식 알고리즘을 이용하여 상기 제2터치위치를 산출하는 제2센서 제어부, 및
    상기 제1터치위치와 제2터치위치 사이의 거리를 산출하여 상기 임계치를 초과하는지를 확인하고 확인결과에 따라 터치 입력을 구분하여 인식하는 처리부를 포함하는 것을 특징으로 하는 3차원 터치 인식 장치.
  6. 삭제
  7. 제5항에 있어서,
    상기 처리부는,
    임계치 설정 시 상기 제2센서부의 센서 오차를 고려하는 것을 특징으로 하는 3차원 터치 인식 장치.
  8. 제1항에 있어서,
    상기 터치 입력은,
    시어 포스(shear force) 이벤트와 슬라이딩(sliding) 이벤트로 구분되는 것을 특징으로 하는 3차원 터치 인식 장치.
  9. 수직방향으로 이격된 제1센서부 및 제2센서부를 통해 터치 및 터치 힘을 감지하는 단계,
    상기 제2센서부로부터 출력되는 복수 개의 힘 데이터들을 이용하여 수직하중의 크기를 연산하는 단계,
    상기 수직하중의 크기에 따라 임계치를 설정하는 단계,
    상기 제1센서부에 의해 측정된 제1터치위치와 상기 제2센서부에 의해 측정된 제2터치위치를 산출하는 단계,
    상기 제1터치위치와 제2터치위치 사이의 거리를 연산하는 단계,
    상기 제1터치위치와 제2터치위치 사이의 거리가 상기 임계치를 초과하는지를 확인하는 단계, 및
    상기 제1터치위치와 제2터치위치 사이의 거리가 상기 임계치를 초과하는지 여부에 따라 터치 입력을 인식하는 단계를 포함하는 것을 특징으로 하는 3차원 터치 인식 방법.
  10. 제9항에 있어서,
    상기 제1센서부는,
    저항막 방식, 정전용량 방식, 표면초음파 방식 및 적외선 방식 중 어느 하나의 터치 인식 기술을 이용하는 센서로 구성되는 것을 특징으로 하는 3차원 터치 인식 방법.
  11. 제9항에 있어서,
    상기 제2센서부는,
    상기 제1센서부의 일측방에 서로 다른 위치에 배치되는 복수 개의 힘 센서로 구성되는 것을 특징으로 하는 3차원 터치 인식 방법.
  12. 제9항에 있어서,
    상기 제1터치위치는,
    상기 제1센서부로부터 출력되는 신호에 근거하여 산출되는 것을 특징으로 하는 3차원 터치 인식 방법.
  13. 제9항에 있어서,
    상기 제2터치위치는,
    상기 제2센서부가 복수 개의 측정 지점에서 측정한 복수 개의 힘 데이터들을 입력되면 힘 기반 터치 위치 인식 알고리즘을 적용하여 산출되는 것을 특징으로 하는 3차원 터치 인식 방법.
  14. 삭제
  15. 제9항에 있어서,
    상기 터치 입력을 인식하는 단계는,
    상기 제1터치위치와 제2터치위치 사이의 거리가 임계치를 초과하면, 시어 포스(shear force) 이벤트로 인식하는 것을 특징으로 하는 3차원 터치 인식 방법.
  16. 제9항에 있어서,
    상기 터치 입력을 인식하는 단계는,
    상기 제1터치위치와 제2터치위치 사이의 거리가 임계치 이하이면, 슬라이딩 이벤트로 인식하는 것을 특징으로 하는 3차원 터치 인식 방법.
KR1020160011590A 2016-01-29 2016-01-29 3차원 터치 인식 장치 및 방법 KR101714302B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160011590A KR101714302B1 (ko) 2016-01-29 2016-01-29 3차원 터치 인식 장치 및 방법
US15/413,548 US20170220170A1 (en) 2016-01-29 2017-01-24 Three-Dimensional Touch Recognition Apparatus and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160011590A KR101714302B1 (ko) 2016-01-29 2016-01-29 3차원 터치 인식 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101714302B1 true KR101714302B1 (ko) 2017-03-08

Family

ID=58404127

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160011590A KR101714302B1 (ko) 2016-01-29 2016-01-29 3차원 터치 인식 장치 및 방법

Country Status (2)

Country Link
US (1) US20170220170A1 (ko)
KR (1) KR101714302B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102437930B1 (ko) * 2022-04-19 2022-08-30 (주) 아하 디스플레이 공정에서 비접촉 제스처를 인식하는 방법 및 그를 이용한 디스플레이 기기

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116301480A (zh) * 2017-08-01 2023-06-23 直观外科手术操作公司 用于与虚拟模型进行交互的触摸屏用户界面
JP7130988B2 (ja) * 2018-03-02 2022-09-06 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5038142A (en) 1989-03-14 1991-08-06 International Business Machines Corporation Touch sensing display screen apparatus
US5943043A (en) * 1995-11-09 1999-08-24 International Business Machines Corporation Touch panel "double-touch" input method and detection apparatus
JP2004078693A (ja) * 2002-08-20 2004-03-11 Fujitsu Ltd 視野移動操作方法
JP2007304757A (ja) * 2006-05-10 2007-11-22 Alps Electric Co Ltd 入力装置
US20130342501A1 (en) 2007-03-15 2013-12-26 Anders L. Mölne Hybrid force sensitive touch devices
JP2015099607A (ja) * 2010-11-03 2015-05-28 クアルコム,インコーポレイテッド 力をセンシングするタッチスクリーン

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8711109B2 (en) * 2008-10-10 2014-04-29 Cherif Algreatly Touch sensing technology
US8994670B2 (en) * 2011-07-21 2015-03-31 Blackberry Limited Electronic device having touch-sensitive display and method of controlling same to identify touches on the touch-sensitive display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5038142A (en) 1989-03-14 1991-08-06 International Business Machines Corporation Touch sensing display screen apparatus
US5943043A (en) * 1995-11-09 1999-08-24 International Business Machines Corporation Touch panel "double-touch" input method and detection apparatus
JP2004078693A (ja) * 2002-08-20 2004-03-11 Fujitsu Ltd 視野移動操作方法
JP2007304757A (ja) * 2006-05-10 2007-11-22 Alps Electric Co Ltd 入力装置
US20130342501A1 (en) 2007-03-15 2013-12-26 Anders L. Mölne Hybrid force sensitive touch devices
JP2015099607A (ja) * 2010-11-03 2015-05-28 クアルコム,インコーポレイテッド 力をセンシングするタッチスクリーン

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chris Harrison, Scott E. Hudson. Using Shear as a Supplemental Two-Dimensional Input Channel for Rich Touchscreen Interaction. In Proc. CHI '12. Pages 3149-3152.
Seongkook Heo, Geehyuk Lee. Indirect Shear Force Estimation for Multi-Point Shear Force Operations. Proceedings of the SIGCHI Conference. 2013. Pages 2835-2836.

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102437930B1 (ko) * 2022-04-19 2022-08-30 (주) 아하 디스플레이 공정에서 비접촉 제스처를 인식하는 방법 및 그를 이용한 디스플레이 기기
WO2023204405A1 (ko) * 2022-04-19 2023-10-26 (주)아하 디스플레이 공정에서 비접촉 제스처를 인식하는 방법 및 그를 이용한 디스플레이 기기

Also Published As

Publication number Publication date
US20170220170A1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
EP3238017B1 (en) Touch screen touch force measurement based on finger deformation speed
US10545604B2 (en) Apportionment of forces for multi-touch input devices of electronic devices
US10990237B2 (en) Method and apparatus for displaying application
US8847904B2 (en) Gesture recognition method and touch system incorporating the same
US20150268784A1 (en) Device and method for localized force sensing
EP2733591B1 (en) User interface device capable of execution of input by finger contact in plurality of modes, input operation assessment method, and program
US10296091B2 (en) Contextual pressure sensing haptic responses
CN101263443B (zh) 在触摸屏上产生显示的计算机实现的方法和装置
EP2508965B1 (en) Touch-sensitive display apparatus and method for displaying object thereof
US20100079391A1 (en) Touch panel apparatus using tactile sensor
US8743065B2 (en) Method of identifying a multi-touch rotation gesture and device using the same
JP5805890B2 (ja) タッチパネルシステム
US20140053113A1 (en) Processing user input pertaining to content movement
KR101680004B1 (ko) 터치입력장치
WO2011081882A2 (en) System and method for measuring individual force in multi-object sensing
US20120249471A1 (en) Method of identifying a multi-touch rotation gesture and device using the same
US20120249599A1 (en) Method of identifying a multi-touch scaling gesture and device using the same
KR101714302B1 (ko) 3차원 터치 인식 장치 및 방법
GB2547969A (en) Force sensing using capacitive touch surfaces
KR20140016853A (ko) 터치 감응성 디스플레이 상의 터치를 검출하는 전자 장치 및 방법
EP2241955A1 (en) Electronic touch screen device
KR101438231B1 (ko) 하이브리드 터치스크린을 구비한 단말 장치 및 그 제어방법
US10452262B2 (en) Flexible display touch calibration
KR20140077000A (ko) 터치 패널 및 이에 대한 디지타이저 펜의 위치 감지 방법
JP2013196446A (ja) 圧力算出装置、圧力算出方法、および、圧力算出プログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200227

Year of fee payment: 4