KR101811636B1 - 디스플레이 장치 및 이의 오브젝트 표시 방법 - Google Patents

디스플레이 장치 및 이의 오브젝트 표시 방법 Download PDF

Info

Publication number
KR101811636B1
KR101811636B1 KR1020110031256A KR20110031256A KR101811636B1 KR 101811636 B1 KR101811636 B1 KR 101811636B1 KR 1020110031256 A KR1020110031256 A KR 1020110031256A KR 20110031256 A KR20110031256 A KR 20110031256A KR 101811636 B1 KR101811636 B1 KR 101811636B1
Authority
KR
South Korea
Prior art keywords
touch sensing
input
touch
sensed
sensing unit
Prior art date
Application number
KR1020110031256A
Other languages
English (en)
Other versions
KR20120113511A (ko
Inventor
한영란
이희원
최경오
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110031256A priority Critical patent/KR101811636B1/ko
Priority to EP12157245.7A priority patent/EP2508965B1/en
Priority to US13/413,189 priority patent/US9007345B2/en
Priority to JP2012076766A priority patent/JP6027328B2/ja
Priority to CN201210098082.9A priority patent/CN102750028B/zh
Publication of KR20120113511A publication Critical patent/KR20120113511A/ko
Application granted granted Critical
Publication of KR101811636B1 publication Critical patent/KR101811636B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Abstract

디스플레이 장치 및 그의 오브젝트 표시 방법이 제공된다. 본 디스플레이 장치는 오브젝트를 표시하는 표시부, 제1 입력 방식에 의한 사용자 입력을 감지하는 제1 터치 센싱부, 제2 입력 방식에 의한 사용자 입력을 감지하는 제2 터치 센싱부, 제1 및 제2 터치 센싱부에서 감지된 좌표값을 산출하는 좌표 산출부, 제1 및 제2 터치 센싱부에서 동시에 사용자 입력이 감지된 경우, 제1 및 제2 터치 센싱부에서 감지된 좌표값을 비교하여, 싱글 터치 입력인지 멀티 터치 입력인지 결정하고, 상기 결정 결과에 따라 상기 오브젝트를 상기 표시부에 표시하도록 제어하는 제어부를 포함한다. 이에 의해, 다양한 방식의 터치를 감지할 수 있으며, 다양한 터치 센싱부가 동시에 터치된 경우, 멀티 터치 입력까지 지원할 수 있게 된다.

Description

디스플레이 장치 및 이의 오브젝트 표시 방법{Display apparatus and Method for displaying object thereof}
본 발명은 디스플레이 장치 및 이의 오브젝트 표시 방법에 관한 것으로, 더욱 상세하게는, 다양한 입력 방식에 의한 복수 개의 터치 센싱부를 포함하는 디스플레이 장치 및 이의 오브젝트 표시 방법에 관한 것이다.
디스플레이 장치의 입력 수단으로 다양한 터치 방식이 개발되어 왔다. 특히, 다양한 터치 방식 중에서 IR 센싱부를 포함하는 전자 펜(Digital Pen) 방식은 보다 세밀하고, 정확한 지점의 좌표 인식이 가능하여 많은 분야에서 사용되고 있다.
구체적으로, IR 센싱부를 포함하는 전자 펜 방식으로는 PDP 디스플레이 장치에서 X축 및 Y축 방행으로 스캔 방전하여 IR 광을 발생시킨 후, 전자 펜의 IR 센싱부가 해당 위치에서 발생하는 IR 광을 획득하고, 그 지점의 좌표값을 전송하는 방법(한국 특허 출원 제2009-0052606호 참조)이 있었다. 또 다른 전자 펜 방식으로는 특정 Dot Pattern이 그려진 표면을 IR 센싱부가 포함된 전자 펜으로 캡쳐하여 공간상의 좌표를 인식하고 이를 전송하는 방법이 있었다.
한편, 전자 펜 방식의 터치 패널은 IR 센싱부를 포함하는 전자 펜을 이용하기 때문에, 손가락이나 다른 물체에 의해서는 터치인식이 불가능하였다. 따라서, 디스플레이 장치는 손가락이나 다른 물체에 의한 터치인식이 가능하도록 전자 펜 방식의 터치 패널 이외에 손가락이나 다른 물체의 터치를 인식할 수 있는 다른 방식(예를 들어, 정전식, 감압식, 카메라 방식, IR 방식 등)의 터치 패널을 함께 설치하게 되었다.
그러나, 전자 펜 방식의 터치 패널과 이와는 다른 방식의 터치 패널을 동시에 사용하는 경우, 한 지점에 복수 개의 좌표값이 감지되는 문제가 발생하게 된다. 구체적으로, 사용자가 전자 펜을 터치 센싱부 표면에 사용하는 경우, 전자 펜 입력 방식의 터치 패널뿐 아니라 이와는 다른 방식의 터치 패널 역시 좌표값을 감지하게 된다. 이 경우, 사용자는 전자 펜을 이용하여 원활하게 이벤트를 수행할 수 없게 되는 문제점이 발생하게 되었다.
이러한 문제를 해결하기 위한 방법으로, 종래에는 두 터치 패널 중 하나의 터치 패널에 ON/OFF 모드를 부여하는 방법과 동시에 입력된 두 개의 좌표값 중 하나의 좌표값은 무시하고, 다른 하나의 좌표값(예를 들어, 전자 펜 방식의 터치 패널에 의한 좌표값)만을 이용하는 방법이 사용되었다. 그러나, 두 방법 모두 전자 펜 방식에 의한 입력과 전자 펜 방식 이외의 방식에 의한 입력을 동시에 인식하는 멀티 터치 입력에 대해서는 지원이 불가능하였다.
따라서, 다양한 입력 방식의 터치 센싱부가 포함된 디스플레이 장치에서 멀티 터치 입력이 지원될 수 있는 방안의 모색이 요청된다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 제1 및 제2 터치 센싱부에서 동시에 사용자 입력이 감지된 경우, 제1 및 제2 터치 센싱부에서 감지된 좌표값을 비교하여, 싱글 터치 입력인지 멀티 터치 입력인지 결정하는 디스플레이 장치 및 그의 오브젝트 표시 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 디스플레이 장치는, 오브젝트를 표시하는 표시부; 제1 입력 방식에 의한 사용자 입력을 감지하는 제1 터치 센싱부; 제2 입력 방식에 의한 사용자 입력을 감지하는 제2 터치 센싱부; 상기 1 및 제2 터치 센싱부에서 감지된 좌표값을 산출하는 좌표 산출부; 상기 제1 및 제2 터치 센싱부에서 동시에 사용자 입력이 감지된 경우, 상기 제1 및 제2 터치 센싱부에서 감지된 좌표값을 비교하여, 싱글 터치 입력인지 멀티 터치 입력인지 결정하고, 상기 결정 결과에 따라 상기 오브젝트를 상기 표시부에 표시하도록 제어하는 제어부;를 포함한다.
그리고, 상기 제어부는, 상기 제1 및 제2 터치 센싱부에서 감지된 좌표값이 기설정된 거리 미만인 경우, 싱글 터치 입력으로 결정하고, 상기 제1 및 제2 터치 센싱부에서 감지된 좌표값이 기설정된 거리 이상인 경우, 멀티 터치 입력으로 결정할 수 있다.
또한, 상기 싱글 터치 입력은, 상기 제1 터치 센싱부에 의해 감지된 좌표값만을 표시할 수 있다.
그리고, 상기 싱글 터치 입력은, 상기 제1 및 제2 터치 센싱부 중 사용자에 의해 설정된 터치 센싱부에 의해 감지된 좌표값을 표시할 수 있다.
또한, 상기 멀티 터치 입력은, 상기 제1 및 제2 터치 센싱부에 의해 감지된 좌표값을 모두 표시할 수 있다.
그리고, 상기 제어부는, 상기 제1 및 제2 터치 센싱부 중 하나에서만 사용자 입력이 감지된 경우, 감지된 터치 센싱부의 좌표값을 산출하여 상기 제어부로 출력할 수 있다.
또한, 상기 제1 입력 방식은, IR 센싱부가 포함된 전자 펜 입력 방식일 수 있다.
그리고, 상기 제2 입력 방식은, 감압식(Resistive), 카메라 방식, IR 방식, 광학식(Optical) 터치 방식 및 초음파식 터치 방식 중 하나일 수 있다.
또한, 상기 디스플레이 장치는, 전자 칠판일 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 제1 입력 방식에 의한 제1 터치 센싱부 및 제2 입력 방식에 의한 터치 센싱부를 포함하는 디스플레이 장치의 오브젝트 표시 방법은, 상기 제1 및 제2 터치 센싱부 중 적어도 하나에 의해 사용자 입력을 감지하는 단계; 상기 제1 및 제2 터치 센싱부 중 적어도 하나에 의해 감지된 사용자 입력을 통하여 좌표값을 산출하는 단계; 상기 제1 및 제2 터치 센싱부에서 동시에 사용자 입력이 감지된 경우, 상기 제1 및 제2 터치 센싱부에서 감지된 좌표값을 비교하여, 싱글 터치 입력인지 멀티 터치 입력인지 결정하는 단계; 및 상기 결정 결과에 따라 상기 오브젝트를 표시하는 단계;를 포함한다.
그리고, 상기 결정하는 단계는, 상기 제1 및 제2 터치 센싱부에서 감지된 좌표값이 기설정된 거리 미만인 경우, 싱글 터치 입력으로 결정하고, 상기 제1 및 제2 터치 센싱부에서 감지된 좌표값이 기설정된 거리 이상인 경우, 멀티 터치 입력으로 결정할 수 있다.
또한, 상기 표시하는 단계는. 상기 싱글 터치 입력으로 결정된 경우, 상기 제1 터치 센싱부에 의해 감지된 좌표값에 의해 상기 오브젝트를 표시할 수 있다.
그리고, 상기 제1 및 제2 터치 센싱부 중 하나에 의해 산출된 좌표값을 싱글 터치 입력에 의한 좌표값으로 설정하는 단계;를 더 포함하고, 상기 표시하는 단계는, 상기 싱글 터치 입력으로 결정된 경우, 상기 설정된 터치 센싱부에 의해 감지된 좌표값에 의해 상기 오브젝트를 표시할 수 있다.
또한, 상기 표시하는 단계는, 상기 멀티 터치 입력으로 결정된 경우, 상기 제1 및 제2 터치 센싱부에 의해 감지된 좌표값에 의해 상기 오브젝트를 표시할 수 있다.
그리고, 상기 제1 및 제2 터치 센싱부 중 하나에서만 사용자 입력이 감지된 경우, 감지된 터치 센싱부의 좌표값을 표시하는 단계;를 더 포함할 수 있다.
또한, 상기 제1 입력 방식은, IR 센싱부가 포함된 전자 펜 입력 방식일 수 있다.
그리고, 상기 제2 입력 방식은, 감압식(Resistive), 카메라 방식, IR 방식, 광학식(Optical) 터치 방식 및 초음파식 터치 방식 중 하나일 수 있다.
또한, 상기 디스플레이 장치는, 전자 칠판일 수 있다.
이상 설명한 바와 같이, 본 발명의 다양한 실시예에 따르면, 전자 펜뿐 아니라 손가락 또는 다른 물체를 이용하여 터치를 감지할 수 있으며, 전자 펜과 손가락 또는 다른 물체가 동시에 터치된 경우, 멀티 터치 입력까지 지원할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른, 디스플레이 장치의 블럭도를 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 전자 펜만이 입력된 경우, 좌표값을 산출하기 위한 방법을 도시한 도면,
도 3은 본 발명의 일 실시예에 따른, 전자 펜과 손가락이 동시에 입력된 경우, 좌표값을 산출하기 위한 방법을 도시한 도면,
도 4는 본 발명의 일 실시예에 따른, 손가락만이 입력된 경우, 좌표값을 산출하기 위한 방법을 도시한 도면, 그리고,
도 5는 본 발명의 일 실시예에 따른, 복수 개의 터치 패널에 의해 감지된 좌표값을 이용하여 오브젝트를 표시하는 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 더욱 상세히 설명하도록 한다. 참고로, 본 발명을 설명함에 있어서 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 일 실시예에 따른, 디스플레이 장치(100)의 블럭도를 도시한 도면이다. 도 1에 도시된 바와 같이, 디스플레이 장치(100)는 제1 터치 센싱부(110), 제2 터치 센싱부(120), 좌표 산출부(130), 제어부(140) 및 표시부(150)를 포함한다. 이때, 제1 터치 센싱부(110), 제2 터치 센싱부(120) 및 표시부(150)는 하나의 디스플레이 패널로 구성될 수 있다.
제1 터치 센싱부(110)는 IR 센싱부를 포함하는 전자 펜을 이용하는 전자 펜 방식의 터치 센싱부이다. 앞서 설명한 바와 같이, 전자 펜 방식은 패널에서 발생되는 IR 광을 전자 펜의 IR 센싱부가 감지하고, 감지된 지점을 디스플레이 장치에 전송함으로써, 감지된 지점의 좌표값을 산출하는 방식이다.
제2 터치 센싱부(120)는 전자 펜을 이용하는 전자 펜 방식 이외의 다른 방식에 의한 터치 센싱부로, 사용자의 손가락 또는 전자 펜 이외의 다른 물체를 감지할 수 있는 터치 센싱부이다. 이때, 제2 터치 센싱부(120)는 감압식(Resistive), 카메라 방식, IR 방식, 광학식(Optical) 터치 방식 및 초음파식 터치 방식 중 하나의 방식에 의한 터치 센싱부일 수 있다. 구체적으로, 감압식 터치 센싱부는 터치 스크린에 가해지는 물리적 압력에 의해 터치 스크린 내부의 저항값과 전류값의 변화가 발생하게 되고, 이를 기초로 터치된 지점의 좌표를 측정하는 방식이다. 또한, 카메라 방식은 디스플레이 장치의 모서리에 카메라를 설치하여, 터치하려고 하는 지점의 위치를 측정하는 방식이다. 또한, IR 방식은 디스플레이 모서리에 IR 발신부 및 IR 수신부를 마주보게 설치하여, 터치하려고 하는 물체가 IR 광의 수신을 방해하는 시점을 파악하여 위치를 측정하는 방식이다. 그밖에, 광학식 방식 및 초음파 방식을 이용하여, 사용자의 손가락 또는 전자 펜 이외의 다른 물체를 감지할 수 있다.
좌표 산출부(130)는 제1 및 제2 터치 센싱부(110,120) 중 적어도 하나에 의해 감지된 사용자 입력을 통하여 좌표값을 산출한다. 이때, 좌표 산출부(130)는 다양한 방식의 입력 방식에 따라 감지된 사용자 입력의 좌표값을 산출하며, 이러한 다양한 방식의 산출 방법은 공지의 기술로써 자세한 설명을 생략하기로 한다.
표시부(150)는 제어부(140)의 제어에 따라, 좌표 산출부(130)에서 산출된 좌표값에 대응되는 지점에 오브젝트를 표시한다.
제어부(140)는 좌표 산출부(130)에 의해 산출된 좌표값에 대응되는 지점에 오브젝트가 표시되도록 표시부(150)를 제어한다.
구체적으로, 제어부(140)는 제1 및 제2 터치 센싱부(110,120)에 동시에 사용자 입력이 감지되었는지 여부를 판단한다. 이때, 제1 및 제2 터치 센싱부(110,120)에서 동시에 사용자 입력이 감지된 경우, 제어부(140)는 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표값을 비교하여, 싱글 터치 입력인지 멀티 터치 입력인지 결정한다. 구체적으로, 제어부(140)는 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)에서 감지된 좌표값 간의 거리를 비교하여, 싱글 터치 입력인지 멀티 터치 입력인지 결정한다.
구체적으로, 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표값 간의 거리가 기설정된 거리 미만인 경우, 제어부(140)는 싱글 터치 입력으로 결정하고, 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표값 간의 거리가 기설정된 거리 이상인 경우, 제어부(140)는 멀티 터치 입력으로 결정한다. 이는 제1 및 제2 터치 센싱부(110,120)가 좌표값을 산출하는 방식이 다르므로, 똑같은 지점을 터치한다고 하더라도 미세한 차이가 발생하기 때문이다. 따라서, 이러한 차이를 고려하여 두 터치 센싱부에서 감지된 좌표값 간의 거리가 기설정된 거리 이하인 경우, 제어부(110)는 동일한 지점을 터치하였다고 판단하여 싱글 터치 입력으로 결정한다. 그러나, 두 터치 센싱부에서 감지된 좌표값 간의 거리가 기설정된 값 이상인 경우, 제어부(140)는 두 지점을 터치하였다고 판단하여 멀티 터치 입력으로 결정한다. 이때, 기설정된 거리는 두 터치 센싱부(110,120)에서 감지된 좌표값이 거의 동일한 점이라고 판단될 수 있을 만한 거리로써, 0.5mm 일 수 있다. 그러나, 이러한 거리는 일 실시예에 불과할 뿐 다른 값으로 설정될 수 있다.
또한, 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표값 간의 거리가 기설정된 거리 이하인 경우라도, 제어부(140)는 사용자에게 싱글 터치 입력인지 여부에 대한 확인을 구하기 위하여, "싱글 터치 입력 여부"를 결정하기 위한 UI를 생성할 수 있다. 이때, UI를 통해 "싱글 터치 입력"임을 결정한 경우, 제어부(140)는 사용자의 입력을 싱글 터치 입력으로 결정하고, "멀티 터치 입력"임을 결정한 경우, 제어부(140)는 사용자의 입력을 멀티 터치 입력으로 결정할 수 있다.
또한, 상술한 싱글 터치 입력이라 함은, 두 터치 센싱부 중 하나의 터치 센싱부에서 감지된 좌표값을 표시하는 것을 말한다. 이때, 하나의 터치 센싱부는 보다 세밀한 표현이 가능한 전자 펜 방식의 제1 터치 센싱부(140)에 우선권을 부여할 수 있다. 그러나, 이는 일 실시예에 불과할 뿐, 사용자에 의해 설정된 터치 센싱부에서 감지된 좌표값을 표시할 수 있다. 또한, 멀티 터치 입력이라 함은, 두 터치 센싱부에서 감지된 좌표값 모두를 표시하는 것이다.
그러나, 제1 및 제2 터치 센싱부(110,120) 중 하나의 터치 센싱부에서만 사용자 입력이 감지된 경우, 제어부(140)는 감지된 터치 센싱부의 좌표값을 표시한다.
이하에서는 도 2 내지 도 4를 참조하여, 제어부(140)가 좌표값을 결정하는 다양한 실시예에 대해 설명하기로 한다. 이때, 도 2 내지 도 4에 도시된 제1 터치 센싱부(110)는 IR 센싱부를 포함하는 전자 펜 방식의 터치 센싱부이며, 제2 터치 센싱부(120)는 모서리에 카메라(121,122,123,124)를 구비하는 카메라 방식의 터치 센싱부이다. 그러나 제2 터치 센싱부(120)가 카메라 방식의 터치 센싱부인 것은 일 실시예에 불과할 뿐, 감압식, IR 방식, 광학식 또는 초음파 방식의 터치 센싱부일 수 있다.
도 2는 본 발명의 일 실시예에 따른, 전자 펜(200)만이 입력된 경우, 좌표값을 산출하기 위한 방법을 도시한 도면이다. 도 2에 도시된 바와 같이, 복수의 터치 센싱부(110,120)에 전자 펜(200)을 이용하여 터치하는 경우, 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)는 동시에 전자 펜(200)을 감지하게 된다.
이때, 제어부(150)는 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)가 동시에 전자 펜(200)을 감지하였으므로, 제1 터치 센싱부(110)에서 감지한 좌표값과 제2 터치 센싱부(120)에서 감지한 좌표값 간의 거리를 비교한다. 구체적으로, 제1 터치 센싱부(110)에서 감지한 좌표값인 (x1,y1)과 제2 터치 센싱부(120)에서 감지한 좌표값인 (x2,y2)의 거리를 비교한다. 이때, 전자 펜(200)이 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)의 동일한 지점을 터치했으므로, (x1,y1)과 (x2,y2) 간의 거리는 기설정된 거리 미만이 된다. 따라서, 제어부(140)는 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)에서 감지된 좌표값이 동일한 지점을 터치한 것이라 판단하여, 우선권이 부여된 제1 터치 센싱부(110)의 값만을 표시부(150)에 표시하게 된다. 따라서, 두 터치 센싱부(110,120)가 전자 펜(200)을 모두 감지한다고 하더라도, 복수의 좌표값이 표시되는 것이 아니라, 세밀한 표현이 가능하여 우선권이 부여된 제1 터치 센싱부(110)만의 좌표값을 표시할 수 있게 된다.
도 3은 본 발명의 일 실시예에 따른, 전자 펜(200)과 손가락(300)이 동시에 입력된 경우, 좌표값을 산출하기 위한 방법을 도시한 도면이다. 도 3에 도시된 바와 같이, 복수의 터치 센싱부(110,120)에 전자 펜(200)과 손가락(300)을 이용하여 터치하는 경우, 전자 펜(200)은 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)에서 감지되며, 손가락(300)은 제2 터치 센싱부(120)에서 감지된다.
도 2에서 설명한 바와 같이, 전자 펜(200)이 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)에서 동시에 감지되더라도 제어부(150)는 두 터치 센싱부(110,120)에서 감지한 좌표값들((x3,y3), (x4,y4)) 간의 거리가 기설정된 거리 미만이므로, 제1 터치 센싱부(110)에서 감지된 좌표값만이 결정된다.
그러나, 전자 펜(200) 뿐 아니라 손가락(300)도 동시에 감지되었으므로, 제어부(200)는 제1 터치 센싱부(110)에서 감지된 전자 펜의 좌표값과 제2 터치 센싱부(120)에서 감지된 손가락 좌표값을 비교한다. 구체적으로, 제1 터치 센싱부(110)에서 감지한 전자 펜의 좌표값인 (x3,y3)과 제2 터치 센싱부(120)에서 감지한 손가락의 좌표값인 (x5,y5)의 거리를 비교한다. 이때, 전자 펜(200)이 터치한 지점과 손가락(300)이 터치한 지점이 상이한 지점이므로, (x3,y3)과 (x5,y5) 간의 거리는 기설정된 거리 이상이 된다. 따라서, 제어부(140)는 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)에서 감지된 좌표값이 상이한 지점을 터치한 것이라 판단하여, 두 터치 센싱부(110,120)에서 감지된 좌표값인 (x3,y3), (x5,y5)를 모두 표시부(150)에 표시하게 된다. 따라서, 상이한 입력 방식에 의해 동시에 터치되더라도 하나의 입력 방식만이 표시되는 것이 아니라 복수의 입력 방식을 모두 표시될 수 있는 멀티 터치 입력이 가능하게 된다.
도 4는 본 발명의 일 실시예에 따른, 손가락만이 입력된 경우, 좌표값을 산출하기 위한 방법을 도시한 도면이다. 도 4에 도시된 바와 같이, 복수의 터치 센싱부(110,120)에 손가락(300)을 이용하여 터치하는 경우, 손가락(300)은 제2 터치 센싱부(120)에 의해서만 감지된다. 이는 손가락(300)에는 IR 센싱부가 포함되어 있지 않기 때문이다.
따라서, 제어부(140)는 제2 터치 센싱부(120)에서 감지된 좌표값(x6,y6)만을 표시부(150)에 표시하게 된다.
상술한 다양한 실시예에서 살펴본 바와 같이, 복수의 입력 방식을 가지는 복수의 터치 센싱부가 포함되더라도, 디스플레이 장치(100)는 전자 펜 및 전자 펜 이외의 물체 중 하나에 의해 입력된 경우, 싱글 터치 입력이라 판단할 수 있고, 전자 펜 및 전자 펜 이외의 물체가 모두 입력된 경우, 멀티 터치 입력이라 판단할 수 있게 된다.
도 5는 본 발명의 일 실시예에 따른, 복수 개의 터치 패널에 의해 감지된 좌표값을 이용하여 오브젝트를 표시하는 방법을 설명하기 위한 흐름도이다.
우선, 디스플레이 장치(100)는 제1 및 제2 터치 센싱부(110,120) 중 적어도 하나를 감지한다(S510). 이때, 제1 터치 센싱부(110)는 IR 센싱부가 포함된 전자 펜 방식의 터치 센싱부이며, 제2 터치 센싱부(110)는 전자 펜 방식 이외의 감압식, 카메라 방식, IR 방식, 광학식 및 초음파 방식 중 하나의 방식에 의한 터치 센싱부일 수 있다.
그리고, 디스플레이 장치(100)는 제1 및 제2 터치 센싱부(110,120) 중 적어도 하나에서 감지된 사용자 입력을 통하여 좌표값을 산출한다(S520).
그 후, 디스플레이 장치(100)는 제1 및 제2 터치 센싱부(110,120)에서 동시에 사용자 입력이 감지되었는지 여부를 판단한다(S530).제1 및 제2 터치 센싱부(110,120)에서 동시에 사용자 입력이 감지되지 않은 경우(S530-N), 즉, 제1 및 제2 터치 센싱부(110,120) 중 하나의 터치 센싱부에만 사용자 입력이 감지된 경우, 디스플레이 장치(110)는 감지된 터치 센싱부에 대한 좌표값으로 오브젝트를 표시한다. 예를 들어, 손가락을 이용하여 터치 입력을 수행한 경우, 제2 터치 센싱부(120)에서만 사용자 입력이 감지되므로, 디스플레이 장치(110)는 제2 터치 센싱부에 의해 감지된 좌표값으로 오브젝트를 표시한다.
그러나, 제1 및 제2 터치 센싱부(110,120)에서 동시에 사용자 입력이 감지된 경우(S530-Y), 디스플레이 장치(100)는 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표들 간의 거리가 소정 거리 이내인지 여부를 판단한다(S550). 즉, 디스플레이 장치(100)는 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표값이 동일 지점의 좌표값인지 여부를 판단한다.
제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표들 간의 거리가 소정 거리 이내인 경우(S550-Y), 디스플레이 장치(100)는 싱글 터치 입력으로 결정한다(S580). 예를 들어, 전자 펜(200)이 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)에 동시에 감지된 경우, 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표값들의 거리는 소정 거리 이내가 된다. 따라서, 디스플레이 장치(100)는 동일 지점에 대한 터치 입력으로 인식하여, 싱글 터치 입력으로 결정한다.
이때, 싱글 터치 입력은 두 터치 센싱부 중 하나의 터치 센싱부에서 감지된 좌표값을 표시하는 입력을 말한다. 이때, 하나의 터치 센싱부는 보다 세밀한 표현이 가능한 전자 펜 방식의 제1 터치 센싱부(140)에 우선권을 부여할 수 있다. 그러나, 이는 일 실시예에 불과할 뿐, 사용자에 의해 설정된 터치 센싱부에서 감지된 좌표값을 표시할 수 있다.
싱글 터치 입력으로 결정되면, 디스플레이 장치(100)는 제1 터치 센싱부에서 감지된 좌표값으로 오브젝트를 표시한다(S590).
제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표들 간의 거리가 소정 거리 이상인 경우(S550-N), 디스플레이 장치(100)는 멀티 터치 입력으로 결정한다(S560). 예를 들어, 전자 펜(200)이 제1 터치 센싱부(110)에 감지되고, 이와 동시에 손가락이 제2 터치 센싱부(120)에 의해 감지된 경우, 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표값들의 거리는 소정 거리 이상이 된다. 따라서, 디스플레이 장치(100)는 두 터치 센싱부에 대한 터치 입력이 상이한 지점에 대한 터치 지점으로 인식하여, 멀티 터치 입력으로 결정한다.
이때, 멀티 터치 입력이라 함은 제1 및 제2 터치 센싱부(110,120)에서 감지된 좌표값 모두를 표시하는 입력을 말한다.
멀티 터치 입력으로 결정되면, 디스플레이 장치(100)는 제1 터치 센싱부(110) 및 제2 터치 센싱부(120)에서 감지된 좌표값 모두를 이용하여 오브젝트를 표시한다(S570).
상술한 바와 같은 방법을 통해, 전자 펜뿐 아니라 손가락 또는 다른 물체를 이용하여 터치를 감지할 수 있으며, 전자 펜과 손가락 또는 다른 물체가 동시에 터치된 경우, 멀티 터치 입력까지 지원할 수 있게 된다.
한편, 본 발명의 일 실시예에 따른 디스플레이 장치(100)는 대화면의 전자 칠판일 수 있다. 그러나, 이는 일 실시예에 불과할 뿐, 터치 센싱부를 이용하여 사용자 입력이 가능한 디스플레이 장치라면 본 발명의 기술적 사상의 적용이 가능하다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110: 제1 터치 센싱부 120: 제2 터치 센싱부
130: 좌표 산출부 140: 제어부
150: 디스플레이부

Claims (18)

  1. 오브젝트를 표시하는 표시부;
    제1 입력 방식에 의한 사용자 입력을 감지하는 제1 터치 센싱부;
    제2 입력 방식에 의한 사용자 입력을 감지하는 제2 터치 센싱부;
    상기 제1 및 제2 터치 센싱부에서 감지된 좌표값을 산출하는 좌표 산출부;
    상기 제1 및 제2 터치 센싱부에서 동시에 사용자 입력이 감지된 경우, 상기 제1 및 제2 터치 센싱부에 의해 감지된 좌표값 간의 거리를 판단하고,
    상기 제1 및 제2 터치 센싱부에서 감지된 좌표값 간의 거리가 기설정된 거리 미만인 경우, 상기 사용자 입력을 싱글 터치 입력으로 판단하여 상기 제1 및 제2 터치 센싱부 중 하나에 의해 감지된 좌표값에 대응되는 지점에 오브젝트를 표시하도록 상기 표시부를 제어하며,
    상기 제1 및 제2 터치 센싱부에서 감지된 좌표값 간의 거리가 상기 기설정된 거리 이상인 경우, 상기 사용자 입력을 멀티 터치 입력으로 판단하여 상기 제1 터치 센싱부에 의해 감지된 좌표값과 대응되는 지점에 오브젝트를 표시하고 상기 제2 터치 센싱부에 의해 감지된 좌표값에 대응되는 지점에 오브젝트를 표시하도록 상기 표시부를 제어하는 제어부;를 포함하는 디스플레이 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 싱글 터치 입력은,
    상기 제1 터치 센싱부에 의해 감지된 좌표값만을 표시하는 것을 특징으로 하는 디스플레이 장치.
  4. 제1항에 있어서,
    상기 싱글 터치 입력은,
    상기 제1 및 제2 터치 센싱부 중 사용자에 의해 설정된 터치 센싱부에 의해 감지된 좌표값을 표시하는 것을 특징으로 하는 디스플레이 장치.
  5. 제1항에 있어서,
    상기 멀티 터치 입력은,
    상기 제1 및 제2 터치 센싱부에 의해 감지된 좌표값을 모두 표시하는 것을 특징으로 하는 디스플레이 장치.
  6. 제1항에 있어서,
    상기 제어부는,
    상기 제1 및 제2 터치 센싱부 중 하나에서만 사용자 입력이 감지된 경우, 감지된 터치 센싱부의 좌표값을 산출하여 상기 제어부로 출력하는 것을 특징으로 하는 디스플레이 장치.
  7. 제1항에 있어서,
    상기 제1 입력 방식은,
    IR 센싱부가 포함된 전자 펜 입력 방식인 것을 특징으로 하는 디스플레이 장치
  8. 제1항에 있어서,
    상기 제2 입력 방식은,
    감압식(Resistive), 카메라 방식, IR 방식, 광학식(Optical) 터치 방식 및 초음파식 터치 방식 중 하나인 것을 특징으로 하는 디스플레이 장치.
  9. 제1항에 있어서,
    상기 디스플레이 장치는,
    전자 칠판인 것을 특징으로 하는 디스플레이 장치.
  10. 제1 입력 방식에 의한 제1 터치 센싱부 및 제2 입력 방식에 의한 제2 터치 센싱부를 포함하는 디스플레이 장치의 오브젝트 표시 방법에 있어서,
    상기 제1 및 제2 터치 센싱부 중 적어도 하나에 의해 사용자 입력을 감지하는 단계;
    상기 제1 및 제2 터치 센싱부 중 적어도 하나에 의해 감지된 사용자 입력을 통하여 좌표값을 산출하는 단계;
    상기 제1 및 제2 터치 센싱부에서 동시에 사용자 입력이 감지된 경우, 상기 제1 및 제2 터치 센싱부에서 감지된 좌표값 간의 거리를 판단하는 단계; 및
    상기 제1 및 제2 터치 센싱부에서 감지된 좌표값 간의 거리가 기설정된 거리 미만인 경우, 상기 사용자 입력을 싱글 터치 입력으로 결정하여 상기 제1 및 제2 터치 센싱부 중 하나에 의해 감지된 좌표값에 대응되는 지점에 오브젝트를 표시하고, 상기 제1 및 제2 터치 센싱부에서 감지된 좌표값 간의 거리가 상기 기설정된 거리 이상인 경우, 상기 사용자 입력을 멀티 터치 입력으로 결정하여 상기 제1 터치 센싱부에 의해 감지된 좌표값과 대응되는 지점에 오브젝트를 표시하고 상기 제2 터치 센싱부에 의해 감지된 좌표값에 대응되는 지점에 오브젝트를 표시하는 단계;를 포함하는 오브젝트 표시 방법.
  11. 삭제
  12. 제10항에 있어서,
    상기 표시하는 단계는.
    상기 싱글 터치 입력으로 결정된 경우, 상기 제1 터치 센싱부에 의해 감지된 좌표값에 의해 상기 오브젝트를 표시하는 것을 특징으로 하는 오브젝트 표시 방법.
  13. 제10항에 있어서,
    상기 제1 및 제2 터치 센싱부 중 하나에 의해 산출된 좌표값을 싱글 터치 입력에 의한 좌표값으로 설정하는 단계;를 더 포함하고,
    상기 표시하는 단계는,
    상기 싱글 터치 입력으로 결정된 경우, 상기 설정된 터치 센싱부에 의해 감지된 좌표값에 의해 상기 오브젝트를 표시하는 것을 특징으로 하는 오브젝트 표시 방법.
  14. 제10항에 있어서,
    상기 표시하는 단계는,
    상기 멀티 터치 입력으로 결정된 경우, 상기 제1 및 제2 터치 센싱부에 의해 감지된 좌표값에 의해 상기 오브젝트를 표시하는 것을 특징으로 하는 오브젝트 표시 방법.
  15. 제10항에 있어서,
    상기 제1 및 제2 터치 센싱부 중 하나에서만 사용자 입력이 감지된 경우, 감지된 터치 센싱부의 좌표값을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 오브젝트 표시 방법.
  16. 제10항에 있어서,
    상기 제1 입력 방식은,
    IR 센싱부가 포함된 전자 펜 입력 방식인 것을 특징으로 하는 오브젝트 표시 방법.
  17. 제10항에 있어서,
    상기 제2 입력 방식은,
    감압식(Resistive), 카메라 방식, IR 방식, 광학식(Optical) 터치 방식 및 초음파식 터치 방식 중 하나인 것을 특징으로 하는 오브젝트 표시 방법.
  18. 제10항에 있어서,
    상기 디스플레이 장치는,
    전자 칠판인 것을 특징으로 하는 오브젝트 표시 방법.
KR1020110031256A 2011-04-05 2011-04-05 디스플레이 장치 및 이의 오브젝트 표시 방법 KR101811636B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020110031256A KR101811636B1 (ko) 2011-04-05 2011-04-05 디스플레이 장치 및 이의 오브젝트 표시 방법
EP12157245.7A EP2508965B1 (en) 2011-04-05 2012-02-28 Touch-sensitive display apparatus and method for displaying object thereof
US13/413,189 US9007345B2 (en) 2011-04-05 2012-03-06 Method and apparatus for displaying an object
JP2012076766A JP6027328B2 (ja) 2011-04-05 2012-03-29 ディスプレイ装置及びそのオブジェクト表示方法
CN201210098082.9A CN102750028B (zh) 2011-04-05 2012-04-05 用于显示对象的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110031256A KR101811636B1 (ko) 2011-04-05 2011-04-05 디스플레이 장치 및 이의 오브젝트 표시 방법

Publications (2)

Publication Number Publication Date
KR20120113511A KR20120113511A (ko) 2012-10-15
KR101811636B1 true KR101811636B1 (ko) 2017-12-27

Family

ID=45841176

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110031256A KR101811636B1 (ko) 2011-04-05 2011-04-05 디스플레이 장치 및 이의 오브젝트 표시 방법

Country Status (5)

Country Link
US (1) US9007345B2 (ko)
EP (1) EP2508965B1 (ko)
JP (1) JP6027328B2 (ko)
KR (1) KR101811636B1 (ko)
CN (1) CN102750028B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210072994A (ko) * 2019-12-10 2021-06-18 인천대학교 산학협력단 디지털 길이 측정 장치
US11500537B2 (en) 2019-01-03 2022-11-15 Samsung Electronics Co., Ltd. Electronic device and controlling method therefor

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI456458B (zh) * 2012-09-03 2014-10-11 Acer Inc 電子裝置以及相關之控制方法
JP5958215B2 (ja) * 2012-09-12 2016-07-27 富士通株式会社 情報端末装置、タッチ座標決定方法及びタッチ座標決定プログラム
KR20140046557A (ko) * 2012-10-05 2014-04-21 삼성전자주식회사 다점 입력 인식 방법 및 그 단말
US9836154B2 (en) * 2013-01-24 2017-12-05 Nook Digital, Llc Selective touch scan area and reporting techniques
US20140267181A1 (en) * 2013-03-14 2014-09-18 Research In Motion Limited Method and Apparatus Pertaining to the Display of a Stylus-Based Control-Input Area
KR102096861B1 (ko) * 2013-11-25 2020-04-06 엘지디스플레이 주식회사 통합 터치 시스템 및 표시장치
TW201528078A (zh) 2014-01-08 2015-07-16 Chunghwa Picture Tubes Ltd 觸控面板電路及其操作方法
CN104375698A (zh) * 2014-07-17 2015-02-25 深圳市钛客科技有限公司 一种触控设备
KR102332468B1 (ko) * 2014-07-24 2021-11-30 삼성전자주식회사 기능 제어 방법 및 그 전자 장치
CN105786265B (zh) * 2014-12-17 2018-09-25 中强光电股份有限公司 光学触控系统、光幕产生模块及调整结构
CN104898996B (zh) * 2015-05-04 2022-04-22 联想(北京)有限公司 信息处理方法及电子设备
JP2017083973A (ja) * 2015-10-23 2017-05-18 富士通株式会社 表示端末装置、表示制御方法および表示制御プログラム
EP3396499A4 (en) * 2015-12-21 2018-12-05 Sony Corporation Information processing device and information processing method
KR102649009B1 (ko) 2016-12-20 2024-03-20 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR20230018932A (ko) * 2021-07-30 2023-02-07 쿠팡 주식회사 전자 장치 및 그의 동작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100910024B1 (ko) * 2008-10-13 2009-07-30 호감테크놀로지(주) 선형 적외선 발광체를 이용한 카메라 방식의 터치 스크린

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3292212B2 (ja) * 1992-12-18 2002-06-17 富士ゼロックス株式会社 画像編集機能を備えた画像形成装置
JP3202483B2 (ja) * 1994-06-06 2001-08-27 日本電気株式会社 座標検出装置
JPH09190268A (ja) * 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
JP2004534974A (ja) * 2000-10-27 2004-11-18 エロ・タッチシステムズ・インコーポレイテッド 複数のタッチセンサを利用した接触確認式タッチスクリーン
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
JP4795343B2 (ja) * 2004-07-15 2011-10-19 エヌ−トリグ リミテッド 二重モードデジタイザの自動切り替え
CN101057271A (zh) * 2004-07-15 2007-10-17 N-Trig有限公司 双模数字化器的自动转换
US7847789B2 (en) * 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
JP2008165575A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp タッチパネル装置
KR101394510B1 (ko) 2007-11-21 2014-05-14 엘지전자 주식회사 세탁물 처리기기의 전극센서 및 상기 전극센서를 포함하는세탁물 처리기기
KR101077854B1 (ko) * 2008-05-22 2011-10-31 (주)멜파스 복수의 접촉 입력을 감지하는 방법 및 장치
US8842076B2 (en) * 2008-07-07 2014-09-23 Rockstar Consortium Us Lp Multi-touch touchscreen incorporating pen tracking
CN101551728A (zh) * 2009-05-21 2009-10-07 友达光电股份有限公司 电阻式触控式面板的多点触控方法
KR101073345B1 (ko) * 2009-10-06 2011-10-14 삼성모바일디스플레이주식회사 터치 스크린 내장형 액정표시장치
KR101073194B1 (ko) * 2009-10-06 2011-10-12 삼성모바일디스플레이주식회사 터치 스크린 내장형 액정표시장치
CN101957683B (zh) * 2010-10-08 2012-09-05 汉王科技股份有限公司 双模输入设备和双模输入方法
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US8982045B2 (en) * 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
US20120154295A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Cooperative use of plural input mechanisms to convey gestures

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100910024B1 (ko) * 2008-10-13 2009-07-30 호감테크놀로지(주) 선형 적외선 발광체를 이용한 카메라 방식의 터치 스크린

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11500537B2 (en) 2019-01-03 2022-11-15 Samsung Electronics Co., Ltd. Electronic device and controlling method therefor
KR20210072994A (ko) * 2019-12-10 2021-06-18 인천대학교 산학협력단 디지털 길이 측정 장치
KR102359654B1 (ko) 2019-12-10 2022-02-08 인천대학교 산학협력단 디지털 길이 측정 장치

Also Published As

Publication number Publication date
JP2012221494A (ja) 2012-11-12
US20120256880A1 (en) 2012-10-11
KR20120113511A (ko) 2012-10-15
EP2508965A3 (en) 2016-01-13
CN102750028A (zh) 2012-10-24
CN102750028B (zh) 2017-06-23
JP6027328B2 (ja) 2016-11-16
EP2508965B1 (en) 2017-12-20
US9007345B2 (en) 2015-04-14
EP2508965A2 (en) 2012-10-10

Similar Documents

Publication Publication Date Title
KR101811636B1 (ko) 디스플레이 장치 및 이의 오브젝트 표시 방법
EP2724215B1 (en) Touch sensor system
US10042386B2 (en) Information processing apparatus, information processing method, and program
US20060244733A1 (en) Touch sensitive device and method using pre-touch information
US20170083159A1 (en) Electronic apparatus
TW201135553A (en) Contact sensitive device for detecting temporally overlapping traces
KR101019254B1 (ko) 공간 투영 및 공간 터치 기능이 구비된 단말 장치 및 그 제어 방법
KR20100000514A (ko) 터치 스크린이 구비된 영상표시기기 및 그의 제어 방법
KR20040056013A (ko) 터치 패널의 구동 방법
CN102902469A (zh) 手势识别方法及触控系统
CN102508615A (zh) 触控屏幕画面控制方法
KR101077308B1 (ko) 터치패널의 압력센싱 모듈 및 그 작동방법
CN102981743A (zh) 控制操作对象的方法及电子设备
KR20130078937A (ko) 터치 스크린 및 터치 스크린의 제어 방법
JP2014052988A (ja) タッチパネル入力装置、タッチ入力方法及びタッチ入力制御プログラム
GB2527918A (en) Glove touch detection
KR20130120708A (ko) 다중 디스플레이 패널을 사용하는 디스플레이 장치 및 방법
JP2012099005A (ja) 入力装置、入力方法および入力プログラム
JP5657866B2 (ja) 入力装置、ポインタの表示位置調整方法およびプログラム
KR101160086B1 (ko) 마주하는 두 변의 적외선 소자의 배열만으로 제1 방향과 상기 제1 방향과 수직인 제2 방향으로의 터치 좌표를 검출할 수 있는 적외선 터치스크린 장치
KR101438231B1 (ko) 하이브리드 터치스크린을 구비한 단말 장치 및 그 제어방법
KR101986660B1 (ko) 터치 센서가 구비된 곡면 디스플레이 장치
JP2006085218A (ja) タッチパネル操作装置
KR101573287B1 (ko) 전자기기에서 터치 위치 디스플레이 방법 및 장치
JP5833511B2 (ja) マルチタッチ状態下で押圧位置を判別可能なユーザインタフェース装置、プログラム及び機能発動方法

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant