KR20100078234A - 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법 - Google Patents

듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법 Download PDF

Info

Publication number
KR20100078234A
KR20100078234A KR1020080136437A KR20080136437A KR20100078234A KR 20100078234 A KR20100078234 A KR 20100078234A KR 1020080136437 A KR1020080136437 A KR 1020080136437A KR 20080136437 A KR20080136437 A KR 20080136437A KR 20100078234 A KR20100078234 A KR 20100078234A
Authority
KR
South Korea
Prior art keywords
control signal
event
touch
touch operation
sensing signal
Prior art date
Application number
KR1020080136437A
Other languages
English (en)
Other versions
KR101021857B1 (ko
Inventor
김수면
공원근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080136437A priority Critical patent/KR101021857B1/ko
Priority to US12/646,999 priority patent/US20100164904A1/en
Publication of KR20100078234A publication Critical patent/KR20100078234A/ko
Application granted granted Critical
Publication of KR101021857B1 publication Critical patent/KR101021857B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

복수의 터치 센서들에서 발생하는 센싱 신호들에 대한 조합을 이용하여, 디스플레이 장치의 제어 신호를 생성/입력함으로써, 디스플레이되는 컨텐츠를 제어하는 장치 및 방법을 개시한다.
터치, 듀얼, 센서, 인터페이스, 핸드헬드 디바이스, 포터블 단말기

Description

듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법{APPARATUS AND METHOD FOR INPUTING CONTROL SIGNAL USING DUAL TOUCH SENSOR}
본 발명의 실시예들은 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법을 제공함으로써, 사용자는 한 손 만으로도 핸드헬드 디바이스를 편리하게 제어할 수 있다.
IT 기술의 발전과 컨버젼스화의 결과로 수 많은 휴대 기기들에 다양한 기능들이 적용되고 있는 실정이다.
이러한 다양한 기능들은 그 특성에 따라 다양한 형태의 입/출력을 필요로 한다.
출력에 있어서는 디스플레이 또는 스피커와 같은 장치들이 주로 사용되고 있으며, 입력에 있어서는 버튼 입력 또는 터치 입력 등을 이용하는 장치들이 주로 사용되고 있다.
터치 방식의 인터페이스는 디스플레이에 표시되어 있는 버튼을 손가락으로 접촉하는 것만으로 휴대 기기들을 대화적, 직감적으로 조작함으로써 남녀노소 누구나 쉽게 사용할 수 있는 입력 인터페이스이다.
근래에는 사용의 자연스러움 및 버튼의 불필요함으로 인한 휴대 기기 디자인의 수려함으로 인해 스크린 형태의 터치 인터페이스가 많은 각광을 받고 있다.
또한, 근래 터치 방식의 인터페이스가 적용된 휴대 기기는 한 포인트만을 터치하여 입력 신호를 만들어 내는 초기의 모델들과는 달리 한 포인트 이상의 터치를 조합하여 입력 신호를 만들어 내기 때문에 다양한 형태의 조작이 가능하다.
하지만, 이러한 터치 인터페이스의 발전에도 불구하고 사용자는 대부분의 터치 입력을 위해 두 손을 모두 사용하여야만 한다.
본 발명의 일실시예에 따른 제어 신호 입력 장치는 제1 터치 동작에 반응하여 제1 센싱 신호를 출력하는 제1 터치 센서부, 제2 터치 동작에 반응하여 제2 센싱 신호를 출력하는 제2 터치 센서부, 및 상기 출력된 제1 센싱 신호 및 상기 출력된 제2 센싱 신호 중 적어도 어느 하나에 기초하여 이벤트 제어 신호를 생성하는 제어 신호 생성부를 포함한다.
본 발명의 일실시예에 따른 제어 신호 입력 방법은 제1 터치 센서에서 제1 터치 동작에 반응하여 제1 센싱 신호를 출력하는 단계, 제2 터치 센서에서 제2 터치 동작에 반응하여 제2 센싱 신호를 출력하는 단계, 및 상기 출력된 제1 센싱 신호 및 상기 출력된 제2 센싱 신호 중에서 적어도 어느 하나에 기초하여 이벤트 제어 신호를 생성하는 단계를 포함한다.
본 발명의 일실시예에 따르면, 한 손 만을 이용하여 핸드헬드 디바이스를 편리하게 제어할 수 있다.
본 발명의 일실시예에 따르면, 터치 동작을 입력하는 특정 수단에 의해 디스플레이 장치에 발생하는 사각지대를 현저하게 줄일 수 있다.
본 발명의 일실시예에 따르면, 더블 터치 입력을 단일 터치 입력으로 대체함으로써 핸드헬드 디바이스를 제어하는데 필요한 시간을 줄일 수 있다.
이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 제어 신호 입력 장치 및 방법을 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 따른 제어 신호 입력 장치(100)를 설명하기 위한 도면이다.
발명의 일실시예에 따른 제어 신호 입력 장치(100)는 제1 터치 센서부(110), 제2 터치 센서부(120), 및 제어 신호 생성부(130)를 포함할 수 있다.
제1 터치 센서부(110)는 사용자의 제1 터치 동작에 반응하여 제1 센싱 신호를 출력할 수 있다.
또한, 제2 터치 센서부(120)는 사용자의 제2 터치 동작에 반응하여 제2 센싱 신호를 출력할 수 있다.
본 발명의 일실시예에 따르면, 제1 터치 센서부(110)와 제2 터치 센서부(120)는 각각 핸드헬드 디바이스의 다양한 면(side)에 위치할 수 있다.
본 명세서에서 언급하는 핸드헬드 디바이스라 함은, 이동통신 단말기, 휴대 용 랩탑, PDA(personal digital assistants), PMP(portable multimedia player), MP3P(MPEG Audio Layer-3 Player), 및 MID(Mobile Internet Device) 등, 터치 패널이 적어도 둘 이상의 면(side)에 구비된 모든 장치로 해석될 수 있다.
이하에서는 설명의 편의상, 제1 터치 센서부(110)가 앞면(front side)에 위치하고, 제2 터치 센서부(120)가 뒷면(back side)에 위치한 핸드헬드 디바이스를 이용하여, 제어 신호 입력 장치(100)를 설명한다.
상기 제1 터치 동작과 상기 제2 터치 동작은 단일 탭(tap) 동작, 멀티 탭(tap) 동작, 단일 드래그(drag) 동작, 및 멀티 드래그(drag) 동작 등을 포함하는 동작으로 해석될 수 있다.
또한, 상기 제1 터치 동작과 상기 제2 터치 동작은 손가락 및 스타일러스 펜 등의 수단에 의해 입력될 수 있다.
제어 신호 생성부(130)는 상기 출력된 제1 센싱 신호 및 상기 출력된 제2 센싱 신호 중 적어도 어느 하나에 기초하여 이벤트 제어 신호를 생성할 수 있다.
제어 신호 생성부(130)는 상기 출력된 제1 센싱 신호 및 상기 출력된 제2 센싱 신호 중에서 어느 하나에 의해 상기 이벤트 제어 신호를 생성할 수 있다.
뿐만 아니라, 제어 신호 생성부(130)는 상기 출력된 제1 센싱 신호 및 상기 출력된 제2 센싱 신호의 조합에 기초하여 상기 이벤트 제어 신호를 생성할 수 있다.
다양한 조합에 따라 생성되는 이벤트 제어 신호 및 상기 이벤트 제어 신호에 의해 발생하는 이벤트는 추후 도 3 내지 도 7에서 상세하게 설명한다.
본 발명의 일실시예에 따른 제1 터치 센서부(110)는 디스플레이 장치를 포함할 수 있다. 또한, 제1 터치 센서부(110)는 터치스크린 상에 터치 동작을 감지하기 위해 포함되는 모듈로도 해석될 수도 있다.
제1 터치 센서부(110)에 디스플레이 장치가 포함되는 경우, 제1 터치 센서부(110)는 상기 터치스크린 자체로 해석될 수 있다.
이 경우, 제1 터치 센서부(110)는 제어 신호 생성부(130)가 생성한 이벤트 제어 신호에 기초하여, 상기 디스플레이 장치에 표시되는 컨텐츠에 선정된 이벤트를 생성할 수 있다. 예를 들어, 상기 핸드헬드 디바이스의 앞면에 위치하는 제1 터치 센서부(110)에서 발생하는 터치 동작과, 제2 터치 센서부(120)에서 발생하는 터치 동작을 조합하여 상기 디스플레이 장치에 표시되는 컨텐츠를 제어할 수 있다.
상기 이벤트 제어 신호에 의해 생성되는 선정된 이벤트는 추후 도 3 내지 도 7에서 상세하게 설명한다.
본 발명의 일실시예에 따른 제어 신호 입력 장치(100)는 상기 제1 센싱 신호 및 상기 제2 센싱 신호의 조합에 상응하는 이벤트 패턴을 저장하는 메모리부(140)를 더 포함할 수 있다.
이 때, 제어 신호 생성부(130)는 메모리부(140)에 기저장된 이벤트 패턴을 참조하여 상기 이벤트 제어 신호를 생성할 수 있다.
메모리부(140)는 컨텐츠 프로바이더나 제어 신호 입력 장치(100)의 제조 업체로부터 갱신될 수 있으며, 따라서 제어 신호 입력 장치(100)가 적용된 상기 핸드헬드 디바이스는 별도의 하드웨어의 추가 없이도 다양한 제어 이벤트를 업데이트할 수 있다.
도 2는 본 발명의 일실시예에 따른 제어 신호 입력 장치가 적용된 핸드헬드 디바이스(200)를 설명하는 도면이다.
도 2에서 보는 바와 같이, 본 발명의 일실시예에 따른 핸드헬드 디바이스(200)는 앞면(front side)에, 제1 터치 센서부(210) 및 디스플레이 장치(220)를 포함한다.
또한, 뒷면(back side)에 제1 터치 센서부(210)와는 독립된 제2 터치 센서부(230)를 포함할 수 있다.
도 2에서는 앞면(front side)에만 디스플레이 장치(220)가 포함된 핸드헬드 디바이스(200)를 도시 하였으나, 디스플레이 장치(220)는 핸드헬드 디바이스(200)의 앞면(front side) 및 뒷면(back side)에 모두 장착될 수도 있다.
결국, 사용자는 양면(dual side)에 터치 동작을 입력함으로써, 한 면에만 입력하는 터치 동작에 비해 많은 조합으로 다양한 조작을 할 수 있다. 따라서, 사용자는 한 손 만을 이용하여 핸드헬드 디바이스를 편리하게 제어할 수 있다.
도 3 내지 도 7은 핸드헬드 디바이스에 제어 신호를 입력하는 다양한 실시예를 설명하는 도면이다.
이하에서는, 앞면(front side)의 제1 터치 센서부와 앞면(front side)의 디스플레이 장치를 각각 독립된 구성 요소로 설명한다.
그러나, 상기 제1 터치 센서부와 상기 디스플레이 장치는, 표시와 입력을 동시에 처리할 수 있는 터치 스크린으로 해석하는 것이 바람직하다.
또한, 이하에서 설명하는 핸드헬드 디바이스들은 본 발명의 일실시예에 따른 제어 신호 입력 장치가 적용된 것으로 해석할 수 있다.
먼저, 도 3을 참조하면, 상기 제1 터치 동작은 제1 방향(311)으로 이동하는 드래그 입력이고, 상기 제2 터치 동작은 제2 방향(321)으로 이동하는 드래그 입력일 수 있다.
예를 들어, 상기 제1 터치 동작은, 핸드헬드 디바이스(300)의 앞면(front side)에 위치한 제1 터치 센서부에서, 사용자의 엄지 손가락(310)이 제1 방향(311)으로 이동하는 드래그 입력일 수 있다.
이에 대응하여, 상기 제2 터치 동작은, 핸드헬드 디바이스(300)의 뒷면(back side)에 위치한 제2 터치 센서부에서 사용자의 검지 손가락(320)이 제2 방향(321)으로 이동하는 드래그 입력일 수 있다.
이 때, 제1 방향(311) 및 제2 방향(321)이 서로 멀어지는 방향인 경우라면, 본 발명의 일실시예에 따른 제어 신호 입력 장치는 앞면(front side)에 위치하는 디스플레이 장치에 표시된 컨텐츠를 줌 인(zoom-in)하도록 처리할 수 있다.
구체적으로 설명하면, 상기 제어 신호 입력 장치의 제1 터치 센서부는 제1 터치 동작인 제1 방향(311)의 드래그 입력에 따라 제1 센싱 신호를 생성한다.
또한, 상기 제2 터치 센서부는 제2 터치 동작인 제2 방향(321)의 드래그 입력에 따라 제2 센싱 신호를 생성한다.
이에, 본 발명의 일실시예에 따른 상기 제어 신호 생성부는 상기 제1 제어 신호 및 상기 제2 제어 신호의 발생에 응답하여, 컨텐츠를 줌 인(zoom-in)하기 위 한 이벤트를 발생하는 이벤트 제어 신호를 생성한다.
또한, 상기 디스플레이 장치는 상기 생성된 이벤트 제어 신호에 의해 컨텐츠를 줌 인(zoom-in)하여 표시한다.
다음으로, 도 4를 참조하면, 제1 터치 동작은 제1 방향(411)으로 이동하는 드래그 입력이고, 상기 제2 터치 동작은 제2 방향(421)으로 이동하는 드래그 입력일 수 있다.
예를 들어, 상기 제1 터치 동작은, 핸드헬드 디바이스(400)의 앞면(front side)에 위치한 제1 터치 센서부에서, 사용자의 엄지 손가락(410)이 제1 방향(411)으로 이동하는 드래그 입력일 수 있다.
이에 대응하여, 상기 제2 터치 동작은, 핸드헬드 디바이스(400)의 뒷면(back side)에 위치한 제2 터치 센서부에서 사용자의 검지 손가락(420)이 제2 방향(421)으로 이동하는 드래그 입력일 수 있다.
이 때, 제1 방향(411) 및 제2 방향(421)이 서로 가까워지는 방향인 경우라면, 본 발명의 일실시예에 따른 제어 신호 입력 장치는 앞면(front side)에 위치하는 디스플레이 장치에 표시된 컨텐츠를 줌 아웃(zoom-out)하도록 처리할 수 있다.
도 5를 참조하면, 사용자는 디스플레이 장치와 다른 면에 위치하는 제2 터치 센서부에 터치 입력을 수행하여 디스플레이 장치를 제어할 수 있다.
본 발명의 일실시예에 따른 제어 신호 입력 장치는 제2 터치 센서부가 출력하는 제2 센싱 신호를 제1 센싱 신호로 해석하여, 이벤트 제어 신호를 생성할 수 있다.
즉, 상기 제어 신호 입력 장치의 제어 신호 생성부는, 상기 제2 센싱 신호에 대응되는 상기 제1 센싱 신호를 산출하고, 상기 산출된 제1 센싱 신호에 기초하여, 상기 선정된 이벤트를 발생하도록 상기 이벤트 제어 신호를 생성한다.
만약, 상기 제2 센싱 신호가 제1 방향으로의 드래그 동작에 반응하여 출력된다면, 상기 이벤트 제어 신호는 앞면에 위치하는 디스플레이 장치에 표시되는 컨텐츠가 상기 제1 방향으로 이동하여 표시되도록 하는 이벤트를 발생할 수 있다.
예를 들어, 본 발명의 일실시예에 따른 제어 신호 입력 장치가 적용된 핸드헬드 디바이스(500)는 뒷면에 위치하는 제2 터치 센서부가 출력하는 제2 센싱 신호만을 이용하여, 앞면에 위치하는 디스플레이 장치를 제어할 수 있다.
이는, 종래의 터치 스크린 상에서, 앞면의 터치 패널에서 발생한 터치 동작에 의해 같은 앞면에 위치한 디스플레이를 제어하는 것과 마찬가지의 패턴으로 동작할 수 있다. 다만, 종래에는 터치 동작을 위한 손가락 등의 수단이 디스플레이에 사각지대를 발생하는 문제가 있었다.
그러나, 도 5와 같이, 본 발명의 일실시예에 따른 제어 신호 입력 장치는 뒷면의 터치 패널에서 발생한 터치 동작으로부터 앞면의 디스플레이가 제어되도록 하고, 이로써 디스플레이에 사각지대가 발생하지 않는다.
즉, 터치를 위한 손가락이 디스플레이 스크린을 가리지 않아 높은 가독성(readability)을 유지할 수 있다.
구체적으로 도 5의 제2 터치 동작은 특정 방향(511, 512, 513, 514)으로 이동하는 드래그 입력일 수 있다.
즉, 상기 제2 터치 동작은, 핸드헬드 디바이스(500)의 뒷면(back side)에 위치한 제2 터치 센서부에서 사용자의 검지 손가락(510)이 특정 방향(511, 512, 513, 514)으로 이동하는 드래그 입력일 수 있다.
이 때, 검지 손가락(510)이 제1 방향(511)으로 이동하는 드래그 입력인 경우, 핸드헬드 디바이스(500)의 앞면(front side)의 디스플레이되는 컨텐츠를 위로 이동시키는 이벤트가 발생할 수 있다. 이는, 웹 페이지의 스크롤 및 맵 데이터 포커싱의 이동 등의 이벤트에 다양하게 이용될 수 있다.
도 5의 실시예에 따르면, 터치 동작을 입력하는 특정 수단에 의해 디스플레이 장치에 발생하는 사각지대를 현저하게 줄일 수 있다.
도 6을 참조하면, 상기 제1 터치 동작 및 상기 제2 터치 동작이 선정된 시간 차이 이내로 발생한 단일 탭 동작인 경우, 상기 이벤트 제어 신호는 상기 제1 터치 동작이 발생한 위치에서의 더블 탭 동작으로 인식하도록 하는 이벤트를 발생한다.
예를 들면, 핸드헬드 디바이스(600)의 앞면(front side)에 위치한 제1 터치 센서부는 엄지 손가락(610) 단일 탭 입력에 의해 제1 센싱 신호를 출력한다.
이에 대응하여, 핸드헬드 디바이스(600)의 뒷면(back side)에 위치한 제2 터치 센서부는 검지 손가락(620) 단일 탭 입력에 의해 제2 센싱 신호를 출력한다.
만약, 상기 제1 센싱 신호와 상기 제2 센싱 신호가 선정된 시간 차이 이내로 발생하였다면, 즉 거의 동시에 발생하였다면, 핸드헬드 디바이스(600)는 앞면(front side)에 위치한 제1 터치 센서부에 발생하는 더블 탭 입력으로 인식할 수 있다.
이러한 터치 동작은 앞면(front side) 또는 뒷면(back side) 중에서 어느 한 면에 발생하는 터치 동작과는 다른 이벤트를 발생할 수 있다. 예를 들어, 도 6의 터치 동작은 기존 마우스의 더블 클릭 동작으로 해석될 수 있다.
도 6의 일실시예에 따르면, 더블 터치 입력을 단일 터치 입력으로 대체함으로써 핸드헬드 디바이스를 제어하는데 필요한 시간을 줄일 수 있다.
도 7을 살펴보면, 핸드헬드 디바이스(700)는 사용자의 검지 손가락(710)과 중지 손가락(720)의 단일 탭 입력에 의해 표시되는 컨텐츠에 선정된 이벤트를 발생할 수 있다.
즉, 핸드헬드 디바이스(700)의 뒷면에 위치한 제2 터치 센서부는 검지 손가락(710)과 중지 손가락(720)에 의한 멀티 탭 동작을 입력 받는다.
이에, 제어 신호 입력 장치의 제어 신호 생성부는 출력되는 제2 센싱 신호에 의해, 상기 디스플레이 장치에 표시되는 컨텐츠에 선정된 이벤트를 실행하기 위한 이벤트 제어 신호를 생성할 수 있다.
예를 들어, 상기 컨텐츠는 웹 페이지이며 상기 이벤트 제어 신호는 상기 웹 페이지의 메인 화면을 표시하도록 하는 이벤트를 발생할 수 있다.
또한, 다른 예로, 상기 이벤트 제어 신호는 브라우저 구동 시, 로딩되는 '홈 유알엘(home URL)'에 연결되도록 웹 페이지를 제어할 수도 있다.
도 3 내지 도 7을 통해서 설명한 다양한 이벤트의 패턴들은 제어 신호 생성부에서 생성되는 이벤트 제어 신호에 의해서 실행된다.
또한, 상기 이벤트 제어 신호들은 서로 다른 면(side)에 위치하는 터치 패널이 출력하는 센싱 신호들의 조합으로부터 생성된다.
이를 위해, 본 발명의 일실시예에 따른 제어 신호 입력 장치는 메모리에, 상기 센싱 신호들의 다양한 조합들을 각각의 이벤트 패턴과 연관시켜 저장할 수 있다.
도 8은 본 발명의 일실시예에 따른 제어 신호 입력 방법을 설명하기 위한 흐름도이다.
도 8을 참조하면, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 제1 센싱 신호 및 제2 센싱 신호 중에서 적어도 어느 하나를 출력할 수 있다(S801).
상기 제1 센싱 신호는 제1 터치 센서에서 제1 터치 동작에 반응하여 출력되고, 상기 제2 센싱 신호는 제2 터치 센서에서 제2 터치 동작에 반응하여 출력된다.
다음으로, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 상기 제1 센싱 신호 및 상기 제2 센싱 신호가 모두 출력되었는지를 판단할 수 있다(S802).
만약, 상기 제1 센싱 신호 및 상기 제2 센싱 신호 중에서 어느 하나만 출력되었다면, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 해당 센싱 신호에 대한 이벤트 제어 신호를 생성할 수 있다(S803).
이에, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 상기 생성된 이벤트 제어 신호에 의해 해당 이벤트를 처리할 수 있다(S807).
예를 들어, 제1 센싱 신호만이 출력되었다면, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 종래와 같이 앞면(front side)에 위치하는 터치스크린에 선 정된 이벤트를 발생하도록 이벤트를 처리한다.
만약, 제2 센싱 신호만이 출력되었다면, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 상기 제2 센싱 신호에 대응되는 상기 제1 센싱 신호를 산출한다. 또한, 상기 산출된 제1 센싱 신호에 기초하여 상기 터치스크린에 선정된 이벤트를 발생하도록 상기 이벤트 제어 신호를 생성할 수 있다.
단계 S802의 판단 결과, 상기 제1 센싱 신호 및 상기 제2 센싱 신호가 모두 출력되었다면, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 센싱된 신호들의 조합을 확인할 수 있다(S804).
다음으로, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 상기 확인된 조합에 따라, 메모리를 참조하여 이벤트의 패턴을 결정할 수 있다(S805).
이에, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 상기 결정된 이벤트의 패턴을 참고하여 이벤트 제어 신호를 생성할 수 있다(S806).
상기 생성되는 이벤트 제어 신호는 터치스크린에 표시되는 컨텐츠에 선정된 이벤트를 발생하기 위한 신호이다.
예를 들어, 상기 제1 터치 동작 및 상기 제2 터치 동작이 드래그 입력인 경우에 상기 제1 터치 동작의 제1 방향과 상기 제2 터치 동작의 제2 방향을 확인하여 이벤트 패턴이 결정될 수 있다.
상기 제1 방향 및 상기 제2 방향이 서로 멀어지는 방향인 경우, 상기 컨텐츠를 줌 인(zoom-in)하는 이벤트 패턴이 결정되며, 상기 결정된 이벤트 패턴에 따라 상기 이벤트 제어 신호가 생성된다.
만약, 상기 제1 방향 및 상기 제2 방향이 서로 가까워지는 방향인 경우, 상기 컨텐츠를 줌 아웃(zoom-out)하는 이벤트 패턴이 결정되며, 상기 결정된 이벤트 패턴에 따라 상기 이벤트 제어 신호가 생성된다.
다른 예로, 상기 제1 터치 동작 및 상기 제2 터치 동작이 선정된 시간 차이 이내로 발생한 단일 탭 동작인 경우라면, 상기 제1 터치 동작이 발생한 위치에서의 더블 탭 동작으로 상기 이벤트 패턴이 결정될 수 있다.
따라서, 단계 S806에서는 상기 결정된 이벤트 패턴에 기초하여 이벤트 제어 신호가 생성된다.
이 후, 본 발명의 일실시예에 따른 제어 신호 입력 방법은 상기 생성된 이벤트 제어 신호를 이용하여 선정된 이벤트를 처리한다(S807).
본 발명의 일실시예에 따른 제어 신호 입력 장치 및 방법을 핸드헬드 디바이스에 적용하면, 사용자는 핸드헬드 디바이스 파지한 손 이외의 다른 손을 이용하여 터치 입력을 할 필요가 없다.
본 발명의 일실시예에 따른 제어 신호 입력 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매 체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 일실시예에 따른 제어 신호 입력 장치를 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 제어 신호 입력 장치가 적용된 핸드헬드 디바이스를 설명하는 도면이다.
도 3 내지 도 7은 핸드헬드 디바이스에 제어 신호를 입력하는 다양한 실시예를 설명하는 도면이다.
도 8은 본 발명의 일실시예에 따른 제어 신호 입력 방법을 설명하기 위한 흐름도이다.
<도면의 주요 부분에 대한 부호의 설명>
100: 제어 신호 입력 장치
110: 제1 터치 센서부
120: 제2 터치 센서부
130: 제어 신호 생성부
140: 메모리부

Claims (18)

  1. 제1 터치 동작에 반응하여 제1 센싱 신호를 출력하는 제1 터치 센서부;
    제2 터치 동작에 반응하여 제2 센싱 신호를 출력하는 제2 터치 센서부; 및
    상기 출력된 제1 센싱 신호 및 상기 출력된 제2 센싱 신호 중 적어도 어느 하나에 기초하여 이벤트 제어 신호를 생성하는 제어 신호 생성부
    를 포함하는 것을 특징으로 하는 제어 신호 입력 장치.
  2. 제1항에 있어서,
    상기 제1 터치 센서부는,
    디스플레이 장치를 포함하고,
    상기 이벤트 제어 신호는,
    상기 디스플레이 장치에 표시되는 컨텐츠에 선정된 이벤트를 발생하도록 상기 디스플레이 장치를 제어하는 것을 특징으로 하는 제어 신호 입력 장치.
  3. 제1항에 있어서,
    상기 제1 센싱 신호 및 상기 제2 센싱 신호의 조합에 상응하는 이벤트 패턴을 저장하는 메모리부
    를 더 포함하고,
    상기 제어 신호 생성부는 상기 메모리부에 저장된 이벤트 패턴을 참조하여 상기 이벤트 제어 신호를 생성하는 것을 특징으로 하는 제어 신호 입력 장치.
  4. 제1항에 있어서,
    상기 제1 터치 동작 및 상기 제2 터치 동작 중에서 적어도 어느 하나의 동작은,
    단일 탭(tap) 동작, 멀티 탭(tap) 동작, 단일 드래그(drag) 동작, 및 멀티 드래그(drag) 동작 중에서 적어도 어느 하나의 동작이고,
    상기 적어도 어느 하나의 동작은,
    손가락 및 스타일러스 펜 중 적어도 어느 하나의 수단에 의해 입력되는 것을 특징으로 하는 제어 신호 입력 장치.
  5. 제2항에 있어서,
    상기 제1 터치 동작은 제1 방향으로 이동하는 드래그 입력이고, 상기 제2 터치 동작은 제2 방향으로 이동하는 드래그 입력인 것을 특징으로 하는 제어 신호 입력 장치.
  6. 제5항에 있어서,
    상기 제1 방향과 상기 제2 방향이 서로 멀어지는 방향인 경우,
    상기 이벤트 제어 신호는,
    상기 컨텐츠를 줌 인(zoom-in)하는 이벤트를 발생하는 것을 특징으로 하는 제어 신호 입력 장치.
  7. 제5항에 있어서,
    상기 제1 방향과 상기 제2 방향이 서로 가까워지는 방향인 경우,
    상기 이벤트 제어 신호는,
    상기 컨텐츠를 줌 아웃(zoom-out)하는 이벤트를 발생하는 것을 특징으로 하는 제어 신호 입력 장치.
  8. 제2항에 있어서,
    상기 제1 터치 동작 및 상기 제2 터치 동작이 선정된 시간 차이 이내로 발생한 단일 탭 동작인 경우,
    상기 이벤트 제어 신호는,
    상기 제1 터치 동작이 발생한 위치에서의 더블 탭 동작으로 인식하도록 하는 이벤트를 발생하는 것을 특징으로 하는 제어 신호 입력 장치.
  9. 제2항에 있어서,
    상기 제2 터치 동작은 멀티 탭 동작이고, 상기 컨텐츠는 웹 페이지이며,
    상기 이벤트 제어 신호는,
    상기 웹 페이지의 메인 화면을 표시하도록 하는 이벤트를 발생하는 것을 특징으로 하는 제어 신호 입력 장치.
  10. 제2항에 있어서,
    상기 제어 신호 생성부는,
    상기 제2 센싱 신호에 대응되는 상기 제1 센싱 신호를 산출하고,
    상기 산출된 제1 센싱 신호에 기초하여, 상기 선정된 이벤트를 발생하도록 상기 이벤트 제어 신호를 생성하는 것을 특징으로 하는 제어 신호 입력 장치.
  11. 제10항에 있어서,
    상기 제2 센싱 신호는 제1 방향으로의 드래그 동작에 반응하여 출력되고,
    상기 이벤트 제어 신호는 상기 컨텐츠가 상기 제1 방향으로 이동하여 표시되도록 하는 이벤트를 발생하는 것을 특징으로 하는 제어 신호 입력 장치.
  12. 제1 터치 센서에서 제1 터치 동작에 반응하여 제1 센싱 신호를 출력하는 단계;
    제2 터치 센서에서 제2 터치 동작에 반응하여 제2 센싱 신호를 출력하는 단계; 및
    상기 출력된 제1 센싱 신호 및 상기 출력된 제2 센싱 신호 중에서 적어도 어느 하나에 기초하여 이벤트 제어 신호를 생성하는 단계
    를 포함하는 것을 특징으로 하는 제어 신호 입력 방법.
  13. 제12항에 있어서,
    상기 제1 터치 센서는 터치스크린에 포함되고,
    상기 이벤트 제어 신호는,
    상기 터치스크린에 표시된 컨텐츠에 선정된 이벤트를 발생하도록 상기 터치스크린을 제어하는 것을 특징으로 하는 제어 신호 입력 방법.
  14. 제13항에 있어서,
    상기 이벤트 제어 신호를 생성하는 상기 단계는,
    상기 제1 터치 동작 및 상기 제2 터치 동작이 드래그 입력인 경우에 상기 제1 터치 동작의 제1 방향과 상기 제2 터치 동작의 제2 방향을 확인하는 단계; 및
    상기 제1 방향 및 상기 제2 방향이 서로 멀어지는 방향인 경우, 상기 컨텐츠를 줌 인(zoom-in)하는 이벤트를 발생하도록 상기 이벤트 제어 신호를 생성하는 단계
    를 포함하는 것을 특징으로 하는 제어 신호 입력 방법.
  15. 제14항에 있어서,
    상기 제1 방향 및 상기 제2 방향이 서로 가까워지는 방향인 경우, 상기 컨텐츠를 줌 아웃(zoom-out)하는 이벤트를 발생하도록 상기 이벤트 제어 신호를 생성하는 단계
    를 더 포함하는 것을 특징으로 하는 제어 신호 입력 방법.
  16. 제13항에 있어서,
    상기 이벤트 제어 신호를 생성하는 상기 단계는,
    상기 제1 터치 동작 및 상기 제2 터치 동작이 선정된 시간 차이 이내로 발생한 단일 탭 동작인지 여부를 판단하는 단계; 및
    선정된 시간 차이 이내로 발생한 단일 탭 동작인 경우,
    상기 제1 터치 동작이 발생한 위치에서의 더블 탭 동작에 대한 이벤트를 발생하도록 상기 이벤트 제어 신호를 생성하는 단계
    를 포함하는 것을 특징으로 하는 제어 신호 입력 방법.
  17. 제13항에 있어서,
    상기 이벤트 제어 신호를 생성하는 상기 단계는,
    상기 제2 센싱 신호에 대응되는 상기 제1 센싱 신호를 산출하는 단계; 및
    상기 산출된 제1 센싱 신호에 기초하여 상기 터치스크린에 선정된 이벤트를 발생하도록 상기 이벤트 제어 신호를 생성하는 단계
    를 포함하는 것을 특징으로 하는 제어 신호 입력 방법.
  18. 제12항 내지 제17항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.
KR1020080136437A 2008-12-30 2008-12-30 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법 KR101021857B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080136437A KR101021857B1 (ko) 2008-12-30 2008-12-30 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
US12/646,999 US20100164904A1 (en) 2008-12-30 2009-12-24 Control signal input device and method using dual touch sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080136437A KR101021857B1 (ko) 2008-12-30 2008-12-30 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20100078234A true KR20100078234A (ko) 2010-07-08
KR101021857B1 KR101021857B1 (ko) 2011-03-17

Family

ID=42284319

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080136437A KR101021857B1 (ko) 2008-12-30 2008-12-30 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법

Country Status (2)

Country Link
US (1) US20100164904A1 (ko)
KR (1) KR101021857B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012108723A3 (en) * 2011-02-10 2012-12-13 Samsung Electronics Co., Ltd. Information display apparatus having at least two touch screens and information display method thereof
WO2013103917A1 (en) * 2012-01-06 2013-07-11 Microsoft Corporation Input pointer delay
KR20150037026A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
WO2015194755A1 (ko) * 2014-06-17 2015-12-23 삼성전자 주식회사 사용자 단말 장치 및 그 제어 방법
WO2019027283A1 (en) * 2017-08-03 2019-02-07 Samsung Electronics Co., Ltd. ELECTRONIC APPARATUS COMPRISING A FORCE SENSOR AND METHOD FOR CONTROLLING ELECTRONIC APPARATUS THEREFOR

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
EP2341419A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
JP5160579B2 (ja) * 2010-03-08 2013-03-13 株式会社エヌ・ティ・ティ・ドコモ 表示装置及び画面表示方法
TW201211824A (en) * 2010-09-08 2012-03-16 Qisda Corp Electronic apparatus controlling method, electronic apparatus utlizing the electronic apparatus controlling method and computer readable storing program can perform the electronic apparatus controlling method
JP5529700B2 (ja) 2010-09-27 2014-06-25 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、その制御方法、及びプログラム
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
JP5942375B2 (ja) * 2011-10-04 2016-06-29 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
TWI428901B (zh) 2011-10-20 2014-03-01 Au Optronics Corp 液晶顯示裝置及其顯示驅動方法
TWI435248B (zh) 2011-10-24 2014-04-21 Au Optronics Corp 觸控顯示裝置
KR101340015B1 (ko) * 2011-12-16 2013-12-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법
DE112012006627T5 (de) 2012-06-28 2015-05-07 Intel Corporation Tablet-Gerät mit dünnem Bildschirmrahmen
KR101397084B1 (ko) * 2012-07-02 2014-05-20 엘지전자 주식회사 이동 단말기
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR101907949B1 (ko) * 2012-10-31 2018-10-16 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
FR2998071B1 (fr) * 2012-11-09 2014-11-21 Thales Sa Procede de securisation d'une commande sur un dispositif de visualisation a surface tactile et systeme associe
CN104049851B (zh) * 2013-03-11 2018-06-01 联想(北京)有限公司 一种控制方法、装置和电子设备
CN103677476B (zh) * 2013-12-13 2016-04-13 京东方科技集团股份有限公司 触控装置及其驱动方法
CN203930584U (zh) * 2014-04-22 2014-11-05 何衢 一种移动终端
KR101703867B1 (ko) * 2014-08-01 2017-02-07 엘지전자 주식회사 적어도 하나의 터치에 의해 컨트롤되는 이동 단말기 및 그 제어 방법
US20160034171A1 (en) * 2014-08-04 2016-02-04 Flextronics Ap, Llc Multi-touch gesture recognition using multiple single-touch touch pads
KR101667727B1 (ko) 2014-10-31 2016-10-28 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20160051081A (ko) * 2014-10-31 2016-05-11 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10048803B2 (en) * 2016-03-17 2018-08-14 Apple Inc. Detecting backside force in a touch-screen device
JP6742881B2 (ja) * 2016-10-11 2020-08-19 キヤノン株式会社 情報処理装置とその制御方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2299394A (en) * 1995-03-31 1996-10-02 Frazer Concepts Ltd Computer input devices
US5943044A (en) * 1996-08-05 1999-08-24 Interlink Electronics Force sensing semiconductive touchpad
US6169789B1 (en) * 1996-12-16 2001-01-02 Sanjay K. Rao Intelligent keyboard system
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US6751487B1 (en) * 2000-02-08 2004-06-15 Ericsson, Inc. Turn around cellular telephone
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
US8130207B2 (en) * 2008-06-18 2012-03-06 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012108723A3 (en) * 2011-02-10 2012-12-13 Samsung Electronics Co., Ltd. Information display apparatus having at least two touch screens and information display method thereof
US9541958B2 (en) 2011-02-10 2017-01-10 Samsung Electronics Co., Ltd Information display apparatus having at least two touch screens and information display method thereof
US10152948B2 (en) 2011-02-10 2018-12-11 Samsung Electronics Co., Ltd Information display apparatus having at least two touch screens and information display method thereof
WO2013103917A1 (en) * 2012-01-06 2013-07-11 Microsoft Corporation Input pointer delay
KR20150037026A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
WO2015194755A1 (ko) * 2014-06-17 2015-12-23 삼성전자 주식회사 사용자 단말 장치 및 그 제어 방법
WO2019027283A1 (en) * 2017-08-03 2019-02-07 Samsung Electronics Co., Ltd. ELECTRONIC APPARATUS COMPRISING A FORCE SENSOR AND METHOD FOR CONTROLLING ELECTRONIC APPARATUS THEREFOR
US10877588B2 (en) 2017-08-03 2020-12-29 Samsung Electronics Co., Ltd. Electronic apparatus comprising force sensor and method for controlling electronic apparatus thereof

Also Published As

Publication number Publication date
KR101021857B1 (ko) 2011-03-17
US20100164904A1 (en) 2010-07-01

Similar Documents

Publication Publication Date Title
KR101021857B1 (ko) 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
EP2717120B1 (en) Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US8614682B2 (en) Touchscreen panel unit, scrolling control method, and recording medium
US20100289826A1 (en) Method and apparatus for display speed improvement of image
KR20170041219A (ko) 렌더링된 콘텐츠와의 호버 기반 상호작용
KR20140143985A (ko) 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US20140210742A1 (en) Emulating pressure sensitivity on multi-touch devices
KR20110036005A (ko) 가상 터치패드
US20090027421A1 (en) Computer system with a zooming capability and method
KR20110112980A (ko) 터치 감지 장치 및 방법
KR20150083730A (ko) 컴퓨팅 디바이스에서 컨텐츠 복사 실행 방법, 컨텐츠 붙여넣기 실행 방법 및 컴퓨팅 디바이스
US10534527B2 (en) Relative pen scroll
CN102385475B (zh) 电子设备及其交互方法
JP2013546066A (ja) デバイスとのユーザのタッチ及び非タッチベースのインタラクション
JP2013541110A (ja) ジェスチャベースの入力のスケーリング
JP2012018660A (ja) ハイブリッドタッチパネルの作動モジュール及びその作動方法
US10222967B2 (en) Method, apparatus, and computer program for scrolling a document on a touch panel
US10509563B2 (en) Dynamic modification of displayed elements of obstructed region
US20140347314A1 (en) Method of detecting touch force and detector
US9626010B2 (en) Touch pen, method and apparatus for providing touch function
JP4879933B2 (ja) 画面表示装置、画面表示方法およびプログラム
US20100271300A1 (en) Multi-Touch Pad Control Method
CN103348307B (zh) 用户接口
US20130038538A1 (en) Hand-held devices and methods of inputting data
KR101656753B1 (ko) 터치에 기초한 대상 동작 제어 시스템 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140221

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150212

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee