KR101634907B1 - 터치스크린 입력 방법 및 장치 - Google Patents

터치스크린 입력 방법 및 장치 Download PDF

Info

Publication number
KR101634907B1
KR101634907B1 KR1020150113831A KR20150113831A KR101634907B1 KR 101634907 B1 KR101634907 B1 KR 101634907B1 KR 1020150113831 A KR1020150113831 A KR 1020150113831A KR 20150113831 A KR20150113831 A KR 20150113831A KR 101634907 B1 KR101634907 B1 KR 101634907B1
Authority
KR
South Korea
Prior art keywords
touch
touch screen
screen
touched
cursor
Prior art date
Application number
KR1020150113831A
Other languages
English (en)
Other versions
KR20150099699A (ko
Inventor
박관수
원혁
김희민
Original Assignee
원혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 원혁 filed Critical 원혁
Priority to KR1020150113831A priority Critical patent/KR101634907B1/ko
Publication of KR20150099699A publication Critical patent/KR20150099699A/ko
Application granted granted Critical
Publication of KR101634907B1 publication Critical patent/KR101634907B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 터치 스크린 입력 방법에 관한 것으로, 스크린 상의 커서를 이용한 정확한 포인팅 기능과 선택 및 팝업 메뉴의 간단한 활용을 통하여 직관적 시각을 이용한 터치 인터페이스를 구현하는 것을 목적으로 한다. 터치 스크린상에 동시에 터치되는 제1 지점에 대한 제1 터치 및 제2 지점에 대한 제2 터치를 감지(sense)하는 단계; 상기 제1 지점 및 상기 제2 지점의 사이에 커서를 표시하는 단계; 상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는 경우, 상기 커서를 이동하여 표시하는 단계; 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 미리 결정된 동작을 수행하는 단계를 포함할 수 있다.

Description

터치스크린 입력 방법 및 장치{THE METHOD AND APPARATUS FOR INPUT ON THE TOUCH SCREEN INTERFACE}
본 발명은 터치 스크린 입력 방법 및 장치에 관한 것으로, 터치 스크린에서 효율적인 인터페이스를 제공하기 위한 방법 및 장치에 관한 것이다.
스마트 기기의 보급과 편리성으로 인해, 사용자들은 시간 및 장소에 구애 받지 않고 다양한 멀티미디어 서비스를 이용하고 있다. 이에 따라 단말기 제조업자들은 많은 사용자들을 확보하기 위해 더욱 편리한 기능을 갖는 단말기를 경쟁적으로 개발하고 있는데, 터치 스크린 방식의 휴대용 단말기가 대부분이다. 터치 스크린 방식의 휴대용 단말기는 사용자의 손 또는 펜을 이용하여 쉽고 간편하게 터치 입력을 할 수 있는 것이 특징이다.
한국공개특허 제2013-0023948호는 휴대용 단말기에서 아이콘을 선택하기 위한 장치 및 방법에 관한 것으로, 한손으로 그립한 상태에서 원터치를 기반으로 커서를 이동하여 아이콘을 선택하는 것을 제안하고 있다.
이러한 종래의 기술들은 기존의 터치 스크린 입력 방식을 이용한 스마트 기기에서 웹 서핑 시, 웹 게시물 혹은 하이퍼 텍스트로 연결된 태그를 터치할 때 다른 게시물이 터치되는 현상이 주로 발생하고, 정확한 터치 포인팅 지점이 없기 때문에 스크린 터치로 인하여 게시물이나 태그가 선택은 되었으나 이동하지 않는 현상이 발생하였다. 또한 현재 터치 인터페이스의 추가적인 문제로 셀렉트 기능의 불편함이 따른다. 종래의 인터페이스는 터치 후 일정 기간이 경과하면 팝업 메뉴가 나타나며 원하는 메뉴를 선택하여 터치하고, 그 후 나타나는 추가 커서의 위치를 조정한 후 다시 터치를 하여 영역의 간격을 설정한다. 선택한 영역의 편집을 위해서는 또다시 일정시간 동안 터치가 필요하다.
본 발명은 터치 스크린 입력 방식을 이용한 스마트 기기에서 컴퓨터용 마우스의 입력 기능을 도입하여 터치 입력 방법이 지닌 인터페이스의 문제를 개선하는 방법을 제공한다.
본 발명의 일실시예에 따른 터치 스크린 장치에 있어서, 터치 스크린; 상기 터치 스크린에 대한 제1 터치 및 제2 터치를 감지하는 터치 스크린 감지부; 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린에 동시에 터치되는지 판단하는 판단부; 및 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린에 동시에 터치되어 있는 경우, 상기 제1 터치의 위치 및 상기 제2 터치의 위치 사이에 커서를 표시하는 표시부를 포함하는 터치 스크린 장치를 제공할 수 있다.
일측에 따르면, 상기 판단부는 상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는지 판단하고, 상기 표시부는 상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는 경우, 상기 제1 터치 및 상기 제2 터치의 이동에 따라, 상기 커서를 이동하여 상기 터치 스크린에 표시하는 터치 스크린 장치를 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치가 상기 제2 터치에 대하여 왼쪽에 위치하고, 상기 판단부는 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치되었는지 판단하고, 상기 터치 스크린 장치는 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 상기 커서가 위치된 지점에서 클릭 이벤트를 발생시키는 제어부를 더 포함하는 터치 스크린 장치를 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치가 상기 제2 터치에 대하여 왼쪽에 위치하고, 상기 판단부는 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제2 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치되었는지 판단하고, 상기 터치 스크린 장치는 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제2 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치된 경우 팝업 메뉴를 활성화시키는 제어부를 더 포함하는 터치 스크린 장치를 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치는 상기 제2 터치에 대하여 왼쪽에 위치하고, 상기 판단부는 상기 제1 터치가 상기 터치 스크린과 접촉한 후 상기 터치 스크린으로부터 떨어진 상태에서 상기 제2 터치가 상기 터치 스크린을 드래그 하는지 판단하고, 상기 표시부는 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 상태에서 상기 제2 터치가 상기 터치 스크린을 드래그하는 경우, 상기 커서가 지시하는 위치로부터 상기 드래그에 대응한 영역까지 선택된 영역으로 제1 표시 방법으로 표시하는 터치 스크린 장치를 제공할 수 있다.
또 다른 일측에 따르면, 상기 판단부는 상기 제2 터치가 상기 터치 스크린과 접촉한 후 상기 터치 스크린으로부터 떨어진 상태에서 상기 제1 터치가 상기 터치 스크린을 드래그 하는지 판단하고, 상기 표시부는 상기 제2 터치가 상기 터치 스크린으로부터 떨어진 상태에서 상기 제1 터치가 상기 터치 스크린을 드래그하는 경우, 상기 커서가 지시하는 위치로부터 상기 드래그에 대응한 영역까지 선택된 영역으로 제2 표시 방법으로 표시하는 터치 스크린 장치를 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 표시 방법 및 상기 제2 표시 방법은 서로 다른 터치 스크린 장치를 제공할 수 있다.
본 발명의 일실시예에 따른 터치 스크린의 입력 방법에 있어서, 상기 터치 스크린상에 동시에 터치되는 제1 지점에 대한 제1 터치 및 제2 지점에 대한 제2 터치를 감지(sense)하는 단계; 및 상기 제1 터치 및 상기 제2 터치가 동시에 감지된 경우, 상기 제1 지점 및 상기 제2 지점의 사이에 커서를 표시하는 단계를 포함하는 터치 스크린 입력 방법을 제공할 수 있다.
일측에 따르면, 상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는지 판단하는 단계; 및 상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는 경우, 상기 제1 터치 및 상기 제2 터치의 이동에 따라, 상기 커서를 이동하여 표시하는 단계를 더 포함하는 터치 스크린 입력 방법을 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치되는지 판단하는 단계; 및 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 미리 결정된 동작을 수행하는 단계를 더 포함하는 터치 스크린 입력 방법을 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 미리 결정된 동작을 수행하는 단계는, 상기 제1 터치가 상기 제2 터치에 대하여 왼쪽에 위치하는 경우, 상기 커서가 위치된 지점에서 클릭 이벤트를 발생시키는 단계를 포함하는 터치 스크린 입력 방법을 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 미리 결정된 동작을 수행하는 단계는, 상기 제1 터치가 상기 제2 터치에 대하여 오른쪽에 위치하는 경우, 팝업 메뉴를 활성화시키는 단계를 포함하는 터치 스크린 입력 방법을 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 터치가 상기 터치 스크린과 접촉한 후 상기 터치 스크린으로부터 떨어진 상태에서 상기 제2 터치가 상기 터치 스크린을 드래그 하는지 판단하는 단계; 및 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 상태에서 상기 제2 터치가 상기 터치 스크린을 드래그하는 경우, 상기 커서가 지시하는 위치로부터 상기 드래그에 대응한 영역까지 선택된 영역으로 제1 표시 방법으로 표시하는 단계를 포함하고, 상기 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치는 상기 제2 터치에 대하여 왼쪽에 위치하는 터치 스크린 입력 방법을 제공할 수 있다.
또 다른 일측에 따르면, 상기 제2 터치가 상기 터치 스크린과 접촉한 후 상기 터치 스크린으로부터 떨어진 상태에서 상기 제1 터치가 상기 터치 스크린을 드래그 하는지 판단하는 단계; 및 상기 제2 터치가 상기 터치 스크린으로부터 떨어진 상태에서 상기 제1 터치가 상기 터치 스크린을 드래그하는 경우, 상기 커서가 지시하는 위치로부터 상기 드래그에 대응한 영역까지 선택된 영역으로 제2 표시 방법으로 표시하는 단계를 포함하는 터치 스크린 입력 방법을 제공할 수 있다.
또 다른 일측에 따르면, 상기 제1 표시 방법 및 상기 제2 표시 방법은 서로 다른 터치 스크린 입력 방법을 제공할 수 있다.
본 발명의 일실시예에 따르면, 제1항 내지 제8항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록매체를 제공할 수 있다.
본 발명은 스크린 상의 커서를 이용한 정확한 포인팅 기능과 선택 및 팝업 메뉴의 간단한 활용을 통하여 기존 스마트 기기 사용자 개개인의 감각에 의존하던 터치 입력 방법의 문제를 직관적 시각을 이용한 터치 인터페이스를 구현함으로써 개선할 수 있다.
도 1은 본 발명의 일실시예에 따른 터치 스크린 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 터치 스크린 장치에서 커서 표시를 나타낸 도면이다.
도 3은 본 발명의 일실시예에 따른 터치 스크린 장치에서 커서가 이동되는 것을 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 터치 스크린 장치에서 제1터치에 기초하여 클릭 이벤트가 발생한 것을 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 터치 스크린 장치에서 제 2터치에 기초하여 팝업 메뉴가 활성화되는 것을 나타낸 도면이다.
도 6은 본 발명의 일실시예에 따른 터치 스크린 장치에서 제1 표시 방법으로 영역이 드래그되는 것을 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 터치 스크린 장치에서 제2 표시 방법으로 영역이 선택되는 것을 나타낸 도면이다.
도 8은 본 발명의 일실시예에 따른 터치 스크린 장치에서 커서의 표시 및 움직임의 입력 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일실시예에 따른 터치 스크린 장치에서 클릭 및 드래그의 입력 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 일실시예에 따라 사용자와 터치 스크린 장치의 동작을 나타낸 도면이다.
이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일실시예에 따른 터치 스크린 장치의 구성을 나타낸 블록도이다.
터치 스크린 장치(100)는 터치 스크린(101), 감지부(102), 판단부(103), 표시부(104), 제어부(105)로 구성될 수 있다. 터치 스크린(101)은 키보드를 사용하지 않고 화면에 나타난 문자나 특정 위치에 사람의 손이 닿으면, 그 위치를 파악하여 저장된 소프트웨어에 의해 특정 처리를 할 수 있다. 따라서 터치패널을 장착한 화면에 미리 나타낸 문자나 그림 정보를 손가락으로 접촉하면, 접촉한 화면의 위치에 따라 사용자가 선택한 사항이 무엇인지를 파악하고 이에 대응하는 명령을 컴퓨터로 처리하도록 하여, 자신이 원하는 정보를 얻을 수 있도록 할 수 있다.
감지부(102)는 터치 스크린(101)에 대한 제1 터치 및 제2 터치를 감지한다. 예를 들어, 도 2를 참조하면, 사용자의 오른손의 검지손가락(210) 및 중지손가락(220)이 터치 스크린(201)에 터치된다. 이때, 감지부(102)는 터치 스크린(101, 201)에 대한 사용자의 오른손의 검지손가락(210)의 터치(230)를 감지한다. 또한, 감지부(102)는 터치 스크린(101, 201)에 대한 사용자의 오른손의 중지손가락(220)의 터치(240)를 감지한다.
판단부(103)는 제1 터치 및 제2 터치가 터치 스크린(101)에 동시에 터치되는지 판단한다. 예를 들어, 도 2를 참조하면, 사용자의 오른손의 검지손가락(210) 및 중지손가락(220)이 터치 스크린에(201)에 터치하면 판단부(103)는 검지손가락(210)의 터치(230) 및 중지손가락(220)의 터치(240)가 동시에 터치 되는지 판단할 수 있다.
또한, 판단부(103)는 제1 터치 및 제2 터치 모두 터치 스크린(101)으로부터 떨어지지 않고 이동하는지 판단한다. 예를 들어, 도 2 또는 도 3을 참조하면, 판단부(103)는 사용자의 오른손의 검지손가락(210) 및 중지손가락(220)이 터치 스크린(201, 320)으로부터 떨어지지 않고 이동하는지 판단할 수 있다.
또한, 판단부(103)는 제1 터치 및 제2 터치가 터치 스크린(101) 상에 터치되어 있다가 제1 터치가 터치 스크린(101)으로부터 떨어진 후 다시 터치 되었는지를 판단한다. 이때, 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치는 상기 제2 터치에 대하여 왼쪽에 위치할 수 있다. 예를 들어, 도 4를 참조하면, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린(401)에 터치되어 있다가 검지손가락(410)을 터치 스크린(401)으로부터 뗀 후 다시 터치 스크린(401)에 터치(430)가 되었는지 판단할 수 있다.
또한, 판단부(103)는 제1 터치 및 제2 터치가 터치 스크린 상에 터치 되어 있다가 제2 터치가 터치 스크린(101)으로부터 떨어진 후 다시 터치 되었는지를 판단한다. 이때, 제2 터치가 상기 터치 스크린과 접촉했을 때, 상기 제2 터치는 상기 제1 터치에 대하여 오른쪽에 위치할 수 있다. 예를 들어, 도 5를 참조하면, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린 상에 터치되어 있다가 중지손가락(540)을 터치 스크린(501)으로부터 뗀 후 다시 터치(540)가 되었는지 판단할 수 있다.
또한, 판단부(103)는 제1 터치가 터치 스크린과 접촉한 후 터치 스크린(101)으로부터 떨어진 상태에서 제2 터치가 터치 스크린(101)을 드래그 하는지 판단한다. 이때, 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치는 상기 제2 터치에 대하여 왼쪽에 위치할 수 있다. 도 6을 참조하면, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린 상에 터치되어 있다가 검지손가락을 터치 스크린(601)으로부터 뗀 후 중지손가락(620)으로 터치 스크린(601)을 드래그 하는지 판단할 수 있다.
또한, 판단부(103)는 제2 터치가 터치 스크린(101)과 접촉한 후 터치 스크린(101)으로부터 떨어진 상태에서 제1 터치가 터치 스크린(101)을 드래그 하는지 판단한다. 이때, 제2 터치가 상기 터치 스크린과 접촉했을 때, 상기 제2 터치는 상기 제1 터치에 대하여 오른쪽에 위치할 수 있다. 도 7을 참조하면, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린(701) 상에 터치되어 있다가 중지손가락을 터치 스크린(701)으로부터 뗀 후 검지손가락(710)으로 터치 스크린(701)을 드래그 하는지 판단할 수 있다.
표시부(104)는 제1 터치 및 제2 터치가 터치 스크린(101)에 동시에 터치되어 있는 경우, 제1 터치의 위치 및 제2 터치의 위치 사이에 커서를 표시한다. 도 2를 참조하면, 사용자의 오른손의 검지손가락(210) 및 중지손가락(220)이 동시에 터치 스크린(201)에 터치(230, 240)되어 있다면, 검지손가락(210) 및 중지손가락(220) 사이에 커서(250)를 표시한다.
또한, 표시부(104)는 제1 터치 및 제2 터치 모두 터치 스크린(101)으로부터 떨어지지 않고 이동한다면, 제1 터치 및 제2 터치의 이동에 따라, 커서를 이동하여 터치 스크린에 표시한다. 예를 들어, 도 2을 참조하면, 사용자의 오른손의 검지손가락(210) 및 중지손가락(220)이 터치 스크린에(201)에 터치되면 판단부(103)에서는 사용자의 오른손의 검지손가락(210)의 터치(230) 및 중지손가락(@20)의 터치(240)가 동시에 터치 되는지 판단한 후, 도 3과 같이 사용자의 오른손의 검지손가락(210) 및 중지손가락(220)의 이동에 따라 커서의 움직임을 터치 스크린에 나타낼 수 있다.
또한, 표시부(104)는 제1 터치가 터치 스크린으로부터 떨어진 상태에서 제2 터치가 터치 스크린을 드래그하는 경우, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역으로 제1 표시 방법으로 표시한다. 이때, 제2 터치가 상기 터치 스크린과 접촉했을 때, 상기 제2 터치는 상기 제1 터치에 대하여 오른쪽에 위치할 수 있다. 예를 들어, 도 6을 참조하면, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린으로부터 터치된 상태에서 검지손가락을 터치 스크린으로부터 뗀 후 중지손가락(620)으로 터치 스크린(601)을 드래그하면 커서(650)가 지시하는 위치로부터 드래그에 대응한 영역까지 선택될 수 있다. 이때, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역은 제1 표시 방법으로 표시할 수 있으며, 제1 표시 방법은 도 6과 같이 나타낼 수 있다.
또한, 표시부(104)는 제2 터치가 터치 스크린으로부터 떨어진 상태에서 제1 터치가 터치 스크린을 드래그하는 경우, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역으로 제2 표시 방법으로 표시한다. 이때, 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치는 상기 제2 터치에 대하여 왼쪽에 위치할 수 있다. 예를 들어, 도 7을 참조하면, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린으로부터 터치된 상태에서 중지손가락을 터치 스크린으로부터 뗀 후 검지손가락(710)으로 터치 스크린(701)을 드래그하면 커서(750)가 지시하는 위치로부터 드래그에 대응한 영역까지 선택될 수 있다. 이때, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역은 제2 표시 방법으로 표시할 수 있으며, 제2 표시 방법은 도 7과 같이 나타낼 수 있다.
제어부(105)는 제1 터치 및 제2 터치가 터치 스크린(101) 상에 터치되어 있다가 제1 터치가 터치 스크린(101)으로부터 떨어진 후 다시 터치된 경우, 커서가 위치된 지점에서 클릭 이벤트를 발생시킨다. 이때, 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치는 상기 제2 터치에 대하여 왼쪽에 위치할 수 있다. 도 4를 참조하면, 사용자의 검지손가락 및 중지손가락이 터치 스크린에 터치되어 있다가 검지손가락(410)을 터치 스크린(401)으로부터 뗀 후 다시 검지손가락(410)을 터치(430)하면 커서(450)가 위치된 지점에서 클릭 이벤트를 발생시킬 수 있다.
또한, 제어부(105)는 제1 터치 및 제2 터치가 터치 스크린 상에 터치되어 있다가 제2 터치가 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 팝업 메뉴를 활성화시킨다. 이때, 제2 터치가 상기 터치 스크린과 접촉했을 때, 상기 제2 터치는 상기 제1 터치에 대하여 오른쪽에 위치할 수 있다. 도 5를 참조하면, 사용자의 검지손가락 및 중지손가락이 터치 스크린에 터치되어 있다가 중지손가락(520)을 터치 스크린(501)으로부터 뗀 후 다시 중지손가락(520)을 터치(540)하면 팝업 메뉴(560)가 활성화 될 수 있다.
따라서, 본 발명은 터치스크린 입력 방식을 이용한 스마트 기기에서 컴퓨터용 마우스의 입력 기능을 도입하여 터치 입력 방법의 문제를 개선할 수 있다. 또한 컴퓨터 마우스를 사용해 본 경험이 있는 사용자라면 누구나 쉽고 편리하게 적응할 수 있어 활용도가 높다.
도 2는 본 발명의 일실시예에 따른 터치 스크린 장치에서 커서 표시를 나타낸 도면이다.
도 2에서 제1 터치(230)는 사용자의 오른손의 검지손가락(210)에 의한 터치, 제2 터치(240)는 사용자의 오른손의 중지손가락(220)에 의한 터치로 가정한다. 터치 스크린 장치에서 제 1터치(230)와 제2 터치(240)가 모두 감지된 후, 제1 터치(230) 및 제2터치(240)가 동시에 터치되는지 판단되면 제1 터치(230) 및 제2 터치(240) 사이에 커서(250)가 표시될 수 있다. 더욱 상세하게는, 사용자의 오른손의 검지손가락(210) 및 중지손가락(220)이 터치 스크린(201)에 터치된다. 이때, 터치 스크린 장치의 감지부에서는 터치 스크린(201)에 대한 사용자의 오른손의 검지손가락(210)의 터치(230) 및 중지손가락(220)의 터치(240)를 감지하고, 판단부에서는 사용자의 오른손의 검지손가락(210)의 터치(230) 및 중지손가락(220)의 터치(240)가 터치 스크린(201)에 동시에 터치되는지를 판단한다. 이때, 표시부에서는 사용자의 오른손의 검지손가락(210)의 터치(230) 및 중지손가락(220)의 터치(240)가 터치 스크린(201)에 동시에 터치되어있는 것이 확인이 되면, 사용자의 오른손의 검지손가락(210)이 터치(230)된 위치 및 중지손가락(220)이 터치(240)된 위치 사이에 커서(250)를 표시할 수 있다.
도 3은 본 발명의 일실시예에 따른 터치 스크린 장치에서 커서가 이동되는 것을 나타낸 도면이다.
터치 스크린 입력 장치에서 제1 터치 및 제2 터치 모두 터치 스크린으로부터 떨어지지 않고 이동하는지 판단이 되면, 제1 터치 및 제2 터치의 이동에 따라 커서를 이동하며 표시할 수 있다. 도 1또는 도 2를 참조하면, 사용자의 오른손의 검지손가락(210) 및 중지손가락(220)이 터치 스크린(201)에 터치된다. 이때, 터치 스크린 장치의 판단부(103)에서 사용자의 오른손의 검지손가락(210)의 터치(230) 및 중지손가락(220)의 터치(240)가 터치 스크린(201)으로부터 떨어지지 않고 이동되는지 판단하고, 표시부(104)에서는 사용자의 오른손의 검지손가락(210)의 터치(230) 및 중지손가락(220)의 터치(240) 모두 터치 스크린(201)으로부터 떨어지지 않고 이동하는 것이 확인이 되면, 도 3과 같이 사용자의 오른손의 검지손가락(210)의 터치(230) 및 중지손가락(220)의 터치(240)의 움직임에 따라 커서를 이동하여 터치 스크린(320)에 표시할 수 있다.
도 4는 본 발명의 일실시예에 따른 터치 스크린 장치에서 제1 터치에 기초하여 클릭 이벤트가 발생한 것을 나타낸 도면이다.
도 4는 제1 터치가 터치 스크린(401)과 접촉했을 때, 제1 터치가 제2 터치에 대하여 왼쪽에 위치한다고 가정한다. 터치 스크린 장치의 판단부는 제1 터치 및 제2 터치 모두 터치 스크린 상에 터치되어 있다가 제1 터치가 터치 스크린으로부터 떨어진 후 다시 터치되었는지 판단을 하고, 제어부는 제1 터치 및 제2 터치가 터치 스크린 상에 터치되어 있다가 제1 터치가 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 커서가 위치된 지점에서 클릭이벤트를 발생시킨다. 예를 들어 설명하면, 사용자의 오른손의 검지손가락과 중지손가락이 터치 스크린(401)에 모두 터치된 상태에서 검지손가락(410)이 터치 스크린(401)으로부터 떨어진 후 다시 터치(430)를 하면 커서(450)가 위치된 지점에서 클릭 이벤트를 발생시킬 수 있다.
따라서, 기존의 터치스크린 입력 방식을 이용한 스마트 기기에서 웹 서핑 시, 웹 게시물 혹은 하이퍼 텍스트로 연결된 태그를 터치할 때 다른 게시물이 터치되는 오류를 개선할 수 있다.
도 5는 본 발명의 일실시예에 따른 터치 스크린 장치에서 제 2터치에 기초하여 팝업 메뉴가 활성화되는 것을 나타낸 도면이다.
제1 터치가 터치 스크린(501)과 접촉했을 때, 제1 터치가 제2 터치에 대하여 왼쪽에 위치할 수 있다. 터치 스크린 장치에서 판단부는 제1 터치 및 제2 터치가 터치 스크린 상에 터치되어 있다가 제2 터치가 터치 스크린(501)으로부터 떨어진 후 다시 터치되었는지 판단을 한다. 제어부는 제1 터치 및 제2 터치가 터치 스크린(501)상에 터치되어 있다가 제2 터치가 터치 스크린(501)으로부터 떨어진 후 다시 터치된 경우, 팝업 메뉴를 활성화시킨다. 예를 들어, 사용자의 오른손의 검지손가락과 중지손가락이 터치 스크린에 모두 터치되어 있다가 중지손가락(520)이 터치 스크린(501)으로부터 떨어진 후 다시 터치(540)를 하면 터치 스크린(501)에 팝업 메뉴(560)가 활성화된다. 팝업 메뉴(560)는 하이라이트, 메모, 복사, 단어 검색, 구글 검색 등의 기능을 포함할 수 있다.
도 6은 본 발명의 일실시예에 따른 터치 스크린 장치에서 제1 표시 방법으로 영역이 드래그되는 것을 나타낸 도면이다.
도 6에서의 제1 터치 신호가 터치 스크린과 접촉했을 때, 제1 터치 신호는 제2 터치 신호에 대하여 왼쪽에 위치할 수 있다. 터치 스크린 장치에서 판단부는 제1 터치가 터치 스크린과 접촉한 후 터치 스크린으로부터 떨어진 상태에서 제2 터치가 터치 스크린을 드래그하는지 판단하고, 표시부는 제1 터치가 터치 스크린으로부터 떨어진 상태에서 제2 터치가 터치 스크린을 드래그하는 경우, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역으로 제1 표시 방법으로 표시한다. 이때, 제1 표시 방법은 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 실선으로 영역을 표시할 수 있으며, 도 6과 같이 나타낼 수 있다. 예를 들어, 사용자의 검지손가락과 중지손가락이 터치 스크린에 모두 접촉한 상태에서 터치 스크린(601)으로부터 검지손가락을 떼고, 중지손가락(620)으로 터치 스크린(601)을 드래그하면, 커서(650)가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역으로 표시될 수 있다.
도 7은 본 발명의 일실시예에 따른 터치 스크린 장치에서 제2 표시 방법으로 영역이 선택되는 것을 나타낸 도면이다.
도 7에서의 제1 터치 신호가 터치 스크린과 접촉했을 때, 제1 터치 신호는 제2 터치 신호에 대하여 왼쪽에 위치할 수 있다. 터치 스크린에서 판단부는 제2 터치가 터치 스크린과 접촉한 후 터치 스크린으로부터 떨어진 상태에서 제1 터치가 터치 스크린을 드래그 하는지 판단하고, 표시부는 제2 터치가 터치 스크린으로부터 떨어진 상태에서 제1 터치가 터치 스크린을 드래그하는 경우, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역으로 제2 표시 방법으로 표시할 수 있다. 제2 표시 방법은 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 점선으로 영역을 표시할 수 있으며, 도 7과 같이 나타낼 수 있다. 예를 들어, 사용자의 검지손가락과 중지손가락이 터치 스크린(701)에 모두 접촉한 상태에서 터치 스크린(701)으로부터 중지손가락을 떼고, 검지손가락(710)으로 터치 스크린(701)을 드래그하면, 커서(750)가 지시하는 위치로부터 드래그에 대응한 영역까지 선택될 수 있다.
도 8은 본 발명의 일실시예에 따른 터치 스크린 장치에서 커서의 표시 및 움직임의 입력 방법을 설명한 흐름도이다.
터치 스크린 입력 방법은 터치 스크린 장치에 의해 수행될 수 있고, 따라서 도 1내지 도 7에서 이미 설명한 것이 동일하게 적용될 수 있는바, 이와 중복된 내용에 대한 설명은 생략한다.
단계(810)에서 터치 스크린 장치는 터치 스크린상에 동시에 터치되는 제1 지점에 대한 제1 터치 및 제2 지점에 대한 제2 터치를 감지한다. 도 2를 참조하면, 터치 스크린 장치는 터치 스크린에 사용자의 오른손의 검지손가락 및 중지손가락이 동시에 터치되는지를 감지할 수 있다.
단계(820)에서 터치 스크린 장치는 터치 스크린 상에 제1 터치 및 제2 터치가 동시에 감지된 경우, 제1 지점 및 제2 지점의 사이에 커서를 표시한다. 예를 들어, 단계(810)에서 터치 스크린 장치는 터치 스크린 상에 사용자의 오른손의 검지손가락 및 중지손가락의 터치가 동시에 감지되었다면, 검지손가락 및 중지손가락 사이에 커서를 표시할 수 있다.
단계(830)에서 터치 스크린 장치는 제1 터치 및 제2 터치 모두 터치 스크린으로부터 떨어지지 않고 이동하는지 판단을 한다. 도 3을 참조하면, 터치 스크린 장치는 사용자의 검지손가락 및 중지손가락이 터치 스크린으로부터 떨어지지 않고 이동하는지 판단할 수 있다.
단계(840)에서 터치 스크린 장치는 제1 터치 및 제2 터치 모두 터치 스크린으로부터 떨어지지 않고 이동하는 경우, 제1 터치 및 제2 터치의 움직임에 따라 커서를 이동하여 표시한다. 도 3을 참조하면, 사용자의 검지손가락 및 중지손가락 모두 터치 스크린으로부터 떨어지지 않고 이동하는 경우, 검지손가락 및 중지손가락의 움직임에 따라 커서를 이동하여 표시할 수 있다.
도 9는 본 발명의 일실시예에 따른 터치 스크린 장치에서 클릭 및 드래그의 입력 방법을 설명하기 위한 흐름도이다.
터치 스크린 입력 방법은 터치 스크린 장치에 의해 설명될 수 있다.
단계(910)에서 제1 터치 및 제2 터치가 터치 스크린 상에 터치된다. 예를 들면, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린 상에 터치될 수 있다.
단계(920)에서 터치 스크린 장치는 제1 터치가 터치 스크린으로부터 떨어진 후 다시 터치되는지 판단을 한다. 제1 터치는 제2 터치에 대하여 왼쪽에 위치할 수 있고, 제2 터치에 대하여 오른쪽에 위치할 수도 있다. 예를 들면, 터치 스크린 장치는 사용자의 오른손의 검지손가락이 터치 스크린으로부터 떨어진 후 다시 터치 되는지 판단할 수 있고, 사용자의 오른손의 중지손가락이 터치 스크린으로부터 떨어진 후 다시 터치 되는지 판단할 수도 있다.
단계(930)에서 터치 스크린 장치는 제1 터치 및 제2 터치가 터치 스크린 상에 터치되어 있다가 제1 터치가 터치 스크린으로부터 떨어진 후 다시 터치가 된 경우, 미리 결정된 동작을 수행한다.
사용자의 오른손의 검지손가락 및 중지손가락을 이용하여 터치 스크린에 터치한다고 가정해본다. 예를 들어, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린 상에 터치되어 있다가 검지손가락이 터치 스크린으로부터 떨어진 후 다시 터치가 된 경우, 커서가 위치된 지점에서 클릭 이벤트를 발생시킬 수 있다.
또 다른 예로, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린 상에 터치되어 있다가 중지손가락이 터치 스크린으로부터 떨어진 후 다시 터치가 된 경우, 팝업 메뉴를 활성화 시킬 수 있다.
또 다른 예로, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린 상에 터치되어 있다가 검지손가락이 터치 스크린으로부터 떨어진 상태에서 중지손가락으로 터치 스크린을 드래그하는 경우, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택될 수 있으며, 도 6과 같이 나타낼 수 있다.
또 다른 예로, 사용자의 오른손의 검지손가락 및 중지손가락이 터치 스크린 상에 터치되어 있다가 중지손가락이 터치 스크린으로부터 떨어진 상태에서 검지손가락으로 터치 스크린을 드래그하는 경우, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택될 수 있으며, 도 7과 같이 나타낼 수 있다.
따라서, 종래 기술과 달리 본 발명은 사용자의 두 손가락을 통해 동작을 수행함으로써 정확한 포인팅 터치 문제와 일정 구간 및 영역 설정의 문제를 개선할 수 있다.
도 10은 본 발명의 일실시예에 따른 사용자와 터치 스크린 장치의 동작을 나타낸 도면이다.
도 10은 사용자와 터치 스크린 장치의 동작을 나타낸 것으로, 사용자의 오른손의 검지손가락 및 중지손가락을 이용하여 터치 스크린에 터치 또는 드래그함으로써 동작하는 터치 스크린 장치를 블록도로 나타낸 것이다. 이때, 사용자의 손가락은 검지손가락 및 중지손가락이 아닐 수 있으며, 도 10을 설명하기 위해 오른손의 검지손가락 및 중지손가락을 예로 들어 설명한다.
단계(1010)에서 사용자는 검지손가락 및 중지손가락으로 터치 스크린에 터치를 한다. 이 때, 터치 스크린 장치는 사용자의 검지손가락 및 중지손가락의 터치를 감지하고, 검지손가락 및 중지손가락이 동시에 터치되었는지 판단한 후 사용자의 검지손가락 및 중지손가락이 터치된 지점 사이에 커서를 표시한다.
단계(1020)에서 사용자는 검지손가락 및 중지손가락으로 터치 스크린에 터치를 한 상태에서 이동한다. 이때, 터치 스크린 장치에서 사용자의 검지손가락 및 중지손가락의 터치가 터치 스크린으로부터 떨어지지 않고 이동하는 것이 판단이 되면 사용자의 검지손가락 및 중지손가락 터치의 움직임에 따라 커서를 이동시키고, 커서의 이동을 터치 스크린에 표시한다.
단계(1030)에서 사용자는 검지손가락 및 중지손가락을 터치 스크린에 터치를 한 상태에서 검지손가락을 화면에서 뗀 후 다시 터치한다. 이때, 터치 스크린 장치는 사용자의 검지손가락 및 중지손가락의 터치가 터치 스크린 상에 터치되어 있다가 검지손가락의 터치가 터치 스크린으로부터 떨어진 후 다시 터치 되었는지 판단이 되면 커서가 위치된 지점에서 클릭 이벤트를 발생시킨다.
단계(1040)에서 사용자는 검지손가락 및 중지손가락을 터치 스크린에 터치한 상태에서 검지손가락을 터치 스크린에서 뗀 후 중지손가락으로 터치 스크린을 드래그 한다. 이때, 터치 스크린 장치는 사용자의 검지손가락 및 중지손가락의 터치가 터치 스크린 상에 터치된 것을 감지하고, 검지손가락의 터치가 터치 스크린으로부터 떨어진 후 중지손가락의 터치를 통해 터치 스크린을 드래그 하는 것이 판단이 되면, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역으로 표시할 수 있으며, 도 6과 같이 나타낼 수 있다.
단계(1050)에서 사용자는 검지손가락 및 중지손가락을 터치 스크린에 터치를 한 상태에서 중지손가락을 터치 스크린에서 뗀 후 다시 터치한다. 이때, 터치 스크린 장치는 사용자의 검지손가락의 터치 및 중지손가락의 터치가 터치 스크린 상에 터치되어 있다가 중지손가락의 터치가 터치 스크린으로부터 떨어진 후 다시 터치되었는지 판단이 되면, 팝업 메뉴를 활성화 시킨다.
단계(1060)에서 사용자는 검지손가락 및 중지손가락을 터치 스크린에 터치한 상태에서 중지손가락을 터치 스크린에서 뗀 후 검지손가락으로 터치 스크린을 드래그 한다. 이때, 터치 스크린 장치는 사용자의 검지손가락 및 중지손가락의 터치가 터치 스크린 상에 터치된 것을 감지하고, 사용자의 중지손가락의 터치가 터치 스크린으로부터 떨어진 후 검지손가락의 터치를 통해 터치 스크린을 드래그하는 것이 판단이 되면, 커서가 지시하는 위치로부터 드래그에 대응한 영역까지 선택된 영역으로 표시할 수 있으며, 도 7과 같이 나타낼 수 있다.
따라서, 본 발명은 사용자와 터치 스크린 장치 사이의 동작을 통해 터치 스크린 입력 방법이 지닌 인터페이스 문제를 해결할 수 있다. 스크린 상의 커서를 이용한 정확한 포인팅 기능과 선택 및 팝업 메뉴의 간단한 활용을 통하여 기존 스마트 기기 사용자 개개인의 감각에 의존하던 터치 입력 방법의 문제를 개선할 수 있다. 이를 통해 직관적 시각을 이용한 터치 인터페이스를 구현함으로써 해결 가능하다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100: 터치 스크린 장치
101: 터치 스크린
102: 감지부
103: 판단부
104: 표시부
105: 제어부

Claims (12)

  1. 터치 스크린 장치에 있어서,
    터치 스크린;
    상기 터치 스크린에 대한 제1 터치 및 제2 터치를 감지하는 터치 스크린 감지부;
    상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린에 동시에 터치되고 있는지 판단하는 판단부;
    상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린에 동시에 터치되어 있는 경우, 상기 제1 터치가 터치된 상기 터치스크린 상의 위치 및 상기 제2 터치가 터치된 상기 터치스크린 상의 위치 사이에 커서를 표시하는 표시부; 및
    상기 판단부에서 판단된 상기 제1 터치 및 상기 제2 터치의 동작에 따라 미리 결정된 동작을 수행하는 제어부
    를 포함하고,
    상기 판단부에서, 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 상기 제1 터치가 다시 터치된 동작을 판단한 경우, 상기 제어부는 상기 커서가 위치한 지점에서 클릭 이벤트를 발생시키고,
    상기 판단부에서, 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에서 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 상기 제2 터치가 상기 터치 스크린에 드래그되고 상기 제1 터치가 터치된 동작을 판단한 경우, 상기 제어부는 상기 커서가 지시하는 위치로부터 상기 드래그에 대응하는 위치까지 선택하는 이벤트를 발생시키고,
    상기 판단부에서, 상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제2 터치가 상기 터치 스크린으로부터 떨어진 후 상기 제2 터치가 다시 터치된 동작을 판단한 경우, 상기 제어부는 상기 커서가 위치한 지점에서 팝업 메뉴를 활성화시키고,
    상기 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치는 상기 제2 터치에 대하여 왼쪽에 위치하고,
    상기 판단부는,
    상기 제1 터치가 상기 터치 스크린과 접촉한 후 상기 터치 스크린으로부터 떨어진 상태에서 상기 제2 터치가 상기 터치 스크린을 드래그 하는지 판단하고,
    상기 표시부는,
    상기 제1 터치가 상기 터치 스크린으로부터 떨어진 상태에서 상기 제2 터치가 상기 터치 스크린을 드래그하는 경우, 상기 커서가 지시하는 위치로부터 상기 드래그에 대응한 영역까지 선택된 영역으로 제1 표시 방법으로 표시하고,
    상기 판단부는,
    상기 제2 터치가 상기 터치 스크린과 접촉한 후 상기 터치 스크린으로부터 떨어진 상태에서 상기 제1 터치가 상기 터치 스크린을 드래그 하는지 판단하고,
    상기 표시부는,
    상기 제2 터치가 상기 터치 스크린으로부터 떨어진 상태에서 상기 제1 터치가 상기 터치 스크린을 드래그하는 경우, 상기 커서가 지시하는 위치로부터 상기 드래그에 대응한 영역까지 선택된 영역으로 상기 제1 표시 방법과 다른 제2 표시 방법으로 표시하는
    터치 스크린 장치.
  2. 제1항에 있어서,
    상기 판단부는,
    상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는지 판단하고,
    상기 표시부는,
    상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는 경우, 상기 제1 터치 및 상기 제2 터치의 이동에 따라, 상기 커서를 이동하여 상기 터치 스크린에 표시하는
    터치 스크린 장치.
  3. 제1항에 있어서,
    상기 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치가 상기 제2 터치에 대하여 왼쪽에 위치하고,
    상기 제어부는,
    상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 상기 커서가 위치된 지점에서 클릭 이벤트를 발생시키는
    터치 스크린 장치.
  4. 제1항에 있어서,
    상기 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치가 상기 제2 터치에 대하여 왼쪽에 위치하고,
    상기 제어부는,
    상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제2 터치가 상기 터치 스크린으로부터 떨어진 후 다시 터치된 경우, 팝업 메뉴를 활성화시키는
    터치 스크린 장치.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 터치 스크린의 입력 방법에 있어서,
    상기 터치 스크린상에 동시에 터치되는 터치스크린 상의 제1 지점에 대한 제1 터치 및 터치스크린 상의 제2 지점에 대한 제2 터치를 감지(sense)하는 단계;
    상기 제1 터치 및 상기 제2 터치가 동시에 감지된 경우, 상기 제1 지점 및 상기 제2 지점의 사이에 커서를 표시하는 단계;
    상기 제1 터치 및 상기 제2 터치의 동작에 따라 미리 결정된 동작을 수행하는 단계
    를 포함하고,
    상기 미리 결정된 동작을 수행하는 단계는,
    상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어진 후 상기 제1 터치가 다시 터치된 경우, 상기 커서가 위치한 지점에서 클릭 이벤트를 발생시키는 단계;
    상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에서 터치되어 있다가 상기 제1 터치가 상기 터치 스크린으로부터 떨어지고 상기 제2 터치가 상기 터치 스크린에 드래그된 후 상기 제1 터치가 터치된 경우, 제어부는 상기 커서가 지시하는 위치로부터 상기 드래그에 대응하는 위치까지 선택하는 단계; 및
    상기 제1 터치 및 상기 제2 터치가 상기 터치 스크린 상에 터치되어 있다가 상기 제2 터치가 상기 터치 스크린으로부터 떨어진 후 상기 제2 터치가 다시 터치된 경우, 상기 커서가 위치한 지점에서 팝업 메뉴를 활성화시키는 단계
    를 포함하고,
    상기 제1 터치가 상기 터치 스크린과 접촉했을 때, 상기 제1 터치는 상기 제2 터치에 대하여 왼쪽에 위치하고,
    상기 드래그에 대응하는 위치까지 선택하는 단계는,
    상기 제1 터치가 상기 터치 스크린과 접촉한 후 상기 터치 스크린으로부터 떨어진 상태에서 상기 제2 터치가 상기 터치 스크린을 드래그 하는지 판단하는 단계; 및
    상기 제1 터치가 상기 터치 스크린으로부터 떨어진 상태에서 상기 제2 터치가 상기 터치 스크린을 드래그하는 경우, 상기 커서가 지시하는 위치로부터 상기 드래그에 대응한 영역까지 선택된 영역으로 제1 표시 방법으로 표시하는 단계
    를 포함하고,
    상기 드래그에 대응하는 위치까지 선택하는 단계는,
    상기 제2 터치가 상기 터치 스크린과 접촉한 후 상기 터치 스크린으로부터 떨어진 상태에서 상기 제1 터치가 상기 터치 스크린을 드래그 하는지 판단하는 단계; 및
    상기 제2 터치가 상기 터치 스크린으로부터 떨어진 상태에서 상기 제1 터치가 상기 터치 스크린을 드래그하는 경우, 상기 커서가 지시하는 위치로부터 상기 드래그에 대응한 영역까지 선택된 영역으로 상기 제1 표시 방법과 다른 제2 표시 방법으로 표시하는 단계를 포함하는
    터치 스크린 입력 방법.
  9. 제8항에 있어서,
    상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는지 판단하는 단계; 및
    상기 제1 터치 및 상기 제2 터치 모두 상기 터치 스크린으로부터 떨어지지 않고 이동하는 경우, 상기 제1 터치 및 상기 제2 터치의 이동에 따라, 상기 커서를 이동하여 표시하는 단계
    를 더 포함하는 터치 스크린 입력 방법.
  10. 삭제
  11. 삭제
  12. 제8항 및 제9항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록매체.
KR1020150113831A 2015-08-12 2015-08-12 터치스크린 입력 방법 및 장치 KR101634907B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150113831A KR101634907B1 (ko) 2015-08-12 2015-08-12 터치스크린 입력 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150113831A KR101634907B1 (ko) 2015-08-12 2015-08-12 터치스크린 입력 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020130063580A Division KR20150017399A (ko) 2013-06-03 2013-06-03 터치스크린 입력 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20150099699A KR20150099699A (ko) 2015-09-01
KR101634907B1 true KR101634907B1 (ko) 2016-06-29

Family

ID=54241697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150113831A KR101634907B1 (ko) 2015-08-12 2015-08-12 터치스크린 입력 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101634907B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200343207Y1 (ko) * 2003-12-02 2004-02-27 한창용 우수 및 좌수의 사용이 가능한 컴퓨터 마우스
JP2007299384A (ja) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc コンピュータで実施するマルチタッチセンシティブ画面でマウスをエミュレートする方法及びマウスをエミュレートするシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010046646A (ko) * 1999-11-15 2001-06-15 차종근 마우스버튼 기능 터치패드 및 구현방법
KR20100080303A (ko) * 2008-12-29 2010-07-08 황재엽 터치스크린용 가상마우스 구현방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200343207Y1 (ko) * 2003-12-02 2004-02-27 한창용 우수 및 좌수의 사용이 가능한 컴퓨터 마우스
JP2007299384A (ja) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc コンピュータで実施するマルチタッチセンシティブ画面でマウスをエミュレートする方法及びマウスをエミュレートするシステム

Also Published As

Publication number Publication date
KR20150099699A (ko) 2015-09-01

Similar Documents

Publication Publication Date Title
US10416777B2 (en) Device manipulation using hover
US9612736B2 (en) User interface method and apparatus using successive touches
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
CN104364734B (zh) 使用多点触摸输入的远程会话控制
US20120105367A1 (en) Methods of using tactile force sensing for intuitive user interface
JP7233109B2 (ja) タッチ感知面-ディスプレイによる入力方法、電子装置、触覚-視覚技術による入力制御方法及びシステム
KR101399145B1 (ko) 터치스크린 기반 스마트폰의 안전한 파지 및 조작을 위한 gui 위젯
KR20130052749A (ko) 터치 기반 사용자 인터페이스 장치 및 방법
CN103970460A (zh) 基于触摸屏的操作方法和使用该方法的终端设备
US10430071B2 (en) Operation of a computing device functionality based on a determination of input means
US20130246975A1 (en) Gesture group selection
CN103809903B (zh) 用于控制虚拟屏幕的方法和装置
WO2016183912A1 (zh) 菜单布局方法及装置
US20150143295A1 (en) Method, apparatus, and computer-readable recording medium for displaying and executing functions of portable device
WO2018046000A1 (zh) 触控操作方法和装置
KR102040798B1 (ko) 연속적인 터치를 이용한 사용자 인터페이스 방법 및 장치
KR20150017399A (ko) 터치스크린 입력 방법 및 장치
CN108132721B (zh) 生成拖动手势的方法、触控装置以及便携式电子设备
KR102240546B1 (ko) 애플리케이션 프로그램 데이터 처리 방법 및 디바이스
KR101634907B1 (ko) 터치스크린 입력 방법 및 장치
US20150153871A1 (en) Touch-sensitive device and method
KR102296968B1 (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
KR101468970B1 (ko) 터치 스크린 디스플레이 입력을 통한 객체 스크롤 방법 및 장치
JP2016129019A (ja) グラフィック要素の選択
KR102205235B1 (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant