KR102113674B1 - 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 - Google Patents

다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR102113674B1
KR102113674B1 KR1020130065834A KR20130065834A KR102113674B1 KR 102113674 B1 KR102113674 B1 KR 102113674B1 KR 1020130065834 A KR1020130065834 A KR 1020130065834A KR 20130065834 A KR20130065834 A KR 20130065834A KR 102113674 B1 KR102113674 B1 KR 102113674B1
Authority
KR
South Korea
Prior art keywords
touch
point
touches
input
reference point
Prior art date
Application number
KR1020130065834A
Other languages
English (en)
Other versions
KR20140143985A (ko
Inventor
김성관
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130065834A priority Critical patent/KR102113674B1/ko
Priority to US14/249,718 priority patent/US9261995B2/en
Priority to EP14167738.5A priority patent/EP2813938B1/en
Priority to CN201410255390.7A priority patent/CN104238807B/zh
Publication of KR20140143985A publication Critical patent/KR20140143985A/ko
Application granted granted Critical
Publication of KR102113674B1 publication Critical patent/KR102113674B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

본 발명의 실시 예는 전자 장치의 화면상에 표시된 객체를 선택하기 위한 다중 터치를 이용한 객체 선택 방법에 관한 것으로, 전자 장치의 터치스크린 상에서 적어도 2개의 터치들이 동시에 입력되는지 여부를 판단하는 과정과, 상기 판단 결과 적어도 2개의 터치들이 동시에 입력된 것으로 판단될 시, 상기 터치된 적어도 2개의 지점들로부터 기준점을 결정하는 과정과, 상기 적어도 2개의 터치된 지점들이 상기 터치스크린 상에서 이동됨에 따라 상기 결정된 기준점이 이동되는 경로를 추적하는 과정과, 상기 터치스크린에 표시된 화면상에서 상기 기준점의 이동 경로에 해당하는 적어도 하나의 객체를 선택하는 과정을 포함할 수 있다.

Description

다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체{APPARATUS, METHOD AND COMPUTER READABLE RECORDING MEDIUM FOR SELECTING OBJECTS DISPLAYED ON AN ELECTRONIC DEVICE USING A MULTI TOUCH}
본 발명의 실시 예는 전자 장치에 관한 것으로, 보다 상세하게는 전자 장치의 화면상에 표시된 객체를 선택하기 위한 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
최근 모바일 장치(예컨대, 스마트폰)에서 제공하는 다양한 서비스 및 부가 기능들이 점차 확대됨에 따라, 많은 모바일 장치들이 터치 스크린을 이용한 그래픽 유저 인터페이스(Graphic User Interface; GUI)를 제공하고 있다. 또한, 이러한 모바일 장치의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 모바일 장치에서 실행 가능한 다양한 애플리케이션들이 개발되고 있다.
모바일 장치에는 상기 장치의 제조사에 의해 제작되어 상기 장치에 설치되는 기본 애플리케이션들과, 인터넷을 통하여 애플리케이션 판매 웹사이트로부터 다운로드되는 추가 애플리케이션들 등이 저장되고 실행될 수 있다. 상기 추가 애플리케이션들은 일반 개발자들에 의해 개발되고, 상기 애플리케이션 판매 웹사이트에 등록될 수 있다.
한편, 모바일 장치(예컨대, 스마트폰) 등과 같이 터치스크린이 구비된 전자 장치에서 화면상에 표시되고 있는 객체(예컨대, 텍스트, 이미지, 이미지 목록 등)를 선택하고자 할 경우 다양한 방법이 사용될 수 있다. 예컨대, 현재 실행되고 있는 애플리케이션에서 제공하는 별도의 서브 메뉴에서 객체 선택 모드를 선택함으로써 화면에 표시된 특정 객체를 선택할 수 있다. 또한, 다른 방법으로서 미리 설정된 특정 키를 입력함으로써 객체 선택 모드로 전환될 수 있다. 그러나, 이러한 객체 선택 방법은 객체 선택 모드로 전환하기 위해 별도의 메뉴를 선택해야 하는 번거로움이 있으며, 모드 전환 기능 선택 이후 객체를 선택하기 위해 추가 동작을 하여야 하는 불편함이 있다.
또한, 다른 예로서 현재 화면에 표시된 객체 중에서 특정 텍스트를 선택하고자 할 경우, 해당 글자 부분을 길게 터치(long-press)함으로써 객체 선택 모드로 전환시키는 방법이 있다. 즉, 화면에 표시된 전체 영역 중에서 글자가 포함된 특정 영역을 길게 터치하면 해당 글자가 포함된 영역이 블록화되어 표시된다. 이때, 사용자는 표시된 영역의 시작 부분과 종료 부분에 별도로 표시된 지시자(indicator)를 드래그함으로써 글자를 선택할 수 있다. 그러나, 이러한 방법은 객체 선택을 위해 사용자가 일정 시간 이상 길게 터치하여야 하므로 빠른 선택이 어렵다는 단점이 있다. 또한, 객체 선택 모드 전환 이후에도 선택 영역을 지정하기 위해 화면상에서 작게 표시된 지시자를 드래그하여야 하므로 텍스트 영역을 선택하고자 하는 경우에 상당한 불편함이 따른다.
따라서, 객체 선택 모드 전환을 위한 불필요한 과정 없이 한 번의 터치로도 화면에 표시되고 있는 다양한 객체들에 대해 즉각적인 객체의 선택이 가능한 객체 선택 방법의 필요성이 요구되고 있다.
본 발명의 일 실시 예는 복수의 터치들을 동시에 입력함으로써 한 번의 터치로 화면에 표시되고 있는 텍스트를 원하는 영역만큼 선택할 수 있는 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.
또한, 본 발명의 일 실시 예는 복수의 터치들을 동시에 입력함으로써 한 번의 터치로 화면에 표시되고 있는 다중 리스트 중 적어도 하나의 객체들을 선택할 수 있는 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.
또한, 본 발명의 일 실시 예는 복수의 터치들을 동시에 입력함으로써 한 번의 터치로 화면에 표시되고 있는 이미지의 원하는 영역을 선택할 수 있는 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.
본 발명의 일 측면에 따르면, 다중 터치를 이용한 객체 선택 방법은, 전자 장치의 터치스크린 상에서 적어도 2개의 터치들이 동시에 입력되는지 여부를 판단하는 과정과, 상기 판단 결과 적어도 2개의 터치들이 동시에 입력된 것으로 판단될 시, 상기 터치된 적어도 2개의 지점들로부터 기준점을 결정하는 과정과, 상기 적어도 2개의 터치된 지점들이 상기 터치스크린 상에서 이동됨에 따라 상기 결정된 기준점이 이동되는 경로를 추적하는 과정과, 상기 터치스크린에 표시된 화면상에서 상기 기준점의 이동 경로에 해당하는 적어도 하나의 객체를 선택하는 과정을 포함할 수 있다.
상기 판단 결과 적어도 2개의 터치들이 동시에 입력된 것으로 판단될 시, 객체 선택 모드로 전환하는 과정을 더 포함할 수 있다.
상기 터치들의 동시 입력 판단은, 상기 적어도 2개의 터치들에 대한 터치 시간들의 차이가 미리 설정된 시간 이내일 경우 동시에 입력된 것으로 판단할 수 있다.
상기 기준점은, 2개 이상의 터치들이 입력된 각 위치들의 중점으로 결정될 수 있다.
상기 기준점은, 2개의 이상 터치들이 입력된 각 위치들에서 적어도 하나의 위치에 가중치를 부여하여 결정될 수 있다.
상기 기준점을 결정하는 과정 이후에, 상기 결정된 기준점에서의 객체의 유형을 분석하는 과정을 더 포함할 수 있다.
상기 객체의 유형 분석 결과, 객체가 텍스트일 경우, 상기 기준점의 수평좌표는 2개의 터치 중에서 좌측 터치의 터치 위치에 더 근접하도록 설정하고, 상기 기준점의 수직좌표는 2개의 터치 중에서 우측 터치의 터치 위치에 더 근접하도록 설정할 수 있다.
상기 객체의 유형 분석 결과, 객체가 이미지일 경우, 상기 기준점의 이동 경로가 폐곡선을 형성하면, 상기 폐곡선 내의 영역을 선택 영역으로 결정할 수 있다.
상기 객체의 유형 분석 결과, 객체가 다중 리스트일 경우, 상기 기준점의 이동 경로가 통과하는 적어도 하나의 선택 상자에 대응하는 객체를 선택할 수 있다.
본 발명의 다른 측면에 따르면, 다중 터치를 이용한 객체 선택 장치는, 적어도 하나의 객체를 표시하는 터치스크린; 및 상기 터치스크린 상에서 적어도 2개의 터치들이 동시에 입력되는지 여부를 판단하고, 상기 판단 결과 적어도 2개의 터치들이 동시에 입력된 것으로 판단될 시, 상기 터치된 적어도 2개의 지점들로부터 기준점을 결정하며, 상기 적어도 2개의 터치된 지점들이 상기 터치스크린 상에서 이동됨에 따라 상기 결정된 기준점이 이동되는 경로를 추적하여, 상기 터치스크린에 표시된 화면상에서 상기 기준점의 이동 경로에 해당하는 적어도 하나의 객체를 선택하도록 제어하는 제어부를 포함할 수 있다.
상기 제어부는, 상기 판단 결과 적어도 2개의 터치들이 동시에 입력된 것으로 판단될 시, 객체 선택 모드로 전환하도록 제어할 수 있다.
상기 터치들의 동시 입력 판단은, 상기 적어도 2개의 터치들에 대한 터치 시간들의 차이가 미리 설정된 시간 이내일 경우 동시에 입력된 것으로 판단할 수 있다.
상기 기준점은, 2개 이상의 터치들이 입력된 각 위치들의 중점으로 결정될 수 있다.
상기 기준점은, 2개의 이상 터치들이 입력된 각 위치들에서 적어도 하나의 위치에 가중치를 부여하여 결정될 수 있다.
상기 제어부는, 상기 기준점을 결정한 이후, 상기 결정된 기준점에서의 객체의 유형을 분석하도록 제어할 수 있다.
상기 객체의 유형 분석 결과, 객체가 텍스트일 경우, 상기 기준점의 수평좌표는 2개의 터치 중에서 좌측 터치의 터치 위치에 더 근접하도록 설정하고, 상기 기준점의 수직좌표는 2개의 터치 중에서 우측 터치의 터치 위치에 더 근접하도록 설정할 수 있다.
상기 객체의 유형 분석 결과, 객체가 이미지일 경우, 상기 기준점의 이동 경로가 폐곡선을 형성하면, 상기 폐곡선 내의 영역을 선택 영역으로 결정할 수 있다.
상기 객체의 유형 분석 결과, 객체가 다중 리스트일 경우, 상기 기준점의 이동 경로가 통과하는 적어도 하나의 선택 상자에 대응하는 객체를 선택할 수 있다.
한편, 상기 다중 터치를 이용한 객체 선택 방법에 대한 정보는 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다. 이러한 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치, 임베디드 멀티미디어 카드(eMMC) 등이 있으며, 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. 또한, 이러한 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
본 발명의 실시 예에 따르면, 객체 선택 모드 전환을 위한 불필요한 과정 없이 한 번의 터치로도 화면에 표시되고 있는 다양한 객체들에 대해 즉각적인 객체의 선택이 가능할 수 있다.
또한, 본 발명의 실시 예에 따르면, 복수의 터치들을 동시에 입력함으로써 한 번의 터치로도 화면에 표시되고 있는 텍스트를 원하는 영역만큼 선택할 수 있다.
또한, 본 발명의 실시 예에 따르면, 복수의 터치들을 동시에 입력함으로써 한 번의 터치로도 화면에 표시되고 있는 다중 리스트 중 적어도 하나의 객체들을 선택할 수 있다.
또한, 본 발명의 실시 예에 따르면 복수의 터치들을 동시에 입력함으로써 한 번의 터치로도 화면에 표시되고 있는 이미지의 원하는 영역을 선택할 수 있다.
따라서, 스마트폰 등과 같이 화면 표시 수단이 구비된 전자 장치의 화면상에 표시되고 있는 다양한 유형의 객체들에 대해 용이하게 선택할 수 있게 되어 편리한 사용자 경험을 제공할 수 있다.
도 1은 본 발명의 실시 예에 따른 전자 장치로서 휴대 단말의 예를 나타내는 개략적인 블록도.
도 2는 본 발명의 실시 예에 따른 휴대 단말의 전면 사시도를 나타내는 도면.
도 3은 본 발명의 실시 예에 따른 휴대 단말의 후면 사시도를 나타내는 도면.
도 4는 본 발명의 실시 예에 따른 다중 터치를 이용한 객체 선택 장치의 세부 구조를 나타내는 블록도.
도 5는 본 발명의 실시 예에 따른 다중 터치를 이용한 객체 선택 절차를 나타내는 흐름도.
도 6은 본 발명의 제1 실시 예에 따른 다중 터치를 이용한 텍스트 선택 절차를 나타내는 흐름도.
도 7은 본 발명의 제2 실시 예에 따른 다중 터치를 이용한 다중 리스트 선택 절차를 나타내는 흐름도.
도 8은 본 발명의 제3 실시 예에 따른 다중 터치를 이용한 이미지 선택 절차를 나타내는 흐름도.
도 9는 본 발명의 실시 예에 따라 화면상에서 텍스트를 선택하는 예를 나타내는 도면.
도 10은 본 발명의 실시 예에 따라 화면상에서 다중 리스트를 선택하는 예를 나타내는 도면.
도 11은 본 발명의 실시 예에 따라 화면상에서 이미지를 선택하는 예를 나타내는 도면.
도 12 내지 도 15는 본 발명의 실시 예에 따라 다중 터치 지점으로부터 기준점을 결정하는 예를 나타내는 도면.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
한편, 본 발명에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
본 발명의 실시 예는 전자 장치의 화면상에 표시된 객체를 선택하기 위한 다중 터치를 이용한 객체 선택 장치 및 방법을 개시한다. 이때, 본 발명의 실시 예에 따라 복수의 터치들(예컨대, 두 개의 터치들)을 동시에 입력(이하, '다중 터치(multi touch)' 또는 '멀티 터치'라 한다.)함으로써 객체 선택 모드로 자동 변환될 수 있으며, 동시에 입력된 터치들의 이동 경로를 추적(tracking)함으로써 이동 경로에 해당하는 적어도 하나의 객체를 선택할 수 있다.
한편, 본 발명의 실시 예에 따라 선택 가능한 객체들로는 텍스트, 이미지, 다중 리스트 등이 될 수 있으며, 본 발명이 이에 한정되지는 않는다.
예컨대, 화면상에서 동시에 터치한 지점이 텍스트 영역일 경우에는, 터치들의 이동 경로에 해당하는 텍스트들이 선택될 수 있다. 또한, 화면상에서 동시에 터치한 지점이 이미지 영역일 경우에는, 터치들의 이동 경로에 따라 형성된 폐곡선 내의 영역이 선택될 수 있다. 또한, 화면상에서 동시에 터치한 지점이 다중 리스트 영역일 경우에는, 터치들의 이동 경로에 해당하는 적어도 하나의 객체(예컨대, 선택 상자(check box))가 선택될 수 있다. 이때, 상기 다중 리스트는 파일 또는 사진 등과 같은 객체들이 복수 개로 목록화되어 표시된 것을 의미하며, 예컨대, 도 10에서와 같이 복수의 이미지들이 썸네일(thumbnail) 이미지들로 표시될 수도 있으며, 도시된 바와 같이 각 객체에 대응하여 선택 상자가 더 표시될 수 있다.
또한, 후술하는 설명에서 '다중 터치'라는 용어는 복수의 터치(예컨대, 둘 또는 셋 이상의 터치)들이 터치 스크린상에서 동시에 입력된 상태를 의미한다. 이때, 복수의 터치들의 입력된 시간 차가 미리 설정된 일정 시간 이내일 경우 터치들이 동시에 입력된 것으로 판단할 수 있다.
한편, 본 발명의 실시 예에 따라 다중 터치를 이용한 객체 선택 장치 및 방법은 디스플레이 수단(예컨대, 터치 스크린 등)이 구비된 어떠한 전자 장치 내에서도 구현될 수 있으며, 상기 디스플레이 수단을 통해 다양한 객체들을 표시하고, 화면 내의 특정 객체를 선택할 수 있는 소정의 애플리케이션이 설치 가능한 어떠한 전자 장치도 본 발명의 실시 예에 따른 전자 장치에 포함될 수 있다.
따라서, 본 발명에서 전자 장치는 터치 스크린을 구비하는 임의의 장치일 수 있으며, 휴대 단말, 이동 단말, 통신 단말, 휴대용 통신 단말, 휴대용 이동 단말 등으로 칭할 수 있다. 예를 들어, 전자 장치는 스마트폰, 휴대폰, 게임기, 텔레비전(TV), 디스플레이 장치, 차량용 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants), 내비게이션 장치, 은행의 ATM, 상점의 POS 장치 등일 수 있다. 또한, 본 발명에서의 전자 장치는 플렉서블 장치 또는 플렉서블 디스플레이 장치일 수 있다.
이러한 전자 장치의 대표적인 구성은 휴대 단말(예컨대, 휴대폰, 스마트폰 등)에 대한 것이며, 이러한 전자 장치의 대표적인 구성에서 일부 구성 소자는 필요에 따라 생략되거나 변경될 수 있다. 먼저, 본 발명이 적용되는 전자 장치의 일 예로서 휴대 단말의 구성을 도 1 내지 도 3을 참조하여 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 전자 장치로서 휴대 단말의 예를 나타내는 개략적인 블록도이다.
도 1을 참조하면, 휴대 단말(100)은 통신 모듈(120), 커넥터(165), 및 이어폰 연결잭(167) 중 적어도 하나를 이용하여 외부의 전자 장치와 연결될 수 있다. 이러한, 전자 장치는 상기 휴대 단말(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들 중의 하나를 포함할 수 있다. 또한, 전자 장치는 무선으로 연결 가능한 블루투스 통신 장치, NFC(Near Field Communication) 장치, 와이파이 다이렉트(WiFi Direct) 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 그리고, 휴대 단말(100)은 유선 또는 무선을 이용하여 다른 휴대 단말 또는 전자 장치, 예를 들어, 휴대폰, 스마트폰, 태블릿 PC, 데스크탑 PC 및 서버 중의 하나와 연결될 수 있다.
또한, 휴대 단말(100)은 적어도 하나의 터치 스크린(190) 및 적어도 하나의 터치 스크린 컨트롤러(195)를 포함할 수 있다. 아울러, 휴대 단말(100)은 제어부(110), 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원 공급부(180)를 포함할 수 있다. 통신 모듈(120)은 이동통신 모듈(121), 서브 통신 모듈(130) 및 방송 통신 모듈(141)을 포함할 수 있다. 서브 통신 모듈(130)은 무선랜 모듈(131) 및 근거리 통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 오디오 재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함할 수 있다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 그리고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동 소자(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
제어부(110)는 CPU(111), 휴대 단말(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 휴대 단말(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대 단말(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
또한, 제어부(110)는 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원 공급부(180), 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 제어할 수 있다.
이때, 제어부(110)는 본 발명의 실시 예에 따라 터치 스크린(190) 상에 표시된 화면에서 복수의 터치들이 동시에 입력된 것을 판단하고, 복수의 터치들의 화면상에서의 이동 경로를 추적(tracking)함으로써 다양한 객체들을 선택할 수 있도록 제어할 수 있다. 상기 제어부(110)의 본 발명의 실시 예에 따른 세부적인 기능들은 도 4의 설명에서 후술하기로 한다.
또한, 제어부(110)는 입력 유닛(168)이 터치 스크린(190)에 접근하거나, 그에 근접하게 위치함에 따른 호버링(Hovering) 이벤트와 같은 사용자 입력 이벤트를 감지할 수 있다. 제어부(110)는 본 발명의 실시 예에 따라 각종 입력 수단(예컨대, 터치 스크린을 통한 터치)에 의한 복수의 동시 터치들을 판단하고, 화면상에 포함된 적어도 하나의 객체를 선택하는 기능 등을 제어할 수 있다.
또한, 제어부(110)는 상기 터치 스크린(190)뿐만 아니라 카메라 모듈(150), 입/출력 모듈(160), 및 센서모듈(170) 등을 통해 수신되는 다양한 사용자 입력을 검출할 수 있다. 상기 사용자 입력은 상기 터치뿐만 아니라, 사용자의 제스쳐, 음성, 눈동자 움직임, 홍채 인식, 생체신호 등 상기 휴대 단말(100) 내로 입력되는 다양한 형태의 정보를 포함할 수 있다. 제어부(110)는 상기 검출된 사용자 입력에 대응하는 미리 정해진 동작 또는 기능이 휴대 단말(100) 내에서 수행되도록 제어할 수 있다.
또한, 제어부(110)는 제어 신호를 입력 유닛(168) 또는 진동 소자(164)로 출력할 수 있다. 이러한 제어 신호는 진동 패턴에 대한 정보를 포함할 수 있으며, 입력 유닛(168) 또는 진동 소자(164)는 이러한 진동 패턴에 따른 진동을 생성한다. 이러한 진동 패턴에 대한 정보는 진동 패턴 자체, 진동 패턴의 식별자 등을 나타낼 수 있다. 또는, 이러한 제어 신호는 단순히 진동 생성의 요청만을 포함할 수도 있다.
휴대 단말(100)은 성능에 따라 이동 통신 모듈(121), 무선랜 모듈(131), 및 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
이동 통신 모듈(121)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나를 이용하여 이동 통신을 통해 휴대 단말(100)이 외부 전자 장치와 연결되도록 할 수 있다. 이동 통신 모듈(121)은 휴대 단말(100)에 입력되는 전화번호를 가지는 휴대폰, 스마트폰, 태블릿 PC 또는 다른 전자 장치와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신할 수 있다.
서브 통신 모듈(130)은 무선랜 모듈(131)과 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리 통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리 통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE 802.11x)을 지원할 수 있다. 근거리 통신 모듈(132)은 제어부(110)의 제어에 따라 휴대 단말(100)과 외부 전자 장치 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신 방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
방송 통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송 부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다.
멀티미디어 모듈(140)은 오디오 재생 모듈(142) 또는 동영상 재생 모듈(143)을 포함할 수 있다. 오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장부(175)에 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상 재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예컨대, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다.
멀티미디어 모듈(140)은 제어부(110)에 통합될 수 있다. 카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 카메라 모듈(150)은 피사체를 촬영하기 위해 줌 인/줌 아웃을 수행하는 경통부(155), 상기 경통부(155)의 움직임을 제어하는 모터부(154), 피사체를 촬영하기 위해 필요한 보조 광원을 제공하는 플래시(153) 중 적어도 하나를 포함할 수 있다. 제1 카메라(151)는 상기 휴대 단말(100) 전면에 배치되고, 제2 카메라(152)는 상기 휴대 단말(100)의 후면에 배치될 수 있다.
입/출력 모듈(160)은 적어도 하나의 버튼(161), 적어도 하나의 마이크(162), 적어도 하나의 스피커(163), 적어도 하나의 진동 소자(164), 커넥터(165), 키패드(166), 이어폰 연결 잭(167) 및 입력 유닛(168) 중 적어도 하나를 포함할 수 있다. 그리고, 이러한 입/출력 모듈(160)은 이에 국한되지 않으며, 마우스, 트랙볼, 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 터치 스크린(190) 상의 커서의 움직임을 제어하기 위해 제공될 수 있다.
버튼(161)은 상기 휴대 단말(100)의 하우징(또는 케이스)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다. 마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 소리를 입력받아 전기적인 신호를 생성할 수 있다. 스피커(163)는 제어부(110)의 제어에 따라 다양한 신호 또는 데이터(예를 들어, 무선 데이터, 방송 데이터, 디지털 오디오 데이터, 디지털 동영상 데이터 등)에 대응되는 소리를 휴대 단말(100)의 외부로 출력할 수 있다. 스피커(163)는 휴대 단말(100)이 수행하는 기능에 대응되는 소리(예를 들어, 전화 통화에 대응되는 버튼 조작음, 통화 연결음, 상대방 사용자의 음성 등)를 출력할 수 있다. 스피커(163)는 상기 휴대 단말(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동 소자(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 휴대 단말(100)은 다른 장치로부터 음성 또는 화상 통화가 수신되는 경우, 진동 소자(164)가 동작한다. 진동 소자(164)는 상기 휴대 단말(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 소자(164)는 터치 스크린(190)을 통한 사용자 입력에 대응하여 동작할 수 있다.
커넥터(165)는 상기 휴대 단말(100)과 외부 전자 장치 또는 전원 소스를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)는 커넥터(165)에 연결된 유선 케이블을 통해 휴대 단말(100)의 저장부(175)에 저장된 데이터를 외부 전자 장치로 전송하거나 외부 전자 장치로부터 데이터를 수신할 수 있다. 휴대 단말(100)은 커넥터(165)에 연결된 유선 케이블을 통해 전원 소스로부터 전력을 수신하거나, 전원 소스를 이용하여 배터리를 충전할 수 있다.
키패드(166)는 휴대 단말(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 휴대 단말(100)에 형성되는 물리적인 키패드 또는 터치 스크린(190)에 표시되는 가상의 키패드를 포함할 수 있다. 휴대 단말(100)에 형성되는 물리적인 키패드는 휴대 단말(100)의 성능 또는 구조에 따라 제외될 수 있다. 이어폰은 이어폰 연결잭(Earphone Connecting Jack, 167)에 삽입되어 상기 휴대 단말(100)에 연결될 수 있다.
입력 유닛(168)은 휴대 단말(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 휴대 단말(100)로부터 인출 또는 분리될 수 있다. 이러한, 입력 유닛(168)이 삽입되는 휴대 단말(100) 내부의 일 영역에는 상기 입력 유닛(168)의 장착 및 탈착에 대응하여 동작하는 탈/부착 인식 스위치(169)가 구비되어 있고, 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)의 장착 및 분리에 대응하는 신호를 제어부(110)로 출력할 수 있다. 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)의 장착시 직·간접적으로 접촉되도록 구성될 수 있다. 이에 따라, 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)과의 접촉 여부에 기초하여, 상기 입력 유닛(168)의 장착 또는 분리에 대응하는 신호(즉, 입력 유닛(168)의 장착 또는 분리를 통지하는 신호)를 생성하여 제어부(110)로 출력할 수 있다.
센서 모듈(170)은 휴대 단말(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서 모듈(170)은 사용자의 휴대 단말(100)에 대한 접근 여부를 검출하는 근접 센서, 휴대 단말(100) 주변의 빛의 양을 검출하는 조도 센서, 또는 휴대 단말(100)의 동작(예를 들어, 휴대 단말(100)의 회전, 휴대 단말(100)의 가속 또는 진동)을 검출하는 모션 센서, 지구 자기장을 이용해 휴대 단말(100)의 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter), GPS 모듈(157) 등의 적어도 하나의 센서를 포함할 수 있다.
GPS 모듈(157)은 지구 궤도상에 있는 복수의 GPS 위성으로부터 전파를 수신하고, GPS 위성으로부터 휴대 단말(100)까지의 전파 도달 시간(Time of Arrival)을 이용하여 휴대 단말(100)의 위치를 산출할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170) 또는 터치 스크린(190)의 동작에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 단말(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.
'저장부'라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 휴대 단말(100)에 장착되는 메모리 카드(예를 들어, SD 카드, 메모리 스틱) 등의 임의의 데이터 저장 장치를 지칭하는 용어로 사용된다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.
또한, 저장부(175)는 내비게이션, 화상 통화, 게임, 사용자에게 시간을 기반으로 하는 알람 애플리케이션 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서, 터치 입력을 처리하는 방법과 관련된 데이터베이스들 또는 데이터, 휴대 단말(100)을 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라 모듈(150)에 의해 촬영된 이미지들 등을 저장할 수 있다.
또한, 저장부(175)는 본 발명의 실시 예에 따라 다중 터치에 의해 선택된 적어도 하나의 객체에 대한 정보 또는 객체와 관련된 정보를 저장할 수 있으며, 본 발명의 실시 예에 따라 터치의 이동 경로를 추적할 때 상기 터치의 이동 경로와 관련된 적어도 하나의 정보를 저장할 수 있다.
저장부(175)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계로 데이터를 제공하는 매체로 정의될 수 있다. 저장부(175)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다.
상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM), 플래시-이피롬(FLASH-EPROM), 및 임베디드 멀티미디어 카드(eMMC(embedded Multi Media Card)) 중의 적어도 하나를 포함한다.
전원 공급부(180)는 제어부(110)의 제어에 따라 휴대 단말(100)의 하우징에 배치되는 하나 또는 복수의 배터리에 전력을 공급할 수 있다. 하나 또는 복수의 배터리는 휴대 단말(100)에 전력을 공급한다. 또한, 전원 공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원 소스로부터 입력되는 전원을 휴대 단말(100)로 공급할 수 있다. 또한, 전원 공급부(180)는 무선 충전 기술을 통해 외부의 전원 소스로부터 무선으로 입력되는 전원을 휴대 단말(100)로 공급할 수도 있다.
그리고, 휴대 단말(100)은 사용자에게 다양한 서비스(예컨대, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 그래픽 인터페이스를 제공하는 적어도 하나의 터치 스크린(190)을 포함할 수 있다. 터치 스크린(190)은 사용자 그래픽 인터페이스에 입력되는 적어도 하나의 사용자 입력에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 출력할 수 있다.
터치 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 입력 유닛(168)(예를 들어, 스타일러스 펜, 전자 펜 등)을 통해 적어도 하나의 사용자 입력을 수신할 수 있다. 이러한, 터치 스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, 또는 이들의 조합으로 구현될 수 있다.
또한, 터치 스크린(190)은 손가락 및 입력 유닛(168)에 의한 입력을 각각 입력받을 수 있도록, 손가락 및 입력 유닛(168)의 터치나 접근을 각각 감지할 수 있는 적어도 두 개의 터치 패널을 포함할 수 있다. 적어도 두 개의 터치 패널은 서로 다른 출력 값을 터치 스크린 컨트롤러(195)에 제공하고, 터치 스크린 컨트롤러(195)는 상기 적어도 두 개의 터치 스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치 스크린(190)으로부터의 입력이 손가락에 의한 입력인지, 입력 유닛(168)에 의한 입력인지를 구분할 수 있다.
또한, 상기 터치는 터치 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예컨대, 터치 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과 검출가능한 간격이 1 mm 이하)을 포함할 수 있다. 터치 스크린(190)에서 검출가능한 간격은 휴대 단말(100)의 성능 또는 구조에 따라 변경될 수 있다
터치 스크린 컨트롤러(195)는 터치 스크린(190)으로부터 입력된 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치 스크린 컨트롤러(195)로부터 수신한 디지털 신호를 이용하여 터치 스크린(190)을 제어할 수 있다. 터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 위치뿐만 아니라 호버링 간격 또는 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수도 있다. 또한, 터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 수단이 터치 스크린(190)을 누르는 압력을 검출할 수 있고, 확인된 압력 값을 디지털 신호로 변환하여 제어부(110)로 제공할 수도 있다.
또한, 상기 터치 스크린 컨트롤러(195)는 본 발명의 실시 에에 따라 터치 스크린(190)으로부터 입력된 복수의 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송할 수 있다. 이때, 제어부(110)는 터치 스크린 컨트롤러(195)로부터 수신한 복수의 디지털 신호로부터 동시에 복수의 터치가 입력되었는지 여부를 판단할 수 있다.
도 2는 본 발명의 실시 예에 따른 휴대 단말의 전면 사시도를 나타낸 도면이고, 도 3은 본 발명의 실시 예에 따른 휴대 단말의 후면 사시도를 나타낸 도면이다.
도 2 및 도 3을 참조하면, 휴대 단말(100)의 전면(101) 중앙에는 터치 스크린(190)이 배치된다. 터치 스크린(190)은 휴대 단말(100)의 전면(101)의 대부분을 차지하도록 크게 형성될 수 있다. 도 2에서는, 상기 터치 스크린(190)에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 휴대 단말(100)의 전원을 켰을 때 터치 스크린(190) 상에 표시되는 첫 화면이다. 또한, 휴대 단말(100)이 여러 페이지의 서로 다른 홈 화면들을 가질 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 애플리케이션들을 실행하기 위한 단축 아이콘들(191-1, 191-2, 191-3), 메인 메뉴 전환키(191-4), 시간, 날씨 등이 표시될 수 있다. 사용자가 메인 메뉴 전환키(191-4)를 선택하면, 상기 터치 스크린(190)에 메뉴 화면이 표시된다. 또한, 상기 터치 스크린(190)의 상단에는 배터리 충전 상태, 수신 신호의 세기, 현재 시각과 같은 휴대 단말(100)의 상태를 표시하는 상태 바(Status Bar; 192)가 형성될 수도 있다.
상기 터치 스크린(190)의 하부에는 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)이 형성될 수 있다. 홈 버튼(161a)은 터치 스크린(190)에 메인 홈 화면(main home screen)을 표시한다. 예를 들어, 터치 스크린(190)에 상기 메인 홈 화면과 다른 홈 화면(any home screen) 또는 메뉴 화면이 표시된 상태에서, 상기 홈 버튼(161a)이 선택되면, 터치 스크린(190)에 메인 홈 화면이 표시될 수 있다. 또한, 터치 스크린(190) 상에서 애플리케이션들이 실행되는 도중 홈 버튼(161a)이 선택되면, 상기 터치 스크린(190) 상에는 도 2에 도시된 메인 홈 화면이 디스플레이될 수 있다. 또한 홈 버튼(161a)은 상기 터치 스크린(190) 상에 최근에(recently) 사용된 애플리케이션들을 표시하도록 하거나, 태스크 매니저(Task Manager)를 표시하기 위하여 사용될 수도 있다.
메뉴 버튼(161b)은 터치 스크린(190) 상에 표시될 수 있는 연결 메뉴를 제공한다. 상기 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다.
뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 표시하거나, 가장 최근에 사용된 애플리케이션을 종료시키는 경우에 사용될 수 있다.
휴대 단말(100)의 전면(101)의 가장자리에는 제1 카메라(151)와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다. 휴대 단말(100)의 후면(103)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163)가 배치될 수 있다.
휴대 단말(100)의 측면(102)에는 예를 들어 전원/잠금 버튼(161d), 볼륨 증가 버튼(161f) 및 볼륨 감소 버튼(161g)을 갖는 볼륨 버튼(161e), 방송 수신을 위한 지상파 DMB 안테나(141a), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. 상기 DMB 안테나(141a)는 휴대 단말(100)에 고정되거나, 착탈 가능하게 형성될 수도 있다.
또한, 휴대 단말(100)의 하단 측면에는 커넥터(165)가 형성된다. 커넥터(165)에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 휴대 단말(100)의 상단 측면에는 이어폰 연결잭(167)이 형성될 수 있다. 이어폰 연결잭(167)에는 이어폰이 삽입될 수 있다.
또한, 휴대 단말(100)의 하단 측면에는 입력 유닛(168)이 장착될 수 있다. 입력 유닛(168)은 휴대 단말(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 휴대 단말(100)로부터 인출 및 분리될 수 있다.
이상으로 본 발명이 적용될 수 있는 전자 장치의 예로서 휴대 단말(100)의 세부 구조를 설명하였다.
이하, 도 4 내지 도 8을 참조하여 본 발명의 실시 예에 따른 다중 터치를 이용한 객체 선택 장치 및 방법을 상세히 설명한다.
도 4는 본 발명의 실시 예에 따른 다중 터치를 이용한 객체 선택 장치의 세부 구조를 나타내는 블록도이다. 도 4를 참조하면, 본 발명의 실시 예에 따른 장치(400)는 다중 터치 판단부(410), 기준점 산출부(420), 객체 분석부(430), 선택 모드 전환부(440), 시작점 결정부(450), 이동 경로 추적부(460) 및 선택 객체 결정부(470) 중에서 적어도 하나 이상을 포함하여 구성될 수 있다. 한편, 상기 장치(400)의 구성 중 전체 또는 적어도 일부는 상기 도 1의 휴대 단말(100)의 제어부(110)에 포함될 수도 있다.
다중 터치 판단부(410)는 터치 스크린을 통해 입력된 복수의 터치에 의해 수신된 신호로부터 다중 터치 입력 여부를 판단한다. 이때, 상기 다중 터치의 판단 방법은 다양하게 구현될 수 있다. 예컨대, 본 발명의 실시 예에 따라 복수의 터치가 입력된 시간을 비교하여 입력된 시간의 차이가 미리 설정된 시간 이내일 경우 터치가 동시에 입력된 것으로 간주하여 다중 터치가 된 것으로 판단할 수 있다.
객체 분석부(430)는 상기 다중 터치 판단부(410)의 다중 터치 입력 판단에 따라 터치 스크린의 화면상에서 현재 다중 터치된 부분이 어떠한 유형의 객체에 해당하는지를 분석할 수 있다. 예컨대, 다중 터치된 부분이 텍스트 영역일 수도 있으며, 이미지 영역일 수도 있으며, 선택을 위한 다중 리스트일 수도 있다. 이때, 상기 객체의 판단은 다중 터치된 복수의 터치 지점(point)들 중 어느 하나의 지점을 기준으로 판단할 수도 있으며, 다른 실시 예에 따라 복수의 터치 지점으로부터 별도의 기준점을 산출하여 판단할 수도 있다.
따라서, 기준점 산출부(420)는 다중 터치 입력된 복수의 터치 지점으로부터 객체 분석을 위한 기준점을 산출하는 기능을 수행할 수 있다. 이때, 상기 기준점의 산출 방법은 다양하게 구현될 수 있다. 예컨대, 동시에 입력된 두 개의 터치 지점의 중점을 기준점으로 설정할 수도 있으며, 각 터치 지점에 가중치를 부여하여 기준점을 설정할 수도 있다. 이에 대한 세부적인 실시 예는 도 12 이하의 설명에서 후술하기로 한다.
선택 모드 전환부(440)에서는 상기 다중 터치 판단부(410)의 판단에 따라 다중 터치가 입력된 것으로 판단될 경우, 해당 애플리케이션에서 화면에 표시된 특정 객체를 선택할 수 있는 객체 선택 모드로 전환시키는 기능을 수행한다. 상기 객체 선택 모드로의 전환에 따라 사용자가 화면을 통해 각종 동작들을 수행함으로써 객체 선택이 가능해질 수 있다.
시작점 결정부(450)는 객체 선택을 위한 시작점을 결정하며, 상기 시작점의 결정 방법은 다양하게 구현될 수 있다. 또한, 상기 시작점은 상기 기준점 산출부(420)에서 산출된 기준점과 동일할 수도 있으며 상이할 수도 있다. 이에 대한 세부적인 실시 예는 도 12 이하의 설명에서 후술하기로 한다.
이동 경로 추적부(460)는 상기 다중 터치가 화면상에서 이동됨에 따라 다중 터치의 이동 경로를 추적하는 기능을 수행한다. 예컨대, 사용자가 화면상에서 다중 터치한 이후, 터치를 떼지 않고 화면상에서 슬라이딩시키게 되면, 다중 터치의 이동 경로가 발생한다. 이때, 상기 다중 터치의 이동 경로에 관한 정보는 저장부에 저장될 수 있다.
선택 객체 결정부(470)는 상기 이동 경로 추적부(460)에 의해 추적된 다중 터치의 이동 경로상에 해당하는 적어도 하나의 객체를 선택된 객체로 결정하는 기능을 수행한다.
한편, 상기 장치(400)의 각각의 구성요소들은 기능 및 논리적으로 분리될 수 있음을 나타나기 위해 별도로 도면에 표시한 것이며, 물리적으로 반드시 별도의 구성요소이거나 별도의 코드로 구현되는 것을 의미하는 것은 아니다.
그리고 본 명세서에서 각 기능부라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 각 기능부는 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.
이하, 도 5 내지 도 8을 참조하여, 본 발명의 실시 예들에 따른 다중 터치를 이용한 객체 선택 절차를 설명한다.
도 5는 본 발명의 실시 예에 따른 다중 터치를 이용한 객체 선택 절차를 나타내는 흐름도이다. 도 5를 참조하면, 전자 장치에 구비된 터치 스크린에서 터치가 감지(S501)되면, 본 발명의 실시 예에 따라 상기 터치가 다중 터치(또는 멀티 터치)인지를 판단(S502)한다. 상기 판단 결과, 다중 터치가 아닌 경우에는 일반적인 터치로 간주하여 처리(S503)한다.
반면, 다중 터치일 경우에는 본 발명의 실시 예에 따라 객체 선택 모드로 전환되어, 적어도 하나의 해당 객체들이 선택될 수 있다. 따라서, 다중 터치된 복수의 터치 위치들로부터 객체 분석을 위한 기준점을 산출(S504)하고, 상기 산출된 기준점에서의 데이터 특성을 분석함으로써 터치된 위치의 객체를 분석(S505)한다. 상기 분석된 객체는 텍스트, 이미지, 다중 리스트 중에서 어느 하나일 수 있다.
이때, 상기 분석된 객체가 텍스트일 경우, 도 6의 절차에 따라 객체 선택 절차가 수행될 수 있으며, 상기 분석된 객체가 다중 리스트일 경우, 도 7의 절차에 따라 객체 선택 절차가 수행될 수 있으며, 상기 분석된 객체가 이미지일 경우, 도 8의 절차에 따라 객체 선택 절차가 수행될 수 있다.
도 6은 본 발명의 제1 실시 예에 따른 다중 터치를 이용한 텍스트 선택 절차를 나타내는 흐름도이다. 도 5에서 현재 다중 터치된 위치들로부터 분석된 객체가 도 9에 도시된 바와 같이 텍스트일 경우, 도 6과 같은 절차에 의해 적어도 하나의 해당 텍스트 객체들이 선택될 수 있다.
이를 위해, 현재 다중 터치된 위치들로부터 객체 선택을 위한 기준점을 계산하고, 최초 다중 터치된 위치들로부터 계산된 객체 선택의 기준점을 선택 시작점으로 설정(S601)한다. 이때, 상기 객체 선택을 위한 기준점의 시작점(즉, 선택 시작점)은 상술한 바와 같이 객체 분석을 위한 기준점과 동일할 수도 있으며 상이할 수도 있다.
한편, 상기 다중 터치한 위치가 이동하면(예컨대, 터치한 손을 슬라이딩하면), 다중 터치에 의한 객체 선택을 위한 기준점이 상기 선택 시작점으로부터 이동한다. 따라서, 본 발명의 실시 예에서는 상기 다중 터치에 의해 산출되는 객체 선택을 위한 기준점의 이동 경로를 추적(S602)한다.
상기 다중 터치가 해제(S603)되면, 상기 추적한 이동 경로에 해당하는 텍스트들을 선택(S604)한다. 이때, 상기 추적한 이동 경로에 해당하는 텍스트가 복수 개일 경우 복수의 텍스트들을 블럭화하여 선택할 수 있다.
이와 같이 선택된 텍스트들은 애플리케이션에서 지원하는 각종 기능들을 위해 사용될 수 있다. 또한, 상기 선택된 텍스트들을 복사하여 다른 애플리케이션 등에 사용할 수도 있다.
도 7은 본 발명의 제2 실시 예에 따른 다중 터치를 이용한 다중 리스트 선택 절차를 나타내는 흐름도이다. 도 5에서 현재 다중 터치된 위치들로부터 분석된 객체가 도 10에 도시된 바와 같이 다중 리스트일 경우, 도 7과 같은 절차에 의해 해당 다중 리스트에서의 적어도 하나의 객체들이 선택될 수 있다.
이를 위해, 현재 다중 터치된 위치들로부터 객체 선택을 위한 기준점을 계산하고, 최초 다중 터치된 위치들로부터 계산된 객체 선택의 기준점을 선택 시작점으로 설정(S701)한다. 이때, 상기 객체 선택을 위한 기준점의 시작점(즉, 선택 시작점)은 상술한 바와 같이 객체 분석을 위한 기준점과 동일할 수도 있으며 상이할 수도 있다.
한편, 상기 다중 터치한 위치가 이동하면(예컨대, 터치한 손을 슬라이딩하면), 다중 터치에 의한 객체 선택을 위한 기준점이 상기 선택 시작점으로부터 이동한다. 따라서, 본 발명의 실시 예에서는 상기 다중 터치에 의해 산출되는 객체 선택을 위한 기준점의 이동 경로를 추적(S702)한다.
상기 다중 터치가 해제(S703)되면, 상기 추적한 이동 경로에 해당하는 다중 리스트의 특정 객체들을 선택 처리(S704)한다.
이와 같이 선택된 객체들은 애플리케이션에서 지원하는 각종 기능들을 위해 사용될 수 있다. 예컨대, 도 10에 도시된 바와 같이 복수의 이미지들이 선택되면, 선택된 이미지들을 복사하거나 전송하는 등의 기능을 실행할 수 있으며, 본 발명이 이에 한정되는 것은 아니다.
도 8은 본 발명의 제3 실시 예에 따른 다중 터치를 이용한 이미지 선택 절차를 나타내는 흐름도이다. 도 5에서 현재 다중 터치된 위치들로부터 분석된 객체가 도 11에 도시된 바와 같이 이미지일 경우, 도 8과 같은 절차에 의해 해당 이미지에서의 특정 영역이 선택될 수 있다.
이를 위해, 현재 다중 터치된 위치들로부터 객체 선택을 위한 기준점을 계산하고, 최초 다중 터치된 위치들로부터 계산된 객체 선택의 기준점을 선택 시작점으로 설정(S801)한다. 이때, 상기 객체 선택을 위한 기준점의 시작점(즉, 선택 시작점)은 상술한 바와 같이 객체 분석을 위한 기준점과 동일할 수도 있으며 상이할 수도 있다.
한편, 상기 다중 터치한 위치가 이동하면(예컨대, 터치한 손을 슬라이딩하면), 다중 터치에 의한 객체 선택을 위한 기준점이 상기 선택 시작점으로부터 이동한다. 따라서, 본 발명의 실시 예에서는 상기 다중 터치에 의해 산출되는 객체 선택을 위한 기준점의 이동 경로를 추적(S802)한다.
상기 다중 터치가 해제(S803)되면, 상기 이동 경로가 폐곡선인지를 판단(S804)한다. 상기 판단 결과, 이동 경로가 폐곡선이 아닌 경우 선택을 해제(S805)하거나, 선택 영역이 없는 것으로 처리할 수 있다.
반면, 상기 판단 결과, 이동 경로가 폐곡선일 경우, 상기 폐곡선 영역을 선택 영역으로 결정(S806)할 수 있다.
이와 같이 선택된 이미지 영역은 애플리케이션에서 지원하는 각종 기능들을 위해 사용될 수 있다. 또한, 상기 선택된 이미지 영역을 복사하여 다른 애플리케이션 등에 사용할 수도 있다.
이상으로, 도 5 내지 도 8을 참조하여 본 발명의 다양한 실시 예들에 따른 방법들을 설명하였다.
한편, 상술한 본 발명의 일 실시 예에 따른 다중 터치를 이용한 객체 선택 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이하, 도 9 내지 도 11을 참조하여 본 발명의 실시 예들이 전자 장치의 화면상에서 구현된 예를 설명한다. 도 9는 다중 터치에 의해 텍스트 객체가 선택되는 예를 나타내며, 도 10은 다중 터치에 의해 다중 리스트의 객체가 선택되는 예를 나타내며, 도 11은 다중 터치에 의해 이미지의 특정 영역이 선택되는 예를 나타낸다.
도 9를 참조하면, 화면상에 "무궁화 꽃이 활짝 피었습니다.~" 등과 같은 텍스트(900)가 표시된 상태에서, 사용자가 "활" 이라는 텍스트와 "짝"이라는 텍스트 근처를 두 개의 손가락(예컨대, 검지(910a) 및 중지(920a))으로 다중 터치하고, 다중 터치된 손가락들을 "앞"이라는 텍스트 바로 전 위치까지 슬라이딩(910b, 920b)시키면, 본 발명의 실시 예에 따라 "활짝 피었습니다.(930)"라는 복수의 텍스트들이 블록화하여 선택될 수 있다. 즉, 상기 검지(910a)와 중지(920a)의 터치 지점으로부터 산출된 기준점이 상기 슬라이딩에 따라 이동될 때, 상기 기준점의 이동 경로에 해당하는 모든 텍스트가 선택될 수 있다. 이에 따라, 사용자는 한 번의 간단한 터치만으로도 원하는 텍스트 영역을 용이하게 선택할 수 있다.
도 10을 참조하면, 화면(100)상에 다수의 이미지들(1001 내지 1015)이 썸네일 형태로 표시될 수 있다. 또한, 각 썸네일에는 선택 상자(check box)(1001a 내지 1015a)들이 표시될 수 있다. 일반적으로 상기 복수의 썸네일 이미지들(1001 내지 1015) 중에서 원하는 이미지들을 선택하기 위해서는 각 이미지에 인접하여 표시된 해당 선택 상자(1001a 내지 1015a)들을 각각 선택하여야 하는 불편함이 있었다. 즉, 10개의 이미지들을 선택하기 위해서는 10번의 터치가 필요하였다.
그러나, 본 발명의 실시 예에서는 선택하고자 하는 특정 이미지의 선택 상자(예컨대, 제1 선택 상자(1001a))를 다중 터치하고 선택을 원하는 이미지들에 대해 터치를 슬라이딩시킴으로써 한 번의 터치로도 복수의 이미지들을 용이하게 선택할 수 있다.
예컨대, 도 10에서는 제1 선택 상자(1001a)에서 다중 터치한 후, 제2 선택 상자(1002a), 제3 선택 상자(1003a), 제4 선택 상자(1004a), 제5 선택 상자(1005a), 제10 선택 상자(1010a), 제9 선택 상자(1009a), 제8 선택 상자(1008a), 제7 선택 상자(1007a), 제6 선택 상자(1006a), 제11 선택 상자(1011a), 제12 선택 상자(1012a), 제13 선택 상자(1013a), 제14 선택 상자(1014a) 등의 순으로 슬라이딩시킴으로 해당 복수의 이미지들이 선택될 수 있다.
도 11을 참조하면, 화면상에 이미지(1100)가 표시된 상태에서, 사용자가 전체 이미지의 특정 포인트들에서 두 개의 손가락(예컨대, 검지(1110) 및 중지(1120))으로 다중 터치하고, 다중 터치된 손가락들을 슬라이딩시켜 폐곡선을 형성하면, 상기 형성된 폐곡선 내의 영역이 선택될 수 있다.
즉, 상기 검지(1110)와 중지(1120)의 터치 지점으로부터 산출된 기준점이 상기 슬라이딩에 따라 이동되고, 상기 기준점의 이동 경로가 폐곡선을 형성하면, 상기 폐곡선 내의 영역이 선택될 수 있다. 이에 따라, 사용자는 한 번의 간단한 터치만으로도 화면상의 원하는 이미지 영역을 용이하게 선택할 수 있다.
이하, 도 12 내지 도 15를 참조하여 본 발명의 실시 예에 따라 기준점(예컨대, 객체유형 판단을 위한 기준점 또는 객체 선택을 위한 기준점 등) 및 선택 시작점을 결정하는 방법의 예를 설명한다.
도 12를 참조하면, 두 개의 터치점(touch point)을 기준으로 객체 유형 판단을 위한 기준점을 산출할 수 있다. 이때, 상술한 바와 같이 두 터치점의 중점을 기준점으로 산출할 수도 있으며, 각 터치점에 가중치를 부여하여 산출할 수도 있다.
예컨대, 상기 기준점을 산출함에 있어 상기 기준점의 수평 좌표는 검지의 터치점에 더 가깝게 위치하도록 가중치를 부여하고, 상기 기준점의 수직 좌표는 중지의 터치점에 더 가깝게 위치하도록 가중치를 부여할 수 있다.
한편, 상기 도 12에서와 같이 기준점을 산출한 후, 상기 기준점을 기반으로 선택 시작점을 산출할 수도 있으며, 두 터치점으로부터 미리 설정된 방법에 따라 선택 시작점을 산출할 수도 있다.
도 13은 선택할 객체가 텍스트일 경우 선택 시작점(selection start point)을 산출하는 예를 나타내는 도면이다. 도 13을 참조하면, 객체 선택 모드에서 선택할 객체가 텍스트일 경우, 선택 시작점의 수평 좌표는 기준점보다 좌측으로 위치하도록 설정할 수 있다. 이와 같은 방법에 의하면, 검지 및 중지로 다중 터치가 될 경우 선택 시작점의 위치는 검지에 더 가깝게 되도록 산출됨으로써 사용자의 의도에 따른 정확한 텍스트의 선택이 가능하게 된다.
도 14 및 도 15는 선택할 객체가 다중 리스트일 경우 선택 시작점(selection start point)을 산출하는 예를 나타내는 도면이다. 도 14를 참조하면, 객체 선택 모드에서 선택할 객체가 다중 리스트일 경우 다음 조건을 만족하는 지점을 선택 시작점(selection start point)으로 결정할 수 있다.
- 제1 조건 : 검지의 윗머리 영역
- 제2 조건 : 중지의 좌측 측면 영역
- 제3 조건 : 기준점에서 가장 가까운 2 사분면 객체의 좌표
따라서, 상기 제1 조건 및 제2 조건을 만족하는 영역 내의 임의의 지점을 선택 시작점으로 결정할 수 있으며, 선택적으로 상기 제3 조건을 만족하는 지점을 선택 시작점으로 결정할 수 있다.
한편, 선택할 객체가 이미지일 경우에는 선택 시작점(selection start point)의 위치를 기준점의 위치와 동일하게 사용할 수 있다.
또한, 본 발명의 다른 실시 예에 따라 상기 다중 터치의 위치가 이동하여(예컨대, 터치한 손을 슬라이딩하여), 화면의 가장자리에 근접할 경우 화면이 다음 페이지로 전환되고, 전환된 화면상에서 계속해서 객체를 선택할 수도 있다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100 : 휴대 단말 110 : 제어부
120 : 통신 모듈 130 : 서브 통신 모듈
140 : 멀티미디어 모듈 150 : 카메라 모듈
157 : GPS 모듈 160 : 입/출력 모듈
168 : 입력 유닛 170 : 센서 모듈
175 : 저장부 180 : 전원 공급부
190 : 터치 스크린 195 : 터치 스크린 컨트롤러
400 : 객체 선택 장치 410 : 다중 터치 판단부
420 : 기준점 산출부 430 : 객체 분석부
440 : 선택 모드 전환부 450 : 시작점 결정부
460 : 이동 경로 추적부 470 : 선택 객체 결정부

Claims (29)

  1. 멀티 터치(multi touch)를 사용하여 객체를 선택하는 방법에 있어서,
    전자 장치의 터치스크린 상에서 적어도 2개의 터치들이 동시에 입력되는지 여부를 판단하는 동작과,
    상기 판단 결과 상기 적어도 2개의 터치들이 동시에 입력된 것으로 판단된 경우, 상기 적어도 2개의 터치들이 입력된 터치 지점들로부터 기준점을 결정하고, 상기 적어도 2개의 터치들이 입력된 상기 터치 지점들로부터 선택 시작점을 결정하는 동작과, 상기 기준점은 상기 선택 시작점으로부터 이격되어 있으며,
    상기 기준점이 결정된 후에, 상기 결정된 기준점에서 객체의 유형을 확인하는 동작과,
    상기 적어도 2개의 터치들이 입력된 상기 터치 지점들이 상기 터치스크린 상에서 이동됨에 따라, 상기 결정된 선택 시작점의 이동 경로를 추적하는 동작과,
    상기 터치스크린에 표시된 화면상에서 상기 선택 시작점의 상기 이동 경로 및 상기 확인된 객체의 유형에 해당하는 적어도 하나의 객체를 선택하는 동작을 포함하는 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하는 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 적어도 2개의 터치들이 동시에 입력되는지 여부를 판단하는 동작은,
    상기 적어도 2개의 터치들에 대한 터치 시간들의 차이가 미리 설정된 시간 이내일 경우, 상기 적어도 2개의 터치들이 동시에 입력된 것으로 판단하는 동작을 포함하는 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하는 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 기준점은, 상기 적어도 2개의 터치들이 입력된 상기 터치 지점들에서 적어도 하나의 터치 지점에 가중치를 부여하여 결정되는 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하는 방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 객체의 유형을 확인한 결과, 상기 객체가 텍스트일 경우, 상기 선택 시작점의 수평좌표를 상기 적어도 2개의 터치들 중에서 좌측 터치의 터치 위치에 더 근접하도록 설정하는 동작을 더 포함하는 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하는 방법.
  8. 제1항에 있어서,
    상기 객체의 유형을 확인한 결과, 상기 객체가 이미지일 경우, 상기 선택 시작점의 상기 이동 경로가 폐곡선을 형성하면, 상기 폐곡선 내의 영역을 선택 영역으로 결정하는 동작을 더 포함하는 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하는 방법.
  9. 삭제
  10. 멀티 터치 (multi touch)를 사용하여 객체를 선택하기 위한 장치에 있어서,
    적어도 하나의 객체를 표시하도록 설정된 터치스크린; 및
    제어부를 포함하고, 상기 제어부는,
    상기 터치스크린 상에서 적어도 2개의 터치들이 동시에 입력되는지 여부를 판단하고,
    상기 판단 결과, 상기 적어도 2개의 터치들이 동시에 입력된 것으로 판단된 경우, 상기 적어도 2개의 터치들이 입력된 터치 지점들로부터 기준점을 결정하고, 상기 적어도 2개의 터치들이 입력된 상기 터치 지점들로부터 선택 시작점을 결정하고, 상기 기준점은 상기 선택 시작점으로부터 이격되어 있으며,
    상기 기준점이 결정된 후에, 상기 결정된 기준점에서 객체의 유형을 확인하고,
    상기 적어도 2개의 터치들이 입력된 상기 터치 지점들이 상기 터치스크린 상에서 이동됨에 따라, 상기 결정된 선택 시작점의 이동 경로를 추적하고,
    상기 터치스크린에 표시된 화면상에서 상기 선택 시작점의 상기 이동 경로 및 상기 객체의 유형에 해당하는 적어도 하나의 객체를 선택하도록 설정된 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하기 위한 장치.
  11. 삭제
  12. 제10항에 있어서, 상기 제어부는,
    상기 적어도 2개의 터치들에 대한 터치 시간들의 차이가 미리 설정된 시간 이내일 경우, 상기 적어도 2개의 터치들이 동시에 입력된 것으로 판단하는 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하기 위한 장치.
  13. 제10항에 있어서,
    상기 기준점은, 상기 적어도 2개의 터치들이 입력된 상기 터치 지점들의 중점으로 결정되는 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하기 위한 장치.
  14. 제10항에 있어서,
    상기 기준점은, 상기 적어도 2개의 터치들이 입력된 상기 터치 지점들에서 적어도 하나의 터치 지점에 가중치를 부여하여 결정되는 것을 특징으로 하는, 멀티 터치를 사용한 객체를 선택하기 위한 장치.
  15. 삭제
  16. 삭제
  17. 삭제
  18. 제10항에 있어서, 상기 제어부는,
    상기 객체의 유형을 확인한 결과, 상기 객체가 다중 리스트일 경우,
    상기 선택 시작점의 상기 이동 경로가 통과하는 적어도 하나의 선택 상자에 대응하는 객체를 선택하는 것을 특징으로 하는, 멀티 터치를 사용하여 객체를 선택하기 위한 장치.
  19. 삭제
  20. 객체를 선택하는 방법에 있어서,
    터치스크린 상에서, 제1 시간 및 상기 터치스크린 상의 제1 터치 지점에서 생성되는(made) 제1 터치 입력을 검출하는 동작과,
    상기 터치스크린 상에서, 제2 시간 및 상기 터치스크린 상의 제2 터치 지점에서 생성되는 제2 터치 입력을 검출하는 동작과,
    상기 제1 터치 지점 및 상기 제2 터치 지점에 기반하여, 기준점 및 선택 시작점을 결정하는 동작과, 상기 기준점은 상기 선택 시작점으로부터 이격되어 있으며,
    상기 기준점을 결정한 후에, 상기 결정된 기준점에서 상기 객체의 유형을 확인하는 동작과,
    상기 제1 터치 지점 및 상기 제2 터치 지점이 상기 터치스크린 상에서 이동됨에 따라, 상기 선택 시작점의 이동 경로를 추적하는 동작과,
    상기 터치스크린에 표시된 화면상에서 상기 선택 시작점의 상기 이동 경로 및 상기 확인된 객체의 유형에 해당하는 적어도 하나의 객체를 선택하는 동작을 포함하는 것을 특징으로 하는, 객체를 선택하는 방법.
  21. 제20항에 있어서,
    상기 제1 시간과 상기 제2 시간의 차이가 미리 설정된 시간 이내인지 확인하는 동작을 더 포함하는 것을 특징으로 하는, 객체를 선택하는 방법.
  22. 제20항에 있어서,
    상기 기준점은, 상기 제1 터치 지점 및 상기 제2 터치 지점 중 적어도 하나에 가중치를 부여하여 결정되는 것을 특징으로 하는, 객체를 선택하는 방법.
  23. 제20항에 있어서,
    상기 객체의 유형을 확인한 결과, 상기 객체가 텍스트일 경우,
    상기 선택 시작점의 수평좌표를 상기 제1 터치 입력 및 상기 제2 터치 입력 중에서 좌측 터치의 위치에 더 근접하도록 설정하는 동작을 더 포함하는 것을 특징으로 하는, 객체를 선택하는 방법.
  24. 제20항에 있어서,
    상기 객체의 유형을 확인한 결과, 상기 객체가 이미지일 경우,
    상기 선택 시작점의 상기 이동 경로가 폐곡선을 형성하면, 상기 폐곡선 내의 영역을 선택 영역으로 결정하는 동작을 더 포함하는 것을 특징으로 하는, 객체를 선택하는 방법.
  25. 객체를 선택하기 위한 장치에 있어서,
    적어도 하나의 객체를 표시하도록 설정된 터치스크린; 및
    제어부를 포함하고, 상기 제어부는,
    상기 터치스크린 상에서, 제1 시간 및 상기 터치스크린 상의 제1 터치 지점에서 생성되는(made) 제1 터치 입력을 검출하고
    상기 터치스크린 상에서, 제2 시간 및 상기 터치스크린 상의 제2 터치 지점에서 생성되는 제2 터치 입력을 검출하고,
    상기 제1 터치 지점 및 상기 제2 터치 지점에 기반하여, 기준점 및 선택 시작점을 결정하고, 상기 기준점은 상기 선택 시작점으로부터 이격되어 있으며,
    상기 기준점을 결정한 후에, 상기 결정된 기준점에서 상기 객체의 유형을 확인하고,
    상기 제1 터치 지점 및 상기 제2 터치 지점이 상기 터치스크린 상에서 이동됨에 따라, 상기 선택 시작점의 이동 경로를 추적하고,
    상기 터치스크린에 표시된 화면상에서 상기 선택 시작점의 상기 이동 경로 및 상기 확인된 객체의 유형에 해당하는 적어도 하나의 객체를 선택하도록 설정된 것을 특징으로 하는, 객체를 선택하기 위한 장치.
  26. 제25항에 있어서, 상기 제어부는,
    상기 제1 시간과 상기 제2 시간의 차이가 미리 설정된 시간 이내인지 결정하도록 설정된 것을 특징으로 하는, 객체를 선택하기 위한 장치.
  27. 제25항에 있어서, 상기 기준점은,
    상기 제1 터치 지점 및 상기 제2 터치 지점 중 적어도 하나에 가중치를 부여하여 결정된 것을 특징으로 하는, 객체를 선택하기 위한 장치.
  28. 제25항에 있어서, 상기 제어부는,
    상기 객체의 유형을 확인한 결과, 상기 객체가 텍스트일 경우,
    상기 선택 시작점의 수평좌표를 상기 제1 터치 입력 및 상기 제2 터치 입력 중에서 좌측 터치의 위치에 더 근접하도록 설정된 것을 특징으로 하는, 객체를 선택하기 위한 장치.
  29. 제25항에 있어서, 상기 제어부는,
    상기 객체의 유형을 확인한 결과, 상기 객체가 이미지일 경우,
    상기 선택 시작점의 상기 이동 경로가 폐곡선을 형성하면, 상기 폐곡선 내의 영역을 선택 영역으로 결정하도록 설정된 것을 특징으로 하는, 객체를 선택하기 위한 장치.
KR1020130065834A 2013-06-10 2013-06-10 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 KR102113674B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020130065834A KR102113674B1 (ko) 2013-06-10 2013-06-10 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US14/249,718 US9261995B2 (en) 2013-06-10 2014-04-10 Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
EP14167738.5A EP2813938B1 (en) 2013-06-10 2014-05-09 Apparatus and method for selecting object by using multi-touch, and computer readable recording medium
CN201410255390.7A CN104238807B (zh) 2013-06-10 2014-06-10 用于通过使用多点触摸选择对象的设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130065834A KR102113674B1 (ko) 2013-06-10 2013-06-10 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
KR20140143985A KR20140143985A (ko) 2014-12-18
KR102113674B1 true KR102113674B1 (ko) 2020-05-21

Family

ID=50943044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130065834A KR102113674B1 (ko) 2013-06-10 2013-06-10 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체

Country Status (4)

Country Link
US (1) US9261995B2 (ko)
EP (1) EP2813938B1 (ko)
KR (1) KR102113674B1 (ko)
CN (1) CN104238807B (ko)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
JP6031186B2 (ja) 2012-05-09 2016-11-24 アップル インコーポレイテッド ユーザインタフェースオブジェクトを選択するためのデバイス、方法及びグラフィカルユーザインタフェース
WO2013169870A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for transitioning between display states in response to gesture
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
EP3594797A1 (en) 2012-05-09 2020-01-15 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
AU2013259614B2 (en) 2012-05-09 2016-08-25 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
EP2975512B1 (en) 2012-05-09 2019-02-06 Apple Inc. Device and method for displaying a virtual loupe in response to a user contact
WO2013169882A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
CN109375853A (zh) 2012-12-29 2019-02-22 苹果公司 对用户界面分级结构导航的设备、方法和图形用户界面
KR101812329B1 (ko) 2012-12-29 2017-12-26 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN108845748A (zh) 2012-12-29 2018-11-20 苹果公司 用于针对多接触手势而放弃生成触觉输出的设备、方法和图形用户界面
EP2939098B1 (en) 2012-12-29 2018-10-10 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
US9671953B2 (en) * 2013-03-04 2017-06-06 The United States Of America As Represented By The Secretary Of The Army Systems and methods using drawings which incorporate biometric data as security information
WO2014205605A1 (en) * 2013-06-28 2014-12-31 France Telecom Method to select portion of graphical user interface
JP5832489B2 (ja) * 2013-08-26 2015-12-16 株式会社コナミデジタルエンタテインメント 移動制御装置及びプログラム
US20150135115A1 (en) * 2013-11-11 2015-05-14 Lenovo (Singapore) Pte. Ltd. Multi-touch input for changing text and image attributes
US20150143291A1 (en) * 2013-11-21 2015-05-21 Tencent Technology (Shenzhen) Company Limited System and method for controlling data items displayed on a user interface
US20170220223A1 (en) * 2014-09-16 2017-08-03 Hewlett-Packard Development Company, L.P. Generate Touch Input Signature for Discrete Cursor Movement
KR20160068494A (ko) * 2014-12-05 2016-06-15 삼성전자주식회사 터치 입력을 처리하는 전자 장치 및 터치 입력을 처리하는 방법
US9864410B2 (en) 2014-12-29 2018-01-09 Samsung Electronics Co., Ltd. Foldable device and method of controlling the same
KR101580300B1 (ko) * 2014-12-29 2015-12-24 삼성전자주식회사 사용자 단말 장치 및 그의 제어 방법
US9537527B2 (en) 2014-12-29 2017-01-03 Samsung Electronics Co., Ltd. User terminal apparatus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
CN107066167A (zh) * 2016-09-27 2017-08-18 华为技术有限公司 一种区域选择方法、装置和图形用户界面
KR102337875B1 (ko) * 2017-03-31 2021-12-10 삼성전자주식회사 전자 장치 및 그 동작 방법
CN110297587A (zh) * 2019-05-08 2019-10-01 深圳市科莱德电子有限公司 车载导航系统的控制方法及装置
CN113256686B (zh) * 2021-06-28 2021-10-08 上海齐感电子信息科技有限公司 视觉准确目标跟踪系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120169671A1 (en) 2011-01-03 2012-07-05 Primax Electronics Ltd. Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US20120306772A1 (en) 2011-06-03 2012-12-06 Google Inc. Gestures for Selecting Text

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1658551A1 (en) * 2003-08-29 2006-05-24 Nokia Corporation Method and device for recognizing a dual point user input on a touch based user input device
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US20090282332A1 (en) 2008-05-12 2009-11-12 Nokia Corporation Apparatus, method and computer program product for selecting multiple items using multi-touch
EP2300899A4 (en) * 2008-05-14 2012-11-07 3M Innovative Properties Co SYSTEM AND METHOD FOR EVALUATING POSITIONS OF MULTIPLE TOUCH INPUTS
US20090327272A1 (en) * 2008-06-30 2009-12-31 Rami Koivunen Method and System for Searching Multiple Data Types
KR101046660B1 (ko) 2009-05-12 2011-07-06 고려대학교 산학협력단 문자 입출력 장치 및 그 방법
US20100302212A1 (en) * 2009-06-02 2010-12-02 Microsoft Corporation Touch personalization for a display device
US20130201155A1 (en) * 2010-08-12 2013-08-08 Genqing Wu Finger identification on a touchscreen
KR20120061038A (ko) 2010-11-01 2012-06-12 김기주 터치스크린 상에서 터치 버튼의 멀티터치 인식방법, 문자 입력 방법 및 객체 변형 방법
KR101842457B1 (ko) 2011-03-09 2018-03-27 엘지전자 주식회사 이동 단말기 및 그의 텍스트 커서 운용방법
EP2715490B1 (en) 2011-05-23 2018-07-11 Haworth, Inc. Digital whiteboard collaboration apparatuses, methods and systems
US8581901B2 (en) * 2011-07-28 2013-11-12 Adobe Systems Incorporated Methods and apparatus for interactive rotation of 3D objects using multitouch gestures
US20140337139A1 (en) * 2013-05-07 2014-11-13 Google Inc. Channel-level advertising attributes in an internet-based content platform

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120169671A1 (en) 2011-01-03 2012-07-05 Primax Electronics Ltd. Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US20120306772A1 (en) 2011-06-03 2012-12-06 Google Inc. Gestures for Selecting Text

Also Published As

Publication number Publication date
CN104238807A (zh) 2014-12-24
EP2813938A1 (en) 2014-12-17
US20140362003A1 (en) 2014-12-11
US9261995B2 (en) 2016-02-16
EP2813938B1 (en) 2019-04-10
CN104238807B (zh) 2019-05-10
KR20140143985A (ko) 2014-12-18

Similar Documents

Publication Publication Date Title
KR102113674B1 (ko) 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
KR102139526B1 (ko) 전자 장치의 화면상에 표시되는 복수의 객체들을 실행하는 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
KR102148809B1 (ko) 단축 아이콘 윈도우 표시 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
KR102129374B1 (ko) 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR102146244B1 (ko) 휴대 단말에 대한 동작 관련 입력에 따라 복수개의 객체들의 표시를 제어하는 방법 및 이를 위한 휴대 단말
KR102141155B1 (ko) 모바일 장치의 상태에 대응하는 변경된 숏컷 아이콘을 제공하는 모바일 장치 및 그 제어 방법
EP2775479B1 (en) Mobile apparatus providing preview by detecting rubbing gesture and control method thereof
EP2811420A2 (en) Method for quickly executing application on lock screen in mobile device, and mobile device therefor
JP6100287B2 (ja) 端末複数選択操作方法及び端末
EP2738654B1 (en) Touch screen operation method and terminal
KR101990567B1 (ko) 외부 입력 장치와 결합된 모바일 장치 및 그 제어 방법
KR102155836B1 (ko) 터치 스크린 상에서 객체 디스플레이를 제어하는 휴대 단말 및 방법
US20140337720A1 (en) Apparatus and method of executing function related to user input on screen
US20150160731A1 (en) Method of recognizing gesture through electronic device, electronic device, and computer readable recording medium
KR102155133B1 (ko) 이미지 표시 방법 및 장치
KR20150010132A (ko) 외부 입력 장치를 제어하기 위한 전자 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
KR102117295B1 (ko) 전자 장치의 페어링 방법 및 장치
EP2703978B1 (en) Apparatus for measuring coordinates and control method thereof
EP2703981B1 (en) Mobile apparatus having hand writing function using multi-touch and control method thereof
KR20150008963A (ko) 스크린을 제어하는 휴대 단말 및 방법
KR102118091B1 (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
KR20140137629A (ko) 이어폰 연결을 감지하는 휴대 단말 및 방법
KR102106354B1 (ko) 전자장치에서 터치 입력을 이용한 동작 제어 방법 및 장치
KR102186819B1 (ko) 노트 기능을 지원하는 모바일 단말기 및 그의 제어 방법
KR102129319B1 (ko) 터치 입력을 처리하는 방법, 저장 매체 및 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right