KR20160081835A - 그래픽 엘리먼트의 선택 - Google Patents

그래픽 엘리먼트의 선택 Download PDF

Info

Publication number
KR20160081835A
KR20160081835A KR1020150189559A KR20150189559A KR20160081835A KR 20160081835 A KR20160081835 A KR 20160081835A KR 1020150189559 A KR1020150189559 A KR 1020150189559A KR 20150189559 A KR20150189559 A KR 20150189559A KR 20160081835 A KR20160081835 A KR 20160081835A
Authority
KR
South Korea
Prior art keywords
touch
window
user interaction
sensitive display
pointer
Prior art date
Application number
KR1020150189559A
Other languages
English (en)
Inventor
아비나쉬 다와리
사메르 가르데
Original Assignee
다솔 시스템므
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다솔 시스템므 filed Critical 다솔 시스템므
Publication of KR20160081835A publication Critical patent/KR20160081835A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

본 발명은 터치 감지 디스플레이 상에 디스플레이된 그래픽 엘리먼트를 선택하기 위한 컴퓨터 구현 방법으로 지향된다. 그 방법은 터치 감지 디스플레이 상에 그래픽 엘리먼트를 디스플레이하는 단계; 터치 감지 디스플레이 상의 제 1 사용자 상호작용의 제 1 로케이션을 검출하는 단계; 터치 감지 디스플레이 상에 윈도우를 디스플레이하는 단계로서, 윈도우는 그래픽 엘리먼트를 선택하기 위한 포인터를 포함하는, 윈도우를 디스플레이하는 단계; 윈도우에서 제 1 사용자 상호작용의 제 1 로케이션을 둘러싸는 영역을 렌더링하는 단계; 터치 감지 디스플레이 상의 제 2 사용자 상호작용을 검출하는 단계; 터치 감지 디스플레이 상의 상기 제 2 사용자 상호작용의 이동을 검출하는 단계; 및 제 2 사용자 상호작용의 이동에 따라 윈도우 내의 포인터를 이동시키는 단계를 포함한다.

Description

그래픽 엘리먼트의 선택{SELECTION OF A GRAPHICAL ELEMENT}
본 발명은 일반적으로 컴퓨터 프로그램들 및 시스템들의 기술적 분야에 관한 것으로서, 특히 그래픽 엘리먼트의 선택의 방법에 관한 것이다.
그래픽 사용자 인터페이스들 (GUI) 은 사용자와 예를 들어 개인용 컴퓨터, 랩톱, 뮤직 플레이어, 셀 폰, 개인용 휴대정보단말기와 같은 디바이스 사이의 상호작용들의 효율성과 관련하여 중요한 역할을 수행한다. 이들 디바이스들은 기능들을 수행하는 여러 애플리케이션들 및 프로그램들을 실행한다.
보통, 사용자는 GUI 엘리먼트들로서 디스플레이 디바이스 상에 디스플레이되는 메뉴들, 툴바들, 아이콘들, 및 다른 그래픽들을 통해 애플리케이션 및 프로그램들과 상호작용한다. 예를 들어, 컴퓨터 보조 설계 (CAD) 기법들의 분야에서, 다수의 시스템들 및 프로그램들은 상표 CATIA 하에서 Dassault Systemes 에 의해 제공되는 것과 같은, 제품을 형성하는 오브젝트들 (또는 부품들) 또는 오브젝트들의 어셈블리들의 설계를 위해 시장에 제공된다. CAD 시스템들은 사용자가 GUI 를 통해 오브젝트들 또는 오브젝트들의 어셈블리들의 복잡한 3차원 (3D) 모델들을 구성하고 조작하는 것을 허용한다.
전통적으로, 동작들은 사용자에 의해 동작되는 포인터와 그래픽적 상호작용에 의해 수행된다. 포인터는 디바이스의 GUI 에서 디스플레이되고, 마우스, 트랙볼, 그래픽 태블릿 등과 같은 포인팅 디바이스를 통해 동작된다. 물리적 버튼들 (예를 들어, 푸시 버튼) 또는 키보드와 같은 주변 입력 디바이스들을 통해 동작들을 수행하는 것이 또한 가능하다. 더욱 최근에, 터치 감지 디스플레이들이 개발되었다. 그들은 사용자와 디바이스 사이의 상호작용들의 새로운 종류를 제공한다. 터치 감지 디스플레이는 디스플레이 영역에 대한 부가물 (appendage); 예를 들어 디스플레이 상의 사용자의 손가락의 접촉의 존재, 로케이션 및 모션을 검출할 수 있다. 터치 감지 디스플레이는 따라서 전통적인 포인팅 디바이스를 대체하는 입력 인터페이스를 제공한다.
터치 감지 디스플레이는 터치 감지 표면과 사용자의 임의의 접촉 또는 근접 상호작용을 검출할 수 있는 이러한 터치 감지 표면을 포함한다. 저항성, 표면 음향파, 적외선, 및 용량성 기술들을 포함하지만 이들에 제한되지 않는 수개의 타입들의 터치 감지 디스플레이 기술들이 개발되었다. 상호작용은 통상 스타일러스, 손가락과 같은 부가물을 통해 터치 감지 디스플레이에 제공된다. 사용자 상호작용의 검출은 부가물이 터치 감지 디스플레이와 직접 접촉할 때 - 부가물이 디스플레이를 터치한다 - 수행될 수도 있다; 그것은 또한 부가물이 터치 감지 디스플레이로부터 주어진 거리에 있을 때 - 부가물이 디스플레이에 터치할 필요가 없다 - 수행될 수도 있다. 사용자 상호작용들은 따라서 사용자에게 디스플레이되는 것에 직접 수행될 수 있다.
일반적으로, 터치 감지 디스플레이를 포함하는 디바이스는 더 이상 포인팅 디바이스 및/또는 주변 입력 디바이스를 포함하지 않는다. 이것은 사용자가 포인팅 디바이스 및/또는 주변 입력 디바이스로 전통적으로 행해지는 일부 동작들을 수행하는 것을 방지할 수 있다. 그러나, 터치 감지 스크린에 디스플레이된 그래픽 엘리먼트의 정밀한 선택은 손가락으로는, 심지어 스타일러스로는 매우 곤란할 수 있다. 일반적으로, 손가락 또는 포인터 디바이스 (예를 들어, 스타일러스) 는 마찬가지로 부가물과 직접 접촉하는 스크린 상의 영역에 대한 폐색을 생성하여, 눈들과 디스플레이 스크린 사이에 오는 잡고 있는 손 및 부가물로 사용자의 시야를 감소시키고, 사용자가 현재 선택되고 있는 것을 볼 수 없기 때문에, 손가락/포인팅 디바이스만을 사용하여서는 정밀한 선택이 곤란하다. 게다가, 선택될 그래픽 엘리먼트들이 서로 가까이에 있는 경우, 사용자가 특정의 그래픽 엘리먼트를 정밀하게 선택하는 것은 더욱 어렵게 된다. 이것은 부분적으로는 손가락들 또는 손에 의해 잡힌 부가물의 고유의 지터로 인해 그리고 부분적으로는 손가락/포인팅 디바이스 이동의 정밀도보다 더 큰 정밀도로 스크린 상의 터치 포인트의 이동의 제어 불능으로 인해 곤란하다. 통상적으로, 터치 포인트 변위는 손가락/포인팅 디바이스의 변위와 동일하다. 다른 문제는 터치 포인터 감도가 증가될 수 없다는 것이다: 터치 포인터 이동은 손가락 또는 포인팅 디바이스 이동과 정확히 동일하며, 이는 터치 포인터 이동의 정확성의 부족을 야기한다. 다른 문제는 사용자가 정밀한 선택을 하기 위해 뷰를 줌-인해야하고, 그 후 계속 작업하기 위해 오리지날 스케일로 다시 줌-아웃해야한다는 것이다; 이것은 사용자에게 번거로운 동작들이고, 시간 소비적인 프로세스이며, 그것은 또한 태블릿들과 같은 터치 감지 디스플레이들을 갖는 디바이스들 상에 제한되는 컴퓨터 자원들을 요구한다.
일부 솔루션들이 개발되었다. 그러나, 그들은 몇 가지 단점들을 갖는다. 주로, 사용자는 여전히 터치 입력을 사용하여 픽셀마다 포인터를 이동시키기 위한, 디스플레이의 모든 영역에 도달하기 위한 어려움들에 부딪힌다. 더욱이, 솔루션이 포인터 속도 감소와 포인터 오프셋의 조합을 사용하는 경우, 사용자가 포인터를 올바르게 이동시키는 것은 곤란할 수 있다. 게다가, 이중 손가락 기술들은 정밀도를 증가시키지만, 사용자 친화적이지 않다; 특히 이중 손가락 슬라이더를 사용하는 솔루션에서 그렇다.
따라서, 위에서 간단히 논의된 현존하는 솔루션들의 제한들에 따라, 터치 감지 디스플레이 상의 그래픽 엘리먼트를 선택하는 개선된 방법에 대한 필요가 존재한다. 바람직하게는, 그 방법은 사용자에게 직관적이고 인간환경공학적이어야 하는 제스쳐의 정밀도를 향상시켜야 한다.
본 발명은 따라서 터치 감지 디스플레이 상에 디스플레이된 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법을 제공한다. 그 방법은 터치 감지 디스플레이 상에 그래픽 엘리먼트를 디스플레이하는 단계; 터치 감지 디스플레이 상의 제 1 사용자 상호작용의 제 1 로케이션을 검출하는 단계; 디스플레이 상에 윈도우를 디스플레이하는 단계로서, 그 윈도우는 그래픽 엘리먼트를 선택하기 위한 포인터를 포함하는, 윈도우를 디스플레이하는 단계; 윈도우에서 제 1 사용자 상호작용의 제 1 로케이션을 둘러싸는 영역을 렌더링하는 단계; 터치 감지 디스플레이 상의 제 2 사용자 상호작용을 검출하는 단계; 터치 감지 디스플레이 상의 제 2 사용자 상호작용의 이동을 검출하는 단계; 및 상기 제 2 사용자 상호작용의 이동에 따라 윈도우 내의 포인터를 이동시키는 단계를 포함한다.
방법은 또한,
- 제 2 사용자 상호작용의 이동은 이동 방향 및 이동 거리를 포함하고, 포인터는 동일한 이동 방향 및 제 2 사용자 상호작용의 이동 거리에 비례하는 이동 거리로 이동되고;
- 포인터의 이동 거리는 감소의 계수의 적용에 의해 비례적으로 감소되며;
- 사용자 액션 시에, 감소의 계수를 선택하는 단계;
- 포인터를 이동시키는 단계 후에, 터치 감지 디스플레이 상의 제 1 로케이션으로부터 제 2 로케이션으로 제 1 사용자 상호작용의 이동을 검출하는 단계; 윈도우에서 터치 감지 디스플레이 상의 제 2 로케이션을 둘러싸는 영역을 렌더링하는 단계;
- 윈도우에서 터치 감지 디스플레이 상의 제 2 로케이션을 둘러싸는 영역을 렌더링하는 단계는, 윈도우에서 제 1 로케이션으로부터 제 2 로케이션으로 이동하면서 제 1 사용자 상호작용의 중간 로케이션들을 둘러싸는 영역의 실시간 렌더링을 수행하는 단계를 더 포함하고;
- 제 1 사용자 상호작용의 이동에 따라 윈도우를 이동시키는 단계;
- 포인터는 윈도우가 이동하는 동안에 윈도우 내에서 모션 없이 유지되며;
- 제 2 사용자 상호작용이 터치 감지 디스플레이 상에서 유지되고;
- 제 1 사용자 상호작용이 터치 감지 디스플레이 상에서 유지되며;
- 포인터를 이동시킨 후에, 제 1 및 제 2 사용자 상호작용들의 손실을 검출하하는 단계; 포인터 아래의 그래픽 엘리먼트를 선택하는 단계;
- 터치 감지 디스플레이로부터 윈도우를 제거하는 단계;
- 윈도우에서 렌더링된 영역이 확대 또는 감소 계수에 기초하여 확대 또는 감소되는 것을 더 포함할 수도 있다.
그것은 또한 컴퓨터로 하여금 상기 방법의 단계들을 취히게 하는 명령들을 포함하는 그래픽 엘리먼트를 선택하기 위한 컴퓨터 프로그램이 또한 제공된다.
그것은 또한 메모리에 통신가능하게 커플링된 프로세서, 및 터치 감지 디스플레이를 포함하는, 그래픽 엘리먼트를 선택하기 위한 컴퓨터 시스템이 제공되며, 메모리는 상기 컴퓨터 프로그램을 저장한다.
본 발명을 구현하는 시스템이 비제한적인 예를 통해, 그리고 첨부하는 도면들을 참조하여 이제 기술될 것이다.
- 도 1 은 본 발명의 예를 도시하는 프로우챠트이다.
- 도 2 내지 도 7 은 본 발명의 예를 도시하는 스크린숏들이다.
- 도 8 은 본 발명을 수행하기 위한 시스템의 예를 도시한다.
본 발명은 터치 감지 디스플레이 상에 디스플레이된 그래픽 엘리먼트의 선택을 위한 컴퓨터 구현 방법으로 지향된다. 방법은 터치 감지 디스플레이 상에 그래픽 엘리먼트를 디스플레이하는 단계를 포함한다. 방법은 또한 터치 감지 디스플레이 상의 제 1 사용자 상호작용, 예를 들어 사용자가 손가락으로 스크린을 터치하는 것의 제 1 로케이션을 검출하는 단계를 포함한다. 방법은 또한 디스플레이 상에 윈도우를 디스플레이하는 단계를 포함한다. 윈도우는 바람직하게는 제 1 로케이션으로부터 소정의 거리 오프셋에서 디스플레이된다. 윈도우는 윈도우 내에 디스플레이된 그래픽 엘리먼트들 중 하나를 선택하기 위한 포인터를 포함한다. 게다가, 방법은 윈도우에서 제 1 사용자 상호작용의 제 1 로케이션을 둘러싸는 영역을 렌더링하는 단계를 포함한다. 방법은 또한 터치 감지 디스플레이 상의 제 2 사용자 상호작용, 예를 들어 사용자가 제 2 손가락으로 스크린을 터치하는 것을 검출하는 단계를 포함한다. 그 후, 방법은 터치 감지 디스플레이 상의 제 2 사용자 상호작용의 변위 (또는 이동), 예를 들어 사용자가 스크린 상에서 그의 제 2 손가락을 슬라이딩하는 것의 검출을 포함한다. 윈도우 내에 디스플레이된 포인터는 터치 감지 디스플레이 상에서 제 2 사용자 상호작용에 따라 이동된다.
방법은 터치 감지 스크린에 디스플레이된 그래픽 엘리먼트의 선택을 개선한다. 본 발명은 임의의 사이즈를 갖는 임의의 그래픽 엘리먼트에 대해 사용될 수 있다. 특히, 본 발명의 방법은 사용자가 디스플레이될 때 작은 사이즈를 갖는, 예를 들어 디멘젼에서 소수의 화소들 (2 또는 3) 을 초과하지 않는 그래픽 엘리먼트를 선택하는 것을 허용한다. 이들 종류의 상호작용들은 사용자가 지오메트리 구성 프로세스의 부분으로서 스크린 상의 정밀한 포인트를 입력할 필요가 있거나, 일부 변경 동작을 수행하기 위해 다른 인접한 지오메트리들 중에서 지오메트리 (또는 그것의 부분) 를 선택해야 하는 CAD 제품에서 종종 필요로된다. 임의의 종류의 그래픽 엘리먼트, 예를 들어, 포인트, 라인, 면, 또는 이들 엘리먼트들의 집합이 선택될 수 있다. 본 발명은 예를 들어 모델을 형성하는 다른 특징들 중에서 특징들을 선택하기 위해 사용될 수 있다. 본 발명은 선택될 그래픽 엘리먼트가 위치되는 일차 터치를 둘러싸는 디스플레이 영역을 재생하는 윈도우 내에서 포인터를 정밀하게 이동시키기 위해 이차 터치를 사용한다. 사용자가 이차 터치를 이동시키는 동안, 일차 터치는 검출된 로케이션에서 일정하게 유지되고, (일차 터치에 의해 폐색된 그래픽 엘리먼트들을 보여주는) 둘러싸는 영역의 윈도우 내의 뷰는 변하지 않는다. (디폴트로 윈도우의 중심에 있을 수도 있는) 포인터만이 윈도우 내에서 이동한다. (십자선일 수도 있는) 이러한 포인터는 터치 포인터를 표현하고 이러한 포인터 아래의 엘리먼트는 선택되는 것으로서 고려된다. 그래픽 엘리먼트의 선택은 해당 태스크에 전용된 윈도우 내에서 수행된다; 이롭게도, 사용자 뷰는 더이상 그 자신의 손가락에 의해 폐색되지 않는다. 이리하여, 사용자는 이제 근접하게 이격된 그래픽 엘리먼트들의 선택에서 더 많은 정밀도를 갖는다. 더욱이, 포인터는 일차 손가락으로부터 오프셋되지 않고, 따라서 스크린의 모든 영역들이 액세스가능하게 유지된다. 또한, 포인터 모션은 일차 터치가 아니고 이차 터치에 비례하며, 따라서 사용자에 대한 분리 (disassociation) 의 더 작은 감지가 존재한다. 또, 본 발명은 그렇지 않으면 줌 인하고, 선택하며, 줌 아웃하는데 소비될 사용자에 대한 시간을 절약한다. 흥미롭게도, 본 발명은 필요한 경우에만 시행되고 사용자들의 통상의 워크플로우를 방해하지 않는다.
방법은 컴퓨터 구현된다. 이것은 방법의 단계들 (또는 실질적으로 모든 단계들) 이 적어도 하나의 컴퓨터, 또는 유사한 임의의 시스템에 의해 실행된다는 것을 의미한다. 따라서, 방법의 단계들은 가능하게는 완전히 자동적으로, 또는 반자동적으로 컴퓨터에 의해 수행된다. 예들에서, 방법의 단계들 중 적어도 일부의 트리거링은 사용자-컴퓨터 상호작용을 통해 수행될 수도 있다. 요구되는 사용자-컴퓨터 상호작용의 레벨은 예상되는 자동성의 레벨에 의존하고 사용자의 희망들을 구현할 필요와 균형을 이룰 수도 있다. 예들에서, 이러한 레벨은 사용자 정의 및/또는 사전 정의될 수도 있다.
예를 들어, 감소의 계수를 선택하는 단계 (S110) 및 단계 (S160) 에서의 제 2 사용자 상호작용을 이동시키는 단계는 사용자 액션에 따라 트리거된다.
방법의 컴퓨터 구현의 통상적인 예는 이러한 복적으로 적응된 시스템으로 방법을 수행하는 것이다. 그 시스템은 그래픽 사용자 인터페이스 (GUI) 및 메모리에 커플링된 프로세서를 포함할 수도 있고, 메모리는 방법을 수행하기 위한 명령들을 포함하는 컴퓨터 프로그램을 저장하고 있다. 메모리는 또한 데이터베이스를 저장할 수도 있다. 메모리는 가능하게는 수개의 물리적으로 구별된 부분들 (예를 들어, 프로그램에 대해 하나, 및 가능하게는 데이터베이스에 대해 하나) 을 포함하는 그러한 기억장치에 대해 적응된 임의의 하드웨어이다.
"데이터베이스" 로 말하자면, 그것은 검색 및 취출을 위해 조직된 데이터 (즉, 정보) 의 임의의 집합을 의미한다. 메모리에 저장되는 경우, 데이터베이스는 컴퓨터에 의한 신속한 검색 및 취출을 허용한다. 데이터베이스들은 실제로 여러 데이터 프로세싱 동작들과 관련하여 데이터의 저장, 취출, 변경, 및 삭제를 용이하게 하도록 구조화된다. 데이터 베이스는 각각이 하나 이상의 필드들로 이루어지는 레코드들로 나누어질 수 있는 파일 또는 파일들의 세트로 이루어질 수도 있다. 필드들은 데이터 저장의 기본 단위들이다. 사용자들은 주로 쿼리들을 통해 데이터를 취출할 수도 있다. 키워드들 및 소팅 커맨드들을 사용하여, 사용자들은 사용되는 데이터베이스 관리 시스템의 규칙들에 따라 데이터의 특정의 집합들에 대한 보고들을 취출하거나 생성하기 위해 많은 레코드들 내의 필드를 신속하게 검색, 재배열, 그룹화, 및 선택할 수 있다.
본 발명에서, 선택가능한 그래픽 엘리먼트들이 데이터베이스 상에 저장될 수도 있다.
도 8 은 본 발명의 방법을 수행하기 위한 시스템의 예를 보여준다. 시스템은 통상적으로 컴퓨터, 예를 들어 태블릿이다. 도 8 의 컴퓨터는 내부 통신 버스 (BUS) (1000) 에 연결된 중앙 프로세싱 유닛 (CPU) (1010), 그 BUS 에 또한 연결된 랜덤 액세스 메모리 (RAM) (1070) 을 포함한다. 컴퓨터는 또한 BUS 에 연결된 비디오 랜덤 액세스 메모리 (1100) 과 연관되는 그래픽 프로세싱 유닛 (GPU) 가 제공된다. 비디오 RAM (1100) 은 또한 프레임 버퍼로서 본 기술에서 알려져 있다. 대량 저장 디바이스 제어기 (1020) 는 하드 드라이브 (1030) 와 같은 대량 메모리 디바이스에 대한 액세스들을 관리한다. 컴퓨터 프로그램 명령들 및 데이터를 유형으로 수록하기에 적합한 대량 메모리 디바이스들은 예시로써 EPROM, EEPROM, 및 플래시 메모리 디바이스들과 같은 반도체 메모리 디바이스들; 내부 하드 디스크들 및 착탈가능한 디스크들과 같은 자기 디스크들; 자기-광 디스크들; 및 CD-ROM 디스크들 (1040) 을 포함하여 비휘발성 메모리의 모든 형태들을 포함한다. 상술한 것 중 임의의 것은 특별히 설계된 ASIC 들 (주문형 반도체들) 에 의해 보충되거나 그 ASIC 들에 포함될 수도 있다. 네트워크 어댑터 (1050) 는 네트워크 (1060) 에 대한 액세스들을 관리한다. 컴퓨터는 또한 (커서 제어 디바이스로서도 지칭되는) 포인터 제어 디바이스와 같은 햅틱 디바이스 (1090) 등을 포함할 수도 있다. 포인터 제어 디바이스는 사용자가 터치 감지 디스플레이 (1080) 상의 임의의 원하는 로케이션에서 (커서로도 지칭되는) 포인터를 선택적으로 위치시키는 것을 허용하기 위해 컴퓨터에서 사용된다. (터치 스크린으로서도 지칭되는) 터치 감지 디스플레이는 그것의 전방 표면 상에 행해진 터치에 반응하는 컴퓨터에 부착된 하드웨어 디스플레이 유닛이다. 그것은 1, 2, 또는 다수의 동시적인 터치들을 지원할 수 있다. 또, 포인터 제어 디바이스는 사용자가 여러 커맨드들을 선택하고, 제어 신호들을 입력하는 것을 허용한다. 포인터 제어 디바이스는 시스템에 대한 입력 제어 신호들을 위한 다수의 신호 생성 디바이스들을 포함한다. 통상적으로, 터치 감지 디스플레이 상의 포인터 제어 디바이스는 손가락, 스타일러스일 수도 있지만, 이들에 제한되지 않는 부가물이다. 터치 감지 디스플레이의 콘텍스트에서, 햅틱 디바이스 (1090) (터치스크린 센서 및 그것의 수반하는 제어 기반 펌웨어) 는 디스플레이 상에 통합된다.
본 발명은 컴퓨터 프로그램에 의해 구현될 수도 있다. 컴퓨터 프로그램은 컴퓨터에 의해 실행가능한 명령들을 포함하고, 명령들은 상기 시스템으로 하여금 방법을 수행하게 하는 수단을 포함한다. 프로그램은 시스템의 메모리를 포함하여 임의의 데이터 저장 매체 상에 기록가능할 수도 있다. 프로그램은 예를 들어 디지털 전자 회로에서, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어에서, 또는 이들의 조합에서 구현될 수도 있다. 프로그램은 장치, 예를 들어 프로그램가능한 프로세서에 의한 실행을 위해 머신 판독가능 저장 디바이스에 유형으로 수록된 제품으로서 구현될 수도 있다. 방법 단계들은 입력 데이터에 따라 동작하고 출력을 생성함으로써 방법의 기능들을 수행하기 위한 명령들의 프로그램을 실행하는 프로그램가능한 프로세서에 의해 수행될 수도 있다. 프로세서는 따라서 데이터 저장 시스템, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스로부터 데이터 및 명령들을 수신하고, 그들로 데이터 명령들을 송신하도록 프로그램 가능하고 커플링될 수도 있다. 애플리케이션 프로그램은 고레벨 프로시져 또는 객체 지향 프로그래밍 언어로, 또는 원하는 경우 어셈블리 또는 기계어로 구현될 수도 있다. 어느 경우에나, 그 언어는 컴파일되거나 인터프리트되는 언어일 수도 있다. 프로그램은 완전한 설치 프로그램 또느느 업데이트 프로그램일 수도 있다. 시스템 상의 프로그램의 적용은 어느 경우에나 방법을 수행하기 위한 명령들을 야기한다.
이제 도 1 을 참조하면, 단계 (S100) 에서, 적어도 하나의 그래픽 엘리먼트가 시스템에 의해 터치 감지 디스플레이, 예를 들어 도 8 의 디스플레이 (1080) 상에 디스플레이된다. 오브젝트의 디스플레이는 본 기술에 알려진 바와 같이 수행된다. (그래픽 컴포넌트 또는 간단히 그래픽으로도 지칭되는) 용어 그래픽 엘리먼트는 사용자에 의해 부분적으로 또는 전체적으로 선택될 수도 있는 디스플레이가능한 오브젝트를 의미한다. 용어 오브젝트는 아이콘, 모델링된 오브젝트, 메뉴, 버텍스, 에지, 면, (피쳐 기반 모델링된 오브젝트들에 대한) 피쳐, 지오메트리, 및 다른 그래픽들을 포함하지만 이들에 제한되지 않는다. 더욱 일반적으로, 그래픽 엘리먼트는 디스플레이 상에 표현되는 임의의 정보이다; 예를 들어, 오브젝트는 선택될 수 있는 가장 작은 그래픽 엘리먼트인 화소에 의해 표현될 수 있다. 오브젝트는 모델링된 오브젝트, 예를 들어 컴퓨터 보조 설계 (CAD) 소프트웨어로 모델링된 3차원 모델링된 오브젝트들일 수도 있다.
도 2 내지 도 7 에서, 터치 감지 디스플레이 상에 디스플레이된 2 개의 그래픽 엘리먼트들 (12, 14) 를 갖는 오브젝트 (10) 가 도시되어 있다.
본 발명의 단계들은 터치 감지 디스플레이 상에 디스플레이되는 그래픽 사용자 인터페이스 (GUI) 상에서 수행된다는 것이 이해되어야 한다. GUI 는 사용자가 컴퓨터 시스템과 상호작용하는 것을 허용하는 그래픽 인터페이스이다. 상호작용들은 일반적으로 사용자 선택가능한 아이콘들의 세트를 포함하는 툴바들 및 메뉴들로 수행되고, 각각의 아이콘은 본 기술에서 알려진 바와 같이 하나 이상의 동작들 또는 기능들과 연관된다. GUI 는 여러 타입들이 툴들을 더 보여줄 수도 있다; 예를 들어, 컴퓨터 보조 설계 (CAD) 시스템의 GUI 는 편집된 제품의 동작의 시뮬레이션을 트리거링하거나 디스플레이된 제품의 여러 속성들을 렌더링하기 위해, 오브젝트의 3D 배향을 용이하게 하는 그래픽 툴들을 포함할 수도 있다. 본 발명은 사용자 상호작용들을 수락하는 GUI 의 임의의 종류에서 수행될 수 있다는 것이 이해되어야 한다.
다음에, 단계 (S110) 에서, 터치 포인터의 이동 거리의 감소의 계수가 선택된다. 이러한 포인터는 단계 (S120) 의 사용자 액션의 결과로서 디스플레이될 윈도우 내에서 디스플레이된다. 포인터의 이동 거리의 감소의 계수는 사용자가 터치 포인터 감도를 설정하는 것을 허용한다. 이러한 설정은 하나의 세션으로부터 다음 세션으로 저장된다. 이리하여, 이동 거리의 감소의 계수는 그래픽 엘리먼트의 주어진 선택 프로세스에 대한 사용자 액션에 따라 선택될 수도 있고, 또는 시스템은 상기 계수의 디폴트 값을 선택할 수 있다. 포인터 감도는 임의의 값을 가질 수 있다는 것이 이해되어야 한다. 감소의 계수는 포인터의 파라미터라는 것 및 상기 파라미터의 값은 선택된다는 것이 이해되어야 한다. 임의의 값이 포인터의 이동 거리의 감소의 계수와 연관될 수도 있다. 실제로, 사용자는 1x 의 증분을 갖는 2x 내지 10x (2x 및 10x 를 포함) 의 범위에서 포인터 감돌르 설정하기 위한 옵션이 주어진다. 예를 들어, 감소의 계수의 값이 1/2 이라면, 이것은 포인터의 이동 거리가 이러한 값 1/2 의 적용에 의해 비례적으로 감소된다는 것을 의미한다: 포인터의 변위는 포인터의 이동을 제어하는 사용자 상호작용의 변위에 비해 2 배 (2x) 감소된다.
다음에, 단계 (S120) 에서, 사용자는 제 1 사용자 액션을 수행한다: 제 1 사용자 상호작용은 터치 감지 디스플레이 상에서 행해진다. 결과적으로, 터치 감지 디스플레이 상의 제 1 사용자 로케이션은 검출되거나 결정된다. 제 1 로케이션의 검출은 본 기술에서 알려진 바와 같이 수행된다. 로케이션은 사용자 상호작용을 초래하는 입력이 수행되는, 터치 감지 디스플레이 상의 위치이다. 일반적으로, 터치 감지 디스플레이는 사용자와 선택할 오브젝트가 위치되는 공간 사이의 2차원 (2D) 인터페이스이다. 그 공간은 2D 또는 3D 공간일 수도 있다. 사용자 상호작용을 초래하는 입력은 따라서 2D 또는 3D 공간을 향해 2D 인터페이스 상에서 수행된다. 2D 공간에서, 제 1 사용자 상호작용의 로케이션은 예를 들어 터치 감지 디스플레이 상의 좌표들의 시스템에 따라 결정될 수도 있다. 3D 공간에서, 3D 공간에서의 제 1 사용자 상호작용의 3D 로케이션은 컴퓨팅될 수도 있다. 3D 공간에서의 이러한 3D 로케이션의 컴퓨팅은 예를 들어 본 기술에서 알려진 바와 같은 픽킹 (picking) 의 기법; 예를 들어 광선 추적법 (ray tracing) 에 의해 달성될 수도 있다.
사용자 상호작용은 사용자가 선택하기 원하는 그래픽 엘리먼트에 대해, 또는 적어도 선택될 그래픽 엘리먼트의 근처 (neighborhood) 에 대해 - 그래픽 엘리먼트가 정밀한 선택을 위해 너무 작은 경우 - 행해진다. 실제로, 부가물이 터치 감지 디스플레이와 접촉하며, 예를 들어 사용자의 손가락 (16) 이 오브젝트 (10) 를 누룬다 - 더욱 정밀하게는 손가락 로케이션은 사용자가 선택하기 원하는 오브젝트 (10) 의 그래픽 엘리먼트 (14) 근처이다.
사용자 상호작용은 터치 감지 디스플레이 상에서 사용자에 의해 제공된 입력이다. 입력은 터치 감지 디스플레이에 의해 컴퓨터로 송신되는 신호를 생성한다. 컴퓨터, 예를 들어 개인용 컴퓨터, 랩톱, 뮤직 플레이어, 셀 폰, 개인용 휴대정보단말기가 임의의 입력 또는 이동을 검출하거나 그것에 인가된 입력을 고칠 수 있다. 이리하여, 디바이스는 운영 시스템 (OS) 으로부터 터치 지원을 갖는다: 하드웨어 (터치 스크린) 에 더하여, 컴퓨터 상에서 실행되는 OS 가 또한 터치 상호작용들을 지원하여야 한다. 프로그램, 예를 들어 터치 감지 디스플레이에 디스플레이된 GUI 가 OS 로부터 터치 이벤트들을 수신할 것이다.
제 1 사용자 상호작용은 상기 디스플레이 상에 다른 터치 이벤트가 존재하지 않는 경우 터치 감지 디스플레이의 터치 표면상의 소위 DOWN 이벤트이다. 제 1 사용자 상호작용은 다음 단계들이 수행되는 동안 터치 감지 디스플레이 상에서 유지될 수도 있다.
그 후, 단계 (S130) 에서, 윈도우가 터치 감지 디스플레이에 디스플레이된다. 용어 윈도우는 그것이 속하는 프로그램의 그래픽 사용자 인터페이스의 일부를 포함하는 시각적 영역을 포함하는 그래픽 제어 엘리먼트를 의미한다. 윈도우는 사용자가 (통상적으로 본 기술에서 HOLD 이벤트로 불리는) 제 1 사용자 상호작용의 위치를 유지하는 동안 경과된 고정된 시간 후에만 보여질 수도 있다.
윈도우는 단계 (S110) 에서 감소의 계수가 그에 대해 선택된 포인터를 포함한다. 포인터는 바람직하게는 사용자가 그것을 볼 수 있도록 디스플레이된다; 이것은 그래픽 엘리먼트의 선택을 용이하게 할 것이다. 포인터는 항상 윈도우 내부에 위치되고, 윈도우와 함께 이동하며, 윈도우 밖으로 이동될 수 없다. 포인터는 따라서 항상 윈도우 내에 유지된다. 윈도우 내부의 포인터는 GUI 에서 사용되고 디스플레이될 수 있는 임의의 다른 포인터, 예를 들어 애플리케이션을 론치하기 위한 커서와는 상이하다.
윈도우 및 포인터의 디스플레이는 제 1 사용자 상호작용 시에 트리거된다. 예를 들어, 사용자가 도 2 에 도시된 바와 같이 디스플레이와 상호작용한 후, 윈도우 (20) 및 포인터 (24) 는 도 3 에 도시된 바와 같이 디스플레이된다. 윈도우는 따라서 팝업 윈도우이다: 그것은 사용자 상호작용에 기초하여 나타나고 사라진다.
도 3 을 여전히 참조하여, 윈도우는 원 형상 (원형 링) 을 가지며 윈도우 데코레이션에 의해 프레이밍된다. 임의의 형상이 사용될 수 있다는 것이 되어야 하며, 예를 들어 윈도우는 직사각형 또는 정사각형이다. 윈도우 데코레이션은 디스플레이되지 않을 수도 있다. 포인터는 윈도우의 중심에 디폴트로 위치되고, 포인터는 디스플레이될 때 윈도우 내의 임의의 로케이션, 예를 들어 그래픽 엘리먼트의 이전의 선택으로부터 야기된 위치에 위치될 수 있다는 것이 이해된다.
흥미롭게도, 윈도우는 제 1 사용자 상호작용의 로케이션으로부터 오프셋된 미리 결정된 위치에서 터치 감지 디스플레이 상에 배치된다. 예를 들어, 제 1 사용자 상호작용으로부터 미리 결정된 방향 및 거리가 윈도우의 위치를 획득하기 위해 사용될 수도 있다. 통상적으로, 그 방향 및 거리는 윈도우가 제 1 사용자 상호작용의 근처에 배치되도록 선택된다. 예를 들어, 도 3 의 예에서는, 윈도우 (20) 와 손가락 (16) 의 제 1 로케이션 사이의 거리는 미리 결정된 수의 화소를 초과할 수 없고 (그 거리는 유클리디안 거리일 수도 있을 것이다), 윈도우는 손가락 (16) 의 좌측에 배치된다. 윈도우는 따라서 사용자의 시야에 있고, 손가락 (16) 의 손 (여기서 오른손) 은 윈도우를 숨기지 않는다; 사용자는 따라서 그래픽 엘리먼트를 선택하기 위해 수행되는 다음의 동작들을 볼 수 있다. 미리 결정된 방향 및 거리는 사용자 액션에 따라 커스터마이즈될 수도 있다. 예를 들어, 사용자가 왼손잡이인 경우, 그는 윈도우가 손가락 (16) 의 오른쪽에 배치되는 것을 선호할 수도 있을 것이고; 또는 손가락이 디스플레이 영역의 좌측/우측/상측/하측 에지 근처에 있는 경우, 윈도우는 각각 손가락의 우측/좌측/하측/상측에 배치된다. 또는, 단계 (S150) 및 단계 (S160) 에서의 이차 터치 상호작용이 윈도우에 근접한 경우, 윈도우는 이차 터치 상호작용을 방해하지 않도록 적절하게 이동한다.
그 후, 단계 (S140) 에서, 제 1 사용자 상호작용의 제 1 로케이션을 둘러싸는 영역은 단계 (S130) 에서 디스플레이된 윈도우 내에서 렌더링된다. 그렇지 않으며, 제 1 로케이션 주위에 디스플레이된 컨텐츠의 부분은 윈도우 내에서 제생 (또는 디스플레이) 된다. 실제로, 제 1 로케이션을 둘러싸는 미리 결정된 영역은 윈도우에서 확대가 존재하지 않도록 윈도우의 그것과 동일한 표면적을 갖는다. 이리하여, 윈도우 내에 디스플레이된 컨텐츠는 제 1 로케이션에 중심이 맞춰진 경우 (윈도우 데코레이션에 의해 프레이밍되지 않은) 윈도우가 커버할 것과 동일하다; 예를 들어, 윈도우의 무게중심은 제 1 로케이션과 일치한다.
윈도우에서 확대가 있을 수도 있다; 이 경우에, 제 1 로케이션을 둘러싸는 영역은 확대 없는 일반적인 경우와 비교할 축소된다. (확대 비율로서도 지칭되는) 확대 계수는 고정될 수도 있거나, 그것은 사용자 액셕 시, 예를 들어 사용자가 단계 (S110) 에서 이동 거리의 감소의 계수를 선택할 때 선택될 수도 있다. 확대는 윈도우에서 렌더링되고 디스플레이된 영역이 단계 (S100) 에서 디스플레이된 영역에 비해 외양이 확대되는 것을 의미한다. 역으로, 윈도우 내의 디스플레이는 예를 들어 단계 (S110) 에서의 사용자 액션에 따라 선택된 (감소 비율로서도 지칭되는) 감소 계수에 기초하여 감소될 수도 있다.
확대의 부재에 있어서, 윈도우에 디스플레이된 컨텐츠는 터치 스크린 상에 이미 디스플레이된 컨텐츠의 카피이다; 컴퓨팅 자원들의 소비는 따라서 확대가 존재하는 경우에 비해 제한된다.
도 3 에서, 윈도우 (20) 는 점선 원 (26) 내의 컨텐츠를 재생한다. 윈도우 (20) 및 점선 원 (26) 은 동일한 직경 및 동일한 면적을 갖는다. 점선 원은 제 1 사용자 상호작용의 제 1 로케이션을 둘러싸는 영역을 한정하고, 제 1 로케이션에 중심이 맞춰진다. 여기서 점선 원 (26) 은 설명의 목적으로만 표시된다.
다음에, 단계 (S150) 에서, 제 2 사용자 상호작용이 터치 감지 디스플레이 상에서 검출된다. 이 단계는 단계 (S120) 에서와 동일한 방식으로 수행된다. 실제로, 부가물이 터치 감지 디스플레이와 접촉하며, 예를 들어 사용자의 왼손의 제 2 손가락 (18) 이 도 4 에 도시된 바와 같이 터치 스크린을 누룬다. 바람직하게는, 제 2 사용자 상호작용은 제 1 로케이션에 위치되지 않고 윈도우 상에서 수행되지 않는다.
그 후, 단계 (S160) 에서, 제 2 사용자 상호작용의 이동이 터치 감지 디스플레이상에서 검출되고, 포인터는 제 2 사용자 상호작용의 이동에 따라 윈도우 내에서 이동된다. 제 2 사용자 상호작용의 이동 또는 변위는 통상 터치 감지 디스플레이상의 제 2 사용자 상호작용의 슬라이드이다. 여기서 슬라이딩은 변위가 수행되는 동안 제 2 사용자 상호작용이 항상 검출되는 (즉, 터치 감지 디스플레이와 계속하여 접촉하는) 것을 의미한다.
제 2 사용자 액션의 이동은 이동 거리 및 이동 방향을 포함한다. 그것은 또한 본 기술에서 알려진 바와 같이 이동 가속도를 포함할 수도 있다. 포인터는 본 기술에서 알려진 바와 같이 제 2 사용자 상호작용의 그것과 동일한 이동 방향으로 이동된다. 포인터의 이동 거리는 제 2 사용자 상호작용의 이동 거리에 비례한다. 이것은 포인터가 제 2 사용자 상호작용에 의해 이동되는 거리와 동일한 거리, 더 큰 거리 또는 더 작은 거리를 이동할 수도 있다는 것을 의미한다. 실제로, 포인터의 이동 거리는 사용자가 선택될 그래픽 엘리먼트 위로 포인터를 더 용이하게 이동시킬 수 있도록 감소된다. 이것은 사용자가 더 정확한 선택을 수행하는 것을 허용한다. 이러한 목적으로, 포인터의 이동 거리는 단계 (S110) 에서 선택된 감소의 계수의 사용에 의해 감소된다.
도 5 는 단계 (S160) 를 도시한다. 제 2 사용자 상호작용은 제 1 로케이션 (260) 으로부터 제 2 로케이션 (262) 까지 슬라이딩하는 손가락 (18) 에 의해 생성된다. 제 2 사용자 상호작용의 이동은 점선 화살표 (26) 에 의해 표현된다. 포인터 (24) 가 제 2 사용자 상호작용의 변위의 방향을 추정했지만, 그것은 포인터의 이동 거리가 이전에 선택된 감소의 계수의 적용에 의해 감소됨에 따라 더 작은 거리를 이동했다. 포인터의 이동은 점선 화살표 (28) 에 의해 표현된다. 이리하여, 포인터의 이동의 제어는 포인터의 변위에 대한 감소 계수의 적용으로 인해 더 정확하다. 점선 화살표들 (26 및 28) 은 설명의 목적으로만 첨가된다.
포인터의 이동은 실시간으로 수행되며, 즉 포인터는 제 2 사용자 상호작용의 변위가 검출되는 동일한 시간에 변위된다. 실제로, 터치 감지 디스플레이는 햅틱 디바이스 (1090) 을 형성하는 터치스크린 센서들의 그리드를 포함하고, 제 2 사용자 상호작용의 이동은 로케이션들의 세트로 이산화되고 (discretized), 각각의 로케이션은 사용자 상호작용에 의해 활성화되는 센서에 대응한다. 이리하여, 각각의 활성화된 센터에 대해, 제 2 사용자 상호작용의 새로운 로케이션이 컴퓨팅되고, 포인터는 그의 새로운 위치가 제 2 사용자 상호작용의 새로운 로케이션을 반영하도록 이동된다. 이러한 방식으로, 포인터는 제 2 사용자 상호작용의 변위를 실시간으로 추종한다.
프로세스의 이러한 단계에서, 사용자는 포인터의 위치에 의해 만족될 수 있다: 포인터는 그/그녀가 선택하기 원하는 그래픽 엘리먼트 위에 있다. 포인터가 그래픽 엘리먼트 위에 있는 경우, 해당 그래픽 엘리먼트가 선택될 수 있다 - 그것은 미리 선택된 상태에 있다; 그것은 사용자가 디스플레이된 그래픽 엘리먼트들 중 어느 그래픽 엘리먼트가 선택될 수 있는지를 용이하게 보여줄 수 있도록 강조될 수도 있다. 예를 들어, 강조하는 것은 그래픽 엘리먼트의 하이라이트로 인해 수행될 수도 있다. 하이라이트는 방출적이고 밝은 (emissive and light) 컬러를 표시상에 적용한는 것으로 이루어진다. 강조하는 것은 또한 그래픽 엘리먼트의 깜박임, 강조된 그래픽 엘리먼트의 외곽선을 두껍게 하는 것, 또는 강조된 그래픽 엘리먼트의 외곽선을 형성하는 포인트들의 밀도를 증가시키는 것과 같은 다른 시각적 효과들에 의해 수행될 수도 있다. 어쨋든, 사용자가 다른 것들 중에서 선택가능한 그래픽 엘리먼트를 구별하는 것을 허용하는 임의의 수단이 사용될 수도 있다.
사용자는 선택될 그래픽 엘리먼트를 포인터 아래로 가져오기 위해 제 1 사용자 상호작용을 사용해야 하는 그래픽 엘리먼트의 사전 선택을 수행할 제 2 가능성을 갖는다. 프로세스의 이러한 단계에서, 제 2 사용자 상호작용은 여전히 검출된며, 예를 들어, 손가락 (18) 은 여전히 터치 감지 디스플레이와 접촉한다.
단계 (S170) 에서, 터치 감지 디스플레이 상에서 제 1 로케이션으로부터 시작하여 제 2 로케이션에서 종료되는, 제 1 사용자 상호작용의 이동이 검출된다. 이러한 검출 단계는 단계 (S160) 에서의 제 2 사용자 상호작용의 검출 단계에 대한 것과 동일한 방식으로 수행된다.
제 1 사용자 상호작용이 제 2 로케이션 상에서 있는 경우, 터치 감지 디스플레이 상의 제 2 로케이션을 둘러싸는 영역이 윈도우 내에 렌더링된다. 그 렌더링은 단계 (S140) 을 참조하여 논의된 바와 동일하게 수행된다.
바람직하게는, 윈도우 내의 그 렌더링은 제 1 로케이션으로부터 제 2 로케이션으로 이동하면서 제 1 사용자 상호작용의 로케이션들을 둘러싸는 영역들의 실시간 렌더링이다 (S180). 이러한 실시간 렌더링은 포인터의 실시간 이동과 유사하다; 제 1 사용자 상호작용의 이동은 로케이션들의 세트로 이산화되고, 각 로케이션은 사용자 상호작용에 의해 활성화되는 센서에 대응한다. 그리고, 각각의 활성화된 센서의 경우, 제 1 사용자 상호작용의 새로운 로케이션이 컴퓨팅되고, 제 1 사용자 상호작용의 새로운 로케이션을 둘러싸는 영역의 렌더링이 윈도우에 디스플레이된다. 이러한 방식으로, 윈도우 내의 렌더링은 제 1 사용자 상호작용의 변위를 실시간으로 추종한다.
흥미롭게도, 윈도우는 제 1 사용자 상호작용의 이동에 따라, 그리고 제 1 사용자 상호작용이 이동하는 동안 이동한다. 이것은 윈도우가 단계 (S130) 을 참조하여 논의된 바와 동일한 방식으로 GUI 상에 위치되는 것을 의미한다: 윈도우는 제 1 사용자 상호작용의 새로운 로케이션으로부터 오프셋된 미리 결정된 위치에서 터치 감지 디스플레이 상에 디스플레이된다.
이롭게도, 포인터는 윈도우가 이동하는 동안에 윈도우 내에서 모션 없이 유지되고 윈도우 내에서의 렌더링이 업데이트된다; 제 1 사용자 상호작용이 이동하는 동안 제 2 사용자 상호작용이 여전히 검출됨에도 불구하고. 이것은 이롭게도 시스템이 사용자가 (자발적으로 또는 비자발적으로) 생성할 제 2 사용자 상호작용의 변위들을 허용하는 것을 가능하게 한다. 이리하여, 일단 사용자가 윈도우 내에서 포인터를 이동시키고 배치했다면, 포인터는 그의 위치를 유지하며 사용자는 그래픽 엘리먼트가 포인터 아래에 있을 때까지 제 1 사용자 상호작용을 이동시킴으로써 그래픽 엘리먼트의 위치를 조정한다. 흥미롭게도, 사용자는 포인터가 선택될 그래픽 엘리먼트 위에 있을 때까지, 즉 그래픽 엘리먼트가 미리 선택된 상태에 있을 때까지 제 2 사용자 상호작용 및 제 1 사용자 상호작용을 계속적으로 이동시킬 수 있다. 사용자는 따라서 오브젝트의 선택을 행하기 위해 양 사용자 상호작용들을 사용할 수 있다. 이것은 특히 사전 선택을 행하기 위해 스크린 상의 손가락들의 현재의 구성에 의해 허용되는 편의 및 편리에 따라 어느 손가락을 이동시키는 것을 선택할 수도 있는 사용자에 대해 인간환경공학적이다.
그 후, 단계 (S190) 에서, 사용자는 미리 선택된 상태에 있는 그래픽 엘리먼트를 선택한다. 예를 들어, 사용자는 제 2 사용자 상호작용을 중지시킬 수 있으며, 예를 들어 손가락 (18) 이 터치 감지 디스플레이로부터 제거된다 (본 기술에서 UP 이벤트로서 알려짐). 대안적으로, 포인터가 로케이팅되는 그래픽 엘리먼트의 선택은 제 1 및 제 2 사용자 상호작용이 더 이상 검출되지 않을 때, 즉 그들의 손실이 검출될 때 트리거될 수 있다. 검출의 손실은 사용자 상호작용이 사용자에 의해 해제된 것, 예를 들어 사용자가 터치 감지 디스플레이로부터 그의 손가락들 (16, 18) 을 제거하는 것을 의미한다. 다른 예로서, 선택은 포인터가 주어진 시간 주기 동안 그래픽 엘리먼트 위에서 이동하지 않고 머물 때 자동적으로수행될 수 있다. 그래픽 엘리먼트의 선택은 임의의 다른 방식으로 트리거될 수도 있다는 것이 이해되어야 한다.
일단 그래픽 엘리먼트가 선택되었다면, 사용자는: (i) 새로운 제 2 사용자 상호작용을 생성하고 윈도우 내에서 이미 디스플레이된 제 2 그래픽 엘리먼트 위로 이미 디스플레이된 포인터를 이동시킴으로써, 제 1 사용자 상호작용이 사용자에 의해 유지된 경우; (ii) 단계들 (S100 내지 S160) 을 다시 수행함으로써, 제 1 및 제 2 사용자 상호작용들이 제거된 경우, 그래픽 엘리먼트의 추가의 선택을 수행할 수 있다.
그 후, 단계 (S200) 에서, 윈도우가 터치 감지 디스플레이로부터 제거되며, 즉 윈도우는 더 이상 디스플레이되지 않는다. 그 제거는 그래픽 엘리먼트가 선택된 직후에 수행될 수도 있다. 윈도우는 선택 후에 제거되지 않을 수도 있다; 특히 선택이 롱 홀드 (long hold) 에 의해 자동적인 경우. 실제로, 윈도우는 제 1 사용자 상호작용이 제거되는 경우에만 사라져야 한다. 이것은 이롭게도 각 선택에 대해 제 1 상호작용으로부터 다시 시작함 없이 제 1/제 2 사용자 상호작용들의 계속적인 이동들에 의해 다수의 엘리먼트들을 선택하는 것을 허용한다.
선택된 그래픽 엘리먼트는 사용자가 그래픽 엘리먼트가 선택되는 것을 볼 수 있도록 특정의 렌더링으로 표션될 수도 있다. 이것은 도 7 에 도시되며, 여기서 선택된 그래픽 엘리먼트 (14) 는 점선으로 렌더링된다.
본 발명은 그래픽 엘리먼트를 선택 해제하는데 사용될 수도 있다. 포인터가 이미 선택된 그래픽 엘리먼트 위로 이동되고, 포인터의 변위(들) 가 도 1 과 관련하여 논의된 동일한 원리들에 따라 수행된다. 선택된 그래픽 엘리먼트는 예를 들어 포인터가 주어진 시간 주기 동안 선택된 그래픽 엘리먼트 위에서 이동하지 않고 머물 때 선택 해제된다.
본 발명의 바람직한 실시형태가 기술되었다. 여러 변경들이 본 발명의 사상 및 범위로부터 일탈하지 않고 행해질 수도 있다는 것이 이해될 것이다. 따라서, 다른 구현들은 다음의 청구범위의 범위 내에 있다. 예를 들어, 제 1 사용자 상호작용 및 제 2 사용자 상호작용은 2 개의 손가락들 (16, 18) 의 터치 감지 디스플레이 상의 접촉에 의해 수행되고, 각각의 손가락은 사용자의 하나의 각각의 손에 속한다. 역으로, 사용자는 단지 하나의 손에 속하는 손가락들을 사용할 수도 있다. 대안적으로, 2 명의 사용자들이 예를 들어 그래픽 엘리먼트들의 선택을 일반적으로 요구하는 모델링된 오브젝트의 설계 프로세스 동안, 동일한 GUI 에서 함께 일하고 협동할 수도 있다; 제 1 사용자 상호작용은 하나의 사용자에 의해 수행될 수도 있고, 제 2 사용자 상호작용은 제 2 사용자에 의해 수행될 수도 있다. 사용자는 또한 단계들 (S100 내지 S160 또는 S100 내지 S190) 에서 묘사된 바와 같은 수개의 그래픽 엘리먼트들의 연속적인 사전 선택들을 수행할 수 있고 - 예를 들어 그래픽 엘리먼트는 포인터가 주어진 시간 주기 동안 상기 그래픽 엘리먼트 위에 있을 때 사전 선택된다 - 그리고 모든 사전 선택된 그래픽 엘리먼트를 동시에 선택한다.

Claims (15)

  1. 터치 감지 디스플레이 상에 디스플레이된 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법으로서,
    - 상기 터치 감지 디스플레이 상에 그래픽 엘리먼트를 디스플레이하는 단계 (S100);
    - 상기 터치 감지 디스플레이 상의 제 1 사용자 상호작용의 제 1 로케이션을 검출하는 단계 (S120);
    - 상기 터치 감지 디스플레이 상에 윈도우를 디스플레이하는 단계 (S130) 로서, 상기 윈도우는 그래픽 엘리먼트를 선택하기 위한 포인터를 포함하는, 상기 윈도우를 디스플레이하는 단계;
    - 상기 윈도우에서 상기 제 1 사용자 상호작용의 상기 제 1 로케이션을 둘러싸는 영역을 렌더링하는 단계 (S140);
    - 상기 터치 감지 디스플레이 상의 제 2 사용자 상호작용을 검출하는 단계 (S150);
    - 상기 터치 감지 디스플레이 상의 상기 제 2 사용자 상호작용의 이동을 검출하는 단계; 및
    - 상기 제 2 사용자 상호작용의 상기 이동에 따라 상기 윈도우 내의 상기 포인터를 이동시키는 단계 (S160) 를 포함하는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  2. 제 1 항에 있어서,
    상기 제 2 사용자 상호작용의 이동은 이동 방향 및 이동 거리를 포함하고,
    상기 포인터는 동일한 이동 방향 및 상기 제 2 사용자 상호작용의 이동 거리에 비례하는 이동 거리로 이동되는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  3. 제 2 항에 있어서,
    상기 포인터의 이동 거리는 감소의 계수의 적용에 의해 비례적으로 감소되는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  4. 제 3 항에 있어서,
    - 사용자 액션에 따라, 상기 감소의 계수를 선택하는 단계 (S110) 를 더 포함하는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 포인터를 이동시키는 단계 후에,
    - 상기 터치 감지 디스플레이 상의 상기 제 1 로케이션으로부터 상기 제 2 로케이션으로 상기 제 1 사용자 상호작용의 이동을 검출하는 단계 (S170);
    - 상기 윈도우에서 상기 터치 감지 디스플레이 상의 상기 제 2 로케이션을 둘러싸는 영역을 렌더링하는 단계 (S180) 를 더 포함하는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  6. 제 5 항에 있어서,
    상기 윈도우에서 터치 감지 디스플레이 상의 제 2 로케이션을 둘러싸는 영역을 렌더링하는 단계는, 상기 윈도우에서 상기 제 1 로케이션으로부터 상기 제 2 로케이션으로 이동하면서 상기 제 1 사용자 상호작용의 중간 로케이션들을 둘러싸는 영역의 실시간 렌더링을 수행하는 단계를 더 포함하는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  7. 제 5 항 또는 제 6 항에 있어서,
    - 상기 제 1 사용자 상호작용의 상기 이동에 따라 상기 윈도우를 이동시키는 단계를 더 포함하는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  8. 제 5 항 내지 제 7 항 중 어느 한 항에 있어서,
    상기 포인터는 상기 윈도우가 이동하는 동안에 상기 윈도우 내에서 모션 없이 유지되는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  9. 제 5 항 내지 제 8 항 중 어느 한 항에 있어서,
    상기 제 2 사용자 상호작용은 상기 터치 감지 디스플레이 상에서 유지되는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 제 1 사용자 상호작용은 상기 터치 감지 디스플레이 상에서 유지되는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  11. 제 1 항 내지 제 10 항 중 어느 한 항에 있어서,
    상기 포인터를 이동시킨 후에,
    - 상기 제 1 사용자 상호작용 및 상기 제 2 사용자 상호작용들의 손실을 검출하는 단계; 및
    - 상기 포인터 아래의 그래픽 엘리먼트를 선택하는 단계 (S190) 를 더 포함하는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  12. 제 11 항에 있어서,
    - 상기 터치 감지 디스플레이로부터 상기 윈도우를 제거하는 단계 (S200) 를 더 포함하는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  13. 제 1 항 내지 제 12 항 중 어느 한 항에 있어서,
    상기 윈도우에서 렌더링된 영역이 확대 또는 감소 계수에 기초하여 확대 또는 감소되는, 그래픽 엘리먼트를 선택하는 컴퓨터 구현 방법.
  14. 컴퓨터로 하여금 제 1 항 내지 제 13 항 중 어느 한 항에 기재된 방법의 단계들을 취하게 하는 명령들을 포함하는 그래픽 엘리먼트를 선택하기 위한 컴퓨터 프로그램.
  15. 메모리, 및 터치 감지 디스플레이에 통신가능하게 커플링된 프로세서를 포함하고,
    상기 메모리는 제 14 항에 기재된 컴퓨터 프로그램을 저장한, 그래픽 엘리먼트를 선택하기 위한 컴퓨터 시스템.
KR1020150189559A 2014-12-31 2015-12-30 그래픽 엘리먼트의 선택 KR20160081835A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14307221.3A EP3040839B1 (en) 2014-12-31 2014-12-31 Selection of a graphical element
EP14307221.3 2014-12-31

Publications (1)

Publication Number Publication Date
KR20160081835A true KR20160081835A (ko) 2016-07-08

Family

ID=52434497

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150189559A KR20160081835A (ko) 2014-12-31 2015-12-30 그래픽 엘리먼트의 선택

Country Status (6)

Country Link
US (1) US11061502B2 (ko)
EP (1) EP3040839B1 (ko)
JP (1) JP6711616B2 (ko)
KR (1) KR20160081835A (ko)
CN (1) CN105739816B (ko)
CA (1) CA2915741A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
US11157152B2 (en) * 2018-11-05 2021-10-26 Sap Se Interaction mechanisms for pointer control

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282368A (ja) * 1993-02-01 1994-10-07 Wacom Co Ltd 情報処理装置の位置情報入力システム
JPH07271501A (ja) * 1994-03-31 1995-10-20 Wacom Co Ltd 表示画面における表示物の表示方法
US6025841A (en) * 1997-07-15 2000-02-15 Microsoft Corporation Method for managing simultaneous display of multiple windows in a graphical user interface
US6337698B1 (en) * 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
US6392675B1 (en) * 1999-02-24 2002-05-21 International Business Machines Corporation Variable speed cursor movement
GB2355086A (en) * 1999-10-06 2001-04-11 Ncr Int Inc Selection of displayed options, for self-service terminals
JP4215549B2 (ja) * 2003-04-02 2009-01-28 富士通株式会社 タッチパネル・モードとポインティング・デバイス・モードで動作する情報処理装置
JP4770241B2 (ja) * 2005-04-05 2011-09-14 株式会社日立製作所 エレベーター装置
US20070038955A1 (en) * 2005-08-09 2007-02-15 Nguyen Mitchell V Pen-based computer system having first and second windows together with second window locator within first window
JP4882319B2 (ja) * 2005-09-08 2012-02-22 パナソニック株式会社 情報表示装置
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
US8176438B2 (en) * 2008-09-26 2012-05-08 Microsoft Corporation Multi-modal interaction for a screen magnifier
JP5240773B2 (ja) * 2008-12-18 2013-07-17 シャープ株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2010165291A (ja) * 2009-01-19 2010-07-29 Funai Electric Co Ltd 表示装置および拡大表示方法
US7870496B1 (en) * 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
US8756534B2 (en) * 2009-03-16 2014-06-17 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
JP2011028366A (ja) 2009-07-22 2011-02-10 Sony Corp 操作制御装置および操作制御方法
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
US8358281B2 (en) * 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
JP2011141753A (ja) * 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP5112471B2 (ja) * 2010-05-11 2013-01-09 シャープ株式会社 画像表示操作装置及びこれを備えた画像形成装置
US8593422B2 (en) * 2010-11-05 2013-11-26 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
FR2973899B1 (fr) * 2011-04-07 2013-04-26 Archos Procede de selection d'un element d'une interface utilisateur et dispositif mettant en oeuvre un tel procede.
US8677232B2 (en) * 2011-05-31 2014-03-18 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
CN102855074A (zh) * 2011-06-30 2013-01-02 安凯(广州)微电子技术有限公司 一种触屏操作方法
JP5388385B2 (ja) * 2012-05-16 2014-01-15 パナソニック株式会社 表示制御装置、表示制御方法、およびプログラム
CN103513908B (zh) * 2012-06-29 2017-03-29 国际商业机器公司 用于在触摸屏上控制光标的方法和装置
CN103631489B (zh) * 2012-08-30 2017-02-08 中兴通讯股份有限公司 触摸屏字符显示方法及装置
US9261989B2 (en) * 2012-09-13 2016-02-16 Google Inc. Interacting with radial menus for touchscreens
JP5796562B2 (ja) * 2012-10-26 2015-10-21 コニカミノルタ株式会社 データ処理装置、設定方法および設定プログラム
EP2755124B1 (en) * 2013-01-15 2019-03-13 BlackBerry Limited Enhanced display of interactive elements in a browser
CN103136180A (zh) 2013-02-25 2013-06-05 北京极兴莱博信息科技有限公司 一种文段复制粘贴的方法、装置及终端
US20140372939A1 (en) * 2013-06-17 2014-12-18 Zamurai Corporation Systems and methods for assisting in selection and placement of graphical objects in a graphical user interface
CN104793774A (zh) * 2014-01-20 2015-07-22 联发科技(新加坡)私人有限公司 电子装置控制方法
US9990126B2 (en) * 2014-05-30 2018-06-05 Visa International Service Association Method for providing a graphical user interface for an electronic transaction with a handheld touch screen device
US9594489B2 (en) * 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
US10684758B2 (en) * 2017-02-20 2020-06-16 Microsoft Technology Licensing, Llc Unified system for bimanual interactions

Also Published As

Publication number Publication date
CN105739816B (zh) 2021-08-24
JP6711616B2 (ja) 2020-06-17
CN105739816A (zh) 2016-07-06
US11061502B2 (en) 2021-07-13
JP2016129019A (ja) 2016-07-14
EP3040839B1 (en) 2020-08-12
US20160188175A1 (en) 2016-06-30
CA2915741A1 (en) 2016-06-30
EP3040839A1 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
KR101794498B1 (ko) 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법 및 시스템
US20170364198A1 (en) Remote hover touch system and method
KR101541928B1 (ko) 시각적 피드백 디스플레이
JP4743268B2 (ja) 情報処理装置、情報処理方法およびプログラム
US11068155B1 (en) User interface tool for a touchscreen device
US10761684B2 (en) Setting a parameter
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
JP6711616B2 (ja) グラフィック要素の選択
US10775984B2 (en) Setting a parameter
US20150020025A1 (en) Remote display area including input lenses each depicting a region of a graphical user interface
US10761705B2 (en) Setting a parameter