KR101442438B1 - 듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스 - Google Patents

듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스 Download PDF

Info

Publication number
KR101442438B1
KR101442438B1 KR1020137003766A KR20137003766A KR101442438B1 KR 101442438 B1 KR101442438 B1 KR 101442438B1 KR 1020137003766 A KR1020137003766 A KR 1020137003766A KR 20137003766 A KR20137003766 A KR 20137003766A KR 101442438 B1 KR101442438 B1 KR 101442438B1
Authority
KR
South Korea
Prior art keywords
user interaction
touch
reference point
touch screen
user
Prior art date
Application number
KR1020137003766A
Other languages
English (en)
Other versions
KR20130054990A (ko
Inventor
링 준 웡
트루에 슝
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20130054990A publication Critical patent/KR20130054990A/ko
Application granted granted Critical
Publication of KR101442438B1 publication Critical patent/KR101442438B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

싱글 터치 기능에 의해 투 터치 인터페이스를 경험하기 위한 프로세스가 개시된다. 2개의 손가락의 동시적인 사용은 손에 자유도의 제약을 준다. 본 발명의 실시 형태에서, 동시적인 투 터치 인터페이스는 싱글 터치 프로세스를 이용하여 시뮬레이트된다. 특수한 입력 모드에서, 우선 기준 포인트를 고정하기 위한 메커니즘이 이용된다. 그 후 기준 포인트에 대하여 제2 및 후속의 싱글 터치가 행해진다. 시간 지연된 터치들은 둘 다의 터치에 대해 검지 손가락을 자유롭게 사용할 수 있게 한다. 폐쇄된 도형들이 쉽게 그려지고, 기준 포인트와, 오브젝트로부터 멀어지게 또는 오브젝트에로 추적되는 라인에 의해 줌 인과 줌 아웃 기능들이 유사하게 구현된다. 듀얼 터치의 인터페이스 기능성을 모두 유지하면서, 듀얼 터치의 한계를 극복한다.

Description

듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스{SINGLE TOUCH PROCESS TO ACHIEVE DUAL TOUCH EXPERIENCE FIELD}
본 발명의 실시 형태들은 일반적으로 컴퓨터 시스템의 터치 기반 유저 입력 인터페이스에 관한 것이다.
터치 기술은 계산 장치 및 통신 장치에 대해 최신 개발 중인 인간 인터페이스 기술이다. 무어의 법칙(Moore's law)에 의해 반도체 기술에 부과된 패러다임의 변화에 기인하여, 컴퓨터 시스템의 속도 및 응답 시간의 향상은 사용자가 그의 손가락을 이용하여 컴퓨터 시스템과 인터페이스하는 것을 가능하게 한다.
키보드는 컴퓨터에 대한 유저 입력 인터페이스의 초기 형태였다. 그것은 타자기 세계로부터 자연스럽게 이동했다. 마우스는, 자연적이고 더 빠른 유저 입력의 다른 방식으로서 유저 인터페이스에 추가되었다. 이러한 진보의 주 구동원은 실리콘 기술의 개발이었고, 이것이 그래픽 유저 인터페이스가 지원될 수 있게 했다는 것은 주목할만하다. 문자의 입력 사양보다는, 마우스 이동 및 스크린상의 선택에 응답하는 스크린상의 커서의 빠른 이동이 키보드 타이핑을 최소화했다. 이것은 대부분의 컴퓨터 및 노트북이 마우스를 이용하기 시작했을 정도로 다른 패러다임 시프트를 나타냈다.
반도체 기술은 더 진보했다. 마우스가 도입되었을 때, 그래픽 유저 인터페이스가 유용한 유저 인터페이스가 되었지만, 스크린 및 그래픽 하드웨어와 장치 드라이버의 기술이 터치 기술을 가능하게 할 수 있도록 비약적으로 진보했다. 키보드와 마우스의 기능은 더 직접적인 인간 인터페이스로 대체되고 있다. 키보드 인터페이스는 스크린상의 터치에 의해서도 시뮬레이트되고 있다. 이것은 유저의 손에서 대단한 능력을 보이므로 매력적이다. 스크린 조작을 위한 컴퓨팅 능력은, 터치들의 감지(검출), 터치들의 위치결정(해상도), 터치들의 인식, 및 터치들에 대한 응답들을 위해 다중 터치에 반응하도록 상당히 향상되었다. 현재 이 조작들은, 휴대 장치들에 있어서 유저 상호작용에 좋은 응답 시간에 지원될 수 있다.
터치 센서의 표면에 손가락 또는 스타일러스가 터치를 행할 때 싱글 터치가 발생한다. 이어서 터치 콘트롤러가 그것을 검출한다. 애플리케이션은 터치 이벤트의 좌표를 결정할 수 있다. 터치 기술은 많은 장치들에 통합되었다. 전형적으로 이 장치들은 한번에 싱글 터치 포인트보다 많은 것을 검출하거나 해상할 능력을 갖고 있지 않다. 펜은 손가락과 마찬가지의 입력 특성을 가능하게 하지만, 더 큰 포인터 정밀성을 갖는다. 액티브 펜(active pens)은 드로잉 및 손바닥 비인식 기능(palm rejection capabilities) 등의 터치 시스템에 대한 더 많은 제어와 용도를 제공할 수 있다.
많은 싱글 터치 기술들에 의한 펌웨어, 소프트웨어, 및 하드웨어의 향상은 그들의 기능성을 증대시켰다. 어떤 터치 기술들은, 제2 터치 이벤트가 발생하고 있는 것을 "검출" 또는 인식하기 위해 진보된 프로세싱 기능들을 이용할 수 있다. 안타깝게도, 싱글 터치 시스템들은 제2 터치 이벤트의 정확한 위치를 해상할 수 없다. 그 대신에, 그들은 의도되는 제스처 이벤트 입력을 해석하기 위한 프로세스들에 의지한다.
"투 터치(two touch)"란, 2개의 별개의, 동시적인 터치 이벤트를 검출할 수 있고 해상할 수 있는 터치 시스템을 가리킨다. 스크린상에 2개의 평행선을 동시에 그리는 것은 "투 터치"의 예이다. 다중 터치(multi-touch)란, 최소 3개 또는 그 이상의 터치 포인트를 동시에 검출하고 해상하는 터치 시스템의 능력을 가리킨다. 3개 이상의 터치가 검출되어 완전히 해상된다. 이 결과, 터치 경험이 향상되었다. 다중 터치는 광범위하게 이용되는 인터페이스가 될 것으로 생각된다. 이것은 그것의 효율성, 속도, 및 그 기술의 직관성 때문이다. 다중 터치 기술은 유저가 핀치(pinch), 스와이프(swipe), 회전, 및 다른 액션들을 할 수 있게 한다. 이들은 디지털 콘텐트와의 더 풍부하고 더 직접적인 상호작용을 가능하게 한다. 예시적인 응용으로서, 사진들이 개별적으로 및 그룹으로 회전, 크기 조정, 및 이동될 수 있다.
2개 손가락 다중 터치 시스템은 소정의 장점들을 갖는다. 2개의 손가락의 동시적인 사용이 요구되기 때문에, 유저의 허용가능한 움직임에 제약이 가해진다. 예를 들어, 손가락과 엄지 손가락으로 또는 2개의 손가락으로 원을 그리는 것은 매우 어렵다. 인간의 손바닥의 한계는 단일 패스로 원을 완성하기 위한 유저의 능력에 심각한 제약을 가한다. 이것은 임의의 폐쇄 종결된 도형에 대해서도 마찬가지이며, 그것은 1개의 손가락을 이용하여 그리는 것이 훨씬 더 쉽다. 유저의 손 사용은 검지 손가락, 또는 검지 손가락과 엄지 손가락의 사용에 심하게 편중된다. 그러므로, 2개의 손가락의 동시적 터치 인터페이스들에 대한 향상이 필요하다.
본 발명의 실시 형태는 듀얼 터치 경험(dual touch experience)을 달성하기 위한 싱글 터치 프로세스(single touch process)에 관한 것이다. 어떤 응용들에는 듀얼 터치 기술이 타당할 수 있지만, 유저의 자연스러운 경향은 검지 손가락을 이용하는 것이고, 필요하다면, 엄지 손가락을 사용하는 것이다. 손의 구조는 동시적인 다중 터치 또는 듀얼 터치 상호작용을 수행하는 유저의 움직임에 대해 많은 자유도의 제약들을 가한다. 본 발명의 실시 형태들은 유저가 시뮬레이트되는 듀얼 터치 인터페이스의 둘 다의 터치에 대해 검지 손가락을 이용하는 것을 가능하게 한다.
본 발명의 실시 형태들은 둘 다의 터치에 대해 검지 손가락이 이용될 수 있는 싱글 터치 기술들을 이용함으로써 동시적인 듀얼 터치 인터페이스를 흉내 내기 위한 프로세스들을 제공한다. 터치 스크린 시스템은 비콘 모드(beacon mode)에 놓인다. 이 모드는 본 발명의 듀얼 터치 경험에 특유한 것이다. 일 실시 형태에 있어서, 더블 탭(a double tap) 또는 트리플 탭(a triple tap) 중 어느 것을 통해, 터치 스크린 시스템이 이 특수한 모드에 놓인다. 이 모드에서, 한번에 원 터치의 방법(one touch at a time method)이 본 발명의 듀얼 터치 경험을 시뮬레이트하기 위해 이용된다. 본 발명의 실시 형태는 유저가 기준의 싱글 포인트를 마크하고 후속의 터치들이 그 기준에 대해 상대적으로 인식되도록 하여 액션을 정의하게 해준다. 기준 포인트는, 스크린상의 트리거를 선택함으로써, 또는 특정 임계값보다 큰 터치로부터의 압력이 검출될 때 설정될 수 있다. 기준 포인트의 설정이 제1 포인트를 고정하고, 후속의 제2 포인트에 대한 액션들이 발생한다. 예를 들어, 간단히 중심에 기준을 고정시키고 1개의 손가락, 바람직하게는 검지 손가락을 이용하여 그리기를 함으로써, 원을 포함한 폐쇄된 도형이 쉽게 그려진다. 이 기술이 듀얼 터치와 관련이 없는 응용에 우연히 이용된다면, 이 모드는 무시된다.
본 발명의 실시 형태는 제1 유저 상호작용이 조작 모드를 활성화하는 터치 인터페이스 방법, 장치, 및 소프트웨어를 개시한다. 제2 유저 상호작용은 기준 포인트를 설정한다. 그래픽 기능들은 제2 유저 상호작용에 대해 상대적인 제3 유저 상호작용에 기초하여 화상들을 구성한다. 본 발명의 일 실시 형태에 있어서, 유저 인터페이스는 스크린상의 터치이다.
첨부 도면은 본 명세서에 포괄되며 그 일부를 형성한다. 도면은 실시 형태들을 도시한다. 설명과 함께, 도면은 실시 형태들의 원리들을 설명하는 역할을 한다.
도 1은 본 발명의 실시 형태들에 이용될 수 있는 감지 및 구동 라인들의 그리드를 포함하는 예시적인 용량성 터치 스크린의 레이어별 도면이다.
도 2는 터치로부터 좌표 계산까지의 터치 감지 프로세스의 흐름도이다.
도 3a는 로 데이터(raw data)가 명령 및 제스처로서 해석되는 프로세서 및 소프트웨어를 통한 터치 입력의 흐름을 나타내는 흐름도이다.
도 3b는 본 발명의 실시 형태들에 따라 싱글 터치 프로세스들에 의해 동시적인 듀얼 터치 경험을 달성하기 위해 수반되는 단계들의 흐름도이다.
도 4는 본 발명의 실시 형태들에 따른 특수한 "비콘" 모드에 스크린이 놓인 것을 그래프로 도시한 도면이다.
도 5는 본 발명의 실시 형태들에 따라, 삼각형과 같은 폐쇄된 도형을 이용하는 오브젝트의 "줌 인"을 도시하는 도면이다.
도 6은 본 발명의 실시 형태에 따라, 우선 기준 포인트를 선택하고 대략적인 폐쇄된 원을 마킹하고, 그 후에 스크린 소프트웨어에 의해 완전한 원으로서 완성됨으로써, 원이 그려지는 싱글 터치 경험의 이점을 도시한다.
도 7은 본 발명의 실시 형태들에 따라 단일 손가락을 이용하여 회전이 행해지는 애플리케이션을 도시한다.
도 8은 본 발명의 실시 형태들에 따라 오브젝트 둘레에 사각형을 이용하여 폐쇄된 라인을 그리는 것에 의한 오브젝트의 "줌 인"을 도시하는 도면이다.
도 9는 본 발명의 실시 형태들에 따라 기준 포인트를 이용하여 밖으로의 라인을 그리는 "줌 인" 기능을 도시한다.
도 10은 본 발명의 실시 형태들에 따라 기준 포인트를 이용하여 안으로의 라인을 그리는 "줌 아웃" 기능을 도시한다.
이제 본 발명의 실시 형태들을 상세히 참조할 것이고, 그 예들이 첨부 도면에 도시된다. 본 발명은 이 실시 형태들과 관련하여 설명될 것이나, 그들은 본 발명을 이 실시 형태들로 한정하고자 의도되는 것이 아니라는 것을 이해할 것이다. 그와는 반대로, 본 발명은 첨부된 청구범위에 의해 정의되는 본 발명의 사상 및 범위 내에 포함될 수 있는 대안들, 변형들, 및 등가물들을 포괄하도록 의도된다. 또한, 하기의 본 발명의 실시 형태들의 상세한 설명에 있어서, 본 발명의 충분한 이해를 제공하기 위해 다수의 특수한 상세 사항들이 설명된다. 그러나, 당업자는 본 발명이 이 특수한 상세 사항들 없이 실시될 수도 있다는 것을 이해할 것이다. 다른 예들에 있어서, 본 발명의 실시 형태들의 특징들을 불필요하게 모호하게 하지 않기 위해 주지의 방법들, 프로시저들, 컴포넌트들, 및 회로들에 대한 상세한 설명을 생략한다.
본 명세서에서 설명되는 실시 형태들은 하나 이상의 컴퓨터들이나 또는 다른 장치들에 의해 실행되는, 프로그램 모듈 등의, 컴퓨터 이용가능 매체의 소정의 형태에 상주하는 컴퓨터 실행가능 명령어들의 일반적인 콘택스트로 논의될 수 있다. 일반적으로, 프로그램 모듈은 특별한 태스크를 수행하거나 또는 특별한 추상 데이터 타입들을 구현하는 루틴들, 프로그램들, 오브젝트들, 컴포넌트들, 데이터 구조들 등을 포함한다. 다양한 실시 형태들에 있어서 프로그램 모듈들의 기능은 필요에 따라 결합될 수 있거나 또는 분산될 수 있다.
예를 들어, 컴퓨터 이용가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있지만, 이것에 한정되지 않는다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 그 밖의 데이터 등의 정보의 저장을 위한 임의의 방법 또는 기술로 실시되는 휘발성 및 비휘발성, 제거가능 및 제거불가능 매체를 포함한다. 컴퓨터 저장 매체는 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 전기적 소거가능 프로그램가능 ROM(EEPROM), 플래시 메모리 또는 다른 메모리 기술, 컴팩트 디스크 ROM(CD-ROM), 디지털 다기능 디스크(DVDs) 또는 다른 광학 스토리지, 자기 카세트, 자기 테이프, 자기 디스크 스토리지 또는 다른 자기 저장 장치, 또는 원하는 정보를 저장하기 위해 이용될 수 있는 임의의 다른 매체를 포함하지만, 이것들에 한정되지 않는다.
도 1을 참조하여, 본 발명의 실시 형태들에 의해 이용될 수 있는 예시적인 용량성 스크린의 실시 형태에 대해 설명한다. 예시적인 실시 형태에 있어서, 스크린은 유저가 어디에 터치하고 있는지를 결정하기 위해 감지 라인들 및 구동 라인들의 그리드(grid)를 포함한다. 레이어들 중 레이어(1)는 보호용 반사 방지 코팅(100)이다. 이 다음에는 스크린의 내구성을 향상시키는 보호용 커버(110)가 뒤따른다. 레이어(120)는 전기 회로들을 격리시키고 그들의 무결성을 유지하기 위한 접착층이다. 레이어(130)는, 예를 들어, 커패시터를 사전충전하기 위한 구동 라인들을 갖는다. 레이어(130)는 예시의 구동 라인들(140)을 갖는다. 이 라인들은 스크린의 열들에 있어서의 커패시터들과 연관된다. 유사하게, 레이어(160)는 스크린의 행들을 커버하는 감지 라인들(150)을 갖는다. 각각의 화소는 행 위치와 열 위치를 갖고, 화소 위치들의 커패시터들에 있어서 구동 라인들(140)을 통해 사전충전이 일어나고 감지 라인들(150)을 통해 방전이 일어난다. 충전과 방전은 전기적 충격들을 발생시키는데, 전기적 충격들이 스크린상의 화소 단위로 검출되어, 터치를 감지하고 터치 좌표들을 탐지한다(고속 행렬 주사에 의해). 레이어(180)와 그 하부의 170으로 나타낸 레이어들은 데이터를 표시하기 위한 액정 표시층들이다. 도 1은 터치 감지 기능을 갖는 예시적인 다층 디스플레이를 나타낸다. 본 발명의 일 실시 형태에 있어서, 도 1에 도시된 청구항의 터치 감지 기능은 싱글 터치에 한정된다.
도 2는 터치 감지에 이용되는 예시적인 드라이버 레벨의 소프트웨어 단계들을 도시한다. 단계 200에서, 스크린은, 일 실시 형태에 있어서, 손가락의 전하의 상호작용을 통해 터치를 감지한다. 로 데이터는 화소들의 전하량에 의해 캡처된다(210). 노이즈를 제거하는 추가적인 프로세싱 후에, 터치 포인트들의 설정 단계(220)가 다음에 이어진다. 이 후에, 스크린상의 화소수(들)에 의한 정확한 좌표들의 계산(230)이 행해진다.
도 3a는 터치 시스템 프로세스들을 더 도시한다. 프로세스는, 유저가 스크린을 터치한 후 감지되는 것(300)으로 시작한다. 하부의 전자 장치들을 통해, 도 2 등의 프로세스를 사용하여 터치가 탐지되고, 위치결정되고, 그의 크기 및 형태가 결정된다(310). 움직임 및 다중 터치 분석이 행해진다(320). 그렇게 파생된 정보는, 터치의 해석 및 그의 인식이며, 본 발명의 실시 형태들에 따라, 제스처 소프트웨어(330)에, 그리고 애플리케이션 데이터(340)에도 공급된다. 프로세서는 본 발명의 실시 형태들에 따라 그의 제스처 해석 소프트웨어를 이용하여 어떤 제스처가 행해졌는지를 결정한다. 물리적 움직임들은 애플리케이션의 콘택스트와 결합된다. 프로세서는 사용중의 프로그램에 명령들을 중계한다. 함께 작업하는 이 두 블럭(330, 340)은 디스플레이 드라이버(350) 및 시스템(355)에 명령들을 제공하여 스크린상의 화상들을 갱신한다. 명령들은 스크린 및 다른 하드웨어에 보내질 수 있다. 어떠한 제스처들이나 명령들과도 매칭하지 않는 관련 없는 터치는 무시된다. 일 실시 형태에 따르면, 채택되는 터치 시스템은 싱글 터치 인식에 한정된다.
도 3b는 싱글 터치 입력만을 이용하면서 "듀얼 터치" 인터페이스를 제공하기 위한 제스처 소프트웨어(360)의 강화로서의 본 발명의 일 실시 형태를 도시한다. 프로세스(360)를 이용하여, "듀얼 터치"가 유효하게 시뮬레이트된다. 터치 스크린은 미리 정해진 유저 터치에 응답하여 특수한 비콘 모드에 진입한다(3610). 스크린상의 유저 터치에 기초하여, 기준 포인트가 인식된다(3620). 기준 포인트에 대해 상대적으로 후속의 유저 터치가 인식된다(3630). 본 발명의 일 실시 형태에 있어서는, 애플리케이션에 기초하여, 제2 터치가 의미를 갖는지에 대한 결정이 행해진다(3640). 의미를 갖지 않는다면, 아무 액션도 취해지지 않는다. 제2 터치는 무시된다. 예로서, 주소록을 통한 브라우징은 스크롤링 및 선택을 필요로 한다. 유저가 의도하지 않게 기준 포인트를 활성화하면, 스크린 아래로 손가락을 스와이프하는 것은 스크롤링 액션을 실행시킬 것인데, 왜냐하면 이 애플리케이션에서는 기준 포인트를 향해 움직이는 터치가 타당하지 않기 때문이다.
한편, 제2 터치가 의미를 갖는다면, 기준 포인트와 유저의 제2 터치에 기초하여 규정의 액션이 취해진다(3660). 유저가 "비콘" 모드를 나가길 원한다면, 프로세스는 종료한다(3680). 그렇지 않고, 유저가 기준 포인트를 변경하길 원한다면(3650), 새로운 기준을 인식하기 위한 프로세스에 진입한다(3620). 유저가 변경하길 원치 않는다면, 제2 터치를 인식하기 위한 프로세스에 진입한다(3630). 본 발명의 실시 형태들에 있어서는, 동시적 터치 방법과는 달리, 둘 다의 터치가 검지 손가락을 이용할 수 있다는 것을 이해할 것이다.
일 실시 형태에 있어서, 유저 인터페이스는, 프로세서, 애플리케이션, 및 제스처 소프트웨어를 포함한 하부의 터치 스크린 시스템을 이용하여 소프트웨어의 애플리케이션 레이어에 구현된다. "비콘" 모드일 때, 트리거들, 액션들, 및 이벤트들의 세트를 저장하는 적당한 메모리 관리 기능들에 의해 특수한 소프트웨어가 구현될 수 있다. 이 모드에서, 전용화된 구성의 이벤트들이 유저에게 이용 가능할 수 있다. 비콘 모드일 때 유저에게 나타나는 전용 메뉴를 통해, 이미 명시된 주요 기능들, 액션들, 및 이벤트들이 유저에게 이용가능하게 될 수 있다. 전용의 그래픽 유저 인터페이스가 고안될 수 있다. 미리 프로그래밍된 트리거들, 행동들, 및 이벤트들이 특수한 애플리케이션들에 링크될 수 있다. 다수의 상이한 주지의 상호작용들이 시스템을 비콘 모드에 놓을 수 있다는 것을 이해할 것이다. 예로서, 그것은 미리 정해진 스크린 위치에서의 센서 화면상의 싱글 탭 또는 다중 탭일 수 있다.
다른 실시 형태에 있어서, 기준 포인트는 그 기준 포인트를 향해 반응하는 후속의 액션들에 의해 마킹될 수 있다. 예를 들어, 손가락 스와이프는 기준 포인트에 가까울수록 더 고속의 스크롤링을 가능하게 할 수 있고, 멀수록 저속의 스크롤을 제공한다. 마찬가지의 예시적인 방식으로 사진 조작이 행해질 수 있다.
본 발명의 다른 실시 형태들에 있어서, 비콘 모드에서 단일의 손 움직임 후에, 숏컷 액션 트리거들(shortcut action triggers)이 설정될 수 있다. 본 발명의 듀얼 터치 경험 방법이 선택되는 경우, 유저가 원한다면, 하드웨어는 간단화될 수 있는데, 왜냐하면 싱글 터치 장치들만이 채택될 수 있기 때문이다. 동시적인 듀얼 터치 기술은 하드웨어의 면에서 2배의 프로세싱 능력을 필요로 하고, 그보다 많은 다중 터치는 동시적인 터치의 수만큼의 배수의 프로세싱 능력을 필요로 한다. 본 발명의 실시 형태들에 의하면, 원한다면, 동시적인 터치가 본 발명에 의해 2개의 연속적인 터치로 대체되고 싱글 터치 장치들이 이용될 수 있으므로, 비용 이점을 확보하기 위해 프로세싱 능력을 감소시킬 수 있다. 이것은 동시적인(병렬) 프로세싱에 대한 필요를 제거한다.
터치 인터페이스 역학에 대해 기술함에 있어서, 다중 터치 구현은 본 발명의 실시 형태들의 콘택스트로 논의된다. 전술한 바와 같이, 전통적인 관점들에서 다중 터치는 2개 이상의 손가락을 사용하여 스크린을 동시적으로 터치하는 것을 수반하며, 듀얼 터치는 2개의 손가락을 사용하는 것을 수반한다. 본 발명의 실시 형태는 2개의 손가락의 동시적인 사용을 실질적으로 제거하는 방식으로 듀얼 터치 시뮬레이티드 인터페이스(dual touch simulated interface)를 가능하게 한다.
도 4를 참조하면, 스크린상의 예시적인 위치 또는 지점(405)을 갖는 터치 스크린(400)이 표시된다. 일 실시 형태에 있어서, 스크린(400)상의 지점(405)이 420에 도시된 바와 같이 터치되거나 탭핑된다. 라벨 "T"는 유저에 의한 "터치"를 나타낸다. "TT"는 투 탭 터치(a two tap touch)를 나타낸다. 본 발명의 일 실시 형태에 있어서, 이 터치는 터치 시스템을, 본 발명의 실시 형태들에 따른 특수한 모드인 "비콘" 모드에 놓는다. 하부의 도식들에 의해 도시된 다른 실시 형태들에 있어서, 스크린(460)이 스크린(470)으로 변환하는 것이 도시되는데, 터치 아이콘(490)에 붙은 라벨 "TTT"는 비콘 모드에 진입하기 위한 쓰리 탭 터치(a three tap touch)를 나타낸다. 일 실시 형태에 있어서, 이것은 스크린상의 어디에서도 행해질 수 있다. 이것은 "비콘" 모드의 스크린인 스크린(495)을 생성한다. 예를 들어, 탭은 계속된 투 탭 또는 쓰리 탭일 수 있다. 본 발명의 일 실시 형태에 있어서, 이것은 유저 인터페이스 스펙(user interface specification)의 일부로서 구성될 수 있고, 임의의 주기에 걸친 임의의 지정된 스크린 위치에서의 임의의 수의 탭일 수 있다.
중요한 것은, "비콘" 모드는 본 발명의 실시 형태들에 따라 듀얼 인터페이스가 실행되는 모드라는 것이다. 일단 시스템이 비콘 모드에 있다면, 우선 기준 포인트가 유저에 의해 입력된다. 일 실시 형태에 있어서, 이것은 스크린상의 어디에서든지 압력 터치에 의해 행해질 수 있다. 다른 실시 형태에 있어서는, "비콘" 모드에서 특정 지점이 스크린에 제공되고, 스크린상의 트리거가 기준 포인트를 설정한다. 이렇게 설정된 기준 포인트에 의해, 하기에 설명되는 바와 같이 다수의 듀얼 터치 조작들이 유리하게 실행될 수 있다.
도 5를 참조하면, 스크린이 "비콘" 모드(500)에 있다. 스크린(510)상의 오브젝트는 예를 들어 확대될 것이거나 또는 "줌 인(zoom in)"될 것이다. 오브젝트 둘레에 폐쇄된 도형(540)을 그림으로써, "줌될" 공간이 애플리케이션에 전달된다. 이것은, 손가락 터치에 의해 삼각형을 그리는 제1 유저 상호작용에 의해 행해진다. 터치 터치 스크린상의 포인트(590)를 터치함으로써 줌의 양이 전달된다. 이것은 스크린을 터치하는 후속의 유저 상호작용에 의해 행해진다. 포인트는 "줌 인"의 양을 특정한다. 본 발명의 실시 형태들에 따르면, 오브젝트는 530으로 "줌 인"되고, 제2 포인트(590)에 의해 결정된 영역에 확대된다.
도 6을 참조하면, 스크린은 이미 "비콘" 모드로 설정되어 있다. 압력 터치 메커니즘을 이용하여, 유저 터치에 의해 기준 포인트가 설정된다(610). 이 다음에 유저가 손가락을 기준 포인트(620)의 둘레로 움직이는 후속의 터치가 이어진다. 손가락의 움직임은 630으로서 추적된다. 본 발명의 이 실시 형태에 있어서, 유저는, 대부분의 유저들에게 선호되는 터치 기술인 추적(tracing)을 위해 검지 손가락을 이용하는 옵션을 갖는다는 것을 유의한다. 다음에 변환되는 화면에 있어서, 기준 포인트는 670으로서 도시된다. 630을 통해 그려진 실질적인 원은 제스처 소프트웨어 의해 인식되어, 중심을 기준 포인트로 하는 완전한 원(640)으로 대체된다. 동시적인 투 터치 인터페이스에 있어서는, 유저가 손과 손가락들을 서투르게 움직였을 것이다. 또한 물리적인 제약으로 인해, 유저의 손의 펼침 능력으로 제한되는 원의 반지름에 의해 2번의 시도가 필요했을 것이다. 그러나, 본 발명의 이 실시 형태에 있어서는, 2개의 터치가 동시적으로 발생할 필요가 없고 오히려 순차적으로 발생하게 되기 때문에, 원이 쉽게 그려질 수 있고 반지름이 제한되지 않는다.
도 7은 본 발명의 실시 형태의 다른 용도를 예시한다. 스크린은 비콘 모드(700)에 있다. 삼차원 오브젝트(710)가 애플리케이션에 의해 스크린상에 배치된다. 유저의 터치에 의해 기준 포인트(750)가 오브젝트(720)상에 배치된다. 터치 시스템이 "비콘" 모드에 있을 때, 손가락의 움직임(770)이 화살표에 의해 도시된 바와 같이 후속의 상호작용으로서 인식된다. 그 결과는 740이며, 도시된 바와 같이 도형이 움직인다. 오브젝트가 둘레를 도는 포인트는 이 메커니즘에 의해 지정되는 기준 포인트이고, 오브젝트의 회전량은 제2 유저 상호작용의 손가락 추적(770)의 양에 의해 정의된다. 중요한 것은, 도 7에 도시된 바와 같이 오브젝트를 회전시키기 위해 싱글 손가락 인터페이스가 제공된다는 것이다. 도 6의 원 그리기 예와 마찬가지로, 본 발명의 실시 형태들에 따라, 우선 기준 포인트를 결정한 다음, 두번째로, 단일 손가락을 움직임으로써, 듀얼 터치 인터페이스가 구현되기 때문에, 인터페이스는 더욱 유저 친화적이다. 그러나, 터치들은 동시적으로 발생할 필요가 없다.
도 8을 참조하면, 스크린은 "비콘" 모드(800)에 있다. 스크린(810)상의 오브젝트는 예를 들어 확대되거나 "줌 인"될 것이다. 제1 유저 상호작용에 있어서, 오브젝트를 둘러싸는 폐쇄된 도형(830), 이 경우에는 사각형을 그림으로써, "줌될" 공간이 애플리케이션에 전달된다. 그 다음, 제2 유저 상호작용을 나타내는 터치 스크린상의 포인트(890)의 터치에 의해 줌의 양이 전달된다. 그 포인트는 "줌 인"의 양을 특정한다. 오브젝트는 850으로 줌 인되고 제2 포인트(890)에 의해 결정된 영역에 확대된다.
도 9는 "줌 인" 기능이 특정될 수 있는 다른 방식을 명시한다. 스크린은 "비콘" 모드(900)에 있다. "줌될" 오브젝트는 910에 도시된다. 제1 유저 상호작용에 의해 기준 포인트가 마킹된다(935). "줌 인될" 오브젝트는 변환된 스크린 내의 920으로서 특정된다. 후속의 제2 유저 상호작용에 있어서 유저에 의해 기준 포인트로부터 밖으로 라인(940)이 그려진다. 라인의 범위는 "줌 인"의 양을 특정한다. 오브젝트가 930으로서 확대되거나 줌 인되어 스크린이 변환한다. 따라서, 기준 포인트와 후속의 싱글 터치 방법에 의해 듀얼 터치 인터페이스가 제공된다.
본 발명의 다른 실시 형태에 있어서, 도 10은 유사한 프로세스에 의한 줌 아웃(zoom out) 방법을 명시한다. 스크린은 "비콘" 모드(1000)에 있다. 줌 아웃될 오브젝트는 1010으로서 도시된다. 제1 유저 상호작용에 의해 오브젝트의 중간 부분에 기준 포인트가 배치되어 변환 스크린(1020)을 생성한다. 제2 유저 상호작용으로서 유저에 의해 직선(1030)이 안쪽으로 횡단되고, 그 라인의 길이가 줌 아웃의 정도를 나타낸다. 라인이 길수록, 줌 아웃 기능이 강해진다. 오브젝트는 1040으로 변환한다.
본 발명의 일 실시 형태에 있어서, 기준 포인트를 원하는지를 판정하는 압력의 양이 설정될 수 있는데, 왜냐하면 스크린에 인가되는 압력의 양이 개인의 선호나 스타일뿐만 아니라 체격에 따라 변화하기 때문이다.
본 발명의 다른 예시적인 실시 형태에 있어서, 삼차원 모델링과 데모(demonstrations)는 더욱 유저 친화적으로 만들어지고, 더욱 자연스러운 유저 상호작용들을 받게 된다. 인터페이스는 유저 제어를 받기가 더욱 쉬워진다. 기준 포인트를 설정하고 그 후 단일 손가락을 이동시킴으로써 오브젝트의 움직임이 쉬워진다. 이것은 2개의 손가락을 동시적으로 사용하면 더 어려워진다. 유사하게, 다른 예시적인 용도에 있어서, 삼차원 또는 이차원 오브젝트의 연속적인 회전이 본 발명의 실시 형태들에 의해 쉽게 행해질 수 있다. 오브젝트상에 기준 포인트를 설정하고, 후속의 터치로 오브젝트 주위에서 단일 손가락을 이동시킴으로써, 오브젝트의 연속적인 회전이 달성될 수 있다. 2개의 손가락의 동시적인 사용의 한계로 말미암아선, 이 기능이 용이하게 행해질 수 없다.
이상의 명세서에 있어서, 실시 형태들은 실시 형태마다 변동될 수 있는 다수의 특정 상세 사항들을 참조하여 설명되었다. 따라서, 발명이 무엇인가, 그리고 출원인이 의도한 발명이 무엇인가에 대한 유일하고 배타적인 지표는, 본 출원으로부터 등록되는 청구항들의 세트로서, 그러한 청구항들이 등록되고, 임의의 후속의 보정을 포함하는 특정 형태의 청구항들의 세트이다. 그러므로, 청구항에서 명시적으로 인용되지 않은 한정사항, 엘리먼트, 특성, 특징, 이점, 또는 속성은 어떠한 방식으로든 그러한 청구항의 범위를 제한하지 않는다. 따라서, 명세서와 도면은 제한적인 의미가 아니라 예시적인 의미로서 여겨져야 한다.

Claims (23)

  1. 컴퓨터에 의해 실행되는 터치 인터페이스 방법으로서,
    터치 스크린과의 제1 유저 상호작용에 응답하여, 제1 조작 모드로 진입하는 단계,
    상기 제1 조작 모드에서, 상기 터치 스크린과의 제2 유저 상호작용을 인식하는 단계 - 상기 제2 유저 상호 작용은 기준 포인트를 설정함 -
    상기 제2 유저 상호작용 다음에, 상기 제1 조작 모드에서, 상기 터치 스크린과의 제3 유저 상호작용을 인식하는 단계 - 상기 제3 유저 상호작용은 상기 기준 포인트로의 제1 거리만큼 손가락을 스와이프(swipe)하여 제1 속도로의 스크롤링을 설정하는 것을 포함함 - ; 및
    상기 제2 유저 상호작용 다음에, 상기 제1 조작 모드에서, 상기 터치 스크린과의 제4 유저 상호작용을 인식하는 단계 - 상기 제4 유저 상호작용은 상기 기준 포인트로의 제2 거리만큼 손가락을 스와이프(swipe)하여 제2 속도로의 스크롤링을 설정하는 것을 포함하고, 상기 제1 거리는 상기 제2 거리보다 짧으며, 상기 제1 속도는 상기 제2 속도와 다름 - 을 포함하는
    터치 인터페이스 방법.
  2. 제1항에 있어서,
    상기 제2 유저 상호작용을 인식하는 단계는, 유저가 상기 터치 스크린을 기준 포인트에서 터치하는 것에 응답하여 상기 기준 포인트를 식별하는 단계를 포함하는, 터치 인터페이스 방법.
  3. 제1항에 있어서,
    제5 사용자 상호작용은 상기 제1 조작 모드 중 상기 터치 스크린에서 3차원의 화상을 회전하도록 하는 제스처로 인식되고,
    상기 터치 인터페이스 방법은,
    상기 제2 유저 상호작용과 상기 제3 유저 상호작용 간의 관계에 기초하여 상기 터치 스크린상의 화상을 상기 기준 포인트를 중심으로 3차원으로 회전하도록 상기 화상을 변경하는 그래픽 기능을 자동적으로 수행하는 단계를 더 포함하는, 터치 인터페이스 방법.
  4. 제3항에 있어서,
    상기 그래픽 기능은 상기 기준 포인트와 상기 제스처 간의 거리에 기초하여 상기 화상을 변경하는,
    터치 인터페이스 방법.
  5. 제3항에 있어서,
    상기 그래픽 기능은 상기 기준 포인트에 대해 상대적인 상기 제3 유저 상호작용의 이동 형태에 기초하여 화상을 변경하는, 터치 인터페이스 방법.
  6. 제1항에 있어서,
    상기 터치 스크린은 집적된 플랫 패널 디스플레이를 포함하는 싱글 터치 감지형 터치 스크린인, 터치 인터페이스 방법.
  7. 제3항에 있어서,
    상기 그래픽 기능은 회전(revolve) 기능을 포함하는, 터치 인터페이스 방법.
  8. 프로세서, 터치 스크린, 버스, 및 메모리를 포함하는 시스템으로서,
    상기 메모리는, 실행시 터치 인터페이스 방법을 실시하는 명령어들을 포함하고, 상기 터치 인터페이스 방법은,
    상기 터치 스크린과의 제1 유저 상호작용에 응답하여, 제1 조작 모드로 진입하는 단계;
    상기 제1 조작 모드에서, 상기 터치 스크린과의 제2 유저 상호작용을 인식하는 단계 - 상기 제2 유저 상호 작용은 유저 정의 기준 포인트를 설정함 -;
    상기 제2 유저 상호작용 다음에, 상기 제1 조작 모드에서, 상기 터치 스크린과의 제3 유저 상호작용을 인식하는 단계 - 상기 제3 유저 상호작용은 상기 터치 스크린 상에서 화상을 회전하도록 하는 제스처를 포함함 -, 및
    상기 제2 유저 상호작용과 상기 제3 유저 상호작용 간의 관계에 기초하여, 상기 터치 스크린상의 상기 화상이 상기 유저 정의 기준 포인트를 기준으로 회전(rotate)하도록 상기 화상을 변경하는 그래픽 기능을 자동적으로 수행하는 단계를 포함하는, 시스템.
  9. 제8항에 있어서,
    상기 제2 유저 상호작용을 인식하는 단계는, 유저가 상기 터치 스크린을 기준 포인트에서 터치하는 것에 응답하여 상기 기준 포인트를 식별하는 단계를 포함하는, 시스템.
  10. 제9항에 있어서,
    상기 제3 유저 상호작용을 인식하는 단계는, 상기 유저의 상기 터치 스크린의 터치에 대응하는 상기 터치 스크린을 따른 이동을 식별하는 단계를 포함하는, 시스템.
  11. 제10항에 있어서,
    상기 그래픽 기능은 상기 기준 포인트에 대해 상대적인 상기 제3 유저 상호작용의 이동량에 기초하여 상기 화상을 변경하는, 시스템.
  12. 제10항에 있어서,
    상기 그래픽 기능은 상기 기준 포인트에 대해 상대적인 상기 제3 유저 상호작용의 이동 형태에 기초하여 상기 화상을 회전하는, 시스템.
  13. 제8항에 있어서,
    상기 터치 스크린은 집적된 플랫 패널 디스플레이를 포함하는 싱글 터치 감지형 터치 스크린인, 시스템.
  14. 제8항에 있어서,
    상기 그래픽 기능은 회전(revolve) 기능인, 시스템.
  15. 실행시 터치 인터페이스 방법을 실시하는 명령어들을 포함하는 컴퓨터 판독가능 메모리로서, 상기 터치 인터페이스 방법은,
    터치 스크린과의 제1 유저 상호작용에 응답하여, 제1 조작 모드로 진입하는 단계,
    상기 제1 조작 모드에서, 상기 터치 스크린과의 제2 유저 상호작용을 인식하는 단계 - 상기 제2 유저 상호 작용은 기준 포인트를 설정함 -;
    상기 제2 유저 상호작용 다음에, 상기 제1 조작 모드에서, 상기 터치 스크린과의 제3 유저 상호작용을 인식하는 단계 - 상기 제3 유저 상호작용은, 유저가 상기 기준 포인트 주변에 단일 손가락을 움직여서 상기 기준 포인트를 둘러싼 실질적인 원을 설정하며, 상기 실질적인 원은 완전한 원이 아님 - ;
    상기 실질적인 원을 인식하고 상기 실질적인 원을 인식하는 단계에 응답하여, 상기 실질적인 원을, 상기 터치 스크린 상에 상기 기준 포인트를 중심으로 하는 완전한 원으로 자동적으로 교체되는 단계
    를 포함하는, 컴퓨터 판독가능 메모리.
  16. 제15항에 있어서,
    상기 제2 유저 상호작용을 인식하는 단계는, 유저가 상기 터치 스크린을 상기 기준 포인트에서 터치하는 것에 응답하여 상기 기준 포인트를 식별하는 단계를 포함하는, 컴퓨터 판독가능 메모리.
  17. 제15항에 있어서,
    상기 명령어들에 의해 실시되는 상기 터치 인터페이스 방법은,
    상기 제2 유저 상호작용 다음에, 상기 제1 조작 모드에서, 상기 터치 스크린과의 제4 유저 상호작용을 인식하는 단계 - 상기 제4 유저 상호작용은, 상기 터치 스크린에서 3차원 화상을 회전하도록 하는 제스처를 포함함 -;
    상기 제2 유저 상호작용과 상기 제3 유저 상호작용 간의 관계에 기초하여 상기 터치 스크린상의 화상을 상기 기준 포인트를 중심으로 3차원으로 회전하도록 상기 화상을 변경하는 그래픽 기능을 자동적으로 수행하는 단계를 더 포함하는,
    컴퓨터 판독가능 메모리.
  18. 제17항에 있어서,
    상기 그래픽 기능은 상기 기준 포인트와 상기 제스처 간의 거리에 기초하여 상기 화상을 변경하는, 컴퓨터 판독가능 메모리.
  19. 제17항에 있어서,
    상기 그래픽 기능은 상기 기준 포인트에 대해 상대적인 상기 제3 유저 상호작용의 이동 형태에 기초하여 상기 화상을 변경하는 컴퓨터 판독가능 메모리.
  20. 제8항에 있어서,
    상기 화상은 3차원 화상인, 시스템.
  21. 제20항에 있어서,
    상기 화상은 상기 기준 포인트를 중심으로 3차원으로 회전되는, 시스템.
  22. 제3항에 있어서,
    상기 그래픽 기능은 상기 기준 포인트에 대해 상대적인 상기 제3 유저 상호작용의 이동량에 기초하여 상기 3차원 화상을 변경하는, 터치 인터페이스 방법.
  23. 제8항에 있어서,
    상기 제3 유저 상호작용의 상기 제스처는 손가락 추적(tracing)의 양에 의해 정의되며,
    상기 터치 스크린상의 상기 화상이 상기 유저 정의 기준 포인트를 기준으로 회전하도록 상기 화상을 변경하는 그래픽 기능을 자동적으로 수행하는 동작은, 상기 화상을, 상기 손가락 추적의 양에 의해 설정된 양만큼 회전시키는,
    시스템.




KR1020137003766A 2010-08-25 2011-06-22 듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스 KR101442438B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/868,618 US9256360B2 (en) 2010-08-25 2010-08-25 Single touch process to achieve dual touch user interface
US12/868,618 2010-08-25
PCT/US2011/041416 WO2012027014A1 (en) 2010-08-25 2011-06-22 Single touch process to achieve dual touch experience field

Publications (2)

Publication Number Publication Date
KR20130054990A KR20130054990A (ko) 2013-05-27
KR101442438B1 true KR101442438B1 (ko) 2014-09-17

Family

ID=45696489

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137003766A KR101442438B1 (ko) 2010-08-25 2011-06-22 듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스

Country Status (4)

Country Link
US (1) US9256360B2 (ko)
KR (1) KR101442438B1 (ko)
CN (1) CN103069367B (ko)
WO (1) WO2012027014A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6420152B2 (ja) * 2012-02-13 2018-11-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 多方向からの3dボリュームの同時超音波ビューイング
US10402085B2 (en) * 2012-12-28 2019-09-03 Sony Corporation Display of content based on handwritten input
KR102057647B1 (ko) * 2013-02-15 2019-12-19 삼성전자주식회사 데이터 입력 방법 및 그 방법을 처리하는 전자 장치
CN104951234B (zh) * 2015-06-26 2018-03-27 语联网(武汉)信息技术有限公司 一种基于触屏终端的数据处理方法及系统
KR102560598B1 (ko) 2016-12-21 2023-07-28 삼성전자주식회사 디스플레이 장치 및 그 제어방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070096547A (ko) * 2006-03-27 2007-10-02 주식회사 이노칩테크놀로지 터치 포인터 장치 및 이를 갖는 휴대용 단말기 및 이의제어 방법
US20100207901A1 (en) * 2009-02-16 2010-08-19 Pantech Co., Ltd. Mobile terminal with touch function and method for touch recognition using the same

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0969037A (ja) 1995-08-31 1997-03-11 Sharp Corp データ処理装置
JPH11154074A (ja) 1997-11-25 1999-06-08 Sharp Corp スクロール制御装置
JP4136444B2 (ja) * 2002-05-13 2008-08-20 株式会社リコー タッチパネル付きディスプレイ装置
JP4144555B2 (ja) * 2003-06-09 2008-09-03 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
EP1658551A1 (en) 2003-08-29 2006-05-24 Nokia Corporation Method and device for recognizing a dual point user input on a touch based user input device
JPWO2009016736A1 (ja) * 2007-07-31 2010-10-07 クラリオン株式会社 地図表示装置
KR101430445B1 (ko) * 2007-08-20 2014-08-14 엘지전자 주식회사 화면 크기 조절 기능을 갖는 단말기 및 이러한 기능을구현하는 프로그램을 기록한 매체
US8707215B2 (en) * 2007-12-31 2014-04-22 Motorola Mobility Llc Hand-held device and method for operating a single pointer touch sensitive user interface
US8446373B2 (en) * 2008-02-08 2013-05-21 Synaptics Incorporated Method and apparatus for extended adjustment based on relative positioning of multiple objects contemporaneously in a sensing region
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US20090300554A1 (en) * 2008-06-03 2009-12-03 Nokia Corporation Gesture Recognition for Display Zoom Feature
US20090303188A1 (en) 2008-06-05 2009-12-10 Honeywell International Inc. System and method for adjusting a value using a touchscreen slider
US8477139B2 (en) * 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
US20090322699A1 (en) 2008-06-25 2009-12-31 Sony Ericsson Mobile Communications Ab Multiple input detection for resistive touch panel
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
KR101544364B1 (ko) 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US8493384B1 (en) * 2009-04-01 2013-07-23 Perceptive Pixel Inc. 3D manipulation using applied pressure
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
JP5363259B2 (ja) 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
US20110193795A1 (en) * 2010-02-09 2011-08-11 Yahoo! Inc. Haptic search feature for touch screens
US20110298830A1 (en) * 2010-06-07 2011-12-08 Palm, Inc. Single Point Input Variable Zoom

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070096547A (ko) * 2006-03-27 2007-10-02 주식회사 이노칩테크놀로지 터치 포인터 장치 및 이를 갖는 휴대용 단말기 및 이의제어 방법
US20100207901A1 (en) * 2009-02-16 2010-08-19 Pantech Co., Ltd. Mobile terminal with touch function and method for touch recognition using the same

Also Published As

Publication number Publication date
CN103069367A (zh) 2013-04-24
CN103069367B (zh) 2016-08-10
US20120050171A1 (en) 2012-03-01
KR20130054990A (ko) 2013-05-27
WO2012027014A1 (en) 2012-03-01
US9256360B2 (en) 2016-02-09

Similar Documents

Publication Publication Date Title
US9996176B2 (en) Multi-touch uses, gestures, and implementation
CN106575203B (zh) 与再现的内容的基于悬停的交互
US10031604B2 (en) Control method of virtual touchpad and terminal performing the same
CN109643210B (zh) 使用悬停的设备操纵
US7877707B2 (en) Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
TWI467438B (zh) 手勢識別方法及觸控系統
US20120105367A1 (en) Methods of using tactile force sensing for intuitive user interface
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
US20080134078A1 (en) Scrolling method and apparatus
US20090178011A1 (en) Gesture movies
US8542207B1 (en) Pencil eraser gesture and gesture recognition method for touch-enabled user interfaces
EP2776905B1 (en) Interaction models for indirect interaction devices
US20150169122A1 (en) Method for operating a multi-touch-capable display and device having a multi-touch-capable display
KR101442438B1 (ko) 듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스
Wilson et al. Towards utilising one-handed multi-digit pressure input
US20160054879A1 (en) Portable electronic devices and methods for operating user interfaces
Uddin Improving Multi-Touch Interactions Using Hands as Landmarks
US10915240B2 (en) Method of selection and manipulation of graphical objects
KR20140083301A (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170831

Year of fee payment: 4