KR20140027081A - 단계화된 액세스 포인트 - Google Patents

단계화된 액세스 포인트 Download PDF

Info

Publication number
KR20140027081A
KR20140027081A KR1020137017427A KR20137017427A KR20140027081A KR 20140027081 A KR20140027081 A KR 20140027081A KR 1020137017427 A KR1020137017427 A KR 1020137017427A KR 20137017427 A KR20137017427 A KR 20137017427A KR 20140027081 A KR20140027081 A KR 20140027081A
Authority
KR
South Korea
Prior art keywords
confirmation
input
display
receiving
action
Prior art date
Application number
KR1020137017427A
Other languages
English (en)
Inventor
조나단 가른
예-쉬안 리
에이프럴 에이 레이건
하리쉬 스리패드 컬카니
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20140027081A publication Critical patent/KR20140027081A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Rehabilitation Tools (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

상호대화형 디스플레이 시스템에서 동작을 개시하려는 사용자의 의도를 판단하는 것과 관련된 다양한 실시예가 본원에 기재된다. 예를 들어, 한 가지 개시된 실시예는 상호대화형 디스플레이 장치에서 동작을 개시하는 방법을 제공하고, 상기 상호대화형 디스플레이 장치는 터치-감응식 디스플레이를 포함한다. 이 예시에서, 상기 방법은 디스플레이의 런치 영역에 개시 컨트롤을 디스플레이하는 단계, 개시 컨트롤을 통해 개시 입력을 수신하는 단계, 상기 개시 입력의 수신에 응답하여 디스플레이의 확인 영역에 확인 타깃을 디스플레이하는 단계, 상기 확인 타깃을 통해 확인 입력을 수신하는 단계, 및 확인 입력에 응답하여 동작을 수행하는 단계를 포함한다.

Description

단계화된 액세스 포인트{STAGED ACCESS POINTS}
상호대화형 디스플레이 시스템, 가령, 서피스 컴퓨팅 장치(surface computing device)는 디스플레이 스크린 및 상기 디스플레이 스크린 상의 터치를 검출하도록 구성된 터치 감지 메커니즘을 포함한다. 다양한 유형의 터치 감지 메커니즘이 사용될 수 있으며, 그 예로 광학, 용량성, 및 저항성 메커니즘을 포함하나 이에 한정되는 것은 아니다. 상호대화형 디스플레이 시스템은 터치 감지 메커니즘을 주 사용자 입력 장치(primary user input device)로 사용함으로써, 사용자가 키보드, 마우스, 또는 그 밖의 다른 이러한 전통적인 입력 장치 없이 장치와 상호대화(interacting)하게 한다.
개요
상호대화형 디스플레이 시스템에서 동작을 개시하려는 사용자의 의도를 판단하는 것과 관련된 다양한 실시예가 본원에 기재된다. 예를 들어, 한 가지 개시된 실시예는 상호대화형 디스플레이 장치에서 동작을 개시하는 방법을 제공하며, 상기 상호대화형 디스플레이 장치는 터치-감응식 디스플레이를 포함한다. 상기 방법은 디스플레이의 런치 영역(launch region)에서 개시 컨트롤을 디스플레이하는 단계, 상기 개시 컨트롤을 통해 개시 입력을 수신하는 단계, 상기 개시 입력의 수신에 응답하여 디스플레이의 확인 영역에 확인 타깃을 디스플레이하는 단계, 확인 타깃을 통해 확인 입력을 수신하는 단계, 및 확인 입력에 응답하여 동작을 수행하는 단계를 포함한다.
이 개요는 이하의 구체적인 내용에서 추가로 기재될 개념들의 집합을 단순화된 형태로 소개하기 위해 제공된다. 이 개요는 청구되는 발명의 핵심 특징 또는 필수 특징을 식별하기 위해서가 아니라, 청구되는 발명의 범위를 한정하기 위해 사용된다. 덧붙여, 청구되는 발명은 본원의 임의의 부분에 명시된 임의의 또는 모든 단점을 해소하는 구현예에 한정되는 것은 아니다.
도 1은 상호대화형 디스플레이 장치의 하나의 실시예를 개략적으로 도시한다.
도 2는 상호대화형 디스플레이 장치에서 동작을 개시하는 방법의 하나의 실시예를 나타내는 흐름도를 도시한다.
도 3은 런치 영역과 개시 컨트롤을 포함하는 사용자 인터페이스의 하나의 실시예를 도시한다.
도 4는 개시 입력을 수신한 후 확인 타깃을 디스플레이하는 도 3의 실시예를 나타낸다.
도 5는 확인 입력을 수신한 후의 도 3의 실시예를 나타낸다.
앞서 언급된 바와 같이, 상호대화형 디스플레이 장치는 터치-감응식 디스플레이를 주 입력 장치로서 이용할 수 있다. 따라서 제스처 입력(gesture input) 및 호버 입력(hover input)(즉, 디스플레이의 표면 위에서 수행되는 제스처)을 포함할 수 있는 터치 입력은 애플리케이션 및 운영 체제를 포함해, 모든 형태의 장치와 상호대화하도록 사용될 수 있다.
일부 환경에서, 가령, 상호대화형 디스플레이 장치가 수평 디스플레이를 갖는 탁자형 구성을 갖는 경우, 비의도적 터치(inadvertent touch)가 발생할 수 있다. 이러한 터치 입력의 영향의 심각성은 상호대화형 디스플레이 장치가 상기 비의도적 입력을 해석하는 방식에 따라 달라질 수 있다. 예를 들어, "페인트(paint)" 프로그램에서의 비의도적 터치는 비의도적 선의 그림 또는 그 밖의 다른 이러한 사소한, 다른 사용자에게 방해적(disruptive)이지 않은 가역적 동작을 초래할 수 있지만, 애플리케이션 또는 운영 체제를 종료하거나 재시작하게 하는 비의도적 터치는 사용자 경험을 매우 방해(disruptive)할 수 있다.
따라서 본원에서, 방해적 동작(disruptive action)의 실행을 초래하는 비의도적 터치를 피하는 데 도움이 되기 위해 상호대화형 디스플레이 장치에서의 동작의 단계화된 개시(staged initiation)와 관련된 다양한 실시예가 개시된다. 이들 실시예를 설명하기 전에, 일례적 상호대화형 디스플레이 장치(100)가 도 1을 참조하여 설명된다. 상호대화형 디스플레이 장치(100)는 이미지를 디스플레이하고 터치 입력을 수신하도록 구성된 디스플레이(102)를 포함한다. 디스플레이(102)의 비-제한적 예로는 발광 디스플레이 패널(emissive display panel), 가령, 플라스마 디스플레이 및 OLED(유기 발광 소자) 디스플레이, 변조 디스플레이 패널(modulating display panel), 가령, 액정 디스플레이(LCD), 투사식 마이크로디스플레이(projection microdisplay), 가령, 디지털 마이크로미러 장치(DMD) 또는 LCD 마이크로디스플레이 및 캐소드 레이 튜브(CRT) 디스플레이를 포함한다. 도 1에 도시되지 않은 그 밖의 다른 다양한 하드웨어 요소, 가령, 프로젝터, 렌즈, 도파관, 등이 디스플레이(102) 상에 디스플레이되기 위한 이미지를 생성하도록 사용될 수 있다. 상호대화형 디스플레이 장치(100)는 임의의 적합한 유형의 장치, 비제한적 예를 들면, 모바일 장치, 가령, 스마트 폰 또는 휴대용 미디어 플레이어, 슬레이트 컴퓨터, 태블릿 컴퓨터, 개인용 컴퓨터, 랩톱 컴퓨터, 서피스 컴퓨터(surface computer), 텔레비전 시스템 등일 수 있다.
상호대화형 디스플레이 장치(100)는 디스플레이(102) 상에서의 또는 그 근방에서의 터치 입력 및/또는 호버 입력을 검출하도록 구성된 터치 및/또는 호버(hover) 검출 시스템(104)을 더 포함한다. 앞서 언급된 것처럼, 터치 및/또는 호버 검출 시스템(104)은 터치 및/또는 호버 입력을 검출하기 위한 임의의 적합한 메커니즘을 이용할 수 있다. 예를 들어, 광학 터치 검출 시스템은 가령, 디스플레이 스크린 상에 투사되는 적외선 광을 통해 및/또는 장애 내부 전반사(FTIR: frustrated total internal reflection) 메커니즘을 통해 터치 입력을 검출하기 위한 하나 이상의 카메라를 이용할 수 있다. 마찬가지로, 광학 터치 및/또는 호버 검출 시스템(104)은 이미지 센서 픽셀이 이미지 디스플레이 픽셀과 인터레이싱되는 센서-인-픽셀 디스플레이 패널을 이용할 수 있다. 터치 및/또는 호버 검출 시스템(104)의 그 밖의 다른 비제한적 예로는 용량성 및 저항성 터치 검출 시스템이 있다.
상호대화형 디스플레이 장치(100)는 로직 서브시스템(logic subsystem)(106) 및 데이터 유지 서브시스템(data-holding subsystem)(108)을 포함한다. 로직 서브시스템(106)은 본원에 기재된 다양한 실시예를 구현하기 위해 데이터 유지 서브시스템(108)에 저장된 명령을 실행하도록 구성된다. 로직 서브시스템(106)은 하나 이상의 명령을 실행하도록 구성된 하나 이상의 물리 장치를 포함할 수 있다. 예를 들어, 로직 서브시스템(106)은 하나 이상의 애플리케이션, 서비스, 프로그램, 루틴, 라이브러리, 객체, 컴포넌트, 데이터 구조, 또는 그 밖의 다른 논리 구조의 일부인 하나 이상의 명령을 실행하도록 구성될 수 있다. 이러한 명령은 작업을 수행하거나, 데이터 유형을 구현하거나, 하나 이상의 장치의 상태를 변환시키거나, 그 밖의 다른 방식으로 원하는 결과에 도달하도록 구현될 수 있다.
로직 서브시스템(106)은 소프트웨어 명령을 실행하도록 구성된 하나 이상의 프로세서를 포함할 수 있다. 추가적으로 또는 대안적으로, 로직 서브시스템(106)은 하드웨어 또는 펌웨어 명령을 실행하도록 구성된 하나 이상의 하드웨어 또는 펌웨어 로직 머신을 포함할 수 있다. 로직 서브시스템(106)의 프로세서는 단일 코어 또는 멀티코어일 수 있고, 여기서 실행되는 프로그램은 병렬, 분산, 또는 그 밖의 다른 적합한 프로세싱에 대해 구성될 수 있다. 선택사항으로서 로직 서브시스템(106)은 원격으로 위치하거나 및/또는 조화 프로세싱(coordinated processing)에 대하 구성될 수 있는 둘 이상의 장치에 걸쳐 분산되어 있는 개별 구성요소들을 포함할 수 있다. 로직 서브시스템(106)의 하나 이상의 양태가 가상화될 수 있고, 클라우드 컴퓨팅 구성으로 구성된 원격 액세스 가능한 네트워크 연결된 컴퓨팅 장치들에 의해 실행될 수 있다.
데이터 유지 서브시스템(108)은 본원에 기재된 방법 및 프로세스를 구현하도록 로직 서브시스템(106)에 의해 실행 가능한 데이터 및/또는 명령을 유지하도록 구성된 하나 이상의 물리적이고 비-일시적(non-transitory)인 장치를 포함할 수 있다. 이러한 방법 및 프로세스가 구현될 때, 데이터 유지 서브시스템(108)의 상태(state)가 (가령, 서로 다른 데이터를 유지하기 위해) 변환될 수 있다.
데이터 유지 서브시스템(108)은 이동식 컴퓨터 매체 및/또는 빌트-인 컴퓨터 판독형 저장 매체 및/또는 그 밖의 다른 장치를 포함할 수 있다. 데이터 유지 서브시스템(108)은 광학 메모리 장치(가령, CD, DVD, HD-DVD, 블루-레이 디스크, 등), 반도체 메모리 장치(가령, RAM, EPROM, EEPROM, 등) 및/또는 자기 메모리 장치(가령, 하드 디스크 드라이브, 플로피 디스크 드라이브, 테이프 드라이브, MRAM, 등), 기타 등등을 포함할 수 있다. 데이터 유지 서브시스템(108)은 다음의 특성들 중 하나 이상을 갖는 장치를 포함할 수 있다: 휘발성, 비휘발성, 동적, 정적, 읽기/쓰기, 리드-온리, 랜덤 액세스, 순차 액세스, 위치 주소 지정(location addressable), 파일 주소 지정(file addressable), 및 콘텐츠 주소 지정(content addressable) 특성. 일부 실시예에서, 로직 서브시스템(106) 및 데이터 유지 서브시스템(108)은 하나 이상의 공통 장치, 가령, 주문형 반도체(application specific integrated circuit) 또는 시스템 온 칩(system on chip)으로 일체 구성될 수 있다.
도 1은 또한, 본원에 기재된 방법 및 프로세스를 구현하기 위해 실행될 수 있는 데이터 및/또는 명령을 저장 및/또는 전송하기 위해 사용될 수 있는 이동식 컴퓨터 판독형 저장 매체(109)의 형태로 된 데이터 유지 서브시스템(108)의 하나의 양태를 도시한다. 이동식 컴퓨터-판독형 저장 매체(109)는 CD, DVD, HD-DVD, 블루-레이 디스크, EEPROM, 및/또는 플로피 디스크 및/또는 그 밖의 다른 자기 매체, 기타 등등의 형태를 취할 수 있다.
상기에서 언급된 바와 같이, 비의도적 터치 입력이 상호대화형 디스플레이 장치에 의해, 동작을 수행하기 위한 명령(command)으로서 해석될 수 있다. 예를 들어, 일부 실시예에서, 상호대화형 디스플레이 장치(102)는 탁자 또는 책상의 형태를 취할 수 있다. 따라서 예를 들어, 사용자가 손이나 팔꿈치를 디스플레이 상에 기대는 경우, 비의도적 터치가 쉽게 발생할 수 있다. 이러한 비의도적 입력이 방해적 동작, 가령, 재-시작 또는 종료 동작을 위해 사용되는 사용자 인터페이스 제어를 통해 발생하는 경우, 상기 비의도적 터치는 사용자 경험에 대해 방해적일 수 있다.
더 구체적인 예를 들면, 도 1의 실시예에서, 상호대화형 디스플레이 장치(100)는 디스플레이(102)의 모서리에 배열된 복수의 액티브 영역(active region)(110)을 갖는 사용자 인터페이스를 포함한다. 액티브 영역(110)은 터치 입력이 특정 애플리케이션 및/또는 운영 체제 제어 동작의 실행을 트리거하도록 구성되어 있는 디스플레이(102)의 영역을 나타낸다. 예를 들어, 액티브 영역(100) 내에서의 터치 입력에 의해 애플리케이션이 재-시작되거나 종료될 수 있다. 도 1의 실시예에서 액티브 영역(110)이 디스플레이(102)의 모서리에서 도시되지만, 이러한 액티브 영역(110)은 그 밖의 다른 임의의 적합한 위치를 가질 수 있음을 알 것이다.
(예를 들어) 재시작 명령어의 비의도적 실행이 사용자 경험을 방해할 것이기 때문에, 상호대화형 디스플레이 장치(102)는 이러한 동작을 수행하려는 사용자의 의도를 확인하기 위해 단계화된 활성화 시퀀스를 이용한다. 이러한 방식으로 비의도적 터치를 한 사용자가 동작을 트리거하는 것을 피할 수 있다. 본원에 기재된 실시예가 2-단계 활성화 시퀀스를 이용하지만, 그 밖의 다른 실시예는 셋 이상의 스테이지를 이용할 수 있음을 이해할 것이다.
도 2는 상호대화형 디스플레이 장치에서 동작을 개시하는 방법(200)의 실시예를 도시하는 흐름도를 도시하며, 이 방법에서, 디스플레이의 런치 영역(launch region)에서 수신된 개시 입력 및 디스플레이의 확인 영역(confirmation region)에서 수신된 확인 입력이 사용자 의도를 확인하기 위해 사용된다. 이하에서 방법(200)이 도 1에 나타난 실시예를 참조하여 설명되지만, 상기 방법(200)은 임의의 적합한 하드웨어 및 소프트웨어를 이용해 수행될 수 있다.
방법(200)은, 개시 컨트롤(initiation control), 가령, 아이콘을 디스플레이의 런치 영역에 디스플레이하는 단계(202)와, 상기 런치 영역에서 개시 입력을 수신하는 단계(204)를 포함하며, 여기서 상기 개시 입력은 개시 컨트롤과의 터치 상호대화를 포함한다. 개시 컨트롤은 런치 영역에 영속적으로(persistently) 디스플레이되거나, 런치 영역에서 터치가 검출될 때 디스플레이될 수 있음을 알 것이다. 상기 런치 영역은 단계화된 시퀀스의 제 1 단계 동안의 개시 입력을 검출하도록 구성된 디스플레이의 일부분, 가령, 도 1의 액티브 영역(110)을 포함한다.
개시 컨트롤을 통해 만들어진 개시 입력은 의도적이거나 비의도적일 수 있다. 따라서 확인 입력(confirmation input)이 수신될 때까지 상호대화형 디스플레이 장치는 동작을 수행하지 않는다. 따라서 방법(200)은, 그 다음에, 확인 타깃(confirmation target), 가령, 타깃 아이콘 및/또는 타깃 텍스트를 확인 영역에 디스플레이하는 단계(206)를 포함한다. 상기 확인 타깃의 디스플레이는 사용자에게 개시 터치가 인식되었음을 시그널링할 수 있고, 타깃 텍스트는 확인 입력이 수신된 경우 수행될 동작을 나타낼 수 있다. "확인 타깃"이라는 용어는 본원에서 사용될 때, 이전에 개시된 동작을 수행하려는 의도를 확인하기 위해 사용자와 상호대화하는 임의의 사용자 인터페이스 요소를 의미한다.
도 3은 아이콘의 형태로 된 개시 컨트롤(306)이 디스플레이되는 런치 영역(302)을 포함하는 사용자 인터페이스(300)의 실시예를 도시한다. 앞서 설명한 바와 같이, 아이콘, 또는 또 다른 적합한 개시 컨트롤은 상기 런치 영역에 영속적으로 디스플레이되거나 런치 영역에서 터치가 검출될 때 디스플레이될 수 있다. 도 3에 도시된 바에 따르면, 손가락(304)이 컨트롤(306) 위에 위치한다. 상기 손가락(304)은 단지 예시를 위해 도시된 것에 불과하며, 개시 컨트롤은 임의의 적합한 방식으로 활성화될 수 있기 때문에, 이에 한정되지 않는다. 따라서 터치 입력(가령, 앞서 기재된 터치, 제스처, 및 호버 입력)의 맥락으로 설명되더라도, 본원에 기재된 실시예는 그 밖의 다른 적합한 사용자 입력 장치, 가령, 3-D 카메라, 커서 제어 장치, 가령, 트랙볼, 위치지시 스틱(pointing stick), 스타일러스, 마우스, 등으로부터 수신된 입력을 이용해 사용될 수 있다.
또한 도 3은 사용자가 의도를 확인하기 위해 상호대화할 타깃 텍스트(308) 및 타깃 아이콘(310)을 포함하는 확인 타깃(307)을 고스트화된 형태(ghosted form)로 도시한다. 이들 요소는, 활성화되지 않을 때 보이지 않거나 감소된 시각적 표시를 가질 수 있고, 런치 영역(302) 내에서 개시 입력이 검출되면 완전한 강도로 디스플레이될 수 있는 고스트화된 형태로 도시된다. 추가로, 일부 실시예에서, 확인 타깃(307)의 디스플레이는 사용자의 주의를 끌도록 구성된 적합한 애니메이션 및/또는 소리 효과를 포함할 수 있다. 따라서 상호대화형 디스플레이 장치에서 동작을 개시하는 것에 친숙하지 않을 수 있는 사용자는 애니메이션 및/또는 소리 효과가 동작을 개시하는 방식에 대한 유용한 단서를 제공함을 찾을 수 있다. 추가로 이러한 애니메이션 및/또는 소리 효과는 사용자에게 개시 컨트롤(306)과의 비의도적 상호대화를 경보할 수 있다. 방법(200)이 모바일 장치에서 수행되는 실시예에서, 적합한 햅틱(haptic) 감지가 확인 타깃(307)의 디스플레이와 동반될 수 있다.
도시된 실시예에서, 타깃 텍스트(308)는 확인된 경우 수행될 동작을 나타낸다. 도 3에 도시된 실시예에서 도시된 것처럼, 타깃 아이콘(310)은 런치 영역 내 아이콘에 대해 상보적 형태를 갖고, 의도를 확인하기 위해, 사용자로 하여금 아이콘을 런치 영역에서 타깃 아이콘의 내부로 드래그하게 하도록 구성된다. 런치 영역 아이콘 및 타깃 아이콘의 상보적 형태가 사용자에게 수행될 제스처의 속성을 나타내는 데 도움이 될 수 있음을 알 것이다. 도 3의 실시예에서의 아이콘의 특정 외관 및 위치는 예시로서 제공된 것이며, 개시 및 확인 사용자 인터페이스 요소는 그 밖의 다른 임의의 적합한 외관 및 위치를 가질 수 있음도 알 것이다.
도 2로 돌아와서, 방법(200)은, 그 다음에, 확인 입력을 수신하는 단계(208)를 포함한다. 일부 실시예에서, 확인 입력은 런치 영역 내 아이콘을 확인 타깃을 향해 이동시키는 제스처를 포함할 수 있다. 예를 들어, 일부 실시예에서, 확인 입력은 아이콘을 런치 영역에서 상보적 아이콘의 내부로 드래그하는 제스처를 포함할 수 있다. 추가로, 또는 대안으로서, 일부 실시예에서, 확인 입력은 확인 타깃 주변에, 가령 타깃 텍스트 위에 형성된 확인 영역 내에서 수신된 탭(tap) 입력을 포함할 수 있다. 확인 입력이 개시 입력의 인식 후 지정 확인 시간격 내에 수신된 경우, 상기 장치는 연관된 동작을 수행할 것이다. 그렇지 않은 경우, 관련 동작을 수행하지 않고, 단계화된 활성화 시퀀스가 만료되고 종료될 것이다.
확인 시간격은 임의의 적합한 지속시간을 가질 수 있다. 적합한 지속시간의 비제한적 예로는, 새로운 사용자가 아직 바람직하지 않게 긴 시간 주기 동안 디스플레이 공간을 차지하지 않는 확인 입력의 속성을 이해할 수 있게 하기에 적합한 지속시간이 있다. 도 4가 단일 확인 타깃을 도시하지만, 일부 실시예는 복수의 확인 타깃을 포함할 수 있음을 알 것이며, 이들 각각은 서로 다른 동작에 대응할 수 있다.
도 2를 다시 참조하면, 일부 실시예에서, 확인 입력을 수행할 방식을 사용자에게 가르치기 위해, 확인 입력을 수신하기 전에 또는 수신하는 동안에 사용자 훈련 인터페이스 요소가 디스플레이될 수 있다. 예를 들어, 도 4는 확인 입력을 수행하기 위해 사용자에게 "아이콘을 초승달로 드래그하라(Drag Icon into Crescent)"라고 가르치는 텍스트를 포함하는 텍스트 북(408)을 도시한다. 이에 추가로, 또는 이를 대신하여, 훈련 요소는 예를 들어, 확인 제스처를 수행하기 위해 따를 경로를 도시하는 그래픽 요소를 포함할 수 있다. 예를 들어, 도 4는 확인 입력의 사용자의 수행을 안내하도록 구성된 방향성 화살표(409)의 디스플레이를 포함하는 또 다른 예시적 훈련 요소를 도시한다. 텍스트 북(408) 및 방향성 화살표(409)는 훈련 요소의 비-제한적 예시이며, 그 밖의 다른 적합한 훈련 요소 및/또는 훈련 요소들의 조합이 디스플레이되거나, 어떠한 훈련 요소도 전혀 디스플레이되지 않을 수 있음을 알 것이다. 일부 실시예에서, 하나 이상의 훈련 요소의 디스플레이는 사용자에게 제공되는 시각적 큐(visual cue)를 보강하기 위해 구성된 적합한 애니메이션 및/또는 고스트화 효과를 포함할 수 있다.
이러한 훈련 요소는 다양한 제스처 입력 특성, 비-제한적 예를 들면, 제스처 속도 및/또는 방향 특성을 기초로 디스플레이될 수 있다. 예를 들어, 아이콘이 조작되어야 하는 방식에 대해 확신이 없을 수 있는 덜 숙련된 사용자는 더 숙련되고 더 확신에 찬 사용자에 비해 비교적 느린 제스처 입력을 가질 수 있기 때문에, 지정 임계 속도보다 느리거나 올바르지 않은 경로를 가진다고 판단된 제스처에 대해, 훈련 요소가 디스플레이될 수 있다.
일부 실시예에서, 확인 타깃(307) 및/또는 개시 컨트롤(306)의 디스플레이는 하나 이상의 훈련 요소에 의해 제시되는 기능을 제공한다. 예를 들어, 사용자가 확인 제스처를 수행함에 따라, 확인 타깃(307) 및/또는 개시 컨트롤(306)의 외관은 변화될 수 있고, 이러한 변화는 상기 제스처의 성공적인 수행을 향한 사용자의 진보를 나타내도록 구성된다. 적합한 햅틱 큐, 청각적 큐 및/또는 시각적 애니메이션 큐가 훈련 요소의 디스플레이와 함께 동반될 수 있음을 알 것이다.
상기에서 언급된 것처럼, 드래그 제스처외의 다른 터치 입력이 확인 입력으로서 사용될 수 있다. 예를 들어, 상기에서 언급된 것처럼, 확인 입력을 수신하는 것은 확인 영역 내 탭 입력을 수신하는 것을 포함할 수 있다. 더 구체적 예를 들면, 숙련된 사용자는 먼저 탭 컨트롤(306)을 선택하고 그 후, 확인 입력 드래그를 수행하는 대신, 타깃 텍스트(308) 또는 타깃 아이콘(310)을 탭핑하여, 사용자가 장치가 수행하도록 의도한 동작을 확인한다. 이 조합은 탭-앤드-드래그(tap-and-drag) 시퀀스에 비해 사용자에게 비교적 더 빠를 수 있고, 더 숙련된 사용자에게 관심을 끌 수 있다. 이에 응답하여, 일부 실시예에서, 디스플레이는 확인 입력이 성공적으로 수행됐다는 시각적 큐를 제공하기 위해, 타깃 아이콘(310)으로의 개시 컨트롤(306)의 움직임을 보여줄 수 있다. 일부 실시예에서, 그 밖의 다른 적합한 햅틱 큐, 청각적 큐 및/또는 시각적 애니메이션 큐가 확인 입력의 성공적인 수행을 나타내도록 제공될 수 있으며, 반면에, 또 다른 일부 실시예에서, 개시된 동작의 수행을 동반하는 큐(예를 들어, 장치의 셧다운(shutdown)을 동반하는 셧다운 애니메이션 시퀀스)가 아닌 그 밖의 다른 어떠한 큐도 제공될 수 없다.
상호대화형 디스플레이 장치가 확인 입력을 수신하면, 방법(200)은, 동작을 수행하는 단계(210)를 포함한다. 예를 들어, 도 5는 손가락(304)에 의해 개시 컨트롤(306)이 타깃 아이콘(310)의 내부로 드래그된 후의 사용자 인터페이스를 개략적으로 도시한다. 이 확인 입력에 응답하여, 상호대화형 디스플레이 장치는 타깃 텍스트(308)로 나타내어지는 "Start Over" 동작을 수행할 것이다.
본원에 기재된 구성 및/또는 방식은 예에 불과하며, 다양한 변형예가 가능하기 때문에, 이들 특정 실시예 또는 예시로 한정되지 않음을 이해할 것이다. 본원에 기재된 특정 루틴 또는 방법은 임의의 복수의 프로세싱 전력 중 하나 이상을 나타낼 수 있다. 따라서 도시된 다양한 동작은 도시된 시퀀스, 그 밖의 다른 시퀀스, 병렬로 수행되거나, 일부 경우, 생략될 수 있다. 마찬가지로, 상기에 기재된 프로세스의 순서는 변경될 수 있다.
본원의 발명은 프로세스, 시스템, 및 구성, 및 그 밖의 다른 특징, 기능, 동작 및/또는 본원에 개시된 특성과 이들의 일부 그리고 모든 균등예의 모든 신규하고 비자명한 조합 및 부분조합을 포함한다.

Claims (10)

  1. 디스플레이를 포함하는 상호대화형 디스플레이 장치에서 동작을 개시하는 방법으로서,
    상기 디스플레이의 런치 영역(launch region)에 개시 컨트롤(initiation control)을 디스플레이하는 단계;
    상기 개시 컨트롤을 통해 개시 입력을 수신하는 단계;
    상기 개시 입력의 수신에 응답하여, 상기 디스플레이의 확인 영역에 확인 타깃(confirmation target)을 디스플레이하는 단계;
    상기 확인 타깃을 통해 확인 입력을 수신하는 단계; 및
    상기 확인 입력에 응답하여 동작을 수행하는 단계를 포함하는,
    동작을 개시하는 방법.
  2. 제 1 항에 있어서,
    상기 확인 입력을 수신하는 단계는 사용자 인터페이스 아이콘을 상기 확인 타깃을 향해 드래그하는 제스처 입력을 수신하는 단계를 포함하는,
    동작을 개시하는 방법.

  3. 제 2 항에 있어서,
    상기 제스처 입력은 상기 사용자 인터페이스 아이콘을 상기 확인 타깃의 상보적 사용자 인터페이스 아이콘의 내부로 드래그하는 것을 포함하는,
    동작을 개시하는 방법.
  4. 제 1 항에 있어서,
    상기 확인 입력이 지정 확인 시간격(time interaval) 내에 수신된 경우에만 동작을 수행하는 단계를 더 포함하는,
    동작을 개시하는 방법.
  5. 제 1 항에 있어서,
    상기 확인 입력을 수신하는 단계는 상기 확인 타깃을 통해 탭(tap) 입력을 수신하는 단계를 포함하는,
    동작을 개시하는 방법.
  6. 제 1 항에 있어서,
    상기 개시 입력의 수신에 응답하여, 훈련 요소(training element)를 디스플레이하는 단계를 더 포함하는,
    동작을 개시하는 방법.
  7. 제 6 항에 있어서,
    상기 훈련 요소는 제스처 속도 및 제스처 방향 특성 중 하나 이상에 응답하여 디스플레이되는,
    동작을 개시하는 방법.
  8. 상호대화형 디스플레이 장치로서,
    디스플레이;
    상기 디스플레이 위에서의 터치 및/또는 준-터치(near-touch)를 검출하도록 구성된 터치 및/또는 호버 검출 서브시스템;
    데이터 유지 서브시스템(data-holding subsystem); 및
    상기 데이터 유지 서브시스템에 저장된 명령어를 실행하도록 구성된 로직 서브시스템을 포함하며,
    상기 명령어는
    상기 디스플레이의 런치 영역에 개시 컨트롤을 디스플레이하고,
    상기 개시 컨트롤을 통해 개시 입력을 수신하며,
    상기 디스플레이의 확인 영역 내 확인 입력을 수신하고,
    상기 확인 입력에 응답하여 동작을 수행하도록 구성되는
    상호대화형 디스플레이 장치.
  9. 제 8 항에 있어서,
    상기 개시 입력의 수신에 응답하여, 확인 타깃을 디스플레이하도록 실행 가능한 명령어를 더 포함하는
    상호대화형 디스플레이 장치.
  10. 제 8 항에 있어서,
    제스처 속도 및 제스처 방향 특성 중 하나 이상에 응답하여 훈련 요소를 디스플레이하도록 실행 가능한 명령어를 더 포함하는
    상호대화형 디스플레이 장치.
KR1020137017427A 2011-01-04 2012-01-03 단계화된 액세스 포인트 KR20140027081A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161429715P 2011-01-04 2011-01-04
US61/429,715 2011-01-04
US13/083,227 US20120169624A1 (en) 2011-01-04 2011-04-08 Staged access points
US13/083,227 2011-04-08
PCT/US2012/020069 WO2012094310A2 (en) 2011-01-04 2012-01-03 Staged access points

Publications (1)

Publication Number Publication Date
KR20140027081A true KR20140027081A (ko) 2014-03-06

Family

ID=46380333

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137017427A KR20140027081A (ko) 2011-01-04 2012-01-03 단계화된 액세스 포인트

Country Status (15)

Country Link
US (1) US20120169624A1 (ko)
EP (1) EP2661665A4 (ko)
JP (1) JP2014506368A (ko)
KR (1) KR20140027081A (ko)
CN (1) CN102650930A (ko)
AU (1) AU2012204490A1 (ko)
BR (1) BR112013017018A2 (ko)
CA (1) CA2823626A1 (ko)
CL (1) CL2013001948A1 (ko)
CO (1) CO6721053A2 (ko)
MX (1) MX2013007808A (ko)
RU (1) RU2013130669A (ko)
SG (1) SG191132A1 (ko)
WO (1) WO2012094310A2 (ko)
ZA (1) ZA201304329B (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101359233B1 (ko) * 2008-07-01 2014-02-05 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
US9342170B2 (en) * 2012-02-17 2016-05-17 Sony Mobile Communications Inc. Device and method for delaying adjustment of display content output on a display based on input gestures
WO2014116542A1 (en) 2013-01-22 2014-07-31 Tealium Inc. Activation of dormant features in native applications
US9612740B2 (en) * 2013-05-06 2017-04-04 Barnes & Noble College Booksellers, Inc. Swipe-based delete confirmation for touch sensitive devices
US20150066587A1 (en) 2013-08-30 2015-03-05 Tealium Inc. Content site visitor processing system
US9537964B2 (en) 2015-03-11 2017-01-03 Tealium Inc. System and method for separating content site visitor profiles
US8805946B1 (en) 2013-08-30 2014-08-12 Tealium Inc. System and method for combining content site visitor profiles
US11695845B2 (en) 2013-08-30 2023-07-04 Tealium Inc. System and method for separating content site visitor profiles
US9081789B2 (en) 2013-10-28 2015-07-14 Tealium Inc. System for prefetching digital tags
US8990298B1 (en) 2013-11-05 2015-03-24 Tealium Inc. Universal visitor identification system
US9601080B1 (en) * 2013-11-13 2017-03-21 Google Inc. Systems and methods for virtually weighted user input elements for performing critical actions
WO2015157646A1 (en) 2014-04-11 2015-10-15 Ensighten, Inc. Url prefetching
US9864979B2 (en) 2014-08-29 2018-01-09 Panasonic Intellectual Property Management Co., Ltd. Transaction terminal device
US20160077793A1 (en) * 2014-09-15 2016-03-17 Microsoft Corporation Gesture shortcuts for invocation of voice input
CN104781781B (zh) 2014-11-14 2018-06-05 深圳市大疆创新科技有限公司 一种移动物体的控制方法、装置及移动设备
KR102380228B1 (ko) 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
US11347316B2 (en) 2015-01-28 2022-05-31 Medtronic, Inc. Systems and methods for mitigating gesture input error
US10613637B2 (en) 2015-01-28 2020-04-07 Medtronic, Inc. Systems and methods for mitigating gesture input error
JP6143023B2 (ja) * 2015-11-19 2017-06-07 カシオ計算機株式会社 電子機器、タッチ操作制御方法及びプログラム
US11146656B2 (en) 2019-12-20 2021-10-12 Tealium Inc. Feature activation control and data prefetching with network-connected mobile devices

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701027B2 (ja) * 2004-09-02 2011-06-15 キヤノン株式会社 情報処理装置、制御方法及びプログラム
JP2007013530A (ja) * 2005-06-30 2007-01-18 Orion Denki Kk キーロック解除機能を備えた電子機器
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
KR20070113018A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 터치스크린 장치 및 그 실행방법
KR100720335B1 (ko) * 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
KR100801650B1 (ko) * 2007-02-13 2008-02-05 삼성전자주식회사 휴대 단말기의 대기 화면에서의 기능 실행 방법
KR100883115B1 (ko) * 2007-03-28 2009-02-10 삼성전자주식회사 실행영역이 설정된 터치스크린을 구비하는 휴대 단말기 및그 기능 실행 방법
DE202008018283U1 (de) * 2007-10-04 2012-07-17 Lg Electronics Inc. Menüanzeige für ein mobiles Kommunikationsendgerät
US7958460B2 (en) * 2007-10-30 2011-06-07 International Business Machines Corporation Method for predictive drag and drop operation to improve accessibility
US8327272B2 (en) * 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
KR101486345B1 (ko) * 2008-03-21 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
KR100942821B1 (ko) * 2008-05-08 2010-02-18 주식회사 한모아 터치 위치 이동과 방향 전환에 의한 명령 또는 데이터 입력 방법 및 장치
US20100146425A1 (en) * 2008-12-08 2010-06-10 Lance John M Drag and drop target indication in a graphical user interface
US20100229129A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Creating organizational containers on a graphical user interface
TW201035829A (en) * 2009-03-31 2010-10-01 Compal Electronics Inc Electronic device and method of operating screen
US8539382B2 (en) * 2009-04-03 2013-09-17 Palm, Inc. Preventing unintentional activation and/or input in an electronic device
KR101537706B1 (ko) * 2009-04-16 2015-07-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8519960B2 (en) * 2009-09-17 2013-08-27 Aten International Co., Ltd. Method and apparatus for switching of KVM switch ports using gestures on a touch panel
KR20100006150A (ko) * 2009-11-19 2010-01-18 주식회사 한모아 터치 위치 이동과 방향 전환에 의한 명령 또는 데이터 입력 방법 및 장치
US8769443B2 (en) * 2010-02-11 2014-07-01 Apple Inc. Touch inputs interacting with user interface items
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay

Also Published As

Publication number Publication date
CN102650930A (zh) 2012-08-29
SG191132A1 (en) 2013-07-31
NZ613914A (en) 2014-05-30
US20120169624A1 (en) 2012-07-05
RU2013130669A (ru) 2015-01-10
MX2013007808A (es) 2013-08-21
CO6721053A2 (es) 2013-07-31
AU2012204490A1 (en) 2013-07-25
BR112013017018A2 (pt) 2018-11-06
CA2823626A1 (en) 2012-07-12
CL2013001948A1 (es) 2013-12-13
WO2012094310A2 (en) 2012-07-12
EP2661665A4 (en) 2017-06-28
EP2661665A2 (en) 2013-11-13
JP2014506368A (ja) 2014-03-13
ZA201304329B (en) 2014-08-27
WO2012094310A3 (en) 2012-12-27

Similar Documents

Publication Publication Date Title
KR20140027081A (ko) 단계화된 액세스 포인트
AU2017202901B2 (en) Information display apparatus having at least two touch screens and information display method thereof
US10416777B2 (en) Device manipulation using hover
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
KR101814391B1 (ko) 에지 제스처 기법
US20120169776A1 (en) Method and apparatus for controlling a zoom function
US8775958B2 (en) Assigning Z-order to user interface elements
US8775973B2 (en) Presentation of search results
US20130167062A1 (en) Touchscreen gestures for selecting a graphical object
KR20130052749A (ko) 터치 기반 사용자 인터페이스 장치 및 방법
JP2014532949A (ja) ユーザ・インターフェースの間接的対話
US11099723B2 (en) Interaction method for user interfaces
US20130009880A1 (en) Apparatus and method for inputting character on touch screen
NZ613914B (en) Staged access points
US10684688B2 (en) Actuating haptic element on a touch-sensitive device
US20240086026A1 (en) Virtual mouse for electronic touchscreen display
US11782599B1 (en) Virtual mouse for electronic touchscreen display
US20170046061A1 (en) Method and a system for controlling a touch screen user interface
KR101406082B1 (ko) 액션 게임을 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20160031276A (ko) 전자 장치, 및 이의 동작 방법

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid