KR101365394B1 - 광선-기반 손가락 제스처 사용자 인터페이스 - Google Patents

광선-기반 손가락 제스처 사용자 인터페이스 Download PDF

Info

Publication number
KR101365394B1
KR101365394B1 KR1020137031088A KR20137031088A KR101365394B1 KR 101365394 B1 KR101365394 B1 KR 101365394B1 KR 1020137031088 A KR1020137031088 A KR 1020137031088A KR 20137031088 A KR20137031088 A KR 20137031088A KR 101365394 B1 KR101365394 B1 KR 101365394B1
Authority
KR
South Korea
Prior art keywords
cavity
finger
gesture
display
user interface
Prior art date
Application number
KR1020137031088A
Other languages
English (en)
Other versions
KR20130135398A (ko
Inventor
토마스 에릭슨
퍼 린네
조헨 라베노 맹겔스도르프
로버트 페터슨
앤더스 얀손
매그너스 고어트즈
Original Assignee
네오노드, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네오노드, 인크. filed Critical 네오노드, 인크.
Publication of KR20130135398A publication Critical patent/KR20130135398A/ko
Application granted granted Critical
Publication of KR101365394B1 publication Critical patent/KR101365394B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스가 전자 장치를 위한 하우징, 하우징에 장착된 디스플레이, 상기 디스플레이로부터 분리되고 하우징의 두 반대 측면을 관통하는 공동(cavity), 상기 공동 내에 삽입된 오브젝트(object)를 탐지하도록 하우징 내에 장착되는 탐지기, 그리고 상기 탐지기와 디스플레이에 연결되어 상기 디스플레이가 탐지기로부터의 출력에 응답하여 시각적인 표시를 만들도록 하는 처리기를 포함한다.

Description

광선-기반 손가락 제스처 사용자 인터페이스{LIGHT-BASED FINGER GESTURE USER INTERFACE}
본 발명의 분야는 터치-감지 스크린이다.
많은 고객 전자 장치가 현재 손가락 또는 스타일러스 터치를 사용자 입력으로 사용하기 위해 터치 감지 스크린으로 만들어지고 있다. 이들 장치로는 휴대폰이나 자동차 엔터테인먼트 시스템과 같은 작은 화면 장치에서, 노트북 컴퓨터 등 중간 크기의 화면 장치, 그리고 공항에서 역 체크인 스테이션 등의 대형 스크린 장치에 이르고 있다.
터치 감지 스크린으로의 사용자 입력은 기본 스크린 탭으로부터 스윕 제스처 그리고 둘 또는 그 이상의 손가락들 조정, 동시 입력을 포함하는 더욱 정교한 핀치 제스처까지로 진화하였다. 터치 스크린 입력의 단점 중 한 가지는 사용자 손이 사용자가 스크린을 보는 것을 막는다는 것이다. 이는 특히 두 개-손가락 핀치 제스처인 때 특히 그러한데, 이때 두 개의 손가락이 스크린을 대각선으로 벌린다.
따라서 종래의 스크린은 손가락 제스처 입력으로는 이상적이지 못하다. 사용자가 스크린을 보는 것을 막지 않는 손가락 제스처 입력을 위한 입력 존을 제공하는 경제적이고 심미적인 터치 스크린 장치를 제공하는 것이 바람직하다.
본 발명의 특징은 전자 장치의 중공 공동(hollow cavity) 또는 리세스 공동 내 손가락 제스처를 탐지하고 식별하는 광선-기반 사용자 인터페이스를 제공하는 것이다. 상기 손가락 제스처는 손가락의 슬라이딩과 같이 하나-손가락 제스처, 또는 두 개-손가락 회전, 두 개-손가락 핀치 또는 두 개-손가락 펼침과 같은 멀티-손가락 제스처일 수 있다.
본 발명의 또 다른 특징은 3 차원 공동 공간 내에 삽입된 오브젝트의 위치 및 방위를 탐지하는 광선-기반 사용자 인터페이스를 제공하며, 이는 3-차원 터치 인식 및 3-차원 모델링으로 적용된다.
따라서 본 발명의 실시 예에 따라, 전자 장치를 위한 하우징, 상기 하우징에 장착된 디스플레이, 상기 디스플레이로부터 분리되며, 상기 하우징 두 반대 측면을 통과하는 한 공동, 상기 공동 내로 삽입된 오브젝트를 탐지하기 위해 상기 하우징 내에 동작할 수 있도록 장착된 탐지기, 그리고 상기 탐지기와 디스플레이에 연결되어, 상기 탐지기로부터 출력에 응답하여 시각적인 표시를 만들 수 있도록 하는 프로세서를 포함하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스가 제공된다.
본 발명의 또 다른 실시 예에 따라, 전자 장치를 위한 하우징, 상기 하우징에 장착되어, 응용 프로그램에 의해 발생된 출력을 만들기 위한 디스플레이, 상기 디스플레이로부터 분리되며, 상기 하우징 두 반대 측면을 통과하는 한 공동, 상기 공동 내로 삽입된 오브젝트를 탐지하기 위해 상기 하우징 내에 동작할 수 있도록 장착된 센서, 그리고 상기 센서와 디스플레이에 연결되어, 상기 응용 프로그램을 실행하고, 상기 센서의 출력을 수신하며, 그리고 상기 공동 내로 삽입된 5개의 오브젝트의 위치 및 방위 속성, 즉 x-축 위치; y-축 위치; z-축 위치; xz-평면에서 편각; 그리고 yz-평면에서 편각 속성 가운데 하나 이상을 기초로 하여 상기 응용 프로그램으로 입력을 제공하기 위한 하우징 내의 프로세서를 포함하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스가 제공된다.
본 발명의 또 다른 실시 예에 따라, 핸드 헬드 하우징, 하우징 내에 장착된 디스플레이, 상기 디스플레이로부터 분리되고 하우징을 관통하는 공동(cavity), 광선 펄스들을 탐지하는 하우징 내에 장착되는 다수의 에미터, 그리고 하우징 내에 장착되며 수신기 그리고 디스플레이에 연결되어 상기 수신기의 출력을 기초로 이 차원 평면을 따라 상기 공동 내에 삽입된 오브젝트의 윤곽을 결정하도록 하는 계산 유닛을 포함하며, 상기 계산 유닛이 일정 시간 간격 동안 일련의 그와 같은 결정을 실행하고, 그와 같은 시간 간격 동안 공동 내에 삽입된 오브젝트가 공동에 수직인 평면을 따라 이동되어 오브젝트의 연속 섹션에 대한 일련의 이 차원 스캔을 발생시키도록 하고, 그리고 상기 계산 유닛이 그로부터 오브젝트의 삼차원 모델을 만들며 디스플레이로 하여금 상기 모델을 만들도록 하는, 삼차원 모델링 시스템이 더욱 제공된다.
본 발명의 또 다른 추가 실시 예에 따라, 광선-기반 터치 스크린 디스플레이 그리고 상기 디스플레이로부터 분리되고 하우징의 두 반대 측면을 관통하는 공동(cavity)을 포함하여, 상기 공동 내에서 수행된 사용자 제스처에 대한 광선-기반 탐지를 제공하도록 하는 전자 장치가 제공된다. 이들 두 광선-기반 터치 스크린 디스플레이와 손가락-제스처 공동은 공동 내에 삽입되거나 스크린을 터치하는 오브젝트를 제각기 탐지하도록 동작하는, 하우징 내에 장착된 다수의 에미터 및 수신기에 의해 둘러싸인다. 상기 하우징 내 제어기가 에미터와 수신기 세트 모두에 연결되어, 이들에 대한 스캔 시퀀스를 실행하도록 하고, 그리고 한 프로세서가 하우징에 제공되어 각 탐지 신호들을 수신하고 그리고 스크린에서의 하나 또는 둘 이상의 터치 위치를 결정하도록 하며, 또한 상기 공동 내로 삽입된 오브젝트(손가락)의 사용자 제스처를 결정하도록 한다.
하기에서는 첨부 도면을 참조하여 본원 발명을 더욱 상세히 설명한다.
도 1은 본 발명의 실시 예에 따라 광선-기반 탐지를 사용하며, 손가락 제스처 사용자 입력을 위해 한 공동을 갖는 장치, 그리고 이동 제스처를 수행하는 손가락을 개략적으로 도시한 도면.
도 2는 본 발명의 실시 예에 따라 디스플레이로부터 분리된 손가락 제스처 사용자 입력을 위해 터치 스크린 디스플레이 그리고 한 공동을 갖는 장치로서, 이들 둘 다가 광선-기반 탐지를 사용하는 장치를 도시하는 도면.
도 3은 본 발명의 실시 예에 따른, 도 2 장치의 좌측 하단 부에 대한 확대도.
도 4 및 5는 본 발명의 실시 예에 따라, 에미터와 수신기 적층 행을 사용하여, 사용자 제스처 입력 공동 내로 낮추어진 한 오브젝트의 광선 기반 탐지에 대한 개략적 도면.
도 6-8은 본 발명의 한 실시 예에 따라, Y-축 주변 회전 탐지에 대한 개략적 도면.
도 9-11은 본 발명의 실시 예에 따라, X-축 주변 회전 탐지에 대한 개략적 도면.
도 12는 본 발명의 실시 예에 따라, Z-축 주변 회전 제스처에 대한 개략적 도면으로서, 사용자가 두 손가락을 스크린에 올려놓고, 중앙 포인트 둘레로 손가락들을 회전시킴을 도시하는 도면.
도 13은 본 발명의 실시 예에 따라, 광선-기반 탐지를 사용하는 손가락 제스처 사용자 입력을 위해 한 공동을 갖는 장치에 대한 개략적 도면.
도 14는 본 발명의 실시 예에 따라, 제1 삽입된 오브젝트를 탐지하는 도 13 장치의 개략적 도면.
도 15는 본 발명의 실시 예에 따라, 두 삽입된 오브젝트를 탐지하는 도 13 장치의 개략적 도면.
도 16은 본 발명의 실시 예에 따라, 두-손가락 핀치 제스처를 탐지하는 손가락 제스처 입력을 위한 한 공동의 개략적 도면.
도 17은 본 발명의 실시 예에 따라, 두-손가락 펼침 제스처를 탐지하는 손가락 제스처 입력을 위한 한 공동의 개략적 도면.
도 18은 본 발명의 실시 예에 따라, 광선-기반 탐지를 사용하는 손가락 제스처 사용자 입력을 위한 한 공동 그리고 그 같은 공동 내로 삽입되는 손가락을 갖는 장치에 대한 개략적 도면.
도 19는 본 발명의 실시 예에 따라, 광선-기반 탐지를 사용하는 손가락 제스처 사용자 입력을 위한 한 공동 그리고 그 같은 공동으로부터 들어 올려지는 손가락을 갖는 장치에 대한 개략적 도면.
도 20 및 21은 본 발명의 실시 예에 따라, 터치 스크린 제스처 그리고 한 입력 공동 제스처를 결합시키는 사용자 입력에 대한 개략적 도면.
도 22는 본 발명의 실시 예에 따라, 힌지에 의해 연결된 디스플레이 그리고 사용자 입력 공동을 갖는 장치로서, 디스플레이가 직립하고 공동에 의해 지지 됨을 개략적으로 도시한 도면.
도 23 및 24는 본 발명의 실시 예에 따라, 도 22의 장치를 개략적으로 도시한 도면으로서, 상기 공동이 디스플레이 위로 접혀짐을 도시하는 도면.
도 25 및 26은 본 발명의 실시 예에 따라, 장치의 하우징이 접혀지는 때, 터치 스크린에 대한 손가락의 깊이를 탐지하는, 광선-기반 사용자 인터페이스를 갖는 장치를 개략적으로 도시한 도면.
도 27은 본 발명의 실시 예에 따라, 공동이 디스플레이를 따라 위치하는, 도 22 장치를 개략적으로 도시한 도면.
도 28 및 29는 본 발명의 실시 예에 따라, 공동이 장치의 배면 부쪽으로 접혀진, 도 22 장치를 개략적으로 도시한 도면.
도 30은 본 발명의 실시 예에 따라, 장치를 운반하기 위해 핸들로서 형성된, 광선-기반 탐지를 사용하는, 손가락 제스처 사용자 입력을 위한 한 공동을 갖는 장치에 대한 개략적 도면.
도 31은 본 발명의 실시 예에 따라, 개방된 때, 광선-기반 탐지를 사용하는, 손가락 제스처 사용자 입력을 위한 한 공동을 형성하는 수축가능 프레임을 갖는 장치에 대한 개략적 도면.
도 32는 본 발명의 실시 예에 따라, 한지 둘레에서 회전하는, 손가락 제스처 사용자 입력을 위한 한 공동을 갖는 장치에 대한 개략적 도면.
도 33은 본 발명의 실시 예에 따라, 발사 장치 사용자 인터페이스가 어떻게 만들어지는가를 개략적으로 설명하는 흐름도.
도 34는 본 발명의 실시 예에 따라, 공동 평면에 수직으로 이동된 오브젝트의 3D 모델을 스캔닝하여 광선-기반 탐지를 사용하는 공동을 갖는 장치를 개략적으로 도시한 도면.
도 35는 본 발명의 실시 예에 따라, 손가락 제스처 사용자 입력을 위해 디스플레이에서 그리고 공동에서 스캔 시퀀스를 실행하는 단일 제어기의 개략적 도면.
도 36은 본 발명의 실시 예에 따라, 광선-기반 사용자 입력 공동 및 터치 스크린의 제어기를 위한칩 패키지의 예시적 회로 도면.
도 37은 본 발명의 실시 예에 따라, 도 36의 칩 패키지로의 연결을 위해, 각 행에서 4개 또는 5개 광 에미터를 갖는 6개 행의 광 에미터에 대한 예시적 회로 도면.
본 발명의 특징들은 전자 장치로의 사용자 입력에 대한 것이며, 특히 공동 내에서 수행된 사용자 입력 제스처를 탐색하기 위해 동작할 수 있는, 장치로부터 분리된 장치 하우징 내에 제공된 중공의 공동 또는 리세스된 공동에 대한 것이다. 상기 입력 제스처는 손가락을 슬라이딩하는 것과 같은 한-손가락 제스처 이거나, 두 손가락 회전, 두 손가락 핀치 또는 두 손가락 펼침과 같은 멀티-손가락 제스처일 수 있다. 본 발명은 더욱더 공동 속에 삽입된 오브젝트(손가락)의 위치 및 방위를 탐지하는 광선-기반 사용자 인터페이스를 제공하며, 이는 하기에서 설명되는 바, 3 차원 터치 인식 그리고 3 차원 모델링으로의 적용을 갖는다. 본 발명은 광선 기반 탐지 장치에 대하여 설명되며, 음성 방법과 같은 다른 탐지 방법도 본 발명의 범위 내에 속한다.
본 발명에서, 용어 "에미터"는 특히 발광 다이오드(LED)를 포함하는, 발광 요소를 지칭하며, 빛을 디스플레이 표면 또는 한 공동으로 향하게 하는 렌즈 또는 반사경으로 출력시키는 광 섬유 또는 관형 광 가이드(tubular light guide) 출력단을 지칭하는 것이다. 용어 "수신기"는 특히 광 다이오드(PD)를 포함하는, 광 탐지 요소를 지칭하는 것이며, 디스플레이 표면 또는 공동 표면을 횡단한 광선 비임을 수신하고 이들을 광 탐지 요소로 또는 영상 센서로 향하게 하는 광 섬유 또는 관형 광 가이드의 입력단을 지칭하는 것이고, 상기 영상 센서는 특히 전하 결합 소자(CCD) 또는 상보성 금속 산화물 반도체(CMOS) 이미지 센서이다.
본 발명의 실시 예에 따라, 서브 시스템이 터치 스크린 디스플레이에 대한 보완으로 제공되며, 마우스 입력 장치에 의해 제공되는 많은 기능뿐 아니라 새로운 타입의 사용자 상호 작용을 제공하며 그러나 손가락-기반 터치 스크린에서는 존재하지 않는다. 실제로, 상기 장치는 고정되거나 접을 수 있는 상보적인 광학 센서와 결합된 터치 센서가 있는 디스플레이를 포함하며, 아이템이 개방 프레임 안쪽에서 트랙될 수 있도록 한다. 상기 개방 프레임은 고정된 방식으로 또는 접을 수 있는 프레임으로 장치 내에 일체로 된다.
종래 기술의 터치 센서들은 2+1 입력 차원, 즉 X, Y 및 Z를 제공하며, 이때 Z는 비록 제한된 연속된 차원 감지가 기술적으로 가능하지만, 터치와 비-터치를 구분하기 위한 이진 차원일 뿐이다. 터치 스크린에서 Z 차원을 사용하는 것은 손가락이 위치하는 XY 평면으로부터 멀어지고, 눈과 디스플레이 사이 시차 효과로 인해, 디스플레이 영상이 가시성으로부터 더욱 커버되는(닫혀지는) 문제가 있다.
본 발명의 사용자 입력 공동과 결합하면, 터치 스크린이 사용자 인터페이스(UI) 솔루션에 유사한 방식으로 아이템 선택을 위해 사용된다. 본 발명의 사용자 입력 공동 서브시스템은 터치 스크린에서 선택된 아이템과 상호 작용을 위해 사용자 입력의 추가 차원을 제공한다. 한 가지 그와 같은 상호 작용은 한 손으로 터치 디스플레이 상에서 선택되고, 그 다음 다른 손으로 사용자 입력 공동을 통해 외관이 변경되는 오브젝트다. 이 같은 컴비네이션은 고유한 사용자 입력 경험을 제공하며 사용자 상호 작용을 더욱 효과적이게 한다. 이는 스크롤 휠 기능, 우측 또는 중앙 버튼 클릭, 그리고 조합된 조정 버튼 및 클릭을 모방하여 마우스 입력 기능을 복원할 수 있도록 한다.
본 발명의 실시 예에 따라, 사용자 제스처를 탐지하기 위한 사용자 입력 공동이 장치 디스플레이로부터 분리된 장치 하우징에 제공된다. 도 1에서, 본 발명의 실시 예에 따라 광선-기반 탐지를 사용하며, 손가락 제스처 사용자 입력을 위해 한 공동을 갖는 장치, 그리고 이동 제스처를 수행하는 손가락을 개략적으로 도시한다. 도 1은 디스플레이(635) 그리고 하우징(827) 내에 담긴 중공의 사용자 인터페이스 공동(850)을 갖는 전자 장치(826)를 도시한다. 공동(850)은 하우징(827)의 두 반대 측면을 통과한다. 손가락(900)이 이동 제스처를 수행함이 도시된다 - 공동 (850) 안쪽 화살표에 의해 표시된 바와 같이, 공동(850)의 길이 방향을 따라 슬라이딩하는 이동.
공동(850)은 특히 적외선 또는 적외선 가까이 발광 다이오드(LEDs)를 포함하는 하나 또는 둘 이상의 에미터, 그리고 특히 공동 주변에 배치된 광 다이오드(PD)를 포함하는 다수의 수신기를 포함한다. 도 2에서, 본 발명의 실시 예에 따라 디스플레이(635) 그리고 광선 기반 탐지를 사용하는 공동(850)을 모두를 갖는 장치가 도시된다. 도2는 공동(850) 주변을 둘러싸는 에미터 그리고 수신기의 두 적층 행을 도시한다.
도 3에서, 본 발명의 실시 예에 따른, 장치(826)의 좌측 하단 부에 대한 확대 도이다. 장치(826)의 좌측 하단 부에는 에미터(200)와 수신부(300)가 위치하며, 도 3에서 확대된다. 에미터(200)는 광선을 공동(850)으로 돌출시키며, 상기 광선이 수신기(300)에 의해 탐지된다. 상기 공동 내로 삽입된 손가락 또는 스타일러스와 같은 오브젝트는 광선 비임의 일부를 차단하며, 이에 따라 수신기(300)의 일부가 상대적으로 적은 광선 세기를 탐지한다. 수신기(300) 위치의 기하구조, 그리고 이들이 탐지하는 광선 세기는 상기 삽입된 오브젝트의 공동-공간 좌표를 결정하는 데 충분하다. 에미터(200) 그리고 수신기(300)는 제어기에 의해 선택적인 활성화와 비활성화를 위해 조정된다. 일반적으로, 에미터(200) 그리고 수신기(300) 각각은 I/O 커넥터들을 가지며, 신호가 전송되어 어느 에미터 그리고 어느 수신기가 활성화되는가를 명시하도록 한다.
사용자 입력 공동 탐지기는 입력 공동 프레임에 의해 경계된 평면으로 정렬된 유클리드 공간(Euclidean space)을 결정하며, 그와 같은 평면에 수직인 면을 따라 연장된다. 기계적인 디자인에 따라, 이 같은 공간은 상기 디스플레이 평면과 그에 대한 수직인 면에 의해 정해지는 공간과는 다르게 정렬된다. 사용자 입력 공동의 좌표는 X, Y, 및 Z로 표시되며, 이들 축에 대한 회전 각은 α, β 및 γ로 각각 표시된다. 상기 두 손가락 길이 스칼라(그립)는 S 좌표라 불린다. 이들 좌표들에 대하여 하기에서 설명한다.
테이블 I은 공동 서브 시스템에 의해 제공된 입력 좌표를 요약한다. 테이블 I은 디스플레이 터치 서브 시스템을 포함하지 않는다.
Figure 112013106644986-pat00001
상기 X 및 Y좌표는 공동 프레임 에지에 의해 경계가 되는 평면을 따라 있다. 이들 좌표는 에지에 의해 경계가 되는 영역을 정확하게 커버한다. 상기 Z 좌표는 공동 에지에 의해 경계가 되는 평면에 수직인 선분을 따라 연장되며, 사실상 오브젝트가 상기 공동 내 얼마나 멀리 삽입되는 가를 측정한다. Z 좌표에서 탐지가 감지 층들 사이 거리에 의해 정해진 작은 범위 내에서 정확하다. 정확한 범위 내에서 탐지는 두 감지 층들의 신호 수준 차이에 기초한다.
도 4와 5에서, 본 발명의 실시 예에 따라, 에미터와 수신기 적층 행을 사용하여, 사용자 제스처 입력 공동 내로 낮추어진 한 오브젝트의 광선 기반 탐지에 대한 개략적 도면이 도시된다. 흰색 수신기는 기대된 광선을 탐지하며, 블랙 수신기는 삽입된 오브젝트에 의해 차단된다. 도 4와 5는 Z-축과 관련하여 어떻게 깊이를 결정하는 가를 도시한다. 도 4는 손가락이 공동의 상측 부내로 삽입되는 때 수신기의 탐지 패턴을 도시한다. 도 5는 손가락이 공동을 통해 삽입되는 때 수신기의 탐지 패턴을 도시한다.
상기 α와 β 각들은 회전가능하며 X축과 Y축 각각 주변으로 연장된다. 정확성은 감지 층 사이 거리에 관련되며 일반적으로 상기 XY 평면을 향해 수직인 더욱 작은 각에 덜 민감하다. 상기 회전 연장은 센서에 의해서 보다는 인체 해부학에 의해 더욱 제한된다. XY 평면과 관련하여 더욱 작은 각을 탐지함에 있어 이론적인 갭이 있으며, 상기 프레임 에지 자신이 ± 90도 이하의 제한을 정하기도 한다. 감지하는 것은 감지 층들의 탐지 포인트들 사이 각도를 계산함에 의해 수행된다.
도 6 내지 8에서, 본 발명의 한 실시 예에 따라, Y-축 주변 회전 탐지에 대한 개략적 도면을 도시한다. 도 6은 공동 내로 삽입된 손가락이 Y-축 주변에서 한 방향으로 기울어진 때 수신기의 탐지 패턴을 도시한다. 도 7은 공동 내로 삽입된 손가락이 직립하는 때 수신기의 탐지 패턴을 도시한다. 도 8은 공동 낼 삽입된 손가락이 Y-축 주변에서 제2 방향으로 기울어진 때 수신기의 탐지 패턴을 도시한다. 도 9 내지 11에서, 본 발명의 실시 예에 따라, X-축 주변 회전 탐지에 대한 개략적 도면을 도시한다.
따라서, 단일 손가락이 공동 내로 삽입되는 때, 5개의 사용자 입력 좌표가 결정된다; 즉, X, Y, Z, a, 및 β.
두 개의 손가락이 공동 내로 삽입되는 때, 두 추가의 입력 좌표가 결정된다; 즉, γ 및 S, 따라서 총 7개의 입력 좌표를 제공한다. 상기 S 좌표는 스칼라이고 사용자 입력 공동 내로 삽입된 두 개의 손가락 사이 거리에 의해 정해진다. S 좌표의 정확성은 모든 포지티브 값들에 대하여 높다; 그러나, 단일 손가락으로부터 제로 값을 구분하는 것은 쉽지 않다. 상기 두 손가락의 X 및 Y 좌표 사이 거리를 계산함에 의해 감지가 수행된다.
상기 Y 좌표(차원)는 회전에 대한 것이고 Z 축 주변으로 확장된다. 이는 두 개의 손가락 모드에서 가능할 뿐이다. 매우 작은 S 값을 제외하고는 높다. 확장은 비 제한적이다, 즉, 무한 회전에 대하여 감지가 가능할 수 있다. 이 같은 감지는 두 손가락 사이 X 및 Y 델타에 기초한 각을 계산하여 수행된다.
도 12에서는, Z-축 주변 회전 제스처에 대한 개략적 도면으로서, 사용자가 두 손가락을 스크린에 올려놓고, 중앙 포인트 둘레로 손가락들을 회전시킴을 도시한다.
공동 서브 시스템으로부터 입력이 각기 다른 좌표의 범위 및 정확성에 따라 사용된다. X, Y, y 및 S의 정확성은 이동, 회전 및 스크롤링과 같은, 연속적인 오브젝트 조작을 위한 장점이 된다. 낮은 정확성 좌표는 매뉴 탐지와 같은 추가 기능을 위한 장점이다. 사용자 관점에서, 이는 다음과 같이 이해된다; 즉 (i) 한 손가락을 스윕하여 스크롤하고, (ii) 삽입된 손가락을 기울여서 팝-업 매뉴를 개방하며, 그리고 (iii) 두 손가락을 사용하여 크기 조정 및 회전과 같이 오브젝트를 조작한다.
입력 공동 내로 삽입된 손가락의 수는 직관적인 모드 세팅으로 작용한다. 예를 들면, 한 손가락은 스크롤하고 매뉴를 선택할 수 있으며, 그리고 두 손가락이 오브젝트를 조작할 수 있다.
일정 실시 예에서, 낮은-해상도 좌표 α, β 그리고 Z가 조합하여 사용되어 빠른 단일-손가락 제스처가 "기울임-및-삽입" 방식으로 일시적인 명령을 호출할 수 있도록 한다. α, β 그리고 Z의 조합 모두를 사용하는 것은 UI를 복잡하게 할 것이다. 따라서, 밸런스 시나리오가 이 같은 가능성을 제한한다. 예를 들면, 스크롤링을 가능하게 하기 위해 손가락을 똑바로 삽입하고, 그리고 마우스 우측-클릭을 모방하기 위해 손가락을 기울여 삽입하여, 전후 사정(context)-민감 매뉴를 개방하도록 한다.
테이블 II 는 사용자 공동 입력 좌표, 각 좌표를 위한 적절한 제스처, 그리고 UI 기능의 예를 요약한다.
Figure 112013106644986-pat00002
본 발명의 실시 예에서, 다수의 에미터가 직사각 공동의 두 인접한 측면을 따라 배열되며, 다수의 수신기들이 다른 두 인접한 측면을 따라 배열된다. 도 13에서는, 본 발명의 실시 예에 따라, 광선-기반 탐지를 사용하는 손가락 제스처 사용자 입력을 위해 한 공동을 갖는 장치에 대한 개략적으로 도시한다. 도 13은 디스플레이(800) 그리고 사용자 제스처 입력 공동(850)이 있는 장치(826)를 도시한다. 공동(850)은 에미터(850)와 수신기(300)로 둘러 싸인다. 에미터(200)는 적외선 또는 적외선 가까운 광선을 공동(850) 내로 방출하고, 이는 각 에미터(200)에 직접 반대하여 위치하는 대응하는 수신기(300)에 의해 탐지된다. 오브젝트가 공동(850) 내로 삽입되는 때, 광선이 수신기(300) 일부에 도달하는 것이 막아진다. 수신기 출력으로부터, 어느 광선이 오브젝트에 의해 차단 되었는가를 식별함에 의해, 오브젝트의 위치가 결정된다. 에미터(200)와 수신기(300)에 연결된 에미터-수신기 제어기(776)가 이들 요소들의 활성화를 조정하며 수신기 출력들을 저장한다. 제어기(776)에 포함되거나 제어기(776)와 연결된 계산 유닛이 수신기 출력을 판독하고 그리고 그로부터 삽입된 오브젝트의 존재와 위치를 결정한다. 에미터(200) 그리고 수신기(300)에 연결되고 그리고 디스플레이(635)에 연결된 프로세서(770)(도 3에서 도시됨)는 디스플레이(635)로 하여금 수신기(300)로부터의 출력에 응답하여 가시적인 표시를 만들도록 한다.
도 14에서는, 본 발명의 실시 예에 따라, 제1 삽입된 오브젝트를 탐지하는 장치(826)를 개략적으로 도시한다. 도 14는 공동(850) 내로 삽입된 손가락(900)을 탐지하는 장치(826)를 도시한다. 손가락(900)은 수신기(2, 9)로 표시된, 일부 수신기(300)에 광선이 도달하는 것을 막는다. 본 발명의 실시 예에 따라, 손가락(900)의 위치가 손가락이 차단시키는 적외선 광선의 크로스 라인들로부터 결정된다. 수신기들은 좌측에서 우측으로 1 - 9로 번호가 붙여진다. 그러나 차단된 수신기 만이 표시된다.
도 15에서는, 본 발명의 실시 예에 따라, 두 삽입된 오브젝트를 탐지하는 장치(826)를 개략적으로 도시한다. 도 15는 공동(850) 내로 삽입된 두 손가락(900, 901)을 탐지하는 장치(826)를 도시한다. 손가락(900)은 광선이 수신기(2, 9)에 도달하는 것을 막으며, 손가락(901)은 광선이 수신기(6)에 도달하는 것을 막는다. 본 발명 한 실시 예에 따라, 손가락(900, 901)의 위치가 손가락들이 차단하는 적외선 광선에 대한 크로스 라인들로부터 결정된다. 이는 두 개의 분리된 삽입 포인트를 나타낸다.
도 16에서는, 본 발명의 실시 예에 따라, 두-손가락 핀치 제스처를 탐지하는 손가락 제스처 입력을 위한 한 공동을 개략적으로 도시한다. 본 발명의 한 실시 예에 따라, 도 16은 두-손가락 핀치 제스처를 탐지하는 입력 공동(850)을 도시한다. 시간 경과 시 차단된 수신기에서의 변화를 설명하기 위해 공동(850)이 두 번 도시된다. 도 16에서의 핀치 제스처는, 상측 도면에서 도시된 바와 같이, 수신기(2, 6)가 차단된다. 하측 도면에서 도시된 바와 같이, 손가락(900, 901)이 가까이 접근됨에 따라 수신기(3, 5)가 차단된다. 상기 핀치 제스처의 방향은 따라서 차단된 수신기(300)에서의 변화로부터 결정된다. 상기 핀치 제스처는 하측 도면 아래 두 마주하는 화살표로 표시된다.
도 17에서는, 본 발명의 실시 예에 따라, 두-손가락 펼침 제스처를 탐지하는 손가락 제스처 입력을 위한 한 공동을 개략적으로 도시한다. 도 17은 두 손가락 펼침 제스처를 도시하며, 이는 두 손가락 핀치 제스처와 반대되는 것이다. 공동(850)은 시간 경과 시 차단된 수신기에서의 변화를 설명하기 위해 세 번 도시된다. 도 17의 상기 펼침 제스처는 상측 도면에서 도시된 바와 같이 수신기(4, 5)가 차단된다. 손가락(900, 901)이 떨어져 펼쳐지는 때, 차단된 수신기들 사이 거리가 증가 된다. 따라서, 수신기(3, 5)가 중앙 도면에서 차단되며, 수신기(2, 6)가 하측 도면에서 차단된다. 따라서 상기 펼침 제스처의 방향은 차단된 수신기(300)에서 변화로부터 결정된다. 상기 펼침 제스처는 하측 도면 아래 두 외향 화살표로 표시된다.
오늘날 많은 장치에서, 터치 스크린에서 수행된 핀치 제스처는 디스플레이된 스크린 이미지에 대한 줌-아웃 기능을 작동시키며, 터치 스크린에서 수행된 펼침 제스처는 디스플레이된 스크린 이미지에 대한 줌-인 기능을 작동시킨다. 본 발명은 스크린에서 이미지에 대한 사용자의 뷰(view)를 해치지 않고 공동(850) 내에서 이들 제스처를 수행할 수 있도록 한다. 사용자의 뷰를 막는 이 같은 문제는 특히 핀치와 펼침 제스처가 스크린 대각선으로 수행되는 때 심각한데, 이는 사용자의 손이 그와 같은 경우 스크린의 상당 부분을 차단하기 때문이다. 일정 실시 예에 따라, 공동(850)을 따라 공동(850)을 따라 제1 방향으로 단일 손가락을 이동시킴은 터치 스크린에서 종래의 핀치 제스처에 해당하며, 공동(850)을 따라 반대 방향으로 단일 손가락을 이동시킴은 터치 스크린에서 종래의 펼침 제스처에 해당한다. 이는 본 발명 장치의 기존 애플리케이션 소프트웨어의 용이한 적용을 허용하며, 이에 의해 사용자 제스처 입력 공동 드라이버가 핀치 또는 펼침 제스처에 동등한 메시지를 호스트 프로세서 또는 응용 소프트웨어로 보낸다.
도 13-17로부터, 손가락이 공동 내에 삽입되는 때, 공동(850)의 좁은 에지를 따라 수신기가 차단됨이 명백하다. 이는 공동이 좁은 형상의 결과이다. 따라서, 입력 제스처가 한 에지 만을 따라 있는 탐지기에 기초하여 서로 구분된다. 따라서, 좁은 공동을 사용하는 일정 실시 예에서, 또는 그렇지 않으면 한 차원(좌표) 만으로의 탐지를 요구하는 일정 실시 예에서, 에미터 및 수신기가 더욱 긴 공동 에지를 따라 제공되며, 좁은 에지를 따라서는 제공되지 않는다. 제2 에지를 따라 손가락이 삽입되는 것은 중요하지 않기 때문에 삽입된 손가락을 좁은 에지를 따라 탐지하는 것은 필요하지 않다; 하나 또는 둘 이상의 손가락이 상기 긴 에지를 따라 삽입되었고 그와 같은 에지에 대하여 어떤 제스처를 이들이 수행하였는가를 아는 것이 중요할 뿐이다.
선택적으로, 그와 같은 경우 한 에미터-탐지기 쌍이 좁은 공동 에지에 제공되며 이는 손가락이 삽입되었는지를 결정하기 위해 사용된다. 이는 긴 에지를 따라 다수의 에미터에 펄스를 제공하기 위해 요구되는 파워와 비교하여 파워를 절약한다. 일단 손가락 삽입이 탐지되면, 긴 에지를 따라 에미터-탐지기 쌍들이 활동 하게 되어 사용자 제스처의 정확한 내용을 결정하도록 한다.
도 2 및 3에서, 광선 에미터(200)는 공동(850)의 적어도 한 벽을 따라 층으로 배열되며, 공동(850)의 공간 내로 광선 펄스를 방출시킨다. 광선 수신기(300)는 공동(850)의 반대편 벽을 따라 유사한 층으로 배열되며, 공동 공간이 비어있는 때 방출된 광선 펄스를 탐지한다. 그러나 오브젝트(900)가 공동(850)내로 삽입되는 때 이는 방출된 광선 펄스 일부가 수신기(300)에 도달하는 것을 차단한다. 따라서, 프로세서(770)는 공동(950) 내 공동(850) 내 오브젝트의 존재를 타지 할 수 있고 그리고 다른 층들에서의 수신기(300) 출력에 기초하여, 오브젝트가 공동(850) 내로 삽입되는 깊이를 탐지할 수 있다. 상기 손가락이 공동(850) 내로 더욱 깊이 진행함에 따라, 위층 그리고 아래층 내 수신기(300)에 의해 탐지된다. 제1 상측 층 탐지 그리고 뒤이은 하측 층 탐지 사이 시간이 사용되어 공동 내로 오브젝트가 내려가는 속도를 결정하도록 한다. 이는 시스템으로 하여금 하드 또는 신속한 삽입을 소프트 또는 느린 삽입과 구분할 수 있도록 하기 때문에, 사용자 인터페이스의 유용한 속성이다. 이 같은 정보는 가령 아바타의 액션에 적용된 가변 힘을 지원하는 게임 환경에서, 또는 브러시 스트로크 힘이 그 두께를 변경시키는 예술 페인 브러시 렌더링(artistic paintbrush rendering)에서 유용하다. 공동으로부터 오브젝트를 제거하는 속도는 다른 층들 내 오브젝트 제거를 탐지하는 사이 간격을 결정함에 의해 유사하게 계산된다.
에미터와 수신기의 멀티플 적층 층들의 또 다른 장점은 공동을 통한 접근 각 그리고 공동 내 오브젝트의 스탠딩 각을 결정할 수 있도록 한다는 것이다. 이 같은 정보에 대한 한 사용은 손가락을 삽입하고 이를 다양한 방향으로 기울이도록 하는 사용자 제스처를 가능하게 한다. 예를 들면, 서류를 스크롤하기 위해 사용자가 그의 손가락을 삽입하며, 스크롤하기 위해 손가락의 저부를 이동시키지 않고 전방을 향하여 손가락을 기울인다. 기울임 정도가 스크롤링 속도를 정한다.
에미터와 수신기의 멀티플 적층 층들의 또 다른 장점은 이 것이 한 명령으로 다중 터치로 둘 또는 그 이상의 터치를 탐지할 수 있도록 한다는 것이다. 두 개의 대각선 반대방향 터치와 같은 다중의 동시 발생 터치들은 대각선 터치의 두 경우에서 수신기의 탐지 패턴이 동일하기 때문에, 즉 좌측 상단과 우측 하단의 터치가 우측 상단과 좌측 하단 터치에서와 같은 동일한 패턴의 차단 수신기 발생시키기 때문에 모호하다. 한 터치가 두 번째 터치 조금 전에 작동되는 때, 이는 터치 패턴을 명확하게 할 수 있다. 예를 들면, 첫 번째 탐지된 터치가 좌측 하단 코너에 있는 것으로 명확하게 결정되면, 그러면, 뒤이은 두 번째 터치는 우측 상단 코너에 있어야 한다. 에미터 그리고 수신기의 멀티플 적층 층들을 갖는 시스템에서, 각 층은 다른 손가락 이전에 한 손가락이 삽입된 것을 탐지하는 기회를 제공하며, 이 것이 탐지되는 개연성을 증가시킨다.
도 18에서는, 본 발명의 실시 예에 따라, 광선-기반 탐지를 사용하는 손가락 제스처 사용자 입력을 위한 한 공동 그리고 그 같은 공동 내로 삽입되는 손가락을 갖는 장치에 대한 개략적 도면이 도시된다. 도 18은 도 1-3의 광선-기반 사용자 인터페이스를 도시하며, 오브젝트(900)가 공동(850) 내로 내려 보내진다.
도 19에서는, 본 발명의 실시 예에 따라, 광선-기반 탐지를 사용하는 손가락 제스처 사용자 입력을 위한 한 공동 그리고 그 같은 공동으로부터 들어 올려지는 손가락을 갖는 장치에 대한 개략적 도면을 도시한다. 도 19는 도 1-3의 광선-기반 사용자 인터페이스를 도시하며, 오브젝트(900)가 공동(850)으로부터 올려 진다.
본 발명의 또 다른 특징에 따라, 한 장치가 사용자 제스처 입력 공동 그리고 터치 민감 디스플레이 모두를 포함한다. 이는 조합 제스처를 허용하며, 사용자가 스크린 상에서 제스처를 수행하고 공동 내에서 제스처를 수행한다. 이와 관련하여, 도 20 및 21을 참조하며, 본 발명의 실시 예에 따라, 터치 스크린 제스처 그리고 한 입력 공동 제스처를 결합시키는 사용자 입력에 대한 개략적 도면을 도시한 것이다. 도 20과 21은 터치 스크린 디스플레이(635)와 관련하여 사용된 도 1-3의 광선-기반 사용자 인터페이스를 도시한다. 도 20에서 한 영상이 스크린 상에서 디스플레이된다. 사용자는 상기 영상을 줌하고자 한다. 종래 시스템에서, 줌 기능은 이미지의 디스플레이 부분 중앙에서 자동으로 줌 인(zoom in)된다. 종래의 시스템에서 이미지의 다른 부분에서 줌 인하기 위해, 사용자는 이미지를 보여줄 필요가 있으며 다음에 줌 제스처, 핀치 또는 펼침 제스처를 수행한다. 도 20에서, 사용자는 터치된 위치 주변 중심에서 줌을 수행하는 동안 필요한 픽쳐 요소를 터치함에 의해 줌 기능을 위한 센터를 선택한다. 그 결과는, 도 21에서 도시된 바와 같이, 터치된 위치 주변 줌 이미지 중심이다. 일정한 경우, 사용자는 스크린 물체를 두드림에 의해 그 물체를 선택한다. 뒤 이은 크기 조정 동작이 공동 내 제스처에 응답하여 수행되며, 사용자가 스크린을 터치하지 않는 때 수행된다. 이 같은 크기 조정 동작은 선택된 물체에서 크기 조정된 이미지를 중앙에 위치시킨다. 다른 경우, 사용자는 손가락을 디스플레이 위로 드래그하여 이미지를 보여주며, 상기 입력 공동에서 제스처를 수행하여 이미지 크기를 조정하도록 한다. 따라서, 크기 조정 및 보여주기는 동시에 발생되며 사용자가 두 동작을 조정한다.
도 22에서는, 본 발명의 실시 예에 따라, 힌지에 의해 연결된 디스플레이 그리고 사용자 입력 공동을 갖는 장치로서, 디스플레이가 직립하고 공동에 의해 지지 됨을 개략적으로 도시한 도면이 도시된다. 도 22는 좌측 손가락(900)이 디스플레이를 터치함을 도시하며, 두 우측 손가락(902, 903)은 사용자 공동 내로 삽입된다.
도 23 및 24는 본 발명의 실시 예에 따라, 도 22의 장치를 개략적으로 도시한 도면으로서, 상기 공동이 디스플레이 위로 접혀짐을 도시하는 도면이다. 도 22-24는 하우징의 한 섹션 내에서 디스플레이(635)를 갖고 하우징의 다른 한 섹션 내에서 공동(850)을 갖는 전자 장치에 대한 광선-기반 사용자 인터페이스를 도시한다. 이들 두 센셕들은 힌지(835)에 의해 연결되며, 섹션을 서로에 대하여 접을 수 있도록 한다. 디스플레이(635)는 제1 섹션에서 장착되며, 공동(850)이 제2 섹션 내에 위치한다. 공동(850) 주변 프레임은 상기 섹션들이 접히는 때 제1 섹션의 에지를 따라 맞춰진다.
사용자 입력 공동 프레임 그리고 동일한 평면 상의 디스플레이 유닛을 에지 가운데 한 에지 가까이에서 중앙 축에 정렬함에 의해, 프레임이 디스플레이 관련 계속하여 회전될 수 있다. 이는 프레임이 개방될 수 있는 범위까지 사용자가 제한되지 않기 때문에, 유연성을 제공하며 유닛을 견고하게 만든다. 사용자 입력 공동 프레임을 디스플레이 유닛 보다 여러 배수 두껍게 만듦으로써, 프레임의 감지 층들이 접혀졌을때 상기 프레임이 디스플레이 유닛을 에워싼다. 디스플레이 유닛을 사용자 입력 공동 프레임에 고정시키는 힌지(835) 내 두 축에서 콜렉터 레일을 사용함에 의해(도시되지 않음), 꼬이는 선들이 없으며, 사용자 입력 공동 프레임이 힌지(835) 주변에서 계속 회전할 수 있다. 적어도 두 개의 콜렉터가 파워 공급을 위해 사용된다. 제어 및 터치 이벤트 데이터가 파워 신호에서 겹쳐지며, 흑은 그들 자신의 콜렉터 레일을 갖는다.
도 25 및 26에서, 본 발명의 실시 예에 따라, 장치의 하우징이 접혀지는 때, 터치 스크린에 대한 손가락의 깊이를 탐지하는, 광선-기반 사용자 인터페이스를 갖는 장치를 개략적으로 도시한다. 이 같은 장치 디스플레이는 터치 스크린(860)이다. 중공의 프레임(850)이 터치 스크린(860)으로 접혀진 때, 터치 탐지의 멀티플 층들이 제공된다; 즉, 상기 중공의 프레임을 둘러싸는 에미터와 수신기에 의해 제공된 더욱 높은 층 그리고 터치 스크린에 의해 제공된 더욱 낮은 층이 제공된다. 도 25에서, 프레임(850)이 두 개의 적층 에미터 층(202, 203), 그리고 수신기(302, 303)에 의해 둘러싸인다. 다른 실시 예에서, 에미터 및 수신기의 단 하나 층이 제공된다. 터치 스크린(860)은 에미터(201) 그리고 수신기(301) 한 층에 의해 둘러싸인다. 그러나, 상기 터치 스크린(860)을 위해 사용된 터치 탐지 기술은 광선-기반 대신 저항성 또는 용량성과 같은 다른 기술이 적용될 수도 있다. 중공 프레임이 디스플레이 위로 접혀진 때, 상기 중공 프레임 베젤(bezel)이 터치 스크린 위로 다소 들어 올려져서, 디스플레이 위에서 오브젝트 탐지를 제공하도록 한다.
도 26은 접혀진 프레임을 도시하며, 3D 터치 스크린(861)을 포함한다. 도 26은 프레임이 스크린 위로 접혀진때, 상기 스크린이 3개의 에미터(201-203) 및 수신기(301-303) 적층 층에 의해 디스플레이 위의 각기 다른 높이에서 둘러싸임을 도시한다.
도 27은 본 발명의 실시 예에 따라, 공동이 디스플레이를 따라 위치하는, 도 22 장치를 개략적으로 도시한 도면이다. 도 28 및 29는 본 발명의 실시 예에 따라, 공동이 장치의 배면 부쪽으로 접혀진, 도 22 장치를 개략적으로 도시한 도면이다. 도 27은 힌지(835)에 의해 조인된 터치 스크린(860)을 따라 공동(850)을 갖는 개방 장치를 도시한다. 도 28은 터치 스크린(860)의 배면 부 쪽으로 공동(850)을 접은 것을 도시한다.
도 29는 장치의 정면에서 접혀진 프레임, 터치 스크린(860), 그리고 장치의 터치 감지 배면 부(back)(862)를 도시한다. 도 29는 접혀진 프레임을 두 번 도시한다. 도 29의 상측 부분에서, 장치가 터치 스크린(860) 그리고 터치 감지 배면 부(862)를 갖는 것으로 도시된다. 도 29의 하측 부분에서, 좌측 손가락(900)이 터치 스크린을 터치하고 있으며, 우측 손가락(902)은 장치의 터치 감지 배면 부를 잡고 있다.
도 27은 힌지(835)에 의해 조인된 터치 스크린(860)을 따라 공동(850)을 갖는 개방 장치를 도시한다. 이와 같이 펼쳐진 동작 모드에서, 사용자 입력 공동이 디스플레이 유닛으로부터 분리되며 확장된 디스플레이 XY 평면과 정렬되거나, 그와 일정한 각도로 정렬된다. 상기 사용자 입력 공동 서브 시스템은 앞서 설명된 7개의 사용자 좌표를 제공한다. 가장 편리한 사용자 입력 공동 프레임의 각도가 사용자에 의해 조정될 수 있다. 대개, 사용자가 디스플레이 터치를 사용하여 오브젝트를 선택하며, 다음에 사용자 입력 공동을 사용하여 선택된 오브젝트를 조작하도록 한다.
사용자 공동 프레임을 사용자를 향해 또는 사용자로부터 멀리 접는 것은 사용자 경우에 달려있다. 몇 가지 사용자 경우가 다음과 같다.
공중에서 유닛을 접을 때, 입력 공동 프레임을 사용자를 향하여 약 45도로 하거나 사용자로부터 멀어지도록 90도로 접음으로써 편리함이 달성된다.
유닛이 테이블 위에 있는 때, 디스플레이가 테이블 상에서 편평하게 놓이며 사용자 입력 공동 프레임이 90도의 각도로 일직선으로 위치한다. 선택적으로, 장치가 테이블 위에 있는 때, 사용자 입력 공동 프레임은 완전히 접혀져서 디스플레이의 연장을 형성하도록 할 수 있다. 또 다른 선택적 실시로써, 도 22에서 도시된 바와 같이, 프레임이 직립 디스플레이를 위한 지지로서 더블(doubles)될 수 있기도 하다.
3D 영역에서 Z방향을 따라 이동시키는 것은 2D 입력을 사용하는 경우 항상 도전이 되어 왔다. 마우스를 사용하는 때, 스크롤 휠 및/또는 우측 클릭 플러스 Y 이동은 Z 방향으로 오브젝트를 조작하는 스탠다드 방법이 되어왔다. 이들 중 어느 방법도 터치 스크린을 사용하는 때는 이용될 수 없다.
가령 수평 디스플레이 상에서 오른 쪽에서 프레임을 직립하여 세움에 의해, YZ 평면을 따라 사용자 입력 공동 프레임을 정렬함은 3D UI를 위한 공동의 Y 좌표에 직관적인 Z 이동 조정을 만든다. 또한, 상기 공동 내 사용자의 제스처는 사용자의 디스플레이 뷰를 방해하지 않으며, 이는 디스플레이 상부에서 손가락의 Z 방향 이동이 방해되지 않도록 한다.
도 30에서는, 본 발명의 실시 예에 따라, 장치를 운반하기 위해 핸들로서 형성된, 광선-기반 탐지를 사용하는, 손가락 제스처 사용자 입력을 위한 한 공동을 갖는 장치(826)에 대한 개략적 도면을 도시한다. 터치 감지 공동(850)이 핸들을 형성하고, 그리고 상기 장치가 핸들 내 손가락 제스처를 탐지한다.
도 31에서는, 본 발명의 실시 예에 따라, 개방된 때, 광선-기반 탐지를 사용하는, 손가락 제스처 사용자 입력을 위한 한 공동을 형성하는 수축가능 프레임을 갖는 장치에 대한 개략적 도면을 도시한다. 도 31은 손가락 제스처를 탐지하는 사용자 인터페이스 공동(850) 그리고 터치 스크린(860)을 도시한다. 공동(850)은 수축 가능한 3-면 프레임(863)을 연장시킴에 의해 형성된다. 한 화살표(864)가 프레임(863)의 연장-수축 경로를 나타낸다.
도 32에서는, 본 발명의 실시 예에 따라, 한지 둘레에서 회전하는, 손가락 제스처 사용자 입력을 위한 한 공동을 갖는 장치에 대한 개략적 도면을 도시한다. 도 32는 손가락 제스처를 탐지하는 사용자 인터페이스 공동(850) 그리고 디스플레이(635)를 도시하다. 공동(850)은 회전가능 힌지(835)에 의해 장치에 연결된 프레임(863)에 의해 형성된다.
안드로이드 론쳐 애플리케이션(Android Launcher Application)
본 발명의 특징은 사용자 인터페이스 제스처 공동을 안드로이드® 동작 시스템으로 합체하기 위한 아키텍쳐를 포함한다. 유사한 아키텍쳐가 다른 동작 시스템을 위해 사용된다. 상기 안드로이드 론쳐는 초기 UI이며 이로부터 사용자가 애플리케이션을 작동시킨다. 상기 론쳐는 사용자가 "홈" 버튼을 처리하는 때 작동된다. 안드로이드는 스탠다드 론쳐를 제공하며, 많은 제3자 론쳐들이 있다. 많은 장치 벤더들이 그들 자신의 론쳐를 제공한다. 본 발명의 특징은 본 발명에 의해 제공된 특징들을 제공하는 안드로이드 UI를 포함한다; 즉, 스크린으로부터 분리된 터치 입력 공동, 그리고 스크린의 Z-평면과 관련한 터치 정보, 종래의 터치 스크린 장치에 의해 제공된 이진 터치 이상/노-처치 정보(beyond the binary touch/no-touch information).
일반적으로, 안드로이드 론쳐는 멀티플 스크린 내로 나눠진 작업 공간을 제공한다. 사용자는 스윕 제스처를 수행하여, 즉 스크린 폭을 가로질러 손가락을 글라이딩하여, 각기 다른 스크린 사이에서 스위치한다. 작업 공간의 일정 영역이 고정되어 스크린에 따라 스위치되지 않도록 한다. "독(dock)"이라 불리는 이 같이 고정된 영역은 가령 다이얼러, 프로그램 작성자, 그리고 인터넷 조사와 같은 잘 알려진 애플리케이션을 론칭하기 위한 아이콘을 포함한다. 이 같은 작업 공간은 스크린 스위치에 동기되어 슬라이딩하는 모든 스크린에 의해 공유된 백그라운드를 갖는다.
각 스크린에는 위젯, 바로 가기, 폴더 및 라이브 폴더이며, 이때 라이브 폴더는 콘텐츠 공급자의 화면에 실시간 뷰이다. 따라서, 한 라이브 폴더는 사용자가 애플리케이션을 론치할 것을 가용하지 않고 소스로부터 데이터를 디스플레이한다. 따라서 한 라이브 폴더는 연락처, 북마크, 이메일, 재생 목록, 그리고 RSS 피드(feeds)를 표시하도록 사용될 수 있다. 스크린은 대개 그리드 레이아웃을 가져서, 아이콘과 위젯이 어떠한 임의의 위치에도 배치 될 수 없도록 한다. 스크린에서 한 아이템을 오래 홀드하게되면, 그 아이템은 "트래시 빈(trash bin)"으로 이동되거나 드래그 될 수 있다. 스크린의 빈 부분에서 오래 홀드하게되면, 사용자가 스크린에 추가될 새로운 아이템을 선택하도록 매뉴가 오픈된다.
상기 론쳐는 또한 애플리케이션 "드로어(drawer)"를 제공하는 데, 이는 어떤 스크린으로부터 오픈되어서 모든 설치된 애플리케이션의 리스트를 레벨 또는 아이콘으로서 포함한다. 대개 이와 같은 리스트는 스크롤 가능한 리스트이거나 멀티-페이지 그리드 형태이다. 상기 애플리케이션 드로어 내에 애플리케이션 라벨 또는 아이콘을 오래 잡고 있게 되면, 상기 애플리케이션이 애플리케이션이 어떤 스크린에 위치할 수 있는 한 모드로 스위치 된다.
요약하면, 한 론쳐가 위젯, 라이브 폴더 그리고 애프리케이션 시작을 처리할 수 있으며, 사용자 폴더, 바로가기 그리고 월페이퍼(wallpaper)를 처리할 수 있어야 한다.
대부분의 론쳐에서의 작업 공간은 바로가기, 위젯, 폴더 그리고 라이브 폴더를 담고 있는 스크린으로 나뉘어진다. 본 발명을 위한 론쳐의 한 실시 예에서 상기 작업공간은 개념적으로 3D 영역으로 구성되며, 상기 작업 공간 스크린은 다양한 오브젝트, 표면 또는 아이템들의 논리적 그룹핑을 제공하는 가상 룸들 사이에서 분산된다. 상기 론쳐 UI는 명백히 2D 또는 3D로 모델이 될 수 있는 스크린 그래프이다. 본 발명의 실시 예에서, 비록 3D 백그라운드와 2D화면에 적절한 이미지 타입 사이에는 차이가 있다 해도, 상기 론쳐는 3D 영역을 위한 백그라운드 이미지로서 화면을 포함한다. 대부분의경우, 3D 백그라운드의 아웃룩은 디자인 처리에서 분리된 엔티티로서 처리되는 데스크톱 화면과 충분히 다르다.
본 발명의 실시 예에서, 사용자 인터페이스 제스처 공동은 디스플레이 스크린 둘레에서 회전하거나 슬라이드하여 스크린 위로 맵되는 추가의 입력층을 제공하도록 한다. 안드로이드 데스크톱 UI는 두 상이한 모드; 즉, 폐쇄 및 개방 모드를 지지한다. 폐쇄 모드에서, 사용자 인터페이스 공동이 상기 디스플레이 스크린을 둘러싸서 스크린 상으로 맵되는 추가의 입력층을 제공하도록 한다. 오픈 모드에서 상기 공동은 스크린으로부터 분리된다. 오픈 모드에서, 상기 장치는 두 분리된 서브 시스템으로부터, 즉, 스크린으로부터 그리고 공동으로부터, 멀티-차원 입력을 수신한다. 폐쇄 모드에서는, 단지 하나의 입력이 있을 뿐이다; 즉, 사용자가 스크린에서 수행하는 터치들(touches). 이들 터치들은 스크린에 의해 그리고 공동에 의해 탐지된다.
애플리케이션 아키텍쳐(Application Architectures)
사용자 인터페이스(UI) 표시를 위한 다양한 아키텍쳐가 유사한 개념에 기초한다; 즉, UI의 현재 구조를 대표하는 데이터 객체들의 그래프로서, 이는 자주 "모델"로 칭하여지며, "뷰"라 불리는 것 내의 스크린에서 그래프로 만들어진다. 데이터 객체 그래프에서 노드는 텍스트, 이미지, 버튼 그리고 체크박스와 같은 정적인 그리고 상호 작용하는 UI 객체를 나타낸다. 동일한 데이터 객체 그래프에 대한 각기 다른 그래프 표시는 동시에 존재할 수 있다.
UI 모델에 대한 다양한 실시가 사용 중이다. 웹 브라우저 그리고 많은 단어 처리기의 경우, UI의 구조는 다큐먼트 오브젝트 모델(DOM)이며, ANDOID™의 경우, 그 구조는 "뷰 트리"이며, 그리고 FLASH®의 경우, 그 구조는 "장면(scene)"이다. 중요한 개념은 하드웨어 플랫폼, 동작 시스템, 실행시간 환경 그리고 프로그래밍 언어에 관계없이 동일하다. 많은 플랫폼 벤더들은 사용된 UI 모델을 선호한다. ANDROID™ 환경에서, 프로그래머는 "애플리케이션 리소스"라 불리는, XML 파일 세트를 사용하고, UI 모델을 설명하며, 그리고 자바® 프로그램 언어를 사용하도록 추천되며, 이는 DALVIK® 실행 시간 엔진을 위해 바이트 코드로 컴파일된다. 그러나, 개발자 요구는 네가티브 디벨로프먼트 키드(NDK)를 통해, 프로그래밍 언어를 위해 네가티브 C 코드를 사용하고, 스크립팅 층 SLA4를 통해, ANDROID™를 위해 스크립팅 언어를 사용하는 능력으로 안내하였다.
본 발명의 특징은 어떠한 플랫폼, 모델, 프로그래밍 환경 그리고 실행 시간 환경에도 적용될 수 있다. 본 발명의 실시 예에 따라, 상기 UI 데이터 객체 그래프는 사용자 입력 공동에 의해 발생된 사용자 이벤트에 기초하여, 실행 시간으로 조작된다.
상기 UI를 대표하는 데이터 오브젝트 그래프는 텍스트 표시로부터 팽창된다. 특히 웹 브라우저의 경우, 상기 팽창된 형태는 HTML 다큐먼트이며, 상기 평창 형태는 OOXML 다큐먼트일 수 있고, 그리고 SILVERLIGHT® 경우, 상기 팽창된 형태는 XAML 다큐먼트일 수 있다. 한 다큐먼트로부터 팽창되는 것 외에, 데이터 객체 그래프는 웹 브라우저, 다큐먼트 에디터 그리고 데스크톱과 같은 실행 애플리케이션에서 이벤트에 응답하여, 가령 사용자가 UI와 상호 작용하기 위해 키보드 또는 포인터를 사용하는 때 한 이벤트에 응답하여, 조작될 수 있다.
본 발명의 특징은 UI 모델을 조작함에 대한 것이다. 사용자 인터페이스 공동이 터치 스크린, 마우스 그리고 키보드와 같은 다른 입력 장치와 유사한 처리 체인을 통해 상기 UI와 상호 작용한다. 즉, 낮은 수준 장치 드라이버가 사용자 입력 공동으로부터 원시 이벤트를 캡쳐하고 이들을 동작 시스템을 통하여 실행 애플리케이션으로 디스패치하며, 이는 다시 이들을 해석하고 상기 UI 모델에 적절한 수정을 적용시킨다.
본 발명의 실시 예에 따라, 상기 UI 모델과 사용자 상호작용은 특히 다음의 작용을 포함한다. 이동(Moving) - 이동에 응답하여, 현재 뷰의 범위, 즉, UI 모델의 가시적인 부분이 변경된다. 예를 들면, 한 다큐먼트에서 스크롤링, 그리고 ANDROID™ 론쳐 내 각기 다른 테스크톱 스크린 사이에서 스위칭. 선택(Selection) - 선택함에 응답하여, 특정 오브젝트 또는 오브젝트 그룹이 또 다른 작용을 한다; 가령, 파일 아이콘을 선택하고, 그리고 텍스트 에디터로 단어 그룹을 선택한다. 조작 - 조작에 응답하여, 앞서 선택된 오브젝트 또는 오브젝트 그룹이 변경된다: 가령 드로잉 프로그램에서 선택된 이미지를 회전시키고, 그리고 단어 프로세서에서 선택된 텍스트를 굵게 한다. 이송(transfer) - 이송에 응답하여, 앞서 선택된 오브젝트 또는 오브젝트 그룹이 상기 UI 모델 내 새로운 위치로 이동되거나, 또 다른 프로그램을 위해 또 다른 모델로 이송되거나, 또 다른 장치에서 또 다른 모델로 이송된다; 예를 들면, 다큐먼트 내에서 오브젝트를 드래깅-드롭핑하고, 선택된 파일을 새로운 폴더로 이동시킨다.
사용자 입력 공동은 특히 통상적인 PC 환경에서 사용된 입력 이벤트를 다시 발생시키며, 이는 특히 수정자 키이(CTRL, ALT), 추가 마우스 버튼 그리고 스크롤 휠을 포함하는 터치 기반 인터페이스에서는 이용될 수 없다. 중간 장치 드라이버 층이 사용자 입력 공동 이벤트를 표적 애플리케이션에 익숙한 이벤트로 번역하기 때문에, 그와 같은 이벤트를 지지하기 위해 상기 표적 애플리케이션의 프로그램 코드를 수정할 것이 요청되지 않는다. 예로서, 특히 콘텍스트 매뉴 줌, 커트 앤드 페이스트, 스크롤링 및 오픈닝을 포함한다. 따라서, 제3자 애플리케이션은 수정 없이 본 발명의 사용자 입력 공동을 사용할 수 있다.
또한, 본 발명 사용자 입력 공동은 하기에서 설명하는 바와 같이, 특히 오브젝트에 대한 3차원 조작을 포함하는 다양한 신규한 타입의 사용자 입력 사건을 발생시킨다. 이 같은 사건들을 지지하기 위해, 특정 애플리케이션 코드가 요구된다; 즉, 기존 애플리케이션은 수정을 필요로 한다. 상기 애플리케이션 코드의 사건 처리기는 사용자 입력 공동과 병렬로, 스탠다드 입력 장치로부터 사건에 대하여 들으며, 새로운 특징에 해당하는 패턴에 따라 UI 모델을 조작한다.
다양한 선택이 본 발명의 사용자 입력 공동에 의해 제공된 신규한 입력 패턴을 사용하는 새로운 애플리케이션을 기록하기 위해 이용될 수 있다. 모든 자바® 모델에서, 모든 애플리케이션이 자바®프로그래밍 언어로 기록되며 DALVIK® 프레임워크로 컴파일 된다. 이는 ANDROID™ 애플리케이션을 발생시키는 통상의 방법이나, 두 가지 중요한 단점을 갖는다; 즉, 성능과 유연성.
선택적인 모델이 JAVA® 그리고 C를 결합시킨다. 이 같은 모델에서, 상기 프로그램 논리가 JAVA®로 기록되며 시간-중요 부분은 C로 기록되고, JAVA® 네이티브 인터페이스(JNI)를 통하여 JAVA® 층에 노출된다. 이와 같이 함으로써, 성능을 개선시키고, 그리고 코드가 필요에 따라 JAVA® 층으로부터 C 층으로 포트될 수 있기 때문에, 이는 프로젝트를 시작하기 위한 좋은 방법이다.
그러나 또 다른 선택적 모델은 자바® 스크립팅 그리고 C를 결합한다. 이 같은 모델에서, 역시 상기 프로그램 논리는 자바®로 기록되며 시간-중요 부분은 C로 기록되고, 그리고 애플리케이션 동적 부분은 PYTHON®, Ruby 또는 JAVASCRIPT®와 같은 자바®층에 의해 호스트되고, 실시간으로 해석되는 스크립팅 언어로 기록된다. 이는 개발 중에 유연성을 개선시키는데, 애플리케이션을 다시 컴파일하고 다시 설치할 필요 없이 작은 변화가 만들어질 수 있기 때문이다.
각기 다른 모델은 스크립팅 및 C만을 사용한다. 이는 애플리케이션이 자바™층 없이 네이티브 애플리케이션으로서 출현하는 어프로치이며, 동적 부분이 원격 절차 콜(RPC)을 통해 애플리케이션과 통신하는 스크립팅 층에 의해 처리된다. 이는 복잡하지만, 그러나 매우 유연한 모델이고, 게이밍(gaming)에서 통상 사용된다.
론쳐 UI는 2D 또는 3D로 모델이 만들어진 장면 그래프이다. 안드로이드™ 리소스 파일로서 UI 정의 시스템에 대한 어떠한 연결도 없다; 모든 것이 단일 뷰 내에 담겨 있다. 도 33을 참조한다. 이는 본 발명의 실시 예에 따라, 발사 장치 사용자 인터페이스가 어떻게 만들어지는가를 개략적으로 설명하는 흐름도이다. 도 33은 단 하나의 GLSurfaceView 내에서 론쳐 UI가 어떻게 처리되는 가를 도시하며, 이는 렌더러(renderer)를 사용하여 완전한 론쳐 UI 장면을 만들도록 한다.
애플리케이션(Applications)
본 발명의 손가락 제스처 사용자 인터페이스가 많은 다양한 애플리케이션에서 광범위한 장점을 갖는다. 특히 이들 애플리케이션 가운데 몇 가지가 다음 설명에서 설명된다.
본 발명의 실시 예에 따라, 공동 내로 삽입된 오브젝트(물체)는 두 개의 손가락이다; 즉, (i) 시계 방향 회전, (ii) 시계 반대 방향 회전, (iii) 손가락 핀치, 그리고 (iv) 손가락 펼침.
본 발명의 한 실시 예에 따라, 디스플레이는 공동에 삽입되는 오브젝트에 대한 응답으로 3 차원으로 회전되는 그래픽을 만드는, 입체 뷰 포트이다.
본 발명의 한 실시 예에 따라, 상기 디스플레이는 한 이미지를 보여주고 또는 한 손가락 제스처에 응답하여 한 다큐먼트 또는 리스트를 스크롤하고, 그리고 한 이미지를 줌하거나, 오브젝트를 회전시키거나, 두 손가락 제스처에 응답하여 한 파일을 개방한다.
본 발명의 실시 예에 따라, 상기 디스플레이는 이동 제스처에 응답하여 위젯 스냅 샷, 문서, 웹 페이지 북마크, 앨범 아트워크 또는 사진에 대한 애니메이션 탐색을 하며, 그리고 두 손가락 제스처에 응답하여 위젯, 문서, 웹 페이지, 앨범 또는 사진을 개방하도록 한다.
본 발명의 한 실시 예에 따라, 상기 디스플레이는 이동 제스처에 응답하여 위젯 스냅 샷, 문서, 웹 페이지 북마크, 앨범 아트워크 또는 사진에 대한 애니메이션 탐색을 하며, 그리고 제1의 두 손가락 제스처에 응답하여 느린 애니메이션을 만들고; 제2의 두 손가락 제스처에 응답하여 위젯, 문서, 웹 페이지, 앨범 또는 사진을 개방하도록 하며; 그리고 제3의 두 손가락 제스처에 응답하여 이들을 폐쇄하도록 한다.
본 발명의 한 실시 예에 따라, 커트(cut) 및 페이스트 루틴이 제공된다. 이 같은 루틴에서, 사용자는 한 손으로 디스플레이에서 텍스트 또는 오브젝트를 터치하여 텍스트 또는 오브젝트를 선택한다. 다른 손의 엄지 그리고 인지는 사용자 입력 공동 프레임 내로 들어가고, 함께 핀치 제츠처로 이동하며, 그리고 프레임으로부터 제거된다. 이 것이 상기 텍스트 또는 오브젝트를 상징적으로 잡는 커트 오퍼레이션이다. 상기 커트 오브젝트의 표적 위치는 한 손으로 디스플레이를 터치함에 의해 표시되며, 다음에 함께 모아진 엄지와 집게의 다른 손을 사용자 입력 프레임 내로 삽입시키고, 다음에 이들을 펼침 제스처로 떨어 지게 하여, 이는 상징적으로 이전에 붙잡았던 텍스트 또는 오브젝트를 새로운 위치로 떨어뜨림을 나타낸다.
본 발명의 한 실시 예에 따라, 애플리케이션 프로그램이 한 콘텍스트를 규정하고, 그리고 상기 콘텍스트와 관련된 기능이 손가락 제스처에 응답하여 작동된다. 예를 들면, 디스플레이가 예각으로 공동 내에서 손가락을 기울임에 응답하여 콘텍스트-관련 옵션의 메뉴를 만든다.
본 발명의 실시 예에 따라, 디스플레이는 이미지를 만들며, 이미지 내 선택된 위치를 식별하고, 그리고 손가락의 제스처에 응답하여 선택된 위치를 처리한다.
본 발명의 실시 예에 따라, 상기 디스플레이는 터치 스크린 디스플레이이며, 사용자 인터페이스가 터치 스크린에서 손가락 제스처를 탐지하고 또한 공동 내 손가락 제스처를 탐지한다. 상기 디스플레이는 터치 스크린에서 손가락 제스처에 응답하여 이미지를 보여주고, 공동 내 손가락 제스처에 응답하여 이미지의 크기를 조정한다. 터치 스크린에서의 손가락 제스처는 특히 손가락 이동이며, 그리고 공동 내 손가락 제스처는 특히 손가락 핀치 또는 손가락 이동이다.
본 발명의 실시 에에 따라, 하나 또는 둘 이상의 오브젝트가 만들어지며, 이들 중 하나가 선택된 오브젝트 인 것으로 표시되고, 그리고 애플리케이션 프로그램이 사용자 입력 공동에서 수행된 손가락 제스처에 응답하여 상기 선택된 오브젝트를 처리한다. 첫 번째 예로서, 선택된 오브젝트는 한 서류 내 선택된 텍스트이며, 애플리케이션 프로그램이 상기 선택된 텍스트를 상기 서류 내 그 위치에 유지시키고 선택되지 않은 텍스트를 이동시키며, 이에 의해 공동 내 손가락 제스처에 응답하여, 서류 내 다른 위치에 상기 선택된 텍스트를 위치시킨다. 또한, 상기 선택된 텍스트는 공동 내 두 번째 손가락 제스처에 응답하여 다른 위치에 고정된다.
두 번째 예로서, 상기 선택된 오브젝트는 아이콘이고, 그리고 애플리케이션 프로그램이 디스플레이에서 상기 선택된 아이콘을 그 위치에 유지시키며 선택되지 않은 아이콘은 이동시키고, 이에 의해 상기 공동 내 한 손가락 제스처에 응답하여 UI 내 한 다른 위치에 상기 선택된 아이콘을 위치시킨다. 예를 들면, 상기 공동 내 사용자 제스처, 특히 한 이동 제스처에 응답하여, 현재 안드로이드 스크린에서 선택되지 않은 모든 아이콘이 디스플레이에서 그래프적으로 일소되고 한 다른 스크린으로부터의 아이콘이 그래프적으로 상기 디스플레이 위로 이동된다. 이와 같이 하여 상기 선택된 아이콘을 한 다른 안드로이드 스크린에 위치시킨다. 또한, 상기 아이콘 텍스트는 제2 손가락 제스처, 특히 사용자의 손가락을 상기 공동으로부터 제거시킴에 응답하여 다른 위치에 고정된다.
세 번째 예로서, 상기 선택된 오브젝트는 접촉 리스트에서 한 엔트리이며, 애플리케이션 프로그램이 상기 공동 내 제1 손가락 제스처에 응답하여 상기 선택된 엔트리로 전화 호출을 개시하며, 상기 공동 내 제2 손가락 제스처에 응답하여 상기 선택된 엔트리로 어드레스된 SMS 다이얼로그 박스를 개방한다.
네 번째 예로서, 상기 선택된 오브젝트는 캘린더 내 선택된 시간 간격이며, 상기 애플리케이션 프로그램이 상기 캘린더로 하여금 레졸루션을 증가시키거나 감소 시킬 수 있도록 하여, 상기 선택된 시간 간격 주변에서 중심을 갖는 각각 더욱 큰 또는 작은 시간 간격을 제공하도록 한다.
다섯 번째 예로서, 상기 선택된 오브젝트는 한 파일이며, 상기 애플리케이션은 파일 매니저이다. 상기 파일 매니저는 공동 내 최초 손가락 제스처에 응답하여 선택된 파일의 특성을 제공하며, 상기 최초 제스처의 확장에 응답하여 선택된 파일을 개방한다. 또한, 상기 파일 시스템은 멀티플 레벨 폴더를 가지며, 상기 파일 매니저가 상기 공동 내 최초 제스처에 응답하여 선택된 파일의 특성을 제공하고, 상기 최초 제스처 확장에 응답하여 선택된 파일을 그 폴더 내 한 아이콘으로서 디스플레이 하고, 그리고 상기 최초 제스처의 또 다른 확장에 응답하여 상기 폴더를 다음 단계 폴더 내 한 아이콘으로서 디스플레이 한다.
여섯 번째 예로서, 선택된 오브젝트는 소셜 네트워크 내 사람이며, 그리고 애플리케이션 프로그램이 소셜 네트워크 애플리케이션이다. 상기 애플리케이션이 공동 내 최초 제스처에 응답하여 제1 다수의 사람을 선택된 사람에게 연결되도록 하며, 최초 제스처의 확장에 응답하여 제2 다수의 사람을 제1 다수의 사람에 연결되도록 한다.
일곱 번째 예로서, 상기 선택된 오브젝트가 음악 라이브러리 내 노래 또는 가수이며, 애플리케이션 프로그램은 뮤직 라이브러리 매니저이다. 상기 뮤직 라이브러리 매니저는 제1 다수의 노래가 공동 내 최초 손가락 제스처에 응답하여 선택된 노래 또는 가수에 관련되도록 하며, 최초 제스처의 확장에 응답하여 제2 다수의 노래를 제1 다수의 노래에 연결되도록 한다.
여덟 번째 예로서, 상기 선택된 오브젝트가 레스토랑 또는 호텔이며, 애플리케이션 프로그램은 레스토랑 또는 호텔을 위한 예약 프로그램이다. 상기 예약 프로그램은 공동 내 최초 손가락 제스처에 응답하여, 스타일, 가격, 위치 또는 다른 파라미터와 관련하여, 선택된 레스토랑 또는 호텔과 유사한 다수의 레스토랑 또는 호텔를 디스플레이하고, 최초 제스처의 확장에 응답하여 추가의 유사한 레스토랑 또는 호텔을 디스플레이한다.
도 34에서는, 본 발명의 실시 예에 따라, 3차원 모델링 입력 시스템을 개략적으로 도시한다. 프레임(863) 내 상기 공동은 커피 머그와 같은 솔리드 오브젝트 위에 올려 놓이는 것으로 도시된다. 이는 아래를 향하는 화살표에 의해 표시된다. 아래로 놓이는 때 상기 프레임에 의해 실행된 일련의 탐지가 오브젝트의 2-D 슬라이스들로서 결합되어서 솔리드 오브젝트의 3-D 모델을 제공하도록 한다.
한 선택적 실시 예는 에미터 또는 수신기를 상기 공동의 한 에지를 따라 위치하는 길고 얇은 광선 가이드 한 단부로 결합시킴에 의해 시스템 내 컴포넌트의 수를 줄인다. 이와 같은 광선 가이드는 광학적 터치 패널을 위한 조명(ILLUMINATION FOR OPTICAL TOUCH PANEL)이라는 명칭으로 Lieberman 등에게 허여된 미국 특허 제 7,333,095호에서 설명된다.
사용자 제스처 공동 컴포넌트 캘리브레이션(Calibration of User Gesture Cavity Components)
오브젝트 탐지에 대한 에미터 그리고 탐지기의 눈금 조정이 2011. 3. 22. 출원되고 2011. 7. 14. 미국 공개 공보 제2011/0169781호로 공개된 "터치 스크린 눈금 조정 그리고 갱신 방법"이라는 명칭의 출원인의 동시 계류 출원 번호 제13/053,229호에서 설명된다.
광선 기반 터치 스크린을 위한 ASIC 제어기(ASIC Controller for Light-Based Touch Screens)
본 발명의 특징은 단일 디바이스 내 사용자 제스처 입력 공동과 광선 기반 터치 스크린 모두를 제어하기 위해, 프로그램 가능 상태 머신 디자인 그리고 사용에 대한 것이다. 제어기가 터치 스크린 그리고 사용자 제스처 입력 공동 모두에서의 일련의 에미터 그리고 탐지기에 대하여 스캐닝 프로그램을 실행한다. 상기 스캐닝 프로그램은 스캔 시퀀스, 전류 레벨 그리고 펄스 폭을 결정한다. 상기 스캔 시퀀스 레지스터를 구성시킴으로써, 상기 호스트 프로세서가 어느 LED-PD 쌍이 작동되는 가를 결정한다. 따라서 제어기가 스크린을 둘러싸는 LED-PD 쌍을 위한, 사용자 입력 제스처 공동 내 LED-PD 쌍을 위한, 또는 이들 모두를 작동시킨다. 상기 호스트 프로세서는 LED 각각 그리고 PD 각각을 스크린 또는 공동 어느 하나에 관련시키며 그에 따라 그 결과를 처리한다. 예를 들면, 스크린에 터치하는 것은 입력 공동 내 사용자 제스처보다 더욱 정밀한 것을 요구한다. 따라서, 스크린에 대한 탐지 결과가 일시적이고 공간적으로 필터되며, 입력 공동에서의 탐지 결과는 필터되지 않거나, 또는 택일적으로 공간적으로만 필터되며, 선택적으로 각기 다른 세트의 필터 계수를 사용한다. 또한, 스캔 시퀀스 구성 레지스터는 오버샘플 작동 순서를 가능하게 하며, 특히 각 에미터를 두 개의 탐지기로 그리고 하나씩 순서로 작용시킴을 가능하게 하며, 이때 각 에미터는 단 하나의 탐지기로 작동된다. 대개, 사용자 입력 공동 주변 에미터 그리고 탐지기는 서로 대향하도록 정렬된다. 본 발명의 일정 실시 예에서, 적어도 두 세트의 스캔 구성 레지스터가 제공되어 두 각기 다른 스캔 패턴을 구성시킬 수 있도록 한다; 즉 상기 스크린 주변 에미터와 탐지기를 위한 한 세트, 그리고 상기 사용자 입력 공동 주변 에미터와 탐지기를 위한 한 세트. 또 다른 실시 예에서, 스크린을 위한 스캔 스퀀스가 상기 사용자 입력 공동을 위한 스캔 시퀀스로부터 분리되어 구성되고 실행된다.
제어기는 LED 전류 제어를 위한 통합 LED 드라이버, 포토 탐지기 전류 측정을 위한 통합 수신기 드라이버, 그리고 직렬 주변 인터페이스(SPI)와 같은, 스탠다드 버스 인터페이스를 사용하여 상기 제어기와 호스트 처리기 사이 통신을 가능하게 하는 통합 A/D 변환기를 포함한다.
본 발명에 따라, 한 프로그램이 예를 들면 SPI를 통해 제어기로 적재된다. 그 뒤에, 스캐닝 실행이 상기 호스트 프로세서로부터 독립적으로 실행되어, 전체 시스템 파워 소모를 최적합 하게 한다. 상기 스캔 데이터가 준비되는 때, 상기 제어기는 INT 핀을 통해 상기 호스트 프로세서로 한 인터럽트를 발생시킨다.
도 35에서는, 본 발명의 실시 예에 따라, 광선-기반 터치 스크린(860) 그리고 사용자 입력 공동(850)을 위한 ASIC의 단순 블록 도를 도시한다. 제어기(776)는 터치 스크린(860) 그리고 공동(850)을 둘러싸는 에미터(200) 그리고 수신기(300)를 활성화한다.
도 36에서는, 본 발명의 실시 예에 따라, 광선-기반 터치 스크린 및 사용자 입력 공동의 제어기를 위한 칩 패키지(731)의 회로 도면이다. 도 36에서 도시된 바와 같이, 상기 칩 패키지의 바깥 측에 있는 다수의 광 에미터(200)를 선택적으로 작동시키기 위한 에미터 구동기 회로(740), 그리고 광 에미터(200)를 에미터 구동기 회로(740)에 연결시키기 위한 신호 안내 핀(732)을 포함한다. 에미터 구동기 회로(740)는 2009년 2월 15일 출원된 '광-기반 터치 스크린'이라는 명칭의 출원인의 동시 계류 특허 출원에서 설명되며, 본원 발명에서 참고로 원용된다. 특히, 2009년 7월 30일 출원된 미국 공보 제2009/0189878호에서 개시된 출원의 문단 [0073], 문단 [0087] - [0091], 그리고 도 11이 참고로 인용된다.
에미터 구동기 회로(740)는 프로그램 가능 전류 소스를 통해 각 에미터-탐지기 쌍을 위한 개별적인 광 에미터 펄스 지속시간 그리고 펄스 전류를 구성하기 위한 회로(742)를 포함한다. 상기 회로(742)는 2011년 3월 21일 출원된 '시프트-정렬 에미터 및 수신기 렌즈'라는 명칭의 출원인의 동시 계류 특허 출원 미국 출원 번호 제13/052511호에서 설명되며, 그 개시 내용이 참고로 원용된다. 특히, 2011년 7월 7일 제출된 미국 공보 제2011/0163998호에서 공개된 출원의 문단 [0343] - [0358] 및 도 99-101이 참고로 원용된다.
칩 패키지(731)는 칩 패키지 바깥 쪽에 있는 다수의 광 탐지기(300)를 선택적으로 작동시키기 위한 탐지기 구동기 회로(750), 그리고 광 탐지기(300)를 탐지기 구동기 회로(750)로 연결시키기 위한 신호 안내 핀(733)을 포함한다. 탐지기 구동기 회로(750)는 연속적 피드백 대역 통과 필터를 수행함에 의해 광 탐지기(300)로부터 수신된 전류를 필터하기 위한 회로(755), 그리고 상기 대역 통과 필터된 전류를 디지털화 하기 위한 회로(756)를 포함한다. 회로(755)는 상기 언급된 미국 공개 공보 제2009/0189878A1호에서 개시된 출원의 문단 [0076], 문단 [107] - [0163], 그리고 도 14-23B에서 설명된다. 칩 패키지(731)는 또한 광 탐지기(300)에서 탐지된 광선의 측정된 양을 나타내는 탐지 신호를 발생시키기 위해 탐지기 신호 처리 회로(753)를 포함한다.
칩 패키지(731)는 호스트 처리기(722)와 통신하기 위한 I/O 핀(736), 그리고 파워 소스에 연결하기 위한 안내 핀을 더욱 포함한다. 칩 패키지(731)는 에미터 구동기 회로(740) 그리고 탐지기 구동기 회로(750)를 조정하기 위한 제어기 회로(759)를 더욱 포함한다. 제어기 회로(759)는 직렬 주변 인터페이스(SPI)(775)를 위한 버스 스탠다드를 사용하여 호스트 프로세서(731)와 통신한다. 칩 패키지(731)는 제어기 회로(759)의 동작을 광선-기반 터치 스크린을 위한 적어도 하나의 추가 제어기(774)와 조정하기 위한 칩 선택(CS) 핀(737)을 더욱 포함한다.
도 36에서 도시된 제어기는 상기 언급된 요소 모두를 칩 패키지(731) 내에 패키지하며, (i) 이에 의해 50 개 에미터-수신 쌍과 같은 전체 스캔 시퀀스의 자동 실행을 가능하게 하며, 그리고 (ii) 이에 의해 호스트 프로세서(772)에 의한 뒤이은 분석을 위해 레지스터 어레이 내에 탐지 신호들을 저장한다.
도 37에서, 본 발명의 실시 예에 따라, 칩 패키지(731)의 핀(732)들로의 연결을 위해, 각 행에서 4개 또는 5개 광 에미터를 갖는 6개 행의 광 에미터에 대한 회로 도면이 도시된다. 도 35에서 도시된 바와 같이, 광 에미터의 제1 부분이 터치 스크린(860)의 두 가장자리 주변에 물리적으로 배치되고, 제 2 부분이 입력 공동(850) 주변에 물리적으로 배치되지만, 11개의 라인 LED_ROWl, LED_ROW6 그리고 LED_COLl, LED_COL5가 30 개 광 에미터를 위한 2 차원의 어드레싱을 제공한다. 테이블 III은 LED들이 어떻게 LED_ROW 그리고 LED_COL 핀들로 맵핑되는 가를 도시한다. 특히, LED 매트릭스는 제어기에서 m + n I/O 핀에 의해 지지된 LED들의 m x n 어레이를 포함한다.
Figure 112013106644986-pat00003
따라서, LED는 행과 열 I/O 핀 선택에 의해 평가된다. 상기 제어기는 행과 열을 선택하기 위한 푸시-풀 구동기를 포함한다. 상기 LED들의 행과 열 좌표가 상기 LED들과 푸시-풀 구동기의 물리적인 위치와 무관하다는 것은 잘 알려진 사실이다. 특히, 상기 LED들은 장방형 매트릭스로 물리적으로 위치하여질 필요가 없다.
본 발명 제어기의 선택적 실시 예에서, 전류 소스 구동기가 푸시-풀 구동기를 대신하여 사용된다. 본 발명 제어기의 또 다른 선택적 실시 예에서, 푸시-풀 구동기의 일부는 전류 소스 구동기와 결합되며, 푸시-풀 구동기의 다른 부분은 전류 싱크 구동기와 결합된다.
본 발명의 제어기가 일련의 에미터-수신기 쌍을 스캔하는 때, LED 구동기가 LED 전류 제어 레지스터 그리고 LED 펄스 길이 제어 레지스터 내 세팅에 따라 한 LED로 일정 전류의 양을 공급한다. LED들은 스캔 레인지 레지스터 내 세팅에 따라 작동하도록 선택된다. 상기 스캔 레인지 레지스터들은 스크린 에지 각각을 따라 그리고 공동 에지를 따라 작동될 제1 LED, 에지 각각을 따라 작동될 LED의 수, 그리고 작동된 LED들 사이 단계 팩터(step factor)를 지정한다. 0 이라는 단계 팩터는 각 단계에서 다음 LED가 작동됨을 나타내며, 1 이라는 단계 팩터는 하나 걸러 LED가 작동됨을 나타낸다. 따라서, 홀수 또는 짝수 LED만을 작동시키기 위해서는, 1 이라는 단계 팩터가 사용된다. 2 또는 그 이상 숫자의 단계 팩터는 2 또는 그 이상의 LED들 각각의 단계를 위해 사용된다. 추가의 한 레지스터가 LED 각각으로 작동된 PD들의 수를 구성한다. 0이라는 값은 LED 각각이 단일의 상응하는 PD로 작동됨을 나타내며, 1 이라는 값은 LED 각각이 두 개의 PD들로 작동됨을 나타낸다. LED 각각으로 작동된 PD들의 수는 상기 터치 스크린 주변에서 이용될 수 있는 PD들의 수와 같다. 대개, 제어기가 스크린 요소들 그리고 공동 요소들을 위한 분리된 스캔 시퀀스를 작동시킨다. 이들 작동은 시퀀스 각각에 포함된 요소들의 인덱스로 차별화된다. 예를 들면, 요소(1-20)가 스크린 LED들이고, 그리고 요소(21-30)는 공동 LED들이다.
본 발명의 제어기는 요구되는 LED들로 전류를 보내기 위해 한 mux를 제어한다. 상기 LED mux 제어는 제어 레지스터를 스캐닝하여 세트된다. 상기 제어기는 구동기들이 상기 LED들에 펄스를 제공하는 때 바른 PD 수신기를 자동으로 동기화한다. 12-비트 ADC 수신기 정보가 PD 데이터 레지스터에 저장된다. 스캐닝이 완성되자 마자, 제어기는 호스트 처리기로 인터럽트를 발생시키며, 자동으로 스탠바이 모드를 입력한다.
일정 터치 스크린 구성에서, 스크린-관련 에미터가 수신기들과 시프트-정렬되며, 에미터들이 두 개 이상의 수신기에 의해 탐지되고 수신기를 탐지하는 때마다 한번 또는 두 번 이상 작동된다. 예를 들면, 한 에미터가 신속하게 계속하여 3 번 작동 될 수 있음, 매 작동마다 다른 수신기가 작동된다. 또한, 에미터 작동 사이 간격 동안 한 수신기가 더욱 작동되어 주변 광선 세기를 결정하도록 한다.
또 다른 터치 스크린 구성에서, 스크린-관련 에미터 그리고 수신기들이 정렬되며, 그러나 에미터 각각은 두 개 이상의 수신기에 의해 탐자되며, 에미터 각각은 수신기를 각각 탐지하기 위해 분리하여 작동된다. 에미터-수신기 작동 패턴들은 2010년 1월 5일, 출원된 '터치 스크린의 스캐닝'이라는 명칭의 출원인의 동시 계류 특허 출원, 미국 출원 제12/667,692호에서 설명되며, 그 내용이 본원에서 참고로 원용된다. 특히 2011년 2월 24일 미국 공보 제 2011/0043485호로 공개된 출원의 문단 [0029], [0030], [0033] 및 [0034]이 참고로 원용된다.
본 발명의 한 실시 예에 따라, 제어기는 단순한 상태 머신이고 ARM 코어와 같은 프로세서 코어를 포함하지 않는다. 따라서, 본 발명 제어기의 가격은 저렴하다. 본 발명의 제어기를 사용하는 광선-기반 터치 스크린은 비교 대상의 용량성 터치 스크린보다 가격이 저렴한데, 이는 용량성 터치 스크린이 많은 수의 신호를 통합하고 터치 위치를 계산하기 위해 프로세서 코어를 필요로 하기 때문이다. 신속한 응답 시간을 달성하기 위해, 이 같은 계산을 호스트 프로세서로 오프로딩하는 대신, 용량성 터치 스크린은 지정된 프로세서 코어를 사용하여 터치 위치를 계산하도록 한다. 다음에 이는 용량성 터치 스크린을 위한 재료의 비용을 증가시킨다. 용량성 터치 스크린과 구별하여, 본 발명의 광선-기반 터치 스크린은 두 이웃하는 수신기 값들을 사용하여 한 축을 따라 터치 위치를 계산하도록 하며, 이는 호스트가 한 터치 위치를 계산할 수 있도록 하며, 결과적으로 저-비용 제어기의 사용을 가능하게 한다. 또한, 본 발명의 가르침에 따른 장치들은 터치 스크린과 사용자 제스처 공동 모두를 위한 동일한 제어기를 사용함에 의해 효율적으로 자원을 사용한다.
본 발명은 작은 크기, 중간 크기, 그리고 큰 크기 스크린을 포함하여, 터치 감지 스크린을 갖는 전자 장치로 광범위 적용을 갖는다. 이 같은 장치로는 특히, 컴퓨터, 홈 엔터테인먼트 시스템, 카 엔터테인먼트 시스템, 보안 시스템, PDAs, 핸드 폰, 전자 게임 그리고 장난감, 디지털 포토 프레임, 디지털 악기, 전자-북 리더, TVs 그리고 GPS 네비게이터를 포함한다.
앞서 명세서 설명에서, 본 발명은 특정 예시적 실시 예에 대하여 설명되었다. 그러나 첨부된 청구범위에서 기재된 본 발명의 넓은 사상 및 범위를 벗어나지 않는 한도에서 다양한 수정 및 변경이 상기 특정 예시적 실시 예에 대하여 가해질 수 있다. 따라서, 상기 명세서 및 도면은 본 발명에 대한 제한 목적이 아니라 설명 목적으로 이해되어야 한다.

Claims (18)

  1. 하우징의 정면 외측 표면 내 한 정면 개구(opening), 하우징의 배면 외측 표면 내 한 배면 개구, 그리고 공동을 형성하기 위해 상기 정면 개구로부터 상기 배면 개구로 연장되는 내측 측벽을 포함하는 전자 장치를 위한 하우징;
    상기 하우징에 장착되며, 전체 공동이 디스플레이 측면을 따라 배치되고, 디스플레이로부터 분리되는 디스플레이;
    상기 내측 측면 벽에 장착되며, 상기 공동 내에 삽입된 손가락의 병진운동 제스처를 탐지하도록 동작하는 탐지기; 그리고
    상기 탐지기와 디스플레이에 연결되어, 사용자 인터페이스 입력 명령으로서 상기 탐지된 제스처를 해석하여 상기 디스플레이 상에 만들어진 그래픽을 수정하기 위한 프로세서를 포함하는 전자 장치를 위한 손가락 제스처 사용자 인터페이스.
  2. 제1항에 있어서, 상기 하우징이 두 개의 섹션을 서로를 향하여 접을 수 있도록 하는 힌지에의해 연결된 제1 및 제2 섹션을 포함하고, 그리고 상기 디스플레이가 상기 제1 섹션 내에 장착되고 상기 공동이 상기 제2 섹션에서 상기 섹션들이 접히는 때 제1 섹션의 에지 주위에 맞는 프레임 내에 위치함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  3. 제1항에 있어서, 상기 공동이 상기 장치를 운반하기 위한 핸들 내에 위치함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  4. 제1 항에 있어서, 상기 공동이 세 개의 측면상에서 전자 장치를 둘러싸는 오므릴 수 있는 프레임을 연장함에 의해 형성됨을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  5. 제1항에 있어서, 상기 프로세서가 상기 운동 제스처를 만들어진 그래픽을 확대하기 위한 명령으로서 해석함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  6. 제1항에 있어서, 상기 탐지기가 손가락이 공동 내에 삽입됨에 응답하여 5개 이상의 위치와 방위 속성; 즉, (i) x-축 위치; (ii) y-축 위치; (iii) z-축 위치; (iv) xz-평면에서 편각, (v) yz-평면에서 편각 속성을 탐지할 수 있도록 동작하며, 상기 위치와 편각들이 공동 상부 개구의 길이와 폭을 따라 x와 y 축을, 그리고 상부로부터 저부까지 높이를 따라 z축을 기준으로 함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  7. 제1항에 있어서, 상기 탐지기가 상기 공동 안쪽 멀티-손가락 펼침 제스처를 탐지하도록 더욱 동작함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  8. 제1항에 있어서, 상기 프로세서가 이동 제스처 센서를 통해 탐지 함에 응답하여 위젯, 문서, 웹 페이지 북마크, 앨범 아트워크 또는 사진의 스냅 샷의 애니메이션 탐색을 할 수 있도록 함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  9. 제8항에 있어서, 상기 탐지기가 공동 안쪽 멀티-손가락 펼침 제스처를 탐지하도록 더욱 동작할 수 있으며, 상기 프로세서가 상기 탐지된 멀티-손가락 펼침 제스처를 위젯, 문서, 웹 페이지, 앨범 또는 사진을 오픈하기 위한 사용자 인터페이스 입력 명령으로서 해석함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  10. 제9항에 있어서, 상기 탐지기가 공동 안쪽 멀티-손가락 핀치 제스처를 탐지하도록 더욱 동작할 수 있으며, 상기 프로세서가 상기 탐지된 멀티-손가락 핀치 제스처를 오픈 위젯, 문서, 웹 페이지, 앨범 또는 사진을 클로즈하기 위한 사용자 입력 명령으로서 해석함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  11. 제1항에 있어서, 상기 탐지기가 상부로부터 저부까지 공동의 높이를 따라 손가락의 삽입 속도를 탐지하도록 더욱 동작할 수 있으며, 사용자 인터페이스 입력 명령의 속성이 상기 속도에 따라 정해짐을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  12. 제1항에 있어서, 상기 탐지기가 상기 공동의 상부 개구 길이와 깊이를 따라 x 축과 y 축 그리고 상기 공동의 높이를 따라 z축을 기준으로 공동 안쪽으로 손가락의 두 편각, 즉 (i) xz-평면에서 편각; 그리고 (ii) yz-평면에서 편각을 탐지하도록 더욱 동작할 수 있으며, 그리고
    상기 프로세서가 상기 편각을 사용자 인터페이스 입력 명령으로서 해석함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  13. 제 12항에 있어서, 상기 공동의 안쪽에서 손가락 기울임을 포함하는 제스처가 상기 디스플레이로 하여금 한 팝-업 메뉴를 만들도록 함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  14. 제1항에 있어서, 상기 탐지기가 상기 공동 안쪽에서 멀티-손가락 회전을 탐지하도록 더욱 동작할 수 있음을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  15. 제14항에 있어서, 상기 탐지가가 상기 멀티-손가락 회전 제스처를 탐지함에 응답하여, 상기 프로세서가 상기 디스플레이로 하여금 디스플레이된 이미지의 회전을 만들도록 함을 특징으로 하는 전자 장치를 위한 광선-기반 손가락 제스처 사용자 인터페이스.
  16. 하우징의 정면 외측 표면 내 한 개구 그리고 공동을 형성하기 위해 상기 개구로부터 하우징 내로 연장되는 내측 측벽을 포함하는 전자 장치를 위한 하우징;
    상기 하우징에 장착되며, 전체 공동이 디스플레이 측면을 따라 배치되고, 디스플레이로부터 분리되는 디스플레이;
    상기 내측 측면 벽에 장착되며, 상기 공동의 개구 길이와 깊이를 따라 x 축과 y 축 그리고 상기 공동의 깊이를 따라 z축을 기준으로 공동 안쪽으로 손가락의 두 편각, 즉 xz-평면에서 편각과 yz-평면에서 편각을 탐지하도록 동작하는 탐지기; 그리고
    상기 탐지기와 디스플레이에 연결되어, 사용자 인터페이스 입력 명령으로서 상기 탐지된 편각 내 변경을 해석하기 위한 프로세서를 포함하는 전자 장치를 위한 손가락 제스처 사용자 인터페이스.
  17. 제16항에 있어서, 상기 프로세서가 상기 공동 안쪽에서 손가락을 기울임을 포함하는 제스처를 탐지하는 탐지기에 응답하여 상기 디스플레이가 팝-업 메뉴를 만들도록 함을 특징으로 하는 전자 장치를 위한 손가락 제스처 사용자 인터페이스.
  18. 제16항에 있어서 상기 프로세서가 상기 공동 안쪽에서 손가락을 기울임을 포함하는 제스처를 탐지하는 탐지기에 응답하여 상기 디스플레이가 디스플레이된 이미지를 회전시키도록 함을 특징으로 하는 전자 장치를 위한 손가락 제스처 사용자 인터페이스.
KR1020137031088A 2011-11-30 2012-11-14 광선-기반 손가락 제스처 사용자 인터페이스 KR101365394B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161564868P 2011-11-30 2011-11-30
US61/564,868 2011-11-30
PCT/US2012/064901 WO2013081819A1 (en) 2011-11-30 2012-11-14 Light-based finger gesture user interface

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020137024953A Division KR101363726B1 (ko) 2011-11-30 2012-11-14 광선-기반 손가락 제스처 사용자 인터페이스

Publications (2)

Publication Number Publication Date
KR20130135398A KR20130135398A (ko) 2013-12-10
KR101365394B1 true KR101365394B1 (ko) 2014-02-19

Family

ID=48535944

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020137031088A KR101365394B1 (ko) 2011-11-30 2012-11-14 광선-기반 손가락 제스처 사용자 인터페이스
KR1020137024953A KR101363726B1 (ko) 2011-11-30 2012-11-14 광선-기반 손가락 제스처 사용자 인터페이스

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020137024953A KR101363726B1 (ko) 2011-11-30 2012-11-14 광선-기반 손가락 제스처 사용자 인터페이스

Country Status (9)

Country Link
US (4) US8416217B1 (ko)
EP (1) EP2666075B1 (ko)
JP (2) JP5692946B2 (ko)
KR (2) KR101365394B1 (ko)
CN (1) CN103946766B (ko)
AU (1) AU2012346380B2 (ko)
CA (1) CA2823651C (ko)
SG (2) SG10201402952RA (ko)
WO (1) WO2013081819A1 (ko)

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8416217B1 (en) 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
US8896575B2 (en) * 2002-11-04 2014-11-25 Neonode Inc. Pressure-sensitive touch screen
US7996045B1 (en) 2007-11-09 2011-08-09 Google Inc. Providing interactive alert information
KR101544364B1 (ko) 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US8487877B2 (en) 2010-06-10 2013-07-16 Michael William Murphy Character specification system and method that uses a limited number of selection keys
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
KR102027357B1 (ko) * 2012-04-24 2019-10-01 삼성전자주식회사 외부 기기의 스크린 상에 디스플레이된 정보를 탐색하는 터치 스크린을 가지는 휴대용 기기 및 그의 정보 탐색 방법
KR101868352B1 (ko) * 2012-05-14 2018-06-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20130335378A1 (en) * 2012-06-18 2013-12-19 Tzyy-Pyng Lin Touch device
US9524060B2 (en) * 2012-07-13 2016-12-20 Rapt Ip Limited Low power operation of an optical touch-sensitive device for detecting multitouch events
US20140092125A1 (en) * 2012-09-28 2014-04-03 Apple Inc. Filtering Documents Based on Device Orientation
TWI479368B (zh) * 2012-11-15 2015-04-01 Giga Byte Tech Co Ltd 鍵盤裝置
WO2014076803A1 (ja) * 2012-11-15 2014-05-22 パイオニア株式会社 情報処理装置、制御方法、プログラム、及び記憶媒体
CN102968273B (zh) * 2012-11-20 2015-08-05 鸿富锦精密工业(深圳)有限公司 电子设备及其页面缩放方法
JP5946162B2 (ja) 2012-11-27 2016-07-05 ネオノード インコーポレイテッド ステアリングホイール及びダッシュボード上の光ベースのタッチコントロール
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US20140173522A1 (en) * 2012-12-17 2014-06-19 Michael William Murphy Novel Character Specification System and Method that Uses Remote Selection Menu and Touch Screen Movements
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
US9996244B2 (en) * 2013-03-13 2018-06-12 Autodesk, Inc. User interface navigation elements for navigating datasets
US9697745B2 (en) * 2013-03-15 2017-07-04 Verizon Patent And Licensng Inc. Auxiliary sensor for touchscreen device
TWI578210B (zh) * 2013-04-12 2017-04-11 鴻海精密工業股份有限公司 電子白板
US9658717B2 (en) 2013-05-14 2017-05-23 Otter Products, Llc Virtual writing surface
USD742893S1 (en) 2013-06-09 2015-11-10 Apple Inc. Display screen or portion thereof with graphical user interface
US20140372856A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Natural Quick Functions Gestures
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
US9367137B2 (en) 2013-07-01 2016-06-14 Blackberry Limited Alarm operation by touch-less gesture
US9323336B2 (en) 2013-07-01 2016-04-26 Blackberry Limited Gesture detection using ambient light sensors
US9489051B2 (en) 2013-07-01 2016-11-08 Blackberry Limited Display navigation using touch-less gestures
US9423913B2 (en) 2013-07-01 2016-08-23 Blackberry Limited Performance control of ambient light sensors
US9398221B2 (en) 2013-07-01 2016-07-19 Blackberry Limited Camera control using ambient light sensors
US9256290B2 (en) 2013-07-01 2016-02-09 Blackberry Limited Gesture detection using ambient light sensors
US9342671B2 (en) 2013-07-01 2016-05-17 Blackberry Limited Password by touch-less gesture
US9405461B2 (en) 2013-07-09 2016-08-02 Blackberry Limited Operating a device using touchless and touchscreen gestures
US9645721B2 (en) * 2013-07-19 2017-05-09 Apple Inc. Device input modes with corresponding cover configurations
US9465448B2 (en) 2013-07-24 2016-10-11 Blackberry Limited Backlight for touchless gesture detection
US9304596B2 (en) 2013-07-24 2016-04-05 Blackberry Limited Backlight for touchless gesture detection
JP2015032101A (ja) * 2013-08-01 2015-02-16 株式会社東芝 情報端末装置
US9177362B2 (en) * 2013-08-02 2015-11-03 Facebook, Inc. Systems and methods for transforming an image
CN105659310B (zh) 2013-08-13 2021-02-26 飞利斯有限公司 电子显示区域的优化
TWI655807B (zh) 2013-08-27 2019-04-01 飛利斯有限公司 具有可撓曲電子構件之可附接裝置
WO2015031426A1 (en) 2013-08-27 2015-03-05 Polyera Corporation Flexible display and detection of flex state
US9830060B2 (en) 2013-08-28 2017-11-28 Microsoft Technology Licensing, Llc Manipulation of content on a surface
KR102184269B1 (ko) * 2013-09-02 2020-11-30 삼성전자 주식회사 디스플레이장치, 휴대장치 및 그 화면 표시방법
US20150067603A1 (en) * 2013-09-05 2015-03-05 Kabushiki Kaisha Toshiba Display control device
US9194741B2 (en) 2013-09-06 2015-11-24 Blackberry Limited Device having light intensity measurement in presence of shadows
WO2015038684A1 (en) 2013-09-10 2015-03-19 Polyera Corporation Attachable article with signaling, split display and messaging features
US9727915B2 (en) 2013-09-26 2017-08-08 Trading Technologies International, Inc. Methods and apparatus to implement spin-gesture based trade action parameter selection
US20150100911A1 (en) * 2013-10-08 2015-04-09 Dao Yin Gesture responsive keyboard and interface
US20150121314A1 (en) * 2013-10-24 2015-04-30 Jens Bombolowsky Two-finger gestures
US9232095B2 (en) 2013-10-30 2016-01-05 Kyocera Document Solutions Inc. Display input device, image forming apparatus, and control method of display input device
US9335866B2 (en) * 2013-11-20 2016-05-10 Otter Products, Llc Retractable touchscreen adapter
CN106031308B (zh) 2013-12-24 2019-08-09 飞利斯有限公司 用于附接式二维挠性电子装置的支撑结构
WO2015100396A1 (en) 2013-12-24 2015-07-02 Polyera Corporation Support structures for a flexible electronic component
WO2015100224A1 (en) 2013-12-24 2015-07-02 Polyera Corporation Flexible electronic display with user interface based on sensed movements
KR20160103072A (ko) 2013-12-24 2016-08-31 폴리에라 코퍼레이션 가요성 전자 부품용 지지 구조체
US11435895B2 (en) * 2013-12-28 2022-09-06 Trading Technologies International, Inc. Methods and apparatus to enable a trading device to accept a user input
US20150205360A1 (en) * 2014-01-20 2015-07-23 Lenovo (Singapore) Pte. Ltd. Table top gestures for mimicking mouse control
US20150227245A1 (en) 2014-02-10 2015-08-13 Polyera Corporation Attachable Device with Flexible Electronic Display Orientation Detection
US20150241978A1 (en) * 2014-02-27 2015-08-27 Motorola Mobility Llc Electronic Device Having Multiple Sides with Gesture Sensors
US9851880B2 (en) * 2014-03-14 2017-12-26 Adobe Systems Incorporated Image rotation based on touch gestures
TWI517005B (zh) * 2014-03-20 2016-01-11 國立交通大學 觸控顯示裝置及觸控感測方法
WO2015161070A2 (en) * 2014-04-17 2015-10-22 Polyera Corporation Infrared touch system for flexible displays
US10261634B2 (en) 2014-03-27 2019-04-16 Flexterra, Inc. Infrared touch system for flexible displays
US9274620B2 (en) * 2014-04-09 2016-03-01 Wei-Chih Cheng Operating system with shortcut touch panel having shortcut function
US9661254B2 (en) 2014-05-16 2017-05-23 Shadowbox Media, Inc. Video viewing system with video fragment location
US8896765B1 (en) * 2014-05-16 2014-11-25 Shadowbox Media, Inc. Systems and methods for remote control of a television
TWI692272B (zh) 2014-05-28 2020-04-21 美商飛利斯有限公司 在多數表面上具有可撓性電子組件之裝置
US20170117891A1 (en) * 2014-06-02 2017-04-27 Xyz Interactive Technologies Inc. Touch-less switching
AU2015280256A1 (en) 2014-06-24 2016-10-13 Apple Inc. Column interface for navigating in a user interface
CN117573019A (zh) 2014-06-24 2024-02-20 苹果公司 输入设备和用户界面交互
WO2016009016A1 (en) 2014-07-17 2016-01-21 Koninklijke Philips N.V. Method of obtaining gesture zone definition data for a control system based on user input
US9430142B2 (en) 2014-07-17 2016-08-30 Facebook, Inc. Touch-based gesture recognition and application navigation
US10007419B2 (en) 2014-07-17 2018-06-26 Facebook, Inc. Touch-based gesture recognition and application navigation
WO2016063258A1 (en) * 2014-10-24 2016-04-28 Realitygate (Pty) Ltd Target-directed movement in a user interface
KR101646564B1 (ko) * 2015-02-13 2016-08-08 주식회사 알엔디플러스 터치스크린 장치 및 그 제어방법
WO2016138356A1 (en) 2015-02-26 2016-09-01 Polyera Corporation Attachable device having a flexible electronic component
WO2016176359A1 (en) 2015-04-30 2016-11-03 Murphy Michael William Improved method of word identification that uses interspersed time-independent selection keys
CN104898937B (zh) * 2015-06-17 2018-09-14 北京金山安全软件有限公司 窗口展示方法及装置
CN106354378B (zh) * 2015-07-13 2019-11-15 阿里巴巴集团控股有限公司 一种快速选中多个目标的方法和装置
CN106126084B (zh) * 2015-07-28 2019-08-13 掌阅科技股份有限公司 一种用于电纸墨水屏幕的显示方法
KR101757539B1 (ko) * 2015-08-12 2017-07-12 전자부품연구원 멀티입력장치
USD793440S1 (en) * 2016-01-26 2017-08-01 Google Inc. Display screen with transitional graphical user interface
KR102602245B1 (ko) * 2016-02-12 2023-11-14 삼성디스플레이 주식회사 유기 발광 표시 장치
KR102511247B1 (ko) * 2016-03-14 2023-03-20 삼성전자 주식회사 다면 디스플레이 장치와 그의 운영 방법
KR102559030B1 (ko) 2016-03-18 2023-07-25 삼성전자주식회사 터치 패널을 포함하는 전자 장치 및 그 제어 방법
JP6323729B2 (ja) * 2016-04-25 2018-05-16 パナソニックIpマネジメント株式会社 画像処理装置及びこれを備えた撮像システムならびにキャリブレーション方法
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
US11182853B2 (en) 2016-06-27 2021-11-23 Trading Technologies International, Inc. User action for continued participation in markets
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
KR20180064631A (ko) * 2016-12-05 2018-06-15 삼성디스플레이 주식회사 디스플레이 장치 및 그의 구동 방법
JP6669087B2 (ja) * 2017-01-27 2020-03-18 京セラドキュメントソリューションズ株式会社 表示装置
US10976902B2 (en) * 2017-02-06 2021-04-13 Kyocera Document Solutions Inc. Using reference point to perform enlargement and reduction of displayed content
WO2018158818A1 (ja) * 2017-02-28 2018-09-07 日本電気株式会社 点検支援装置、点検支援方法および記録媒体
CN110637275B (zh) 2017-05-19 2023-11-14 M·W·墨菲 交错字符选择界面
TWI656823B (zh) 2017-05-23 2019-04-11 仁寶電腦工業股份有限公司 保護蓋及電子設備
KR101982396B1 (ko) * 2017-06-13 2019-05-24 광운대학교 산학협력단 공간 영상 입력시스템
USD856368S1 (en) * 2018-04-06 2019-08-13 Google Llc Display screen with animated graphical user interface
USD856369S1 (en) * 2018-04-26 2019-08-13 Google Llc Display screen with animated graphical user interface
CN108401050A (zh) * 2018-06-01 2018-08-14 Oppo(重庆)智能科技有限公司 光感结构及移动终端
JP2020061085A (ja) * 2018-10-12 2020-04-16 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、制御方法、及びプログラム
US11922007B2 (en) 2018-11-29 2024-03-05 Michael William Murphy Apparatus, method and system for inputting characters to an electronic device
KR20210096306A (ko) * 2018-12-26 2021-08-04 스냅 인코포레이티드 컴퓨팅 디바이스들 상에서 3-차원 월페이퍼의 생성 및 사용자 상호작용들
EP3928194A1 (en) 2019-03-24 2021-12-29 Apple Inc. User interfaces including selectable representations of content items
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
CN113906419A (zh) 2019-03-24 2022-01-07 苹果公司 用于媒体浏览应用程序的用户界面
CN113940088A (zh) 2019-03-24 2022-01-14 苹果公司 用于查看和访问电子设备上的内容的用户界面
US11797606B2 (en) 2019-05-31 2023-10-24 Apple Inc. User interfaces for a podcast browsing and playback application
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11148905B1 (en) 2020-06-30 2021-10-19 Nouveau National LLC Handsfree elevator control system
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
KR20220142019A (ko) 2021-04-14 2022-10-21 삼성중공업 주식회사 선박의 슬라이딩 앵커시스템
FR3127309B1 (fr) 2021-09-21 2023-11-10 Mz Tech Cadre d’interaction sans contact pour interface homme / machine
US20230334808A1 (en) * 2022-01-12 2023-10-19 Apple Inc. Methods for displaying, selecting and moving objects and containers in an environment
CN114967971A (zh) * 2022-04-26 2022-08-30 荣耀终端有限公司 一种显示设备及其控制方法、显示系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080152195A1 (en) 2003-03-04 2008-06-26 Hitachi, Ltd. Personal authentication device
US20100053111A1 (en) 2008-09-04 2010-03-04 Sony Ericsson Mobile Communications Ab Multi-touch control for touch sensitive display
US20100238139A1 (en) 2009-02-15 2010-09-23 Neonode Inc. Optical touch screen systems using wide light beams
US20100283747A1 (en) 2009-05-11 2010-11-11 Adobe Systems, Inc. Methods for use with multi-touch displays for determining when a touch is processed as a mouse event

Family Cites Families (281)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4144449A (en) * 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
US4205304A (en) 1977-09-22 1980-05-27 General Electric Company Two dimensional light beam selection system
US4243879A (en) 1978-04-24 1981-01-06 Carroll Manufacturing Corporation Touch panel with ambient light sampling
US4301447A (en) 1979-12-12 1981-11-17 Sperry Corporation Scan control for light beam position indicator
JPS59100430A (ja) 1982-11-30 1984-06-09 Minolta Camera Co Ltd 複写機の原稿照明用反射鏡
US4550250A (en) 1983-11-14 1985-10-29 Hei, Inc. Cordless digital graphics input device
US5003505A (en) 1984-05-07 1991-03-26 Hewlett-Packard Company Touchscreen/keyboard scanner
WO1986000446A1 (en) 1984-06-18 1986-01-16 Amp Incorporated Touch input device
DE3583923D1 (de) 1984-06-18 1991-10-02 Carroll Touch Inc Beruehrungseingabegeraet mit digitaler umgebungslichtabtastung.
US4703316A (en) 1984-10-18 1987-10-27 Tektronix, Inc. Touch panel input apparatus
US4710760A (en) 1985-03-07 1987-12-01 American Telephone And Telegraph Company, At&T Information Systems Inc. Photoelastic touch-sensitive screen
US4880969A (en) 1986-04-30 1989-11-14 Litton Systems, Inc. Optical touch panel with heat sink
US4790028A (en) 1986-09-12 1988-12-06 Westinghouse Electric Corp. Method and apparatus for generating variably scaled displays
US4782328A (en) 1986-10-02 1988-11-01 Product Development Services, Incorporated Ambient-light-responsive touch screen data input method and system
JPS63172325A (ja) 1987-01-10 1988-07-16 Pioneer Electronic Corp タツチパネル制御装置
FR2615941B1 (fr) 1987-05-25 1991-12-06 Sfena Dispositif de detection de position d'un organe de commande sur une tablette tactile
US4847606A (en) 1987-08-25 1989-07-11 Oak Industries Inc. Control and display system
US4928094A (en) 1988-01-25 1990-05-22 The Boeing Company Battery-operated data collection apparatus having an infrared touch screen data entry device
US5053758A (en) 1988-02-01 1991-10-01 Sperry Marine Inc. Touchscreen control panel with sliding touch control
JPH01314324A (ja) 1988-06-14 1989-12-19 Sony Corp タッチパネル装置
US5220409A (en) 1988-12-19 1993-06-15 Amp Incorporated Light beam detection utilizing hologram
US5194863A (en) 1989-04-10 1993-03-16 International Business Machines Corporation Touch panel display
JPH081363B2 (ja) 1989-05-08 1996-01-10 同和鉱業株式会社 光学的入力検出装置
US5283558A (en) 1989-10-16 1994-02-01 Chan James K Low-cost devices for touch control
JP2784825B2 (ja) 1989-12-05 1998-08-06 ソニー株式会社 情報入力制御装置
US5179369A (en) 1989-12-06 1993-01-12 Dale Electronics, Inc. Touch panel and method for controlling same
JPH03216719A (ja) 1990-01-22 1991-09-24 Fujitsu Ltd 位置指示装置
US5162783A (en) 1990-07-23 1992-11-10 Akzo N.V. Infrared touch screen device for a video monitor
US5119079A (en) 1990-09-17 1992-06-02 Xerox Corporation Touch screen user interface with expanding touch locations for a reprographic machine
KR100318330B1 (ko) 1991-04-08 2002-04-22 가나이 쓰도무 감시장치
GB9108226D0 (en) 1991-04-17 1991-06-05 Philips Electronic Associated Optical touch input device
JP3123558B2 (ja) 1991-05-09 2001-01-15 ソニー株式会社 情報入力処理装置および方法
JPH04348192A (ja) 1991-05-27 1992-12-03 Bridgestone Corp 電気粘性流体
US5579035A (en) 1991-07-05 1996-11-26 Technomarket, L.P. Liquid crystal display module
JPH05173699A (ja) 1991-12-20 1993-07-13 Fujitsu Ltd 座標入力装置
US5889236A (en) 1992-06-08 1999-03-30 Synaptics Incorporated Pressure sensitive scrollbar feature
GB2268263A (en) 1992-06-30 1994-01-05 Ibm Input device for a visual display unit
US5605406A (en) 1992-08-24 1997-02-25 Bowen; James H. Computer input devices with light activated switches and light emitter protection
US5422494A (en) 1992-10-16 1995-06-06 The Scott Fetzer Company Barrier transmission apparatus
US5612719A (en) 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
EP0601651A1 (en) 1992-12-10 1994-06-15 Koninklijke Philips Electronics N.V. Optical touch tablet based on sector cross bearing
US5463725A (en) 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
EP0618528B1 (en) 1993-04-01 1999-12-29 International Business Machines Corporation Dynamic touchscreen button adjustment mechanism
US5603053A (en) 1993-05-10 1997-02-11 Apple Computer, Inc. System for entering data into an active application currently running in the foreground by selecting an input icon in a palette representing input utility
DE69432199T2 (de) 1993-05-24 2004-01-08 Sun Microsystems, Inc., Mountain View Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
US5956030A (en) 1993-06-11 1999-09-21 Apple Computer, Inc. Computer system with graphical user interface including windows having an identifier within a control region on the display
US5559727A (en) 1994-02-24 1996-09-24 Quad Systems Corporation Apparatus and method for determining the position of a component prior to placement
US5577733A (en) 1994-04-08 1996-11-26 Downing; Dennis L. Targeting system
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
EP0703525B1 (en) 1994-09-22 2001-12-05 Aisin Aw Co., Ltd. Touch display type information input system
JPH08185264A (ja) * 1994-12-27 1996-07-16 Casio Comput Co Ltd データ入力装置
US5880743A (en) 1995-01-24 1999-03-09 Xerox Corporation Apparatus and method for implementing visual animation illustrating results of interactive editing operations
US5618232A (en) 1995-03-23 1997-04-08 Martin; John R. Dual mode gaming device methods and systems
US5729250A (en) 1995-05-08 1998-03-17 International Business Machines Corporation Front cover assembly for a touch sensitive device
US5880462A (en) 1995-08-24 1999-03-09 Hsia; Chih-Yu Keying apparatus with thumb gap
JPH09146708A (ja) 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH09289606A (ja) 1996-04-23 1997-11-04 Canon Inc 画像表示装置およびカメラ制御装置
US5748185A (en) 1996-07-03 1998-05-05 Stratos Product Development Group Touchpad with scroll and pan regions
US5943044A (en) 1996-08-05 1999-08-24 Interlink Electronics Force sensing semiconductive touchpad
KR100206998B1 (ko) 1996-08-28 1999-07-01 이종수 매트릭스 방식 터치판넬의 누름 인식장치 및 제어방법
US5936615A (en) 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
JPH10105556A (ja) 1996-09-27 1998-04-24 Sharp Corp 電子式辞書および情報表示方法
US6052279A (en) 1996-12-05 2000-04-18 Intermec Ip Corp. Customizable hand-held computer
US5900875A (en) 1997-01-29 1999-05-04 3Com Corporation Method and apparatus for interacting with a portable computer system
US6031989A (en) 1997-02-27 2000-02-29 Microsoft Corporation Method of formatting and displaying nested documents
US5914709A (en) 1997-03-14 1999-06-22 Poa Sana, Llc User input device for a computer system
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
GB2330752B (en) 1997-10-24 2002-09-04 Sony Uk Ltd Audio processing
WO1999028811A1 (en) 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
KR100595917B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
JPH11232024A (ja) 1998-02-13 1999-08-27 Alpine Electron Inc 光学式位置検出装置
KR100405018B1 (ko) 1998-02-25 2003-11-07 샤프 가부시키가이샤 표시 장치
US6356287B1 (en) 1998-03-20 2002-03-12 Nuvomedia, Inc. Citation selection and routing feature for hand-held content display device
US6010061A (en) 1998-03-27 2000-01-04 Micron Custom Manufacturing Services Inc. Reflow soldering method
KR100327209B1 (ko) 1998-05-12 2002-04-17 윤종용 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법
US6981804B2 (en) 1998-06-08 2006-01-03 Arrayed Fiberoptics Corporation Vertically integrated optical devices coupled to optical fibers
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6369803B2 (en) 1998-06-12 2002-04-09 Nortel Networks Limited Active edge user interface
US6558320B1 (en) 2000-01-20 2003-05-06 Medtronic Minimed, Inc. Handheld personal data assistant (PDA) with a medical device and method of using the same
JP3827450B2 (ja) 1998-08-18 2006-09-27 富士通株式会社 光走査型タッチパネル
US6346935B1 (en) 1998-09-14 2002-02-12 Matsushita Electric Industrial Co., Ltd. Touch-sensitive tablet
JP4007705B2 (ja) 1998-11-20 2007-11-14 富士通株式会社 光走査型タッチパネル
US6246395B1 (en) 1998-12-17 2001-06-12 Hewlett-Packard Company Palm pressure rejection method and apparatus for touchscreens
US6259436B1 (en) 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6552719B2 (en) 1999-01-07 2003-04-22 Microsoft Corporation System and method for automatically switching between writing and text input modes
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
GB2388938B (en) 1999-02-22 2004-03-17 Nokia Corp A communication terminal having a predictive editor application
JP4043128B2 (ja) 1999-02-24 2008-02-06 富士通株式会社 光走査型タッチパネル
US6529920B1 (en) 1999-03-05 2003-03-04 Audiovelocity, Inc. Multimedia linking device and method
US6411283B1 (en) 1999-05-20 2002-06-25 Micron Technology, Inc. Computer touch screen adapted to facilitate selection of features at edge of screen
JP2000348560A (ja) 1999-06-07 2000-12-15 Tokai Rika Co Ltd タッチ操作位置の判定方法
JP3830121B2 (ja) 1999-06-10 2006-10-04 株式会社 ニューコム 物体検出用光学ユニット及びそれを用いた位置座標入力装置
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
JP2001043022A (ja) 1999-07-30 2001-02-16 Matsushita Electric Ind Co Ltd 透明タッチパネルおよびこれを用いた電子機器
US7007239B1 (en) 2000-09-21 2006-02-28 Palm, Inc. Method and apparatus for accessing a contacts database and telephone services
US6874683B2 (en) 1999-10-08 2005-04-05 Canon Kabushiki Kaisha User programmable smart card interface system for an image album
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
JP2001134382A (ja) 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US7020845B1 (en) 1999-11-15 2006-03-28 Gottfurcht Elliot A Navigating internet content on a television using a simplified interface and a remote control
US20050174473A1 (en) 1999-11-18 2005-08-11 Color Kinetics, Inc. Photography methods and systems
US7006077B1 (en) 1999-11-30 2006-02-28 Nokia Mobile Phones, Ltd. Electronic device having touch sensitive slide
CA2393164C (en) 1999-12-02 2008-04-01 Elo Touchsystems, Inc. Apparatus and method to improve resolution of infrared touch systems
US6727917B1 (en) 2000-01-06 2004-04-27 Microsoft Corporation User interface for palm-sized computing devices and method and apparatus for displaying the same
WO2001055829A1 (en) 2000-01-26 2001-08-02 D'agostini Organizzazione S.R.L. Character input device based on a two-dimensional movement sensor
GB2365676B (en) 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
US6597345B2 (en) 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
JP3909997B2 (ja) 2000-03-14 2007-04-25 アルプス電気株式会社 入力制御装置
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
US6549217B1 (en) 2000-03-23 2003-04-15 Koninklijke Philips Electronics N.V. System and method for computer system management using bookmarks
US6456952B1 (en) 2000-03-29 2002-09-24 Ncr Coporation System and method for touch screen environmental calibration
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
US6864882B2 (en) 2000-05-24 2005-03-08 Next Holdings Limited Protected touch panel display system
US6734883B1 (en) 2000-05-25 2004-05-11 International Business Machines Corporation Spinlist graphical user interface control with preview and postview
EP1160160A3 (de) 2000-05-31 2002-01-30 EADS Airbus GmbH Vorrichtung zur Steuerung und Überwachung von Flugzeug-Kabinensystemen
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US8120625B2 (en) 2000-07-17 2012-02-21 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
JP2002064483A (ja) 2000-08-18 2002-02-28 Sony Corp ユーザ認証方法、携帯情報端末およびクライアントサービスサーバ
EP1184414A3 (en) 2000-08-30 2003-08-06 JSR Corporation Conjugated diene-based rubber and method of producing the same, oil extended rubber and rubber composition containing the same
US7455227B2 (en) 2000-09-12 2008-11-25 Canon Kabushiki Kaisha System for card-based service access
EP1191430A1 (en) 2000-09-22 2002-03-27 Hewlett-Packard Company, A Delaware Corporation Graphical user interface for devices having small tactile displays
US6646633B1 (en) 2001-01-24 2003-11-11 Palm Source, Inc. Method and system for a full screen user interface and data entry using sensors to implement handwritten glyphs
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20020109843A1 (en) 2001-02-13 2002-08-15 Applied Materials, Inc. Method and system for registering fiducials employing backlighting techniques
US6836367B2 (en) 2001-02-28 2004-12-28 Japan Aviation Electronics Industry, Limited Optical touch panel
US6879930B2 (en) 2001-03-30 2005-04-12 Microsoft Corporation Capacitance touch slider
WO2002082253A2 (en) 2001-04-04 2002-10-17 Elo Touchsystems, Inc. A touch input system
US7225408B2 (en) 2001-04-27 2007-05-29 Siemens Medical Solutions Health Services Corporation System and user interface for communicating and processing patient record information
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US6727930B2 (en) 2001-05-18 2004-04-27 Hewlett-Packard Development Company, L.P. Personal digital assistant with streaming information display
US20020173300A1 (en) 2001-05-21 2002-11-21 Yuri Shtivelman Method and system for completing incomplete addressing data sent to a communication device
US6992659B2 (en) 2001-05-22 2006-01-31 Palmone, Inc. High transparency integrated enclosure touch screen assembly for a portable hand held device
US20030030656A1 (en) 2001-06-12 2003-02-13 Darwin Ang Method and system for dynamic hierarchical data display
US20030013483A1 (en) 2001-07-06 2003-01-16 Ausems Michiel R. User interface for handheld communication device
WO2003008885A1 (en) 2001-07-16 2003-01-30 Maytag Corporation Electronic message center for a refrigerator
US6690365B2 (en) 2001-08-29 2004-02-10 Microsoft Corporation Automatic scrolling
US6907575B2 (en) 2001-09-06 2005-06-14 Danger, Inc. Method of scrolling a display window
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US7046230B2 (en) 2001-10-22 2006-05-16 Apple Computer, Inc. Touch pad handheld device
US8339379B2 (en) 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen
SE0103835L (sv) 2001-11-02 2003-05-03 Neonode Ab Pekskärm realiserad av displayenhet med ljussändande och ljusmottagande enheter
US9164654B2 (en) 2002-12-10 2015-10-20 Neonode Inc. User interface for mobile computer unit
US9471170B2 (en) 2002-11-04 2016-10-18 Neonode Inc. Light-based touch screen with shift-aligned emitter and receiver lenses
US9052771B2 (en) 2002-11-04 2015-06-09 Neonode Inc. Touch screen calibration and update methods
US8095879B2 (en) 2002-12-10 2012-01-10 Neonode Inc. User interface for mobile handheld computer unit
US9213443B2 (en) 2009-02-15 2015-12-15 Neonode Inc. Optical touch screen systems using reflected light
US6744423B2 (en) 2001-11-19 2004-06-01 Nokia Corporation Communication terminal having a predictive character editor application
JP2003167669A (ja) 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US7187363B2 (en) 2001-11-30 2007-03-06 Palm, Inc. Integrated handheld data processing device having a sliding form factor
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
KR100893114B1 (ko) 2002-01-31 2009-04-14 후지쯔 가부시끼가이샤 좌표 입력을 위한 초음파 거리 측정 장치 및 방법
EP1576533A2 (en) 2002-03-27 2005-09-21 Nellcor Puritan Bennett Incorporated Infrared touchframe system
JP3727896B2 (ja) * 2002-03-29 2005-12-21 株式会社東芝 Hsmシステムおよび同システムのマイグレーション制御方法
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
DE10318713A1 (de) * 2002-05-29 2003-12-24 Volkswagen Ag Verfahren und Vorrichtung zur Bedienung von elektronischen Funktionen, insbesondere in einem Lenkrad eines Fahrzeuges
US20030234346A1 (en) 2002-06-21 2003-12-25 Chi-Lei Kao Touch panel apparatus with optical detection for location
FI112119B (fi) 2002-06-25 2003-10-31 Nokia Corp Menetelmä ohjauskomennon tulkitsemiseksi ja kannettava elektroninen laite
US20040001144A1 (en) 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US6857746B2 (en) 2002-07-01 2005-02-22 Io2 Technology, Llc Method and system for free-space imaging display and interface
US20040125143A1 (en) 2002-07-22 2004-07-01 Kenneth Deaton Display system and method for displaying a multi-dimensional file visualizer and chooser
US20040021681A1 (en) 2002-07-30 2004-02-05 Liao Chin-Hua Arthur Dual-touch-screen mobile computer
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
US6869333B2 (en) 2002-09-11 2005-03-22 National Optronics, Inc. Lens blank alignment and blocking device and method
US6812466B2 (en) 2002-09-25 2004-11-02 Prospects, Corp. Infrared obstacle detection in the presence of sunlight
JP2004127072A (ja) * 2002-10-04 2004-04-22 Smk Corp 指示入力装置
US8416217B1 (en) * 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
US8896575B2 (en) 2002-11-04 2014-11-25 Neonode Inc. Pressure-sensitive touch screen
US8587562B2 (en) 2002-11-04 2013-11-19 Neonode Inc. Light-based touch screen using elliptical and parabolic reflectors
US7796885B2 (en) 2002-11-05 2010-09-14 Lightfleet Corporation Distribution optical elements and compound collecting lenses for broadcast optical interconnect
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
JP2004178584A (ja) 2002-11-26 2004-06-24 Asulab Sa 機能、装置、又は所定の場所にアクセスするためのタッチスクリーンによるセキュリティコードの入力方法、及びその方法を実行するためのデバイス
US7721192B2 (en) 2002-11-27 2010-05-18 Microsoft Corporation User interface for a resource search tool
JP2004185258A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
US8403203B2 (en) 2002-12-10 2013-03-26 Neonoda Inc. Component bonding using a capillary effect
US20060095331A1 (en) 2002-12-10 2006-05-04 O'malley Matt Content creation, distribution, interaction, and monitoring system
US9389730B2 (en) 2002-12-10 2016-07-12 Neonode Inc. Light-based touch screen using elongated light guides
US9195344B2 (en) 2002-12-10 2015-11-24 Neonode Inc. Optical surface using a reflected image for determining three-dimensional position information
US8902196B2 (en) 2002-12-10 2014-12-02 Neonode Inc. Methods for determining a touch location on a touch screen
US7890324B2 (en) * 2002-12-19 2011-02-15 At&T Intellectual Property Ii, L.P. Context-sensitive interface widgets for multi-modal dialog systems
CN1196077C (zh) 2002-12-27 2005-04-06 贺伟 一种交互式红外线电子白板
US6972401B2 (en) 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US7176905B2 (en) 2003-02-19 2007-02-13 Agilent Technologies, Inc. Electronic device having an image-based data input system
US6947032B2 (en) 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
CN1777859B (zh) 2003-03-12 2010-04-28 平蛙实验室股份公司 确定射线发射单元位置的系统和方法
US7133032B2 (en) 2003-04-24 2006-11-07 Eastman Kodak Company OLED display and touch screen
JP4161814B2 (ja) 2003-06-16 2008-10-08 ソニー株式会社 入力方法および入力装置
WO2005022372A1 (en) 2003-08-29 2005-03-10 Nokia Corporation Method and device for recognizing a dual point user input on a touch based user input device
US7442914B2 (en) 2003-09-12 2008-10-28 Flatfrog Laboratories Ab System and method of determining a position of a radiation emitting element
EP1665024B1 (en) 2003-09-12 2011-06-29 FlatFrog Laboratories AB A system and method of determining a position of a radiation scattering/reflecting element
EP1668483A2 (en) 2003-09-22 2006-06-14 Koninklijke Philips Electronics N.V. Light guide touch screen
US7159188B2 (en) 2003-10-23 2007-01-02 Microsoft Corporation System and method for navigating content in an item
US7265748B2 (en) 2003-12-11 2007-09-04 Nokia Corporation Method and device for detecting touch pad input
EP1709617A2 (en) 2003-12-30 2006-10-11 Trustees Of The Stevens Institute Of Technology Three-dimensional imaging system using optical pulses, non-linear optical mixers and holographic calibration
US20050165615A1 (en) 2003-12-31 2005-07-28 Nelson Minar Embedding advertisements in syndicated content
US7232986B2 (en) 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
EP1723500A1 (en) 2004-03-11 2006-11-22 Mobisol Inc. Pointing device with an integrated optical structure
US7471865B2 (en) 2004-06-04 2008-12-30 Poa Sana Liquidating Trust Apparatus and method for a molded waveguide for use with touch screen displays
US20060001654A1 (en) 2004-06-30 2006-01-05 National Semiconductor Corporation Apparatus and method for performing data entry with light based touch screen displays
US7464110B2 (en) 2004-06-30 2008-12-09 Nokia Corporation Automated grouping of image and other user data
US7372456B2 (en) 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US7355594B2 (en) 2004-09-30 2008-04-08 Symbol Technologies, Inc. Optical touch screen arrangement
WO2006081633A1 (en) 2005-02-07 2006-08-10 Rpo Pty Limited Waveguide design incorporating reflective optics
EP1860991B1 (en) 2005-03-01 2019-04-24 Masimo Laboratories, Inc. Noninvasive multi-parameter patient monitor
US7705835B2 (en) 2005-03-28 2010-04-27 Adam Eikman Photonic touch screen apparatus and method of use
WO2008111040A2 (en) 2007-03-14 2008-09-18 Power2B, Inc. Displays and information input devices
US7629968B2 (en) 2005-07-29 2009-12-08 Avago Technologies Fiber Ip (Singapore) Pte. Ltd. Methods and systems for detecting selections on a touch screen display
AT502349B1 (de) 2005-08-29 2008-07-15 Frequentis Gmbh Verfahren zur auswertung von touch-signalen und touch-einheit
US7933632B2 (en) 2005-09-16 2011-04-26 Microsoft Corporation Tile space user interface for mobile devices
US7782296B2 (en) 2005-11-08 2010-08-24 Microsoft Corporation Optical tracker for tracking surface-independent movements
KR100719904B1 (ko) 2005-11-11 2007-05-18 삼성전자주식회사 광신호를 이용한 입력 장치와 그 방법 및 광신호를이용하여 신호를 입력하는 휴대단말기
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
WO2007079425A2 (en) 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
JP4725385B2 (ja) * 2006-03-24 2011-07-13 ソニー株式会社 携帯型電話機及び電子機器
CN101102342A (zh) * 2006-07-06 2008-01-09 英业达股份有限公司 行动通讯装置
US7333094B2 (en) 2006-07-12 2008-02-19 Lumio Inc. Optical touch screen
US7333095B1 (en) 2006-07-12 2008-02-19 Lumio Inc Illumination for optical touch panel
US8169404B1 (en) * 2006-08-15 2012-05-01 Navisense Method and device for planary sensory detection
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7940250B2 (en) 2006-09-06 2011-05-10 Apple Inc. Web-clip widgets on a portable multifunction device
US7369724B2 (en) 2006-10-03 2008-05-06 National Semiconductor Corporation Apparatus and method for an improved lens structure for polymer wave guides which maximizes free space light coupling
US20080086703A1 (en) 2006-10-06 2008-04-10 Microsoft Corporation Preview expansion of list items
US8022941B2 (en) 2006-10-12 2011-09-20 Disney Enterprises, Inc. Multi-user touch screen
US7969426B2 (en) 2006-10-31 2011-06-28 Hewlett-Packard Development Company, L.P. Light sensitive display interface for computing devices
KR20080044017A (ko) 2006-11-15 2008-05-20 삼성전자주식회사 터치 스크린
CN101192259A (zh) 2006-11-20 2008-06-04 鸿富锦精密工业(深圳)有限公司 电子装置及该电子装置的开启方法
KR100849322B1 (ko) 2006-11-20 2008-07-29 삼성전자주식회사 이미지 센서를 이용한 터치 스크린
US8269746B2 (en) 2006-11-27 2012-09-18 Microsoft Corporation Communication with a touch screen
US7924272B2 (en) 2006-11-27 2011-04-12 Microsoft Corporation Infrared sensor integrated in a touch panel
US8094129B2 (en) 2006-11-27 2012-01-10 Microsoft Corporation Touch sensing using shadow and reflective modes
JP2008146453A (ja) 2006-12-12 2008-06-26 Sony Corp 映像信号出力装置、操作入力処理方法
US20080297487A1 (en) 2007-01-03 2008-12-04 Apple Inc. Display integrated photodiode matrix
US8054296B2 (en) 2007-01-03 2011-11-08 Apple Inc. Storing baseline information in EEPROM
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
KR101282973B1 (ko) 2007-01-09 2013-07-08 삼성전자주식회사 오버레이 이미지를 디스플레이 하는 장치 및 방법
US20080192025A1 (en) 2007-02-13 2008-08-14 Denny Jaeger Touch input devices for display/sensor screen
US7742290B1 (en) 2007-03-28 2010-06-22 Motion Computing, Inc. Portable computer with flip keyboard
EP2135155B1 (en) 2007-04-11 2013-09-18 Next Holdings, Inc. Touch screen system with hover and click input methods
US7809221B2 (en) 2007-05-02 2010-10-05 Poa Sana Liquidating Trust Shadow detection in optical touch sensor through the linear combination of optical beams and grey-scale determination of detected shadow edges
US8803980B2 (en) 2007-05-29 2014-08-12 Blackberry Limited System and method for selecting a geographic location to associate with an object
WO2008147266A1 (en) 2007-05-30 2008-12-04 Neonode Ab Multi-function input device
US8471830B2 (en) 2007-07-06 2013-06-25 Neonode Inc. Scanning of a touch screen
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
US20090031208A1 (en) 2007-07-26 2009-01-29 International Business Machines Corporation Expanding Rows and Cells Within a Table
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US8026906B2 (en) 2007-09-07 2011-09-27 F-Origin, Inc. Integrated force sensitive lens and software
EP2212763A4 (en) 2007-10-10 2012-06-20 Flatfrog Lab Ab TOUCH FIELD AND METHOD FOR OPERATING THE TOUCH FIELD
US8282222B2 (en) 2007-10-10 2012-10-09 Gerard Dirk Smits Image projector with reflected light tracking
WO2009062033A1 (en) 2007-11-09 2009-05-14 Topcoder, Inc. System and method for software development
WO2009073637A2 (en) * 2007-11-29 2009-06-11 Iqzone Systems and methods for personal information management and contact picture synchronization and distribution
US8432372B2 (en) 2007-11-30 2013-04-30 Microsoft Corporation User input using proximity sensing
US20090166098A1 (en) * 2007-12-31 2009-07-02 Apple Inc. Non-visual control of multi-touch device
US20090187840A1 (en) 2008-01-17 2009-07-23 Vahid Moosavi Side-bar menu and menu on a display screen of a handheld electronic device
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
TWI407763B (zh) 2008-05-13 2013-09-01 Htc Corp 電子裝置、接通與拒絕通話方法及數位資料儲存媒體
EP2129085B1 (en) * 2008-05-29 2011-03-30 LG Electronics Inc. Transparent display and operation method thereof
US20090322699A1 (en) 2008-06-25 2009-12-31 Sony Ericsson Mobile Communications Ab Multiple input detection for resistive touch panel
US20090322701A1 (en) 2008-06-30 2009-12-31 Tyco Electronics Corporation Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
KR101009278B1 (ko) * 2008-10-02 2011-01-18 한국과학기술연구원 광 인식 사용자 입력 장치 및 사용자 입력 인식 방법
US20100134424A1 (en) 2008-12-02 2010-06-03 At&T Mobility Ii Llc Edge hand and finger presence and motion sensor
AU2010236331B2 (en) 2009-04-16 2013-10-03 Neonode Inc. Optical touch screen systems using reflected light
JP2011043986A (ja) * 2009-08-21 2011-03-03 Seiko Epson Corp 光学式情報入力装置、光学式入力機能付き電子機器、および光学式情報入力方法
US20110087963A1 (en) 2009-10-09 2011-04-14 At&T Mobility Ii Llc User Interface Control with Edge Finger and Motion Sensing
US20110260980A1 (en) * 2009-12-01 2011-10-27 Angel Palacios System for enhancing the utilization of touch screen devices
US20110154260A1 (en) * 2009-12-17 2011-06-23 Motorola Inc Method and apparatus for displaying information in an electronic device
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
US8698762B2 (en) * 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
EP2550584B1 (en) 2010-03-24 2016-02-24 Neonode Inc. Lens arrangement for light-based touch screen
JP2011205532A (ja) * 2010-03-26 2011-10-13 Kyocera Corp 携帯端末及び表示制御プログラム
JP2011221607A (ja) * 2010-04-05 2011-11-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
US20110310005A1 (en) 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
US20120081299A1 (en) * 2010-10-04 2012-04-05 Verizon Patent And Licensing Inc. Method and apparatus for providing remote control via a touchable display
US20120242620A1 (en) * 2011-03-22 2012-09-27 Research In Motion Limited Combined optical navigation and button
US20130009911A1 (en) * 2011-07-04 2013-01-10 Nitto Denko Corporation Underlay-board-equipped input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080152195A1 (en) 2003-03-04 2008-06-26 Hitachi, Ltd. Personal authentication device
US20100053111A1 (en) 2008-09-04 2010-03-04 Sony Ericsson Mobile Communications Ab Multi-touch control for touch sensitive display
US20100238139A1 (en) 2009-02-15 2010-09-23 Neonode Inc. Optical touch screen systems using wide light beams
US20100283747A1 (en) 2009-05-11 2010-11-11 Adobe Systems, Inc. Methods for use with multi-touch displays for determining when a touch is processed as a mouse event

Also Published As

Publication number Publication date
CN103946766B (zh) 2016-08-10
JP2014512602A (ja) 2014-05-22
SG191871A1 (en) 2013-08-30
JP5692946B2 (ja) 2015-04-01
JP5745141B2 (ja) 2015-07-08
CA2823651C (en) 2013-12-31
US9262074B2 (en) 2016-02-16
KR20130118996A (ko) 2013-10-30
CA2823651A1 (en) 2013-06-06
SG10201402952RA (en) 2014-08-28
AU2012346380A1 (en) 2013-07-18
US8884926B1 (en) 2014-11-11
US8810551B2 (en) 2014-08-19
US20130093727A1 (en) 2013-04-18
EP2666075B1 (en) 2016-02-24
CN103946766A (zh) 2014-07-23
US20140333558A1 (en) 2014-11-13
WO2013081819A1 (en) 2013-06-06
EP2666075A1 (en) 2013-11-27
AU2012346380B2 (en) 2013-08-29
KR101363726B1 (ko) 2014-02-14
JP2014209362A (ja) 2014-11-06
KR20130135398A (ko) 2013-12-10
EP2666075A4 (en) 2014-04-02
US20150015522A1 (en) 2015-01-15
US20130229373A1 (en) 2013-09-05
US8416217B1 (en) 2013-04-09

Similar Documents

Publication Publication Date Title
KR101365394B1 (ko) 광선-기반 손가락 제스처 사용자 인터페이스
US10732825B2 (en) Natural input for spreadsheet actions
US20220129060A1 (en) Three-dimensional object tracking to augment display area
Yee Two-handed interaction on a tablet display
EP2564292B1 (en) Interaction with a computing application using a multi-digit sensor
EP3232315B1 (en) Device and method for providing a user interface
US20100229090A1 (en) Systems and Methods for Interacting With Touch Displays Using Single-Touch and Multi-Touch Gestures
US20110298708A1 (en) Virtual Touch Interface
KR20070006477A (ko) 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치
JP2012221160A (ja) 電子機器、表示方法、および表示プログラム
AU2013257423B2 (en) Light-based finger gesture user interface

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170202

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180201

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee