JP2013533541A - 文字の選択 - Google Patents
文字の選択 Download PDFInfo
- Publication number
- JP2013533541A JP2013533541A JP2013514211A JP2013514211A JP2013533541A JP 2013533541 A JP2013533541 A JP 2013533541A JP 2013514211 A JP2013514211 A JP 2013514211A JP 2013514211 A JP2013514211 A JP 2013514211A JP 2013533541 A JP2013533541 A JP 2013533541A
- Authority
- JP
- Japan
- Prior art keywords
- characters
- list
- gesture
- character
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
[0017]文字を入れるのに、たとえば、検索を実施するのに使われていた従来の技術は、面倒である場合が多かった。したがって、従来の技術は、ユーザーのデバイスエクスペリエンスを妨げる可能性がある。
例示的環境
[0021]図1は、文字選択技術を利用するように動作可能な例示的実施例における環境100の図解である。図に示す環境100は、様々に構成され得るコンピューティングデバイス102の例を含む。たとえば、コンピューティングデバイス102は、図2に関連してさらに説明するように、図に示すディスプレイデバイス104(たとえば、テレビ)、ワイヤレス電話、ネットブックなどに通信可能に結合された、従来のコンピューター(たとえば、デスクトップパーソナルコンピューター、ラップトップコンピューターなど)、移動局、娯楽機器、ゲームコンソールとして構成され得る。したがって、コンピューティングデバイス102は、豊富なメモリーおよびプロセッサーリソースをもつフルリソースデバイス(たとえば、パーソナルコンピューター、ゲームコンソール)から、限られたメモリーおよび/または処理リソースをもつ低リソースデバイス(たとえば、従来のセットトップボックス、ハンドヘルドゲームコンソール)にまで及び得る。コンピューティングデバイス102は、1つまたは複数の動作をコンピューティングデバイス102に実施させるソフトウェアとも関連し得る。
文字選択実装例
[0038]図3は、検索を実施するための入力として文字を受け取るように構成された、初期検索画面がディスプレイデバイスに出力される例示的実施例におけるシステム300を示す。図に示す例では、図1の文字リスト116が表示される。リスト116において、文字「A」および「Z」は、リスト116中の複数の字の先頭および末尾であることをユーザーに示すように、リスト116の他の文字より大きく表示される。リスト116は、リスト116のメンバーとして扱われる「スペース」および「削除」を示す文字も含む。
例示的手順
[0059]以下の説明は、上に記載したシステムおよびデバイスを使用して実装され得る文字選択技術について記載する。手順それぞれの側面は、ハードウェア、ファームウェア、ソフトウェア、またはその組合せで実装され得る。手順は、1つまたは複数のデバイスによって実施される動作を指定する1組のブロックとして示され、それぞれのブロックによって動作を実施するために示される順序に必ずしも限定されない。以下の説明のいくつかの部分では、図1の環境100および図2〜8のシステム200〜800に対して参照が行われる。
例示的デバイス
[0065]図10は、本明細書に記載するジェスチャー技術の実施形態を実装するように、図1〜8を参照して記載したどのタイプのポータブルおよび/またはコンピューターデバイスとしても実装され得る例示的デバイス1000の様々なコンポーネントを示す。デバイス1000は、デバイスデータ1004(たとえば、受信済みデータ、受信中のデータ、ブロードキャスト用にスケジュールされるデータ、データのデータパケットなど)のワイヤードおよび/またはワイヤレス通信を可能にする通信デバイス1002を含む。デバイスデータ1004または他のデバイスコンテンツは、デバイスの構成設定、デバイスに記憶されたメディアコンテンツ、および/またはデバイスのユーザーに関連づけられた情報を含み得る。デバイス1000に記憶されたメディアコンテンツは、どのタイプのオーディオ、ビデオ、および/または画像データも含み得る。デバイス1000は、ユーザー選択可能入力、メッセージ、音楽、テレビメディアコンテンツ、録画ビデオコンテンツ、ならびに任意のコンテンツおよび/またはデータソースから受信される他の任意のタイプのオーディオ、ビデオ、および/または画像データなど、どのタイプのデータ、メディアコンテンツ、および/または入力もそれを介して受信することができる1つまたは複数のデータ入力1006を含む。
結論
[0071]本発明を、構造的特徴および/または方法論的作用に特有の言葉で記載してきたが、添付の請求項において定義される本発明は、記載した特定の特徴または作用に必ずしも限定されないことを理解されたい。むしろ、それらの特定の特徴および作用は、特許請求されている本発明を実装する例示的形態として開示されている。
Claims (15)
- 文字リストを、コンピューティングデバイスによって、ユーザーインターフェースに表示するために出力するステップと、
前記コンピューティングデバイスが、カメラを使って検出された入力を、前記文字の少なくとも1つを選択するためのジェスチャーとして認識するステップと
を含む方法。 - 前記文字の前記選択された少なくとも1つを使って検索を実施するステップをさらに含む請求項1に記載の方法。
- 前記検索を実施する前記ステップが、前記文字の選択された少なくとも1つが認識されるとリアルタイムに実施され、前記実施された検索の結果を出力するステップをさらに含む請求項2に記載の方法。
- 前記ジェスチャーの現在の入力点に対応するものとして前記ユーザーインターフェース上に位置決めされる文字の1つまたは複数が、前記ジェスチャーの現在の入力点に対応しない、前記リストの少なくとも1つの他の前記文字と比較して増大したサイズを有するものとして表示されるように、前記文字リストを、前記ユーザーインターフェースに表示するために出力するステップをさらに含む請求項1に記載の方法。
- 前記コンピューティングデバイスが、前記カメラを使って検出された入力を、前記文字リストの表示中をナビゲートするためのジェスチャーとして認識するステップをさらに含む請求項1に記載の方法。
- 前記文字リストの前記表示中をナビゲートするための前記ジェスチャーがユーザーの水平移動を伴い、前記文字の前記少なくとも1つを選択するための前記ジェスチャーが垂直移動を伴う請求項5に記載の方法。
- 前記コンピューティングデバイスが、前記カメラを使って検出された入力を、前記文字リストの前記表示をズームするためのジェスチャーとして認識するステップをさらに含む請求項1に記載の方法。
- 前記表示に適用されるズームの量が前記カメラの方への前記移動の量に少なくとも部分的に基づく請求項7に記載の方法。
- 前記文字がリストに含まれ、前記文字が選択されると実施されるべき動作を記述する請求項1に記載の方法。
- 前記ジェスチャーを認識する前記ステップがユーザーの1つまたは複数の体の部分の位置決めを認識するステップを伴う請求項1に記載の方法。
- 前記ジェスチャーが前記コンピューティングデバイスに物理的に触れずに検出される請求項1に記載の方法。
- コンピューティングデバイスが、カメラを使って検出された入力を、前記コンピューティングデバイスによって表示される複数の文字の少なくとも1つを選択するためのジェスチャーとして認識するステップと、
前記複数の文字の前記選択された少なくとも1つを使って検索を実施するステップと
を含む方法。 - 前記検索を実施する前記ステップが、前記文字の選択された少なくとも1つが認識されるとリアルタイムに実施され、前記実施された検索の結果を出力するステップをさらに含む請求項12に記載の方法。
- 前記コンピューティングデバイスが、前記カメラを使って検出された入力を、前記文字リストの表示中をナビゲートするためのジェスチャーとして認識するステップをさらに含み、前記文字リストの表示中をナビゲートするための前記ジェスチャーがユーザーの水平移動を伴い、前記文字の前記少なくとも1つを選択するための前記ジェスチャーが垂直移動を伴う請求項12に記載の方法。
- 前記コンピューティングデバイスが、前記カメラの方への移動としての入力を、前記文字リストの表示をズームするためのジェスチャーとして認識するステップをさらに含み、前記表示に適用されるズームの量が前記カメラの方への前記移動の量に少なくとも部分的に基づく請求項12に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US35363010P | 2010-06-10 | 2010-06-10 | |
US61/353,630 | 2010-06-10 | ||
US12/854,560 US20110304649A1 (en) | 2010-06-10 | 2010-08-11 | Character selection |
US12/854,560 | 2010-08-11 | ||
PCT/US2011/038479 WO2011156162A2 (en) | 2010-06-10 | 2011-05-30 | Character selection |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013533541A true JP2013533541A (ja) | 2013-08-22 |
JP2013533541A5 JP2013533541A5 (ja) | 2014-07-03 |
Family
ID=45095908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013514211A Pending JP2013533541A (ja) | 2010-06-10 | 2011-05-30 | 文字の選択 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20110304649A1 (ja) |
EP (1) | EP2580644A4 (ja) |
JP (1) | JP2013533541A (ja) |
CN (1) | CN102939574A (ja) |
CA (1) | CA2799524A1 (ja) |
WO (1) | WO2011156162A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101327963B1 (ko) | 2013-08-26 | 2013-11-13 | 전자부품연구원 | 깊이 값을 이용한 회전 인터페이스 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법 |
JP2020516636A (ja) * | 2017-04-13 | 2020-06-11 | キャンサー・リサーチ・テクノロジー・リミテッドCancer Research Technology Limited | Ret阻害剤として有用な化合物 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120059647A1 (en) * | 2010-09-08 | 2012-03-08 | International Business Machines Corporation | Touchless Texting Exercise |
CN102549577A (zh) * | 2011-12-29 | 2012-07-04 | 华为技术有限公司 | 联系人搜索方法、装置及其应用的移动终端 |
CN104160361A (zh) | 2012-02-06 | 2014-11-19 | 迈克尔·K·科尔比 | 字符串完成 |
US9671869B2 (en) * | 2012-03-13 | 2017-06-06 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
DE102013004244A1 (de) * | 2013-03-12 | 2014-09-18 | Audi Ag | Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Löschschaltfläche und/oder Listenauswahl-Schaltfläche |
DE102013004246A1 (de) | 2013-03-12 | 2014-09-18 | Audi Ag | Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Vervollständigungs-Kennzeichnung |
US20140380223A1 (en) * | 2013-06-20 | 2014-12-25 | Lsi Corporation | User interface comprising radial layout soft keypad |
US20150070263A1 (en) * | 2013-09-09 | 2015-03-12 | Microsoft Corporation | Dynamic Displays Based On User Interaction States |
US10671181B2 (en) * | 2017-04-03 | 2020-06-02 | Microsoft Technology Licensing, Llc | Text entry interface |
WO2021218111A1 (zh) * | 2020-04-29 | 2021-11-04 | 聚好看科技股份有限公司 | 确定搜索字符的方法及显示设备 |
CN116132640A (zh) * | 2021-11-12 | 2023-05-16 | 成都极米科技股份有限公司 | 投影画面调整方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009018161A1 (en) * | 2007-07-27 | 2009-02-05 | Gesturetek, Inc. | Enhanced camera-based input |
WO2009111329A2 (en) * | 2008-03-04 | 2009-09-11 | Gesturetek, Inc. | Enhanced gesture-based image manipulation |
US20090315740A1 (en) * | 2008-06-23 | 2009-12-24 | Gesturetek, Inc. | Enhanced Character Input Using Recognized Gestures |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9141283B2 (en) * | 2007-01-30 | 2015-09-22 | Samsung Electronics Co., Ltd | Apparatus and method for inputting characters on touch screen of a terminal |
US8060841B2 (en) * | 2007-03-19 | 2011-11-15 | Navisense | Method and device for touchless media searching |
CN101055582A (zh) * | 2007-05-08 | 2007-10-17 | 魏新成 | 集成在中文输入法之中的搜索操作方法 |
CN101874404B (zh) * | 2007-09-24 | 2013-09-18 | 高通股份有限公司 | 用于语音和视频通信的增强接口 |
CN101221576B (zh) * | 2008-01-23 | 2010-08-18 | 腾讯科技(深圳)有限公司 | 一种能够实现自动翻译的输入方法及装置 |
WO2010103482A2 (en) * | 2009-03-13 | 2010-09-16 | Primesense Ltd. | Enhanced 3d interfacing for remote devices |
-
2010
- 2010-08-11 US US12/854,560 patent/US20110304649A1/en not_active Abandoned
-
2011
- 2011-05-30 EP EP11792894.5A patent/EP2580644A4/en not_active Withdrawn
- 2011-05-30 CA CA2799524A patent/CA2799524A1/en not_active Abandoned
- 2011-05-30 WO PCT/US2011/038479 patent/WO2011156162A2/en active Application Filing
- 2011-05-30 CN CN2011800282731A patent/CN102939574A/zh active Pending
- 2011-05-30 JP JP2013514211A patent/JP2013533541A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009018161A1 (en) * | 2007-07-27 | 2009-02-05 | Gesturetek, Inc. | Enhanced camera-based input |
WO2009111329A2 (en) * | 2008-03-04 | 2009-09-11 | Gesturetek, Inc. | Enhanced gesture-based image manipulation |
US20090315740A1 (en) * | 2008-06-23 | 2009-12-24 | Gesturetek, Inc. | Enhanced Character Input Using Recognized Gestures |
Non-Patent Citations (1)
Title |
---|
JPN6015028249; 西村 岳史: '新OS導入前に不安をきっちり解消! Vista50の疑問' 日経Win PC 第13巻 第4号 第13巻, 20070301, 第61頁, 日経BP社 Nikkei Business Publications,Inc. * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101327963B1 (ko) | 2013-08-26 | 2013-11-13 | 전자부품연구원 | 깊이 값을 이용한 회전 인터페이스 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법 |
JP2020516636A (ja) * | 2017-04-13 | 2020-06-11 | キャンサー・リサーチ・テクノロジー・リミテッドCancer Research Technology Limited | Ret阻害剤として有用な化合物 |
JP7277376B2 (ja) | 2017-04-13 | 2023-05-18 | キャンサー・リサーチ・テクノロジー・リミテッド | Ret阻害剤として有用な化合物 |
Also Published As
Publication number | Publication date |
---|---|
CN102939574A (zh) | 2013-02-20 |
WO2011156162A3 (en) | 2012-03-29 |
EP2580644A2 (en) | 2013-04-17 |
WO2011156162A2 (en) | 2011-12-15 |
US20110304649A1 (en) | 2011-12-15 |
EP2580644A4 (en) | 2016-10-05 |
CA2799524A1 (en) | 2011-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013533541A (ja) | 文字の選択 | |
US11520467B2 (en) | Input device and user interface interactions | |
US11635928B2 (en) | User interfaces for content streaming | |
JP6270982B2 (ja) | バックグラウンドタスク用の対話式入力 | |
US9720567B2 (en) | Multitasking and full screen menu contexts | |
EP2417517B1 (en) | Directional touch remote | |
CN102981728B (zh) | 语义缩放 | |
RU2644142C2 (ru) | Контекстный пользовательский интерфейс | |
CN108132744B (zh) | 一种遥控智能设备的方法与设备 | |
US20130198690A1 (en) | Visual indication of graphical user interface relationship | |
US20130203495A1 (en) | Multi-functional touchpad remote controller | |
US20100001960A1 (en) | Systems and methods for gestural interaction with user interface objects | |
JP2017523515A (ja) | アイコンサイズ変更 | |
KR20170056695A (ko) | 멀티핑거 터치패드 제스쳐 | |
US20150339026A1 (en) | User terminal device, method for controlling user terminal device, and multimedia system thereof | |
CN103853355A (zh) | 电子设备操作方法及其操控设备 | |
KR102157264B1 (ko) | 디스플레이 장치 및 그 ui 제공 방법 | |
JP2012503801A (ja) | 物体検出およびユーザーセッティング | |
JP2014132442A (ja) | 電子装置およびその制御方法 | |
US20130227477A1 (en) | Semaphore gesture for human-machine interface | |
US20100201638A1 (en) | Operation method of touch pad with multiple function modes, integration system thereof, and computer program product using the operation method | |
WO2022083554A1 (zh) | 用户界面的布局、交互方法及三维显示设备 | |
US20130201095A1 (en) | Presentation techniques | |
CN108885527B (zh) | 在压力触控屏上操作多个对象的方法及装置 | |
KR102620363B1 (ko) | 모바일 장치 및 모바일 장치의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140516 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140516 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150713 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151204 |