JP2013533541A - 文字の選択 - Google Patents

文字の選択 Download PDF

Info

Publication number
JP2013533541A
JP2013533541A JP2013514211A JP2013514211A JP2013533541A JP 2013533541 A JP2013533541 A JP 2013533541A JP 2013514211 A JP2013514211 A JP 2013514211A JP 2013514211 A JP2013514211 A JP 2013514211A JP 2013533541 A JP2013533541 A JP 2013533541A
Authority
JP
Japan
Prior art keywords
characters
list
gesture
character
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013514211A
Other languages
English (en)
Other versions
JP2013533541A5 (ja
Inventor
シュベジンガー,マーク・ディー
エルスブリー,ジョン
ミラー,マイケル・シー
シモネット,ギヨーム
ハード,スペンサー・アイ・エイ・エヌ
ワン,ホイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013533541A publication Critical patent/JP2013533541A/ja
Publication of JP2013533541A5 publication Critical patent/JP2013533541A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

文字選択技術について記載する。実施例において、文字リストがコンピューティングデバイスによってユーザーインターフェースに表示するために出力される。カメラを使って検出された入力が、コンピューティングデバイスによって、文字の少なくとも1つを選択するためのジェスチャーとして認識される。

Description

本発明は、文字の選択に関する。
[0001]ユーザーがコンピューティングデバイスと対話するために使用可能にされるデバイスの量は、常に増え続けている。たとえば、ユーザーは、一般的な居間の中で、テレビ、ゲームコンソール、ディスクプレーヤー、受信機などを制御するための多数のリモコンデバイスに直面する場合がある。
したがって、こうしたデバイスとの対話(インタラクション)は、異なるデバイスが異なるボタン構成を含み、異なるユーザーインターフェースと対話し得るので、かなり厄介になる場合がある。
[0002]文字選択技術について記載する。実施例において、文字リストが、コンピューティングデバイスによってユーザーインターフェースに表示するために出力される。カメラを使って検出された入力が、コンピューティングデバイスによって、文字の少なくとも1つを選択するためのジェスチャーとして認識される。
[0003]実施例において、カメラを使って検出された入力が、コンピューティングデバイスによって表示された複数の文字の少なくとも1つを選択するためのジェスチャーとして、コンピューティングデバイスによって認識される。複数の文字のうち選択された少なくとも1つを使って、検索が実施される。
[0004]実施例において、1つまたは複数のコンピューター読み取り可能な媒体は、コンピューティングデバイス上での実行に応答して、コンピューティングデバイスに動作を実施させる命令を含み、動作は、手の第1の動きを伴う、カメラを使って検出された第1の入力を、コンピューティングデバイスのディスプレイデバイスによって表示される文字一覧中をナビゲートするためのナビゲーションジェスチャーとして認識すること、手の第2の動きを伴う、カメラを使って検出された第2の入力を、文字の表示をズームするためのズームジェスチャーとして認識すること、および手の第3の動きを伴う、カメラを使って検出された第3の入力を、文字の少なくとも1つを選択するための選択ジェスチャーとして認識することを含む。
[0005]本概要は、「発明を実施するための形態」において後でさらに説明する概念一式を、簡略化した形で紹介するためのものである。本概要は、特許請求される主題の主要な特徴または本質的な特徴を特定することは意図しておらず、特許請求される主題の範囲を決定する一助として使われることも意図していない。
[0006]詳細な説明を、添付の図面を参照して記述する。図面において、参照番号の左端の数字(1つまたは複数)は、参照番号が最初に現れる図を識別する。説明および図面中の異なる事例における同じ参照番号の使用は、類似または同一の項目を示し得る。
[0007]本明細書に記載する文字選択技術を利用するように動作可能な例示的実施例における環境を示す図である。 [0008]図1の文字選択モジュールを、複数のデバイスが中央コンピューティングデバイスを通して相互接続される環境で実装されるものとして示す例示的システムを示す図である。 [0009]検索を実施するための入力として文字を受け取るように構成された初期検索画面がディスプレイデバイスに出力される例示的実施例におけるシステムを示す図である。 [0010]図3の文字リスト中のナビゲーションを伴うジェスチャーが示される例示的実施例におけるシステムを示す図である。 [0011]図4の文字リストのズームを伴うジェスチャーが示される例示的実施例におけるシステムを示す図である。 [0012]検索を実施するための、図5のリストからの文字の選択を伴うジェスチャーが示される例示的実施例におけるシステムを示す図である。 [0013]グループプライムとして構成された文字をもつリストが示される例示的実施例におけるシステムを示す図である。 [0014]非線形文字リストの例が示される例示的実施例におけるシステムを示す図である。 [0015]文字をナビゲートし、ズームし、選択するためのジェスチャーが使用される例示的実施例における手順を示す流れ図である。 [0016]本明細書に記載する文字選択技術の実施形態を実装するように、図1〜8を参照して記載するどのタイプのポータブルおよび/またはコンピューターデバイスとしても実装することができる例示的デバイスの様々なコンポーネントを示す図である。
概論
[0017]文字を入れるのに、たとえば、検索を実施するのに使われていた従来の技術は、面倒である場合が多かった。したがって、従来の技術は、ユーザーのデバイスエクスペリエンスを妨げる可能性がある。
[0018]文字選択技術について記載する。実施例において、字および/または他の文字のリストが、コンピューティングデバイスによってユーザーに対して表示される。ユーザーは、ジェスチャー(たとえば、ハンドモーション)、コントローラー、または他のデバイス(たとえば、物理キーボード)を使って、リスト中をナビゲートし、第1の文字を選択することができる。第1の文字を選択した後、コンピューティングデバイスは、第1の文字を含む項目を含めるように検索結果を、たとえば、リアルタイムに出力することができる。
[0019]ユーザーは次いで、ジェスチャー、コントローラー、または他のデバイスを使って、第2の文字を選択することができる。第2の文字を選択した後、検索は再度、第1および第2の文字を含む項目を含めるように絞り込まれ得る。このようにして、検索は、文字が選択されると、リアルタイムに実施され得るので、ユーザーは、ユーザーが検索している項目を素早く突き止めることができる。さらに、文字の選択は、コンピューティングデバイスのデバイスに触れずに、たとえば、カメラを使ってのハンドモーションの検出により、ジェスチャーを使って文字をナビゲートし選択することができるという点で、直観的であり得る。文字の選択は、特定の文字(たとえば、「w」や「.com」)の入力、ならびにそれら特定の文字で表される操作、たとえば、「すべて削除」、「クリア」などの開始など、様々な目的で使われ得る。文字選択および関連技術(たとえば、ズーム)のさらなる考察については、以下のセクションに関連して見ることができる。
[0020]以下の説明では、本明細書に記載する文字選択技術を利用するように動作可能な例示的環境について最初に記載する。次いで、例示的環境ならびに他の環境において利用することができる技術および手順の例示的解説を記載する。したがって、例示的環境は、例示的技術および手順の実施に限定されない。同様に、例示的技術および手順は、例示的環境における実装に限定されない。
例示的環境
[0021]図1は、文字選択技術を利用するように動作可能な例示的実施例における環境100の図解である。図に示す環境100は、様々に構成され得るコンピューティングデバイス102の例を含む。たとえば、コンピューティングデバイス102は、図2に関連してさらに説明するように、図に示すディスプレイデバイス104(たとえば、テレビ)、ワイヤレス電話、ネットブックなどに通信可能に結合された、従来のコンピューター(たとえば、デスクトップパーソナルコンピューター、ラップトップコンピューターなど)、移動局、娯楽機器、ゲームコンソールとして構成され得る。したがって、コンピューティングデバイス102は、豊富なメモリーおよびプロセッサーリソースをもつフルリソースデバイス(たとえば、パーソナルコンピューター、ゲームコンソール)から、限られたメモリーおよび/または処理リソースをもつ低リソースデバイス(たとえば、従来のセットトップボックス、ハンドヘルドゲームコンソール)にまで及び得る。コンピューティングデバイス102は、1つまたは複数の動作をコンピューティングデバイス102に実施させるソフトウェアとも関連し得る。
[0022]コンピューティングデバイス102は、入力/出力モジュール106を含むものとして示されている。入力/出力モジュール106は、コンピューティングデバイス102による、入力の認識および/または出力のプロビジョニングに関する機能性を表す。たとえば、入力/出力モジュール106は、ジェスチャーを識別するための、キーボード、マウスからの入力を受け取り、ジェスチャーに対応する動作を実施させる、などのように構成され得る。入力は、入力/出力モジュール106によって異なる様々なやり方で検出され得る。
[0023]入力/出力モジュール106は、図に示すコントローラー108などのハードウェアデバイスとのタッチ対話を介して1つまたは複数の入力を受け取るように構成され得る。タッチ対話は、ボタンの押下、ジョイスティックの動き、トラックパッドでの動き、ディスプレイデバイス104のタッチスクリーンの使用(たとえば、ユーザーの手の指またはスタイラスの検出)などを伴い得る。タッチ入力の認識は、入力/出力モジュール106によって、コンピューティングデバイス102によって出力されるユーザーインターフェースと対話するのに、たとえば、ゲーム、アプリケーションと対話し、インターネットをブラウズし、コンピューティングデバイス102の1つまたは複数の設定を変更するのなどに活用され得る。デバイスとのタッチ対話を伴う他の様々なハードウェアデバイスも企図される。このようなハードウェアデバイスの例は、カーソル制御デバイス(たとえば、マウス)、リモコン(たとえば、テレビリモコン)、モバイル通信デバイス(たとえば、コンピューティングデバイス102の1つまたは複数の動作を制御するように構成されたワイヤレス電話)、およびユーザーまたはオブジェクトの部位のタッチを伴う他のデバイスを含む。
[0024]入力/出力モジュール106は、タッチを伴わない対話を認識することができるナチュラルユーザーインターフェース(NUI)を提供するようにも構成され得る。たとえば、コンピューティングデバイス102は、NUI入力デバイス110を含み得る。NUI入力デバイス110は、ユーザーを特定のデバイスにタッチさせずに入力を検出するように、たとえば、マイクロホンを使用してオーディオ入力を認識するように、様々に構成され得る。たとえば、入力/出力モジュール106は、音声認識を実施して、特定の発声(たとえば、発話されたコマンド)を認識し、かつ発声を行った特定のユーザーを認識するように構成され得る。
[0025]別の例では、NUI入力デバイス110は、カメラを使用して、ジェスチャー、提示オブジェクト、画像などを認識するように構成され得る。カメラは、たとえば、様々な視点が取り込まれ得るように、複数のレンズを含むように構成され得る。様々な視点は次いで、NUI入力デバイス110からの相対距離を、したがってNUI入力デバイス110からの相対距離の変化を判定するのに使われ得る。様々な視点は、コンピューティングデバイス102によって、奥行き認知として活用され得る。画像は、入力/出力モジュール106によって、特定のユーザー(たとえば、顔の認識により)、オブジェクトなどを識別する技術など、他の様々な機能性を提供するのにも活用され得る。
[0026]入力出力モジュール106は、NUI入力デバイス110を活用して、人体の特定のポイント(たとえば、48個の骨格ポイント)の特徴抽出とともに骨格マッピングを実施して、1人または複数のユーザー(たとえば、同時に4人のユーザー)を追跡してモーション分析を実施することができる。たとえば、NUI入力デバイス110は、入力/出力モジュール106によって分析された画像を取り込んで、モーションを行うのに体のどの部分が使われるか、ならびにどのユーザーがモーションを行ったかを含む、ユーザーによって行われた1つまたは複数のモーションを認識することができる。一例は、ユーザーの手112の1本または複数の指の位置特定および動きの認識および/または全体としてのユーザーの手112の動きにより示される。モーションは、入力/出力モジュール106によって、対応する動作を開始するためのジェスチャーとして識別され得る。
[0027]1つのタイプの入力から認識されるジェスチャー(たとえば、ハンドジェスチャー)ならびに複数のタイプの入力を伴うジェスチャー、たとえば、ハンドモーションおよびユーザーの体の部位の位置特定に基づくジェスチャーなど、異なる様々なタイプのジェスチャーが認識され得る。したがって、入力/出力モジュール106は、複数の入力の間の区分を認識し活用することによって、異なる様々なジェスチャー技術をサポートすることができる。ナチュラルユーザーインターフェース(NUI)における複数の入力の間を見分けることによって、こうした入力それぞれのみによって可能にされるジェスチャーの数も増えることに留意されたい。たとえば、動きが同じである場合であっても、異なるジェスチャー(または類似したコマンド用の異なるパラメーター)が、異なるタイプの入力を使って指示される場合がある。したがって、入力/出力モジュール106は、タッチを伴わない様々なユーザー対話をサポートするナチュラルユーザーインターフェースNUIを提供することができる。
[0028]したがって、以下の説明では、入力の具体例を記述する場合があるが、いくつかの事例では、その精神および範囲から逸脱することなく、異なるタイプの入力も使われ得る。さらに、以下の説明におけるいくつかの事例では、ジェスチャーは、NUIを使って入力されるものとして示され、ジェスチャーは、たとえばタブレットコンピューターのタッチスクリーン機能性を利用するための、異なる様々なデバイスによる異なる様々な技術を使って入力され得る。
[0029]コンピューティングデバイス102は、入力用の文字の選択に関する機能性を表す文字選択モジュール114を含むものとしてさらに示される。たとえば、文字選択モジュール114は、ディスプレイデバイス104によって表示されるユーザーインターフェースに文字のリスト116を出力するように構成され得る。ユーザーは、たとえば、コントローラー108、ユーザーの手112によって行われるジェスチャーなどを使って、リスト116から文字を選択すればよい。選択された文字118は、ユーザーインターフェース中に表示され、この事例では、検索の土台としても使われる。検索の結果120も、ディスプレイデバイス104上のユーザーインターフェース中に出力される。
[0030]異なる様々な検索が、文字選択モジュール114によって、コンピューティングデバイス102上でローカルにも、ネットワークを介してリモートにも開始され得る。たとえば、メディアに対する(たとえば、テレビ番組および映画、ならびに図に示す音楽、ゲームなどに対する)検索を実施して、ウェブを検索する(たとえば、図示するように、検索結果「モハメド・アリ対ジョー・フレージャー」が、ウェブ検索により見つかる)ことなどができる。さらに、検索について記載したが、文字は、ユーザー名およびパスワードを入れ、テキストを書き込み、メッセージを組み立て、支払い情報を入れ、投票するためなど、他の様々な理由で入力され得る。このおよび他の文字選択技術のさらなる考察は、以下のセクションに関連して見ることができる。
[0031]図2は、図1を参照して説明したコンピューティングデバイス102を含む例示的システム200を示す。例示的システム200は、パーソナルコンピューター(PC)、テレビ装置、および/またはモバイルデバイス上でアプリケーションを稼動するとき、シームレスなユーザーエクスペリエンスのためのユビキタス環境を可能にする。サービスおよびアプリケーションは、アプリケーションを使用し、ビデオゲームをプレイし、ビデオを見ているときなどの間に、あるデバイスから次のデバイスに移るとき、共通のユーザーエクスペリエンスのために、3つすべての環境においてほぼ同様に稼働する。
[0032]例示的システム200では、複数のデバイスが、中央コンピューティングデバイスを通して相互接続される。中央コンピューティングデバイスは、複数のデバイスにとってローカルでもよく、複数のデバイスからリモートに置かれてもよい。一実施形態では、中央コンピューティングデバイスは、ネットワーク、インターネット、または他のデータ通信リンクを通して複数のデバイスに接続される1つまたは複数のサーバーコンピューターからなるクラウドでよい。一実施形態では、この相互接続アーキテクチャーは、共通のシームレスなエクスペリエンスを複数のデバイスのユーザーに提供するように、複数のデバイスに機能性が分配されることを可能にする。複数のデバイスはそれぞれ、異なる物理要件および能力を有してよく、中央コンピューティングデバイスは、プラットフォームを使って、デバイスに合わせられるとともにすべてのデバイスに共通でもあるエクスペリエンスをデバイスに分配できるようにする。一実施形態では、ターゲットデバイスのクラスが作成され、エクスペリエンスが、デバイスの汎用クラスに合わせられる。デバイスのクラスは、物理的特徴、使用タイプ、またはデバイスの他の共通特性によって定義され得る。
[0033]様々な実施例において、クライアントデバイス102は、コンピューター202、モバイル204、およびテレビ206使用向けなど、異なる様々な構成を想定することができる。こうした構成はそれぞれ、概して異なる構造および能力を有し得るデバイスを含み、したがってコンピューティングデバイス102は、異なるデバイスクラスの1つまたは複数に従って構成され得る。たとえば、コンピューティングデバイス102は、パーソナルコンピューター、デスクトップコンピューター、マルチスクリーンコンピューター、ラップトップコンピューター、ネットブックなどを含むコンピューター202デバイスクラスとして実装され得る。
[0034]コンピューティングデバイス102は、携帯電話、ポータブル音楽プレーヤー、ポータブルゲーム機、タブレットコンピューター、マルチスクリーンコンピューターなどのような、モバイルデバイスを含むモバイル202デバイスクラスとしても実装され得る。コンピューティングデバイス102は、気軽な視聴環境における概して比較的大型のスクリーンを有し、またはそれらに接続されたデバイスを含むテレビ206デバイスクラスとしても実装され得る。こうしたデバイスは、テレビ、セットトップボックス、ゲームコンソールなどを含む。本明細書に記載する文字選択技術は、クライアントデバイス102のこうした様々な構成によってサポートされることが可能であり、本明細書に記載する文字選択技術の具体例には限定されない。
[0035]クラウド208は、コンテンツサービス212用のプラットフォーム210を含み、かつ/またはプラットフォーム210を表す。プラットフォーム210は、ハードウェア(たとえば、サーバー)の基底機能性およびクラウド208のソフトウェアリソースを抽象化する。コンテンツサービス212は、クライアントデバイス102から離れたサーバー上でコンピューター処理が実行されている間に使用され得るアプリケーションおよび/またはデータを含み得る。コンテンツサービス212は、インターネットを介して、および/またはセルラーやWi−Fiネットワークなどの加入者ネットワークを通してサービスとして提供され得る。
[0036]プラットフォーム210は、コンピューティングデバイス102を他のコンピューティングデバイスと接続するためのリソースおよび機能を抽象化することができる。プラットフォーム210は、リソースのスケーリングを抽象化して、プラットフォーム210を介して実施されるコンテンツサービス212を求める要求に遭遇すると、その要求に対して対応するレベルのスケールを提供する働きもし得る。したがって、相互接続型デバイス実施形態では、文字選択モジュール114の機能性の実装は、システム200全体に渡って分散され得る。たとえば、文字選択モジュール114は、部分的にはコンピューティングデバイス102上で、ならびにクラウド208の機能性を抽象化するプラットフォーム210により実装され得る。
[0037]概して、本明細書に記載する機能のいずれも、ソフトウェア、ファームウェア、ハードウェア(たとえば、固定論理回路要素)、またはこうした実施例の組合せを使って実装され得る。本明細書で使われる「モジュール」、「機能性」、および「論理」という用語は概して、ソフトウェア、ファームウェア、ハードウェア、またはその組合せを表す。ソフトウェア実装のケースでは、モジュール、機能性、または論理は、プロセッサー(たとえば、1つまたは複数のCPU)上で実行されると、指定のタスクを実施するプログラムコードを表す。プログラムコードは、1つまたは複数のコンピューター読み取り可能なメモリーデバイスに記憶され得る。後で説明する文字選択技術の特徴はプラットフォーム非依存であり、このことは、様々なプロセッサーを有する様々な商用コンピューティングプラットフォーム上で技術が実装され得ることを意味する。
文字選択実装例
[0038]図3は、検索を実施するための入力として文字を受け取るように構成された、初期検索画面がディスプレイデバイスに出力される例示的実施例におけるシステム300を示す。図に示す例では、図1の文字リスト116が表示される。リスト116において、文字「A」および「Z」は、リスト116中の複数の字の先頭および末尾であることをユーザーに示すように、リスト116の他の文字より大きく表示される。リスト116は、リスト116のメンバーとして扱われる「スペース」および「削除」を示す文字も含む。
[0039]リスト116中のある文字が関与(engage)させられると、リスト116全体が関与させられることになり得る。ある実施例では、関与ゾーンは、グループ中の文字それぞれを通る中心線と、その上の定義エリアとの間など、リスト中の文字の近くのエリアとして定義され得る。このようにして、ユーザーは、複数のリストの間をナビゲートすることができる。
[0040]文字選択モジュール114によって出力されるユーザーインターフェースは、他のアルファベット以外の文字を選択するための機能性も含む。たとえば、図に示すユーザーインターフェースは、「&」、「$」、および「?」などの記号を選択するためのボタン306を含む。ユーザーは、たとえば、このボタン306を選択して、後で説明する技術を使ってユーザーがナビゲートし得る記号リストを出力させることができる。同様に、ユーザーは、ボタン308を選択して、数字のリストを出力することができる。ユーザーは、様々なやり方で文字と対話することができ、その一例は、以下の図に関連して見ることができる。
[0041]図4は、図3の文字リスト中のナビゲーションを伴うジェスチャーが示される例示的実施例におけるシステム400を示す。図4のユーザーインターフェースでは、コンピューティングデバイス102によってユーザーの手112に対して登録された現在の位置に対応する指示402が、文字選択モジュール114によって出力される。
[0042]たとえば、コンピューティングデバイス102の、図1のNUI入力デバイス110は、カメラを使って、ユーザーの手の位置を検出し、ユーザーインターフェース内の「どこに」ユーザーの手112の位置が関連するかを示す、ユーザーインターフェースに表示するための出力を提供することができる。このようにして、指示402は、ユーザーインターフェース中をナビゲートするためのフィードバックをユーザーに与えることができる。ユーザーの手112の位置に対応するユーザーインターフェース内のエリアに「フォーカス」を当てるなど、他の様々な例も企図される。
[0043]この例では、ユーザーの手112の位置に対応する文字のセクション404が、隆起して表示され、そうすることによって、ユーザーが現在対話しているリスト116のエリアのプレビューをユーザーに与える。このようにして、ユーザーは、ユーザーの手112のモーションを使って、リスト116中を水平方向にナビゲートして、リスト中の所望の文字を突き止めることができる。さらに、セクション404は、所望の文字を選ぶためにリスト116中の「どこにユーザーがいるか」に関するフィードバックをさらに与えることができる。
[0044]たとえば、各表示文字は、外部接近範囲(outer approaching range)および内部スナップ範囲(inner snapping range)など、文字に関連づけられた2つの範囲を有することができ、ユーザーがそれらの範囲内の文字と対話するとき、文字選択モジュール114に適宜反応させ得る。たとえば、ユーザーの手112の指が外部接近範囲内にあるとき、対応する文字にはフォーカスが当てられ、たとえば、図示するようにサイズが拡大され、色が変更され、強調表示などが行われ得る。ユーザーの手の指が文字のスナップ範囲(文字の表示より大きい、ディスプレイデバイス104上のエリアを伴うものとして定義され得る)内にあるとき、ディスプレイデバイス104上での指示402の表示は、対応する文字の表示内にスナップし得る。ユーザーにリスト116をより詳細に見せるための他の技術も企図され、その例については以下の図に関連して記載する。
[0045]図5は、図4の文字リスト116のズームを伴うジェスチャーが示される例示的実施例におけるシステム500を示す。この例では、コンピューティングデバイス102の文字選択モジュール114は、コンピューティングデバイス102の方への、たとえば、図1のNUI入力デバイス110のカメラに近づく、ユーザーの手112の動きを検出する。これは、図5において、ユーザーの手112に関連づけられた仮想線および矢印を使用して示される。
[0046]この入力から、文字選択モジュール114は、ズームジェスチャーを認識し、それに従って、リスト116の一部分を、図3、4に示す非拡大ビューとの比較で容易にわかるように、図5において拡大されているように表示する。このようにして、使用は、リスト116のセクションをより詳細に閲覧し、あまり正確でないジェスチャーをより効率的に使ってリスト116からの選択を行うことができる。たとえば、ユーザーは次いで、図3、4のリスト116の非拡大ビューと対話する際に示されるであろう細かな制御を示すことなく、水平ジェスチャーを使って、拡大リスト116中をナビゲートすることができる。
[0047]図に示す例において、指示402およびリスト116のセクション404の「隆起」字がそろっている。したがって、文字選択モジュール114は、「E」を囲む円および許容可能ナビゲーション方向を示す対応する矢印によって502に示されるように、ユーザーがリスト116に関与していることを認識し、その関与から許容可能である対応ナビゲーションを表示することができる。このようにして、ユーザーの手112は、字を選択するために、拡大リスト116中で動かされ得る。
[0048]少なくともいくつかの実施形態では、ユーザーの手112が初期関与面の上方にあるとき、リスト116の表示は、ズームされた状態のままである。さらに、リスト116の表示に適用されるズーム量は、ユーザーの手112がコンピューティングデバイス102、たとえば、図1のNUI入力デバイス110に近づいた距離量に基づいて変えられ得る。このようにして、ユーザーの手は、コンピューティングデバイス102によって出力されるユーザーインターフェースに適用されるズーム量を制御するため、たとえば、ズームインまたはズームアウトするために、コンピューティングデバイス102のより近くに、およびコンピューティングデバイス102からさらに離れて動かされ得る。ユーザーは次いで、コンピューティングデバイス102によって入力として使われるべき文字の1つまたは複数を選択することができ、それについてのさらなる考察は、以下の図に関連して見ることができる。
[0049]図6は、検索を実施するための、図5のリストからの文字の選択を伴うジェスチャーが示される例示的システム600を示す。リスト116は、図5に関連して上に記載したように、この例ではズームされたビューで表示されるが、選択は、図3、4に示すビューなど、他のビューでも実施され得る。
[0050]この例では、ユーザーの手112の垂直移動(たとえば、矢印で示すように、この例では「上」)が、ユーザーの手112の現在の位置に対応する文字(たとえば、字「E」)を選択するものとして認識される。字「E」は、図5に関連して上で記載した許容可能ナビゲーションを示す円および矢印を使って、フォーカスをもつものとして、502にも示される。文字を選択するためには、たとえば、ディスプレイデバイスの方への「押し」、予め定義された時間量の、オブジェクト上方でのカーソルの保持など、他の様々な技術も利用され得る。
[0051]文字の選択により、文字選択モジュール114は、選択された文字602を表示して、選択に関するフィードバックを与える。さらに、この事例における文字選択モジュール114は、文字を使って検索を開始するのに使用され、その結果604は、ユーザーインターフェース内にリアルタイムに出力される。ユーザーは、たとえば結果604をブラウズするために、リスト116から関与解除(disengage)するためには、手112を下ろせばよい。
[0052]上に記載したように、この例に示す画像および連絡先、メディア、インターネット検索などを含む、異なる様々な検索が実施され得る。さらに、検索について記載したが、本明細書に記載する技術は、メッセージを組み立て、フォームにデータを入れ、課金情報を提供し、文書を編集するなど、様々な目的で文字を入れるのに利用され得る。さらに、概ね線形のリストが図3〜6に示されたが、リスト116は、様々に構成されることが可能であり、その例は以下の図に関連して見ることができる。
[0053]文字は、ユーザー選択のための様々な方式でディスプレイデバイス104上に表示され得る。図5の例では、文字は、その周りの文字と同じように表示される。あるいは、図7の例示的システム700に示すように、1つまたは複数の文字が、引き伸ばされ、またはグループプライムと呼ばれる他の特殊視覚処置を与えられ得る。グループプライムは、比較的大きい文字リスト中をユーザーが素早くナビゲートするのを助けるのに使われ得る。例示的リスト702に示すように、字「A」〜「Z」は、文字の拡大リストのメンバーである。字「A」、「G」、「O」、「U」、および「Z」には、ユーザーがリスト702の所望の部分を素早く突き止めることができるように、特殊視覚処置が与えられる。対等物よりも大きい、対応する文字の後ろに表示されるマーキー表現など、他の例も企図される。
[0054]さらに、文字の線形表示が示されたが、リスト中の文字の他の様々な構成も企図される。図8の例示的システム800に示すように、リスト802は、段違いグループに配置された文字を含むように構成され得る。各グループは、水平の行に表示されるグループプライムに関連づけられ得る。円形配置など、他の非線形構成も企図される。
[0055]さらに、ラテン語由来の言語での使用のために、アルファベット文字について記載してきたが、文字選択モジュール114は、他の様々な言語をサポートすることができる。たとえば、文字選択モジュール114は、1つまたは複数の文字を使って音節が書かれ、検索結果が、音節に対応する可能な単語を含む音節書法(たとえば、カナ)をサポートすることができる。
[0056]さらに、前述の図は、ジェスチャーを使っての、リスト116のナビゲーションを記載したが、他の様々な技術も、文字を選択するのに使用され得る。たとえば、ユーザーは、(たとえば、コントローラーを手で操作して)コントローラー108、リモコンなどと対話して、ジェスチャーに関連して上に記載したように、文字をナビゲートし、ズームし、選択することができる。
[0057]たとえば、ユーザーは、ジョイスティック、親指パッド、または他のナビゲーション機能を使って左または右にナビゲートすることができる。ディスプレイデバイス104上の字は、フォーカスが当たっているとき、図4に関連して上に記載した「隆起」技術を使って引き伸ばされ得る。コントローラー108は、削除またはスペース用ボタンなど、ナビゲートするための追加能力を提供することもできる。
[0058]ある実施例では、ユーザーは、個々の文字の中をナビゲートして、文字グループの間を移動する。たとえば、ユーザーは、コントローラー108の右押しボタンを使って、文字グループの間のフォーカスシフトを可能にすることができる。別の例では、右押しボタンは、一度のボタン押下で一度に5つの文字など、リスト116内の複数の文字中の移動を可能にし得る。さらに、グループ中に5個未満の文字がある場合、ボタン押下は、次のグループにフォーカスを動かし得る。同様に、左押しボタンは、フォーカスを左に動かし得る。他の様々な例も企図される。
例示的手順
[0059]以下の説明は、上に記載したシステムおよびデバイスを使用して実装され得る文字選択技術について記載する。手順それぞれの側面は、ハードウェア、ファームウェア、ソフトウェア、またはその組合せで実装され得る。手順は、1つまたは複数のデバイスによって実施される動作を指定する1組のブロックとして示され、それぞれのブロックによって動作を実施するために示される順序に必ずしも限定されない。以下の説明のいくつかの部分では、図1の環境100および図2〜8のシステム200〜800に対して参照が行われる。
[0060]図9は、文字をナビゲートし、ズームし、選択するのにジェスチャーが使用される例示的実施例における手順900を示す。文字リストが、コンピューティングデバイスによってユーザーインターフェースに表示するために出力される(ブロック902)。リストは、線形および非線形など、様々に構成され、異なる様々な文字(たとえば、数字、記号、アルファベット文字、非アルファベット言語の文字)などを含み得る。
[0061]カメラを使って検出された入力が、コンピューティングデバイスによって、文字リストの表示中をナビゲートするためのジェスチャーとして認識される(ブロック904)。たとえば、コンピューティングデバイス102のNUI入力デバイス110のカメラは、ユーザーの手112の水平移動の画像を取り込むことができる。こうした画像は次いで、文字選択モジュール114によって、リスト116中をナビゲートするためのジェスチャーを認識するための土台として使われ得る。ジェスチャーは、たとえば、リストの長手軸に平行に、たとえば、リスト116、リスト702、およびリスト802に対して「水平」に行われる、ユーザーの手112の動きを伴い得る。
[0062]カメラを使って検出された別の入力が、コンピューティングデバイスによって、文字リストの表示をズームするためのジェスチャーとして認識される(ブロック906)。上記のように、文字選択モジュール114は、NUI入力デバイス110のカメラによって取り込まれた画像を、カメラの方への移動を認識するための土台として使うことができる。したがって、文字選択モジュール114は、リスト中の文字の表示を、ディスプレイデバイス104上でサイズ増大させることができる。さらに、増大量は、文字選択モジュール114によって検出された、カメラの方への移動量に少なくとも部分的に基づき得る。
[0063]カメラを使って検出されたさらなる入力が、コンピューティングデバイスによって、文字の少なくとも1つを選択するためのジェスチャーとして認識される(ブロック908)。前述の例を続けると、この例におけるジェスチャーは、たとえば、リスト116、リスト702、およびリスト802に対して「上」など、リストの長手軸に対して垂直であり得る。したがって、ユーザーは、文字リスト中をナビゲートするためには手で水平方向に合図すればよく、文字リストの表示をズームするためにはカメラの方向に合図し、文字を選択するためには上に動かせばよい。ある実施例では、ユーザーは、リストとの対話から関与解除するためには手を下に動かせばよい。
[0064]選択された文字を使って検索が実施される(ブロック910)。たとえば、ユーザーは、たとえば、コンピューティングデバイス102上にローカルに格納され、および/またはネットワークを介して利用可能なメディアに対する、実施されるべき特定の検索を指定して、連絡先リストを検索し、ウェブ検索を実施するなどのことができる。上に記載したように、文字選択モジュール114は、メッセージを組み立て、課金情報を提供し、文書を編集するなどのような、他の様々な目的での文字選択技術も提供し得る。したがって、文字選択モジュール114は、ユーザーインターフェースにおいて文字と対話するための異なる様々な技術をサポートすることができる。
例示的デバイス
[0065]図10は、本明細書に記載するジェスチャー技術の実施形態を実装するように、図1〜8を参照して記載したどのタイプのポータブルおよび/またはコンピューターデバイスとしても実装され得る例示的デバイス1000の様々なコンポーネントを示す。デバイス1000は、デバイスデータ1004(たとえば、受信済みデータ、受信中のデータ、ブロードキャスト用にスケジュールされるデータ、データのデータパケットなど)のワイヤードおよび/またはワイヤレス通信を可能にする通信デバイス1002を含む。デバイスデータ1004または他のデバイスコンテンツは、デバイスの構成設定、デバイスに記憶されたメディアコンテンツ、および/またはデバイスのユーザーに関連づけられた情報を含み得る。デバイス1000に記憶されたメディアコンテンツは、どのタイプのオーディオ、ビデオ、および/または画像データも含み得る。デバイス1000は、ユーザー選択可能入力、メッセージ、音楽、テレビメディアコンテンツ、録画ビデオコンテンツ、ならびに任意のコンテンツおよび/またはデータソースから受信される他の任意のタイプのオーディオ、ビデオ、および/または画像データなど、どのタイプのデータ、メディアコンテンツ、および/または入力もそれを介して受信することができる1つまたは複数のデータ入力1006を含む。
[0066]デバイス1000は、シリアルおよび/またはパラレルインターフェース、ワイヤレスインターフェース、任意のタイプのネットワークインターフェース、モデムのどの1つまたは複数としても、および他のどのタイプの通信インターフェースとしても実装され得る通信インターフェース1008も含む。通信インターフェース1008は、他の電子、コンピューティング、および通信デバイスがデバイス1000とデータ通信をするための、デバイス1000と通信ネットワークとの間の接続および/または通信リンクを提供する。
[0067]デバイス1000は、デバイス1000の動作を制御し、本明細書に記載した実施形態を実装するための様々なコンピューター実行可能命令を処理する1つまたは複数のプロセッサー1010(たとえば、マイクロプロセッサー、コントローラーなどのどれでも)を含む。代替的または追加的に、デバイス1000は、全体として1012で識別される処理および制御回路に関連して実装されるハードウェア、ファームウェア、または固定論理回路要素のどの1つまたは組合せとしても実装され得る。図示していないが、デバイス1000は、デバイス内の様々なコンポーネントを結合するシステムバスまたはデータ転送システムを含み得る。システムバスは、メモリーバスもしくはメモリーコントローラー、ペリフェラルバス、ユニバーサルシリアルバス、および/または様々なバスアーキテクチャーのどれでも使用するプロセッサーもしくはローカルバスなど、異なるバス構造のどの1つまたは組合せも含み得る。
[0068]デバイス1000は、1つまたは複数のメモリーコンポーネントなどのコンピューター読み取り可能な媒体1014も含み、その例は、ランダムアクセスメモリー(RAM)、不揮発性メモリー(たとえば、読出し専用メモリー(ROM)、フラッシュメモリー、EPROM、EEPROMなどの任意の1つまたは複数)、およびディスク記憶デバイスを含む。ディスク記憶デバイスは、ハードディスクドライブ、書込み可能および/または書換え可能コンパクトディスク(CD)、任意のタイプのデジタル多用途ディスク(DVD)などのような、どのタイプの磁気または光学記憶デバイスとしても実装され得る。デバイス1000は、大容量記憶メディアデバイス1016も含み得る。
[0069]コンピューター読み取り可能な媒体1014は、デバイスデータ1004、ならびに様々なデバイスアプリケーション1018と、デバイス1000の動作態様に関連した他の任意のタイプの情報および/またはデータとを記憶するためのデータ記憶機構を提供する。たとえば、オペレーティングシステム1020は、コンピューター読み取り可能な媒体1014を有するコンピューターアプリケーションとして維持され、プロセッサー1010上で実行され得る。デバイスアプリケーション1018は、デバイスマネージャー(たとえば、制御アプリケーション、ソフトウェアアプリケーション、信号処理および制御モジュール、特定のデバイスにネイティブなコード、特定のデバイス用のハードウェア抽象化レイヤーなど)を含み得る。デバイスアプリケーション1018はまた、本明細書に記載するジェスチャー技術の実施形態を実装するためのどのシステムコンポーネントまたはモジュールも含む。この例では、デバイスアプリケーション1018は、ソフトウェアモジュールおよび/またはコンピューターアプリケーションとして示されるインターフェースアプリケーション1022および入力/出力モジュール1024(入力/出力モジュール114と同じでも、異なってもよい)を含む。入力/出力モジュール1024は、タッチスクリーン、トラックパッド、カメラ、マイクロホンなどのような、入力を取り込むように構成されたデバイスとのインターフェースを提供するのに使われるソフトウェアを表す。代替的または追加的に、インターフェースアプリケーション1022および入力/出力モジュール1024は、ハードウェア、ソフトウェア、ファームウェア、またはそれらのどの組合せとしても実装され得る。さらに、入力/出力モジュール1024は、それぞれ、視覚およびオーディオ入力を取り込むための個別デバイスなど、複数の入力デバイスをサポートするように構成され得る。
[0070]デバイス1000は、オーディオシステム1028にオーディオデータを提供し、かつ/またはディスプレイシステム1030にビデオデータを提供するオーディオおよび/またはビデオ入力出力システム1026も含む。オーディオシステム1028および/またはディスプレイシステム1030は、オーディオ、ビデオ、および画像データを処理し、表示し、かつ/または他のやり方でレンダリングする、どのデバイスも含み得る。ビデオ信号およびオーディオ信号は、RF(無線周波数)リンク、Sビデオリンク、コンポジットビデオリンク、コンポーネントビデオリンク、DVI(デジタルビデオインターフェース)、アナログオーディオ接続、または他の同様の通信リンクを介して、デバイス1000からオーディオデバイスおよび/またはディスプレイデバイスに伝達され得る。ある実施形態では、オーディオシステム1028および/またはディスプレイシステム1030は、デバイス1000に対する外部コンポーネントとして実装される。あるいは、オーディオシステム1028および/またはディスプレイシステム1030は、例示的デバイス1000の統合コンポーネントとして実装される。
結論
[0071]本発明を、構造的特徴および/または方法論的作用に特有の言葉で記載してきたが、添付の請求項において定義される本発明は、記載した特定の特徴または作用に必ずしも限定されないことを理解されたい。むしろ、それらの特定の特徴および作用は、特許請求されている本発明を実装する例示的形態として開示されている。

Claims (15)

  1. 文字リストを、コンピューティングデバイスによって、ユーザーインターフェースに表示するために出力するステップと、
    前記コンピューティングデバイスが、カメラを使って検出された入力を、前記文字の少なくとも1つを選択するためのジェスチャーとして認識するステップと
    を含む方法。
  2. 前記文字の前記選択された少なくとも1つを使って検索を実施するステップをさらに含む請求項1に記載の方法。
  3. 前記検索を実施する前記ステップが、前記文字の選択された少なくとも1つが認識されるとリアルタイムに実施され、前記実施された検索の結果を出力するステップをさらに含む請求項2に記載の方法。
  4. 前記ジェスチャーの現在の入力点に対応するものとして前記ユーザーインターフェース上に位置決めされる文字の1つまたは複数が、前記ジェスチャーの現在の入力点に対応しない、前記リストの少なくとも1つの他の前記文字と比較して増大したサイズを有するものとして表示されるように、前記文字リストを、前記ユーザーインターフェースに表示するために出力するステップをさらに含む請求項1に記載の方法。
  5. 前記コンピューティングデバイスが、前記カメラを使って検出された入力を、前記文字リストの表示中をナビゲートするためのジェスチャーとして認識するステップをさらに含む請求項1に記載の方法。
  6. 前記文字リストの前記表示中をナビゲートするための前記ジェスチャーがユーザーの水平移動を伴い、前記文字の前記少なくとも1つを選択するための前記ジェスチャーが垂直移動を伴う請求項5に記載の方法。
  7. 前記コンピューティングデバイスが、前記カメラを使って検出された入力を、前記文字リストの前記表示をズームするためのジェスチャーとして認識するステップをさらに含む請求項1に記載の方法。
  8. 前記表示に適用されるズームの量が前記カメラの方への前記移動の量に少なくとも部分的に基づく請求項7に記載の方法。
  9. 前記文字がリストに含まれ、前記文字が選択されると実施されるべき動作を記述する請求項1に記載の方法。
  10. 前記ジェスチャーを認識する前記ステップがユーザーの1つまたは複数の体の部分の位置決めを認識するステップを伴う請求項1に記載の方法。
  11. 前記ジェスチャーが前記コンピューティングデバイスに物理的に触れずに検出される請求項1に記載の方法。
  12. コンピューティングデバイスが、カメラを使って検出された入力を、前記コンピューティングデバイスによって表示される複数の文字の少なくとも1つを選択するためのジェスチャーとして認識するステップと、
    前記複数の文字の前記選択された少なくとも1つを使って検索を実施するステップと
    を含む方法。
  13. 前記検索を実施する前記ステップが、前記文字の選択された少なくとも1つが認識されるとリアルタイムに実施され、前記実施された検索の結果を出力するステップをさらに含む請求項12に記載の方法。
  14. 前記コンピューティングデバイスが、前記カメラを使って検出された入力を、前記文字リストの表示中をナビゲートするためのジェスチャーとして認識するステップをさらに含み、前記文字リストの表示中をナビゲートするための前記ジェスチャーがユーザーの水平移動を伴い、前記文字の前記少なくとも1つを選択するための前記ジェスチャーが垂直移動を伴う請求項12に記載の方法。
  15. 前記コンピューティングデバイスが、前記カメラの方への移動としての入力を、前記文字リストの表示をズームするためのジェスチャーとして認識するステップをさらに含み、前記表示に適用されるズームの量が前記カメラの方への前記移動の量に少なくとも部分的に基づく請求項12に記載の方法。
JP2013514211A 2010-06-10 2011-05-30 文字の選択 Pending JP2013533541A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US35363010P 2010-06-10 2010-06-10
US61/353,630 2010-06-10
US12/854,560 US20110304649A1 (en) 2010-06-10 2010-08-11 Character selection
US12/854,560 2010-08-11
PCT/US2011/038479 WO2011156162A2 (en) 2010-06-10 2011-05-30 Character selection

Publications (2)

Publication Number Publication Date
JP2013533541A true JP2013533541A (ja) 2013-08-22
JP2013533541A5 JP2013533541A5 (ja) 2014-07-03

Family

ID=45095908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013514211A Pending JP2013533541A (ja) 2010-06-10 2011-05-30 文字の選択

Country Status (6)

Country Link
US (1) US20110304649A1 (ja)
EP (1) EP2580644A4 (ja)
JP (1) JP2013533541A (ja)
CN (1) CN102939574A (ja)
CA (1) CA2799524A1 (ja)
WO (1) WO2011156162A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101327963B1 (ko) 2013-08-26 2013-11-13 전자부품연구원 깊이 값을 이용한 회전 인터페이스 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법
JP2020516636A (ja) * 2017-04-13 2020-06-11 キャンサー・リサーチ・テクノロジー・リミテッドCancer Research Technology Limited Ret阻害剤として有用な化合物

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120059647A1 (en) * 2010-09-08 2012-03-08 International Business Machines Corporation Touchless Texting Exercise
CN102549577A (zh) * 2011-12-29 2012-07-04 华为技术有限公司 联系人搜索方法、装置及其应用的移动终端
CN104160361A (zh) 2012-02-06 2014-11-19 迈克尔·K·科尔比 字符串完成
US9671869B2 (en) * 2012-03-13 2017-06-06 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
DE102013004244A1 (de) * 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Löschschaltfläche und/oder Listenauswahl-Schaltfläche
DE102013004246A1 (de) 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Vervollständigungs-Kennzeichnung
US20140380223A1 (en) * 2013-06-20 2014-12-25 Lsi Corporation User interface comprising radial layout soft keypad
US20150070263A1 (en) * 2013-09-09 2015-03-12 Microsoft Corporation Dynamic Displays Based On User Interaction States
US10671181B2 (en) * 2017-04-03 2020-06-02 Microsoft Technology Licensing, Llc Text entry interface
WO2021218111A1 (zh) * 2020-04-29 2021-11-04 聚好看科技股份有限公司 确定搜索字符的方法及显示设备
CN116132640A (zh) * 2021-11-12 2023-05-16 成都极米科技股份有限公司 投影画面调整方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009018161A1 (en) * 2007-07-27 2009-02-05 Gesturetek, Inc. Enhanced camera-based input
WO2009111329A2 (en) * 2008-03-04 2009-09-11 Gesturetek, Inc. Enhanced gesture-based image manipulation
US20090315740A1 (en) * 2008-06-23 2009-12-24 Gesturetek, Inc. Enhanced Character Input Using Recognized Gestures

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9141283B2 (en) * 2007-01-30 2015-09-22 Samsung Electronics Co., Ltd Apparatus and method for inputting characters on touch screen of a terminal
US8060841B2 (en) * 2007-03-19 2011-11-15 Navisense Method and device for touchless media searching
CN101055582A (zh) * 2007-05-08 2007-10-17 魏新成 集成在中文输入法之中的搜索操作方法
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
CN101221576B (zh) * 2008-01-23 2010-08-18 腾讯科技(深圳)有限公司 一种能够实现自动翻译的输入方法及装置
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009018161A1 (en) * 2007-07-27 2009-02-05 Gesturetek, Inc. Enhanced camera-based input
WO2009111329A2 (en) * 2008-03-04 2009-09-11 Gesturetek, Inc. Enhanced gesture-based image manipulation
US20090315740A1 (en) * 2008-06-23 2009-12-24 Gesturetek, Inc. Enhanced Character Input Using Recognized Gestures

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015028249; 西村 岳史: '新OS導入前に不安をきっちり解消! Vista50の疑問' 日経Win PC 第13巻 第4号 第13巻, 20070301, 第61頁, 日経BP社 Nikkei Business Publications,Inc. *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101327963B1 (ko) 2013-08-26 2013-11-13 전자부품연구원 깊이 값을 이용한 회전 인터페이스 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법
JP2020516636A (ja) * 2017-04-13 2020-06-11 キャンサー・リサーチ・テクノロジー・リミテッドCancer Research Technology Limited Ret阻害剤として有用な化合物
JP7277376B2 (ja) 2017-04-13 2023-05-18 キャンサー・リサーチ・テクノロジー・リミテッド Ret阻害剤として有用な化合物

Also Published As

Publication number Publication date
CN102939574A (zh) 2013-02-20
WO2011156162A3 (en) 2012-03-29
EP2580644A2 (en) 2013-04-17
WO2011156162A2 (en) 2011-12-15
US20110304649A1 (en) 2011-12-15
EP2580644A4 (en) 2016-10-05
CA2799524A1 (en) 2011-12-15

Similar Documents

Publication Publication Date Title
JP2013533541A (ja) 文字の選択
US11520467B2 (en) Input device and user interface interactions
US11635928B2 (en) User interfaces for content streaming
JP6270982B2 (ja) バックグラウンドタスク用の対話式入力
US9720567B2 (en) Multitasking and full screen menu contexts
EP2417517B1 (en) Directional touch remote
CN102981728B (zh) 语义缩放
RU2644142C2 (ru) Контекстный пользовательский интерфейс
CN108132744B (zh) 一种遥控智能设备的方法与设备
US20130198690A1 (en) Visual indication of graphical user interface relationship
US20130203495A1 (en) Multi-functional touchpad remote controller
US20100001960A1 (en) Systems and methods for gestural interaction with user interface objects
JP2017523515A (ja) アイコンサイズ変更
KR20170056695A (ko) 멀티핑거 터치패드 제스쳐
US20150339026A1 (en) User terminal device, method for controlling user terminal device, and multimedia system thereof
CN103853355A (zh) 电子设备操作方法及其操控设备
KR102157264B1 (ko) 디스플레이 장치 및 그 ui 제공 방법
JP2012503801A (ja) 物体検出およびユーザーセッティング
JP2014132442A (ja) 電子装置およびその制御方法
US20130227477A1 (en) Semaphore gesture for human-machine interface
US20100201638A1 (en) Operation method of touch pad with multiple function modes, integration system thereof, and computer program product using the operation method
WO2022083554A1 (zh) 用户界面的布局、交互方法及三维显示设备
US20130201095A1 (en) Presentation techniques
CN108885527B (zh) 在压力触控屏上操作多个对象的方法及装置
KR102620363B1 (ko) 모바일 장치 및 모바일 장치의 제어 방법

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140516

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151204