JP2015201217A - 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 - Google Patents

移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 Download PDF

Info

Publication number
JP2015201217A
JP2015201217A JP2015110223A JP2015110223A JP2015201217A JP 2015201217 A JP2015201217 A JP 2015201217A JP 2015110223 A JP2015110223 A JP 2015110223A JP 2015110223 A JP2015110223 A JP 2015110223A JP 2015201217 A JP2015201217 A JP 2015201217A
Authority
JP
Japan
Prior art keywords
mobile device
user
output
gesture command
command input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015110223A
Other languages
English (en)
Other versions
JP2015201217A5 (ja
JP6092303B2 (ja
Inventor
マシュー・ウィリアム・ベビラクア
William Bevilacqua Mathew
ニューフェル・ハーラット
Harrat Newfel
ピーター・リング
Ring Peter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015201217A publication Critical patent/JP2015201217A/ja
Publication of JP2015201217A5 publication Critical patent/JP2015201217A5/ja
Application granted granted Critical
Publication of JP6092303B2 publication Critical patent/JP6092303B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

【課題】特定のジェスチャーベースのユーザ入力(ジェスチャーコマンド入力)において、ユーザがさまざまな日課をこなしているときに、ユーザの体に接して、または、ユーザの体の近くで、移動デバイスを単に持ち運んでいる場合に誤入力しない方法および装置を提供する。【解決手段】しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し404、移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定し410、決定されたジェスチャーコマンド入力に応答して、ユーザにより知覚可能な出力に影響を与える412。【選択図】図4

Description

優先権の主張
本特許出願は、2010年9月2日に出願され、“加速度センサを使用して、向きと方向性の揺れとを検出するための方法”と題され、そのすべてが参照によりここに組み込まれている、同時係属中の米国仮特許出願第61/379,669号の利益を主張し、この出願に対する優先権を主張する。
背景
1.分野
ここで開示する主題事項は、電子デバイスに関し、さらに詳細には、ジェスチャーベースのユーザ入力を受け取ることが可能な移動デバイスにおいて使用するための方法および装置に関する。
2.情報
スマートフォンまたは他のタイプのセル電話機、タブレットコンピュータ、デジタルブックリーダー、パーソナルデジタルアシスタント、ゲーミングデバイス等の、ハンドヘルド移動デバイスのような、移動デバイスは、さまざまな機能を実行してもよい。例えば、ある移動デバイスは、ワイヤレス通信ネットワークを介して、音声および/またはデータ通信サービスを提供してもよい。例えば、ある移動デバイスは、オーディオおよび/またはビデオの記録または再生を提供してもよい。例えば、ある移動デバイスは、ゲーム、エンターテインメント、電子書籍、ユーティリティ、ロケーションベースのサービス等に関するさまざまなアプリケーションを提供してもよい。
移動デバイスは、さまざまな異なる入力デバイスを、および/または、ユーザ入力を受け取るための関連技術を、含んでもよい。例えば、移動デバイスは、さまざまなボタン、スイッチ、タッチパッド、または、他の同様のタッチセンサまたは近接センサ等を備えてもよい。いくつかの移動デバイスは、マイクロフォンを介して取り込まれた音声コマンドを通してユーザ入力を受け取ってもよい。いくつかの移動デバイスは、(スチルまたはビデオ)カメラを介して取り込まれたイメージベースのコマンドを通してユーザ入力を受け取ってもよい。
ある移動デバイスは、慣性センサおよび/または環境センサのような、さまざまなセンサを用いてもよく、さまざまなセンサは、例えば、ユーザによる移動デバイスの動きを検出することと、このような動きが、特定のジェスチャーベースのユーザ入力(ジェスチャーコマンド入力)であるか否かを決定することとを含む、さまざまな機能による使用のために、信号を提供する。ユーザがさまざまな日課をこなしているときに、ユーザの体に接して、または、ユーザの体の近くで、移動デバイスを単に持ち運んでいる場合、ある移動デバイスが、ユーザによって、相当にあちこちに動かされるか、あるいは、それ以外の影響を受けることは、珍しいことではない。そのため、この理由および他の理由から、検出された動きが、ジェスチャーコマンド入力に関連している可能性があるとみなされるべきか否かを、慎重に決定することが有益であることがある。
概要
1つの態様にしたがって、移動デバイスにおいて方法が実現されてもよい。1つの例示的な構成では、ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定することと、移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定することと、検出された動きがジェスチャーコマンド入力を表すとの決定に応答して、ユーザにより知覚可能な出力に影響を与えることとを含む。
別の態様にしたがって、移動デバイスにおいて使用する装置が提供されてもよい。1つの例示的な構成では、装置は、ユーザにより知覚可能な出力を開始する手段と、ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定する手段と、移動デバイスの動きを検出する手段と、移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定する手段と、決定されたジェスチャーコマンド入力に応答して、ユーザにより知覚可能な出力に影響を与える手段とを具備する。
さらに別の態様にしたがって、移動デバイスが提供されてもよい。1つの例示的な構成では、移動デバイスは、少なくとも1つのディスプレイデバイスを含む1つ以上の出力デバイスと、1つ以上の慣性センサと、処理ユニットとを備える。処理ユニットは、例えば、1つ以上の出力デバイスのうちの少なくとも1つを介しての、ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、ディスプレイデバイスが水平に見えるポジションのままであることに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、移動デバイスの動きがジェスチャーコマンド入力を表すか否かを決定し、決定されたジェスチャーコマンド入力に応答して、ユーザにより知覚可能な出力に影響を与える。動きは、1つ以上の慣性センサのうちの少なくとも1つに関係付けられている少なくとも1つの信号に少なくとも部分的に基づいている。
さらに別の態様にしたがって、製造物が提供されてもよい。1つの例示的な構成では、製造物は、ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定し、検出された動きがジェスチャーコマンド入力を表すとの決定に応答して、ユーザにより知覚可能な出力に影響を与えるように、移動デバイスの処理ユニットによって実行可能なコンピュータ実行可能命令をその上に記憶させている一時的でないコンピュータ読取可能媒体を備えてもよい。
そうではないと述べられていない限り、さまざまな図面全体を通して、同一の参照番号が同一の部分を指す、以下の図面を参照して、限定的でなく網羅的でない態様を説明する。
図1は、1つの構成にしたがった、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定するジェスチャーコマンド入力検出器を備える移動デバイスを含む、例示的な環境を図示した、概略ブロックダイヤグラムである。 図2Aは、1つの構成にしたがった、水平でない向きを有する、例えば、図1におけるもののような移動デバイスを示した、例示的なダイヤグラムである。 図2Bは、1つの構成にしたがった、実質的に水平な向きを有する、例えば、図1におけるもののような移動デバイスを示した、例示的なダイヤグラムである。 図3は、1つの構成にしたがった、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定するためにイネーブルされる、例えば、図1におけるもののような移動デバイスのある特徴を図示した、概略ブロックダイヤグラムである。 図4は、1つの構成にしたがった、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定するための例示的なプロセスまたは方法の、ある特徴を図示したフローダイヤグラムである。
詳細な説明
ある例示的な構成にしたがって、移動デバイスは、あるジェスチャーベースのユーザ入力(ジェスチャーコマンド入力)を受け取ることがあるジェスチャーコマンド入力レディ状態で、選択的に動作するようにイネーブルされてもよい。
例えば、ある構成では、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定する、ジェスチャーコマンド入力検出器および/または他の同様の論理が、移動デバイス中に提供されていてもよい。例えば、ジェスチャーコマンド入力レディ状態にあると決定された移動デバイスは、あるジェスチャーコマンド入力を受け取るかもしれない。逆に、例えば、ジェスチャーコマンド入力レディ状態にないと決定された移動デバイスは、あるジェスチャーコマンド入力を受け取らないかもしれない。ここで提供する例は、1つのジェスチャーコマンド入力レディ状態に関する傾向があるが、ある例示的な構成では、同じおよび/または異なるジェスチャーコマンド入力のうちのいくつかに関してもよい、複数の異なるジェスチャーコマンド入力レディ状態があってもよいことを、心に留めておくべきである。したがって、移動デバイスが1つ以上のジェスチャーコマンド入力レディ状態にあるか否かを決定する、ジェスチャーコマンド入力検出器および/または他の同様の論理が、移動デバイス中に提供されていてもよい。
ある例示的な構成では、ジェスチャーコマンド入力検出器および/または他の同様の論理は、しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定してもよい。したがって、移動デバイスがジェスチャーコマンド入力レディ状態にある場合、ジェスチャーコマンド入力検出器および/または他の同様の論理は、例えば、ユーザによる意図的な、移動デバイスの検出された動きが、ジェスチャーコマンド入力を表すか否かを決定してもよい。決定されたジェスチャーコマンド入力に応答して、ジェスチャーコマンド入力検出器および/または他の同様の論理は、ユーザにより知覚可能な出力に、ならびに/あるいは、移動デバイスによって何らかの方法で実行される他の同様の関係付けられた機能またはそうでなければサポートに、影響を与えることがある。
例えば、アラームクロック機能は、アラーム作動プロセスの一部として、1つ以上の出力デバイスを使用して、アラームを作動させるように動作してもよい。例えば、アラームは、サウンド、光、ディスプレイ、振動等、または、これらの何らかの組み合わせを含んでもよい。例えば、アラームが作動すると、ユーザは、移動デバイスを手に取り、移動デバイスがジェスチャーコマンド入力レディ状態に置かれるのに適用可能なしきい時間期間の間、適用可能な“水平に見えるポジション”で、移動デバイスを、安定させてまたはある程度安定させて、手に持つ。その後、ユーザは、1つ以上のジェスチャーを実行するために、それに応じて移動デバイスを動かし、1つ以上のジェスチャーは、移動デバイスによって受け取られてもよく、例えば、移動デバイスは、アラームの動作停止を開始してもよい。したがって、例えば、ユーザは、財布またはポケットの中に移動デバイスを有していることがあり、可聴のアラームが聞こえたことに応答して、移動デバイスを財布またはポケットから取り出して、1〜2秒の間、水平に見えるポジションで、移動デバイスを安定させて手に持ち、その後、何らかの予め定められた方法で、移動デバイスを振るか、または、そうでない方法で動かして、可聴のアラームを動作停止させる(例えば、スリープさせる/遅らせる、切る)。
ある例示的な構成では、移動デバイスは、現在のユーザの運動状態にさらに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定してもよい。例えば、ユーザが歩いていない(例えば、何らかの検出された足取りの動きのパターンで、歩き回っていない、走っていない等)ことを示す現在のユーザの運動状態に応答して、移動デバイスがジェスチャーコマンド入力レディ状態にあると決定してもよい。例えば、現在のユーザの運動状態は、環境内の移動デバイスの動きまたは運動に応答した、1つ以上の慣性センサおよび/または環境センサによって発生される信号に、少なくとも部分的に基づいて、決定されてもよい。
ある例示的な構成では、移動デバイスは、例えば、以下のもののうちの1つ以上に関する、環境内での移動デバイスの推定されるロケーションに、さらに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定してもよい:地理的座標、電子マップ中で識別されるロケーション、移動デバイスの動きに関する推定速度、高さ等。例えば、劇場、空港、病院、学校、カンファレンスルーム、動いている乗り物の上等のような、ジェスチャーコマンド入力が勧められない、または、あまり現実的でない、あるロケーションがあるかもしれない。例えば、移動デバイスが、ユーザ以外の何らかのメカニズム(例えば、エレベータ、動いている乗り物等)によって、しきい値レベル以上の検出された動き(例えば、振動、加速等)を受けることがあり、そのため、実際の意図されたジェスチャーコマンド入力を、意図されていない、ジェスチャーに似た入力から区別するのが難しい、あるロケーションがあるかもしれない。
ある例示的な構成では、移動デバイスは、ユーザ入力を受け取ってからの(例えば、第2のしきい時間期間に関係付けられている)時間の経過に少なくとも部分的に基づいて、移動デバイスの検出された動きが、ジェスチャーコマンド入力を表すか否かを決定してもよい。例えば、移動局がジェスチャーコマンド入力レディ状態に置かれることが可能になる前に、以前の非ジェスチャーベースのユーザ入力(例えば、音声入力、ボタン入力、タッチスクリーン入力等)から、数秒待つことが、移動局にとって有益であることがある。
ある例示的な構成では、移動デバイスは、検出された重力加速度(例えば、地球の重力)および/または検出された外部光源(例えば、太陽、頭上の光等)に対する移動デバイスの向きに少なくとも部分的に基づいて、移動デバイスのディスプレイ部分(例えば、ディスプレイデバイス、または、他の同様の視覚的なフィードバックベースの出力デバイス)が、水平に見えるポジションにあるか否かを決定してもよい。
ある例示的な構成では、移動デバイスは、検出されたジェスチャーコマンド入力に基づいて、ユーザにより知覚可能な出力に影響を与えたことに応答して、1つ以上の追加のユーザにより知覚可能な出力を開始してもよい。例えば、ジェスチャーコマンド入力が受け取られたことと、ユーザにより知覚可能な出力および/または他の同様の機能が何らかの方法で影響を受けたこととを示すために、追加のユーザフィードバックを生成させてもよい。
最初の例として、移動デバイスは、セル電話機、スマートフォン、コンピュータ、タブレット、ナビゲーション補助器具、デジタルブックリーダー、ゲーミングデバイス、音楽および/またはビデオのプレーヤーデバイス、カメラ等を含んでもよい。
図1は、例えば、移動デバイス102が提供されて、あちこちに動かされることがある環境100を図示する。移動デバイス102は、ユーザに情報を通信できる少なくとも1つの出力デバイスを有するそのような何らかの電子デバイスを表す。例えば、ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力、または、触覚の出力を含んでもよい。
図示しているように、移動デバイス102は、ジェスチャーコマンド入力検出器106を備えてもよい。ジェスチャーコマンド入力検出器106は、例えば、ハードウェア、ファームウェア、ハードウェアとソフトウェアの組み合わせ、および/または、ファームウェアとソフトウェアの組み合わせのような、回路を表し、あるいは、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定するための他の同様の論理が、移動デバイスに提供されていてもよい。
ある例示的な構成では、移動デバイス102は、スタンドアローン型デバイスとして排他的および/または選択的に機能してもよく、ならびに/あるいは、ユーザにとって興味のある/ユーザが使用する1つ以上の能力/サービスを提供してもよい。ある例示的な構成では、移動デバイス102は、例えば、クラウドと呼ばれるネットワーク104に対するワイヤレス通信リンクによって図示されているように、何らかの方法で、1つ以上の他のデバイスと通信してもよい。ネットワーク104は、1つ以上のワイヤードまたはワイヤレスの通信リンクを使用して、移動デバイス102と通信する、あるいは、移動デバイスがそれを通して通信する、1つ以上の通信リソースおよび/またはコンピューティングリソース(例えば、デバイスおよび/またはサービス)を表す。したがって、ある例では、移動デバイス102は、ネットワーク104を介して、データおよび/または命令を受信してもよい(あるいは、送ってもよい)。
ある例示的な構成では、移動デバイス102は、1つ以上のロケーションサービス108から受信した信号を使用するようにイネーブルされてもよい。ロケーションサービス108は、グローバルナビゲーションサテライトシステム(GNSS)あるいは他の同様の衛星および/または地上位置決めサービスのような、1つ以上のワイヤレス信号ベースのロケーションサービス、(例えば、セルラネットワーク、WiFi(登録商標)ネットワーク等を介する)ロケーションベースのサービスを表す。
例えば、移動デバイス102は、ワイヤレスワイドエリアネットワーク(WWAN)、ワイヤレスローカルエリアネットワーク(WLAN)、ワイヤレスパーソナルエリアネットワーク(WPAN)等のような、さまざまなワイヤレス通信ネットワークとともに使用するために、(例えば、1つ以上のネットワークインターフェースを介して)イネーブルされてもよい。ここでは、“ネットワーク”および“システム”という用語は、交換可能に使用されてもよい。WWANは、コード分割多元接続(CDMA)ネットワーク、時分割多元接続(TDMA)ネットワーク、周波数分割多元接続(FDMA)ネットワーク、直交周波数分割多元接続(OFDMA)ネットワーク、単一搬送波周波数分割多元接続(SC−FDMA)ネットワーク等であってもよい。CDMAネットワークは、ほんのわずかな無線技術の例を挙げてみただけでも、cdma2000、ワイドバンドCDMA(W−CDMA)(登録商標)、時分割同期コード分割多元接続(TD−SCDMA)のような、1つ以上の無線接続技術(RAT)を実現してもよい。ここでは、cdma2000は、IS−95、IS−2000、および、IS−856標準規格にしたがって実現される技術を含んでもよい。TDMAネットワークは、グローバルシステムフォーモバイルコミュニケーション(GSM)(登録商標)、デジタルアドバンストモバイルフォンシステム(D−AMPS)、または、他の何らかのRATを実現してもよい。GSMおよびW−CDMAは、“第三世代パートナーシッププロジェクト”(3GPP)という名のコンソーシアムによる文書中に記述されている。cdma2000は、“第三世代パートナーシッププロジェクト2”(3GPP2)という名のコンソーシアムによる文書中に記述されている。3GPP文書および3GPP2文書は、公的に入手可能である。WLANは、IEEE802.11ネットワークを含んでもよく、WPANは、例えば、ブルートゥース(登録商標)ネットワーク、IEEE802.15xを含んでもよい。ワイヤレス通信ネットワークは、例えば、ロングタームエボリューション(LTE)、アドバンストLTE、WiMAX(登録商標)、ウルトラモバイルブロードバンド(UMB)、および/または、これらに類似するもののような、いわゆる次世代技術(例えば、“4G”)を含んでもよい。
図2Aは、例えば、座標系に関係付けられていてもよく、したがって、座標系によって表されてもよい向きを有する移動デバイスの簡単な例をグラフィックに図示し、例えば、座標系は、x、yおよびzとラベル表示された軸200によって示され、移動デバイスに関係付けられている基準点に置かれていてもよい原点を有する。このような基準点は、例えば、中央に置かれていてもよく、または、何らかの方法でオフセットされていてもよい。
この例でも、図2Bにおける類似の例でも、向きは、ディスプレイ204(例えば、タッチスクリーンとしても機能することがある、メインディスプレイ)に関係付けられているように意図されている。したがって、移動デバイス102のボディまたは他の部分は、任意の合理的な形または形状をとってもよい。ここで図示した例は、長方形の形をしたディスプレイ204を示しているが、請求されている主題事項は、そのように限定されないことにも留意すべきである。
図2Aにおいて、さらに、図2Bにおいて図示するように、ディスプレイ204は、x−y平面に関係付けられていてもよい表面206(図2B)を含んでもよい。したがって、図2Aでは、x−y平面は(したがって、ディスプレイ204は)、検出された地球の重力加速度に関係付けられているベクトル202に実質的に平行である。そのため、図2Aでは、移動デバイス102は、実質的に垂直に見えるポジションにあると考えられてもよい。反対に、図2Bでは、x−y平面は(したがって、ディスプレイ204は)、検出された地球の重力加速度に関係付けられているベクトル202に実質的に垂直である。そのため、図2Bでは、移動デバイス102は、実質的に水平に見えるポジションにあると考えられてもよい。
ある構成では、ジェスチャーコマンド入力検出器106は、しきい時間期間の間、移動デバイス102のディスプレイ204が水平に見えるポジションのままであることに少なくとも部分的に基づいて、移動デバイス102がジェスチャーコマンド入力レディ状態にあるか否かを決定してもよい。
図2Aおよび図2Bは、理想的な垂直に見えるポジションと、理想的な水平に見えるポジションとをそれぞれ図示しているが、そうではないと述べられていない限り、“水平に見えるポジション”という用語は、x−y平面の角度のしきい値範囲内にあってもよい、ディスプレイ204のさまざまな向きを表すように意図されていることを理解すべきである。例えば、ディスプレイ204は、その表面206が、例えば、ロール(x軸を中心とした回転)がなく、かつ、ピッチ(y軸を中心とした回転)がない完全に水平なx−y平面の角度のしきい値限界内にある傾斜平面である間、水平に見えるポジションにあると決定されてもよい。このような傾き(例えば、1つ以上のしきい角度値により規定されることがあるような、ロールおよび/またはピッチ)の量は、移動デバイスのタイプ等に依存することがあることを理解すべきである。したがって、ある例示的な構成では、ロールあるいはピッチにおけるプラスまたはマイナス30度のしきい角度が、水平に見えるポジションを表すと決定されてもよい。しかしながら、他のある例示的な構成では、ロールあるいはピッチにおけるプラス10度またはマイナス5度のしきい角度が、水平に見えるポジションを表すと決定されてもよい。ロールおよびピッチに対する異なるしきい角度があってもよいことも理解すべきである。さらに、ある例示的な構成では、ヨー(z軸を中心とした回転)のような、追加の情報もまた、ディスプレイ204が水平に見えるポジションにあるか否かを決定する際に考慮されてもよい。
図2Aおよび図2Bにおいて図示されているように、ある例示的な構成では、ディスプレイ204の向きは、(例えば、1つ以上のセンサを使用して検出されたような、)検出された重力加速度に少なくとも部分的に基づいていてもよい。
ある例示的な構成では、図2Bにおいてさらに図示されているように、ディスプレイ204の向きは、移動デバイス102上に落ちる外部光源210からの光に少なくとも部分的に基づいていてもよい。例えば、(例えば、面208上に配置されている、または、面208内にある1つ以上のセンサを使用して、)太陽または他の頭上の光源からの光の量を、あるいは、それらがないことを検出して、ディスプレイ204が、しきい時間期間の間、水平に見えるポジションのままであるか否かを識別してもよく、または、識別するのを助けてもよい。
次に、図3を参照する。図3は、1つの構成にしたがった、例えば、図1におけるもののような移動デバイス102のある特徴を図示した、概略ブロックダイヤグラムである。
図示されている移動デバイス102は、1つ以上の接続306を介して、メモリ304に結合されている、(例えば、ここで提供する技術にしたがって)データ処理を実行する1つ以上の処理ユニット302を含んでもよい。処理ユニット302は、例えば、ハードウェアで、または、ハードウェアとソフトウェアの組み合わせで、実現されてもよい。処理ユニット302は、データコンピューティング手順またはプロセスの少なくとも一部を実行するように構成可能な1つ以上の回路を表してもよい。これらに限定されないが、一例として、処理ユニットは、1つ以上のプロセッサ、制御装置、マイクロプロセッサ、マイクロ制御装置、特定用途向け集積回路、デジタル信号プロセッサ、プログラム可能論理デバイス、フィールドプログラム可能ゲートアレイ、および、これらに類似するもの、あるいは、これらの組み合わせを含んでもよい。
メモリ304は、何らかのデータ記憶メカニズムを表してもよい。メモリ304は、例えば、一次メモリ304−1および/または二次メモリ304−2を含んでもよい。一次メモリ304−1は、例えば、ランダムアクセスメモリ、リードオンリーメモリ等を含んでもよい。この例では、処理ユニットとは別のものとして図示されているが、一次メモリのすべてまたは一部が、処理ユニット302内または移動デバイス102の他の同様の回路内に提供されていてもよいか、あるいは、そうでなければ、処理ユニット302内または移動デバイス102の他の同様の回路内の同一の場所に配置されていてもよい/処理ユニット302内または移動デバイス102の他の同様の回路内で結合されていてもよいことを理解すべきである。二次メモリ304−2は、例えば、一次メモリのような、同じまたは類似のタイプのメモリを、ならびに/あるいは、例えば、ディスクドライブ、光ディスクドライブ、テープドライブ、ソリッドステートメモリドライブ等のような、1つ以上のデータ記憶デバイスまたはシステムを含んでもよい。ある構成では、二次メモリは、コンピュータ読取可能媒体320を動作可能に受け入れてもよく、または、そうでなければ、コンピュータ読取可能媒体320に結合するように構成可能であってもよい。メモリ304および/またはコンピュータ読取可能媒体320は、(例えば、ここで提供されているような、技術および/またはジェスチャーコマンド入力検出器106にしたがった)データ処理に関係付けられている命令318を含んでもよい。
移動デバイス102は、例えば、1つ以上のユーザ入力デバイス308、1つ以上の出力デバイス310、1つ以上のセンサ312、1つ以上のネットワークインターフェース314、および/または、1つ以上のロケーション受信機316をさらに備えてもよい。
入力デバイス308は、例えば、1つ以上のユーザ入力を受け取るために使用されもよい、さまざまなボタン、スイッチ、タッチパッド、トラックボール、ジョイスティック、タッチスクリーン、マイクロフォン、カメラ、および/または、これらに類似するものを備えてもよい。さらに、例えば、検出可能な動きまたは他の同様のジェスチャーに基づいて、ユーザ入力を受け取るために、1つ以上のセンサ312もまた使用されてもよい。入力デバイス308は、例えば、ユーザ入力348のような、メモリ304中に記憶される1つ以上の信号を提供するか、または、そうでなければ、メモリ304中に記憶される1つ以上の信号に関係付けられていてもよい。
出力デバイス310は、例えば、液晶ディスプレイ(LCD)、タッチスクリーン、および/または、これに類似するもののような、ディスプレイ204(図2A〜図2B)を備えてもよく、あるいは、場合によっては、ユーザに対する視覚的な出力を生成させる際に使用されてもよい、1つ以上の光、発光ダイオード(LED)等を含んでもよい。出力デバイス310は、例えば、ユーザに対する可聴の出力を生成させる際に使用されてもよい、スピーカー、ヘッドフォンジャック/ヘッドフォン、ブザー、ベル等を含んでもよい。出力デバイス310は、例えば、振動デバイス、機械的に動かせるデバイス、(例えば、選択的に加熱する、または、冷却する)熱的にアクティブなデバイス、ならびに/あるいは、ユーザに対する触覚の出力を生成させる際に使用されてもよい他の同様のメカニズムを含んでもよい。
センサ312は、例えば、1つ以上の慣性センサ(例えば、加速度計、磁気計、ジャイロスコープ等)、ならびに/あるいは、1つ以上の環境センサ(例えば、気圧計、コンパス、磁気計、光検出器、および/または、これらに類似するもの)を含んでもよく、これらは、運動の方向を識別し、向きを決定する際に使用されてもよく、および/または、そうでなければ、例えば、少なくともしきい時間期間の間、ディスプレイ部分が水平に見えるポジションにあることに少なくとも部分的に基づいて、移動デバイス102が、ジェスチャーコマンド入力レディ状態にあるか否かを決定する際に考慮される情報を提供してもよい。センサ312は、例えば、1つ以上の動き332、ジェスチャー334、向き340、重力情報342、および/または、(例えば、外部光源210(図2B)に関係付けられている)光情報344のような、メモリ304中に記憶される1つ以上の信号を提供するか、あるいは、そうでなければ、メモリ304中に記憶される1つ以上の信号に関係付けられていてもよい。動き332、ジェスチャー334、向き340、重力情報342、および/または、光情報344のうちの1つ以上は、例えば、移動デバイス102がジェスチャーコマンド入力レディ状態330にあるか否かを決定する際に、ジェスチャーコマンド入力検出器106(図1)によって考慮されてもよい。
ネットワークインターフェース314は、例えば、1つ以上のワイヤード通信リンクおよび/またはワイヤレス通信リンクを介して、1つ以上のネットワーク104(図1)に対する接続性を提供してもよい。ロケーション受信機316は、例えば、1つ以上のロケーションサービス108(図1)から信号を取得してもよく、この信号は、ロケーション338を推定する際に使用されてもよく、ロケーション338は、メモリ304に提供されてもよく、または、そうでなければ、メモリ中に記憶されている1つ以上の信号に関係付けられていてもよい。ロケーション338は、例えば、移動デバイス102が、ジェスチャーコマンド入力レディ状態330にあるか否かを決定する際に、ジェスチャーコマンド入力検出器106(図1)によって考慮されてもよい。
処理ユニット302および/または命令318は、例えば、ジェスチャーコマンド入力レディ状態330、さまざまなしきい値346および/または(例えば、さまざまな例示的な技術においてここで説明したような、)他の同様のしきい値範囲のような、メモリ304中に記憶される1つ以上の信号を提供してもよく、あるいは、そうでなければ、メモリ304中に記憶される1つ以上の信号に関係付けられていてもよい。1つ以上のしきい値346は、例えば、移動デバイス102がジェスチャーコマンド入力レディ状態330にあるか否かを決定する際に、ジェスチャーコマンド入力検出器106(図1)によって考慮されてもよい。
処理ユニット302および/または命令318は、例えば、運動状態336のような、メモリ304中に記憶される1つ以上の信号を提供してもよく、または、そうでなければ、メモリ304中に記憶される1つ以上の信号に関係付けられていてもよい。例えば、運動状態336は、移動デバイス102に関係付けられているユーザが、歩いているか否かを示してもよい。運動状態336は、例えば、移動デバイス102がジェスチャーコマンド入力レディ状態330にあるか否かを決定する際に、ジェスチャーコマンド入力検出器106(図1)によって考慮されてもよい。
次に図4に注意を向けたい。図4は、1つの構成にしたがった、移動デバイス102(図1)において使用するための方法400の形で、例示的なプロセスを説明したフローダイヤグラムである。
例示的なブロック402において、ユーザにより知覚可能な出力を生成させてもよい。例えば、1つ以上の出力デバイスを使用して、可聴の出力、視覚的な出力、または、触覚の出力のうちの少なくとも1つを発生させてもよい。移動デバイスによって実行される、または、そうでなければ、移動デバイスに関係付けられている、1つ以上の機能ならびに/あるいはサービスが、ユーザにより知覚可能な出力を開始してもよい。
例示的なブロック404において、しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定してもよい。ある例示的な構成では、例示的なブロック406において、現在のユーザの運動状態、移動デバイスの推定されたロケーション、または、以前のユーザ入力を受け取ってからの第2のしきい時間期間の経過のうちの少なくとも1つに少なくとも部分的に基づいて、移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定してもよい。ある例示的な構成では、ブロック408において、検出された重力加速度または検出された外部光源のうちの少なくとも1つに対する移動デバイスの向きに少なくとも部分的に基づいて、移動デバイスのディスプレイ部分が水平に見えるポジションにあるか否かを決定してもよい。
ブロック410において、(例えば、ユーザによる)移動デバイスの検出された動きが、ジェスチャーコマンド入力を表すか否かを決定してもよい。例えば、予め定められているスキームにしたがった(例えば、1つ以上の電気信号としてメモリ中にプログラムされているならびに/あるいは記録および記憶されているような)、1つ以上の方向へのユーザによる移動デバイスの動きが、特定のユーザ入力を表すかもしれない。
ブロック412において、決定されたジェスチャーコマンド入力に応答して、(例えば、ブロック402において生成されたような)ユーザにより知覚可能な出力ならびに/あるいは他の同様の関係付けられている機能またはサービスが、何らかの方法で影響を受けることがある。例えば、生成されているユーザにより知覚可能な出力を、停止させてもよい。
“1つの例”、“例”、“ある例”、または、“例示的な構成”に対する本願全体を通しての参照は、特徴および/または例に関して説明した特定の特徴、構造、あるいは、特性が、請求されている主題事項の少なくとも1つの特徴および/または例に含まれてもよいことを意味している。したがって、“1つの例では”、“例では”、“ある例では”、または、”ある構成では”というフレーズあるいは他の同様のフレーズの、本願全体を通してのさまざまな場所における出現は、必ずしも、すべてが、同じ特徴、例、および/または、限定を参照していない。さらに、特定の特徴、構造、または、特性は、1つ以上の例および/または特徴において組み合わされてもよい。
ここで説明した方法は、特定の特徴および/または例にしたがった、適用に依存して、さまざまな手段によって実現されてもよい。例えば、このような方法は、ハードウェアで、ファームウェアで、および/または、ソフトウェアとともに、これらの組み合わせで、実現されてもよい。例えば、ハードウェア構成では、処理ユニットは、1つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラム可能論理デバイス(PLD)、フィールドプログラム可能ゲートアレイ(FPGA)、プロセッサ、制御装置、マイクロ制御装置、マイクロプロセッサ、電子デバイス、ここで説明した機能を実行するように設計されている他の電子ユニット、および/または、これらを組み合わせたものの内で実現されてもよい。
先行する詳細な説明では、請求されている主題事項の完全な理解を提供するために、多くの特定の詳細を述べた。しかしながら、これらの特定の詳細がなくとも、請求されている主題事項を実施できることは、当業者にとって理解されるだろう。他の具体例では、当業者によって知られている方法および装置は、請求されている主題事項を曖昧にしないように、詳細に説明されていない。
先行する詳細な説明は、特定の装置のメモリ内あるいは特殊目的コンピューティングデバイスまたはプラットフォーム内に記憶されているバイナリデジタル電子信号上での動作のアルゴリズムまたはシンボル表現の観点から、提示されていた。この特定の明細書の文脈では、特定の装置という用語またはこれに類似するものは、いったん、プログラムソフトウェアからの命令に準じた特定の機能を実行するようにプログラムされると、汎用コンピュータを含む。アルゴリズム的な記述またはシンボル表現は、他の当業者にそれらの作用の内容を伝えるために、信号処理技術または関連技術の当業者によって使用されている技術の例である。アルゴリズムは、ここではおよび一般的に、所望の結果をもたらす、自己矛盾のないシーケンスの動作または類似の信号技術であると考えられる。この文脈では、動作または処理は、物理量の物理的な操作を伴う。通常、必ずではないが、このような量は、情報を表す電子信号として、記憶し、伝達し、組み合わせ、比較し、または、そうでなければ操作することができる電気信号あるいは磁気信号の形をとってもよい。このような信号を、ビット、データ、値、エレメント、シンボル、キャラクタ、用語、数、数値、情報、または、これらに類似するものと呼ぶことは、主に、一般的な用法の理由から、時には、便利である。しかしながら、これらの用語および類似の用語はすべて、適切な物理量に関係付けられるものであり、単に便宜的なラベルにすぎないことを理解すべきである。そうではないと特に述べられていない限り、以下の議論から明らかなように、本願全体を通して、“処理する”、“コンピュータで計算する”、“計算する”、“決定する”、“確立する”、“取得する”、“識別する”、および/または、これらに類似するもののような用語を利用した議論は、特殊目的コンピュータまたは類似の特殊目的電子コンピューティングデバイスのような、特定の装置のアクションまたはプロセスのことを指すことが正しく認識される。それゆえ、本願の文脈では、特殊目的コンピュータまたは類似する特殊目的電子コンピューティングデバイスは、特殊目的コンピュータまたは類似の特殊目的電子コンピュ―ティングデバイスの、メモリ、レジスタ、または、他の情報記憶デバイス、送信デバイス、あるいは、ディスプレイデバイスの内の、物理的な電子量または磁気量として通常表される信号を、操作または変換することが可能である。この特定の特許出願の文脈では、“特定の装置”という用語は、いったん、プログラムソフトウェアからの命令に準じた特定の機能を実行するようにプログラムされると、汎用コンピュータを含んでもよい。
ここで使用したような、“および”、“または”、ならびに、“および/または”という用語は、このような用語が使用されている文脈に少なくとも部分的に依存するようにも予想されるさまざまな意味を含んでもよい。通常、A、B、または、Cのような、リストを関係付けるために使用される場合の“または”は、ここでは包含的な意味で使用されている、A、B、および、Cとともに、ここでは排他的な意味で使用されているA、B、または、Cを意味するように意図されている。加えて、ここで使用するような“1つ以上”という用語は、任意の機能、構造、または、特性を単数形で説明するために使用されてもよく、あるいは、複数の機能、構造、または、特性か、機能、構造、または、特性の他の何らかの組み合わせを説明するために使用されてもよい。しかしながら、これは、単に、例示的な例であり、請求されている主題事項は、この例に限定されないことに留意すべきである。
例示的な特徴であると現在考えられているものを図示し、説明してきたが、請求されている主題事項から逸脱することなく、他のさまざまな修正を行ってもよく、均等物を代用してもよいことが、当業者によって理解されるだろう。さらに、ここで説明した中心的な概念から逸脱することなく、請求されている主題事項の開示に現在の状況を適応させるために、多くの修正を行ってもよい。
それゆえ、請求されている主題事項は、開示した特定の例に限定されないが、このような請求されている主題事項は、添付した特許請求の範囲内にあるすべての態様、および、これらの均等物も含んでもよいことを意図している。
それゆえ、請求されている主題事項は、開示した特定の例に限定されないが、このような請求されている主題事項は、添付した特許請求の範囲内にあるすべての態様、および、これらの均等物も含んでもよいことを意図している。
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
移動デバイスにおける方法において、
ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、前記移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定することと、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定することと、
前記検出された動きが前記ジェスチャーコマンド入力を表すとの決定に応答して、前記ユーザにより知覚可能な出力に影響を与えることとを含む方法。
[C2]
前記移動デバイスにおいて、
現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することをさらに含むC1記載の方法。
[C3]
ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定されるC2記載の方法。
[C4]
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することは、前記移動デバイスの推定されるロケーションにさらに少なくとも部分的に基づいているC1記載の方法。
[C5]
前記移動デバイスにおいて、
ユーザ入力を受け取ってからの第2のしきい時間期間にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することをさらに含むC1記載の方法。
[C6]
前記移動デバイスにおいて、
検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定することをさらに含むC1記載の方法。
[C7]
前記移動デバイスにおいて、
検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定することをさらに含むC1記載の方法。
[C8]
前記移動デバイスにおいて、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、追加の、ユーザにより知覚可能な出力を開始することをさらに含むC1記載の方法。
[C9]
前記ユーザにより知覚可能な出力に影響を与えることは、前記ユーザにより知覚可能な出力を停止させることを含むC1記載の方法。
[C10]
前記移動デバイスにおいて、
可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを発生させることによって、前記ユーザにより知覚可能な出力を生成させることをさらに含むC1記載の方法。
[C11]
移動デバイスにおける使用のための装置において、
前記装置は、
ユーザにより知覚可能な出力を開始する手段と、
前記ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、前記移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定する手段と、
前記移動デバイスの動きを検出する手段と、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定する手段と、
前記決定されたジェスチャーコマンド入力に応答して、前記ユーザにより知覚可能な出力に影響を与える手段とを具備する装置。
[C12]
現在のユーザの運動状態を決定する手段と、
前記決定された現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段とをさらに具備するC11記載の装置。
[C13]
ユーザが歩いていないことを示す前記決定された現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定されるC12記載の装置。
[C14]
前記移動デバイスのロケーションを推定する手段をさらに具備し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段は、前記移動デバイスの前記推定されたロケーションにさらに少なくとも部分的に基づいているC11記載の装置。
[C15]
前記ジェスチャーコマンド入力以外のユーザ入力を受け取る手段と、
前記ユーザ入力を受け取ってから第2のしきい時間期間が経過しているか否かを決定する手段とをさらに具備し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段は、前記ユーザ入力を受け取ってから第2のしきい時間期間が経過しているとの決定にさらに少なくとも部分的に基づいているC11記載の装置。
[C16]
前記移動デバイスにおいて、
重力加速度を検出する手段と、
前記検出された重力加速度に対する前記移動デバイスの向きを決定する手段と、
前記検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定する手段とをさらに具備するC11記載の装置。
[C17]
前記移動デバイスにおいて、
外部光源を検出する手段と、
前記検出された外部光源に対する前記移動デバイスの向きを決定する手段と、
前記検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定する手段とをさらに具備するC11記載の装置。
[C18]
前記移動デバイスにおいて、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、前記ユーザにより知覚可能な出力を提供する手段により、追加の、ユーザにより知覚可能な出力を開始する手段をさらに具備するC11記載の装置。
[C19]
前記ユーザにより知覚可能な出力に影響を与えることは、前記ユーザにより知覚可能な出力を停止させることを含むC11記載の装置。
[C20]
前記ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを含むC11記載の装置。
[C21]
移動デバイスにおいて、
ディスプレイデバイスを少なくとも含む1つ以上の出力デバイスと、
1つ以上の慣性センサと、
前記1つ以上の出力デバイスのうちの少なくとも1つを介しての、ユーザにより知覚可能な出力の開始に続いて、
しきい時間期間の間、前記ディスプレイデバイスが水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの動きがジェスチャーコマンド入力を表すか否かを決定し、
前記決定されたジェスチャーコマンド入力に応答して、前記ユーザにより知覚可能な出力に影響を与える、
処理ユニットとを具備し、
前記動きは、前記1つ以上の慣性センサのうちの少なくとも1つに関係付けられている少なくとも1つの信号に少なくとも部分的に基づいている移動デバイス。
[C22]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
現在のユーザの運動状態を取得し、
前記現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するC21記載の移動デバイス。
[C23]
前記ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定されるC22記載の移動デバイス。
[C24]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記移動デバイスの推定されたロケーションを取得し、
前記移動デバイスの前記推定されたロケーションにさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するC21記載の移動デバイス。
[C25]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記ジェスチャーコマンド入力以外の以前のユーザ入力の時間を決定し、
前記以前のユーザ入力を受け取ってから第2のしきい時間期間が経過しているか否かを決定し、
前記以前のユーザ入力を受け取ってから第2のしきい時間期間が経過しているとの決定にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するC21記載の移動デバイス。
[C26]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記1つ以上の慣性センサのうちの前記少なくとも1つに関係付けられている前記少なくとも1つの信号に少なくとも部分的に基づいて、検出された重力加速度に対する前記移動デバイスの向きを決定し、
前記検出された重力加速度に対する前記移動デバイスの前記向きに少なくとも部分的に基づいて、前記ディスプレイデバイスが前記水平に見えるポジションにあるか否かを決定するC21記載の移動デバイス。
[C27]
前記移動デバイスにおいて、
外部光源からの光を検出するセンサをさらに具備し、
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記検出された光に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記ディスプレイデバイスが前記水平に見えるポジションにあるか否かを決定するC21記載の移動デバイス。
[C28]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、前記1つ以上の出力デバイスのうちの少なくとも1つを介して、追加の、ユーザにより知覚可能な出力を開始するC21記載の移動デバイス。
[C29]
前記処理ユニットは、さらに、前記ユーザにより知覚可能な出力を停止することによって、前記ユーザにより知覚可能な出力に影響を与えるC21記載の移動デバイス。
[C30]
前記1つ以上の出力デバイスのうちの少なくとも1つは、可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを発生させるC21記載の移動デバイス。
[C31]
物品において、
ユーザにより知覚可能な出力の開始に続いて、
しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、
前記移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定し、
前記検出された動きが前記ジェスチャーコマンド入力を表すとの決定に応答して、前記ユーザにより知覚可能な出力に影響を与えるように、前記移動デバイスの処理ユニットによって実行可能なコンピュータ実行可能命令をその上に記憶している一時的でないコンピュータ読取可能媒体を具備する物品。
[C32]
前記コンピュータ実行可能命令は、
現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C33]
ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定されるC32記載の物品。
[C34]
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することは、前記移動デバイスの推定されたロケーションにさらに少なくとも部分的に基づいているC31記載の物品。
[C35]
前記コンピュータ実行可能命令は、
ユーザ入力を受け取ってからの第2のしきい時間期間にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C36]
前記コンピュータ実行可能命令は、
検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスのディスプレイ部分が前記水平に見えるポジションにあるか否かを決定するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C37]
前記コンピュータ実行可能命令は、
検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスのディスプレイ部分が前記水平に見えるポジションにあるか否かを決定するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C38]
前記コンピュータ実行可能命令は、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、追加の、ユーザにより知覚可能な出力を開始するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C39]
前記処理ユニットは、前記ユーザにより知覚可能な出力を停止することによって、前記ユーザにより知覚可能な出力に影響を与えるC31記載の物品。
[C40]
前記ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力、または、触覚の出力のうちの少なくとも1つを含むC31記載の物品。

Claims (40)

  1. 移動デバイスにおける方法において、
    ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、前記移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定することと、
    前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定することと、
    前記検出された動きが前記ジェスチャーコマンド入力を表すとの決定に応答して、前記ユーザにより知覚可能な出力に影響を与えることとを含む方法。
  2. 前記移動デバイスにおいて、
    現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することをさらに含む請求項1記載の方法。
  3. ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定される請求項2記載の方法。
  4. 前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することは、前記移動デバイスの推定されるロケーションにさらに少なくとも部分的に基づいている請求項1記載の方法。
  5. 前記移動デバイスにおいて、
    ユーザ入力を受け取ってからの第2のしきい時間期間にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することをさらに含む請求項1記載の方法。
  6. 前記移動デバイスにおいて、
    検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定することをさらに含む請求項1記載の方法。
  7. 前記移動デバイスにおいて、
    検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定することをさらに含む請求項1記載の方法。
  8. 前記移動デバイスにおいて、
    前記ユーザにより知覚可能な出力に影響を与えたことに応答して、追加の、ユーザにより知覚可能な出力を開始することをさらに含む請求項1記載の方法。
  9. 前記ユーザにより知覚可能な出力に影響を与えることは、前記ユーザにより知覚可能な出力を停止させることを含む請求項1記載の方法。
  10. 前記移動デバイスにおいて、
    可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを発生させることによって、前記ユーザにより知覚可能な出力を生成させることをさらに含む請求項1記載の方法。
  11. 移動デバイスにおける使用のための装置において、
    前記装置は、
    ユーザにより知覚可能な出力を開始する手段と、
    前記ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、前記移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定する手段と、
    前記移動デバイスの動きを検出する手段と、
    前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定する手段と、
    前記決定されたジェスチャーコマンド入力に応答して、前記ユーザにより知覚可能な出力に影響を与える手段とを具備する装置。
  12. 現在のユーザの運動状態を決定する手段と、
    前記決定された現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段とをさらに具備する請求項11記載の装置。
  13. ユーザが歩いていないことを示す前記決定された現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定される請求項12記載の装置。
  14. 前記移動デバイスのロケーションを推定する手段をさらに具備し、
    前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段は、前記移動デバイスの前記推定されたロケーションにさらに少なくとも部分的に基づいている請求項11記載の装置。
  15. 前記ジェスチャーコマンド入力以外のユーザ入力を受け取る手段と、
    前記ユーザ入力を受け取ってから第2のしきい時間期間が経過しているか否かを決定する手段とをさらに具備し、
    前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段は、前記ユーザ入力を受け取ってから第2のしきい時間期間が経過しているとの決定にさらに少なくとも部分的に基づいている請求項11記載の装置。
  16. 前記移動デバイスにおいて、
    重力加速度を検出する手段と、
    前記検出された重力加速度に対する前記移動デバイスの向きを決定する手段と、
    前記検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定する手段とをさらに具備する請求項11記載の装置。
  17. 前記移動デバイスにおいて、
    外部光源を検出する手段と、
    前記検出された外部光源に対する前記移動デバイスの向きを決定する手段と、
    前記検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定する手段とをさらに具備する請求項11記載の装置。
  18. 前記移動デバイスにおいて、
    前記ユーザにより知覚可能な出力に影響を与えたことに応答して、前記ユーザにより知覚可能な出力を提供する手段により、追加の、ユーザにより知覚可能な出力を開始する手段をさらに具備する請求項11記載の装置。
  19. 前記ユーザにより知覚可能な出力に影響を与えることは、前記ユーザにより知覚可能な出力を停止させることを含む請求項11記載の装置。
  20. 前記ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを含む請求項11記載の装置。
  21. 移動デバイスにおいて、
    ディスプレイデバイスを少なくとも含む1つ以上の出力デバイスと、
    1つ以上の慣性センサと、
    前記1つ以上の出力デバイスのうちの少なくとも1つを介しての、ユーザにより知覚可能な出力の開始に続いて、
    しきい時間期間の間、前記ディスプレイデバイスが水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、
    前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの動きがジェスチャーコマンド入力を表すか否かを決定し、
    前記決定されたジェスチャーコマンド入力に応答して、前記ユーザにより知覚可能な出力に影響を与える、
    処理ユニットとを具備し、
    前記動きは、前記1つ以上の慣性センサのうちの少なくとも1つに関係付けられている少なくとも1つの信号に少なくとも部分的に基づいている移動デバイス。
  22. 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
    現在のユーザの運動状態を取得し、
    前記現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する請求項21記載の移動デバイス。
  23. 前記ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定される請求項22記載の移動デバイス。
  24. 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
    前記移動デバイスの推定されたロケーションを取得し、
    前記移動デバイスの前記推定されたロケーションにさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する請求項21記載の移動デバイス。
  25. 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
    前記ジェスチャーコマンド入力以外の以前のユーザ入力の時間を決定し、
    前記以前のユーザ入力を受け取ってから第2のしきい時間期間が経過しているか否かを決定し、
    前記以前のユーザ入力を受け取ってから第2のしきい時間期間が経過しているとの決定にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する請求項21記載の移動デバイス。
  26. 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
    前記1つ以上の慣性センサのうちの前記少なくとも1つに関係付けられている前記少なくとも1つの信号に少なくとも部分的に基づいて、検出された重力加速度に対する前記移動デバイスの向きを決定し、
    前記検出された重力加速度に対する前記移動デバイスの前記向きに少なくとも部分的に基づいて、前記ディスプレイデバイスが前記水平に見えるポジションにあるか否かを決定する請求項21記載の移動デバイス。
  27. 前記移動デバイスにおいて、
    外部光源からの光を検出するセンサをさらに具備し、
    前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
    前記検出された光に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記ディスプレイデバイスが前記水平に見えるポジションにあるか否かを決定する請求項21記載の移動デバイス。
  28. 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
    前記ユーザにより知覚可能な出力に影響を与えたことに応答して、前記1つ以上の出力デバイスのうちの少なくとも1つを介して、追加の、ユーザにより知覚可能な出力を開始する請求項21記載の移動デバイス。
  29. 前記処理ユニットは、さらに、前記ユーザにより知覚可能な出力を停止することによって、前記ユーザにより知覚可能な出力に影響を与える請求項21記載の移動デバイス。
  30. 前記1つ以上の出力デバイスのうちの少なくとも1つは、可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを発生させる請求項21記載の移動デバイス。
  31. 物品において、
    ユーザにより知覚可能な出力の開始に続いて、
    しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、
    前記移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定し、
    前記検出された動きが前記ジェスチャーコマンド入力を表すとの決定に応答して、前記ユーザにより知覚可能な出力に影響を与えるように、前記移動デバイスの処理ユニットによって実行可能なコンピュータ実行可能命令をその上に記憶している一時的でないコンピュータ読取可能媒体を具備する物品。
  32. 前記コンピュータ実行可能命令は、
    現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。
  33. ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定される請求項32記載の物品。
  34. 前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することは、前記移動デバイスの推定されたロケーションにさらに少なくとも部分的に基づいている請求項31記載の物品。
  35. 前記コンピュータ実行可能命令は、
    ユーザ入力を受け取ってからの第2のしきい時間期間にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。
  36. 前記コンピュータ実行可能命令は、
    検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスのディスプレイ部分が前記水平に見えるポジションにあるか否かを決定するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。
  37. 前記コンピュータ実行可能命令は、
    検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスのディスプレイ部分が前記水平に見えるポジションにあるか否かを決定するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。
  38. 前記コンピュータ実行可能命令は、
    前記ユーザにより知覚可能な出力に影響を与えたことに応答して、追加の、ユーザにより知覚可能な出力を開始するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。
  39. 前記処理ユニットは、前記ユーザにより知覚可能な出力を停止することによって、前記ユーザにより知覚可能な出力に影響を与える請求項31記載の物品。
  40. 前記ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力、または、触覚の出力のうちの少なくとも1つを含む請求項31記載の物品。
JP2015110223A 2010-09-02 2015-05-29 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 Expired - Fee Related JP6092303B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US37966910P 2010-09-02 2010-09-02
US61/379,669 2010-09-02
US13/198,455 US9007304B2 (en) 2010-09-02 2011-08-04 Methods and apparatuses for gesture-based user input detection in a mobile device
US13/198,455 2011-08-04

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013527084A Division JP5937076B2 (ja) 2010-09-02 2011-08-05 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置

Publications (3)

Publication Number Publication Date
JP2015201217A true JP2015201217A (ja) 2015-11-12
JP2015201217A5 JP2015201217A5 (ja) 2016-07-14
JP6092303B2 JP6092303B2 (ja) 2017-03-08

Family

ID=44511568

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013527084A Expired - Fee Related JP5937076B2 (ja) 2010-09-02 2011-08-05 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置
JP2015110223A Expired - Fee Related JP6092303B2 (ja) 2010-09-02 2015-05-29 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013527084A Expired - Fee Related JP5937076B2 (ja) 2010-09-02 2011-08-05 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置

Country Status (6)

Country Link
US (2) US9007304B2 (ja)
EP (1) EP2612223A1 (ja)
JP (2) JP5937076B2 (ja)
KR (1) KR101477442B1 (ja)
CN (1) CN103080872B (ja)
WO (1) WO2012030477A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9007304B2 (en) 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
US9477302B2 (en) 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
US20150153715A1 (en) * 2010-09-29 2015-06-04 Google Inc. Rapidly programmable locations in space
WO2013104054A1 (en) * 2012-01-10 2013-07-18 Smart Technologies Ulc Method for manipulating a graphical object and an interactive input system employing the same
US9244499B2 (en) 2012-06-08 2016-01-26 Apple Inc. Multi-stage device orientation detection
CN102799361A (zh) * 2012-06-21 2012-11-28 华为终端有限公司 一种应用对象的调出方法及移动终端
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9264802B2 (en) * 2012-12-13 2016-02-16 Google Inc. Computing device utilizing a resting surface as a speaker
US10368836B2 (en) * 2012-12-26 2019-08-06 Volcano Corporation Gesture-based interface for a multi-modality medical imaging system
JP2014229184A (ja) * 2013-05-24 2014-12-08 株式会社ニコン 表示制御プログラムおよび情報表示装置
JP2014238696A (ja) * 2013-06-07 2014-12-18 セイコーエプソン株式会社 電子機器及びタップ操作検出方法
CN105264467B (zh) 2013-06-07 2018-10-12 精工爱普生株式会社 电子设备及点击操作检测方法
TWI502480B (zh) * 2013-06-07 2015-10-01 Insyde Software Corp Control method of touch device and its end function
US10884493B2 (en) * 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
US20150077381A1 (en) * 2013-09-19 2015-03-19 Qualcomm Incorporated Method and apparatus for controlling display of region in mobile device
FR3016046B1 (fr) * 2013-12-31 2017-02-17 Commissariat Energie Atomique Procede et dispositif de detection de manipulation d'un appareil portable
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US20160018895A1 (en) * 2014-04-24 2016-01-21 Dennis Sidi Private messaging application and associated methods
EP3170062B1 (en) 2014-07-18 2019-08-21 Apple Inc. Raise gesture detection in a device
US10540348B2 (en) 2014-09-22 2020-01-21 At&T Intellectual Property I, L.P. Contextual inference of non-verbal expressions
KR20160036242A (ko) * 2014-09-25 2016-04-04 현대자동차주식회사 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법
US11347316B2 (en) 2015-01-28 2022-05-31 Medtronic, Inc. Systems and methods for mitigating gesture input error
US10613637B2 (en) 2015-01-28 2020-04-07 Medtronic, Inc. Systems and methods for mitigating gesture input error
CN106791005A (zh) * 2016-11-28 2017-05-31 努比亚技术有限公司 移动终端及边缘手势防误触方法
US11321551B2 (en) * 2016-12-07 2022-05-03 Meta Platforms, Inc. Detecting a scan using on-device sensors
US10733280B2 (en) * 2018-06-05 2020-08-04 International Business Machines Corporation Control of a mobile device based on fingerprint identification
CN109144274B (zh) * 2018-09-12 2021-06-04 吉林大学 质心偏移和振动结合的力反馈方向指导系统及控制方法
KR20200116693A (ko) * 2019-04-02 2020-10-13 삼성전자주식회사 디스플레이 제어 방법 및 그 전자 장치
CN111049908A (zh) * 2019-12-12 2020-04-21 中国建设银行股份有限公司 移动设备的数据预缓存方法及装置
US11731278B1 (en) * 2020-04-20 2023-08-22 Google Llc Robot teleoperation using mobile device motion sensors and web standards

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012297A (ja) * 2003-06-17 2005-01-13 Canon Inc 視野角変化装置
JP2006197282A (ja) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp 携帯端末動作モード設定方式及び携帯端末動作モード設定方法及び携帯端末
JP2006229549A (ja) * 2005-02-17 2006-08-31 Citizen Watch Co Ltd 携帯型電子機器
JP2007037045A (ja) * 2005-07-29 2007-02-08 Nec Corp 移動通信システムにおける携帯端末制御方式
JP2007509448A (ja) * 2003-10-23 2007-04-12 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 加速度計を用いたユーザインタフェース装置および方法
US20070113207A1 (en) * 2005-11-16 2007-05-17 Hillcrest Laboratories, Inc. Methods and systems for gesture classification in 3D pointing devices
JP2008053988A (ja) * 2006-08-24 2008-03-06 Funai Electric Co Ltd 携帯電話端末装置
JP2008129006A (ja) * 2006-11-21 2008-06-05 Quarton Inc 電子式傾斜センサー及びその電子式水平感知方法
JP2008160753A (ja) * 2006-12-26 2008-07-10 Nec Corp 携帯端末の機能制限方法及び携帯端末
JP2009222921A (ja) * 2008-03-14 2009-10-01 Fujifilm Corp 画像表示装置、撮影装置及び画像表示方法
US20090265627A1 (en) * 2008-04-17 2009-10-22 Kim Joo Min Method and device for controlling user interface based on user's gesture
US20100033422A1 (en) * 2008-08-05 2010-02-11 Apple Inc Systems and methods for processing motion sensor generated data
JP2010102614A (ja) * 2008-10-27 2010-05-06 Brother Ind Ltd 携帯型装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5536930A (en) 1992-06-03 1996-07-16 Symbol Technologies, Inc. Apparatus and method for sensing positional orientations of a portable terminal
US7903084B2 (en) * 2004-03-23 2011-03-08 Fujitsu Limited Selective engagement of motion input modes
US7761814B2 (en) * 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
US7996792B2 (en) * 2006-09-06 2011-08-09 Apple Inc. Voicemail manager for portable multifunction device
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20090262074A1 (en) * 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US20080229255A1 (en) 2007-03-15 2008-09-18 Nokia Corporation Apparatus, method and system for gesture detection
KR100876754B1 (ko) * 2007-04-18 2009-01-09 삼성전자주식회사 작동모드를 전환하기 위한 휴대용 전자기기
US20100207871A1 (en) 2007-04-26 2010-08-19 Nokia Corporation Method and portable apparatus
GB0715976D0 (en) 2007-08-15 2007-09-26 Wren Hilton Giles M Apparatus and method for automatically changing the profile or mode of a mobile phone
US8942764B2 (en) * 2007-10-01 2015-01-27 Apple Inc. Personal media device controlled via user initiated movements utilizing movement based interfaces
US8538376B2 (en) * 2007-12-28 2013-09-17 Apple Inc. Event-based modes for electronic devices
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8195220B2 (en) * 2008-02-01 2012-06-05 Lg Electronics Inc. User interface for mobile devices
US8423076B2 (en) 2008-02-01 2013-04-16 Lg Electronics Inc. User interface for a mobile device
US9002416B2 (en) 2008-12-22 2015-04-07 Google Technology Holdings LLC Wireless communication device responsive to orientation and movement
BRPI0924132A2 (pt) * 2009-01-23 2016-02-10 Qualcomm Mems Technologies Inc dispositivo e sistema de iluminação e métodos de fabricação de dispositivo de iluminação e de detecção do movimento de objeto através de painel de iluminação
JP2010257037A (ja) * 2009-04-22 2010-11-11 Sony Corp 情報処理装置および方法、並びにプログラム
US9564075B2 (en) * 2009-12-30 2017-02-07 Cyweemotion Hk Limited Electronic control apparatus and method for responsively controlling media content displayed on portable electronic device
US20120256959A1 (en) * 2009-12-30 2012-10-11 Cywee Group Limited Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
US9007304B2 (en) 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
US9214128B2 (en) * 2011-08-10 2015-12-15 Panasonic Intellectual Property Corporation Of America Information display device

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012297A (ja) * 2003-06-17 2005-01-13 Canon Inc 視野角変化装置
JP2007509448A (ja) * 2003-10-23 2007-04-12 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 加速度計を用いたユーザインタフェース装置および方法
JP2006197282A (ja) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp 携帯端末動作モード設定方式及び携帯端末動作モード設定方法及び携帯端末
JP2006229549A (ja) * 2005-02-17 2006-08-31 Citizen Watch Co Ltd 携帯型電子機器
JP2007037045A (ja) * 2005-07-29 2007-02-08 Nec Corp 移動通信システムにおける携帯端末制御方式
US20070113207A1 (en) * 2005-11-16 2007-05-17 Hillcrest Laboratories, Inc. Methods and systems for gesture classification in 3D pointing devices
JP2008053988A (ja) * 2006-08-24 2008-03-06 Funai Electric Co Ltd 携帯電話端末装置
JP2008129006A (ja) * 2006-11-21 2008-06-05 Quarton Inc 電子式傾斜センサー及びその電子式水平感知方法
JP2008160753A (ja) * 2006-12-26 2008-07-10 Nec Corp 携帯端末の機能制限方法及び携帯端末
JP2009222921A (ja) * 2008-03-14 2009-10-01 Fujifilm Corp 画像表示装置、撮影装置及び画像表示方法
US20090265627A1 (en) * 2008-04-17 2009-10-22 Kim Joo Min Method and device for controlling user interface based on user's gesture
US20100033422A1 (en) * 2008-08-05 2010-02-11 Apple Inc Systems and methods for processing motion sensor generated data
JP2010102614A (ja) * 2008-10-27 2010-05-06 Brother Ind Ltd 携帯型装置

Also Published As

Publication number Publication date
CN103080872A (zh) 2013-05-01
JP2013539118A (ja) 2013-10-17
US20150277577A1 (en) 2015-10-01
US9007304B2 (en) 2015-04-14
US9513714B2 (en) 2016-12-06
JP5937076B2 (ja) 2016-06-22
CN103080872B (zh) 2017-03-22
US20120056801A1 (en) 2012-03-08
KR101477442B1 (ko) 2015-01-06
KR20130065703A (ko) 2013-06-19
EP2612223A1 (en) 2013-07-10
JP6092303B2 (ja) 2017-03-08
WO2012030477A1 (en) 2012-03-08

Similar Documents

Publication Publication Date Title
JP6092303B2 (ja) 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置
US11540102B2 (en) Method for function control and electronic device thereof
US10136248B2 (en) Portable apparatus and method of controlling location information of portable apparatus
US10394331B2 (en) Devices and methods for establishing a communicative coupling in response to a gesture
KR102447438B1 (ko) 알림 장치 및 알림 장치가 물건의 위치를 알려주는 방법
AU2013257523B2 (en) Electronic device and method for driving camera module in sleep mode
US20140337732A1 (en) Music playback control with gesture detection using proximity or light sensors
US10019219B2 (en) Display device for displaying multiple screens and method for controlling the same
CN110288689B (zh) 对电子地图进行渲染的方法和装置
KR20150011885A (ko) 디바이스의 사용자 인터페이스 제공 방법 및 그 디바이스
US20140194147A1 (en) Apparatus and method for reducing battery consumption of mobile terminal
CN108196701B (zh) 确定姿态的方法、装置及vr设备
US10536810B2 (en) Electronic apparatus, control method, and non-transitory computer-readable recording medium
US20190212834A1 (en) Software gyroscope apparatus
US20140370873A1 (en) Method for performing function in call mode and portable electronic device for implementing the method
TWI814455B (zh) 預測使用者意圖的方法、設備及其系統
WO2015054868A1 (zh) 内容共享方法和终端设备
JP2012181706A (ja) データ送信方法および情報処理システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170208

R150 Certificate of patent or registration of utility model

Ref document number: 6092303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees