JP2015201217A - 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 - Google Patents
移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 Download PDFInfo
- Publication number
- JP2015201217A JP2015201217A JP2015110223A JP2015110223A JP2015201217A JP 2015201217 A JP2015201217 A JP 2015201217A JP 2015110223 A JP2015110223 A JP 2015110223A JP 2015110223 A JP2015110223 A JP 2015110223A JP 2015201217 A JP2015201217 A JP 2015201217A
- Authority
- JP
- Japan
- Prior art keywords
- mobile device
- user
- output
- gesture command
- command input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Telephone Function (AREA)
Abstract
Description
ここで開示する主題事項は、電子デバイスに関し、さらに詳細には、ジェスチャーベースのユーザ入力を受け取ることが可能な移動デバイスにおいて使用するための方法および装置に関する。
スマートフォンまたは他のタイプのセル電話機、タブレットコンピュータ、デジタルブックリーダー、パーソナルデジタルアシスタント、ゲーミングデバイス等の、ハンドヘルド移動デバイスのような、移動デバイスは、さまざまな機能を実行してもよい。例えば、ある移動デバイスは、ワイヤレス通信ネットワークを介して、音声および/またはデータ通信サービスを提供してもよい。例えば、ある移動デバイスは、オーディオおよび/またはビデオの記録または再生を提供してもよい。例えば、ある移動デバイスは、ゲーム、エンターテインメント、電子書籍、ユーティリティ、ロケーションベースのサービス等に関するさまざまなアプリケーションを提供してもよい。
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
移動デバイスにおける方法において、
ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、前記移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定することと、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定することと、
前記検出された動きが前記ジェスチャーコマンド入力を表すとの決定に応答して、前記ユーザにより知覚可能な出力に影響を与えることとを含む方法。
[C2]
前記移動デバイスにおいて、
現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することをさらに含むC1記載の方法。
[C3]
ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定されるC2記載の方法。
[C4]
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することは、前記移動デバイスの推定されるロケーションにさらに少なくとも部分的に基づいているC1記載の方法。
[C5]
前記移動デバイスにおいて、
ユーザ入力を受け取ってからの第2のしきい時間期間にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することをさらに含むC1記載の方法。
[C6]
前記移動デバイスにおいて、
検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定することをさらに含むC1記載の方法。
[C7]
前記移動デバイスにおいて、
検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定することをさらに含むC1記載の方法。
[C8]
前記移動デバイスにおいて、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、追加の、ユーザにより知覚可能な出力を開始することをさらに含むC1記載の方法。
[C9]
前記ユーザにより知覚可能な出力に影響を与えることは、前記ユーザにより知覚可能な出力を停止させることを含むC1記載の方法。
[C10]
前記移動デバイスにおいて、
可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを発生させることによって、前記ユーザにより知覚可能な出力を生成させることをさらに含むC1記載の方法。
[C11]
移動デバイスにおける使用のための装置において、
前記装置は、
ユーザにより知覚可能な出力を開始する手段と、
前記ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、前記移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定する手段と、
前記移動デバイスの動きを検出する手段と、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定する手段と、
前記決定されたジェスチャーコマンド入力に応答して、前記ユーザにより知覚可能な出力に影響を与える手段とを具備する装置。
[C12]
現在のユーザの運動状態を決定する手段と、
前記決定された現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段とをさらに具備するC11記載の装置。
[C13]
ユーザが歩いていないことを示す前記決定された現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定されるC12記載の装置。
[C14]
前記移動デバイスのロケーションを推定する手段をさらに具備し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段は、前記移動デバイスの前記推定されたロケーションにさらに少なくとも部分的に基づいているC11記載の装置。
[C15]
前記ジェスチャーコマンド入力以外のユーザ入力を受け取る手段と、
前記ユーザ入力を受け取ってから第2のしきい時間期間が経過しているか否かを決定する手段とをさらに具備し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段は、前記ユーザ入力を受け取ってから第2のしきい時間期間が経過しているとの決定にさらに少なくとも部分的に基づいているC11記載の装置。
[C16]
前記移動デバイスにおいて、
重力加速度を検出する手段と、
前記検出された重力加速度に対する前記移動デバイスの向きを決定する手段と、
前記検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定する手段とをさらに具備するC11記載の装置。
[C17]
前記移動デバイスにおいて、
外部光源を検出する手段と、
前記検出された外部光源に対する前記移動デバイスの向きを決定する手段と、
前記検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定する手段とをさらに具備するC11記載の装置。
[C18]
前記移動デバイスにおいて、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、前記ユーザにより知覚可能な出力を提供する手段により、追加の、ユーザにより知覚可能な出力を開始する手段をさらに具備するC11記載の装置。
[C19]
前記ユーザにより知覚可能な出力に影響を与えることは、前記ユーザにより知覚可能な出力を停止させることを含むC11記載の装置。
[C20]
前記ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを含むC11記載の装置。
[C21]
移動デバイスにおいて、
ディスプレイデバイスを少なくとも含む1つ以上の出力デバイスと、
1つ以上の慣性センサと、
前記1つ以上の出力デバイスのうちの少なくとも1つを介しての、ユーザにより知覚可能な出力の開始に続いて、
しきい時間期間の間、前記ディスプレイデバイスが水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの動きがジェスチャーコマンド入力を表すか否かを決定し、
前記決定されたジェスチャーコマンド入力に応答して、前記ユーザにより知覚可能な出力に影響を与える、
処理ユニットとを具備し、
前記動きは、前記1つ以上の慣性センサのうちの少なくとも1つに関係付けられている少なくとも1つの信号に少なくとも部分的に基づいている移動デバイス。
[C22]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
現在のユーザの運動状態を取得し、
前記現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するC21記載の移動デバイス。
[C23]
前記ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定されるC22記載の移動デバイス。
[C24]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記移動デバイスの推定されたロケーションを取得し、
前記移動デバイスの前記推定されたロケーションにさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するC21記載の移動デバイス。
[C25]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記ジェスチャーコマンド入力以外の以前のユーザ入力の時間を決定し、
前記以前のユーザ入力を受け取ってから第2のしきい時間期間が経過しているか否かを決定し、
前記以前のユーザ入力を受け取ってから第2のしきい時間期間が経過しているとの決定にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するC21記載の移動デバイス。
[C26]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記1つ以上の慣性センサのうちの前記少なくとも1つに関係付けられている前記少なくとも1つの信号に少なくとも部分的に基づいて、検出された重力加速度に対する前記移動デバイスの向きを決定し、
前記検出された重力加速度に対する前記移動デバイスの前記向きに少なくとも部分的に基づいて、前記ディスプレイデバイスが前記水平に見えるポジションにあるか否かを決定するC21記載の移動デバイス。
[C27]
前記移動デバイスにおいて、
外部光源からの光を検出するセンサをさらに具備し、
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記検出された光に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記ディスプレイデバイスが前記水平に見えるポジションにあるか否かを決定するC21記載の移動デバイス。
[C28]
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、前記1つ以上の出力デバイスのうちの少なくとも1つを介して、追加の、ユーザにより知覚可能な出力を開始するC21記載の移動デバイス。
[C29]
前記処理ユニットは、さらに、前記ユーザにより知覚可能な出力を停止することによって、前記ユーザにより知覚可能な出力に影響を与えるC21記載の移動デバイス。
[C30]
前記1つ以上の出力デバイスのうちの少なくとも1つは、可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを発生させるC21記載の移動デバイス。
[C31]
物品において、
ユーザにより知覚可能な出力の開始に続いて、
しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、
前記移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定し、
前記検出された動きが前記ジェスチャーコマンド入力を表すとの決定に応答して、前記ユーザにより知覚可能な出力に影響を与えるように、前記移動デバイスの処理ユニットによって実行可能なコンピュータ実行可能命令をその上に記憶している一時的でないコンピュータ読取可能媒体を具備する物品。
[C32]
前記コンピュータ実行可能命令は、
現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C33]
ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定されるC32記載の物品。
[C34]
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することは、前記移動デバイスの推定されたロケーションにさらに少なくとも部分的に基づいているC31記載の物品。
[C35]
前記コンピュータ実行可能命令は、
ユーザ入力を受け取ってからの第2のしきい時間期間にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C36]
前記コンピュータ実行可能命令は、
検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスのディスプレイ部分が前記水平に見えるポジションにあるか否かを決定するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C37]
前記コンピュータ実行可能命令は、
検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスのディスプレイ部分が前記水平に見えるポジションにあるか否かを決定するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C38]
前記コンピュータ実行可能命令は、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、追加の、ユーザにより知覚可能な出力を開始するように、前記処理ユニットによってさらに実行可能であるC31記載の物品。
[C39]
前記処理ユニットは、前記ユーザにより知覚可能な出力を停止することによって、前記ユーザにより知覚可能な出力に影響を与えるC31記載の物品。
[C40]
前記ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力、または、触覚の出力のうちの少なくとも1つを含むC31記載の物品。
Claims (40)
- 移動デバイスにおける方法において、
ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、前記移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定することと、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定することと、
前記検出された動きが前記ジェスチャーコマンド入力を表すとの決定に応答して、前記ユーザにより知覚可能な出力に影響を与えることとを含む方法。 - 前記移動デバイスにおいて、
現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することをさらに含む請求項1記載の方法。 - ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定される請求項2記載の方法。
- 前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することは、前記移動デバイスの推定されるロケーションにさらに少なくとも部分的に基づいている請求項1記載の方法。
- 前記移動デバイスにおいて、
ユーザ入力を受け取ってからの第2のしきい時間期間にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することをさらに含む請求項1記載の方法。 - 前記移動デバイスにおいて、
検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定することをさらに含む請求項1記載の方法。 - 前記移動デバイスにおいて、
検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定することをさらに含む請求項1記載の方法。 - 前記移動デバイスにおいて、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、追加の、ユーザにより知覚可能な出力を開始することをさらに含む請求項1記載の方法。 - 前記ユーザにより知覚可能な出力に影響を与えることは、前記ユーザにより知覚可能な出力を停止させることを含む請求項1記載の方法。
- 前記移動デバイスにおいて、
可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを発生させることによって、前記ユーザにより知覚可能な出力を生成させることをさらに含む請求項1記載の方法。 - 移動デバイスにおける使用のための装置において、
前記装置は、
ユーザにより知覚可能な出力を開始する手段と、
前記ユーザにより知覚可能な出力の開始に続いて、しきい時間期間の間、前記移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定する手段と、
前記移動デバイスの動きを検出する手段と、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定する手段と、
前記決定されたジェスチャーコマンド入力に応答して、前記ユーザにより知覚可能な出力に影響を与える手段とを具備する装置。 - 現在のユーザの運動状態を決定する手段と、
前記決定された現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段とをさらに具備する請求項11記載の装置。 - ユーザが歩いていないことを示す前記決定された現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定される請求項12記載の装置。
- 前記移動デバイスのロケーションを推定する手段をさらに具備し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段は、前記移動デバイスの前記推定されたロケーションにさらに少なくとも部分的に基づいている請求項11記載の装置。 - 前記ジェスチャーコマンド入力以外のユーザ入力を受け取る手段と、
前記ユーザ入力を受け取ってから第2のしきい時間期間が経過しているか否かを決定する手段とをさらに具備し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する手段は、前記ユーザ入力を受け取ってから第2のしきい時間期間が経過しているとの決定にさらに少なくとも部分的に基づいている請求項11記載の装置。 - 前記移動デバイスにおいて、
重力加速度を検出する手段と、
前記検出された重力加速度に対する前記移動デバイスの向きを決定する手段と、
前記検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定する手段とをさらに具備する請求項11記載の装置。 - 前記移動デバイスにおいて、
外部光源を検出する手段と、
前記検出された外部光源に対する前記移動デバイスの向きを決定する手段と、
前記検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスの前記ディスプレイ部分が前記水平に見えるポジションにあるか否かを決定する手段とをさらに具備する請求項11記載の装置。 - 前記移動デバイスにおいて、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、前記ユーザにより知覚可能な出力を提供する手段により、追加の、ユーザにより知覚可能な出力を開始する手段をさらに具備する請求項11記載の装置。 - 前記ユーザにより知覚可能な出力に影響を与えることは、前記ユーザにより知覚可能な出力を停止させることを含む請求項11記載の装置。
- 前記ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを含む請求項11記載の装置。
- 移動デバイスにおいて、
ディスプレイデバイスを少なくとも含む1つ以上の出力デバイスと、
1つ以上の慣性センサと、
前記1つ以上の出力デバイスのうちの少なくとも1つを介しての、ユーザにより知覚可能な出力の開始に続いて、
しきい時間期間の間、前記ディスプレイデバイスが水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、
前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの動きがジェスチャーコマンド入力を表すか否かを決定し、
前記決定されたジェスチャーコマンド入力に応答して、前記ユーザにより知覚可能な出力に影響を与える、
処理ユニットとを具備し、
前記動きは、前記1つ以上の慣性センサのうちの少なくとも1つに関係付けられている少なくとも1つの信号に少なくとも部分的に基づいている移動デバイス。 - 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
現在のユーザの運動状態を取得し、
前記現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する請求項21記載の移動デバイス。 - 前記ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定される請求項22記載の移動デバイス。
- 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記移動デバイスの推定されたロケーションを取得し、
前記移動デバイスの前記推定されたロケーションにさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する請求項21記載の移動デバイス。 - 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記ジェスチャーコマンド入力以外の以前のユーザ入力の時間を決定し、
前記以前のユーザ入力を受け取ってから第2のしきい時間期間が経過しているか否かを決定し、
前記以前のユーザ入力を受け取ってから第2のしきい時間期間が経過しているとの決定にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定する請求項21記載の移動デバイス。 - 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記1つ以上の慣性センサのうちの前記少なくとも1つに関係付けられている前記少なくとも1つの信号に少なくとも部分的に基づいて、検出された重力加速度に対する前記移動デバイスの向きを決定し、
前記検出された重力加速度に対する前記移動デバイスの前記向きに少なくとも部分的に基づいて、前記ディスプレイデバイスが前記水平に見えるポジションにあるか否かを決定する請求項21記載の移動デバイス。 - 前記移動デバイスにおいて、
外部光源からの光を検出するセンサをさらに具備し、
前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記検出された光に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記ディスプレイデバイスが前記水平に見えるポジションにあるか否かを決定する請求項21記載の移動デバイス。 - 前記処理ユニットは、前記ユーザにより知覚可能な出力の前記開始に続いて、さらに、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、前記1つ以上の出力デバイスのうちの少なくとも1つを介して、追加の、ユーザにより知覚可能な出力を開始する請求項21記載の移動デバイス。 - 前記処理ユニットは、さらに、前記ユーザにより知覚可能な出力を停止することによって、前記ユーザにより知覚可能な出力に影響を与える請求項21記載の移動デバイス。
- 前記1つ以上の出力デバイスのうちの少なくとも1つは、可聴の出力、視覚的な出力または触覚の出力のうちの少なくとも1つを発生させる請求項21記載の移動デバイス。
- 物品において、
ユーザにより知覚可能な出力の開始に続いて、
しきい時間期間の間、移動デバイスのディスプレイ部分が水平に見えるポジションのままであることに少なくとも部分的に基づいて、前記移動デバイスがジェスチャーコマンド入力レディ状態にあるか否かを決定し、
前記移動デバイスがジェスチャーコマンド入力レディ状態にある場合に、前記移動デバイスの検出された動きがジェスチャーコマンド入力を表すか否かを決定し、
前記検出された動きが前記ジェスチャーコマンド入力を表すとの決定に応答して、前記ユーザにより知覚可能な出力に影響を与えるように、前記移動デバイスの処理ユニットによって実行可能なコンピュータ実行可能命令をその上に記憶している一時的でないコンピュータ読取可能媒体を具備する物品。 - 前記コンピュータ実行可能命令は、
現在のユーザの運動状態にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。 - ユーザが歩いていないことを示す前記現在のユーザの運動状態に応答して、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあると決定される請求項32記載の物品。
- 前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定することは、前記移動デバイスの推定されたロケーションにさらに少なくとも部分的に基づいている請求項31記載の物品。
- 前記コンピュータ実行可能命令は、
ユーザ入力を受け取ってからの第2のしきい時間期間にさらに少なくとも部分的に基づいて、前記移動デバイスが前記ジェスチャーコマンド入力レディ状態にあるか否かを決定するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。 - 前記コンピュータ実行可能命令は、
検出された重力加速度に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスのディスプレイ部分が前記水平に見えるポジションにあるか否かを決定するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。 - 前記コンピュータ実行可能命令は、
検出された外部光源に対する前記移動デバイスの向きに少なくとも部分的に基づいて、前記移動デバイスのディスプレイ部分が前記水平に見えるポジションにあるか否かを決定するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。 - 前記コンピュータ実行可能命令は、
前記ユーザにより知覚可能な出力に影響を与えたことに応答して、追加の、ユーザにより知覚可能な出力を開始するように、前記処理ユニットによってさらに実行可能である請求項31記載の物品。 - 前記処理ユニットは、前記ユーザにより知覚可能な出力を停止することによって、前記ユーザにより知覚可能な出力に影響を与える請求項31記載の物品。
- 前記ユーザにより知覚可能な出力は、可聴の出力、視覚的な出力、または、触覚の出力のうちの少なくとも1つを含む請求項31記載の物品。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US37966910P | 2010-09-02 | 2010-09-02 | |
US61/379,669 | 2010-09-02 | ||
US13/198,455 US9007304B2 (en) | 2010-09-02 | 2011-08-04 | Methods and apparatuses for gesture-based user input detection in a mobile device |
US13/198,455 | 2011-08-04 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013527084A Division JP5937076B2 (ja) | 2010-09-02 | 2011-08-05 | 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015201217A true JP2015201217A (ja) | 2015-11-12 |
JP2015201217A5 JP2015201217A5 (ja) | 2016-07-14 |
JP6092303B2 JP6092303B2 (ja) | 2017-03-08 |
Family
ID=44511568
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013527084A Expired - Fee Related JP5937076B2 (ja) | 2010-09-02 | 2011-08-05 | 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 |
JP2015110223A Expired - Fee Related JP6092303B2 (ja) | 2010-09-02 | 2015-05-29 | 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013527084A Expired - Fee Related JP5937076B2 (ja) | 2010-09-02 | 2011-08-05 | 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9007304B2 (ja) |
EP (1) | EP2612223A1 (ja) |
JP (2) | JP5937076B2 (ja) |
KR (1) | KR101477442B1 (ja) |
CN (1) | CN103080872B (ja) |
WO (1) | WO2012030477A1 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9007304B2 (en) | 2010-09-02 | 2015-04-14 | Qualcomm Incorporated | Methods and apparatuses for gesture-based user input detection in a mobile device |
US9477302B2 (en) | 2012-08-10 | 2016-10-25 | Google Inc. | System and method for programing devices within world space volumes |
US20150153715A1 (en) * | 2010-09-29 | 2015-06-04 | Google Inc. | Rapidly programmable locations in space |
US20130191768A1 (en) * | 2012-01-10 | 2013-07-25 | Smart Technologies Ulc | Method for manipulating a graphical object and an interactive input system employing the same |
US9244499B2 (en) | 2012-06-08 | 2016-01-26 | Apple Inc. | Multi-stage device orientation detection |
CN102799361A (zh) * | 2012-06-21 | 2012-11-28 | 华为终端有限公司 | 一种应用对象的调出方法及移动终端 |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US10185416B2 (en) * | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
US8994827B2 (en) | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US9264802B2 (en) * | 2012-12-13 | 2016-02-16 | Google Inc. | Computing device utilizing a resting surface as a speaker |
US10368836B2 (en) * | 2012-12-26 | 2019-08-06 | Volcano Corporation | Gesture-based interface for a multi-modality medical imaging system |
JP2014229184A (ja) * | 2013-05-24 | 2014-12-08 | 株式会社ニコン | 表示制御プログラムおよび情報表示装置 |
EP3007042A4 (en) | 2013-06-07 | 2017-06-28 | Seiko Epson Corporation | Electronic device and tap operation detection method |
TWI502480B (zh) * | 2013-06-07 | 2015-10-01 | Insyde Software Corp | Control method of touch device and its end function |
JP2014238696A (ja) * | 2013-06-07 | 2014-12-18 | セイコーエプソン株式会社 | 電子機器及びタップ操作検出方法 |
US10884493B2 (en) * | 2013-06-20 | 2021-01-05 | Uday Parshionikar | Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions |
US20150077381A1 (en) * | 2013-09-19 | 2015-03-19 | Qualcomm Incorporated | Method and apparatus for controlling display of region in mobile device |
FR3016046B1 (fr) | 2013-12-31 | 2017-02-17 | Commissariat Energie Atomique | Procede et dispositif de detection de manipulation d'un appareil portable |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
US20160018895A1 (en) * | 2014-04-24 | 2016-01-21 | Dennis Sidi | Private messaging application and associated methods |
EP3170062B1 (en) | 2014-07-18 | 2019-08-21 | Apple Inc. | Raise gesture detection in a device |
US10540348B2 (en) | 2014-09-22 | 2020-01-21 | At&T Intellectual Property I, L.P. | Contextual inference of non-verbal expressions |
KR20160036242A (ko) * | 2014-09-25 | 2016-04-04 | 현대자동차주식회사 | 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법 |
US10613637B2 (en) | 2015-01-28 | 2020-04-07 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
US11347316B2 (en) | 2015-01-28 | 2022-05-31 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
CN106791005A (zh) * | 2016-11-28 | 2017-05-31 | 努比亚技术有限公司 | 移动终端及边缘手势防误触方法 |
US11321551B2 (en) * | 2016-12-07 | 2022-05-03 | Meta Platforms, Inc. | Detecting a scan using on-device sensors |
US10733280B2 (en) * | 2018-06-05 | 2020-08-04 | International Business Machines Corporation | Control of a mobile device based on fingerprint identification |
CN109144274B (zh) * | 2018-09-12 | 2021-06-04 | 吉林大学 | 质心偏移和振动结合的力反馈方向指导系统及控制方法 |
KR20200116693A (ko) * | 2019-04-02 | 2020-10-13 | 삼성전자주식회사 | 디스플레이 제어 방법 및 그 전자 장치 |
CN111049908A (zh) * | 2019-12-12 | 2020-04-21 | 中国建设银行股份有限公司 | 移动设备的数据预缓存方法及装置 |
US11731278B1 (en) * | 2020-04-20 | 2023-08-22 | Google Llc | Robot teleoperation using mobile device motion sensors and web standards |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012297A (ja) * | 2003-06-17 | 2005-01-13 | Canon Inc | 視野角変化装置 |
JP2006197282A (ja) * | 2005-01-14 | 2006-07-27 | Mitsubishi Electric Corp | 携帯端末動作モード設定方式及び携帯端末動作モード設定方法及び携帯端末 |
JP2006229549A (ja) * | 2005-02-17 | 2006-08-31 | Citizen Watch Co Ltd | 携帯型電子機器 |
JP2007037045A (ja) * | 2005-07-29 | 2007-02-08 | Nec Corp | 移動通信システムにおける携帯端末制御方式 |
JP2007509448A (ja) * | 2003-10-23 | 2007-04-12 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 加速度計を用いたユーザインタフェース装置および方法 |
US20070113207A1 (en) * | 2005-11-16 | 2007-05-17 | Hillcrest Laboratories, Inc. | Methods and systems for gesture classification in 3D pointing devices |
JP2008053988A (ja) * | 2006-08-24 | 2008-03-06 | Funai Electric Co Ltd | 携帯電話端末装置 |
JP2008129006A (ja) * | 2006-11-21 | 2008-06-05 | Quarton Inc | 電子式傾斜センサー及びその電子式水平感知方法 |
JP2008160753A (ja) * | 2006-12-26 | 2008-07-10 | Nec Corp | 携帯端末の機能制限方法及び携帯端末 |
JP2009222921A (ja) * | 2008-03-14 | 2009-10-01 | Fujifilm Corp | 画像表示装置、撮影装置及び画像表示方法 |
US20090265627A1 (en) * | 2008-04-17 | 2009-10-22 | Kim Joo Min | Method and device for controlling user interface based on user's gesture |
US20100033422A1 (en) * | 2008-08-05 | 2010-02-11 | Apple Inc | Systems and methods for processing motion sensor generated data |
JP2010102614A (ja) * | 2008-10-27 | 2010-05-06 | Brother Ind Ltd | 携帯型装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5536930A (en) | 1992-06-03 | 1996-07-16 | Symbol Technologies, Inc. | Apparatus and method for sensing positional orientations of a portable terminal |
US7903084B2 (en) * | 2004-03-23 | 2011-03-08 | Fujitsu Limited | Selective engagement of motion input modes |
US7761814B2 (en) * | 2004-09-13 | 2010-07-20 | Microsoft Corporation | Flick gesture |
US20060164382A1 (en) * | 2005-01-25 | 2006-07-27 | Technology Licensing Company, Inc. | Image manipulation in response to a movement of a display |
US7667686B2 (en) * | 2006-02-01 | 2010-02-23 | Memsic, Inc. | Air-writing and motion sensing input for portable devices |
US7996792B2 (en) * | 2006-09-06 | 2011-08-09 | Apple Inc. | Voicemail manager for portable multifunction device |
US20090262074A1 (en) * | 2007-01-05 | 2009-10-22 | Invensense Inc. | Controlling and accessing content using motion processing on mobile devices |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US20080229255A1 (en) | 2007-03-15 | 2008-09-18 | Nokia Corporation | Apparatus, method and system for gesture detection |
KR100876754B1 (ko) | 2007-04-18 | 2009-01-09 | 삼성전자주식회사 | 작동모드를 전환하기 위한 휴대용 전자기기 |
US20100207871A1 (en) | 2007-04-26 | 2010-08-19 | Nokia Corporation | Method and portable apparatus |
GB0715976D0 (en) | 2007-08-15 | 2007-09-26 | Wren Hilton Giles M | Apparatus and method for automatically changing the profile or mode of a mobile phone |
US8942764B2 (en) * | 2007-10-01 | 2015-01-27 | Apple Inc. | Personal media device controlled via user initiated movements utilizing movement based interfaces |
US8538376B2 (en) * | 2007-12-28 | 2013-09-17 | Apple Inc. | Event-based modes for electronic devices |
US20090174679A1 (en) * | 2008-01-04 | 2009-07-09 | Wayne Carl Westerman | Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface |
US8195220B2 (en) * | 2008-02-01 | 2012-06-05 | Lg Electronics Inc. | User interface for mobile devices |
US8423076B2 (en) * | 2008-02-01 | 2013-04-16 | Lg Electronics Inc. | User interface for a mobile device |
US9002416B2 (en) | 2008-12-22 | 2015-04-07 | Google Technology Holdings LLC | Wireless communication device responsive to orientation and movement |
RU2011128779A (ru) * | 2009-01-23 | 2013-02-27 | Квалкомм Мемс Текнолоджис, Инк. | Интегрированное светоизлучающее и фотоэлектрическое устройство |
JP2010257037A (ja) * | 2009-04-22 | 2010-11-11 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US9564075B2 (en) * | 2009-12-30 | 2017-02-07 | Cyweemotion Hk Limited | Electronic control apparatus and method for responsively controlling media content displayed on portable electronic device |
US20120256959A1 (en) * | 2009-12-30 | 2012-10-11 | Cywee Group Limited | Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device |
US9007304B2 (en) | 2010-09-02 | 2015-04-14 | Qualcomm Incorporated | Methods and apparatuses for gesture-based user input detection in a mobile device |
US9214128B2 (en) * | 2011-08-10 | 2015-12-15 | Panasonic Intellectual Property Corporation Of America | Information display device |
-
2011
- 2011-08-04 US US13/198,455 patent/US9007304B2/en active Active
- 2011-08-05 EP EP11746396.8A patent/EP2612223A1/en not_active Withdrawn
- 2011-08-05 JP JP2013527084A patent/JP5937076B2/ja not_active Expired - Fee Related
- 2011-08-05 KR KR1020137008365A patent/KR101477442B1/ko not_active IP Right Cessation
- 2011-08-05 CN CN201180042278.XA patent/CN103080872B/zh not_active Expired - Fee Related
- 2011-08-05 WO PCT/US2011/046835 patent/WO2012030477A1/en active Application Filing
-
2015
- 2015-04-08 US US14/681,738 patent/US9513714B2/en active Active
- 2015-05-29 JP JP2015110223A patent/JP6092303B2/ja not_active Expired - Fee Related
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012297A (ja) * | 2003-06-17 | 2005-01-13 | Canon Inc | 視野角変化装置 |
JP2007509448A (ja) * | 2003-10-23 | 2007-04-12 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 加速度計を用いたユーザインタフェース装置および方法 |
JP2006197282A (ja) * | 2005-01-14 | 2006-07-27 | Mitsubishi Electric Corp | 携帯端末動作モード設定方式及び携帯端末動作モード設定方法及び携帯端末 |
JP2006229549A (ja) * | 2005-02-17 | 2006-08-31 | Citizen Watch Co Ltd | 携帯型電子機器 |
JP2007037045A (ja) * | 2005-07-29 | 2007-02-08 | Nec Corp | 移動通信システムにおける携帯端末制御方式 |
US20070113207A1 (en) * | 2005-11-16 | 2007-05-17 | Hillcrest Laboratories, Inc. | Methods and systems for gesture classification in 3D pointing devices |
JP2008053988A (ja) * | 2006-08-24 | 2008-03-06 | Funai Electric Co Ltd | 携帯電話端末装置 |
JP2008129006A (ja) * | 2006-11-21 | 2008-06-05 | Quarton Inc | 電子式傾斜センサー及びその電子式水平感知方法 |
JP2008160753A (ja) * | 2006-12-26 | 2008-07-10 | Nec Corp | 携帯端末の機能制限方法及び携帯端末 |
JP2009222921A (ja) * | 2008-03-14 | 2009-10-01 | Fujifilm Corp | 画像表示装置、撮影装置及び画像表示方法 |
US20090265627A1 (en) * | 2008-04-17 | 2009-10-22 | Kim Joo Min | Method and device for controlling user interface based on user's gesture |
US20100033422A1 (en) * | 2008-08-05 | 2010-02-11 | Apple Inc | Systems and methods for processing motion sensor generated data |
JP2010102614A (ja) * | 2008-10-27 | 2010-05-06 | Brother Ind Ltd | 携帯型装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2013539118A (ja) | 2013-10-17 |
US9007304B2 (en) | 2015-04-14 |
CN103080872B (zh) | 2017-03-22 |
KR20130065703A (ko) | 2013-06-19 |
US20120056801A1 (en) | 2012-03-08 |
KR101477442B1 (ko) | 2015-01-06 |
EP2612223A1 (en) | 2013-07-10 |
CN103080872A (zh) | 2013-05-01 |
JP5937076B2 (ja) | 2016-06-22 |
WO2012030477A1 (en) | 2012-03-08 |
US20150277577A1 (en) | 2015-10-01 |
JP6092303B2 (ja) | 2017-03-08 |
US9513714B2 (en) | 2016-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6092303B2 (ja) | 移動デバイスにおけるジェスチャーベースのユーザ入力の検出のための方法および装置 | |
US10362438B2 (en) | Portable apparatus and method of controlling location information of portable apparatus | |
US11540102B2 (en) | Method for function control and electronic device thereof | |
US9389691B2 (en) | Devices and methods for establishing a communicative coupling in response to a gesture | |
AU2013257523B2 (en) | Electronic device and method for driving camera module in sleep mode | |
US20140337732A1 (en) | Music playback control with gesture detection using proximity or light sensors | |
US10019219B2 (en) | Display device for displaying multiple screens and method for controlling the same | |
US20130055103A1 (en) | Apparatus and method for controlling three-dimensional graphical user interface (3d gui) | |
CN110288689B (zh) | 对电子地图进行渲染的方法和装置 | |
US20200336875A1 (en) | Scenario-based sound effect control method and electronic device | |
US20150242100A1 (en) | Detecting intentional rotation of a mobile device | |
WO2019205735A1 (zh) | 数据传输方法、装置、显示屏及显示装置 | |
KR20150011885A (ko) | 디바이스의 사용자 인터페이스 제공 방법 및 그 디바이스 | |
US20140194147A1 (en) | Apparatus and method for reducing battery consumption of mobile terminal | |
CN108196701B (zh) | 确定姿态的方法、装置及vr设备 | |
US10536810B2 (en) | Electronic apparatus, control method, and non-transitory computer-readable recording medium | |
US20140370873A1 (en) | Method for performing function in call mode and portable electronic device for implementing the method | |
US20170293368A1 (en) | Gyroscope apparatus | |
KR102092023B1 (ko) | 라디오 기능을 구비한 전자 장치 및 그 운영 방법 | |
TWI814455B (zh) | 預測使用者意圖的方法、設備及其系統 | |
Bremnes | TDT49 Essay-Ubicomp and sensing systems | |
JP2012181706A (ja) | データ送信方法および情報処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6092303 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |