JP5832900B2 - 慣性センサからのユーザ入力を判断するための方法および装置 - Google Patents

慣性センサからのユーザ入力を判断するための方法および装置 Download PDF

Info

Publication number
JP5832900B2
JP5832900B2 JP2011539661A JP2011539661A JP5832900B2 JP 5832900 B2 JP5832900 B2 JP 5832900B2 JP 2011539661 A JP2011539661 A JP 2011539661A JP 2011539661 A JP2011539661 A JP 2011539661A JP 5832900 B2 JP5832900 B2 JP 5832900B2
Authority
JP
Japan
Prior art keywords
mobile device
linear movement
user input
detecting
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011539661A
Other languages
English (en)
Other versions
JP2012510690A (ja
Inventor
ホロデズキー、サミュエル・ジェイコブ
シェインブラット、レオニド
リーゼンビー、スコット・アラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2012510690A publication Critical patent/JP2012510690A/ja
Application granted granted Critical
Publication of JP5832900B2 publication Critical patent/JP5832900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Description

本発明は、一般に、1つまたは複数のモーションセンサによって検出されたモーションに基づいてユーザ入力を判断するためのモバイルデバイスに関する。
携帯電話などの従来のモバイルデバイスは、一般に、オペレータが機械的/電気的ボタンを介して制御コマンドを入力することを可能にする。これらのボタンは、独立型ボタン、キーパッドおよびキーボード、ならびにタッチスクリーンを含み得る。これらのボタンは、一般に、モバイルデバイスの前面および側面上に配置され、それらの様々な面上のボタンのその物理的ロケーションへの機械アセンブリおよび電気配線を必要とする。配線は、ボタンの物理的ロケーションから、オペレータのボタンの作動を監視する制御電子回路にルーティングされなければならない。さらに、モバイルデバイスが製造された後には、モバイルデバイス上で機械的ボタンを再配置することはほとんど不可能である。出力デバイスと入力デバイスの両方として使用され得るタッチスクリーンは、従来のボタンの機能を果たすこともできる。残念ながら、タッチスクリーンのディスプレイは、オペレータがそれを入力デバイスとして使用するときはいつでも、部分的に遮られる。
上記で説明された従来のボタンおよびタッチスクリーンは、経時的に摩耗し、劣化し、故障する機械要素を必要とする。これらの従来のボタンおよびタッチスクリーンはまた、ボタンの位置における電子回路、およびボタンの位置への配線を必要とする。さらに、これらのボタンおよびタッチスクリーンは、容易には、再配置可能でない。さらに、タッチスクリーンのディスプレイは、オペレータの使用により、汚され、傷つけられまたは引っ掻かれるようになり得、したがってさらに、遮られていないディスプレイを閲覧するためのオペレータの能力を妨げる。ボイスアクティベーションは、オペレータにこれらのボタンの代替物を与えるが、そのようなボイス制御は、マイクロフォンの使用と比較的静かな環境とを必要とする。
ユーザは、しばしば、テレビジョンまたはステレオシステムなどの電子機器の近傍にいるときに、そのようなモバイルデバイスを携帯するかまたは手近に置き得る。そのような電子機器を操作するために、ユーザは、しばしば、そのような電子機器に制御信号を送信するために専用の遠隔制御装置を使用しなければならない。残念ながら、しかしながら、そのような遠隔制御装置はしばしば置き忘れられ、したがって、ユーザは、電子機器を操作するために遠隔制御装置を探す時間および労力を費やさなければならない。
特定の一実装形態では、モバイルデバイスのモーションに基づいてユーザ入力を判断するための方法が提供される。線形平面の少なくとも1つの軸の周りのモバイルデバイスの角移動(angular movement)が検出される。また、線形平面の少なくとも1つの軸に沿ったモバイルデバイスの線形移動(linear movement)が検出される。最後に、角移動の検出と線形移動の検出とに基づいてユーザ入力が判断され得る。ただし、これは例示的な一実装形態にすぎず、特許請求の範囲の主題はこの点に限定されないことが諒解されるべきである。
非限定的で非網羅的な特徴は、様々な図の全体を通して同様の参照番号が同様の部分を指す、以下の図を参照しながら説明されるだろう。
図1Aは、一態様による、加速度計によって測定された、スカラー値、一連のスカラー値、または時間変動関数に関する線形移動(M,M,M)を表すための座標系(x,y,z)を示す。 図1Bは、一態様による、ジャイロスコープによって測定された、スカラー値、一連のスカラー値、または時間変動関数に関する回転移動(Rτ,Rφ,Rψ)を表すための座標系(τ,φ,ψ)を示す。 図2は、一態様によるモバイルデバイスの概略ブロック図である。 図3Aは、一態様によるモバイルデバイスの代替図を示す。 図3Bは、一態様によるモバイルデバイスの代替図を示す。 図3Cは、一態様によるモバイルデバイスの代替図を示す。 図4Aは、特定の一実装形態によるモバイルデバイスを示している。 図4Bは、一実装形態による、モバイルデバイスのユーザの移動に基づいてユーザ入力を判断するためのプロセスを示している。 図5は、特定の一実装形態におけるモバイルデバイスのディスプレイ上に表示され得るマップ画像を示している。 図6は、一実装形態による、モバイルデバイスを保持し、モバイルデバイスを軸に沿ってユーザの顔に近づけるおよびユーザの顔から離すよう移動しているユーザを示している。 図7は、特定の一実装形態におけるモバイルデバイスのディスプレイ上に表示され得るマップ画像を示している。 図8は、特定の一実装形態によるモバイルデバイスの側面図を示している。 図9は、特定の一実装形態におけるモバイルデバイスのディスプレイ上に表示され得るマップ画像を示している。 図10は、特定の一実装形態におけるモバイルデバイスのディスプレイ上に表示され得るマップ画像を示している。 図11は、特定の一実装形態におけるモバイルデバイスのディスプレイ上に表示され得るマップ画像を示している。 図12は、特定の一実装形態におけるモバイルデバイスのディスプレイ上に表示され得るマップ画像を示している。 図13は、特定の一実装形態におけるモバイルデバイスのディスプレイ上に表示され得るマップ画像を示している。 図14は、特定の一実装形態におけるモバイルデバイスのディスプレイ上に表示され得るマップ画像を示している。 図15は、一態様による、特定の時間に関連する拡大された画像を示している。 図16は、一態様による、画像に関連する様々なボックスがタイムラインに沿って表示された画像を示している。 図17は、一態様による、ユーザが特定の日付にズームインしたときに、タイムラインに沿ったそのような日付に関連する4つの画像が表示され得る画像を示している。
本明細書全体にわたる「一例」、「1つの特徴」、「例」または「特徴」という言及は、特徴および/または例に関して説明された特定の特徴、構造、または特性が、請求された主題の少なくとも1つの特徴および/または例の中に含まれることを意味する。したがって、本明細書全体にわたる様々な箇所における「一例では」、「例」、「1つの特徴では」または「特徴」という句の出現は、必ずしもすべてが同じ特徴および/または例を指すわけではない。さらに、それらの特定の機能、構造、または特性は、組み合わせられて1つまたは複数の例および/または機能になり得る。
現在、ユーザがポータブル電子デバイスを配置している仕方に基づいて、ユーザの入力を判断することができるポータブル電子デバイスがある。たとえば、1つの特定のポータブル電子デバイスは、ユーザがそのポータブル電子デバイスを特定の方向に回転させた場合、ディスプレイスクリーン上に表示された画像の姿勢を変更することができる。一例では、ポータブル電子デバイスを時計回り方向に回転させることによって、ポータブル電子デバイスのディスプレイスクリーン上に表示された画像は回転され得る。したがって、そのようなポータブル電子デバイスは、ユーザによるポータブル電子デバイスの角移動に基づいてユーザの入力を判断することができる。
当技術分野では、ハンドヘルドゲームコントローラの線形移動に基づいてユーザの入力を判断することができるゲーム機がある。線形移動は、3次元空間におけるそのようなハンドヘルドゲームコントローラの物理的な移動を備えることができ、いかなる回転移動とも無関係である。たとえば、ユーザ入力は、直線軸に沿ったそのようなハンドヘルドゲームコントローラの移動に基づいて、ハンドヘルドゲームコントローラによって判断され得る。そのようなゲーム機は、ハンドヘルドゲームコントローラの角移動ではなく、線形移動に基づいてユーザ入力を判断する。
ただし、角移動のみの、または線形移動のみの検出から判断され得るユーザ入力の数は比較的制限される。たとえば、他のタイプの線形移動と角移動の両方が判断される場合、判断され得る多くの追加のユーザ入力があり得る。したがって、角移動と線形移動の両方を判断することとは反対に、角移動を判断することのみ、または線形移動を検出することのみによって、可能なユーザ入力の総数が比較的制限され得る。
現在のシステムは、様々な理由で線形移動のみまたは角移動のみを判断することができる。たとえば、現在のポータブル電子デバイスは、効率的な方法で電力を消費することができない。したがって、線形移動と角移動の両方が様々な電子回路によって同時に検出された場合、そのような現在のポータブル電子デバイスのバッテリー寿命は、劇的に短縮され得る。その上、角移動と線形移動の両方を検出するための電子回路を使用して発生される熱量は、現在使用されているポータブル電子デバイスの全体的システムパフォーマンスに悪影響を及ぼし得る。また、線形移動と角移動の両方を判断するための回路の使用は、法外なコストがかかり得る。たとえば、ゲーム産業において、製造業者は、費用がかからないゲームシステムを生産しようと努力し、また、製造業者が、たとえば、そのようなゲームシステムとともに使用するための関連するビデオゲームの売上でゲームシステム損失を取り戻すことが可能であるほど十分な消費者がそのようなゲームシステムを購入することを期待しながら、ゲームシステム自体の販売により損をすることさえあり得る。
ポータブル電子デバイスの線形移動と角移動の組合せに基づいてユーザ入力を判断することが可能なポータブル電子デバイスのための方法およびシステムが本明細書で説明される。そのようなポータブル電子デバイスは、線形移動と角移動とを検出するための様々なセンサ(複数可)を含み得る。ユーザ入力は、そのような検出された線形移動と角移動の組合せに基づいて判断され得る。角移動と線形移動の両方を検出することによって、幅広いユーザ入力を判断するためロバストなシステムが実現される。
本明細書で使用される「ハンドヘルドモバイルデバイス」、「モバイルデバイス」、または「移動局」(MS)は、時々で変更され得る位置および/または姿勢を有し得るデバイスを指す。位置および/または姿勢のそのような変化は、いくつかの例として、方向、距離、角回転、などに対する変化を備えることができる。特定の例では、移動局は、セルラー電話、ワイヤレス通信デバイス、ユーザ機器、ラップトップコンピュータ、他のパーソナル通信システム(PCS)デバイス、および/または他の携帯通信デバイス、を備えることができる。移動局はまた、機械可読命令によって制御される機能を実行するように適合されたプロセッサおよび/または計算プラットフォームを備えることができる。
一実装形態では、モバイルデバイスは、物理的現象をアナログ信号および/または電気信号に変換する単一のセンサまたは複数のセンサを含み得る。そのようなセンサは、たとえば、センサのほんのいくつかの例を挙げれば、(1)大気圧を測定するために使用される気圧センサ、(2)地球の磁界の方向を判断するために使用される地磁気センサ、(3)心拍数または血圧を測定するために使用される生体センサ、(4)接触または指紋を検出するために使用されるタッチセンサ、(5)センサによって受けられる重力および他の線形力の方向を検知するために使用される加速度計、ならびに(6)コリオリ効果、ヘッディング変化および回転を測定するために使用されるジャイロスコープ、を含み得る。
そのようなセンサは、どのセンサがワイヤレスデバイスに組み込まれるかに応じて、様々なモバイルアプリケーションを可能にすることができる。いくつかのアプリケーションは、少なくとも1つのセンサからの2つ以上の測定値を採用することができ、センサからの複数の程度(軸)の可観測性(observability)を採用することができる。さらに、センサは、以下で説明されるさらなる処理が行われる前に、測定値をフィルタ処理することができる。さらに、様々なアプリケーションは、様々な役割を果たすことができるセンサの様々な組合せを採用することができる。
ナビゲーションの場合、加速度計とジャイロスコープ(「ジャイロ」)の両方が、6軸の可観測性(x,y,z,τ,φ,ψ)を与えるために使用され得る。加速度計は、線形モーション(すなわち、水平面などの平面における平行移動)を検知することができる。平行移動は、少なくとも2つの軸に関して測定され得る。そのような加速度計はまた、物体のチルト(ロールまたはピッチ)の測度を与えることができる。したがって、単一の3D加速度計を用いて、デカルト座標空間(x,y,z)中の物体のモーションが検知され得、物体のロール(τ)およびピッチ(φ)を推定するために重力の方向が検知され得る。加速度計は、物体の線形モーションとチルトとを容易に区別することが可能でないことがあるので、(x,y,z)座標の周りの回転、すなわち、方位角またはヘッディングと時々呼ばれる、ロール(τ)とピッチ(φ)とヨー(ψ)とを測定するために、ジャイロスコープが使用され得る。
マルチセンサデバイスに関するさらなる情報は、たとえば、「Multi-Sensor Data Collection and/or Processing」と題する、出願日が2007年3月23日の米国仮出願第60/896,795号(弁理士整理番号071238P1)、「Multi-Sensor Data Collection and/or Processing」と題する、出願日が2007年3月30日の米国仮出願第60/909,380号(弁理士整理番号071238P2)、「Multi-Sensor Data Collection and/or Processing」と題する、出願日が2007年4月27日の米国仮出願第60/914,716号(弁理士整理番号071238P3)、「Multi-Sensor Data Collection and/or Processing」と題する、発明者L.SheynblatおよびT.Wolfによる、2008年3月24日に出願された米国特許出願第12/054,303号(弁理士整理番号071238)、ならびに「Sensor-Based Orientation System」と題する、発明者L.Sheynblatよる、2007年3月15日に出願された米国特許出願第11/686,945号(弁理士整理番号060228)において与えられる。これらのセンサ、ならびに記載されていない他の可能なセンサは、特定のアプリケーションに応じて、個別に使用され得るか、または組み合わせて使用され得る。
移動検出アプリケーションでは、線形加速度計および角加速度計、地磁気センサ、ならびに/あるいはジャイロスコープが、十分な程度の可観測性を与えるために、モバイルデバイスに組み込まれ得る。図1Aは、加速度計110によって測定された、スカラー値、一連のスカラー値、または時間変動関数に関する線形移動(M,M,M)を表すための座標系(x,y,z)を示す。いくつかの加速度計110は、他のものは単に大きさなしの移動の指標を与えることができるのに対して、大きさを与えることができる。加速度計110は、デカルト座標(x,y,z)をしばしば基準として、1つ、2つまたは3つの線形方向に関する線に沿った線形移動(ベクトルM)を測定することができる。たとえば、1次元加速度計110は、x軸に沿った線形移動を示すための測定値を与えることができる。2次元加速度計110は、x軸とy軸の両方に沿った平面内の線形移動を示すための測定値を与えることができ、3次元加速度計110は、x軸、y軸およびz軸に沿った3次元空間中の線形移動を示すための測定値を与えることができる。3次元加速度計110は、1次元加速度計と組み合わせられた2次元加速度計を備えることができるか、または3つの1次元加速度計を備えることができる。加速度計110は、線形加速度(2乗された単位時間当たりの距離を表す単位、たとえば、[m/sec])、線形速度(単位時間当たりの距離を表す単位、たとえば、[m/sec])、または線形距離(距離を表す単位、たとえば、[m])、に関する測定値を与えることができる。線形モーション(ベクトルM)は、ベクトル形態の3つの値、M=MX+MY+MZによって表され得、ここで、(M,M,M)は、大きさ、スカラー値、一連のスカラー値、または時間変動関数であり、(X,Y,Z)は、デカルト座標系(x,y,z)の原点に関する単位ベクトルである。一般に、本明細書で説明される加速度計は、モーションを検出し、そのような加速度計の1つ、2つまたは3つの軸に沿った線形移動を示す情報を発生するための検知手段を備えることができる。代替的に、デバイスの本体フレームと整合させられた座標系など、非デカルト座標系が使用され得る。使用される任意の座標系についての重要な要件は、その軸が互いに直交するということである。
図1Bは、ジャイロスコープ120によって測定された、スカラー値、一連のスカラー値、または時間変動関数に関する回転移動(Rτ,Rφ,Rψ)を表すための座標系(τ,φ,ψ)を示す。ここで、ジャイロスコープ120は、1つ、2つ、または3つの軸の周りの回転移動(ベクトルR)を測定することができる。特定の一実装形態では、ジャイロスコープの回転は、座標(τ,φ,ψ)に関して測定され得、ここで、タウ(τ)は、z軸の周りのヨーまたは回転を表し、ファイ(φ)は、x軸の周りのロールまたは回転を表し、プサイ(ψ)は、y軸の周りのピッチまたは回転を表す。別の実装形態では、ジャイロスコープ120は、第1の軸の周りの回転移動を示す測定値を与えるための1次元ジャイロスコープを備えることができる。別の実装形態では、ジャイロスコープ120は、第1の軸と第2の軸との周りの回転移動を示す測定値を与えるための2次元ジャイロスコープを備えることができる。同様に、別の実装形態では、ジャイロスコープ120は、第1の軸と第2の軸と第3の軸との周りの回転移動を示す測定値を与えるための3次元ジャイロスコープを備えることができる。そのような3次元ジャイロスコープは、1次元ジャイロスコープと組み合わせられた2次元ジャイロスコープを備えることができるか、または3つの1次元ジャイロスコープを備えることができる。ジャイロスコープ120は、角加速度(2乗された単位時間当たりの角度の変化を表す単位、たとえば、[rad/sec])、角速度(単位時間当たりの角度の変化を表す単位、たとえば、[rad/sec])、または角度(角度を表す単位、たとえば、[rad])、に関する測定値を与えることができる。回転モーション(ベクトルR)は、ベクトルの形態の3つのスカラー値、一連のスカラー値、または時間変動関数、R=Rττ+Rφφ+Rψψによって表され得、ここで、(Rτ,Rφ,Rψ)は、スカラー値、一連のスカラー値、または時間変動関数であり、(τ,φ,ψ)は、回転座標系(τ,φ,ψ)に関する単位ベクトルである。特定の実装形態では、本明細書で説明されるジャイロスコープは、モーションを検出し、ジャイロスコープの1つ、2つ、または3つの軸の周りの角移動を示す情報を生成するための検知手段を備えることができる。
単一の加速度計110は、単一のジャイロスコープ120がチルトまたはロールなどの角移動を測定することができるのに対して、線形移動を検知することができる。たとえば、線形移動ならびに角移動を検知するために、2つの別々の加速度計110、2つの別々のジャイロスコープ120、または加速度計110とジャイロスコープ120との組合せをモバイルデバイスに組み込むことが使用され得る。
一例では、3次元加速度計110および3次元ジャイロスコープ(たとえば、ジャイロスコープ120)は、6つの軸の可観測性(x,y,,τ,φ,ψ)を与える。また、2つの3次元加速度計110も、6つの軸の可観測性(x,y ,x,y )を与えることができる。より少数の軸の線形モーションおよび/または回転モーションを検知するために、縮小次元センサが使用され得る。たとえば、2次元加速度計110および2次元ジャイロスコープ120は、4つの軸の可観測性(x,y,τ,φ)を与えることができる。本明細書で説明される技法は、以下で詳細に説明されるように、1つまたは複数の次元を測定するシングルセンサまたはマルチセンサモバイルデバイスを実装することができる。
図2は、特定の実装形態によるモバイルデバイス200の概略ブロック図である。モバイルデバイス200は、第1のセンサ210と、第2のセンサ220と、プロセッサ230と、メモリ240と、ディスプレイ250と、を収容することができる。特定の一実装形態では、第1のセンサ210は、加速度計を備えることができ、第2のセンサ220は、ジャイロスコープを備えることができる。図2には2つのセンサのみが示されるが、他の実装形態では、請求された主題から逸脱することなしに、追加の、またはより少数のセンサが利用される得ることが諒解されるべきである。さらに、別の実装形態では、単一のセンサが、線形モーションと角モーション(angular motion)の両方を測定するように適合され得る。モバイルデバイス200はまた、ディスプレイ250と一体化されたタッチスクリーン260、1つまたは複数のボタン270、1つまたは複数のキーパッド280ならびに/あるいはオーディオデバイス290(スピーカおよび/またはマイクロフォンなど)を含む、オペレータ入力を受け付け、出力データを供給するデバイスおよび回路を含み得る。
図3A〜図3Cは、モバイルデバイス300の代替図を示す。図3Aにおいて、モバイルデバイス300の外面図は、ハウジング305と、ディスプレイ310と、キーパッド312と、を含むことが示されている。図3Bは、第1のセンサ315および第2のセンサ320など、ハウジング305内に配設されたコンポーネントの図を示す。ハウジング305は、たとえば、プロセッサ230およびメモリ240(たとえば、図2中のものなど)などの追加のアイテムを囲むことができる。第1のセンサ315および第2のセンサ320は、ハウジング305の両側に配置される必要はないが、説明のために、それらは両側に常駐していることが示されていることが諒解されるべきである。特定の一実装形態では、第1のセンサ315と第2のセンサ320は、ハウジング305中に並んで配設され得、請求された主題はモバイルデバイス中のセンサの特定の配置に限定されないことが諒解されるべきである。
図3Cは、モバイルデバイス300の側端図を示す。第1のセンサ315は、たとえば、第1のセンサ315の1つ、2つまたは3つの次元にそれぞれ対応する1つまたは複数の軸(たとえば、x軸315x、y軸315yおよびz軸315z)を規定する、ジャイロスコープまたは加速度計のいずれかを備えることができる。たとえば、第1のセンサ315は、第1のセンサ315の第1の軸の周りのモバイルデバイス300の角移動を測定するためにハウジング305内に配置された1次元ジャイロスコープを備えることができる。第1の軸は、x軸315x、y軸315y、z軸315z、または同様の軸であり得る。たとえば、第1の軸がz軸315zである場合、第1のセンサ315は、第1のセンサ315のz軸315zの周りのモバイルデバイス300の角移動を示す信号を発生するような姿勢とされるであろう。
別の例では、第1のセンサ315は、x軸315x、y軸315yおよびz軸315z(または3つの軸の同様のセット)の周りのモバイルデバイス300の角移動を測定するようなハウジング305内での姿勢とされた3次元ジャイロスコープを備えることができる。この例では、第1のセンサ315は、第1のセンサ315のx軸315x、y軸315yおよびz軸315zの周りのモバイルデバイス300の角移動を示す信号を発生するような姿勢とされ得る。
同様に、第2のセンサ320も、第2のセンサ320の1つ、2つまたは3つの次元にそれぞれ対応する1つまたは複数の軸(たとえば、x軸320x、y軸320yおよびz軸320z)を規定する、ジャイロスコープまたは加速度計を備えることができる。たとえば、第2のセンサ320は、第2のセンサ320の第1の軸に沿ったモバイルデバイス300の線形移動を測定するようなハウジング105内での姿勢とされた1次元加速度計を備えることができる。この第1の軸は、x軸320x、y軸320y、z軸320z、または任意の軸を備えることができる。たとえば、この第1の軸がx軸320xである場合、第2のセンサ320は、第2のセンサ320のx軸320xに沿ったモバイルデバイス300の線形移動を示す信号を発生するような姿勢とされ得る。
一例として、第1のセンサ315は、ジャイロスコープを備えることができ、第2のセンサ320は、加速度計を備えることができる。ここで、第1のセンサ315は、第1のセンサ315の第1の軸(たとえば、z軸315z)の周りのモバイルデバイス300の角移動を検出し、測定するようなハウジング305中での姿勢とされる。第1のセンサ315は、この角移動を示す信号を発生することができる。第2のセンサ320(加速度計)は、第2のセンサ320の第1の軸(たとえば、x軸320x)に沿った線形移動を測定するような姿勢とされ得る。この姿勢では、第1のセンサ315の第1の軸(z軸315z)と第2のセンサ320の第1の軸(x軸320x)とは、互いに非共線であり、互いに直交し得る。本明細書では例示のためにx軸、y軸、およびz軸が説明されるが、特許請求の範囲は、(特定の実装形態では実質的に直交している軸が使用され得るが)直交する軸に限定されない。
特定の実装形態によれば、ジャイロスコープと加速度計の組合せが、ユーザ入力を検出するために利用され得る。たとえば、モバイルデバイス300のディスプレイ上にグラフィカルマップ画像を表示するように適合されたマッピングアプリケーションプログラムがあり得る。ここで、たとえば、ユーザは、ボタンを押す代わりに、モバイルデバイス自体を単に移動させることによって、そのような表示されたグラフィカルマップ画像を操作することができる。たとえば、モバイルデバイス300を、たとえば、あらかじめ規定された軸に沿って上または下に移動させることによって、表示されたマップは、それぞれズームインまたはズームアウトされ得、ズームの量は、モバイルデバイス300が移動させられた量(たとえば、距離)に基づき得る。ユーザはまた、たとえば、モバイルデバイス300を指定された方向に傾けるかまたは回転させることによって、グラフィカルマップ画像が向いている方向を変化させることができる。
そのようなモバイルデバイス300はまた、たとえば、多種多様なアプリケーションのためのユーザ入力を検出するために利用され得る。特定の一実装形態では、ユーザは、電子デバイスを制御するために事前指定された方法で(たとえば、遠隔制御装置として)モバイルデバイスを移動させることができる。たとえば、そのようなモバイルデバイス300は、近くのテレビジョン上でのビデオの再生を制御するために利用され得る。一実装形態では、ユーザは、たとえば、モバイルデバイス300を指定された方向に傾けることによって、ビデオを一定数のフレームだけ進めるかまたは巻き戻すように制御させることができる。たとえば、ユーザがモバイルデバイスをこの姿勢に配置する限り、モバイルデバイスを右側に傾けることによって、そのようなビデオは進むことができるが、モバイルデバイスを左側に傾けることはビデオを巻き戻させることができる。
モバイルデバイスが上記で説明されたビデオアプリケーションおよびマッピングアプリケーション以外のユーザ入力を判断するために利用され得る、多くのさらなるアプリケーションがある。モバイルデバイスは、ほんのいくつかの例を挙げれば、ステレオシステム、テレビジョン、照明システム用の調光器、など、多種多様な電子デバイスを制御するために利用され得る。
図4Aは、特定の一実装形態によるモバイルデバイス400を示している。モバイルデバイス400は、たとえば、携帯電話または携帯情報端末(PDA)を備えることができる。そのようなモバイルデバイス400は、たとえば、ディスプレイ405および入力ボタン410を含み得る。そのようなディスプレイ405は、画像および/またはビデオを表示するための液晶ディスプレイ(LCD)または任意の他の好適なディスプレイデバイスを備えることができる。そのような入力ボタン410は、随意であり、いくつかの実装形態では含まれ得る。モバイルデバイス400は、よって、ボタンなしのユーザ入力を判断するように適合され得、したがって、入力ボタン410は、特定の実装形態に応じて随意であり得る。モバイルデバイス400は、そのようなモバイルデバイス400の線形移動および/または角移動を判断するために、ジャイロスコープおよび/または加速度計などの1つまたは複数のセンサ(図示せず)を含み得る。
図4Bは、一実装形態による、モバイルデバイス400のユーザの移動に基づいてユーザ入力を判断するためのプロセスを示している。最初に、動作420において、モバイルデバイス400の角移動が検出される。角移動は、モバイルデバイス400内のジャイロスコープなどのセンサによって検出され得る。次に、動作425において、モバイルデバイス400の線形移動が検出される。線形移動は、モバイルデバイス400内の加速度計などのセンサによって検出され得る。いくつかの実装形態では、動作420および425は、同時に実行され得、または、動作425は、動作420の前に実行され得る、ということが諒解されるべきである。最後に、動作430において、モバイルデバイス400の検出された角移動および線形移動に基づいて、ユーザ入力が判断される。
図5は、特定の一実装形態におけるモバイルデバイス400のディスプレイ405上に表示され得るマップ画像500を示している。ユーザは、マップ画像が望まれるアドレスを入力することができる。代替的に、モバイルデバイス400は、モバイルデバイス400の現在のロケーションを推定し、その推定されたロケーションに基づいてマップ画像を発生するために、ロケーションサービス(たとえば、衛星位置システム、アドバンストフォワードリンクトリラテラレーション、またはハイブリッドロケーションシステム)を受信するように適合され得る。一実装形態では、マッピング画像は、モバイルデバイス400のメモリに記憶され得る。代替的に、そのようなマッピング画像は、リモートアクセス可能なマッピングデータベースに記憶され得、特定のマップ画像についてのモバイルデバイス400からの要求に応答してモバイルデバイス400に送信され得る。この例では、マップ画像500は、サンディエゴエリアおよび周囲エリアの広いビューを示す。ユーザが、ズームインされたマップ画像を閲覧することを望む場合、そのようなユーザは、モバイルデバイス400をユーザの顔に近づけることができる。
図6は、モバイルデバイス400を保持し、モバイルデバイス400を1つまたは複数の軸に沿った方向にユーザ600の顔に近づけるおよびユーザ600の顔から離すよう移動しているユーザ600を示している。加速度計または他のセンサが、軸610に沿った線形移動を検出するために、モバイルデバイス400内に含まれ得る。マップ画像がモバイルデバイス400上に表示されている場合、たとえば、ユーザ600は、モバイルデバイス400を軸610に沿ってユーザ600の顔により近い方向に移動させることによって、マップ画像をズームインさせることができる。マップ画像がズームされる量は、モバイルデバイス400が移動させられる際にユーザ600によって付与された検出された加速度、またはモバイルデバイス400が移動させられた近似的な距離に基づき得る。別の例では、ユーザ600は、モバイルデバイス400を、軸610に沿って反対方向に移動させる、すなわち、ユーザ600の顔から離すことによって、そのようなマップ画像をズームアウトさせることができる。
図7は、特定の一実装形態におけるモバイルデバイス400のディスプレイ405上に表示され得るマップ画像700を示している。この例では、最初に、マップ画像500がディスプレイ405上に示され得る。次いで、ユーザ600は、図6に関して上記で説明されたように、モバイルデバイス400を軸610に沿ってユーザ600の顔に近づけることによって、マップ画像500上にズームインすることができる。図7に示されるように、図5に示されたマップ画像500に示されたよりも詳細にサンディエゴを示す、新しいズームインされたマップ画像700が表示される。上記で説明されたように、ユーザ600は、モバイルデバイス400を軸610に沿ってユーザ600の顔から離れる方向に移動させることによってズームアウトすることができる。
ユーザ600はまた、画像をズームすることなしに、表示されたマッピング画像を変化させることができる。図8は、特定の一実装形態によるモバイルデバイス400の側面図を示している。閲覧されたマップを右側にシフトさせるために、すなわち、表示されたマップ材料の右側のマップの部分を見るために、ユーザ600は、それぞれ、矢印800および805で示されたように、モバイルデバイス400の右端820が下向きに回転され、左端825が上向きに回転されるように、モバイルデバイス400を傾けることができる。一方、閲覧されたマップを左側にシフトさせるために、ユーザ600は、それぞれ、矢印810および815で示されたように、モバイルデバイス400の左端825が下向きに回転され、右端820が上向きに回転されるように、モバイルデバイス400を傾けることができる。
図9は、特定の一実装形態におけるモバイルデバイス400のディスプレイ405上に表示され得るマップ画像900を示している。この例では、マップ画像500が最初にディスプレイ405上に示され、次いで、ユーザは、たとえば、図8に関して上記で説明されたように、モバイルデバイス400の右端820を下げ、左端825を上げることによって、画像を右側にシフトさせる。図9に示されるように、サンディエゴの東の(すなわち、マップ上のサンディエゴの右の)エリアを示す新しいマップ画像900が表示される。
ユーザ600はまた、上のビュー、すなわち、マップ上の現在表示されている画像の上方になるであろうエリアを得るために、または下のビュー、すなわち、通常、マップ上の現在表示されている画像の下方になるであろうエリアを得るために、モバイルデバイス400を傾けることができる。マップを、上記で説明されたように単に左または右ではなく、上または下にシフトさせるために、ユーザ600は、モバイルデバイス400を保持し、モバイルデバイス400の上部エッジ(すなわち、マップ画像の上部分がディスプレイ405上に表示されるであろう場所の近くのエッジ)を上向きに回転させ、モバイルデバイス400の下部エッジを下向きに回転させることができる。図8を再び参照すると、モバイルデバイス400のディスプレイ405上の現在表示されているマップ画像の上のビューを見るために、ユーザ600は、それぞれ矢印840および850によって示されるように、ハンドヘルドモバイルデバイスの上部分830を下部分835の上方に傾ける、すなわち、回転させることができる。代替的に、ユーザ600は、モバイルデバイス400の上部エッジが下向きに回転させられ、モバイルデバイス400の下部エッジが上向きに回転させられるように、モバイルデバイス400を反対方向に回転させることによって、マップ画像を下向きにシフトさせることができる。図8を再び参照すると、モバイルデバイス400のディスプレイ405上に現在表示されているマップ画像の下のビューを見るために、ユーザ600は、それぞれ矢印845および855によって示されるように、ハンドヘルドモバイルデバイスの上部分830を下部分835の下方に傾ける、すなわち、回転させることができる。
図10は、特定の一実装形態におけるモバイルデバイス400のディスプレイ405上に表示され得るマップ画像1000を示している。この例では、マップ画像500が最初にディスプレイ405上に示され、次いで、ユーザは、すなわち、前に閲覧されたマップ画像の上のマップエリアを見るために、図9に関して上記で説明されたように、モバイルデバイス400の上部エッジを上向きに回転させ、モバイルデバイス400の下部エッジを下向きに回転させることによって、画像をより高くにシフトさせた。図10に示されるように、サンディエゴの北の(すなわち、マップ上のサンディエゴの上の)エリアを示す新しいマップ画像1000が表示される。
一実装形態では、追加情報がマップ画像上に表示され得る。たとえば、指定された「重要地点(複数可)」がマップ上に表示され得る。指定された重要地点は、追加のマップ情報が知られており、表示され得るマップのいくつかのエリアを示している。追加のマップ情報は、たとえば、マップ上のエリアに関連するピクチャ、および/またはそのようなマップ上のエリアについて説明するテキストを含み得る。重要地点は、たとえば、データベースに記憶された情報に基づいて判断され得る。特定の一実装形態では、ユーザは、ロケーションサービスからそのロケーションを判断することが可能な使用可能なカメラを用いて写真をとることができ、ロケーション座標は、そのような写真の各々に関連し得、およびそのような写真の各々に関連する情報として記憶され得る。そのような写真に関連するロケーション情報は、ユーザが、保存された画像のロケーション座標に対応するロケーション座標をカバーするマップ画像を表示する場合に、インジケータがそのようなGPS座標についての追加情報が利用可能であることを示すためにそのようなマップ上に表示され得るように、マップ画像と相関され得る。いくつかの実装形態では、いくつかのランドマークのための重要地点は、モバイルデバイス400にとってアクセス可能なデータベースに記憶され得る。
図11は、特定の一実装形態におけるモバイルデバイス400のディスプレイ405上に表示され得るマップ画像1100を示している。この例では、マップ画像1100は、この場合、大きい濃いドットとして表示された、いくつかの重要地点1105を含む。ユーザ600は、そのような重要地点に関する追加情報を獲得するために、特定の重要地点を囲むマップ画像1100のエリア上にズームインすることができる。
図12は、特定の一実装形態におけるモバイルデバイス400のディスプレイ405上に表示され得るマップ画像1200を示している。この例では、マップ画像1200は、重要地点1205を含む。重要地点1205を囲むエリア上にズームインすると、そのような重要地点に対応する画像1210が表示され得る。この場合、そのような画像1210は、そのような重要地点1205に関連するクゥアルコムスタジアムを示している。
図13は、特定の一実装形態におけるモバイルデバイス400のディスプレイ405上に表示され得るマップ画像1300を示している。この例では、マップ画像1300は、この場合、3つのより小さい白い正方形が示されている濃い正方形として示された、重要地点1305を含む。重要地点1305を囲むエリア上にズームインすると、重要地点1305に関連するいくつかの画像が表示され得る。
図14は、特定の一実装形態におけるモバイルデバイス400のディスプレイ405上に表示され得るマップ画像1400を示している。この例では、マップ画像1400は、重要地点1405を含む。この例では、ユーザが重要地点1405上にズームインしたので、重要地点1405が拡大される。重要地点1405は、それぞれ1410、1415、および1420で示された3つの画像を含む。そのような画像の各々は、重要地点1405に関連する。たとえば、重要地点1405は、マップ1400によってカバーされる自転車経路の特定のエリアに関連し得、ズームすると、自転車経路に沿った自転車に乗っている人の画像が表示され得る。画像1410上にズームインすると、たとえば、図15に示されるように、大きい対応する画像1500が表示され得る。画像1500は、当該画像が最初に撮影された日時を示すための見出しを含み得る。この例では、重要地点1405に関連する3つの画像がある。大きい画像1500を閲覧するとき、ユーザは、特定の方法でモバイルデバイス400を保持することによって、次の画像にスクロールすることができる。たとえば、モバイルデバイス400を右側に傾けることによって、ユーザは、重要地点1405に関連する次の画像にスクロールすることができる。一方、ユーザは、モバイルデバイス400を左側に傾けることによって、重要地点1405に関連する前の画像にスクロールすることができる。
ユーザが画像上にズームインすると、画像が表示され得る他の実装形態がある。たとえば、地理的マップ上のロケーションに関連して表示するのではなく、そのような画像は、代わりに仮想タイムラインに沿って表示され得る。図16は、画像に関連する様々なボックスがタイムラインに沿って表示された画像1600を示している。この例では、タイムラインに沿った各月に関連するいくつかの画像がある。この場合、2/07に関連する19個の画像がある。ユーザは、たとえば、タイムラインに沿って日付を進めるためにモバイルデバイス400を右側に傾け、タイムラインに沿って日付を戻すために左側に傾けることによって、タイムラインに沿ってスクロールすることができる。ユーザはまた、たとえば、図6に関して上記で説明されたように、モバイルデバイス400をユーザの顔に近づけることによってなど、ズーム操作に関連する方向にモバイルデバイス400を移動させることによって、特定の日付に関連する1つまたは複数の画像上にズームインすることができる。
図17は、ユーザがタイムラインに沿った特定の日付上にズームインすると、そのような日付に関連する4つの追加の画像1705、1710、1715、および1720が表示され得る、画像1700を示している。この例では、図16に示すものなど、小さい白いボックスが最初に表示され得、ユーザは、画像1705、1710、1715、および1720の小さいバージョンを見るためにズームインすることができる。ユーザは、より大きい対応する画像を閲覧するために、画像1705、1710、1715、または1720のいずれか上にズームインすることができる。
図5〜図17は、画像がモバイルデバイス400のディスプレイ405上に表示され得る実装形態に関して上記で説明されたが、さらなる実装形態も実現され得ることが諒解されるべきである。一実装形態では、ユーザは、特定の電子デバイスを制御するための制御信号を発生するためにモバイルデバイス400を利用することができる。たとえば、ユーザは、特定の方法でモバイルデバイス400を移動させることによってステレオシステムのボリュームを上げるまたは下げることができる。モバイルデバイス400の移動を検出し、その移動が何に対応するかを判断すると、モバイルデバイスは、そのようなステレオシステムのための制御信号を発生することができ、その制御信号をそのようなステレオシステムに送信することができる。
ユーザは、様々な指定された方向にモバイルデバイス400を移動させることによって、多種多様な電子デバイスのための制御信号を発生することができる。したがって、モバイルデバイス400は、様々な電子デバイスのための遠隔制御装置として効果的に利用され得る。ユーザはまた、様々な移動を介してモバイルデバイス400自体上の設定を変更することができる。たとえば、ユーザは、いくつかの移動をモバイルデバイス400上に与えることによって、着信音ボリュームまたは振動周波数を変更することができる。
上記で説明された実装形態は、モバイルデバイスのユーザの角移動および線形移動に基づいてユーザ入力を判断するために利用され得る。このようにしてユーザ入力を判断することによって、ユーザは、ボタンなどを介して命令を手動でタイプする必要がなくなるであろう。画像を通してズームし、スクロールするための移動が上記の特定の方法で説明されたが、いくつかの実装形態では、そのようなズーム機能およびスクロール機能を実行するために様々な移動が与えられ得ることが諒解されるべきである。一実装形態では、ユーザは、ほんのいくつかの機能を挙げれば、スクロールし、ズームするための特定の移動を用いて、そのようなモバイルデバイスをプログラムすることができる。
本明細書で説明される方法は、特定の機能および/または例により、アプリケーションに応じて様々な手段によって実装され得る。たとえば、そのような方法は、ハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せで実装され得る。ハードウェア実装では、たとえば、処理ユニットは、1つまたは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、本明細書に記載の機能を実行するように設計された他のデバイスユニット、および/またはそれらの組合せの内部で実装され得る。
本明細書で言及される「命令」は、1つまたは複数の論理演算を表す表現に関係する。たとえば、命令は、1つまたは複数のデータオブジェクトに対して1つまたは複数の動作を実行するために機械によって解釈可能であることによって「機械可読」であり得る。ただし、これは命令の一例にすぎず、請求される主題はこの点について限定されない。別の例では、本明細書で言及される命令は、符号化コマンドを含むコマンドセットを有する処理回路によって実行可能である符号化コマンドに関係し得る。そのような命令は、処理回路によって理解される機械語の形態で符号化され得る。この場合も、これらは命令の例にすぎず、請求される主題はこの点について限定されない。
本明細書で言及される「記憶媒体」は、1つまたは複数の機械によって知覚可能である表現を維持することが可能な媒体に関係する。たとえば、記憶媒体は、機械可読命令および/または情報を記憶するための1つまたは複数の記憶デバイスを備えることができる。そのような記憶デバイスは、たとえば、磁気、光学または半導体記憶媒体を含む、いくつかの媒体タイプのうちのいずれか1つを備えることができる。そのような記憶デバイスはまた、任意のタイプの長期、短期、揮発性または非揮発性メモリデバイスを備えることができる。ただし、これらは記憶媒体の例にすぎず、請求される主題はこれらの点について限定されない。
別段に明記されていない限り、以上の説明から明らかなように、本明細書全体にわたって、「処理する」、「算出する」、「計算する」、「選択する」、「形成する」、「可能にする」、「阻止する」、「配置する」、「終了する」、「特定する」、「開始する」、「検出する」、「取得する」、「ホストする」、「維持する」、「表現する」、「推定する」、「受信する」、「送信する」、「決定する」などの用語を利用する説明は、計算プラットフォームのプロセッサ、メモリ、レジスタ、および/または他の情報記憶デバイス、送信デバイス、受信デバイスおよび/または表示デバイス内の電子的および/または磁気的な物理量、および/または他の物理量として表されるデータを操作および/または変換するコンピュータまたは同様の電子コンピューティングデバイスなどの計算プラットフォームによって実行される動作および/またはプロセスを指すことが諒解されるべきである。そのような動作および/またはプロセスは、たとえば、記憶媒体中に記憶された機械可読命令の制御下で計算プラットフォームによって実行され得る。そのような機械可読命令は、たとえば、計算プラットフォームの一部として含まれる(たとえば、処理回路の一部として含まれるか、またはそのような処理回路の外部の)記憶媒体中に記憶されたソフトウェアまたはファームウェアを備えることができる。さらに、別段に明記されていない限り、流れ図を参照しながらまたは他の形で本明細書で説明されるプロセスはまた、そのような計算プラットフォームによって全体的にまたは部分的に実行および/または制御され得る。
本明細書に記載のワイヤレス通信技法は、ワイヤレスワイドエリアネットワーク(WWAN)、ワイヤレスローカルエリアネットワーク(WLAN)、ワイヤレスパーソナルエリアネットワーク(WPAN)などの様々なワイヤレス通信ネットワークに関連し得る。「ネットワーク」および「システム」という用語は、本明細書では互換的に使用され得る。WWANは、符号分割多元接続(CDMA)ネットワーク、時分割多元接続(TDMA)ネットワーク、周波数分割多元接続(FDMA)ネットワーク、直交周波数分割多元接続(OFDMA)ネットワーク、シングルキャリア周波数分割多元接続(SC−FDMA)ネットワークなどであり得る。CDMAネットワークは、ほんのいくつかの無線技術を挙げれば、cdma2000、広帯域CDMA(W−CDMA)などの1つまたは複数の無線アクセス技術(RAT)を実装することができる。この場合、cdma2000は、IS−95標準、IS−2000標準、およびIS−856標準に従って実装される技術を含み得る。TDMAネットワークは、Global System for Mobile Communications(GSM(登録商標))、Digital Advanced Mobile Phone System(D−AMPS)、または何らかの他のRATを実装することができる。GSMおよびW−CDMAは、「3rd Generation Partnership Project」(3GPP)という名称の組織からの文書に記載されている。cdma2000は、「3rd Generation Partnership Project 2」(3GPP2)という名称の組織からの文書に記載されている。3GPPおよび3GPP2の文書は公に入手可能である。WLANは、IEEE802.11xネットワークを備えることができ、WPANは、Bluetooth(登録商標)ネットワーク、たとえば、IEEE802.15xを備えることができる。本明細書で説明されたワイヤレス通信実装形態はまた、WWAN、WLANおよび/またはWPANの任意の組合せとともに使用され得る。
現在例示的な特徴と考えられていることが例示され説明されたが、請求される主題を逸脱することなく、他の様々な変形が行われ得、均等物が代用され得ることが、当業者によって理解されるであろう。さらに、本明細書で説明された中心概念から逸脱することなく、請求される主題の教示に特定の状況を適合させるために多くの変更が行われ得る。したがって、請求される主題は、開示された特定の例に限定されず、そのような請求される主題は、添付の特許請求の範囲の範囲内に入るすべての態様と、その均等物とを含み得ることが意図される。
以下に、補正前の特許請求の範囲に記載された発明を付記する。
(1) 線形平面の少なくとも1つの軸の周りのモバイルデバイスの角移動を検出することと、
前記線形平面の少なくとも1つの軸に沿った前記モバイルデバイスの線形移動を検出することと、
前記角移動の前記検出と前記線形移動の前記検出とに基づいてユーザ入力を判断することと、
を備える、方法。
(2) 前記ユーザ入力に基づいて前記モバイルデバイスのディスプレイ上の1つまたは複数の画像のアピアランスを操作することをさらに備える、(1)に記載の方法。
(3) 前記操作することは、前記線形移動の前記検出に少なくとも部分的に基づいて、前記1つまたは複数の画像をズームすることを備える、(2)に記載の方法。
(4) 1つまたは複数の画像の前記アピアランスは、地理的マップを示す、(2)に記載の方法。
(5) 前記地理的マップは、1つまたは複数の所定の重要地点を備える、(4)に記載の方法。
(6) 前記地理的マップは、前記地理的マップの1つまたは複数の所定のロケーションに関連する前記1つまたは複数の画像を備える、(3)に記載の方法。
(7) 1つまたは複数の画像の前記アピアランスは、タイミングオフセットに対応する一連の画像を示す、(2)に記載の方法。
(8) 前記ユーザ入力に基づいて所定の電子デバイスに制御信号を供給することをさらに備える、(1)に記載の方法。
(9) ユーザ入力を前記判断することは、前記角移動および前記線形移動のうちの少なくとも1つの所定の感度に少なくとも部分的に基づく、(1)に記載の方法。
(10) 線形移動を前記検出することは、前記モバイルデバイスの加速度を検出することを備える、(1)に記載の方法。
(11) 線形移動を前記検出することは、前記モバイルデバイスが移動させられる距離を検出することを備える、(1)に記載の方法。
(12) 角移動を前記検出することは、第1のセンサによって実行され、線形移動を前記検出することは、第2のセンサによって実行される、(1)に記載の方法。
(13) 角移動を前記検出することと、線形移動を前記検出することとは、単一のセンサによって実行される、(1)に記載の方法。
(14) モバイルデバイスであって、
線形平面の少なくとも1つの軸の周りのモバイルデバイスの角移動と、前記線形平面の少なくとも1つの軸に沿った前記モバイルデバイスの線形移動と、を検出するための少なくとも1つのセンサと、
前記角移動の前記検出と前記線形移動の前記検出とに基づいて、ユーザ入力を判断するためのプロセッサと、
を備える、モバイルデバイス。
(15) 1つまたは複数の画像を表示するためのディスプレイをさらに備える、(14)に記載のモバイルデバイス。
(16) 前記プロセッサは、前記角移動の前記検出と前記線形移動の前記検出とに基づいて、前記ディスプレイ上の前記1つまたは複数の画像のアピアランスを操作するように適合される、(15)に記載のモバイルデバイス。
(17) 前記プロセッサは、前記線形移動の前記検出に少なくとも部分的に基づいて、前記1つまたは複数の画像をズームするように適合される、(16)に記載のモバイルデバイス。
(18) 前記プロセッサは、地理的マップを示すために1つまたは複数の画像の前記アピアランスを操作するように適合される、(16)に記載のモバイルデバイス。
(19) 前記プロセッサは、1つまたは複数の画像のタイミングに対応する一連の画像を示すために、1つまたは複数の画像の前記アピアランスを操作するように適合される、(16)に記載のモバイルデバイス。
(20) 前記ユーザ入力に基づいて所定の電子デバイスに制御信号を供給するための制御デバイスをさらに備える、(14)に記載のモバイルデバイス。
(21) 前記プロセッサは、前記角移動および前記線形移動のうちの少なくとも1つの所定の感度に少なくとも部分的に基づいて、前記ユーザ入力を判断するように適合される、(14)に記載のモバイルデバイス。
(22) 前記プロセッサは、前記角移動および前記線形移動のうちの少なくとも1つの所定の範囲に少なくとも部分的に基づいて、前記ユーザ入力を判断するように適合される、(14)に記載のモバイルデバイス。
(23) 前記少なくとも1つのセンサは、前記モバイルデバイスの検出された加速度に基づいて線形移動を検出するように適合される、(14)に記載のモバイルデバイス。
(24) 前記少なくとも1つのセンサは、前記モバイルデバイスが移動させられる検出された距離に基づいて、線形移動を検出するように適合される、(14)に記載のモバイルデバイス。
(25) 前記少なくとも1つのセンサは、前記角移動を検出するための第1のセンサと、前記線形移動を検出するための第2のセンサと、を備える、(14)に記載のモバイルデバイス。
(26) 前記少なくとも1つのセンサは、前記角移動と前記線形移動とを検出するための単一のセンサを備える、(14)に記載のモバイルデバイス。
(27) 線形平面の少なくとも1つの軸の周りのモバイルデバイスの角移動と、前記線形平面の少なくとも1つの軸に沿った前記モバイルデバイスの線形移動と、を検出するための検出手段と、
前記角移動の前記検出と前記線形移動の前記検出とに基づいて、ユーザ入力を判断するための処理手段と、
を備える、装置。
(28) 1つまたは複数の画像を表示するための表示手段をさらに備える、(27)に記載の装置。
(29) 前記処理手段は、前記角移動の検出と前記線形移動の検出とに基づいて、前記表示手段上の前記1つまたは複数の画像のアピアランスを操作するように適合される、(28)に記載の装置。
(30) 前記処理手段は、前記線形移動の前記検出に少なくとも部分的に基づいて、前記1つまたは複数の画像をズームするように適合される、(27)に記載の装置。
(31) 前記処理手段は、地理的マップを示すために1つまたは複数の画像の前記アピアランスを操作するように適合される、(27)に記載の装置。
(32) 前記処理手段は、1つまたは複数の画像の前記アピアランスを、前記画像のタイミングに対応する一連の画像を示すために、操作するように適合される、(27)に記載の装置。
(33) 前記ユーザ入力に基づいて所定の電子デバイスに制御信号を供給するための制御手段をさらに備える、(27)に記載の装置。
(34) 前記処理手段は、前記角移動および前記線形移動のうちの少なくとも1つの所定の感度に少なくとも部分的に基づいて、前記ユーザ入力を判断するように適合される、(27)に記載の装置。
(35) 前記検出手段は、前記モバイルデバイスの前記線形移動の検出された加速度に基づいて、線形移動を検出するように適合される、(27)に記載の装置。
(36) 前記検出手段は、前記モバイルデバイスが移動させられた検出された距離に基づいて、線形移動を検出するように適合される、(27)に記載の装置。
(37) 前記検出手段は、前記角移動を検出するための第1のセンサと、前記線形移動を検出するための第2のセンサと、を備える、(27)に記載の装置。
(38) 前記検出手段は、前記角移動と前記線形移動とを検出するための単一のセンサを備える、(27)に記載の装置。
(39) コンピューティングプラットフォームによって実行された場合、前記コンピューティングプラットフォームが、
線形平面の少なくとも1つの軸の周りのモバイルデバイスの角移動を検出することと、
前記線形平面の少なくとも1つの軸に沿った前記モバイルデバイスの線形移動を検出することと、
前記角移動の前記検出と前記線形移動の前記検出とに基づいて、ユーザ入力を判断することと、
を可能にするように適合された、記憶された機械可読命令をその上に備える、記憶媒体を備える物品。
(40) 前記機械可読命令は、前記コンピューティングプラットフォームが、前記ユーザ入力に基づいて前記モバイルデバイスのディスプレイ上の1つまたは複数の画像のアピアランスを操作することを可能にするように、さらに適合される、(39)に記載の物品。
(41) 前記機械可読命令は、前記コンピューティングプラットフォームが、前記線形移動の前記検出に少なくとも部分的に基づいて前記1つまたは複数の画像をズームすることによって、前記ディスプレイ上の前記1つまたは複数の画像の前記アピアランスを操作することを可能にするように、さらに適合される、(40)に記載の物品。
(42) 前記機械可読命令は、前記コンピューティングプラットフォームが、地理的マップを示すために、1つまたは複数の画像の前記アピアランスを操作することを可能にするように、さらに適合される、(40)に記載の物品。
(43) 前記機械可読命令は、前記コンピューティングプラットフォームが、1つまたは複数の画像のタイミングに対応する一連の画像を示すために、前記1つまたは複数の画像の前記アピアランスを操作することを可能にするように、さらに適合される、(40)に記載の物品。
(44) 前記機械可読命令は、前記コンピューティングプラットフォームが、前記ユーザ入力に基づいて所定の電子デバイスに制御信号を供給することを可能にするように、さらに適合される、(39)に記載の物品。
(45) 前記機械可読命令は、前記コンピューティングプラットフォームが、前記モバイルデバイスの前記線形移動の検出された加速度に基づいて前記線形移動を検出することを可能にするように、さらに適合される、(39)に記載の物品。
(46) 前記機械可読命令は、前記コンピューティングプラットフォームが、前記モバイルデバイスが移動させられた検出された距離に基づいて前記線形移動を検出することを可能にするように、さらに適合される、(39)に記載の物品。

Claims (31)

  1. 面の少なくとも1つの軸の周りのモバイルデバイスの角移動を検出することと、
    記平面の少なくとも1つの軸に沿った前記モバイルデバイスの線形移動を検出することと、
    前記角移動の前記検出と前記線形移動の前記検出とに基づいてユーザ入力を判断することと、
    前記ユーザ入力と所定の重要地点とに少なくとも部分的に基づいて、前記モバイルデバイスのディスプレイ上の地理的マップを示す1つまたは複数の画像のアピアランスを操作することであって、前記地理的マップは前記所定の重要地点を備える、1つまたは複数の画像のアピアランスを操作することと、
    を備え、
    前記1つまたは複数の画像のアピアランスを操作することは、前記ユーザ入力に基づく、前記所定の重要地点のエリアへのズームインに応答して、前記重要地点に関連する画像を追加表示することを含む、方法。
  2. 前記操作することは、前記線形移動の前記検出に少なくとも部分的に基づいて、前記1つまたは複数の画像をズームすることを備える、請求項1に記載の方法。
  3. 前記地理的マップは、前記地理的マップの1つまたは複数の所定のロケーションに関連する前記1つまたは複数の画像を備える、請求項2に記載の方法。
  4. 前記ユーザ入力に基づいて所定の電子デバイスに制御信号を供給することをさらに備える、請求項1に記載の方法。
  5. ユーザ入力を前記判断することは、前記角移動および前記線形移動のうちの少なくとも1つの所定の感度に少なくとも部分的に基づいてユーザ入力を判断することを備える、請求項1に記載の方法。
  6. 線形移動を前記検出することは、前記モバイルデバイスの加速度を検出することを備える、請求項1に記載の方法。
  7. 線形移動を前記検出することは、前記モバイルデバイスが移動させられる距離を検出することを備える、請求項1に記載の方法。
  8. 角移動を前記検出することは、第1のセンサによって実行され、線形移動を前記検出することは、第2のセンサによって実行される、請求項1に記載の方法。
  9. 角移動を前記検出することと、線形移動を前記検出することとは、単一のセンサによって実行される、請求項1に記載の方法。
  10. モバイルデバイスであって、
    面の少なくとも1つの軸の周りの前記モバイルデバイスの角移動と、前記面の少なくとも1つの軸に沿った前記モバイルデバイスの線形移動と、を検出するための少なくとも1つのセンサと、
    前記少なくとも1つのセンサに結合されたプロセッサであって、
    前記角移動の前記検出と前記線形移動の前記検出とに基づいて、ユーザ入力を判断し、
    前記ユーザ入力と所定の重要地点とに少なくとも部分的に基づいて、前記モバイルデバイスのディスプレイ上の地理的マップを示す1つまたは複数の画像のアピアランスを操作することであって、前記地理的マップは前記所定の重要地点を備える、1つまたは複数の画像のアピアランスを操作する、
    よう構成された、プロセッサと、
    を備え、
    前記1つまたは複数の画像のアピアランスを操作することは、前記ユーザ入力に基づく、前記所定の重要地点のエリアへのズームインに応答して、前記重要地点に関連する画像を追加表示することを含む、モバイルデバイス
  11. 前記プロセッサは、前記線形移動の前記検出に少なくとも部分的に基づいて、前記1つまたは複数の画像をズームすることにより、前記1つまたは複数の画像のアピアランスを操作するように構成される、請求項10に記載のモバイルデバイス。
  12. 前記ユーザ入力に基づいて所定の電子デバイスに制御信号を供給するための制御デバイスをさらに備える、請求項10に記載のモバイルデバイス。
  13. 前記プロセッサは、前記角移動および前記線形移動のうちの少なくとも1つの所定の感度に少なくとも部分的に基づいて、前記ユーザ入力を判断するように構成される、請求項10に記載のモバイルデバイス。
  14. 前記プロセッサは、前記角移動および前記線形移動のうちの少なくとも1つの所定の範囲に少なくとも部分的に基づいて、前記ユーザ入力を判断するように構成される、請求項10に記載のモバイルデバイス。
  15. 前記少なくとも1つのセンサは、前記モバイルデバイスの検出された加速度に基づいて線形移動を検出するように構成される、請求項10に記載のモバイルデバイス。
  16. 前記少なくとも1つのセンサは、前記モバイルデバイスが移動させられる検出された距離に基づいて、線形移動を検出するように構成される、請求項10に記載のモバイルデバイス。
  17. 前記少なくとも1つのセンサは、前記角移動を検出するための第1のセンサと、前記線形移動を検出するための第2のセンサと、を備える、請求項10に記載のモバイルデバイス。
  18. 前記少なくとも1つのセンサは、前記角移動と前記線形移動とを検出するための単一のセンサを備える、請求項10に記載のモバイルデバイス。
  19. 面の少なくとも1つの軸の周りのモバイルデバイスの角移動と、前記平面の少なくとも1つの軸に沿った前記モバイルデバイスの線形移動と、を検出するための検出手段と、
    前記角移動の前記検出と前記線形移動の前記検出とに基づいて、ユーザ入力を判断し、前記ユーザ入力と所定の重要地点とに少なくとも部分的に基づいて、前記モバイルデバイスのディスプレイ上の地理的マップを示す1つまたは複数の画像のアピアランスを操作するための処理手段であって、前記地理的マップは前記所定の重要地点を備える、1つまたは複数の画像のアピアランスを操作するための処理手段と、
    を備え、
    前記1つまたは複数の画像のアピアランスを操作することは、前記ユーザ入力に基づく、前記所定の重要地点のエリアへのズームインに応答して、前記重要地点に関連する画像を追加表示することを含む、装置。
  20. 前記処理手段は、前記線形移動の前記検出に少なくとも部分的に基づいて、前記1つまたは複数の画像をズームするように構成される、請求項19に記載の装置。
  21. 前記ユーザ入力に基づいて所定の電子デバイスに制御信号を供給するための制御手段をさらに備える、請求項19に記載の装置。
  22. 前記処理手段は、前記角移動および前記線形移動のうちの少なくとも1つの所定の感度に少なくとも部分的に基づいて、前記ユーザ入力を判断するように構成される、請求項19に記載の装置。
  23. 前記検出手段は、前記モバイルデバイスの前記線形移動の検出された加速度に基づいて、線形移動を検出するように構成される、請求項19に記載の装置。
  24. 前記検出手段は、前記モバイルデバイスが移動させられた検出された距離に基づいて、線形移動を検出するように構成される、請求項19に記載の装置。
  25. 前記検出手段は、前記角移動を検出するための第1のセンサと、前記線形移動を検出するための第2のセンサと、を備える、請求項19に記載の装置。
  26. 前記検出手段は、前記角移動と前記線形移動とを検出するための単一のセンサを備える、請求項19に記載の装置。
  27. コンピューティングプラットフォームによって実行されたとき、前記コンピューティングプラットフォームが、
    面の少なくとも1つの軸の周りのモバイルデバイスの角移動を検出することと、
    記平面の少なくとも1つの軸に沿った前記モバイルデバイスの線形移動を検出することと、
    前記角移動の前記検出と前記線形移動の前記検出とに基づいて、ユーザ入力を判断することと、
    前記ユーザ入力と所定の重要地点とに少なくとも部分的に基づいて、前記モバイルデバイスのディスプレイ上の地理的マップを示す1つまたは複数の画像のアピアランスを操作することであって、前記地理的マップは前記所定の重要地点を備える、1つまたは複数の画像のアピアランスを操作することと、
    を可能にするように構成された、機械可読命令を備え、
    前記1つまたは複数の画像のアピアランスを操作することは、前記ユーザ入力に基づく、前記所定の重要地点のエリアへのズームインに応答して、前記重要地点に関連する画像を追加表示することを含む、記憶媒体。
  28. 前記機械可読命令は、前記コンピューティングプラットフォームが、前記線形移動の前記検出に少なくとも部分的に基づいて前記1つまたは複数の画像をズームすることによって、前記ディスプレイ上の前記1つまたは複数の画像の前記アピアランスを操作することを可能にするように、さらに構成される、請求項27に記載の記憶媒体
  29. 前記機械可読命令は、前記コンピューティングプラットフォームが、前記ユーザ入力に基づいて所定の電子デバイスに制御信号を供給することを可能にするように、さらに構成される、請求項27に記載の記憶媒体
  30. 前記機械可読命令は、前記コンピューティングプラットフォームが、前記モバイルデバイスの前記線形移動の検出された加速度に基づいて前記線形移動を検出することを可能にするように、さらに構成される、請求項27に記載の記憶媒体
  31. 前記機械可読命令は、前記コンピューティングプラットフォームが、前記モバイルデバイスが移動させられた検出された距離に基づいて前記線形移動を検出することを可能にするように、さらに構成される、請求項27に記載の記憶媒体
JP2011539661A 2008-12-02 2009-12-02 慣性センサからのユーザ入力を判断するための方法および装置 Active JP5832900B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/326,738 US8351910B2 (en) 2008-12-02 2008-12-02 Method and apparatus for determining a user input from inertial sensors
US12/326,738 2008-12-02
PCT/US2009/066447 WO2010065664A1 (en) 2008-12-02 2009-12-02 Method and apparatus for determining a user input from inertial sensors

Publications (2)

Publication Number Publication Date
JP2012510690A JP2012510690A (ja) 2012-05-10
JP5832900B2 true JP5832900B2 (ja) 2015-12-16

Family

ID=41572443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011539661A Active JP5832900B2 (ja) 2008-12-02 2009-12-02 慣性センサからのユーザ入力を判断するための方法および装置

Country Status (7)

Country Link
US (1) US8351910B2 (ja)
EP (1) EP2370886A1 (ja)
JP (1) JP5832900B2 (ja)
KR (2) KR101627191B1 (ja)
CN (3) CN102227707A (ja)
TW (1) TWI419008B (ja)
WO (1) WO2010065664A1 (ja)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4674240B2 (ja) * 2006-01-30 2011-04-20 京セラ株式会社 携帯電子機器とその方位表示方法
US8159352B2 (en) * 2007-09-11 2012-04-17 Colgate-Palmolive Company Personal care implement having a display
US8682606B2 (en) * 2008-10-07 2014-03-25 Qualcomm Incorporated Generating virtual buttons using motion sensors
US8884870B2 (en) * 2008-12-19 2014-11-11 Immersion Corporation Interactive painting game and associated controller
CN101996021B (zh) * 2009-08-12 2013-02-13 幻音科技(深圳)有限公司 手持式电子设备及其控制显示内容的方法
KR101648339B1 (ko) 2009-09-24 2016-08-17 삼성전자주식회사 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치
EP2306151A1 (en) * 2009-10-01 2011-04-06 France Telecom Movement controlled point of interest rendering system and method of operation therof
CN102053775A (zh) * 2009-10-29 2011-05-11 鸿富锦精密工业(深圳)有限公司 图像显示系统及方法
US8730267B2 (en) * 2010-06-21 2014-05-20 Celsia, Llc Viewpoint change on a display device based on movement of the device
US20120036485A1 (en) * 2010-08-09 2012-02-09 XMG Studio Motion Driven User Interface
US20120038675A1 (en) * 2010-08-10 2012-02-16 Jay Wesley Johnson Assisted zoom
US9304591B2 (en) * 2010-08-10 2016-04-05 Lenovo (Singapore) Pte. Ltd. Gesture control
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
TWI481871B (zh) * 2010-09-28 2015-04-21 J Mex Inc 與在操作區域中的目標互動的裝置及系統及方法
US8610831B2 (en) 2010-10-12 2013-12-17 Nokia Corporation Method and apparatus for determining motion
US9952671B2 (en) 2010-10-12 2018-04-24 Nokia Technologies Oy Method and apparatus for determining motion
JP5561092B2 (ja) * 2010-10-15 2014-07-30 ソニー株式会社 入力装置、入力制御システム、情報処理方法及びプログラム
US8253684B1 (en) * 2010-11-02 2012-08-28 Google Inc. Position and orientation determination for a mobile computing device
CN102467229B (zh) * 2010-11-09 2015-05-20 晶翔微系统股份有限公司 与在操作区域中的目标互动的装置、系统及方法
US9342998B2 (en) * 2010-11-16 2016-05-17 Microsoft Technology Licensing, Llc Techniques to annotate street view images with contextual information
US10560621B2 (en) * 2010-11-19 2020-02-11 Symbol Technologies, Llc Methods and apparatus for controlling a networked camera
US9436231B2 (en) 2011-04-07 2016-09-06 Qualcomm Incorporated Rest detection using accelerometer
CN102762074A (zh) * 2011-04-25 2012-10-31 昆山广兴电子有限公司 用于可携式电子装置的散热系统
KR20120124874A (ko) * 2011-05-06 2012-11-14 삼성전자주식회사 그립 방향에 독립적인 움직임 감지를 위한 방법 및 장치
US8692689B2 (en) 2011-05-12 2014-04-08 Qualcomm Incorporated Vehicle context awareness by detecting engine RPM using a motion sensor
US9055455B2 (en) * 2011-06-29 2015-06-09 Pismo Labs Technology Ltd. Systems and methods providing assisted aiming for wireless links
US10199726B2 (en) 2011-06-29 2019-02-05 Pismo Labs Technology Limited Systems and methods providing assisted aiming for wireless links through a plurality of external antennas
WO2013013683A1 (de) * 2011-07-25 2013-01-31 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren zur steuerung der darstellung eines objekts auf einem display eines von einem benutzer gehaltenen mobilen geräts, sowie ein das verfahren implementierendes computerprogrammprodukt und ein durch das verfahren steuerbares mobiles gerät
US8779915B2 (en) * 2011-08-15 2014-07-15 Qualcomm Incorporated Improving motion sensing by identifying a keystroke
JP5851766B2 (ja) * 2011-08-29 2016-02-03 オリンパス株式会社 携帯機器
US9053083B2 (en) 2011-11-04 2015-06-09 Microsoft Technology Licensing, Llc Interaction between web gadgets and spreadsheets
US9026951B2 (en) 2011-12-21 2015-05-05 Apple Inc. Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
US9591437B2 (en) 2011-12-23 2017-03-07 Elwha Llc Computational systems and methods for locating a mobile device
US9482737B2 (en) * 2011-12-30 2016-11-01 Elwha Llc Computational systems and methods for locating a mobile device
US9154908B2 (en) 2011-12-23 2015-10-06 Elwha Llc Computational systems and methods for locating a mobile device
US9161310B2 (en) 2011-12-23 2015-10-13 Elwha Llc Computational systems and methods for locating a mobile device
US9332393B2 (en) 2011-12-23 2016-05-03 Elwha Llc Computational systems and methods for locating a mobile device
US9357496B2 (en) 2011-12-23 2016-05-31 Elwha Llc Computational systems and methods for locating a mobile device
US9179327B2 (en) 2011-12-23 2015-11-03 Elwha Llc Computational systems and methods for locating a mobile device
US9194937B2 (en) 2011-12-23 2015-11-24 Elwha Llc Computational systems and methods for locating a mobile device
US9087222B2 (en) 2011-12-23 2015-07-21 Elwha Llc Computational systems and methods for locating a mobile device
US9208698B2 (en) * 2011-12-27 2015-12-08 Apple Inc. Device, method, and graphical user interface for manipulating a three-dimensional map view based on a device orientation
US9171099B2 (en) 2012-01-26 2015-10-27 Microsoft Technology Licensing, Llc System and method for providing calculation web services for online documents
KR101861377B1 (ko) * 2012-03-09 2018-05-28 삼성전자주식회사 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말
US8971928B2 (en) * 2012-04-10 2015-03-03 Here Global B.V. Method and system for changing geographic information displayed on a mobile device
CN103488312B (zh) * 2012-08-22 2016-10-26 上海飞智电子科技有限公司 定位指针位置的方法、系统及设备
US9176221B2 (en) * 2012-08-28 2015-11-03 Xerox Corporation Distance estimation in camera-based systems utilizing motion measurement and compression attributes
WO2014074704A1 (en) * 2012-11-09 2014-05-15 Insyde Software Corp. Bios user interface control using mobile device
US9213419B1 (en) * 2012-11-13 2015-12-15 Amazon Technologies, Inc. Orientation inclusive interface navigation
JP6132522B2 (ja) * 2012-11-28 2017-05-24 京セラ株式会社 情報処理装置、情報処理方法およびプログラム
US20140179369A1 (en) * 2012-12-20 2014-06-26 Nokia Corporation Apparatus and method for providing proximity-based zooming
US10824328B2 (en) 2013-05-10 2020-11-03 International Business Machines Corporation Optimized non-grid based navigation
TWI547626B (zh) * 2013-05-31 2016-09-01 原相科技股份有限公司 具有手勢感測器的裝置
US9996117B2 (en) * 2013-06-07 2018-06-12 Insyde Software Corp. Touch device and method for controlling the same to perform a power-saving function or a power-on function
CN104238735A (zh) * 2013-06-13 2014-12-24 原相科技股份有限公司 具有手势感测器的装置
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
KR102087985B1 (ko) 2013-07-22 2020-03-11 삼성전자주식회사 장소를 추천하는 방법 및 그 장치
US10126839B2 (en) 2013-07-24 2018-11-13 Innoventions, Inc. Motion-based view scrolling with augmented tilt control
CN104376018A (zh) * 2013-08-15 2015-02-25 英业达科技有限公司 提供网页浏览的浏览装置、系统及其方法
US20150193102A1 (en) * 2014-01-08 2015-07-09 Microsoft Corporation Multi-mode display system
US9436278B2 (en) 2014-04-01 2016-09-06 Moju Labs, Inc. Motion-based content navigation
CN104216634A (zh) * 2014-08-27 2014-12-17 小米科技有限责任公司 一种显示稿件的方法和装置
US9927961B2 (en) * 2015-01-09 2018-03-27 Flipboard, Inc. Video ad unit with time and orientation-based playback
EP3059669A1 (en) * 2015-02-19 2016-08-24 Nokia Technologies OY Controlling display of video content
CN106445272A (zh) * 2015-08-10 2017-02-22 中兴通讯股份有限公司 一种移动终端上的图片显示方法及相应的移动终端
SE1551191A1 (en) * 2015-09-16 2017-03-17 Adssets AB Method for movement on a display of a device
JP6786245B2 (ja) * 2016-04-07 2020-11-18 ソニーモバイルコミュニケーションズ株式会社 情報処理装置
US10289900B2 (en) * 2016-09-16 2019-05-14 Interactive Intelligence Group, Inc. System and method for body language analysis
US10503245B2 (en) * 2016-09-21 2019-12-10 Apple Inc. Relative intertial measurement system
DE112017007739T5 (de) 2017-08-08 2020-04-16 Ford Global Technologies, Llc Verbesserter betrieb von tragbaren vorrichtungen

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3234633B2 (ja) * 1992-06-19 2001-12-04 シャープ株式会社 情報処理装置
JP4302719B2 (ja) * 1995-06-19 2009-07-29 パナソニック株式会社 書類表示装置
JPH10254614A (ja) * 1997-03-06 1998-09-25 Hitachi Ltd 携帯型電子処理装置及びその操作方法
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
AU2001212430A1 (en) * 2000-10-27 2002-05-06 Elo Touchsystems, Inc. Touch confirming touchscreen utilizing plural touch sensors
JP2002268622A (ja) * 2001-03-09 2002-09-20 Denso Corp 携帯端末装置のユーザインターフェース装置
US20030001863A1 (en) 2001-06-29 2003-01-02 Brian Davidson Portable digital devices
US6681176B2 (en) * 2002-05-02 2004-01-20 Robert Bosch Gmbh Method and device for a detachable navigation system
EP1394554B1 (en) * 2002-08-30 2011-11-02 STMicroelectronics Srl Process for the fabrication of a threshold acceleration sensor
US6975959B2 (en) * 2002-12-03 2005-12-13 Robert Bosch Gmbh Orientation and navigation for a mobile device using inertial sensors
US6892575B2 (en) 2003-10-20 2005-05-17 Invensense Inc. X-Y axis dual-mass tuning fork gyroscope with vertically integrated electronics and wafer-scale hermetic packaging
US20050108234A1 (en) 2003-11-17 2005-05-19 Nokia Corporation Speed browsing of media items in a media diary application
TWI239480B (en) * 2004-03-15 2005-09-11 Sentelic Corp Input method and control module defined by initial location and moving direction and the electronic product thereof
US7365735B2 (en) 2004-03-23 2008-04-29 Fujitsu Limited Translation controlled cursor
US7228230B2 (en) * 2004-11-12 2007-06-05 Mitsubishi Denki Kabushiki Kaisha System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation
US20080129528A1 (en) * 2004-11-16 2008-06-05 Michael Phipps Guthrie Apparatus and method for guided tour
CN101124534A (zh) * 2005-02-24 2008-02-13 诺基亚公司 用于计算终端的运动输入设备及其操作方法
TW200639405A (en) * 2005-05-13 2006-11-16 Ind Tech Res Inst Interactive system with motion sensing capability
US20070018964A1 (en) 2005-07-19 2007-01-25 Cisco Technology, Inc. Portable device and method for interacting therewith
US20070103431A1 (en) 2005-10-24 2007-05-10 Tabatowski-Bush Benjamin A Handheld tilt-text computing system and method
JP4835135B2 (ja) * 2005-12-06 2011-12-14 ソニー株式会社 画像表示装置、画像表示方法、および、プログラム
KR100749205B1 (ko) * 2005-12-27 2007-08-13 주식회사 엔씨소프트 휴대용 디지털 기기의 사용자 인터페이싱 방법 및 그휴대용 디지털 기기
WO2007127537A1 (en) 2006-03-15 2007-11-08 Qualcomm Incorporated Sensor-based orientation systeim
US20070247434A1 (en) 2006-04-19 2007-10-25 Cradick Ryan K Method, apparatus, and computer program product for entry of data or commands based on tap detection
GB0607851D0 (en) * 2006-04-24 2006-05-31 Johnson Matthey Plc Particulate matter generator
TW200805131A (en) * 2006-05-24 2008-01-16 Lg Electronics Inc Touch screen device and method of selecting files thereon
JP2007322847A (ja) * 2006-06-02 2007-12-13 Fujifilm Corp 画像表示方法及び装置並びにプログラム
DE602006010534D1 (de) * 2006-07-14 2009-12-31 St Microelectronics Srl Mikro-Elektromechanischer Inertialsensor, insbesondere für Freifall-Anwendungen
JP2008052190A (ja) * 2006-08-28 2008-03-06 Nikon Corp 電子機器
JP2008082818A (ja) * 2006-09-27 2008-04-10 Sanyo Electric Co Ltd ナビゲーションシステムおよびナビゲーション装置
EP2070197A4 (en) 2006-10-02 2012-06-20 Nokia Corp EMULATION OF KEYBOARD
JP2008128674A (ja) 2006-11-16 2008-06-05 Eastman Kodak Co 角速度較正方法
JP2008141535A (ja) * 2006-12-01 2008-06-19 Toshiba Corp 携帯電話制御装置及び機械的画像揺れ制御方法
TWI317498B (en) 2006-12-12 2009-11-21 Ind Tech Res Inst Inertial input apparatus with six-axial detection ability and the opearting method thereof
US8125455B2 (en) 2007-01-03 2012-02-28 Apple Inc. Full scale calibration measurement for multi-touch surfaces
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
JP4353259B2 (ja) * 2007-02-22 2009-10-28 ソニー株式会社 情報処理装置、画像表示装置、および、これらにおける制御方法ならびに当該方法をコンピュータに実行させるプログラム
CN103913178B (zh) 2007-03-23 2017-10-31 高通股份有限公司 多传感器数据采集和/或处理
US7938004B1 (en) 2008-03-21 2011-05-10 Brunsch Jr James P Systems and methods for angular rate and position measurement
CN101308440A (zh) * 2008-06-25 2008-11-19 宇龙计算机通信科技(深圳)有限公司 一种基于触摸屏的交互控制方法及系统
US8682606B2 (en) 2008-10-07 2014-03-25 Qualcomm Incorporated Generating virtual buttons using motion sensors

Also Published As

Publication number Publication date
CN102227707A (zh) 2011-10-26
KR20130112949A (ko) 2013-10-14
TWI419008B (zh) 2013-12-11
CN106896922A (zh) 2017-06-27
CN106445128A (zh) 2017-02-22
US8351910B2 (en) 2013-01-08
WO2010065664A1 (en) 2010-06-10
EP2370886A1 (en) 2011-10-05
KR101627191B1 (ko) 2016-06-03
JP2012510690A (ja) 2012-05-10
US20100136957A1 (en) 2010-06-03
TW201101105A (en) 2011-01-01
KR20110091571A (ko) 2011-08-11

Similar Documents

Publication Publication Date Title
JP5832900B2 (ja) 慣性センサからのユーザ入力を判断するための方法および装置
US8682606B2 (en) Generating virtual buttons using motion sensors
US8922487B2 (en) Switching between a first operational mode and a second operational mode using a natural motion gesture
TWI308019B (en) Mobile terminal device
KR100498518B1 (ko) 정보처리장치및방법
US8243097B2 (en) Electronic sighting compass
CN103513894A (zh) 显示设备、远程控制设备及其控制方法
WO2008008230A2 (en) A system for sensing yaw rate using a magnetic field sensor and portable electronic devices using the same
JPWO2009072583A1 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
KR20050057011A (ko) 휴대 단말 장치
KR20140048933A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP6409644B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP2014053794A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP2018036720A (ja) 仮想空間観察システム、方法及びプログラム
CN204945943U (zh) 用于为外部显示设备提供远程控制信号的远程控制设备
CN106445334B (zh) 显示界面的调节方法及调节系统
JP2004046006A (ja) 3次元情報表示装置
JP2004086511A (ja) 電子機器およびポインタ移動方法
TW201409348A (zh) 調整畫面顯示方向的方法及其相關裝置
JP2002164987A (ja) 携帯端末機器用姿勢角度検出装置の取り付け方法
JP2010157106A (ja) 入力装置、制御装置、ハンドヘルド装置、制御システム及び制御方法
CN110633335B (zh) 获取poi数据的方法、终端和可读存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130422

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130430

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130624

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140702

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140710

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151028

R150 Certificate of patent or registration of utility model

Ref document number: 5832900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250