JP2023156275A - ドリフト補正を用いるモーションセンサ - Google Patents
ドリフト補正を用いるモーションセンサ Download PDFInfo
- Publication number
- JP2023156275A JP2023156275A JP2023109209A JP2023109209A JP2023156275A JP 2023156275 A JP2023156275 A JP 2023156275A JP 2023109209 A JP2023109209 A JP 2023109209A JP 2023109209 A JP2023109209 A JP 2023109209A JP 2023156275 A JP2023156275 A JP 2023156275A
- Authority
- JP
- Japan
- Prior art keywords
- sub
- sensor
- output data
- inertial output
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012937 correction Methods 0.000 title claims description 29
- 238000005259 measurement Methods 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 50
- 238000012986 modification Methods 0.000 claims description 24
- 230000004048 modification Effects 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 230000015572 biosynthetic process Effects 0.000 claims description 20
- 238000003786 synthesis reaction Methods 0.000 claims description 20
- 230000005484 gravity Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 8
- 238000003909 pattern recognition Methods 0.000 claims description 7
- 239000002131 composite material Substances 0.000 claims description 4
- 238000002156 mixing Methods 0.000 claims description 4
- 230000003750 conditioning effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 238000000354 decomposition reaction Methods 0.000 description 20
- 238000001914 filtration Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000009987 spinning Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101100408383 Mus musculus Piwil1 gene Proteins 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001447 compensatory effect Effects 0.000 description 1
- 238000013329 compounding Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/183—Compensation of inertial measurements, e.g. for temperature effects
- G01C21/188—Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C19/00—Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1654—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with electromagnetic compass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P13/00—Indicating or recording presence, absence, or direction, of movement
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
Description
[0001] 開示する実施態様は、一般に、モーションセンサに関し、より詳細には、幾つかの実施態様では、全地球測位システム(GPS)よりも正確で、且つ外部基準マーカ、トランスポンダ、又はサテライトから独立した位置追跡が可能な、ドリフト補正を用いるモーションセンサを実現するための方法、システム、及びデバイスに関する。
[0002] モーション追跡は、物体の回転(ピッチ、ヨー、及びロール)並びに並進移動を認識することによって、物体の正確な位置及び場所を検出する。慣性追跡は、物体の位置的変化を測定するために、物体に取り付けられたセンサ(例えば、加速度計、ジャイロスコープ、磁力計、高度計、及び圧力センサ)からのデータを使用するモーション追跡の一種である。これらのセンサの幾つかは、動作するために推測航法に依存する慣性センサである。推測航法は、以前に決定された位置を使用し、経過時間及びコースにわたる、既知の、又は推定された加速度、速度、又は変位に基づいて、その位置を前進させることによって、物体の現在の場所を計算するプロセスである。推測航法技術は、多少効果的ではあるが、それらは、「ドリフト」と呼ばれる累積誤差を受ける。一部のIMUは、加速度計からの加速度データを二度積分することによって、相対位置/場所を推定するため、加速度の小さな誤差でさえ、時間と共に累積する、相対位置/場所の複合の増大する誤差をもたらす。同様に、ジャイロスコープの角速度データの誤差は、相対角方位の累積誤差をもたらす。従って、加速度及びジャイロスコープデータは、分離して使用されるときは、IMUを使用して追跡されている物体の方位及び位置的変化を推定するには信頼性が低い。
[0004] 従って、ドリフトを補正する、費用効率の高い、高精度の、高速モーションセンサを実現するためのシステム及び/又はデバイスに対するニーズが存在する。
[0027] 様々な記載される実施態様のより深い理解のために、図面全体を通して同様の参照番号が対応する部分を指す、以下の図面と併せて、以下の実施態様の説明が参照されるべきである。
[0032] これより、例が添付の図面に示される実施態様について詳細に言及する。以下の詳細な説明では、様々な記載される実施態様の十分な理解を提供するために、多数の具体的詳細が記載される。しかし、様々な記載される実施態様が、これらの具体的詳細なしに実施され得ることが当業者には明らかとなるだろう。他の例では、周知の方法、プロシージャ、コンポーネント、回路、及びネットワークが、実施態様の態様を不必要に分かり難くしないように、詳細に記載されない。
・ 様々な基本システムサービスを取り扱うため、及びハードウェア依存タスクを行うためのプロシージャを含むオペレーティング論理222;
・ 1つ又は複数の通信インタフェース214(有線又は無線)を介して1つ又は複数のネットワークに接続された他のネットワークデバイス(例えば、インターネット接続を提供するルータなどのネットワークインタフェース、ネットワーク化されたストレージデバイス、ネットワークルーティングデバイス、サーバシステムなど)に接続し、及びそれらと通信するためのデバイス通信モジュール224;
・ 1つ又は複数の入力デバイス212からの1つ又は複数のユーザ入力又はインタラクションを検出し、検出された入力又はインタラクションを解釈するための入力処理モジュール226;
・ 1つ又は複数のデバイス(図示されない)に関する設定、捕捉データ、及び/又は他のデータを構成し、及び/又は見ることができるユーザインタフェースを提供及び表示するためのユーザインタフェースモジュール228;
・ デバイスを制御するため、並びにデバイスによって捕捉されたデータ(例えば、デバイスステータス及び設定、捕捉データ、又はシステム200及び/又は他のクライアント/電子デバイスに関する他の情報)を見直すためにシステム200によって実行される1つ又は複数のアプリケーションモジュール230;
・ 以下を含む(ただし、限定されない)、1つ又は複数のIMU204からのデータを処理するための機能性を提供する、1つ又は複数のコントローラモジュール240:
・ 1つ又は複数のコントローラモジュール240によって処理される、1つ又は複数のIMU204からのデータを受信するためのデータ受信モジュール242;
・ データ受信モジュール242によって受信された生データからノイズを除去するためのフィルタリングモジュール244;
・ 1つ又は複数のIMU204(例えば、1つ又は複数のIMU204の異なる複数のジャイロスコープ及び加速度計)間でデータを相互相関させることにより、1つ又は複数のIMU204に関するフィルタにかけられたデータを較正するための動的較正モジュール246;
・ 1つ又は複数のIMUのそれぞれに関する分解出力に基づいて、位置及び回転状態を決定するモーション分解モジュール248;
・ 動的較正モジュール246及びモーション分解モジュール248の出力に基づいて、モーションを合成するためのモーション合成モジュール250;
・ モーション合成モジュール248からの出力に基づいて、所定の形状に関してセンサ出力のドリフトを補正する(例えば、台形モーションパラメータを用いた適用連続ファジールール(肯定式なし)ベイズフィルタ(ACFBT:Adaptive Continuous Fuzzy Rule Bayesian Filter with Trapazoidal Motion Paramters)ためのドリフト補正モジュール252;並びに
・ (例えば、人工知能/ニューラルネットワーク/深層学習を用いて)ドリフト補正モジュール252の出力に基づいて、複雑な移動を取り扱うエッジ状態取り扱いモジュール254。
Claims (23)
- 物体の場所及び方位を追跡するための追跡デバイスであって、
所定の形状を規定する1つ又は複数の面と、
前記所定の形状の前記1つ又は複数の面に取り付けられた複数の慣性計測装置(IMU)であって、各IMUが、前記物体の移動を検出し、並びに前記物体の前記場所及び/又は方位を表す慣性出力データを生成するように構成され、各IMUが、第1のサブセンサ及び第2のサブセンサを含み、各IMUが、前記追跡デバイスの重心に対して所定の距離及び方位に配置される、複数のIMUと、
前記複数のIMUに通信可能に結合されたコントローラであって、
高サンプリングレートで、前記複数のIMUのそれぞれから、第1のサブセンサ慣性出力データ及び第2のサブセンサ慣性出力データを受信するステップと、
IMUごとに、
前記第1のサブセンサ慣性出力データ及び前記第2のサブセンサ慣性出力データに基づいて、較正された慣性出力データを生成するステップと、
分解慣性出力データを生成するために、前記第1のサブセンサ慣性出力データを前記第2のサブセンサ慣性出力データと相互相関させることによって、前記第2のサブセンサ慣性出力データを用いて、異常を識別し、及び前記第1のサブセンサ慣性出力データから除去するステップと、
前記複数のIMUのそれぞれからの前記分解慣性出力データに基づいて、前記追跡デバイスの位置及び回転状態を決定するステップと、
前記追跡デバイスの前記位置及び回転状態に基づいて、合成技法を用いて、IMU合成データを生成するために、第1のサブセンサ慣性出力データ及び第2のサブセンサ慣性出力データを合成するステップと、
前記複数のIMUのそれぞれに関する、前記合成されたデータ、前記複数のIMUのそれぞれの所定の位置、及び前記複数のIMUのそれぞれの所定の方位に基づいて、現在の追跡デバイス修正データ出力を計算するステップと、
前記現在の物体修正データ出力と、以前の物体修正データ出力との差に基づいて、物体の現在の場所及び方位を計算するステップと、
を行うように構成された、コントローラと、
を有する、追跡デバイス。 - 較正された慣性出力データを生成することが、前記第1のサブセンサ慣性出力データ及び前記第2のサブセンサ慣性出力データを評価するために、ニューラルネットワーク重みを使用することであって、前記重みが、前記追跡デバイスの前記位置状態に基づいて学習率で調節される、使用することと、前記物体の実際の移動と、前記物体の推定された移動との差を表す相違値を計算することと、前記較正された慣性出力データから前記相違値を除去することと、を含む、請求項1に記載の追跡デバイス。
- 第1のサブセンサ慣性出力データ及び前記第2の慣性出力データの前記ニューラルネットワークに適用される前記重みが、前記第1のサブセンサ及び前記第2のサブセンサのそれぞれからの履歴慣性出力データに基づいて調節される、請求項2に記載の追跡デバイス。
- 前記第1のサブセンサに対応する、前記分解慣性出力データが、前記第2のサブセンサ慣性出力データに基づいて較正される、請求項1~3の何れか一項に記載の追跡デバイス。
- 前記第1のサブセンサ慣性出力データを前記第2のサブセンサ慣性出力データと相互相関させることが、前記第1のサブセンサ慣性出力データを表す前記分解慣性出力データを生成するために、パターン認識を前記第2のサブセンサ慣性出力データに適用することを含む、請求項1~4の何れか一項に記載の追跡デバイス。
- 信号調整によって信号ノイズを最小限に抑えるために、前記第1のサブセンサ慣性出力データ及び前記第2のサブセンサ慣性出力データがフィルタにかけられる、請求項1~5の何れか一項に記載の追跡デバイス。
- 前記複数のIMUのそれぞれからの前記第1のサブセンサ慣性出力データ及び第2のサブセンサ慣性出力データが、高速の、連続的な、高サンプリングレートのために、約1ms未満で周期的に受信される、請求項1~5の何れか一項に記載の追跡デバイス。
- 第1のサブセンサ及び第2のサブセンサが、それぞれ、加速度計、磁力計、ジャイロスコープ、高度計、及び/又は圧力センサの1つであり、前記第1のサブセンサが、前記第2のサブセンサとは異なるセンサタイプである、請求項1~5の何れか一項に記載の追跡デバイス。
- 前記所定の形状が、平面、四面体、及び立方体の1つである、請求項1~8の何れか一項に記載の追跡デバイス。
- 前記修正データ出力を計算するために使用される前記複数のIMUの少なくとも幾つかが、互いに対して異なる2つの軸に沿って異なる角度で配向される、請求項1~9の何れか一項に記載の追跡デバイス。
- 前記現在の物体修正データ出力と、前記以前の物体修正データ出力との前記差に基づいて、前記物体の前記現在の位置及び方位を計算することが、
エッジ状態を識別することと、
前記エッジ状態を除去するために、前記現在の物体修正データ出力及び前記以前の物体修正データ出力を混合することと、
を含む、請求項1~10の何れか一項に記載の追跡デバイス。 - 追跡デバイスを使用して、物体の位置及び方位を追跡する方法であって、前記追跡デバイスが、所定の形状を規定する1つ又は複数の面と、前記所定の形状の前記1つ又は複数の面に取り付けられた複数の慣性計測装置(IMU)であって、各IMUが、第1のサブセンサ及び第2のサブセンサを含み、各IMUが、前記追跡デバイスの重心に対して所定の距離及び方位に配置される、複数のIMUと、前記複数のIMUに通信可能に結合されたコントローラと、を含み、前記方法が、
各IMUにおいて、前記物体の移動を検出すること、並びに前記物体の位置及び/又は方位を表す慣性出力データを生成することと、
前記コントローラにおいて、
前記複数のIMUのそれぞれから、第1のサブセンサ慣性出力データ及び第2のサブセンサ慣性出力データを受信することと、
IMUごとに、
前記第1のサブセンサ慣性出力データ及び前記第2のサブセンサ慣性出力データに基づいて、較正された慣性出力データを生成することと、
分解慣性出力データを生成するために、前記第1のサブセンサ慣性出力データを前記第2のサブセンサ慣性出力データと相互相関させることによって、前記第2のサブセンサ慣性出力データを用いて、異常を識別し、及び前記第1のサブセンサ慣性出力データから除去することと、
前記複数のIMUのそれぞれからの前記分解慣性出力データに基づいて、前記追跡デバイスの位置及び回転状態を決定することと、
前記追跡デバイスの前記位置及び回転状態に基づいて、合成技法を用いて、IMU合成データを生成するために、第1のサブセンサ慣性出力データ及び第2のサブセンサ慣性出力データを合成することと、
前記複数のIMUのそれぞれに関する合成された、前記補正された移動、前記複数のIMUのそれぞれの所定の位置、及び前記複数のIMUのそれぞれの所定の方位に基づいて、現在の追跡デバイス修正データ出力を計算することと、
前記現在の物体修正データ出力と、以前の物体修正データ出力との差に基づいて、物体の現在の場所及び方位を計算することと、
を有する、方法。 - 較正された慣性出力データを生成することが、重みを前記第1のサブセンサ慣性出力データ及び前記第2のサブセンサ慣性出力データに適用するために、ニューラルネットワークを使用することであって、前記重みが、前記追跡デバイスの前記位置状態に基づいて学習率で調節される、使用することと、前記物体の実際の移動と、前記物体の推定された移動との差を表す相違値を計算することと、前記較正された慣性出力データから前記相違値を除去することと、を含む、請求項12に記載の方法。
- 前記第1のサブセンサ慣性出力データ及び前記第2の慣性出力データに適用される前記重みが、前記第1のサブセンサ及び前記第2のサブセンサのそれぞれからの履歴慣性出力データに基づいて調節される、請求項13に記載の方法。
- 前記第1のサブセンサに対応する、前記分解慣性出力データが、前記第2のサブセンサ慣性出力データに基づいて較正される、請求項12~14の何れか一項に記載の方法。
- 前記第1のサブセンサ慣性出力データを前記第2のサブセンサ慣性出力データと相互相関させることが、前記第1のサブセンサ慣性出力データを表す前記分解慣性出力データを生成するために、パターン認識を前記第2のサブセンサ慣性出力データに適用することを含む、請求項12~15の何れか一項に記載の方法。
- 信号ノイズを最小限に抑えるために、前記第1のサブセンサ慣性出力データ及び前記第2のサブセンサ慣性出力データがフィルタにかけられる、請求項12~16の何れか一項に記載の方法。
- 前記複数のIMUのそれぞれからの前記第1のサブセンサ慣性出力データ及び第2のサブセンサ慣性出力データが、連続的な、高サンプリングレートのために、約1ms未満で周期的に受信される、請求項12~16の何れか一項に記載の方法。
- 前記第1のサブセンサ及び前記第2のサブセンサが、それぞれ、加速度計、磁力計、ジャイロスコープ、高度計、及び/又は圧力センサの1つであり、前記第1のサブセンサが、前記第2のサブセンサとは異なるセンサタイプである、請求項12~18の何れか一項に記載の方法。
- 前記所定の形状が、平面、四面体、及び立方体の1つである、請求項12~19の何れか一項に記載の方法。
- 前記修正データ出力を計算するために使用される前記複数のIMUの少なくとも幾つかが、互いに対して異なる2つの軸に沿って異なる角度で配向される、請求項12~20の何れか一項に記載の方法。
- 前記現在の物体修正データ出力と、前記以前の物体修正データ出力との前記差に基づいて、前記物体の前記現在の場所及び方位を計算することが、
エッジ状態を識別することと、
前記エッジ状態を除去するために、前記現在の物体修正データ出力及び前記以前の物体修正データ出力を混合することと、
を含む、請求項12~21の何れか一項に記載の方法。 - 1つ又は複数のプロセッサを含むコンピュータシステムによって実行されるように構成された1つ又は複数のコンピュータプログラムを保存する、非一時的なコンピュータ可読ストレージ媒体であって、前記1つ又は複数のプログラムが、実行されると、請求項12~22の何れか一項に記載の方法を前記コンピュータシステムに行わせる命令、非一時的なコンピュータ可読ストレージ媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862690865P | 2018-06-27 | 2018-06-27 | |
US62/690,865 | 2018-06-27 | ||
PCT/CA2019/050897 WO2020000105A1 (en) | 2018-06-27 | 2019-06-27 | Motion sensor with drift correction |
JP2020572974A JP7390322B2 (ja) | 2018-06-27 | 2019-06-27 | ドリフト補正を用いるモーションセンサ |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572974A Division JP7390322B2 (ja) | 2018-06-27 | 2019-06-27 | ドリフト補正を用いるモーションセンサ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023156275A true JP2023156275A (ja) | 2023-10-24 |
JP7565413B2 JP7565413B2 (ja) | 2024-10-10 |
Family
ID=68985327
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572974A Active JP7390322B2 (ja) | 2018-06-27 | 2019-06-27 | ドリフト補正を用いるモーションセンサ |
JP2023109209A Active JP7565413B2 (ja) | 2018-06-27 | 2023-07-03 | ドリフト補正を用いるモーションセンサ |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572974A Active JP7390322B2 (ja) | 2018-06-27 | 2019-06-27 | ドリフト補正を用いるモーションセンサ |
Country Status (5)
Country | Link |
---|---|
US (2) | US10852143B2 (ja) |
JP (2) | JP7390322B2 (ja) |
MX (1) | MX2021000103A (ja) |
SG (1) | SG11202013082XA (ja) |
WO (1) | WO2020000105A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11221683B2 (en) * | 2019-05-09 | 2022-01-11 | Dell Products, L.P. | Graphical user interface (GUI) manipulation using hand gestures over a hovering keyboard |
US20220096169A1 (en) * | 2020-09-29 | 2022-03-31 | Carnegie Mellon University | Tracking of instrument motions using an inertial measurement system |
CN112729317B (zh) * | 2020-12-17 | 2023-09-19 | 大陆投资(中国)有限公司 | 用于定位车辆的方法和车载系统 |
US11340066B1 (en) * | 2021-06-10 | 2022-05-24 | King Abdulaziz University | Methods and systems for tilt and acceleration measurement based on hall effect sensors and artificial neural network algorithms |
US12100420B2 (en) * | 2022-02-15 | 2024-09-24 | Google Llc | Speech detection using multiple acoustic sensors |
US11821754B2 (en) | 2022-02-18 | 2023-11-21 | Qualcomm Incorporated | Sensor calibration |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000132305A (ja) | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | 操作入力装置 |
JP4117399B2 (ja) | 2000-06-02 | 2008-07-16 | 株式会社アメニテックス | 無拘束生体情報検知装置 |
JP3751513B2 (ja) | 2000-09-08 | 2006-03-01 | 三菱電機株式会社 | ロケータ装置 |
US20020152077A1 (en) | 2001-04-12 | 2002-10-17 | Patterson Randall R. | Sign language translator |
US6882964B2 (en) * | 2002-03-06 | 2005-04-19 | California Institute Of Technology | High accuracy inertial sensors from inexpensive components |
JP2005173419A (ja) | 2003-12-15 | 2005-06-30 | Kureo:Kk | 手話解釈装置 |
CN101617243B (zh) | 2007-02-19 | 2012-08-29 | Nxp股份有限公司 | 传感器封装 |
AU2008283845A1 (en) * | 2007-08-06 | 2009-02-12 | Trx Systems, Inc. | Locating, tracking, and/or monitoring personnel and/or assets both indoors and outdoors |
EP2504711A4 (en) | 2009-11-24 | 2014-02-26 | Yost Engineering Inc | COMBINING REDUNDANT INERTIAL SENSORS TO CREATE A VIRTUAL SENSOR OUTPUT |
JP2011203243A (ja) | 2010-03-02 | 2011-10-13 | Yamaha Corp | 磁気データ処理装置、方法及びプログラム |
US9568321B2 (en) | 2010-04-19 | 2017-02-14 | Honeywell International Inc. | Systems and methods for determining inertial navigation system faults |
US9810549B2 (en) * | 2011-01-06 | 2017-11-07 | University Of Utah Research Foundation | Systems, methods, and apparatus for calibration of and three-dimensional tracking of intermittent motion with an inertial measurement unit |
US10027952B2 (en) | 2011-08-04 | 2018-07-17 | Trx Systems, Inc. | Mapping and tracking system with features in three-dimensional space |
US9454245B2 (en) | 2011-11-01 | 2016-09-27 | Qualcomm Incorporated | System and method for improving orientation data |
JP2013242226A (ja) | 2012-05-21 | 2013-12-05 | Nec Casio Mobile Communications Ltd | センサ情報統合装置 |
KR20140062895A (ko) | 2012-11-15 | 2014-05-26 | 삼성전자주식회사 | 외부 장치를 제어하기 위한 웨어러블 디바이스 및 그 방법 |
WO2014130871A1 (en) | 2013-02-22 | 2014-08-28 | Thalmic Labs Inc. | Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control |
US9504445B2 (en) * | 2013-02-28 | 2016-11-29 | General Electric Company | Ultrasound imaging system and method for drift compensation |
WO2014144015A2 (en) | 2013-03-15 | 2014-09-18 | Keller Eric Jeffrey | Computing interface system |
US10149617B2 (en) | 2013-03-15 | 2018-12-11 | i4c Innovations Inc. | Multiple sensors for monitoring health and wellness of an animal |
US20150242112A1 (en) | 2014-02-26 | 2015-08-27 | Microsoft Corporation | Human interface device with touch sensor |
KR102339355B1 (ko) | 2014-12-08 | 2021-12-13 | 로힛 세스 | 착용가능 무선 hmi 디바이스 |
US9693165B2 (en) | 2015-09-17 | 2017-06-27 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
US10025891B1 (en) * | 2015-09-30 | 2018-07-17 | The United States Of America As Represented By The Secretary Of The Navy | Method of reducing random drift in the combined signal of an array of inertial sensors |
JP6852310B2 (ja) * | 2015-11-30 | 2021-03-31 | 株式会社リコー | 慣性装置、プログラム、測位方法 |
KR102321695B1 (ko) | 2015-12-16 | 2021-11-03 | 모하메드 라쉬완 마푸즈 | 관성 측정 유닛 캘리브레이션(imu calibration) |
SG11201700428UA (en) | 2016-02-05 | 2017-09-28 | Guangdong Oppo Mobile Telecommunications Corp Ltd | Charge method, adapter and mobile terminal |
US10527425B1 (en) * | 2017-10-10 | 2020-01-07 | Orbital Research Inc. | Multi-IMU guidance measurement and control system with handshake capability to refine guidance control in response to changing conditions |
US10989538B2 (en) * | 2017-12-15 | 2021-04-27 | Uatc, Llc | IMU data offset compensation for an autonomous vehicle |
CN112041635B (zh) * | 2018-04-03 | 2024-04-09 | 三菱电机株式会社 | 移动机、地图管理装置、定位系统、控制电路及存储介质 |
-
2019
- 2019-06-26 US US16/453,961 patent/US10852143B2/en active Active
- 2019-06-27 SG SG11202013082XA patent/SG11202013082XA/en unknown
- 2019-06-27 WO PCT/CA2019/050897 patent/WO2020000105A1/en active Application Filing
- 2019-06-27 MX MX2021000103A patent/MX2021000103A/es unknown
- 2019-06-27 JP JP2020572974A patent/JP7390322B2/ja active Active
-
2020
- 2020-10-29 US US17/084,477 patent/US20210190498A1/en not_active Abandoned
-
2023
- 2023-07-03 JP JP2023109209A patent/JP7565413B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP7390322B2 (ja) | 2023-12-01 |
US20200011669A1 (en) | 2020-01-09 |
US20210190498A1 (en) | 2021-06-24 |
US10852143B2 (en) | 2020-12-01 |
MX2021000103A (es) | 2021-07-21 |
WO2020000105A1 (en) | 2020-01-02 |
JP2021529947A (ja) | 2021-11-04 |
JP7565413B2 (ja) | 2024-10-10 |
SG11202013082XA (en) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7390322B2 (ja) | ドリフト補正を用いるモーションセンサ | |
US11994392B2 (en) | Square-root multi-state constraint Kalman filter for vision-aided inertial navigation system | |
EP2807452B1 (en) | In-use automatic calibration methodology for sensors in mobile devices | |
CN105190237B (zh) | 移动方向置信区间估计 | |
JP5215195B2 (ja) | センサベースのオリエンテーションシステム | |
WO2020253260A1 (zh) | 时间同步处理方法、电子设备及存储介质 | |
CN110268445A (zh) | 利用陀螺仪的相机自动校准 | |
CN108731676B (zh) | 一种基于惯性导航技术的姿态融合增强测量方法及系统 | |
US20220306089A1 (en) | Relative Position Tracking Using Motion Sensor With Drift Correction | |
Laidig et al. | VQF: Highly accurate IMU orientation estimation with bias estimation and magnetic disturbance rejection | |
Batista et al. | Low-cost attitude and heading reference system: Filter design and experimental evaluation | |
US20190271543A1 (en) | Method and system for lean angle estimation of motorcycles | |
JP2019078560A (ja) | ジャイロセンサのオフセット補正装置、オフセット補正プログラム、歩行者自律航法装置 | |
WO2021059695A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN116105725A (zh) | Gnss/ins冗余组合导航方法、模组、系统及介质 | |
WO2016089263A1 (en) | Method and system for estimating relative angle between headings | |
CN113936044B (zh) | 激光设备运动状态的检测方法、装置、计算机设备及介质 | |
CN115727871A (zh) | 一种轨迹质量检测方法、装置、电子设备和存储介质 | |
Kozlov et al. | Calibration of an inertial measurement unit on a low-grade turntable with consideration of spatial offsets of accelerometer proof masses | |
EP3093614B1 (en) | System and method for estimating three-dimensional measurements of physical objects | |
Alexiev et al. | An algorithm for error reducing in IMU | |
Kundra et al. | Improving orientation estimation in mobiles with built-in camera | |
Zhao et al. | Employing smartphone as on-board navigator in unmanned aerial vehicles: implementation and experiments | |
US20230022244A1 (en) | Distributed Sensor Inertial Measurement Unit | |
CN117824630A (zh) | 一种组合导航定位算法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240731 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7565413 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |