WO2017043181A1 - センサ装置、センサシステム及び情報処理装置 - Google Patents
センサ装置、センサシステム及び情報処理装置 Download PDFInfo
- Publication number
- WO2017043181A1 WO2017043181A1 PCT/JP2016/071092 JP2016071092W WO2017043181A1 WO 2017043181 A1 WO2017043181 A1 WO 2017043181A1 JP 2016071092 W JP2016071092 W JP 2016071092W WO 2017043181 A1 WO2017043181 A1 WO 2017043181A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sensor
- sensor device
- information
- unit
- information code
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P21/00—Testing or calibrating of apparatus or devices covered by the preceding groups
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/16—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring distance of clearance between spaced objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/22—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring angles or tapers; for testing the alignment of axes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P13/00—Indicating or recording presence, absence, or direction, of movement
Definitions
- the present disclosure relates to a sensor device, a sensor system, and an information processing device.
- the first imaging unit capable of imaging the first inertial sensor, the first information code formed so as to be imaged from the outside, and the second information code formed in another sensor device. Is provided.
- elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numerals.
- a plurality of elements having substantially the same functional configuration are distinguished as required by the sensor devices 10A, 10B, and 10C.
- only the same reference numerals are given.
- the sensor devices 10A, 10B, and 10C they are simply referred to as the sensor device 10.
- each sensor device 10 captures images of information codes of other sensor devices 10 with each other.
- the relative positional relationship that is, relative distance
- posture relationship that is, relative angle
- the processing unit 160 corresponds to a CPU or a DSP, and performs processing for providing various functions of the slave 10. As illustrated in FIG. 3, the processing unit 160 includes a sensor information acquisition unit 161, an exercise state calculation unit 162, an external information acquisition unit 163, a captured image acquisition unit 164, a recognition unit 165, a display control unit 166, an inertial navigation unit 167, and A notification unit 168 is included. Note that the processing unit 160 may further include other components other than these components. That is, the processing unit 160 can perform operations other than the operations of these components.
- the sensor information acquisition unit 161 acquires sensor information measured by the inertial sensor 110.
- the sensor information acquisition unit 161 associates the acquired sensor information with the measurement time, and outputs it to the motion state calculation unit 162 and the inertial navigation unit 167.
- External information acquisition unit 163 acquires information received by communication unit 130. For example, the external information acquisition unit 163 acquires exercise state information of other sensor devices 10 and information indicating a correction result by the master. The external information acquisition unit 163 outputs the motion state information of the other sensor device 10 to the captured image acquisition unit 164. Further, the external information acquisition unit 163 outputs information indicating the correction result by the master to the inertial navigation unit 167.
- the recognition unit 165 acquires relative relationship information indicating at least one of a relative distance and a posture regarding the slave 10 and the other sensor device 10. For example, the recognizing unit 165 recognizes the slave 10 and the other based on the captured image of the information code of the other sensor device 10 captured by the imaging unit 120 (that is, displayed on the display unit 140 of the other sensor device 10). The relative relationship with the sensor device 10 is recognized. Specifically, the recognizing unit 165 recognizes the relative distance from the size of the information code included in the captured image, and recognizes the relative attitude from the posture of the information code included in the captured image.
- the display control unit 166 controls display by the display unit 140.
- the display control unit 166 controls the information code displayed by the display unit 140 based on the exercise state information and / or the relative relationship information so that the other sensor devices 10 can easily recognize the information code.
- the display control unit 166 causes the display unit 140 to display an information code having a small spatial frequency in the same direction as the direction in which the slave 10 moves and a large spatial frequency in the other direction.
- FIG. 4 is a diagram illustrating an example of an information code displayed by such control. For example, when the slave 10 is moving in the X direction, the display unit 140 displays the information code 30D having a small spatial frequency in the X direction and a large spatial frequency in the Y direction.
- the display unit 140 displays the information code 30E having a small spatial frequency in the Y direction and a large spatial frequency in the X direction. In this case as well, it is possible to prevent a decrease in the recognition accuracy of the relative relationship information in the other sensor devices 10. From the same viewpoint, the display control unit 166 displays an information code having a small spatial frequency in the same direction as the direction in which the slave 10 moves relative to the other sensor device 10 and a large spatial frequency in the other direction.
- the processing unit 160 corresponds to a CPU or a DSP, and performs processing for providing various functions of the master 10. As illustrated in FIG. 5, the processing unit 160 includes a sensor information acquisition unit 161, an exercise state calculation unit 162, an external information acquisition unit 163, a captured image acquisition unit 164, a recognition unit 165, a display control unit 166, an inertial navigation unit 167, A notification unit 168 and a correction unit 169 are included. Note that the processing unit 160 may further include other components other than these components. That is, the processing unit 160 can perform operations other than the operations of these components.
- the recognition unit 165 outputs the recognized relative relationship information to the display control unit 166 and the correction unit 169.
- the correction unit 169 corrects the integral value calculated from the sensor information measured by the other sensor device 10, that is, the calculation result by the inertial navigation unit 167 of the other sensor device 10. Thereby, it is possible to reduce the accumulated error included in the position information and posture information of the other sensor devices 10.
- the correction unit 169 outputs information indicating the correction result to the notification unit 168.
- the correction process will be specifically described with reference to FIG.
- the triangles obtained from the image sensor are intermittent, but due to the nature of image recognition, errors do not accumulate.
- the triangles obtained from the inertial sensor are continuous, but errors accumulate due to the nature of the inertial sensor. Therefore, the sensor system 1 intermittently resets the error accumulation while continuing the continuous motion capture operation by intermittently overwriting and updating the triangle information obtained from the inertial sensor with the triangle information obtained from the image sensor. can do.
- the sensor system 1 uses a property that the angles 60A, 60B, and 60C are obtained from the condition that the sum of the inner angles is 180 degrees, and a part of continuous triangle posture angle information obtained from the inertial sensor. May be corrected.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
1.はじめに
1.1.慣性航法
1.2.技術的課題
2.第1の実施形態
2.1.センサシステムの概要
2.2.スレーブとして動作するセンサ装置の構成例
2.3.マスタとして動作するセンサ装置の構成例
2.4.処理の流れ
2.5.他の方式との比較
3.第2の実施形態
3.1.センサ装置の構成例
3.2.サーバの構成例
3.3.処理の流れ
4.まとめ
<1.1.慣性航法>
慣性センサにより測定されたセンサ情報の利用方法のひとつに、慣性航法(INS:Inertial Navigation System)がある。慣性航法は、角速度及び加速度を複数回積分することで自身の位置を計算することができる技術であり、例えば船舶又は航空機等に採用される。以下、慣性航法を採用するセンサ装置による処理の内容を説明する。
上述した累積誤差を低減するために、船舶又は航空機等においては、高精度なセンサ装置が利用されている。以下の表に、ウェアラブル機器等に一般的に使用されている民生用MEMS(Micro Electro Mechanical Systems)センサと、船舶又は航空機等に一般的に使用されている工業用リングレーザージャイロ装置及び工業用加速度センサとの、精度の比較例を示した。表1は、姿勢情報の累積誤差が時間経過と共に増大する様子の比較である。表2は、位置情報の累積誤差が時間経過と共に増大する様子の比較である。
<2.1.センサシステムの概要>
図1は、本実施形態に係るセンサシステム1の概要を説明するための図である。図1に示すように、センサシステム1は、センサ装着用装備20に取り付けられた複数のセンサ装置10(即ち、10A~10C)を含む。
図3は、スレーブとして動作するセンサ装置10B及び10Cの論理的な構成の一例を示すブロック図である。以下では、スレーブとして動作するセンサ装置10B及び10Cを、単にスレーブ10とも称する。図3に示すように、スレーブ10は、慣性センサ110、撮像部120、通信部130、表示部140、記憶部150及び処理部160を有する。
図5は、マスタとして動作するセンサ装置10Aの論理的な構成の一例を示すブロック図である。以下では、マスタとして動作するセンサ装置10Aを、単にマスタ10とも称する。図5に示すように、マスタ10は、慣性センサ110、撮像部120、通信部130、表示部140、記憶部150及び処理部160を有する。
(1)全体的な処理の流れ
図7は、本実施形態に係るセンサシステム1において実行される処理の流れの一例を示すシーケンス図である。本シーケンスには、マスタ10及び複数のスレーブ10が関与する。
図8は、本実施形態に係るセンサ装置10において実行される撮像タイミングの制御処理の流れの一例を示すフローチャートである。なお、ここで説明する処理は、図7を参照して上記説明したシーケンスにおけるステップS110の処理をより詳細にしたものである。
以上、本実施形態に係るセンサシステム1について詳細に説明した。上記説明したように、本実施形態に係るセンサシステム1は、慣性航法における累積誤差を、別途計算したセンサ装置10同士の相対関係に基づく補正処理により低減することが可能である。図9は、このような補正処理により累積誤差が低減される様子の一例を示している。図9の左図(符号71)は、補正処理が行われない場合における、位置情報の累積誤差が指数的に増大する様子を示している。図9の右図(符号72)は、補正処理が行われる場合における、位置情報の累積誤差が適宜低減される様子を示している。この低減されるタイミングは、例えば複数のセンサ装置10に関する相対関係情報が揃うタイミングである。図9に示したように、本技術によれば、累積誤差を適宜低減することが可能となるので、安価で低精度な民生用のMEMSセンサを用いたとしても、精度を維持した測定が可能となる。
本実施形態は、センサ情報に基づく計算がセンサ装置以外の他の情報処理装置において行われる形態である。ここでは、後述するサーバ80において計算が行われるものとして説明する。
図10は、本実施形態に係るセンサ装置10の論理的な構成の一例を示すブロック図である。図10に示すように、センサ装置10は、慣性センサ110、撮像部120、通信部130、表示部140、記憶部150及び処理部160を有する。
図11は、本実施形態に係るサーバ80の論理的な構成の一例を示すブロック図である。図11に示すように、サーバ80は、通信部810、記憶部820及び処理部830を有する。
図12は、本実施形態に係るセンサシステム1において実行される処理の流れの一例を示すシーケンス図である。本シーケンスには、サーバ80及び複数のセンサ装置10が関与する。
以上、図1~図12を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係るセンサ装置10は、慣性センサと、外部から撮像可能に形成された情報コードと、他のセンサ装置10に形成された情報コードを撮像可能な撮像部と、を有する。各々のセンサ装置10は、慣性センサにより測定すると共に、互いに情報コードを撮像する。これにより、慣性センサにより得られたセンサ情報から慣性航法により計算される姿勢情報及び位置情報を、撮像画像により得られる相対関係情報に基づいて補正することが可能となる。このように、センサの累積誤差を簡易に低減可能な仕組みが提供される。
(1)
第1の慣性センサと、
外部から撮像可能に形成された第1の情報コードと、
他のセンサ装置に形成された第2の情報コードを撮像可能な第1の撮像部と、
を備えるセンサ装置。
(2)
前記センサ装置及び前記他のセンサ装置に関する、相対的な距離又は姿勢の少なくともいずれかを示す相対関係情報を取得する取得部をさらに備える、前記(1)に記載のセンサ装置。
(3)
前記第1の慣性センサにより測定されたセンサ情報から算出された積分値を、前記相対関係情報に基づいて補正する補正部をさらに備える、前記(2)に記載のセンサ装置。
(4)
前記補正部は、前記他のセンサ装置が有する第2の慣性センサにより測定されたセンサ情報から算出された積分値を補正する、前記(3)に記載のセンサ装置。
(5)
前記積分値は、角速度及び加速度に基づいて算出される位置情報である、前記(3)又は(4)に記載のセンサ装置。
(6)
前記積分値は、角速度に基づいて算出される姿勢情報である、前記(3)~(5)のいずれか一項に記載のセンサ装置。
(7)
前記センサ装置及び前記他のセンサ装置に関する前記相対関係情報は、前記第1の撮像部により撮像された前記第2の情報コードの撮像画像、又は前記他のセンサ装置が有する第2の撮像部により撮像された前記第1の情報コードの撮像画像に基づいて認識される、前記(2)~(6)のいずれか一項に記載のセンサ装置。
(8)
前記取得部は、前記他のセンサ装置同士に関する前記相対関係情報を取得する、前記(2)~(7)のいずれか一項に記載のセンサ装置。
(9)
前記第1の撮像部は、前記センサ装置若しくは前記他のセンサ装置の運動の大きさ又は前記センサ装置と前記他のセンサ装置との相対的な運動の大きさが、閾値を下回る場合に前記第2の情報コードを撮像する、前記(1)~(8)のいずれか一項に記載のセンサ装置。
(10)
前記第1の情報コードを可変に表示する表示部をさらに備える、前記(1)~(9)のいずれか一項に記載のセンサ装置。
(11)
前記表示部は、前記センサ装置が動く方向と同一の方向に空間周波数が小さく、他の方向に空間周波数が大きい前記第1の情報コードを表示する、前記(10)に記載のセンサ装置。
(12)
前記表示部は、前記他のセンサ装置を基準として相対的に前記センサ装置が動く方向と同一の方向に空間周波数が小さく、他の方向に空間周波数が大きい前記第1の情報コードを表示する、前記(10)に記載のセンサ装置。
(13)
前記第1の慣性センサにより測定されたセンサ情報、第1の撮像部により撮像された撮像画像又はこれらに基づく計算結果を示す情報の少なくともいずれかを、測定時刻又は撮像時刻に対応付けて、他の装置へ通知する通知部をさらに備える、前記(1)~(12)のいずれか一項に記載のセンサ装置。
(14)
センサ装置を複数備え、
前記センサ装置は、
慣性センサと、
外部から撮像可能に形成された情報コードと、
他の前記センサ装置に設けられた前記情報コードを撮像可能な撮像部と、
を有する、センサシステム。
(15)
慣性センサ、外部から撮像可能に形成された情報コード、及び他のセンサ装置に設けられた前記情報コードを撮像可能な撮像部を有する複数のセンサ装置から取得された、センサ情報及び撮像画像を処理する処理部、
を備える情報処理装置。
(16)
第1の慣性センサと、
他のセンサ装置との間で無線信号を送受信する第1の通信部と、
を備えるセンサ装置。
(17)
前記センサ装置及び前記他のセンサ装置に関する、相対的な距離を示す相対関係情報を取得する取得部をさらに備え、
前記相対関係情報は、前記第1の通信部による通信結果に基づいて認識される、前記(16)に記載のセンサ装置。
10 センサ装置
20 装着用装備
21 センサ取付具
110 慣性センサ
120 撮像部
130 通信部
140 表示部
150 記憶部
160 処理部
161 センサ情報取得部
162 運動状態計算部
163 外部情報取得部
164 撮像画像取得部
165 認識部
166 表示制御部
167 慣性航法部
168 通知部
169 補正部
80 サーバ
810 通信部
820 記憶部
830 処理部
Claims (15)
- 第1の慣性センサと、
外部から撮像可能に形成された第1の情報コードと、
他のセンサ装置に形成された第2の情報コードを撮像可能な第1の撮像部と、
を備えるセンサ装置。 - 前記センサ装置及び前記他のセンサ装置に関する、相対的な距離又は姿勢の少なくともいずれかを示す相対関係情報を取得する取得部をさらに備える、請求項1に記載のセンサ装置。
- 前記第1の慣性センサにより測定されたセンサ情報から算出された積分値を、前記相対関係情報に基づいて補正する補正部をさらに備える、請求項2に記載のセンサ装置。
- 前記補正部は、前記他のセンサ装置が有する第2の慣性センサにより測定されたセンサ情報から算出された積分値を補正する、請求項3に記載のセンサ装置。
- 前記積分値は、角速度及び加速度に基づいて算出される位置情報である、請求項3に記載のセンサ装置。
- 前記積分値は、角速度に基づいて算出される姿勢情報である、請求項3に記載のセンサ装置。
- 前記センサ装置及び前記他のセンサ装置に関する前記相対関係情報は、前記第1の撮像部により撮像された前記第2の情報コードの撮像画像、又は前記他のセンサ装置が有する第2の撮像部により撮像された前記第1の情報コードの撮像画像に基づいて認識される、請求項2に記載のセンサ装置。
- 前記取得部は、前記他のセンサ装置同士に関する前記相対関係情報を取得する、請求項2に記載のセンサ装置。
- 前記第1の撮像部は、前記センサ装置若しくは前記他のセンサ装置の運動の大きさ又は前記センサ装置と前記他のセンサ装置との相対的な運動の大きさが、閾値を下回る場合に前記第2の情報コードを撮像する、請求項1に記載のセンサ装置。
- 前記第1の情報コードを可変に表示する表示部をさらに備える、請求項1に記載のセンサ装置。
- 前記表示部は、前記センサ装置が動く方向と同一の方向に空間周波数が小さく、他の方向に空間周波数が大きい前記第1の情報コードを表示する、請求項10に記載のセンサ装置。
- 前記表示部は、前記他のセンサ装置を基準として相対的に前記センサ装置が動く方向と同一の方向に空間周波数が小さく、他の方向に空間周波数が大きい前記第1の情報コードを表示する、請求項10に記載のセンサ装置。
- 前記第1の慣性センサにより測定されたセンサ情報、第1の撮像部により撮像された撮像画像又はこれらに基づく計算結果を示す情報の少なくともいずれかを、測定時刻又は撮像時刻に対応付けて、他の装置へ通知する通知部をさらに備える、請求項1に記載のセンサ装置。
- センサ装置を複数備え、
前記センサ装置は、
慣性センサと、
外部から撮像可能に形成された情報コードと、
他の前記センサ装置に設けられた前記情報コードを撮像可能な撮像部と、
を有する、センサシステム。 - 慣性センサ、外部から撮像可能に形成された情報コード、及び他のセンサ装置に設けられた前記情報コードを撮像可能な撮像部を有する複数のセンサ装置から取得された、センサ情報及び撮像画像を処理する処理部、
を備える情報処理装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201680051049.7A CN107923740B (zh) | 2015-09-09 | 2016-07-15 | 传感器设备、传感器系统以及信息处理设备 |
JP2017538900A JP6852673B2 (ja) | 2015-09-09 | 2016-07-15 | センサ装置、センサシステム及び情報処理装置 |
US15/743,421 US10976343B2 (en) | 2015-09-09 | 2016-07-15 | Sensor device, sensor system, and information processing device |
DE112016004079.2T DE112016004079T5 (de) | 2015-09-09 | 2016-07-15 | Sensorvorrichtung, Sensorsystem und Informationsverarbeitungsvorrichtung |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015177603 | 2015-09-09 | ||
JP2015-177603 | 2015-09-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017043181A1 true WO2017043181A1 (ja) | 2017-03-16 |
Family
ID=58239380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/071092 WO2017043181A1 (ja) | 2015-09-09 | 2016-07-15 | センサ装置、センサシステム及び情報処理装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10976343B2 (ja) |
JP (1) | JP6852673B2 (ja) |
CN (1) | CN107923740B (ja) |
DE (1) | DE112016004079T5 (ja) |
WO (1) | WO2017043181A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019050863A (ja) * | 2017-09-12 | 2019-04-04 | 住友ゴム工業株式会社 | 打具の挙動の解析装置 |
WO2019203188A1 (ja) * | 2018-04-17 | 2019-10-24 | ソニー株式会社 | プログラム、情報処理装置、及び情報処理方法 |
WO2020031659A1 (ja) * | 2018-08-06 | 2020-02-13 | 国立研究開発法人産業技術総合研究所 | 位置姿勢推定システム及び位置姿勢推定装置と位置姿勢推定方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10863469B2 (en) * | 2017-10-11 | 2020-12-08 | Google Llc | System and method for accurate timestamping of virtual reality controller data |
CN109282816B (zh) * | 2018-09-25 | 2022-03-08 | 电子科技大学 | 一种利用三角形约束的测距定位误差抑制方法 |
JPWO2020110659A1 (ja) * | 2018-11-27 | 2021-10-14 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7190919B2 (ja) * | 2019-01-25 | 2022-12-16 | 株式会社ソニー・インタラクティブエンタテインメント | 画像解析システム |
CN114026387B (zh) * | 2019-07-08 | 2024-04-30 | 三菱电机株式会社 | 移动体的引导控制装置以及引导控制系统 |
CN114562993A (zh) * | 2022-02-28 | 2022-05-31 | 联想(北京)有限公司 | 一种轨迹处理方法、装置及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5889550A (en) * | 1996-06-10 | 1999-03-30 | Adaptive Optics Associates, Inc. | Camera tracking system |
JP2006317223A (ja) * | 2005-05-11 | 2006-11-24 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2008070267A (ja) * | 2006-09-14 | 2008-03-27 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2010038847A (ja) * | 2008-08-08 | 2010-02-18 | Shimadzu Corp | モーショントラッカシステム及びその座標系設定方法 |
WO2010027015A1 (ja) * | 2008-09-05 | 2010-03-11 | 国立大学法人東京大学 | モーションキャプチャ装置 |
JP2013188426A (ja) * | 2012-03-15 | 2013-09-26 | Sony Corp | 情報処理装置、情報処理システムおよびプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19918705A1 (de) * | 1999-04-26 | 2000-11-23 | Deutsch Zentr Luft & Raumfahrt | System zum verbesserten Versorgen eines Reisenden mit Reiseinformationen |
TWI284193B (en) * | 2006-07-06 | 2007-07-21 | Sin Etke Technology Co Ltd | A display correction of vehicle navigation system and the correction and display method thereof |
US8608026B1 (en) * | 2008-03-23 | 2013-12-17 | Capton, Inc. | Methods, apparatuses, and systems for measuring the amount of material dispensed from a container using an accelerometer |
US9261526B2 (en) * | 2010-08-26 | 2016-02-16 | Blast Motion Inc. | Fitting system for sporting equipment |
US8322622B2 (en) | 2010-11-09 | 2012-12-04 | Metrologic Instruments, Inc. | Hand-supportable digital-imaging based code symbol reading system supporting motion blur reduction using an accelerometer sensor |
US9410827B2 (en) * | 2012-10-09 | 2016-08-09 | Pixameter Corp. | Measurement using a calibration pattern |
JP5787099B2 (ja) * | 2012-11-06 | 2015-09-30 | コニカミノルタ株式会社 | 案内情報表示装置 |
US10444845B2 (en) | 2012-12-21 | 2019-10-15 | Qualcomm Incorporated | Display of separate computer vision based pose and inertial sensor based pose |
US20140302774A1 (en) * | 2013-04-04 | 2014-10-09 | General Motors Llc | Methods systems and apparatus for sharing information among a group of vehicles |
JP6054331B2 (ja) * | 2013-04-16 | 2016-12-27 | アクシュネット カンパニーAcushnet Company | ゴルフクラブ用の改善されたフィッティングシステム |
CN108489486B (zh) | 2015-06-01 | 2021-07-02 | 北京极智嘉科技股份有限公司 | 二维码以及用于机器人的视觉-惯性组合导航系统及方法 |
-
2016
- 2016-07-15 WO PCT/JP2016/071092 patent/WO2017043181A1/ja active Application Filing
- 2016-07-15 US US15/743,421 patent/US10976343B2/en active Active
- 2016-07-15 DE DE112016004079.2T patent/DE112016004079T5/de not_active Withdrawn
- 2016-07-15 JP JP2017538900A patent/JP6852673B2/ja active Active
- 2016-07-15 CN CN201680051049.7A patent/CN107923740B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5889550A (en) * | 1996-06-10 | 1999-03-30 | Adaptive Optics Associates, Inc. | Camera tracking system |
JP2006317223A (ja) * | 2005-05-11 | 2006-11-24 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2008070267A (ja) * | 2006-09-14 | 2008-03-27 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2010038847A (ja) * | 2008-08-08 | 2010-02-18 | Shimadzu Corp | モーショントラッカシステム及びその座標系設定方法 |
WO2010027015A1 (ja) * | 2008-09-05 | 2010-03-11 | 国立大学法人東京大学 | モーションキャプチャ装置 |
JP2013188426A (ja) * | 2012-03-15 | 2013-09-26 | Sony Corp | 情報処理装置、情報処理システムおよびプログラム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019050863A (ja) * | 2017-09-12 | 2019-04-04 | 住友ゴム工業株式会社 | 打具の挙動の解析装置 |
JP7027745B2 (ja) | 2017-09-12 | 2022-03-02 | 住友ゴム工業株式会社 | 打具の挙動の解析装置 |
WO2019203188A1 (ja) * | 2018-04-17 | 2019-10-24 | ソニー株式会社 | プログラム、情報処理装置、及び情報処理方法 |
JPWO2019203188A1 (ja) * | 2018-04-17 | 2021-07-15 | ソニーグループ株式会社 | プログラム、情報処理装置、及び情報処理方法 |
JP7176563B2 (ja) | 2018-04-17 | 2022-11-22 | ソニーグループ株式会社 | プログラム、情報処理装置、及び情報処理方法 |
US11675418B2 (en) | 2018-04-17 | 2023-06-13 | Sony Corporation | Program, information processor, and information processing method for blending motions of a plurality of actors |
US11726549B2 (en) | 2018-04-17 | 2023-08-15 | Sony Corporation | Program, information processor, and information processing method |
WO2020031659A1 (ja) * | 2018-08-06 | 2020-02-13 | 国立研究開発法人産業技術総合研究所 | 位置姿勢推定システム及び位置姿勢推定装置と位置姿勢推定方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017043181A1 (ja) | 2018-06-21 |
CN107923740B (zh) | 2020-08-11 |
JP6852673B2 (ja) | 2021-03-31 |
CN107923740A (zh) | 2018-04-17 |
US10976343B2 (en) | 2021-04-13 |
US20180203034A1 (en) | 2018-07-19 |
DE112016004079T5 (de) | 2018-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6852673B2 (ja) | センサ装置、センサシステム及び情報処理装置 | |
AU2017365223B2 (en) | Wearable motion tracking system | |
KR101214227B1 (ko) | 동작 추적 방법. | |
JP2010534316A (ja) | 対象物の動きを捕捉するシステム及び方法 | |
US11460912B2 (en) | System and method related to data fusing | |
US20220026981A1 (en) | Information processing apparatus, method for processing information, and program | |
US20180216959A1 (en) | A Combined Motion Capture System | |
CN105184268B (zh) | 手势识别设备、手势识别方法及虚拟现实系统 | |
Li et al. | Visual-Inertial Fusion-Based Human Pose Estimation: A Review | |
JP2011033489A (ja) | モーションキャプチャ用のマーカ | |
US11449130B2 (en) | Visual and inertial motion tracking | |
WO2020149147A1 (ja) | 情報処理装置、情報処理方法、及び、記録媒体 | |
KR20200069218A (ko) | 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법 | |
US20240175893A1 (en) | Information processing apparatus, information processing method, and program | |
EP4016252A1 (en) | System and method related to motion tracking | |
EP4016253A1 (en) | System and method related to data fusing | |
EP3832435A1 (en) | Motion tracking system and method | |
JP2022133212A (ja) | 位置推定センサを基準とした慣性計測センサによるモーションキャプチャ・キャリブレーション方法。 | |
JP2020201183A (ja) | カメラ位置調整方法 | |
CN113029190A (zh) | 运动跟踪系统和方法 | |
CN114661143A (zh) | 相关于数据融合的系统和方法 | |
CN114745010A (zh) | 相关于运动跟踪的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16844046 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2017538900 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15743421 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 112016004079 Country of ref document: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16844046 Country of ref document: EP Kind code of ref document: A1 |