JP2015197925A - センサ融合を用いた環境内での位置特定 - Google Patents
センサ融合を用いた環境内での位置特定 Download PDFInfo
- Publication number
- JP2015197925A JP2015197925A JP2015071009A JP2015071009A JP2015197925A JP 2015197925 A JP2015197925 A JP 2015197925A JP 2015071009 A JP2015071009 A JP 2015071009A JP 2015071009 A JP2015071009 A JP 2015071009A JP 2015197925 A JP2015197925 A JP 2015197925A
- Authority
- JP
- Japan
- Prior art keywords
- data streams
- environment
- mobile platform
- data
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004807 localization Effects 0.000 title description 5
- 230000004927 fusion Effects 0.000 title description 4
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000009826 distribution Methods 0.000 claims abstract description 23
- 230000033001 locomotion Effects 0.000 claims description 40
- 238000004519 manufacturing process Methods 0.000 claims description 38
- 238000001514 detection method Methods 0.000 claims description 17
- 239000003607 modifier Substances 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 238000003860 storage Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 238000005259 measurement Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 10
- 238000012423 maintenance Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013475 authorization Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005553 drilling Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000003801 milling Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009419 refurbishment Methods 0.000 description 1
- 239000000565 sealant Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/02—Manipulators mounted on wheels or on carriages travelling along a guideway
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
Description
p(xt+1|zT)=∫[p(xt+1|xt)*p(xt|zT)] (1)
p(xt+1|zt+1)∝p(z1 t+1,…,zn t+1|xt+1)*p(xt+1|zT) (2)
ここで、tは時刻、xt+1は時刻t+1における移動式ロボット106の姿勢、zTは時間Tでの複数のデータストリーム126のすべての推定の集まり、p(xt+1|zT)は所定のzTに対するxt+1の確率、xtは時刻tにおける移動式ロボット106の姿勢、nは複数のデータシステム128におけるデータシステムの総数、z1 t+1は時刻t+1における複数のデータシステム128の第1のデータシステムによって生成される推定、及びzn t+1は時刻t+1における複数のデータシステム128のn番目のデータシステムによって生成される推定である。任意の所定の時刻t+1に対して、p(z1 t+1,…,zn t+1|xt+1)は時刻t+1に推定を提供したデータシステムのみを含む。
ここでσは平均の標準偏差である。
任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用するように構成される修正器;及び
前記移動式プラットフォームの周囲の環境に対して所望の精度で、前記移動式プラットフォームの姿勢推定を生成するため、移動式プラットフォームに搭載型で配置され、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを受信して融合するように構成される姿勢推定器
を備える装置。
前記基部に関連付けられ、任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含むデータストリームを複数のデータシステムから受信するように構成される制御装置
を備える移動式プラットフォームであって、
前記制御装置は、
任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用するように構成される修正器;及び
前記移動式プラットフォームの周囲の環境に対して所望の精度で、前記移動式プラットフォームの姿勢推定を生成するため、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを複数のデータストリームとして受信し、複数のデータストリームを融合するように構成される姿勢推定器;及び
前記基部に関連付けられ、前記環境内で前記移動式プラットフォームを移動するため、前記姿勢推定に基づいて前記制御装置によって制御されるように構成される移動システム
を備える移動式プラットフォーム。
複数のデータシステムを用いて、任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含む生成すること;
任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用すること;及び
前記移動式プラットフォームの周囲の前記環境に対して所望の精度で、前記移動式プラットフォームの姿勢推定を生成するため、前記任意の数の第1の種類のデータストリームと前記任意の数の修正されたデータストリームを融合すること
を含む、方法。
前記任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの前記各々の各データポイントに経験的共分散を適用することを含む、段落C1に記載の方法も提示される。
前記所望の精度で前記姿勢推定を生成するため、ベイズ推定アルゴリズムを用いて、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合することを含む、段落C1に記載の方法も提示される。
色及び奥行きオドメトリシステム、車輪オドメトリシステム、視覚オドメトリシステム、光検出及び測距システム、又はローカライザ及びマッパのうちの少なくとも1つを用いて、任意の数の第2の種類のデータストリームを生成することを含む、段落C1に記載の方法も提示される。
前記移動式プラットフォームの前記現在の位置と前記現在の目印との間の初期相対距離を特定すること;及び
前記搭載型データシステムのセンサシステムの視野内で前記現在の目印を見失うことなく、前記移動式ロボットを前記現在の位置から所望の位置へ向かって可能な限り遠くの新しい位置まで移動式プラットフォームを動かすこと
をさらに含む、段落C1に記載の方法も提示される。
前記移動式プラットフォームの前記新しい位置と前記現在の目印との間の新しい相対距離を特定すること;
前記初期相対距離と前記新しい相対距離との間の差分を計算すること;及び
前記差分を用いて、前記環境内で前記移動式プラットフォームの前記新しい位置を特定すること
をさらに含む、段落C6に記載の方法も提示される。
前記新しい位置が選択された許容誤差の範囲内で前記所望の位置にないという判断に応答して、新しい目印を用いて前記移動式プラットフォームを前記所望の位置により近くなるよう移動すること
をさらに含む、段落C7に記載の方法も提示される。
前記搭載型データシステムを用いて前記新しい目印を探すこと;
前記移動式プラットフォームが前記新しい位置にある間に、前記搭載型データシステムを用いて前記新しい目印を前記選択された回数観測すること;及び
前記移動式プラットフォームの前記新しい位置と前記新しい目印との間の相対距離を特定すること
を含む、段落C8に記載の方法も提示される。
前記新しい目印を前記現在の目印として、前記新しい位置を前記現在の位置として、及び前記相対距離を前記初期相対距離として、再度特定すること;及び
前記移動式プラットフォームを前記現在の位置から前記新しい位置まで移動するステップ、前記移動式プラットフォームの前記新しい位置と前記現在の目印との間の前記新しい相対距離を特定するステップ、前記初期相対距離と前記新しい相対距離との間の前記差分を計算するステップ、前記差分を用いて前記環境内で前記移動式プラットフォームの前記新しい位置を特定するステップ、及び前記新しい位置が前記選択された許容誤差の範囲内で前記所望の位置にあるかどうかを判断するステップを反復すること
をさらに含む、段落C8に記載の方法も提示される。
をさらに含む、段落C10に記載の方法も提示される。
101 製造環境
102 任意の数の移動式プラットフォーム
103 物体
104 移動式プラットフォーム
106 移動式ロボット
108 基部
110 移動システム
112 任意の数のツール
114 制御装置
115 フロア
116 任意の数の操作
117 経路
118 姿勢推定装置
120 修正器
121 位置推定
122 姿勢推定
123 方向推定
124 基準座標系
125 データストリーム
126 複数のデータストリーム
127 データストリーム
128 複数のデータシステム
129 任意の数の修正されたデータストリーム
130 任意の数の第2の種類のデータストリーム
132 任意の数の第1の種類のデータストリーム
133 第2の種類のデータストリーム
134 任意の数の搭載型データシステム
135 修正されたデータストリーム
136 任意の数の非搭載型データシステム
137 確率分布
138 初期位置
140 所望の位置
142 任意の数の目印
144 搭載型データシステム
145 非搭載型データシステム
146 目印
147 新しい目印
202 慣性測定装置
204 色及び奥行きオドメトリシステム
206 車輪オドメトリシステム
208 視覚オドメトリシステム
210 光検出及び測距システム
212 インドア全地球測位システム
214 モーションキャプチャシステム
216 レーザーシステム
218 ローカライザ及びマッパ
220 二次元ローカライザ及びマッパ
222 三次元ローカライザ及びマッパ
224 位置特定及びマッピングシステム
226 任意の数のセンサデバイス
228 任意の数のトランスミッタ
229 任意の数の光信号
230 サーバー
231 光データ
232 モーションキャプチャターゲット
234 画像撮影システム
235 モーションキャプチャデータ
236 モーションキャプチャサーバー
238 レーザーターゲット
240 レーザーセンサ
300 搭載型
302 非搭載型
400 製造環境
402 翼
404 移動式ロボット
406 フロア
500 移動式ロボット
502 基部
504 移動システム
506 複数のデバイス
508 光検出及び測距システム
510 色及び奥行きオドメトリシステム
512 ターゲット
800 データ処理システム
804 プロセッサユニット
806 記憶デバイス
808 通信ユニット
810 入出力ユニット
812 ディスプレイ
814 メモリ
816 固定記憶域
818 プログラムコード
820 コンピュータ可読媒体
822 コンピュータプログラム製品
824 コンピュータ可読記憶媒体
826 コンピュータ可読信号媒体
902 仕様及び設計
904 材料の調達
906 コンポーネント及びサブアセンブリの製造
908 システムインテグレーション
910 認可及び納品
912 運航
914 整備及び保守
1000 航空機
1002 機体
1004 システム
1006 内装
1008 推進システム
1010 電気システム
1012 油圧システム
1014 環境システム
Claims (15)
- 任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含む複数のデータストリームを生成するように構成される複数のデータシステム;
任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用するように構成されている修正器;及び
前記移動式プラットフォームの周囲の環境に対して、所望の精度で前記移動式プラットフォームの姿勢推定を生成するため、移動式プラットフォームに搭載型で配置され、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを受信して融合するように構成される姿勢推定器
を備える装置。 - 前記任意の数の第2の種類のデータストリームのうちの少なくとも1つは、前記複数のデータシステムの中のオドメトリシステムから受信される、請求項1に記載の装置。
- 前記複数のデータシステムの搭載型データシステムは、前記環境内の所望の位置に前記移動式プラットフォームを移動する際に使用するため、前記環境内の目印を選択された回数観測するように使用される、請求項1に記載の装置。
- 前記複数のデータシステムは、任意の数の搭載型データシステム及び任意の数の非搭載型データシステムを含む、請求項1に記載の装置。
- 前記姿勢推定は、前記環境に対する前記移動式プラットフォームの位置及び方向を含む、請求項1に記載の装置。
- 前記移動式プラットフォームは移動式ロボットであり、前記環境は製造環境である、請求項1に記載の装置。
- 前記姿勢推定装置は、前記姿勢推定を生成するため、ベイズ推定アルゴリズムを用いて、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合するように構成される、請求項1に記載の装置。
- 前記環境内で経路に沿って前記移動式プラットフォームをガイドするように、前記姿勢推定を使用するように構成されている制御装置をさらに備える、請求項1に記載の装置。
- 環境内で移動式プラットフォームをガイドするための方法であって、
複数のデータシステムを用いて、任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを生成すること;
任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用すること;及び
前記移動式プラットフォームの周囲の前記環境に対して、所望の精度で前記移動式プラットフォームの姿勢推定を生成するため、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合すること
を含む方法。 - 前記移動式プラットフォームに対して生成される前記姿勢推定を用いて、前記環境内の経路に沿って前記移動式プラットフォームをガイドすることをさらに含む、請求項9に記載の方法。
- 前記任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの前記各々に前記確率分布を適用することは、
前記任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの前記各々の各データポイントに経験的共分散を適用することを含む、請求項9に記載の方法。 - 前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合することは、
前記所望の精度で前記姿勢推定を生成するため、ベイズ推定アルゴリズムを用いて、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合することを含む、請求項9に記載の方法。 - 前記任意の数の第1の種類のデータストリーム及び前記任意の数の第2の種類のデータストリームを生成することは、
色及び奥行きオドメトリシステム、車輪オドメトリシステム、視覚オドメトリシステム、光検出及び測距システム、又はローカライザ及びマッパのうちの少なくとも1つを用いて、前記任意の数の第2の種類のデータストリームを生成することを含む、請求項9に記載の方法。 - 前記移動式プラットフォームが現在の位置にある間に、搭載型データシステムを用いて、前記環境内の現在の目印を選択された回数観測すること;
前記移動式プラットフォームの前記現在の位置と前記現在の目印との間の初期相対距離を特定すること;及び
前記搭載型データシステムのセンサシステムの視野内で前記現在の目印を見失うことなく、前記移動式プラットフォームを前記現在の位置から所望の位置へ向かって可能な限り遠くの新しい位置まで動かすこと
をさらに含む、請求項9に記載の方法。 - 前記搭載型データシステムを用いて、前記現在の目印を前記選択された回数再観測すること;
前記移動式プラットフォームの前記新しい位置と前記現在の目印との間の新しい相対距離を特定すること;
前記初期相対距離と前記新しい相対距離との間の差分を計算すること;及び
前記差分を用いて、前記環境内で前記移動式プラットフォームの前記新しい位置を特定すること
をさらに含む、請求項14に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/243,419 | 2014-04-02 | ||
US14/243,419 US9427867B2 (en) | 2014-04-02 | 2014-04-02 | Localization within an environment using sensor fusion |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015197925A true JP2015197925A (ja) | 2015-11-09 |
JP2015197925A5 JP2015197925A5 (ja) | 2019-06-27 |
JP6804825B2 JP6804825B2 (ja) | 2020-12-23 |
Family
ID=53682434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015071009A Active JP6804825B2 (ja) | 2014-04-02 | 2015-03-31 | センサ融合を用いた環境内での位置特定 |
Country Status (9)
Country | Link |
---|---|
US (1) | US9427867B2 (ja) |
EP (1) | EP2927769B1 (ja) |
JP (1) | JP6804825B2 (ja) |
KR (1) | KR102359186B1 (ja) |
CN (1) | CN104977941B (ja) |
BR (1) | BR102015007157B1 (ja) |
CA (1) | CA2883622C (ja) |
ES (1) | ES2770730T3 (ja) |
PT (1) | PT2927769T (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9947138B2 (en) | 2014-04-15 | 2018-04-17 | Huntington Ingalls Incorporated | System and method for augmented reality display of dynamic environment information |
US9734403B2 (en) * | 2014-04-25 | 2017-08-15 | Huntington Ingalls Incorporated | Augmented reality display of dynamic target object information |
US9864909B2 (en) | 2014-04-25 | 2018-01-09 | Huntington Ingalls Incorporated | System and method for using augmented reality display in surface treatment procedures |
WO2015191346A1 (en) | 2014-06-09 | 2015-12-17 | Huntington Ingalls Incorporated | System and method for augmented reality display of electrical system information |
US10504294B2 (en) | 2014-06-09 | 2019-12-10 | Huntington Ingalls Incorporated | System and method for augmented reality discrepancy determination and reporting |
US10915754B2 (en) | 2014-06-09 | 2021-02-09 | Huntington Ingalls Incorporated | System and method for use of augmented reality in outfitting a dynamic structural space |
WO2016011149A1 (en) | 2014-07-16 | 2016-01-21 | Huntington Ingalls Incorporated | System and method for augmented reality display of hoisting and rigging information |
CN105180955A (zh) * | 2015-10-21 | 2015-12-23 | 福州华鹰重工机械有限公司 | 机动车实时精准定位方法及装置 |
EP3869538A1 (en) | 2016-03-09 | 2021-08-25 | Applied Materials, Inc. | Correction of fabricated shapes in additive manufacturing |
CN105938619A (zh) * | 2016-04-11 | 2016-09-14 | 中国矿业大学 | 一种融合RGB和Depth信息的视觉里程计实现方法 |
US10353400B2 (en) | 2016-05-23 | 2019-07-16 | Asustek Computer Inc. | Navigation system and navigation method |
CN106227220A (zh) * | 2016-09-28 | 2016-12-14 | 关健生 | 基于分布式框架的自主导航巡检机器人 |
CN107160419A (zh) * | 2017-06-09 | 2017-09-15 | 东华大学 | 一种肌电信号控制的机械手运动机构 |
CN109866217B (zh) * | 2017-12-01 | 2021-09-17 | 深圳市优必选科技有限公司 | 机器人里程定位方法、装置、终端设备及计算机存储介质 |
JP7167982B2 (ja) * | 2018-05-31 | 2022-11-09 | 日本電気株式会社 | 出力装置、出力方法及び出力プログラム |
DE102018121365A1 (de) * | 2018-08-31 | 2020-04-23 | RobArt GmbH | Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter |
US11314254B2 (en) * | 2019-03-26 | 2022-04-26 | Intel Corporation | Methods and apparatus for dynamically routing robots based on exploratory on-board mapping |
CN110286682A (zh) * | 2019-07-08 | 2019-09-27 | 国网山东省电力公司枣庄供电公司 | 一种电力仓储多功能安防探测机器人、方法及系统 |
KR102259247B1 (ko) * | 2019-12-06 | 2021-06-01 | 한국로봇융합연구원 | 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템 |
JP2023540304A (ja) * | 2020-09-01 | 2023-09-22 | シーバ・テクノロジーズ・インコーポレイテッド | オプティカルフロー、ホイールエンコーダおよび慣性計測装置での平面ロボットのデッドレコニング |
FR3119142A1 (fr) * | 2021-01-25 | 2022-07-29 | Transdev Group Innovation | Procédé de circulation d’un véhicule sur des voies de circulation, programme d’ordinateur, support d’informations et système de transport associés |
CN113955136B (zh) * | 2021-09-02 | 2024-04-05 | 浙江图盛输变电工程有限公司温州科技分公司 | 一种电网自动巡检无人机目标挂点校准中转站 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004133882A (ja) * | 2002-05-10 | 2004-04-30 | Royal Appliance Mfg Co | 自律性マルチプラットフォーム・ロボットシステム |
US20040167667A1 (en) * | 2002-12-17 | 2004-08-26 | Goncalves Luis Filipe Domingues | Systems and methods for filtering potentially unreliable visual data for visual simultaneous localization and mapping |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0570581B1 (en) * | 1991-11-01 | 2001-12-05 | Motorola, Inc. | An improved accuracy sensory system for vehicle navigation |
KR100506097B1 (ko) * | 2004-02-04 | 2005-08-03 | 삼성전자주식회사 | 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치 |
US7689321B2 (en) | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US7831094B2 (en) * | 2004-04-27 | 2010-11-09 | Honda Motor Co., Ltd. | Simultaneous localization and mapping using multiple view feature descriptors |
JP4686595B2 (ja) * | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | クリティカルポイント解析に基づくポーズ推定 |
WO2008013568A2 (en) * | 2005-12-30 | 2008-01-31 | Irobot Corporation | Autonomous mobile robot |
KR100809352B1 (ko) * | 2006-11-16 | 2008-03-05 | 삼성전자주식회사 | 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 |
US8351646B2 (en) * | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
KR100877071B1 (ko) | 2007-07-18 | 2009-01-07 | 삼성전자주식회사 | 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 |
CN101576384B (zh) * | 2009-06-18 | 2011-01-05 | 北京航空航天大学 | 一种基于视觉信息校正的室内移动机器人实时导航方法 |
JP5490911B2 (ja) * | 2009-10-30 | 2014-05-14 | ユージン ロボット シーオー., エルティーディー. | 移動ロボットの位置認識のための地図生成および更新方法 |
CN101712381B (zh) * | 2009-11-13 | 2013-01-02 | 北京航空航天大学 | 一种基于多敏感器的定姿系统 |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8401242B2 (en) * | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
-
2014
- 2014-04-02 US US14/243,419 patent/US9427867B2/en active Active
-
2015
- 2015-02-27 CA CA2883622A patent/CA2883622C/en active Active
- 2015-03-18 KR KR1020150037245A patent/KR102359186B1/ko active IP Right Grant
- 2015-03-30 BR BR102015007157-4A patent/BR102015007157B1/pt active IP Right Grant
- 2015-03-31 PT PT151620432T patent/PT2927769T/pt unknown
- 2015-03-31 JP JP2015071009A patent/JP6804825B2/ja active Active
- 2015-03-31 EP EP15162043.2A patent/EP2927769B1/en active Active
- 2015-03-31 ES ES15162043T patent/ES2770730T3/es active Active
- 2015-04-02 CN CN201510154609.9A patent/CN104977941B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004133882A (ja) * | 2002-05-10 | 2004-04-30 | Royal Appliance Mfg Co | 自律性マルチプラットフォーム・ロボットシステム |
US20040167667A1 (en) * | 2002-12-17 | 2004-08-26 | Goncalves Luis Filipe Domingues | Systems and methods for filtering potentially unreliable visual data for visual simultaneous localization and mapping |
Also Published As
Publication number | Publication date |
---|---|
KR102359186B1 (ko) | 2022-02-04 |
CN104977941B (zh) | 2019-04-30 |
EP2927769A2 (en) | 2015-10-07 |
BR102015007157A2 (pt) | 2016-03-29 |
US20150283700A1 (en) | 2015-10-08 |
PT2927769T (pt) | 2020-02-14 |
EP2927769B1 (en) | 2019-12-04 |
JP6804825B2 (ja) | 2020-12-23 |
CA2883622C (en) | 2017-07-11 |
US9427867B2 (en) | 2016-08-30 |
KR20150114892A (ko) | 2015-10-13 |
CA2883622A1 (en) | 2015-10-02 |
CN104977941A (zh) | 2015-10-14 |
EP2927769A3 (en) | 2016-07-20 |
ES2770730T3 (es) | 2020-07-02 |
BR102015007157B1 (pt) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6804825B2 (ja) | センサ融合を用いた環境内での位置特定 | |
US8838273B2 (en) | System for autonomously dispensing media on large scale surfaces | |
Leishman et al. | Relative navigation approach for vision-based aerial GPS-denied navigation | |
EP3048416B1 (en) | Method and system for determining shim dimensions using an aerial drone | |
JP6433122B2 (ja) | 強化された移動プラットフォームの位置決め | |
US20180164124A1 (en) | Robust and stable autonomous vision-inertial navigation system for unmanned vehicles | |
JP6545279B2 (ja) | 衝突は発生しないかについて、車両が辿るべき目標軌跡を監視するための方法及び装置 | |
US10725478B2 (en) | Robotic-mounted monument system for metrology systems | |
Mai et al. | Local positioning system using UWB range measurements for an unmanned blimp | |
EP2495527B1 (en) | Photogrammetry measurement system | |
JP2017159441A (ja) | 自己位置決めロボット | |
Wang et al. | Quadrotor autonomous landing on moving platform | |
Li et al. | Relative state estimation of model-unknown spinning noncooperative target using stereo EKF-SLAM | |
Matsubara et al. | Improvement in measurement area of three-dimensional LiDAR using mirrors mounted on mobile robots | |
Naheem et al. | Tracking feasibility of UWB positioning system for lighter-than-air indoor robot navigation | |
Shaqura et al. | Human supervised multirotor UAV system design for inspection applications | |
Bernatz et al. | Navigation of a low flying vtol aircraft with the help of a downwards pointing camera | |
Weiss et al. | Methods for evaluation of human-in-the-loop inspection of a space station mockup using a quadcopter | |
d’Apolito et al. | System architecture of a demonstrator for indoor aerial navigation | |
Park et al. | Terrain relative navigation for precise lunar landing using crater matching algorithm | |
Xia et al. | Extended Preintegration for Relative State Estimation of Leader-Follower Platform | |
Sridhar et al. | Location Determination of an Unmanned Aerial Vehicle in a GPS-Denied, Hazard-Cluttered Indoor Environment | |
Krüger et al. | Single-Layer Laser Scanner for Detection and Localization of Unmanned Swarm Members | |
Guo et al. | Control and Robust Vision Relative Navigation for Autonomous Aerial Refueling | |
Martinet | Navigation and localization in large working volumes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6804825 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |