JP2015197925A - センサ融合を用いた環境内での位置特定 - Google Patents

センサ融合を用いた環境内での位置特定 Download PDF

Info

Publication number
JP2015197925A
JP2015197925A JP2015071009A JP2015071009A JP2015197925A JP 2015197925 A JP2015197925 A JP 2015197925A JP 2015071009 A JP2015071009 A JP 2015071009A JP 2015071009 A JP2015071009 A JP 2015071009A JP 2015197925 A JP2015197925 A JP 2015197925A
Authority
JP
Japan
Prior art keywords
data streams
environment
mobile platform
data
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015071009A
Other languages
English (en)
Other versions
JP6804825B2 (ja
JP2015197925A5 (ja
Inventor
ピーター エフ. トラウトマン,
F Trautman Peter
ピーター エフ. トラウトマン,
ホイ リー,
Hui Li
ホイ リー,
ロバート ピー. ヒギンズ,
P Higgins Robert
ロバート ピー. ヒギンズ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2015197925A publication Critical patent/JP2015197925A/ja
Publication of JP2015197925A5 publication Critical patent/JP2015197925A5/ja
Application granted granted Critical
Publication of JP6804825B2 publication Critical patent/JP6804825B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/02Manipulators mounted on wheels or on carriages travelling along a guideway
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

【課題】環境内で移動式プラットフォームをガイドするための方法及び装置が提供される。【解決手段】任意の数の第1の種類のデータストリーム132及び任意の数の第2の種類のデータストリーム130は、複数のデータシステム126を用いて生成されてもよい。確率分布137は、任意の数の修正されたデータストリーム129を形成するため、任意の数の第2の種類のデータストリーム130の各々に適用されてもよい。任意の数の第1の種類のデータストリーム132及び任意の数の修正されたデータストリーム129は、移動式プラットフォーム104の周囲の環境に対して所望の精度で、移動式プラットフォームの姿勢推定を生成するように融合されてもよい。【選択図】図1

Description

本開示は概して、環境内での移動式プラットフォームの姿勢を特定することに関する。より具体的には、本開示は、環境内での移動式プラットフォームの姿勢推定を生成するため、一定の不確実性を含む各データストリームを形成及び融合するための方法及び装置に関する。
状況によっては、人と同じように環境内で自由に動くことができる移動式ロボットを有することが望ましいことがある。塗装、テープ、或いはマグネットなど、典型的には移動式ロボットの環境内での移動の支援に使用しうる物理的な目印は、あらかじめ定められたルートのみを追随するように移動式ロボットを制約することがある。さらに、このような種類の物理的な目印の実装は、所望よりも時間と費用を要することがある。環境内でより自由に移動するため、移動式ロボットは、環境内での移動式ロボットの姿勢を特定することを含む、位置特定の実施が必要になることがある。本明細書で使用している「姿勢」は、基準座標系に対する位置、方向、或いはその両方を含む。
移動式ロボットは、位置特定を実施するための外部センサシステムを使用することがある。しかしながら、場合によっては、移動式ロボットと外部センサシステムとの間の見通し線が、製造環境内の他の物体、ロボット、及び/又は人によって遮られることがある。例えば、航空機製造環境内においては、移動式ロボットは航空機の翼の下、翼の内部、クレーン又は柱などの工場施設の近傍、及び/又は立ち入り禁止区域内で作業するときには、見通し線が失われることがある。ひとたび見通し線が失われると、移動式ロボットは姿勢の更新を受信することを停止することがあり、また、見通し線が回復されるまで動作を停止しなければならないことがある。位置特定なしでは、移動式ロボットは所望の精度で環境内を通過するように操縦できないことがある。
さらに、動的な環境内では、カート、航空機、ワークステーション、ビークル、機器プラットフォーム、他の種類のデバイス、人間オペレータ、或いはこれらの組み合わせは移動することがある。その結果、移動式ロボットは、このような種類の環境や、散乱物で満たされた環境或いは効率的に区分け又は構造化されていない環境を通って移動するには、周囲の状況だけに頼ることができないことがある。現在利用可能な移動式ロボットは、所望の性能及び効率のレベルで動作すること、或いはこのような異なる種類の環境内で所望通りに安全な方法で人間オペレータの周囲で動くことができないことがある。
加えて、場合によっては、位置特定に使用される機器又はデバイスは、所望以上に高価で、大型で、或いは大重量になることがある。ある状況では、所望の精度で位置特定を実施するために必要な処理は、所望以上の長い時間を要すること、或いはより多くの処理リソースを要することがある。したがって、少なくとも上述の問題点のいくつかと、起こりうる他の問題点を考慮する方法及び装置を有することが望ましい。
1つの例示的な実施形態では、装置は複数のデータシステム、修正器、及び姿勢推定装置を含むことがある。複数のデータシステムは、複数のデータストリームを生成するように構成されてもよい。複数のデータストリームは、任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含んでもよい。修正器は、任意の数の修正されたデータストリームを形成するため、任意の数の第2の種類のデータストリームの各々に確率分布を適用するように構成されてもよい。姿勢推定装置は、移動式プラットフォームに搭載型で配置されてもよく、また、任意の数の第1の種類のデータストリーム及び任意の数の修正されたデータストリームを受信して融合し、移動式プラットフォーム周囲の環境に対して所望の精度で、移動式プラットフォームの姿勢推定を生成するように構成されてもよい。
別の例示的な実施形態では、移動式プラットフォームは、基部、基部に関連付けられた制御装置、及び基部に関連付けられた移動システムを備えてもよい。制御装置はさらに、データストリームが任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含みうる複数のデータシステムから、データストリームを受信するように構成されてもよい。制御装置は修正器及び姿勢推定装置を含んでもよい。修正器は、任意の数の修正されたデータストリームを形成するため、任意の数の第2の種類のデータストリームの各々に確率分布を適用するように構成されてもよい。姿勢推定装置は、任意の数の第1の種類のデータストリーム及び任意の数の修正されたデータストリームを受信するように構成されてもよい。姿勢推定装置はさらに、複数のデータストリームを融合して、移動式プラットフォーム周囲の環境に対して所望の精度で、移動式プラットフォームの姿勢推定を生成するように構成されてもよい。移動システムは、環境内で移動式プラットフォームを移動するため、姿勢推定に基づいて制御装置によって制御されるように構成されてもよい。
さらに別の例示的な実施形態では、環境内で移動式プラットフォームをガイドする方法が提供される。任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームは、複数のデータシステムを用いて生成されてもよい。確率分布は、任意の数の修正されたデータストリームを形成するため、任意の数の第2の種類のデータストリームの各々に適用されてもよい。任意の数の第1の種類のデータストリーム及び任意の数の修正されたデータストリームは、移動式プラットフォーム周囲の環境に対して所望の精度で、移動式プラットフォームの姿勢推定を生成するように融合されてもよい。
特徴及び機能は、本開示の様々な実施形態で独立に実現することが可能であるか、以下の説明及び図面を参照してさらなる詳細が理解されうる、さらに別の実施形態で組み合わせることが可能である。
例示的な実施形態の特徴と考えられる新規の機能は、添付の特許請求の範囲に明記される。しかしながら、例示的な実施形態と、好ましい使用モード、さらにはその目的と特徴は、添付図面を参照しながら本発明の例示的な実施形態の以下の詳細な説明を読むことにより最もよく理解されるであろう。
例示的な実施形態による、環境のブロック図の形態での図解である。 例示的な実施形態による、複数のデータシステムのブロック図の形態での図解である。 例示的な実施形態による、搭載型で配置される複数のデータシステムのコンポーネント及び非搭載型で配置される複数のデータシステムのコンポーネントの図解である。 例示的な実施形態による製造環境の図解である。 例示的な実施形態による移動式ロボットの図解である。 例示的な実施形態による、環境内の移動式プラットフォームの姿勢推定を生成するための処理のフロー図の形態での図解である。 例示的実施形態による、製造環境内で移動式ロボットをガイドするための処理のフロー図の形態での図解である。 例示的な実施形態による、データ処理システムのブロック図の形態での図解である。 例示的な実施形態による、航空機の製造及び保守方法のブロック図の形態での図解である。 例示的な実施形態による、航空機のブロック図の形態での図解である。
例示的な実施形態は、種々の検討事項を認識し且つ考慮している。例えば、例示的な実施形態は、製造環境内の任意の数の移動式プラットフォームの位置特定をより正確且つ迅速に実施しうる方法及び装置を有することが望ましいことを認識し且つ考慮している。さらに、例示的な実施形態は、環境内の移動式ロボットに対して姿勢推定を生成するための方法及び装置を当該移動式ロボット上に搭載していることが望ましいことを認識し且つ考慮している。
したがって、例示的な実施形態は、移動式ロボットの姿勢推定を生成するための方法及び装置を、センサ融合を用いる当該移動式ロボット上に搭載型で提供する。例示的な実施形態によって提供される方法及び装置は、推定の精度を高めつつ、姿勢推定を生成するために必要な時間を短縮することができる。さらに、例示的な実施形態によって提供される解決策は、現在利用可能な解決策よりも単純でより費用対効果の高いものになりうる。
ここで図面、特に図1を参照すると、例示的な実施形態による、環境が図示されている。この例示的な実施例では、環境100は任意の数の移動式プラットフォーム102が使用される任意の環境であってもよい。本明細書で使用される「任意の数」のアイテムは、一又は複数のアイテムであってもよい。このように、任意の数の移動式プラットフォーム102は、一又は複数の移動式プラットフォームを含みうる。
1つの例示的な実施例では、環境100は、物体103が製造される製造環境101の形態を取ることがある。物体103は、任意の数の異なる形態を取りうる。例えば、限定するものではないが、物体103は、ドア、外板、航空機用の翼、航空機用の胴体、建物の構造コンポーネント、コンポーネントのアセンブリ、又は他の何らかの種類の物体の形態を取りうる。
図示しているように、移動式プラットフォーム104は、任意の数の移動式プラットフォーム102の中の1つの移動式プラットフォームの一実装の実施例となることがある。この例示的な実施例では、移動式プラットフォーム104は移動式ロボット106の形態を取ってもよい。言うまでもなく、実装に応じて、移動式プラットフォーム104は、環境100内で少なくとも部分的に自律的に移動可能な任意の種類のプラットフォーム、構造物、デバイス、又は物体の形態を取りうる。
図示しているように、移動式ロボット106は、基部108、移動システム110、任意の数のツール112、及び制御装置114を含んでもよい。移動システム110、任意の数のツール112、及び制御装置114は基部108に関連付けられてもよい。本明細書で使用されるように、1つのコンポーネントが別のコンポーネントに「関連付け」られる場合、関連付けは実施例に示されている物理的な関連付けである。
例えば、限定するものではないが、移動システム110などの第1のコンポーネントは、第2のコンポーネントに固定されることにより、第2のコンポーネントに接着されることにより、第2のコンポーネントに取り付けられることにより、第2のコンポーネントに溶接されることにより、第2のコンポーネントに締結されることにより、及び/またはその他何らかの好適な方法で第2のコンポーネントに結合されることにより、基部108などの第2のコンポーネントに関連付けられるとみなされることがある。第1のコンポーネントはまた、第3のコンポーネントを用いて第2のコンポーネントに結合されることがある。さらに、第1のコンポーネントは、第2のコンポーネントの一部として及び/又は延長として形成されることにより、第2のコンポーネントに関連付けられていると見なされることがある。
移動システム110は、移動式ロボット106を環境100内で移動させるために使用されてもよい。例えば、限定するものではないが、移動システム110は、移動式ロボット106を環境101内で移動させるために使用されてもよい。実装に応じて、移動システム110は、任意の数のホイール、任意の数のローラー、任意の数の脚、任意の数のホロノミックホイール、又は運動を提供することができる他の種類のデバイスのうちの少なくとも1つを含みうる。
本明細書で使用されるように、列挙されたアイテムと共に使用される「〜のうちの少なくとも1つ」という表現は、列挙されたアイテムのうちの一又は複数の種々の組み合わせが使用可能であり、かつ、列挙されたアイテムのうち1つだけあればよいということを意味する。アイテムとは、特定の物体、物品、又はカテゴリのことである。すなわち、「〜のうちの少なくとも1つ」は、アイテムの任意の組み合わせを意味し、いくつかのアイテムが列挙から使用されうるが、列挙されたアイテムの全てが必要なわけではない。
例えば、「アイテムA、アイテムB、及びアイテムCのうちの少なくとも1つ」は、例えば、「アイテムA」、「アイテムAとアイテムB」、「アイテムB」、「アイテムAとアイテムBとアイテムC」、又は「アイテムBとアイテムC」を意味し得る。幾つかの場合には、「アイテムA、アイテムB、及びアイテムCのうちの少なくとも1つ」は、例えば、限定するものではないが、「2個のアイテムAと1個のアイテムBと10個のアイテムC」、「4個のアイテムBと7個のアイテムC」、又は他の好適な組み合わせを意味しうる。
この例示的な実施例では、任意の数のツール112は、環境100内の任意の数の操作116を実行するために使用されることがある。任意の数の操作116のうちの少なくとも1つは物体103上で実施されることがある。任意の数の操作116は、例えば、限定するものではないが、穿孔操作、締結操作、研磨操作、塗装操作、機械加工操作、試験操作、画像撮影操作、或いは他の任意の種類の操作のうちの少なくとも1つを含みうる。このように、任意の数のツール112は、例えば、限定するものではないが、穿孔デバイス、締結デバイス、研磨デバイス、塗装デバイス、溶液分配システム、封止剤塗布システム、機械加工デバイス、フライス加工デバイス、試験システム、画像撮影デバイス、スキャナ、マーカー、ペン、ラベル貼付器、或いは他の任意の種類のツールのうちの少なくとも1つを含みうる。
この例示的な実施例では、制御装置114は、任意の数のツール112のうちの少なくとも1つの操作を制御するように構成されることがある。さらに、制御装置114は、運動システム110を制御するように構成されることがある。具体的には、制御装置114は移動システム110を制御して、移動式ロボット106を環境100内の経路117に沿って動かすことができる。経路117は、環境100のフロア115に少なくとも部分的に沿っていてもよい。本明細書で使用されるように、フロア115はフロア表面、ブリッジ上の表面、一又は複数のパレットによって形成される表面、プラットフォーム表面、エレベータのフロア、コンベアベルトのフロア、他の何らかの種類の表面、或いはこれらの何らかの組み合わせを含んでもよい。
経路117は、移動式ロボット106が環境100を通過する際に制御装置114が経路117を更新しうる動的に更新される経路であってもよい。制御装置114は、例えば、限定するものではないが、移動式ロボット106が、障害物を回避すること、環境100内で新たに配置又は移動された物体の周囲で動くこと、移動式ロボット106によって実施される任意の数の操作116における変化に対応すること、環境100内で留まる又は動き回る人間オペレータの周囲で操作すること、或いは環境100内で他の種類の新たな状況又は変化した状況に応答すること、のうちの少なくとも1つを行うのを支援するため、移動式ロボット106が環境100内を通過する際に、経路117を更新してもよい。制御装置114は位置特定を用いて、移動式ロボット106の操縦を支援してもよい。
図示しているように、制御装置114は、例えば、限定するものではないが、姿勢推測装置118及び修正器120を含むことがある。姿勢推測装置118は、移動式ロボット106の姿勢推定122を生成することができる。姿勢推定122は、環境100内での移動式ロボット106の姿勢の推定となることがある。移動式ロボット106の姿勢は、本明細書で使用されるように、環境100の基準座標系124に対する移動式ロボット106の位置、又は移動式ロボット106の方向のうちの少なくとも1つからなることがある。したがって、姿勢推定122は、環境100の基準座標系124に対する移動式ロボット106の位置推定121及び方向推定123のうちの少なくとも1つからなることがある。
移動式ロボット106は、環境100内で6つの自由度で動くように構成されてもよい。したがって、姿勢推定122は、移動式ロボット106に対する6自由度(6DoF)の姿勢の推定となることがある。場合によっては、姿勢推定122は、移動式ロボット106の6自由度空間内での移動式ロボット106の姿勢の推定と称されることもある。
この例示的な実施例では、姿勢推定装置118は、姿勢推定122を生成するため複数のデータストリーム126を融合することがある。複数のデータストリーム126の少なくとも一部は、複数のデータシステム128から受信されてもよい。本明細書で使用されるように、複数のデータシステム128のデータシステムは、任意の数のセンサシステム、任意の数のプロセッサユニット、或いはこれらの何らかの組み合わせを含みうる。本明細書で使用されるように、「センサシステム」は任意の数のセンサデバイス、能動デバイス、受動デバイス、或いはこれらの組み合わせを含みうる。
本明細書で使用されるように、複数のデータストリーム126の「融合」は、1つの姿勢推定122を生成するための、複数のデータストリーム126中の異なるデータストリームの組み合わせ及び処理を意味することがある。複数のデータストリーム126の各々は、経時的に生成される推定から成ることがある。
データストリーム125は、複数のデータストリーム126の1つの実施例である。データストリーム125は、複数のデータシステム128の1つによって生成されることがある。この例示的な実施例では、データストリーム125は経時的に生成される推定から成ることがある。
本明細書で使用されるように、「推定」は、移動式ロボット106の6自由度の姿勢の推定となることがある。この推定は、ある一時点で又はある期間にわたって生成された測定値に基づいて生成されてもよい。場合によっては、推定はまた、メタデータを含みうる。幾つかの例示的な実施例では、推定は、データストリーム125が複数の出力データ点から成るように、出力データポイントと称されることもある。
姿勢推定装置118は、姿勢推定122を生成するため、複数のデータストリーム126及びベイズ推定アルゴリズムを用いてもよい。具体的には、姿勢推定装置118は以下のベイズ推定方程式を用いてもよい。
p(xt+1|z)=∫[p(xt+1|x)*p(x|z)] (1)
p(xt+1|zt+1)∝p(z t+1,…,z t+1|xt+1)*p(xt+1|z) (2)
ここで、tは時刻、xt+1は時刻t+1における移動式ロボット106の姿勢、zは時間Tでの複数のデータストリーム126のすべての推定の集まり、p(xt+1|z)は所定のzに対するxt+1の確率、xは時刻tにおける移動式ロボット106の姿勢、nは複数のデータシステム128におけるデータシステムの総数、z t+1は時刻t+1における複数のデータシステム128の第1のデータシステムによって生成される推定、及びz t+1は時刻t+1における複数のデータシステム128のn番目のデータシステムによって生成される推定である。任意の所定の時刻t+1に対して、p(z t+1,…,z t+1|xt+1)は時刻t+1に推定を提供したデータシステムのみを含む。
姿勢推定装置118の誤差は、姿勢推定122の生成に使用される複数のデータストリーム126中のデータストリームの数、及び結果的に複数のデータシステム128中のデータシステムの数を増やすことによって、さらに低減されうる。すなわち、複数のデータストリーム126中のデータストリームの数が増大するにつれて、姿勢推定装置118によって生成される姿勢推定122の誤差は減少する。
ベイズ推定法を用いて姿勢推定122を生成するためには、姿勢推定122を生成するために使用されるすべてのデータが確率的であることが必要となる。すなわち、すべてのデータがランダム性又は不確実性を含むことが必要となる。
しかしながら、複数のデータシステム128によって生成されるデータストリーム127は、任意の数の第1の種類のデータストリーム132及び任意の数の第2の種類のデータストリーム130を含みうる。任意の数の第1の種類のデータストリーム132の1つなど、「第1の種類のデータストリーム」は、各データポイントが含むデータポイントを含むこと、或いは何らかの確率分布に基づいて、不確実性の測定値に結びつけられることがある。具体的には、第1の種類のデータストリームは、出力又は所定の入力に対して出力が生成される方法がランダム性又は不確実性の程度を考慮する、確率的なシステム、モデル、又はアルゴリズムによって生成されてもよい。このように、任意の数の第1の種類のデータストリーム132の各々は、幾つかの例示的な実施例では確率的データストリームと称されることがある。
本明細書で使用されるように、任意の数の第2の種類のデータストリーム130の1つなど、「第2の種類のデータストリーム」は、各データポイントが含まないデータポイントを含むこと、或いは不確実性の測定値に結び付けられていないことがある。例えば、限定するものではないが、データポイントは1つのデータ値のみを含んでもよい。幾つかの例示的な実施例では、この第2の種類のデータストリームは、疑似決定論的なデータストリームと称されることがある。
データストリーム127の中の任意の数の第2の種類のデータストリーム130は、姿勢推定装置118の修正器120によって受信されることがある。修正器120は、姿勢推定装置118によってデータストリームを使用可能にするため、第2の種類のデータストリームを修正するように構成されてもよい。具体的には、修正器120は、任意の数の第2の種類のデータストリーム130を、任意の数の処理された第1の種類のデータストリームに変換することができる。次いで、第1の種類のデータストリームはすべて、姿勢推定122を生成するため、姿勢推定装置118によって処理されてもよい。
1つの例示的な実施例として、第2の種類のデータストリーム133は、複数のデータシステム128の1つによって生成されることがある。この実施例では、第2の種類のデータストリーム133は、一又は複数のオドメトリ技術を用いて生成されてもよい。修正器120は、姿勢推定装置118によって使用される修正されたデータストリーム135を形成にするため、第2の種類のデータストリーム133を修正するように構成されてもよい。修正器120は、任意の数の技術を用いて、第2の種類のデータストリーム133を修正されたデータストリーム135に変換してもよい。1つの例示的な実施例として、修正器120は、修正されたデータストリーム135を形成するため、第2の種類のデータストリーム133に確率分布137を適用することができる。
実装に応じて、確率分布137はガウス分布又は他の何らかの種類の確率分布になることがある。確率分布137は、既定の確率分布であってもよい。例えば、限定するものではないが、確率分布137は、数学モデルを用いて、或いは環境100内で任意の数の操作116を実施するために移動式ロボット106が使用される前に他の何らかの方法によって、経験的に決定されてもよい。
第2の種類のデータストリーム133を修正されたデータストリーム135に変換することによって、移動式ロボット106の物理学的なモデルを用いて生成される確率データに対するニーズは不要になることがある。具体的には、上述の方程式(1)の項p(xt+1|x)は、物理学的なモデルの代わりに複数のデータシステム128から、データストリーム127のうちの少なくとも1つを用いて提供されてもよい。例えば、限定するものではないが、姿勢推定装置118は、上述の方程式(1)の項p(xt+1|x)を提供するため、複数のデータシステム128のオドメトリシステムからデータストリームを用いてもよい。項p(xt+1|x)は、時刻tにおける移動式ロボット106の姿勢を前提とした時刻t+1における移動式ロボット106の姿勢の確率である。
このように、確率分布は、任意の数の修正されたデータストリーム129を形成するため、任意の数の第2の種類のデータストリーム130の各々に適用されてもよい。任意の数の修正されたデータストリーム129の各々は、任意の数の第1の種類のデータストリーム132の各々と同一であってもよい。任意の数の修正されたデータストリーム129及び任意の数の第1の種類のデータストリーム132は、姿勢推定122を形成するため、姿勢推定装置118によって使用される複数のデータストリーム126を形成してもよい。
この例示的な実施例では、複数のデータシステム128は任意の数の搭載型データシステム134及び任意の数の非搭載型データシステム136を含むことがある。本明細書で使用されるように、「搭載型データシステム」は、任意の数の搭載型データシステム134の1つなどのように、移動式ロボット106に搭載のデータストリームを生成するように構成されてもよい。場合によっては、搭載型データシステムは、制御装置114から完全に分離されていてもよい。他の例示的な実施例では、搭載型データシステムの少なくとも一部は、制御装置114内に実装されてもよく、或いは制御装置114に組み込まれてもよい。搭載型データシステムによって生成されるデータストリームは、データストリームが第2の種類のデータストリーム又は第1の種類のデータストリームであるかどうかに応じて、姿勢推定装置118又は修正器120によって受信されてもよい。
搭載型データシステム144は、任意の数の搭載型データシステム134の1つの実施例であってもよい。搭載型データシステム144は、受動素子、能動素子、プロセッサユニット、集積回路、マイクロプロセッサ、センサシステム、ターゲット、或いは他の何らかの種類のデバイス又は素子のうちの少なくとも1つを含みうる。データストリームを生成する搭載型データシステム144の少なくとも一部は、移動式ロボット106に搭載型で配置される。このように、搭載型データシステム144はすべてが移動式ロボット106に搭載型で配置されてもよく、或いは搭載型データシステム144の一部が搭載型で配置されて、別の部分は非搭載型で配置されてもよい。
本明細書で使用されるように、「非搭載型データシステム」は、任意の数の非搭載型データシステム136の1つのように、移動式ロボット106に対して遠く離れてデータストリームを生成するように構成されてもよい。非搭載型データシステムによって生成されるデータストリームは次いで、例えば、限定するものではないが、無線通信リンクを用いて、制御装置114に送信されてもよい。
非搭載型データシステム145は、任意の数の非搭載型データシステム136の1つの一実施例となりうる。非搭載型データシステム145は、受動素子、能動素子、プロセッサユニット、集積回路、マイクロプロセッサ、センサシステム、ターゲット、或いは他の何らかの種類のデバイス又は素子のうちの少なくとも1つを含みうる。データストリームを生成する非搭載型データシステム145の少なくとも一部は、移動式ロボット106に非搭載型で配置される。このように、非搭載型データシステム145はすべてが非搭載型で配置されてもよく、或いは非搭載型データシステム145の一部が非搭載型で配置され、別の部分は搭載型で配置されてもよい。
加えて、制御装置114は、経路117に沿って移動式ロボット106が移動する際の誤差を低減するように構成されることがある。具体的には、制御装置114は、移動式ロボット106を経路117沿いの初期位置138から経路117沿いの所望の位置140まで、選択された許容誤差の範囲内で移動させる際の確率誤差を低減することができる。1つの例示的な実施例では、制御装置114は、この確率誤差を低減するように、一又は複数の搭載型データシステム134を用いることがある。
具体的には、制御装置114は、移動式ロボット106を経路117沿いの初期位置138から経路117沿いの所望の位置140まで移動させる際の確率誤差を低減するため、環境100内の任意の数の目印142を観測するように構成されている、任意の数の搭載型データシステム134の一又は複数を用いてもよい。任意の数の目印142のうちの1つの目印は、環境100内の任意の認識可能な特徴であってよい。例えば、限定するものではないが、目印は柱、プラットフォーム、構造的特徴、機器、人工構造物、ターゲット、ラベル、或いは他の何らかの種類の目印の形態を取ってもよい。
この例示的な実施例では、搭載型データシステム144は、移動式ロボット106が環境100内の初期位置138にある間に、環境100内の任意の数の目印142のうちの少なくとも1つを観測することができるセンサシステムを含みうる。例えば、限定するものではないが、搭載型データシステム144は、初期位置138にある間に、任意の数の目印142のうちの目印146を観測することがある。目印146の観測は選択された回数行われることがある。例えば、目印146のN回の観測が行われる。
目印146は、実装に応じて、自然の目印又は人工の目印であってもよい。この例示的な実施例では、目印146は固定的な目印であってもよい。しかしながら、他の例示的な実施例では、目印146は移動式であってもよく、必要に応じて環境100内で移動可能であってもよい。幾つかの例示的な実施例では、目印146は人であってもよい。
搭載型データシステム144は、移動式ロボット106の初期位置138と目印146との間の初期相対距離を特定するために使用されてもよい。目印146の観測回数が増えるにつれ、移動式ロボット106の初期位置と目印146との間の初期相対距離の誤差は減少する。誤差の減少は中心極限定理に基づいている。
具体的には、中心極限定理は、nを実施される総観測回数として、誤差はnの平方根分だけ低減されるように適用される。中心極限定理によれば、ある条件下では、n個の独立で一様分布している確率変数の総和は、適切に回数を重ねると、標準正規分布となる分布に集束する。したがって、1つの例示的な実施例では、nを増加させると、経験的共分散は次の式に示す割合で減少する。
Figure 2015197925

ここでσは平均の標準偏差である。
移動式ロボット106は、搭載型データシステム144のセンサシステムの視野内で目印146を見失うことなく、所望の位置140へ向かって可能な限り遠くの新しい位置まで移動される。搭載型データシステム144は、移動式ロボット106の新しい位置と現在の目印146との間の新しい相対距離を特定することができる。初期相対距離と新しい相対距離との間の差分は、移動式ロボット106の新しい位置を決定するため、最小の誤差で計算されて使用されうる。
新しい位置が、選択された許容誤差の範囲内で所望の位置140にない場合には、移動式ロボット106は、新しい目印147を用いて、所望の位置140により近くなるように移動されることがある。具体的には、搭載型データシステム144は、新しい位置にある間に、任意の数の目印142の中の新しい目印147を探すことがある。新しい位置にある間に、搭載型データシステム144は、新しい目印147を選択された数であるN回観測してもよい。このように、新しい目印147は、新しい位置で目印146と「関連づけられている」とみなされることがある。
所望の位置140に可能な限り近い別の位置まで移動する処理及び他の位置にある間に実施される操作は、上述のように反復されることがある。この種の移動及び処理は、移動式ロボット106が、選択された許容誤差の範囲内で所望の位置140に到達するまで、反復されることがある。この種の処理は、任意の数の目印142を用いて、任意の数の目印142の各々の目印を選択された数であるN回観測することなく移動式ロボット106を移動することと比較して、初期位置138から所望の位置140まで選択された許容誤差の範囲内で移動式ロボット106を移動することに関連する誤差全体を低減することができる。
ここで図2を参照すると、例示的実施形態による図1の複数のデータシステム128の図解が、ブロック図の形態で示される。図示されているように、複数のデータシステム128は任意の数の搭載型データシステム134及び任意の数の非搭載型データシステム136を含むことがある。
この例示的な実施例では、複数のデータシステム128は、慣性測定装置202、色及び奥行きオドメトリシステム204、車輪オドメトリシステム206、視覚オドメトリシステム208、光検出及び測距システム210、インドア全地球測位システム212、モーションキャプチャシステム214、及びレーザーシステム216を含みうる。慣性測定装置202、色及び奥行きオドメトリシステム204、車輪オドメトリシステム206、視覚オドメトリシステム208、並びに光検出及び測距システム210は、任意の数の搭載型データシステム134の一部であってもよい。インドア全地球測位システム212、モーションキャプチャシステム214、及びレーザーシステム216は、任意の数の非搭載型データシステム136の一部であってもよい。
この例示的な実施例では、慣性測定装置202は、速度、方向、及び加速度を感知することによって、環境100内での移動式ロボット106の相対的変位を測定することができる。慣性測定装置202は、データストリーム127の1つとして制御装置114に送信されるデータストリーム203を生成してもよい。慣性測定装置202が実装される方法に応じて、データストリーム203は、任意の数の第1の種類のデータストリーム132の1つ又は任意の数の第2の種類のデータストリーム130の1つとみなされることがある。
色及び奥行きオドメトリシステム204は、環境100の色データ及び奥行きデータを提供するために使用されることがある。車輪オドメトリシステム206は、図1の移動システム110が車輪を含む場合に、環境100内で移動式ロボット106の相対的変位を測定するために使用されることがある。視覚オドメトリシステム208は、環境100内で移動式ロボット106の相対的変位を推定するためカメラを使用してもよい。光検出及び測距システム210は、環境100のレーザースキャンを生成してもよい。
色及び奥行きオドメトリシステム204、車輪オドメトリシステム206、視覚オドメトリシステム208、並びに光検出及び測距システム210の各々は、移動式ロボット106に搭載型で配置されてもよい。1つの例示的な実施例では、色及び奥行きオドメトリシステム204、車輪オドメトリシステム206、視覚オドメトリシステム208、並びに光検出及び測距システム210は、データストリーム127の一部として制御装置114に送信される、データストリーム205、データストリーム207、データストリーム209、及びデータストリーム211をそれぞれ生成することがある。この例示的な実施例では、データストリーム205、データストリーム207、データストリーム209、及びデータストリーム211の各々は、実装に応じて、任意の数の第1の種類のデータストリーム132又は任意の数の第2の種類のデータストリーム130に含まれることがある。この例示的な実施例では、データストリーム205、データストリーム207、データストリーム209、及びデータストリーム211の各々は、任意の数の第2の種類のデータストリーム130に含まれることがある。
他の例示的な実施例では、色及び奥行きオドメトリシステム204、車輪オドメトリシステム206、視覚オドメトリシステム208、並びに光検出及び測距システム210によってそれぞれ生成される、一又は複数のデータストリーム205、データストリーム207、データストリーム209、及びデータストリーム211は、ローカライザ及びマッパ218に送信されることがある。ローカライザ及びマッパ218は、実装に応じて、図1の制御装置114内に実装されること、或いは制御装置114から分離されることがある。
さらに、ローカライザ及びマッパ218は、実装に応じて、二次元ローカライザ及びマッパ220、又は三次元ローカライザ及びマッパ222の形態を取ることがある。場合によっては、色及び奥行きオドメトリシステム204、車輪オドメトリシステム206、視覚オドメトリシステム208、光検出及び測距システム210、並びにローカライザ及びマッパ218は共に、位置特定及びマッピングシステム224を形成することがある。位置特定及びマッピングシステム224は、任意の数の搭載型データシステム134の1つの搭載型データシステムとみなされることがある。
ローカライザ及びマッパ218は、環境100の計測マップを推定し、同時にローカライザ及びマッパ218で受信したすべてのデータストリームに基づくこの計測マップ内での移動式ロボット106の姿勢推定を行うように構成されてもよい。計測マップは、実装に応じて、二次元又は三次元となることがある。1つの例示的な実施例では、ローカライザ及びマッパ218は、同時位置特定及びマッピング(SLAM)システムと称されることがある。これらの実施例では、環境100の計測マップの推定及びこの計測マップ内の移動式ロボット106の姿勢の推定は、データストリーム127の1つとして、図1の制御装置114へデータストリーム213の形態で送信されることがある。データストリーム213は、任意の数の第1の種類のデータストリーム132の1つ又は任意の数の第2の種類のデータストリーム130の1つとなることがある。
この例示的な実施例では、インドア全地球測位システム212は、任意の数のセンサデバイス226、任意の数のトランスミッタ228、及びサーバー230を含む。任意のセンサデバイス226が移動式ロボット106に搭載型で配置されるのに対して、任意の数のトランスミッタ228は非搭載型で配置されてもよい。
任意の数のトランスミッタ228は、任意の数の光信号229を生成するように構成されてもよい。任意の数の光信号229は、レーザー信号、赤外線信号、或いは他の何らかの種類の光信号のうちの少なくとも1つを含みうる。任意の数のセンサデバイス226は、受動的であって、任意の数のトランスミッタ228から送信される任意の数の光信号229を感知するために使用されることがある。任意の数のセンサデバイス226は、感知された任意の数の光信号229に関する光データ231をサーバー230に送信してもよい。
サーバー230は、環境100内で移動式ロボット106の経時的な姿勢を推定するため、このデータを使用するように構成されてもよい。経時的に生成される推定は、データストリーム127の1つとして制御装置114に送信されうるデータストリーム233を形成してもよい。データストリーム233は、実装に応じて、任意の数の第1の種類のデータストリーム132の1つ、又は任意の数の第2の種類のデータストリーム130の1つとなることがある。サーバー230は非搭載型で配置されることがある。このように、サーバー230は、インドア全地球測位システム212を任意の数の非搭載型データシステム136の1つとする非搭載型データソースであってもよい。
モーションキャプチャシステム214は、モーションキャプチャターゲット232、画像撮影システム234、及びモーションキャプチャサーバー236を含んでもよい。モーションキャプチャターゲット232は受動的であって、移動式ロボット106に搭載型で配置されてもよい。画像撮影システム234は、図1の環境100内で非搭載型で配置され、モーションキャプチャターゲット232に対してモーションキャプチャデータ235を生成し、モーションキャプチャターゲット232を追跡するように使用されることがある。モーションキャプチャシステム214によって生成されるモーションキャプチャデータ235は、さらなる処理のためにモーションキャプチャサーバー236へ送信されることがある。
モーションキャプチャサーバー236は次いで、モーションキャプチャデータ235をデータストリーム127の1つとして、データストリーム237の形態で制御装置114へ送信することがある。場合によっては、モーションキャプチャサーバー236は、モーションキャプチャデータ235を処理して、データストリーム237を形成することがある。データストリーム237は、実装に応じて、任意の数の第1の種類のデータストリーム132の1つ、又は任意の数の第2の種類のデータストリーム130の1つとなることがある。モーションキャプチャサーバー236は、環境100内に非搭載型で配置されてもよい。このように、モーションキャプチャサーバー236は、モーションキャプチャシステム214を任意の数の非搭載型データシステム136の1つとする非搭載型データソースとみなされることがある。
図示しているように、レーザーシステム216は、レーザーターゲット238及びレーザーセンサ240を含むことがある。レーザーターゲット238は受動的であって、移動式ロボット106に搭載型で配置されてもよい。レーザーセンサ240は環境100内に非搭載型で配置され、レーザーターゲット238の運動の追跡に使用されることがある。レーザーセンサ240は、経時的にデータストリーム241を形成しうる移動式ロボット106の姿勢推定を生成するため、レーザーターゲット238の位置を測定し、このデータを処理することがある。データストリーム241は、実装に応じて、任意の数の第1の種類のデータストリーム132の1つ、又は任意の数の第2の種類のデータストリーム130の1つとなることがある。レーザーセンサ240は、データストリーム127の1つとして制御装置114にデータストリーム241を送信してもよい。
このように、データストリーム127を生成するため、様々な種類のセンサシステム及びデバイスが使用されることがある。データストリーム127の中の任意の数の第2の種類のデータストリーム130は、任意の数の修正されたデータストリーム129を形成するため、図1の修正器120によって処理されることがある。図1の任意の数の修正されたデータストリーム129及び任意の数の第1の種類のデータストリーム132は共に、姿勢推定122を生成するため、姿勢推定装置118によって使用される図1の複数のデータストリーム126を形成してもよい。
ここで図3を参照すると、図2で説明されているように、搭載型で配置される複数のデータシステム128のコンポーネント及び非搭載型で配置される複数のデータシステムの128のコンポーネントが、例示的な実施形態により図示されている。図示されているように、図2の複数のデータシステム128の幾つかのコンポーネントは搭載型300で配置されており、一方、図2の複数のデータシステム128の他のコンポーネントは非搭載型302で配置されている。図3では、搭載型300は図1の移動式ロボット106に搭載されることを意味し、非搭載型302は図1の移動式ロボット106に対して非搭載であることを意味する。
具体的には、図2の慣性測定装置202、色及び奥行きオドメトリシステム204、車輪オドメトリシステム206、視覚オドメトリシステム208、光検出及び測距システム210、並びにローカライザ及びマッパ218は、搭載型300で配置される。さらに、図2の任意の数のセンサデバイス226、モーションキャプチャターゲット232、及びレーザーターゲット238も搭載型300で配置される。任意の数のトランスミッタ228、サーバー230、画像撮影システム234、モーションキャプチャサーバー236、及びレーザーセンサ240は非搭載型で配置されてもよい。
1つの例示的な実施例では、色及び奥行きオドメトリシステム204、車輪オドメトリシステム206、視覚オドメトリシステム208、並びに光検出及び測距システム210は、それぞれデータストリーム205、データストリーム207、データストリーム209、及びデータストリーム211を、ローカライザ及びマッパ218に送信する。ローカライザ及びマッパ218は次いで、これらのデータストリームを用いてデータストリーム213を形成し、データストリーム213を図1の制御装置に送信するが、制御装置も搭載型300で配置されている。慣性測定装置202は、データストリーム203を制御装置114に直接送信してもよい。この例示的な実施例では、これらのデータストリームは、任意の数の有線又は無線通信リンクを用いて、制御装置114に送信されてもよい。
さらに、サーバー230、モーションキャプチャサーバー236、及びレーザーセンサ240は、データストリーム233、データストリーム237、及びデータストリーム241を制御装置114に送信することがある。この例示的な実施例では、これらのデータストリームは、無線により制御装置114に送信されてもよい。
制御装置114に送信されるデータストリームは、データストリームが図1の任意の数の第1の種類のデータストリーム132中の1つの第1の種類のデータストリームである場合には姿勢推定装置118によって、或いはデータストリームが図1の任意の数の第2の種類のデータストリーム130中の1つの第2の種類のデータストリームである場合には修正器120によって、受信されることがある。
図1の環境100、図2の複数のデータシステム128、並びに図3の搭載型300及び非搭載型302で配置されるコンポーネントの図解は、例示的な実施形態が実装されうる方法に対する物理的又は構造的な制限を示唆することを意図していない。図示したコンポーネントに加えて又は代えて、他のコンポーネントが使用されうる。幾つかのコンポーネントは任意選択になることもある。また、ブロックは、幾つかの機能的なコンポーネントを示すために提示されている。例示的実施形態において実装される場合、一又は複数のこれらのブロックは結合、分割、又は異なるブロックに結合及び分割されることがある。
ここで図4を参照すると、例示的な実施形態による製造環境が図示されている。この例示的な実施例では、製造環境400は、図1の製造環境101の実装の一実施例である。図示されているように、航空機の翼402は製造環境400内で製造されることがある。航空機の翼402は、図1の物体103の実装の一実施例となりうる。
移動式ロボット404は、航空機の翼402の製造に必要なる操作を実施するために使用される。移動式ロボット404は、図1の任意の数の移動式プラットフォーム102への実装の一実施例となることがある。この例示的な実施例では、移動式ロボット404は、製造環境400のフロア406上を移動するように構成されてもよい。移動式ロボット404の各々は、製造環境400内でその位置を特定して、製造環境400内を通って移動することができる。
ここで図5を参照すると、例示的な実施形態による移動式ロボットが図示されている。この例示的な実施例では、移動式ロボット500は、図1の移動式ロボット106の実装の一実施例となることがある。さらに、移動式ロボット500は、図4の移動式ロボット404の各々が実装される方法の一実施例となることがある。
図示されているように、移動式ロボット500は、基部502、移動システム504、及び複数のデバイス506を含んでもよい。この例示的な実施例では、複数のデバイス506は、光検出及び測距システム508、色及び奥行きオドメトリシステム510、及びターゲット512を含むことがある。光検出及び測距システム508は、図2の光検出及び測距システム210の実装の一実施例であってもよい。色及び奥行きオドメトリシステム510は、図2の色及び奥行きオドメトリシステム204の実装の一実施例であってもよい。ターゲット512は、図2のモーションキャプチャターゲット232及びレーザーターゲット238に対する実装の一実施例であってもよい。
図4〜5の図解は、例示的な実施形態が実装される方法に対する物理的又は構造的な制限を示唆することを意図していない。図示したコンポーネントに加えて又は代えて、他のコンポーネントが使用されることがある。幾つかのコンポーネントは任意選択になることもある。
図4〜5に示す異なるコンポーネントは、図1〜3のブロック図の形態で示すコンポーネントを物理的な構造としてどのように実装できるかを示す実施例である。加えて、図4〜5のコンポーネントの幾つかは、図1〜3のコンポーネントと組み合わせること、図1〜3のコンポーネントと共に使用すること、又はこれら2つの場合を組み合わせることができる。
ここで図6を参照すると、例示的な実施形態による、環境内の移動式プラットフォームに対して姿勢推定を生成するための処理の図解がフロー図の形態で示されている。図6に図示された処理は、図1の任意の数の移動式プラットフォーム102の運動を管理するように実装可能である。
複数のデータストリーム126が任意の数の第1の種類のデータストリーム132及び任意の数の第2の種類のデータストリーム130を含む複数のデータストリーム126を生成することによって、処理は開始されてもよい(操作600)。次に、確率分布137は、任意の数の修正されたデータストリーム129を形成するため、任意の数の第2の種類のデータストリーム130の各々に適用されてもよい(操作602)。
その後、任意の数の第1の種類のデータストリーム132と任意の数の修正されたデータストリーム129は、移動式プラットフォーム104の周囲の環境100に対して所望の精度で、移動式プラットフォーム104の姿勢推定122を生成するように融合されてもよく(操作604)、その後処理は終了する。操作604では、融合は、姿勢推定122を生成するためベイズ推定法を用いることを意味することがある。
ここで図7を参照すると、例示的な実施形態による、製造環境内での移動式ロボットをガイドするための処理がフロー図の形態で図示されている。図7に示された処理は、図1の製造環境101内の移動式ロボット106の運動を管理するように実装されることがある。具体的には、図7の処理は、移動式ロボット106を環境100内の経路117に沿って動かす際の誤差を低減するために使用されることがある。
この処理は、移動式ロボット106が動かされる所望の位置140を特定することによって開始される(操作700)。次に、移動式ロボット106が現在の位置にある間に、環境100内の目印146を探すため、移動式ロボット106用の搭載型データシステム144のセンサシステムが使用される(操作702)。次に、移動式ロボット106が現在の位置にある状態で、搭載型データシステム144のセンサシステムを用いて、環境100内の現在の目印が選択された回数観測される(操作704)。次に、搭載型データシステム144は、移動式ロボット106の現在の位置と現在の目印との間の初期相対距離を特定する(操作706)。操作706では、この特定は推定であってもよい。
その後、移動式ロボット106は、搭載型データシステム144のセンサシステムの視野内で現在の目印を見失うことなく、移動式ロボット106の所望の位置140へ向かって可能な限り遠くの新しい位置までを動かされる(操作708)。移動式ロボット106が新しい位置にある間に、搭載型データシステム144のセンサシステムを用いて、現在の目印が選択された回数再観測される(操作710)。搭載型データシステム144は、移動式ロボット106の新しい位置と現在の目印との間の新しい相対距離を特定する(操作712)。操作712では、この特定は推定であってもよい。
搭載型データシステム144は、初期相対距離と新しい相対距離との間の差分を計算する(操作714)。次いで、移動式ロボット106の新しい位置の推定は、差分を用いて特定される(操作716)。次に、新しい位置が選択された許容誤差の範囲内で所望の位置140にあるかどうか、についての判断が行われる(操作718)。新しい位置が、選択された許容誤差の範囲内で所望の位置140にあれば、処理は終了する。
許容誤差の範囲内にない場合には、搭載型データシステム144は、新しい位置にある間に、新しい目印147を探す(操作720)。新しい位置にある間に、搭載型データシステム144は次いで、搭載型データシステム144のセンサシステムを用いて、新しい目印147を選択された回数観測する(操作722)。搭載型データシステム144は次いで、移動式ロボット106の新しい位置と新しい目印147との間の新しい相対距離を特定する(操作722)。操作722では、この特定は推定であってもよい。このように、新しい目印147は、新しい位置で目印146と「関連づけられている」とみなされることがある。次いで、処理は新しい目印147を現在の目印として、新しい位置を現在の位置として、また、相対距離を初期相対距離として再度特定し(操作724)、上述のように処理は次いで操作708に戻る。
ここで図8を参照すると、例示的な実施形態により、データ処理システムがブロック図の形態が図示されている。データ処理システム800は、図1の制御装置111を実装するために使用されることがある。図示されているように、データ処理システム800は、通信フレームワーク802を含み、これによってプロセッサユニット804、記憶デバイス806、通信ユニット808、入出力ユニット810、及びディスプレイ812の間の通信を提供する。場合によっては、通信フレームワーク802はバスシステムとして実装されてもよい。
プロセッサユニット804は、任意の数の操作を実施するソフトウェアのための命令を実行するように構成されている。プロセッサユニット804は、実装に応じて、任意の数のプロセッサ、マルチプロセッサコア、及び/又は他の種類のプロセッサを備えてもよい。場合によっては、プロセッサユニット804は、回路システム、特定用途向け集積回路(ASIC)、プログラマブル論理デバイスなどのハードウェアユニット、又は他の何らかの好適な種類のハードウェアユニットの形態を取ってもよい。
オペレーティングシステム、アプリケーション、及び/又はプロセッサユニット804によって実行されるプログラムに対する命令は、記憶デバイス806上に配置されてもよい。記憶デバイス806は、通信フレームワーク802を介してプロセッサユニット804と通信を行ってもよい。本明細書で使用されるように、記憶デバイスはまた、コンピュータ可読記憶デバイスと称されることもあり、一時的に及び/又は永続的に情報を記憶することができる任意のハードウェアの一部である。この情報は、限定するものではないが、データ、プログラムコード、及び/又は他の情報を含むことができる。
メモリ814及び固定記憶域816は、記憶デバイス806の実施例である。メモリ814は、例えば、ランダムアクセスメモリ又は何らかの種類の揮発性又は不揮発性の記憶デバイスの形態を取りうる。固定記憶域816は任意の数のコンポーネント又はデバイスを含みうる。例えば、固定記憶域816は、ハードドライブ、フラッシュメモリ、書換え型光ディスク、書換え可能磁気テープ、又はそれらの何らかの組み合わせを含みうる。固定記憶域816によって使用される媒体は着脱式であってもよく、着脱式でなくてもよい。
通信ユニット808により、データ処理システム800は、他のデータ処理システム及び/又はデバイスと通信することができる。通信ユニット808は、物理的な及び/又は無線の通信リンクを用いて通信することができる。
入出力ユニット810により、データ処理システム800に結合される他のデバイスとの間での入力の受信、出力の送信が可能となる。例えば、入出力ユニット810は、キーボード、マウス、及び/又は他の何らかの種類の入力デバイスを介してユーザー入力を受信することができる。別の実施例として、入出力ユニット810は、データ処理システム800に結合されたプリンタに出力を送信することができる。
ディスプレイ812はユーザーに情報を表示するように構成されている。ディスプレイ812は、例えば、限定するものではないが、モニタ、タッチスクリーン、レーザーディスプレイ、ホログラフィックディスプレイ、仮想表示デバイス、及び/又は他の何らかの種類のディスプレイデバイスを含みうる。
この例示的な実施例では、異なる例示的な実施形態の処理は、コンピュータに実装される命令を用いてプロセッサユニット804によって実施されてもよい。これらの命令は、プログラムコード、コンピュータで使用可能なプログラムコード、又はコンピュータ可読プログラムコードと呼ばれ、プロセッサユニット804内の一又は複数のプロセッサによって読取及び実行される。
これらの実施例では、プログラムコード818は、選択的に着脱可能でコンピュータ可読媒体820上に機能的な形態で配置され、プロセッサユニット804での実行用のデータ処理システム800に読込み又は転送することができる。プログラムコード818及びコンピュータ可読媒体820は、コンピュータプログラム製品822を形成する。この例示的な実施例では、コンピュータ可読媒体820は、コンピュータ可読記憶媒体824又はコンピュータ可読信号媒体826であってもよい。
コンピュータ可読記憶媒体824は、プログラムコード818を伝搬または伝送する媒体というよりはむしろ、プログラムコード818を記憶するために使用される物理的な又は有形の記憶装置である。コンピュータ可読記憶媒体824は、例えば、限定するものではないが、データ処理システム800に結合される光又は磁気ディスク或いは固定記憶デバイスの形態を取りうる。
代替的に、プログラムコード818はコンピュータ可読信号媒体826を用いてデータ処理システム800に転送可能である。コンピュータ可読信号媒体826は、例えば、プログラムコード818を含む伝播されたデータ信号であってもよい。このデータ信号は、物理的及び/又は無線の通信リンクを介して伝送されうる、電磁信号、光信号、及び/又は他の何らかの種類の信号であってもよい。
図8のデータ処理システム800の図は、例示的な実施形態が実装される方法に対する、構造的な制限を提示することを意図している訳ではない。種々の例示的な実施形態は、データ処理システム800に対して図解されているコンポーネントに対して追加的又は代替的なコンポーネントを含むデータ処理システム内に実装されることがある。さらに、図8に示したコンポーネントは、例示的な実施例と異なることがある。
図示した異なる実施形態でのフロー図及びブロック図は、装置及び方法の幾つかの可能な実行形態の構造、機能、及び作業を示している。これに関して、フロー図又はブロック図の各ブロックは、1つの操作又はステップの1つのモジュール、セグメント、機能及び/又は部分を表わすことができる。
例示的な実施形態の幾つかの代替的実装では、ブロックに記載された一又は複数の機能は、図中に記載の順序を逸脱して現れることがある。例えば、場合によっては、連続して示されている二つのブロックがほぼ同時に実行されること、又は時には含まれる機能によってはブロックが逆順に実施されることもありうる。また、フロー図又はブロック図に描かれているブロックに加えて他のブロックが追加されることもありうる。
本開示の例示的の実施形態は、図9に示す航空機の製造及び保守方法900と図10に示す航空機1000に関連して記載されることがある。最初に図9を参照すると、例示的な実施形態による、航空機の製造及び保守方法がブロック図の形態で図示されている。製造前の段階では、航空機の製造及び保守方法900は、図10の航空機1000の仕様及び設計902、並びに材料の調達904を含む。
製造段階では、図10の航空機1000のコンポーネント及びサブアセンブリの製造906、並びにシステムインテグレーション908が行われる。その後、図10の航空機1000は、認可および納品910を経て、運航912に供される。顧客による運航912中、図10の航空機1000は、定期的な整備および点検914(改造、再構成、改修、およびその他の整備または点検を含みうる)がスケジューリングされる。
航空機の製造及び保守方法900の各処理は、システムインテグレーター、第三者、及び/又はオペレータによって実施又は実行されることがある。これらの実施例では、オペレータは顧客であってもよい。本明細書の目的では、システムインテグレーターは、限定するものではないが、任意の数の航空機製造者、および主要システムの下請業者を含むことができ、サードパーティは、限定するものではないが、任意の数のベンダー、下請業者、および供給業者を含むことができ、オペレータは航空会社、リース会社、軍事団体、サービス機関などであってよい。
ここで図10を参照すると、例示的実施形態が実装されうる航空機がブロック図の形態で示される。この実施例では、航空機1000は、図9の航空機の製造及び保守方法900によって製造され、複数のシステム1004及び内装1006を有する機体1002を含むことができる。システム1004の実施例には、一又は複数の推進システム1008、電気システム1010、油圧システム1012、及び環境システム1014が含まれる。任意の数の他のシステムが含まれてもよい。航空宇宙産業の例を示したが、自動車産業などの他の産業に種々の例示的な実施形態を適用することができる。
本明細書で具現化される装置および方法は、図9の航空機の製造および保守方法900のうちの少なくとも1つの段階で採用可能である。特に、任意の数の移動式プラットフォーム102は、航空機の製造および保守方法900の任意の段階で使用可能である。例えば、限定するものではないが、任意の数の移動式プラットフォーム102は、コンポーネント及びサブアセンブリの製造906、システムインテグレーション908、定期的な製造及び保守914、又は航空機の製造及び保守方法900のうちの少なくとも1つで操作を実施するために使用可能である。
1つの例示的な実施例では、図9のコンポーネント及びサブアセンブリの製造906で製造されるコンポーネント又はサブアセンブリは、図9で航空機1000の運航912中に製造されるコンポーネント又はサブアセンブリと同様の方法で作製又は製造される。さらに別の実施例では、一又は複数の装置の実施形態、方法の実施形態、又はこれらの組み合わせを、図9のコンポーネント及びサブアセンブリの製造906並びにシステムインテグレーション908などの製造段階で利用することができる。一又は複数の装置の実施形態、方法の実施形態、又はこれらの組み合わせを、航空機1000が図9における運航912、及び/又は整備及び保守914の間に、利用することができる。任意の数の種々の例示的実施形態の利用により、航空機1000の組立てを大幅に効率化すること、及び/又はコストを削減することができる。
種々の例示的な実施形態の説明は、例示及び説明を目的として提供されているものであり、網羅的な説明であること、又は開示された形態に実施形態を限定することを意図していない。当業者には、多数の修正例及び変形例が明らかであろう。さらに、種々の例示的な実施形態は、他の好ましい実施形態に照らして別の利点を提供することができる。選択された一又は複数の実施形態は、実施形態の原理、実際の用途を最もよく説明するため、及び、様々な実施形態の開示内容と考慮される特定の用途に適した様々な修正との理解を、他の当業者に対して促すために選択及び記述されている。
したがって、要約すると、本発明の第1の態様により、以下が提示される。
A1. 任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含む複数のデータストリームを生成するように構成される複数のデータシステム;
任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用するように構成される修正器;及び
前記移動式プラットフォームの周囲の環境に対して所望の精度で、前記移動式プラットフォームの姿勢推定を生成するため、移動式プラットフォームに搭載型で配置され、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを受信して融合するように構成される姿勢推定器
を備える装置。
A2. 前記任意の数の第2の種類のデータストリームのうちの少なくとも1つは、前記複数のデータシステムの中のオドメトリシステムから受信される、段落A1に記載の装置も提示される。
A3. 前記複数のデータシステムの搭載型データシステムは、前記環境内の所望の位置に前記移動式プラットフォームを移動する際に使用するため、前記環境内で目印を選択された回数観測するように使用される、段落A1に記載の装置も提示される。
A4. 前記目印が観測される前記選択された回数を増やすことにより、前記環境内の前記所望の位置に前記移動式プラットフォームを移動する際の誤差全体を低減する、段落A3に記載の装置も提示される。
A5. 前記複数のデータシステムは、任意の数の搭載型データシステム及び任意の数の非搭載型データシステムを含む、段落A1に記載の装置も提示される。
A6. 前記任意の数の搭載型データシステムは、慣性測定装置、光検出及び測距システム、色及び奥行きオドメトリシステム、車輪オドメトリシステム、視覚オドメトリシステム、又は位置特定及びマッピングシステムのうちの少なくとも1つを含む、段落A5に記載の装置も提示される。
A7. 前記任意の数の非搭載型データシステムは、インドア全地球測位システム、モーションキャプチャシステム、又はレーザーシステムのうちの少なくとも1つを含む、段落A5に記載の装置も提示される。
A8. 前記姿勢推定は、前記環境に対して前記移動式プラットフォームの位置及び方向を含む、段落A1に記載の装置も提示される。
A9. 前記移動式プラットフォームは移動式ロボットであり、前記環境は製造環境である、段落A1に記載の装置も提示される。
A10. 前記姿勢推定装置は、前記姿勢推定を生成するため、ベイズ推定アルゴリズムを用いて、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合するように構成される、段落A1に記載の装置も提示される。
A11. 前記環境内で経路に沿って前記移動式プラットフォームをガイドするため、前記姿勢推定を使用するように構成されている制御装置をさらに備える、段落A1に記載の装置も提示される。
A12. 前記移動式プラットフォームは、前記姿勢推定に基づいて、前記制御装置によって制御されるように構成される移動システムを備える、段落A11に記載の装置も提示される。
B2. 基部;
前記基部に関連付けられ、任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含むデータストリームを複数のデータシステムから受信するように構成される制御装置
を備える移動式プラットフォームであって、
前記制御装置は、
任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用するように構成される修正器;及び
前記移動式プラットフォームの周囲の環境に対して所望の精度で、前記移動式プラットフォームの姿勢推定を生成するため、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを複数のデータストリームとして受信し、複数のデータストリームを融合するように構成される姿勢推定器;及び
前記基部に関連付けられ、前記環境内で前記移動式プラットフォームを移動するため、前記姿勢推定に基づいて前記制御装置によって制御されるように構成される移動システム
を備える移動式プラットフォーム。
C1. 環境内で移動式プラットフォームをガイドするための方法であって、
複数のデータシステムを用いて、任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含む生成すること;
任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用すること;及び
前記移動式プラットフォームの周囲の前記環境に対して所望の精度で、前記移動式プラットフォームの姿勢推定を生成するため、前記任意の数の第1の種類のデータストリームと前記任意の数の修正されたデータストリームを融合すること
を含む、方法。
C2. 前記移動式プラットフォームに対して生成される前記姿勢推定を用いて、前記環境内の経路に沿って前記移動式プラットフォームをガイドすることをさらに含む、段落C1に記載の方法も提示される。
C3. 前記任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの前記各々に前記確率分布を適用することは、
前記任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの前記各々の各データポイントに経験的共分散を適用することを含む、段落C1に記載の方法も提示される。
C4. 前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合することは、
前記所望の精度で前記姿勢推定を生成するため、ベイズ推定アルゴリズムを用いて、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合することを含む、段落C1に記載の方法も提示される。
C5. 任意の数の第1の種類のデータストリーム及び前記任意の数の第2の種類のデータストリームを生成することは、
色及び奥行きオドメトリシステム、車輪オドメトリシステム、視覚オドメトリシステム、光検出及び測距システム、又はローカライザ及びマッパのうちの少なくとも1つを用いて、任意の数の第2の種類のデータストリームを生成することを含む、段落C1に記載の方法も提示される。
C6. 前記移動式プラットフォームが現在の位置にある間に、搭載型データシステムを用いて、前記環境内の現在の目印を選択された回数観測すること;
前記移動式プラットフォームの前記現在の位置と前記現在の目印との間の初期相対距離を特定すること;及び
前記搭載型データシステムのセンサシステムの視野内で前記現在の目印を見失うことなく、前記移動式ロボットを前記現在の位置から所望の位置へ向かって可能な限り遠くの新しい位置まで移動式プラットフォームを動かすこと
をさらに含む、段落C1に記載の方法も提示される。
C7. 前記搭載型データシステムを用いて、前記現在の目印を前記選択された回数再観測すること;
前記移動式プラットフォームの前記新しい位置と前記現在の目印との間の新しい相対距離を特定すること;
前記初期相対距離と前記新しい相対距離との間の差分を計算すること;及び
前記差分を用いて、前記環境内で前記移動式プラットフォームの前記新しい位置を特定すること
をさらに含む、段落C6に記載の方法も提示される。
C8. 前記新しい位置が選択された許容誤差の範囲内で前記所望の位置にあるかどうかを判断すること;及び
前記新しい位置が選択された許容誤差の範囲内で前記所望の位置にないという判断に応答して、新しい目印を用いて前記移動式プラットフォームを前記所望の位置により近くなるよう移動すること
をさらに含む、段落C7に記載の方法も提示される。
C9. 前記新しい目印を用いて前記移動式プラットフォームを前記所望の位置により近くなるように移動することは、
前記搭載型データシステムを用いて前記新しい目印を探すこと;
前記移動式プラットフォームが前記新しい位置にある間に、前記搭載型データシステムを用いて前記新しい目印を前記選択された回数観測すること;及び
前記移動式プラットフォームの前記新しい位置と前記新しい目印との間の相対距離を特定すること
を含む、段落C8に記載の方法も提示される。
C10. 前記新しい目印を用いて前記移動式プラットフォームを前記所望の位置により近くなるように移動することは、
前記新しい目印を前記現在の目印として、前記新しい位置を前記現在の位置として、及び前記相対距離を前記初期相対距離として、再度特定すること;及び
前記移動式プラットフォームを前記現在の位置から前記新しい位置まで移動するステップ、前記移動式プラットフォームの前記新しい位置と前記現在の目印との間の前記新しい相対距離を特定するステップ、前記初期相対距離と前記新しい相対距離との間の前記差分を計算するステップ、前記差分を用いて前記環境内で前記移動式プラットフォームの前記新しい位置を特定するステップ、及び前記新しい位置が前記選択された許容誤差の範囲内で前記所望の位置にあるかどうかを判断するステップを反復すること
をさらに含む、段落C8に記載の方法も提示される。
C11. 前記移動式プラットフォームが前記選択された許容誤差の範囲内で前記所望の位置に到達するまで、前記新しい位置が前記選択された許容誤差の範囲内で前記所望の位置にないという判断に応答して、前記新しい目印を用いて前記移動式プラットフォームを前記所望の位置により近くなるよう前記移動式プラットフォームを移動する前記ステップを反復すること
をさらに含む、段落C10に記載の方法も提示される。
100 環境
101 製造環境
102 任意の数の移動式プラットフォーム
103 物体
104 移動式プラットフォーム
106 移動式ロボット
108 基部
110 移動システム
112 任意の数のツール
114 制御装置
115 フロア
116 任意の数の操作
117 経路
118 姿勢推定装置
120 修正器
121 位置推定
122 姿勢推定
123 方向推定
124 基準座標系
125 データストリーム
126 複数のデータストリーム
127 データストリーム
128 複数のデータシステム
129 任意の数の修正されたデータストリーム
130 任意の数の第2の種類のデータストリーム
132 任意の数の第1の種類のデータストリーム
133 第2の種類のデータストリーム
134 任意の数の搭載型データシステム
135 修正されたデータストリーム
136 任意の数の非搭載型データシステム
137 確率分布
138 初期位置
140 所望の位置
142 任意の数の目印
144 搭載型データシステム
145 非搭載型データシステム
146 目印
147 新しい目印
202 慣性測定装置
204 色及び奥行きオドメトリシステム
206 車輪オドメトリシステム
208 視覚オドメトリシステム
210 光検出及び測距システム
212 インドア全地球測位システム
214 モーションキャプチャシステム
216 レーザーシステム
218 ローカライザ及びマッパ
220 二次元ローカライザ及びマッパ
222 三次元ローカライザ及びマッパ
224 位置特定及びマッピングシステム
226 任意の数のセンサデバイス
228 任意の数のトランスミッタ
229 任意の数の光信号
230 サーバー
231 光データ
232 モーションキャプチャターゲット
234 画像撮影システム
235 モーションキャプチャデータ
236 モーションキャプチャサーバー
238 レーザーターゲット
240 レーザーセンサ
300 搭載型
302 非搭載型
400 製造環境
402 翼
404 移動式ロボット
406 フロア
500 移動式ロボット
502 基部
504 移動システム
506 複数のデバイス
508 光検出及び測距システム
510 色及び奥行きオドメトリシステム
512 ターゲット
800 データ処理システム
804 プロセッサユニット
806 記憶デバイス
808 通信ユニット
810 入出力ユニット
812 ディスプレイ
814 メモリ
816 固定記憶域
818 プログラムコード
820 コンピュータ可読媒体
822 コンピュータプログラム製品
824 コンピュータ可読記憶媒体
826 コンピュータ可読信号媒体
902 仕様及び設計
904 材料の調達
906 コンポーネント及びサブアセンブリの製造
908 システムインテグレーション
910 認可及び納品
912 運航
914 整備及び保守
1000 航空機
1002 機体
1004 システム
1006 内装
1008 推進システム
1010 電気システム
1012 油圧システム
1014 環境システム

Claims (15)

  1. 任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを含む複数のデータストリームを生成するように構成される複数のデータシステム;
    任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用するように構成されている修正器;及び
    前記移動式プラットフォームの周囲の環境に対して、所望の精度で前記移動式プラットフォームの姿勢推定を生成するため、移動式プラットフォームに搭載型で配置され、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを受信して融合するように構成される姿勢推定器
    を備える装置。
  2. 前記任意の数の第2の種類のデータストリームのうちの少なくとも1つは、前記複数のデータシステムの中のオドメトリシステムから受信される、請求項1に記載の装置。
  3. 前記複数のデータシステムの搭載型データシステムは、前記環境内の所望の位置に前記移動式プラットフォームを移動する際に使用するため、前記環境内の目印を選択された回数観測するように使用される、請求項1に記載の装置。
  4. 前記複数のデータシステムは、任意の数の搭載型データシステム及び任意の数の非搭載型データシステムを含む、請求項1に記載の装置。
  5. 前記姿勢推定は、前記環境に対する前記移動式プラットフォームの位置及び方向を含む、請求項1に記載の装置。
  6. 前記移動式プラットフォームは移動式ロボットであり、前記環境は製造環境である、請求項1に記載の装置。
  7. 前記姿勢推定装置は、前記姿勢推定を生成するため、ベイズ推定アルゴリズムを用いて、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合するように構成される、請求項1に記載の装置。
  8. 前記環境内で経路に沿って前記移動式プラットフォームをガイドするように、前記姿勢推定を使用するように構成されている制御装置をさらに備える、請求項1に記載の装置。
  9. 環境内で移動式プラットフォームをガイドするための方法であって、
    複数のデータシステムを用いて、任意の数の第1の種類のデータストリーム及び任意の数の第2の種類のデータストリームを生成すること;
    任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの各々に確率分布を適用すること;及び
    前記移動式プラットフォームの周囲の前記環境に対して、所望の精度で前記移動式プラットフォームの姿勢推定を生成するため、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合すること
    を含む方法。
  10. 前記移動式プラットフォームに対して生成される前記姿勢推定を用いて、前記環境内の経路に沿って前記移動式プラットフォームをガイドすることをさらに含む、請求項9に記載の方法。
  11. 前記任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの前記各々に前記確率分布を適用することは、
    前記任意の数の修正されたデータストリームを形成するため、前記任意の数の第2の種類のデータストリームの前記各々の各データポイントに経験的共分散を適用することを含む、請求項9に記載の方法。
  12. 前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合することは、
    前記所望の精度で前記姿勢推定を生成するため、ベイズ推定アルゴリズムを用いて、前記任意の数の第1の種類のデータストリーム及び前記任意の数の修正されたデータストリームを融合することを含む、請求項9に記載の方法。
  13. 前記任意の数の第1の種類のデータストリーム及び前記任意の数の第2の種類のデータストリームを生成することは、
    色及び奥行きオドメトリシステム、車輪オドメトリシステム、視覚オドメトリシステム、光検出及び測距システム、又はローカライザ及びマッパのうちの少なくとも1つを用いて、前記任意の数の第2の種類のデータストリームを生成することを含む、請求項9に記載の方法。
  14. 前記移動式プラットフォームが現在の位置にある間に、搭載型データシステムを用いて、前記環境内の現在の目印を選択された回数観測すること;
    前記移動式プラットフォームの前記現在の位置と前記現在の目印との間の初期相対距離を特定すること;及び
    前記搭載型データシステムのセンサシステムの視野内で前記現在の目印を見失うことなく、前記移動式プラットフォームを前記現在の位置から所望の位置へ向かって可能な限り遠くの新しい位置まで動かすこと
    をさらに含む、請求項9に記載の方法。
  15. 前記搭載型データシステムを用いて、前記現在の目印を前記選択された回数再観測すること;
    前記移動式プラットフォームの前記新しい位置と前記現在の目印との間の新しい相対距離を特定すること;
    前記初期相対距離と前記新しい相対距離との間の差分を計算すること;及び
    前記差分を用いて、前記環境内で前記移動式プラットフォームの前記新しい位置を特定すること
    をさらに含む、請求項14に記載の方法。
JP2015071009A 2014-04-02 2015-03-31 センサ融合を用いた環境内での位置特定 Active JP6804825B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/243,419 2014-04-02
US14/243,419 US9427867B2 (en) 2014-04-02 2014-04-02 Localization within an environment using sensor fusion

Publications (3)

Publication Number Publication Date
JP2015197925A true JP2015197925A (ja) 2015-11-09
JP2015197925A5 JP2015197925A5 (ja) 2019-06-27
JP6804825B2 JP6804825B2 (ja) 2020-12-23

Family

ID=53682434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015071009A Active JP6804825B2 (ja) 2014-04-02 2015-03-31 センサ融合を用いた環境内での位置特定

Country Status (9)

Country Link
US (1) US9427867B2 (ja)
EP (1) EP2927769B1 (ja)
JP (1) JP6804825B2 (ja)
KR (1) KR102359186B1 (ja)
CN (1) CN104977941B (ja)
BR (1) BR102015007157B1 (ja)
CA (1) CA2883622C (ja)
ES (1) ES2770730T3 (ja)
PT (1) PT2927769T (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947138B2 (en) 2014-04-15 2018-04-17 Huntington Ingalls Incorporated System and method for augmented reality display of dynamic environment information
US9734403B2 (en) * 2014-04-25 2017-08-15 Huntington Ingalls Incorporated Augmented reality display of dynamic target object information
US9864909B2 (en) 2014-04-25 2018-01-09 Huntington Ingalls Incorporated System and method for using augmented reality display in surface treatment procedures
WO2015191346A1 (en) 2014-06-09 2015-12-17 Huntington Ingalls Incorporated System and method for augmented reality display of electrical system information
US10504294B2 (en) 2014-06-09 2019-12-10 Huntington Ingalls Incorporated System and method for augmented reality discrepancy determination and reporting
US10915754B2 (en) 2014-06-09 2021-02-09 Huntington Ingalls Incorporated System and method for use of augmented reality in outfitting a dynamic structural space
WO2016011149A1 (en) 2014-07-16 2016-01-21 Huntington Ingalls Incorporated System and method for augmented reality display of hoisting and rigging information
CN105180955A (zh) * 2015-10-21 2015-12-23 福州华鹰重工机械有限公司 机动车实时精准定位方法及装置
EP3869538A1 (en) 2016-03-09 2021-08-25 Applied Materials, Inc. Correction of fabricated shapes in additive manufacturing
CN105938619A (zh) * 2016-04-11 2016-09-14 中国矿业大学 一种融合RGB和Depth信息的视觉里程计实现方法
US10353400B2 (en) 2016-05-23 2019-07-16 Asustek Computer Inc. Navigation system and navigation method
CN106227220A (zh) * 2016-09-28 2016-12-14 关健生 基于分布式框架的自主导航巡检机器人
CN107160419A (zh) * 2017-06-09 2017-09-15 东华大学 一种肌电信号控制的机械手运动机构
CN109866217B (zh) * 2017-12-01 2021-09-17 深圳市优必选科技有限公司 机器人里程定位方法、装置、终端设备及计算机存储介质
JP7167982B2 (ja) * 2018-05-31 2022-11-09 日本電気株式会社 出力装置、出力方法及び出力プログラム
DE102018121365A1 (de) * 2018-08-31 2020-04-23 RobArt GmbH Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
US11314254B2 (en) * 2019-03-26 2022-04-26 Intel Corporation Methods and apparatus for dynamically routing robots based on exploratory on-board mapping
CN110286682A (zh) * 2019-07-08 2019-09-27 国网山东省电力公司枣庄供电公司 一种电力仓储多功能安防探测机器人、方法及系统
KR102259247B1 (ko) * 2019-12-06 2021-06-01 한국로봇융합연구원 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템
JP2023540304A (ja) * 2020-09-01 2023-09-22 シーバ・テクノロジーズ・インコーポレイテッド オプティカルフロー、ホイールエンコーダおよび慣性計測装置での平面ロボットのデッドレコニング
FR3119142A1 (fr) * 2021-01-25 2022-07-29 Transdev Group Innovation Procédé de circulation d’un véhicule sur des voies de circulation, programme d’ordinateur, support d’informations et système de transport associés
CN113955136B (zh) * 2021-09-02 2024-04-05 浙江图盛输变电工程有限公司温州科技分公司 一种电网自动巡检无人机目标挂点校准中转站

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004133882A (ja) * 2002-05-10 2004-04-30 Royal Appliance Mfg Co 自律性マルチプラットフォーム・ロボットシステム
US20040167667A1 (en) * 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for filtering potentially unreliable visual data for visual simultaneous localization and mapping

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0570581B1 (en) * 1991-11-01 2001-12-05 Motorola, Inc. An improved accuracy sensory system for vehicle navigation
KR100506097B1 (ko) * 2004-02-04 2005-08-03 삼성전자주식회사 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치
US7689321B2 (en) 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
US7831094B2 (en) * 2004-04-27 2010-11-09 Honda Motor Co., Ltd. Simultaneous localization and mapping using multiple view feature descriptors
JP4686595B2 (ja) * 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
WO2008013568A2 (en) * 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
KR100809352B1 (ko) * 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
US8351646B2 (en) * 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
KR100877071B1 (ko) 2007-07-18 2009-01-07 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
CN101576384B (zh) * 2009-06-18 2011-01-05 北京航空航天大学 一种基于视觉信息校正的室内移动机器人实时导航方法
JP5490911B2 (ja) * 2009-10-30 2014-05-14 ユージン ロボット シーオー., エルティーディー. 移動ロボットの位置認識のための地図生成および更新方法
CN101712381B (zh) * 2009-11-13 2013-01-02 北京航空航天大学 一种基于多敏感器的定姿系统
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004133882A (ja) * 2002-05-10 2004-04-30 Royal Appliance Mfg Co 自律性マルチプラットフォーム・ロボットシステム
US20040167667A1 (en) * 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for filtering potentially unreliable visual data for visual simultaneous localization and mapping

Also Published As

Publication number Publication date
KR102359186B1 (ko) 2022-02-04
CN104977941B (zh) 2019-04-30
EP2927769A2 (en) 2015-10-07
BR102015007157A2 (pt) 2016-03-29
US20150283700A1 (en) 2015-10-08
PT2927769T (pt) 2020-02-14
EP2927769B1 (en) 2019-12-04
JP6804825B2 (ja) 2020-12-23
CA2883622C (en) 2017-07-11
US9427867B2 (en) 2016-08-30
KR20150114892A (ko) 2015-10-13
CA2883622A1 (en) 2015-10-02
CN104977941A (zh) 2015-10-14
EP2927769A3 (en) 2016-07-20
ES2770730T3 (es) 2020-07-02
BR102015007157B1 (pt) 2021-07-27

Similar Documents

Publication Publication Date Title
JP6804825B2 (ja) センサ融合を用いた環境内での位置特定
US8838273B2 (en) System for autonomously dispensing media on large scale surfaces
Leishman et al. Relative navigation approach for vision-based aerial GPS-denied navigation
EP3048416B1 (en) Method and system for determining shim dimensions using an aerial drone
JP6433122B2 (ja) 強化された移動プラットフォームの位置決め
US20180164124A1 (en) Robust and stable autonomous vision-inertial navigation system for unmanned vehicles
JP6545279B2 (ja) 衝突は発生しないかについて、車両が辿るべき目標軌跡を監視するための方法及び装置
US10725478B2 (en) Robotic-mounted monument system for metrology systems
Mai et al. Local positioning system using UWB range measurements for an unmanned blimp
EP2495527B1 (en) Photogrammetry measurement system
JP2017159441A (ja) 自己位置決めロボット
Wang et al. Quadrotor autonomous landing on moving platform
Li et al. Relative state estimation of model-unknown spinning noncooperative target using stereo EKF-SLAM
Matsubara et al. Improvement in measurement area of three-dimensional LiDAR using mirrors mounted on mobile robots
Naheem et al. Tracking feasibility of UWB positioning system for lighter-than-air indoor robot navigation
Shaqura et al. Human supervised multirotor UAV system design for inspection applications
Bernatz et al. Navigation of a low flying vtol aircraft with the help of a downwards pointing camera
Weiss et al. Methods for evaluation of human-in-the-loop inspection of a space station mockup using a quadcopter
d’Apolito et al. System architecture of a demonstrator for indoor aerial navigation
Park et al. Terrain relative navigation for precise lunar landing using crater matching algorithm
Xia et al. Extended Preintegration for Relative State Estimation of Leader-Follower Platform
Sridhar et al. Location Determination of an Unmanned Aerial Vehicle in a GPS-Denied, Hazard-Cluttered Indoor Environment
Krüger et al. Single-Layer Laser Scanner for Detection and Localization of Unmanned Swarm Members
Guo et al. Control and Robust Vision Relative Navigation for Autonomous Aerial Refueling
Martinet Navigation and localization in large working volumes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201203

R150 Certificate of patent or registration of utility model

Ref document number: 6804825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250