JP2005310109A - 自己較正センサー指向システム - Google Patents

自己較正センサー指向システム Download PDF

Info

Publication number
JP2005310109A
JP2005310109A JP2005039860A JP2005039860A JP2005310109A JP 2005310109 A JP2005310109 A JP 2005310109A JP 2005039860 A JP2005039860 A JP 2005039860A JP 2005039860 A JP2005039860 A JP 2005039860A JP 2005310109 A JP2005310109 A JP 2005310109A
Authority
JP
Japan
Prior art keywords
sensor means
actuator
sensor
mapping function
input space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005039860A
Other languages
English (en)
Inventor
Frank Joublin
フランク・ジュブラン
Tobias Rodemann
トビアス・ローデマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2005310109A publication Critical patent/JP2005310109A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39367Using a motion map, association between visual position and joint position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40003Move end effector so that image center is shifted to desired position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40617Agile eye, control position of camera, active vision, pan-tilt camera, follow object

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

【課題】人的関与を伴わずに高い精度でシステムの自動較正を可能にする指向システム制御方法および自己較正指向システムを提供する。
【解決手段】本発明は、センサー手段(1)、およびセンサー手段の指向および/または位置決め動作を制御するためのアクチュエータ手段(41,42,43)を具備する指向/位置決めシステムの制御に関する。これによって以下のステップ、すなわち、S1=センサー手段の動作前アウトプット情報を評価;S2=目標動作後ポジションを決定;S3=既定の写像関数を用いて、アクチュエータ制御座標へ、動作前・後ポジションの偏差を写像し、アクチュエータ手段用のコマンドを形成;S4=アクチュエータ手段を制御;S5=実際の動作後ポジションを検出;S6=写像関数の増分適合学習を実行;の6ステップが実行され、これらステップS1ないしS6は、個々に適合された写像を用いて、周期的に少なくとも一度繰り返される。
【選択図】 図3a

Description

本発明はセンサー手段を有する指向/位置決めデバイスの制御に関する。そのインプット空間は、指向/位置決めデバイスの駆動手段によって制御される現実世界での動作によって変更可能である。ゆえに、むしろ、センサー手段のインプット空間で認識されたパターンが、たとえばセンサー手段のインプット空間座標の中心のような目標ポジションへと移されるようセンサー手段を指向/位置決めすることが予見される。
本発明の背景は指向/位置決めデバイスの分野である。ここで、これを図1および図2を参照して説明する。それに関して図1はステレオカメラを示し、これはいくつかの自由度内で方向付けることができる。ここで、図示のカメラは、カメラのインプット空間内のどこかに存在する検出された可視目標がインプット空間の原点へと移動するよう方向付けられると仮定する。図2は、上記目的を達成するために動作(すなわちカメラの動き)を計算し実行するための公知プロセスを示す。第1のステップでは、センサーの多ディメンジョンインプット空間での目標ポジションに関する決定をなすためにセンサー(ここではカメラ)のアウトプットが評価される。この目標ポジションはたとえば認識された音源であってもよい。さらなるステップでは、センサー座標(角度その他)はモーター座標(電圧、電流その他)へと写像される。これには、カメラの以前に決定された新しい指向のために必要なアクチュエータ(モーター)コマンドを生成するため、既定の検索テーブルまたは解析関数が利用される。
明示(explicit)方向情報を提供するセンサー手段用の典型的な例は、たとえばイメージセンサーアレイ(array)、レーダーイメージセンサーアレイまたはケミカルレセプターセンサーアレイである。暗示(implicit)方向情報を提供する典型的なセンサー手段は、音源を突き止めるためのステレオマイクロフォンの使用である。暗示方向情報を提供するセンサー手段は、上記方向情報が使用可能である前に方向情報の抽出が必要である。
方向情報を提供するセンサーを具備するロボットは指向ロボットとして公知である。そうした指向ロボットにとっては、適切に作動するために頻繁に較正を必要とすることが欠点である。そうした較正は、システムジオメトリーにおけるあらゆる変化(たとえばセンサーとロボットのアクチュエータとの間の物理的関係が変わったとき)の後、あらゆる変更(たとえばレンズ交換、モーター変更)の後、そしてロボットが、変化するかあるいは制御されていない環境で使用される場合になされなければならない。
ある環境では、ユーザーによる手動較正は不可能であるか、あるいは望まれない(たとえばロボットが他の惑星に送られる探査機(probe)である場合)。さらに、システムジオメトリーが頻繁に変化する場合、センサーまたはモーターが頻繁に変更される場合、または制御されていない環境の場合、頻繁な較正は非常に時間を消費しかつ手間が掛かる。
それゆえ、自己較正指向(self-calibrating orienting)ロボットが提案された。
そうした自己較正指向ロボットは、通常、較正シナリオ、数学的解析、または人的監視によるパラメーター/ハードウェア調整を使用する。
上記較正技術の全ては、以下の不都合の一つを欠点として持つ。
較正シナリオの使用は、通常、ロボットのアクチュエータが基準ポイントまで復帰することを必要とする。それゆえ、新しいおよび/または制御されていない環境での頻繁な較正は不可能である。その上、上記基準ポイントを用いた頻繁な較正は、モーター応答の非線形性に関する問題を解決するのに十分なものではない。
数学的解析による較正は、たびたび顕著な単純化に帰着する、いくつかの暗黙の仮定を必要とするという欠点を持つ。たいていは変化量の部分集合のみが考慮される。ゆえに上記較正方法の精度はたいてい不十分である。さらに、数学的解析による較正は、オンライン較正に関して、高度な複雑性に起因してしばしば適切さを欠く。最後に、この解析は、設定の任意またはやむを得ない変更のために再定義(re-defined)されなければならない。
人的監視によるパラメーター/ハードウェア調整は、専門家の関与を要するという欠点がある。それゆえ、この較正解決法は自律ロボットには適しない。その上、この較正技術は、たいてい非常に時間を消費しかつ専門家の経験に著しく依存する。
それゆえ本発明の目的は、指向システム制御方法および自己較正指向システムを提供することである。これは人的関与を伴わずに高い精度でシステムの自動較正を可能にする。
本発明のさらなる目的は、モーター/センサー応答における非線形性を扱うのに適し、かつメンテナンスが不可能であるかあるいは望まれない変化するおよび/または制御されていない環境で使用されるのに適した指向システム制御方法および自己較正指向システムを提供することである。
上記目的は独立請求項の特徴によって達成される。従属請求項は本発明の中心となる概念をさらに発展させる。
本発明の第1の態様によれば、指向/位置決めシステムを制御するための方法が提案される。指向システムは少なくとも一つのセンサー手段、およびセンサー手段の指向および/または位置決め動作を制御するためのアクチュエータ手段を具備し、本方法は以下のステップすなわち、
(S1)センサー手段のインプット空間におけるパターンのポジションを検出するため、上記センサー手段の動作前(pre-action)アウトプット情報を評価するステップと、
(S2)上記センサー手段のインプット空間において上記パターンの目標動作後(targeted post-action)ポジションを決定するステップと、
(S3)既定された写像関数を用いて、アクチュエータ制御座標へ、センサー手段のインプット空間座標における動作前ポジションと目標動作後ポジションとの偏差を写像することによりアクチュエータ手段用の指令を形成するステップと、
(S4)指向/位置決め動作を実行するため形成されたコマンドに従ってアクチュエータ手段によってセンサー手段を指向/位置決めするステップと、
(S5)上記センサー手段のインプット空間でパターンの実際の動作後ポジションを検出するステップと、
(S6)写像関数の増分(incremental)適合学習を実行するため、実際の動作後ポジションと、センサー手段のインプット空間におけるパターンの目標動作後ポジションとの差に基づいて、ステップS3で使用された写像関数を適合させるステップと、を具備し、個々に適合された写像関数を用いて、ステップS1ないしS6が周期的に少なくとも一度繰り返される。
ステップS4において、センサー手段は直接的にでもあるいは間接的にでも移動させることができる(たとえばセンサー手段が車両またはロボットに搭載された場合と同様、センサー手段のサポートを動かすことによって)ことに注意されたい。
ステップS6においては、補正信号を、実際の動作後ポジションとセンサー手段のインプット空間におけるパターンの目標ポジションとの差に基づいて算定することができる。写像関数は、補正信号およびセンサー手段のインプット空間におけるパターンの動作前ポジションを考慮して適合させることができる。
これに代えて、ステップS6においては、補正信号を、動作を実行した際、目標動作後ポジションへと実際に移動させられてしまった動作前ポジションに基づいて算定することができる。写像関数は、補正信号、およびセンサー手段のインプット空間におけるパターンの動作前ポジションを考慮して適合させることができる。
写像関数を適合させる前に、写像関数用の適合レートを操作するため、適合ベクトルには、0以上でかつ1以下の係数を掛け合わせることができる。
上記方法はさらに、実際の動作後ポジションとセンサー手段のインプット空間におけるパターンの目標ポジションとの差のもっともらしさ(plausibility)に基づいて、たとえば選択されたセンサーパターンの相関関係値によって、信頼値を計算するステップを具備できる。したがって、適合レートが、たとえば動作前後の選定されたセンサーパターン間の相関関係の信頼性に依存するよう適合ベクトルを、信頼値を用いて調整できる。
写像関数は検索テープルによって具現化(implemented)できる。この検索テーブルは、センサー座標を、対応するアクチュエータ座標と関連付ける。
ステップS1ないしS6において、各サイクルについて、パターンのポジションだけでなく、このポジションを囲む定義域内の近傍もまた使用され、ここで、近傍の範囲は二つの後続サイクル間で変更可能である。
写像関数の適合は、センサー座標において、あるいはアクチュエータ座標において実行可能である。
本発明の他の態様は、指向/位置決めシステムを制御するための方法に関する。この指向システムは、少なくとも一つのセンサー手段と、センサー手段の指向および/または位置決め動作を制御するためのアクチュエータ手段とを具備する。この方法は好ましくは以下のステップ、すなわち、
(S1)既定の写像関数を用いて、センサー手段(1)のインプット空間座標における上記センサー手段のアウトプット情報をアクチュエータ制御座標へと写像するステップと、
(S2)目標動作後ポジションを決定するステップであって、決定はアクチュエータ制御座標内でなされるステップと、
(S3)決定結果に基づいてアクチュエータ手段(41,42,43)用のコマンドを形成するステップと、
(S4)センサー手段の指向/位置決め動作を実行するため形成されたコマンドに従ってアクチュエータ手段によってセンサー手段(1)を指向/位置決めするステップと、を具備する。
いくつかのセンサー手段のアウトプットをアクチュエータ座標へと個々に写像し、続いて組み合わせることが可能である。ここで、ステップS2における決定は組み合わせの結果に基づいて実行可能である。
アクチュエータ手段の制約を、ステップS2で決定をなす際に考慮することができる。
本発明の他の様態は、計算デバイスを動作させる際、上記方法を実行するよう構成されたコンピューターソフトウェア製品に関する。
本発明のさらに他の態様は、自動較正指向/位置決めシステムに関する。このシステムは好ましくは、少なくとも一つのセンサー手段、計算手段、およびセンサー手段の指向および/または位置決め動作を制御するためのアクチュエータ手段を具備し、計算手段は、
センサー手段(1)のインプット空間におけるパターンのポジションを検出するため上記センサー手段の動作前アウトプット情報を評価するための手段と、
上記センサー手段のインプット空間において上記パターンの目標動作後ポジションを決定するための手段と、
アクチュエータ手段に指令を出すための手段であって、指令は、既定の写像関数を用いて、センサー手段のインプット空間における動作前ポジションと目標動作後ポジションとの偏差をアクチュエータ制御座標へと写像することにより生成されるものである手段と、
上記センサー手段のインプット空間にてパターンの実際の動作後ポジションを検出するための手段と、
写像関数の増分適合学習を実行するためセンサー手段のインプット空間にてパターンの実際の動作後ポジションと目標動作後ポジションとの差に基づき写像関数を較正するための手段と、を具備してなる。
以下の詳細な説明部分で、本発明について添付図面を参照して説明する。ここでは、同じ参照文字は図面全体を通して同じ部材を示す。
ここで、本発明によるプロセスを、図3aを参照して説明する。公知のプロセス(図2参照)に類似して、センサーのアウトプット信号は、センサー手段1のインプット空間内の認識されたパターンの目標ポジションに関する決定をなすために評価される。この目標ポジションは予め計算された「ワンストライク(one-strike)」動作によって実現されるべきである。これは、動作すなわち現実世界との計画された相互作用がまず設定され、次いでその完全な形で実施されることを意味する。動作が完了した後のみ、最初に計画された動作と現実世界の帰結との間の相違が評価され、そして追加的な補正動作を計画し、実行することが可能である。
決定された動作のセンサー座標をアクチュエータ座標に写像するため、本発明によれば適合学習写像(adaptively learned mapping)が使用される。方向付けの第1のサイクルでは、大雑把に評価されるか、または任意に設定された写像関数が使用される。少なくとも一つのさらなるサイクルでは、改良された「学習」写像関数が使用されることになる。
このアプローチは次のような利点を持つ。すなわち、センサー/アクチュエータ特性が変わった場合(損耗、設定変更、交換、温度変化、…)、わずかな学習/適合サイクルによって人的介入を伴わずに、しかもアクチュエータおよびセンサー座標間の相関関係を解析的に(再)定義することなく、正確なセンサー/アクチュエータ写像が自動的に実現される。
適合学習プロセスを実行するため、いったんサイクルが完了しかつ動作が実行されると、動作の連続、すなわちパターンが目標ポジションの近くに実際に動かされてしまったかどうかが評価され、そして偏差に依存して、増分学習ステップを実行するために補正信号が生成され写像ユニットに供給される。このサイクルは、計画動作と現実世界での帰結との間の偏差がプリセット閾値よりも小さなものとなるまで反復可能であり、あるいは際限なく続けることができる。
上記動作(ワンストライクで所望の帰結をもたらすことを意味する)が完了してしまった後に補正信号が生成されることに注意されたい。
要約すると、この実例によれば、行われるべき動作はセンサー座標において決定される。意思決定(decision making)結果は、したがってアクチュエータ(モーター)座標へと写像される。
図3bは代替的構成を示し、ここでは、アクチュエータ座標系において意思決定プロセスを実行する前に、センサー座標はまずアクチュエータ座標へと写像される。この構成は次のような利点を持つ。たとえばアクチュエータ座標に関する制約(最大範囲、速度、加速度その他)を、アクチュエータ座標で今なされている決定の間、簡単に考慮に入れることができる。
さらに、図3bの代替的構成よれば、異なるアウトプット信号に関して、結局異質なセンサーはそれぞれのアクチュエータ座標に別個に写像できる。アクチュエータ座標はしたがって、組み合わされたアクチュエータ座標に基づいて採られるべき動作に関する決定をなすために容易に組み合わせることができる。
図4aを参照して、補正信号の算定および写像関数の適合に関する第1実施形態について説明する。既に述べたように、センサー座標にて決定された動作の座標を、アクチュエータ手段の制御に適する座標に転換することが写像の目的である。したがって図4aはセンサーアレイおよびモーターアレイの線図の両方をそれぞれ示す。本実施例では、それによって動作前位置
Figure 2005310109
がセンサーアレイ(センサーインプット空間)の中心へと移される動作を実行することが予見される。プリセット写像関数を使用すれば、対応するアクチュエータ(モーター)コマンドが
Figure 2005310109
であることが仮定される。だが、このモーターコマンドを使用すれば、動作前位置
Figure 2005310109
がセンサーアレイにおける目標ポジションへ正確には移されず、動作後位置
Figure 2005310109
へと移される。本実施形態によれば、ここで、写像関数の増分学習適合は線形外挿法として実行される。すなわち、座標(自由度)x用であってかつ次なるサイクルのために使用されるべき適合補正モーターコマンドは、
Figure 2005310109
である。ここで、
Figure 2005310109
であり、そしてαは座標xの適合レートを操作する任意のパラメーター(0以上でありかつ1以下である)である。
この外挿方式学習プロセスはまた非線形写像にも使用可能であること留意されたい。
さらに、図4aに示す学習プロセスは、図3aおよび図3bの意思決定方法の両方に適用可能である。
最後に、この学習プロセスはまた、センサー(センサー群)のインプット空間における複数の刺激発生源(stimulus-emitting sources)と同様、単一の場合でも使用可能である。
学習プロセスを加速するため(適用レートパラメーターαによって潜在的には低下させられる)、1より多い位置を各サイクルにおいて使用可能である。図5に示すように、適合収斂(the convergence of the adaptation)をスピードアップするために、位置の定義近傍を使用できる。これによって、近傍変数の範囲を間に合うように(in time)形成することにより、非線形性の正確な表現を保証するため、システムの突然の非較正(de-calibration)の場合およびそれと同時の局所的安定のために順応性を残した写像関数を実現することが可能である。
図4bを参照して、補正信号の算定および写像関数の適合に関する第2実施形態について説明する。繰り返すが、センサー座標で決定された動作の座標を、アクチュエータ手段の制御に適した座標に移すことが写像の目的である。その結果としてさらに図4bは、センサーアレイおよびモーターアレイの線図の両方をそれぞれ示す。本実例では、それによって動作前位置
Figure 2005310109
が、センサーアレイ(センサーインプット空間)の中心に移される動作を実行することがわかる。プリセット写像関数を用いることで、対応するアクチュエータ(モーター)コマンドが
Figure 2005310109
であることが仮定される。だが、このモーターコマンドを使用することで、動作前位置
Figure 2005310109
がセンサーアレイにおける目標ポジションへと正確には移されず、動作後位置
Figure 2005310109
へと移される。ここで、この第2実施形態によれば、
Figure 2005310109
によって指令されるような動作を実行するとき、実際に目標ポジションに移されてしまった基準位置が確認される。さらに第1実施形態とは対照的に、写像の適合は次の式に従ってセンサー空間において実行される。
Figure 2005310109
ここで、
Figure 2005310109
は、時刻tでのディメンジョンxに関する補正された目標動作後ポジションであり、
Figure 2005310109
は、時刻t−1でのディメンジョンxに関する(補正されていない)目標動作後ポジションであり、
Figure 2005310109
は、時刻t−1でのディメンジョンxに関する動作前基準位置であり、そしてαはディメンジョンxに関する適合レートを操作する定数(0以上でありかつ1以下である)である。
この学習プロセスはまた、図3aおよび図3bの学習方法の両方に関して使用可能であることに留意されたい。それは比較的迅速な方法であるが、インプット空間に存在する複数の刺激発生源を要する。もし刺激発生源が一つしか存在しなければ、上で規定した基準位置を見出すことは明らかに不可能である。
図6は、信頼量(confidence measure)が補正信号から得られることを概略的に示す。適合レートはしたがって信頼量(0と1の間の値を持つ)を用いて調整できる。信頼量の導入によって、間違った適合ステップ(これは補正信号を不正確に推定した場合に起こり得る)の発生を最小限に抑えることができる。通常、補正信号は相関法を用いて算定され、その場合、相関関係は信頼量として使用(標準化後に)可能である。
図7は本発明による自己較正指向/位置決めシステムを概略的に示す。
本システムはセンサー手段1を具備し、これは、その少なくとも1次元インプット空間において(たとえば認識された規定目標の)パターン2の場所を突き止めるため現実世界の情報を集める。これに代えて、センサー手段1は、レーダーイメージセンサーアレイ、化学的レセプターセンサーアレイまたは目標2によって発せられる音の場所を突き止めるためのステレオマイクロフォンまたは他の方向センサーとすることが可能である。
センサー手段1はアクチュエータ手段41および42を備えたフレームに搭載される。このアクチュエータ手段は、たとえばセンサー手段1を傾斜動および水平旋回させるよう構成される。本実施例では、上記アクチュエータ手段41および42を、たとえば電動リニアモーターとすることができる。
したがって、アクチュエータ手段41および42は、センサー手段1自身を移動させることにより、センサー手段1のインプット空間を変更するよう構成される。現実世界での操作によってセンサー手段1のインプット空間を変更するよう設定された計画プロセスは、本明細書のフレームワーク内での「動作(action)」と呼ばれることに留意されたい。これに対応して、「動作前(pre-action)」および「動作後(post-action)」はそれぞれ、アクチュエータ手段によって制御されるそうした動作が起こる前の状態および起こってしまった後の状態を意味する。
センサー手段1およびアクチュエータ手段41および42はいずれも計算手段3に接続されている。
図7において上記計算手段3はコンピューターであり、これは、センサー手段1のインプット空間におけるパターンの目標動作後ポジション情報を規定し、かつセンサー手段1を移動させるためアクチュエータ手段41および42用のコマンドを計算するよう構成されている。これに代えてあるいはこれに加えて、この計算手段はロボット43のマニピュレーター8を動かすためのコマンドを計算するよう構成できる。マニピュレーター8の動きはまた、アクチュエータ手段41および42の制御のもと、センサー手段1のインプット空間を変更するよう適合させられた動作である。
個々のアクチュエータ手段41,42またはロボット43用のコマンドを計算するとき、計算手段は上記センサー手段1によって提供された動作前ポジション情報、すなわち動作が起こってしまう前のセンサー手段1のインプット空間におけるパターンのポジションに関する情報、および目標動作後ポジション情報、すなわち動作が起こってしまった後のパターン2の目標ポジションを表す情報を使用する。目標ポジションはたとえばセンサー手段1のインプット空間の中心とすることができる。これに代えて、特にアクチュエータ手段が、たとえばロボットなどのマニピュレーターアームを制御する場合は、目標ポジションは、ロボットによって操作されるための目標のポジション(センサー手段1のインプット空間に依然として存在する)として設定できる。
計算手段3は確定手段5および比較手段6を具備する。
確定手段5は、上記センサー手段1を動かすことにより、あるいは上記マニピュレーター8を動かすことにより、上記目標2および/または上記マニピュレーター8を伴った、上記アクチュエータ手段41,42および/または上記ロボット43の動作が完了した後、センサー手段1による動作後ポジション情報アウトプットが、計算手段3によって先に形成された目標動作後ポジションと一致するかどうかを確定するよう構成される。
もし確定手段5が、動作後目標センサー(object-sensor)ポジション情報が、目標とする目標センサーポジション情報と合致しないことを確認した場合、計算手段3はさらに、それぞれに比較手段6による比較結果アウトプットを使用することにより、アクチュエータ手段41,42およびロボット43用の計算されたコマンドを補正するよう構成される。この補正されたコマンドはその後、将来の動作のために使用可能である。
図3aの学習方法を実行するため、計算手段3は以下の式
Figure 2005310109
を使用して、動作後目標センサーポジション情報と目標動作後目標センサーポジション情報との間の差を計算し、そしてアクチュエータ手段41,42,43用の計算コマンドを自動的に補正するよう構成される。ここで、
Figure 2005310109
であり、
Figure 2005310109
は、時刻t+1でのディメンジョンxに関するアクチュエータ手段(41,42,43)用の補正されたコマンドであり、
Figure 2005310109
は、時刻t−1でのディメンジョンxに関するアクチュエータ手段(41,42,43)用の補正されていないコマンドであり、
Figure 2005310109
は、上記アクチュエータ手段(41,42,43)が、補正されていないコマンドに従って制御されてしまった後、時刻tでのディメンジョンxに関する動作後目標センサーポジション情報であり、
Figure 2005310109
は、時刻t−1でのディメンジョンxに関する、目標動作後目標センサーポジション情報であり、そしてαはディメンジョンxに関する適合レートを操作する定数である。
上記差を使用することにより、非常に正確に、アクチュエータ手段41,42および/またはロボット43用の計算されたコマンドの補正が可能となる。なぜなら、アクチュエータ手段41,42および/またはロボット43を制御するのに予め使用されるコマンドによって直ちに実現される正確性(accuracy)の量が系統立てて考慮されるからである。
図3bの学習方法を実行するため、計算手段は以下の式
Figure 2005310109
を使用して、目標動作後ポジション情報と動作前ポジション情報との間の差を計算するよう構成できる。ここで、
Figure 2005310109
は、時刻tでのディメンジョンxに関する、適合させられた目標動作後ポジションであり、
Figure 2005310109
は、時刻t−1でのディメンジョンxに関する、目標動作後ポジションであり、
Figure 2005310109
は、時刻t−1でのディメンジョンxに関する、動作前基準パターンポジションであり、そしてαはディメンジョンxに関する適合レートを操作する定数(0以上でありかつ1以下である)である。
上記基準位置は、目標動作後目標センサーポジションに位置させられた基準目標の情報を用いて選定されるので、基準目標が、アクチュエータ手段41,42および/またはロボット43のそれぞれの動作を較正するために最もよく適合するということが保証される。さらに、モーター/センサー応答における非線形性さえ取り扱うことが可能である。なぜなら、この較正は単一の既定基準ポイントを用いて実施されるのではなく、それぞれの目標動作後目標センサーポジションに位置させられた基準目標の情報を用いて実施されるからである。
補正されたコマンド、すなわち適合学習写像関数は、計算手段3によって、上記記憶手段7の上記コマンドマップに記憶させることが可能である。
コマンドマップに記憶させられたコマンドは、アクチュエータ手段41,42およびロボット43それぞれのための新しいコマンドを計算するために計算手段3によって使用される。
センサー手段の動作後アウトプットをセンサー手段の動作前アウトプットと自動的に比較し、かつアクチュエータ手段用の計算されたコマンドを補正するため上記比較結果を使用することにより、本発明に係る方法は、指向システムの自動較正、および変化しかつ制御されていない環境への適合を可能にする。
それゆえ、本発明は指向システムを制御する方法および自己較正指向システムを提供する。これによって、人的介入なしで、高い正確性を伴ったシステムの自動較正が可能となる。さらに、本発明に係る指向システム制御方法および本発明に係る自己較正指向システムは、モーター/センサー応答における非線形性を扱うよう構成され、かつメンテナンスが不可能であるかあるいは望まれない、変化しかつ/または制御されていない環境において使用されるのに適する。ゆえに、人的介入を伴わずに、本発明に係るシステムおよび方法の長期にわたる運用が可能である。
本発明のシステムは、従来の自己指向/自己較正システムに比べて、より簡素であり、より融通性に富み、そしてわずかなメンテナンスしか必要としない。本発明に係るシステムのジオメトリー変更は、アクチュエータ手段およびセンサー手段の新較正を必要とせずに可能である。
本発明に係るシステムおよび方法に関する応用の典型的な例は、たとえばロボットのカメラの焦点合わせ動作、自動カメラまたは照準(pointing)デバイスによる監視である。カメラおよび本発明による指向システムが設けられたロボットは、それゆえ認識した目標に焦点を合わせることができ、そしてその結果として目標を操作するためにそれに向かって移動できる。
従来技術による指向デバイスを示す図である。 従来技術による指向動作計算プロセスを示す図である。 本発明による代替プロセスを概略的に示す図である。 本発明による代替プロセスを概略的に示す図である。 写像関数の適合学習用の補正信号を計算するための他の実施形態を示す図である。 写像関数の適合学習用の補正信号を計算するための他の実施形態を示す図である。 適合プロセスを促進するための選択肢を示す図である。 図3aまたは図3bの学習プロセスにおける信頼値の導入を示す図である。 本発明の自己較正指向/位置決めシステムのブロック図である。
符号の説明
1 センサー手段
2 パターン(目標)
3 計算手段
5 確定手段
6 比較手段
7 記憶手段
8 マニピュレーター
41,42 アクチュエータ手段
43 ロボット

Claims (21)

  1. 指向/位置決めシステムを制御するための方法であって、
    前記指向システムは少なくとも一つのセンサー手段(1)、および前記センサー手段(1)の指向および/または位置決め動作を制御するためのアクチュエータ手段(41,42,43)を具備し、
    (S1)前記センサー手段(1)のインプット空間におけるパターンのポジションを検出するため前記センサー手段(1)の動作前アウトプット情報を評価するステップと、
    (S2)前記センサー手段(1)の前記インプット空間において前記パターン(2)の目標動作後ポジションを決定するステップと、
    (S3)既定の写像関数を用いて、アクチュエータ制御座標へ、前記センサー手段(1)のインプット空間座標における動作前ポジションと前記目標動作後ポジションとの偏差を写像することにより前記アクチュエータ手段(41,42,43)用のコマンドを形成するステップと、
    (S4)指向/位置決め動作を実行するため前記形成されたコマンドに従って前記アクチュエータ手段(41,42,43)によって前記センサー手段(1)を指向/位置決めするステップと、
    (S5)前記センサー手段(1)の前記インプット空間において前記パターン(2)の実際の動作後ポジションを検出するステップと、
    (S6)前記写像関数の増分適合学習を実行するため、実際の動作後ポジションと前記センサー手段(1)の前記インプット空間における前記パターンの目標動作後ポジションとの差に基づいて、ステップS3で使用された前記写像関数を適合させるステップと、を具備し、
    個々に適合された写像関数を用いて、前記ステップS1ないしS6を周期的に少なくとも一度繰り返すことを特徴とする指向/位置決めシステム制御方法。
  2. 前記ステップS6においては、
    補正信号が、実際の動作後ポジションと、前記センサー手段(1)の前記インプット空間における前記パターンの前記目標ポジションとの差に基づいて算定され、かつ
    前記写像関数は、前記補正信号、前記実行されたアクチュエータコマンド、および前記センサー手段(1)の前記インプット空間における前記パターンの前記動作前ポジションを考慮して適合させられることを特徴とする請求項1に記載の方法。
  3. 前記ステップS6においては、
    補正信号が、前記動作を実行した際に前記目標動作後ポジションへと実際に移動させられてしまった前記動作前ポジションに基づいて算定され、かつ
    前記写像関数は、前記補正信号および前記実行されたアクチュエータコマンドを考慮して適合させられることを特徴とする請求項1に記載の方法。
  4. 前記写像関数の適合前に、前記写像関数用の適合レートを操作するため、適合ベクトルには、0以上でかつ1以下の係数が掛け合わされることを特徴とする請求項2または請求項3に記載の指向システム制御方法。
  5. 前記動作が実行される前と後とのセンサーパターン間の比較に基づいて信頼値を計算するステップと、
    前記適合レートが前記信頼値に依存するよう前記信頼値を用いて前記適合ベクトルを調整するステップと、をさらに具備することを特徴とする請求項2ないし請求項4のいずれか1項に記載の指向システム制御方法。
  6. 前記写像関数は検索テーブルによって具現化されることを特徴とする請求項1ないし請求項5のいずれか1項に記載の方法。
  7. ステップS1ないしS6において、各サイクルについて、前記パターンのポジションだけでなく、このポジションを囲む定義域内近傍も使用されることを特徴とする請求項1ないし請求項6のいずれか1項に記載の方法。
  8. 前記近傍の範囲は二つの後続サイクル間で変更可能であることを特徴とする請求項7に記載の方法。
  9. 前記写像関数の適合は前記センサー座標において実行されることを特徴とする請求項1ないし請求項8のいずれか1項に記載の方法。
  10. 前記写像関数の適合は前記アクチュエータ座標において実行されることを特徴とする請求項1ないし請求項9のいずれか1項に記載の方法。
  11. 指向/位置決めシステムを制御するための方法であって、
    前記指向システムは少なくとも一つのセンサー手段(1)、および前記センサー手段(1)の指向および/または位置決め動作を制御するためのアクチュエータ手段(41,42,43)を具備し、
    (S1)既定の写像関数を用いて、前記センサー手段(1)のインプット空間座標における前記センサー手段(1)のアウトプット情報をアクチュエータ制御座標へと写像するステップと、
    (S2)目標動作後ポジションを決定するステップであって、前記決定は前記アクチュエータ制御座標にてなされるステップと、
    (S3)前記決定結果に基づいて前記アクチュエータ手段(41,42,43)用のコマンドを形成するステップと、
    (S4)前記センサー手段の指向/位置決め動作を実行するため前記形成されたコマンドに従って前記アクチュエータ手段(41,42,43)によって前記センサー手段(1)を指向/位置決めするステップと、を具備することを特徴とする指向/位置決めシステム制御方法。
  12. いくつかのセンサー手段のアウトプットがアクチュエータ座標へと個々に写像されるとともに続いて組み合わされ、ステップS2における前記決定は前記組み合わせの結果に基づいて実行されることを特徴とする請求項11に記載の方法。
  13. 前記アクチュエータ手段の制約が、ステップS2で前記決定をなす際に考慮されることを特徴とする請求項11または請求項12に記載の方法。
  14. 計算デバイスを動作させる際、請求項1ないし請求項13のいずれか1項に記載の方法を実行するよう構成されたコンピューターソフトウェア製品。
  15. 少なくとも一つのセンサー手段(1)、計算手段、および前記センサー手段(1)の指向および/または位置決め動作を制御するためのアクチュエータ手段(41,42,43)を具備し、
    前記計算手段は、
    前記センサー手段(1)のインプット空間におけるパターンのポジションを検出するため前記センサー手段(1)の動作前アウトプット情報を評価するための手段と、
    前記センサー手段(1)の前記インプット空間において前記パターン(2)の目標動作後ポジションを決定するための手段と、
    前記アクチュエータ手段(41,42,43)に指令を出すための手段であって、前記指令は、既定の写像関数を用いて、前記センサー手段(1)のインプット空間における前記動作前ポジションと前記目標動作後ポジションとの偏差をアクチュエータ制御座標へと写像することにより生成されるものである手段と、
    前記センサー手段(1)の前記インプット空間において前記パターン(2)の実際の動作後ポジションを検出するための手段と、
    前記写像関数の増分適合学習を実行するため、前記実際の動作後ポジションと前記センサー手段(1)の前記インプット空間における前記パターンの前記目標動作後ポジションとの差に基づき前記写像関数を較正するための手段と、を具備してなることを特徴とする自動較正指向/位置決めシステム。
  16. 前記実際の動作後ポジションと前記センサー手段(1)の前記インプット空間における前記パターンの目標ポジションとの差に基づき補正信号を算定するための手段を具備し、
    前記写像関数は、前記補正信号、実行されたアクチュエータコマンドおよび前記センサー(1)の前記インプット空間における前記パターンの動作前ポジションを考慮して較正されることを特徴とする請求項15に記載のシステム。
  17. 前記動作を実行する際、前記目標動作後ポジションへと実際に移動させられてしまった前記動作前ポジションに基づいて補正信号を算定するための手段を具備し、
    前記写像関数は前記補正信号および実行されたアクチュエータコマンドを考慮して較正されることを特徴とする請求項16に記載のシステム。
  18. 前記写像関数の較正前に、前記写像関数用の適合レートを操作するため、適合ベクトルには、0以上でかつ1以下の係数が掛け合わされることを特徴とする請求項16または請求項17に記載のシステム。
  19. 前記動作が実行される前と後との選択されたセンサーパターンの相関関係に基づいて信頼値を計算するための手段と、
    前記適合レートが前記信頼値に依存するよう前記適合を前記信頼値を用いて調整するための手段と、をさらに具備することを特徴とする請求項16ないし請求項18のいずれか1項に記載のシステム。
  20. 前記写像関数は検索テーブルによって具現化されることを特徴とする請求項16ないし請求項19のいずれか1項に記載のシステム。
  21. 前記センサー手段はカメラおよびマイクロフォンのうちの少なくとも一つを具備することを特徴とする請求項16ないし請求項20のいずれか1項に記載のシステム。
JP2005039860A 2004-04-16 2005-02-16 自己較正センサー指向システム Pending JP2005310109A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04009123 2004-04-16
EP04012356A EP1587162B1 (en) 2004-04-16 2004-05-25 Self-calibrating sensor orienting system

Publications (1)

Publication Number Publication Date
JP2005310109A true JP2005310109A (ja) 2005-11-04

Family

ID=34925121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005039860A Pending JP2005310109A (ja) 2004-04-16 2005-02-16 自己較正センサー指向システム

Country Status (5)

Country Link
US (1) US7324907B2 (ja)
EP (1) EP1587162B1 (ja)
JP (1) JP2005310109A (ja)
CN (1) CN100549890C (ja)
DE (1) DE602004013720D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044865A (ja) * 2005-08-10 2007-02-22 Honda Research Inst Europe Gmbh 方向付け/位置決めシステム制御方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006176084A (ja) * 2004-12-24 2006-07-06 Advics:Kk 車両挙動センサの検出値補正方法
DE602007012688D1 (de) * 2007-08-10 2011-04-07 Honda Res Inst Europe Gmbh Online-Kalibrierung von Stereokamerasystemen mit Feinvergenzbewegungen
CA2642713C (en) * 2008-11-03 2012-08-07 Halliburton Energy Services, Inc. Drilling apparatus and method
US9388635B2 (en) 2008-11-04 2016-07-12 Halliburton Energy Services, Inc. Method and apparatus for controlling an orientable connection in a drilling assembly
US8250143B2 (en) 2008-12-10 2012-08-21 International Business Machines Corporation Network driven actuator mapping agent and bus and method of use
CA2794214C (en) * 2010-05-10 2015-01-06 Halliburton Energy Services, Inc. An apparatus and a control method for controlling the apparatus
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
EP3067763B1 (en) 2015-03-11 2022-06-29 Siemens Aktiengesellschaft Assignment of sensors to machine parts
US9844881B2 (en) * 2015-06-22 2017-12-19 GM Global Technology Operations LLC Robotic device including machine vision
CN111656804B (zh) 2018-02-02 2023-08-25 英国电讯有限公司 分布式系统的监测
WO2019201423A1 (en) * 2018-04-17 2019-10-24 Abb Schweiz Ag Method for controlling a robot arm
CN111781557A (zh) * 2020-05-12 2020-10-16 杭州兆华电子有限公司 一种基于点声源的声学照相机定位误差修正方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5294873A (en) 1992-10-27 1994-03-15 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Kinematic functions for redundancy resolution using configuration control
US20020099475A1 (en) 2000-12-01 2002-07-25 Ronald Spangler Method and device for vibration control
US6917855B2 (en) * 2002-05-10 2005-07-12 Honda Motor Co., Ltd. Real-time target tracking of an unpredictable target amid unknown obstacles
EP1586421B1 (en) * 2004-04-16 2008-03-05 Honda Research Institute Europe GmbH Self-calibrating orienting system for a manipulating device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CSNG200100226002, 須賀 啓敏 Yoshiharu Suga, "適応型射影追加学習 Adaptive Incremental Projection Learning", 電子情報通信学会技術研究報告 Vol.99 No.612 IEICE Technical Report, 第99巻, JP, 社団法人電子情報通信学会 The Institute of Electro *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044865A (ja) * 2005-08-10 2007-02-22 Honda Research Inst Europe Gmbh 方向付け/位置決めシステム制御方法

Also Published As

Publication number Publication date
CN1696855A (zh) 2005-11-16
EP1587162B1 (en) 2008-05-14
DE602004013720D1 (de) 2008-06-26
EP1587162A1 (en) 2005-10-19
US20060149489A1 (en) 2006-07-06
US7324907B2 (en) 2008-01-29
CN100549890C (zh) 2009-10-14

Similar Documents

Publication Publication Date Title
JP2005310109A (ja) 自己較正センサー指向システム
JP2005305633A (ja) 操作デバイス用の自己較正指向システム
US11235461B2 (en) Controller and machine learning device
US10618164B2 (en) Robot system having learning control function and learning control method
US20060082340A1 (en) Robot with learning control function and method for controlling the robot
JP5576008B2 (ja) 方向付け/位置決めシステム制御方法
US20200353620A1 (en) Robot system and robot control method
WO2014206787A1 (en) Method for robot calibration
US10737384B2 (en) Robot system
JP6568172B2 (ja) キャリブレーションを行うロボット制御装置、計測システム及びキャリブレーション方法
EP2026589B1 (en) Online calibration of stereo camera systems including fine vergence movements
CN100549891C (zh) 用于控制定向/定位系统的方法和自动校准定向/定位系统
JP7227018B2 (ja) 学習制御装置、ロボット制御装置およびロボット
JP2024512827A (ja) 適応コンプライアンスに基づいたロボット組立のためのシステムおよび方法
US11584007B2 (en) Robotic method and system
JPH04321104A (ja) ロボット制御方法およびその装置
US20220301209A1 (en) Device and method for training a neural network for controlling a robot
KR101284856B1 (ko) 이기종 로봇의 캘리브레이션 방법 및 그 시스템
JP2024001878A (ja) 制御ルールを実装するための機械学習モデルをトレーニングするための方法
KR20160124947A (ko) Olp에서 생성된 실제로봇 작업프로그램의 보정방법
JP2007144623A (ja) 移動情報測定装置
WO2021211561A1 (en) Automatic sensor conflict resolution for sensor fusion system
JP2005078328A (ja) 状態フィードバック制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100929

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111005

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111011

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111107

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120619