JP7448884B2 - 計測システム、計測装置、計測方法、及び計測プログラム - Google Patents

計測システム、計測装置、計測方法、及び計測プログラム Download PDF

Info

Publication number
JP7448884B2
JP7448884B2 JP2020083903A JP2020083903A JP7448884B2 JP 7448884 B2 JP7448884 B2 JP 7448884B2 JP 2020083903 A JP2020083903 A JP 2020083903A JP 2020083903 A JP2020083903 A JP 2020083903A JP 7448884 B2 JP7448884 B2 JP 7448884B2
Authority
JP
Japan
Prior art keywords
measurement
robot
data
sensor
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020083903A
Other languages
English (en)
Other versions
JP2020190551A (ja
Inventor
星斗 付
林 苗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of JP2020190551A publication Critical patent/JP2020190551A/ja
Application granted granted Critical
Publication of JP7448884B2 publication Critical patent/JP7448884B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/023Cartesian coordinate type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、計測システム、計測装置、計測方法、及び計測プログラムに関わる。
ファクトリーオートメーションの分野では、例えば、距離センサを用いて、ワークの表面の各点の3次元座標を示す点群(ポイントクラウド)を計測し、計測により得られた点群からワークを識別又は検査するための画像処理を行っている。
この種の画像処理に用いられる距離センサは、ロボットビジョンと呼ばれており、その計測方式には、種々の方式がある。例えば、固定された計測ポイントからワークの点群を計測する方式、計測ポイントを移動させながらワークの点群を計測する方式、一つのワークについて一つの計測ポイントから点群を計測する方式、及び一つのワークについて複数の異なる計測ポイントから複数の点群を計測する方式などがある。
固定された計測ポイントからワークの点群を計測する方式や、一つのワークについて一つの点群を計測する方式では、ワークによっては、その形状が複雑であるために、或いは、鏡面加工されたワークの反射面からの反射の影響により、ワークを十分な精度で識別できないことがある。これに対し、複数の異なる計測ポイントのそれぞれからワークの点群を計測することにより、ワークの見え方が異なる複数の異なる点群の計測が可能となり、固定された計測ポイントからワークの点群を計測する方式や、一つのワークについて一つの点群を計測する方式よりも、より高い精度でワークを識別することができる。
この種の画像処理として、例えば、非特許文献1に記載されているようなモデルベースのアルゴリズムが知られている。このアルゴリズムは、複数点の位置や法線の関係を記述したPPF(Point Pair Feature)と呼ばれる特徴量を用いており、物体の位置及び姿勢の推定処理や、物体の点群のレジストレーション処理に適用可能である。この特徴量は、物体の点群から2点(点対)を選択する組み合わせにおいて算出される4次元特徴量である。4次元は、それぞれ、2点間の距離、2点を結ぶ線分とその各点の法線方向がなす角度、2点の法線間の角度である。ハッシュテーブルにその特徴量をキーとして2点の点番号を格納する。マッチング処理においては、ハッシュテーブルから対応点を検索した後、点対間の剛体変形パラメータを求めることで、物体を識別する。マッチング処理後に、隣り合う計測ポイント間の距離センサの回転量及び移動量が計算され、その計算結果に基づいて、その隣り合う計測ポイントで計測された二つの点群のレジストレーションが行われる。
非特許文献2には、モデルベースの他のアルゴリズムが記載されている。このアルゴリズムは、距離画像センサを用いて計測した距離画像センサ周辺の距離画像に基づいて距離画像センサの位置及び姿勢を推定する。このアルゴリズムでは、隣り合う計測ポイント間の距離画像センサの回転量及び移動量が計算され、その計算結果に基づいて、その隣り合う計測ポイントで計測された二つの距離画像のレジストレーションが行われる。
非特許文献1,2に記載のアルゴリズムを用いたレジストレーションは、精密なレジストレーション(Fine Registration)の前処理として行われる粗いレジストレーション(Coarse Registration)である。
非特許文献3には、物体の複数の点群間の対応点同士の距離を最小化するためのアルゴリズムとして、ICP(Iterative Closest Point)を用いることが記載されている。ICPは、一方の点群を構成する各点に対し、他方の点群における最近接点を探索し、これを仮の対応点とする。このような対応点間の距離を最小化するような剛体変換を推定し、対応点の探索と剛体変換推定とを繰り返すことで、点群間の対応点同士の距離を最小化する。ICPは、粗いレジストレーションの後処理として行われる精密なレジストレーションである。
Drost, Bertram, et al. "Model globally, match locally: Efficient and robust 3D object recognition."Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on. Ieee, 2010. Newcombe, Richard A., et al. "Kinectfusion: Real-time dense surface mapping and tracking." ISMAR. Vol. 11. No. 2011. 2011. Besl, Paul J., and Neil D. McKay. "Method for registration of 3-D shapes." Sensor Fusion IV: Control Paradigms and Data Structures. Vol. 1611. International Society for Optics and Photonics, 1992.
しかし、非特許文献1,2に記載のレジストレーションのアルゴリズムは、画像処理に多くの計算を要することがあり、また、ロバスト性が低いこともある。また、非特許文献3に記載のICPは、初期状態の点群間のずれが大きい場合には、対応点の探索と剛体変換推定とを何度も繰り返したり、或いはレジストレーションに失敗したりすることがあり得る。何れの技術も、計算時間が長くなることがあり得るため、生産性が要求されるファクトリーオートメーションの分野においては、実用的に十分でない。
そこで、本発明は、計測対象物の3Dデータのレジストレーションに要する時間を短縮できる計測システム、計測装置、計測方法、及び計測プログラムを提供することを課題とする。
上述の課題を解決するため、本発明に関わる計測システムは、ロボットに搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサと、ロボットの各関節の変位を検出する変位検出装置と、計測対象物に対する3Dセンサの相対的な位置関係を変えるようにロボットの各関節を駆動する駆動装置と、計測対象物に対する3Dセンサの相対的な位置関係が異なる複数の計測ポイントで計測対象物の3Dデータを計測するように3Dセンサを制御するセンサ制御部と、複数の計測ポイントのうち何れか特定の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位と、特定の計測ポイント以外の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントで計測された計測対象物の3Dデータを、特定の計測ポイントで計測された計測対象物の3Dデータにレジストレーションする第1のレジストレーション処理部と、を備える。斯かる構成によれば、計測対象物の3Dデータのレジストレーションに要する時間を短縮することができる。
本発明に関わる計測システムは、特定の計測ポイントでロボットの動作を停止又は減速させることにより、3Dセンサが計測対象物の3Dデータを計測するときのロボットの位置及び姿勢と、変位検出装置がロボットの各関節の変位を検出するときのロボットの位置及び姿勢とを一致させる同期制御部を更に備えてもよい。第1のレジストレーション処理部は、ロボットの停止中又は減速中に特定の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位と、ロボットの動作中に特定の計測ポイント以外の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位とに基づいて、ロボットの動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物の3Dデータを、ロボットの停止中又は減速中に特定の計測ポイントで計測された計測対象物の3Dデータにレジストレーションしてもよい。3Dセンサが計測対象物の3Dデータを計測するときのロボットの位置及び姿勢と、変位検出装置がロボットの各関節の変位を検出するときのロボットの位置及び姿勢とを一致させるために、特定の計測ポイント以外の計測ポイントでロボットの動作を停止又は減速させる必要がないため、計測対象物の3Dデータのレジストレーションに要する時間を短縮できる。
計測対象物に対する3Dセンサの位置が特定の計測ポイントに一致するときのロボットの各関節の変位は、特定の値として既知でもよく、また、ロボットの各関節の変位が特定の値に一致するときに、変位検出装置は、計測対象物の3Dデータの計測を要求する計測指令を3Dセンサに出力してもよい。特定の計測ポイントでロボットの動作を停止又は減速させる必要がないため、計測対象物の3Dデータのレジストレーションに要する時間を短縮できる。
センサ制御部及び第1のレジストレーション処理部は、フィールドバスを通じて変位検出装置に接続されてもよい。フィールドバスを通じて、各部(センサ制御部、第1のレジストレーション処理部、及び変位検出装置)の動作は、短い時間単位で同期しているため、特定の計測ポイントでロボットの動作を停止又は減速させる必要がなく、計測対象物の3Dデータのレジストレーションに要する時間を短縮できる。
特定の計測ポイント以外の何れか一つ以上の計測ポイントで3Dセンサが計測対象物の3Dデータを計測するタイミングと、変位検出装置がロボットの各関節の変位を検出するタイミングとは、非同期でもよい。これにより、特定の計測ポイント以外の何れか一つ以上の計測ポイントでの3Dセンサの動作速度を高めることができるため、計測対象物の3Dデータのレジストレーションに要する時間を短縮できる。
同期制御部がロボットの動作を停止又は減速させる回数は、複数の計測ポイントの数より少なくてもよい。これにより、3Dセンサが計測対象物の3Dデータを計測するときのロボットの位置及び姿勢と、変位検出装置がロボットの各関節の変位を検出するときのロボットの位置及び姿勢とを一致させるために、ロボットの動作を停止させる回数は、複数の計測ポイントの数より少なくてよいため、計測対象物の3Dデータのレジストレーションに要する時間を短縮できる。
特定の計測ポイントは、複数の計測ポイントのうち何れか一つの計測ポイントでもよい。これにより、3Dセンサが計測対象物の3Dデータを計測するときのロボットの位置及び姿勢と、変位検出装置がロボットの各関節の変位を検出するときのロボットの位置及び姿勢とを一致させるために、ロボットの動作を停止させる回数は1回でよいため、計測対象物の3Dデータのレジストレーションに要する時間を短縮できる。
本発明に関わる計測システムは、特定の計測ポイント以外の計測ポイントで計測された計測対象物の3Dデータと、特定の計測ポイントで計測された計測対象物の3Dデータとのレジストレーション誤差が閾値未満になるように、特定の計測ポイント以外の計測ポイントで計測された計測対象物の3Dデータを、特定の計測ポイントで計測された計測対象物の3Dデータにレジストレーションする第2のレジストレーション処理部を更に備えてもよい。第2のレジストレーション処理部による精密なレジストレーションの前処理として、3Dデータのそれぞれが計測された時点で変位検出装置が検出する各関節の変位に基づく、第1のレジストレーション処理部による大まかなレジストレーションを行うことにより、レジストレーションに要する全体の処理時間を短縮できる。
本発明に関わる計測システムは、特定の計測ポイント以外の各計測ポイントで計測された計測対象物の3Dデータと特定の計測ポイントで計測された計測対象物の3Dデータとの第1のレジストレーション処理部及び第2のレジストレーション処理部によるレジストレーションにより得られる3Dデータを3Dセンサの座標系からロボットの座標系に変換する座標変換部と、座標変換部により座標変換された3Dデータに基づいてロボットに対する計測対象物の位置及び姿勢を推定する位置姿勢推定部とを更に備えてもよい。第1のレジストレーション処理部及び第2のレジストレーション処理部によるレジストレーションにより得られる3Dデータを用いることで、ロボットに対する計測対象物の位置及び姿勢の推定に要する時間を短縮できる。
本発明に関わる計測装置は、ロボットの各関節の変位を検出する変位検出装置から出力される変位を示す情報を入力するとともに、ロボットの各関節を駆動する駆動装置に駆動指令を出力する計測装置であって、ロボットに搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサと、計測対象物に対する3Dセンサの相対的な位置関係を変えるようにロボットの各関節を駆動するための駆動指令を生成する駆動制御部と、計測対象物に対する3Dセンサの相対的な位置関係が異なる複数の計測ポイントで計測対象物の3Dデータを計測するように3Dセンサを制御するセンサ制御部と、複数の計測ポイントのうち何れか特定の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位と、特定の計測ポイント以外の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントで計測された計測対象物の3Dデータを、特定の計測ポイントで計測された計測対象物の3Dデータにレジストレーションするレジストレーション処理部と、を備える。斯かる構成によれば、計測対象物の3Dデータのレジストレーションに要する時間を短縮することができる。
本発明に関わる計測方法は、ロボットに搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサを備えるとともに、ロボットの各関節の変位を検出する変位検出装置から出力される変位を示す情報を入力し、且つ、ロボットの各関節を駆動する駆動装置に駆動指令を出力する計測装置が、計測対象物に対する3Dセンサの相対的な位置関係を変えるようにロボットの各関節を駆動するための駆動指令を生成するステップと、計測対象物に対する3Dセンサの相対的な位置関係が異なる複数の計測ポイントで計測対象物の3Dデータを計測するように3Dセンサを制御するステップと、複数の計測ポイントのうち何れか特定の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位と、特定の計測ポイント以外の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントで計測された計測対象物の3Dデータを、特定の計測ポイントで計測された計測対象物の3Dデータにレジストレーションするステップと、を実行する。この方法によれば、計測対象物の3Dデータのレジストレーションに要する時間を短縮することができる。
本発明に関わる計測プログラムは、ロボットに搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサを備えるとともに、ロボットの各関節の変位を検出する変位検出装置から出力される変位を示す情報を入力し、且つ、ロボットの各関節を駆動する駆動装置に駆動指令を出力する計測装置に、計測対象物に対する3Dセンサの相対的な位置関係を変えるようにロボットの各関節を駆動するための駆動指令を生成するステップと、計測対象物に対する3Dセンサの相対的な位置関係が異なる複数の計測ポイントで計測対象物の3Dデータを計測するように3Dセンサを制御するステップと、複数の計測ポイントのうち何れか特定の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位と、特定の計測ポイント以外の計測ポイントで3Dセンサが計測対象物の3Dデータを計測した時点におけるロボットの各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントで計測された計測対象物の3Dデータを、特定の計測ポイントで計測された計測対象物の3Dデータにレジストレーションするステップと、を実行させる。このプログラムによれば、計測対象物の3Dデータのレジストレーションに要する時間を短縮することができる。
本発明によれば、計測対象物の3Dデータのレジストレーションに要する時間を短縮できる。
本発明の実施形態に関わる計測システムの概略構成の一例を示す説明図である。 本発明の実施形態に関わる3Dデータの処理の流れの一例を示す説明図である。 本発明の実施形態に関わるレジストレーション処理の一例を示す説明図である。 本発明の実施形態に関わる計測システム及び計測装置のハードウェア構成の一例を示す説明図である。 本発明の実施形態に関わるコンピュータシステムの機能の一例を示すブロック図である。 本発明の実施形態に関わる計測方法の処理の流れの一例を示すフローチャートである。
[発明の実施形態1]
以下、本発明の一側面に関わる実施形態を図面に基づいて説明する。本発明の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更又は改良され得るととともに、本発明には、その等価物も含まれる。なお、同一符号は、同一の構成要素を示すものとし、重複する説明は省略する。
[適用例]
図1は本実施形態に関わる計測システム100の概略構成の一例を示す説明図である。計測システム100は、ロボット60と、ロボット60に搭載された3Dセンサ70と、ロボット60の駆動及び3Dセンサ70による計測対象物80の3Dデータの計測を制御するコンピュータシステム10と、コンピュータシステム10からの指令に応答してロボット60の動作を制御するロボットコントローラ50とを備える。
3Dデータは、計測対象物80の表面の各点の3次元座標を示す。この種の3Dデータとして、例えば、点群又は距離画像を用いることができる。点群は、例えば、xyz直交座標系の三次元座標値(x,y,z)を有する点の集合として定義される。距離画像は、例えば、uv直交座標系の2次元の画像座標(u,v)に対応する距離dを画素値とする画素の集合として定義される。ここで、dは、3Dセンサ70と計測対象物80との間の距離である。
3Dセンサ70は、点群を計測する距離センサでもよく、或いは、距離センサと2Dセンサとを組み合わせて距離画像を取得する距離画像センサでもよい。距離センサは、奥行情報としての距離dを計測するセンサであり、その計測方式として、例えば、三角法方式、飛行時間方式(タイム・オブ・フライト方式)、又は位相差方式などを用いることができる。2Dセンサは、2次元の画像を撮影するイメージセンサである。2次元の画像は、距離dを画素値としない点において距離画像とは異なる。距離画像センサは、例えば、2Dセンサの撮影位置を変えながら計測対象物80の複数の2次元の画像を撮影し、ステレオ立体視の画像処理により、距離dを画素値とする距離画像を取得するカメラでもよい。或いは、距離画像センサは、計測対象物80を複数の異なる方向から同時に撮影することにより、距離dを画素値とする距離画像を取得するステレオカメラでもよい。
ロボット60は、例えば、計測対象物80を操作(例えば、把持、吸着、移動、組み立て、又は挿入など)するためのロボットハンド63を備える多関節ロボット(例えば、垂直多関節ロボット、水平多関節ロボット)である。ロボット60は、関節を駆動するための駆動装置61と、関節の変位(角度変位)を検出する変位検出装置62とを備えている。駆動装置61は、例えば、ロボットコントローラ50からの駆動指令に応答して駆動するサーボモータである。変位検出装置62は、例えば、サーボモータの回転角を検出するエンコーダ(例えば、インクリメンタル型エンコーダ、又はアブソリュート型エンコーダなど)である。ロボット60の各関節には、駆動装置61と変位検出装置62とが組み込まれている。
ロボット60は、自律的に動作するマニピュレータとして動作し、例えば、計測対象物80のピッキング、組み立て、搬送、塗装、検査、研磨、又は洗浄などの様々な用途に用いることができる。計測対象物80は、例えば、仕掛け品又は部品などのワークである。ワークの例として、自動車のパワートレイン系(例えば、エンジン、又はトランスミッションなど)の機械部品、又は電装系の電子部品を挙げることができる。
計測システム100は、計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節の駆動を制御する。そして、計測システム100は、計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,90-3,…,90-Nで計測対象物80の3Dデータを計測するとともに、各3Dデータが計測された時点におけるロボット60の各関節の変位を検出する。ここで、Nは、2以上の整数である。
計測システム100は、複数の計測ポイント90-1,90-2,90-3,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を停止させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させる。特定の計測ポイントでは、計測システム100は、ロボット60の停止中に計測対象物80の3Dデータを計測するとともに、各3Dデータが計測された時点におけるロボット60の各関節の変位を検出する。特定の計測ポイントでは、ロボット60の動作は停止しているため、特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するタイミングと、変位検出装置62がロボット60の各関節の変位を検出するタイミングとが同期していなくても、特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは一致している。特定の計測ポイント以外の各計測ポイントでは、計測システム100は、ロボット60の動作中に計測対象物80の3Dデータを計測するとともに、各3Dデータが計測された時点におけるロボット60の各関節の変位を検出する。特定の計測ポイント以外の計測ポイントでは、ロボット60は動作しているため、3Dセンサ70が計測対象物80の3Dデータを計測するタイミングと、変位検出装置62がロボット60の各関節の変位を検出するタイミングとは、必ずしも、同期しているとは限らず、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは、必ずしも、一致しているとは限らない。
ロボット60の動作を停止させる特定の計測ポイントの数は、1以上N-1以下の正数であればよい。説明の簡略化のため、以下の説明においては、計測ポイント90-1を特定の計測ポイントとする場合を例示する。この場合、計測ポイント90-1でロボット60の停止中に3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは一致している。一方、計測ポイント90-2,90-3,…,90-Nのそれぞれでロボット60の動作中に3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは、必ずしも、一致しているとは限らない。
なお、図1において、符号201は、ロボット60を基準とする座標系を示し、符号202は、ロボットハンド63を基準とする座標系を示し、符号203は、3Dセンサ70を基準とする座標系を示す。座標系201,202,203を、それぞれ、ロボット座標系、ツール座標系、及びセンサ座標系と呼ぶ。
図2は本発明の実施形態に関わる3Dデータの処理の流れの一例を示す説明図である。3Dデータの処理は、レジストレーション処理300と、座標変換処理400とを備える。符号110-1は、特定の計測ポイント90-1でロボット60の停止中に計測された計測対象物80の3Dデータを示す。符号110-2,110-3,…,110-Nは、それぞれ、計測ポイント90-2,90-3,…,90-Nでロボット60の動作中に計測された計測対象物80の3Dデータを示す。
特定の計測ポイント90-1では、3Dセンサ70が計測対象物80の3Dデータ110-1を計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは、一致しているため、3Dデータ110-1が計測された時点のロボット60の正確な位置及び姿勢は、その時点で変位検出装置62が検出する各関節の変位から計算により求めることができる。一方、計測ポイント90-2,90-3,…,90-Nのそれぞれでは、3Dセンサ70が計測対象物80の3Dデータ110-2,110-3,…,110-Nを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは、必ずしも一致しているとは限らないが、3Dデータ110-2,110-3,…,110-Nが計測された時点のロボット60の凡その位置及び姿勢は、その時点で変位検出装置62が検出する各関節の変位から計算により求めることができる。
ここで、ロボット60に対する3Dセンサ70の相対的な位置関係は、一定であり、且つ、既知であるから、計測対象物80に対する3Dセンサ70の相対的な位置関係の変化は、計測対象物80に対するロボット60の相対的な位置関係の変化から計算により求めることができる。例えば、計測ポイント90-1でロボット60の停止中に計測された3Dデータ110-1と、計測ポイント90-2でロボット60の動作中に計測された3Dデータ110-2とに着目すると、これらの3Dデータ110-1,110-2のそれぞれが計測された時点で変位検出装置62が検出する各関節の変位の変化(ロボット60の位置及び姿勢の変化)から、計測対象物80に対する二つの計測ポイント90-1,90-2の相対的な位置関係の凡その変化を計算により求めることができる。計測システム100は、このような計算により求まる二つの計測ポイント90-1,90-2の相対的な位置関係の凡その変化に基づいて、3Dデータ110-2を3Dデータ110-1にレジストレーションする。
レジストレーションとは、一方の3Dデータの位置及び姿勢を他方の3Dデータの位置及び姿勢に合わせるための座標変換を意味する。計測ポイント90-2で3Dセンサ70が計測対象物80の3Dデータ110-2を計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは、必ずしも、一致しているとは限らないため、3Dデータ110-1,110-2のそれぞれが計測された時点で変位検出装置62が検出する各関節の変位に基づいて、3Dデータ110-2を3Dデータ110-1にレジストレーションすると、レジストレーション誤差が生じ得る。そこで、計測システム100は、3Dデータ110-1,110-2のレジストレーション誤差が閾値未満となるように、例えば、ICP(Iterative Closest Point)などのアルゴリズムを用いて、3Dデータ110-2を3Dデータ110-1にレジストレーションする。このように、3Dデータ110-1,110-2のそれぞれが計測された時点で変位検出装置62が検出する各関節の変位の変化から推定される計測ポイント90-1,90-2の相対的な位置関係の変化と、計測ポイント90-1,90-2の相対的な位置関係の実際の変化との誤差によりレジストレーション誤差が生じたとしても、ICPなどのアルゴリズムを用いて、このレジストレーション誤差を閾値未満に低減することができる。このため、ICPなどのアルゴリズムを用いた精密なレジストレーションの前処理として、3Dデータ110-1,110-2のそれぞれが計測された時点で変位検出装置62が検出する各関節の変位に基づく大まかなレジストレーションを行うことにより、レジストレーションに要する全体の処理時間を短縮できる。
上述の処理を経て、計測システム100は、3Dデータ110-2を3Dデータ110-1にレジストレーションする。同様にして、計測システム100は、3Dデータ110-3,110-4,…,110-Nのそれぞれを3Dデータ110-1にレジストレーションする。特定の計測ポイントの数が1つである場合、レジストレーション処理300は、(N-1)個の3Dデータ110-2,110-3,…,110-Nのそれぞれを3Dデータ110-1にレジストレーションする処理である。符号110-Sは、レジストレーション処理300を通じて得られる3Dデータを示す。3Dデータ110-Sは、センサ座標系203における計測対象物80の3Dデータである。
計測システム100は、センサ座標系203における計測対象物80の3Dデータ110-Sを、公知の変換行列を用いて、ツール座標系202、ロボット座標系201、又はその他の座標系における計測対象物80の3Dデータに変換することができる。座標変換処理400は、センサ座標系203における計測対象物80の3Dデータ110-Sを、特定の座標系(ツール座標系202、ロボット座標系203、又はその他の座標系)に座標変換する処理である。符号110-Rは、ロボット座標系201における計測対象物80の3Dデータを示しており、図2に示す例では、座標変換処理400により、センサ座標系203における計測対象物80の3Dデータ110-Sは、ロボット座標系201における計測対象物80の3Dデータ110-Rに変換されている。
計測システム100は、ロボット座標系201における計測対象物80の3Dデータ110-Rに基づいてロボット60に対する計測対象物80の位置及び姿勢を計算し、ロボット60が計測対象物80を操作するための動作目標を求めることができる。例えば、ロボット60が計測対象物80を把持する操作においては、ロボット60の動作目標は、ロボットハンド63が計測対象物80を把持するために要求されるロボット60の目標位置及び目標姿勢である。
なお、計測対象物80の3Dデータの処理は、必ずしも、座標変換処理400を要するものではなく、座標変換処理400に替えて、計測システム100の目的に応じた処理を用いてもよい。
また、上述の説明では、説明を簡略化するため、計測ポイント90-1を特定の計測ポイントとする例を挙げたが、例えば、2つの計測ポイント90-1,90-3を特定の計測ポイントとしてもよい。この場合、例えば、3Dデータ110-4を3Dデータ110-1にレジストレーションする処理に替えて、3Dデータ110-4を3Dデータ110-3にレジストレーションし、その結果得られる3Dデータを3Dデータ110-1にレジストレーションする処理を用いてもよい。このように、特定の計測ポイント以外の何れかの計測ポイントでロボット60の動作中に計測された3Dデータを、ある特定の計測ポイントでロボット60の停止中に計測された3Dデータにレジストレーションし、その結果得られる3Dデータを、他の特定の計測ポイントでロボット60の停止中に計測された3Dデータに更にレジストレーションしてもよい。
図3は本発明の実施形態に関わるレジストレーション処理300の一例を示す説明図である。
図3(A)において、符号110-1は、特定の計測ポイント90-1でロボット60の停止中に計測された計測対象物80の3Dデータを示す。符号110-2は、計測ポイント90-2でロボット60の動作中に計測された計測対象物80の3Dデータを示す。
図3(B)に示すように、3Dデータ110-1,110-2のそれぞれが計測された時点で変位検出装置62が検出する各関節の変位に基づいて、3Dデータ110-2を3Dデータ110-1にレジストレーションする処理が行われる。符号110-1Aは、3Dデータ110-1の中のある一点を示し、符号110-2Aは、3Dデータ110-2の中の点110-1Aに対応する点を示す。二つの点110-1A,110-2Aは、対応する関係にあるため、これらを対応点と呼ぶ。対応点110-1A,110-2A間の距離ΔEは、レジストレーション誤差に相当する。
図3(C)に示すように、ICPなどのアルゴリズムを用いて、レジストレーション誤差ΔEが閾値未満となるように、3Dデータ110-2を3Dデータ110-1にレジストレーションする処理が行われる。閾値は、レジストレーション処理300の精度が実用上十分な精度になる値でよい。レジストレーション誤差ΔEは、全く位置合わせがされていないと仮定したときの3Dデータ110-1,110-2のレジストレーション誤差よりも小さいと考えられるため、ICPによる対応点110-1A,110-2Aの探索及び剛体変換推定の処理回数を低減し、結果として、レジストレーション処理に要する時間を短縮できる。
非特許文献1,2に記載のレジストレーションのアルゴリズムは、画像処理に多くの計算を要するため、計算時間が長くなることがある。これに対し、本実施形態に関わるレジストレーション処理300によれば、画像処理に要する計算が少ないため、短時間で計算を終えることができる。また、非特許文献3に記載のICPは、初期状態の3Dデータ間の誤差が大きい場合には、対応点の探索と剛体変換推定とを何度も繰り返す結果、計算時間が長くなったり、或いは、レジストレーションに失敗したりすることがある。これに対し、本実施形態に関わるレジストレーション処理300によれば、ICPによる対応点の探索及び剛体変換推定の処理回数を低減し、短時間で計算を終えることができる。また、レジストレーションのロバスト性を高めることができる。
以上の理由により、本実施形態に関わるレジストレーション処理300は、生産性が要求されるファクトリーオートメーションの分野において有用である。
[ハードウェア構成]
次に、図4を参照しながら、本発明の実施形態に関わる計測システム100及び計測装置200のハードウェア構成の一例について説明する。
計測装置200は、コンピュータシステム10と、3Dセンサ70とを備える。計測システム100は、計測装置200と、ロボット60と、ロボットコントローラ50とを備える。コンピュータシステム10は、演算装置20と、記憶装置30と、入出力インタフェース40とを備える。演算装置20は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23とを備えている。
記憶装置30は、ディスク媒体(例えば、磁気記録媒体又は光磁気記録媒体)又は半導体メモリ(例えば、揮発性メモリ又は不揮発性メモリ)などのコンピュータ読み取り可能な記録媒体である。このような記録媒体は、例えば、非一過性の記録媒体と呼ぶこともできる。記憶装置30は、本発明の実施形態に関わる計測方法を実行するための計測プログラム31を格納している。計測プログラム31は、記憶装置30からRAM23に読み込まれ、CPU21によって解釈及び実行される。計測プログラム31は、ロボット60の動作を制御するメインプログラムとしても機能する。
演算装置20は、入出力インタフェース40を通じて、変位検出装置62から出力されるロボット60の各関節の変位を示す情報を入力するとともに、ロボット60の各関節を駆動する駆動装置61に駆動指令を出力する。
ロボットコントローラ50は、入出力インタフェース40を通じて、演算装置20から出力される駆動指令に応答して、ロボット60の各関節を駆動する駆動装置61の駆動(例えば、サーボモータの回転数及び回転トルク)を制御する。
3Dセンサ70は、入出力インタフェース40を通じて、演算装置20から出力される計測指令に応答して、計測対象物80の3Dデータを計測する。
演算装置20は、入出力インタフェース40を通じて、3Dセンサ70によって計測された計測対象物80の3Dデータと、変位検出装置62から出力されるロボット60の各関節の変位を示す情報とを入力し、3Dセンサ70による計測対象物80の3Dデータの計測を指令する計測指令と、駆動装置61の駆動を制御する駆動指令とを出力する。このとき、RAM23は、3Dセンサ70によって計測された計測対象物80の3Dデータと、変位検出装置62から出力されるロボット60の各関節の変位を示す情報とを一時的に記憶し、演算装置20によるレジストレーション処理300を行うためのワークエリアとして機能する。
なお、図4では、駆動装置61及び変位検出装置62がそれぞれ一つ図示されている例が示されているが、駆動装置61及び変位検出装置62のそれぞれの個数は、関節の個数と同数でよい。
[機能構成]
図5は本発明の実施形態に関わるコンピュータシステム10の機能の一例を示すブロック図である。コンピュータシステム10のハードウェア資源と計測プログラム31との協働により、駆動制御部11、センサ制御部12、同期制御部13、レジストレーション処理部14、レジストレーション処理部15、座標変換部16、位置姿勢推定部17、及び動作目標算出部18としての機能が実現される。
駆動制御部11は、計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動するための駆動指令を生成する。
センサ制御部12は、計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御する。
同期制御部13は、複数の計測ポイント90-1,90-2,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を停止させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢と一致させる。特定の計測ポイント以外の何れか一つ以上の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは、一致していてもよく、或いは不一致でもよい。3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させるために、特定の計測ポイント以外でロボット60の動作を停止させる必要がなく、計測対象物80の3Dデータのレジストレーションに要する時間を短縮できる。特に、特定の計測ポイントの数が1つである場合、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させるために、ロボット60の動作を停止させる回数は1回でよいため、計測対象物80の3Dデータのレジストレーションに要する時間を短縮できる。
レジストレーション処理部14は、特定の計測ポイントでロボット60の停止中に3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、特定の計測ポイント以外の計測ポイントでロボット60の動作中に3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の停止中に計測された計測対象物80の3Dデータにレジストレーションする。
レジストレーション処理部15は、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータと、特定の計測ポイントでロボット60の停止中に計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、例えば、ICPなどのアルゴリズムを用いて、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の停止中に計測された計測対象物80の3Dデータにレジストレーションする。
座標変換部16は、特定の計測ポイント以外の各計測ポイントで計測された計測対象物80の3Dデータと特定の計測ポイントで計測された計測対象物80の3Dデータとのレジストレーション処理部14,15によるレジストレーション処理300により得られる3Dデータ110-Sを3Dセンサ70の座標系203からロボット60の座標系201に変換するための座標変換処理400を行う。
位置姿勢推定部17は、座標変換部16により座標変換された3Dデータ110-Rに基づいてロボット60に対する測定対象物80の位置及び姿勢を推定する。
動作目標算出部18は、ロボット60に対する測定対象物80の位置及び姿勢に基づいて、ロボット60が計測対象物80を操作するための動作目標を算出する。動作目標は、ロボット60が計測対象物80を操作するために要求されるロボット60の目標位置及び目標姿勢である。
なお、上述の各部(駆動制御部11、センサ制御部12、同期制御部13、レジストレーション処理部14、レジストレーション処理部15、座標変換部16、位置姿勢推定部17、及び動作目標算出部18)は、必ずしも、コンピュータシステム10のハードウェア資源と計測プログラム31との協働によって実現される必要はなく、例えば、専用のハードウェア資源(例えば、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートアレイ(FPGA)など)を用いて実現されてもよい。
なお、座標変換部16、位置姿勢推定部17、及び動作目標算出部18の各機能は必須ではないため、コンピュータシステム10は、これらの機能に替えて、目的に応じた他の機能を備えてもよい。
[計測方法]
図6は、本発明の実施形態に関わる計測方法の処理の流れの一例を示すフローチャートである。この計測方法は、演算装置20による計測プログラム31の実行を通じて処理される。
ステップ601において、駆動制御部11は、計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動するための駆動指令を生成し、生成された駆動指令をロボットコントローラ50に出力する。ロボット60の動作中又は停止中に、センサ制御部12は、計測対象物80の3Dデータを計測することを要求する計測指令を生成し、生成された計測指令を3Dセンサ70に出力する。3Dデータの計測指令は、特定の計測ポイントでロボット60が停止している最中に3Dセンサ70に出力される。また、3Dデータの計測指令は、特定の計測ポイント以外の各計測ポイントでロボット60が動作している最中に3Dセンサ70に出力される。
ステップ602において、3Dセンサ70は、センサ制御部12からの計測指令に応答して計測対象物80の3Dデータを計測し、同時に、変位検出装置62は、計測対象物80の3Dデータが計測された時点におけるロボット60の各関節の変位を検出する。3Dセンサ70により計測された計測対象物80の3Dデータは、3Dセンサ70から入出力インタフェース40を通じて、RAM23に転送される。同様に、変位検出装置62により検出されたロボット60の各関節の変位を示す情報は、変位検出装置62からロボットコントローラ50及び入出力インタフェース40を通じて、RAM23に転送される。
ステップ603において、レジストレーション処理部14は、RAM23に格納されている計測情報(計測対象物80の3Dデータ及びロボット60の各関節の変位を示す情報)を読み取り、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の停止中に計測された計測対象物80の3Dデータにレジストレーションする。レジストレーション処理部15は、レジストレーション処理部14によるレジストレーション誤差が閾値未満になるように、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の停止中に計測された計測対象物80の3Dデータにレジストレーションする。ステップ603の処理内容は、レジストレーション処理300と同じである。
ステップ604において、座標変換部16は、ステップ603のレジストレーション処理により得られる3Dデータ110-Sを3Dセンサ70の座標系203からロボット60の座標系201に変換する。ステップ604の処理内容は、座標変換処理400と同じである。
ステップ605において、位置姿勢推定部17は、ステップ604により座標変換された3Dデータ110-Rに基づいてロボット60に対する測定対象物80の位置及び姿勢を推定する。
ステップ606において、動作目標算出部18は、ステップ605で推定された測定対象物80の位置及び姿勢に基づいて、ロボット60が計測対象物80を操作するための動作目標(目標位置及び目標姿勢)を算出する。
ステップ607において、駆動制御部11は、ロボット60の位置及び姿勢が、ステップ606で算出された目標位置及び目標姿勢に一致するように、ロボット60の各関節を駆動するための駆動指令を生成し、生成された駆動指令をロボットコントローラ50に出力する。
なお、ステップ604~607の処理は、本発明の実施形態に関わる計測方法に必須ではないため、本発明の実施形態に関わる計測方法は、これらの処理に替えて、計測システム100の計測目的に応じた他の処理を含んでもよい。また、ステップ604,605の順序を入れ替えてもよい。例えば、センサ座標系203において、ロボット60に対する測定対象物80の位置及び姿勢を推定し、次に、ロボット60に対する測定対象物80の位置及び姿勢をセンサ座標系203からロボット座標系201に変換してもよい。
特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させるための手法として、コンピュータシステム10によるソフトウェア的な手法と、ロボットコントローラ50によるハードウェア的な手法とがある。
ソフトウェア的な手法では、例えば、コンピュータシステム10は、ロボット60の各関節の変位を示す情報の転送をロボットコントローラ50に要求するコマンドをロボットコントローラ50に送信することにより、ロボット60の各関節の変位を示す情報を変位検出装置62からロボットコントローラ50を通じて受信するとともに、同時に、コンピュータシステム10は、計測対象物80の3Dデータの計測を3Dセンサ70に指示することにより、計測対象物80の3Dデータを3Dセンサ70から取得する。
ハードウェア的な手法では、例えば、ロボットコントローラ50は、ロボット60の各関節の変位を示す情報を変位検出装置62から取得するとともに、同時に、計測対象物80の3Dデータの計測を3Dセンサ70に指示する。ロボット60の各関節の変位を示す情報は、ロボットコントローラ50からコンピュータシステム10に転送されるとともに、計測対象物80の3Dデータは、3Dセンサ70からコンピュータシステム10に転送される。
なお、ロボット60は、ファクトリーオートメーションに用いられる産業ロボットに限定されるものではなく、例えば、サービス業に用いられるロボット(例えば、オペレーティングロボット、医療用ロボット、掃除ロボット、レスキューロボット、セキュリティロボットなど)でもよい。
[発明の実施形態2]
ここでは、発明の実施形態2と発明の実施形態1との相違点を中心に説明し、実施形態1,2に共通する説明を省略する。
発明の実施形態1では、計測システム100は、複数の計測ポイント90-1,90-2,90-3,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を停止させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させる。これに対し、発明の実施形態2では、計測システム100は、複数の計測ポイント90-1,90-2,90-3,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を減速させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させる。
3Dセンサ70が特定の計測ポイントを通過する直前のロボット60の動作速度が、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させることができるロボット60の動作速度(以下、「許容動作速度」と呼ぶ)を超えている場合には、計測システム100は、3Dセンサ70が特定の計測ポイントを通過するときのロボット60の動作速度を許容動作速度以下に減速させる。特定の計測ポイントでは、計測システム100は、ロボット60の減速中に計測対象物80の3Dデータを計測するとともに、3Dデータが計測された時点におけるロボット60の各関節の変位を検出する。このとき、特定の計測ポイントでは、ロボット60の動作は許容動作速度以下に減速しているため、特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するタイミングと、変位検出装置62がロボット60の各関節の変位を検出するタイミングとが同期していなくても、特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させることができる。
特定の計測ポイント以外の各計測ポイントでは、計測システム100は、ロボット60の動作中に計測対象物80の3Dデータを計測するとともに、各3Dデータが計測された時点におけるロボット60の各関節の変位を検出する。特定の計測ポイント以外の計測ポイントでは、3Dセンサ70が計測対象物80の3Dデータを計測するタイミングと、変位検出装置62がロボット60の各関節の変位を検出するタイミングとは、必ずしも、同期しているとは限らず、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは、必ずしも、一致しているとは限らない。 ロボット60の動作を減速させる特定の計測ポイントの数は、1以上N-1以下の正数であればよい。
発明の実施形態2では、発明の実施形態1と同様に、コンピュータシステム10のハードウェア資源と計測プログラム31との協働により、駆動制御部11、センサ制御部12、同期制御部13、レジストレーション処理部14、レジストレーション処理部15、座標変換部16、位置姿勢推定部17、及び動作目標算出部18としての機能が実現される。
発明の実施形態2の同期制御部13は、複数の計測ポイント90-1,90-2,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を減速させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢と一致させる点において、発明の実施形態1の同期制御部13とは異なる。
発明の実施形態2のレジストレーション処理部14は、特定の計測ポイントでロボット60の減速中に3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、特定の計測ポイント以外の計測ポイントでロボット60の動作中に3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の減速中に計測された計測対象物80の3Dデータにレジストレーションする点において、実施形態1のレジストレーション処理部14とは異なる。
発明の実施形態2のレジストレーション処理部15は、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータと、特定の計測ポイントでロボット60の減速中に計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、例えば、ICPなどのアルゴリズムを用いて、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の減速中に計測された計測対象物80の3Dデータにレジストレーションする点において、実施形態1のレジストレーション処理部15とは異なる。
発明の実施形態2によれば、複数の計測ポイントのうち何れか特定の計測ポイントでロボット60の動作を停止させる場合よりも、計測対象物80の3Dデータのレジストレーションに要する時間を短縮できる。
[発明の実施形態3]
ここでは、発明の実施形態3と、発明の実施形態1,2の相違点を中心に説明し、実施形態1乃至3に共通する説明を省略する。
発明の実施形態1,2では、計測システム100は、複数の計測ポイント90-1,90-2,90-3,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を停止又は減速させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させる。これに対し、発明の実施形態3では、計測対象物80に対する3Dセンサ70の位置が特定の計測ポイントに一致するときのロボット60の各関節の変位は、特定の値として既知であり、ロボット60の各関節の変位が特定の値に一致するときに、変位検出装置62は、計測対象物80の3Dデータの計測を要求する計測指令を3Dセンサ70に出力することにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢を一致させる。発明の実施形態3では、変位検出装置62は、ロボット60の各関節の変位を検出するエンコーダと、計測指令を3Dセンサ70に出力する信号出力装置とを備える。
特定の計測ポイントでは、ロボット60の各関節の変位は、特定の値として既知であるため、ロボット60の各関節の変位が特定の値に一致するときに、変位検出装置62は、計測対象物80の3Dデータの計測を要求する計測指令を3Dセンサ70に出力することにより、特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するタイミングと、変位検出装置62がロボット60の各関節の変位を検出するタイミングとが同期していなくても、特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させることができる。
特定の計測ポイント以外の各計測ポイントでは、計測システム100は、ロボット60の動作中に計測対象物80の3Dデータを計測するとともに、各3Dデータが計測された時点におけるロボット60の各関節の変位を検出する。特定の計測ポイント以外の計測ポイントでは、3Dセンサ70が計測対象物80の3Dデータを計測するタイミングと、変位検出装置62がロボット60の各関節の変位を検出するタイミングとは、必ずしも、同期しているとは限らず、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とは、必ずしも、一致しているとは限らない。ロボット60の各関節の変位が特定の値に一致するときに、変位検出装置62が、計測対象物80の3Dデータの計測を要求する計測指令を3Dセンサ70に出力する特定の計測ポイントの数は、1以上N-1以下の正数であればよい。
なお、ロボット60の各関節の変位が特定の値に一致してから、変位検出装置62が計測対象物80の3Dデータの計測を要求する計測指令を3Dセンサ70に出力するまでの遅延時間Td1と、3Dセンサ70が変位検出装置62から計測要求を受信してから計測対象物80の3Dデータの計測を完了するまでの遅延時間Td2とが生じ得る。合計の遅延時間Td=Td1+Td2がロボット60の移動速度と比較して無視できない程度に大きい場合には、計測システム100は、ロボット60の各関節の変位が特定の値に一致するときの時刻から遅延時間Tdが経過したときの時刻でのロボット60の各関節の変位を、計測対象物80に対する3Dセンサ70の位置が特定の計測ポイントに一致するときのロボット60の各関節の変位と見做してもよい。これにより、遅延時間Tdが補正された精度の高いレジストレーション処理を行うことができる。
発明の実施形態3では、発明の実施形態1,2と同様に、コンピュータシステム10のハードウェア資源と計測プログラム31との協働により、駆動制御部11、センサ制御部12、レジストレーション処理部14、レジストレーション処理部15、座標変換部16、位置姿勢推定部17、及び動作目標算出部18としての機能が実現される。発明の実施形態3では、変位検出装置62は、発明の実施形態1,2の同期制御部13の機能と同等の機能を備えるため、発明の実施形態3のコンピュータシステム10は、発明の実施形態1,2の同期制御部13の機能と同等の機能を備えていなくてもよい。
発明の実施形態3のレジストレーション処理部14は、特定の計測ポイントでロボット60の動作中に3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、特定の計測ポイント以外の計測ポイントでロボット60の動作中に3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位に基づいて、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータにレジストレーションする点において、実施形態1,2のレジストレーション処理部14とは異なる。
発明の実施形態3のレジストレーション処理部15は、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータと、特定の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、例えば、ICPなどのアルゴリズムを用いて、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータにレジストレーションする点において、実施形態1,2のレジストレーション処理部15とは異なる。
発明の実施形態3によれば、複数の計測ポイントのうち何れか特定の計測ポイントでロボット60の動作を停止又は減速させる必要がないため、計測対象物80の3Dデータのレジストレーションに要する時間を短縮できる。
[発明の実施形態4]
ここでは、発明の実施形態4と、発明の実施形態1乃至3の相違点を中心に説明し、実施形態1乃至4に共通する説明を省略する。
発明の実施形態4では、コンピュータシステム10とロボットコントローラ50との間、及びロボットコントローラ50とロボット60との間は、フィールドバスを通じて接続されている。発明の実施形態4では、コンピュータシステム10とロボットコントローラ50との間、及びロボットコントローラ50とロボット60との間に加えて、コンピュータシステム10と3Dセンサ70との間も、フィールドバスを通じて接続されてもよい。一方、発明の実施形態1乃至3では、コンピュータシステム10とロボットコントローラ50との間、ロボットコントローラ50とロボット60との間、及びコンピュータシステム10と3Dセンサ70との間は、必ずしも、フィールドバスを通じて接続されることを要しない。
フィールドバスは、計測・制御用機器間の通信に用いられるデジタルネットワークである。フィールドバスとして、例えば、イーサキャットを用いてもよい。イーサキャットによれば、分散クロック機能により、各デバイス(コンピュータシステム10、ロボットコントローラ50、ロボット60、及び3Dセンサ70)が時刻情報を共有することにより、短い時間単位(例えば、250μs)で各デバイスの動作を同期させることができる。3Dセンサ70が計測対象物80の3Dデータを計測するときの時刻と、変位検出装置62がロボット60の各関節の変位を検出するときの時刻との時間差に相当する遅延時間Td0がロボット60の動作速度に比較して無視できない程度である場合は、計測システム100は、遅延時間Td0に基づいて、上述の時間差を補正する処理を行ってもよい。例えば、計測対象物80に対する3Dセンサ70の位置が特定の計測ポイントに一致するときのロボット60の各関節の変位が、特定の値として既知である場合には、計測システム100は、ロボット60の各関節の変位が特定の値に一致するときの時刻から遅延時間Td0が経過したときの時刻でのロボット60の各関節の変位を、計測対象物80に対する3Dセンサ70の位置が特定の計測ポイントに一致するときのロボット60の各関節の変位と見做してもよい。
また、計測システム100は、センサ制御部12が計測対象物80の3Dデータを計測することを要求する計測指令を3Dセンサ70に出力するときの時刻を時系列的に記憶してもよい。また、ロボット60は、変位検出装置62がロボット60の各関節の変位を検出するときの時刻を、その時刻で検出されたロボット60の各関節の変位と関連付けて、時系列的に記憶してもよい。計測対象物80の3Dデータを計測することを要求する計測指令が3Dセンサ70に出力されたときの時刻に一致する時刻で変位検出装置62により検出されたロボット60の各関節の変位を、計測対象物80の3Dデータが計測されたときのロボット60の各関節の変位として見做してもよい。
発明の実施形態4では、発明の実施形態1,2と同様に、コンピュータシステム10のハードウェア資源と計測プログラム31との協働により、駆動制御部11、センサ制御部12、レジストレーション処理部14、レジストレーション処理部15、座標変換部16、位置姿勢推定部17、及び動作目標算出部18としての機能が実現される。発明の実施形態4では、フィールドバスを通じて、各デバイス(コンピュータシステム10、ロボットコントローラ50、ロボット60、及び3Dセンサ70)の動作が同期しているため、発明の実施形態4のコンピュータシステム10は、発明の実施形態1,2の同期制御部13の機能と同等の機能を備えていなくてもよい。
発明の実施形態4のレジストレーション処理部14は、特定の計測ポイントでロボット60の動作中に3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、特定の計測ポイント以外の計測ポイントでロボット60の動作中に3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータにレジストレーションする点において、実施形態1,2のレジストレーション処理部14とは異なる。
発明の実施形態4のレジストレーション処理部15は、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータと、特定の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、例えば、ICPなどのアルゴリズムを用いて、特定の計測ポイント以外の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータを、特定の計測ポイントでロボット60の動作中に計測された計測対象物80の3Dデータにレジストレーションする点において、実施形態1,2のレジストレーション処理部15とは異なる。
発明の実施形態4によれば、複数の計測ポイントのうち何れか特定の計測ポイントでロボット60の動作を停止又は減速させる必要がないため、計測対象物80の3Dデータのレジストレーションに要する時間を短縮できる。
上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
ロボット60に搭載される3Dセンサ70であって、計測対象物80の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサ70と、
ロボット60の各関節の変位を検出する変位検出装置62と、
計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動する駆動装置61と、
計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御するセンサ制御部12と、
複数の計測ポイント90-1,90-2,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を停止させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させる同期させる同期制御部13と、
ロボット60の停止中に特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションする第1のレジストレーション処理部14と、
ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータと、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションする第2のレジストレーション処理部15と、
を備える計測システム100。
(付記2)
付記1に記載の計測システム100であって、
特定の計測ポイント以外の何れか一つ以上の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するタイミングと、変位検出装置62がロボット60の各関節の変位を検出するタイミングとが非同期である、計測システム100。
(付記3)
付記1又は2に記載の計測システム100であって、
同期制御部13がロボット60の動作を停止させる回数は、複数の計測ポイント90-1,90-2,…,90-Nの数より少ない、計測システム100。
(付記4)
付記1乃至3のうち何れか1項に記載の計測システムであって、
特定の計測ポイントは、複数の計測ポイント90-1,90-2,…,90-Nのうち何れか一つの計測ポイントである、計測システム100。
(付記5)
付記1乃至4のち何れか1項に記載の計測システム100であって、
特定の計測ポイント以外の各計測ポイントで計測された計測対象物80の3Dデータと特定の計測ポイントで計測された計測対象物80の3Dデータとの第1のレジストレーション処理部14及び第2のレジストレーション処理部15によるレジストレーションにより得られる3Dデータを3Dセンサ70の座標系からロボット60の座標系に変換する座標変換部16と、
座標変換部16により座標変換された3Dデータに基づいてロボット60に対する測定対象物80の位置及び姿勢を推定する位置姿勢推定部17と、
を更に備える計測システム100。
(付記6)
ロボット60の各関節の変位を検出する変位検出装置62から出力される変位を示す情報を入力するとともに、ロボット60の各関節を駆動する駆動装置61に駆動指令を出力する計測装置200であって、
ロボット60に搭載される3Dセンサ70であって、計測対象物80の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサ70と、
計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動するための駆動指令を生成する駆動制御部11と、
計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御するセンサ制御部12と、
複数の計測ポイント90-1,90-2,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を停止させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させる同期制御部13と、
ロボット60の停止中に特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションする第1のレジストレーション処理部14と、
ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータと、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションする第2のレジストレーション処理部15と、
を備える計測装置200。
(付記7)
ロボット60に搭載される3Dセンサ70であって、計測対象物80の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサ70を備えるとともに、ロボット60の各関節の変位を検出する変位検出装置62から出力される変位を示す情報を入力し、且つ、ロボット60の各関節を駆動する駆動装置61に駆動指令を出力する計測装置200が、
計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動するための駆動指令を生成するステップと、
計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御するステップと、
複数の計測ポイント90-1,90-2,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を停止させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させるステップと、
ロボット60の停止中に特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションするステップと、
ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータと、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションするステップと、
を実行する計測方法。
(付記8)
ロボット60に搭載される3Dセンサ70であって、計測対象物80の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサ70を備えるとともに、ロボット60の各関節の変位を検出する変位検出装置62から出力される変位を示す情報を入力し、且つ、ロボット60の各関節を駆動する駆動装置61に駆動指令を出力する計測装置200に、
計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動するための駆動指令を生成するステップと、
計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御するステップと、
複数の計測ポイント90-1,90-2,…,90-Nのうち何れか特定の計測ポイントでロボット60の動作を停止させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させるステップと、
ロボット60の停止中に特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションするステップと、
ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータと、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションするステップと、
を実行させる計測プログラム31。
(付記9)
ロボット60に搭載される3Dセンサ70であって、計測対象物80の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサ70と、
ロボット60の各関節の変位を検出する変位検出装置62と、
計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動する駆動装置61と、
計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御するセンサ制御部12と、
複数の計測ポイント90-1,90-2,…,90-Nのうち何れか特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションする第1のレジストレーション処理部14と、
を備える計測システム100。
(付記10)
付記9に記載の計測システム100であって、
特定の計測ポイントでロボット60の動作を停止又は減速させることにより、3Dセンサ70が計測対象物80の3Dデータを計測するときのロボット60の位置及び姿勢と、変位検出装置62がロボット60の各関節の変位を検出するときのロボット60の位置及び姿勢とを一致させる同期制御部13を更に備え、
第1のレジストレーション処理部14は、ロボット60の停止中又は減速中に特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、ロボット60の動作中に特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、ロボット60の停止中又は減速中に特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションする、計測システム100。
(付記11)
付記9に記載の計測システム100であって、
計測対象物80に対する3Dセンサ70の位置が特定の計測ポイントに一致するときのロボット60の各関節の変位は、特定の値として既知であり、
ロボット60の各関節の変位が特定の値に一致するときに、変位検出装置62は、計測対象物80の3Dデータの計測を要求する計測指令を3Dセンサ70に出力する、計測システム100。
(付記12)
付記9に記載の計測システム100であって、
センサ制御部12及び第1のレジストレーション処理部14は、フィールドバスを通じて変位検出装置62に接続されている、計測システム100。
(付記13)
付記10に記載の計測システム100であって、
特定の計測ポイント以外の何れか一つ以上の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測するタイミングと、変位検出装置62がロボット60の各関節の変位を検出するタイミングとが非同期である、計測システム100。
(付記14)
付記10に記載の計測システム100であって、
同期制御部13がロボット60の動作を停止又は減速させる回数は、複数の計測ポイントの数より少ない、計測システム100。
(付記15)
付記10に記載の計測システム100であって、
特定の計測ポイントは、複数の計測ポイントのうち何れか一つの計測ポイントである、計測システム100。
(付記16)
付記9乃至15のち何れか1項に記載の計測システム100であって、
特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータと、特定の計測ポイントで計測された計測対象物80の3Dデータとのレジストレーション誤差が閾値未満になるように、特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションする第2のレジストレーション処理部15を更に備える、計測システム100。
(付記17)
付記16に記載の計測システム100であって、
特定の計測ポイント以外の各計測ポイントで計測された計測対象物80の3Dデータと特定の計測ポイントで計測された計測対象物80の3Dデータとの第1のレジストレーション処理部14及び第2のレジストレーション処理部15によるレジストレーションにより得られる3Dデータを3Dセンサ70の座標系からロボット60の座標系に変換する座標変換部16と、
座標変換部16により座標変換された3Dデータに基づいてロボット60に対する測定対象物80の位置及び姿勢を推定する位置姿勢推定部17と、
を更に備える計測システム100。
(付記18)
ロボット60の各関節の変位を検出する変位検出装置62から出力される変位を示す情報を入力するとともに、ロボット60の各関節を駆動する駆動装置61に駆動指令を出力する計測装置200であって、
ロボット60に搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサと、
計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動するための駆動指令を生成する駆動制御部11と、
計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御するセンサ制御部12と、
複数の計測ポイント90-1,90-2,…,90-Nのうち何れか特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションするレジストレーション処理部14と、
を備える計測装置200。
(付記19)
ロボット60に搭載される3Dセンサ70であって、計測対象物80の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサ70を備えるとともに、ロボット60の各関節の変位を検出する変位検出装置62から出力される変位を示す情報を入力し、且つ、ロボット60の各関節を駆動する駆動装置61に駆動指令を出力する計測装置200が、
計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動するための駆動指令を生成するステップと、
計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御するステップと、
複数の計測ポイントのうち何れか特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションするステップと、
を実行する計測方法。
(付記20)
ロボット60に搭載される3Dセンサ70であって、計測対象物80の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサ70を備えるとともに、ロボット60の各関節の変位を検出する変位検出装置62から出力される変位を示す情報を入力し、且つ、ロボット60の各関節を駆動する駆動装置61に駆動指令を出力する計測装置200に、
計測対象物80に対する3Dセンサ70の相対的な位置関係を変えるようにロボット60の各関節を駆動するための駆動指令を生成するステップと、
計測対象物80に対する3Dセンサ70の相対的な位置関係が異なる複数の計測ポイント90-1,90-2,…,90-Nで計測対象物80の3Dデータを計測するように3Dセンサ70を制御するステップと、
複数の計測ポイントのうち何れか特定の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位と、特定の計測ポイント以外の計測ポイントで3Dセンサ70が計測対象物80の3Dデータを計測した時点におけるロボット60の各関節の変位とに基づいて、特定の計測ポイント以外の計測ポイントで計測された計測対象物80の3Dデータを、特定の計測ポイントで計測された計測対象物80の3Dデータにレジストレーションするステップと、
を実行させる計測プログラム31。
10…コンピュータシステム 20…演算装置 21…CPU 22…ROM 23…RAM 30…記憶装置 31…計測プログラム 40…入出力インタフェース 50…ロボットコントローラ 60…ロボット 61…駆動装置 62…変位検出装置 70…3Dセンサ 80…計測対象物 100…計測システム 200…計測装置

Claims (12)

  1. ロボットに搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサと、
    前記ロボットの各関節の変位を検出する変位検出装置と、
    前記計測対象物に対する前記3Dセンサの相対的な位置関係を変えるように前記ロボットの各関節を駆動する駆動装置と、
    前記計測対象物に対する前記3Dセンサの相対的な位置関係が異なる複数の計測ポイントで前記計測対象物の3Dデータを計測するように前記3Dセンサを制御するセンサ制御部と、
    前記複数の計測ポイントのうち何れか特定の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位と、前記特定の計測ポイント以外の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位とに基づいて、前記特定の計測ポイント以外の計測ポイントで計測された前記計測対象物の3Dデータを、前記特定の計測ポイントで計測された前記計測対象物の3Dデータにレジストレーションする第1のレジストレーション処理部と、
    を備える計測システム。
  2. 請求項1に記載の計測システムであって、
    前記特定の計測ポイントで前記ロボットの動作を停止又は減速させることにより、前記3Dセンサが前記計測対象物の3Dデータを計測するときの前記ロボットの位置及び姿勢と、前記変位検出装置が前記ロボットの各関節の変位を検出するときの前記ロボットの位置及び姿勢とを一致させる同期制御部を更に備え、
    前記第1のレジストレーション処理部は、前記ロボットの停止中又は減速中に前記特定の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位と、前記ロボットの動作中に前記特定の計測ポイント以外の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位とに基づいて、前記ロボットの動作中に前記特定の計測ポイント以外の計測ポイントで計測された前記計測対象物の3Dデータを、前記ロボットの停止中又は減速中に前記特定の計測ポイントで計測された前記計測対象物の3Dデータにレジストレーションする、計測システム。
  3. 請求項1に記載の計測システムであって、
    前記計測対象物に対する前記3Dセンサの位置が前記特定の計測ポイントに一致するときの前記ロボットの各関節の変位は、特定の値として既知であり、
    前記ロボットの各関節の変位が前記特定の値に一致するときに、前記変位検出装置は、前記計測対象物の3Dデータの計測を要求する計測指令を前記3Dセンサに出力する、計測システム。
  4. 請求項1に記載の計測システムであって、
    前記センサ制御部及び前記第1のレジストレーション処理部は、フィールドバスを通じて前記変位検出装置に接続されている、計測システム。
  5. 請求項2に記載の計測システムであって、
    前記特定の計測ポイント以外の何れか一つ以上の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測するタイミングと、前記変位検出装置が前記ロボットの各関節の変位を検出するタイミングとが非同期である、計測システム。
  6. 請求項2に記載の計測システムであって、
    前記同期制御部が前記ロボットの動作を停止又は減速させる回数は、前記複数の計測ポイントの数より少ない、計測システム。
  7. 請求項2に記載の計測システムであって、
    前記特定の計測ポイントは、前記複数の計測ポイントのうち何れか一つの計測ポイントである、計測システム。
  8. 請求項1乃至7のち何れか1項に記載の計測システムであって、
    前記特定の計測ポイント以外の計測ポイントで計測された前記計測対象物の3Dデータと、前記特定の計測ポイントで計測された前記計測対象物の3Dデータとのレジストレーション誤差が閾値未満になるように、前記特定の計測ポイント以外の計測ポイントで計測された前記計測対象物の3Dデータを、前記特定の計測ポイントで計測された前記計測対象物の3Dデータにレジストレーションする第2のレジストレーション処理部を更に備える、計測システム。
  9. 請求項8に記載の計測システムであって、
    前記特定の計測ポイント以外の各計測ポイントで計測された前記計測対象物の3Dデータと前記特定の計測ポイントで計測された前記計測対象物の3Dデータとの前記第1のレジストレーション処理部及び前記第2のレジストレーション処理部によるレジストレーションにより得られる前記3Dデータを前記3Dセンサの座標系から前記ロボットの座標系に変換する座標変換部と、
    前記座標変換部により座標変換された前記3Dデータに基づいて前記ロボットに対する前記計測対象物の位置及び姿勢を推定する位置姿勢推定部と、
    を更に備える計測システム。
  10. ロボットの各関節の変位を検出する変位検出装置から出力される前記変位を示す情報を入力するとともに、前記ロボットの各関節を駆動する駆動装置に駆動指令を出力する計測装置であって、
    前記ロボットに搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサと、
    前記計測対象物に対する前記3Dセンサの相対的な位置関係を変えるように前記ロボットの各関節を駆動するための前記駆動指令を生成する駆動制御部と、
    前記計測対象物に対する前記3Dセンサの相対的な位置関係が異なる複数の計測ポイントで前記計測対象物の3Dデータを計測するように前記3Dセンサを制御するセンサ制御部と、
    前記複数の計測ポイントのうち何れか特定の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位と、前記特定の計測ポイント以外の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位とに基づいて、前記特定の計測ポイント以外の計測ポイントで計測された前記計測対象物の3Dデータを、前記特定の計測ポイントで計測された前記計測対象物の3Dデータにレジストレーションするレジストレーション処理部と、
    を備える計測装置。
  11. ロボットに搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサを備えるとともに、前記ロボットの各関節の変位を検出する変位検出装置から出力される前記変位を示す情報を入力し、且つ、前記ロボットの各関節を駆動する駆動装置に駆動指令を出力する計測装置が、
    前記計測対象物に対する前記3Dセンサの相対的な位置関係を変えるように前記ロボットの各関節を駆動するための前記駆動指令を生成するステップと、
    前記計測対象物に対する前記3Dセンサの相対的な位置関係が異なる複数の計測ポイントで前記計測対象物の3Dデータを計測するように前記3Dセンサを制御するステップと、
    前記複数の計測ポイントのうち何れか特定の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位と、前記特定の計測ポイント以外の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位とに基づいて、前記特定の計測ポイント以外の計測ポイントで計測された前記計測対象物の3Dデータを、前記特定の計測ポイントで計測された前記計測対象物の3Dデータにレジストレーションするステップと、
    を実行する計測方法。
  12. ロボットに搭載される3Dセンサであって、計測対象物の表面の各点の3次元座標を示す3Dデータを計測する3Dセンサを備えるとともに、前記ロボットの各関節の変位を検出する変位検出装置から出力される前記変位を示す情報を入力し、且つ、前記ロボットの各関節を駆動する駆動装置に駆動指令を出力する計測装置に、
    前記計測対象物に対する前記3Dセンサの相対的な位置関係を変えるように前記ロボットの各関節を駆動するための前記駆動指令を生成するステップと、
    前記計測対象物に対する前記3Dセンサの相対的な位置関係が異なる複数の計測ポイントで前記計測対象物の3Dデータを計測するように前記3Dセンサを制御するステップと、
    前記複数の計測ポイントのうち何れか特定の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位と、前記特定の計測ポイント以外の計測ポイントで前記3Dセンサが前記計測対象物の3Dデータを計測した時点における前記ロボットの各関節の変位とに基づいて、前記特定の計測ポイント以外の計測ポイントで計測された前記計測対象物の3Dデータを、前記特定の計測ポイントで計測された前記計測対象物の3Dデータにレジストレーションするステップと、
    を実行させる計測プログラム。
JP2020083903A 2019-05-15 2020-05-12 計測システム、計測装置、計測方法、及び計測プログラム Active JP7448884B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019091862 2019-05-15
JP2019091862 2019-05-15

Publications (2)

Publication Number Publication Date
JP2020190551A JP2020190551A (ja) 2020-11-26
JP7448884B2 true JP7448884B2 (ja) 2024-03-13

Family

ID=70681649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020083903A Active JP7448884B2 (ja) 2019-05-15 2020-05-12 計測システム、計測装置、計測方法、及び計測プログラム

Country Status (4)

Country Link
US (1) US11193755B2 (ja)
EP (1) EP3738725B1 (ja)
JP (1) JP7448884B2 (ja)
CN (1) CN111947568B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102784A1 (ja) 2020-11-16 2022-05-19 ヒューマンライフコード株式会社 筋肉量の低下抑制に用いる細胞調製物

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022201A1 (ja) 2004-08-25 2006-03-02 Kabushiki Kaisha Yaskawa Denki ロボットの評価システム及び評価方法
JP2011115546A (ja) 2009-11-30 2011-06-16 Ge Medical Systems Global Technology Co Llc 超音波三次元再構成方法及び装置、並びに超音波システム
JP2012040669A (ja) 2010-08-23 2012-03-01 Ihi Corp バラ積みピッキング装置および方法
JP2012200805A (ja) 2011-03-24 2012-10-22 Canon Inc ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
WO2013002099A1 (ja) 2011-06-29 2013-01-03 三菱電機株式会社 部品供給装置
JP2016099257A (ja) 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法
JP2016109630A (ja) 2014-12-09 2016-06-20 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2017090210A (ja) 2015-11-09 2017-05-25 株式会社東芝 計測装置及び計測方法
JP6200604B1 (ja) 2016-04-12 2017-09-20 株式会社オプティム 全天球カメラロボット高度調整システム、全天球カメラロボット高度調整方法及びプログラム
JP2018161700A (ja) 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、システム、情報処理方法、製造方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4481592A (en) * 1982-03-05 1984-11-06 Texas Instruments Incorporated Calibration system for a programmable manipulator
US4879664A (en) * 1985-05-23 1989-11-07 Kabushiki Kaisha Toshiba Three-dimensional position sensor and three-dimensional position setting system
US6697748B1 (en) * 1995-08-07 2004-02-24 Immersion Corporation Digitizing system and rotary table for determining 3-D geometry of an object
CN101261118A (zh) 2008-04-17 2008-09-10 天津大学 基于机器人的快速自动化三维形貌在线测量方法和系统
JP2013184257A (ja) 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
DE102016116702B4 (de) 2015-09-14 2019-01-24 Fanuc Corporation Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
JP6514156B2 (ja) 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
JP6527178B2 (ja) 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
EP3366433B1 (en) * 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Method of controlling robot, method of teaching robot, and robot system
JP6816070B2 (ja) * 2018-08-24 2021-01-20 ファナック株式会社 干渉回避装置およびロボットシステム
US20200096316A1 (en) * 2018-09-06 2020-03-26 Faro Technologies, Inc. Three-dimensional measuring device and method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022201A1 (ja) 2004-08-25 2006-03-02 Kabushiki Kaisha Yaskawa Denki ロボットの評価システム及び評価方法
JP2011115546A (ja) 2009-11-30 2011-06-16 Ge Medical Systems Global Technology Co Llc 超音波三次元再構成方法及び装置、並びに超音波システム
JP2012040669A (ja) 2010-08-23 2012-03-01 Ihi Corp バラ積みピッキング装置および方法
JP2012200805A (ja) 2011-03-24 2012-10-22 Canon Inc ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
WO2013002099A1 (ja) 2011-06-29 2013-01-03 三菱電機株式会社 部品供給装置
JP2016099257A (ja) 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法
JP2016109630A (ja) 2014-12-09 2016-06-20 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2017090210A (ja) 2015-11-09 2017-05-25 株式会社東芝 計測装置及び計測方法
JP6200604B1 (ja) 2016-04-12 2017-09-20 株式会社オプティム 全天球カメラロボット高度調整システム、全天球カメラロボット高度調整方法及びプログラム
JP2018161700A (ja) 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、システム、情報処理方法、製造方法

Also Published As

Publication number Publication date
JP2020190551A (ja) 2020-11-26
EP3738725A1 (en) 2020-11-18
US20200363186A1 (en) 2020-11-19
US11193755B2 (en) 2021-12-07
EP3738725B1 (en) 2022-02-16
CN111947568B (zh) 2021-11-02
CN111947568A (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
EP3229208B1 (en) Camera pose estimation
JP6703812B2 (ja) 3次元物体検査装置
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2007216350A (ja) 移動型ロボット
WO2019161517A1 (zh) 基于云端的轨迹地图生成方法、装置、设备及应用程序
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
KR101390466B1 (ko) 이동로봇 및 레이저 스캐너가 고속으로 움직일 때 측정된 스캔 거리 데이터들의 동적 오차 보정 방법 및 이를 이용한 스캔 거리 데이터 측정 장치
Buchholz et al. Combining visual and inertial features for efficient grasping and bin-picking
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP7448884B2 (ja) 計測システム、計測装置、計測方法、及び計測プログラム
JP4849178B2 (ja) 移動型ロボット
Gratal et al. Virtual visual servoing for real-time robot pose estimation
JP2006224291A (ja) ロボットシステム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
Zhu et al. Research on 3D virtual environment modeling technology for space tele-robot
US20240003675A1 (en) Measurement system, measurement device, measurement method, and measurement program
JP7134413B2 (ja) 計測装置、計測方法、及び計測プログラム
Nakhaeinia et al. Adaptive robotic contour following from low accuracy RGB-D surface profiling and visual servoing
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
JP2021133458A (ja) 3次元計測装置および3次元計測システム
Alizadeh et al. A real-time object distance measurement using a monocular camera
JP2021053775A (ja) 制御システムおよびロボットシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240213

R150 Certificate of patent or registration of utility model

Ref document number: 7448884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150