JP7328437B2 - 3次元点の位置情報を生成する三次元測定装置 - Google Patents

3次元点の位置情報を生成する三次元測定装置 Download PDF

Info

Publication number
JP7328437B2
JP7328437B2 JP2022501856A JP2022501856A JP7328437B2 JP 7328437 B2 JP7328437 B2 JP 7328437B2 JP 2022501856 A JP2022501856 A JP 2022501856A JP 2022501856 A JP2022501856 A JP 2022501856A JP 7328437 B2 JP7328437 B2 JP 7328437B2
Authority
JP
Japan
Prior art keywords
camera
dimensional
robot
workpiece
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022501856A
Other languages
English (en)
Other versions
JPWO2021166809A1 (ja
Inventor
祐輝 高橋
文和 藁科
稔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of JPWO2021166809A1 publication Critical patent/JPWO2021166809A1/ja
Application granted granted Critical
Publication of JP7328437B2 publication Critical patent/JP7328437B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45061Measuring robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45066Inspection robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、3次元点の位置情報を生成する三次元測定装置に関する。
視覚センサにて画像を撮像し、得られた画像に基づいて対象物の3次元の位置を検出する測定装置が知られている。3次元の位置を検出する測定装置としては、レーザ距離計を所定の範囲に走査して位置を検出する装置および2台のカメラにて画像を撮像して三角測量の原理に基づいて位置を検出する装置などが知られている(例えば、特開2008-264947号公報および特開2006-258486号公報を参照)。
また、3次元の位置を検出する測定装置としては、光源から光を発した後に、対象物の表面にて反射した光を受光素子で受光する距離カメラが知られている(例えば、国際公開第2018/042801号を参照)。距離カメラは、受光素子の画素ごとに、光の飛行時間と光の速さとに基づいて対象物までの距離を検出する。
例えば、距離カメラは、所定の周期で強度を変調した光を対象物に向けて照射する。距離カメラは、光源から発した光と反射光との位相差に基づいて、距離カメラから対象物までの距離を算出する。この測定方式は、光飛行時間方式と呼ばれている。距離カメラは、画素ごとに取得した距離に応じて、色または濃度が変化した距離画像を生成することができる。
特開2008-264947号公報 特開2006-258486号公報 国際公開第2018/042801号
光移行時間方式にて画像を撮像する距離カメラでは、画素ごとに距離カメラから対象物までの距離を算出する。この結果、対象物の表面に画素に対応する3次元点を設定することができる。3次元点の位置は、対象物の表面の位置に対応する。
距離カメラの受光素子は、対象物の表面にて反射する1つの経路にて進行する光を受光することが好ましい。ところが、対象物の形状によっては、光源から発せられた光が、複数の位置にて反射して距離カメラに戻る場合がある。例えば、光は、所望の位置とは異なる位置にて反射した後に所望の位置にて反射して距離カメラに戻る場合がある。受光素子は、複数の経路にて反射した光を受光する場合がある。このような複数の経路は、マルチパスと称されている。
受光素子が複数の経路を進行する光を受光すると、距離カメラにて検出される対象物までの距離が長くなる。それぞれの画素において検出される対象物までの距離は、光の反射の形態により変化する。この結果、距離カメラは、対象物の表面に設定される3次元点を正しい位置に設定できない場合がある。例えば、一部の画素にて検出される対象物までの距離が長くなるために、対象物の表面が平面であるにも関わらず、表面が凹んだ形状にて検出される場合がある。このように、マルチパスにて反射光が受光されると、距離カメラは対象物の表面における3次元点の位置を正確に検出できなくなるために、マルチパスの影響を低減することが好ましい。
本開示の三次元測定装置は、光の飛行時間に基づいて物体の表面の3次元点の位置情報を取得する距離カメラと、距離カメラにて取得された3次元点の位置情報を処理する処理装置とを備える。距離カメラは、物体に対する距離カメラの複数の相対的な位置および姿勢において、3次元点の位置情報を取得する。処理装置は、物体の表面に対応する3次元点の位置を評価するための複数の評価領域を物体に対して設定する設定部を含む。処理装置は、それぞれの評価領域において、評価領域内に検出された3次元点のうち、予め定められた基準平面、基準点、または基準線に最も近い3次元点を特定する特定部を含む。処理装置は、特定部により評価領域ごとに特定された複数の3次元点に基づいて、距離カメラにて取得された複数の3次元点の位置情報を合成した3次元点の位置情報を生成する生成部を含む。
本開示の態様によれば、マルチパスの影響を低減する三次元測定装置を提供することができる。
実施の形態における第1のロボット装置の側面図である。 第1のロボット装置のブロック図である。 実施の形態における第1のワークの斜視図である。 マルチパスにて反射光を受光する時のカメラとワークの部分断面図である。 カメラの受光素子の画素において受光する光の位相を説明する概略図である。 マルチパスによる受光が生じない時に得られるワークの距離画像である。 マルチパスによる受光が生じた時の距離画像である。 第1のロボット装置の制御を説明するフローチャートである。 カメラの第1の位置にて第1の距離画像を撮像する時のカメラおよびワークの部分断面図である。 カメラの第2の位置にて第2の距離画像を撮像する時のカメラおよびワークの部分断面図である。 第1の距離画像における3次元点および第2の距離画像における3次元点を組み合わせた時の3次元点の位置を説明するワークの断面図である。 評価領域が配置される評価範囲を説明するカメラおよびワークの斜視図である。 第1のロボット装置における評価領域の斜視図である。 特定部により特定された3次元点を説明するワークの断面図である。 評価領域の大きさを説明するカメラの受光素子および光学中心の斜視図である。 距離画像を撮像する時のカメラの位置を説明する図である。 実施の形態における第2のワークの斜視図である。 実施の形態における第3のワークおよびテーブルの斜視図である。 実施の形態における第2のロボット装置の側面図である。 第1の距離画像における3次元点および第2の距離画像における3次元点を組み合わせた時の3次元点の位置を説明するカメラおよびワークの部分断面図である。 実施の形態における検査装置の側面図である。 実施の形態における検査装置のブロック図である。 実施の形態の第3のロボット装置において、第1の距離画像を撮像する時のワークおよびカメラの部分断面図である。 第3のロボット装置において、第2の距離画像を撮像する時のワークおよびカメラの部分断面図である。 第1の距離画像における3次元点および第2の距離画像における3次元点を組み合わせた時の3次元点の位置を説明するカメラおよびワークの部分断面図である。 第3のロボット装置において、評価領域が配置される評価範囲を説明するカメラおよびワークの斜視図である。 第3のロボット装置における評価領域の斜視図である。 第3のロボット装置において、特定部により特定された3次元点を説明するワークの断面図である。 第3のロボット装置において、評価領域の大きさを説明する受光素子および光学中心の斜視図である。 第3のロボット装置において、複数の距離画像を撮像する時のカメラの向きを説明する斜視図である。 実施の形態における第4のロボット装置のカメラおよびワークの側面図である。 実施の形態における第5のロボット装置のカメラおよびワークの部分断面図である。 第5のロボット装置において、評価領域が配置される評価範囲を説明するカメラおよびワークの斜視図である。 第5のロボット装置における評価領域の斜視図である。
図1から図34を参照して、実施の形態における三次元測定装置について説明する。本実施の形態の三次元測定装置は、光の飛行時間に基づいて物体の表面の3次元点の位置情報を取得する距離カメラを備える。三次元測定装置は、複数の位置および姿勢にて取得された3次元点の位置情報に基づいて、ワークの表面に対応する3次元点の位置情報を生成する。本実施の形態では、それぞれのロボット装置および検査装置が三次元測定装置として機能する。
図1は、本実施の形態における第1のロボット装置の側面図である。図2は、本実施の形態における第1のロボット装置のブロック図である。図1および図2を参照して、ロボット装置3は、ワーク62を把持するハンド5と、ハンド5を移動するロボット1とを備える。ロボット装置3は、ロボット装置3を制御する制御装置2を備える。また、ロボット装置3は、ワーク62を載置する架台61を備える。
ハンド5は、ワーク62を把持したり解放したりするエンドエフェクタである。本実施の形態のハンド5は、ワーク62の表面63aを吸着により把持する吸着ハンドである。ロボット1に取り付けられるエンドエフェクタとしては、この形態に限られず、ロボット装置3が行う作業に応じた任意の作業ツールを採用することができる。例えば、エンドエフェクタとして、溶接を実施する作業ツールまたはシール材をワークの表面に塗布する作業ツール等を採用することができる。すなわち、本実施の形態の三次元測定装置は、任意の作業を行うロボット装置に適用することができる。または、ロボット1に作業ツールを取り付けずに、カメラ31をロボット1に取り付けても構わない。
本実施の形態のロボット1は、複数の関節部18を含む多関節ロボットである。ロボット1は、上部アーム11と下部アーム12とを含む。下部アーム12は、旋回ベース13に支持されている。旋回ベース13は、ベース14に支持されている。ロボット1は、上部アーム11の端部に連結されているリスト15を含む。リスト15は、ハンド5を固定するフランジ16を含む。ロボット1の構成部材は、予め定められた駆動軸の周りに回転するように形成される。ロボットとしては、この形態に限られず、作業ツールまたはワークを移動可能な任意のロボットを採用することができる。
ロボット装置3は、物体としてのワーク62の表面に対応する3次元点の位置情報を取得する距離カメラとして、カメラ31を備える。本実施の形態のカメラ31は、光の飛行時間に基づいて3次元点の位置情報を取得するTOF(Time of Flight)カメラである。TOFカメラは、二次元的に配列された複数の画素を有する受光素子を含む。受光素子は、例えばCCD(Charge-Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)等を含む。
第1のロボット装置3においては、カメラ31は、ロボット1にて支持されている。カメラ31は、支持部材35を介してフランジ16に固定されている。カメラ31は、ハンド5と共に移動する。カメラ31は、ワーク62においてハンド5にて把持する部分を撮像できるように配置されている。
カメラ31は、物体の表面に対応する3次元点の位置情報を距離画像または三次元マップの形式にて取得することができる。距離画像とは、画像により三次元点の位置情報を表現したものである。距離画像では、それぞれの画素の濃さ又は色により、物体の表面の位置またはカメラ31からの距離を表している。一方で、三次元マップとは、測定された3次元点の座標値(x,y,z)の集合として3次元情報を表現したものである。本実施の形態の形態では、3次元点の位置情報として距離画像を例に取り上げて説明する。
本実施の形態のロボット1は、上部アーム11等の構成部材を駆動するロボット駆動装置21を含む。ロボット駆動装置21は、上部アーム11、下部アーム12、旋回ベース13、およびリスト15を駆動するための複数の駆動モータを含む。ハンド5は、ハンド5を駆動するハンド駆動装置22を含む。本実施の形態のハンド駆動装置22は、空気圧によりハンド5を駆動する。ハンド駆動装置22は、吸着パッドの内部の空間を減圧するためのポンプおよび電磁弁等を含む。
制御装置2は、ロボット1およびハンド5を制御する。制御装置2は、プロセッサとしてのCPU(Central Processing Unit)を含む演算処理装置(コンピュータ)を備える。演算処理装置は、CPUにバスを介して互いに接続されたRAM(Random Access Memory)およびROM(Read Only Memory)等を有する。本実施の形態のロボット1は、動作プログラム41に基づいてワーク62を自動的に搬送する。ロボット駆動装置21およびハンド駆動装置22は、制御装置2により制御されている。
制御装置2は、ロボット装置3の制御に関する情報を記憶する記憶部42を含む。記憶部42は、揮発性メモリ、不揮発性メモリ、またはハードディスク等の情報を記憶可能な記憶媒体にて構成されることができる。制御装置2には、ロボット1の動作を行うために予め作成された動作プログラム41が入力される。動作プログラム41は、記憶部42に記憶される。
制御装置2は、動作指令を送出する動作制御部43を含む。動作制御部43は、動作プログラム41に基づいてロボット1を駆動するための動作指令をロボット駆動部44に送出する。ロボット駆動部44は、駆動モータを駆動する電気回路を含み、動作指令に基づいてロボット駆動装置21に電気を供給する。また、動作制御部43は、ハンド駆動装置22を駆動する動作指令をハンド駆動部45に送出する。ハンド駆動部45は、ポンプ等を駆動する電気回路を含み、動作指令に基づいてポンプ等に電気を供給する。動作制御部43は、動作プログラム41に従って駆動するプロセッサに相当する。プロセッサが動作プログラム41を読み込んで、動作プログラム41に定められた制御を実施することにより、動作制御部43として機能する。
ロボット1は、ロボット1の位置および姿勢を検出するための状態検出器を含む。本実施の形態における状態検出器は、ロボット駆動装置21の各駆動軸の駆動モータに取り付けられた位置検出器23を含む。位置検出器23の出力により、ロボット1の位置および姿勢が検出される。状態検出器としては、駆動モータに取り付けられた位置検出器に限られず、ロボット1の位置および姿勢の検出が可能な任意の検出器を採用することができる。
本実施の形態のロボット装置3には、ロボット1の位置および姿勢が変化した時に不動のワールド座標系71が設定されている。図1に示す例では、ロボット1のベース14に、ワールド座標系71の原点が配置されている。ワールド座標系71は基準座標系とも称される。ワールド座標系71では、原点の位置が固定され、更に、座標軸の向きが固定されている。ロボット1の位置および姿勢が変化してもワールド座標系71の位置および姿勢は変化しない。ワールド座標系71は、座標軸として、互いに直交するX軸、Y軸、およびZ軸を有する。また、X軸の周りの座標軸としてW軸が設定される。Y軸の周りの座標軸としてP軸が設定される。Z軸の周りの座標軸としてR軸が設定される。
また、ロボット装置3には、作業ツールの任意の位置に設定された原点を有するツール座標系72が設定されている。ツール座標系72は、ハンド5と共に位置および姿勢が変化する座標系である。本実施の形態では、ツール座標系72の原点は、ツール先端点に設定されている。ツール座標系72の原点は、フランジ16の回転軸上に配置されている。ツール座標系72は、互いに直交するX軸、Y軸、およびZ軸を有する。ツール座標系72は、X軸の周りのW軸、Y軸の周りのP軸、およびZ軸の周りのR軸を有する。
ロボット1の位置および姿勢が変化すると、ツール座標系72の原点の位置および姿勢が変化する。例えば、ロボット1の位置は、ツール先端点の位置(ツール座標系72の原点の位置)に対応する。また、ロボット1の姿勢は、ワールド座標系71に対するツール座標系72の姿勢に対応する。
更に、ロボット装置3では、カメラ31に対してカメラ座標系73が設定されている。カメラ座標系73は、カメラ31と共に位置および姿勢が変化する座標系である。本実施の形態のカメラ座標系73の原点は、カメラ31の光学中心に設定されている。カメラ座標系73は、互いに直交するX軸、Y軸、およびZ軸を有する。本実施の形態のカメラ座標系73は、Z軸がカメラ31の光軸と重なるように設定されている。
本実施の形態のロボット装置3は、ワーク62を検出する三次元測定装置として機能する。三次元測定装置は、カメラ31と、カメラ31にて取得された3次元点の位置情報を処理する処理装置を含む。制御装置2は、3次元点の位置情報を処理する処理部51を含む。処理部51は、処理装置として機能する。処理部51は、カメラ31から3次元点の位置情報を取得する位置取得部52を含む。処理部51は、カメラ31に対する3次元点の位置情報を、ワーク62に対する3次元点の位置情報に変換する変換部53を含む。処理部51は、ワーク62の表面に対応する3次元点の位置を評価するための複数の評価領域をワーク62に対して設定する設定部56を含む。処理部51は、3次元点の位置を評価する評価領域において、基準となる基準平面、基準点、または基準線に最も近い3次元点を特定する特定部54を含む。処理部51は、カメラ31にて取得された複数の3次元点の位置情報を合成した3次元点の位置情報を生成する生成部55を含む。
処理部51は、合成後の3次元点の位置情報に基づいて、ロボット1を駆動する動作指令を生成する動作指令部58を含む。また、処理部51は、カメラ31に画像を撮像する指令を送出する撮像制御部57を含む。
上記の処理部51は、動作プログラム41に従って駆動するプロセッサに相当する。特に、位置取得部52、変換部53、設定部56、特定部54、および生成部55のそれぞれのユニットは、動作プログラム41に従って駆動するプロセッサに相当する。また、動作指令部58および撮像制御部57は、動作プログラム41に従って駆動するプロセッサに相当する。プロセッサが動作プログラム41を読み込んで、動作プログラム41に定められた制御を実施することにより、それぞれのユニットとして機能する。
ロボット装置3は、ワーク62およびカメラ31のうち一方を移動して、ワーク62に対するカメラ31の相対的な位置を変更する移動装置を備える。第1のロボット装置3では、ロボット1がカメラ31を移動する移動装置として機能する。
図3に、本実施の形態における第1のワークの斜視図を示す。本実施の形態の第1のワーク62は、板状に形成された板状部63と、板状部63から立設する壁部64とを含む。板状部63は、平面状の表面63aを有する。壁部64は、表面63aの端部に配置されている。ワーク62は、表面63aがハンド5にて把持される。
図1から図3を参照して、第1のロボット装置3は、ハンド5がワーク62を把持する前に、カメラ31にてワーク62の距離画像を撮像する。撮像制御部57は、カメラ31に画像を撮像する指令を送出する。ロボット装置3は、カメラ31の複数の位置にて画像を撮像する。処理部51は、カメラ31にて撮像された複数の画像に基づいて、ワーク62の表面63aの位置を検出する。
動作指令部58は、ワーク62の表面63aの位置に基づいて、ハンド5にて表面63aを把持できるように、ロボット1の動作指令を生成する。動作指令部58は、動作制御部43に動作指令を送出する。動作制御部43は、動作指令に基づいてロボット1の位置および姿勢を変更した後に、ハンド5にてワーク62を把持する。そして、ロボット1は、動作プログラム41に基づいて、ワーク62を目標位置まで搬送する。
次に、カメラ31がマルチパスにて反射光を受光した場合の影響について説明する。図4は、マルチパスの影響を説明するカメラおよびワークの部分断面図である。カメラ31は、ワーク62の表面63aの位置を検出する。カメラ31は、距離画像を撮像可能な撮像領域31aを有する。カメラ31の光源から矢印101に示すように、光が出射される。ワーク62の表面63aにて反射した光は、矢印102に示すようにカメラ31の受光素子に向かって戻る。受光素子が矢印101および矢印102に示す経路にて反射する光のみを受光する場合には、ワーク62の表面63aの正確な位置を検出することができる。
ところが、光源から出射された光は、矢印103に示すように壁部64で反射して表面63aに向かう場合が有る。この後に、光は、矢印102に示すように受光素子に戻る。このように、光源の光は、矢印101に示す経路および矢印103に示す経路を含む複数の経路にて進行して受光素子に戻る。すなわち、受光素子は、マルチパスにて戻る光を受光する。複数回にて反射した光が含まれると、受光素子にて検出される光の飛行時間が長く検出されてしまう。なお、図4では説明のために2つの経路が示されているが、実際には、壁部64の様々な位置において反射した光が表面63aに向かうために、受光素子は、多くの経路にて進行する光を受光する場合が有る。
図5に、カメラからワークまでの距離を測定する方法の説明図を示す。図4および図5を参照して、第1の経路は、矢印101,102にて示される経路に相当する。第2の経路は、矢印103,102にて示される経路に相当する。
第1の経路の図を参照して、本実施の形態のカメラ31は、光の飛行時間を測定する方法として、光源から出射された光に対する反射光の位相の遅れを検出している。カメラ31は、光源から出射する光に対して互いに位相の異なる複数のタイミングにて撮像を行っている。図5に示す例では、4種類の撮像タイミング(0°、90°、180°および270°)にて撮像を繰り返している。図5には、受光素子の1つの画素における受光量Q1,Q2,Q3,Q4が示されている。この時の画素に対応する物体までの距離Lは、例えば次の式(1)から算出することができる。式(1)において、cは光速であり、fは光源から出射される光の変調周波数である。
Figure 0007328437000001
第2の経路の図を参照して、光の経路が長くなると、光源から出射される光を受光する時期は、第1の経路における光を受光する時期よりも遅くなる。4種類の撮像タイミングにおいて受光される受光量Q1,Q2,Q3,Q4は、第1の経路と異なっている。例えば、撮像タイミングが0°においては、第2の経路における受光量Q1は、第1の経路における受光量Q1よりも小さくなる。上記の式(1)により距離Lを算出すると、それぞれの画素に対応する距離Lは、第1の経路における距離Lよりも長くなる。
受光素子がマルチパスにて反射する光を受光する場合には、例えば、受光素子は第1の経路にて進行する光と第2の経路にて進行する光とを同時に受光する。すなわち、受光素子は、第1の経路における受光量と第2の経路における受光量とを合算した受光量を検出する。この結果、マルチパスにて反射する光を受光した場合には、距離Lが第1の経路に対応する距離よりも長くなる。特に、距離は、第1の経路を進行する光に対応する距離と、第2の経路を進行する光に対応する距離との間の距離になる。1つの画素に対応して検出される3次元点81は、表面63aから離れた位置にて検出される。それぞれの画素ごとに3次元点81が検出される。複数の3次元点81を含む検出面76は、実際の表面63aとは異なる形状になる。
図6に、マルチパスの影響がない時の距離画像の例を示す。図7に、マルチパスの影響が生じた時の距離画像の例を示す。図6および図7には、参考のために、ワーク62の形状が破線にて示されている。本実施の形態における距離画像では、色が濃くなるほどカメラ31からの距離が遠くなる。図6を参照して、距離画像86においては、ワーク62の板状部63の表面の全体に亘って、ほぼ同じ濃さになる。壁部64の表面においては、カメラ31に近くなるほどを色が薄くなる。図7を参照して、距離画像87は、マルチパスにて光を受光している。板状部63の表面において、壁部64の近傍では色が濃くなる領域が生じている。このような距離画像に基づいて、板状部63の表面の位置を検出しても、正確な位置を検出できない場合がある。この結果、ロボット装置3は、ワーク62を把持する制御を失敗する場合が生じる。本実施の形態における三次元測定装置は、このようなマルチパスによる影響を低減する制御を実施する。
図8に、三次元測定装置としての第1のロボット装置の制御を説明するフローチャートを示す。第1のロボット装置3においては、カメラ31の位置を変更しながら複数の距離画像を撮像する。複数の位置にて得られた距離画像を合成することにより、マルチパスを低減した距離画像を生成する。
ステップ111においては、制御装置2がカメラ31を予め定められた第1の位置に配置した後に、撮像制御部57はカメラ31にて第1の距離画像を撮像する。図9に、カメラを第1の位置に配置した時のカメラおよびワークの部分断面図を示す。ワーク62に対するカメラ31の相対的な位置は予め定められている。第1のロボット装置3では、カメラ31は予め定められた移動平面78に沿って平行移動するように、ロボット1が位置および姿勢を変更する。例えば、カメラ31は、カメラ31の光学中心が移動平面78に配置されるように移動する。カメラ31は、移動平面78に沿った位置に配置される。第1のロボット装置3では、カメラ31の姿勢は、一定に維持される。
ロボット1は、カメラ31を第1の位置P31aに配置する。カメラ31の撮像領域31aの内部にワーク62の検出する部分の少なくとも一部が配置されるように、カメラ31が配置されることが好ましい。すなわち、カメラ31にて撮像される画像に、ワーク62の検出する部分が含まれることが好ましい。
カメラ31は、それぞれの画素ごとに3次元点81の位置情報を検出する。図9では、ワーク62を1つの面で切断した時の断面形状に対する3次元点81が示されている。カメラ31から出力される3次元点81の位置情報は、カメラ座標系73にて表現されている。例えば、3次元点81の位置情報は、カメラ座標系73におけるX軸の座標値、Y軸の座標値、およびZ軸の座標値にて表されている。カメラ31にて受光する光にはマルチパスの影響が生じるために、3次元点81の位置は、板状部63の表面63aから離れる場合がある。
図2を参照して、処理部51の位置取得部52は、カメラ31からワーク62の第1の距離画像を取得する。また、位置取得部52は、位置検出器23から第1の距離画像を撮像した時のロボット1の位置および姿勢を取得する。位置取得部52は、第1の距離画像をロボット1の位置および姿勢と共に記憶部42に記憶する。
図8を参照して、ステップ112においては、制御装置2は、ロボット1の位置および姿勢を変更してカメラ31を移動する。図10に、カメラを第2の位置に配置した時のカメラおよびワークの部分断面図を示す。ロボット1は、矢印104に示すように移動平面78に沿ってカメラ31を移動する。ロボット1は、移動平面78に沿って2次元的にカメラ31を移動する。カメラ31は、第2の位置P31bに配置される。
図8を参照して、ステップ113において、撮像制御部57は、カメラ31にてワーク62の第2の距離画像を撮像する。図2を参照して、位置取得部52は、カメラ31からワーク62の第2の距離画像を取得する。また、位置取得部52は、位置検出器23から第2の距離画像を撮像した時のロボット1の位置および姿勢を取得する。位置取得部52は、第2の距離画像をロボット1の位置および姿勢と共に記憶部42に記憶する。
図10を参照して、カメラ31は、第2の位置P31bにて撮像することにより、3次元点82を検出する。受光素子は、矢印101,102にて示される経路を進行する光の他に、矢印103,102にて示される経路を進行する光を受光する。3次元点82の位置に対しても、マルチパスの影響が生じている。ところが、撮像領域31aに含まれる壁部64の領域が小さくなる。このために、3次元点82の位置は、第1の位置P31aに配置されたカメラ31にて取得された3次元点81の位置よりも、マルチパスの影響が小さくなっている。板状部63の表面63aに近い3次元点82が得られている。
図8を参照して、ステップ114において、処理部51は、予め定められたカメラ31の全ての位置において撮像を行ったか否かを判定する。ステップ114において、カメラ31にて撮像を行う位置が残っている場合には、制御はステップ112に移行する。そしてステップ112からステップ114の制御を繰り返す。
ステップ114において、カメラ31の全ての位置にて撮像を行っている場合には、制御はステップ115に移行する。ここでの例では、カメラ31は、2か所の位置にて撮像を行う。カメラ31の全ての位置にて撮像を行っているために、制御は、ステップ115に移行する。なお、本実施の形態においては、カメラは、2か所の位置において撮像しているが、この形態に限られない。カメラは、3箇所以上の位置にて撮像しても構わない。
図2および図8を参照して、ステップ115において、処理部51の変換部53は、カメラ31の複数の位置P31a,P31bにて撮像された距離画像を変換する。変換部53は、カメラ31に対する3次元点の位置情報を、ワーク62に対する位置情報に変換する。変換部53は、カメラ座標系73にて表現されている3次元点の位置情報を、ワールド座標系71にて表現されている3次元点の位置情報に変換する。この時に、変換部53は、それぞれの位置P31a,P31bにて撮像された距離画像を、ロボット1の位置および姿勢に基づいて変換する。それぞれの第1の距離画像および第2の距離画像における3次元点81,82の位置は、ワールド座標系71の座標値にて表現される。
次に、ステップ116において、処理部51の特定部54は、第1の距離画像および第2の距離画像に含まれる3次元点のうち、ワーク62の表面63aに近い3次元点を特定する。
図11に、第1の距離画像における3次元点および第2の距離画像における3次元点を組み合わせた時のワークの部分断面図を示す。特定部54は、1つのワーク62の表面に対して、全ての距離画像に含まれる3次元点を配置する。ここでの例では、特定部54は、ワーク62の表面に対して、第1の距離画像における3次元点81および第2の距離画像における3次元点82を配置する。ワーク62の表面63aに対応する複数の3次元点81,82が配置される。
図12に、第1のロボット装置において、評価領域を配置する評価範囲を説明するカメラおよびワークの斜視図を示す。図13に、第1のロボット装置における評価領域の斜視図を示す。図12および図13を参照して、ワーク62の表面63aおよび表面63aの近傍には、複数の3次元点81,82が配置されている。処理部51の設定部56は、3次元点81,82の評価を行う範囲である評価範囲91を設定する。設定部56は、ワーク62の表面63aに対応する3次元点81,82の位置を評価するために、複数の評価領域92をワーク62に対して設定する。評価範囲91は、複数の評価領域92を含む。
本実施の形態では、評価領域92および評価範囲91は予め設定されて、記憶部42に記憶されている。設定部56は、記憶部42から評価領域92および評価範囲91を取得して、ワーク62に対して評価領域92および評価範囲91を設定する。評価範囲91は、ワーク62の評価を行う部分を含むように形成されることが好ましい。本実施の形態では、評価範囲91は、ワーク62の評価を行う表面63aを含むように設定されている。また、本実施の形態では、評価範囲91は、ワーク62を含むように設定されている。
本実施の形態の評価領域92は、評価範囲91を複数に区切った領域である。また、3次元点81,82の位置を評価するために、基準平面が設定されている。基準平面は、任意の平面を採用することができる。基準平面は、移動平面78または移動平面78に平行な面であることが好ましい。第1のロボット装置3においては、移動平面78が基準平面に設定されている。
本実施の形態の評価領域は、基準平面等の基準から延びる領域が採用されている。評価領域92は、移動平面78から垂直な方向に延びるように形成されている。本実施の形態の評価領域92は、直方体状に形成されている。評価領域は、この形態に限られず、基準平面に対して傾斜する方向に延びていても構わない。また、評価領域は、任意の形状を採用することができる。例えば、評価領域は、任意の多角形の形状を有することができる。
特定部54は、3次元点81,82の位置に基づいて、それぞれの評価領域92に含まれる3次元点81,82を検出する。ここで、前述の通りにマルチパスの影響が生じると、カメラ31から3次元点までの距離が長くなる。このために、基準平面としての移動平面78から3次元点までの距離が短いほど、マルチパスの影響が小さいと判断することができる。
特定部54は、評価領域92の内部に配置された複数の3次元点81,82のうち、移動平面78に最も近い3次元点を特定する。特定部54は、移動平面78からそれぞれの3次元点81,82までの距離を算出する。図13に示す例では、2つの3次元点81よりも1つの3次元点82の方が移動平面78に近い。このため、特定部54は、3次元点82を特定する。そして、特定部54は、2つの3次元点81を3次元点の集合から除外する制御を実施する。このように、特定部54は、それぞれの評価領域92ごとに、1つの基準平面に最も近い3次元点を特定する制御を実施する。
図14に、特定部にて特定された後の3次元点の位置を示すワークの断面図を示す。図11に示す複数の3次元点81,82から、それぞれの評価領域92において移動平面78に最も近い3次元点81,82が抽出されている。このように、特定部54にて3次元点81,82を特定することにより、表面63aに近い3次元点を残すことができる。すなわち、マルチパスの影響の小さい3次元点を残すことができる。
ここで、壁部64の表面に残存する3次元点81は、表面63aに対応する3次元点とは異なる。このために、特定部54は、壁部64における3次元点を削除する制御を行っても構わない。例えば、表面63aの凡その位置を予め定めることができる。特定部54は、表面63aの位置から予め定められた範囲を逸脱する3次元点を削除する制御を行うことができる。
図8を参照して、ステップ117において、処理部51の生成部55は、特定部54にて特定された複数の3次元点81,82に基づいて、複数の3次元点の位置情報を合成した3次元点の位置情報を生成する。例えば、生成部55は、特定部54にて特定された全ての3次元点にて距離画像を生成することができる。または、生成部55は、3次元マップの形式にて3次元点の位置情報を生成しても構わない。このように、処理部51は、カメラ31の複数の位置にて撮像した3次元点の位置情報に基づいて、マルチパスの影響の少ない3次元点の位置情報を生成することができる。
図2を参照して、処理部51の動作指令部58は、3次元点の位置情報に基づいて、ワーク62の表面63aの形状および位置を検出することができる。そして、動作指令部58は、表面63aの位置および形状に基づいて、ハンド5を配置すべき位置および姿勢を動作制御部43に送出する。動作制御部43は、ロボット1およびハンド5の位置および姿勢を制御する。このように、ワーク62の位置を検出して、ロボット装置3にてワーク62を搬送することができる。
図15に、本実施の形態における評価領域の大きさを説明する受光素子および光学中心の斜視図を示す。評価領域92は、任意の大きさにて設定することができる。しかしながら、評価領域92の内部には、少なくとも1つの3次元点が含まれることが好ましい。また、評価領域92が大きすぎると、特定部54により特定される3次元点の数が少なくなる。
図15に示す例では、受光素子96に対して仮想面97が設定される。仮想面97は、受光素子96に平行な平面である。また、仮想面97は、カメラ31の光学中心31cから距離dにて離れた距離である。距離dは、カメラ31からワーク62の表面63aまでの距離である。距離dは、凡その距離であれば、正確な距離でなくても構わない。仮想面97において、受光素子96に含まれる1つの画素99から光学中心31cに対して点対称の領域97aを算出する。領域97aの大きさを、評価領域92の大きさに設定することができる。すなわち、ワーク62の表面63aにおいて、1つの画素に対応する大きさにて評価領域92を設定することができる。
なお、本実施の形態の処理部51の設定部56は、予め定められた評価領域を設定しているが、この形態に限られない。設定部は、評価領域の大きさまたは形状を変更可能に形成されていても構わない。例えば、設定部は、ワークの形状を検出して、ワークの形状に対応した形状および大きさの評価領域を設定することができる。また、設定部は、ワークの形状に基づいて、互いに形状および大きさが異なる複数の種類の設定領域を1つのワークに対して設定しても構わない。
図16に、ワークに対してカメラを配置する時のカメラの位置を説明する撮像領域の斜視図および平面図を示す。カメラ31にて距離画像を撮像する時に、カメラ31は、ワーク62の対象となる部分の少なくとも一部を含むように、任意の位置に配置することができる。矢印108は、カメラ31を位置P31aに配置した時のカメラ31の光軸を示している。ここでの例では、位置P31aは、ワーク62の表面63aの中央部の真上に配置されている。
図16に示す例においては、移動平面78から距離dにて離れた仮想面97が設定されている。仮想面97における撮像領域31aを算出する。仮想面97において撮像領域31aは、四角形の形状を有する。そして、撮像領域31aの四角形の幅Wおよび高さHに対して、予め定められた定数を乗算した領域97bを設定する。ここでの例では、幅Wおよび高さHに対して、0.6を乗算した領域97bが設定されている。そして、領域97bの角に対応する位置に、矢印109に示す光軸が配置されるように、カメラ31の位置P31cを設定することができる。すなわち、カメラの画角に対して、予め定められた割合の画角の頂点に光軸が配置されるように、カメラ31を配置することができる。カメラ31は、移動平面78に沿って複数の位置P31a,P31cに配置される。
または、カメラが配置される位置としては、ワークが配置される領域の端部に光軸が配置される位置を採用することができる。または、予め定められた領域を等分に分割した位置に光軸が配置されるように、カメラを配置しても構わない。
上記の実施の形態においては、板状部の表面に立設する壁部を有するワークを例に取りあげて説明しているが、この形態に限られない。本実施の形態における三次元測定装置は、マルチパスによる受光が生じる任意の物体の測定に適用することができる。
図17に、本実施の形態における第2のワークの斜視図を示す。第2のワーク66の上面には、溝部66aが形成されている。溝部66aの底面を検出する場合に、溝部66aの側面で光が反射してマルチパスによる受光が生じる場合が有る。このような凹部を有するワークの表面を検出する時に、本実施の形態における三次元測定装置を採用することができる。
なお、ワーク66が溝部66aを有する時には、溝部66aの壁面の位置に光軸が配置されるように、カメラを配置して距離画像を撮像することが好ましい。または、移動平面において溝部66aの幅WGに対応する間隔にて、カメラの複数の撮像位置を設定することが好ましい。この制御を行うことにより、溝部の底面を検出する際に生じるマルチパスの影響をより確実に低減することができる。
図18に、本実施の形態における第3のワークおよびテーブルの斜視図を示す。第3のワーク67では、表面67aの断面形状が波形に形成されている。このような、凹部および凸部を有する表面67aを検出する場合にも、マルチパスによる受光が発生する場合が有る。
さらに、マルチパスによる受光は、ワークの周りに配置されている物によって生じる場合がある。図18に示す例においては、ワーク67は、テーブル68に載置されている。テーブル68には、柱となる棒状部材69が固定されている。ワーク67は、棒状部材69の近傍に配置されている。カメラ31にて表面67aを検出する場合に、棒状部材69の表面で反射した光が表面67aに向かうことにより、マルチパスによる受光が生じる場合がある。このテーブル68を含む装置を用いてワーク67の表面67aを検出する場合にも、本実施の形態における三次元測定装置にて測定することにより、マルチパスの影響を低減した3次元点の位置情報を取得することができる。本実施の形態の三次元測定装置は、マルチパスがどのように生じるか分からない場合であっても、マルチパスを低減した3次元点の位置情報を生成することができる。
図19に、本実施の形態における第2のロボット装置の側面図を示す。第2のロボット装置4においては、ロボット1は、ハンド5を介してワーク62を支持している。カメラ31は、架台65に固定されている。第2のロボット装置4では、ロボット1がワーク62を移動する移動装置として機能する。ロボット1がワーク62を移動することにより、ワーク62に対するカメラ31の相対的な位置が変化する。第2のロボット装置4においても、ワーク62の表面63aを検出する。
第2のロボット装置4は、三次元測定装置として機能する。三次元測定装置は、例えば、ハンド5に対するワーク62の位置を検出することができる。三次元測定装置は、ワーク62の把持のずれを検出することができる。または、三次元測定装置は、例えば、ワーク62の表面63aの形状を検出することができる。または、三次元測定装置は、ワーク62の寸法の検査を実施することができる。
ロボット1は、ワーク62を予め定められた移動平面78に沿って移動する。ロボット1は、ワーク62の姿勢を一定に維持しながら、ワーク62を平行移動する。移動平面78は、例えば、水平方向に延びる面である。制御装置2は、ツール座標系72の原点が移動平面78上を移動するように、ロボット1の位置および姿勢を変更する。また、制御装置2は、ツール座標系72のZ軸が予め定められた方向に向くようにロボット1の姿勢を制御する。
カメラ31は、ワーク62の複数の位置において距離画像を撮像する。図19に示す例では、ワーク62が第1の位置P62aに配置された状態で、カメラ31は、第1の距離画像を撮像する。また、ワーク62が第2の位置P62bに配置された状態で、カメラ31は、第2の距離画像を撮像する。それぞれの第1の距離画像および第2の距離画像において、ワーク62の表面63aに対応する3次元点の位置は、カメラ座標系73にて表現されている。
図2および図19を参照して、処理部51の位置取得部52は、距離画像を取得するとともに、距離画像を撮像した時のロボット1の位置および姿勢を取得する。位置取得部52は、距離画像をロボット1の位置および姿勢と組み合わせて記憶部42に記憶する。
ワーク62の複数の位置P62a,P62bおいて撮像が終了した後に、処理部51は、複数の距離画像を合成した3次元の位置情報を生成する。変換部53は、ロボット1の位置および姿勢に基づいて、カメラ座標系73にて表現されている3次元点の位置情報を、ツール座標系72によって表現される3次元点の位置情報に変換する。
図20に、複数の位置に対応する距離画像に含まれる複数の3次元点をワークに配置した時のワークおよびカメラの部分断面図を示す。特定部54は、第1の距離画像および第2の距離画像に含まれる3次元点をワーク62に配置する。ワーク62の表面63aおよび表面63aの近傍には、第1の距離画像に含まれる3次元点81と、第2の距離画像に含まれる3次元点82が示されている。それぞれの3次元点81,82は、ツール座標系72にて表現されている。
図2および図20を参照して、特定部54は、ワーク62を一つの位置に配置したときの3次元点81,82の位置を算出する。例えば、ワーク62を第1の位置P62aに配置した時の3次元点81,82の位置を算出する。更に、特定部54は、ロボット1の位置および姿勢に基づいて、ツール座標系72にて表現された3次元点の位置情報をワールド座標系71にて表現された3次元点の位置情報に変換する。特定部54が3次元点81,82を特定するための基準平面79は予め定められている。第2のロボット装置4では、カメラ31の光学中心31cを通る基準平面79が定められている。ここでの例では、基準平面79は、移動平面78に平行な面である。
また、第1のロボット装置3と同様に、ワーク62の表面63aを含むように評価範囲が予め定められている。評価範囲の内部には、基準平面79から垂直な方向に延びる複数の評価領域が予め定められている(図12および図13を参照)。そして、特定部54は、それぞれの評価領域において基準平面79に最も近い3次元点を特定する。生成部55は、特定部54にて特定された3次元点に基づいて合成後の3次元点の位置情報を生成することができる。
その他の第2のロボット装置の構成、作用、および効果については、第1のロボット装置と同様であるのでここでは説明を繰り返さない。
第1のロボット装置および第2のロボット装置においては、カメラまたはワークを平行移動しているが、この形態に限られない。カメラおよびワークの両方を平行移動しても構わない。例えば、移動平面に沿う方向に、カメラおよびワークを互いに反対方向に平行移動しても構わない。また、カメラおよびワークの移動は、移動平面に沿った平行移動に限られず、移動平面から逸脱する位置にて撮像を行っても構わない。例えば、移動平面上に障害物が存在する場合には、移動平面から離れた位置にカメラまたはワークを配置して撮像しても構わない。
カメラまたはワークを移動する移動装置としては、ロボットに限られず、カメラまたはワークを移動できる任意の装置を採用することができる。例えば、ワークを搬送するコンベヤを備える装置、ワークまたはカメラを互いに直交するX軸、Y軸、およびZ軸の方向に移動する装置、または、ワークまたはカメラを一つの方向に移動するシリンダを備える装置などを移動装置として採用することができる。
図21に、本実施の形態における検査装置の側面図を示す。図22に、本実施の形態における検査装置のブロック図を示す。検査装置7は、三次元測定装置として機能する。三次元測定装置は、前述のロボット1などの移動装置を備えていなくても構わない。図21および図22を参照して、検査装置7は、複数の距離カメラとして、第1のカメラ31および第2のカメラ32を備える。それぞれのカメラ31,32は、TOFカメラである。
カメラ31,32は、支持部材35により支持されている。カメラ31,32は、配置平面75に沿って、互いに離れた位置に固定されている。カメラ31,32の位置は、予め定められている。カメラ31,32は、互いに異なる位置からワーク62を撮像するように配置されている。それぞれのカメラ31,32は、光学中心31c,32cが配置平面75上に配置されている。また、それぞれのカメラ31,32は、光軸が予め定められた方向を向くように配置されている。すなわち、カメラ31,32の姿勢は互いに同じである。ワーク62は、架台61に載置されている。このように、ワーク62よびカメラ31,32の両方が予め定められた位置に固定されている。
検査装置7において、基準座標系としてのワールド座標系71が設定されている。図21に示す例では、架台61の表面に原点が配置されるように、ワールド座標系71が設定されている。また、それぞれのカメラ31,32には、カメラ座標系が設定されている。それぞれのカメラ座標系は、カメラ31,32の光学中心が原点になり、Z軸が光軸と重なるように設定されている。
検査装置7は、CPUを含む演算処理装置から構成されている制御装置8を備える。制御装置8は、第1のロボット装置3の制御装置2と同様の記憶部42と処理部51とを含む(図2を参照)。処理部51は、カメラ31,32を制御する撮像制御部57を含む。処理部51は、カメラ31,32にて取得された距離画像を処理するために、位置取得部52、変換部53、設定部56、特定部54、および生成部55を含む。
図21および図22に示す三次元測定装置は、本実施の形態における第1のロボット装置3において、ロボット1がカメラ31の撮像位置を変更する代わりに、複数のカメラ31,32が配置されている。そして、位置が互いに異なる複数のカメラ31,32にて複数の距離画像を撮像する。例えば、第1のカメラ31は、第1の距離画像を撮像し、第2のカメラ32は、第2の距離画像を撮像する。
記憶部42には、カメラ31,32の位置が予め記憶されている。記憶部42は、カメラ31およびカメラ32にて撮像された距離画像を記憶する。変換部53は、カメラ31,32に対する3次元点の位置情報を、ワーク62に対する位置情報に変換する。ここでの例では、変換部53は、それぞれのカメラ31,32のカメラ座標系にて検出された3次元点の位置情報を、ワールド座標系71における3次元点の位置情報に変換する。
検査装置7においては、基準平面が予め定められている。ここでの例では、基準平面は、配置平面75と同一の平面が採用されている。なお、基準平面は、任意の平面を採用することができる。例えば、基準平面は、配置平面75に平行な面であっても構わない。
設定部56は、評価範囲および評価領域を設定する。ここでの例では、3次元点の位置を評価する評価範囲および評価領域は、予め定められている。例えば、評価範囲は、評価を行うワーク62の表面63aを含むように設定される。評価領域は、評価範囲を複数に分割することにより設定される。評価領域は、第1のロボット装置3と同様に、基準平面となる配置平面75に対して垂直な方向に延びる直方体状の領域にて構成することができる。特定部54は、それぞれの評価領域において、配置平面75から最も距離が小さな3次元点を特定することができる。生成部55は、特定部54にて特定された3次元点に基づいて、合成後の3次元点の位置情報を生成することができる。
制御装置8は、合成後の3次元点の位置情報に基づいて、ワーク62の表面の検査を行うことができる。例えば、制御装置8は、予め定められた判定値に基づいてワークの外縁の寸法の検査を実施することができる。または、ワークの表面に凹部または凸部が形成されている場合には、凹部または凸部の形状の検査を実施することができる。
図21および図22に示す例では、2つのカメラが配置されているが、この形態に限られない。三次元測定装置は、3つ以上のカメラを備えていても構わない。三次元測定装置は、複数のカメラにて撮像した距離画像を合成することができる。検査装置のその他の構成、作用および効果については、本実施の形態における第1のロボット装置および第2のロボット装置と同様であるので、ここでは説明を繰り返さない。
図23に、本実施の形態における第3のロボット装置におけるカメラおよびワークの部分断面図を示す。第3のロボット装置の構成は、第1のロボット装置と同様である(図1を参照)。第3のロボット装置は、ワーク62に対するカメラ31の相対的な姿勢を変更する回転装置を備える。ロボット1は、回転装置として機能する。
第3のロボット装置では、ワーク62に対するカメラ31の相対的な姿勢を変更して、カメラ31が3次元点の位置情報を取得する。ロボット1は、予め定められた中心点としてのカメラ31の光学中心31cの周りにカメラ31を回転する。カメラ31は、予め定められた複数の相対的な姿勢において距離画像を撮像する。
図2および図23を参照して、カメラ31は、第1の姿勢R31aにおいて第1の距離画像を撮像する。ワーク62の表面63aおよび壁部64の表面に対応する3次元点81の位置情報が取得される。位置取得部52は、第1の距離画像と共に、第1の距離画像を撮像した時のロボット1の位置および姿勢を取得する。記憶部42は、第1の距離画像と組み合わせてロボット1の位置および姿勢を記憶する。この時の3次元点の位置情報は、カメラ座標系にて表現されている。
図24に、カメラが第2の姿勢に配置された時のカメラおよびワークの部分断面図を示す。ロボット1が位置および姿勢を変更することにより、カメラ31は、光学中心31cを回転中心として回転する。カメラ31は、第2の姿勢R31bにおいて、第2の距離画像を取得する。ここでの例では、壁部64がカメラ31の撮像領域31aの外側に配置されている。このために、第2の距離画像では、ワーク62の表面63aに配置された3次元点82の位置情報が取得されている。記憶部42は、第2の距離画像と第2の距離画像を撮像した時のロボット1の位置および姿勢とを組み合わせて記憶する。この時の3次元点の位置情報は、カメラ座標系にて表現されている。
本実施の形態においては、カメラ31の2つの姿勢R31a,R31bにおいて距離画像を撮像しているが、この形態に限られない。カメラ31の3つ以上の姿勢にて、距離画像を撮像しても構わない。カメラ31の全ての姿勢において撮像が終了した後に、変換部53は、3次元点81,82の位置をカメラ座標系73からワールド座標系71に変換する。
図25に、カメラの複数の姿勢にて取得された3次元点をワークに配置したときのカメラおよびワークの部分断面図を示す。特定部54は、第1の距離画像および第2の距離画像に含まれる3次元点81,82をワーク62に配置する。
図26に、3次元点の位置を評価するための評価範囲の斜視図を示す。図27に、3次元点の位置を評価する評価領域の斜視図を示す。図26および図27を参照して、設定部56は、評価範囲および評価領域を設定する。第3のロボット装置においては、ワーク62の表面63aに対応する3次元点の位置を評価するための評価領域94が、ワーク62に対して予め定められている。評価範囲93の内部に複数の評価領域94が設定されている。それぞれの評価領域94は、ワーク62に対して予め設定された基準点から放射状に延びる領域である。評価領域94は、錐体の形状を有する。
ここでの例では、基準点としてカメラ31の光学中心31cが採用されている。すなわち、基準点は、カメラ31を回転する中心点である。評価領域94は、基準点を原点とする球座標系の角度θおよび角度φにて設定されている。基準点は、この形態に限られず、ワークに対してカメラの回転中心点が配置されている側と同じ側に配置することができる。すなわち、カメラ31が回転する中心点から離れた基準点が設定されていても構わない。
評価領域94は、評価範囲93を複数に分割することにより設定されている。評価範囲93は、光学中心31cを中心として、放射状に延びる範囲である。評価範囲93は、評価範囲93の内部に評価される部分が含まれることが好ましい。ここでの例では、評価範囲93の内部にワーク62の表面63aが含まれるように、評価範囲93が設定されている。
図2および図27を参照して、特定部54は、それぞれの評価領域94において、評価領域94の内部に検出された3次元点81,82のうち、基準点としての光学中心31cに最も近い3次元点を特定する。図27に示す例においては、2個の3次元点81よりも1個の3次元点82の方が光学中心31cに近いために、特定部54は、3次元点82を特定する。特定部54は、全ての評価領域94に対して、最も基準点に近い3次元点を特定する制御を実施する。
図28に、特定部により特定された3次元点が示されたワークの断面図を示す。図25に示す複数の3次元点81,82のうち、それぞれの評価領域94において基準点から距離が最も小さい3次元点が抽出されている。ワーク62の表面から離れた3次元点は除外されている。第3のロボット装置においても、壁部64の表面に3次元点81が残存している。特定部54は、壁部64の表面に対応して検出される3次元点81は、任意の方法にて除外することができる。例えば、予め定められた位置の範囲を超える3次元点81は除外することができる。
図2および図28を参照して、生成部55は、特定部54により特定された複数の3次元点に基づいて、カメラ31にて取得された複数の3次元点の位置情報を合成した3次元点の位置情報を生成する。生成部55は、ワーク62の板状部63の表面63aに対応して配置されている3次元点82に基づいて距離画像を生成することができる。
図29に、第3のロボット装置における評価領域の大きさを説明する斜視図を示す。評価領域94は、任意の大きさにて設定することができる。本実施の形態では、カメラ31の受光素子96における1つの画素99を特定する。そして、画素99の頂点から光学中心31cに延ばした直線により、球座標における角度θおよび角度φを設定することができる。角度θおよび角度φに基づく錐体の領域を評価領域94に設定することができる。このように、1つの画素に対応する角度を評価領域の錐体の角度に設定することができる。
図30に、カメラを回転する時の姿勢を説明する撮像領域の斜視図および平面図を示す。カメラ31を回転する時の角度は、任意の角度を設定することができる。ここでの例では、カメラ31から離れた仮想面97が設定されている。仮想面97は、カメラ31が第1の姿勢R31aに配置された時に矢印108に示す光軸に垂直な平面である。仮想面97における撮像領域31aにおいて、カメラ31の画角に対して予め定められた割合の画角の点を設定することができる。そして、この点にカメラ31の光軸が配置されるように、カメラ31の姿勢を設定することができる。例えば、仮想面97における撮像領域31aに対して、画角に対して所定の割合を乗じた領域98を算出することができる。矢印109に示すように、領域98の頂点100aの位置に光軸が配置されるように、カメラ31の姿勢R31cを設定することができる。または、領域98を等分に分割した点100bに光軸が配置されるように、カメラ31の姿勢R31cを設定することができる。
第3のロボット装置においても、カメラ31を回転して取得した3次元点の位置情報に基づいて合成後の3次元点の位置情報を生成することができる。このために、マルチパスの影響を低減した3次元点の位置情報を取得することができる。
その他の第3のロボット装置の構成、作用、および効果については、本実施の形態の第1のロボット装置と同様であるので、ここでは説明を繰り返さない。
図31に、本実施の形態における第4のロボット装置のカメラおよびワークの側面図を示す。第4のロボット装置の構成は、第2のロボット装置の構成と同様である(図19を参照)。第4のロボット装置においては、カメラ31の位置が固定されている。一方で、ワーク62の姿勢を変更することにより、ワーク62に対するカメラ31の相対的な姿勢を変更する。第4のロボット装置において、ロボット1がワーク62に対するカメラ31の相対的な姿勢を変更する回転装置として機能する。ロボット1は、回転の中心点としての光学中心31cの周りにワーク62を回転する。カメラ31は、カメラ31に対するワーク62の複数の予め定められた相対的な姿勢において、距離画像を撮像する。
制御装置2は、ツール先端点であるツール座標系72の原点が、光学中心31cを中心とした球面80上に配置されるように、ロボット1の位置および姿勢を変更する。また、制御装置2は、ツール座標系72のZ軸が光学中心31cを向くように、ロボット1の位置および姿勢を変更する。
図2および図31を参照して、カメラ31は、ワーク62の第1の姿勢R62aにおいて第1の距離画像を撮像する。カメラ31から出力される3次元点の位置情報はカメラ座標系73にて表現されている。位置取得部52は、第1の距離画像を第1の姿勢R62aにおけるロボット1の位置および姿勢と組み合わせて記憶部42に記憶する。
次に、制御装置2は、ロボット1は位置および姿勢を変更して、ワーク62を第2の姿勢R62bに配置する。カメラ31は、第2の距離画像を撮像する。位置取得部52は、第2の距離画像を第2の姿勢R62bにおけるロボット1の位置および姿勢と組み合わせて記憶部42に記憶する。
本実施の形態では、ワーク62の2つの姿勢において距離画像を撮像しているが、この形態に限られない。3つ以上の姿勢にて距離画像を撮像しても構わない。カメラ31は、ワーク62の全ての姿勢において距離画像を撮像する。
変換部53は、それぞれのワーク62の姿勢R62a,R62bにおいて取得され、カメラ座標系73にて表現された3次元点の位置情報を、ツール座標系72にて表現された3次元点の位置情報に変換する。変換部53は、ロボット1の位置および姿勢に基づいて3次元点の位置情報を変換する。
次に、特定部54は、第1の距離画像における3次元点の位置情報および第2の距離画像における3次元点の位置情報を、1つのワーク62の表面上に配置する。ここで、特定部54は、任意のワーク62の姿勢を選択する。例えば、特定部54は、ワーク62を移動した範囲内において、1つのワーク62の姿勢を選択する。本実施の形態では、特定部54は、ツール座標系72のZ軸が鉛直方向と平行に配置されている姿勢R62aを選択する。
次に、特定部54は、選択されたワーク62の姿勢に対応するロボット1の位置および姿勢に基づいて、ツール座標系72にて表現された3次元点の位置情報をワールド座標系71にて表現された3次元点の位置情報に変換する。この制御を実施することにより、第2のロボット装置4における図20に示される状態と同様の状態になる。
設定部56は、評価範囲および評価領域を設定する。第4のロボット装置においては、第3のロボット装置と同様の評価範囲および錐体の評価領域が採用されている(図26および図27を参照)。評価領域を定める基準点は、ワーク62に対して任意の位置に設定することができる。ここでの例では、基準点は光学中心31cに設定されている。すなわち、基準点はワーク62を回転する中心点に設定されている。そして、特定部54は、それぞれの評価領域の内部において基準点に最も近い3次元点を特定する。生成部55は、特定部54にて特定された3次元点に基づいて、合成後の3次元点の位置情報を生成することができる。
その他の第4のロボット装置の構成、作用、および効果については、第1のロボット装置から第3のロボット装置と同様であるので、ここでは説明を繰り返さない。
第3のロボット装置および第4のロボット装置においては、カメラまたはワークを回転する回転装置としてロボットが採用されているが、この形態に限られない。回転装置は、カメラまたはワークを、予め定められた中心点の周りに回転できる任意の装置を採用することができる。また、カメラおよびワークの両方を回転させる回転装置を採用しても構わない。
図32に、本実施の形態における第5のロボット装置におけるカメラおよびワークの部分断面図を示す。第5のロボット装置の構成は、第1のロボット装置と同様である(図1を参照)。第5のロボット装置は、ワーク62に対するカメラ31の相対的な位置を変更する移動装置を備える。ロボット1は、移動装置として機能する。
第1のロボット装置においては、カメラ31が予め定められた移動平面78に沿って平行移動している。図2および図32を参照して、これに対して、第5のロボット装置においては、予め定められた移動線83に沿ってカメラ31が平行移動するように、ロボット1が位置および姿勢を変更する。カメラ31は、移動線83に沿った位置に配置される。例えば、カメラ31の光学中心が移動線83上に配置される。この時に、カメラ31の姿勢は、一定に維持される。
カメラ31は、第1の位置P31dに配置された後に第1の距離画像を撮像する。ワーク62の表面に対応する3次元点81が検出される。位置取得部52は、第1の距離画像をロボット1の位置および姿勢と共に記憶部42に記憶する。次に、ロボット1が駆動することにより、カメラ31は、位置P31eに配置される。カメラ31は、第2の距離画像を撮像する。ワーク62の表面に対応する3次元点82が検出される。位置取得部52は、第1の距離画像をロボット1の位置および姿勢と共に記憶部42に記憶する。
処理部51の変換部53は、カメラ座標系73にて表現されている3次元点の位置情報を、ワールド座標系71にて表現されている3次元点の位置情報に変換する。特定部54は、第1の距離画像および第2の距離画像に含まれる3次元点81,82のうち、基準線に最も近い3次元点を特定する。
図33に、第5のロボット装置において、評価領域を配置する評価範囲を説明するカメラおよびワークの斜視図を示す。図34に、第5のロボット装置における評価領域の斜視図を示す。図33および図34を参照して、第5のロボット装置においては、3次元点81,82の位置を評価するために、基準線が設定されている。基準線は、任意の線を採用することができる。基準線は、移動線83または移動線83に平行な線であることが好ましい。第5のロボット装置においては、移動線83が基準線に設定されている。
設定部56は、評価範囲121および評価領域122を設定する。評価領域122は、評価範囲121を複数に区切った領域である。評価領域122は、基準線としての移動線83に沿って予め定められた幅を有する。評価領域122は、移動線83からワーク62に対して放射状に延びるように形成されている。評価領域122の幅Wは、第1のロボット装置における評価領域92の一辺の長さと同様に設定することができる。幅Wは、カメラ31からワーク62の表面63aまでの距離dおよび受光素子の画素の大きさに基づいて設定することができる(図15を参照)。また、評価領域122の角度θは、第3のロボット装置における評価領域94の角度θと同様に設定することができる。角度θは、画素99の頂点とカメラ31の光学中心とを通る直線に基づいて設定することができる(図29を参照)。
特定部54は、移動線83からそれぞれの3次元点81,82までの距離を算出する。図34に示す例では、2つの3次元点81よりも1つの3次元点82の方が移動線83に近い。このため、特定部54は、3次元点82を特定する。特定部54は、2つの3次元点81を3次元点の集合から除外する制御を実施する。このように、特定部54は、それぞれの評価領域122ごとに、基準線に最も近い3次元点を特定する制御を実施する。処理部51の生成部55は、特定部54にて特定された複数の3次元点81,82に基づいて、複数の3次元点の位置情報を合成した3次元点の位置情報を生成する。
このように、移動線に沿ってカメラを移動して複数の距離画像を撮像した場合にも、マルチパスの影響を低減した3次元点の位置情報を生成することができる。なお、複数の距離画像を撮像する時のカメラ31の位置は、第1のロボット装置におけるカメラ31の間隔と同様の方法により設定することができる(図16を参照)。
その他の第5のロボット装置の構成、作用、および効果については、第1のロボット装置と同様であるのでここでは説明を繰り返さない。
次に、本実施の形態の第6のロボット装置について説明する。第6のロボット装置は、本実施の形態の第2のロボット装置4と同様である(図19および図20を参照)。図19および図20を参照して、第2のロボット装置4においては、ワーク62を移動平面78に沿って2次元的に移動している。これに対して、第6のロボット装置では、移動平面78の代わりの移動線に沿ってワーク62を移動する。移動線は、予め定められた方向に延びる線である。例えば、移動線は、水平方向に延びる線である。ロボット1は、ワーク62の姿勢を一定に維持しながら、ワーク62を平行移動する。
特定部54が3次元点81,82を特定するために、第2のロボット装置4では基準平面79が設定されている。これに対して、第6のロボット装置では、基準平面79の代わりに基準線が予め定められている。基準線は、例えば、カメラ31の光学中心を通る線である。本実施の形態では、基準線は、移動線に平行になるように設定されている。
カメラ31は、ワーク62の複数の位置において距離画像を撮像する。また、第5のロボット装置と同様に、設定部56は、基準線から延びる評価範囲および評価範囲を設定する(図33および図34参照)。そして、特定部54は、それぞれの評価領域において基準線に最も近い3次元点を特定する。生成部55は、特定部54にて特定された3次元点に基づいて合成後の3次元点の位置情報を生成することができる。
その他の第6のロボット装置の構成、作用、および効果については、第2のロボット装置および第5のロボット装置と同様であるのでここでは説明を繰り返さない。
上記の第1のロボット装置においては、カメラ31を移動平面に沿って移動して距離画像を撮像し、基準平面に近い3次元点を特定する制御を実施している。第2のロボット装置においては、ワーク62を移動平面に沿って移動して距離画像を撮像し、基準平面に近い3次元点を特定する制御を実施している。第3のロボット装置においては、カメラ31を中心点の周りに回転して距離画像を撮像し、基準点に近い3次元点を特定する制御を実施している。第4のロボット装置においては、ワーク62を中心点の周りに回転して距離画像を撮像し、基準点に近い3次元点を特定する制御を実施している。第5のロボット装置においては、カメラ31を移動線に沿って移動して距離画像を撮像し、基準線に近い3次元点を特定する制御を実施している。第6のロボット装置においては、ワーク62を移動線に沿って移動して距離画像を撮像し、基準線に近い3次元点を特定する制御を実施している。これらの距離画像を撮像する制御と、3次元点の位置情報に残す3次元点を特定する制御とは、任意に組み合わせることができる。
例えば、カメラ31またはワーク62を移動平面に沿って移動して距離画像を撮像し、予め定められた基準点に近い3次元点を特定する制御を実施することができる。また、カメラ31またはワーク62を移動線に沿って移動して距離画像を撮像し、予め定められた基準点に近い3次元点を特定する制御を実施することができる。カメラ31またはワーク62を移動平面に沿って移動して距離画像を撮像し、予め定められた基準線に近い3次元点を特定する制御を実施することができる。カメラ31またはワーク62を移動線に沿って移動して距離画像を撮像し、予め定められた基準平面に近い3次元点を特定する制御を実施することができる。また、カメラ31またはワーク62を中心点の周りに回転して距離画像を撮像し、予め定められた基準平面または基準線に近い3次元点を特定する制御を実施することができる。
更に、本実施の形態のロボット1は、ワーク62に対するカメラ31の相対的な位置および姿勢を変更する変更装置として機能する。ロボット1は、カメラ31およびワーク62のうち少なくとも一方を一つの移動平面または一つの移動線に沿って移動する動作と、カメラ31およびワーク62のうち少なくとも一方を予め定められた中心点の周りに回転する動作とを組み合わせても実施しても構わない。例えば、ロボット装置は、カメラ31を移動平面に沿って移動して距離画像を撮像し、更に、移動平面に沿って移動している期間中にカメラ31の移動を止める。そして、カメラ31を予め定められた中心点の周りに回転して距離画像を撮像することができる。または、ロボット装置は、ワーク62が常に中心になるように、カメラ31を平行移動する動作とカメラ31を回転する動作とを実施している期間中に、距離画像を撮像することができる。この場合に、特定部は、予め定められた基準点に近い3次元点を特定する制御、予め定められた基準平面に近い3次元点を特定する制御、または予め定められた基準線に近い3次元点を特定する制御のうちいずれかの制御を実施することができる。
上述のそれぞれの制御においては、機能および作用が変更されない範囲において適宜ステップの順序を変更することができる。
上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、請求の範囲に示される実施の形態の変更が含まれている。
1 ロボット
2,8 制御装置
3,4 ロボット装置
7 検査装置
23 位置検出器
31,32 カメラ
31c,32c 光学中心
P31a,P31b,P31c,P31d,P31e 位置
R31a,R31b姿勢
51 処理部
52 位置取得部
53 変換部
54 特定部
55 生成部
56 設定部
62,66,67 ワーク
P62a,P62b 位置
R62a,R62b 姿勢
71 ワールド座標系
72 ツール座標系
73 カメラ座標系
75 配置平面
78 移動平面
79 基準平面
81,82 3次元点
83 移動線
86,87 距離画像
91,93,121 評価範囲
92,94,122 評価領域
96 受光素子

Claims (16)

  1. 光の飛行時間に基づいて物体の表面の3次元点の位置情報を取得する距離カメラと、
    前記距離カメラにて取得された3次元点の位置情報を処理する処理装置とを備え、
    前記距離カメラは、前記物体に対する前記距離カメラの複数の相対的な位置および姿勢において、3次元点の位置情報を取得し、
    前記処理装置は、前記物体の表面に対応する3次元点の位置を評価するための複数の評価領域を前記物体に対して設定する設定部と、
    それぞれの評価領域において、評価領域内に検出された3次元点のうち、予め定められた基準平面、基準点、または基準線に最も近い3次元点を特定する特定部と、
    前記特定部により評価領域ごとに特定された複数の3次元点に基づいて、前記距離カメラにて取得された複数の3次元点の位置情報を合成した3次元点の位置情報を生成する生成部とを含む、三次元測定装置。
  2. 前記物体に対する前記距離カメラの相対的な位置を変更する移動装置を備え、
    前記移動装置は、前記物体および前記距離カメラのうち少なくとも一方を、姿勢を維持しながら一つの移動平面に沿って平行移動するように形成されている、請求項1に記載の三次元測定装置。
  3. 前記特定部は、前記基準平面に最も近い3次元点を特定し、
    前記基準平面は、前記移動平面と同一の面または前記移動平面に平行な面である、請求項2に記載の三次元測定装置。
  4. 前記評価領域は、前記基準平面に対して垂直な方向に延びる領域である、請求項3に記載の三次元測定装置。
  5. 前記物体に対する前記距離カメラの相対的な位置を変更する移動装置を備え、
    前記移動装置は、前記物体および前記距離カメラのうち少なくとも一方を、姿勢を維持しながら一つの移動線に沿って平行移動するように形成されている、請求項1に記載の三次元測定装置。
  6. 前記特定部は、前記基準線に最も近い3次元点を特定し、
    前記基準線は、前記移動線と同一の線または前記移動線に平行な線である、請求項5に記載の三次元測定装置。
  7. 前記評価領域は、前記基準線から前記物体に対して放射状に延びる領域である、請求項6に記載の三次元測定装置。
  8. 前記移動装置は、多関節ロボットを含む、請求項2から7のいずれか一項に記載の三次元測定装置。
  9. 複数の前記距離カメラを備え、
    複数の前記距離カメラは、一つの配置平面における互いに離れた位置に、互いに同一の姿勢にて固定されており、
    前記特定部は、前記基準平面または前記基準線に最も近い3次元点を特定する、請求項1に記載の三次元測定装置。
  10. 前記物体に対する前記距離カメラの相対的な姿勢を変更する回転装置を備え、
    前記回転装置は、前記物体または前記距離カメラのうち少なくとも一方を予め定められた中心点の周りに回転するように形成されている、請求項1に記載の三次元測定装置。
  11. 前記特定部は、前記基準点に最も近い3次元点を特定する、請求項10に記載の三次元測定装置。
  12. 前記評価領域は、前記基準点から前記物体に対して放射状に延びる領域である、請求項11に記載の三次元測定装置。
  13. 前記回転装置は、多関節ロボットを含む、請求項10から12のいずれか一項に記載の三次元測定装置。
  14. 前記物体に対する前記距離カメラの相対的な位置および姿勢を変更する変更装置を備え、
    前記変更装置は、一つの移動平面または一つの移動線に沿って前記物体および前記距離カメラのうち少なくとも一方を移動する動作と、予め定められた中心点の周りに前記物体および前記距離カメラのうち少なくとも一方を回転する動作とを実施するように形成されている、請求項1に記載の三次元測定装置。
  15. 前記変更装置は、多関節ロボットを含む、請求項14に記載の三次元測定装置。
  16. 前記物体を検出する部分に対応する評価範囲が予め定められており、
    前記評価領域は、前記評価範囲を複数に区切った領域である、請求項1から15のいずれか一項に記載の三次元測定装置。
JP2022501856A 2020-02-17 2021-02-12 3次元点の位置情報を生成する三次元測定装置 Active JP7328437B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020024652 2020-02-17
JP2020024652 2020-02-17
PCT/JP2021/005323 WO2021166809A1 (ja) 2020-02-17 2021-02-12 3次元点の位置情報を生成する三次元測定装置

Publications (2)

Publication Number Publication Date
JPWO2021166809A1 JPWO2021166809A1 (ja) 2021-08-26
JP7328437B2 true JP7328437B2 (ja) 2023-08-16

Family

ID=77391172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022501856A Active JP7328437B2 (ja) 2020-02-17 2021-02-12 3次元点の位置情報を生成する三次元測定装置

Country Status (5)

Country Link
US (1) US20230043994A1 (ja)
JP (1) JP7328437B2 (ja)
CN (1) CN115087843A (ja)
DE (1) DE112021001132T5 (ja)
WO (1) WO2021166809A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11826908B2 (en) 2020-04-27 2023-11-28 Scalable Robotics Inc. Process agnostic robot teaching using 3D scans

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010327A (ja) 2015-06-23 2017-01-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018025551A (ja) 2016-08-04 2018-02-15 株式会社Hielero 点群データ変換システム及びその方法
CN110456369A (zh) 2019-07-30 2019-11-15 炬佑智能科技(苏州)有限公司 飞行时间传感系统及其测距方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4734552B2 (ja) 2005-03-15 2011-07-27 名古屋市 路面の3次元形状の計測方法及びその装置
JP4844459B2 (ja) 2007-04-20 2011-12-28 トヨタ自動車株式会社 平面検出方法、及び移動ロボット
US10866321B2 (en) 2016-09-01 2020-12-15 Sony Semiconductor Solutions Corporation Imaging device
US11493908B2 (en) * 2018-11-13 2022-11-08 Rockwell Automation Technologies, Inc. Industrial safety monitoring configuration using a digital twin

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010327A (ja) 2015-06-23 2017-01-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018025551A (ja) 2016-08-04 2018-02-15 株式会社Hielero 点群データ変換システム及びその方法
CN110456369A (zh) 2019-07-30 2019-11-15 炬佑智能科技(苏州)有限公司 飞行时间传感系统及其测距方法

Also Published As

Publication number Publication date
JPWO2021166809A1 (ja) 2021-08-26
US20230043994A1 (en) 2023-02-09
DE112021001132T5 (de) 2022-12-29
CN115087843A (zh) 2022-09-20
WO2021166809A1 (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
JP5854815B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6734253B2 (ja) ワークを撮像する視覚センサを備える撮像装置
US20020034327A1 (en) Position-orientation recognition device
US20190193268A1 (en) Robotic arm processing system and method, and non-transitory computer-readable storage medium therefor
CA2799042A1 (en) Method and system for generating instructions for an automated machine
JP6855491B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
KR20170027767A (ko) 수평 평면을 이용해 장애물을 검출하는 장치 및 이러한 장치 구현 검출 방법
JP7328437B2 (ja) 3次元点の位置情報を生成する三次元測定装置
Sangeetha et al. Implementation of a stereo vision based system for visual feedback control of robotic arm for space manipulations
JP7453762B2 (ja) 画像処理装置、撮像装置、ロボット及びロボットシステム
Njaastad et al. Robotic autoscanning of highly skewed ship propeller blades
Borangiu et al. Robot arms with 3D vision capabilities
US20230016639A1 (en) System and method for controlling automatic inspection of articles
JP7180783B2 (ja) コンピュータビジョンシステムのキャリブレーション方法及びこれに用いる基準立体物
Seçil et al. 3-d visualization system for geometric parts using a laser profile sensor and an industrial robot
US20240003675A1 (en) Measurement system, measurement device, measurement method, and measurement program
AU2019336263A1 (en) Vision system for a robotic machine
Secil et al. A robotic system for autonomous 3-D surface reconstruction of objects
JP2020142323A (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2008009916A (ja) 計測装置及び計測方法
JP2022017738A (ja) 画像処理装置
JP2021091056A (ja) 測定装置
WO2022163580A1 (ja) 視覚センサにて取得される3次元の位置情報から断面画像を生成する処理装置および処理方法
WO2022244212A1 (ja) 視覚センサにて撮像された画像に基づいて3次元の位置を算出する撮像装置
US12002240B2 (en) Vision system for a robotic machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230803

R150 Certificate of patent or registration of utility model

Ref document number: 7328437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150