JP6923574B2 - 3次元形状計測システムおよび3次元形状計測方法 - Google Patents

3次元形状計測システムおよび3次元形状計測方法 Download PDF

Info

Publication number
JP6923574B2
JP6923574B2 JP2019017173A JP2019017173A JP6923574B2 JP 6923574 B2 JP6923574 B2 JP 6923574B2 JP 2019017173 A JP2019017173 A JP 2019017173A JP 2019017173 A JP2019017173 A JP 2019017173A JP 6923574 B2 JP6923574 B2 JP 6923574B2
Authority
JP
Japan
Prior art keywords
dimensional shape
measurement
dimensional
vision sensor
articulated robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019017173A
Other languages
English (en)
Other versions
JP2020125921A (ja
Inventor
潤 和田
潤 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019017173A priority Critical patent/JP6923574B2/ja
Priority to US16/751,671 priority patent/US11389967B2/en
Priority to DE102020101715.4A priority patent/DE102020101715A1/de
Priority to CN202010078432.XA priority patent/CN111515943A/zh
Publication of JP2020125921A publication Critical patent/JP2020125921A/ja
Application granted granted Critical
Publication of JP6923574B2 publication Critical patent/JP6923574B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明は、被写体の3次元形状を計測する3次元形状計測システムおよび3次元形状計測方法に関する。
下記特許文献1には、カメラから取得した撮像画像を用いてワークの位置および姿勢を求める画像処理を行い、求めた位置および姿勢に基づいて、ロボットアームの先端に取り付けられたエンドエフェクタを有するロボットの動作を制御する方法が開示されている。
特開2011−11330号公報
しかしながら、例えば、複数のワークが収容されているコンテナなどを計測対象とする場合、当該計測対象がカメラの撮像範囲に収まらない場合がある。この場合、上記の特許文献1では、ワークの位置および姿勢を求めるための情報の一部が欠落してしまうことになる。
そこで、本発明は、相対的に大型の被写体であってもその被写体の3次元情報を生成し得る3次元形状計測システムおよび3次元形状計測方法を提供することを目的とする。
本発明の第1の態様は、3次元形状計測システムであって、複数の軸を有する多関節ロボットと、前記多関節ロボットに少なくとも1つ設けられ、被写体の3次元形状を計測する3次元ビジョンセンサと、オーバーラップ領域を有する複数の計測範囲の各々で計測された前記3次元形状を示す距離画像が記憶される記憶部と、前記記憶部に記憶された複数の前記距離画像を、前記オーバーラップ領域に対応する部分が重なるように統合して統合距離画像を生成する統合部と、を備える。
本発明の第2の態様は、複数の軸を有する多関節ロボットと、前記多関節ロボットに少なくとも1つ設けられ、被写体の3次元形状を計測する3次元ビジョンセンサと、を有する3次元形状計測システムの3次元形状計測方法であって、オーバーラップ領域を有する複数の計測範囲の各々で計測された前記3次元形状を示す距離画像を記憶部に記憶する記憶ステップと、前記記憶部に記憶された複数の前記距離画像を、前記オーバーラップ領域に対応する部分が重なるように統合して統合距離画像を生成する統合ステップと、を含む。
本発明によれば、1つの計測範囲に収まらない被写体であっても、その被写体の3次元形状を示す情報(統合距離画像)を生成することができ、この結果、相対的に大型の被写体の3次元情報を生成することができる。
本実施の形態の3次元形状計測システムの構成を示す模式図である。 情報処理装置の構成を示す模式図である。 計測処理の流れを示すフローチャートである。 距離画像および統合距離画像を示す概念図である。 統合範囲が指定された場合の統合距離画像を示す概念図である。 設定支援処理の流れを示すフローチャートである。 図7Aはオーバーラップ領域の表示例(1)を示す概念図であり、図7Bはオーバーラップ領域の表示例(2)を示す概念図であり、図7Cはオーバーラップ領域の表示例(3)を示す概念図である。 図1の3次元形状計測システムに第2の3次元ビジョンセンサをさらに設けた場合を示す模式図である。
本発明について、好適な実施の形態を掲げ、添付の図面を参照しながら以下、詳細に説明する。
〔実施の形態〕
図1は、本実施の形態の3次元形状計測システム10の構成を示す模式図である。3次元形状計測システム10は、多関節ロボット20、複数の3次元ビジョンセンサ30、制御装置40および情報処理装置50を有する。
多関節ロボット20は、複数の軸AXを有する産業用ロボットである。多関節ロボット20として、具体的には、垂直多関節ロボット、水平多関節ロボットまたはパラレルリンクロボットなどが挙げられる。
本実施の形態では、多関節ロボット20は、垂直多関節ロボットとし、複数の軸AXは、旋回軸AX1、第1関節軸AX2、第2関節軸AX3、第3関節軸AX4およびハンド回転軸AX5の5つとする。
旋回軸AX1は、基台22に対して旋回部24を旋回可能に連結しており、旋回部24は、旋回軸AX1を駆動するモータの回転に応じて旋回する。第1関節軸AX2は、旋回部24に対して第1リンク26Aを回転可能に連結しており、第1リンク26Aは、第1関節軸AX2を駆動するモータの回転に応じて回転する。
第2関節軸AX3は、第1リンク26Aに対して第2リンク26Bを回転可能に連結しており、第2リンク26Bは、第2関節軸AX3を駆動するモータの回転に応じて回転する。第3関節軸AX4は、第2リンク26Bに対して第3リンク26Cを回転可能に連結しており、第3リンク26Cは、第3関節軸AX4を駆動するモータの回転に応じて回転する。
ハンド回転軸AX5は、第3リンク26Cに対してハンド部28を回転可能に連結しており、ハンド部28は、ハンド回転軸AX5を駆動するモータの回転に応じて回転する。このハンド部28は、搬送対象物Wを把持し、把持した搬送対象物Wを解放すものである。ハンド部28は、搬送対象物Wを挟むことで搬送対象物Wを把持してもよく、搬送対象物Wを吸引することで搬送対象物Wを把持してもよい。
なお、ハンド部28を把持または解放する動作は、制御装置40に制御される。また、上記の旋回軸AX1、第1関節軸AX2、第2関節軸AX3、第3関節軸AX4およびハンド回転軸AX5を駆動する各々のモータは、制御装置40により制御される。
複数の3次元ビジョンセンサ30の各々は、被写体の3次元形状を計測するものであり、多関節ロボット20に設けられる。各々の3次元ビジョンセンサ30は、複数の画素を計測点とするセンサ素子を有し、当該センサ素子を用いて計測範囲AR内にある被写体の3次元形状を計測する。3次元ビジョンセンサ30における計測方式は、ToF(Time Of Flight)方式であってもよく、三角測量方式であってもよい。
本実施の形態では、2つの3次元ビジョンセンサ30が多関節ロボット20に設けられているものとし、2つの3次元ビジョンセンサ30の一方を3次元ビジョンセンサ30Aとし、2つの3次元ビジョンセンサ30の他方を3次元ビジョンセンサ30Bとする。また、3次元ビジョンセンサ30Aの計測範囲ARを計測範囲AR1とし、3次元ビジョンセンサ30Bの計測範囲ARを計測範囲AR2とする。
3次元ビジョンセンサ30Aの計測範囲AR1と、3次元ビジョンセンサ30Bの計測範囲AR2とはオーバーラップ領域OLRを有する。このオーバーラップ領域OLRを通じて各々の計測範囲AR1、AR2を合わせた範囲で3次元形状の計測が可能であり、実測範囲が広がる。したがって、より大きな3次元形状の計測が可能である。
本実施の形態では、2つの3次元ビジョンセンサ30A、30Bの被写体は、複数の搬送対象物Wを収容可能なコンテナCTとする。このコンテナCTは、重力の働く下方向とは反対の上方向が開放され、予め定められた所定の計測位置に配置された2つの3次元ビジョンセンサ30A、30Bの計測範囲AR1、AR2を合わせた範囲よりも小さいものであり、当該範囲内に設置されるものとする。
制御装置40は、多関節ロボット20を制御するものである。制御装置40は、具体的には、旋回軸AX1、第1関節軸AX2、第2関節軸AX3、第3関節軸AX4およびハンド回転軸AX5を駆動する各々のモータと、ハンド部28の把持および解放の動作とを制御する。
制御装置40は、本実施の形態では、搬送対象物Wを計測する計測モードと、搬送対象物Wを搬送する搬送モードとを有する。
制御装置40は、計測モードでは、所定の計測位置に2つの3次元ビジョンセンサ30A、30Bを配置するように、旋回軸AX1、第1関節軸AX2、第2関節軸AX3、第3関節軸AX4およびハンド回転軸AX5を駆動する各々のモータを個別に制御する。
制御装置40は、搬送モードでは、所定の設置場所に設置されるコンテナCTから指定場所に搬送対象物Wを搬送するように、旋回軸AX1、第1関節軸AX2、第2関節軸AX3、第3関節軸AX4およびハンド回転軸AX5を駆動する各々のモータと、ハンド部28の動作とを制御する。
情報処理装置50は、制御装置40に対して多関節ロボット20の制御を指示するとともに、2つの3次元ビジョンセンサ30A、30Bの各々の計測結果を用いて所定の処理を実行するものである。この情報処理装置50は、汎用のパーソナルコンピュータであってもよい。
図2は、情報処理装置50の構成を示す模式図である。情報処理装置50は、ハードディスクなどの記憶部52と、マウスやキーボードなどの操作入力部54と、各種の情報を表示する表示部56と、信号処理部58とを有する。
信号処理部58は、記憶部52、操作入力部54および表示部56と接続される。この信号処理部58は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などのプロセッサと、ROM(Read Only Memory)やRAM(Random access memory)などのメモリとを有する。メモリに記憶されたプログラムをプロセッサが実行することで、信号処理部58が取得部60、統合部62、表示制御部64および姿勢演算部66として機能し、操作入力部54の操作に応じて各種の処理を実行する。
ここで、計測操作に応じて実行される信号処理部58の計測処理について説明する。図3は、計測処理の流れを示すフローチャートである。
ステップS1において、取得部60は、計測モードの実行指令を制御装置40に与えて制御装置40に対して計測モードを実行させることで、2つの3次元ビジョンセンサ30A、30Bを所定の計測位置に配置させる。
これにより、図4に示すように、3次元ビジョンセンサ30Aの計測範囲AR1(図1参照)内にあるコンテナCTの一部を含む被写体の3次元形状を示す距離画像MG1が、計測結果として、3次元ビジョンセンサ30Aから出力される。また、3次元ビジョンセンサ30Bの計測範囲AR2(図1参照)内にあるコンテナCTの一部を含む3次元形状を示す距離画像MG2が、計測結果として、3次元ビジョンセンサ30Bから出力される。
なお、複数の距離画像MG(MG1、MG2)の各々は、計測された3次元形状を示す3次元情報であり、複数の画素(計測点)の各々の座標情報と、各々の画素から被写体までの距離を示す距離情報とを含む。
取得部60は、所定の計測位置に配置させた3次元ビジョンセンサ30Aの計測範囲AR1の距離画像MG1と、当該計測位置に配置させた3次元ビジョンセンサ30Bの計測範囲AR2の距離画像MG2とを取得すると、ステップS2に進む。
ステップS2において、取得部60は、ステップS1で取得した距離画像MG1、MG2を記憶部52に記憶し、ステップS3に進む。
ステップS3において、統合部62は、図4に示すように、記憶部52に記憶された2つの距離画像MG1、MG2を統合する。統合部62は、具体的には、2つの距離画像MG1、MG2を、オーバーラップ領域OLR(図1参照)に対応する部分PTが重なるように統合して統合距離画像IMGを生成する。この統合距離画像IMGは、複数の距離画像MG1、MG2の各々の一部を重ねて統合したものであるため、各々の距離画像MG1、MG2よりも大きい3次元形状を示す情報となる。
なお、図5に示すように、オペレータによる操作入力部54の操作に応じて統合範囲ISが指定されている場合、統合部62は、記憶部52に記憶された2つの距離画像MG1、MG2のうち、指定された統合範囲ISの距離画像部分を統合対象として用いる。これにより、2つの距離画像MG1、MG2の各々の全体を統合対象として用いる場合(図5の破線および一点鎖線を合わせた範囲)に比べて、統合処理の負荷を低減することができる。
本実施の形態では、コンテナCTの外枠が統合範囲ISとして指定される。したがって、搬送対象物Wの誤検出を回避することができ、また搬送対象物Wの姿勢などの演算に不要な範囲の情報の処理を削減することができる。
統合部62は、統合距離画像IMGを生成すると、ステップS4に進む。ステップS4において、統合部62は、ステップS3で生成した統合距離画像IMGを記憶部52に記憶する。これにより計測処理は終了する。
このように信号処理部58は、オーバーラップ領域OLRを有する複数の計測範囲AR1、AR2に対応する距離画像MG1、MG2を統合することで、相対的に大型の被写体であってもその被写体の3次元情報を生成することができる。
次に、オーバーラップ領域OLRの設定を支援する設定支援操作に応じて実行される信号処理部58の設定支援処理について説明する。この設定支援処理は、少なくとも1回の上記の計測処理が実行されて記憶部52に距離画像MG1、MG2および統合距離画像IMGが記憶された状態の後に、実行される。図6は、設定支援処理の流れを示すフローチャートである。
ステップS10において、表示制御部64は、記憶部52に記憶された距離画像MG1、MG2および統合距離画像IMGに基づいて、例えば図7Aに示すように、計測範囲AR1、AR2(図1参照)が識別可能な状態で統合距離画像IMGを表示部56に表示させる。
なお、計測範囲AR1、AR2が識別可能な状態で表示させる具体的な態様として、次のような態様が挙げられる。すなわち、図7Aの例示のように、表示制御部64は、計測範囲AR1の距離画像MG1と、計測範囲AR2の距離画像MG2との一方をハッチングすることで、計測範囲AR1、AR2が識別可能な状態としてもよい。また例えば、表示制御部64は、計測範囲AR1の距離画像MG1と、計測範囲AR2の距離画像MG2とを色分けすることで、計測範囲AR1、AR2が識別可能な状態としてもよい。
このように、計測範囲AR1、AR2が識別可能な状態で統合距離画像IMGが表示されることで、オペレータは、計測範囲AR1、AR2の各々のオーバーラップ領域OLR(図1参照)に対応する部分PTを確認することができる。また、オペレータは、その部分PTの大きさに応じて、3次元ビジョンセンサ30の計測位置を調整するか否か判断することができる。
ステップS11において、取得部60は、操作入力部54から再統合する旨の指令または再統合しない旨の指令を受けるまで待機する。なお、これら指令を入力するためのボタンを、ステップS10において表示制御部64が統合距離画像IMGとともに表示部56に表示させてもよい。
ここで、再統合する旨の指令を受けた場合、オペレータによって3次元ビジョンセンサ30の計測位置が調整され、その調整後のオーバーラップ領域OLR(図1参照)に対応する部分PTを確認する意思があることを意味する。この場合、取得部60は、計測処理ルーチンRTに進む。この計測処理ルーチンRTでは、取得部60および統合部62が上記の計測処理(図3参照)を実行した後にステップS10に戻る。
これにより、図7Bまたは図7Cに示すように、計測処理ルーチンRTを実行することで新たに生成された統合距離画像IMGが表示される。したがって、オペレータは、調整後のオーバーラップ領域OLR(図1参照)に対応する部分PTを確認することができる。つまり、オペレータは、オーバーラップ領域OLR(図1参照)を確認しながら、3次元ビジョンセンサ30の計測位置を調整することができる。
なお、計測処理ルーチンRTの実行前に記憶部52に記憶された統合距離画像IMGは、当該計測処理ルーチンRTを実行することで新たに生成された統合距離画像IMGに更新される。また、計測処理ルーチンRTの実行前に記憶部52に記憶された距離画像MG1、MG2は、当該計測処理ルーチンRTを実行することで新たに取得された距離画像MG1、MG2に更新される。
一方、再統合しない旨の指令を受けた場合、3次元ビジョンセンサ30の計測位置の調整が不要であり、その調整後のオーバーラップ領域OLR(図1参照)に対応する部分PTを再確認する必要がない意思があることを意味する。この場合、取得部60は計測処理ルーチンRTに進むことなく、設定支援処理は終了する。なお、設定支援処理は終了時に、表示制御部64は、表示部56に表示させた統合距離画像IMGを非表示としてもよい。
次に、搬送対象物Wの姿勢を演算するための姿勢演算操作に応じて実行される姿勢演算部66の姿勢演算処理について説明する。姿勢演算部66は、記憶部52に記憶された統合距離画像IMGに基づいて姿勢演算処理を実行する。姿勢演算部66は、具体的には、統合距離画像IMGに対して画像処理を施すことで統合距離画像IMGに含まれる搬送対象物Wを検出し、検出した搬送対象物Wの姿勢を既知の演算手法を用いて演算する。
姿勢演算部66は、搬送対象物Wの姿勢を演算すると、演算した搬送対象物Wの姿勢を示す姿勢情報を生成し、生成した姿勢情報を制御装置40に出力する。制御装置40は、この姿勢情報に基づいて、搬送モード時に、旋回軸AX1、第1関節軸AX2、第2関節軸AX3、第3関節軸AX4およびハンド回転軸AX5を駆動する各々のモータと、ハンド部28の動作とを制御する。これにより、所定の設置位置に設置されるコンテナCTから指定場所に搬送対象物Wが搬送される。
〔変形例〕
以上、本発明の一例として上記の実施の形態が説明されたが、本発明の技術的範囲は上記の実施の形態に記載の範囲には限定されない。上記の実施の形態に、多様な変更または改良を加えることが可能であることはもちろんである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
なお、変更または改良を加えた形態の一部は変形例として以下に説明する。ただし、上記の実施の形態において説明した構成と同等の構成については同一の符号を付し、重複する説明は省略する。
<変形例1>
上記の実施の形態では、複数の3次元ビジョンセンサ30(2つの3次元ビジョンセンサ30A、30B)が多関節ロボット20に設けられた。しかし、多関節ロボット20に設けられる3次元ビジョンセンサ30の数は1つであってもよい。
1つの3次元ビジョンセンサ30が多関節ロボット20に設けられる場合、制御装置40は、計測モードでは、複数の計測範囲AR1、AR2の各々を計測可能な位置に3次元ビジョンセンサ30が移動するように、多関節ロボット20を制御する。
この場合、ステップS1において(図3参照)、取得部60は、計測モードの実行指令を制御装置40に与えて制御装置40に計測モードを実行させる。これにより、取得部60は、複数の計測範囲AR1、AR2の各々を計測可能な位置に1つの3次元ビジョンセンサ30が配置されたときの計測結果として、距離画像MG1、MG2を取得することができる。
このように、多関節ロボット20に設けられる3次元ビジョンセンサ30の数が1つであっても、上記の実施の形態と同様に、複数の計測範囲AR1、AR2の各々の距離画像MG1、MG2が取得可能である。したがって、変形例1では、3次元ビジョンセンサ30の数を削減することができる。
<変形例2>
上記の実施の形態では、複数の3次元ビジョンセンサ30が多関節ロボット20に設けられた。しかし、図8に示すように、多関節ロボット20に3次元ビジョンセンサ30が設けられ、多関節ロボット20とは異なる位置に不動の状態で第2の3次元ビジョンセンサ30Xが設けられてもよい。なお、3次元ビジョンセンサ30および第2の3次元ビジョンセンサ30Xの数は、1つであってもよく、2以上であってもよい。つまり、少なくとも1つの3次元ビジョンセンサ30と、少なくとも1つの第2の3次元ビジョンセンサ30Xとを用いて複数の計測範囲ARが計測される。
本変形例2では、3次元ビジョンセンサ30および第2の3次元ビジョンセンサ30Xの数はともに2つとする。また、複数の計測範囲ARは、3次元ビジョンセンサ30を用いて計測する2つの第1計測範囲ARXと、第2の3次元ビジョンセンサ30Xを用いて計測する2つの第2計測範囲ARYとの4つとする。
本変形例2の制御装置40は、計測モードでは、複数の計測範囲ARのうち、2つの第1計測範囲ARXの各々を計測可能な位置に2つの3次元ビジョンセンサ30が移動するように、多関節ロボット20を制御する。
一方、取得部60は、ステップS1において(図3参照)、計測モードの実行指令を制御装置40に与えて制御装置40に計測モードを実行させることで、2つの第1計測範囲ARXの各々の距離画像MGを取得する。また、取得部60は、固定された状態にある第2の3次元ビジョンセンサ30Xの各々から第2計測範囲ARYの距離画像MGを取得する。
このように、複数の計測範囲ARの一部(第1計測範囲ARX)の距離画像MGを、多関節ロボット20の3次元ビジョンセンサ30から取得し、複数の計測範囲ARの他の一部(第2計測範囲ARY)の距離画像MGを、不動の第2の3次元ビジョンセンサ30Xから取得することが可能である。
したがって、変形例2では、互いに離間する複数の設置場所の各々に対して複数の計測範囲ARが定められる場合に、各々の設置場所における複数の計測範囲ARの一部(第1計測範囲ARX)の距離画像MGを、1台の多関節ロボット20に設けられる3次元ビジョンセンサ30を用いて取得することができる。
<変形例3>
上記実施の形態では、記憶部52、操作入力部54、表示部56、取得部60、統合部62、表示制御部64および姿勢演算部66を情報処理装置50が有していた。しかし、記憶部52、操作入力部54、表示部56、取得部60、統合部62、表示制御部64および姿勢演算部66の一部および全部を制御装置40が有していてもよい。
<変形例4>
上記の実施の形態および変形例は、矛盾の生じない範囲で任意に組み合わされてもよい。
〔上記から把握し得る発明〕
上記の実施の形態および変形例から把握し得る発明について、以下に記載する。
<第1の発明>
第1の発明は、3次元形状計測システム(10)であって、複数の軸(AX)を有する多関節ロボット(20)と、多関節ロボット(20)に少なくとも1つ設けられ、被写体の3次元形状を計測する3次元ビジョンセンサ(30)と、オーバーラップ領域(OLR)を有する複数の計測範囲(AR)の各々で計測された3次元形状を示す距離画像(MG)が記憶される記憶部(52)と、記憶部(52)に記憶された複数の距離画像(MG)を、オーバーラップ領域(OLR)に対応する部分(PT)が重なるように統合して統合距離画像(IMG)を生成する統合部(62)と、を備える。
これにより、1つの計測範囲(AR)に収まらない被写体であっても、その被写体の3次元形状を示す情報(統合距離画像IMG)を生成することができ、この結果、相対的に大型の被写体の3次元情報を生成することができる。
3次元形状計測システム(10)は、複数の計測範囲(AR)が識別可能な状態で統合距離画像(IMG)を表示させる表示制御部(64)を備えてもよい。これにより、オペレータに対して計測範囲(AR)のオーバーラップ領域(OLR)を確認させながら、3次元ビジョンセンサ(30)の計測位置を調整させることができる。
統合部(62)は、記憶部(52)に記憶された複数の距離画像(MG)のうち、指定された統合範囲(IS)の距離画像部分を、統合対象として用いてもよい。これにより、複数の距離画像(MG)の各々の全体を統合対象として用いる場合に比べて、統合処理の負荷を低減することができる。
被写体は、複数の計測範囲(AR)を合わせた範囲よりも小さく、複数の搬送対象物(W)を収容可能なコンテナ(CT)であり、統合範囲(IS)は、コンテナ(CT)の外枠とされてもよい。これにより、搬送対象物(W)の誤検出を回避することができ、また搬送対象物(W)の姿勢などの演算に不要な範囲の情報の処理を削減することができる。
3次元形状計測システム(10)は、複数の計測範囲(AR)の各々を計測可能な位置に3次元ビジョンセンサ(30)が移動するように、多関節ロボット(20)を制御する制御装置(40)を備えてもよい。これにより、3次元ビジョンセンサ(30)の数を削減することができる。
3次元形状計測システム(10)は、多関節ロボット(20)とは異なる位置に不動の状態で設けられ、複数の計測範囲(AR)の少なくとも1つを計測する第2の3次元ビジョンセンサ(30X)を備え、制御装置(40)は、複数の計測範囲(AR)のうち、第2の3次元ビジョンセンサ(30X)が計測する計測範囲(AR)以外の計測範囲(AR)を計測可能な位置に3次元ビジョンセンサ(30)が移動するように、多関節ロボット(20)を制御してもよい。これにより、互いに離間する複数の計測場所の各々に対して複数の計測範囲(AR)が定められる場合に、各々の設置場所の複数の計測範囲(AR)の一部の距離画像(MG)を、1台の多関節ロボット(20)に設けられる3次元ビジョンセンサ(30)を用いて取得することができる。
<第2の発明>
第2の発明は、複数の軸(AX)を有する多関節ロボット(20)と、多関節ロボット(20)に少なくとも1つ設けられ、被写体の3次元形状を計測する3次元ビジョンセンサ(30)と、を有する3次元形状計測システム(10)の3次元形状計測方法である。この3次元形状計測方法は、オーバーラップ領域(OLR)を有する複数の計測範囲(AR)の各々で計測された3次元形状を示す距離画像(MG)を記憶部(52)に記憶する記憶ステップ(S2)と、記憶部(52)に記憶された複数の距離画像(MG)を、オーバーラップ領域(OLR)に対応する部分(PT)が重なるように統合して統合距離画像(IMG)を生成する統合ステップ(S3)と、を含む。
これにより、1つの計測範囲(AR)に収まらない被写体であっても、その被写体の3次元形状を示す情報(統合距離画像IMG)を生成することができ、この結果、相対的に大型の被写体の3次元情報を生成することができる。
3次元形状計測方法は、複数の計測範囲(AR)が識別可能な状態で統合距離画像(IMG)を表示させる表示制御ステップ(S10)を含んでもよい。これにより、オペレータに対して計測範囲(AR)のオーバーラップ領域(OLR)を確認させながら、3次元ビジョンセンサ(30)の計測位置を調整させることができる。
統合ステップ(S3)は、記憶部(52)に記憶された複数の距離画像(MG)のうち、指定された統合範囲(IS)の距離画像部分を、統合対象として用いてもよい。これにより、複数の距離画像(MG)の各々の全体を統合対象として用いる場合に比べて、統合処理の負荷を低減することができる。
被写体は、複数の計測範囲(AR)を合わせた範囲よりも小さく、複数の搬送対象物(W)を収容可能なコンテナ(CT)であり、統合範囲(IS)は、コンテナ(CT)の外枠とされてもよい。これにより、搬送対象物(W)の誤検出を回避することができ、また搬送対象物(W)の姿勢などの演算に不要な範囲の情報の処理を削減することができる。
3次元形状計測方法は、複数の計測範囲(AR)の各々を計測可能な位置に3次元ビジョンセンサ(30)が移動するように、多関節ロボット(20)を制御する制御ステップ(S1)を含んでもよい。これにより、3次元ビジョンセンサ(30)の数を削減することができる。
3次元形状計測システム(10)は、多関節ロボット(20)とは異なる位置に不動の状態で設けられ、複数の計測範囲(AR)の少なくとも1つを計測する第2の3次元ビジョンセンサ(30X)を備え、制御ステップ(S1)は、複数の計測範囲(AR)のうち、第2の3次元ビジョンセンサ(30X)が計測する計測範囲(AR)以外の計測範囲(AR)を計測可能な位置に3次元ビジョンセンサ(30)が移動するように、多関節ロボット(20)を制御してもよい。これにより、互いに離間する複数の計測場所の各々に対して複数の計測範囲(AR)が定められる場合に、各々の設置場所の複数の計測範囲(AR)の一部の距離画像(MG)を、1台の多関節ロボット(20)に設けられる3次元ビジョンセンサ(30)を用いて取得することができる。
10…3次元形状計測システム 20…多関節ロボット
30(30A、30B)…3次元ビジョンセンサ 40…制御装置
50…情報処理装置 52…記憶部
54…操作入力部 56…表示部
60…取得部 62…統合部
64…表示制御部 66…姿勢演算部

Claims (10)

  1. 複数の軸を有する多関節ロボットと、
    前記多関節ロボットに少なくとも1つ設けられ、被写体の3次元形状を計測する3次元ビジョンセンサと、
    オーバーラップ領域を有する複数の計測範囲の各々で計測された前記3次元形状を示す距離画像が記憶される記憶部と、
    前記記憶部に記憶された複数の前記距離画像を、前記オーバーラップ領域に対応する部分が重なるように統合して統合距離画像を生成する統合部と、
    複数の前記計測範囲が識別可能な状態で前記統合距離画像を表示させる表示制御部と、
    を備える3次元形状計測システム。
  2. 請求項に記載の3次元形状計測システムであって、
    前記統合部は、前記記憶部に記憶された複数の前記距離画像のうち、指定された統合範囲の距離画像部分を、統合対象として用いる、3次元形状計測システム。
  3. 請求項に記載の3次元形状計測システムであって、
    前記被写体は、複数の前記計測範囲を合わせた範囲よりも小さく、複数の搬送対象物を収容可能なコンテナであり、
    前記統合範囲は、前記コンテナの外枠とされる、3次元形状計測システム。
  4. 請求項1〜のいずれか1項に記載の3次元形状計測システムであって、
    複数の前記計測範囲の各々を計測可能な位置に前記3次元ビジョンセンサが移動するように、前記多関節ロボットを制御する制御装置を備える、3次元形状計測システム。
  5. 請求項に記載の3次元形状計測システムであって、
    前記多関節ロボットとは異なる位置に不動の状態で設けられ、複数の前記計測範囲の少なくとも1つを計測する第2の3次元ビジョンセンサを備え、
    前記制御装置は、複数の前記計測範囲のうち、前記第2の3次元ビジョンセンサが計測する前記計測範囲以外の前記計測範囲を計測可能な位置に前記3次元ビジョンセンサが移動するように、前記多関節ロボットを制御する、3次元形状計測システム。
  6. 複数の軸を有する多関節ロボットと、前記多関節ロボットに少なくとも1つ設けられ、被写体の3次元形状を計測する3次元ビジョンセンサと、を有する3次元形状計測システムの3次元形状計測方法であって、
    オーバーラップ領域を有する複数の計測範囲の各々で計測された前記3次元形状を示す距離画像を記憶部に記憶する記憶ステップと、
    前記記憶部に記憶された複数の前記距離画像を、前記オーバーラップ領域に対応する部分が重なるように統合して統合距離画像を生成する統合ステップと、
    複数の前記計測範囲が識別可能な状態で前記統合距離画像を表示させる表示制御ステップと、
    を含む3次元形状計測方法。
  7. 請求項に記載の3次元形状計測方法であって、
    前記統合ステップは、前記記憶部に記憶された複数の前記距離画像のうち、指定された統合範囲の距離画像部分を、統合対象として用いる、3次元形状計測方法。
  8. 請求項に記載の3次元形状計測方法であって、
    前記被写体は、複数の前記計測範囲を合わせた範囲よりも小さく、複数の搬送対象物を収容可能なコンテナであり、
    前記統合範囲は、前記コンテナの外枠とされる、3次元形状計測方法。
  9. 請求項のいずれか1項に記載の3次元形状計測方法であって、
    複数の前記計測範囲の各々を計測可能な位置に前記3次元ビジョンセンサが移動するように、前記多関節ロボットを制御する制御ステップを含む、3次元形状計測方法。
  10. 請求項に記載の3次元形状計測方法であって、
    前記多関節ロボットとは異なる位置に不動の状態で設けられ、複数の前記計測範囲の少なくとも1つを計測する第2の3次元ビジョンセンサを備え、
    前記制御ステップは、複数の前記計測範囲のうち、前記第2の3次元ビジョンセンサが計測する前記計測範囲以外の前記計測範囲を計測可能な位置に前記3次元ビジョンセンサが移動するように、前記多関節ロボットを制御する、3次元形状計測方法。
JP2019017173A 2019-02-01 2019-02-01 3次元形状計測システムおよび3次元形状計測方法 Active JP6923574B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019017173A JP6923574B2 (ja) 2019-02-01 2019-02-01 3次元形状計測システムおよび3次元形状計測方法
US16/751,671 US11389967B2 (en) 2019-02-01 2020-01-24 Three-dimensional shape measurement system and three-dimensional shape measurement method
DE102020101715.4A DE102020101715A1 (de) 2019-02-01 2020-01-24 Messsystem für dreidimensionale formen und messverfahren für dreidimensionale formen
CN202010078432.XA CN111515943A (zh) 2019-02-01 2020-02-03 三维形状测量系统以及三维形状测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019017173A JP6923574B2 (ja) 2019-02-01 2019-02-01 3次元形状計測システムおよび3次元形状計測方法

Publications (2)

Publication Number Publication Date
JP2020125921A JP2020125921A (ja) 2020-08-20
JP6923574B2 true JP6923574B2 (ja) 2021-08-18

Family

ID=71615244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019017173A Active JP6923574B2 (ja) 2019-02-01 2019-02-01 3次元形状計測システムおよび3次元形状計測方法

Country Status (4)

Country Link
US (1) US11389967B2 (ja)
JP (1) JP6923574B2 (ja)
CN (1) CN111515943A (ja)
DE (1) DE102020101715A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7247976B2 (ja) * 2020-07-23 2023-03-29 株式会社三洋物産 遊技機
JP7247977B2 (ja) * 2020-07-23 2023-03-29 株式会社三洋物産 遊技機
JP7247979B2 (ja) * 2020-07-23 2023-03-29 株式会社三洋物産 遊技機
JP7247980B2 (ja) * 2020-07-23 2023-03-29 株式会社三洋物産 遊技機
JP7247981B2 (ja) * 2020-07-23 2023-03-29 株式会社三洋物産 遊技機
JP7379305B2 (ja) * 2020-09-17 2023-11-14 株式会社東芝 光学装置
CN112476489B (zh) * 2020-11-13 2021-10-22 哈尔滨工业大学(深圳) 基于自然特征的柔性机械臂同步测量方法及系统

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3859571B2 (ja) * 2002-10-17 2006-12-20 ファナック株式会社 3次元視覚センサ
JP2004163346A (ja) * 2002-11-15 2004-06-10 Kanto Auto Works Ltd 非接触式三次元形状計測装置
JP5057734B2 (ja) * 2006-09-25 2012-10-24 株式会社トプコン 測量方法及び測量システム及び測量データ処理プログラム
US8780881B2 (en) * 2006-12-21 2014-07-15 Intel Corporation Adaptive polling for bursty wireless data traffic
US8352076B2 (en) 2009-06-03 2013-01-08 Canon Kabushiki Kaisha Robot with camera
JP5471356B2 (ja) * 2009-11-24 2014-04-16 オムロン株式会社 3次元計測のためのキャリブレーション方法および3次元視覚センサ
US9779546B2 (en) * 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US9286530B2 (en) * 2012-07-17 2016-03-15 Cognex Corporation Handheld apparatus for quantifying component features
JP5943785B2 (ja) * 2012-09-12 2016-07-05 キヤノン株式会社 撮像装置、撮像システム、画像処理装置、および、撮像装置の制御方法
US20140104413A1 (en) * 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
JP6091977B2 (ja) 2013-04-22 2017-03-08 日立建機株式会社 建設機械
JP2015215301A (ja) * 2014-05-13 2015-12-03 株式会社ニコン 三次元データの連結方法、三次元データ連結装置、形状測定装置、形状測定方法、構造物製造システム、構造物製造方法、及び形状測定プログラム
JP2016011930A (ja) * 2014-06-30 2016-01-21 株式会社ニコン 三次元データの連結方法、測定方法、測定装置、構造物製造方法、構造物製造システム、及び形状測定プログラム
JP6357949B2 (ja) * 2014-07-29 2018-07-18 セイコーエプソン株式会社 制御システム、ロボットシステム、及び制御方法
JP2016192135A (ja) 2015-03-31 2016-11-10 株式会社オートネットワーク技術研究所 電線群加工用の画像取得システム
CN104990515B (zh) * 2015-06-02 2017-09-15 江苏科技大学 大型物体三维形状测量系统及其测量方法
US10094650B2 (en) * 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US11449061B2 (en) * 2016-02-29 2022-09-20 AI Incorporated Obstacle recognition method for autonomous robots
US11441294B2 (en) * 2016-10-31 2022-09-13 Komatsu Ltd. Measurement system, work machine, and measurement method
JP2018161700A (ja) * 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、システム、情報処理方法、製造方法
US10937183B2 (en) * 2019-01-28 2021-03-02 Cognex Corporation Object dimensioning system and method
EP3918437A4 (en) * 2019-01-31 2022-11-02 Brain Corporation SYSTEMS AND METHODS FOR LASER ODOMETRY AND IMAGING FOR AUTONOMOUS ROBOTS

Also Published As

Publication number Publication date
US11389967B2 (en) 2022-07-19
US20200246979A1 (en) 2020-08-06
JP2020125921A (ja) 2020-08-20
DE102020101715A1 (de) 2020-08-06
CN111515943A (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
JP6923574B2 (ja) 3次元形状計測システムおよび3次元形状計測方法
JP6950638B2 (ja) マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム
CN109940662B (zh) 具备拍摄工件的视觉传感器的摄像装置
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
US10675759B2 (en) Interference region setting apparatus for mobile robot
US10807240B2 (en) Robot control device for setting jog coordinate system
CN105751222A (zh) 具有碰撞检测的机器人医学设备及其碰撞检测方法
JP2019038075A (ja) ロボットシステム
JP2012011498A (ja) ロボットアーム操作システムおよびその操作方法
JP2018034242A (ja) ロボット制御装置、ロボット、及びロボットシステム
CN109834710B (zh) 机器人和机器人系统
JP6922204B2 (ja) 制御装置、ロボットおよびロボットシステム
JP2020026028A (ja) データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム
JP6795540B2 (ja) ロボットを用いた負荷の重量及び重心位置を推定するための装置、方法及びプログラム
JP2019025578A (ja) 制御装置、ロボットシステムおよび制御方法
JP2020075327A (ja) 制御システム
US11173600B2 (en) Operation device, control system, control method, and non-transitory computer-readable storage medium
US11426868B2 (en) Operation device, control system, control method, and non-transitory computer-readable storage medium
WO2020032211A1 (ja) データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム
JP4849178B2 (ja) 移動型ロボット
JP5862382B2 (ja) 作業支援装置
JP2017113815A (ja) 対象物をロボットを用いて把持するロボットシステムの画像表示方法
JP2019115950A (ja) ロボット制御装置、ロボットおよびロボットシステム
JP7230626B2 (ja) ロボット装置
JP2020163499A (ja) 物体検出方法、物体検出装置およびロボットシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210729

R150 Certificate of patent or registration of utility model

Ref document number: 6923574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150