JP2020109383A - 計測装置およびその制御方法、プログラム、および物品製造方法 - Google Patents
計測装置およびその制御方法、プログラム、および物品製造方法 Download PDFInfo
- Publication number
- JP2020109383A JP2020109383A JP2019000738A JP2019000738A JP2020109383A JP 2020109383 A JP2020109383 A JP 2020109383A JP 2019000738 A JP2019000738 A JP 2019000738A JP 2019000738 A JP2019000738 A JP 2019000738A JP 2020109383 A JP2020109383 A JP 2020109383A
- Authority
- JP
- Japan
- Prior art keywords
- image
- robot
- imaging
- evaluation value
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】ロボットの移動速度の設定の容易さの点で有利な技術を提供すること。【解決手段】計測装置は、ロボットに取り付けられた撮像部と、ロボットおよび撮像部を制御する制御部と、ロボットの移動に伴って撮像部が移動する間に行われたワークの撮像により得られた画像に基づいてワークの位置および姿勢を求める計測処理を行う処理部とを有する。制御部は、予め設定された移動経路に沿ってロボットを移動させている間に移動経路における所定位置で撮像部にワークの撮像を行わせることを、それぞれ異なる移動速度で複数回行うように、ロボットおよび撮像部を制御する。処理部は、移動速度がそれぞれ異なる複数回のロボットの移動における撮像によって得られたそれぞれの画像の評価値を求め、移動速度と評価値との関係に基づいて、計測処理を行うときのロボットの移動速度の推奨上限値を算出し出力する。【選択図】 図1
Description
本発明は、計測装置およびその制御方法、プログラム、および物品製造方法に関する。
近年、これまで人間が行っていた工業製品の組立のような複雑なタスクをロボットが代わりに行うようになりつつある。ロボットによる工業製品の組立では、ハンドなどのエンドエフェクタによって効率良く部品を把持する必要がある。このために、ロボットハンド上に撮像装置(ビジョンセンサ)を備え、ロボットハンドを移動させながら取得した部品(ワーク)の画像から位置や姿勢を計測する技術がある。部品の位置姿勢を計測する技術にはいくつかの手法がある。例えば、均一照明された部品を単一の方向から撮像した画像からエッジ検出を行い部品の位置を推定する技術がある。また、三角測量の原理に基づき、部品を異なる方向から撮像した画像から距離点を算出し部品の位置姿勢を推定するステレオ法がある。さらに、パターン照明された部品をその照明方向とは異なる方向から撮像した画像から距離点を算出し部品の位置姿勢を推定するアクティブステレオ法も知られている。特許文献1には、アクティブステレオ法と均一照明の画像のエッジ検出の両方の機能を有し、高精度に部品の位置や姿勢を推定する技術が開示されている。
ロボットアーム動作中にビジョンセンサで撮像すると画像ブレが発生しうる。画像ブレによってエッジの検出精度や距離点の精度が低下し、正確な部品の位置姿勢の情報を得ることができなくなる。このため、撮像中におけるロボット移動速度は制限される必要がある。
また、画像ブレの発生条件はビジョンセンサの方式によって異なる。均一照明された部品を単一方向から撮像する場合、撮像するカメラ光学系の光軸に垂直な平面内でワークとカメラが相対移動する移動方向で画像のブレ量は大きくなり、ワークとカメラが光学系の光軸方向に相対移動する移動方向では画像のブレは小さくなる。一方、アクティブステレオの場合、パターンを投影する投影光学系とパターンが照明されたワークを撮像する撮像光学系の配置関係が固定されている。そのため、ワークとビジョンセンサの相対移動方向が撮像光学系の光軸を含む面に垂直な方向である場合、パターン画像のブレは発生しない。一方、ワークとビジョンセンサの相対移動方向が撮像光学系の光軸を含む面内の方向である場合は、パターン画像のボケが発生する。したがって、ユーザによるロボット動作決定プロセスにおいて、ロボットに搭載されたビジョンセンサによる撮像中のロボット移動速度を適切に設定することが困難となる。
特許文献2(特開2011−11330号公報)では、加速度センサにてカメラの移動速度の検出を行い、ロボットが静止したタイミングで撮像する時のカメラ振動(速度)が所定値以下の場合にのみ撮像を行うことを開示している。しかし、特許文献2には、移動速度の決定プロセスは開示されていない。特許文献3(特許第6188440号公報)では、カメラの移動方向を光学系の光軸方向に規定することで画像のブラー発生を抑えることを開示している。しかし、特許文献3の技術ではロボット動作に大きな制約がかかる。また、特許文献3には、ロボットの移動速度の制約に関しては言及がない。
本発明は、ロボットの移動速度の設定の容易さの点で有利な技術を提供することを目的とする。
本発明の一側面によれば、ロボットに取り付けられた撮像部と、前記ロボットおよび前記撮像部を制御する制御部と、前記ロボットの移動に伴って前記撮像部が移動する間に行われたワークの撮像により得られた画像に基づいて前記ワークの位置および姿勢を求める計測処理を行う処理部とを有し、前記制御部は、予め設定された移動経路に沿って前記ロボットを移動させている間に前記移動経路における所定位置で前記撮像部に前記ワークの撮像を行わせることを、それぞれ異なる移動速度で複数回行うように、前記ロボットおよび前記撮像部を制御し、前記処理部は、前記移動速度がそれぞれ異なる前記複数回の前記ロボットの移動における撮像によって得られたそれぞれの画像の評価値を求め、前記移動速度と前記評価値との関係に基づいて、前記計測処理を行うときの前記ロボットの移動速度の推奨上限値を算出し出力することを特徴とする計測装置が提供される。
本発明によれば、ロボットの移動速度の設定の容易さの点で有利な技術を提供することができる。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の実施形態は本発明の実施の具体例を示すにすぎないものであり、本発明は以下の実施形態に限定されるものではない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。
図1は、本実施形態における計測装置の構成例を示す図である。本実施形態における計測装置はいわゆるロボットビジョンシステムとして構成される。図1におけるロボットビジョンシステムは、パレット上にばら積みで置かれている位置および姿勢が不定な部品等のワーク(ただし簡略化のため、図1ではワーク50が1つだけ示されている。)をロボットで把持し、ワークを整列させるもしくは組み付けることを目的に用いられるシステムを想定している。図1の計測装置は、ロボット10と、ロボット10に取り付けられた撮像部であるビジョンセンサ20とを含む。ロボット10は、ビジョンセンサ20による撮像の結果に基づいてワーク50を把持して移動する。ロボット10は、例えば6軸の多関節ロボットであり、製造業における部品の仕分け工程や組立工程等において広く用いられている。ビジョンセンサ20は、例えばロボット10のロボットアームの先端部に取り付けられている。
また、ロボットビジョンシステムは、ロボット10を制御するロボット制御装置30と、ビジョンセンサ20を制御するビジョン制御装置40とを含む。ビジョン制御装置40は、ロボット10を移動させながらビジョンセンサ20により撮像を行うことができる。ロボット制御装置30は、ロボット10の位置情報や速度情報等を取得し、ロボット10の駆動を制御する。また、ロボット制御装置30は、ロボット10の位置情報および速度情報に基づいてビジョン制御装置40に撮影指示を発行する。本実施形態ではロボット制御装置30とビジョン制御装置40とは独立した構成で示されているが、ロボット10およびビジョンセンサ20を制御する制御部として一体的に構成されていてもよい。
本実施形態において、制御部であるロボット制御装置30およびビジョン制御装置40は専用ハードウェアにより構成してもよいが、汎用コンピュータ装置によっても実現可能である。図7は、制御部を汎用コンピュータ装置で構成する場合のハードウェア構成例を示すブロック図である。図7において、CPU21は、中央演算装置(処理部)である。ROM24は、BIOS等の固定的なプログラムや、各種データを記憶している。RAM22は、主記憶装置として機能するとともにCPU21のワークエリアを提供する。外部記憶装置であるハードディスクドライブ(HDD)23は、オペレーティングシステム(OS)、制御プログラム、画像データ等を記憶する。CPU21は、HDD23に格納されている制御プログラムをRAM22にロードすることにより、本実施形態の動作を実行することができる。汎用インタフェース(I/F)26には、入力装置31および記録メディア32が接続される。入力装置31は、キーボードやマウス等を含みうる。記録メディア32は、SDカード、USB等のメモリデバイスである。ビデオコントローラ(VC)27には、表示装置33(表示部)が接続されている。表示装置33は、VC27による制御の下、CPU21による処理結果を画像や文字等で表示することができる。入力装置31と表示装置33とが一体化されたタッチパネル画面が構成されてもよい。これら上記した各部は、バス25により相互接続されている。
図2は、本実施形態におけるビジョンセンサ20の構成を示す図である。ビジョンセンサ20は、照明部1と、撮像部2と、演算処理部3とを含みうる。演算処理部3は、記憶部4を含みうる。ビジョンセンサ20は、距離画像を取得する機能を有する。ここで、距離画像とは、計測対象であるワーク表面上の点の三次元情報を示すものであり、各画素が奥行きの情報をもつ画像である。照明部1は、ワーク50に対してパターン光を照射(投影)する。撮像部2は、照明部1によってパターン光が照射されたワーク50を、照明部1に対して特定方向に傾いた方向から撮像する。演算処理部3は、撮像部2による撮像によって取得されたパターン画像から三角測量の原理に基づいて距離画像を算出し、算出された距離画像をモデルフィッティングすることにより、ワーク50の位置姿勢を推定する。本実施形態では、ロボット10を移動させながらビジョンセンサ20でワーク50を撮像することを想定している。したがって本実施形態における演算処理部3は、とりわけ、ロボット10の移動に伴ってビジョンセンサ20が移動する間に行われたワーク50の撮像により得られた画像に基づいてワーク50の位置姿勢を求める計測処理を行う処理部として機能する。本実施形態では、ロボット10を移動させながらビジョンセンサ20でワーク50を撮像することを想定しているため、投影するパターンは、一枚のパターン画像から距離画像を算出できるパターンであることが望ましい。複数枚の撮像画像から距離画像を算出する方式では、ロボット10の移動により各撮像画像の視野ずれが生じてしまい、高精度に距離画像を算出できないからである。
記憶部4は、ワーク毎の露光時間及び撮像時の光量に関する撮像条件等、予め設定されるパラメータを記憶している。なお、演算処理部3(および記憶部4)の機能は必ずしもビジョンセンサ内に設けられている必要はなく、ビジョン制御装置40内に設けられていてもよい。
図3は、計測処理を行うときのロボットの移動速度の推奨上限値を決定する処理のフローチャートである。計測処理を行う前の事前セットアップとして行われる。この処理は例えばビジョン制御装置40によって実行される。具体的には、このフローチャートに対応するプログラムは、例えばHDD23に格納されている制御プログラムに含まれ、この制御プログラムがRAM22にロードされた後、CPU21によって実行される。ただし、この処理中に行われる各種処理は、CPU21によって行われてもよいし、演算処理部3によって行われてもよい。
S101で、ユーザにより入力装置31を介して入力された情報によりロボット10の動作が設定される。設定される動作の内容は、例えば以下を含みうる。
(1)ロボット10が動作を開始する空間座標点(動作開始位置)および姿勢。
(2)動作開始位置からワークの把持を開始する位置(把持開始位置)までの経路および姿勢。
(3)把持開始位置からワークへのアプローチ経路および姿勢。
(4)ワーク把持後のロボット動作、経路。
S101で、ユーザにより入力装置31を介して入力された情報によりロボット10の動作が設定される。設定される動作の内容は、例えば以下を含みうる。
(1)ロボット10が動作を開始する空間座標点(動作開始位置)および姿勢。
(2)動作開始位置からワークの把持を開始する位置(把持開始位置)までの経路および姿勢。
(3)把持開始位置からワークへのアプローチ経路および姿勢。
(4)ワーク把持後のロボット動作、経路。
S102で、ユーザにより入力装置31を介して入力された情報に基づいて、S101で設定されたロボット動作経路におけるビジョンセンサ20の動作経路K(移動経路)が選択される。また、選択された動作経路K上のビジョンセンサ20による撮像を行う所定位置である撮像位置Pも設定される。S103で、ビジョンセンサ20が撮像位置Pに移動した後、ユーザにより入力装置31を介して入力された情報に基づいて、ワークを撮像する露光時間、光量等の露光条件が設定される。ただし、ビジョンセンサ20に露光条件を自動的に設定する機能が備わっている場合はそのような機能を利用して露光条件が設定されてもよい。
S104で、ユーザにより入力装置31を介して入力された情報に基づいて、評価値を算出するためのワーク上の評価領域Rが設定される。例えば、撮像位置Pで撮像されたワークの画像が表示装置33上に表示され、ユーザの入力装置31を介した操作入力に基づき評価値を求めるための評価領域Rが設定される。このとき、評価領域Rはワーク上の連続面であることが好ましい。評価領域Rの指定は、単領域を1つ指定することでもよいし、単領域の複数指定することでもよい。設定された評価領域Rは記憶部4に記憶される。
S105で、ビジョン制御装置40は、S102で予め設定された動作経路Kに沿ってロボット10を移動させている間に移動経路における所定位置でビジョンセンサ20にワークの撮像を行わせる。ビジョン制御装置40は、この動作を、それぞれ異なる移動速度で複数回行うように、ロボット10およびビジョンセンサ20を制御する。S105の具体例を以下のとおりである。
動作経路K上を第1速度V1でロボット10(すなわちビジョンセンサ20)を移動させながら撮像位置Pの通過タイミングで撮像が行われ、第1画像G1が取得される。更に、ビジョンセンサ20を再び動作経路K上で移動させながら撮像位置Pの通過タイミングで撮像が行われ、第2画像G2が取得される。このときビジョンセンサ20は、第1速度V1とは異なる第2速度V2で移動させる。それぞれの撮像は、S103で設定された同じ露光条件で行われる。ここで、第1速度V1および第2速度V2のいずれか一方を0m/s(すなわち、静止状態)としてもよい。また、撮像タイミングは移動中における撮像点の通過タイミングが露光時間の中間タイミングであることが好ましい。
S106において、ビジョン制御装置40は、移動速度がそれぞれ異なる複数回のロボットの移動における撮像によって得られたそれぞれの画像の評価値を求める。次に、S107において、ビジョン制御装置40は、移動速度と評価値との関係に基づいて、計測処理を行うときのロボットの移動速度の推奨上限値を算出し出力する。以下、S106およびS107の具体例を示す。
S106で、第1画像G1における評価領域R内の画像から光学特性が算出され、該光学特性から第1評価値F1が求められる。同様に、第2画像G2における評価領域R内の画像から光学特性が算出され、該光学特性から第2評価値F2が求められる。次式に従い、第1速度V1と第2速度V2との差に対する第1評価値F1と第2評価値F2との差の関係が、評価値の移動速度に対する感度FSとして算出される。
S107で、評価値Fに関する所定の閾値FLimit(例えば記憶部4に予め記憶されている)とS106で算出した感度FSとに基づいて、次式に従い、撮像時の移動速度の推奨上限値V_limitが算出される。なお、上記したように、これらの演算は、ビジョン制御装置40(CPU21)によって実行されてもよいし、演算処理部3によって実行されてもよい。すなわち、以下の説明では、ビジョン制御装置40が行うものとされている処理は、演算処理部3が行うようにすることも可能である。
S108で、S107で算出された推奨上限値V_limitの情報が、表示装置33に表示される等してユーザに提示される。
ここで、光学特性と評価値Fの説明をする。ロボット移動中に取得した画像情報から得られる評価値Fは、ビジョンセンサ20の移動速度に依存する評価値である必要がある。ビジョンセンサ20を移動させながら撮像すると画像のブレが発生しうる。具体的には、本実施形態の場合はパターン画像のブレが発生し移動速度に応じてパターンボケが発生する。パターン画像のボケを表す光学特性としては、例えばパターンコントラストやパターンエッジスロープ(パターンエッジ部の画像強度の傾き)がある。この場合、光学特性と評価値Fは同じになる。例えば、評価領域内のパターンコントラストの最低値を光学特性及び評価値に設定する。また、アクティブステレオの距離精度はパターン画像のS/Nに依存する。このことから、パターンコントラストだけではなくパターン強度も考慮する方がよい。例えば、撮像素子のノイズは強度の平方根に比例することから、評価値Fは評価領域内のパターンコントラスト平均値とパターン最大強度から、次式に従い求める。
以上の処理によれば、ビジョンセンサ20がワークの撮像を行う動作経路Kおよび撮像位置Pを設定し、動作経路K上の撮像位置Pで異なる2つの移動速度で画像を取得することにより、ユーザは撮像時の移動速度上限を知ることができる。
なお、上記の例では、2つの異なる移動速度で2回の撮像を行うようにしたが、3つ以上の異なる速度で3回以上の撮像を行い、それらの撮像の結果から推奨上限値を求めるようにしてもよい。
なお、上記の例では、2つの異なる移動速度で2回の撮像を行うようにしたが、3つ以上の異なる速度で3回以上の撮像を行い、それらの撮像の結果から推奨上限値を求めるようにしてもよい。
<第2実施形態>
第2実施形態では、ビジョンセンサ20でワークを撮像し、撮像により得られた画像のエッジ検出によりワークの位置を推定する。図4は、計測処理を行うときのロボットの移動速度の推奨上限値を決定する処理のフローチャートである。第1実施形態(図3)と同じ内容の処理ステップには同じ参照符号を付してそれらの説明は省略する。本実施形態では、S104に代えてS204が実行される。S204では、ロボット移動によりビジョンセンサ20を撮像位置Pに位置させた後、ビジョンセンサ20は静止状態でワークの撮像を行う。この撮像により得られた画像からエッジ検出を行う。検出されたエッジから画像におけるエッジの評価を位置である評価エッジ位置が設定される。このとき例えば、ワークのアウトラインに位置するエッジが評価エッジとして選択される。また、評価エッジ位置は単一のエッジである必要はなく複数のエッジであってもよい。その後、第1実施形態と同様に、S105からS108までの処理が行われる。
第2実施形態では、ビジョンセンサ20でワークを撮像し、撮像により得られた画像のエッジ検出によりワークの位置を推定する。図4は、計測処理を行うときのロボットの移動速度の推奨上限値を決定する処理のフローチャートである。第1実施形態(図3)と同じ内容の処理ステップには同じ参照符号を付してそれらの説明は省略する。本実施形態では、S104に代えてS204が実行される。S204では、ロボット移動によりビジョンセンサ20を撮像位置Pに位置させた後、ビジョンセンサ20は静止状態でワークの撮像を行う。この撮像により得られた画像からエッジ検出を行う。検出されたエッジから画像におけるエッジの評価を位置である評価エッジ位置が設定される。このとき例えば、ワークのアウトラインに位置するエッジが評価エッジとして選択される。また、評価エッジ位置は単一のエッジである必要はなく複数のエッジであってもよい。その後、第1実施形態と同様に、S105からS108までの処理が行われる。
本実施形態においては、濃淡画像のブレが発生し移動速度に応じてエッジのボケが発生する。濃淡画像のボケを表す光学特性および評価値Fとしては、例えばエッジスロープ(エッジ部の画像強度の傾き)がある。例えば、評価エッジ位置相当の画像位置におけるエッジスロープが光学特性および評価値に設定される。複数の評価エッジ位置が設定されている場合は、各エッジ位置のエッジスロープの最低値が光学特性および評価値に設定される。また、濃淡画像のエッジ精度は画像のS/Nに依存する。このことからエッジスロープだけではなくエッジ部の信号強度(エッジ強度)も考慮する方がよい。例えば、撮像素子のノイズは強度の平方根に比例することから、評価値Fは評価領域内のエッジスロープの平均値とエッジ部の信号強度平均Iから求めるとよい。
<第3実施形態>
図5は、本実施形態におけるビジョンセンサ20の構成を示す図である。本実施形態におけるビジョンセンサ20は距離画像と濃淡画像を取得し、ワーク50の位置姿勢を推定する。距離画像計測は、第1照明部1と撮像部6によって行われる。第1照明部1は、ワーク50に対してパターン光を照射する。撮像部6は、第1照明部1によってパターン光が投影されたワーク50を、第1照明部1に対して特定方向に傾いた方向から撮像してパターン画像を取得する。濃淡画像計測は、第2照明部7と撮像部6によって行われる。第2照明部7は、例えば、第1照明部1の光路を遮らないように配置された複数のLEDにより、第1照明部1とは異なる波長の光を照射するように構成され、ワーク50に対して均一光を照射する。撮像部6は、第2照明部2によって均一光が投影されたワーク50を撮像して、濃淡画像を取得する。
図5は、本実施形態におけるビジョンセンサ20の構成を示す図である。本実施形態におけるビジョンセンサ20は距離画像と濃淡画像を取得し、ワーク50の位置姿勢を推定する。距離画像計測は、第1照明部1と撮像部6によって行われる。第1照明部1は、ワーク50に対してパターン光を照射する。撮像部6は、第1照明部1によってパターン光が投影されたワーク50を、第1照明部1に対して特定方向に傾いた方向から撮像してパターン画像を取得する。濃淡画像計測は、第2照明部7と撮像部6によって行われる。第2照明部7は、例えば、第1照明部1の光路を遮らないように配置された複数のLEDにより、第1照明部1とは異なる波長の光を照射するように構成され、ワーク50に対して均一光を照射する。撮像部6は、第2照明部2によって均一光が投影されたワーク50を撮像して、濃淡画像を取得する。
撮像部6には光路中に分光プリズム61が配置されており、パターン画像と濃淡画像は、この分光プリズム61によって分光されて、それぞれ撮像素子62、63によって撮像される。演算処理部3は、パターン画像から、三角測量の原理に基づいて距離画像を算出する。また、演算処理部3は、濃淡画像から、ワークのエッジ検出を行う。また、演算処理部3は、算出した距離画像とワークのエッジ検出をモデルフィッティングすることにより、ワーク50の位置姿勢を推定する。
図6は、計測処理を行うときのロボットの移動速度の推奨上限値を決定する処理のフローチャートである。S101およびS102は第1実施形態(図3)と同じである。S303では、ビジョンセンサ20が撮像位置Pに移動した後、ユーザにより入力装置31を介して入力された情報に基づいて、ワークを撮像する露光時間、光量等の露光条件が設定される。ただし、ビジョンセンサ20に露光条件を自動的に設定する機能が備わっている場合はそのような機能を利用して露光条件が設定されてもよい。また、パターン画像と濃淡画像の撮像の露光条件が同じである必要はなく、独立に露光条件が設定されてもよい。
S304では、ビジョン制御装置40は、撮像位置Pにおいてビジョンセンサ20により撮像されたワーク50の画像とワーク50の3次元モデル(CADモデル)とのフィッティングを行うことでワーク50の位置姿勢を特定する。これにより、ビジョン制御装置40は、CADモデルにおける上記特定された位置姿勢の情報に基づいて、パターン画像の評価値を求める領域である評価領域と、濃淡画像におけるエッジの評価を行う位置とを設定する。
S305では、動作経路K上を第1速度V1でビジョンセンサ20を移動させながら撮像位置Pの通過タイミングで撮像が行われ、第1パターン画像GK1、第1濃淡画像GC1が取得される。更に、ビジョンセンサ20を再び動作経路K上で移動させながら撮像位置Pの通過タイミングで撮像が行われ、第2パターン画像GK2、第2濃淡画像GC2が取得される。このときビジョンセンサ20は、第1速度V1とは異なる第2速度V2で移動させる。ここで、第1速度V1および第2速度V2のいずれか一方を0m/s(すなわち、静止状態)としてもよい。また、撮像タイミングは移動中における撮像点の通過タイミングが撮像露光時間の中間タイミングであることが好ましい。このとき、パターン画像撮像時の露光時間と濃淡画像撮像時の露光時間が異なる場合は、移動中における撮像点の通過タイミングが各撮像露光時間の中間タイミングであることが好ましい。
S306では、ビジョン制御装置40は、第1パターン画像GK1から距離画像を算出し、第1濃淡画像GC1からエッジ検出を行う。さらに、ビジョン制御装置40は、算出された距離画像と検出されたエッジ画像とに基づいて、CADモデルとのモデルフィッティングを行う。モデルフィッティングの結果から、S304で設定された評価領域内のパターン画像と評価エッジ位置が特定される。演算処理部3は、同様に、第2パターン画像GK2から距離画像を算出し、第2濃淡画像GC2からエッジ検出を行い、モデルフィッティングの結果から評価領域内のパターン画像と評価エッジ位置を特定する。
S307では、ビジョン制御装置40は、S306で第1パターン画像GK1から抽出した評価領域内のパターン画像から光学特性および評価値FK1を算出する。また、ビジョン制御装置40は、第2パターン画像GK2から抽出した評価領域内のパターン画像から光学特性および評価値FK2を算出する。次に、次式に従い、第1速度V1と第2速度V2との差に対する第1パターン画像GK1の評価値FK1と第2パターン画像GK2の評価値FK2との差の関係が、第1感度FKSとして算出される。
また、S307では、ビジョン制御装置40は、第1濃淡画像GC1から特定された評価エッジ部から光学特性および評価値FC1を算出する。また、ビジョン制御装置40は、第2濃淡画像GC2から特定された評価エッジ部から光学特性および評価値FC2を算出する。次に、次式に従い、第1速度V1と第2速度V2との差に対する第1濃淡画像GC1の評価値FC1と第2濃淡画像GC2の評価値FC2との差の関係を第2感度FCSとしてされる。
S308で、パターン画像の評価値FKに関する所定の閾値FKLimitとS307で算出した第1感度FKSとに基づいて、次式に従い、パターン画像撮像時の移動速度の上限値である第1上限値V_limitKが算出される。パターン画像の評価値FKに関する所定の閾値FKLimitは、例えば記憶部4に予め記憶されている。
同様に、濃淡画像の評価値FCに関する所定の閾値FCLimitとS307で算出した第2感度FCSとに基づいて、次式に従い、濃淡画像撮像時の移動速度の上限値である第2上限値V_limitCが算出される。濃淡画像の評価値FCに関する所定の閾値FCLimitは、例えば記憶部4に予め記憶されている。
そして、第1上限値V_limitKと第2上限値V_limitCのうちの低い方が、推奨上限値V_limitとして設定される。
S309で、S308で算出された推奨上限V_limitが、表示装置33に表示される等してユーザに提示される。
以上の処理によれば、ビジョンセンサ20がワークの撮像を行う動作経路Kおよび撮像位置Pを設定し、動作経路K上の撮像位置Pで異なる2つの移動速度で画像を取得することにより、ユーザは撮像時の移動速度上限を知ることができる。
以上説明した第1〜第3実施形態によれば、移動速度の推奨上限がユーザに提示されるので、ユーザは撮像位置での移動速度(駆動プロファイル)を容易に設定することができる。あるいは、移動速度(駆動プロファイル)が既に設定されている場合で、その移動速度が上述の実施形態により移動速度の推奨上限値を超えていると判定された場合は、ユーザに警告を提示するようにしてもよい。あるいは、移動速度(駆動プロファイル)が既に設定されている場合で、その移動速度が上述の実施形態により移動速度の推奨上限値を超えていると判定された場合は、ビジョンセンサ20からロボット制御装置30に自動で移動速度上限値を設定してもよい。
<第4実施形態>
上述の計測装置(ビジョンセンサ)は、ある支持部材に支持された状態で使用されうる。本実施形態では、一例として、図8のようにロボットアーム5300(把持装置)に備え付けられて使用される制御システムについて説明する。計測装置5100は、支持台5350に置かれた被検物5210にパターン光を投影して撮像し、画像を取得する。そして、計測装置5100の制御部が、又は、計測装置5100の制御部から画像データを取得した制御部5310が、被検物5210の位置および姿勢を求め、求められた位置および姿勢の情報を制御部5310が取得する。制御部5310は、その位置および姿勢の情報に基づいて、ロボットアーム5300に駆動指令を送ってロボットアーム5300を制御する。ロボットアーム5300は先端のロボットハンドなど(把持部)で被検物5210を保持して、並進や回転などの移動をさせる。さらに、ロボットアーム5300によって被検物5210を他の部品に組み付けることにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動された被検物5210を加工することにより、物品を製造することができる。制御部5310は、CPUなどの演算装置やメモリなどの記憶装置を有する。なお、ロボットを制御する制御部を制御部5310の外部に設けてもよい。また、計測装置5100により計測された計測データや得られた画像をディスプレイなどの表示部5320に表示してもよい。
上述の計測装置(ビジョンセンサ)は、ある支持部材に支持された状態で使用されうる。本実施形態では、一例として、図8のようにロボットアーム5300(把持装置)に備え付けられて使用される制御システムについて説明する。計測装置5100は、支持台5350に置かれた被検物5210にパターン光を投影して撮像し、画像を取得する。そして、計測装置5100の制御部が、又は、計測装置5100の制御部から画像データを取得した制御部5310が、被検物5210の位置および姿勢を求め、求められた位置および姿勢の情報を制御部5310が取得する。制御部5310は、その位置および姿勢の情報に基づいて、ロボットアーム5300に駆動指令を送ってロボットアーム5300を制御する。ロボットアーム5300は先端のロボットハンドなど(把持部)で被検物5210を保持して、並進や回転などの移動をさせる。さらに、ロボットアーム5300によって被検物5210を他の部品に組み付けることにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動された被検物5210を加工することにより、物品を製造することができる。制御部5310は、CPUなどの演算装置やメモリなどの記憶装置を有する。なお、ロボットを制御する制御部を制御部5310の外部に設けてもよい。また、計測装置5100により計測された計測データや得られた画像をディスプレイなどの表示部5320に表示してもよい。
<第5実施形態>
上記実施形態に係るロボットビジョンシステムは、物品製造方法に使用しうる。この物品製造方法は、前記システムを用いて物ないし部品(ワーク)の計測を行う工程と、この工程で計測された物ないし部品(ワーク)の処理ないし製造を行う工程とを含みうる。この処理は、例えば、加工、切断、搬送、組立(組付)、検査、選別などのうちの少なくともいずれか1つを含みうる。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能、品質、生産性、生産コストなどにおいて有利である。
上記実施形態に係るロボットビジョンシステムは、物品製造方法に使用しうる。この物品製造方法は、前記システムを用いて物ないし部品(ワーク)の計測を行う工程と、この工程で計測された物ないし部品(ワーク)の処理ないし製造を行う工程とを含みうる。この処理は、例えば、加工、切断、搬送、組立(組付)、検査、選別などのうちの少なくともいずれか1つを含みうる。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能、品質、生産性、生産コストなどにおいて有利である。
<他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は本発明の理解を助けることを目的とした具体例に過ぎず、いかなる意味においても本発明を上述の実施形態に限定する意図はない。特許請求の範囲に規定される範囲に含まれる全ての実施形態は本発明に包含される。
10:ロボット、20:計測装置(ビジョンセンサ)、30:ロボット制御装置、40:ビジョン制御装置、50:ワーク
Claims (13)
- ロボットに取り付けられた撮像部と、
前記ロボットおよび前記撮像部を制御する制御部と、
前記ロボットの移動に伴って前記撮像部が移動する間に行われたワークの撮像により得られた画像に基づいて前記ワークの位置および姿勢を求める計測処理を行う処理部と、を有し、
前記制御部は、予め設定された移動経路に沿って前記ロボットを移動させている間に前記移動経路における所定位置で前記撮像部に前記ワークの撮像を行わせることを、それぞれ異なる移動速度で複数回行うように、前記ロボットおよび前記撮像部を制御し、
前記処理部は、前記移動速度がそれぞれ異なる前記複数回の前記ロボットの移動における撮像によって得られたそれぞれの画像の評価値を求め、前記移動速度と前記評価値との関係に基づいて、前記計測処理を行うときの前記ロボットの移動速度の推奨上限値を算出し出力する
ことを特徴とする計測装置。 - 前記処理部は、
前記ロボットが第1速度で移動している間に前記所定位置において前記撮像部が前記ワークを撮像することにより得られた第1画像に対する評価値である第1評価値を求め、
前記ロボットが前記第1速度とは異なる第2速度で移動している間に前記所定位置において前記撮像部が前記ワークを撮像することにより得られた第2画像に対する評価値である第2評価値を求め、
前記第1速度と前記第2速度との差に対する前記第1評価値と前記第2評価値との差の関係を、前記評価値の前記移動速度に対する感度として求め、
前記評価値に関する所定の閾値と前記感度とに基づいて前記推奨上限値を算出する
ことを特徴とする請求項1に記載の計測装置。 - 前記第1画像および前記第2画像は、パターン光が投影された前記ワークを撮像して得られたパターン画像であり、前記評価値は、前記パターン画像のパターンコントラストを含むことを特徴とする請求項2に記載の計測装置。
- 前記評価値は、前記パターン画像のパターン強度を更に含むことを特徴とする請求項3に記載の計測装置。
- 画像を表示する表示部を有し、
前記処理部は、前記所定位置において前記撮像部により撮像された前記ワークの画像を前記表示部に表示させ、ユーザの操作入力に基づき前記評価値を求める領域である評価領域を設定する
ことを特徴とする請求項1乃至4のいずれか1項に記載の計測装置。 - 前記第1画像および前記第2画像は、均一光が投影された前記ワークを撮像して得られた濃淡画像であり、前記評価値は、前記濃淡画像のエッジスロープを含むことを特徴とする請求項2に記載の計測装置。
- 前記評価値は、前記濃淡画像のエッジ強度を更に含むことを特徴とする請求項6に記載の計測装置。
- 前記処理部は、前記所定位置において前記撮像部により静止状態で撮像された前記ワークの画像からエッジ検出を行い、検出されたエッジから前記画像におけるエッジの評価を行う位置を設定することを特徴とする請求項6または7に記載の計測装置。
- 前記撮像部は、パターン光が投影された前記ワークを撮像してパターン画像を取得するとともに、均一光が投影された前記ワークを撮像して濃淡画像を取得するように構成され、
前記処理部は、
前記ロボットが第1速度で移動している間に前記所定位置において前記撮像部が前記ワークを撮像することにより得られた第1パターン画像および第1濃淡画像のそれぞれに対する評価値を求め、
前記ロボットが前記第1速度とは異なる第2速度で移動している間に前記所定位置において前記撮像部が前記ワークを撮像することにより得られた第2パターン画像および第2濃淡画像のそれぞれに対する評価値を求め、
前記第1速度と前記第2速度との差に対する前記第1パターン画像の評価値と前記第2パターン画像の評価値との差の関係を第1感度として求め、
前記第1速度と前記第2速度との差に対する前記第1濃淡画像の評価値と前記第2濃淡画像の評価値との差の関係を第2感度として求め、
前記パターン画像の評価値に関する所定の閾値と前記第1感度とに基づいて算出される前記移動速度の第1上限値と、前記濃淡画像の評価値に対する所定の閾値と前記第2感度とに基づいて算出される前記移動速度の第2上限値とのうちの低い方を前記推奨上限値として出力する
ことを特徴とする請求項1に記載の計測装置。 - 前記処理部は、前記所定位置において前記撮像部により撮像された前記ワークの画像と前記ワークの3次元モデルとのフィッティングを行うことで前記ワークの位置および姿勢を特定し、前記3次元モデルにおける前記特定された位置および姿勢の情報に基づいて、前記第1パターン画像および前記第2パターン画像の評価値を求める領域である評価領域と、前記第1濃淡画像および前記第2濃淡画像におけるエッジの評価を行う位置とを設定することを特徴とする請求項9に記載の計測装置。
- ロボットに取り付けられた撮像部を備え、前記ロボットの移動に伴って前記撮像部が移動する間にワークの撮像を行い、該撮像により得られた画像に基づいて前記ワークの位置および姿勢を求める計測装置の制御方法であって、
予め設定された移動経路に沿ってロボットを移動させている間に前記移動経路における所定位置で前記ロボットに取り付けられた撮像部にワークの撮像を行わせることを、それぞれ異なる移動速度で複数回行う撮像工程と、
前記撮像工程における各回の撮像によって得られたそれぞれの画像の評価値を求め、前記移動速度と前記評価値との関係に基づいて前記ロボットの移動速度の推奨上限値を算出する算出工程と、
前記算出された前記推奨上限値の情報をユーザに対して提示する工程と、
を有することを特徴とする制御方法。 - コンピュータに、請求項11に記載の制御方法の各工程を実行させるためのプログラム。
- 請求項1乃至10のいずれか1項に記載の計測装置を用いてワークの計測を行う工程と、
前記計測の結果に基づいて前記ワークを処理することにより物品を製造する工程と、
を有することを特徴とする物品製造方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019000738A JP2020109383A (ja) | 2019-01-07 | 2019-01-07 | 計測装置およびその制御方法、プログラム、および物品製造方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019000738A JP2020109383A (ja) | 2019-01-07 | 2019-01-07 | 計測装置およびその制御方法、プログラム、および物品製造方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020109383A true JP2020109383A (ja) | 2020-07-16 |
Family
ID=71570018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019000738A Pending JP2020109383A (ja) | 2019-01-07 | 2019-01-07 | 計測装置およびその制御方法、プログラム、および物品製造方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020109383A (ja) |
-
2019
- 2019-01-07 JP JP2019000738A patent/JP2020109383A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3550470B1 (en) | Object recognition processing apparatus and method, and object picking apparatus and method | |
US10551821B2 (en) | Robot, robot control apparatus and robot system | |
US10839261B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US9415511B2 (en) | Apparatus and method for picking up article randomly piled using robot | |
CN111683798B (zh) | 工件拾取装置以及工件拾取方法 | |
US9529945B2 (en) | Robot simulation system which simulates takeout process of workpieces | |
JP4309439B2 (ja) | 対象物取出装置 | |
US20190193947A1 (en) | Article transfer apparatus, robot system, and article transfer method | |
US11511320B2 (en) | Surface finishing apparatus | |
JP2018176334A (ja) | 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法 | |
JP5665333B2 (ja) | 情報処理装置および情報処理装置の制御方法 | |
US20080013825A1 (en) | Simulation device of robot system | |
JP6703812B2 (ja) | 3次元物体検査装置 | |
WO2020144784A1 (ja) | 画像処理装置、作業ロボット、基板検査装置および検体検査装置 | |
US11707842B2 (en) | Robot system and coordinate conversion method | |
EP3537101A1 (en) | Image inspecting apparatus, image inspecting method and image inspecting program | |
JP2010276447A (ja) | 位置計測装置、位置計測方法およびロボットシステム | |
JP2018522240A (ja) | アーチファクトを測定するための方法 | |
JP2006021300A (ja) | 推定装置および把持装置 | |
JP7264247B2 (ja) | 情報処理装置及び情報処理方法 | |
JP2020109383A (ja) | 計測装置およびその制御方法、プログラム、および物品製造方法 | |
EP4094904A1 (en) | Robot system control device, robot system control method, computer control program, and robot system | |
JP2008009916A (ja) | 計測装置及び計測方法 | |
JP2005186193A (ja) | ロボットのキャリブレーション方法および三次元位置計測方法 | |
WO2024014080A1 (ja) | 推定システムおよび推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |