JP2014159988A - Object detector, robot system, and object detection method - Google Patents
Object detector, robot system, and object detection method Download PDFInfo
- Publication number
- JP2014159988A JP2014159988A JP2013030143A JP2013030143A JP2014159988A JP 2014159988 A JP2014159988 A JP 2014159988A JP 2013030143 A JP2013030143 A JP 2013030143A JP 2013030143 A JP2013030143 A JP 2013030143A JP 2014159988 A JP2014159988 A JP 2014159988A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- scan
- projection
- distance image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
開示の実施形態は、物体検出装置、ロボットシステム、及び物体検出方法に関する。 Embodiments disclosed herein relate to an object detection device, a robot system, and an object detection method.
特許文献1には、光切断法により物体の検出を行う技術が記載されている。光切断法では、光源から照射された光の物体への投影部位を走査方向に移動させ、その移動する投影部位を含む物体の外観を所望の間隔で連続撮像することにより、物体の三次元形状を検出する。
上記のような光切断法では、上記のように光の物体への投影部位を走査方向に移動させ連続撮像を行うとき、物体上の走査方向に沿うほぼ全域にわたる間、まんべんなく撮像を行わなければならない。このため、上記連続撮像を行うために比較的長い時間を要し、検出処理の効率化が難しい。 In the light cutting method as described above, when continuous imaging is performed by moving the projection part of the light onto the object in the scanning direction as described above, it is necessary to perform imaging uniformly over almost the entire area along the scanning direction on the object. Don't be. For this reason, it takes a relatively long time to perform the continuous imaging, and it is difficult to improve the efficiency of the detection process.
本発明はこのような問題に鑑みてなされたものであり、検出処理の大幅な短縮化を図ることができ、処理効率の向上を図ることができる物体検出装置、ロボットシステム、及び物体検出方法を提供することを目的とする。 The present invention has been made in view of such a problem, and provides an object detection device, a robot system, and an object detection method capable of greatly shortening detection processing and improving processing efficiency. The purpose is to provide.
上記課題を解決するため、本発明の一の観点によれば、検出対象の物体を検出する物体検出装置であって、スリット状のレーザ光を照射するレーザ光源と、前記レーザ光源から照射された前記レーザ光の前記物体への投影部位を、所定の走査方向へ移動させる走査部と、前記走査部が前記物体上での前記レーザ光の前記投影部位を移動させる際に、前記移動する投影部位を含む前記物体の外観を所望の間隔で連続撮像し、対応する複数の画像データを出力するカメラと、前記カメラが複数回の連続撮像を行う1つの撮像工程ごとに、複数の前記画像データを用いて前記物体の1つの三次元形状画像を生成する、距離画像生成部と、時間的に互いに異なる複数の前記撮像工程に基づいて前記距離画像生成部がそれぞれ生成した複数の前記三次元形状画像を合成して、前記物体の三次元形状を検出するための合成画像を生成する、合成画像生成部と、を有することを特徴とする、物体検出装置が適用される。 In order to solve the above-described problem, according to one aspect of the present invention, an object detection apparatus that detects an object to be detected, the laser light source that irradiates a slit-shaped laser beam, and the laser light source that is irradiated from the laser light source A scanning unit that moves the projection part of the laser beam onto the object in a predetermined scanning direction, and the projection part that moves when the scanning unit moves the projection part of the laser beam on the object A camera that continuously captures the appearance of the object including a desired interval and outputs a plurality of corresponding image data, and a plurality of the image data for each imaging step in which the camera performs a plurality of consecutive images. A plurality of three-dimensional images generated by the distance image generation unit based on a plurality of imaging steps that are different from each other in time, and a distance image generation unit that generates one three-dimensional shape image of the object using Jo image by synthesizing, and generates a composite image to detect the three-dimensional shape of the object, a composite image generating unit, and having an object detection apparatus is applied.
また、上記課題を解決するため、本発明の別の観点によれば、光源からスリット状のレーザ光を照射することと、前記照射した前記レーザ光の物体への投影部位を、所定の走査方向へ移動させることと、前記レーザ光の前記投影部位を移動させる際に、前記移動する投影部位を含む前記物体の外観を所望の間隔で連続撮像し、対応する複数の画像データを出力することと、複数回の連続撮像を行う1つの撮像工程ごとに、複数の前記画像データを用いて前記物体の1つの三次元形状画像を生成することと、時間的に互いに異なる複数の前記撮像工程に基づいてそれぞれ生成された複数の前記三次元形状画像を合成して、前記物体の三次元形状を検出することと、を有することを特徴とする、物体検出方法が適用される。 In order to solve the above problem, according to another aspect of the present invention, a slit-shaped laser beam is irradiated from a light source, and a projected portion of the irradiated laser beam on an object is set in a predetermined scanning direction. And moving the projection portion of the laser light, continuously imaging the appearance of the object including the moving projection portion at a desired interval, and outputting a plurality of corresponding image data Based on a plurality of the imaging steps that are temporally different from each other, generating one three-dimensional shape image of the object using a plurality of the image data for each imaging step in which a plurality of continuous imaging is performed. A plurality of the three-dimensional shape images generated respectively to detect the three-dimensional shape of the object, and an object detection method is applied.
本発明によれば、検出処理の大幅な短縮化を図ることができるので、処理効率の向上を図ることができる。 According to the present invention, since the detection process can be greatly shortened, the processing efficiency can be improved.
以下、一実施の形態について図面を参照しつつ説明する。 Hereinafter, an embodiment will be described with reference to the drawings.
まず、図1を参照しつつ、本実施形態のロボットシステムの全体構成の一例を説明する。 First, an example of the entire configuration of the robot system according to the present embodiment will be described with reference to FIG.
図1に示すように、本実施形態のロボットシステム1は、ストッカ20(容器)と、ロボット100と、コンベア30と、センサユニット300(物体検出装置)と、ロボットコントローラ200(コントローラ)とを有する。
As shown in FIG. 1, the
ストッカ20は、例えば樹脂や金属等で形成された箱状の容器であり、ロボット100の近傍に配置された台座21上に配置されている。このストッカ20の内部には、複数の検出対象のワークW(物体)が無作為(バラバラ)に入れられている。なお、各ワークWは、ストッカ20等のような容器に入れられていなくてもよく、台座21上等のような適宜の載置面に載置されていてもよい。また、各ワークW及びそれらの形状としては、特に限定されるものではなく、種々考えられる。このとき、各ワークW及びそれらの形状は、互いに一致又は類似していてもよいし、互いに異なっていてもよい。但し、各図中では、各ワークWの形状を簡略化して楕円形状で図示している。
The
ロボット100は、ストッカ20内の複数のワークWを順次保持して移送する移送作業(いわゆるランダム・ビン・ピッキング)を行う。ロボット100としては、上記のような移送作業を行うことが可能なものであれば特に限定されるものではないが、例えば垂直多関節ロボットや水平多関節ロボット(スカラロボット)等が使用可能である。この例では、ロボット100として垂直多関節ロボットを適用し、ロボット100は、適宜の固定面(例えば床部等)に固定された基台101と、基台101に回転自在に設けられたアーム部102とを有する。アーム部102は、基台101側からその反対の先端側にかけて複数の間接を有する。このアーム部102には、上記複数の間接をそれぞれ駆動する複数のサーボモータ(図示せず)が内蔵されている。また、アーム部102の先端には、ワークWを保持可能な保持装置103が設けられている。
The
保持装置103としては、ワークWを保持可能なものであれば特に限定されるものではないが、例えば、指部材によりワークWを把持(保持の一態様)可能な把持装置、エアや電磁力等により駆動してワークWを吸着(保持の一態様)可能な吸着装置等が使用可能である。この例では、保持装置103として把持装置を適用し、保持装置103は、ワークWを把持可能な一対の指部材103aを有する。一対の指部材103aは、保持装置103に内蔵された適宜のアクチュエータ(図示せず)により駆動され、互いの間隔を拡張・縮小することにより開閉動作する。なお、保持装置103としては、上記のような構造を備えたものに限定されるものではなく、例えば、複数の指部材を有し、これら複数の指部材が揺動することによりワークWを掴むグリッパ装置等も使用可能である。
The
このようなロボット100は、ストッカ20内の複数のワークWを把持装置103の指部材103aにより1つずつ順次把持し、コンベア30において予め設定された載置位置へ移送して載置することにより、移送作業を行う。
Such a
コンベア30は、予め設定された載置位置に載置されたワークWを、次の工程に係る設備に搬送する。
The
センサユニット300は、光切断法により、ストッカ20内の複数のワークWをそれぞれ検出し、それら複数のワークWそれぞれの三次元的な外形形状(三次元的な位置及び姿勢も含む。以下同様)である三次元形状を検出する。このセンサユニット300は、ストッカ20の上方に位置するように、適宜の支持部材50により支持されている。なお、センサユニット300は、ロボット100の適宜の部位(例えばアーム部102の先端側等)に取り付けられていてもよい。センサユニット300については、後でより詳しく説明する。
The
ロボットコントローラ200は、例えば演算器、記憶装置、入力装置等を有するコンピュータで構成され、ロボット100及びセンサユニット300と相互通信可能に接続されている。このロボットコントローラ200は、センサユニット300により検出されたストッカ20内の複数のワークWそれぞれの三次元形状を表す三次元形状情報に基づいて、ロボット100全体の動作(例えば、アーム部102の各間接の駆動、把持装置103の指部材103aの開閉動作等)を制御する。ロボットコントローラ200については、後でより詳しく説明する。
The
次に、図2〜図5を参照しつつ、センサユニット300の構成の一例を説明する。
Next, an example of the configuration of the
図2〜図5に示すように、センサユニット300は、レーザスキャナ320と、カメラ310と、センサコントローラ330とを有する。
As shown in FIGS. 2 to 5, the
レーザスキャナ320は、レーザ光源321と、回転ミラー322(走査部)と、モータ323と、角度検出器324とを備える。レーザ光源321は、スリット状のレーザ光(以下、「レーザスリット光」という)Lを照射する。回転ミラー322は、レーザ光源321から照射されたレーザスリット光Lを受光し、ワークW等へ向けて反射させ、ワークW等へ投影させる。モータ323は、回転ミラー322を回転させ、回転ミラー322の回転角度を変化させる。モータ323により回転ミラー322を回転させることにより、ワークW等の投影対象となる複数の投影領域からなる全投影領域TT内のワークW等上でのレーザスリット光Lの投影部位を、矢印Aで示す方向(所定の走査方向。以下、「走査方向A」という)へ移動させることができる。角度検出器324は、回転ミラー322の回転角度を検出する。
The
カメラ310は、上記のように全投影領域TT内のワークW等上でのレーザスリット光Lの投影部位が走査方向Aへ移動する際に、その移動する投影部位を含む全投影領域TT内のワークW等の外観を、所望のフレームレート(間隔)で連続撮像する。具体的には、カメラ310は、レーザスリット光Lの投影部位が、全投影領域TTの反走査方向(矢印Aで示す方向の反対方向)側端部の投影領域で生じてから、走査方向Aに順次移動し、全投影領域TTの走査方向A側端部の投影領域に至るまでの間(つまり、全投影領域TTの全域にわたる間)、連続撮像を行う。そして、カメラ310は、上記連続撮像に対応する複数の撮像フレームF(画像データ。後述の図6参照)を出力する。図6に、カメラ310から出力された撮像フレームFの一例を示す。図6に示すように、撮像フレームFには、全投影領域TT内のワークW等の外観と、上記のように刻々と移動していく当該ワークW等上でのレーザスリット光Lの投影部位の挙動とが含まれている。
When the projection part of the laser slit light L on the workpiece W or the like in the entire projection area TT moves in the scanning direction A as described above, the
センサコントローラ330は、例えば演算器や記憶装置等を有するコンピュータで構成され、センサユニット300全体の動作を制御する。このセンサコントローラ330は、カメラ310から出力された複数の撮像フレームFに基づいて、ストッカ20内の複数のワークWをそれぞれ検出し、それら複数のワークWそれぞれの三次元形状を検出する。センサコントローラ330については、後でより詳しく説明する。
The
次に、図7を参照しつつ、センサコントローラ330の機能的構成の一例を説明する。
Next, an example of a functional configuration of the
図7に示すように、センサコントローラ330は、光源制御部341と、モータ制御部342と、画像取得部331と、画像記憶部332と、距離画像生成部333と、距離画像記憶部334と、連携制御部335と、検出部340と、合成画像生成部336と、合成画像記憶部337とを備える。
As shown in FIG. 7, the
光源制御部341は、上記レーザ光源321を制御し、レーザスリット光Lを照射させる。モータ制御部342は、上記角度検出器324により検出された回転ミラー322の回転角度情報を入力し、その入力した回転角度情報に基づいて、上記モータ323を制御し、回転ミラー322を回転させる。
The light
画像取得部331は、上記カメラ310から出力された複数の撮像フレームFを取得する。画像取得部331により取得された複数の撮像フレームFは、画像記憶部332に記憶される。
The
距離画像生成部333は、カメラ310が複数回の連続撮像を行う1回のスキャン(撮像工程)ごとに、画像記憶部332に記憶された当該スキャンでの複数の撮像フレームFを用いて、三角測量の原理により、カメラ310とワークW等との距離を算出する。そして、距離画像生成部333は、全投影領域TT内のワークW等の外観画像に、上記算出した距離情報を含ませた、1つの距離画像DP(三次元形状画像。後述の図9、図11、図13等参照)を生成する。なお、以下では、説明の便宜上、各スキャンでの、1回目の撮像に対応する撮像フレームFを「撮像フレームF1」、2回目の撮像に対応する撮像フレームFを「撮像フレームF2」、3回目の撮像に対応する撮像フレームFを「撮像フレームF3」、・・・(以下同様)という。
The distance
連携制御部335は、複数回のスキャンのそれぞれで、カメラ310が複数回の連続撮像を行うと共に、距離画像生成部333が上記カメラ310による複数回の連続撮像に対応する複数の撮像フレームFを用いることで上記1つの距離画像DPを生成するように、カメラ310及び距離画像生成部333を連携して制御する。この連携制御部335は、複数回のスキャンのうち、最初に実行される1回目のスキャン(当初撮像工程)と、1回目スキャンの後に実行される2回目以降のスキャン(間引き撮像工程。1,2,3,4,5,6,7,8,9・・・回目のスキャン)とでは、互いに異なる制御処理を実行する。さらに、連携制御部335は、2回目以降のスキャンのうち、N回目(Nは2以上の偶数)のスキャン(2,4,6,8・・・回目のスキャン)と、N+1回目のスキャン(3,5,7,9・・・回目のスキャン)とでは、互いに異なる制御処理を実行する。
In each of the multiple scans, the
以下、1回目のスキャン時に連携制御部335の制御により実行される処理、N回目のスキャン時に連携制御部335の制御により実行される処理、及び、N+1回目のスキャン時に連携制御部335の制御により実行される処理を順次説明する。なお、以下では、説明の便宜上、全投影領域TTが互いに面積の等しい16個の投影領域T1〜T16(後述の図8、図10、図12等参照)からなり、1回目のスキャン時にカメラ310が連続撮像するK回(Kは正の整数)が16回(つまりK=16)であると共に、2回目以降のスキャン時にカメラ310が連続撮像するK/n回(nは2以上の整数)が8回(つまりn=2)である場合を説明する。但し、実際には、全投影領域TTはもっと多数(例えば480個)の投影領域からなり、1回目のスキャン時及び2回目以降のスキャン時にカメラ310が連続撮像する回数はもっと多い。
Hereinafter, the process executed by the control of the
まず、図8及び図9を参照しつつ、1回目のスキャン時に連携制御部335の制御により実行される処理を説明する。
First, with reference to FIGS. 8 and 9, a process executed by the control of the
図8及び図9において、1回目のスキャンでは、連携制御部335の制御により、カメラ310が、全投影領域TTに含まれる16個の投影領域T1〜T16の全てに対し順次16回の連続撮像を行う。すなわち、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T2となるタイミング、投影領域T3となるタイミング、・・・、投影領域T14となるタイミング、投影領域T15となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像する。そして、カメラ310は、上記16回の連続撮像に対応する16個の撮像フレームF1〜F16(図9上段参照)を出力する。
8 and 9, in the first scan, the
すると、連携制御部335の制御により、距離画像生成部333が、画像記憶部332に記憶された当該1回目のスキャンでの16個の撮像フレームF1〜F16を用いることで、全投影領域TTに含まれる16個の投影領域T1〜T16の全てに対応した1つの距離画像DP(図9下段参照)を生成する。なお、以下では、説明の便宜上、1回目のスキャンでの距離画像DPを「距離画像DP1」という。すなわち、距離画像生成部333は、当該1回目のスキャンでの16個の撮像フレームF1〜F16を用いて、カメラ310と投影領域T1〜T16(つまり、全投影領域TTの全域)内のワークW等との距離を算出する。そして、距離画像生成部333は、全投影領域TT内のワークW等の外観画像の、投影領域T1〜T16に対応する部分p1〜p16(つまり、全投影領域TTの全域に対応する全体pp)に、上記算出した距離情報を含ませた、上記距離画像DP1を生成する。図9下段に示すように、距離画像DP1は、全投影領域TT内のワークW等の外観画像の全体ppに距離情報を含む。従って、この距離画像DP1を用いることで、検出部340は、ストッカ20内の複数のワークWそれぞれの三次元形状を検出することが可能である(後述)。1回目のスキャン時に距離画像生成部333により生成された距離画像DP1は、距離画像記憶部334に記憶されると共に、検出部340へ出力される。
Then, by the control of the
次に、図10及び図11を参照しつつ、N回目のスキャン時に連携制御部335の制御により実行される処理を説明する。
Next, with reference to FIGS. 10 and 11, a process executed by the control of the
図10及び図11において、N回目のスキャンでは、連携制御部335の制御により、カメラ310が、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、合計面積が全投影領域TTの1/2となるように間引き分割された8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対し順次8回の連続撮像を行う。すなわち、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T3となるタイミング、投影領域T5となるタイミング、投影領域T7となるタイミング、投影領域T9となるタイミング、投影領域T11となるタイミング、投影領域T13となるタイミング、投影領域T15となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像する。そして、カメラ310は、上記8回の連続撮像に対応する8個の撮像フレームF1〜F8(図11上段参照)を出力する。
10 and 11, in the N-th scan, the
すると、連携制御部335の制御により、距離画像生成部333が、画像記憶部332に記憶された当該N回目のスキャンでの8個の撮像フレームF1〜F8を用いることで、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応した1つの距離画像DP(図11下段参照)を生成する。なお、以下では、説明の便宜上、N回目のスキャンでの距離画像DPを「距離画像DPN」という。すなわち、距離画像生成部333は、当該N回目のスキャンでの8個の撮像フレームF1〜F8を用いて、カメラ310と投影領域T1,T3,T5,T7,T9,T11,T13,T15内のワークW等との距離を算出する。そして、距離画像生成部333は、全投影領域TT内のワークW等の外観画像の、投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応する部分p1,p3,p5,p7,p9,p11,p13,p15に、上記算出した距離情報を含ませた、上記距離画像DPNを生成する。図11下段に示すように、距離画像DPNは、全投影領域TT内のワークW等の外観画像の部分p1,p3,p5,p7,p9,p11,p13,p15に距離情報を含む。N回目のスキャン時に距離画像生成部333により生成された距離画像DPNは、距離画像記憶部334に記憶される。
Then, by the control of the
次に、図12及び図13を参照しつつ、N+1回目のスキャン時に連携制御部335の制御により実行される処理を説明する。
Next, with reference to FIGS. 12 and 13, processing executed by the control of the
図12及び図13において、N+1回目のスキャンでは、連携制御部335の制御により、カメラ310が、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、合計面積が全投影領域TTの1/2となるように間引き分割され上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15相互間をそれぞれ埋めるように配置される8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対し順次8回の連続撮像を行う。すなわち、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T2となるタイミング、投影領域T4となるタイミング、投影領域T6となるタイミング、投影領域T8となるタイミング、投影領域T10となるタイミング、投影領域T12となるタイミング、投影領域T14となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像する。つまり、連携制御部335の制御により、当該N+1回目のスキャンにおける1スキャン(1工程)中でのカメラ310の撮像タイミングと、上記N回目のスキャンにおける1スキャン中でのカメラ310の撮像タイミングとは、各スキャンの開始を基準として互いに交互のタイミングとなるようにずらされている。そして、カメラ310は、上記8回の連続撮像に対応する8個の撮像フレームF1〜F8(図13上段参照)を出力する。
12 and 13, in the (N + 1) th scan, the
すると、連携制御部335の制御により、距離画像生成部333が、画像記憶部332に記憶された当該N+1回目のスキャンでの8個の撮像フレームF1〜F8を用いることで、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、上記8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応した1つの距離画像DP(図13下段参照)を生成する。なお、以下では、説明の便宜上、N+1回目のスキャンでの距離画像DPを「距離画像DPN1」という。すなわち、距離画像生成部333は、当該N+1回目のスキャンでの8個の撮像フレームF1〜F8を用いて、カメラ310と投影領域T2,T4,T6,T8,T10,T12,T14,T16内のワークW等との距離を算出する。そして、距離画像生成部333は、全投影領域TT内のワークW等の外観画像の、投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応する部分p2,p4,p6,p8,p10,p12,p14,p16に、上記算出した距離情報を含ませた、上記距離画像DPN1を生成する。図11下段に示すように、距離画像DPN1は、全投影領域TT内のワークW等の外観画像の部分p2,p4,p6,p8,p10,p12,p14,p16に距離情報を含む。N+1回目のスキャン時に距離画像生成部333により生成された距離画像DPN1は、距離画像記憶部334に記憶される。
Then, by the control of the
なお、上記N回目のスキャンを第1間引き撮像工程に対応させた場合には、上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15が分割投影領域及び第1分割投影領域に対応し、当該8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応した1つの距離画像DPNが第1三次元形状画像に対応すると共に、上記N+1回目のスキャンが第2間引き撮像工程に対応し、上記8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16が分割投影領域及び第2分割投影領域に対応し、当該8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応した1つの距離画像DPN1が第2三次元形状画像に対応する。逆に、上記N+1回目のスキャンを第1間引き撮像工程に対応させた場合には、上記8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16が分割投影領域及び第1分割投影領域に対応し、当該8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応した1つの距離画像DPN1が第1三次元形状画像に対応すると共に、上記N回目のスキャンが第2間引き撮像工程に対応し、上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15が分割投影領域及び第2分割投影領域に対応し、当該8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応した1つの距離画像DPNが第2三次元形状画像に対応する。 When the N-th scan is made to correspond to the first thinning imaging process, the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 are divided projection areas and first divisions. One distance image DPN corresponding to the projection areas and corresponding to the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 corresponds to the first three-dimensional shape image, and the N + 1th time. Scan corresponds to the second thinning imaging step, and the eight projection areas T2, T4, T6, T8, T10, T12, T14, and T16 correspond to the divided projection area and the second divided projection area, and the eight One distance image DPN1 corresponding to the projection regions T2, T4, T6, T8, T10, T12, T14, and T16 corresponds to the second three-dimensional shape image. Conversely, when the N + 1th scan is made to correspond to the first thinning imaging process, the eight projection areas T2, T4, T6, T8, T10, T12, T14, and T16 are divided into the divided projection areas and the first projection area. One distance image DPN1 corresponding to the divided projection areas and corresponding to the eight projection areas T2, T4, T6, T8, T10, T12, T14, and T16 corresponds to the first three-dimensional shape image, and the N The second scan corresponds to the second thinning imaging step, and the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 correspond to the divided projection area and the second divided projection area, and the 8 One distance image DPN corresponding to the projection areas T1, T3, T5, T7, T9, T11, T13, and T15 corresponds to the second three-dimensional shape image.
図7に示すように、検出部340は、上記1回目のスキャンが終了した後には、距離画像生成部333から出力された当該1回目のスキャンでの距離画像DP1を取得する。そして、検出部340は、上記取得した距離画像DP1を用いて、ストッカ20内の複数のワークWそれぞれの三次元形状を検出する。その後は、検出部340は、上記2回目以降の各スキャンが終了するごとに、後述のように合成画像生成部336から出力される、最新のスキャンに基づく距離画像DPとその直前のスキャンに基づく距離画像DPとの合成による合成画像CP(後述)を取得する。そして、検出部340は、上記取得した合成画像CPを用いて、ストッカ20内の複数のワークWそれぞれの三次元形状を検出する。検出部340による検出結果を表す検出信号は、上記ロボットコントローラ200へ出力される。
As illustrated in FIG. 7, after the first scan is completed, the
これにより、ロボットコントローラ200は、検出部340から出力された上記検出信号を取得する。そして、ロボットコントローラ200は、上記取得した検出信号で表される三次元形状情報に基づいて、1つのワークW(例えば最も保持し易いワークW等)を保持して移送するように、上記ロボット100を動作させる。なお、この例では、各スキャンが終了するごとに、ロボット100が1つのワークWを移送(つまり、スキャン→1つのワークWを移送→スキャン→1つのワークWを移送・・・)する場合を説明するが、開示の実施形態はこれに限定されるものではない。例えば、各スキャンが終了するごとに、ロボット100が複数(例えば2つ)のワークWを順次移送(つまり、スキャン→1つのワークWを移送→1つのワークWを移送→スキャン→1つのワークWを移送→1つのワークWを移送・・・)してもよい。
Thereby, the
合成画像生成部336は、上記2回目以降の各スキャンが終了するごとに、距離画像記憶部334に記憶された時間的に互いに異なる複数回(この例では2回)のスキャンに基づく複数(この例では2つ)の距離画像DPを合成し、合成画像CP(後述の図14参照)を生成する。合成画像CPは、ストッカ20内の複数のワークWそれぞれの三次元形状を検出するための画像である。具体的には、合成画像生成部336は、上記2回目以降の各スキャンが終了するごとに、最新のスキャンに基づく距離画像DPと、その直前のスキャンに基づく距離画像DPとを合成し、合成画像CPを生成する。すなわち、合成画像生成部336は、最新のスキャンに基づく距離画像DPのうち距離情報を含む部分と、その直前のスキャンに基づく距離画像DPのうち部分とを合成する。これにより、合成画像生成部336は、最新のスキャンに基づく距離画像DPで距離情報を含まない部分を、その直前のスキャンに基づく距離画像DPで距離情報を含む部分で補完する。このようにすることで、合成画像生成部336は、合成画像CPを生成する。図14に示すように、合成画像CPは、全投影領域TT内のワークW等の外観画像の全体ppに距離情報を含む。従って、この合成画像CPを用いることで、検出部340は、ストッカ20内の複数のワークWそれぞれの三次元形状を検出することが可能である。
Each time the second and subsequent scans are completed, the composite
ここで、本実施形態では、前述のように、1回目のスキャンが終了した後には、当該1回目のスキャンでの距離画像DP1を用いて、その後は、2回目以降の各スキャンが終了するごとに、最新のスキャンに基づく距離画像DPとその直前のスキャンに基づく距離画像DPとの合成による合成画像CPを用いて、検出部340により検出された三次元形状情報に基づいて、ロボット100が1つのワークWを移送するようになっている。従って、上記のようにロボット100が1つのワークWを移送した場合には、その直後に実行された最新のスキャンでの距離画像DPとの合成に用いられる、その直前のスキャンでの距離画像DPは、上記1つのワークWの移送が反映されていない(つまり、上記移送された1つのワークWが元の位置に残ったままの姿となっている)。このため、合成画像生成部336が、上記直前のスキャンでの距離画像DPを無条件にそのまま用いて、上記最新のスキャンでの距離画像DPと合成し、合成画像CPを生成すると、信頼性の低い内容を含んだままの合成画像CPとなり、好ましくない。
Here, in the present embodiment, as described above, after the first scan is finished, the distance image DP1 in the first scan is used, and thereafter each second and subsequent scans are finished. In addition, the
そこで本実施形態では、上記のようにロボット100が1つのワークWを移送した場合には、合成画像生成部336は、その直後に実行された最新のスキャンでの距離画像DPと、その直前のスキャンでの距離画像DPのうち上記移送された1つのワークWに対応する部分を除いた画像とを合成し、合成画像CPを生成する。すなわち、合成画像生成部336は、上記直前のスキャンでの距離画像DPのうち、上記移送された1つのワークWに対応する部分を除外する。そして、合成画像生成部336は、上記最新のスキャンでの距離画像DPのうち距離情報を含む部分と、除外処理後の上記直前のスキャンに基づく距離画像DPのうち距離情報を含む部分とを合成し、合成画像CPを生成する。
Therefore, in the present embodiment, when the
例えば、図15に示すように、N+1回目(例えば3回目)のスキャンが終了した後に、当該N+1回目のスキャンでの距離画像DPN1とその直前のN回目(例えば2回目)のスキャンでの距離画像DPNとの合成による合成画像CP(ここでは「合成画像CPN1」という)を用いて検出部340により検出された三次元形状情報に基づいて、ロボット100がある1つのワークW(ここでは「ワークWa」という)を移送した場合を考える。なお、図15に示す例では、説明の便宜上、N回目のスキャンの後で、かつN+1回目のスキャンの前に、ロボット100によるワークWの移送が行われなかったとしている。この場合には、N+1回目のスキャンでの距離画像DPN1のうち、上記移送されたワークWaに対応する部分が除外される。図15中では、当該除外処理後の距離画像DPN1(ここでは「距離画像DPN1′」という)のうちで、データが欠落した部分(除外されたワークWaに対応する部分)を符号Paで示している。そして、N+1回目の直後のN+2回目(例えば4回目)のスキャンでの距離画像DP(ここでは「距離画像DPN2」という)のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後のN+1回目のスキャンに基づく距離画像DPN1′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CPN2」という)が生成される。この合成画像CPN2には、除外処理後のN+1回目のスキャンに基づく距離画像DPN1′におけるデータが欠落した部分Paに起因してデータが欠落した部分Paaがあり、この部分Paaは、当該合成画像CPN2を用いて検出部340により実行される上記検出の対象外とされる。
For example, as shown in FIG. 15, after the N + 1th (for example, third) scan is completed, the distance image DPN1 in the N + 1th scan and the distance image in the Nth (for example, second) scan immediately before the N + 1th scan Based on the three-dimensional shape information detected by the
またここで、上記直前のスキャンの後で、かつ上記最新のスキャンの前に、例えばロボット100によるワークWの移送が行われたときに移送されない他のワークWに配置ずれや荷崩れが生じた等の何らかの事情で、ワークWの配置状況に変化が生じた場合があり得る。このとき、上記ワークWの配置状況に変化が生じた部分は、比較的広範囲にわたって及んでいる可能性がある。この場合、最新のスキャンでの距離画像DPとの合成に用いられる、その直前のスキャンでの距離画像DPは、上記ワークWの配置状況の変化が反映されていない(つまり、上記ワークWの配置状況の変化が起きていない元の姿のままとなっている)。このため、合成画像生成部336が、上記ワークWの配置状況に変化が生じた部分について合成画像CPを生成すると、信頼性の低い内容を含んだままの合成画像CPとなり、好ましくない。
Here, after the last scan and before the latest scan, for example, when the workpiece W is transferred by the
そこで本実施形態では、上記ワークWの配置状況に変化が生じたと推定される場合、具体的には、上記最新のスキャンでの距離画像DPと、その直前のスキャンに基づいて生成された合成画像CPとの、対応する部位(又は当該部位の近傍部位。以下同様)におけるデータ内容の偏差が所定の閾値よりも大きかった場合には、合成画像生成部336は、最新のスキャンでの距離画像DPのうちデータ内容の偏差が閾値よりも大きかった部位を除いた画像と、その直前のスキャンでの距離画像DPのうちデータ内容の偏差が閾値よりも大きかった部位を除いた画像とを合成し、合成画像CPを生成する。すなわち、合成画像生成部336は、上記最新のスキャンでの距離画像DPのうち、データ内容の偏差が閾値よりも大きかった部位を除外すると共に、上記直前のスキャンでの距離画像DPについても、当該部位を除外する。そして、合成画像生成部336は、除外処理後の上記最新のスキャンに基づく距離画像DPのうち距離情報を含む部分と、除外処理後の上記直前のスキャンに基づく距離画像DPのうち距離情報を含む部分とを合成し、合成画像CPを生成する。なお、上記データ内容の偏差が閾値よりも大きかった部位が所定の範囲よりも大きかった場合には、除外処理を行わずに上記1回目のスキャンからやり直してもよい。
Therefore, in this embodiment, when it is estimated that a change has occurred in the arrangement state of the workpiece W, specifically, the distance image DP in the latest scan and a composite image generated based on the scan immediately before the distance image DP. When the deviation of the data content in the corresponding part (or the vicinity part of the part; the same applies hereinafter) with the CP is greater than a predetermined threshold, the composite
例えば、図16に示すように、N+1回目(例えば3回目)のスキャンの後で、かつその直後のN+2回目(例えば4回目)のスキャンの前に、ある1つのワークW(ここでは「ワークWb」という)に配置ずれが生じてワークWの配置状況に変化が生じたため、N+2回目のスキャンでの距離画像DP(ここでは「距離画像DPN2」という)と、N+1回目のスキャンでの距離画像DP(ここでは「距離画像DPN1」という)及びその直前のN回目(例えば2回目)のスキャンでの距離画像DP(ここでは「距離画像DPN」という)の合成による合成画像CP(ここでは「合成画像CPN1」という)との、対応する部位Rbにおけるデータ内容の偏差が閾値よりも大きかった場合を考える。なお、図16に示す例では、説明の便宜上、N回目のスキャンの後で、かつN+1回目のスキャンの前に、ロボット100によるワークWの移送が行われなかったと共に、N+1回目のスキャンの後で、かつN+2回目のスキャンの前に、ロボット100によるワークWの移送が行われなかったとしている。この場合には、N+2回目のスキャンでの距離画像DPN2のうち、データ内容の偏差が閾値よりも大きかった部位Rbが除外されると共に、N+1回目のスキャンでの距離画像DPN1についても、当該部位Rbが除外される。図16中では、当該除外処理後の距離画像DPN1(ここでは「距離画像DPN1′」という)及び距離画像DPN2(ここでは「距離画像DPN2′」という)のうちで、データが欠落した部分(除外された部位Rbに対応する部分)を符号Pbで示している。そして、除外処理後のN+2回目のスキャンに基づく距離画像DPN2′のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後のN+1回目のスキャンに基づく距離画像DPN1′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CPN2」という)が生成される。この合成画像CPN2には、除外処理後のN+2回目及びN+1回目のスキャンに基づく距離画像DPN2′,DPN1′におけるデータが欠落した部分Pb,Pbに起因してデータが欠落した部分Pbがあり、この部位Pbは、当該合成画像CPを用いて検出部340により実行される上記検出の対象外とされる。
For example, as shown in FIG. 16, after a (N + 1) th (for example, the third) scan, and immediately after the (N + 2) th (for example, the fourth) scan, a certain work W (here, “work Wb”). )) And a change in the arrangement state of the work W has occurred, so that the distance image DP in the N + 2th scan (herein referred to as “distance image DPN2”) and the distance image DP in the N + 1th scan A composite image CP (here “composite image DPN1”) and a composite image CP (here “composite image DPN1”) and a distance image DP (herein referred to as “distance image DPN”) in the Nth scan (for example, the second scan) just before that. Let us consider a case where the deviation of the data content in the corresponding part Rb is larger than the threshold value (referred to as “CPN1”). In the example shown in FIG. 16, for convenience of explanation, the work W is not transferred by the
次に、図17〜図19を参照しつつ、各スキャンが終了するごとに合成画像生成部336により生成される合成画像CPの一例を説明する。
Next, an example of the composite image CP generated by the composite
図17〜図19に示す例では、1回目のスキャンが終了した後に、当該1回目のスキャンでの距離画像DP1を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW1」という)が移送されている。この場合、2回目のスキャンが終了した後に、1回目のスキャンでの距離画像DP1のうち、上記移送されたワークW1に対応する部分が除外される。図17中では、当該除外処理後の距離画像DP1(ここでは「距離画像DP1′」という)のうちで、データが欠落した部分(除外されたワークW1に対応する部分)を符号P1で示している。そして、2回目のスキャンでの距離画像DP2のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後の1回目のスキャンに基づく距離画像DP1′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CP2」という)が生成される。この合成画像CP2には、除外処理後の1回目のスキャンに基づく距離画像DP1′におけるデータが欠落した部分P1に起因してデータが欠落した部分P11があり、この部分P11は、当該合成画像CP2を用いて実行される上記検出の対象外とされる。
In the example shown in FIGS. 17 to 19, after the first scan is completed, a certain work is performed by the
その後、上記2回目のスキャンに基づいて生成された合成画像CP2を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW2」という)が移送されている。この場合、3回目のスキャンが終了した後に、2回目のスキャンでの距離画像DP2のうち、上記移送されたワークW2に対応する部分が除外される。図17中では、当該除外処理後の距離画像DP2(ここでは「距離画像DP2′」という)のうちで、データが欠落した部分(除外されたワークW2に対応する部分)を符号P2で示している。そして、3回目のスキャンでの距離画像DP3のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16と、除外処理後の2回目のスキャンに基づく距離画像DP2′のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15とが合成され、合成画像CP(ここでは「合成画像CP3」という)が生成される。この合成画像CP3には、除外処理後の2回目のスキャンに基づく距離画像DP2′におけるデータが欠落した部分P2に起因してデータが欠落した部分P22があり、この部分P22は、当該合成画像CP3を用いて実行される上記検出の対象外とされる。なお、この合成画像CP3では、上記合成画像CP2においてデータが欠落していた部分P11に、データが復帰している。
Thereafter, based on the three-dimensional shape information detected using the composite image CP2 generated based on the second scan, a certain workpiece W (herein referred to as “work W2”) is transferred by the
そして、上記3回目のスキャンに基づいて生成された合成画像CP3を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW3」という)が移送されている。また、上記3回目のスキャンの後で、かつ4回目のスキャンの前に、ある1つのワークW(ここでは「ワークW0」という)に配置ずれが生じてワークWの配置状況に変化が生じたため、4回目のスキャンでの距離画像DP4と、上記3回目のスキャンに基づいて生成された合成画像CP3との、対応する部位R0におけるデータ内容の偏差が閾値よりも大きくなっている。この場合、4回目のスキャンが終了した後に、当該4回目のスキャンでの距離画像DP4のうち、データ内容の偏差が閾値よりも大きかった部位R0が除去される。また、3回目のスキャンでの距離画像DP3のうち、上記移送されたワークW3に対応する部分と、データ内容の偏差が閾値よりも大きかった部位R0が除外される。図18中では、当該除外処理後の距離画像DP4(ここでは「距離画像DP4′」という)及び距離画像DP3(ここでは「距離画像DP3′」という)のうちで、データが欠落した部分(除外された部位R0に対応する部分)を符号P0で示すと共に、データが欠落した部分(除外されたワークW3に対応する部分)を符号P3で示す。そして、除外処理後の4回目のスキャンに基づく距離画像DP4′のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後の3回目のスキャンでの距離画像DP3′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CP4」という)が生成される。この合成画像CP4には、除外処理後の4回目及び3回目のスキャンに基づく距離画像DP4′,DP3′におけるデータが欠落した部分P0,P0に起因してデータが欠落した部分P0があると共に、除外処理後の3回目のスキャンに基づく距離画像DP3′におけるデータが欠落した部分P3に起因してデータが欠落した部分P33があり、これら部分P0,P33は、当該合成画像CP4を用いて実行される上記検出の対象外とされる。なお、この合成画像CP4では、上記合成画像CP3においてデータが欠落していた部分P22に、データが復帰している。
Then, based on the three-dimensional shape information detected using the composite image CP3 generated based on the third scan, a certain work W (herein referred to as “work W3”) is transferred by the
その後、上記4回目のスキャンに基づいて生成された合成画像CP4を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW4」という)が移送されている。この場合、5回目のスキャンが終了した後に、除外処理後の4回目のスキャンに基づく距離画像DP4′のうち、上記移送されたワークW4に対応する部分が除外される。図18中では、当該除外処理後の距離画像DP4′(ここでは「距離画像DP4″」という)のうちで、データが欠落した部分(除外されたワークW4に対応する部分)を符号P4で示している。そして、5回目のスキャンでの距離画像DP5のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16と、除外処理後の4回目のスキャンに基づく距離画像DP4″のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15とが合成され、合成画像CP(ここでは「合成画像CP5」という)が生成される。この合成画像CP5には、除外処理後の4回目のスキャンに基づく距離画像DP4″におけるデータが欠落した部分P0,P4に起因してデータが欠落した部分P00,P44があり、これら部分P00,P44は、当該合成画像CP5を用いて実行される上記検出の対象外とされる。なお、この合成画像CP5では、上記合成画像CP4においてデータが欠落していた部分P33に、データが復帰すると共に、上記合成画像CP4においてデータが欠落していた部分P0のうち、除外処理後の3回目のスキャンに基づく距離画像DP3″におけるデータが欠落した部分P0に起因する部分にデータが復帰して上記部分P44になっている。
Thereafter, based on the three-dimensional shape information detected using the composite image CP4 generated based on the fourth scan, a certain workpiece W (herein referred to as “work W4”) is transferred by the
そして、上記5回目のスキャンに基づいて生成された合成画像CP5を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW5」という)が移送されている。この場合、6回目のスキャンが終了した後に、5回目のスキャンでの距離画像DP5のうち、上記移送されたワークW5に対応する部分が除外される。図19中では、当該除外処理後の距離画像DP5(ここでは「距離画像DP5′」という)のうちで、データが欠落した部分(除外されたワークW5に対応する部分)を符号P5で示している。そして、6回目のスキャンでの距離画像DP6のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後の5回目のスキャンに基づく距離画像DP5′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CP6」という)が生成される。この合成画像CP6には、除外処理後の5回目のスキャンに基づく距離画像DP5′におけるデータが欠落した部分P5に起因してデータが欠落した部分P55があり、この部分P55は、当該合成画像CP6を用いて実行される上記検出の対象外とされる。なお、この合成画像CP6では、上記合成画像CP5においてデータが欠落していた部分P00,P44に、データが復帰している。
Then, on the basis of the three-dimensional shape information detected using the composite image CP5 generated based on the fifth scan, one work W (herein referred to as “work W5”) is transferred by the
次に、図20を参照しつつ、センサユニット300のセンサコントローラ330が実行する物体検出方法の制御手順の一例を説明する。
Next, an example of the control procedure of the object detection method executed by the
図20において、このフローに示す処理は、例えばセンサユニット300の電源がオンされることにより開始される。
In FIG. 20, the process shown in this flow is started when, for example, the
まず、ステップS10で、センサコントローラ330は、スキャン回数をカウントするための変数Cの値を1にリセットする。
First, in step S10, the
その後、ステップS20に移り、センサコントローラ330は、光源制御部341により、レーザ光源321を制御し、レーザスリット光Lを照射させる。
Thereafter, the process proceeds to step S <b> 20, and the
そして、ステップS30で、センサコントローラ330は、モータ制御部342により、角度検出器324から入力した回転ミラー322の回転角度情報に基づいて、モータ323を制御し、回転ミラー322を回転させる。これにより、回転ミラー322が受光して反射させるレーザスリット光Lの、全投影領域TT内のワークW等上への投影部位を、走査方向Aへ移動させる。
In step S <b> 30, the
その後、ステップS40に移り、センサコントローラ330は、この時点での変数Cの値を検出することにより、何回目のスキャンであるかを検出する。この時点での変数Cの値が1である場合、つまり今回のスキャンが1回目のスキャンである場合には、ステップS50に移る。
Thereafter, the process proceeds to step S40, and the
ステップS50では、センサコントローラ330は、連携制御部335により、カメラ310を制御し、所望のフレームレート(撮像タイミング)で、上記ステップS20での制御により移動する投影部位を含む全投影領域TT内のワークW等の外観を16回連続撮像させ、対応する16個の撮像フレームF1〜F16を出力させる。すなわち、このステップS50での連携制御部335の制御により、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T2となるタイミング、投影領域T3となるタイミング、・・・、投影領域T14となるタイミング、投影領域T15となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、これら16回の連続撮像に対応する16個の撮像フレームF1〜F16を出力する。
In step S50, the
そして、ステップS60で、センサコントローラ330は、画像取得部331により、上記ステップS50でカメラ310から出力された16個の撮像フレームF1〜F16を取得する。取得された16個の撮像フレームF1〜F16は、画像記憶部332に記憶される。
In step S60, the
その後、ステップS70に移り、センサコントローラ330は、連携制御部335により、距離画像生成部333を制御し、画像記憶部332に記憶された当該1回目のスキャンでの16個の撮像フレームF1〜F16を用いて、全投影領域TTに含まれる16個の投影領域T1〜T16の全てに対応した1つの距離画像DP1を生成させる。なお、1回目のスキャン時に距離画像DP1を生成する手法は、前述した通りである。生成された距離画像DP1は、距離画像記憶部334に記憶されると共に、検出部340へ出力される。
Thereafter, the process proceeds to step S70, and the
そして、ステップS80で、センサコントローラ330は、検出部340により、上記ステップS70で距離画像生成部333から出力された距離画像DP1を取得する。そして、センサコントローラ330は、検出部340により、上記取得した距離画像DP1を用いて、ストッカ20内の複数のワークWそれぞれの三次元形状を検出する。検出部340による検出結果を表す検出信号は、ロボットコントローラ200へ出力される。これにより、ロボットコントローラ200は、このステップS80で検出部340から出力された検出信号を取得し、その取得した検出信号で表される三次元形状情報に基づいて、1つのワークWを保持して移送するように、ロボット100を動作させる。その後、後述のステップS170に移る。
In step S80, the
一方、ステップS40において、この時点での変数Cの値が前述のNである場合、つまり今回のスキャンがN回目のスキャンである場合には、ステップS90に移る。 On the other hand, in step S40, if the value of the variable C at this time is N as described above, that is, if the current scan is the Nth scan, the process proceeds to step S90.
ステップS90では、センサコントローラ330は、連携制御部335により、カメラ310を制御し、所望のフレームレート(撮像タイミング)で、上記ステップS20での制御により移動する投影部位を含む全投影領域TT内のワークW等の外観を8回連続撮像させ、対応する8個の撮像フレームF1〜F8を出力させる。すなわち、このステップS90での連携制御部335の制御により、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T3となるタイミング、投影領域T5となるタイミング、投影領域T7となるタイミング、投影領域T9となるタイミング、投影領域T11となるタイミング、投影領域T13となるタイミング、投影領域T15となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、これら8回の連続撮像に対応する8個の撮像フレームF1〜F8を出力する。
In step S90, the
その後、ステップS100に移り、センサコントローラ330は、画像取得部331により、上記ステップS90でカメラ310から出力された8個の撮像フレームF1〜F8を取得する。取得された8個の撮像フレームF1〜F8は、画像記憶部332に記憶される。
Thereafter, the process proceeds to step S100, and the
そして、ステップS110で、センサコントローラ330は、連携制御部335により、距離画像生成部333を制御し、画像記憶部332に記憶された当該N回目のスキャンでの8個の撮像フレームF1〜F8を用いて、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応した1つの距離画像DPNを生成させる。なお、N回目のスキャン時に距離画像DPNを生成する手法は、前述した通りである。生成された距離画像DPNは、距離画像記憶部334に記憶される。その後、後述のステップS150に移る。
In step S <b> 110, the
一方、ステップS40において、この時点での変数Cの値が前述のN+1である場合、つまり今回のスキャンがN+1回目のスキャンである場合には、ステップS120に移る。 On the other hand, in step S40, if the value of the variable C at this time is N + 1 described above, that is, if the current scan is the N + 1th scan, the process proceeds to step S120.
ステップS120では、センサコントローラ330は、連携制御部335により、カメラ310を制御し、所望のフレームレート(撮像タイミング)で、上記ステップS20での制御により移動する投影部位を含む全投影領域TT内のワークW等の外観を8回連続撮像させ、対応する8個の撮像フレームF1〜F8を出力させる。すなわち、このステップS120での連携制御部335の制御により、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T2となるタイミング、投影領域T4となるタイミング、投影領域T6となるタイミング、投影領域T8となるタイミング、投影領域T10となるタイミング、投影領域T12となるタイミング、投影領域T14となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、これら8回の連続撮像に対応する8個の撮像フレームF1〜F8を出力する。
In step S120, the
その後、ステップS130に移り、センサコントローラ330は、画像取得部331により、上記ステップS120でカメラ310から出力された8個の撮像フレームF1〜F8を取得する。取得された8個の撮像フレームF1〜F8は、画像記憶部332に記憶される。
Thereafter, the process proceeds to step S130, and the
そして、ステップS140で、センサコントローラ330は、連携制御部335により、距離画像生成部333を制御し、画像記憶部332に記憶された当該N+1回目のスキャンでの8個の撮像フレームF1〜F8を用いて、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、上記8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応した1つの距離画像DPN1を生成させる。なお、N+1回目のスキャン時に距離画像DPN1を生成する手法は、前述した通りである。生成された距離画像DPN1は、距離画像記憶部334に記憶される。
In step S <b> 140, the
その後、ステップS150に移り、センサコントローラ330は、合成画像生成部336により、距離画像記憶部334に記憶された、この時点での変数Cの値に対応するスキャン(最新のスキャン)に基づく距離画像DPと、その直前のスキャンに基づく距離画像DPとを合成し、合成画像CPを生成する。なお、合成画像CPを生成する手法は、前述した通りである。生成された合成画像CPは、合成画像記憶部337に記憶されると共に、検出部340へ出力される。
Thereafter, the process proceeds to step S150, where the
そして、ステップS160で、センサコントローラ330は、検出部340により、上記ステップS150で合成画像生成部336から出力された合成画像CPを取得する。そして、センサコントローラ330は、検出部340により、上記取得した合成画像CPを用いて、ストッカ20内の複数のワークWそれぞれの三次元形状を検出する。検出部340による検出結果を表す検出信号は、ロボットコントローラ200へ出力される。これにより、ロボットコントローラ200は、このステップS160で検出部340から出力された検出信号を取得し、その取得した検出信号で表される三次元形状情報に基づいて、1つのワークWを保持して移送するように、ロボット100を動作させる。
In step S160, the
その後、ステップS170に移り、センサコントローラ330は、変数Cの値に1を加えた後、上記ステップS20に戻り同様の手順を繰り返す。
Thereafter, the process proceeds to step S170, and the
なお、このフローに示す処理は、例えばセンサユニット300の電源がオフにされることにより終了される。
Note that the processing shown in this flow is terminated when, for example, the power of the
以上説明したように、本実施形態のセンサユニット300では、光切断法によりワークWの検出が行われる。レーザ光源321から照射されたレーザスリット光LがワークW等に投影され、そのレーザスリット光Lの投影部位を含むワークW等の外観が、カメラ310により撮像される。このとき、回転ミラー322を回転させることにより、レーザスリット光LのワークW等への投影部位が走査方向Aへ移動される。この移動時に、所望のフレームレートでカメラ310が連続撮像を行うことで、刻々と移動していく投影部位の挙動をそれぞれ含む複数の撮像フレームFがカメラ310から出力される。これら複数の撮像フレームFを用いて、距離画像生成部333が、ワークW等の1つの距離画像DPを生成する。これにより、ワークWの三次元形状を検出することができる。
As described above, in the
このような通常の光切断による手法では、上記のようにワークW等上においてレーザスリット光Lの投影部位を走査方向Aに移動させて撮像を行うとき、ワークW等の反走査方向側の端部で投影部位が生じてから当該投影部位が走査方向Aに順次移動しさらに投影部位が走査方向A側の端部に至るまでの間(言い換えれば、ワークW等上の走査方向Aに沿うほぼ全域にわたる間)、まんべんなく撮像を行わなければならない。この結果、上記連続撮像を行うために比較的長い時間を要し、検出処理の効率化が難しい。 In such a normal light cutting method, when imaging is performed by moving the projection part of the laser slit light L on the workpiece W or the like in the scanning direction A as described above, the end of the workpiece W or the like on the side opposite to the scanning direction is used. Between the time when the projected portion is generated in the portion and the projected portion is sequentially moved in the scanning direction A and further until the projected portion reaches the end on the scanning direction A side (in other words, substantially along the scanning direction A on the workpiece W or the like). The image must be taken evenly throughout the entire area). As a result, it takes a relatively long time to perform the continuous imaging, and it is difficult to improve the efficiency of the detection process.
そこで本実施形態では、上記のようにワークW等上を走査方向Aへ順次移動する1回のスキャンでの複数の撮像フレームFを用いてワークWの三次元形状を検出するのではなく、複数回のスキャンそれぞれにおける複数の撮像フレームFを互いに合成した画像を用いて、ワークWの三次元形状を検出する。すなわち、(時間的に互いに異なる)複数回のスキャンに基づいて上記距離画像生成部333がそれぞれ生成した複数の距離画像DPを、合成画像生成部336が合成して合成画像CPが生成される。そして、この合成画像CPによりワークWの三次元形状が検出される。
Therefore, in the present embodiment, the three-dimensional shape of the workpiece W is not detected using the plurality of imaging frames F in one scan that sequentially moves in the scanning direction A on the workpiece W or the like as described above. The three-dimensional shape of the workpiece W is detected using an image obtained by combining a plurality of imaging frames F in each of the scans. That is, the composite
上記のように複数回のスキャンでの画像を合成する手法とすることにより、最新のスキャンにおける撮像フレームF以外は既に実行済みのスキャンにおける古い撮像フレームFを流用することで、ワークWの形状検出の際に撮像のために必要な時間を、最新の撮像フレームFを得るための1回のスキャン分の時間とすることができる。この結果、従来手法に比べて検出処理の大幅な短縮化を図り、処理効率の向上を図ることができる。あるいは、従来手法と同等の時間をかけてもよい場合には、1回のスキャンにおいて許容できる時間を延ばすことができるので、比較的撮像速度が遅いカメラ310を用いることができる。この結果、従来手法よりもコストダウンを図ることができる。あるいは、従来手法と同等の時間をかけつつ撮像速度も低下させなくてよい場合には、上記複数回のスキャンの個数倍に、分解能を増大させることもできる。
As described above, by adopting a technique for compositing images from a plurality of scans, the shape of the workpiece W can be detected by using the old imaging frame F in the already executed scan other than the imaging frame F in the latest scan. At this time, the time required for imaging can be set as a time for one scan for obtaining the latest imaging frame F. As a result, the detection process can be greatly shortened compared to the conventional method, and the processing efficiency can be improved. Alternatively, when it is possible to spend the same time as the conventional method, it is possible to extend an allowable time in one scan, and thus it is possible to use the
また、本実施形態では特に、回転ミラー322を回転させることにより、レーザスリット光LのワークW等への投影部位を走査方向Aに移動させる。このように、回転ミラー322を用いることにより、ワークW等へ向けて反射させるレーザスリット光Lを走査方向Aに容易に移動させることができる。
Further, in this embodiment, in particular, the projection part of the laser slit light L onto the work W or the like is moved in the scanning direction A by rotating the
また、本実施形態では特に、連携制御部335の制御に基づいて、最新のスキャン(2回目以降のスキャン)における8回の連続撮像による8個の撮像フレームF1〜F8以外は、その直前に実行済みの1回のスキャンにおける8回の連続撮像による8個の撮像フレームF1〜F8が流用され、合成画像CPが生成される。これにより、ワークWの形状検出の際に撮像のために必要な時間を、従来手法の1/2とすることができ、検出処理の大幅な短縮化を図り、処理効率を2倍に向上することができる。あるいは、従来手法と同等の時間をかけてもよい場合には、1回のスキャンにおいて許容できる時間を2倍に延ばすことができるので、撮像速度が従来よりも1/2だけ遅いカメラ310を用いることができる。この結果、従来手法よりもコストダウンを図ることができる。あるいは、従来手法と同等の時間をかけつつ撮像速度も低下させなくてよい場合には、分解能を2倍に増大させることもできる。
In the present embodiment, in particular, based on the control of the
但し、最初に行われるスキャン(1回目のスキャン)では、それ以前のスキャンが存在しないことから、上記手法は不可能である。本実施形態では、連携制御部335の制御に基づいて、1回目のスキャンでは、2回目以降のスキャンと異なり、ワークW等の全投影領域TTに対しカメラ310が順次16回の連続撮像を行い、その16個の撮像フレームF1〜F16が用いられる。これにより、間引きによる短縮が不可能な1回目のスキャンにおいても、確実に1つの距離画像DPを生成することができる。
However, in the first scan (first scan), there is no previous scan, so the above method is impossible. In the present embodiment, unlike the second and subsequent scans, the
また、本実施形態では特に、N回目のスキャン及びN+1回目のスキャンの撮像タイミングが、各スキャンの開始基準で互いに交互のタイミングとなるようにずらされる。これにより、N回目のスキャンにおける8個の撮像フレームF1〜F8とN+1回目のスキャンにおける8個の撮像フレームF1〜F8とを、互いに補完し合うような位置づけとすることができる。この結果、それらの合成により、従来手法と同様の、ワークWの三次元形状を検出するための画像を容易かつ確実に得ることができる。 In the present embodiment, in particular, the imaging timings of the N-th scan and the N + 1-th scan are shifted so as to be alternate with each other on the basis of the start of each scan. Accordingly, the eight imaging frames F1 to F8 in the Nth scan and the eight imaging frames F1 to F8 in the N + 1th scan can be positioned so as to complement each other. As a result, by combining them, an image for detecting the three-dimensional shape of the workpiece W can be obtained easily and reliably as in the conventional method.
また、本実施形態のロボットシステム1では、ロボット100により、ストッカ20内の複数のワークWが順次保持され移送される。本実施形態では、上記移送の際、ロボットコントローラ200の制御に基づいて、上記のようにしてセンサユニット300により検出された各ワークWの三次元形状に応じて、ロボット100が動作する。これにより、上記複数のワークWの移送を円滑かつ確実に行うことができる。また、前述したようにして各ワークWの三次元形状が迅速に効率よく検出されることから、ロボット100による上記複数のワークWの移送を、確実に円滑に行うことができる。
In the
また、本実施形態では特に、ロボット100がある1つのワークWの移送を実行した場合、合成画像生成部336が、その直前のスキャンで生成された距離画像DPのうち、上記移送された1つのワークWに対応する部分を除き、その除いた画像を、その直後のスキャンで生成された距離画像DPと合成し、合成画像CPを生成する。これにより、信頼性の低い部分の内容を除外し、ロボット100の制御を行うことができる。この結果、ロボット100の誤動作や無意味な動作を回避し、良好なワークWの移送作業を行うことができる。なお、上述のようにして不確かな内容を含んだ距離画像DPは、その後、新たにスキャンが行われ同一箇所に最新の状況を反映したデータが上書きされることで、再度信頼性の高い内容とすることができる。
In the present embodiment, in particular, when the
また、本実施形態では特に、ワークWの配置状況に変化が生じたと推定される場合、具体的には、最新のスキャンで生成された距離画像DPと、その直前のスキャン時に生成された合成画像CPとの、対応する部位におけるデータ内容の偏差が所定の閾値よりも大きかった場合、合成画像生成部336が、最新のスキャンで生成された距離画像DPのうち、データ内容の偏差が閾値よりも大きかった部位を除外する。また、その直前のスキャンで生成された距離画像DPにおける当該部位についても除外する。そして、それら除外処理を行った2つの距離画像DPを合成することで、合成画像CPを生成する。これにより、上記同様、信頼性の低い部分の内容を除外し、ロボット100の制御を行うことができる。この結果、ロボット100の誤動作や無意味な動作を回避し、良好なワークWの移送作業を行うことができる。
In the present embodiment, in particular, when it is estimated that a change has occurred in the arrangement state of the workpiece W, specifically, the distance image DP generated in the latest scan and the composite image generated in the immediately preceding scan are generated. When the deviation of the data content in the corresponding part from the CP is larger than the predetermined threshold, the synthesized
なお、実施の形態は、上記内容に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。 The embodiment is not limited to the above contents, and various modifications can be made without departing from the spirit and technical idea of the embodiment.
例えば、上記実施形態においては、カメラ310は、N回目のスキャン時には、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T3となるタイミング、投影領域T5となるタイミング、投影領域T7となるタイミング、投影領域T9となるタイミング、投影領域T11となるタイミング、投影領域T13となるタイミング、投影領域T15となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、N+1回目のスキャン時には、上記移動するレーザスリット光Lの投影部位が、投影領域T2となるタイミング、投影領域T4となるタイミング、投影領域T6となるタイミング、投影領域T8となるタイミング、投影領域T10となるタイミング、投影領域T12となるタイミング、投影領域T14となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像していたが、本開示の実施形態はこれに限定されるものではない。すなわち、カメラ310は、N回目のスキャン時には、上記移動するレーザスリット光Lの投影部位が、投影領域T2となるタイミング、投影領域T4となるタイミング、投影領域T6となるタイミング、投影領域T8となるタイミング、投影領域T10となるタイミング、投影領域T12となるタイミング、投影領域T14となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、N+1回目のスキャン時には、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T3となるタイミング、投影領域T5となるタイミング、投影領域T7となるタイミング、投影領域T9となるタイミング、投影領域T11となるタイミング、投影領域T13となるタイミング、投影領域T15となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像してもよい。
For example, in the above-described embodiment, when the
また、上記実施形態においては、2回目以降のスキャンでは、カメラ310は、合計面積が全投影領域TTの1/2となるように間引かれた複数の投影領域に対し順次K/2回の連続撮像を行い、距離画像生成部333は、K/2個の撮像フレームFを用いて1つの距離画像DPを生成し、合成画像生成部336は、2つの距離画像DPを合成して合成画像CPを生成していた、つまりn=2としていた。しかしながら、nは2以上の整数であれば特に限定されるものではなく、n=3としてもよいし、n=4としてもよいし、nをもっと大きい整数としてもよい。例えば、n=3とした場合には、2回目以降のスキャンでは、カメラ310は、合計面積が全投影領域TTの1/3となるように間引かれた複数の投影領域に対し順次K/3回の連続撮像を行い、距離画像生成部333は、K/3個の撮像フレームFを用いて1つの距離画像DPを生成し、合成画像生成部336は、3つの距離画像DPを合成して合成画像CPを生成する。
In the above-described embodiment, in the second and subsequent scans, the
また、上記実施形態においては、1回目のスキャン時には、2回目以降のスキャン時のような間引きスキャンを行っていなかったが、本開示の実施形態はこれに限定されるものではなく、1回目のスキャン時にも間引きスキャンを行ってもよい。 Further, in the above embodiment, the thinning scan as in the second and subsequent scans is not performed at the first scan, but the embodiment of the present disclosure is not limited to this, and the first scan is not performed. A thinning scan may be performed at the time of scanning.
また、上記実施形態においては、センサユニット300をロボットシステム1に適用していたが、センサユニットはロボットシステム以外にも適用可能である。
Moreover, in the said embodiment, although the
また、図7中に示す矢印は、信号の流れの一例を示すものであり、信号の流れ方向を限定するものではない。 Moreover, the arrows shown in FIG. 7 show an example of the signal flow, and do not limit the signal flow direction.
また、図20に示すフローチャートは、実施の形態を図示する手順に限定するものではなく、趣旨及び技術的思想を逸脱しない範囲内で手順の追加・削除又は順番の変更等をしてもよい。 Further, the flowchart shown in FIG. 20 is not limited to the procedure illustrated in the embodiment, and the procedure may be added / deleted or the order may be changed without departing from the spirit and technical idea.
また、以上既に述べた以外にも、上記実施形態等による手法を適宜組み合わせて利用してもよい。 In addition to those already described above, the methods according to the above embodiments may be used in appropriate combination.
その他、一々例示はしないが、上記実施形態等は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。 In addition, although not illustrated one by one, the above-described embodiments and the like are implemented with various modifications within a range not departing from the gist thereof.
1 ロボットシステム
20 ストッカ(容器)
100 ロボット
200 ロボットコントローラ(コントローラ)
300 センサユニット(物体検出装置)
310 カメラ
321 レーザ光源
322 回転ミラー(走査部)
333 距離画像生成部
335 連携制御部
336 合成画像生成部
CP 合成画像
DP 距離画像(三次元形状画像)
F 撮像フレーム(画像データ)
L レーザスリット光(スリット状のレーザ光)
T1〜T16 投影領域
TT 全投影領域
W ワーク(物体)
1
100
300 Sensor unit (object detection device)
310
333 Distance
F Imaging frame (image data)
L Laser slit light (slit laser light)
T1 to T16 Projection area TT Total projection area W Work (object)
Claims (9)
スリット状のレーザ光を照射するレーザ光源と、
前記レーザ光源から照射された前記レーザ光の前記物体への投影部位を、所定の走査方向へ移動させる走査部と、
前記走査部が前記物体上での前記レーザ光の前記投影部位を移動させる際に、前記移動する投影部位を含む前記物体の外観を所望の間隔で連続撮像し、対応する複数の画像データを出力するカメラと、
前記カメラが複数回の連続撮像を行う1つの撮像工程ごとに、複数の前記画像データを用いて前記物体の1つの三次元形状画像を生成する、距離画像生成部と、
時間的に互いに異なる複数の前記撮像工程に基づいて前記距離画像生成部がそれぞれ生成した複数の前記三次元形状画像を合成して、前記物体の三次元形状を検出するための合成画像を生成する、合成画像生成部と、
を有することを特徴とする、物体検出装置。 An object detection device for detecting an object to be detected,
A laser light source for irradiating slit-shaped laser light;
A scanning unit that moves a projection part of the laser light emitted from the laser light source onto the object in a predetermined scanning direction;
When the scanning unit moves the projection part of the laser beam on the object, the appearance of the object including the moving projection part is continuously imaged at a desired interval, and a plurality of corresponding image data is output. Camera to
A distance image generating unit that generates one three-dimensional shape image of the object using a plurality of the image data for each imaging step in which the camera performs a plurality of continuous imagings;
A plurality of the three-dimensional shape images generated by the distance image generation unit based on the plurality of imaging steps that are temporally different from each other are combined to generate a combined image for detecting the three-dimensional shape of the object. A composite image generation unit;
An object detection apparatus comprising:
前記レーザ光源から照射された前記レーザ光を受光し前記物体へ向けて反射させる回転ミラーである
ことを特徴とする、請求項1に記載の物体検出装置。 The scanning unit
The object detection apparatus according to claim 1, wherein the object detection apparatus is a rotating mirror that receives the laser light emitted from the laser light source and reflects the laser light toward the object.
前記複数の撮像工程のうち前記当初撮像工程の後に実行される1以上の間引き撮像工程では、合計面積が前記全投影領域の1/n(nは2以上の整数)となるように間引き分割された複数の分割投影領域に対し前記カメラが順次K/n回の連続撮像を行うと共に、前記距離画像生成部がK/n個の前記画像データを用いることで各間引き撮像工程に対応した前記1つの三次元形状画像を生成するように、
前記カメラ及び前記距離画像生成部を連携して制御する連携制御部をさらに有する
ことを特徴とする、請求項2に記載の物体検出装置。 In the initial imaging process among the plurality of imaging processes, the camera sequentially performs continuous imaging of K times (K is a positive integer) for all projection regions to be projected of the object, and the distance image generation unit Using the K pieces of the image data to generate the one three-dimensional shape image corresponding to the entire projection area; and
In one or more thinning imaging steps executed after the initial imaging step among the plurality of imaging steps, the thinning is performed so that the total area is 1 / n (n is an integer of 2 or more) of the total projection region. In addition, the camera sequentially captures K / n times for a plurality of divided projection areas, and the distance image generation unit uses K / n pieces of the image data to correspond to each thinning imaging process. So as to generate three 3D shape images
The object detection apparatus according to claim 2, further comprising a cooperation control unit that controls the camera and the distance image generation unit in cooperation with each other.
前記連携制御部の制御により、合計面積が前記全投影領域の1/2となるように間引き分割された複数の第1分割投影領域に対し前記カメラが順次K/2回の連続撮像を行い、かつ、前記距離画像生成部がK/2個の前記画像データを用いることで前記複数の第1分割投影領域に対応した1つの第1三次元形状画像を生成する、第1間引き撮像工程と、
前記連携制御部の制御により、合計面積が前記全投影領域の1/2となるように間引き分割され前記複数の第1分割投影領域相互間をそれぞれ埋めるように配置される複数の第2分割投影領域に対し前記カメラが順次K/2回の連続撮像を行い、かつ、前記距離画像生成部がK/2個の前記画像データを用いることで前記複数の第2分割投影領域に対応した1つの第2三次元形状画像を生成する、第2間引き撮像工程と、
を含み、
前記合成画像生成部は、
前記第1間引き撮像工程において前記距離画像生成部が生成した前記第1三次元形状画像と、前記第2間引き撮像工程において前記距離画像生成部が生成した前記第2三次元形状画像と、を合成して前記合成画像を生成する
ことを特徴とする、請求項3に記載の物体検出装置。 The plurality of thinning imaging steps include
Under the control of the cooperation control unit, the camera sequentially performs continuous imaging of K / 2 times for a plurality of first divided projection areas that are thinned and divided so that the total area becomes 1/2 of the total projection area, In addition, a first decimation imaging step in which the distance image generation unit generates one first three-dimensional shape image corresponding to the plurality of first divided projection areas by using K / 2 pieces of the image data;
A plurality of second divided projections that are thinned and divided so that the total area is ½ of the total projection area under the control of the cooperative control unit, and are arranged so as to respectively fill the plurality of first divided projection areas. The camera sequentially captures K / 2 times for the area, and the distance image generation unit uses K / 2 pieces of the image data to thereby provide one corresponding to the plurality of second divided projection areas. A second thinning imaging step of generating a second three-dimensional shape image;
Including
The composite image generation unit
The first 3D shape image generated by the distance image generation unit in the first decimation imaging step and the second 3D shape image generated by the distance image generation unit in the second decimation imaging step are combined. The object detection apparatus according to claim 3, wherein the composite image is generated.
前記第1間引き撮像工程における1工程中での前記カメラの撮像タイミングと、前記第2間引き撮像工程における1工程中での前記カメラの撮像タイミングと、が各工程の開始を基準として互いに交互のタイミングとなるように、前記カメラを制御する
ことを特徴とする、請求項4に記載の物体検出装置。 The cooperation control unit
The imaging timing of the camera in one step in the first decimation imaging step and the imaging timing of the camera in one step in the second decimation imaging step are alternate timings based on the start of each step. The object detection apparatus according to claim 4, wherein the camera is controlled so that
前記容器内の前記複数の物体を順次保持して移送するロボットと、
請求項4又は5に記載の物体検出装置と、
前記物体検出装置により検出された前記容器内の前記複数の物体それぞれの三次元形状に基づいて前記ロボットを動作させるコントローラと、
を有することを特徴とする、ロボットシステム。 A container containing a plurality of the objects;
A robot for sequentially holding and transferring the plurality of objects in the container;
The object detection device according to claim 4 or 5,
A controller for operating the robot based on a three-dimensional shape of each of the plurality of objects in the container detected by the object detection device;
A robot system comprising:
前記合成画像生成部は、
前記第2間引き撮像工程の直後の前記第1間引き撮像工程で生成された前記第1三次元形状画像と、当該第2間引き撮像工程で生成された前記第2三次元形状画像のうち前記移送された前記物体に対応する部分を除いた画像と、を合成して、前記合成画像を生成する
ことを特徴とする、請求項6に記載のロボットシステム。 In the object detection device, the tertiary by combining the second 3D shape image generated in the second thinning imaging step and the first 3D shape image generated in the immediately preceding first thinning imaging step. Based on the detection of the original shape, when the robot has transferred the corresponding object,
The composite image generation unit
The first three-dimensional shape image generated in the first thinning-out imaging step immediately after the second thinning-out imaging step and the second three-dimensional shape image generated in the second thinning-out imaging step are transferred. The robot system according to claim 6, wherein the synthesized image is generated by synthesizing an image excluding a portion corresponding to the object.
前記合成画像生成部は、
前記第1間引き撮像工程で生成された前記第1三次元形状画像のうち前記データ内容の偏差が前記閾値よりも大きかった部位を除いた画像と、前記直前の第2間引き撮像工程で生成された前記第2三次元形状画像のうち前記データ内容の偏差が前記閾値よりも大きかった部位を除いた画像と、を合成して、前記合成画像を生成する
ことを特徴とする、請求項7に記載のロボットシステム。 Corresponding part of the first three-dimensional shape image generated in the first thinning imaging step and the synthetic image generated by the synthetic image generation unit based on the second thinning imaging step immediately before When the deviation of the data content in the vicinity of the part is larger than a predetermined threshold,
The composite image generation unit
Of the first three-dimensional shape image generated in the first decimation imaging step, an image excluding a portion where the deviation of the data content is larger than the threshold value and generated in the immediately preceding second decimation imaging step The composite image is generated by combining the second three-dimensional shape image with an image excluding a portion where the deviation of the data content is larger than the threshold value. Robot system.
前記照射した前記レーザ光の物体への投影部位を、所定の走査方向へ移動させることと、
前記レーザ光の前記投影部位を移動させる際に、前記移動する投影部位を含む前記物体の外観を所望の間隔で連続撮像し、対応する複数の画像データを出力することと、
複数回の連続撮像を行う1つの撮像工程ごとに、複数の前記画像データを用いて前記物体の1つの三次元形状画像を生成することと、
時間的に互いに異なる複数の前記撮像工程に基づいてそれぞれ生成された複数の前記三次元形状画像を合成して、前記物体の三次元形状を検出することと、
を有することを特徴とする、物体検出方法。 Irradiating slit-shaped laser light from a light source;
Moving the projected portion of the irradiated laser light onto the object in a predetermined scanning direction;
When moving the projection portion of the laser light, continuously imaging the appearance of the object including the moving projection portion at a desired interval, and outputting a plurality of corresponding image data;
Generating one three-dimensional shape image of the object using a plurality of the image data for each imaging step in which a plurality of continuous imaging is performed;
Combining a plurality of the three-dimensional shape images respectively generated based on the plurality of imaging steps temporally different from each other to detect a three-dimensional shape of the object;
An object detection method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013030143A JP2014159988A (en) | 2013-02-19 | 2013-02-19 | Object detector, robot system, and object detection method |
CN201310740930.6A CN103994729A (en) | 2013-02-19 | 2013-12-26 | Object detector, robot system and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013030143A JP2014159988A (en) | 2013-02-19 | 2013-02-19 | Object detector, robot system, and object detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014159988A true JP2014159988A (en) | 2014-09-04 |
Family
ID=51308963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013030143A Pending JP2014159988A (en) | 2013-02-19 | 2013-02-19 | Object detector, robot system, and object detection method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2014159988A (en) |
CN (1) | CN103994729A (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2019106987A1 (en) * | 2017-11-29 | 2020-11-19 | パナソニックIpマネジメント株式会社 | Work support system, work support method and program |
EP4001839A1 (en) * | 2020-11-17 | 2022-05-25 | Leica Geosystems AG | Scanning device for scanning an environment and enabling an identification of scanned moving objects |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11148810A (en) * | 1997-09-09 | 1999-06-02 | Ckd Corp | Shape measuring instrument |
JP2002357408A (en) * | 2001-03-25 | 2002-12-13 | Omron Corp | Optical measuring device |
JP2007040841A (en) * | 2005-08-03 | 2007-02-15 | Ricoh Co Ltd | Three-dimensional shape measuring apparatus, and three-dimensional shape measuring method |
JP2011252864A (en) * | 2010-06-03 | 2011-12-15 | Sony Corp | Inspection equipment and inspection method |
JP2012093104A (en) * | 2010-10-25 | 2012-05-17 | Yaskawa Electric Corp | Shape measuring device, robot system, and shape measuring method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6839144B2 (en) * | 2001-03-25 | 2005-01-04 | Omron Corporation | Optical displacement sensor |
JP2007025830A (en) * | 2005-07-13 | 2007-02-01 | Hitachi Plant Technologies Ltd | Method and device for recognizing three-dimensional object |
JP4821934B1 (en) * | 2011-04-14 | 2011-11-24 | 株式会社安川電機 | Three-dimensional shape measuring apparatus and robot system |
-
2013
- 2013-02-19 JP JP2013030143A patent/JP2014159988A/en active Pending
- 2013-12-26 CN CN201310740930.6A patent/CN103994729A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11148810A (en) * | 1997-09-09 | 1999-06-02 | Ckd Corp | Shape measuring instrument |
JP2002357408A (en) * | 2001-03-25 | 2002-12-13 | Omron Corp | Optical measuring device |
JP2007040841A (en) * | 2005-08-03 | 2007-02-15 | Ricoh Co Ltd | Three-dimensional shape measuring apparatus, and three-dimensional shape measuring method |
JP2011252864A (en) * | 2010-06-03 | 2011-12-15 | Sony Corp | Inspection equipment and inspection method |
JP2012093104A (en) * | 2010-10-25 | 2012-05-17 | Yaskawa Electric Corp | Shape measuring device, robot system, and shape measuring method |
Also Published As
Publication number | Publication date |
---|---|
CN103994729A (en) | 2014-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5630208B2 (en) | Shape measuring device, robot system, and shape measuring method | |
JP5803155B2 (en) | Robot position detection device and robot system | |
US9457472B2 (en) | Position detection device for robot, robotic system, and position detection method for robot | |
JP5729622B2 (en) | Blurless imaging system | |
EP2581178A1 (en) | Workpiece takeout system, robot apparatus, and method for producing a to-be-processed material | |
JP2022504377A (en) | Systems and methods for welding path generation | |
CN110640730A (en) | Method and system for generating three-dimensional model for robot scene | |
CN107803589B (en) | Laser welding system | |
US20170019659A1 (en) | 3D scanning control apparatus based on FPGA and control method and system thereof | |
CN107690303B (en) | Computing device and method for generating three-dimensional model | |
JP7333821B2 (en) | Industrial robotic device with improved tooling path generation and method of operating industrial robotic device according to improved tooling path | |
US10852396B2 (en) | Turntable peripheral for 3D scanning | |
JP2014159988A (en) | Object detector, robot system, and object detection method | |
JP2016019724A (en) | X-ray diagnostic apparatus | |
JP2017100202A (en) | Robot system, control device, control method, and program | |
US20040097809A1 (en) | Ultrasonic diagnostic apparatus | |
KR102236354B1 (en) | Apparatus for scanning underground power structure, System for processing scanning information, and Method thereof | |
JP7169474B1 (en) | Conveying device, control method, and control program | |
JP6308423B2 (en) | Holding method and holding device | |
JP2013047760A (en) | Instruction position display device and instruction position display system | |
CN115451862A (en) | Three-dimensional scanning method and three-dimensional scanning system | |
JP2019027921A (en) | Three-dimensional shape measuring device, robot system, and three-dimensional shape measuring method | |
JP5200866B2 (en) | Robot system, robot control apparatus, and robot control method | |
JP2009112388A (en) | X-ray diagnostic apparatus | |
JP2019150931A (en) | Robot system, control device, and robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140903 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141225 |