JP2014159988A - Object detector, robot system, and object detection method - Google Patents

Object detector, robot system, and object detection method Download PDF

Info

Publication number
JP2014159988A
JP2014159988A JP2013030143A JP2013030143A JP2014159988A JP 2014159988 A JP2014159988 A JP 2014159988A JP 2013030143 A JP2013030143 A JP 2013030143A JP 2013030143 A JP2013030143 A JP 2013030143A JP 2014159988 A JP2014159988 A JP 2014159988A
Authority
JP
Japan
Prior art keywords
image
imaging
scan
projection
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013030143A
Other languages
Japanese (ja)
Inventor
Yuji Ichimaru
勇二 一丸
Jumpei Kondo
純平 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2013030143A priority Critical patent/JP2014159988A/en
Priority to CN201310740930.6A priority patent/CN103994729A/en
Publication of JP2014159988A publication Critical patent/JP2014159988A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object detector, a robot system, and an object detection method that are capable of significantly shortening the time required for detection processing and improving processing efficiency.SOLUTION: A sensor unit 300 comprises: a laser light source 321 for radiating laser slit light; a rotation mirror 322 for moving, in a scanning direction, a projection portion of the laser slit light radiated from the laser light source 321 toward a workpiece; a camera 310 that consecutively takes images of the appearance of the workpiece including the moving projection portion at a predetermined frame rate and outputs a plurality of corresponding image frames when the rotation mirror 322 moves the projection portion of the laser slit light on the workpiece; a distance image generation unit 333 for generating one distance image using a plurality of image frames for each round of scanning; and a synthetic image generation unit 336 for synthesizing a plurality of distance images on the basis of a plurality of rounds of scanning temporally different from one another to generate a synthetic image.

Description

開示の実施形態は、物体検出装置、ロボットシステム、及び物体検出方法に関する。   Embodiments disclosed herein relate to an object detection device, a robot system, and an object detection method.

特許文献1には、光切断法により物体の検出を行う技術が記載されている。光切断法では、光源から照射された光の物体への投影部位を走査方向に移動させ、その移動する投影部位を含む物体の外観を所望の間隔で連続撮像することにより、物体の三次元形状を検出する。   Patent Document 1 describes a technique for detecting an object by a light cutting method. In the light cutting method, the projection part of the light irradiated from the light source onto the object is moved in the scanning direction, and the appearance of the object including the moving projection part is continuously imaged at a desired interval to obtain the three-dimensional shape of the object. Is detected.

特開2009−250844号公報JP 2009-250844 A

上記のような光切断法では、上記のように光の物体への投影部位を走査方向に移動させ連続撮像を行うとき、物体上の走査方向に沿うほぼ全域にわたる間、まんべんなく撮像を行わなければならない。このため、上記連続撮像を行うために比較的長い時間を要し、検出処理の効率化が難しい。   In the light cutting method as described above, when continuous imaging is performed by moving the projection part of the light onto the object in the scanning direction as described above, it is necessary to perform imaging uniformly over almost the entire area along the scanning direction on the object. Don't be. For this reason, it takes a relatively long time to perform the continuous imaging, and it is difficult to improve the efficiency of the detection process.

本発明はこのような問題に鑑みてなされたものであり、検出処理の大幅な短縮化を図ることができ、処理効率の向上を図ることができる物体検出装置、ロボットシステム、及び物体検出方法を提供することを目的とする。   The present invention has been made in view of such a problem, and provides an object detection device, a robot system, and an object detection method capable of greatly shortening detection processing and improving processing efficiency. The purpose is to provide.

上記課題を解決するため、本発明の一の観点によれば、検出対象の物体を検出する物体検出装置であって、スリット状のレーザ光を照射するレーザ光源と、前記レーザ光源から照射された前記レーザ光の前記物体への投影部位を、所定の走査方向へ移動させる走査部と、前記走査部が前記物体上での前記レーザ光の前記投影部位を移動させる際に、前記移動する投影部位を含む前記物体の外観を所望の間隔で連続撮像し、対応する複数の画像データを出力するカメラと、前記カメラが複数回の連続撮像を行う1つの撮像工程ごとに、複数の前記画像データを用いて前記物体の1つの三次元形状画像を生成する、距離画像生成部と、時間的に互いに異なる複数の前記撮像工程に基づいて前記距離画像生成部がそれぞれ生成した複数の前記三次元形状画像を合成して、前記物体の三次元形状を検出するための合成画像を生成する、合成画像生成部と、を有することを特徴とする、物体検出装置が適用される。   In order to solve the above-described problem, according to one aspect of the present invention, an object detection apparatus that detects an object to be detected, the laser light source that irradiates a slit-shaped laser beam, and the laser light source that is irradiated from the laser light source A scanning unit that moves the projection part of the laser beam onto the object in a predetermined scanning direction, and the projection part that moves when the scanning unit moves the projection part of the laser beam on the object A camera that continuously captures the appearance of the object including a desired interval and outputs a plurality of corresponding image data, and a plurality of the image data for each imaging step in which the camera performs a plurality of consecutive images. A plurality of three-dimensional images generated by the distance image generation unit based on a plurality of imaging steps that are different from each other in time, and a distance image generation unit that generates one three-dimensional shape image of the object using Jo image by synthesizing, and generates a composite image to detect the three-dimensional shape of the object, a composite image generating unit, and having an object detection apparatus is applied.

また、上記課題を解決するため、本発明の別の観点によれば、光源からスリット状のレーザ光を照射することと、前記照射した前記レーザ光の物体への投影部位を、所定の走査方向へ移動させることと、前記レーザ光の前記投影部位を移動させる際に、前記移動する投影部位を含む前記物体の外観を所望の間隔で連続撮像し、対応する複数の画像データを出力することと、複数回の連続撮像を行う1つの撮像工程ごとに、複数の前記画像データを用いて前記物体の1つの三次元形状画像を生成することと、時間的に互いに異なる複数の前記撮像工程に基づいてそれぞれ生成された複数の前記三次元形状画像を合成して、前記物体の三次元形状を検出することと、を有することを特徴とする、物体検出方法が適用される。   In order to solve the above problem, according to another aspect of the present invention, a slit-shaped laser beam is irradiated from a light source, and a projected portion of the irradiated laser beam on an object is set in a predetermined scanning direction. And moving the projection portion of the laser light, continuously imaging the appearance of the object including the moving projection portion at a desired interval, and outputting a plurality of corresponding image data Based on a plurality of the imaging steps that are temporally different from each other, generating one three-dimensional shape image of the object using a plurality of the image data for each imaging step in which a plurality of continuous imaging is performed. A plurality of the three-dimensional shape images generated respectively to detect the three-dimensional shape of the object, and an object detection method is applied.

本発明によれば、検出処理の大幅な短縮化を図ることができるので、処理効率の向上を図ることができる。   According to the present invention, since the detection process can be greatly shortened, the processing efficiency can be improved.

一実施の形態のロボットシステムの全体構成の一例を表すシステム構成図である。1 is a system configuration diagram illustrating an example of an overall configuration of a robot system according to an embodiment. センサユニットの構成の一例を一部透視した状態で表す側面図である。It is a side view expressed in the state where a part of example of composition of a sensor unit was seen through. センサユニットの構成の一例を一部透視した状態で表す上面図である。It is a top view represented in the state which partially saw through an example of the composition of the sensor unit. センサユニットの構成の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of a structure of a sensor unit. センサユニットの構成の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of a structure of a sensor unit. カメラから出力された撮像フレームの一例を表す説明図である。It is explanatory drawing showing an example of the imaging frame output from the camera. センサコントローラの機能的構成の一例を表すブロック図である。It is a block diagram showing an example of a functional composition of a sensor controller. 1回目のスキャン時に連携制御部の制御により実行される処理を説明するための説明図である。It is explanatory drawing for demonstrating the process performed by control of a cooperation control part at the time of the 1st scan. 1回目のスキャン時に連携制御部の制御により実行される処理を説明するための説明図である。It is explanatory drawing for demonstrating the process performed by control of a cooperation control part at the time of the 1st scan. N回目のスキャン時に連携制御部の制御により実行される処理を説明するための説明図である。It is explanatory drawing for demonstrating the process performed by control of a cooperation control part at the time of the Nth scan. N回目のスキャン時に連携制御部の制御により実行される処理を説明するための説明図である。It is explanatory drawing for demonstrating the process performed by control of a cooperation control part at the time of the Nth scan. N+1回目のスキャン時に連携制御部の制御により実行される処理を説明するための説明図である。It is explanatory drawing for demonstrating the process performed by control of a cooperation control part at the time of the (N + 1) th scan. N+1回目のスキャン時に連携制御部の制御により実行される処理を説明するための説明図である。It is explanatory drawing for demonstrating the process performed by control of a cooperation control part at the time of the (N + 1) th scan. 合成画像生成部により生成される合成画像の一例を表す説明図である。It is explanatory drawing showing an example of the synthesized image produced | generated by the synthesized image production | generation part. 合成画像生成部による除外処理の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the exclusion process by a synthesized image generation part. 合成画像生成部による除外処理の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the exclusion process by a synthesized image generation part. 各スキャンが終了するごとに合成画像生成部により生成される合成画像の一例を説明する説明図である。It is explanatory drawing explaining an example of the synthesized image produced | generated by the synthesized image production | generation part, whenever each scan is complete | finished. 各スキャンが終了するごとに合成画像生成部により生成される合成画像の一例を説明する説明図である。It is explanatory drawing explaining an example of the synthesized image produced | generated by the synthesized image production | generation part, whenever each scan is complete | finished. 各スキャンが終了するごとに合成画像生成部により生成される合成画像の一例を説明する説明図である。It is explanatory drawing explaining an example of the synthesized image produced | generated by the synthesized image production | generation part, whenever each scan is complete | finished. センサコントローラが実行する物体検出方法の制御手順の一例を表すフローチャートである。It is a flowchart showing an example of the control procedure of the object detection method which a sensor controller performs.

以下、一実施の形態について図面を参照しつつ説明する。   Hereinafter, an embodiment will be described with reference to the drawings.

まず、図1を参照しつつ、本実施形態のロボットシステムの全体構成の一例を説明する。   First, an example of the entire configuration of the robot system according to the present embodiment will be described with reference to FIG.

図1に示すように、本実施形態のロボットシステム1は、ストッカ20(容器)と、ロボット100と、コンベア30と、センサユニット300(物体検出装置)と、ロボットコントローラ200(コントローラ)とを有する。   As shown in FIG. 1, the robot system 1 of this embodiment includes a stocker 20 (container), a robot 100, a conveyor 30, a sensor unit 300 (object detection device), and a robot controller 200 (controller). .

ストッカ20は、例えば樹脂や金属等で形成された箱状の容器であり、ロボット100の近傍に配置された台座21上に配置されている。このストッカ20の内部には、複数の検出対象のワークW(物体)が無作為(バラバラ)に入れられている。なお、各ワークWは、ストッカ20等のような容器に入れられていなくてもよく、台座21上等のような適宜の載置面に載置されていてもよい。また、各ワークW及びそれらの形状としては、特に限定されるものではなく、種々考えられる。このとき、各ワークW及びそれらの形状は、互いに一致又は類似していてもよいし、互いに異なっていてもよい。但し、各図中では、各ワークWの形状を簡略化して楕円形状で図示している。   The stocker 20 is a box-shaped container made of, for example, resin or metal, and is disposed on a pedestal 21 disposed in the vicinity of the robot 100. Inside the stocker 20, a plurality of workpieces W (objects) to be detected are randomly placed. Each workpiece W may not be placed in a container such as the stocker 20 or may be placed on an appropriate placement surface such as on the base 21. Moreover, it does not specifically limit as each workpiece | work W and those shapes, Various are considered. At this time, each workpiece | work W and those shapes may mutually correspond or are similar, and may mutually differ. However, in each drawing, the shape of each workpiece W is simplified and shown in an elliptical shape.

ロボット100は、ストッカ20内の複数のワークWを順次保持して移送する移送作業(いわゆるランダム・ビン・ピッキング)を行う。ロボット100としては、上記のような移送作業を行うことが可能なものであれば特に限定されるものではないが、例えば垂直多関節ロボットや水平多関節ロボット(スカラロボット)等が使用可能である。この例では、ロボット100として垂直多関節ロボットを適用し、ロボット100は、適宜の固定面(例えば床部等)に固定された基台101と、基台101に回転自在に設けられたアーム部102とを有する。アーム部102は、基台101側からその反対の先端側にかけて複数の間接を有する。このアーム部102には、上記複数の間接をそれぞれ駆動する複数のサーボモータ(図示せず)が内蔵されている。また、アーム部102の先端には、ワークWを保持可能な保持装置103が設けられている。   The robot 100 performs a transfer operation (so-called random bin picking) for sequentially holding and transferring a plurality of workpieces W in the stocker 20. The robot 100 is not particularly limited as long as it can perform the transfer operation as described above. For example, a vertical articulated robot or a horizontal articulated robot (scalar robot) can be used. . In this example, a vertical articulated robot is applied as the robot 100, and the robot 100 includes a base 101 fixed to an appropriate fixing surface (for example, a floor portion) and an arm unit rotatably provided on the base 101. 102. The arm part 102 has a plurality of indirects from the base 101 side to the opposite tip side. The arm portion 102 incorporates a plurality of servo motors (not shown) for driving the plurality of indirects, respectively. A holding device 103 capable of holding the workpiece W is provided at the tip of the arm unit 102.

保持装置103としては、ワークWを保持可能なものであれば特に限定されるものではないが、例えば、指部材によりワークWを把持(保持の一態様)可能な把持装置、エアや電磁力等により駆動してワークWを吸着(保持の一態様)可能な吸着装置等が使用可能である。この例では、保持装置103として把持装置を適用し、保持装置103は、ワークWを把持可能な一対の指部材103aを有する。一対の指部材103aは、保持装置103に内蔵された適宜のアクチュエータ(図示せず)により駆動され、互いの間隔を拡張・縮小することにより開閉動作する。なお、保持装置103としては、上記のような構造を備えたものに限定されるものではなく、例えば、複数の指部材を有し、これら複数の指部材が揺動することによりワークWを掴むグリッパ装置等も使用可能である。   The holding device 103 is not particularly limited as long as it can hold the workpiece W. For example, a holding device that can hold the workpiece W with a finger member (an aspect of holding), air, electromagnetic force, or the like It is possible to use a suction device or the like that can be driven by this to suck the workpiece W (one mode of holding). In this example, a gripping device is applied as the holding device 103, and the holding device 103 has a pair of finger members 103a capable of gripping the workpiece W. The pair of finger members 103a is driven by an appropriate actuator (not shown) built in the holding device 103, and opens / closes by expanding / reducing the mutual distance. The holding device 103 is not limited to the one having the above-described structure. For example, the holding device 103 has a plurality of finger members, and the plurality of finger members swing to grip the workpiece W. A gripper device or the like can also be used.

このようなロボット100は、ストッカ20内の複数のワークWを把持装置103の指部材103aにより1つずつ順次把持し、コンベア30において予め設定された載置位置へ移送して載置することにより、移送作業を行う。   Such a robot 100 sequentially grips a plurality of workpieces W in the stocker 20 one by one with the finger members 103a of the gripping device 103, and transfers and places the workpieces to a preset placement position on the conveyor 30. , Perform the transfer work.

コンベア30は、予め設定された載置位置に載置されたワークWを、次の工程に係る設備に搬送する。   The conveyor 30 conveys the workpiece W placed at a preset placement position to equipment related to the next step.

センサユニット300は、光切断法により、ストッカ20内の複数のワークWをそれぞれ検出し、それら複数のワークWそれぞれの三次元的な外形形状(三次元的な位置及び姿勢も含む。以下同様)である三次元形状を検出する。このセンサユニット300は、ストッカ20の上方に位置するように、適宜の支持部材50により支持されている。なお、センサユニット300は、ロボット100の適宜の部位(例えばアーム部102の先端側等)に取り付けられていてもよい。センサユニット300については、後でより詳しく説明する。   The sensor unit 300 detects a plurality of workpieces W in the stocker 20 by a light cutting method, and each of the plurality of workpieces W has a three-dimensional outer shape (including a three-dimensional position and orientation; the same applies hereinafter). A three-dimensional shape is detected. The sensor unit 300 is supported by an appropriate support member 50 so as to be positioned above the stocker 20. The sensor unit 300 may be attached to an appropriate part of the robot 100 (for example, the distal end side of the arm unit 102). The sensor unit 300 will be described in more detail later.

ロボットコントローラ200は、例えば演算器、記憶装置、入力装置等を有するコンピュータで構成され、ロボット100及びセンサユニット300と相互通信可能に接続されている。このロボットコントローラ200は、センサユニット300により検出されたストッカ20内の複数のワークWそれぞれの三次元形状を表す三次元形状情報に基づいて、ロボット100全体の動作(例えば、アーム部102の各間接の駆動、把持装置103の指部材103aの開閉動作等)を制御する。ロボットコントローラ200については、後でより詳しく説明する。   The robot controller 200 is composed of, for example, a computer having an arithmetic unit, a storage device, an input device, and the like, and is connected to the robot 100 and the sensor unit 300 so as to communicate with each other. The robot controller 200 operates based on the three-dimensional shape information representing the three-dimensional shape of each of the plurality of workpieces W in the stocker 20 detected by the sensor unit 300 (for example, each indirect of the arm unit 102). And the opening / closing operation of the finger member 103a of the gripping device 103 are controlled. The robot controller 200 will be described in detail later.

次に、図2〜図5を参照しつつ、センサユニット300の構成の一例を説明する。   Next, an example of the configuration of the sensor unit 300 will be described with reference to FIGS.

図2〜図5に示すように、センサユニット300は、レーザスキャナ320と、カメラ310と、センサコントローラ330とを有する。   As shown in FIGS. 2 to 5, the sensor unit 300 includes a laser scanner 320, a camera 310, and a sensor controller 330.

レーザスキャナ320は、レーザ光源321と、回転ミラー322(走査部)と、モータ323と、角度検出器324とを備える。レーザ光源321は、スリット状のレーザ光(以下、「レーザスリット光」という)Lを照射する。回転ミラー322は、レーザ光源321から照射されたレーザスリット光Lを受光し、ワークW等へ向けて反射させ、ワークW等へ投影させる。モータ323は、回転ミラー322を回転させ、回転ミラー322の回転角度を変化させる。モータ323により回転ミラー322を回転させることにより、ワークW等の投影対象となる複数の投影領域からなる全投影領域TT内のワークW等上でのレーザスリット光Lの投影部位を、矢印Aで示す方向(所定の走査方向。以下、「走査方向A」という)へ移動させることができる。角度検出器324は、回転ミラー322の回転角度を検出する。   The laser scanner 320 includes a laser light source 321, a rotating mirror 322 (scanning unit), a motor 323, and an angle detector 324. The laser light source 321 emits slit-shaped laser light (hereinafter referred to as “laser slit light”) L. The rotating mirror 322 receives the laser slit light L emitted from the laser light source 321, reflects it toward the workpiece W and the like, and projects it onto the workpiece W and the like. The motor 323 rotates the rotating mirror 322 and changes the rotation angle of the rotating mirror 322. By rotating the rotating mirror 322 by the motor 323, the projection part of the laser slit light L on the work W etc. in the entire projection area TT composed of a plurality of projection areas to be projected such as the work W is indicated by an arrow A. It can be moved in the direction shown (predetermined scanning direction; hereinafter referred to as “scanning direction A”). The angle detector 324 detects the rotation angle of the rotary mirror 322.

カメラ310は、上記のように全投影領域TT内のワークW等上でのレーザスリット光Lの投影部位が走査方向Aへ移動する際に、その移動する投影部位を含む全投影領域TT内のワークW等の外観を、所望のフレームレート(間隔)で連続撮像する。具体的には、カメラ310は、レーザスリット光Lの投影部位が、全投影領域TTの反走査方向(矢印Aで示す方向の反対方向)側端部の投影領域で生じてから、走査方向Aに順次移動し、全投影領域TTの走査方向A側端部の投影領域に至るまでの間(つまり、全投影領域TTの全域にわたる間)、連続撮像を行う。そして、カメラ310は、上記連続撮像に対応する複数の撮像フレームF(画像データ。後述の図6参照)を出力する。図6に、カメラ310から出力された撮像フレームFの一例を示す。図6に示すように、撮像フレームFには、全投影領域TT内のワークW等の外観と、上記のように刻々と移動していく当該ワークW等上でのレーザスリット光Lの投影部位の挙動とが含まれている。   When the projection part of the laser slit light L on the workpiece W or the like in the entire projection area TT moves in the scanning direction A as described above, the camera 310 in the entire projection area TT including the projection part to move is moved. The external appearance of the workpiece W or the like is continuously imaged at a desired frame rate (interval). Specifically, the camera 310 scans in the scanning direction A after the projected portion of the laser slit light L occurs in the projection region at the end of the entire projection region TT in the opposite scanning direction (the direction opposite to the direction indicated by the arrow A). Are sequentially moved, and continuous imaging is performed until the projection area reaches the projection area at the end in the scanning direction A side of the entire projection area TT (that is, over the entire area of the entire projection area TT). The camera 310 then outputs a plurality of imaging frames F (image data; see FIG. 6 described later) corresponding to the continuous imaging. FIG. 6 shows an example of the imaging frame F output from the camera 310. As shown in FIG. 6, in the imaging frame F, the appearance of the work W etc. in the entire projection area TT and the projection part of the laser slit light L on the work W etc. moving every moment as described above. And behaviors are included.

センサコントローラ330は、例えば演算器や記憶装置等を有するコンピュータで構成され、センサユニット300全体の動作を制御する。このセンサコントローラ330は、カメラ310から出力された複数の撮像フレームFに基づいて、ストッカ20内の複数のワークWをそれぞれ検出し、それら複数のワークWそれぞれの三次元形状を検出する。センサコントローラ330については、後でより詳しく説明する。   The sensor controller 330 is composed of, for example, a computer having an arithmetic unit, a storage device, and the like, and controls the operation of the entire sensor unit 300. The sensor controller 330 detects the plurality of workpieces W in the stocker 20 based on the plurality of imaging frames F output from the camera 310, and detects the three-dimensional shape of each of the plurality of workpieces W. The sensor controller 330 will be described in more detail later.

次に、図7を参照しつつ、センサコントローラ330の機能的構成の一例を説明する。   Next, an example of a functional configuration of the sensor controller 330 will be described with reference to FIG.

図7に示すように、センサコントローラ330は、光源制御部341と、モータ制御部342と、画像取得部331と、画像記憶部332と、距離画像生成部333と、距離画像記憶部334と、連携制御部335と、検出部340と、合成画像生成部336と、合成画像記憶部337とを備える。   As shown in FIG. 7, the sensor controller 330 includes a light source control unit 341, a motor control unit 342, an image acquisition unit 331, an image storage unit 332, a distance image generation unit 333, a distance image storage unit 334, A cooperation control unit 335, a detection unit 340, a composite image generation unit 336, and a composite image storage unit 337 are provided.

光源制御部341は、上記レーザ光源321を制御し、レーザスリット光Lを照射させる。モータ制御部342は、上記角度検出器324により検出された回転ミラー322の回転角度情報を入力し、その入力した回転角度情報に基づいて、上記モータ323を制御し、回転ミラー322を回転させる。   The light source control unit 341 controls the laser light source 321 to irradiate the laser slit light L. The motor control unit 342 receives the rotation angle information of the rotary mirror 322 detected by the angle detector 324, controls the motor 323 based on the input rotation angle information, and rotates the rotary mirror 322.

画像取得部331は、上記カメラ310から出力された複数の撮像フレームFを取得する。画像取得部331により取得された複数の撮像フレームFは、画像記憶部332に記憶される。   The image acquisition unit 331 acquires a plurality of imaging frames F output from the camera 310. The plurality of imaging frames F acquired by the image acquisition unit 331 are stored in the image storage unit 332.

距離画像生成部333は、カメラ310が複数回の連続撮像を行う1回のスキャン(撮像工程)ごとに、画像記憶部332に記憶された当該スキャンでの複数の撮像フレームFを用いて、三角測量の原理により、カメラ310とワークW等との距離を算出する。そして、距離画像生成部333は、全投影領域TT内のワークW等の外観画像に、上記算出した距離情報を含ませた、1つの距離画像DP(三次元形状画像。後述の図9、図11、図13等参照)を生成する。なお、以下では、説明の便宜上、各スキャンでの、1回目の撮像に対応する撮像フレームFを「撮像フレームF1」、2回目の撮像に対応する撮像フレームFを「撮像フレームF2」、3回目の撮像に対応する撮像フレームFを「撮像フレームF3」、・・・(以下同様)という。   The distance image generation unit 333 uses a plurality of imaging frames F in the scan stored in the image storage unit 332 for each time a single scan (imaging process) in which the camera 310 performs a plurality of continuous imagings, Based on the surveying principle, the distance between the camera 310 and the workpiece W is calculated. Then, the distance image generation unit 333 includes one distance image DP (three-dimensional shape image, which will be described later with reference to FIGS. 9 and 9) in which the calculated distance information is included in the appearance image of the workpiece W or the like in the entire projection area TT. 11 and FIG. 13). In the following, for convenience of explanation, in each scan, the imaging frame F corresponding to the first imaging is referred to as “imaging frame F1,” and the imaging frame F corresponding to the second imaging is referred to as “imaging frame F2.” The imaging frame F corresponding to the imaging is referred to as “imaging frame F3” (hereinafter the same).

連携制御部335は、複数回のスキャンのそれぞれで、カメラ310が複数回の連続撮像を行うと共に、距離画像生成部333が上記カメラ310による複数回の連続撮像に対応する複数の撮像フレームFを用いることで上記1つの距離画像DPを生成するように、カメラ310及び距離画像生成部333を連携して制御する。この連携制御部335は、複数回のスキャンのうち、最初に実行される1回目のスキャン(当初撮像工程)と、1回目スキャンの後に実行される2回目以降のスキャン(間引き撮像工程。1,2,3,4,5,6,7,8,9・・・回目のスキャン)とでは、互いに異なる制御処理を実行する。さらに、連携制御部335は、2回目以降のスキャンのうち、N回目(Nは2以上の偶数)のスキャン(2,4,6,8・・・回目のスキャン)と、N+1回目のスキャン(3,5,7,9・・・回目のスキャン)とでは、互いに異なる制御処理を実行する。   In each of the multiple scans, the cooperation control unit 335 causes the camera 310 to perform multiple continuous imaging, and the distance image generation unit 333 generates multiple imaging frames F corresponding to the multiple continuous imaging by the camera 310. The camera 310 and the distance image generation unit 333 are controlled in cooperation so that the one distance image DP is generated. The linkage control unit 335 performs a first scan (initial imaging process) executed first among a plurality of scans, and a second and subsequent scans executed after the first scan (thinning imaging process; 1, 2, 3, 4, 5, 6, 7, 8, 9... Further, among the second and subsequent scans, the cooperation control unit 335 performs an N-th scan (N is an even number equal to or greater than 2) (2, 4, 6, 8... Scan) and an N + 1-th scan ( In the third, fifth, seventh, ninth... Scan, different control processes are executed.

以下、1回目のスキャン時に連携制御部335の制御により実行される処理、N回目のスキャン時に連携制御部335の制御により実行される処理、及び、N+1回目のスキャン時に連携制御部335の制御により実行される処理を順次説明する。なお、以下では、説明の便宜上、全投影領域TTが互いに面積の等しい16個の投影領域T1〜T16(後述の図8、図10、図12等参照)からなり、1回目のスキャン時にカメラ310が連続撮像するK回(Kは正の整数)が16回(つまりK=16)であると共に、2回目以降のスキャン時にカメラ310が連続撮像するK/n回(nは2以上の整数)が8回(つまりn=2)である場合を説明する。但し、実際には、全投影領域TTはもっと多数(例えば480個)の投影領域からなり、1回目のスキャン時及び2回目以降のスキャン時にカメラ310が連続撮像する回数はもっと多い。   Hereinafter, the process executed by the control of the cooperation control unit 335 at the first scan, the process executed by the control of the cooperation control unit 335 at the Nth scan, and the control of the cooperation control unit 335 at the N + 1th scan. The processes to be executed will be described sequentially. In the following, for convenience of explanation, the entire projection area TT is composed of 16 projection areas T1 to T16 (see FIGS. 8, 10, 12, etc., which will be described later) having the same area. Is K times (K is a positive integer) 16 times (that is, K = 16) and K / n times (n is an integer greater than or equal to 2) that the camera 310 continuously images during the second and subsequent scans Will be described 8 times (that is, n = 2). However, in practice, the entire projection area TT is composed of a larger number of projection areas (for example, 480), and the camera 310 continuously captures images more frequently during the first scan and the second and subsequent scans.

まず、図8及び図9を参照しつつ、1回目のスキャン時に連携制御部335の制御により実行される処理を説明する。   First, with reference to FIGS. 8 and 9, a process executed by the control of the cooperation control unit 335 at the first scan will be described.

図8及び図9において、1回目のスキャンでは、連携制御部335の制御により、カメラ310が、全投影領域TTに含まれる16個の投影領域T1〜T16の全てに対し順次16回の連続撮像を行う。すなわち、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T2となるタイミング、投影領域T3となるタイミング、・・・、投影領域T14となるタイミング、投影領域T15となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像する。そして、カメラ310は、上記16回の連続撮像に対応する16個の撮像フレームF1〜F16(図9上段参照)を出力する。   8 and 9, in the first scan, the camera 310 sequentially captures 16 consecutive images for all of the 16 projection areas T1 to T16 included in the entire projection area TT under the control of the cooperation control unit 335. I do. That is, the camera 310 has a timing at which the projected portion of the moving laser slit light L becomes the projection region T1, a timing at which the projection region T2 becomes, a timing at which the projection region T3 becomes,. The appearance of the work W or the like in the entire projection area TT including the projection part is imaged at each of the timing of the projection area T15 and the timing of the projection area T16. Then, the camera 310 outputs 16 imaging frames F1 to F16 (see the upper part of FIG. 9) corresponding to the 16 consecutive imagings.

すると、連携制御部335の制御により、距離画像生成部333が、画像記憶部332に記憶された当該1回目のスキャンでの16個の撮像フレームF1〜F16を用いることで、全投影領域TTに含まれる16個の投影領域T1〜T16の全てに対応した1つの距離画像DP(図9下段参照)を生成する。なお、以下では、説明の便宜上、1回目のスキャンでの距離画像DPを「距離画像DP1」という。すなわち、距離画像生成部333は、当該1回目のスキャンでの16個の撮像フレームF1〜F16を用いて、カメラ310と投影領域T1〜T16(つまり、全投影領域TTの全域)内のワークW等との距離を算出する。そして、距離画像生成部333は、全投影領域TT内のワークW等の外観画像の、投影領域T1〜T16に対応する部分p1〜p16(つまり、全投影領域TTの全域に対応する全体pp)に、上記算出した距離情報を含ませた、上記距離画像DP1を生成する。図9下段に示すように、距離画像DP1は、全投影領域TT内のワークW等の外観画像の全体ppに距離情報を含む。従って、この距離画像DP1を用いることで、検出部340は、ストッカ20内の複数のワークWそれぞれの三次元形状を検出することが可能である(後述)。1回目のスキャン時に距離画像生成部333により生成された距離画像DP1は、距離画像記憶部334に記憶されると共に、検出部340へ出力される。   Then, by the control of the cooperation control unit 335, the distance image generation unit 333 uses the 16 imaging frames F1 to F16 in the first scan stored in the image storage unit 332, so that the entire projection region TT is used. One distance image DP (see the lower part of FIG. 9) corresponding to all of the 16 projection regions T1 to T16 included is generated. Hereinafter, for convenience of explanation, the distance image DP in the first scan is referred to as “distance image DP1”. That is, the distance image generation unit 333 uses the 16 imaging frames F1 to F16 in the first scan, and the work W in the projection area T1 to T16 (that is, the entire projection area TT) in the camera 310. Calculate the distance to etc. The distance image generation unit 333 then includes portions p1 to p16 corresponding to the projection regions T1 to T16 (that is, the entire pp corresponding to the entire projection region TT) of the appearance image such as the workpiece W in the entire projection region TT. The distance image DP1 in which the calculated distance information is included is generated. As shown in the lower part of FIG. 9, the distance image DP1 includes distance information in the entire appearance pp of the external appearance image such as the workpiece W in the entire projection area TT. Therefore, by using this distance image DP1, the detection unit 340 can detect the three-dimensional shape of each of the plurality of workpieces W in the stocker 20 (described later). The distance image DP1 generated by the distance image generation unit 333 during the first scan is stored in the distance image storage unit 334 and is output to the detection unit 340.

次に、図10及び図11を参照しつつ、N回目のスキャン時に連携制御部335の制御により実行される処理を説明する。   Next, with reference to FIGS. 10 and 11, a process executed by the control of the cooperation control unit 335 at the N-th scan will be described.

図10及び図11において、N回目のスキャンでは、連携制御部335の制御により、カメラ310が、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、合計面積が全投影領域TTの1/2となるように間引き分割された8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対し順次8回の連続撮像を行う。すなわち、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T3となるタイミング、投影領域T5となるタイミング、投影領域T7となるタイミング、投影領域T9となるタイミング、投影領域T11となるタイミング、投影領域T13となるタイミング、投影領域T15となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像する。そして、カメラ310は、上記8回の連続撮像に対応する8個の撮像フレームF1〜F8(図11上段参照)を出力する。   10 and 11, in the N-th scan, the camera 310 has a total area of the total projection region TT among the sixteen projection regions T1 to T16 included in the total projection region TT under the control of the cooperation control unit 335. Of the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 that have been thinned and divided so as to be ½ of the sequential imaging. That is, the camera 310 has a timing at which the projected portion of the moving laser slit light L becomes the projection region T1, a timing at the projection region T3, a timing at the projection region T5, a timing at the projection region T7, and a projection region T9. The appearance of the workpiece W or the like in the entire projection area TT including the projection part is imaged at each of the timing, the timing of the projection area T11, the timing of the projection area T13, and the timing of the projection area T15. Then, the camera 310 outputs eight imaging frames F1 to F8 (see the upper part of FIG. 11) corresponding to the eight consecutive imagings.

すると、連携制御部335の制御により、距離画像生成部333が、画像記憶部332に記憶された当該N回目のスキャンでの8個の撮像フレームF1〜F8を用いることで、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応した1つの距離画像DP(図11下段参照)を生成する。なお、以下では、説明の便宜上、N回目のスキャンでの距離画像DPを「距離画像DPN」という。すなわち、距離画像生成部333は、当該N回目のスキャンでの8個の撮像フレームF1〜F8を用いて、カメラ310と投影領域T1,T3,T5,T7,T9,T11,T13,T15内のワークW等との距離を算出する。そして、距離画像生成部333は、全投影領域TT内のワークW等の外観画像の、投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応する部分p1,p3,p5,p7,p9,p11,p13,p15に、上記算出した距離情報を含ませた、上記距離画像DPNを生成する。図11下段に示すように、距離画像DPNは、全投影領域TT内のワークW等の外観画像の部分p1,p3,p5,p7,p9,p11,p13,p15に距離情報を含む。N回目のスキャン時に距離画像生成部333により生成された距離画像DPNは、距離画像記憶部334に記憶される。   Then, by the control of the cooperation control unit 335, the distance image generation unit 333 uses the eight imaging frames F1 to F8 in the N-th scan stored in the image storage unit 332, so that the entire projection region TT is used. Among the 16 projection areas T1 to T16 included, one distance image DP (see the lower part of FIG. 11) corresponding to the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 is generated. To do. In the following, for convenience of explanation, the distance image DP in the Nth scan is referred to as “distance image DPN”. That is, the distance image generation unit 333 uses the eight imaging frames F1 to F8 in the N-th scan, and uses the camera 310 and the projection areas T1, T3, T5, T7, T9, T11, T13, and T15. The distance from the workpiece W etc. is calculated. The distance image generation unit 333 then includes portions p1, p3, p5 corresponding to the projection areas T1, T3, T5, T7, T9, T11, T13, and T15 of the external appearance image of the workpiece W or the like in the entire projection area TT. The distance image DPN in which the calculated distance information is included in p7, p9, p11, p13, and p15 is generated. As shown in the lower part of FIG. 11, the distance image DPN includes distance information in parts p1, p3, p5, p7, p9, p11, p13, and p15 of the appearance image such as the workpiece W in the entire projection area TT. The distance image DPN generated by the distance image generation unit 333 at the N-th scan is stored in the distance image storage unit 334.

次に、図12及び図13を参照しつつ、N+1回目のスキャン時に連携制御部335の制御により実行される処理を説明する。   Next, with reference to FIGS. 12 and 13, processing executed by the control of the cooperation control unit 335 at the time of the N + 1th scan will be described.

図12及び図13において、N+1回目のスキャンでは、連携制御部335の制御により、カメラ310が、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、合計面積が全投影領域TTの1/2となるように間引き分割され上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15相互間をそれぞれ埋めるように配置される8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対し順次8回の連続撮像を行う。すなわち、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T2となるタイミング、投影領域T4となるタイミング、投影領域T6となるタイミング、投影領域T8となるタイミング、投影領域T10となるタイミング、投影領域T12となるタイミング、投影領域T14となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像する。つまり、連携制御部335の制御により、当該N+1回目のスキャンにおける1スキャン(1工程)中でのカメラ310の撮像タイミングと、上記N回目のスキャンにおける1スキャン中でのカメラ310の撮像タイミングとは、各スキャンの開始を基準として互いに交互のタイミングとなるようにずらされている。そして、カメラ310は、上記8回の連続撮像に対応する8個の撮像フレームF1〜F8(図13上段参照)を出力する。   12 and 13, in the (N + 1) th scan, the camera 310 has a total area of the total projection region TT among the sixteen projection regions T1 to T16 included in the total projection region TT under the control of the cooperation control unit 335. The eight projection areas T2, T4 are thinned and divided so as to be ½ of the above and are arranged so as to fill the spaces between the eight projection areas T1, T3, T5, T7, T9, T11, T13, T15. , T6, T8, T10, T12, T14, and T16 are sequentially captured eight times. That is, the camera 310 has a timing at which the projected portion of the moving laser slit light L becomes the projection region T2, a timing at the projection region T4, a timing at the projection region T6, a timing at the projection region T8, and a projection region T10. The appearance of the workpiece W and the like in the entire projection area TT including the projection part is imaged at each of the timing, the timing of the projection area T12, the timing of the projection area T14, and the timing of the projection area T16. That is, under the control of the cooperation control unit 335, the imaging timing of the camera 310 in one scan (one process) in the N + 1th scan and the imaging timing of the camera 310 in one scan in the Nth scan are as follows. These are shifted so that the timings are alternate with respect to the start of each scan. Then, the camera 310 outputs eight imaging frames F1 to F8 (see the upper part of FIG. 13) corresponding to the eight consecutive imagings.

すると、連携制御部335の制御により、距離画像生成部333が、画像記憶部332に記憶された当該N+1回目のスキャンでの8個の撮像フレームF1〜F8を用いることで、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、上記8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応した1つの距離画像DP(図13下段参照)を生成する。なお、以下では、説明の便宜上、N+1回目のスキャンでの距離画像DPを「距離画像DPN1」という。すなわち、距離画像生成部333は、当該N+1回目のスキャンでの8個の撮像フレームF1〜F8を用いて、カメラ310と投影領域T2,T4,T6,T8,T10,T12,T14,T16内のワークW等との距離を算出する。そして、距離画像生成部333は、全投影領域TT内のワークW等の外観画像の、投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応する部分p2,p4,p6,p8,p10,p12,p14,p16に、上記算出した距離情報を含ませた、上記距離画像DPN1を生成する。図11下段に示すように、距離画像DPN1は、全投影領域TT内のワークW等の外観画像の部分p2,p4,p6,p8,p10,p12,p14,p16に距離情報を含む。N+1回目のスキャン時に距離画像生成部333により生成された距離画像DPN1は、距離画像記憶部334に記憶される。   Then, by the control of the cooperation control unit 335, the distance image generation unit 333 uses the eight imaging frames F1 to F8 in the N + 1th scan stored in the image storage unit 332, so that the entire projection region TT is used. Among the 16 projection areas T1 to T16 included, one distance image DP (see the lower part of FIG. 13) corresponding to the eight projection areas T2, T4, T6, T8, T10, T12, T14, and T16 is generated. To do. In the following, for convenience of explanation, the distance image DP in the N + 1th scan is referred to as “distance image DPN1”. That is, the distance image generation unit 333 uses the eight imaging frames F1 to F8 in the N + 1th scan, and uses the camera 310 and the projection areas T2, T4, T6, T8, T10, T12, T14, and T16. The distance from the workpiece W or the like is calculated. The distance image generation unit 333 then includes portions p2, p4, p6 corresponding to the projection regions T2, T4, T6, T8, T10, T12, T14, and T16 of the external appearance image of the workpiece W or the like in the entire projection region TT. The distance image DPN1 in which the calculated distance information is included in p8, p10, p12, p14, and p16 is generated. As shown in the lower part of FIG. 11, the distance image DPN1 includes distance information in parts p2, p4, p6, p8, p10, p12, p14, and p16 of the appearance image such as the workpiece W in the entire projection area TT. The distance image DPN1 generated by the distance image generation unit 333 during the N + 1th scan is stored in the distance image storage unit 334.

なお、上記N回目のスキャンを第1間引き撮像工程に対応させた場合には、上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15が分割投影領域及び第1分割投影領域に対応し、当該8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応した1つの距離画像DPNが第1三次元形状画像に対応すると共に、上記N+1回目のスキャンが第2間引き撮像工程に対応し、上記8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16が分割投影領域及び第2分割投影領域に対応し、当該8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応した1つの距離画像DPN1が第2三次元形状画像に対応する。逆に、上記N+1回目のスキャンを第1間引き撮像工程に対応させた場合には、上記8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16が分割投影領域及び第1分割投影領域に対応し、当該8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応した1つの距離画像DPN1が第1三次元形状画像に対応すると共に、上記N回目のスキャンが第2間引き撮像工程に対応し、上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15が分割投影領域及び第2分割投影領域に対応し、当該8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応した1つの距離画像DPNが第2三次元形状画像に対応する。   When the N-th scan is made to correspond to the first thinning imaging process, the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 are divided projection areas and first divisions. One distance image DPN corresponding to the projection areas and corresponding to the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 corresponds to the first three-dimensional shape image, and the N + 1th time. Scan corresponds to the second thinning imaging step, and the eight projection areas T2, T4, T6, T8, T10, T12, T14, and T16 correspond to the divided projection area and the second divided projection area, and the eight One distance image DPN1 corresponding to the projection regions T2, T4, T6, T8, T10, T12, T14, and T16 corresponds to the second three-dimensional shape image. Conversely, when the N + 1th scan is made to correspond to the first thinning imaging process, the eight projection areas T2, T4, T6, T8, T10, T12, T14, and T16 are divided into the divided projection areas and the first projection area. One distance image DPN1 corresponding to the divided projection areas and corresponding to the eight projection areas T2, T4, T6, T8, T10, T12, T14, and T16 corresponds to the first three-dimensional shape image, and the N The second scan corresponds to the second thinning imaging step, and the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 correspond to the divided projection area and the second divided projection area, and the 8 One distance image DPN corresponding to the projection areas T1, T3, T5, T7, T9, T11, T13, and T15 corresponds to the second three-dimensional shape image.

図7に示すように、検出部340は、上記1回目のスキャンが終了した後には、距離画像生成部333から出力された当該1回目のスキャンでの距離画像DP1を取得する。そして、検出部340は、上記取得した距離画像DP1を用いて、ストッカ20内の複数のワークWそれぞれの三次元形状を検出する。その後は、検出部340は、上記2回目以降の各スキャンが終了するごとに、後述のように合成画像生成部336から出力される、最新のスキャンに基づく距離画像DPとその直前のスキャンに基づく距離画像DPとの合成による合成画像CP(後述)を取得する。そして、検出部340は、上記取得した合成画像CPを用いて、ストッカ20内の複数のワークWそれぞれの三次元形状を検出する。検出部340による検出結果を表す検出信号は、上記ロボットコントローラ200へ出力される。   As illustrated in FIG. 7, after the first scan is completed, the detection unit 340 acquires the distance image DP1 in the first scan output from the distance image generation unit 333. And the detection part 340 detects the three-dimensional shape of each of the some workpiece | work W in the stocker 20 using the acquired distance image DP1. Thereafter, the detection unit 340 is based on the distance image DP based on the latest scan and the immediately preceding scan that are output from the composite image generation unit 336 as described later each time the second and subsequent scans are completed. A composite image CP (described later) obtained by combining with the distance image DP is acquired. And the detection part 340 detects the three-dimensional shape of each of the some workpiece | work W in the stocker 20 using the said synthesized image CP acquired. A detection signal representing a detection result by the detection unit 340 is output to the robot controller 200.

これにより、ロボットコントローラ200は、検出部340から出力された上記検出信号を取得する。そして、ロボットコントローラ200は、上記取得した検出信号で表される三次元形状情報に基づいて、1つのワークW(例えば最も保持し易いワークW等)を保持して移送するように、上記ロボット100を動作させる。なお、この例では、各スキャンが終了するごとに、ロボット100が1つのワークWを移送(つまり、スキャン→1つのワークWを移送→スキャン→1つのワークWを移送・・・)する場合を説明するが、開示の実施形態はこれに限定されるものではない。例えば、各スキャンが終了するごとに、ロボット100が複数(例えば2つ)のワークWを順次移送(つまり、スキャン→1つのワークWを移送→1つのワークWを移送→スキャン→1つのワークWを移送→1つのワークWを移送・・・)してもよい。   Thereby, the robot controller 200 acquires the detection signal output from the detection unit 340. Then, the robot controller 200 holds and transfers one workpiece W (for example, the workpiece W that is most easily held) based on the three-dimensional shape information represented by the acquired detection signal. To work. In this example, when each scan is completed, the robot 100 transfers one work W (that is, scan → transfer one work W → scan → transfer one work W...). Although described, the disclosed embodiments are not limited to this. For example, as each scan ends, the robot 100 sequentially transfers a plurality of (for example, two) workpieces W (that is, scan → transfer one workpiece W → transfer one workpiece W → scan → one workpiece W). May be transferred → one workpiece W may be transferred ...).

合成画像生成部336は、上記2回目以降の各スキャンが終了するごとに、距離画像記憶部334に記憶された時間的に互いに異なる複数回(この例では2回)のスキャンに基づく複数(この例では2つ)の距離画像DPを合成し、合成画像CP(後述の図14参照)を生成する。合成画像CPは、ストッカ20内の複数のワークWそれぞれの三次元形状を検出するための画像である。具体的には、合成画像生成部336は、上記2回目以降の各スキャンが終了するごとに、最新のスキャンに基づく距離画像DPと、その直前のスキャンに基づく距離画像DPとを合成し、合成画像CPを生成する。すなわち、合成画像生成部336は、最新のスキャンに基づく距離画像DPのうち距離情報を含む部分と、その直前のスキャンに基づく距離画像DPのうち部分とを合成する。これにより、合成画像生成部336は、最新のスキャンに基づく距離画像DPで距離情報を含まない部分を、その直前のスキャンに基づく距離画像DPで距離情報を含む部分で補完する。このようにすることで、合成画像生成部336は、合成画像CPを生成する。図14に示すように、合成画像CPは、全投影領域TT内のワークW等の外観画像の全体ppに距離情報を含む。従って、この合成画像CPを用いることで、検出部340は、ストッカ20内の複数のワークWそれぞれの三次元形状を検出することが可能である。   Each time the second and subsequent scans are completed, the composite image generation unit 336 performs multiple (this in this example) based on multiple scans (two times in this example) that are stored in the distance image storage unit 334 in time. In the example, two distance images DP are combined to generate a combined image CP (see FIG. 14 described later). The composite image CP is an image for detecting the three-dimensional shape of each of the plurality of workpieces W in the stocker 20. Specifically, the composite image generation unit 336 combines the distance image DP based on the latest scan and the distance image DP based on the immediately preceding scan every time the second and subsequent scans are completed, and combines them. An image CP is generated. In other words, the composite image generation unit 336 combines the portion including the distance information in the distance image DP based on the latest scan and the portion of the distance image DP based on the immediately preceding scan. As a result, the composite image generation unit 336 supplements a portion that does not include distance information in the distance image DP based on the latest scan with a portion that includes distance information in the distance image DP based on the immediately preceding scan. In this way, the composite image generation unit 336 generates a composite image CP. As shown in FIG. 14, the composite image CP includes distance information in the entire appearance pp of the appearance image such as the workpiece W in the entire projection area TT. Therefore, by using this composite image CP, the detection unit 340 can detect the three-dimensional shape of each of the plurality of workpieces W in the stocker 20.

ここで、本実施形態では、前述のように、1回目のスキャンが終了した後には、当該1回目のスキャンでの距離画像DP1を用いて、その後は、2回目以降の各スキャンが終了するごとに、最新のスキャンに基づく距離画像DPとその直前のスキャンに基づく距離画像DPとの合成による合成画像CPを用いて、検出部340により検出された三次元形状情報に基づいて、ロボット100が1つのワークWを移送するようになっている。従って、上記のようにロボット100が1つのワークWを移送した場合には、その直後に実行された最新のスキャンでの距離画像DPとの合成に用いられる、その直前のスキャンでの距離画像DPは、上記1つのワークWの移送が反映されていない(つまり、上記移送された1つのワークWが元の位置に残ったままの姿となっている)。このため、合成画像生成部336が、上記直前のスキャンでの距離画像DPを無条件にそのまま用いて、上記最新のスキャンでの距離画像DPと合成し、合成画像CPを生成すると、信頼性の低い内容を含んだままの合成画像CPとなり、好ましくない。   Here, in the present embodiment, as described above, after the first scan is finished, the distance image DP1 in the first scan is used, and thereafter each second and subsequent scans are finished. In addition, the robot 100 uses the synthesized image CP obtained by synthesizing the distance image DP based on the latest scan and the distance image DP based on the immediately preceding scan based on the three-dimensional shape information detected by the detection unit 340. One workpiece W is transferred. Therefore, when the robot 100 transfers one workpiece W as described above, the distance image DP in the immediately preceding scan used for the synthesis with the distance image DP in the latest scan executed immediately after that is used. Does not reflect the transfer of the single workpiece W (that is, the single transferred workpiece W remains in its original position). For this reason, when the composite image generation unit 336 generates the composite image CP by using the distance image DP in the previous scan unconditionally and combining it with the distance image DP in the latest scan, a reliable image is obtained. The composite image CP still contains low content, which is not preferable.

そこで本実施形態では、上記のようにロボット100が1つのワークWを移送した場合には、合成画像生成部336は、その直後に実行された最新のスキャンでの距離画像DPと、その直前のスキャンでの距離画像DPのうち上記移送された1つのワークWに対応する部分を除いた画像とを合成し、合成画像CPを生成する。すなわち、合成画像生成部336は、上記直前のスキャンでの距離画像DPのうち、上記移送された1つのワークWに対応する部分を除外する。そして、合成画像生成部336は、上記最新のスキャンでの距離画像DPのうち距離情報を含む部分と、除外処理後の上記直前のスキャンに基づく距離画像DPのうち距離情報を含む部分とを合成し、合成画像CPを生成する。   Therefore, in the present embodiment, when the robot 100 transfers one workpiece W as described above, the composite image generation unit 336 displays the distance image DP in the latest scan executed immediately thereafter and the immediately preceding distance image DP. A synthesized image CP is generated by synthesizing the distance image DP in the scan with the image excluding the portion corresponding to the transferred workpiece W. That is, the composite image generation unit 336 excludes a portion corresponding to the transferred one workpiece W from the distance image DP in the immediately preceding scan. Then, the composite image generation unit 336 synthesizes the portion including the distance information in the distance image DP in the latest scan and the portion including the distance information in the distance image DP based on the immediately preceding scan after the exclusion process. Then, a composite image CP is generated.

例えば、図15に示すように、N+1回目(例えば3回目)のスキャンが終了した後に、当該N+1回目のスキャンでの距離画像DPN1とその直前のN回目(例えば2回目)のスキャンでの距離画像DPNとの合成による合成画像CP(ここでは「合成画像CPN1」という)を用いて検出部340により検出された三次元形状情報に基づいて、ロボット100がある1つのワークW(ここでは「ワークWa」という)を移送した場合を考える。なお、図15に示す例では、説明の便宜上、N回目のスキャンの後で、かつN+1回目のスキャンの前に、ロボット100によるワークWの移送が行われなかったとしている。この場合には、N+1回目のスキャンでの距離画像DPN1のうち、上記移送されたワークWaに対応する部分が除外される。図15中では、当該除外処理後の距離画像DPN1(ここでは「距離画像DPN1′」という)のうちで、データが欠落した部分(除外されたワークWaに対応する部分)を符号Paで示している。そして、N+1回目の直後のN+2回目(例えば4回目)のスキャンでの距離画像DP(ここでは「距離画像DPN2」という)のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後のN+1回目のスキャンに基づく距離画像DPN1′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CPN2」という)が生成される。この合成画像CPN2には、除外処理後のN+1回目のスキャンに基づく距離画像DPN1′におけるデータが欠落した部分Paに起因してデータが欠落した部分Paaがあり、この部分Paaは、当該合成画像CPN2を用いて検出部340により実行される上記検出の対象外とされる。   For example, as shown in FIG. 15, after the N + 1th (for example, third) scan is completed, the distance image DPN1 in the N + 1th scan and the distance image in the Nth (for example, second) scan immediately before the N + 1th scan Based on the three-dimensional shape information detected by the detection unit 340 using the composite image CP (herein referred to as “composite image CPN1”) obtained by combining with the DPN, the robot 100 has one work W (here, “work Wa” ”) Is transferred. In the example shown in FIG. 15, for convenience of explanation, it is assumed that the work W is not transferred by the robot 100 after the Nth scan and before the N + 1th scan. In this case, a portion corresponding to the transferred work Wa is excluded from the distance image DPN1 in the (N + 1) th scan. In FIG. 15, in the distance image DPN1 after the exclusion process (herein referred to as “distance image DPN1 ′”), a portion where data is missing (a portion corresponding to the excluded workpiece Wa) is indicated by a symbol Pa. Yes. Then, portions p1, p3, p5, p7, p9, and p11 including distance information in the distance image DP (herein referred to as “distance image DPN2”) in the N + 2 (for example, fourth) scan immediately after the (N + 1) th scan. , P13, p15 and the distance images DPN1 ′ based on the (N + 1) th scan after the exclusion process are combined with the portions p2, p4, p6, p8, p10, p12, p14, p16 including the distance information. CP (herein referred to as “composite image CPN2”) is generated. The composite image CPN2 includes a part Paa in which data is lost due to a part Pa in which data is lost in the distance image DPN1 ′ based on the N + 1th scan after the exclusion process. The part Paa is a part of the composite image CPN2 Are excluded from the above detection performed by the detection unit 340.

またここで、上記直前のスキャンの後で、かつ上記最新のスキャンの前に、例えばロボット100によるワークWの移送が行われたときに移送されない他のワークWに配置ずれや荷崩れが生じた等の何らかの事情で、ワークWの配置状況に変化が生じた場合があり得る。このとき、上記ワークWの配置状況に変化が生じた部分は、比較的広範囲にわたって及んでいる可能性がある。この場合、最新のスキャンでの距離画像DPとの合成に用いられる、その直前のスキャンでの距離画像DPは、上記ワークWの配置状況の変化が反映されていない(つまり、上記ワークWの配置状況の変化が起きていない元の姿のままとなっている)。このため、合成画像生成部336が、上記ワークWの配置状況に変化が生じた部分について合成画像CPを生成すると、信頼性の低い内容を含んだままの合成画像CPとなり、好ましくない。   Here, after the last scan and before the latest scan, for example, when the workpiece W is transferred by the robot 100, misalignment or load collapse has occurred in another workpiece W that is not transferred. There may be a case where the arrangement state of the workpiece W has changed due to some reason. At this time, there is a possibility that the portion where the change of the arrangement state of the workpiece W has occurred is relatively wide. In this case, the distance image DP in the immediately preceding scan used for synthesis with the distance image DP in the latest scan does not reflect the change in the arrangement state of the workpiece W (that is, the arrangement of the workpiece W). The situation has not changed and it remains the same). For this reason, if the composite image generation unit 336 generates the composite image CP for a portion where the arrangement state of the workpiece W has changed, the composite image CP including the content with low reliability is not preferable.

そこで本実施形態では、上記ワークWの配置状況に変化が生じたと推定される場合、具体的には、上記最新のスキャンでの距離画像DPと、その直前のスキャンに基づいて生成された合成画像CPとの、対応する部位(又は当該部位の近傍部位。以下同様)におけるデータ内容の偏差が所定の閾値よりも大きかった場合には、合成画像生成部336は、最新のスキャンでの距離画像DPのうちデータ内容の偏差が閾値よりも大きかった部位を除いた画像と、その直前のスキャンでの距離画像DPのうちデータ内容の偏差が閾値よりも大きかった部位を除いた画像とを合成し、合成画像CPを生成する。すなわち、合成画像生成部336は、上記最新のスキャンでの距離画像DPのうち、データ内容の偏差が閾値よりも大きかった部位を除外すると共に、上記直前のスキャンでの距離画像DPについても、当該部位を除外する。そして、合成画像生成部336は、除外処理後の上記最新のスキャンに基づく距離画像DPのうち距離情報を含む部分と、除外処理後の上記直前のスキャンに基づく距離画像DPのうち距離情報を含む部分とを合成し、合成画像CPを生成する。なお、上記データ内容の偏差が閾値よりも大きかった部位が所定の範囲よりも大きかった場合には、除外処理を行わずに上記1回目のスキャンからやり直してもよい。   Therefore, in this embodiment, when it is estimated that a change has occurred in the arrangement state of the workpiece W, specifically, the distance image DP in the latest scan and a composite image generated based on the scan immediately before the distance image DP. When the deviation of the data content in the corresponding part (or the vicinity part of the part; the same applies hereinafter) with the CP is greater than a predetermined threshold, the composite image generation unit 336 displays the distance image DP in the latest scan. And the image excluding the portion where the deviation of the data content is larger than the threshold and the image excluding the portion where the deviation of the data content is larger than the threshold in the distance image DP in the immediately preceding scan, A composite image CP is generated. That is, the composite image generation unit 336 excludes a portion of the distance image DP in the latest scan that has a data content deviation larger than a threshold value, and the distance image DP in the immediately preceding scan also Exclude the site. Then, the composite image generation unit 336 includes the distance information in the portion including the distance information in the distance image DP based on the latest scan after the exclusion process and the distance image DP in the distance image DP based on the immediately preceding scan after the exclusion process. The part is combined with each other to generate a composite image CP. Note that if the portion where the deviation of the data content is larger than the threshold is larger than the predetermined range, the first scan may be performed again without performing the exclusion process.

例えば、図16に示すように、N+1回目(例えば3回目)のスキャンの後で、かつその直後のN+2回目(例えば4回目)のスキャンの前に、ある1つのワークW(ここでは「ワークWb」という)に配置ずれが生じてワークWの配置状況に変化が生じたため、N+2回目のスキャンでの距離画像DP(ここでは「距離画像DPN2」という)と、N+1回目のスキャンでの距離画像DP(ここでは「距離画像DPN1」という)及びその直前のN回目(例えば2回目)のスキャンでの距離画像DP(ここでは「距離画像DPN」という)の合成による合成画像CP(ここでは「合成画像CPN1」という)との、対応する部位Rbにおけるデータ内容の偏差が閾値よりも大きかった場合を考える。なお、図16に示す例では、説明の便宜上、N回目のスキャンの後で、かつN+1回目のスキャンの前に、ロボット100によるワークWの移送が行われなかったと共に、N+1回目のスキャンの後で、かつN+2回目のスキャンの前に、ロボット100によるワークWの移送が行われなかったとしている。この場合には、N+2回目のスキャンでの距離画像DPN2のうち、データ内容の偏差が閾値よりも大きかった部位Rbが除外されると共に、N+1回目のスキャンでの距離画像DPN1についても、当該部位Rbが除外される。図16中では、当該除外処理後の距離画像DPN1(ここでは「距離画像DPN1′」という)及び距離画像DPN2(ここでは「距離画像DPN2′」という)のうちで、データが欠落した部分(除外された部位Rbに対応する部分)を符号Pbで示している。そして、除外処理後のN+2回目のスキャンに基づく距離画像DPN2′のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後のN+1回目のスキャンに基づく距離画像DPN1′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CPN2」という)が生成される。この合成画像CPN2には、除外処理後のN+2回目及びN+1回目のスキャンに基づく距離画像DPN2′,DPN1′におけるデータが欠落した部分Pb,Pbに起因してデータが欠落した部分Pbがあり、この部位Pbは、当該合成画像CPを用いて検出部340により実行される上記検出の対象外とされる。   For example, as shown in FIG. 16, after a (N + 1) th (for example, the third) scan, and immediately after the (N + 2) th (for example, the fourth) scan, a certain work W (here, “work Wb”). )) And a change in the arrangement state of the work W has occurred, so that the distance image DP in the N + 2th scan (herein referred to as “distance image DPN2”) and the distance image DP in the N + 1th scan A composite image CP (here “composite image DPN1”) and a composite image CP (here “composite image DPN1”) and a distance image DP (herein referred to as “distance image DPN”) in the Nth scan (for example, the second scan) just before that. Let us consider a case where the deviation of the data content in the corresponding part Rb is larger than the threshold value (referred to as “CPN1”). In the example shown in FIG. 16, for convenience of explanation, the work W is not transferred by the robot 100 after the Nth scan and before the N + 1th scan, and after the N + 1th scan. In addition, the work W is not transferred by the robot 100 before the N + 2th scan. In this case, the part Rb in which the deviation of the data content is larger than the threshold is excluded from the distance image DPN2 in the N + 2th scan, and the part Rb in the distance image DPN1 in the N + 1th scan is also excluded. Is excluded. In FIG. 16, in the distance image DPN1 (herein referred to as “distance image DPN1 ′”) and the distance image DPN2 (herein referred to as “distance image DPN2 ′”) after the exclusion processing, a portion (exclusion) where data is missing. The portion corresponding to the portion Rb made is indicated by the symbol Pb. In the distance image DPN2 ′ based on the N + 2th scan after the exclusion process, the portions p1, p3, p5, p7, p9, p11, p13, and p15 including the distance information and the N + 1th scan after the exclusion process are included. Of the based distance image DPN1 ′, the parts p2, p4, p6, p8, p10, p12, p14, and p16 including distance information are combined to generate a combined image CP (herein referred to as “combined image CPN2”). . The composite image CPN2 includes a portion Pb in which data is lost due to portions Pb and Pb in which data is missing in the distance images DPN2 ′ and DPN1 ′ based on the N + 2th and N + 1th scans after the exclusion process. The part Pb is excluded from the above detection performed by the detection unit 340 using the composite image CP.

次に、図17〜図19を参照しつつ、各スキャンが終了するごとに合成画像生成部336により生成される合成画像CPの一例を説明する。   Next, an example of the composite image CP generated by the composite image generation unit 336 each time each scan ends will be described with reference to FIGS.

図17〜図19に示す例では、1回目のスキャンが終了した後に、当該1回目のスキャンでの距離画像DP1を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW1」という)が移送されている。この場合、2回目のスキャンが終了した後に、1回目のスキャンでの距離画像DP1のうち、上記移送されたワークW1に対応する部分が除外される。図17中では、当該除外処理後の距離画像DP1(ここでは「距離画像DP1′」という)のうちで、データが欠落した部分(除外されたワークW1に対応する部分)を符号P1で示している。そして、2回目のスキャンでの距離画像DP2のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後の1回目のスキャンに基づく距離画像DP1′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CP2」という)が生成される。この合成画像CP2には、除外処理後の1回目のスキャンに基づく距離画像DP1′におけるデータが欠落した部分P1に起因してデータが欠落した部分P11があり、この部分P11は、当該合成画像CP2を用いて実行される上記検出の対象外とされる。   In the example shown in FIGS. 17 to 19, after the first scan is completed, a certain work is performed by the robot 100 based on the three-dimensional shape information detected by using the distance image DP1 in the first scan. W (here called “work W1”) is being transferred. In this case, after the second scan is completed, a portion corresponding to the transferred work W1 is excluded from the distance image DP1 obtained in the first scan. In FIG. 17, in the distance image DP1 after the exclusion process (herein referred to as “distance image DP1 ′”), a portion where data is missing (a portion corresponding to the excluded workpiece W1) is indicated by a symbol P1. Yes. Of the distance image DP2 in the second scan, portions p1, p3, p5, p7, p9, p11, p13, and p15 including distance information, and the distance image DP1 ′ based on the first scan after the exclusion process Of these, the portions p2, p4, p6, p8, p10, p12, p14, and p16 including the distance information are combined to generate a combined image CP (herein referred to as “combined image CP2”). The composite image CP2 includes a portion P11 in which data is lost due to a portion P1 in which data is lost in the distance image DP1 ′ based on the first scan after the exclusion process, and the portion P11 includes the composite image CP2 It is excluded from the above-mentioned detection performed by using.

その後、上記2回目のスキャンに基づいて生成された合成画像CP2を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW2」という)が移送されている。この場合、3回目のスキャンが終了した後に、2回目のスキャンでの距離画像DP2のうち、上記移送されたワークW2に対応する部分が除外される。図17中では、当該除外処理後の距離画像DP2(ここでは「距離画像DP2′」という)のうちで、データが欠落した部分(除外されたワークW2に対応する部分)を符号P2で示している。そして、3回目のスキャンでの距離画像DP3のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16と、除外処理後の2回目のスキャンに基づく距離画像DP2′のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15とが合成され、合成画像CP(ここでは「合成画像CP3」という)が生成される。この合成画像CP3には、除外処理後の2回目のスキャンに基づく距離画像DP2′におけるデータが欠落した部分P2に起因してデータが欠落した部分P22があり、この部分P22は、当該合成画像CP3を用いて実行される上記検出の対象外とされる。なお、この合成画像CP3では、上記合成画像CP2においてデータが欠落していた部分P11に、データが復帰している。   Thereafter, based on the three-dimensional shape information detected using the composite image CP2 generated based on the second scan, a certain workpiece W (herein referred to as “work W2”) is transferred by the robot 100. ing. In this case, after the third scan is completed, a portion corresponding to the transferred work W2 is excluded from the distance image DP2 in the second scan. In FIG. 17, in the distance image DP2 after the exclusion process (herein, referred to as “distance image DP2 ′”), a portion where data is missing (a portion corresponding to the excluded workpiece W2) is indicated by a symbol P2. Yes. Then, in the distance image DP3 in the third scan, the parts p2, p4, p6, p8, p10, p12, p14, p16 including the distance information, and the distance image DP2 ′ based on the second scan after the exclusion process Of these, the portions p1, p3, p5, p7, p9, p11, p13, and p15 including the distance information are combined to generate a combined image CP (herein referred to as “combined image CP3”). The composite image CP3 includes a portion P22 in which data is lost due to a portion P2 in which data is lost in the distance image DP2 ′ based on the second scan after the exclusion process, and the portion P22 includes the composite image CP3. It is excluded from the above-mentioned detection performed by using. In the composite image CP3, the data is restored to the portion P11 where the data is missing in the composite image CP2.

そして、上記3回目のスキャンに基づいて生成された合成画像CP3を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW3」という)が移送されている。また、上記3回目のスキャンの後で、かつ4回目のスキャンの前に、ある1つのワークW(ここでは「ワークW0」という)に配置ずれが生じてワークWの配置状況に変化が生じたため、4回目のスキャンでの距離画像DP4と、上記3回目のスキャンに基づいて生成された合成画像CP3との、対応する部位R0におけるデータ内容の偏差が閾値よりも大きくなっている。この場合、4回目のスキャンが終了した後に、当該4回目のスキャンでの距離画像DP4のうち、データ内容の偏差が閾値よりも大きかった部位R0が除去される。また、3回目のスキャンでの距離画像DP3のうち、上記移送されたワークW3に対応する部分と、データ内容の偏差が閾値よりも大きかった部位R0が除外される。図18中では、当該除外処理後の距離画像DP4(ここでは「距離画像DP4′」という)及び距離画像DP3(ここでは「距離画像DP3′」という)のうちで、データが欠落した部分(除外された部位R0に対応する部分)を符号P0で示すと共に、データが欠落した部分(除外されたワークW3に対応する部分)を符号P3で示す。そして、除外処理後の4回目のスキャンに基づく距離画像DP4′のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後の3回目のスキャンでの距離画像DP3′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CP4」という)が生成される。この合成画像CP4には、除外処理後の4回目及び3回目のスキャンに基づく距離画像DP4′,DP3′におけるデータが欠落した部分P0,P0に起因してデータが欠落した部分P0があると共に、除外処理後の3回目のスキャンに基づく距離画像DP3′におけるデータが欠落した部分P3に起因してデータが欠落した部分P33があり、これら部分P0,P33は、当該合成画像CP4を用いて実行される上記検出の対象外とされる。なお、この合成画像CP4では、上記合成画像CP3においてデータが欠落していた部分P22に、データが復帰している。   Then, based on the three-dimensional shape information detected using the composite image CP3 generated based on the third scan, a certain work W (herein referred to as “work W3”) is transferred by the robot 100. ing. In addition, after the third scan and before the fourth scan, an arrangement shift occurs in a certain work W (here, referred to as “work W0”), and the arrangement state of the work W changes. The deviation of the data contents in the corresponding part R0 between the distance image DP4 in the fourth scan and the composite image CP3 generated based on the third scan is larger than the threshold value. In this case, after the fourth scan is completed, a portion R0 in which the data content deviation is larger than the threshold is removed from the distance image DP4 in the fourth scan. In addition, the portion corresponding to the transferred workpiece W3 and the portion R0 where the data content deviation is larger than the threshold are excluded from the distance image DP3 in the third scan. In FIG. 18, a portion (exclusion) in which data is missing in the distance image DP4 (herein referred to as “distance image DP4 ′”) and the distance image DP3 (herein referred to as “distance image DP3 ′”) after the exclusion process. The portion corresponding to the portion R0 made) is indicated by the symbol P0, and the portion where the data is missing (the portion corresponding to the excluded workpiece W3) is indicated by the symbol P3. In the distance image DP4 ′ based on the fourth scan after the exclusion process, the portions p1, p3, p5, p7, p9, p11, p13, and p15 including the distance information and the third scan after the exclusion process are performed. Of the distance image DP3 ′, the portions p2, p4, p6, p8, p10, p12, p14, and p16 including the distance information are synthesized to generate a synthesized image CP (herein, “synthesized image CP4”). . The composite image CP4 includes a portion P0 in which data is lost due to portions P0 and P0 in which data is lost in the distance images DP4 ′ and DP3 ′ based on the fourth and third scans after the exclusion process. There is a portion P33 in which data is lost due to a portion P3 in which data is lost in the distance image DP3 ′ based on the third scan after the exclusion process, and these portions P0 and P33 are executed using the composite image CP4. It is excluded from the above detection target. In the composite image CP4, the data is restored to the portion P22 where the data is missing in the composite image CP3.

その後、上記4回目のスキャンに基づいて生成された合成画像CP4を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW4」という)が移送されている。この場合、5回目のスキャンが終了した後に、除外処理後の4回目のスキャンに基づく距離画像DP4′のうち、上記移送されたワークW4に対応する部分が除外される。図18中では、当該除外処理後の距離画像DP4′(ここでは「距離画像DP4″」という)のうちで、データが欠落した部分(除外されたワークW4に対応する部分)を符号P4で示している。そして、5回目のスキャンでの距離画像DP5のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16と、除外処理後の4回目のスキャンに基づく距離画像DP4″のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15とが合成され、合成画像CP(ここでは「合成画像CP5」という)が生成される。この合成画像CP5には、除外処理後の4回目のスキャンに基づく距離画像DP4″におけるデータが欠落した部分P0,P4に起因してデータが欠落した部分P00,P44があり、これら部分P00,P44は、当該合成画像CP5を用いて実行される上記検出の対象外とされる。なお、この合成画像CP5では、上記合成画像CP4においてデータが欠落していた部分P33に、データが復帰すると共に、上記合成画像CP4においてデータが欠落していた部分P0のうち、除外処理後の3回目のスキャンに基づく距離画像DP3″におけるデータが欠落した部分P0に起因する部分にデータが復帰して上記部分P44になっている。   Thereafter, based on the three-dimensional shape information detected using the composite image CP4 generated based on the fourth scan, a certain workpiece W (herein referred to as “work W4”) is transferred by the robot 100. ing. In this case, after the fifth scan is completed, a portion corresponding to the transferred workpiece W4 is excluded from the distance image DP4 ′ based on the fourth scan after the exclusion process. In FIG. 18, in the distance image DP4 ′ after the exclusion process (herein referred to as “distance image DP4 ″”), a portion where data is missing (a portion corresponding to the excluded workpiece W4) is indicated by a symbol P4. ing. Of the distance image DP5 in the fifth scan, portions p2, p4, p6, p8, p10, p12, p14, and p16 including distance information, and a distance image DP4 ″ based on the fourth scan after the exclusion process. Of these, the portions p1, p3, p5, p7, p9, p11, p13, and p15 including the distance information are combined to generate a combined image CP (herein referred to as “synthesized image CP5”). The composite image CP5 includes portions P00 and P44 in which data is lost due to the portions P0 and P4 in which data is lost in the distance image DP4 ″ based on the fourth scan after the exclusion process, and these portions P00 and P44. Is excluded from the above-described detection performed using the composite image CP5 In the composite image CP5, the data is restored to the portion P33 where the data is missing in the composite image CP4. Of the portion P0 in which data is missing in the composite image CP4, the data returns to the portion resulting from the portion P0 in which the data is missing in the distance image DP3 ″ based on the third scan after the exclusion process, and the portion P44. It has become.

そして、上記5回目のスキャンに基づいて生成された合成画像CP5を用いて検出された三次元形状情報に基づいて、ロボット100によりある1つのワークW(ここでは「ワークW5」という)が移送されている。この場合、6回目のスキャンが終了した後に、5回目のスキャンでの距離画像DP5のうち、上記移送されたワークW5に対応する部分が除外される。図19中では、当該除外処理後の距離画像DP5(ここでは「距離画像DP5′」という)のうちで、データが欠落した部分(除外されたワークW5に対応する部分)を符号P5で示している。そして、6回目のスキャンでの距離画像DP6のうち、距離情報を含む部分p1,p3,p5,p7,p9,p11,p13,p15と、除外処理後の5回目のスキャンに基づく距離画像DP5′のうち、距離情報を含む部分p2,p4,p6,p8,p10,p12,p14,p16とが合成され、合成画像CP(ここでは「合成画像CP6」という)が生成される。この合成画像CP6には、除外処理後の5回目のスキャンに基づく距離画像DP5′におけるデータが欠落した部分P5に起因してデータが欠落した部分P55があり、この部分P55は、当該合成画像CP6を用いて実行される上記検出の対象外とされる。なお、この合成画像CP6では、上記合成画像CP5においてデータが欠落していた部分P00,P44に、データが復帰している。   Then, on the basis of the three-dimensional shape information detected using the composite image CP5 generated based on the fifth scan, one work W (herein referred to as “work W5”) is transferred by the robot 100. ing. In this case, after the sixth scan is completed, a portion corresponding to the transferred work W5 is excluded from the distance image DP5 in the fifth scan. In FIG. 19, in the distance image DP5 after the exclusion process (herein referred to as “distance image DP5 ′”), a portion where data is missing (a portion corresponding to the excluded workpiece W5) is indicated by a symbol P5. Yes. Then, among the distance image DP6 in the sixth scan, the parts p1, p3, p5, p7, p9, p11, p13, p15 including the distance information, and the distance image DP5 ′ based on the fifth scan after the exclusion process Of these, the portions p2, p4, p6, p8, p10, p12, p14, and p16 including the distance information are combined to generate a combined image CP (herein referred to as “synthesized image CP6”). The composite image CP6 includes a portion P55 in which data is lost due to a portion P5 in which data is lost in the distance image DP5 ′ based on the fifth scan after the exclusion process, and this portion P55 includes the composite image CP6. It is excluded from the above-mentioned detection performed by using. In the composite image CP6, the data is restored to the portions P00 and P44 where the data is missing in the composite image CP5.

次に、図20を参照しつつ、センサユニット300のセンサコントローラ330が実行する物体検出方法の制御手順の一例を説明する。   Next, an example of the control procedure of the object detection method executed by the sensor controller 330 of the sensor unit 300 will be described with reference to FIG.

図20において、このフローに示す処理は、例えばセンサユニット300の電源がオンされることにより開始される。   In FIG. 20, the process shown in this flow is started when, for example, the sensor unit 300 is turned on.

まず、ステップS10で、センサコントローラ330は、スキャン回数をカウントするための変数Cの値を1にリセットする。   First, in step S10, the sensor controller 330 resets the value of the variable C for counting the number of scans to 1.

その後、ステップS20に移り、センサコントローラ330は、光源制御部341により、レーザ光源321を制御し、レーザスリット光Lを照射させる。   Thereafter, the process proceeds to step S <b> 20, and the sensor controller 330 controls the laser light source 321 by the light source control unit 341 to irradiate the laser slit light L.

そして、ステップS30で、センサコントローラ330は、モータ制御部342により、角度検出器324から入力した回転ミラー322の回転角度情報に基づいて、モータ323を制御し、回転ミラー322を回転させる。これにより、回転ミラー322が受光して反射させるレーザスリット光Lの、全投影領域TT内のワークW等上への投影部位を、走査方向Aへ移動させる。   In step S <b> 30, the sensor controller 330 controls the motor 323 based on the rotation angle information of the rotary mirror 322 input from the angle detector 324 by the motor control unit 342 to rotate the rotary mirror 322. Thereby, the projection part of the laser slit light L received and reflected by the rotating mirror 322 onto the workpiece W or the like in the entire projection area TT is moved in the scanning direction A.

その後、ステップS40に移り、センサコントローラ330は、この時点での変数Cの値を検出することにより、何回目のスキャンであるかを検出する。この時点での変数Cの値が1である場合、つまり今回のスキャンが1回目のスキャンである場合には、ステップS50に移る。   Thereafter, the process proceeds to step S40, and the sensor controller 330 detects the number of scans by detecting the value of the variable C at this time. If the value of the variable C at this time is 1, that is, if the current scan is the first scan, the process proceeds to step S50.

ステップS50では、センサコントローラ330は、連携制御部335により、カメラ310を制御し、所望のフレームレート(撮像タイミング)で、上記ステップS20での制御により移動する投影部位を含む全投影領域TT内のワークW等の外観を16回連続撮像させ、対応する16個の撮像フレームF1〜F16を出力させる。すなわち、このステップS50での連携制御部335の制御により、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T2となるタイミング、投影領域T3となるタイミング、・・・、投影領域T14となるタイミング、投影領域T15となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、これら16回の連続撮像に対応する16個の撮像フレームF1〜F16を出力する。   In step S50, the sensor controller 330 controls the camera 310 by the cooperation control unit 335, and in the entire projection area TT including the projection part that moves by the control in step S20 at a desired frame rate (imaging timing). The external appearance of the workpiece W or the like is continuously imaged 16 times, and the corresponding 16 imaging frames F1 to F16 are output. In other words, under the control of the cooperation control unit 335 in step S50, the camera 310 becomes the projection region T1, the projection region T2, the projection region T2, the projection region T2, and the projection region T3. At each of the timing,..., The timing to become the projection area T14, the timing to become the projection area T15, and the timing to become the projection area T16, the external appearance of the workpiece W and the like in the entire projection area TT including the projection part is imaged. Sixteen imaging frames F1 to F16 corresponding to these 16 consecutive imaging operations are output.

そして、ステップS60で、センサコントローラ330は、画像取得部331により、上記ステップS50でカメラ310から出力された16個の撮像フレームF1〜F16を取得する。取得された16個の撮像フレームF1〜F16は、画像記憶部332に記憶される。   In step S60, the sensor controller 330 uses the image acquisition unit 331 to acquire the 16 imaging frames F1 to F16 output from the camera 310 in step S50. The acquired 16 imaging frames F1 to F16 are stored in the image storage unit 332.

その後、ステップS70に移り、センサコントローラ330は、連携制御部335により、距離画像生成部333を制御し、画像記憶部332に記憶された当該1回目のスキャンでの16個の撮像フレームF1〜F16を用いて、全投影領域TTに含まれる16個の投影領域T1〜T16の全てに対応した1つの距離画像DP1を生成させる。なお、1回目のスキャン時に距離画像DP1を生成する手法は、前述した通りである。生成された距離画像DP1は、距離画像記憶部334に記憶されると共に、検出部340へ出力される。   Thereafter, the process proceeds to step S70, and the sensor controller 330 controls the distance image generation unit 333 by the cooperation control unit 335, and the 16 imaging frames F1 to F16 in the first scan stored in the image storage unit 332 are stored. Is used to generate one distance image DP1 corresponding to all of the 16 projection areas T1 to T16 included in the entire projection area TT. The method for generating the distance image DP1 during the first scan is as described above. The generated distance image DP1 is stored in the distance image storage unit 334 and is output to the detection unit 340.

そして、ステップS80で、センサコントローラ330は、検出部340により、上記ステップS70で距離画像生成部333から出力された距離画像DP1を取得する。そして、センサコントローラ330は、検出部340により、上記取得した距離画像DP1を用いて、ストッカ20内の複数のワークWそれぞれの三次元形状を検出する。検出部340による検出結果を表す検出信号は、ロボットコントローラ200へ出力される。これにより、ロボットコントローラ200は、このステップS80で検出部340から出力された検出信号を取得し、その取得した検出信号で表される三次元形状情報に基づいて、1つのワークWを保持して移送するように、ロボット100を動作させる。その後、後述のステップS170に移る。   In step S80, the sensor controller 330 uses the detection unit 340 to acquire the distance image DP1 output from the distance image generation unit 333 in step S70. Then, the sensor controller 330 uses the detection unit 340 to detect the three-dimensional shape of each of the plurality of workpieces W in the stocker 20 using the acquired distance image DP1. A detection signal indicating a detection result by the detection unit 340 is output to the robot controller 200. As a result, the robot controller 200 acquires the detection signal output from the detection unit 340 in step S80 and holds one workpiece W based on the three-dimensional shape information represented by the acquired detection signal. The robot 100 is operated so as to be transferred. Thereafter, the process proceeds to step S170 described later.

一方、ステップS40において、この時点での変数Cの値が前述のNである場合、つまり今回のスキャンがN回目のスキャンである場合には、ステップS90に移る。   On the other hand, in step S40, if the value of the variable C at this time is N as described above, that is, if the current scan is the Nth scan, the process proceeds to step S90.

ステップS90では、センサコントローラ330は、連携制御部335により、カメラ310を制御し、所望のフレームレート(撮像タイミング)で、上記ステップS20での制御により移動する投影部位を含む全投影領域TT内のワークW等の外観を8回連続撮像させ、対応する8個の撮像フレームF1〜F8を出力させる。すなわち、このステップS90での連携制御部335の制御により、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T3となるタイミング、投影領域T5となるタイミング、投影領域T7となるタイミング、投影領域T9となるタイミング、投影領域T11となるタイミング、投影領域T13となるタイミング、投影領域T15となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、これら8回の連続撮像に対応する8個の撮像フレームF1〜F8を出力する。   In step S90, the sensor controller 330 controls the camera 310 by the cooperation control unit 335, and in the entire projection area TT including the projection part that moves by the control in step S20 at a desired frame rate (imaging timing). The appearance of the workpiece W or the like is continuously imaged eight times, and the corresponding eight imaging frames F1 to F8 are output. That is, under the control of the cooperation control unit 335 in step S90, the camera 310 becomes the projection region T1 when the projected portion of the moving laser slit light L becomes the projection region T1, the timing when the projection region T3, and the projection region T5. Within the entire projection area TT including the projection part, the timing, the timing to become the projection area T7, the timing to become the projection area T9, the timing to become the projection area T11, the timing to become the projection area T13, and the timing to become the projection area T15 The external appearance of the workpiece W or the like is imaged, and eight imaging frames F1 to F8 corresponding to these eight continuous imaging are output.

その後、ステップS100に移り、センサコントローラ330は、画像取得部331により、上記ステップS90でカメラ310から出力された8個の撮像フレームF1〜F8を取得する。取得された8個の撮像フレームF1〜F8は、画像記憶部332に記憶される。   Thereafter, the process proceeds to step S100, and the sensor controller 330 acquires the eight imaging frames F1 to F8 output from the camera 310 in step S90 by the image acquisition unit 331. The acquired eight imaging frames F1 to F8 are stored in the image storage unit 332.

そして、ステップS110で、センサコントローラ330は、連携制御部335により、距離画像生成部333を制御し、画像記憶部332に記憶された当該N回目のスキャンでの8個の撮像フレームF1〜F8を用いて、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、上記8個の投影領域T1,T3,T5,T7,T9,T11,T13,T15に対応した1つの距離画像DPNを生成させる。なお、N回目のスキャン時に距離画像DPNを生成する手法は、前述した通りである。生成された距離画像DPNは、距離画像記憶部334に記憶される。その後、後述のステップS150に移る。   In step S <b> 110, the sensor controller 330 controls the distance image generation unit 333 by the cooperation control unit 335, and stores the eight imaging frames F <b> 1 to F <b> 8 in the Nth scan stored in the image storage unit 332. The one distance image DPN corresponding to the eight projection areas T1, T3, T5, T7, T9, T11, T13, and T15 out of the 16 projection areas T1 to T16 included in the total projection area TT. Is generated. The method for generating the distance image DPN at the N-th scan is as described above. The generated distance image DPN is stored in the distance image storage unit 334. Thereafter, the process proceeds to step S150 described later.

一方、ステップS40において、この時点での変数Cの値が前述のN+1である場合、つまり今回のスキャンがN+1回目のスキャンである場合には、ステップS120に移る。   On the other hand, in step S40, if the value of the variable C at this time is N + 1 described above, that is, if the current scan is the N + 1th scan, the process proceeds to step S120.

ステップS120では、センサコントローラ330は、連携制御部335により、カメラ310を制御し、所望のフレームレート(撮像タイミング)で、上記ステップS20での制御により移動する投影部位を含む全投影領域TT内のワークW等の外観を8回連続撮像させ、対応する8個の撮像フレームF1〜F8を出力させる。すなわち、このステップS120での連携制御部335の制御により、カメラ310は、上記移動するレーザスリット光Lの投影部位が、投影領域T2となるタイミング、投影領域T4となるタイミング、投影領域T6となるタイミング、投影領域T8となるタイミング、投影領域T10となるタイミング、投影領域T12となるタイミング、投影領域T14となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、これら8回の連続撮像に対応する8個の撮像フレームF1〜F8を出力する。   In step S120, the sensor controller 330 controls the camera 310 by the cooperation control unit 335, and in the entire projection area TT including the projection part that moves by the control in step S20 at a desired frame rate (imaging timing). The appearance of the workpiece W or the like is continuously imaged eight times, and the corresponding eight imaging frames F1 to F8 are output. In other words, under the control of the cooperation control unit 335 in step S120, the camera 310 becomes the projection region T2, the projection region T4, the projection region T4, the projection region T4, and the projection region T6. Within the entire projection area TT including the projection part, the timing, the timing to become the projection area T8, the timing to become the projection area T10, the timing to become the projection area T12, the timing to become the projection area T14, and the timing to become the projection area T16 The external appearance of the workpiece W or the like is imaged, and eight imaging frames F1 to F8 corresponding to these eight continuous imaging are output.

その後、ステップS130に移り、センサコントローラ330は、画像取得部331により、上記ステップS120でカメラ310から出力された8個の撮像フレームF1〜F8を取得する。取得された8個の撮像フレームF1〜F8は、画像記憶部332に記憶される。   Thereafter, the process proceeds to step S130, and the sensor controller 330 acquires the eight imaging frames F1 to F8 output from the camera 310 in step S120 by the image acquisition unit 331. The acquired eight imaging frames F1 to F8 are stored in the image storage unit 332.

そして、ステップS140で、センサコントローラ330は、連携制御部335により、距離画像生成部333を制御し、画像記憶部332に記憶された当該N+1回目のスキャンでの8個の撮像フレームF1〜F8を用いて、全投影領域TTに含まれる16個の投影領域T1〜T16のうち、上記8個の投影領域T2,T4,T6,T8,T10,T12,T14,T16に対応した1つの距離画像DPN1を生成させる。なお、N+1回目のスキャン時に距離画像DPN1を生成する手法は、前述した通りである。生成された距離画像DPN1は、距離画像記憶部334に記憶される。   In step S <b> 140, the sensor controller 330 controls the distance image generation unit 333 by the cooperation control unit 335, and stores the eight imaging frames F <b> 1 to F <b> 8 in the N + 1th scan stored in the image storage unit 332. The one distance image DPN1 corresponding to the eight projection areas T2, T4, T6, T8, T10, T12, T14, and T16 out of the 16 projection areas T1 to T16 included in the total projection area TT. Is generated. Note that the method of generating the distance image DPN1 during the N + 1th scan is as described above. The generated distance image DPN1 is stored in the distance image storage unit 334.

その後、ステップS150に移り、センサコントローラ330は、合成画像生成部336により、距離画像記憶部334に記憶された、この時点での変数Cの値に対応するスキャン(最新のスキャン)に基づく距離画像DPと、その直前のスキャンに基づく距離画像DPとを合成し、合成画像CPを生成する。なお、合成画像CPを生成する手法は、前述した通りである。生成された合成画像CPは、合成画像記憶部337に記憶されると共に、検出部340へ出力される。   Thereafter, the process proceeds to step S150, where the sensor controller 330 is a distance image based on a scan (latest scan) corresponding to the value of the variable C at this time stored in the distance image storage unit 334 by the composite image generation unit 336. DP and the distance image DP based on the immediately preceding scan are combined to generate a combined image CP. The method for generating the composite image CP is as described above. The generated composite image CP is stored in the composite image storage unit 337 and is output to the detection unit 340.

そして、ステップS160で、センサコントローラ330は、検出部340により、上記ステップS150で合成画像生成部336から出力された合成画像CPを取得する。そして、センサコントローラ330は、検出部340により、上記取得した合成画像CPを用いて、ストッカ20内の複数のワークWそれぞれの三次元形状を検出する。検出部340による検出結果を表す検出信号は、ロボットコントローラ200へ出力される。これにより、ロボットコントローラ200は、このステップS160で検出部340から出力された検出信号を取得し、その取得した検出信号で表される三次元形状情報に基づいて、1つのワークWを保持して移送するように、ロボット100を動作させる。   In step S160, the sensor controller 330 acquires the composite image CP output from the composite image generation unit 336 in step S150 by the detection unit 340. Then, the sensor controller 330 uses the detection unit 340 to detect the three-dimensional shape of each of the plurality of workpieces W in the stocker 20 using the acquired composite image CP. A detection signal indicating a detection result by the detection unit 340 is output to the robot controller 200. Thereby, the robot controller 200 acquires the detection signal output from the detection unit 340 in step S160, and holds one workpiece W based on the three-dimensional shape information represented by the acquired detection signal. The robot 100 is operated so as to be transferred.

その後、ステップS170に移り、センサコントローラ330は、変数Cの値に1を加えた後、上記ステップS20に戻り同様の手順を繰り返す。   Thereafter, the process proceeds to step S170, and the sensor controller 330 adds 1 to the value of the variable C, and then returns to step S20 to repeat the same procedure.

なお、このフローに示す処理は、例えばセンサユニット300の電源がオフにされることにより終了される。   Note that the processing shown in this flow is terminated when, for example, the power of the sensor unit 300 is turned off.

以上説明したように、本実施形態のセンサユニット300では、光切断法によりワークWの検出が行われる。レーザ光源321から照射されたレーザスリット光LがワークW等に投影され、そのレーザスリット光Lの投影部位を含むワークW等の外観が、カメラ310により撮像される。このとき、回転ミラー322を回転させることにより、レーザスリット光LのワークW等への投影部位が走査方向Aへ移動される。この移動時に、所望のフレームレートでカメラ310が連続撮像を行うことで、刻々と移動していく投影部位の挙動をそれぞれ含む複数の撮像フレームFがカメラ310から出力される。これら複数の撮像フレームFを用いて、距離画像生成部333が、ワークW等の1つの距離画像DPを生成する。これにより、ワークWの三次元形状を検出することができる。   As described above, in the sensor unit 300 of the present embodiment, the workpiece W is detected by the light cutting method. The laser slit light L emitted from the laser light source 321 is projected onto the workpiece W or the like, and the appearance of the workpiece W or the like including the projected portion of the laser slit light L is imaged by the camera 310. At this time, the projection part of the laser slit light L onto the workpiece W or the like is moved in the scanning direction A by rotating the rotary mirror 322. During this movement, the camera 310 continuously captures images at a desired frame rate, so that a plurality of imaging frames F each including the behavior of the projected part that moves every moment are output from the camera 310. Using the plurality of imaging frames F, the distance image generation unit 333 generates one distance image DP such as the workpiece W. Thereby, the three-dimensional shape of the workpiece | work W is detectable.

このような通常の光切断による手法では、上記のようにワークW等上においてレーザスリット光Lの投影部位を走査方向Aに移動させて撮像を行うとき、ワークW等の反走査方向側の端部で投影部位が生じてから当該投影部位が走査方向Aに順次移動しさらに投影部位が走査方向A側の端部に至るまでの間(言い換えれば、ワークW等上の走査方向Aに沿うほぼ全域にわたる間)、まんべんなく撮像を行わなければならない。この結果、上記連続撮像を行うために比較的長い時間を要し、検出処理の効率化が難しい。   In such a normal light cutting method, when imaging is performed by moving the projection part of the laser slit light L on the workpiece W or the like in the scanning direction A as described above, the end of the workpiece W or the like on the side opposite to the scanning direction is used. Between the time when the projected portion is generated in the portion and the projected portion is sequentially moved in the scanning direction A and further until the projected portion reaches the end on the scanning direction A side (in other words, substantially along the scanning direction A on the workpiece W or the like). The image must be taken evenly throughout the entire area). As a result, it takes a relatively long time to perform the continuous imaging, and it is difficult to improve the efficiency of the detection process.

そこで本実施形態では、上記のようにワークW等上を走査方向Aへ順次移動する1回のスキャンでの複数の撮像フレームFを用いてワークWの三次元形状を検出するのではなく、複数回のスキャンそれぞれにおける複数の撮像フレームFを互いに合成した画像を用いて、ワークWの三次元形状を検出する。すなわち、(時間的に互いに異なる)複数回のスキャンに基づいて上記距離画像生成部333がそれぞれ生成した複数の距離画像DPを、合成画像生成部336が合成して合成画像CPが生成される。そして、この合成画像CPによりワークWの三次元形状が検出される。   Therefore, in the present embodiment, the three-dimensional shape of the workpiece W is not detected using the plurality of imaging frames F in one scan that sequentially moves in the scanning direction A on the workpiece W or the like as described above. The three-dimensional shape of the workpiece W is detected using an image obtained by combining a plurality of imaging frames F in each of the scans. That is, the composite image generation unit 336 generates a composite image CP by combining the plurality of distance images DP generated by the distance image generation unit 333 based on a plurality of scans (different from each other in time). Then, the three-dimensional shape of the workpiece W is detected from the composite image CP.

上記のように複数回のスキャンでの画像を合成する手法とすることにより、最新のスキャンにおける撮像フレームF以外は既に実行済みのスキャンにおける古い撮像フレームFを流用することで、ワークWの形状検出の際に撮像のために必要な時間を、最新の撮像フレームFを得るための1回のスキャン分の時間とすることができる。この結果、従来手法に比べて検出処理の大幅な短縮化を図り、処理効率の向上を図ることができる。あるいは、従来手法と同等の時間をかけてもよい場合には、1回のスキャンにおいて許容できる時間を延ばすことができるので、比較的撮像速度が遅いカメラ310を用いることができる。この結果、従来手法よりもコストダウンを図ることができる。あるいは、従来手法と同等の時間をかけつつ撮像速度も低下させなくてよい場合には、上記複数回のスキャンの個数倍に、分解能を増大させることもできる。   As described above, by adopting a technique for compositing images from a plurality of scans, the shape of the workpiece W can be detected by using the old imaging frame F in the already executed scan other than the imaging frame F in the latest scan. At this time, the time required for imaging can be set as a time for one scan for obtaining the latest imaging frame F. As a result, the detection process can be greatly shortened compared to the conventional method, and the processing efficiency can be improved. Alternatively, when it is possible to spend the same time as the conventional method, it is possible to extend an allowable time in one scan, and thus it is possible to use the camera 310 having a relatively low imaging speed. As a result, the cost can be reduced as compared with the conventional method. Alternatively, when it is not necessary to reduce the imaging speed while taking the same time as the conventional method, the resolution can be increased to the number of times of the plurality of scans.

また、本実施形態では特に、回転ミラー322を回転させることにより、レーザスリット光LのワークW等への投影部位を走査方向Aに移動させる。このように、回転ミラー322を用いることにより、ワークW等へ向けて反射させるレーザスリット光Lを走査方向Aに容易に移動させることができる。   Further, in this embodiment, in particular, the projection part of the laser slit light L onto the work W or the like is moved in the scanning direction A by rotating the rotary mirror 322. Thus, by using the rotary mirror 322, the laser slit light L reflected toward the workpiece W or the like can be easily moved in the scanning direction A.

また、本実施形態では特に、連携制御部335の制御に基づいて、最新のスキャン(2回目以降のスキャン)における8回の連続撮像による8個の撮像フレームF1〜F8以外は、その直前に実行済みの1回のスキャンにおける8回の連続撮像による8個の撮像フレームF1〜F8が流用され、合成画像CPが生成される。これにより、ワークWの形状検出の際に撮像のために必要な時間を、従来手法の1/2とすることができ、検出処理の大幅な短縮化を図り、処理効率を2倍に向上することができる。あるいは、従来手法と同等の時間をかけてもよい場合には、1回のスキャンにおいて許容できる時間を2倍に延ばすことができるので、撮像速度が従来よりも1/2だけ遅いカメラ310を用いることができる。この結果、従来手法よりもコストダウンを図ることができる。あるいは、従来手法と同等の時間をかけつつ撮像速度も低下させなくてよい場合には、分解能を2倍に増大させることもできる。   In the present embodiment, in particular, based on the control of the cooperation control unit 335, the other than the eight imaging frames F1 to F8 by the eight consecutive imagings in the latest scan (second and subsequent scans) are executed immediately before that. Eight imaging frames F1 to F8 obtained by eight consecutive imaging operations in one completed scan are used to generate a composite image CP. As a result, the time required for imaging when detecting the shape of the workpiece W can be halved compared to the conventional method, the detection process can be greatly shortened, and the processing efficiency can be doubled. be able to. Alternatively, when the time equivalent to that of the conventional method may be taken, the allowable time in one scan can be doubled, and thus the camera 310 whose imaging speed is ½ slower than that of the conventional method is used. be able to. As a result, the cost can be reduced as compared with the conventional method. Alternatively, when it is not necessary to reduce the imaging speed while taking the same time as the conventional method, the resolution can be increased by a factor of two.

但し、最初に行われるスキャン(1回目のスキャン)では、それ以前のスキャンが存在しないことから、上記手法は不可能である。本実施形態では、連携制御部335の制御に基づいて、1回目のスキャンでは、2回目以降のスキャンと異なり、ワークW等の全投影領域TTに対しカメラ310が順次16回の連続撮像を行い、その16個の撮像フレームF1〜F16が用いられる。これにより、間引きによる短縮が不可能な1回目のスキャンにおいても、確実に1つの距離画像DPを生成することができる。   However, in the first scan (first scan), there is no previous scan, so the above method is impossible. In the present embodiment, unlike the second and subsequent scans, the camera 310 sequentially captures 16 consecutive images in the entire projection area TT such as the workpiece W based on the control of the cooperation control unit 335. The 16 imaging frames F1 to F16 are used. Thereby, even in the first scan that cannot be shortened by thinning, one distance image DP can be reliably generated.

また、本実施形態では特に、N回目のスキャン及びN+1回目のスキャンの撮像タイミングが、各スキャンの開始基準で互いに交互のタイミングとなるようにずらされる。これにより、N回目のスキャンにおける8個の撮像フレームF1〜F8とN+1回目のスキャンにおける8個の撮像フレームF1〜F8とを、互いに補完し合うような位置づけとすることができる。この結果、それらの合成により、従来手法と同様の、ワークWの三次元形状を検出するための画像を容易かつ確実に得ることができる。   In the present embodiment, in particular, the imaging timings of the N-th scan and the N + 1-th scan are shifted so as to be alternate with each other on the basis of the start of each scan. Accordingly, the eight imaging frames F1 to F8 in the Nth scan and the eight imaging frames F1 to F8 in the N + 1th scan can be positioned so as to complement each other. As a result, by combining them, an image for detecting the three-dimensional shape of the workpiece W can be obtained easily and reliably as in the conventional method.

また、本実施形態のロボットシステム1では、ロボット100により、ストッカ20内の複数のワークWが順次保持され移送される。本実施形態では、上記移送の際、ロボットコントローラ200の制御に基づいて、上記のようにしてセンサユニット300により検出された各ワークWの三次元形状に応じて、ロボット100が動作する。これにより、上記複数のワークWの移送を円滑かつ確実に行うことができる。また、前述したようにして各ワークWの三次元形状が迅速に効率よく検出されることから、ロボット100による上記複数のワークWの移送を、確実に円滑に行うことができる。   In the robot system 1 of the present embodiment, the plurality of workpieces W in the stocker 20 are sequentially held and transferred by the robot 100. In the present embodiment, during the transfer, the robot 100 operates according to the three-dimensional shape of each workpiece W detected by the sensor unit 300 based on the control of the robot controller 200 as described above. Thereby, the said several workpiece | work W can be transferred smoothly and reliably. Further, since the three-dimensional shape of each workpiece W is detected quickly and efficiently as described above, the transfer of the plurality of workpieces W by the robot 100 can be performed reliably and smoothly.

また、本実施形態では特に、ロボット100がある1つのワークWの移送を実行した場合、合成画像生成部336が、その直前のスキャンで生成された距離画像DPのうち、上記移送された1つのワークWに対応する部分を除き、その除いた画像を、その直後のスキャンで生成された距離画像DPと合成し、合成画像CPを生成する。これにより、信頼性の低い部分の内容を除外し、ロボット100の制御を行うことができる。この結果、ロボット100の誤動作や無意味な動作を回避し、良好なワークWの移送作業を行うことができる。なお、上述のようにして不確かな内容を含んだ距離画像DPは、その後、新たにスキャンが行われ同一箇所に最新の状況を反映したデータが上書きされることで、再度信頼性の高い内容とすることができる。   In the present embodiment, in particular, when the robot 100 performs transfer of a certain workpiece W, the composite image generation unit 336 selects the transferred one of the distance images DP generated in the immediately preceding scan. A portion corresponding to the workpiece W is removed, and the removed image is combined with the distance image DP generated in the immediately following scan to generate a combined image CP. Thereby, the content of the part with low reliability can be excluded and the robot 100 can be controlled. As a result, it is possible to avoid a malfunction or meaningless operation of the robot 100 and perform a good work W transfer operation. In addition, the distance image DP including the uncertain contents as described above is then scanned again and the data reflecting the latest situation is overwritten at the same place, so that the highly reliable contents are again obtained. can do.

また、本実施形態では特に、ワークWの配置状況に変化が生じたと推定される場合、具体的には、最新のスキャンで生成された距離画像DPと、その直前のスキャン時に生成された合成画像CPとの、対応する部位におけるデータ内容の偏差が所定の閾値よりも大きかった場合、合成画像生成部336が、最新のスキャンで生成された距離画像DPのうち、データ内容の偏差が閾値よりも大きかった部位を除外する。また、その直前のスキャンで生成された距離画像DPにおける当該部位についても除外する。そして、それら除外処理を行った2つの距離画像DPを合成することで、合成画像CPを生成する。これにより、上記同様、信頼性の低い部分の内容を除外し、ロボット100の制御を行うことができる。この結果、ロボット100の誤動作や無意味な動作を回避し、良好なワークWの移送作業を行うことができる。   In the present embodiment, in particular, when it is estimated that a change has occurred in the arrangement state of the workpiece W, specifically, the distance image DP generated in the latest scan and the composite image generated in the immediately preceding scan are generated. When the deviation of the data content in the corresponding part from the CP is larger than the predetermined threshold, the synthesized image generation unit 336 has the data content deviation of the distance image DP generated by the latest scan larger than the threshold. Exclude large parts. In addition, the part in the distance image DP generated in the immediately preceding scan is also excluded. Then, the synthesized image CP is generated by synthesizing the two distance images DP subjected to the exclusion process. As a result, similarly to the above, the robot 100 can be controlled by excluding the contents of the portion with low reliability. As a result, it is possible to avoid a malfunction or meaningless operation of the robot 100 and perform a good work W transfer operation.

なお、実施の形態は、上記内容に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。   The embodiment is not limited to the above contents, and various modifications can be made without departing from the spirit and technical idea of the embodiment.

例えば、上記実施形態においては、カメラ310は、N回目のスキャン時には、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T3となるタイミング、投影領域T5となるタイミング、投影領域T7となるタイミング、投影領域T9となるタイミング、投影領域T11となるタイミング、投影領域T13となるタイミング、投影領域T15となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、N+1回目のスキャン時には、上記移動するレーザスリット光Lの投影部位が、投影領域T2となるタイミング、投影領域T4となるタイミング、投影領域T6となるタイミング、投影領域T8となるタイミング、投影領域T10となるタイミング、投影領域T12となるタイミング、投影領域T14となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像していたが、本開示の実施形態はこれに限定されるものではない。すなわち、カメラ310は、N回目のスキャン時には、上記移動するレーザスリット光Lの投影部位が、投影領域T2となるタイミング、投影領域T4となるタイミング、投影領域T6となるタイミング、投影領域T8となるタイミング、投影領域T10となるタイミング、投影領域T12となるタイミング、投影領域T14となるタイミング、投影領域T16となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像し、N+1回目のスキャン時には、上記移動するレーザスリット光Lの投影部位が、投影領域T1となるタイミング、投影領域T3となるタイミング、投影領域T5となるタイミング、投影領域T7となるタイミング、投影領域T9となるタイミング、投影領域T11となるタイミング、投影領域T13となるタイミング、投影領域T15となるタイミングのそれぞれで、当該投影部位を含む全投影領域TT内のワークW等の外観を撮像してもよい。   For example, in the above-described embodiment, when the camera 310 performs the N-th scan, the projection part of the moving laser slit light L becomes the projection area T1, the projection area T3, and the projection area T5. , The timing to become the projection region T7, the timing to become the projection region T9, the timing to become the projection region T11, the timing to become the projection region T13, and the timing to become the projection region T15, respectively, within the entire projection region TT including the projection region. When the appearance of the workpiece W or the like is imaged and the N + 1-th scan is performed, the projected portion of the moving laser slit light L becomes the projection region T2, the timing of the projection region T4, the timing of the projection region T6, the projection region Timing for T8, timing for projection area T10, projection area Although the appearance of the workpieces W and the like in the entire projection area TT including the projection part is captured at each of the timing of T12, the timing of the projection area T14, and the timing of the projection area T16, the embodiment of the present disclosure Is not limited to this. That is, at the time of the N-th scan, the camera 310 has the projection region of the moving laser slit light L as the projection region T2, the timing as the projection region T4, the timing as the projection region T6, and the projection region T8. At each of the timing, the timing to become the projection region T10, the timing to become the projection region T12, the timing to become the projection region T14, and the timing to become the projection region T16, the appearance of the work W etc. in the entire projection region TT including the projection part When the image is captured and the (N + 1) th scan, the projected portion of the moving laser slit light L becomes the projection region T1, the timing of the projection region T3, the timing of the projection region T5, the timing of the projection region T7, the projection Timing to be the region T9, timing to be the projection region T11 , Timing of the projection region T13, at each timing when the projection region T15, the appearance such as a work W in the total projected area TT including the projection portion may be captured.

また、上記実施形態においては、2回目以降のスキャンでは、カメラ310は、合計面積が全投影領域TTの1/2となるように間引かれた複数の投影領域に対し順次K/2回の連続撮像を行い、距離画像生成部333は、K/2個の撮像フレームFを用いて1つの距離画像DPを生成し、合成画像生成部336は、2つの距離画像DPを合成して合成画像CPを生成していた、つまりn=2としていた。しかしながら、nは2以上の整数であれば特に限定されるものではなく、n=3としてもよいし、n=4としてもよいし、nをもっと大きい整数としてもよい。例えば、n=3とした場合には、2回目以降のスキャンでは、カメラ310は、合計面積が全投影領域TTの1/3となるように間引かれた複数の投影領域に対し順次K/3回の連続撮像を行い、距離画像生成部333は、K/3個の撮像フレームFを用いて1つの距離画像DPを生成し、合成画像生成部336は、3つの距離画像DPを合成して合成画像CPを生成する。   In the above-described embodiment, in the second and subsequent scans, the camera 310 sequentially performs K / 2 times on a plurality of projection areas thinned out so that the total area becomes 1/2 of the total projection area TT. Continuous imaging is performed, the distance image generation unit 333 generates one distance image DP using the K / 2 imaging frames F, and the composite image generation unit 336 combines the two distance images DP to generate a composite image. CP was generated, that is, n = 2. However, n is not particularly limited as long as it is an integer equal to or greater than 2, and may be n = 3, n = 4, or n may be a larger integer. For example, when n = 3, in the second and subsequent scans, the camera 310 sequentially applies K / to a plurality of projection areas thinned out so that the total area becomes 1/3 of the total projection area TT. The distance image generation unit 333 generates one distance image DP using K / 3 imaging frames F, and the composite image generation unit 336 combines the three distance images DP. To generate a composite image CP.

また、上記実施形態においては、1回目のスキャン時には、2回目以降のスキャン時のような間引きスキャンを行っていなかったが、本開示の実施形態はこれに限定されるものではなく、1回目のスキャン時にも間引きスキャンを行ってもよい。   Further, in the above embodiment, the thinning scan as in the second and subsequent scans is not performed at the first scan, but the embodiment of the present disclosure is not limited to this, and the first scan is not performed. A thinning scan may be performed at the time of scanning.

また、上記実施形態においては、センサユニット300をロボットシステム1に適用していたが、センサユニットはロボットシステム以外にも適用可能である。   Moreover, in the said embodiment, although the sensor unit 300 was applied to the robot system 1, a sensor unit is applicable besides a robot system.

また、図7中に示す矢印は、信号の流れの一例を示すものであり、信号の流れ方向を限定するものではない。   Moreover, the arrows shown in FIG. 7 show an example of the signal flow, and do not limit the signal flow direction.

また、図20に示すフローチャートは、実施の形態を図示する手順に限定するものではなく、趣旨及び技術的思想を逸脱しない範囲内で手順の追加・削除又は順番の変更等をしてもよい。   Further, the flowchart shown in FIG. 20 is not limited to the procedure illustrated in the embodiment, and the procedure may be added / deleted or the order may be changed without departing from the spirit and technical idea.

また、以上既に述べた以外にも、上記実施形態等による手法を適宜組み合わせて利用してもよい。   In addition to those already described above, the methods according to the above embodiments may be used in appropriate combination.

その他、一々例示はしないが、上記実施形態等は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。   In addition, although not illustrated one by one, the above-described embodiments and the like are implemented with various modifications within a range not departing from the gist thereof.

1 ロボットシステム
20 ストッカ(容器)
100 ロボット
200 ロボットコントローラ(コントローラ)
300 センサユニット(物体検出装置)
310 カメラ
321 レーザ光源
322 回転ミラー(走査部)
333 距離画像生成部
335 連携制御部
336 合成画像生成部
CP 合成画像
DP 距離画像(三次元形状画像)
F 撮像フレーム(画像データ)
L レーザスリット光(スリット状のレーザ光)
T1〜T16 投影領域
TT 全投影領域
W ワーク(物体)
1 Robot system 20 Stocker (container)
100 robot 200 robot controller (controller)
300 Sensor unit (object detection device)
310 Camera 321 Laser light source 322 Rotating mirror (scanning unit)
333 Distance image generation unit 335 Cooperation control unit 336 Composite image generation unit CP Composite image DP Distance image (three-dimensional shape image)
F Imaging frame (image data)
L Laser slit light (slit laser light)
T1 to T16 Projection area TT Total projection area W Work (object)

Claims (9)

検出対象の物体を検出する物体検出装置であって、
スリット状のレーザ光を照射するレーザ光源と、
前記レーザ光源から照射された前記レーザ光の前記物体への投影部位を、所定の走査方向へ移動させる走査部と、
前記走査部が前記物体上での前記レーザ光の前記投影部位を移動させる際に、前記移動する投影部位を含む前記物体の外観を所望の間隔で連続撮像し、対応する複数の画像データを出力するカメラと、
前記カメラが複数回の連続撮像を行う1つの撮像工程ごとに、複数の前記画像データを用いて前記物体の1つの三次元形状画像を生成する、距離画像生成部と、
時間的に互いに異なる複数の前記撮像工程に基づいて前記距離画像生成部がそれぞれ生成した複数の前記三次元形状画像を合成して、前記物体の三次元形状を検出するための合成画像を生成する、合成画像生成部と、
を有することを特徴とする、物体検出装置。
An object detection device for detecting an object to be detected,
A laser light source for irradiating slit-shaped laser light;
A scanning unit that moves a projection part of the laser light emitted from the laser light source onto the object in a predetermined scanning direction;
When the scanning unit moves the projection part of the laser beam on the object, the appearance of the object including the moving projection part is continuously imaged at a desired interval, and a plurality of corresponding image data is output. Camera to
A distance image generating unit that generates one three-dimensional shape image of the object using a plurality of the image data for each imaging step in which the camera performs a plurality of continuous imagings;
A plurality of the three-dimensional shape images generated by the distance image generation unit based on the plurality of imaging steps that are temporally different from each other are combined to generate a combined image for detecting the three-dimensional shape of the object. A composite image generation unit;
An object detection apparatus comprising:
前記走査部は、
前記レーザ光源から照射された前記レーザ光を受光し前記物体へ向けて反射させる回転ミラーである
ことを特徴とする、請求項1に記載の物体検出装置。
The scanning unit
The object detection apparatus according to claim 1, wherein the object detection apparatus is a rotating mirror that receives the laser light emitted from the laser light source and reflects the laser light toward the object.
前記複数の撮像工程のうち当初撮像工程では、前記物体の投影対象となる全投影領域に対し前記カメラが順次K回(Kは正の整数)の連続撮像を行うと共に、前記距離画像生成部がK個の前記画像データを用いることで前記全投影領域に対応した前記1つの三次元形状画像を生成し、かつ、
前記複数の撮像工程のうち前記当初撮像工程の後に実行される1以上の間引き撮像工程では、合計面積が前記全投影領域の1/n(nは2以上の整数)となるように間引き分割された複数の分割投影領域に対し前記カメラが順次K/n回の連続撮像を行うと共に、前記距離画像生成部がK/n個の前記画像データを用いることで各間引き撮像工程に対応した前記1つの三次元形状画像を生成するように、
前記カメラ及び前記距離画像生成部を連携して制御する連携制御部をさらに有する
ことを特徴とする、請求項2に記載の物体検出装置。
In the initial imaging process among the plurality of imaging processes, the camera sequentially performs continuous imaging of K times (K is a positive integer) for all projection regions to be projected of the object, and the distance image generation unit Using the K pieces of the image data to generate the one three-dimensional shape image corresponding to the entire projection area; and
In one or more thinning imaging steps executed after the initial imaging step among the plurality of imaging steps, the thinning is performed so that the total area is 1 / n (n is an integer of 2 or more) of the total projection region. In addition, the camera sequentially captures K / n times for a plurality of divided projection areas, and the distance image generation unit uses K / n pieces of the image data to correspond to each thinning imaging process. So as to generate three 3D shape images
The object detection apparatus according to claim 2, further comprising a cooperation control unit that controls the camera and the distance image generation unit in cooperation with each other.
複数の前記間引き撮像工程は、
前記連携制御部の制御により、合計面積が前記全投影領域の1/2となるように間引き分割された複数の第1分割投影領域に対し前記カメラが順次K/2回の連続撮像を行い、かつ、前記距離画像生成部がK/2個の前記画像データを用いることで前記複数の第1分割投影領域に対応した1つの第1三次元形状画像を生成する、第1間引き撮像工程と、
前記連携制御部の制御により、合計面積が前記全投影領域の1/2となるように間引き分割され前記複数の第1分割投影領域相互間をそれぞれ埋めるように配置される複数の第2分割投影領域に対し前記カメラが順次K/2回の連続撮像を行い、かつ、前記距離画像生成部がK/2個の前記画像データを用いることで前記複数の第2分割投影領域に対応した1つの第2三次元形状画像を生成する、第2間引き撮像工程と、
を含み、
前記合成画像生成部は、
前記第1間引き撮像工程において前記距離画像生成部が生成した前記第1三次元形状画像と、前記第2間引き撮像工程において前記距離画像生成部が生成した前記第2三次元形状画像と、を合成して前記合成画像を生成する
ことを特徴とする、請求項3に記載の物体検出装置。
The plurality of thinning imaging steps include
Under the control of the cooperation control unit, the camera sequentially performs continuous imaging of K / 2 times for a plurality of first divided projection areas that are thinned and divided so that the total area becomes 1/2 of the total projection area, In addition, a first decimation imaging step in which the distance image generation unit generates one first three-dimensional shape image corresponding to the plurality of first divided projection areas by using K / 2 pieces of the image data;
A plurality of second divided projections that are thinned and divided so that the total area is ½ of the total projection area under the control of the cooperative control unit, and are arranged so as to respectively fill the plurality of first divided projection areas. The camera sequentially captures K / 2 times for the area, and the distance image generation unit uses K / 2 pieces of the image data to thereby provide one corresponding to the plurality of second divided projection areas. A second thinning imaging step of generating a second three-dimensional shape image;
Including
The composite image generation unit
The first 3D shape image generated by the distance image generation unit in the first decimation imaging step and the second 3D shape image generated by the distance image generation unit in the second decimation imaging step are combined. The object detection apparatus according to claim 3, wherein the composite image is generated.
前記連携制御部は、
前記第1間引き撮像工程における1工程中での前記カメラの撮像タイミングと、前記第2間引き撮像工程における1工程中での前記カメラの撮像タイミングと、が各工程の開始を基準として互いに交互のタイミングとなるように、前記カメラを制御する
ことを特徴とする、請求項4に記載の物体検出装置。
The cooperation control unit
The imaging timing of the camera in one step in the first decimation imaging step and the imaging timing of the camera in one step in the second decimation imaging step are alternate timings based on the start of each step. The object detection apparatus according to claim 4, wherein the camera is controlled so that
複数の前記物体が入った容器と、
前記容器内の前記複数の物体を順次保持して移送するロボットと、
請求項4又は5に記載の物体検出装置と、
前記物体検出装置により検出された前記容器内の前記複数の物体それぞれの三次元形状に基づいて前記ロボットを動作させるコントローラと、
を有することを特徴とする、ロボットシステム。
A container containing a plurality of the objects;
A robot for sequentially holding and transferring the plurality of objects in the container;
The object detection device according to claim 4 or 5,
A controller for operating the robot based on a three-dimensional shape of each of the plurality of objects in the container detected by the object detection device;
A robot system comprising:
前記物体検出装置における、前記第2間引き撮像工程で生成された前記第2三次元形状画像とその直前の前記第1間引き撮像工程で生成された前記第1三次元形状画像との合成による前記三次元形状の検出に基づいて、前記ロボットが対応する前記物体を移送した場合には、
前記合成画像生成部は、
前記第2間引き撮像工程の直後の前記第1間引き撮像工程で生成された前記第1三次元形状画像と、当該第2間引き撮像工程で生成された前記第2三次元形状画像のうち前記移送された前記物体に対応する部分を除いた画像と、を合成して、前記合成画像を生成する
ことを特徴とする、請求項6に記載のロボットシステム。
In the object detection device, the tertiary by combining the second 3D shape image generated in the second thinning imaging step and the first 3D shape image generated in the immediately preceding first thinning imaging step. Based on the detection of the original shape, when the robot has transferred the corresponding object,
The composite image generation unit
The first three-dimensional shape image generated in the first thinning-out imaging step immediately after the second thinning-out imaging step and the second three-dimensional shape image generated in the second thinning-out imaging step are transferred. The robot system according to claim 6, wherein the synthesized image is generated by synthesizing an image excluding a portion corresponding to the object.
前記第1間引き撮像工程で生成された前記第1三次元形状画像と、その直前の前記第2間引き撮像工程に基づいて前記合成画像生成部で生成された前記合成画像との、対応する部位又は当該部位の近傍部位におけるデータ内容の偏差が所定の閾値よりも大きかった場合には、
前記合成画像生成部は、
前記第1間引き撮像工程で生成された前記第1三次元形状画像のうち前記データ内容の偏差が前記閾値よりも大きかった部位を除いた画像と、前記直前の第2間引き撮像工程で生成された前記第2三次元形状画像のうち前記データ内容の偏差が前記閾値よりも大きかった部位を除いた画像と、を合成して、前記合成画像を生成する
ことを特徴とする、請求項7に記載のロボットシステム。
Corresponding part of the first three-dimensional shape image generated in the first thinning imaging step and the synthetic image generated by the synthetic image generation unit based on the second thinning imaging step immediately before When the deviation of the data content in the vicinity of the part is larger than a predetermined threshold,
The composite image generation unit
Of the first three-dimensional shape image generated in the first decimation imaging step, an image excluding a portion where the deviation of the data content is larger than the threshold value and generated in the immediately preceding second decimation imaging step The composite image is generated by combining the second three-dimensional shape image with an image excluding a portion where the deviation of the data content is larger than the threshold value. Robot system.
光源からスリット状のレーザ光を照射することと、
前記照射した前記レーザ光の物体への投影部位を、所定の走査方向へ移動させることと、
前記レーザ光の前記投影部位を移動させる際に、前記移動する投影部位を含む前記物体の外観を所望の間隔で連続撮像し、対応する複数の画像データを出力することと、
複数回の連続撮像を行う1つの撮像工程ごとに、複数の前記画像データを用いて前記物体の1つの三次元形状画像を生成することと、
時間的に互いに異なる複数の前記撮像工程に基づいてそれぞれ生成された複数の前記三次元形状画像を合成して、前記物体の三次元形状を検出することと、
を有することを特徴とする、物体検出方法。
Irradiating slit-shaped laser light from a light source;
Moving the projected portion of the irradiated laser light onto the object in a predetermined scanning direction;
When moving the projection portion of the laser light, continuously imaging the appearance of the object including the moving projection portion at a desired interval, and outputting a plurality of corresponding image data;
Generating one three-dimensional shape image of the object using a plurality of the image data for each imaging step in which a plurality of continuous imaging is performed;
Combining a plurality of the three-dimensional shape images respectively generated based on the plurality of imaging steps temporally different from each other to detect a three-dimensional shape of the object;
An object detection method comprising:
JP2013030143A 2013-02-19 2013-02-19 Object detector, robot system, and object detection method Pending JP2014159988A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013030143A JP2014159988A (en) 2013-02-19 2013-02-19 Object detector, robot system, and object detection method
CN201310740930.6A CN103994729A (en) 2013-02-19 2013-12-26 Object detector, robot system and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013030143A JP2014159988A (en) 2013-02-19 2013-02-19 Object detector, robot system, and object detection method

Publications (1)

Publication Number Publication Date
JP2014159988A true JP2014159988A (en) 2014-09-04

Family

ID=51308963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013030143A Pending JP2014159988A (en) 2013-02-19 2013-02-19 Object detector, robot system, and object detection method

Country Status (2)

Country Link
JP (1) JP2014159988A (en)
CN (1) CN103994729A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019106987A1 (en) * 2017-11-29 2020-11-19 パナソニックIpマネジメント株式会社 Work support system, work support method and program
EP4001839A1 (en) * 2020-11-17 2022-05-25 Leica Geosystems AG Scanning device for scanning an environment and enabling an identification of scanned moving objects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11148810A (en) * 1997-09-09 1999-06-02 Ckd Corp Shape measuring instrument
JP2002357408A (en) * 2001-03-25 2002-12-13 Omron Corp Optical measuring device
JP2007040841A (en) * 2005-08-03 2007-02-15 Ricoh Co Ltd Three-dimensional shape measuring apparatus, and three-dimensional shape measuring method
JP2011252864A (en) * 2010-06-03 2011-12-15 Sony Corp Inspection equipment and inspection method
JP2012093104A (en) * 2010-10-25 2012-05-17 Yaskawa Electric Corp Shape measuring device, robot system, and shape measuring method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6839144B2 (en) * 2001-03-25 2005-01-04 Omron Corporation Optical displacement sensor
JP2007025830A (en) * 2005-07-13 2007-02-01 Hitachi Plant Technologies Ltd Method and device for recognizing three-dimensional object
JP4821934B1 (en) * 2011-04-14 2011-11-24 株式会社安川電機 Three-dimensional shape measuring apparatus and robot system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11148810A (en) * 1997-09-09 1999-06-02 Ckd Corp Shape measuring instrument
JP2002357408A (en) * 2001-03-25 2002-12-13 Omron Corp Optical measuring device
JP2007040841A (en) * 2005-08-03 2007-02-15 Ricoh Co Ltd Three-dimensional shape measuring apparatus, and three-dimensional shape measuring method
JP2011252864A (en) * 2010-06-03 2011-12-15 Sony Corp Inspection equipment and inspection method
JP2012093104A (en) * 2010-10-25 2012-05-17 Yaskawa Electric Corp Shape measuring device, robot system, and shape measuring method

Also Published As

Publication number Publication date
CN103994729A (en) 2014-08-20

Similar Documents

Publication Publication Date Title
JP5630208B2 (en) Shape measuring device, robot system, and shape measuring method
JP5803155B2 (en) Robot position detection device and robot system
US9457472B2 (en) Position detection device for robot, robotic system, and position detection method for robot
JP5729622B2 (en) Blurless imaging system
EP2581178A1 (en) Workpiece takeout system, robot apparatus, and method for producing a to-be-processed material
JP2022504377A (en) Systems and methods for welding path generation
CN110640730A (en) Method and system for generating three-dimensional model for robot scene
CN107803589B (en) Laser welding system
US20170019659A1 (en) 3D scanning control apparatus based on FPGA and control method and system thereof
CN107690303B (en) Computing device and method for generating three-dimensional model
JP7333821B2 (en) Industrial robotic device with improved tooling path generation and method of operating industrial robotic device according to improved tooling path
US10852396B2 (en) Turntable peripheral for 3D scanning
JP2014159988A (en) Object detector, robot system, and object detection method
JP2016019724A (en) X-ray diagnostic apparatus
JP2017100202A (en) Robot system, control device, control method, and program
US20040097809A1 (en) Ultrasonic diagnostic apparatus
KR102236354B1 (en) Apparatus for scanning underground power structure, System for processing scanning information, and Method thereof
JP7169474B1 (en) Conveying device, control method, and control program
JP6308423B2 (en) Holding method and holding device
JP2013047760A (en) Instruction position display device and instruction position display system
CN115451862A (en) Three-dimensional scanning method and three-dimensional scanning system
JP2019027921A (en) Three-dimensional shape measuring device, robot system, and three-dimensional shape measuring method
JP5200866B2 (en) Robot system, robot control apparatus, and robot control method
JP2009112388A (en) X-ray diagnostic apparatus
JP2019150931A (en) Robot system, control device, and robot

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141225