JP6025400B2 - Work position detection device and work position detection method - Google Patents
Work position detection device and work position detection method Download PDFInfo
- Publication number
- JP6025400B2 JP6025400B2 JP2012122272A JP2012122272A JP6025400B2 JP 6025400 B2 JP6025400 B2 JP 6025400B2 JP 2012122272 A JP2012122272 A JP 2012122272A JP 2012122272 A JP2012122272 A JP 2012122272A JP 6025400 B2 JP6025400 B2 JP 6025400B2
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- image data
- control unit
- position detection
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 31
- 238000003384 imaging method Methods 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 17
- 238000013459 approach Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 20
- 238000009826 distribution Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 1
- 238000009940 knitting Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像装置により撮像した画像データからワークの位置を検出するワーク位置検出装置、及びワーク位置検出方法に関する。 The present invention relates to a work position detection apparatus and a work position detection method for detecting the position of a work from image data picked up by an image pickup apparatus.
従来、事務機器などを生産する工場においては、複数のワーク(部品)が通い箱と呼ばれる流通用の箱に入れられた状態で部品製造元から生産ラインに送られている。通い箱の中に入れられたワークは、通常ワーク毎に区画された領域に配置されている。しかしながら各ワークは通い箱には固定されていないため、各ワークは配置された領域内で動き、位置や姿勢が一意に定まっていない。そのため撮像装置によって撮像(撮影)した画像データから各ワークの位置や姿勢を認識し、その結果を使って作業ロボットにより通い箱から順次ワークを取りだすことが行われている。 2. Description of the Related Art Conventionally, in a factory that produces office equipment and the like, a plurality of works (parts) are sent from a component manufacturer to a production line in a state where they are put in a distribution box called a return box. The work put in the return box is usually arranged in an area partitioned for each work. However, since each work is not fixed to the return box, each work moves within the area where it is placed, and the position and orientation are not uniquely determined. For this reason, the position and orientation of each workpiece is recognized from the image data captured (captured) by the imaging apparatus, and the workpiece is sequentially taken out from the return box by using the result.
撮像装置により撮像した画像データから通い箱内の各ワークの位置を高精度に認識するためには、各ワークの輪郭情報を正確に捉えなければならない。しかし、通い箱内の複数のワークに対して均一に光を照射することは難しい。画像データのうち、明るすぎる部分や暗すぎる部分では、その部分にあるワークの輪郭情報が正確に得られない。そのため、ワークの位置(ワークの位置に基づくワークの姿勢も含む)を正確に認識できない虞もある。 In order to recognize the position of each workpiece in the return box with high accuracy from the image data captured by the imaging device, it is necessary to accurately capture the contour information of each workpiece. However, it is difficult to uniformly irradiate a plurality of works in the return box. In the image data, if the part is too bright or too dark, the outline information of the workpiece in that part cannot be obtained accurately. Therefore, there is a possibility that the position of the workpiece (including the posture of the workpiece based on the position of the workpiece) cannot be accurately recognized.
このような問題に対し、明暗の差を解消した良好な画像データを得る撮影方法が提案されている(特許文献1参照)。この特許文献1の撮影方法では、被写体と背景に着目した露光及び重み付けを加味した画像処理により、逆光や過順光等のように高コントラスト状態になる照明条件でも良好な画像データを得ることを可能としている。 In order to solve such a problem, there has been proposed a photographing method for obtaining good image data in which the difference in brightness is eliminated (see Patent Document 1). In the imaging method of this patent document 1, it is possible to obtain good image data even under illumination conditions such as backlight or over-order light by image processing with exposure and weighting focusing on the subject and the background. It is possible.
しかしながら、上記特許文献1に記載の撮影方法で、明るすぎる部分や暗すぎる部分を含む全てのワークの位置を検出するための画像データを得ようとすると、全領域の撮影を3回以上行う必要がある。すなわち、最初に通常露光条件で、次に被写体抽出用露光条件で、最後に背景抽出露光条件で全領域の撮影が必要となる。このため、撮影時間や3回以上の画像の合成処理の時間などを考慮すると、ワークの位置を検出までの時間が長時間になるという問題がある。 However, if it is attempted to obtain image data for detecting the positions of all workpieces including a part that is too bright or a part that is too dark by the photographing method described in Patent Document 1, it is necessary to photograph the entire region three times or more. There is. That is, the entire region needs to be photographed first under normal exposure conditions, then under subject extraction exposure conditions, and finally under background extraction exposure conditions. For this reason, in consideration of the shooting time, the time for synthesizing three or more images, etc., there is a problem that it takes a long time to detect the position of the workpiece.
また、上記特許文献1に記載の撮影方法では、全体的に画像データのコントラストが良好になるように画像の合成処理を行うため、局所的には改善されていないことがあった。局所的にコントラストが改善されていないと、その部分にあるワークの位置を正確に検出できないという問題がある。 Further, in the photographing method described in Patent Document 1, since the image composition processing is performed so that the contrast of the image data as a whole becomes good, there is a case where it is not improved locally. If the contrast is not improved locally, there is a problem that the position of the workpiece in that portion cannot be accurately detected.
そこで本発明は、短時間でかつワークの位置を正確に検出することが可能なワーク位置検出装置、及びワーク位置検出方法を提供することを目的とするものである。 Therefore, an object of the present invention is to provide a workpiece position detection apparatus and a workpiece position detection method that can accurately detect the position of a workpiece in a short time.
本発明に係るワーク位置検出装置は、露光調整機能を有すると共に、基準ワークを含む複数のワークを撮像して画像データを取得する撮像装置と、前記画像データを記憶する記憶部と、前記複数のワークの中から1つのワークを選定し、前記選定したワークに対応する選定領域を設定し、前記画像データから前記選定領域に関する輝度ヒストグラムを生成し、前記選定領域に関する輝度ヒストグラムが、前記画像データに含まれる前記基準ワークに対応する基準領域に関する輝度ヒストグラムに近づくように前記選定領域における露光条件を算出し、前記撮像装置により前記露光条件で前記選定領域を再撮像して部分画像データを取得させ、前記部分画像データに基づき前記選定したワークの位置を検出する制御部と、を備えたことを特徴とする。 The workpiece position detection apparatus according to the present invention has an exposure adjustment function, and captures a plurality of workpieces including a reference workpiece to acquire image data, a storage unit that stores the image data, and the plurality of the plurality of workpieces. One workpiece is selected from the workpieces, a selection region corresponding to the selected workpiece is set, a luminance histogram relating to the selection region is generated from the image data, and the luminance histogram relating to the selection region is added to the image data. Calculating an exposure condition in the selected area so as to approach a luminance histogram relating to a reference area corresponding to the reference workpiece included, and causing the imaging device to re-image the selected area under the exposure condition to obtain partial image data; A control unit that detects the position of the selected workpiece based on the partial image data, That.
本発明に係るワーク位置検出方法は、制御部が、露光調整機能を有する撮像装置に指令して、基準ワークを含む複数のワークを撮像して画像データを取得する画像データ取得工程と、前記制御部が、記憶部に前記画像データを記憶させる記憶工程と、前記制御部が、前記複数のワークの中から1つのワークを選定する選定工程と、前記制御部が、前記選定したワークに対応する選定領域を設定する選定領域設定工程と、前記制御部が、前記画像データから前記選定領域に関する輝度ヒストグラムを生成し、前記選定領域に関する輝度ヒストグラムが、前記画像データに含まれる前記基準ワークに対応する基準領域に関する輝度ヒストグラムに近づくように前記選定領域における露光条件を算出する露光条件算出工程と、前記制御部が、前記撮像装置に指令して、前記露光条件で前記選定領域を再撮像して部分画像データを取得する部分画像データ取得工程と、前記制御部が、前記部分画像データに基づき前記選定したワークの位置を検出する位置検出工程と、を備えたことを特徴とする。 In the workpiece position detection method according to the present invention, the control unit instructs an imaging apparatus having an exposure adjustment function to capture a plurality of workpieces including a reference workpiece and acquire image data, and the control A storage step of storing the image data in a storage unit, a selection step in which the control unit selects one workpiece from the plurality of workpieces, and the control unit corresponds to the selected workpiece. A selection area setting step for setting a selection area, and the control unit generates a luminance histogram relating to the selection area from the image data, and the luminance histogram relating to the selection area corresponds to the reference work included in the image data. An exposure condition calculation step of calculating an exposure condition in the selected area so as to approach a luminance histogram relating to a reference area; and A partial image data acquisition step for instructing the apparatus to re-image the selected area under the exposure conditions to acquire partial image data, and the control unit detects the position of the selected workpiece based on the partial image data And a position detecting step.
本発明によると、例えば明るすぎる部分や暗すぎる部分にあるワークの位置を、複数のワークの画像データと選定領域の部分画像データとの取得だけ、つまり2回の撮像だけで検出できる。このため、撮像時間や画像の合成処理の時間などを短縮することができ、短時間でワークの位置を検出することができる。また、選定したワークに対応する選定領域の部分画像データを、基準領域に輝度ヒストグラムに近づく露光条件で取得するので、局所的にコントラストの改善が図れ、その部分にあるワークの位置を正確に検出できる。これにより、ワークの位置検出を、高速化でき、かつ照明条件などの外部環境変化にロバストに対応できる。 According to the present invention, for example, the position of a workpiece in a portion that is too bright or too dark can be detected only by acquiring image data of a plurality of workpieces and partial image data of a selected region, that is, by only two imaging operations. For this reason, it is possible to shorten the imaging time, the time for image synthesis, and the like, and the position of the workpiece can be detected in a short time. In addition, partial image data of the selected area corresponding to the selected workpiece is acquired under exposure conditions that approach the luminance histogram to the reference area, so that the contrast can be improved locally and the position of the workpiece in that area can be accurately detected. it can. As a result, the position detection of the workpiece can be speeded up, and robust against changes in the external environment such as lighting conditions.
以下、本発明に係る実施の形態を図1乃至図9に沿って説明する。まず、本実施の形態に係るロボットシステム50について図1及び図2に沿って説明する。 Embodiments according to the present invention will be described below with reference to FIGS. First, the robot system 50 according to the present embodiment will be described with reference to FIGS.
図1に示すように、本発明に係るロボットシステム50は、通い箱9の内部に区画されて収納された複数のワーク8を1本ずつ把持して取り出し、製造ラインの後工程に供給するロボットアーム7を備えている。ロボットアーム7の上方には、通い箱9を照明する照明装置6が配置されている。照明装置6は、ロボットアーム7が通い箱9からワーク8を取り出す動作が必要となるため、通い箱9から距離を離して設置することが求められる。そのため、通い箱9の全域に均一な照明条件を作りだすことを困難にしている。
As shown in FIG. 1, a robot system 50 according to the present invention is a robot that grips and takes out a plurality of
照明装置6の上方或いは照明装置6に並設して配置され、かつ通い箱9を撮影する際にその照明装置6が邪魔にならない位置に、ワーク位置検出装置1の撮像装置としてのカメラ5が設置されている。その際、照明装置6はカメラ5の視野内に入らないように設置される。ワーク位置検出装置1は、大まかに、露光調整機能を有するカメラ5と、詳しくは後述する制御部102、記憶部103、通信部116などを有する制御コンピュータ10と、を互いに接続された状態で備えている。制御コンピュータ10は、ロボット制御部20に接続されており、詳しくは後述するようにカメラ5の画像データから検出したワーク8の位置データを送信する。ロボット制御部20は、受信したワーク8の位置データに基づきロボットアーム7を駆動制御し、ワーク8を把持して取り出す。
A
上記制御コンピュータ10は、図2に示すように、制御部102、記憶部103、及び通信部116を有しており、上記カメラ5が接続されて構成されている。詳しくは、制御コンピュータ10は、CPU102aを主体として、画像処理装置102b、音声処理装置102cを有して上記制御部102を構成している。このCPU102aには、上記画像処理装置102b、音声処理装置102cの他に、ROM103a及びRAM103bがバス111を介して接続されている。ROM103aには、コンピュータの基本制御に必要なプログラムが格納されていると共に、後述するワーク位置検出制御の各工程を実行させるための各種プログラムやワーク8の形状データ等のデータが格納されている。各種プログラムとしては、例えばヒストグラムを算出して生成するプログラム、二値化処理するプログラム、二値化画像にラベリング処理するプログラム、選定領域を設定するプログラム、露光条件を演算するプログラムなどが含まれる。更に選定領域の部分画像データを再撮像して取得するプログラム、ワークの位置を検出するプログラムなども含まれる。本実施の形態では、これら各種プログラムを総称してワーク位置検出プログラムという。RAM103bには、CPU102aに対する作業領域が確保されており、カメラ5により撮像した画像データを一時的に記憶し得る。
As shown in FIG. 2, the
画像処理装置102bは、CPU102aからの描画指示に応じてディスプレイ107を制御して、その画面上の所定の画像を表示させる。音声処理装置102cは、CPU102aからの発音指示に応じた音声信号生成してスピーカ109に出力する。CPU102aには、バス111に接続されたインターフェース106cを介して、入力装置106としてのキーボード106a及びマウス106bが接続されており、ワーク位置検出に必要な指定情報、或いはその他の指示の入力を可能としている。
The
また、バス111には、カメラ5が接続されていると共に、記録メディア読取装置117が接続されている。そのため、該記録メディア読取装置117によってプログラムなどを記録した記録媒体110を読み込み、例えばROM103aやRAM103bに格納できるようになっている。なお、上述した記憶部103は、主記憶装置であるROM103a及びRAM103bの他に、外部記憶装置などを備えて構成されていてもよい。
In addition, the
そして、バス111には、通信部116が接続されており、通信部116は、上述したロボット制御部20(図1参照)に検出したワーク8の位置データを送信し得る。なお、通信部116は、ネットワーク等で他のロボットに接続されたロボット制御部にも接続されていてもよい。この場合、制御コンピュータ10は、複数のロボットに動作指令を送出する上位コンピュータとなって、各ロボット制御部はこの上位コンピュータの指令に基づき動作する下位コンピュータとなり得る。また、通信部116をインターネットなどに接続し、プログラムのダウンロード等を行うようにしてもよい。
And the
なお、本実施の形態では、カメラ5と制御コンピュータ10とを分けて構成したものを説明しているが、カメラ5と一体に構成されたコンピュータを備えて、ワーク位置検出装置1としてもよい。
In the present embodiment, the
ついで、以上のように構成されたワーク位置検出装置1によるワーク位置検出制御について説明する。まず、ワーク位置検出制御の事前準備(サブ制御)としての事前設定制御について図3に沿って説明する。 Next, workpiece position detection control by the workpiece position detection apparatus 1 configured as described above will be described. First, preset control as advance preparation (sub control) of workpiece position detection control will be described with reference to FIG.
図3に示すように、本事前設定制御では、まず、画像処理装置102bにてディスプレイ107に表示された通い箱9全域の画像に対して、マウス106bを用いて矩形領域を描画する。矩形領域は通い箱9内の1つのワーク8の全域を覆うように描画する(S21)。これは、領域内のワーク8の輪郭情報を他のワーク8を探す際の見本となる基準ワークとして登録するために用いるものである。マスターパターン領域の設定例を図7(a)に示す。図7(a)では通い箱9の中心部をマスターパターン領域AreaMPとして設定している。マスターパターン領域AreaMPを通い箱9の中心部に設定することで、通い箱9の外周付近と比較してワーク8に均一に照明が当たるため、ワーク8の輪郭情報を正確に捉えることができる。ディスプレイ107に表示されている、カメラ5で撮影された画像は、RAM103bにおいて複数の画素情報によって構成されている。画素情報は0から255の数値データで構成されており、白いほど数値が高く、黒いほど低くなる。この数値データを輝度値と呼ぶ。
As shown in FIG. 3, in the preset control, first, a rectangular area is drawn using the
次に、設定した時のマスターパターン領域AreaMP内の輝度の平均値を事前輝度平均値として制御部102にて算出し、記憶部103にその値を記憶しておく(S22)。
Next, the average value of the luminance in the master pattern area AreaMP when set is calculated by the
続いて、カメラ5の露光量を変化させた場合のマスターパターン領域AreaMPの輝度ヒストグラムを複数作成し、露光量を変化させた場合の輝度ヒストグラムの分布変化を制御部102にて演算する。そして、制御部102により、露光量を変化させた場合の輝度ヒストグラムの分布変化から、後述する選定領域の露光条件を求めるための露光調整量演算パラメータを決定する(S23)。言い換えると、この露光調整量演算パラメータに基づいて、明るすぎる部分や暗すぎる部分を撮影する際の露光条件を演算し、この露光条件で撮像することで、適度な露光状態の画像データを得ることができる。
Subsequently, a plurality of luminance histograms of the master pattern area AreaMP when the exposure amount of the
次に、本実施の形態のメイン制御であるワーク位置検出制御について図4に沿って説明する。本制御を開始すると、まず、カメラ5がその視野に通い箱9全体を含んでいるため、カメラ5内の撮像素子情報を全て取りこむことで通い箱9全域の画像データを読み込む(S1)(画像データ取得工程)。撮像素子全域で読み込んだ画像例を図5に示す。図5における格子1つ1つが画素を表し、全域AreaALLが画素全体を表しており、画像原点Oから直交座標を構成するx方向とy方向とに画素が並んでいる。この座標(x,y)は、各ワーク8の位置情報、ロボットアームの位置制御情報等の座標系として用いることができる。読み込んだ全域の撮像素子情報(全域の画像データ)は、上述したマスターパターン領域の基準ワークを含む全てのワーク8(複数のワーク)を撮像した画像データであり、上記記憶部103の例えばRAM103bに記憶される(記憶工程)。なお、図5内の通い箱9内の各格子に入っている黒い塊は、図1においてロボットアーム7により取り出されているワーク8を上面から見た形状を表している。図5内のワーク8の濃淡は照明の当たり方を表しており、中心付近ほど均一かつ明るく、周囲にいくにつれて不均一かつ暗くなる様子を示している。
Next, workpiece position detection control which is the main control of the present embodiment will be described with reference to FIG. When this control is started, first, since the
ついで、制御部102は、通い箱9の入れ替え直後であるか否かを判定する(S2)。入れ替え直後でなければ(S2のNo)、後述するマスターパターンの更新等の作業が不要であるので、ステップS6に進む。通い箱9の入れ替え直後である場合は(S2のYes)、次のステップS3に進む。
Next, the
ステップS3に進むと、事前設定制御(図3参照)によって規定されたマスターパターン領域AreaMPにあるワーク8を他のワーク検出のための見本となる基準ワークとして、その輪郭情報(基準ワークの形状データ)を制御部102にて抽出する。抽出した情報は記憶部103に記憶させる。このステップS3のマスターパターン更新処理は、通い箱9の入れ替え直後に一度だけ行う。
In step S3, the
次にステップS1で取得した全域の画像データにおいて、事前設定制御(図3参照)で規定したマスターパターン領域AreaMP内の輝度ヒストグラムを制御部102にて算出する(S4)。
Next, in the image data of the entire area acquired in step S1, the
次に、事前設定制御(図3参照)により設定時に記憶した事前輝度平均値と、今回の画像データから得たマスターパターン領域AreaMP内の輝度平均値とを比較し、それらの輝度平均値の差異が規定値以上であるか否かを判定する(S5)。ここでは一例として規定値を10として以下を説明する。なお、規定値の値は割合や編差等によって変更してもよい。 Next, the prior average brightness value stored at the time of setting by the preset control (see FIG. 3) is compared with the average brightness value in the master pattern area AreaMP obtained from the current image data, and the difference between the average brightness values is compared. Is determined to be greater than or equal to a specified value (S5). Here, the following will be described assuming that the specified value is 10 as an example. Note that the value of the specified value may be changed according to a ratio, a knitting difference, or the like.
上記ステップS5において、事前の輝度平均値と今回の輝度平均値との差異が10以上である場合(S5のYes)、ステップS16に進む。ステップS16では、事前設定制御で記憶した事前輝度平均値に近づくように(10未満になるように)カメラ5の露光量を調整し、再度全域の撮像素子情報(画像データ)を取り直す。これにより照明装置2の時間経過による輝度低下へも対応することが可能となりロバスト性が向上する。またステップS3でマスターパターンを通い箱9の入れ替えごとに更新すれば、ワーク8のロット差の影響を少なくしたり、ワーク8の形状が変更しても対応できる効果も見込める。
In step S5, when the difference between the previous average brightness value and the current average brightness value is 10 or more (Yes in S5), the process proceeds to step S16. In step S16, the exposure amount of the
上記ステップS5において、事前の輝度平均値と今回の輝度平均値との差異が10未満であると判定された場合は、ステップS6に進む。ここでは、ステップS3にて登録したマスターパターンの輪郭情報を用いて、全域の撮像素子情報におけるワーク8の有無の演算を制御部102により開始する。まず、ステップS6では、取得した撮像素子情報(画像データ)の全域を二値化処理する。なお、通い箱9の色をワーク8の色とコントラスト差を生じやすいものにしておくことで、二値化のような簡易な画像処理アルゴリズムのみでワーク8の有無を判別することが可能となる。
If it is determined in step S5 that the difference between the previous average brightness value and the current average brightness value is less than 10, the process proceeds to step S6. Here, using the contour information of the master pattern registered in step S3, the
二値化前後の画像変化を図6に示す。本実施形態ではワーク8が黒色に近い部材だったため、通い箱9側を白色に近い色の部材にすることでコントラスト差が大きくなる。そこで、中間値を閾値とする二値化処理により、二値化前の画像である図6(a)は、二値化後の画像である図6(b)に示すように、ワーク8を黒い塊として抽出できる。次にステップS6の二値化画像に対して、黒い部分が連続した画素に同じ番号を割り振るラベリング処理を行う(S7)。同じ番号を振られた塊をラベルと呼ぶ。図6(b)の「81」〜「825」がラベル化されたワーク8を表す。
FIG. 6 shows image changes before and after binarization. In this embodiment, since the
次に、ステップS7においてラベル化された各ワーク8の塊ごとに図5における画像原点Oから見た重心位置の座標を算出する(S8)。算出した座標によってラベルの優先順位を決定する(S9)。ここでは優先順位として図5における画像原点Oからの距離が遠いほど優先的に取り出しを行うものとする。従って、1回目の取り出し作業では、図7(a)に示す通い箱9の右下のワーク8が選定される(選定工程)。
Next, the coordinates of the barycentric position viewed from the image origin O in FIG. 5 are calculated for each block of each
続いて、制御部102は、図7(b)に示すように次回取り出し対象として選定されたラベルの外接矩形領域AreaCirを算出し、それを規定分拡張させた矩形領域を選定領域AreaSELとして設定する(S10)。ここでは規定量を20%としているが、ワーク8の大きさや通い箱9の大きさによって変更してもよい。具体的には、二値化画像のワーク8に外接する外接矩形領域AreaCirが、x方向に長さLx及びy方向に長さLyを有しているとすると、選定領域AreaSELは、x方向に長さLx×1.2及びy方向に長さLy×1.2の領域を有していることになる。このようにステップS10では、選定したワーク8に対する選定領域AreaSELを設定する(選定領域設定工程)。
Subsequently, as shown in FIG. 7B, the
ついで、制御部102は、設定した選定領域AreaSEL内の画素が持つ輝度値の分布から輝度ヒストグラムを算出する(S11)。続けて、マスターパターン領域(基準領域)AreaMPと選定領域AreaSELとで算出した各々の輝度ヒストグラムの最頻出グレー値を求める。求めた各々の最頻出グレー値の差異に対して、事前設定制御(図3参照)で決定した露光調整量演算パラメータを掛け合わせることで、選定したワーク8の撮像に適した露光調整量を算出する(S12)。つまり、選定領域AreaSELに関する輝度ヒストグラムが、マスターパターン領域AreaMPに関する輝度ヒストグラムに近づくように選定領域AreaSELを再撮像するための露光条件を算出する(露光条件算出工程)。
Next, the
即ち、図9(a)のマスターパターン領域AreaMPは、輝度分布が両端に偏らないことで良好なコントラストで、高い分解能の画像が得られている。一方で、図9(b)のように低輝度に偏った輝度分布の画像の場合、そのままワーク8の位置、姿勢を検出しようとしても一部が黒とびにより輪郭情報を損なっているため、どのような画像処理を行っても高精度に位置、姿勢情報を算出することは難しい。なお、反対に高輝度に偏った輝度分布の画像の場合、一部が白とびにより輪郭情報を損なうことになる。例えば選定領域AreaSELが図9(b)に示すように低輝度に偏った輝度分布の場合、検出対象が黒とびしている箇所が多い。そこで、図9(a)の輝度分布に近づけるため、上記算出した露光条件に基づきカメラ5による露光時間を増やすことによって図9(c)のような良好な輝度分布に近づけることができる。
That is, in the master pattern area AreaMP of FIG. 9A, the luminance distribution is not biased at both ends, and an image with high contrast and high resolution is obtained. On the other hand, in the case of an image with a luminance distribution biased to a low luminance as shown in FIG. 9B, even if an attempt is made to detect the position and orientation of the
このように選定領域AreaSELを再撮像するための露光条件を算出した後、選定領域AreaSELに相当するカメラ5の撮像素子情報(部分画像データ)のみを、その算出した露光条件にて再撮像し、取得する(S13)(部分画像データ取得工程)。この取得した部分画像データの一例を図8に示す。図8に示すように、カメラ5の視野である全域AreaALLに対し、次に取りだすべきワーク8付近の選定領域AreaSELの画像素子情報のみ取り込むことで、全体取り込みの時と比較し取り込み時間を大幅に短縮することができる。
After calculating the exposure conditions for re-imaging the selected area AreaSEL in this way, only the image sensor information (partial image data) of the
そして、ステップS3で更新したマスターパターン情報を用いて、ステップS13で取得した部分画像データから取り出すワーク8の位置(位置に基づく姿勢)を制御部102にて高精度に検出する(S14)(位置検出工程)。 Then, using the master pattern information updated in step S3, the position of the workpiece 8 (posture based on the position) extracted from the partial image data acquired in step S13 is detected with high accuracy by the control unit 102 (S14) (position Detection step).
最後にステップS14にて検出したワーク8の位置情報(及び姿勢情報)を通信部116からロボット制御部20に送信することで(S15)、ロボットアーム7によりワーク8を把持するように制御し、その取り出しを行うことができる。取り出し完了後は、再度図4のワーク位置検出制御を開始することで、同様の流れを経て残りのワーク8がロボットアーム7に取り出されることになる。以後、同様の流れを通い箱9内のワーク8がなくなるまで行った後、通い箱9を交換することになる。
Finally, by transmitting the position information (and posture information) of the
以上のように本ワーク位置検出装置1によると、例えば明るすぎる部分や暗すぎる部分にあるワーク8の位置を、複数のワーク8の画像データと選定領域の部分画像データとの取得だけ、つまり2回の撮像だけで検出できる。このため、撮像時間や画像の合成処理の時間などを短縮することができ、短時間でワーク8の位置を検出することができる。また、選定したワーク8に対応する選定領域の部分画像データを、基準領域に輝度ヒストグラムに近づく露光条件で取得するので、局所的にコントラストの改善が図れ、その部分にあるワークの位置を正確に検出できる。これにより、ワークの位置検出を、高速化でき、かつ照明条件などの外部環境変化にロバストに対応できる。
As described above, according to the workpiece position detection apparatus 1, for example, the position of the
また、制御部102は、マスターパターン(基準ワーク)の形状データ(輪郭情報)と部分画像データとにより選定したワーク8の位置を検出するので、部分画像データだけから輪郭情報を取得して位置検出する場合に比して高精度に位置検出することができる。
Further, since the
なお、以上説明した本実施の形態では、ワークの位置検出をロボットアームによる取り出し作業に利用しているが、単にワーク位置検出で終了する検査装置でもよい。また、ワーク位置検出を利用して、製造ラインで加工等の処理を施すようなことも考えられる。 In the present embodiment described above, the workpiece position detection is used for the picking-up operation by the robot arm, but an inspection device that simply ends the workpiece position detection may be used. It is also conceivable to perform processing such as processing on the production line using workpiece position detection.
また、本実施の形態では、複数のワークの中から1つのワークを選定する際に、二値化処理を行ってワークの有無を判定し、その重心座標に基づき1つのワークを選定しているものを説明した。しかし、これに限らず、例えばグレースケール等の他の画像処理を施してワークの有無を判定する手法、エッジ成分を取得して大まかに輪郭を取得してワークの有無を判定する手法など、どのような選定手法でも構わない。 In the present embodiment, when one workpiece is selected from a plurality of workpieces, binarization processing is performed to determine the presence or absence of the workpiece, and one workpiece is selected based on the barycentric coordinates. Explained things. However, the present invention is not limited to this, for example, a method for determining the presence / absence of a work by performing other image processing such as gray scale, and a method for determining the presence / absence of a work by acquiring an edge component and roughly acquiring an outline. Such a selection method may be used.
また、カメラ5としては、露光調整機能を有していればよく、モノクロカメラでもカラーカメラであっても構わない。更に、カメラ5を2つ以上用いて、ステレオ撮像して三次元位置計測するようなものでも、本発明を応用して適用することが可能である。
The
1…ワーク位置検出装置:5…撮像装置(カメラ):7…ロボットアーム:8…ワーク:50…ロボットシステム:102…制御部:103…記憶部:AreaMP…基準領域(マスターパターン):AreaSEL…選定領域 DESCRIPTION OF SYMBOLS 1 ... Work position detection apparatus: 5 ... Imaging device (camera): 7 ... Robot arm: 8 ... Work: 50 ... Robot system: 102 ... Control part: 103 ... Memory | storage part: AreaMP ... Reference | standard area | region (master pattern): AreaSEL ... Selection area
Claims (7)
前記画像データを記憶する記憶部と、
前記複数のワークの中から1つのワークを選定し、前記選定したワークに対応する選定領域を設定し、前記画像データから前記選定領域に関する輝度ヒストグラムを生成し、前記選定領域に関する輝度ヒストグラムが、前記画像データに含まれる前記基準ワークに対応する基準領域に関する輝度ヒストグラムに近づくように前記選定領域における露光条件を算出し、前記撮像装置により前記露光条件で前記選定領域を再撮像して部分画像データを取得させ、前記部分画像データに基づき前記選定したワークの位置を検出する制御部と、を備えた、
ことを特徴とするワーク位置検出装置。 An imaging device having an exposure adjustment function and capturing a plurality of workpieces including a reference workpiece to obtain image data;
A storage unit for storing the image data;
One workpiece is selected from the plurality of workpieces, a selection region corresponding to the selected workpiece is set, a luminance histogram related to the selection region is generated from the image data, and the luminance histogram related to the selection region is An exposure condition in the selected area is calculated so as to approach a luminance histogram related to a reference area corresponding to the reference work included in the image data, and the selected area is re-imaged with the exposure condition by the imaging device to obtain partial image data. A control unit for acquiring and detecting the position of the selected workpiece based on the partial image data,
A workpiece position detecting device characterized by that.
前記制御部は、前記基準ワークの形状データと前記部分画像データとにより前記選定したワークの位置を検出する、
ことを特徴とする請求項1記載のワーク位置検出装置。 The storage unit stores shape data of the reference workpiece,
The control unit detects the position of the selected workpiece based on the shape data of the reference workpiece and the partial image data;
The work position detecting apparatus according to claim 1, wherein
ことを特徴とする請求項2記載のワーク位置検出装置。 The control unit acquires shape data of the reference workpiece from the image of the reference workpiece included in the image data, and stores the shape data of the reference workpiece in the storage unit.
The workpiece position detecting apparatus according to claim 2, wherein
前記ワーク位置検出装置により検出したワークの位置に基づき、そのワークを把持するように制御されるロボットアームと、を備えた、
ことを特徴とするロボットシステム。 The workpiece position detecting device according to any one of claims 1 to 3,
A robot arm controlled to hold the workpiece based on the workpiece position detected by the workpiece position detection device,
A robot system characterized by this.
前記制御部が、記憶部に前記画像データを記憶させる記憶工程と、
前記制御部が、前記複数のワークの中から1つのワークを選定する選定工程と、
前記制御部が、前記選定したワークに対応する選定領域を設定する選定領域設定工程と、
前記制御部が、前記画像データから前記選定領域に関する輝度ヒストグラムを生成し、前記選定領域に関する輝度ヒストグラムが、前記画像データに含まれる前記基準ワークに対応する基準領域に関する輝度ヒストグラムに近づくように前記選定領域における露光条件を算出する露光条件算出工程と、
前記制御部が、前記撮像装置に指令して、前記露光条件で前記選定領域を再撮像して部分画像データを取得する部分画像データ取得工程と、
前記制御部が、前記部分画像データに基づき前記選定したワークの位置を検出する位置検出工程と、を備えた、
ことを特徴とするワーク位置検出方法。 An image data acquisition step in which a control unit instructs an imaging apparatus having an exposure adjustment function to capture a plurality of workpieces including a reference workpiece and acquire image data;
A storage step in which the control unit stores the image data in a storage unit;
A selection step in which the control unit selects one workpiece from the plurality of workpieces;
A selection region setting step in which the control unit sets a selection region corresponding to the selected workpiece;
The control unit generates a luminance histogram related to the selected area from the image data, and the selection is performed such that the luminance histogram related to the selected area approaches a luminance histogram related to a reference area corresponding to the reference workpiece included in the image data. An exposure condition calculation step for calculating an exposure condition in the region;
The control unit instructs the imaging device to acquire a partial image data by reimaging the selected area under the exposure condition; and
A position detecting step for detecting the position of the selected workpiece based on the partial image data;
A workpiece position detection method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012122272A JP6025400B2 (en) | 2012-05-29 | 2012-05-29 | Work position detection device and work position detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012122272A JP6025400B2 (en) | 2012-05-29 | 2012-05-29 | Work position detection device and work position detection method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013246149A JP2013246149A (en) | 2013-12-09 |
JP2013246149A5 JP2013246149A5 (en) | 2015-07-16 |
JP6025400B2 true JP6025400B2 (en) | 2016-11-16 |
Family
ID=49846021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012122272A Expired - Fee Related JP6025400B2 (en) | 2012-05-29 | 2012-05-29 | Work position detection device and work position detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6025400B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6552221B2 (en) * | 2015-03-02 | 2019-07-31 | キヤノン株式会社 | Information processing apparatus, information processing method |
JP7568725B2 (en) | 2020-08-11 | 2024-10-16 | ファナック株式会社 | Image processing device and robot control device |
TW202227243A (en) | 2021-01-12 | 2022-07-16 | 日商發那科股份有限公司 | Image generation device, robot control device and computer program wherein the image generation device can generate the composite image by synthesizing captured images |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4136317B2 (en) * | 2000-02-07 | 2008-08-20 | キヤノン株式会社 | Imaging apparatus, control method therefor, and control program therefor |
JP2009080004A (en) * | 2007-09-26 | 2009-04-16 | Mitsubishi Electric Engineering Co Ltd | Inspection device |
US7999861B2 (en) * | 2008-03-14 | 2011-08-16 | Omron Corporation | Image processing apparatus for generating composite image with luminance range optimized for a designated area |
JP5190882B2 (en) * | 2008-11-07 | 2013-04-24 | 富士フイルム株式会社 | Compound eye photographing apparatus, control method therefor, and program |
-
2012
- 2012-05-29 JP JP2012122272A patent/JP6025400B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013246149A (en) | 2013-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108297096B (en) | Calibration device, calibration method, and computer-readable medium | |
CN105979134B (en) | Image processing apparatus, image processing method, and image processing system | |
JP5273196B2 (en) | Image processing device | |
CN110926330B (en) | Image processing apparatus, image processing method, and program | |
JP5342413B2 (en) | Image processing method | |
JP2005072888A (en) | Image projection method and image projection device | |
JP2012215394A (en) | Three-dimensional measuring apparatus and three-dimensional measuring method | |
JP2013501264A5 (en) | ||
US11590657B2 (en) | Image processing device, control method thereof, and program storage medium | |
JP5222430B1 (en) | Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus | |
JP6405124B2 (en) | Inspection device, inspection method, and program | |
CN113469971B (en) | Image matching method, detection device and storage medium | |
JP7214432B2 (en) | Image processing method, image processing program, recording medium, image processing apparatus, production system, article manufacturing method | |
JP2014035196A (en) | Shape measurement apparatus | |
JP6025400B2 (en) | Work position detection device and work position detection method | |
JP6585793B2 (en) | Inspection device, inspection method, and program | |
US11989928B2 (en) | Image processing system | |
JP5336325B2 (en) | Image processing method | |
JP2020096325A (en) | Information processor, control method of information processor, and program | |
JP2008026999A (en) | Obstacle detection system and obstacle detection method | |
JP6395455B2 (en) | Inspection device, inspection method, and program | |
JP2010286995A (en) | Image processing system for vehicle | |
JP2007026423A (en) | Image processor and image processing method | |
CN111536895B (en) | Appearance recognition device, appearance recognition system, and appearance recognition method | |
KR101793091B1 (en) | Method and apparatus for detecting defective pixels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150528 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161011 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6025400 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |