JP2018120388A - Workpiece detecting device and method - Google Patents
Workpiece detecting device and method Download PDFInfo
- Publication number
- JP2018120388A JP2018120388A JP2017010894A JP2017010894A JP2018120388A JP 2018120388 A JP2018120388 A JP 2018120388A JP 2017010894 A JP2017010894 A JP 2017010894A JP 2017010894 A JP2017010894 A JP 2017010894A JP 2018120388 A JP2018120388 A JP 2018120388A
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- area
- loading height
- image
- labeling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、載置場所に配置されている複数山のワークのそれぞれを検出することができるワーク検出装置及び方法に関する。 The present invention relates to a workpiece detection apparatus and method capable of detecting each of a plurality of mountain workpieces arranged at a placement location.
ベンディングマシン等の加工機で金属のワークを加工する際に、載置場所として例えばパレットに配置されているワークをワーク保持用ロボットで保持して、加工機へと搬送することがある。大量のワークを加工機で加工するために、パレットに同一形状のワークを複数山配置し、ワーク保持用ロボットで複数山に配置されたワークを1つずつ順に保持させて搬出することがある。 When processing a metal workpiece with a processing machine such as a bending machine, a workpiece placed on a pallet, for example, as a placement place may be held by a workpiece holding robot and conveyed to the processing machine. In order to process a large amount of workpieces with a processing machine, a plurality of workpieces having the same shape may be arranged on a pallet, and workpieces arranged on the plurality of peaks may be sequentially held and carried out by a workpiece holding robot.
従来においては、パレット上にワークの2つの山を配置する場合、ワークの山を、パレットの前後または左右のように予め定めた2つの領域に分割した分割領域のそれぞれに配置する必要がある。また、パレット上にワークの4つの山を配置する場合、ワークの山を、パレットを前後及び左右の4つの領域に分割した分割領域のそれぞれに配置する必要がある。 Conventionally, when two ridges of a work are arranged on a pallet, the hills of the work must be arranged in each of divided areas divided into two predetermined areas such as before and after the pallet or on the left and right. Further, when four hills of a work are arranged on a pallet, the work hills need to be arranged in each of divided areas obtained by dividing the pallet into four areas of front and rear and left and right.
従来においては、パレットを2つまたは4つの領域に分割した境界である仮想的な分割線上にワークを配置したり、1つの分割領域に複数山のワークを配置したりすると、ワークを正しく検出することができない。 Conventionally, when a work is arranged on a virtual dividing line that is a boundary obtained by dividing a pallet into two or four areas, or a plurality of works are arranged in one divided area, the work is correctly detected. I can't.
そのため、従来においては、作業者は、ワーク検出装置がパレットを撮影した撮影画像に設定している分割線を意識してワークの山を配置しなければならない。作業者がワークの山をパレットに配置するときには分割線を見ることができないため、作業者は、ワークの山をパレットに配置した後にワークの山が分割領域内に配置されているかを表示部で確認しなければならない。このような分割線を意識した作業は、ワークの山をパレットに配置する段取り作業の作業効率を悪化させる。 For this reason, conventionally, an operator has to place a pile of workpieces in consideration of the dividing line set in the photographed image obtained by photographing the palette by the workpiece detection device. When the worker places the workpiece mountain on the pallet, the dividing line cannot be seen. Therefore, after the worker places the workpiece mountain on the pallet, the operator can check whether the workpiece mountain is located in the divided area. Must be confirmed. Such an operation conscious of the dividing line deteriorates the work efficiency of the setup operation of arranging the workpiece piles on the pallet.
本発明は、複数山のワークを載置場所に配置するときの載置場所上の位置にかかわらず、複数山のワークそれぞれを的確に検出することができるワーク検出装置及び方法を提供することを目的とする。 The present invention provides a workpiece detection apparatus and method capable of accurately detecting each of a plurality of mountain workpieces regardless of the position on the placement location when the plurality of mountain workpieces are arranged at the placement location. Objective.
本発明は、複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を、前記ワークの輪郭が線画像として表現されるように画像処理する前処理部と、前記前処理部によって画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けするラベリング処理部と、前記ラベリング処理部によってラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出する面積算出部と、前記面積算出部によって算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録するラベリング領域登録部と、前記載置場所の全体的な撮像画像内に、前記ラベリング領域登録部によって登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成する分割領域情報生成部とを備えることを特徴とするワーク検出装置を提供する。 According to the present invention, a photographed image obtained by photographing a mounting place where a plurality of workpieces formed by loading a plurality of workpieces is imaged so that the outline of the workpiece is expressed as a line image. A pre-processing unit, a labeling processing unit for labeling each of the regions formed by the closed line images included in the captured image image-processed by the pre-processing unit, and each labeled by the labeling processing unit An area calculation unit for calculating the area of the labeling region or the area of the circumscribed figure circumscribing each labeled region, and a labeling region in which the area calculated by the area calculation unit is within a preset reference range A labeling area registration unit for registering as a labeling area in which a work exists, and an overall captured image of the above-described installation place A divided region information generating unit that sets divided regions including the respective labeling regions registered by the labeling region registration unit and generates divided region information that is position information indicating the position of each of the divided regions. There is provided a workpiece detection device characterized by the above.
また、本発明は、複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を取得し、前記撮影画像を前記ワークの輪郭が線画像として表現されるように画像処理し、画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けし、ラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出し、算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録し、前記載置場所の全体的な撮像画像内に、登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成することを特徴とするワーク検出方法を提供する。 Further, the present invention acquires a photographed image obtained by photographing a placement place where a plurality of workpieces formed by loading a plurality of workpieces are arranged, and the contour of the workpiece is a line image. Image processed to be expressed as, labeled each of the areas formed by the closed line images contained in the image processed captured image, and the area of each labeled labeling area or labeled Calculate the area of the circumscribed figure circumscribing each labeling area, and register the labeling area where the calculated area is within the preset reference range as the labeling area where the workpiece exists, In the captured image, a divided area including each registered labeling area is set, and position information indicating the position of each of the divided areas is provided. Providing a work detection method characterized by generating the area information.
本発明のワーク検出装置及び方法によれば、複数山のワークを載置場所に配置するときの載置場所上の位置にかかわらず、複数山のワークそれぞれを的確に検出することができる。 According to the workpiece detection apparatus and method of the present invention, it is possible to accurately detect each of a plurality of mountain workpieces regardless of the position on the placement location when the plurality of workpieces are placed on the placement location.
以下、一実施形態のワーク検出装置及び方法について、添付図面を参照して説明する。まず、図1を用いて、載置場所に配置されているワークWをワーク保持用ロボットで保持して、加工機へと搬送するように構成されている加工システムの全体的な構成例を説明する。図1に示す構成例において、加工機10はベンディングマシンであり、ワーク保持用ロボット20は、ワークWを吸着または把持してベンディングマシンへと搬送するワーク搬送ロボットである。
Hereinafter, a workpiece detection apparatus and method according to an embodiment will be described with reference to the accompanying drawings. First, an example of the overall configuration of a machining system configured to hold a workpiece W arranged at a placement place with a workpiece holding robot and transport the workpiece W to a machining machine will be described with reference to FIG. To do. In the configuration example shown in FIG. 1, the
加工機はベンディングマシンに限定されることはなく、パンチングマシン、レーザマシン等の任意の加工機でよい。 The processing machine is not limited to a bending machine, and may be any processing machine such as a punching machine or a laser machine.
加工機10は、上下方向に移動自在の上部テーブル101と、固定されている下部テーブル102とを有する。上部テーブル101にはパンチ金型Tpが装着され、下部テーブル102にはダイ金型Tdが装着されている。加工機10には、後述するNC装置2(図2に図示)と接続された表示・操作部21(操作ペンダント)が装着されている。
The
加工機10の前方には、多関節のワーク保持用ロボット20が設置されている。ワーク保持用ロボット20はガイドレール200上に配置されており、ガイドレール200に沿って加工機10の左右方向に移動自在に構成されている。ワーク保持用ロボット20は左右方向に移動自在ではなく、左右方向の位置が固定されていてもよい。
An articulated
ワーク保持用ロボット20の前方には、ワークWの載置場所であるパレット30が設置されている。ワークWは所定の形状を有する金属の板材である。ここでは、ワークWの形状が台形である場合を示している。パレット30には、複数枚のワークWが複数の箇所に積み重ねられている。即ち、パレット30には、複数山のワークWが配置されている。
In front of the
パレット30の近傍には、パレット30の設置面に対して所定の高さまで延びる支柱401が配置されている。支柱401は、所定の高さまで垂直方向に延び、パレット30側に水平方向に折れ曲がり、さらに、加工機10の方向へと折れ曲がっている。支柱401の先端部には、カメラ4が装着されている。カメラ4はいわゆる単眼カメラである。カメラ4は、CMOS等の撮像素子と複数枚のレンズを内蔵している。
In the vicinity of the
パレット30を挟む側壁61の上端部には、例えば複数個の発光ダイオード(LED)を内蔵する照明器具62が取り付けられている。照明器具62は、必要に応じて、パレット30を照明する。照明器具62による照明の角度は予め調整されている。
For example, a
カメラ4は、パレット30の全体を撮影して、パレット30に置かれたワークWを撮影するように構成されている。例えば、パレット30の角部P0の位置を、カメラ4がパレット30を撮影した撮影画像の原点とする。ワーク保持用ロボット20の原点位置は、撮影画像の原点と一致するように設定されている。
The camera 4 is configured to photograph the
照明器具62によってワークWが配置されたパレット30を照明すると、ワークWに影を付けることができる。よって、後述する画像演算処理装置3(図2に図示)がカメラ4による撮影画像に基づいてワークWの位置を検出する際の検出精度を向上させることができる。
When the
図2を用いて、加工機10及びワーク保持用ロボット20を制御する制御装置の構成及び動作を説明する。図2において、CAM1は、図示していないCADで生成されたワークWの製品形状を示すCADデータを保持している。CADデータは例えばCSVファイルで構成される。CAM1はワークWを加工するための加工プログラムを作成する。CAM1は、加工プログラム及び製品形状を示すファイルをNC装置2に転送する。
The configuration and operation of a control device that controls the
NC装置2には、画像演算処理装置3、ロボット制御装置5、加工機10、表示・操作部21が接続されている。NC装置2は、加工プログラムに基づいて、加工機10によるワークWの加工を制御する。NC装置2は、製品形状を示すファイルを画像演算処理装置3に転送する。
Connected to the NC device 2 are an image
画像演算処理装置3は、例えばパーソナルコンピュータで構成することができる。画像演算処理装置3には、カメラ4が接続されている。画像演算処理装置3は、本実施形態のワーク検出装置を構成する。後述するように、画像演算処理装置3は、パレット30に配置されたそれぞれの山のワークWの位置を検出し、検出した位置情報をロボット制御装置5に供給する。ロボット制御装置5は、ワークWの位置情報に基づいてワーク保持用ロボット20を制御する。
The image
画像演算処理装置3は、後述する各種の情報を保持するためのメモリ301を有する。ワーク保持用ロボット20のワークWを吸着または把持する部分には、ワークWの実積載高さを検出するセンサが取り付けられている。即ち、ワーク保持用ロボット20は、ワークWの実積載高さ検出部201を有する。
The image
図2に示す構成例では、加工機10を制御するNC装置2と、ワーク検出装置を構成する画像演算処理装置3と、ワーク保持用ロボット20を制御するロボット制御装置5とを別々に設けているが、これは単なる一例である。
In the configuration example shown in FIG. 2, the NC device 2 that controls the
NC装置2に画像演算処理装置3の機能を持たせることによって、NC装置2がワーク検出装置を構成してもよい。NC装置2とロボット制御装置5とが一体化されていてもよい。ロボット制御装置5に画像演算処理装置3の機能を持たせることによって、ロボット制御装置5がワーク検出装置を構成してもよい。
The NC device 2 may constitute a workpiece detection device by providing the NC device 2 with the function of the image
図3を用いて、画像演算処理装置3の機能的な内部構成例と、画像演算処理装置3の概略的な動作を説明する。図3において、前処理部302は、カメラ4がパレット30を撮影した撮影画像の画像データを前処理する。ラベリング処理部303は、前処理された画像データが示す撮影画像に含まれる後述する領域にラベル付けする。面積算出部304は、ラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出する。
A functional internal configuration example of the image
面積算出部304は、メモリ301に記憶されている面積基準範囲情報を参照して、算出された面積が予め設定した基準範囲内であるか否かを判定する。ラベリング領域登録部305には、面積が基準範囲内であるラベリング領域の情報が供給される。ラベリング領域登録部305は、ラベリング領域の情報を、ワークWが存在するラベリング領域としてメモリ301に登録する。
The
分割領域情報生成部306は、パレット30の全体的な撮像画像に、ラベリング領域登録部305によって登録されたそれぞれのラベリング領域を含む分割領域を設定し、分割領域それぞれの位置を示す位置情報である分割領域情報を生成する。分割領域情報生成部306は、分割領域情報をメモリ301に保持させる。
The divided area
ワーク有無検出部307は、メモリ301に保持された分割領域情報を参照して、前処理部302によって前処理された撮影画像における分割領域情報が示す分割領域それぞれでワークWの有無を検出する。積載高さ検出部308は、ワークWがあると検出された分割領域それぞれのワークWの積載高さをワークWの撮影画像の大きさに基づいて検出して、メモリ301に保持させる。
The work presence /
位置情報送信部309は、メモリ301に保持されたワークWの積載高さ情報を参照して、複数の分割領域のうち、ワークWの積載高さが最大であると検出された分割領域(以下、積載高さ最大分割領域)を抽出する。位置情報送信部309は、積載高さ最大分割領域のワークWをワーク保持用ロボット20によって保持させるために、積載高さ最大分割領域に対応する実際のパレット30上の位置を示す位置情報をロボット制御装置5に送信する。
The position
ワーク保持用ロボット20の実積載高さ検出部201は、ワーク保持用ロボット20が積載高さ最大分割領域のワークWを保持するときにワークWの実積載高さを検出する。ワークWの実積載高さを示す情報はロボット制御装置5を介して画像演算処理装置3に供給される。実積載高さ受信部310は、ワークWの実積載高さを示す情報を受信する。
The actual loading
積載高さ更新部311は、メモリ301に保持されている積載高さ最大分割領域のワークWの積載高さを、実積載高さ受信部310が受信したワークWの実積載高さを示す情報に基づいて算出した最新の実積載高さで更新する。
The loading
次に、図4に示すフローチャート及び図5〜図8を用いて、画像演算処理装置3の具体的な動作である自動領域分割の処理を説明する。図4において、処理が開始されると、画像演算処理装置3は、ステップS1にて、カメラ4がワークWが配置されたパレット30を撮影した画像データを取得する。図5は、画像データが示す画像を概念的に示している。
Next, automatic region division processing, which is a specific operation of the image
前処理部302は、ステップS2にて、画像データに対して前処理を施す。具体的には、前処理部302は、ノイズを除去し、例えば適応的閾値処理によって画像データを2値化し、モルフォロジー処理の1つである浸食処理を施す。前処理部302がこれらの前処理を施すと、ワークW等の物体の輪郭の線がつながった画像とすることができる。前処理部302は、ワークWの輪郭が線画像として表現されるように画像処理すればよい。
In step S2, the
ラベリング処理部303は、ステップS3にて、撮影画像に含まれる画素値が連続する閉じた線画像によって形成される領域に番号を割り振るラベリング処理を施す。図6は、ステップS3によるラベリング処理の結果の一例を概念的に示している。図6に示すように、10か所の山のワークWの領域は閉じた線画像の領域となっていて、それぞれ番号1〜10が割り振られている。図6においては、番号1〜3及び5〜9のワークWに囲まれた領域も閉じた線画像の領域となっていて、番号11が割り振られている状態を示している。
In step S <b> 3, the
面積算出部304は、ステップS4にて、ラベリングされた領域(以下、ラベリング領域)に外接するそれぞれの矩形の面積を算出する。矩形はラベリング領域に外接する外接図形の一例である。面積算出部304はラベリング領域に外接する外接円の面積を算出してもよい。面積算出部304は、それぞれのラベリング領域自体の面積を算出してもよい。ラベリング領域自体の面積を算出するよりもラベリング領域に外接する外接図形の面積を算出する方が、演算処理が簡略化されるので好ましい。外接図形としては矩形が好ましい。
In step S4, the
図7は、番号1が割り振られたラベリング領域に外接する矩形と、番号5が割り振られたラベリング領域に外接する矩形を示している。番号1〜10が割り振られたラベリング領域はワークWの位置に対応する領域であり、それぞれのラベリング領域の面積はほぼ同じである。しかしながら、パレット30の面内でワークWの向きが異なれば、ラベリング領域に外接する矩形の面積は異なる。
FIG. 7 shows a rectangle circumscribing the labeling area assigned
面積算出部304は、ステップS5にて、ラベリング領域の1つを選択する。例えば、面積算出部304は、番号1が割り振られたラベリング領域を選択する。面積算出部304は、ステップS6にて、面積基準範囲情報を参照して、ラベリング領域に外接する矩形の面積が基準範囲内であるか否かを判定する。
In step S5, the
ワークWの面積は既知であり、ワークWをパレット30の面内で所定の角度に回転させたときのワークWに外接する矩形の面積は予め求めることができる。パレット30には、ワークWが高さ方向に1つのみ配置されることがあり、複数のワークWが積み重ねられて所定の高さの山として配置されることもある。撮影画像におけるワークWの面積は、山の高さが低いほど小さくなり、山の高さが高いほど大きくなる。山の最大高さ(ワークWの積載枚数)は予め想定されている。
The area of the workpiece W is known, and the rectangular area circumscribing the workpiece W when the workpiece W is rotated at a predetermined angle within the plane of the
画像演算処理装置3は、ワークWが高さ方向に1つのみ配置された状態で回転させたときの矩形の最小面積及び最大面積と、ワークWが最大高さで積み重ねられた状態で回転させたときの矩形の最小面積及び最大面積とを含むように、矩形の面積の基準範囲を予め求める。メモリ301は、このように求めた面積基準範囲情報を保持すればよい。
The
NC装置2が矩形の面積の基準範囲を予め求めて、面積基準範囲情報を画像演算処理装置3に供給してもよい。
The NC apparatus 2 may obtain a rectangular area reference range in advance and supply the area reference range information to the image
ステップS6にてラベリング領域に外接する矩形の面積が基準範囲内であれば(YES)、ラベリング領域登録部305は、ステップS7にて、ワークWが存在するラベリング領域としてメモリ301に登録する。ラベリング領域に外接する矩形の面積が基準範囲内でなければ(NO)、ラベリング領域登録部305は、ステップS8にて、ラベリング領域から除外する。
If the area of the rectangle circumscribing the labeling region is within the reference range in step S6 (YES), the labeling
ワークWに外接する矩形の代わりに外接円を用いる場合には、パレット30の面内でワークWの向きが異なっても外接円の面積は変わらない。外接円またはラベリング領域の面積を基準としてワークWが存在するラベリング領域であるか否かを判定する場合には、ワークWの積載高さ(山の高さ)の変化を考慮した面積基準範囲を設定すればよい。
When a circumscribed circle is used instead of a rectangle circumscribing the workpiece W, the area of the circumscribed circle does not change even if the orientation of the workpiece W is different in the plane of the
面積算出部304は、ステップS9にて、未選択のラベリング領域があるか否かを判定する。未選択のラベリング領域があれば(YES)、面積算出部304はステップS5及びS6の処理を繰り返し、ラベリング領域登録部305はステップS7またはS8の処理を繰り返す。
In step S9, the
図6において、番号1〜10が割り振られたラベリング領域はワークWの位置に対応する領域であるから、それぞれのラベリング領域に外接する矩形の面積は基準範囲内となり、ワークWが存在するラベリング領域としてメモリ301に登録される。一方、番号11が割り振られたラベリング領域はワークWの位置に対応する領域ではなく、そのラベリング領域に外接する矩形の面積は基準範囲内とはならないため、ラベリング領域から除外される。
In FIG. 6, since the labeling areas to which the
ステップS9にて未選択のラベリング領域がなければ(NO)、分割領域情報生成部306は、ステップS10にて、パレット30の全体的な撮像画像内に、登録されたそれぞれのラベリング領域を含む分割領域を設定して分割領域情報を生成する。面積算出部304がラベリング領域に外接する矩形を算出する例では、矩形がラベリング領域を含む分割領域となる。
If there is no unselected labeling area in step S9 (NO), the divided area
分割領域情報生成部306は、分割領域情報をメモリ301に保持させる。図8は、メモリ301に保持される分割領域情報を概念的に示している。
The divided area
以上のように、ステップS2にてワークWの輪郭以外で閉じた線画像によって形成される領域が発生して、ステップS3にてラベル付けされたとしても、ワークWに対応しないラベリング領域が除外される。よって、メモリ301には、それぞれのワークWの山を示す分割領域情報のみが登録される。
As described above, even if an area formed by a closed line image other than the outline of the work W is generated in step S2 and labeling is performed in step S3, a labeling area that does not correspond to the work W is excluded. The Therefore, only the divided area information indicating the mountain of each work W is registered in the
さらに、図9A及び図9Bを用いて、ロボット制御装置5がワーク保持用ロボット20を制御してパレット30上のワークWを搬出するために必要な、画像演算処理装置3によるワークWの検出処理を説明する。なお、図9A及び図9Bに示す処理は、図3で説明した分割領域情報の登録が完了した後に実行される処理である。図9A及び図9Bにおいて、一部の処理はロボット制御装置5によって実行される。
Furthermore, using FIG. 9A and FIG. 9B, detection processing of the workpiece W by the image
図9Aにおいて、ワーク有無検出部307は、ステップS11にて、メモリ301に保持されている分割領域情報を参照して、分割領域があるか否かを判定する。ワーク有無検出部307は、分割領域があれば(YES)、処理をステップS12に移行させ、分割領域がなければ(NO)、ワークWの検出処理を終了させる。
In FIG. 9A, the workpiece presence /
ワーク有無検出部307は、ステップS12にて、分割領域の1つを選択し、ステップS13にて、前処理部302によって画像処理された撮影画像における選択された分割領域でワークWの有無を検出する。ワーク有無検出部307は、ワーク参照画像を用いる公知のパターンマッチングの手法を用いてワークWを検出すればよい。
In step S12, the workpiece presence /
ワーク有無検出部307は、ステップS14にて、ワークWが検出されたか否かを判定する。ワークWが検出されたか否かを示す情報は、積載高さ検出部308に供給される。ワークWが検出されれば(YES)、積載高さ検出部308は、ステップS15にて、ワークWの撮影画像に基づいてワークWの積載高さを検出し、検出された積載高さを分割領域に対応させてメモリ301に保持させる。ワークWが検出されなければ(NO)、積載高さ検出部308は、ステップS16にて、選択された分割領域を除外する。
The workpiece presence /
ワーク有無検出部307は、ステップS17にて、全ての分割領域内でのワークWの検出が完了したか否かを判定する。全ての分割領域内でのワークWの検出が完了していなければ(NO)、ワーク有無検出部307は、ステップS12〜S14の処理を繰り返し、積載高さ検出部308は、ステップS15またはS16の処理を繰り返す。
In step S17, the work presence /
全ての分割領域内でのワークWの検出が完了していれば(YES)、位置情報送信部309は、ステップS18にて、積載高さ最大分割領域に対応するパレット30上の位置情報をロボット制御装置5に送信する。パレット30の撮像画像内の位置と実際のパレット30上の位置とは対応付けられているから、位置情報送信部309は撮像画像内の分割領域の位置情報を実際のパレット30上の位置情報に変換して、ロボット制御装置5に送信すればよい。
If the detection of the workpieces W in all the divided areas has been completed (YES), the position
ロボット制御装置5は、ステップS19にて、ワーク保持用ロボット20によってワークWの積載高さが最大のワークWを保持して加工機10へと搬送するよう、位置情報送信部309から供給された位置情報に基づいてワーク保持用ロボット20を制御する。ワークWが加工機10に搬送されたら、NC装置2は、加工プログラムに基づいてワークWを加工するよう加工機10を制御する。
In step S19, the
実積載高さ受信部310は、ステップS20にて、実積載高さ検出部201が検出したワークWの実積載高さを示す情報を受信する。実積載高さ受信部310が受信した情報が示すワークWの実積載高さは、実積載高さ検出部201がワークWの山の最上部に位置するワークWの高さを検出した高さである。
In step S20, the actual stacked
最上部に位置するワークWはステップS19にて既に搬出されている。そこで、積載高さ更新部311は、ステップS21にて、実積載高さ受信部310が受信した情報が示すワークWの実積載高さからワークWの1枚分の厚さを減じた最新の実積載高さを求め、メモリ301に保持されているワークWの積載高さをその最新の実積載高さで更新する。
The workpiece W located at the top has already been carried out in step S19. Therefore, in step S21, the loading
引き続き、図9Bにおいて、ワーク有無検出部307は、ステップS22にて、メモリ301に保持されている分割領域情報を参照して、有効な分割領域があるか否かを判定する。有効な分割領域とは、図9AのステップS16にて除外された分割領域を除く分割領域である。有効な分割領域があると判定されれば(YES)、ワーク有無検出部307は、ステップS23にて、ワークWの積載高さが最も高い分割領域を選択する。
Subsequently, in FIG. 9B, the workpiece presence /
画像演算処理装置3は、ステップS24にて、カメラ4がパレット30を新たに撮影した撮影画像を取得する。ワーク有無検出部307は、ステップS25にて、選択された分割領域内でワークWの有無を検出する。このとき、選択された分割領域におけるワークWの積載高さが検出されているから、パターンマッチングの手法を用いてワークWの有無を検出するときに、ワークWの積載高さに対応する大きさ及びその近傍の大きさのワーク参照画像を用いてワークWの有無を検出する。このようにすれば、ワークWの有無の検出処理を高速化することができる。
In step S <b> 24, the image
ワーク有無検出部307は、ステップS26にて、ワークWが検出されたか否かを判定する。ワークWが検出されなければ(NO)、ワーク有無検出部307は、ステップS32にて、選択された分割領域を除外して、処理をステップS22に戻す。
The workpiece presence /
ワークWが検出されれば(YES)、積載高さ検出部308は、ステップS27にて、ワークWの撮影画像に基づいてワークWの積載高さを検出し、検出された積載高さを分割領域に対応させてメモリ301に保持させる。
If the workpiece W is detected (YES), the loading
位置情報送信部309は、ステップS28にて、積載高さ最大分割領域に対応するパレット30上の位置情報をロボット制御装置5に送信する。ロボット制御装置5は、ステップS29にて、ワーク保持用ロボット20によってワークWの積載高さが最大のワークWを保持して加工機10へと搬送するよう、位置情報送信部309から供給された位置情報に基づいてワーク保持用ロボット20を制御する。ワークWが加工機10に搬送されたら、NC装置2は、加工プログラムに基づいてワークWを加工するよう加工機10を制御する。
In step S28, the position
実積載高さ受信部310は、ステップS30にて、実積載高さ検出部201が検出したワークWの実積載高さを示す情報を受信する。積載高さ更新部311は、ステップS31にて、実積載高さ受信部310が受信した情報が示すワークWの実積載高さからワークWの1枚分の厚さを減じた最新の実積載高さを求め、メモリ301に保存されているワークWの積載高さをその最新の実積載高さで更新する。
The actual loading
メモリ301に保存されているワークWの積載高さを更新したら、画像演算処理装置3は、ステップS22以降の処理を繰り返す。ステップS22以降の処理を繰り返して、ステップS22にて有効な分割領域があると判定されなければ(NO)、パレット30上の全てのワークWの加工機10への搬送が完了したということである。画像演算処理装置3は、ステップS22にて有効な分割領域がなければ、ワークWの検出処理を終了させる。
When the loading height of the workpiece W stored in the
以上のように、本実施形態のワーク検出装置は、複数山のワークが配置されている載置場所を撮影した撮影画像を、ワークWの輪郭が線画像として表現されるように画像処理する前処理部302、閉じた線画像によって形成される領域にラベル付けするラベリング処理部303を備える。
As described above, the workpiece detection apparatus according to the present embodiment performs image processing on a photographed image obtained by photographing a placement place where a plurality of workpieces are arranged so that the outline of the workpiece W is expressed as a line image. The
本実施形態のワーク検出装置は、ラベリング領域の面積またはラベル付けされたラベリング領域に外接する外接図形の面積を算出する面積算出部304を備える。本実施形態のワーク検出装置は、算出された面積に基づいてワークWが存在するラベリング領域を登録するラベリング領域登録部305、ラベリング領域を含む分割領域の位置を示す分割領域情報を生成する分割領域情報生成部306を備える。
The workpiece detection apparatus of this embodiment includes an
本実施形態のワーク検出方法は、複数山のワークが配置されている載置場所を撮影した撮影画像の取得処理、ワークWの輪郭を線画像として表現する画像処理を実行する。本実施形態のワーク検出方法は、閉じた線画像によって形成される領域にラベル付けするラベリング処理、ラベリング領域またはラベリング領域に外接する外接図形の面積の算出処理を実行する。本実施形態のワーク検出方法は、算出された面積に基づいてワークWが存在するラベリング領域を登録する登録処理、ラベリング領域を含む分割領域の位置を示す分割領域情報の生成処理を実行する。 The workpiece detection method according to the present embodiment executes a captured image acquisition process that captures a placement place where a plurality of workpieces are arranged, and an image process that expresses the outline of the workpiece W as a line image. The workpiece detection method of the present embodiment executes a labeling process for labeling an area formed by a closed line image, and a calculation process for the area of a circumscribed figure circumscribing the labeling area or the labeling area. The workpiece detection method according to the present embodiment executes registration processing for registering a labeling region where the workpiece W exists based on the calculated area, and generation processing for divided region information indicating the position of the divided region including the labeling region.
よって、本実施形態のワーク検出装置及び方法によれば、複数山のワークWを載置場所に配置するときの載置場所上の位置にかかわらず、複数山のワークWそれぞれを的確に検出することができる。本実施形態のワーク検出装置及び方法によれば、ワークWの山を載置場所に配置するときに位置が制約されないので、作業者がワークWの山を載置場所に配置する段取り作業の作業効率を向上させることができる。 Therefore, according to the workpiece detection apparatus and method of the present embodiment, each of the plurality of workpieces W is accurately detected regardless of the position on the placement location when the plurality of workpieces W are placed on the placement location. be able to. According to the workpiece detection apparatus and method of the present embodiment, the position is not restricted when the pile of the workpiece W is placed at the placement location, so the work of the setup work in which the worker places the pile of the workpiece W at the placement location. Efficiency can be improved.
本実施形態のワーク検出装置及び方法によれば、ワークWの山を載置場所に多く配置することが可能となるので、ワークWを加工機10に搬送して加工して製品を生産する連続的な生産数を増やすことができる。載置場所としてのパレット30を交換する頻度を少なくすることができるから、生産効率を向上させることができる。
According to the workpiece detection apparatus and method of the present embodiment, it is possible to place a large number of piles of workpieces W on the mounting place. Therefore, the workpieces W are transferred to the
さらに、本実施形態のワーク検出装置は、分割領域それぞれでワークWの有無を検出するワーク有無検出部307、分割領域それぞれのワークWの積載高さを検出する積載高さ検出部308を備える。本実施形態のワーク検出装置は、積載高さ最大分割領域に対応するパレット30上の位置を示す位置情報をロボット制御装置5に送信する位置情報送信部309を備える。
Furthermore, the workpiece detection apparatus according to the present embodiment includes a workpiece presence /
本実施形態のワーク検出方法は、分割領域それぞれでワークWの有無を検出する検出処理、分割領域それぞれのワークWの積載高さを検出する検出処理を実行する。本実施形態のワーク検出方法は、積載高さ最大分割領域を抽出する抽出処理、積載高さ最大分割領域に対応するパレット30上の位置を示す位置情報をロボット制御装置5に送信する送信処理を実行する。
The workpiece detection method of the present embodiment executes a detection process for detecting the presence or absence of a workpiece W in each divided area and a detection process for detecting the loading height of the workpiece W in each divided area. The workpiece detection method of the present embodiment includes an extraction process for extracting the maximum stacking height division area, and a transmission process for transmitting position information indicating the position on the
よって、本実施形態のワーク検出装置及び方法によれば、ワーク保持用ロボット20が積載高さ最大分割領域のワークWを保持するよう、ロボット制御装置5がワーク保持用ロボット20を制御することができる。ワーク保持用ロボット20が積載高さ最大分割領域のワークWを保持すれば、ワーク保持用ロボット20が誤って他の分割領域のワークWの山に接触することなく加工機10へと搬送することができる。
Therefore, according to the workpiece detection apparatus and method of this embodiment, the
さらにまた、本実施形態のワーク検出装置は、ワークWの実積載高さを示す情報を受信する実積載高さ受信部310、積載高さ最大分割領域のワークWの積載高さを、最新の実積載高さで更新する積載高さ更新部311を備える。
Furthermore, the workpiece detection apparatus according to the present embodiment includes an actual loading
本実施形態のワーク検出方法は、ワークWの実積載高さを示す情報を受信する受信処理、実積載高さを示す情報に基づいて最新の実積載高さを求める算出処理、積載高さ最大分割領域のワークWの積載高さを、最新の実積載高さで更新する更新処理を実行する。 The workpiece detection method according to the present embodiment includes a reception process for receiving information indicating the actual loading height of the workpiece W, a calculation process for obtaining the latest actual loading height based on the information indicating the actual loading height, and a maximum loading height. Update processing for updating the loading height of the work W in the divided area with the latest actual loading height is executed.
よって、本実施形態のワーク検出装置及び方法によれば、ワーク保持用ロボット20によって最上部のワークWが搬出された山の積載高さを最新の高さとすることができる。本実施形態のワーク検出装置及び方法によれば、ワークWの積載高さを実積載高さに基づいて正確な高さとすることができる。
Therefore, according to the workpiece detection apparatus and method of the present embodiment, the loading height of the mountain from which the uppermost workpiece W is carried out by the
本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。 The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention.
本実施形態においては、ワーク検出装置の大方の構成を画像演算処理装置3によるソフトウェアによって構成しているが、ハードウェアによって構成してもよく、ソフトウェアとハードウェアとが混在した構成としてもよい。ソフトウェアとハードウェアとの使い分けは任意である。ハードウェアは集積回路であってもよい。
In the present embodiment, the majority of the configuration of the workpiece detection device is configured by software by the image
1 CAM
2 NC装置
3 画像演算処理装置(ワーク検出装置)
4 カメラ
5 ロボット制御装置
10 加工機
20 ワーク保持用ロボット
30 パレット(載置場所)
201 実積載高さ検出部
301 メモリ
302 前処理部
303 ラベリング処理部
304 面積算出部
305 ラベリング領域登録部
306 分割領域情報生成部
307 ワーク有無検出部
308 積載高さ検出部
309 位置情報送信部
310 実積載高さ受信部
311 積載高さ更新部
W ワーク
1 CAM
2
4
201 Actual loading
本発明は、複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を、前記ワークの輪郭が線画像として表現されるように画像処理する前処理部と、前記前処理部によって画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けするラベリング処理部と、前記ラベリング処理部によってラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出する面積算出部と、前記面積算出部によって算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録するラベリング領域登録部と、前記載置場所の全体的な撮像画像内に、前記ラベリング領域登録部によって登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成する分割領域情報生成部と、前記前処理部によって画像処理された撮影画像における前記分割領域情報が示す前記分割領域それぞれでワークの有無を検出するワーク有無検出部と、前記ワーク有無検出部によってワークがあると検出された前記分割領域それぞれのワークの積載高さを前記ワークの撮影画像の大きさに基づいて検出して、メモリに保持させる積載高さ検出部と、複数の前記分割領域のうち、前記積載高さ検出部によってワークの積載高さが最大であると検出された積載高さ最大分割領域を抽出して、前記積載高さ最大分割領域のワークをワーク保持用ロボットによって保持させるために、前記積載高さ最大分割領域に対応する前記載置場所上の位置を示す位置情報を、前記ワーク保持用ロボットを制御するロボット制御装置に送信する位置情報送信部とを備えることを特徴とするワーク検出装置を提供する。 According to the present invention, a photographed image obtained by photographing a mounting place where a plurality of workpieces formed by loading a plurality of workpieces is imaged so that the outline of the workpiece is expressed as a line image. A pre-processing unit, a labeling processing unit for labeling each of the regions formed by the closed line images included in the captured image image-processed by the pre-processing unit, and each labeled by the labeling processing unit An area calculation unit for calculating the area of the labeling region or the area of the circumscribed figure circumscribing each labeled region, and a labeling region in which the area calculated by the area calculation unit is within a preset reference range A labeling area registration unit for registering as a labeling area in which a work exists, and an overall captured image of the above-described installation place Within, said labeling region registering portion by setting the divided regions including the respective labeling area registered, the a position information indicating a division region for each position to produce a divided area information division region information generation unit, wherein A workpiece presence / absence detecting unit that detects the presence / absence of a workpiece in each of the divided regions indicated by the divided region information in the captured image image-processed by the preprocessing unit, and the divided region detected by the workpiece presence / absence detecting unit as having a workpiece A loading height detection unit that detects the loading height of each workpiece based on the size of a photographed image of the workpiece and holds the workpiece in a memory, and the loading height detection unit among a plurality of the divided areas, The maximum loading height division area detected as the maximum loading height is extracted, and the workpiece in the maximum loading height division area is extracted. To retain the Robots, position information indicating the position on the front wherein local disks corresponding to the stacking height maximum division region, a position information transmitting unit that transmits to the robot controller for controlling said work holding robot There is provided a work detection apparatus comprising:
また、本発明は、複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を取得し、前記撮影画像を前記ワークの輪郭が線画像として表現されるように画像処理し、画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けし、ラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出し、算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録し、前記載置場所の全体的な撮像画像内に、登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成し、画像処理された撮影画像における前記分割領域情報が示す前記分割領域それぞれでワークの有無を検出し、ワークがあると検出された前記分割領域それぞれのワークの積載高さを前記ワークの撮影画像の大きさに基づいて検出してメモリに保持させ、複数の前記分割領域のうち、ワークの積載高さが最大であると検出された積載高さ最大分割領域を抽出し、前記積載高さ最大分割領域のワークをワーク保持用ロボットによって保持させるために、前記積載高さ最大分割領域に対応する前記載置場所上の位置を示す位置情報を、前記ワーク保持用ロボットを制御するロボット制御装置に送信することを特徴とするワーク検出方法を提供する。 Further, the present invention acquires a photographed image obtained by photographing a placement place where a plurality of workpieces formed by loading a plurality of workpieces are arranged, and the contour of the workpiece is a line image. Image processed to be expressed as, labeled each of the areas formed by the closed line images contained in the image processed captured image, and the area of each labeled labeling area or labeled Calculate the area of the circumscribed figure circumscribing each labeling area, and register the labeling area where the calculated area is within the preset reference range as the labeling area where the workpiece exists, In the captured image, a divided area including each registered labeling area is set, and position information indicating the position of each of the divided areas is provided. To generate area information, to detect the presence or absence of a workpiece in each of the divided region indicated by the divided region information in the image-processed captured image, of each of the segmented regions detected that there is a workpiece loading height of the workpiece the Detecting based on the size of the photographed image of the work and holding it in the memory, and extracting the load height maximum divided area detected from the plurality of the divided areas as the maximum load height of the work, In order to hold the workpiece in the maximum loading height division region by the workpiece holding robot, the workpiece holding robot controls position information indicating the position on the placement position corresponding to the maximum loading height division region. Provided is a workpiece detection method characterized by transmitting to a robot controller .
Claims (6)
前記前処理部によって画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けするラベリング処理部と、
前記ラベリング処理部によってラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出する面積算出部と、
前記面積算出部によって算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録するラベリング領域登録部と、
前記載置場所の全体的な撮像画像内に、前記ラベリング領域登録部によって登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成する分割領域情報生成部と、
を備えることを特徴とするワーク検出装置。 A pre-processing unit that performs image processing on a photographed image obtained by photographing a mounting place where a plurality of workpieces formed by loading a plurality of workpieces are arranged so that the outline of the workpiece is expressed as a line image When,
A labeling processing unit for labeling each of the regions formed by the closed line images included in the captured image image-processed by the pre-processing unit;
An area calculation unit for calculating an area of each labeling region labeled by the labeling processing unit or an area of a circumscribed figure circumscribing each labeling region labeled;
A labeling region registration unit that registers a labeling region in which the area calculated by the area calculation unit is within a preset reference range as a labeling region in which a workpiece exists;
A divided region including each labeling region registered by the labeling region registration unit is set in the entire captured image of the above-described placement place, and divided region information that is position information indicating the position of each divided region is set. A divided region information generation unit to be generated;
A workpiece detection apparatus comprising:
前記ワーク有無検出部によってワークがあると検出された前記分割領域それぞれのワークの積載高さを前記ワークの撮影画像に基づいて検出して、メモリに保持させる積載高さ検出部と、
複数の前記分割領域のうち、前記積載高さ検出部によってワークの積載高さが最大であると検出された積載高さ最大分割領域を抽出して、前記積載高さ最大分割領域のワークをワーク保持用ロボットによって保持させるために、前記積載高さ最大分割領域に対応する前記載置場所上の位置を示す位置情報を、前記ワーク保持用ロボットを制御するロボット制御装置に送信する位置情報送信部と、
をさらに備えることを特徴とする請求項1に記載のワーク検出装置。 A workpiece presence / absence detection unit that detects the presence / absence of a workpiece in each of the divided regions indicated by the divided region information in the captured image subjected to image processing by the preprocessing unit;
A loading height detection unit that detects a loading height of each of the divided areas detected by the workpiece presence / absence detection unit based on a photographed image of the workpiece and holds the workpiece in a memory;
Among the plurality of divided areas, the maximum loaded height divided area detected by the loaded height detection unit as the maximum loaded height of the work is extracted, and the workpiece in the maximum loaded height divided area is extracted from the workpiece. A position information transmitting unit that transmits position information indicating a position on the placement location corresponding to the maximum stacking height division region to a robot control device that controls the workpiece holding robot, in order to be held by the holding robot. When,
The work detection apparatus according to claim 1, further comprising:
前記実積載高さ受信部が受信した前記実積載高さを示す情報に基づいて前記積載高さ最大分割領域の最上部のワークを除いた最新の実積載高さを求め、前記積載高さ検出部によって検出されて前記メモリに保持されている前記積載高さ最大分割領域のワークの積載高さを、前記最新の実積載高さで更新する積載高さ更新部と、
をさらに備えることを特徴とする請求項2に記載のワーク検出装置。 An actual loading height receiving unit that receives information indicating the actual loading height of the workpiece detected when the workpiece holding robot holds the workpiece of the maximum loading height division area;
Based on the information indicating the actual loading height received by the actual loading height receiving unit, the latest actual loading height excluding the uppermost work in the maximum loading height division area is obtained, and the loading height detection is performed. A loading height update unit that updates the loading height of the workpiece in the loading height maximum divided area detected by the unit with the latest actual loading height; and
The work detection apparatus according to claim 2, further comprising:
前記撮影画像を前記ワークの輪郭が線画像として表現されるように画像処理し、
画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けし、
ラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出し、
算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録し、
前記載置場所の全体的な撮像画像内に、登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成する
ことを特徴とするワーク検出方法。 Acquire a photographed image of a place where a plurality of workpieces formed by loading a plurality of workpieces are placed,
Processing the captured image so that the outline of the workpiece is expressed as a line image;
Label each of the areas formed by the closed line images contained in the imaged processed image;
Calculate the area of each labeled area or the area of a circumscribed figure that circumscribes each labeled area,
Register the labeling area where the calculated area is within the preset reference range as the labeling area where the workpiece exists,
A division area including each registered labeling area is set in the entire captured image of the above-described placement location, and division area information which is position information indicating the position of each of the division areas is generated. Work detection method.
ワークがあると検出された前記分割領域それぞれのワークの積載高さを前記ワークの撮影画像に基づいて検出してメモリに保持させ、
複数の前記分割領域のうち、ワークの積載高さが最大であると検出された積載高さ最大分割領域を抽出し、
前記積載高さ最大分割領域のワークをワーク保持用ロボットによって保持させるために、前記積載高さ最大分割領域に対応する前記載置場所上の位置を示す位置情報を、前記ワーク保持用ロボットを制御するロボット制御装置に送信する
ことを特徴とする請求項4に記載のワーク検出方法。 Detecting the presence or absence of a workpiece in each of the divided areas indicated by the divided area information in the captured image that has undergone image processing;
The loading height of each of the divided areas detected as having a workpiece is detected based on the photographed image of the workpiece and held in the memory,
From among the plurality of divided areas, extract the loading height maximum divided area detected that the workpiece loading height is maximum,
In order to hold the workpiece in the maximum loading height division area by the workpiece holding robot, the workpiece holding robot controls position information indicating the position on the placement place corresponding to the maximum loading height division area. The workpiece detection method according to claim 4, wherein the workpiece detection method is transmitted to a robot controller.
受信した前記実積載高さを示す情報に基づいて前記積載高さ最大分割領域の最上部のワークを除いた最新の実積載高さを求め、
前記メモリに保持されている前記積載高さ最大分割領域のワークの積載高さを、前記最新の実積載高さで更新する
ことを特徴とする請求項5に記載のワーク検出方法。 Receiving information indicating the actual loading height of the workpiece detected when the workpiece holding robot holds the workpiece in the loading height maximum division area;
Based on the received information indicating the actual loading height, obtain the latest actual loading height excluding the uppermost workpiece of the loading height maximum division area,
The workpiece detection method according to claim 5, wherein the workpiece loading height in the maximum loading height division area held in the memory is updated with the latest actual loading height.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017010894A JP2018120388A (en) | 2017-01-25 | 2017-01-25 | Workpiece detecting device and method |
PCT/JP2017/042141 WO2018139026A1 (en) | 2017-01-25 | 2017-11-24 | Workpiece detection device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017010894A JP2018120388A (en) | 2017-01-25 | 2017-01-25 | Workpiece detecting device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018120388A true JP2018120388A (en) | 2018-08-02 |
Family
ID=62978168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017010894A Pending JP2018120388A (en) | 2017-01-25 | 2017-01-25 | Workpiece detecting device and method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018120388A (en) |
WO (1) | WO2018139026A1 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3587115A1 (en) | 2018-06-26 | 2020-01-01 | Seiko Epson Corporation | Liquid ejecting apparatus and liquid ejecting method |
WO2020250761A1 (en) | 2019-06-12 | 2020-12-17 | 株式会社アマダ | Workpiece detection device and workpiece detection method |
WO2021079802A1 (en) | 2019-10-21 | 2021-04-29 | 株式会社アマダ | Workpiece photograph image processing device, workpiece photograph image processing method, and machining system |
WO2021235350A1 (en) | 2020-05-22 | 2021-11-25 | 株式会社アマダ | Bending system and method for using same |
WO2022091751A1 (en) | 2020-10-28 | 2022-05-05 | 株式会社アマダ | Workpiece transport system and workpiece transport method |
WO2022168616A1 (en) * | 2021-02-05 | 2022-08-11 | 株式会社アマダ | Device determination system, device determination method, and device determination program |
WO2023079989A1 (en) | 2021-11-04 | 2023-05-11 | 株式会社アマダ | Workpiece supply system, workpiece supply method, and workpiece supply program |
US12025299B2 (en) | 2020-05-22 | 2024-07-02 | Amada Co., Ltd. | Bending system and method for using the same |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796082B (en) * | 2019-10-29 | 2020-11-24 | 上海眼控科技股份有限公司 | Nameplate text detection method and device, computer equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60218164A (en) * | 1984-04-13 | 1985-10-31 | Toshiba Corp | Picture processor |
WO1996030169A1 (en) * | 1995-03-31 | 1996-10-03 | Toyo Kohan Co., Ltd. | Handling method and robot used for the same |
JP2002046865A (en) * | 2000-08-02 | 2002-02-12 | Murata Mach Ltd | Work picking device |
JP2003148914A (en) * | 2001-11-08 | 2003-05-21 | Fanuc Ltd | Position detector and taking-out device using position detection |
-
2017
- 2017-01-25 JP JP2017010894A patent/JP2018120388A/en active Pending
- 2017-11-24 WO PCT/JP2017/042141 patent/WO2018139026A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60218164A (en) * | 1984-04-13 | 1985-10-31 | Toshiba Corp | Picture processor |
WO1996030169A1 (en) * | 1995-03-31 | 1996-10-03 | Toyo Kohan Co., Ltd. | Handling method and robot used for the same |
JP2002046865A (en) * | 2000-08-02 | 2002-02-12 | Murata Mach Ltd | Work picking device |
JP2003148914A (en) * | 2001-11-08 | 2003-05-21 | Fanuc Ltd | Position detector and taking-out device using position detection |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3587115A1 (en) | 2018-06-26 | 2020-01-01 | Seiko Epson Corporation | Liquid ejecting apparatus and liquid ejecting method |
EP3858620A1 (en) | 2018-06-26 | 2021-08-04 | Seiko Epson Corporation | Liquid ejecting apparatus |
WO2020250761A1 (en) | 2019-06-12 | 2020-12-17 | 株式会社アマダ | Workpiece detection device and workpiece detection method |
WO2021079802A1 (en) | 2019-10-21 | 2021-04-29 | 株式会社アマダ | Workpiece photograph image processing device, workpiece photograph image processing method, and machining system |
JP2021065950A (en) * | 2019-10-21 | 2021-04-30 | 株式会社アマダ | Work-piece photographed image processing device, work-piece photographed image processing method, and processing system |
JP7269864B2 (en) | 2019-10-21 | 2023-05-09 | 株式会社アマダ | Work photographed image processing device and work photographed image processing method |
WO2021235350A1 (en) | 2020-05-22 | 2021-11-25 | 株式会社アマダ | Bending system and method for using same |
US12025299B2 (en) | 2020-05-22 | 2024-07-02 | Amada Co., Ltd. | Bending system and method for using the same |
WO2022091751A1 (en) | 2020-10-28 | 2022-05-05 | 株式会社アマダ | Workpiece transport system and workpiece transport method |
EP4238712A4 (en) * | 2020-10-28 | 2024-04-17 | Amada Co., Ltd. | Workpiece transport system and workpiece transport method |
WO2022168616A1 (en) * | 2021-02-05 | 2022-08-11 | 株式会社アマダ | Device determination system, device determination method, and device determination program |
WO2023079989A1 (en) | 2021-11-04 | 2023-05-11 | 株式会社アマダ | Workpiece supply system, workpiece supply method, and workpiece supply program |
Also Published As
Publication number | Publication date |
---|---|
WO2018139026A1 (en) | 2018-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018139026A1 (en) | Workpiece detection device and method | |
EP3383593B1 (en) | Teaching an industrial robot to pick parts | |
CN100447525C (en) | Measuring method of image measuring instrument | |
JP5923371B2 (en) | Work transfer system | |
US11972589B2 (en) | Image processing device, work robot, substrate inspection device, and specimen inspection device | |
JP6549655B2 (en) | Article transport device | |
JP5544320B2 (en) | Stereoscopic robot picking device | |
US10721849B2 (en) | Component data handling device and component mounting system | |
CN102741881B (en) | Textile article identification device and textile article gripping system | |
JP2018122370A (en) | Article conveying device using at least one sensor | |
US20190126473A1 (en) | Information processing apparatus and robot arm control system | |
JP2016147330A (en) | Control apparatus based on object recognition | |
CN109454004B (en) | Robot scanning and sorting system and method | |
CN108713175B (en) | Method for operating a through-type processing machine and through-type processing machine | |
JP6795512B2 (en) | Parts mounting machine | |
JP6706695B2 (en) | Coordinate data generation device and coordinate data generation method | |
JP2019018339A (en) | Robot system | |
WO2018158888A1 (en) | Backup-pin recognizing method and component mounting device | |
CN216286298U (en) | Device for acquiring relative position between devices and automatic feeding system of Tray core sheet material | |
JP5288960B2 (en) | Nozzle presence / absence detection method and apparatus for nozzle exchange device in surface mounter | |
JP2019098431A (en) | Information processing apparatus and sorting system | |
JP2011044591A (en) | Electronic component mounting device and suction position correction method therefor | |
CN115088402A (en) | Component mounting machine | |
JP6735208B2 (en) | Calibration jig, sheet metal carry-in system, and calibration method | |
JP5736978B2 (en) | Article recognition apparatus, article recognition system, program, and article recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181002 |