JP2018120388A - Workpiece detecting device and method - Google Patents

Workpiece detecting device and method Download PDF

Info

Publication number
JP2018120388A
JP2018120388A JP2017010894A JP2017010894A JP2018120388A JP 2018120388 A JP2018120388 A JP 2018120388A JP 2017010894 A JP2017010894 A JP 2017010894A JP 2017010894 A JP2017010894 A JP 2017010894A JP 2018120388 A JP2018120388 A JP 2018120388A
Authority
JP
Japan
Prior art keywords
workpiece
area
loading height
image
labeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017010894A
Other languages
Japanese (ja)
Inventor
久保田 輝幸
Teruyuki Kubota
輝幸 久保田
聡志 ▲高▼津
聡志 ▲高▼津
Satoshi Takatsu
尚史 三浦
Hisafumi Miura
尚史 三浦
周平 寺▲崎▼
Shuhei Terasaki
周平 寺▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amada Co Ltd
Original Assignee
Amada Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amada Holdings Co Ltd filed Critical Amada Holdings Co Ltd
Priority to JP2017010894A priority Critical patent/JP2018120388A/en
Priority to PCT/JP2017/042141 priority patent/WO2018139026A1/en
Publication of JP2018120388A publication Critical patent/JP2018120388A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a workpiece detecting device capable of appropriately detecting each of multiple workpieces.SOLUTION: An image arithmetic processing device acquires a picked-up image of a mount location where multiple workpieces are disposed and where the image is picked up (step S1). The image arithmetic processing device executes a pre-process that is an image process causing the picked-up image to express the contour of the workpiece as a line image (step S2). The image arithmetic processing device executes a labelling process that puts a label to each region formed by the closed line image contained in the picked-up image having undergone the image process (step S3). The image arithmetic processing device calculates an area of an external-contact figure (e.g., a rectangular) that externally contacts a labelling region to which the label is put (step S4). The image arithmetic processing device registers, as the labelling region where the workpiece is present, the labeling region that has the calculated area within a pre-set reference range (steps S6 and S7).SELECTED DRAWING: Figure 4

Description

本発明は、載置場所に配置されている複数山のワークのそれぞれを検出することができるワーク検出装置及び方法に関する。   The present invention relates to a workpiece detection apparatus and method capable of detecting each of a plurality of mountain workpieces arranged at a placement location.

ベンディングマシン等の加工機で金属のワークを加工する際に、載置場所として例えばパレットに配置されているワークをワーク保持用ロボットで保持して、加工機へと搬送することがある。大量のワークを加工機で加工するために、パレットに同一形状のワークを複数山配置し、ワーク保持用ロボットで複数山に配置されたワークを1つずつ順に保持させて搬出することがある。   When processing a metal workpiece with a processing machine such as a bending machine, a workpiece placed on a pallet, for example, as a placement place may be held by a workpiece holding robot and conveyed to the processing machine. In order to process a large amount of workpieces with a processing machine, a plurality of workpieces having the same shape may be arranged on a pallet, and workpieces arranged on the plurality of peaks may be sequentially held and carried out by a workpiece holding robot.

従来においては、パレット上にワークの2つの山を配置する場合、ワークの山を、パレットの前後または左右のように予め定めた2つの領域に分割した分割領域のそれぞれに配置する必要がある。また、パレット上にワークの4つの山を配置する場合、ワークの山を、パレットを前後及び左右の4つの領域に分割した分割領域のそれぞれに配置する必要がある。   Conventionally, when two ridges of a work are arranged on a pallet, the hills of the work must be arranged in each of divided areas divided into two predetermined areas such as before and after the pallet or on the left and right. Further, when four hills of a work are arranged on a pallet, the work hills need to be arranged in each of divided areas obtained by dividing the pallet into four areas of front and rear and left and right.

特開平7−319525号公報JP 7-319525 A 特開2000−288974号公報JP 2000-288974 A

従来においては、パレットを2つまたは4つの領域に分割した境界である仮想的な分割線上にワークを配置したり、1つの分割領域に複数山のワークを配置したりすると、ワークを正しく検出することができない。   Conventionally, when a work is arranged on a virtual dividing line that is a boundary obtained by dividing a pallet into two or four areas, or a plurality of works are arranged in one divided area, the work is correctly detected. I can't.

そのため、従来においては、作業者は、ワーク検出装置がパレットを撮影した撮影画像に設定している分割線を意識してワークの山を配置しなければならない。作業者がワークの山をパレットに配置するときには分割線を見ることができないため、作業者は、ワークの山をパレットに配置した後にワークの山が分割領域内に配置されているかを表示部で確認しなければならない。このような分割線を意識した作業は、ワークの山をパレットに配置する段取り作業の作業効率を悪化させる。   For this reason, conventionally, an operator has to place a pile of workpieces in consideration of the dividing line set in the photographed image obtained by photographing the palette by the workpiece detection device. When the worker places the workpiece mountain on the pallet, the dividing line cannot be seen. Therefore, after the worker places the workpiece mountain on the pallet, the operator can check whether the workpiece mountain is located in the divided area. Must be confirmed. Such an operation conscious of the dividing line deteriorates the work efficiency of the setup operation of arranging the workpiece piles on the pallet.

本発明は、複数山のワークを載置場所に配置するときの載置場所上の位置にかかわらず、複数山のワークそれぞれを的確に検出することができるワーク検出装置及び方法を提供することを目的とする。   The present invention provides a workpiece detection apparatus and method capable of accurately detecting each of a plurality of mountain workpieces regardless of the position on the placement location when the plurality of mountain workpieces are arranged at the placement location. Objective.

本発明は、複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を、前記ワークの輪郭が線画像として表現されるように画像処理する前処理部と、前記前処理部によって画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けするラベリング処理部と、前記ラベリング処理部によってラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出する面積算出部と、前記面積算出部によって算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録するラベリング領域登録部と、前記載置場所の全体的な撮像画像内に、前記ラベリング領域登録部によって登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成する分割領域情報生成部とを備えることを特徴とするワーク検出装置を提供する。   According to the present invention, a photographed image obtained by photographing a mounting place where a plurality of workpieces formed by loading a plurality of workpieces is imaged so that the outline of the workpiece is expressed as a line image. A pre-processing unit, a labeling processing unit for labeling each of the regions formed by the closed line images included in the captured image image-processed by the pre-processing unit, and each labeled by the labeling processing unit An area calculation unit for calculating the area of the labeling region or the area of the circumscribed figure circumscribing each labeled region, and a labeling region in which the area calculated by the area calculation unit is within a preset reference range A labeling area registration unit for registering as a labeling area in which a work exists, and an overall captured image of the above-described installation place A divided region information generating unit that sets divided regions including the respective labeling regions registered by the labeling region registration unit and generates divided region information that is position information indicating the position of each of the divided regions. There is provided a workpiece detection device characterized by the above.

また、本発明は、複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を取得し、前記撮影画像を前記ワークの輪郭が線画像として表現されるように画像処理し、画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けし、ラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出し、算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録し、前記載置場所の全体的な撮像画像内に、登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成することを特徴とするワーク検出方法を提供する。   Further, the present invention acquires a photographed image obtained by photographing a placement place where a plurality of workpieces formed by loading a plurality of workpieces are arranged, and the contour of the workpiece is a line image. Image processed to be expressed as, labeled each of the areas formed by the closed line images contained in the image processed captured image, and the area of each labeled labeling area or labeled Calculate the area of the circumscribed figure circumscribing each labeling area, and register the labeling area where the calculated area is within the preset reference range as the labeling area where the workpiece exists, In the captured image, a divided area including each registered labeling area is set, and position information indicating the position of each of the divided areas is provided. Providing a work detection method characterized by generating the area information.

本発明のワーク検出装置及び方法によれば、複数山のワークを載置場所に配置するときの載置場所上の位置にかかわらず、複数山のワークそれぞれを的確に検出することができる。   According to the workpiece detection apparatus and method of the present invention, it is possible to accurately detect each of a plurality of mountain workpieces regardless of the position on the placement location when the plurality of workpieces are placed on the placement location.

加工システムの全体的な構成例を示す斜視図である。It is a perspective view showing the example of the whole composition of a processing system. 一実施形態のワーク検出装置を含む加工システムの全体的な構成例を示すブロック図である。It is a block diagram showing the example of the whole composition of the processing system containing the work detection device of one embodiment. 図2の画像演算処理装置3の機能的な内部構成例を示すブロック図である。It is a block diagram which shows the functional internal structural example of the image arithmetic processing apparatus 3 of FIG. 画像演算処理装置3による自動領域分割の処理を示すフローチャートである。4 is a flowchart showing automatic area division processing by the image processing unit 3; 複数山のワークが配置されている載置場所を撮影した撮影画像を概念的に示す図である。It is a figure which shows notionally the picked-up image which image | photographed the mounting location where the workpiece | work of several mountains is arrange | positioned. 図5に示す撮影画像に基づいてラベリング処理した結果の一例を概念的に示す図である。It is a figure which shows notionally an example of the result of labeling processing based on the picked-up image shown in FIG. ワークの向きによってラベリング領域に外接する矩形の面積が異なることを示す図である。It is a figure which shows that the area of the rectangle which circumscribes a labeling area | region changes with direction of a workpiece | work. ラベリング領域を含む矩形の分割領域の位置を示す分割領域情報を概念的に示す図である。It is a figure which shows notionally the division area information which shows the position of the rectangular division area containing a labeling area | region. 図2のロボット制御装置5がワーク保持用ロボット20を制御して載置場所上のワークを搬出するために必要な、画像演算処理装置3によるワークの検出処理を示すフローチャートである。3 is a flowchart showing a workpiece detection process by the image arithmetic processing unit 3 that is necessary for the robot control device 5 of FIG. 2 to control the workpiece holding robot 20 to carry out the workpiece on the placement place. 図9Aに続く、図2のロボット制御装置5がワーク保持用ロボット20を制御して載置場所上のワークを搬出するために必要な、画像演算処理装置3によるワークの検出処理を示すフローチャートである。9A is a flowchart showing a workpiece detection process by the image arithmetic processing device 3 necessary for the robot control device 5 of FIG. 2 to control the workpiece holding robot 20 and carry out the workpiece on the placement place, following FIG. 9A. is there.

以下、一実施形態のワーク検出装置及び方法について、添付図面を参照して説明する。まず、図1を用いて、載置場所に配置されているワークWをワーク保持用ロボットで保持して、加工機へと搬送するように構成されている加工システムの全体的な構成例を説明する。図1に示す構成例において、加工機10はベンディングマシンであり、ワーク保持用ロボット20は、ワークWを吸着または把持してベンディングマシンへと搬送するワーク搬送ロボットである。   Hereinafter, a workpiece detection apparatus and method according to an embodiment will be described with reference to the accompanying drawings. First, an example of the overall configuration of a machining system configured to hold a workpiece W arranged at a placement place with a workpiece holding robot and transport the workpiece W to a machining machine will be described with reference to FIG. To do. In the configuration example shown in FIG. 1, the processing machine 10 is a bending machine, and the workpiece holding robot 20 is a workpiece transfer robot that sucks or grips the workpiece W and transfers it to the bending machine.

加工機はベンディングマシンに限定されることはなく、パンチングマシン、レーザマシン等の任意の加工機でよい。   The processing machine is not limited to a bending machine, and may be any processing machine such as a punching machine or a laser machine.

加工機10は、上下方向に移動自在の上部テーブル101と、固定されている下部テーブル102とを有する。上部テーブル101にはパンチ金型Tpが装着され、下部テーブル102にはダイ金型Tdが装着されている。加工機10には、後述するNC装置2(図2に図示)と接続された表示・操作部21(操作ペンダント)が装着されている。   The processing machine 10 includes an upper table 101 that is movable in the vertical direction and a fixed lower table 102. A punch die Tp is attached to the upper table 101, and a die die Td is attached to the lower table 102. The processing machine 10 is equipped with a display / operation unit 21 (operation pendant) connected to an NC device 2 (shown in FIG. 2) described later.

加工機10の前方には、多関節のワーク保持用ロボット20が設置されている。ワーク保持用ロボット20はガイドレール200上に配置されており、ガイドレール200に沿って加工機10の左右方向に移動自在に構成されている。ワーク保持用ロボット20は左右方向に移動自在ではなく、左右方向の位置が固定されていてもよい。   An articulated workpiece holding robot 20 is installed in front of the processing machine 10. The workpiece holding robot 20 is disposed on the guide rail 200 and is configured to be movable in the left-right direction of the processing machine 10 along the guide rail 200. The workpiece holding robot 20 is not movable in the left-right direction, and the position in the left-right direction may be fixed.

ワーク保持用ロボット20の前方には、ワークWの載置場所であるパレット30が設置されている。ワークWは所定の形状を有する金属の板材である。ここでは、ワークWの形状が台形である場合を示している。パレット30には、複数枚のワークWが複数の箇所に積み重ねられている。即ち、パレット30には、複数山のワークWが配置されている。   In front of the workpiece holding robot 20, a pallet 30 that is a place where the workpiece W is placed is installed. The workpiece W is a metal plate material having a predetermined shape. Here, the case where the shape of the workpiece W is a trapezoid is shown. On the pallet 30, a plurality of workpieces W are stacked at a plurality of locations. That is, a plurality of workpieces W are arranged on the pallet 30.

パレット30の近傍には、パレット30の設置面に対して所定の高さまで延びる支柱401が配置されている。支柱401は、所定の高さまで垂直方向に延び、パレット30側に水平方向に折れ曲がり、さらに、加工機10の方向へと折れ曲がっている。支柱401の先端部には、カメラ4が装着されている。カメラ4はいわゆる単眼カメラである。カメラ4は、CMOS等の撮像素子と複数枚のレンズを内蔵している。   In the vicinity of the pallet 30, a support column 401 extending to a predetermined height with respect to the installation surface of the pallet 30 is disposed. The support column 401 extends in the vertical direction up to a predetermined height, is bent in the horizontal direction toward the pallet 30 side, and is further bent in the direction of the processing machine 10. The camera 4 is attached to the tip of the column 401. The camera 4 is a so-called monocular camera. The camera 4 includes an image pickup device such as a CMOS and a plurality of lenses.

パレット30を挟む側壁61の上端部には、例えば複数個の発光ダイオード(LED)を内蔵する照明器具62が取り付けられている。照明器具62は、必要に応じて、パレット30を照明する。照明器具62による照明の角度は予め調整されている。   For example, a lighting fixture 62 containing a plurality of light emitting diodes (LEDs) is attached to the upper end of the side wall 61 sandwiching the pallet 30. The lighting fixture 62 illuminates the pallet 30 as necessary. The angle of illumination by the luminaire 62 is adjusted in advance.

カメラ4は、パレット30の全体を撮影して、パレット30に置かれたワークWを撮影するように構成されている。例えば、パレット30の角部P0の位置を、カメラ4がパレット30を撮影した撮影画像の原点とする。ワーク保持用ロボット20の原点位置は、撮影画像の原点と一致するように設定されている。   The camera 4 is configured to photograph the entire pallet 30 and photograph the workpiece W placed on the pallet 30. For example, the position of the corner portion P0 of the pallet 30 is set as the origin of the photographed image obtained by photographing the pallet 30 by the camera 4. The origin position of the workpiece holding robot 20 is set to coincide with the origin of the photographed image.

照明器具62によってワークWが配置されたパレット30を照明すると、ワークWに影を付けることができる。よって、後述する画像演算処理装置3(図2に図示)がカメラ4による撮影画像に基づいてワークWの位置を検出する際の検出精度を向上させることができる。   When the pallet 30 on which the workpiece W is arranged is illuminated by the lighting fixture 62, a shadow can be added to the workpiece W. Therefore, it is possible to improve the detection accuracy when the image arithmetic processing device 3 (illustrated in FIG. 2) described later detects the position of the workpiece W based on the image taken by the camera 4.

図2を用いて、加工機10及びワーク保持用ロボット20を制御する制御装置の構成及び動作を説明する。図2において、CAM1は、図示していないCADで生成されたワークWの製品形状を示すCADデータを保持している。CADデータは例えばCSVファイルで構成される。CAM1はワークWを加工するための加工プログラムを作成する。CAM1は、加工プログラム及び製品形状を示すファイルをNC装置2に転送する。   The configuration and operation of a control device that controls the processing machine 10 and the workpiece holding robot 20 will be described with reference to FIG. In FIG. 2, the CAM 1 holds CAD data indicating the product shape of the workpiece W generated by a CAD (not shown). The CAD data is composed of, for example, a CSV file. The CAM 1 creates a machining program for machining the workpiece W. The CAM 1 transfers a machining program and a file indicating the product shape to the NC device 2.

NC装置2には、画像演算処理装置3、ロボット制御装置5、加工機10、表示・操作部21が接続されている。NC装置2は、加工プログラムに基づいて、加工機10によるワークWの加工を制御する。NC装置2は、製品形状を示すファイルを画像演算処理装置3に転送する。   Connected to the NC device 2 are an image arithmetic processing device 3, a robot control device 5, a processing machine 10, and a display / operation unit 21. The NC device 2 controls the processing of the workpiece W by the processing machine 10 based on the processing program. The NC device 2 transfers a file indicating the product shape to the image arithmetic processing device 3.

画像演算処理装置3は、例えばパーソナルコンピュータで構成することができる。画像演算処理装置3には、カメラ4が接続されている。画像演算処理装置3は、本実施形態のワーク検出装置を構成する。後述するように、画像演算処理装置3は、パレット30に配置されたそれぞれの山のワークWの位置を検出し、検出した位置情報をロボット制御装置5に供給する。ロボット制御装置5は、ワークWの位置情報に基づいてワーク保持用ロボット20を制御する。   The image arithmetic processing device 3 can be constituted by a personal computer, for example. A camera 4 is connected to the image arithmetic processing device 3. The image arithmetic processing device 3 constitutes the workpiece detection device of the present embodiment. As will be described later, the image calculation processing device 3 detects the positions of the workpieces W of the respective mountains arranged on the pallet 30 and supplies the detected position information to the robot control device 5. The robot control device 5 controls the workpiece holding robot 20 based on the position information of the workpiece W.

画像演算処理装置3は、後述する各種の情報を保持するためのメモリ301を有する。ワーク保持用ロボット20のワークWを吸着または把持する部分には、ワークWの実積載高さを検出するセンサが取り付けられている。即ち、ワーク保持用ロボット20は、ワークWの実積載高さ検出部201を有する。   The image arithmetic processing device 3 has a memory 301 for holding various information described later. A sensor for detecting the actual load height of the workpiece W is attached to a portion of the workpiece holding robot 20 that sucks or grips the workpiece W. That is, the workpiece holding robot 20 includes an actual loading height detection unit 201 of the workpiece W.

図2に示す構成例では、加工機10を制御するNC装置2と、ワーク検出装置を構成する画像演算処理装置3と、ワーク保持用ロボット20を制御するロボット制御装置5とを別々に設けているが、これは単なる一例である。   In the configuration example shown in FIG. 2, the NC device 2 that controls the processing machine 10, the image arithmetic processing device 3 that constitutes the workpiece detection device, and the robot control device 5 that controls the workpiece holding robot 20 are provided separately. This is just an example.

NC装置2に画像演算処理装置3の機能を持たせることによって、NC装置2がワーク検出装置を構成してもよい。NC装置2とロボット制御装置5とが一体化されていてもよい。ロボット制御装置5に画像演算処理装置3の機能を持たせることによって、ロボット制御装置5がワーク検出装置を構成してもよい。   The NC device 2 may constitute a workpiece detection device by providing the NC device 2 with the function of the image arithmetic processing device 3. The NC device 2 and the robot control device 5 may be integrated. The robot control device 5 may constitute a workpiece detection device by providing the robot control device 5 with the function of the image arithmetic processing device 3.

図3を用いて、画像演算処理装置3の機能的な内部構成例と、画像演算処理装置3の概略的な動作を説明する。図3において、前処理部302は、カメラ4がパレット30を撮影した撮影画像の画像データを前処理する。ラベリング処理部303は、前処理された画像データが示す撮影画像に含まれる後述する領域にラベル付けする。面積算出部304は、ラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出する。   A functional internal configuration example of the image arithmetic processing device 3 and a schematic operation of the image arithmetic processing device 3 will be described with reference to FIG. In FIG. 3, the preprocessing unit 302 preprocesses image data of a captured image obtained by capturing the palette 30 by the camera 4. The labeling processing unit 303 labels areas to be described later included in the captured image indicated by the preprocessed image data. The area calculation unit 304 calculates the area of a circumscribed figure that circumscribes each labeled region.

面積算出部304は、メモリ301に記憶されている面積基準範囲情報を参照して、算出された面積が予め設定した基準範囲内であるか否かを判定する。ラベリング領域登録部305には、面積が基準範囲内であるラベリング領域の情報が供給される。ラベリング領域登録部305は、ラベリング領域の情報を、ワークWが存在するラベリング領域としてメモリ301に登録する。   The area calculation unit 304 refers to the area reference range information stored in the memory 301 and determines whether or not the calculated area is within a preset reference range. The labeling area registration unit 305 is supplied with information on a labeling area whose area is within the reference range. The labeling area registration unit 305 registers the information of the labeling area in the memory 301 as a labeling area where the workpiece W exists.

分割領域情報生成部306は、パレット30の全体的な撮像画像に、ラベリング領域登録部305によって登録されたそれぞれのラベリング領域を含む分割領域を設定し、分割領域それぞれの位置を示す位置情報である分割領域情報を生成する。分割領域情報生成部306は、分割領域情報をメモリ301に保持させる。   The divided area information generation unit 306 is position information that sets the divided areas including the respective labeling areas registered by the labeling area registration unit 305 in the entire captured image of the pallet 30 and indicates the position of each divided area. Generate divided area information. The divided area information generation unit 306 stores the divided area information in the memory 301.

ワーク有無検出部307は、メモリ301に保持された分割領域情報を参照して、前処理部302によって前処理された撮影画像における分割領域情報が示す分割領域それぞれでワークWの有無を検出する。積載高さ検出部308は、ワークWがあると検出された分割領域それぞれのワークWの積載高さをワークWの撮影画像の大きさに基づいて検出して、メモリ301に保持させる。   The work presence / absence detection unit 307 refers to the divided area information held in the memory 301 and detects the presence / absence of the work W in each divided area indicated by the divided area information in the captured image preprocessed by the preprocessing unit 302. The loading height detection unit 308 detects the loading height of the workpiece W in each of the divided areas detected as having the workpiece W based on the size of the captured image of the workpiece W, and causes the memory 301 to hold it.

位置情報送信部309は、メモリ301に保持されたワークWの積載高さ情報を参照して、複数の分割領域のうち、ワークWの積載高さが最大であると検出された分割領域(以下、積載高さ最大分割領域)を抽出する。位置情報送信部309は、積載高さ最大分割領域のワークWをワーク保持用ロボット20によって保持させるために、積載高さ最大分割領域に対応する実際のパレット30上の位置を示す位置情報をロボット制御装置5に送信する。   The position information transmission unit 309 refers to the loading height information of the workpiece W held in the memory 301, and among the plurality of divided regions, the divided region (hereinafter referred to as the loading height of the workpiece W detected as the maximum) is detected. , The maximum loading height division area) is extracted. The position information transmission unit 309 receives position information indicating the actual position on the pallet 30 corresponding to the maximum load height division area in order to hold the workpiece W in the maximum load height division area by the work holding robot 20. It transmits to the control apparatus 5.

ワーク保持用ロボット20の実積載高さ検出部201は、ワーク保持用ロボット20が積載高さ最大分割領域のワークWを保持するときにワークWの実積載高さを検出する。ワークWの実積載高さを示す情報はロボット制御装置5を介して画像演算処理装置3に供給される。実積載高さ受信部310は、ワークWの実積載高さを示す情報を受信する。   The actual loading height detection unit 201 of the workpiece holding robot 20 detects the actual loading height of the workpiece W when the workpiece holding robot 20 holds the workpiece W in the maximum loading height division region. Information indicating the actual loading height of the workpiece W is supplied to the image arithmetic processing device 3 via the robot control device 5. The actual loading height receiving unit 310 receives information indicating the actual loading height of the workpiece W.

積載高さ更新部311は、メモリ301に保持されている積載高さ最大分割領域のワークWの積載高さを、実積載高さ受信部310が受信したワークWの実積載高さを示す情報に基づいて算出した最新の実積載高さで更新する。   The loading height update unit 311 indicates the actual loading height of the workpiece W received by the actual loading height receiving unit 310 and the loading height of the workpiece W in the maximum loading height division area held in the memory 301. Update with the latest actual loading height calculated based on

次に、図4に示すフローチャート及び図5〜図8を用いて、画像演算処理装置3の具体的な動作である自動領域分割の処理を説明する。図4において、処理が開始されると、画像演算処理装置3は、ステップS1にて、カメラ4がワークWが配置されたパレット30を撮影した画像データを取得する。図5は、画像データが示す画像を概念的に示している。   Next, automatic region division processing, which is a specific operation of the image arithmetic processing device 3, will be described with reference to the flowchart shown in FIG. 4 and FIGS. In FIG. 4, when the processing is started, the image arithmetic processing device 3 acquires image data obtained by photographing the pallet 30 on which the work W is arranged in step S <b> 1. FIG. 5 conceptually shows an image indicated by the image data.

前処理部302は、ステップS2にて、画像データに対して前処理を施す。具体的には、前処理部302は、ノイズを除去し、例えば適応的閾値処理によって画像データを2値化し、モルフォロジー処理の1つである浸食処理を施す。前処理部302がこれらの前処理を施すと、ワークW等の物体の輪郭の線がつながった画像とすることができる。前処理部302は、ワークWの輪郭が線画像として表現されるように画像処理すればよい。   In step S2, the preprocessing unit 302 performs preprocessing on the image data. Specifically, the preprocessing unit 302 removes noise, binarizes image data by, for example, adaptive threshold processing, and performs erosion processing, which is one of morphological processing. When the preprocessing unit 302 performs these preprocessing, it is possible to obtain an image in which a contour line of an object such as the workpiece W is connected. The preprocessing unit 302 may perform image processing so that the outline of the workpiece W is expressed as a line image.

ラベリング処理部303は、ステップS3にて、撮影画像に含まれる画素値が連続する閉じた線画像によって形成される領域に番号を割り振るラベリング処理を施す。図6は、ステップS3によるラベリング処理の結果の一例を概念的に示している。図6に示すように、10か所の山のワークWの領域は閉じた線画像の領域となっていて、それぞれ番号1〜10が割り振られている。図6においては、番号1〜3及び5〜9のワークWに囲まれた領域も閉じた線画像の領域となっていて、番号11が割り振られている状態を示している。   In step S <b> 3, the labeling processing unit 303 performs a labeling process for assigning numbers to areas formed by closed line images in which pixel values included in the captured image are continuous. FIG. 6 conceptually shows an example of the result of the labeling process in step S3. As shown in FIG. 6, the areas of the workpieces W at the ten peaks are areas of closed line images, and numbers 1 to 10 are assigned respectively. In FIG. 6, the area surrounded by the works W of numbers 1 to 3 and 5 to 9 is also a closed line image area, and the state where the number 11 is assigned is shown.

面積算出部304は、ステップS4にて、ラベリングされた領域(以下、ラベリング領域)に外接するそれぞれの矩形の面積を算出する。矩形はラベリング領域に外接する外接図形の一例である。面積算出部304はラベリング領域に外接する外接円の面積を算出してもよい。面積算出部304は、それぞれのラベリング領域自体の面積を算出してもよい。ラベリング領域自体の面積を算出するよりもラベリング領域に外接する外接図形の面積を算出する方が、演算処理が簡略化されるので好ましい。外接図形としては矩形が好ましい。   In step S4, the area calculation unit 304 calculates the area of each rectangle circumscribing the labeled region (hereinafter, labeled region). The rectangle is an example of a circumscribed figure that circumscribes the labeling area. The area calculation unit 304 may calculate the area of a circumscribed circle that circumscribes the labeling region. The area calculation unit 304 may calculate the area of each labeling region itself. It is preferable to calculate the area of the circumscribed figure circumscribing the labeling region rather than calculating the area of the labeling region itself because the calculation process is simplified. The circumscribed figure is preferably a rectangle.

図7は、番号1が割り振られたラベリング領域に外接する矩形と、番号5が割り振られたラベリング領域に外接する矩形を示している。番号1〜10が割り振られたラベリング領域はワークWの位置に対応する領域であり、それぞれのラベリング領域の面積はほぼ同じである。しかしながら、パレット30の面内でワークWの向きが異なれば、ラベリング領域に外接する矩形の面積は異なる。   FIG. 7 shows a rectangle circumscribing the labeling area assigned number 1 and a rectangle circumscribing the labeling area assigned number 5. The labeling areas to which the numbers 1 to 10 are assigned are areas corresponding to the positions of the workpieces W, and the areas of the respective labeling areas are substantially the same. However, if the direction of the workpiece W is different in the plane of the pallet 30, the area of the rectangle circumscribing the labeling region is different.

面積算出部304は、ステップS5にて、ラベリング領域の1つを選択する。例えば、面積算出部304は、番号1が割り振られたラベリング領域を選択する。面積算出部304は、ステップS6にて、面積基準範囲情報を参照して、ラベリング領域に外接する矩形の面積が基準範囲内であるか否かを判定する。   In step S5, the area calculation unit 304 selects one of the labeling regions. For example, the area calculation unit 304 selects a labeling region to which the number 1 is assigned. In step S6, the area calculation unit 304 refers to the area reference range information and determines whether or not the rectangular area circumscribing the labeling region is within the reference range.

ワークWの面積は既知であり、ワークWをパレット30の面内で所定の角度に回転させたときのワークWに外接する矩形の面積は予め求めることができる。パレット30には、ワークWが高さ方向に1つのみ配置されることがあり、複数のワークWが積み重ねられて所定の高さの山として配置されることもある。撮影画像におけるワークWの面積は、山の高さが低いほど小さくなり、山の高さが高いほど大きくなる。山の最大高さ(ワークWの積載枚数)は予め想定されている。   The area of the workpiece W is known, and the rectangular area circumscribing the workpiece W when the workpiece W is rotated at a predetermined angle within the plane of the pallet 30 can be obtained in advance. In the pallet 30, only one workpiece W may be arranged in the height direction, and a plurality of workpieces W may be stacked and arranged as a mountain having a predetermined height. The area of the work W in the photographed image decreases as the mountain height decreases, and increases as the mountain height increases. The maximum height of the mountain (the number of workpieces W loaded) is assumed in advance.

画像演算処理装置3は、ワークWが高さ方向に1つのみ配置された状態で回転させたときの矩形の最小面積及び最大面積と、ワークWが最大高さで積み重ねられた状態で回転させたときの矩形の最小面積及び最大面積とを含むように、矩形の面積の基準範囲を予め求める。メモリ301は、このように求めた面積基準範囲情報を保持すればよい。   The image processing unit 3 rotates the rectangular minimum and maximum areas when only one workpiece W is arranged in the height direction and the workpieces W stacked at the maximum height. A rectangular area reference range is obtained in advance so as to include the minimum area and the maximum area of the rectangle. The memory 301 may hold the area reference range information obtained in this way.

NC装置2が矩形の面積の基準範囲を予め求めて、面積基準範囲情報を画像演算処理装置3に供給してもよい。   The NC apparatus 2 may obtain a rectangular area reference range in advance and supply the area reference range information to the image arithmetic processing apparatus 3.

ステップS6にてラベリング領域に外接する矩形の面積が基準範囲内であれば(YES)、ラベリング領域登録部305は、ステップS7にて、ワークWが存在するラベリング領域としてメモリ301に登録する。ラベリング領域に外接する矩形の面積が基準範囲内でなければ(NO)、ラベリング領域登録部305は、ステップS8にて、ラベリング領域から除外する。   If the area of the rectangle circumscribing the labeling region is within the reference range in step S6 (YES), the labeling region registration unit 305 registers in the memory 301 as a labeling region where the workpiece W exists in step S7. If the rectangular area circumscribing the labeling area is not within the reference range (NO), the labeling area registration unit 305 excludes the labeling area from the labeling area in step S8.

ワークWに外接する矩形の代わりに外接円を用いる場合には、パレット30の面内でワークWの向きが異なっても外接円の面積は変わらない。外接円またはラベリング領域の面積を基準としてワークWが存在するラベリング領域であるか否かを判定する場合には、ワークWの積載高さ(山の高さ)の変化を考慮した面積基準範囲を設定すればよい。   When a circumscribed circle is used instead of a rectangle circumscribing the workpiece W, the area of the circumscribed circle does not change even if the orientation of the workpiece W is different in the plane of the pallet 30. When determining whether or not the workpiece W is a labeling region on the basis of the circumscribed circle or the area of the labeling region, an area reference range in consideration of a change in the loading height (mountain height) of the workpiece W is set. You only have to set it.

面積算出部304は、ステップS9にて、未選択のラベリング領域があるか否かを判定する。未選択のラベリング領域があれば(YES)、面積算出部304はステップS5及びS6の処理を繰り返し、ラベリング領域登録部305はステップS7またはS8の処理を繰り返す。   In step S9, the area calculation unit 304 determines whether there is an unselected labeling region. If there is an unselected labeling region (YES), the area calculation unit 304 repeats the processing of steps S5 and S6, and the labeling region registration unit 305 repeats the processing of step S7 or S8.

図6において、番号1〜10が割り振られたラベリング領域はワークWの位置に対応する領域であるから、それぞれのラベリング領域に外接する矩形の面積は基準範囲内となり、ワークWが存在するラベリング領域としてメモリ301に登録される。一方、番号11が割り振られたラベリング領域はワークWの位置に対応する領域ではなく、そのラベリング領域に外接する矩形の面積は基準範囲内とはならないため、ラベリング領域から除外される。   In FIG. 6, since the labeling areas to which the numbers 1 to 10 are assigned are areas corresponding to the positions of the workpieces W, the rectangular area circumscribing each labeling area is within the reference range, and the labeling area in which the workpieces W exist Is registered in the memory 301. On the other hand, the labeling area to which the number 11 is assigned is not an area corresponding to the position of the workpiece W, and the area of the rectangle circumscribing the labeling area is not within the reference range, and thus is excluded from the labeling area.

ステップS9にて未選択のラベリング領域がなければ(NO)、分割領域情報生成部306は、ステップS10にて、パレット30の全体的な撮像画像内に、登録されたそれぞれのラベリング領域を含む分割領域を設定して分割領域情報を生成する。面積算出部304がラベリング領域に外接する矩形を算出する例では、矩形がラベリング領域を含む分割領域となる。   If there is no unselected labeling area in step S9 (NO), the divided area information generation unit 306 includes the respective labeling areas registered in the entire captured image of the pallet 30 in step S10. An area is set and divided area information is generated. In the example in which the area calculation unit 304 calculates a rectangle circumscribing the labeling region, the rectangle is a divided region including the labeling region.

分割領域情報生成部306は、分割領域情報をメモリ301に保持させる。図8は、メモリ301に保持される分割領域情報を概念的に示している。   The divided area information generation unit 306 stores the divided area information in the memory 301. FIG. 8 conceptually shows the divided area information held in the memory 301.

以上のように、ステップS2にてワークWの輪郭以外で閉じた線画像によって形成される領域が発生して、ステップS3にてラベル付けされたとしても、ワークWに対応しないラベリング領域が除外される。よって、メモリ301には、それぞれのワークWの山を示す分割領域情報のみが登録される。   As described above, even if an area formed by a closed line image other than the outline of the work W is generated in step S2 and labeling is performed in step S3, a labeling area that does not correspond to the work W is excluded. The Therefore, only the divided area information indicating the mountain of each work W is registered in the memory 301.

さらに、図9A及び図9Bを用いて、ロボット制御装置5がワーク保持用ロボット20を制御してパレット30上のワークWを搬出するために必要な、画像演算処理装置3によるワークWの検出処理を説明する。なお、図9A及び図9Bに示す処理は、図3で説明した分割領域情報の登録が完了した後に実行される処理である。図9A及び図9Bにおいて、一部の処理はロボット制御装置5によって実行される。   Furthermore, using FIG. 9A and FIG. 9B, detection processing of the workpiece W by the image arithmetic processing device 3 necessary for the robot control device 5 to control the workpiece holding robot 20 and carry out the workpiece W on the pallet 30. Will be explained. Note that the processing illustrated in FIGS. 9A and 9B is processing that is executed after the registration of the divided region information described with reference to FIG. 3 is completed. 9A and 9B, some processes are executed by the robot control device 5.

図9Aにおいて、ワーク有無検出部307は、ステップS11にて、メモリ301に保持されている分割領域情報を参照して、分割領域があるか否かを判定する。ワーク有無検出部307は、分割領域があれば(YES)、処理をステップS12に移行させ、分割領域がなければ(NO)、ワークWの検出処理を終了させる。   In FIG. 9A, the workpiece presence / absence detection unit 307 determines whether or not there is a divided region with reference to the divided region information held in the memory 301 in step S11. If there is a divided area (YES), the workpiece presence / absence detection unit 307 shifts the process to step S12, and if there is no divided area (NO), the workpiece presence / absence detection unit 307 ends the workpiece W detection process.

ワーク有無検出部307は、ステップS12にて、分割領域の1つを選択し、ステップS13にて、前処理部302によって画像処理された撮影画像における選択された分割領域でワークWの有無を検出する。ワーク有無検出部307は、ワーク参照画像を用いる公知のパターンマッチングの手法を用いてワークWを検出すればよい。   In step S12, the workpiece presence / absence detection unit 307 selects one of the divided regions, and in step S13, detects the presence / absence of the workpiece W in the selected divided region in the photographed image processed by the preprocessing unit 302. To do. The workpiece presence / absence detection unit 307 may detect the workpiece W using a known pattern matching method using a workpiece reference image.

ワーク有無検出部307は、ステップS14にて、ワークWが検出されたか否かを判定する。ワークWが検出されたか否かを示す情報は、積載高さ検出部308に供給される。ワークWが検出されれば(YES)、積載高さ検出部308は、ステップS15にて、ワークWの撮影画像に基づいてワークWの積載高さを検出し、検出された積載高さを分割領域に対応させてメモリ301に保持させる。ワークWが検出されなければ(NO)、積載高さ検出部308は、ステップS16にて、選択された分割領域を除外する。   The workpiece presence / absence detection unit 307 determines whether or not the workpiece W is detected in step S14. Information indicating whether or not the workpiece W has been detected is supplied to the loading height detection unit 308. If the workpiece W is detected (YES), the loading height detection unit 308 detects the loading height of the workpiece W based on the photographed image of the workpiece W in step S15, and divides the detected loading height. It is stored in the memory 301 in correspondence with the area. If the workpiece W is not detected (NO), the stack height detection unit 308 excludes the selected divided region in step S16.

ワーク有無検出部307は、ステップS17にて、全ての分割領域内でのワークWの検出が完了したか否かを判定する。全ての分割領域内でのワークWの検出が完了していなければ(NO)、ワーク有無検出部307は、ステップS12〜S14の処理を繰り返し、積載高さ検出部308は、ステップS15またはS16の処理を繰り返す。   In step S17, the work presence / absence detection unit 307 determines whether or not the work W has been detected in all the divided areas. If the detection of the work W in all the divided areas has not been completed (NO), the work presence / absence detection unit 307 repeats the processing of steps S12 to S14, and the stacking height detection unit 308 performs the processing of step S15 or S16. Repeat the process.

全ての分割領域内でのワークWの検出が完了していれば(YES)、位置情報送信部309は、ステップS18にて、積載高さ最大分割領域に対応するパレット30上の位置情報をロボット制御装置5に送信する。パレット30の撮像画像内の位置と実際のパレット30上の位置とは対応付けられているから、位置情報送信部309は撮像画像内の分割領域の位置情報を実際のパレット30上の位置情報に変換して、ロボット制御装置5に送信すればよい。   If the detection of the workpieces W in all the divided areas has been completed (YES), the position information transmitting unit 309 displays the position information on the pallet 30 corresponding to the maximum stacked height divided area in step S18. It transmits to the control apparatus 5. Since the position in the captured image of the pallet 30 and the actual position on the pallet 30 are associated with each other, the position information transmission unit 309 converts the position information of the divided area in the captured image into the position information on the actual pallet 30. What is necessary is just to convert and to transmit to the robot control apparatus 5.

ロボット制御装置5は、ステップS19にて、ワーク保持用ロボット20によってワークWの積載高さが最大のワークWを保持して加工機10へと搬送するよう、位置情報送信部309から供給された位置情報に基づいてワーク保持用ロボット20を制御する。ワークWが加工機10に搬送されたら、NC装置2は、加工プログラムに基づいてワークWを加工するよう加工機10を制御する。   In step S19, the robot control device 5 is supplied from the position information transmission unit 309 so that the workpiece holding robot 20 holds the workpiece W having the maximum loading height and transports it to the processing machine 10. The workpiece holding robot 20 is controlled based on the position information. When the workpiece W is conveyed to the processing machine 10, the NC device 2 controls the processing machine 10 to process the workpiece W based on the processing program.

実積載高さ受信部310は、ステップS20にて、実積載高さ検出部201が検出したワークWの実積載高さを示す情報を受信する。実積載高さ受信部310が受信した情報が示すワークWの実積載高さは、実積載高さ検出部201がワークWの山の最上部に位置するワークWの高さを検出した高さである。   In step S20, the actual stacked height receiving unit 310 receives information indicating the actual stacked height of the workpiece W detected by the actual stacked height detecting unit 201. The actual loading height of the workpiece W indicated by the information received by the actual loading height receiving unit 310 is the height at which the actual loading height detection unit 201 detects the height of the workpiece W located at the top of the peak of the workpiece W. It is.

最上部に位置するワークWはステップS19にて既に搬出されている。そこで、積載高さ更新部311は、ステップS21にて、実積載高さ受信部310が受信した情報が示すワークWの実積載高さからワークWの1枚分の厚さを減じた最新の実積載高さを求め、メモリ301に保持されているワークWの積載高さをその最新の実積載高さで更新する。   The workpiece W located at the top has already been carried out in step S19. Therefore, in step S21, the loading height update unit 311 obtains the latest value obtained by subtracting the thickness of one workpiece W from the actual loading height of the workpiece W indicated by the information received by the actual loading height receiving unit 310. The actual loading height is obtained, and the loading height of the workpiece W held in the memory 301 is updated with the latest actual loading height.

引き続き、図9Bにおいて、ワーク有無検出部307は、ステップS22にて、メモリ301に保持されている分割領域情報を参照して、有効な分割領域があるか否かを判定する。有効な分割領域とは、図9AのステップS16にて除外された分割領域を除く分割領域である。有効な分割領域があると判定されれば(YES)、ワーク有無検出部307は、ステップS23にて、ワークWの積載高さが最も高い分割領域を選択する。   Subsequently, in FIG. 9B, the workpiece presence / absence detection unit 307 refers to the divided region information held in the memory 301 in step S22 to determine whether there is a valid divided region. An effective divided area is a divided area excluding the divided areas excluded in step S16 in FIG. 9A. If it is determined that there is an effective divided area (YES), the workpiece presence / absence detection unit 307 selects a divided area where the loading height of the workpiece W is the highest in step S23.

画像演算処理装置3は、ステップS24にて、カメラ4がパレット30を新たに撮影した撮影画像を取得する。ワーク有無検出部307は、ステップS25にて、選択された分割領域内でワークWの有無を検出する。このとき、選択された分割領域におけるワークWの積載高さが検出されているから、パターンマッチングの手法を用いてワークWの有無を検出するときに、ワークWの積載高さに対応する大きさ及びその近傍の大きさのワーク参照画像を用いてワークWの有無を検出する。このようにすれば、ワークWの有無の検出処理を高速化することができる。   In step S <b> 24, the image calculation processing device 3 acquires a captured image obtained by newly capturing the palette 30 by the camera 4. In step S25, the workpiece presence / absence detection unit 307 detects the presence / absence of the workpiece W in the selected divided region. At this time, since the loading height of the workpiece W in the selected divided area is detected, the size corresponding to the loading height of the workpiece W when detecting the presence or absence of the workpiece W using the pattern matching method. And the presence or absence of the workpiece | work W is detected using the workpiece | work reference image of the magnitude | size of the vicinity. In this way, it is possible to speed up the process for detecting the presence or absence of the workpiece W.

ワーク有無検出部307は、ステップS26にて、ワークWが検出されたか否かを判定する。ワークWが検出されなければ(NO)、ワーク有無検出部307は、ステップS32にて、選択された分割領域を除外して、処理をステップS22に戻す。   The workpiece presence / absence detection unit 307 determines whether or not the workpiece W is detected in step S26. If the workpiece W is not detected (NO), the workpiece presence / absence detector 307 excludes the selected divided region in step S32 and returns the process to step S22.

ワークWが検出されれば(YES)、積載高さ検出部308は、ステップS27にて、ワークWの撮影画像に基づいてワークWの積載高さを検出し、検出された積載高さを分割領域に対応させてメモリ301に保持させる。   If the workpiece W is detected (YES), the loading height detection unit 308 detects the loading height of the workpiece W based on the photographed image of the workpiece W in step S27, and divides the detected loading height. It is stored in the memory 301 in correspondence with the area.

位置情報送信部309は、ステップS28にて、積載高さ最大分割領域に対応するパレット30上の位置情報をロボット制御装置5に送信する。ロボット制御装置5は、ステップS29にて、ワーク保持用ロボット20によってワークWの積載高さが最大のワークWを保持して加工機10へと搬送するよう、位置情報送信部309から供給された位置情報に基づいてワーク保持用ロボット20を制御する。ワークWが加工機10に搬送されたら、NC装置2は、加工プログラムに基づいてワークWを加工するよう加工機10を制御する。   In step S28, the position information transmission unit 309 transmits position information on the pallet 30 corresponding to the maximum stacking height division area to the robot control device 5. In step S29, the robot controller 5 is supplied from the position information transmission unit 309 so that the workpiece holding robot 20 holds the workpiece W having the maximum loading height and transports it to the processing machine 10. The workpiece holding robot 20 is controlled based on the position information. When the workpiece W is conveyed to the processing machine 10, the NC device 2 controls the processing machine 10 to process the workpiece W based on the processing program.

実積載高さ受信部310は、ステップS30にて、実積載高さ検出部201が検出したワークWの実積載高さを示す情報を受信する。積載高さ更新部311は、ステップS31にて、実積載高さ受信部310が受信した情報が示すワークWの実積載高さからワークWの1枚分の厚さを減じた最新の実積載高さを求め、メモリ301に保存されているワークWの積載高さをその最新の実積載高さで更新する。   The actual loading height receiving unit 310 receives information indicating the actual loading height of the workpiece W detected by the actual loading height detection unit 201 in step S30. In step S31, the loading height update unit 311 updates the latest actual loading by subtracting the thickness of one workpiece W from the actual loading height of the workpiece W indicated by the information received by the actual loading height receiving unit 310. The height is obtained, and the loading height of the workpiece W stored in the memory 301 is updated with the latest actual loading height.

メモリ301に保存されているワークWの積載高さを更新したら、画像演算処理装置3は、ステップS22以降の処理を繰り返す。ステップS22以降の処理を繰り返して、ステップS22にて有効な分割領域があると判定されなければ(NO)、パレット30上の全てのワークWの加工機10への搬送が完了したということである。画像演算処理装置3は、ステップS22にて有効な分割領域がなければ、ワークWの検出処理を終了させる。   When the loading height of the workpiece W stored in the memory 301 is updated, the image arithmetic processing device 3 repeats the processing after step S22. If the processing after step S22 is repeated and it is not determined in step S22 that there is an effective divided area (NO), it means that the transfer of all the workpieces W on the pallet 30 to the processing machine 10 has been completed. . If there is no effective divided area in step S22, the image arithmetic processing device 3 ends the work W detection processing.

以上のように、本実施形態のワーク検出装置は、複数山のワークが配置されている載置場所を撮影した撮影画像を、ワークWの輪郭が線画像として表現されるように画像処理する前処理部302、閉じた線画像によって形成される領域にラベル付けするラベリング処理部303を備える。 As described above, the workpiece detection apparatus according to the present embodiment performs image processing on a photographed image obtained by photographing a placement place where a plurality of workpieces are arranged so that the outline of the workpiece W is expressed as a line image. The processing unit 302 includes a labeling processing unit 303 that labels an area formed by the closed line image.

本実施形態のワーク検出装置は、ラベリング領域の面積またはラベル付けされたラベリング領域に外接する外接図形の面積を算出する面積算出部304を備える。本実施形態のワーク検出装置は、算出された面積に基づいてワークWが存在するラベリング領域を登録するラベリング領域登録部305、ラベリング領域を含む分割領域の位置を示す分割領域情報を生成する分割領域情報生成部306を備える。 The workpiece detection apparatus of this embodiment includes an area calculation unit 304 that calculates the area of a labeling region or the area of a circumscribed figure circumscribing a labeled labeling region. The workpiece detection apparatus according to the present embodiment includes a labeling region registration unit 305 that registers a labeling region where the workpiece W exists based on the calculated area, and a segmented region that generates segmented region information indicating the position of the segmented region including the labeling region. An information generation unit 306 is provided.

本実施形態のワーク検出方法は、複数山のワークが配置されている載置場所を撮影した撮影画像の取得処理、ワークWの輪郭を線画像として表現する画像処理を実行する。本実施形態のワーク検出方法は、閉じた線画像によって形成される領域にラベル付けするラベリング処理、ラベリング領域またはラベリング領域に外接する外接図形の面積の算出処理を実行する。本実施形態のワーク検出方法は、算出された面積に基づいてワークWが存在するラベリング領域を登録する登録処理、ラベリング領域を含む分割領域の位置を示す分割領域情報の生成処理を実行する。 The workpiece detection method according to the present embodiment executes a captured image acquisition process that captures a placement place where a plurality of workpieces are arranged, and an image process that expresses the outline of the workpiece W as a line image. The workpiece detection method of the present embodiment executes a labeling process for labeling an area formed by a closed line image, and a calculation process for the area of a circumscribed figure circumscribing the labeling area or the labeling area. The workpiece detection method according to the present embodiment executes registration processing for registering a labeling region where the workpiece W exists based on the calculated area, and generation processing for divided region information indicating the position of the divided region including the labeling region.

よって、本実施形態のワーク検出装置及び方法によれば、複数山のワークWを載置場所に配置するときの載置場所上の位置にかかわらず、複数山のワークWそれぞれを的確に検出することができる。本実施形態のワーク検出装置及び方法によれば、ワークWの山を載置場所に配置するときに位置が制約されないので、作業者がワークWの山を載置場所に配置する段取り作業の作業効率を向上させることができる。 Therefore, according to the workpiece detection apparatus and method of the present embodiment, each of the plurality of workpieces W is accurately detected regardless of the position on the placement location when the plurality of workpieces W are placed on the placement location. be able to. According to the workpiece detection apparatus and method of the present embodiment, the position is not restricted when the pile of the workpiece W is placed at the placement location, so the work of the setup work in which the worker places the pile of the workpiece W at the placement location. Efficiency can be improved.

本実施形態のワーク検出装置及び方法によれば、ワークWの山を載置場所に多く配置することが可能となるので、ワークWを加工機10に搬送して加工して製品を生産する連続的な生産数を増やすことができる。載置場所としてのパレット30を交換する頻度を少なくすることができるから、生産効率を向上させることができる。   According to the workpiece detection apparatus and method of the present embodiment, it is possible to place a large number of piles of workpieces W on the mounting place. Therefore, the workpieces W are transferred to the processing machine 10 and processed to produce products. The number of production can be increased. Since the frequency of exchanging the pallet 30 as a mounting place can be reduced, production efficiency can be improved.

さらに、本実施形態のワーク検出装置は、分割領域それぞれでワークWの有無を検出するワーク有無検出部307、分割領域それぞれのワークWの積載高さを検出する積載高さ検出部308を備える。本実施形態のワーク検出装置は、積載高さ最大分割領域に対応するパレット30上の位置を示す位置情報をロボット制御装置5に送信する位置情報送信部309を備える。   Furthermore, the workpiece detection apparatus according to the present embodiment includes a workpiece presence / absence detection unit 307 that detects the presence / absence of a workpiece W in each divided region, and a loading height detection unit 308 that detects the loading height of the workpiece W in each divided region. The workpiece detection apparatus according to the present embodiment includes a position information transmission unit 309 that transmits position information indicating the position on the pallet 30 corresponding to the maximum stacking height division area to the robot control apparatus 5.

本実施形態のワーク検出方法は、分割領域それぞれでワークWの有無を検出する検出処理、分割領域それぞれのワークWの積載高さを検出する検出処理を実行する。本実施形態のワーク検出方法は、積載高さ最大分割領域を抽出する抽出処理、積載高さ最大分割領域に対応するパレット30上の位置を示す位置情報をロボット制御装置5に送信する送信処理を実行する。   The workpiece detection method of the present embodiment executes a detection process for detecting the presence or absence of a workpiece W in each divided area and a detection process for detecting the loading height of the workpiece W in each divided area. The workpiece detection method of the present embodiment includes an extraction process for extracting the maximum stacking height division area, and a transmission process for transmitting position information indicating the position on the pallet 30 corresponding to the maximum stacking height division area to the robot controller 5. Run.

よって、本実施形態のワーク検出装置及び方法によれば、ワーク保持用ロボット20が積載高さ最大分割領域のワークWを保持するよう、ロボット制御装置5がワーク保持用ロボット20を制御することができる。ワーク保持用ロボット20が積載高さ最大分割領域のワークWを保持すれば、ワーク保持用ロボット20が誤って他の分割領域のワークWの山に接触することなく加工機10へと搬送することができる。   Therefore, according to the workpiece detection apparatus and method of this embodiment, the robot controller 5 can control the workpiece holding robot 20 so that the workpiece holding robot 20 holds the workpiece W in the maximum loading height division region. it can. If the workpiece holding robot 20 holds the workpiece W in the maximum loading area divided area, the workpiece holding robot 20 may mistakenly convey the workpiece W to the processing machine 10 without touching the mountain of the workpiece W in the other divided area. Can do.

さらにまた、本実施形態のワーク検出装置は、ワークWの実積載高さを示す情報を受信する実積載高さ受信部310、積載高さ最大分割領域のワークWの積載高さを、最新の実積載高さで更新する積載高さ更新部311を備える。   Furthermore, the workpiece detection apparatus according to the present embodiment includes an actual loading height receiving unit 310 that receives information indicating the actual loading height of the workpiece W, and the loading height of the workpiece W in the maximum loading height division area. A loading height update unit 311 that updates the actual loading height is provided.

本実施形態のワーク検出方法は、ワークWの実積載高さを示す情報を受信する受信処理、実積載高さを示す情報に基づいて最新の実積載高さを求める算出処理、積載高さ最大分割領域のワークWの積載高さを、最新の実積載高さで更新する更新処理を実行する。   The workpiece detection method according to the present embodiment includes a reception process for receiving information indicating the actual loading height of the workpiece W, a calculation process for obtaining the latest actual loading height based on the information indicating the actual loading height, and a maximum loading height. Update processing for updating the loading height of the work W in the divided area with the latest actual loading height is executed.

よって、本実施形態のワーク検出装置及び方法によれば、ワーク保持用ロボット20によって最上部のワークWが搬出された山の積載高さを最新の高さとすることができる。本実施形態のワーク検出装置及び方法によれば、ワークWの積載高さを実積載高さに基づいて正確な高さとすることができる。   Therefore, according to the workpiece detection apparatus and method of the present embodiment, the loading height of the mountain from which the uppermost workpiece W is carried out by the workpiece holding robot 20 can be set to the latest height. According to the workpiece detection apparatus and method of the present embodiment, the loading height of the workpiece W can be set to an accurate height based on the actual loading height.

本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。   The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention.

本実施形態においては、ワーク検出装置の大方の構成を画像演算処理装置3によるソフトウェアによって構成しているが、ハードウェアによって構成してもよく、ソフトウェアとハードウェアとが混在した構成としてもよい。ソフトウェアとハードウェアとの使い分けは任意である。ハードウェアは集積回路であってもよい。   In the present embodiment, the majority of the configuration of the workpiece detection device is configured by software by the image arithmetic processing device 3, but may be configured by hardware or a configuration in which software and hardware are mixed. The use of software and hardware is arbitrary. The hardware may be an integrated circuit.

1 CAM
2 NC装置
3 画像演算処理装置(ワーク検出装置)
4 カメラ
5 ロボット制御装置
10 加工機
20 ワーク保持用ロボット
30 パレット(載置場所)
201 実積載高さ検出部
301 メモリ
302 前処理部
303 ラベリング処理部
304 面積算出部
305 ラベリング領域登録部
306 分割領域情報生成部
307 ワーク有無検出部
308 積載高さ検出部
309 位置情報送信部
310 実積載高さ受信部
311 積載高さ更新部
W ワーク
1 CAM
2 NC device 3 Image processing unit (work detection device)
4 Camera 5 Robot Control Device 10 Processing Machine 20 Workpiece Holding Robot 30 Pallet (Place)
201 Actual loading height detection unit 301 Memory 302 Pre-processing unit 303 Labeling processing unit 304 Area calculation unit 305 Labeling region registration unit 306 Division region information generation unit 307 Work presence / absence detection unit 308 Loading height detection unit 309 Position information transmission unit 310 Actual Load height receiving unit 311 Load height update unit W Workpiece

本発明は、複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を、前記ワークの輪郭が線画像として表現されるように画像処理する前処理部と、前記前処理部によって画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けするラベリング処理部と、前記ラベリング処理部によってラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出する面積算出部と、前記面積算出部によって算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録するラベリング領域登録部と、前記載置場所の全体的な撮像画像内に、前記ラベリング領域登録部によって登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成する分割領域情報生成部と、前記前処理部によって画像処理された撮影画像における前記分割領域情報が示す前記分割領域それぞれでワークの有無を検出するワーク有無検出部と、前記ワーク有無検出部によってワークがあると検出された前記分割領域それぞれのワークの積載高さを前記ワークの撮影画像の大きさに基づいて検出して、メモリに保持させる積載高さ検出部と、複数の前記分割領域のうち、前記積載高さ検出部によってワークの積載高さが最大であると検出された積載高さ最大分割領域を抽出して、前記積載高さ最大分割領域のワークをワーク保持用ロボットによって保持させるために、前記積載高さ最大分割領域に対応する前記載置場所上の位置を示す位置情報を、前記ワーク保持用ロボットを制御するロボット制御装置に送信する位置情報送信部とを備えることを特徴とするワーク検出装置を提供する。 According to the present invention, a photographed image obtained by photographing a mounting place where a plurality of workpieces formed by loading a plurality of workpieces is imaged so that the outline of the workpiece is expressed as a line image. A pre-processing unit, a labeling processing unit for labeling each of the regions formed by the closed line images included in the captured image image-processed by the pre-processing unit, and each labeled by the labeling processing unit An area calculation unit for calculating the area of the labeling region or the area of the circumscribed figure circumscribing each labeled region, and a labeling region in which the area calculated by the area calculation unit is within a preset reference range A labeling area registration unit for registering as a labeling area in which a work exists, and an overall captured image of the above-described installation place Within, said labeling region registering portion by setting the divided regions including the respective labeling area registered, the a position information indicating a division region for each position to produce a divided area information division region information generation unit, wherein A workpiece presence / absence detecting unit that detects the presence / absence of a workpiece in each of the divided regions indicated by the divided region information in the captured image image-processed by the preprocessing unit, and the divided region detected by the workpiece presence / absence detecting unit as having a workpiece A loading height detection unit that detects the loading height of each workpiece based on the size of a photographed image of the workpiece and holds the workpiece in a memory, and the loading height detection unit among a plurality of the divided areas, The maximum loading height division area detected as the maximum loading height is extracted, and the workpiece in the maximum loading height division area is extracted. To retain the Robots, position information indicating the position on the front wherein local disks corresponding to the stacking height maximum division region, a position information transmitting unit that transmits to the robot controller for controlling said work holding robot There is provided a work detection apparatus comprising:

また、本発明は、複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を取得し、前記撮影画像を前記ワークの輪郭が線画像として表現されるように画像処理し、画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けし、ラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出し、算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録し、前記載置場所の全体的な撮像画像内に、登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成し、画像処理された撮影画像における前記分割領域情報が示す前記分割領域それぞれでワークの有無を検出し、ワークがあると検出された前記分割領域それぞれのワークの積載高さを前記ワークの撮影画像の大きさに基づいて検出してメモリに保持させ、複数の前記分割領域のうち、ワークの積載高さが最大であると検出された積載高さ最大分割領域を抽出し、前記積載高さ最大分割領域のワークをワーク保持用ロボットによって保持させるために、前記積載高さ最大分割領域に対応する前記載置場所上の位置を示す位置情報を、前記ワーク保持用ロボットを制御するロボット制御装置に送信することを特徴とするワーク検出方法を提供する。 Further, the present invention acquires a photographed image obtained by photographing a placement place where a plurality of workpieces formed by loading a plurality of workpieces are arranged, and the contour of the workpiece is a line image. Image processed to be expressed as, labeled each of the areas formed by the closed line images contained in the image processed captured image, and the area of each labeled labeling area or labeled Calculate the area of the circumscribed figure circumscribing each labeling area, and register the labeling area where the calculated area is within the preset reference range as the labeling area where the workpiece exists, In the captured image, a divided area including each registered labeling area is set, and position information indicating the position of each of the divided areas is provided. To generate area information, to detect the presence or absence of a workpiece in each of the divided region indicated by the divided region information in the image-processed captured image, of each of the segmented regions detected that there is a workpiece loading height of the workpiece the Detecting based on the size of the photographed image of the work and holding it in the memory, and extracting the load height maximum divided area detected from the plurality of the divided areas as the maximum load height of the work, In order to hold the workpiece in the maximum loading height division region by the workpiece holding robot, the workpiece holding robot controls position information indicating the position on the placement position corresponding to the maximum loading height division region. Provided is a workpiece detection method characterized by transmitting to a robot controller .

Claims (6)

複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を、前記ワークの輪郭が線画像として表現されるように画像処理する前処理部と、
前記前処理部によって画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けするラベリング処理部と、
前記ラベリング処理部によってラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出する面積算出部と、
前記面積算出部によって算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録するラベリング領域登録部と、
前記載置場所の全体的な撮像画像内に、前記ラベリング領域登録部によって登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成する分割領域情報生成部と、
を備えることを特徴とするワーク検出装置。
A pre-processing unit that performs image processing on a photographed image obtained by photographing a mounting place where a plurality of workpieces formed by loading a plurality of workpieces are arranged so that the outline of the workpiece is expressed as a line image When,
A labeling processing unit for labeling each of the regions formed by the closed line images included in the captured image image-processed by the pre-processing unit;
An area calculation unit for calculating an area of each labeling region labeled by the labeling processing unit or an area of a circumscribed figure circumscribing each labeling region labeled;
A labeling region registration unit that registers a labeling region in which the area calculated by the area calculation unit is within a preset reference range as a labeling region in which a workpiece exists;
A divided region including each labeling region registered by the labeling region registration unit is set in the entire captured image of the above-described placement place, and divided region information that is position information indicating the position of each divided region is set. A divided region information generation unit to be generated;
A workpiece detection apparatus comprising:
前記前処理部によって画像処理された撮影画像における前記分割領域情報が示す前記分割領域それぞれでワークの有無を検出するワーク有無検出部と、
前記ワーク有無検出部によってワークがあると検出された前記分割領域それぞれのワークの積載高さを前記ワークの撮影画像に基づいて検出して、メモリに保持させる積載高さ検出部と、
複数の前記分割領域のうち、前記積載高さ検出部によってワークの積載高さが最大であると検出された積載高さ最大分割領域を抽出して、前記積載高さ最大分割領域のワークをワーク保持用ロボットによって保持させるために、前記積載高さ最大分割領域に対応する前記載置場所上の位置を示す位置情報を、前記ワーク保持用ロボットを制御するロボット制御装置に送信する位置情報送信部と、
をさらに備えることを特徴とする請求項1に記載のワーク検出装置。
A workpiece presence / absence detection unit that detects the presence / absence of a workpiece in each of the divided regions indicated by the divided region information in the captured image subjected to image processing by the preprocessing unit;
A loading height detection unit that detects a loading height of each of the divided areas detected by the workpiece presence / absence detection unit based on a photographed image of the workpiece and holds the workpiece in a memory;
Among the plurality of divided areas, the maximum loaded height divided area detected by the loaded height detection unit as the maximum loaded height of the work is extracted, and the workpiece in the maximum loaded height divided area is extracted from the workpiece. A position information transmitting unit that transmits position information indicating a position on the placement location corresponding to the maximum stacking height division region to a robot control device that controls the workpiece holding robot, in order to be held by the holding robot. When,
The work detection apparatus according to claim 1, further comprising:
前記ワーク保持用ロボットが前記積載高さ最大分割領域のワークを保持するときに検出したワークの実積載高さを示す情報を受信する実積載高さ受信部と、
前記実積載高さ受信部が受信した前記実積載高さを示す情報に基づいて前記積載高さ最大分割領域の最上部のワークを除いた最新の実積載高さを求め、前記積載高さ検出部によって検出されて前記メモリに保持されている前記積載高さ最大分割領域のワークの積載高さを、前記最新の実積載高さで更新する積載高さ更新部と、
をさらに備えることを特徴とする請求項2に記載のワーク検出装置。
An actual loading height receiving unit that receives information indicating the actual loading height of the workpiece detected when the workpiece holding robot holds the workpiece of the maximum loading height division area;
Based on the information indicating the actual loading height received by the actual loading height receiving unit, the latest actual loading height excluding the uppermost work in the maximum loading height division area is obtained, and the loading height detection is performed. A loading height update unit that updates the loading height of the workpiece in the loading height maximum divided area detected by the unit with the latest actual loading height; and
The work detection apparatus according to claim 2, further comprising:
複数のワークが積載されることによって形成された複数山のワークが配置されている載置場所を撮影した撮影画像を取得し、
前記撮影画像を前記ワークの輪郭が線画像として表現されるように画像処理し、
画像処理された撮影画像に含まれる閉じた線画像によって形成される領域のそれぞれにラベル付けし、
ラベル付けされたそれぞれのラベリング領域の面積またはラベル付けされたそれぞれのラベリング領域に外接する外接図形の面積を算出し、
算出された面積が予め設定した基準範囲内であるラベリング領域を、ワークが存在するラベリング領域として登録し、
前記載置場所の全体的な撮像画像内に、登録されたそれぞれのラベリング領域を含む分割領域を設定し、前記分割領域それぞれの位置を示す位置情報である分割領域情報を生成する
ことを特徴とするワーク検出方法。
Acquire a photographed image of a place where a plurality of workpieces formed by loading a plurality of workpieces are placed,
Processing the captured image so that the outline of the workpiece is expressed as a line image;
Label each of the areas formed by the closed line images contained in the imaged processed image;
Calculate the area of each labeled area or the area of a circumscribed figure that circumscribes each labeled area,
Register the labeling area where the calculated area is within the preset reference range as the labeling area where the workpiece exists,
A division area including each registered labeling area is set in the entire captured image of the above-described placement location, and division area information which is position information indicating the position of each of the division areas is generated. Work detection method.
画像処理された撮影画像における前記分割領域情報が示す前記分割領域それぞれでワークの有無を検出し、
ワークがあると検出された前記分割領域それぞれのワークの積載高さを前記ワークの撮影画像に基づいて検出してメモリに保持させ、
複数の前記分割領域のうち、ワークの積載高さが最大であると検出された積載高さ最大分割領域を抽出し、
前記積載高さ最大分割領域のワークをワーク保持用ロボットによって保持させるために、前記積載高さ最大分割領域に対応する前記載置場所上の位置を示す位置情報を、前記ワーク保持用ロボットを制御するロボット制御装置に送信する
ことを特徴とする請求項4に記載のワーク検出方法。
Detecting the presence or absence of a workpiece in each of the divided areas indicated by the divided area information in the captured image that has undergone image processing;
The loading height of each of the divided areas detected as having a workpiece is detected based on the photographed image of the workpiece and held in the memory,
From among the plurality of divided areas, extract the loading height maximum divided area detected that the workpiece loading height is maximum,
In order to hold the workpiece in the maximum loading height division area by the workpiece holding robot, the workpiece holding robot controls position information indicating the position on the placement place corresponding to the maximum loading height division area. The workpiece detection method according to claim 4, wherein the workpiece detection method is transmitted to a robot controller.
前記ワーク保持用ロボットが前記積載高さ最大分割領域のワークを保持するときに検出したワークの実積載高さを示す情報を受信し、
受信した前記実積載高さを示す情報に基づいて前記積載高さ最大分割領域の最上部のワークを除いた最新の実積載高さを求め、
前記メモリに保持されている前記積載高さ最大分割領域のワークの積載高さを、前記最新の実積載高さで更新する
ことを特徴とする請求項5に記載のワーク検出方法。
Receiving information indicating the actual loading height of the workpiece detected when the workpiece holding robot holds the workpiece in the loading height maximum division area;
Based on the received information indicating the actual loading height, obtain the latest actual loading height excluding the uppermost workpiece of the loading height maximum division area,
The workpiece detection method according to claim 5, wherein the workpiece loading height in the maximum loading height division area held in the memory is updated with the latest actual loading height.
JP2017010894A 2017-01-25 2017-01-25 Workpiece detecting device and method Pending JP2018120388A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017010894A JP2018120388A (en) 2017-01-25 2017-01-25 Workpiece detecting device and method
PCT/JP2017/042141 WO2018139026A1 (en) 2017-01-25 2017-11-24 Workpiece detection device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017010894A JP2018120388A (en) 2017-01-25 2017-01-25 Workpiece detecting device and method

Publications (1)

Publication Number Publication Date
JP2018120388A true JP2018120388A (en) 2018-08-02

Family

ID=62978168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017010894A Pending JP2018120388A (en) 2017-01-25 2017-01-25 Workpiece detecting device and method

Country Status (2)

Country Link
JP (1) JP2018120388A (en)
WO (1) WO2018139026A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3587115A1 (en) 2018-06-26 2020-01-01 Seiko Epson Corporation Liquid ejecting apparatus and liquid ejecting method
WO2020250761A1 (en) 2019-06-12 2020-12-17 株式会社アマダ Workpiece detection device and workpiece detection method
WO2021079802A1 (en) 2019-10-21 2021-04-29 株式会社アマダ Workpiece photograph image processing device, workpiece photograph image processing method, and machining system
WO2021235350A1 (en) 2020-05-22 2021-11-25 株式会社アマダ Bending system and method for using same
WO2022091751A1 (en) 2020-10-28 2022-05-05 株式会社アマダ Workpiece transport system and workpiece transport method
WO2022168616A1 (en) * 2021-02-05 2022-08-11 株式会社アマダ Device determination system, device determination method, and device determination program
WO2023079989A1 (en) 2021-11-04 2023-05-11 株式会社アマダ Workpiece supply system, workpiece supply method, and workpiece supply program
US12025299B2 (en) 2020-05-22 2024-07-02 Amada Co., Ltd. Bending system and method for using the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796082B (en) * 2019-10-29 2020-11-24 上海眼控科技股份有限公司 Nameplate text detection method and device, computer equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60218164A (en) * 1984-04-13 1985-10-31 Toshiba Corp Picture processor
WO1996030169A1 (en) * 1995-03-31 1996-10-03 Toyo Kohan Co., Ltd. Handling method and robot used for the same
JP2002046865A (en) * 2000-08-02 2002-02-12 Murata Mach Ltd Work picking device
JP2003148914A (en) * 2001-11-08 2003-05-21 Fanuc Ltd Position detector and taking-out device using position detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60218164A (en) * 1984-04-13 1985-10-31 Toshiba Corp Picture processor
WO1996030169A1 (en) * 1995-03-31 1996-10-03 Toyo Kohan Co., Ltd. Handling method and robot used for the same
JP2002046865A (en) * 2000-08-02 2002-02-12 Murata Mach Ltd Work picking device
JP2003148914A (en) * 2001-11-08 2003-05-21 Fanuc Ltd Position detector and taking-out device using position detection

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3587115A1 (en) 2018-06-26 2020-01-01 Seiko Epson Corporation Liquid ejecting apparatus and liquid ejecting method
EP3858620A1 (en) 2018-06-26 2021-08-04 Seiko Epson Corporation Liquid ejecting apparatus
WO2020250761A1 (en) 2019-06-12 2020-12-17 株式会社アマダ Workpiece detection device and workpiece detection method
WO2021079802A1 (en) 2019-10-21 2021-04-29 株式会社アマダ Workpiece photograph image processing device, workpiece photograph image processing method, and machining system
JP2021065950A (en) * 2019-10-21 2021-04-30 株式会社アマダ Work-piece photographed image processing device, work-piece photographed image processing method, and processing system
JP7269864B2 (en) 2019-10-21 2023-05-09 株式会社アマダ Work photographed image processing device and work photographed image processing method
WO2021235350A1 (en) 2020-05-22 2021-11-25 株式会社アマダ Bending system and method for using same
US12025299B2 (en) 2020-05-22 2024-07-02 Amada Co., Ltd. Bending system and method for using the same
WO2022091751A1 (en) 2020-10-28 2022-05-05 株式会社アマダ Workpiece transport system and workpiece transport method
EP4238712A4 (en) * 2020-10-28 2024-04-17 Amada Co., Ltd. Workpiece transport system and workpiece transport method
WO2022168616A1 (en) * 2021-02-05 2022-08-11 株式会社アマダ Device determination system, device determination method, and device determination program
WO2023079989A1 (en) 2021-11-04 2023-05-11 株式会社アマダ Workpiece supply system, workpiece supply method, and workpiece supply program

Also Published As

Publication number Publication date
WO2018139026A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
WO2018139026A1 (en) Workpiece detection device and method
EP3383593B1 (en) Teaching an industrial robot to pick parts
CN100447525C (en) Measuring method of image measuring instrument
JP5923371B2 (en) Work transfer system
US11972589B2 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
JP6549655B2 (en) Article transport device
JP5544320B2 (en) Stereoscopic robot picking device
US10721849B2 (en) Component data handling device and component mounting system
CN102741881B (en) Textile article identification device and textile article gripping system
JP2018122370A (en) Article conveying device using at least one sensor
US20190126473A1 (en) Information processing apparatus and robot arm control system
JP2016147330A (en) Control apparatus based on object recognition
CN109454004B (en) Robot scanning and sorting system and method
CN108713175B (en) Method for operating a through-type processing machine and through-type processing machine
JP6795512B2 (en) Parts mounting machine
JP6706695B2 (en) Coordinate data generation device and coordinate data generation method
JP2019018339A (en) Robot system
WO2018158888A1 (en) Backup-pin recognizing method and component mounting device
CN216286298U (en) Device for acquiring relative position between devices and automatic feeding system of Tray core sheet material
JP5288960B2 (en) Nozzle presence / absence detection method and apparatus for nozzle exchange device in surface mounter
JP2019098431A (en) Information processing apparatus and sorting system
JP2011044591A (en) Electronic component mounting device and suction position correction method therefor
CN115088402A (en) Component mounting machine
JP6735208B2 (en) Calibration jig, sheet metal carry-in system, and calibration method
JP5736978B2 (en) Article recognition apparatus, article recognition system, program, and article recognition method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181002