JP6884398B2 - Judgment device for transported objects and transport system using this - Google Patents

Judgment device for transported objects and transport system using this Download PDF

Info

Publication number
JP6884398B2
JP6884398B2 JP2018057320A JP2018057320A JP6884398B2 JP 6884398 B2 JP6884398 B2 JP 6884398B2 JP 2018057320 A JP2018057320 A JP 2018057320A JP 2018057320 A JP2018057320 A JP 2018057320A JP 6884398 B2 JP6884398 B2 JP 6884398B2
Authority
JP
Japan
Prior art keywords
transported object
image data
classification
limited
transported
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018057320A
Other languages
Japanese (ja)
Other versions
JP2019169010A (en
Inventor
翹楚 趙
翹楚 趙
眞 中村
眞 中村
朋彦 吉田
朋彦 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichi Co Ltd
Original Assignee
Daiichi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichi Co Ltd filed Critical Daiichi Co Ltd
Priority to JP2018057320A priority Critical patent/JP6884398B2/en
Publication of JP2019169010A publication Critical patent/JP2019169010A/en
Application granted granted Critical
Publication of JP6884398B2 publication Critical patent/JP6884398B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Conveyors (AREA)
  • Image Analysis (AREA)

Description

本発明は搬送物の判定装置及びこれを用いた搬送システムに関する。 The present invention relates to a device for determining a transported object and a transport system using the device.

従来から、所定の搬送経路に沿って搬送される搬送物を検出し、その検出態様によって搬送物の有無、姿勢、良否などを判定するようにした、搬送物の判定装置が使用されている。このような判定装置は、搬送物を判定した結果により、搬送状態を把握したり、搬送物を整列させたり、選別したりするための搬送物処理部の処理動作を選択するためなどに用いられる。 Conventionally, a device for determining a transported object has been used, which detects a transported object to be transported along a predetermined transport path and determines the presence / absence, posture, quality, etc. of the transported object according to the detection mode. Such a determination device is used for grasping the conveyed state, selecting the processing operation of the conveyed object processing unit for aligning, sorting, and the like based on the result of determining the conveyed object. ..

従来技術において搬送物を判定する場合の最も一般的な方法としては、搬送物が到来したことを検知して検知信号を出力する光学式検出器等からなる検知センサや、この検知信号などの出力タイミングにより搬送物が所定の位置に到達した時点において搬送物の形状を判定するための光学式検出器等からなる透過センサなどを用いる判定方法が知られている。 In the prior art, the most common method for determining a transported object is a detection sensor consisting of an optical detector or the like that detects the arrival of the transported object and outputs a detection signal, or outputs the detection signal or the like. A determination method using a transmission sensor or the like including an optical detector or the like for determining the shape of the conveyed object when the conveyed object reaches a predetermined position by timing is known.

一方、ラインセンサやカメラなどの撮像装置を用いて搬送物の画像データを取得し、この画像データを処理して搬送物を判定するようにした画像処理型の判定方法も知られている。ラインセンサを用いることによって搬送物の位置を把握し、複数のラインデータを用いて搬送物の形状を再現したり、カメラにより撮影した画像データからテンプレートマッチングなど画像処理により搬送物の姿勢や形状を認識したりする方法が用いられている(例えば、以下の特許文献1参照)。これらの手法の中には、画像データから予め抽出した特徴量を入力するニューラルネットワークを用いて物体の識別を行うようにした技術も存在する(例えば、以下の特許文献2参照)。 On the other hand, there is also known an image processing type determination method in which image data of a transported object is acquired by using an image pickup device such as a line sensor or a camera, and the image data is processed to determine the transported object. By using a line sensor, the position of the transported object can be grasped, and the shape of the transported object can be reproduced using multiple line data, or the posture and shape of the transported object can be determined by image processing such as template matching from the image data taken by the camera. A method of recognizing is used (see, for example, Patent Document 1 below). Among these methods, there is also a technique for identifying an object by using a neural network for inputting a feature amount extracted in advance from image data (see, for example, Patent Document 2 below).

特開平6−137837号公報Japanese Unexamined Patent Publication No. 6-137837 特開平5−128262号公報Japanese Unexamined Patent Publication No. 5-128262

ところが、近年の搬送物の小型化や搬送速度の増大により、従来の上記技術では搬送物の判定精度を維持しつつ、高速化した搬送速度に対応可能な処理速度を実現することが難しくなってきているという問題がある。 However, due to the recent miniaturization of the transported object and the increase in the transport speed, it has become difficult to realize the processing speed corresponding to the increased transport speed while maintaining the determination accuracy of the transported object by the above-mentioned conventional technology. There is a problem that it is.

そこで、本発明の課題は上記問題を解決することにあり、搬送物の判定精度を確保しつつ、判定処理の速度を高めることのできる搬送物の判定装置を提供することを目的とする。 Therefore, an object of the present invention is to solve the above-mentioned problems, and an object of the present invention is to provide a conveyed object determination device capable of increasing the speed of determination processing while ensuring the determination accuracy of the conveyed object.

上記課題を解決するために、本発明の搬送物の判定方法は、搬送経路上の搬送物の全体ではなく一部のみが含まれ得る範囲に設定された限定領域の画像データに基づいて前記搬送物の判定を行う搬送物の判定方法であって、各搬送物についてそれぞれ前記限定領域の画像データを形成可能な時間間隔を有する取得タイミングで前記限定領域の画像データを繰り返し取得するデータ取得工程と、前記取得タイミング毎に前記限定領域の画像データの画素値の分布パターンを複数の分類カテゴリーのいずれかに分類し、前記限定領域の画像データの分類結果を求めるデータ分類工程と、を具備することを特徴とする。 In order to solve the above problems, the method for determining a transported object of the present invention is based on the image data of a limited area set in a range in which only a part of the transported object on the transport path can be included, not the whole. A method for determining a transported object for determining an object, which is a data acquisition step of repeatedly acquiring image data in the limited region at an acquisition timing having a time interval at which image data in the limited region can be formed for each transported object. A data classification step of classifying the distribution pattern of the pixel values of the image data in the limited region into one of a plurality of classification categories for each acquisition timing and obtaining the classification result of the image data in the limited region is provided. It is characterized by.

この場合において、前記取得タイミングは、各搬送物についてそれぞれ前記限定領域の画像データを複数回形成可能な時間間隔で設定されることが好ましい。ここで、各搬送物に対してそれぞれ形成可能な前記限定領域の画像データの数は、2〜10の範囲内であることが好ましく、特に、3〜7の範囲内であることが望ましい。 In this case, it is preferable that the acquisition timing is set at a time interval in which the image data of the limited region can be formed a plurality of times for each transported object. Here, the number of image data in the limited region that can be formed for each transported object is preferably in the range of 2 to 10, and particularly preferably in the range of 3 to 7.

本発明において、複数の分類結果に基づいて前記搬送物の通過総数、姿勢、良否などの判定結果を求める判定処理工程をさらに具備することが好ましい。このとき、前記複数の分類結果は、複数の取得タイミングにおいて取得された前記限定領域の画像データの分類結果であることが望ましい。また、複数の前記限定領域が設定される場合には、前記複数の分類結果の少なくとも一部は、単一の取得タイミングにおいて取得される複数の前記限定領域の画像データの分類結果であってもよい。 In the present invention, it is preferable to further include a determination processing step for obtaining determination results such as the total number of passages, posture, and quality of the transported object based on a plurality of classification results. At this time, it is desirable that the plurality of classification results are the classification results of the image data of the limited region acquired at the plurality of acquisition timings. Further, when a plurality of the limited areas are set, at least a part of the plurality of classification results may be a classification result of image data of the plurality of the limited areas acquired at a single acquisition timing. Good.

また、本発明の搬送物の判定装置は、搬送経路上の搬送物の全体ではなく一部のみが含まれ得る範囲に設定された限定領域の画像データに基づいて前記搬送物の判定を行う搬送物の判定装置であって、各搬送物についてそれぞれ前記限定領域の画像データを形成可能な時間間隔を有する取得タイミングで前記限定領域の画像データを繰り返し取得するデータ取得手段と、前記取得タイミング毎に前記限定領域の画像データの画素値の分布パターンを複数の分類カテゴリーのいずれかに分類し、前記限定領域の画像データの分類結果を出力するデータ分類手段と、を具備することを特徴とする。 Further, the conveyed object determination device of the present invention determines the conveyed object based on the image data of the limited area set in the range where only a part of the conveyed object on the conveyed path can be included. A data acquisition means for repeatedly acquiring image data in the limited region at an acquisition timing having a time interval capable of forming image data in the limited region for each transported object, and a data acquisition means for each acquisition timing. It is characterized by including a data classification means for classifying the distribution pattern of pixel values of the image data in the limited region into any of a plurality of classification categories and outputting the classification result of the image data in the limited region.

この場合において、前記取得タイミングは、各搬送物についてそれぞれ前記限定領域の画像データを複数回形成可能な時間間隔で設定されることが好ましい。ここで、各搬送物に対してそれぞれ形成可能な前記限定領域の画像データの数は、2〜10の範囲内であることが好ましく、特に、3〜7の範囲内であることが望ましい。 In this case, it is preferable that the acquisition timing is set at a time interval in which the image data of the limited region can be formed a plurality of times for each transported object. Here, the number of image data in the limited region that can be formed for each transported object is preferably in the range of 2 to 10, and particularly preferably in the range of 3 to 7.

本発明において、複数の分類結果に基づいて前記搬送物の通過総数、姿勢、良否などの判定結果を求める判定処理手段をさらに具備することが好ましい。このとき、前記複数の分類結果は、複数の取得タイミングにおいて取得された前記限定領域の画像データの分類結果であることが望ましい。すなわち、複数の前記取得タイミングにおいて取得された前記限定領域の画像データの分類結果に基づいて前記搬送物の通過総数、姿勢、良否などの判定結果を出力する判定処理手段をさらに具備することが望ましい。また、複数の前記限定領域が設定される場合には、前記複数の分類結果の少なくとも一部は、単一の取得タイミングにおいて取得される複数の前記限定領域の画像データの分類結果であってもよい。 In the present invention, it is preferable to further provide a determination processing means for obtaining determination results such as the total number of passages, posture, quality, etc. of the transported object based on a plurality of classification results. At this time, it is desirable that the plurality of classification results are the classification results of the image data of the limited region acquired at the plurality of acquisition timings. That is, it is desirable to further provide a determination processing means for outputting determination results such as the total number of passages, posture, and quality of the transported object based on the classification results of the image data of the limited area acquired at the plurality of acquisition timings. .. Further, when a plurality of the limited areas are set, at least a part of the plurality of classification results may be a classification result of image data of the plurality of the limited areas acquired at a single acquisition timing. Good.

本発明によれば、上記データ取得手段により搬送物の一部のみに対応する限定領域の画像データを用いることにより、搬送物の全体を包含する範囲以上の画像データを処理する必要がなくなるため、処理すべきデータ量を制限できることから、処理速度を高めることができる。また、限定領域の画像データの画素値の分布パターンをデータ分類手段により複数の分類カテゴリーに分類し、限定領域における搬送物の一部に関する画像情報を分類結果に反映させることにより、判定処理に必要なデータ量をさらに低減できる。また、各搬送物についてそれぞれ限定領域の画像データを複数回形成可能な時間間隔で取得することにより、搬送物の搬送状況に関する情報をより正確かつ容易に把握可能となるので、判定精度を高めることができる。さらに、複数の分類結果を用いて判定処理手段により搬送物の判定結果を得ることにより、簡易な情報処理だけで搬送物を種々の態様で確実に判定することができる。特に、複数の取得タイミングで取得された限定領域の画像データの分類結果を用いることにより、さらに判定態様を広げることが可能になる。 According to the present invention, by using the image data in the limited region corresponding to only a part of the transported object by the data acquisition means, it is not necessary to process the image data beyond the range including the entire transported object. Since the amount of data to be processed can be limited, the processing speed can be increased. Further, the distribution pattern of the pixel value of the image data in the limited area is classified into a plurality of classification categories by the data classification means, and the image information regarding a part of the transported object in the limited area is reflected in the classification result, which is necessary for the determination process. The amount of data can be further reduced. Further, by acquiring the image data of the limited area for each transported object at a time interval that can be formed a plurality of times, it becomes possible to more accurately and easily grasp the information on the transported state of the transported object, so that the determination accuracy can be improved. Can be done. Further, by obtaining the determination result of the transported object by the determination processing means using the plurality of classification results, the transported object can be reliably determined in various modes only by simple information processing. In particular, by using the classification results of the image data of the limited area acquired at a plurality of acquisition timings, the determination mode can be further expanded.

本発明において、前記データ分類手段はニューラルネットワークを備える分類器であることが好ましい。また、前記データ分類手段は、学習済みモデルにより構成されることがさらに望ましい。このとき、前記データ分類手段は、前記画像データ毎に取得タイミングにおける前記限定領域の搬送物に対する位置関係に基づいて決定された分類カテゴリーが前記分布パターンに対してラベル付けされた学習データを用いて学習されたものであることが好ましい。前記ニューラルネットワークは、入力層、中間層及び出力層を有し、前記入力層は前記画像データの画素数と一致する数の入力(ユニット数)を備え、前記出力層は分類すべき前記分類カテゴリーの数と一致する数の出力(ユニット数)を備えることが望ましい。また、前記ニューラルネットワークは、複数の上記中間層を含むことが望ましい。さらに、前記入力層に直接に接続される前記中間層(中間第1層)は前記入力の数よりも大きな数のユニット(人工ニューロン)を備えることが望ましい。特に、前記ニューラルネットワークは全結合型であることが望ましい。 In the present invention, the data classification means is preferably a classifier including a neural network. Further, it is more desirable that the data classification means is composed of a trained model. At this time, the data classification means uses the learning data in which the classification category determined based on the positional relationship of the limited region with respect to the transported object at the acquisition timing for each image data is labeled with respect to the distribution pattern. It is preferably learned. The neural network has an input layer, an intermediate layer, and an output layer, the input layer includes a number of inputs (number of units) matching the number of pixels of the image data, and the output layer is the classification category to be classified. It is desirable to have a number of outputs (number of units) that matches the number of. Further, it is desirable that the neural network includes a plurality of the intermediate layers. Further, it is desirable that the intermediate layer (intermediate first layer) directly connected to the input layer includes a number of units (artificial neurons) larger than the number of the inputs. In particular, it is desirable that the neural network is a fully connected type.

本発明において、前記限定領域は線状若しくは帯状の領域であることが好ましい。このとき、前記限定領域は、前記搬送経路の搬送方向と交差する方向に延在することが望ましい。また、前記限定領域は、直線状に延在することが特に望ましい。さらに、前記限定領域は、前記搬送方向と直交する方向に延在することが望ましい。特に、前記限定領域は、一列に配列された画素で構成される領域であることが望ましい。なお、前記限定領域は、前記搬送方向に沿って延在するものであってもよい。線状若しくは帯状の限定領域は、搬送経路上の搬送物の通過範囲に対して80%以上の割合で重なることが好ましい。なお、搬送物の有無を分類する場合には、前記線状若しくは帯状の限定領域は、前記通過範囲よりも狭い領域に限定されるように構成されていてもよい。また、前記線状若しくは帯状の限定領域は、上記通過範囲の両側に当該通過範囲から張り出した端部分をそれぞれ備えることが望ましい。この場合において、前記限定領域は、前記通過範囲の120%以下の領域であることが望ましい。 In the present invention, the limited region is preferably a linear or strip-shaped region. At this time, it is desirable that the limited region extends in a direction intersecting the transport direction of the transport path. Further, it is particularly desirable that the limited region extends linearly. Further, it is desirable that the limited region extends in a direction orthogonal to the transport direction. In particular, it is desirable that the limited region is a region composed of pixels arranged in a row. The limited area may extend along the transport direction. The linear or strip-shaped limited region preferably overlaps with the passing range of the transported object on the transport path at a ratio of 80% or more. When classifying the presence or absence of a transported object, the linear or strip-shaped limited region may be configured to be limited to a region narrower than the passing range. Further, it is desirable that the linear or strip-shaped limited region is provided with end portions protruding from the passage range on both sides of the passage range. In this case, it is desirable that the limited region is a region of 120% or less of the passing range.

本発明において、前記画素値は、輝度値(明度値)であることが好ましい。ただし、搬送物の外観や判定の内容によって、画素の色相や彩度などの他の画素値を用いることも可能である。 In the present invention, the pixel value is preferably a luminance value (brightness value). However, it is also possible to use other pixel values such as the hue and saturation of the pixels depending on the appearance of the transported object and the content of the determination.

本発明において、前記データ分類手段は、前記画像データを前記複数の分離カテゴリーに分類できるものであれば特に限定されない。ただし、前記データ分類手段は機械学習分類器であることが好ましく、上述のようにニューラルネットワークを備える分類器であることが望ましい。物理的構成に関しては、前記データ分類手段或いは前記分類器は、パーソナルコンピュータなどの各種のコンピュータ(汎用の演算処理ユニット(CPU)を用いるもの)によりプログラムを実行することによって構成できる。この場合に、GPU(Graphics Processing Unit)を備えたコンピュータによって実行されることが好ましい。また、前記データ分類手段或いは前記分類器は、FPGA(field-programmable gate array)などのPLD(プログラマブルロジックデバイス)やDSP(digital signal processor)といった、特定のデータ処理に対応する電子回路(チップ)により構成することもできる。 In the present invention, the data classification means is not particularly limited as long as the image data can be classified into the plurality of separation categories. However, the data classification means is preferably a machine learning classifier, and is preferably a classifier having a neural network as described above. Regarding the physical configuration, the data classification means or the classifier can be configured by executing a program by various computers (those using a general-purpose arithmetic processing unit (CPU)) such as a personal computer. In this case, it is preferably executed by a computer equipped with a GPU (Graphics Processing Unit). Further, the data classification means or the classifier uses an electronic circuit (chip) corresponding to specific data processing such as a PLD (programmable logic device) such as an FPGA (field-programmable gate array) or a DSP (digital signal processor). It can also be configured.

本発明において、前記分類結果若しくは判定結果を表示する表示手段(表示装置)、或いは、前記分類結果若しくは判定結果を記録する記録手段(記録装置)を備えることが好ましい。また、前記分類結果若しくは判定結果に基づいて、前記搬送物を前記搬送経路上から排除したり、前記搬送物の姿勢を変換(反転、横転)させたりするための搬送物制御手段を備えることが望ましい。 In the present invention, it is preferable to provide a display means (display device) for displaying the classification result or the determination result, or a recording means (recording device) for recording the classification result or the determination result. Further, it is possible to provide a transported object control means for removing the transported object from the transport path or changing (reversing, rolling over) the posture of the transported object based on the classification result or the determination result. desirable.

この発明によれば、搬送物の一部のみに対応する限定領域の画像データを複数の分類カテゴリーに分類することにより、搬送物の判定精度を確保しつつ、判定処理を高速化できる搬送物の判定装置を提供することができる。特に、複数の分類結果に基づいて判定処理を行うことにより、判定精度を担保しつつ、判定速度をさらに短縮化でき、判定内容も広範に設定することができる。 According to the present invention, by classifying the image data in a limited area corresponding to only a part of the transported object into a plurality of classification categories, the determined object can be determined accurately and the determination process can be speeded up. A determination device can be provided. In particular, by performing the determination process based on a plurality of classification results, the determination speed can be further shortened while ensuring the determination accuracy, and the determination contents can be widely set.

本発明に係る搬送物の判定装置の実施形態の構成例を含む搬送システムの全体構成を示す概略構成図である。It is a schematic block diagram which shows the whole structure of the transport system including the structural example of the embodiment of the transport object determination apparatus which concerns on this invention. 第1実施形態の判定対象となる搬送経路上の搬送物を示す平面図である。It is a top view which shows the transported object on the transport path which is the judgment target of 1st Embodiment. カメラによる撮像範囲を示す平面図(a)、撮像範囲内の第1実施形態の限定領域CR1,CR2を示す拡大説明図(b)、及び、搬送物と限定領域との寸法上の関係を示す説明図(c)である。A plan view (a) showing the imaging range by the camera, an enlarged explanatory view (b) showing the limited areas CR1 and CR2 of the first embodiment within the imaging range, and a dimensional relationship between the transported object and the limited area are shown. It is explanatory drawing (c). 第1実施形態の限定領域CR1,CR2の画像データDの画素値の分布パターンDs1〜Ds7の搬送物に対する位置関係を示す説明図(a)と、各分布パターンの例Ds1〜Ds7を対応するパターン類型PT1〜PT7とともに示すグラフ(b)〜(h)である。Explanatory drawing (a) showing the positional relationship of the pixel value distribution patterns Ds1 to Ds7 of the image data D of the limited regions CR1 and CR2 of the first embodiment with respect to the transported object, and the corresponding patterns of the examples Ds1 to Ds7 of each distribution pattern. It is a graph (b) to (h) shown together with the type PT1 to PT7. 第1実施形態の分類器の構成を示す概略構成図(a)と、この分類器の学習プロセスの手順の一例を示す概略フローチャート(b)である。It is a schematic block diagram (a) which shows the structure of the classifier of 1st Embodiment, and the schematic flowchart (b) which shows an example of the procedure of the learning process of this classifier. 第1実施形態の分類器(データ分類手段)による分類処理工程と判定処理手段による判定処理工程とを含む搬送物判定動作の手順を示す概略フローチャートである。It is a schematic flowchart which shows the procedure of the transported goods determination operation including the classification processing process by the classifier (data classification means) of 1st Embodiment, and the determination processing process by a determination processing means. 第1実施形態及び第2実施形態の搬送物の判定装置を含む搬送システムの全体のシステム動作の手順を示す概略フローチャートである。It is a schematic flowchart which shows the procedure of the whole system operation of the transfer system including the determination device of the conveyed object of 1st Embodiment and 2nd Embodiment. 第2実施形態の限定領域CR3の画像データDの画素値の分布パターンDs11〜Ds17の搬送物に対する位置関係を示す説明図(a)と、各分布パターンの例Ds11〜Ds17を対応するパターン類型PT11〜PT17とともに示すグラフ(b)〜(h)である。An explanatory diagram (a) showing the positional relationship of the pixel value distribution patterns Ds11 to Ds17 of the image data D of the limited region CR3 of the second embodiment with respect to the transported object, and the pattern type PT11 corresponding to the examples Ds11 to Ds17 of each distribution pattern. It is a graph (b) to (h) shown together with ~ PT17. 搬送経路上の搬送物に対するカメラの撮影方向を示す断面図(a)及び搬送経路上の搬送物の搬送姿勢を撮影方向から見た例を示す斜視図(b)である。It is sectional drawing (a) which shows the photographing direction of a camera with respect to the conveyed object on a transport path, and is the perspective view (b) which shows an example which looked at the transport posture of the transported object on a transport path from the photographing direction. 搬送経路上の搬送物の総搬送数と、選別処理後の搬送物の良品数とを判定する場合の例を示す説明図(a)及び(b)である。It is explanatory drawing (a) and (b) which shows the example in the case of determining the total number of transported goods on a transport path, and the number of non-defective products of the transported goods after the sorting process. 分類カテゴリーに基づいて搬送物の搬送姿勢を判定する例を示す説明図である。It is explanatory drawing which shows the example which determines the transport posture of a transported object based on a classification category. 分類カテゴリーに基づいて搬送物の搬送姿勢を判定する別の例を示す説明図である。It is explanatory drawing which shows another example which determines the transport posture of a transported object based on a classification category. 異なる限定領域CR4,CR5を用いて搬送物の搬送姿勢を判定する異なる例を示す説明図である。It is explanatory drawing which shows the different example which determines the transport posture of a transported object using different limited regions CR4 and CR5.

次に、添付図面を参照して本発明の実施形態について詳細に説明する。最初に、図1〜図3を参照して、本発明に係る搬送物の判定装置の実施形態を含む搬送システムの全体構成について説明する。 Next, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. First, with reference to FIGS. 1 to 3, the overall configuration of the transport system including the embodiment of the transport object determination device according to the present invention will be described.

搬送装置10は、螺旋状の搬送路111を有するボウル型の搬送体110を備えたパーツフィーダ11と、このパーツフィーダ11の上記搬送路111の出口から搬送物を受け取るように構成された入口を備えた直線状の搬送路121を有する搬送体120を備えたリニアフィーダ12とを具備する振動式搬送装置である。この搬送装置10は、本実施形態の搬送物の判定装置を含む搬送物判定制御システム(以下、「制御システム」という。)によって制御される。上記搬送装置10と制御システムを合わせた全体を、以下、搬送システムという。上記制御システムでは、リニアフィーダ12の搬送体120の搬送路121上の搬送物Pを撮影画像GPXに基づいて検査し、判定する。なお、本発明において、振動式搬送装置に限られない構成については、搬送物Pが搬送路に沿って搬送される各種の搬送装置に用いることができる。また、振動式搬送装置であっても、上記パーツフィーダ11とリニアフィーダ12の組み合せに限定されるものではなく、循環式パーツフィーダなどの他の形式の搬送装置に用いることが可能である。さらに、上記の組み合せにあっても、リニアフィーダ12の搬送路121上の搬送物Pを検査するものに限らず、パーツフィーダ11の搬送路111上の搬送物Pを検査するものであっても構わない。 The transport device 10 includes a parts feeder 11 provided with a bowl-shaped transport body 110 having a spiral transport path 111, and an inlet configured to receive the transported object from the outlet of the transport path 111 of the parts feeder 11. It is a vibration type transfer device including a linear feeder 12 provided with a transfer body 120 having a linear transfer path 121 provided. The transport device 10 is controlled by a transport object determination control system (hereinafter, referred to as “control system”) including the transport object determination device of the present embodiment. The entire combination of the transfer device 10 and the control system is hereinafter referred to as a transfer system. In the control system, the transported object P on the transport path 121 of the transport body 120 of the linear feeder 12 is inspected and determined based on the captured image GPX. In the present invention, the configuration not limited to the vibration type transfer device can be used for various transfer devices in which the conveyed object P is conveyed along the transfer path. Further, the vibration type transfer device is not limited to the combination of the parts feeder 11 and the linear feeder 12, and can be used for other types of transfer devices such as a circulation type parts feeder. Further, even in the above combination, not only the one that inspects the conveyed object P on the conveyed path 121 of the linear feeder 12 but also the one that inspects the conveyed object P on the conveyed path 111 of the parts feeder 11. I do not care.

パーツフィーダ11はコントローラCL11によって駆動、制御される。また、リニアフィーダ12はコントローラCL12によって駆動、制御される。これらのコントローラCL11、CL12はパーツフィーダ11やリニアフィーダ12の加振手段(電磁駆動体や圧電駆動体などを含む。)を交流駆動し、搬送体110,120を搬送路111,121上の搬送物Pが所定の搬送方向Fに移動する態様となるように振動させる。また、このコントローラCL11、CL12は、パーツフィーダ11の搬送体110やリニアフィーダ12の搬送体120に設けられた搬送物制御手段を構成する搬送物制御機構CP11,CP12を制御することにより、搬送物制御機構CP11,CP12により、例えば気流を吹き付けることで、搬送物を搬送路111,112上から排除したり、搬送路111,112上の姿勢を変更したり(反転若しくは横転させたり)する。コントローラCL11、CL12は、上記制御システムの主体となる画像処理機能を有する検査処理ユニットDTUに入出力回路(I/O)を介して接続される。 The parts feeder 11 is driven and controlled by the controller CL11. Further, the linear feeder 12 is driven and controlled by the controller CL12. These controllers CL11 and CL12 AC drive the vibrating means (including the electromagnetic drive body and the piezoelectric drive body) of the parts feeder 11 and the linear feeder 12, and transport the transport bodies 110 and 120 on the transport paths 111 and 121. The object P is vibrated so as to move in a predetermined transport direction F. Further, the controllers CL11 and CL12 control the conveyed objects CP11 and CP12 that constitute the conveyed object control means provided in the conveyed object 110 of the parts feeder 11 and the conveyed object 120 of the linear feeder 12 to control the conveyed object. By using the control mechanisms CP11 and CP12, for example, by blowing an air flow, the transported object is removed from the transport paths 111 and 112, and the posture on the transport paths 111 and 112 is changed (reversed or rolled over). The controllers CL11 and CL12 are connected to the inspection processing unit DTU having an image processing function, which is the main body of the control system, via an input / output circuit (I / O).

また、コントローラCL11,CL12は、下記の動作プログラムを実行する後述する演算処理装置MPUに対して、マウスなどの後述する操作入力装置SP1,SP2などを介して所定の操作入力(デバッグ操作)が行われると、上記の動作プログラムに従って搬送装置10の駆動を停止する。このとき、上記の動作プログラムに従って、例えば、検査処理ユニットDTUにおける画像計測処理も停止される。このデバッグ操作及び当該操作に応じた各所の動作については後に詳述する。 Further, the controllers CL11 and CL12 perform a predetermined operation input (debug operation) to the arithmetic processing device MPU described later that executes the following operation program via the operation input devices SP1 and SP2 described later such as a mouse. Then, the drive of the transfer device 10 is stopped according to the above operation program. At this time, according to the above operation program, for example, the image measurement process in the inspection processing unit DTU is also stopped. This debugging operation and the operation of each part corresponding to the operation will be described in detail later.

検査処理ユニットDTUは、パーソナルコンピュータ等の演算処理装置MPU(マイクロプロセシングユニット)を中核構成とし、図示例では、上記演算処理装置MPUは、中央処理ユニットCPU1,CPU2、キャッシュメモリCCM、メモリコントローラMCL、チップセットCHSなどから構成される。また、この検査処理ユニットDTUには、撮像手段であるカメラCM1,CM2にそれぞれ接続された画像処理を行うための画像処理回路GP1,GP2が設けられる。これらの画像処理回路GP1,GP2はそれぞれ画像処理メモリGM1,GM2に接続される。画像処理回路GP1,GP2の出力は上記演算処理装置MPUにも接続され、カメラCM1,CM2から取り込んだ撮影画像GPXの画像データを処理し、適宜の処理画像(例えば後述する画像エリアGPY内の画像データ)を演算処理装置MPUに転送する。主記憶装置MMには予め制御システムの動作プログラムが格納されている。検査処理ユニットDTUが起動されると、演算処理装置MPUにより上記動作プログラムが読み出されて実行される。また、この主記憶装置MMには、演算処理装置MPUにより、後述する画像計測処理を実行した対象となる撮影画像GPX若しくは画像エリアGPYの画像データが保存される。 The inspection processing unit DTU has an arithmetic processing unit MPU (microprocessing unit) such as a personal computer as a core configuration. In the illustrated example, the arithmetic processing unit MPU includes central processing units CPU1, CPU2, cache memory CCM, memory controller MCL, and the like. It is composed of a chipset CHS and the like. Further, the inspection processing unit DTU is provided with image processing circuits GP1 and GP2 for performing image processing connected to the cameras CM1 and CM2, which are imaging means, respectively. These image processing circuits GP1 and GP2 are connected to the image processing memories GM1 and GM2, respectively. The outputs of the image processing circuits GP1 and GP2 are also connected to the arithmetic processing device MPU, process the image data of the captured image GPX captured from the cameras CM1 and CM2, and perform an appropriate processed image (for example, an image in the image area GPY described later). Data) is transferred to the arithmetic processing device MPU. The operation program of the control system is stored in the main storage device MM in advance. When the inspection processing unit DTU is started, the operation program is read out and executed by the arithmetic processing unit MPU. In addition, the main storage device MM stores the image data of the captured image GPX or the image area GPY, which is the target for which the image measurement process described later is executed, by the arithmetic processing unit MPU.

また、検査処理ユニットDTUは、入出力回路(I/O)を介して液晶モニタ等の表示装置DP1,DP2や操作入力装置SP1,SP2に接続される。表示装置DP1,DP2は、上記演算処理装置MPUによって処理された撮影画像GPX若しくは画像エリアGPYの画像データ、後述する限定領域CR1〜CR5の画像データDや分布パターンDs、及び、これらに対応するパターン類型PTの表示、並びに、分類カテゴリーCGの表示、さらには、必要に応じて、画像計測処理の結果、すなわち、搬送物検出処理や搬送物判定処理の結果などが、所定の表示態様で表示される。なお、この表示機能は、実際に搬送物が搬送されている場合に限らず、後述するように、過去のデータを読みだして再生している場合にも機能する。また、表示装置DP1,DP2の画面を見ながら操作入力装置SP1,SP2を操作することにより、各種の操作指令、設定値などの処理条件を入力することができる。 Further, the inspection processing unit DTU is connected to display devices DP1 and DP2 such as a liquid crystal monitor and operation input devices SP1 and SP2 via an input / output circuit (I / O). The display devices DP1 and DP2 include image data of the captured image GPX or image area GPY processed by the arithmetic processing device MPU, image data D and distribution patterns Ds of the limited areas CR1 to CR5 described later, and patterns corresponding to these. The display of the type PT, the display of the classification category CG, and, if necessary, the result of the image measurement processing, that is, the result of the transported object detection process and the transported object determination process, etc. are displayed in a predetermined display mode. To. It should be noted that this display function is not limited to the case where the transported object is actually transported, but also functions when the past data is read and reproduced as described later. Further, by operating the operation input devices SP1 and SP2 while looking at the screens of the display devices DP1 and DP2, it is possible to input various operation commands, set values and other processing conditions.

次に、本実施形態を含む上述の制御システムを用いた、搬送装置10における搬送物の基本的な検出方法及び判定方法の例について説明する。図2は、本実施例における搬送物の形状及び搬送路121上の搬送姿勢を示す説明図である。図示例において、搬送物Pは、略立方体形状(例えば、立方体の8つの角部を丸めた形状)を有する電子部品(例えば、チップ抵抗、チップインダクタ、チップコンデンサなど)である。この搬送物Pは、相互に直交する搬送面121a,121bを備えた搬送路121上において、主として長軸(主軸)を搬送方向Fに向けた図示の横姿勢で搬送される。この横姿勢において搬送物Pの前後両端には金属製の端子部Paが露出し、その間の側面部分には絶縁材からなる白色面Pb及び方向識別マークである黒色面Pcが露出している。この搬送物Pの正規の搬送姿勢は、例えば、先端面Pt5を搬送先(下流側、図示左側)に向け、後端面Pt6を搬送元(上流側、図示右側)に向けた姿勢であって、四つの側面Ps1〜Ps4のうち、搬送先の側に白色面Pb、搬送元の側に黒色面Pcが表れる側面Ps1が上方を向く姿勢(図9参照)であり、全体が白色面Pbである側面Ps2が搬送路121の開放された側の側方を向く姿勢となる。ただし、正規の搬送姿勢は上記以外の姿勢であってもよく、搬送物Pの態様によっては前後の向きだけが定められる場合や主軸周りの姿勢のみが定められる場合があってもよい。 Next, an example of a basic detection method and a determination method of a transported object in the transport device 10 using the above-mentioned control system including the present embodiment will be described. FIG. 2 is an explanatory diagram showing the shape of the transported object and the transport posture on the transport path 121 in this embodiment. In the illustrated example, the conveyed object P is an electronic component (for example, a chip resistor, a chip inductor, a chip capacitor, etc.) having a substantially cubic shape (for example, a shape in which eight corners of the cube are rounded). The transported object P is transported on a transport path 121 provided with transport surfaces 121a and 121b orthogonal to each other in the shown horizontal posture with the major axis (main axis) mainly directed in the transport direction F. In this lateral posture, metal terminal portions Pa are exposed at both front and rear ends of the transported object P, and a white surface Pb made of an insulating material and a black surface Pc which is a direction identification mark are exposed on the side surface portions between them. The normal transport posture of the transported object P is, for example, a posture in which the front end surface Pt5 is directed toward the transport destination (downstream side, left side in the drawing) and the rear end surface Pt6 is directed toward the transport source (upstream side, right side in the drawing). Of the four side surfaces Ps1 to Ps4, the side surface Ps1 in which the white surface Pb appears on the transport destination side and the black surface Pc appears on the transport source side is in an upward facing posture (see FIG. 9), and the whole is a white surface Pb. The side surface Ps2 is in a posture of facing the open side of the transport path 121. However, the regular transport posture may be a posture other than the above, and depending on the mode of the transported object P, only the front-back orientation may be determined or only the posture around the spindle may be determined.

なお、図2及び図3では、搬送路121の搬送面121aが相対的に急峻な面であり、搬送面121bが相対的になだらかな面であって、カメラCM1,CM2が図示下方の手前側(すなわち搬送面121bの手前上方側)から斜めに撮像したときの画像を示している。この状況の一例は、図9に示す搬送体の断面構造に示されている。このため、搬送物Pにおいて、搬送路121上における図示上側に配置された側面(搬送面121a側に配置される側面)が上方を向く面(以下、単に「上方側面」という。)であり、図示下側に配置された側面(搬送面121b側に配置される側面)が側方を向く面(以下、単に「側方側面」という。)である。図2中の左端にある搬送物Pについて言えば、上方側面が側面Ps1であり、側方側面が側面Ps2である。 In FIGS. 2 and 3, the transport surface 121a of the transport path 121 is a relatively steep surface, the transport surface 121b is a relatively gentle surface, and the cameras CM1 and CM2 are on the front side in the lower part of the drawing. (That is, the image when the image is taken obliquely from the front upper side of the transport surface 121b) is shown. An example of this situation is shown in the cross-sectional structure of the carrier shown in FIG. Therefore, in the transported object P, the side surface (side surface arranged on the transport surface 121a side) arranged on the upper side in the drawing on the transport path 121 is a surface facing upward (hereinafter, simply referred to as “upper side surface”). The side surface (the side surface arranged on the transport surface 121b side) arranged on the lower side in the drawing is a surface facing sideways (hereinafter, simply referred to as “side surface”). Regarding the transported object P at the left end in FIG. 2, the upper side surface is the side surface Ps1 and the side side surface is the side surface Ps2.

図3は、図2に示す搬送物Pの搬送姿勢が正規のものであるか否かを判定するための計測エリアの設定例を説明するための説明図(a)〜(c)である。カメラCM1,CM2によって撮影された撮影画像GPXは、上記画像処理回路GP1,GP2によって適宜に処理され、図3(a)に示すように、搬送路121上の搬送方向Fと直交する方向について必要な範囲である画像幅GPWに含まれる画像データのみが取り込まれる。また、撮影画像GPXのうちの搬送方向Fに沿った範囲についても、図示のように画像長GPLに限定した範囲で画像データを取り込むようにしてもよい。このように撮影画像GPXから、実際に取り込まれ、演算処理装置MPUに転送される画像エリアGPYを限定することによって、取込速度及び転送速度を向上させることができる。本実施形態の画像エリアGPYは、典型的には、図3(a)に示すように搬送方向Fに長い矩形領域となる。 3A and 3B are explanatory views (a) to (c) for explaining a setting example of a measurement area for determining whether or not the transport posture of the transported object P shown in FIG. 2 is normal. The captured image GPX captured by the cameras CM1 and CM2 is appropriately processed by the image processing circuits GP1 and GP2, and is required in a direction orthogonal to the transport direction F on the transport path 121 as shown in FIG. 3A. Only the image data included in the image width GPW, which is within a range, is captured. Further, as for the range of the captured image GPX along the transport direction F, the image data may be captured in a range limited to the image length GPL as shown in the figure. By limiting the image area GPY that is actually captured from the captured image GPX and transferred to the arithmetic processing unit MPU in this way, the capture speed and the transfer speed can be improved. The image area GPY of the present embodiment is typically a rectangular area long in the transport direction F as shown in FIG. 3A.

上記制御システムでは、上記動作プログラムに組み込まれて実行される検査処理コンポーネントに従って行われる画像計測処理によって、搬送物Pに対する検出(検査)及び判定が行われる。この画像計測処理は、図3(a)に示す上記画像エリアGPYの全体にわたり行われるのではなく、この画像エリアGPYの一部の限定された領域のみに対して行われる。この領域は処理内容に応じて異なるように設定され得る。特に、第1実施形態では、後述する搬送物Pの計数処理において、搬送経路を通過する搬送物Pの全体ではなく一部のみを包含しうる限定領域CR1、CR2の画像データを処理する。 In the control system, detection (inspection) and determination of the transported object P are performed by image measurement processing performed according to the inspection processing component incorporated and executed in the operation program. This image measurement process is not performed over the entire image area GPY shown in FIG. 3A, but is performed only on a limited area of the image area GPY. This area can be set differently depending on the processing content. In particular, in the first embodiment, in the counting process of the transported object P described later, the image data of the limited regions CR1 and CR2 that can include not the whole but only a part of the transported object P passing through the transport path is processed.

図3に示す限定領域CR1、CR2は、本発明に係る第1実施形態の搬送物の判定装置において設定されたものである。この限定領域CR1、CR2は、搬送方向Fと交差(図示例では直交)する延在方向に伸びる線状若しくは帯状に形成される。また、限定領域CR1、CR2は、搬送経路上における搬送物Pの通過範囲Wt(図3(a)及び(b)参照)と重なるように配置される。ここで、本実施形態の場合、搬送物Pは振動によって搬送路121上を移動していくので搬送物Pの通過位置は或る程度ばらつきが生ずる。このため、上記の通過範囲Wtは、搬送物Pが通過する平均位置に対応する範囲とする。図示例では、図3(b)及び(c)に示すように、限定領域CR1、CR2が通過範囲Wt内に収まるように設定される。より具体的には、限定領域CR1、CR2の搬送方向Fに沿った長さをLcr、延在方向の幅をWcrとすると、幅Wcrの全体が通過範囲Wt内に配置されるとともに、幅Wcrが通過範囲Wtより小さくなるように構成される。このとき、幅Wcrは通過範囲Wtの80%以上であることが好ましい。このように設定すると、搬送物Pの通過位置が上記通過範囲Wtに対して多少ばらついたとしても、限定領域CR1、CR2の全体がほぼ常に搬送物Pの通過位置と重なるように構成できる。なお、図示例では、横向きの搬送物Pのみが通過する場合の通過範囲Wtを図示している。しかし、縦向きの搬送物Pも通過する場合には、分類カテゴリーや判定内容に応じた必要な限定領域の範囲を設定するために、そのまま横向きの搬送物Pに対応する通過範囲Wtを用いてもよく、縦向きの搬送物Pも含めたより広い通過範囲を設定してもよい。 The limited areas CR1 and CR2 shown in FIG. 3 are set in the conveyed object determination device of the first embodiment according to the present invention. The limited regions CR1 and CR2 are formed in a linear or strip shape extending in the extending direction intersecting the transport direction F (orthogonal in the illustrated example). Further, the limited areas CR1 and CR2 are arranged so as to overlap the passing range Wt (see FIGS. 3A and 3B) of the transported object P on the transport path. Here, in the case of the present embodiment, since the transported object P moves on the transport path 121 due to vibration, the passing position of the transported object P varies to some extent. Therefore, the above-mentioned passing range Wt is set to a range corresponding to the average position through which the transported object P passes. In the illustrated example, as shown in FIGS. 3 (b) and 3 (c), the limited regions CR1 and CR2 are set so as to be within the passing range Wt. More specifically, assuming that the length of the limited regions CR1 and CR2 along the transport direction F is Lcr and the width in the extension direction is Wcr, the entire width Wcr is arranged within the passage range Wt and the width Wcr. Is configured to be smaller than the passing range Wt. At this time, the width Wcr is preferably 80% or more of the passing range Wt. With this setting, even if the passing position of the conveyed object P is slightly different from the passing range Wt, the entire limited regions CR1 and CR2 can be configured to almost always overlap with the passing position of the conveyed object P. In the illustrated example, the passing range Wt when only the laterally oriented conveyed object P passes is shown. However, when the vertically oriented transported object P also passes, the passing range Wt corresponding to the horizontally oriented transported object P is used as it is in order to set the range of the necessary limited area according to the classification category and the judgment content. Alternatively, a wider passage range may be set including the vertically oriented conveyed object P.

上記線状若しくは帯状の限定領域CR1、CR2は、撮影画像GPX若しくは画像エリアGPYのうちの少なくとも上記延在方向に沿って一列の画素が配列される領域であればよい。しかし、上記延在方向に沿って2列以上の画素が配列された領域であっても構わない。特に、図示例のように、限定領域CR1、CR2が直線状に構成されることが好ましく、また、上記延在方向が上記搬送方向Fと直交する方向(幅方向)であることが望ましい。図3(c)に示すように、搬送物Pの正規の姿勢における搬送方向Fに沿った長さをLp、幅をWpとすると、Lp×Wp>Lcr×Wcrである。また、図示例では、Wp>Wcrである。さらに、図示例では、Lcr<Wcrである。 The linear or strip-shaped limited regions CR1 and CR2 may be any region of the captured image GPX or the image area GPY in which at least a row of pixels is arranged along the extending direction. However, it may be a region in which two or more rows of pixels are arranged along the extension direction. In particular, as shown in the illustrated example, it is preferable that the limited regions CR1 and CR2 are formed in a straight line, and it is desirable that the extending direction is orthogonal to the transport direction F (width direction). As shown in FIG. 3C, where Lp is the length of the transported object P along the transport direction F in the normal posture and Wp is the width, then Lp × Wp> Lcr × Wcr. Further, in the illustrated example, Wp> Wcr. Further, in the illustrated example, Lcr <Wcr.

本実施形態では、カメラCM1,CM2は、予め設定された既定の撮影周期で繰り返し撮影を実行し、当該撮影タイミングごとに撮影画像GPX若しくは上記画像エリアGPY内の画像データが画像処理装置GP1,GP2を介して上記演算処理装置MPUに転送される。演算処理装置MPUでは、転送された上記画像データのうち、上記限定領域CR1内の限定画像データDを取得し、上述の演算処理用メモリRAMなどに取り込み、後述するように処理し、検出又は判定を行う。ただし、この制御システムでは、別途トリガセンサを設けたり、搬送物Pの画像データ中から搬送物Pの所定の形状パターンを所定の領域内でサーチし、当該形状パターンが検出されたときに内部トリガを発生させたりするのではなく、既定の撮影周期を示す外部トリガを導入したり、演算処理装置MPUから一定周期のトリガ信号をカメラCM1,CM2に出力したりするなどの方法で、所定の撮影間隔で繰り返し撮影を実行している。このため、搬送路121上を搬送されてくる全ての搬送物Pについて、各搬送物P毎にそれぞれ少なくとも一つの取得タイミングで限定領域CRの画像データを取得できるようになっている。すなわち、限定領域CR1、CR2の画像データDの取得タイミングは、各搬送物Pが限定領域CR1、CR2に対して少なくとも1回重なるように設定される。後述するように予め上記撮影間隔を一定値に設定することにより、上記条件が成立する。ただし、上記条件させ満たされるのであれば、撮影間隔や取得タイミングの時間間隔が変動するように設定してもよい。例えば、搬送物Pの搬送速度の検出値や搬送速度に相関のある制御値や検出値などに応じて撮影間隔や取得タイミングの時間間隔を設定するなどの方法を用いてもよい。 In the present embodiment, the cameras CM1 and CM2 repeatedly perform shooting in a preset shooting cycle, and the shot image GPX or the image data in the image area GPY is the image processing device GP1 and GP2 at each shooting timing. It is transferred to the arithmetic processing unit MPU via the above. The arithmetic processing unit MPU acquires the limited image data D in the limited area CR1 from the transferred image data, takes it into the above-mentioned arithmetic processing memory RAM or the like, processes it as described later, and detects or determines it. I do. However, in this control system, a trigger sensor is separately provided, or a predetermined shape pattern of the transported object P is searched for in a predetermined area from the image data of the transported object P, and an internal trigger is detected when the shape pattern is detected. By introducing an external trigger that indicates a predetermined shooting cycle, or by outputting a trigger signal of a fixed cycle from the arithmetic processing unit MPU to the cameras CM1 and CM2, etc. Shooting is repeated at intervals. Therefore, for all the transported objects P transported on the transport path 121, the image data of the limited region CR can be acquired at least one acquisition timing for each transported object P. That is, the acquisition timing of the image data D of the limited areas CR1 and CR2 is set so that each conveyed object P overlaps the limited areas CR1 and CR2 at least once. The above conditions are satisfied by setting the shooting interval to a constant value in advance as described later. However, if the above conditions are satisfied, the shooting interval and the time interval of the acquisition timing may be set to fluctuate. For example, a method such as setting the shooting interval or the time interval of the acquisition timing according to the detection value of the transport speed of the transported object P, the control value or the detected value correlated with the transport speed, or the like may be used.

本実施形態では、撮影間隔、すなわち、限定領域CR1、CR2の画像データの取得タイミングの時間間隔を一定にする。このとき、撮影周期をTs[sec]、搬送物Pの搬送方向Fの長さをLp[mm]、搬送物Pの搬送速度をVp[mm/sec]とした場合、各搬送物Pに対して限定領域CR1、CR2が少なくとも1回以上の撮影タイミングにおいて重なるようにするためには、上記撮影周期Tsを以下の式(1)のように設定する。
Ts<Lp/Vp…(1)
例えば、搬送物Pの搬送方向Fの長さLpが0.6[mm]、搬送速度Vpが50[mm/sec]であるとすれば、撮影周期Ts<0.012[sec]となる。これは、撮影間隔、すなわち、限定領域CR1、CR2の画像データDの取得タイミングの時間間隔が12[msec]未満であれば、全ての搬送物Pについて、各搬送物P毎に上記画像データDを取得することができることを意味する。
In the present embodiment, the shooting interval, that is, the time interval of the acquisition timing of the image data of the limited areas CR1 and CR2 is made constant. At this time, when the photographing cycle is Ts [sec], the length of the conveyed object P in the conveyed direction F is Lp [mm], and the conveyed speed of the conveyed object P is Vp [mm / sec], the conveyed object P is In order to ensure that the limited regions CR1 and CR2 overlap at least once at the imaging timing, the imaging cycle Ts is set as in the following equation (1).
Ts <Lp / Vp ... (1)
For example, if the length Lp of the transported object P in the transport direction F is 0.6 [mm] and the transport speed Vp is 50 [mm / sec], the imaging cycle Ts <0.012 [sec]. This means that if the shooting interval, that is, the time interval of the acquisition timing of the image data D of the limited areas CR1 and CR2 is less than 12 [msec], the image data D is described for each transported object P for all the transported objects P. Means that you can get.

しかしながら、上記の条件ではデータ量が少ないために処理速度を高めることができるものの、各搬送物P毎に限定領域CR1、CR2の画像データDを取得することのできる最低条件であるため、判定内容によっては十分な判定精度を得ることができない。また、実際には、搬送物Pの搬送速度Vpには、個体ごとに、場所により、或いは、経時的に、ばらつきが存在する。このため、各搬送物P毎に複数(n)回の取得タイミングが得られるようにすることがより好ましい。ここで、nは2以上の自然数である。これにより、以下の式(2)のように設定する。
Ts<Lp/(n×Vp)…(2)
本実施形態の場合には、nを3?7の範囲になるように設定している。これは、nが小さくなると搬送速度のばらつきによる搬送物Pの撮影漏れが生ずる虞が高くなり、逆にnが大きくなると画像処理の負荷が増大するからである。例えば、図3(c)や図11に示す画像データDの取得タイミングはn=4の例であり、図12に示す画像データDの取得タイミングはn=6の例である。一般的には、自然数nは1〜10の範囲内であることが好ましい。nを複数とする場合には、nは2〜10の範囲内であることが望ましい。図3(c)においては、限定領域CR1、CR2の画像データD1〜D6の取得タイミングの時間間隔Tsに対応して、搬送物Pに対する限定領域CR1、CR2の取得タイミング毎の位置変化が搬送方向Fに距離Dtずつ生ずる。なお、本実施形態の搬送物の判定装置では、一例として、n=6、撮影周期Tsを2[msec]=0.002[sec]とした場合について以下に説明する。これにより、各搬送物Pに対してそれぞれ6回前後の限定領域CR1、CR2の画像データを取得できることになる。なお、本実施形態では、上記撮影画像GPX若しくは上記撮影エリアGPYの画像データから限定領域CR1、CR2の画像データDを取得しているが、ラインセンサや小型カメラなどによって限定領域CR1、CR2の画像データを直接に取得するようにしても構わない。
However, under the above conditions, although the processing speed can be increased because the amount of data is small, it is the minimum condition that the image data D of the limited areas CR1 and CR2 can be acquired for each transported object P. Depending on the case, sufficient judgment accuracy cannot be obtained. Further, in reality, the transport speed Vp of the transported object P varies from individual to individual, depending on the location, or over time. Therefore, it is more preferable to obtain a plurality of (n) acquisition timings for each transported object P. Here, n is a natural number of 2 or more. As a result, the setting is as shown in the following equation (2).
Ts <Lp / (n × Vp) ... (2)
In the case of this embodiment, n is set to be in the range of 3 to 7. This is because when n is small, there is a high possibility that the image of the transported object P will be missed due to variations in the transport speed, and conversely, when n is large, the load of image processing will increase. For example, the acquisition timing of the image data D shown in FIGS. 3C and 11 is an example of n = 4, and the acquisition timing of the image data D shown in FIG. 12 is an example of n = 6. In general, the natural number n is preferably in the range of 1-10. When n is a plurality, it is desirable that n is in the range of 2 to 10. In FIG. 3C, the position change of the limited regions CR1 and CR2 with respect to the transported object P at each acquisition timing corresponds to the time interval Ts of the acquisition timings of the image data D1 to D6 of the limited regions CR1 and CR2 in the transport direction. A distance of Dt is generated in F. In the conveyed object determination device of the present embodiment, as an example, a case where n = 6 and the photographing cycle Ts is 2 [msec] = 0.002 [sec] will be described below. As a result, the image data of the limited regions CR1 and CR2 can be acquired about 6 times for each conveyed object P, respectively. In the present embodiment, the image data D of the limited areas CR1 and CR2 is acquired from the image data of the captured image GPX or the captured area GPY, but the images of the limited areas CR1 and CR2 are acquired by a line sensor, a small camera, or the like. You may try to get the data directly.

上記の例では、主軸方向が搬送方向Fを向いた横向きの搬送物Pの全長Lpを基準として説明した。しかし、判定内容が搬送物Pの一部だけを対象とする場合には、全長Lpの代わりに、その一部の長さを用いる。例えば、搬送物Pの主軸周りの回転姿勢だけを判定対象とする場合には、判定対象部分は側面部分Ps1〜Ps4だけであるため、この判定対象部分の長さ(例えば、図10(b)に示す長さLDRを参照)を基準とする。また、図9に示すように横姿勢の搬送物P1、P2だけでなく縦姿勢の搬送物P4(ただし、反対側へ倒れた縦姿勢の搬送物P7は除外される。)も搬送されてくる箇所では、図示例のように横姿勢の長さLpが幅Wpより大きければ、縦姿勢の搬送物Pに対しても少なくとも1回の画像データDが得られるように、縦姿勢の搬送物Pの搬送方向の長さである幅Wpを基準とする。なお、本実施形態の場合には、上述のように搬送物Pが限定領域CR1、CR2と重なる位置に到達することを検知するトリガ信号を用いないので、或る撮影画像GPX又は画像エリアGPYの限定領域CR1、CR2に搬送物Pやその判定対象部分がそもそも全く配置されていない場合も生じ得る。 In the above example, the description has been made with reference to the total length Lp of the laterally-oriented conveyed object P whose main axis direction is the conveying direction F. However, when the determination content targets only a part of the transported object P, the length of the part is used instead of the total length Lp. For example, when only the rotational posture around the main axis of the transported object P is to be determined, the determination target portion is only the side surface portions Ps1 to Ps4, so the length of this determination target portion (for example, FIG. 10B). Refer to the length LDR shown in (see). Further, as shown in FIG. 9, not only the horizontally oriented conveyed objects P1 and P2 but also the vertically oriented conveyed objects P4 (however, the vertically oriented conveyed objects P7 that have fallen to the opposite side are excluded) are also conveyed. At the location, if the length Lp in the horizontal posture is larger than the width Wp as shown in the illustrated example, the image data D in the vertical posture can be obtained at least once for the transported object P in the vertical posture. The width Wp, which is the length in the transport direction of, is used as a reference. In the case of the present embodiment, as described above, the trigger signal for detecting that the conveyed object P reaches the position where it overlaps with the limited areas CR1 and CR2 is not used, so that the captured image GPX or the image area GPY It may occur that the transported object P and the determination target portion thereof are not arranged at all in the limited areas CR1 and CR2.

本実施形態では、図3(c)に示す限定領域CR1、CR2の画像データDの典型例として、図4(a)に示すように、上記限定領域CR1、CR2の画像データDの画素値の分布パターンDs1〜Ds5が得られる限定領域CR1,CR2の搬送物Pに対する相対位置を設定する。すなわち、画像データDは、限定領域CR1、CR2の延在方向(幅方向、図示上下方向)に沿って図4(b)に示される分布パターン(1次元プロファイル)Ds1〜Ds7を有する。ここで、上記画素値は図示例では輝度値(明度)である。図4(b)の各グラフは、縦軸がフルスケール256で表わされた輝度値、横軸が0〜40までの画像データDの画素列中の画素番号を示す。図示例では、限定領域CR1、CR2において、延在方向(幅方向)に沿って一列に40ピクセルの画素が配列された場合を示している。したがって、画像データをD={d1,d2,・・・dm}(画素値、mは自然数)とすると、m=40となる。なお、限定領域CR1、CR2は一列の画素配列からなるものである必要はなく、二列以上の画素配列を有するものであってもよい。また、この場合には、画素値の分布パターンとして1次元プロファイルではなく、2次元プロファイルを用いるようにしてもよい。さらに、この場合には、二列以上の画素配列から1次元プロファイル(分布パターン)を形成するための前処理(中央値や平均値などの代表値の抽出などの処理)を実行してもよい。 In the present embodiment, as a typical example of the image data D of the limited regions CR1 and CR2 shown in FIG. 3C, as shown in FIG. 4A, the pixel values of the image data D of the limited regions CR1 and CR2 The relative positions of the limited regions CR1 and CR2 from which the distribution patterns Ds1 to Ds5 are obtained with respect to the transported object P are set. That is, the image data D has distribution patterns (one-dimensional profile) Ds1 to Ds7 shown in FIG. 4B along the extending directions (width direction, vertically shown) of the limited regions CR1 and CR2. Here, the pixel value is a luminance value (brightness) in the illustrated example. In each graph of FIG. 4B, the vertical axis shows the luminance value represented by full scale 256, and the horizontal axis shows the pixel number in the pixel string of the image data D from 0 to 40. In the illustrated example, in the limited areas CR1 and CR2, a case where 40 pixel pixels are arranged in a row along the extending direction (width direction) is shown. Therefore, if the image data is D = {d1, d2, ... dm} (pixel value, m is a natural number), then m = 40. The limited regions CR1 and CR2 do not have to be composed of one row of pixel arrays, and may have two or more rows of pixel arrays. Further, in this case, a two-dimensional profile may be used instead of the one-dimensional profile as the distribution pattern of the pixel values. Further, in this case, preprocessing (processing such as extraction of representative values such as median value and average value) for forming a one-dimensional profile (distribution pattern) from a pixel array of two or more columns may be executed. ..

なお、図4に示す搬送物P1〜P6は、横姿勢の搬送物P1〜P3と、縦姿勢の搬送物P4〜P6を含む。ここで、図9に示すように、縦姿勢の搬送物としては、主軸が搬送面121bに沿った縦姿勢の搬送物P4と、主軸が搬送面121aに沿った縦姿勢の搬送物P7とが存在し得るが、本実施形態では、搬送物P7と同じ姿勢の搬送物Pは、限定領域CR1、CR2の設定される箇所よりも上流側において、気流供給路121cを介して供給され、気流供給口121dから吹き付けられる気流によって排除されるか、或いは、横転される。このため、図4には、搬送物P4と同じ縦姿勢の搬送物P5、P6は含まれるが、搬送物P7と同じ縦姿勢の搬送物は含まれない。ただし、本実施形態とは異なり、搬送物P7と同じ縦姿勢の搬送物Pが到来する可能性のある箇所や実施例では、このような搬送物をも考慮する必要がある。 The transported objects P1 to P6 shown in FIG. 4 include the transported objects P1 to P3 in the horizontal posture and the transported objects P4 to P6 in the vertical posture. Here, as shown in FIG. 9, as the vertical posture conveyed objects, the vertically oriented conveyed object P4 having the main shaft along the conveyed surface 121b and the vertical oriented conveyed object P7 having the main shaft along the conveying surface 121a are included. Although it may exist, in the present embodiment, the conveyed object P having the same posture as the conveyed object P7 is supplied via the airflow supply path 121c on the upstream side of the locations where the limited regions CR1 and CR2 are set, and the airflow is supplied. It is either eliminated or overturned by the airflow blown from the mouth 121d. Therefore, FIG. 4 includes the conveyed objects P5 and P6 having the same vertical posture as the conveyed object P4, but does not include the conveyed objects having the same vertical posture as the conveyed object P7. However, unlike the present embodiment, it is necessary to consider such a transported object in a place where the transported object P having the same vertical posture as the transported object P7 may arrive or in an embodiment.

本実施形態では、限定領域CR1、CR2の画像データDの画素値の分布パターンDsを、図示例の分布パターンDs1〜Ds7に対応するパターン類型PT1〜PT7に類型化した。すなわち、取得された画像データDを上記画素値の分布パターンDs1〜Ds7に対応する7つのパターン類型PT1〜PT7のいずれか一つに関連付ける。ここで、分布パターンDs1に対応するパターン類型PT1は、限定領域CR1、CR2が横姿勢にある搬送物P1の端子部Paと重なる場合の分布パターンに対応する。また、分布パターンDs2に対応するパターン類型PT2は、限定領域CR1、CR2が横姿勢にある搬送物P1の白色面Pbと黒色面Pcにわたり重なる場合の分布パターンに対応する。さらに、分布パターンDs3に対応するパターン類型PT3は、限定領域CR1、CR2が横姿勢にある搬送物P1の白色面Pbと重なる場合の分布パターンに対応する。なお、このパターン類型PT3には、縦姿勢の搬送物P6の端子部Paから白色面Pbにわたり重なる場合の分布パターンも包含される。また、分布パターンDs4に対応するパターン類型PT4は、限定領域CR1、CR2が縦姿勢にある搬送物P2の黒色面Pcと白色面Pbにわたり重なる場合の分布パターンに対応する。さらに、分布パターンDs5に対応するパターン類型PT5は、限定領域CR1、CR2が縦姿勢にある搬送物P4の端子部Paから白色面Pbと黒色面Pcにわたり重なる分布パターンに対応する。また、分布パターンDs6に対応するパターン類型PT6は、限定領域CR1、CR2が縦姿勢にある搬送物P5の端子部Paから白色面Pbと黒色面Pcにわたり重なる場合の分布パターンに対応する。さらに、分布パターンDs7に対応するパターン類型PT7は、限定領域CR1、CR2が前後の二つの搬送物の間の隙間と重なる場合の分布パターンに対応する。このパターン類型PT7には、前後の搬送物が離れて搬送されてくる場合の隙間だけでなく、図示例のように二つの搬送物P2とP3が連なった状態で搬送されてくるときの前後の搬送物の当接部分の分布パターンが含まれる。 In the present embodiment, the distribution pattern Ds of the pixel values of the image data D of the limited regions CR1 and CR2 is categorized into the pattern types PT1 to PT7 corresponding to the distribution patterns Ds1 to Ds7 in the illustrated example. That is, the acquired image data D is associated with any one of the seven pattern types PT1 to PT7 corresponding to the distribution patterns Ds1 to Ds7 of the pixel values. Here, the pattern type PT1 corresponding to the distribution pattern Ds1 corresponds to the distribution pattern when the limited regions CR1 and CR2 overlap with the terminal portion Pa of the transported object P1 in the horizontal posture. Further, the pattern type PT2 corresponding to the distribution pattern Ds2 corresponds to the distribution pattern when the limited regions CR1 and CR2 overlap over the white surface Pb and the black surface Pc of the transported object P1 in the horizontal posture. Further, the pattern type PT3 corresponding to the distribution pattern Ds3 corresponds to the distribution pattern when the limited regions CR1 and CR2 overlap with the white surface Pb of the transported object P1 in the horizontal posture. The pattern type PT3 also includes a distribution pattern in the case where the vertically oriented conveyed object P6 overlaps from the terminal portion Pa to the white surface Pb. Further, the pattern type PT4 corresponding to the distribution pattern Ds4 corresponds to the distribution pattern when the limited regions CR1 and CR2 overlap over the black surface Pc and the white surface Pb of the transported object P2 in the vertical posture. Further, the pattern type PT5 corresponding to the distribution pattern Ds5 corresponds to a distribution pattern in which the limited regions CR1 and CR2 overlap from the terminal portion Pa of the transported object P4 in the vertical posture to the white surface Pb and the black surface Pc. Further, the pattern type PT6 corresponding to the distribution pattern Ds6 corresponds to a distribution pattern in which the limited regions CR1 and CR2 overlap from the terminal portion Pa of the transported object P5 in the vertical posture over the white surface Pb and the black surface Pc. Further, the pattern type PT7 corresponding to the distribution pattern Ds7 corresponds to the distribution pattern when the limited regions CR1 and CR2 overlap with the gap between the two front and rear transported objects. In this pattern type PT7, not only the gap when the front and rear conveyed objects are conveyed apart, but also the front and rear when the two conveyed objects P2 and P3 are conveyed in a continuous state as shown in the illustrated example. The distribution pattern of the contact portion of the transported object is included.

なお、以上のパターン類型は、上記の組み合わせPT1〜PT7に限られるものではない。例えば、パターン類型PT3を、横姿勢の搬送物P1の白色面Pbと重なるときの分布パターンに対応する類型と、縦姿勢の搬送物P6の端子部Paと白色面Pbに重なるときの分布パターンに対応する類型とに分けてもよい。また、パターン類型PT7を、前後の搬送物Pが離間しているときの分布パターンと、前後の搬送物Pが当接しているときの当接部分の分布パターンとに分けてもよい。また、上記の複数のパターン類型への関連付けは必須のものではなく、結果として、取得された画像データDの分布パターンDsが以下に説明するいずれかの分類カテゴリーに明確に分類し得るようになっていればよい。すなわち、分類器(データ分類手段)において、所定の画像データDに対して正解の分類カテゴリーが必ず存在するように設定されていればよい。ここで、上記パターン類型は、搬送物Pに対する限定領域CRの位置関係の区分に対応するものである。 The above pattern types are not limited to the above combinations PT1 to PT7. For example, the pattern type PT3 has a type corresponding to the distribution pattern when it overlaps the white surface Pb of the transported object P1 in the horizontal posture, and a distribution pattern when it overlaps the terminal portion Pa and the white surface Pb of the transported object P6 in the vertical posture. It may be divided into the corresponding types. Further, the pattern type PT7 may be divided into a distribution pattern when the front and rear conveyed objects P are separated from each other and a distribution pattern of the contact portion when the front and rear conveyed objects P are in contact with each other. Further, the association with the above-mentioned plurality of pattern types is not essential, and as a result, the distribution pattern Ds of the acquired image data D can be clearly classified into any of the classification categories described below. I just need to be there. That is, the classifier (data classification means) may be set so that the correct classification category always exists for the predetermined image data D. Here, the pattern type corresponds to the classification of the positional relationship of the limited region CR with respect to the transported object P.

本実施形態においては、分類器によって分類される分類カテゴリーとして、上記パターン類型PT1〜PT6に対応する分類カテゴリーCGAと、上記パターン類型PT7に対応する分類カテゴリーCGBとを設定する。これにより、上記の限定領域CR1、CR2の画像データDは、それぞれ、検査処理ユニットDTU内の演算処理装置MPUによる上記検査処理コンポーネント内の分類処理ユニットの実行によって構成されるデータ分類手段である分類器によって、二つの分類カテゴリーCGAとCGBに分類される。すなわち、本実施形態では、限定領域CR1、CR2の画像データDを、上記パターン類型PT1〜PT6に対応する分類カテゴリーCGAと、上記パターン類型PT7に対応する分類カテゴリーCGBとに分類する分類問題として処理する画像処理工程を実行する。ここで、分類カテゴリーCGAは、限定領域CR1,CR2が搬送物Pと重なる場合、すなわち搬送物Pが有る場合に対応し、分類カテゴリーCGBは、限定領域CR1,CR2が搬送物Pと重ならず、隙間と重なる場合、すなわち搬送物Pが無い場合に対応する。この画像処理工程を実行する分類器は、機械学習分類器であり、本実施形態では、ニューラルネットワークを用いた学習済みモデルである。図5(a)には分類器の概略構成を模式的に示し、図5(b)には分類器を学習させる際の概略の手順を示す。 In the present embodiment, as the classification categories classified by the classifier, the classification category CGA corresponding to the pattern types PT1 to PT6 and the classification category CGB corresponding to the pattern type PT7 are set. As a result, the image data Ds of the limited areas CR1 and CR2 are classified as data classification means configured by the execution of the classification processing unit in the inspection processing component by the arithmetic processing unit MPU in the inspection processing unit DTU, respectively. Depending on the vessel, it is classified into two classification categories, CGA and CGB. That is, in the present embodiment, the image data D of the limited regions CR1 and CR2 is processed as a classification problem for classifying the image data D of the limited regions CR1 and CR2 into the classification category CGA corresponding to the pattern types PT1 to PT6 and the classification category CGB corresponding to the pattern type PT7. Execute the image processing step to be performed. Here, the classification category CGA corresponds to the case where the limited areas CR1 and CR2 overlap with the transported object P, that is, the case where the transported object P exists, and the classification category CGB does not overlap the limited areas CR1 and CR2 with the transported object P. , When it overlaps with the gap, that is, when there is no conveyed object P. The classifier that executes this image processing step is a machine learning classifier, and in the present embodiment, it is a trained model using a neural network. FIG. 5A schematically shows a schematic configuration of the classifier, and FIG. 5B shows a schematic procedure for training the classifier.

本実施形態のデータ分類手段である分類器は、図5(a)に示すように、全結合型のニューラルネットワークを有する。このニューラルネットワークは、入力層I、中間層M1,M2,M3、及び、出力層Oを備えている。入力層Iは上記分布パターンDs={d1,d2,・・・dm}(mは自然数、d1,d2,・・・dmは画素値)のm(=40)に対応するm個のユニットi1,i2,・・・imを備える。ここで、あらゆる連続な非線形関数は3層ニューラルネットワークで近似できるということが証明されている。このため、中間層を設けることによって柔軟な分類問題の解決が可能である。この場合において、中間層M1はh個のユニットm11,m12,・・・m1h(hは自然数)を備える。このユニット数hは、入力層Iのユニット数mより大きい。これにより、中間第1層M1において画像データDの情報は増幅される(低次元のデータから高次元のデータへマッピングされる)ため、学習データセットを用いた学習により判定精度が向上することが期待される。また、複数の中間層M1,M2,M3を備えることにより、中間層M1で増幅された情報を中間層M2,M3で集約する(高次元のデータから低次元のデータにマッピングする)ことにより、出力層Oへの出力を適切に実現することが期待される。 As shown in FIG. 5A, the classifier which is the data classification means of the present embodiment has a fully connected neural network. This neural network includes an input layer I, intermediate layers M1, M2, M3, and an output layer O. The input layer I has m units i1 corresponding to m (= 40) of the distribution pattern Ds = {d1, d2, ... dm} (m is a natural number, d1, d2, ... dm is a pixel value). , I2, ... im. Here, it is proved that any continuous nonlinear function can be approximated by a three-layer neural network. Therefore, it is possible to solve the flexible classification problem by providing an intermediate layer. In this case, the intermediate layer M1 includes h units m11, m12, ... m1h (h is a natural number). The number of units h is larger than the number of units m of the input layer I. As a result, the information of the image data D is amplified (mapped from the low-dimensional data to the high-dimensional data) in the intermediate first layer M1, so that the determination accuracy can be improved by learning using the training data set. Be expected. Further, by providing a plurality of intermediate layers M1, M2 and M3, the information amplified by the intermediate layer M1 is aggregated by the intermediate layers M2 and M3 (mapping from high-dimensional data to low-dimensional data). It is expected that the output to the output layer O will be appropriately realized.

本実施形態では、上記限定領域CR1、CR2が搬送物Pと重なる位置にある(CGA)か、それとも、搬送物Pと重なっていない位置にあるか(CGB)の二つに分類する。このため、上記ニューラルネットワークの出力層Oは分類するカテゴリー数である2つのユニット(素子)o1,o2を備える。図示例では、出力層Oの出力値{o1,o2}は活性化関数によって処理され、最終的に分類結果E={e1,e2}が得られる。ここで、例えば、o1,o2は実数であり、それぞれが分類結果の確率を表す値を呈する。また、e1,e2は0か1(或いは±1)である。例えば、E={1,0}は搬送物Pが有る場合、E={0,1}は搬送物Pが無く、隙間である場合に対応する。活性化関数は、出力層Oの出力値{o1,o2}から分類結果Eを導出するためのものであり、特に限定されないが、例えば、Softmax関数などを用いることができる。 In the present embodiment, the limited regions CR1 and CR2 are classified into two categories: the position where they overlap with the transported object P (CGA) and the position where they do not overlap with the transported object P (CGB). Therefore, the output layer O of the neural network includes two units (elements) o1 and o2, which are the number of categories to be classified. In the illustrated example, the output values {o1, o2} of the output layer O are processed by the activation function, and finally the classification result E = {e1, e2} is obtained. Here, for example, o1 and o2 are real numbers, and each presents a value representing the probability of the classification result. Further, e1 and e2 are 0 or 1 (or ± 1). For example, E = {1,0} corresponds to the case where there is a transported object P, and E = {0,1} corresponds to the case where there is no transported object P and there is a gap. The activation function is for deriving the classification result E from the output values {o1, o2} of the output layer O, and is not particularly limited, but for example, the Softmax function or the like can be used.

上記ニューラルネットワークを含む分類器(データ分類手段)は、例えば、図5(b)に示す手順を備えた方法により構成することができる。まず、画像データDの取得と、この画像データDに対するラベル付け処理、すなわち、各画像データDが上記パターン類型PT1〜PT7のいずれに属すべき分布パターンを備えているかを検討し、正解の分類カテゴリーをラベル付けする。これを多数の画像データDに対して行うことにより、画像データDとその正解カテゴリーの関連付けを有する学習データ(train data)、検証データ(validation data)、評価データ(test data)等を作成することができる。この各データを作成するための上記ラベル付け処理は人手により実施できる。また、上記ラベル付け処理は、図10などで説明する従来の画像処理方法(テンプレートマッチングなど)などにより自動で行うことも可能である。なお、本実施形態では、上述のように、各画像データDを分類カテゴリーCGAとCGBにラベル付けするが、その前に、各画像データDをパターン類型PT1〜PT7に関連付けした学習データを作成しておくことにより、本実施形態とは異なる分類カテゴリーへの分類処理にも使用可能な基礎データを用意することができる。 The classifier (data classification means) including the neural network can be configured by, for example, a method including the procedure shown in FIG. 5 (b). First, the acquisition of the image data D and the labeling process for the image data D, that is, which of the above pattern types PT1 to PT7 the distribution pattern should belong to is examined, and the classification category of the correct answer is examined. Label. By performing this for a large number of image data D, training data (train data), validation data (validation data), evaluation data (test data), etc. having an association between the image data D and its correct answer category can be created. Can be done. The above labeling process for creating each of the data can be performed manually. Further, the labeling process can be automatically performed by a conventional image processing method (template matching or the like) described with reference to FIG. 10 or the like. In the present embodiment, as described above, each image data D is labeled with the classification categories CGA and CGB, but before that, training data in which each image data D is associated with the pattern types PT1 to PT7 is created. By doing so, it is possible to prepare basic data that can be used for classification processing into a classification category different from the present embodiment.

上記のラベル付け処理においては、限定領域CR1、CR2の画像データD(の分布パターンDs)自体に基づいて行うのではなく、上記撮影画像GPXや画像エリアGPYに含まれる搬送物Pの全体状況や、複数の搬送物P(前後の搬送物Pなど)に対する限定領域CR1,CR2の位置関係に応じて行われる。例えば、本実施形態の分類器(データ分類手段)は、入力された分布パターンDsのみにより分類カテゴリーCGAとCGBのいずれかに分類を行う。これに対して、学習データを作成するときの各分布パターンが分類されるべき正解の分類カテゴリーCGA,CGBは、搬送物Pに対する限定領域CRの位置関係によってラベル付けされることが好ましい。すなわち、正解の分類カテゴリーは、その分類処理の目的と直接に対応する図4(a)に示す限定領域CR1、CR2の搬送物P1〜P6に対する位置関係によって決定される。そして、上記の位置関係は、上記パターン類型PT1〜PT7によって表わされる。したがって、実際に取得される画像データDの分布パターンDsがどのようなものであろうとも、上記各学習データ等のラベル付けは上記のパターン類型に基づく(或いは、対応する)ことが好ましい。特に、分布パターン自体を無視して、上記の位置関係のみによって正解のパターン類型PT1〜PT7を定めることにより、最終的な正解の分類カテゴリーが決定されることが望ましい。これにより、人や画像処理における主観的な分布パターンに対する観念を排した、現実の状況に応じた分類処理の実現が期待される。 The labeling process is not performed based on the image data D (distribution pattern Ds) of the limited areas CR1 and CR2 itself, but the overall condition of the transported object P included in the captured image GPX and the image area GPY. , It is performed according to the positional relationship of the limited areas CR1 and CR2 with respect to a plurality of conveyed objects P (front and rear conveyed objects P, etc.). For example, the classifier (data classification means) of the present embodiment classifies into one of the classification categories CGA and CGB only by the input distribution pattern Ds. On the other hand, it is preferable that the correct classification categories CGA and CGB in which each distribution pattern when creating the learning data should be classified are labeled by the positional relationship of the limited region CR with respect to the transported object P. That is, the classification category of the correct answer is determined by the positional relationship of the limited regions CR1 and CR2 shown in FIG. 4A, which directly correspond to the purpose of the classification process, with respect to the transported objects P1 to P6. The positional relationship is represented by the pattern types PT1 to PT7. Therefore, regardless of the distribution pattern Ds of the image data D actually acquired, it is preferable that the labeling of each of the training data and the like is based on (or corresponds to) the above pattern type. In particular, it is desirable that the final classification category of the correct answer is determined by ignoring the distribution pattern itself and determining the correct pattern types PT1 to PT7 only by the above positional relationship. This is expected to realize classification processing according to the actual situation, excluding the idea of subjective distribution patterns in human and image processing.

上記学習データが作成されると、最初に、上記学習データを用いて分類器の学習プロセスを実行する。この学習プロセスでは、ニューラルネットワークの層数、各層のユニット数(素子数)m,h,j,k、出力値に対する活性化関数などのハイパーパラメータと呼ばれる値を設定し、分類器の基本設計を行う。この後、上記学習データを適用し、一般的な誤差逆伝搬法(Backpropagation, BP法)などを用いて分類器の学習を行う。その後、学習データとは別の検証データを用いて検証を行い、その結果に応じて基本設計の変更(ハイパーパラメータの再設定)を実施する。検証結果が良好であれば、さらに評価データを用いて評価を行う。この評価結果に問題があれば再度の学習プロセスや基本設計の変更などを行う。最終的に評価結果が良好であれば、それを学習済みモデルとして、本実施形態の分類器(データ分類手段)として用いる。 When the training data is created, the training process of the classifier is first executed using the training data. In this learning process, values called hyperparameters such as the number of layers of the neural network, the number of units (number of elements) m, h, j, k of each layer, and the activation function for the output value are set, and the basic design of the classifier is performed. Do. After that, the above training data is applied, and the classifier is trained by using a general error backpropagation method (BP method) or the like. After that, verification is performed using verification data different from the training data, and the basic design is changed (hyperparameter resetting) according to the result. If the verification result is good, further evaluation is performed using the evaluation data. If there is a problem with this evaluation result, the learning process or basic design will be changed again. If the evaluation result is finally good, it is used as a trained model as a classifier (data classification means) of the present embodiment.

図6には、上述のようにして構成した本実施形態の分類器(データ分類手段)を用いて求めた分類結果に基づいて、搬送経路上を搬送される搬送物Pの通過総数を計数する場合の概略の手順を示す。図1に示す搬送装置10が稼働し、搬送物Pが搬送路111,112上を搬送されている状態で、カメラCM1,CM2で上述の撮影間隔Tsとなるように順次に繰り返し撮影を行う。これにより発生した撮影画像GPX若しくは画像エリアGPYの画像データから上記限定領域CR1、CR2の画像データDを取得する。分類器では、この画像データDから、必要に応じて前述の前処理を施し、画素値の分布パターンDs={d1,d2,・・・,dm}を形成する。そして、分類器から最終的な分類結果Eが出力されると、この分類結果E={e1,e2}により、図示一点鎖線にして示した判定処理手段により、搬送物Pが有るか否か(限定領域CR1、CR2が搬送物Pと重なった位置にあるか否か)が判定される。 In FIG. 6, the total number of passages of the transported object P transported on the transport path is counted based on the classification result obtained by using the classifier (data classification means) of the present embodiment configured as described above. The outline procedure of the case is shown. In a state where the transport device 10 shown in FIG. 1 is operating and the transport object P is being transported on the transport paths 111 and 112, the cameras CM1 and CM2 sequentially perform repeated shooting so as to have the above-mentioned shooting interval Ts. The image data D of the limited areas CR1 and CR2 is acquired from the image data of the captured image GPX or the image area GPY generated thereby. In the classifier, the above-mentioned preprocessing is performed from the image data D as necessary to form a pixel value distribution pattern Ds = {d1, d2, ..., Dm}. Then, when the final classification result E is output from the classifier, whether or not there is a transported object P by the determination processing means shown by the illustrated alternate long and short dash line according to the classification result E = {e1, e2} ( Whether or not the limited areas CR1 and CR2 overlap with the conveyed object P) is determined.

分類結果E={1,0}となり、最終的に分類カテゴリーCGAに分類される場合、すなわち搬送物Pが有る(限定領域CR1が搬送物Pと重なった位置にある)場合には、過去の画像データDの連続検出数Ncが例えば6より大きいか否かを判定し、連続検出数Ncが6より大きいときには、搬送物Pが新たに到来したとし、通過総数Ndを一つ加算し、連続検出数Ncを0にリセットする。その後、次の画像データDを取得する。これは、前後の搬送物Pの隙間が狭いとき(或いは、前後の搬送物P同士が当接しているとき)に前後の搬送物Pの境界を限定領域CR1、CR2により検出できないことがあるが、この場合でも後続する搬送物Pの計数を行うことができるようにするためである。一方、連続検出数Ncが6以下であるときには、搬送物Pは以前に検出されたものと同じものと判断し、通過総数Ndを加算せずに、連続検出数Ncを一つ加算する。その後、次の画像データDを取得する。 When the classification result E = {1,0} and it is finally classified into the classification category CGA, that is, when there is a transported object P (the limited area CR1 is at a position where the transported object P overlaps), the past It is determined whether or not the continuous detection number Nc of the image data D is larger than 6, for example, and when the continuous detection number Nc is larger than 6, it is assumed that the transported object P has newly arrived, the total number of passages Nd is added by one, and the continuous detection number Nc is continuous. Reset the number of detections Nc to 0. After that, the next image data D is acquired. This is because when the gap between the front and rear conveyed objects P is narrow (or when the front and rear conveyed objects P are in contact with each other), the boundary between the front and rear conveyed objects P may not be detected by the limited regions CR1 and CR2. This is to enable the subsequent counting of the conveyed objects P to be performed even in this case. On the other hand, when the continuous detection number Nc is 6 or less, it is determined that the transported object P is the same as the previously detected one, and one continuous detection number Nc is added without adding the total number of passages Nd. After that, the next image data D is acquired.

分類結果E={0,1}となり、最終的に分類カテゴリーCGBに分類される場合、すなわち搬送物Pが無い(限定領域CR1、CR2が搬送物Pと重ならず、隙間に位置する)場合には、連続検出数Ncが0より大きいか否かを判定し、連続検出数Ncが0より大きいときには、今まで検出されていた搬送物Pが通過したとし、通過総数Ndを一つ加算し、連続検出数Ncを0にリセットする。その後、次の画像データDを取得する。一方、連続検出数Ncが0であるときには、新たな搬送物Pが未だに到来していないとして、何もせずに、次の画像データDを処理する。なお、以上の判定処理工程(判定処理手段)には、上記分類器とは別に、所定の論理回路などを内蔵した判定処理チップを用いてもよく、また、上記分類器と同様に、上記動作プログラムを構成する検査処理コンポーネント内の判定処理ユニットを実行してもよい。以上説明した判定処理工程の手順を実行する検査処理ユニットDTUは、分類結果に基づいた判定処理器(判定処理手段)を構成する。 When the classification result E = {0,1} and the product is finally classified into the classification category CGB, that is, when there is no transported object P (limited areas CR1 and CR2 do not overlap with the transported object P and are located in a gap). Is determined whether or not the continuous detection number Nc is larger than 0, and when the continuous detection number Nc is larger than 0, it is assumed that the transported object P that has been detected so far has passed, and the total number of passages Nd is added by one. , Resets the number of continuous detections Nc to 0. After that, the next image data D is acquired. On the other hand, when the number of continuous detections Nc is 0, it is assumed that the new conveyed object P has not arrived yet, and the next image data D is processed without doing anything. In the above determination processing step (determination processing means), a determination processing chip incorporating a predetermined logic circuit or the like may be used in addition to the above classifier, and the above operation may be performed in the same manner as the above classifier. The judgment processing unit in the inspection processing component that constitutes the program may be executed. The inspection processing unit DTU that executes the procedure of the determination processing step described above constitutes a determination processor (determination processing means) based on the classification result.

上記のように、分類器の分類結果に基づいて計数した搬送物Pの通過総数Nd示す信号は、判定結果として検査処理ユニットDTUから出力される。この通過総数Ndは、最終的に、表示装置DP1,DP2などに表示されたり、或いは、コントローラCL11、CL12などに入力される。本実施形態では、搬送物Pの判定装置として、データ分類手段である分類器において、限定領域CR1、CR2が搬送物Pと重なるか否かという分類処理を行うとともに、この分類結果E={e1,e2}に基づいて、上述の判定処理手段により、搬送経路上の限定領域CR1、CR2における搬送物Pの通過総数Ndを計数するといった判定内容を備えている。 As described above, the signal indicating the total number of passages Nd of the transported objects P counted based on the classification result of the classifier is output from the inspection processing unit DTU as the determination result. The total number of passes Nd is finally displayed on the display devices DP1, DP2 and the like, or is input to the controllers CL11, CL12 and the like. In the present embodiment, as a determination device for the transported object P, a classifier that is a data classification means performs a classification process as to whether or not the limited areas CR1 and CR2 overlap with the transported object P, and the classification result E = {e1. , E2}, the determination processing means described above is provided with determination content such as counting the total number of passages Nd of the conveyed objects P in the limited areas CR1 and CR2 on the conveying path.

本実施形態の具体的な実施例としては、上記分類器に全結合型のニューラルネットワークを用いた。このニューラルネットワークは、入力層Iの入力数m=40、出力層Oの出力数が2、中間第1層M1のユニット数がh=800、中間第2層M2のユニット数がj=500、中間第3層M3のユニット数k=100である。このニューラルネットワークを備える分類器に、正解の分類カテゴリーがCGAとCGBであるそれぞれ400組の学習データを用いて学習させた。学習率を0.001、バッチサイズ(確率的勾配降下法)を100、オプティマイザをAdamとした。学習データ及び検証データによる精度は最良で94.9%となった。また、評価データによる搬送物Pの判定した通過総数と実際の通過総数の比を分類精度として算出すると、97.72%となり、従来技術(テンプレートマッチング法)による判定精度の92.92%を大きく凌駕した。また、一つの画像データD毎の処理時間は0.276[msec]であり、これも、従来技術の処理時間2.186[msec]に比べて、大幅に短縮された。 As a specific example of this embodiment, a fully connected neural network was used for the classifier. In this neural network, the number of inputs of the input layer I is m = 40, the number of outputs of the output layer O is 2, the number of units of the intermediate first layer M1 is h = 800, and the number of units of the intermediate second layer M2 is j = 500. The number of units of the intermediate third layer M3 is k = 100. A classifier equipped with this neural network was trained using 400 sets of training data in which the correct classification categories were CGA and CGB, respectively. The learning rate was 0.001, the batch size (stochastic gradient descent method) was 100, and the optimizer was Adam. The accuracy of the training data and the verification data was 94.9% at the best. Further, when the ratio of the total number of passages determined by the transported object P based on the evaluation data to the actual total number of passages is calculated as the classification accuracy, it is 97.72%, which is 92.92% of the determination accuracy by the conventional technique (template matching method). It surpassed. Further, the processing time for each image data D is 0.276 [msec], which is also significantly shorter than the processing time of 2.186 [msec] of the prior art.

本実施形態では、上述のように分類器で2つの最終的な分類カテゴリーCGA,CGBに分類している。しかし、分類器では各画像データDの分類パターンDsを7つのパターン類型PT1〜PT7に分類し、その分類結果E={e1,e2,e3,e4,e5,e6,e7}に基づいて、上記判定処理手段により搬送物Pが有るか無いかを導き出すことによって、最終的に通過総数Ndを求めてもよい。この場合の分類結果に基づいて行われる上記判定処理工程には、本実施形態に対して、7つのパターン類型PT1〜PT7のいずれかに相当する各分類カテゴリーから、搬送物Pが有る場合(パターン類型PT1〜PT6)と搬送物Pが無い場合(パターン類型PT7)のいずれであるかを定めるプロセスが付加される。 In this embodiment, as described above, the classifier classifies the two final classification categories CGA and CGB. However, the classifier classifies the classification patterns Ds of each image data D into seven pattern types PT1 to PT7, and based on the classification result E = {e1, e2, e3, e4, e5, e6, e7}, the above The total number of passages Nd may be finally obtained by deriving whether or not the transported object P is present or absent by the determination processing means. In the above-mentioned determination processing step performed based on the classification result in this case, when there is a transported object P from each classification category corresponding to any of the seven pattern types PT1 to PT7 with respect to the present embodiment (pattern). A process is added to determine whether the type PT1 to PT6) or the case where the transported object P is absent (pattern type PT7).

本実施形態の搬送物の判定装置は、図7に示す動作プログラムの手順において、所定の搬送物の検査判定処理の結果に基づく搬送物の制御処理の前後における搬送物制御前の計数処理と搬送物制御後の計数処理を行うために用いることができる。ここで、搬送物の制御処理とは、搬送物制御手段により行われる処理であり、例えば、搬送物Pの搬送経路上からの排除や搬送経路上の姿勢変換などの、搬送物Pの選別や整列のための搬送物Pに対する何等かの作用を与える過程を言う。この搬送物の制御処理には、例えば、搬送物P自体の良否や搬送物Pの搬送姿勢の適否に応じた搬送物Pの選別や整列のための各種の処理が含まれる。本実施形態では、図7に示す「搬送物制御前の計数処理」において、限定領域CR1を用いて、上述の通過総数Ndを、上記制御処理を行う前の搬送経路上の搬送物Pの総搬送数として計数する。一方、図7に示す「搬送物制御後の計数処理」においては、限定領域CR2を用いて、上述の通過総数Ndを、上記制御処理を行った後に残った搬送経路上の搬送物Pの良品数として計数する。 In the procedure of the operation program shown in FIG. 7, the conveyed object determination device of the present embodiment counts and conveys before and after the conveyed object control process based on the result of the predetermined conveyed object inspection determination process. It can be used to perform counting processing after object control. Here, the control process of the transported object is a process performed by the transported object controlling means, for example, sorting the transported object P such as removing the transported object P from the transport path or changing the posture on the transport path. It refers to the process of giving some action to the transported object P for alignment. This control process of the transported object includes, for example, various processes for selecting and aligning the transported object P according to the quality of the transported object P itself and the appropriateness of the transport posture of the transported object P. In the present embodiment, in the "counting process before controlling the transported object" shown in FIG. 7, the limited area CR1 is used to set the total number of passing Nd described above to the total number of the transported objects P on the transport path before performing the control process. Count as the number of transports. On the other hand, in the "counting process after controlling the transported object" shown in FIG. 7, the limited region CR2 is used to reduce the total number of passages Nd described above to the non-defective product P of the transported object P on the transport path remaining after performing the control process. Count as a number.

図10は、図7に示す搬送物の検査判定処理と搬送物の制御処理の一例を示す説明図である。この図10に示す検査判定処理に係る画像処理では、本実施形態の搬送物の判定装置を用いずに従来技術を採用している。この技術では、画像エリアGPYの中に、例えば、図10(a)において点線で示すような、搬送経路を通過する搬送物Pを包含し得る範囲(サーチエリアSAS)が設定され、この範囲内の画像が処理される。このサーチエリアSASには、図10(b)に示すように、搬送物Pを選別するための制御エリアMESが含まれる。制御エリアMESは、図示例の場合には搬送物Pの選別処理のためのエリアである。また、制御エリアMESは、搬送路121上を通過させるか、或いは、搬送路121上から排除するかによって、搬送物Pを選別し、所望の搬送物Pのみを下流側へ送り出すための領域である。搬送物Pの選別処理については、上記のサーチエリアSAS内の画像データのみが上記画像計測処理の対象となる。 FIG. 10 is an explanatory diagram showing an example of the inspection determination process and the control process of the transported object shown in FIG. 7. In the image processing related to the inspection determination process shown in FIG. 10, the prior art is adopted without using the conveyed object determination device of the present embodiment. In this technique, a range (search area SAS) that can include the transported object P passing through the transport path, as shown by the dotted line in FIG. 10A, is set in the image area GPY, and is within this range. Image is processed. As shown in FIG. 10B, the search area SAS includes a control area MES for selecting the transported object P. In the case of the illustrated example, the control area MES is an area for sorting the transported object P. Further, the control area MES is an area for selecting the transported object P depending on whether it is passed on the transport path 121 or excluded from the transport path 121, and sends only the desired transported object P to the downstream side. is there. Regarding the sorting process of the transported object P, only the image data in the search area SAS is the target of the image measurement process.

サーチエリアSASには、図10(b)に示すように、上記制御エリアMESの上流側に隣接する第1の計測エリアME1と、上記制御エリアMESの下流側に隣接する第2の計測エリアME2とがさらに含まれる。ここで、制御エリアMESは、搬送物Pが中心位置CLNに形成された選別用噴気口OPSによって排除され得る搬送路121上の領域である。また、第1の計測エリアME1は、上記サーチエリアSASの内部であって、上記制御エリアMESより上流側に設けられ、上流側から搬送されてきた搬送物Pが選別用噴気口OPSによって排除されない下流側の範囲までを含む領域である。さらに、第2の計測エリアME2は、上記サーチエリアSASの内部であって、上記制御エリアMESより下流側に設けられ、制御エリアMESを通過して下流側へ脱出したときの、搬送物Pが選別用噴気口OPSによって排除されない上流側の範囲までを含む領域である。 As shown in FIG. 10B, the search area SAS includes a first measurement area ME1 adjacent to the upstream side of the control area MES and a second measurement area ME2 adjacent to the downstream side of the control area MES. And are further included. Here, the control area MES is an area on the transport path 121 in which the transport object P can be excluded by the sorting fumarole OPS formed at the central position CLN. Further, the first measurement area ME1 is inside the search area SAS and is provided on the upstream side of the control area MES, and the transported object P transported from the upstream side is not excluded by the sorting fumarole OPS. This area includes the area on the downstream side. Further, the second measurement area ME2 is inside the search area SAS, is provided on the downstream side of the control area MES, and when the transported object P escapes to the downstream side after passing through the control area MES, the transported object P is It is a region including the upstream range that is not excluded by the sorting fumarole OPS.

サーチエリアSAS内では、上記画像計測処理において、予め登録された搬送物Pの画像(以下、単に「基準画像」という。)と対応する外縁形状を備えた画像(以下、単に「検出画像」という。)が存在するか否かが検索される。検出画像が存在する場合には、検出画像が占める領域の位置を搬送物検出領域WDSとして特定する。これが搬送物検出処理である。搬送物検出処理は、搬送物Pの姿勢や欠陥を検出する必要はなく、搬送物Pの存在及び位置を検出するだけでよいので、搬送物Pの外形などのパターン形状や外形の内側の平均明度などの一致度を求め、これを所定の閾値と比較して検出の有無を決定する。また、検出時においては、サーチエリアSAS内におけるパターン形状の位置を算出し、上述のように搬送物検出領域WDSを特定する。なお、搬送物検出処理では、上述の外形などのパターン形状の一致度を判定要素とするだけでもよいが、上述のように外形の内側の平均明度などの一致度をも判定要素とすることにより、搬送物Pの検出精度を高めることができる。例えば、照明方向と部品姿勢との関係により、搬送物Pの明度が全体として暗くなってしまうと、画像の背景との区別が付きにくくなるために検出漏れが生じやすくなるが、平均明度の閾値を低く設定することによって検出漏れを低減できる。 In the search area SAS, in the image measurement process, an image having an outer edge shape corresponding to the image of the transported object P registered in advance (hereinafter, simply referred to as “reference image”) (hereinafter, simply referred to as “detection image”). .) Is searched for. When the detected image exists, the position of the area occupied by the detected image is specified as the transported object detection area WDS. This is the transported object detection process. The transported object detection process does not need to detect the posture or defect of the transported object P, but only detects the existence and position of the transported object P. Therefore, the pattern shape such as the outer shape of the conveyed object P and the average inside the outer shape are averaged. The degree of agreement such as brightness is obtained, and this is compared with a predetermined threshold value to determine the presence or absence of detection. Further, at the time of detection, the position of the pattern shape in the search area SAS is calculated, and the conveyed object detection area WDS is specified as described above. In the transported object detection process, the degree of matching of the pattern shape such as the outer shape described above may be used as a determination factor, but as described above, the degree of matching such as the average brightness inside the outer shape may also be used as a judgment factor. , The detection accuracy of the transported object P can be improved. For example, if the brightness of the transported object P becomes dark as a whole due to the relationship between the illumination direction and the component posture, it becomes difficult to distinguish it from the background of the image, so that detection omission is likely to occur, but the threshold value of the average brightness Detection omission can be reduced by setting low.

上記の搬送物検出処理において、搬送物検出領域WDSが第1の計測エリアME1内にある場合には、以下に説明する搬送物判定処理が引き続いて行われる。また、搬送物検出領域WDSが制御エリアMES及び第2の計測エリアME2内にあるときには、そのまま計測を実施し、制御エリアMES及び第2の計測エリアME2内の搬送物検出領域WDSがなくなった時点で、搬送物通過検出信号を出力する搬送物通過検出処理を実施する。なお、後述するように、或る一つの搬送物Pが第1の計測エリアME1内に配置されている様子が複数の撮影画像GPXに撮影されている場合には、その都度、搬送物検出処理を実施して搬送物検出領域WDSを導出するが、以下の搬送物判定処理は1回(例えば、初回)のみ実施するようにしてもよい。 In the above-mentioned transported object detection process, when the transported object detection area WDS is in the first measurement area ME1, the transported object determination process described below is subsequently performed. Further, when the transported object detection area WDS is in the control area MES and the second measurement area ME2, the measurement is performed as it is, and when the transported object detection area WDS in the control area MES and the second measurement area ME2 disappears. Then, the transported object passage detection process for outputting the transported object passage detection signal is performed. As will be described later, when a plurality of captured images GPX capture a state in which a certain transported object P is arranged in the first measurement area ME1, the transported object detection process is performed each time. Is carried out to derive the transported object detection region WDS, but the following transported object determination process may be performed only once (for example, the first time).

搬送物判定処理は以下のように実施される。まず、上記のように特定された搬送物検出領域WDSを基準として、図10(b)に示すように、第1の判定エリアGWAと、第2の判定エリアGWBの位置決めを行い、その明度により側面Ps1〜Ps4に対応するか否かを検出する。例えば、第1の判定エリアGWAが搬送物Pの上方側面上に配置され、第2の判定エリアGWBが搬送物Pの側方側面上に配置される。本実施形態では、上方側面が側面Ps1であり、側方側面が側面Ps2である場合に搬送物Pが正規の姿勢で搬送されている状態であると設定されている。このとき、第1の判定エリアGWAは、側面Ps1を検出するために、搬送方向Fに伸びる細長い判定補助エリアGWA1と、上流側に配置された判定補助エリアGWA2と、下流側に配置された判定補助エリアGWA3とを有する。判定補助エリアGWA1は、側面Ps1の白色面Pbと黒色面Pcの境界を搬送方向Fのエッジ検出処理によって検出し、この検出されたエッジを境界位置として判定補助エリアGWA2及びGWA3の位置を補正する。その後、位置補正された判定補助エリアGWA2及びGWA3の明度を所定の閾値と比較することなどにより、それぞれの明度が正規の姿勢にある搬送物Pと一致するか否かを判定する。図示例では、判定補助エリアGWA2が白色面Pbを検出し、判定補助エリアGWA3が黒色面Pcを検出すると、搬送物Pが正規の姿勢にある良品と判定される。なお、搬送物Pの判定態様(良否の判別)は、姿勢に限らず、形状や寸法等の良不良などであってもよい。 The transported object determination process is carried out as follows. First, as shown in FIG. 10B, the first determination area GWA and the second determination area GWB are positioned with reference to the transported object detection area WDS specified as described above, and the brightness thereof is determined. It is detected whether or not it corresponds to the side surfaces Ps1 to Ps4. For example, the first determination area GWA is arranged on the upper side surface of the conveyed object P, and the second determination area GWB is arranged on the lateral side surface of the conveyed object P. In the present embodiment, when the upper side surface is the side surface Ps1 and the side side surface is the side surface Ps2, it is set that the conveyed object P is being conveyed in a normal posture. At this time, the first determination area GWA has an elongated determination auxiliary area GWA1 extending in the transport direction F, a determination auxiliary area GWA2 arranged on the upstream side, and a determination arranged on the downstream side in order to detect the side surface Ps1. It has an auxiliary area GWA3. The determination auxiliary area GWA1 detects the boundary between the white surface Pb and the black surface Pc of the side surface Ps1 by the edge detection process in the transport direction F, and corrects the positions of the determination auxiliary areas GWA2 and GWA3 using the detected edge as the boundary position. .. After that, by comparing the brightness of the position-corrected determination auxiliary areas GWA2 and GWA3 with a predetermined threshold value, it is determined whether or not each brightness matches the transported object P in the normal posture. In the illustrated example, when the determination auxiliary area GWA2 detects the white surface Pb and the determination auxiliary area GWA3 detects the black surface Pc, it is determined that the conveyed object P is a good product in a normal posture. The mode of determining the transported object P (determination of quality) is not limited to the posture, and may be good or bad in shape, dimensions, or the like.

第2の判定エリアGWBは、側方側面が側面Ps2(全て白色面Pbである側面)であるか否かを判定する。この場合にも、第2の判定エリアGWBの明度が所定の閾値よりも高いことなどによって判定を行うことができる。なお、第1の判定エリアGWAと第2の判定エリアGWBの双方を判定することによって判定対象の画像データから得られた取得情報に冗長性を持たせることができるので、画像の明るさなどのばらつきによる誤判定を回避できるなど、判定精度を高めることができる。 The second determination area GWB determines whether or not the lateral side surface is the side surface Ps2 (the side surface that is all white surface Pb). Also in this case, the determination can be made based on the fact that the brightness of the second determination area GWB is higher than a predetermined threshold value. By determining both the first determination area GWA and the second determination area GWB, the acquired information obtained from the image data to be determined can be made redundant, so that the brightness of the image and the like can be determined. Judgment accuracy can be improved, such as avoiding erroneous judgment due to variation.

一方、上記画像エリアGPYには、上記サーチエリアSASとは別の位置(図示例では、サーチエリアSASよりも上流側の位置)に、搬送物Pを反転若しくは横転させるための反転若しくは横転処理を行うか否かを決定するための判定エリアGV1、GV2が設けられる。第1の判定エリアGV1及び第2の判定エリアGV2は、搬送物Pの上方側面が通過する位置に配置されている。第1の判定エリアGV1は、搬送物Pの上方側面が、上記黒色面Pcを含む上記側面Ps1でない場合、すなわち、全体が白色面Pbである側面Ps2〜Ps4である場合(例えば、所定の閾値よりも明るい場合)に判定結果NGを出力し、端子部Paが含まれていたり、側面Ps1などであったりする場合(例えば、所定の閾値より暗い場合)に判定結果PASSを出力する。また、第2の判定エリアGV2は、第1の判定エリアGV1よりも搬送方向Fに狭い領域である。この第2の判定エリアGV2内において搬送方向Fの走査によりエッジが検出されると、密着して搬送されてきた前後の搬送物Pの境界が配置されているとし、やはり判定結果をPASSとする。そして、判定結果がNGであるときにのみ、反転若しくは横転用噴気口OPRから気流を噴出させ、搬送物Pの上方側面が他の側面となるように反転若しくは横転させる。このようにすることで、第1の判定エリアGV1内に上方側面が配置され、かつ、この上方側面が側面Ps2〜Ps4である(すなわちPs1でない)ときにのみ、搬送物Pの姿勢を変更することができる。 On the other hand, the image area GPY is subjected to an inversion or rollover process for inversion or rollover of the conveyed object P at a position different from the search area SAS (in the illustrated example, a position on the upstream side of the search area SAS). Judgment areas GV1 and GV2 for determining whether or not to perform are provided. The first determination area GV1 and the second determination area GV2 are arranged at positions where the upper side surface of the conveyed object P passes. The first determination area GV1 is when the upper side surface of the transported object P is not the side surface Ps1 including the black surface Pc, that is, the side surfaces Ps2 to Ps4 which are entirely white surfaces Pb (for example, a predetermined threshold value). The determination result NG is output when it is brighter than), and the determination result PASS is output when the terminal portion Pa is included or the side surface Ps1 or the like is included (for example, when it is darker than a predetermined threshold value). Further, the second determination area GV2 is a region narrower in the transport direction F than the first determination area GV1. When an edge is detected by scanning in the transport direction F in the second determination area GV2, it is assumed that the boundaries of the conveyed objects P before and after being conveyed in close contact with each other are arranged, and the determination result is also PASS. .. Then, only when the determination result is NG, the airflow is ejected from the reversing or rollover fumarole OPR, and the airflow is inverted or rolled over so that the upper side surface of the conveyed object P becomes another side surface. By doing so, the posture of the transported object P is changed only when the upper side surface is arranged in the first determination area GV1 and the upper side surface is the side surfaces Ps2 to Ps4 (that is, not Ps1). be able to.

搬送物Pの制御処理の前後において行う本実施形態の判定装置である制御前計数処理及び制御後計数処理は、図10に示す第1の計測エリアME1に配置される限定領域CR1と、第2の計測エリアME2の下流側に配置される限定領域CR2によって実施される。ここで、制御前計数処理に用いる限定領域CR1は、上記第1の計測エリアME1内に設定される。この限定領域CR1は、搬送物Pが制御エリアMESによって排除されることによってその搬送物Pの画像データDを取得できなくなることを回避するとともに、制御エリアMESに到達した搬送物Pが気流等によって移動させられるときの不定姿勢の非搬送姿勢を検出しないようにするため、第1の計測エリアME1内における上流寄りの範囲内に設定されることが望ましい。 The pre-control counting process and the post-control counting process, which are the determination devices of the present embodiment, performed before and after the control process of the transported object P include the limited area CR1 arranged in the first measurement area ME1 shown in FIG. It is carried out by the limited area CR2 arranged on the downstream side of the measurement area ME2. Here, the limited area CR1 used for the pre-control counting process is set in the first measurement area ME1. This limited area CR1 prevents the image data D of the transported object P from being unable to be acquired due to the conveyed object P being excluded by the control area MES, and the conveyed object P reaching the control area MES is caused by an air flow or the like. In order not to detect the non-carrying posture of the indefinite posture when being moved, it is desirable to set it within the range closer to the upstream in the first measurement area ME1.

また、限定領域CR2は、基本的に限定領域CR1と全く同じ形状及び大きさを備えることができる。限定領域CR2は、第2の計測エリアME2の下流側に隣接する位置に配置される。これは、限定領域CR2において制御エリアMESによって排除される前の搬送物Pの画像データDを誤って取得しないようにするためである。 Further, the limited region CR2 can basically have exactly the same shape and size as the limited region CR1. The limited area CR2 is arranged at a position adjacent to the downstream side of the second measurement area ME2. This is to prevent accidentally acquiring the image data D of the transported object P before being excluded by the control area MES in the limited area CR2.

上記の限定領域CR1の画像データDに基づいて上述のように通過総数Ndを計数することにより、検査判定処理の結果による搬送物の制御処理前の総搬送数を求めることができる。また、上記限定領域CR2の画像データDに基づいて上述のように通過総数Ndを計数することにより、検査判定処理の結果による搬送物の制御処理後の良品数を求めることができる。従って、上記総搬送数と上記良品数から、良品率や不良品数を知ることができる。 By counting the total number of passes Nd as described above based on the image data D of the limited area CR1 described above, the total number of transported objects before the control process of the transported object can be obtained based on the result of the inspection determination process. Further, by counting the total number of passages Nd as described above based on the image data D of the limited area CR2, it is possible to obtain the number of non-defective products after the control processing of the transported object based on the result of the inspection determination processing. Therefore, the non-defective product rate and the number of defective products can be known from the total number of transported products and the number of non-defective products.

なお、図1に示す画像表示装置DP1、DP2などにおいて、適宜に形成される画像表示欄では、上記画像エリアGPY内の画像データを表示するとともに、上記の限定領域CR1、CR2や後述するCR3〜CR5、或いは、サーチエリアSAS、又は、第1の計測エリアME1、第2の計測エリアME2、制御エリアMESなどの各領域を枠線等によって表示することができる。ここで、上記に加えて、或いは、上記とは別に、搬送物検出処理による搬送物検出領域WDS、搬送物判定処理に用いる判定エリアGWA、GWB、反転若しくは横転用噴気口OPRを制御するための搬送物判定処理に用いる判定エリアGV1、GV2の少なくとも一つを、枠線等によって表示することができる。これらの場合には、各枠線等の表示の色や線種などの区別可能な表示態様で、上記の分類結果や判定結果が識別できるように構成してもよい。例えば、上記分類器で分類カテゴリーCGAに分類された場合には、限定領域CR1、CR2の枠線を第1表示態様(例えば、緑色表示)とし、分類カテゴリーCGBに分類された場合には、限定領域CR1、CR2の枠線を第2表示態様(例えば、黄色表示)とする。また、搬送物判定処理でOK判定(判定態様が良品)となった場合には、その枠線等を第3表示態様(例えば青色表示)にする。また、搬送物判定処理でNG判定(判定態様が不良品)となった場合には、その枠線等を第4表示態様(例えば赤色表示)とする。なお、各表示態様は上記例の色彩に限らず、実線、点線、破線、一点鎖線などの線種、太さであってもよいなど、相互に区別できる態様であれば特に限定されない。 In the image display fields appropriately formed in the image display devices DP1 and DP2 shown in FIG. 1, the image data in the image area GPY is displayed, and the limited areas CR1 and CR2 and CR3 to be described later are displayed. Each area such as CR5, the search area SAS, the first measurement area ME1, the second measurement area ME2, and the control area MES can be displayed by a frame line or the like. Here, in addition to or separately from the above, for controlling the transported object detection area WDS by the transported object detection process, the determination areas GWA and GWB used for the transported object determination process, and the fumarole OPR for reversing or rolling over. At least one of the determination areas GV1 and GV2 used for the transported object determination process can be displayed by a frame line or the like. In these cases, the above classification result and determination result may be identified by a display mode capable of distinguishing the display color and line type of each frame line and the like. For example, when it is classified into the classification category CGA by the above classifier, the borders of the limited areas CR1 and CR2 are set as the first display mode (for example, displayed in green), and when it is classified into the classification category CGB, it is limited. The borders of the areas CR1 and CR2 are set as the second display mode (for example, yellow display). Further, when the conveyed object determination process is OK (determination mode is non-defective), the frame line or the like is set to the third display mode (for example, blue display). Further, when the transported object determination process results in an NG determination (determination mode is defective), the frame line or the like is set to the fourth display mode (for example, red display). In addition, each display mode is not limited to the color of the above example, and is not particularly limited as long as it can be distinguished from each other, such as a line type such as a solid line, a dotted line, a broken line, and a dash-dotted line, and a thickness.

本実施形態では、振動式の搬送装置10により、振動する搬送路121上を搬送されていく搬送物Pを検査対象とする一方で、カメラCM1,CM2は振動しない場所(基台100上)に設置されているため、撮影画像GPX又は画像エリアGPYの画像データにおいて、搬送方向Fの前後に往復する態様で所定の振幅で振動する搬送路121は、当該画像データの撮影時の振動位相の変化に応じて、搬送方向Fの変位した位置に配置される。したがって、搬送物Pの外観を、搬送路121を基準とする固定された位置で検出、判定しようとすると、画像内の限定領域CR1、CR2や後述するCR3〜CR5、或いは、サーチエリアSASや各計測エリアME1,ME2の位置を、撮影タイミングに合わせて搬送体120の振動と同期して同振幅で移動させる必要がある。例えば、搬送体120には、振幅が0.1mm、振動周波数が300Hzといった振動が与えられている。 In the present embodiment, while the transported object P transported on the vibrating transport path 121 by the vibrating transport device 10 is targeted for inspection, the cameras CM1 and CM2 are located in a place where they do not vibrate (on the base 100). Since it is installed, in the image data of the captured image GPX or the image area GPY, the transport path 121 that vibrates with a predetermined amplitude in a mode of reciprocating back and forth in the transport direction F changes the vibration phase at the time of shooting the image data. It is arranged at the displaced position in the transport direction F according to the above. Therefore, when the appearance of the transported object P is to be detected and determined at a fixed position based on the transport path 121, the limited areas CR1 and CR2 in the image, CR3 to CR5 described later, the search area SAS, and the like, respectively. It is necessary to move the positions of the measurement areas ME1 and ME2 with the same amplitude in synchronization with the vibration of the carrier 120 according to the shooting timing. For example, the carrier 120 is subjected to vibration having an amplitude of 0.1 mm and a vibration frequency of 300 Hz.

このため、本実施形態では、限定領域CR1、CR2や後述するCR3〜CR5、或いは、サーチエリアSASや各計測エリアME1,ME2の位置を、撮影画像GPX又は画像エリアGPYの撮影時点における搬送体120の振動位置に合わせるために、搬送体120に設定された位置補正用マーク(図示せず)を基準として補正する。この位置補正用マークは位置検出が容易かつ確実なものであれば特に限定されない。しかし、位置補正用マークを、画像中で確実にブロブとして認識でき、かつ、その重心位置を安定して検出できる単色(同一グレースケール)のマークとすることで、その位置の検出精度を高めることができる。なお、位置補正用マークは、意図的に設けたものではなく、搬送装置に本来的に存在し、画像処理によって検出可能な部分、例えば、搬送体120に形成された稜線や角部、ボルトヘッド、噴気口などであってもよい。ただし、搬送物Pによって隠れない場所にあるものが好ましい。 Therefore, in the present embodiment, the positions of the limited areas CR1 and CR2, CR3 to CR5 described later, the search area SAS, and the measurement areas ME1 and ME2 are set to the captured image GPX or the image area GPY at the time of photographing. In order to match the vibration position of the image, the position correction mark (not shown) set on the carrier 120 is used as a reference for correction. The position correction mark is not particularly limited as long as the position can be easily and reliably detected. However, by making the position correction mark a single color (same gray scale) mark that can be reliably recognized as a blob in the image and that the position of the center of gravity can be stably detected, the detection accuracy of the position can be improved. Can be done. The position correction mark is not intentionally provided, but is inherently present in the transport device and can be detected by image processing, for example, a ridge line, a corner portion, or a bolt head formed on the transport body 120. , It may be a fumarole or the like. However, it is preferable that the material is not hidden by the transported object P.

本実施形態においては、上記の位置補正のため、搬送路121に対する限定領域CR1、CR2や後述するCR3〜5、或いは、サーチエリアSASや各計測エリアME1、ME2の位置は、撮影時の振動の位相タイミングとは無関係に、常に搬送路121に対して同じ位置となる。したがって、例えば、不良姿勢の搬送物Pを排除するための排除エアを排除用噴気口OPSから吹き付ける位置、或いは、不良姿勢の搬送物Pの姿勢を修正するための気流を反転若しくは横転用噴気口OPRから吹き付ける位置に対して、限定領域CR1、CR2や後述するCR3〜CR5、或いは、各計測エリアME1、ME2が常に一定の位置関係となるように設定される。これにより、搬送物Pの誤判定(上記の例では、誤計数)を防止することができ、また、搬送物判定処理の結果に応じて搬送物Pに排除力や反転力を作用させる場合に、常に近似したタイミングで作用を生じさせることができる。 In the present embodiment, for the above position correction, the positions of the limited areas CR1 and CR2 and CR3 to 5 described later, or the search area SAS and the measurement areas ME1 and ME2 with respect to the transport path 121 are set to the vibration during shooting. Regardless of the phase timing, it is always in the same position with respect to the transport path 121. Therefore, for example, the position where the exhaust air for eliminating the transported object P in the bad posture is blown from the exhaust fumarole OPS, or the airflow for correcting the posture of the transported object P in the bad posture is reversed or the fumarole for rolling over. The limited areas CR1 and CR2, CR3 to CR5 described later, or the measurement areas ME1 and ME2 are set to always have a constant positional relationship with respect to the position to be sprayed from the OPS. As a result, it is possible to prevent erroneous determination of the conveyed object P (in the above example, erroneous counting), and when an exclusion force or a reversing force is applied to the conveyed object P according to the result of the conveyed object determination process. , The action can always occur at an approximate timing.

本実施形態では、搬送物Pの種類、寸法、良品姿勢、限定領域CR1、CR2や後述するCR3〜CR5の位置(画像内の箇所)、分布パターンDsを形成するための前処理に必要な係数値、或いは、基準画像データ、搬送物検出処理の明度の閾値などの各種の設定値、搬送物判定処理の明度の閾値などの各種の設定値、などといった、搬送物Pの検出及び判定に用いられる各種のデータが主記憶装置MMなどに記憶され、各処理にあたっては適宜に読み出されて使用される。また、カメラCM1,CM2の撮影タイミングを定めるための設定値、撮影画像GPX又は画像エリアGPYを取り込む際の画像取込条件の設定値、搬送路121の振動による各設定エリアの位置補正の態様を定める設定値、各種の設定画面や表示画面の態様を定める設定値、反転若しくは横転の位置や選別位置における制御の態様、例えば、気流の吹き付けタイミングや圧力値などの設定値、などについても同様に取り扱われる。 In the present embodiment, the type and size of the transported object P, the posture of the non-defective product, the positions of the limited areas CR1 and CR2 and CR3 to CR5 described later (locations in the image), and the engagement required for the pretreatment for forming the distribution pattern Ds. Used for detecting and determining the transported object P, such as numerical values, reference image data, various set values such as the threshold value of the brightness of the transported object detection process, and various set values such as the threshold value of the brightness of the transported object determination process. Various types of data are stored in the main storage device MM or the like, and are appropriately read out and used in each process. In addition, the set values for determining the shooting timing of the cameras CM1 and CM2, the set values of the image capture conditions when capturing the captured image GPX or the image area GPY, and the mode of position correction of each set area due to the vibration of the transport path 121. The same applies to the set values to be set, the set values to set the mode of various setting screens and display screens, the control mode at the inversion or rollover position and the sorting position, for example, the set values such as the airflow blowing timing and the pressure value. Be treated.

本実施形態では、上記主記憶装置MM内に保存されている過去の撮影画像GPX又は画像エリアGPYを時系列にて繰り返し格納した画像ファイルを選択して読み出し、表示させることができる。そして、選択された画像ファイルに対する各種の操作処理を実行するための手段も用意される。このような撮影画像GPX若しくは画像エリアGPYの表示・再生機能は、限定領域CR1、CR2や後述するCR3〜CR5の画像データDだけでは理解できないデータ処理の不具合を後から検証する場合に大きな効果を発揮する。 In the present embodiment, it is possible to select, read, and display an image file in which the past captured image GPX or image area GPY stored in the main storage device MM is repeatedly stored in chronological order. Then, a means for executing various operation processes on the selected image file is also prepared. Such a display / playback function of the captured image GPX or the image area GPY has a great effect when later verifying a data processing defect that cannot be understood only by the image data D of the limited areas CR1 and CR2 and CR3 to CR5 described later. Demonstrate.

主記憶装置MM内に保存される画像ファイルは、運転モードにおいて取り込まれる複数の撮影画像GPX又は画像エリアGPYの画像データを、演算処理装置MPUにより自動的に記録したものである。この画像ファイルの保存は、主記憶装置MMに空き容量が存在する場合には全ての画像データについて実施することができるが、主記憶装置MMに空き容量が存在しない場合でも、最新の既定期間分(例えば1時間分など)、或いは、最新の既定枚数分(例えば1000枚分など)の画像ファイルについては常に保存されるようにしておくことが好ましい。 The image file stored in the main storage device MM is a file in which image data of a plurality of captured image GPX or image area GPY captured in the operation mode is automatically recorded by the arithmetic processing unit MPU. This image file can be saved for all image data when the main storage device MM has free space, but even if the main storage device MM does not have free space, the latest default period can be saved. It is preferable to always save the latest default number of image files (for example, one hour) or the latest default number of images (for example, 1000).

上記のように過去に記録した撮影画像GPX又は画像エリアGPYを表示した状態で、この画像データに対して、適宜の操作により、本実施形態の搬送物の判定装置に対応する上記制御処理前後の計数処理、或いは、上記搬送物検出処理及び上記搬送物判定処理からなる画像計測処理を再度実行することができる。表示態様の制御機能の一つとして、同一ファイル内に格納された複数の撮影画像GPX又は画像エリアGPYについては、適宜の操作により、前後に撮影された他の画像データに一つずつ切り替えることができる。また、同一画像ファイル内の複数の撮影画像GPX又は画像エリアGPYを繰り返し表示しつつ、並行して、表示された画像データに対する画像計測処理を実行させることもできる。 With the captured image GPX or the image area GPY recorded in the past displayed as described above, before and after the control process corresponding to the conveyed object determination device of the present embodiment by performing an appropriate operation on this image data. The counting process, or the image measurement process including the transported object detection process and the transported object determination process can be executed again. As one of the display mode control functions, it is possible to switch a plurality of captured image GPX or image area GPY stored in the same file one by one to other image data captured before and after by an appropriate operation. it can. It is also possible to repeatedly display a plurality of captured image GPX or image area GPY in the same image file and execute image measurement processing on the displayed image data in parallel.

次に、図7を参照して、本実施形態の全体の動作プログラムの流れについて説明する。図7は、上記検査処理ユニットDTUの演算処理装置MPUにより、動作プログラムに従って実行される処理の概略フローチャートである。この動作プログラムを起動すると、まず、上記の画像撮影、並びに、上記の制御前係数処理及び制御後係数処理を含む画像計測処理が開始されるとともに、コントローラCL11、CL12により搬送装置10(パーツフィーダ11及びリニアフィーダ12)の駆動が開始される。そして、前述のデバッグ操作に応じたデバッグ設定がOFFであれば、撮影画像GPX又は画像エリアGPYに対して画像計測処理が実行され、制御処理前後の計数処理とともに検査判定処理が実行される。最終の判定結果がOK判定であれば、デバッグ操作が行われない限り、そのまま次の撮影画像GPX又は画像エリアGPYの画像計測処理が実施される。 Next, with reference to FIG. 7, the flow of the entire operation program of the present embodiment will be described. FIG. 7 is a schematic flowchart of processing executed according to an operation program by the arithmetic processing unit MPU of the inspection processing unit DTU. When this operation program is started, first, the above-mentioned image shooting and the image measurement processing including the above-mentioned pre-control coefficient processing and post-control coefficient processing are started, and the transfer device 10 (parts feeder 11) is started by the controllers CL11 and CL12. And the driving of the linear feeder 12) is started. Then, if the debug setting corresponding to the above-mentioned debug operation is OFF, the image measurement process is executed for the captured image GPX or the image area GPY, and the inspection determination process is executed together with the counting process before and after the control process. If the final determination result is an OK determination, the image measurement process of the next captured image GPX or image area GPY is performed as it is unless the debug operation is performed.

搬送路111,121上に設けられた搬送物Pの選別位置では、例えば、常時は排除用噴気口OPSから気流が流れているが、判定結果がOK(良品)であれば、排除用噴気口OPSの気流を停止し、全ての良品が制御エリアMESを通過した後に気流を復帰させる。これにより、不良の搬送物Pを搬送路121上から排除する。なお、この選別位置において、常時は排除用噴気口OPSからの気流を停止させておき、判定結果がNG(不良品)であるときに上記気流を発生させてもよい。また、搬送路111,121上に設けられた搬送物Pの搬送姿勢の反転若しくは横転位置では、常時は反転若しくは横転用噴気口OPRからの気流は停止される。一方、判定結果がNG(不良品)であれば、反転若しくは横転用噴気口OPRから気流を噴出させて搬送路121上で反転させる。なお、この反転若しくは横転位置においては、反転若しくは横転用噴気口OPRから気流が常時流れるようにし、良品が検出されたときにのみ当該気流を停止するようにしてもよい。 At the sorting position of the transported object P provided on the transport paths 111 and 121, for example, the air flow is always flowing from the exclusion fumarole OPS, but if the determination result is OK (non-defective product), the exclusion fumarole port The airflow of the OPS is stopped, and the airflow is restored after all the non-defective products have passed through the control area MES. As a result, the defective transported object P is excluded from the transport path 121. At this sorting position, the airflow from the exhaust fumarole OPS may be stopped at all times, and the above airflow may be generated when the determination result is NG (defective product). Further, at the reversal or rollover position of the transport posture of the transport object P provided on the transport paths 111 and 121, the airflow from the reversal or rollover fumarole OPR is always stopped. On the other hand, if the determination result is NG (defective product), an air flow is ejected from the reversing or overturning fumarole OPR and reversed on the transport path 121. In this reversal or rollover position, the airflow may be constantly flowed from the reversal or rollover fumarole OPR, and the airflow may be stopped only when a non-defective product is detected.

このようにして、搬送路121上で搬送物Pが制御されることにより、下流側へは良品(正規の姿勢にある部品)のみが整列した状態で供給されていく。この場合にも、その後、デバッグ操作が行われない限り、そのまま次の撮影画像GPX又は画像エリアGPYの判定が実施される。上記の途中でデバッグ操作が行われ、デバッグ設定がONになると、上記ルーティンから抜け出して、搬送装置10の駆動が停止され、画像計測処理も停止される。そして、この状態において適宜の操作を行うと、前述のように画像ファイルを選択可能な状態となる。このとき、選択表示される画像ファイルは、直前の運転モードにおいて記録していた複数の撮影画像GPX又は画像エリアGPYを含む画像ファイルである。これをそのまま選択して適宜の操作をすると、再実行モードに移行する。このモードでは、上述のようにすでに実行された制御動作を記録した画像ファイルに基づいて、画像の表示や検出及び判定を再実行させることができる。すなわち、搬送装置10の搬送物Pの制御処理に不具合が生じた場合には、この不具合を解消するために、まず、過去の画像データに基づいて画像計測処理を再実行することによって、画像計測処理の問題箇所を探る。当該問題箇所が判明すれば、それに応じて検出や判定の設定内容(設定値)を変更、調整し、再び過去の画像データに対して画像計測処理を再実行することで調整、改善作業の結果を確認することができる。なお、この点は、本実施形態の上記計数処理についても同様であり、計数処理に不具合が生じた場合の計数処理の再実行、設定内容の変更、調整などについても同様である。その後、適宜の復帰操作を行うと、デバッグ設定がOFFに戻され、画像計測処理が再開されるとともに、搬送装置10の駆動が再開される。また、表示装置の画面は運転モードの表示画面に戻る。 By controlling the transported object P on the transport path 121 in this way, only non-defective products (parts in the normal posture) are supplied to the downstream side in an aligned state. In this case as well, the determination of the next captured image GPX or image area GPY is performed as it is unless the debugging operation is performed thereafter. When the debug operation is performed in the middle of the above and the debug setting is turned ON, the routine is exited, the drive of the transport device 10 is stopped, and the image measurement process is also stopped. Then, if an appropriate operation is performed in this state, the image file can be selected as described above. At this time, the image file selected and displayed is an image file including a plurality of captured image GPX or image area GPY recorded in the immediately preceding operation mode. If this is selected as it is and an appropriate operation is performed, the mode shifts to the re-execution mode. In this mode, the display, detection, and determination of the image can be re-executed based on the image file in which the control operation already executed as described above is recorded. That is, when a problem occurs in the control process of the transported object P of the transport device 10, in order to solve this problem, first, the image measurement process is re-executed based on the past image data to measure the image. Search for processing problems. If the problematic part is found, the setting contents (setting value) of detection and judgment are changed and adjusted accordingly, and the image measurement process is re-executed for the past image data to adjust and improve the result. Can be confirmed. It should be noted that this point is the same for the above-mentioned counting process of the present embodiment, and is also the same for re-execution of the counting process, change of setting contents, adjustment, etc. when a problem occurs in the counting process. After that, when an appropriate return operation is performed, the debug setting is returned to OFF, the image measurement process is restarted, and the driving of the transport device 10 is restarted. Further, the screen of the display device returns to the display screen of the operation mode.

以上説明した本実施形態では、カメラCM1,CM2が所定の撮影間隔で繰り返し撮影するとともに、搬送物の搬送速度Vsと撮影間隔Tsとの関係により搬送路121を通過する全ての搬送物Pについて、各搬送物P毎に上記限定領域CR1、CR2や後述するCR3と常に重なるように予め設定されることにより、いずれかの撮影画像において上記限定領域内の画像データDにより全ての搬送物Pの情報を検出することができるため、従来技術のように個々の搬送物の位置を検知するためのトリガ信号を生成する必要がなくなる。また、この画像データDの画素値の分布パターンDsを分類器(データ分類手段)により所定の分類カテゴリーに分類することで得た分類結果に基づいて判定を行うことにより、判定精度を確保しつつ、短時間に処理を行うことが可能になる。すなわち、搬送物Pの検出処理を分類問題として処理することと処理に要するデータ量を低減することにより、前記搬送物Pを判定するための画像計測処理を高速かつ高精度に行うことができる。 In the present embodiment described above, the cameras CM1 and CM2 repeatedly shoot at predetermined shooting intervals, and all the transported objects P passing through the transport path 121 due to the relationship between the transport speed Vs and the shooting interval Ts of the transported objects. By presetting each of the transported objects P so as to always overlap with the limited regions CR1 and CR2 and CR3 described later, information on all the transported objects P can be obtained from the image data D in the limited region in any of the captured images. Therefore, it is not necessary to generate a trigger signal for detecting the position of each transported object as in the prior art. Further, the determination accuracy is ensured by performing the determination based on the classification result obtained by classifying the distribution pattern Ds of the pixel values of the image data D into a predetermined classification category by a classifier (data classification means). , It becomes possible to perform processing in a short time. That is, by processing the detection process of the transported object P as a classification problem and reducing the amount of data required for the process, the image measurement process for determining the transported object P can be performed at high speed and with high accuracy.

前述のように、本実施形態の搬送物の判定装置に相当する搬送物Pの計数処理手段を設けることで搬送物Pの選別位置における良品率や不良品数を求めることができるので、上流側の整列効率や供給先への供給効率を推測することができる。このため、上記の良品率が一定の割合を下回ったときや不良品数が一定数を越えたときには、自動的にコントローラCL11及びCL12に指令を出し、搬送装置10の駆動を停止するように構成することもできる。なお、このような判定結果に応じた搬送装置10の駆動制御方法としては、駆動停止以外に、搬送速度やその他の搬送態様を変化させるように加振手段の駆動力(電圧や電流など)、振幅、周波数などを制御するものであってもよい。 As described above, by providing the counting processing means for the transported object P corresponding to the conveyed object determining device of the present embodiment, the non-defective product rate and the number of defective products at the sorting position of the transported object P can be obtained. It is possible to estimate the alignment efficiency and the supply efficiency to the supply destination. Therefore, when the above-mentioned non-defective product rate falls below a certain ratio or when the number of defective products exceeds a certain number, a command is automatically issued to the controllers CL11 and CL12 to stop the driving of the transport device 10. You can also do it. As a drive control method for the transport device 10 according to such a determination result, in addition to the drive stop, the driving force (voltage, current, etc.) of the vibration exciting means so as to change the transport speed and other transport modes, It may control the amplitude, frequency, and the like.

なお、搬送物の制御処理手段の一例としては、例えば、前記搬送経路上の前記搬送物に対してエアなどの気流を吹き付けて、搬送物を吹き飛ばしたり、姿勢を変更させたりする気流吹付機構が挙げられる。この気流吹付機構は、搬送経路の搬送面に開口した気流吹付口と、この気流吹付口から気流を流出させることを可能にするための気流供給経路と、この気流供給経路に気流を供給するコンプレッサやガスタンクなどの気流供給源とを備える。また、上記搬送物制御手段の他の例としては、搬送経路上の搬送物に当接し、搬送物を機械的に搬送経路上から排除したり、姿勢を機械的に変換(反転、横転)させる機械的作用機構が挙げられる。さらに、上記搬送物制御手段の別の例としては、搬送経路の所定箇所の経路幅、搬送面の傾斜角や勾配、搬送面の形状などを変更したり切り替えたりすることにより、搬送物の選別率を調整する搬送経路の調整機構を挙げることもできる。このような搬送経路の調整機構は、上記所定箇所において搬送物の搬送態様が変化したり切り替えられたりすることにより、結果的に搬送物の選別態様や姿勢などを制御することができる。 As an example of the control processing means for the transported object, for example, an air flow blowing mechanism that blows an air flow such as air to the transported object on the transport path to blow off the transported object or change its posture. Can be mentioned. This airflow blowing mechanism includes an airflow blowing port opened on the transport surface of the transport path, an airflow supply path for allowing the airflow to flow out from the airflow blowing port, and a compressor that supplies the airflow to the airflow supply path. It is equipped with an airflow supply source such as a gas tank. Further, as another example of the conveyed object control means, the conveyed object is brought into contact with the conveyed object on the conveyed object, and the conveyed object is mechanically removed from the conveyed object or the posture is mechanically changed (reversed or rolled over). A mechanical mechanism of action can be mentioned. Further, as another example of the conveyed object control means, the conveyed object is selected by changing or switching the path width of a predetermined portion of the conveyed object, the inclination angle or gradient of the conveyed surface, the shape of the conveyed surface, and the like. An adjustment mechanism of a transport path for adjusting the rate can also be mentioned. Such a transport path adjusting mechanism can change or switch the transport mode of the transported object at the predetermined location, and as a result, can control the selected mode and posture of the transported object.

次に、本発明の第2実施形態に係る搬送物の判定装置により、上記の搬送物の検査判定処理を行う場合について説明する。この場合には、搬送物の搬送姿勢を判別する必要があるため、第1実施形態の限定領域CR1やCR2とは異なる形状や大きさの限定領域CR3を用いる。これは、第1実施形態では、異なる搬送姿勢の搬送物Pに重なる限定領域CR1,CR2の画像データDの分布パターンDs同士が判別できず、同一のパターン類型に対応していたためである。図8は、この限定領域CR3の搬送物Pに対する相対位置を示す説明図(a)及び限定領域CR3の画像データDの分布パターンDsを示すグラフ(b)〜(h)である。 Next, a case where the above-mentioned inspection and determination processing of the transported object is performed by the device for determining the transported object according to the second embodiment of the present invention will be described. In this case, since it is necessary to determine the transport posture of the transported object, the limited region CR3 having a shape and size different from the limited regions CR1 and CR2 of the first embodiment is used. This is because, in the first embodiment, the distribution patterns Ds of the image data D of the limited regions CR1 and CR2 overlapping the transported objects P having different transport postures cannot be discriminated from each other, and correspond to the same pattern type. 8 is an explanatory diagram (a) showing the relative position of the limited region CR3 with respect to the transported object P, and graphs (b) to (h) showing the distribution pattern Ds of the image data D of the limited region CR3.

前述のように、第1の計測エリアME1に搬入されてくる搬送物Pは、図9に示すように、縦姿勢の搬送物P4とP7のうちの、主軸が搬送面121aに沿った縦姿勢の搬送物P7が気流供給路121cを介して気流供給口121dから吹き付けられる気流によって排除されるか、或いは、横転されることによって、主軸が搬送面121bに沿った縦姿勢の搬送物P4のみとなる。このため、この縦姿勢の搬送物P4の情報を確実に得るために、限定領域CR3は、横姿勢の搬送物P1及びP2に対応する限定領域CR1、CR2に対して、縦姿勢の搬送物P4〜P6に対応する図示下方の側に延長した形状とされる。なお、縦姿勢の搬送物P7も搬入されてくる箇所である場合には、限定領域CR3はさらに反対側にも延長された形状とすることが好ましい。 As described above, as shown in FIG. 9, the transported object P carried into the first measurement area ME1 has a vertical posture in which the main shaft is along the transport surface 121a among the transported objects P4 and P7 in the vertical posture. The main axis of the conveyed object P7 is eliminated by the airflow blown from the airflow supply port 121d through the airflow supply path 121c, or is rolled over so that the main shaft is only the conveyed object P4 in the vertical posture along the conveying surface 121b. Become. Therefore, in order to surely obtain the information of the transported object P4 in the vertical posture, the limited region CR3 has the transported object P4 in the vertical posture with respect to the limited regions CR1 and CR2 corresponding to the transported objects P1 and P2 in the horizontal posture. The shape is extended to the lower side in the drawing corresponding to P6. When the vertically-positioned conveyed object P7 is also carried in, it is preferable that the limited region CR3 has a shape further extended to the opposite side.

ここで、限定領域CR3は、少なくとも、図8に示す横姿勢の搬送物P1やP2と、縦姿勢の搬送物P4〜P6とを判別できるように、上記限定領域CR1よりも縦方向に長く設定される。図示例では、限定領域CR1ではm=40であるのに対して、限定領域CR2ではm=80である。また、限定領域CR3は、搬送物の通過範囲Wtに対して、そのの両側に当該通過範囲から張り出した端部分をそれぞれ備えることが望ましい。この場合において、前記限定領域は、前記通過範囲の120%以下の領域であることが望ましい。図示例では、限定領域CR3は、上記横姿勢の搬送物P1やP2と縦姿勢の搬送物P4〜P6の双方の通過範囲の幅方向両側に、それぞれ当該通過範囲より張り出す端部分を備えている。当該端部分は、例えば、限定領域の全幅の10〜20%程度、図示例(m=80)であれば、8〜16ピクセル程度の張り出し長さに設定される。これにより、限定領域CR3の画像データDの画素値の分布パターンDsにおいて、上記端部分が搬送物Pと重なる範囲から外れた位置に配置されるので、搬送物Pの検出範囲を容易に認識することができるようになることから、搬送物Pの各部の判別精度の向上が容易になるため、分類器によるデータ分類処理の分類精度を高めることができる。 Here, the limited region CR3 is set to be longer in the vertical direction than the limited region CR1 so that at least the horizontally oriented conveyed objects P1 and P2 and the vertically oriented conveyed objects P4 to P6 can be discriminated from each other. Will be done. In the illustrated example, m = 40 in the limited region CR1 while m = 80 in the limited region CR2. Further, it is desirable that the limited region CR3 is provided with end portions protruding from the passing range on both sides of the passing range Wt of the transported object. In this case, it is desirable that the limited region is a region of 120% or less of the passing range. In the illustrated example, the limited region CR3 is provided with end portions protruding from the passing range on both sides in the width direction of both the passing objects P1 and P2 in the horizontal posture and the transported objects P4 to P6 in the vertical posture. There is. The end portion is set to, for example, about 10 to 20% of the total width of the limited region, or about 8 to 16 pixels in the illustrated example (m = 80). As a result, in the distribution pattern Ds of the pixel values of the image data D of the limited area CR3, the end portion is arranged at a position outside the range overlapping with the transported object P, so that the detection range of the transported object P can be easily recognized. Therefore, it becomes easy to improve the discrimination accuracy of each part of the transported object P, so that the classification accuracy of the data classification process by the classifier can be improved.

本実施形態では、限定領域CR3の画像データDの画素値の分布パターンDs11〜Ds17に対応して、パターン類型PT11〜PT17を想定した。これにより、取得された画像データDを上記画素値の分布パターンDs11〜Ds17に対応する7つのパターン類型PT11〜PT17に関連付けることができる。ここで、分布パターンDs11に対応するパターン類型PT11は、限定領域CR3が横姿勢にある搬送物P1の白色部Pbと重なる場合の分布パターンに対応する。また、分布パターンDs12に対応するパターン類型PT12は、限定領域CR3が横姿勢にある搬送物P1の白色面Pbと黒色面Pcにわたり重なる場合の分布パターンに対応する。さらに、分布パターンDs13に対応するパターン類型PT13は、限定領域CR3が横姿勢にある搬送物P2の白色面Pbと重なる場合の分布パターンに対応する。また、分布パターンDs14に対応するパターン類型PT14は、限定領域CR3が縦姿勢にある搬送物P4の端子部Paと白色面Pbにわたり重なる場合の分布パターンに対応する。さらに、分布パターンDs15に対応するパターン類型PT15は、限定領域CR3が縦姿勢にある搬送物P5の端子部Paから白色面Pbと黒色面Pcにわたり重なる分布パターンに対応する。また、分布パターンDs16に対応するパターン類型PT16は、限定領域CR3が縦姿勢にある搬送物P6の端子部Paから黒色面Pcと白色面Pbにわたり重なる場合の分布パターンに対応する。さらに、分布パターンDs17に対応するパターン類型PT17は、限定領域CR3が前後の二つの搬送物の間の隙間と重なる場合の分布パターンに対応する。この分布パターンは、前後の搬送物が離れて搬送されてくる場合の隙間だけでなく、二つの搬送物が連なった状態で搬送されてくるときの前後の搬送物の当接部分であってもよい。 In the present embodiment, pattern types PT11 to PT17 are assumed corresponding to the distribution patterns Ds11 to Ds17 of the pixel values of the image data D of the limited region CR3. Thereby, the acquired image data D can be associated with the seven pattern types PT11 to PT17 corresponding to the distribution patterns Ds11 to Ds17 of the pixel values. Here, the pattern type PT11 corresponding to the distribution pattern Ds11 corresponds to the distribution pattern when the limited region CR3 overlaps the white portion Pb of the transported object P1 in the horizontal posture. Further, the pattern type PT12 corresponding to the distribution pattern Ds12 corresponds to the distribution pattern when the limited region CR3 overlaps the white surface Pb and the black surface Pc of the transported object P1 in the horizontal posture. Further, the pattern type PT13 corresponding to the distribution pattern Ds13 corresponds to the distribution pattern when the limited region CR3 overlaps the white surface Pb of the transported object P2 in the horizontal posture. Further, the pattern type PT14 corresponding to the distribution pattern Ds14 corresponds to the distribution pattern when the limited region CR3 overlaps the terminal portion Pa of the transported object P4 in the vertical posture and the white surface Pb. Further, the pattern type PT15 corresponding to the distribution pattern Ds15 corresponds to a distribution pattern in which the limited region CR3 overlaps from the terminal portion Pa of the transported object P5 in the vertical posture to the white surface Pb and the black surface Pc. Further, the pattern type PT16 corresponding to the distribution pattern Ds16 corresponds to the distribution pattern when the limited region CR3 overlaps from the terminal portion Pa of the transported object P6 in the vertical posture to the black surface Pc and the white surface Pb. Further, the pattern type PT17 corresponding to the distribution pattern Ds17 corresponds to the distribution pattern when the limited region CR3 overlaps with the gap between the two front and rear objects. This distribution pattern is not limited to the gap when the front and rear transported objects are transported apart, but also the contact portion of the front and rear transported objects when the two transported objects are transported in a continuous state. Good.

本実施形態においては、分類器によって分類される分類カテゴリーとして、上記パターン類型PT11〜PT13に対応する分類カテゴリーCGCと、上記パターン類型PT14〜PT16に対応する分類カテゴリーCGDと、上記パターン類型PT17に対応する分類カテゴリーCGEとを設定する。これにより、上記の限定領域CR3の画像データDは、それぞれ、検査処理ユニットDTU内の演算処理装置MPUによる上記検査処理コンポーネント内の分類ユニットの実行によって構成されるデータ分類手段である分類器によって、三つの分類カテゴリーCGC、CGD又はCGEに分類される。すなわち、本実施形態では、限定領域CR3の画像データDを、上記パターン類型PT11〜PT13に対応する分類カテゴリーCGCと、上記パターン類型PT14〜PT16に対応する分類カテゴリーCGDと、上記パターン類型PT17に対応する分類カテゴリーCGEとに分類する分類問題として処理する画像処理工程を実行する。ここで、分類カテゴリーCGCは、限定領域CR3が横向きの搬送物Pと重なる場合、すなわち横向きの搬送物P1、P2が有る場合に対応し、分類カテゴリーCGDは、限定領域CR3が縦の向きの搬送物Pと重なる場合、すなわち縦向きの搬送物P4〜P6が有る場合に対応し、分類カテゴリーCGEは、限定領域CR3が搬送物Pと重ならず、隙間と重なる場合、すなわち搬送物P1〜P6が無い場合に対応する。 In the present embodiment, as the classification categories classified by the classifier, the classification categories CGC corresponding to the pattern types PT11 to PT13, the classification categories CGD corresponding to the pattern types PT14 to PT16, and the pattern type PT17 are supported. Set the classification category CGE. As a result, the image data D of the limited area CR3 is obtained by the classifier, which is a data classification means configured by the execution of the classification unit in the inspection processing component by the arithmetic processing unit MPU in the inspection processing unit DTU, respectively. It is classified into three classification categories, CGC, CGD or CGE. That is, in the present embodiment, the image data D of the limited region CR3 corresponds to the classification category CGC corresponding to the pattern types PT11 to PT13, the classification category CGD corresponding to the pattern types PT14 to PT16, and the pattern type PT17. The image processing step to be processed as a classification problem to be classified into the classification category CGE is executed. Here, the classification category CGC corresponds to the case where the limited area CR3 overlaps with the laterally transported objects P, that is, when there are the laterally oriented objects P1 and P2, and the classification category CGD corresponds to the case where the limited area CR3 is vertically oriented. Corresponding to the case where it overlaps with the object P, that is, when there are vertically oriented objects P4 to P6, in the classification category CGE, when the limited area CR3 does not overlap with the object P but overlaps with the gap, that is, the items P1 to P6 Corresponds when there is no.

このように、上記限定領域CR3の画像データDを上記分類カテゴリーCGC〜CGEに分類する分類器を図5に関して説明した内容と同等の構成によって基本設計し、学習させた学習済みモデルとして形成することにより、図6に関して説明した内容と同等の手法により分類結果E′={e1,e2,e3}を求めることができる。そして、図6について説明した判定処理の代わりに、例えば、横向きの搬送物P1〜P3が有る分類カテゴリーCGCのときと、隙間がある場合の分類カテゴリーCGEのときには、搬送物Pの排除や姿勢変更が不要であると判定して、搬送物制御処理を行わずにそのまま搬送物を通過させ、縦向きの搬送物P4〜P6がある分類カテゴリーCGDのときには、搬送物Pの排除や姿勢変更が必要であると判定して、搬送物制御処理によって、搬送物Pを搬送経路上から排除したり、或いは、搬送物Pを反転若しくは横転させたりすることによって搬送姿勢を横向きに変更する。また、搬送物制御処理において、常時は気流を噴出させた状態などの搬送物制御状態としておき、良品であると判定されたときにのみ気流の噴出を止めるなどの搬送物通過状態にすることもできる。この場合には、横向きの搬送物P1〜P3が有る分類カテゴリーCGCのときには、搬送物Pの排除や姿勢変更が不要であると判定して、搬送物制御処理を停止し、そのまま搬送物を通過させ、縦向きの搬送物P4〜P6がある分類カテゴリーCGDのときと、隙間がある場合の分類カテゴリーCGEのときには、搬送物Pの排除や姿勢変更が必要であると判定して、搬送物制御処理をそのまま続けることによって、搬送物Pを搬送経路上から排除したり、或いは、搬送物Pを横転させたりすることによって搬送姿勢を横向きに変更する。 In this way, the classifier that classifies the image data D of the limited region CR3 into the classification categories CGC to CGE is basically designed and trained as a trained model with the same configuration as that described with respect to FIG. Therefore, the classification result E'= {e1, e2, e3} can be obtained by the same method as that described with respect to FIG. Then, instead of the determination process described with reference to FIG. 6, for example, in the case of the classification category CGC having the laterally transported objects P1 to P3 and in the case of the classification category CGE when there is a gap, the transported object P is excluded or the posture is changed. Is judged to be unnecessary, and the transported object is passed through as it is without performing the transported object control process. In the case of the classification category CGD in which the vertically oriented transported objects P4 to P6 are present, it is necessary to eliminate the transported object P or change the attitude. By the conveyed object control process, the conveyed object P is removed from the conveyed path, or the conveyed object P is inverted or overturned to change the conveyed posture to the sideways direction. In addition, in the transported object control process, it is also possible to set the transported object control state such as the state in which the air flow is ejected at all times, and set the transported object passing state such as stopping the ejection of the air flow only when it is determined that the product is non-defective. it can. In this case, in the case of the classification category CGC in which the sideways transported objects P1 to P3 are present, it is determined that it is not necessary to remove the transported object P or change the posture, stop the transported object control process, and pass the transported object as it is. In the case of the classification category CGD in which the vertically oriented objects P4 to P6 are present, and in the case of the classification category CGE when there is a gap, it is determined that the transportation object P needs to be eliminated or the attitude is changed, and the transportation object is controlled. By continuing the process as it is, the transported object P is removed from the transport path, or the transported object P is rolled over to change the transport posture to the sideways direction.

この第2実施形態の具体的な実施例としては、入力層Iの入力数を80、出力層Oの出力数を3、中間第1層M1のユニット数を100、中間第2層M2のユニット数を120、中間第3層M3のユニット数を40、中間層の活性化関数をTanh関数とし、誤差関数を平均二乗誤差関数とした。また、学習率を0.00001、バッチサイズを32とした。学習データ及び検証データを2000個、評価データを1000個とした。実際の搬送姿勢の判定数に対する正解の搬送姿勢の数の比を分類精度とすると、学習データ及び検証データの分類精度は97%、評価データの分類精度は95.4%であった。 As a specific example of this second embodiment, the number of inputs of the input layer I is 80, the number of outputs of the output layer O is 3, the number of units of the intermediate first layer M1 is 100, and the number of units of the intermediate second layer M2 is 100. The number was 120, the number of units of the intermediate third layer M3 was 40, the activation function of the intermediate layer was the Tanh function, and the error function was the mean square error function. The learning rate was 0.00001 and the batch size was 32. The number of training data and verification data was 2000, and the number of evaluation data was 1000. Assuming that the ratio of the number of correct transport postures to the actual number of determined transport postures is the classification accuracy, the classification accuracy of the training data and the verification data was 97%, and the classification accuracy of the evaluation data was 95.4%.

なお、この第2実施形態においても、第1実施形態と同様に、限定領域CR3の画像データDを分類器によりパターン類型PT11〜PT17に分類し、その後、判定処理手順(判定処理手段)により、最終的な分類カテゴリーCGC〜CGEのいずれかに判別してもよい。また、上述の第1実施形態において説明した各種の内容や他の変形例についても、この第2実施形態に適用するに支障がない限り、適宜に適用することができる。さらに、上記第1実施形態と第2実施形態のいずれにおいても、上記の制御システム或いは搬送システムにおいて、単独で用いることができるとともに、双方を用いることもできる。 Also in this second embodiment, similarly to the first embodiment, the image data D of the limited region CR3 is classified into the pattern types PT11 to PT17 by the classifier, and then by the determination processing procedure (determination processing means). It may be classified into one of the final classification categories CGC to CGE. In addition, various contents and other modifications described in the first embodiment described above can be appropriately applied as long as they do not interfere with the application to the second embodiment. Further, in both the first embodiment and the second embodiment, the control system or the transport system can be used alone or both can be used.

また、第1実施形態及び第2実施形態においては、いずれも、分類器により、二つの分類カテゴリーCGAとCGBに分類し、或いは、三つの分類カテゴリーCGC〜CGEに分類している。しかし、分類器により分類される分類カテゴリーは、上記の例に限らず、種々の態様に設定することができる。例えば、横姿勢の搬送物P1〜P3においては、いずれも主軸が搬送方向に沿った姿勢となっているものの、搬送物Pの前後の向きや主軸周りの回転姿勢が異なる複数の搬送姿勢が含まれる。これらの複数の搬送姿勢は、黒色層Pcの位置により判別できる。したがって、例えば、分類器において限定領域CR1、CR2の各画像データDを、前後の向きや主軸周りの回転姿勢が異なる複数の分類カテゴリーに分類し、その分類結果に応じた判定処理により、搬送物Pの上記搬送姿勢を判別するようにしてもよい。この場合、図11に示すように搬送物Pと限定領域CR1、CR2の重なりの位置関係が設定されたとすると、取得タイミングの前後の複数の画像データDのパターン類型(搬送物Pに対する限定領域CR1〜CR5の位置関係)の配列態様により、搬送物Pの搬送姿勢を判定することができる。例えば、図示例では、パターン類型の時間的配列がPTx、PTy、PTz、PTxであれば搬送物Po、PTx、PTz、PTy、PTxであれば搬送物Pp、PTx、PTz、PTw、PTxであれば搬送物Pq、PTx、PTz、PTw、PTxであれば搬送物Prである。したがって、この場合には前後4つのパターン類型の第1番目と第4番目がPTxである配列の第2番目と第3番目のパターン類型の相違により、上記4種のパターン類型のそれぞれに1対1に対応する分類カテゴリーを設定することで、上記搬送姿勢の判定が可能になる。 Further, in both the first embodiment and the second embodiment, they are classified into two classification categories CGA and CGB by a classifier, or classified into three classification categories CGC to CGE. However, the classification category classified by the classifier is not limited to the above example, and can be set in various modes. For example, in the laterally-positioned transported objects P1 to P3, although the spindle is in a posture along the transporting direction, a plurality of transporting postures in which the front-rear direction of the transported object P and the rotational posture around the spindle are different are included. Is done. These plurality of transport postures can be discriminated by the position of the black layer Pc. Therefore, for example, in the classifier, each image data D of the limited areas CR1 and CR2 is classified into a plurality of classification categories having different front-back orientations and rotational postures around the main axis, and the transported goods are subjected to determination processing according to the classification results. The transport posture of P may be determined. In this case, assuming that the overlapping positional relationship between the transported object P and the limited areas CR1 and CR2 is set as shown in FIG. 11, the pattern types of the plurality of image data D before and after the acquisition timing (limited area CR1 with respect to the transported object P). The transport posture of the transported object P can be determined from the arrangement mode (positional relationship of ~ CR5). For example, in the illustrated example, if the temporal sequence of the pattern type is PTx, PTy, PTz, PTx, it may be the transported product Po, PTx, PTz, PTy, and if it is PTx, it may be the transported product Pp, PTx, PTz, PTw, PTx. For example, if the transported object is Pq, PTx, PTz, PTw, or PTx, it is the transported object Pr. Therefore, in this case, due to the difference between the second and third pattern types of the sequence in which the first and fourth pattern types of the four front and rear pattern types are PTx, one pair for each of the above four pattern types. By setting the classification category corresponding to 1, the above-mentioned transport posture can be determined.

さらに、図11に示す例では、限定領域CR1、CR2が端子部Paと重なるパターン類型PTxの次に隙間と重なるパターン類型PTvが現れた場合には、搬送物Pが通過することとなる。また、限定領域CR1、CR2が端子部Paと重なるパターン類型PTxの次に再度、限定領域CR1、CR2が端子部Paと重なるパターン類型PTxが現れた場合も次の搬送物Pが到来したこととなる。このため、これらの場合は、いずれにしても、搬送物Pが一つ通過したことになる。したがって、前後のパターン類型PTx同士、或いは、前後のパターン類型PTxとPTvを見ることで、搬送物Pを計数することが可能である。この場合には、パターン類型PTxとPTvのそれぞれに1対1に対応する分類カテゴリーを設けることにより、判定結果を得ることが可能になる。 Further, in the example shown in FIG. 11, when the pattern type PTx in which the limited regions CR1 and CR2 overlap with the terminal portion Pa and the pattern type PTv overlapping with the gap appears, the conveyed object P passes through. Further, when the pattern type PTx in which the limited areas CR1 and CR2 overlap with the terminal portion Pa and the pattern type PTx in which the limited areas CR1 and CR2 overlap with the terminal part Pa appears again, the next transported object P has arrived. Become. Therefore, in these cases, in any case, one transported object P has passed. Therefore, it is possible to count the transported object P by looking at the front and rear pattern types PTx, or the front and rear pattern types PTx and PTv. In this case, it is possible to obtain a determination result by providing a classification category corresponding to one-to-one for each of the pattern types PTx and PTv.

図12に示す例では、データ分類工程の手順は上記と同様であるが、撮影間隔Tsを図11の場合よりも小さくすることにより、端子部Paと重なるパターン類型の間に現れる、白色面Pbのみのパターン類型PTzと、白色面Pbと黒色面Pcの組み合わせのパターン類型PTy又はPTwとのいずれか一方が前後2回にわたり現れるか、或いは、二つのパターン類型PTzとPTy又はPTwとの間に中間のパターン類型PTs又はPTtが出現するように設定している。したがって、前後3つの連続するパターン類型のうちの最初と最後が上記PTzと、PTy又はPTwとのいずれか一方と他方であるとき、中間のパターン類型がPTz、PTy、PTw、PTs(PTzとPTyの中間パターン)、PTt(PTzとPTwの中間パターン)のいずれかであれば、搬送物Pの上記搬送姿勢を判定することができる。つまり、中間が最初と最後のいずれか、或いは、その中間パターンであって、最初がPTyで最後がPTzであれば搬送物Po、最初がPTwで最後がPTzであれば搬送物Pp、最初がPTzで最後がPTyであれば搬送物Pq、最初がPTzで最後がPTwであれば搬送物Prとなる。この場合には、四つのパターン類型PTz、PTy、PTw、PTs、PTtのそれぞれに1対1に対応する分類カテゴリーを設けることにより、判定結果を得ることが可能になる。 In the example shown in FIG. 12, the procedure of the data classification step is the same as the above, but by making the photographing interval Ts smaller than that in the case of FIG. 11, the white surface Pb that appears between the pattern types overlapping the terminal portion Pa. Only one of the pattern type PTz and the pattern type PTy or PTw of the combination of the white surface Pb and the black surface Pc appears twice before and after, or between the two pattern types PTz and PTy or PTw. It is set so that an intermediate pattern type PTs or PTt appears. Therefore, when the first and last of the three consecutive pattern types before and after are one or the other of the above PTZ and PTy or PTw, the intermediate pattern types are PTz, PTy, PTw, and PTs (PTz and PTy). If it is either PTt (intermediate pattern between PTz and PTw), the transport posture of the transported object P can be determined. That is, if the middle is either the first or the last, or an intermediate pattern between them, the first is PTy and the last is PTZ, the transported Po, if the first is PTw and the last is PTZ, the transported Pp, the first is If it is PTz and the last is PTy, it is the transported product Pq, and if the first is PTz and the last is PTw, it is the transported product Pr. In this case, it is possible to obtain a determination result by providing a classification category corresponding to one-to-one for each of the four pattern types PTz, PTy, PTw, PTs, and PTt.

図13に示す例では、一つの取得タイミングで取得する複数の限定領域CR4、CR5を設ける例を示している。このように、一つの取得タイミングにおいて画像データDを取得する限定領域は複数存在してもよい。また、図示例では、限定領域CR4、CR5はいずれも搬送方向Fに沿って延在する。また、限定領域CR4は図示上方の側面と重なる位置に配置され、限定領域CR5は図示下方の側面と重なる位置に配置される。この場合、限定領域CR4、CR5の画像データDを、白色面Pbと黒色面Pcにわたる範囲に対応するパターン部分が含まれる画素値の分布パターンのパターン類型PTpと、白色面Pbのみに対応するパターン部分のみが含まれる画素値の分布パターンのパターン類型PTqと、それ以外のパターン類型PTrとに分類する。これにより、一つの取得タイミングの画像データDにおいて限定領域CR4,CR5により両方のパターン類型PTpとPTqが同時に見られる場合には、その組み合わせによって搬送物Po,Pp、Pq,Prの搬送姿勢を判定処理によって導出することができる。したがって、これらの同じ取得タイミングの複数の限定領域CR4,CR5の画像データDにおけるパターン類型を組み合わせることによっても、搬送物Pの搬送姿勢を判定することができる。この場合には、少なくともPTpとPTqにそれぞれ1対1に対応する分類カテゴリーを設けることにより判定が可能になる。 In the example shown in FIG. 13, a plurality of limited regions CR4 and CR5 to be acquired at one acquisition timing are provided. As described above, there may be a plurality of limited areas for acquiring the image data D at one acquisition timing. Further, in the illustrated example, both the limited regions CR4 and CR5 extend along the transport direction F. Further, the limited area CR4 is arranged at a position overlapping the upper side surface in the drawing, and the limited area CR5 is arranged at a position overlapping the lower side surface in the drawing. In this case, the image data D of the limited regions CR4 and CR5 is the pattern type PTp of the pixel value distribution pattern including the pattern portion corresponding to the range covering the white surface Pb and the black surface Pc, and the pattern corresponding only to the white surface Pb. It is classified into a pattern type PTq of a pixel value distribution pattern including only a part and a pattern type PTr other than that. As a result, when both pattern types PTp and PTq are simultaneously observed in the limited areas CR4 and CR5 in the image data D at one acquisition timing, the transport postures of the transported objects Po, Pp, Pq, and Pr are determined by the combination thereof. It can be derived by processing. Therefore, the transport posture of the transported object P can also be determined by combining the pattern types in the image data D of the plurality of limited regions CR4 and CR5 having the same acquisition timing. In this case, the determination can be made by providing at least one classification category corresponding to PTp and PTq, respectively.

本実施形態では、データ分類手段(分類器)が、搬送物Pの一部のみと重なり得る範囲に設定された限定領域CRの画像データDを、画素値の分布パターンDsに応じて、複数の分類カテゴリーCGA,CGB、或いは、CGC〜CGEに分類する。これにより、分類結果として得られた分類カテゴリーのみで限定領域CRと重なる搬送物Pの状況を見極めることができる場合があり、また、分類結果に基づいてさらに所定の判定処理を行うことによって種々の判定結果を得ることもできる。後者の場合には、上述のように、前後の取得タイミングで取得された複数の限定領域CRの画像データDの分類結果に基づいて所定の判定結果を得ることができ、また、一つの取得タイミングで取得された複数の限定領域CRの画像データDの分類結果に基づいて所定の判定結果を得ることもできる。したがって、処理すべきデータ量を制限しつつ、必要な判定精度を確保することができるため、高速に判定処理を実行することができる。このため、上記搬送システムのように多数の搬送物Pを高速に供給しなければならない場合でも、正確な判定処理を容易に実現できる。 In the present embodiment, the data classification means (classifier) performs a plurality of image data D of the limited region CR set in a range where only a part of the conveyed object P can overlap, according to the distribution pattern Ds of the pixel values. Classification Category CGA, CGB, or CGC to CGE. As a result, it may be possible to determine the status of the transported object P that overlaps with the limited area CR only from the classification category obtained as the classification result, and various predetermined determination processes are further performed based on the classification result. The judgment result can also be obtained. In the latter case, as described above, a predetermined determination result can be obtained based on the classification result of the image data D of the plurality of limited area CRs acquired at the acquisition timings before and after, and one acquisition timing. It is also possible to obtain a predetermined determination result based on the classification result of the image data D of the plurality of limited area CRs acquired in. Therefore, the required determination accuracy can be ensured while limiting the amount of data to be processed, so that the determination process can be executed at high speed. Therefore, even when a large number of transported objects P must be supplied at high speed as in the above-mentioned transport system, accurate determination processing can be easily realized.

本実施形態においては、学習データを作成する場合において、限定領域CRの画像データDの上記分布パターンDsを複数のパターン類型PT1〜PT7、或いは、PT11〜PT17に関連付け、これらのパターン類型に対応させて分類カテゴリーCGA,CGB、或いは、CGC〜CGEにラベル付けしている。これにより、人手によりラベル付けを行う場合でも、画像処理により自動的なラベル付けを行う場合でも、正確かつ容易にラベル付けを行うことができる。また、このラベル付けを、限定領域CRの画像データDだけでなく、限定領域CRを含むより広範囲の画像データに基づいて行うことにより、画像データD(或いは、その分布パターンDs)には明白には認知できない情報に基づいた分類器の分類処理能力の向上(分類精度や対応力の向上)を期待することができる。 In the present embodiment, when the training data is created, the distribution pattern Ds of the image data D of the limited region CR is associated with a plurality of pattern types PT1 to PT7 or PT11 to PT17, and is associated with these pattern types. They are labeled in the classification categories CGA, CGB, or CGC to CGE. As a result, labeling can be performed accurately and easily regardless of whether the labeling is performed manually or automatically by image processing. Further, by performing this labeling based not only on the image data D of the limited region CR but also on a wider range of image data including the limited region CR, the image data D (or its distribution pattern Ds) is clearly labeled. Can be expected to improve the classification processing capacity of the classifier based on unrecognizable information (improvement of classification accuracy and responsiveness).

本実施形態においては、分類結果に基づく判定処理を実施する場合には、判定処理手段により、時間的又は空間的な複数の限定領域CRの画像データDの分類結果を用いて処理することにより、より広範囲かつ柔軟な判定結果を得ることができる。また、この判定処理は分類結果のみに基づいて実施されることにより、処理時間も極めて短くすることができる。 In the present embodiment, when the determination process based on the classification result is performed, the determination processing means processes the image data D of the plurality of limited region CRs temporally or spatially by using the classification result. A wider and more flexible judgment result can be obtained. Further, since this determination process is performed based only on the classification result, the process time can be extremely shortened.

本実施形態においては、上述のように限定領域CR1〜CR5が所定の方向に延在する線状若しくは帯状の領域に設定される。これにより、搬送物Pの所定の延在方向に沿ったパターンを画像データとして取り込むことができるので、データ量を削減しつつ、搬送物に関するより多くの情報を取得できる。また、分類器などに入力する情報を一次元化することが容易になるため、分類処理のさらなる容易化と迅速化を図ることができる。特に、限定領域CR1〜3のように、搬送方向と交差(好ましくは直交)する方向に延在する線状若しくは帯状の領域とすることにより、撮影間隔や取得タイミングに対応する搬送物の厳密な位置情報をも取得することができる。また、複数の画像データDを時系列で用いることにより、搬送物の搬送姿勢や複数の搬送物の搬送状況などを正確に把握することも可能になる。 In the present embodiment, as described above, the limited regions CR1 to CR5 are set in a linear or strip-shaped region extending in a predetermined direction. As a result, the pattern along the predetermined extending direction of the transported object P can be captured as image data, so that more information about the transported object can be acquired while reducing the amount of data. Further, since it becomes easy to make the information input to the classifier or the like one-dimensional, the classification process can be further facilitated and speeded up. In particular, by forming a linear or band-shaped region extending in a direction intersecting (preferably orthogonal to) the transport direction, such as the limited regions CR1 to CR3, the transported object can be strictly measured and corresponding to the shooting interval and acquisition timing. You can also get location information. Further, by using the plurality of image data Ds in time series, it is possible to accurately grasp the transport posture of the transported object and the transport status of the plurality of transported objects.

なお、本発明の搬送物の判定装置は、上述の図示例のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記各実施形態では分類器として全結合型のニューラルネットワークを用いた学習済みモデルを用いているが、ニューラルネットワークとしては、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)などを用いることも可能である。また、分類器としては、SVM(Support Vector Machine)やRandom Forestなどのニューラルネットワーク以外の機械学習分類器を用いることもできる。 It should be noted that the device for determining the transported object of the present invention is not limited to the above-mentioned illustrated examples, and it goes without saying that various modifications can be made without departing from the gist of the present invention. For example, in each of the above embodiments, a trained model using a fully connected neural network is used as a classifier, but CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), or the like is used as the neural network. Is also possible. Further, as the classifier, a machine learning classifier other than the neural network such as SVM (Support Vector Machine) or Random Forest can also be used.

また、上記各実施形態を含むシステムでは、選別位置における選別方法として気流の吹き付けによる搬送物Pの搬送路121上からの排除を行っているが、搬送物Pの選別のための手法をはじめとして、個々の処理内容や各計測エリアの範囲については特に限定されるものではなく、機械的な排除手段を用いるなど、検出や判定のための種々の公知技術を採用することができる。また、搬送物を制御する態様としては、排除だけでなく、反転、分配などの種々の態様とすることができる。さらに、各実施形態を適用する搬送システムとしては、上記のような振動式搬送装置に限らず、他の種々の搬送装置を用いるものであってもよく、また、各実施形態を適用する制御システムとしても、何らかの搬送物Pを移動させる過程で何らかの計測を行う種々の場面に用いることができる。 Further, in the system including each of the above embodiments, as a sorting method at the sorting position, the transported object P is excluded from the transport path 121 by blowing an air flow, but the method for sorting the transported object P is included. The individual processing contents and the range of each measurement area are not particularly limited, and various known techniques for detection and determination can be adopted, such as using mechanical exclusion means. Further, as the mode for controlling the transported object, not only exclusion but also various modes such as inversion and distribution can be used. Further, the transfer system to which each embodiment is applied is not limited to the vibration type transfer device as described above, and various other transfer devices may be used, and the control system to which each embodiment is applied. However, it can be used in various situations where some measurement is performed in the process of moving some conveyed object P.

10…搬送装置、11…パーツフィーダ、110…搬送体、111…搬送路、12…リニアフィーダ、120…搬送体、121…搬送路、OPS、OPR、OPR1?OPR3…噴気口、CA、CA1〜CA3…搬送物、CM1,CM2…カメラ、CL11,CL12…コントローラ、DTU…検査処理ユニット、DP1,DP2…表示装置、GP1,GP2…画像処理装置、GM1,GM2…画像処理メモリ、GPX…撮影画像、GPY…画像エリア、GWA〜GWB…判定エリア、MPU…演算処理装置、MM…主記憶装置、ME1…第1の計測エリア、ME2…第2の計測エリア、MES…制御エリア、SAS…サーチエリア、SP1,SP2…操作入力装置、RAM…演算処理用メモリ、CR,CR1〜CR5…限定領域 D,D1〜D6…画像データ、d1〜dn…画素値、Ds,Ds1〜Ds7,Ds11〜Ds17…分布パターン、PT1〜PT7,PT11〜PT17,PTx,PTy,PTz,PTv,PTw…パターン類型、CGA〜CGE…分類カテゴリー、P…搬送物、P1〜P3,Po、Pp,Pq,Pr…横向きの搬送物、P4〜P7…縦向きの搬送物、Pa…端子部、Pb…白色面、Pc…黒色面、Ps1〜Ps4…側面、Pt5…先端面、Pt6…後端面 10 ... Conveying device, 11 ... Parts feeder, 110 ... Conveying body, 111 ... Conveying path, 12 ... Linear feeder, 120 ... Conveying body, 121 ... Conveying path, OPS, OPR, OPR1? CA3 ... Transport, CM1, CM2 ... Camera, CL11, CL12 ... Controller, DTU ... Inspection processing unit, DP1, DP2 ... Display device, GP1, GP2 ... Image processing device, GM1, GM2 ... Image processing memory, GPX ... Captured image , GPY ... image area, GWA to GWB ... judgment area, MPU ... arithmetic processing device, MM ... main memory, ME1 ... first measurement area, ME2 ... second measurement area, MES ... control area, SAS ... search area , SP1, SP2 ... Operation input device, RAM ... Memory for arithmetic processing, CR, CR1 to CR5 ... Limited area D, D1 to D6 ... Image data, d1 to dn ... Pixel values, Ds, Ds1 to Ds7, Ds11 to Ds17 ... Distribution pattern, PT1-PT7, PT11-PT17, PTx, PTy, PTz, PTv, PTw ... Pattern type, CGA-CGE ... Classification category, P ... Transport, P1-P3, Po, Pp, Pq, Pr ... Horizontal Transported object, P4 to P7 ... Vertically oriented transported object, Pa ... Terminal part, Pb ... White surface, Pc ... Black surface, Ps1 to Ps4 ... Side surface, Pt5 ... Front surface, Pt6 ... Rear end surface

Claims (10)

搬送経路上の搬送物の全体ではなく一部のみが含まれ得る範囲に設定された限定領域の画像データに基づいて前記搬送物の判定を行う搬送物の判定装置であって、
各搬送物についてそれぞれ前記限定領域の画像データを形成可能な時間間隔を有する取得タイミングで前記限定領域の画像データを繰り返し取得するデータ取得手段と、
前記取得タイミング毎に前記限定領域の画像データの画素値の分布パターンを複数の分類カテゴリーのいずれかに分類し、前記限定領域の画像データの分類結果を出力するデータ分類手段と、
複数の前記分類結果に基づいて前記搬送物の判定結果を出力する判定処理手段と、
を具備する搬送物の判定装置。
A device for determining a transported object that determines the transported object based on image data of a limited area set in a range in which only a part of the transported object on the transport path can be included.
A data acquisition means for repeatedly acquiring the image data of the limited region at an acquisition timing having a time interval capable of forming the image data of the limited region for each transported object.
A data classification means that classifies the distribution pattern of pixel values of the image data in the limited area into one of a plurality of classification categories for each acquisition timing and outputs the classification result of the image data in the limited area.
A determination processing means for outputting the determination result of the transported object based on the plurality of the classification results, and
A device for determining a transported object.
前記複数の分類結果は、複数の取得タイミングにおいて取得された前記限定領域の画像データの分類結果である、
請求項に記載の搬送物の判定装置。
The plurality of classification results are classification results of image data of the limited area acquired at a plurality of acquisition timings.
The device for determining a transported object according to claim 1.
前記取得タイミングは、各搬送物についてそれぞれ前記限定領域の画像データを複数回形成可能な時間間隔で設定される、
請求項1又は2に記載の搬送物の判定装置。
The acquisition timing is set at a time interval in which image data in the limited region can be formed a plurality of times for each transported object.
The device for determining a transported object according to claim 1 or 2.
前記データ分類手段はニューラルネットワークを備える分類器である、
請求項1〜のいずれか一項に記載の搬送物の判定装置。
The data classification means is a classifier including a neural network.
The device for determining a transported object according to any one of claims 1 to 3.
前記データ分類手段は、前記画像データ毎に取得タイミングにおける前記限定領域の搬送物に対する位置関係に基づいて決定された分類カテゴリーが前記分布パターンに対してラベル付けされた学習データを用いて学習された学習済みモデルである、
請求項に記載の搬送物の判定装置。
In the data classification means, the classification category determined based on the positional relationship of the limited region with respect to the transported object at the acquisition timing for each image data was learned using the learning data labeled with respect to the distribution pattern. A trained model,
The device for determining a transported object according to claim 4.
前記ニューラルネットワークは、入力層、中間層及び出力層を有し、
前記入力層は前記画像データの画素数と一致する数の入力を備え、
前記出力層は分類すべき前記分類カテゴリーの数と一致する数の出力を備える、
請求項4又は5に記載の搬送物の判定装置。
The neural network has an input layer, an intermediate layer, and an output layer.
The input layer includes as many inputs as the number of pixels of the image data.
The output layer comprises a number of outputs that matches the number of the classification categories to be classified.
The device for determining a transported object according to claim 4 or 5.
前記ニューラルネットワークは複数の前記中間層を備え、
前記複数の中間層のうち前記入力層に直接接続される第1層は、前記入力層の入力の数よりも大きい数のユニットを備える、
請求項に記載の搬送物の判定装置。
The neural network includes a plurality of the intermediate layers.
Of the plurality of intermediate layers, the first layer directly connected to the input layer includes a number of units larger than the number of inputs of the input layer.
The device for determining a transported object according to claim 6.
前記限定領域は線状若しくは帯状の領域である、
請求項1〜のいずれか一項に記載の搬送物の判定装置。
The limited area is a linear or band-shaped area,
The device for determining a transported object according to any one of claims 1 to 7.
前記限定領域は、搬送方向と交差する方向に延在する領域である、
請求項に記載の搬送物の判定装置。
The limited region is a region extending in a direction intersecting the transport direction.
The apparatus for determining a transported object according to claim 8.
搬送装置と、
該搬送装置によって搬送される搬送物を判定する請求項1〜のいずれか一項に記載の搬送物の判定装置と、
を具備する搬送システム。
Conveyor and
The device for determining a transported object according to any one of claims 1 to 9, which determines the transported object transported by the transport device.
Conveyance system equipped with.
JP2018057320A 2018-03-24 2018-03-24 Judgment device for transported objects and transport system using this Active JP6884398B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018057320A JP6884398B2 (en) 2018-03-24 2018-03-24 Judgment device for transported objects and transport system using this

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018057320A JP6884398B2 (en) 2018-03-24 2018-03-24 Judgment device for transported objects and transport system using this

Publications (2)

Publication Number Publication Date
JP2019169010A JP2019169010A (en) 2019-10-03
JP6884398B2 true JP6884398B2 (en) 2021-06-09

Family

ID=68108327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018057320A Active JP6884398B2 (en) 2018-03-24 2018-03-24 Judgment device for transported objects and transport system using this

Country Status (1)

Country Link
JP (1) JP6884398B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110780356A (en) * 2019-10-16 2020-02-11 上海众应信息科技有限公司 Subway platform clearance foreign matter detecting system
JP7347807B2 (en) 2020-07-07 2023-09-20 株式会社ダイシン Conveyance system
JP7302881B2 (en) 2020-08-06 2023-07-04 株式会社ダイシン Conveyor system
WO2023171625A1 (en) * 2022-03-07 2023-09-14 Jfeスチール株式会社 Conveyance state detection device and conveyance state detection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4514230B2 (en) * 2006-11-22 2010-07-28 富士機械製造株式会社 Component suction posture discrimination method and component suction posture discrimination system
JP6288517B2 (en) * 2014-12-12 2018-03-07 株式会社安川電機 Image processing apparatus, image processing method, and component supply apparatus

Also Published As

Publication number Publication date
JP2019169010A (en) 2019-10-03

Similar Documents

Publication Publication Date Title
JP6884398B2 (en) Judgment device for transported objects and transport system using this
TWI616388B (en) Conveying object identification control system and conveying device
CN103072718B (en) Machine vision detection system and method for food packaging production line
TWI802780B (en) Conveying management system and conveying device
US10596707B2 (en) Article transfer device
CN108482956A (en) Conveying quality testing looks into system and conveying device
CN103049743B (en) Bowl end character machining system and detection method
JP6989178B2 (en) Transport item tracking device, transport item counting device, transport item tracking method, transport item counting method, transport item tracking system, and transport item counting system.
JP7343186B2 (en) Conveyed object detection processing system and conveyance device
TWI834046B (en) Conveyor system
US10384235B2 (en) Method of facilitating check grader reaction to output produced by automatic board lumber grading system
JP7333546B2 (en) Object recognition device and object transport system using the same
JP7302881B2 (en) Conveyor system
TW202219894A (en) Conveyance system
JP7470926B2 (en) IMAGE PROCESSING METHOD, PROGRAM, AND IMAGE PROCESSING SYSTEM
JP2020190485A (en) Identification model generation device, identification model generation method and identification model generation program, and steel defect determination device, steel defect determination method and steel defect determination program
JP7330328B1 (en) Visual inspection auxiliary device
Zhao et al. An efficient parts counting method based on intensity distribution analysis for industrial vision systems
JP7398709B2 (en) Conveyance control system and conveyance device
JP2023087619A (en) Appearance sorter
JP2023093283A (en) Egg surface defect detection system
JP2022132821A (en) Conveying system

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210430

R150 Certificate of patent or registration of utility model

Ref document number: 6884398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150