JP2021002259A - Object identification device and object identification method - Google Patents

Object identification device and object identification method Download PDF

Info

Publication number
JP2021002259A
JP2021002259A JP2019116299A JP2019116299A JP2021002259A JP 2021002259 A JP2021002259 A JP 2021002259A JP 2019116299 A JP2019116299 A JP 2019116299A JP 2019116299 A JP2019116299 A JP 2019116299A JP 2021002259 A JP2021002259 A JP 2021002259A
Authority
JP
Japan
Prior art keywords
image
sample body
dimensional
object identification
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019116299A
Other languages
Japanese (ja)
Other versions
JP7258345B2 (en
Inventor
茂樹 古屋仲
Shigeki Koyanaka
茂樹 古屋仲
賢一郎 小林
Kenichiro Kobayashi
賢一郎 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2019116299A priority Critical patent/JP7258345B2/en
Publication of JP2021002259A publication Critical patent/JP2021002259A/en
Application granted granted Critical
Publication of JP7258345B2 publication Critical patent/JP7258345B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an object identification device and an object identification method capable of accurately identifying an object with less learning data.SOLUTION: The object identification device 1 includes a controller 13, which creates a first background image according to a density of a sample body and pastes a three-dimensional image of the sample body on the first background image to create a three-dimensional composite image. Further, for each pixel in a two-dimensional composite image obtained by pasting a two-dimensional image of the sample body on a second background image, the controller creates image data obtained by parameter addition according to a pixel value of each pixel of the three-dimensional composite image at a same position as the above-mentioned each pixel, and identifies an object by a convolutional neural network model trained with the above image data.SELECTED DRAWING: Figure 1

Description

本発明は、物体のリサイクル工程などにおいて物体を識別する技術に関するものである。 The present invention relates to a technique for identifying an object in an object recycling process or the like.

近年においては省資源が重要な社会テーマの一つとなっており、リサイクルを実現するために廃製品の選別技術も考案されてきている(特許文献1参照)。 In recent years, resource saving has become one of the important social themes, and a technology for sorting waste products has been devised in order to realize recycling (see Patent Document 1).

特開2017−109161号公報JP-A-2017-109161

特許文献1には畳み込みニューラルネットワークによる機械学習を利用した廃棄物選別システム等が開示されているが、精度の高い選別を行うためには多数の画像データを収集して機械学習部43に学習させる必要がある。 Patent Document 1 discloses a waste sorting system using machine learning by a convolutional neural network, but in order to perform highly accurate sorting, a large amount of image data is collected and trained by the machine learning unit 43. There is a need.

本発明は、このような問題を解決するためになされたもので、より少ない学習データで高精度な物体の識別が可能な物体識別装置と物体識別方法を提供することを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to provide an object identification device and an object identification method capable of accurately identifying an object with less training data.

上記課題を解決するため、本発明は、サンプル体の密度に応じた第一の背景画像を作成すると共に、第一の背景画像にサンプル体の三次元画像を貼付して三次元合成画像を作成し、第二の背景画像にサンプル体の二次元画像を貼付して得られた二次元合成画像における各画素に、上記各画素と同じ位置にある三次元合成画像の各画素の画素値に応じたパラメータを追加して得られる画像データを作成し、上記画像データを学習させた畳み込みニューラルネットワークモデルにより物体を識別する識別手段を備えた物体識別装置を提供する。 In order to solve the above problems, the present invention creates a first background image according to the density of the sample body, and attaches a three-dimensional image of the sample body to the first background image to create a three-dimensional composite image. Then, each pixel in the two-dimensional composite image obtained by pasting the two-dimensional image of the sample body on the second background image corresponds to the pixel value of each pixel in the three-dimensional composite image at the same position as the above pixels. An object identification device provided with an identification means for identifying an object by a convolutional neural network model trained with the image data is provided by creating image data obtained by adding the above parameters.

また、上記課題を解決するため、本発明は、サンプル体の重量を測定する第一のステップと、サンプル体の三次元画像からサンプル体の体積を算出する第二のステップと、第一のステップで測定された重量と第二のステップで算出された体積を用いてサンプル体の密度を算出する第三のステップと、第三のステップにおいて算出された密度に応じた第一の背景画像を作成する第四のステップと、第一の背景画像にサンプル体の三次元画像を貼付して三次元合成画像を作成する第五のステップと、第二の背景画像にサンプル体の二次元画像を貼付して得られた二次元合成画像における各画素に、上記各画素と同じ位置にある上記三次元合成画像の各画素の画素値に応じたパラメータを追加して得られる画像データを作成する第六のステップと、上記画像データを学習データとして畳み込みニューラルネットワークモデルに学習させる第七のステップと、識別対象とする物体につき上記第一から第六のステップを実行することにより得られた上記画像データを、上記第七のステップで得られた学習済みの前記畳み込みニューラルネットワークモデルへ入力して物体を識別させる第八のステップとを有する物体識別方法を提供する。 Further, in order to solve the above problems, the present invention has a first step of measuring the weight of the sample body, a second step of calculating the volume of the sample body from the three-dimensional image of the sample body, and a first step. Create a third step of calculating the density of the sample body using the weight measured in step 3 and the volume calculated in the second step, and the first background image according to the density calculated in the third step. The fourth step to create a three-dimensional composite image by pasting the three-dimensional image of the sample body on the first background image, and the second step of pasting the two-dimensional image of the sample body on the second background image. The sixth is to create image data obtained by adding parameters corresponding to the pixel values of each pixel of the three-dimensional composite image at the same position as each pixel to each pixel in the two-dimensional composite image obtained. , The seventh step of training the convolution neural network model with the image data as training data, and the image data obtained by executing the first to sixth steps for the object to be identified. Provided is an object identification method having an eighth step of inputting into the trained convolutional neural network model obtained in the seventh step to identify an object.

本発明によれば、より少ない学習データで高精度な物体の識別が可能な物体識別装置と物体識別方法を得ることができる。 According to the present invention, it is possible to obtain an object identification device and an object identification method capable of accurately identifying an object with less learning data.

本発明の実施の形態に係る物体識別装置1の全体構成を示す図である。It is a figure which shows the whole structure of the object identification apparatus 1 which concerns on embodiment of this invention. 本発明の実施の形態に係る物体識別方法を示すフローチャートである。It is a flowchart which shows the object identification method which concerns on embodiment of this invention. 図2に示された三次元合成画像の作成方法の具体例を示すフローチャートである。It is a flowchart which shows the specific example of the method of creating a three-dimensional composite image shown in FIG. 図3に示された作成方法を説明するための図である。It is a figure for demonstrating the production method shown in FIG. 図2に示された二次元合成画像の作成方法の具体例を示すフローチャートである。It is a flowchart which shows the specific example of the method of creating a two-dimensional composite image shown in FIG. 図5に示された作成方法を説明するための図である。It is a figure for demonstrating the production method shown in FIG. 図2に示された画像データの作成方法の具体例を示すフローチャートである。It is a flowchart which shows the specific example of the image data creation method shown in FIG. 図7に示された作成方法を説明するための図である。It is a figure for demonstrating the production method shown in FIG.

以下において、本発明の実施の形態を図面を参照しつつ詳しく説明する。なお、図中同一符号は同一又は相当部分を示す。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the figure, the same reference numerals indicate the same or corresponding parts.

図1は、本発明の実施の形態に係る物体識別装置1の全体構成を示す図である。図1に示されるように、本発明の実施の形態に係る物体識別装置1は、供給装置3から供給された廃製品2を搬送しながら廃製品2の重量を測定するベルトコンベヤ式重量計4と、廃製品2を搬送するベルトコンベヤ5と、三次元(3D)カメラ用フォトセンサ6と、3Dカメラ用線状レーザ7と、3Dカメラ8と、2Dカメラ用フォトセンサ9と、2Dカメラ10と、回収容器14〜16へ廃製品2を分別回収するための分別用アクチュエータ11,12と、これらの動作を統括制御すると共に廃製品2を後述する方法により識別する制御装置13とを備える。 FIG. 1 is a diagram showing an overall configuration of an object identification device 1 according to an embodiment of the present invention. As shown in FIG. 1, the object identification device 1 according to the embodiment of the present invention is a belt conveyor type scale 4 that measures the weight of the waste product 2 while transporting the waste product 2 supplied from the supply device 3. , A belt conveyor 5 that conveys the waste product 2, a photosensor 6 for a three-dimensional (3D) camera, a linear laser 7 for a 3D camera, a 3D camera 8, a photosensor 9 for a 2D camera, and a 2D camera 10. It is provided with the sorting actuators 11 and 12 for separating and collecting the waste products 2 into the collection containers 14 to 16, and the control device 13 for controlling the operations of these and identifying the waste products 2 by a method described later.

なお、単位時間当たりの識別量を増やす必要がある場合には、図1に示された物体識別装置1を例えば複数平行に配置して同時に動作させるのが好適である。 When it is necessary to increase the amount of identification per unit time, it is preferable to arrange, for example, a plurality of object identification devices 1 shown in FIG. 1 in parallel and operate them at the same time.

以下において、上記物体識別装置1の動作の概要について説明する。供給装置3からサンプル体として個別に供給された廃製品2は、ベルトコンベヤ式重量計4により重量が測定され、その結果を示すデータが制御装置13へ送信される。続いて、フォトセンサ6により廃製品2が検知されると、当該検知信号を受けて上方に吊り下げられた3Dカメラ8が動作して廃製品2の3D画像が撮像され、制御装置13へ送信される。 The outline of the operation of the object identification device 1 will be described below. The weight of the waste product 2 individually supplied from the supply device 3 as a sample body is measured by the belt conveyor type weight scale 4, and the data indicating the result is transmitted to the control device 13. Subsequently, when the scrap product 2 is detected by the photo sensor 6, the 3D camera 8 suspended upward operates in response to the detection signal to capture a 3D image of the scrap product 2 and transmit it to the control device 13. Will be done.

続いて、フォトセンサ9によって廃製品2を検知すると、その検知信号に応じて上方に吊り下げられた2Dカメラ10が動作し、廃製品2の2Dカラー画像が撮像され、制御装置13へ送信される。 Subsequently, when the scrap product 2 is detected by the photo sensor 9, the 2D camera 10 suspended upward operates in response to the detection signal, and the 2D color image of the scrap product 2 is captured and transmitted to the control device 13. To.

制御装置13は、上記のように取得された廃製品2の重量、3D画像、及び2D画像に基づいた演算処理を行って廃製品2の識別を行うが、本演算処理については後に詳しく説明する。 The control device 13 identifies the waste product 2 by performing arithmetic processing based on the weight of the waste product 2 acquired as described above, the 3D image, and the 2D image, but this arithmetic processing will be described in detail later. ..

識別された廃製品2は、識別結果に応じて分別用アクチュエータ11,12によりベルトコンベヤ5からの落下位置が制御され、それぞれ該当する回収容器14〜16に収納される。 The identified waste products 2 are stored in the corresponding collection containers 14 to 16 in which the drop position from the belt conveyor 5 is controlled by the sorting actuators 11 and 12 according to the identification result.

なお、図1においては、分別機構として、押し出し動作のオン/オフが制御可能なシリンダを用いているが、これに限られるものではなく、例えばエアガンや電磁石で動作するパドル、あるいはロボットアームなどであっても良い。 In FIG. 1, a cylinder that can control the on / off of the pushing operation is used as the sorting mechanism, but the present invention is not limited to this, and for example, a paddle operated by an air gun or an electromagnet, a robot arm, or the like is used. There may be.

上記において、廃製品2は、ベルトコンベヤ5の幅方向の位置や当該ベルトの進行方向と廃製品2の長辺がなす角が一定でないという点でランダムな状態で供給装置3からベルトコンベヤ5へ落下する。 In the above, the waste product 2 is transferred from the supply device 3 to the belt conveyor 5 in a random state in that the position in the width direction of the belt conveyor 5 and the angle formed by the traveling direction of the belt and the long side of the waste product 2 are not constant. Fall.

また、3Dカメラ8は、一定方向に移動する廃製品2の表面における線状レーザ光の反射光ラインの高さ方向における位置変化を電荷結合素子(CCD)あるいは相補型金属酸化膜半導体(CMOS)によって検出する、いわゆる光切断法により3D画像をデジタルデータとしてメモリ(図示していない)に記録する。 Further, the 3D camera 8 changes the position of the reflected light line of the linear laser light on the surface of the waste product 2 moving in a certain direction in the height direction by a charge coupling element (CCD) or a complementary metal oxide film semiconductor (CMOS). A 3D image is recorded as digital data in a memory (not shown) by a so-called optical cutting method detected by.

図2は、本発明の実施の形態に係る物体識別方法を示すフローチャートである。以下においては、図2に示された物体識別方法を、一例として図1に示された物体識別装置1を用いて実現する場合について説明する。 FIG. 2 is a flowchart showing an object identification method according to an embodiment of the present invention. In the following, a case where the object identification method shown in FIG. 2 is realized by using the object identification device 1 shown in FIG. 1 as an example will be described.

なお、本物体識別方法は、図1に示された物体識別装置1を用いて実現する場合に限られず、広く適用できることは言うまでもない。 Needless to say, this object identification method is not limited to the case where it is realized by using the object identification device 1 shown in FIG. 1, and can be widely applied.

最初にステップS1では、サンプル体の重量を測定する。具体的には例えば、上記のようにベルトコンベヤ式重量計4によりサンプル体の重量を測定し、得られたデータを制御装置13へ送信する。 First, in step S1, the weight of the sample body is measured. Specifically, for example, the weight of the sample body is measured by the belt conveyor type weight scale 4 as described above, and the obtained data is transmitted to the control device 13.

次に、ステップS2では、上記サンプル体の三次元画像からサンプル体の体積を算出する。具体的には例えば、制御装置13は上記のような方法により受信された3D画像に基づいて当該廃製品2の体積を算出する。 Next, in step S2, the volume of the sample body is calculated from the three-dimensional image of the sample body. Specifically, for example, the control device 13 calculates the volume of the waste product 2 based on the 3D image received by the method as described above.

次に、ステップS3では、ステップS1で測定されたサンプル体の重量とステップS2で算出された当該サンプル体の体積を用いて、例えば制御装置13がサンプル体としての廃製品2の密度を算出する。 Next, in step S3, for example, the control device 13 calculates the density of the waste product 2 as the sample body by using the weight of the sample body measured in step S1 and the volume of the sample body calculated in step S2. ..

次に、ステップS4では、例えば制御装置13が、ステップS3において算出された密度に応じた第一の背景画像を作成する。 Next, in step S4, for example, the control device 13 creates a first background image according to the density calculated in step S3.

次に、ステップS5では、例えば制御装置13が、上記第一の背景画像にサンプル体としての廃製品2の三次元画像を貼付して三次元合成画像を作成する。 Next, in step S5, for example, the control device 13 attaches a three-dimensional image of the scrap product 2 as a sample body to the first background image to create a three-dimensional composite image.

図3は、図2に示された三次元合成画像の作成方法の具体例を示すフローチャートである。また、図4は、図3に示された作成方法を説明するための図である。以下においては、図3及び図4を参照しつつ、上記三次元合成画像の作成方法について詳しく説明する。 FIG. 3 is a flowchart showing a specific example of the method of creating the three-dimensional composite image shown in FIG. Further, FIG. 4 is a diagram for explaining the production method shown in FIG. In the following, the method of creating the three-dimensional composite image will be described in detail with reference to FIGS. 3 and 4.

ここでは、図1に示されたベルトコンベヤ5上を搬送される個別の廃製品2を3Dカメラ8で撮像することにより、図4に示された3D画像G0が得られた場合につき説明する。なお、当該画像中における廃製品2の位置と向きは一定ではなく、様々な状態を取り得るものとする。 Here, the case where the 3D image G0 shown in FIG. 4 is obtained by photographing the individual waste products 2 conveyed on the belt conveyor 5 shown in FIG. 1 with the 3D camera 8 will be described. It should be noted that the position and orientation of the waste product 2 in the image is not constant, and various states can be taken.

3D画像G0を構成する各画素は被写体である廃製品2の高さのレベルを表しているので、制御装置13は、廃製品2の背景をなすベルトコンベヤ5の表面の画素値よりも数値が大きな画素を抽出して総和を計算し、実寸に変換することにより当該廃製品2の体積値を計算する。 Since each pixel constituting the 3D image G0 represents the height level of the waste product 2 which is the subject, the control device 13 has a numerical value larger than the pixel value on the surface of the belt conveyor 5 forming the background of the waste product 2. The volume value of the waste product 2 is calculated by extracting large pixels, calculating the total sum, and converting it to the actual size.

続いて、制御装置13は、ベルトコンベヤ式重量計4で測定された重量値を上記体積値で除算して密度値を計算し、この密度値を画素レベルの相対画素値に変換する。ここで、相対画素値は、例えば、上記密度値の最大値が上記画素レベルの最大値に対応するよう密度値の大きさに正比例した画素レベルとされる。 Subsequently, the control device 13 calculates the density value by dividing the weight value measured by the belt conveyor type weight scale 4 by the volume value, and converts this density value into a relative pixel value at the pixel level. Here, the relative pixel value is, for example, a pixel level that is directly proportional to the magnitude of the density value so that the maximum value of the density value corresponds to the maximum value of the pixel level.

そして、制御装置13は、上記相対画素値を背景とする図4に示された相対画素値埋込背景画像G3を作成し、上記メモリへ保存する。 Then, the control device 13 creates the relative pixel value embedded background image G3 shown in FIG. 4 with the relative pixel value as the background, and saves it in the memory.

また、制御装置13は、図3に示されたステップS50において、図4に示されるように3D画像G0のコピー画像G2を作成し、上記メモリへ保存しておく。 Further, in step S50 shown in FIG. 3, the control device 13 creates a copy image G2 of the 3D image G0 as shown in FIG. 4 and stores it in the memory.

また、制御装置13は、ステップS51において3D画像G0を図4に示された二値化画像G1に変換し、ステップS52において膨張や縮退などの画像処理によりノイズを除去した後、ステップS53において物体(ここでは廃製品)の輪郭を検出する。 Further, the control device 13 converts the 3D image G0 into the binarized image G1 shown in FIG. 4 in step S51, removes noise by image processing such as expansion and contraction in step S52, and then an object in step S53. Detects the contour of (here, scrap product).

続けて、制御装置13は、ステップS54において検出した物体の輪郭を囲む矩形の中で面積が最小となるものを抽出し、四隅の頂点座標と回転角を検出する。このとき回転角は、図4の二値化画像G1に示すように、矩形の長辺がベルトコンベヤ5の移動方向である画像の縦方向と平行となるように回転するときの角度とする。具体的には例えば、頂点3と頂点4を結ぶ辺34が短辺のときは回転角を図中の角θ、仮に辺34が長辺のときは回転角を角(θ+90°)とする。 Subsequently, the control device 13 extracts the rectangle surrounding the outline of the object detected in step S54 and having the smallest area, and detects the coordinates of the vertices of the four corners and the angle of rotation. At this time, the rotation angle is an angle when the rectangle is rotated so that the long side of the rectangle is parallel to the vertical direction of the image, which is the moving direction of the belt conveyor 5, as shown in the binarized image G1 of FIG. Specifically, for example, when the side 34 connecting the apex 3 and the apex 4 is a short side, the rotation angle is the angle θ in the figure, and when the side 34 is the long side, the rotation angle is the angle (θ + 90 °).

次に、制御装置13は、ステップS55において先に検出した頂点座標を利用して、上記コピー画像G2から面積最小矩形の範囲を切り抜く。なお、図3においてステップS54とステップS55の間に記された破線の矢印は、ステップS55においてステップS54で検出された頂点座標を利用することを示す。 Next, the control device 13 cuts out the range of the minimum area rectangle from the copy image G2 by using the vertex coordinates detected earlier in step S55. The broken line arrow drawn between step S54 and step S55 in FIG. 3 indicates that the vertex coordinates detected in step S54 in step S55 are used.

続けて、制御装置13は、ステップS56において上記相対画素値埋込背景画像G3を上記メモリから読み出し、ステップS57において、上記の切り抜いた画像を先の回転角だけ回転させた画像を上記相対画素値埋込背景画像G3の所定の位置に貼り付け、背景が変換され定方向及び定位置に上記物体の画像が配置された3D画像(以下、「背景変換・定方向・定位置・3D画像」という。)G4を作成する。なお、図3においてステップS54とステップS57の間に記された破線の矢印は、ステップS57においてステップS54で検出された回転角を利用することを示す。 Subsequently, the control device 13 reads the relative pixel value embedded background image G3 from the memory in step S56, and in step S57, rotates the cropped image by the previous rotation angle to obtain the relative pixel value. Embedded background image A 3D image (hereinafter referred to as "background conversion / fixed direction / fixed position / 3D image"" in which an image of the object is arranged in a fixed direction and a fixed position by pasting it at a predetermined position on the G3. .) Create G4. The broken line arrow drawn between step S54 and step S57 in FIG. 3 indicates that the rotation angle detected in step S54 in step S57 is used.

ここで、上記「所定の位置」とは、例えば図4に示されるように、相対画素値埋込背景画像G3の中心線と上記回転後の切抜き画像の中心線が一致し、かつ、回転後の切抜き画像の上辺が相対画素値埋込背景画像G3の上辺から一定距離dだけ下がった位置とされる。 Here, the "predetermined position" means, for example, as shown in FIG. 4, that the center line of the relative pixel value embedded background image G3 and the center line of the cut-out image after rotation coincide with each other and after rotation. The upper side of the cropped image is set to be a position lowered by a certain distance d from the upper side of the relative pixel value embedded background image G3.

次に、図2に示されたステップS6では、第二の背景画像に上記サンプル体の二次元画像を貼付して得られた二次元合成画像における各画素に、上記各画素と同じ位置にある上記三次元合成画像の各画素の画素値に応じたパラメータを追加して得られる画像データを作成する。 Next, in step S6 shown in FIG. 2, each pixel in the two-dimensional composite image obtained by pasting the two-dimensional image of the sample body on the second background image is at the same position as each pixel. Image data obtained by adding parameters corresponding to the pixel values of each pixel of the three-dimensional composite image is created.

ここで、図5は、図2に示された二次元合成画像の作成方法の具体例を示すフローチャートである。また、図6は、図5に示された作成方法を説明するための図である。以下においては、図5及び図6を参照しつつ、上記二次元合成画像の作成方法について詳しく説明する。 Here, FIG. 5 is a flowchart showing a specific example of the method for creating the two-dimensional composite image shown in FIG. Further, FIG. 6 is a diagram for explaining the production method shown in FIG. In the following, the method of creating the two-dimensional composite image will be described in detail with reference to FIGS. 5 and 6.

最初に、上記3D画像G0に撮像された廃製品を同一の画像サイズ及び縮尺で撮影した2Dカラー画像G10と共に、廃製品が存在しないベルトコンベヤ5の表面を撮影した背景画像G13を用意する。 First, a 2D color image G10 obtained by photographing the waste product captured in the 3D image G0 at the same image size and scale, and a background image G13 obtained by photographing the surface of the belt conveyor 5 in which the waste product does not exist are prepared.

制御装置13は、図3に示された方法と同様に、ステップS60において図6に示されたコピー画像G12を作成し、ステップS61で2Dカラー画像G10をグレー画像変換した上で二値化画像G11を作成し、ステップS62からステップS68を実行することにより背景画像G13において定方向及び定位置に当該物体の画像が配置された2Dカラー画像(以下、「定方向・定位置・2Dカラー画像」という。)G14を作成する。なお、図5においてステップS65とステップS66の間に記された破線の矢印は、ステップS66においてステップS65で検出された頂点座標を利用することを示し、ステップS65とステップS68の間に記された破線の矢印は、ステップS68においてステップS65で検出された回転角を利用することを示す。 The control device 13 creates the copy image G12 shown in FIG. 6 in step S60, converts the 2D color image G10 into a gray image in step S61, and then binarizes the image, in the same manner as the method shown in FIG. A 2D color image in which an image of the object is arranged in a fixed direction and a fixed position in the background image G13 by creating G11 and executing steps S62 to S68 (hereinafter, "fixed direction / fixed position / 2D color image"". ) Create G14. Note that the broken line arrow marked between steps S65 and S66 in FIG. 5 indicates that the vertex coordinates detected in step S65 in step S66 are used, and are marked between steps S65 and S68. The dashed arrow indicates that the rotation angle detected in step S65 is used in step S68.

図7は、図2に示された画像データの作成方法の具体例を示すフローチャートである。また、図8は、図7に示された作成方法を説明するための図である。以下においては、図7及び図8を参照しつつ、上記画像データの作成方法について詳しく説明する。 FIG. 7 is a flowchart showing a specific example of the method of creating the image data shown in FIG. Further, FIG. 8 is a diagram for explaining the production method shown in FIG. 7. In the following, the method of creating the above image data will be described in detail with reference to FIGS. 7 and 8.

図7に示されるように、制御装置13は、上記のようにベルトコンベヤ式重量計4で測定された重量値と、3Dカメラ8で撮像された3D画像を用いて、図3に示された方法により背景変換・定方向・定位置・3D画像を作成する。一方、制御装置13は、2Dカメラ10で撮像された2Dカラー画像を用いて、図5に示された方法により定方向・定位置・2Dカラー画像を作成する。 As shown in FIG. 7, the control device 13 is shown in FIG. 3 using the weight value measured by the belt conveyor type weight scale 4 as described above and the 3D image captured by the 3D camera 8. Background conversion, fixed direction, fixed position, and 3D image are created by the method. On the other hand, the control device 13 creates a fixed direction / fixed position / 2D color image by the method shown in FIG. 5 using the 2D color image captured by the 2D camera 10.

ここで、背景変換・定方向・定位置・3D画像と定方向・定位置・2Dカラー画像は、縦横の画素数が一致する同じ画像サイズを有し、同じ廃製品2の同一面が背景画像の同じ位置に同じ向きで貼付されたものとされている。 Here, the background conversion / fixed direction / fixed position / 3D image and the fixed direction / fixed position / 2D color image have the same image size with the same number of vertical and horizontal pixels, and the same surface of the same scrap product 2 is the background image. It is said that it was attached to the same position and in the same direction.

また、背景変換・定方向・定位置・3D画像はグレースケール画像であり、1画素が一つの成分で表される。一方、定方向・定位置・2Dカラー画像は赤、緑、青の三つの色成分を利用したRGBカラー画像(又はシアン、マゼンタ、黄、黒の四つの色成分を利用したCMYKカラー画像)であり、1画素が三つ(ないし四つ)の成分で表される。 Further, the background conversion, the fixed direction, the fixed position, and the 3D image are grayscale images, and one pixel is represented by one component. On the other hand, the fixed-direction, fixed-position, and 2D color images are RGB color images that use the three color components of red, green, and blue (or CMYK color images that use the four color components of cyan, magenta, yellow, and black). Yes, one pixel is represented by three (or four) components.

ここで、制御装置13は、ステップS69において、上記の図8に示された定方向・定位置・2Dカラー画像G14が、1画素当たり四つ(ないし五つ)の成分を有する4(ないし5)チャンネル配列の画像となるよう、背景変換・定方向・定位置・3D画像G4の各画素値を定方向・定位置・2Dカラー画像G14において同位置にある画素の4(ないし5)チャンネル目にパラメータを追加する処理を行うことにより、4(ないし5)チャンネル画像(以下、「背景変換・定方向・定位置・4ch画像」という。)G15を作成する。 Here, in step S69, the control device 13 has 4 (or 5) components in which the fixed direction / fixed position / 2D color image G14 shown in FIG. 8 has four (or five) components per pixel. ) The 4th (or 5th) channel of the pixels at the same position in the fixed direction, fixed position, and 2D color image G14 by setting each pixel value of the background conversion, fixed direction, fixed position, and 3D image G4 so that the image has a channel arrangement. A 4 (or 5) channel image (hereinafter referred to as "background conversion / fixed direction / fixed position / 4ch image") G15 is created by performing a process of adding a parameter to.

なお、上記のような色情報以外の4(ないし5)成分目のパラメータは、各画素の透明度(若しくは不透明度)を示す値とされ、具体的には、廃製品2が写っている画素においては廃製品2の立体形状(高さ)に応じ、背景が写っている画素においては廃製品2の密度に応じた値とされる。 The parameter of the 4th (or 5th) component other than the color information as described above is a value indicating the transparency (or opacity) of each pixel. Specifically, in the pixel in which the disused product 2 is shown. Is a value according to the three-dimensional shape (height) of the waste product 2 and according to the density of the waste product 2 in the pixels showing the background.

従って、背景変換・定方向・定位置・4ch画像G15によれば、個々の廃製品2が有する特徴について、一つの画像データとして通常の2Dカラー画像よりも多くの情報を持たせることができる。 Therefore, according to the background conversion / fixed direction / fixed position / 4ch image G15, it is possible to provide more information as one image data than a normal 2D color image about the features of each scrap product 2.

次に、図2に示されたステップS7において、上記画像データを学習データとして畳み込みニューラルネットワークモデルに学習させる。具体的には例えば、識別対象とする廃製品2の集合から一定数のサンプル体を抽出し、品目、型式、製造メーカ等の廃製品2の特性を示す製品情報を収集し、当該廃製品2につき作成された上記の背景変換・定方向・定位置・4ch画像(以下、「4ch画像」と略す。)と関連づけたデータベースを作成する。このとき、識別目的に応じて廃製品2とその4ch画像を上記特性に応じて複数のグループに分類した上で、一つの4ch画像毎に当該グループ名やグループ番号などからなる深層畳み込みニューラルネットワークモデルによる学習用教師ラベルを定義した画像データセットを作成し、深層畳み込みニューラルネットワークモデルに学習させる。 Next, in step S7 shown in FIG. 2, the convolutional neural network model is trained by using the image data as training data. Specifically, for example, a certain number of samples are extracted from a set of waste products 2 to be identified, product information indicating the characteristics of the waste products 2 such as items, models, and manufacturers is collected, and the waste products 2 are collected. Create a database associated with the above-mentioned background conversion, fixed direction, fixed position, and 4ch image (hereinafter, abbreviated as "4ch image") created for the above. At this time, after classifying the scrap product 2 and its 4ch image into a plurality of groups according to the purpose of identification, a deep convolutional neural network model consisting of the group name, group number, etc. for each 4ch image. Create an image dataset that defines a teacher label for training by, and train it in a deep convolutional neural network model.

なお、この深層畳み込みニューラルネットワークモデルは、独自に作成しても良いが、一般に公開されている既存のモデルを流用することができる。 The deep convolutional neural network model may be created independently, but an existing model that is open to the public can be used.

次に、図2に示されたステップS8において、識別対象とする物体につきステップS1〜S6を実行することにより得られた上記画像データを、ステップS7で得られた学習済みの畳み込みニューラルネットワークモデルへ入力して上記物体を識別させる。上記例においては、上記の特性、すなわち所属する上記グループ、が未知の廃製品2につき作成された4ch画像を、最適化された内部パラメータを有する上記の学習済み深層畳み込みニューラルネットワークモデルへ入力することにより、当該廃製品2がいずれのグループに属するものかが識別され、その識別結果に応じて回収容器14〜16に分別回収されることになる。 Next, in step S8 shown in FIG. 2, the image data obtained by executing steps S1 to S6 for the object to be identified is transferred to the trained convolutional neural network model obtained in step S7. Input to identify the object. In the above example, the above-mentioned characteristic, that is, the above-mentioned group to which the above-mentioned group belongs, inputs the 4ch image created for the unknown waste product 2 into the above-mentioned trained deep convolutional neural network model having the optimized internal parameters. As a result, which group the waste product 2 belongs to is identified, and the waste products 2 are separately collected in the collection containers 14 to 16 according to the identification result.

なお、上記識別は、以下の方法により実現することもできる。上記特性が既知であるサンプル体について図2に示されたステップS1〜S6を通じて作成された上記画像データを上記畳み込みニューラルネットワークモデルに入力して得られる中間層の出力ベクトル(第一の出力ベクトル)を、上記特性と対応させて記録したリストを予め作成する。 The above identification can also be realized by the following method. The output vector of the intermediate layer (first output vector) obtained by inputting the image data created through steps S1 to S6 shown in FIG. 2 into the convolutional neural network model for the sample body having the known characteristics. Is recorded in advance in association with the above characteristics.

そして、図2に示されたステップS8では、識別対象とする物体について作成された上記画像データを学習済みの当該畳み込みニューラルネットワークモデルに入力して得られる上記中間層の出力ベクトル(第二の出力ベクトル)に対して最短距離となる上記第一の出力ベクトルを上記リストに記録された第一の出力ベクトルの中から特定することにより、上記物体の特性を識別する。 Then, in step S8 shown in FIG. 2, the output vector (second output) of the intermediate layer obtained by inputting the image data created for the object to be identified into the trained convolutional neural network model. The characteristics of the object are identified by specifying the first output vector, which is the shortest distance to the vector), from the first output vectors recorded in the list.

以上より、本発明の実施の形態に係る物体識別装置1や物体識別方法によれば、4ch画像を利用することによって、従来よりも少ない学習データで高精度な物体の識別が可能な物体識別装置や物体識別方法を得ることができる。 From the above, according to the object identification device 1 and the object identification method according to the embodiment of the present invention, the object identification device capable of highly accurate object identification with less learning data than the conventional one by using the 4ch image. And an object identification method can be obtained.

1 物体識別装置
4 ベルトコンベヤ式重量計
8 3Dカメラ
10 2Dカメラ
13 制御装置

1 Object identification device 4 Belt conveyor type weighing scale 8 3D camera 10 2D camera 13 Control device

Claims (10)

サンプル体の密度に応じた第一の背景画像を作成すると共に、前記第一の背景画像に前記サンプル体の三次元画像を貼付して三次元合成画像を作成し、
第二の背景画像に前記サンプル体の二次元画像を貼付して得られた二次元合成画像における各画素に、前記各画素と同じ位置にある前記三次元合成画像の各画素の画素値に応じたパラメータを追加して得られる画像データを作成し、
前記画像データを学習させた畳み込みニューラルネットワークモデルにより物体を識別する識別手段を備えた物体識別装置。
A first background image corresponding to the density of the sample body is created, and a three-dimensional image of the sample body is attached to the first background image to create a three-dimensional composite image.
Each pixel in the two-dimensional composite image obtained by pasting the two-dimensional image of the sample body on the second background image corresponds to the pixel value of each pixel of the three-dimensional composite image at the same position as each pixel. Create the image data obtained by adding the above parameters
An object identification device provided with an identification means for identifying an object by a convolutional neural network model trained with the image data.
前記サンプル体の重量を測定する重量測定手段と、
前記三次元画像を撮像する3D撮像手段をさらに備え、
前記識別手段は、さらに、前記3D撮像手段により撮像された前記三次元画像から前記サンプル体の体積を算出し、算出された前記体積と前記重量測定手段により測定された前記重量から前記サンプル体の前記密度を算出する、請求項1に記載の物体識別装置。
A weight measuring means for measuring the weight of the sample body and
Further provided with a 3D imaging means for capturing the three-dimensional image,
The identification means further calculates the volume of the sample body from the three-dimensional image captured by the 3D imaging means, and from the calculated volume and the weight measured by the weight measuring means, the sample body The object identification device according to claim 1, which calculates the density.
前記二次元画像を撮像する2D撮像手段をさらに備えた請求項2に記載の物体識別装置。 The object identification device according to claim 2, further comprising a 2D imaging means for capturing the two-dimensional image. 前記識別手段は、前記三次元画像を前記第一の背景画像に対して予め定めた方向及び位置に貼付すると共に、前記二次元画像を前記第二の背景画像に対して予め定めた方向及び位置に貼付する、請求項1に記載の物体識別装置。 The identification means attaches the three-dimensional image to the first background image in a predetermined direction and position, and attaches the two-dimensional image to the second background image in a predetermined direction and position. The object identification device according to claim 1, which is attached to the above. 前記二次元画像は、RGBカラー画像若しくはCMYKカラー画像である、請求項1に記載の物体識別装置。 The object identification device according to claim 1, wherein the two-dimensional image is an RGB color image or a CMYK color image. サンプル体の重量を測定する第一のステップと、
前記サンプル体の三次元画像から前記サンプル体の体積を算出する第二のステップと、
前記第一のステップで測定された前記重量と前記第二のステップで算出された前記体積を用いて前記サンプル体の密度を算出する第三のステップと、
前記第三のステップにおいて算出された前記密度に応じた第一の背景画像を作成する第四のステップと、
前記第一の背景画像に前記サンプル体の三次元画像を貼付して三次元合成画像を作成する第五のステップと、
第二の背景画像に前記サンプル体の二次元画像を貼付して得られた二次元合成画像における各画素に、前記各画素と同じ位置にある前記三次元合成画像の各画素の画素値に応じたパラメータを追加して得られる画像データを作成する第六のステップと、
前記画像データを学習データとして畳み込みニューラルネットワークモデルに学習させる第七のステップと、
識別対象とする物体につき前記第一から第六のステップを実行することにより得られた前記画像データを、前記第七のステップで得られた学習済みの前記畳み込みニューラルネットワークモデルへ入力して前記物体を識別させる第八のステップとを有する物体識別方法。
The first step in measuring the weight of the sample body,
The second step of calculating the volume of the sample body from the three-dimensional image of the sample body, and
A third step of calculating the density of the sample body using the weight measured in the first step and the volume calculated in the second step,
A fourth step of creating a first background image according to the density calculated in the third step, and
A fifth step of attaching a three-dimensional image of the sample body to the first background image to create a three-dimensional composite image, and
Each pixel in the two-dimensional composite image obtained by pasting the two-dimensional image of the sample body on the second background image corresponds to the pixel value of each pixel of the three-dimensional composite image at the same position as each pixel. The sixth step of creating the image data obtained by adding the above parameters,
The seventh step of training the convolutional neural network model using the image data as training data,
The image data obtained by executing the first to sixth steps for the object to be identified is input to the trained convolutional neural network model obtained in the seventh step to input the object. An object identification method having an eighth step of identifying the object.
前記三次元画像は前記第一の背景画像に対して予め定めた方向及び位置に貼付し、
前記二次元画像は前記第二の背景画像に対して予め定めた方向及び位置に貼付する、請求項6に記載の物体識別方法。
The three-dimensional image is attached to the first background image in a predetermined direction and position.
The object identification method according to claim 6, wherein the two-dimensional image is attached to the second background image in a predetermined direction and position.
前記二次元画像は、RGBカラー画像若しくはCMYKカラー画像である、請求項6に記載の物体識別方法。 The object identification method according to claim 6, wherein the two-dimensional image is an RGB color image or a CMYK color image. 前記サンプル体を特性に応じた複数のグループに予め峻別するステップと、
前記第一のステップから前記第六のステップを通じて前記グループ毎に作成された前記画像データを要素とするデータベースを作成するステップをさらに有し、
前記第七のステップでは、前記データベースを前記畳み込みニューラルネットワークモデルに学習させ、
前記第八のステップでは、前記物体が属する前記グループを識別させる、請求項6に記載の物体識別方法。
A step of preliminarily classifying the sample body into a plurality of groups according to the characteristics, and
Further having a step of creating a database having the image data as an element created for each group through the first step to the sixth step.
In the seventh step, the database is trained by the convolutional neural network model.
The object identification method according to claim 6, wherein in the eighth step, the group to which the object belongs is identified.
特性が既知である前記サンプル体について前記第一のステップから前記第六のステップを通じて作成された前記画像データを前記畳み込みニューラルネットワークモデルに入力して得られる中間層の第一の出力ベクトルを、前記特性と対応させて記録したリストを予め作成するステップをさらに有し、
前記第八のステップでは、前記物体について前記第一のステップから前記第六のステップを通じて作成された前記画像データを前記畳み込みニューラルネットワークモデルに入力して得られる前記中間層の第二の出力ベクトルに対して最短距離となる前記第一の出力ベクトルを前記リストに記録された前記第一の出力ベクトルの中から特定することにより、前記物体の前記特性を識別する、請求項6に記載の物体識別方法。

The first output vector of the intermediate layer obtained by inputting the image data created from the first step to the sixth step of the sample body having known characteristics into the convolutional neural network model is obtained. It also has the step of creating a pre-recorded list that corresponds to the characteristics.
In the eighth step, the image data created from the first step to the sixth step for the object is input to the convolutional neural network model and used as the second output vector of the intermediate layer. The object identification according to claim 6, wherein the characteristic of the object is identified by specifying the first output vector having the shortest distance from the first output vector recorded in the list. Method.

JP2019116299A 2019-06-24 2019-06-24 OBJECT IDENTIFICATION DEVICE AND OBJECT IDENTIFICATION METHOD Active JP7258345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019116299A JP7258345B2 (en) 2019-06-24 2019-06-24 OBJECT IDENTIFICATION DEVICE AND OBJECT IDENTIFICATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019116299A JP7258345B2 (en) 2019-06-24 2019-06-24 OBJECT IDENTIFICATION DEVICE AND OBJECT IDENTIFICATION METHOD

Publications (2)

Publication Number Publication Date
JP2021002259A true JP2021002259A (en) 2021-01-07
JP7258345B2 JP7258345B2 (en) 2023-04-17

Family

ID=73994011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116299A Active JP7258345B2 (en) 2019-06-24 2019-06-24 OBJECT IDENTIFICATION DEVICE AND OBJECT IDENTIFICATION METHOD

Country Status (1)

Country Link
JP (1) JP7258345B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017109161A (en) * 2015-12-15 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor
JP2018122989A (en) * 2017-02-03 2018-08-09 株式会社大林組 Conveyance control system, conveyance control method and conveyance control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017109161A (en) * 2015-12-15 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor
JP2018122989A (en) * 2017-02-03 2018-08-09 株式会社大林組 Conveyance control system, conveyance control method and conveyance control program

Also Published As

Publication number Publication date
JP7258345B2 (en) 2023-04-17

Similar Documents

Publication Publication Date Title
US20200133182A1 (en) Defect classification in an image or printed output
CN111223088A (en) Casting surface defect identification method based on deep convolutional neural network
JP6869490B2 (en) Defect inspection equipment, defect inspection methods, and their programs
CN107944504B (en) Board recognition and machine learning method and device for board recognition and electronic equipment
CN110200598A (en) A kind of large-scale plant that raises sign exception birds detection system and detection method
CN108280856A (en) The unknown object that network model is inputted based on mixed information captures position and orientation estimation method
CN107967685A (en) A kind of bridge pier and tower crack harmless quantitative detection method based on unmanned aerial vehicle remote sensing
CN108229561A (en) Particle product defect detection method based on deep learning
JP5549345B2 (en) Sky detection apparatus and method used in image acquisition apparatus
CN109829476B (en) End-to-end three-dimensional object detection method based on YOLO
CN110929795B (en) Method for quickly identifying and positioning welding spot of high-speed wire welding machine
CN106355579A (en) Defect detecting method of cigarette carton surface wrinkles
CN109284779A (en) Object detecting method based on the full convolutional network of depth
CN110509273A (en) The robot mechanical arm of view-based access control model deep learning feature detects and grasping means
CN112330593A (en) Building surface crack detection method based on deep learning network
CN113903009A (en) Railway foreign matter detection method and system based on improved YOLOv3 network
CN112164048B (en) Magnetic shoe surface defect automatic detection method and device based on deep learning
TW202013315A (en) Method for preparing an image with label, method for testing program, apparatus for preparing an image with label, and apparatus for testing
CN110176042A (en) Training method, device and the storage medium of camera self moving parameter estimation model
KR102391501B1 (en) Classification System and method for atypical recycled goods using Deep learning
JP7258345B2 (en) OBJECT IDENTIFICATION DEVICE AND OBJECT IDENTIFICATION METHOD
CN114549391A (en) Circuit board surface defect detection method based on polarization prior
JP7036485B1 (en) Defect detection method, defect detection system, and defect detection program
CN112989881A (en) Unsupervised migratable 3D visual object grabbing method
CN113469984B (en) Method for detecting appearance of display panel based on YOLO structure

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230329

R150 Certificate of patent or registration of utility model

Ref document number: 7258345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150