JP2021139775A - Mass estimation device and food packaging machine - Google Patents

Mass estimation device and food packaging machine Download PDF

Info

Publication number
JP2021139775A
JP2021139775A JP2020038273A JP2020038273A JP2021139775A JP 2021139775 A JP2021139775 A JP 2021139775A JP 2020038273 A JP2020038273 A JP 2020038273A JP 2020038273 A JP2020038273 A JP 2020038273A JP 2021139775 A JP2021139775 A JP 2021139775A
Authority
JP
Japan
Prior art keywords
unit
mass
image
estimated
estimation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020038273A
Other languages
Japanese (ja)
Inventor
憲司 渡邊
Kenji Watanabe
憲司 渡邊
真一 吉田
Shinichi Yoshida
真一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MITSUWA SANGYO KK
Mitsuwa Co Ltd
Kochi Prefectural PUC
Original Assignee
MITSUWA SANGYO KK
Mitsuwa Co Ltd
Kochi Prefectural PUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MITSUWA SANGYO KK, Mitsuwa Co Ltd, Kochi Prefectural PUC filed Critical MITSUWA SANGYO KK
Priority to JP2020038273A priority Critical patent/JP2021139775A/en
Publication of JP2021139775A publication Critical patent/JP2021139775A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For And Details Of Packaging Control (AREA)
  • Image Analysis (AREA)

Abstract

To provide a mass estimation device and the like which can estimate a mass accurately from an image.SOLUTION: A mass estimation device comprises: a position specification marker 42 which is provided along a conveyance direction of a conveyance unit 10; an imaging unit 20 which captures an image of an estimation object WK existing in a partial region of a conveyance surface 11 so as to include the position specification marker 42; a position specification unit 32 which specifies a prescribed region on the basis of the position specification marker 42 from the image including the position specification marker 42 imaged by the imaging unit 20; an image processing unit 31 which extracts the estimation object WK included in the prescribed region specified by the position specification unit 32 from the image including the position specification marker 42 imaged by the imaging unit 20; a mass estimation unit 33 which estimates a mass of the estimation object WK at a position specified by the position specification unit 32 with respect to the extraction image of the estimation object WK extracted by the image processing unit 31; and an output unit 34 which outputs the mass of the conveyed estimation object WK by accumulating the mass of the specific region for each region estimated by the mass estimation unit 33.SELECTED DRAWING: Figure 1

Description

本発明は、食品包装機などに用いられる、画像を用いた質量推定装置、及びこれを用いた食品包装機に関する。 The present invention relates to a mass estimation device using an image used in a food packaging machine or the like, and a food packaging machine using the mass estimation device.

食品や薬品、部品等の商品を販売するに際して、質量を測定することが行われている。例えば一定量毎に包装された食品は、スーパーやコンビニエンスストア、ファミリーレストランや牛丼などのチェーン展開されている飲食店、生協などの宅配食品サービスなど、多くの需要がある。こうした包装は、食品加工工場で行われるが、大量の食品を短時間に包装するために食品包装機が用いられることが多い。食品の包装では、決められた容量すなわち質量に正確に包装することが求められる。そこで食品包装機には質量測定の秤が設けられれており、決められた質量で包装するように、予め計量した上で包装を行うことが行われている。例えばコンベアベルトで商品を搬送して包装する包装機においては、ロードセルなどの電子秤を用いて、質量が設定値になった際に、コンベアベルトを停止または減速させて袋詰めを行う。 When selling products such as foods, medicines, and parts, the mass is measured. For example, foods packaged in fixed quantities are in great demand, such as supermarkets, convenience stores, restaurants with chain stores such as family restaurants and beef bowls, and home delivery food services such as co-ops. Such packaging is performed in a food processing factory, but a food packaging machine is often used to wrap a large amount of food in a short time. Food packaging requires accurate packaging to a defined volume, or mass. Therefore, the food packaging machine is provided with a scale for measuring mass, and packaging is performed after weighing in advance so as to package with a predetermined mass. For example, in a packaging machine that transports and wraps products by a conveyor belt, an electronic scale such as a load cell is used to stop or decelerate the conveyor belt to perform bagging when the mass reaches a set value.

しかしながら、包装対象の商品によっては、計量がスムーズに行えないことがある。例えばカット野菜のような水分を多く含むものは、ロードセルに載せた際、商品の一部がロードセル上に付着したままとなる。この場合は、正確な質量測定や衛生面等の観点から、ロードセルを計量の度毎に清掃する必要があり、極めて手間がかかるという問題があった。 However, depending on the product to be packaged, weighing may not be performed smoothly. For example, when a product containing a large amount of water, such as cut vegetables, is placed on the load cell, a part of the product remains attached to the load cell. In this case, from the viewpoint of accurate mass measurement, hygiene, etc., it is necessary to clean the load cell every time the load cell is weighed, which causes a problem that it takes a lot of time and effort.

また、計量や清掃の度にコンベアベルトを一時停止させたり減速させたりすると、袋詰めが妨げられ、タクトタイムも低下する。特に生産現場においては、生産性向上の観点から、計量の精度と共に処理速度も求められる。 In addition, if the conveyor belt is temporarily stopped or decelerated each time weighing or cleaning is performed, bagging is hindered and the tact time is reduced. Especially at the production site, from the viewpoint of improving productivity, not only the accuracy of weighing but also the processing speed is required.

特開2019−020343号公報JP-A-2019-020343

本発明は、このような背景に鑑みてなされたものであり、その目的の一は、画像から精度よく質量を推定可能な質量推定装置及び食品包装機を提供することにある。 The present invention has been made in view of such a background, and one of the objects thereof is to provide a mass estimation device and a food packaging machine capable of accurately estimating mass from an image.

課題を解決するための手段及び発明の効果Means for Solving Problems and Effects of Invention

本発明の第1の側面に係る質量推定装置によれば、搬送面にばら撒かれた多数の推定対象物の質量を部分的に推定するための質量推定装置であって、前記搬送面にばら撒かれた推定対象物を搬送する搬送部と、前記搬送部の搬送方向に沿って設けられた位置特定マーカと、前記搬送部の上方で固定され、該搬送部で搬送された推定対象物の内、前記搬送面の一部の領域に存在する推定対象物の画像を、前記位置特定マーカを含めて撮像する撮像部と、前記撮像部で撮像した前記位置特定マーカを含む画像から、該位置特定マーカに基づいて所定の領域を特定する位置特定部と、前記撮像部で撮像した前記位置特定マーカを含む画像から、前記位置特定部で特定された所定の領域内に含まれる推定対象物を抽出する画像処理部と、前記画像処理部で抽出された推定対象物の抽出画像に対し、前記位置特定部で特定された位置における推定対象物の質量を推定する質量推定部と、前記質量推定部で推定された、特定領域の質量を領域毎に累積して、搬送された推定対象物の質量を出力する出力部とを備えることができる。上記構成により、搬送面にばら撒かれた推定対象物の質量の推定が可能となる。また位置特定マーカでもって、搬送面のどの領域の質量を測定したのかを特定できるので、部分的に測定した質量を累積して、必要な分量の推定対象物の切り出しが容易となる。 According to the mass estimation device according to the first aspect of the present invention, it is a mass estimation device for partially estimating the mass of a large number of estimation objects scattered on the transport surface, and is distributed on the transport surface. A transport unit that transports the sprinkled estimated object, a position identification marker provided along the transport direction of the transport unit, and an estimated object that is fixed above the transport unit and transported by the transport unit. Among them, the position is obtained from an image pickup unit that captures an image of an estimated object existing in a part of the transport surface including the position identification marker and an image including the position identification marker captured by the imaging unit. From the position specifying unit that specifies a predetermined region based on the specific marker and the image including the position specifying marker imaged by the imaging unit, an estimation object included in the predetermined region specified by the position specifying unit is selected. An image processing unit to be extracted, a mass estimation unit that estimates the mass of the estimated object at the position specified by the position specifying unit with respect to the extracted image of the estimated object extracted by the image processing unit, and the mass estimation unit. An output unit that accumulates the mass of a specific region estimated by the unit and outputs the mass of the transported estimated object can be provided. With the above configuration, it is possible to estimate the mass of the estimated objects scattered on the transport surface. Further, since it is possible to specify in which region of the transport surface the mass is measured by the position specifying marker, it becomes easy to accumulate the partially measured mass and cut out the required amount of the estimated object.

また、第2の側面に係る質量推定装置によれば、上記構成に加えて、前記搬送部がコンベアベルトであり、前記位置特定マーカが、前記コンベアベルトの少なくとも一方の端縁に沿って設けられたマーカ表示面に表示させることができる。上記構成により、コンベアベルトで対象物を搬送しながら、固定位置に設けられた撮像部でもって推定対象物の画像を撮像して質量を順次推定し、搬送された推定対象物の質量を累積して得ることが可能となる。 Further, according to the mass estimation device according to the second side surface, in addition to the above configuration, the transport portion is a conveyor belt, and the position identification marker is provided along at least one end edge of the conveyor belt. It can be displayed on the marker display surface. With the above configuration, while the object is conveyed by the conveyor belt, the image of the estimated object is imaged by the imaging unit provided at a fixed position to sequentially estimate the mass, and the mass of the conveyed estimated object is accumulated. It will be possible to obtain it.

さらに、第3の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、さらに、前記搬送部の搬送面と、前記マーカ表示面との間に設けられた壁部を備えることができる。上記構成により、搬送面に積まれた推定対象物が、マーカ表示面にまではみ出して位置特定マーカを覆い隠す事態を回避できる。 Further, according to the mass estimation device according to the third side surface, in addition to any of the above configurations, a wall portion provided between the transport surface of the transport portion and the marker display surface is further provided. Can be done. With the above configuration, it is possible to avoid a situation in which the estimated object loaded on the transport surface protrudes to the marker display surface and covers the position specifying marker.

さらにまた、第4の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、さらに、前記コンベアベルトに隣接して配置された、該コンベアベルトと併走する表示ベルトを備え、前記表示ベルト上に前記位置特定マーカを表示することができる。上記構成により、搬送部のコンベアベルトとは別個に併走する表示ベルトを設けることで、コンベアベルトと表示ベルトの間に壁部を設けることが容易となる。 Furthermore, according to the mass estimation device according to the fourth aspect, in addition to any of the above configurations, a display belt arranged adjacent to the conveyor belt and running in parallel with the conveyor belt is provided. The position identification marker can be displayed on the display belt. With the above configuration, by providing the display belt that runs in parallel with the conveyor belt of the transport unit, it becomes easy to provide the wall portion between the conveyor belt and the display belt.

さらにまた、第5の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、前記コンベアベルトの色を、推定対象物の色と異なる色に着色することができる。上記構成により、コンベアベルトと推定対象物のコントラスト差を高めてエッジ検出の精度を向上させ、もって質量推定の精度を向上できる。 Furthermore, according to the mass estimation device according to the fifth aspect, in addition to any of the above configurations, the color of the conveyor belt can be colored differently from the color of the estimation target object. With the above configuration, the contrast difference between the conveyor belt and the estimation target can be increased to improve the accuracy of edge detection, and thus the accuracy of mass estimation can be improved.

さらにまた、第6の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、さらに、前記搬送部で搬送される推定対象物を照明する照明部を備え、前記照明部が、前記搬送部の、搬送面に対して前記撮像部を配置した面と反対側に配置されており、前記照明部からの照明光が、前記搬送面を透過して推定対象物を照明する透過照明光であり、前記透過照明光による照明の元で撮像された画像から、推定対象物の高さを推定可能とできる。上記構成により、二次元画像のみならず、高さ方向の上方を加味して推定対象物の質量を推定することが可能となる。 Furthermore, according to the mass estimation device according to the sixth aspect, in addition to any of the above configurations, the illuminating unit further includes an illuminating unit that illuminates the estimated object to be conveyed by the illuminating unit. The transport unit is arranged on the side opposite to the surface on which the image pickup unit is arranged with respect to the transport surface, and the illumination light from the illumination unit is transmitted through the transport surface to illuminate the estimated object. It is light, and the height of the estimation target can be estimated from the image captured under the illumination by the transmitted illumination light. With the above configuration, it is possible to estimate the mass of the estimation target by taking into account not only the two-dimensional image but also the upper part in the height direction.

さらにまた、第7の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、前記質量推定部が、画像処理部で抽出された推定対象物の抽出画像に対し、予め深層学習により画像と質量の関係を学習させた学習済みモデルに基づいて、前記位置特定部で特定された位置における推定対象物の質量を推定するよう構成できる。 Furthermore, according to the mass estimation device according to the seventh aspect, in addition to any of the above configurations, the mass estimation unit performs deep learning in advance on the extracted image of the estimation target object extracted by the image processing unit. Based on the trained model in which the relationship between the image and the mass is trained, the mass of the estimation target at the position specified by the position specifying unit can be estimated.

さらにまた、第8の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、前記質量推定部が、畳み込みニューラルネットを用いた機械学習により画像と質量の関係を学習させた学習済みモデルを用いることができる。 Furthermore, according to the mass estimation device according to the eighth aspect, in addition to any of the above configurations, the mass estimation unit learns the relationship between the image and the mass by machine learning using a convolutional neural network. A finished model can be used.

さらにまた、第9の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、前記学習済みモデルを、VGG14〜VGG18のいずれかとできる。 Furthermore, according to the mass estimation device according to the ninth aspect, in addition to any of the above configurations, the trained model can be any of VGG14 to VGG18.

さらにまた、第10の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、前記学習済みモデルを、VGG16とすることができる。 Furthermore, according to the mass estimation device according to the tenth aspect, in addition to any of the above configurations, the trained model can be VGG16.

さらにまた、第11の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、前記学習済みモデルを、VGGから層数を低減したものとできる。 Furthermore, according to the mass estimation device according to the eleventh aspect, in addition to any of the above configurations, the trained model can be made by reducing the number of layers from VGG.

さらにまた、第12の側面に係る質量推定装置によれば、上記いずれかの構成に加えて、推定対象物を、カット野菜とすることができる。 Furthermore, according to the mass estimation device according to the twelfth aspect, in addition to any of the above configurations, the estimation target can be a cut vegetable.

さらにまた、第13の側面に係る食品包装機置によれば、推定対象物を所定の質量毎に包装する食品包装機であって、前記搬送面にばら撒かれた推定対象物を搬送する搬送部と、前記搬送部の搬送方向に沿って設けられた位置特定マーカと、前記搬送部の上方で固定され、該搬送部で搬送された推定対象物の内、前記搬送面の一部の領域に存在する推定対象物の画像を、前記位置特定マーカを含めて撮像する撮像部と、前記撮像部で撮像した前記位置特定マーカを含む画像から、推定対象物を抽出する画像処理部と、前記撮像部で撮像した前記位置特定マーカを含む画像から、前記搬送部の搬送面の位置を特定する位置特定部と、前記画像処理部で抽出された推定対象物の抽出画像に対し、予め深層学習により画像と質量の関係を学習させた学習済みモデルに基づいて、前記位置特定部で特定された位置における推定対象物の質量を推定する質量推定部と、前記質量推定部で推定された、特定領域の質量を領域毎に累積して、搬送された推定対象物の質量を出力する出力部と、前記質量推定部で質量を推定済みの推定対象物を、前記搬送部で搬送して保持するストッカと、前記出力物の出力に基づいて、累積された推定対象物の質量が所定値となった段階で、前記ストッカに保持された推定対象物を包装する包装部とを備えることができる。上記構成により、深層学習に基づいて、搬送面にばら撒かれた推定対象物の質量の推定が可能となる。また位置特定マーカでもって、搬送面のどの領域の質量を測定したのかを特定できるので、部分的に測定した質量を累積して、必要な分量の推定対象物の包装が容易となる。 Furthermore, according to the food packaging machine according to the thirteenth aspect, it is a food packaging machine that wraps the estimated objects in predetermined masses, and transports the estimated objects scattered on the transport surface. A part of the transport surface of the unit, the position identification marker provided along the transport direction of the transport unit, and the estimated object fixed above the transport unit and transported by the transport unit. An image pickup unit that captures an image of an estimation target object existing in the image including the position identification marker, an image processing unit that extracts an estimation target object from an image including the position identification marker imaged by the imaging unit, and the above. From the image including the position specifying marker captured by the imaging unit, deep learning is performed in advance for the position specifying unit that specifies the position of the transport surface of the transport unit and the extracted image of the estimation target object extracted by the image processing unit. Based on the trained model in which the relationship between the image and the mass is trained by The output unit that accumulates the mass of each region and outputs the mass of the transported estimated object and the estimated object whose mass has been estimated by the mass estimation unit are transported and held by the transport unit. A stocker and a packaging unit for packaging the estimated object held in the stocker when the accumulated mass of the estimated object reaches a predetermined value based on the output of the output product can be provided. With the above configuration, it is possible to estimate the mass of the estimated objects scattered on the transport surface based on deep learning. Further, since it is possible to specify in which region of the transport surface the mass is measured by the position specifying marker, the partially measured mass can be accumulated and the required amount of the estimated object can be easily packaged.

実施形態1に係る質量推定装置を示す概略図である。It is a schematic diagram which shows the mass estimation apparatus which concerns on Embodiment 1. FIG. 質量推定装置を利用した食品包装機を示す概略図である。It is a schematic diagram which shows the food packaging machine using the mass estimation apparatus. 図1のコンピュータの機能を示すブロック図である。It is a block diagram which shows the function of the computer of FIG. 実施形態2に係る質量推定システムを示す概略図である。It is a schematic diagram which shows the mass estimation system which concerns on Embodiment 2. 実施形態3に係る質量推定システムを示す概略図である。It is a schematic diagram which shows the mass estimation system which concerns on Embodiment 3. 搬送部の位置特定マーカを示す斜視図である。It is a perspective view which shows the position identification marker of a transport part. 変形例に係る搬送部を示す横断面斜視図である。It is a cross-sectional perspective view which shows the transport part which concerns on the modification. 図8Aは撮影画像、図8Bは図8Aの撮影画像に射影変換を行った入力画像を示すイメージ図である。FIG. 8A is an image diagram showing a captured image, and FIG. 8B is an image diagram showing an input image obtained by performing a projective transformation on the captured image of FIG. 8A. 図9Aは推定対象物を載せた載置面を撮像した入力画像、図9Bは図9Aの推定対象物領域の面積画像、図9Cは境界画像を、それぞれ示すイメージ図である。FIG. 9A is an image diagram showing an image of the mounting surface on which the estimation target is placed, FIG. 9B is an image of the area of the estimation target region of FIG. 9A, and FIG. 9C is an image diagram showing a boundary image. 面積と質量の関係を示すグラフである。It is a graph which shows the relationship between area and mass. 境界と質量の関係を示すグラフである。It is a graph which shows the relationship between a boundary and a mass. 搬送面上に帯状区間画像の領域を設定する様子を示す模式平面図である。It is a schematic plan view which shows the state of setting the area of the band-shaped section image on the transport surface. 図13Aは撮影画像、図13Bは図13Aを射影変換した入力画像、図13Cは帯幅×1の帯状区間画像、図13Dは帯幅×2の帯状区間画像、図13Eは帯幅X5の帯状区間画像を、それぞれ示すイメージ図である。13A is a photographed image, FIG. 13B is an input image obtained by projecting and transforming FIG. 13A, FIG. 13C is a band-shaped section image of band width × 1, FIG. 13D is a band-shaped section image of band width × 2, and FIG. 13E is a band-shaped section of band width × 5. It is an image diagram which shows each section image. 図14A〜図14Fは帯幅1として第5領域からの推定を行った推定精度を示すグラフである。14A to 14F are graphs showing the estimation accuracy of the estimation from the fifth region with the bandwidth 1. 図15A〜図15Fは帯幅1として第6領域からの推定を行った推定精度を示すグラフである。15A to 15F are graphs showing the estimation accuracy of the estimation from the sixth region with the bandwidth 1. 透過照明画像から推定対象物を抽出する例を示すイメージ図である。It is an image diagram which shows an example of extracting an estimation object from a transmitted illumination image. 図17A〜図17Dはデータ拡張の様子を示すイメージ図である。17A to 17D are image diagrams showing a state of data expansion. 実施形態5を用いたネットワーク構造を示す模式図である。It is a schematic diagram which shows the network structure using Embodiment 5. 5分割の交差検証での平均絶対誤差を示すグラフである。It is a graph which shows the mean absolute error in the cross-validation of 5 divisions. 平均パーセント誤差を示すグラフである。It is a graph which shows the average percent error. VGG16の構造を示す模式図である。It is a schematic diagram which shows the structure of VGG16. VGG16で5分割の交差検証の結果を示すグラフである。It is a graph which shows the result of the cross-validation of 5 divisions in VGG16. VGG16で5分割の交差検証のパーセント誤差を示すグラフである。It is a graph which shows the percent error of cross-validation of 5 divisions in VGG16. VGG19で5分割の交差検証のMAEを示すグラフである。It is a graph which shows MAE of cross-validation of 5 divisions in VGG19. VGG19で5分割の交差検証のパーセント誤差を示すグラフである。It is a graph which shows the percent error of the cross-validation of 5 divisions in VGG19. Resnet50で5分割の交差検でのMAEを示すグラフである。It is a graph which shows MAE in the cross inspection of 5 divisions in Resnet50. Resnet50で5分割の交差検証のパーセント誤差を示すグラフである。It is a graph which shows the percent error of the cross-validation of 5 divisions in Resnet50. InceptionV3で5分割の交差検証のMAEを示すグラフである。It is a graph which shows the MAE of the cross-validation of 5 divisions in Inception V3. InceptionV3で5分割の交差検証のパーセント誤差を示すグラフである。It is a graph which shows the percent error of the cross-validation of 5 divisions in Inception V3. Xceptionで5分割の交差検証のMAEを示すグラフである。It is a graph which shows MAE of cross-validation of 5 divisions by Xception. Xceptionで5分割の交差検証のパーセント誤差を示すグラフである。It is a graph which shows the percent error of the cross-validation of 5 divisions by Xception. FC Blockのみファインチューニングしたモデルを示す模式図である。It is a schematic diagram which shows the model which fine-tuned only FC Block. FC BlockとBlock5をファインチューニングしたモデルを示す模式図である。It is a schematic diagram which shows the model which fine-tuned FC Block and Block 5. FC BlockとBlock5、4をファインチューニングしたモデルを示す模式図である。It is a schematic diagram which shows the model which fine-tuned FC Block and Blocks 5 and 4. オリジナルのVGG16を示す模式図である。It is a schematic diagram which shows the original VGG16. VGG16からBlock5を取り除いたモデルを示す模式図である。It is a schematic diagram which shows the model which removed Block 5 from VGG16. VGG16からBlock5、4を取り除いたモデルを示す模式図である。It is a schematic diagram which shows the model which removed Blocks 5 and 4 from VGG16.

以下、本発明の実施形態を図面に基づいて説明する。ただし、以下に示す実施形態は、本発明の技術思想を具体化するための例示であって、本発明は以下のものに特定されない。また、本明細書は、特許請求の範囲に示される部材を、実施形態の部材に特定するものでは決してない。特に実施形態に記載されている構成部材の寸法、材質、形状、その相対的配置等は特に特定的な記載がない限りは、本発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするため誇張していることがある。さらに以下の説明において、同一の名称、符号については同一もしくは同質の部材を示しており、詳細説明を適宜省略する。さらに、本発明を構成する各要素は、複数の要素を同一の部材で構成して一の部材で複数の要素を兼用する態様としてもよいし、逆に一の部材の機能を複数の部材で分担して実現することもできる。また、一部の実施例、実施形態において説明された内容は、他の実施例、実施形態等に利用可能なものもある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiments shown below are examples for embodying the technical idea of the present invention, and the present invention is not specified as the following. Further, the present specification does not specify the members shown in the claims as the members of the embodiment. In particular, the dimensions, materials, shapes, relative arrangements, and the like of the constituent members described in the embodiments are not intended to limit the scope of the present invention to the specific description unless otherwise specified, and are merely explanatory examples. It's just that. The size and positional relationship of the members shown in each drawing may be exaggerated to clarify the explanation. Further, in the following description, members having the same or the same quality are shown with the same name and reference numeral, and detailed description thereof will be omitted as appropriate. Further, each element constituting the present invention may be configured such that a plurality of elements are composed of the same member and the plurality of elements are combined with one member, or conversely, the function of one member is performed by the plurality of members. It can also be shared and realized. In addition, the contents described in some examples and embodiments can be used in other embodiments and embodiments.

本明細書においては、単一の推定対象物に対する質量推定を企図している。いいかえると、異なる密度を有する複数の対象物に対する質量推定は対象としていない。ただ、密度が同程度と見なせるものについては、本発明の対象とする。
[実施形態1]
In the present specification, mass estimation for a single estimation object is intended. In other words, mass estimation for multiple objects with different densities is not covered. However, those having the same density are the subject of the present invention.
[Embodiment 1]

本発明の実施形態1に係る質量推定装置100を、図1に示す。この質量推定装置100は、推定対象物WKを搬送する搬送面11を有する搬送部10と、搬送部10の上方に固定された撮像部20と、撮像部20と接続された演算部30を備える。この質量推定装置100は、搬送面11にばら撒かれた多数の推定対象物WKの質量を部分的に推定することができる。この質量推定装置100は、例えば包装機等に組み込まれて使用される。 The mass estimation device 100 according to the first embodiment of the present invention is shown in FIG. The mass estimation device 100 includes a transport unit 10 having a transport surface 11 for transporting the estimation target WK, an image pickup unit 20 fixed above the transport unit 10, and a calculation unit 30 connected to the image pickup unit 20. .. The mass estimation device 100 can partially estimate the masses of a large number of estimation objects WK scattered on the transport surface 11. The mass estimation device 100 is used by being incorporated in, for example, a packaging machine.

包装機の一例として、食品包装機1000を図2に示す。この食品包装機1000においては、コンベアベルト12で質量の推定対象物WKであるカット野菜や油揚げなどの食品をバラ積みして、シュータ61側に向かって搬送させる。シュータ61の下部には、包装部62が設けられている。包装されるべき量、すなわち所定の質量の食品がシュータ61に溜まった状態で、シュータ61の底面を開放して食品を包装部62に送る。具体的には、搬送面11にばら撒かれた食品を一定量搬送して停止し、搬送面11上の食品の内の部分的な質量、ここでは撮像部20で撮像可能な撮像視野の内で、位置特定マーカ42(詳細は後述)によって規定される所定の領域内に含まれる食品の質量を推定する。推定された質量の食品は、シュータ61に投入されると共に、シュータ61に投入された質量は加算され、一定の質量に達した時点で包装部62に送られ、食品を包装して排出する。これによって、一定量の質量の食品の搬送が実現される。 As an example of the packaging machine, the food packaging machine 1000 is shown in FIG. In the food packaging machine 1000, foods such as cut vegetables and fried tofu, which are WKs whose mass is to be estimated, are piled up in bulk on the conveyor belt 12 and conveyed toward the shooter 61 side. A packaging portion 62 is provided at the lower part of the shooter 61. With the amount of food to be packaged, that is, a predetermined mass of food accumulated in the shooter 61, the bottom surface of the shooter 61 is opened and the food is sent to the packaging unit 62. Specifically, a certain amount of food scattered on the transport surface 11 is transported and stopped, and the partial mass of the food on the transport surface 11, here, within the imaging field of view that can be imaged by the imaging unit 20. Then, the mass of the food contained in the predetermined region defined by the position identification marker 42 (details will be described later) is estimated. The food having an estimated mass is charged into the shooter 61, the mass charged into the shooter 61 is added, and when the mass reaches a certain level, the food is sent to the packaging unit 62, and the food is packaged and discharged. As a result, the transportation of a certain amount of food is realized.

また、シュータは必ずしも必須でなく、包装部62に直接、食品等の推定対象物WKを投入するよう構成してもよい。さらに、コンベアベルト12の運転を停止させることなく、推定対象物WKの質量を累積し、一定量に達した時点で包装部62を区画する仕切やストッパを開放して包装するようにすることで、コンベアベルト12を連続運転させたままでの包装が可能となり、作業性が向上する。 Further, the shooter is not always indispensable, and the packaging unit 62 may be configured to directly input the estimated object WK such as food. Further, the mass of the estimated object WK is accumulated without stopping the operation of the conveyor belt 12, and when the mass reaches a certain amount, the partition or stopper for partitioning the packaging portion 62 is opened for packaging. , The conveyor belt 12 can be packaged while being continuously operated, and workability is improved.

なお、食品包装機は一例であって、食品以外の搬送物を包装することもできる。すなわち本発明においては、質量を推定する推定対象物を、食品に限定せず、例えば粉末量、粒状、タブレット状の薬剤や機械部品等も含む。また、本実施形態に係る質量推定装置100は、包装機に限らず、所定の量を計量することが求められるシステムに組み込むことができる。以下の例では、質量を推定する推定対象物として、食物に適用する例を説明する。 The food packaging machine is an example, and it is also possible to wrap a transported object other than food. That is, in the present invention, the estimation target for estimating the mass is not limited to foods, but also includes, for example, powder amount, granules, tablet-like chemicals, machine parts, and the like. Further, the mass estimation device 100 according to the present embodiment is not limited to the packaging machine, and can be incorporated into a system that is required to measure a predetermined amount. In the following example, an example of applying to food as an estimation object for estimating mass will be described.

搬送部10は、上面に搬送面11を備えており、搬送面11にばら撒かれた推定対象物WKを一定の搬送方向に搬送する。この搬送部10には、コンベアベルト12のような無限軌道が好適に利用できる。図1の例では搬送部10は演算部30と接続されており、演算部30でもって搬送面11の移動、停止の切り替えや送り出し量の制御を行う。ここでは、撮像部20で撮像し易いよう、搬送面11を一定量を移動させた後、停止させて、撮像部20での撮像を待って、再度搬送面11を移動させて停止させる工程を繰り返している。なお、搬送部10と演算部30は必ずしも接続する必要はない。例えば搬送部は食品包装機側の制御として、所定のタイミングで搬送面の停止や移動を繰り返しつつ、演算部はこのタイミングに応じて推定した質量を出力して、包装部62への投入の可否を指示するよう構成してもよい。 The transport unit 10 is provided with a transport surface 11 on the upper surface, and transports the estimated object WK scattered on the transport surface 11 in a constant transport direction. An endless track such as a conveyor belt 12 can be preferably used for the transport unit 10. In the example of FIG. 1, the transfer unit 10 is connected to the calculation unit 30, and the calculation unit 30 switches the movement and stop of the transfer surface 11 and controls the delivery amount. Here, in order to facilitate imaging by the imaging unit 20, the transfer surface 11 is moved by a certain amount, then stopped, waiting for imaging by the imaging unit 20, and then the transfer surface 11 is moved and stopped again. I'm repeating. The transport unit 10 and the calculation unit 30 do not necessarily have to be connected. For example, as a control on the food packaging machine side, the transport unit repeatedly stops and moves the transport surface at a predetermined timing, and the calculation unit outputs the estimated mass according to this timing and whether or not it can be input to the packaging unit 62. May be configured to indicate.

また搬送部10の搬送方向に沿って位置特定マーカ42が設けられている。位置特定マーカ42は、コンベアベルト12の少なくとも一方の端縁に沿って設けられたマーカ表示面41に表示されている。位置特定マーカ42は、複数のマークが搬送方向に沿って連なって表示されたものであり、各マークは互いに異なるように表示されている。これによって、無限軌道のコンベアベルト12のどの位置を撮像しているのかを演算部30側で把握できるようになる。 Further, a position specifying marker 42 is provided along the transport direction of the transport unit 10. The position identification marker 42 is displayed on the marker display surface 41 provided along at least one end edge of the conveyor belt 12. The position identification marker 42 is a display in which a plurality of marks are displayed in succession along the transport direction, and the marks are displayed so as to be different from each other. As a result, the calculation unit 30 can grasp which position of the conveyor belt 12 on the endless track is being imaged.

撮像部20は、この搬送部10で搬送された推定対象物WKの内、搬送面11の一部の領域に存在する推定対象物WKの画像を、位置特定マーカ42を含めて撮像する。撮像部20は、CCDやCMOS等の画像センサを用いたカメラが好適に利用できる。また撮像部20として、二次元画像の他、高さ情報の得られる撮像部を用いてもよい。例えば赤外線の複眼を用いた深度カメラや、照度差ステレオ法や光切断法などを利用したステレオカメラ等が利用できる。また撮像部20は、撮像された入力画像を演算部30に送出する。 The imaging unit 20 captures an image of the estimated object WK existing in a part of the area of the conveyed surface 11 among the estimated objects WK conveyed by the conveyed unit 10, including the position identification marker 42. As the image pickup unit 20, a camera using an image sensor such as a CCD or CMOS can be preferably used. Further, as the imaging unit 20, in addition to the two-dimensional image, an imaging unit that can obtain height information may be used. For example, a depth camera using an infrared compound eye, a stereo camera using an illuminance difference stereo method, a light cutting method, or the like can be used. Further, the imaging unit 20 sends the captured input image to the calculation unit 30.

また、推定対象物WKに対する照明光は、自然光を利用したり、別途照明を配置してもよい。また、コンベアベルト12の色は、推定対象物WKの色と異なるようにすることが好ましい。これにより、推定対象物WKとコンベアベルト12とのコントラスト差が大きくなり、推定対象物WKの輪郭の抽出等が行いやすくなる。またこの際、推定対象物WKの輪郭が浮かび上がりやすいように、照明光の方向や照明光の色を調整することも好ましい。 Further, as the illumination light for the estimation target WK, natural light may be used, or illumination may be separately arranged. Further, it is preferable that the color of the conveyor belt 12 is different from the color of the estimation target WK. As a result, the contrast difference between the estimated object WK and the conveyor belt 12 becomes large, and it becomes easier to extract the contour of the estimated object WK. At this time, it is also preferable to adjust the direction of the illumination light and the color of the illumination light so that the outline of the estimation target WK easily emerges.

演算部30は、入力画像を撮像部20から取得して、質量を推定して出力する。この演算部30は、図3のブロック図に示すように、画像処理部31と、位置特定部32と、質量推定部33と、出力部34を備える。 The calculation unit 30 acquires an input image from the imaging unit 20, estimates the mass, and outputs the image. As shown in the block diagram of FIG. 3, the calculation unit 30 includes an image processing unit 31, a position specifying unit 32, a mass estimation unit 33, and an output unit 34.

位置特定部32は、撮像部20で撮像した入力画像に含まれる位置特定マーカ42に基づいて、質量推定の対象とする所定の処理領域を特定する。ここでは、撮像部20の視野内に含まれる搬送部10の搬送面11の位置を、位置特定マーカ42によって特定する。すなわち、撮像部20から順次送られる入力画像に対して、処理領域が重複しないように区別する。 The position specifying unit 32 identifies a predetermined processing area to be mass-estimated based on the position specifying marker 42 included in the input image captured by the imaging unit 20. Here, the position of the transport surface 11 of the transport unit 10 included in the field of view of the image pickup unit 20 is specified by the position identification marker 42. That is, the input images sequentially sent from the imaging unit 20 are distinguished so that the processing areas do not overlap.

また画像処理部31は、撮像部20で撮像した位置特定マーカ42を含む画像から、位置特定部32で特定された処理領域に含まれる推定対象物WKを抽出する。すなわち、処理領域に含まれる異物を除去したり、推定対象物WKの輪郭のみを抽出するなどの画像処理を行う。 Further, the image processing unit 31 extracts the estimation target WK included in the processing area specified by the position specifying unit 32 from the image including the position specifying marker 42 captured by the imaging unit 20. That is, image processing such as removing foreign matter contained in the processing area or extracting only the outline of the estimation target WK is performed.

さらに質量推定部33は、画像処理部31で抽出された推定対象物WKの抽出画像に対し、位置特定部32で特定された位置における推定対象物WKの質量を推定する。質量の推定は1秒程度で完了する。 Further, the mass estimation unit 33 estimates the mass of the estimation target WK at the position specified by the position identification unit 32 with respect to the extracted image of the estimation target WK extracted by the image processing unit 31. Mass estimation is completed in about 1 second.

出力部34は、質量推定部33で推定された、特定領域の質量を領域毎に累積して、搬送された推定対象物WKの質量を出力する。例えば、食品包装機の例では、逐次推定した質量を送出して、包装部62に投入するタイミングを通知する。 The output unit 34 accumulates the mass of the specific region estimated by the mass estimation unit 33 for each region, and outputs the mass of the conveyed estimated object WK. For example, in the example of the food packaging machine, the mass estimated sequentially is sent out to notify the timing of putting the mass into the packaging unit 62.

このような複数の機能を実現する演算部30は、例えばCPUやMPU、GPU、TPU等の他、FPGA、ASIC、LSI等のプロセッサやマイコン、あるいはSoC、MCU等のチップセットで構成できる。 The arithmetic unit 30 that realizes such a plurality of functions can be configured by, for example, a CPU, an MPU, a GPU, a TPU, or the like, a processor or a microcomputer such as an FPGA, an ASIC, or an LSI, or a chipset such as a SoC or an MCU.

上記の機能を奏する演算部30により、搬送面11にばら撒かれた推定対象物WKの質量の推定が可能となる。例えば、ベルトコンベヤや台などの平面上に置かれたカット野菜を、上部から撮影した画像のみから質量推定部33で質量を推定する。推定アルゴリズムは、好適には過去のデータから自動的に推定式を構成する、機械学習ベースのシステムを用いる。機械学習には、畳み込みニューラルネットを用いる。また位置特定マーカ42でもって、搬送面11のどの領域の質量を測定したのかを特定できるので、部分的に測定した質量を累積して、必要な分量の推定対象物の切り出しが容易となる。 The calculation unit 30 that functions as described above makes it possible to estimate the mass of the estimation target WK scattered on the transport surface 11. For example, the mass estimation unit 33 estimates the mass of a cut vegetable placed on a flat surface such as a belt conveyor or a table only from an image taken from above. The estimation algorithm preferably uses a machine learning-based system that automatically constructs an estimation formula from past data. A convolutional neural network is used for machine learning. Further, since the position specifying marker 42 can specify which region of the transport surface 11 the mass is measured, the partially measured mass can be accumulated and the required amount of the estimated object can be easily cut out.

また質量推定部33は、画像処理部31で抽出された推定対象物の抽出画像に対し、予め深層学習により画像と質量の関係を学習させた学習済みモデルに基づいて、位置特定部32で特定された位置における推定対象物の質量を推定するよう構成することができる。この学習済みモデルには、VGG14〜VGG18のいずれかを好適に利用できる。 Further, the mass estimation unit 33 specifies the extracted image of the estimation target object extracted by the image processing unit 31 by the position specifying unit 32 based on a learned model in which the relationship between the image and the mass is learned in advance by deep learning. It can be configured to estimate the mass of the estimated object at the given position. Any of VGG14 to VGG18 can be preferably used for this trained model.

このように、推定対象物の実質量を直接測定するのでなく、画像から簡易に質量を推定するシステムが求められる背景には、計測の精密化よりも、高速化の要求がある。食品生産のような新鮮さが求められる分野では、毎日必要な量の生産を行うが、新鮮さを保つためには生産に大きな時間をかけることは難しい。このため、大量の生産が必要な場合は、並列に生産を行える大規模な設備を構築する必要があるところ、中小や地方の企業にはしばしば大規模な設備投資が困難である。食品の生産の際、計量作業が包装前に行われることが多いが、秤による精密な計量作業には時間がかかる。ロードセルによる計量は自動計量のうちよく用いられるものであるが、上部から落下する食品とロードセルに接触する衝撃による動揺が安定するまで待ってからの計測が必要であり少なくとも数秒の時間がかかる。 As described above, the background to the demand for a system that easily estimates the mass from an image instead of directly measuring the actual amount of the object to be estimated is the demand for higher speed than the refinement of measurement. In fields where freshness is required, such as food production, the required amount is produced every day, but it is difficult to spend a large amount of time on production in order to maintain freshness. For this reason, when mass production is required, it is necessary to construct large-scale equipment capable of parallel production, but it is often difficult for small and medium-sized enterprises and local companies to make large-scale capital investment. In the production of food, weighing work is often performed before packaging, but precise weighing work using a scale takes time. Weighing with a load cell is often used in automatic weighing, but it takes at least several seconds to wait until the agitation caused by the impact of contact between the food falling from the top and the load cell stabilizes.

このような背景に鑑みて、本発明者らは上述の通りカメラ等の撮像部を用いて撮像した画像から簡易的に質量を推定することで、高速な処理を可能とした。具体的には、畳み込みニューラルネットワークによる機械学習を行い、過去の画像と計量結果のデータから、未知の画像に対する計量結果を予測、推定する。これによって、演算部30により数ミリ秒ないし数十ミリ秒で質量を予測することが可能となった。 In view of such a background, the present inventors have made high-speed processing possible by simply estimating the mass from an image captured by using an imaging unit such as a camera as described above. Specifically, machine learning is performed by a convolutional neural network, and the weighing result for an unknown image is predicted and estimated from the past image and the weighing result data. This made it possible for the arithmetic unit 30 to predict the mass in a few milliseconds to a few tens of milliseconds.

なお撮像部20と演算部30の接続、あるいは他の周辺機器や外部のサーバなどの機器間の接続は、有線接続に限らず、無線接続としてもよい。例えばWiFiやBluetoothやその一形態であるBLE(Bluetooth Low Energy)、Zigbee(いずれも商品名又はサービス名)等の規格化された通信方式により、データ通信を行うことができる。
[実施形態2]
The connection between the imaging unit 20 and the calculation unit 30, or the connection between other peripheral devices or devices such as an external server is not limited to a wired connection, but may be a wireless connection. For example, data communication can be performed by a standardized communication method such as WiFi, Bluetooth, or a form thereof, BLE (Bluetooth Low Energy), Zigbee (all are product names or service names).
[Embodiment 2]

また図1では、演算部30としてスタンドアロンのコンピュータを用いて質量推定を行う例について説明した。ただ本発明はこの構成に限られず、例えば画像データをデータ通信等で外部に送出して、外部で質量推定を行うように構成してもよい。一例として、クラウドコンピューティングによる質量推定システムを実施形態2として図4に示す。この図に示す質量測定システムでは、ある場所に設けられた質量推定装置100’の撮像部20で撮像した画像を、ネットワーク回線を介してデータ通信でサーバに送出する。サーバは受信した画像に対して質量を推定し、出力する。推定結果は、ネットワークを介して質量推定装置100’側に送信される。あるいは、別の場所にあるクライアントに送出し、必要な処理を行うように構成してもよい。
[実施形態3]
Further, in FIG. 1, an example in which mass estimation is performed using a stand-alone computer as the calculation unit 30 has been described. However, the present invention is not limited to this configuration, and for example, the image data may be transmitted to the outside by data communication or the like, and the mass may be estimated externally. As an example, a mass estimation system by cloud computing is shown in FIG. 4 as a second embodiment. In the mass measurement system shown in this figure, an image captured by the image pickup unit 20 of the mass estimation device 100'provided at a certain location is sent to a server by data communication via a network line. The server estimates the mass of the received image and outputs it. The estimation result is transmitted to the mass estimation device 100'side via the network. Alternatively, it may be configured to send to a client in another location and perform necessary processing.
[Embodiment 3]

図1に示した例では、搬送面11に配置した推定対象物WKを上部から撮像部20で撮影した自然画像を用いる。この場合、上部から撮像した画像のみでは、二次元の平面画像となり、撮像対象の面積は把握できるものの、厚みの違いや重なりによる上部からの見かけ上の単位面積に対する質量の違いが識別できないことがある。そこで、面積のみならず高さ情報を加味した体積情報を用いて推定誤差を少なくすることが考えられる。例えば、撮像部20に対して搬送面11の反対側に照明部50を配置して、背面から照明光を投射させる透過照明を行い、透過光の輝度差を厚みの差、すなわち高さ情報として用いることが考えられる。このような例を実施形態3に係る質量推定装置200として、図5に示す。なお実施形態3に係る質量推定装置200において、上述した部材と同等の部材については、同じ符号を付して詳細説明を適宜省略する。 In the example shown in FIG. 1, a natural image of the estimated object WK arranged on the transport surface 11 taken from above by the imaging unit 20 is used. In this case, the image captured from the upper part is a two-dimensional plane image, and the area to be imaged can be grasped, but the difference in mass with respect to the apparent unit area from the upper part due to the difference in thickness and overlap cannot be identified. be. Therefore, it is conceivable to reduce the estimation error by using the volume information that takes into account not only the area but also the height information. For example, the illumination unit 50 is arranged on the opposite side of the transport surface 11 with respect to the image pickup unit 20 to perform transmitted illumination that projects illumination light from the back surface, and the difference in brightness of the transmitted light is used as the difference in thickness, that is, height information. It is conceivable to use it. An example of such a case is shown in FIG. 5 as a mass estimation device 200 according to the third embodiment. In the mass estimation device 200 according to the third embodiment, the same members as those described above are designated by the same reference numerals, and detailed description thereof will be omitted as appropriate.

図5に示す質量推定装置200は、照明部50を備える。照明部50は、搬送部10で搬送される推定対象物WKを照明するための部材である。この照明部50は、搬送部10の、搬送面11に対して撮像部20を配置した面と反対側に配置されている。また照明部50が発する照明光は、搬送面11を透過して推定対象物WKを照明する透過照明光である。照明部50の制御、例えば光量や照明のON/OFFの切り替え等は、演算部30から行ってもよい。また搬送部10は、照明光を透過しやすい材質、例えば半透明な可撓性のある樹脂材や不織布、紙等が利用できる。 The mass estimation device 200 shown in FIG. 5 includes an illumination unit 50. The lighting unit 50 is a member for illuminating the estimated object WK transported by the transport unit 10. The illumination unit 50 is arranged on the side of the transport unit 10 opposite to the surface on which the image pickup unit 20 is arranged with respect to the transport surface 11. The illumination light emitted by the illumination unit 50 is transmitted illumination light that passes through the transport surface 11 and illuminates the estimated object WK. Control of the illumination unit 50, for example, switching of the amount of light and ON / OFF of the illumination, etc. may be performed from the calculation unit 30. Further, for the transport unit 10, a material that easily transmits illumination light, for example, a translucent flexible resin material, a non-woven fabric, paper, or the like can be used.

演算部30は、透過照明光による照明の元で撮像された画像から、推定対象物WKの高さを推定可能としている。このような構成により、二次元画像のみならず、高さ方向の上方を加味して推定対象物WKの質量を推定することが可能となる。
(位置特定マーカ42)
The calculation unit 30 can estimate the height of the estimation target WK from the image captured under the illumination by the transmitted illumination light. With such a configuration, it is possible to estimate the mass of the estimation target WK by taking into account not only the two-dimensional image but also the upper part in the height direction.
(Position identification marker 42)

位置特定マーカ42は、既知のARマーカ、シンボルなどが利用できる。シンボルには、バーコードや、二次元コードなどが利用できる。特に、規格化されたシンボルが好適に利用できる。二次元コードとしては、例えばQRコード、マイクロQRコード、tQR、iQR、SQRC(セキュリティ機能搭載QRコード)、CPコード、データマトリックス(Data matrix;Data code)、ベリコード(Veri code)、アズテックコード(Aztec code)、PDF417、マイクロPDF417、マキシコード(Maxi code)、GS1Data Matrix、GS1Data Bar14、Limited,Stacked,Expanded+Composite、UPC/EAN/GS1−128/ITF/Codabar等(いずれも商品名又はサービス名、以下同様)がある。二次元コードにはスタック型とマトリックス型があり、いずれでも利用できる。以下の例では、位置特定マーカ42としてARマーカであるArUcoマーカを用いた。ArUcoマーカは、OpenCVに含まれるカメラの姿勢推定に使用できるバイナリの正方形の基準マーカである。OpenCVをベースにした軽量なARライブラリであり、他のシンボル、たとえばセル数が多くカメラのピントを合わせる必要のあるQRコードなどと比べ、ArUcoマーカはリアルタイムで遠距離から読み取ることができ、信頼性も高い等の利点が得られる。 As the position identification marker 42, known AR markers, symbols and the like can be used. Bar codes, two-dimensional codes, etc. can be used as symbols. In particular, standardized symbols can be preferably used. Examples of the two-dimensional code include QR code, micro QR code, tQR, iQR, SQRC (QR code with security function), CP code, Data matrix (Data code), Veri code, and Aztec code. code), PDF417, MicroPDF417, Maxi code, GS1Data Matrix, GS1Data Bar14, Limited, Stacked, Expanded + Composite, UPC / EAN / GS1-128 / ITF / Codabar, etc. ). There are two types of two-dimensional code, stack type and matrix type, and both can be used. In the following example, the ArUco marker, which is an AR marker, was used as the position identification marker 42. The ArUco marker is a binary square reference marker that can be used to estimate the attitude of the camera included in OpenCV. A lightweight AR library based on OpenCV, the ArUco marker can be read from a long distance in real time and is reliable compared to other symbols such as QR codes that have a large number of cells and need to focus on the camera. You can get advantages such as high price.

位置特定マーカ42の一例を、図6に示す。この例では、搬送部10がコンベアベルト12であり、位置特定マーカ42は、コンベアベルト12の一方の端縁に沿って表示されている。このような構成により、コンベアベルト12で対象物を搬送しながら、固定位置に設けられた撮像部20でもって推定対象物WKの画像を撮像して質量を順次推定し、搬送された推定対象物WKの質量を累積して得ることが可能となる。
(壁部44)
An example of the position identification marker 42 is shown in FIG. In this example, the conveyor belt 10 is the conveyor belt 12, and the position identification marker 42 is displayed along one end edge of the conveyor belt 12. With such a configuration, while the object is conveyed by the conveyor belt 12, the image of the estimated object WK is imaged by the imaging unit 20 provided at a fixed position to sequentially estimate the mass, and the conveyed estimated object is conveyed. It is possible to accumulate the mass of WK.
(Wall 44)

図6の例では、位置特定マーカ42をコンベアベルト12の進行方向に対して右側(図において下側)に設ける例を説明したが、この構成に限らず、コンベアベルトの進行方向に対して左側に位置特定マーカを設けてもよい。コンベアベルトの搬送面に位置特定マーカを表示させると、搬送面に推定対象物が積載された際に見えなくなるので、搬送面11と、位置特定マーカ42を設けたマーカ表示面41とは、区別することが好ましい。図6の例では、搬送面11とマーカ表示面41との境界部分に、壁部44を直立させている。壁部44は、搬送面11やマーカ表示面41に対して交差する姿勢、好ましくは直交する姿勢に突出されている。このような壁部44を介在させることで、搬送面11に積まれた推定対象物WKが崩れて、マーカ表示面41の上まで拡がって位置特定マーカ42を覆い隠す事態を回避できる。
(表示ベルト43)
In the example of FIG. 6, an example in which the position identification marker 42 is provided on the right side (lower side in the drawing) with respect to the traveling direction of the conveyor belt 12 has been described, but the present invention is not limited to this configuration and is left side with respect to the traveling direction of the conveyor belt. May be provided with a position identification marker. When the position identification marker is displayed on the transport surface of the conveyor belt, it becomes invisible when the estimated object is loaded on the transport surface. Therefore, the transport surface 11 and the marker display surface 41 provided with the position identification marker 42 are distinguished from each other. It is preferable to do so. In the example of FIG. 6, the wall portion 44 is upright at the boundary portion between the transport surface 11 and the marker display surface 41. The wall portion 44 projects in a posture that intersects the transport surface 11 and the marker display surface 41, preferably in a posture that is orthogonal to the transport surface 11. By interposing such a wall portion 44, it is possible to avoid a situation in which the estimated object WK loaded on the transport surface 11 collapses and spreads over the marker display surface 41 to cover the position specifying marker 42.
(Display belt 43)

マーカ表示部は、好適にはコンベアベルト12と別個の表示ベルト43上に表示されている。表示ベルト43は、コンベアベルト12に隣接して配置され、コンベアベルト12と併走する。表示ベルト43を、好ましくはコンベアベルト12と同じ伸び率の材質で構成し、コンベアベルト12と同じ駆動軸でもって駆動することで持って、コンベアベルト12と表示ベルト43の移動量を一致させることが可能となる。このようにコンベアベルト12と表示ベルト43とを別部材とすることで、これらの間に固定部材である壁部44を設けることが容易となる。 The marker display unit is preferably displayed on a display belt 43 separate from the conveyor belt 12. The display belt 43 is arranged adjacent to the conveyor belt 12 and runs in parallel with the conveyor belt 12. The display belt 43 is preferably made of a material having the same elongation rate as the conveyor belt 12, and is driven by the same drive shaft as the conveyor belt 12, so that the movement amounts of the conveyor belt 12 and the display belt 43 are matched. Is possible. By making the conveyor belt 12 and the display belt 43 separate members in this way, it becomes easy to provide the wall portion 44, which is a fixing member, between them.

ただ、本発明はこの構成に限られず、共通のベルト上に搬送面とマーカ表示面を設けてもよい。一例として、図7の横断面斜視図に示す変形例に係る質量推定装置300では、コンベアベルト12’の上面に壁部44’を固定しており、壁部44’でもって搬送面11とマーカ表示面41を区画している。この構成であれば、共通のベルトを使用しながら、搬送面11の推定対象物WKがマーカ表示面41にはみ出す事態を回避できる。壁部44’は、コンベアベルト12’と一体に成形されたゴム状としてもよいし、別部材で壁を構成して、コンベアベルト上に固定してもよい。
(質量推定アルゴリズム)
However, the present invention is not limited to this configuration, and a transport surface and a marker display surface may be provided on a common belt. As an example, in the mass estimation device 300 according to the modified example shown in the cross-sectional perspective view of FIG. 7, the wall portion 44'is fixed to the upper surface of the conveyor belt 12', and the transport surface 11 and the marker are fixed by the wall portion 44'. The display surface 41 is partitioned. With this configuration, it is possible to avoid a situation in which the estimated object WK on the transport surface 11 protrudes from the marker display surface 41 while using a common belt. The wall portion 44'may be in the form of rubber integrally molded with the conveyor belt 12', or the wall may be formed of a separate member and fixed on the conveyor belt.
(Mass estimation algorithm)

質量推定部33で推定対象物の質量を推定するアルゴリズムとしては、画像から質量を推定する既知のアルゴリズムが適宜利用できる。本実施形態では、機械学習を用いる。具体的には、ニューラルネットと非ニューラルネットを用いる。 As an algorithm for estimating the mass of the object to be estimated by the mass estimation unit 33, a known algorithm for estimating the mass from an image can be appropriately used. In this embodiment, machine learning is used. Specifically, a neural network and a non-neural network are used.

非ニューラルネット手法としては、線形回帰、非線形多項式回帰、サポートベクトル非線形回帰が利用できる。なお、これらの非ニューラルネット手法では、特徴抽出が必要となるため、画像処理部31で特徴量を抽出する。特徴量としては、物体領域面積(エリア)、物体境界領域(エッジ)や輝度情報、これらの併用が利用できる。 As the non-neural network method, linear regression, nonlinear polynomial regression, and support vector nonlinear regression can be used. Since feature extraction is required in these non-neural network methods, the image processing unit 31 extracts the feature amount. As the feature amount, the object area area (area), the object boundary area (edge), the luminance information, and a combination of these can be used.

一方、ニューラルネット手法では、畳み込みニューラルネットを用いることが好ましい。畳み込みニューラルネットは、深層学習(ディープニューラルネット)、事前学習済み畳み込みニューラルネット、VGG畳み込みニューラルネット減層モデル等が利用できる。
[実施形態4:非ニューラルネット]
On the other hand, in the neural network method, it is preferable to use a convolutional neural network. As the convolutional neural network, deep learning (deep neural network), pre-learned convolutional neural network, VGG convolutional neural network delamination model and the like can be used.
[Embodiment 4: Non-Neural Net]

以下、各手法について順に説明する。まず、非ニューラルネット手法である、線形回帰、非線形多項式回帰、サポートベクトル非線形回帰を用いた質量推定の手順を、実施形態4に係る質量推定方法として説明する。一例として、撮像部20で撮像した撮影画像の角度や向きの補正を行う例を、図8A〜図8Bに基づいて説明する。ここでは推定対象物としてカットしたニンジンを用いている。図8Aの撮影画像に対して、矩形への射影変換クロッピングを行った結果を、図8Bに示す。これによって予測モデルへの入力画像が得られる。 Hereinafter, each method will be described in order. First, a procedure for mass estimation using non-neural network methods such as linear regression, non-linear polynomial regression, and support vector non-linear regression will be described as a mass estimation method according to the fourth embodiment. As an example, an example of correcting the angle and orientation of the captured image captured by the imaging unit 20 will be described with reference to FIGS. 8A to 8B. Here, cut carrots are used as the estimation target. FIG. 8B shows the result of performing the projective transformation cropping to a rectangle on the captured image of FIG. 8A. This gives an input image to the prediction model.

次に、画像処理部31で入力画像の変換を行う前処理の一例を、図9A〜図9Cに基づいて説明する。ここでは、推定対象物として段ボールチップを用いている。これらの図において、図9Aは推定対象物を載せた載置面を撮像した入力画像、図9Bは図9Aの推定対象物領域の面積(エリア)を示す画像、図9Cは推定対象物の境界(エッジ)を示す画像を、それぞれ示している。図9Aに示すように、コンベアベルト12の色は、推定対象物に対して、コントラスト差の大きい色を選択する。ここでは、段ボールチップの黄土色に対して白色のコンベアベルトを選択している。これにより、入力画像を二値化して、図9Bの二値化画像が得られる。また二値化画像を微分するなどして、図9Cに示すエッジ画像が得られる。
(前処理画像と質量の関係)
Next, an example of preprocessing for converting the input image by the image processing unit 31 will be described with reference to FIGS. 9A to 9C. Here, a corrugated cardboard chip is used as an estimation target. In these figures, FIG. 9A is an input image obtained by imaging the mounting surface on which the estimation object is placed, FIG. 9B is an image showing the area of the estimation object area of FIG. 9A, and FIG. 9C is the boundary of the estimation object. Images showing (edges) are shown respectively. As shown in FIG. 9A, the color of the conveyor belt 12 is selected to have a large contrast difference with respect to the estimated object. Here, a white conveyor belt is selected for the ocher color of the corrugated cardboard chip. As a result, the input image is binarized to obtain the binarized image of FIG. 9B. Further, the edge image shown in FIG. 9C can be obtained by differentiating the binarized image.
(Relationship between preprocessed image and mass)

以上のようにして得られた前処理画像と、実際の質量の関係を測定してプロットした散布図を、図10〜図11に示す。これらの図において、図10は上からの撮像画像の推定対象物領域の面積(エリア)と質量、図11は上からの撮像画像の推定対象物境界(エッジ)と質量の関係を、それぞれ示している。ここでは測定対象物としてカット野菜を模した段ボール片を用いた。これらの図に示すように、上からの撮像画像の面積と境界は、実際の質量と概ね比例関係を示していることが判る。
(連続的な計測)
Scatter plots obtained by measuring and plotting the relationship between the preprocessed image obtained as described above and the actual mass are shown in FIGS. 10 to 11. In these figures, FIG. 10 shows the relationship between the area and mass of the estimated object area of the captured image from above, and FIG. 11 shows the relationship between the estimated object boundary (edge) and mass of the captured image from above. ing. Here, a corrugated cardboard piece imitating a cut vegetable was used as the object to be measured. As shown in these figures, it can be seen that the area and boundary of the captured image from above show a roughly proportional relationship with the actual mass.
(Continuous measurement)

次に、搬送面11を逐次送り、搬送面11上の領域を帯状に区画して、これら帯状区間の画像の質量を準連続的に推定する手法について説明する。ここでは、図12の平面図に示すように、撮像部20を固定しながら搬送面11を図において下方に移動させ、時刻t−1と時刻tで、破線で示す帯状区間画像を相対的に図において上方に移動させる例を考える。帯状区間画像は、幅(図において矩形状の縦方向にあたる帯幅)をxピクセルとする。帯状区間画像の帯幅は、搬送部10であるコンベアベルト12の搬送方向と一致させており、コンベアベルト12の送り量又は搬送速度で決定できる。また図13Aに示すようにコンベアベルト12の右側に設けた位置特定マーカ42によって、帯幅を区別できる。例えば図13Aの撮影画像を射影変換した図13Bの入力画像に対して、帯幅×1を図13C、帯幅×2を図13D、帯幅X5を図13Eに、それぞれ示す。このように入力画像を帯状区間画像に分解して、各帯状区間画像毎に質量推定部33で質量を推定して、得られた微小質量を積分し、目標質量となるまでコンベアベルト12を搬送する。これによって、所望の質量分の測定対象物を得ることが可能となる。 Next, a method will be described in which the transport surface 11 is sequentially fed, the region on the transport surface 11 is divided into strips, and the mass of the image of these strip sections is estimated quasi-continuously. Here, as shown in the plan view of FIG. 12, the transport surface 11 is moved downward in the drawing while the imaging unit 20 is fixed, and the strip-shaped section image shown by the broken line is relatively displayed at time t-1 and time t. Consider an example of moving it upward in the figure. In the strip-shaped section image, the width (the strip width corresponding to the rectangular shape in the vertical direction in the figure) is x pixels. The band width of the strip-shaped section image matches the transport direction of the conveyor belt 12 which is the transport unit 10, and can be determined by the feed amount or the transport speed of the conveyor belt 12. Further, as shown in FIG. 13A, the band width can be distinguished by the position specifying marker 42 provided on the right side of the conveyor belt 12. For example, with respect to the input image of FIG. 13B obtained by projecting the captured image of FIG. 13A, the band width × 1 is shown in FIG. 13C, the band width × 2 is shown in FIG. 13D, and the band width X5 is shown in FIG. 13E, respectively. In this way, the input image is decomposed into band-shaped section images, the mass is estimated by the mass estimation unit 33 for each band-shaped section image, the obtained minute mass is integrated, and the conveyor belt 12 is conveyed until the target mass is reached. do. This makes it possible to obtain a measurement object having a desired mass.

このようにして得られた推定精度を、図14A〜図14Fに示す。ここでは、帯幅×1として、領域からの推定を行った。これらの図において、図14A〜図14Cは質量とAPE[%]の関係、図14D〜図14Fは面積(area)と質量[g]の関係を、それぞれ示している。また図14A及び図14Dは線形回帰(area5)、図14B及び図14Eは非線形多項式回帰(area5、degree=5)、図14C及び図14Fはサポートベクトル非線形回帰(area5、gamma=2-21、C=25、epslion=2-3)を、それぞれ示している。これら図14A〜図14Fから、線形回帰、非線形多項式回帰、サポートベクトル非線形回帰(SVR)の結果を、表1に示す。 The estimation accuracy thus obtained is shown in FIGS. 14A to 14F. Here, the band width × 1 is estimated from the region. In these figures, FIGS. 14A to 14C show the relationship between mass and APE [%], and FIGS. 14D to 14F show the relationship between area (area) and mass [g]. The linear regression (AREA5) 14A and 14D are FIGS. 14B and 14E are nonlinear polynomial regression (area5, degree = 5), Figure 14C and Figure 14F is support vector nonlinear regression (area5, gamma = 2 -21, C = 2 5, epslion = 2 -3), respectively. The results of linear regression, non-linear polynomial regression, and support vector non-linear regression (SVR) are shown in Table 1 from FIGS. 14A to 14F.

Figure 2021139775
Figure 2021139775

同様に、推定精度を、図15A〜図15Fに示す。ここでは、帯幅×5として、領域からの推定を行った。これらの図においても、図15A〜図15Cは質量とAPE[%]の関係、図15D〜図15Fは面積(area)と質量[g]の関係を、それぞれ示している。また図15A及び図15Dは線形回帰(area6)、図15B及び図15Eは非線形多項式回帰(area6、degree=5)、図15C及び図15Fはサポートベクトル非線形回帰(area6、gamma=2-17、C=27、epslion=2-2)を、それぞれ示している。これら図15A〜図15Fから、線形回帰、非線形多項式回帰、サポートベクトル非線形回帰(SVR)の結果を、表2に示す。 Similarly, the estimation accuracy is shown in FIGS. 15A to 15F. Here, the band width × 5 was estimated from the region. Also in these figures, FIGS. 15A to 15C show the relationship between mass and APE [%], and FIGS. 15D to 15F show the relationship between area (area) and mass [g]. 15A and 15D are linear regression (area6), FIGS. 15B and 15E are nonlinear polynomial regressions (area6, degree = 5), and FIGS. 15C and 15F are support vector nonlinear regressions (area6, gumma = 2 -17 , C). = 2 7, a epslion = 2 -2), are shown, respectively. Table 2 shows the results of linear regression, non-linear polynomial regression, and support vector non-linear regression (SVR) from FIGS. 15A to 15F.

Figure 2021139775
(機械学習による予測モデルの生成)
Figure 2021139775
(Generation of prediction model by machine learning)

以上の例では、非ニューラルネットで質量推定を行う例を説明した。次に、質量推定部33で機械学習による質量推定を行う例を説明する。撮像部20で撮像した位置特定マーカ42を含む画像から、推定対象物の質量を推定するため、予め、撮像部20による入力画像と秤による計量出力を教師付き機械学習によって学習し、画像からの質量予測モデルを作成する。 In the above example, an example of mass estimation using a non-neural network has been described. Next, an example in which the mass estimation unit 33 performs mass estimation by machine learning will be described. In order to estimate the mass of the object to be estimated from the image including the position identification marker 42 captured by the imaging unit 20, the input image by the imaging unit 20 and the weighing output by the scale are learned in advance by supervised machine learning, and the image is taken from the image. Create a mass prediction model.

まず、撮像部20で推定対象物の撮影画像を撮像する。この手順は、上述した非ニューラルネットの場合とほぼ同様である。具体的には、撮像部20の固定方法、例えば推定対象物と撮像部20との距離や角度が多少変化しても安定したロバストな予測ができるよう、領域を特定するための位置特定マーカ42を設けておく。位置特定マーカ42は上述のとおり、搬送面11の側方に配置した表示ベルト43上に表示される。撮像部20は位置特定マーカ42を含めて画像を撮像し、演算部30に送る。演算部30は撮像部20から入力画像を取得し、正面から見た画像となるように矩形領域に射影変換(レジストレーション)すると共に、位置特定マーカ42によって領域を切り出す。なお、射影変換と切り出しの順序は問わない。例えば先に切り出しを行った上で射影変換してもよいし、これらを同時に行ってもよい。 First, the imaging unit 20 captures a captured image of the estimated object. This procedure is almost the same as the case of the non-neural network described above. Specifically, a method of fixing the imaging unit 20, for example, a position specifying marker 42 for specifying a region so that stable and robust prediction can be performed even if the distance or angle between the estimation target and the imaging unit 20 changes slightly. Is provided. As described above, the position identification marker 42 is displayed on the display belt 43 arranged on the side of the transport surface 11. The image pickup unit 20 captures an image including the position identification marker 42 and sends it to the calculation unit 30. The calculation unit 30 acquires an input image from the image pickup unit 20, projects (registers) it into a rectangular area so that the image is viewed from the front, and cuts out the area by the position identification marker 42. The order of projective transformation and cutting out does not matter. For example, the cutout may be performed first and then the projective conversion may be performed, or these may be performed at the same time.

また位置特定マーカ42は、切り出す領域を矩形とする場合、例えば矩形の四隅に置く。この場合は、搬送面11の両側に位置特定マーカ42を表示した表示ベルト43を配置する。これによって、入力画像に含まれる位置特定マーカ42を四隅とする矩形を容易に切り出せる。ただ本発明はこの構成に限られず、距離や角度のみ補正のために矩形の隅部の内三点のみに位置特定マーカ42を置く構成としたり、逆に複雑な表面ゆがみを補正するために五点以上置くこともできる。 Further, when the area to be cut out is a rectangle, the position identification marker 42 is placed at the four corners of the rectangle, for example. In this case, display belts 43 displaying the position identification markers 42 are arranged on both sides of the transport surface 11. As a result, it is possible to easily cut out a rectangle having the position specifying marker 42 included in the input image as the four corners. However, the present invention is not limited to this configuration, and the position identification marker 42 is placed only at three points in the corner of the rectangle to correct only the distance and the angle, and conversely, to correct complicated surface distortion. You can also place more than a point.

次に、切り出した画像中に、推定対象物以外のものが含まれることにより発生する様々な問題を避けるために、画像の抽出(クロップ)を行う。例えば、切り出した画像中に異物が含まれていると、学習の収束に余計な時間がかかったり、学習の収束が困難になることが考えられる。そこで前処理として、推定対象物を画像から抽出する。この前処理を行った画像の例を図16に示す。この例では、実施形態3の透過照明で得られた画像を示している。 Next, the image is extracted (cropped) in order to avoid various problems caused by including an object other than the estimation target in the cut out image. For example, if the cut-out image contains a foreign substance, it may take extra time for the learning to converge or it may be difficult for the learning to converge. Therefore, as a preprocessing, the estimation target is extracted from the image. An example of the image subjected to this preprocessing is shown in FIG. In this example, the image obtained by the transmitted illumination of the third embodiment is shown.

以上のようにして入力画像を取得した上で、質量推定部33により機械学習を行う。ここでは、深層学習による推定について説明する。まず、3層CNNモデルを用いた例を実施形態5として説明する。
[実施形態5:3層CNNモデルを用いた深層学習による推定]
After acquiring the input image as described above, machine learning is performed by the mass estimation unit 33. Here, estimation by deep learning will be described. First, an example using the three-layer CNN model will be described as the fifth embodiment.
[Embodiment 5: Estimate by deep learning using a 3-layer CNN model]

3層CNNモデルは、畳み込み層(CNN)2層と、全結合層(FC,認識用)1層を含む。この3層のモデルで、CNNを用いたコンベアベルト上のニンジンの質量の推定を行う。ここでは対象となるデータセットとして、約0〜550gの間でランダムにまかれたカットニンジンを、50cm離れた距離からカメラで撮像した570×330の画像を946枚準備した。コンベアベルト上の撮像視野は、100cm×20cmとした。これらの画像に対し、XY方向に写像変換することで枚数を4倍に増やし、計3784枚の画像を準備した。ここでは、図17Aに示すような元画像データに対し、図17Bに示すようにX軸方向に転写(縦方向に反転)したもの、図17Bに示すようにY軸方向に転写したもの(横方向に反転)、図17Dに示すようにX軸Y軸共に転写したもの(縦横共に反転)を準備することで、画像データの数を増やすデータ拡張を行った。また評価方法として、平均絶対誤差(Mean Absolute Error:MAE)を用いた。また、5分割の交差検証も行った。なお実施形態5用いでたネットワーク構造を、図18の模式図に示す。この図に示すネットワーク構造は、換層(Conv. layer)、プーリング層(Pooling layer)、変換層、プーリング層、FC層(FC layer)、出力層(Output layer)で構成される。さらにCNNモデルでは、バッチサイズを20、学習エポックを100とし、損失関数にはMSEを使用した。 The three-layer CNN model includes two convolutional layers (CNN) and one fully connected layer (FC, for recognition). With this three-layer model, the mass of carrots on the conveyor belt is estimated using CNN. Here, as a target data set, 946 images of 570 × 330 taken by a camera of cut carrots randomly sown between about 0 to 550 g and taken from a distance of 50 cm were prepared. The imaging field of view on the conveyor belt was 100 cm × 20 cm. The number of these images was quadrupled by performing mapping conversion in the XY directions, and a total of 3784 images were prepared. Here, the original image data as shown in FIG. 17A is transferred in the X-axis direction (inverted in the vertical direction) as shown in FIG. 17B, and transferred in the Y-axis direction as shown in FIG. 17B (horizontal). Data was expanded to increase the number of image data by preparing a data transferred in both the X-axis and the Y-axis (inverted both vertically and horizontally) as shown in FIG. 17D. In addition, Mean Absolute Error (MAE) was used as the evaluation method. In addition, cross-validation of 5 divisions was also performed. The network structure used in the fifth embodiment is shown in the schematic diagram of FIG. The network structure shown in this figure is composed of a conversion layer (Conv. Layer), a pooling layer (Pooling layer), a conversion layer, a pooling layer, an FC layer (FC layer), and an output layer (Output layer). Furthermore, in the CNN model, the batch size was 20, the learning epoch was 100, and MSE was used for the loss function.

得られた平均絶対誤差を図19のグラフに示す。5分割の交差検証でのMAEでは、1foldが18.0、2foldが17.1、3foldが18.4、4foldが24.2、5foldが17.7となった。このような5分割の交差検証をした結果、平均MAEは19.1g、標準偏差は2.59、学習時間は1時間23分であった。 The obtained mean absolute error is shown in the graph of FIG. In MAE in 5-fold cross-validation, 1fold was 18.0, 2fold was 17.1, 3fold was 18.4, 4fold was 24.2, and 5fold was 17.7. As a result of such cross-validation of 5 divisions, the average MAE was 19.1 g, the standard deviation was 2.59, and the learning time was 1 hour and 23 minutes.

また、どのくらいの質量に対してどのくらいの誤差があるかを表す平均パーセント誤差を図20のグラフに示す。5分割の交差検証でのパーセント誤差は、1foldで0.41、2foldで0.59、3foldで0.27、4foldで0.30、5foldで0.41であった。これらの平均パーセント誤差は39%となった。 Further, the graph of FIG. 20 shows an average percentage error indicating how much error there is for how much mass. The percentage error in cross-validation of 5 divisions was 0.41 for 1fold, 0.59 for 2fold, 0.27 for 3fold, 0.30 for 4fold, and 0.41 for 5fold. These average percent errors were 39%.

以上の結果として、3層CNNモデルを用いた深層学習による推定では、MAPE(平均パーセント誤差)で40%前後となり、200g以上では安定を示した(MAPE20%程度)。一方、50g以下のものは精度が悪かった。
[実施形態6:学習済み多層モデルの適用]
As a result of the above, in the estimation by deep learning using the 3-layer CNN model, the MAPE (mean percentage error) was about 40%, and it was stable at 200 g or more (about 20% of MAPE). On the other hand, those having a weight of 50 g or less had poor accuracy.
[Embodiment 6: Application of trained multi-layer model]

次に、実施形態6として学習済み多層モデルを適用する例を説明する。ここでは転移学習(Transfer learning)とし、FC層のみ再学習させた。転移学習は、あるドメインのタスクについて学習させた学習済みモデルがあるとき、この学習モデルを関連する別のドメインのタスクに対して適合させる手法である。利点として、学習データが少なくて良い点が挙げられる。本実施例では扱う画像データの数が少ないため、この転移学習が適していると考えられる。また、モデルの一部を再学習させるファインチューニングも行った。ここでは習済みモデルとして、VGG16、VGG19、Resnet50、InceptionV3、Xceptionの5つのモデルを用いて、食品の質量の推定を行った。一例として、VGG16の構造を図21に示す。ここでは、block1〜5とFC blockで構成されている。 Next, an example of applying the trained multilayer model as the sixth embodiment will be described. Here, transfer learning was performed, and only the FC layer was relearned. Transfer learning is a method of adapting this learning model to a task of another related domain when there is a trained model trained for the task of one domain. The advantage is that less training data is required. Since the number of image data handled in this embodiment is small, it is considered that this transfer learning is suitable. We also performed fine tuning to relearn a part of the model. Here, the mass of food was estimated using five models, VGG16, VGG19, Resnet50, InceptionV3, and Xception, as trained models. As an example, the structure of VGG 16 is shown in FIG. Here, it is composed of blocks 1 to 5 and FC blocks.

またファインチューニングの適用範囲は、FC blockのみとし、全結合のみ質量推定のため再構築して、再学習した。図21に示すVGG16の例では、右端に示す「FC block」のみ再学習した。 In addition, the scope of application of fine tuning was limited to FC block, and only the full coupling was reconstructed for mass estimation and relearned. In the example of VGG16 shown in FIG. 21, only the “FC block” shown at the right end was relearned.

次に、VGG16の検証結果を説明する。まず、5分割の交差検証をした結果を図22のグラフに示す。5分割の交差検証での平均絶対誤差(MAE)は、1foldで18.9、2foldで18.2、3foldで18.9、4foldで17.6、5foldで18.6となった。以上の平均MAEは18.4g、標準偏差は0.48となった。また学習時間は3時間42分であった。 Next, the verification result of VGG16 will be described. First, the graph of FIG. 22 shows the result of cross-validation of 5 divisions. The mean absolute error (MAE) in cross-validation of 5 divisions was 18.9 for 1fold, 18.2 for 2fold, 18.9 for 3fold, 17.6 for 4fold, and 18.6 for 5fold. The above average MAE was 18.4 g and the standard deviation was 0.48. The learning time was 3 hours and 42 minutes.

次に、VGG16での5分割の交差検証でのパーセント誤差を、図23のグラフに示す。ここでは、1foldで0.52、2foldで0.33、3foldで0.27、4foldで0.27、5foldで0.54であった。平均パーセント誤差は41%となった。 Next, the percentage error in cross-validation of 5 divisions in VGG16 is shown in the graph of FIG. Here, it was 0.52 at 1 fold, 0.33 at 2 fold, 0.27 at 3 fold, 0.27 at 4 fold, and 0.54 at 5 fold. The average percent error was 41%.

一方で、VGG19について、5分割の交差検証でのMAEを求めた結果を図24のグラフに示す。ここでは、1foldで31.2、2foldで23.6、3foldで23.8、4foldで23.8、5foldで25.1であった。また平均MAEは25.5g、標準偏差2.88、学習時間は3時間56分であった。 On the other hand, for VGG19, the result of obtaining MAE in cross-validation of 5 divisions is shown in the graph of FIG. 24. Here, 1 fold was 31.2, 2 fold was 23.6, 3 fold was 23.8, 4 fold was 23.8, and 5 fold was 25.1. The average MAE was 25.5 g, the standard deviation was 2.88, and the learning time was 3 hours and 56 minutes.

また、同じくVGG19の、5分割の交差検証でのパーセント誤差を図25のグラフに示す。ここでは、1foldで0.51、2foldで0.48、3foldで0.54、4foldで0.5、5foldで0.68であった。平均パーセント誤差は54%であった。 Also, the percentage error of VGG19 in the cross-validation of 5 divisions is shown in the graph of FIG. 25. Here, 1 fold was 0.51, 2 fold was 0.48, 3 fold was 0.54, 4 fold was 0.5, and 5 fold was 0.68. The average percent error was 54%.

さらに、Resnet50について、5分割の交差検証でのMAEを図26のグラフに示す。ここでは、1foldで192.3、2foldで193.1、3foldで176.6、4foldで165.7、5foldで174.9であった。平均MAEは180.5g、標準偏差は10.6、学習時間は4時間28分であった。 Further, for Resnet50, the MAE in 5-fold cross-validation is shown in the graph of FIG. Here, 1 fold was 192.3, 2 fold was 193.1, 3 fold was 176.6, 4 fold was 165.7, and 5 fold was 174.9. The average MAE was 180.5 g, the standard deviation was 10.6, and the learning time was 4 hours and 28 minutes.

また、同じくResnet50の5分割の交差検証でのパーセント誤差を図27のグラフに示す。ここでは、1foldで2.6、2foldで4.5、3foldで3.2、4foldで6.3、5foldで4.6であった。平均パーセント誤差は420%であった。 Further, the percentage error in the cross-validation of the 5 divisions of Resnet 50 is also shown in the graph of FIG. 27. Here, 1 fold was 2.6, 2 fold was 4.5, 3 fold was 3.2, 4 fold was 6.3, and 5 fold was 4.6. The average percent error was 420%.

一方、InceptionV3について、5分割の交差検証でのMAEを図28に示す。ここでは、1foldで154.8、2foldで147.6、3foldで141.9、4foldで135.1、5foldで146.9であった。平均MAEは145.2g、標準偏差は6.6であった。 On the other hand, for Inception V3, the MAE in 5-fold cross-validation is shown in FIG. 28. Here, 1 fold was 154.8, 2 fold was 147.6, 3 fold was 141.9, 4 fold was 135.1, and 5 fold was 146.9. The mean MAE was 145.2 g and the standard deviation was 6.6.

またInceptionV3の5分割の交差検証でのパーセント誤差を図29に示す。ここでは、1foldで1.58、2foldで1.64、3foldで1.98、4foldで1.84、5foldで2.56であった。平均パーセント誤差は192%であった。 Further, FIG. 29 shows the percentage error in the cross-validation of the five divisions of Inception V3. Here, 1 fold was 1.58, 2 fold was 1.64, 3 fold was 1.98, 4 fold was 1.84, and 5 fold was 2.56. The average percent error was 192%.

一方、Xceptionの5分割の交差検証でのMAEを図30に示す。ここでは、1foldで171.3、2foldで176.8、3foldで191.1、4foldで188.0、5foldで182.7であった。平均MAEは181.9g、標準偏差は7.2、学習時間は3時間2分であった。 On the other hand, FIG. 30 shows MAE in cross-validation of Xception's 5-fold cross-validation. Here, it was 171.3 for 1 fold, 176.8 for 2 fold, 191.1 for 3 fold, 188.0 for 4 fold, and 182.7 for 5 fold. The average MAE was 181.9 g, the standard deviation was 7.2, and the learning time was 3 hours and 2 minutes.

またXceptionの5分割の交差検証でのパーセント誤差を図31に示す。ここでは、1foldで2.67、2foldで2.01、3foldで2.11、4foldで2.54、5foldで1.46であった。平均パーセント誤差は215%であった。 Further, FIG. 31 shows the percentage error in the cross-validation of Xception in 5 divisions. Here, 1 fold was 2.67, 2 fold was 2.01, 3 fold was 2.11 and 4 fold was 2.54, and 5 fold was 1.46. The average percent error was 215%.

以上から、VGG16が最もよい結果を示した。なお、一般には多層化によってより高性能すると思われているものの、VGG16よりも多層化したResNet、Inceptionなどは、推定モデルの構築が不可能であった。また質量推定にImageNetによる転移学習は有効ではないことも判明した。
[実施例7:学習済みモデルの減層化]
From the above, VGG16 showed the best result. Although it is generally considered that the performance is higher due to the multi-layered structure, it is impossible to construct an estimation model for ResNet, Inception, etc., which are multi-layered than the VGG16. It was also found that transfer learning by ImageNet is not effective for mass estimation.
[Example 7: Reduction of trained model]

さらに、学習済みモデルを減層化した例を、実施形態7として以下説明する。ここでは、VGG16を基に減層化する6つのモデルを検討した。減層化CNNモデルは、VGG16を基に構築した以下の6つの減層化CNNモデルである。
(1)FC Blockのみファインチューニングしたモデル
(2)FC Block+Block5をファインチューニングしたモデル
(3)FC Block+Block5、4をファインチューニングしたモデル
(4)オリジナルのVGG16
(5)VGG16からBlock5を取り除いたモデル
(6)VGG16からBlock5、4を取り除いたモデル
Further, an example in which the trained model is reduced in layer will be described below as the seventh embodiment. Here, we examined six models that reduce the number of layers based on VGG16. The stratified CNN model is the following six stratified CNN models constructed based on VGG16.
(1) Fine-tuned model of FC Block only (2) Fine-tuned model of FC Block + Block5 (3) Fine-tuned model of FC Block + Block5, 4 (4) Original VGG16
(5) Model with Block 5 removed from VGG 16 (6) Model with Block 5 and 4 removed from VGG 16

以上の内、(1)〜(3)はImagenetあり、(4)〜(6)はImagenetなしである。
(1)FC Blockのみファインチューニングしたモデル
Of the above, (1) to (3) have an image, and (4) to (6) have no image.
(1) Fine-tuned model of FC Block only

FC Blockのみファインチューニングしたモデルを、図32に示す。ここでは、Block1から5までImagenetで学習した重みで固定し、FC Block(図において右端)のみを再学習した。
(2)FC Block+Block5をファインチューニングしたモデル
A model in which only FC Block is fine-tuned is shown in FIG. Here, Blocks 1 to 5 were fixed with the weights learned by Imaget, and only FC Block (far right in the figure) was relearned.
(2) Fine-tuned model of FC Block + Block 5

またFC BlockとBlock5をファインチューニングしたモデルを、図33に示す。ここではBlock1から4までImagenetで学習した重みで固定し、FC BlockとBlock5のみを再学習した。
(3)FC Block+Block5、4をファインチューニングしたモデル
A model in which FC Block and Block 5 are fine-tuned is shown in FIG. 33. Here, Blocks 1 to 4 were fixed with the weights learned by Imaget, and only FC Block and Block 5 were relearned.
(3) Fine-tuned model of FC Block + Block 5 and 4

さらにFC BlockとBlock5、4をファインチューニングしたモデルを図34に示す。ここでは、Block1から3までImagenetで学習した重みで固定し、FC BlockとBlock5、4のみ再学習した。
(4)オリジナルのVGG16
Further, FIG. 34 shows a model in which FC Block and Blocks 5 and 4 are fine-tuned. Here, Blocks 1 to 3 were fixed with the weights learned by Imaget, and only FC Block and Blocks 5 and 4 were relearned.
(4) Original VGG16

オリジナルのVGG16を図35に示す。ここでは、全ての層を1から学習しており、Imagenetの重みはない。
(5)VGG16からBlock5を取り除いたモデル
The original VGG16 is shown in FIG. Here, all layers are learned from 1 and there is no Image weight.
(5) Model with Block 5 removed from VGG 16

またVGG16からBlock5を取り除いたモデルを、図36に示す。ここでも1から学習しており、Imagenetの重みがない。
(6)VGG16からBlock5、4を取り除いたモデル
A model in which Block 5 is removed from VGG 16 is shown in FIG. Again, we are learning from 1 and there is no Image weight.
(6) Model with Blocks 5 and 4 removed from VGG16

最後に、VGG16からBlock5、4を取り除いたモデルを図37に示す。ここでも1から学習しており、Imagenetの重みはない。 Finally, FIG. 37 shows a model in which Blocks 5 and 4 are removed from VGG16. Again, we are learning from 1, and there is no Image weight.

以上の学習済みモデルを用いて、評価を行う。ここではデータセットとして、図1に示した白色のコンベアベルトにカットニンジンを載せた画像を946枚、青のコンベアベルトにカットニンジンを載せた画像を559枚、カット玉ねぎを載せた画像を672枚、さらに図2に示した半透明のコンベアベルトの裏面側から、10色のLEDを点灯させた載置面に、カットニンジンを載せた画像を一色毎に100枚、カット玉ねぎを載せた画像を同じく一色毎に110枚、用意した。また評価手法は、次式で示す平均パーセント誤差(MAPE)を用いた。 Evaluation is performed using the above trained model. Here, as a data set, 946 images of cut carrots on the white conveyor belt shown in FIG. 1, 559 images of cut carrots on the blue conveyor belt, and 672 images of cut onions. Furthermore, from the back side of the translucent conveyor belt shown in FIG. 2, 100 images of cut carrots are placed on the mounting surface with 10-color LEDs lit, and 100 images of cut onions are placed for each color. Similarly, 110 sheets were prepared for each color. As the evaluation method, the mean percent error (MAPE) shown by the following equation was used.

Figure 2021139775
Figure 2021139775

上式において、Nは画像数、Tiは真のの質量、Eiは推定した質量を、それぞれ示している。真の質量が小さい部分では、MAPEが高くなり外れ値になる。ここでは0g以上、10g以上、20g以上、…と制限を作り、MAPEを算出した。 In the above equation, N is the number of images, Ti is the true mass, and Ei is the estimated mass. In the part where the true mass is small, the MAPE becomes high and becomes an outlier. Here, the limit was set to 0 g or more, 10 g or more, 20 g or more, and so on, and the MAPE was calculated.

以上の各学習済みモデルを用いた結果を、各コンベアベルト毎に示す。まず、図1に示した照明光として上方からの自然光(反射光)を用いた場合、白色のコンベアベルト上で撮像した画像に対する質量の推定結果を、表3に示す。 The results of using each of the above trained models are shown for each conveyor belt. First, when natural light (reflected light) from above is used as the illumination light shown in FIG. 1, the estimation result of the mass of the image captured on the white conveyor belt is shown in Table 3.

Figure 2021139775
Figure 2021139775

また、青色のコンベアベルトに載せたカットニンジンを撮像した画像に対する質量の推定結果を、表4に示す。 Table 4 shows the results of mass estimation for the image of the cut carrot mounted on the blue conveyor belt.

Figure 2021139775
Figure 2021139775

同じく、青色のコンベアベルトに載せたカット玉ねぎを撮像した画像に対する質量の推定結果を、表5に示す。 Similarly, Table 5 shows the estimation results of the mass of the image of the cut onion placed on the blue conveyor belt.

Figure 2021139775
Figure 2021139775

次に、図5の透過照明を用いた場合において、半透明のコンベアベルトに載せたカット玉ねぎを撮像した画像に対する質量の推定結果の内、0g以上のMAPEを表6に示す。 Next, in the case of using the transmitted illumination of FIG. 5, among the mass estimation results for the image of the cut onion placed on the translucent conveyor belt, 0 g or more of MAPE is shown in Table 6.

Figure 2021139775
Figure 2021139775

さらに、同じく半透明のコンベアベルトに載せたカット玉ねぎを撮像した画像に対する質量の推定結果の内、10g以上のMAPEを表7に示す。 Further, Table 7 shows MAPE of 10 g or more among the mass estimation results for the image of the cut onion placed on the translucent conveyor belt.

Figure 2021139775
Figure 2021139775

さらにまた、同じく半透明のコンベアベルトに載せたカット玉ねぎを撮像した画像に対する質量の推定結果の内、20g以上のMAPEを表8に示す。 Furthermore, Table 8 shows MAPE of 20 g or more among the mass estimation results for the image of the cut onion placed on the translucent conveyor belt.

Figure 2021139775
Figure 2021139775

さらにまた、半透明のコンベアベルトに載せたカットニンジンを撮像した画像に対する質量の推定結果の内、0g以上のMAPEを表9に示す。 Furthermore, Table 9 shows the MAPE of 0 g or more among the mass estimation results for the image of the cut carrot mounted on the translucent conveyor belt.

Figure 2021139775
Figure 2021139775

同じく、半透明のコンベアベルトに載せたカットニンジンを撮像した画像に対する質量の推定結果の内、10g以上のMAPEを表9に示す。 Similarly, Table 9 shows MAPE of 10 g or more among the mass estimation results for the image of the cut carrot mounted on the translucent conveyor belt.

Figure 2021139775
Figure 2021139775

同じく、半透明のコンベアベルトに載せたカットニンジンを撮像した画像に対する質量の推定結果の内、20g以上のMAPEを表11に示す。 Similarly, Table 11 shows a MAPE of 20 g or more among the mass estimation results for the image of the cut carrot mounted on the translucent conveyor belt.

Figure 2021139775
Figure 2021139775

以上の透過照明を用いたコンベアベルトに載せたカット玉ねぎの画像に対し、全色データの学習結果をまとめたMAPEを、表12に示す。 Table 12 shows a MAPE summarizing the learning results of all color data with respect to the image of the cut onion placed on the conveyor belt using the above transmitted illumination.

Figure 2021139775
Figure 2021139775

同様に、透過照明を用いたコンベアベルトに載せたカットニンジンの画像に対し、全色データの学習結果をまとめたMAPEを、表13に示す。 Similarly, Table 13 shows a MAPE summarizing the learning results of all color data for an image of a cut carrot placed on a conveyor belt using transmitted illumination.

Figure 2021139775
Figure 2021139775

以上から、反射光を用いた画像について、白色のコンベアベルトでは12層モデルが好ましいことが判った。
(畳み込みニューラルネット)
From the above, it was found that the 12-layer model is preferable for the white conveyor belt for the image using the reflected light.
(Convolutional neural network)

以上の結果をまとめる。上述のとおり入力画像を取得した上で、質量推定部により機械学習を行うに際しては、畳み込みニューラルネットを用いることが好ましい。畳み込みニューラルネットの構成法は、食品についての情報とは異なる自然画像セットImageNetを学習させたものを用いる。本実施形態で用いた機械学習手法は、(1)非ニューラルネットと、(2)深層学習(ディープニューラルネット)と、(3)事前学習済み畳み込みニューラルネットと、(4)VGG16畳み込みニューラルネット減層モデルである。なお、(1)非ニューラルネット手法では、特徴抽出が必要であるため、実施形態1の反射光コンベアベルト画像では、物体領域面積、物体境界領域(エッジ量)、及び上記2つの併用を、特徴量として用いた。また実施形態3の透過光画像では、物体領域の輝度情報を特徴量として用いた。さらに機械学習手法として、(1)非ニューラルネットでは、線形回帰、非線形多項式回帰、サポートベクトル非線形回帰を用いた。また(2)深層学習では、畳み込みニューラルネット5層と、事前学習済み畳み込みニューラルネットを機械学習手法として用いた。事前学習済み畳み込みニューラルネットでは、VGG16、VGG19、ResNet50、InceptionV3、Xceptionを用いている。さらに(3)事前学習済み畳み込みニューラルネット再学習層では、機械学習手法として、全結合層(FC)のみ再学習、FC+ブロック5、FC+ブロック4、5を用いた。最後に(4)VGG16畳み込みニューラルネット減層モデルでは、機械学習手法として、ブロック4減層(12層)、ブロック4、5減層(9層)を用いた。まず(2)深層学習の結果を表14に示す。 The above results are summarized. It is preferable to use a convolutional neural network when performing machine learning by the mass estimation unit after acquiring the input image as described above. As the method of constructing the convolutional neural network, a natural image set ImageNet that is different from the information about food is trained. The machine learning methods used in this embodiment are (1) non-neural network, (2) deep learning (deep neural network), (3) pre-learned convolutional neural network, and (4) VGG16 convolutional neural network reduction. It is a layer model. Since (1) the non-neural network method requires feature extraction, the reflected light conveyor belt image of the first embodiment features the object area area, the object boundary area (edge amount), and the combination of the above two. Used as a quantity. Further, in the transmitted light image of the third embodiment, the luminance information of the object region is used as the feature amount. Furthermore, as machine learning methods, (1) for non-neural networks, linear regression, nonlinear polynomial regression, and support vector nonlinear regression were used. In (2) deep learning, five layers of convolutional neural networks and a pre-learned convolutional neural network were used as machine learning methods. In the pre-learned convolutional neural network, VGG16, VGG19, ResNet50, InceptionV3, and Xception are used. Further (3) In the pre-learned convolutional neural network re-learning layer, only the fully connected layer (FC) was re-learned, and FC + block 5 and FC + blocks 4 and 5 were used as the machine learning method. Finally, in (4) VGG16 convolutional neural network layer reduction model, block 4 layer reduction (12 layers) and block 4, 5 layer reduction (9 layers) were used as machine learning methods. First, (2) the results of deep learning are shown in Table 14.

Figure 2021139775
Figure 2021139775

ここでは、図1の搬送部10として青色のコンベアベルトを用いて、推定対象物としてカットされたニンジンでの深層学習モデル比較を行った。一般に高い性能を得られると言われている40〜50層クラスのResNet(残差ネット)やGoogleのInceptionなどはよい性能が得られず、VGG16や5層モデルの性能が良い結果が得られた。ただし、1.5倍程度の判定誤差がある。 Here, using a blue conveyor belt as the transport unit 10 in FIG. 1, a deep learning model comparison was performed using carrots cut as an estimation target. Good performance was not obtained for ResNet (residual net) of 40 to 50 layer class and Google's Inception, which are generally said to be able to obtain high performance, and good results were obtained for VGG16 and 5-layer models. .. However, there is a judgment error of about 1.5 times.

そこで、VGG16をベースとして、再学習層を変化させるよう、数層を削除して減層したモデルにより推定したところ、より良い性能を発揮できることが分かった。この結果を表15に示す。ここでは、図1の搬送部10として白色のコンベアベルト、青色のコンベアベルトを用い、さらに図5の透過光を適用して、ニンジン・タマネギの質量推定深層学習モデルを比較している。また線形回帰・多項式回帰・サポートベクトル回帰では、1〜9g以上(帯1〜9)を計測対象とし、表2内の値は最も精度の良い帯幅)を示している。 Therefore, based on VGG16, it was estimated by a model in which several layers were deleted and the layers were reduced so as to change the re-learning layer, and it was found that better performance could be exhibited. The results are shown in Table 15. Here, a white conveyor belt and a blue conveyor belt are used as the transport unit 10 of FIG. 1, and the transmitted light of FIG. 5 is further applied to compare the mass estimation deep learning model of carrots and onions. Further, in linear regression, polynomial regression, and support vector regression, 1 to 9 g or more (bands 1 to 9) are measured, and the values in Table 2 show the most accurate band width).

データ全体(0〜600グラム)では、特に質量の小さい場合の誤差が深層学習では大きい一方、回帰モデルの誤差は十数パーセントであった。これを、10g以上(ニンジン)または5g以上(タマネギ)の場合に限って推定させると、誤差は、実施形態1の反射光で5〜6%、実施形態3の透過光で4〜8%となった。透過光の効果は、推定対象物の種類によっては、厚みの推定ができるため精度上げることが可能であることが分かった。 In the whole data (0 to 600 grams), the error was large in deep learning, especially when the mass was small, while the error in the regression model was a dozen percent. When this is estimated only in the case of 10 g or more (carrot) or 5 g or more (onion), the error is 5 to 6% for the reflected light of the first embodiment and 4 to 8% for the transmitted light of the third embodiment. became. It was found that the effect of transmitted light can be improved in accuracy because the thickness can be estimated depending on the type of the object to be estimated.

このようにカットされた野菜の質量推定に対し、コンベアベルトと推定対象物の分離が容易である場合は、機械学習で誤差10%程度に、10g以上に限定すれば5〜6%で推定可能であることが確認された。また照明光として透過光を用いる場合、輝度差で推定対象物の厚みを反映させることで、さらに4%程度まで精度を高めることが可能であることが確認された。 When the conveyor belt and the estimation target are easily separated from the mass estimation of the vegetables cut in this way, the error can be estimated to be about 10% by machine learning, and 5 to 6% if limited to 10 g or more. It was confirmed that. It was also confirmed that when transmitted light is used as the illumination light, the accuracy can be further improved to about 4% by reflecting the thickness of the estimated object by the brightness difference.

Figure 2021139775
Figure 2021139775

なお、以上の例では搬送面を一定量移動させた後、停止させて撮像部で静止画を撮像する態様を説明した。この方法であれば、推定された重量を累積し、所定の質量に達した時点で搬送部を停止させ、包装する等の処理が可能となる。ただ本発明は、搬送面を連続的に移動させたまま撮像部で動画像を撮像し、この動画像を演算部で取得して推定対象物の質量を連続的に解析するよう構成してもよい。この方法であれば、搬送面を停止させないため連続的な処理が可能となり、搬送部での停止、移動の切り替え回数を低減して機械的な負荷を低減できる上、タクトタイムを減少できる。 In the above example, a mode in which the transport surface is moved by a certain amount and then stopped to capture a still image with the imaging unit has been described. With this method, it is possible to accumulate the estimated weight, stop the transport unit when the weight reaches a predetermined mass, and perform processing such as packaging. However, the present invention may be configured such that the image pickup unit captures a moving image while the transport surface is continuously moved, and the calculation unit acquires the moving image to continuously analyze the mass of the estimated object. good. With this method, since the transport surface is not stopped, continuous processing is possible, the number of times of switching between stop and movement at the transport portion can be reduced, the mechanical load can be reduced, and the tact time can be reduced.

また推定された重量を連続的に累積できるので、所定の質量に達した時点で搬送部を停止させて包装する、又は搬送部を停止させずに包装する等の処理が可能となり、質量の推定タイミングを細かくしてより高精度な包装が可能となる。 In addition, since the estimated weight can be continuously accumulated, it is possible to perform processing such as stopping and packaging the transport unit when the predetermined mass is reached, or packaging without stopping the transport unit, and estimating the mass. Finer timing enables more accurate packaging.

本発明に係る質量推定装置は、画像を用いて質量を推定して梱包する包装機、特に食品の梱包機に好適に利用できる。なかでも、水分量の多いニンジンや玉ねぎなどのカット野菜は、ロードセルなどに載せて質量測定を行うと、野菜の一部がロードセルに付着して清掃が必要となり、手間がかかっていた。これに対して本発明に係る質量推定装置を用いることで、ロードセルなどに載せる必要をなくし、また清掃の必要もなくして、効率良く利用できる。また、カットした油揚げなどの加工食品にも適用できる。さらに食品に限らず、錠剤などの薬品、あるいはねじなどの部品の測量にも利用できる。 The mass estimation device according to the present invention can be suitably used for a packaging machine that estimates and packs a mass using an image, particularly a food packing machine. Among them, cut vegetables such as carrots and onions, which have a large amount of water, were placed on a load cell and the mass was measured. As a result, some of the vegetables adhered to the load cell and required cleaning, which was troublesome. On the other hand, by using the mass estimation device according to the present invention, it is not necessary to put it on a load cell or the like, and it is not necessary to clean it, so that it can be used efficiently. It can also be applied to processed foods such as cut fried tofu. Furthermore, it can be used not only for foods but also for surveying chemicals such as tablets and parts such as screws.

1000…食品包装機
100、100’、200、300…質量推定装置
10…搬送部
11…搬送面
12、12’…コンベアベルト
20…撮像部
30…演算部
31…画像処理部
32…位置特定部
33…質量推定部
34…出力部
41…マーカ表示面
42…位置特定マーカ
43…表示ベルト
44、44’…壁部
50…照明部
61…シュータ
62…包装部
WK…推定対象物
1000 ... Food packaging machine 100, 100', 200, 300 ... Mass estimation device 10 ... Conveyor unit 11 ... Conveyor surface 12, 12'... Conveyor belt 20 ... Imaging unit 30 ... Calculation unit 31 ... Image processing unit 32 ... Position identification unit 33 ... Mass estimation unit 34 ... Output unit 41 ... Marker display surface 42 ... Position identification marker 43 ... Display belt 44, 44'... Wall part 50 ... Lighting unit 61 ... Shooter 62 ... Packaging unit WK ... Estimated object

Claims (13)

搬送面にばら撒かれた多数の推定対象物の質量を部分的に推定するための質量推定装置であって、
前記搬送面にばら撒かれた推定対象物を搬送する搬送部と、
前記搬送部の搬送方向に沿って設けられた位置特定マーカと、
前記搬送部の上方で固定され、該搬送部で搬送された推定対象物の内、前記搬送面の一部の領域に存在する推定対象物の画像を、前記位置特定マーカを含めて撮像する撮像部と、
前記撮像部で撮像した前記位置特定マーカを含む画像から、該位置特定マーカに基づいて所定の領域を特定する位置特定部と、
前記撮像部で撮像した前記位置特定マーカを含む画像から、前記位置特定部で特定された所定の領域内に含まれる推定対象物を抽出する画像処理部と、
前記画像処理部で抽出された推定対象物の抽出画像に対し、前記位置特定部で特定された位置における推定対象物の質量を推定する質量推定部と、
前記質量推定部で推定された、特定領域の質量を領域毎に累積して、搬送された推定対象物の質量を出力する出力部と、
を備える質量推定装置。
It is a mass estimation device for partially estimating the mass of a large number of estimation objects scattered on the transport surface.
A transport unit that transports the estimated objects scattered on the transport surface, and a transport unit that transports the estimated objects.
A position identification marker provided along the transport direction of the transport unit, and
Imaging that captures an image of an estimated object that is fixed above the transport unit and that exists in a part of the transport surface among the estimated objects that are transported by the transport unit, including the position identification marker. Department and
From the image including the position identification marker captured by the imaging unit, a position identification unit that identifies a predetermined region based on the position identification marker, and a position identification unit.
An image processing unit that extracts an estimation target included in a predetermined region specified by the position identification unit from an image including the position identification marker captured by the image pickup unit, and an image processing unit.
With respect to the extracted image of the estimation target object extracted by the image processing unit, a mass estimation unit that estimates the mass of the estimation target object at the position specified by the position identification unit, and a mass estimation unit.
An output unit that accumulates the mass of a specific region estimated by the mass estimation unit for each region and outputs the mass of the transported estimated object.
A mass estimation device including.
請求項1に記載の質量推定装置であって、
前記搬送部がコンベアベルトであり、
前記位置特定マーカが、前記コンベアベルトの少なくとも一方の端縁に沿って設けられたマーカ表示面に表示されてなる質量推定装置。
The mass estimation device according to claim 1.
The transport unit is a conveyor belt.
A mass estimation device in which the position-specific marker is displayed on a marker display surface provided along at least one end edge of the conveyor belt.
請求項2に記載の質量推定装置であって、さらに、
前記搬送部の搬送面と、前記マーカ表示面との間に設けられた壁部を備える質量推定装置。
The mass estimation device according to claim 2, further
A mass estimation device including a wall portion provided between the transport surface of the transport portion and the marker display surface.
請求項3に記載の質量推定装置であって、さらに、
前記コンベアベルトに隣接して配置された、該コンベアベルトと併走する表示ベルトを備え、
前記表示ベルト上に前記位置特定マーカが表示されてなる質量推定装置。
The mass estimation device according to claim 3, further
A display belt arranged adjacent to the conveyor belt and running in parallel with the conveyor belt is provided.
A mass estimation device in which the position identification marker is displayed on the display belt.
請求項2〜4のいずれか一項に記載の質量推定装置であって、
前記コンベアベルトの色が、推定対象物の色と異なる色に着色されてなる質量推定装置。
The mass estimation device according to any one of claims 2 to 4.
A mass estimation device in which the color of the conveyor belt is colored differently from the color of the object to be estimated.
請求項1〜5のいずれか一項に記載の質量推定装置であって、さらに、
前記搬送部で搬送される推定対象物を照明する照明部を備え、
前記照明部が、前記搬送部の、搬送面に対して前記撮像部を配置した面と反対側に配置されており、
前記照明部からの照明光が、前記搬送面を透過して推定対象物を照明する透過照明光であり、
前記透過照明光による照明の元で撮像された画像から、推定対象物の高さを推定可能としてなる質量推定装置。
The mass estimation device according to any one of claims 1 to 5, further comprising:
A lighting unit for illuminating an estimated object transported by the transport unit is provided.
The illumination unit is arranged on the side of the transport unit opposite to the surface on which the image pickup unit is arranged with respect to the transport surface.
The illumination light from the illumination unit is transmitted illumination light that passes through the transport surface and illuminates the estimated object.
A mass estimation device capable of estimating the height of an object to be estimated from an image captured under illumination by the transmitted illumination light.
請求項1〜6のいずれか一項に記載の質量推定装置であって、
前記質量推定部が、画像処理部で抽出された推定対象物の抽出画像に対し、予め深層学習により画像と質量の関係を学習させた学習済みモデルに基づいて、前記位置特定部で特定された位置における推定対象物の質量を推定するよう構成してなる質量推定装置。
The mass estimation device according to any one of claims 1 to 6.
The mass estimation unit is specified by the position identification unit based on a trained model in which the relationship between the image and the mass is learned in advance by deep learning with respect to the extracted image of the estimation target object extracted by the image processing unit. A mass estimation device configured to estimate the mass of an object to be estimated at a position.
請求項7に記載の質量推定装置であって、
前記質量推定部が、畳み込みニューラルネットを用いた機械学習により画像と質量の関係を学習させた学習済みモデルを用いてなる質量推定装置。
The mass estimation device according to claim 7.
A mass estimation device in which the mass estimation unit uses a trained model in which the relationship between an image and mass is learned by machine learning using a convolutional neural network.
請求項7又は8に記載の質量推定装置であって、
前記学習済みモデルが、VGG14〜VGG18のいずれかである質量推定装置。
The mass estimation device according to claim 7 or 8.
A mass estimation device in which the trained model is any one of VGG14 to VGG18.
請求項7〜9のいずれか一項に記載の質量推定装置であって、
前記学習済みモデルが、VGG16である質量推定装置。
The mass estimation device according to any one of claims 7 to 9.
A mass estimation device in which the trained model is VGG16.
請求項7又は8に記載の質量推定装置であって、
前記学習済みモデルが、VGGから層数を低減したものである質量推定装置。
The mass estimation device according to claim 7 or 8.
A mass estimation device in which the trained model is a VGG with a reduced number of layers.
請求項1〜11のいずれか一項に記載の質量推定装置であって、
推定対象物が、カット野菜である質量推定装置。
The mass estimation device according to any one of claims 1 to 11.
A mass estimation device whose estimation target is cut vegetables.
推定対象物を所定の質量毎に包装する食品包装機であって、
前記搬送面にばら撒かれた推定対象物を搬送する搬送部と、
前記搬送部の搬送方向に沿って設けられた位置特定マーカと、
前記搬送部の上方で固定され、該搬送部で搬送された推定対象物の内、前記搬送面の一部の領域に存在する推定対象物の画像を、前記位置特定マーカを含めて撮像する撮像部と、
前記撮像部で撮像した前記位置特定マーカを含む画像から、推定対象物を抽出する画像処理部と、
前記撮像部で撮像した前記位置特定マーカを含む画像から、前記搬送部の搬送面の位置を特定する位置特定部と、
前記画像処理部で抽出された推定対象物の抽出画像に対し、予め深層学習により画像と質量の関係を学習させた学習済みモデルに基づいて、前記位置特定部で特定された位置における推定対象物の質量を推定する質量推定部と、
前記質量推定部で推定された、特定領域の質量を領域毎に累積して、搬送された推定対象物の質量を出力する出力部と、
前記質量推定部で質量を推定済みの推定対象物を、前記搬送部で搬送して保持するストッカと、
前記出力物の出力に基づいて、累積された推定対象物の質量が所定値となった段階で、前記ストッカに保持された推定対象物を包装する包装部と、
を備える食品包装機。
A food packaging machine that wraps estimated objects in predetermined masses.
A transport unit that transports the estimated objects scattered on the transport surface, and a transport unit that transports the estimated objects.
A position identification marker provided along the transport direction of the transport unit, and
Imaging that captures an image of an estimated object that is fixed above the transport unit and that exists in a part of the transport surface among the estimated objects that are transported by the transport unit, including the position identification marker. Department and
An image processing unit that extracts an estimation target from an image including the position identification marker captured by the imaging unit, and an image processing unit.
From the image including the position specifying marker captured by the imaging unit, a position specifying unit that specifies the position of the transport surface of the transport unit and a position specifying unit.
Based on a learned model in which the relationship between the image and the mass is learned in advance by deep learning for the extracted image of the estimated object extracted by the image processing unit, the estimated object at the position specified by the position specifying unit. Mass estimation unit that estimates the mass of
An output unit that accumulates the mass of a specific region estimated by the mass estimation unit for each region and outputs the mass of the transported estimated object.
A stocker that transports and holds an estimation target whose mass has been estimated by the mass estimation unit, and
When the cumulative mass of the estimated object reaches a predetermined value based on the output of the output, the packaging unit for packaging the estimated object held in the stocker and the packaging unit.
Food packaging machine equipped with.
JP2020038273A 2020-03-05 2020-03-05 Mass estimation device and food packaging machine Pending JP2021139775A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020038273A JP2021139775A (en) 2020-03-05 2020-03-05 Mass estimation device and food packaging machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020038273A JP2021139775A (en) 2020-03-05 2020-03-05 Mass estimation device and food packaging machine

Publications (1)

Publication Number Publication Date
JP2021139775A true JP2021139775A (en) 2021-09-16

Family

ID=77668370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020038273A Pending JP2021139775A (en) 2020-03-05 2020-03-05 Mass estimation device and food packaging machine

Country Status (1)

Country Link
JP (1) JP2021139775A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7126302B1 (en) 2022-06-06 2022-08-26 サイエナジー株式会社 Inspection device, inspection method, and program
JP7448720B1 (en) 2023-07-27 2024-03-12 チョーチアン ヘンイー ペトロケミカル カンパニー,リミテッド Control method, apparatus, electronic device, storage medium and program
JP2024048487A (en) * 2022-09-28 2024-04-09 株式会社オーツボ Seaweed grade determination processing system, seaweed grade determination method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7126302B1 (en) 2022-06-06 2022-08-26 サイエナジー株式会社 Inspection device, inspection method, and program
JP2023178910A (en) * 2022-06-06 2023-12-18 サイエナジー株式会社 Inspection device, inspection method and program
JP2024048487A (en) * 2022-09-28 2024-04-09 株式会社オーツボ Seaweed grade determination processing system, seaweed grade determination method, and program
JP7448720B1 (en) 2023-07-27 2024-03-12 チョーチアン ヘンイー ペトロケミカル カンパニー,リミテッド Control method, apparatus, electronic device, storage medium and program

Similar Documents

Publication Publication Date Title
JP2021139775A (en) Mass estimation device and food packaging machine
TWI736261B (en) Product handling apparatus
US11030442B1 (en) Associating events with actors based on digital imagery
US11284041B1 (en) Associating items with actors based on digital imagery
CN108700869A (en) For identification with the sensory perceptual system and method that handle various objects
WO2019019525A1 (en) Convolutional neural network-based method and device for settlement of image recognition technology
US20160078414A1 (en) Solid waste identification and segregation system
CN107328364A (en) A kind of volume, weight measuring system and its method of work
JP5904097B2 (en) Article information display device
WO2010132162A2 (en) System and method for dimensioning objects using stereoscopic imaging
JP2018066660A (en) Inspection device
US10346659B1 (en) System for reading tags
JP7300535B2 (en) measuring system
KR200481743Y1 (en) Apparatus for collecting 2d barcode for medicine across the board
Piccinini et al. An automated picking workstation for healthcare applications
Caldwell Automation in food manufacturing and processing
CN210402442U (en) Sorting device and sorting system
JP7388871B2 (en) Judgment device, judgment method and judgment program
JP6730091B2 (en) Loading procedure determination device and loading procedure determination program
JP7418743B2 (en) Identification transfer device and identification transfer method for target workpieces
JP6557525B2 (en) Inspection method and inspection system
JP7401995B2 (en) Placement status management device, placement status management method, and placement status management program
US10984205B1 (en) Error tolerant system for reading tags
JP2021086534A (en) Counter, control method, and program
JP3243688U (en) Seaweed grade determination processing system