JP2023094434A - 分類装置、分類方法、及び分類システム - Google Patents

分類装置、分類方法、及び分類システム Download PDF

Info

Publication number
JP2023094434A
JP2023094434A JP2021209910A JP2021209910A JP2023094434A JP 2023094434 A JP2023094434 A JP 2023094434A JP 2021209910 A JP2021209910 A JP 2021209910A JP 2021209910 A JP2021209910 A JP 2021209910A JP 2023094434 A JP2023094434 A JP 2023094434A
Authority
JP
Japan
Prior art keywords
classification
images
size
image
grade
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021209910A
Other languages
English (en)
Inventor
崇 片山
Takashi Katayama
貴宣 森
Takanobu Mori
順二 古谷
Junji Furuya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nisshinbo Holdings Inc
Original Assignee
Nisshinbo Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nisshinbo Holdings Inc filed Critical Nisshinbo Holdings Inc
Priority to JP2021209910A priority Critical patent/JP2023094434A/ja
Priority to PCT/JP2022/045863 priority patent/WO2023120306A1/ja
Publication of JP2023094434A publication Critical patent/JP2023094434A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/85Investigating moving fluids or granular solids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】分類対象物の外周面における互いに異なる領域のそれぞれの状態に基づいて分類を行う。【解決手段】分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得する画像取得部と、前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物における、外観の優劣度である品位を分類する品位分類部と、を備える。【選択図】図4

Description

本発明は、分類装置、分類方法、及び分類システムに関する。
分類対象物としての苺を分類するシステムがある(例えば、特許文献1参照)。特許文献1のシステムでは、苺の外観を撮像した画像を用いて当該苺の大きさや形状を分類する。これにより、計測機器などを苺に接触させることなく非接触にて苺を分類することができる。したがって、苺を傷つけずに分類することが可能となる。
特開平7-87477号公報
しかしながら、分類を行う場合、分類対象物の全体の状態に基づいて分類が行われる方が望ましい。特許文献1では苺を一方の方向から撮像した画像を用いた分類が行なわれ、他方の状態を考慮した分類が行われていなかった。
本発明は、このような状況に鑑みてなされたものであり、分類対象物の外周面における互いに異なる領域のそれぞれの状態に基づいて分類を行うことが可能となる分類装置、分類方法、及び分類システムを提供することを目的とする。
本発明の、分類装置は、分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得する画像取得部と、前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物における、外観の優劣度である品位を分類する品位分類部と、を備える。
本発明の、分類装置は、分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得する画像取得部と、前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物のサイズを分類するサイズ分類部と、を備える。
本発明の、分類システムは、分類対象物の外周面における互いに異なる領域が含まれる複数の画像を撮像する撮像装置と、上記に記載の分類装置と、を備え、前記分類装置は、前記撮像装置により撮像された前記複数の画像を取得する。
本発明の、分類方法は、分類装置であるコンピュータが行う分類方法であって、画像取得部が、分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得し、品位分類部が、前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物における、外観の優劣度である品位を分類する。
本発明の、分類方法は、分類装置であるコンピュータが行う分類方法であって、画像取得部が、分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得し、サイズ分類部が、前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物のサイズを分類する。
本発明によれば、分類対象物の外周面における互いに異なる領域のそれぞれの状態に基づいて分類を行うことが可能となる。
実施形態による分類装置10が適用される分類システム1の例を示す概要図である。 実施形態によるサンプルSPとカメラKの位置関係を説明する図である。 実施形態によるサンプルSPとカメラKの位置関係を説明する図である。 実施形態による分類装置10の構成例を示すブロック図である。 実施形態による分類装置10が行う処理を説明する図である。 実施形態による分類装置10が行う処理を説明する図である。 実施形態による分類装置10が行う処理を説明する図である。 実施形態による分類装置10が行う処理の流れを示すフローチャートである。 実施形態による分類装置10が行う処理の流れを示すフローチャートである。 実施形態による分類装置10が行う処理の流れを示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。以下では、分類対象物が苺である場合を例示して説明するが、これに限定されない。分類対象物は、任意の物体であってよい。本実施形態は、分類対象物として、例えば、円錐状のもの、或いは球状のものに適用可能である。円錐状の分類対象物としては、例えば、トウモロコシ、アスパラガスなどの農作物、大福などの加工品がある。球状のものとしては、例えば、りんご、トマトなどの農作物がある。
(分類システム1について)
まず、分類システム1について、図1を用いて説明する。図1は、実施形態による分類装置10が適用される分類システム1の例を示す概要図である。分類システム1は、例えば、苺を栽培する植物工場に設置され、植物工場で収穫された苺を分類する作業を行う。
分類システム1は、例えば、コンベアCVと、複数(この図の例では、3つ)のカメラK(カメラK1~K3)と、分類装置10と、アームロボットRBと、表示装置20とを備える。コンベアCVは、分類対象とする苺(以下、サンプルSPという)を搬送する。分類システム1では、サンプルSPを搬送する過程において、工程KT1~KT3が行われる。
工程KT1では、サンプルSPを分類する作業が行われる。例えば、工程KT1では、カメラKは、サンプルSPを撮像し、撮像した画像データを分類装置10に出力する。分類装置10は、カメラKによって撮像された画像に基づいてサンプルSPの等級を分類し、分類結果をアームロボットRB及び表示装置20に出力する。
工程KT2では、分類結果に基づいてサンプルSPを移載する作業が行われる。例えば、工程KT2では、アームロボットRBは、分類装置10から取得した分類結果に基づいてサンプルSPを分岐レーン等に移載する。
工程KT3では、作業員Pによる手作業が行われる。例えば、工程KT3では、表示装置20は、分類結果に基づいて、分類された苺を梱包する等、作業員Pに対する指示を表示する。作業員Pは、表示装置20に表示された指示に従い作業を行う。
分類システム1では、サンプルSPの品位及びサイズ(大きさ)をそれぞれ分類し、品位に係る分類結果と、サイズに係る分類結果とに基づいて、総合的にサンプルSPの等級を決定する。ここでの品位とは、外観の優劣度である。品位は、苺の表面の状態、例えば、傷の有無やテクスチャなどの質感、色味等に基づく優劣度である。分類システム1では、画像に基づいて品位及びサイズを分類する。これにより、外観と大きさとに基づく総合的な分類を、計測機器などを苺に接触させることなく非接触にて行うことが可能となる。
(撮像について)
ここで、工程KT1において、カメラKがサンプルSPを撮像する方法について、図2及び図3を用いて説明する。図2及び図3は、実施形態によるサンプルSPとカメラKの位置関係を説明する図である。
一般に、成熟した苺の果実部分はやわらかくて傷つき易い状態にある場合が多い。このようなやわらかくて傷つき易い状態にある苺の果実部分を載置面と接触するように載置してしまうと、果実部分が自重により損傷してしまう可能性がある。
この対策として本実施形態では、サンプルSPを、ヘタ部分が下側、先端部分が上側となるように配置する。これにより、果実部分を載置面に接触させないようにして果実部分が自重により損傷してしまうことを抑制できるようにする。
また、苺の外皮は可食部、つまり食べられる部分である。このため、苺の外皮に付着したゴミや汚れを精度よく検知する必要がある。さらに、苺の外皮には粒状の痩果(種のようにみえるもの)がついており、痩果の周囲がやや窪んだ複雑な形状をしている。このように表面の状態が複雑なテクスチャである苺に対し、品位を正しく分類するには、少なくとも痩果と付着汚れを正しく区別する必要がある。
例えば、逆光にて撮像した苺の画像を、苺の陰影部分とそれ以外の部分とに二値化処理するなどして生成した苺のシルエットを用いてその苺の大きさや形状を分類するようなシステムでは、苺の外皮に付着したゴミや汚れを精度よく検知することが困難である。また、苺をモノトーンで撮像した画像を用いた分類では、痩果と、苺の表面に付着した汚れとを精度よく区別することが難しい。
この対策として、本実施形態では、苺を色付き(カラー)で撮像し、撮像したカラー画像を用いて苺の品位を分類する。これにより、色の相違に基づいて、痩果と苺の表面に付着した汚れとを精度よく区別できるようにする。
さらに、本実施形態では、サンプルSPの外周面における互いに異なる領域のそれぞれが撮像された複数の画像を用いて分類を行う。これにより、苺の外周面における互いに異なる領域のそれぞれの状態に基づいて分類を行うことができるようにする。ここでの複数の画像は、例えば、互いに異なる複数の撮像位置のそれぞれからサンプルSPが撮像された画像である。この場合、複数の撮像位置のそれぞれにカメラKが配置される。
図2には、サンプルSPとカメラKの位置関係を上方からみた斜視図が模式的に示されている。この図の例に示すように、カメラK1~K3は、サンプルSPを中心とする円Eの円周上に等間隔に、すなわち、隣り合う撮像位置と、円Eの中心とがなす角度が等角度となるように配置される。これにより、サンプルSPを三方向から撮像することができ、サンプルSPの外周面の全体の状態を撮像することが可能となる。
図3には、サンプルSPとカメラKの位置関係を正面からみた正面図が模式的に示されている。この図の例に示すように、カメラK1~K3は、サンプルSPを通り鉛直方向に向かう直線に垂直な平面上にある円Eに配置される。すなわち、カメラK1~K3は、サンプルSPの配置位置から、それぞれの撮像位置までの距離が等距離であり、且つ、サンプルSPの配置位置からそれぞれの撮像位置を結ぶ直線と水平面とのなす角度が等角度であるように配置される。これにより、複数の画像のそれぞれについて、同じ解像度、且つ同程度の大きさにてサンプルSPを撮像することができる。
なお、本実施形態では、複数台のカメラKのそれぞれを異なる位置に配置して撮像する場合を例示したが、これに限定されることはない。例えば、複数の画像が、1台のカメラKが設置された1つの撮像位置から撮像された画像であってもよい。この場合、例えば、サンプルSPが配置された台を、サンプルSPを通り鉛直方向に向かう直線を回転軸として回転させることによって、当該1つの撮像位置からサンプルSPの外周面における互いに異なる領域が含まれるように複数の画像が撮像される。これにより、1つのカメラKによって、サンプルSPの外周面における互いに異なる領域を撮像することができる。
(分類装置10について)
ここで、分類装置10について、図4を用いて説明する。図4は、実施形態による分類装置10の構成例を示すブロック図である。分類装置10は、コンピュータであり、例えば、PC(Personal Computer)、マイコン(microcontroller)、PLC(Programmable Logic Controller)等である。
図4に示す通り、分類装置10は、例えば、通信部11と、記憶部12と、制御部13とを備える。通信部11は、外部の装置と通信する。ここでの外部の装置とは、カメラK、アームロボットRB、及び表示装置20である。
記憶部12は、HDD(Hard Disk Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)などの記憶媒体、あるいはこれらの組合せによって構成される。記憶部12は、分類装置10の各種処理を実行するためのプログラム、及び各種処理を行う際に利用される一時的なデータを記憶する。
記憶部12は、例えば、品位分類学習済モデル120と、サイズ分類学習済モデル121を記憶する。品位分類学習済モデル120は、モデルに入力された入力画像に基づいてサンプルSPの品位を推定するモデルである。ここでの入力画像は、サンプルSPの外周面が撮像された画像である。品位分類学習済モデル120は、学習用データセットを用いた機械学習を実行することにより苺と品位との対応関係を学習したモデルである。対応関係を学習することにより、品位分類学習済モデル120は、入力画像に基づいて苺の品位を推定することができるようになる。ここでの学習用データセットは、不特定の苺の外周面が撮像された学習用画像と当該学習用画像に示された苺の品位とが対応付けられた情報である。
サイズ分類学習済モデル121は、モデルに入力された入力画像に基づいてサンプルSPのサイズを推定するモデルである。ここでの入力画像は、サンプルSPの外周面が撮像された画像である。サイズ分類学習済モデル121は、学習用データセットを用いた機械学習を実行することにより苺とサイズとの対応関係を学習したモデルである。対応関係を学習することにより、サイズ分類学習済モデル121は、入力画像に基づいて苺のサイズを推定することができるようになる。ここでの学習用データセットは、不特定の苺の外周面が撮像された学習用画像と当該学習用画像に示された苺のサイズとが対応付けられた情報である。
品位分類学習済モデル120、或いはサイズ分類学習済モデル121は、既存の学習モデルに、それぞれの分類対象に応じた分類を精度よく行うことができるようになるまで、学習用データセットを用いた機械学習を繰り返し実行することによって生成される。ここでの既存の学習モデルは、例えば、CNN(Convolutional Neural Network)、決定木、階層ベイズ、SVM(Support Vector Machine)などである。
制御部13は、分類装置10がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。制御部13は、分類装置10を統括的に制御する。制御部13は、例えば、画像取得部130と、品位分類部131と、サイズ分類部132と、総合分類部133と、分類結果出力部134とを備える。
画像取得部130は、サンプルSPの外周面における互いに異なる領域が含まれる複数の画像のそれぞれに対応する画像データを取得する。本実施形態では、画像取得部130は、カメラK1~K3のそれぞれが撮像した画像に対応する画像データを、カメラK1~K3のそれぞれから取得する。画像取得部130は、取得した画像を、品位分類部131及びサイズ分類部132に出力する。
品位分類部131は、画像取得部130から取得した複数の画像に基づいて、サンプルSPの品位を分類する。品位分類部131は、例えば、品位分類学習済モデル120を用いて、複数の画像のそれぞれについてサンプルSPの品位を判定する。品位分類部131は、複数の画像のうち、1つの画像に対応する画像データを品位分類学習済モデル120に入力する。品位分類学習済モデル120は、入力された画像データに基づいて推定される、画像に示された苺の品位を出力する。品位分類部131は、品位分類学習済モデル120から出力された推定結果を、その画像に示された苺の外周面から推定される品位と判定する。品位分類部131は、複数の画像のそれぞれについて、品位分類学習済モデル120を用いて、それぞれの品位を判定する。
ここで、複数の画像のそれぞれが似たような品位を示す場合には、複数の画像のそれぞれについて判定した品位を平均化し、その平均化した品位をサンプルSP全体の品位とすることによって、サンプルSP全体の品位を精度よく分類することが可能である。
しかし、複数の画像のそれぞれが異なる品位を示す場合、複数の画像のそれぞれについて判定した品位の平均をサンプルSP全体の品位とすると、分類精度を低下させてしまう可能性がある。一般に、1か所でも深刻なダメージや汚れが付着していれば、それは良品ではないと判断される場合が多い。このため、1つの画像に深刻なダメージや汚れが付着している状態が撮像されており、他の画像には深刻なダメージや汚れが撮像されていない場合、その苺は良品ではないと判定される方が望ましい。
この対策として、本実施形態では、品位分類部131は、判定した複数の画像のそれぞれに対応する複数の品位のうち、最も劣る品位を、サンプルSP全体の品位として決定する。これにより、1か所でも深刻なダメージや汚れが付着していれば、その深刻なダメージや汚れに応じた品位に分類されるようにする。したがって、複数の画像のそれぞれの品位が互いに異なる状態にある場合であっても、そのサンプルSP全体の品位を精度よく分類することが可能となる。
サイズ分類部132は、画像取得部130から取得した複数の画像に基づいて、サンプルSPのサイズを分類する。サイズ分類部132は、例えば、サイズ分類学習済モデル121を用いて、複数の画像のそれぞれについてサンプルSPのサイズを判定する。サイズ分類部132は、複数の画像のうち、1つの画像に対応する画像データをサイズ分類学習済モデル121に入力する。サイズ分類学習済モデル121は、入力された画像データに基づいて推定される、画像に示された苺のサイズを出力する。サイズ分類部132は、サイズ分類学習済モデル121から出力された推定結果を、その画像に示された苺の外周面から推定されるサイズと判定する。サイズ分類部132は、複数の画像のそれぞれについて、サイズ分類学習済モデル121を用いて、それぞれのサイズを判定する。
そして、サイズ分類部132は、判定した複数の画像のそれぞれに対応する複数のサイズの平均値を、サンプルSP全体のサイズとして決定する。これにより、例えば、サンプルSPが少し傾いて配置され、一方からは見かけのサイズが大きくなり、他方から見た見かけのサイズが小さく見えるような場合があっても、それぞれの画像について判定したそれぞれのサイズを平均化することにより、精度よくサイズを判定することが可能となる。
総合分類部133は、サンプルSPを総合的に分類する。総合分類部133は、品位分類部131により判定されたサンプルSP全体の品位を示す情報を取得する。総合分類部133は、サイズ分類部132により判定されたサンプルSP全体のサイズを示す情報を取得する。総合分類部133は、取得した品位とサイズとに基づいて、例えば、対応テーブルを用いて、サンプルSPの総合的な分類を行う。ここでの対応テーブルは、品位とサイズとの組合せに、総合的な等級が対応付けられた情報である。
分類結果出力部134は、総合分類部133により分類された分類結果を出力する。このようにして出力された分類結果が、分類装置10からアームロボットRB及び表示装置20に送信される。
ここで、分類装置10が行う分類の方法について、図5~図7を用いて説明する。図5~図7は、実施形態による分類装置10が行う処理を説明する図である。
図5には、学習済モデル(品位分類学習済モデル120及びサイズ分類学習済モデル121)を用いて行う分類の過程で行われる処理が示されている。まず、カメラK1~K3のそれぞれにより撮像された画像が、品位分類学習済モデル120及びサイズ分類学習済モデル121に入力される。
品位分類学習済モデル120は、入力された画像に応じた品位スコアをそれぞれ出力する。品位スコアは、例えば、画像に示されたサンプルSPが、特定の品位クラスである確からしさ(尤度)を示す値である。この図の例では、n=1~3として、品位スコア(Kn)は、カメラKnによって撮像された画像について推定された品位スコアを示す。
サイズ分類学習済モデル121は、入力された画像に応じたサイズスコアをそれぞれ出力する。サイズスコアは、例えば、画像に示されたサンプルSPが特定のサイズクラスである確からしさ(尤度)を示す値である。この図の例では、n=1~3として、サイズスコア(Kn)は、カメラKnによって撮像された画像について推定されたサイズスコアを示す。
図6には、品位分類学習済モデル120により推定された、品位クラスごとの品位スコアの例が示されている。この例では、品位クラスとして、A~Cの三つのクラスが設定された例が示されている。ここでは、品位クラスAが最も優れた品位であり、品位クラスBが次に優れた品位であり、品位クラスCが最も劣った品位である。
この例では、カメラK1が撮像した画像が、品位クラスAと推定されるスコア(品位スコア)は0.80であり、品位クラスBと推定されるスコアは0.20であり、品位クラスCと推定されるスコアは0.00であることが示されている。
品位分類部131は、最もスコアが大きい品位クラスを、その画像から推定される品位とする。この例では、カメラK1が撮像した画像から推定されたスコアのうち、最も大きなスコアが0.80であり、その最大のスコアに対応するクラス(品位クラス)がAであることから、品位分類部131は、カメラK1が撮像した画像に示されたサンプルSPの品位は「品位クラスA」であると判定する。同様に、品位分類部131は、カメラK2が撮像した画像に示されたサンプルSPの品位は「品位クラスA」であると判定する。また、カメラK3が撮像した画像に示されたサンプルSPの品位は「品位クラスC」であると判定する。
品位分類部131は、カメラK1~K3のそれぞれが撮像した画像について推定した、それぞれの品位クラスのうち、最も劣った品位を、そのサンプルSP全体の品位に決定する。この例では、品位分類部131は、カメラK1、K2、K3のそれぞれが撮像した画像について推定した、それぞれの品位クラスA、A、Cのうち、最も劣った品位である「品位クラスC」を、そのサンプルSP全体の品位に決定する。
図7には、サイズ分類学習済モデル121により推定された、サイズクラスごとの品位スコアの例が示されている。この例では、サイズクラスとして、3L、2L、L、M、S、2S、及び2S未満のそれぞれのクラスが設定された例が示されている。ここでは、サイズクラス3Lが最も大きいサイズであり、サイズクラス2S未満が最も小さいサイズである。
この例では、カメラK1が撮像した画像が、サイズクラス3Lと推定されるスコア(サイズスコア)は0.00であり、サイズクラス2Lと推定されるスコアは0.1であり、サイズクラスLと推定されるスコアは0.2であることが示されている。また、カメラK1が撮像した画像が、サイズクラスMと推定されるスコアは0.6であり、サイズクラスSと推定されるスコアは0.1であり、サイズクラス2S又は2S未満と推定されるスコアは0.00であることが示されている。スコアの合計(トータル)は、1.0である。
また、この例では、カメラK2が撮像した画像が、サイズクラス3Lと推定されるスコアは0.00であり、サイズクラス2Lと推定されるスコアは0.3であり、サイズクラスLと推定されるスコアは0.5であることが示されている。また、カメラK2が撮像した画像が、サイズクラスMと推定されるスコアは0.2であり、サイズクラスS、2S、又は2S未満と推定されるスコアは0.00であることが示されている。スコアの合計は、1.0である。
また、この例では、カメラK3が撮像した画像が、サイズクラス3Lと推定されるスコアは0.00であり、サイズクラス2Lと推定されるスコアは0.4であり、サイズクラスLと推定されるスコアは0.5であることが示されている。また、カメラK3が撮像した画像が、サイズクラスMと推定されるスコアは0.1であり、サイズクラスS、2S、又は2S未満と推定されるスコアは0.00であることが示されている。スコアの合計は、1.0である。
サイズ分類部132は、複数の画像のそれぞれについて、サイズクラスごとのサイズスコアを算出する。そして、サイズ分類部132は、サイズクラスごとに、各画像から推定されたサイズスコアの平均値(スコア平均)を算出する。この例では、サイズクラス3Lのスコア平均は0.00である。サイズクラス2Lのスコア平均は0.27である。サイズクラスLのスコア平均は0.40である。サイズクラスMのスコア平均は0.30である。サイズクラスSのスコア平均は0.03である。サイズクラス2S及び2S未満のスコア平均は0.00である。
サイズ分類部132は、サイズクラスごとに算出したスコア平均のうち、最もスコアが大きいクラスを、そのサンプルSP全体のサイズクラスとする。この例では、サイズクラスLのスコア平均である0.40が、最も大きいスコアであることから、サイズ分類部132は、サイズクラスLを、このサンプルSPのサイズと決定する。
ここで、分類装置10が行う処理の流れについて、図8~図10を用いて説明する。図8~図10は、実施形態による分類装置10が行う処理の流れを示すフローチャートである。
図8には、分類装置10が行う処理の全体が示されている。まず、分類装置10は、複数の画像のそれぞれに対応する画像データを取得する(ステップS1)。複数の画像のそれぞれには、サンプルSPの外周面における互いに異なる領域が撮像されている。次に、分類装置10は、ステップS1で取得した複数の画像を用いて、その画像に示されたサンプルSP全体の品位を分類する(ステップS2)。次に、分類装置10は、ステップS1で取得した複数の画像を用いて、その画像に示されたサンプルSP全体のサイズを分類する(ステップS3)。次に、分類装置10は、ステップS2で分類した品位、及びステップS3で分類したサイズに基づいて、サンプルSPの総合的な等級を分類する(ステップS4)。そして、分類装置10は、ステップS4で分類した分類結果、すなわち、サンプルSPの総合的な等級を示す情報を出力する(ステップS5)。
なお、図8において、ステップS2、S3を行う処理の順序が逆であってもよい。つまり、ステップS1、S3、S2の順に処理が実行されてもよい。
図9には、図8のステップS2に示す処理(品位を分類する処理)の詳細な流れが示されている。分類装置10は、1つの画像に基づいて推定された品位クラスごとの品位スコアを取得する(ステップS20)。分類装置10は、品位分類学習済モデル120に、ステップS1で取得した複数の画像のうちの1つの画像を入力する。品位分類学習済モデル120は、入力された画像に基づいて推定される品位として、品位クラスごとの品位スコアを出力する。分類装置10は、品位分類学習済モデル120から出力された品位クラスごとの品位スコアを取得する。
分類装置10は、ステップS20で取得した品位クラスごとの品位スコアのうち、最も品位スコアが大きい品位クラスを、その画像から推定される品位とする(ステップS21)。分類装置10は、ステップS1で取得した複数の画像の全てについて、品位を推定したか否かを判定する(ステップS22)。分類装置10は、品位を推定していない画像がある場合にはステップS20に戻る。一方、全ての画像について品位を推定した場合には、分類装置10は、各画像について推定された品位のうち、最も劣った品位を、そのサンプルSPの品位として決定する(ステップS23)。
図10には、図8のステップS3に示す処理(サイズを分類する処理)の詳細な流れが示されている。分類装置10は、1つの画像に基づいて推定されたサイズクラスごとのサイズスコアを取得する(ステップS30)。分類装置10は、サイズ分類学習済モデル121に、ステップS1で取得した複数の画像のうちの1つの画像を入力する。サイズ分類学習済モデル121は、入力された画像に基づいて推定されるサイズとして、サイズクラスごとのサイズスコアを出力する。分類装置10は、サイズ分類学習済モデル121から出力されたサイズクラスごとのサイズスコアを取得する。
分類装置10は、ステップS1で取得した複数の画像の全てについて、サイズを推定したか否かを判定する(ステップS31)。分類装置10は、サイズを推定していない画像がある場合にはステップS30に戻る。一方、全ての画像についてサイズを推定した場合には、ステップS32に進む。
分類装置10は、サイズクラスごとに、各画像から推定されたサイズスコアの平均値を算出する(ステップS32)。分類装置10は、ステップS32で算出した平均値が最も大きい値となったサイズクラスを、そのサンプルSPのサイズとして決定する(ステップS33)。
以上、説明した通り、実施形態の分類装置10は、画像取得部130と、品位分類部131を備える。画像取得部130は、複数の画像のそれぞれに対応する画像データを取得する。複数の画像は、サンプルSP(分類対象物、例えば苺)の外周面における互いに異なる領域が含まれる複数の画像である。品位分類部131は、画像取得部130によって取得された複数の画像を用いて、サンプルSPにおける品位を分類する。品位は、外観の優劣度である。これにより、実施形態の分類装置10では、サンプルSP(分類対象物、例えば苺)全体の状態に基づいて分類を行うことができる。
また、実施形態の分類装置10では、複数の画像のそれぞれに対応する撮像位置とサンプルSPの配置位置との相対的な位置関係は、配置位置から撮像位置までの距離が等距離であり、配置位置から撮像位置を結ぶ直線と水平面とのなす角度が等角度である。これにより、実施形態の分類装置10では、複数の画像のそれぞれについて、同じ解像度、且つ同程度のサイズにてサンプルSPを撮像することができる。
複数の画像のそれぞれに対応する撮像位置から配置位置までの距離が異なっている場合、それぞれ画像に撮像されるサンプルSPの大きさが異なる。このため、画像から推定されるサンプルSPのサイズが異なる結果となってしまう。この対策として、1つの画像にサンプルSPと、大きさが既知のリファレンスとが含まれるよう撮像を行い、リファレンスに基づいて画像処理を行うことにより、サンプルSPの大きさを推定することが考えられる。
また、複数の画像のそれぞれに対応する撮像位置から配置位置までの距離が異なっている場合、それぞれ画像を撮像する際にカメラKが受光する光量(サンプルSPに反射した光の光量)が変化する。このため、複数の画像のそれぞれに撮像されたサンプルSPの色調が異なる色調となる可能性がある。この対策として、1つの画像にサンプルSPと、色が既知のリファレンスとが含まれるよう撮像を行い、リファレンスに基づいて画像処理を行うことにより、サンプルSPの明度及び色度を補正し、補正後の画像に基づいて品位を推定することが考えられる。
上述したような画像処理を行う構成にしてもよいが、処理が煩雑となるため、それぞれに対応する撮像位置から配置位置までの距離が等距離となるように構成されることが望ましい。
また、実施形態の分類装置10では、サンプルSPは、錘状の物体であり、錘状の物体における底面が下側となるように配置される。これにより、分類対象物を安定した状態で載置することができる。
また、実施形態の分類装置10では、サンプルSPは、ヘタ部分が下側となり、先端部分が上側となるように配置される。やわらかくて傷つき易い苺の側面にある果実部分が載置面に接触しないようにして果実部分が自重により損傷してしまうことを抑制することができる。
ここで比較例として、例えば、ヘタ部分が右側となり、先端部分が左側となるように、横向きに配置したサンプルSPを、図2及び図3のように設置されたカメラKで三方向から撮像する場合を考える。この場合、3つの画像のうち、少なくとも1つの画像にはヘタ部分が撮像された画像となり、少なくとも1つの画像には果実部分のみが撮像されヘタ部分が撮像されていない画像となる。この場合、1つのサンプルSPを撮像して得られる複数の画像に、緑色と赤色のそれぞれの色調が含まれる画像と、緑の色調が含まれず赤色の色調のみが含まれる画像とが混在することとなる。このような混在した画像に基づいて品位を判定しようとすると、緑色と赤色のそれぞれの色調が含まれる画像に基づいて品位を判定するアルゴリズムと、赤色のみの色調が含まれる画像に基づいて品位を判定するアルゴリズムとの2種類のアルゴリズムを用意する必要がある。つまり、2種類のアルゴリズムのそれぞれに対応するモデル(学習済モデルなど)を用意する必要がある。また、複数の画像のうち、何れの画像を、何れのアルゴリズムを用いて分類するかを判定する必要があるため処理が煩雑となる。
これに対し、本実施形態の分類装置10では、ヘタ部分が下側となり、先端部分が上側となるように配置される。このようにサンプルSPを配置することにより、苺の外周面において互いに異なる面を、同じような色調で撮像することが可能となる。つまり、複数の画像の全てを、ヘタ部分と果実部分とが含まれる画像、つまり緑色と赤色のそれぞれの色調が含まれる画像とすることができる。このため、画像に基づいて品位を分類する場合に、複数の画像のそれぞれに、同じアルゴリズムを適用することが可能となる。つまり、1つのアルゴリズムに対応するモデルを用意し、そのモデルを用いて複数の画像のそれぞれについて分類を行えばよい。このため、処理を簡素化することが可能である。
また、実施形態の分類装置10では、複数の画像は、互いに異なる複数の撮像位置のそれぞれから撮像された画像である。複数の撮像位置のそれぞれは、円Eの円周上に、隣り合う撮像位置と、円Eの中心とがなす角度が等角度となるように設定される。円Eは、図2及び図3に示すように、サンプルSPを通り鉛直方向に向かう直線に垂直な平面にあり、その平面とその直線との交点を中心とする円である。例えば、三つのカメラKを用いる場合には円周角120度ごとに三方向からサンプルSPを撮像する。これにより、実施形態の分類装置10では、複数のカメラKによってサンプルSPの外周面の全体の状態を撮像することが可能となる。
また、実施形態の分類装置10では、複数の画像は、1つの撮像位置から撮像された画像であってもよい。この場合、複数の画像は、サンプルSPが配置された台を、サンプルSPを通り鉛直方向に向かう軸を中心として水平方向に回転させることによって、当該1つの撮像位置からサンプルSPの外周面における互いに異なる領域が撮像された複数の画像である。これにより、実施形態の分類装置10では、1つのカメラKによってサンプルSPの外周面の全体の状態を撮像することが可能となる。
また、実施形態の分類装置10では、品位分類部131は、複数の画像のそれぞれについて品位を判定する。品位分類部131は、判定した複数の画像のそれぞれに対応する複数の品位のうち、最も劣る前記品位を、サンプルSPの品位として決定する。これにより、実施形態の分類装置10では、サンプルSPの外周面における互いに異なる領域のそれぞれの品位のうち、最も劣った品位を、そのサンプルSP全体の品位とすることができる。したがって、1か所でも深刻なダメージや汚れが付着していれば、そのダメージや汚れを考慮した品位とすることができるため精度よく品位を分類することができる。
また、実施形態の分類装置10では、品位分類部131は、品位分類学習済モデル120(学習済モデルの一例)を用いて品位を判定する。品位分類学習済モデル120は、不特定の苺の外周面が撮像された学習用画像と当該学習用画像に示された苺の品位とが対応付けられた学習用データセットを用いた機械学習を実行することにより作成される。品位分類学習済モデル120は、このような機械学習を実行することにより、苺と品位との対応関係を学習したモデルとなる。品位分類学習済モデル120は、このようにして学習した対応関係を用いて、サンプルSPの外周面が撮像された入力画像に基づいて、サンプルSPの品位を推定する。これにより、実施形態の分類装置10では、学習済モデルに画像を入力するという簡単な方法により品位を推定することができる。また、学習済モデルは、学習データセットを機械学習することにより学習した、苺と品位との対応関係に基づいて品位を推定する。このため、本実施形態の分類装置10では定量的に品位を推定することが可能となる。したがって、作業者(人間)が各自の感覚に基づいて品位を判別する方法と比較して、品位を誤って判定してしまったり、作業者によって判定結果に偏りが出てしまったりするような事態を低減することができる。
また、実施形態の分類装置10は、画像取得部130と、サイズ分類部132を備えるように構成されてもよい。画像取得部130は、複数の画像のそれぞれに対応する画像データを取得する。複数の画像は、サンプルSP(分類対象物、例えば苺)の外周面における互いに異なる領域が含まれる複数の画像である。サイズ分類部132は、画像取得部130によって取得された複数の画像を用いて、サンプルSPにおけるサイズを分類する。これにより、実施形態の分類装置10では、サンプルSP(分類対象物、例えば苺)の異なる面の状態に基づいて分類を行うことができる。
また、実施形態の分類装置10では、サイズ分類部132は、複数の画像のそれぞれについて前記苺のサイズを判定する。サイズ分類部132は、判定した複数の画像のそれぞれに対応する複数のサイズの平均値を、サンプルSPのサイズとして決定する。これにより、実施形態の分類装置10では、例えば、サンプルSPが少し傾いて載置され、一方からは見かけのサイズが大きくなり、他方から見た見かけのサイズが小さく見えるような場合があっても、それぞれの画像について判定したそれぞれのサイズを平均化することができる。このため、精度よくサイズを判定することが可能となる。
また、実施形態の分類装置10では、サイズ分類部132は、サイズ分類学習済モデル121(学習済モデルの一例)を用いてサイズを判定する。サイズ分類学習済モデル121は、不特定の苺の外周面が撮像された学習用画像と当該学習用画像に示された苺のサイズとが対応付けられた学習用データセットを用いた機械学習を実行することにより作成される。サイズ分類学習済モデル121は、このような機械学習を実行することにより、苺とサイズとの対応関係を学習したモデルとなる。サイズ分類学習済モデル121は、このようにして学習した対応関係を用いて、サンプルSPの外周面が撮像された入力画像に基づいて、サンプルSPのサイズを推定する。これにより、実施形態の分類装置10では、学習済モデルに画像を入力するという簡単な方法によりサイズを推定することができる。また、学習済モデルは、学習データセットを機械学習することにより学習した、苺とサイズとの対応関係に基づいて品位を推定する。このため、本実施形態の分類装置10では定量的にサイズを推定することが可能となる。
また、実施形態の分類システム1は、カメラK(撮像装置)と分類装置10とを備える。分類システム1は、分類対象物であるサンプルSP(分類対象物、例えば苺)を分類する。カメラKは、サンプルSPの外周面における互いに異なる領域が含まれる複数の画像を撮像する。分類装置10は、カメラKにより撮像された複数の画像を取得する。これにより、実施形態の分類システム1では、サンプルSP(分類対象物、例えば苺)の異なる面の状態に基づいて分類を行うことが可能となる。
上述した実施形態では、学習済モデルを用いて品位又はサイズを分類する方法を例示して説明したがこれに限定されない。分類装置10は、画像処理を用いて、品位又はサイズを分類するようにしてもより。例えば、分類装置10は、サンプルSPが撮像された画像に画像処理を行うことによって、サンプルSPの輪郭を抽出し、抽出した輪郭部分が画像に占める割合に基づいて、大きさを分類するように構成されてもよい。また、分類装置10は、サンプルSPが撮像された画像に画像処理を行うことによって、画像において赤色の色調が占める面積、及び緑色の色調が占める面積を算出する。ここで、赤色の色調が占める面積は果実部分の面積に相当する。また、緑色の色調が占める面積は、ヘタ部分の面積に相当する。分類装置10は、赤色の色調が占める面積と、緑色の色調が占める面積との比率を用いて、品位を分類するようにしてもよい。
上述した実施形態における分類システム1及び分類装置10の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…分類システム
10…分類装置
11…通信部
12…記憶部
120…品位分類学習済モデル
121…サイズ分類学習済モデル
13…制御部
130…画像取得部
131…品位分類部
132…サイズ分類部
133…総合分類部
134…分類結果出力部

Claims (14)

  1. 分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得する画像取得部と、
    前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物における、外観の優劣度である品位を分類する品位分類部と、
    を備える分類装置。
  2. 前記複数の画像のそれぞれに対応する撮像位置と前記分類対象物の配置位置との相対的な位置関係は、前記配置位置から前記撮像位置までの距離が等距離であり、前記配置位置から前記撮像位置を結ぶ直線と水平面とのなす角度が等角度である、
    請求項1に記載の分類装置。
  3. 前記分類対象物は、錘状の物体であり、当該錘状の物体における底面が下側となるように配置される、
    請求項1又は請求項2に記載の分類装置。
  4. 前記分類対象物は苺であり、
    前記苺は、ヘタ部分が下側となり、先端部分が上側となるように配置される、
    請求項1から請求項3のいずれか一項に記載の分類装置。
  5. 前記複数の画像は、互いに異なる複数の撮像位置のそれぞれから撮像された画像であり、
    前記複数の撮像位置のそれぞれは、円の円周上に、隣り合う撮像位置と前記円の中心とがなす角度が等角度となるように設定され、
    前記円は、前記分類対象物を通り鉛直方向に向かう直線に垂直な平面にある、前記平面と前記直線との交点を中心とする円である、
    請求項1から請求項4のいずれか一項に記載の分類装置。
  6. 前記複数の画像は、1つの撮像位置から撮像された画像であり、前記分類対象物が配置された台を、前記分類対象物を通り鉛直方向に向かう軸を中心に水平方向に回転させることによって、当該1つの撮像位置から前記分類対象物の外周面における互いに異なる領域が撮像された複数の画像である、
    請求項1から請求項4のいずれか一項に記載の分類装置。
  7. 前記品位分類部は、前記複数の画像のそれぞれについて前記品位を判定し、判定した前記複数の画像のそれぞれに対応する複数の前記品位のうち、最も劣る前記品位を、前記分類対象物の前記品位として決定する、
    請求項1から請求項6のいずれか一項に記載の分類装置。
  8. 前記品位分類部は、学習済モデルを用いて前記品位を判定し、
    前記学習済モデルは、分類対象物の外周面が撮像された学習用画像と当該学習用画像に示された分類対象物の前記品位とが対応付けられた学習用データセットを用いた機械学習を実行することにより分類対象物と前記品位との対応関係を学習したモデルであって、前記分類対象物の外周面が撮像された入力画像に基づいて前記分類対象物の前記品位を推定するモデルである、
    請求項7に記載の分類装置。
  9. 分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得する画像取得部と、
    前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物のサイズを分類するサイズ分類部と、
    を備える分類装置。
  10. 前記サイズ分類部は、前記複数の画像のそれぞれについて前記分類対象物のサイズを判定し、判定した前記複数の画像のそれぞれに対応する複数のサイズの平均値を、前記分類対象物のサイズとして決定する、
    請求項9に記載の分類装置。
  11. 前記サイズ分類部は、学習済モデルを用いて前記分類対象物のサイズを判定し、
    前記学習済モデルは、分類対象物の外周面が撮像された学習用画像と当該学習用画像に示された分類対象物のサイズとが対応付けられた学習用データセットを用いた機械学習を実行することにより分類対象物とサイズとの対応関係を学習したモデルであって、前記分類対象物の外周面が撮像された入力画像に基づいて前記分類対象物のサイズを推定するモデルである、
    請求項10に記載の分類装置。
  12. 分類対象物を撮像する撮像装置と、
    請求項1から請求項11のいずれか一項に記載の分類装置と、
    を備え、
    前記分類装置は、前記撮像装置から前記分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得する、
    分類システム。
  13. 分類装置であるコンピュータが行う分類方法であって、
    画像取得部が、分類対象物の外周面における互いに異なる領域が撮像された複数の画像を取得し、
    品位分類部が、前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物における、外観の優劣度である品位を分類する、
    分類方法。
  14. 分類装置であるコンピュータが行う分類方法であって、
    画像取得部が、分類対象物での外周面における互いに異なる領域が撮像された複数の画像を取得し、
    サイズ分類部が、前記画像取得部によって取得された前記複数の画像を用いて、前記分類対象物のサイズを分類する、
    分類方法。
JP2021209910A 2021-12-23 2021-12-23 分類装置、分類方法、及び分類システム Pending JP2023094434A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021209910A JP2023094434A (ja) 2021-12-23 2021-12-23 分類装置、分類方法、及び分類システム
PCT/JP2022/045863 WO2023120306A1 (ja) 2021-12-23 2022-12-13 分類装置、分類方法、及び分類システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021209910A JP2023094434A (ja) 2021-12-23 2021-12-23 分類装置、分類方法、及び分類システム

Publications (1)

Publication Number Publication Date
JP2023094434A true JP2023094434A (ja) 2023-07-05

Family

ID=86902396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021209910A Pending JP2023094434A (ja) 2021-12-23 2021-12-23 分類装置、分類方法、及び分類システム

Country Status (2)

Country Link
JP (1) JP2023094434A (ja)
WO (1) WO2023120306A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5987083A (ja) * 1982-11-09 1984-05-19 池上通信機株式会社 画像処理装置
JP4041390B2 (ja) * 2002-12-19 2008-01-30 ヤンマー農機株式会社 画像認識装置
JP2004251777A (ja) * 2003-02-20 2004-09-09 Yanmar Agricult Equip Co Ltd 農産物非破壊品質判定装置
WO2011115666A2 (en) * 2010-03-13 2011-09-22 Carnegie Mellon University Computer vision and machine learning software for grading and sorting plants
JP4649628B1 (ja) * 2010-05-18 2011-03-16 公立大学法人高知工科大学 回転楕円体及び球面体の全面画像検査装置
JP6874410B2 (ja) * 2017-02-15 2021-05-19 オムロン株式会社 画像出力装置及び画像出力方法

Also Published As

Publication number Publication date
WO2023120306A1 (ja) 2023-06-29

Similar Documents

Publication Publication Date Title
US20220264057A1 (en) Object inspection system and method for inspecting an object
Heinemann et al. An automated inspection station for machine-vision grading of potatoes
Mhaski et al. Determination of ripeness and grading of tomato using image analysis on Raspberry Pi
Abelha et al. Learning how a tool affords by simulating 3D models from the web
CN112756324B (zh) 一种物品清洗方法、装置及终端设备
JP2021527256A (ja) ビジョンシステムで画像内のパターンを検出及び分類するためのシステム及び方法
Wang et al. Separation and identification of touching kernels and dockage components in digital images
Velumani Wheat ear detection in plots by segmenting mobile laser scanner data
JP2021174456A (ja) 異常判定方法及び異常判定装置
CN113822842A (zh) 一种基于多任务学习的工业缺陷检测方法
Kuo et al. Improving defect inspection quality of deep-learning network in dense beans by using hough circle transform for coffee industry
Strachan et al. Image analysis in the fish and food industries
JP6596260B2 (ja) 教示支援方法および画像分類方法
Sidehabi et al. The Development of Machine Vision System for Sorting Passion Fruit using Multi-Class Support Vector Machine.
Ranjan et al. Detection and localisation of farm mangoes using YOLOv5 deep learning technique
CN117314923B (zh) 一种基于机器视觉的荔枝智能分拣与配送优化方法
WO2023120306A1 (ja) 分類装置、分類方法、及び分類システム
Pichhika et al. Detection of Multi-varieties of On-tree Mangoes using MangoYOLO5
Yimyam et al. 3D reconstruction and feature extraction for agricultural produce grading
CN114788455A (zh) 一种基于目标检测的串番茄单粒采摘方法及系统
Recce et al. Video grading of oranges in real-time
Pham et al. A Computer Vision Based Robotic Harvesting System for Lettuce
Cupec et al. Point cloud segmentation to approximately convex surfaces for fruit recognition
CN112115824A (zh) 果蔬检测方法、装置、电子设备以及计算机可读介质
Chakravarthy et al. Micro controller based post harvesting robot