JP7501858B2 - 判定方法及び情報処理装置 - Google Patents

判定方法及び情報処理装置 Download PDF

Info

Publication number
JP7501858B2
JP7501858B2 JP2022093269A JP2022093269A JP7501858B2 JP 7501858 B2 JP7501858 B2 JP 7501858B2 JP 2022093269 A JP2022093269 A JP 2022093269A JP 2022093269 A JP2022093269 A JP 2022093269A JP 7501858 B2 JP7501858 B2 JP 7501858B2
Authority
JP
Japan
Prior art keywords
data
processing unit
learning
photographing
facility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022093269A
Other languages
English (en)
Other versions
JP2023180133A (ja
Inventor
和広 佐伯
宏一 角崎
遼平 岩橋
祥平 久保田
力峰 張
施 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2022093269A priority Critical patent/JP7501858B2/ja
Publication of JP2023180133A publication Critical patent/JP2023180133A/ja
Application granted granted Critical
Publication of JP7501858B2 publication Critical patent/JP7501858B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

特許法第30条第2項適用 https://www2.ia-engineers.org/conference/index.php/iciae/iciae2022/paper/viewFile/2597/1685,2022年3月26日
特許法第30条第2項適用 https://www2.ia-engineers.org/conference/index.php/iciae/iciae2022/paper/view/2597,2022年3月26日
本願発明は、判定方法及び情報処理装置に関し、特に、対象物品群を撮影して得られた対象撮影データに含まれる各対象物品を、学習データを利用して判定する判定システムにおける判定方法等に関する。
学習データの整備は、大きなコストを要する。学習データの整備には、画像データなどの収集に加えて、画像データなどへのラベル付け等のアノテーションの付加が含まれる。近年、このコストを軽減するための技術として、ルールベースのデータ拡張が注目されている(特許文献1参照)。
特開2020-34998号公報
しかしながら、特許文献1記載の手法では、現実にはあり得ない画像(例えば猫と犬を組み合わせたような画像)が学習データとなってしまうリスクがある。
そこで、本願発明は、学習データを容易に拡張できることに適した判定方法等を提案することを目的とする。
本願発明の第1の側面は、対象物品群を撮影して得られた対象撮影データに含まれる各対象物品を、学習データを利用して判定する判定システムにおける判定方法であって、情報処理装置と、前記対象物品群を撮影する施設撮影部を備え、前記情報処理装置は、検出処理部と、合成処理部と、学習処理部と、判定処理部を備え、前記検出処理部が、複数の検出可能物品について個々の検出可能物品を別々に撮影した個別撮影データから個別データを生成する個別データ生成ステップと、前記合成処理部が、複数の前記個別データを組み合わせて学習データを生成するデータ拡張ステップと、前記学習処理部が、前記学習データを利用して前記判定処理部に対して学習処理を行う学習ステップと、前記施設撮影部が、前記対象物品群を撮影して前記対象撮影データを得る対象撮影ステップと、前記判定処理部が、前記対象撮影データに含まれる各対象物品を判定する判定ステップを含む。
本願発明の第2の側面は、第1の側面の判定方法であって、前記対象撮影データは、施設撮影部が、前記対象物品群を、施設照明部が光を照射した施設ステージに載せた状態を撮影したものであり、前記施設ステージと、前記合成処理部が複数の前記個別データを組み合わせて学習データを生成するために使用する背景データは、無地であり、前記施設撮影部は、前記施設ステージにおいて前記対象物品群の影が生じないように光を照射し、前記判定処理部は、画像処理領域の物品識別と物品認識を行うものであって、物品認識前のセグメンテーション作業が不要なものである。
本願発明の第3の側面は、第1の側面の判定方法であって、新たに検出する検出可能物品を追加する場合に、前記検出処理部が、前記新たに検出する検出可能物品を撮影した個別撮影データから個別データを生成し、前記合成処理部が、前記新たに検出する検出可能物品の個別データと、既に検出できる検出可能物品の個別データとを組み合わせて配置して学習データを生成するステップを含む。
本願発明の第4の側面は、第1の側面の判定方法であって、検出可能物品を削除する場合に、前記合成処理部が、前記学習データのうち、削除する検出可能物品を含むものを削除するステップを含む。
本願発明の第5の側面は、対象物品群を撮影して得られた対象撮影データに含まれる各対象物品を、学習データを利用して判定する情報処理装置であって、複数の検出可能物品について個々の検出可能物品を別々に撮影した個別撮影データから個別データを生成する検出処理部と、複数の前記個別データを組み合わせて学習データを生成する合成処理部を備える。
本願発明の各側面によれば、個別データを組み合わせて学習データを生成することにより、容易にデータ拡張を実現することができる。
本願発明の実施の形態の一例である判定システムの構成の一例を示すブロック図である。 最初の検出可能物品の学習データを生成する処理の一例を示すフロー図である。 図2の各ステップの具体例を説明するための図である。 検出可能物品を追加する場合に、学習データを生成する処理の一例を示すフロー図である。 図4の各ステップの具体例を説明するための図である。 検出可能物品を削除する場合の処理の一例を示すフロー図である。 学習処理部45による処理の一例を説明するためのフロー図である。 対象物品群33の判定処理の一例を示すフロー図である。 商品の領域を検出して切り出す処理を説明するための図である。 合成処理部43による個々の物品のエッジ処理の一例を示す図である。 訓練結果を示す図である。 10-fold交差検証を実施した結果を示すグラフである。 (a)評価時と(b)訓練時の損失を示す。
以下では、図面を参照して、本願発明の実施例について説明する。なお、本願発明は、この実施例に限定されるものではない。
図1は、本願発明の実施の形態の一例である判定システムの構成の一例を示すブロック図である。
判定システム1は、管理装置3と、施設装置5と、情報処理装置7と、物品処理サーバ9を備える。
判定システム1において、施設装置5の施設撮影部25は、対象物品群(図1の例では対象物品群33)を撮影して対象撮影データを得る。情報処理装置7の判定部37は、対象撮影データにおいて撮影されている対象物品を判定する。
図1において、対象物品は、判定部37による判定処理の対象となる物品であり、本願請求項の「対象物品」の一例である。対象物品群は、一つ又は複数の対象物品である。検出可能物品は、判定部37により検出できる物品である。
管理装置3は、判定部37により判定することができる検出可能物品(図1の例では検出可能物品21)を個別に撮影して個別撮影データを得る。管理装置3は、管理通信部11と、管理撮影部13と、管理操作部15と、管理照明部17と、管理ステージ19を備える。一つの検出可能物品21は、管理ステージ19に載せられる。
管理照明部17は、管理ステージ19に対して、光を均一に照らして明るくする。管理撮影部13は、管理照明部17により光を均一に照らされて明るくされた状態の管理ステージ19に載せられた検出可能物品21を撮影して、個別撮影データを得る。
ここで、管理照明部17が管理ステージ19に光を均一に照らすことは、少なくとも管理撮影部13によって撮影される管理ステージ19の領域をほぼ一様に明るくすることを意味する。例えば、管理撮影部13によって撮影される管理ステージ19の領域において、照らされる光量の違いは10%以内である。さらに、複数方向(例えば四方)からライティングすることで影を飛ばす。
また、個別撮影データにおいて、検出可能物品21を撮影した部分は前景となり、管理ステージ19を撮影した部分は単純な背景となる。ここで、単純な背景は、例えば、無地で、単一の色で一様に配色されたものである。
施設装置5は、店舗、物流施設(貨物などの保管・仕分けなどのための施設。物流センター、倉庫など)などにおいて、判定部37による判定処理の対象となる対象物品群(図1の例では対象物品群33)を撮影して対象撮影データを得る。図1では、無人店舗に設けて、購入者が購入する商品群を撮影させて決済をすることを例に説明する。施設装置5は、施設通信部23と、施設撮影部25と、施設操作部27と、施設照明部29と、施設ステージ31を備える。対象物品群33は、施設ステージ31に載せられる。
施設照明部29は、施設ステージ31に対して、光を均一に照らして明るくする。施設撮影部25は、施設照明部29により光を均一に照らされて明るくされた状態の施設ステージ31に載せられた対象物品群33を撮影して、対象撮影データを得る。
ここで、施設照明部29が施設ステージ31に光を均一に照らすことは、少なくとも施設撮影部25によって撮影される施設ステージ31の領域をほぼ一様に明るくすることを意味する。例えば、施設撮影部25によって撮影される施設ステージ31の領域において照らされる光量の違いは10%以内である。さらに、複数方向(例えば四方)からライティングすることで影を飛ばす。
また、対象撮影データにおいて、対象物品群33を撮影した部分は前景となり、施設ステージ31を撮影した部分は単純な背景となる。ここで、単純な背景は、例えば、単一の色で一様に配色されたものである。
情報処理装置7は、学習部35と、判定部37を備える。学習部35は、個別撮影データによって得られた学習データを用いて、判定部37に対して学習処理を行う。判定部37は、学習処理によって、対象撮影データにおいて撮影された対象物品を判定する。
学習部35は、学習通信部39と、検出処理部41と、合成処理部43と、学習処理部45と、個別撮影データ記憶部47と、背景データ記憶部49と、個別データ記憶部51と、学習データ記憶部53を備える。
判定部37は、判定通信部55と、判定処理部57と、対象撮影データ記憶部61と、判定結果記憶部63を備える。
物品処理サーバ9は、例えば決済などの処理を行う者である。物品処理サーバ9は、物品処理通信部65と、物品関連処理部67を備える。
なお、各通信部は、他の装置やサーバとデータの送信及び/又は受信をするためのものであり、無線及び/又は有線による通信装置によって実現することができる。各処理部は、情報処理を行うための情報処理装置であり、例えばプログラムの制御によって動作するプロセッサなどで実現することができる。各記憶部は、データを記憶する記憶装置であり、例えばメモリなどによって実現することができる。
また、図1において、管理装置3、施設装置5及び情報処理装置7は、一つ又は複数の装置によって実現してもよい。例えば、物理的には、管理通信部11、管理撮影部13、管理操作部15、管理照明部17及び管理ステージ19は、それぞれ、施設通信部23、施設撮影部25、施設操作部27、施設照明部29及び施設ステージ31と同じものであってもよい。また、情報処理装置7は、パソコンなどで実現し、管理装置3及び施設装置5と有線又は無線で接続して通信を行うものであってもよい。
図2は、最初の検出可能物品の学習データを生成する処理の一例を示すフロー図である。図3は、図2の各ステップの具体例を説明するための図である。図3では、物品Aが最初の検出可能物品であり、観点1及び観点2という2つの観点から撮影する場合について説明する。
管理装置3を利用する管理者は、管理ステージ19に最初の1つの検出可能物品21を載せる。管理撮影部13は、例えばカメラである。管理操作部15は、例えばタッチパネルである。管理撮影部13は、管理者が管理操作部15を操作して指示したことに従って管理ステージ19に載せられた検出可能物品21を撮影して、静止画像である個別撮影データを得る。管理者は、必要に応じて検出可能物品21を異なる向きに変更して、異なる観点からの個別撮影データを得る。管理者は、管理操作部15を操作して、最初の検出可能物品21についての処理を指示する。管理通信部11は、情報処理装置7に、最初の検出可能物品21について処理することと、最初の検出可能物品21を一つ又は複数の観点から撮影して得られた個別撮影データを送信する。
学習通信部39は、管理通信部11から個別撮影データを受信する。個別撮影データ記憶部47は、個別撮影データを記憶する(ステップSTA1)。検出処理部41は、各観点に対応する個別撮影データにおいて、背景の部分(管理ステージ19が撮影されている部分)とは区別して、前景の部分(検出可能物品21が検出されている部分)を検出する(ステップSTA2)。検出処理部41は、前景の部分を特定する情報を利用して、必要に応じた処理を行い、検出可能物品21について各観点から撮影された場合の静止画像を生成するための個別データを得る(ステップSTA3)。個別データ記憶部51は、個別データを記憶する。
ステップSTA1~STA3について、図3(a)及び(b)は、物品Aを観点1から撮影した場合の処理を説明するための図である。図3(a)は、物品Aを観点1から撮影して得られた個別撮影データを示す。図3(b)は、図3(a)の個別撮影データにおいて、斜線部である背景部分から区別して、物品Aが撮影されている部分を特定することなどにより得られた、物品Aを観点1から撮影したとする場合の静止画像を生成するための個別データを示す。
ステップSTA1~STA3について、図3(c)及び(d)は、物品Aを、観点1とは異なる観点2から撮影した場合の処理を説明するための図である。図3(c)は、物品Aを観点2から撮影して得られた個別撮影データを示す。図3(d)は、図3(c)の個別撮影データにおいて、斜線部である背景部分から区別して、物品Aが撮影されている部分を特定することなどにより得られた、物品Aを観点2から撮影したとする場合の静止画像を生成するための個別データを示す。ここで、学習データにおける画像データでは、例えば偽境界を除去することなどの処理を行ってもよい。また、分布関数(距離・角度など)を利用して商品配置位置を決定してもよい。また、物品間でオーバーラップの有無を設定できるようにしてもよい。
ここで、例えば、検出処理部41は個別データの候補を生成するものとし、管理装置3の管理者の確認によって個別データとするようにしてもよい。例えば、学習通信部39は、管理装置3に個別データの候補を送信する。管理装置3は、管理操作部15に個別データの候補を表示する。管理通信部11は、管理者が管理操作部15を操作して個別データの候補を確認したことを認識すると、このことを情報処理装置7に伝える。検出処理部41は、管理者の確認の下で、個別データの候補を、個別データとして確定する。
図2を参照して、合成処理部43は、背景データ記憶部49から背景データを取得する(ステップSTA4)。背景データは、例えば、施設照明部29による照明の下で、施設ステージ31を施設撮影部25で撮影した場合に得られる画像と実質的に同一のデータである。背景データ記憶部49は、背景データを予め記憶している。
合成処理部43は、管理撮影部13が各観点から検出可能物品を撮影する場合に得られることが期待される画像データと、この画像データにおいて検出可能物品を解釈するためのアノテーションデータを生成する(ステップSTA5)。この画像データとアノテーションデータの組み合わせが、学習データとなる。合成処理部43は、学習データを、学習データ記憶部53に記憶する。なお、例えば管理撮影部13と施設撮影部25が同じものである場合などでは、この画像データについては、例えば、背景データなどに代えて、又は、と共に、個別撮影データを利用してもよい。
図3(e)及び(f)は、それぞれ、観点1及び観点2についての物品Aの個別データを利用して得られる学習データにおいて、画像データの一例を示す。
合成処理部43は、施設ステージ31に複数の検出可能物品を置いた場合に施設撮影部25が撮影して得られることが期待される画像データと、この画像データにおいて検出可能物品を解釈するためのアノテーションデータを生成する(ステップSTA6)。この複数の検出可能物品を置いた場合として得られた画像データとアノテーションデータの組み合わせが、データ拡張のための学習データとなる。合成処理部43は、データ拡張のための学習データを、学習データ記憶部53に記憶する(ステップSTA7)。
図3(g)は、施設ステージ31に2つの物品Aを置き、共に観点1から撮影された場合として得られる学習データにおいて、画像データの一例を示す。図3(h)は、施設ステージ31に2つの物品Aを置き、1つは観点1から、もう1つは観点2から撮影された場合として得られる学習データにおいて、画像データの一例を示す。同様に、3つ以上の物品Aを配置した場合についての学習データを生成することができる。なお、2つの物品Aを配置する位置を変えて、さらに複数の学習データを生成してデータ拡張をしてもよい。
図4は、検出可能物品を追加する場合に、学習データを生成する処理の一例を示すフロー図である。図5は、図4の各ステップの具体例を説明するための図である。図5では、既に物品Aの観点1及び観点2からの個別データが得られている状態で、物品Bについて観点1から撮影して学習データを追加する場合について説明する。
管理装置3の管理者は、管理ステージ19に追加する検出可能物品21を載せる。管理撮影部13は、管理者が管理操作部15を操作して指示したことに従って、管理ステージ19に載せられた追加する検出可能物品21を撮影して個別撮影データを得る。追加する検出可能物品21を複数の観点から撮影する場合には、管理者は、追加する検出可能物品21を置き直して、それぞれの観点から撮影する。これにより、追加する検出可能物品21について、一つ又は複数の観点についての個別撮影データを得る。管理者は、管理操作部15を操作して、検出可能物品21を追加することを指示する。管理通信部11は、情報処理装置7に、検出可能物品21を追加することと、追加する検出可能物品21を一つ又は複数の観点から撮影して得られた個別撮影データを送信する。
学習通信部39は、管理通信部11から個別撮影データを受信する。個別撮影データ記憶部47は、個別撮影データを記憶する(ステップSTB1)。検出処理部41は、各観点に対応する個別撮影データにおいて、背景の部分(管理ステージ19が撮影されている部分)とは区別して、前景の部分(検出可能物品21が検出されている部分)を検出する(ステップSTB2)。検出処理部41は、前景の部分を特定する情報を利用して、必要な処理を行い、追加する検出可能物品21について各観点から撮影された場合の静止画像を生成するための個別データを得る(ステップSTB3)。個別データ記憶部51は、個別データを記憶する。
ステップSTB1~STB3について、図5(a)及び(b)は、物品Bを観点1から撮影した場合の処理を説明するための図である。図5(a)は、物品Bを観点1から撮影して得られた個別撮影データを示す。図5(b)は、図5(a)の個別撮影データにおいて、斜線部である背景部分から区別して、物品Bが撮影されている部分を特定することなどにより得られた、物品Bを観点1から撮影したとする場合の静止画像を生成するための個別データを示す。
ここで、例えば、検出処理部41は個別データの候補を生成するものとし、管理装置3の管理者の確認によって個別データとするようにしてもよい。
合成処理部43は、背景データ記憶部49から背景データを取得する(ステップSTB4)。
合成処理部43は、施設撮影部25が各観点から検出可能物品を撮影する場合に得られることが期待される画像データと、この画像データにおいて検出可能物品を解釈するためのアノテーションデータを生成する(ステップSTB5)。この画像データとアノテーションデータの組み合わせが、学習データとなる。合成処理部43は、学習データを、学習データ記憶部53に記憶する。なお、例えば管理撮影部13と施設撮影部25が同じものである場合などでは、この画像データについては、例えば、背景データなどに代えて、又は、と共に、個別撮影データを利用してもよい。
図5(c)は、観点1についての物品Bの個別データを利用して得られる学習データにおいて、画像データの一例を示す。
合成処理部43は、個別データ記憶部51から、既に存在する検出可能物品についての個別データを取得する(ステップSTB6)。合成処理部43は、施設ステージ31に複数の検出可能物品を置いた場合に施設撮影部25が撮影して得られることが期待される画像データと、この画像データにおいて検出可能物品を解釈するためのアノテーションデータを生成する(ステップSTB7)。この複数の検出可能物品を置いた場合として得られた画像データとアノテーションデータの組み合わせが、データ拡張のための学習データとなる。合成処理部43は、データ拡張のための学習データを、学習データ記憶部53に記憶する(ステップSTB8)。
図5(d)は、施設ステージ31に2つの物品Bを置き、共に観点1から撮影された場合として得られる学習データにおいて、画像データの一例を示す。図5(e)は、施設ステージ31に1つの物品Aと1つの物品Bを置き、物品Aは観点1から、物品Bは観点1から撮影された場合として得られる学習データにおいて、画像データの一例を示す。図5(f)は、施設ステージ31に1つの物品Aと1つの物品Bを置き、物品Aは観点2から、物品Bは観点1から撮影された場合として得られる学習データにおいて、画像データの一例を示す。図5(g)は、施設ステージ31に2つの物品Aと1つの物品Bを置き、1つの物品Aは観点1から、もう1つの物品Aは観点2から、物品Bは観点1から撮影された場合として得られる学習データにおいて、画像データの一例を示す。図5(h)は、施設ステージ31に4つの物品Aと2つの物品Bを置き、2つの物品Aは観点1から、2つの物品Aは観点2から、2つの物品Bは観点1から撮影された場合として得られる学習データにおいて、画像データの一例を示す。同様に、多数の検出可能物品の配置した場合についての学習データを生成することができる。なお、2つの物品Aを配置する位置を変えて、さらに複数の学習データを生成してデータ拡張をしてもよい。
図6は、検出可能物品を削除する場合の処理の一例を示すフロー図である。
管理装置3の管理者は、管理操作部15を操作して、削除する検出可能物品を指示する。管理通信部11は、情報処理装置7に対して、検出可能物品を削除することと、削除する検出可能物品を特定するための情報を送信する。学習通信部39は、管理通信部11から受信した情報に従って、削除する検出可能物品を特定する(ステップSTC1)。
合成処理部43は、学習データ記憶部53に記憶された学習データを検索し、削除する検出可能物品の個別データを含む学習データを特定して削除する(ステップSTC2)。
図7は、学習処理部45による処理の一例を説明するためのフロー図である。学習処理部45は、学習データ記憶部53に記憶された学習データが変更(例えば、増加、減少など)したか否かを判定する(ステップSTD1)。学習処理部45は、学習データの変更がない場合には待機する。学習処理部45は、学習データが変更した場合には、変更後の学習データを用いて、判定処理部57に対する学習処理を行う。判定処理部57は、この学習処理によって、撮影データにおいて撮影された検出可能物品を識別するための物品識別情報(物品名、物品識別番号など)と、各物品識別情報に対応する検出可能物品の点数を判定することができる。
ここで、判定処理部57による判定処理は、画像処理領域の物品識別と物品認識を併せて行うものであり、物品認識前のセグメンテーション作業が不要なものである。例えば、ニューラルネットワークにEfficientNetを採用する。EfficientNetは、例えばResNet50などと比較して少ない計算量で高い精度を出すことができる。また、重なった商品も認識することができる。ただし、学習データを作成する工期が長くなる傾向にあった。例えば70商品で3人作業により3カ月かかった。学習用に3,000枚以上の写真を撮影し、これらの3,000枚以上の写真に対してアノテーション作業のためにラベル付けを行った。これにより95%程度の精度で検出することができた。また、商品が追加するたびに、既存の商品も含めて同様の作業を行うことが必要になる。それに対し、本願発明によれば、アノテーション作業を含めて自動化して、容易にデータ拡張を実現することができる。例えば100商品について撮影し、合成写真10000枚を作製したところ、一般的なパソコン1台で、2日で学習データを作成することができた。そして、同程度の精度での検出を実現することができた。さらに、商品の追加も削除も容易に実現することができる。
図8は、対象物品群33の判定処理の一例を示すフロー図である。
施設装置5の利用者は、施設ステージ31に対象物品群33を載せる。対象物品群33は、一つ又は複数の対象物品を含む。施設撮影部25は、例えばカメラである。施設操作部27は、例えばタッチパネルである。施設撮影部25は、利用者が施設操作部27を操作して指示したこと、図示を省略する検出装置によって利用者が施設ステージ31に対象物品群33を載せたことを検出したこと、などによって、施設ステージ31に載せられた対象物品群33を撮影して、静止画像である対象撮影データを得る。施設通信部23は、情報処理装置7に、対象物品群33が撮影されたことと、対象物品群33を撮影して得られた対象撮影データを送信する。
判定通信部55は、施設通信部23から対象撮影データを受信する。対象撮影データ記憶部61は、対象撮影データを記憶する(ステップSTE1)。判定処理部57は、対象撮影データにおいて撮影された対象物品を識別するための物品識別情報と、各物品識別情報に対応する検出可能物品の点数を特定する(ステップSTE2)。判定結果記憶部63は、判定処理部57により特定された物品識別情報と点数を記憶する。
判定通信部55は、判定処理部57により特定された物品識別情報と点数を、施設装置5に送信する。施設装置5において、施設操作部27は、物品識別情報と物品名及び価格との対応関係を特定する情報を参照して、対象物品群33に含まれる対象物品の物品名と価格を取得し、施設装置5の利用者に表示する(ステップSTE3)。利用者は、表示された内容を確認して、購入するために決済のための指示を行う(ステップSTE4)。施設通信部23は、物品処理サーバ9に対して決済のための情報を送信する。物品処理サーバ9において、物品処理通信部65が施設通信部23から決済のための情報を受信すると、物品関連処理部67は決済のための処理を行い、物品処理通信部65は決済処理が終了したことを施設装置5に伝える。施設操作部27は、決済処理が終了したことを表示して利用者に伝える。
図9~図11を参照して、発明者らによる具体的な実験の例を説明する。
図9は、商品の領域を検出して切り出す処理を説明するための図である。図9(a)は、オリジナル画像を示す。実験では、カラーの写真を用いた。図9(b)、(c)及び(d)は、それぞれ、青、緑、赤の各色チャンネルの画像を示す。図9(e)は、グラブカットアルゴリズムの使用した画像を示す。図9(f)は、各色チャンネル、グラブカットアルゴリズムなどを使用した複合手法により得られた、対象物のマスク画像を示す。図9(g)は、対象物を含む長方形の領域を示す。なお、必要に応じて角度変更などを行ってもよい。
図10は、合成処理部43による個々の物品のエッジ処理の一例を示す図である。複数の商品を検出して背景を分離した後、一枚の写真を合成する。ここでは、各物品の内外のエッジを検出してエッジ領域のマスキングを行い、対象物のエッジをぼかす。具体的には、図10(a)は、検出された対象物の外側及び内側のエッジを示す。図10(b)は、図10(a)の長方形の部分の拡大図である。図10(c)は、対象物のエッジ領域のマスキングを示す。図10(d)は、図10(c)の長方形の部分の拡大図である。図10(e)は、対象物のエッジをぼかした状態を示す。図10(f)は、図10(e)の長方形の部分の拡大図である。
図11は、訓練結果を示す図である。図11(a)は、検証用セットの結果を示す。図11(b)は、テスト用セットの結果を示す。通常の学習セットと同じ程度の精度であることを確認することができた。
図12は、10-fold交差検証を実施した結果を示すグラフである。Difficult(例えば、複数の物品間の距離が非常に狭かったり、物品が少なくとも一部において重なっている状態など)は、最も評価精度が低かったものである。Easy(例えば、複数の物品間の距離が十分に確保できている状態など)は、最も評価が高かったものである。Valは、平均値である。横軸は、各画像の使用回数である。縦軸は、平均精確性を示す。全体的に、3回ほどの使用回数で十分な精確性を示している。
図13は、(a)評価時と(b)訓練時の損失を示す。横軸は、各画像の使用回数である。縦軸は、(a)評価時の損失(classification loss)と、(b)訓練時の損失(regression loss)を示す。図13も、全体的に、3回ほどの使用回数で、損失が十分になくなっていることを示している。
エッジ検出の改良について説明をする。ここでは、単純な背景を持つ画像におけるキャニー(Canny)エッジを応用して、適応的な閾値キャニーエッジ検出法を説明する。具体的には、(前景に位置する)オブジェクトと背景の分布を考慮し、対応するグレー画像に対して画素強度統計量を演算する。背景の画素の強度分布は正規分布であるため、平均値を容易に求めることができる。このため、平均値に基づいて背景との距離を適切に保つことで、二重の閾値を設定することができる。背景の統計的な結果を分析して二重の適応的な閾値を決定してエッジを検出する。発明者らは、撮影条件の異なる画像に対する実験により、二重の適用的な閾値を利用することで、キャニーエッジを良好に検出でき、異なる条件に対して強いロバスト性を持つことを確認した。これにより、様々な産業用途において、簡単かつ自動的に画像から対象物を検出・分割することが可能となる。
具体的には、まず、対応するグレースケール画像の画素の強度について統計解析を行い、背景の平均値を求め、その平均値に基づいて二重の閾値を決定する。最後に、二重しきい値に従ってキャニーエッジを検出する。
RGB画像は3つのチャンネルを持ち、グレー画像は1つのチャンネルを持つ。計算を簡単にするために、グレースケール画像に変換する。背景は無地なので、ヒストグラムの背景の分布は集中し、ピークにつながる。また、背景の面積が大きいため、背景においてヒストグラムの最も高いピークとなる正規分布となる。このように、強度の分布から背景の平均値を容易に求めることができる。
背景の正規分布は分散が非常に小さく、前景に位置する物品の面積が小さいことを考慮すると、物品の割合を無視して、全画像が正規分布であると仮定することができる。そうすると、背景の平均強度をうまく得ることができる。
画像中の対象物の面積は小さく、背景と物品の間には強度差がある。そのため、背景の中心までの強度距離に応じて二重の閾値を求めることができる。以下では、最も単純な例として、相対的な距離によって二重閾値を設定する。
ある画素の強度勾配が第1閾値より大きい場合、この画素はオブジェクトのエッジ点である必要がある。同時に、勾配が第2閾値より大きく第1閾値より小さい場合、それは弱いエッジ点である。信頼できるエッジかどうかは、周囲のピクセルの状態によって決定される。また、勾配が第2閾値より小さい場合、オブジェクトのエッジ点ではない。このように、異なる照度や背景で撮影された画像に対して適切なエッジ情報を得るために二つの適応的な閾値を自動的に設定することができる。
この二つの閾値により、段階的にキャニーエッジを検出することができる。まず、ガウシアンフィルタにより画像を平滑化する。画像をガウシアンスムージングした後、方向と勾配などを総合的に考慮してグラデーションを計算する。ここで、各方向の勾配は、画素の強度に応じて計算される。さらに、各エッジに対して1画素のみの応答を保証するために、画像に対して非最大化の抑制を行う。3x3の近傍領域を用いて、2つの勾配方向に沿って補間を行う。勾配が2方向とも最大であればエッジ点の候補となる。それ以外の場合はエッジ点の候補でない。最後に、二つの閾値に従ってすべてのエッジ点候補をチェックする。第1閾値より小さく第2閾値より大きいピクセルについて、その隣接ピクセルがエッジ点であれば、このピクセルはエッジ点としてマスクされる。そうでない場合は、エッジポイントではない。こうしてエッジ検出を終了し、エッジ情報を出力することができる。
1 判定システム
3 管理装置
5 施設装置
7 情報処理装置
9 物品処理サーバ
11 管理通信部
13 管理撮影部
15 管理操作部
17 管理照明部
19 管理ステージ
21 検出可能物品
23 施設通信部
25 施設撮影部
27 施設操作部
29 施設照明部
31 施設ステージ
33 対象物品群
35 学習部
37 判定部
39 学習通信部
41 検出処理部
43 合成処理部
45 学習処理部
47 個別撮影データ記憶部
49 背景データ記憶部
51 個別データ記憶部
53 学習データ記憶部
55 判定通信部
57 判定処理部
61 対象撮影データ記憶部
63 判定結果記憶部
65 物品処理通信部
67 物品関連処理部

Claims (5)

  1. 対象物品群を撮影して得られた対象撮影データに含まれる各対象物品を、学習データを利用して判定する判定システムにおける判定方法であって、
    情報処理装置と、前記対象物品群を撮影する施設撮影部を備え、
    前記情報処理装置は、検出処理部と、合成処理部と、学習処理部と、判定処理部を備え、
    前記検出処理部が、複数の検出可能物品について個々の検出可能物品を別々に撮影した個別撮影データから個別データを生成する個別データ生成ステップと、
    前記合成処理部が、複数の前記個別データを組み合わせて学習データを生成するデータ拡張ステップと、
    前記学習処理部が、前記学習データを利用して前記判定処理部に対して学習処理を行う学習ステップと、
    前記施設撮影部が、前記対象物品群を撮影して前記対象撮影データを得る対象撮影ステップと、
    前記判定処理部が、前記対象撮影データに含まれる各対象物品を判定する判定ステップを含み、
    新たに検出する検出可能物品を追加する場合に、
    前記検出処理部が、前記新たに検出する検出可能物品を撮影した個別撮影データから個別データを生成し、
    前記合成処理部が、前記新たに検出する検出可能物品の個別データと、既に検出できる検出可能物品の個別データとを組み合わせて配置して学習データを生成するステップを含む判定方法。
  2. 前記対象撮影データは、前記施設撮影部が、前記対象物品群を、施設照明部が光を照射した施設ステージに載せた状態を撮影したものであり、
    前記施設ステージと、前記合成処理部が複数の前記個別データを組み合わせて学習データを生成するために使用する背景データは、無地であり、
    前記施設撮影部は、前記施設ステージにおいて前記対象物品群の影が生じないように光を照射し、
    前記判定処理部は、画像処理領域の物品識別と物品認識を行うものであって、物品認識前のセグメンテーション作業が不要なものである、請求項1記載の判定方法。
  3. 対象物品群を撮影して得られた対象撮影データに含まれる各対象物品を、学習データを利用して判定する判定システムにおける判定方法であって、
    情報処理装置と、前記対象物品群を撮影する施設撮影部を備え、
    前記情報処理装置は、検出処理部と、合成処理部と、学習処理部と、判定処理部を備え、
    前記検出処理部が、複数の検出可能物品について個々の検出可能物品を別々に撮影した個別撮影データから個別データを生成する個別データ生成ステップと、
    前記合成処理部が、複数の前記個別データを組み合わせて学習データを生成するデータ拡張ステップと、
    前記学習処理部が、前記学習データを利用して前記判定処理部に対して学習処理を行う学習ステップと、
    前記施設撮影部が、前記対象物品群を撮影して前記対象撮影データを得る対象撮影ステップと、
    前記判定処理部が、前記対象撮影データに含まれる各対象物品を判定する判定ステップを含み、
    検出可能物品を削除する場合に、前記合成処理部が、前記学習データのうち、削除する検出可能物品を含むものを削除するステップを含む判定方法。
  4. 対象物品群を撮影して得られた対象撮影データに含まれる各対象物品を、学習データを利用して判定する判定システムであって、
    情報処理装置と、前記対象物品群を撮影する施設撮影部を備え、
    前記情報処理装置は、検出処理部と、合成処理部と、学習処理部と、判定処理部を備え、
    前記検出処理部は、複数の検出可能物品について個々の検出可能物品を別々に撮影した個別撮影データから個別データを生成し、
    前記合成処理部は、複数の前記個別データを組み合わせて学習データを生成し、
    前記学習処理部は、前記学習データを利用して前記判定処理部に対して学習処理を行い、
    前記施設撮影部は、前記対象物品群を撮影して前記対象撮影データを得、
    前記判定処理部は、前記対象撮影データに含まれる各対象物品を判定し、
    新たに検出する検出可能物品を追加する場合に、
    前記検出処理部は、前記新たに検出する検出可能物品を撮影した個別撮影データから個別データを生成し、
    前記合成処理部は、前記新たに検出する検出可能物品の個別データと、既に検出できる検出可能物品の個別データとを組み合わせて配置して学習データを生成する、判定システム。
  5. 対象物品群を撮影して得られた対象撮影データに含まれる各対象物品を、学習データを利用して判定する判定システムであって、
    情報処理装置と、前記対象物品群を撮影する施設撮影部を備え、
    前記情報処理装置は、検出処理部と、合成処理部と、学習処理部と、判定処理部を備え、
    前記検出処理部は、複数の検出可能物品について個々の検出可能物品を別々に撮影した個別撮影データから個別データを生成し、
    前記合成処理部は、複数の前記個別データを組み合わせて学習データを生成し、
    前記学習処理部は、前記学習データを利用して前記判定処理部に対して学習処理を行い、
    前記施設撮影部は、前記対象物品群を撮影して前記対象撮影データを得、
    前記判定処理部は、前記対象撮影データに含まれる各対象物品を判定し、
    検出可能物品を削除する場合に、前記合成処理部は、前記学習データのうち、削除する検出可能物品を含むものを削除する、判定システム。
JP2022093269A 2022-06-08 2022-06-08 判定方法及び情報処理装置 Active JP7501858B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022093269A JP7501858B2 (ja) 2022-06-08 2022-06-08 判定方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022093269A JP7501858B2 (ja) 2022-06-08 2022-06-08 判定方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2023180133A JP2023180133A (ja) 2023-12-20
JP7501858B2 true JP7501858B2 (ja) 2024-06-18

Family

ID=89235593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022093269A Active JP7501858B2 (ja) 2022-06-08 2022-06-08 判定方法及び情報処理装置

Country Status (1)

Country Link
JP (1) JP7501858B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216970A (ja) 2002-01-23 2003-07-31 Canon Inc 三次元画像処理装置、三次元画像処理システム、三次元画像処理方法および三次元画像処理プログラム
JP2018132962A (ja) 2017-02-15 2018-08-23 オムロン株式会社 画像出力装置及び画像出力方法
JP2022076296A (ja) 2020-11-09 2022-05-19 東京ロボティクス株式会社 データセット生成装置、生成方法、プログラム、システム、機械学習装置、物体認識装置、及びピッキングシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216970A (ja) 2002-01-23 2003-07-31 Canon Inc 三次元画像処理装置、三次元画像処理システム、三次元画像処理方法および三次元画像処理プログラム
JP2018132962A (ja) 2017-02-15 2018-08-23 オムロン株式会社 画像出力装置及び画像出力方法
JP2022076296A (ja) 2020-11-09 2022-05-19 東京ロボティクス株式会社 データセット生成装置、生成方法、プログラム、システム、機械学習装置、物体認識装置、及びピッキングシステム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
山本健生 外3名,画像合成による物体検出モデルの効率的な環境適応技術,月刊JETI,株式会社日本出版制作センター,2022年01月15日,第70巻 第1号,pp.109~115
細野峻司 外3名,特定物体認識と姿勢推定のマルチタスク学習のための適応的な損失統合,電子情報通信学会論文誌D VolumeJ103-D No.12[online],日本,電子情報通信学会,2020年12月01日,第J103-D巻 第12号,pp.929~940

Also Published As

Publication number Publication date
JP2023180133A (ja) 2023-12-20

Similar Documents

Publication Publication Date Title
KR101863196B1 (ko) 딥러닝 기반 표면 결함 검출장치 및 방법
US10152655B2 (en) Deep-learning network architecture for object detection
US11663811B2 (en) Systems, methods, and storage media for evaluating images
Guo et al. Paired regions for shadow detection and removal
TW202101371A (zh) 視訊流的處理方法和裝置
US11651477B2 (en) Generating an image mask for a digital image by utilizing a multi-branch masking pipeline with neural networks
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
CN112016546A (zh) 一种文本区域的定位方法及装置
CN108960412B (zh) 图像识别方法、装置及计算机可读存储介质
US11580634B2 (en) System and method for automated surface assessment
JP2009187482A (ja) 棚割再現方法、棚割再現プログラム、棚割評価方法、棚割評価プログラム及び記録媒体
Rossi et al. FishAPP: A mobile App to detect fish falsification through image processing and machine learning techniques
CN114581456B (zh) 一种多图像分割模型的构建方法、图像检测方法及装置
CN111815528A (zh) 基于卷积模型和特征融合的恶劣天气图像分类增强方法
CN112016545A (zh) 一种包含文本的图像生成方法及装置
CN111222530A (zh) 一种细粒度图像分类方法、系统、装置和存储介质
KR102665603B1 (ko) 스테레오 매칭을 위한 하드웨어 디스패러티 평가
CN110569716A (zh) 一种货架图像翻拍检测方法
JP7501858B2 (ja) 判定方法及び情報処理装置
CN111191584B (zh) 一种人脸识别方法及装置
US20180158174A1 (en) Image processing method and apparatus
JP7090251B2 (ja) 一連の画像フレーム内においてled光源を検出する方法、少なくとも1つのled光源を備える交通信号灯を検出する方法、及び車両
JP5979008B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102467907B1 (ko) 학습 데이터 일반화를 위한 색상 이미지의 도면 이미지화 변환 장치 및 방법
Padhy et al. A YCbCr Model Based Shadow Detection and Removal Approach On Camouflaged Images

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240528

R150 Certificate of patent or registration of utility model

Ref document number: 7501858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150