JP2019220116A - 情報処理装置、判定方法、および対象物判定プログラム - Google Patents

情報処理装置、判定方法、および対象物判定プログラム Download PDF

Info

Publication number
JP2019220116A
JP2019220116A JP2018119346A JP2018119346A JP2019220116A JP 2019220116 A JP2019220116 A JP 2019220116A JP 2018119346 A JP2018119346 A JP 2018119346A JP 2018119346 A JP2018119346 A JP 2018119346A JP 2019220116 A JP2019220116 A JP 2019220116A
Authority
JP
Japan
Prior art keywords
unit
image
extraction
classification
extraction unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018119346A
Other languages
English (en)
Other versions
JP7219023B2 (ja
Inventor
栄進 遠藤
Eishin Endo
栄進 遠藤
淳 杉本
Atsushi Sugimoto
淳 杉本
良太 井岡
Ryota Ioka
良太 井岡
前田 誠一
Seiichi Maeda
誠一 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Zosen Corp
Original Assignee
Hitachi Zosen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Zosen Corp filed Critical Hitachi Zosen Corp
Priority to JP2018119346A priority Critical patent/JP7219023B2/ja
Publication of JP2019220116A publication Critical patent/JP2019220116A/ja
Application granted granted Critical
Publication of JP7219023B2 publication Critical patent/JP7219023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像に写る対象物の分類精度を向上させる。【解決手段】判定装置(1)は、機械学習結果に基づき、画像(201)の画像領域のうち対象物が写っている対象領域を抽出して部分画像を生成する第2抽出部(103)と、機械学習結果に基づき上記部分画像から対象物の分類カテゴリを判定する分類部(105)と、を備えている。【選択図】図1

Description

本発明は、対象物を撮影した画像から当該対象物の分類カテゴリを判定する情報処理装置等に関する。
対象物を撮像した画像から、対象物を検出する技術や、検出した対象物を分類する技術が従来から知られている。例えば、下記の特許文献1には、商品を撮像した画像から商品の種別および商品に付された値引きシールの情報を認識することにより、故意または過誤により誤った値引きシールが付されていることを検出する商品登録装置が記載されている。
特開2016−177419号公報
一般に、値引きシールのサイズは、商品のサイズと比べれば小さいものであり、このため、撮像された画像の画像領域全体に占める、値引きシールが写っている領域の割合は低いものとなる。それゆえ、上述のような従来技術には、値引きシールを高精度に認識することが難しいという問題がある。また、このような問題は、値引きシールの内容認識を行う装置に限られず、対象物が画像の一部分に写っている画像に基づいて当該対象物を識別あるいは分類する装置に共通して生じる課題である。
本発明の一態様は、上記の問題点に鑑みてなされたものであり、その目的は、画像に写る対象物の分類精度を従来よりも向上させることが可能な情報処理装置等を実現することを目的とする。
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する情報処理装置であって、機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する機械学習抽出部と、機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類部と、を備えている。
また、本発明の一態様に係る判定方法は、上記の課題を解決するために、1または複数の装置により、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する判定方法であって、機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出ステップと、機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類ステップと、を含む。
本発明の一態様によれば、画像に写る対象物の分類精度を従来よりも向上させることが可能になる。
本発明の一実施形態に係る判定装置の要部構成の一例を示すブロック図である。 食品生産工場において、生産された食品を判定装置の判定対象物として撮影した例を示す図である。 上記判定装置が実行する判定処理の一例を示すフローチャートである。 上記判定装置の判定結果の表示例を示す図である。 上記判定装置が、新規対象物画像が所定数以上記憶されたことを契機として開始する機械学習に関する処理の一例を示すフローチャートである。 機械学習に関する処理において表示装置に表示させる画像例を示す図である。
〔判定システムの概要〕
本発明の一実施形態について図1〜図6に基づいて説明する。まず、本実施形態に係る判定装置(情報処理装置)1の概要を図1に基づいて説明する。図1は、判定装置1の要部構成の一例を示すブロック図である。
判定装置1は、複数の対象物をそれぞれ撮影した画像201から各対象物の分類カテゴリを判定する。詳細は以下説明するが、判定装置1は、まず画像201において対象物が写っている領域を機械学習結果に基づいて抽出し、次に抽出した領域の部分画像から上記対象物の分類カテゴリを機械学習結果に基づいて判定するという特徴的構成を備えている。これにより、対象物の分類カテゴリを高精度に判定することができる。また、詳細は以下説明するが、判定装置1は、上記の機械学習に用いる訓練データの生成に関する特徴点も有している。
判定装置1は、判定装置1の各部を統括して制御する制御部10、および、判定装置1が使用する各種データを記憶する記憶部20を備えている。また、判定装置1は、判定装置1に対するデータの入力を受け付ける入力部30、判定装置1が他の装置と通信するための通信部40、および判定装置1がデータを出力するための出力部50を備えている。
制御部10には、画像取得部101、第1抽出部(抽出部)102、第2抽出部(機械学習抽出部)103、抽出成否判定部104、分類部105、分類成否判定部106、目視判定部107、合否判定部108、学習部109、抽出精度判定部110、画像加工部111、訓練データ生成部(分類部訓練データ生成部、抽出部訓練データ生成部)112、および領域入力受付部113が含まれている。また、記憶部20には、画像(対象画像)201、新規対象物画像(訓練用画像)202、分類部訓練データセット203、および抽出部訓練データセット204が記憶されている。
画像取得部101は、判定装置1による判定の対象物を撮影した画像を取得する。本実施形態では、対象物を撮影した画像は、入力部30を介して判定装置1に入力されて、記憶部20に画像201として記憶される。このため、画像取得部101は、記憶部20から画像201を取得する。無論、画像取得部101が画像201を取得する方法は特に限定されない。例えば、画像取得部101は、撮像装置を制御して対象物を撮像させ、当該撮像装置から画像201を取得してもよい。
第1抽出部102は、第2抽出部103および分類部105の機械学習用の訓練データの元になる画像である新規対象物画像202から対象物が写っている領域を抽出して部分画像を生成する。なお、領域抽出(例えば対象物が写っている領域を示す座標値の出力)と、部分画像の生成を別のブロックで実行するようにしてもよい。第1抽出部102は、第2抽出部103と同様に、画像から対象物が写っている領域を抽出して部分画像を生成する機能を有しているが、抽出の手法が第2抽出部103とは異なっている。第1抽出部102の抽出手法は、第2抽出部103では領域抽出が難しい画像からの抽出が可能なものであることが望ましい。例えば、第1抽出部102は、機械学習を行うことなく対象物の抽出を行うものであってもよい。本実施形態では、第1抽出部102が特徴点マッチングにより対象物を抽出する例を説明する。無論、これは一例であり、例えばパターンマッチング等他の手法を適用することも可能である。
第2抽出部103は、機械学習の結果に基づき、画像201から対象物が写っている領域を抽出して部分画像を生成する。なお、領域抽出(例えば対象物が写っている領域を示す座標値の出力)と、部分画像の生成を別のブロックで実行するようにしてもよい。第2抽出部103を対象物の写り方(サイズ、向き、光の当り具合、ピント等)が異なる様々な画像で機械学習させておくことにより、対象物の写り方が変わっても高精度で対象物を抽出することができる。
機械学習するアルゴリズムは特に限定されないが、高い判定精度が望まれる場合、ニューラルネットワーク等の機械学習アルゴリズムを利用することが好ましく、特に深層学習したニューラルネットワークにより判定を行うものとすることがより好ましい。本実施形態では、第2抽出部103としてYolo(You Only Look Once)を適用する例を説明する。なお、Yoloは、対象物が写っている領域を抽出する機能と、対象物を識別(分類)する機能とを備えているが、そのうち領域抽出機能のみを第2抽出部103として利用する。
抽出成否判定部104は、第1抽出部102による抽出が成功したか否かを判定する。また、抽出成否判定部104は、第2抽出部103による抽出が成功したか否かを判定する。具体的には、抽出成否判定部104は、抽出した領域の面積が、所定の範囲内であるか否かにより、抽出の成否を判定する。つまり、ここでは、画像201において対象物が占める面積がどの程度であるかが既知であることを想定している。なお、抽出の成否を判定する方法はこの例に限られない。例えば、抽出成否判定部104は、第1抽出部102の抽出結果を示す画像(例えば抽出元の画像に抽出領域を示す情報を重畳した画像)を表示装置に表示させ、その画像の閲覧者(目視検査員)に抽出成否を入力させることにより、抽出成否を判定してもよい。または、闘値を設け、第2抽出部103が算出する確度(抽出結果の確からしさ)が、上記闘値を上回るか下回るかで抽出の成否を判定してもよい。第2抽出部103による抽出の成否の判定も同様である。なお、第1抽出部102による抽出の成否と、第2抽出部103による抽出の成否を別のブロックで判定してもよい。
分類部105は、第2抽出部103が出力する部分画像に基づいて対象物の分類カテゴリを判定する。この判定は、画像と該画像に写る対象物の分類カテゴリとの対応関係を機械学習した結果に基づいて行われる。この機械学習には、複数の分類カテゴリのそれぞれに該当する対象物がそれぞれ写っている画像から当該対象物が写っている領域を抽出して生成された部分画像を訓練データとして用いることが好ましい。これにより、機械学習に対する対象物の背景の影響をゼロにするかまたは低減することができるので、分類部105の機械学習を短時間で完了させることが可能になると共に、背景を含む画像で機械学習させる場合よりも判定精度を高めることが可能になる。
分類部105として適用可能なアルゴリズムは特に限定されないが、高い判定精度が望まれる場合、ニューラルネットワーク等の機械学習アルゴリズムを利用することが好ましく、特に深層学習したニューラルネットワーク(例えばResNet:Residual Network等)により判定を行うものとすることがより好ましい。本実施形態では分類部105が、部分画像を入力データとして、所定の複数の分類カテゴリのそれぞれのスコアを出力するResNetである例を説明する。このスコアは、部分画像に写る対象物が各分類カテゴリに該当する確度(確からしさ)を示す数値であり、スコアが最も高い分類カテゴリが、対象物の分類カテゴリとして最も確からしいということになる。したがって、スコアが最も高い分類カテゴリが分類部105の判定結果ということになる。
分類成否判定部106は、分類部105の判定結果が所定の評価基準を満たしているか否かを判定する。具体的には、分類成否判定部106は、分類部105が出力するスコアと閾値とを比較することで評価基準を満たしているか否かを判定する。そして、分類成否判定部106は、分類部105が各分類カテゴリについて出力したスコアの何れもが評価基準を満たしていなければ分類部105の分類は失敗と判定し、評価基準を満たしているスコアがあれば分類成功と判定する。なお、分類カテゴリごとにスコアの精度が異なる場合、分類成否判定部106は、各分類カテゴリに応じた値の閾値を用いることが好ましい。
目視判定部107は、画像201に写る対象物が所定の分類カテゴリの何れにも該当しない場合、画像201を表示装置に表示させて、目視検査員による分類カテゴリの入力を受け付けることにより、対象物の分類カテゴリを判定する。また、目視判定部107は、分類成否判定部106が、分類部105の判定結果の確度が閾値未満であると判定した場合にも同様にして対象物の分類カテゴリを判定する。
なお、本実施形態では、上記表示装置が、目視検査員が使用する目視検査端末に接続された(または目視検査端末が備える)表示装置である例を説明する。目視検査端末は、目視検査員の入力を受け付けて、その入力内容を判定装置1に有線または無線通信で通知する。よって、目視判定部107は、通信部40を介してこの通知を受信することにより、対象物の分類カテゴリを判定する。目視検査端末は、対象物がある施設(例えば、対象物が工場で生産される製品であれば工場内)に配置されていてもよいし、当該施設外に配置されていてもよく、据え置き型の装置であってもよいし、携帯型の装置であってもよい。また、目視検査端末および目視検査員の数は、複数であってもよい。
なお、目視検査員が、対象物自体を目視できるのであれば、目視判定部107は、対象物を目視した目視検査員による対象物の分類カテゴリの入力を受け付けることにより、対象物の分類カテゴリを判定してもよい。この場合、表示装置に画像201を表示させる必要はない。また、上記入力は目視検査端末で受け付けて判定装置1に送信する構成としてもよいし、入力部30で受け付ける構成としてもよい。
合否判定部108は、分類部105の判定結果と、画像201に本来写っているべき対象物を示す情報を照合して、画像201に写る対象物の合否を判定する。合否判定部108は、例えば、後述する図2の例のように生産ライン600にて食品601が搬送される場合に、食品601に正しいラベル6011が貼り付けられているかを確認するために用いられる。
例えば、「XXファーム 和牛」と印字されたラベル6011を貼り付けた食品601搬送しているときに撮影された画像201に基づき、分類部105が「XXファーム 和牛」のラベルと判定した場合には、正しいラベル6011が貼り付けられている。よって、この場合には、合否判定部108は、合格と判定する。一方、この場合に、分類部105が「XXファーム 黒豚」のラベルと判定した場合には、誤ったラベル6011が貼り付けられた食品601が搬送されているので、合否判定部108は不合格と判定する。これにより、誤ったラベル6011が貼り付けられた食品601が搬送されているのを自動で検出することが可能になる。なお、このような検出が不要であれば、合否判定部108を省略してもよい。
学習部109は、抽出精度判定部110が算出する評価値(詳細は後述)に基づいて第2抽出部103の再学習を行うタイミングを決定し、決定したタイミングで第2抽出部103の再学習を行う。第2抽出部103の再学習には、抽出部訓練データセット204に記憶されている訓練データ(抽出部訓練データ)を用いる。また、学習部109は、分類部訓練データセット203に記憶されている訓練データ(分類部訓練データ)を用いて、分類部105の再学習を行う。なお、再学習を行うタイミングの決定と、再学習を行う処理とは別のブロックで実行するようにしてもよい。また、分類部105の再学習を学習部109とは別のブロックで実行するようにしてもよい。
抽出精度判定部110は、第1抽出部102の抽出結果と第2抽出部103の抽出結果に基づいて第2抽出部の抽出精度の評価値を算出する。この評価値は、第2抽出部の抽出精度を示すものであればよい。本実施形態では、抽出精度判定部110が、第1抽出部102が新規対象物画像202から抽出した領域と、第2抽出部103が新規対象物画像202から抽出した領域との重なり合いの程度を示す評価値(IoU:Intersection over Union)を算出する例を説明する。IoUは、第1抽出部102が抽出した領域と、第2抽出部が抽出した領域とが完全に重なっていれば100(%)、全く重なっていなければ0(%)となる。なお、人の手間が増える点が許容できるのであれば、第1抽出部102の抽出結果を用いる代わりに、目視検査員が対象物の写る領域を抽出した結果と、第2抽出部103の抽出結果に基づいてIoUを算出してもよい。
画像加工部111は、新規対象物画像202に所定の画像処理を施すことによって1または複数の画像を生成する。これにより、第2抽出部103の機械学習に用いる訓練用画像の数を増やし、第2抽出部103の再学習の効果を高めることができる。特に、対象物の写り方の変化に対する第2抽出部103の適応性を高めることができる。所定の画像処理は、新規対象物画像202とは異なる画像であって、第2抽出部103の訓練データとして使用可能な画像を生成するものであればよい。例えば、画像加工部111は、新規対象物画像202にアフィン変換(affine transformation)を施して、新規対象物画像202の内容は変えずに回転等の変換を加えた画像を生成してもよい。また、例えば、画像加工部111は、アフィン変換の代わりに、あるいはアフィン変換に加えて、輝度値やコントラスト等を変化させる画像処理を施してもよい。
訓練データ生成部112は、訓練用画像(新規対象物画像202および新規対象物画像202を加工した画像)と第1抽出部102または領域入力受付部113が抽出した領域とを対応付けて、第2抽出部103の機械学習用の訓練データ(抽出部訓練データ)を生成する。また、訓練データ生成部112は、第1抽出部102が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、分類部105の機械学習用の訓練データ(分類部訓練データ)を生成する。なお、抽出部訓練データの生成と、分類部訓練データの生成を別のブロックで実行するようにしてもよい。
領域入力受付部113は、第1抽出部102および第2抽出部103の何れによっても対象物が写った領域の抽出が困難である場合に、上述した目視検査端末の表示装置に画像を表示させて、その画像の閲覧者(目視検査員)による領域の入力を受け付ける。そして、領域入力受付部113は、入力された領域を抽出して部分画像を生成する。なお、領域抽出と、部分画像の生成を別のブロックで実行するようにしてもよい。
画像201は、上述のとおり、判定の対象物を撮影した画像である。また、新規対象物画像202は、判定の対象物を撮影した画像のうち、分類部105が学習済みの分類カテゴリの何れにも該当しない対象物、つまり新規(未学習)の対象物が写っている画像である。新規対象物画像202は、第2抽出部103および分類部105の訓練データとして用いられる。
分類部訓練データセット203は、分類部105の機械学習に用いる訓練データセットである。また、抽出部訓練データセット204は、第2抽出部103の機械学習に用いる訓練データセットである。
〔判定装置の用途一例〕
判定装置1の用途は特に限定されないが、例えば食品生産工場の品質管理に利用することができる。これについて図2に基づいて説明する。図2は、食品生産工場において、生産された食品を判定装置1の判定対象物として撮影した例を示す図である。
図2の(a)には、食品の生産ライン600の一部を示している。生産ライン600には、食品601を同図の白抜き矢印の方向に搬送する搬送部602が含まれている。また、搬送部602には、搬送部602の上方に撮像装置603を保持する撮像台604が設けられている。これにより、搬送部602にて搬送されている食品601を真上から撮影することができる。
図2の(b)には、同図の(a)の撮像装置603で撮影された画像201の例を示している。この画像201には、パック詰めされた食肉である食品601が写っている。また、画像201には、食品601のパックに貼られたラベル6011と値札シール6012も写っている。ラベル6011は、食品601の標識として貼り付けられたものであり、例えば食品601の製造元、生産者、およびブランドの少なくとも何れかを示すものであってもよい。値札シール6012は、食品601の値段等を示すものであり、値札シール6012にはバーコード等も印字されている。
判定装置1により、生産ライン600上の食品601に貼られたラベル6011の種別を判定することにより、食品601に貼られたラベル6011が正しいか否かを確認することができる。図2の(b)の例のように、画像201に占めるラベル6011の領域は小さいが、判定装置1によれば、ラベル6011の領域を抽出した上で、ラベル6011の種別を判定するので、高精度な判定が可能になる。そして、これによりラベル6011の貼り間違えによる食品601の品質誤認等の問題の発生を未然に回避することができる。
なお、値札シール6012は、ラベル6011と外観が類似しているため、ラベル6011が写っている領域を精度よく抽出させるためには、ラベル6011と値札シール6012とを識別機能を判定装置1に持たせることが好ましい。
例えば、本実施形態では第2抽出部103としてYoloを利用しているが、Yoloには対象物を識別(分類)する機能があるから、この機能を利用して、抽出時に対象物の分類も行うようにしてもよい。この場合、判定装置1は、上記分類の結果がラベルである領域を抽出して部分画像を生成する。これにより、値札シール6012が写っている領域を誤って抽出しまうことを防ぎ、ラベル領域の抽出精度を高めることができる。なお、この場合、ラベル6011と値札シール6012とを分類できるように、使用するYoloについて予め機械学習を行っておく。
また、例えば、分類部105(ResNet)をラベル6011と値札シール6012との分類ができるように機械学習しておいてもよい。この場合、第2抽出部103または第1抽出部102により、値札シール6012の領域が抽出されたとしても、分類部105にてその領域に写る対象物が値札シール6012であると分類されるので、ラベル6011の分類には影響がない。
この他にも、例えば値札シール6012またはラベル6011の位置(食品601が写っている領域内の位置)に基づいて、値札シール6012とラベル6011を識別することも可能である。例えば、値札シール6012を、食品601を真正面から見てその右下隅の位置に貼り付けることが決まっている場合、第1抽出部102および第2抽出部103は、食品601の右下隅以外の領域を対象としてラベル領域を抽出してもよい。また、例えばラベル6011を値札シールの対角(食品601の左上隅)の位置に貼り付けることが決まっている場合、第1抽出部102および第2抽出部103は、食品601の右上隅の領域からラベル領域を抽出してもよい。
〔判定処理の流れ〕
判定装置1が実行する判定処理の流れを図3に基づいて説明する。図3は、判定装置1が実行する判定処理(判定方法)の一例を示すフローチャートである。なお、以下では、パック詰めされた食品の表面に貼り付けられたラベルの分類カテゴリを判定装置1が判定する例を説明する。
S1では、画像取得部101が、記憶部20に記憶されている画像201を取得する。この画像201は、例えば撮像装置603で撮影した食品601の画像であってもよい(図2参照)。また、合否判定部108は、上記ラベルの種類を示すラベルIDを取得する。なお、図2のような生産ライン600では、所定のラベルが貼り付けられた食品を搬送するので、搬送されている食品に貼り付けられたラベルのラベルIDを取得することができる。ただし、誤って他の種類のラベルが貼り付けられることがあり得るので、判定装置1による判定を行って、誤ったラベルが貼り付けられた食品601を検出する。
S2では、画像取得部101は、S1で取得した画像201が新規ラベルの画像であるか否かを判定する。新規ラベルとは、そのラベルの画像を用いた機械学習が行われていないラベルである。新規ラベルの画像であるか否かは、例えばS1で取得されたラベルIDと、機械学習に用いた各ラベルのラベルIDとを照合することで判定できる。S2で新規ラベルであると判定された場合(S2でYES)、処理はS3に進む。一方、S2で新規ラベルではないと判定された場合(S2でNO)、処理はS5に進む。
S3では、画像取得部101は、S1で取得した画像201を新規ラベルの画像として記憶部20に記憶する。なお、図1における新規対象物画像202が、この新規ラベルの画像に対応している。上述のように、新規対象物画像202は、機械学習の訓練データの生成に用いられる。
S4では、目視判定部107が、目視判定を行う。具体的には、目視判定部107は、画像201(またはS3で記憶した新規対象物画像202)を上述した目視検査端末の表示装置に表示させて、目視検査員による分類カテゴリの入力を受け付けることにより、対象物の分類カテゴリを判定する。判定装置1が目視判定部107を備えていることにより、新規ラベルの分類カテゴリや、第2抽出部103と分類部105では十分な精度の判定結果が得られなかった場合にも、正確な判定を行うことが可能になる。
また、目視判定部107は、目視検査員にラベルの合否判定(正しいラベルが貼り付けられているか否かの判定)を行わせ、その判定結果の入力を受け付ける。その後、目視判定部107は、判定結果を出力部50に出力させてもよい。S4の処理の終了により、判定処理は終了する。
また、目視判定部107は、目視検査員に対象物の領域を入力させてもよい。そして、訓練データ生成部112は、入力された領域と目視判定部107が判定の対象とした画像とを対応付けて抽出部訓練データセット204に追加してもよい。さらに、訓練データ生成部112は、入力された上記領域の部分画像と、入力された分類カテゴリとを対応付けて分類部訓練データセット203に追加してもよい。
S5(抽出ステップ)では、第2抽出部103が、S1で取得された画像201から、当該画像201の画像領域のうち、ラベルが写っている領域であるラベル領域を抽出する。そして、第2抽出部103は、上記抽出結果に基づいて画像201の部分画像を生成する。この部分画像は、画像201の画像領域のうち、ラベル領域の部分を含む画像である。なお、部分画像はラベル領域の部分の全体を含み、他の部分を含まないことが好ましい。ただし、分類部105の判定精度に大きく影響しない範囲であれば、部分画像において、ラベル領域の一部が欠けていたり、ラベル以外の部分が含まれていたりしても許容できる。また、この抽出における演算処理は、処理負荷が大きくなる場合がある。このため、第2抽出部103は、この演算処理を外部のサーバに行わせて、抽出結果を当該サーバから取得してもよい。
S6では、抽出成否判定部104が、S5の抽出が成功したか否かを判定する。この判定は、例えば、S5で抽出された領域の面積と既知のラベル面積との関係に基づいて行ってもよい。具体的には、抽出成否判定部104は、S5で抽出された領域の面積が、既知のラベル面積の所定範囲内であれば抽出成功と判定し、所定範囲外であれば抽出失敗と判定してもよい。S6で抽出成功と判定された場合(S6でYES)、処理はS7に進む。一方、S6で抽出失敗と判定された場合(S6でNO)、処理はS4に進む。
S7(分類ステップ)では、分類部105が、ラベルの分類カテゴリを判定する。具体的には、分類部105は、S5で生成された部分画像を入力データとして、予め設定された複数の分類カテゴリ(ラベルの種類)のそれぞれについて、当該分類カテゴリに該当する確度を示すスコアを出力する。部分画像を入力データとするため、S1で取得された画像201をそのまま入力データとする構成と比べて、高精度な分類結果を得ることができる。なお、この判定における演算処理は、処理負荷が大きくなる場合がある。このため、分類部105は、この演算処理を外部のサーバに行わせて、演算結果であるスコアを当該サーバから取得してもよい。
S8では、分類成否判定部106が、S7の分類が成功したか否かを判定する。具体的には、分類成否判定部106は、S7の判定結果に閾値以上のスコアが含まれているか否かを判定する。閾値以上のスコアが含まれていれば分類成功、含まれていなければ分類失敗ということになる。S8において、分類成否判定部106は、分類成功(閾値以上のスコアが含まれる)と判定した場合(S8でYES)、スコアが最も大きかった分類カテゴリを合否判定部108に通知し、処理はS9に進む。一方、S8で分類失敗(閾値以上のスコアが含まれない)と判定された場合(S8でNO)、処理はS4に進む。
S9では、合否判定部108が、S7の分類結果に基づいてラベルの合否判定を行う。具体的には、合否判定部108は、分類成否判定部106から通知された分類カテゴリ(スコアが最も大きかった分類カテゴリ)と、S1で取得したラベルIDの示す種類とが一致すれば合格と判定し、判定処理は終了する。一方、一致しなければ合否判定部108は不合格と判定し、処理はS4に進む。これにより、不合格と判定された画像201のうち、合否判定部108の判定(分類部105の分類)が誤りであった場合については、目視検査により正しい分類カテゴリが定められる。よって、目視検査により定められた正しい分類カテゴリと当該画像201とを対応付けて分類部105の訓練データとすることができる。また、合否判定部108の判定が誤りであった場合に、それを目視検査により検出することもできる。なお、合否判定部108は、判定結果を出力部50に出力させてもよい。
なお、判定結果の出力の態様は任意である。例えば、出力部50が表示装置であれば、合格または不合格であることを示す画像を表示させてもよい。また、分類カテゴリのスコアを表示してもよい。また、表示以外の態様で出力を行ってもよい。例えば不合格である場合にはブザー等の音を出力することにより、誤ったラベルが貼られた食品601があることを報知してもよい。また、例えば生産ライン600に搬送中の食品601の搬送経路を分岐させる機構が設けられている場合には、その機構を制御して、不合格と判定された食品601を生産ライン600から除外してもよい。
〔判定結果の表示例〕
上述のように、合否判定部108は、判定結果を出力部50に出力させてもよい。ここでは、分類部105の判定結果を表示出力させる例を図4に基づいて説明する。図4は、判定結果の表示例を示す図である。
図4の表示例における判定結果は、スコアが大きい上位3つの分類カテゴリ(第1〜第3候補)と、そのスコアの値を含む。このような表示により、判定結果の確からしさをユーザに認識させることができる。この例では、第1候補のラベル「XXファーム 和牛」のスコアが、第2、第3候補と比較して十分に大きく、これにより、この判定結果が信頼できるものであることをユーザに認識させることができる。また、図4の表示例には、第1〜第3候補のラベルの画像が含まれる。これにより、判定結果がどのような外観のラベルとなったかを、ユーザに容易に認識させることができる。
〔新規対象物画像を用いた機械学習に関する処理の流れ〕
判定装置1では、新規対象物画像202が所定数(例えば10個)以上記憶されたことを契機として、機械学習に関する処理が行われる。これについて、図5に基づいて説明する。図5は、新規対象物画像202が所定数以上記憶されたことを契機として開始される機械学習に関する処理の一例を示すフローチャートである。なお、所定数の新規対象物画像202は、何れも同じ分類カテゴリに属するラベルが写った画像であるとする。また、新規対象物画像202が所定数記憶されたことは、例えば画像取得部101が検出する構成とすればよい。
S21では、第1抽出部102が、新規ラベルの画像である新規対象物画像202からラベル領域を抽出する。そして、第1抽出部102は、上記抽出結果に基づいて新規対象物画像202の部分画像を生成する。これらの処理は、新規対象物画像202のそれぞれについて行う。
なお、S21の抽出精度を高めるため、S21の処理前の新規対象物画像202に前処理を施してもよい。例えば、新規ラベルが貼られている商品が、透明フィルムで包装された食肉であれば、赤色(食肉の色)の領域はラベル領域ではないと推定される。このため、新規対象物画像202のうち赤色の領域を検出し、その領域を抽出対象外とする処理をS21の前処理として行うことにより、抽出範囲を適切に絞り込むことができるので、S21の抽出精度を高めることができる。
S22では、抽出成否判定部104が、S21の抽出の成否を判定する。この判定は、例えばS21の抽出結果を示す情報を重畳した新規対象物画像202を、上述した目視検査端末の表示装置に表示させ、目視検査員に抽出成否を判断させて、その判断結果の入力を受け付けることによって行ってもよい。無論、抽出成否判定部104は、抽出された領域の面積に基づいて抽出成否を判定してもよく、この場合は目視検査員による判定は不要である。ただし、S22で抽出成功と判定された場合、その抽出結果に基づく部分画像がそのまま分類部105の訓練データとして用いられるので、S22ではできるだけ高精度な判定を行うことが好ましい。後述するS25の判定も同様である。
S23では、訓練データ生成部112が、S22で抽出成功と判定された新規対象物画像202の部分画像をラベルの分類カテゴリと対応付けて、分類部105の訓練データセット(図1の「分類部訓練データセット203」)に追加する。このように、判定装置1では、ラベル領域の抽出と、訓練データの生成が自動で行われるので、分類部訓練データの生成にかかる手間を著しく低減することができる。
S24では、第2抽出部103が、S22で抽出失敗と判定された新規対象物画像202からラベル領域を抽出し、部分画像を生成する。S22で抽出失敗と判定された新規対象物画像202が複数ある場合には、第2抽出部103はそのそれぞれからラベル領域を抽出し、部分画像を生成する。なお、ラベル6011の外形形状は、分類カテゴリが変わっても同様である場合も多いため、新規対象物画像202からであっても第2抽出部103がラベル領域を正確に抽出できる可能性がある。このように、第1抽出部102が抽出失敗した場合に、第2抽出部103が抽出する構成としたことにより、新規対象物画像202の大部分から自動でラベル領域を抽出することが可能になる。
S25では、S22と同様にして、抽出成否判定部104が、S24の抽出の成否を判定する。S25で抽出成功と判定(S25でYES)された新規対象物画像202については、S27の処理が行われる。一方、S25で抽出失敗と判定(S25でNO)された新規対象物画像202については、S26の処理が行われる。
ここで、S25では、抽出成否判定部104は、例えば図6の(a)のような画像を上述した目視検査端末の表示装置に表示させて、抽出の成否を目視検査員に判断させてもよい。図6は、抽出成否判定部104が表示させる画像の一例を示す図である。同図の(a)の画像には、ラベル6011が写った新規対象物画像202が含まれている。また、この画像においては、新規対象物画像202に重畳して、第2抽出部103が抽出したラベル領域を示す枠線301が表示されている。
このような表示を見た目視検査員は、ラベル6011が枠線301の内側に収まっているか、また収まっている場合には枠線301の内側にラベル6011ではない領域が多く含まれていないか確認する。そして、何れの確認結果も肯定的であれば抽出成功と判断して、抽出成功である旨を入力部30に入力し、一方、何れかの確認結果が否定的であれば抽出失敗と判断して、抽出失敗である旨を入力部30に入力する。なお、抽出失敗した場合のみ入力部30に入力する構成としてもよい。この場合、抽出成否判定部104は、所定時間内に目視検査員の入力が確認されなければ抽出成功と判定する。
S26では、領域入力受付部113が、目視検査員が入力した領域をラベル領域として抽出する。例えば、図6の(a)に示すような画像を表示していた場合、目視検査端末は、枠線301に対する入力操作を受け付けてラベル領域を特定し、そのラベル領域を判定装置1に通知する。そして、領域入力受付部113は、通知されたラベル領域を抽出する。
この場合、枠線301の位置および範囲は、目視検査端末に対する入力操作により任意に変更可能としておく。これにより、目視検査員は、目視検査端末に対する入力操作により枠線301の位置および範囲を変更して、図6の(b)に示すように、ラベル6011が写っている領域と一致する状態とすることができる。そして、この状態で、目視検査員がラベル領域を確定させる操作を行ったことに応じて、目視検査端末は、該操作時において枠線301が示す画像領域をラベル領域として特定することができる。
S27では、訓練データ生成部112が、S25で抽出成功と判定された新規対象物画像202の部分画像と、S26でラベル領域が抽出された新規対象物画像202の部分画像を分類部訓練データセット203に追加する。なお、S23と同様に、訓練データ生成部112は、部分画像とラベルの分類カテゴリとを対応付けて追加する。
S28では、画像加工部111が、新規対象物画像202を加工する。加工する新規対象物画像202は、S22で抽出成功と判定された新規対象物画像202、S25で抽出成功と判定された新規対象物画像202、およびS26でラベル領域が抽出された新規対象物画像202である。
S29では、訓練データ生成部112が、S28の加工後の新規対象物画像202(加工前の新規対象物画像202を含んでいてもよい)に、S21、S24、またはS26で抽出された領域と対応付けて抽出部訓練データを生成する。そして、生成した抽出部訓練データを抽出部訓練データセット204に追加する。このように、判定装置1では、ラベル領域の抽出と、訓練データの生成が自動で行われるので、抽出部訓練データの生成にかかる手間を著しく低減することができる。
S30では、第2抽出部103の抽出テストが行われる。この抽出テストでは、第2抽出部103が、S28の加工後の新規対象物画像202からラベル領域を抽出する。S28の加工後の新規対象物画像202が複数ある場合、第2抽出部103そのそれぞれからラベル領域を抽出する。
S31では、抽出精度判定部110が、S30の抽出の精度を示す評価値を算出し、学習部109が、この評価値に基づいて第2抽出部103の再学習を行うタイミングを決定する。具体的には、抽出精度判定部110は、S21において抽出したラベル領域と、S30で第2抽出部103が抽出したラベル領域との重なり合いの程度を示す評価値(IoU)を算出する。なお、新規対象物画像202は、第2抽出部103の機械学習に用いられていない画像であるから、新規対象物画像202からの抽出精度は、基本的に第1抽出部102の方が高い。このため、IoUが高いほど第2抽出部103の抽出精度は高いといえる。また、S31において、抽出精度判定部110は、S24またはS26において抽出したラベル領域と、S30で第2抽出部103が抽出したラベル領域との重なり合いの程度を示す評価値を算出してもよい。
そして、学習部109は、算出された評価値が所定の閾値以上であるか否かを判定する。閾値は必要な判定精度に応じて適宜決めておけばよく、例えば80(%)としてもよい。なお、S30で複数の新規対象物画像202からラベル領域を抽出した場合、S31では、抽出精度判定部110は、各抽出結果について指標を算出し、学習部109は、その平均値が閾値以上であるかを判定してもよい。S31で閾値以上と判定された場合(S31でYES)、図5の処理は終了する。一方、S31で閾値未満と判定された場合(S31でNO)、処理はS32に進む。
S32では、学習部109が、抽出部訓練データセット204を用いて、第2抽出部103の再学習を行い、これにより図5の処理は終了する。抽出部訓練データセット204には、新規対象物画像202を加工した画像が含まれているので、この再学習により、第2抽出部103は、新規ラベルの画像から精度よくラベル領域を抽出することが可能になる。このように、判定装置1は、第2抽出部103の再学習を行うタイミングを自動で決定するので、判定装置1のユーザが再学習のタイミングを判断することなく、適切なタイミングで再学習を行い、判定精度を維持することができる。
なお、図5の例と比べて目視検査員の作業量が増えることを許容するのであれば、新規対象物画像202を用いた訓練データの生成において、目視判定部107は、新規対象物画像202のそれぞれについて、目視検査員に対象物の領域を入力させてもよい。そして、訓練データ生成部112は、入力された領域と目視判定部107が判定の対象とした画像とを対応付けて抽出部訓練データセット204に追加してもよい。さらに、訓練データ生成部112は、入力された上記領域の部分画像と、入力された分類カテゴリとを対応付けて分類部訓練データセット203に追加してもよい。
〔他の適用例〕
判定装置1は、食品に貼り付けられたラベルに限られず、任意の対象物の分類カテゴリの判定に利用できる。特に、判定装置1は第2抽出部103を備えていることから、画像中に占める領域が狭い対象物の分類カテゴリの判定に好適である。例えば、衣類に付されたタグの分類カテゴリの判定などにも好適に利用できる。
また、判定装置1は、第1抽出部102の抽出結果に基づいて、抽出部訓練データを生成し、第2抽出部103の抽出精度を判定する。この観点からは、対象物や判定の対象の画像は、第1抽出部102による抽出が容易なものであることが好ましいといえる。例えば、第1抽出部102が特徴点マッチングによる抽出を行うものである場合、対象物は矩形や円形など単純な外形を有するものであることが好ましく、対象物の背景には対象物と紛らわしい外形のものが写っていないことが好ましい。
具体例を挙げれば、判定装置1は、例えば路面を撮影した画像から標識が写っている領域を抽出し、その標識の分類カテゴリを判定するという用途にも利用できる。また、例えば、判定装置1は、レシートを撮影した画像からレシートが写っている領域や、レシート中の特定の項目を抽出し、その内容を判定するという用途にも利用できる。この場合、分類部105としては、例えばTextBoxesのような文字認識性能の高い機械学習アルゴリズムを適用することが好ましい。名刺などの紙片についても同様である。このように、判定装置1は、文字が描かれた対象物を判定対象とし、その文字の内容を加味した分類を行うことも可能である。
〔システムによる実現例〕
判定装置1の機能は、相互に通信可能な複数の装置からなるシステムで実現することもできる。この場合、上述の各処理は、該システムを構成する複数の装置の何れかが行う。例えば、第1抽出部102および訓練データ生成部112を備えた情報処理装置により、分類部訓練データを生成する構成とし、判定装置1はこの分類部訓練データを用いて機械学習を行う構成としてもよい。また、例えば、抽出精度判定部110および学習部109を備えた情報処理装置により、第2抽出部103の再学習を行うタイミングを決定する構成とし、判定装置1は決定されたタイミングで再学習を行う構成としてもよい。なお、再学習は、情報処理装置の制御によって行ってもよいし、ユーザが判定装置1を操作して行うようにしてもよい。
〔ソフトウェアによる実現例〕
判定装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、判定装置1は、各機能を実現するソフトウェアであるプログラム(対象物判定プログラム)の命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
〔付記事項〕
本発明の一態様にかかる情報処理装置は、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する情報処理装置であって、機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する機械学習抽出部と、機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類部と、を備えている。
上記分類部は、上記複数の分類カテゴリのそれぞれに該当する対象物がそれぞれ写っている画像から当該対象物が写っている領域を抽出して生成された部分画像を訓練データとした機械学習の結果に基づいて上記対象物の分類カテゴリを判定する構成であってもよい。
上記情報処理装置は、上記対象画像に写る上記対象物が上記複数の分類カテゴリの何れにも該当しない場合、または上記分類部の判定結果の確度が閾値未満であった場合に、上記対象画像または上記対象物の閲覧者による分類カテゴリの入力を受け付けることにより、上記対象物の分類カテゴリを判定する目視判定部を備えている構成であってもよい。
上記情報処理装置は、上記分類部の機械学習用の分類部訓練データの元になる訓練用画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出部と、上記抽出部が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、上記分類部訓練データを生成する分類部訓練データ生成部と、を備えている構成であってもよい。
上記情報処理装置は、上記抽出部が上記訓練用画像から上記領域を抽出できなかった場合に、上記機械学習抽出部が上記訓練用画像から上記領域を抽出して、上記分類部訓練データの生成に用いる部分画像を生成する構成であってもよい。
上記情報処理装置は、上記抽出部の抽出結果と上記機械学習抽出部の抽出結果に基づいて上記機械学習抽出部の抽出精度の評価値を算出する抽出精度判定部と、上記評価値に基づいて上記機械学習抽出部の再学習を行うタイミングを決定する学習部と、を備えている構成であってもよい。
上記情報処理装置は、上記訓練用画像と上記抽出部が抽出した上記領域とを対応付けて、上記機械学習抽出部の機械学習用の抽出部訓練データを生成する抽出部訓練データ生成部を備えている構成であってもよい。
上記情報処理装置においては、上記抽出部訓練データ生成部は、上記訓練用画像に所定の画像処理を施すことによって生成された1または複数の画像のそれぞれと、上記抽出部が抽出した上記領域とを対応付けて上記抽出部訓練データを生成する構成であってもよい。
本発明の一態様にかかる判定方法は、1または複数の装置により、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する判定方法であって、機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出ステップと、機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類ステップと、を含む。
上記情報処理装置としてコンピュータを機能させるための対象物判定プログラムであって、上記機械学習抽出部および上記分類部としてコンピュータを機能させるための対象物判定プログラムも本発明の範疇に含まれる。
本発明の他の一態様にかかる情報処理装置は、画像から該画像に写る対象物の分類カテゴリを判定する分類部の機械学習に用いる分類部訓練データを生成する情報処理装置であって、上記分類部訓練データの元になる訓練用画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出部と、上記抽出部が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、上記分類部訓練データを生成する分類部訓練データ生成部と、を備えている。
本発明のさらに他の一態様にかかる情報処理装置は、機械学習の結果に基づき、画像から対象物が写っている領域を抽出する機械学習抽出部の再学習のタイミングを決定する情報処理装置であって、上記画像から上記対象物が写っている領域を抽出する抽出部の抽出結果と、上記機械学習抽出部が上記画像から上記対象物が写っている領域を抽出した抽出結果とに基づいて、上記機械学習抽出部の抽出精度の評価値を算出する抽出精度判定部と、上記評価値に基づいて上記機械学習抽出部の再学習を行うタイミングを決定する学習部と、を備えている。
1 判定装置(情報処理装置)
102 第1抽出部(抽出部)
103 第2抽出部(機械学習抽出部)
105 分類部
107 目視判定部
109 学習部
110 抽出精度判定部
112 訓練データ生成部(分類部訓練データ生成部、抽出部訓練データ生成部)
201 画像(対象画像)

Claims (12)

  1. 対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する情報処理装置であって、
    機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する機械学習抽出部と、
    機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類部と、を備えていることを特徴とする情報処理装置。
  2. 上記分類部は、上記複数の分類カテゴリのそれぞれに該当する対象物がそれぞれ写っている画像から当該対象物が写っている領域を抽出して生成された部分画像を訓練データとした機械学習の結果に基づいて上記対象物の分類カテゴリを判定することを特徴とする請求項1に記載の情報処理装置。
  3. 上記対象画像に写る上記対象物が上記複数の分類カテゴリの何れにも該当しない場合、または上記分類部の判定結果の確度が閾値未満であった場合に、上記対象画像または上記対象物の閲覧者による分類カテゴリの入力を受け付けることにより、上記対象物の分類カテゴリを判定する目視判定部を備えていることを特徴とする請求項1または2に記載の情報処理装置。
  4. 上記分類部の機械学習用の分類部訓練データの元になる訓練用画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出部と、
    上記抽出部が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、上記分類部訓練データを生成する分類部訓練データ生成部と、を備えていることを特徴とする請求項1から3の何れか1項に記載の情報処理装置。
  5. 上記抽出部が上記訓練用画像から上記領域を抽出できなかった場合に、上記機械学習抽出部が上記訓練用画像から上記領域を抽出して、上記分類部訓練データの生成に用いる部分画像を生成することを特徴とする請求項4に記載の情報処理装置。
  6. 上記抽出部の抽出結果と上記機械学習抽出部の抽出結果に基づいて上記機械学習抽出部の抽出精度の評価値を算出する抽出精度判定部と、
    上記評価値に基づいて上記機械学習抽出部の再学習を行うタイミングを決定する学習部と、を備えていることを特徴とする請求項4または5に記載の情報処理装置。
  7. 上記訓練用画像と上記抽出部が抽出した上記領域とを対応付けて、上記機械学習抽出部の機械学習用の抽出部訓練データを生成する抽出部訓練データ生成部を備えていることを特徴とする請求項4から6の何れか1項に記載の情報処理装置。
  8. 上記抽出部訓練データ生成部は、上記訓練用画像に所定の画像処理を施すことによって生成された1または複数の画像のそれぞれと、上記抽出部が抽出した上記領域とを対応付けて上記抽出部訓練データを生成することを特徴とする請求項7に記載の情報処理装置。
  9. 1または複数の装置により、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する判定方法であって、
    機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出ステップと、
    機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類ステップと、を含むことを特徴とする判定方法。
  10. 請求項1に記載の情報処理装置としてコンピュータを機能させるための対象物判定プログラムであって、上記機械学習抽出部および上記分類部としてコンピュータを機能させるための対象物判定プログラム。
  11. 画像から該画像に写る対象物の分類カテゴリを判定する分類部の機械学習に用いる分類部訓練データを生成する情報処理装置であって、
    上記分類部訓練データの元になる訓練用画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出部と、
    上記抽出部が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、上記分類部訓練データを生成する分類部訓練データ生成部と、を備えていることを特徴とする情報処理装置。
  12. 機械学習の結果に基づき、画像から対象物が写っている領域を抽出する機械学習抽出部の再学習のタイミングを決定する情報処理装置であって、
    上記画像から上記対象物が写っている領域を抽出する抽出部の抽出結果と、上記機械学習抽出部が上記画像から上記対象物が写っている領域を抽出した抽出結果とに基づいて、上記機械学習抽出部の抽出精度の評価値を算出する抽出精度判定部と、
    上記評価値に基づいて上記機械学習抽出部の再学習を行うタイミングを決定する学習部と、を備えていることを特徴とする情報処理装置。
JP2018119346A 2018-06-22 2018-06-22 情報処理装置および対象物判定プログラム Active JP7219023B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018119346A JP7219023B2 (ja) 2018-06-22 2018-06-22 情報処理装置および対象物判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018119346A JP7219023B2 (ja) 2018-06-22 2018-06-22 情報処理装置および対象物判定プログラム

Publications (2)

Publication Number Publication Date
JP2019220116A true JP2019220116A (ja) 2019-12-26
JP7219023B2 JP7219023B2 (ja) 2023-02-07

Family

ID=69096793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018119346A Active JP7219023B2 (ja) 2018-06-22 2018-06-22 情報処理装置および対象物判定プログラム

Country Status (1)

Country Link
JP (1) JP7219023B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476234A (zh) * 2020-03-17 2020-07-31 平安科技(深圳)有限公司 一种遮挡车牌字符识别方法、装置、存储介质和智能设备
WO2021214991A1 (ja) * 2020-04-24 2021-10-28 日本電気株式会社 モデル生成システム、形状認識システム、モデル生成方法、形状認識方法、及びコンピュータプログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003515942A (ja) * 1999-11-29 2003-05-07 ケイエルエイ−テンコー コーポレイション 半導体欠陥用のパワー・アシスト自動監視分類器作製ツール
JP2015191666A (ja) * 2014-03-28 2015-11-02 ゼロックス コーポレイションXerox Corporation オブジェクトパーツ位置の予測へのデータ駆動型検出の拡張
JP2016527646A (ja) * 2013-08-05 2016-09-08 フェイスブック,インク. コンテキストキューを画像に相関付けることによる画像分類のシステム及び方法
JP2016176907A (ja) * 2015-03-23 2016-10-06 石川県 位置測定システム、位置測定装置、位置測定方法、及びプログラム
JP2016194925A (ja) * 2015-04-01 2016-11-17 株式会社リコー 道路境界物の検出方法及び装置
JP2016218999A (ja) * 2015-05-21 2016-12-22 三菱電機株式会社 ターゲット環境の画像内に表現されたオブジェクトを検出するように分類器をトレーニングする方法およびシステム
JP2017027227A (ja) * 2015-07-17 2017-02-02 日本電信電話株式会社 ラベル推定関数学習装置、方法、ラベル推定装置、方法及びプログラム
WO2017109918A1 (ja) * 2015-12-24 2017-06-29 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2017132167A1 (en) * 2016-01-28 2017-08-03 Siemens Healthcare Diagnostics Inc. Methods and apparatus adapted to identify a specimen container from multiple lateral views
WO2017194399A1 (en) * 2016-05-12 2017-11-16 Bayer Cropscience Aktiengesellschaft Recognition of weed in a natural environment
EP3279831A1 (en) * 2016-08-03 2018-02-07 Bayer CropScience AG Recognition of weed in a natural environment using a digital image
WO2018089938A1 (en) * 2016-11-14 2018-05-17 Siemens Healthcare Diagnostics Inc. Methods, apparatus, and quality check modules for detecting hemolysis, icterus, lipemia, or normality of a specimen

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003515942A (ja) * 1999-11-29 2003-05-07 ケイエルエイ−テンコー コーポレイション 半導体欠陥用のパワー・アシスト自動監視分類器作製ツール
JP2016527646A (ja) * 2013-08-05 2016-09-08 フェイスブック,インク. コンテキストキューを画像に相関付けることによる画像分類のシステム及び方法
JP2015191666A (ja) * 2014-03-28 2015-11-02 ゼロックス コーポレイションXerox Corporation オブジェクトパーツ位置の予測へのデータ駆動型検出の拡張
JP2016176907A (ja) * 2015-03-23 2016-10-06 石川県 位置測定システム、位置測定装置、位置測定方法、及びプログラム
JP2016194925A (ja) * 2015-04-01 2016-11-17 株式会社リコー 道路境界物の検出方法及び装置
JP2016218999A (ja) * 2015-05-21 2016-12-22 三菱電機株式会社 ターゲット環境の画像内に表現されたオブジェクトを検出するように分類器をトレーニングする方法およびシステム
JP2017027227A (ja) * 2015-07-17 2017-02-02 日本電信電話株式会社 ラベル推定関数学習装置、方法、ラベル推定装置、方法及びプログラム
WO2017109918A1 (ja) * 2015-12-24 2017-06-29 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2017132167A1 (en) * 2016-01-28 2017-08-03 Siemens Healthcare Diagnostics Inc. Methods and apparatus adapted to identify a specimen container from multiple lateral views
WO2017194399A1 (en) * 2016-05-12 2017-11-16 Bayer Cropscience Aktiengesellschaft Recognition of weed in a natural environment
EP3279831A1 (en) * 2016-08-03 2018-02-07 Bayer CropScience AG Recognition of weed in a natural environment using a digital image
WO2018089938A1 (en) * 2016-11-14 2018-05-17 Siemens Healthcare Diagnostics Inc. Methods, apparatus, and quality check modules for detecting hemolysis, icterus, lipemia, or normality of a specimen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤田 一弥 外, 実装 ディープラーニング, vol. 第1版, JPN6022028625, 30 November 2016 (2016-11-30), JP, pages 150 - 167, ISSN: 0004822791 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476234A (zh) * 2020-03-17 2020-07-31 平安科技(深圳)有限公司 一种遮挡车牌字符识别方法、装置、存储介质和智能设备
CN111476234B (zh) * 2020-03-17 2024-05-24 平安科技(深圳)有限公司 一种遮挡车牌字符识别方法、装置、存储介质和智能设备
WO2021214991A1 (ja) * 2020-04-24 2021-10-28 日本電気株式会社 モデル生成システム、形状認識システム、モデル生成方法、形状認識方法、及びコンピュータプログラム
JPWO2021214991A1 (ja) * 2020-04-24 2021-10-28

Also Published As

Publication number Publication date
JP7219023B2 (ja) 2023-02-07

Similar Documents

Publication Publication Date Title
US10853702B2 (en) Method and apparatus for checkout based on image identification technique of convolutional neural network
CN108291876A (zh) 用于检测产品的真实性的系统及方法
AU2009305437B2 (en) Method and system for item identification
US20200193112A1 (en) Method for improper product barcode detection
CN103072718A (zh) 用于食品包装生产线的机器视觉检测系统及方法
US11741685B2 (en) Commodity identification device, non-transitory computer-readable storage medium, and learning method
CN107403128A (zh) 一种物品识别方法及装置
US11354549B2 (en) Method and system for region proposal based object recognition for estimating planogram compliance
JP7219023B2 (ja) 情報処理装置および対象物判定プログラム
US20160210529A1 (en) Feature image generation apparatus, classification apparatus and non-transitory computer-readable memory, and feature image generation method and classification method
EP1889288A1 (en) Method and apparatus for inspecting marking of semiconductor package
CN113111903A (zh) 智能产线监测系统及监测方法
CN115302963A (zh) 一种基于机器视觉的条形码印刷控制方法、系统及介质
CN111178445A (zh) 图像处理方法及装置
CN114445843A (zh) 固定版式的卡证图像文字识别方法和装置
WO2022227103A1 (zh) 一种零部件智能检测与标签系统及方法
JP7219016B2 (ja) 判定装置、判定方法、および対象物判定プログラム
CN113902940A (zh) 基于神经网络的多类物品视觉识别方法及计量设备
US20200012878A1 (en) Image recognition system, image recognition method, and storage medium
US20240029017A1 (en) Information processing device, information processing method, and recording medium
US11948374B2 (en) Systems and methods for detecting text of interest
US20230025548A1 (en) Systems and methods for recognizing text of interest
CN111935480B (zh) 一种用于图像获取装置的检测方法及相关装置
CN117474924B (zh) 基于机器视觉的标签缺陷检测方法
US20170200383A1 (en) Automated review of forms through augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230126

R150 Certificate of patent or registration of utility model

Ref document number: 7219023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150