JP7338779B2 - 画像認識装置、画像認識方法、及び、プログラム - Google Patents

画像認識装置、画像認識方法、及び、プログラム Download PDF

Info

Publication number
JP7338779B2
JP7338779B2 JP2022501427A JP2022501427A JP7338779B2 JP 7338779 B2 JP7338779 B2 JP 7338779B2 JP 2022501427 A JP2022501427 A JP 2022501427A JP 2022501427 A JP2022501427 A JP 2022501427A JP 7338779 B2 JP7338779 B2 JP 7338779B2
Authority
JP
Japan
Prior art keywords
image
time
feature
images
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022501427A
Other languages
English (en)
Other versions
JPWO2021166058A1 (ja
JPWO2021166058A5 (ja
Inventor
重哲 並木
尚司 谷内田
剛志 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021166058A1 publication Critical patent/JPWO2021166058A1/ja
Publication of JPWO2021166058A5 publication Critical patent/JPWO2021166058A5/ja
Application granted granted Critical
Publication of JP7338779B2 publication Critical patent/JP7338779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像に含まれる対象物の異常を認識する技術に関する。
製品の画像を用いて異常検査を行う手法が提案されている。例えば、特許文献1は、移動中の成形シートをカメラで時間的に連続して撮影した画像を用いて、製品の欠陥を検査するシステムを記載している。
特開2011-95171号公報
特許文献1に記載の欠陥検査システムは、カメラにより得られた全ての画像に対して同じ処理を行っている。このため、欠陥が含まれない画像に対しても同じ負荷の処理を行うことになり、画像が多い場合には処理時間が増大するため、製造ラインなどにおけるリアルタイム処理には適さない。
本発明の1つの目的は、対象物の撮影画像に基づく異常個所の認識を効率化することが可能な画像認識装置を提供することにある。
本発明の一つの観点では、画像認識装置は、
対象物を撮影した時系列の撮影画像の各々を複数のセルに分割し前記撮影画像の前記セル毎の明度値の変化に基づいて、前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択する画像選択手段と、
前記特徴画像を用いて、前記対象物の認識処理を行う認識手段と、を備える。
本発明の他の観点では、画像認識方法は、
対象物を撮影した時系列の撮影画像の各々を複数のセルに分割し前記撮影画像の前記セル毎の明度値の変化に基づいて、前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択し、
前記特徴画像を用いて、前記対象物の認識処理を行う。
本発明のさらに他の観点では、プログラムは、
対象物を撮影した時系列の撮影画像の各々を複数のセルに分割し前記撮影画像の前記セル毎の明度値の変化に基づいて、前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択し、
前記特徴画像を用いて、前記対象物の認識処理を行う処理をコンピュータに実行させる。
本発明によれば、対象物の撮影画像に基づく異常個所の認識を効率化することが可能となる。
画像認識装置を用いた異常検出の様子を示す。 時系列画像からの画像選択の概念を説明する図である。 第1実施形態に係る画像認識装置のハードウェア構成を示す図である。 第1実施形態に係る画像認識装置の機能構成を示す図である。 画像選択器の構成を示す図である。 画像選択器による処理の例を示す。 本実施形態による画像認識処理のフローチャートである。 画像選択の範囲を変化させる例を示す。 第2実施形態に係る画像選択器の機能構成を示す。 第2実施形態に係る画像選択器の実施例を示す。 非冗長度合いベクトルの生成方法を模式的に示す。 深層学習モデルを用いる画像認識装置の概略構成を示す。 第3実施形態に係る画像認識装置の機能構成を示す。
以下、図面を参照して、本発明の好適な実施形態について説明する。
[基本原理]
まず、本発明に係る画像認識装置100の基本原理について説明する。図1は、画像認識装置100を用いた異常検出の様子を示す。本実施形態では、異常検出の対象物を錠剤5とする。錠剤5は、矢印の方向に移動するコンベア2上に所定間隔で配置され、コンベア2の移動に伴って移動する。コンベア2の上方には照明3と高速カメラ4が配置される。図1の例では、2つのバー型照明3を用いているが、照明の形態はこれには限られない。対象物の形状や検出すべき異常の種類に応じて、様々な強度及び照明範囲の照明が複数設置される。特に錠剤5などの小さい対象物の場合、微小な異常の種類、度合い、位置などは様々であるため、複数の照明を用いて照明条件を様々に変えて撮影を行う。
高速カメラ4は、照明下の錠剤5を高速撮影し、撮影画像を画像認識装置100へ出力する。錠剤5を移動させつつ高速カメラ4で撮影すると、錠剤5に存在する微小な異常個所のS/N(Signal to Noise Ratio)が高くなったタイミングを逃さず撮影することができる。具体的に、錠剤5に生じる異常としては、髪の毛の付着、微細な欠けなどがある。髪の毛は、その表面の光沢による照明光の鏡面反射成分に基づいて検出できるので、高速カメラ4の光軸に沿った照明光を用いるのが有効である。一方、錠剤5の微細な欠けは、その部分のエッジ周りの明暗に基づいて検出できるので、高速カメラ4の光軸と直交する方向からの照明光を用いるのが有効である。
上記のように、高速カメラ4で対象物である錠剤5を撮影すると膨大な時系列の撮影画像(以下、「時系列画像」とも呼ぶ。)が得られるが、その後に微小な異常を検出するための処理時間も増えてしまい、異常検出のリアルタイム処理が難しくなる。高速カメラ4で得られる膨大な時系列画像の中で、微小な異常は照明条件がフィットしたタイミングで、一時的に急峻な画像の統計量の変化として現れることが分かっており、その傾向が無いタイミングの画像は冗長であり、不要と考えられる。そこで、本実施形態では、高速カメラ4で得られる時系列画像から微小な異常を含む画像、即ち、一時的な画像の統計量の変化を有する画像を選択し、冗長な画像を破棄する画像選択を行う。
図2は、時系列画像からの画像選択の概念を説明する図である。移動するコンベア2上の錠剤5を高速カメラ4で撮影することにより、一連の時系列画像が得られる。画像認識装置100は、この時系列画像のうち、微小な異常を含む画像を選択し、選択された画像の認識を行って異常を検出する。選択されなかった画像は破棄され、その後段における認識処理の対象から除外される。これにより、認識処理の負荷を低減でき、全体の処理速度を上げることができる。
なお、上記のように対象物が錠剤などの板状の物体である場合、振動などにより対象物を反転させる機構をコンベア2に設ければ、反転の前後の撮影画像を1台のカメラで撮影し、対象物の両面の検査を行うことができる。同様に、対象物が立体の場合でも、コンベア2に対象物を回転させる機構を設ければ、対象物の複数の面を撮影し、異常の判定を行うことができる。
[第1実施形態]
(ハードウェア構成)
図3は、第1実施形態に係る画像認識装置のハードウェア構成を示すブロック図である。図示のように、画像認識装置100は、インタフェース(I/F)12と、プロセッサ13と、メモリ14と、記録媒体15と、データベース(DB)16と、入力部17と、表示部18と、を備える。
インタフェース12は、外部装置との間でデータの入出力を行う。具体的に、画像認識装置100による処理の対象となる時系列画像は、インタフェース12を通じて入力される。また、画像認識装置100により生成された異常の検出結果などは、インタフェース12を通じて外部の装置へ出力される。
プロセッサ13は、CPU(Central Processing Unit)、又はCPUとGPU(Graphics Processing Unit)などのコンピュータであり、予め用意されたプログラムを実行することにより、画像認識装置100の全体を制御する。具体的に、プロセッサ13は、後述する画像認識処理を実行する。
メモリ14は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ14は、プロセッサ13による各種の処理の実行中に作業メモリとしても使用される。
記録媒体15は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、画像認識装置100に対して着脱可能に構成される。記録媒体15は、プロセッサ13が実行する各種のプログラムを記録している。画像認識装置100が各種の処理を実行する際には、記録媒体15に記録されているプログラムがメモリ14にロードされ、プロセッサ13により実行される。
データベース16は、画像認識の対象となる撮影画像を記憶する。入力部17は、ユーザが指示や入力を行うためのキーボード、マウスなどにより構成される。表示部18は、例えば液晶ディスプレイなどにより構成され、対象物の認識結果などを表示する。
(機能構成)
図4は、第1実施形態に係る画像認識装置100の機能構成を示すブロック図である。画像認識装置100は、物体領域抽出部20と、画像選択器30と、認識器40と、を備える。物体領域抽出部20は、高速カメラ4から物体の時系列画像を受け取り、各撮影画像から対象物を含む領域である物体領域を抽出する。具体的に、物体領域抽出部20は、背景差分法などにより、撮影画像中の対象物の物体領域を抽出する。本実施形態では、対象物は錠剤5であるので、物体領域は撮影画像中の錠剤5の領域であり、具体的には図2に示すような錠剤5を含む矩形の領域となる。物体領域抽出部20は、抽出した物体領域の時系列画像を画像選択器30に出力する。
画像選択器30は、入力された物体領域の時系列画像から、対象物の微小で低頻度な異常の特徴(以下、「微小・低頻度特徴」と呼ぶ。)の箇所を示す画像(以下、「特徴画像」と呼ぶ。)を選択する。本実施形態では、対象物である錠剤5に存在する髪の毛、欠けなどが対象物の異常に相当する。画像選択器30は、入力された時系列画像から、微小・低頻度特徴を含む特徴画像を選択して認識器40に出力し、特徴画像以外の画像、即ち、微小・低頻度特徴を含まない画像を破棄する。前述のように、対象物の微小・低頻度特徴は、撮影画像における一時的に急峻な画像の統計量の変化として現れるので、画像選択器30は、入力された時系列画像から、画像の統計量が一時的に急峻な変化を示す一連の撮影画像を特徴画像として選択する。
図5は、画像選択器30の構成を示すブロック図である。画像選択器30は、セル分割部31と、セル別変化検出部32と、選択部33とを備える。図6は、画像選択器30による処理の例を示す。物体領域抽出部20から出力された時系列画像は、セル分割部31及び選択部33へ入力される。セル分割部31は、各撮影画像を複数のセルCに分割する。図6の例では、セル分割部31は、各撮影画像を所定サイズ(4×4)の16個のセルCに分割している。分割されたセルCの画像はセル別変化検出部32に入力される。
セル別変化検出部32は、セル毎に画像の統計量を算出する。図6の例では、セル別変化検出部32は、画像の統計量として明度値を使用している。セル別変化検出部32は、算出されたセル毎の統計量の時間変化を求める。具体的には、セル別変化検出部32は、セル毎に各時刻における統計量を求め、その時間変化を示す時間変化データを選択部33に出力する。図6では、説明の便宜上、1つのセルCxの明度値の時間変化の例をグラフに示している。
選択部33は、セル毎の統計量の時間変化に基づき、統計量が所定量以上変化しているときの撮影画像を特徴画像として選択する。図6の例では、破線の領域で示すように、選択部33は、統計量の変化が開始した時刻t10の撮影画像X(t10)と、その変化が終了した時刻t20の撮影画像X(t20)とを検出し、それらを含む一連の撮影画像X(t10)~X(t20)を特徴画像として選択する。詳しくは、選択部33は、セル別変化検出部32から入力された時間変化データに基づいて撮影画像X(t10)~X(t20)を特定し、物体領域抽出部20から入力される時系列画像から撮影画像X(t10)~X(t20)を選択して、特徴画像として認識器40へ出力する。このように画像の統計量の変化を検出することにより、時系列の撮影画像のうち、対象物の異常を示す一連の撮影画像のみを選択することができる。
なお、図6の例では、分割により得られた複数のセルCのうちの1つのみにおいて統計量の変化が生じているが、1つの対象物の複数の箇所に異常がある場合には、複数のセルCに同時に統計量の変化が生じる。よって、選択部33は、複数のセルCのうち1つでも統計量の変化が生じている場合には、その撮影画像を含む一連の撮影画像を特徴画像として選択する。言い換えると、選択部33は、いずれのセルCにおいても統計量の変化が生じていない撮影画像のみを破棄する。
認識器40は、画像選択器30が選択した特徴画像を用いて画像認識処理を行い、認識結果を出力する。具体的には、認識器40は、ニューラルネットワークなどにより構成され、予め学習済みの認識モデルを用いて、対象物のクラス分類又は異常検知を行い、その結果を認識結果として出力する。
(画像認識処理)
図7は、本実施形態による画像認識処理のフローチャートである。この処理は、図3に示すプロセッサ13が予め用意されたプログラムを実行し、図4及び図5に示す各要素として動作することにより実現される。
まず、図1に示すように、移動中の対象物を高速カメラ4で撮影し、時系列画像が生成される(ステップS11)。次に、物体領域抽出部20は、背景差分法などにより、各撮影画像から対象物の物体領域を抽出する(ステップS12)。次に、画像選択器30は、物体領域の時系列画像から、前述の方法により、微小・低頻度特徴を有する特徴画像を選択する(ステップS13)。認識器40は、特徴画像を用いて、対象物のクラス分類又は異常検知を行い、認識結果として出力する(ステップS14)。そして、画像認識処理は終了する。
(変形例)
上記の実施形態では、セル分割部31は、物体領域の撮影画像を所定サイズのセルCに分割しているが、セルの分割方法はこれには限られない。例えば、撮影画像を諧調値や色特徴に基づいてグルーピングして作成したスーパーピクセルをセルCとして使用してもよい。また、別の例では、撮影画像の各画素をセルCとして用いてもよい。
上記の実施形態では、図8(A)のグラフ(図6と同じ)に示すように、画像選択器30は、画像の統計量の変化が開始した時刻t10から、その変化が終了した時刻t20までを含む一連の撮影画像を特徴画像として選択している。しかし、画像選択器30は、特徴画像として選択する一連の撮影画像の量を固定せず、後段の認識器40の処理負荷に応じて変化させてもよい。例えば、認識器40の処理負荷が軽いとき、即ち、認識器40の処理に余裕があるときには、画像選択器30は、図8(A)に示すように画像の統計量の変化の開始時刻と終了時刻を含む一連の撮影画像を特徴画像として選択する。一方、認識器40の処理負荷が重いとき、即ち、認識器40の処理に余裕がないときには、画像選択器30は、図8(B)に示すように選択する撮影画像の範囲を狭めてもよい。図8(B)の例では、画像選択器30は、統計量の増加が完了した時刻t13から、統計量の減少が始まった時刻t17までの一連の撮影画像を特徴画像として選択している。このように、認識器40の処理負荷に応じて、選択する特徴画像の量を調整することにより、リアルタイムの認識処理を安定的に行うことが可能となる。
[第2実施形態]
(機能構成)
次に、第2実施形態について説明する。第2実施形態では、画像選択器30を深層学習モデルを適用したニューラルネットワークにより構成する。第2実施形態に係る画像認識装置100のハードウェア構成は図1と同様であり、機能構成は図4と同様である。
図9(A)は、第2実施形態に係る画像選択器30の学習時の構成を示す。画像選択器30は、学習時においては、ニューラルネットワーク35と、最適化部37とを備え、ニューラルネットワーク35に適用される深層学習モデルの教師あり学習を行う。ニューラルネットワーク35には、学習データとして、物体領域抽出部20により抽出された物体領域の時系列画像が入力される。ニューラルネットワーク35には、時系列画像から特徴画像を選択する深層学習モデルが適用される。ニューラルネットワーク35は、入力された時系列画像から、非冗長な画像を特徴画像として選択し、その撮影画像を示す画像インデックス(例えば画像IDや画像の撮影時刻など)を最適化部37へ出力する。ここで、非冗長な撮影画像とは、時間的に隣接する撮影画像との間の特徴量の差が大きい画像を意味し、対象物の微小・低頻度特徴を示す特徴画像に相当する。
学習時には、ニューラルネットワーク35に入力される時系列画像に対して予め正解付けをした教師ラベルが用意され、最適化部37に入力される。教師ラベルは、時系列画像の各々が非冗長な画像であるか否かを示す。最適化部37は、ニューラルネットワーク35が出力した画像インデックスと、教師ラベルとの間の損失を計算し、損失が小さくなるようにニューラルネットワーク35のパラメータを最適化する。
図9(B)は、第2実施形態に係る画像選択器30の推論時の構成を示す。推論時には、画像選択器30は、上記の方法で学習済みの深層学習モデルを適用したニューラルネットワーク35と、選択部36とを備える。物体領域抽出部20から出力された時系列画像がニューラルネットワーク35及び選択部36に入力される。ニューラルネットワーク35は、学習済みの深層学習モデルを用いて、時系列画像から非冗長な撮影画像を検出し、その画像インデックスを選択部36に出力する。選択部36は、物体領域抽出部20から入力された時系列画像から、ニューラルネットワーク35が出力した画像インデックスに対応する撮影画像のみを選択し、特徴画像として認識器40へ出力する。こうして、学習済みの深層学習モデルを用いて、時系列画像から非冗長な撮影画像が選択され、特徴画像として認識器40へ出力される。認識器40は、選択された特徴画像のみについて画像認識を行うので、認識処理の高速化が可能となる。
なお、上記の例では、深層学習モデルの学習時に、学習用データとしての撮影画像の単位で教師ラベルを付与しているが、その代わりに、第1実施形態のように撮影画像を複数のセルに分割し、セルの単位で教師ラベルを付与してもよい。その場合、ニューラルネットワーク35は、入力された撮影画像をまず複数のセルに分割し、セル毎に非冗長性を求めて最適化部37へ出力する。最適化部37は、セル毎に求められた非冗長性と、セル毎に用意された教師ラベルとの損失を求めてニューラルネットワーク35を最適化すればよい。なお、この場合においても、第1実施形態と同様に、所定サイズのセルやスーパーピクセルなどをセルとして使用してもよい。
(画像選択部の実施例)
図10(A)は、深層学習モデルを用いて画像選択器30を構成した場合の実施例を示す。この実施例では、画像選択器30は、時系列画像を時間軸方向に連結し、畳み込み演算によりセル毎の評価値を算出して特徴画像を選択する。図示のように、画像選択器30は、深層学習モデルが適用されたニューラルネットワーク35と、畳み込み演算部38とを備える。時系列画像は、ニューラルネットワーク35及び畳み込み演算部38に入力される。ニューラルネットワーク35は、入力された時系列画像から特徴量を抽出し、非冗長度合いベクトルを生成して畳み込み演算部38に出力する。畳み込み演算部38は、時系列画像と非冗長度ベクトルとの時間軸方向の積を演算する。
図11は、非冗長度合いベクトルの生成方法を模式的に示す。非冗長度合いベクトルは、入力された時系列画像の長さのベクトルである。なお、この長さは、例えば1つの対象物が表れてから消えるまでの時系列画像の長さとする。ニューラルネットワーク35は、入力された時系列画像に、その時系列の長さの畳み込みフィルタを適用し、その出力にReLU(Rectified Linear Unit)などの活性化関数を適用する。この畳み込みフィルタ処理と活性化処理は、計算負荷が低く留まる範囲で繰り返してもよい。これにより、撮影画像の統計量、即ち非冗長度合いが得られる。次に、ニューラルネットワーク35は、得られた統計量を活性化関数(シグモイド関数)で「0」~「1」の範囲に正規化し、プーリングして時系列の長さの非冗長度合いベクトルを生成する。非冗長度合いベクトルは、各要素が、対応する時刻における撮影画像の非冗長度合いを表す。
図10(A)に戻り、畳み込み演算部38が時系列の撮影画像に非冗長度合いベクトルを畳み込み演算することにより、時系列画像が非冗長度合いベクトルで重み付けされ、特徴画像として出力される。学習時には、この重み付けされた時系列画像と、教師ラベルとを用いて、深層学習モデルが最適化される。なお、画像選択処理は微分不可能な処理であるが、学習時は非冗長度合いベクトルの重み付けのみにすることで微分可能な処理となり、後段の認識器40と併せて同時に学習可能となるので、エンドツーエンドの処理が可能となる。
一方、推論時には、図10(B)に示すように、ニューラルネットワーク35から出力された非冗長度合いベクトルに、閾値処理部39による閾値処理が適用される。閾値処理部39は、非冗長度合いベクトルの要素のうち、非冗長度合いが上位N個に属する要素をそのまま保持し、それ以下の要素の値を「0」とする。ここで「N」は、任意の数であり、画像選択器30により選択される画像の枚数を示す規定値である。畳み込み演算部38は、時系列画像と、閾値処理後の非冗長度合いベクトルとの畳み込みを行う。これにより、入力された時系列画像のうち、非冗長度合いが上位N個に属するの撮影画像が特徴画像として選択される。即ち、後段の認識器40に渡す撮影画像数がN枚までに削減される。なお、「N」の値は、後段の認識器40による処理精度と処理速度とのトレードオフの観点で調整可能である。
なお、画像選択器30に深層学習モデルを用いる場合、処理負荷の大きいモデルを用いると、画像選択により後段の認識器40の処理負荷を軽減させる意味がなくなってしまう。そこで、深層学習モデルとしては、画像選択により認識器40において削減される分の処理負荷よりも小さい処理負荷のモデルを用いる。これにより、画像選択の効果が得られ、安定したリアルタイム処理が可能となる。
画像選択器30に深層学習モデルを用いる場合、後段の認識器40とともに1つのニューラルネットワークで構成することにより、エンドツーエンドな学習が可能となる。つまり、システム構築時に、対象物のデータ特性に合わせて画像選択モデルを複数検討し、別々に学習し、認識器との組み合わせを評価する、といった繰り返し作業の手間が削減される。
(画像認識装置の実施例)
次に、深層学習モデルを用いる場合の画像認識装置の実施例を説明する。図12(A)は、深層学習モデル用いる場合の画像認識装置100aの概略構成を示す。この実施例では、認識器40aを、CNN(Convolutional Neural Network)とRNN(Reccurent Neural Network)を組み合わせたニューラルネットワークにより構成する。1枚の画像から異常を検知する通常の認識器は計算量が多く、時系列画像に基づく高速な検査には不向きである。この点、本例のように認識器40に軽量のCNNと回帰(Recurrent)構造を組み合わせることにより、時系列画像を高速に認識することが可能となる。
また、本実施例では、画像選択器30aにおいてアテンション(Attention)マップ系列を生成し、後段の認識器40aに入力する。アテンションマップは、画像選択器30aにおいて画像選択の判断根拠となったセルのアテンションを示す。画像選択器30aでは、時系列画像を用いて時間軸方向におけるセル毎の微小・低頻度特徴を求めてアテンションマップを生成する。アテンションマップ系列を認識器40aに入力することにより、認識器40aでの微小・低頻度特徴の識別精度の向上が期待できる。
図12(B)は、深層学習モデル用いる場合の別の画像認識装置100bの概略構成を示す。この例でも、画像選択器30bは、特徴画像に加えてアテンションマップ系列を認識器40bに入力する。認識器40bでは、アテンションマップ系列を時間軸方向に連結(concat)したベクトルを生成し、これと特徴画像を用いてCNNにより認識を行う。
[第3実施形態]
次に、本発明の第3実施形態について説明する。図13は、第3実施形態に係る画像認識装置の機能構成を示す。画像認識装置70は、画像選択部71と、認識部72と、を備える。画像選択部71は、対象物を撮影した時系列の撮影画像から、前記対象物の特徴箇所を示す特徴画像を選択する。認識部72は、特徴画像を用いて対象物の認識処理を行う。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
対象物を撮影した時系列の撮影画像から、前記対象物の特徴箇所を示す特徴画像を選択する画像選択部と、
前記特徴画像を用いて、前記対象物の認識処理を行う認識部と、
を備える画像認識装置。
(付記2)
前記画像選択部は、前記撮影画像の各々を複数のセルに分割し、前記撮影画像の前記セル毎の統計量の変化に基づいて、前記時系列の撮影画像から前記特徴画像を選択する付記1に記載の画像認識装置。
(付記3)
前記画像選択部は、前記セル毎の統計量の変化が開始した撮影画像から、前記変化が終了した撮影画像までの連続する撮影画像を前記特徴画像として選択する付記2に記載の画像認識装置。
(付記4)
前記セルは、前記撮影画像を分割した所定サイズのセル、スーパーピクセル、及び、前記撮影画像を構成するピクセルのいずれかである付記2又は3に記載の画像認識装置。
(付記5)
前記画像選択部は、ニューラルネットワークにより構成され、前記時系列の撮影画像から前記特徴画像を選択するように学習された学習済みモデルを用いて、前記特徴画像を選択する付記1に記載の画像認識装置。
(付記6)
前記画像選択部は、前記時系列の撮影画像から特徴量を抽出し、前記特徴量に基づいて前記時系列の撮影画像間の非冗長度合いを示すベクトルを生成し、前記ベクトルを用いて前記時系列の撮影画像から前記特徴画像を選択する付記5に記載の画像認識装置。
(付記7)
前記画像選択部は、前記撮影画像の各々を複数のセルに分割し、前記撮影画像の前記セル毎の非冗長度合いに基づいて、前記時系列の撮影画像から前記特徴画像を選択する付記6に記載の画像認識装置。
(付記8)
前記画像選択部は、前記特徴画像を選択する根拠となったセルのアテンション情報を前記認識部に出力し、
前記認識部は、前記アテンション情報を用いて、前記対象物の前記特徴箇所を認識する付記7に記載の画像認識装置。
(付記9)
前記画像選択部と前記認識部は、1つのニューラルネットワークにより構成される付記5乃至8のいずれか一項に記載の画像認識装置。
(付記10)
前記特徴箇所は前記対象物に存在する異常を示す箇所であり、
前記認識部は、前記対象物の異常に関するクラス分類、又は、前記対象物に存在する異常検知を行う付記1乃至9のいずれか一項に記載の画像認識装置。
(付記11)
対象物を撮影した時系列の撮影画像から、前記対象物の特徴箇所を示す特徴画像を選択し、
前記特徴画像を用いて、前記対象物の認識処理を行う画像認識方法。
(付記12)
対象物を撮影した時系列の撮影画像から、前記対象物の特徴箇所を示す特徴画像を選択し、
前記特徴画像を用いて、前記対象物の認識処理を行う処理をコンピュータに実行させるプログラムを記録した記録媒体。
以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
4 高速カメラ
5 錠剤
20 物体領域抽出部
30 画像選択器
31 セル分割部
32 セル別変化検出部
33 選択部
35 ニューラルネットワーク
37 最適化部
38 畳み込み演算部
39 閾値処理部
40 認識器
100 画像認識装置

Claims (17)

  1. 対象物を撮影した時系列の撮影画像の各々を複数のセルに分割し前記撮影画像の前記セル毎の明度値の変化に基づいて、前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択する画像選択手段と、
    前記特徴画像を用いて、前記対象物の認識処理を行う認識手段と、
    を備える画像認識装置。
  2. 前記画像選択手段は、前記セル毎の明度値の変化が開始した撮影画像から、前記変化が終了した撮影画像までの連続する撮影画像を前記特徴画像として選択する請求項に記載
    の画像認識装置。
  3. 前記セルは、前記撮影画像を分割した所定サイズのセル、スーパーピクセル、及び、前記撮影画像を構成するピクセルのいずれかである請求項又はに記載の画像認識装置。
  4. 前記画像選択手段は、ニューラルネットワークにより構成され、前記時系列の撮影画像から前記特徴画像を選択するように学習された学習済みモデルを用いて、前記特徴画像を選択する請求項1に記載の画像認識装置。
  5. 対象物を撮影した時系列の撮影画像から特徴量を抽出し、前記特徴量に基づいて前記時系列の撮影画像間の非冗長度合いを示すベクトルを生成し、前記ベクトルを用いて前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択する画像選択手段と、
    前記特徴画像を用いて、前記対象物の認識処理を行う認識手段と、
    を備える画像認識装置
  6. 前記画像選択手段は、前記撮影画像の各々を複数のセルに分割し、前記撮影画像の前記セル毎の非冗長度合いに基づいて、前記時系列の撮影画像から前記特徴画像を選択する請求項に記載の画像認識装置。
  7. 前記画像選択手段は、前記特徴画像を選択する根拠となったセルのアテンション情報を前記認識手段に出力し、
    前記認識手段は、前記アテンション情報を用いて、前記対象物の前記特徴箇所を認識する請求項に記載の画像認識装置。
  8. 前記画像選択手段と前記認識手段は、1つのニューラルネットワークにより構成される請求項乃至のいずれか一項に記載の画像認識装置。
  9. 前記特徴箇所は前記対象物に存在する異常を示す箇所であり、
    前記認識手段は、前記対象物の異常に関するクラス分類、又は、前記対象物に存在する異常検知を行う請求項1乃至のいずれか一項に記載の画像認識装置。
  10. 対象物を撮影した時系列の撮影画像の各々を複数のセルに分割し前記撮影画像の前記セル毎の明度値の変化に基づいて、前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択し、
    前記特徴画像を用いて、前記対象物の認識処理を行う画像認識方法。
  11. 対象物を撮影した時系列の撮影画像の各々を複数のセルに分割し前記撮影画像の前記セル毎の明度値の変化に基づいて、前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択し、
    前記特徴画像を用いて、前記対象物の認識処理を行う処理をコンピュータに実行させるプログラム。
  12. 対象物を撮影した時系列の撮影画像から特徴量を抽出し、前記特徴量に基づいて前記時系列の撮影画像間の非冗長度合いを示すベクトルを生成し、前記ベクトルを用いて前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択し、
    前記特徴画像を用いて、前記対象物の認識処理を行う画像認識方法。
  13. 前記特徴画像の選択では、前記撮影画像の各々を複数のセルに分割し、前記撮影画像の前記セル毎の非冗長度合いに基づいて、前記時系列の撮影画像から前記特徴画像を選択する請求項12に記載の画像認識方法。
  14. 前記特徴画像の選択では、前記特徴画像を選択する根拠となったセルのアテンション情報を出力し、
    前記認識処理は、前記アテンション情報を用いて、前記対象物の前記特徴箇所を認識する請求項13に記載の画像認識方法。
  15. 対象物を撮影した時系列の撮影画像から特徴量を抽出し、前記特徴量に基づいて前記時系列の撮影画像間の非冗長度合いを示すベクトルを生成し、前記ベクトルを用いて前記時系列の撮影画像から前記対象物の特徴箇所を示す特徴画像を選択し、
    前記特徴画像を用いて、前記対象物の認識処理を行うコンピュータに実行させるプログラム。
  16. 前記特徴画像の選択では、前記撮影画像の各々を複数のセルに分割し、前記撮影画像の前記セル毎の非冗長度合いに基づいて、前記時系列の撮影画像から前記特徴画像を選択する請求項15に記載のプログラム
  17. 前記特徴画像の選択では、前記特徴画像を選択する根拠となったセルのアテンション情報を出力し、
    前記認識処理は、前記アテンション情報を用いて、前記対象物の前記特徴箇所を認識する請求項16に記載のプログラム。
JP2022501427A 2020-02-18 2020-02-18 画像認識装置、画像認識方法、及び、プログラム Active JP7338779B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/006180 WO2021166058A1 (ja) 2020-02-18 2020-02-18 画像認識装置、画像認識方法、及び、記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021166058A1 JPWO2021166058A1 (ja) 2021-08-26
JPWO2021166058A5 JPWO2021166058A5 (ja) 2022-09-28
JP7338779B2 true JP7338779B2 (ja) 2023-09-05

Family

ID=77390705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022501427A Active JP7338779B2 (ja) 2020-02-18 2020-02-18 画像認識装置、画像認識方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20230053838A1 (ja)
JP (1) JP7338779B2 (ja)
WO (1) WO2021166058A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220292285A1 (en) * 2021-03-11 2022-09-15 International Business Machines Corporation Adaptive selection of data modalities for efficient video recognition
WO2022205685A1 (zh) * 2021-03-29 2022-10-06 泉州装备制造研究所 一种基于轻量化网络的交通标志识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095171A (ja) 2009-10-30 2011-05-12 Sumitomo Chemical Co Ltd 欠陥検査システム、並びに、それに用いる、欠陥検査用撮影装置、欠陥検査用画像処理装置、欠陥検査用画像処理プログラム、記録媒体、および欠陥検査用画像処理方法
JP2018190329A (ja) 2017-05-11 2018-11-29 オムロン株式会社 画像処理装置、画像処理プログラム、画像処理システム
JP2019184489A (ja) 2018-04-13 2019-10-24 日東電工株式会社 画像識別装置、及び画像識別装置を備える物品製造装置
WO2019243863A1 (en) 2018-06-18 2019-12-26 Inception Institute Of Artificial Intelligence Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi-view vehicle representations

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8457414B2 (en) * 2009-08-03 2013-06-04 National Instruments Corporation Detection of textural defects using a one class support vector machine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095171A (ja) 2009-10-30 2011-05-12 Sumitomo Chemical Co Ltd 欠陥検査システム、並びに、それに用いる、欠陥検査用撮影装置、欠陥検査用画像処理装置、欠陥検査用画像処理プログラム、記録媒体、および欠陥検査用画像処理方法
JP2018190329A (ja) 2017-05-11 2018-11-29 オムロン株式会社 画像処理装置、画像処理プログラム、画像処理システム
JP2019184489A (ja) 2018-04-13 2019-10-24 日東電工株式会社 画像識別装置、及び画像識別装置を備える物品製造装置
WO2019243863A1 (en) 2018-06-18 2019-12-26 Inception Institute Of Artificial Intelligence Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi-view vehicle representations

Also Published As

Publication number Publication date
US20230053838A1 (en) 2023-02-23
JPWO2021166058A1 (ja) 2021-08-26
WO2021166058A1 (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
Chung et al. An efficient hand gesture recognition system based on deep CNN
Wang et al. Machine vision intelligence for product defect inspection based on deep learning and Hough transform
CN111402203B (zh) 一种基于卷积神经网络的织物表面缺陷检测方法
CN109613002B (zh) 一种玻璃缺陷检测方法、装置和存储介质
CN111667455B (zh) 一种刷具多种缺陷的ai检测方法
Bong et al. Vision-based inspection system for leather surface defect detection and classification
JP7338779B2 (ja) 画像認識装置、画像認識方法、及び、プログラム
CN115184359A (zh) 一种自动调参的表面缺陷检测系统与方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN111145145A (zh) 一种基于MobileNets的图像表面缺陷检测方法
JP2021143884A (ja) 検査装置、検査方法、プログラム、学習装置、学習方法、および学習済みデータセット
CN113807378A (zh) 训练数据增量方法、电子装置与计算机可读记录介质
KR102372714B1 (ko) 딥러닝 기반 자동 결함 검사 장치 및 방법
CN113763424A (zh) 基于嵌入式平台的实时智能目标检测方法及系统
Zhou et al. A novel convolutional neural network for electronic component classification with diverse backgrounds
CN114387213A (zh) 一种基于深度迁移学习的汽车钣金件表面缺陷检测方法
CN117911437A (zh) 一种改进YOLOv5x的荞麦籽粒粘连分割方法
KR102178238B1 (ko) 회전 커널을 이용한 머신러닝 기반 결함 분류 장치 및 방법
Sema et al. Automatic Detection and Classification of Mango Disease Using Convolutional Neural Network and Histogram Oriented Gradients
Khajuria et al. Blur detection in identity images using convolutional neural network
CN114863199A (zh) 一种基于优化锚框机制的目标检测方法
CN112749687A (zh) 一种图片质量和静默活体检测多任务训练方法和设备
US20240153061A1 (en) Inspection device, inspection method, and recording medium
Kronenwett et al. Potential of Deep Learning methods for image processing in sensor-based sorting: data generation, training strategies and model architectures
WO2022185474A1 (ja) 学習装置、学習方法、検査装置、検査方法、及び、記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R151 Written notification of patent or utility model registration

Ref document number: 7338779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151