JP2019212073A - 画像判別装置および方法 - Google Patents

画像判別装置および方法 Download PDF

Info

Publication number
JP2019212073A
JP2019212073A JP2018108298A JP2018108298A JP2019212073A JP 2019212073 A JP2019212073 A JP 2019212073A JP 2018108298 A JP2018108298 A JP 2018108298A JP 2018108298 A JP2018108298 A JP 2018108298A JP 2019212073 A JP2019212073 A JP 2019212073A
Authority
JP
Japan
Prior art keywords
image
discrimination
unit
determination
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018108298A
Other languages
English (en)
Inventor
真弘 森本
Masahiro Morimoto
真弘 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2018108298A priority Critical patent/JP2019212073A/ja
Publication of JP2019212073A publication Critical patent/JP2019212073A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】教師データをより的確かつスムーズに追加することができる学習型の画像判別装置および方法を提供することを目的とする。【解決手段】画像判別装置1は、学習により予め構築した分類器によって、判別対象の画像を判別する分類学習器11と、判別結果を判別対象の画像とともに表示装置4に提示する判別結果提示部121と、判別結果に基づいて、判別対象の画像を教師画像とするか否かの判定を行う判定部13と、判別対象の画像を教師画像とすると判定されたとき、判別対象の画像を教師画像として選択する教師画像選択部150と、教師画像に付与するラベルの選択操作を受け付けるラベル選択部151と、ラベル選択部151によって選択されたラベルを付した教師画像を新たな教師データとして記憶部16に追加して記憶させる教師データ収集部15と、新たな教師データを用いて再学習して分類器を再構築する学習部111とを備える。【選択図】 図1

Description

本発明は、画像判別装置および方法に関し、特に学習型画像判別装置の教師データを収集する技術に関する。
従来から、検査対象の撮像画像に含まれるキズ、汚れ、文字などの特徴を判別するために、学習型画像判別装置が利用されている(例えば、特許文献1参照)。このような学習型画像判別装置は、教師画像とラベルとの組み合わせからなる教師データを複数用意する必要がある(例えば、特許文献2参照)。
また、従来から、学習型画像判別装置における学習で用いる教師データの収集と、学習によって構築された分類器を用いた画像の判別とはそれぞれ独立に行われている(例えば、特許文献3参照)。例えば、特許文献3に記載の学習型画像判別装置では、教師データは作業者が画像の切り取り位置やラベルの指定を行って作成される。そして、学習型画像判別装置は、作成された教師データを用いて学習を行った後に判別処理を行う。特に、学習型画像判別装置による判別処理は、検査対象が写っているライブ映像などの連続的なスナップショットまたは静止画像のスナップショットに対して自動的に行われる。
また、従来から、教師データを追加して学習することで学習型画像判別装置の判別精度が向上することが知られている。例えば、判別結果が不適切である場合には、ラベルを修正した教師データを追加したうえで、学習型画像判別装置において再学習を行うことが望ましい。また、特定のラベルの教師データ数が少ない場合、その特定のラベルの教師データを追加したうえで、学習型画像判別装置において再学習を行うことが望ましい。
また、学習型画像判別装置の判別精度を向上させるための教師データの追加作業は、ライブ映像などを用いた入力データの判別処理後に即座に行われることが望ましい。
特許第5168215号公報 特開第2006−292615号公報 特開第2000−200356号公報
しかし、従来の学習型画像判別装置では、ライブ映像などによる入力データの判別処理から教師データの収集処理への移行が煩雑となる場合があった。そのため、検査対象の動きによって判別結果が変化するような場合には、教師データを得る機会を逃してしまうことや、各ラベルの教師データの数に偏りが生じてしまうことがあった。また、判別処理から教師データの収集処理への移行に時間がかかってしまうと、作業者において、各画像データのどの箇所を切り取り、どのラベルを付与すべきかが分からなくなる恐れがあった。
本発明は、上述した課題を解決するためになされたものであり、教師データをより的確かつスムーズに追加することができる学習型の画像判別装置および方法を提供することを目的とする。
上述した課題を解決するために、本発明に係る画像判別装置は、ラベルが付与された画像からなる教師データを記憶する記憶部と、学習により予め構築した分類器によって、判別対象の画像を判別する分類学習器と、前記分類学習器による判別結果を前記判別対象の画像とともに表示装置に提示する判別結果提示部と、前記判別結果に基づいて、前記判別対象の画像を教師画像とするか否かの判定を行う判定部と、前記判定部により、前記判別対象の画像を教師画像とすると判定されたとき、前記判別対象の画像を教師画像として選択する教師画像選択部と、前記教師画像に付与するラベルを選択する操作を受け付けるラベル選択部と、前記ラベル選択部によって選択されたラベルを付した前記教師画像を新たな教師データとして前記記憶部に追加して記憶させる教師データ収集部と、前記記憶部に記憶されている前記新たな教師データを用いて再学習して前記分類器を再構築する学習部とを備えることを特徴とする。
また、本発明に係る画像判別装置において、前記判別結果は、前記分類学習器によって判別された前記判別対象の画像を判別する分類クラスに対応する判別ラベルと、判別の正確度を示す判別確度とが含まれていてもよい。
また、本発明に係る画像判別装置において、前記判定部は、前記判別結果提示部によって提示された前記判別確度が予め設定されたしきい値以下である場合に、前記判別対象の画像を前記教師画像とする判定を行ってもよい。
また、本発明に係る画像判別装置において、前記判定部は、前記判別結果提示部によって前記判別結果の一部として提示された前記判別結果に含まれる判別ラベルと同一のラベルを含む前記教師データの数が予め設定されたしきい値以下である場合に、前記判別対象の画像を前記教師画像とする判定を行ってもよい。
また、本発明に係る画像判別装置において、前記判別結果提示部は、複数の前記判別結果を提示し、前記判定部は、前記判別結果提示部によって提示された複数の前記判別結果に含まれる特定の判別ラベルの数と、その他の判別ラベルの数との割合が、予め設定されたしきい値以下である場合に、前記判別対象の画像を前記教師画像とする判定を行い、前記教師画像選択部は、前記判別結果として前記特定の判別ラベルが付与されている前記判別対象の画像を前記教師画像として選択してもよい。
また、本発明に係る画像判別装置において、カメラから前記判別対象の映像を取得する映像取得部と、前記判別対象の映像を前記表示装置を介して表示する映像表示部と、をさらに備え、前記判別結果提示部は、前記映像表示部によって表示された前記判別対象の映像に重ねて前記判別結果を提示してもよい。
また、本発明に係る画像判別装置において、前記判定部による、前記判別対象の画像を前記教師画像とする判定に応じて、前記映像表示部が前記表示装置を介して表示している前記判別対象の映像のスナップショットを取得するスナップショット取得部をさらに備え、前記教師画像選択部は、前記スナップショットに含まれる前記判別対象の画像を前記教師画像として選択してもよい。
また、本発明に係る画像判別方法は、記憶部に記憶されているラベルが付与された画像からなる教師データを学習して予め構築した分類器によって、判別対象の画像を判別する判別ステップと、前記判別ステップでの判別結果を前記判別対象の画像とともに表示装置に提示する判別結果提示ステップと、前記判別結果に基づいて、前記判別対象の画像を、新たな教師画像とするか否かの判定を行う判定ステップと、前記判定ステップで、前記判別対象の画像を教師画像とすると判定したときに、前記判別対象の画像を教師画像として選択する教師画像選択ステップと、前記教師画像に付与するラベルを選択する操作を受け付けるラベル選択ステップと、前記ラベル選択ステップで選択されたラベルを付した前記教師画像を新たな教師データとして前記記憶部に追加して記憶させる教師データ追加ステップと、前記記憶部に記憶されている前記新たな教師データを用いて再学習して前記分類器を再構築する学習ステップとを備えることを特徴とする。
本発明によれば、分類学習器による判別対象の画像の判別結果に基づいて、その判別対象の画像を新たに追加する教師データの教師画像とすべきか否かを判定するので、教師データをより的確かつスムーズに追加することができる。
図1は、本発明の実施の形態に係る画像判別装置の構成を示すブロック図である。 図2は、本発明の実施の形態に係る画像判別装置のハードウェア構成を示すブロック図である。 図3は、本発明の実施の形態に係る画像判別装置の動作を説明するフローチャートである。 図4は、本発明の教師データ収集処理のフローチャートである。 図5は、本発明の実施の形態に係る表示部による判別結果の表示例である。 図6は、本発明の実施の形態に係る表示部による教師データ設定画面の表示例である。
以下、本発明の好適な実施の形態について、図1から図6を参照して詳細に説明する。
[実施の形態]
図1は、本発明の実施の形態に係る画像判別装置1の構成を示すブロック図である。
画像判別装置1は、カメラ2によって撮影され、表示装置4に表示された検査対象3の映像に基づいて、例えば、検査対象3に含まれる欠陥などの判別を行い、判別結果を表示装置4に表示する。
カメラ2は、画像判別装置1に接続されており、予め設定された検査領域に存在する検査対象3の光学像を撮像する。より詳細には、カメラ2は、ディジタルビデオカメラなどによって構成され、2次元CCDなどのイメージセンサを用い、受光面(図示しない)に結像された光学像を電気信号に変換する。カメラ2は、所定のフレームレートで連続的に画像入力を行い、DSP(Digital Signal Processing)により画像データを圧縮する。
検査対象3は、例えば、ウェハなどの製品であり、キズや汚れなどの外観における欠陥など、すなわち判別対象を含んでいる場合がある。検査対象3は、例えば、カメラ2の前に設けられた検査領域において一定の速度で所定の方向へ移動し、その様子がカメラ2によって撮影される。
表示装置4は、液晶ディスプレイなどによって構成される。表示装置4によって、画像判別装置1が備える後述する表示部12の各機能が実現される。また、表示装置4は、後述する入力装置108による入力結果が表示されたり、検査対象3の映像やスナップショットおよびラベル情報などが表示される。また。表示装置4は、画像判別装置1の各種機能に応じて入力装置108による各種操作を行うための操作キーを画像表示する。
画像判別装置1は、映像取得部10、分類学習器11、表示部12、判定部13、スナップショット取得部14、教師データ収集部15、および記憶部16を備える。
映像取得部10は、検査対象3の映像をカメラ2から取得する。映像取得部10は、取得した映像の輝度補正やノイズの除去などの画像処理を必要に応じて行う。なお、映像取得部10が取得した映像は、所定のフレームに分割されている静止画像(以下、「画像」という。)により構成される。映像取得部10によって取得された検査対象3の映像は、記憶部16に記憶される。
分類学習器11は、教師データ取得部110、学習部111、および判別部112を備える。分類学習器11は、予め設定されたラベルが付与された画像からなる教師データを学習して予め構築した分類器によって、未知の検査対象3の画像における欠陥の有無や種類などの判別を行う。また、分類学習器11は、後述する教師データ収集部15によって収集され追加された教師データを用いて再学習して再構築した分類器によって、未知の検査対象3の画像の判別を行う。なお、検査対象3の画像には、その一部の画像領域に欠陥などの特徴部分である判別対象の画像が含まれる。
教師データ取得部110は、記憶部16に予め記憶されている後述する教師データを取得する。また、教師データ取得部110は、後述する教師データ収集部15によって収集されて追加された新たな教師データを記憶部16から取得する。教師データは、検査対象3に含まれる判別対象の画像(以下、「教師画像」という。)と予め定められているラベルとの組み合わせからなる学習用のデータである。検査対象3の画像は、映像取得部10によって取得された映像を構成するフレームごとの静止画像データである。教師データ取得部110によって取得された教師データは、学習部111に入力される。
学習部111は、教師データ取得部110によって取得された教師データを学習してその特徴量を抽出する。特に、学習部111は、記憶部16に記憶されている新たな教師データを用いて再学習し、分類器を再構築する。
学習部111としては、よく知られている畳み込みニューラルネットワーク、多層パーセプトロン、再帰型ニューラルネットワーク、残差ネットワーク(Residual Network:ResNet)、変分オートエンコーダ(Variational Autoencoder:VAE)、敵対的生成ネットワーク(Generative Adversarial Network:GAN)、カプセルネットワーク(Capsule Network:CapsNet)などのニューラルネットワークモデルを用いてもよい。
学習部111は、教師あり学習を行い、入力教師信号である判別対象の画像の特徴を学習し、出力教師信号であるラベルとの誤差が減少するように、上記ニューラルネットワークなどのパラメータ値を更新する。学習部111は、学習により抽出した教師データの特徴量を、例えば、学習部111の所定の領域に保持する。学習部111によって抽出された教師データの特徴量、すなわちニューラルネットワークのパラメータの最終的な更新値により検査対象3(判別対象)の画像を判別する分類器が構築される。
判別部112は、学習部111が学習により抽出した教師データの特徴量、すなわちニューラルネットワークのパラメータの最終的な更新値により検査対象3の画像を判別する分類器を構築する。より詳細には、判別部112は、学習部111が保持しているニューラルネットワークなどのパラメータ値を読み込んで分類器を構築し、未知の検査対象3の画像を入力として、欠陥の有無や種類を判別する。
判別部112による判別結果は、表示装置4の所定の画面に表示される。また、判別結果は、記憶部16に記憶される。判別結果には、判別対象の画像の分類クラスに対応するラベル(判別ラベル)、および判別の正確度を示す判別確度が含まれる。なお、本実施の形態では、予め定義された各分類クラスと各ラベルとは対応するものとする。
表示部12は、ライブ映像表示部120、判別結果提示部121、スナップショット表示部122、およびラベル情報提示部123を備える。表示部12は各機能に応じた情報を加工して表示装置4の画面に表示する。
ライブ映像表示部120は、映像取得部10によってカメラ2から取得された検査対象3の映像を表示装置4の所定の画面に表示する。より詳細には、ライブ映像表示部120は、検査対象3のリアルタイムの映像を、表示装置4における所定のタブの画面に表示する。
判別結果提示部121は、分類学習器11の判別部112による判別結果を、ライブ映像表示部120が表示装置4の画面に表示している検査対象3の映像に重畳して表示する。より詳細には、判別結果提示部121は、検査対象3に含まれる判別対象の画像と、その判別対象の分類クラスに対応するラベルと、判別確度とを含む情報を提示する。例えば、検査対象3の欠陥の画像と、その欠陥が「ラベル1:汚れ」であり、判別の確度が「90%」であることを示す情報とが提示される。
判別結果提示部121は、例えば、検査対象3に含まれている欠陥などの判別対象を含む画像領域をハイライト表示して、その領域の近辺に数字および文字情報によりラベルおよび判別確度を提示してもよい。より詳細には、判別結果提示部121は、分類学習器11の判別部112による判別結果を取得して、表示装置4の画面に表示されている判別対象の画像を特定し、判別ラベルおよび判別確度を表示する。判別結果提示部121は、例えば、CSS(Cascading Style Sheets)などによりハイライト表示や文字表示の設定を行えばよい。
スナップショット表示部122は、後述するスナップショット取得部14が撮影した検査対象3のライブ映像のスナップショットを、表示装置4の予め定められた画面の領域に表示する。複数のスナップショットが撮影された場合には、スナップショット表示部122は、それら複数のスナップショットを表示装置4の画面にリスト表示する。スナップショットには、複数の判別対象の画像が含まれる場合がある。
ラベル情報提示部123は、予め設定されているラベル情報を表示装置4の所定の画面に提示する。より具体的には、ラベル情報提示部123は、上記スナップショットに含まれる判別対象の画像(後述する教師画像)に対して作業者が画面上でラベルの選択操作が可能な形態でラベルをリスト表示する。例えば、スナップショットに含まれる検査対象3の欠陥などの判別対象を示す領域に隣接して、ラジオボタンやチェックボックスなどをCSSで装飾したラベルリストを設けてもよい。
判定部13は、分類学習器11が備える判別部112による判別結果に基づいて、後述する教師データ収集部15に新たな教師データを収集させるか否かの判定を行う。より詳細には、判定部13は、判別部112による判別結果に基づいて、判別対象の画像を教師画像とすべきか否かの判定を行う。
判定部13は、判別部112による判別確度が予め定められているしきい値以下であること、教師データの数が予め定められているしきい値以下であること、および判別部112による複数の判別結果に示された特定のラベルの数の割合が予め定められているしきい値以下であることの基準に基づいて判定を行う。
判定部13が上記基準に基づいて、判別対象の画像を教師画像とする判定、すなわち新たに追加する教師データを収集する判定を行うことで、分類学習器11による判別モードから教師データ収集部15による教師データの収集モード(教師データ収集処理)へと切り替わる。
判定部13は、上記3つの基準を組み合わせて適用してもよく、また、上記3つの基準のうちの一部を適用して教師データの収集モードへ切り替える判定を行ってもよい。判定部13による判定を示す情報はスナップショット取得部14および教師データ収集部15に送出される。
スナップショット取得部14は、判定部13による教師データの収集モードへの切り替え判定があった場合に、ライブ映像表示部120が表示装置4を介して表示中の検査対象3の映像におけるスナップショットを撮影する。スナップショット取得部14は、一定の時間間隔(例えば数秒ごと)で映像をキャプチャして複数の静止画像であるスナップショットを取得してもよい。
スナップショット取得部14によって撮影されるスナップショットは、ライブ映像で表示されている判別対象の画像が含まれる検査対象3の画像である。取得されたスナップショットは、スナップショット表示部122によって表示装置4の所定の画面に表示される。また、検査対象3の画像に複数の判別対象が含まれる場合には、スナップショットには複数の判別対象の画像が含まれる。
教師データ収集部15は、教師画像選択部150とラベル選択部151とを備える。教師データ収集部15は、検査対象3の映像のスナップショットに含まれる欠陥などを示す判別対象の画像を教師画像として選択し、さらにその教師画像に対するラベルを選択する操作を受け付けて新たな教師データを生成する。生成された新たな教師データは、記憶部16に追加して記憶される。
教師画像選択部150は、判定部13により判別対象の画像を教師画像とすべき判定がなされた場合に、スナップショット取得部14によって取得された判別対象の画像を教師画像として選択する。より詳細には、教師画像選択部150は、スナップショット表示部122が表示装置4の画面に表示する検査対象3のスナップショットから欠陥などを示す判別対象の画像領域を切り取り、教師画像として選択する。例えば、教師画像選択部150は、予め記憶部16に記憶されている検査対象3の良品画像との画像差分を行って、スナップショットに含まれる欠陥などの判別対象を検出してもよい。
また、教師画像選択部150は、スナップショットの検査対象3の画像に含まれる判別対象を、予め設定された領域サイズに切り取る。教師画像選択部150は、選択した教師画像を表示装置4における予め設定された教師データ設定タブの画面領域内に表示させる。
ラベル選択部151は、教師画像選択部150によって選択された教師画像に対するラベルの選択操作を受け付ける。より詳細には、ラベル選択部151は、ラベル情報提示部123によって表示装置4の教師データ設定タブにおける所定の画面領域に表示されたラベルリストの中から、入力装置などを介して作業者によるラベル選択の操作入力を受け付ける。
記憶部16は、判定部13によって用いられる判定の基準およびしきい値、予め設定されているラベルに関する情報、教師データに関する情報などを記憶する。教師データに関する情報としては、ラベルごとの教師画像の数などが挙げられる。
[画像判別装置のハードウェア構成]
次に、本実施の形態に係る画像判別装置1のハードウェア構成について、図2を参照して説明する。
図2に示すように、画像判別装置1は、バス101を介して接続されるCPU103と主記憶装置104とを有する演算装置102、通信制御装置105、外部記憶装置106、表示装置107、入力装置108、カメラ109等を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。
CPU103と主記憶装置104とは、演算装置102を構成する。主記憶装置104には、CPU103が各種制御や演算を行うためのプログラムが予め格納されている。
通信制御装置105は、画像判別装置1と各種外部電子機器との間をネットワーク接続するための制御装置である。本実施の形態では、画像判別装置1は、ネットワークを介して図示しない管理サーバなどに接続されていてもよい。
外部記憶装置106は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。外部記憶装置106には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。外部記憶装置106は、映像記憶部106a、教師データ設定情報記憶部106b、判定基準記憶部106c、教師データ記憶部106d、プログラム格納部106e、図示しないその他の格納装置で、例えば、この外部記憶装置106内に格納されているプログラムやデータなどをバックアップするための格納装置などを有することができる。外部記憶装置106は、図1で説明した記憶部16を実現する。
映像記憶部106aは、図1で説明した映像取得部10によって取得された検査対象3の映像を記憶する。
教師データ設定情報記憶部106bは、予め設定されたラベルの情報を記憶する。
判定基準記憶部106cは、図1で説明した判定部13による判定基準およびしきい値を記憶している。判定基準記憶部106cは、ネットワークNWを介して接続された外部サーバに設けられていてもよい。
教師データ記憶部106dは、図1で説明した分類学習器11によって用いられる教師データを記憶する。また、教師データ記憶部106dには、教師データ収集部15によって収集された教師データが蓄積される。教師データ記憶部106dには、各ラベルと教師画像とが関連付けられた教師データが記憶されている。教師データ記憶部106dは、ネットワークNWを介して接続された外部サーバに設けられていてもよい。
プログラム格納部106eには、本実施の形態における学習処理、判別処理、教師データ収集処理、教師データ収集モードへの切り替え判定処理、表示処理など画像判別に必要な処理を実行するための各種プログラムが格納されている。
表示装置107は、図1で説明した表示装置4に対応する。
入力装置108は、キーボード、マウス、タッチパネルなどにより構成される。入力装置108は、作業者のキー入力、アイコンなどのクリック、タッチパネルのタッチ位置に対応した機能や操作の入力を受け付ける。
カメラ109は、図1で説明したカメラ2に対応する。
[画像判別装置の動作]
次に、上述した構成を有する画像判別装置1の動作について、図3のフローチャートを参照して説明する。まず、画像判別装置1の映像取得部10は、カメラ2によって撮影された検査対象3の映像を取得する(ステップS1)。取得された映像は、ライブ映像表示部120によりリアルタイムの検査対象3の映像として表示装置4の所定の画面に表示される。
次に、分類学習器11は、予め学習して構築した分類器を用いて、検査対象3の映像を構成するフレームごとの画像を入力として、欠陥の有無や種類の判別処理を行う。その後、判別結果提示部121は、分類学習器11による判別結果を、ライブ映像表示部120が表示装置4の画面に表示する映像に重ねて表示する(ステップS2)。
より具体的には、図5に示すように、表示装置4に表示されているタブT1の画面領域a1には、映像取得部10によって取得された検査対象3のライブ映像が表示されている。また、分類学習器11の判別部112による判別結果は、各判別対象の画像がハイライト表示された領域の下に、判別ラベルの名称と判別確度とが文字情報として表示される。例えば、画面領域a1の左側に位置する判別対象に対しては、ラベル名称「ラベル1」および判別確度「50%」という判別結果が、その判別対象をハイライト表示で示す画像とともに表示されている。
次に、判定部13は、判別結果の判別確度がしきい値以下のラベルが存在する場合には(ステップS3:YES)、教師データ収集部15による教師データ収集処理に移行する(ステップS4)。
より詳細には、判定部13は、記憶部16から判別確度のしきい値(例えば、50%)を読み込んで、判別結果のうち、判別確度が50%以下のラベルが存在するか否かを判定する。図5の表示例では、画面領域a1の左側の判別対象の画像に対する判別結果が、ステップS3における判別確度のしきい値以下となっている。このような判定基準を設けることで、判別確度の低いラベルの教師データを追加することができる。
一方、判別確度がしきい値以下となったラベルが存在しない場合において(ステップS3:NO)、判定部13が、判別結果のラベルのうち、教師データの数がしきい値以下のラベルが存在すると判定した場合(ステップS6:YES)、教師データ収集部15による教師データ収集処理に移行する(ステップS4)。
より詳細には、判定部13は、記憶部16からしきい値(例えば、判別結果として表示されているラベル以外のラベルの教師データの平均数×70%)を読み込む。また、判定部13は、記憶部16からラベルごとの教師データの数を取得する。判定部13は、画面領域a1において、しきい値以下のラベルと同じラベルを示す判別対象の画像が判別されたか否かを判定する。このような判定基準を設けることにより、教師データの数が少ないラベルが存在する場合に、そのラベルの教師データを追加することができる。
一方、判別結果において、教師データの数がしきい値以下であるラベルが表示されていない場合において(ステップS6:NO)、複数の判別結果における特定のラベルの割合がしきい値以下であると判定部13が判定した場合(ステップS7:YES)、教師データ収集部15による教師データ収集処理に移行する(ステップS4)。
より詳細には、判定部13は、記憶部16からしきい値(例えば、複数の判別結果として表示されている特定のラベルの数と、そのラベル以外のラベルの数との割合が10%)を読み込む。判定部13は、画面領域a1において、しきい値以下に該当する特定のラベルが存在するか否かを判定する。このような判定基準を設けることで、複数の判別結果のうち、一部の判別結果が他の判別結果と異なる場合に、教師データの追加を行うことができる。
例えば、「ラベル1」の判別結果が多数表示されている中に、1つだけ「ラベル2」を示す判別結果が混ざっているような場合に、「ラベル2」と判別された判別対象の画像を切り取って教師データとして追加する。検査結果が出たその場で、「ラベル2」の切り取り場所とラベルの種類を指定できるので、多数の「ラベル1」と混乱することによる作業ミスを防ぐことができる。
一方、複数提示された判別結果において、しきい値以下となる特定のラベルが存在しない場合(ステップS7:NO)、処理は終了する。この場合、例えば、作業者におけるマニュアルモードにより教師データを収集する構成を採用してもよい。例えば、作業者からの画面操作を、図5に示すアイコンI1から受け付けて、検査対象3の映像におけるスナップショットの撮影を行ったり、マウス操作などによる判別対象の画像領域の切り取り、およびラベルの選択などを行う構成としてもよい。
[教師データ収集処理]
ここで、教師データ収集処理(ステップS4)について、図4を参照して説明する。
判定部13が、それぞれの判定基準に基づいて教師データ収集処理に移行する判定を行うと(ステップS3:YES、ステップS6:YES、ステップS7:YES)、スナップショット取得部14は、検査対象3のライブ映像におけるスナップショットを撮影する(ステップS400)。スナップショット取得部14は、一定の時間間隔で複数のスナップショットを撮影する。また、撮影されたスナップショットは記憶部16に一時的に記憶される。
このように、判定部13による判定の直後に検査対象3のライブ映像におけるスナップショットが取得されることで、教師データとして追加すべき判別対象を含む画像を撮り逃すことを防止できる。
次に、表示部12は、表示装置4において教師データ設定用のタブを表示させる(ステップS401)。例えば、図6に示すようにタブT2の画面領域a1が表示される。次に、スナップショット表示部122は、ステップS400で撮影した判別対象を含むスナップショットを表示装置4の所定の画面領域にリスト表示する(ステップS402)。
具体的には、図6に示すように、表示装置4における左側の画面領域a2に複数のスナップショットがリスト表示される。スナップショットは、撮影された時刻順に画面領域a2の上から順にリスト表示されてもよい。
次に、教師画像選択部150は、リスト表示されている判別対象の画像を含むスナップショットを選択して教師データ設定用のタブT2の画面領域a1に表示させる(ステップS403)。教師画像選択部150は、例えば、画面領域a2にリスト表示されているスナップショットの最も上に位置するスナップショットを選択してタブT2の画面領域a1に表示させてもよい。
次に、教師画像選択部150は、選択されたスナップショットから検査対象3に含まれる判別対象の画像を切り取る(ステップS404)。具体的には、図6に示すように、タブT2の画面領域a1に表示されているスナップショットに含まれる判別対象が破線で示す領域で切り取られ、画面領域a1内における画面領域a3に表示される。この切り取り画像が教師データを構成する教師画像となる。画面領域a3は、教師データを指定するダイアログを構成する。
なお、図3で説明したステップS7において、判定部13が、判別結果における特定ラベルの割合がしきい値以下であると判定した場合の上記ステップS404の処理について、教師画像選択部150は、割合が少ない方の特定ラベルの判別対象の画像を切り取って画面領域a3に表示させてもよい。また、表示させる判別対象の切り取り画像は複数であってもよい。
次に、ラベル情報提示部123は、ステップS404で切り取られた検査対象3に含まれる判別対象の画像(教師画像)とともに、予め設定されているラベルをリスト表示する(ステップS405)。具体的には、ラベル情報提示部123は、記憶部16からラベル情報を読み出して、図6に示すように、表示装置4の画面領域a3内にリスト表示する。例えば、教師画像の横に、「ラベル1」、「ラベル2」、および「ラベル3」がそれぞれ選択可能な形態でリスト表示される。また、初期選択として、判別結果に応じた「ラベル1」が選択されて表示される。
次に、ラベル選択部151は、教師画像に対するラベルの選択を受け付ける(ステップS406)。より具体的には、作業者による画面上での操作入力、例えば、図6に示すアイコン「OK」のクリックに対応する操作信号を受け付けることで、ラベル選択部151は教師画像に対するラベルの選択を受け付ける。また、ラベル選択部151は、作業者の操作入力に応じて変更された正しいラベルの選択を受け付ける。
その後、教師データ収集部15は、教師画像とラベルとの組み合わせからなる新たな教師データを記憶部16に追加して記憶する(ステップS407)。
次に、図3に示すように、分類学習器11においてステップS407で新たに追加された教師データを用いた再学習が行われる(ステップS5)。これにより、判別結果が不適切である場合において教師データを追加したうえで再学習するので、判別の確度を向上させることが可能となる。
その後、分類学習器11は、再学習により再構築された分類器を用いて、未知の判別対象の画像をより高い判別確度で判別する。
以上説明したように、本実施の形態によれば、画像判別装置1は、検査対象3の画像による判別結果に基づいて、教師データを追加するか否かの判定を行う。また追加すべきと判定された場合には、画像判別装置1は、判別対象の画像のスナップショットを撮影し、判別対象の切り取り画像を教師画像として作成し、教師画像に対する正しいラベル選択を受け付けて教師データを収集する。
そのため、検査対象3のライブ映像による判別と教師データの収集との切り替えをスムーズに行い、より的確に教師データを追加することができる。その結果として、教師データ収集時の作業ミスを防ぐことができる。
例えば、検査対象3の動きによって判別結果が変化する場合でも、教師データを得ることができる。また、各ラベルの教師データの数に偏りが生じた際に、教師データの数を均一化させることができる。さらに、判定部13による3つの判定基準を組み合わせて採用することにより、より適切かつ確実に教師データを追加することが可能となる。
以上、本発明の画像判別装置および画像判別方法における実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。
1…画像判別装置、2、109…カメラ、3…検査対象、4、107…表示装置、10…映像取得部、11…分類学習器、12…表示部、13…判定部、14…スナップショット取得部、15…教師データ収集部、16…記憶部、101…バス、102…演算装置、103…CPU、104…主記憶装置、105…通信制御装置、106…外部記憶装置、106a…映像記憶部、106b…教師データ設定情報記憶部、106c…判定基準記憶部、106d…教師データ記憶部、106e…プログラム格納部、108…入力装置、110…教師データ取得部、111…学習部、112…判別部、120…ライブ映像表示部、121…判別結果提示部、122…スナップショット表示部、123…ラベル情報提示部、150…教師画像選択部、151…ラベル選択部。

Claims (8)

  1. ラベルが付与された画像からなる教師データを記憶する記憶部と、
    学習により予め構築した分類器によって、判別対象の画像を判別する分類学習器と、
    前記分類学習器による判別結果を前記判別対象の画像とともに表示装置に提示する判別結果提示部と、
    前記判別結果に基づいて、前記判別対象の画像を教師画像とするか否かの判定を行う判定部と、
    前記判定部により、前記判別対象の画像を教師画像とすると判定されたとき、前記判別対象の画像を教師画像として選択する教師画像選択部と、
    前記教師画像に付与するラベルを選択する操作を受け付けるラベル選択部と、
    前記ラベル選択部によって選択されたラベルを付した前記教師画像を新たな教師データとして前記記憶部に追加して記憶させる教師データ収集部と、
    前記記憶部に記憶されている前記新たな教師データを用いて再学習して前記分類器を再構築する学習部と
    を備えることを特徴とする画像判別装置。
  2. 請求項1に記載の画像判別装置において、
    前記判別結果は、前記分類学習器によって判別された前記判別対象の画像を判別する分類クラスに対応する判別ラベルと、判別の正確度を示す判別確度とが含まれることを特徴とする画像判別装置。
  3. 請求項2に記載の画像判別装置において、
    前記判定部は、前記判別結果提示部によって提示された前記判別確度が予め設定されたしきい値以下である場合に、前記判別対象の画像を前記教師画像とする判定を行うことを特徴とする画像判別装置。
  4. 請求項2または請求項3に記載の画像判別装置において、
    前記判定部は、前記判別結果提示部によって前記判別結果の一部として提示された前記判別結果に含まれる判別ラベルと同一のラベルを含む前記教師データの数が予め設定されたしきい値以下である場合に、前記判別対象の画像を前記教師画像とする判定を行うこと特徴とする画像判別装置。
  5. 請求項2から4のいずれか1項に記載の画像判別装置において、
    前記判別結果提示部は、複数の前記判別結果を提示し、
    前記判定部は、前記判別結果提示部によって提示された複数の前記判別結果に含まれる特定の判別ラベルの数と、その他の判別ラベルの数との割合が、予め設定されたしきい値以下である場合に、前記判別対象の画像を前記教師画像とする判定を行い、
    前記教師画像選択部は、前記判別結果として前記特定の判別ラベルが付与されている前記判別対象の画像を前記教師画像として選択する
    ことを特徴とする画像判別装置。
  6. 請求項1から5のいずれか1項に記載の画像判別装置において、
    カメラから前記判別対象の映像を取得する映像取得部と、
    前記判別対象の映像を前記表示装置を介して表示する映像表示部と、
    をさらに備え、
    前記判別結果提示部は、前記映像表示部によって表示された前記判別対象の映像に重ねて前記判別結果を提示する
    ことを特徴とする画像判別装置。
  7. 請求項6に記載の画像判別装置において、
    前記判定部による、前記判別対象の画像を前記教師画像とする判定に応じて、前記映像表示部が前記表示装置を介して表示している前記判別対象の映像のスナップショットを取得するスナップショット取得部をさらに備え、
    前記教師画像選択部は、前記スナップショットに含まれる前記判別対象の画像を前記教師画像として選択する
    ことを特徴とする画像判別装置。
  8. 記憶部に記憶されているラベルが付与された画像からなる教師データを学習して予め構築した分類器によって、判別対象の画像を判別する判別ステップと、
    前記判別ステップでの判別結果を前記判別対象の画像とともに表示装置に提示する判別結果提示ステップと、
    前記判別結果に基づいて、前記判別対象の画像を、新たな教師画像とするか否かの判定を行う判定ステップと、
    前記判定ステップで、前記判別対象の画像を教師画像とすると判定したときに、前記判別対象の画像を教師画像として選択する教師画像選択ステップと、
    前記教師画像に付与するラベルを選択する操作を受け付けるラベル選択ステップと、
    前記ラベル選択ステップで選択されたラベルを付した前記教師画像を新たな教師データとして前記記憶部に追加して記憶させる教師データ追加ステップと、
    前記記憶部に記憶されている前記新たな教師データを用いて再学習して前記分類器を再構築する学習ステップと
    を備えることを特徴とする画像判別方法。
JP2018108298A 2018-06-06 2018-06-06 画像判別装置および方法 Pending JP2019212073A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018108298A JP2019212073A (ja) 2018-06-06 2018-06-06 画像判別装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018108298A JP2019212073A (ja) 2018-06-06 2018-06-06 画像判別装置および方法

Publications (1)

Publication Number Publication Date
JP2019212073A true JP2019212073A (ja) 2019-12-12

Family

ID=68845307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018108298A Pending JP2019212073A (ja) 2018-06-06 2018-06-06 画像判別装置および方法

Country Status (1)

Country Link
JP (1) JP2019212073A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021101158A (ja) * 2019-12-24 2021-07-08 日立Geニュークリア・エナジー株式会社 検査装置および検査方法
JP2021523785A (ja) * 2018-05-17 2021-09-09 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company 毛髪被覆率分析のためのシステム及び方法
WO2021181793A1 (ja) * 2020-03-13 2021-09-16 オムロン株式会社 検査システム、検査装置、及び検査プログラム
JP2021139769A (ja) * 2020-03-05 2021-09-16 国立大学法人 筑波大学 欠陥検出分類システム及び欠陥判定トレーニングシステム
WO2021235061A1 (ja) * 2020-05-21 2021-11-25 株式会社Ihi 画像分類装置、画像分類方法、及び、画像分類プログラム
JP2022526473A (ja) * 2020-03-11 2022-05-25 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 情報を取得するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
WO2022113535A1 (ja) * 2020-11-27 2022-06-02 株式会社Jvcケンウッド 画像認識装置、画像認識方法、および物体認識モデル
JP2022099685A (ja) * 2020-12-23 2022-07-05 楽天グループ株式会社 情報処理システム、情報処理方法および情報処理装置
KR102450824B1 (ko) * 2022-03-08 2022-10-07 주식회사 크레셈 3차원 학습모델을 이용한 기판의 휨 검사 방법
WO2023032549A1 (ja) * 2021-09-01 2023-03-09 株式会社エフ・シー・シー 欠陥検査装置、欠陥検査方法および予測モデル生成方法
WO2023038017A1 (ja) * 2021-09-07 2023-03-16 株式会社メンテック 欠点分類システム
JP7240780B1 (ja) 2022-10-04 2023-03-16 株式会社 システムスクエア 検査装置
US11633148B2 (en) 2018-05-17 2023-04-25 The Procter & Gamble Company Systems and methods for hair analysis
JP7455046B2 (ja) 2020-10-27 2024-03-25 日立Geニュークリア・エナジー株式会社 水中検査装置および水中検査方法
JP7502448B2 (ja) 2020-07-27 2024-06-18 ファナック株式会社 検査装置
US12039732B2 (en) 2021-04-14 2024-07-16 The Procter & Gamble Company Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076073A (ja) * 2014-10-06 2016-05-12 日本電気株式会社 データ処理装置、データ処理方法、及び、コンピュータ・プログラム
JP2018026122A (ja) * 2016-08-03 2018-02-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018077718A (ja) * 2016-11-10 2018-05-17 キヤノン株式会社 情報処理システム、情報処理方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076073A (ja) * 2014-10-06 2016-05-12 日本電気株式会社 データ処理装置、データ処理方法、及び、コンピュータ・プログラム
JP2018026122A (ja) * 2016-08-03 2018-02-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018077718A (ja) * 2016-11-10 2018-05-17 キヤノン株式会社 情報処理システム、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中居 友弘, 外3名: ""共起特徴とk近傍法による追加学習型オブジェクト認識システム"", 情報処理学会 シンポジウム 画像の認識・理解シンポジウム(MIRU) 2011 [ONLINE], JPN6022009477, 20 July 2011 (2011-07-20), pages 1701 - 1702, ISSN: 0004987945 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021523785A (ja) * 2018-05-17 2021-09-09 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company 毛髪被覆率分析のためのシステム及び方法
US11633148B2 (en) 2018-05-17 2023-04-25 The Procter & Gamble Company Systems and methods for hair analysis
JP7140848B2 (ja) 2018-05-17 2022-09-21 ザ プロクター アンド ギャンブル カンパニー 毛髪被覆率分析のためのシステム及び方法
US11282190B2 (en) 2018-05-17 2022-03-22 The Procter And Gamble Company Systems and methods for hair coverage analysis
JP2021101158A (ja) * 2019-12-24 2021-07-08 日立Geニュークリア・エナジー株式会社 検査装置および検査方法
JP7444439B2 (ja) 2020-03-05 2024-03-06 国立大学法人 筑波大学 欠陥検出分類システム及び欠陥判定トレーニングシステム
JP2021139769A (ja) * 2020-03-05 2021-09-16 国立大学法人 筑波大学 欠陥検出分類システム及び欠陥判定トレーニングシステム
JP2022526473A (ja) * 2020-03-11 2022-05-25 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 情報を取得するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
WO2021181793A1 (ja) * 2020-03-13 2021-09-16 オムロン株式会社 検査システム、検査装置、及び検査プログラム
CN115210559A (zh) * 2020-03-13 2022-10-18 欧姆龙株式会社 检查系统、检查装置以及检查程序
JPWO2021235061A1 (ja) * 2020-05-21 2021-11-25
WO2021235061A1 (ja) * 2020-05-21 2021-11-25 株式会社Ihi 画像分類装置、画像分類方法、及び、画像分類プログラム
JP7371776B2 (ja) 2020-05-21 2023-10-31 株式会社Ihi 画像分類装置、画像分類方法、及び、画像分類プログラム
JP7502448B2 (ja) 2020-07-27 2024-06-18 ファナック株式会社 検査装置
JP7455046B2 (ja) 2020-10-27 2024-03-25 日立Geニュークリア・エナジー株式会社 水中検査装置および水中検査方法
WO2022113535A1 (ja) * 2020-11-27 2022-06-02 株式会社Jvcケンウッド 画像認識装置、画像認識方法、および物体認識モデル
JP2022099685A (ja) * 2020-12-23 2022-07-05 楽天グループ株式会社 情報処理システム、情報処理方法および情報処理装置
JP7101752B2 (ja) 2020-12-23 2022-07-15 楽天グループ株式会社 情報処理システム、情報処理方法および情報処理装置
JP2022125222A (ja) * 2020-12-23 2022-08-26 楽天グループ株式会社 情報処理システム、情報処理方法および情報処理装置
JP7402277B2 (ja) 2020-12-23 2023-12-20 楽天グループ株式会社 情報処理システム、情報処理方法および情報処理装置
US12039732B2 (en) 2021-04-14 2024-07-16 The Procter & Gamble Company Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications
JP2023035643A (ja) * 2021-09-01 2023-03-13 株式会社エフ・シー・シー 欠陥検査装置、欠陥検査方法および予測モデル生成方法
JP7257470B2 (ja) 2021-09-01 2023-04-13 株式会社エフ・シー・シー 欠陥検査装置、欠陥検査方法および予測モデル生成方法
WO2023032549A1 (ja) * 2021-09-01 2023-03-09 株式会社エフ・シー・シー 欠陥検査装置、欠陥検査方法および予測モデル生成方法
JP7390085B2 (ja) 2021-09-07 2023-12-01 株式会社メンテック 欠点分類システム
JPWO2023038017A1 (ja) * 2021-09-07 2023-03-16
WO2023038017A1 (ja) * 2021-09-07 2023-03-16 株式会社メンテック 欠点分類システム
KR102450824B1 (ko) * 2022-03-08 2022-10-07 주식회사 크레셈 3차원 학습모델을 이용한 기판의 휨 검사 방법
JP2024054011A (ja) * 2022-10-04 2024-04-16 株式会社 システムスクエア 検査装置
JP7240780B1 (ja) 2022-10-04 2023-03-16 株式会社 システムスクエア 検査装置

Similar Documents

Publication Publication Date Title
JP2019212073A (ja) 画像判別装置および方法
JP5075111B2 (ja) 画像分類基準更新方法、プログラムおよび画像分類装置
CN109767418B (zh) 检査装置、数据生成装置、数据生成方法及存储介质
US9094588B2 (en) Human machine-interface and method for manipulating data in a machine vision system
CN1904545B (zh) 用于高精度机器视觉测量的测量被遮蔽特征的方法
JP4784269B2 (ja) 画像処理装置
KR101202527B1 (ko) 결함 관찰 장치 및 결함 관찰 방법
KR101117472B1 (ko) 육안 검사장치와 육안 검사방법
JP6558435B2 (ja) 測色装置および測色方法
US8081213B2 (en) Test support system and image processing controller
JP4668059B2 (ja) 目視検査支援装置、目視検査支援プログラムおよびそのプログラムを記録した記録媒体
JP2007178129A5 (ja)
JP4929133B2 (ja) 検査支援システム
JP7337557B2 (ja) 情報処理装置、システム、情報処理方法及びプログラム
WO2020012874A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2019235223A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2021161628A1 (ja) 機械学習方法および機械学習用情報処理装置
CN112129768B (zh) 外观检查管理系统、装置、方法以及存储介质
US6943826B1 (en) Apparatus for debugging imaging devices and method of testing imaging devices
CN114697743A (zh) 电子装置及其影像处理方法
JP2021117152A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN112036441A (zh) 机器学习物体检测结果的反馈标注方法和装置、存储介质
JPH07230546A (ja) 画像処理装置及び画像処理方法
JP2021064280A (ja) 情報処理装置及びその制御方法及びプログラム
JP2021015476A (ja) 画面遷移情報生成装置、画面遷移情報生成方法、画面遷移情報生成用プログラム、画面遷移情報生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230214