JP7028333B2 - 照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体 - Google Patents

照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体 Download PDF

Info

Publication number
JP7028333B2
JP7028333B2 JP2020543594A JP2020543594A JP7028333B2 JP 7028333 B2 JP7028333 B2 JP 7028333B2 JP 2020543594 A JP2020543594 A JP 2020543594A JP 2020543594 A JP2020543594 A JP 2020543594A JP 7028333 B2 JP7028333 B2 JP 7028333B2
Authority
JP
Japan
Prior art keywords
lighting
image
parameters
machine learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020543594A
Other languages
English (en)
Other versions
JP2021515927A (ja
Inventor
洋介 成瀬
真嗣 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of JP2021515927A publication Critical patent/JP2021515927A/ja
Application granted granted Critical
Publication of JP7028333B2 publication Critical patent/JP7028333B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Manufacturing & Machinery (AREA)
  • Image Analysis (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明は、工業用検出中の照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体に関する。
生産現場での製品の外観検査は、人と機械の入れ替えが最も少ない分野の一つであり、今後の人員削減のための自動化は、解決しなければならない重要な技術的課題である。近年、深層学習に代表される人工知能や機械学習技術の発達に伴い、検査自動化技術が飛躍的に向上している。しかしながら、外観検査やマシンビジョン等において、検査システム構築時における最も煩わしいフローは、照明の最適設計を含めたイメージングシステムの設計である。オペレーターが照明の最適設計を手動で行う場合、ワークの個体差に対応するために、対象として決定されたワークを変更し、手動調整ベースでの照明の最適化と検査アルゴリズムの調整を同時に交互に繰り返し実行して、予期される検出パフォーマンスを達成する必要があり、非常に時間がかかるという問題が存在する。さらに、照明がオペレーターによって容易に監視できるように調整されている場合、最適なチェック精度が常に達成されるとは限らないという問題も存在する。
これらの問題を解決する従来技術として、撮像画像に基づいて評価基準を算出し、それを最大化/最小化する結像及び照明パラメータを繰り返し算出する方法が存在する(特許文献1)。しかしながら、この方法によれば、現在撮像されている1つのワークの撮像画像に基づいて算出された評価値の最適化を実施することしかできず、複数のワーク間の差異の学習などの機械学習に基づく認識器(recognizer)の最適化を実施できない場合がある。
さらに、多数の組み合わせの結像及び照明パラメータが存在する可能性があり、同時に結像条件及び照明条件の変更、結像及び最適化を実行すると、相対的に長い時間がかかる場合があるという問題も存在する。
さらに、上記の問題は、生産現場での製品の外観検査中だけでなく、照明を当てた対象の撮像画像を入力として使用でき、機械学習によってさまざまな判定を行う他の判定装置(顔認識システムなど)にも存在する。
特許文献1:EP2887055A1
本発明は、前述の問題の少なくとも一部またはすべてを解決するために採用される。
本発明は、機械学習ベースでの検査アルゴリズムのパラメータが照明の設計パラメータを含むという条件下で検査アルゴリズムのパラメータを最適化する方法を開示する。したがって、使用者は、検査アルゴリズムの損失値(判定条件下での正確率)を最大化する方法で、照明の最適化と検査アルゴリズムの最適化を同時に直接行うことができる。
(1)本発明の一態様によれば、画像を含む学習データを使用することにより生成された機械学習モデルを含む検査モジュールを使用して対象を検査する方法において、対象を撮像するとき、照明条件を規定する照明パラメータを変更できる光源によって対象を照明し、複数のそのような照明パラメータでイメージセンサによって対象を撮像し、複数の照明パラメータに対応する複数の撮像画像を取得し、対象は既知のラベルデータを有することと、撮像した画像と撮像した画像に対応する照明パラメータを関連付けることによって得られた画像データセットに基づいて、可変照明パラメータで対象を照明中の対象の推定画像を生成することと、対象の可変照明パラメータに対応する推定画像及び対応するラベルデータを機械学習モデルの学習に適用し、機械学習モデルの推定結果と対象のラベルデータの比較結果に基づいて、照明パラメータと検査アルゴリズムパラメータの両方を同時に最適化することで、機械学習モデルの照明条件と検査アルゴリズムパラメータの両方を同時に設定することを含む、ことを特徴とする対象を検査する際の照明条件を設定する方法を開示する。
したがって、機械学習モデルの推定結果と対象のラベルデータとの比較結果に基づいて、検査モジュールを使用して対象を検査する際に採用する照明条件を設定し、機械学習モデルの照明パラメータと検査アルゴリズムパラメータの最適化を同時に実行でき、操作が簡略化される。
(2)前述の方法において、可変照明パラメータで照明中の対象の推定画像の操作は、複数の種類の対象に対して、複数の対応するそのような画像データセットを準備することと、複数の画像データセットに基づいて、可変照明パラメータによる照明中に複数の種類の対象にそれぞれ対応する複数のそのような推定画像を生成することと、を含む。
したがって、この方法では、異なる種類の対象に最適な照明条件を設定することができ、検出モデルの汎用性を改善することができる。
(3)本発明の別の態様によれば、対象を検査する際の照明条件を設定する方法であって、画像を含む学習データを使用することにより生成された機械学習モデルを含む検査モジュールを使用して対象を検査する方法において、対象を撮像する際の照明条件を規定する照明パラメータを変更できる光源によって対象を照明し、複数の照明パラメータでイメージセンサによって対象を撮像し、複数の照明パラメータに対応する複数の撮像画像を取得し、対象は対応するラベルデータを有することと、撮像画像と撮像された画像に対応する照明パラメータを関連付けることによって得られた画像データセットに基づいて、可変照明パラメータで対象を照明中の推定画像を生成することと、可変照明パラメータに対応する推定画像を、既に学習を実行した機械学習モデルに適用することと、機械学習モデルの推定結果と対象のラベルデータの比較結果に基づき、検査モジュールを使用して対象を確認するときに採用する照明条件を、照明パラメータのみの最適化結果に応じて設定することと、を含む、ことを特徴とする方法を開示する。
前述の方法では、最初に検査アルゴリズムパラメータを決定し、次に推定画像により検査照明パラメータを決定する方法で、機械学習モデルの学習中のシステム演算量を削減し、システム負荷を低減し、照明パラメータの設定操作を簡略化することができる。
(4)前述の方法において、既に学習を実行した機械学習モデルに対して、可変照明パラメータに対応する推定画像を適用する操作は、対象の推定画像及び対応するラベルデータを含む学習データを、機械学習モデルの追加学習に適用し、機械学習モデルの検査アルゴリズムパラメータの一部または全てを更新することと、機械学習モデルの推定結果がラベルデータと一致するように、機械学習モデルの照明パラメータと検査アルゴリズムパラメータの一部または全ての両方を最適化することと、を含み、ここでラベルデータは対象の検査特徴を表す。
この方法により、方法の第2ステップで検査アルゴリズムパラメータ及び検査照明パラメータの一部または全てを同時に最適化するので、機械学習モデルはより良い学習結果を得ることができる。
(5)前述の方法において、照明条件を設定するとき、照明パラメータを決定するために機械学習モデルに適用される推定画像の数は、機械学習モデルの学習に適用される撮影画像の数よりも少ない。
したがって、学習時間を短縮することができる。
(6)前述の方法において、照明パラメータは、光源の発光位置と発光強度(luminous intensity)を含む。
したがって、光源の発光位置と発光強度の両方を変更して、照明パラメータを変更することができる。
(7)前述の方法において、検査モジュールを使用して対象を検査する際の照明条件の設定の操作は、前述比較結果を表す損失関数を最小化する、前述損失関数を最小化する照明パラメータを選択することを含み、前記選択は、所定の範囲の照明パラメータについて、損失関数の損失平均を最小化する照明パラメータを選択することを含む。
ここで、所定の範囲の照明パラメータを考慮することで、対象を確認する際の環境変化に対するロバスト性を向上させることができる。
(8)前述の方法において、可変照明パラメータで照明中の対象の推定画像を生成する操作は、画像データセットに含まれる照明パラメータに対応する撮像画像の加重線形重畳和(weighted linear superposition sum)に基づいて、可変照明パラメータで対象が照明されるときの対象の推定画像を生成することを含み、ここで、前記加重は、可変照明パラメータ及び撮像画像の照明パラメータの両方に従って決定される。
したがって、線形照明(linear lighting)条件下での対象の推定画像をシミュレーションすることができる。
(9)前述の方法において、可変照明パラメータで照明中の対象の推定画像を生成する操作は、画像データセットに基づき、可変照明パラメータに関する非線形推定関数を使用して、可変照明パラメータで対象を照明する際の対象の推定画像を生成することを含む。
したがって、非線形照明条件下での対象の推定画像をシミュレーションし、検査モジュールの汎用性を向上させることができる。
(10)本発明の他の態様によれば、前述した各方法に対応し、対象を検査する際の照明条件を設定する様々な装置がさらに開示され、前述した各方法と同じ効果を達成することができる。
(11)本発明の別の態様によれば、対象を検査する際の照明条件を設定するシステムがさらに開示される。システムは、処理部を含んでも良く、前述した任意の方法を実行するように構成することができる。
(12)本発明の別の態様によれば、前述した任意の方法を実行するために実行されるプログラムがさらに開示される。
(13)本発明の別の態様によれば、前述する方法を実行するために実行されるプログラムが記憶される記憶媒体がさらに開示される。
システム、プログラム、及び記憶媒体も、前述の各方法と同じ効果を達成することができる。
本発明の2つの効果を実質的に列挙する。まず、設計時間を短縮し、体系的な設計を得ることができ、パフォーマンスがスタッフのスキルに依存することで表れる個別化されたスキルを回避することができる。次に、パフォーマンスの観点から、撮像システム全体及び画像処理システム全体の直接の最適化は、例えば、検査アルゴリズムに好適な照明設計や、そのような照明に最も適した検査アルゴリズム等、検査の精度(合格/不合格の製品判定または測定値)の角度のみから実現することができる。
本明細書で説明される図面は、本発明のさらなる理解を提供するために使用され、本発明の一部を構成する。本発明の概略的な実施形態及びその説明は、本発明を説明するために使用され、本発明に対する不適切な限定を構成しない。
本発明の実施形態に係る検査システムのシステム構成例の概略図である。 本発明の実施形態に係る欠陥検査装置のハードウェア構成の概略図である。 本発明の実施形態による欠陥検査装置の機能モジュールの概略図である。 図4の(a)と(b)は、それぞれ、本発明の実施形態による照明条件の設定方法における機械学習モデルの学習段階及び検査段階のフローチャートである。 本発明の実施形態による照明条件の設定方法のフローチャートである。 図5のステップを詳細に示すフローチャートである。 図5のステップを詳細に示すフローチャートである。 図5に示される照明条件の設定方法の概略フローチャートである。 図8の(a)と(b)は、本発明の別の実施形態による照明条件を設定する方法における機械学習モデルの学習段階及び検査段階のフローチャートである。 図9の(a)及び(b)は、それぞれ、図8に示す照明条件の設定方法の一変化例における機械学習モデルの学習段階及び検査段階のフローチャートである。 本発明の別の実施態様による照明条件の設定方法のフローチャートである。 本発明の別の実施形態による照明条件の設定方法のフローチャートである。 図12の(a)と(b)は、本発明の実施形態による照明条件の設定方法を説明する照明モデルの概略図である。 線形照明モデルの一例を示す概略図である。 線形輝度関数の一例を示す概略図である。
当業者が本発明をよりよく理解できるように、本発明の実施形態を、本発明の図面と組み合わせて、以下に明確かつ完全に説明する。明らかに、説明される実施形態は、実施形態の全てではなく、本発明の実施形態の一部にすぎない。本発明の実施形態に基づいて当業者によって創造的な努力なしに得られる他の全ての実施形態は、本発明の保護範囲に含まれるものとする。
本発明では、可変照明パラメータを有する複数の光源によって対象を照明する。照明パラメータは、例えば、光源の発光位置、発光強度及び色度(chromaticity)を含んでも良い。照明条件下で、イメージセンサ(例えば、カメラ)により対象を撮像し、撮像画像を取得する。撮像画像を処理して生成された推定画像によって機械学習モデルを訓練して、対象を検査する機能を機械学習モデルに付与する。撮像画像または推定画像を照明パラメータに事前に関連付けることができるため、機械学習モデルの訓練過程において照明パラメータと検査アルゴリズムパラメータを同時に調整することができる。ここで、「検査アルゴリズムパラメータ」とは、機械学習モデルで対象を検査する際の検査アルゴリズムのパラメータをいう。したがって、学習用の撮像画像を取得するために、照明パラメータ及び照明パラメータにより純粋に照明を調整する場合と比較して、本発明の対象を検査する方法では、操作が簡略化され、システム負荷が低減される。
本発明の実施形態について、図面を参照して詳細に説明する。図面中、同一または対応する部分には同一の符号を付し、重複する説明は省略することに留意することが重要である。
まず、本発明の実施形態に係る検査システム1のシステム構成例について説明する。実施形態に係る検査システム1は、被検査対象を撮像して生成した撮像画像に基づいて、被検査対象を検査する。被検査対象は、生産ラインのワークであっても良い。検査は、例えば、ワークの外観検査または外観測定であっても良い。
図1は、実施形態に係る検査システム1のシステム構成例の概略図である。図1を参照すると、検査システム1は、撮像により取得した入力画像、例えばベルトコンベア2上を搬送される被検査対象、すなわちワーク4に対して画像解析処理を実行し、これにより、ワーク4の外観検査または外観測定が完了する。以下の説明では、画像解析処理の代表例として、ワーク4の表面に欠陥の有無を確認する応用例を説明する。ただし、これらに限定されるものではなく、検査システムは、欠陥の種類の特定や、外観形状の測定等にも適用できる。
ベルトコンベア2の上部には、結像手段としてのカメラ102が設けられており、カメラ102のイメージングビュー6は、ベルトコンベア2を含む所定の領域を形成する。カメラ102の結像により生成された画像データ(以下「入力画像」という)は、欠陥検査装置100に送信される。カメラ102の結像は、周期やイベントに応じて実行される。
欠陥検査装置100は、学習器を備えてもよく、学習器は、畳み込みニューラルネットワーク(Convolutional Neural Network(CNN))エンジンを備えてもよい。CNNエンジンを介して、入力画像に基づき各レベルの特徴検出画像を生成する。生成した1枚または複数枚の特徴検出画像に基づき、対象ワークに欠陥があるか否かを判定する。あるいは、欠陥の大きさ、位置等を検出することもできる。
欠陥検査装置100は、上位層ネットワーク8を介して、プログラマブルロジックコントローラ(Programmable Logic Controller(PLC))10、データベース装置12等と接続されている。欠陥検査装置100における検出結果は、PLC10及び/またはデータベース装置12に送信されても良い。PLC10及びデータベース装置12に加え、任意の装置が上位層ネットワーク8に接続されても良いことに留意することが重要である。
欠陥検査装置100には、処理状況や検出結果等を表示するディスプレイ104や、ユーザの操作を受け付ける入力部としてのキーボード106やマウス108が接続されていても良い。
次に、本発明の実施形態に係る検査システムに含まれる欠陥検査装置100のハードウェア構成について説明する。
図2は、実施形態に係る欠陥検査装置100のハードウェア構成の概略図である。欠陥検査装置100は、本発明における「対象を検査する際の照明条件を設定するためのシステム」の一例であってよい。図2を参照すると、一例として、欠陥検査装置100は、汎用コンピュータアーキテクチャによって形成された汎用コンピュータに従って実現されても良い。欠陥検査装置100は、プロセッサ110、メインメモリ112、カメラインターフェース114、入力インターフェース116、ディスプレイインターフェース118、通信インターフェース120及びメモリ130を含む。通常、これらの部材は内部バス122を介して接続され、それによって互いに通信する。
プロセッサ110は、メインメモリ112のメモリ130に格納されたプログラムを実行することにより、以下に説明する機能及び処理を実現する。メインメモリ112は、不揮発性メモリで構成され、プロセッサ110のプログラム実行に必要なワーキングメモリの機能を実現する。
カメラインターフェース114は、カメラ102と接続され、カメラ102の結像により得られた入力画像を取得する。カメラインターフェース114は、さらに、カメラ102に結像タイミング等を指示しても良い。
入力インターフェース116は、キーボード106やマウス108等の入力部と接続されており、入力部等に対する使用者の操作により表される指示を受信する。
ディスプレイインターフェース118は、ディスプレイ104に接続されており、プロセッサ110のプログラム実行により生成された各種処理結果をディスプレイ104に出力する。
通信インターフェース120は、上位層ネットワーク8を介して、PLC10、データベース装置12等との通信処理を担当する。
画像処理プログラム132やオペレーティングシステム(OS)134等のコンピュータが欠陥検査装置100の機能を実現するプログラムは、メモリ130に格納される。以下で言及する画像検出処理を実行するように構成された学習器パラメータ136、カメラ102で撮像した入力画像(すなわち、撮像画像138)及び撮像画像138に基づき取得した推定画像140を、さらにメモリ130に格納しても良い。学習器パラメータ136は、例えば、照明パラメータや検査アルゴリズムパラメータ等の機械学習モデルの学習段階及び検査段階に適用される様々なパラメータを含んでも良い。
メモリ130に格納された画像処理プログラム132は、デジタルバーサタイルディスク(DVD)などの光記録媒体や、ユニバーサルシリアルバス(USB)メモリなどの半導体記録媒体を介して欠陥検査装置100にインストールしても良い。あるいは、画像処理プログラム132は、ネットワーク上のサーバ装置等からさらにダウンロードしても良い。
このような汎用コンピュータでの実現時には、OS134が提供するソフトウェアモジュール内の必要なソフトウェアモジュールを所定の順序及び/または機会に応じて呼び出すことで処理を行い、実施形態に応じた機能の一部を実現することができる。つまり、実施形態に係る画像処理プログラム132は、実施形態に係る機能を実現するソフトウェアモジュールを全て含むものではなく、OSと協働して必要な機能を提供するものであっても良い。
実施形態に係る画像処理プログラム132は、さらに、他のプログラムの一部と組み込まれて提供されてもよい。このような状況下では、画像処理プログラム132は、組み合わされる他のプログラムに含まれるモジュールを含まず、他のプログラムと連携して処理を実行する。したがって、実施形態に係る画像処理プログラム132は、他のプログラムに組み合わせる方法をさらに採用しても良い。
図2は、汎用コンピュータにより欠陥検査装置100を実現する例を示している。。ただし、これに限定されず、機能の一部または全てを専用回路(例えば、特定用途向け集積回路(ASIC)やフィールドプログラマブルゲートアレイ(FPGA))により実現することもできる。また、ネットワークに接続された外部機器が処理の一部を担うこともできる。
図3は、本発明の実施態様による欠陥検査装置100の機能モジュールの概略図である。図3に示すように、欠陥検査装置100は、画像生成部141と、設定部142と、検査部143と、撮像部144と、記憶部145とを含んでも良い。
欠陥検査装置100の画像生成部141、設定部142及び検査部143は、1つまたは複数の汎用プロセッサにより実現されても良い。ただし、これらに限定されるものではない。一部または全ての機能は、専用回路(例えば、特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA))を介して実現しても良い。また、ネットワークに接続された外部機器もこれらの部分の処理の一部を担うこともできる。
ここで、撮像部144は、本発明における「取得ユニット」の一具体例である。他の例として、欠陥検査装置100は撮像部143を備えていなくてもよく、ワーク4の撮像画像を外部から受信することもできる。画像生成部141は、本発明における「生成ユニット」の一具体例であり、設定部142は、本発明における「設定ユニット」の一具体例である。撮像部144、画像生成部141と設定部142の組み合わせが、本発明における「対象を検査する際の照明条件を設定する手段」の一具体例である。
加えて、検査部143は、本発明における「検査モジュール」の一具体例である。学習器1431は、本発明における「機械学習モデル」の実施形態の具体例であり、検査部143は、ワーク4の最終的な検査結果を出力する。例えば、学習器1431が画像から抽出された特徴を生成するように構成されたCNNであるという条件下で、検査部143は、例えば、学習器1431により抽出された特徴に判定基準を適用して最終的な検査結果を生成する判定装置をさらに含んでもよい。
画像生成部141は、撮像部144の撮像により得られた撮像画像に基づいて、可変照明パラメータ(所定の照明パラメータが可変の)による照明条件下でのワーク4の推定画像を生成するように構成されている。つまり、推定画像は実際に撮影されたものではなく、撮像用の照明パラメータをシミュレーションして、シミュレーション照明パラメータを用いた照明条件下でワーク4の推定を行った画像である。
設定部142は、ワーク4の可変照明パラメータに対応する推定画像及び対応するラベルデータを学習器1431の学習に適用し、学習器1431の推定結果とワークのラベルデータとの比較結果に基づいて、既に学習を実行した学習器1431により検査部143がワーク4を検査する際に用いる照明パラメータを設定する。設定方法の詳細は後述する。
ここで、「ラベルデータ」は、ワーク4の検査特徴を表すように構成されている。例えば、ラベルデータは、ワーク4が合格品か不合格品かを表すデータであっても良いし、ワーク4の外観特徴(例えば、傷やサイズ等)を表すデータであっても良い。ラベルデータの内容は、ワーク4に予想される検査特徴が表される限り、特に限定されない。
検査部143は、ベルトコンベア2上のワーク4を検査する。検査部143は、学習器1431を含んでも良く、これにより訓練された機械学習モデルを通じてワーク4を検査する。
撮像部144は、イメージセンサを介してワーク4を撮像する。イメージセンサは、例えば、1つまたは複数のカメラであっても良く、さらに、絞りサイズやシャッター速度等の撮像パラメータは可変である。
記憶部145は、欠陥検査装置100の作業に必要なプログラムやデータを記憶するように構成されている。欠陥検査装置100は、記憶部145を備えていなくても良い。
以下、図4を参照して、本発明の実施態様に係る照明条件の設定方法についてまとめる。図4の(a)及び(b)は、それぞれ、本発明の実施形態による照明条件の設定方法における機械学習モデルの学習段階及び検査段階のフローチャートである。
図4(a)に示すように、ステップS410において、撮像部144は、ワークを撮像する。ワークは、異なる照明パラメータを用いた照明の条件下で何度も撮像され、それにより、ワークに関する複数の撮像画像が取得される。これらの撮像画像は、それぞれ一組の照明パラメータに対応し、例えば、各組の照明パラメータは、オンにされる光源及びオンにされる光源の輝度等のパラメータを含んでいても良い。
ステップS412において、学習器1431は、これらの撮像画像に基づいて得られた推定画像をもとに学習を行う(推定画像の取得方法については、図5~図7を参照して詳しく後述する)。各推定画像は関連付けられた可変照明パラメータを有するため、学習により、評価関数を最適化して最適な照明パラメータ及び検査アルゴリズムパラメータを得ることができる。つまり、検査部143が出力する検査結果の正確率を最適化するために、最適な照明パラメータ及び検査アルゴリズムパラメータが選択される。ここで、「照明パラメータ」とは、検査部143がワークを検査する際に使用する照明パラメータであり、「検査アルゴリズムパラメータ」とは、検査部143がワークを検査する際に使用する検査アルゴリズムのパラメータを指す。
図4の(b)に示すように、ステップS420では、ステップS412で取得した最適化された照明パラメータで照明を行い、撮像部144がワーク4を撮像して撮像画像を取得する。ステップS422において、学習器1431は、これらの画像により、ワーク4の欠陥を確認する。
図4に示す照明条件の設定方法では、検査照明パラメータと検査アルゴリズムパラメータを同時に調整する。つまり、照明パラメータは、調整が必要なアルゴリズムパラメータに同等に追加されるため、労働時間を短縮し、労働者への依存を軽減することができる。また、システム全体の計算負荷を軽減し、検査効率を向上させることができる。
図5は、図4の(a)に示す照明条件の設定方法をさらに詳しく説明した後の照明条件の設定方法のフローチャートである。図6Aの(a)及び図6Bの(a)は、図5のステップS54の詳細なフローチャートであり、図6Aの(b)及び図6Bの(b)は、図5のステップS56の詳細なフローチャートである。図6Bの(c)は、図4の(b)に示す検査段階に対応する概略フローチャートである。図7は、図5に示す照明条件の設定方法の概略フローチャートである。以下、図5から図7を参照しながら、本発明の実施形態に係る照明条件の設定方法の各ステップについて詳細に説明する。以下、説明の便宜上、「照明シミュレータ」の概念を紹介する。
本発明では、検査アルゴリズムは、学習器1431により実現される。学習器1431の訓練評価基準は、通常、損失値と呼ばれ、合格/不合格の製品判定問題に関する場合、合格/不合格(PASS/FAIL)の正確率は、交差エントロピー(Cross Entropy)等によって表される。検査内容がワーク4の長さ等の測定の回帰問題である場合、エラー発生分布を多次元正規分布でモデル化し、その対数尤度関数を損失値とする。
通常の条件下では、機械学習ベースの検査アルゴリズムの学習中に、複数の教師データ(teacher data)(判定問題の場合は合格/不合格、回帰問題の場合は正確率)及び学習サンプル画像を事前に入力し、損失値を最小化するようにパラメータの最適化を実行する。ここで、損失値は、これらの学習サンプル画像が正確に推定されているかどうかの基準である。
現状では、前述した照明の最適化を実施する場合、これらの学習サンプル画像は、必要性に応じて設定された様々な照明条件での撮影画像をコンピュータで再現する必要がある。したがって、本発明では「照明シミュレータ」を導入し、照明パラメータ(例えば、強度、位置、入射角等のパラメータのセット)が提供されると、この照明条件下での撮像画像を算出する。
照明シミュレータは次のように定義される。照明パラメータベクトルがθLで、そのような照明の下で撮像した撮像画像ベクトルがuである場合、式(1)に示すように、照明シミュレータは関数fとして定義される。
Figure 0007028333000001
関数の具体的な定義は、照明モデルに応じて異なる式を採用している。この関数は、特定のワークについてのみ撮像画像を生成する関数であることに留意することが重要である。複数のワークを処理する場合、ワークを個別に識別する指標iが下付き文字として採用され、fiとして標記される。
照明シミュレータ関数fiは、照明モデル
Figure 0007028333000002
を順次変化させて得たN枚の撮像画像
Figure 0007028333000003
を訓練画像として採用し、パラメータを推定する。以下、照明シミュレータの具体例におけるパラメータ推定方法に説明する。
図5を参照すると、ステップS50では、撮像部144がワークを撮像する。ステップS50は、例えば、ステップS410と同様であってよい。最適化の準備段階として、全てのワーク(1≦i≦M)について、それぞれ照明シミュレータfiを算出するように構成された撮像画像u(1≦j≦N)を撮像し、それぞれの照明パラメータを取得する。
ここで、各光源の照明パラメータを変更しても良く、例えば、各光源の発光位置及び/または発光強度を変更して、ワーク4に異なる照明を提供してもよい。さらに、ワーク4は対応する既知のラベルデータを有し、ラベルデータはワーク4の検査特徴を表すように構成される。例えば、ラベルデータは、ワーク4が良品か不良品かを表すデータであっても良いし、ワーク4の外観特徴(例えば、傷やサイズ等)を表すデータであっても良い。ラベルデータの内容は、ワーク4の予期される検査特徴が表されていれば特に限定されない。
ステップS52において、画像生成部141は、撮像画像と対応する照明パラメータとを関連付けて画像データセットを取得する。画像データセットは、例えば、対応する撮像パラメータ(例えば、絞りサイズ及びシャッタースピード等)をさらに含んでも良い。画像データセットは、例えば、記憶部145に記憶されても良い。
ステップS54において、画像生成部141は、画像データセットに基づいて、可変照明パラメータで照明する条件下における各ワークの推定画像を生成する。
具体的には、図6Aの(a)及び図6Bの(a)に示すように、ステップS540において、各ワークの照明シミュレータfiは、初期シミュレータパラメータに基づいて初期推定画像を生成する。そして、画像生成部141は、初期推定画像とワークの撮像画像とを比較する。
ステップS542では、差分に基づいてシミュレータパラメータθSを調整し、最終的に最適化されたシミュレータパラメータを得る。例えば、線形モデル等の単純な照明シミュレータモデルの場合、初期シミュレータパラメータは必要ではない。シミュレータパラメータは、照明条件を定義する照明パラメータとは異なることに注意が必要である。そのような最適化プロセスは、機械学習の方法で完了することができる。ステップS544において、照明シミュレータは、最適化された照明シミュレータパラメータθSに基づいて、可変照明パラメータでの照明中の推定画像を生成する。
図5に戻り、ステップS56では、学習器1431は、推定画像に基づいて学習を実行し、ワークを検査する際に採用する照明パラメータを取得する。具体的には、図6Aの(b)及び図6Bの(b)を参照する。
図6Aの(b)及び図6Bの(b)では、ステップS560において、推定画像を学習器1431に入力して学習する。
外観チェック中における、機械学習ベースの検査アルゴリズムの損失関数は通常L(u,v|θD)として標記し、ここで、θDは検査アルゴリズムのパラメータベクトルである。例えば、検査アルゴリズムには、深層学習中の接続線の全ての加重が含まれる。また、uは撮像画像、vは画像のラベルであり、通常の条件下では、学習用のデータセットを
Figure 0007028333000004
と表すと、式(2)により最適な学習パラメータ
Figure 0007028333000005
が算出される。
Figure 0007028333000006
学習器1431では、ワークのサンプルセットに対応する照明シミュレータセットを
Figure 0007028333000007
と表すと、撮像画像uがシミュレータ画像f(θL)に置き換えられ、式(3)に示す関係が得られる。
Figure 0007028333000008
公式により、最適な照明と検査アルゴリズムのパラメータを式(4)で計算することができる。
Figure 0007028333000009
ただし、式の最適化を実行する場合、通常の条件下では、物理的な制約条件(例えば、負の輝度は意味をなさない)のために、照明パラメータベクトルの値は特定の範囲で変化し、そのような有効範囲においてパラメータ値の最適化を行う。なお、θLの算出方法については、図11、図12と併せて後述する。
ステップS562において、学習器1431は、ワーク4の推定画像及び対応するラベルデータを含む学習用データにより学習を行い、推定結果を得る。ステップS564では、式(4)に基づいて学習器1431の検査アルゴリズムパラメータを最適化し、学習器1431の推定結果をラベルデータと一致させる。
図7に示すように、例えば、学習器1431がニューラルネットワークを用いて深層学習を実行する場合、ニューラルネットワークの出力をラベルデータと一致させることにより、検査アルゴリズムパラメータと照明パラメータを同時に最適化し、これにより、既に学習を実行し、最適な照明パラメータを有するニューラルネットワークを得ることができる。既に学習した学習器1431は、照明パラメータを選択して、ワーク4の試験結果の正確率を上げることができる。
さらに、破線枠内の工程は必ずしも実行しなければならないわけではない。例えば、照明モデルの種類によっては、破線枠内の処理を実行しない場合がある。このような場合、推定画像ではなく、複数の照明パラメータでイメージセンサによって撮像した対象の画像を機械学習に直接使用する。
図5~図7を参照すると、本発明の実施形態における照明パラメータの設定方法では、検査照明パラメータ及び検査アルゴリズムパラメータが同時に最適化されるため、労働時間が短縮され得る。また、評価基準の直接の最適化は、精度検査(合否判定や測定値)の観点のみから実施できる。さらに、例えば、検査アルゴリズムのための優れた照明設計及びそのような照明に最も適した検査アルゴリズム等の全体としての目的のための撮像システム及び画像処理システムの直接最適化を実現することができる。
また、照明条件の設定方法には、照明シミュレータを導入し、また、ワークの多数の画像を撮像する必要がないため、撮像時間を節約し、労働時間を短縮し、労働者への依存を軽減することができる。
また、図5、図6A、図6Bを参照すると、本発明の実施形態に係る照明パラメータの設定方法では、複数の種類のワーク4に対応する複数の画像データセットを用意しても良い。したがって、複数の画像データセットに基づいて、可変照明パラメータによる照明時の各種類のワーク4にそれぞれ対応する複数の種類の推定画像を生成することができる。
したがって、検査部143の汎用性を向上させることができ、ワークの種類ごとに撮像や照明パラメータの設定等を行う必要がない。
図8の(a)及び(b)は、それぞれ、本発明の別の実施形態による照明条件の設定方法における機械学習モデルの学習段階及び検査段階のフローチャートである。この方法の原理を最初に以下に説明する。
通常の条件下では、機械学習ベースの検査アルゴリズムの学習には、多数の訓練画像が必要である。この問題は、深層学習などの多数のパラメータを使用する方法で特に顕著であり、この方法ではM*N画像を取得する必要があるという問題がある。Mの値が非常に大きい場合、多数の画像を取り込む必要がある。
この問題の解決策として、多数の訓練画像を必要とする検査アルゴリズムに対してのみ、固定の撮影条件で取得した訓練画像から、事前に検査アルゴリズムパラメータを算出することが考えられる。換言すると、θLとθDは最適解を算出するために同時に変更されず、θDを算出した後に、いくつかのワークサンプルの照明シミュレータによってθLを算出する。通常の条件下では、照明パラメータの数が比較的少ないため、この方法は妥当と考えられる。
具体的には、
Figure 0007028333000010

Figure 0007028333000011
の2つのデータセットを用意し、2段階の最適化のために、最適な照明パラメータを式(5)と式(6)で算出する。
Figure 0007028333000012
Figure 0007028333000013
上述した方法では、M1>M2と設定し、学習に必要な撮影画像数をM×NからM1+M2×Nに削減することができる。前述の方法では、既存の固定の検査アルゴリズムパラメータも使用することができ、照明パラメータのみを算出することができる。
ここで、図8を参照して、その方法のフローを詳細に説明する。図8の(a)に示すように、ステップS810では、M1個のワークを固定照明パラメータで撮像し、M1枚の撮像画像を取得する。ステップS812において、学習器1431は、M1枚の撮像画像による学習を実行して、検査アルゴリズムパラメータを最適化する。ステップS814では、M1ワーク中のM2ワークをNタイプの照明パラメータの下で撮像し、M2×N枚の撮像画像を取得する。
ステップS816では、M2*N枚の撮像画像とこれらの撮像画像に対応する照明パラメータとを関連付けることにより取得した画像データセットに基づいて、可変照明パラメータで照明中のワーク4の推定画像を生成する。これらの推定画像を、既に学習を実行した学習器1431に使用する。学習器1431の推定結果とラベルデータとの比較結果に基づいて、検査部143がワーク4を検査する際の照明条件を設定する。一比較例として、例えば、学習器1431が、N個の照明パラメータの下でワーク画像をテスト画像を入力として使用して学習を実行した後、ワーク4を検査するときに照明パラメータとして、学習器1431の推定結果の正確率が最大となる照明パラメータを選択する。
図8の(a)に示す学習段階の後、図8の(b)に示すように、ステップS820において、検査照明パラメータの下でワークを撮像し、撮像画像を取得する。ステップS822において、検査部143は、撮像画像を解析して、ワークの検出結果を取得する。
図8で説明した検査方法によれば、機械学習モデルの学習時のシステム演算量を削減でき、システム負荷を軽減できる。また、照明パラメータの設定操作を簡略化することができる。
また、任意に、前述の方法では、学習に必要な撮像画像の数も減らすことができる。これにより、労働時間を削減し、パラメータ最適化手順を簡略化することができる。
図8を参照して説明した照明条件の設定方法には、様々な変化例があり得る。以下、図9を参照して、その変化例について詳細に説明する。図9の(a)及び(b)は、それぞれ、図8に示す照明条件の設定方法の一変化例における機械学習モデルの学習段階及び検査段階のフローチャートである。図9において、図8と同一または類似のステップには同一または類似の符号を付し、重複する説明は省略する。
ステップS916の学習時には、式(7)及び式(8)に示すように、θLの他に、検査アルゴリズムパラメータの一部(θ´Dとして記録)も変数値に設定され、再調整される。したがって、いくつかのワークサンプルの照明シミュレータによってのみ追加学習を実行することができ、別の側面から言えば、照明に最も適した学習器を形成できないという問題は局所的に解決され得る。
Figure 0007028333000014
Figure 0007028333000015
同様に、学習に必要な撮像画像の数を減らすことができ、また、ある程度照明に最適な学習器を形成することができる。
また、図9を参照して説明した検査方法において、ステップS916の学習中に、検査アルゴリズムの全てのパラメータを再度調整しても良い。このような条件の下で、ステップS812の学習は、事前学習機能を有する。
図10は、本発明の別の実施形態による検査方法のフローチャートである。図10の検査方法によれば、照明及び撮像システムの小さな変化に対するロバスト性が改善され得る。
同一の検査を生産ラインで並行して行うと、照明を含めた撮像システム全体と全く同じ複製を製造することは困難である。一般的な条件下では、カメラや照明の取り付け位置のずれ等により、個体差が生じる場合がある
本発明の方法により算出された最適な照明パラメータを、撮影環境とは異なる複製環境に適用すると、撮像システムの個体差により性能が損なわれる場合がある。この問題を回避するために、照明パラメータにノイズを加えた後で、平均化を行う評価関数により、小さな変化に対して安定したパラメータを算出することができる。具体的には、前述の損失関数Lは、式(9)で定義されたに置き換えられる。これにより、照明パラメータと検査アルゴリズムパラメータを算出する。
Figure 0007028333000016
ここで、εは自由に分布するノイズベクトルである。通常の条件下では、センターゼロの多変量正規分布、範囲内一様分布などを利用することができる。これは、深層学習中の入力画像の「拡張」の概念を照明パラメータに直接適用したものである。
ここで、図10を参照して方法のフローを詳細に説明する。図10に示すように、ステップS1010では、ワークを撮像して撮像画像を取得する。このステップは、S410、S50、及びS810を参照することができる。ステップS1012では、撮像画像に基づいて得られた推定画像を学習器1431に入力し、さらに照明の変化条件を入力して学習する。ここでいう「照明の変化条件」には、環境の小さな変化が含まれていても良いし、光源やイメージセンサの小さな変化がさらに含まれていても良い。ステップS1014では、所定の範囲内の照明パラメータに対する学習器1431の損失関数の損失平均を最小化し、最適化された照明パラメータを取得する。ここで、照明パラメータは、損失関数の変数である。
図10を参照して説明した検査方法では、環境への影響を考慮しているため、照明パラメータの小さな変化に対するロバスト性が向上し、検査システム全体の性能が向上する。
図11は、本発明の別の実施形態による検査方法のフローチャートである。図11を参照して説明した検査方法によれば、2つの評価関数に基づいて、ワークの変化に対するロバスト性を向上させることができる。
ワークの変化に対する検査性能のロバスト性を確保するために、通常の条件下では、ワークのサンプル画像を追加したり、強化技術を適用してサンプル画像を追加したりする修正が存在する。
前述の照明を含む最適化方法において、ワークサンプル画像を追加することは、照明シミュレータの例数を増やすことに等しい。そのため、純粋にサンプル画像を撮像する場合と比較して煩わしいという問題があり、これを簡単に解決する方法として、評価関数に関する方法が考えられる。
本発明によれば、検査アルゴリズムの正確率(損失値)を直接最大化できるという利点がある。一方で、撮像画像を直接目視評価するための基準は含まれていないので、照明パラメータが、対象の欠陥を検査する実際の照明の照明パラメータに変更されたか、または特定のワーク構成に最適化された異常な照明パラメータに変更されたかを区別することはできない。目視で検査画像の良し悪しを評価すると、検査アルゴリズムのパフォーマンスが直接最大化されない場合があるが、評価は人間の感情と経験の先験的知識に基づいて行われるため、堅牢性を確保するという利点を達成できる。したがって、式(10)に示すように、最適化を行うために、人間ベース(human-based)の主観的な能力評価基準(subjective faculty evaluation reference)h(u)(たとえば、領域内のコントラスト)を損失関数に追加することができる。
Figure 0007028333000017
ここで、λは、検査アルゴリズムのパフォーマンス(損失値)と能力評価基準に付加する必要がある、1つの重要性を決定するバランスパラメータである。
ここで、図11を参照して方法のフローを詳細に説明する。図11に示すように、ステップS1100では、ワークを撮像し、撮像画像を取得する。このステップは、S410、S50、S810を参照することができる。ステップS1112では、撮像画像に基づいて得た推定画像を学習器1431に入力し、さらに評価基準を入力して学習する。ここでいう「評価基準」には、人間の感情や経験に関する先験的知識に基づく前述の評価基準が含むことができ、また、画像分析等のための既存の数学的アルゴリズムに基づく評価基準を含むこともできる。ステップS1114では、学習器1431の損失関数を最小化して、最適化された検査照明パラメータを取得する。
この方法を適用する方法として、次のように変形させることができる。例えば、θDが計算された後にθLを算出する簡略された方法では、各パラメータを算出するステップで、異なるλ値または能力評価基準h(u)を採用する。例えば、θDは正確率(λ=0)のみに基づいて算出し、θLについては能力評価基準の加重を大きくする(λは相対的に大きな値を設定する)等を採用してもよい。
図11を参照して説明した検査方法では、環境への影響を考慮しているため、ワークの違いに対するロバスト性が向上し、検査システム全体の性能が向上する。
以下、照明シミュレータの具体的な構成例について説明する。通常の条件下では、照明は光の遠視野モード、つまり平行光に基づいて分割する際の強度分布を表す連続関数(角度スペクトルともいう)によって一意に定義される。連続関数の分解能(resolution)の上限は、ワークのサイズとイメージングシステムの開口部によって決定され、相対的に小さなワークは相対的に低い角度分解能を有さない場合があるため、相対的に高い空間周波数を有する成分は無視することができる。ただし、そのような場合でも、照明モデルには大きな自由度があり、モデリングには特定のパラメータモデルが必要である。
照明調整パラメータベクトルが特定の照明条件下でのパラメータ化を表す特定の制約条件を表す関数に従い、照明モデルは、線形モデルと非線形モデルに分けることができる。線形モデルのモデルパラメータは比較的簡単に推定できるが、照明の自由度は限られる。
以上、図1に示す検査システムを用いて、本発明の内容を説明したが、本発明の内容はこれに限定されるものではない。例えば、本発明の原理は、照明条件及び撮像画像を設定する必要がある他の様々な状況にも適用することができる。例えば、本発明の原理は、人の顔を対象として、人の顔を照明して画像を撮像し、撮像画像を入力として使用して、機械学習によって人の顔を認識する顔認識システムにも適用することができる。
顔認識システムの場合、照明パラメータを変更できる光源を使用して顔を照明し、カメラで様々な照明条件下における顔の画像を撮像する。ここで、既知のラベルデータが顔に割り当てられる場合、例えば、ラベルデータは人の名前であっても良い。次に、前述した「照明シミュレータ」に基づいて顔の推定画像を生成することができる。そして、これらの顔の推定画像とラベルデータは、顔認識システムの機械学習モデルの学習に使用され、この機械学習モデルの推定結果と顔のラベルデータとの比較結果に基づいて、機械学習モデルの照明パラメータと検査アルゴリズムパラメータを同時に最適化することにより、照明条件と検査アルゴリズムパラメータの両方を設定する。ここで、検査アルゴリズムパラメータとは、機械学習モデルが顔認識に使用されるときに使用される検査パラメータを指す。
以下、図12の(a)及び(b)を参照して、本発明の実施形態による照明条件の設定方法における照明モデルの概略図について説明する。
図12の(a)は、線形照明モデルの例を示す。線形照明モデルでは、画像データセットに含まれ、照明パラメータに対応する撮像画像の線形重畳和に基づいて可変照明パラメータによる照明中のワーク4の推定画像を生成することができる。以下、詳細に説明する。
図12の(a)には、3つの光源の状態が示されている。光源L1、光源L2及び光源L3は、異なる発光位置でワーク4を照明する。ただし、必要に応じて、光源の数を2つ以上にする必要がある。例えば、以下では、N個の光源の状態について説明する。一言で言えば、線形モデルはN個の固定照明の強度を調整する。i番目(1≦i≦N)の照明の強度がwiの場合、照明パラメータベクトルを式(11)で表すことができる。
Figure 0007028333000018
照明の遠視野モードがψ(θ,φ)の場合、線形モデルの具体的な公式は式(12)のようになる。
Figure 0007028333000019
公式では、ψi(θ,φ)がi番目の照明の遠視野モードであり、これは放射基底関数(Radial Basis Function(RBF))ネットワークに相当するモデルである。定義によれば、この関数は照明パラメータに対して線形であり、重ね合わせの原理により確立される線形システムである。
この関係は、撮像画像についても適用される。例えば、図13に示すように、i番目の照明(wi=1)のみが点灯し、他の照明(wj=0,j≠i)が消灯している場合の画像は、uiとして記録され、照明パラメータの推定画像は、式(13)に従って計算することができる。
Figure 0007028333000020
ここで、通常、Aは経度マトリックスである。また、実際の環境では、発光強度によって光源の指向性が変化するという非線形現象が発生することもあるが、その変化は非常に小さいと考えられる。さらに、ピクセルの飽和と擬似線形性(false linearity)により、非線形の線形関数g(x)が適用され、g(x)がベクトルの各要素に対して演算を実行する一般的な条件下で、式(14)に示すモデルを得ることができる。線形輝度関数の例は図14のように示される。
Figure 0007028333000021
この状態で、照明シミュレータのパラメータがマトリックスAになると、Aの推定(すなわち学習)が線形システムの検証の問題となり、簡単な実現のために、独立した基準を1回利用することにより、N回の測定が実行される。
具体的には、測定中、各照明の輝度は線形性が成り立つ範囲内にあると仮定し、測定に用いたN個の基本ベクトルを
Figure 0007028333000022
に設定すると、以下の式(15)及び式(16)が成り立つ。
Figure 0007028333000023
Figure 0007028333000024
ここで、niは、撮像中に相補型金属酸化膜半導体(Complementary Metal Oxide Semiconductor(CMOS))センサで生成される追加のノイズであり、通常は正規分布を形成し、その分布はイメージングシステムの信号対ノイズ(Signal-to-Noise(SN))比によって決定される。Aが比較式に従って算出される場合、様々な方法が存在する。例えば、最良線形不偏推定量(Best Linear Unbiased Estimate(BLUE))として決定される最尤(Maximum Likelihood(ML))推定や、AとNの両方が既知であるガウス分布条件下での最小平均二乗誤差(Minimum Mean Square Error(MMSE))推定等である。通常の状況では、このような条件下でのAの統計的特性は不明であるため、以下ではML推定が採用される。Aの推定値が
Figure 0007028333000025
の場合、式(17)に従って算出することができる。
Figure 0007028333000026
このとき、推定誤差は以下の通りとなる。
Figure 0007028333000027
ここで、σは加法性ノイズの標準偏差、λはXの特異値、Pは画像のピクセル数である。HSは、マトリックスに対するヒルベルト=シュミットの内積またはノルムを表す。この公式より、Xの特異値が大きいほど、推定誤差の総量は少なく、等価的には、システムのSN比が純粋に増加していることが分かる。Xの特異値の合計が決定されている場合で(合計信号パワーが制約される)、λが全て同じ値の場合、推定誤差は低くなり、正規直交基底を用いると、観測用の照明パラメータベクトルが最も効果的であることが示される。上記の内容を踏まえ、照明モデルの3つの測定モードを以下に示す。
(1)標準ベース
最も純粋なモードの標準ベースが採用される場合、測定用の照明パラメータは式(19)で表すことができる。
Figure 0007028333000028
これは正規直交基底であるため、前述の説明の意味するところに従って、最良の推定を行うことができる。ただし、画像の光量は均一ではなく、ノイズや暗電流の影響を受ける場合がある。
(2)線形独立と条件
測定用の照明パラメータとして、線形独立性を有する多数のモードが考えられる。したがって、特定の条件が追加された場合に、条件を満たすものを選択することができる。例えば、特定範囲内の輝度が一定値以上であること等の条件を追加して基底を算出してもよい。前述した内容の通り、基底を標準の正規直交基底に変更すると最も良いパフォーマンスを示すが、輝度が負の値になることはないという制限に基づいて算出されるため、直交性または標準直交性を実現することは困難である。
(3)冗長ベース
測定用の基数は、常に照明の数Nに等しいとは限らず、Nより大きい値になる場合もある。Nよりも大きいと、SN比を高くすることができ、より正確な推定ができるという利点がある。このような条件下では、Xの逆行マトリックスが存在しないため、代わりに式(20)に示す推定が実行される。
Figure 0007028333000029
ここで、X+はXのムーア-ペンローズの疑似逆行列である。同様に、このような条件下で推定パフォーマンスを最大化するため、Xの識別値(distinguished value)の2乗をそれぞれ同じ値に変更する。したがって、擬似直交基底(Pseudo Orthogonal Bases(POB))最適化技術が開示される。例えば、「Pseudo Orthogonal Bases Give the Optimal Generalization Capability in Neural Network Learning」(Masashi Sugiyama and Hidemitsu Ogawa、http://www.ms.k.u-tokyo.ac.jp/1999/SPIE99.pdf、1999)を参照することができる。
前述の内容の通り、別の条件を追加して基底を算出することもできる。
線形照明モデルの例は、図12の(a)を参照して上記で説明され、非線形照明モデルの例は、図12の(b)を参照して以下で説明される。非線形照明モデルの下で、可変照明パラメータで対象を照明中のワーク4の推定画像は、画像データセットに基づき照明パラメータに関する非線形推定関数によって生成され得る。
図12の(b)では、1つの光源のみの状態を示す。光源L4は、異なる発光位置でワーク4を照明することができる。ただし、必要に応じて、光源の数を2個以上にする必要があり、例えば、N個の光源の条件について説明する。
前述の線形モデルを適用することができない場合は、非線形モデルを使用する。純粋な例を示す。入射角と輝度が調整可能なN個の照明を使用する場合において、光の量がwi(1≦i≦N)で入射角が(θii)のとき、パラメータベクトルは式(21)で表すことができる。
Figure 0007028333000030
このとき、遠視野モードは式(22)で示され、パラメータベクトルに対して線形性は有さない。
Figure 0007028333000031
このような状況下では、一般的な数学モデルを定義することは困難であるが、最近提案されている深層学習ベースの画像生成方法、即ち、ジェネレーティブアドバーサリネットワーク(Generative Adversarial Network(GAN))やオートエンコーダー(Auto Encoder(AE))等の画像生成モデルシステムを利用しても良い。
特定の制限条件下で使用される簡略化されたモデルの具体例を以下に示す。拡散散乱光のみをモデル化した条件下でのランバートモード(Lambert mode)により実現した場合、任意の照明は、3つの基底関数によって線形結合の方法で表すことができる。モードはほぼ線形であるが、パラメータ化された照明条件に従って基底の混合係数を計算するプロセスは非線形であるため、非線形照明シミュレータに属する。具体的には、モードは、式(23)から式(26)として定義され得る。
Figure 0007028333000032
Figure 0007028333000033
Figure 0007028333000034
Figure 0007028333000035
ここで、BはP×3マトリックス(Pは画像のピクセル数)、Cは3×Qマトリックス、d(θL)は照明パラメータに関する非線形Q次元の列ベクトルであり、
Figure 0007028333000036
は任意の球面上のサンプリングポイント列であり、HEALPix等の球面上で可能な限り等間隔に分布する。サンプリングポイントの数Qは、照明パラメータの立体角範囲を完全な分解能でカバーするように設定されている。lqは、球面座標
Figure 0007028333000037
からワークを照明するときの光源方向ベクトルである。公式は、数学的に、照明パラメータが非線形マッピングdを介してQ次元の高次元空間にマッピングされ、ピクセルの輝度値が線形マッピングを介して空間に従って算出され、直接次の意味に変更されることを意味する。
まず、入力された照明パラメータに従って、各照明が標準偏差σのガウス分布の角度範囲を有し、入射角が離散化され、球面上にサンプリングされた各点の値として表されるという仮説を立てることができる。次に、マトリックスCを介して、各サンプリングポイント(対応する入射角)におけるランバートモデルの3つの基底関数の混合係数(照明方向ベクトル)を算出し、マトリックスBにより表される基底関数が混合される。最後に、線形関数gが適用される。
マトリックスBは、ワークに依存するマトリックスであるため、照明パラメータで測定した撮像画像セットを少なくとも3回以上変化させることでマトリックスBを推定する。マトリックスCは、キャリブレーションとして算出することができる。
ソフトウェア機能ユニットの形で実現され、独立した製品として販売または使用される場合、対象またはその一部が検査する際の照明条件を設定する装置とシステムは、コンピュータ可読記憶媒体に記憶することができる。この理解に基づいて、本発明が課題を解決する手段は、本質的に、または従来技術に寄与する部分は、または課題を解決する手段の全てまたは一部は、ソフトウェア製品の形で実現することができ、コンピュータソフトウェア製品は、本発明の実施形態による方法のステップの全てまたは一部をコンピュータ機器(パソコン、サーバー、ネットワーク機器等)に実行させるためのいくつかの命令を含む記憶媒体に格納される。前述の記憶媒体は、USBディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、リムーバブルハードディスク、磁気ディスク、または光ディスクなどのプログラムコードを記憶することができる様々な媒体を含む。さらに、サーバーやクラウドからダウンロードされるデータストリームを含むこともできる。
以上は、本発明の好ましい実施形態にすぎず、当業者は、本発明の原理から逸脱することなく、いくつかの改善及び修正を行うことができることに留意されたい。これらの改善及び修正は、本発明の保護の範囲内であると見なされるべきである。
1:検査システム
2:ベルトコンベヤー
4:ワーク
6:イメージングビュー
8:上位層ネットワーク
10:PLC
12:データベース装置
100:欠陥検査装置
102:カメラ
104:ディスプレイ
106:キーボード
108:マウス
110:プロセッサ
112:メインメモリ
114:カメラインターフェース
116:入力インターフェース
118:ディスプレイインターフェース
120:通信インターフェース
122:内部バス
130:メモリ
132:画像処理プログラム
134:OS
136:学習器パラメータ
138:撮像画像
140:推定画像
141:画像生成部
142:設定部
143:検査部
144:撮像部
145:記憶部
1431:学習器

Claims (20)

  1. 検査モジュールは、対象を検査するために使用する機械学習モデルを含み、前記機械学習モデルは、取得ユニット、生成ユニット及び設定ユニットにより画像を含む学習データを使用することによって生成される方法において、
    前記取得ユニットは、前記対象が撮像される際の照明条件を規定する照明パラメータを変更できる光源によって前記対象を照明し、複数の照明パラメータでイメージセンサによって前記対象を撮像し、前記複数の照明パラメータに対応する撮像画像を取得し、前記対象は既知のラベルデータを有することと、
    前記生成ユニットは、前記撮像画像と、前記撮像画像に対応する前記照明パラメータを関連付けることによって得られた画像データセットに基づいて、可変照明パラメータで前記対象が照明されるときの前記対象の推定画像を生成することと、
    前記設定ユニットは、前記対象の前記可変照明パラメータに対応する前記推定画像と対応する前記ラベルデータを、前記機械学習モデルの学習に適用し、前記機械学習モデルの推定結果と前記対象の前記ラベルデータの比較結果に基づいて、前記照明パラメータと検査アルゴリズムパラメータの両方を同時に最適化することで、前記機械学習モデルの前記照明条件と前記検査アルゴリズムパラメータの両方を設定することと、
    を含むことを特徴とする対象を検査する際の照明条件を設定する方法。
  2. 可変照明パラメータで前記対象が照明されるときの前記対象の推定画像を生成することは、
    複数の種類の対象に対応する複数の画像データセットを準備することと、
    前記複数の画像データセットに基づいて、前記可変照明パラメータで前記複数の種類の対象が照明されるときの前記複数の種類の対象にそれぞれ対応する複数の推定画像を生成することと、を含む請求項1に記載の方法。
  3. 検査モジュールは、対象を検査するために使用する機械学習モデルを含み、前記機械学習モデルは、取得ユニット、生成ユニット及び設定ユニットにより画像を含む学習データを使用することによって生成される方法において、
    前記取得ユニットは、前記対象が撮像される際の照明条件を規定する照明パラメータを変更できる光源によって前記対象を照明し、複数の照明パラメータでイメージセンサによって前記対象を撮像し、前記複数の照明パラメータに対応する複数の撮像画像を取得し、前記対象は対応するラベルデータを有することと、
    前記生成ユニットは、前記撮像画像と、前記撮像画像に対応する前記照明パラメータとを関連付けることによって得られた画像データセットに基づいて、可変照明パラメータで前記対象が照明されるときの前記対象の推定画像を生成することと、
    前記設定ユニットは、前記可変照明パラメータに対応する前記推定画像を、既に学習を実行した前記機械学習モデルに適用し、前記機械学習モデルの推定結果と前記対象の前記ラベルデータとの比較結果に基づいて、前記照明パラメータのみの最適化結果に従い、前記照明条件を設定することと、
    を含むことを特徴とする対象を検査する際の照明条件を設定する方法。
  4. 前記可変照明パラメータに対応する前記推定画像を、既に学習を実行した前記機械学習モデルに適用することは、
    前記対象の前記推定画像及び対応する前記ラベルデータを含む学習データを、前記機械学習モデルの追加学習に適用し、前記機械学習モデルの検査アルゴリズムパラメータの一部または全てを更新することと、
    前記機械学習モデルの前記推定結果が前記ラベルデータと一致するように、前記機械学習モデルの前記照明パラメータと前記検査アルゴリズムパラメータの一部または全ての両方を最適化することと、を含み、
    前記ラベルデータは前記対象の検査特徴を表す、請求項3に記載の方法。
  5. 前記照明条件を設定するとき、前記照明パラメータを決定するために前記機械学習モデルに適用される前記推定画像の数は、前記機械学習モデルの学習に適用される前記撮像画像の数よりも少ない、請求項3または4に記載の方法。
  6. 前記照明パラメータは、前記光源の発光位置と発光強度を含む、請求項1または3に記載の方法。
  7. 前記検査モジュールを使用して前記対象を検査する際の照明条件の設定は、
    前記比較結果を表す損失関数を最小化する前記照明パラメータを選択することを含み、前記選択することは、所定の範囲の前記照明パラメータについて、前記損失関数の損失平均を最小化する前記照明パラメータを選択することを含む
    請求項1または3に記載の方法。
  8. 可変照明パラメータで前記対象が照明されるときの前記対象の推定画像を生成することは、
    前記画像データセットに含まれる前記照明パラメータに対応する前記撮像画像の加重線形重畳和に基づいて、前記可変照明パラメータで前記対象が照明されるときの前記対象の前記推定画像を生成することを含み、その加重は、前記可変照明パラメータと前記撮像画像の前記照明パラメータの両方に従って決定される、請求項1または3に記載の方法。
  9. 可変照明パラメータで前記対象が照明されるときの前記対象の推定画像を生成することは、
    前記画像データセットに基づき、前記可変照明パラメータに関する非線形推定関数を使用して、前記可変照明パラメータで前記対象が照明されるときの前記対象の前記推定画像を生成することを含む、請求項1または3に記載の方法。
  10. 検査モジュールは、対象を検査するために使用する機械学習モデルを含み、前記機械学習モデルは、画像を含む学習データを使用することによって生成される装置において、
    前記対象に関する撮像画像を取得する取得ユニットであって、前記対象を撮像する際の照明条件を規定する照明パラメータを変更することができる光源によって前記対象を照明し、複数の照明パラメータでイメージセンサによって前記対象を撮像し、前記複数の照明パラメータに対応する前記撮像画像を取得し、前記対象は既知のラベルデータを有する取得ユニットと、
    前記撮像画像と、前記撮像画像に対応する前記照明パラメータを関連付けることによって得られた画像データセットに基づいて、可変照明パラメータで前記対象が照明されるときの前記対象の推定画像を生成する生成ユニットと、
    前記対象の前記可変照明パラメータに対応する前記推定画像と対応する前記ラベルデータを、前記機械学習モデルの学習に適用し、前記機械学習モデルの推定結果と前記対象の前記ラベルデータの比較結果に基づいて、前記照明パラメータと検査アルゴリズムパラメータの両方を同時に最適化することで、前記機械学習モデルの前記照明条件と前記検査アルゴリズムパラメータの両方を設定する設定ユニットと、
    を含むことを特徴とする対象を検査する際の照明条件を設定する装置。
  11. 前記生成ユニットは、
    複数の種類の対象に対応する複数の画像データセットを準備し、
    前記複数の画像データセットに基づいて、前記可変照明パラメータで前記複数の種類の対象が照明されるときの前記複数の種類の対象にそれぞれ対応する複数の推定画像を生成する、請求項10に記載の装置。
  12. 検査モジュールは、対象を検査するために使用する機械学習モデルを含み、前記機械学
    習モデルは、画像を含む学習データを使用することによって生成される装置において、
    前記対象に関する撮像画像を取得する取得ユニットであって、前記対象を撮像する際の照明条件を規定する照明パラメータを変更することができる光源によって前記対象を照明し、複数の照明パラメータでイメージセンサによって前記対象を撮像し、前記複数の照明パラメータに対応する前記撮像画像を取得し、前記対象は対応するラベルデータを有する取得ユニットと、
    前記撮像画像と、前記撮像画像に対応する前記照明パラメータを関連付けることによって得られた画像データセットに基づいて、可変照明パラメータで前記対象が照明されるときの前記対象の推定画像を生成する生成ユニットと、
    前記可変照明パラメータに対応する前記推定画像を、既に学習を実行した前記機械学習モデルに適用し、前記機械学習モデルの推定結果と前記対象の前記ラベルデータとの比較結果に基づいて、前記照明パラメータのみの最適化結果に従い、前記照明条件を設定する設定ユニットと、
    を含むことを特徴とする対象を検査する際の照明条件を設定する装置。
  13. 前記設定ユニットは、
    前記対象の前記推定画像及び対応する前記ラベルデータを含む学習データを、前記機械学習モデルの追加学習に適用し、前記機械学習モデルの検査アルゴリズムパラメータの一部または全てを更新し、
    前記機械学習モデルの前記推定結果が前記ラベルデータと一致するように、前記機械学習モデルの前記照明パラメータと前記検査アルゴリズムパラメータの一部または全ての両方を最適化し、
    前記ラベルデータは前記対象の検査特徴を表す、
    請求項12に記載の装置。
  14. 前記照明パラメータは、前記光源の発光位置と発光強度を含む、請求項10または12に記載の装置。
  15. 前記設定ユニットは、前記比較結果を表す損失関数を最小化する前記照明パラメータを選択し、前記選択は、所定の範囲の前記照明パラメータについて、前記損失関数の損失平均を最小化する前記照明パラメータを選択することを含む、請求項10または12に記載の装置。
  16. 前記生成ユニットは、
    前記画像データセットに含まれる前記照明パラメータに対応する前記撮像画像の加重線形重畳和に基づいて、前記可変照明パラメータで前記対象が照明されるときの前記対象の前記推定画像を生成し、その加重は、前記可変照明パラメータと前記撮像画像の前記照明パラメータの両方に従って決定される、請求項10または12に記載の装置。
  17. 前記生成ユニットは、前記画像データセットに基づき、前記可変照明パラメータに関する非線形推定関数を使用して、前記可変照明パラメータで前記対象が照明されるときの前記対象の前記推定画像を生成する、請求項10または12に記載の装置。
  18. 請求項1から9のいずれか一項に記載の方法を実行する処理部を備えることを特徴とする、対象を検査する際の照明条件を設定するシステム。
  19. 実行されると、請求項1から9のいずれか一項に記載の方法を実行することを特徴とするプログラム。
  20. プログラムを記憶し、プログラムが実行されると、請求項1から9のいずれか一項に記
    載の方法を実行することを特徴とする、記憶媒体。
JP2020543594A 2018-03-05 2018-03-05 照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体 Active JP7028333B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2018/051393 WO2019171121A1 (en) 2018-03-05 2018-03-05 Method, device, system and program for setting lighting condition and storage medium

Publications (2)

Publication Number Publication Date
JP2021515927A JP2021515927A (ja) 2021-06-24
JP7028333B2 true JP7028333B2 (ja) 2022-03-02

Family

ID=62111127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020543594A Active JP7028333B2 (ja) 2018-03-05 2018-03-05 照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体

Country Status (5)

Country Link
US (1) US11240441B2 (ja)
EP (1) EP3762794A1 (ja)
JP (1) JP7028333B2 (ja)
CN (1) CN111727412B (ja)
WO (1) WO2019171121A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111712769B (zh) * 2018-03-06 2023-08-01 欧姆龙株式会社 用于设定照明条件的方法、装置、系统以及存储介质
JP7006567B2 (ja) 2018-11-09 2022-01-24 オムロン株式会社 撮影方法及び撮影装置
IT201900005536A1 (it) * 2019-04-10 2020-10-10 Doss Visual Solution S R L Metodo di acquisizione immagini per una macchina di ispezione ottica
JP7437918B2 (ja) 2019-11-20 2024-02-26 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7281500B2 (ja) * 2021-05-17 2023-05-25 東亜建設工業株式会社 画像データの取得方法および取得システム
WO2022264396A1 (ja) * 2021-06-18 2022-12-22 三菱電機株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN113916906B (zh) * 2021-09-03 2024-01-09 江苏理工学院 视觉检测系统led光源照度优化方法及所用实验设备
WO2023090036A1 (ja) * 2021-11-22 2023-05-25 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム
JP2023127798A (ja) * 2022-03-02 2023-09-14 オムロン株式会社 ワークの傷検出のシミュレーションを実行する装置、当該シミュレーションを実行する方法、および、当該シミュレーションを実現するプログラム
JP2024056561A (ja) * 2022-10-11 2024-04-23 株式会社日立製作所 検査条件決定システム
US20240155247A1 (en) * 2022-11-04 2024-05-09 UnitX, Inc. Inspection camera controller sequence

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012101320A (ja) 2010-11-10 2012-05-31 Canon Inc 画像生成装置、画像生成方法、およびプログラム
JP2014199584A (ja) 2013-03-29 2014-10-23 キヤノン株式会社 画像処理装置および画像処理方法
WO2015188275A1 (en) 2014-06-10 2015-12-17 Sightline Innovation Inc. System and method for network based application development and implementation
JP2016006627A (ja) 2014-05-28 2016-01-14 ソニー株式会社 画像処理装置と画像処理方法
JP2016062225A (ja) 2014-09-17 2016-04-25 大日本印刷株式会社 画像生成装置、画像検出システム及び画像生成方法
JP2017049974A (ja) 2015-09-04 2017-03-09 キヤノン株式会社 識別器生成装置、良否判定方法、およびプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001343336A (ja) * 2000-05-31 2001-12-14 Nidek Co Ltd 欠陥検査方法及び欠陥検査装置
US7167583B1 (en) * 2000-06-28 2007-01-23 Landrex Technologies Co., Ltd. Image processing system for use with inspection systems
WO2003005303A2 (en) * 2001-07-02 2003-01-16 Matchlight Software, Inc. System and method for discovering and categorizing attributes of a digital image
US7590276B2 (en) * 2004-12-20 2009-09-15 Mitutoyo Corporation System and method for programming interrupting operations during moving image acquisition sequences in a vision system
JP5260183B2 (ja) * 2008-08-25 2013-08-14 株式会社日立ハイテクノロジーズ 欠陥検査方法及びその装置
JP5506273B2 (ja) * 2009-07-31 2014-05-28 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
CN101872491B (zh) * 2010-05-21 2011-12-28 清华大学 基于光度立体的自由视角重光照方法和系统
JP5525336B2 (ja) * 2010-06-08 2014-06-18 株式会社日立ハイテクノロジーズ 欠陥検査方法および欠陥検査装置
EP2887055B1 (en) 2013-12-17 2016-05-11 CSEM Centre Suisse d'Electronique et de Microtechnique SA - Recherche et Développement Method and apparatus for detection of visible defects
US20150309695A1 (en) * 2014-04-28 2015-10-29 Modest Tree Media Inc. Virtual interactive learning environment
US9443195B2 (en) * 2014-11-26 2016-09-13 Sense Labs, Inc. Assisted labeling of devices with disaggregation
CN107430677B (zh) * 2015-03-20 2022-04-12 英特尔公司 基于对二进制卷积神经网络特征进行提升的目标识别
US9904849B2 (en) * 2015-08-26 2018-02-27 Digitalglobe, Inc. System for simplified generation of systems for broad area geospatial object detection
US20170069075A1 (en) * 2015-09-04 2017-03-09 Canon Kabushiki Kaisha Classifier generation apparatus, defective/non-defective determination method, and program
US10068385B2 (en) * 2015-12-15 2018-09-04 Intel Corporation Generation of synthetic 3-dimensional object images for recognition systems
WO2017132636A1 (en) * 2016-01-29 2017-08-03 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
US9996771B2 (en) * 2016-02-15 2018-06-12 Nvidia Corporation System and method for procedurally synthesizing datasets of objects of interest for training machine-learning models
US20170278308A1 (en) * 2016-03-23 2017-09-28 Intel Corporation Image modification and enhancement using 3-dimensional object model based recognition
EP3306528B1 (en) * 2016-10-04 2019-12-25 Axis AB Using image analysis algorithms for providing traning data to neural networks
US11379695B2 (en) * 2016-10-24 2022-07-05 International Business Machines Corporation Edge-based adaptive machine learning for object recognition
US10529137B1 (en) * 2016-11-29 2020-01-07 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Machine learning systems and methods for augmenting images
CN106651795A (zh) * 2016-12-03 2017-05-10 北京联合大学 一种利用光照估计来校正图像颜色的方法
US20200057831A1 (en) * 2017-02-23 2020-02-20 Siemens Mobility GmbH Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation
CN107464244A (zh) * 2017-03-09 2017-12-12 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于神经网络的图像光照估计方法
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition
CN107395960A (zh) * 2017-07-07 2017-11-24 珠海市魅族科技有限公司 拍照方法及装置、计算机装置和计算机可读存储介质
JP6705777B2 (ja) * 2017-07-10 2020-06-03 ファナック株式会社 機械学習装置、検査装置及び機械学習方法
US10579869B1 (en) * 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US10354139B1 (en) * 2017-09-07 2019-07-16 X Development Llc Generating and utilizing spatial affordances for an object in robotics applications
CN107635095A (zh) * 2017-09-20 2018-01-26 广东欧珀移动通信有限公司 拍摄照片的方法、装置、存储介质及拍摄设备
US10467501B2 (en) * 2017-10-30 2019-11-05 Sap Se Computer vision architecture with machine learned image recognition models
US10346721B2 (en) * 2017-11-01 2019-07-09 Salesforce.Com, Inc. Training a neural network using augmented training datasets
JP6955211B2 (ja) * 2017-12-14 2021-10-27 オムロン株式会社 識別装置、識別方法及びプログラム
JP6924413B2 (ja) * 2017-12-25 2021-08-25 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012101320A (ja) 2010-11-10 2012-05-31 Canon Inc 画像生成装置、画像生成方法、およびプログラム
JP2014199584A (ja) 2013-03-29 2014-10-23 キヤノン株式会社 画像処理装置および画像処理方法
JP2016006627A (ja) 2014-05-28 2016-01-14 ソニー株式会社 画像処理装置と画像処理方法
WO2015188275A1 (en) 2014-06-10 2015-12-17 Sightline Innovation Inc. System and method for network based application development and implementation
JP2016062225A (ja) 2014-09-17 2016-04-25 大日本印刷株式会社 画像生成装置、画像検出システム及び画像生成方法
JP2017049974A (ja) 2015-09-04 2017-03-09 キヤノン株式会社 識別器生成装置、良否判定方法、およびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Stephen J. Schmugge et al.,"Crack Segmentation by Leveraging Multiple Frames of Varying Illumination",2017 IEEE Winter Conference on Applications of Computer Vision (WACV),米国,IEEE,2017年03月24日,pp.1045-1053
中川 邦宏、尺長 健,"基準姿勢仮想部分空間法による任意姿勢・任意照明の顔画像認識",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2001年03月08日,Vol.100, No.701,pp.95-102
松尾 賢治、外2名,"仮想部分空間による照明変動を抑制した顔画像認識",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2004年06月11日,Vol.104, No.125,pp.25-30
片山 隼多、外6名,"画像検査システムの評価のための模擬検査画像生成の検討",第23回 画像センシングシンポジウム SSII2017,日本,画像センシング技術研究会,2017年06月07日,pp.1-4

Also Published As

Publication number Publication date
EP3762794A1 (en) 2021-01-13
CN111727412B (zh) 2023-07-14
JP2021515927A (ja) 2021-06-24
US11240441B2 (en) 2022-02-01
WO2019171121A1 (en) 2019-09-12
CN111727412A (zh) 2020-09-29
US20200412932A1 (en) 2020-12-31

Similar Documents

Publication Publication Date Title
JP7028333B2 (ja) 照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体
CN112567428B (zh) 摄影方法及摄影装置
CN108734690B (zh) 一种视觉缺陷检测设备及其检测方法
CN106875373B (zh) 基于卷积神经网络剪枝算法的手机屏幕mura缺陷检测方法
JP7131617B2 (ja) 照明条件を設定する方法、装置、システム及びプログラム並びに記憶媒体
KR102166458B1 (ko) 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치
CN106910192B (zh) 一种基于卷积神经网络的图像融合效果评估方法
CN106920215B (zh) 一种全景图像配准效果的检测方法
CN106355195B (zh) 用于测量图像清晰度值的系统及其方法
EP2887055B1 (en) Method and apparatus for detection of visible defects
TW202103484A (zh) 具改善之影像擷取之用於外用劑之產生的系統及方法
CN111492198A (zh) 物体形状测量装置和方法以及程序
CN110785709A (zh) 从低分辨率图像产生高分辨率图像以用于半导体应用
WO2021195817A1 (zh) 一种提取待测物质的光谱信息的方法
CN114689604A (zh) 具有光滑表面的待测物于光学检测上的影像处理方法及其检测系统
CN114913086B (zh) 基于生成对抗网络的人脸图像质量增强方法
Del Campo et al. Radial basis function neural network for the evaluation of image color quality shown on liquid crystal displays
JP2006287689A (ja) 画像処理方法、画像処理装置、画像処理プログラム、およびその画像処理装置を含む集積回路
CN112149578B (zh) 基于人脸三维模型的人脸皮肤材质计算方法、装置及设备
CN117078608B (zh) 一种基于双掩码引导的高反光皮革表面缺陷检测方法
Hirasawa et al. BRDF Estimation with Simple Measurement and Data-driven Model
US20240096059A1 (en) Method for classifying images and method for optically examining an object
Elmquist et al. Camera simulation for robot simulation: how important are various camera model components?
Gruna et al. Reflectance modeling in machine vision: Applications in image analysis and synthesis
CN115953347A (zh) 一种单视角下工业缺陷检测方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7028333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150