JP6973205B2 - 画像処理システム、画像処理装置、画像処理プログラム - Google Patents

画像処理システム、画像処理装置、画像処理プログラム Download PDF

Info

Publication number
JP6973205B2
JP6973205B2 JP2018047629A JP2018047629A JP6973205B2 JP 6973205 B2 JP6973205 B2 JP 6973205B2 JP 2018047629 A JP2018047629 A JP 2018047629A JP 2018047629 A JP2018047629 A JP 2018047629A JP 6973205 B2 JP6973205 B2 JP 6973205B2
Authority
JP
Japan
Prior art keywords
image
unit
reflection profile
profile information
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018047629A
Other languages
English (en)
Other versions
JP2019158711A (ja
Inventor
豊 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018047629A priority Critical patent/JP6973205B2/ja
Priority to CN201910111266.6A priority patent/CN110274911B/zh
Priority to EP19156619.9A priority patent/EP3540689B1/en
Priority to US16/275,334 priority patent/US10939024B2/en
Publication of JP2019158711A publication Critical patent/JP2019158711A/ja
Application granted granted Critical
Publication of JP6973205B2 publication Critical patent/JP6973205B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8835Adjustable illumination, e.g. software adjustable screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Stroboscope Apparatuses (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理システム、画像処理装置、および画像処理プログラムに関する。
FA(Factory Automation)分野などにおいては、対象物を照明装置からの光による照明下で撮像し、生成された画像からワークに関する情報を取得する画像処理技術が利用されている。
画像処理技術分野において、対象物の外観検査を行なう際の照明条件は、外観検査の精度に大きく影響を与える。例えば、特開2017−223458(特許文献1)には、複数の明るさ条件候補の中から、選択条件にしたがって一の明るさ条件を選択する画像処理センサが開示されている。
特開2017−223458号公報
特許文献1に開示の画像処理装置の一種である画像処理センサは、一の明るさ条件の下で撮像した画像を用いて画像計測を行なう。しかし、特許文献1に開示の画像処理装置は、一の明るさ条件の下で撮像した画像を用いて画像計測を行なうため、対象物の表面に設けられた傷の形など対象物の表面状態によっては、設定された一の明るさ条件下では対象物の表面状態が画像内に現れない場合がある。
すなわち、一の明るさ条件の下で撮像した場合に、画像計測の性能を向上させることの限界があった。
本発明は、上述したように、画像計測の性能を向上させることができる画像処理システム、画像処理装置、および画像処理プログラムを提供することを目的とする。
本開示の一例によれば、画像計測を行なう画像処理システムが提供される。画像処理システムは、対象物を撮像する撮像部と、対象物に向けられた発光面を有する発光部と、発光面のうち予め設定した複数種類の部分領域の各々が発光するように、発光部を制御する発光制御部と、複数種類の部分領域の各々の発光に同期して撮像するように、撮像部を制御する撮像制御部と、撮像部が複数種類の部分領域の各々の発光に同期させて撮像した複数の画像をもとに得られる、発光面内の位置と、その位置から対象物に照射される光が対象物の注目部位に反射して撮像部に入射する光の度合いとの関係を示す反射プロファイル情報を生成する生成部と、生成部が生成した反射プロファイル情報に基づいて対象物の画像計測を行なう画像計測部とを含む。
この開示によれば、発光面から照射された光が対象物に反射して撮像部に入る経路を通る光の度合いを、照射された発光面の位置ごと独立して得られ、その情報に基づいて対象物の画像計測を行なうため、多くの情報量に基づいた画像計測を行なうことができる。その結果、画像計測の性能を向上させることができる。
上述の開示において、画像計測部は、対象物を撮像した画像から生成された反射プロファイル情報と、予め設定された反射プロファイル基準情報との類似度を算出する算出部と、算出部が算出した類似度を用いて、対象物、または、注目部位の属性を判断する判定部とをさらに含んでもよい。
この開示によれば、対象物、または、注目部位の属性を判断することができる。
上述の開示において、反射プロファイル基準情報は、属性が既知である対象物、または、対象物の特定部位を撮像して得られる画像から生成される反射プロファイル情報であってもよい。
この開示によれば、計測したい属性の対象物を用意し、その反射プロファイル情報を生成するだけで反射プロファイル基準情報を設定することができる。
上述の開示において、反射プロファイル基準情報は、属性が互いに等しい複数の部位ごとに生成される複数の反射プロファイル情報を統計的に表現した情報であってもよい。
この開示によれば、反射プロファイル基準情報は一の情報ではなく、複数の情報に基づいた情報であるため、計測精度を上げることができる。
上述の開示において、反射プロファイル情報は、複数の画像の各々から得られる、画像内の撮像視野内の注目点に対応する輝度情報および画像が撮像されたときに発光している部分領域の注目点に対する相対位置に基づく情報であってもよい。画像処理システムは、相対位置に対応する2軸以上の座標系に、輝度情報に対応する情報を出力した表現形態により反射プロファイル情報を出力する出力部をさらに含んでもよい。出力部は、反射プロファイル基準情報および対象物の反射プロファイル情報を座標系上に順次または同時に出力してもよい。
この開示によれば、反射プロファイル情報と反射プロファイル基準情報とを、いずれも同じ座標系上に出力するため、2つの情報を同じ座標上で比較することができる、2つの情報を比較しやすい。
上述の開示において、反射プロファイル基準情報は、第1属性に対応する1または複数の第1反射プロファイル基準情報と、第2属性に対応する1または複数の第2反射プロファイル基準情報とを含んでもよい。判定部は、対象物上の複数の注目部位の各々について生成される反射プロファイル情報に基づいて、複数の注目部位の属性を注目部位ごとに分類してもよい。
この開示によれば、各注目部位の属性を、複数の属性のうちのいずれの属性であるかを分類することができる。
上述の開示において、画像計測部は、対象物上の複数の注目部位の各々について生成される反射プロファイル情報の特徴量を抽出するとともに、各注目部位に対応する特徴量を評価することで、複数の注目部位の各々の属性を判断してもよい。
この開示によれば、対象物上の複数の注目部位の各々について生成される反射プロファイル情報同士を比較することで画像計測を行なうため、基準とする情報を必要としない。その結果、画像計測を行なうための準備として、設計者が行なわなければならないデータ入力、登録などの作業を簡略化することができる。
本開示の別の一例によれば、対象物を撮像する撮像部と、対象物に向けられた発光面を有する発光部とを制御して画像計測を行なう画像処理装置が提供される。画像処理装置は、発光面のうち予め設定した複数種類の部分領域の各々が発光するように、発光部を制御する発光制御部と、複数種類の部分領域の発光の各々に同期して撮像するように、撮像部を制御する撮像制御部と、撮像部が複数種類の部分領域の各々の発光に同期させて撮像した複数の画像をもとに得られる、発光面内の位置と、その位置から対象物に照射される光が対象物の注目部位に反射して撮像部に入射する光の度合いとの関係を示す反射プロファイル情報を生成する生成部と、生成部が生成した反射プロファイル情報に基づいて対象物の画像計測を行なう画像計測部とを含む。
この開示によれば、発光面から照射された光が対象物に反射して撮像部に入る経路を通る光の度合いを、照射された発光面の位置ごと独立して得られ、その情報に基づいて対象物の画像計測を行なうため、多くの情報量に基づいた画像計測を行なうことができる。その結果、画像計測の性能を向上させることができる。
本開示の別の一例によれば、対象物を撮像する撮像部と、対象物に向けられた発光面を有する発光部とを制御して画像計測を行なう画像処理装置に実行される画像処理プログラムが提供される。画像処理プログラムは、発光面のうち予め設定した複数種類の部分領域の各々が発光するように、発光部を制御するステップと、複数種類の部分領域の各々の発光に同期して撮像するように、撮像部を制御するステップと、撮像部が複数種類の部分領域の各々の発光に同期させて撮像した複数の画像をもとに得られる、発光面内の位置と、その位置から対象物に照射される光が対象物の注目部位に反射して撮像部に入射する光の度合いとの関係を示す反射プロファイル情報を生成するステップと、生成された反射プロファイル情報に基づいて対象物の画像計測を行なうステップとを含む。
この開示によれば、発光面から照射された光が対象物に反射して撮像部に入る経路を通る光の度合いを、照射された発光面の位置ごと独立して得られ、その情報に基づいて対象物の画像計測を行なうため、多くの情報量に基づいた画像計測を行なうことができる。その結果、画像計測の性能を向上させることができる。
画像計測の性能を向上させることができる、画像処理システム、画像処理装置、および画像処理プログラムを提供できる。
本実施の形態に係る画像処理システムの適用場面を模式的に示す図である。 反射プロファイル情報を模式的に示した図である。 本実施の形態に係る画像処理システムが適用される生産ラインの一例を示す模式図である。 制御装置のハードウェア構成について示す模式図である。 照明装置の一部を拡大した模式図である。 反射プロファイル情報を得るための工程の一例を示す図である。 データの取得方法を説明するための図である。 データの抽出方法を説明するための図である。 反射プロファイル情報の生成方法を説明するための図である。 反射プロファイル情報をマッピング画像に変換する方法の一例を示す図である。 モデル画像の生成方法を説明するための図である。 モデル画像を用いた画像計測の一例を示す図である。 モデル画像の登録時のユーザインターフェイス画面の一例を示す図である。 第2画像表示領域の表示例を示す図である。 第1画像表示領域の表示態様の変遷の一例を示す図である。 計測結果の表示方法の一例を示す図である。 制御装置の機能構成を示す模式図である。 画像計測処理のフローチャートである。 検査方法の第1の変形例について説明するための図である。 検査方法の第1の変形例について説明するための図である。 検査方法の第2の変形例について説明するための図である。 照明装置とカメラと対象物との位置関係の変形例を示す図である。 照明装置の変形例を示す図である。
§1 適用例
まず、図1および図2を参照して、本発明が適用される場面の一例について説明する。図1は、本実施の形態に係る画像処理システム1の適用場面を模式的に示す図である。図2は、反射プロファイル情報70を模式的に示した図である。
本実施の形態に係る画像処理システム1は、撮像部の一例であるカメラ8と、発光部の一例である照明装置4と、画像処理システム1において実行される処理を制御する制御装置100とを備える。また、制御装置100は、照明装置4を制御する発光制御部12と、カメラ8を制御する撮像制御部14と、反射プロファイル情報を生成する生成部18と、反射プロファイル情報に基づいて画像計測を行なう画像計測部15とを備える。発光制御部12、撮像制御部14、生成部18および画像計測部15は、一例として、汎用的なコンピュータアーキテクチャに従う構造を有している制御装置100に設けられている。
照明装置4は、対象物Wに向けられた発光面40を有する。照明装置4は、発光面40の任意の領域を発光させることが可能であって、たとえば、有機EL(Electro Luminescence)から成る。
発光制御部12は、発光面40上に設定された複数種類の部分領域43の各々が発光するように照明装置4を制御する。複数種類の部分領域43の各々は、少なくとも発光面40内における位置が異なる。複数種類の部分領域43の各々の大きさは、互いに共通していてもよく、また、互いに異なっていてもよい。また、複数種類の部分領域43の各々の形状は、互いに共通していてもよく、また、互いに異なっていてもよい。また、1の部分領域43の一部は、隣接する部分領域43の一部と共通する領域であってもよい。
撮像制御部14は、複数種類の部分領域43の各々の発光に同期して対象物Wを撮像するようにカメラ8を制御する。ここで「同期して対象物Wを撮像する」とは、発光している部分領域43の種類が変わる度に対象物Wを撮像することを意味する。
発光制御部12と撮像制御部14とが上述のように照明装置4とカメラ8とを制御することで、発光している部分領域ごとに入力画像Dが生成され、複数の入力画像Dが得られる。
生成部18は、複数の入力画像Dをもとに反射プロファイル情報70を生成する。反射プロファイル情報70は、発光面40内の位置と、その位置から対象物Wに照射される光が対象物Wの注目部位Aに反射してカメラ8に入射する光の度合いとの関係を示す情報である。
具体的に、反射プロファイル情報70について、図2を参照して説明する。図2に示す例では、一の種類の部分領域43が、発光面40上の位置(X,Y)に設定されているものとする。位置(X,Y)に設定されて部分領域43を発光させたときに得られる入力画像D(X,Y)は、位置(X,Y)から照射された光Lが対象物Wに反射してカメラ8に入射する光Lによって生成される。よって、入力画像D(X,Y)からは、発光面40上の位置(X,Y)から照射された光Lが対象物Wの注目部位Aに反射してカメラ8に入射する光Lの度合いである特徴量Pが得られる。同様に、位置(X,Y)に設定されて部分領域43を発光させたときに得られる入力画像D(X,Y)からは、位置(X,Y)から照射された光Lが対象物Wの注目部位Aに反射してカメラ8に入射する光Lの度合いである特徴量Pが得られる。
複数の入力画像Dの各々から、発光面40上の位置(X,Y)と、特徴量Pとの関係が得られる。すなわち、反射プロファイル情報70は、発光面上の位置(X,Y)と、特徴量Pとからなる情報の集合である。図2に示す例では、発光面40上の位置(X,Y)〜位置(X,Y)の各々について特徴量P〜特徴量Pが得られ、特徴量P〜特徴量Pの集合が反射プロファイル情報70といえる。
すなわち、反射プロファイル情報70は、発光面40内の位置と、その位置から対象物Wに照射される光が対象物Wの注目部位Aに反射して、その反射光がカメラ8に入射する光の度合いとの関係を示す情報であって、注目部位Aの反射特性に関する情報である。反射特性は、注目部位Aの表面状態の影響を大きく受けるため、反射プロファイル情報70は、注目部位Aの表面状態を表す情報ともいえる。
画像計測部15は、反射プロファイル情報70に基づいて、対象物Wの画像計測を行なう。反射プロファイル情報70は、注目部位Aの表面状態を表す情報である。そのため、画像計測部15は、反射プロファイル情報70に基づいて、注目部位Aの表面状態を特定することができ、その結果、対象物Wの画像計測を行なうことができる。
以上のように、本実施の形態に係る画像処理システム1においては、発光面40から照射された光が対象物Wに反射してカメラ8に入る経路を通る光の度合いを、照射された発光面40の位置ごと独立して得られ、その情報に基づいて対象物の画像計測を行なうため、多くの情報量に基づいた画像計測を行なうことができる。その結果、画像計測の性能を向上させることができる。
§2 具体例
[A.画像処理システムが適用される生産ラインの一例]
次に、本実施の形態に係る画像処理システムの一例について説明する。図3は、本実施の形態に係る画像処理システム1が適用される生産ラインの一例を示す模式図である。
図3に示すように、本実施の形態に係る画像処理システム1は、連続的に搬入される対象物Wを撮影するカメラ8と、対象物Wを照明する照明装置4と、照明装置4およびカメラ8を制御する制御装置100とを備える。
カメラ8は、主たる構成要素として、レンズや絞りなどの光学系と、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの光電変換器を含む。光電変換器は、カメラ8の撮像視野81に含まれる光を画像信号に変換する装置である。
照明装置4は、ステージ300に配置された対象物Wに対して光を照射する。発光面40から照射される光の照射パターンは、制御装置100から指示された照射パターンにしたがって任意に変更可能になっている。
照明装置4は透光性を有しており、典型的には、透明な有機EL照明である。照明装置4が配置されている位置を基準にカメラ8が配置されている方を上とし、対象物Wが配置されている方を下とすると、照明装置4は、カメラ8が照明装置4を介して照明装置4よりも下に位置するものを撮像することができる程度に透光性を有していればよい。
検査対象となる対象物Wは、移動可能なステージ300によって、カメラ8および照明装置4が固定された検査位置まで移動する。ステージ300は、PLC200(Programmable Logic Controller)に制御される。PLC200は、対象物Wを検査位置まで搬送すると、画像処理システム1による外観検査が終了するまでその場で停止するようにステージ300を制御する。このとき、制御装置100は、照明装置4によって対象物Wに光を照射しながら、カメラ8で対象物Wを撮影する。制御装置100は、照明装置4から照射される光の照射パターンを変化させるように照明装置4を制御し、光の照射パターンを変化させる度にカメラ8で対象物Wを撮影するようにカメラ8を制御する。制御装置100は、このようにして得られた複数枚の撮影画像を用いることで、対象物Wの外観を検査する。また、制御装置100は、外観検査が終了すると、PLC200に検査結果を出力する。PLC200は、制御装置100からの検査結果の出力に基づいて、次の対象物Wを検査位置まで搬送させる。
制御装置100は、表示部102および入力部104と電気的に接続されている。表示部102は、典型的には液晶ディスプレイからなり、たとえば、ユーザに設定内容を表示する。入力部104は、典型的にはマウスからなり、各種の設定に関する情報を入力するために機能する。たとえば、ユーザは、表示部102に表示された情報に基づいて入力部104を操作することで、検査条件の設定に関する設定情報を入力することができる。なお、入力部104はマウスから構成されるとしたが、タッチパネル、キーボード、あるいは、これらを組み合わせて構成されるものであってもよい。
[B.制御装置のハードウェア構成の一例]
図4は、制御装置100のハードウェア構成について示す模式図である。制御装置100は、CPU(Central Processing Unit)110、メインメモリ120、ハードディスク130、カメラインターフェイス(I/F)180、照明I/F140、表示コントローラ172、入力I/F174、通信I/F150、外部メモリI/F160、および光学ドライブ164を含む。これらの各部は、バス190を介して、互いにデータ通信可能に接続される。
CPU110は、ハードディスク130にインストールされた画像処理プログラム132および設定プログラム134を含むプログラム(コード)をメインメモリ120に展開して、これらを所定順序で実行することで、各種の演算を実施する。メインメモリ120は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置である。
ハードディスク130は、制御装置100が備える内部メモリであって、不揮発性の記憶装置である。ハードディスク130は、画像処理プログラム132および設定プログラム134に加えて、検査条件に関する検査情報136を含む。なお、ハードディスク130に加えて、あるいは、ハードディスク130に代えて、フラッシュメモリなどの半導体記憶装置を採用してもよい。
カメラI/F180は、CPU110とカメラ8との間のデータ伝送を仲介する。すなわち、カメラI/F180は、画像を生成するカメラ8と接続される。また、カメラI/F180は、CPU110からの内部コマンドに従って、接続されているカメラ8における撮像動作を制御するコマンドを与える。
照明I/F140は、CPU110と照明装置4との間のデータ伝送を仲介する。すなわち、照明I/F140は、照明装置4と接続される。また、照明I/F140は、CPU110からの内部コマンドに従って、接続されている照明装置4に対して、照射パターンについての指令を送信する。照明装置4は、受信した指令に基づく照射パターンの光を照射する。なお、照明装置4は、カメラ8を介して制御装置100と接続されてもよい。また、カメラ8は、照明装置4を介して制御装置100と接続されてもよい。
表示コントローラ172は、表示部102と接続され、CPU110における処理結果などをユーザに通知する。すなわち、表示コントローラ172は、表示部102に接続され、表示部102での表示を制御する。
入力I/F174は、入力部104と接続され、CPU110と入力部104との間のデータ伝送を仲介する。すなわち、入力I/F174は、ユーザが入力部104を操作することで与えられる操作指令を受付ける。操作指令は、たとえば、検査条件を設定するための操作指令が含まれる。
通信I/F150は、PLC200とCPU110との間で各種データをやり取りする。なお、通信I/F150は、サーバとCPU110との間でデータをやり取りしてもよい。通信I/F150は、PLC200との間で各種データをやり取りするためのネットワークに対応するハードウェアを含む。
外部メモリI/F160は、外部メモリ6と接続され、外部メモリ6に対するデータの読み込み/書き込みの処理をする。外部メモリ6は、制御装置100に着脱可能であって、典型的には、USB(Universal Serial Bus)メモリ、メモリカードなどの不揮発性の記憶装置である。また、画像処理プログラム132等の各種プログラムは、ハードディスク130に保存されている必要はなく、制御装置100と通信可能なサーバや、制御装置100と直接接続可能な外部メモリ6、または、光学ディスク164Aに保存されていてもよい。たとえば、外部メモリ6に制御装置100で実行される各種プログラムおよび各種プログラムで用いられる各種パラメータが格納された状態で流通し、外部メモリI/F160は、この外部メモリ6から各種プログラムおよび各種パラメータを読み出す。あるいは、制御装置100と通信可能に接続されたサーバなどからダウンロードしたプログラムやパラメータを制御装置100にインストールしてもよい。また、制御装置100は、光学ディスク164Aから光学ドライブ164を介してプログラムやパラメータを制御装置100にインストールしてもよい。
光学ドライブ164は、光学ディスク164Aなどから、その中に格納されている各種プログラムを読み出して、ハードディスク130にインストールする。
なお、本実施の形態に係る画像処理プログラム132および設定プログラム134は、他のプログラムの一部に組み込まれて提供されるものであってもよい。また、代替的に、画像処理プログラム132の実行により提供される機能の一部もしくは全部を専用のハードウェア回路として実装してもよい。
[C.照明装置4の構造]
図5は、本実施の形態に係る照明装置4の一部を拡大した模式図である。照明装置4は、マトリクス状に配置された複数の照明要素41を含む。照明装置4は、各照明要素41を独立に点灯させることができる。本実施の形態における照射パターンとは、複数の照明要素41のうちの点灯させる照明要素41により決定されるものをいう。また、本実施の形態においては、各照明要素41からは、白色光が照射されるものとして説明し、照射パターンとは発光面40の濃淡パターンをいうこととする。また、本実施の形態において、照明装置4は、各照明要素41を独立して、点灯または消灯させることができる。なお、照明装置4は、各照明要素41の発光強度を調整できるようにしてもよい。
各照明要素41は、たとえば、発光領域と透明領域とを含み、発光領域を発光させることで、対象物Wに対する照明効果として照明要素41全体が発光したものと近似できる。また、透明領域を備えることにより、透光性が保たれることとなる。
[D.画像計測方法の概要]
制御装置100は、撮像視野81内に設定される計測位置bについて得られる反射プロファイル情報72に基づいて、計測位置bに対応する対象物Wの計測部位Bの状態を検査する。撮像視野81内に設定される計測位置bは、ユーザが撮像視野81の画像に対して設定する位置であってもよく、また、対象物Wに対して予め設定された位置であってもよい。対象物Wに対して予め設定された位置である場合、制御装置100は、撮像視野81の画像に含まれる対象物Wの姿勢をパターンマッチングなどの既知の方法により特定し、特定した対象物Wの姿勢に基づいて、対象物Wに対して予め設定された位置を計測位置bに変換してもよい。
反射プロファイル情報72は、発光面40内の位置と、その位置から対象物Wに照射される光が対象物Wの計測部位Bに反射して、その反射光がカメラ8に入射する光の度合いとの関係を示す情報であって、計測部位Bの反射特性に関する情報である。反射特性は、計測部位Bの表面状態に応じて変化する。そのため、反射プロファイル情報72は、計測部位Bの表面状態を表す情報ともいえる。
以下、反射プロファイル情報72の生成方法を説明するとともに、反射プロファイル情報72を用いた画像計測方法について説明する。
[E.反射プロファイル情報72の取得方法]
図6は、反射プロファイル情報72を得るための工程の一例を示す図である。反射プロファイル情報72を得るための工程は、データを取得する工程Ph1と、データを抽出する工程Ph2と、抽出したデータから反射プロファイル情報72を生成する工程Ph3を含む。なお、以下では、対象物Wの注目部位Aに対応する撮像視野81内の注目位置aに対応する反射プロファイル情報72を生成するものとして説明する。
<データを取得する工程Ph1>
図7は、データの取得方法を説明するための図である。なお、図7においては、カメラ8の図示を省略している。照明装置4は、発光面40内に設定された部分領域43だけを発光させることができる。発光面40は、全ての照明要素41の集合からなる。一方、部分領域43は、1または複数の照明要素41からなる。つまり、部分領域43は、全ての照明要素41の集合に対する部分集合となっている。照明装置4は、複数の照明要素41の各々を独立して点灯させることができるため、発光面40上に設定される部分領域43内に含まれるすべての照明要素41を点灯することで、設定された部分領域43だけを発光させることができる。なお、照明装置4は、部分領域43に含まれる全照明要素41を同じ発光強度で点灯させてもよく、また、互いに異なる発光強度で点灯させてもよい。
制御装置100は、発光面40上に設定された複数種類の部分領域43の各々を点灯させるように照明装置4を制御する。複数種類の部分領域43の各々は、少なくとも発光面40内における位置が異なる。ここで、部分領域43の発光面40内における位置は、部分領域43の中心を意味する。複数種類の部分領域43の各々の大きさは、互いに共通していてもよく、また、互いに異なっていてもよい。また、複数種類の部分領域43の各々の形状は、互いに共通していてもよく、また、互いに異なっていてもよい。また、1の部分領域43の一部は、隣接する部分領域43の一部と共通する領域であってもよい。本実施の形態において、複数種類の部分領域43の各々の形状および大きさは互いに等しく、各部分領域43は他の部分領域43と重なっていないものとする。部分領域43の大きさは、部分領域43を発光させたときに、対象物Wの少なくとも一部を認識できる画像をカメラ8が撮像することができる程度の光量を確保できる大きさであればよい。ここで、照射パターンとは発光面40の濃淡パターンをいうことから、一の部分領域43を発光させることは、一の照射パターンで発光面40を発光させることともいえる。また、複数種類の部分領域43の各々は、互いに異なる照射パターンであるともいえる。
図7に示す例では、制御装置100は、発光面40上の位置(X,Y)〜位置(X,Y)の各々に部分領域43を設定し、合計m×n個の部分領域43を独立して発光させる。制御装置100は、複数種類の部分領域43の各々の発光に同期して撮像するように、カメラ8を制御し、合計m×n個の入力画像Dを取得する。ここで、本実施の形態においては、便宜上、発光面40上のX方向を図3中の対象物Wの移動方向とし、Y方向をX方向と照射方向とに直交する方向として説明する。入力画像D(X,Y)は、位置(X,Y)に設定された部分領域43を発光させた状態で撮像して得られる画像を意味する。ここで、図7において、カメラ8、照明装置4、および対象物Wの各々の位置は、固定されている。つまり、入力画像D(X,Y)〜入力画像D(X,Y)が撮像されたときの撮像条件は、少なくとも、発光している発光面40上の位置が異なる。
<データを抽出する工程Ph2>
図8は、データの抽出方法を説明するための図である。制御装置100は、入力画像D(X,Y)〜入力画像D(X,Y)のうち、所定の範囲に含まれる入力画像Dから対象物Wの注目部位Aに対応する部分画像Mを抽出する。ここで対象物Wの注目部位Aに対応する部分画像Mは、入力画像D内の対象物Wの注目部位Aのカメラ座標系内における注目位置a(x,y)を含むように抽出された部分領域である。入力画像D(X,Y)〜入力画像D(X,Y)は、いずれも、同じ撮像視野81の下で撮影されることで得られる。そのため、注目部位Aに対応する部分画像Mのカメラ座標位置(x,y)は、入力画像D(X,Y)〜入力画像D(X,Y)の各々で共通する。
部分画像Mは、1画素から構成されるデータであってもよく、また、複数画素から構成されるデータであってもよく、少なくとも、注目部位Aに対応する注目位置a(x,y)の画素を含んでいればよい。部分画像Mの範囲は、好ましくは、外観の特徴が表れる程度の範囲である。なお、注目部位Aは、ある特定の位置を示すものであっても、所定の範囲を示すものであってもよい。
所定の範囲に含まれる入力画像Dとは、注目位置a(x,y)に対応する発光面40上の位置(X,Y)を基準位置とした所定範囲内に含まれる位置に設定された部分領域43を発光させたときに得られた入力画像Dである。ここで基準位置とは、たとえば、原点(0,0)を意味する。注目部位Aのカメラ座標系内における注目位置a(x,y)と、対応する発光面40上の位置(X,Y)との間には、たとえば、式(1)の関係が成立する。そのため、注目位置a(x,y)から、対応する発光面40上の位置(X,Y)を求めることができる。
Figure 0006973205
係数A、Bは、キャリブレーションパラメータであって、カメラ8と照明装置4との位置を固定した後に、カメラ8と照明装置4との位置関係に基づいて計算によって算出するか、あるいは、キャリブレーション操作を行なうことで求めることができる。なお、式(1)は一例であって、式(1)を用いなくとも、カメラ座標系内の位置に対応する発光面40上の位置を予め定めておいてもよい。
ここで、注目位置a(x,y)に対応する発光面40上の位置(X,Y)を基準位置とした座標系をij座標とする。発光面40上の位置(X,Y)を基準位置とした所定範囲として、式(2)に示す範囲が設定されているものとする。
Figure 0006973205
ij座標は、位置(X,Y)を基準位置(原点)としているため、式(2)に示す範囲は、式(3)に示す範囲に変換できる。
Figure 0006973205
制御装置100は、式(3)に示す範囲に含まれる入力画像D(X−w,Y−w)〜入力画像D(X+w,Y+w)の各々から注目位置a(x,y)の部分画像Mを抽出して、部分画像M(X−w,Y−w|x,y)〜部分画像M(X+w,Y+w|x,y)を抽出する。なお、式(3)に示す範囲に含まれる入力画像Dだけを生成するようにしてもよい。ここで、部分画像M(X,Y|x,y)の括弧内のバーティカルバーの左側は、抽出元の入力画像Dを撮像したときに発光している発光面40の位置(X,Y)を意味する。部分画像M(X,Y|x,y)の括弧内のバーティカルバーの右側は、部分画像Mを抽出する際の目標となる入力画像D内の注目位置a(x,y)を意味する。すなわち、部分画像M(X,Y|x,y)は、入力画像D(X,Y)内の注目位置a(x,y)を含むように抽出された、入力画像D(X,Y)の部分領域を意味する。
(キャリブレーション方法)
ここで、撮像視野81内の位置(x,y)と発光面40上の位置(X,Y)との対応関係を求めるキャリブレーション方法の一例について説明する。
制御装置100は、部分領域43を前記発光面40上の異なる位置に順次設定して発光させるとともに、順次発光に対応して撮像視野81の画像を順次生成するように、カメラ8を制御する。検査位置には、キャリブレーション用のターゲットプレートと呼ばれる基準対象物を設置してキャリブレーションを行なってもよく、あるいは、検査対象の対象物Wを設置して行ってもよい。
制御装置100は、順次点灯に応じて得られた複数の画像に含まれる複数の画素の各々から輝度値を抽出する。制御装置100は、複数の画像内の(x,y)に位置する画素の輝度値を互いに比較し、最も輝度値の高い画素を特定する。制御装置100は、特定した画素に対応する画像を取得した際に部分領域43が設定された位置(X,Y)と、当該画素の画像内の位置(x,y)とを対応付ける。制御装置100は、取得した画像内のすべての画素に対して、同じ処理を行なうことで、カメラ座標系と照明座標系との対応関係を得ることができる。カメラ座標系と照明座標系との対応関係を線形近似させることで、キャリブレーションパラメータを算出してもよい。なお、画素ごとに行なうとしたが、複数の画素を一の単位として、複数の画素ごとに上記処理を行なってもよい。
キャリブレーションが上述のように行なわれるため、注目位置aに対応する発光面40上の位置(X,Y)から照射される光は、注目位置aに入射する光のうち、注目位置aに反射してカメラ8に入射する光量がもっとも高い光であるといえる。
<抽出したデータから反射プロファイル情報72を生成する工程Ph3>
図9は、反射プロファイル情報72の生成方法を説明するための図である。制御装置100は、部分画像M(X−w,Y−w|x,y)〜部分画像M(X+w,Y+w|x,y)の各々から、特徴量pを抽出する。特徴量pは、発光面40上に設定された部分領域43から注目部位Aに入射する光がこの注目部位Aに反射してカメラ8に入射する光の強度を示す値であって、たとえば、輝度値、または輝度値を規格化したものを含む。また、特徴量pは、部分画像Mに対して空間フィルタなどの前処理を行なった後に得られる情報であってもよい。ここで、特徴量p(x,y|X,Y)は、部分画像M(X,Y|x,y)から抽出された特徴量であることを意味する。
本実施の形態においては、特徴量p(x,y|X−w,Y−w)〜特徴量p(x,y|X+w,Y+w)の集合が反射プロファイル情報72である。すなわち、制御装置100は、部分画像M(X−w,Y−w|x,y)〜部分画像M(X+w,Y+w|x,y)から特徴量p(x,y|X−w,Y−w)〜特徴量p(x,y|X+w,Y+w)を抽出することで反射プロファイル情報72を生成する。
ここで、特徴量p(x,y|X,Y)の括弧内のバーティカルバーの左側は、注目部位Aの撮像視野81内での位置である注目位置a(x,y)を意味する。特徴量p(x,y|X,Y)の括弧内のバーティカルバーの右側は、発光面40上のいずれの位置(X,Y)を発光させたときに得られた特徴量pであるかを意味する。すなわち、特徴量p(x,y|X,Y)は、注目部位A(注目位置a(x,y))に入射する光のうち、発光面40上の位置(X,Y)から入射する光に基づく値である。
XY座標をij座標に変換すると、特徴量p(x,y|X−w,Y−w)〜特徴量p(x,y|X+w,Y+w)は、特徴量p(a|−w,−w)〜特徴量p(a|w,w)と表現することができる。特徴量p(a|−w,−w)とは、注目部位Aに入射する光のうち、注目位置a(x,y)に対応する発光面40上の位置(X,Y)を基準位置としたij座標内の位置(−w、−w)から入射する光に基づく値である。
ここで、入力画像D(X,Y)は、発光面40上の位置(X,Y)に設定された部分領域43から照射されて注目部位Aに反射した光のうち、カメラ8に入射する光によって生成される。また、特徴量p(x,y|X,Y)は、発光面40上の位置(X,Y)から対象物Wに入射する光が注目部位Aに反射してカメラ8に入射する光の強度を示す値である。すなわち、特徴量p(x,y|X,Y)は、位置(X,Y)から照射された光が注目部位Aに反射してカメラ8に入射する光の度合いを示す情報といえる。よって、特徴量p(x,y|X−w,Y−w)〜特徴量p(x,y|X+w,Y+w)の集合によって構成された反射プロファイル情報72は、照射位置である発光面40内の位置(X,Y)と、その照射位置から照射された光が注目部位Aに反射してカメラ8に入射する光の度合いとの関係を示す情報といえる。
また、反射プロファイル情報72は、発光面40上のXY座標ではなく、注目位置aと対応関係にある発光面40上の位置を基準位置としたij座標で表現される。注目位置aと対応関係にある発光面40上の位置を基準位置としたij座標は、注目部位Aに対する相対位置に対応する座標ともいえる。反射プロファイル情報72がij座標で表現されるため、発光面40と注目部位Aとの位置関係の変化を反映させた反射プロファイル情報72を取得することができる。その結果、発光面40と注目部位Aとの位置関係に関わらず、注目部位Aごとに得られる反射プロファイル情報72を互いに同じ次元で比較することができる。
また、反射プロファイル情報72に含まれる特徴量pの範囲は式(2)に示す範囲に設定されているため、注目部位Aごとに得られる反射プロファイル情報72は、互いに、同じ範囲の情報である。その結果、制御装置100は、注目部位Aごとに得られる反射プロファイル情報72を互いに直接比較することができる。
[F.画像計測方法の概要]
反射プロファイル情報72に基づいて実行される画像計測方法を説明する。本実施の形態においては、属性ごとに予め登録されている反射プロファイル基準情報80に基づいて、計測位置bの属性を検査する。ここで、属性とは、対象物の状態を示すものである。属性は、単に欠陥があるか否かによって分類されてもよく、また、傷があるのか否か、あるいは汚れているか否かなどより詳細に分類されてもよい。また、反射プロファイル基準情報80は、画像計測を行なう際のレファレンスとなる情報である。
具体的には、制御装置100は、反射プロファイル情報72と反射プロファイル基準情報80との類似度Sを算出し、類似度Sに基づいて、反射プロファイル基準情報80が示す属性に、反射プロファイル情報72に対応する注目部位Aである計測部位Bが分類されるか否かを判断する。
[G.類似度Sの算出方法の流れ]
制御装置100は、反射プロファイル情報72と反射プロファイル基準情報80との類似度Sを算出する。具体的には、反射プロファイル基準情報80の一例であるモデル画像810と、反射プロファイル情報72をij座標にマッピングした表現形態で示されるマッピング画像540とを既知のパターンマッチングにより比較することで、類似度Sは算出される。
<反射プロファイル情報72のマッピング画像540への変換>
図10は、反射プロファイル情報72をマッピング画像540に変換する方法の一例を示す図である。図10に示す例において、制御装置100は、計測位置b(x,y)に対応する発光面40上の位置(X,Y)を基準位置とした座標系をij座標に、特徴量pをマッピングすることでマッピング画像540を生成する。ここで、計測位置bとは、計測部位Bの撮像視野81内の位置であって、注目位置aに対応する。マッピング画像540は、特徴量pの大きさに応じた濃淡度合いで示された濃淡値56を、ij座標にマッピングした画像である。たとえば、特徴量p(b|−w,−w)の大きさに応じた濃淡値56(b|−w,−w)は、ij座標の位置(−w,−w)にマッピングされる。制御装置100は、特徴量p(b|−w,−w)〜特徴量p(b|w,w)の各々を濃淡値56に変換して、濃淡値56(b|−w,−w)〜濃淡値56(b|w,w)を得る。制御装置100は、濃淡値56(b|−w,−w)〜濃淡値56(b|w,w)の各々をij座標にマッピングすることで、マッピング画像540を生成する。なお、図10においては、濃淡値56がマッピングされていく様子を分かり易くするために、濃淡値56を所定の面積を有する画像として示しているものとする(図11〜図14、図16、図19、および図20においても同様)。
<モデル画像810の生成方法>
モデル画像810は、属性が予め既知の特定部位Bに対する反射プロファイル情報72をマッピング画像540に変換した画像である。なお、特定部位Bは、属性が予め既知の注目部位Aである。
たとえば、傷が設けられた対象物Wを撮像して得られる画像内の、傷が設けられた特定部位Bに対応する特定位置bの反射プロファイル情報72を上記方法により取得して、上記方法によりマッピング画像540に変換することでモデル画像810を生成する。
図11は、モデル画像810の生成方法を説明するための図である。なお、以下では、特定部位Bの画像内の位置を特定位置bと称する。また、特定部位Bを含む対象物Wを、基準対象物Wとも称する。
図11に示す例では、基準対象物Wの第1特定部位Bk1に傷が、第2特定部位Bk2に打痕が、第3特定部位Bk3に汚れが、第4特定部位Bk4に凹みがそれぞれ設けられているものとする。
制御装置100は、図6〜図10に示したマッピング画像540を取得する方法と同じ方法で、第1特定部位Bk1〜第4特定部位Bk4に対応する第1特定位置bk1〜第4特定位置bk4の各々について、マッピング画像540を取得する。部分画像Mの抽出範囲は、好ましくは、第1特定位置bk1〜第4特定位置bk4の各々で互いに等しい。
制御装置100は、第1特定位置bk1〜第4特定位置bk4の各々について得られたマッピング画像540を、各特定位置bに設けられた欠陥のモデル画像810として記憶する。たとえば、第1特定位置bk1のマッピング画像540は、傷のモデル画像810として記憶される。
モデル画像810は、たとえば、記憶部の一例であるハードディスク130に検査情報136として記憶される。なお、記憶部は、制御装置100と通信可能なサーバや、制御装置100と直接接続可能な外部メモリ6、または、光学ディスク164Aなどであってもよい。
また、図11に示す例は、一の属性に対して、一のモデル画像810を対応させて保存する。すなわち、一の属性に対して、一の反射プロファイル基準情報80を対応させて保存する。たとえば、共通する属性を示す複数の特定部位Bの各々について反射プロファイル情報72を取得し、複数の反射プロファイル情報72の各々を共通する属性の反射プロファイル基準情報80として対応させてもよい。すなわち、一の属性に対して、複数の反射プロファイル基準情報80を対応させてもよい。
また、反射プロファイル基準情報80は、一の反射プロファイル情報72から得られる情報としたが、複数の反射プロファイル情報72を統計的に表現した情報であってもよい。たとえば、共通する属性を示す複数の特定部位Bの各々について反射プロファイル情報72を取得し、取得した複数の反射プロファイル情報の統計値を反射プロファイル基準情報80としてもよい。
<類似度Sの算出>
制御装置100は、生成したマッピング画像540と、モデル画像810とを比較し、マッピング画像540とモデル画像810との類似度Sを算出する。類似度Sの算出は、パターンマッチングにより行なわれる。類似度Sは、たとえば、マッピング画像540のモデル画像810との相関値であってもよい。相関値は、たとえば、正規化相互相関を用いて算出される。また、類似度Sは、たとえば、マッピング画像540およびモデル画像810の各々に対して空間フィルタなどの前処理を行った後に得られる情報同士の一致度であってもよい。
[H.モデル画像810を用いた画像計測]
図12は、モデル画像810を用いた画像計測の一例を示す図である。たとえば、計測位置b〜計測位置bが予め設定されているとする。制御装置100は、計測位置b〜計測位置bの各々のマッピング画像540を生成し、第1マッピング画像541〜第4マッピング画像544を取得する。ここで、第1マッピング画像541は計測位置bに対するマッピング画像540を意味し、同様に第2マッピング画像542は計測位置b2、第3マッピング画像543は計測位置b3、第4マッピング画像544は計測位置b、のマッピング画像540をそれぞれ意味する。
また、検査情報136として、第1モデル画像811と、第2モデル画像812がハードディスク130などの記憶部に記憶されているものとする。第1モデル画像811は、傷を示すモデル画像810であって、第2モデル画像812は、打痕を示すモデル画像810であるとする。
計測位置b〜計測位置bの各々の第1マッピング画像541〜第4マッピング画像544と、第1モデル画像811および第2モデル画像812とを比較し、各マッピング画像540の各モデル画像810との類似度Sを算出する。制御装置100は、算出した類似度Sが予め定められた閾値を超えるか否かに基づいて計測位置b〜計測位置bに対応する計測部位B〜計測部位Bの属性を判断する。たとえば、制御装置100は、第1マッピング画像541の第1モデル画像811に対する類似度S1|1に基づいて、計測位置bに対応する計測部位Bに傷があるか否かを判断し、第1マッピング画像541の第2モデル画像812に対する類似度S1|2に基づいて、計測部位Bに凹みがあるか否かを判断する。制御装置100は、たとえば、算出した類似度Sが予め定められた閾値よりも高い場合に、マッピング画像540とモデル画像810とが類似していると判断し、マッピング画像540に対応する計測部位Bが、モデル画像810に対応する属性に分類されると判定する。
図12に示す例では、第1マッピング画像541および第3マッピング画像543は、類似度S(S1|1,S1|2,S3|1,S3|2)に基づいて、いずれも、第1モデル画像811および第2モデル画像812のいずれにも類似していないと判断され、計測部位Bおよび計測部位Bには傷も打痕もないと判定されているものとする。一方、第2マッピング画像542は、類似度S(S2|1,S2|2)に基づいて、第1モデル画像811と類似しており、第2モデル画像812とは類似していないと判断され、計測部位Bには傷があり、打痕はないと判定されたものとする。同様に、第4マッピング画像544は、類似度S(S4|1,S4|2)に基づいて、第2モデル画像812と類似しており、第1モデル画像811とは類似していないと判断され、計測部位Bには打痕があり、傷はないと判定されたものとする。
このように、制御装置100は、計測部位Bに対応する計測位置bごとに得られる複数のマッピング画像540の各々について、モデル画像810との類似度Sを求める。制御装置100は、算出した類似度Sに基づいて、画像計測を行なう。マッピング画像540を計測位置bごとに得られるため、制御装置100は、欠陥があるか否かだけでなく、欠陥の種類と、欠陥の位置とを特定することができる。
なお、図12に示す例では、計測部位Bが予め定められているものとしたが、計測部位Bをすべて設定することで、対象物Wの表面全体を計測できるように、計測部位Bを設定してもよい。
[I.モデル画像810の登録方法]
モデル画像810を生成する際の特定位置bは、予め設定されていてもよく、また、ユーザによって指定されてもよい。たとえば、対象物Wを撮像して得られる画像から、ユーザが目視で所定の属性に分類される特定部位Bを画像から指定し、指定した位置を特定位置bとしてもよい。また、特定位置bのマッピング画像540をモデル画像810として登録する際に、ユーザが、対象物Wを撮像して得られる画像から属性を特定して、特定した属性とモデル画像810とを対応付けて記憶させてもよい。なお、以下では、モデル画像810を記憶部に記憶させることを、モデル画像810の登録ともいう。
図13は、モデル画像810の登録時のユーザインターフェイス画面600の一例を示す図である。図13に示すユーザインターフェイス画面600は、登録タブ610が選択されることで、表示部102に表示される。なお、図13においては、登録タブ610以外のタブを省略しているものの、他に、カメラ8に対する設定を行なうための「カメラ設定」タブや、取得した画像データに対し実行する処理内容を設定するための「画像処理設定」タブなどの他の設定に関するタブを設けてもよい。
ユーザインターフェイス画面600は、第1画像表示領域620と、第1表示設定領域630と、第2画像表示領域640と、第2表示設定領域650と、登録先選択領域660と、表示画像選択領域670と、指示領域680とを含む。
第1画像表示領域620は、カメラ8が撮像した画像を表示する領域である。ユーザは、入力部104の一例であるマウスなどを操作して、第1画像表示領域620に表示された画像から、目視で特定部位Bに対応する特定位置bを特定して選択する。図13においては、選択された特定位置bを示す選択領域622が第1画像表示領域620に表示される。なお、特定部位Bは、ある特定の位置を示すものであっても、所定の範囲を示すものであってもよい。すなわち、特定部位Bに対応する特定位置bは1画素から構成されるものであっても、複数画素から構成されるものであってもよい。なお、選択領域622は、特定位置bの範囲に対応した形状であることが好ましい。たとえば、選択領域622は、特定位置bが1画素から構成される場合は、選択領域622は点で示され、特定位置bが複数画素から構成される場合は、選択領域622は所定の範囲の領域で示される。なお、特定部位Bは特定部位Bの表面状態による反射特性が反射プロファイル情報72に反映される程度の範囲を示すものであることが好ましい。
特定位置bが選択された状態で、指示領域680の取得ボタン682が選択されると、選択領域622が示す位置のマッピング画像540を制御装置100が生成する。このとき、第2表示設定領域650において、取得値表示タブ652が選択されている場合に、第2画像表示領域640に、制御装置100が生成した選択領域622が示す特定位置bのマッピング画像540が表示される。
第2画像表示領域640は、マッピング画像540を表示する領域である。第2表示設定領域650は、第2画像表示領域640に表示するマッピング画像540の種類を設定するための領域である。取得値表示タブ652は、第1画像表示領域620の選択領域622が示す位置のマッピング画像540を第2画像表示領域640に表示するためのタブである。モデル表示タブ654は、表示画像選択領域670において選択されているモデル画像810を第2画像表示領域640に表示するためのタブである。
なお、取得値表示タブ652と、モデル表示タブ654とを両方選択することができる構成であってもよく、取得値表示タブ652およびモデル表示タブ654の両方が選択されると、マッピング画像540とモデル画像810とが互いに異なる態様で第2画像表示領域640に表示されるようにしてもよい。また、ユーザインターフェイス画面600は、第1画像表示領域620において選択されている特定位置bのマッピング画像540を表示する領域と、表示画像選択領域670において選択されているモデル画像810を表示する領域とを備えてもよい。
登録先選択領域660は、第2画像表示領域640に表示されているマッピング画像540をモデル画像810として登録する場合の登録先と、当該モデル画像810が示す属性である計測結果を登録するために用いる領域である。たとえば、ユーザがマウスなどの入力部104からモデルタブ662を選択するとプルダウンメニューが表示部102に表示され、第2画像表示領域640に表示されているマッピング画像540を登録するときの登録先を、ユーザはプルダウンメニューの中から選択することができる。また、ユーザがカテゴリタブ664を選択するとプルダウンメニューが表示部102に表示され、第2画像表示領域640に表示されているマッピング画像540を登録するときのカテゴリを、ユーザはプルダウンメニューの中から選択することができる。カテゴリとは、計測結果を示す情報であって、特定部位Bの属性を示す情報である。登録先とカテゴリとが選択された状態で、登録ボタン686が操作されると、第2画像表示領域640に表示されているマッピング画像540が選択されたカテゴリのモデル画像810として保存される。なお、カテゴリタブ664を選択した時に表示されるプルダウンメニュー内のカテゴリの名称を変更することができる構成であってもよい。
表示画像選択領域670は、第2画像表示領域640に表示するモデル画像810を選択するための領域である。たとえば、ユーザがマウスなどの入力部104からカテゴリタブ572を選択するとプルダウンメニューが表示部102に表示され、第2画像表示領域640に表示させたいモデル画像810のカテゴリをユーザはプルダウンメニューの中から選択することができる。選択されたカテゴリに対して一のモデル画像810しか登録されていない場合は、モデルタブ574は選択できないものの、選択されたカテゴリに対して複数のモデル画像810が登録されている場合は、モデルタブ574を選択することができる。モデルタブ574が選択されると、第2画像表示領域640に表示させたいモデル画像810をユーザはプルダウンメニューの中から選択することができる。
指示領域680は、取得ボタン682、分類ボタン684、登録ボタン686、および戻るボタン688を含む。
取得ボタン682は、選択領域622が示す位置のマッピング画像540を取得するためのボタンである。取得ボタン682が操作されると、選択領域622が示す位置のマッピング画像540を制御装置100が生成する。このとき、第2表示設定領域650の取得値表示タブ652が選択されていれば、第2画像表示領域640に生成された選択領域622が示す位置のマッピング画像540が表示される。
登録ボタン686は、第2画像表示領域640に表示されているマッピング画像540を登録先選択領域660に示された条件でモデル画像810として登録するためのボタンである。登録ボタン686が操作されると、第2画像表示領域640に表示されているマッピング画像540が、登録先選択領域660において選択されているカテゴリのモデル画像810として、登録先選択領域660において選択されている登録先に保存される。戻るボタン688が選択された場合、たとえば、ユーザインターフェイス画面600が表示部102から消去される。
分類ボタン684は、第1画像表示領域620に表示されている画像に対して画像計測を行なった場合に得られる結果を取得するためのボタンである。たとえば、分類ボタン684が操作されると、画像計測が行われ、撮像視野81内に位置する対象物Wに対する画像計測結果が得られる。この時、第1表示設定領域630において、分類結果表示タブ632が選択されている場合、得られた画像計測結果が第1画像表示領域620に反映される。
撮像視野81内に位置する対象物Wに対する画像計測は、撮像視野81内の全ての位置についてマッピング画像540が生成され、マッピング画像540に基づいて登録されているモデル画像810との類似度Sに基づいて各位置に対応する対象物W上の部位(表面)がモデル画像810に対応する属性に分類されるか否かが判断されることにより行われる。撮像視野81内の全ての位置は、撮像視野81内の各画素位置であってもよく、また、複数画素から構成される領域であってもよい。また、撮像視野81内の全領域を計測対象としなくとも、少なくとも、対象物Wが位置する領域を計測対象とすればよい。また、ユーザによって、計測する範囲を指定できるような構成であってもよい。
図14は、第2画像表示領域640の表示例を示す図である。図14には、ユーザインターフェイス画面600の第2画像表示領域640だけを代表して示している。また、図14においては、一例として、ユーザが、傷があると特定した特定部位Bに対応する特定位置bのマッピング画像540をモデル画像810として登録する場合を考える。
図14(a)においては、特定位置bのマッピング画像540が第2画像表示領域640に表示されているものとする。図14(a)が表示されている状態で、表示画像選択領域670において傷のカテゴリに分類されているモデル画像810を選択して、モデル表示タブ654を選択すると、第2画像表示領域640の表示が図14(b)に示す表示に切り替わる。具体的には、すでに登録されている傷を示すモデル画像810が第2画像表示領域640に表示される。
また、図14(b)に示した状態で取得値表示タブ652が選択されると、第2画像表示領域640の表示は、図14(a)に示す表示に切り替わる。
このように、実測したマッピング画像540と、すでに登録されているモデル画像810とを同じ第2画像表示領域640上で比較することができる。そのため、実測したマッピング画像540が、登録されているモデル画像810と類似しているか否かを、実際に目で確認することができる。
図15は、第1画像表示領域620の表示態様の変遷の一例を示す図である。たとえば、図15(a)に示すように、第1画像表示領域620に表示された対象物Wの外観画像から、ユーザは、欠陥のある箇所を選択した状態で、取得ボタン682を押すと、第2画像表示領域640に欠陥が設けられた部分のマッピング画像540が表示される。ユーザは、選択した箇所に設けられた欠陥の種類を第1画像表示領域620に表示された外観画像から特定し、登録先選択領域660のカテゴリタブ664を操作して選択した箇所のマッピング画像540を特定した欠陥の種類のモデル画像810として登録する。
たとえば、図15(a)に示す例では、傷の設けられた位置を選択し、その位置のマッピング画像540を傷のモデル画像810として登録しているものとする。モデル画像810を登録するために登録ボタン686を操作したのち、分類ボタン684を操作すると、登録したモデル画像810に基づいて画像計測が行われる。このとき、分類結果表示タブ632を選択した状態にしておくと、図15(b)に示すように、登録したモデル画像810が示すカテゴリに分類される領域の表示態様が異なる態様で表示される。また、このとき、複数のカテゴリのモデル画像810が登録されている場合、カテゴリの種類ごとに異なる表示態様で領域が表示される。
図15(b)に示す例では、傷および汚れに対応するモデル画像がそれぞれ登録されているものとする。この状態で、分類ボタン684が操作されると、傷があると判断された位置には、マスク画像624Aが重ねて表示され、汚れがあると判断された位置にはマスク画像624Bが重ねて表示される。ユーザは、第1画像表示領域620に表示されたマスク画像624Aとマスク画像624Bとが表示された位置の外観画像を確認することで、分類が正しく行われているかを容易に認識することができる。分類が正しく行われていない場合、分類が正しく行われていない位置のマッピング画像540を新たにモデル画像810に登録すればよい。これにより、分類の精度を上げることができる。
[J.画像計測結果の表示方法の一例]
図16は、計測結果の表示方法の一例を示す図である。制御装置100は、撮像視野81内の全ての位置についてマッピング画像540を生成し、マッピング画像540に基づいて登録されているモデル画像810との類似度Sに基づいて各位置に対応する対象物W上の部位(表面)がモデル画像810に対応する属性(カテゴリ)に分類されるか否かを判断する。撮像視野81内の全ての位置は、撮像視野81内の各画素位置であってもよく、また、複数画素から構成される領域であってもよい。また、撮像視野81内の全領域を計測対象としなくとも、少なくとも、対象物Wが位置する領域を計測対象とすればよい。また、ユーザによって、計測する範囲を指定できるような構成であってもよい。
たとえば、画像計測結果の表示は、撮像視野を示す第1画像を表示する撮像領域710と、実際に生成されたマッピング画像540を表示する結果表示領域720と、モデル画像810を表示する基準情報表示領域730とを含み、これらは、画像計測を行なった後に表示部102に表示される。
制御装置100は、複数の計測位置bのうち、属性の共通する計測位置bを示すことが可能である。たとえば、制御装置100は、属性の共通する計測位置bを同じ態様で示す。図16に示す例では、撮像領域710に属性の共通する計測位置bがマスク画像712A〜マスク画像712Dによって示されている。すなわち、撮像領域710には、カメラ8が取得する画像に計測結果を反映して表示する。
また、制御装置100は、計測位置bの反射プロファイル情報72と、反射プロファイル基準情報80とを同時または順次に出力することができる。具体的には、ユーザが、入力部104を介して撮像領域710に表示された撮像視野81から特定の属性を有すると判断された計測位置bを選択すると、結果表示領域720に計測位置bのマッピング画像540を表示するとともに、基準情報表示領域730に特定の属性に対応するモデル画像810を表示する。なお、基準情報表示領域730の表示を複数のモデル画像810の中から選択できるようにしてもよい。また、基準情報表示領域730の表示内容の選択と、結果表示領域720の表示内容の選択とを独立して設定できるようにしてもよい。
[K.機能構成]
図17は、制御装置100の機能構成を示す模式図である。制御装置100は、画像処理プログラム132を実行することで、図17に示す各構成を制御して、画像計測を行う。
制御装置100は、制御装置100は、たとえば、発光制御部12と、撮像制御部14と、検出部11と、抽出部16と、マッピング画像生成部17と、画像計測部15とを備える。
検出部11は、所定の検査位置まで対象物Wが搬送されたことを示す信号(検査開始信号)がPLC200から通知されたことを検出する。検出部11は、検査開始信号を検出すると、画像計測を行なうために用いる入力画像Dを取得するための工程Ph1を実行するため、発光制御部12および撮像制御部に指示する(取得指示)。発光制御部12と、撮像制御部14とが、工程Ph1を実行するための取得部として機能する。
発光制御部12は、取得指示に従い、発光面40上に設定された複数の部分領域43を順次発光させるように照明装置4を制御する。
撮像制御部14は、部分領域43の順次発光に対応して撮像視野81の画像を順次生成するようにカメラ8を制御する。撮像制御部14は、カメラ8が生成した入力画像Dと、入力画像Dが撮影されたときに発光していた部分領域43の発光面40上の位置(X,Y)とを対応付けて、記憶部の一種であるメインメモリ120に保存する。
検出部11は、入力画像Dがメインメモリ120に保存されると、抽出部16に抽出指示を出す。抽出部16は、検査情報136に含まれる計測位置bの情報に基づいて、メインメモリ120に保存されている複数の入力画像Dの各々から、計測位置bに対応する部分画像Mを抽出し、部分画像セットNを生成する。計測位置bが複数設定されて場合、設定されている計測位置bの数だけ、部分画像セットNを生成する。また、検査情報136には、キャリブレーション情報が含まれ、抽出部16は、計測位置bごとに用いる入力画像Dの範囲を決定する。具体的には、計測位置bに対応する発光面40上の位置(X,Y)を基準とした所定範囲内に設定された部分領域43が発光した状態で生成された入力画像Dから部分画像Mを抽出する。
抽出部16は、設定されている計測位置bの全てに対して部分画像セットNを生成すると、マッピング画像生成部17に反射プロファイル情報72であるマッピング画像540を生成することを指示する(生成指示)。マッピング画像生成部17は、部分画像セットNごとにマッピング画像540を生成する。すなわち、マッピング画像生成部17は、反射プロファイル情報72をマッピング画像540という表現形態に変換する変換部として機能する。
すなわち、抽出部16およびマッピング画像生成部17が、複数の入力画像Dから反射プロファイル情報74を生成する生成部として機能する。
画像計測部15は、算出部152および判定部154を含む。算出部152は、生成されたマッピング画像540ごとに、検査情報136に含まれるモデル画像810との類似度Sを算出する。判定部154は、算出された類似度Sに基づいて、マッピング画像540に対応する計測部位Bがモデル画像810の示す属性に分類されるか否かを判定する。判定部154は、得られた判定結果を表示部102に表示してもよく、あるいは、PLC200に判定結果を画像計測結果として送信してもよい。
制御装置100は、登録部13を備えてもよい。検出部11は、入力部104がユーザの登録操作を受け付けたことに基づいて、登録部13に登録指示をする。登録部13は、生成部18が生成したマッピング画像540を登録操作により入力されたカテゴリのモデル画像810として登録する。ここで、生成部18が生成したマッピング画像540とは、たとえば、図13の取得ボタン682が操作されたことで生成されるマッピング画像540などである。たとえば、制御装置100は、設定プログラム134を実行することで、図17に示す各構成を制御して、登録に関する処理を実行する。
制御装置100は、出力部19を備えてもよい。検出部11は、入力部104がユーザの表示切替操作を受け付けたことに基づいて、出力部19に出力指示をする。出力部19は、表示切替操作の内容に基づいて、表示部102の表示を切り替える。たとえば、モデル画像810や、計測位置bのマッピング画像540を表示する。すなわち、図13〜図15に示すモデル登録時の表示や、図16に示す画像計測時の表示を出力部19は制御する。
[L.フローチャート]
図18は、画像計測処理のフローチャートである。画像計測処理は、CPU110が、画像処理プログラム132を実行することによって実現される処理である。画像計測処理は、所定の検査位置まで対象物Wが搬送されたことを示す信号(検査開始信号)がPLC200から通知されるたびに実行される。
ステップS11において、CPU110は、発光面40上にすべての部分領域43を設定したか否かを判断する。すべての部分領域43とは、予め設定されている複数種類の部分領域43のすべてを意味する。たとえば、発光面40上の異なる位置に設定されている各部分領域43が、設定されている全ての位置に設定されたか否かを、CPU110は判断する。複数種類の部分領域43は、複数種類の部分領域43のすべてを発光した場合に、予め定められた範囲の発光面40上の範囲が発光されるように設定されればよい。予め定められた範囲は、対象物Wの大きさや、撮像視野81などによって任意に設定される範囲である。発光面40上に設定されていない部分領域43があると判定した場合(ステップS11においてNO)、CPU110は処理をステップS12に切り換える。
ステップS12において、部分領域43を発光面40上に設定して、設定された部分領域43を発光させる。
ステップS13において、CPU110は、カメラ8に、入力画像Dを生成させる。CPU110は、ステップS11においてYESと判定するまで、ステップS12とステップS13とを繰り返す。これにより、CPU110は、複数種類の部分領域43の各々を発光させることができるとともに、複数種類の部分領域43の各々の発光に同期して入力画像Dを生成することができる。
発光面40上のすべての位置に部分領域43が設定されたと判定した場合(ステップS11においてYES)、CPU110は処理をステップS14に切り換える。
ステップS14において、CPU110は、すべての計測位置bについての部分画像Mが抽出されたか否かを判定する。すべての計測位置bについての部分画像Mが抽出されたと判定した場合(ステップS14においてYES)、CPU110は処理を終了する。部分画像Mが抽出されていない計測位置bがあると判定した場合(ステップS14においてNO)、CPU110は処理をステップS15に切り換える。
ステップS15において、CPU110は、一の計測位置bについて部分画像Mを抽出する。具体的には、CPU110は、計測位置bの位置に対応する発光面上の位置(X,Y)を基準位置として、予め定められた範囲内に含まれる位置に設定された部分領域43を発光した時に生成された入力画像Dから部分画像Mを抽出する。
ステップS16において、CPU110は、マッピング画像540を生成する。具体的には、CPU110は、部分画像Mが示す特徴量pを、各部分画像Mの抽出元の入力画像Dを生成する時に発光させた部分領域43の位置に対応付けてマッピングすることでマッピング画像540を生成する。
すなわち、CPU110は、ステップS15とステップS16とを行なうことで、複数の入力画像Dから反射プロファイル情報74であるマッピング画像540を生成する。
ステップS17において、CPU110は、モデル画像810とマッピング画像540との類似度を算出する。
ステップS18において、CPU110は、類似度に基づいて計測位置bの状態がモデル画像810の示す計測結果が示す状態であるか否かを判断する。たとえば、CPU110は、予め定められた閾値を基準に判断する。
ステップS19において、CPU110は、すべてのカテゴリについて判断がされたか否かを判定する。判断がされていないカテゴリがあると判定された場合(ステップS19において、NO)、CPU110は、すべてのカテゴリについて判断がされたと判定するまで(ステップS19において、YES)、ステップS16とステップS17とを繰り返す。
すべてのカテゴリについて判断がされたと判定すると(ステップS19において、YES)、CPU110は、ステップS20に切り替える。
ステップS20において、CPU110は、計測位置bの計測結果を出力する。CPU110は、すべての計測位置bについての部分画像Mが抽出されたと判定する(ステップS14においてYES)まで、ステップS15〜ステップS18を繰り返す。すなわち、ステップS15〜ステップS18を繰り返すことにより、CPU110は、反射プロファイル情報74に基づく画像計測を行なう。
[M.検査方法の第1の変形例]
本実施の形態において、反射プロファイル基準情報80の一例として反射プロファイル情報72をマッピング画像540に変換したモデル画像810を示した。すなわち、本実施の形態において、反射プロファイル基準情報80を反射プロファイル情報72と直接比較できる表現形態で表されるものを例に挙げたが、反射プロファイル基準情報80は、反射プロファイル情報72と直接比較できる表現形態で表される情報に限られない。
たとえば、共通する属性を示す複数の特定部位Bの各々について反射プロファイル情報72を取得し、取得した複数の反射プロファイル情報の統計値を反射プロファイル基準情報80としてもよい。統計値は、たとえば、共通する属性を示す複数の特定部位Bの各々について得られた複数の反射プロファイル情報に共通する特徴であってもよい。制御装置100は、抽出した特徴を計測位置bの反射プロファイル情報72が備えるか否かに基づいて画像計測を行なってもよい。
図19および図20は、検査方法の第1の変形例について説明するための図である。たとえば、図19および図20に示す例では、金属表面に均一に加工を施す場合に、加工が施されていない箇所が所定範囲を超える場合に、欠陥ありと判断される。
たとえば、ヘアライン加工が施されている部位については、光の反射方向が特定の範囲に散らばるため、図19に示すような基準位置に対して偏りをもった像がマッピング画像540に現れる。これに対して、加工が施されていない平らな部位については、光は一方向に反射されるため、基準位置付近にピークを持つ偏りのない像がマッピング画像に現れる。すなわち、ヘアライン加工が施されているという属性に対応する反射プロファイル情報72の特徴は、基準位置に対して偏りをもった像がマッピング画像540に現れることである。
たとえば、図20に示す例では、制御装置100は、撮像視野81内の計測位置b〜bにおける反射プロファイル情報72(b)〜反射プロファイル情報72(b)を取得する。制御装置100は、反射プロファイル情報72(b)〜反射プロファイル情報72(b)の各々に対して、上記特徴を備えるか否かを判定し、特徴を備えない計測位置bを抽出して、その面積を求める。制御装置100は、求めた面積が予め定められた閾値以上であれば、不良品、すなわち、加工が均一に施されていないと判断する。
特徴を備えているか否か、すなわち、ヘアライン加工が施されているか否かは、次のような方法で判断する。制御装置100は、反射プロファイル情報72(b)〜反射プロファイル情報72(b)からマッピング画像540の一例である2値画像546(b)〜2値画像546(b)を生成する。制御装置100は、2値画像546に示された像548の主軸角と扁平率とを、像548に対して楕円近似をすることで算出する。具体的には、制御装置100は、2値画像546(b)〜2値画像546(b)の各々に示された像548(b)〜像548(b)の各々に対して楕円近似をし、楕円の主軸角と扁平率とを算出する。制御装置100は、算出した扁平率が閾値以上であれば、特徴を備えている、すなわち、加工が施されていると判断する。なお、主軸角を利用することで、ヘアライン加工の方向を検査することもできる。
このように、第1の変形例においては、特定の属性を有する特定部位Bの反射プロファイル情報の特徴を規定し、この特徴を反射プロファイル基準情報80とする。そして、反射プロファイル基準情報80で規定された特徴を有しているか否かに基づいて、特定の属性を有する部位であるか否かが判定される。すなわち、本実施の形態においては、反射プロファイル基準情報80として、反射プロファイル情報72と直接比較できる表現形態で保存している例を示したが、反射プロファイル基準情報80は反射プロファイル情報72と直接比較できる表現形態に限られない。
[N.検査方法の第2の変形例]
本実施の形態および第1の変形例においては、いずれも、属性が既知の特定部位Bの反射プロファイル情報である反射プロファイル基準情報80に基づいて画像計測が行なわれる例を示した。すなわち、反射プロファイル基準情報80を利用して、画像計測を行なう例を示した。なお、反射プロファイル基準情報80を利用しなくともよい。
第2の変形例における検査方法は、反射プロファイル基準情報80を利用しない方法である。たとえば、制御装置100は、撮像視野81内の各計測位置bから得られる反射プロファイル情報72同士を比較し、他の反射プロファイル情報72とは異なる反射プロファイル情報72を抽出し、抽出した反射プロファイル情報72を示す計測位置bの面積を算出することで画像計測を行なってもよい。このような検査方法によっては、たとえば、対象物の表面形状が均一であるか否かの検査を行なうことができる。
図21は、検査方法の第2の変形例について説明するための図である。制御装置100は、撮像視野81内のすべての計測位置bについて反射プロファイル情報72を取得する。図21に示す例では、計測位置b〜計測位置bが設定されているものとする。制御装置100は、計測位置b〜計測位置bの各々について反射プロファイル情報72を生成することで、反射プロファイル情報72(b)〜反射プロファイル情報72(b)を取得する。
制御装置100は、反射プロファイル情報72(b)〜反射プロファイル情報72(b)の各々を直接比較することができるように、反射プロファイル情報を規格化した反射特性値Rを算出して、反射特性値R〜反射特性値Rを得る。反射特性値Rは、たとえば、図21に示すマッピング画像540に現れる像の形状が類似していれば近い値となり、類似していなければ離れた値となるような値である。
制御装置100は、反射特性値R〜反射特性値Rの中から、ハズレ値を抽出する。図21に示す例では、たとえば、反射特性値R,R,Rが他の反射特性値から外れた値(ハズレ値)として抽出されたものとする。制御装置100は、反射特性値R,R,Rに対応する計測位置b,b,bの数をカウントする。ここで、計測位置b,b,bの数をカウントして得られるカウント値を算出することは、異常な反射特性を示す部位についての、画像上における「面積」を求めていることに相当する。
[O.照明装置とカメラと対象物との位置関係の変形例]
本実施の形態においては、カメラ8と対象物Wとの間に照明装置4が配置されている例を示した。なお、照明装置4とカメラ8と対象物Wとの位置関係は同軸上に限るものではなく、照明装置4からの光が対象物Wに照射され、カメラ8の撮像視野81に対象物Wの少なくとも一部が含まれるような位置関係であればよい。
図22は、照明装置4とカメラ8と対象物Wとの位置関係の変形例を示す図である。たとえば、カメラ8の光軸上に照明装置4を配置しなくともよい。図22に示す例では、カメラ8の光軸上に照明装置4が配置されていないため、照明装置4として、透過性を有しないものを採用することができる。
[P.照明装置の変形例]
本実施の形態においては、照明装置4の一例として透明な有機EL照明を例に挙げた。なお、カメラ8と対象物Wとの間に照明装置4を配置する場合、照明装置4は、少なくとも撮像時の視野を遮らないような形状および、視野を遮らないような光学特性のうち少なくともいずれか一方を有していればよい。たとえば、一部に開口部が設けられた照明装置4や、一部が同軸落射照明で構成された照明装置4などであってもよい。図23は、照明装置の変形例を示す図である。変形例の照明装置400は、一部が同軸落射照明410で構成されており、他の部分は、透光性を有しない照明420で構成されている。
[Q.部分領域43の設定方法の変形例]
本実施の形態においては、各部分領域43は他の部分領域43と重ならないように設定されるものとした。なお、各部分領域43はその一部を他の部分領域43と重なるように設定されてもよい。たとえば、各部分領域43を他の部分領域43と重なるように設定することで、反射プロファイル情報の分解能を下げることなく、一の部分領域43を発光させたときの光量を確保することができる。
また、各照明要素41の発光強度を調整可能であって、各部分領域43を他の部分領域43と重なるように設定する場合に、照明装置4は、部分領域43の境界から中央に向かうに従って照明要素41の発光強度が大きくなるように部分領域43を発光させてもよい。この場合、部分領域の濃淡パターンは、ガウス分布のような形となる。このようにすることで、部分領域43を均等に発光させた場合に比べて、反射プロファイル情報の分解能を下げることなく、一の部分領域43を発光させたときの光量をさらに上げることができる。
[R.注目部位Aが特定の範囲を示す場合の反射プロファイル情報の生成方法]
本実施の形態において、計測部位Bや特定部位Bである注目部位Aは特定の位置を示すものであって、注目部位Aに対応する注目位置aは1点を示す情報であるとした。なお、注目部位Aは、特定の範囲を示す情報であってもよく、この場合に、注目位置aは特定の範囲に対応する画像内のある範囲を示す、範囲a’であってもよい。この場合、注目部位Aの反射プロファイル情報は、たとえば、範囲aに含まれる複数の注目位置aの各々について得られる反射プロファイル情報に基づいて生成してもよい。たとえば、注目部位Aの反射プロファイル情報は、複数の注目位置aの各々について得られる反射プロファイル情報を規格化した情報であってもよく、また、各反射プロファイル情報をij座標にマッピングしたときに得られる複数のマッピング画像を合成したような表現形態で表される情報であってもよい。また、部分画像Mの範囲を範囲aに対応させた範囲とすることで、注目部位Aの反射プロファイル情報を取得してもよい。
[S.その他の変形例]
本実施の形態において、反射プロファイル情報72は、計測位置bと対応関係にある発光面40上の位置を基準位置としたij座標で表現されるものとしたが、発光面40上のXY座標で表現されるものであってもよい。
本実施の形態において、画像計測を行なう際に、反射プロファイル情報72をマッピング画像540に変換し、マッピング画像540に基づいて画像計測を行なった。属性が既知の対象物から収集した多数の反射プロファイル情報72である学習データに対して、その分布を表現するパラメータ(例えば、平均、分散、共分散など)を算出して反射プロファイル基準情報80を構成し、計測時に得た反射プロファイル情報72に対して、反射プロファイル基準情報80から設計される識別器、またはニューラルネットワークを用いて類似度Sを求めてもよい。ここで、識別器としては、マハラノビス距離、部分空間法、サポートベクタマシン等を用いて良い。
[T.作用・効果]
以上のように、制御装置100は、反射プロファイル情報72という計測部位Bの反射特性を示す情報に基づいて画像計測を行なう。反射プロファイル情報72は、複数種類の部分領域43の各々を発光させた状態でカメラ8が撮像して得られる入力画像Dに基づいて生成される。つまり、発光面から照射された光が対象物に反射して撮像部に入る経路を通る光の度合いを、照射された発光面の位置ごと独立して得られ、その情報に基づいて対象物の画像計測を行なうため、多くの情報量に基づいた画像計測を行なうことができる。その結果、画像計測の性能を向上させることができる。さらに、画像計測において、対象物の種類に応じた照明条件を設定する必要がなく、撮像条件の決定に要する労力を軽減することができる。
また、制御装置100は、反射プロファイル基準情報80と反射プロファイル情報72との類似度Sを算出する。算出した類似度Sに基づいて計測部位Bの属性が判定される。画像計測において、計測部位Bの属性まで判定することができる。
また、反射プロファイル基準情報80は、属性が既知である基準対象物Wの特定部位Bの反射プロファイル情報である。そのため、計測したい内容に応じた基準対象物Wを用意し、その基準対象物Wの特定部位Bの反射プロファイル情報72を取得してするだけで反射プロファイル基準情報80を設定できる。
また、反射プロファイル基準情報80は、複数の反射プロファイル情報72を統計的に表現した情報であってもよい。つまり、反射プロファイル基準情報80は一の情報ではなく、複数の情報に基づいた情報であるため、計測精度を上げることができる。
また、ユーザが、入力部104を介して撮像領域710に表示された撮像視野81から特定の属性を有すると判断された計測位置bを選択すると、結果表示領域720に計測位置bnのマッピング画像540を表示するとともに、基準情報表示領域730に特定の属性に対応するモデル画像810を表示する。マッピング画像540およびモデル画像810はいずれも、ij座標にマッピングされた画像である。そのため、ユーザは、反射プロファイル情報と反射プロファイル基準情報とを同じ座標系で表現することができ、かつ、その2つの情報を同時に表示することができるため、計測結果に対する説明性が担保される。
また、モデル画像として、第1モデル画像811および第2モデル画像812を含み、計測位置b〜計測位置bの各々の第1マッピング画像541〜第4マッピング画像544と、第1モデル画像811および第2モデル画像812とを比較することで、計測位置b〜計測位置bに対応する計測部位B〜計測部位Bの属性を分類することができる。そのため、各計測部位Bの属性を、複数の属性のうちのいずれの属性であるかを分類することができる。
たとえば、欠陥検査を行なうような場合に、欠陥の有無だけでなく、欠陥の種類と、その欠陥の位置とを画像計測により特定することができる。
第2の変形例における検査方法においては、反射プロファイル基準情報80を利用せずに、撮像視野81内の各計測位置bから得られる反射プロファイル情報72同士を比較することで、各計測位置bの属性を判断する。反射プロファイル基準情報80を用意しなくともよいため、検査を開始するための準備として、設計者が行なわなければならないデータ入力、登録などの作業を簡略化することができる。
[U.付記]
以上のように、本実施の形態は以下のような開示を含む。
(構成1)
画像計測を行なう画像処理システム(1)であって、
対象物(W)を撮像する撮像部(8)と、
前記対象物(W)に向けられた発光面(40)を有する発光部(4)と、
前記発光面(40)のうち予め設定した複数種類の部分領域(43)の各々が発光するように、前記発光部(4)を制御する発光制御部(12)と、
前記複数種類の部分領域(43)の各々の発光に同期して撮像するように、前記撮像部(8)を制御する撮像制御部(14)と、
前記撮像部(8)が前記複数種類の部分領域(43)の各々の発光に同期させて撮像した複数の画像(D)をもとに得られる、前記発光面(40)内の位置(X,Y、i,j)と、当該位置から前記対象物(W)に照射される光(L)が当該対象物(W)の注目部位(A,B,B)に反射して前記撮像部(8)に入射する光(L)の度合いとの関係を示す反射プロファイル情報(70,72)を生成する生成部(18,16,17)と、
前記生成部(18,16,17)が生成した前記反射プロファイル情報(70,72)に基づいて前記対象物(W)の前記画像計測を行なう画像計測部(15)とを備える、画像処理システム。
(構成2)
前記画像計測部(15)は、
前記対象物(15)を撮像した画像(D)から生成された前記反射プロファイル情報(72,540)と、予め設定された反射プロファイル基準情報(80,810)との類似度(S)を算出する算出部(152)と、
前記算出部(152)が算出した前記類似度(S)を用いて、前記対象物(W)、または、前記注目部位(B)の属性を判断する判定部(154)とをさらに備える、構成1に記載の画像処理システム。
(構成3)
前記反射プロファイル基準情報(80,810)は、属性が既知である対象物(W)、または、当該対象物の特定部位(B)を撮像して得られる画像(D)から生成される前記反射プロファイル情報(72,540)である、構成2に記載の画像処理システム。
(構成4)
前記反射プロファイル基準情報(80)は、属性が互いに等しい複数の部位ごとに生成される複数の前記反射プロファイル情報を統計的に表現した情報である、構成3に記載の、画像処理システム。
(構成5)
前記反射プロファイル情報(72)は、前記複数の画像(D)の各々から得られる、当該画像(D)内の撮像視野内の注目点(a)に対応する輝度情報(p)および当該画像が撮像されたときに発光している前記部分領域(43)の当該注目点(a)に対する相対位置(i,j)に基づく情報であって、
前記相対位置(i,j)に対応する2軸以上の座標系に、前記輝度情報に対応する情報(56)を出力した表現形態により前記反射プロファイル情報(72)を出力する出力部(19)をさらに備え、
前記出力部(19)は、前記反射プロファイル基準情報(810)および前記対象物の前記反射プロファイル情報(540)を前記座標系上に順次または同時に出力する(720,730)、構成3または構成4に記載の画像処理システム。
(構成6)
前記反射プロファイル基準情報(810)は、第1属性に対応する1または複数の第1反射プロファイル基準情報(811)と、第2属性に対応する1または複数の第2反射プロファイル基準情報(812)とを含み、
前記判定部(154)は、前記対象物(W)上の複数の注目部位(B〜B)の各々について生成される前記反射プロファイル情報(72,540)に基づいて、当該複数の注目部位の属性を注目部位ごとに分類する、構成2〜構成5のうちいずれか1項に記載の、画像処理システム。
(構成7)
前記画像計測部(154)は、前記対象物上の複数の注目部位の各々について生成される前記反射プロファイル情報(72)の特徴量(R)を抽出するとともに、各注目部位に対応する前記特徴量を評価することで、前記複数の注目部位の各々の属性を判断する、構成1に記載の画像処理システム。
(構成8)
対象物(W)を撮像する撮像部(8)と、前記対象物(W)に向けられた発光面(40)を有する発光部(4)とを制御して画像計測を行なう画像処理装置(100)に実行される画像処理プログラム(132)であって、
前記発光面(40)のうち予め設定した複数種類の部分領域(43)の各々が発光するように、前記発光部(4)を制御するステップ(S11,S12)と、
前記複数種類の部分領域(43)の各々の発光に同期して撮像するように、前記撮像部(8)を制御するステップ(S13)と、
前記撮像部(8)が前記複数種類の部分領域(43)の各々の発光に同期させて撮像した複数の画像(D)をもとに得られる、前記発光面(40)内の位置(X,Y、i,j)と、当該位置から前記対象物(W)に照射される光(L)が当該対象物(W)の注目部位(A,B,B)に反射して前記撮像部(8)に入射する光(L)の度合いとの関係を示す反射プロファイル情報(70,72)を生成するステップ(S15,S16)と、
生成された前記反射プロファイル情報(70,72)に基づいて前記対象物(W)の前記画像計測を行なうステップ(S17,S18)とを備える、画像処理プログラム。
(構成9)
対象物(W)を撮像する撮像部(8)と、前記対象物(W)に向けられた発光面(40)を有する発光部(4)とを制御して画像計測を行なう画像処理装置(100)であって、
前記発光面(40)のうち予め設定した複数種類の部分領域(43)の各々が発光するように、前記発光部(4)を制御する発光制御部(12)と、
前記複数種類の部分領域(43)の発光の各々に同期して撮像するように、前記撮像部(8)を制御する撮像制御部(14)と、
前記撮像部(8)が前記複数種類の部分領域(43)の各々の発光に同期させて撮像した複数の画像(D)をもとに得られる、前記発光面(40)内の位置(X,Y、i,j)と、当該位置から前記対象物(W)に照射される光(L)が当該対象物(W)の注目部位(A,B,B)に反射して前記撮像部(8)に入射する光(L)の度合いとの関係を示す反射プロファイル情報(70,72)を生成する生成部(18,16,17)と、
前記生成部(18,16,17)が生成した前記反射プロファイル情報(70,72)に基づいて前記対象物(W)の前記画像計測を行なう画像計測部(15)とを備える、画像処理装置。
(構成10)
対象物(W)の外観画像を用いて画像計測を行なう画像処理システム(1)であって、
前記対象物(W)を撮像する撮像部(8)と、
前記撮像部(8)と前記対象物(W)までの間に配置されるとともに、前記対象物に向けられた発光面(40)を有する発光部(4)と、
予め定められた大きさの単位部分領域(43)を前記発光面(40)上の異なる位置(X,Y)に順次設定して発光させるように、前記発光部(4)を制御する発光制御部(12)と、
前記単位部分領域(43)の順次発光に対応して撮像視野(81)の画像である入力画像(D)を順次生成するように、前記撮像部(8)を制御する撮像制御部(14)と、
前記撮像視野(81)に設定される1または複数の計測位置(b)の各々について、順次生成された前記入力画像(D)の少なくとも一部から、当該計測位置(b)に対応する部分画像(M)をそれぞれ抽出する抽出部(16)と、
前記抽出部(16)により抽出された各々の部分画像(M)が示す特徴量(p)を、各部分画像(M)の抽出元の入力画像(D)を生成する時に発光させた前記単位部分領域(43)の位置(X,Y、i,j)に対応付けてマッピングしたマッピング画像(540)を、前記計測位置(b)ごとに生成する生成部(17)と、
計測結果が既知である領域(b)を撮像した画像から生成された前記マッピング画像(540)であるモデル画像(810)と、前記計測位置(b)ごとの前記マッピング画像(540)との類似度(S)を算出することで、前記対象物(W)の各計測位置(b)が前記既知の計測結果に相当する状態であるか否かを判断する画像計測部(15)とを備える、画像処理システム。
(構成11)
前記計測位置ごとの前記マッピング画像(540)は、前記計測位置(x,y)と対応関係にある前記発光面上の位置(X,Y)を基準位置として生成される、構成10に記載の画像処理システム。
(構成12)
前記生成部(17)は、前記順次生成された入力画像(D)のうち、前記基準位置(X,Y)を中心とした予め定められた範囲(X−w≦X≦X+w,Y−w≦Y≦Y+w)内に含まれる位置に設定された前記単位部分領域(43)を発光した時に生成された入力画像(D)から抽出された前記部分画像(M)を用いて、前記マッピング画像(540)を生成する、構成11に記載の画像処理システム。
(構成13)
前記モデル画像(810)は、第1計測結果に対応する第1モデル画像(811)と、第2計測結果に対応する第2モデル画像(812)とを含み、
前記画像計測部(15)は、
前記マッピング画像(540)の前記第1モデル画像(811)に対する第1類似度(S1|1)に基づいて、前記計測位置(b)が前記第1計測結果に相当する状態であるか否かを判断し、
前記マッピング画像(540)の前記第2モデル画像(812)に対する第2類似度(S1|2)に基づいて、前記計測位置(b)が前記第2計測結果に相当する状態であるか否かを判断する、構成10〜構成12のうちいずれか1に記載の画像処理システム。
(構成14)
計測結果が予め既知である基準計測位置(b)に対する前記マッピング画像(810)を、当該計測結果のモデル画像(810)として登録する登録部(13)を備える、構成10〜構成13のうちいずれか1に記載の画像処理システム。
(構成15)
ユーザによる入力を受け付ける入力部(104)と、
前記撮像部(8)により撮像された撮像視野の画像を表示する表示部(102)とをさらに備え、
前記生成部(18)は、前記入力部(102)により受け付けられた前記表示部に表示された前記撮像視野の画像に対する位置の指定(622)に基づいて、指定された当該位置から抽出される前記部分画像(M)に基づいて前記マッピング画像(540)を生成し、
前記登録部(13)は、前記生成部が生成した指定された前記位置(622)から抽出される前記部分画像(M)に基づく前記マッピング画像(540,640)を、前記入力部が受け付けた計測結果(664)のモデル画像(810)として登録する(686)、構成14に記載の画像処理システム。
今回開示された各実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。また、実施の形態および各変形例において説明された発明は、可能な限り、単独でも、組合わせても、実施することが意図される。
1 画像処理システム、4,400 照明装置、6 外部メモリ、8 カメラ、11 検出部、12 発光制御部、13 登録部、14 撮像制御部、15 画像計測部、16 抽出部、17 マッピング画像生成部、18 生成部、19 出力部、40 発光面、41 照明要素、43 部分領域、56 濃淡値、70,72,74 反射プロファイル情報、80 反射プロファイル基準情報、81 撮像視野、100 制御装置、102 表示部、104 入力部、110 CPU、120 メインメモリ、130 ハードディスク、132 画像処理プログラム、134 設定プログラム、136 検査情報、140 照明I/F、152 算出部、154 判定部、160 外部メモリI/F、164 光学ドライブ、164A 光学ディスク、172 表示コントローラ、174 入力I/F、180 カメラI/F、190 バス、200 PLC、300 ステージ、540 マッピング画像、600 ユーザインターフェイス画面、620 第1画像表示領域、630 第1表示設定領域、640 第2画像表示領域、650 第2表示設定領域、660 登録先選択領域、670 表示画像選択領域、680 指示領域、710 撮像領域、720 結果表示領域、730 基準情報表示領域、810 モデル画像、A 注目部位、B 計測部位、B 特定部位、D 入力画像、M 部分画像、N 部分画像セット、P,p 特徴量、R 反射特性値、S 類似度、W 対象物、W 基準対象物、a 注目位置、b 特定位置、b 計測位置。

Claims (9)

  1. 画像計測を行なう画像処理システムであって、
    対象物を撮像する撮像部と、
    前記対象物に向けられた発光面を有する発光部と、
    前記発光面のうち予め設定した複数種類の部分領域の各々が発光するように、前記発光部を制御する発光制御部と、
    前記複数種類の部分領域の各々の発光に同期して前記対象物の注目部位を撮像するように、前記撮像部を制御する撮像制御部と、
    前記撮像部が前記複数種類の部分領域の各々の発光に同期させて撮像した複数の画像に基づき、反射プロファイル情報を生成する生成部と、
    前記生成部が生成した前記反射プロファイル情報に基づいて前記対象物の前記画像計測を行なう画像計測部とを備え
    前記生成部は、
    前記複数の画像の各々に含まれる前記注目部位の画像から、前記複数種類の部分領域の各々の位置から前記対象物に照射される光が当該対象物の前記注目部位に反射して前記撮像部に入射する光の輝度値に関する値を抽出し、
    前記複数種類の部分領域の各々の位置と、抽出した前記光の輝度値に関する値との関係を示す前記反射プロファイル情報を生成する、画像処理システム。
  2. 前記画像計測部は、
    前記注目部位の画像から生成された前記反射プロファイル情報と、予め設定された反射プロファイル基準情報との類似度を算出する算出部と、
    前記算出部が算出した前記類似度を用いて、前記対象物、または、前記対象物の前記注目部位における状態を判断する判定部とをさらに備える、請求項1に記載の画像処理システム。
  3. 前記反射プロファイル基準情報は、状態が既知である対象物、または、当該対象物の特定部位を撮像して得られる画像から生成される前記反射プロファイル情報である、請求項2に記載の画像処理システム。
  4. 前記反射プロファイル基準情報は、状態が互いに等しい複数の部位ごとに生成される複数の前記反射プロファイル情報を統計的に表現した情報である、請求項3に記載の画像処理システム。
  5. 前記反射プロファイル情報は、前記複数の画像の各々から得られる、当該画像内の撮像視野内の注目点に対応する輝度情報および当該画像が撮像されたときに発光している前記部分領域の当該注目点に対する相対位置に基づく情報であって、
    前記相対位置に対応する2軸以上の座標系に、前記輝度情報に対応する情報を出力した表現形態により前記反射プロファイル情報を出力する出力部をさらに備え、
    前記出力部は、前記反射プロファイル基準情報および前記対象物の前記反射プロファイル情報を前記座標系上に順次または同時に出力する、請求項3または請求項4に記載の画像処理システム。
  6. 前記反射プロファイル基準情報は、第1状態に対応する1または複数の第1反射プロファイル基準情報と、第2状態に対応する1または複数の第2反射プロファイル基準情報とを含み、
    前記判定部は、前記対象物上の複数の前記注目部位の各々について生成される前記反射プロファイル情報に基づいて、当該複数の前記注目部位の状態前記注目部位ごとに分類する、請求項2〜請求項5のうちいずれか1項に記載の画像処理システム。
  7. 前記画像計測部は、前記対象物上の複数の前記注目部位の各々について生成される前記反射プロファイル情報の特徴量を抽出するとともに、各前記注目部位に対応する前記特徴量を評価することで、複数の前記注目部位の各々の状態を判断する、請求項1に記載の画像処理システム。
  8. 対象物を撮像する撮像部と、前記対象物に向けられた発光面を有する発光部とを制御して画像計測を行なう画像処理装置であって、
    前記発光面のうち予め設定した複数種類の部分領域の各々が発光するように、前記発光部を制御する発光制御部と、
    前記複数種類の部分領域の発光の各々に同期して前記対象物の注目部位を撮像するように、前記撮像部を制御する撮像制御部と、
    前記撮像部が前記複数種類の部分領域の各々の発光に同期させて撮像した複数の画像に基づき、反射プロファイル情報を生成する生成部と、
    前記生成部が生成した前記反射プロファイル情報に基づいて前記対象物の前記画像計測を行なう画像計測部とを備え
    前記生成部は、
    前記複数の画像の各々に含まれる前記注目部位の画像から、前記複数種類の部分領域の各々の位置から前記対象物に照射される光が当該対象物の前記注目部位に反射して前記撮像部に入射する光の輝度値に関する値を抽出し、
    前記複数種類の部分領域の各々の位置と、抽出した前記光の輝度値に関する値との関係を示す前記反射プロファイル情報を生成する、画像処理装置。
  9. 対象物を撮像する撮像部と、前記対象物に向けられた発光面を有する発光部とを制御して画像計測を行なう画像処理装置に実行される画像処理プログラムであって、
    前記発光面のうち予め設定した複数種類の部分領域の各々が発光するように、前記発光部を制御するステップと、
    前記複数種類の部分領域の各々の発光に同期して前記対象物の注目部位を撮像するように、前記撮像部を制御するステップと、
    前記撮像部が前記複数種類の部分領域の各々の発光に同期させて撮像した複数の画像に基づき、反射プロファイル情報を生成するステップと、
    生成された前記反射プロファイル情報に基づいて前記対象物の前記画像計測を行なうステップとを備え
    前記生成するステップは、
    前記複数の画像の各々に含まれる前記注目部位の画像から、前記複数種類の部分領域の各々の位置から前記対象物に照射される光が当該対象物の前記注目部位に反射して前記撮像部に入射する光の輝度値に関する値を抽出するステップと、
    前記複数種類の部分領域の各々の位置と、抽出した前記光の輝度値に関する値との関係を示す前記反射プロファイル情報を生成するステップとを含む、画像処理プログラム。
JP2018047629A 2018-03-15 2018-03-15 画像処理システム、画像処理装置、画像処理プログラム Active JP6973205B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018047629A JP6973205B2 (ja) 2018-03-15 2018-03-15 画像処理システム、画像処理装置、画像処理プログラム
CN201910111266.6A CN110274911B (zh) 2018-03-15 2019-02-12 图像处理系统、图像处理装置、存储介质
EP19156619.9A EP3540689B1 (en) 2018-03-15 2019-02-12 Measurement of an object based on a reflection profile
US16/275,334 US10939024B2 (en) 2018-03-15 2019-02-14 Image processing system, image processing device and image processing program for image measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047629A JP6973205B2 (ja) 2018-03-15 2018-03-15 画像処理システム、画像処理装置、画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2019158711A JP2019158711A (ja) 2019-09-19
JP6973205B2 true JP6973205B2 (ja) 2021-11-24

Family

ID=65628521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047629A Active JP6973205B2 (ja) 2018-03-15 2018-03-15 画像処理システム、画像処理装置、画像処理プログラム

Country Status (4)

Country Link
US (1) US10939024B2 (ja)
EP (1) EP3540689B1 (ja)
JP (1) JP6973205B2 (ja)
CN (1) CN110274911B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081259A (ja) * 2019-11-18 2021-05-27 株式会社寺岡精工 ラベル検査装置
CN118010637B (zh) * 2024-04-09 2024-06-07 江苏迪莫工业智能科技有限公司 一种生产工具用螺母检测系统及其检测方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
JPH11148807A (ja) * 1997-07-29 1999-06-02 Toshiba Corp バンプ高さ測定方法及びバンプ高さ測定装置
JP3668383B2 (ja) * 1998-02-27 2005-07-06 松下電器産業株式会社 電子部品実装装置
US6788411B1 (en) * 1999-07-08 2004-09-07 Ppt Vision, Inc. Method and apparatus for adjusting illumination angle
EP1277042B1 (en) * 2000-04-28 2011-04-06 Electro Scientific Industries, Inc. Directional lighting and method to distinguish three dimensional information
US7019826B2 (en) * 2003-03-20 2006-03-28 Agilent Technologies, Inc. Optical inspection system, apparatus and method for reconstructing three-dimensional images for printed circuit board and electronics manufacturing inspection
US7171037B2 (en) * 2003-03-20 2007-01-30 Agilent Technologies, Inc. Optical inspection system and method for displaying imaged objects in greater than two dimensions
JP2005214720A (ja) * 2004-01-28 2005-08-11 Fuji Photo Film Co Ltd 表面検査装置及び方法
DE102004056698B3 (de) * 2004-11-24 2006-08-17 Stratus Vision Gmbh Inspektionsvorrichtung für ein Substrat, das mindestens eine aufgedruckte Schicht aufweist
JP2007206797A (ja) * 2006-01-31 2007-08-16 Omron Corp 画像処理方法および画像処理装置
JP4843399B2 (ja) * 2006-07-31 2011-12-21 株式会社日立ハイテクノロジーズ 検査装置及び検査方法
US20080062424A1 (en) * 2006-09-07 2008-03-13 Mark Richard Shires Compact Ringlight
JP5853374B2 (ja) * 2010-03-12 2016-02-09 オムロン株式会社 照明装置
JP5807772B2 (ja) * 2011-06-23 2015-11-10 アイシン精機株式会社 欠陥検出装置およびその方法
JP5900037B2 (ja) * 2012-03-08 2016-04-06 オムロン株式会社 画像処理装置およびその制御方法
US9513215B2 (en) * 2013-05-30 2016-12-06 Seagate Technology Llc Surface features by azimuthal angle
KR101797423B1 (ko) * 2014-03-07 2017-11-13 신닛테츠스미킨 카부시키카이샤 표면 성상 지표화 장치, 표면 성상 지표화 방법 및 프로그램
JP6290720B2 (ja) * 2014-06-09 2018-03-07 株式会社キーエンス 検査装置、検査方法およびプログラム
JP6424020B2 (ja) * 2014-06-09 2018-11-14 株式会社キーエンス 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6403445B2 (ja) * 2014-06-09 2018-10-10 株式会社キーエンス 検査装置、検査方法およびプログラム
US9838612B2 (en) * 2015-07-13 2017-12-05 Test Research, Inc. Inspecting device and method for inspecting inspection target
US20170069075A1 (en) * 2015-09-04 2017-03-09 Canon Kabushiki Kaisha Classifier generation apparatus, defective/non-defective determination method, and program
JP2017067633A (ja) * 2015-09-30 2017-04-06 キヤノン株式会社 検査装置および物品製造方法
JP2017067632A (ja) * 2015-09-30 2017-04-06 キヤノン株式会社 検査装置および物品製造方法
JP2017120232A (ja) * 2015-12-28 2017-07-06 キヤノン株式会社 検査装置
JP6597469B2 (ja) * 2016-04-25 2019-10-30 株式会社デンソー 欠陥検査装置
JP2017198612A (ja) * 2016-04-28 2017-11-02 キヤノン株式会社 検査装置、検査システム、および物品製造方法
JP6684158B2 (ja) 2016-06-13 2020-04-22 株式会社キーエンス 画像処理センサ、画像処理方法
JP6745173B2 (ja) * 2016-09-06 2020-08-26 株式会社キーエンス 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
GB2560951B (en) * 2017-03-29 2020-06-17 Redlux Ltd Inspection of components for imperfections

Also Published As

Publication number Publication date
CN110274911B (zh) 2022-12-02
EP3540689A1 (en) 2019-09-18
US20190289178A1 (en) 2019-09-19
US10939024B2 (en) 2021-03-02
CN110274911A (zh) 2019-09-24
EP3540689B1 (en) 2022-04-27
JP2019158711A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
CN111220582A (zh) 荧光渗透检查系统和方法
US11295434B2 (en) Image inspection system and image inspection method
US20070176927A1 (en) Image Processing method and image processor
JP7010057B2 (ja) 画像処理システムおよび設定方法
JP5432864B2 (ja) 検査装置及び検査方法
JP7514259B2 (ja) カメラ部品が損傷しているかどうかを判定するためのシステムおよび方法
US8315457B2 (en) System and method for performing multi-image training for pattern recognition and registration
CN114136975A (zh) 一种微波裸芯片表面缺陷智能检测系统和方法
JP6917780B2 (ja) 画像検査装置
JP6973205B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム
US11012612B2 (en) Image inspection system and image inspection method
JP2021043010A (ja) 光学条件決定システム、及び光学条件決定方法
JP6045429B2 (ja) 撮像装置、画像処理装置及び画像処理方法
JP7127046B2 (ja) モデルベースのピーク選択を使用した3dプロファイル決定のためのシステム及び方法
JP7342616B2 (ja) 画像処理システム、設定方法およびプログラム
JP6835020B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム
JP4715703B2 (ja) 光学フレア検査装置および検査方法
JP7362324B2 (ja) 画像表示装置の検査方法、製造方法及び検査装置
JP2008111705A (ja) 欠陥検出方法、欠陥検出プログラムおよび検査装置
JP7079218B2 (ja) 撮像装置
JP2018205001A (ja) 画像検査装置
JP4967132B2 (ja) 対象物表面の欠陥検査方法
US11816827B2 (en) User interface device for autonomous machine vision inspection
JP7306858B2 (ja) 画像検査システム及び画像検査方法
JP6284428B2 (ja) 顕微鏡システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211018

R150 Certificate of patent or registration of utility model

Ref document number: 6973205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150