JPWO2019112040A1 - 検査システム、検査方法、プログラム、及び、記憶媒体 - Google Patents

検査システム、検査方法、プログラム、及び、記憶媒体 Download PDF

Info

Publication number
JPWO2019112040A1
JPWO2019112040A1 JP2019558296A JP2019558296A JPWO2019112040A1 JP WO2019112040 A1 JPWO2019112040 A1 JP WO2019112040A1 JP 2019558296 A JP2019558296 A JP 2019558296A JP 2019558296 A JP2019558296 A JP 2019558296A JP WO2019112040 A1 JPWO2019112040 A1 JP WO2019112040A1
Authority
JP
Japan
Prior art keywords
image
color
inspection system
determination unit
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019558296A
Other languages
English (en)
Other versions
JP7285502B2 (ja
Inventor
隆信 尾島
隆信 尾島
ジェッフリー フェルナンド
ジェッフリー フェルナンド
本村 秀人
秀人 本村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2019112040A1 publication Critical patent/JPWO2019112040A1/ja
Priority to JP2023044435A priority Critical patent/JP7407408B2/ja
Application granted granted Critical
Publication of JP7285502B2 publication Critical patent/JP7285502B2/ja
Priority to JP2023175297A priority patent/JP2024009912A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/251Colorimeters; Construction thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • G01N2021/555Measuring total reflection power, i.e. scattering and specular
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/8411Application to online plant, process monitoring
    • G01N2021/8416Application to online plant, process monitoring and process controlling, not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/8422Investigating thin films, e.g. matrix isolation method
    • G01N2021/8427Coatings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8845Multiple wavelengths of illumination or detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/8422Investigating thin films, e.g. matrix isolation method
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/94Investigating contamination, e.g. dust
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30156Vehicle coating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

課題は、対象物の表面の色の判定の精度を向上できる、検査システム、検査方法、プログラム、及び、記憶媒体を提供することである。検査システム(1)は、取得部(F11)と、判定部(F13)とを備える。取得部(F11)は、対象物(100)の表面の画像を取得する。判定部(F13)は、色判定処理を行う。色判定処理は、取得部(F11)で取得された対象物(100)の表面の画像から得られる、対象物(100)の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、対象物(100)の表面の色を判定する処理である。

Description

本開示は、検査システム、検査方法、プログラム、及び、記憶媒体に関する。特に、本開示は、画像により対象物の表面に関する判定を行う検査システム、検査方法、プログラム、及び、記憶媒体に関する。
特許文献1は、着色検査装置を開示する。特許文献1の着色検査装置は、CIEXYZ等色関数と等価に線形変換された三つの分光感度を有するカメラと、カメラが取得した三つの分光感度を有する画像をCIEXYZ表色系における三刺激値X、Y、Zに変換した着色データを取得し演算する演算処理装置と、測定対象物の一例である自動車を照射する照明部と、を備え、検査物と基準物の2つのxyz色度ヒストグラム分布の重なり合った割合を示す色分布一致指数を演算することにより、色を検査する。
特開2015−155892号公報
課題は、対象物の表面の色の判定の精度を向上できる、検査システム、検査方法、プログラム、及び、記憶媒体を提供することである。
本開示の一態様の検査システムは、取得部と、判定部とを備える。前記取得部は、対象物の表面の画像を取得する。前記判定部は、色判定処理を行う。前記色判定処理は、前記取得部で取得された前記対象物の表面の画像から得られる、前記対象物の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、前記対象物の表面の色を判定する処理である。
本開示の一態様の検査方法は、取得ステップと、判定ステップとを含む。前記取得ステップは、対象物の表面の画像を取得するステップである。前記判定ステップは、色判定処理を行うステップである。前記色判定処理は、前記対象物の表面の画像から得られる、前記対象物の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、前記対象物の表面の色を判定する処理である。
本開示の一態様のプログラムは、1以上のプロセッサに、上記検査方法を実行させるための、プログラムである。
本開示の一態様の記憶媒体は、コンピュータで読み取り可能な非一時的な記憶媒体であって、上記プログラムを記憶している。
図1は、一実施形態の検査システムのブロック図である。 図2は、上記検査システムの説明図である。 図3は、上記検査システムの設定処理のフローチャートである。 図4は、上記検査システムの色判定処理のフローチャートである。 図5は、第1分離画像の説明図である。 図6は、第2分離画像の説明図である。 図7は、上記検査システムの分離処理の説明図である。 図8は、上記検査システムの別の分離処理の説明図である。 図9は、上記検査システムの合成処理の説明図である。 図10は、上記検査システムの合成処理の別の説明図である。 図11は、上記検査システムの調色処理の説明図である。 図12は、上記検査システムの塗装判定処理を含む塗装処理のフローチャートである。 図13は、上記検査システムの塗装処理の説明図である。 図14は、上記検査システムの塗装処理の別の説明図である。 図15は、上記検査システムの質感判定処理のフローチャートである。 図16は、上記検査システムの質感判定処理の説明図である。 図17は、撮像システムの説明図である。
1.実施形態
1.1 概要
図1は、一実施形態の検査システム1を示す。本実施形態の検査システム1は、取得部F11と、判定部F13とを備える。取得部F11は、対象物100の表面の画像を取得する。判定部F13は、色判定処理を行う。色判定処理は、取得部F11で取得された対象物100の表面の画像から得られる、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、対象物100の表面の色を判定する処理である。
検査システム1では、対象物100の表面の色を、単一の観点ではなく、複数の観点から判定する。特に、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態を利用して、対象物100の表面の色を判定する。鏡面反射成分には、拡散反射成分よりも対象物100の表面の状態がよく反映され、拡散反射成分には、鏡面反射成分よりも対象物100の表面の色自体がよく反映される。これによって、対象物100の表面の色を、対象物100の表面の色自体だけではなく、対象物100の表面の状態を加味して判定できる。その結果、検査システム1によれば、対象物100の表面の色の判定の精度を向上できる。
1.2 詳細
以下、検査システム1について図面を参照して更に詳細に説明する。検査システム1は、対象物100の検査のためのシステムである。検査システム1は、着色検査装置としての機能を有する。本実施形態において、検査システム1による検査は、対象物100の表面の色、塗装状態、及び、質感を対象とする。また、検査システム1は、対象物100の塗装も可能である。検査システム1は、検査の結果に応じて対象物100を塗装することができ、これによって、所望の塗装がされた対象物100が得られる。
対象物100は、表面を有する物体であればよい。本実施形態では、対象物100は、自動車である。特に、対象物100の表面は、自動車の車体の外面である。なお、対象物100は自動車に限られない。例えば、対象物100は、自動車以外の移動体であってよいし、移動体でなくてもよい。移動体の例としては、二輪車、電車、ドローン、航空機、建設機械、及び船舶が挙げられる。また、対象物100は、電気機器や、食器、容器、家具、衣類、建材等であってもよい。要するに、対象物100は、表面を有する物体であればよい。特に、対象物100は、塗装される物体であれば、本実施形態の検査システム1を好適に利用できる。
検査システム1は、図1に示すように、判定システム10と、照明システム20と、撮像システム30と、塗装システム40とを備える。
照明システム20は、対象物100の表面に光を照射するためのシステムである。照明システム20は、図2に示すように、対象物100に光を照射する複数(図2では4つ)のランプ21を含む。ランプ21は、一例としては、LEDランプである。また、ランプ21は、白色光を放射する。なお、照明システム20において、ランプ21の数は特に限定されず、ランプ21の種類も、LED以外の光源であってよい。また、ランプ21の発光色は白色に限定されない。ランプ21の発光色は、対象物100の色及び撮像システム30で検出可能な色を考慮して適宜設定され得る。また、照明システム20が放射する光の波長は変更可能であってよい。なお、本実施形態の検査システム1は、照明システム20を含むが、照明システム20がなくても対象物100の色を判定できるのであれば、照明システム20は省略し得る。
撮像システム30は、対象物100の表面の画像(デジタル画像)を生成するためのシステムである。本実施形態では、撮像システム30は、照明システム20によって照らされている対象物100の表面を撮像して対象物100の表面の画像を生成する。撮像システム30は、複数のカメラを含む。各カメラは、1以上のイメージセンサを備える。なお、カメラは1以上のラインセンサを備えてもよい。
本実施形態では、撮像システム30の複数のカメラは、図2に示すように、4つの(第1)カメラ31(311〜314)と、1つの(第2)カメラ32とを含む。ここで、第1カメラ31及び第2カメラ32は、対象物100に対して変位可能である。また、第2カメラ32は、第1カメラ31よりも画角が広く、対象物100の全体の画像を生成可能であるとよい。一例として、第2カメラ32は、対象物100を俯瞰する位置にあり、対象物100の俯瞰図を表す画像を生成する。
塗装システム40は、対象物100の表面の塗装のためのシステムである。塗装システム40は、図2に示すように、複数の塗装部(2つの塗装部41,42)を含む。本実施形態では、塗装部41,42は、いずれも塗装ロボットである。塗装部41,42は、対象物100に対して変位可能である。塗装ロボットは、従来周知の構成であってよいから、詳細な説明は省略する。なお、塗装システム40は、1以上の塗装部を含んでいればよく、塗装部の数も2に限定されない。
判定システム10は、図1に示すように、入出力部11と、記憶部12と、処理部13とを備える。判定システム10は、コンピュータシステムにより実現され得る。コンピュータシステムは、1以上のプロセッサ、1以上のコネクタ、1以上の通信機器、及び1以上のメモリ等を含み得る。
入出力部11は、照明システム20、撮像システム30及び塗装システム40との間の情報の入出力を行う。本実施形態では、入出力部11は、照明システム20、撮像システム30及び塗装システム40に通信可能に接続される。入出力部11は、1以上の入出力装置を含み、1以上の入出力インタフェースを利用する。
記憶部12は、処理部13が利用する情報を記憶するために用いられる。記憶部12は、1以上の記憶装置を含む。記憶装置は、例えば、RAM(Random Access Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)である。記憶部12は、色判定処理で用いられる、見本データを記憶する。見本データは、対象物100の表面の目的の色の情報(つまり、見本となる色データ)を含む。対象物100の表面の目的の色の情報は、一例として、波長毎の反射率の値で与えられる(図11参照)。例えば、対象物100の表面の目的の色の情報は、380nm〜780nmの波長の範囲の反射率の値で与えられる。つまり、見本データは、デジタル色見本としての側面を有する。また、見本データは、対象物100の形状(撮影対象の形状情報)と対象物100の撮像条件との少なくとも一方を含み得る。対象物100の撮像条件は、対象物100と照明システム20と撮像システム30との相対的な位置関係(つまりは、撮影対象物と照明とカメラの位置関係の情報)を含み得る。つまり、対象物100の撮像条件は、照明システム20による照明に関する情報(照明情報)を含み得る。一例として、見本データは、所定の撮像条件で撮像された対象物100の表面の全体の画像であり得る。また、記憶部12は、塗装判定処理で用いられる、基準情報を記憶する。基準情報は、対象物100の表面の目的の塗装状態を表す。換言すれば、基準情報は、対象物100の塗装状態のあるべき状態を示しているといえる。
処理部13は、例えば、1以上のプロセッサ(マイクロプロセッサ)により実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(コンピュータプログラム)を実行することで、処理部13として機能する。1以上のプログラムは、1以上のメモリに予め記録されていてもよいし、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
処理部13は、設定処理(図3参照)と、色判定処理(図4参照)と、塗装判定処理(図12参照)と、質感判定処理(図15参照)とを行う。処理部13は、図1に示すように、取得部F11と、分離部F12と、判定部F13とを有している。取得部F11と、分離部F12と、判定部F13とは、実体のある構成を示しているわけではなく、処理部13によって実現される機能を示している。
取得部F11は、対象物100の表面の画像(図9及び図10参照)を取得する。本実施形態では、取得部F11は、撮像システム30から対象物100の表面の画像を取得する。つまり、取得部F11は、入出力部11を介して撮像システム30から画像を受け取る。取得部F11が撮像システム30から取得する画像は、撮像システム30の撮像条件によって、決まる。
分離部F12は、分離処理を実行する。分離処理は、取得部F11で取得された対象物100の表面の画像から、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態を得るための処理である。分離部F12は、分離処理では、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態を表す画像として、取得部F11で取得された画像から、複数の分離画像を取得する。複数の分離画像は、それぞれ対象物100の表面の画像を表すが、鏡面反射成分と拡散反射成分の比率が互いに異なる画像である。本実施形態では、複数の分離画像は、第1分離画像P10(図5参照)と第2分離画像(図6参照)とである。ただし、複数の分離画像の数は2に限定されず、3以上の分離画像を利用することも可能である。
ここで、複数の反射状態とは、対象物100の表面での光の反射の状態を含む。対象物100の表面を異なる方向から見た場合には、鏡面反射成分と拡散反射成分の比率が変わり得る。よって、複数の反射状態とは、異なる視点から見た対象物100の表面の状態であるといえる。対象物100の表面を異なる場所のカメラで撮像することで、対象物100の表面での異なる反射状態を表す画像が得られる。対象物100の表面を異なる場所のカメラで撮像する場合、得られた画像は、鏡面反射成分と拡散反射成分との両方を含み得る。しかしながら、演算処理によって、画像から鏡面反射成分だけ、及び、拡散反射成分だけを抽出することが可能である。図7に示すように、鏡面反射成分は、撮像面Iにおいて、光源Lから表面Sへの光の入射角と表面Sでの光の反射角とが等しくなる領域を中心にピークを持つ。よって、鏡面反射成分は、撮像面Iにおいて、反射角θを中心とする所定範囲(θ±φ)に対応する領域で支配的である。拡散反射成分は、撮像面Iにおいて所定範囲(θ±φ)以外に対応する領域で支配的である。よって、撮像面Iにおいて、反射光の強度は、鏡面反射成分と拡散反射成分との合成として与えられる。そして、鏡面反射成分と拡散反射成分とは統計的なモデルにより推定可能である。また、鏡面反射成分と拡散反射成分とは、強度の分布が異なっていることから、図8に示すように、画像の階調値(輝度値)に基づいて、分離することが可能である。
本実施形態では、分離部F12は、取得部F11で取得された画像から、第1分離画像P10(図5参照)と第2分離画像(図6参照)とを抽出する。そのため、複数の反射状態とは、鏡面反射成分だけの状態と拡散反射成分だけの状態とを含んでいてよい。第1分離画像P10は、対象物100の表面において鏡面反射成分だけの状態を表し、第2分離画像P20は、対象物100の表面において拡散反射成分だけの状態を表す。ここで、鏡面反射成分には、拡散反射成分よりも対象物100の表面の状態がよく反映され、拡散反射成分には、鏡面反射成分よりも対象物100の表面の色自体がよく反映される。
判定部F13は、設定処理(図3参照)と、色判定処理(図4参照)と、塗装処理(図12参照)と、質感判定処理(図15参照)とを行う。
(設定処理)
設定処理は、色判定処理の前処理である。設定処理では、撮像システム30の設定を行う。判定部F13は、撮像システム30の設定を行うために、撮像システム30の撮像条件を決定する。撮像条件は、撮像システム30の複数のカメラ、特に複数の第1カメラ31の動作状態を規定する。動作状態は、対象物100の表面に対する位置、対象物100の表面に対する撮像方向、画角(視野)、及び、拡大倍率(ズーミング)を含み得る。本実施形態では、撮像システム30の4つの第1カメラ311〜314は、図9及び図10に示すように、対象物100の表面の一部を表す画像(部分画像)P31〜P34を生成する。本実施形態では、複数の部分画像P31〜P34は、対象物100に関する撮像方向が異なる複数のカメラ31で生成される。そのため、図9に示すように、4つの第1カメラ311〜314の部分画像P31〜P34により、対象物100の表面の全体を表す画像(全体画像)P30を生成するために、判定部F13は、撮像システム30の撮像条件を決定する。判定部F13は、決定した撮像条件に従い、撮像システム30の設定を行う。これによって、撮像システム30によって、対象物100の全体の画像を得ることが可能になる。なお、本実施形態において、対象物100の表面の全体とは、色判定処理での判定の対象となる部分の全てであればよく、実際的な意味で対象物100の表面の全体である必要はない。
以下、設定処理について、図3のフローチャートを参照して説明する。
まず、判定部F13は、取得部F11により、撮像システム30から対象物100の複数の部分画像P31〜P34を取得する(S11)。取得部F11で取得された複数の部分画像P31〜P34のそれぞれから、分離部F12によって、第1分離画像及び第2分離画像が取得される(S12)。判定部F13は、複数の部分画像P31〜P34それぞれの第1分離画像を合成して、第1合成画像を生成する。また、判定部F13は、複数の部分画像P31〜P34それぞれの第2分離画像を合成して、第2合成画像を生成する(S13)。判定部F13は、第1合成画像及び第2合成画像のそれぞれについて、対象物100の連続性が維持されるように、撮像システム30の撮像条件(4つの第1カメラ311〜314の動作状態)を決定する(S14)。ここで、対象物100の連続性(撮影対象のグラデーションの連続性)が維持されるとは、部分画像を合成して得られる合成画像において、対象物100の形状が正しく反映されていることをいう。図9は、対象物100の連続性が維持されている状態を示している。図10は、対象物100の連続性が維持されていない状態を示している。なお、説明を分かりやすくするために、図9及び図10では、第1分離画像及び第2分離画像ではなく、部分画像P31〜P34から合成画像を生成した場合の例を示している。判定部F13は、記憶部12に記憶されている見本データに含まれる対象物100の形状を参照して、撮像条件を決定することができる。判定部F13は、第1分離画像及び第2分離画像での対象物100の形状が、見本データに含まれる対象物100の形状に一致するように撮像条件を決定する。判定部F13は、決定した撮像条件に従い、撮像システム30の設定を行う(S15)。これによって、4つの第1カメラ311〜314の動作状態が更新される。その結果、撮像システム30によって、対象物100の全体の画像を得ることが可能になる。
このように、検査システム1は、複数のカメラ31の画像(部分画像)を合成して合成画像(第1合成画像及び第2合成画像)を作成し、合成画像から撮像条件を計算して出力する。そして、検査システム1は、合成画像から撮影対象(対象物100)のグラデーションの連続性が維持されるように、カメラ31の画角とズーミングを制御する。
(色判定処理)
色判定処理は、対象物100の表面の色を判定する処理である。より詳細には、色判定処理は、取得部F11で取得された対象物100の表面の画像から得られる、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、対象物100の表面の色を判定する処理である。特に、判定部F13は、色判定処理では、複数の分離画像P10,P20に基づいて、対象物100の表面の色を判定する。更に、判定部F13は、色判定処理では、複数の部分画像P31〜P34から得られる、複数の反射状態それぞれにおいて対象物100の表面の全体を表す画像P10,P20に基づいて、対象物100の表面の色を判定する。なお、対象物100の表面の色の判定は、画像P10,P20において、画素単位で実行され得る。
以下、色判定処理について、図4のフローチャートを参照して説明する。
まず、判定部F13は、取得部F11により、撮像システム30から対象物100の複数の部分画像P31〜P34を取得する(S21)。取得部F11で取得された複数の部分画像P31〜P34のそれぞれから、分離部F12によって、第1分離画像及び第2分離画像が取得される(S22)。判定部F13は、複数の部分画像P31〜P34それぞれの第1分離画像を合成して、第1合成画像を生成する。また、判定部F13は、複数の部分画像P31〜P34それぞれの第2分離画像を合成して、第2合成画像を生成する(S23)。判定部F13は、第1合成画像及び第2合成画像のそれぞれについて、記憶部12に記憶されている見本データの対象物100の表面の目的の色の情報との比較をする(S24)。対象物100の表面の目的の色の情報は、第1合成画像用の目的の色の情報と第2合成画像用の目的の色の情報とを含む。よって、判定部F13は、第1合成画像及び第2合成画像のそれぞれについて、対象物100の色の判定を行う。一例として、判定部F13は、第1合成画像から得られる色と見本データの第1合成画像用の目的の色との一致度が規定値以上であれば、第1合成画像から得られる色が合格であるとする。同様に、判定部F13は、第2合成画像から得られる色と第2合成画像用の目的の色との一致度が規定値以上であれば、第2合成画像から得られる色が合格であるとする。このように、判定部F13は、複数の部分画像から得られる、複数の反射状態それぞれにおいて対象物100の表面の全体を表す画像に基づいて、対象物100の表面の色を判定する。判定部F13は、第1合成画像及び第2合成画像のそれぞれから得られた色が合格である場合に、色判定処理の結果を合格とする(S25:Yes)。
一方、判定部F13は、第1合成画像及び第2合成画像のそれぞれから得られた色の少なくとも一方が不合格である場合に、色判定処理の結果を不合格とする(S25:No)。この場合には、判定部F13は、対象物100の再塗装を行う(S26)。再塗装では、判定部F13は、第1合成画像から得られる色と第1合成画像用の目的の色の差分、及び、第2合成画像から得られる色と第2合成画像用の目的の色の差分に応じて、塗装システム40を制御する。つまり、判定部F13は、対象物100の表面を塗装する塗装システム40を、色判定処理の結果に基づいて制御する。これによって、対象物100の表面の色を、目的の色に近付けることができる。例えば、図11は、合成画像(第1合成画像又は第2合成画像)から得られた色を表すグラフG10,G11と、合成画像に対応する目的の色を表すグラフG20との関係を示す。図11において、G10は再塗装前の色を表し、G11は再塗装後の色を表す。このように、検査システム1では、対象物100の表面の色を修正できる。
(塗装処理)
塗装処理は、対象物100の塗装(塗着ともいう)を行う処理である。以下、塗装処理について、図12のフローチャート及び、図13並びに図14を参照して説明する。図13及び図14は、塗装処理の一場面を示している。
まず、判定部F13は、対象物100の表面において塗装場所(塗着場所)を決定する(S31)。本実施形態では、塗装システム40は、2つの塗装ロボット41,42を備えているから、対象物100の表面から、同時に2つの塗装場所を選択可能である。塗装場所の例としては、ボンネット、ルーフ、フロントドア、リヤドア、フロントバンパ、リヤバンパ、フェンダ、リヤフェンダ、トランクカバー等がある。判定部F13は、撮像システム30を利用して、塗着場所を決定する。判定部F13は、第2カメラ32で対象物100の表面の全体を監視しており、対象物100の表面において塗装されていない場所(未塗装の場所)を把握する。判定部F13は、対象物100の表面において未塗装の場所から、次の塗装場所を選択する。
次に、判定部F13は、塗装前検査を実行する(S32)。塗装前検査では、判定部F13は、塗装場所の塗装の前に、塗装場所に異物がないかどうかを判断する。判定部F13は、撮像システム30を制御し、複数の第1カメラ31の一つ(図13では、第1カメラ312)を用いて、塗装場所の画像を撮像し、取得部F11を通じて取得する。判定部F13は、取得部F11で得た塗装場所の画像から、画像処理技術により、異物の検出を行う。異物がないかどうかの判断時には、塗装場所の状態(色合い、凹凸情報)も判定される。塗装場所の状態は、塗装システム40による塗装のレベル(塗着レベル)に反映される。一例として、塗装のレベル(塗着レベル)に応じて、塗料の吐出量(噴霧量、噴霧濃度)が決定される。ここで、異物が検出されなければ(S33:No)、判定部F13は、塗装場所の塗装(塗着)を開始する(S34)。
塗装場所の塗装時には、判定部F13は、図13に示すように、塗装システム40を制御し、塗装ロボット41,42を用いて、塗装場所(図13では、ボンネット及び右リヤフェンダ)の塗装を行う。更に、判定部F13は、対象物100の表面において塗装中の場所の状態の判定を行う。判定部F13は、撮像システム30を制御して、塗装場所の画像を取得する。図13では、第1カメラ311及び314が塗装場所の画像の取得に利用されている。判定部F13は、取得部F11で取得された対象物100の表面の画像(つまり、塗装場所の画像)から得られる表面(現在の表面)の塗装状態と対象物100の表面の目的の塗装状態との差分を求める。判定部F13は、差分が小さくなるように、塗装システム40を制御する。一例として、判定部F13は、塗装ロボット41,42からの噴霧濃度(射出量)を調整する。塗装判定処理では、判定部F13は、塗装場所の塗着不足(例えば、色合い及び均一性)が判断される。なお、塗装判定処理においても、色判定処理と同様に、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、対象物100の表面の色を判定してよい。
塗装が終了すると、判定部F13は、塗装後検査を実行する(S35)。塗装後検査では、判定部F13は、塗装後の状態を判断する。塗装後の状態としては、塗料の垂れの有無、乾燥の有無、塗装済みの場所との連続性(色合いや表面状態の連続性)が挙げられる。本実施形態では、塗装場所での塗料の垂れがないかどうかを判断する。判定部F13は、撮像システム30を制御し、複数の第1カメラ31の一つ(図13では、第1カメラ313)を用いて、塗装が終了した塗装場所の画像を撮像し、取得部F11を通じて取得する。取得部F11で得た塗装場所の画像から、塗料の垂れの検出を行う。例えば、塗料の垂れは、塗装場所の色合い及び表面状態(例えば、色の均一性)に基づいて検出できる。判定部F13は、取得部F11で取得された対象物100の表面の画像(つまり、塗装場所の画像)から得られる表面(現在の表面)の塗装状態と対象物100の表面の目的の塗装状態との差分を求める。対象物100の表面の目的の塗装状態(塗料の垂れの判断の比較画像)として、第2カメラ32で撮像された対象物100の表面の全体の画像から、塗料が均一に塗られた部分を用いてよい。判定部F13は、差分が閾値(第1閾値)を超えた場合には、塗料の垂れがあると判断してよい。なお、塗料の垂れの判断においても、色判定処理と同様に、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、対象物100の表面の色を判定してよい。
ここで、塗料の垂れが検出されなければ(S36:No)、判定部F13は、第2カメラ32で撮像した対象物100の表面の全体の画像に基づいて、未塗着の場所があるかどうかを判断する(S371)。未塗着の場所があれば(S371:Yes)、判定部F13は、次の塗着場所の決定を行う(S31)。一方、未塗着の場所がなければ(S371:No)、判定部F13は、最終検査を実行する(S372)。最終検査では、判定部F13は、色判定処理を行い、対象物100の表面の全体の色を検査してよい。
一方、塗料の垂れが検出された場合(S36:Yes)、判定部F13は、塗料の垂れの度合いを判断する(S381)。より詳細には、判定部F13は、塗料の垂れの度合いが重度かどうかを判断する。塗料の垂れの度合いが重度かどうかは、再塗装によって、塗料の垂れを修正できるかどうかで決まってよい。一例として、判定部F13は、取得部F11で得た塗装場所の画像と比較画像との差分が第1閾値より大きい第2閾値を超えた場合には、塗料の垂れが重度であると判断してよい。なお、第1閾値と第2閾値は一致していてよい。なお、塗料の垂れが検出された場合、判定部F13は、塗料の垂れの画像の特徴量と、塗料の吐出量、室温、湿度、換気流量等を統計解析や機械学習で関連付け、塗料の垂れの再発防止情報を生成してよい。
塗料の垂れの度合いが重度でなければ(S381:No)、判定部F13は、再塗着(再塗装)を実行する(S382)。再塗着では、塗着(S34)と同様に、判定部F13は、塗装システム40を制御し、塗料の垂れの検出された塗装場所を再度塗装する。一例として、図14では、塗装ロボット42によって、トランクカバーを再塗装するために、第1カメラ314でトランクカバーを撮像している様子を示している。そして、再塗着が終了すると、判定部F13は、再度、塗装後検査を実行する(S35)。
なお、塗装処理において、異物が検出された場合(S33:Yes)、又は、塗料の垂れが重度である場合(S381:Yes)、判定部F13は、塗装処理(塗着)を中止する(S39)。
塗装処理は、塗装判定処理(S34、S35)を含む。は、塗装判定処理は、対象物100の表面の塗装状態を判定する処理である。より詳細には、塗装判定処理は、取得部F11で取得された対象物100の表面の画像に基づいて、対象物100の表面の塗装状態を判定する処理である。判定部F13は、塗装判定処理では、取得部F11で取得された対象物100の表面の画像から得られる表面の塗装状態と対象物100の表面の目的の塗装状態との差分を求める。判定部F13は、塗装判定処理の結果に応じて撮像システム30の複数のカメラ31,32の動作状態を制御する。つまり、判定部F13は、対象物100の塗装の進捗に応じて、撮像システム30の複数のカメラ31,32の動作状態を制御する。特に、複数のカメラ31,32は、対象物100の表面の一部の画像を生成する1以上の第1カメラ31と、対象物100の表面の全体の画像を生成する第2カメラ32とを含む。判定部F13は、塗装判定処理の結果に応じて1以上の第1カメラ31の動作状態を制御する。また、判定部F13は、第2カメラ32で撮像された画像と塗装判定処理の結果に応じて1以上の第1カメラ31の動作状態を制御する。
本実施形態では、判定部F13は、撮像システム30の複数のカメラ31,32を制御し、対象物100の全体の塗装を実行する。ここで、対象物100が自動車のような車両である場合、サイズが大きく、かつ、観察すべき塗装状態(塗着、垂れ、乾燥、異物等)が多岐にわたるため、1つのカメラで対象物100全体を撮影することは困難である。しかしながら、本実施形態の検査システム1は、対象物100において塗料の塗布が行われている局所を撮影する第1カメラ(局所カメラ)31と、対象物100の全体の塗装状態をとらえる第2カメラ(俯瞰カメラ)32を連動させる。そのため、本実施形態の検査システム1は、対象物100の塗装状態を見落としなくセンシングすることが可能である。
(質感判定処理)
質感判定処理は、対象物100の表面の質感の判定を行う処理である。質感判定処理は、異なる場所L1〜L3(図16参照)から対象物100の表面を撮像して得られた複数の系列画像複数の系列画像間の輝度情報の変化に基づいて、対象物100の表面の質感を判定する処理である。ここでは、輝度情報の変化は、特徴量ベクトル(空間特徴量ベクトル及び時間特徴量ベクトル)で定義される。
以下、質感判定処理について、図15のフローチャート及び図16を参照して説明する。図16は、第2カメラ32と対象物100との位置関係を示している。なお、第2カメラ32の代わりに第1カメラ31を用いることもできる。
まず、判定部F13は、取得部F11により、異なる場所L1〜L3(図16参照)から対象物100の表面を撮像して得られた複数の系列画像を取得する(S41)。複数の系列画像のうちの少なくとも2つは、同一のカメラ32の位置を変えて対象物100の表面を撮像して得られる。より詳細には、図16に示すように、異なる場所L1,L2,L3・・・において、カメラ32で対象物100の表面の画像を撮ることで、複数の系列画像が得られる。場所L1,L2,L3・・・は、一例としては、対象物100を囲うように並んでおり、対象物100を中心とする円上にある。なお、複数の系列画像は、異なる場所L1,L2,L3・・・に設置した複数のカメラで得ることも可能である。以下では、複数の系列画像の2つの系列画像(第1系列画像及び第2系列画像)について説明する。なお、第1系列画像は、第2系列画像よりも前に撮像された画像である。
次に、判定部F13は、画素間の輝度値の差分(空間特徴量ベクトル)を算出する(S42)。判定部F13は、系列画像から輝度情報を抽出する。輝度情報は、系列画像の複数の画素から求まる輝度値(画素値)の差分である。輝度値の差分は、系列画像の複数の画素のうち1以上を含む第1領域の輝度値と、第1領域に隣接し複数の画素のうちの1以上を含む第2領域の輝度値との差分である。一例として、第1領域は、m×nの画素からなる領域であってよい。ここで、m、nはいずれも1以上の整数である。本実施形態では、第1領域は、1×1の画素(つまりは一画素)からなる領域である。第1領域の中心の画素を第1画素(基準画素)という。ここでは、第1領域は、系列画像(複数の画素で構成される画像)において最も明るい領域である。第1領域は第1画素のみであるから、第1画素は、系列画像の複数の輝度値のうち最も輝度値が高い画素である。一方、第2領域は、第1領域を囲う領域であってよい。一例として、第2領域は、第1領域を中心とする、M×Nの画素からなる領域であってよい。ここで、M、Nはいずれも3以上の整数である。本実施形態では、第2領域は、系列画像の複数の画素のうち第1画素を除く画素で構成される。つまり、判定部F13は、系列画像について、第1画素の輝度値と各画素の輝度値の差分を求め、各画素の輝度値を差分値に置き換える。そして、判定部F13は、第1画素の輝度値と、系列画像の複数の画素の置き換え後の輝度値(差分値)とを要素とする特徴量ベクトル(空間特徴量ベクトル)を得る。なお、第1画素は、最も輝度値が大きい画素に限らず、最も輝度値が小さい画素、輝度値が画像の平均値である画素、及び画像の中心にある画素のいずれかであってもよい。
次に、判定部F13は、フレーム間の輝度値の差分(時間特徴量ベクトル)を算出する(S43)。判定部F13は、第1系列画像の複数の画素のうち1以上を含む第1注目領域の輝度値と、第2系列画像の複数の画素のうち第1注目領域に対応する第2注目領域の輝度値との差分である。つまり、第1注目領域と第2注目領域とは、対象物100の表面の同じ部分に対応するように選択される。一例として、第1注目領域は、第1系列画像より小さい領域である。第1注目領域は、m×nの画素からなる領域であってよい。ここで、m、nはいずれも1以上の整数である。第1注目領域の中心の画素は、最も輝度値が大きい画素、最も輝度値が小さい画素、及び、輝度値が画像の平均値である画素のいずれかであってよい。本実施形態では、第1注目領域の中心の画素は、輝度値が画像の平均値である画素である。第2注目領域は、第1注目領域と同じ大きさの領域(m×nの画素からなる領域)である。第2注目領域の中心の画素は、第1注目領域の中心の画素との輝度値の差が最も小さい画素であり、輝度値が同じであることが好ましい。そして、判定部F13は、第1系列画像(第1注目領域)と第2系列画像(第2注目領域)の輝度値の差分を求め、第2系列画像(第2注目領域)の輝度値を差分値に置き換える。つまり、判定部F13は、第1系列画像の第1注目領域に含まれる画素の輝度値と第2系列画像の第2注目領域に含まれる画素の輝度値の差分を求める。これによって、m×nの画素について輝度値の差分値が得られる。そして、判定部F13は、第1注目領域の中心の画素の輝度値と第2系列画像の置き換え後の画素値(差分値)を要素とする特徴量ベクトル(時間特徴量ベクトル)を得る。
最後に、判定部F13は、質感(質感量)を算出する(S44)。本実施形態では、質感は、空間特徴量ベクトルと時間特徴量ベクトルの結合によって与えられる。換言すれば、本実施形態では、対象物100の表面の質感を空間特徴量ベクトルと時間特徴量ベクトルの結合という形式で数値化している。そして、判定部F13は、質感が要求を満たすかどうかを数値的に判断してよい。例えば、判定部F13は、質感を示すベクトルの大きさが閾値を超えるかどうかによって、質感が要求を満たすかどうかを判定してよい。質感が要求を満たす場合には、判定部F13は、質感の検査が合格であると判断してよい。質感が要求を持たさない場合委は、判定部F13は、再塗装や不良品判定をしてよい。
このように、本実施形態では、カメラ32と対象物100の相対的な変位に伴う輝度値の変化量を空間軸と時間軸で算出して統合する。空間軸の輝度値の変化量(空間的変化量)は、基準画素の輝度値とその近接画素の輝度値の差分で与えられる。基準画素の例としては、最も明るい画素、最も暗い画素、平均明るさの画素、及び画像中心画素が挙げられる。時間軸の輝度値の変化量(時間的変化量)は、基準フレームと近接フレームの差分で与えられる。そのため、本実施形態では、対象物100の表面(特に塗装された表面)の質感(人間が感じる表面状態に関する認知)を計測して数値化することが可能である。
1.3 まとめ
以上述べた検査システム1は、取得部F11と、判定部F13とを備える。取得部F11は、対象物100の表面の画像を取得する。判定部F13は、色判定処理を行う。色判定処理は、取得部F11で取得された対象物100の表面の画像から得られる、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、対象物100の表面の色を判定する処理である。したがって、検査システム1によれば、対象物100の表面の色の判定の精度を向上できる。
換言すれば、検査システム1は、下記の方法(検査方法)を実行しているといえる。検査方法は、取得ステップと、判定ステップとを備える。取得ステップは、対象物100の表面の画像を取得するステップである。判定ステップは、色判定処理を行うステップである。色判定処理は、取得部F11で取得された対象物100の表面の画像から得られる、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、対象物100の表面の色を判定する処理である。したがって、検査方法によれば、検査システム1と同様に、対象物100の表面の色の判定の精度を向上できる。
検査方法は、1以上のプロセッサがプログラム(コンピュータプログラム)を実行することにより実現される。このプログラムは、1以上のプロセッサに検査方法を実行させるためのプログラムである。このようなプログラムによれば、検査方法と同様に、対象物100の表面の色の判定の精度を向上できる。そして、プログラムは、記憶媒体により提供され得る。この記憶媒体は、コンピュータで読み取り可能な非一時的な記憶媒体であって、上記のプログラムを記憶している。このような記憶媒体によれば、検査方法と同様に、対象物100の表面の色の判定の精度を向上できる。
別の観点からすれば、検査システム1は、撮像システム30と、取得部F11と、判定部F13とを備える。撮像システム30は、対象物100の表面を撮像して対象物100の表面の画像を生成する。取得部F11は、撮像システム30から、対象物100の表面の画像を取得する。判定部F13は、取得部F11で取得された対象物100の表面の画像に基づいて、対象物100の表面の塗装状態を判定する塗装判定処理を行い、塗装判定処理の結果に応じて撮像システム30を制御する。この検査システム1によれば、対象物100の表面の塗装の品質の向上が図れる。
また、別の観点からすれば、検査システム1は、取得部F11と、判定部F13とを備える。取得部F11は、異なる場所L1〜L3から対象物100の表面を撮像して得られた複数の系列画像を取得する。判定部F13は、複数の系列画像間の輝度情報の変化に基づいて、対象物100の表面の質感を判定する質感判定処理を行う。この態様によれば、対象物(100)の表面の質感の判定の精度を更に向上できる。
2.変形例
本開示の実施形態は、上記実施形態に限定されない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。以下に、上記実施形態の変形例を列挙する。
上記実施形態では、撮像システム30のカメラは、一例として、所定帯域に波長が含まれる光を検出可能である。所定帯域は、一例として、380nm〜780nmである。ただし、撮像システム30の複数のカメラは、互いに透過帯域が異なるフィルタを有していてよい。例えば、4つの第1カメラ311〜314は、異なる帯域の波長の光を検出するように構成されていてよい。異なる帯域の波長の光は、一例として、図17に示すように、380nm〜480nmの光(青色光)、480nm〜580nmの光(緑色光)580nm〜680nmの光(黄色光)、及び680nm〜780nmの光(赤色光)がある。このように、複数のカメラ31で異なる帯域の波長の光を検出することで、対象物100の色のより精細なレベルでの判定が可能になる。特に図17の例では、4つの帯域の各々において、各々10nmの9バンドに分割されており、380nm〜780nmの帯域を、36に分割して検出する。そのため、比較的よく使用される3バンドの構成に比べて、対象物100の色のより精細なレベルでの判定が可能になる。なお、一つのカメラで複数の透過帯域の異なるフィルタを利用しても同様の効果を奏し得る。
一変形例では、照明システム20が放射する光の波長が変更可能であってよい。これは、発光色の異なる光源、又はカラーフィルタを利用して実現し得る。ようするに、検査システム1においては、照明システム20が放射する光の波長と撮像システム3が検出する光の波長との少なくとも一方は変更可能であってよい。
上記実施形態では、複数の部分画像P31〜P34は、対象物100に関する撮像方向が異なる複数のカメラ31で生成される。しかしながら、複数の部分画像P31〜P34は、同一のカメラの位置を変えて対象物100の表面を撮像して得られてもよい。
上記実施形態では、対象物100の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態は、画像の形式であるが、これらは、画像ではなくヒストグラム等の他の形式であってよい。つまり、対象物100の表面の反射状態は、必ずしも画像で与えられる必要はなく、反射状態によって色の判定が可能な形式であってよい。
一変形例では、設定処理は必須ではない。設定処理を行わない場合、複数のカメラ31で生成された画像のそれぞれに対して、見本データを用意して、色判定処理を実行してよい。これによって、複数のカメラ31で対象物100の表面の異なる部位に関して個々別々に色判定処理を行うことが可能となる。なお、この場合には、色判定処理において、画像の合成は行われない。
上記実施形態では、判定部F13は、再塗装では、第1合成画像から得られる色と第1合成画像用の目的の色の差分、及び、第2合成画像から得られる色と第2合成画像用の目的の色の差分に応じて、塗装システム40を制御する。しかし、判定部F13は、学習済みモデル(調色モデル)を利用して、塗装システム40を制御してもよい。調色モデルは、修正前の色と修正後の色との組み合わせと塗装システム40の制御内容との関係を学習した学習済みモデルである。この場合、記憶部12は、調色モデルを格納する。調色モデルは、修正前の色と修正後の色との組み合わせと塗装システム40の制御内容との関係を示す学習用データセットにより、人工知能のプログラム(アルゴリズム)に、修正前の色と修正後の色との組み合わせと塗装システム40の制御内容との関係を学習させることで、生成される。人工知能のプログラムは、機械学習のモデルであって、例えば、階層モデルの一種であるニューラルネットワークが用いられる。調色モデルは、ニューラルネットワークに学習用データセットで機械学習(例えば、深層学習)を行わせることで、生成される。つまり、調色モデルは、検査システム1の処理部13又は外部システムにより生成されてよい。検査システム1では、処理部13は、調色モデルを生成するための学習用データを収集し、蓄積してもよい。このように処理部13で新たに収集した学習用データは、調色モデルの再学習に利用でき、これによって、調色モデル(学習済みモデル)の性能の向上が図れる。特に、再塗装を行った場合に再度、色判定処理の結果が不合格となった場合に、再学習を行うことで、調色モデルの性能の向上が図れる。
一変形例では、判定部F13は、質感判定処理に関して、モデルを利用してよい。モデルは、塗装サンプルを複数作製し、塗装の良否判定と質感量のペアを作成し、両者の関係をモデル化することで得られる。モデル化は、回帰分析や機械学習で行ってよい。この場合、判定部F13は、質感量に基づいて、塗装の良否判定を実行することが可能である。一変形例では、空間特徴量ベクトルだけで、質感量として、カメラ32と対象物100の位置関係が固定された場合の質感計測に利用してもよい。
一変形例では、質感判定処理において、輝度情報は、系列画像の複数の画素から求まる輝度値の差分であってよい。この差分は、複数の画素のうち1以上を含む第1領域の輝度値と、第1領域に隣接し複数の画素のうちの1以上を含む第2領域の輝度値との差分であってよい。また、第1領域は、複数の画素のうちの第1画素であってよい。第2領域は、複数の画素のうち第1画素に隣接する第2画素であってよい。また、第1領域は、複数の画素で構成される画像において最も明るい領域であってよい。
一変形例では、検査システム1(判定システム10)は、複数のコンピュータにより構成されていてもよい。例えば、検査システム1(判定システム10)の機能(特に、取得部F11、分離部F12、及び判定部F13)は、複数の装置に分散されていてもよい。更に、検査システム1(判定システム10)の機能の少なくとも一部が、例えば、クラウド(クラウドコンピューティング)によって実現されていてもよい。
以上述べた検査システム1(判定システム10)の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを有する。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における検査システム1(判定システム10)の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよい。また、プログラムは、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FGPA)、ASIC(application specific integrated circuit)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。
3.態様
上記実施形態及び変形例から明らかなように、本開示は、下記の態様を含む。以下では、実施形態との対応関係を明示するためだけに、符号を括弧付きで付している。
第1の態様は、検査システム(1)であって、取得部(F11)と、判定部(F13)とを備える。前記取得部(F11)は、対象物(100)の表面の画像(P30〜P34)を取得する。前記判定部(F13)は、色判定処理を行う。前記色判定処理は、前記取得部(F11)で取得された前記対象物100の表面の画像(P30〜P34)から得られる、前記対象物(100)の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、前記対象物(100)の表面の色を判定する処理である。この態様によれば、対象物(100)の表面の色の判定の精度を向上できる。
第2の態様は、第1の態様の検査システム(1)に基づく。第2の態様では、前記検査システム(1)は、分離部(F12)を更に備える。前記分離部(F12)は、前記取得部(F11)で取得された画像から、それぞれ前記対象物(100)の表面の画像(P30〜P34)を表すが、鏡面反射成分と拡散反射成分の比率が互いに異なる複数の分離画像(P10,P20)を取得する。前記判定部(F13)は、前記色判定処理では、前記複数の分離画像(P10,P20)に基づいて、前記対象物(100)の表面の色を判定する。この態様によれば、対象物(100)の表面の色の判定の精度を更に向上できる。また、色判定処理の効率の向上が図れる。
第3の態様は、第1又は第2の態様の検査システム(1)に基づく。第3の態様では、前記取得部(F11)は、前記対象物(100)の表面の画像として、前記対象物(100)の表面の一部を表す複数の部分画像(P31〜P34)を取得する。前記判定部(F13)は、前記色判定処理では、前記複数の部分画像から得られる、前記複数の反射状態それぞれにおいて前記対象物(100)の表面の全体を表す画像(P10,P20)に基づいて、前記対象物(100)の表面の色を判定する。この態様によれば、比較的大きい対象物(100)の表面の色の判定が可能になる。
第4の態様は、第3の態様の検査システム(1)に基づく。第4の態様では、前記複数の部分画像(P31〜P34)は、前記対象物(100)に関する撮像方向が異なる複数のカメラ(31)で生成される。この態様によれば、簡易な構成によって、比較的大きい対象物(100)の表面の色の判定が可能になる。
第5の態様は、第1〜第4の態様のいずれか一つの検査システム(1)に基づく。第5の態様では、前記検査システム(1)は、照明システム(20)と、撮像システム(30)と、を更に備える。前記照明システム(20)は、前記対象物(100)の表面に光を照射する。前記撮像システム(30)は、前記照明システム(20)によって照らされている前記対象物(100)の表面を撮像して前記対象物(100)の表面の画像を生成する。前記取得部(F11)は、前記撮像システム(30)から、前記対象物(100)の表面の画像を取得する。前記照明システム(20)が放射する光の波長と前記撮像システム(30)が検出する光の波長との少なくとも一方は変更可能である。この態様によれば、対象物(100)の表面の色の判定の精度を向上できる。
第6の態様は、第1〜第5の態様のいずれか一つの検査システム(1)に基づく。第6の態様では、前記判定部(F13)は、前記色判定処理では、前記対象物(100)の表面の目的の色の情報を含む見本データを利用して、前記対象物(100)の表面の色を判定する。この態様によれば、対象物(100)の表面の色の判定の精度を更に向上できる。
第7の態様は、第6の態様の検査システム(1)に基づく。第7の態様では、前記見本データは、前記対象物(100)の形状と前記対象物(100)の撮像条件との少なくとも一方を含む。この態様によれば、対象物(100)の表面の色の判定の精度を更に向上できる。
第8の態様は、第1〜第7の態様のいずれか一つの検査システム(1)に基づく。第8の態様では、前記判定部(F13)は、前記対象物(100)の表面を塗装する塗装システム(40)を、前記色判定処理の結果に基づいて制御する。この態様によれば、対象物(100)の表面の塗装の品質の向上が図れる。
第9の態様は、第1の態様の検査システム(1)に基づく。第9の態様では、前記検査システム(1)は、前記対象物(100)の表面を撮像して前記対象物(100)の表面の画像を生成する撮像システム(30)を更に備える。前記取得部(F11)は、前記撮像システム(30)から、前記対象物(100)の表面の画像を取得する。前記判定部(F13)は、前記取得部(F11)で取得された前記対象物(100)の表面の画像に基づいて、前記対象物(100)の表面の塗装状態を判定する塗装判定処理を行い、前記塗装判定処理の結果に応じて前記撮像システム(30)を制御する。この態様によれば、対象物(100)の表面の塗装の品質の向上が図れる。
第10の態様は、第9の態様の検査システム(1)に基づく。第10の態様では、前記判定部(F13)は、前記塗装判定処理では、前記取得部(F11)で取得された前記対象物(100)の表面の画像から得られる前記表面の塗装状態と前記対象物(100)の表面の目的の塗装状態との差分を求める。この態様によれば、対象物(100)の表面の塗装の品質の向上が図れる。
第11の態様は、第9又は第10の態様の検査システム(1)に基づく。第11の態様では、前記撮像システム(30)は、複数のカメラ(31,32)を含む。前記判定部(F13)は、前記塗装判定処理の結果に応じて前記撮像システム(30)の前記複数のカメラ(31,32)の動作状態を制御する。この態様によれば、対象物(100)の表面の塗装の品質の向上が図れる。
第12の態様は、第11の態様の検査システム(1)に基づく。第12の態様では、前記複数のカメラ(31,32)は、前記対象物(100)の表面の一部の画像を生成する1以上の第1カメラ(31)と、前記対象物(100)の表面の全体の画像を生成する第2カメラ(32)とを含む。前記判定部(F13)は、前記塗装判定処理の結果に応じて前記1以上の第1カメラ(31)の動作状態を制御する。この態様によれば、対象物(100)の表面の塗装の品質の向上が図れる。
第13の態様は、第12の態様の検査システム(1)に基づく。第13の態様では、前記判定部(F13)は、前記第2カメラ(32)で撮像された画像と前記塗装判定処理の結果に応じて前記1以上の第1カメラ(31)の動作状態を制御する。この態様によれば、対象物(100)の表面の塗装の品質の向上が図れる。
第14の態様は、第1の態様の検査システム(1)に基づく。第14の態様では、前記取得部(F11)は、異なる場所(L1〜L3)から前記対象物(100)の表面を撮像して得られた複数の系列画像を取得する。前記判定部(F13)は、前記複数の系列画像間の輝度情報の変化に基づいて、前記対象物(100)の表面の質感を判定する質感判定処理を行う。この態様によれば、対象物(100)の表面の質感の判定の精度を更に向上できる。
第15の態様は、第14の態様の検査システム(1)に基づく。第15の態様では、前記複数の系列画像のうちの少なくとも2つは、同一のカメラの位置を変えて前記対象物(100)の表面を撮像して得られる。この態様によれば、対象物(100)の表面の質感の判定の精度を更に向上できる。
第16の態様は、第14又は第15の態様の検査システム(1)に基づく。第16の態様では、前記複数の系列画像の各々は複数の画素を含む。前記輝度情報は、前記複数の画素から求まる輝度値の差分を含む。この態様によれば、対象物(100)の表面の質感の判定の精度を更に向上できる。
第17の態様は、第16の態様の検査システム(1)に基づく。第17の態様では、前記差分は、前記複数の画素のうち1以上を含む第1領域の輝度値と、前記第1領域に隣接し前記複数の画素のうちの1以上を含む第2領域の輝度値との差分である。この態様によれば、対象物(100)の表面の質感の判定の精度を更に向上できる。
第18の態様は、第17の態様の検査システム(1)に基づく。第18の態様では、前記第1領域は、前記複数の画素のうちの第1画素である。前記第2領域は、前記複数の画素のうち前記第1画素に隣接する第2画素である。この態様によれば、対象物(100)の表面の質感の判定の精度を更に向上できる。
第19の態様は、第17又は第18の態様の検査システム(1)に基づく。第19の態様では、前記第1領域は、前記複数の画素で構成される画像において最も明るい領域である。この態様によれば、対象物(100)の表面の質感の判定の精度を更に向上できる。
第20の態様は、検査方法であって、取得ステップと、判定ステップとを含む。前記取得ステップは、対象物(100)の表面の画像(P30〜P34)を取得するステップである。前記判定ステップは、色判定処理を行うステップである。前記色判定処理は、前記取得部(F11)で取得された前記対象物100の表面の画像(P30〜P34)から得られる、前記対象物(100)の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、前記対象物(100)の表面の色を判定する処理である。この態様によれば、対象物(100)の表面の色の判定の精度を向上できる。なお、第20の態様には、第2〜第19の態様の検査システム(1)を検査方法に読み替えて適用でき得る。
第21の態様は、プログラムであって、1以上のプロセッサに、第20の態様の検査方法を実行させるための、プログラムである。この態様によれば、対象物(100)の表面の色の判定の精度を向上できる。
第22の態様は、コンピュータで読み取り可能な非一時的な記憶媒体であって、第22の態様のプログラムを記憶している、記憶媒体である。この態様によれば、対象物(100)の表面の色の判定の精度を向上できる。
更に、本開示は、下記の第23〜第34の態様を含む。
第23の態様は、着色検査装置であって、特定の帯域の光を透過するフィルタを交換可能なカメラを備え、前記カメラが撮影した画像を用いて撮影対象の色を検査する。
第24の態様は、第23の態様の着色検査装置に基づく。第24の態様では、前記着色検査装置は、前記カメラを複数台備え、複数の前記カメラの画像を合成して合成画像を作成し、前記合成画像から撮像条件を計算して出力する。
第25の態様は、第24の態様の着色検査装置に基づく。第25の態様では、複数の前記カメラに設けられた前記フィルタは互いに透過帯域が異なる。
第26の態様は、第24又は第25の態様の着色検査装置に基づく。第26の態様では、複数の前記カメラは異なる方向から前記撮影対象を撮影する。
第27の態様は、第24〜第26の態様のいずれか一つの着色検査装置に基づく。第27の態様では、前記着色検査装置は、前記合成画像から前記撮影対象のグラデーションの連続性が維持されるように、前記カメラの画角とズーミングを制御する。
第28の態様は、第27の態様の着色検査装置に基づく。第28の態様では、前記着色検査装置は、撮影対象の形状情報と照明情報を用いて前記カメラを制御する。
第29の態様は、第23〜第29の態様のいずれか一つの着色検査装置に基づく。第29の態様では、前記着色検査装置は、見本となる色データを記録し、前記撮影対象の色と前記見本となる色データを比較し、前記撮影対象を塗装する塗装部を制御する。
第30の態様は、着色検査方法であって、複数の透過帯域の異なるフィルタが設けられたカメラで互いに異なる方向から撮影対象を撮影し、複数の前記カメラの画像を合成して合成画像を作成し、前記合成画像から前記撮影対象の色を検査する。
第31の態様は、第30の態様の着色検査方法に基づく。第31の態様では、前記着色検査方法は、前記合成画像から撮像条件を出力する。
第32の態様は、第30又は第31の態様の着色検査方法に基づく。第32の態様では、前記着色検査方法は、前記合成画像から前記撮影対象のグラデーションの連続性が維持されるように、前記カメラの画角とズーミングを制御する。
第33の態様は、第31の態様の着色検査装置に基づく。第33の態様では、前記着色検査装置は、撮影対象の形状情報と照明情報を用いて前記カメラを制御する。
第34の態様は、第30〜第33の態様のいずれか一つの着色検査装置に基づく。第34の態様では、前記着色検査装置は、見本となる色データを記録し、前記撮影対象の色と前記見本となる色データを比較し、前記撮影対象を塗装する塗装部を制御する。
更に、本開示は、下記の第35〜第37の態様を含む。
第35の態様は、システムであって、ある時点における塗装状態の情報を取得する塗装情報取得部(カメラ群の意味)と、その時点における塗装状態のあるべき状態を示す基準情報を保有する基準情報保持部と、塗装情報取得部と、前記基準情報保持部に接続する制御部と、を備え、前記制御部は、前記塗装情報取得部から得た情報と、基準情報保持部から得た情報との差分を求め、前記差分を元に、前記塗装情報取得部(カメラ群の意)に制御コマンドを送信する。
第36の態様は、第35の態様のシステムに基づく。第36の態様では、前記制御コマンドは、塗装情報取得部(カメラ群の意)に含まれるカメラの動作状態(パン、ズームの意)を変更する。
第37の態様は、第36の態様のシステムに基づく。第37の態様では、前記塗装情報取得部(カメラ群の意)は、俯瞰カメラと、局所カメラと、を有し、前記制御コマンドは前記局所カメラの動作状態(パン、ズームの意)を変更する。
更に、本開示は、下記の第38〜第41の態様を含む。
第38の態様は、撮影方法であって、対象物に対して撮影装置を相対的に変位させるステップと、前記変位前後における前記対象物を撮影した情報に含まれる輝度値情報の変化を取得するステップと、を含む。
第39の態様は、第38の態様の撮像方法に基づく。第39の態様では、前記撮影装置が前記変位の前に取得した情報を画像情報と定義し、前記画像情報は複数の画素を含み、前記撮像方法は、前記変位前後における前記複数の画素間の輝度値の差分の変化を取得する。
第40の態様は、第39の態様の撮像方法に基づく。第40の態様では、前記差分は、前記画像情報の第1画素における輝度値と、前記第1画素に隣接する第2画素における輝度値との差である。
第41の態様は、第40の態様の撮像方法に基づく。第41の態様は、第1画素は、前記画像情報の中でもっとも輝度値の高い画素である。
本出願は、2017年12月8日に出願されたUS仮出願62/596247、2018年7月18日に出願されたUS仮出願62/699935、及び2018年7月18日に出願されたUS仮出願62/699942に基づく優先権を主張するものであって、これらの出願の全ての内容は、参照することによって本出願の開示の内容に組み込まれる。
1 検査システム
F11 取得部
F12 分離部
F13 判定部
20 照明システム
30 撮像システム
31 カメラ(第1カメラ)
32 カメラ(第2カメラ)
40 塗装システム
P10 第1分離画像(分離画像)
P20 第2分離画像(分離画像)
P30 画像
P30〜P34 画像(部分画像)
L1〜L3 場所
100 対象物

Claims (22)

  1. 対象物の表面の画像を取得する取得部と、
    前記取得部で取得された前記対象物の表面の画像から得られる、前記対象物の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、前記対象物の表面の色を判定する色判定処理を行う判定部と、
    を備える、
    検査システム。
  2. 前記取得部で取得された画像から、それぞれ前記対象物の表面の画像を表すが、鏡面反射成分と拡散反射成分の比率が互いに異なる複数の分離画像を取得する分離部を更に備え、
    前記判定部は、前記色判定処理では、前記複数の分離画像に基づいて、前記対象物の表面の色を判定する、
    請求項1の検査システム。
  3. 前記取得部は、前記対象物の表面の画像として、前記対象物の表面の一部を表す複数の部分画像を取得し、
    前記判定部は、前記色判定処理では、前記複数の部分画像から得られる、前記複数の反射状態それぞれにおいて前記対象物の表面の全体を表す画像に基づいて、前記対象物の表面の色を判定する、
    請求項1又は2の検査システム。
  4. 前記複数の部分画像は、前記対象物に関する撮像方向が異なる複数のカメラで生成される、
    請求項3の検査システム。
  5. 前記対象物の表面に光を照射する照明システムと、
    前記照明システムによって照らされている前記対象物の表面を撮像して前記対象物の表面の画像を生成する撮像システムと、
    を更に備え、
    前記取得部は、前記撮像システムから、前記対象物の表面の画像を取得し、
    前記照明システムが放射する光の波長と前記撮像システムが検出する光の波長との少なくとも一方は変更可能である、
    請求項1〜4のいずれか一つの検査システム。
  6. 前記判定部は、前記色判定処理では、前記対象物の表面の目的の色の情報を含む見本データを利用して、前記対象物の表面の色を判定する、
    請求項1〜5のいずれか一つの検査システム。
  7. 前記見本データは、前記対象物の形状と前記対象物の撮像条件との少なくとも一方を含む、
    請求項6の検査システム。
  8. 前記判定部は、前記対象物の表面を塗装する塗装システムを、前記色判定処理の結果に基づいて制御する、
    請求項1〜7のいずれか一つの検査システム。
  9. 前記対象物の表面を撮像して前記対象物の表面の画像を生成する撮像システムを更に備え、
    前記取得部は、前記撮像システムから、前記対象物の表面の画像を取得し、
    前記判定部は、前記取得部で取得された前記対象物の表面の画像に基づいて、前記対象物の表面の塗装状態を判定する塗装判定処理を行い、前記塗装判定処理の結果に応じて前記撮像システムを制御する、
    請求項1の検査システム。
  10. 前記判定部は、前記塗装判定処理では、前記取得部で取得された前記対象物の表面の画像から得られる前記表面の塗装状態と前記対象物の表面の目的の塗装状態との差分を求める、
    請求項9の検査システム。
  11. 前記撮像システムは、複数のカメラを含み、
    前記判定部は、前記塗装判定処理の結果に応じて前記撮像システムの前記複数のカメラの動作状態を制御する、
    請求項9又は10の検査システム。
  12. 前記複数のカメラは、前記対象物の表面の一部の画像を生成する1以上の第1カメラと、前記対象物の表面の全体の画像を生成する第2カメラとを含み、
    前記判定部は、前記塗装判定処理の結果に応じて前記1以上の第1カメラの動作状態を制御する、
    請求項11の検査システム。
  13. 前記判定部は、前記第2カメラで撮像された画像と前記塗装判定処理の結果に応じて前記1以上の第1カメラの動作状態を制御する、
    請求項12の検査システム。
  14. 前記取得部は、異なる場所から前記対象物の表面を撮像して得られた複数の系列画像を取得し、
    前記判定部は、前記複数の系列画像間の輝度情報の変化に基づいて、前記対象物の表面の質感を判定する質感判定処理を行う、
    請求項1の検査システム。
  15. 前記複数の系列画像のうちの少なくとも2つは、同一のカメラの位置を変えて前記対象物の表面を撮像して得られる、
    請求項14の検査システム。
  16. 前記複数の系列画像の各々は複数の画素を含み、
    前記輝度情報は、前記複数の画素から求まる輝度値の差分を含む、
    請求項14又は15の検査システム。
  17. 前記差分は、前記複数の画素のうち1以上を含む第1領域の輝度値と、前記第1領域に隣接し前記複数の画素のうちの1以上を含む第2領域の輝度値との差分である、
    請求項16の検査システム。
  18. 前記第1領域は、前記複数の画素のうちの第1画素であり、
    前記第2領域は、前記複数の画素のうち前記第1画素に隣接する第2画素である、
    請求項17の検査システム。
  19. 前記第1領域は、前記複数の画素で構成される画像において最も明るい領域である、
    請求項17又は18の検査システム。
  20. 対象物の表面の画像を取得する取得ステップと、
    前記対象物の表面の画像から得られる、前記対象物の表面において鏡面反射成分と拡散反射成分の比率が互いに異なる複数の反射状態に基づいて、前記対象物の表面の色を判定する色判定処理を行う判定ステップと、
    を含む、
    検査方法。
  21. 1以上のプロセッサに、請求項20の検査方法を実行させるための、
    プログラム。
  22. コンピュータで読み取り可能な非一時的な記憶媒体であって、
    請求項21のプログラムを記憶している、
    記憶媒体。
JP2019558296A 2017-12-08 2018-12-07 検査システム、及び、検査方法 Active JP7285502B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023044435A JP7407408B2 (ja) 2017-12-08 2023-03-20 検査システム及び検査方法
JP2023175297A JP2024009912A (ja) 2017-12-08 2023-10-10 検査システム及び検査方法

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762596247P 2017-12-08 2017-12-08
US62/596,247 2017-12-08
US201862699942P 2018-07-18 2018-07-18
US201862699935P 2018-07-18 2018-07-18
US62/699,942 2018-07-18
US62/699,935 2018-07-18
PCT/JP2018/045094 WO2019112040A1 (ja) 2017-12-08 2018-12-07 検査システム、検査方法、プログラム、及び、記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023044435A Division JP7407408B2 (ja) 2017-12-08 2023-03-20 検査システム及び検査方法

Publications (2)

Publication Number Publication Date
JPWO2019112040A1 true JPWO2019112040A1 (ja) 2020-11-26
JP7285502B2 JP7285502B2 (ja) 2023-06-02

Family

ID=66749903

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019558296A Active JP7285502B2 (ja) 2017-12-08 2018-12-07 検査システム、及び、検査方法
JP2023044435A Active JP7407408B2 (ja) 2017-12-08 2023-03-20 検査システム及び検査方法
JP2023175297A Pending JP2024009912A (ja) 2017-12-08 2023-10-10 検査システム及び検査方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023044435A Active JP7407408B2 (ja) 2017-12-08 2023-03-20 検査システム及び検査方法
JP2023175297A Pending JP2024009912A (ja) 2017-12-08 2023-10-10 検査システム及び検査方法

Country Status (5)

Country Link
US (3) US11379968B2 (ja)
JP (3) JP7285502B2 (ja)
CN (2) CN111433574B (ja)
DE (1) DE112018006287T5 (ja)
WO (1) WO2019112040A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019112040A1 (ja) * 2017-12-08 2019-06-13 パナソニックIpマネジメント株式会社 検査システム、検査方法、プログラム、及び、記憶媒体
WO2021165274A1 (en) * 2020-02-21 2021-08-26 Basf Coatings Gmbh Method for assessing a dotting of a surface
DE102021108563A1 (de) * 2021-04-07 2022-10-13 Dürr Systems Ag Bahnkorrekturverfahren für eine Beschichtungsanlage
WO2023046510A1 (en) * 2021-09-22 2023-03-30 Sony Group Corporation System and method for determining a characteristic of a surface of an object, methods for training a machine-learning model and programmable hardware
CN116297463B (zh) * 2023-05-16 2023-08-01 四川省港奇电子有限公司 一种电源适配器外壳注塑成型检测方法、系统及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435773A (ja) * 1990-05-29 1992-02-06 Honda Motor Co Ltd 自動車製造ラインにおける塗装方法
JPH0581697U (ja) * 1992-03-31 1993-11-05 アンリツ株式会社 外観検査装置
JP2005181038A (ja) * 2003-12-18 2005-07-07 Olympus Corp 反射特性測定装置とそれを用いた高色再現デザインシステム及び反射特性測定方法
JP2010122155A (ja) * 2008-11-21 2010-06-03 Canon Chemicals Inc 板状体の欠陥検出方法及び欠陥検出装置
JP2011505567A (ja) * 2007-12-07 2011-02-24 ビーエーエスエフ ソシエタス・ヨーロピア 特殊効果塗料の光学特性のモデル化およびシミュレーションと分光測色器の照明ジオメトリおよび測定ジオメトリの決定のための方法および装置
WO2011144964A1 (en) * 2010-05-17 2011-11-24 Ford Espana S.L. Inspection system and method of defect detection on specular surfaces
JP2012083239A (ja) * 2010-10-13 2012-04-26 Fujitsu Ltd 塗装表面欠陥検査方法及び塗装表面欠陥検査装置
JP2014240766A (ja) * 2013-06-11 2014-12-25 株式会社リケン 表面検査方法および表面検査装置
US20150002653A1 (en) * 2013-06-27 2015-01-01 Hyundai Motor Company Inspection device for painted surface of vehicle
JP2015184184A (ja) * 2014-03-25 2015-10-22 マツダ株式会社 表面質感評価装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5072128A (en) * 1989-07-26 1991-12-10 Nikon Corporation Defect inspecting apparatus using multiple color light to detect defects
JP3211681B2 (ja) * 1996-01-18 2001-09-25 日産自動車株式会社 塗装欠陥検査装置
JPH09289605A (ja) * 1996-04-23 1997-11-04 Matsushita Electric Ind Co Ltd 撮像装置
JP3690157B2 (ja) * 1998-12-28 2005-08-31 スズキ株式会社 表面欠陥検査装置
JP4371883B2 (ja) 2004-03-31 2009-11-25 ダイハツ工業株式会社 検査用照明光源ユニットとこの光源ユニットを用いた表面欠陥検査装置
WO2006061999A1 (ja) * 2004-12-07 2006-06-15 Matsushita Electric Industrial Co., Ltd. 画像変換方法、装置およびプログラム、テクスチャマッピング方法、装置およびプログラム、並びに、サーバークライアントシステム
JP2006279228A (ja) * 2005-03-28 2006-10-12 Fuji Xerox Co Ltd 撮像装置
JP5014003B2 (ja) * 2007-07-12 2012-08-29 キヤノン株式会社 検査装置および方法
JP4719284B2 (ja) * 2008-10-10 2011-07-06 トヨタ自動車株式会社 表面検査装置
JP2012217139A (ja) * 2011-03-30 2012-11-08 Sony Corp 画像理装置および方法、並びにプログラム
JP5900037B2 (ja) * 2012-03-08 2016-04-06 オムロン株式会社 画像処理装置およびその制御方法
WO2015107889A1 (ja) 2014-01-14 2015-07-23 有限会社パパラボ 着色検査装置および着色検査方法
KR101782542B1 (ko) * 2016-06-10 2017-10-30 주식회사 에이티엠 차량 도장표면 검사시스템 및 검사방법
WO2019112040A1 (ja) * 2017-12-08 2019-06-13 パナソニックIpマネジメント株式会社 検査システム、検査方法、プログラム、及び、記憶媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435773A (ja) * 1990-05-29 1992-02-06 Honda Motor Co Ltd 自動車製造ラインにおける塗装方法
JPH0581697U (ja) * 1992-03-31 1993-11-05 アンリツ株式会社 外観検査装置
JP2005181038A (ja) * 2003-12-18 2005-07-07 Olympus Corp 反射特性測定装置とそれを用いた高色再現デザインシステム及び反射特性測定方法
JP2011505567A (ja) * 2007-12-07 2011-02-24 ビーエーエスエフ ソシエタス・ヨーロピア 特殊効果塗料の光学特性のモデル化およびシミュレーションと分光測色器の照明ジオメトリおよび測定ジオメトリの決定のための方法および装置
JP2010122155A (ja) * 2008-11-21 2010-06-03 Canon Chemicals Inc 板状体の欠陥検出方法及び欠陥検出装置
WO2011144964A1 (en) * 2010-05-17 2011-11-24 Ford Espana S.L. Inspection system and method of defect detection on specular surfaces
JP2012083239A (ja) * 2010-10-13 2012-04-26 Fujitsu Ltd 塗装表面欠陥検査方法及び塗装表面欠陥検査装置
JP2014240766A (ja) * 2013-06-11 2014-12-25 株式会社リケン 表面検査方法および表面検査装置
US20150002653A1 (en) * 2013-06-27 2015-01-01 Hyundai Motor Company Inspection device for painted surface of vehicle
JP2015184184A (ja) * 2014-03-25 2015-10-22 マツダ株式会社 表面質感評価装置

Also Published As

Publication number Publication date
US11727554B2 (en) 2023-08-15
WO2019112040A1 (ja) 2019-06-13
CN111433574B (zh) 2023-07-25
US11379968B2 (en) 2022-07-05
JP7407408B2 (ja) 2024-01-04
JP7285502B2 (ja) 2023-06-02
CN115979424A (zh) 2023-04-18
JP2024009912A (ja) 2024-01-23
CN111433574A (zh) 2020-07-17
US20210166370A1 (en) 2021-06-03
US20220358638A1 (en) 2022-11-10
DE112018006287T5 (de) 2020-10-08
JP2023085360A (ja) 2023-06-20
US20230334644A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
JP7407408B2 (ja) 検査システム及び検査方法
CN110400315A (zh) 一种缺陷检测方法、装置及系统
JP3809838B2 (ja) 照明源固有hsv色座標を用いた画像ハイライト補正方法、画像ハイライト補正プログラム、および画像取得システム
JP2015155892A (ja) 着色検査装置および着色検査方法
JPWO2007020760A1 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
CN106161974A (zh) 利用高动态范围功能的车辆用显示装置及其方法
US8326017B2 (en) Rapid color verification system using digital imaging and curve comparison algorithm
CN110319933B (zh) 一种基于cam02-ucs色貌模型的光源光谱优化方法
CN113612991A (zh) 一种补光型摄像机的亮度均匀性检测方法及装置
Poobalan et al. Fire detection based on color filters and Bag-of-Features classification
Saad et al. Camera vignetting model and its effects on deep neural networks for object detection
JP4534795B2 (ja) 塗膜評価装置及び方法
US9823131B2 (en) Sample target for improved accuracy of color measurements and color measurements using the same
CN111898427A (zh) 一种基于特征融合深度神经网络的多光谱行人检测方法
Sivaraman et al. Object recognition under lighting variations using pre-trained networks
JP2021092887A (ja) 外観検査装置、外観検査システム、特徴量推定装置および外観検査プログラム
Kefer et al. An intelligent robot for flexible quality inspection
Waldner et al. Hardware-in-the-loop-simulation of the light distribution of automotive matrix-led-headlights
GB2590468A (en) Analysing surfaces of vehicles
TS et al. High dynamic imaging for photometry and graphic arts evaluation
JP2022025236A (ja) 塗色識別装置
Kawabata et al. One shot photometric stereo from reflectance classification
US20240096059A1 (en) Method for classifying images and method for optically examining an object
Gonzalez et al. Chromaticity improvement using the MSR model in presence of shadows
GB2590469A (en) Analysing a class of vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230320

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230331

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230512

R151 Written notification of patent or utility model registration

Ref document number: 7285502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151