JP4808871B2 - Surface texture evaluation device - Google Patents

Surface texture evaluation device Download PDF

Info

Publication number
JP4808871B2
JP4808871B2 JP2001212134A JP2001212134A JP4808871B2 JP 4808871 B2 JP4808871 B2 JP 4808871B2 JP 2001212134 A JP2001212134 A JP 2001212134A JP 2001212134 A JP2001212134 A JP 2001212134A JP 4808871 B2 JP4808871 B2 JP 4808871B2
Authority
JP
Japan
Prior art keywords
measured
angle
dimensional
surface texture
degrees
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001212134A
Other languages
Japanese (ja)
Other versions
JP2003028805A (en
Inventor
茂樹 吉田
仁夫 高田
幸浩 渕田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurashiki Spinning Co Ltd
Original Assignee
Kurashiki Spinning Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurashiki Spinning Co Ltd filed Critical Kurashiki Spinning Co Ltd
Priority to JP2001212134A priority Critical patent/JP4808871B2/en
Publication of JP2003028805A publication Critical patent/JP2003028805A/en
Application granted granted Critical
Publication of JP4808871B2 publication Critical patent/JP4808871B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、メタリックカラー塗装やパールマイカ塗装などの塗装品質及び表面性状品質を高速かつ広範囲にわたって定量的に評価する表面性状評価装置に関する。
【0002】
【従来の技術】
光源からの光線の入射角及び観察角の変化によって、面の色相、明度、彩度が変化するメタリックカラー塗装やパールマイカカラー塗装の塗装面を評価する装置について、特開平11−211673号公報に開示されている。
【0003】
この装置は、所定の位置関係に保持された2次元アレイセンサと照明とを被測定物の塗装面に対して所定の距離で正対させた状態で保持する構成を有する。そして、2次元アレイセンサと照明とを被測定物に対して相対的に移動させながら広範囲にわたって撮影を繰り返すことで、被測定物の同一点から反射された光線の出射角度がそれぞれ異なった状態での複数の画像を得、この複数の画像から被測定物の同一点の輝度値などをそれぞれ抽出することにより、変角輝度の分布を求め、これに基づいて被測定物の光学的反射性状を定量的に評価するものである。
【0004】
しかし、この装置は、2次元アレイセンサを用いて構成されているため、撮像範囲(移動方向・幅方向)、角度情報数、画像の取り込み速度、被測定物の移動速度をそれぞれ独立して構成することができないという問題を有し、実用させるための制限が多く、設定も非常に複雑であった。
【0005】
すなわち、上記装置では、図8及び図9に示すように、広い変角情報を得るためには、2次元アレイセンサの視野角を広くする必要がある。具体的には、視野角αが80度の2次元アレイセンサ81を用いた場合(図8(a))、光源から被測定物移動方向50に対して、45度の角度で平行光83,84,85が入射したとすると、被測定物表面82により反射された光83a,84a,85aはそれぞれ85度、45度、5度で2次元アレイセンサ81に入射する。よって、この場合は、5〜85度の範囲の変角情報を得ることができる。
【0006】
しかし、この2次元アレイセンサ81を用いた場合、被測定物の幅方向51に対しても視野角が広くなる。すなわち、図8(b)に示すように、被測定物の幅方向51に対して、中央部分を測定する場合は、光88はアレイセンサ81に対して直角に入射する。しかし、それぞれ視野の端に近づくにつれて、アレイセンサ81に対する入射角度が大きくなり、視野の端では、光86,88はアレイセンサ81に対して、40度の傾きをもって入射することになる。すなわち、視野の端に近づくにつれて、入射角度の変化を持たないことが理想である視野幅方向に対しても、広い角度情報を持つことになり、評価性能が低下する。
【0007】
また、図9に示すように、センサアレイ81の視野角βを小さくすることによって、被測定物の幅方向の入射角度を小さくすることができる。例えば、図9(b)に示すように、視野角を20度とすると、被測定物幅方向51の入射角については、10度と小さくなる。しかし、このことは、同時に被測定物移動方向50についても、角度情報を狭くすることになり、35〜55度までとその範囲は激減し、評価性能が低下する。すなわち、視野角を狭くして視野幅方向の性能を向上させることは、逆に移動方向の角度情報も狭くなることにつながる。
【0008】
また、図10に示すように被測定物の幅方向51の性能低下を解消するために、ある程度の広がりを持った照明83,84,85を用い、テレセントリックレンズ89などの光学系を用いる方法も考えられる。この方法によれば、被測定物幅方向51については、反射光86,87,88はアレイセンサ81に対して垂直方向に入射する(図10(b))。しかし、被測定物移動方向50についての変角情報は、入射光83,84,85の広がりの範囲内となり、さらに大幅に低下し、広い範囲にわたった計測が困難になる(図10(a))。このように、2次元アレイセンサを用いたこの装置によれば、移動方向と幅方向の撮影範囲について独立して構成することはできず、被測定物移動方向に広い変角情報を得ようとすると、被測定物幅方向の測定の性能が低下する。したがって、広い角度情報を広い範囲にわたって定量的に評価することは困難であり、メタリック塗装などのすかし評価などを行なうことができない。
【0009】
次に、図11を参照して被測定物の移動について考える。例えば、撮影範囲のアスペクト比が1の2次元アレイセンサを用いて、1m幅の被測定物を計測した場合について考えると、1回の撮像で1×1mの画像を取得することができる。しかしこれだけでは、被測定物の位置ごとに照明の受光角度が違う画像にすぎず、同一点について異なる変角情報を取得するためには、被測定物を移動させる必要がある。図11(a)に示すように、このとき、最大角度範囲の変角情報を取得するためには、被測定物は、ライン83から85の位置まで、照射幅55に等しい距離である約1mを移動しなければならない。したがって、撮影範囲全体について最大範囲の変角情報を取得するには、3m移動する必要がある。
【0010】
このように、より広い範囲を評価するためには、変角情報を得るための位置も相対的に離れることになる。相対的に離れていることは、移動機構部などを備えた装置にあっては撮影周期と移動の同期は比較的取りやすいため問題は少ないが、ラインスピードが変動しやすい工場ライン上に流れている被測定物を測定する場合には問題が大きい。すなわち、ラインスピードの変動が測定位置のずれとなり、被測定物の違う位置での変角情報を取得することになる。さらに、より広い範囲での評価を実現させるために撮影範囲を広くした場合には、被測定物の移動量も増大し、さらに変動量も大きくなることが想定される。つまり、これらの装置単独で工場ラインに対応することは困難であり、工場ラインにおいてこの装置を用いるためには、工場ラインの速度と撮影のタイミングとを同期させるための設備が別に必要になる。
【0011】
また、撮影手段として用いられている2次元アレイセンサは現状では、特殊なものを除き、一般的な取り込み速度は1/60秒(16.7msec/測定)で撮影されるものがほとんどである。そのため、一般的な工場ラインスピード(60m/分)の場合、連続したフレームについて取り込む間に被測定物は16.7mm移動することになり、細かいメタルムラやメタリック感などの表面性状評価は困難となる。さらに、高速ラインに用いられる場合は、実用するのはより困難で問題が多い。
【0012】
【発明が解決しようとする課題】
したがって、本発明が解決しようとする技術的課題は、移動方向及び幅方向の撮像範囲、角度情報数、画像の取り込み速度、被測定物の移動速度をそれぞれ独立して構成することができる表面性状評価装置を提供することである。
【0013】
【課題を解決するための手段および作用・効果】
本発明は、上記技術的課題を解決するために、以下の構成の表面性状評価装置を提供する。
【0014】
表面性状評価装置は、被測定物の移動方向に対して略垂直に配置され前記被測定物に照射された光の反射光を検出する一次元撮像手段と、前記被測定物に対する入射角度がそれぞれ異なるように配置された前記被測定物の表面を照射する複数の照明手段と、前記被測定物を照射する前記照明手段を時経列的に切り換える照明制御手段と、前記照明制御手段によって切り換えられ前記被測定物を照射する前記照明手段と前記一次元撮像手段との位置関係から照明光の入射の変化に対する前記被測定物表面の反射特性に相当する評価値を算出する評価値算出手段とを有する。
【0015】
上記構成において、被測定物の幅方向の性能低下を考慮した一次元撮像手段の視野角を自由に設定しながらも、広い変角情報を取得できるように、複数に配置した照明手段を高速に点滅切り換えする。また、一般的に撮像手段に1次元アレイセンサ等を用いた場合、1/20000秒ほどの高速な取り込み速度を容易に実現することもできる。よって、高速で変角情報を取得することができるため、工場ラインスピードとの同期させる手段が不要であり、ラインスピードが変動しやすい工場ラインなどでの測定においても、色情報及び変角情報をほぼ同時に評価することができる。
【0016】
したがって、上記構成によれば、被測定物の移動方向及び幅方向の撮像範囲、角度情報数、取り込み速度、被測定物の移動速度を独立して構成することが可能となる。
【0017】
本発明の表面性状評価装置は、具体的には以下のように種々の態様で構成することができる。
【0018】
好ましくは、前記照明手段は、白色LEDである。
【0019】
上記構成によれば、色、光沢感などの評価において、照明手段からの光色の影響を受けることがなく、より精度が高い測定を行なうことができる。また、LEDは高速で点灯、消灯の切り換えを行なうことができ、被測定物の測定において、高速に画像の取り込みを可能にする。
【0020】
好ましくは、前記照明手段は、線状の光線パターンを発する。
【0021】
上記構成によれば、線状の光線によって、広範囲に亘った被測定物の測定を行なうことができる。
【0022】
好ましくは、表面性状評価装置は、テレセントリック光学系を備える。
【0023】
上記構成によれば、撮像手段に入射する反射光は、すべて平行光として入射するため、被測定物幅方向に対する測定において角度の影響を受けることがなく、測定の性能を向上させることができる。
【0024】
本発明は、さらに以下の構成の表面性状評価装置を提供する。
【0025】
表面性状評価装置は、被測定物の表面を照射する照明手段と、前記照明手段から前記被測定物に照射された光の反射光を検出し、前記反射光の受光角度が異なるように配置された複数の一次元撮像手段と、前記照明手段と前記一次元撮像手段との位置関係から異なる反射光の受光角に対する前記被測定物表面の反射特性に相当する評価値を算出する評価値算出手段とを有する。
【0026】
上記構成において、照明手段から照射された光が被測定物により反射されると、その反射角度が異なる位置に複数の1次元撮像手段が配置される。したがって、それぞれの1次元撮像素子には、同一ポイントについてそれぞれ受光角度が異なる反射光が入射し、被測定物が移動することによりその反射光に対する2次元画像が得られるため、これらの画像を用いて測定物表面の反射特性に相当する評価値を算出することができる。
【0027】
【発明の実施の形態】
以下、本発明の各実施形態に係る表面性状評価装置について、図面を参照しながら説明する。
【0028】
図1は、本発明の第1実施形態にかかる表面性状評価装置の構成を示す概略図である。(a)は、側面図、(b)は平面図を表す。本表面性状評価装置10は、受光角度が測定対象物20の法線方向に対して45度となるように配置された一次元リニアアレイセンサ(CCDリニアカメラ)15と、CCDリニアカメラ15への入射方向がそれぞれ異なるように配置された線状の光線パターンを発する4つの白色LED11〜14を有する。CCDリニアカメラ15は、図1(b)に示すように、被測定物20の移動方向50に対して垂直方向に配置される。白色LED11〜14は、受光の鏡面反射(フレネル反射)となる角度を0度とし、図1(a)において右側をプラス方向とすると、それぞれ第1LED11が110度、第2LED12が45度、第3LED13が15度、第4LED14が0度となるように配置されている。
【0029】
CCDリニアカメラ15及びLED11〜14はそれぞれ、カメラ信号取り込み部17及びLED点滅切り換え制御部16を介して、コンピュータで制御されており、上記の各角度に配置したLEDを高速に点滅切り換え制御し測定することにより変角情報を取得する。被測定物20は、移動部21に固定されており、これが移動方向50に移動することによって、ともに移動する。被測定物20が移動しながらCCDリニアカメラ15で測定を連続的に行なうことにより2次元的な画像を取得する。これらの情報はすべてコンピュータに伝送され、取得した変角情報を用いて、色、光沢感、フロップ感、メタリック感などの評価値を演算し、結果を出力するデータ処理部として機能する。
【0030】
図2は、図1にかかる表面性状評価装置の計測方法を説明する図である。表面性状評価装置は、被測定物20に反射してCCDリニアカメラ15に対して入射する反射光45に対して受光角度が異なるように配置された4つのLED11〜14が設けられている。たとえば、第1のLED11から照射された光41は被測定物20に反射されて反射光45としてCCDリニアカメラ15に入射する。このときの受光角度は、図2(a)の符号31で示すようになる。同様に、第2のLEDから照射された光42は受光角度32でCCDリニアカメラ15に入射する。このように、本表面性状評価装置は、照射するLEDを切り換えることにより、異なる変角情報についての情報をとることができる。
【0031】
一方、被測定物の幅方向51に関しては、図2(b)に示すように、視野角を調整することにより、与える角度情報の影響を小さくすることができる。すなわち、視野角αを小さくすることにより、視野の端部の反射光46,48に生じる角度情報の影響βを小さくすることができる。また、上述のように、被測定物の移動方向50においてとることができる変角情報は、LEDの配置位置によって任意に設定できるため、視野角αを小さくしても、被測定物移動方向50の変角情報が小さくなることがない。よって、被測定物の大きさや特性などに応じて被測定物幅方向51の視野角を自由に設定することができる。
【0032】
図3は、テレセントリック光学系を用いた変形例を示す図である。図3(b)に示すように、テレセントリック光学系として、テレセントリックレンズ19を用いることができる。テレセントリックレンズ19を用いた場合であっても、図3(a)に示すように、CCDリニアカメラ15は、被測定物移動方向50に視野角を有さないため、テレセントリックレンズ19の影響を受けることはない。一方、テレセントリックレンズ19によって、CCDリニアカメラ15に入射する反射光を平行光46〜48とすることができる。よって、被測定物幅方向51の撮影範囲は小さくなるが、撮影視野の端部における角度βの影響を限りなくなくすことができる。
【0033】
次に、図4を用いて本実施形態にかかる表面性状評価装置の計測処理の流れを説明する。まず、(1)第1LED11を点灯して、CCDリニアカメラ15で1ライン計測する。被測定物表面からの反射光の1次元情報を第1変角データ61aとして取得する。データ取得後、第1LEDを消灯する。次いで(2)第2LED12を点灯して、CCDリニアカメラ15で1ライン計測する。被測定物表面からの反射光の1次元情報を第2変角データ62aとして取得する。データ取得後、第2LEDを消灯する。(3)同様に第3LED13により第3変角データ63a、第4LED14により第4変角データ64aを取得し、第1ラインにおけるデータ60a取得を終了する。(4)移動部によって被測定物を移動(50a)しつつ、これらの処理を任意に設定した取り込みライン数になるまで繰り返し行ない、各ラインにおけるデータ60b,60c〜60nまでを取得する(図4(a))。(5)所定ラインまで取り込みが終了すると、それぞれのラインの第1〜第4変角データを並べ替え、それぞれ取り込みライン順に表示することにより、それぞれの変角画像61〜64を取得する。すなわち、図4(b)に示すように第1〜第4の変角データまでが繰り返されて所定ライン数並んだデータを、各変角データごとに並べ替えた変角画像を作成する。すなわち、第1ラインの第1の変角データ61aを第1変角画像61の第1ラインに移動し、第1ラインの第2の変角データ62aを第2変角画像62の第1ラインに移動する。以下同様に第3変角画像63、第4変角画像64を作成する。
【0034】
このようにして得られた第1〜第4の変角画像61〜64に基づいて、それぞれ、強度の3次元分布図を作成する。図5に任意の変角画像の3次元強度分布図を示す。右側横軸は、視野幅方向を示し、CCDリニアカメラの任意の1ラインにおける幅方向の位置を示している。手前縦軸は、ライン方向を示しており、被測定物が移動することによって得られる移動方向の位置を示している。垂直軸は輝度を示しており、CCDリニアカメラがカラーカメラである場合は、それぞれRGBの3要素についてそれぞれの強度分布を作成する。3次元強度分布に基づいて、不要な範囲を除去し、ドットごとに以下の各評価値(色、光沢感、フロップ感、メタリック感)を算出する。
【0035】
本実施形態では、被測定物の色演算処理は、第2変角画像の3次元分布データを用いて行なう。色演算は、色彩値、色ムラ、色差について演算する。
【0036】
まず、各ドットで算出したRGB値をCIE XYZ値に変換する。得られた各ドットのXYZ値を用いて、代表的なCIE LABなどの均等色空間に変換する。以上の処理により、各ドット(画素)ごとに、CIE LABの色彩値を持つことになる。例えば、CCDリニアカメラの画素分解能が1024画素で、1024ラインを測定したような場合など、全体画像が膨大な量の色彩値を持つ場合には、必要に応じて、特定範囲、さらには特定色などの平均化処理によりデータ数を減らし、演算処理時間を短縮することもできる。本装置では、広範囲において計測が可能であるため、メタリックや柄模様など、スポット計測では安定して計測できないような被測定物に対しても、安定した色計測が可能となる。
【0037】
色差は、各画像で得た色彩値を基準画像の色彩値と比較することにより演算する。また、色ムラは、画像を複数に分割し、各分割部分を比較することにより、評価する。すなわち、色ムラには、全体的に大きく発生しているものや細かく発生しているものなど様々な状態が考えられるため、領域の大きさを変えることによって、色ムラの大きさを判断要素に加えた評価をすることができる。
【0038】
本実施形態では、第4変角画像の3次元分布データを用いて、被測定物の光沢感の演算処理を行なう。光沢感は、JISに定められている光沢度を基準として、正規化し、色彩値算出時と同様に必要に応じて全体画像もしくは特定範囲、さらには特定色などの平均化処理を行なう。各画像において得られた光沢値を基準画像の光沢値と比較することにより光沢値の差を求める。また、色ムラと同様の手法を用いて光沢ムラの評価を行なう。
【0039】
フロップ感については、第1〜第3の変角画像の3次元分布データを用いて演算処理を行なう。フロップ感とは、入射受光の角度変化により、色相、明度、彩度などが異なって見える幾何学的メタメリズムのことであり、広く用いられるフロップ評価式により算出する。演算は、色計測と同様に各ドットで算出したフロップ値を指定範囲で平均処理などを実施することにより、広範囲のフロップ計測を実施する。また、色ムラと同様の手法によりフロップムラの評価を行なう。
【0040】
メタリック感については、第3の変角画像の3次元分布データのドット間による輝度変化差を用いて演算処理を行なう。メタリック感のある被測定物はドット間の輝度変化差が大きくなる傾向にあり、高低差の大きい3次元分布データとなる。
【0041】
なお、同様の処理により印刷した被測定物のコントラスト評価やエンボス加工や柚肌加工した被測定物の凹凸感、紙や不織布などのムラ評価も行なうことができる。
【0042】
図6は、本発明の第2実施形態にかかる表面性状評価装置の構成を示す概略図である。(a)は側面図、(b)は平面図を表す。この表面性状評価装置10aは、図1に係る装置と構成を大略同じとする。異なる点は、被測定物20aが工場ライン21a上で連続的に移動しており、第1〜第4のLED11a〜14aにおいて、まったく同じラインを計測しない点である。ただし、第1〜第4のLED11a〜14aはそれぞれ20000分の1秒ごとの高速に点滅を行ない、CCDリニアカメラもこのタイミングで撮影を行なうことが可能であるため、移動に伴う性能の低下は少なく抑えることができる。また、測定ポイントの位置と変角情報との相対関係がないため、工場ライン21の移動速度が変化した場合であっても、変角情報に及ぼす影響がない。
【0043】
図7は、本発明の第3実施形態にかかる表面性状評価装置の構成を示す概略図である。(a)は側面図、(b)は平面図を表す。本表面性状評価装置10bは、受光角度が測定対象物20bの法線方向に対して45度となるように配置された線状の光線パターンを発する白色LED11bと、白色LED11bから照射された光が測定対象物20bに反射された反射光の受光角度がそれぞれ異なるように配置された4つのCCDリニアカメラ15b〜15eを有する。それぞれのCCDリニアカメラ15b〜15eは、被測定物20の移動方向50に対して垂直方向に配置される。それぞれのリニアカメラ15b〜15eは、白色LED11bからの入射光の鏡面反射(フレネル反射)となる角度を0度とし、図7において右側をプラス方向とすると、それぞれ第1リニアカメラ15bが110度、第2リニアカメラ15cが45度、第3リニアカメラ15dが15度、第4リニアカメラ15eが0度となるように配置されている。
【0044】
CCDリニアカメラ15b〜15e及びLED11bはそれぞれ、カメラ信号取り込み部17b及びLED点灯制御部16bを介して、コンピュータで制御されており、LED11bが点灯している間に上記の各角度に配置したCCDリニアカメラによってそれぞれ撮影された画像によって変角情報を取得する。被測定物20bは移動部21bによって、移動方向50に移動する。被測定物20bが移動しながらCCDリニアカメラ15b〜15eで測定を連続的に行なうことにより2次元的な画像を取得する。これらの情報はすべてコンピュータ18bに伝送され、取得した変角情報を用いて、色、光沢感、フロップ感、メタリック感などの評価値を演算し、結果を出力するデータ処理部として機能する。測定の処理については、図1に記載の表面性状評価装置と大略同じである。
【0045】
このように構成することにより、それぞれのリニアカメラ15b〜15eによって、直接変角画像を作成することができる。
【0046】
以上説明したように、各実施形態にかかる表面性状評価装置は、被測定物の移動方向に対して略垂直に配置され被測定物に照射された光の反射光を検出するCCDリニアカメラと、被測定物に対する入射方向がそれぞれ異なるように配置された被測定物の表面を照射する複数のLEDとを有し、複数のLEDを切り換えながら点滅させることによって、複数の角度情報を有する角度画像を作成することができる。したがって、移動方向及び幅方向の撮像範囲、角度情報数、画像の取り込み速度、被測定物の移動速度をそれぞれ独立して構成することができる。
【0047】
また、被測定物の表面を照射するLEDと、LEDから被測定物に照射された光の反射光を検出し、反射光の受光角度が異なるように配置された複数のCCDリニアカメラを備えることによっても、同様に複数の角度情報を有する角度画像を作成することができる。
【0048】
なお、本発明は上記実施形態に限定されるものではなく、その他種々の態様で実施可能である。例えば、LEDの代わりに高速で点灯・消灯できるフラッシュなどの照明手段を用いてもよく、また、白色LEDの代わりに、赤、緑、青のLEDを切り換えて用いることにより、カラーカメラを用いることなく、色の評価を行なうことができる。
【図面の簡単な説明】
【図1】 本発明の第1実施形態にかかる表面性状評価装置の構成を示す概略図である。(a)は、側面図、(b)は平面図を表す。
【図2】 図1にかかる表面性状評価装置の計測方法を説明する図である。
【図3】 テレセントリック光学系を用いた変形例を示す図である。
【図4】 表面性状評価装置の計測処理の説明図である。
【図5】 任意の変角画像の3次元強度分布図を示す。
【図6】 本発明の第2実施形態にかかる表面性状評価装置の構成を示す概略図である。(a)は側面図、(b)は平面図を表す。
【図7】 本発明の第3実施形態にかかる表面性状評価装置の構成を示す概略図である。(a)は側面図、(b)は平面図を表す。
【図8】 視野角の広い従来の装置の出射角の変化を示す説明図である。
【図9】 視野角の狭い従来の装置の出射角の変化を示す説明図である。
【図10】 テレセントリックレンズを用いた従来の装置の出射角の変化を示す説明図である。
【図11】 被測定物の移動速度と距離との関係を説明するための図である。
【符号の説明】
10,10a,10b 表面性状評価装置
11 第1LED
12 第2LED
13 第3LED
14 第4LED
15,15a、15b〜15e CCDリニアカメラ
16,16a,16b LED点滅切り換え制御部
17,17a,17b カメラ信号取り込み部
20,20a,20b 被測定物
21,21a,21b 移動部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a surface texture evaluation apparatus that quantitatively evaluates coating quality and surface texture quality such as metallic color coating and pearl mica coating at high speed over a wide range.
[0002]
[Prior art]
Japanese Patent Application Laid-Open No. 11-212673 discloses an apparatus for evaluating a painted surface of a metallic color coating or a pearl mica color coating in which the hue, brightness, and saturation of a surface change depending on the change in the incident angle and observation angle of a light beam from a light source. It is disclosed.
[0003]
This apparatus has a configuration in which a two-dimensional array sensor and an illumination held in a predetermined positional relationship are held in a state where they face each other at a predetermined distance with respect to a painted surface of an object to be measured. Then, by repeating the imaging over a wide range while moving the two-dimensional array sensor and the illumination relative to the object to be measured, the emission angles of the rays reflected from the same point of the object to be measured are different from each other. A plurality of images are obtained, and from each of the plurality of images, the brightness value of the same point of the object to be measured is extracted, thereby obtaining a variable luminance distribution, and based on this, the optical reflection property of the object to be measured is determined. This is a quantitative evaluation.
[0004]
However, since this device is configured using a two-dimensional array sensor, the imaging range (moving direction / width direction), the number of angle information, the image capturing speed, and the moving speed of the object to be measured are configured independently. It has a problem that it cannot be performed, there are many restrictions for practical use, and the setting is very complicated.
[0005]
That is, in the above apparatus, as shown in FIGS. 8 and 9, in order to obtain wide angle change information, it is necessary to widen the viewing angle of the two-dimensional array sensor. Specifically, when the two-dimensional array sensor 81 having a viewing angle α of 80 degrees is used (FIG. 8A), the parallel light 83, 45 ° with respect to the measured object moving direction 50 from the light source, Assuming that 84 and 85 are incident, the light 83a, 84a and 85a reflected by the surface 82 of the object to be measured is incident on the two-dimensional array sensor 81 at 85 degrees, 45 degrees and 5 degrees, respectively. Therefore, in this case, the angle change information in the range of 5 to 85 degrees can be obtained.
[0006]
However, when the two-dimensional array sensor 81 is used, the viewing angle is wide with respect to the width direction 51 of the object to be measured. That is, as shown in FIG. 8B, when measuring the central portion with respect to the width direction 51 of the object to be measured, the light 88 enters the array sensor 81 at a right angle. However, the incident angle with respect to the array sensor 81 increases as it approaches the edge of the field of view, and the light 86 and 88 enter the array sensor 81 with an inclination of 40 degrees at the edge of the field of view. That is, as it approaches the edge of the field of view, it has wide angle information even in the field width direction, which is ideal to have no change in the incident angle, and the evaluation performance deteriorates.
[0007]
Further, as shown in FIG. 9, by reducing the viewing angle β of the sensor array 81, the incident angle in the width direction of the object to be measured can be reduced. For example, as shown in FIG. 9B, when the viewing angle is 20 degrees, the incident angle in the measured object width direction 51 is as small as 10 degrees. However, this also narrows the angle information for the object movement direction 50 at the same time, and the range is drastically reduced to 35 to 55 degrees, and the evaluation performance deteriorates. That is, narrowing the viewing angle to improve the performance in the viewing width direction leads to narrowing of the angle information in the moving direction.
[0008]
In addition, as shown in FIG. 10, in order to eliminate the performance degradation in the width direction 51 of the object to be measured, there is a method using illumination 83, 84, 85 having a certain extent and using an optical system such as a telecentric lens 89. Conceivable. According to this method, in the measured object width direction 51, the reflected light 86, 87, 88 is incident on the array sensor 81 in the vertical direction (FIG. 10B). However, the angle change information about the moving direction 50 of the object to be measured falls within the range of the spread of the incident light 83, 84, 85, and further greatly decreases, making it difficult to measure over a wide range (FIG. 10A). )). As described above, according to this apparatus using the two-dimensional array sensor, it is not possible to independently configure the shooting range in the moving direction and the width direction, and it is intended to obtain wide angle-of-change information in the moving direction of the object to be measured. Then, the measurement performance in the measured object width direction is deteriorated. Therefore, it is difficult to quantitatively evaluate wide angle information over a wide range, and watermark evaluation such as metallic coating cannot be performed.
[0009]
Next, the movement of the object to be measured will be considered with reference to FIG. For example, considering a case where a measurement object having a width of 1 m is measured using a two-dimensional array sensor having an aspect ratio of 1 in an imaging range, a 1 × 1 m image can be acquired by one imaging. However, this alone is only an image in which the light receiving angle of illumination is different for each position of the object to be measured, and it is necessary to move the object to be measured in order to obtain different angle change information for the same point. As shown in FIG. 11A, at this time, in order to obtain the angle change information of the maximum angle range, the object to be measured is approximately 1 m, which is a distance equal to the irradiation width 55, from the line 83 to the position of 85. Must move. Therefore, in order to obtain the maximum range of angle change information for the entire photographing range, it is necessary to move 3 m.
[0010]
Thus, in order to evaluate a wider range, the position for obtaining the deflection information is also relatively separated. The fact that they are relatively far apart is less problematic for devices equipped with a moving mechanism, etc., because it is relatively easy to synchronize the shooting cycle and movement, but it flows on the factory line where the line speed tends to fluctuate. The problem is great when measuring the measured object. That is, the fluctuation of the line speed becomes a deviation of the measurement position, and the angle change information at a different position of the object to be measured is acquired. Furthermore, when the imaging range is widened in order to realize evaluation in a wider range, it is assumed that the amount of movement of the object to be measured increases and the amount of fluctuation also increases. That is, it is difficult to deal with the factory line with these apparatuses alone, and in order to use this apparatus in the factory line, a separate facility for synchronizing the speed of the factory line and the timing of photographing is required.
[0011]
Further, at present, most of the two-dimensional array sensors used as photographing means are photographed at a general capturing speed of 1/60 seconds (16.7 msec / measurement) except for special ones. For this reason, in the case of a general factory line speed (60 m / min), the object to be measured moves 16.7 mm while taking in a continuous frame, and it is difficult to evaluate surface properties such as fine metal unevenness and metallic feeling. . Furthermore, when used in high-speed lines, it is more difficult and practical to use.
[0012]
[Problems to be solved by the invention]
Therefore, the technical problem to be solved by the present invention is that the surface texture that can independently configure the imaging range in the moving direction and the width direction, the number of angle information, the image capturing speed, and the moving speed of the object to be measured. It is to provide an evaluation device.
[0013]
[Means for solving the problems and actions / effects]
In order to solve the above technical problem, the present invention provides a surface texture evaluation apparatus having the following configuration.
[0014]
The surface texture evaluation apparatus includes a one-dimensional imaging unit that is arranged substantially perpendicular to the moving direction of the object to be measured and detects reflected light of the light irradiated on the object to be measured, and an incident angle with respect to the object to be measured. A plurality of illumination means for illuminating the surface of the object to be measured arranged differently, an illumination control means for switching the illumination means for illuminating the object to be measured in time series, and switched by the illumination control means Evaluation value calculation means for calculating an evaluation value corresponding to a reflection characteristic of the surface of the object to be measured with respect to a change in incidence of illumination light from a positional relationship between the illumination means for irradiating the object to be measured and the one-dimensional imaging means. Have.
[0015]
In the above configuration, a plurality of illumination means are arranged at high speed so that wide angle information can be obtained while freely setting the viewing angle of the one-dimensional imaging means considering the performance degradation in the width direction of the object to be measured. Switch blinking. In general, when a one-dimensional array sensor or the like is used as an imaging means, a high capture speed of about 1/20000 second can be easily realized. Therefore, since the angle change information can be acquired at high speed, there is no need to synchronize with the factory line speed, and color information and angle change information can be obtained even when measuring at a factory line where the line speed tends to fluctuate. It can be evaluated almost simultaneously.
[0016]
Therefore, according to the above configuration, the imaging range in the moving direction and the width direction of the object to be measured, the number of angle information, the capturing speed, and the moving speed of the object to be measured can be configured independently.
[0017]
Specifically, the surface texture evaluation apparatus of the present invention can be configured in various modes as follows.
[0018]
Preferably, the illumination means is a white LED.
[0019]
According to the above configuration, in the evaluation of color, glossiness, etc., it is possible to perform measurement with higher accuracy without being affected by the light color from the illumination means. Further, the LED can be switched on and off at high speed, so that an image can be captured at high speed when measuring an object to be measured.
[0020]
Preferably, the illumination means emits a linear light beam pattern.
[0021]
According to the said structure, the to-be-measured object can be measured over a wide range with a linear light ray.
[0022]
Preferably, the surface texture evaluation apparatus includes a telecentric optical system.
[0023]
According to the above configuration, since all the reflected light incident on the imaging means is incident as parallel light, the measurement performance can be improved without being affected by the angle in the measurement in the measured object width direction.
[0024]
The present invention further provides a surface texture evaluation apparatus having the following configuration.
[0025]
The surface texture evaluation device is arranged so that the illumination means for irradiating the surface of the object to be measured, and the reflected light of the light irradiated to the object to be measured from the illumination means, and the receiving angle of the reflected light is different. A plurality of one-dimensional imaging means, and an evaluation value calculating means for calculating an evaluation value corresponding to the reflection characteristic of the surface of the object to be measured with respect to the reception angle of the reflected light different from the positional relationship between the illumination means and the one-dimensional imaging means And have.
[0026]
In the above configuration, when the light emitted from the illumination unit is reflected by the object to be measured, a plurality of one-dimensional imaging units are arranged at positions where the reflection angles are different. Therefore, each one-dimensional imaging element receives reflected light having different light receiving angles at the same point, and a two-dimensional image of the reflected light is obtained by moving the object to be measured. Thus, an evaluation value corresponding to the reflection characteristic of the surface of the measurement object can be calculated.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a surface texture evaluation apparatus according to each embodiment of the present invention will be described with reference to the drawings.
[0028]
FIG. 1 is a schematic diagram showing the configuration of the surface texture evaluation apparatus according to the first embodiment of the present invention. (A) is a side view and (b) is a plan view. The surface texture evaluation apparatus 10 includes a one-dimensional linear array sensor (CCD linear camera) 15 disposed so that the light receiving angle is 45 degrees with respect to the normal direction of the measurement object 20, and the CCD linear camera 15. It has four white LED 11-14 which emits the linear light beam pattern arrange | positioned so that incident directions may each differ. The CCD linear camera 15 is arranged in a direction perpendicular to the moving direction 50 of the object to be measured 20 as shown in FIG. In the white LEDs 11 to 14, when the angle at which the received light is specularly reflected (Fresnel reflection) is 0 degree and the right side in FIG. 1A is the plus direction, the first LED 11 is 110 degrees, the second LED 12 is 45 degrees, and the third LED 13 Is arranged to be 15 degrees and the fourth LED 14 is 0 degrees.
[0029]
The CCD linear camera 15 and the LEDs 11 to 14 are controlled by a computer via the camera signal capturing unit 17 and the LED blinking switching control unit 16, respectively. As a result, the deflection information is obtained. The DUT 20 is fixed to the moving unit 21, and moves together when it moves in the moving direction 50. A two-dimensional image is acquired by continuously performing measurement with the CCD linear camera 15 while the object to be measured 20 moves. All of these pieces of information are transmitted to a computer and function as a data processing unit that calculates evaluation values such as color, glossiness, flop feeling, and metallic feeling using the obtained angle change information and outputs the results.
[0030]
FIG. 2 is a diagram for explaining a measurement method of the surface texture evaluation apparatus according to FIG. The surface texture evaluation apparatus is provided with four LEDs 11 to 14 that are arranged so that the light receiving angles are different from the reflected light 45 that is reflected by the object to be measured 20 and incident on the CCD linear camera 15. For example, the light 41 emitted from the first LED 11 is reflected by the object to be measured 20 and enters the CCD linear camera 15 as reflected light 45. The light receiving angle at this time is as indicated by reference numeral 31 in FIG. Similarly, the light 42 emitted from the second LED enters the CCD linear camera 15 at the light receiving angle 32. As described above, the surface texture evaluation apparatus can take information on different deflection information by switching the LED to be irradiated.
[0031]
On the other hand, with respect to the width direction 51 of the object to be measured, as shown in FIG. 2B, the influence of the angle information to be applied can be reduced by adjusting the viewing angle. That is, by reducing the viewing angle α, it is possible to reduce the influence β of the angle information generated in the reflected lights 46 and 48 at the ends of the visual field. Further, as described above, the angle-of-change information that can be obtained in the moving direction 50 of the object to be measured can be arbitrarily set according to the arrangement position of the LED. Is not reduced. Therefore, the viewing angle in the measured object width direction 51 can be freely set according to the size and characteristics of the measured object.
[0032]
FIG. 3 is a diagram showing a modification using a telecentric optical system. As shown in FIG. 3B, a telecentric lens 19 can be used as the telecentric optical system. Even when the telecentric lens 19 is used, the CCD linear camera 15 is not affected by the telecentric lens 19 because the CCD linear camera 15 does not have a viewing angle in the moving direction 50 of the measured object, as shown in FIG. There is nothing. On the other hand, the telecentric lens 19 allows the reflected light incident on the CCD linear camera 15 to be parallel light 46-48. Therefore, the imaging range in the measured object width direction 51 is reduced, but the influence of the angle β at the end of the imaging field of view can be minimized.
[0033]
Next, the flow of measurement processing of the surface texture evaluation apparatus according to the present embodiment will be described with reference to FIG. First, (1) the first LED 11 is turned on and one line is measured by the CCD linear camera 15. One-dimensional information of reflected light from the surface of the object to be measured is acquired as first variable angle data 61a. After data acquisition, the first LED is turned off. Next, (2) the second LED 12 is turned on and one line is measured by the CCD linear camera 15. One-dimensional information of reflected light from the surface of the object to be measured is acquired as second variable angle data 62a. After data acquisition, the second LED is turned off. (3) Similarly, the third LED 13 obtains the third variable angle data 63a and the fourth LED 14 acquires the fourth variable angle data 64a, and the acquisition of the data 60a in the first line is completed. (4) While moving the object to be measured (50a) by the moving unit, the above processing is repeated until the number of fetched lines is set arbitrarily, and data 60b, 60c to 60n in each line is acquired (FIG. 4). (A)). (5) When capturing up to a predetermined line is completed, the first to fourth variable angle data of each line is rearranged and displayed in the order of the acquired lines, thereby acquiring the respective variable angle images 61 to 64. That is, as shown in FIG. 4B, the first to fourth variation data is repeated, and a variation image is created by rearranging the data in which a predetermined number of lines are arranged for each variation data. That is, the first variable angle data 61a of the first line is moved to the first line of the first variable angle image 61, and the second variable angle data 62a of the first line is moved to the first line of the second variable angle image 62. Move to. Thereafter, similarly, a third variable angle image 63 and a fourth variable angle image 64 are created.
[0034]
Based on the first to fourth angle-changed images 61 to 64 obtained in this way, intensity three-dimensional distribution diagrams are created. FIG. 5 shows a three-dimensional intensity distribution diagram of an arbitrary variable angle image. The right horizontal axis indicates the visual field width direction, and indicates the position in the width direction of an arbitrary line of the CCD linear camera. The front vertical axis indicates the line direction and indicates the position in the moving direction obtained by moving the object to be measured. The vertical axis represents luminance, and when the CCD linear camera is a color camera, respective intensity distributions are created for the three elements of RGB. Based on the three-dimensional intensity distribution, unnecessary ranges are removed, and the following evaluation values (color, glossiness, flop feeling, metallic feeling) are calculated for each dot.
[0035]
In the present embodiment, the color calculation process of the object to be measured is performed using the three-dimensional distribution data of the second variable angle image. In the color calculation, color values, color unevenness, and color differences are calculated.
[0036]
First, the RGB value calculated for each dot is converted into a CIE XYZ value. Using the obtained XYZ values of each dot, the image is converted into a uniform color space such as a typical CIE LAB. Through the above processing, each dot (pixel) has a CIE LAB color value. For example, when the entire image has an enormous amount of color values, such as when the pixel resolution of a CCD linear camera is 1024 pixels and 1024 lines are measured, a specific range or even a specific color is selected as necessary. The number of data can be reduced by the averaging process such as, and the calculation processing time can be shortened. In this apparatus, since measurement is possible in a wide range, stable color measurement can be performed even for an object to be measured that cannot be stably measured by spot measurement, such as a metallic pattern.
[0037]
The color difference is calculated by comparing the color value obtained in each image with the color value of the reference image. Color unevenness is evaluated by dividing an image into a plurality of parts and comparing the divided parts. In other words, color unevenness can have various states, such as large overall occurrences or fine occurrences. Therefore, by changing the size of the area, the size of the color unevenness can be used as a decision factor. Additional evaluations can be made.
[0038]
In the present embodiment, the glossiness of the object to be measured is calculated using the three-dimensional distribution data of the fourth variable angle image. The glossiness is normalized based on the glossiness defined in JIS, and the entire image or a specific range, or a specific color is averaged as necessary as in the case of calculating the color value. The difference in gloss value is obtained by comparing the gloss value obtained in each image with the gloss value of the reference image. Further, gloss unevenness is evaluated using a method similar to that for color unevenness.
[0039]
For the feeling of flop, arithmetic processing is performed using the three-dimensional distribution data of the first to third variable angle images. The flop feeling is a geometric metamerism that appears different in hue, lightness, saturation, etc. depending on the angle change of incident light reception, and is calculated by a widely used flop evaluation formula. As in the color measurement, the calculation performs a wide range of flop measurements by averaging the flop values calculated for each dot within a specified range. Further, flop unevenness is evaluated by the same method as color unevenness.
[0040]
For metallic feeling, arithmetic processing is performed using the luminance change difference between the dots of the three-dimensional distribution data of the third variable angle image. An object to be measured having a metallic feeling tends to have a large luminance difference between dots, and becomes three-dimensional distribution data having a large difference in height.
[0041]
In addition, the contrast evaluation of the measured object printed by the same process, the unevenness of the measured object embossed or hulled, and the unevenness evaluation of paper or nonwoven fabric can also be performed.
[0042]
FIG. 6 is a schematic diagram showing the configuration of the surface texture evaluation apparatus according to the second embodiment of the present invention. (A) is a side view and (b) is a plan view. The surface texture evaluation apparatus 10a has substantially the same configuration as the apparatus according to FIG. The difference is that the DUT 20a continuously moves on the factory line 21a, and the same line is not measured in the first to fourth LEDs 11a to 14a. However, each of the first to fourth LEDs 11a to 14a blinks at a high speed every 1/2000 second, and the CCD linear camera can also take a picture at this timing. It can be kept low. In addition, since there is no relative relationship between the position of the measurement point and the angle change information, there is no influence on the angle change information even when the moving speed of the factory line 21 changes.
[0043]
FIG. 7 is a schematic diagram showing the configuration of the surface texture evaluation apparatus according to the third embodiment of the present invention. (A) is a side view and (b) is a plan view. The surface texture evaluation apparatus 10b includes a white LED 11b that emits a linear light beam pattern arranged so that a light receiving angle is 45 degrees with respect to a normal direction of the measurement target 20b, and light emitted from the white LED 11b. There are four CCD linear cameras 15b to 15e arranged so that the light receiving angles of the reflected light reflected by the measurement object 20b are different from each other. Each of the CCD linear cameras 15 b to 15 e is arranged in a direction perpendicular to the moving direction 50 of the object to be measured 20. Each of the linear cameras 15b to 15e has an angle of 0 degree as the specular reflection (Fresnel reflection) of incident light from the white LED 11b, and the right side in FIG. The second linear camera 15c is disposed at 45 degrees, the third linear camera 15d at 15 degrees, and the fourth linear camera 15e at 0 degrees.
[0044]
The CCD linear cameras 15b to 15e and the LED 11b are controlled by a computer via the camera signal capturing unit 17b and the LED lighting control unit 16b, respectively, and the CCD linears arranged at the above angles while the LED 11b is lit. Deflection information is acquired from images captured by the cameras. The DUT 20b is moved in the moving direction 50 by the moving unit 21b. A two-dimensional image is acquired by continuously performing measurements with the CCD linear cameras 15b to 15e while the object to be measured 20b moves. All of these pieces of information are transmitted to the computer 18b and function as a data processing unit that calculates evaluation values such as color, gloss, flop, and metallic feeling using the obtained angle-of-change information and outputs the result. About the process of a measurement, it is substantially the same as the surface property evaluation apparatus of FIG.
[0045]
With such a configuration, it is possible to directly create a variable angle image by each of the linear cameras 15b to 15e.
[0046]
As described above, the surface texture evaluation apparatus according to each embodiment includes a CCD linear camera that is disposed substantially perpendicular to the moving direction of the object to be measured and detects the reflected light of the light irradiated on the object to be measured; A plurality of LEDs that illuminate the surface of the object to be measured that are arranged so that the incident directions to the object to be measured are different from each other, and blinking while switching the plurality of LEDs, thereby obtaining an angle image having a plurality of angle information Can be created. Therefore, the imaging range in the moving direction and the width direction, the number of angle information, the image capturing speed, and the moving speed of the object to be measured can be configured independently.
[0047]
Also, an LED that irradiates the surface of the object to be measured, and a plurality of CCD linear cameras that are arranged so that the reflected light of the light emitted from the LED to the object to be measured is detected and the light receiving angles of the reflected light are different. Similarly, an angle image having a plurality of pieces of angle information can be created.
[0048]
In addition, this invention is not limited to the said embodiment, It can implement in another various aspect. For example, lighting means such as a flash that can be turned on / off at high speed may be used instead of LEDs, and a color camera is used by switching between red, green, and blue LEDs instead of white LEDs. The color can be evaluated.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a configuration of a surface texture evaluation apparatus according to a first embodiment of the present invention. (A) is a side view and (b) is a plan view.
FIG. 2 is a diagram for explaining a measurement method of the surface texture evaluation apparatus according to FIG. 1;
FIG. 3 is a diagram showing a modification using a telecentric optical system.
FIG. 4 is an explanatory diagram of measurement processing of the surface texture evaluation apparatus.
FIG. 5 shows a three-dimensional intensity distribution diagram of an arbitrary variable angle image.
FIG. 6 is a schematic view showing a configuration of a surface texture evaluation apparatus according to a second embodiment of the present invention. (A) is a side view and (b) is a plan view.
FIG. 7 is a schematic diagram showing a configuration of a surface texture evaluation apparatus according to a third embodiment of the present invention. (A) is a side view and (b) is a plan view.
FIG. 8 is an explanatory diagram showing a change in an emission angle of a conventional device having a wide viewing angle.
FIG. 9 is an explanatory diagram showing a change in an emission angle of a conventional device having a narrow viewing angle.
FIG. 10 is an explanatory diagram showing a change in an emission angle of a conventional apparatus using a telecentric lens.
FIG. 11 is a diagram for explaining a relationship between a moving speed and a distance of an object to be measured.
[Explanation of symbols]
10, 10a, 10b Surface texture evaluation device 11 First LED
12 Second LED
13 Third LED
14 4th LED
15, 15a, 15b to 15e CCD linear camera 16, 16a, 16b LED blinking switching control unit 17, 17a, 17b Camera signal capturing unit 20, 20a, 20b Measuring object 21, 21a, 21b Moving unit

Claims (4)

被測定物に照射された光の反射光のうち、前記被測定物の移動方向に対して略垂直な前記被測定物上の1ラインからの反射光を検出する一次元撮像手段と、
前記被測定物からの反射光を前記一次元撮像手段において鏡面反射で受光する場合の前記被測定物に対する入射角度を0度とし、前記一次元撮像手段の方向を正方向の角度として、前記被測定物に対する入射角度が110度、45度、15度、0度となるようにそれぞれ配置され、前記被測定物の表面を照射する、第1照明手段、第2照明手段、第3照明手段、第4照明手段と、
前記被測定物を照射する前記第1乃至第4照明手段を時経列的に切り換える照明制御手段と、
前記第1乃至第4照明手段にそれぞれ対応して前記被測定物からの反射光の一次元情報からなる第1乃至第4変角データを所定ライン数並べて構成される第1乃至第4変角画像の強度の3次元分布データを得て、前記第2変角画像の3次元分布データを用いて前記被測定物の色演算処理を行い、前記第4変角画像の3次元分布データを用いて前記被測定物の光沢感の演算処理を行い、前記第1乃至第3変角画像の3次元分布データを用いて前記被測定物のフロップ感の演算処理を行い、前記第3変角画像の3次元分布データを用いて前記被測定物のメタリック感の演算処理を行う、評価値算出手段と、
を有することを特徴とする表面性状評価装置。
One-dimensional imaging means for detecting reflected light from one line on the object to be measured that is substantially perpendicular to the moving direction of the object to be measured among the reflected light of the light irradiated to the object to be measured;
When the reflected light from the object to be measured is received by specular reflection in the one-dimensional imaging means, the incident angle to the object to be measured is 0 degree, and the direction of the one-dimensional imaging means is a positive angle. A first illuminating unit, a second illuminating unit, a third illuminating unit, which are arranged so that incident angles with respect to the measured object are 110 degrees, 45 degrees, 15 degrees, and 0 degrees, respectively, and irradiate the surface of the measured object; A fourth lighting means;
Illumination control means for switching the first to fourth illumination means for irradiating the object to be measured in time series;
First to fourth variable angles constituted by arranging a predetermined number of lines of first to fourth variable angle data composed of one-dimensional information of reflected light from the object to be measured, corresponding to the first to fourth illumination means, respectively. Obtain three-dimensional distribution data of the intensity of the image, perform color calculation processing of the measurement object using the three-dimensional distribution data of the second variable angle image, and use the three-dimensional distribution data of the fourth variable angle image. The glossiness of the object to be measured is calculated, the flop feeling of the object to be measured is calculated using the three-dimensional distribution data of the first to third variable angle images, and the third variable angle image is calculated. Evaluation value calculation means for performing a calculation process of the metallic feeling of the measurement object using the three-dimensional distribution data of
A surface texture evaluation apparatus comprising:
前記照明手段は、白色LEDであることを特徴とする請求項1記載の表面性状評価装置。  2. The surface texture evaluation apparatus according to claim 1, wherein the illumination unit is a white LED. 前記照明手段は、線状の光線パターンを発することを特徴とする請求項1又は2記載の表面性状評価装置。  3. The surface property evaluation apparatus according to claim 1, wherein the illumination unit emits a linear light beam pattern. テレセントリック光学系を備えることを特徴とする請求項1から3いずれか1つに記載の表面性状評価装置。  The surface texture evaluation apparatus according to claim 1, further comprising a telecentric optical system.
JP2001212134A 2001-07-12 2001-07-12 Surface texture evaluation device Expired - Fee Related JP4808871B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001212134A JP4808871B2 (en) 2001-07-12 2001-07-12 Surface texture evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001212134A JP4808871B2 (en) 2001-07-12 2001-07-12 Surface texture evaluation device

Publications (2)

Publication Number Publication Date
JP2003028805A JP2003028805A (en) 2003-01-29
JP4808871B2 true JP4808871B2 (en) 2011-11-02

Family

ID=19047340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001212134A Expired - Fee Related JP4808871B2 (en) 2001-07-12 2001-07-12 Surface texture evaluation device

Country Status (1)

Country Link
JP (1) JP4808871B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104251866A (en) * 2013-06-27 2014-12-31 现代自动车株式会社 Inspection device for painted surface of vehicle

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524807A (en) * 2003-02-26 2007-08-30 レイモンド, ジェイ. キャストンガイ, Spherical light scattering and far-field phase measurement
TW200540939A (en) * 2004-04-22 2005-12-16 Olympus Corp Defect inspection device and substrate manufacturing system using the same
JP2006208327A (en) * 2005-01-31 2006-08-10 Konica Minolta Sensing Inc Metallic coating face evaluation method, device and operation program
DE102005025291B4 (en) * 2005-06-02 2019-07-25 Byk-Gardner Gmbh Method and device for determining surface properties
JP4739044B2 (en) * 2006-02-09 2011-08-03 三菱原子燃料株式会社 Appearance inspection device
JP5133626B2 (en) * 2007-07-13 2013-01-30 花王株式会社 Surface reflection characteristic measuring device
KR100946459B1 (en) * 2007-12-12 2010-03-10 현대자동차주식회사 Method of evaluating sensitive grade of interior material used in conveyance
JP4719284B2 (en) 2008-10-10 2011-07-06 トヨタ自動車株式会社 Surface inspection device
JP5068731B2 (en) * 2008-11-14 2012-11-07 新日本製鐵株式会社 Surface flaw inspection apparatus, surface flaw inspection method and program
DE102009033098B4 (en) 2009-07-15 2023-07-13 Byk Gardner Gmbh Method and device for determining properties of structured surfaces
FI124452B (en) * 2010-07-09 2014-09-15 Teknologian Tutkimuskeskus Vtt Method and apparatus for measuring color and other properties of a surface
JP5806808B2 (en) * 2010-08-18 2015-11-10 倉敷紡績株式会社 Imaging optical inspection device
KR20130056473A (en) * 2011-11-22 2013-05-30 동우 화인켐 주식회사 Apparatus and method for correction of vibration noise using optical inspection system
JP2013150205A (en) * 2012-01-20 2013-08-01 Seiko Epson Corp Manufacturing method of printing device, colorimetric apparatus and colorimetric method
US9212900B2 (en) 2012-08-11 2015-12-15 Seagate Technology Llc Surface features characterization
JP6478492B2 (en) * 2014-06-27 2019-03-06 キヤノン株式会社 Image processing apparatus and method
JP2016194449A (en) * 2015-03-31 2016-11-17 有限会社パパラボ Coloring checkup device, and coloring checkup method
JP2019135460A (en) * 2018-02-05 2019-08-15 株式会社Screenホールディングス Image acquisition device, image acquisition method, and inspection device
JP7113627B2 (en) * 2018-02-05 2022-08-05 株式会社Screenホールディングス Image Acquisition Device, Image Acquisition Method and Inspection Device
KR102599207B1 (en) 2018-07-20 2023-12-15 삼성전자 주식회사 Apparatus and method for measuring surface of electronic device
JP7236612B2 (en) * 2019-09-27 2023-03-10 パナソニックIpマネジメント株式会社 Inspection method, program and inspection system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6242039A (en) * 1985-08-19 1987-02-24 Toshiba Corp Surface inspecting device
GB2202627A (en) * 1987-03-23 1988-09-28 Sick Optik Elektronik Erwin Optical arrangement in web monitoring device
JP3021266B2 (en) * 1994-01-31 2000-03-15 新日本製鐵株式会社 Optical steel sheet surface inspection equipment
JP3349069B2 (en) * 1997-08-28 2002-11-20 日産自動車株式会社 Surface inspection equipment
JPH11281581A (en) * 1998-03-27 1999-10-15 Suzuki Motor Corp Apparatus and method for surface defect inspection as well as computer-readable recording medium with recorded program for surface defect inspection
JP3142530B2 (en) * 1998-04-15 2001-03-07 日本ボールドウィン株式会社 Content reading sensor for printing paper etc. and printing paper inspection device
JPH11337323A (en) * 1998-05-25 1999-12-10 Sumitomo Metal Ind Ltd Surface inspection method
JP2000009655A (en) * 1998-06-25 2000-01-14 Kobe Steel Ltd Visual inspection device
JP4019293B2 (en) * 1998-11-11 2007-12-12 澁谷工業株式会社 Lighting device in mount inspection section
JP4190636B2 (en) * 1998-11-24 2008-12-03 日本エレクトロセンサリデバイス株式会社 Surface inspection device
JP2001304835A (en) * 2000-04-26 2001-10-31 Toshiba Eng Co Ltd Illuminating device for measuring unevenness, unevenness measuring device, illuminating device for inspecting defect, defect inspection device and illuminating method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104251866A (en) * 2013-06-27 2014-12-31 现代自动车株式会社 Inspection device for painted surface of vehicle
CN104251866B (en) * 2013-06-27 2019-08-09 现代自动车株式会社 The inspection equipment of painted surface for vehicle

Also Published As

Publication number Publication date
JP2003028805A (en) 2003-01-29

Similar Documents

Publication Publication Date Title
JP4808871B2 (en) Surface texture evaluation device
US8493558B2 (en) Surface inspection apparatus
CN102792124B (en) The formation method strengthened and device
US7276719B2 (en) Device for a goniometric examination of the optical properties of surfaces
US10262431B2 (en) Three-dimensional measurement device
US8144973B2 (en) Multi-modal imaging
JP3922784B2 (en) 3D shape measuring device
US10302423B2 (en) Three-dimensional shape measurement apparatus
KR20110119531A (en) Shape measuring device and calibration method
JP5621178B2 (en) Appearance inspection device and printed solder inspection device
JP6791631B2 (en) Image generation method and inspection equipment
US7684041B2 (en) Color inspection system
JP5068731B2 (en) Surface flaw inspection apparatus, surface flaw inspection method and program
JPH11211673A (en) Apparatus and method for evaluation of surface property
JP4669889B2 (en) Spectral color measuring device and spectral color measuring method
US20040256557A1 (en) Infra-red photometric stereo
US7909471B2 (en) Rear projection type display apparatus
JP2009025189A (en) Measuring instrument
JP2019002928A (en) Image acquisition device and method
CN110248056B (en) Image inspection apparatus
JPH09210653A (en) Surface direction detection device
US20050157920A1 (en) Machine vision system and method
JP6746718B2 (en) Image capture system and method for determining the location of embossing structures on a sheet element
JP7136064B2 (en) Apparatus for inspecting surface of object to be inspected and method for inspecting surface of object to be inspected
JP7459525B2 (en) Three-dimensional shape measuring device, three-dimensional shape measuring method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110707

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110818

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4808871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees