JP2022012897A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2022012897A
JP2022012897A JP2020115058A JP2020115058A JP2022012897A JP 2022012897 A JP2022012897 A JP 2022012897A JP 2020115058 A JP2020115058 A JP 2020115058A JP 2020115058 A JP2020115058 A JP 2020115058A JP 2022012897 A JP2022012897 A JP 2022012897A
Authority
JP
Japan
Prior art keywords
image
evaluation
image processing
substantially flat
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020115058A
Other languages
English (en)
Other versions
JP2022012897A5 (ja
Inventor
智志 池田
Satoshi Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020115058A priority Critical patent/JP2022012897A/ja
Priority to US17/358,893 priority patent/US11842506B2/en
Publication of JP2022012897A publication Critical patent/JP2022012897A/ja
Publication of JP2022012897A5 publication Critical patent/JP2022012897A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30156Vehicle coating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/021Flattening

Abstract

【課題】 複雑な形状を有する物体であっても、物体の表面特性を高精度に評価するための処理を提供することを目的とする。【解決手段】 画像処理装置であって、物体を撮像して得られる画像データを取得する第1取得手段と、画像データに基づいて、物体の3次元形状を取得する第2取得手段と、物体の3次元形状に基づいて、物体における略平坦な領域を決定する決定手段と、物体における略平坦な領域の表面特性を評価する評価手段と、を有することを特徴とする。【選択図】 図5

Description

本発明は、物体の表面特性を評価するための画像処理技術に関する。
近年、デジタルカメラが広く普及し、様々な用途で利用されている。例えば、特許文献1は、カメラを用いて凹凸面や曲面を有する対象物を測色する技術を開示している。また、特許文献2は、分光カメラで試料の写像性やオレンジピールなどの質感を測定する技術を開示している。
特開2017-036937号公報 特開2016-038222号公報
特許文献1や特許文献2のような測定を行う際に、測定の対象物がデザインや機能性のために複雑な形状を有する場合がある。この場合、評価対象の領域によっては、塗装による色ムラやオレンジピールなどの表面特性の評価結果に対象物の形状が影響を与えてしまい、高精度な評価結果を得られないという課題があった。
そこで本発明は、複雑な形状を有する物体であっても、物体の表面特性を高精度に評価するための処理を提供することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、物体を撮像して得られる画像データを取得する第1取得手段と、前記画像データに基づいて、前記物体の3次元形状を取得する第2取得手段と、前記物体の3次元形状に基づいて、前記物体における略平坦な領域を決定する決定手段と、前記物体における前記略平坦な領域の表面特性を評価する評価手段と、を有することを特徴とする。
本発明によれば、複雑な形状を有する物体であっても、物体の表面特性を高精度に評価することができる。
画像処理装置を含む測色システムの構成を示す模式図 画像処理装置のハードウェア構成を示すブロック図 アプリケーションウィンドウを示す模式図 画像処理装置の機能構成を示すブロック図 評価領域を決定する処理を示すフローチャート 奥行き情報の分散値を算出する処理を説明するための模式図 測定処理を示すフローチャート 色差マップを表示する処理を説明するための模式図 画像処理装置が実行する処理を示すフローチャート 測定処理を示すフローチャート 撮像領域とパターン光の照射領域との対応関係を説明するための模式図 パターン光の照射領域における評価領域を説明するための模式図 パターン画像を変換する処理を説明するための模式図 ゆず肌評価値を算出する処理を説明するための模式図 評価結果の表示例を示す模式図
以下、本実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
[第1実施形態]
自動車などの工業製品の表面における色ムラやゆず肌(オレンジピール)などを測定する場合、評価領域にはデザイン上のくぼみなどがない略平坦な領域を指定する必要がある。これは、デザイン上のくぼみを評価領域に含めた場合、塗装による色ムラだけでなく、くぼみによる色合いの変化も測色値に影響を与えてしまうためである。同様に、ゆず肌評価においても、略平坦な領域以外を評価領域に指定してしまうと、微細な凹凸による光のボケ度合いを正しく評価できず、適切なゆず肌評価値を得ることができない。そこで、本実施形態においては、対象物体において評価領域に適した領域として略平坦な領域を特定し、特定した評価領域に対して表面特性の評価を行う。尚、本実施形態における略平坦な領域は、デザインや機能性に関するくぼみなどの形状を含まない領域であって、塗装による色ムラやゆず肌を生じさせる微細な凹凸を含む領域であるものとする。
<測色システムの構成>
図1は、本実施形態における測色システムの構成を示す図である。測色システムは、画像処理装置101、撮像装置102、投影装置103を含む。画像処理装置101は、投影装置103を制御して、対象物体104にパターン光105を照射する。画像処理装置101は、撮像装置102を制御して、パターン光105が照射された対象物体104を撮像し、撮像により得られた画像データを基に色差マップの生成に適した領域として対象物体104の略平坦な領域を決定する。
<画像処理装置のハードウェア構成>
図2は、画像処理装置101のハードウェア構成を示すブロック図である。CPU201は、RAM203をワークメモリとして、ROM202やハードディスクドライブ(HDD)205に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。CPU201は、PCI(peripheral component interconnect)バスなどのシステムバス210を介して各構成を制御する。CPU201は、システムバス210及びHDDインタフェース(I/F)204を介してHDD205にアクセスする。HDDI/F204は、HDD205や光ディスクドライブなどの二次記憶装置を接続するためのインタフェースであり、例えばシリアルATA(SATA)インタフェースがある。CPU201は、HDDI/F204を介して、HDD205からのデータ読み出し、及びHDD205へのデータ書き込みが可能である。また、CPU201は、ユーザインタフェース(UI)や処理結果を、グラフィックアクセラレータ208を介してディスプレイ209に表示する。さらに、CPU201は、ユーザからの指示を、USBI/F206に接続されたマウスやキーボードなどの入力デバイス207を介して受け付ける。
<画像処理装置の動作>
まず、HDD205に格納されている画像処理プログラムが、入力デバイス207を介したユーザの指示に応じてCPU201により実行され、図3に示すアプリケーションウィンドウ301がディスプレイ209上に表示される。画像表示ウィンドウ302は、撮像装置102の撮像により得られた撮像画像を表示するウィンドウである。評価領域決定ボタン303は、評価領域を決定する処理の実行開始をユーザが指示するためのボタンである。評価領域決定ボタン303が押下された後、撮像装置102及び投影装置103を用いて対象物体の3次元形状が取得され、対象物体の3次元形状を基に評価領域が決定される。測定ボタン304は、測定処理の実行開始をユーザが指示するためのボタンである。測定ボタン304が押下された後、決定された評価領域に対して色差マップが生成され、画像表示ウィンドウ302に表面特性の評価結果として色差マップが表示される。
<画像処理装置の機能構成>
図4は、画像処理装置101の機能構成を示す図である。画像処理装置101は、画像取得部401、形状取得部402、領域決定部403、評価部404を有する。画像取得部401は、撮像装置102及び投影装置103を制御する制御部として機能し、投影装置103に対象物体に対してパターン光を照射させ、撮像装置102にパターン光が照射された対象物体を撮像させる。画像取得部401は、撮像装置102から、撮像により得られた画像データを取得する。尚、パターン光の照射及び撮像が予め行われていた場合、画像取得部401は、HDD205などの記憶装置から画像データを取得するのみであってもよい。
形状取得部402は、画像取得部401により取得された画像データに基づいて、対象物体の3次元形状を取得する。本実施形態における3次元形状の取得方法としては、公知の格子投影法を用いる。このため、投影装置103が対象物体に対して照射する3次元形状取得用のパターン光は、格子パターン光である。尚、3次元形状の取得方法は格子投影法に限られず、縞パターン光を用いた位相シフト法など他の公知の方法を用いてもよい。領域決定部403は、形状取得部402により取得された対象物体の3次元形状に基づいて、対象物体において略平坦な領域を決定する。評価部404は、領域決定部403により決定された略平坦な領域を評価領域として、対象物体の表面特性を評価する。本実施形態における評価対象の表面特性は塗装による色ムラであり、評価部404は、予め定められた基準値と評価領域の色値との色差を各画素に有する色差マップを生成する色差マップ生成部として機能する。
<評価領域を決定する処理>
以下においては、評価領域決定ボタン303が押下された後の、評価領域を決定する処理の流れについて、図5(a)及び図5(b)のフローチャートを用いて説明する。図5(a)のフローチャートが示す処理は、ユーザによって入力デバイス207を介して指示が入力され、CPU201が入力された指示を受け付けることにより開始する。以下、各ステップ(工程)は符号の前にSをつけて表す。
S501において、画像取得部401は、投影装置103を制御して、対象物体に3次元形状取得用のパターン光を照射する。本実施形態におけるパターン光は格子パターン光である。S502において、画像取得部401は、撮像装置102を制御して、パターン光が照射された対象物体を撮像する。S503において、形状取得部402は、撮像により得られた画像データに基づいて、対象物体の3次元形状を取得する。本実施形態においては、公知の格子投影法に従って、格子の位相分布を推定することにより対象物体の3次元形状を取得する。
S504において、領域決定部403は、対象物体の3次元形状に基づいて、評価領域として略平坦な領域を決定する。以下において、S504の処理の詳細について、図5(b)のフローチャートを用いて説明する。S5041において、領域決定部403は、対象物体の3次元形状を特定するための奥行きマップを取得する。奥行きマップは、各画素に奥行き情報z(x,y)を有するデータであり、S503において生成される。ここで、(x,y)は撮像画像の画素位置であり、z(x,y)は当該画素位置の奥行き情報である。
S5042において、領域決定部403は、奥行きマップにローパスフィルタ処理を適用する。このローパスフィルタ処理により、奥行き情報に含まれるノイズを低減し、より高精度に略平坦な領域を特定することが可能となる。本実施形態におけるローパスフィルタには、10×10の平均値フィルタを用いるが、例えばガウシアンフィルタなど他のローパスフィルタを用いてもよい。本実施形態における平均値フィルタは、以下の式(1)で表される。
Figure 2022012897000002
また、ローパスフィルタ処理後の奥行き情報をzl(x,y)とすると、zl(x,y)は式(2)で表される。
Figure 2022012897000003
S5043において、領域決定部403は、奥行きマップにおける矩形領域ごとに、奥行き情報zl(x,y)の分散値を算出する。奥行き情報zl(x,y)の分散値を算出する処理について、図6の模式図を用いて説明する。図6(a)は、奥行きマップを可視化した模式図である。図6(a)においては、自動車のドア部分やデザインによるふくらみなどが奥行きマップとして取得されており、略平坦部と非略平坦部とが混在している。S5043において、領域決定部403は、奥行きマップを4×4の16領域に分割し、各分割領域内で奥行き情報zl(x,y)の分散値を算出する。i行j列の分割領域における分散値をV(i,j)とすると、V(i,j)は式(3)で表される。
Figure 2022012897000004
ここで、Wは奥行きマップの横方向の画素数、Hは縦方向の画素数である。Nは分割領域内の総画素数であり、N=H×(W/16)である。zlave(i,j)は分割領域(i,j)内の奥行き情報zl(x,y)の平均値である。図6(b)は、各分割領域の分散値を可視化した模式図である。色が濃い領域は分散値が高く、色が薄い領域は分散値が低いことを示す。
S5044において、領域決定部403は、分散値V(i,j)に基づいて、略平坦な領域を決定する。本実施形態において、奥行き情報の分散値V(i,j)が所定の閾値以下である領域を略平坦な領域として決定する。図6(a)の例においては、奥行きマップの下部や左上部に対応する領域には、自動車のドア部分や線上のふくらみがないため、分散値V(i,j)は低い値となる。このため、以上のS504の処理により、画像上の下部や左上部の領域が略平坦な領域として決定される。
<測定処理>
以下においては、測定ボタン304が押下された後の、測定処理の流れについて、図7(a)及び図7(b)のフローチャートを用いて説明する。図7(a)のフローチャートが示す処理は、ユーザによって入力デバイス207を介して指示が入力され、CPU201が入力された指示を受け付けることにより開始する。S701において、画像取得部401は、撮像装置102を制御して、パターン光が照射されていない対象物体を撮像する。
S702において、評価部404は、S504において略平坦な領域として決定された領域を撮像画像から切りだす。以下において、切り出された画像における、左上から横方向にx画素目、縦方向にy画素目の画素値(R,G,B)を、それぞれR(x,y)、G(x,y)、B(x,y)とする。
S703において、評価部404は、略平坦な領域に対応する切り出された画像に基づいて、色差マップを生成する。評価部404は、切り出された画像の画素値をL値に変換し、L値を基に色差を算出する。まず、評価部404は、8bitの値であるR(x,y)、G(x,y)、B(x,y)それぞれを0以上1以下の値に正規化する。正規化後の値に対して撮像装置102のγ値に応じた補正を行うことにより、輝度リニアな値であるR’(x,y)、G’(x,y)、B’(x,y)を算出する。R’(x,y)、G’(x,y)、B’(x,y)は式(4)のように表される。
Figure 2022012897000005
次に、式(5)を用いて、R’(x,y)、G’(x,y)、B’(x,y)を三刺激値X、Y、Zに変換する。
Figure 2022012897000006
ここで、色変換行列Mは(R,G,B)から(X,Y,Z)への色変換を行うための3×3色変換行列である。例えば、ITU-R BT.709に規定される色変換行列Mは、以下の式(6)で表される。
Figure 2022012897000007
色変換行列Mには、式(6)に示す行列を用いてもよいし、カラーチャートの撮像結果を基に撮像装置及び撮像条件ごとに算出してもよい。さらに、評価部404は、三刺激値X、Y、ZをL値に変換する。基準白色の三刺激値X、Y、Zを(Xw,Yw,Zw)とすると、L値は以下の式(7)、式(8)、式(9)、式(10)を用いて算出される。
Figure 2022012897000008
次に、評価部404は、算出したL値と基準値との色差を算出する。本実施形態においては、基準値として、対象物体である自動車のボディの一般的なL値が予め設定されているものとする。基準値であるL値を(L ,a ,b )とし、画像内の任意の画素位置(x,y)におけるL値を(L (x,y),a (x,y),b (x,y))とする。(x,y)における色差ΔE(x,y)は、式(11)により表される。
Figure 2022012897000009
S704において、評価部404は、評価結果をディスプレイ209に表示する。以下において、S704の処理の詳細について、図7(b)のフローチャートを用いて説明する。S7041において、評価部404は、S701における撮像により得られた画像データを取得する。S7042において、評価部404は、画像データが表す画像における評価領域を色差マップで置き換える。図8(a)は撮像画像を示す模式図であり、点線に囲まれた領域はS504において略平坦な領域と決定された領域を表す。この略平坦な領域を色差マップで置き換えることにより、図8(b)に示す合成画像が得られる。ここで、色差マップは、色差が小さい領域ほど暗く、色差が大きい領域ほど明るくなるように表現されている。S7043において、評価部404は、S7042において生成した合成画像をユーザに提示する。具体的には、評価部404は、画像表示ウィンドウ302に合成画像を表示する。
<第1実施形態の効果>
以上説明したように、本実施形態における画像処理装置は、物体を撮像して得られる画像データを取得する。画像データに基づいて、物体の3次元形状を取得する。物体の3次元形状に基づいて、物体における略平坦な領域を決定する。物体における略平坦な領域の表面特性を評価する。表面特性の評価に適した略平坦な領域を特定することにより、デザインや機能性に関するくぼみやふくらみなどの形状が表面特性の評価に与える影響を低減することができる。このため、表面特性を評価する対象物体が複雑な形状を有する場合であっても、対象物体の表面特性を高精度に評価することができる。
<変形例>
本実施形態においては、評価領域を決定する処理と測定処理とをユーザの指示に応じて別々に行ったが、S501からS704までを一連の処理として実行してもよい。図9は、一連の処理を示すフローチャートである。S701をS501の前に行うことにより、パターン光照射を行わない撮像処理とパターン光照射を行う撮像処理とをまとめて行うことができる。
[第2実施形態]
第1実施形態においては、対象物体の表面特性として、塗装による色ムラを評価した。本実施形態においては、対象物体の表面特性として、ゆず肌を評価する。尚、本実施形態における画像処理装置101のハードウェア構成及び機能構成は第1実施形態のものと同等であるため、説明を省略する。以下において、本実施形態と第1実施形態とで異なる部分を主に説明する。尚、第1実施形態と同一の構成については、同一の符号を付して説明する。
<測定処理>
以下においては、測定ボタン304が押下された後の、測定処理の流れについて、図10(a)のフローチャートを用いて説明する。図10(a)のフローチャートが示す処理は、ユーザによって入力デバイス207を介して指示が入力され、CPU201が入力された指示を受け付けることにより開始する。
S1001において、画像取得部401は、S504において決定された評価領域に基づいて、ゆず肌評価用のパターン光を決定する。ゆず肌評価用のパターン光を決定する処理の詳細は後述する。S1002において、画像取得部401は、投影装置103を制御して、対象物体にゆず肌評価用のパターン光を照射する。S1003において、画像取得部401は、撮像装置102を制御して、ゆず肌評価用のパターン光が照射された対象物体を撮像する。また、画像取得部401は、パターン光が照射されていない対象物体も撮像する。S1004において、評価部404は、S504において決定された評価領域を、ゆず肌評価用の撮像画像から切りだす。S1005において、評価部404は、略平坦な領域に対応する切り出された画像に基づいて、ゆず肌評価値を算出する。ゆず肌評価値を算出する処理の詳細は後述する。S1006において、評価部404は、評価結果をディスプレイ209に表示する。評価結果を表示する処理の詳細は後述する。
<ゆず肌評価用のパターン光を決定する処理>
以下においては、ゆず肌評価用のパターン光を決定する処理の流れについて、図10(b)のフローチャートを用いて説明する。S10011において、画像取得部401は、撮像領域とパターン光の照射領域との対応関係を取得する。図11は、対象物体における撮像領域とパターン光の照射領域との対応関係を示す模式図である。画像取得部401は、該対応関係として、図11における座標(TLx,TLy)及び座標(BRx,BRy)を取得する。図11において、撮像領域は、左上の座標が(0,0)であり、右下の座標が(Wc,Hc)である。パターン光の照射領域は、左上の座標が(0,0)であり、右下の座標が(Wp,Hp)である。点線に囲まれた領域は、パターン光の照射領域における撮像領域の位置を表している。撮像領域における左上の座標(0,0)は、パターン光の照射領域においては座標(TLx,TLy)に相当する。また、撮像領域における右下の座標(Wc,Hc)は、パターン光の照射領域においては座標(BRx,BRy)に相当する。撮像領域とパターン光の照射領域との対応関係を表す情報として、座標(TLx,TLy)及び座標(BRx,BRy)は予めROM202に格納されている。
S10012において、画像取得部401は、撮像領域とパターン光の照射領域との対応関係に基づいて、パターン光の照射領域における、S504において決定された評価領域の座標を算出する。パターン光の照射領域における評価領域の左上の座標(xsp,ysp)及び右下の座標(xep,yep)は、以下の式(12)で表される。
Figure 2022012897000010
ここで、座標(x,y)は、撮像領域における評価領域の左上の座標であり、座標(x,y)は、右下の座標を表す。図12は、パターン光の照射領域における座標(xsp,ysp)及び座標(xep,yep)の位置関係を表す図である。点線で囲まれた領域は評価領域である。
S10013において、画像取得部401は、座標(xsp,ysp)及び座標(xep,yep)により定義される評価領域に基づいて、予め保持されているパターン画像を変換する。図13は、パターン画像を変換する処理を説明するための模式図である。図13(a)は、変換前のパターン画像である。本実施形態においては、ゆず肌を測定するために矩形波パターンの画像が用いられる。図13(b)は、評価領域に基づいて変換されたパターン画像を表している。まず、画像取得部401は、公知の二アレストネイバー法により、パターン画像のサイズを高さHc、幅Wcから高さ(yep-ysp)、幅(xep-xsp)に変換する。次に、画像取得部401は、変換したパターン画像の左上の座標が(xsp,ysp)となるように移動させることにより、図13(b)で示したパターン画像が生成される。尚、本実施形態においては拡大及び縮小処理により画像変換を行ったが、評価領域に対してパターン画像が傾いている場合は、アフィン変換や射影変換による回転補正を行ってもよい。
<ゆず肌評価値を算出する処理>
以下においては、ゆず肌評価値を算出する処理の流れについて、図10(c)のフローチャートを用いて説明する。S10051において、評価部404は、S1004において切り出された画像を取得する。S10052において、評価部404は、切り出された画像において1つの直線を指定することにより、ゆず肌評価値の算出対象範囲を決定する。図14(a)は、切り出された画像におけるゆず肌評価値の算出対象範囲を模式的に示しており、画像表示ウィンドウ302に表示される。評価部404は、ユーザの指示に基づいて、切り出された画像1401において、ゆず肌評価値の算出対象範囲を決めるための直線の始点1402及び終点1403を指定する。始点1402及び終点1403を結ぶ直線に対して、予め設定された値wを用い、左右に±w画素の幅で広げた範囲1404を算出対象範囲として決定する。尚、本実施形態においてはユーザに直線の始点と終点とを指定させたが、算出対象範囲の4つの頂点を指定させてもよい。また、ユーザの指示を受け取らず、評価領域とパターン画像との相対位置に応じて自動で決定してもよい。
S10053において、評価部404は、切り出された画像において算出対象範囲の平均輝度値を算出する。S10054において、評価部404は、算出した平均輝度値を閾値として用いて、切り出された画像の画素値を二値化する。S10055において、評価部404は、画素値を二値化した画像のエッジを検出する。図14(b)は、二値化処理後の画像を示している。ここで、始点1402の座標を(xst,yst)とし、終点1403の座標を(xed,yed)とする。評価部404は、yの値を、ystからyedまで変化させ、yの値それぞれに対して、xの値を変化させ、隣の画素との値が異なる点をエッジ点とする。ただし、同一のyの値に対して、エッジ点が複数存在する場合には、始点と終点とを結ぶ直線との距離が小さい方をエッジ点とする。尚、本実施形態においては二値画像において隣の画素との値が異なる画素をエッジ点としたが、切り出された画像を2次微分し、出力値がプラスからマイナスになる点、すなわち変曲点をエッジ点として検出するようにしてもよい。
S10056において、評価部404は、検出したエッジに対して近似直線を導出する。S10057において、評価部404は、S10055において検出したエッジと、S10056において導出した近似直線と、の距離を算出する。
S10058において、評価部404は、エッジと近似直線との距離に基づいて、ゆず肌評価値を算出する。本実施形態において、対象物体のゆず肌度合いが小さい場合には、エッジ点の空間的なばらつきは小さくなる。そこで、評価部404は、エッジ点の集合が直線上に位置する場合にゆず肌評価値が0となり、直線からの変動が大きくなるほどゆず肌評価値が大きくなるように、ゆず肌評価値Eを算出する。具体的には、ゆず肌評価値Eは以下の式(13)で算出される。
Figure 2022012897000011
ここで、dは、エッジ点の集合を最小二乗法で直線近似した場合の近似直線と、y座標がjの場合に検出されたエッジ点と、の距離である。
<評価結果を表示する処理>
以下においては、評価結果を表示する処理の流れについて、図10(d)のフローチャートを用いて説明する。S10061において、評価部404は、S1003においてパターン光が照射されていない対象物体を撮像して得られた画像データを取得する。S10062において、評価部404は、画像データが表す画像に対して、評価領域を表す点線及びゆず肌評価値を重畳する。S10063において、評価部404は、S10062において生成された合成画像をユーザに提示する。具体的には、画像表示ウィンドウ302に合成画像を表示する。図15は、評価結果の表示例を示す図である。
<第2実施形態の効果>
以上説明したように、本実施形態における画像処理装置は、対象物体の3次元形状に基づいて決定された評価領域のサイズや位置に応じて、ゆず肌評価用のパターン光を変更する。これにより、ゆず肌を評価する対象物体が複雑な形状を有する場合であっても、適切な位置にゆず肌評価用のパターン光を照射し、対象物体のゆず肌を高精度に評価できる。
<変形例>
本実施形態においては、対象物体のゆず肌の度合いを評価したが、第1実施形態において行った色ムラの評価も同時に行ってもよい。この場合、評価結果として、色差マップとゆず肌評価値とを併せてディスプレイ209に表示する。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 画像処理装置
401 画像取得部
402 形状取得部
403 領域決定部
404 評価部

Claims (12)

  1. 物体を撮像して得られる画像データを取得する第1取得手段と、
    前記画像データに基づいて、前記物体の3次元形状を取得する第2取得手段と、
    前記物体の3次元形状に基づいて、前記物体における略平坦な領域を決定する決定手段と、
    前記物体における前記略平坦な領域の表面特性を評価する評価手段と、
    を有することを特徴とする画像処理装置。
  2. 前記第2取得手段は、前記物体の3次元形状を表す情報として奥行き情報を取得し、
    前記決定手段は、前記奥行き情報に基づいて、前記略平坦な領域を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記奥行き情報の分散値に基づいて、前記略平坦な領域を決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記決定手段は、前記分散値が所定の閾値以下である領域を前記略平坦な領域として決定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記評価手段は、前記略平坦な領域の色値と基準値との色差を算出することを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。
  6. 前記評価手段は、前記色差を各画素に有する色差マップを表示手段に表示することを特徴とする請求項5に記載の画像処理装置。
  7. 前記評価手段は、前記画像データが表す画像における前記略平坦な領域に対応する領域を前記色差マップに置き換えて、前記画像を表示することを特徴とする請求項6に記載の画像処理装置。
  8. 前記評価手段は、前記略平坦な領域におけるゆず肌の度合いを評価することを特徴とする請求項1乃至請求項7のいずれか一項に記載の画像処理装置。
  9. 前記評価手段は、前記画像データが表す画像と前記ゆず肌の度合いを表すゆず肌評価値とを併せて表示手段に表示することを特徴とする請求項8に記載の画像処理装置。
  10. 前記第2取得手段は、パターン光が照射された前記物体を撮像して得られる前記画像データに基づいて、前記物体の3次元形状を取得することを特徴とする請求項1乃至請求項9のいずれか一項に記載の画像処理装置。
  11. コンピュータを請求項1乃至請求項10のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。
  12. 物体を撮像して得られる画像データを取得する第1取得ステップと、
    前記画像データに基づいて、前記物体の3次元形状を取得する第2取得ステップと、
    前記物体の3次元形状に基づいて、前記物体における略平坦な領域を決定する決定ステップと、
    前記物体における前記略平坦な領域の表面特性を評価する評価ステップと、
    を有することを特徴とする画像処理方法。
JP2020115058A 2020-07-02 2020-07-02 画像処理装置、画像処理方法及びプログラム Pending JP2022012897A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020115058A JP2022012897A (ja) 2020-07-02 2020-07-02 画像処理装置、画像処理方法及びプログラム
US17/358,893 US11842506B2 (en) 2020-07-02 2021-06-25 Apparatus, method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020115058A JP2022012897A (ja) 2020-07-02 2020-07-02 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022012897A true JP2022012897A (ja) 2022-01-17
JP2022012897A5 JP2022012897A5 (ja) 2023-07-06

Family

ID=79167796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020115058A Pending JP2022012897A (ja) 2020-07-02 2020-07-02 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US11842506B2 (ja)
JP (1) JP2022012897A (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5686731A (en) * 1996-04-30 1997-11-11 Ati Systems, Inc. Multi-parameter scanning system with moveable field mask
JP6038965B2 (ja) * 2014-01-14 2016-12-07 有限会社パパラボ 着色検査装置および着色検査方法
JP6384183B2 (ja) 2014-08-05 2018-09-05 株式会社リコー 試料測定装置および試料測定プログラム
JP6701640B2 (ja) 2015-08-07 2020-05-27 コニカミノルタ株式会社 測色装置、測色システム、および測色方法
US20190096057A1 (en) * 2017-05-11 2019-03-28 Jacob Nathaniel Allen Object inspection system and method for inspecting an object
US20210299879A1 (en) * 2018-10-27 2021-09-30 Gilbert Pinter Machine vision systems, illumination sources for use in machine vision systems, and components for use in the illumination sources
US20210201513A1 (en) * 2019-12-31 2021-07-01 Axalta Coating Systems Ip Co., Llc Systems and methods for matching color and appearance of target coatings

Also Published As

Publication number Publication date
US20220005213A1 (en) 2022-01-06
US11842506B2 (en) 2023-12-12

Similar Documents

Publication Publication Date Title
JP6745173B2 (ja) 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP4160258B2 (ja) 勾配ベースの局部輪郭線検出のための新しい知覚的しきい値決定
JP5684505B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6055228B2 (ja) 形状計測装置
JP2018128309A (ja) ひび割れ検出方法
JP2014197243A (ja) パターン処理装置、パターン処理方法、パターン処理プログラム
JP5705711B2 (ja) ひび割れ検出方法
JP2021163190A5 (ja)
EP3904865A1 (en) Image processing device, image processing method, and image processing program
JP6045429B2 (ja) 撮像装置、画像処理装置及び画像処理方法
JP5249813B2 (ja) Mtf測定用チャート、mtf測定装置およびmtf測定プログラム
US20170061649A1 (en) Image measuring apparatus and non-temporary recording medium on which control program of same apparatus is recorded
JP6776004B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2022012897A (ja) 画像処理装置、画像処理方法及びプログラム
JP6867766B2 (ja) 情報処理装置およびその制御方法、プログラム
JP5157575B2 (ja) 欠陥検出方法
JP7451611B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR100825960B1 (ko) 두부계측 방사선사진 상에 계측점을 지정하는 방법
US20230393080A1 (en) Image processing apparatus, image processing method, and storage medium
JP4171354B2 (ja) カラー画像処理装置及び方法
JP7289727B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5945188B2 (ja) 形状計測装置
TWI450572B (zh) 影像邊界掃描的電腦系統及方法
JP2020160681A (ja) 画像処理装置、画像処理方法及びプログラム
JP2024030043A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230628

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402