JP2019215247A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP2019215247A
JP2019215247A JP2018112518A JP2018112518A JP2019215247A JP 2019215247 A JP2019215247 A JP 2019215247A JP 2018112518 A JP2018112518 A JP 2018112518A JP 2018112518 A JP2018112518 A JP 2018112518A JP 2019215247 A JP2019215247 A JP 2019215247A
Authority
JP
Japan
Prior art keywords
luminance
image processing
linear region
linear
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018112518A
Other languages
English (en)
Other versions
JP7228341B2 (ja
Inventor
悠介 野中
Yusuke Nonaka
悠介 野中
瀬川 英吾
Eigo Segawa
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018112518A priority Critical patent/JP7228341B2/ja
Priority to US16/399,031 priority patent/US20190385327A1/en
Priority to EP19172234.7A priority patent/EP3582179B1/en
Publication of JP2019215247A publication Critical patent/JP2019215247A/ja
Application granted granted Critical
Publication of JP7228341B2 publication Critical patent/JP7228341B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

【課題】物体を撮影した画像から線状の損傷の幅を精度良く推定する。【解決手段】抽出部112は、物体の画像121から、線状の損傷が写っている線状領域を抽出する。計算部113は、線状領域を横断する方向において線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求める。推定部114は、計算部113が求めた輝度情報の和から、輝度情報の和と線状領域の幅との関係を示す関係式に基づいて、線状の損傷の幅を推定する。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
橋梁、道路、ビル、ダム、堤防等の構造物の点検作業において、構造物の表面をカメラで撮影した画像からひび割れが自動的に検出され、そのひび割れの長さ及び幅が計測されることがある。これにより、目視でひび割れを検出する場合よりも、作業工数が削減される。
ひび割れの計測に関して、ひび割れ領域内の各画素の輝度値の合計を求め、輝度値の合計からひび割れ面積を求める、ひび割れの計測方法が知られている(例えば、特許文献1を参照)。サブピクセルサイズのひび割れ幅を検量する微細ひび割れ幅検量方法、及び、暗領域の線画像を構成する2画素をつなぐ線の勾配の分散に基づいて、暗領域を評価する画像処理プログラムも知られている(例えば、特許文献2及び特許文献3を参照)。
画像解析による被写体の測定を簡易的に行う測定装置、及び世界座標と画像座標との対応に基づいてカメラパラメータを求めるカメラキャリブレーション装置も知られている(例えば、特許文献4及び特許文献5を参照)。
特開2003−214827号公報 特開2005−241471号公報 特開2018−36226号公報 特開2017−3399号公報 特開2006−67272号公報
橋梁等の構造物の表面に生じたひび割れの幅は、0.1mm単位で計測することが望ましい。しかし、0.1mmの長さが1画素以上に対応するような解像度で構造物を撮影すると、1回当たりの撮影範囲が狭くなるため、構造物全体を撮影するために何回も撮影が繰り返され、作業効率が低下する。
特許文献1の計測方法では、原画像データを2値化することでひび割れ領域が判定され、ひび割れ領域内の画素の輝度値合計が求められる。そして、輝度値合計に補正係数を乗算することで、ひび割れ面積が求められ、ひび割れ面積をひび割れ長さで除算することで、ひび割れ幅が求められる。これにより、ひび割れ幅をサブピクセル単位で推定することが可能である。
しかしながら、カメラのフォーカスずれ又は画像の量子化によるボケの影響により、ひび割れ幅の計測精度が低下することがある。
なお、かかる問題は、構造物の表面に生じたひび割れの幅を計測する場合に限らず、他の物体の表面に生じた損傷の幅を計測する場合においても生ずるものである。
1つの側面において、本発明は、物体を撮影した画像から線状の損傷の幅を精度良く推定することを目的とする。
1つの案では、画像処理装置は、記憶部、抽出部、計算部、及び推定部を含む。記憶部は、撮像装置によって撮影された物体の画像を記憶する。
抽出部は、物体の画像から、線状の損傷が写っている線状領域を抽出する。計算部は、線状領域を横断する方向において線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求める。推定部は、計算部が求めた輝度情報の和から、輝度情報の和と線状領域の幅との関係を示す関係式に基づいて、線状の損傷の幅を推定する。
実施形態によれば、物体を撮影した画像から線状の損傷の幅を精度良く推定することができる。
画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理システムの機能的構成図である。 線状領域における輝度を示す図である。 背景部分とひび割れ部分に当たる光を示す図である。 入射する光の角度範囲を示す図である。 ひび割れ内部における深さと輝度の関係を示す図である。 ひび割れ部分と背景部分に当たる光の入力範囲を示す図である。 関係式を求める方法を示す図である。 画像処理の具体例を示すフローチャートである。 方向推定処理を示す図である。 フィルタを示す図である。 背景輝度計算処理を示す図である。 輝度情報加算処理を示す図である。 最大深さを求める方法を示す図である。 ひび割れの幅を計算する方法を示す図である。 推定結果を示す図である。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
特許文献1の計測方法では、既知の面積を持つひび割れを事前に撮影した画像から、補正係数が求められる。このため、既知のひび割れを撮影した画像内のひび割れ領域のコントラストと、計測対象のひび割れを撮影した画像内のひび割れ領域のコントラストとが一致していることが、前提となる。
しかしながら、撮影条件に伴って画像のコントラストが変化すると、輝度値合計とひび割れ面積との間の関係も変化するため、事前に決定された補正係数を用いた場合、ひび割れ幅の計測精度が低下する。撮影条件が変更される度に補正係数を計算し直せば、計測精度を維持することは可能であるが、新たな撮影対象のひび割れの面積は不明であることが多く、その撮影対象に対する補正係数を求めることは困難である。
また、細いひび割れの場合、カメラのフォーカスずれ又は画像の量子化によるボケの影響によって、本来のひび割れの輝度が観測されないことが多い。このため、細いひび割れの場合、太いひび割れよりも、撮影条件に依存したコントラストの変化が大きくなり、ひび割れ幅の計測精度がさらに低下する。
図1は、実施形態の画像処理装置の機能的構成例を示している。図1の画像処理装置101は、記憶部111、抽出部112、計算部113、及び推定部114を含む。記憶部111は、撮像装置によって撮影された物体の画像121を記憶する。抽出部112、計算部113、及び推定部114は、画像121に対する画像処理を行う。
図2は、図1の画像処理装置101が行う画像処理の例を示すフローチャートである。まず、抽出部112は、画像121から、線状の損傷が写っている線状領域を抽出する(ステップ201)。次に、計算部113は、線状領域を横断する方向において線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求める(ステップ202)。そして、推定部114は、計算部113が求めた輝度情報の和から、輝度情報の和と損傷の幅との関係を示す関係式に基づいて、線状の損傷の幅を推定する(ステップ203)。
図1の画像処理装置101によれば、物体を撮影した画像から線状の損傷の幅を精度良く推定することができる。
図3は、図1の画像処理装置101を含む画像処理システムの機能的構成例を示している。図3の画像処理システムは、画像処理装置301及び撮像装置302を含む。
画像処理装置301は、図1の画像処理装置101に対応し、記憶部311、取得部312、抽出部313、計算部314、推定部315、及び出力部316を含む。記憶部311、抽出部313、計算部314、及び推定部315は、図1の記憶部111、抽出部112、計算部113、及び推定部114にそれぞれ対応し、画像321は画像121に対応する。
撮像装置302は、例えば、CCD(Charged-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、物体を撮影して、物体の画像321を取得する。そして、撮像装置302は、物体の画像321を画像処理装置301へ出力する。
画像処理装置301の取得部312は、撮像装置302から画像321を取得して、記憶部311に格納する。抽出部313は、画像321から線状領域を抽出し、抽出した線状領域を示す領域情報322を生成して、記憶部311に格納する。例えば、撮影対象の物体は、橋梁、道路、ビル、ダム、堤防等の構造物であり、線状領域は、構造物の表面に存在するひび割れ、傷等の損傷が写っている領域である。
計算部314は、各線状領域に含まれる複数の画素のうち、線状領域を横断する方向における画素の輝度情報を加算することで、輝度情報の和を求め、求めた輝度情報の和を輝度総和情報323として記憶部311に格納する。
画像321内において、ひび割れ等の線状の損傷は、低輝度の暗い線状領域として現れることが多く、線状領域内では、損傷の浅い部分から深い部分へ向かって、連続的に輝度が減少する傾向が見られる。このため、損傷の長さ方向における輝度の変化よりも、損傷の幅方向における輝度の変化の方が大きくなる。したがって、線状領域において輝度が変化する方向を求めることで、その線状領域を横断する方向である幅方向を特定することができる。
そこで、計算部314は、線状領域に含まれる対象画素の輝度と、その対象画素に隣接する隣接画素の輝度とを用いて、輝度が変化する方向である輝度勾配の方向を求める。そして、計算部314は、求めた輝度勾配の方向を線状領域の幅方向として用いて、輝度情報の和を求める。線状領域に含まれる各画素の輝度情報としては、その画素の輝度を用いてもよく、線状領域以外の背景領域の画素の輝度とその画素の輝度との差分を用いてもよい。
推定部315は、記憶部311が記憶している関係式324を用いて、各線状領域の輝度総和情報323から、その線状領域に写っている損傷の幅を推定し、推定した幅を示す推定結果325を記憶部311に格納する。出力部316は、推定結果325を出力する。
関係式324は、輝度情報の和と損傷の幅との関係を示し、例えば、以下のようなパラメータを含む。
(1)物体の表面に対する撮像装置302の姿勢を示すパラメータ
(2)線状領域以外の背景領域の画素の輝度である背景輝度を示すパラメータ
(3)画像321の分解能を示すパラメータ
計算部314は、各線状領域の幅方向において、対象画素からその線状領域の外側へ向かって、隣接する2つの画素の輝度の差分をチェックし、輝度の差分が閾値よりも小さくなった2つの画素のうち、外側に位置する画素の輝度を求める。求められた輝度は、関係式324における背景輝度として用いられる。画像321の分解能は、1画素に対応する実空間における長さを表す。
画像処理装置301は、画像321に関する下記の性質に基づいて、損傷の幅を推定する。
(C1)画像321がぼけている場合と、画像321がぼけていない場合とで、線状領域の輝度の総和は変わらない。
(C2)ぼけている画像321から、線状領域の輝度の総和を計算することができる。
(C3)物体の損傷の撮影過程をモデル化することができる。
(C4)撮影過程のモデルから、画像321がぼけていない場合の線状領域の輝度の総和を、損傷の幅、撮像装置302の姿勢、背景輝度、輝度勾配の方向、及び画像321の分解能を用いて表すことで、関係式324を設定することができる。
(C5)背景輝度及び輝度勾配の方向は、画像321から求めることができ、撮像装置302の姿勢及び画像321の分解能は、撮影条件から取得することができる。
(C6)(C1)及び(C2)より、画像321がぼけていない場合の線状領域の輝度の総和が求められる。
(C7)(C4)、(C5)、及び(C6)より、関係式324を用いて損傷の幅を計算することができる。
まず、(C1)の性質について説明する。画像321のボケは、撮像装置302のフォーカスずれ、画像321の量子化等によって発生し、画像321内の座標xにおけるボケによる輝度の変化は、ボケ関数g(x)により表される。例えば、ボケ関数g(x)は、PSF(Point Spread Function)であり、次式を満たすように規格化される。
Figure 2019215247
座標xにおいて観測される輝度をh(x)とすると、座標xに関する輝度h(x)の総和は、区間[-∞,∞]におけるh(x)の積分で表される。さらに、その積分は、ぼけていない画像における輝度f(x)とボケ関数g(x)との畳み込み積分で表され、次式のように変形できる。
Figure 2019215247
したがって、画像321がぼけている場合に観測される輝度h(x)の総和は、ぼけていない画像における輝度f(x)の総和と一致する。
図4は、ひび割れが写っている線状領域における輝度の例を示している。x軸は、線状領域における輝度勾配の方向を表し、x軸上の区間[x1,x2]は、線状領域を含む。折れ線401は輝度f(x)を表し、線分402はx=x1の直線の一部であり、線分403はx=x2の直線の一部である。曲線404はボケ関数g(x)を表し、曲線405は輝度h(x)を表す。
区間[x1,x2]において輝度f(x)を積分した結果は、x軸、折れ線401、線分402、及び線分403によって囲まれた図形の面積S1を表す。また、区間[x1,x2]において輝度h(x)を積分した結果は、x軸、曲線405、線分402、及び線分403によって囲まれた図形の面積S2を表す。
面積S2は、輝度f(x)とボケ関数g(x)との畳み込み積分で表され、面積S1と一致する。したがって、画像321がぼけている場合と、画像321がぼけていない場合とで、輝度勾配の方向における輝度の総和は変わらない。
次に、(C3)の性質について説明する。損傷が写っている線状領域が暗くなるのは、損傷内部では入射光の角度が制限されるため、内部まで到達する光の量が減少するからである。
図5は、背景部分とひび割れ部分に当たる光の例を示している。図5(a)は、背景部分に当たる環境光を示しており、図5(b)は、ひび割れ部分に当たる環境光を示している。ひび割れの内部では、入射光の角度が制限されるため、内部まで到達する光の量が減少する。したがって、ひび割れの内部で減少する光の量をモデル化することで、ひび割れが写っている線状領域の輝度を求める計算式を設定できる。
次に、(C4)の性質について説明する。損傷の幅が決まっている場合、損傷内部の所定位置に入射する光の角度範囲を計算することができ、その角度範囲を用いて背景領域に対する線状領域の輝度の比率を計算することができる。
図6は、ひび割れ内部の所定位置に入射する光の角度範囲の例を示している。図6(a)は、ひび割れ内部の深さh1の位置に入射する光の角度範囲φ1を示しており、図6(b)は、深さh2の位置に入射する光の角度範囲φ2を示しており、図6(c)は、深さh3の位置に入射する光の角度範囲φ3を示している。この例では、h1<h2<h3であり、φ1>φ2>φ3である。このように、深い位置ほど入射する光の角度範囲φが小さくなるため、その位置に到達する光の量が減少して、暗くなることが分かる。
図7は、ひび割れ内部における深さと輝度の関係の例を示している。グラフ701は、ひび割れ内部における深さhの位置に対応する、画像321内の画素の輝度を表す。ひび割れ内部の輝度は、背景輝度よりも小さく、深さhが増加するにつれて単調に減少する。グラフ701は、必ずしも直線ではなく、曲線であることが多い。
図8は、ひび割れ部分と背景部分に当たる光の入力範囲の例を示している。図8(a)は、ひび割れ内部の深さhの位置に当たる光の入力範囲Ω1を示している。入力範囲Ω1は、深さhの位置を中心とする球の表面のうち、ひび割れの幅wによって決まる領域を表している。ベクトルn1は、深さhの位置における面の法線ベクトルであり、ベクトルeは、入力光の方向を示すベクトルである。この場合、深さhの位置における反射光の強さF1は、次式により表される。
Figure 2019215247
式(3)の右辺は、ベクトルeを積分変数として、ベクトルn1とベクトルeとの内積を入力範囲Ω1に渡って積分した結果を表す。
図8(b)は、物体の表面上の所定位置に当たる光の入力範囲Ω2を示している。入力範囲Ω2は、所定位置を中心とする半球の表面を表している。ベクトルn2は、所定位置における面の法線ベクトルであり、ベクトルeは、入力光の方向を示すベクトルである。この場合、所定位置における反射光の強さF2は、次式により表される。
Figure 2019215247
式(4)の右辺は、ベクトルeを積分変数として、ベクトルn2とベクトルeとの内積を入力範囲Ω2に渡って積分した結果を表す。物体の表面の明るさに対する、深さhの位置の明るさの比率は、F1/F2である。
撮像装置302の姿勢と、線状領域における輝度勾配の方向が分かれば、線状領域に写っている損傷の最大深さを計算することができ、その最大深さを用いて関係式324を求めることができる。
図9は、関係式324を求める方法の例を示している。図9(a)は、撮像装置302撮像装置302から観測可能なひび割れの最大深さhmaxを示している。最大深さhmaxは、撮像装置302の姿勢とひび割れの幅wとを用いて表すことができる。
図9(b)は、最大深さhmaxと輝度の減少量との関係を示している。グラフ701は、図7に示したように、深さhの位置に対応する画素の輝度を表し、直線901は背景輝度を表し、直線902はh=0の直線であり、直線903はh=hmaxの直線である。直線901〜直線903とグラフ701によって囲まれた図形の面積S3は、背景輝度に対する線状領域の輝度の減少量を表している。
図9(c)は、背景輝度に対する線状領域の輝度の減少量を示している。図4に示したように、線分402はx=x1の直線の一部であり、線分403はx=x2の直線の一部であり、曲線405は、輝度勾配の方向における線状領域の輝度を表す。直線904は背景輝度を表す。線分401、線分402、曲線405、及び直線904によって囲まれた図形の面積S4は、背景輝度に対する線状領域の輝度の減少量を表し、面積S3と一致する。
背景輝度の総和を表す長方形の面積から面積S4を減算することで、線状領域の輝度の総和を表す面積S2が求められる。したがって、面積S2及び面積S4は、ひび割れの幅、撮像装置302の姿勢、背景輝度、輝度勾配の方向、及び画像321の分解能の関数として表すことができる。このうち、未知数はひび割れの幅のみであり、それ以外のパラメータは既知である。また、面積S2は、線状領域に含まれる各画素の輝度から求めることができ、面積S4は、背景輝度と線状領域に含まれる各画素の輝度との差分から求めることができる。
したがって、各画素の輝度を輝度情報として用いるか、又は背景輝度と各画素の輝度との差分を輝度情報として用いることで、輝度情報の和と損傷の幅との関係を示す関係式324を求めることが可能である。
図3の画像処理装置301によれば、ぼけている画像321に写っている線状の損傷の幅を、精度良く推定することができる。画像処理装置301による画像処理では、損傷が写っている領域の境界画素を特定する必要がないため、サブピクセル単位で損傷の幅を計測することが可能である。また、特許文献1の計測方法とは異なり、既知のひび割れを撮影した画像から補正係数を求める必要もない。
次に、図10から図17までを参照しながら、図3の画像処理装置301が行う画像処理について、より詳細に説明する。
図10は、画像処理装置301が行う画像処理の具体例を示すフローチャートである。まず、取得部312は、撮像装置302から画像321を取得して、記憶部311に格納する(ステップ1001)。そして、抽出部313は、画像321から1つ又は複数の線状領域を抽出し、抽出した線状領域を示す領域情報322を生成する(ステップ1002)。
例えば、抽出部313は、特許文献3に記載された技術を用いて、画像321から線状領域を抽出することができる。抽出部313は、ユーザが操作する入力装置によって画像321上で明示的に指定された線状領域を抽出してもよい。
次に、計算部314及び推定部315は、領域情報322が示す各線状領域を処理対象として、ステップ1003〜ステップ1008の処理を行う。まず、計算部314及び推定部315は、処理対象の線状領域に含まれる各画素を処理対象として、ステップ1003〜ステップ1007の処理を行う。
計算部314は、処理対象の画素(対象画素)における輝度勾配の方向を推定し(ステップ1003)、推定した輝度勾配の方向を処理対象の線状領域の幅方向として用いて、その線状領域に対する背景輝度を求める(ステップ1004)。そして、計算部314は、線状領域の幅方向における複数の画素の輝度情報を加算することで、輝度情報の和を求め、求めた輝度情報の和を示す輝度総和情報323を生成する(ステップ1005)。
次に、推定部315は、物体の表面に対する撮像装置302の姿勢を示す撮影条件を取得する(ステップ1006)。例えば、推定部315は、特許文献4又は特許文献5に記載された技術を用いて、撮像装置302の位置及び姿勢を計算することで、撮影条件を取得することができる。推定部315は、ユーザが操作する入力装置によって入力された撮影条件を取得してもよい。撮影条件は、画像321の分解能をさらに含む。
次に、推定部315は、関係式324を用いて、輝度総和情報323、背景輝度、及び撮影条件から、線状領域に写っている損傷の幅を推定する(ステップ1007)。
ステップ1003〜ステップ1007の処理は、処理対象の線状領域に含まれる画素毎に繰り返される。すべての画素に対して損傷の幅が推定された場合、推定部315は、推定された複数の幅から幅の代表値を求め、求めた代表値を示す推定結果325を生成する(ステップ1008)。幅の代表値としては、推定された複数の幅の平均値、中央値、最頻値、最大値、最小値等を用いることができる。
ステップ1003〜ステップ1008の処理は、画像321から抽出された線状領域毎に繰り返される。すべての線状領域に対して推定結果325が生成された場合、出力部316は、推定結果325を出力する(ステップ1009)。
図11は、ステップ1003における方向推定処理の例を示している。横軸は、画像321の水平方向の座標uを表し、縦軸は、画像321の垂直方向の座標vを表す。例えば、計算部314は、線状領域1101内の対象画素1102を中心とする3×3の領域に対して、フィルタ処理を適用することで、輝度勾配の方向1111を推定することができる。そして、計算部314は、輝度勾配の方向1111を線状領域1101の幅方向に決定し、幅方向に垂直な方向1112を、線状領域1101の長さ方向に決定する。
図12は、3×3のフィルタの例を示している。図12(a)は、横方向ソーベルフィルタを示しており、図12(b)は、縦方向ソーベルフィルタを示している。座標uの座標軸と輝度勾配の方向1111とが成す角度θは、対象画素1102に対する横方向ソーベルフィルタの出力aと、対象画素1102に対する縦方向ソーベルフィルタの出力bとを用いて、次式により表される。
θ=tan−1(b/a) (5)
この場合、計算部314は、式(5)を用いて、対象画素1102における輝度勾配の方向1111を示す角度θを計算する。
図13は、ステップ1004における背景輝度計算処理の例を示している。横軸は、線状領域の幅方向の座標xを表し、縦軸は輝度を表し、プロットされた複数の点は、幅方向における複数の画素それぞれの輝度を表している。
点1301が対象画素を表している場合、計算部314は、点1301から線状領域の外側へ向かって、背景領域に属する背景画素を探索する。例えば、計算部314は、xが増加する向きに、隣接する2つの画素の輝度の差分を順にチェックしていき、輝度の差分が閾値よりも小さくなった場合、2つの画素のうち外側に位置する画素を背景画素に決定する。
例えば、点1302の輝度と点1303の輝度との差分が閾値よりも小さい場合、計算部314は、外側の点1303が表す画素を背景画素に決定する。さらに、計算部314は、xが減少する向きに同様の探索を行って、点1303の反対側に位置する点1304を求め、点1304が表す画素を別の背景画素に決定する。これにより、計算部314は、2つの背景画素の間に存在する画素を、線状領域内の画素として特定することができる。そして、計算部314は、いずれかの背景画素の輝度を背景輝度に決定する。
図14は、ステップ1005における輝度情報加算処理の例を示している。実線の矢印は、線状領域の幅方向における各画素の輝度を表し、破線の矢印は、背景輝度と各画素の輝度との差分を表す。各画素の輝度を輝度情報として用いる場合、計算部314は、線状領域内の画素の実線の矢印が表す輝度の総和を、輝度情報の和として求める。一方、背景輝度と各画素の輝度との差分を輝度情報として用いる場合、計算部314は、線状領域内の画素の破線の矢印が表す差分の総和を、輝度情報の和として求める。
線状領域と背景領域との境界付近では、破線の矢印が表す差分が0に近いため、ステップ1004において決定された背景画素の位置が少しずれても、破線の矢印が表す差分の総和はほとんど変化しない。このため、差分を輝度情報として用いる方が、輝度情報の和の誤差が小さくなり、推定結果325の精度が向上する。
図15は、ステップ1007の幅推定処理において、撮像装置302から観測可能なひび割れの最大深さhmaxを求める方法の例を示している。ベクトルn1は、深さhmaxの位置における面の法線ベクトルであり、ベクトルn2は、物体の表面上における面の法線ベクトルであり、ベクトルpは、深さhmaxの位置から撮像装置302へ向かうベクトルである。この場合、最大深さhmaxは、ベクトルpとベクトルn1との内積、ベクトルpとベクトルn2との内積、及びひび割れの幅wを用いて、次式により表される。
max=(p・n2/p・n1)w (6)
ベクトルpは、物体の表面に対する撮像装置302の姿勢を表しており、ステップ1006で取得された撮影条件から求めることができる。例えば、物体の表面に対する撮像装置302の光軸の相対的な方向を示すベクトルを、ベクトルpとして用いてもよい。
図9に示した方法によれば、輝度情報の和Sとひび割れの幅wとの関係を示す関係式324として、次式が得られる。
Figure 2019215247
Figure 2019215247
式(7)は、輝度情報が各画素の輝度を表す場合の輝度情報の和Sを表し、式(8)は、輝度情報が背景輝度と各画素の輝度との差分を表す場合の輝度情報の和Sを表す。
F1は、深さhの位置における反射光の強さを表し、ひび割れの幅wに依存する。F2は、物体の表面上における反射光の強さを表し、ひび割れの幅wには依存しない。F1は、式(3)により表され、F2は、式(4)により表され、hmaxは、式(6)により表される。式(7)又は式(8)のいずれにおいても、ひび割れの幅wに依存するF1及びhmaxを用いて輝度情報の和Sを表すことで、輝度情報の和Sとひび割れの幅wとの関係を決定することができる。
Bは、ステップ1004で求められた背景輝度を表し、rは、撮影条件に含まれる画像321の分解能を表す。背景輝度Bをパラメータとして用いることで、反射光の強さを表すF1及びF2を、輝度に変換することができる。
式(7)及び式(8)の右辺に含まれる未知数は、ひび割れの幅wのみである。したがって、式(7)又は式(8)に基づいて、輝度情報の和Sからひび割れの幅wを求める計算式を導出することができる。ステップ1007の幅推定処理において、推定部315は、式(7)又は式(8)から導出した計算式を用いて、ステップ1005で求められた輝度情報の和Sから、ひび割れの幅wを計算する。
輝度情報の和Sは、輝度を表す階調値の総和であるため、ひび割れの幅をサブピクセル単位で推定することができる。さらに、画像321の分解能をパラメータとして用いることで、サブピクセル単位のひび割れの幅を、実空間における長さに変換することができる。
図16は、ひび割れの幅wを計算する方法の例を示している。横軸は、ひび割れの幅wを表し、縦軸は、輝度情報の和Sを表す。グラフ1601は、式(8)から導出した計算式を表し、輝度情報の和Sは、ひび割れの幅wが増加するにつれて単調に増加する。ステップ1005で求められた輝度情報の和がSaである場合、グラフ1601から、対応するひび割れの幅waが求められる。
ステップ1009において、出力部316は、推定結果325を画面上に表示してもよく、通信ネットワークを介して、推定結果325を表示するための表示データを、ユーザ端末へ送信してもよい。ユーザ端末は、画像処理装置301から受信した表示データを用いて、推定結果325を画面上に表示することができる。
図17は、画像処理装置301又はユーザ端末の画面上に表示された推定結果325の例を示している。図17(a)は、テーブル形式の推定結果325を示している。画像1701には、3個のひび割れが写っており、テーブル1702には、それぞれのひび割れの番号、位置、及び幅が含まれている。番号は、ひび割れの識別情報であり、位置は、画像1701内におけるひび割れの座標を表し、幅は、推定されたひび割れの幅を表す。この例では、ひび割れの幅がmm単位で表示されている。
図17(b)は、ひび割れの幅毎に色分けされた推定結果325を示している。画像1701内のひび割れ1711、ひび割れ1712、及びひび割れ1713は、赤、緑、及び青でそれぞれ色分けされている。赤、緑、及び青のひび割れの幅は、それぞれ、0.1mm、0.2mm、及び0.3mmである。
図1の画像処理装置101の構成は一例に過ぎず、画像処理装置101の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。
図3の画像処理システムの構成は一例に過ぎず、画像処理装置301の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、画像321が事前に記憶部311に格納されている場合は、取得部312を省略することができる。推定結果325を出力する必要がない場合は、出力部316を省略することができる。
図2及び図10のフローチャートは一例に過ぎず、画像処理装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図10の画像処理において、画像321が事前に記憶部311に格納されている場合は、ステップ1001の処理を省略することができる。画像処理装置301は、ステップ1003〜ステップ1007の処理を、処理対象の線状領域に含まれるすべての画素に対して行う必要はなく、一部の画素のみに対して行ってもよい。
図4に示した輝度f(x)、輝度h(x)、及びボケ関数g(x)は一例に過ぎず、輝度f(x)、輝度h(x)、及びボケ関数g(x)は、画像321に応じて変化する。図5に示した環境光は一例に過ぎず、環境光は、撮影条件に応じて変化する。図6に示した光の角度範囲と、図7に示した深さと輝度の関係は一例に過ぎず、光の角度範囲、及び深さと輝度の関係は、損傷の形状に応じて変化する。
図8に示した光の入力範囲は一例に過ぎず、光の入力範囲は、物体及び損傷の形状に応じて変化する。図9に示した面積S2、面積S3、及び面積S4は一例に過ぎず、これらの面積は、画像321に応じて変化する。図11に示した線状領域と図13及び図14に示した複数の画素の輝度は一例に過ぎず、線状領域及び画素の輝度は、画像321に応じて変化する。
図12に示したフィルタは一例に過ぎず、画像処理装置301の構成又は条件に応じて別のフィルタを用いてもよい。図15に示した最大深さを求める方法と図16に示したひび割れの幅を計算する方法は一例に過ぎず、画像処理装置301の構成又は条件に応じて別の方法を用いてもよい。図17に示した推定結果は一例に過ぎず、推定結果は、画像321に応じて変化する。
式(1)〜式(8)は一例に過ぎず、画像処理装置301の構成又は条件に応じて別の計算式を用いてもよい。
図18は、図1の画像処理装置101及び図3の画像処理装置301として用いられる情報処理装置(コンピュータ)の構成例を示している。図18の情報処理装置は、CPU(Central Processing Unit)1801、メモリ1802、入力装置1803、出力装置1804、補助記憶装置1805、媒体駆動装置1806、及びネットワーク接続装置1807を含む。これらの構成要素はバス1808により互いに接続されている。図3の撮像装置302は、バス1808に接続されていてもよい。
メモリ1802は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1802は、図1の記憶部111又は図3の記憶部311として用いることができる。
CPU1801(プロセッサ)は、例えば、メモリ1802を利用してプログラムを実行することにより、図1の抽出部112、計算部113、及び推定部114として動作する。CPU1801は、メモリ1802を利用してプログラムを実行することにより、図3の取得部312、抽出部313、計算部314、及び推定部315としても動作する。
入力装置1803は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1804は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。出力装置1804は、図3の出力部316として用いることができる。処理結果は、推定結果325であってもよい。
補助記憶装置1805は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1805は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1805にプログラム及びデータを格納しておき、それらをメモリ1802にロードして使用することができる。補助記憶装置1805は、図1の記憶部111又は図3の記憶部311として用いることができる。
媒体駆動装置1806は、可搬型記録媒体1809を駆動し、その記録内容にアクセスする。可搬型記録媒体1809は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1809は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1809にプログラム及びデータを格納しておき、それらをメモリ1802にロードして使用することができる。
このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1802、補助記憶装置1805、又は可搬型記録媒体1809のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置1807は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1807を介して受信し、それらをメモリ1802にロードして使用することができる。ネットワーク接続装置1807は、図3の出力部316として用いることができる。
情報処理装置は、ネットワーク接続装置1807を介して、ユーザ端末から画像321及び処理要求を受信し、推定結果325を表示するための表示データを、ユーザ端末へ送信することもできる。
なお、情報処理装置が図18のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータ又はユーザと対話する必要がない場合は、入力装置1803及び出力装置1804を省略してもよい。可搬型記録媒体1809又は通信ネットワークを使用しない場合は、媒体駆動装置1806又はネットワーク接続装置1807を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図18を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
撮像装置によって撮影された物体の画像を記憶する記憶部と、
前記物体の画像から、線状の損傷が写っている線状領域を抽出する抽出部と、
前記線状領域を横断する方向において前記線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求める計算部と、
前記輝度情報の和から、輝度情報の和と損傷の幅との関係を示す関係式に基づいて、前記線状の損傷の幅を推定する推定部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記関係式は、前記物体の表面に対する前記撮像装置の姿勢を示すパラメータを含むことを特徴とする付記1記載の画像処理装置。
(付記3)
前記計算部は、前記線状領域に含まれる対象画素の輝度と、前記対象画素に隣接する隣接画素の輝度とを用いて、輝度が変化する方向を求め、前記輝度が変化する方向を、前記線状領域を横断する方向として用いることを特徴とする付記1又は2記載の画像処理装置。
(付記4)
前記関係式は、前記線状領域以外の背景領域の画素の輝度を示すパラメータを含み、
前記計算部は、前記輝度が変化する方向において、前記対象画素から前記線状領域の外側へ向かって、隣接する2つの画素の輝度の差分をチェックし、前記輝度の差分が閾値よりも小さくなった2つの画素のうち、外側に位置する画素の輝度を求め、
前記推定部は、前記外側に位置する画素の輝度を、前記背景領域の画素の輝度として用いることを特徴とする付記1乃至3のいずれか1項に記載の画像処理装置。
(付記5)
前記関係式は、前記線状の損傷の内部における反射光の強さと、前記物体の表面における反射光の強さと、前記撮像装置から観測可能な前記線状の損傷の最大深さとを含むことを特徴とする付記4記載の画像処理装置。
(付記6)
前記関係式は、前記物体の画像の分解能を示すパラメータを含むことを特徴とする付記1乃至5のいずれか1項に記載の画像処理装置。
(付記7)
前記画素毎の輝度情報は、前記線状領域以外の背景領域の画素の輝度と前記線状領域に含まれる各画素の輝度との差分、又は前記線状領域に含まれる各画素の輝度を表すことを特徴とする付記1乃至6のいずれか1項に記載の画像処理装置。
(付記8)
コンピュータにより実行される画像処理方法であって、
前記コンピュータが、
撮像装置によって撮影された物体の画像から、線状の損傷が写っている線状領域を抽出し、
前記線状領域を横断する方向において前記線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求め、
前記輝度情報の和から、輝度情報の和と損傷の幅との関係を示す関係式に基づいて、前記線状の損傷の幅を推定する、
ことを特徴とする画像処理方法。
(付記9)
前記関係式は、前記物体の表面に対する前記撮像装置の姿勢を示すパラメータを含むことを特徴とする付記8記載の画像処理方法。
(付記10)
前記コンピュータは、前記線状領域に含まれる対象画素の輝度と、前記対象画素に隣接する隣接画素の輝度とを用いて、輝度が変化する方向を求め、前記輝度が変化する方向を、前記線状領域を横断する方向として用いることを特徴とする付記8又は9記載の画像処理方法。
(付記11)
前記関係式は、前記線状領域以外の背景領域の画素の輝度を示すパラメータを含み、
前記コンピュータは、前記輝度が変化する方向において、前記対象画素から前記線状領域の外側へ向かって、隣接する2つの画素の輝度の差分をチェックし、前記輝度の差分が閾値よりも小さくなった2つの画素のうち、外側に位置する画素の輝度を求め、前記外側に位置する画素の輝度を、前記背景領域の画素の輝度として用いることを特徴とする付記8乃至10のいずれか1項に記載の画像処理方法。
(付記12)
撮像装置によって撮影された物体の画像から、線状の損傷が写っている線状領域を抽出し、
前記線状領域を横断する方向において前記線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求め、
前記輝度情報の和から、輝度情報の和と損傷の幅との関係を示す関係式に基づいて、前記線状の損傷の幅を推定する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記13)
前記関係式は、前記物体の表面に対する前記撮像装置の姿勢を示すパラメータを含むことを特徴とする付記12記載の画像処理プログラム。
(付記14)
前記コンピュータは、前記線状領域に含まれる対象画素の輝度と、前記対象画素に隣接する隣接画素の輝度とを用いて、輝度が変化する方向を求め、前記輝度が変化する方向を、前記線状領域を横断する方向として用いることを特徴とする付記12又は13記載の画像処理プログラム。
(付記15)
前記関係式は、前記線状領域以外の背景領域の画素の輝度を示すパラメータを含み、
前記コンピュータは、前記輝度が変化する方向において、前記対象画素から前記線状領域の外側へ向かって、隣接する2つの画素の輝度の差分をチェックし、前記輝度の差分が閾値よりも小さくなった2つの画素のうち、外側に位置する画素の輝度を求め、前記外側に位置する画素の輝度を、前記背景領域の画素の輝度として用いることを特徴とする付記12乃至14のいずれか1項に記載の画像処理プログラム。
101、301 画像処理装置
111、311 記憶部
112、313 抽出部
113、314 計算部
114、315 推定部
121、321、1701 画像
302 撮像装置
316 出力部
322 領域情報
323 輝度総和情報
324 関係式
325 推定結果
401 折れ線
402、403 線分
404、405 曲線
701、1601 グラフ
901〜904 直線
1101 線状領域
1102 対象画素
1111 輝度勾配の方向
1112 幅方向に垂直な方向
1301〜1304 点
1702 テーブル
1711〜1713 ひび割れ
1801 CPU
1802 メモリ
1803 入力装置
1804 出力装置
1805 補助記憶装置
1806 媒体駆動装置
1807 ネットワーク接続装置
1808 バス
1809 可搬型記録媒体

Claims (9)

  1. 撮像装置によって撮影された物体の画像を記憶する記憶部と、
    前記物体の画像から、線状の損傷が写っている線状領域を抽出する抽出部と、
    前記線状領域を横断する方向において前記線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求める計算部と、
    前記輝度情報の和から、輝度情報の和と損傷の幅との関係を示す関係式に基づいて、前記線状の損傷の幅を推定する推定部と、
    を備えることを特徴とする画像処理装置。
  2. 前記関係式は、前記物体の表面に対する前記撮像装置の姿勢を示すパラメータを含むことを特徴とする請求項1記載の画像処理装置。
  3. 前記計算部は、前記線状領域に含まれる対象画素の輝度と、前記対象画素に隣接する隣接画素の輝度とを用いて、輝度が変化する方向を求め、前記輝度が変化する方向を、前記線状領域を横断する方向として用いることを特徴とする請求項1又は2記載の画像処理装置。
  4. 前記関係式は、前記線状領域以外の背景領域の画素の輝度を示すパラメータを含み、
    前記計算部は、前記輝度が変化する方向において、前記対象画素から前記線状領域の外側へ向かって、隣接する2つの画素の輝度の差分をチェックし、前記輝度の差分が閾値よりも小さくなった2つの画素のうち、外側に位置する画素の輝度を求め、
    前記推定部は、前記外側に位置する画素の輝度を、前記背景領域の画素の輝度として用いることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記関係式は、前記線状の損傷の内部における反射光の強さと、前記物体の表面における反射光の強さと、前記撮像装置から観測可能な前記線状の損傷の最大深さとを含むことを特徴とする請求項4記載の画像処理装置。
  6. 前記関係式は、前記物体の画像の分解能を示すパラメータを含むことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記画素毎の輝度情報は、前記線状領域以外の背景領域の画素の輝度と前記線状領域に含まれる各画素の輝度との差分、又は前記線状領域に含まれる各画素の輝度を表すことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. コンピュータにより実行される画像処理方法であって、
    前記コンピュータが、
    撮像装置によって撮影された物体の画像から、線状の損傷が写っている線状領域を抽出し、
    前記線状領域を横断する方向において前記線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求め、
    前記輝度情報の和から、輝度情報の和と損傷の幅との関係を示す関係式に基づいて、前記線状の損傷の幅を推定する、
    ことを特徴とする画像処理方法。
  9. 撮像装置によって撮影された物体の画像から、線状の損傷が写っている線状領域を抽出し、
    前記線状領域を横断する方向において前記線状領域に含まれる画素毎の輝度情報を加算することで、輝度情報の和を求め、
    前記輝度情報の和から、輝度情報の和と損傷の幅との関係を示す関係式に基づいて、前記線状の損傷の幅を推定する、
    処理をコンピュータに実行させるための画像処理プログラム。
JP2018112518A 2018-06-13 2018-06-13 画像処理装置、画像処理方法、及び画像処理プログラム Active JP7228341B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018112518A JP7228341B2 (ja) 2018-06-13 2018-06-13 画像処理装置、画像処理方法、及び画像処理プログラム
US16/399,031 US20190385327A1 (en) 2018-06-13 2019-04-30 Image processing apparatus, image processing method, and image processing program
EP19172234.7A EP3582179B1 (en) 2018-06-13 2019-05-02 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112518A JP7228341B2 (ja) 2018-06-13 2018-06-13 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2019215247A true JP2019215247A (ja) 2019-12-19
JP7228341B2 JP7228341B2 (ja) 2023-02-24

Family

ID=66439878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112518A Active JP7228341B2 (ja) 2018-06-13 2018-06-13 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (3)

Country Link
US (1) US20190385327A1 (ja)
EP (1) EP3582179B1 (ja)
JP (1) JP7228341B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114743106B (zh) * 2022-04-20 2022-11-25 中钢集团马鞍山矿山研究总院股份有限公司 一种图像批处理识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124965A (ja) * 2009-12-11 2011-06-23 Advas Co Ltd 被写体寸法測定用カメラ装置
WO2017187966A1 (ja) * 2016-04-27 2017-11-02 富士フイルム株式会社 指標生成方法、測定方法、及び指標生成装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003214827A (ja) 2002-01-29 2003-07-30 Ohbayashi Corp 画像処理によるひび割れの計測方法
JP4292095B2 (ja) 2004-02-26 2009-07-08 計測検査株式会社 微細ひび割れ幅検量方法
JP2006067272A (ja) 2004-08-27 2006-03-09 Matsushita Electric Ind Co Ltd カメラキャリブレーション装置及びカメラキャリブレーション方法
JP6344593B2 (ja) * 2013-06-19 2018-06-20 株式会社 東京ウエルズ 欠陥検査方法
JP6316240B2 (ja) 2015-06-09 2018-04-25 日本電信電話株式会社 測定装置及び測定方法
JP6702097B2 (ja) 2016-09-02 2020-05-27 富士通株式会社 画像処理プログラム、画像処理方法および画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124965A (ja) * 2009-12-11 2011-06-23 Advas Co Ltd 被写体寸法測定用カメラ装置
WO2017187966A1 (ja) * 2016-04-27 2017-11-02 富士フイルム株式会社 指標生成方法、測定方法、及び指標生成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高室祐也、安東克真、河村圭、宮本文穂: "コンクリート表面におけるひび割れ認識への画像処理技術の適用", 土木情報利用技術論文集, vol. 12, JPN6022008179, 2003, pages 187 - 198, ISSN: 0004853203 *

Also Published As

Publication number Publication date
EP3582179B1 (en) 2020-08-12
EP3582179A1 (en) 2019-12-18
JP7228341B2 (ja) 2023-02-24
US20190385327A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
JP4813517B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
US11295426B2 (en) Image processing system, server apparatus, image processing method, and image processing program
JP5374119B2 (ja) 距離情報取得装置、撮像装置、及びプログラム
JPWO2007105359A1 (ja) 倍率色収差を画像解析する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法
US10205928B2 (en) Image processing apparatus that estimates distance information, method of controlling the same, and storage medium
JP2006090896A (ja) ステレオ画像処理装置
TWI554108B (zh) 電子裝置及影像處理方法
JP5705711B2 (ja) ひび割れ検出方法
CN114584700B (zh) 对焦标记方法、标记装置以及电子设备
JPWO2016170656A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2018087732A (ja) ワイヤロープ計測装置及び方法
CN113344906B (zh) 车路协同中相机评估方法、装置、路侧设备和云控平台
CN109496326B (zh) 一种图像处理方法、设备及系统
JP2015090562A (ja) 画像処理装置、方法、及びプログラム
JP7228341B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6603709B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5446285B2 (ja) 画像処理装置及び画像処理方法
JP6855938B2 (ja) 距離測定装置、距離測定方法および距離測定プログラム
US11403736B2 (en) Image processing apparatus to reduce noise in an image
Omar et al. GLCM-based metric for image fusion assessment
JP4468019B2 (ja) 画像処理装置
JP2004134861A (ja) 解像度評価方法、解像度評価プログラム、および光学機器
JP6804417B2 (ja) 計測装置、計測システム、計測装置の作動方法、およびプログラム
JP2019176261A (ja) 画像処理装置
Park An image-based calibration technique of spatial domain depth-from-defocus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R150 Certificate of patent or registration of utility model

Ref document number: 7228341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150