JP6594039B2 - 画像処理装置、方法及びプログラム - Google Patents

画像処理装置、方法及びプログラム Download PDF

Info

Publication number
JP6594039B2
JP6594039B2 JP2015103251A JP2015103251A JP6594039B2 JP 6594039 B2 JP6594039 B2 JP 6594039B2 JP 2015103251 A JP2015103251 A JP 2015103251A JP 2015103251 A JP2015103251 A JP 2015103251A JP 6594039 B2 JP6594039 B2 JP 6594039B2
Authority
JP
Japan
Prior art keywords
image
inspection
captured
captured image
target surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015103251A
Other languages
English (en)
Other versions
JP2016218762A (ja
Inventor
晃仁 関
尚明 倉立
徳裕 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015103251A priority Critical patent/JP6594039B2/ja
Priority to EP16169785.9A priority patent/EP3096286B1/en
Priority to US15/156,468 priority patent/US10275661B2/en
Publication of JP2016218762A publication Critical patent/JP2016218762A/ja
Application granted granted Critical
Publication of JP6594039B2 publication Critical patent/JP6594039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0033Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by determining damage, crack or wear
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Description

本発明の実施形態は、画像処理装置、方法及びプログラムに関する。
従来から、路面を維持・管理するため、路面のひび割れ率から路面の状況を判断する手法が知られている。この手法では、路面上に所定サイズ(例えば、50cm×50cm)の検査領域を複数設定し、検査領域毎に、当該検査領域内に存在するひび割れの本数からひび割れ率を算出する。ひび割れ率は、高いほど、路面が劣化していることを表す。
例えば特許文献1には、路面上のひび割れを検査者に把握させるため、測定車に、路面を見下ろすようにラインカメラ又はエリアカメラを設置するとともに、ラインカメラ又はエリアカメラの撮像位置を照らすように照明を設置し、測定車で移動しながら、照明された撮像位置をラインカメラ又はエリアカメラで撮像し、撮像画像を合成して路面を真上から見た画像を生成する技術が開示されている。
特開2008−46065号公報
しかしながら、上述したような従来技術では、路面の明るさや画像内の明るさムラなど様々な要因により、撮像画像間に明るさの違いが生じてしまう。このため、撮像画像を合成した合成画像においては、合成された撮像画像間の境界部分において明るさが変化してしまい、当該境界部分が検査領域内に存在すると、異常と誤認識させてしまうおそれがある。
本発明が解決しようとする課題は、合成された画像間の境界部分を異常と誤認識されてしまう可能性を低減することができる画像処理装置、方法及びプログラムを提供することを目的とする。
実施形態の画像処理装置は、取得部と、設定部と、選択部と、生成部と、出力部と、を備える。取得部は、移動体で移動しながら撮像装置で対象面を時系列で撮像した複数の撮像画像を取得する。設定部は、前記対象面に複数の検査領域で構成される検査範囲を設定する。選択部は、前記検査領域毎に、前記複数の撮像画像の中から検査領域画像の生成に用いられる撮像画像を選択する。生成部は、前記検査領域毎に、選択された前記撮像画像から、当該撮像画像を撮像した際の前記撮像装置の前記対象面の座標系での位置と前記撮像装置の座標系と前記対象面の座標系との対応関係とに基づいて当該検査領域に対応する部分画像を抽出し、前記対応関係に基づいて前記部分画像を前記対象面の座標系での部分変換画像に変換し、前記複数の検査領域の配置に基づいて、前記複数の部分変換画像を合成し、前記検査領域画像を生成する。出力部は、前記検査領域画像を出力する。
第1実施形態の移動体の構成例を示す図。 第1実施形態の座標系の例を示す図。 第1実施形態の撮像画像の例を示す図。 第1実施形態の画像処理装置の構成例を示す図。 第1実施形態の検査範囲の設定手法の一例の説明図。 第1実施形態の対応関係の一例の説明図。 第1実施形態の撮像画像の例を示す図。 第1実施形態のオルソ画像の例を示す図。 第1実施形態の撮像画像の例を示す図。 第1実施形態のマスク画像の例を示す図。 第1実施形態のオルソ画像の例を示す図。 第1実施形態のマスク画像の例を示す図。 第1実施形態のオルソ画像の例を示す図。 第1実施形態の撮像画像の選択手法の例を示す説明図。 第1実施形態の撮像画像の選択手法の例を示す説明図。 第1実施形態の撮像画像の選択手法の例を示す説明図。 第1実施形態の撮像画像の選択手法の例を示す説明図。 第1実施形態の検査範囲画像の例を示す図。 第1実施形態の検査範囲画像の例を示す図。 第1実施形態の検査範囲を反映させた撮像画像の例を示す図。 第1実施形態の検査範囲を反映させた撮像画像の例を示す図。 第1実施形態の処理例を示すフローチャート。 第1実施形態の画像処理装置の構成例を示す図。 第1実施形態のひび割れ検出結果の例を示す図。 第1実施形態のひび割れ検出結果の例を示す図。 第1実施形態の処理例を示すフローチャート。 各実施形態の画像処理装置のハードウェア構成の一例を示す図である。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
(第1実施形態)
図1は、第1実施形態の対象面103の撮像に用いられる移動体100の構成の一例を示す図である。第1実施形態では、対象面103が道路舗装面であり、移動体100が車両である場合を例に取り説明するが、これに限定されるものではない。
移動体100は、撮像範囲102を撮像するカメラなどの撮像装置101と、画像処理装置110と、を備える。但し、画像処理装置110を移動体100に設けることは必須ではなく、画像処理装置110は、撮像装置101で撮像した撮像画像を取得可能であれば、どのような場所に設けられていてもよい。
移動体100は、対象面103上を移動し、撮像装置101は、移動体100の移動中に撮像範囲102を時系列で撮像し、撮像した撮像画像を画像処理装置110に入力する。
また、撮像装置101は、内部パラメータも画像処理装置110に入力する。内部パラメータを用いると、撮像画像上の位置と実空間上の3次元位置との関係は、数式(1)で表される。
ここで、x〜は、撮像画像上の位置を同次座標表現したものであり、x〜=(u,v,1)で表される。X〜は、実空間上の3次元位置を同次座標表現したものであり、X〜=(X,Y,Z,1)で表される。Pは、透視投影行列である。Aは、内部パラメータであり、数式(2)で表される。
ここで、fxは、撮像画像の横方向の焦点距離を撮像画像の有効画素間隔で除算した値を表し、fyは、撮像画像の縦方向の焦点距離を撮像画像の有効画素間隔で除算した値を表す。cx及びcyは、撮像画像上の光学中心位置を表す。
また、撮像装置101は、撮像装置101のレンズに歪みがある場合には、歪みパラメータも画像処理装置110に入力する。歪みパラメータは、Tangential歪み、Radial歪み、及び魚眼レンズや全方位レンズなどの歪みを考慮するとよい。
なお、撮像装置101の外部パラメータとしては、図2に示すように、対象面103の法線ベクトルn=(nx,ny,nz)、及び対象面103と撮像装置101の光学中心とを結ぶ距離dが挙げられる。また、撮像装置101の相対姿勢(回転行列及び並進ベクトル)が挙げられる。
法線ベクトルn及び距離dを用いると、撮像装置101と対象面103との位置関係、即ち、撮像装置101の座標系(図2では、Y,Zで表されている)と対象面103の座標系(図2では、Y、Zで表されている)との関係は、数式(3)で表される。
ここで、Xは、対象面103の座標を表し、Xは、撮像装置101の座標を表す。t=(0 0 d)である。Rは、数式(4)で表される。
ここで、θ=arccos(nz)、Ψ=arctan(−ny/nx)、Φ=±π/2である。
なお、撮像装置101と対象面103との位置関係は、移動体100の移動により振動や路面の状態によって変化することがある。このため、画像処理装置110は、撮像時刻毎に、撮像装置101と対象面103との位置関係を推定してもよい。
また、時刻m〜m+1間の相対姿勢(回転行列Rr,m.m+1及び並進ベクトルtr,m.m+1)を用いると、時刻m+1の時点の撮像装置101の対象面103の座標系に対する位置Xr,m+1と、時刻mの時点の撮像装置101の対象面103の座標系に対する位置Xr,mと、の関係は、数式(5)で表される。
回転行列及び並進ベクトルは、例えば、画像処理装置110が電波を用いて推定できる。この場合、地理座標位置は、例えば衛星測位システム(GNSS)であるGPS、GLONASS、又は準天頂衛星みちびきなどを用いて求めてもよいし、Wifi等の基地局からの電波を使って推定してもよい。方位は、撮像画像毎の相対的な回転行列がわかればよいため、基準とする方位(必ずしも、北または南である必要がない)を磁気センサや移動体100に複数個の衛星測位システムを設置し、複数個の地理座標位置から求めてもよいし、また、移動体100に角速度センサや加速度センサを設置して、その出力値から求めてもよい。
また、回転行列及び並進ベクトルは、例えば、画像処理装置110が距離計を用いて推定してもよい。この場合、移動体100の移動距離を距離計である車輪の回転量をエンコーダで読み取ったり、移動体の方位の変化は操舵角を舵角センサの情報から求めたりしてもよい。
また、回転行列及び並進ベクトルは、例えば、画像処理装置110が撮像画像を用いて推定してもよい。この場合、撮像装置101で撮影した時系列画像から特徴点を検出し、特徴点の時系列画像間で対応付けを行うことで時系列画像間のフローを求めることができる。フローから時系列画像間の対象面103の座標系に対する回転行列と並進ベクトルを求めてもよい。
図3は、第1実施形態の撮像装置101により撮像された撮像画像の一例を示す図である。図3に示す例では、ひび割れの検査に用いられる検査領域の集合である検査範囲105は、模式的に表わされており、対象面103上に検査範囲105が実際に表されているわけではない。また第1実施形態では、図3に示すように、撮像装置101は、検査領域を一度に撮像できる画角を有しているため、検査領域が画像中において欠損なく1つ以上撮像されている。第1実施形態では、検査領域は、50cm×50cmの領域であるものとするが、これに限定されるものではない。
図4は、第1実施形態の画像処理装置110の構成の一例を示す図である。図4に示すように、画像処理装置110は、取得部111と、設定部113と、算出部115と、選択部119と、生成部121と、出力部123と、を備える。
取得部111、設定部113、算出部115、選択部119、生成部121、及び出力部123は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。
取得部111は、移動体100で移動しながら撮像装置101で対象面103を時系列で撮像した複数の撮像画像を、撮像装置101から取得する。また取得部111は、撮像装置101から内部パラメータ等を取得する。
設定部113は、対象面103に複数の検査領域で構成される検査範囲を設定する。詳細には、設定部113は、対象面103に検査範囲を仮想的に設定する。
図5は、第1実施形態の検査範囲の設定手法の一例を示す説明図であり、上図は、対象面103の座標系を側面から観測した状態を示し、下図は、対象面103の座標系を真上から観測した状態を示す。図5に示す例では、対象面103全体に複数の検査領域で構成される検査範囲105が設定されている。対象面103上のダイヤマークは、横断歩道ありの標識を模したものである。位置106は、撮像装置101(詳細には、撮像装置101の光学中心)の位置を示す。
なお、検査範囲105は、撮像時刻毎に設定されるわけではなく、一度設定されたら固定される座標系(ここでは世界座標wとする)である。検査範囲105は、対象面103の検査で必要な範囲とすればよく、例えば横幅(Xw軸)は車幅、道路の車線幅、又は道幅などを設定すればよい。Zw軸は移動体100の走行範囲である。
算出部115は、撮像装置101の座標系と対象面103の座標系との対応関係を算出する。
ここで、対象面103の座標系は、オルソ画像上の座標系と1対1の関係が成立する。具体的には、図6に示すように、撮像装置101の画像面302の位置303が、対象面103上の点304である場合、点304を路面と平行なオルソ画像面305上の点306へと変換することができる。
詳細には、画像面302上の2次元位置と対象面103上の3次元位置との関係は、数式(6)で表される。
ここで、X〜110は、撮像装置101の座標系での3次元位置を同次座標表現したものであり、X〜111は、対象面103の座標系での3次元位置を同次座標表現したものである。
つまり、算出部115は、撮像画像の座標系と対象面103の座標系との対応関係として数式(6)を求める。この数式(6)を用いて、対象面103上の任意の位置に対応する撮像画像の位置の画素値を取得し、オルソ画像面305上の対応点にマッピングすれば、当該撮像画像のオルソ画像を生成できる。
なお、対象面103は、3次元空間上の平面であるため、射影変換行列を使って撮像画像をオルソ画像に変換することができる。つまり、オルソ画像面305と撮像装置101の画像面302との間にも対象面103に対応した射影変換行列Hoが存在するため、射影変換行列Hoを用いれば、オルソ画像面305上の位置と撮像装置101の画像面302の位置との関係は、数式(7)で表される。
つまり、算出部115は、撮像画像の座標系と対象面103の座標系との対応関係として数式(7)を求めてもよい。この数式(7)を用いて、撮像画像からオルソ画像を生成すれば、オルソ画像面305と撮像装置101の画像面302との対応関係を容易に計算することができ、オルソ画像の生成が容易に行える。
ここで、射影変換行列Hoは、オルソ画像を生成する仮想カメラの内部パラメータA305と、カメラ座標系と構造物座標系との間の回転行列Rと、撮像装置101の内部パラメータAと、で構成される。
なお、仮想カメラの内部パラメータA305に関しては、任意のパラメータを設定できるので、構造物までの距離がdで表現されるとき、数式(8)で表せる。
ここで、αは任意のパラメータであり、実際の路面上の距離1mがオルソ画像上でα画素の大きさになるように変換される。つまり、1画素は実際の路面上の距離では1/α[m]の大きさに相当する。cxとcyはオルソ画像を生成するための仮想カメラの画像中心である。前述の通り、対象面の座標系の任意の1点(例えば点304)は、オルソ画像上の座標系の1点(例えば点306)に1対1で対応している。
なお、撮像画像からオルソ画像までは射影変換行列Hoで表現されるため、撮像画像からオルソ画像までの座標変換を行うテーブル、及びオルソ画像から撮像画像までの座標変換を行うテーブルの少なくともいずれかを作成しておき、オルソ画像生成や座標変換を高速に行ってもよい。さらに、レンズの歪み補正を含めて座標変換を行うテーブルを作成してもよい。
図7は、撮像装置101で撮影された撮像画像の一例を示し、図8は、図7に示す撮像画像のオルソ画像の一例を示す。
選択部119は、検査領域毎に、複数の撮像画像の中から検査領域画像の生成に用いられる撮像画像を選択する。なお、検査領域画像の詳細については、後述する。
具体的には、選択部119は、撮像画像毎に、当該撮像画像を撮像した際の撮像装置101の対象面103の座標系での位置と算出部115により算出された対応関係とに基づいて、当該撮像画像上での検査領域を特定する。
まず、選択部119は、複数の撮像画像それぞれについて、対象面103の座標系で検査範囲に相当する領域を求める。
例えば、選択部119は、図9に示す撮像画像に対し、車線を検出し、図10に示すように、車線の内側とそれ以外とに異なる画素値を配し、車線の内側の領域403とそれ以外の領域404とに分離したマスク画像を生成し、数式(6)又は(7)を用いて、図11に示すように、当該マスク画像をオルソ画像に変換する。これにより、領域403aが検査範囲として求められる。なお、図11の領域403aは、図10の領域403に相当し、図11の領域404aは、図10の領域404に相当する。
また例えば、選択部119は、図9に示す撮像画像に対し、対象面103に対する撮像装置101の姿勢を利用して水平線を検出し、図12に示すように、水平線の下側と水平線の上側とに異なる画素値を配し、水平線の下側の領域406と水平線の上側の領域407とに分離したマスク画像を生成し、数式(6)又は(7)を用いて、図13に示すように、当該マスク画像をオルソ画像に変換する。これにより、領域406aが検査範囲として求められる。なお、図13の領域406aは、図12の領域406に相当し、図13の領域407aは、図12の領域407に相当する。
次に、選択部119は、求めた検査範囲に相当する領域の対象面103の座標系での位置及び方向を求める。具体的には、撮像画像を撮像した時刻での対象面103の座標系での撮像装置101(詳細には、撮像装置101の光学中心)の位置を求める。例えば、選択部119は、数式(9)を用いて、対象面103の座標系での撮像装置101の位置を求める。
なお、数式(5)では、時刻m〜m+1間の相対運動を記したが、数式(9)のように、時刻m+1の位置を時刻mより前の時刻の動きを用いて推定することができる。ここで、前述の検査範囲105の座標系の設定時刻を0とすると、数式(9)は、数式(10)のように変形される。
なお、撮像画像間では大きく回転はしないと過程して回転行列を単位行列として近似する方法もありえる。
これにより、撮像画像毎に、撮像画像上での検査領域に対応する領域の対象面103の座標系での位置及び方向が分かるので、数式(6)又は(7)を用いれば、撮像画像毎に、当該撮像画像上での検査領域の位置及び方向が分かる。
次に、選択部119は、検査領域毎に、検査領域に対する撮像距離の近さ、撮像画像内での検査領域の大きさ、撮像画像内での検査領域のぶれの少なさ、撮像画像内での検査領域の明るさ、及び撮像画像内での検査領域のノイズの少なさの少なくともいずれかに基づいて、撮像画像を選択する。
例えば、撮像装置101は、図14に示すように、位置410bにおいて、撮像範囲410aで図15に示す撮像画像を撮像した後に、位置411bにおいて、撮像範囲411aで図16に示す撮像画像を撮像したとする。図17は、この場合の撮像装置101の位置、撮像範囲、及び複数の検査領域の関係を、対象面103の座標系で示した図である。
この状況を例に取り、検査領域毎の撮像画像の選択手法について説明する。
選択部119は、検査領域毎に、最も近い位置で撮像された撮像画像を選択する。これは、近くで撮像された画像では、画像中に対象面103のパターンが大きく写り、対象面103のより細かい模様を観察することができるためである。この場合、選択部119は、撮像画像内での検査領域の大きさや検査領域と撮像装置101との距離から最も近い位置で撮像された撮像画像を判断する。
まず、図17に示すように、(1)、(8)、(15)、(22)、(29)、及び(30)の検査領域416は、位置411bの方が近くで撮像されているが、撮像範囲411aがこれらの検査領域の一部しかカバーしておらず、検査領域全体が撮像されていない。このため、(1)、(8)、(15)、(22)、(29)、及び(30)の検査領域416については、検査領域全体を撮像するという条件では、図15に示す撮像画像が最も近くで撮像されていることになり、図15に示す撮像画像が選択される。
一方、図17に示すように、(2)〜(5)、(9)〜(12)、(16)〜(19)、(23)〜(26)、及び(31)〜(33)の検査領域415は、撮像範囲410a、411aのいずれにおいても検査領域全体が撮像されているため、図16に示す撮像画像が最も近くで撮像されていることになり、図16に示す撮像画像が選択される。
なお、図15に示す撮像画像では、検査領域415に相当する415b、検査領域416に相当する416aが描写され、図16に示す撮像画像では、検査領域415に相当する415aが描写されているが、これは、撮像画像上での検査領域の位置関係を分かりやすくするために描写したものであり、実際に描写されるわけではない。
また選択部119は、検査領域毎に、最も画質のよい撮像画像を選択するようにしてもよい。これは、撮像が近すぎると移動体100の移動により画像にぶれが生じることがあるためである。
この場合、(1)、(8)、(15)、(22)、(29)、及び(30)の検査領域416については、先ほどと同様、図15に示す撮像画像が選択されが、(2)〜(5)、(9)〜(12)、(16)〜(19)、(23)〜(26)、及び(31)〜(33)の検査領域415については、それぞれ、画質がよい方の撮像画像が選択される。
ここで画質がよいとは、ぶれの少ない撮像画像、明るく写っている撮像画像、及びノイズの少ない撮像画像の少なくともいずれかである。ぶれの少ない撮像画像の選択には、検査領域に相当する撮像画像内の領域内の画素値の分散を求め、より分散の大きいもの、もしくは周波数分解を行い、高周波の波長を多く含む撮像画像を選択すればよい。また、明るく写っている撮像画像の選択には、検査領域に相当する撮像画像内の領域内の画素値の平均や中央値が大きい撮像画像を選択すればよい。ノイズが少ない撮像画像の選択には、撮像装置101のシャッター速度が長い撮像画像やゲインが小さい撮像画像などを選択すればよい。
なお、選択部119は、最も近い位置で撮像された撮像画像を選択する手法と、最も画質のよい撮像画像を選択する手法とを組み合わせて、検査領域毎に撮像画像を選択してもよい。この場合、手法毎に重みを決めておき、スコアが大きくなる撮像画像を選択すればよい。
生成部121は、検査領域毎に、選択部119により選択された撮像画像から、当該撮像画像を撮像した際の撮像装置101の対象面103の座標系での位置と算出部115により算出された対応関係とに基づいて当該検査領域に対応する部分画像を抽出し、当該対応関係に基づいて部分画像を対象面103の座標系での部分変換画像に変換し、複数の検査領域の配置に基づいて、複数の部分変換画像を合成し、検査領域画像を生成する。
図18は、検査領域画像の一例を示す図である。検査領域画像は、検査領域毎に、選択された撮像画像のオルソ画像の当該検査領域に対応する部分の画像を合成したものと同じである。検査領域画像には、検査領域501が複数個含まれている。
図18に示す検査領域画像では、検査領域501の境界がわかるように白線で区切ったが、図19に示すように、白線で区切らなくてもよい。図19に示す検査領域画像であっても、符号503に示す画素値の変化箇所から検査領域の境界があることがわかる。これは、撮像画像毎で明るさの変化が生じているためである。
なお、撮像画像毎に、検査領域画像の生成に用いられた領域を示すようにしてもよい。例えば、図20に示す撮像画像では、図18に示す検査領域画像の複数の検査領域504に相当する領域504aが示され、図21に示す撮像画像では、図18に示す検査領域画像の複数の検査領域505に相当する領域505aが示されている。
なお、領域504aや領域505aが歪んでいるのは、図20及び図21に示す撮像画像がレンズ歪みを補正していない画像を模しているためである。なお、図20及び図21に示す撮像画像において領域504aや領域505aを求めるには、数式(10)を用いて検査領域の座標を撮像画像に一致させ、数式(6)又は(7)を用いて、検査領域画像と撮像画像との関係を推定すればよい。
出力部123は、生成部121により生成された検査領域画像を出力する。出力対象の検査領域画像は、図18に示すものであっても図19に示すものであってもよいが、図19に示す検査領域画像の場合、検査領域の場所がわかるように座標情報等を付加しておくことが好ましい。また、図20や図21に示した撮像画像を併せて出力してもよい。
第1実施形態では、検査者が出力された検査領域画像を用いて、検査領域内のひび割れなど不良個所を検出し、対象面103である道路舗装面の維持・管理の情報として用いる。
図22は、第1実施形態の処理の手順の流れの一例を示すフローチャートである。
まず、取得部111は、移動体100で移動しながら撮像装置101で対象面103を時系列で撮像した複数の撮像画像や撮像装置101の内部パラメータなど各種データを取得する(ステップS101)。
続いて、設定部113は、対象面103に複数の検査領域で構成される検査範囲を設定する(ステップS103)。
続いて、算出部115は、撮像装置101の座標系と対象面103の座標系との対応関係を算出する(ステップS105)。
続いて、選択部119は、検査領域毎に、複数の撮像画像の中から検査領域画像の生成に用いられる撮像画像を選択する(ステップS107)。
続いて、生成部121は、検査領域毎に、選択部119により選択された撮像画像から、当該撮像画像を撮像した際の撮像装置101の対象面103の座標系での位置と算出部115により算出された対応関係とに基づいて当該検査領域に対応する部分画像を抽出し、当該対応関係に基づいて部分画像を対象面103の座標系での部分変換画像に変換し、複数の検査領域の配置に基づいて、複数の部分変換画像を合成し、検査領域画像を生成する(ステップS109)。
続いて、出力部123は、生成部121により生成された検査領域画像を出力する(ステップS111)。
以上のように第1実施形態によれば、検査領域画像では、検査領域の画像が1つの撮像画像から割り当てられるため、検査領域間の境界では画素値の変化(明るさのむら)が生じるが、検査領域内では、このような画素値の変化は生じない。よって、画像間の明るさの変化を補正しなくても、検査領域内でひび割れの誤検出を回避しやすくなる。
また、移動体100の位置や姿勢の推定値には推定エラーがのることがあり、推定エラーによってひび割れが分断されてしまったり、複数のひび割れが重なってしまったりすることがある。
これによって、正しい検査が行えないが、本実施形態では検査領域の間(すなわち503部分)でのみ位置や姿勢の推定のエラーが生じるため、検査領域内でひび割れが分断または複数のひび割れが重なるなどの問題は生じない。
つまり、移動体100の位置や姿勢の推定精度が高くなくても安定に路面の検査が可能である。
(第2実施形態)
第2実施形態では、ひび割れを自動検出する例について説明する。以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図23は、第2実施形態の画像処理装置1110の構成の一例を示す図である。図23に示すように、画像処理装置1110は、検出部1122が第1実施形態と相違する。
検出部1122は、検査領域毎にひび割れなどの不良個所を検出する。ひび割れの検出には、撮像画像の画素値情報を用いる。具体的には、ひび割れは、撮像画像では線状に観測されるため、撮像画像に対してフィルタリング処理を施して、エッジを検出することでひび割れを検出してもよい。
また、ひび割れのパターンから輝度勾配ヒストグラムなどの特徴量を算出し、非ひび割れのパターンとSVM(サポートベクタマシン)やニューラルネット、ランダム森などを用いて学習して、ひびと非ひびのパターンを識別することで、ひび割れを検出してもよい。
ひび割れ検出対象の画像は、検査領域画像であってもよいし、撮像画像であってもよい。なお、検査領域画像でひび割れ検出を行う場合、オルソ画像生成で用いる数式(8)のαの値を大きくして解像度を高くしておくことが、より細かいひび割れを検出する上で好ましい。但し、撮像画像よりも解像度は高くならず、必要以上にαを大きくしても画像がぼやけるだけである点に留意すべきである。
撮像画像でひび割れ検出を行う場合、撮像画像をそのまま用いるため、ひび検出のためのαの設定は不要である。
出力部123は、ひび割れなどの不良個所の検出結果を更に出力する。例えば、出力部123は、図24に示すように、ひび割れ箇所611などひび割れ検出結果を反映させた撮像画像を更に出力してもよい。
また、図25に示すように、検査領域画像上の検査領域毎にひび割れの数を色などで視覚化して出力してもよい。図25に示す例では、検査領域613のひび割れの本数が0本、検査領域614のひび割れの本数が1本、検査領域615のひび割れの本数が2本以上となっている。
さらに、一定の長さの調査区間内のひび割れ具合を、ひび割れ度合いが大きいものを100%、ひび割れがないものを0%としたひび割れ率の算出が「舗装調査・試験法便覧S029(平成19年6月(社)日本道路協会)」で規定されており、ひび割れ本数が0本は占有面積0、1本は占有面積0.15m、2本以上は占有面積0.25mとされ、調査区間の面積を分母に、ひび割れ本数に応じた面積の積算値を分子として算出する。出力部123は、これによって求めた道路のひび割れ率を合わせて出力してもよい。また、出力部123は、ひび割れの長さを出力してもよい。
図26は、第2実施形態の処理の手順の流れの一例を示すフローチャートである。
まず、ステップS201〜S209までの処理は、図22に示すフローチャートのステップS101〜S109までの処理と同様である。
ステップS210では、検出部1122は、検査領域毎にひび割れを検出する(ステップS210)。
続いて、出力部123は、生成部121により生成された検査領域画像及びひび割れ検出結果を出力する(ステップS211)。
(変形例)
上記各実施形態では、対象面103が道路舗装面である場合を例に取り説明したが、これに限定されず、橋梁や建物、トンネル等の構造物のコンクリート面などとし、コンクリート面のひび割れや異常を検出してもよい。この場合、移動体100は、カメラを搭載したロボットや首振りカメラなどを用いてもよい。
また、対象面103をエレベータシャフトとし、移動体をエレベータとし、エレベータシャフト内のひび割れや異常の検出を行うようにしてもよい。
このように、対象面は、移動体が相対的に移動しながら撮像できる面であればよく、移動体は、対象面を直接移動しなくてもよい。
(ハードウェア構成)
図27は、各実施形態の画像処理装置のハードウェア構成の一例を示す図である。図27に示すように、各実施形態の画像処理装置は、CPUなどの制御装置901と、ROMやRAMなどの主記憶装置902と、HDDやSSDなどの補助記憶装置903と、ディスプレイなどの表示装置904と、キーボードやマウスなどの入力装置905と、通信インタフェースなどの通信装置906と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。
各実施形態の画像処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。
また、各実施形態の画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、各実施形態の画像処理装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、各実施形態の画像処理装置で実行されるプログラムを、ROM等に予め組み込んで提供するようにしてもよい。
各実施形態の画像処理装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、CPUがROMやHDDなどからプログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。なお、上記各部の少なくとも一部をICなどのハードウェアで実現する場合、各実施形態の各装置は、当該ICなどを更に備えればよい。
本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
例えば、各実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
以上のように、各実施形態によれば、合成された画像間の境界部分を異常と誤認識されてしまう可能性を低減することができる。
100 移動体
101 撮像装置
103 対象面
110 画像処理装置
111 取得部
113 設定部
115 算出部
119 選択部
121 生成部
123 出力部
1122 検出部

Claims (9)

  1. 移動体で移動しながら撮像装置で対象面を時系列で撮像した複数の撮像画像を取得する取得部と、
    前記対象面に複数の検査領域で構成される検査範囲を設定する設定部と、
    前記検査領域毎に、前記複数の撮像画像の中から、前記検査領域に対する撮像距離がより近い撮像画像を選択する手法、および、より画質がよい撮像画像を選択する手法の少なくともいずれかに基づいて1つの撮像画像を選択する選択部と、
    前記検査領域毎に、選択された前記撮像画像から、当該撮像画像を撮像した際の前記撮像装置の前記対象面の座標系での位置と前記撮像装置の座標系と前記対象面の座標系との対応関係とに基づいて当該検査領域に対応する部分画像を抽出し、前記対応関係に基づいて前記部分画像を前記対象面の座標系での部分変換画像に変換し、前記複数の検査領域の配置に基づいて、前記複数の検査領域に対して得られた複数の前記部分変換画像を合成し、検査領域画像を生成する生成部と、
    前記検査領域画像を出力する出力部と、
    を備える画像処理装置。
  2. 前記選択部は、前記検査領域に対する撮像距離の近さ、前記撮像画像内での前記検査領域の大きさ、前記撮像画像内での前記検査領域のぶれの少なさ、前記撮像画像内での前記検査領域の明るさ、及び前記撮像画像内での前記検査領域のノイズの少なさの少なくともいずれかに基づいて、前記撮像画像を選択する請求項1に記載の画像処理装置。
  3. 前記選択部は、前記撮像画像毎に、当該撮像画像を撮像した際の前記撮像装置の前記対象面の座標系での位置と前記対応関係とに基づいて、当該撮像画像上での前記検査領域を特定する請求項2に記載の画像処理装置。
  4. 前記対応関係を算出する算出部を更に備える請求項1〜3のいずれか1つに記載の画像処理装置。
  5. 前記検査領域画像又は、前記複数の撮像画像それぞれ上の前記検査領域から不良個所を検出する検出部を更に備え、
    前記出力部は、検出結果を更に出力する請求項1〜4のいずれか1つに記載の画像処理装置。
  6. 前記対象面は、前記移動体が相対的に移動しながら撮像できる面である請求項1〜5のいずれか1つに記載の画像処理装置。
  7. 前記撮像装置は、前記検査領域を1度の撮像可能な画角を有する請求項1〜6のいずれか1つに記載の画像処理装置。
  8. 移動体で移動しながら撮像装置で対象面を時系列で撮像した複数の撮像画像を取得する取得ステップと、
    前記対象面に複数の検査領域で構成される検査範囲を設定する設定ステップと、
    前記検査領域毎に、前記複数の撮像画像の中から、前記検査領域に対する撮像距離がより近い撮像画像を選択する手法、および、より画質がよい撮像画像を選択する手法の少なくともいずれかに基づいて1つの撮像画像を選択する選択ステップと、
    前記検査領域毎に、選択された前記撮像画像から、当該撮像画像を撮像した際の前記撮像装置の前記対象面の座標系での位置と前記撮像装置の座標系と前記対象面の座標系との対応関係とに基づいて当該検査領域に対応する部分画像を抽出し、前記対応関係に基づいて前記部分画像を前記対象面の座標系での部分変換画像に変換し、前記複数の検査領域の配置に基づいて、前記複数の検査領域に対して得られた複数の前記部分変換画像を合成し、検査領域画像を生成する生成ステップと、
    前記検査領域画像を出力する出力ステップと、
    を含む画像処理方法。
  9. 移動体で移動しながら撮像装置で対象面を時系列で撮像した複数の撮像画像を取得する取得ステップと、
    前記対象面に複数の検査領域で構成される検査範囲を設定する設定ステップと、
    前記検査領域毎に、前記複数の撮像画像の中から、前記検査領域に対する撮像距離がより近い撮像画像を選択する手法、および、より画質がよい撮像画像を選択する手法の少なくともいずれかに基づいて1つの撮像画像を選択する選択ステップと、
    前記検査領域毎に、選択された前記撮像画像から、当該撮像画像を撮像した際の前記撮像装置の前記対象面の座標系での位置と前記撮像装置の座標系と前記対象面の座標系との対応関係とに基づいて当該検査領域に対応する部分画像を抽出し、前記対応関係に基づいて前記部分画像を前記対象面の座標系での部分変換画像に変換し、前記複数の検査領域の配置に基づいて、前記複数の検査領域に対して得られた複数の前記部分変換画像を合成し、検査領域画像を生成する生成ステップと、
    前記検査領域画像を出力する出力ステップと、
    をコンピュータに実行させるためのプログラム。
JP2015103251A 2015-05-20 2015-05-20 画像処理装置、方法及びプログラム Active JP6594039B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015103251A JP6594039B2 (ja) 2015-05-20 2015-05-20 画像処理装置、方法及びプログラム
EP16169785.9A EP3096286B1 (en) 2015-05-20 2016-05-16 Image processing apparatus, image processing method, and computer program product
US15/156,468 US10275661B2 (en) 2015-05-20 2016-05-17 Image processing apparatus, image processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015103251A JP6594039B2 (ja) 2015-05-20 2015-05-20 画像処理装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016218762A JP2016218762A (ja) 2016-12-22
JP6594039B2 true JP6594039B2 (ja) 2019-10-23

Family

ID=55970924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015103251A Active JP6594039B2 (ja) 2015-05-20 2015-05-20 画像処理装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US10275661B2 (ja)
EP (1) EP3096286B1 (ja)
JP (1) JP6594039B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6486069B2 (ja) * 2014-10-31 2019-03-20 株式会社東芝 画像処理装置、検査装置、検査方法及び画像処理プログラム
JP6838340B2 (ja) * 2016-09-30 2021-03-03 アイシン精機株式会社 周辺監視装置
GB201621438D0 (en) * 2016-12-16 2017-02-01 Trw Ltd Method of determining the boundary of drivable space
SG11201807004SA (en) * 2016-12-19 2018-09-27 Airport Authority Automated airfield ground lighting inspection system
JP6294529B1 (ja) * 2017-03-16 2018-03-14 阪神高速技術株式会社 ひび割れ検出処理装置、およびひび割れ検出処理プログラム
JP6976719B2 (ja) * 2017-05-25 2021-12-08 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP6807459B2 (ja) 2017-07-25 2021-01-06 富士フイルム株式会社 損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体
CN107463934A (zh) * 2017-08-08 2017-12-12 浙江国自机器人技术有限公司 一种隧道裂缝检测方法及装置
JP6960997B2 (ja) * 2017-08-09 2021-11-05 富士フイルム株式会社 画像処理システム、サーバ装置、画像処理方法、及び画像処理プログラム
JP2019045922A (ja) * 2017-08-30 2019-03-22 株式会社ネクスコ・エンジニアリング北海道 変状箇所検出装置、変状箇所検出プログラムおよび変状箇所検出方法
JP6516384B2 (ja) * 2017-09-22 2019-05-22 エヌ・ティ・ティ・コムウェア株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP7048357B2 (ja) * 2018-03-06 2022-04-05 東芝インフラシステムズ株式会社 撮影画像事前確認システム及び撮影画像事前確認方法
KR102135109B1 (ko) * 2018-06-14 2020-07-17 위프코 주식회사 신경회로망을 이용한 도로 노면의 크랙 검출 시스템 및 그 검출 방법
WO2020041319A1 (en) * 2018-08-21 2020-02-27 University Of Kansas Fatigue crack detection in civil infrastructure
JP6947316B2 (ja) 2019-01-30 2021-10-13 日本電気株式会社 劣化診断装置、劣化診断システム、劣化診断方法、プログラム
JP7329951B2 (ja) * 2019-04-01 2023-08-21 キヤノン株式会社 画像処理装置およびその制御方法
CN109919942B (zh) * 2019-04-04 2020-01-14 哈尔滨工业大学 基于高精度降噪理论的桥梁裂缝智能化检测方法
US20230051683A1 (en) * 2020-03-04 2023-02-16 Mitsubishi Electric Corporation Crack detection device, crack detection method and computer readable medium
FR3110996B1 (fr) * 2020-05-26 2022-12-09 Continental Automotive Construction d’images vues du dessus d’un tronçon de route
CN111784667B (zh) * 2020-06-30 2023-09-26 京东科技信息技术有限公司 一种裂纹识别方法及装置
CN111781208B (zh) * 2020-07-24 2023-03-31 河南省交通规划设计研究院股份有限公司 一种道路裂缝检测装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3004570B2 (ja) * 1995-09-29 2000-01-31 三菱重工業株式会社 路面ひびわれ検出装置
JPH09196647A (ja) * 1996-01-23 1997-07-31 Mitsubishi Heavy Ind Ltd 路面性状測定装置の計測データ解析装置
US6788802B2 (en) * 1998-05-21 2004-09-07 Sanyo Electric Co., Ltd. Optical flow estimation method and image synthesis method
JP2005043324A (ja) * 2003-07-25 2005-02-17 Matsushita Electric Ind Co Ltd 路面損傷状態点検方法及び路面損傷位置の特定方法
JP4271648B2 (ja) * 2004-11-10 2009-06-03 シャープ株式会社 画像合成装置、撮像手段、およびプログラム
JP5047515B2 (ja) * 2006-03-20 2012-10-10 株式会社ゼンリン 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置
JP4848532B2 (ja) * 2006-08-21 2011-12-28 名古屋市 路面画像作成方法および路面画像作成装置
JP2008187564A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
WO2008130219A1 (en) * 2007-04-19 2008-10-30 Tele Atlas B.V. Method of and apparatus for producing road information
RU2009148504A (ru) * 2007-06-08 2011-07-20 Теле Атлас Б.В. (NL) Способ и устройство для создания панорамы с множественными точками наблюдения
JP5097480B2 (ja) * 2007-08-29 2012-12-12 株式会社トプコン 画像測定装置
JP2011504248A (ja) * 2007-11-16 2011-02-03 テレ アトラス ベスローテン フエンノートシャップ 車線情報を作成する方法及び装置
WO2011047731A1 (en) * 2009-10-22 2011-04-28 Tele Atlas B.V. Method for creating a mosaic image using masks
KR101077584B1 (ko) * 2009-12-14 2011-10-27 (주) 에투시스템 복수개의 카메라로부터 획득한 영상을 정합하는 영상 처리 장치 및 방법
US8332429B2 (en) * 2010-06-22 2012-12-11 Xerox Corporation Photography assistant and method for assisting a user in photographing landmarks and scenes
US8922662B1 (en) * 2012-07-25 2014-12-30 Amazon Technologies, Inc. Dynamic image selection
JP6032141B2 (ja) * 2013-07-02 2016-11-24 株式会社デンソー 走行路面標示検知装置および走行路面標示検知方法
WO2015039067A1 (en) * 2013-09-16 2015-03-19 Duke University Method for combining multiple image fields
US9659224B1 (en) * 2014-03-31 2017-05-23 Amazon Technologies, Inc. Merging optical character recognized text from frames of image data
JP6486069B2 (ja) 2014-10-31 2019-03-20 株式会社東芝 画像処理装置、検査装置、検査方法及び画像処理プログラム
JP2016090548A (ja) 2014-11-11 2016-05-23 株式会社東芝 ひび割れ情報収集方法及びひび割れ情報収集プログラム
JP2016090547A (ja) 2014-11-11 2016-05-23 株式会社東芝 ひび割れ情報収集装置及びひび割れ情報を収集するためのサーバ装置

Also Published As

Publication number Publication date
EP3096286B1 (en) 2021-06-23
US10275661B2 (en) 2019-04-30
EP3096286A1 (en) 2016-11-23
US20160342848A1 (en) 2016-11-24
JP2016218762A (ja) 2016-12-22

Similar Documents

Publication Publication Date Title
JP6594039B2 (ja) 画像処理装置、方法及びプログラム
CN113379822B (zh) 一种基于采集设备位姿信息获取目标物3d信息的方法
JP6486069B2 (ja) 画像処理装置、検査装置、検査方法及び画像処理プログラム
TWI419081B (zh) 提供擴增實境的標籤追蹤方法、系統與電腦程式產品
JP5503578B2 (ja) 物体検出装置及び物体検出方法
JP4422777B2 (ja) 移動体姿勢検出装置
JP4001162B2 (ja) 画像処理方法、画像処理用のプログラムならびにその記憶媒体、および画像処理装置
CN110431835B (zh) 图像合成装置、图像合成方法及记录介质
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
CN112270719B (zh) 相机标定方法、装置及系统
JPWO2018051459A1 (ja) 物体検出装置および物体検出方法
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
WO2018142533A1 (ja) 位置姿勢推定装置および位置姿勢推定方法
JP2016200557A (ja) 校正装置、距離計測装置及び校正方法
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP2009294109A (ja) キャリブレーション装置
JPWO2008032375A1 (ja) 画像補正装置及び方法、並びにコンピュータプログラム
JP2011097217A (ja) 動き補正装置およびその方法
WO2021070415A1 (ja) 補正パラメータ算出方法、変位量算出方法、補正パラメータ算出装置、及び、変位量算出装置
JP5904168B2 (ja) 撮像画像の特徴点抽出方法および特徴点抽出装置
JP7269130B2 (ja) 画像処理装置
WO2021075090A1 (ja) 補正パラメータ算出方法、変位量算出方法、補正パラメータ算出装置、及び、変位量算出装置
JP5964093B2 (ja) 車両サイズ測定装置、車両サイズ測定方法、およびプログラム
JP2021124330A (ja) 液面検出方法及び液面検出装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190924

R151 Written notification of patent or utility model registration

Ref document number: 6594039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151