JP2016090333A - 画像処理装置、検査装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、検査装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2016090333A
JP2016090333A JP2014223225A JP2014223225A JP2016090333A JP 2016090333 A JP2016090333 A JP 2016090333A JP 2014223225 A JP2014223225 A JP 2014223225A JP 2014223225 A JP2014223225 A JP 2014223225A JP 2016090333 A JP2016090333 A JP 2016090333A
Authority
JP
Japan
Prior art keywords
image
distance
region
pixel value
image region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014223225A
Other languages
English (en)
Other versions
JP6486069B2 (ja
Inventor
晃仁 関
Akihito Seki
晃仁 関
尚明 倉立
Naoaki Kuratate
尚明 倉立
徳裕 中村
Tokuhiro Nakamura
徳裕 中村
雅起 山崎
Masaki Yamazaki
雅起 山崎
諒 中島
Ryo Nakajima
諒 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014223225A priority Critical patent/JP6486069B2/ja
Priority to US14/922,333 priority patent/US9710899B2/en
Priority to EP15191976.8A priority patent/EP3023931A2/en
Publication of JP2016090333A publication Critical patent/JP2016090333A/ja
Application granted granted Critical
Publication of JP6486069B2 publication Critical patent/JP6486069B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

【課題】高精度な画像処理装置、検査装置、画像処理方法及び画像処理プログラムを提供する。
【解決手段】画像処理装置は、取得部10と処理部20とを含む。取得部10は、対象物の像を含む第1撮像画像302と、第1関係と、を含む情報を取得する。第1撮像画像302の第1、第2画像領域r1、r2は、対象物の第1、第2位置p1、p2に対応し、第1、第2画素値を有する。第1関係は、第1画像領域r1の位置と、第1位置p1との間の関係である。処理部20は、画像生成処理と、距離算出処理と、を実施する。画像生成処理では、第1、第2位置にそれぞれ対応する第3、第4画像領域r3、r4を含む画像を生成する。画像生成処理では、第3、第4画像領域の画素値を、情報と第1、第2画素値とに基づいて決定する。距離算出処理では、第3、第4画像領域の実空間での第1、第2距離L1,L2を算出する。第1距離L1は、第2距離L2と異なる。
【選択図】図1

Description

本発明の実施形態は、画像処理装置、検査装置、画像処理方法及び画像処理プログラムに関する。
道路面、壁面、トンネル内壁などの特定の構造物を仮想的に垂直方向から観測した画像(以下、オルソ画像という)がある。オルソ画像は、撮像画像から生成される。撮像画像は、車両やロボットなどの移動体に設置されたカメラ等の撮像装置により撮像される。オルソ画像は、例えば、仮想的に上空から見下ろした画像であるため、停止線や文字などの道路面上のパターン模様の認識に利用することができる。このようなオルソ画像を処理する画像処理装置においては、例えば、道路面上のひび割れ検査等を高精度に行うことが望まれている。
特許第5322789号公報
本発明の実施形態は、高精度な画像処理装置、検査装置、画像処理方法及び画像処理プログラムを提供する。
実施形態に係る画像処理装置は、取得部と、処理部と、を含む。前記取得部は、実空間に設けられた対象物の第1像を含む第1撮像画像と、第1関係と、を含む情報を取得する。前記第1撮像画像の第1画像領域は、前記対象物の第1部分の第1位置に対応し第1画素値を有する。前記第1撮像画像の第2画像領域は、前記対象物の第2部分の第2位置に対応し第2画素値を有する。前記第1関係は、前記第1画像領域の位置と前記第1位置との間の関係である。前記処理部は、第1画像生成処理と、第1距離算出処理と、を実施する。前記第1画像生成処理では、第1生成画像を生成する。前記第1生成画像は、前記第1位置に対応する第3画像領域、及び、前記第2位置に対応する第4画像領域を含み、前記対象物を第1平面に投影した画像である。前記第1画像生成処理では、前記第3画像領域の第3画素値を、前記情報と前記第1画素値とに基づいて決定し、前記第4画像領域の第4画素値を、前記情報と前記第2画素値とに基づいて決定する。前記第1距離算出処理では、前記第3画像領域の第1方向の長さに対応する前記実空間での第1距離と、前記第4画像領域の前記第1方向の長さに対応する前記実空間での第2距離と、を算出する。前記第3画像領域の前記第1方向の前記長さは、前記第4画像領域の前記第1方向の前記長さと同じである。前記第1距離は、前記第2距離と異なる。
第1の実施形態に係る画像処理装置を例示するブロック図である。 移動体、撮像部、対象物及び画像処理装置を例示する模式図である。 第1の実施形態に係る画像処理方法を例示するフローチャート図である。 撮像部と対象物との位置関係を例示する模式図である。 図5(a)及び図5(b)は、第1撮像画像及び第1生成画像を例示する図である。 第1撮像画像、対象物及び第1生成画像の関係を例示する模式図である。 図5(b)の第1生成画像に対応する距離マップを例示する図である。 第2の実施形態に係る画像処理装置を例示するブロック図である。 第2の実施形態に係る画像処理方法を例示するフローチャート図である。 第3の実施形態に係る画像処理装置を例示するブロック図である。 第3の実施形態に係る画像処理方法を例示するフローチャート図である。 移動体を上部から観察した様子を例示する模式図である。 複数のオルソ画像から算出される運動ベクトルを例示する模式図である。 第4の実施形態に係る検査装置を例示するブロック図である。 第4の実施形態に係る検査方法を例示するフローチャート図である。
以下に、本発明の各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1の実施形態)
図1は、第1の実施形態に係る画像処理装置を例示するブロック図である。
実施形態の画像処理装置110は、取得部10と、処理部20と、を含む。取得部10には、例えば、入出力端子が用いられる。取得部10は、有線または無線を介して外部と通信する入出力インターフェイスを含む。処理部20には、例えば、CPU(Central Processing Unit)やメモリなどを含む演算装置が用いられる。処理部20の各ブロックの一部、又は全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
処理部20には、画像生成部21と、距離算出部22と、が設けられる。これらの各部は、例えば、画像処理プログラムとして実現される。すなわち、画像処理装置110は、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現される。画像処理装置110に含まれる各部の機能は、上記のコンピュータ装置に搭載されたプロセッサに画像処理プログラムを実行させることにより実現することができる。このとき、画像処理装置110は、上記の画像処理プログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記の画像処理プログラムを配布して、この画像処理プログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、処理部20は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
図2は、移動体、撮像部、対象物及び画像処理装置を例示する模式図である。
移動体100は、例えば、車両、ロボット、飛行体などの移動体全般が対象とされる。移動体100には、1つ以上の撮像部101が搭載される。撮像部101は、領域102を撮像範囲として観測する。領域102には、対象物103が含まれており、この例では、対象物103は道路面である。対象物103は道路面以外でもよい。対象物103は、建物の壁面、床面、天井面、道路の側壁、トンネルの内壁、橋梁の側面、下面、さらには、エレベータ昇降路の壁面、天井面、床面など、概ね平面または円筒型、直方形状の筒などで形成された構造物でもよい。
この例では、移動体100が対象物103の上を進行方向104に向かって移動する。つまり、撮像部101は、対象物103を斜め上から撮像する。なお、移動体100の進行方向104に沿う方向をY軸方向、Y軸方向と直交する方向をZ軸方向、Y軸方向及びZ軸方向と直交する方向をX軸方向とする。Z軸方向は、移動体100の高さ方向に沿う。X軸方向は、移動体100の奥行き(幅)方向に沿う。
画像処理装置110は、例えば、撮像部101と共に移動体100に搭載される。画像処理装置110は、移動体100とは別の場所に設けられていてもよい。つまり、画像処理装置110は、設置場所に係わらず、撮像部101と通信可能に接続されていればよい。
図1に表すように、取得部10は、情報30を取得する。情報30は、第1撮像画像302と、第1関係pr1と、第2関係pr2と、を含む。なお、情報30は、少なくとも第1関係pr1を含んでいればよい。情報30は、第2関係pr2を含まなくてもよい。第1撮像画像302は、実空間に設けられた対象物103の第1像(以下、対象物像103fという)を含む。第1撮像画像302としては、例えば、道路面などの特定の対象物103を斜め上方から撮像した画像が用いられる。第1撮像画像302は、第1画像領域r1と、第2画像領域r2と、を含む。第1画像領域r1は、対象物103の第1部分103aの第1位置p1に対応し第1画素値を有する。第2画像領域r2は、対象物103の第2部分103bの第2位置p2に対応し第2画素値を有する。第1画像領域r1は、例えば、第1撮像画像302の1つの画素の領域である。第2画像領域r2は、例えば、第1撮像画像302の別の1つの画素の領域である。
第1関係pr1は、第1画像領域r1の位置と、第1位置p1と、の間の関係に係る情報である。第1関係pr1は、撮像部101の焦点距離及び撮像部101の画像中心位置を含む撮像パラメータを含む。第1位置p1は、第1画像領域r1の位置を撮像パラメータに基づき座標変換した位置である。第1関係pr1は、例えば、第1位置p1の座標位置情報である。
第2関係pr2は、第2画像領域r2の位置と、第2位置p2と、の間の関係に係る情報である。第2関係pr2は、撮像部101の焦点距離及び撮像部101の画像中心位置を含む撮像パラメータを含む。第2位置p2は、第2画像領域r2の位置を撮像パラメータに基づき座標変換した位置である。第2関係pr2は、例えば、第2位置p2の座標位置情報である。第2関係pr2は、第1関係pr1が取得出来れば算出可能である。このため、第2関係pr2は情報として取得しなくてもよい。
画像生成部21は、第1画像生成処理を実施する。第1画像生成処理では、対象物103を、第1平面(例えばX−Y平面)に投影した第1生成画像305を生成する。X−Y平面は、第1部分103aと第2部分103bとを結ぶ方向(ここではY軸方向)に沿う。第1生成画像305は、第1位置p1に対応する第3画像領域r3、及び、第2位置p2に対応する第4画像領域r4を含む。この例では、第1生成画像305は、対象物103を俯瞰したオルソ画像である。第1画像生成処理では、第3画像領域r3の第3画素値を、情報30(第1関係pr1)と第1画像領域r1の第1画素値とに基づいて決定し、第4画像領域r4の第4画素値を、情報30(第2関係pr2)と第2画像領域r2の第2画素値とに基づいて決定する。第3画像領域r3は、例えば、第1生成画像305の1つの画素の領域である。第4画像領域r4は、例えば、第1生成画像305の別の1つの画素の領域である。
距離算出部22は、第1距離算出処理を実施する。第1距離算出処理では、第3画像領域r3の第1方向(ここではY軸方向)の長さd1に対応する実空間での第1距離L1と、第4画像領域r4のY軸方向の長さd2に対応する実空間での第2距離L2と、を算出する。長さd1は、長さd2と同じであり、第1距離L1は、第2距離L2と異なる。第1距離L1と第2距離L2とが異なるということは、第3画像領域r3の空間分解能と第4画像領域r4の空間分解能とが異なることを意味する。
この例では、第1撮像画像302は、対象物103を斜め上方から撮像した画像である。そして、第1撮像画像302から、対象物103を俯瞰した第1生成画像305が生成される。このため、第1生成画像305は、撮像部101から離れた画像領域ほどぼやけた画像となる。つまり、第1生成画像305は、撮像部101に近い画像領域では空間分解能が高く、撮像部101から離れた画像領域では空間分解能が低い。なお、空間分解能とは、2つの物体(点)を識別可能な距離で表される。この距離が短いほど空間分解能は高くなる。
オルソ画像の生成方法として、道路面を所定サイズのボクセルに区分けし、区分けしたボクセルに、入力画像から得られる各点を投票する参考例がある。これによれば、ボクセルの投票数によって低密度地点を決定している。参考例では、解像度が低い低密度地点の区別を行っている。しかし、オルソ画像上のそれぞれの位置における実空間に対応する距離(すなわち、空間分解能)を知ることはできなかった。このため、例えば、道路面やコンクリート等のひび割れ検査において所定の大きさのひび割れを特定することは困難であった。
これに対して、実施形態によれば、オルソ画像の各々の位置における実空間での距離(空間分解能)を算出することができる。このため、必要な空間分解能を持つ画像領域に絞ってひび割れ検出等を行うことが可能となる。このため、精度の高いひび割れ検出等が可能となる。これにより、高精度な画像処理装置を提供することができる。
図3は、第1の実施形態に係る画像処理方法を例示するフローチャート図である。
取得部10は、移動体100に搭載された撮像部101により撮像された第1撮像画像302を取得する(ステップS1)。
撮像部101は、撮像部101の撮像パラメータ(内部パラメータ)として、撮像部101の焦点距離、撮像部101の画像中心位置があらかじめ既知とされる。撮像パラメータは、式1の行列Aで構成される。なお、焦点距離とは、レンズと撮像素子(画像面)との間の距離をいう。画像中心位置とは、光軸と撮像素子(画像面)との交点の座標をいう。
以下、各式において、x及びXの上の記号〜をチルダ(チルドともいう)といい、同次座標であることを表す。x(チルダ)=(u、v、1)は、画像上の2次元位置を同次座標表現したものである。X(チルダ)=(X、Y、Z、1)は、空間中のある1点の3次元位置をそれぞれ同次座標表現したものである。fx及びfyは、画像の横方向及び縦方向のそれぞれの焦点距離を画像の有効画素間隔で除算したものである。cx及びcyは、撮像部の画像中心位置を表す。Pは、透視投影行列を表す。
撮像部101のレンズに歪がある場合には、歪も求めたほうが好ましい。歪みとしては、例えば、Tangential歪みや、Radial歪み、魚眼レンズや全方位レンズ等の歪みを考慮するとよい。
取得部10は、例えば、第1関係pr1と、第2関係pr2と、を取得する(ステップS2)。ステップS1とステップS2とは同時に実施してもよい。これら第1関係pr1及び第2関係pr2のそれぞれは、撮像部101と対象物103との間の位置関係を推定することで得ることができる。位置関係の推定は、画像処理装置110の外部で演算され、演算結果として、第1関係pr1及び第2関係pr2に関する情報が入力される。なお、位置関係の推定を処理部20で実施してもよい。
図4は、撮像部と対象物との位置関係を例示する模式図である。
ここでいう位置関係とは、図4に表すように、撮像部101のカメラ座標系200(図4では簡略化のためXcを省略)と、対象物103の対象物座標系201(図4では簡略化のためXrを省略)との間における相対的な位置関係を意味する。具体的には、3行3列の回転行列Rと、3次元の並進ベクトルtと、で構成される。ここでは、対象物103の法線ベクトルをn=(nx、ny、nz)で表現する。カメラ座標系200と対象物座標系201とを結ぶベクトルの長さをdで表現する。撮像部101のカメラ座標系200と、対象物103の対象物座標系201との間の座標変換は、式2を用いて行うことができる。
第1撮像画像302における対象物103の任意の2次元位置は、式1を用いて、撮像部101の3次元位置(カメラ座標系200)に変換される。さらに、撮像部101の3次元位置は、式2を用いて、対象物103の3次元位置(対象物座標系201)に変換される。これにより、第1撮像画像302における対象物103の第1画像領域r1の位置は、実空間における対象物103の第1位置p1に変換することができる。同様に、第1撮像画像302における対象物103の第2画像領域r2の位置は、実空間における対象物103の第2位置p2に変換することができる。
次に、撮像部101と対象物103との間の位置関係の具体的な求め方について説明する。
大きく分けると、(1)移動体100と対象物103との位置関係が変わらない場合と、(2)移動体100と対象物103との位置関係が動的に変わる場合と、が考えられる。(1)の位置関係が変わらない場合は、移動体100が対象物103に沿って滑らかに移動する場合などである。これは、移動体100が低速で運動する場合や、移動体100がレールに沿って運動する場合などである。一方、(2)の位置関係が動的に変わる場合は、自動車のように道路面の起伏や車両の運動によるピッチング、ローリングなど、比較的大きく運動する場合などである。
(1)撮像部101(カメラ座標系200)と、対象物103(対象物座標系201)との間の位置関係を固定する場合、位置関係の推定方法として、図面等の設計データから撮像部101と移動体100との間の位置関係を算出した値を用いてもよい。また、道路面上に、キャリブレーションで用いる校正板を置き、キャリブレーション作業を行うことで、校正板とカメラとの間の位置関係を推定してもよい。
(2)撮像部101(カメラ座標系200)と、対象物103(対象物座標系201)との間の位置関係を動的に算出する場合、以下のようにいくつかの方法がある。
(2−1)2台のカメラを用いる方法として、道路面のように空間上の平面で構成される場合に、空間上の平面にある物体が2台のカメラのそれぞれに投影される画像上の位置x、xは、式3に示すように、3行3列の射影変換行列Hで表現することができる。
なお、x及びxの上の記号〜(チルダ)は、同次座標を表している。射影変換行列Hは、空間上の平面の法線ベクトルnと平面までの距離dを含んでおり、カメラの撮像パラメータが既知である場合には、特異値分解を行うことで算出できる。射影変換行列Hの算出方法としては、各カメラの画像上から特徴点を抽出し、特徴点同士の対応位置を求める。射影変換行列Hは、この対応位置から最小2乗法を用いて求めたり、M推定法、RANSAC(Random Sample Consensus)法等を用いてアウトライヤー(外れ値)を除去しつつ求めたりしてもよい。
(2−2)1台のカメラを用いる方法として、異なる時刻に撮像された画像を用いれば、2台のカメラを用いる方法と同様に、道路面とカメラとの間の位置関係を推定可能である。
(2−3)画像を用いない方法としては、加速度センサまたは角速度センサを用いて、センサ値の変化を検出してもよい。これにより、各時刻での道路面とカメラとの間の位置関係を求めてもよい。
また、レーザなどの測距装置を用いて、道路面の3次元形状を取得し、3次元形状に特定の道路面を当てはめることで、道路面とカメラとの間の位置関係を求めてもよい。
画像生成部21は、ステップS1で取得した第1撮像画像302と、ステップS2で取得した第1関係pr1及び第2関係pr2と、を用いて第1生成画像305を生成する(ステップS3)。第1関係pr1は、第1位置p1を含み、第2関係pr2は、第2位置p2を含む。第1生成画像305としては、例えば、対象物103を正射投影したオルソ画像が生成される。
図5(a)及び図5(b)は、第1撮像画像及び第1生成画像を例示する図である。
図5(a)は、撮像部101で撮像された第1撮像画像302を例示する図である。
図5(b)は、画像生成部21で生成された第1生成画像305を例示する図である。
図5(a)に表すように、第1撮像画像302は、対象物像103fを含む。この例では、対象物像103fは、道路面の像である。第1撮像画像302は、第1画像領域r1と、第2画像領域r2と、を含む。第1画像領域r1は、例えば、第1撮像画像302の1つの画素の領域である。第2画像領域r2は、例えば、第1撮像画像302の別の1つの画素の領域である。
図5(b)に表すように、第1生成画像305は、第1撮像画像302から生成される。この例では、第1生成画像305は、対象物103を正射投影したオルソ画像である。第1生成画像305は、第3画像領域r3と、第4画像領域r4と、を含む。第3画像領域r3は、例えば、第1生成画像305の1つの画素の領域である。第4画像領域r4は、例えば、第1生成画像305の別の1つの画素の領域である。
図6は、第1撮像画像、対象物及び第1生成画像の関係を例示する模式図である。
第1撮像画像302は、第1画像領域r1と、第2画像領域r2と、を含む。第1画像領域r1は、第1撮像画像302の位置303に配置された画素の領域である。第2画像領域r2は、第1撮像画像302の位置307に配置された画素の領域である。
この例では、第1撮像画像302の位置303が、対象物103の位置304に対応している。対象物103の位置304は、対象物103を正射投影した第1生成画像305の位置306に変換することができる。また、第1撮像画像302の位置307が、対象物103の位置308に対応している。対象物103の位置308は、対象物103を正射投影した第1生成画像305の位置309に変換することができる。
対象物103上の3次元位置と、撮像画像302上の2次元位置との関係は、以下の式4を用いて表すことができる。
式4を用いれば、対象物103上の任意の位置に対応する、第1撮像画像302上の位置が分かる。この例では、対象物103の第1部分103aの位置304は、第1撮像画像302の第1画像領域r1の位置303に対応する。対象物103の第2部分103bの位置308は、第1撮像画像302の第2画像領域r2の位置307に対応する。位置304、すなわち、第1位置p1は、第1関係pr1に関する情報30から取得される。位置308、すなわち、第2位置p2は、第2関係pr2に関する情報30から取得される。つまり、第1関係pr1(または、第1関係pr1及び第2関係p2)を含む情報30が取得できれば、式4を用いて、第1撮像画像302上の位置を特定できる。
対象物103が空間上の平面である場合には、前述の式3において説明したように2枚の画像間で射影変換行列を使って変換することができる。つまり、第1生成画像305と第1撮像画像302との間にも、対象物103に対応した射影変換行列Hoが存在する。例えば、以下の式5の射影変換行列Hoを用いれば、第1生成画像305と第1撮像画像302との間の対応関係を容易に計算することができる。これにより、オルソ画像の生成が容易に行える。
射影変換行列Hoは、第1生成画像305を生成するために必要な撮像パラメータ(内部パラメータ)A305と、カメラ座標系200と対象物座標系201との間の回転行列Rと、撮像部101の撮像パラメータAと、で構成される。ここで、撮像パラメータA305に関しては、任意のパラメータを設定できる。例えば、撮像部101から対象物103までの距離がd(図4参照)で表現されるとき、以下の式6のように決めることができる。
ここで、αは任意のパラメータであり、実際の道路面上の距離1メートル(m)が第1生成画像305上でα画素の大きさになるように変換される。つまり、第1生成画像305の1つの画素は、実際の道路面上の距離では、1/α(m)の大きさに相当する。cx’とcy’は第1生成画像305を生成するためのカメラの画像中心である。
画像生成部21は、第1生成画像305を生成するために、第1生成画像305の複数の画像領域に対応する基準距離を設定する。この例では、基準距離として、1/α(m)が設定される。これにより、式6に示す撮像パラメータA305が決定される。
画像生成部21は、式4〜式6を用いて、第1位置p1に対応する第1生成画像305の第3画像領域r3の位置306に、第1画像領域r1の第1画素値を割り当て、第2位置p2に対応する第1生成画像305の第4画像領域r4の位置309に、第2画像領域r2の第2画素値を割り当てる。すなわち、対象物103の第1部分103aの位置304における画素値を、第1撮像画像302の第1画像領域r1の位置303から取得することができる。取得した画素値は、第1生成画像305の第3画像領域r3の位置306にマッピングされる。同様に、対象物103の第2部分103bの位置308における画素値を、第1撮像画像302の第2画像領域r2の位置307から取得することができる。取得した画素値は、第1生成画像305の第4画像領域r4の位置309にマッピングされる。この処理を繰り返すことにより、第1生成画像305の画素値を、第1撮像画像302から取得することができる。
距離算出部22は、ステップS3で生成した第1生成画像305の位置のそれぞれに対応する実空間上での距離を算出する(ステップS4)。距離算出部22は、第3画像領域r3のY軸方向の長さd1に対応する実空間での第1距離L1と、第4画像領域r4のY軸方向の長さd2に対応する実空間での第2距離L2と、を算出する。長さd1は、長さd2と同じであり、第1距離L1は、第2距離L2と異なる。第1距離L1と第2距離L2とが異なるということは、第3画像領域r3の空間分解能と第4画像領域r4の空間分解能とが異なることを意味する。
ここで、前述の図2に表したように、移動体100(車両)の上部に設置した撮像部101(カメラ)から道路面を観測するため、撮像部101が対象物103に対して正対して設置されていない。このような場合には、撮像部101から離れるほど、ぼやけたオルソ画像が生成される。
図6に表すように、対象物103の第1位置p1(304)は、第1撮像画像302の第1画像領域r1の位置303に対応する。対象物103の第2位置p2(308)は、撮像部101を基準として、第1位置p1(304)より遠方である。第2位置p2(308)は、第1撮像画像302の第2画像領域r2の位置307に対応する。第1画像領域r1及び第2画像領域r2のそれぞれは、1つの画素分の大きさ310を有するものとして、対象物103上での位置を求める。第1位置p1(304)では、対象物103上に広がり311を有する。第2位置p2(308)では、広がり312を有する。広がり312のほうが、広がり311より大きいことがわかる。従って、第1生成画像305では、撮像部101から遠い領域ほどぼやけた画像となる。
第1生成画像305上の2次元位置は、以下の式7を用いて対象物103上の対象物座標系201の3次元位置に変換できる。ここで、対象物103上の3次元位置には高さがない、すなわち、Z軸を0とすることができる。第1生成画像305上の2次元位置と、対象物103上の3次元位置とは、一意に決めることができる。
このようにして求めた対象物103上の3次元位置を、式4を用いて、第1撮像画像302の位置(u、v)に変換する。変換した位置(u、v)に対して、例えば、ずれ量δを±0.5(±半画素)とする。この場合、±半画素ずれた位置における対象物103の実空間における位置を、式8を用いて算出する。
さらに、±半画素ずれたときの対象物103上での実際の距離を、式9を用いて求める。
式9で求めた距離diffは、第1生成画像305上の位置x305の実空間での距離である。この例では、距離diffは、1画素当たりに割り当てられた実空間上での距離に相当し、空間分解能を表す。このようにして、距離算出部22は、式7〜式9を用いて、第3画像領域r3のY軸方向の長さd1に対応する実空間での第1距離L1と、第4画像領域r4のY軸方向の長さd2に対応する実空間での第2距離L2と、を算出する。
なお、この例では、第1生成画像305の縦方向(Y軸方向)に対して計算しているが、横軸(X軸方向)に対して計算してもよく、複数の値があるときは、最大値を距離diffとすればよい。第1生成画像305は、対象物103を正射投影し、一定の間隔で生成される。このため、距離が長いほど、第1撮像画像302での投影位置の間隔が狭くなる。従って、第1生成画像305の画素値は、第1撮像画像302の狭い範囲から取得される。このため、引き伸ばされてぼやけた画像となる。この例では、第4画像領域r4の第2距離L2は、第3画像領域r3の第1距離L1よりも長い。このため、第4画像領域r4のほうが第3画像領域r3よりもぼやけた画像となる。
なお、ずれ量δは、ここでは0.5(半画素)としたが、撮像部101の撮像画像に圧縮等により複数の画素の情報が混ざっている場合には、ずれ量δを0.5より大きく設定してもよい。また、移動体100の動きによって撮像部101の撮像画像に動きぶれがある場合には、ぶれの大きさに応じて、ずれ量δを調整してもよい。ぶれの大きさは、例えば、Point Spread Function(点拡がり関数)を推定することにより求めてもよい。
また、第1生成画像305に対象物103以外の物体が写りこんでいる場合は、対象物103以外の領域を検出して、対象物領域と区別ができるように、距離diffに大きい値もしくは負値を入れるなどしてもよい。
第1生成画像305の各画素位置に対して算出された距離(空間分解能)に基づき距離マップを生成する。
式9で求められた距離diffを、第1生成画像305の各画素位置での距離とする。この例では、第3画像領域r3に対して第1距離L1が決定され、第4画像領域r4に対して第2距離L2が決定される。第1生成画像305のその他の画像領域に対しても同様である。
ここで、式9で求められた距離diffに対して、第1生成画像305を生成したときに定めた撮像パラメータA305を考慮してもよい。第1生成画像305の1画素当たりの基準距離は、式6により、1/αである。この1/αは、式9で求められる距離diffと同じ実空間のスケールで統一されている。このため、距離diffと基準距離1/αのうちの大きい方をその画素位置での距離とすればよい。この場合、距離算出部22は、第3画像領域r3において第1距離L1と基準距離1/αとのうちで大きい方を選択し、第4画像領域r4において第2距離L2と基準距離1/αとのうちで大きい方を選択する。
図7は、図5(b)の第1生成画像に対応する距離マップを例示する図である。
ステップS4によって、第1生成画像305に対応する距離マップ305aが生成される。第1生成画像305の第3画像領域r3に対応する第1距離L1は、距離マップ305aの対応位置に格納される。第4画像領域r4に対応する第2距離L2は、距離マップ305aの対応位置に格納される。以下、同様にして、第1生成画像305の複数の画像領域のそれぞれに対して算出された実空間上での距離を、距離マップ305aに格納する。
実施形態によれば、オルソ画像の各々の位置における実空間での距離(空間分解能)を算出することができる。このため、必要な空間分解能を持つ画像領域に絞ってひび割れ検出等を行うことが可能となる。このため、精度の高いひび割れ検出等が可能となる。これにより、高精度な画像処理装置を提供することができる。
なお、実施形態は、道路面等の対象物を俯瞰したオルソ画像に限定されない。実施形態は、特定の対象物をあおりまたは側方から見たオルソ画像に対しても適用することができる。
(第2の実施形態)
図8は、第2の実施形態に係る画像処理装置を例示するブロック図である。
実施形態の画像処理装置111は、取得部10と、処理部20と、を含む。処理部20は、画像生成部21と、距離算出部22と、さらに、画像圧縮部23と、を含む。
画像圧縮部23は、第1生成画像305を圧縮する画像圧縮処理を実施する。画像圧縮処理では、第1距離L1が第2距離L2よりも長いとき、第3画像領域r3の圧縮率を第4画像領域r4の圧縮率よりも高くする。また、画像圧縮部23は、第1距離L1が第2距離L2よりも短いとき、第3画像領域r3の圧縮率を第4画像領域r4の圧縮率よりも低くする。ここで、圧縮率とは、例えば、圧縮後の画像のデータ量と圧縮前の画像のデータ量との差と、圧縮前の画像のデータ量とを、比率(パーセント)で表したものである。圧縮率が高いと相対的に画像のデータ量は小さくなる。
図9は、第2の実施形態に係る画像処理方法を例示するフローチャート図である。
実施形態に係るステップS1〜ステップS4は、第1の実施形態で説明したため、ここでの説明は省略する。ステップS3で求めた第1生成画像305及びステップS4で求めた距離マップ305aを画像圧縮部23の入力とする。
画像圧縮部23は、距離マップ305aを用いて、第1生成画像305の圧縮を行う(ステップS5)。すなわち、第1生成画像305のデータサイズを小さくするために、画像の圧縮を行う。この際、距離マップ305aを用いて、第1生成画像305の各画像領域のそれぞれに対してデータ量の制御を行う。第1生成画像305において、距離が長い画像領域では、ぼやけており、高周波成分を含まない。このため、低周波成分のみデータを保存すればよい。逆に、距離が短い画像領域では、高周波成分から低周波成分まで含むため、高周波成分から低周波成分までデータを保存する必要がある。つまり、距離が長い画像領域では圧縮率を高く、距離が短い画像領域では圧縮率を低く設定することが好ましい。
なお、1画素毎に圧縮することが難しい場合には、距離マップ305aにおいて複数の画素を1つにまとめたブロックを生成してもよい。ブロック内における距離の最小値、中央値、平均値を使ってブロック内で1つの距離を算出し、これをブロック内における圧縮率の算出に利用してもよい。
実施形態によれば、オルソ画像の各々の位置における実空間での距離(空間分解能)を用いて、画像領域毎に圧縮率を異ならせ、効率的な画像圧縮を行うことができる。
(第3の実施形態)
図10は、第3の実施形態に係る画像処理装置を例示するブロック図である。
実施形態の画像処理装置112は、取得部10と、処理部20と、を含む。処理部20は、画像生成部21と、距離算出部22と、さらに、運動ベクトル算出部24と、画像更新部25と、を含む。
取得部10は、情報30を取得する。情報30は、第1撮像画像302と、第1関係pr1と、第2関係pr2と、さらに、第2撮像画像302aと、第3関係pr3と、第4関係pr4と、を含む。なお、情報30は、少なくとも第1関係p1及び第3関係p3を含んでいればよい。第2関係pr2及び第4関係pr4を情報として取得しなくてもよい。第2撮像画像302aは、対象物103の第2像(ここでは対象物像103f)を含み第1撮像画像302とは異なる。第1撮像画像302と第2撮像画像302aとは、例えば、撮像した方向、位置(場所)、時刻の少なくとも1つが異なる。第2撮像画像302aは、第5画像領域r5と、第6画像領域r6と、を含む。第5画像領域r5は、対象物103の第3部分103cの第3位置p3に対応し第5画素値を有する。第6画像領域r6は、対象物103の第4部分103dの第4位置p4に対応し第6画素値を有する。第5画像領域r5は、例えば、第2撮像画像302aの1つの画素の領域である。第6画像領域r6は、例えば、第2撮像画像302aの別の1つの画素の領域である。
第3関係pr3は、第5画像領域r5の位置と、第3位置p3と、の間の関係に係る情報である。第3関係pr3は、撮像部101の焦点距離及び撮像部101の画像中心位置を含む撮像パラメータを含む。第3位置p3は、第5画像領域r5の位置を撮像パラメータに基づき座標変換した位置である。第3関係pr3は、例えば、第3位置p3の座標位置情報である。
第4関係pr4は、第6画像領域r6の位置と、第4位置p4と、の間の関係に係る情報である。第4関係pr4は、撮像部101の焦点距離及び撮像部101の画像中心位置を含む撮像パラメータを含む。第4位置p4は、第6画像領域r6の位置を撮像パラメータに基づき座標変換した位置である。第4関係pr4は、例えば、第4位置p4の座標位置情報である。
画像生成部21は、第2画像生成処理を実施する。第2画像生成処理では、対象物103を、第2平面(例えばX−Y平面)に投影した第2生成画像313を生成する。X−Y平面は、第3部分103cと第4部分103dとを結ぶ方向(ここではY軸方向)に沿う。第2生成画像313は、第3位置p3に対応する第7画像領域r7と、第4位置p4に対応する第8画像領域r8と、を含む。第2画像生成処理では、第7画像領域r7の第7画素値を、情報30と第5画像領域r5の第5画素値とに基づいて決定し、第8画像領域r8の第8画素値を、情報30と第6画像領域r6の第6画素値とに基づいて決定する。第7画像領域r7は、例えば、第2生成画像313の1つの画素の領域である。第8画像領域r8は、例えば、第2生成画像313の別の1つの画素の領域である。
距離算出部22は、第2距離算出処理を実施する。第2距離算出処理では、第7画像領域r7のY軸方向の長さd3に対応する実空間での第3距離L3を算出し、第8画像領域r8のY軸方向の長さd4に対応する実空間での第4距離L4を算出する。長さd3は、長さd4と同じであり、第3距離L3は、第4距離L4と異なる。
運動ベクトル算出部24は、運動ベクトル算出処理を実施する。運動ベクトル算出処理では、第2生成画像313において第1生成画像305の第3画像領域r3に対応し第9画素値を有する第9画像領域r9を検出する。これには、例えば、テンプレートマッチング法(またはパターンマッチング法)が用いられる。運動ベクトル算出処理では、第3画像領域r3の位置と第9画像領域r9の位置との差を含む運動ベクトルV1を算出する。ここで、第9画像領域r9のY軸方向の長さd5は、実空間での第5距離L5に対応する。なお、運動ベクトルV1は、第1生成画像305と第2生成画像313との間で対応する複数の画像領域(画素単位またはブロック単位)それぞれについて算出することができる。第9画像領域r9は、例えば、第2生成画像313に含まれる1つの画素の領域である。
画像更新部25は、第3画像生成処理を実施する。第3画像生成処理では、第1生成画像305と、第2生成画像313と、運動ベクトルV1と、に基づいて、対象物103をX−Z平面に投影した第3生成画像314を生成する。第3生成画像314は、第1位置p1に対応する第10画像領域r10を含む。第3画像生成処理では、第1距離L1が第5距離L5未満のときは、第10画像領域r10の画素値を、第3画像領域r3の第3画素値とする。第1距離L1が第5距離L5以上のときは、第10画像領域r10の画素値を、第9画像領域r9の第9画素値とする。第10画像領域r10は、例えば、第3生成画像314に含まれる1つの画素の領域である。
図11は、第3の実施形態に係る画像処理方法を例示するフローチャート図である。
実施形態に係るステップS11〜ステップS13においては、第1撮像画像302と、第2撮像画像302aと、に基づいて、2枚のオルソ画像(第1生成画像305及び第2生成画像313)が生成される。第2撮像画像302aは、対象物像103fを含み第1撮像画像302とは異なる。ステップS14においては、第1生成画像305の複数の画像領域のそれぞれに対応する実空間での距離と、第2生成画像313の複数の画像領域のそれぞれに対応する実空間での距離と、が算出される。ステップS13で求めた第1生成画像305及び第2生成画像313を運動ベクトル算出部24の入力とする。
運動ベクトル算出部24は、2つのオルソ画像、すなわち、第1生成画像305と第2生成画像313との間で運動ベクトル(動きベクトル)V1を算出する(ステップS15)。
図12は、移動体を上部から観察した様子を例示する模式図である。
この例では、撮像部101は4つの異なる方向を観測しており、前方向きの観測範囲である領域102に加えて、左右向きに領域700及び領域701、後方向きに領域702が設定されている。また、異なる方向でなくても、異なる時刻、異なる場所で撮像してもよい。例えば、異なる時刻で移動体100が移動の前後で撮像した画像でもよい。また、異なる方向、時刻、場所のいずれか複数の組み合わせでもよい。
図13は、複数のオルソ画像から算出される運動ベクトルを例示する模式図である。
この例では、領域102で得られた第1生成画像305に対して、移動体100が前方に移動して撮像した第2生成画像313が示されている。移動前後の移動量である2次元の運動ベクトルV1を算出する。例えば、第1生成画像305及び第2生成画像313の2つのオルソ画像の画素値に基づくテンプレートマッチング法を用いて、最も類似度が高くなる2次元の運動ベクトルを算出することができる。また、回転量からなる運動ベクトルを算出してもよい。また、撮像部101から得られる画像に対して、Structure from Motion法を用いて、撮像部101の3次元空間での運動を求めた後に、撮像部101と対象物103との間の位置関係を用いて運動ベクトルに変換してもよい。また、慣性センサやGPS(Global Positioning System)等のGNSS(Global Navigation Satellite System)を用いてもよい。
画像更新部25は、ステップS15で算出された運動ベクトルV1を用いて、第1生成画像305及び第2生成画像313から第3生成画像314を生成する(ステップS16)。
図13に表すように、第1生成画像305と第2生成画像313との間において、運動ベクトルV1が求められている。運動ベクトルV1は、第3画像領域r3aの位置と、第9画像領域r9aの位置との差を含む。これより、これら2つの第1生成画像305及び第2生成画像313を用いて、1つの第3生成画像314を生成することができる。第3生成画像314において、第10画像領域r10aは、第1位置P1に対応する。このとき、距離の短い画像の方が対象物103上の詳細な画像パターンまで観察できるため好ましい。このため、第1生成画像305と第2生成画像313とのうちで距離が短い画像の画素値が優位になるように、第3生成画像314での画素値を決定する。優位になるとは、例えば、第1生成画像305の画素値と第2生成画像313の画素値とのうち、距離の短いほうの画素値をそのまま第3生成画像314の画素値に用いることが考えられる。また、距離が短いものほど重みが大きくなるように係数を決め、係数をそれぞれの画像の画素値に乗じて画素値を算出してもよい。
ここで、距離マップ305aを、第3生成画像314の各位置における実空間での距離に基づき更新してもよい。例えば、第1生成画像305の第1距離L1と第2生成画像313の第5距離L5とのうちで小さいほうの値を用いて更新する。第1距離L1と第5距離L5との平均値を用いて更新してもよい。第1距離L1と第5距離L5との中間値を用いて更新してもよい。または、これらの値のうちのいずれか複数の値を用いて更新してもよい。
ステップS16で生成(更新)されたオルソ画像及び距離マップを用いて、道路面上のひびなどの異常の検出を行ってもよい。また、画像の圧縮に用いてもよい。また、圧縮されたオルソ画像に対して異常の検出を行ってもよい。
実施形態によれば、より距離の短い(空間分解能の高い)オルソ画像(及び距離マップ)に更新できるため、道路面上のひび検出などの精度をより高めることが可能となる。
(第4の実施形態)
図14は、第4の実施形態に係る検査装置を例示するブロック図である。
実施形態の検査装置113は、取得部10と、処理部20とを、含む。処理部20は、画像生成部21と、距離算出部22と、さらに、検査部26と、を含む。
画像生成部21は、第1生成画像305を生成する。第1生成画像305は、第1位置p1に対応する第3画像領域r3と、第2位置p2に対応する第4画像領域r4と、を含む。画像生成部21は、第3画像領域r3の第3画素値を、情報30と第1画像領域r1の第1画素値とに基づいて決定し、第4画像領域r4の第4画素値を、情報30と第2画像領域r2の第2画素値とに基づいて決定する。
距離算出部22は、第3画像領域r3のY軸方向の長さd1に対応する実空間での第1距離L1と、第4画像領域r4のY軸方向の長さd2に対応する実空間での第2距離L2と、を算出する。距離算出部22は、長さd1は、長さd2と同じであり、第1距離L1は、第2距離L2と異なる。
検査部26は、検査処理を実施する。検査処理では、第1距離L1が所定値以下であるか否かを判定する。第1距離L1が所定値以下のときに、対象物103の第1部分103aの異常を検査する。検査処理では、第2距離L2が所定値以下であるか否かを判定する。第2距離L2が所定値以下のときに、対象物103の第2部分103bの異常を検査する。すなわち、検査部26は、第3画像領域r3及び第4画像領域r4のうちで所定値以下の距離を有する画像領域を、検査対象領域として、対象物103の異常を検査する。なお、距離が所定値を超える画像領域は、検査対象領域とはせず、検査対象から除外する。
例えば、検査処理では、第3画像領域r3を含む領域の画素値に基づいてパターン解析することにより、異常を検出する。異常とは、第1部分103aのひび割れ、わだち、欠損、漏水、剥離及びさびの少なくともいずれかを含む。検査処理では、第4画像領域r4を含む領域の画素値に基づいてパターン解析することにより、異常を検出する。異常とは、第2部分103bのひび割れ、わだち、欠損、漏水、剥離及びさびの少なくともいずれかを含む。
図15は、第4の実施形態に係る検査方法を例示するフローチャート図である。
実施形態に係るステップS1〜ステップS4は、第1の実施形態で説明したため、ここでの説明は省略する。ステップS3で求めた第1生成画像305及びステップS4で求めた距離マップ305aを検査部26の入力とする。
検査部26は、第1生成画像305及び距離マップ305aを用いて、対象物103の異常を検査する(ステップS6)。
異常の検査とは、撮像部101として可視光領域を受光できる、いわゆる可視カメラを用いた場合には、ひび割れ、基準形状からの欠損(例えば、わだち)、さび、漏水などの検出を行うことができる。また、撮像部101として熱カメラを用いた場合には、漏水、剥離や、ひび割れなどの検出を行うことができる。漏水や剥離は、漏水・剥離が発生していない箇所と比べて温度に差が出る。
高精度で信頼できる異常検査を行うには、検出すべき異常箇所が確実に写っている範囲を特定して検出処理を実施する必要がある。ステップS4で説明したように、撮像部101から離れた画像領域では、実空間での距離が長くなっている。距離が長い画像領域では、幅の細いひび割れなどが写らなくなってしまう。このように撮像部101では写すことのできない画像領域においては、異常検出の精度が低下し、信頼性が低くなってしまう。
そこで、距離マップ305aを用いて、検出すべき大きさの異常が写っている範囲を特定する。範囲の特定には、式10を用いる。つまり、距離マップ305aの位置(u、v)の値Iqに対して、検出すべき異常箇所の最低の大きさT以下の場合には、検出対象の画素としてマスクの有無を設定するマスク値Imaskを1にセットする。それ以外は、検出対象でない画素としてマスク値Imaskを0にセットする。
異常箇所の検出は、マスク値Imaskが1の画像領域について、第1生成画像305の画素値に基づいて異常の検出を行う。ひび割れは、画像において線状に観測されるため、ひび割れ検出には、例えば、第1生成画像305に対してフィルタリング処理を施して、画素値が同じような値を持つ線状の形状を抽出することで検出してもよい。また、ひび割れのパターンから輝度勾配ヒストグラムなどの特徴量を算出し、ひび割れのパターンと非ひび割れのパターンとを識別するようにしてもよい。パターンの識別は、SVM(Support Vector Machine)やニューラルネット、ランダム森などを用いて学習すればよい。漏水・剥離や、基準形状からの変異(例えば、わだち)などの検出には、周囲とは異なる画素値の領域をラベリングしたり、パターン識別を行ったりしてもよい。また、距離diffに応じてフィルタリングのフィルタサイズの大きさを変化させてもよい。例えば、距離diffが大きい場合にはサイズの大きいフィルタで処理するなどを行ってもよい。
実施形態によれば、オルソ画像の各々の位置における実空間での距離(空間分解能)を算出することができる。このため、必要な空間分解能を持つ画像領域に絞ってひび割れ検出等の異常検査を行うことが可能となる。このため、精度の高い異常検査が可能となる。
(第5〜第7の実施形態)
(5)車両の天井に搭載されたカメラを用いて道路面上のひびや欠損を検出する道路面診断装置として利用する。実施形態の画像処理装置を用いることで、信頼性の高い異常検出が可能となる。道路面の異常のため、対象物は平面形状となる。複数のオルソ画像を統合することにより、解像度の高い道路面のパノラマが生成される。さらに、圧縮サイズが異常検出に影響しないように制御されているため、データサーバでの管理に好適なデータの生成が可能となる。
(6)トンネル内を移動する移動体にカメラを取り付けて、トンネル内壁のひび・欠損、漏水・剥離を診断する装置として利用する。実施形態の画像処理装置を用いることで、トンネル内において信頼性の高い診断が可能となる。トンネルの円筒形状を平面状に展開したオルソ画像が生成される。
(7)車両や飛行体に設置されたカメラから橋梁を撮像して、例えば、橋梁下面のオルソ画像を作成することが可能となる。橋梁のさびや、ひび、変形などの検出を行うことができる。
実施形態の画像処理装置及び検査装置は、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、カメラなどの撮像装置などを備えることができる。通常のコンピュータを利用したハードウェア構成で実現可能となっている。また、処理部を構成する各部をソフトウェア的に実現してもハードウェア的に実現してもよい。
以上、実施形態として画像処理装置、検査装置及び画像処理方法を例示して説明したが、実施形態は、この画像処理方法をコンピュータに実行させるための画像処理プログラムの形態、あるいは、この画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体の形態としてもよい。
記録媒体としては、具体的には、CD-ROM(-R/-RW)、光磁気ディスク、HD(ハードディスク)、DVD-ROM(-R/-RW/-RAM)、FD(フレキシブルディスク)、フラッシュメモリ、メモリカードや、メモリスティック及びその他各種ROMやRAM等が想定でき、これら記録媒体に上述した実施形態の画像処理方法をコンピュータに実行させるための画像処理プログラムを記録して流通させることにより、当該方法の実現を容易にする。そしてコンピュータ等の情報処理装置に上記のごとくの記録媒体を装着して情報処理装置により画像処理プログラムを読み出すか、若しくは情報処理装置が備えている記憶媒体に当該画像処理プログラムを記憶させておき、必要に応じて読み出すことにより、実施形態の画像処理方法を実行することができる。
実施形態によれば、高精度の画像処理装置、検査装置、画像処理方法及び画像処理プログラムが提供できる。
以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、取得部及び処理部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
その他、本発明の実施の形態として上述した画像処理装置、検査装置、画像処理方法及び画像処理プログラムを基にして、当業者が適宜設計変更して実施し得る全ての画像処理装置、検査装置、画像処理方法及び画像処理プログラムも、本発明の要旨を包含する限り、本発明の範囲に属する。
その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…取得部、 20…処理部、 21…画像生成部、 22…距離算出部、 23…画像圧縮部、 24…運動ベクトル算出部、 25…画像更新部、 26…検査部、 30…情報、 100…移動体、 101…撮像部、 102…領域、 103…対象物、 103a…第1部分、 103b…第2部分、 103c…第3部分、 103d…第4部分、 103f…対象物像、 104…進行方向、 110〜112…画像処理装置、 113…検査装置、 200…カメラ座標系、 201…対象物座標系、 302…第1撮像画像、 302a…第2撮像画像、 303、304、306〜309…位置、
305…第1生成画像、 305a…距離マップ、 310…大きさ、 311、312…広がり、 313…第2生成画像、 314…第3生成画像、 700〜702…領域、 L1〜L5…第1〜第5距離、 V1…運動ベクトル、 d1〜d5…長さ、 p1〜p4…第1〜第4位置、 r1〜r10…第1〜第10画像領域、 r3a…第3画像領域、 r9a…第9画像領域、 r10a…第10画像領域

Claims (9)

  1. 実空間に設けられた対象物の第1像を含む第1撮像画像であって、前記第1撮像画像の第1画像領域は、前記対象物の第1部分の第1位置に対応し第1画素値を有し、前記第1撮像画像の第2画像領域は、前記対象物の第2部分の第2位置に対応し第2画素値を有する第1撮像画像と、
    前記第1画像領域の位置と、前記第1位置と、の間の第1関係と、
    を含む情報を取得する取得部と、
    前記第1位置に対応する第3画像領域、及び、前記第2位置に対応する第4画像領域を含み、前記対象物を第1平面に投影した第1生成画像を生成し、前記第3画像領域の第3画素値を、前記情報と前記第1画素値とに基づいて決定し、前記第4画像領域の第4画素値を、前記情報と前記第2画素値とに基づいて決定する第1画像生成処理と、
    前記第3画像領域の第1方向の長さに対応する前記実空間での第1距離と、前記第4画像領域の前記第1方向の長さに対応する前記実空間での第2距離と、を算出し、前記第3画像領域の前記第1方向の前記長さは、前記第4画像領域の前記第1方向の前記長さと同じであり、前記第1距離は、前記第2距離と異なる第1距離算出処理と、
    を実施する処理部と、
    を備えた画像処理装置。
  2. 前記第1画像領域は、前記第1撮像画像の1つの画素の領域であり、
    前記第2画像領域は、前記第1撮像画像の別の1つの画素の領域であり、
    前記第3画像領域は、前記第1生成画像の1つの画素の領域であり、
    前記第4画像領域は、前記第1生成画像の別の1つの画素の領域である請求項1記載の画像処理装置。
  3. 前記第1関係に関する前記情報は、前記対象物を撮像した撮像部の撮像パラメータを含み、前記撮像パラメータは、前記撮像部の焦点距離及び前記撮像部の画像中心位置を含み、
    前記第1位置は、前記第1画像領域の前記位置を前記撮像パラメータに基づいて座標変換される位置である請求項1または2に記載の画像処理装置。
  4. 前記処理部は、前記第1生成画像を圧縮する画像圧縮処理をさらに実施し、
    前記画像圧縮処理は、前記第1距離が前記第2距離よりも長いときに前記第3画像領域の圧縮率を前記第4画像領域の圧縮率よりも高くし、前記第1距離が前記第2距離よりも短いときに前記第3画像領域の前記圧縮率を前記第4画像領域の前記圧縮率よりも低くすることを含む請求項1〜3のいずれか1つに記載の画像処理装置。
  5. 前記情報は、
    前記対象物の第2像を含み前記第1撮像画像とは異なる第2撮像画像であって、前記第2撮像画像の第5画像領域は、前記対象物の第3部分の第3位置に対応し第5画素値を有し、前記第2撮像画像の第6画像領域は、前記対象物の第4部分の第4位置に対応し第6画素値を有する第2撮像画像と、
    前記第5画像領域の位置と、前記第3位置と、の間の第3関係と、
    をさらに含み、
    前記処理部は、
    前記第3位置に対応する第7画像領域、及び、前記第4位置に対応する第8画像領域を含み、前記対象物を第2平面に投影した第2生成画像を生成し、前記第7画像領域の第7画素値を、前記情報と前記第5画像領域の第5画素値とに基づいて決定し、前記第8画像領域の第8画素値を、前記情報と前記第6画素値とに基づいて決定する第2画像生成処理と、
    前記第7画像領域の前記第1方向の長さに対応する前記実空間での第3距離と、前記第8画像領域の前記第1方向の長さに対応する前記実空間での第4距離と、を算出し、前記第7画像領域の前記第1方向の前記長さは、前記第8画像領域の前記第1方向の前記長さと同じであり、前記第3距離は、前記第4距離と異なる第2距離算出処理と、
    前記第2生成画像中において前記第3画像領域に対応し第9画素値を有する第9画像領域を検出し、前記第3画像領域の位置と前記第9画像領域の位置との差を含む運動ベクトルを算出し、前記第9画像領域の前記第1方向の長さは、前記実空間での第5距離に対応する、運動ベクトル算出処理と、
    前記第1生成画像と、前記第2生成画像と、前記運動ベクトルと、に基づいて、前記第1位置に対応する第10画像領域を含み、前記対象物を前記第2平面に投影した第3生成画像を生成する第3画像生成処理と、
    をさらに実施し、
    前記処理部は、
    前記第1距離が前記第5距離未満のときは、前記第10画像領域の画素値を、前記第3画素値とし、
    前記第1距離が前記第5距離以上のときは、前記第10画像領域の前記画素値を、前記第9画素値とする、
    請求項1〜4のいずれか1つに記載の画像処理装置。
  6. 実空間に設けられた対象物の第1像を含む第1撮像画像であって、前記第1撮像画像の第1画像領域は、前記対象物の第1部分の第1位置に対応し第1画素値を有し、前記第1撮像画像の第2画像領域は、前記対象物の第2部分の第2位置に対応し第2画素値を有する第1撮像画像と、
    前記第1画像領域の位置と、前記第1位置と、の間の第1関係と、
    を含む情報を取得する取得部と、
    前記第1位置に対応する第3画像領域、及び、前記第2位置に対応する第4画像領域を含み、前記対象物を第1平面に投影した第1生成画像を生成し、前記第3画像領域の第3画素値を、前記情報と前記第1画素値とに基づいて決定し、前記第4画像領域の第4画素値を、前記情報と前記第2画素値とに基づいて決定する第1画像生成処理と、
    前記第3画像領域の第1方向の長さに対応する前記実空間での第1距離と、前記第4画像領域の前記第1方向の長さに対応する前記実空間での第2距離と、を算出し、前記第3画像領域の前記第1方向の前記長さは、前記第4画像領域の前記第1方向の前記長さと同じであり、前記第1距離は、前記第2距離と異なる第1距離算出処理と、
    前記第1距離が所定値以下のときに、前記対象物の前記第1部分の異常を検査する検査処理と、
    を実施する処理部と、
    を備えた検査装置。
  7. 前記検査処理は、前記3画像領域を含む領域の画素値に基づいてパターン解析することにより、前記異常を検出することを含み、
    前記異常は、前記第1部分のひび割れ、わだち、欠損、漏水、剥離及びさびの少なくともいずれかを含む請求項6記載の検査装置。
  8. 実空間に設けられた対象物の第1像を含む第1撮像画像であって、前記第1撮像画像の第1画像領域は、前記対象物の第1部分の第1位置に対応し第1画素値を有し、前記第1撮像画像の第2画像領域は、前記対象物の第2部分の第2位置に対応し第2画素値を有する第1撮像画像と、
    前記第1画像領域の位置と、前記第1位置と、の間の第1関係と、
    を含む情報を取得し、
    前記第1位置に対応する第3画像領域、及び、前記第2位置に対応する第4画像領域を含み、前記対象物を第1平面に投影した第1生成画像を生成し、前記第3画像領域の第3画素値を、前記情報と前記第1画素値とに基づいて決定し、前記第4画像領域の第4画素値を、前記情報と前記第2画素値とに基づいて決定し、
    前記第3画像領域の第1方向の長さに対応する前記実空間での第1距離と、前記第4画像領域の前記第1方向の長さに対応する前記実空間での第2距離と、を算出し、前記第3画像領域の前記第1方向の前記長さは、前記第4画像領域の前記第1方向の前記長さと同じであり、前記第1距離は、前記第2距離と異なる、
    画像処理方法。
  9. 実空間に設けられた対象物の第1像を含む第1撮像画像であって、前記第1撮像画像の第1画像領域は、前記対象物の第1部分の第1位置に対応し第1画素値を有し、前記第1撮像画像の第2画像領域は、前記対象物の第2部分の第2位置に対応し第2画素値を有する第1撮像画像と、
    前記第1画像領域の位置と、前記第1位置と、の間の第1関係と、
    を含む情報を取得する処理と、
    前記第1位置に対応する第3画像領域、及び、前記第2位置に対応する第4画像領域を含み、前記対象物を第1平面に投影した第1生成画像を生成し、前記第3画像領域の第3画素値を、前記情報と前記第1画素値とに基づいて決定し、前記第4画像領域の第4画素値を、前記情報と前記第2画素値とに基づいて決定する処理と、
    前記第3画像領域の第1方向の長さに対応する前記実空間での第1距離と、前記第4画像領域の前記第1方向の長さに対応する前記実空間での第2距離と、を算出し、前記第3画像領域の前記第1方向の前記長さは、前記第4画像領域の前記第1方向の前記長さと同じであり、前記第1距離は、前記第2距離と異なる処理と、
    をコンピュータに実行させる画像処理プログラム。
JP2014223225A 2014-10-31 2014-10-31 画像処理装置、検査装置、検査方法及び画像処理プログラム Active JP6486069B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014223225A JP6486069B2 (ja) 2014-10-31 2014-10-31 画像処理装置、検査装置、検査方法及び画像処理プログラム
US14/922,333 US9710899B2 (en) 2014-10-31 2015-10-26 Image processing device, inspection device, image processing method, and non-transitory recording medium
EP15191976.8A EP3023931A2 (en) 2014-10-31 2015-10-28 Image processing device, inspection device, image processing method, and non-transitory recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014223225A JP6486069B2 (ja) 2014-10-31 2014-10-31 画像処理装置、検査装置、検査方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2016090333A true JP2016090333A (ja) 2016-05-23
JP6486069B2 JP6486069B2 (ja) 2019-03-20

Family

ID=54476709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014223225A Active JP6486069B2 (ja) 2014-10-31 2014-10-31 画像処理装置、検査装置、検査方法及び画像処理プログラム

Country Status (3)

Country Link
US (1) US9710899B2 (ja)
EP (1) EP3023931A2 (ja)
JP (1) JP6486069B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107167081A (zh) * 2017-06-02 2017-09-15 哈尔滨师范大学 一种野外鸟卵测量装置
JP2018151964A (ja) * 2017-03-14 2018-09-27 朝日航洋株式会社 桟橋上部工下面の検査装置、桟橋上部工下面の検査システムおよび桟橋上部工下面の検査方法
US10275661B2 (en) 2015-05-20 2019-04-30 Kabushiki Kaisha Toshiba Image processing apparatus, image processing method, and computer program product
US10648922B2 (en) 2015-07-21 2020-05-12 Kabushiki Kaisha Toshiba Crack analysis device, crack analysis method, and crack analysis program
JP7493774B2 (ja) 2020-08-21 2024-06-03 株式会社ソーシャル・キャピタル・デザイン トンネル壁面投影システム

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10401411B2 (en) 2014-09-29 2019-09-03 Ecoatm, Llc Maintaining sets of cable components used for wired analysis, charging, or other interaction with portable electronic devices
CA3081497A1 (en) 2014-10-02 2016-04-07 Ecoatm, Llc Wireless-enabled kiosk for recycling consumer devices
EP3201885B1 (en) 2014-10-02 2021-03-10 ecoATM, LLC Application for device evaluation and other processes associated with device recycling
US10445708B2 (en) 2014-10-03 2019-10-15 Ecoatm, Llc System for electrically testing mobile devices at a consumer-operated kiosk, and associated devices and methods
US10572946B2 (en) 2014-10-31 2020-02-25 Ecoatm, Llc Methods and systems for facilitating processes associated with insurance services and/or other services for electronic devices
WO2016069738A1 (en) 2014-10-31 2016-05-06 ecoATM, Inc. Systems and methods for recycling consumer electronic devices
CA3227945A1 (en) 2014-11-06 2016-05-12 Ecoatm, Llc Methods and systems for evaluating and recycling electronic devices
WO2016094789A1 (en) 2014-12-12 2016-06-16 ecoATM, Inc. Systems and methods for recycling consumer electronic devices
JP6138293B1 (ja) * 2016-01-19 2017-05-31 三菱電機株式会社 路面起伏推定装置および路面起伏推定方法
US10127647B2 (en) * 2016-04-15 2018-11-13 Ecoatm, Llc Methods and systems for detecting cracks in electronic devices
US10269110B2 (en) 2016-06-28 2019-04-23 Ecoatm, Llc Methods and systems for detecting cracks in illuminated electronic device screens
US10261515B2 (en) * 2017-01-24 2019-04-16 Wipro Limited System and method for controlling navigation of a vehicle
JP6845774B2 (ja) * 2017-09-15 2021-03-24 株式会社東芝 距離計測装置
JP7048357B2 (ja) * 2018-03-06 2022-04-05 東芝インフラシステムズ株式会社 撮影画像事前確認システム及び撮影画像事前確認方法
KR102466940B1 (ko) * 2018-04-05 2022-11-14 한국전자통신연구원 로봇 주행용 위상 지도 생성 장치 및 방법
KR20210106493A (ko) 2018-12-19 2021-08-30 에코에이티엠, 엘엘씨 이동 전화기 및 다른 전자 디바이스의 판매 및/또는 구매를 위한 시스템 및 방법
EP3924917A1 (en) 2019-02-12 2021-12-22 ecoATM, LLC Connector carrier for electronic device kiosk
JP7438181B2 (ja) 2019-02-12 2024-02-26 エコエーティーエム, エルエルシー 使用済み電子デバイスを評価および購入するためのキオスク
CN111738402A (zh) 2019-02-18 2020-10-02 埃科亚特姆公司 基于神经网络的电子设备物理状况评估及相关系统和方法
WO2021007690A1 (zh) * 2019-07-12 2021-01-21 深圳市大疆创新科技有限公司 曝光控制方法、装置与可移动平台
US11100344B2 (en) * 2019-11-21 2021-08-24 GM Global Technology Operations LLC Image-based three-dimensional lane detection
CN111507975B (zh) * 2020-04-23 2022-02-08 西南交通大学 一种牵引变电所户外绝缘子异常检测方法
US11922467B2 (en) 2020-08-17 2024-03-05 ecoATM, Inc. Evaluating an electronic device using optical character recognition
JP2022143412A (ja) * 2021-03-17 2022-10-03 株式会社東芝 画像処理装置および画像処理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000161919A (ja) * 1998-11-25 2000-06-16 Hakusado:Kk 俯瞰写真から現地座標の2次元位置情報を復元する方法及びその2次元位置情報復元システム、並びにその方法のプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003316256A (ja) * 2002-04-19 2003-11-07 Asia Air Survey Co Ltd オルソフォト生成方法、オルソフォト生成システム及びオルソフォト生成プログラム
JP2007249103A (ja) * 2006-03-20 2007-09-27 Zenrin Co Ltd 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置
WO2009064172A1 (en) * 2007-11-16 2009-05-22 Tele Atlas B.V. Method of and apparatus for producing lane information
JP2012118656A (ja) * 2010-11-30 2012-06-21 Suzuki Motor Corp 駐車枠検出装置及び駐車枠検出方法
US20120269456A1 (en) * 2009-10-22 2012-10-25 Tim Bekaert Method for creating a mosaic image using masks
US20120287298A1 (en) * 2011-05-11 2012-11-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium
JP5322789B2 (ja) * 2009-06-15 2013-10-23 三菱電機株式会社 モデル生成装置、モデル生成方法、モデル生成プログラム、点群画像生成方法および点群画像生成プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3750456B2 (ja) 2000-01-20 2006-03-01 松下電工株式会社 シート状材料の表面欠陥検査方法及び表面欠陥検査装置
JP2002005850A (ja) 2000-06-22 2002-01-09 Toshiba Corp 欠陥検査方法及びその装置、マスクの製造方法
JP2003232624A (ja) 2002-02-12 2003-08-22 Olympus Optical Co Ltd 欠陥検査装置
JP2008502538A (ja) * 2004-06-11 2008-01-31 ストラテック システムズ リミテッド 鉄道軌道スキャニングシステムおよび方法
JP4328692B2 (ja) * 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
WO2013090830A1 (en) * 2011-12-16 2013-06-20 University Of Southern California Autonomous pavement condition assessment
JP5891783B2 (ja) * 2011-12-27 2016-03-23 富士通株式会社 調査装置、調査プログラムおよび調査方法
JP5776546B2 (ja) * 2011-12-28 2015-09-09 富士通株式会社 路面調査プログラム及び路面調査装置
JP6119097B2 (ja) * 2011-12-28 2017-04-26 富士通株式会社 路面調査プログラム及び路面調査装置
JP5776545B2 (ja) * 2011-12-28 2015-09-09 富士通株式会社 路面調査プログラム及び路面調査装置
US9050984B2 (en) * 2012-04-20 2015-06-09 International Business Machines Corporation Anomalous railway component detection
JP6214867B2 (ja) * 2012-11-14 2017-10-18 株式会社東芝 計測装置、方法及びプログラム
JP2015184929A (ja) * 2014-03-24 2015-10-22 株式会社東芝 立体物検出装置、立体物検出方法、および立体物検出プログラム
JP6594039B2 (ja) * 2015-05-20 2019-10-23 株式会社東芝 画像処理装置、方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000161919A (ja) * 1998-11-25 2000-06-16 Hakusado:Kk 俯瞰写真から現地座標の2次元位置情報を復元する方法及びその2次元位置情報復元システム、並びにその方法のプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003316256A (ja) * 2002-04-19 2003-11-07 Asia Air Survey Co Ltd オルソフォト生成方法、オルソフォト生成システム及びオルソフォト生成プログラム
JP2007249103A (ja) * 2006-03-20 2007-09-27 Zenrin Co Ltd 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置
WO2009064172A1 (en) * 2007-11-16 2009-05-22 Tele Atlas B.V. Method of and apparatus for producing lane information
JP5322789B2 (ja) * 2009-06-15 2013-10-23 三菱電機株式会社 モデル生成装置、モデル生成方法、モデル生成プログラム、点群画像生成方法および点群画像生成プログラム
US20120269456A1 (en) * 2009-10-22 2012-10-25 Tim Bekaert Method for creating a mosaic image using masks
JP2012118656A (ja) * 2010-11-30 2012-06-21 Suzuki Motor Corp 駐車枠検出装置及び駐車枠検出方法
US20120287298A1 (en) * 2011-05-11 2012-11-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10275661B2 (en) 2015-05-20 2019-04-30 Kabushiki Kaisha Toshiba Image processing apparatus, image processing method, and computer program product
US10648922B2 (en) 2015-07-21 2020-05-12 Kabushiki Kaisha Toshiba Crack analysis device, crack analysis method, and crack analysis program
JP2018151964A (ja) * 2017-03-14 2018-09-27 朝日航洋株式会社 桟橋上部工下面の検査装置、桟橋上部工下面の検査システムおよび桟橋上部工下面の検査方法
CN107167081A (zh) * 2017-06-02 2017-09-15 哈尔滨师范大学 一种野外鸟卵测量装置
JP7493774B2 (ja) 2020-08-21 2024-06-03 株式会社ソーシャル・キャピタル・デザイン トンネル壁面投影システム

Also Published As

Publication number Publication date
US9710899B2 (en) 2017-07-18
US20160125612A1 (en) 2016-05-05
EP3023931A2 (en) 2016-05-25
JP6486069B2 (ja) 2019-03-20

Similar Documents

Publication Publication Date Title
JP6486069B2 (ja) 画像処理装置、検査装置、検査方法及び画像処理プログラム
Yoon et al. Structural displacement measurement using an unmanned aerial system
US9965870B2 (en) Camera calibration method using a calibration target
JP6733267B2 (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP6594039B2 (ja) 画像処理装置、方法及びプログラム
JP6560366B2 (ja) 構造物の部材特定装置及び方法
JP6658001B2 (ja) 位置推定装置、プログラム、位置推定方法
JP2018191275A (ja) カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
Chen et al. Color and depth data fusion using an RGB‐D sensor for inexpensive and contactless dynamic displacement‐field measurement
Kersten et al. Comparative geometrical investigations of hand-held scanning systems
JP6524529B2 (ja) 建築限界判定装置
JP6460700B2 (ja) トンネルの内壁の欠陥の有無の診断を行う方法およびトンネルの内壁の欠陥の有無の診断を行うプログラム
CN112270719B (zh) 相机标定方法、装置及系统
Ahmed et al. Pothole 3D reconstruction with a novel imaging system and structure from motion techniques
JP2015184929A (ja) 立体物検出装置、立体物検出方法、および立体物検出プログラム
JP2016061604A (ja) 移動体位置推定装置、移動体位置推定方法及び移動体位置推定プログラム
JP2010066595A (ja) 環境地図生成装置及び環境地図生成方法
JP7427615B2 (ja) 情報処理装置、情報処理方法およびプログラム
Wang et al. Vision technique for deflection measurements based on laser positioning
JP2010009236A (ja) 平面領域推定装置及びプログラム
JP5230354B2 (ja) 位置特定装置及び異動建物検出装置
JP5409451B2 (ja) 3次元変化検出装置
JP7170234B2 (ja) 検査装置及び検査方法
JP6779368B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2021022846A (ja) 点検方法、点検システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190219

R151 Written notification of patent or utility model registration

Ref document number: 6486069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151