JP7412983B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7412983B2
JP7412983B2 JP2019215556A JP2019215556A JP7412983B2 JP 7412983 B2 JP7412983 B2 JP 7412983B2 JP 2019215556 A JP2019215556 A JP 2019215556A JP 2019215556 A JP2019215556 A JP 2019215556A JP 7412983 B2 JP7412983 B2 JP 7412983B2
Authority
JP
Japan
Prior art keywords
image
information processing
images
image quality
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019215556A
Other languages
English (en)
Other versions
JP2020126590A5 (ja
JP2020126590A (ja
Inventor
重樹 森
まほろ 穴吹
悟 間宮
伸明 ▲桑▼原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2020126590A publication Critical patent/JP2020126590A/ja
Publication of JP2020126590A5 publication Critical patent/JP2020126590A5/ja
Application granted granted Critical
Publication of JP7412983B2 publication Critical patent/JP7412983B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)
  • Bridges Or Land Bridges (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、撮影により取得された複数の画像情報を処理する技術に関する。
インフラ構造物においては、継続的な維持管理が不可欠である。インフラ構造物の継続的な維持管理においては、ひび割れ等の変状箇所の特定や記録、観察が重要である。
インフラ構造物の点検手法として、インフラ構造物を撮影し、その撮影画像からひび割れ等の変状を特定して、その特定した変状を評価するような手法が採られることが多い。ただし、撮影画像において、インフラ構造物の点検対象となる面における面積当たりの解像度が低い場合には、例えばひび割れの模様などがつぶれてしまって変状の認識が困難になる。したがって、点検対象の面上において面積当たりの解像度が所定の解像度以上となる画像を撮影することが求められる。なお例えば、インフラ構造物が大規模な場合や形状が複雑な場合、インフラ構造物を所定の解像度以上で一度に撮影することが困難である。このような場合、インフラ構造物を分割撮影し、それら分割撮影で得られた画像を用いて変状の特定や評価が行われる。
また例えば、特許文献1には、対象物までの距離を基に画像内の解像度を推定し、その推定した解像度の平均値と予め定めた解像度閾値とを比較して、画像取得の可否を判断する技術が開示されている。具体的には、推定した解像度の平均値が解像度閾値を上回るときは画像取得を肯定して保存し、一方、解像度閾値を下回るときは画像取得を否定することが開示されている。
特開2018-90981号公報
前述した特許文献1の手法では、推定した画像の解像度を基に画像取得の可否を判断している。しかしながら、解像度のみに基づいて画像取得の可否を判断した場合、インフラ構造物等の対象物の変状評価に利用可能な画像が不足してしまう可能性があり、対象物の変状等を認識できなくなる虞がある。
そこで、本発明は、インフラ構造物のような対象物の変状評価に利用可能な画像を取得し、対象物の変状等を認識可能にすることを目的とする。
本発明の画像処理装置は、構造物を複数の視点から撮影した複数の画像のそれぞれから特徴点を抽出する抽出手段と、前記複数の画像のそれぞれから抽出された前記特徴点の位置の分布の尖度と前記特徴点の数とを評価する特徴評価手段と、前記複数の画像に含まれる画像について、所定の指標に基づく画質が、前記構造物の点検作業のための許容条件を満たすかを評価する画質評価手段と、前記画質評価手段により前記許容条件を満たすと評価された画質の画像の少なくとも一部を、前記抽出手段により抽出された前記特徴点に基づく位置関係で合成する画像合成手段と、を有し、前記画質評価手段は、前記複数の画像のうち、前記特徴評価手段による前記特徴点の評価結果を示す値が所定の閾値以上であった画像に対して、前記所定の指標に基づく画質が、前記構造物の点検作業のための許容条件を満たすかを評価することを特徴とする。
本発明によれば、インフラ構造物のような対象物の変状評価に利用可能な画像を取得でき、対象物の変状等を認識可能となる。
実施形態の情報処理装置の概略構成例を示す図である。 第1の実施形態に係る情報処理装置の機能構成を示す図である。 閾値保持部で保持しているテーブルを表す図である。 画像合成部の動作結果を表す図である。 第1の実施形態の情報処理装置の処理フローチャートである。 点検利用可能画像評価処理のフローチャートである。 第1の実施形態に係る画質評価処理のフローチャートである。 第1の実施形態に係る後処理のフローチャートである。 対象物の面とカメラに入射する光との角度の説明図である。 第2の実施形態に係る画質評価処理のフローチャートである。 第3の実施形態に係る情報処理装置の機能構成を示す図である。 第3の実施形態の表示部における表示内容を表した図である。 第3の実施形態に係る後処理のフローチャートである。 第4の実施形態に係る情報処理装置の機能構成を示す図である。 推定誤差保持部で保持しているテーブルを表す図である。 第4の実施形態の表示部における表示内容を表した図である。 第4の実施形態に係る後処理のフローチャートである。 第1の実施形態の変形例におけるデフォーカス量を説明する図である。 第1の実施形態の変形例における閾値保持部で保持しているテーブルを表す図である。 第1の実施形態の変形例における画像合成部の動作結果を表す図である。 第1の実施形態の変形例に係る画質評価処理のフローチャートである。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1は、本実施形態に係る情報処理装置100のハードウェア構成例を示すブロック図ある。情報処理装置100は、CPU101、RAM102、ROM103、補助記憶装置104、入出力インタフェース105、通信インタフェース106、表示装置107、バス108、入力コントローラ109、入力装置110を有している。
CPU101は、情報処理装置100が備える各機能を実行、制御する。RAM102は、外部装置などから供給されるプログラムやデータを一時記憶する。ROM103は、変更を必要としないプログラムや各種パラメータを格納する。表示装置107は、CPU101によって描画されたグラフィックスを表示する。補助記憶装置104は、各種情報を記憶する。入出力インタフェース105は、外部の機器とデータの送受信を行う。通信インタフェース106は、ネットワークに接続するための装置であり、ネットワークを介して外部の機器とデータの送受信を行う。バス108は、システムバスであり、CPU101、RAM102、ROM103、補助記憶装置104、入出力インタフェース105、通信インタフェース106、表示装置107、入力コントローラ109を接続する。入力コントローラ109は、後述する入力装置110からの入力信号を制御する。入力装置110は、ユーザーからの操作指示を受け付けるための外部入力装置であり、例えば、キーボード、マウスなどである。なお、後述する情報処理装置100の機能や処理は、CPU101がROM103等に格納されているプログラムを読み出し、このプログラムを実行することにより実現する。
以下の実施形態では、インフラ構造物を点検対象物として撮影し、その撮影画像からひび割れ等の変状を特定して評価を行う場合を例に挙げて説明する。また本実施形態において、インフラ構造物が大規模な場合や形状が複雑である場合には、インフラ構造物を分割撮影して得られた画像同士を合成(スティッチ合成)した画像を用いて変状の特定や評価が行われる。ここで、撮影画像を用いて変状等を評価する場合、前述したように点検対象面における面積当たりの解像度が所定の解像度以上となる画像を取得する必要がある。また、分割撮影して得られた画像同士を合成する場合には、例えば画像の中の特徴点を基に各画像同士の位置を合わせて合成するようなことが行われる。ただし、前述した特許文献1に記載の手法のように、画像の解像度のみを用いて画像取得の可否を判断すると、画像内の特徴点が十分で無い状態の画像が保存されてしまう可能性がある。その場合、特徴点に基づく位置合わせが行えず、画像合成に失敗する可能性がある。
<第1の実施形態>
そこで、第1の実施形態では、分割撮影された入力画像から特徴点を抽出して評価すると共に、その入力画像に写った対象物上の画質を評価し、それらの評価結果を基に、対象物の点検に利用可能な画像を評価する。そして、第1の実施形態では、インフラ構造物の三次元形状を推定し、その推定した三次元形状に対して、画像の評価結果を基に入力画像を投影するようにして貼り付けて合成画像を生成する。
図2は、第1の実施形態に係る情報処理装置100の機能構成を示した機能ブロック図である。以下、図2を用いて、第1の実施形態に係る情報処理装置100の機能構成について説明する。
画像入力部201は、対象物をカメラ等によって撮影した画像を取得する。ここで、対象物とは、撮影した画像を利用して点検する対象であり、例えばインフラ点検が行われるのであれば、橋、ダム、トンネルのコンクリート面などのインフラ構造物等である。ただしこれらに限らず、多様な構造物のコンクリート壁面を対象とすることができる。また、画像入力部201にて取得される画像は、画像毎に、カメラの内部パラメータ、すなわち画像の解像度、カメラの焦点距離、撮像素子のサイズ、画像中心の位置、レンズの歪み情報などを含んでいるとする。
特徴抽出部202は、画像入力部201にて取得された入力画像から特徴点を抽出し、画像間の特徴点のマッチングを行い、特徴点の情報および特徴点のマッチング情報を位置姿勢推定部203、特徴評価部205へ出力する。特徴抽出部202の詳細については後述する。
特徴評価部205は、特徴抽出部202で抽出した特徴点を画像毎に評価する。特徴評価部205の詳細については後述する。
位置姿勢推定部203は、特徴抽出部202で抽出した特徴点の情報と特徴点のマッチング情報とを基に、画像を撮影したカメラの位置姿勢を推定する。画像の特徴点とマッチング情報とを用いたカメラの位置姿勢推定技術については一般的であるため説明を省略する。
形状推定部204は、位置姿勢推定部203で推定されたカメラの位置姿勢と画像入力部201で取得された画像とに基づいて、点検対象の三次元形状を推定する。形状推定部204の詳細については後述する。
画質評価部206は、画像入力部201にて取得された入力画像と、形状推定部204で計算した点検対象の三次元形状と、位置姿勢推定部203で推定したカメラの位置姿勢とに基づいて、対象物上の画質を評価する。画質評価部206の詳細については後述する。
閾値保持部207は、特徴評価部205で評価した結果と、画質評価部206で評価した結果とに対する閾値を保持する。ここで閾値は、インフラ構造物の点検に利用する画像として許容可能な画質であることを、判定するための許容条件を定義するものである。第1の実施形態では、解像度を指標として許容条件が定義される。閾値保持部207の詳細については後述する。
画像評価部208は、特徴評価部205で評価した結果と、画質評価部206で評価した結果と、閾値保持部207で保持している閾値とに基づいて、画像入力部201で取得された画像における点検利用可能な領域を特定する。そして画像評価部208は、画像合成部209に点検利用可能な領域の情報を出力する。画像評価部208の詳細については、後述する。
画像合成部209は、画像入力部201からの入力画像と、位置姿勢推定部203からのカメラ位置姿勢と、形状推定部204からの三次元形状と、画像評価部208からの点検利用可能な領域の情報とに基づいて複数の画像を合成する。画像合成部209の詳細については後述する。
以下、特徴抽出部202、形状推定部204、特徴評価部205、画質評価部206、閾値保持部207、画像評価部208、画像合成部209の詳細について説明する。
特徴抽出部202は、画像入力部201にて取得された入力画像から、例えばSIFT(Scale-Invariant Feature Transform)特徴点を抽出する。SIFT特徴点に関しては公知の一般的な特徴点であるための説明を省略する。なお、本実施形態で用いる特徴点は、対象物を異なる撮影方向や撮影角度で撮影した画像間の局所領域のマッチングを行うための特徴点である。また本実施形態においてSIFT特徴点を用いた理由は、対象物の回転、拡大縮小に対して頑健なためである。本実施形態において、特徴抽出部202が抽出する特徴点は、画像間の局所領域のマッチングができれば、SIFT特徴点以外の他の特徴点であっても良い。
形状推定部204は、まず、カメラ位置姿勢と、カメラ位置姿勢に対応付けられた画像とから、マルチベースラインステレオ法を用いて三次元の点群を推定する。形状推定部204で行うマルチベースライン法では、画像の画素を中心とするウィンドウベースのマッチングを行い、三角測量の原理で三次元点群を推定することができる。
ここで、ウィンドウベースのマッチングは、輝度差の二乗和(SSD:Sam of Squared Differences)を用いる。さらに、形状推定部204は、三次元の点群をメッシュ化する。三次元の点群からメッシュ化する方法は一般的なドロネー三角形分割を用いる。そして、形状推定部204は、メッシュ化した、三次元形状を画質評価部206と画像合成部209へ出力する。
特徴評価部205は、例えば、画像中の特徴点の二次元座標の位置の尖度と特徴点の数を用いて、特徴点を評価する。具体的には、特徴評価部205は、式(1)により、画像毎の評価値Vを算出する。
Figure 0007412983000001
ここで式中のα、βは、式(1)の第一項と第二項の重みを示す任意の係数である。本実施形態ではα、β両方とも1とする。また式中のKuは、画像中の特徴点の二次元座標の位置の分布の尖度である。さらに式中の係数jは画像の次元であり、Nは特徴点の数である。式(1)では、分布の尖度のKuが小さいほど評価が高く、特徴点数のNが多いほど評価が高くなる。つまり、式(1)によれば、画像中に一様に特徴点が分布し、なおかつ特徴点の数が多い画像に対する評価値が高くなる。また、Nは他の画像の特徴点とのマッチングが可能であった特徴点の数であっても良い。同様に、画像中の特徴点の二次元座標の位置の分布の尖度の計算に用いる特徴点においても他の画像の特徴点とマッチングが可能であった特徴点のみを使って計算しても良い。
画質評価部206は、画像入力部201にて取得された入力画像に写っている撮影対象物の対象物上における解像度を推定する。本実施形態の場合、画質評価部206は、対象物上で1mmが画像の何画素に相当するのかを推定する。例えば、対象物上で3000mm×3000mmの領域を、3000×3000画素のカメラで撮影した場合であれば、1mmあたり1pixelの解像度で撮影したということになる。なお対象物上での1mmに対応する画素数は、形状推定部204で推定した三次元形状と位置姿勢推定部203で推定したカメラ位置姿勢と、画像入力部201に入力された画像のサイズおよびカメラの内部パラメータの情報とがあれば幾何的に計算可能である。
閾値保持部207は、テーブル形式で閾値を保持する。図3は、閾値保持部207で保持するテーブル301の一例を示した図である。テーブル301は、特徴点の評価値の閾値302および、画質の評価値の閾値303を保持する。ここで、テーブル301における画質の評価値の閾値303は対象物上での解像度であり、1mmあたり1pixelという意味である。
画像評価部208は、特徴評価部205で評価した結果の評価値と閾値保持部207で保持している特徴点の評価値の閾値302とを比較する。そして画像評価部208は、特徴点の評価値が閾値以上であれば、さらに画質評価部206で付与された画像の領域毎の解像度と、閾値保持部207で保持している画質の評価値の閾値303を比較して、閾値以上の画素を特定する。
本実施形態において、画像の領域毎の解像度とは、画像中の画素毎に付与された解像度とする。そして、画像評価部208は、閾値以上であると特定した画素の位置情報を、変状の点検に利用可能な領域の情報として、画像合成部209へ出力する。点検に利用可能な領域の情報とは、具体的には画像入力部201に入力された画像と同じ画素数であって、各画素について点検利用可能であれば「1」、利用可能でなければ「0」が付与された二次元配列である。
また画像評価部208は、画質の評価値の閾値によって、画像の点検利用可能な領域を点検利用可能であれば「1」、利用可能でなければ「0」の2値に分けるのではなく、1から0の間の値を保持し、多値で保持することもできる。このようにすることによって、画像合成部209で画像合成した時に画像の点検利用可能な領域が無い部分の穴埋めに他の画像の最も点検利用可能な領域の値が「1」に近い画像を埋めることができる。
図4は画像合成部209で行う画像合成処理を示した図である。三次元形状401は、形状推定部204で推定した三次元形状である。図中の位置403,407は、それぞれ異なる位置におけるカメラの主点の位置を示している。また撮像面402,406は、それら異なる位置のカメラの撮像面を表している。撮像面402,406は、本来ならば、主点の後ろにあるが、図の分かりやすさを考慮して主点の前に配置して説明する。また図4において、撮像面402,406には、それぞれの面上に結像された変状像としてひび割れ像409,410も表されており、それらひび割れ像409,410が撮像されて記録されていることを示している。
また、領域404,408は、画像評価部208から入力した二次元配列の内、点検利用可能な領域である。そして投影画像405,411は、三次元形状401に対して、撮像面402、406に示される画像の内、点検利用可能な領域404、408を投影した画像を表している。また領域412は、投影画像405と投影画像411とが重なり合った領域を示している。
画像合成部209は、三次元形状401に対して点検利用可能な領域が存在する全ての画像における投影画像405、411を作成して三次元形状401に投影する。また、画像合成部209は、領域412のような画像同士が重なり合う領域についてはブレンディング処理を行う。ブレンディング処理としては、例えばマルチバンド合成(Multi-band blending)処理を用いることができる。
ここで、本実施形態の情報処理装置100における撮像面402,406の画像は、特徴評価部205により特徴点が評価されている。よって、画像の位置ズレの少ない投影画像405,411が得られる。画像の位置ズレの少ない投影画像を得ることにより、変状評価としてのひび割れの評価の正確性が低下することも防ぐという効果が得られる。なぜなら、ひび割れの点検において、画像間の位置ズレが発生した場合、1本のひび割れが途中で途切れ、2本のひび割れに見える可能性があるからであり、本実施形態では位置ズレを少なくすることができるからである。
また本実施形態の情報処理装置100は、カメラの主点の位置403のように対象物を斜めから撮影した場合でも、点検利用可能な領域404が存在するため、投影画像405を得ることが可能である。これは、カメラが障害物などで対象物に対して物理的に斜めからしか撮影できない場合に効果がある。
以下、図5、図6、図7、図8のフローチャートを参照しつつ、第1の実施形態の情報処理装置100における処理の流れについて説明する。
まず図5のフローチャートを用いて情報処理装置100の全体の処理の流れを説明する。なお図5のフローチャートの説明では、処理のステップS501~ステップS507をそれぞれS501~S507のように略記する。このことは後述する他のフローチャートにおいても同様とする。
まずS501において、画像入力部201は、カメラにより撮影された画像を取得する。なお画像入力部201は、カメラにて撮影された画像が保存された記憶媒体から画像を取得しても良いし、カメラにて撮影されてネットワークを介した画像を取得しても良い。S501の後、情報処理装置100の処理はS502へ進む。
S502において、特徴抽出部202は、画像入力部201により取得された全ての画像に対して特徴点の抽出処理を行う。さらに特徴抽出部202は、S503の処理として、特徴点同士のマッチングを行う。そして、特徴抽出部202は、特徴点の情報と特徴点のマッチング情報とを、位置姿勢推定部203と特徴評価部205とに出力する。S502の後、情報処理装置100の処理はS504へ進む。
S504において、位置姿勢推定部203は、特徴抽出部202から入力した特徴点の情報と特徴点のマッチング情報とに基づいて、カメラの位置姿勢を推定する。さらに、位置姿勢推定部203は、カメラの位置姿勢の情報を、形状推定部204と、対象物上の画質評価部206と、画像合成部209とへ出力する。S504の後、情報処理装置100の処理はS505へ進む。
S505において、形状推定部204は、位置姿勢推定部203から入力されたカメラ位置姿勢の情報と、画像入力部201から入力された画像とに基づいて、対象物の三次元形状を推定する。S505の後、情報処理装置100の処理はS506へ進む。
S506に進むと、情報処理装置100では、点検利用可能画像の評価処理が行われる。S506の処理の詳細については、図6、図7のフローチャートを用いて後述する。S506の後、情報処理装置100の処理はS507へ進む。
S507へおいて、情報処理装置100では、後処理として画像合成が行われる。S507の処理の詳細については、図8のフローチャートを用いて後述する。そして、このS507の処理後、情報処理装置100の処理は終了する。
図6は、図5のS506における点検利用可能画像評価処理の詳細なフローチャートである。
まず図6のS601において、画像評価部208は、画像入力部201から入力された全ての画像で評価が完了したか否かを判定する。画像評価部208は、入力された全ての画像で評価が完了したと判定した場合には点検利用可能画像評価処理を終了して、S507へ処理を進める。一方、画像評価部208において評価が完了していないと判定された場合、情報処理装置100の処理はS602へ進む。
S602において、特徴評価部205は、特徴抽出部202から特徴点の情報を取得して特徴点の評価値を算出する。特徴点の評価値の算出には、前述の式(1)に示した評価式が用いられる。S602の後、情報処理装置100の処理はS603へ進む。
S603において、画像評価部208は、特徴評価部205で算出した特徴点の評価値と閾値保持部207で保持している特徴点の評価値の閾値302とを比較し、特徴点の評価値が閾値以上であるか否か判定する。そして、画像評価部208で特徴点の評価値が閾値以上であると判定した場合、情報処理装置100の処理はS604へ進む。一方、画像評価部208で特徴点の評価値が閾値よりも小さい値であると判定した場合、情報処理装置100の処理はS601へ戻る。
S604に進むと、情報処理装置100では、画質評価処理が行われる。その後、情報処理装置100の処理はS601へ戻る。
図7は、図6のS604における画質評価処理の詳細なフローチャートである。
まずS701において、画質評価部206は、画像入力部201から入力された画像に対して対象物上の解像度分布を推定する。S701の後、情報処理装置100の処理はS702へ進む。
S702において、画像評価部208は、画質評価部206で付与された画像の画素毎の解像度と、閾値保持部207で保持している画質評価値の閾値303とを比較し、閾値以上の画素が存在するか否かを判定する。画像評価部208で閾値以上の画素が存在すると判定された場合、情報処理装置100の処理はS703へ進む。一方、閾値以上の画素が存在しないと判定された場合、情報処理装置100は画質評価処理を終了する。
S703に進むと、画像評価部208は、S702で閾値以上であると特定された画素の位置情報を、点検利用可能な領域の情報として、画像合成部209へ出力する。その後、情報処理装置100は画質評価処理を終了する。
図8は、図5のS507における後処理の詳細なフローチャートである。
S801において、画像合成部209は、形状推定部204から三次元形状を読み込み、その後、S802の処理へ進む。
S802において、画像合成部209は、位置姿勢推定部203で推定したカメラ位置姿勢を読み込み、その後、S803の処理へ進む。
S803において、画像合成部209は、画像入力部201から入力された画像を取得する。また、画像合成部209は、画像入力部201から入力された画像に対応する点検利用可能な領域の情報を、画像評価部208から取得し、その後、S804の処理へ進む。
S804において、画像合成部209は、形状推定部204から入力された三次元形状に対して、画像入力部201から入力された画像に対応する点検利用可能な領域の画像をカメラ位置姿勢に基づいて投影する。その後、画像合成部209は、S805の処理へ進む。
S805において、画像合成部209は、形状推定部204から入力した三次元形状に対して投影した画像の重複部分のブレンディング処理をする。その後、情報処理装置100の処理は終了する。
以上説明したように、第1の実施形態の情報処理装置100は、画像の特徴点の評価および画像の解像度の評価を行い、それらの評価結果が良い画像を三次元形状に投影する。すなわち本実施形態では、正確な位置合わせに利用できる特徴点を用いた合成処理により画像合成の失敗を低減できると共に、変状の点検に利用可能な解像度を有する画像の合成が可能となる。このように、本実施形態によれば、インフラ構造物のような対象物の変状評価に利用可能な画像を取得でき、したがって対象物の変状等を認識可能となる。
<第1の実施形態の変形例1>
第1の実施形態の変形例1として、画質評価部206が評価する画質の指標がデフォーカス量である例、すなわち画質評価部206が対象物上への合焦の程度を評価する例を説明する。ここでデフォーカス量とは、画像の画素の位置における対象物に対するピントの前後のズレ量を数値化したものである。これは、撮影を行う際に、像面位相差撮像センサーを用いる事で、画素の位置におけるデフォーカス量の情報として取得する事が可能である。なお、デフォーカス量情報の取得方法に関しては、公知の技術を利用可能である。例えば、像面位相差撮像センサーから検出したピントの前後のズレ量を用いたオートフォーカス技術が既に広く実用化されている。
図18は、画像入力部201から入力された画像について、デフォーカス量の情報を可視化したデフォーカスマップの一例である。変形例1においては、デフォーカス量の情報は撮像センサーの画素に結像する許容錯乱円の大きさを基に検出する。また、デフォーカス量の情報は、画像入力部201から入力された画像に付帯しているものとする。外枠1801は、入力画像の画像サイズ(画像境界)に対応する枠である。数値1802は、それぞれの領域におけるデフォーカス量の情報を示す。線1803は、デフォーカス量が異なる領域間の境界線を示す。
デフォーカスマップにおいて「0」が付けられた領域は、撮像装置の合焦単位において誤差の無い領域である。また、「-1」が付けられた領域は、撮像装置の合焦単位において1単位の前ピンの領域、同様に、「1」が付けられた領域は、同様に1単位の後ピンの領域を示す。ここで、合焦単位は、合焦の状態(程度)が判断できるようにレベル分けされたものであればよい。例えば、撮像センサーに結像する許容錯乱円の大きさが画素のサイズと同等以下の場合をデフォーカス量0とする。さらに、画素サイズに対する結像した許容錯乱円の大きさの倍率の値を基に、1を引いた値をデフォーカス量の値として定義する事ができる。
以下、第1の実施形態で既に説明した構成については同一の参照符号を付して詳細な説明は省略し、第1の実施形態との差異を中心に説明する。変形例に係る情報処理装置100の機能構成は、図2に示した第1の実施形態のものに準じる。ただし、画質評価部206の動作、及び閾値保持部207が保持する閾値の内容が異なる。変形例の画質評価部206では、画像入力部201にて取得された入力画像から、付帯しているデフォーカス量の情報を取得する。なお、変形例1においては、デフォーカス量の情報は画像に付帯する情報とするが、画像が像面位相差撮像センサーの情報を保持しているRAWデータ等である場合には、位相差情報からデフォーカス量の情報を算出する。
閾値保持部207は、テーブル形式で閾値を保持する。図19は、変形例1における閾値保持部207で保持するテーブル1901の一例を示した図である。テーブル1901は、特徴点の評価値の閾値1902及び、画質の評価値の閾値1903を保持する。ここで、テーブル1901における画質の評価値の閾値1903は画像に対応するデフォーカス量の絶対値の閾値であり、変形例1においては、絶対値が5以下の領域であれば、点検利用可能な領域となる。即ち、図18のデフォーカスマップを例にとれば、デフォーカス量の絶対値が6以上である右側の一部領域を除いた部分に対応する画像の領域が点検利用可能な領域となる。
図20は画像合成部209で行う画像合成処理を示した図であり、第1の実施形態における図4と対応する。三次元形状401は、形状推定部204で推定した三次元形状である。図中の位置403,407は、それぞれ異なる位置におけるカメラの主点の位置を示している。また撮像面2001,2002は、それら異なる位置のカメラの撮像面を表している。なお図20においても図4と同様、図の分かりやすさを考慮して撮像面を主点の前に配置している。また図20において、撮像面2001,2002には、それぞれの面上に結像された変状像としてひび割れ像2003,2004も表されており、それらひび割れ像2003,2004が撮像されて記録されていることを示している。
また、領域2005,2006は、画像評価部208から入力した二次元配列の内、点検利用可能な領域である。そして投影画像2007,2008は、三次元形状401に対して、撮像面2001、2002に示される画像の内、点検利用可能な領域2005、2006を投影した画像を表している。
画像合成部209は、三次元形状401に対して点検利用可能な領域が存在する全ての画像における投影画像2007、2008を作成して三次元形状401に投影する。また、画像合成部209は、領域412のような画像同士が重なり合う領域については第1の実施形態と同様にブレンディング処理を行う。変形例1においても、情報処理装置100における撮像面2001,2002の画像は、特徴評価部205により特徴点が評価されている。よって、画像の位置ズレの少ない投影画像2007,2008が得られる。また変形例1の情報処理装置100は、カメラの主点の位置403のように対象物を斜めから撮影した場合でも、点検利用可能な領域2005が存在するため、投影画像2007を得ることが可能である。
第1の実施形態の変形例の情報処理装置100における処理は、図5、図6、図21、図8のフローチャートに沿って実行される。このうち、図5、図8のフローチャートの説明については、第1の実施形態と同様である為に説明を省略する。図6の画質評価処理では、図7に代わって図21のフローチャートの処理が実行される。
図21のフローチャートを参照して、変形例で図6のS604において実行される画質評価処理の詳細を説明する。まずS2101において、画質評価部206は、画像入力部201から入力された画像に対するデフォーカス量の分布情報を取得する。S2102において、画像評価部208は、画質評価部206で付与された画像の画素毎のデフォーカス量の絶対値の情報と、閾値保持部207で保持している画質評価値の閾値1903とを比較し、デフォーカス量の絶対値が閾値以下の画素が存在するか否かを判定する。画像評価部208でデフォーカス量の絶対値が閾値以下の画素が存在すると判定された場合、情報処理装置100の処理はS2103へ進む。一方、デフォーカス量の絶対値が閾値以下の画素が存在しないと判定された場合、情報処理装置100は画質評価処理を終了する。
S2103において、画像評価部208は、S2102でデフォーカス量の絶対値が閾値以下であることが特定された画素の位置情報を、点検利用可能な領域の情報として、画像合成部209へ出力する。その後、情報処理装置100は画質評価処理を終了する。
以上説明したように、第1の実施形態の変形例における情報処理装置100は、画像の特徴点の評価および画像のデフォーカス量の評価を行い、それらの評価結果が良い画像を三次元形状に投影する。すなわち変形例1では、正確な位置合わせに利用できる特徴点を用いた合成処理により画像合成の失敗を低減できると共に、変状の点検に利用可能なデフォーカス量を有する画像の合成が可能となる。
また、画像の合成の際の評価にデフォーカス量を用いる事で、確実にピントが閾値以内にある領域のみを使用する事が可能となり、第1の実施形態による幾何学的な解像度の推定では避けられなかった物理的な誤差要因による不良画像を無くす事が可能となる。また、合成された画像において、合焦はしているものの不明瞭な画像となった場合においては、撮影時におけるブレ等の問題として、再撮影の際の申し送り事項とする事が可能となる。あるいは、前記の不明瞭な画像において、ブレ幅量などが確認できる場合には、再撮影を行う代わりに、ブレを予め考慮した変状の点検を行う事が可能となる。このように、変形例1によれば、インフラ構造物のような対象物の変状評価にデフォーカス量を基にした利用可能な画像を取得でき、したがって対象物の変状等を認識可能となる。
<第1の実施形態の変形例2>
上述した第1の実施形態および変形例1では、画像合成部209が、入力画像の特徴量から推定された三次元形状に対して、入力画像のうち画質が許容条件を満たす部分を投影した段階で、情報処理装置100の処理は終了となった。変形例2として、この後に、対象物の点検作業に利用される点検用画像を生成する処理が追加される場合を説明する。
対象物の点検とは、具体的には、構造物(インフラ構造物)を点検対象物として撮影した画像からひび割れ等の変状を特定して評価を行うことである。変状の特定作業は、人手により行う場合と、予め学習された学習済みモデル等によって画像中の変状を検出することにより行う場合がある。いずれの場合にも、構造物の点検対象の面に対して正対した視点から見た画像を利用することが好ましい。例えば変状がひび割れの場合には、構造物に正対した状態で見た場合と、あおり角が存在する状態で見た場合とで、ひび割れの幅の見え方等に変化が生じる。つまり、あおり撮影された画像では、同じ幅をもつひび割れであっても、画像中の手前側に存在する場合と、奥側に存在する場合とで異なる見え方をするため、異なる基準によって幅を判断する必要がある。大きな構造物の広い範囲において変状特定作業を行う際に、部分ごとにあおり角度を考慮して細やかに判断基準を変更するのは煩わしい。このように大きな構造物の全体に対して、できる限り統一された判断基準によって変状を特定するためには、構造物を部分ごとに正対した位置から撮影されたのと同等の点検用画像を用いることが好ましい。
第1の実施形態および変形例1では、画像合成部209が、入力画像の特徴量から推定された三次元形状に対して、入力画像のうち画質が許容条件を満たす部分を投影した三次元モデルを生成することができる。従って、CPU101の機能である生成部により、視点の位置を任意に設定し、構造物に正対した位置から見た部分画像を得て、さらに後段の処理に適したサイズにクロップすることで、構造物の点検用画像を生成することができる。情報処理装置100は、生成した点検用画像を表示装置107に表示する。人手により点検を行う場合には、点検者は、表示された点検用画像からひび割れ部分を特定し、入力装置110を用いてひび割れ情報を入力する。例えば、ポインティングデバイスによって点検用画像のひび割れをトレースする。
<第2の実施形態>
以下、第2の実施形態について説明する。
第2の実施形態においては第1の実施形態と異なり、画質評価部206は、対象物上の解像度に加えて、カメラに入射する光と対象物の面との角度も評価する。なお、第1の実施形態で既に説明した構成については同一の参照符号を付し、それらの説明は省略する。以下、第1の実施形態と異なる、画質評価部206について詳細に説明する。
画質評価部206では、まず、画像入力部201から入力された画像の画素毎に、形状推定部204で推定した三次元形状と位置姿勢推定部203で推定したカメラ位置姿勢とに基づいて、カメラに入射する光と対象物の面との角度を推定する。
カメラに入射する光と対象物の面との角度について図9を用いて説明する。
カメラに入射する光と対象物の面との角度とは、図9に示す角度904のことである。角度904は、撮像面406の画像中の位置905に対応する角度である。また、角度904は、線903と線908とがなす角度でもある。線903は、カメラの主点407から画像中の位置905を通る線である。また、線908は、交点907と交点902とを結ぶ線である。交点907は、線903と対象物の面の三次元形状401との交点である。また、交点902は線901と対象物の面の三次元形状401との交点であり、線901はカメラの主点407から画像中心を通る線である。
ここで、角度904で示された角度が小さくなると、撮像面406の画像中に写るひび割れが細く見えることになる。そのため、実際に情報処理装置100を用いて画像合成した画像を用いて点検する際に、ひび割れの幅を実際よりも細く見誤る可能性がある。
そこで、本実施形態では、カメラに入射する光と対象物の面との角度を所定の値以上にすることで、ひび割れの幅を実際よりも細く見誤る可能性を減少させるようにする。なお、本実施形態において、所定の値は例えば60度以上とする。
本実施形態の情報処理装置100は、カメラに入射する光と対象物の面との角度の閾値を、閾値保持部207においてテーブル形式で保持し、例えば図3に示した画質評価値の閾値303の下の行に追加する。
そして、画質評価部206は、まず、画像入力部201から入力された画像の各画素に対して、対象物上での解像度に加えて、カメラに入射する光の対象面に対する角度が閾値以上であるかも評価する。図9の例の場合、カメラに入射する光の対象面に対する角度が閾値以上の領域は、領域906の内側の領域である。
図10は、第2の実施形態に係る情報処理装置100の画質評価処理の流れを示したフローチャートである。なお、図10のフローチャートのS702、S703の処理は、図7のS702、S703の処理と同一であるためそれらの説明は省略する。また、第2の実施形態において、第1の実施形態のS604で説明した画質評価処理以外は第1の実施形態の処理の流れと同じである。
以下、図10のフローチャートを参照して、第2の実施形態のS604で行われる画質評価処理について説明する。
まずS1001において、画質評価部206は、画像入力部201から入力された画像に対して、画素毎にカメラに入射する光と対象物の面との角度を計算する。その後、画質評価部206の処理はS1002へ進む。
S1002において、画質評価部206は、閾値保持部207からカメラに入射する光と対象物の面との角度の閾値を読み込む。そして、画質評価部206は、カメラに入射する光と対象物の面との角度が閾値以上となる領域を特定する。さらに、画質評価部206は、カメラに入射する光と対象物の面との角度が閾値以上となる領域に属する画素に対して対象物上の解像度分布を推定する。その後、情報処理装置100の処理はS702へ進む。S702、S703の処理は、図7で説明した第1の実施形態の処理と同様であるため説明を省略する。
以上説明したように、第2の実施形態の情報処理装置100は、カメラに入射する光と対象物の面との角度を評価することにより、ひび割れの幅を実際よりも細く見誤る可能性を減少させることができる。
<第3の実施形態>
以下、第3の実施形態について説明する。なお、第1の実施形態で既に説明した構成については同一の参照符号を付し、それらの説明は省略する。
図11は、第3の実施形態に係る情報処理装置100の機能構成を示した機能ブロック図である。図11の構成は、図2に示した第1の実施形態の構成に表示部1101が追加された構成である。よってここでは、主に、表示部1101について説明する。
第3の実施形態の場合、情報処理装置100は例えばカメラに接続されており、画像入力部201はカメラによって対象物の撮影がなされている時の撮影画像を逐次取得する。そして、表示部1101は、画像合成部209で作成された合成画像を表示装置107に表示させる。つまり表示部1101は、画像合成部209で作成された合成画像を、表示装置107に表示させることにより、撮影対象物の撮影中のユーザーに対して提示する。なお第3の実施形態の情報処理装置100はカメラに内蔵されていてもよい。
図12は、第3の実施形態の表示部1101に表示する表示内容を表した図である。表示部1101は、表示装置107のディスプレイ画面1201上に、形状推定部204で推定された三次元形状401と、画像合成部209で生成された投影画像405,411とを表示させる。すなわち表示部1101は、画像入力部201に逐次入力される画像に対応して、表示を逐次更新しながら表示を続ける。
ここで、第3の実施形態の場合、画像評価部208は、画像入力部201で逐次新しく取得される画像を評価するが、評価済みの画像については再度の評価を行わない。よって、第3の実施形態の場合、画像評価部208は、第1の実施形態で説明した図6のS601の点検利用可能画像評価処理で未評価の画像が無ければ処理を終了する。一方、評価が完了していない画像が存在する場合、画像評価部208はS602へ処理を進める。
また、形状推定部204では、画像入力部201から最低2枚以上画像を取得しないと三次元形状を推定することができない。このため、表示部1101では、画像入力部201から所定枚数の画像が入力されて形状推定部204で形状推定が行われてから、その推定された三次元形状401の表示を開始する。本実施形態では、画像入力部201から10枚の画像が入力した後に表示部1101による表示が開始されるものとする。
第3の実施形態の情報処理装置100における処理の流れは、第1の実施形態のS507の後処理以外は第1の実施形態の処理の流れと同じである。よって、図13のフローチャートを用いて、本実施形態におけるS507の後処理について説明する。なお、図13中のS801、S802、S803、S804の処理は図8の同一の参照符号の処理と同様であるためそれらの説明は省略する。
図13において、S804の後、情報処理装置100の処理はS1301へ進む。
S1301に進むと、表示部1101は、ディスプレイ画面1201に三次元形状401と投影画像405、411とを表示し、その後、S507の後処理を終了する。
以上説明したように、第3の実施形態に係る情報処理装置100の表示部1101は、ディスプレイ画面1201に、三次元形状401と、逐次取得される入力画像に応じた投影画像405、411とを表示する。このようにすることで、ユーザーは、対象物の撮影中にディスプレイ画面1201上の表示を参照して、対象物の中で点検可能な画像が撮影できている部分と点検可能な画像が撮影できていない部分を認識することができるようになる。
<第4の実施形態>
以下、第4の実施形態について説明する。なお、第4の実施形態において、第1の実施形態で既に説明した構成については同一の参照符号を付し、それらの説明は省略する。
図14は、第4の実施形態の情報処理装置100の機能構成を示した機能ブロック図である。第4の実施形態の構成は、図2に示した第1の実施形態の機能構成に対し、画像合成部209の代わりに変状検知部1401、推定誤差保持部1402、表示部1403を追加した構成である。よってここでは、変状検知部1401、推定誤差保持部1402、表示部1403について説明する。
変状検知部1401は、画像入力部201から入力された画像に基づいて、変状の例であるひび割れを検知する。ひび割れの検知方法は、sobleフィルタによりエッジを抽出する方法を用いることができる。それに加え、変状検知部1401は、ノイズの除去処理と、ひび割れ検知結果に対するラベルづけとしてラベリング処理を行い面積の小さいラベルを除去する。さらに、変状検知部1401は、そのラベリングされたひび割れに対して、画質評価部206から入力された対象物上での解像度情報を参照する。そして、変状検知部1401は、ラベリングされたひび割れの位置に対応した対象物上での解像度情報を読み出し、ラベリングされたひび割れと対応付けて、表示部1403へ出力する。
また変状検知部1401は、ラベリングされたひび割れに対する対象物上での解像度情報が複数存在する場合には、最も解像度が粗い情報を付与する。例えば解像度が「1mmあたり1pixel」と「1mmあたり0.5pixel」とであれば、変状検知部1401は、「1mmあたり0.5pixel」の方を付与する。
推定誤差保持部1402は、対象物上での解像度に対応するひび割れ幅の推定精度のテーブルを保持する。図15は、推定誤差保持部1402が保持するテーブル1501の例を示した図である。テーブル1501において精度1502,1503,1504はそれぞれ、対象物上での解像度に対応するひび割れ幅の推定精度を表している。例えば、精度1502は、対象物上で1mmあたり0.5pixelの解像度で撮影した場合、ひび割れ幅の推定精度は±0.2mmになるという意味である。
表示部1403は、対象物を撮影中のユーザーに対してディスプレイ画面上に情報を表示する。第4の実施形態の場合の表示部1403は、画像入力部201に逐次入力される画像に対して、表示を更新しながら表示を続ける。第4の実施形態でも第3の実施形態と同様に、画像入力部から10枚入力された後に表示部1101で表示を開始するものとする。
図16は、表示部1403によって例えばカメラ1601のディスプレイ画面1602に表示される内容の詳細を示した図である。すなわち図16の場合、本実施形態の情報処理装置100はカメラ1601に内蔵されており、表示部1403はカメラ1601のディスプレイ画面1602に対し、画像入力部201から入力された画像を表示する。図16の例の場合、ディスプレイ画面1602には、画像入力部201から入力された画像上に撮影対象物1603が表示されている状態を表している。またこの例の場合、カメラ1601は、撮影対象物1603の面に対して斜めの方向から撮影している。
表示部1403は、画像入力部201から入力された画像に、画像評価部208から出力された点検利用可能な領域の情報1609を重畳表示する。このように表示することにより、ユーザーは撮影対象物のどの範囲が点検利用可能な領域として撮影可能か把握できることになる。
加えて、表示部1403は、画像評価部208から特徴点の評価情報を読み込み、ディスプレイ画面1602上に特徴点の評価情報1608を表示する。特徴点の評価情報1608は、閾値保持部207の特徴点評価の閾値302に基づいた例えば「○」、「×」を表示する。なお、「○」は特徴点の評価情報が閾値以上であることを表し、「×」は閾値未満であることを表しているとする。
さらに加えて、表示部1403は、変状検知部1401から入力された、ラベリングされたひび割れの情報とラベルと対応付けられた対象物上での解像度情報とを取得する。そして、表示部1403は、推定誤差保持部1402のテーブルを参照し、対象物上での解像度情報からひび割れ幅の推定誤差の情報を得る。
次に表示部1403は、ディスプレイ画面1602上に変状検知部1401から入力された、ひび割れの情報に基づくひび割れ部分を、ひび割れの情報1604,1605のように表示する。
最後に表示部1403は、ディスプレイ画面1602上に、ひび割れの情報1604,1605に対応するひび割れ幅の推定誤差の情報1606,1607をそれぞれ重畳して表示する。
図17は、第4の実施形態に係る情報処理装置100における後処理の流れを示したフローチャートである。第4の実施形態における情報処理装置100の処理の流れは、第1の実施形態のS507の後処理以外は第1の実施形態の処理の流れと同じである。よって、以下の説明では、第4の実施形態におけるS507の後処理について説明する。
まずS1701において、表示部1403は、ディスプレイ画面1602に対し、画像入力部201から入力された画像を表示する。その後、表示部1403の処理はS1702へ進む。
S1702に進むと、表示部1403は、画像入力部201から入力された画像に、画像評価部208から出力された点検利用可能な部分の情報1609を重畳表示する。その後、表示部1403の処理はS1703へ進む。
S1703において、表示部1403は、画像評価部208から特徴点の評価情報を読み込み、ディスプレイ画面1602上に特徴点の評価情報1608を表示する。S1703の後、情報処理装置100の処理はS1704へ進む。
S1704において、変状検知部1401は、画像入力部201から入力された画像に基づいてひび割れを検知する。その後、変状検知部1401の処理はS1705へ進む。
S1705において、変状検知部1401は、画質評価部206から入力された対象物上での解像度情報を参照する。そして、変状検知部1401は、ラベリングされたひび割れの位置に対応した対象物上での解像度情報を読み出し、ラベリングされたひび割れと対応付けて、表示部1403へ出力する。S1705の後、情報処理装置100の処理はS1706へ進む。
S1706に進むと、表示部1403は、ディスプレイ画面1602上に、変状検知部1401から入力されたひび割れの情報を基に、ひび割れ部分を表示する。その後、表示部1403の処理はS1707へ進む。
S1707に進むと、表示部1403は、ディスプレイ画面1602上に、ひび割れ幅の推定誤差の情報を重畳して表示する。その後、情報処理装置100は、S507の後処理を終了する。
以上説明したように、第4の実施形態に係る情報処理装置100は、表示部1403のディスプレイ画面1602に点検利用可能な領域の情報、特徴点の評価情報、ひび割れの情報、ひび割れ幅の推定誤差の情報を表示する。このようにすることで、ユーザーは、対象物を撮影している時にディスプレイ画面1602を参照し、現在の撮影アングルにおいて、対象物のどの部分が点検利用可能な画質で撮影可能か認識することができるようになる。また、ユーザーは、特徴点の評価情報を参照することで、撮影した画像を投影する時に精度よく画像を投影できるかどうか認識できるようになる。加えて、ユーザーは、ひび割れの情報、ひび割れ幅の推定誤差の情報を参照することで、ひび割れが検知可能かどうか確認すると同時にひび割れ幅の推定精度の目安を確認することができるようになる。
なお、第4の実施形態では、上述してきた第1~第3の実施形態の画像合成処理に替えて変状検知処理を行う例を説明したが、これに限らない。ここで説明した変状検知部1401は、合成画像に対する変状検知処理、あるいは第1の実施形態の変形例2で説明した点検用画像に対する変状検知処理に利用してもよい。
<その他の実施形態>
本発明は、前述の各実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:情報処理装置、201:画像入力部、202:特徴抽出部、203:位置姿勢推定部、204:形状推定部、205:特徴評価部、206:画質評価部、207:閾値保持部、208:画像評価部、209:画像合成部

Claims (18)

  1. 構造物を複数の視点から撮影した複数の画像のそれぞれから特徴点を抽出する抽出手段と、
    前記複数の画像のそれぞれから抽出された前記特徴点の位置の分布の尖度と前記特徴点の数とを評価する特徴評価手段と、
    前記複数の画像に含まれる画像について、所定の指標に基づく画質が、前記構造物の点検作業のための許容条件を満たすかを評価する画質評価手段と、
    前記画質評価手段により前記許容条件を満たすと評価された画質の画像の少なくとも一部を、前記抽出手段により抽出された前記特徴点に基づく位置関係で合成する画像合成手段と、
    を有し、
    前記画質評価手段は、前記複数の画像のうち、前記特徴評価手段による前記特徴点の評価結果を示す値が所定の閾値以上であった画像に対して、前記所定の指標に基づく画質が、前記構造物の点検作業のための許容条件を満たすかを評価することを特徴とする情報処理装置。
  2. 前記画質評価手段は、前記複数の画像のそれぞれに対して領域毎に、所定の指標に基づく画質が、前記構造物の点検作業のための許容条件を満たすかを評価するものであって、
    前記画像合成手段は、前記許容条件を満たすと評価された画質の画像の部分領域を、抽出された前記特徴点に基づく位置関係で合成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記画質評価手段は、前記構造物の点検対象の面上での解像度を領域毎に評価することを特徴とする請求項2に記載の情報処理装置。
  4. 前記画質評価手段は、前記構造物の点検対象の面上での解像度を画素毎に評価することを特徴とする請求項2または3に記載の情報処理装置。
  5. 前記画質評価手段は、前記画像の領域毎のデフォーカス量を評価することを特徴とする請求項2に記載の情報処理装置。
  6. 前記画質評価手段は、前記画像の画素毎のデフォーカス量を評価することを特徴とする請求項2または5に記載の情報処理装置。
  7. 前記画質評価手段は、前記画像を撮像するカメラに入射する光と対象物の面との角度を評価することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
  8. 前記画質評価手段は、前記角度が所定の閾値以上となる領域で、かつ前記画質の評価が所定の閾値以上である画素からなる領域を、前記対象物の点検に利用可能な領域と評価することを特徴とする請求項7に記載の情報処理装置。
  9. 前記複数の画像を撮像するカメラの位置と姿勢を推定する位置姿勢推定手段と、
    前記構造物の三次元形状を推定する形状推定手段と、
    をさらに有し、
    前記位置姿勢推定手段は、前記抽出手段で抽出された特徴点に基づいて、前記カメラの位置と姿勢を推定し、
    前記形状推定手段は、前記位置姿勢推定手段で推定されたカメラの位置と姿勢と、前記複数の画像とに基づいて、前記三次元形状を推定することを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
  10. 前記画像合成手段は、前記形状推定手段で推定された三次元形状に対し、前記位置姿勢推定手段で推定されたカメラの位置と姿勢に基づいて、前記複数の画像を前記画質評価手段での評価に基づいて投影し、前記投影した画像を合成することを特徴とする請求項9に記載の情報処理装置。
  11. 表示手段をさらに有し、
    前記表示手段は、前記画像合成手段で合成された画像を表示することを特徴とする請求項10に記載の情報処理装置。
  12. 前記画像に写った対象物の変状を検知する検知手段と、
    表示手段と、
    をさらに有し、
    前記検知手段は、前記複数の画像から前記対象物の変状を検知し、
    前記表示手段は、前記検知された変状の情報を表示することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
  13. 前記表示手段は、前記検知手段により前記変状としてひび割れを検知した検知結果と前記画質評価手段での評価で算出された対象物上での解像度とに基づいて、前記ひび割れの幅の推定誤差を推定して表示することを特徴とする請求項12に記載の情報処理装置。
  14. 前記画像合成手段によって合成された画像に基づいて、前記構造物を正面から見た点検用画像を生成する生成手段を更に備えることを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。
  15. 前記点検用画像に写った対象物の変状を検知する検知手段をさらに有し、
    前記検知手段は、前記点検用画像から前記対象物の変状を検知することを特徴とする請求項14に記載の情報処理装置。
  16. 前記構造物とは、コンクリート壁面を持つインフラ構造物であり、前記点検作業とは、前記コンクリート壁面に生じている変状を特定する作業であることを特徴とする請求項1から15のいずれか1項に記載の情報処理装置。
  17. 情報処理装置が実行する情報処理方法であって、
    抽出手段により、構造物を複数の視点から撮影した複数の画像のそれぞれから特徴点を抽出する抽出工程と、
    前記複数の画像のそれぞれから抽出された前記特徴点の位置の分布の尖度と前記特徴点の数とを評価する特徴評価工程と、
    画質評価手段により、前記複数の画像に含まれる画像について、所定の指標に基づく画質が、前記構造物の点検作業のための許容条件を満たすかを評価する画質評価工程と、
    画像合成手段により、前記画質評価工程で前記許容条件を満たすと評価された画質の画像の少なくとも一部を、前記抽出工程で抽出された前記特徴点に基づく位置関係で合成する画像合成工程と、
    を有し、
    前記画質評価工程では、前記複数の画像のうち、前記特徴評価工程による前記特徴点の評価結果を示す値が所定の閾値以上であった画像に対して、前記所定の指標に基づく画質が、前記構造物の点検作業のための許容条件を満たすかを評価することを特徴とする情報処理方法。
  18. コンピュータを、請求項1から16のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2019215556A 2019-02-04 2019-11-28 情報処理装置、情報処理方法、及びプログラム Active JP7412983B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019017910 2019-02-04
JP2019017910 2019-02-04

Publications (3)

Publication Number Publication Date
JP2020126590A JP2020126590A (ja) 2020-08-20
JP2020126590A5 JP2020126590A5 (ja) 2022-12-01
JP7412983B2 true JP7412983B2 (ja) 2024-01-15

Family

ID=69400483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215556A Active JP7412983B2 (ja) 2019-02-04 2019-11-28 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (2) US11210773B2 (ja)
EP (1) EP3690800A3 (ja)
JP (1) JP7412983B2 (ja)
CN (1) CN111524091B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017212339A1 (de) * 2017-07-19 2019-01-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bewertung von Bildausschnitten für eine Korrespondenzbildung
US10996177B2 (en) * 2019-07-03 2021-05-04 The Boeing Company Automated inspection system for composite structures
JP7434032B2 (ja) * 2020-03-31 2024-02-20 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
CN111578837B (zh) * 2020-04-30 2022-03-01 北京农业智能装备技术研究中心 面向农业机器人作业的植物形态视觉跟踪测量方法
US20230350434A1 (en) * 2022-04-27 2023-11-02 Snap Inc. Autonomous drone navigation based on vision
US20240221138A1 (en) * 2022-12-28 2024-07-04 Schlumberger Technology Corporation Systems and methods for generating three-dimensional models using captured video

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013890A (ja) 2009-07-01 2011-01-20 Fujifilm Corp 画像合成装置及び方法
JP2016061654A (ja) 2014-09-17 2016-04-25 株式会社東芝 移動支援装置、方法及びプログラム
JP2016082441A (ja) 2014-10-17 2016-05-16 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
JP2017203701A (ja) 2016-05-12 2017-11-16 キヤノン株式会社 情報処理装置、計測システム、情報処理方法およびプログラム
JP2018090982A (ja) 2016-11-30 2018-06-14 国際航業株式会社 点検装置、及び点検方法
WO2018168406A1 (ja) 2017-03-16 2018-09-20 富士フイルム株式会社 撮影制御装置、撮影システム、および撮影制御方法
JP2018198053A (ja) 2017-05-22 2018-12-13 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9036861B2 (en) * 2010-04-22 2015-05-19 The University Of North Carolina At Charlotte Method and system for remotely inspecting bridges and other structures
GB2502591B (en) * 2012-05-31 2014-04-30 Sony Comp Entertainment Europe Apparatus and method for augmenting a video image
US20140336928A1 (en) * 2013-05-10 2014-11-13 Michael L. Scott System and Method of Automated Civil Infrastructure Metrology for Inspection, Analysis, and Information Modeling
MA40262A (fr) 2014-07-02 2017-05-10 Si14 S P A Procédé pour acquérir et traiter des images d'un fond d'œil au moyen d'un dispositif électronique portable
CN105222724B (zh) * 2015-09-10 2018-09-18 北京天远三维科技股份有限公司 多线阵列激光三维扫描系统及多线阵列激光三维扫描方法
US9721371B2 (en) 2015-12-02 2017-08-01 Caterpillar Inc. Systems and methods for stitching metallographic and stereoscopic images
WO2017103982A1 (ja) * 2015-12-14 2017-06-22 株式会社 ニコン・トリンブル 欠陥検出装置及びプログラム
JP6744747B2 (ja) * 2016-04-01 2020-08-19 キヤノン株式会社 情報処理装置およびその制御方法
JP6213754B1 (ja) 2016-11-30 2017-10-18 国際航業株式会社 点検装置、及び点検方法
CN109300126B (zh) * 2018-09-21 2022-01-07 重庆建工集团股份有限公司 一种基于空间位置的桥梁病害高精度智能检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013890A (ja) 2009-07-01 2011-01-20 Fujifilm Corp 画像合成装置及び方法
JP2016061654A (ja) 2014-09-17 2016-04-25 株式会社東芝 移動支援装置、方法及びプログラム
JP2016082441A (ja) 2014-10-17 2016-05-16 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
JP2017203701A (ja) 2016-05-12 2017-11-16 キヤノン株式会社 情報処理装置、計測システム、情報処理方法およびプログラム
JP2018090982A (ja) 2016-11-30 2018-06-14 国際航業株式会社 点検装置、及び点検方法
WO2018168406A1 (ja) 2017-03-16 2018-09-20 富士フイルム株式会社 撮影制御装置、撮影システム、および撮影制御方法
JP2018198053A (ja) 2017-05-22 2018-12-13 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Matteo Dellepiane et al., "Assisted multi-view stereo reconstruction",2013 International Conference on 3D Vision - 3DV 2013,米国,IEEE,2013年06月29日,pp.318-325
北村 一博、外5名,"ランドマークDBを利用するビジョンベースMRトラッキング法の性能向上に向けての諸方策",情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM),日本,一般社団法人情報処理学会,2011年02月15日,No.175,pp.1-6

Also Published As

Publication number Publication date
CN111524091B (zh) 2024-07-09
US20220084189A1 (en) 2022-03-17
EP3690800A3 (en) 2020-09-16
CN111524091A (zh) 2020-08-11
US11210773B2 (en) 2021-12-28
US11928805B2 (en) 2024-03-12
EP3690800A2 (en) 2020-08-05
US20200250806A1 (en) 2020-08-06
JP2020126590A (ja) 2020-08-20

Similar Documents

Publication Publication Date Title
JP7412983B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Koch et al. Evaluation of cnn-based single-image depth estimation methods
Bang et al. UAV-based automatic generation of high-resolution panorama at a construction site with a focus on preprocessing for image stitching
Shortis et al. Design and calibration of an underwater stereo-video system for the monitoring of marine fauna populations
JP6363863B2 (ja) 情報処理装置および情報処理方法
CN105374019A (zh) 一种多深度图融合方法及装置
CN111879235A (zh) 弯管的三维扫描检测方法、三维扫描系统和计算机设备
KR102256583B1 (ko) 3d 포인트 클라우드를 이용한 2d 영상에서의 피사체 위치 계측 시스템
JP2011182397A (ja) ずれ量算出方法およびずれ量算出装置
JP2008117305A (ja) 画像処理装置
JP2005016995A (ja) 赤外線構造物診断方法
CN111527517B (zh) 图像处理装置及其控制方法
WO2021230157A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
WO2020158726A1 (ja) 画像処理装置、画像処理方法、及びプログラム
CN111583388A (zh) 一种三维扫描系统的扫描方法及设备
EP2106128B1 (en) Compound eye photographing apparatus, control method therefor, and program
JP3924576B2 (ja) 写真測量による3次元計測方法及び装置
CN110363806A (zh) 一种利用不可见光投射特征进行三维空间建模的方法
JP2961140B2 (ja) 画像処理方法
JP4274038B2 (ja) 画像処理装置および画像処理方法
JP2013190938A (ja) ステレオ画像処理装置
JP3870255B2 (ja) 3次元復元方法及び装置
CN112014393B (zh) 一种基于目标视觉效果的介质能见度识别方法
JP7433623B2 (ja) 構造物画像管理システム
KR20180081376A (ko) 합성영상의 품질 평가 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R151 Written notification of patent or utility model registration

Ref document number: 7412983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151