JP7292979B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP7292979B2
JP7292979B2 JP2019102264A JP2019102264A JP7292979B2 JP 7292979 B2 JP7292979 B2 JP 7292979B2 JP 2019102264 A JP2019102264 A JP 2019102264A JP 2019102264 A JP2019102264 A JP 2019102264A JP 7292979 B2 JP7292979 B2 JP 7292979B2
Authority
JP
Japan
Prior art keywords
image
deterioration
area
deteriorated
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019102264A
Other languages
English (en)
Other versions
JP2020197797A (ja
Inventor
昭行 谷沢
沙織 浅香
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2019102264A priority Critical patent/JP7292979B2/ja
Priority to US16/810,063 priority patent/US20200380653A1/en
Publication of JP2020197797A publication Critical patent/JP2020197797A/ja
Application granted granted Critical
Publication of JP7292979B2 publication Critical patent/JP7292979B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明の実施形態は画像処理装置及び画像処理方法に関する。
実物の状態を判断する際に、実物の代わりに画像に基づいて判断することがある。この一例として、インフラストラクチャ設備の保守のための点検がある。例えば、送電設備における鋼材の経年変化等を点検するための劣化診断装置がある。この装置は、鉄塔の鋼材を含むカラー画像から鋼材の劣化レベルを評価し、劣化レベルの評価時点及び劣化レベルの評価値に基づいて鋼材の劣化特性を導出し、劣化特性に基づいて鋼材の整備スケジュールを生成する画像処理装置である。
特開2016-223815号公報 特開2017-40642号公報
電力中央研究所報告「塗装すべき経年鉄塔の選定に役立つ画像処理技術の開発 -空撮画像を使った簡易劣化判定のための支援ツールのプロトタイプの開発-」、電力中央研究所、研究報告:C17013、2018年6月
画像における鋼材の大きさは、撮影距離やセンササイズ等のカメラの光学的なパラメータによって変化する。そのため、従来の劣化診断のための画像処理装置は、画像に写っている被写体の面積を算出できなかった。
本発明の目的は、画像に写っている被写体の面積を求めることができる画像処理装置及び画像処理方法を提供することである。
実施形態に係る画像処理装置は、取得手段と、奥行情報算出手段と、抽出手段と、劣化検出手段と、計算手段とを具備する。前記取得手段は、対象物と背景を含む第1画像と前記第1画像を撮影したカメラの光学的なパラメータを取得する。前記奥行情報算出手段は、前記第1画像から撮影画像及び前記第1画像の各画素の奥行情報を表す奥行画像を生成する。前記抽出手段は、前記奥行画像に基づいて前記撮影画像から前記対象物が写っている領域を抽出し、抽出した領域の画像である抽出画像を生成する。前記劣化検出手段は、前記抽出画像から前記抽出画像の各画素の劣化レベルを示す劣化画像を生成する。前記計算手段は、前記劣化レベルが第1レベルである領域の面積を前記奥行画像と前記劣化画像と前記光学的なパラメータとを用いて計算する。
第1実施形態に係る画像処理装置を含むシステム全体の構成の一例を示すブロック図である。 第1実施形態に係るシステムに含まれる撮影装置の撮像原理を示す図である。 第1実施形態に係る画像処理装置に含まれる劣化面積計算プログラムのモジュール構成の一例を示す図である。 撮影画像、奥行画像、抽出画像及び劣化画像の一例を示す図である。 劣化面積データの一例を示す図である。 カメラからの距離が異なる2つの点検対象を撮影した撮影画像の一例を示す図である。 図6の撮影画像に含まれる2つの点検対象毎の劣化面積データの一例を示す図である。 劣化面積計算プログラムの処理の流れの一例を示すフローチャートである。 領域抽出モジュールの構成の一例を示す図である。 領域抽出モジュールの処理の流れの一例を示すフローチャートである。 劣化検出モジュールの構成の一例を示す図である。 劣化検出モジュールの処理の流れの一例を示すフローチャートである。 劣化面積計算モジュールの構成の一例を示す図である。 画素サイズ計算の原理を説明する図である。 画素サイズ計算モジュールの処理の一例を示す図である。 画素面積計算モジュールの処理の一例を示す図である。 劣化面積計算モジュールの処理の流れの一例を示すフローチャートである。 第2実施形態に係る画像処理装置に含まれる劣化面積計算プログラムのモジュール構成の一例を示す図である。 第3実施形態に係る画像処理装置に含まれる劣化面積計算プログラムのモジュール構成の一例を示す図である。 第3実施形態に係る画像処理装置に入力される補修データの一例を示す図である。 第3実施形態に係る画像処理装置から出力される補修優先度データの一例を示す図である。 第3実施形態に係る劣化面積計算プログラムのモジュール構成の処理の流れの一例を示すフローチャートである。
以下、図面を参照して、実施形態を説明する。以下の説明は、実施形態の技術的思想を具体化するための装置や方法を例示するものであって、実施形態の技術的思想は、以下に説明する構成要素の構造、形状、配置、材質等に限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各要素のサイズ、厚み、平面寸法又は形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、互いの寸法の関係や比率が異なる要素が含まれることもある。複数の図面において、対応する要素には同じ参照数字を付して重複する説明を省略する場合もある。いくつかの要素に複数の呼称を付す場合があるが、これら呼称の例はあくまで例示であり、これらの要素に他の呼称を付すことを否定するものではない。また、複数の呼称が付されていない要素についても、他の呼称を付すことを否定するものではない。なお、以下の説明において、「接続」は直接接続のみならず、他の要素を介して接続されることも意味する。
[第1実施形態]
[システム構成]
実施形態は種々の対象物の面積を求める画像処理装置に適用されるが、第1実施形態としてインフラストラクチャ設備の点検のための画像処理装置を説明する。インフラストラクチャ設備の例は、建物、鉄塔、風車、橋梁、化学プラント、発電施設等を含む。実施形態は鉄塔を点検するための画像処理を説明する。
図1は第1実施形態の画像処理装置を含むシステム全体の構成の一例を示すブロック図である。システムは、インターネット等のネットワーク10に接続される撮影装置12、画像処理装置14、ユーザ端末16を備える。
撮影装置12は、点検対象を撮影し、点検対象を含むカラー画像を出力する。実施形態では、点検対象の劣化部分の面積(物理的な実際の面積)を求めるために、画像情報に加えて点検対象までの奥行情報を必要とする。
撮影装置12としてRGBカラー画像と画素毎の奥行を示す奥行情報を同時に取得することができるステレオカメラを用いても良い。ステレオカメラでは、撮影されたステレオ画像に対して位置合わせ処理を行えば、予め定められたステレオカメラ間の距離から奥行を算出することができる。
また、撮影装置12としてRGBカラー画像を取得する単眼カメラを用い、奥行情報は他の装置により求めても良い。この一例として、カメラの近傍位置からレーザを点検対象に照射して奥行情報を求めることがある。この場合、カメラとレーザによる撮影位置が一致していないので、カメラにより得られたカラー画像とレーザにより得られた点検対象の点群データのいずれかをキャリブレーションによって補正する必要がある。キャリブレーションは、撮影座標のマッチング(撮影位置のずれ量を計算して、そのずれ量をカラー画像側、もしくは点群データ側に補正)により画像データと点群データの補正をすること、又はカラー画像と点群データとをマッチング(画像と点群そのものを位置合わせ)させて補正することを含む。また、他の例では、TOF(Time Of Flight)測距方式のセンサを用いて奥行情報を求めても良い。
さらに、別の例では、撮影装置12として、特許文献2に記載のカラー開口撮像技術を利用するカメラを用いても良い。第1実施形態として、このようなカメラを用いる例を説明する。図2はカラー開口撮像技術を用いる撮影装置12の撮像原理を示す。図2(a)は被写体が合焦位置より遠い(被写体までの距離d>合焦点までの距離d)場合、図2(b)は被写体が合焦位置にある(d=d)場合、図2(c)は被写体が合焦位置より近い(d<d)場合の光路を示す。
撮影装置12は単眼レンズのカメラからなり、異なる波長域の透過特性を持つフィルタ40がレンズ42の開口に配置されている。pはレンズ42からイメージセンサ44の撮像面までの距離である。フィルタ40は、円形であり、円の中心を通る直線で全体を分割する第1フィルタ領域40aおよび第2フィルタ領域40bを含む。図2の例では、円形のフィルタ40は水平線で上下に二分割される。第1フィルタ領域40aは、例えば赤と緑の光の波長域を透過するイエローフィルタからなり、第2フィルタ領域40bは、例えば緑と青の光の波長域を透過するシアンフィルタからなる。
被写体が合焦位置にある場合、図2(b)に示すように、フィルタ40の中心を通過する光線と、フィルタ40の縁を通過する光はイメージセンサ44の撮像面で一点に集まる(b=0)。被写体が合焦位置ではない場合、第1フィルタ領域40aを通過した光はイエローのぼけとなり、第2フィルタ領域40bを通過した光はシアンのぼけとなる。図2(a)、(c)に示すように、イエローのぼけとシアンのぼけが現れる方向は被写体が合焦位置より遠い場合と近い場合で逆になる(b>0又はb<0)。イエローのぼけとシアンのぼけの大きさは、レンズ42と被写体との距離dに応じている。このため、イメージセンサ44から出力される画像データ中のイエローのぼけとシアンのぼけに基づいて、図2(a)と図2(c)の状態の識別が可能であり、ぼけの形状から被写体までの距離dに応じた奥行情報を求めることができる。
なお、フィルタ40をレンズ開口に配置する代わりに、イメージセンサ44に入射する光の光路上において、フィルタ40とイメージセンサ44との間にレンズ42を配置しても良いし、レンズ42とイメージセンサ44との間にフィルタ40を配置しても良い。さらに、レンズ42が複数のレンズからなる場合には、フィルタ40はいずれか2枚のレンズ42の間に配置しても良い。また、イエローフィルタ又はシアンフィルタの代わりに赤と青の光の波長域を透過するマゼンタフィルタを用いても良い。また、フィルタ40の領域分割数は2に限らず、3以上でも良い。分割領域の形状は円の中心を通る直線で全体を分割する構成に限らず、モザイク状に複数の領域が配置される構成でも良い。
図1の説明に戻り、撮影装置12から出力された画像データはネットワーク10を介して画像処理装置14に入力される。画像処理装置14は、一般的なパーソナルコンピュータと同様に、プロセッサ22、主記憶装置24、補助記憶装置26、表示装置28、入力装置30、通信装置32を備える。プロセッサ22、主記憶装置24、補助記憶装置26、表示装置28、入力装置30、通信装置32はバスライン34に接続される。
プロセッサ22は、例えばCPU(Central Processing Unit)からなり、画像処理装置14の動作を制御する。補助記憶装置26は、HDD(Hard Disk Drive)、SSD(Solid State Drive)及びメモリカード等の不揮発性の記憶装置からなり、プロセッサ22が実行するプログラムを格納する。主記憶装置24は、ROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリからなる。RAMは、一般的には揮発性のDRAM等で実現され、補助記憶装置26から読み出されたプログラムを格納する。プロセッサ22は、補助記憶装置26から主記憶装置24に読み出されたプログラムを実行する。
プログラムは、オペレーティングシステム(OS)24a、劣化面積計算プログラム24b等を含む。プログラムは、CD-ROM、メモリカード、CD-R及びDVD(Digital Versatile Disc)等のコンピュータ読み取り可能な記憶媒体に記録されたインストール可能な形式又は実行可能な形式のファイルとして、画像処理装置14に提供しても良い。あるいは、プログラムを画像処理装置14に予め組み込んだ形で提供しても良い。なお、プログラムを補助記憶装置26に格納せずに、ネットワーク10に接続されたコンピュータ、サーバ等にプログラムを格納し、ネットワーク10経由でプログラムをダウンロードすることによりプログラムを画像処理装置14に提供するように構成しても良い。さらに、ネットワーク10に接続されたコンピュータ、サーバ等にプログラムを格納し、プログラムをダウンロードすることなくプログラムを実行するように構成しても良い。
表示装置28は、例えばGPU(Graphic Processing Unit)等からなり、画像や面積等の表示データを生成し、液晶表示装置等の表示部に表示データを送信する。表示部は画像処理装置14の外部に設けられても良いし、画像処理装置14内に設けられても良い。画像処理装置14の外部に設けられる表示部はユーザ端末16の表示部であっても良い。入力装置30は、例えばキーボードやマウス等からなり、画像処理装置14を操作するための入力インタフェースである。画像処理装置14がスマートフォン及びタブレット型端末等のデバイスの場合、表示装置28及び入力装置30は、例えばタッチパネルからなる。通信装置32は、他の装置と通信するためのインタフェースであり、ネットワーク10に接続される。
ユーザ端末16は、一般的なパーソナルコンピュータ、スマートフォン及びタブレット型端末等からなり、CPUがプログラムを実行することにより画像処理装置14に対してデータの送信を要求し、送信されたデータをユーザに提示する。ユーザ端末16は、画像処理装置14に対してデータを要求するための入力部又は操作部と、画像処理装置14から送信されたデータをユーザに提示する表示部を備える。
図1では、撮影装置12とユーザ端末16はそれぞれ1台のみ示されているが、多数の撮影装置12とユーザ端末16がネットワーク10を介して画像処理装置14に接続されても良い。あるいは、ネットワーク10、撮影装置12、ユーザ端末16を設けることなく、画像処理装置14が撮影装置12を含み、画像処理装置14がユーザにデータを提示する表示部を含み、画像処理装置14単体で実施形態の機能を実現するように構成しても良い。
[劣化面積計算プログラム24bの構成]
図3は第1実施形態のプロセッサ22が実行する劣化面積計算プログラム24bの構成の一例を示す。劣化面積計算プログラム24bは、画像取得モジュール52、奥行情報算出モジュール54、領域抽出モジュール56、劣化検出モジュール58、劣化面積計算モジュール60を含む。
撮影装置12から送信された画像データであって点検対象の画像を含む画像データ66が画像取得モジュール52により劣化面積計算プログラム24bに取り込まれる。画像データ66のデータ形式は任意で良い。画像データ66のデータフォーマットも任意で良い。画像データ66のデータフォーマットは、BMP、PNG、JPG等の一般的なデータフォーマットであっても良いし、カメラベンダが策定している独自フォーマットでも良い。画像データ66はカラー画像に加えてカメラの光学的なパラメータ(焦点距離、カメラのセンササイズ、画像のサイズなど)も含む。いずれにしても、画像データ66には、画像圧縮などによる圧縮歪みが無いことが望ましい。
奥行情報算出モジュール54は、画像取得モジュール52で取り込んだ画像データ66からカラー画像(以下、撮影画像と称する)68と奥行画像70を求める。撮影装置12はカラー開口撮像技術を用いているので、奥行情報算出モジュール54は、図2に示すように、画像データ66のぼけの形状に基づいて奥行を算出することができる。奥行画像70は撮影画像68の各画素の奥行情報から生成される。奥行情報算出モジュール54は、撮影画像68や奥行画像70に対して、前処理を行う機能を有していても良い。
前処理は、幾何学的な変換や、撮影条件に依存する画像データの変動を補償する処理を含む。幾何学的な変換は、画像サイズの変更、トリミング、回転や平行移動等を含む。撮影条件に依存する画像データの変動を補償する処理は、明るさやコントラスト補正、ダイナミックレンジ変換、色相補正等を含む。なお、前処理は奥行情報算出モジュール54に付随した機能として説明したが、画像取得モジュール52や領域抽出モジュール56等の他のモジュールでも同様の前処理を行っても良い。これらの前処理により、サイズや明るさ等画像データのバラツキを正規化し、入力データを標準化することができる。正規化処理を前処理段階で行わず、後段の処理で行う場合、正規化済みか否かに応じて後段の処理が変わるので、後段の処理部を正規化済みの場合と正規化が未実施の場合について二通り設ける必要がある。しかし、前処理段階で正規化処理を行うことにより、後段の処理部を共通化することが可能となる。
領域抽出モジュール56は、撮影画像68と奥行画像70を受け取ると、撮影画像68から点検対象が写っている領域を抽出し、抽出した領域の画像である抽出画像74を生成する。点検対象が鉄塔の場合、領域抽出モジュール56は、鉄塔のみが写っている画像を抽出する。背景に映り込む建物、風景などは領域抽出モジュール56の抽出の対象外である。領域抽出モジュール56における抽出画像74の生成方法は後述する。
図4(a)、(b)は、領域抽出モジュール56に入力される撮影画像68と奥行画像70の一例を示す。この撮影画像68は、送電線を架設する鉄塔の点検システムにおける例を示し、屋外で鉄塔を撮影した画像である。撮影装置12が望遠レンズを備え、地上から遠方の鉄塔を撮影しても良いし、ドローン等の飛行体に撮影装置12を搭載して近距離から鉄塔を撮影しても良い。図4(a)は、点検対象である鉄塔が手前に写っており、奥側に山が写っている撮影画像68を示す。撮影画像68はカラーで表現されることが多いが、奥行画像70の表現方法は、カラーでも良いし、グレースケールでも良い。
奥行画像70の画素値は画素の奥行に応じている。ここでは、画素の奥行が大きい(点検対象が遠い)程画素値が大きく、画素の奥行が小さい(点検対象が近い)程画素値が小さいとする。そのため、図4(b)に示すように、無限遠の空は白く、背景となる山はグレー、最も近い距離にある鉄塔は濃いグレーで表現されている。しかし、この逆に、画素の奥行が大きい(遠い)程画素値が小さく、奥行が小さい(近い)程画素値が大きい奥行画像70としてもよい。
図4(c)は、領域抽出モジュール56から出力される抽出画像74の一例を示す。抽出画像74は撮影画像68内の点検対象である鉄塔のみが写っている画像である。点検対象は劣化することがあり、抽出画像74に含まれる点検対象は劣化部分を含むことがある。図4(c)では、劣化部分は便宜的に白抜きで示す。
劣化検出モジュール58は、抽出画像74に写っている点検対象の所定の領域を検出する。所定の領域は部分領域に限らず、点検対象の全領域でも良い。ここでは、所定の領域としては、劣化領域を説明する。劣化検出モジュール58は、劣化項目毎の劣化レベルに関する色見本を利用して抽出画像74に含まれる点検対象中の劣化部分の画像の劣化レベルを検出し、劣化部分毎の劣化レベルを示す劣化画像76を作成する。劣化項目は、点検対象の製造・施工中の劣化項目と、施工後の劣化項目を含む。製造・施工中の劣化項目は、設計と実物の不一致が該当し、例えば、傾き、溶接漏れ、塗装漏れ、ボルトやナット漏れ等を含む。施工後の劣化項目は、経年劣化が該当し、例えば、錆、腐食、塗装浮き、凹凸、破損、変色、等を含む。
劣化項目、例えば錆は点検対象に施工した塗装の種類によって大よその色合いが決まっている。例えば非特許文献1では、鉄塔の錆色見本が4又は5段階で定義されている。錆の劣化を判定するために、劣化レベル毎の鉄塔の錆の色情報が収集され、色情報データベースが作成されている。色情報データベースと撮影画像が比較され、比較結果に基づいて劣化レベルが判定されている。
画像から劣化レベルを判定する手法として、色パターンなどを特徴量とする機械学習を用いるものや、収集した画像と劣化レベルのデータセットを用いる深層学習を用いるものなど種々提案されている。非特許文献1では、撮影画像をHSV色空間にマッピングし、予め定めた劣化レベルごとの色見本の取りうる範囲で閾値処理する手法を採用している。
実施形態の劣化検出モジュール58は、劣化項目毎に劣化レベルを検出できれば良く、その具体的なアプローチについては任意の方法を用いることができる。劣化レベルを判定するもっとも簡単な手法は、抽出画像74の各画素に対応する点検対象の単位部分が劣化しているかどうかを各画素の画素値に基づいて2値で判別する識別器を用いる手法である。実施形態はこの手法を利用可能である。
図4(d)は、劣化検出モジュール58から出力される劣化画像76の一例を示す。劣化検出モジュール58は、抽出画像74に含まれる1つの劣化項目(例えば、錆)に関する劣化部分を抽出し、錆部分の画素値を劣化レベルに応じて識別処理し、識別結果を劣化レベルに応じて4段階に分類したセグメンテーション結果を劣化レベル毎に異なる色(例えば赤、青、黄、緑)で表現して劣化画像76を生成する。例えば、レベル1の劣化は赤、レベル2の劣化は青、レベル3の劣化は黄、レベル4の劣化は緑で示す。レベル4は最も劣化していることを意味し、レベル1は最も劣化していないことを意味する。劣化検出モジュール58は複数の劣化項目に関する複数の劣化画像76を出力できる。図4(d)は錆に関する劣化画像76を示す。
図4(d)の劣化画像76の例では、判りやすくするため、抽出画像74の上に劣化部分であるセグメンテーション結果を重畳して表現しているが、抽出画像74を表示せずにセグメンテーション結果のみを表示しても良いし、抽出画像74ではなく疎な点群表現の上にセグメンテーション結果を重畳して表示しても良い。
劣化面積計算モジュール60は、画像データ66に含まれるカメラの光学モデルに基づき決定される光学的なパラメータ(焦点距離、カメラのセンササイズ、画像のサイズなど)と奥行画像70を用いて、劣化項目毎の劣化画像76に含まれる劣化部分の面積を劣化レベル毎に求め、劣化項目毎の劣化面積データ78を出力する。劣化レベルとは、前述した4段階で定義した錆のレベルであり、ここでは錆劣化レベルと表現する。劣化部分の面積の計算方法については後述する。
劣化面積計算モジュール60は、画素毎に画素に対応する点検対象の単位部分の実際の物理的な面積(以下、画素面積と称する)を計算し、画素毎に画素面積を示す面積マップを作成する。画像内の画素は全てサイズが同じであるが、画素までの距離が異なる複数の画素の画素面積は異なる。劣化面積計算モジュール60は、面積マップと劣化画像76に基づいて劣化レベル毎の劣化部分内の画素面積を集計することによって、劣化レベル毎の劣化部分の面積を表す劣化面積データ78を生成する。画素毎の画素面積が同一であると仮定できる場合は、画素面積に劣化部分の画素数を乗算するだけで、劣化面積を求めても良い。なお、面積マップを作成する際、全画素に対応する画素面積を計算すると説明したが、最終的に必要な面積は劣化画像76内の劣化部分の面積であるので、劣化部分以外では、点検対象の画素面積の計算を省いても良い。
図5は、劣化面積計算モジュール60から出力される劣化面積データ78の一例を示す。劣化面積データ78は、錆劣化レベル1~4毎の劣化画素数、劣化比率、劣化面積、及びトータルの劣化画素数、劣化面積を含む。劣化画素数は劣化画像76から算出される。劣化比率は、全劣化画素における該当するレベルの劣化画素の比率である。劣化面積は劣化面積計算モジュール60により計算される。劣化画像76から算出される劣化画素数や劣化比率は、実際の点検対象上の物理的な劣化面積ではない。
図6は、撮影画像の他の例を示す。撮影画像68Aは、錆劣化レベルと物理的な面積は同じであるが、カメラからの距離が異なる2つの点検対象O、Oを含む。ここでは、点検対象Oは点検対象Oより近い位置にあるとする。
図7(a)、(b)は、それぞれ点検対象O、Oの劣化面積データ78、78の例を示す。点検対象Oの劣化面積データ78の劣化画素数は点検対象Oの劣化面積データ78とは異なる。しかし、2つの点検対象の錆劣化レベルと劣化面積は同一のため、距離が異なっても2つの点検対象の劣化診断結果は同一となるべきである。劣化面積は実際の点検対象上の物理的なサイズから計算される物理量であるため、2つの点検対象の劣化面積は同一である。点検で重要となる点検対象の劣化レベルを判断する際に、物理的な面積を基準とすることは好ましいことである。実施形態のように、劣化面積計算モジュール60により、点検対象までの距離等に依存せず、点検対象の実際の物理的な劣化面積を計算できる実施形態の画像処理装置14は有用である。
図3の説明に戻り、領域抽出モジュール56から出力される抽出画像74、劣化検出モジュール58から出力される劣化画像76、劣化面積計算モジュール60から出力される劣化面積データ78はデータベース64に格納される。データベース64は主記憶装置24により構成されても良い。主記憶装置24がDRAMから構成される場合、主記憶装置24の電源がオフされる前に、データベース64内のデータは不揮発性の補助記憶装置26にコピーされる。あるいは。データベース64は画像処理装置14とは別にネットワーク10上に設けても良い。さらに、撮影画像68、奥行画像70もデータベース64に格納されても良い。
データベース64内のデータはユーザ端末16からの要求に応じて読み出され、ユーザ端末16に送信され、要求に応じた形態でユーザに提示される。例えば、ユーザ端末16からWeb等を通して画像処理装置14に対して劣化面積データ78又は種々の画像74、76等の取得リクエストが送信されると、そのレスポンスとして、データベース64から必要なデータがWebAPI等を介してユーザ端末16に提供される。リクエストやレスポンスは、例えばウェブアプリケーションで一般的なRest API等で実装されても良い。
図1のシステムを点検システムに応用する場合、点検担当者が撮影装置12を用いて点検対象を撮影し、画像データを画像処理装置14にアップロードする。画像処理装置14は劣化面積を計算し、劣化面積をデータベース64に格納する。補修担当者がユーザ端末16から劣化面積等のダウンロード要求を画像処理装置14に送信し、ユーザ端末16の表示部で劣化面積等を確認し、補修のスケジュールを作成しても良い。
[劣化面積計算プログラム24bの処理の流れ]
図8は、劣化面積計算プログラム24bの処理の一例を示すフローチャートである。
画像処理装置14は、外部からの劣化診断リクエストが来るまで待機状態となっている。外部から劣化診断リクエストが来ると、画像処理装置14は、劣化面積計算プログラム24bを起動する。劣化面積計算プログラム24bがスタートすると、ステップS102で、画像取得モジュール52は、撮影装置12からの画像データ66を読み込む。撮影装置12又は画像処理装置14がネットワーク10に常時接続されているとは限らない場合、ネットワーク10は別途のストレージデバイスを備え、撮影装置12から送信される画像データ66がストレージデバイスに一旦格納され、画像処理装置14が画像データの送信要求をストレージデバイスに送信しても良い。
画像取得モジュール52が画像データ66を読み込むと、ステップS104で、奥行情報算出モジュール54は、画像データ66を入力し、画像データ66から撮影画像68と奥行画像70を算出する。
奥行情報算出モジュール54が撮影画像68と奥行画像70を算出すると、ステップS106で、領域抽出モジュール56は、撮影画像68と奥行画像70を入力し、撮影画像68から点検対象を抽出し、抽出画像74を出力する。領域抽出モジュール56は抽出画像74を劣化検出モジュール58とデータベース64に出力する。
領域抽出モジュール56から抽出画像74が出力されると、ステップS108で、劣化検出モジュール58は、撮影画像68と抽出画像74を入力し、抽出画像74から劣化部分を抽出し、劣化画像76を出力する。劣化検出モジュール58は、劣化画像76を劣化面積計算モジュール60とデータベース64に出力する。
劣化検出モジュール58から劣化画像76が出力されると、ステップS110で、劣化面積計算モジュール60は、劣化画像76、奥行画像70及び画像データ66を入力し、画像データ66に含まれるカメラの光学的なパラメータ(焦点距離、カメラのセンササイズ、画像のサイズなど)に基づいて奥行画像70の画素面積を計算し、劣化画像76の劣化レベルに応じた複数の劣化部分毎に画素面積を集計し劣化部分の面積を計算し、劣化面積データ78を出力する。劣化面積計算モジュール60は、劣化面積データ78をデータベース64に出力する。
上述したように、劣化面積計算プログラム24bを実行することにより、劣化面積データ78、劣化画像76、抽出画像74がデータベース64に格納される。データベース64に格納された劣化面積データ78、劣化画像76、抽出画像74は、外部リクエストに応じてデータベース64から読み出され、レスポンスを返却する際にリクエストに沿ったデータをリクエストに沿った形態で提供される。
次に、劣化面積計算プログラム24bの各モジュールの詳細を説明する。
[領域抽出モジュール56]
図9を参照して、領域抽出モジュール56の具体的な処理の一例を説明する。図9は、領域抽出モジュール56で行われる機械学習手法による推論処理の一例として、複数入力に対応するため2つのエンコーダを備える深層学習モデルの一例を示す。入力データは、撮影画像68と奥行画像70であり、出力データは、奥行画像70の各画素が点検対象の被写体が写った領域内の画素である可能性を示す尤度画像72である。深層学習モデルは、入力データと教示された尤度画像とを1セットとした複数の学習データセットを用いて予め学習されることにより構築されている。深層学習モデルは、セグメンテーションタスクで一般的に用いられるオートエンコーダ型の構造の例を示している。
図9の深層学習モデルは、エンコーダ部分とデコーダ部分とを含む。エンコーダ部分は、Conv(Convolution)層+BN(Batch Normalization)層+ReLU(Rectified Linear Units)層、Pooling層及びDropout層などを含む。デコーダ部分は、Unpooling層、Conv+BN+ReLU層、Dropout層及びScore層などを含む。
上記ネットワーク構造を拡張したり、入力データの数に対しチャネル数を増やしたり、層構造をより深くしたり、Dropout層を削除したり、同一構造を再帰的に繋げたりして、ネットワーク構造を変更してもよい。また、ネットワークのエンコーダに相当する部分を入力データの数分増加させ、各層の間に各エンコーダの特徴量を組み合わせる融合層を含めるようにしてもよい。さらに、オートエンコーダの構造は上記の構造に限らず、上記複数の入力データに加え、エンコーダ側の同一階層の出力をデコーダ側で再利用する結合層を持つネットワーク構造でもよい。このような高解像度特徴を維持するネットワーク構造はU-net構造として知られている。このようなモデルに対して、目的とする点検対象のみを抽出するような深層学習を用いてネットワークを学習することで、画像から対象物を高精度に抽出することが可能となる。
一般的に、撮影画像68は、画像の形状パターンや色空間の色信号パターンなどを特徴として点検対象が抽出されるように学習されるが、元々の画像中で点検対象と背景の色が似ている場合等に抽出精度が低下することがある。これに対して、奥行画像70は、形状パターンや色信号パターンでは無く画像中に含まれる距離パターンを特徴としてから点検対象が抽出されるように学習される。このため、深層学習モデルは、これらの異なる画像を入力して、2つの画像を組み合わせて点検対象を抽出することにより、撮影画像68だけでは難しい点検対象の高精度な抽出を可能としている。
深層学習モデルから出力される尤度画像72は、閾値処理などにより二値化され、尤度が閾値よりも高い領域が撮影画像68から切り出されて抽出画像74が生成される。
なお、領域抽出モジュール56は、モデルベースの推論に限らず、統計ベースの推論処理を採用しても良い。
図10は、領域抽出モジュール56の処理の流れの一例を示すフローチャートである。
奥行情報算出モジュール54が撮影画像68を出力し、領域抽出モジュール56が抽出画像74を出力すると、領域抽出モジュール56は、ステップS122で、撮影画像68と奥行画像70を受け取る。ステップS124で、領域抽出モジュール56は、撮影画像68と奥行画像70を入力とする深層学習モデルにより推論処理を行い、尤度画像72を生成する。ステップS126で、領域抽出モジュール56は、尤度画像72を用いて撮影画像68から抽出画像74を生成する。ステップS128で、領域抽出モジュール56は、抽出画像74を劣化検出モジュール58とデータベース64に出力する。この後、領域抽出モジュール56は、待ち状態となる。
[劣化検出モジュール58]
図11を参照して、劣化検出モジュール58の具体的な処理の流れを説明する。図11は、劣化検出モジュール58で行われる画像処理手法の一例を示す。劣化検出モジュール58は、色変換モジュール58Aと識別処理モジュール58Bを備える。
色変換モジュール58Aは、抽出画像74(RGB空間系の信号)をHSV空間系の信号に変換する機能と、色を補正する機能を有する。一般的に、RGB空間とHSV空間の信号は相互に変換可能である。色の補正は、点検対象毎の色見本を用いて行われる。例えば、点検対象の一部(先端部分や末端部分など)が選定されて、色見本と比較され、抽出画像74を色見本に合わせるための色補正が行われる。点検対象が例えば鉄塔の場合、鉄塔の色見本と比較する一部としては、碍子などの色の影響を受けにくい鉄塔の特徴的な形状の部分を選定しても良い。画像同士の色合わせは従来から様々な手法が提案されており、どの手法を用いても良い。補正はRGB空間で行っても良いし、HSV空間で行ってもい良い。一例として、RGB空間における3つの色信号を関数フィッティングすることにより色補正を行っても良い。なお、色補正に際して、奥行情報算出モジュール54で説明したような前処理を適用しても良い。
色変換モジュール58Aで変換及び色補正された抽出画像74は識別処理モジュール58Bに入力される。識別処理モジュール58Bでは、予め定義された色相Hと彩度Sと錆劣化レベルの分類マップを用いて、抽出画像74の各画素の色相Hと彩度Sが分類マップのどこに位置するかを識別処理する。識別処理は、多数の色見本が登録されている色データベースを元に錆劣化レベルを判定することにより行われる。劣化項目毎に画素毎の識別処理が行われた結果、劣化部分が劣化レベルに応じて異なる色で表現された劣化項目毎の劣化画像76が生成される。劣化部分以外は透明と刺される。
ここでは、非常に簡単な識別処理を行う例を説明したが、抽出画像と教示済みの劣化画像のデータセットを複数用意し、深層学習を用いて深層学習モデルを学習してもよい。この際に利用するネットワークは、前述したようなオートエンコーダ型のネットワークを用いても良いし、よりシンプルな全結合ネットワークやVGG、ResNet、DenseNetなどを利用しても良い。最新の深いネットワーク構造を用いることで、モデルの表現力が挙がり、識別性能の向上が期待できる。
図12は、劣化検出モジュール58の処理の流れの一例を示すフローチャートである。領域抽出モジュール56が抽出画像74を出力すると、劣化検出モジュール58は、ステップS142で抽出画像74を受け取る。ステップS144で、色変換モジュール58Aは、抽出画像74の色空間をRGB空間からHSV空間に変換するとともに、点検対象に応じた色補正を行う。ステップS146で、識別処理モジュール58Bは、色相Hと彩度Vの空間上の分類マップを用いて抽出画像74の識別処理を行い、劣化項目毎の劣化画像76を生成する。ステップS148で、識別処理モジュール58Bは、劣化画像76を劣化面積計算モジュール60とデータベース64に出力する。この後、劣化検出モジュール58は待ち状態となる。
[劣化面積計算モジュール60]
図13を参照して、劣化面積計算モジュール60の具体的な処理の流れを説明する。図13は、劣化面積計算モジュール60で行われる面積計算手法の一例を示す。劣化面積計算モジュール60は、画素サイズ計算モジュール60Aと画素面積計算モジュール60Bを備える。
画素サイズ計算モジュール60Aは、画像データ66に含まれるカメラの光学的なパラメータとしての焦点距離Fと、イメージセンサのセンササイズSと、画像の横幅(Width)及び高さ(Height)を受け取ると共に、奥行画像70を受け取り、奥行画像70の画素毎に当該画素に対応する点検対象の単位部分の実際の物理的なサイズ(幅と高さ)(画素サイズとも称する)を計算し、幅と高さから画素面積を計算する機能を有する。図14は、カメラのレンズと点検対象との距離(点検対象までの距離T)を用いて各画素に対応する点検対象の単位部分の実際の物理的なサイズと画素面積を計算する原理を示す。
画素サイズ計算モジュール60Aは画像データ66からカメラの焦点距離Fと、イメージセンサのセンササイズSと、画像の横幅(Width)及び高さ(Height)を受け取る。センササイズSはx方向の成分Sx(幅)と、y方向の成分Sy(高さ)からなる。図14はy方向のサイズを示す。x方向は図14の紙面に直行する方向である。尚、センササイズSは利用するカメラによって予め設定できるため、画像データ66から受け取らず、劣化面積計算プログラム24b内部で定義する変数としても良い。視野Vは、撮影するレンズにより変化する。視野Vもx方向の成分Vxと、y方向の成分Vyからなる。視野Vまでの距離はワーキングディスタンスWDと呼ばれる。ワーキングディスタンスWDと視野Vx、Vyと焦点距離FとセンササイズSx、Syの間には次の関係式が成り立つ。
WD:Vx=F:Sx 式1
WD:Vy=F:Sy 式2
同様に、点検対象までの距離Tと点検対象距離Tでの視野Ox、Oyと焦点距離FとセンササイズSx、Syの間にも同様に次の関係式が成り立つ。
T:Ox=F:Sx 式3
T:Oy=F:Sy 式4
カメラの焦点距離F、センササイズSx、Syは既知であり、点検対象までの距離Tは奥行画像70から算出できるため、点検対象距離Tでの視野Ox、Oyは、次式で算出される。
Ox=T×Sx/F 式5
Oy=T×Sy/F 式6
点検対象距離Tでの視野Oxが判れば、画像の横幅Widthから画像の1画素に対応する点検対象の単位部分の実際の物理的な幅Dxが次式で計算される。横幅Widthはセンサのx方向の画素数である。
Dx=Ox/Width 式7
同様に、点検対象距離Tでの視野Oyが判れば、画像の高さHeightから画像の1画素に対応する点検対象の単位部分の実際の物理的な高さDyが次式で計算される。高さHeightはセンサのy方向の画素数である。
Dy=Oy/Height 式8
式7、式8によって、1画素に対応する点検対象の単位部分の実際の物理的な幅、高さである画素サイズが算出される。
上記説明では、点検対象はその中心が視野Vの中心と一致する状態で撮影されると仮定した。点検対象の中心が視野Vの中心と一致しない場合、式7、式8で表される画素サイズは角度方向のずれを含む。しかし、このずれは、レンズの光学系に依存するので、レンズの光学系の諸数値に応じて補正することができる。
式7、式8によって点検対象の単位部分毎の幅、高さが算出されると、単位部分毎の実際の物理的な面積である画素面積は次式で算出される。
Axy=Dx×Dy 式9
点検対象の画像内の劣化部分に含まれる画素の画素面積を集計することにより、点検対象の劣化部分の実際の物理的な面積を計算することができる。
図13の説明に戻ると、画素サイズ計算モジュール60Aは、画素毎の画素面積を式9によって計算して、図15に示すように面積マップ80を生成する。面積マップ80は、画素P(x、y)毎の画素面積A(x,y)を示すテーブルである。画素サイズ計算モジュール60Aは、画素P(0,0)に対して式1~式9を計算し、画素P(0,0)の画素面積A(0,0)を計算する。次に、画素サイズ計算モジュール60Aは、隣の画素P(1,0)に対して式1~式9を計算し、画素面積A(1,0)を計算する。以下同様に、画素サイズ計算モジュール60Aは残りの画素をスキャンして、各画素の画素面積A(x,y)を計算する。画素サイズ計算モジュール60Aは、全ての画素面積を0-255で正規化して画像化し、面積マップ80を生成する。例えば、画素P(x1,y1)は距離100m離れた山に対応し、画素P(x2,y2)は距離10m離れた点検対象の鉄塔に対応する場合、近距離の画素P(x2,y2)の画素面積A(x2,y2)は遠距離の画素P(x1,y1)の画素面積A(x1,y1)より小さい。距離Tが無限遠となる空等の領域に対応する画素面積は無限大である。無限大の画素面積は最大値255なので、面積マップ80では距離Tが無限遠となる空等の領域は白画素として表される。
画素サイズ計算モジュール60Aから出力された面積マップ80は画素面積計算モジュール60Bに入力される。画素面積計算モジュール60Bには劣化画像76も入力される。画素面積計算モジュール60Bは、劣化画像76によって示される錆劣化レベルごとのラベルに従って、図16に示すように、劣化レベル毎の劣化部分の面積を計算する。画素面積計算モジュール60Bは、先ず劣化画像76の画素P(0,0)に劣化レベル1~4の何れかが設定されているか否か判定し、劣化レベル1~4の何れかが設定されている場合、劣化画像76内の当該劣化レベル(例えば、劣化レベル1)が設定されている全ての画素の画素数をカウントし、全画素数に対するカウント値の比率(劣化比率)を求めるとともに、該当する劣化レベルが設定されている画素の画素面積を集計して当該劣化レベルの劣化面積を求める。画素P(0,0)に劣化レベル1~4の何れも設定されていない場合、画素面積計算モジュール60Bは何の処理もしない。次に、画素面積計算モジュール60Bは、劣化画像76の画素P(1,0)に対して、画素P(0.0)に対する処理と同じ処理を実行する。ただし、画素面積計算モジュール60Bは画素に設定されている劣化レベルの劣化面積を集計済みの場合は、何の処理もしない。以下同様に、画素面積計算モジュール60Bは、残りの画素をスキャンして劣化面積データ78を計算する。
図17は、劣化面積計算モジュール60の処理の流れの一例を示すフローチャートである。奥行情報算出モジュール54が撮影画像68を出力し、劣化検出モジュール58が劣化画像76を出力すると、劣化面積計算モジュール60は、ステップS162で、奥行画像70、劣化画像76、画像データ66を受け取る。ステップS164で、画素サイズ計算モジュール60Aは、画像データ66からカメラの焦点距離F、イメージセンサのセンササイズS、画像のサイズ等の光学的なパラメータを取得する。ステップS166で、画素サイズ計算モジュール60Aは、図15に示すように、奥行画像70をスキャンし、画素毎の画素面積を計算し、面積マップ80を生成する。上述したように、最終的に必要な面積は劣化画像76内の劣化部分の面積であるので、劣化部分以外では面積マップを作成しなくても良い。そのため、画素サイズ計算モジュール60Aは、劣化画像76に基づいて点検対象が写っている領域のみ画素面積を計算しても良い。ステップS168で、画素面積計算モジュール60Bは、図16に示すように、面積マップ80と劣化画像76に基づいて、劣化レベル毎の劣化面積を計算し、劣化面積データ78を生成する。ステップS170で、画素面積計算モジュール60Bは、劣化面積データ78をデータベース64に出力する。この後、劣化面積計算モジュール60は待ち状態となる。
[第1実施形態の纏め]
第1実施形態によれば、撮影装置12から出力された画像データから撮影画像68と奥行画像70が生成される。撮影画像68と奥行画像70から推論処理により点検対象を含む抽出画像74が生成される。抽出画像74の各画素が劣化しているか否かが劣化レベル毎に識別され、劣化レベル毎の劣化部分が抽出画像74から抽出され、劣化画像76が生成される。一方、画像データを撮影したカメラの光学的なパラメータと奥行画像70を用いて画素に対応する被写体の単位部分の面積である画素面積が画素毎に求められる。画素面積が点検対象の劣化レベル毎の劣化部分に関して集計され、劣化部分の劣化面積が得られる。劣化画像76は劣化項目、例えば錆、腐食、塗装浮き、凹凸、破損、変色毎に生成されるので、劣化面積は劣化項目、劣化レベル毎に求められる。この劣化面積を含む劣化面積データ78はデータベースに格納され、ユーザ端末16からの要求に応じてユーザ端末16に送信される。例えば、補修担当者が点検対象の補修計画を作成する際、補修担当者はデータベース64に点検対象の劣化面積データ78の送信を要求する。補修担当者は、劣化面積データ78に基づいて点検対象の劣化具合を客観的に、かつ細分化して判断することができる。
[第2実施形態]
第1実施形態は、カラー開口技術に基づき被写体を撮影し、奥行情報が付加された画像データを出力する撮影装置12を用いる例を説明した。そのため、劣化面積計算プログラム24bの奥行情報算出モジュール54が画像データから奥行情報を算出する。第2実施形態として、他の撮像装置を用いる例を説明する。
第2実施形態では、撮影装置としてRGBカラー画像を取得する単眼カメラが用いられ、奥行情報は他の装置により求められる。奥行情報を求める一例は、カメラの近傍位置からレーザを点検対象に照射することにより、点検対象の点群データを取得し、データのいずれかをキャリブレーションによって補正して、奥行情報を取得する例がある。また、他の例は、TOF(Time Of Flight)測距方式のセンサを用いて奥行情報を求める例もある。第2実施形態では、撮影装置側で画像データと奥行情報が得られ、画像データと奥行情報が画像処理装置に供給される。第2実施形態は、撮影装置12と劣化面積計算プログラム24b以外は第1実施形態と同じである。
図18は、第2実施形態の画像処理装置14の劣化面積計算プログラム24b-1の構成の一例を示す。劣化面積計算プログラム24b-1は、第1実施形態と同じ領域抽出モジュール56、劣化検出モジュール58、劣化面積計算モジュール60を備え、第1実施形態の画像取得モジュール52と奥行情報算出モジュール54の代わりに画像/奥行/データ取得モジュール52-1を備える。
画像/奥行/データ取得モジュール52-1は図示しない撮影装置から送信された画像データ及び撮影装置以外の測距装置から送信された奥行情報を取り込む。画像/奥行/データ取得モジュール52-1は、取り込んだ画像データに含まれる撮影画像68を領域抽出モジュール56と劣化検出モジュール58に供給し、取り込んだ奥行画像70を領域抽出モジュール56と劣化面積計算モジュール60に供給し、取り込んだ画像データに含まれるカメラの光学的なパラメータ66-1を劣化面積計算モジュール60に供給する。第1実施形態と異なり、第2実施形態では、異なる装置からの出力に基づくため、撮影画像68と奥行画像70が異なる画角となることもある。その場合、領域抽出モジュール56は、両画像の画角が等しくなるように、画角が小さい画像を拡大する。
他の構成は第1実施形態と同じである。
[第3実施形態]
第1、第2実施形態は、劣化面積データを算出し、補修担当者は劣化面積の大小に基づいて補修の是非を判断することができる。第3実施形態は、劣化面積データに加えて、補修優先度を算出する。
図19は第1実施形態に補修優先度を計算する機能を付加した第3実施形態の劣化面積計算プログラム24b-2の構成の一例を示す。劣化面積計算プログラム24b-2は、第1実施形態の劣化面積計算プログラム24bに加えて、補修優先度計算モジュール202を備える。
補修優先度計算モジュール202は、劣化面積計算モジュール60から出力される劣化面積データ78と補修データ204を入力する。補修データ204とは、例えば点検対象のラベルと点検/補修履歴を含む。点検対象のラベルとは、複数の点検対象を特定するためのインデックスや固有名称等である。点検/補修履歴とは、過去の点検/補修の回数、日時、箇所、劣化項目毎の劣化レベル等の情報を含む。
補修データ204の一例が図20に示される。No.は点検対象を特定するためのインデックスを表しており、ラベルは点検対象の管理名称である。日時は過去の点検/補修日時を表している。箇所は補修箇所を示す。箇所の一例は、5段組鉄塔の2段目の部分がある。種類は過去に実施された作業が点検なのか補修なのか等の作業内容を表している。なお、図20は最小限の情報からなる例を示したが、補修データ204はこれ以外の管理情報を含んでいても良い。例えば、補修データ204は図5に示すような劣化面積データ78の情報を含んでも良い。これにより、過去の点検時の劣化面積等の情報を管理することができ、錆劣化面積の予測等の他のアプリケーションへの活用が可能となる。
補修優先度計算モジュール202は、補修データ204に含まれる点検対象のラベルに対して、劣化面積データ78の劣化面積を入力し、補修履歴と劣化面積を対応づけた表としての補修優先度データ206を作成する。補修優先度データ206の一例が図21に示される。ここでは、補修データ204に含まれるラベルの中で、実施日時が古く、劣化面積が大きいラベルに優先度を高く割り振る。この際、並び替えの順番として、主キーを日時とし副キーを劣化面積としても良いし、その逆に主キーを劣化面積とし副キーを日時としても良い。図21は主キーを劣化面積とし副キーを日時とした場合の例を示す。優先度は値が小さい程優先される。図21の場合、最も劣化面積が大きいラベル0006の補修が最も優先されることを示す。補修優先度データ206が補修優先度計算モジュール202から出力され、データベース64へ入力される。
図22は、劣化面積計算プログラム24b-2の処理の一例を示すフローチャートである。
ステップS102からステップS110までは、図8に示す第1実施形態の劣化面積計算プログラム24bのフローチャートと同じである。ステップS110で劣化面積計算モジュール60が劣化面積データ78を出力すると、ステップS112で、補修優先度計算モジュール202は劣化面積データ78と補修データ204を入力し、補修優先度データ206を生成し、補修優先度データ206をデータベース64に出力する。
第3実施形態によれば、補修担当者はデータベース64から読み出した補修優先度データ206に基づいて優先的に補修することが好ましい点検対象を客観的に判断することができ、適切な補修計画を作成することができる。
なお、図示しないが、第2実施形態に補修優先度を計算する機能を付加した実施形態も実現可能である。
[変形例]
上述した実施形態では、単一のプロセッサ22が劣化面積計算プログラム24b、24b-1、24b-2を実行することにより各機能が実現されているが、複数のプロセッサを設け、各プロセッサがプログラムのいくつかのモジュールを実行するように構成しても良い。さらに、プロセッサ22が劣化面積計算プログラム24b、24b-1、24b-2を実行することにより劣化面積が計算されているが、劣化面積計算プログラム24b、24b-1、24b-2のモジュールの一部又は全部をIC等のハードウェアにより実現しても良い。画像処理装置14の動作形態は任意で良く、例えばネットワーク10上のクラウドシステムとして動作させても良い。
実施形態では点検対象の劣化部分の面積が計算されているが、面積を計算する部分は劣化部分に限らず、点検対象全体でも良い。さらには、点検対象ではなく、画面内の特定の被写体の面積を計算するように構成しても良い。すなわち、実施形態の画像処理装置14は保守点検システム以外の任意のシステムに適用可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…ネットワーク、12…撮影装置、14…画像処理装置、16…ユーザ端末、22プロセッサ、24……主記憶装置、26…補助記憶装置、28…表示装置、30…入力装置、32…通信装置、52…画像取得モジュール、54…奥行情報算出モジュール、56…領域抽出モジュール、58…劣化検出モジュール、60…劣化面積計算モジュール、64…データベース。

Claims (15)

  1. 対象物と背景を含む第1画像と前記第1画像を撮影したカメラの光学的なパラメータを取得する取得手段と、
    前記第1画像から撮影画像及び前記第1画像の各画素の奥行情報を表す奥行画像を生成する奥行情報算出手段と、
    前記奥行画像に基づいて前記撮影画像から前記対象物が写っている領域を抽出し、抽出した領域の画像である抽出画像を生成する抽出手段と、
    前記抽出画像から前記抽出画像の各画素の劣化レベルを示す劣化画像を生成する劣化検出手段と、
    前記劣化レベルが第1レベルである領域の面積を前記奥行画像と前記劣化画像と前記光学的なパラメータとを用いて計算する計算手段と、
    を具備する画像処理装置。
  2. 前記抽出手段は、前記撮影画像の形状又は色のパターンに基づく第1特徴量と、前記奥行情報の奥行のパターンに基づく第2特徴量を用いて前記対象物が写っている領域を検出する請求項記載の画像処理装置。
  3. 前記劣化検出手段は、前記抽出画像と劣化見本画像との相関に基づいて前記劣化レベルを検出する請求項記載の画像処理装置。
  4. 前記劣化検出手段は、複数の劣化状態の複数の劣化領域を検出し、
    前記計算手段は、前記複数の劣化領域の複数の面積をそれぞれ計算する請求項1記載の画像処理装置。
  5. 前記劣化検出手段は、前記撮影画像と前記複数の劣化状態に関する複数の劣化見本画像との相関に基づいて前記複数の劣化領域を検出する請求項記載の画像処理装置。
  6. 前記複数の劣化状態のそれぞれは、前記対象物の製造又は施工時の劣化状態と、前記対象物の製造又は施工後の劣化状態を含む請求項4記載の画像処理装置。
  7. 前記複数の劣化状態のそれぞれは、錆、腐食、塗装ずれ、塗装浮き、凹凸、破損、変色、設計不一致、傾き、溶接漏れ、塗装漏れ、ボルトやナット漏れに関する劣化状態を含む請求項6記載の画像処理装置。
  8. 前記複数の劣化領域の前記複数の面積と過去の補修情報に基づいて、前記複数の劣化領域の補修優先度を算出する補修優先度算出手段をさらに具備する請求項6記載の画像処理装置。
  9. 前記補修優先度は、前記対象物の劣化状態が第1状態である領域の面積が大きい程高く、過去の補修時期が古い程高い請求項記載の画像処理装置。
  10. 前記計算手段は、前記光学的なパラメータと前記奥行情報を用いて前記第1画像の画素に対応する前記対象物の単位部分毎の面積を計算する請求項記載の画像処理装置。
  11. 前記計算手段は、前記対象物の画像の画素数と前記対象物の単位部分毎の面積を用いて前記対象物の面積を求める請求項10記載の画像処理装置。
  12. 前記光学的なパラメータは前記カメラの光学モデルに基づいている請求項記載の画像処理装置。
  13. 前記光学的なパラメータは前記カメラのセンササイズと焦点距離に関する請求項12記載の画像処理装置。
  14. 前記奥行情報は、前記第1画像に含まれる色毎の合焦状態からのボケに基づく請求項記載の画像処理装置。
  15. 対象物と背景を含む第1画像と前記第1画像を撮影したカメラの光学的なパラメータを取得することと、
    前記第1画像から撮影画像及び前記第1画像の各画素の奥行情報を表す奥行画像を生成することと、
    前記奥行画像に基づいて前記撮影画像から前記対象物が写っている領域を抽出し、抽出した領域の画像である抽出画像を生成することと、
    前記抽出画像から前記抽出画像の各画素の劣化レベルを示す劣化画像を生成することと、
    前記劣化レベルが第1レベルである領域の面積を前記奥行画像と前記劣化画像と前記光学的なパラメータとを用いて計算することと、
    を具備する画像処理方法。
JP2019102264A 2019-05-31 2019-05-31 画像処理装置及び画像処理方法 Active JP7292979B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019102264A JP7292979B2 (ja) 2019-05-31 2019-05-31 画像処理装置及び画像処理方法
US16/810,063 US20200380653A1 (en) 2019-05-31 2020-03-05 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019102264A JP7292979B2 (ja) 2019-05-31 2019-05-31 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2020197797A JP2020197797A (ja) 2020-12-10
JP7292979B2 true JP7292979B2 (ja) 2023-06-19

Family

ID=73549401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019102264A Active JP7292979B2 (ja) 2019-05-31 2019-05-31 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US20200380653A1 (ja)
JP (1) JP7292979B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7166225B2 (ja) * 2019-07-08 2022-11-07 ソフトバンク株式会社 異常点検システム、異常点検装置、異常点検方法および異常点検プログラム
JP7290510B2 (ja) * 2019-08-22 2023-06-13 Automagi株式会社 劣化状態検出装置及び劣化状態検出方法
US20220108097A1 (en) * 2020-10-05 2022-04-07 Rakuten, Inc. Dual encoder attention u-net
WO2022130814A1 (ja) * 2020-12-16 2022-06-23 コニカミノルタ株式会社 指標選択装置、情報処理装置、情報処理システム、検査装置、検査システム、指標選択方法、および指標選択プログラム
CN112767364B (zh) * 2021-01-22 2022-06-17 三峡大学 一种闸门门叶表面锈蚀的图像检测系统及锈蚀面积快速测算方法
JPWO2022157939A1 (ja) * 2021-01-22 2022-07-28
WO2022254715A1 (ja) * 2021-06-04 2022-12-08 日本電信電話株式会社 劣化判定装置、劣化判定方法、及びプログラム
WO2024042659A1 (ja) * 2022-08-24 2024-02-29 日本電信電話株式会社 画像処理装置、画像処理方法及びプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005016991A (ja) 2003-06-24 2005-01-20 Railway Technical Res Inst 赤外線構造物診断システム
US20120140040A1 (en) 2010-12-07 2012-06-07 Casio Computer Co., Ltd. Information display system, information display apparatus, information provision apparatus and non-transitory storage medium
US20120209653A1 (en) 2011-02-15 2012-08-16 General Electric Company Gas pipeline network configuration system
JP2012185161A (ja) 2011-03-03 2012-09-27 Sang Mo Bae 携帯端末機に備えられたカメラを利用した物体の実際の大きさを測定する方法
US20130155061A1 (en) 2011-12-16 2013-06-20 University Of Southern California Autonomous pavement condition assessment
US20140362188A1 (en) 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Image processing device, image processing system, and image processing method
JP2016223815A (ja) 2015-05-27 2016-12-28 パナソニックIpマネジメント株式会社 劣化診断装置及び劣化診断方法
JP2017040642A5 (ja) 2016-05-16 2018-10-18
US20190049275A1 (en) 2017-12-29 2019-02-14 Intel Corporation Method, a circuit and a system for environmental sensing
JP2019032218A (ja) 2017-08-08 2019-02-28 株式会社 日立産業制御ソリューションズ 位置情報記録方法および装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3648728B2 (ja) * 2002-05-27 2005-05-18 日本電炉株式会社 自己組織化特徴マップを用いた鋼材表面の劣化度評価システム
US20120050483A1 (en) * 2010-08-27 2012-03-01 Chris Boross Method and system for utilizing an image sensor pipeline (isp) for 3d imaging processing utilizing z-depth information
US10728284B2 (en) * 2013-05-03 2020-07-28 Vmware, Inc. Methods and apparatus to assess compliance of a computing resource in a virtual computing environment
JP6608763B2 (ja) 2015-08-20 2019-11-20 株式会社東芝 画像処理装置及び撮影装置
US9927974B2 (en) * 2015-09-22 2018-03-27 Qualcomm Incorporated Automatic customization of keypad key appearance
CN105628951B (zh) * 2015-12-31 2019-11-19 北京迈格威科技有限公司 用于测量对象的速度的方法和装置
CA3023996C (en) * 2016-05-28 2020-07-07 Kaustubh V. DIGHE Systems for monitoring and managing marine riser assets
US20180240080A1 (en) * 2017-02-17 2018-08-23 General Electric Company Equipment maintenance system
JP6960997B2 (ja) * 2017-08-09 2021-11-05 富士フイルム株式会社 画像処理システム、サーバ装置、画像処理方法、及び画像処理プログラム
US20190251350A1 (en) * 2018-02-15 2019-08-15 DMAI, Inc. System and method for inferring scenes based on visual context-free grammar model
KR102476758B1 (ko) * 2018-05-09 2022-12-09 삼성전자주식회사 영상 정규화 장치 및 방법

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005016991A (ja) 2003-06-24 2005-01-20 Railway Technical Res Inst 赤外線構造物診断システム
US20120140040A1 (en) 2010-12-07 2012-06-07 Casio Computer Co., Ltd. Information display system, information display apparatus, information provision apparatus and non-transitory storage medium
US20120209653A1 (en) 2011-02-15 2012-08-16 General Electric Company Gas pipeline network configuration system
JP2012185161A (ja) 2011-03-03 2012-09-27 Sang Mo Bae 携帯端末機に備えられたカメラを利用した物体の実際の大きさを測定する方法
US20130155061A1 (en) 2011-12-16 2013-06-20 University Of Southern California Autonomous pavement condition assessment
US20140362188A1 (en) 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Image processing device, image processing system, and image processing method
JP2016223815A (ja) 2015-05-27 2016-12-28 パナソニックIpマネジメント株式会社 劣化診断装置及び劣化診断方法
JP2017040642A5 (ja) 2016-05-16 2018-10-18
JP2019032218A (ja) 2017-08-08 2019-02-28 株式会社 日立産業制御ソリューションズ 位置情報記録方法および装置
US20190049275A1 (en) 2017-12-29 2019-02-14 Intel Corporation Method, a circuit and a system for environmental sensing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
原田千尋,外2名,奥行き情報を用いたオブジェクト自動抽出,電子情報通信学会2002年総合大会講演論文集,2002年,p.347

Also Published As

Publication number Publication date
US20200380653A1 (en) 2020-12-03
JP2020197797A (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
JP7292979B2 (ja) 画像処理装置及び画像処理方法
CN113125458B (zh) 钢结构涂层状态的检查与评估方法及系统
US20140153816A1 (en) Depth Map Stereo Correspondence Techniques
JP2017049974A (ja) 識別器生成装置、良否判定方法、およびプログラム
Wang et al. Improved performance of multi-view fringe projection 3D microscopy
Yan et al. Towards automated detection and quantification of concrete cracks using integrated images and lidar data from unmanned aerial vehicles
JP5726472B2 (ja) アライメント方法及び検出装置
CN110915193B (zh) 图像处理系统、服务器装置、图像处理方法及记录介质
CN117011477B (zh) 一种基于bim的钢结构形变监测处理方法及系统
CN115830004A (zh) 表面缺陷检测方法、装置、计算机设备和存储介质
Momtaz Dargahi et al. Color-space analytics for damage detection in 3D point clouds
CN105787870A (zh) 一种图形图像拼接融合系统
JP2018169341A (ja) 油膜検出システム及び油膜検出方法
JP7059889B2 (ja) 学習装置、画像生成装置、学習方法、及び学習プログラム
Ma et al. Simple and efficient registration of 3D point cloud and image data for an indoor mobile mapping system
Shang et al. LaserNet: a method of laser stripe center extraction under non-ideal conditions
JP5076567B2 (ja) テンプレートマッチング装置、テンプレートマッチング装置を備えたカメラ、テンプレートマッチングをコンピュータで行うためのプログラム
CN113970560A (zh) 一种基于多传感融合的缺陷三维检测方法
Wang et al. Automatic measurement of grid structures displacement through fusion of panoramic camera and laser scanning data
CN111862106A (zh) 基于光场语义的图像处理方法、计算机装置、及存储介质
Brüstle et al. Object extraction in the context of an image registration workflow
CN117011688B (zh) 一种水下结构病害的识别方法、系统及存储介质
JP2006047252A (ja) 画像処理装置
Tello-Gil et al. CRACK DETECTION AND DIMENSIONAL ASSESSMENT USING SMARTPHONE SENSORS AND DEEP LEARNING
JP2011124955A (ja) 画像処理方法及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230607

R151 Written notification of patent or utility model registration

Ref document number: 7292979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151