JP7331311B2 - 画像検査装置及び画像検査プログラム - Google Patents

画像検査装置及び画像検査プログラム Download PDF

Info

Publication number
JP7331311B2
JP7331311B2 JP2019131391A JP2019131391A JP7331311B2 JP 7331311 B2 JP7331311 B2 JP 7331311B2 JP 2019131391 A JP2019131391 A JP 2019131391A JP 2019131391 A JP2019131391 A JP 2019131391A JP 7331311 B2 JP7331311 B2 JP 7331311B2
Authority
JP
Japan
Prior art keywords
image
inspection
pass
seam
fail information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019131391A
Other languages
English (en)
Other versions
JP2021015101A (ja
Inventor
茂臣 深沢
康如 佐久間
亮人 菊池
次男 石原
知英 大下
辰徳 滝澤
勇志 ▲高▼井
和也 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Corp
Original Assignee
Takenaka Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Corp filed Critical Takenaka Corp
Priority to JP2019131391A priority Critical patent/JP7331311B2/ja
Publication of JP2021015101A publication Critical patent/JP2021015101A/ja
Application granted granted Critical
Publication of JP7331311B2 publication Critical patent/JP7331311B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像検査装置及び画像検査プログラムに関する。
従来、橋梁の鋼部材を接合する溶接部における表面のきずを検出する外観検査システムが知られている(例えば、特許文献1)。この外観検査システムは、溶接部の溶接線を横断するようにレーザー光を照射し、照射されたレーザー光を撮像し、当該撮像された画像に基づいて、きずを検査する。
また、溶接物の分類及び相関関係のための機械学習を提供する技術が知られている(例えば、特許文献2)。この技術は、溶接物を仕様に適合するもの又は適合しないものに分類するためのアルゴリズムを生成する方法を含み、訓練データは機械学習システムによって読み込まれる。そして、この技術は、試験溶接物を仕様に適合するもの又は仕様に適合しないものとして分類することができるように、機械学習システムは訓練データを用いてアルゴリズムを育成する。
また、カラー画像を用いた外観検査装置が知られている(例えば、特許文献3)。この外観検査装置は、カラーカメラを用いて検査対象物を分光波長帯毎の濃度画像からなるカラー画像として撮像する。そして、外観検査装置は、検査対象物に予め設定した検査領域の画素に微分画像処理を行って規定値以上の微分値を有する画素をエッジ画素として抽出する。そして、外観検査装置は、各エッジ画素の両側に抽出された欠陥候補画素について、片側毎にその近傍画素を含めて色データを統計処理し、得られた両側の色データ統計値を比較して予め設定した基準値以上の差があれば不良と判定する。
特許第6222646号公報 特開2019-5809号公報 特許第4195980号公報
ところで、例えば、構造物の広範な領域に複数の検査対象物が略平行に並んでいる場合、それらの検査対象物の各々について個別に画像を撮像するよりも、複数の検査対象物が1枚の画像内に収まるように画像を撮像する方が効率的である。
しかし、上記特許文献1~3に開示されている技術は、1つの溶接部を対象としており、例えば、画像中に写る構造物に複数の検査対象物が略平行に並んでいる場合に、それら複数の検査対象物を検査することについては考慮されていない。
本発明は上記事実に鑑みて、画像中に写る構造物に略平行に並んでいる複数の検査対象物の合否を、自動的かつ効率的に判定することを目的とする。
上記目的を達成するために、本発明の画像検査装置は、構造物が写る画像を取得する取得部と、前記取得部により取得された前記画像から、前記構造物に略平行に設置された複数の検査対象物を抽出する抽出部と、前記抽出部により抽出された複数の検査対象物の各々を、検査対象物から該検査対象物の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数の検査対象物の各々の合否情報を取得する合否情報取得部と、を含み、複数の前記検査対象物は、前記構造物の溶接屋根における複数のハゼ嵌合部である画像検査装置である。これにより、画像中に写る構造物に略平行に並んでいる、複数の検査対象物の合否を、自動的かつ効率的に判定することができる。
また、本発明の画像検査装置は、構造物が写る画像を取得する取得部と、前記取得部により取得された前記画像から、前記構造物に略平行に設置された複数の検査対象物を抽出する抽出部と、前記抽出部により抽出された複数の検査対象物の各々を、検査対象物から該検査対象物の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数の検査対象物の各々の合否情報を取得する合否情報取得部と、を含み、前記画像は、無人航空機に備えられたカメラによって撮像された画像である。これにより、画像中に写る構造物に略平行に並んでいる、複数の検査対象物の合否を、自動的かつ効率的に判定することができる。
本発明の前記抽出部は、前記画像の特定位置の垂直方向に並ぶ画素の輝度ヒストグラムを抽出し、該輝度ヒストグラムの輝度変化に応じて、複数の検査対象物を抽出するようにすることができる。これにより、画像中に写る構造物に略平行に並んでいる、複数の検査対象物を精度良く抽出することができる。
本発明の前記画像には、前記検査対象物とは異なるマーカが写っており、前記マーカと前記検査対象物との間の位置関係に応じて、複数の検査対象物の位置情報を取得する位置情報取得部を更に含むようにすることができる。これにより、画像中に写るマーカによって、複数の検査対象物の位置情報を精度良く特定することができる。
本発明のプログラムは、構造物が写る画像を取得し、取得された前記画像から、前記構造物に略平行に設置された前記構造物の溶接屋根における複数のハゼ嵌合部である複数の検査対象物を抽出し、抽出された複数の検査対象物の各々を、検査対象物から該検査対象物の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数の検査対象物の各々の合否情報を取得する、処理をコンピュータに実行させるための画像検査プログラムである。これにより、画像中に写る構造物に略平行に並んでいる、複数の検査対象物の合否を、自動的かつ効率的に判定することができる。
また、本発明のプログラムは、構造物が写る画像であって、無人航空機に備えられたカメラによって撮像された画像を取得し、取得された前記画像から、前記構造物に略平行に設置された複数の検査対象物を抽出し、抽出された複数の検査対象物の各々を、検査対象物から該検査対象物の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数の検査対象物の各々の合否情報を取得する、処理をコンピュータに実行させるための画像検査プログラムである。これにより、画像中に写る構造物に略平行に並んでいる、複数の検査対象物の合否を、自動的かつ効率的に判定することができる。
本発明によれば、画像中に写る構造物に略平行に並んでいる複数の検査対象物の合否を、自動的かつ効率的に判定することができる、という効果が得られる。
本実施形態の画像撮像システムの概要を説明するための説明図である。 検査対象物の一例であるハゼ嵌合部の撮像を説明するための説明図である。 本実施形態における建物の屋根とカメラとの間の距離と、ハゼ嵌合部とカメラとの間の角度とを説明するための説明図である。 第1実施形態に係る画像撮像システムの概略構成を示すブロック図である。 学習用データの一例を示す図である。 本実施形態の学習済みモデルの一例を示す図である。 ハゼ嵌合部の抽出処理を説明するための説明図である。 ハゼ嵌合部の抽出処理を説明するための説明図である。 第1実施形態の制御処理ルーチンの一例を示す図である。 第1実施形態の格納処理ルーチンの一例を示す図である。 第1実施形態の学習処理ルーチンの一例を示す図である。 第1実施形態の判定処理ルーチンの一例を示す図である。 第2実施形態を説明するための説明図である。 第2実施形態に係る画像撮像システムの概略構成を示すブロック図である。 画像上のグリッド線を説明するための説明図である。 画像上のグリッド線を説明するための説明図である。 画像上の位置情報を説明するための説明図である。 第2実施形態の画像処理ルーチンの一例を示す図である。
以下、図面を参照して、本発明の実施形態について詳細に説明する。
<第1実施形態に係る画像撮像システムの構成>
図1は、第1実施形態に係る画像撮像システム10の構成の一例を示す図である。図1に示されるように、第1実施形態の画像撮像システム10は、無人航空機の一例であるドローン30と、ドローン30を制御する制御機器20と、サーバ(図示省略)とを備えている。制御機器20と、ドローン30と、サーバ(図示省略)とは、所定の通信手段によって接続されている。制御機器20は、例えば、ユーザUによって操作される。
本実施形態の画像撮像システム10は、図1に示されるように、建物の屋根Rfにおける鉤(ハゼ)の嵌合部を撮像する。鉤(ハゼ)の嵌合部(以下、単に「ハゼ嵌合部」と称する。)は、金属製の屋根における接合部であり、金属板の接合において、板を折り曲げ、かみ合わせる形にした部分である。
図1に示されるように、複数のハゼ嵌合部hは、建物の屋根Rfに略平行に設置されている。このため、図1に示されるように、本実施形態の画像撮像システム10は、ドローン30に搭載されたカメラによって、建物の屋根Rfに存在する複数のハゼ嵌合部hを一度に撮像する。なお、建物の屋根Rfは構造物の一例であり、ハゼ嵌合部は、検査対象物の一例である。
建物の屋根Rfに存在する複数のハゼ嵌合部hを1枚の画像に収めようとする場合、ドローン30による画像の撮像方法が問題となる。図2に、ドローン30によるハゼ嵌合部hの撮像を説明するための説明図を示す。図2に示されるように、建物の屋根Rfには複数のハゼ嵌合部hが存在している。ハゼ嵌合部は、建物の屋根Rfから突出した形状を有している。この場合、ドローン30のカメラによって、略平行に並んでいる複数のハゼ嵌合部hを撮像する場合を考える。ハゼ嵌合部については、ハゼ嵌合部の側面が検査対象となるため、ドローン30のカメラは、ハゼ嵌合部の側面の画像を撮像する必要がある。
この場合、例えば、図2に示されるハゼ嵌合部h1とドローン30のカメラとの間の距離は離れすぎているため、ハゼ嵌合部h1の画像は必要な解像度が得られない。一方、図2に示されるハゼ嵌合部h2とドローン30のカメラとの間の距離は近すぎるため、ハゼ嵌合部h2の側面の画像を得ることができない。
そこで、本実施形態の画像撮像システム10では、複数のハゼ嵌合部をドローン30のカメラによって撮像する際に、建物の屋根Rfとドローン30のカメラとの間の距離が予め設定された範囲内となり、かつハゼ嵌合部がカメラによって所定の角度で撮像されるように、ドローン30の飛行を制御する。
具体的には、ドローン30に搭載された赤外線センサによって、建物の屋根Rfとドローン30との間の距離を逐次検知し、建物の屋根Rfとドローン30のカメラとの間の距離が所定値の範囲内となるように、ドローン30の飛行を制御する。
なお、本実施形態においては、図3に示されるように、ドローン30のカメラと建物の屋根Rfとの間の距離が定義され、ドローン30とハゼ嵌合部hとの間の角度θが定義される。
なお、ハゼ嵌合部に関しては、その溶接が適切であるか否かの合否判定を行う必要がある。従来では、ハゼ嵌合部の合否判定は人手によって行われており、検査者の主観又は技量によってばらつきが発生していた。また、人手による検査は、検査を実施するための時間がかかる、という課題がある。
そこで、本実施形態では、ハゼ嵌合部の画像が入力されると当該ハゼ嵌合部が合格であるか否かを出力する学習済みモデルを用いて、ハゼ嵌合部の溶接の合否を判定する。これにより、建物の溶接屋根のハゼ嵌合部の合否を自動的、かつ効率的に判定することができる。また、本実施形態では、ハゼ嵌合部の画像がドローン30によって自動的に撮像されるため、画像の撮像に関しても効率的に実施される。
以下、具体的に説明する。
(制御機器20)
制御機器20は、CPU(Central Processing Unit)、各処理ルーチンを実現するためのプログラム等を記憶したROM(Read Only Memory)、データを一時的に記憶するRAM(Random Access Memory)、記憶手段としてのメモリ、及びネットワークインタフェース等を含むコンピュータによって構成されている。制御機器20は、機能的には、図4に示されるように、制御部22と、通信部24とを備える。
制御部22は、ドローン30を飛行させるための制御信号を送信する。通信部24は、他の装置との間において情報の送受信を行う。
なお、本実施形態においては、制御機器20はドローン30の起動又は停止を制御するのみである場合を説明する。
(ドローン30)
ドローン30は、機能的には、図4に示されるように、カメラ32と、赤外線センサ34と、コンピュータ36と、GNSS(Global Navigation Satellite System)の一例であるGPSセンサ(Global Positioning System)38と、駆動装置40とを備えている。
カメラ32は、ドローン30周辺の画像を撮像する。赤外線センサ34は、ドローン30と周辺の障害物のとの間の距離を逐次計測する。また、GPSセンサ38は、ドローン30が位置する位置情報を逐次取得する。
コンピュータ36は、CPU、各処理ルーチンを実現するためのプログラム等を記憶したROM、データを一時的に記憶するRAM、記憶手段としてのメモリ、ネットワークインタフェース等を含んで構成されている。コンピュータ36は、ドローン30の飛行を制御すると共に、カメラ32によって撮像された画像を取得する。また、コンピュータ36は、赤外線センサ34によって計測された、建物の屋根とドローン30との間の距離を取得する。
コンピュータ36は、機能的には、図4に示されるように、情報取得部42と、飛行制御部44と、カメラ制御部46と、位置情報取得部48と、画像格納制御部50と、通信部52とを備えている。
情報取得部42は、赤外線センサ34によって計測された距離の情報を取得する。また、情報取得部42は、カメラ32によって撮像された画像を取得する。
飛行制御部44は、ドローン30を飛行させる駆動装置40を制御する。なお、飛行制御部44は、後述する制御機器20からの制御信号に応じて、ドローン30の飛行を制御するようにしてもよい。
カメラ制御部46は、カメラ32による画像の撮像を制御する。
位置情報取得部48は、GPSセンサ38によって検知されたドローン30の位置を表す位置情報を取得する。
駆動装置40は、コンピュータ36の制御に応じて、ドローン30を駆動させる。駆動装置40の駆動に応じて、ドローン30は飛行する。
(サーバ60)
サーバ60は、CPU、各処理ルーチンを実現するためのプログラム等を記憶したROM、データを一時的に記憶するRAM、記憶手段としてのメモリ、及びネットワークインタフェース等を含むコンピュータによって構成されている。サーバ60は、機能的には、図4に示されるように、画像処理部62と、画像記憶部64と、通信部66と、学習用データ記憶部68と、学習部70と、学習済みモデル記憶部72と、取得部74と、抽出部76と、合否情報取得部78とを備える。サーバ60は、画像検査装置の一例である。
画像処理部62は、ドローン30から送信された画像を取得し、後述する画像記憶部64へ格納する。画像記憶部64には、ドローン30のカメラ32によって撮像された画像が格納される。通信部66は、他の装置との間で情報のやり取りを行う。
学習用データ記憶部68には、学習用のハゼ嵌合部の画像と、当該学習用の画像に写るハゼ嵌合部が合格であるか否かを表す合否情報とが対応付けられた学習用データが格納されている。例えば、図5に示されるように、学習用のハゼ嵌合部の画像と、当該学習用の画像に写るハゼ嵌合部の合否情報とが対応付けられて格納される。
図5に示されるデータID「00001」の学習用データでは、学習用のハゼ嵌合部の画像「X1」とそのハゼ嵌合部の合否情報「A1」とが対応付けられて格納されている。
学習部70は、学習用データ記憶部68に記憶されている複数の学習用データに基づいて、ハゼ嵌合部の画像から当該ハゼ嵌合部の合否情報を出力するためのモデルを機械学習させる。そして、学習部70は、ハゼ嵌合部の画像から当該ハゼ嵌合部の合否情報を出力する学習済みモデルを得る。
本実施形態では、図6に示されるような学習済みモデルを生成する。例えば、図6に示されるように、モデルの一例としてニューラルネットワークを用いることができ、学習アルゴリズムの一例としてディープラーニングを用いることができる。
図6に示される学習済みモデルは、入力されたハゼ嵌合部の画像が合格である確率と、入力されたハゼ嵌合部の画像が不合格である確率とを、合否情報として出力する。
このため、学習部70は、複数の学習用データのうち、合格のハゼ嵌合部の画像が入力された場合には、モデルから出力される「合格である確率」が高くなるように、モデルのパラメータを学習させる。また、学習部70は、不合格のハゼ嵌合部の画像が入力された場合には、モデルから出力される「不合格である確率」が高くなるように、モデルのパラメータを学習させる。
学習済みモデル記憶部72には、学習部70によって学習された学習済みモデルが格納される。
取得部74は、画像記憶部64に格納されている画像を読み出すことにより、建物の屋根が写る画像を取得する。この画像には、複数のハゼ嵌合部の領域が含まれている。
抽出部76は、取得部74により取得された画像から、建物の屋根に略平行に設置された複数のハゼ嵌合部を抽出する。図7に、ハゼ嵌合部の抽出処理を説明するための説明図を示す。
図7(A)に示されるように、ハゼ嵌合部hを含む画像は、X方向の輝度値の変化が激しい。図7(B)は、ある特定のY座標であるY1における輝度値の分布の様子である。図7(B)に示されるBの部分がハゼ嵌合部に対応しており、Bの部分は輝度値の変化が激しいことがわかる。
図7(C)は、隣接する画素の輝度値の差分を取ったグラフである。具体的には、図7(C)は、ある特定の位置X1の輝度値と、その隣の位置X2の輝度値との間の差分Eをグラフ化したものである。図7(C)からわかるように、ハゼ嵌合部の領域においては、差分Eの値が高いため、差分Eの値に応じて、ハゼ嵌合部の中心領域を抽出することができる。このため、抽出部76は、差分Eの値が所定の閾値以上である部分Ehを、ハゼ嵌合部の中心領域として設定する。そして、本実施形態では、中心領域から所定の幅を有する領域をハゼ嵌合部として設定する。
なお、抽出部76は、輝度値の変化に応じて所定の幅領域を設定して、ハゼ嵌合部を抽出する。これにより、例えば、図8に示される画像Iからハゼ嵌合部のみが写る画像Iが抽出される。
したがって、抽出部76は、画像の特定位置Y1の垂直方向(ドローンから見た場合の垂直方向を表す。図7では、X方向に対応する。)に並ぶ画素の輝度ヒストグラムを抽出し、当該輝度ヒストグラムの輝度変化に応じて、複数のハゼ嵌合部を抽出する。
合否情報取得部78は、抽出部76により抽出された複数のハゼ嵌合部の各々を、学習済みモデル記憶部72に格納された学習済みモデルへ入力して、複数のハゼ嵌合部の各々の合否情報を取得する。
そして、合否情報取得部78は、複数のハゼ嵌合部の合否情報を、表示装置(図示省略)に表示させる。ユーザは、複数のハゼ嵌合部の合否情報を得て、どのハゼ嵌合部が合格でどのハゼ嵌合部が不合格であるのかを確認する。
次に、本実施形態の画像撮像システム10の作用について説明する。ドローン30の起動を表す制御信号が制御機器20から出力され、ドローン30がその制御信号を受信すると、ドローン30のコンピュータ36は、図9に示す制御処理ルーチンを実行する。
ステップS100において、情報取得部42は、赤外線センサ34によって計測された距離の情報を取得する。
ステップS102において、飛行制御部44は、上記ステップS100で取得された距離の情報に基づいて、建物の屋根とドローン30のカメラ32との間の距離が予め設定された範囲内となるように、駆動装置40を制御する。なお、建物の屋根Rfとドローン30のカメラ32との間の距離が予め設定された範囲内となるような駆動制御が行われることにより、後述するステップS104において、建物の屋根に設置されたハゼ嵌合部がカメラ32によって所定の角度で撮像される。
なお、ドローン30(又はドローン30のカメラ32)と建物の屋根との間の距離Zは、250[mm]~2000[mm]が好ましい。また、画像に映るハゼ嵌合部とドローン30との間の角度θは、40°~60°が好ましい。この場合には、数本(例えば、4本)程度のハゼ嵌合部を一枚の画像に収めることができる。その画像に写る4本程度のハゼ嵌合部の領域は適切な解像度であり、かつハゼ嵌合部の側面部分が写っているため、ハゼ嵌合部を検査するのに好適な画像が得られることになる。
ステップS104において、カメラ制御部46は、カメラ32に画像を撮像させる。そして、情報取得部42は、カメラ32によって撮像された画像を取得する。
ステップS106において、位置情報取得部48は、GPSセンサ38によって取得された位置情報を取得する。
ステップS108において、画像格納制御部50は、上記ステップS104で取得された画像に対して、上記ステップS106で取得された位置情報を付与する。
ステップS110において、画像格納制御部50は、上記ステップS108で生成された位置情報付きの画像を、サーバ60へ送信するように制御する。通信部52は、位置情報付きの画像情報をサーバ60へ送信する。
ステップS112において、飛行制御部44は、制御機器20から停止を表す制御信号を受信したか否かを判定する。停止を表す制御信号を受信した場合には、ステップS114へ進む。一方、停止を表す制御信号を受信していない場合には、ステップS100へ戻る。
ステップS114において、飛行制御部44は、ドローン30の飛行を停止するように駆動装置40を制御して、制御処理ルーチンを終了する。
次に、サーバ60の作用を説明する。ドローン30から画像が送信されると、サーバ60は図10に示す格納処理ルーチンを実行する。なお、サーバ60は、ドローン30から画像が送信される毎に格納処理ルーチンを実行する。
ステップS200において、サーバ60の通信部52は、位置情報付きの画像を受信する。
ステップS202において、サーバ60の画像処理部62は、上記ステップS200で取得された位置情報付きの画像を、画像記憶部64へ格納して、格納処理ルーチンを終了する。
画像記憶部64に複数の画像が格納されると、サーバ60は、それらの画像に写るハゼ嵌合部の合否を判定する処理を実行する。
まず、画像に写るハゼ嵌合部の合否を判定する前に、サーバ60は、学習済みモデルを生成する。サーバ60は、学習済みモデルを生成するために、図11に示す学習処理ルーチンを実行する。
ステップS210において、学習部70は、学習用データ記憶部68に格納された複数の学習用データを読み出す。
ステップS212において、学習部70は、上記ステップS210で読み出された複数の学習用データに基づいて、ハゼ嵌合部の画像から当該ハゼ嵌合部の合否情報を出力するためのモデルを機械学習させる。そして、学習部70は、ハゼ嵌合部の画像から当該ハゼ嵌合部の合否情報を出力する学習済みモデルを生成する。
ステップS214において、学習部70は、上記ステップS212で生成された学習済みモデルを、学習済みモデル記憶部72へ格納して、学習処理ルーチンを終了する。
次に、サーバ60は、画像記憶部64に格納された複数の画像の各々に写るハゼ嵌合部の合否を判定する。具体的には、サーバ60は、画像記憶部64に格納された複数の画像の各々について、図12に示す判定処理ルーチンを実行する。
ステップS220において、取得部74は、画像記憶部64に格納されている画像を読み出すことにより、建物の屋根が写る画像を取得する。
ステップS222において、抽出部76は、上記ステップS220で取得された画像から、複数のハゼ嵌合部を抽出する。
ステップS224において、合否情報取得部78は、学習済みモデル記憶部72に格納されている学習済みモデルを読み出す。
ステップS226において、合否情報取得部78は、上記ステップS22で抽出された複数のハゼ嵌合部の各々を、上記ステップS224で読み出された学習済みモデルへ入力して、複数のハゼ嵌合部の各々の合否情報を取得する。
ステップS228において、合否情報取得部78は、上記ステップS226で得られた合否情報の各々を結果として出力する。
表示装置(図示省略)は、合否情報取得部78から出力された結果を表示する。ユーザは、複数のハゼ嵌合部の合否情報を得て、どのハゼ嵌合部が合格でどのハゼ嵌合部が不合格であるのかを確認する。
以上詳細に説明したように、本実施形態では、建物の屋根が写る画像から、建物の屋根に略平行に設置された複数のハゼ嵌合部を抽出し、抽出された複数のハゼ嵌合部の各々を、ハゼ嵌合部の画像から該ハゼ嵌合部の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数のハゼ嵌合部の各々の合否情報を取得する。これにより、画像中に写る構造物に略平行に並んでいる複数のハゼ嵌合部の合否を、自動的かつ効率的に判定することができる。また、建物の溶接屋根とドローンとの間の距離が所定の範囲内であり、かつ所定の角度でハゼ嵌合部が撮像されるため、検査対象のハゼ嵌合部の側面が写った適切な解像度の画像を得ることができる。これらの適切な画像を用いて、複数のハゼ嵌合部の合否を適切かつ自動的に判定することができる。
また、1枚の画像に複数のハゼ嵌合部を収めることができるため、ハゼ嵌合部の合否の判定を効率的に実施することができる。また、複数のハゼ嵌合部の画像と共に、ハゼ嵌合部の位置情報を効率的に取得することができる。
<第2実施形態>
次に、第2実施形態を説明する。第2実施形態では、複数のハゼ嵌合部を撮像する際に、建物の屋根面にマーカを設置する。そして、そのマーカを含む画像を撮像し、画像中のマーカの位置に基づいて、画像中のハゼ嵌合部の位置を計算する。
第1実施形態においては、GPSセンサ38によって取得された位置情報を画像に付与する場合を例に説明したが、GPSセンサ38によって得られる位置情報の精度は低い場合がある。
そこで、第2実施形態においては、位置情報を計算するためのマーカを建物の屋根面に設置し、そのマーカを含む画像を撮像する。そして、画像内のマーカとハゼ嵌合部との間の位置関係に応じて、各画像のハゼ嵌合部の位置を計算する。そして、その位置情報と画像とを対応付けて、建物の屋根の図面データに付与する。これにより、ハゼ嵌合部の画像の台帳を得ることができ、画像の管理を容易に行うことができる。
図13に、第2実施形態を説明するための説明図を示す。図13に示されるように、第2実施形態では、マーカM1,M2を設置して、ハゼ嵌合部を含む画像を撮像する。これにより、後述する処理によって、画像に映るハゼ嵌合部と、建物の図面データとの対応付けを行うことができる。
以下、具体的に説明する。
<第2実施形態に係る画像撮像システムの構成>
図14は、第2実施形態に係る画像撮像システム210の構成の一例を示す図である。図14に示されるように、本実施形態の画像撮像システム210は、制御機器20と、ドローン30と、サーバ260とを備えている。
サーバ260は、図14に示されるように、画像処理部262と、画像記憶部64と、通信部66と、学習用データ記憶部68と、学習部70と、学習済みモデル記憶部72と、取得部74と、抽出部76と、合否情報取得部78と、数字認識モデル記憶部265と、図面データ記憶部266とを備えている。
本実施形態において、ドローン30のカメラ32によって撮像される画像には、ハゼ嵌合部とは異なるマーカが写っている。そこで、サーバ260の画像処理部262は、マーカとハゼ嵌合部との間の位置関係に応じて、複数のハゼ嵌合部の位置情報を取得する。
具体的には、まず、抽出部76は、画像記憶部64に記憶された画像を読み出す。次に、抽出部76は、第1実施形態と同様に、画像からハゼ嵌合部の領域を抽出する。
次に、画像処理部262は、複数のハゼ嵌合部の位置を計算するために、水平方向(Y方向)に、仮想的なグリッド線を引く。具体的には、画像処理部262は、図15に示されるような仮想的なグリッド線Lyを引く。
グリッド線Lyの引き方としては、ハゼ嵌合部の中心領域として設定された各点に基づいて、最小二乗法によって直線を引き、その直線から所定間隔離れた位置に、グリッド線Lyを引く。これにより、図15に示されるような、グリッド線Lyが引かれる。
次に、画像処理部262は、画像のうちのマーカM1,M2の領域を認識する。なお、図15に示されるように、マーカである巻き尺には、赤色の部分Rが含まれている。このため、画像処理部262は、マーカである巻き尺の赤色の部分Rを認識する。赤色の部分Rは、色処理によって認識される。そして、画像処理部262は、赤色の部分Rの領域を水平方向(Y方向)へ延長した領域P1,P2を、マーカM1,M2の領域であると認識する。
次に、画像処理部262は、マーカM1の各数字とマーカM2の各数字との対応付けを行う。具体的には、まず、画像処理部262は、数字認識モデル記憶部265に記憶された学習済みモデルを用いて、マーカM1,M2内の数字を認識する。
数字認識モデル記憶部265に記憶された学習済みモデルは、画像が入力されるとその画像に写る数字に関する情報を出力するようなモデルである。この学習済みモデルは、例えば、ニューラルネットワーク等によって実現される。学習済みモデルは、学習用の画像と当該画像に写る正解の数字を表す情報との組み合わせである学習用データに基づく機械学習によって得られる。
次に、画像処理部262は、マーカM1の目盛りを表す各数字とマーカM2の目盛りを表す各数字との間において、同一の数字を対応付け、グリッド線Lxを引く。これにより、図16に示されるように、X方向のグリッド線Lxと、Y方向のグリッド線Lyとが画像に引かれたことになる。
なお、マーカM1,M2の目盛りは、屋根面の位置を表すものでもある。例えば、マーカの目盛りと建物の屋根の図面上の位置とを予め対応付けておくことで、マーカ上の目盛りが、建物の屋根のどこに位置するのかを判別することができる。そこで、画像処理部262は、マーカM1,M2の目盛りの数字を読み取り、画像上の目盛りの位置を取得する。これにより、図17に示されるように、画像に写るハゼ嵌合部の位置情報が得られる。
次に、画像処理部262は、マーカM1,M2の目盛りの数字に応じた位置と、X方向のグリッド線LxとY方向のグリッド線Lyとに応じた各ハゼ嵌合部の位置を表す座標とに基づいて、ハゼ嵌合部の実際の位置を計算する。
そして、画像処理部262は、図面データ記憶部266に格納されている、屋根面の図面データの各位置に、ハゼ嵌合部の画像を付与する。これにより、屋根面の図面データにハゼ嵌合部の画像が付与された台帳が生成される。
次に、第2実施形態のサーバ260の作用を説明する。画像記憶部64に画像が記憶されると、サーバ60は、図18に示される画像処理ルーチンを実行する。
ステップS300において、抽出部76は、画像記憶部64に格納されている画像を読み出し、画像からハゼ嵌合部の領域を抽出する。
ステップS302において、画像処理部262は、上記ステップS300で抽出されたハゼ嵌合部の中心領域を表す各点に基づいて、それらの各点に沿う直線を最小二乗法によって求める。そして、画像処理部62は、最小二乗法よって求められた直線から所定間隔離れた位置にグリッド線Lyを引く。
ステップS303において、画像処理部262は、画像のうちのマーカM1,M2の領域を認識する。
ステップS304において、画像処理部262は、数字認識モデル記憶部265に記憶された学習済みモデルを用いて、上記ステップS303で認識されたマーカ内に存在する数字を認識する。
ステップS306において、画像処理部262は、マーカM1の目盛りを表す各数字とマーカM2の目盛りを表す各数字との間において、同一の数字を対応付ける。
ステップS307において、画像処理部262は、上記ステップS306における数字の対応付け結果に基づいて、グリッド線Lxを引く。
ステップS308において、画像処理部262は、上記ステップS304での数字の認識結果に基づいて、目盛りの位置を取得する。
ステップS310において、画像処理部262は、上記ステップS308で得られた目盛りの位置と、X方向のグリッド線LxとY方向のグリッド線Lyとに応じた各ハゼ嵌合部の位置を表す座標とに基づいて、ハゼ嵌合部の実際の位置を計算する。
ステップS312において、画像処理部262は、上記ステップS310での位置の算出結果に基づいて、図面データ記憶部266に格納されている、屋根面の図面データの各位置に、ハゼ嵌合部の画像を付与する。これにより、屋根面の図面データにハゼ嵌合部の画像が付与された台帳が生成される。
以上詳細に説明したように、第2実施形態では、ハゼ嵌合部とは異なるマーカが写っている画像から、マーカとハゼ嵌合部との間の位置関係に応じて、複数のハゼ嵌合部の位置情報を取得する。これにより、ハゼ嵌合部が建物の屋根上のどこに位置しているのかを特定することができ、ハゼ嵌合部が写る画像を適切に管理することができる。また、建物の屋根を表す図面データに対して、ハゼ嵌合部の画像を付与することにより、ハゼ嵌合部の画像を適切に管理することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記実施形態では、モデルの一例としてのニューラルネットワークモデルを機械学習させる場合を例に説明したが、これに限定されるものではない。例えば、ニューラルネットワークモデルとは異なる他のモデルを用いてもよい。例えば、サポートベクターマシーン等をモデルとして用いてもよい。
また、上記実施形態では、検査対象物が建物の屋根のハゼ嵌合部である場合を例に説明したが、これに限定されるものではなく、他の検査対象物であってもよい。
また、上記実施形態では、ドローン30内部のコンピュータによってドローン30の飛行が制御される場合を例に説明したが、制御機器20からの制御信号に応じて、ドローン30の飛行を制御するようにしてもよい。
また、上記実施形態では、ハゼ嵌合部の画像からハゼ嵌合部の合否情報を出力する学習済みモデルを用いる場合を例に説明したが、ハゼ嵌合部の画像から所定の特徴量を抽出して、その特徴量を学習済みモデルへ入力し合否情報を得るようにしてもよい。また、ハゼ嵌合部の画像からハゼ嵌合部の合否情報を得る際に、所定の画像強調処理をハゼ嵌合部の画像に施して、ハゼ嵌合部の特徴部分が強調されるようにしてもよい。
また、上記ではプログラムが記憶部(図示省略)に予め記憶(インストール)されている態様を説明したが、プログラムは、CD-ROM、DVD-ROM及びマイクロSDカード等の記録媒体の何れかに記録されている形態で提供することも可能である。
10 画像撮像システム
20 制御機器
22 制御部
24 通信部
30 ドローン
32 カメラ
34 赤外線センサ
36 コンピュータ
38 GPSセンサ
40 駆動装置
42 情報取得部
44 飛行制御部
46 カメラ制御部
48 位置情報取得部
50 画像格納制御部
52 通信部
60,260 サーバ
62,262 画像処理部
64 画像記憶部
66 通信部
68 学習用データ記憶部
70 学習部
72 学習済みモデル記憶部
74 取得部
76 抽出部
78 合否情報取得部
265 数字認識モデル記憶部
266 図面データ記憶部

Claims (6)

  1. 構造物が写る画像を取得する取得部と、
    前記取得部により取得された前記画像から、前記構造物に略平行に設置された複数の検査対象物を抽出する抽出部と、
    前記抽出部により抽出された複数の検査対象物の各々を、検査対象物から該検査対象物の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数の検査対象物の各々の合否情報を取得する合否情報取得部と、
    を含み、
    複数の前記検査対象物は、前記構造物の溶接屋根における複数のハゼ嵌合部である、
    画像検査装置。
  2. 構造物が写る画像を取得する取得部と、
    前記取得部により取得された前記画像から、前記構造物に略平行に設置された複数の検査対象物を抽出する抽出部と、
    前記抽出部により抽出された複数の検査対象物の各々を、検査対象物から該検査対象物の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数の検査対象物の各々の合否情報を取得する合否情報取得部と、
    を含み、
    前記画像は、無人航空機に備えられたカメラによって撮像された画像である、
    画像検査装置。
  3. 前記抽出部は、前記画像の特定位置の垂直方向に並ぶ画素の輝度ヒストグラムを抽出し、該輝度ヒストグラムの輝度変化に応じて、複数の検査対象物を抽出する、
    請求項1又は2に記載の画像検査装置。
  4. 前記画像には、前記検査対象物とは異なるマーカが写っており、
    前記マーカと前記検査対象物との間の位置関係に応じて、複数の検査対象物の位置情報を取得する位置情報取得部を更に含む、
    請求項1~請求項3の何れか1項に記載の画像検査装置。
  5. 構造物が写る画像を取得し、
    取得された前記画像から、前記構造物に略平行に設置された前記構造物の溶接屋根における複数のハゼ嵌合部である複数の検査対象物を抽出し、
    抽出された複数の検査対象物の各々を、検査対象物から該検査対象物の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数の検査対象物の各々の合否情報を取得する、
    処理をコンピュータに実行させるための画像検査プログラム。
  6. 構造物が写る画像であって、無人航空機に備えられたカメラによって撮像された画像を取得し、
    取得された前記画像から、前記構造物に略平行に設置された複数の検査対象物を抽出し、
    抽出された複数の検査対象物の各々を、検査対象物から該検査対象物の合否情報を出力するための予め学習された学習済みモデルへ入力して、複数の検査対象物の各々の合否情報を取得する、
    処理をコンピュータに実行させるための画像検査プログラム。
JP2019131391A 2019-07-16 2019-07-16 画像検査装置及び画像検査プログラム Active JP7331311B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019131391A JP7331311B2 (ja) 2019-07-16 2019-07-16 画像検査装置及び画像検査プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019131391A JP7331311B2 (ja) 2019-07-16 2019-07-16 画像検査装置及び画像検査プログラム

Publications (2)

Publication Number Publication Date
JP2021015101A JP2021015101A (ja) 2021-02-12
JP7331311B2 true JP7331311B2 (ja) 2023-08-23

Family

ID=74530491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131391A Active JP7331311B2 (ja) 2019-07-16 2019-07-16 画像検査装置及び画像検査プログラム

Country Status (1)

Country Link
JP (1) JP7331311B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022187282A (ja) * 2021-06-07 2022-12-19 日本電気硝子株式会社 検査装置、検査方法、ガラス板の製造方法、および検査プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005156396A (ja) 2003-11-27 2005-06-16 Yokogawa Electric Corp 欠陥検査装置
JP2007212283A (ja) 2006-02-09 2007-08-23 Mitsubishi Nuclear Fuel Co Ltd 外観検査装置及び外観検査方法
JP2011095226A (ja) 2009-11-02 2011-05-12 Saki Corp:Kk 被検査体の検査装置、及び電子基板の位置補正装置
WO2012160611A1 (ja) 2011-05-26 2012-11-29 富士通テレコムネットワークス株式会社 位置検出装置およびそれを搭載した外観検査装置
JP2015021759A (ja) 2013-07-16 2015-02-02 株式会社キーエンス 三次元画像処理装置、三次元画像処理装置用ヘッド部及び三次元画像処理方法
JP2018074757A (ja) 2016-10-28 2018-05-10 株式会社東芝 巡視点検システム、情報処理装置、巡視点検制御プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005156396A (ja) 2003-11-27 2005-06-16 Yokogawa Electric Corp 欠陥検査装置
JP2007212283A (ja) 2006-02-09 2007-08-23 Mitsubishi Nuclear Fuel Co Ltd 外観検査装置及び外観検査方法
JP2011095226A (ja) 2009-11-02 2011-05-12 Saki Corp:Kk 被検査体の検査装置、及び電子基板の位置補正装置
WO2012160611A1 (ja) 2011-05-26 2012-11-29 富士通テレコムネットワークス株式会社 位置検出装置およびそれを搭載した外観検査装置
JP2015021759A (ja) 2013-07-16 2015-02-02 株式会社キーエンス 三次元画像処理装置、三次元画像処理装置用ヘッド部及び三次元画像処理方法
JP2018074757A (ja) 2016-10-28 2018-05-10 株式会社東芝 巡視点検システム、情報処理装置、巡視点検制御プログラム

Also Published As

Publication number Publication date
JP2021015101A (ja) 2021-02-12

Similar Documents

Publication Publication Date Title
US11494891B2 (en) Method of inspecting and evaluating coating state of steel structure and system therefor
US11915408B2 (en) Methods of artificial intelligence-assisted infrastructure assessment using mixed reality systems
KR101926561B1 (ko) 블랙박스 영상을 이용한 딥러닝 기반의 패치 단위 도로 크랙 검출 장치 및 그 방법, 그리고 이 방법을 실행시키기 위해 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램
KR102122893B1 (ko) Uav 탑재용 하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 시스템 및 그 방법
US20220415020A1 (en) System and method for detection of anomalies in welded structures
US20230298327A1 (en) Information processing device, determination method, and information processing program
CN111178295A (zh) 车位检测和模型训练方法、装置、车辆、设备及存储介质
EP4063279B1 (en) Automated assessment of aircraft structure damage
CN117492026B (zh) 结合激光雷达扫描的铁路货车装载状态检测方法及系统
CN109829883A (zh) 产品质量检测方法及装置
CN115096268B (zh) 基于无人机航拍及超声波探测的桥梁损伤深度检测方法
Dadrasjavan et al. Automatic crack detection of road pavement based on aerial UAV imagery
JP7331311B2 (ja) 画像検査装置及び画像検査プログラム
CN115131518B (zh) 用于建筑幕墙毫米波近场成像透视检测的三维展示方法
Gong et al. Bringing machine intelligence to welding visual inspection: development of low-cost portable embedded device for welding quality control
CN113554645A (zh) 基于wgan的工业异常检测方法和装置
JP7314466B2 (ja) 無人航空機、画像撮像システム、及びプログラム
CN117456627A (zh) 一种基于无人机输电线路红外巡检的自动识别方法
CN117830224A (zh) 一种桥梁裂缝病害诊断方法及系统
CN117036942A (zh) 隧道病害识别方法、装置、电子设备及可读存储介质
US11748876B2 (en) Joint surface safety evaluation apparatus
CN116297472A (zh) 一种基于深度学习的无人机桥梁裂缝检测方法及系统
CN118864449B (zh) 一种基于机器视觉的储能箱体焊缝外观检测方法及系统
Shah et al. Structural surface assessment of ship structures intended for robotic inspection applications
Besharatian et al. Non-Contact Bridge Deck Evaluation Using Infrared Thermography, A Pipeline for Data Annotation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230718

R150 Certificate of patent or registration of utility model

Ref document number: 7331311

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150