JP7565313B2 - 情報処理装置、方法およびプログラム - Google Patents

情報処理装置、方法およびプログラム Download PDF

Info

Publication number
JP7565313B2
JP7565313B2 JP2022053262A JP2022053262A JP7565313B2 JP 7565313 B2 JP7565313 B2 JP 7565313B2 JP 2022053262 A JP2022053262 A JP 2022053262A JP 2022053262 A JP2022053262 A JP 2022053262A JP 7565313 B2 JP7565313 B2 JP 7565313B2
Authority
JP
Japan
Prior art keywords
image
magnitude
motion
captured
image elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022053262A
Other languages
English (en)
Other versions
JP2023146194A (ja
Inventor
メナンヅロ ローハス
満 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2022053262A priority Critical patent/JP7565313B2/ja
Priority to EP23158971.4A priority patent/EP4276758A1/en
Priority to US18/176,076 priority patent/US12518399B2/en
Publication of JP2023146194A publication Critical patent/JP2023146194A/ja
Application granted granted Critical
Publication of JP7565313B2 publication Critical patent/JP7565313B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本開示は、画像処理技術に関する。
従来、各撮影画像のなかで所定の速度ベクトルを含む部分を撮影対象の一部として抽出する対象抽出部と、各撮影画像の相対位置を算出する相対位置算出部と、相対位置に基づいて各撮影画像を配列して撮影範囲よりも広い範囲を含む広域画像を作成する作成部とを備えることで、カメラの撮影範囲よりも広い撮影対象のパノラマ画像を取得可能な画像処理装置が提案されている(特許文献1を参照)。
特開2020-182048号公報
従来、撮像対象の所定の部分(例えば、撮像位置から見て最も手前にある構造等。)が撮像された画像要素を撮像画像から抽出するための技術が種々提案されている。しかし、機械学習等を用いて抽出する場合には抽出精度に課題があり、また、精度を向上させたい場合には撮像対象の三次元形状を検知するための追加のセンサー(例えば、ToF(Time of Flight)センサー等。)を要する等、撮像対象の所定の部分が撮像された画像要素を撮像画像から抽出する際の精度向上には課題が残されている。
本開示は、上記した問題に鑑み、撮像対象中の所定の部分が撮像された画像要素を撮像画像から抽出する際の精度を高めることを課題とする。
本開示の一例は、撮像対象と撮像位置との位置関係を変化させながら撮像することで得られた複数の撮像画像に基づいて、撮像画像を構成する複数の画像要素の夫々について撮像対象の画像内での動きの大きさを取得する動き取得手段と、前記複数の画像要素の動きの大きさの分布を示すヒストグラムの対象としない画像要素を、該画像要素の動きの大きさに基づいて除外するための閾値を決定する閾値決定手段と、前記複数の画像要素のうち、前記閾値を超える動きの大きさに係る画像要素を除いた画像要素について、前記ヒストグラムを作成するヒストグラム作成手段と、前記ヒストグラムを参照して、前記撮像対象のうち前記撮像位置から所定の距離の範囲内にある所定の部分が撮像された画像要素に対応する動きの大きさの範囲を推定する範囲推定手段と、推定された前記動きの大きさの範囲に属する前記画像要素を特定することで、前記撮像画像を構成する前記複数の画像要素のうち前記所定の部分が撮像された画像要素を特定する画像要素特定手段と、を備える情報処理装置である。
本開示は、情報処理装置、システム、コンピュータによって実行される方法又はコンピュータに実行させるプログラムとして把握することが可能である。また、本開示は、そのようなプログラムをコンピュータその他の装置、機械等が読み取り可能な記録媒体に記録したものとしても把握できる。ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的又は化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。
本開示によれば、撮像対象中の所定の部分が撮像された画像要素を撮像画像から抽出する際の精度を高めることが可能となる。
実施形態に係るシステムの構成を示す概略図である。 実施形態に係る情報処理装置の機能構成の概略を示す図である。 実施形態において構造物を撮像する際の飛行パターンを示す概略図である。 実施形態において、画素をmagnitudeの昇順に並べたグラフを示す図である。 実施形態において作成される、撮像画像中のmagnitudeの分布を示すヒストグラムの例を示す図である。 実施形態におけるユニット推定の概要を示す図(A)である。 実施形態におけるユニット推定の概要を示す図(B)である。 実施形態において、構造物画像から検出された部材がクラスタリングされた様子を示す図である。 実施形態において、設計データから検出された部材がクラスタリングされた様子を示す図である。 実施形態に係るパノラマ画像生成処理の流れを示すフローチャートである。 実施形態に係る検査処理の流れを示すフローチャートである。
以下、本開示に係る情報処理装置、方法およびプログラムの実施の形態を、図面に基づいて説明する。但し、以下に説明する実施の形態は、実施形態を例示するものであって、本開示に係る情報処理装置、方法およびプログラムを以下に説明する具体的構成に限定するものではない。実施にあたっては、実施の態様に応じた具体的構成が適宜採用され、また、種々の改良や変形が行われてよい。
本実施形態では、本開示に係る技術を、鉄塔等の構造物の監視や点検のために実施した場合の実施の形態について説明する。但し、本開示に係る技術は、対象が撮像された画像の処理のために広く用いることが可能であり、本開示の適用対象は、実施形態において示した例に限定されない。
従来、通信網のための基地局としての利用用途が見込まれる鉄塔等の構造物の監視や点検は目視により行われることが一般的であったが、近年、このような構造物の点検にかかるデジタルトランスフォーメーション(DX)が推進され、これまでの目視による監視や点検をドローン等の飛翔体による監視や点検に置き換えるための技術が種々提案されている。例として、構造物の撮像処理および画像解析を駆使した点検技術が提案されており、当該点検技術には、構造物の点検にかかる人手による業務の手間や負担を軽減する効果が期待されるとともに、構造物中の単位構造や部材の夫々の識別および異常検出の簡便な実現が期待される。しかし、従来提案されている技術では、種々の課題があった。
例えば、従来、構造物を対象とした監視や点検を撮像画像に基づいて行うために、構造物中の所定の部分(例えば、撮像位置から見て最も手前にある構造等。)が撮像された画像要素を撮像画像から抽出するための技術が種々提案されている。しかし、機械学習等を用いて抽出する場合には抽出精度に課題があり、また、精度を向上させたい場合には構造物の三次元形状を検知するための追加のセンサー(例えば、ToF(Time of Flight)センサー等。)を要する等、撮像対象の所定の部分が撮像された画像要素を撮像画像から抽出する際の精度向上には課題が残されている。
また、本実施形態では、鉄塔等の長大な構造物を対象とした監視や点検を行うために、ドローン等の飛翔体を用いて撮像された構造物の撮像画像群を合成し、構造物全体を呈する1枚のパノラマ画像を生成する画像処理技術を採用する。しかし、従来提案されている技術では、撮像手段であるドローン等の飛翔体が突風等の偶発的な事象の影響を受けて飛翔体自体の速度ベクトルが変化してしまう可能性があり、このような偶発的な事象が発生した場合、各撮像画像の相対位置の特定が困難になり、ひいては好適なパノラマ画像の生成が困難となる可能性がある。
加えて、鉄塔等の長大な構造物を対象とした監視や点検を行う場合、構造物の撮像画像が構造物のどの位置に相当するものかを把握する必要がある。また、鉄塔等の構造物が数多の部材で構成されることに鑑みると、構造物の一部に対応するに過ぎない任意の1枚の撮像画像が何れの箇所を示すかを把握する必要がある。しかし、従来提案されている技術では、構造物の撮像画像において構造物を構成する単位構造や部材を網羅的に認識するという点で改善の余地があった。
上記した問題に鑑み、本実施形態に係る情報処理装置、方法およびプログラムは、上記した問題に鑑み、構造物中の所定の部分が撮像された画像要素を撮像画像から抽出する際の精度を高めること、構造物の撮像において偶発的な事象の影響を受けた場合にも好適なパノラマ画像を生成すること、及び構造物が撮像された画像において構造物を構成する単位構造や部材を網羅的に認識するための新規な技術を提供すること、等を可能とする。
<システムの構成>
図1は、本実施形態に係るシステムの構成を示す概略図である。本実施形態に係るシステムは、ネットワークに接続されることで互いに通信可能な情報処理装置1と、ドローン8と、ユーザ端末9とを備える。
情報処理装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、EEPROM(Electrically Erasable and Programmable Read Only Memory)やHDD(Hard Disk Drive)等の記憶装置14、NIC(Network Interface Card)等の通信ユニット15、等を備えるコンピュータである。但し、情報処理装置1の具体的なハードウェア構成に関しては、実施の態様に応じて適宜省略や置換、追加が可能である。また、情報処理装置1は、単一の筐体からなる装置に限定されない。情報処理装置1は、所謂クラウドや分散コンピューティングの技術等を用いた、複数の装置によって実現されてよい。
ドローン8は、外部からの入力信号及び/又は装置に記録されたプログラムに応じて飛行が制御される小型の無人航空機であり、プロペラ、モーター、CPU、ROM、RAM、記憶装置、通信ユニット、入力装置、出力装置等(図示は省略する)を備える。但し、ドローン8の具体的なハードウェア構成に関しては、実施の態様に応じて適宜省略や置換、追加が可能である。また、本実施形態にかかるドローン8は、撮像装置81を備えており、対象の構造物周辺を飛行する際に、外部からの入力信号及び/又は装置に記録されたプログラムに応じて構造物の撮像を行う。
ユーザ端末9は、ユーザによって使用される端末装置である。ユーザ端末9は、CPU、ROM、RAM、記憶装置、通信ユニット、入力装置、出力装置等(図示は省略する)を備えるコンピュータである。但し、ユーザ端末9の具体的なハードウェア構成に関しては、実施の態様に応じて適宜省略や置換、追加が可能である。また、ユーザ端末9は、単一の筐体からなる装置に限定されない。ユーザ端末9は、所謂クラウドや分散コンピューティングの技術等を用いた、複数の装置によって実現されてよい。ユーザは、これらのユーザ端末9を介して、本実施形態に係るシステムによって提供される各種サービスを利用する。
図2は、本実施形態に係る情報処理装置の機能構成の概略を示す図である。情報処理装置1は、記憶装置14に記録されているプログラムが、RAM13に読み出され、CPU11によって実行されて、情報処理装置1に備えられた各ハードウェアが制御されることで、撮像画像取得部21、動き取得部22、閾値決定部23、ヒストグラム作成部24、範囲推定部25、画像要素特定部26、画像連結部27、特徴検出部28、単位構造推定部29、部材検出部30、クラスタ作成部31、クラスタ対応付け部32、部材対応付け部33、位置合わせ部34及び施工状態判定部35を備える情報処理装置として機能する。なお、本実施形態及び後述する他の実施形態では、情報処理装置1の備える各機能は、汎用プロセッサであるCPU11によって実行されるが、これらの機能の一部又は全部は、1又は複数の専用プロセッサによって実行されてもよい。
撮像画像取得部21は、複数の撮像画像を取得する。ここで、撮像画像の取得方法は限定されないが、本実施形態では、撮像装置81が搭載されたドローン8を用いて撮像された撮像画像を、ユーザ端末9を介して取得する例について説明する。また、撮像画像は、動画から切り出された複数の静止画であってもよいし、連続撮像された複数の静止画であってもよい。なお、本実施形態において取得される複数の撮像画像は、撮像対象である構造物(例えば、鉄塔)のうち所定の部分(本実施形態では、構造物の1つの側面)に対峙して撮像中に略一定の距離及び略一定の速度を保ちながら略垂直飛行する飛翔体に設けられた撮像装置によって撮像対象と撮像位置との位置関係を変化させながら撮像することによって得られた撮像画像であり、撮像画像中には、構造物に含まれる複数の単位構造及び複数の所定の部材が同時に撮像されている。
図3は、本実施形態において構造物を撮像する際の飛行パターンを示す概略図である。構造物が鉄塔である場合を例に挙げて説明すると、本実施形態において、作業者は、ドローンに搭載された撮像装置が鉄塔の検査対象の側面に向けられた状態で、ドローンを鉄塔の下から上に向けて略垂直飛行させながら動画を撮像することで、鉄塔の検査対象の側面全体が下から上に向かって順に撮像された動画を得る。このようにすることで、構造物に含まれる複数の単位構造(本実施形態では、鉄塔を構成する鉄筋等のバーがX状に交叉するユニット)及び複数の所定の部材(本実施形態では、締結材)のうち、検査対象の側面から捉えられるものが全て撮像された動画を得ることが出来る。なお、ドローンの飛行パターンは本実施形態において例示された略垂直飛行に限定されず、構造物の形状に応じて適宜設定されてよい。
動き取得部22は、複数の撮像画像に基づいて、撮像画像を構成する複数の画像要素の夫々について撮像対象の画像内での動きを示すベクトル(所謂オプティカルフロー)を取得する。ここで取得されるオプティカルフローには、画像要素毎にオプティカルフローの大きさを示すパラメータ(以下、「magnitude」と称する。)が含まれる。ここで、画像要素は、撮像画像に含まれる画素、撮像画像中において撮像対象が撮像された画素の集合、又は撮像画像中において特定された撮像対象を示す特徴点等であってよいが、本実施形態では、画像要素として撮像画像に含まれる画素を用いる例について説明する。動き取得部22は、より具体的には、撮像画像取得部21によって取得された動画を構成する複数の撮像画像(例えば、動画を構成する複数のフレーム)に基づいて時系列上で前後する画像同士を比較することで、撮像画像を構成する複数の画像要素の夫々についてオプティカルフローを取得する。なお、本実施形態では、画素全体の動きを解析するdense型のオプティカルフロー解析を用いる例について説明するが、オプティカルフロー解析のための具体的な手法は限定されない。
閾値決定部23は、複数の画像要素のmagnitudeの分布を示すヒストグラムの対象としない画像要素を、該画像要素のmagnitudeに基づいて除外するための閾値を決定する。例えば、閾値決定部23は、複数の撮像画像のうち少なくとも連続して撮像される一連の画像群に含まれる画像要素をmagnitudeの昇順/降順に並べ、当該並びにおいてmagnitudeの変化が所定の基準を超える箇所を特定し、当該箇所に対応するmagnitudeを閾値として決定してよい。
図4は、本実施形態において、画素をmagnitudeの昇順に並べたグラフを示す図である。本図では、横軸に画素がmagnitudeの昇順に並び、縦軸が各画素のmagnitudeを示している。閾値決定部23は、画素をmagnitudeの昇順に並べたグラフを作成し、当該グラフに基づいて、magnitudeの変化が所定の基準を超える「急勾配」箇所を特定する。「急勾配」箇所を特定するための具体的な手法は限定されないが、例えば、閾値決定部23は、グラフ上のmagnitudeを繋いだ線グラフの接線の勾配(傾き)を算出して勾配が所定の閾値を超える箇所を特定する方法や、グラフ上で隣り合うか又は近接する画素間のmagnitudeの差分や比が所定の閾値を超える箇所を特定する方法等を用いることで、magnitudeの変化が所定の基準を超える「急勾配」箇所を特定することが出来る。なお、図4では、画素をmagnitudeの昇順に並べる例を示したが、magnitudeは降順に並べられてもよい。
そして、閾値決定部23は、当該グラフに配置された全画素の数に対する、特定された箇所のmagnitude以下(又は、未満)のmagnitudeを有する画素の数の割合、又は当該グラフに配置された全画素の数に対する、特定された箇所のmagnitudeよりも大きい(又は、以上の)magnitudeを有する画素の数の割合(即ち、図4のグラフにおいて急勾配が特定された箇所を境として左右いずれかに属する画素数の割合)を、閾値を特定するための割合として決定する。より具体的には、本実施形態では、当該グラフに配置された全画素の数に対する、特定された箇所のmagnitude以下のmagnitudeを有する画素の数の割合を、閾値を特定するためのpercentileとして決定する。そして、閾値決定部23は、複数の撮像画像の夫々について、当該percentileに対応するmagnitudeを求め、求められたmagnitudeを、各撮像画像におけるヒストグラム作成のための閾値として決定する。
このようにしてpercentileを介してmagnitudeの閾値を決定することで、ドローンを用いて撮像された画像群における画像毎に異なり多種多様なピクセルの動きに対応可能な、相対的な度合いとしてのpercentileに基づいて閾値を決定することが出来る。但し、percentileを介してmagnitudeの閾値を決定する方法に代えて、特定された箇所に相当するmagnitudeを直接magnitudeの閾値として決定する方法や、予め設定された値を閾値として採用することでステップS103を省略する方法、画像毎に急激にmagnitudeが上昇するような画素を特定し当該画素に基づいて閾値を設定する方法、等が採用されてもよい。
ヒストグラム作成部24は、複数の画像要素のうち、閾値決定部23によって決定された閾値を超えるmagnitudeに係る画像要素を除いた画像要素(換言すれば、閾値以下のmagnitudeに係る画像要素)について、複数の画像要素のmagnitudeの分布を示すヒストグラムを作成する。より具体的には、ヒストグラム作成部24は、複数の撮像画像の夫々について、閾値決定部23によって決定された閾値以下のmagnitudeを有する画像要素を、予め所定の幅に決定されたmagnitudeの区間(ビン)に振り分け、ビン毎の画像要素数を算出することで、複数の画像要素のmagnitudeの分布を示すヒストグラムを作成する。このようにすることで、ノイズ等の不要な画素を除いてヒストグラムを作成することが可能となり、後述する範囲推定部25による範囲推定の精度を向上させることが可能となる。
範囲推定部25は、ヒストグラムを参照して、撮像対象のうち撮像位置から所定の距離の範囲内にある所定の部分が撮像された画像要素に対応するmagnitudeの範囲を推定する。本実施形態では、所定の部分として、撮像対象である構造物のうち最も手前にある構造(以下、「前景」と称する)が特定される。
図5は、本実施形態において作成される、撮像画像中のmagnitudeの分布を示すヒストグラムの例を示す図である。本実施形態において、範囲推定部25は、ヒストグラム中の、分布が集中しているビンを特定し、特定されたビンに基づいて、前景に係るmagnitudeの範囲を推定する。ここで推定されるmagnitudeの範囲は、特定されたビンの区間と同一であってもよいし、異なっていてもよい。例えば、範囲推定部25は、特定されたビンを中心としてその前後所定の範囲を、所定の部分が撮像された画像要素に対応するmagnitudeの範囲として推定することが出来る。この範囲の広さは、撮像画像の精度や、撮像の際の撮像装置81と構造物との間の距離等に基づいて決定されてよい。
画像要素特定部26は、推定されたmagnitudeの範囲に属する画像要素を特定することで、撮像画像を構成する複数の画像要素のうち所定の部分(本実施形態では、構造物のうち最も手前にある構造である前景)が撮像された画像要素を特定する。
画像連結部27は、複数の撮像画像を、当該複数の撮像画像の夫々に含まれる画像要素特定部26によって特定された画像要素が整合するように繋げることで、1の撮像位置から同時に撮像可能な範囲よりも広い範囲が撮像された連結画像(例えば、パノラマ画像等)を得る。具体的には、例えば、画像連結部27は、連続して撮像された複数の撮像画像の夫々において共通して検出された特徴点をマッチングさせ各画像を連結することで連結画像を得る。この際、画像連結部27は、画像要素特定部26によって特定された画像要素(即ち、前景等の所定の部分に係る画像要素)に係る特徴点をマッチングさせ各画像を連結することで、撮像画像のうち所定の部分(本実施形態では、前景)が整合するように連結された連結画像を得ることが出来る。なお、特徴点の検出/抽出については従来技術であるため詳述を省略するが、例えばOpenCVの標準的なモジュール(feature2d)を用いることで、特徴点を検出/抽出することが出来る。
また、画像連結に際して、画像連結部27は、複数の撮像画像(動画中のフレーム)に基づいて撮像画像群のホモグラフィ行列(透視変換行列)を算出し、算出されたホモグラフィ行列を用いて複数の撮像画像を1の連結画像上に変換することで、連結画像を得ることとしてもよい。より具体的には、本実施形態において、画像連結部27は、画像要素特定部26によって特定された前景に係る画像要素に係る特徴点を複数の撮像画像間でマッチングさせることで、これらの複数の撮像画像に係るホモグラフィ行列を算出する。そして、画像連結部27は、これらの複数の撮像画像中の前景に係る平面が1の連結画像上で一致するように、当該ホモグラフィ行列を用いて複数の撮像画像を変換し、これを1の連結画像上に配置することで、全体として前景が1の平面に配置された連結画像を得る。なお、画像連結部27は、撮影画像群において算出されるホモグラフィ行列を、撮影対象である構造物の中心を示す撮影画像をリファレンスとして算出してよく、ここで、構造物の中心を示す画像は、撮像画像の撮像のタイミングに応じて決定されてよく、例えばn枚の撮像画像群のうちのn/2枚目の撮像画像である。また、画像連結部27は、撮影画像群において算出されるホモグラフィ行列を、特定された構造物の単位構造(ユニット)の中心を示す撮像画像をリファレンスとして算出してもよい。
特徴検出部28は、各々が同一又は類似の外見的構造を有する複数の単位構造(以下、「ユニット」と称する。)を含む構造物を撮像装置によって撮像することで得られた構造物画像から、複数のユニット間で略共通する外見的構造に係る特徴を検出する。本実施形態では、構造物画像として、画像連結部27によって得られた連結画像が用いられる。但し、検査処理において処理対象となる構造物画像は、画像連結部27によって得られた連結画像に限定されず、その他の方法によって取得された構造物画像であってよい。また、本実施形態では、外見的構造として、構造物を構成する鉄筋等のバーが対角線状(X状)に交叉する構造が用いられ、外見的構造に係る特徴として、画像認識によって検出されたエッジ又は線分が対角線状に交叉する箇所(直線の交点やエッジ)に基づいて得られた特徴が用いられる。
また、本実施形態において、特徴検出部28は、検査対象の構造物の検査対象側面が撮像された構造物画像のうち画像要素特定部26によって特定された所定の部分(本実施形態では、画像要素特定部26によって特定された前景)が撮像された画像要素に基づいて、当該構造物画像から、構造物画像中のエッジ又は線分を検出し、検出されたエッジ又は線分を参照して、外見的構造に係る特徴を検出する。より具体的には、特徴検出部28は、構造物画像中の直線を検出し、画像要素特定部26によって特定された所定の部分に係る画像要素のみを抽出するフィルタリング(マスク)によって当該所定の部分に含まれる直線を抽出し、対角線状に延伸する部材の交点を検出することで、鉄塔を構成する鉄筋等のバーが対角線状(X状)に交叉する外見的構造に係る特徴を検出する。
単位構造推定部29は、特徴検出部28によって検出された複数の特徴の夫々について、当該特徴を含む所定の範囲を、構造物画像中の、当該構造物に含まれる複数のユニットの夫々に係る部分として推定する。
図6及び図7は、本実施形態におけるユニット推定の概要を示す図である。本実施形態における対象の構造物は鉄塔であり、夫々が鉄筋等のバーが対角線状(X状)に交叉する外見的構造を有するユニットが鉛直方向に並んだ構造の構造物である。このような構造物について単位構造を推定する方法の一例を、図6及び図7を参照して説明する。はじめに、単位構造推定部29は、特徴検出部28によって検出された複数の特徴点に基づいて、特徴点の数を鉛直方向にカウントしたグラフ(鉛直方向における特徴点の密度を示すグラフ。図6を参照。)を作成し、特徴点の密度が高い画素列の範囲を特定することで、鉄塔の中心領域(ユニットの中央が通る領域)を特定する。次に、単位構造推定部29は、特徴検出部28によって特定された複数の特徴点のうち鉄塔の中心領域における複数の特徴点に基づいて、水平方向に特徴点をカウントしたグラフ(水平方向における特徴点の密度を示すグラフ。図7を参照。)を作成し、特徴点の密度が高い画素行の範囲を複数特定することで、各ユニットの中心(ユニットを構成するバーがX状に交叉する位置。)を特定する。
各ユニットの中心が特定されると、単位構造推定部29は、特定されたユニットの中心を含む各ユニットの領域を特定する。各ユニットの領域を特定する際の、領域の終端についても、ユニットの中心と同様の方法で特定可能である。即ち、単位構造推定部29は、特徴検出部28によって検出された複数の特徴点に基づいて作成された、特徴点の数を鉛直方向にカウントしたグラフ(鉛直方向における特徴点の密度を示すグラフ。図6を参照。)を参照し、特徴点の密度が高い画素列の範囲のうちユニットの中心に係る範囲を除くものを、ユニットの左右の終端領域として特定する。そして、単位構造推定部29は、特徴検出部28によって特定された複数の特徴点のうちユニットの左右の終端領域における複数の特徴点に基づいて作成された、水平方向に特徴点をカウントしたグラフ(水平方向における特徴点の密度を示すグラフ。図7を参照。)を参照し、特徴点の密度が高い画素行の範囲を複数特定することで、各ユニットの終端を特定する。
各ユニットの領域(所定の範囲)が特定されると、単位構造推定部29は、特定された各ユニットに、ユニットを一意に識別するためのラベルを付す。ラベルの付し方は限定されないが、例えば数値及び/又は文字からなるラベルを最上部のユニットから最下部のユニットに向けて昇順に割り当てることで付されてよい。
部材検出部30は、構造物画像から、ユニットに含まれる複数の所定の部材(例えば、ボルト、ナット及びワッシャ等の、ネジ締結のための締結材)を検出する。本実施形態において、部材検出部30は、構造物画像中に撮像された所定の部材を予め深層学習等させることで作成された機械学習モデルを用いて、ユニットに含まれる複数の所定の部材を検出する。但し、部材検出部30が構造物画像から所定の部材を検出する具体的な方法は限定されない。例えば、部材検出部30は、予め用意された所定の部材の画像と構造物画像とをマッチングさせる方法や、特徴検出によって予め用意された所定の部材特有のパターンを検出する方法等によっても、ユニットに含まれる複数の所定の部材を検出することが出来る。
クラスタ作成部31は、検出された複数の部材を、部材同士の距離に基づいてクラスタリングすることで、密集して施工された部材のクラスタを複数作成する。本実施形態において、クラスタ作成部31は、DBScan等の密度準拠クラスタリングを用いて、部材のクラスタリングを行う。但し、部材のクラスタリングを行う具体的な方法は限定されず、その他のクラスタリング手法が採用されてもよい。
図8は、本実施形態において、構造物画像から検出された部材がクラスタリングされた様子を示す図である。図8の左側に示された構造物画像から、締結材等の所定の部材が検出され、検出された部材がそれらの位置に基づいてクラスタリングされた様子が、図8の右側に示されている。ここで、破線丸が、夫々のクラスタを示す。
クラスタ対応付け部32は、複数のクラスタの夫々の位置と、予め準備された当該構造物の設計データに示されている部材の複数のクラスタの夫々の位置とを比較することで、構造物画像中のクラスタと設計データ中のクラスタとを対応付ける。本実施形態では、クラスタの位置として、クラスタの中心(より具体的には、例えば、重心や、外接矩形の中心。)が用いられる。このため、クラスタ対応付け部32は、クラスタ作成部31によって作成されたクラスタの中心を計算し、設計データに示されている部材のクラスタの中心を計算して、中心位置同士を比較し、一致又は近似するクラスタを対応付ける。この際、設計データに示されている部材のクラスタについても、上記したクラスタ作成部31によって作成されてよい。
図9は、本実施形態において、設計データから検出された部材がクラスタリングされた様子を示す図である。図9の左側に示された設計データから、締結材等の所定の部材が検出され、検出された部材がそれらの位置に基づいてクラスタリングされた様子が、図9の右側に示されている。ここで、破線丸が、夫々のクラスタを示す。なお、本実施形態では、構造物の設計データとして設計画像を用いる例を示して説明しているが、構造物の設計データは、画像に限定されない。締結材の相対的な位置関係を把握可能なデータであれば、構造物の設計データとして用いることができる。
部材対応付け部33は、構造体画像におけるクラスタに属する部材の位置と、クラスタ対応付け部32で当該クラスタに対応付けられた設計データにおけるクラスタに属する部材の位置とを比較することで、構造物画像中の部材と設計データに示された部材とを対応付ける。対応付けの具体的な方法には、クラスタ対応付け部32によるクラスタの対応付けと同様の方法が採用されてよい。部材対応付け部33は、対応付けられた構造物画像におけるクラスタと設計データにおけるクラスタとの間で、クラスタに属する部材同士の位置を比較し、一致又は近似する部材を対応付ける。
位置合わせ部34は、部材対応付け部33による構造物画像中の部材と設計データに示された部材との対応付け結果に基づいて、構造物画像と設計データとの位置合わせを行う。具体的には、位置合わせ部34は、部材対応付け部33によって対応付けられた構造物画像における部材の位置と設計データにおける部材の位置とが一致(又は、可能な限り近接)するように構造物画像を変形することで、構造物画像と設計データとの位置合わせを行う。
施工状態判定部35は、撮像画像に含まれる締結部等の部材の画像に基づいて、部材の施工状態を判定する。ここで、具体的な判定方法は実施の形態に応じて適宜採用可能であり、限定されないため、詳細な説明を省略する。例を挙げると、施工状態判定部35は、構造物画像中で区分された各ユニットの画像とユニットの設計データ(設計画像)とを比較して締結部等の部材の総数に関する相違点を検出する。
<処理の流れ>
次に、本実施形態に係る情報処理装置によって実行される処理の流れを説明する。なお、以下に説明する処理の具体的な内容及び処理順序は、本開示を実施するための一例である。具体的な処理内容及び処理順序は、本開示の実施の形態に応じて適宜選択されてよい。
図10は、本実施形態に係るパノラマ画像生成処理の流れを示すフローチャートである。本フローチャートに示された処理は、構造物の施工中又は施工後の監視又は点検において、撮像画像が入力されたこと、又は作業者によってパノラマ画像生成処理の実行指示が入力されたことを契機として実行される。
ステップS101では、撮像画像が取得される。作業者は、撮像装置81を用いて構造物の検査対象となる側面を撮像し、得られた撮像画像の画像データを情報処理装置1に入力する。撮像方法及び画像データの情報処理装置1への入力方法は限定されないが、本実施形態では、撮像装置81が搭載されたドローン8を用いて構造物の検査対象側面が撮像され、撮像装置81からユーザ端末9に通信又は記録媒体を介して転送された画像データが更にネットワークを介して情報処理装置1に転送されることで、撮像画像の画像データが情報処理装置1に入力され、撮像画像取得部21はこれを取得する。その後、処理はステップS102へ進む。
ステップS102では、オプティカルフローが推定される。動き取得部22は、ステップS101で取得された動画を構成する複数の撮像画像(動画を構成する複数のフレーム)に基づいて時系列上で前後する画像同士を比較することで、撮像画像を構成する複数の画素の夫々についてオプティカルフローを取得する。上述の通り、ここで取得されるオプティカルフローには、画素毎にオプティカルフローの大きさを示すパラメータであるmagnitudeが含まれる。その後、処理はステップS103へ進む。
ステップS103及びステップS104では、オプティカルフローのヒストグラムであって、一部が平坦化されたヒストグラムが作成される。閾値決定部23は、一連の撮像画像に含まれる画素をmagnitudeの昇順/降順に並べた場合にmagnitudeの変化が所定の基準を超える箇所を特定し、当該箇所に対応するpercentileに基づいて、複数の撮像画像の夫々について、当該撮像画像におけるmagnitudeの閾値を決定する(ステップS103)。そして、ヒストグラム作成部24は、複数の撮像画像の夫々について、撮像画像に含まれる画素のうち、ステップS103で決定された閾値を超えるmagnitudeに係る画素を除いた画素(換言すれば、閾値以下のmagnitudeに係る画素)について、複数の画素のmagnitudeの分布を示すヒストグラムを作成する(ステップS104)。その後、処理はステップS105へ進む。
ステップS105及びステップS106では、オプティカルフローのヒストグラムに基づいて、撮像画像群における前景が区分される。範囲推定部25は、ステップS104で作成されたヒストグラムを参照して、分布が集中しているmagnitudeの区間(ビン)を特定することで、撮像対象のうち撮像位置から所定の距離の範囲内にある所定の部分(本実施形態では、前景)が撮像された画素に対応するmagnitudeの範囲を推定する(ステップS105)。そして、画像要素特定部26は、推定されたmagnitudeの範囲に属する画素を特定することで、撮像画像を構成する複数の画素のうち前景が撮像された画素を特定する(ステップS106)。その後、処理はステップS107へ進む。
ステップS107では、撮像画像群に基づいて、構造物のパノラマ画像が生成される。ここで、パノラマ画像は、撮像画像群の夫々においてステップS106で区分された前景群が整合性をもって繋ぎ合わされるように生成される。画像連結部27は、複数の撮像画像を、ステップS106で特定された前景に係る画素が整合するように繋げることで、連結された静止画像(パノラマ画像)を生成する。なお、この際ホモグラフィ行列を用いた撮像画像の透視変換によって連結画像が得られてよいことは、画像連結部27の説明において上述した通りである。その後、本フローチャートに示された処理は終了する。
図11は、本実施形態に係る検査処理の流れを示すフローチャートである。本フローチャートに示された処理は、構造物の施工中又は施工後の監視又は点検において、構造物画像が入力されたこと、又は作業者によって検査処理の実行指示が入力されたことを契機として実行される。なお、ここでは主として上述したパノラマ画像生成処理によって生成された連結画像が構造物画像として入力された場合について説明するが、構造物画像は、その他の方法によって取得されたものであってもよい。
ステップS201では、検査対象の構造物(本実施形態では、鉄塔)の検査対象側面が撮像された構造物画像のうち所定の部分(本実施形態では、前景)が撮像された画素に基づいて、当該構造物画像から外見的構造に係る特徴を検出する。特徴検出部28は、構造物画像中の直線のうち、前景に係る画素のみを抽出するフィルタリング(マスク)によって前景に含まれる直線(換言すれば、フロントバーに係る直線)を抽出し、対角線状に延伸する部材の交点を検出することで、鉄塔を構成する鉄筋等のバーが対角線状(X状)に交叉する外見的構造に係る特徴を検出する。その後、処理はステップS202へ進む。
ステップS202では、構造物を構成する複数のユニットが区分される。単位構造推定部29は、ステップS201で検出された複数の特徴の夫々について、当該特徴を含む所定の範囲を、構造物画像中の、当該構造物に含まれる複数のユニットの夫々に係る部分として推定し、推定された各ユニットに対してユニットを識別するためのラベルを付す。その後、処理はステップS204へ進む。
ステップS204からステップS208では、構造物画像から締結材が検出され、画像から検出された締結材と設計データ中の締結材位置との対応付け及び位置合わせが行われる。部材検出部30は、構造物画像から、ユニットに含まれる複数の所定の部材(本実施形態では、締結材)を検出する(ステップS204)。そして、クラスタ作成部31は、検出された複数の部材を、部材同士の距離に基づいてクラスタリングすることで、密集して施工された部材のクラスタを複数作成する(ステップS205)。クラスタ対応付け部32は、ステップS205で作成された複数のクラスタの夫々の位置と、予め準備された当該構造物の設計データに示されている部材の複数のクラスタの夫々の位置とを比較することで、構造物画像中のクラスタと設計データ中のクラスタとを対応付ける(ステップS206)。
部材対応付け部33は、対応付けられたクラスタ毎に、当該クラスタに属する部材の位置と、ステップS206で当該クラスタに対応付けられた設計データのクラスタに属する部材の位置とを比較することで、構造物画像中の部材と設計データに示された部材とを対応付ける(ステップS207)。そして、位置合わせ部34は、ステップS207における構造物画像中の部材と設計データに示された部材との対応付け結果に基づいて、構造物画像と設計データとの位置合わせを行う(ステップS208)。その後、処理はステップS209へ進む。
ステップS209では、施工状態が判定される。施工状態判定部35は、各ユニットに含まれる部材(締結部)の総数等の施工状態を判定し、異常がある場合にはこれを検知する。判定結果は、ユーザ端末9に通知されてもよい。その後、本フローチャートに示された処理は終了する。
<バリエーション>
上記説明した実施形態では、ステップS204以降の処理に、入力された構造物画像(パノラマ画像生成処理によって生成されたパノラマ画像を用いる場合、当該パノラマ画像)をそのまま用いる例について説明したが、構造物画像には、ユニット毎に作成された連結画像が用いられてもよい。この場合、入力された撮像画像群に基づいて、ユニット毎の連結画像が生成される。画像連結部27は、特定されたユニット毎に、各ユニットに係る複数の撮像画像を前景に係る画素が整合するように繋げることで、ユニット毎の連結画像を生成する。なお、この際ホモグラフィ行列を用いた撮像画像の透視変換によって連結画像が得られてよいことは、上記ステップS107で説明した構造物全体に係るパノラマ画像生成と同様である。
1 情報処理装置

Claims (8)

  1. 撮像対象と撮像位置との位置関係を、該撮像対象のうち所定の部分に対して一定の距離を保ちつつ変化させながら撮像することで得られた複数の撮像画像に基づいて、撮像画像を構成する複数の画像要素の夫々について撮像対象の画像内での動きの大きさを取得する動き取得手段と、
    前記複数の画像要素の動きの大きさの分布を示すヒストグラムの対象としない画像要素を、該画像要素の動きの大きさに基づいて除外するための閾値を決定する閾値決定手段であって、前記複数の画像要素を前記動きの大きさの順に並べた場合の勾配が、ノイズとしての画像要素を特定するための基準を超える箇所を特定し、当該箇所に対応する動きの大きさを、前記閾値として決定する閾値決定手段と、
    前記複数の画像要素のうち、前記閾値を超える動きの大きさに係る画像要素を除いた画像要素について、前記ヒストグラムを作成するヒストグラム作成手段と、
    前記ヒストグラムを参照して、前記撮像対象のうち前記撮像位置から前記一定の距離にある前記所定の部分が撮像された画像要素に対応する動きの大きさの範囲を推定する範囲推定手段と、
    推定された前記動きの大きさの範囲に属する前記画像要素を特定することで、前記撮像画像を構成する前記複数の画像要素のうち前記所定の部分が撮像された画像要素を特定する画像要素特定手段と、
    を備える情報処理装置。
  2. 前記範囲推定手段は、前記ヒストグラム中の、分布が集中している動きの大きさの区間を特定し、特定された動きの大きさの区間に基づいて、前記動きの大きさの範囲を推定する、
    請求項1に記載の情報処理装置。
  3. 前記複数の撮像画像を、当該複数の撮像画像の夫々に含まれる前記画像要素特定手段によって特定された画像要素が整合するように繋げることで、1の撮像位置から同時に撮像可能な範囲よりも広い範囲が撮像された連結画像を得る画像連結手段を更に備える、
    請求項1又は2に記載の情報処理装置。
  4. 前記複数の撮像画像は、前記撮像対象のうち前記所定の部分に対して一定の距離を保ちながら飛行する飛翔体に設けられた撮像装置によって撮像することによって得られた撮像画像である、
    請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記複数の撮像画像は、撮像中に一定の速度を保ちながら飛行する飛翔体に設けられた撮像装置によって撮像することによって得られた撮像画像である、
    請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記複数の撮像画像は、前記撮像対象である構造物の1の側面に対峙し垂直飛行する飛翔体に設けられた撮像装置によって撮像することによって得られた撮像画像である、
    請求項1から5のいずれか一項に記載の情報処理装置。
  7. コンピュータが、
    撮像対象と撮像位置との位置関係を、該撮像対象のうち所定の部分に対して一定の距離を保ちつつ変化させながら撮像することで得られた複数の撮像画像に基づいて、撮像画像を構成する複数の画像要素の夫々について撮像対象の画像内での動きの大きさを取得する動き取得ステップと、
    前記複数の画像要素の動きの大きさの分布を示すヒストグラムの対象としない画像要素を、該画像要素の動きの大きさに基づいて除外するための閾値を決定する閾値決定ステップであって、前記複数の画像要素を前記動きの大きさの順に並べた場合の勾配が、ノイズとしての画像要素を特定するための基準を超える箇所を特定し、当該箇所に対応する動きの大きさを、前記閾値として決定する閾値決定ステップと、
    前記複数の画像要素のうち、前記閾値を超える動きの大きさに係る画像要素を除いた画像要素について、前記ヒストグラムを作成するヒストグラム作成ステップと、
    前記ヒストグラムを参照して、前記撮像対象のうち前記撮像位置から前記一定の距離にある前記所定の部分が撮像された画像要素に対応する動きの大きさの範囲を推定する範囲推定ステップと、
    推定された前記動きの大きさの範囲に属する前記画像要素を特定することで、前記撮像画像を構成する前記複数の画像要素のうち前記所定の部分が撮像された画像要素を特定する画像要素特定ステップと、
    を実行する方法。
  8. コンピュータを、
    撮像対象と撮像位置との位置関係を、該撮像対象のうち所定の部分に対して一定の距離を保ちつつ変化させながら撮像することで得られた複数の撮像画像に基づいて、撮像画像を構成する複数の画像要素の夫々について撮像対象の画像内での動きの大きさを取得する動き取得手段と、
    前記複数の画像要素の動きの大きさの分布を示すヒストグラムの対象としない画像要素を、該画像要素の動きの大きさに基づいて除外するための閾値を決定する閾値決定手段であって、前記複数の画像要素を前記動きの大きさの順に並べた場合の勾配が、ノイズとしての画像要素を特定するための基準を超える箇所を特定し、当該箇所に対応する動きの大きさを、前記閾値として決定する閾値決定手段と、
    前記複数の画像要素のうち、前記閾値を超える動きの大きさに係る画像要素を除いた画像要素について、前記ヒストグラムを作成するヒストグラム作成手段と、
    前記ヒストグラムを参照して、前記撮像対象のうち前記撮像位置から前記一定の距離にある前記所定の部分が撮像された画像要素に対応する動きの大きさの範囲を推定する範囲推定手段と、
    推定された前記動きの大きさの範囲に属する前記画像要素を特定することで、前記撮像画像を構成する前記複数の画像要素のうち前記所定の部分が撮像された画像要素を特定する画像要素特定手段と、
    として機能させるプログラム。
JP2022053262A 2022-03-29 2022-03-29 情報処理装置、方法およびプログラム Active JP7565313B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022053262A JP7565313B2 (ja) 2022-03-29 2022-03-29 情報処理装置、方法およびプログラム
EP23158971.4A EP4276758A1 (en) 2022-03-29 2023-02-28 Information processing apparatus, method and program
US18/176,076 US12518399B2 (en) 2022-03-29 2023-02-28 Information processing apparatus, method and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022053262A JP7565313B2 (ja) 2022-03-29 2022-03-29 情報処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2023146194A JP2023146194A (ja) 2023-10-12
JP7565313B2 true JP7565313B2 (ja) 2024-10-10

Family

ID=85384417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022053262A Active JP7565313B2 (ja) 2022-03-29 2022-03-29 情報処理装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US12518399B2 (ja)
EP (1) EP4276758A1 (ja)
JP (1) JP7565313B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017134177A (ja) 2016-01-26 2017-08-03 キヤノン株式会社 像振れ検出装置及び方法、及び撮像装置
JP2021032650A (ja) 2019-08-22 2021-03-01 Automagi株式会社 劣化状態検出装置及び劣化状態検出方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965645B2 (en) * 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
WO2006072894A2 (en) 2005-01-07 2006-07-13 Koninklijke Philips Electronics N.V. Method of processing a video signal using quantization step sizes dynamically based on normal flow
JP5295236B2 (ja) * 2008-06-18 2013-09-18 三菱電機株式会社 三次元映像変換記録装置、三次元映像変換記録方法、記録媒体、三次元映像変換装置、及び三次元映像伝送装置
WO2011091717A1 (en) * 2010-01-29 2011-08-04 The Hong Kong University Of Science And Technology Architectural pattern detection and modeling in images
JP5812808B2 (ja) * 2011-01-05 2015-11-17 キヤノン株式会社 画像処理装置及び画像処理方法
US8965048B2 (en) * 2011-09-02 2015-02-24 Audience Entertainment, Llc Heuristic motion detection methods and systems for interactive applications
US9070216B2 (en) 2011-12-14 2015-06-30 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
US11263823B2 (en) 2012-02-24 2022-03-01 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
JP5854951B2 (ja) * 2012-08-10 2016-02-09 Kddi株式会社 パノラマ画像生成装置
US10909482B2 (en) 2013-03-15 2021-02-02 Pictometry International Corp. Building materials estimation
US10861224B2 (en) 2013-07-23 2020-12-08 Hover Inc. 3D building analyzer
US20210136515A1 (en) 2015-07-17 2021-05-06 Feng Zhang Method, apparatus, and system for wireless monitoring with motion localization
JP6700831B2 (ja) * 2016-02-12 2020-05-27 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2018010165A (ja) * 2016-07-13 2018-01-18 キヤノン株式会社 像振れ補正装置およびその制御方法、ならびに撮像装置
US10977809B2 (en) * 2017-12-11 2021-04-13 Dolby Laboratories Licensing Corporation Detecting motion dragging artifacts for dynamic adjustment of frame rate conversion settings
JP7106282B2 (ja) * 2018-01-30 2022-07-26 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10685212B2 (en) * 2018-06-25 2020-06-16 Texas Instruments Incorporated Three dimensional (3d) object detection
CN111344644B (zh) * 2018-08-01 2024-02-20 深圳市大疆创新科技有限公司 用于基于运动的自动图像捕获的技术
JP2020182048A (ja) * 2019-04-24 2020-11-05 株式会社PKSHA Technology 画像撮影装置、画像処理装置及び画像処理方法
US11710415B2 (en) 2019-08-01 2023-07-25 Halkin Inc. Methods and devices for unmanned aerial vehicle based site inspection and scale rendered analysis
US20200413011A1 (en) 2019-09-14 2020-12-31 Ron Zass Controlling image acquisition robots in construction sites
EP4111365A4 (en) 2020-02-27 2024-03-20 Tailorbird, Inc. Apparatus and method of converting digital images to three-dimensional construction images
US12148205B2 (en) * 2021-11-10 2024-11-19 Skydio, Inc. Contour scanning with an unmanned aerial vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017134177A (ja) 2016-01-26 2017-08-03 キヤノン株式会社 像振れ検出装置及び方法、及び撮像装置
JP2021032650A (ja) 2019-08-22 2021-03-01 Automagi株式会社 劣化状態検出装置及び劣化状態検出方法

Also Published As

Publication number Publication date
JP2023146194A (ja) 2023-10-12
US12518399B2 (en) 2026-01-06
US20230316538A1 (en) 2023-10-05
EP4276758A1 (en) 2023-11-15

Similar Documents

Publication Publication Date Title
CN111126184B (zh) 一种基于无人机视频的震后建筑物损毁检测方法
Peng et al. Drone-based vacant parking space detection
WO2014092552A2 (en) Method for non-static foreground feature extraction and classification
CN111223129A (zh) 检测方法、检测装置、监控设备和计算机可读存储介质
Bedruz et al. Real-time vehicle detection and tracking using a mean-shift based blob analysis and tracking approach
CN111091057A (zh) 一种信息处理方法、装置及计算机可读存储介质
CN111723656B (zh) 一种基于YOLO v3与自优化的烟雾检测方法及装置
CN113343779A (zh) 环境异常检测方法、装置、计算机设备和存储介质
CN117975310A (zh) 基于无人机的电力施工人员行为识别方法
Tsoukalas et al. Deep learning assisted visual tracking of evader-UAV
CN113628251B (zh) 一种智慧酒店终端监测方法
CN113869122A (zh) 一种配网工程强化管控方法
Lee et al. Estimation and analysis of urban traffic flow
KR20120116699A (ko) 클러스터링 기법을 이용한 이동물체 검출장치 및 방법
JP7565313B2 (ja) 情報処理装置、方法およびプログラム
JP7671712B2 (ja) 情報処理装置、方法およびプログラム
CN116798072A (zh) 一种基于注意力机制的野生动物实时识别及跟踪算法
CN115937746A (zh) 一种烟火事件监测方法、装置及存储介质
CN115410097A (zh) 一种低空无人机视频跟踪方法
Steiger et al. Automatic detection of transmission towers
JP2010128947A (ja) 非定常度推定装置、非定常度推定方法、非定常度推定プログラム
CN112733610A (zh) 一种基于无人机的输电线路图像识别检测方法
CN117689720A (zh) 故障光伏组件的定位方法、装置、设备及存储介质
Benito-Picazo et al. Deep learning-based anomalous object detection system for panoramic cameras managed by a Jetson TX2 board
CN113592014B (zh) 安全帽的识别方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240930

R150 Certificate of patent or registration of utility model

Ref document number: 7565313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150