JP2023009981A - 設備認識システム及び設備認識方法 - Google Patents

設備認識システム及び設備認識方法 Download PDF

Info

Publication number
JP2023009981A
JP2023009981A JP2021113707A JP2021113707A JP2023009981A JP 2023009981 A JP2023009981 A JP 2023009981A JP 2021113707 A JP2021113707 A JP 2021113707A JP 2021113707 A JP2021113707 A JP 2021113707A JP 2023009981 A JP2023009981 A JP 2023009981A
Authority
JP
Japan
Prior art keywords
equipment
facility
image
orientation
recognition system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021113707A
Other languages
English (en)
Inventor
貴志子 丸山
Kishiko Maruyama
宣隆 木村
Nobutaka Kimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2021113707A priority Critical patent/JP2023009981A/ja
Priority to PCT/JP2022/006504 priority patent/WO2023281797A1/ja
Publication of JP2023009981A publication Critical patent/JP2023009981A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Abstract

【課題】設備認識システムにおいて、特定の設備に着目することで、高精度に設備の認識を行う。【解決手段】360度カメラによって撮影されたパノラマ画像のパノラマ画像系列を入力として受け付ける入力部と、前記パノラマ画像系列に基づいて前記360度カメラのカメラ位置姿勢を推定するカメラ位置姿勢推定部と、前記パノラマ画像系列に基づいて設備に関する設備画像の設備画像系列を生成する設備画像生成部と、前記設備画像系列と前記カメラ位置姿勢に基づいて前記設備についての3次元設備点群を生成し前記設備の設備モデルを推定する設備モデル推定部とを有する。【選択図】図1

Description

本発明は、設備認識システム及び設備認識方法に関する。
車両にレーザスキャナ、デジタルカメラ、GPS等の計測装置を搭載し、走行しながら道路周辺の3次元形状を3D点群(3次元点群)という形で収集するモバイルマッピングシステム(Mobile Mapping System:MMS)が知られている。
例えば、特許文献1では、レーザスキャナにより取得した3D点群と、設備の3Dモデル(3次元モデル)とのマッチングにより設備を認識する。
一方、カメラによって撮影された画像を用いて、電柱等の道路周辺の設備の状況を把握する技術が知られている。
例えば、特許文献2では、カメラによって撮影された画像と広域画像の特徴点の対応関係から、カメラ位置姿勢を推定する。
多視点画像からカメラ位置姿勢を推定する技術はSfM(Structure from Motion)、多視点画像から3D点群を生成する技術はMVS(Multi―View Stereo)として知られており、例えば、非特許文献1および非特許文献2に解説がある。
WO2014-155715号公報 特開2016-019053号公報
Onur Ozyesil,Vladislav Voroninski,Ronen Basri,Amit Singer,"A Survey of Structure from Motion",Computer Vision and Pattern Recognition,2017,arXiv:1701.08493v2[cs.CV]. S.M.Seitz,B.Curless,J.Diebel,D.Scharstein and R.Szeliski,"A Comparison and Evaluation of Multi-View Stereo Reconstruction Algorithms,"2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR’06),2006,pp.519-528,doi:10.1109/CVPR.2006.19.
特許文献1では、レーザスキャナにより取得した高精度な3D点群を用いている。このため、設備の3Dモデルとのマッチングが可能となり、設備の認識が可能になっている。一方、レーザスキャナを用いずに、カメラを用いて設備の認識を行うことへのニーズがある。
特許文献2では、特定の設備を画像上で目視で確認することが可能であるが、3次元情報として高精度に設備の認識を行うことは困難である。
非特許文献1および非特許文献2に示されているSfMおよびMVSを用いれば、多視点画像から3D点群を生成することは可能である。しかしながら、レーザスキャナによって取得される高精度な3D点群とは異なり、設備の3Dモデルとのマッチングを適用することは困難である。
本発明の目的は、設備認識システムにおいて、特定の設備に着目することで、高精度に設備の認識を行うことにある。
本発明の一態様の設備認識システムは、360度カメラによって撮影されたパノラマ画像のパノラマ画像系列を入力として受け付ける入力部と、前記パノラマ画像系列に基づいて、前記360度カメラのカメラ位置姿勢を推定するカメラ位置姿勢推定部と、前記パノラマ画像系列に基づいて、設備に関する設備画像の設備画像系列を生成する設備画像生成部と、前記設備画像系列と前記カメラ位置姿勢に基づいて、前記設備についての3次元設備点群を生成し、前記設備の設備モデルを推定する設備モデル推定部と、を有することを特徴とする。
本発明の一態様の設備認識方法は、360度カメラによって撮影されたパノラマ画像のパノラマ画像系列を入力として受け付ける入力ステップと、前記パノラマ画像系列に基づいて、前記360度カメラのカメラ位置姿勢を推定するカメラ位置姿勢推定ステップと、前記パノラマ画像系列に基づいて、設備に関する設備画像の設備画像系列を生成する設備画像生成ステップと、前記設備画像系列と前記カメラ位置姿勢に基づいて、前記設備についての3次元設備点群を生成し、前記設備の設備モデルを推定する設備モデル推定ステップと、を有することを特徴とする。
本発明の一態様によれば、設備認識システムにおいて、特定の設備に着目することで、高精度に設備の認識を行うことができる。
実施例1における設備認識システムの構成図である。 実施例1における設備認識システムの処理フローを示す図である。 パノラマ画像系列または設備画像系列を入力としたカメラ位置姿勢推定の処理フローを示す図である。 カメラ位置姿勢推定において個々の特徴を採用するか否かの判定フローの一例を示す図である。 入力画像の一例を示す図である。 入力画像に対応する特徴抽出結果の点群を示す図である。 濃度が低いと判断された特徴の点群を示す図である。 濃度が高いと判断された特徴の点群を示す図である。 設備選択画面の一例を示す図である。 パノラマ画像のデータ形式の一例を示す図である。 設備画像系列の一覧を表示した画面構成例を示す図である。 カメラ配置のマップを表示した画面構成例を示す図である。 3D点群生成および設備モデル推定の処理フローを示す図である。 設備画像に対してエッジ抽出を行った結果の例を示す図である。 電柱座標推定の例を示す図である。 本発明を適用しない場合の点群のパノラマ画像の3D表示を示す図である。 本発明を適用した場合の点群の設備画像の3D表示を示す図である。 実施例2における設備認識システムの構成図である。 実施例3における設備認識システムの構成図である。
多視点画像から、カメラの位置姿勢と対象物の3D復元を同時に推定する従来のSfMでは、生成される3D点群は位置誤差が大きく、高精度に設備認識を行うことは困難である。そこで、本発明では、特定の設備に着目することで、3D点群の位置推定精度を局所的に高めることにより、高精度に設備認識を行って設備の3Dモデルを推定する。
以下、図面を用いて実施例について説明する。
図1を参照して、実施例1の設備認識システムの構成について説明する。
実施例1の設備認識システム100は、処理部110とメモリ120を有する。処理部は110、入力部111、カメラ位置姿勢推定部112、設備選択部113、設備画像生成部114及び設備モデル推定部115を有する。処理部110には、ディスプレイ等の表示装置140及びマウス・キーボード等の入力装置141が接続されている。
メモリ120は、パノラマ画像系列121、設定パラメータ122、カメラ位置姿勢123、トラック情報124、設備画像系列125及び設備モデルパラメータ126を記憶する。
入力部11には、360度カメラによって撮影されたパノラマ画像系列130及び設定パラメータ131が入力される。ここで、設定パラメータ131は、必須ではないが、内部処理で使用する際に入力してもよい。
ここで、360度カメラとは、上下左右の全方位を一度に撮影できるカメラのことを言う。例えば、360度カメラは、複数のレンズで撮影してつなぎ合わせることで360度すべての景色を画像にすることができ、一度の撮影でパノラマ画像が作成できる。
カメラ位置姿勢推定部112は、パノラマ画像系列130から特徴マッチングによりトラック情報124を生成し、各パノラマ画像を撮影した360度カメラのカメラ位置姿勢123の相対的な関係を推定する。
設備選択部113は、例えば、GUI(Graphical User Interface)を利用する等、何らかの方法により対象設備を選択する。ここで、対象設備とは、例えば、電柱等を言う。
設備画像生成部114は、パノラマ画像系列130から対象設備を切り出した設備画像系列125を生成する。設備モデル推定部115は、カメラ位置姿勢123が分かっている設備画像間の多視点ステレオマッチングにより、対象設備周辺の3D点群を生成し、設備モデル(設備モデルパラメータ126)を推定する。ここで、ステレオマッチングとは、2次元の画像データから3次元の情報を得る手法を言う。
図2を参照して、実施例1における設備認識システム100の処理フローについて説明する。
まず、パノラマ画像系列130を入力する(ステップ201)。ここで、内部処理で使用する際には、設定パラメータ131を入力するようにしてもよい。
次に、パノラマ画像系列130から、各パノラマ画像を撮影したカメラの位置姿勢の大まかな位置関係を推定する(ステップ202)。
次に、対象設備を選択する(ステップ203)。
次に、パノラマ画像系列130から平面投影変換により対象設備を中心とした設備画像系列を生成する(ステップ204)。
次に、設備画像系列から、カメラ位置姿勢を推定しなおす(ステップ205)。ここで、設備画像のカメラ位置と元のパノラマ画像のカメラ位置は同じであり、姿勢は一定の変換関係がある。このため、後段のカメラ位置姿勢推定(S205)は省略してもよい。しかし、前段のカメラ位置姿勢推定(S202)は誤差が含まれるため、後段のカメラ位置姿勢推定(ステップ205)により精度向上が見込まれる。
最後に、カメラ位置姿勢が分かっている設備画像間でのステレオマッチングにより、対象設備周辺の3D点群を生成し、設備モデルを推定する(ステップ206)。
以上は一つの設備に関する処理であるが、対象設備を一つ一つ追加することで、設備間の位置関係を推定することが可能である。
図3を参照して、パノラマ画像系列121又は設備画像系列125を入力としたカメラ位置姿勢推定の処理フローを示す。
通常のSfMによる3D復元と同様の処理である。
まず、画像系列の各画像について、一般的な方法で局所画像特徴を検出する(ステップ301)。
次に、画像系列の各画像ペアについて、特徴マッチングを行って、特徴の対応関係を求める(ステップ302)。特に言及はしないが、画像ペアのうちのカメラ位置が近いものを除外する等、一般的な視差誤差の低減策を講じてもよい。ここで、特徴点マッチングとは、異なる画像間で特徴の近い点を対応付けることである。
画像ペアに対する特徴の対応関係をまとめ、トラックを生成する(ステップ303)。トラックは、複数の画像に共通する特徴の対応関係を示したものである。
最後に、トラックから、特徴の3D座標と各カメラの位置姿勢を推定する(ステップ304)。
図4に、カメラ位置姿勢推定において、個々の特徴を採用するか否かの判定フローの一例を示す。
最初に、対象外物体かを判定する(ステップ401)。
判定の結果、対象外物体と判定された場合は、特徴を削除する(ステップ402)。
判定の結果、対象外物体ではないと判定された場合は、対象設備周辺かを判定する(ステップ403)。
判定の結果、対象設備周辺と判定された場合は、特徴を登録する(ステップ404)。
判定の結果、対象設備周辺でない判定された場合は、特徴密度が閾値より小さいかを判定する(ステップ401)。
判定の結果、特徴密度が閾値より小さいと判定された場合は特徴を登録する(ステップ404)。
判定の結果、特徴密度が閾値より小さくないと判定された場合は特徴を削除する(ステップ402)。
ここで、RANSAC(Random Sample Consensus)等により、対応関係から外れる特徴を除外しつつ、カメラ位置を推定する方法が存在する。しかしながら、誤対応を引き起こす可能性のある不要な特徴は事前に削除しておくことが望ましい。そこで、上述のように、個々の特徴を採用するか否かを判定する。
例えば、特徴が車両のような移動物体の場合、撮影時間の異なるカメラ画像間で対応が取れない可能性があるため削除する。一方、特徴が対象設備の場合には登録する。
ここで、車両や設備はYOLO(You Only Look Once)等の一般物体認識によって、画像から検出することが可能である(例えば、J. Redmon,S.Divvala,R.GirshickandA.Farhadi,”You Only Look Once:Unified,Real-Time Object Detection,” 2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Las Vegas,NV,USA,2016,pp.779-788,doi:10.1109/CVPR.2016.91.参照)。
一方、樹木等のような濃淡変化の大きい領域は、局所画像特徴として検出されやすく誤対応の要因となりうる。そこで、特徴密度の高い領域の特徴をノイズとして除外し、特徴密度の低い領域の特徴を採用する。特徴密度は着目する特徴の近傍にある特徴点数として計算することが可能であり、近傍と見なす距離、密度の閾値はそれぞれ設定パラメータ131(図1参照)で規定される。なお、対象設備の特徴は局所画像特徴に限らず活用すべきである。例えば、一般物体認識によって検出された領域の最上部や最下部等を特徴として追加してもよい。
図5に、特徴密度に基づいて点群を分類する例を示す。
図5Aは、入力画像の一例を示す図である。図5Bは、入力画像に対応する特徴抽出結果の点群を示す図である。図5Cは、濃度が低いと判断された特徴の点群を示す図である。図5Dは、濃度が高いと判断された特徴の点群を示す図である。
図6は、設備選択部113で用いる設備選択画面の一例を示す。
図6を用いて、ユーザに入力装置14であるマウス等のポインタを介して設備を指示させる場合の一例を説明する。
従来のSfMと同様の処理により、精度の粗い一次3D点群を生成する。図6はこの一次3D点群を表示装置140に3D表示した画面である。通常の3D表示と同様に、入力装置141であるマウス・キーボード等の操作により拡大・縮小やスクロール、回転等が可能である。
ユーザは、この一次3D点群を表示装置140に表示した画面上で、対象となる設備上の点をマウス等のポインタで指示する。内部では、通常の3D表示と同様に、画面上で指示した点600から近傍検索により、3D点群の対応点の3D座標を求めることが可能である。例えば、この点600を中心とした3D形状を設備領域610として設定する。3D形状の設備領域610は、直方体、円柱、球等が考えられ、対象設備の形状に依存して選択することが可能である。図6では、円柱を選択した場合の例を示している。
図7は、パノラマ画像のデータ形式の一例を示す。パノラマ画像のデータ形式として、正距円筒図法を用いる場合の例を示す。
図7において、(a)は直交座標系、(b)は全方位を示す単位球、(c)はパノラマ画像(正距円筒図法)を示す。(b)の単位球上の点は経度緯度によって表現され、(a)の直交座標系とは図中に示した変換式により相互に変換が可能である。(c)のパノラマ画像は球面上の点を円筒に投影した画像であり、(b)の経度緯度とは図中に示した変換式により相互に変換が可能である。
パノラマ画像系列121から生成する設備画像系列125は、各360度カメラから設備の方向を見たときの平面投影画像である。360度カメラから任意の方向を見たときの平面投影画像は、球面上の点をカメラの光軸に垂直な平面に投影することで得られる。これは通常の透視投影変換と同様であるので、ここでは説明を省略する。
図8は、設備画像系列生成の画面構成例を示す。
図8Aは、設備画像系列の一覧を表示した画面構成例を示す図である。図8Bは、カメラ配置のマップを表示した画面構成例を示す図である。図8Bは、対象設備領域と複数のカメラ1~5の配置を俯瞰表示したものであり、通常の3D表示と同様に、入力装置141であるマウス・キーボード等の操作により拡大・縮小やスクロール、回転等が可能である。
図8Aは、対象設備からの距離が近い360度カメラ1~4による設備画像系列125を一覧表示したものである。図8Aの一覧表示と図8Bのマップ表示は、ディスプレイ等の表示装置140に表示される。また、図8Aの一覧表示と図8Bのマップ表示は、一つの画面上で上下または左右に分割配置し、図8Aの設備画像を選択したら対応する図8Bのカメラの表示色が変わる等、相互に連携が取れるようにしてもよい。さらに、画角や設備からの距離等のパラメータをスライダ等でリアルタイムに調整できるようにしてもよい。
図9は、3D点群生成および設備モデル推定の処理フローを示す。
最初に、設備画像系列125から画像ペアリストを作成する(ステップ901)。オクルージョンを低減するため、設備と2つのカメラのなす角を求め、角度の大きい画像ペアを除外する等の対策を講じてもよい。
次に、画像ペアの各々について、ステレオマッチングにより、深度マップを生成する(ステップ902)。ここで、深度マップとは、3次元空間の奥行きを表現するため、グレースケールの濃淡を使い対象物までの距離(深度)を表現したものである。
次に、深度マップを点群に変換し、各画像ペアによる点群を統合する(ステップ903)。
最後に、点群と設備モデルの位置合せにより、位置やサイズ等の設備モデルパラメータを推定する(ステップ904)。
例えば、電柱の場合、設備モデルは円柱モデルによって表すことが可能である。円柱モデルのパラメータは、例えば、円柱底面の中心座標、中心軸の向き、半径、高さによって表される。円柱モデルは、RANSAC等のアルゴリズムによってパラメータを推定することが可能である。
設備モデル推定部115は、設備の候補となる3D点群に基づき、懸垂曲線(又は懸垂曲線の2次曲線近似)によって表現される設備モデルを推定し、設備モデルのパラメータを出力する。設備モデル推定部115で行われるモデル推定は、例えば、RANSAC等の一般的なモデル推定手法に基づく。
図10は、電柱モデル推定を例にとった場合の改善策を示す。
前述の説明で、設備と2つのカメラのなす角を求め、角度の大きい画像ペアを除外することを述べた。ステレオマッチングでは、オーバーラップ率が高いことが要求されるためである。このような画像ペアを用いて、ステレオマッチングを用いた点群生成を行わずに、直接設備モデルパラメータを推定する方法を説明する。
図10Aは、設備画像に対してエッジ抽出を行った結果の例を示す図である。図10Bは、電柱座標推定の例を示す図である。
図10Aに示すように、エッジ抽出の結果から画像の中心付近にある縦に長い平行線を抽出することで、電柱の輪郭線を抽出する。さらに、平行線の中心線を求めて、電柱の中心線を推定する。複数の設備画像について電柱中心線を求めた結果から、図10Bに示すように、電柱中心のマップ座標である電柱座標(X,Y)を推定する。
ここで求めた電柱中心のマップ座標を、設備モデル推定で活用する。電柱の直径は設備情報で分かっている場合には設定パラメータとすることが可能である。ここでは、平行線の間隔がこの設定パラメータの範囲にあるものを抽出するといった利用が考えられる。
図11は、本発明による効果を示す。
図11Aは、本発明を適用しない場合の点群のパノラマ画像の3D表示を示す図である。図11Bは、本発明を適用した場合の点群の設備画像の3D表示を示す図である。
このように、本発明では、特定の設備に着目することで、3D点群の位置推定精度を局所的に高めることにより、高精度に設備認識を行って設備(例えば、電柱)の3Dモデルを推定することができる。
なお、後段のカメラ位置姿勢推定(図2のステップ205)により推定結果の設備位置がずれてしまう可能性が考えられる。本発明は局所的には精度の高い点群を生成することが可能であるが、全体としてみた場合、設備間の位置関係を正確に求めることは期待できない。そこで、設備間の位置関係の推定には、前段のカメラ位置姿勢推定(図2のステップ202)の結果を用い、点群の中心座標や広がり方が一致するように配置するものとする。
図12を参照して、実施例2の設備認識システム200の構成について説明する。
実施例2の設備認識システム200の構成が図1に示す実施例1の設備認識システム100の構成と異なる点は、実施例2の設備認識システム200においてGPSデータ132が入力されている点である。その他の構成は、図1に示す実施例1の設備認識システム100と同じなのでその説明は省略する。
実施例2の設備認識システム200は、計測車両(例えば、自動車)に360度カメラとGPSを搭載し、走行しながら一定の距離間隔で撮影することを想定している。入力部111には、GPSデータ132が入力される。そして、カメラ位置姿勢推定部112ではGPSデータ132をカメラの初期配置として用いる。
図13を参照して、実施例2の設備認識システム300の構成について説明する。
実施例3の設備認識システム300の構成が図12に示す実施例2の設備認識システム200の構成と異なる点は、実施例3の設備認識システム300において設備データ133が入力されている点である。その他の構成は、図12に示す実施例2の設備認識システム200と同じなのでその説明は省略する。
実施例3の設備認識システム300は、設備管理DBに格納されている設備データ133を利用することを想定している。設備選択部113では設備データ133の位置を表示装置140にマップ表示した画面で設備を選択し、設備画像生成部114では設備データ133の位置を用いる。
設備管理DBは、電柱等の事前に登録されている管理データを格納する。電柱の管理データには、例えば、管理番号、種別(型番、直径、高さ)、設置位置(住所、座標)等の情報が含まれる。
上記実施例によれば、特定の設備に着目することで、3D点群の位置推定精度を局所的に高めることにより、高精度に設備認識を行って設備の3Dモデルを推定することができる。
100 設備認識システム
110 処理部
111 入力部
112 カメラ位置姿勢推定部
113 設備選択部
114 設備画像生成部
115 設備モデル推定部
120 メモリ
140 表示装置
141 入力装置

Claims (15)

  1. 360度カメラによって撮影されたパノラマ画像のパノラマ画像系列を入力として受け付ける入力部と、
    前記パノラマ画像系列に基づいて、前記360度カメラのカメラ位置姿勢を推定するカメラ位置姿勢推定部と、
    前記パノラマ画像系列に基づいて、設備に関する設備画像の設備画像系列を生成する設備画像生成部と、
    前記設備画像系列と前記カメラ位置姿勢に基づいて、前記設備についての3次元設備点群を生成し、前記設備の設備モデルを推定する設備モデル推定部と、
    を有することを特徴とする設備認識システム。
  2. 入力装置と表示装置と設備選択部を更に有し、
    前記カメラ位置姿勢推定部は、
    前記カメラ位置姿勢に基づいて、前記パノラマ画像系列から3次元パノラマ点群を生成して前記表示装置に表示させ、
    前記設備選択部は、
    前記表示装置に表示された前記3次元パノラマ点群に基づいて前記入力装置から指示された点の近傍に設備領域を設定し、
    前記設備画像生成部は、
    前記設備領域を用いて、前記設備画像系列を生成することを特徴とする請求項1に記載の設備認識システム。
  3. 前記設備選択部は、
    前記設備領域を、前記設備の形状に対応した3次元形状に設定することを特徴とする請求項2に記載の設備認識システム。
  4. 前記カメラ位置姿勢推定部は、
    前記パノラマ画像系列の特徴を検出し、
    特徴マッチングによりトラック情報を生成し、
    検出した前記特徴の特徴密度を算出し、
    前記特徴密度が所定の閾値より低い場合に前記特徴マッチングに用いて前記カメラ位置姿勢を推定することを特徴とする請求項1に記載の設備認識システム。
  5. 前記カメラ位置姿勢推定部は、
    前記パノラマ画像系列から前記設備を検出し、
    前記設備の周辺にある前記特徴を用いて前記特徴マッチングを行うことを特徴とする請求項4に記載の設備認識システム。
  6. 前記カメラ位置姿勢推定部は、
    前記パノラマ画像系列から対象外物体を検出し、
    前記対象外物体の特徴を削除して前記特徴マッチングを行うことを特徴とする請求項4に記載の設備認識システム。
  7. 前記設備画像生成部は、
    前記カメラ位置姿勢に基づいて、前記設備の3次元座標から所定の距離に配置された前記360度カメラを複数選択し、
    選択された前記360度カメラの各々に対応する前記パノラマ画像から前記設備を中心とした前記設備画像を作成して前記設備画像系列を生成することを特徴とする請求項1に記載の設備認識システム。
  8. 前記設備画像生成部は、
    画角をパラメータとした平面投影変換により、前記設備画像を作成することを特徴とする請求項7に記載の設備認識システム。
  9. 前記設備モデル推定部は、
    前記設備画像系列から複数の画像ペアを生成し、
    複数の前記画像ペアの各々を画像ペア3次元点群に変換し、
    前記画像ペア3次元点群を統合して、前記3次元設備点群を生成することを特徴とする請求項1に記載の設備認識システム。
  10. 前記設備モデル推定部は、
    前記画像ペアの各々について、前記設備と前記画像ペアとのなす角を求め、
    前記なす角が所定の閾値より大きい前記画像ペアを除外して、ステレオマッチングによって深度マップを生成して、前記画像ペア3次元点群に変換することを特徴とする請求項9に記載の設備認識システム。
  11. 前記設備モデル推定部は、
    前記画像ペアの各々について、前記設備と前記画像ペアとのなす角を求め、
    前記なす角が所定の閾値より大きい前記画像ペアに対応する前記設備画像の各々に対して、エッジ抽出を実施して平行線を抽出して中心線を求め、
    前記画像ペアの間で対応する前記中心線に垂直な平面上で設備座標を推定し、
    前記設備モデル推定部は、
    前記設備座標を用いて、前記3次元設備点群を生成して前記設備のモデルを推定することを特徴とする請求項9に記載の設備認識システム。
  12. 前記入力部は、
    前記パノラマ画像系列に対応する前記360度カメラのGPSデータを入力し、
    前記カメラ位置姿勢推定部は、
    前記GPSデータを用いて、前記カメラ位置姿勢を推定することを特徴とする請求項1に記載の設備認識システム。
  13. 前記入力部は、
    所定の設備データを更に入力し、
    前記カメラ位置姿勢推定部は、
    前記GPSデータと前記設備データを用いて、前記カメラ位置姿勢を推定することを特徴とする請求項12に記載の設備認識システム。
  14. 入力装置と表示装置と設備選択部を更に有し、
    前記表示装置は、
    前記設備データの位置を画面のマップ上に表示し、
    前記設備選択部は、
    前記表示装置の前記画面に表示されかつ前記入力装置から指示された前記設備データの位置を設定し、
    前記設備画像生成部は、
    前記設備データの位置を用いて、前記設備画像系列を生成することを特徴とする請求項13に記載の設備認識システム。
  15. 360度カメラによって撮影されたパノラマ画像のパノラマ画像系列を入力として受け付ける入力ステップと、
    前記パノラマ画像系列に基づいて、前記360度カメラのカメラ位置姿勢を推定するカメラ位置姿勢推定ステップと、
    前記パノラマ画像系列に基づいて、設備に関する設備画像の設備画像系列を生成する設備画像生成ステップと、
    前記設備画像系列と前記カメラ位置姿勢に基づいて、前記設備についての3次元設備点群を生成し、前記設備の設備モデルを推定する設備モデル推定ステップと、
    を有することを特徴とする設備認識方法。
JP2021113707A 2021-07-08 2021-07-08 設備認識システム及び設備認識方法 Pending JP2023009981A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021113707A JP2023009981A (ja) 2021-07-08 2021-07-08 設備認識システム及び設備認識方法
PCT/JP2022/006504 WO2023281797A1 (ja) 2021-07-08 2022-02-17 設備認識システム及び設備認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021113707A JP2023009981A (ja) 2021-07-08 2021-07-08 設備認識システム及び設備認識方法

Publications (1)

Publication Number Publication Date
JP2023009981A true JP2023009981A (ja) 2023-01-20

Family

ID=84801647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021113707A Pending JP2023009981A (ja) 2021-07-08 2021-07-08 設備認識システム及び設備認識方法

Country Status (2)

Country Link
JP (1) JP2023009981A (ja)
WO (1) WO2023281797A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11325895A (ja) * 1998-05-15 1999-11-26 Asia Air Survey Co Ltd パノラマカメラを用いたステレオ3次元計測方法および装置
JP3530978B2 (ja) * 2000-12-28 2004-05-24 鹿島建設株式会社 画像計測方法及び画像計測プログラムを記録した記録媒体
JP4389663B2 (ja) * 2004-05-18 2009-12-24 トヨタ自動車株式会社 画像処理方法及び画像処理装置
US10989795B2 (en) * 2017-11-21 2021-04-27 Faro Technologies, Inc. System for surface analysis and method thereof

Also Published As

Publication number Publication date
WO2023281797A1 (ja) 2023-01-12

Similar Documents

Publication Publication Date Title
US11461964B2 (en) Satellite SAR artifact suppression for enhanced three-dimensional feature extraction, change detection, and visualizations
US8571265B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
Hu et al. Approaches to large-scale urban modeling
US7242460B2 (en) Method and apparatus for automatic registration and visualization of occluded targets using ladar data
KR100926783B1 (ko) 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
US20090103773A1 (en) Smart picking in 3d point clouds
CN105358937A (zh) 用于测绘仪器的定位方法和所述测绘仪器
Zhao et al. Reconstruction of textured urban 3D model by fusing ground-based laser range and CCD images
CN111932627A (zh) 一种标识物绘制方法及系统
Ahmad et al. Generation of three dimensional model of building using photogrammetric technique
WO2023281797A1 (ja) 設備認識システム及び設備認識方法
CN113532424B (zh) 一种获取多维信息的一体化设备与协同测量方法
US20220276046A1 (en) System and method for providing improved geocoded reference data to a 3d map representation
Murray et al. Patchlets: Representing stereo vision data with surface elements
Chen et al. Amobile system combining laser scanners and cameras for urban spatial objects extraction
Zhang et al. Integrating smartphone images and airborne lidar data for complete urban building modelling
KR20220062709A (ko) 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
JP6546898B2 (ja) 3次元空間特定装置、方法、及びプログラム
Brunken et al. Incorporating Plane-Sweep in Convolutional Neural Network Stereo Imaging for Road Surface Reconstruction.
Böhm et al. Automated appearance-based building detection in terrestrial images
JP2021119433A (ja) 学習用データ生成装置、学習用データ生成方法、学習用データ生成プログラム、及び学習済みの学習モデル生成方法
Zhang et al. Improve Building Façades in Open Lidar Data Using Ground Imagery
KR20220032332A (ko) Cctv 장치 기반의 침수위 추정 시스템
Bartie et al. Building colour terms: A combined GIS and stereo vision approach to identifying building pixels in images to determine appropriate colour terms

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240125