JP6970817B2 - 構造物管理装置、構造物管理方法、及び構造物管理プログラム - Google Patents

構造物管理装置、構造物管理方法、及び構造物管理プログラム Download PDF

Info

Publication number
JP6970817B2
JP6970817B2 JP2020513211A JP2020513211A JP6970817B2 JP 6970817 B2 JP6970817 B2 JP 6970817B2 JP 2020513211 A JP2020513211 A JP 2020513211A JP 2020513211 A JP2020513211 A JP 2020513211A JP 6970817 B2 JP6970817 B2 JP 6970817B2
Authority
JP
Japan
Prior art keywords
damage
image
camera
unit
design data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020513211A
Other languages
English (en)
Other versions
JPWO2019198562A1 (ja
Inventor
浩明 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019198562A1 publication Critical patent/JPWO2019198562A1/ja
Application granted granted Critical
Publication of JP6970817B2 publication Critical patent/JP6970817B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • G01N2021/8864Mapping zones of defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/888Marking defects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Immunology (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、構造物管理装置、構造物管理方法、及び構造物管理プログラムに関し、特に3次元設計データを利用した構造物の管理に関する技術である。
橋梁などの構造物は時間とともに劣化するため、定期的に点検を行い劣化の状況を把握して管理する必要がある。従来より、構造物の点検及び管理を行う技術が提案されている。
例えば特許文献1では、構造物の管理及び点検に用いられる損傷図を迅速かつ容易に作成することを目的とし、ステレオカメラで取得されたステレオ画像における損傷を指定して、その損傷を図面データにマッピングする技術が記載されている。特許文献1に記載された技術では、GPS(Global Positioning System)、ロボット装置の移動量、ステレオカメラのパンチルト機構の回転角等により、撮影位置及び撮影方向を検出することが記載されている。
また近年では、ドローンに代表される移動体にカメラを搭載し、構造物の撮像画像を取得し、その取得した撮像画像から3次元モデルを生成する技術が提案されている。
例えば特許文献2では、カメラを搭載した移動体により、構造物(建造物)の撮像画像が取得され、SfM(Structure from Motion)を使用して3次元点群を生成し、3次元点群に基づいてポリゴンが生成されることが記載されている。特許文献2に記載された技術では、生成されたポリゴンに撮像画像がマッピングされている。
特開2017−227595号公報 特開2015−114954号公報
しかしながら、構造物の表面が複数のポリゴンで表された3次元モデルに撮像画像を貼り付ける手法(上述の特許文献2の手法)は、各ポリゴンに撮像画像を貼り付けるので、貼り付けられた撮像画像の画質が劣化してしまう場合があった。この画質劣化は3次元モデルの表面のランダムに生成された各ポリゴンの精度が低く、各ポリゴンにそれぞれ異なる撮像画像貼り付けられるので、マッピングされた3次元モデルの表面が不均一なものとなってしまうものである。
また構造物の管理を行う場合には、定期的に点検を行い、複数の点検結果を比較することが行われる。
特許文献2に記載された技術では、撮像画像からポリゴンを生成し、そのポリゴンに撮像画像をマッピングしているので、撮像画像の取得の度(点検毎)に、異なるポリゴンが生成される。したがって、撮像画像の取得の度に、異なるポリゴンが生成され、そのポリゴンに撮像画像が貼り付けられる。よって、撮像画像の取得の機会(点検)毎に異なるポリゴンに撮像画像がマッピングされるので、過去に生成した撮像画像がマッピングされたポリゴンは形状が異なる可能性があり、相互に比較するのに適していない。
本発明はこのような事情に鑑みてなされたもので、その目的は、マッピングされた撮像画像の画質の劣化を抑制することができ、且つ過去の点検結果との比較を簡単に行うことができる構造物管理装置、構造物管理方法、及び構造物管理プログラムを提供することである。
上記目的を達成するための本発明の一の態様である構造物管理装置は、カメラを搭載した移動体を移動させ、カメラにより構造物をオーバーラップ領域をもって撮像された画像群を取得する画像取得部と、画像群の各画像を解析して構造物の損傷を検出する損傷検出部と、構造物を示す3次元設計データを取得する3次元設計データ取得部と、画像群の各画像間のオーバーラップ領域内で共通する特徴点の点群データを追跡し、カメラの各画像の撮像時のカメラ位置及びカメラ姿勢と点群データの3次元位置とを含む合成情報を算出する合成情報算出部と、合成情報算出部により算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に、検出した損傷をマッピングするマッピング部と、を備える。
本態様によれば、マッピング部により、合成情報算出部で算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に、検出した損傷がマッピングされるので、マッピングされた損傷の画質の劣化が抑制され、且つ過去の点検結果との比較を簡単に行うことができる。
好ましくは、マッピング部は、合成情報算出部により算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に画像群の各画像をマッピングし、マッピングした画像上に検出した損傷をマッピングする。
本態様によれば、マッピング部により、合成情報算出部により算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に画像群の各画像をマッピングし、マッピングした画像上に検出した損傷がマッピングされる。これにより、マッピングされた画像及び損傷において、画質の劣化が抑制され、且つ過去の点検結果との比較を簡単に行うことができる。
好ましくは、構造物管理装置は、損傷検出部により検出された損傷の程度を評価する損傷評価部と、取得した3次元設計データ及びマッピングされた損傷を表示する表示部と、を備え、表示部は、マッピングされた損傷の位置に関連付けて、損傷評価部による損傷の評価結果を含む損傷情報を更に表示する。
本態様によれば、損傷評価部により、損傷検出部により検出された損傷の程度が評価され、表示部により、マッピングされた損傷の位置に関連付けて、損傷評価部による損傷の評価結果を含む損傷情報が更に表示される。これにより、ユーザに簡便に損傷と損傷情報を合わせて視認させることができる。
好ましくは、構造物管理装置は、損傷検出部により検出された損傷の程度を評価する損傷評価部と、3次元設計データを記録する記録部と、を備え、記録部は、マッピングされた損傷の位置情報と関連付けて損傷評価部による損傷の評価結果を含む損傷情報を記録する。
本態様によれば、損傷評価部により、損傷検出部により検出された損傷の程度が評価され、記録部により、マッピングされた損傷の位置情報と関連付けて損傷評価部による損傷の評価結果を含む損傷情報が記録される。これにより、マッピングされた損傷の位置情報と損傷情報とが効率的に記録される。
好ましくは、損傷情報は、損傷検出部により検出される損傷の種類、損傷評価部による損傷の程度を示すランク、及び損傷のサイズを含む。
好ましくは、合成情報算出部は、Structure from Motion(以下、SfMという)手法又はSimultaneous Localization And Mapping(以下、SLAM)手法により画像群の各画像を撮像したときのカメラのカメラ位置及びカメラ姿勢と点群データの3次元位置を算出する。
本態様によれば、合成情報算出部により、SfM手法又はSLAM手法により画像群の各画像を撮像したときのカメラのカメラ位置及びカメラ姿勢と点群データの3次元位置が算出されるので、精度良くカメラ位置及びカメラ姿勢と点群データの3次元位置を算出することができる。
好ましくは、カメラを搭載した移動体と、移動体の移動及びカメラの撮像を制御し、カメラにより画像群を撮像させる移動体制御部と、を備え、画像取得部は、移動体に搭載されたカメラにより撮像された画像群を取得する。好ましくは、移動体は、飛行体である。
本発明の他の態様である構造物管理方法は、画像取得部が、カメラを搭載した移動体を移動させ、カメラにより構造物をオーバーラップ領域をもって撮像された画像群を取得するステップと、損傷検出部が、画像群の各画像を解析して構造物の損傷を検出するステップと、3次元設計データ取得部が、構造物を示す3次元設計データを取得するステップと、合成情報算出部が、画像群の各画像間のオーバーラップ領域内で共通する特徴点の点群データを追跡し、カメラの各画像の撮像時のカメラ位置及びカメラ姿勢と点群データの3次元位置とを含む合成情報を算出するステップと、マッピング部が、算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に、検出した損傷をマッピングするステップと、を含む。
好ましくは、マッピングするステップは、合成情報に基づいて取得した3次元設計データが示す構造物の表面に画像群の各画像をマッピングし、マッピングした画像上に検出した損傷をマッピングする。
好ましくは、損傷評価部が、検出された損傷の程度を評価するステップと、表示部が、取得した3次元設計データ及びマッピングされた損傷を表示するステップと、を含み、表示するステップは、マッピングされた損傷の位置に関連付けて、損傷評価部による損傷の評価結果を含む損傷情報を更に表示する。
本発明の他の態様である構造物管理プログラムは、カメラを搭載した移動体を移動させ、カメラにより構造物をオーバーラップ領域をもって撮像された画像群を取得する機能と、画像群の各画像を解析して構造物の損傷を検出する機能と、構造物を示す3次元設計データを取得する機能と、画像群の各画像間のオーバーラップ領域内で共通する特徴点の点群データを追跡し、カメラの各画像の撮像時のカメラ位置及びカメラ姿勢と点群データの3次元位置とを含む合成情報を算出する機能と、算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に、検出した損傷をマッピングする機能と、をコンピュータに実行させる。
本発明によれば、マッピング部により、合成情報算出部で算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に、検出した損傷がマッピングされるので、マッピングされた損傷の画質の劣化が抑制することができ、且つ過去の点検結果との比較を簡単に行うことができる。
図1は、構造物管理システムを概念的に示す図である。 図2は、構造物管理システムの主な機能構成を示すブロック図である。 図3は、装置制御部の機能構成例を示すブロック図である。 図4は、構造物管理工程(構造物管理方法)のフロー図である。 図5は、管理対象の橋梁を概念的に示す斜視図である。 図6は、画像群の一部を示す図である。 図7は、ワールド座標系、ローカル座標系及び画像座標系の関係を示す図である。 図8は、カメラの位置、カメラの姿勢、及び点群データの3次元位置を示す図である。 図9は、3次元設計データを示す図である。 図10は、点群データの3次元位置と3次元設計データとのレジストレーションに関して示す概念図である。 図11は、ひびわれが3次元設計データの平面にマッピングされることを示す図である。 図12は、撮像画像及びひびわれが3次元設計データの平面にマッピングされることを示す図である。
以下、添付図面に従って本発明にかかる構造物管理装置、構造物管理方法、及び構造物管理プログラムの好ましい実施の形態について説明する。
図1は、本発明の構造物管理装置300と移動体100から構成される構造物管理システム1を概念的に示す図である。移動体100は、例えば無人飛行体(ドローン)である。また移動体100は自走型ロボットであってもよい。移動体100は、搭載されたカメラ202により管理対象の構造物の複数枚の撮像画像で構成される撮像画像群を取得する。ここで構造物とは、橋梁、ダム、トンネル、建物などのコンクリート構造物である。
構造物管理装置300は、CPU(Central Processing Unit)、ROM(read‐only memory)、及びRAM(Random Access Memory)等を備えコンピュータにより構成され、カメラ202により撮像された撮像画像群を取得する。なお、構造物管理装置300を構成するコンピュータは、CPUがROMに格納された構造物管理プログラムを実行することにより、構造物管理装置300として機能する。
図2は、構造物管理システム1の主な機能構成を示すブロック図である。
構造物管理システム1を構成する移動体100は、主に移動体入出力部230、移動体制御部130、移動体駆動部108、カメラ202、撮像制御部204を備える。また、構造物管理システム1を構成する構造物管理装置300は、装置入出力部310、装置制御部320、記録部350、表示部340、及び操作部330で構成される。
移動体入出力部230は、無線又は有線により接続されて情報の入出力を行う。例えば、移動体入出力部230は、カメラ202で撮像された構造物の画像群を出力する。
移動体制御部130は、移動体100のコントローラ(不図示)の移動指令に基づいて移動体100を制御し、移動体100を移動させる。例えば、移動体100が無人飛行体のドローンである場合には、プロペラの駆動が移動体制御部130により制御される。
撮像制御部204は、移動体100のコントローラからの撮像指令に基づいて、カメラ202に撮像画像を取得させる。カメラ202は、管理対象である構造物をオーバーラップ領域をもって連続的に撮像し、複数の画像で構成された画像群を取得する。カメラ202は、動画を撮像しその動画から静止画を切り出すことにより、画像及び画像群を取得してもよいし、静止画を取得して画像群を取得してもよい。また例えば撮像制御部204は、カメラ202に、1秒毎に1枚の撮像画像を取得させて画像群を取得する。なお、オーバーラップ領域は、例えば撮像画像の80%とすることがSfM手法を適用する上で好ましい。
構造物管理装置300は、構造物管理システム1を操作するユーザにより操作されるものである。構造物管理装置300は、装置入出力部310、装置制御部320、操作部330、表示部340、及び記録部350から構成されている。
装置入出力部310は、無線又は有線により接続されて情報の入出力が行われる。例えば、移動体100が取得した画像群が装置入出力部310を介して入力される。
装置制御部320は、装置入出力部310を介して画像群を取得し、3次元設計データに損傷及び撮像画像のマッピングを行う。なお、3次元設計データへの損傷及び撮像画像のマッピングに関しては後で説明を行う。また装置制御部320は、記録部350への記録の制御、表示部340への表示の制御、及び操作部330から入力される指令に応じた制御を行う。
表示部340は、装置制御部320の制御により表示を行う。例えば、表示部340は、損傷がマッピングされた3次元設計データを表示する。また、表示部340は、マッピングされた損傷の位置に関連付けて、損傷評価部405(図3)による損傷の評価結果を含む損傷情報を表示する。ここで損傷情報は、損傷検出部403(図3)により検出される損傷の種類、損傷評価部405による損傷の程度を示すランク、及び損傷のサイズを含む。
記録部350は、装置制御部320の制御により各種情報の記録を行う。例えば記録部350は、損傷がマッピングされた3次元設計データを記録する。また記録部350は、マッピングされた損傷の位置情報と関連付けて損傷評価部による損傷の評価結果を含む損傷情報を記録する。
図3は、装置制御部320の機能構成例を示すブロック図である。
装置制御部320は、画像取得部401、損傷検出部403、損傷評価部405、3次元設計データ取得部407、合成情報算出部409、及びマッピング部411から構成されている。
画像取得部401は、装置入出力部310を介して、移動体100を移動させながら、管理対象である構造物をオーバーラップ領域をもって撮像された画像群を取得する。また画像取得部401は、一つの構造物に対して単数又は複数の画像群を取得する。
損傷検出部403は、画像群の各画像を解析して構造物の損傷を検出する。損傷検出部403が行う損傷検出は、公知の技術で行われるため、ここでは詳細な説明は省略する。なお、損傷検出部403で検出される損傷は、構造物の一般的な損傷を含む。例えば、ひびわれ、コンクリート剥離、遊離石灰などである。
損傷評価部405は、損傷検出部により検出された損傷の程度を評価する。損傷評価部405は、自動又は手動により、損傷の評価を行う。損傷評価部405が自動で損傷の評価を行う場合には、検出された損傷を画像処理することにより損傷程度を評価する。また、損傷評価部405が手動により、損傷を評価する場合には、表示部340に表示された損傷をユーザが確認し操作部330を介してその損傷の程度を評価する。なお、上述の損傷評価を含む損傷情報は国土交通省作成の「橋梁定期点検要領(平成26年6月)」に従って入力することが好ましい。
3次元設計データ取得部407は、装置入出力部310から入力される管理対象の構造物を示す3次元設計データを取得する。3次元設計データは、例えば3次元CADデータである。
合成情報算出部409は、画像群の各画像間のオーバーラップ領域内で共通する特徴点の点群データを追跡し、カメラ202の各画像の撮像時のカメラ位置及びカメラ姿勢と点群データの3次元位置とを含む合成情報を算出する。具体的には、合成情報算出部409は、SfM手法又はSLAM手法により画像群の各画像を撮像したときのカメラのカメラ位置及びカメラ姿勢と点群データの3次元位置を算出する。
マッピング部411は、合成情報算出部409により算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に、検出した損傷及び撮像画像をマッピングする。
なお、合成情報算出部409で行われる合成情報の算出及びマッピング部411のマッピングに関しては後で詳細に説明をする。
図4は、構造物管理装置300を使用して行われる構造物管理工程(本発明の構造物管理方法に相当)のフロー図である。
≪画像群の取得及び損傷の検出≫
先ず、画像取得部401により、管理対象である橋梁Bの撮像画像で構成される画像群Cを取得する(ステップS10)。
図5は、管理及び点検対象の橋梁Bを概念的に示す斜視図である。橋梁Bの表面の一つの平面421には損傷であるひびわれ423が存在する。移動体100は、橋梁Bの周りを飛行しながらこの橋梁Bの撮像を連続的に行い、画像群Cを取得する。そして、画像取得部401は、移動体100が取得した橋梁Bの撮像画像で構成される画像群Cを取得する。
次に損傷検出部403により、画像群Cを構成する撮像画像からひびわれ423が検出される(ステップS11:図4)。
図6は、画像取得部401が取得した画像群Cの一部425を示す図である。画像群Cの一部425は、撮像画像C1、C2、C3、C4、C5、C6で構成されている。損傷検出部403は、例えば撮像画像C6に写っているひびわれ423を画像解析により検出する。なお、撮像画像C1、C2、C3、C4、C5、C6はオーバーラップ領域を有し、撮像画像C2、C3、C4、C5においてもひびわれ423が検出される。したがって、損傷検出部403は、複数の撮像画像において同一の損傷が検出される場合には、重複する部分は削除してもよい。
≪合成情報の算出≫
次に合成情報算出部409により、画像群Cに基づいて、カメラ202の位置及び姿勢、画像群Cを構成する撮像画像の相互間でのオーバーラップ領域内で共通する特徴点の点群データの3次元位置を算出する(ステップS12:図4)。
合成情報算出部409は、画像群Cを解析し、合成情報として画像群Cの各撮像画像を撮像したときのカメラ202の位置及び姿勢をそれぞれ推定する。
具体的には、画像群Cの各撮像画像が重複する領域(オーバーラップ領域)に含まれる特徴点を抽出し、各撮像画像間における特徴点の対応関係(それぞれ局所特徴量が一致する対応点)を特定する。
撮像画像間の拡大縮小(撮像距離の違い)、回転等に強いロバストな局所特徴量として、SIFT (Scale-invariant feature transform)特徴量、SURF (Speed-Upped Robust Feature)特徴量、及びAKAZE (Accelerated KAZE)特徴量が知られている。特徴量が一致する対応点の数(セット数)は、数10組以上あることが好ましく、したがって各撮像画像間の重複領域は大きいことが好ましい。
そして、各撮像画像間の対応する複数の特徴点に基づいてカメラ202の位置及び姿勢をそれぞれ推定する。
図7は、ワールド座標系、ローカル座標系及び画像座標系の関係を示す図である。
被写体(本例では、橋梁B)の3次元位置(3次元形状)は、原点Oを有するXYZの直交3軸のワールド座標系によって表すことができる。
一方、xyzの直交3軸のローカル座標系(以下、「カメラ座標系」という)は、ワールド座標系とは独立に移動するカメラ202の座標系である。カメラ座標系の原点は、カメラ202の焦点位置であり、光軸方向がz軸である。
画像座標系は、カメラ202のイメージセンサに結像される撮像画像上の点の2次元位置を表す座標系である。撮像画像上の特徴点cの座標(u,v)は、カメラ202のイメージセンサの基準位置からの画素数と画素ピッチとにより求めることができる。
画像座標系における特徴点cの座標(u,v)、ワールド座標系における特徴点cの座標(X,Y,Z)、カメラ内部パラメータを表す行列C,及びカメラ外部パラメータを表す行列Mとの関係は、次式により表すことができる。
Figure 0006970817
カメラ内部パラメータは、焦点距離、イメージセンサの画像サイズ、画素ピッチ、画像中心位置等を含み、事前にキャリブレーションにより取得できるものである。
カメラ外部パラメータを表す行列Mは、ワールド座標からカメラ座標への座標変換行列であり、カメラ202の位置を表す並進ベクトル、及びカメラ202の姿勢を表す回転行列を含む。
カメラ202の位置及び姿勢は、カメラ外部パラメータを表す行列Mを求めることで推定することができる。複数の撮像画像上の特徴点に基づいてカメラ外部パラメータを推定する手法として、SfM手法が知られている。
SfM手法は、カメラ202を移動させながら撮像される撮像画像上の複数の特徴点を追跡し、これらの特徴点の対応関係を利用してカメラ202の位置及び姿勢と特徴点の3次元位置とを算出するものである。但し、SfM手法では、カメラ202と被写体との間の相対的な位置及びカメラ間の相対的な位置及び姿勢は推定可能であるが、撮像画像のみではスケール情報が得られないため、絶対的な位置を推定することができない。そこで、3次元位置が既知のマーカ等の絶対的な位置情報、あるいは被写体のサイズ情報等を付与することで、絶対的な位置を推定することができる。
合成情報算出部409は、入力される画像群Cに対して上記SfM手法を使用し、合成情報として画像群Cの各撮像画像を撮像したときのカメラ202の位置及び姿勢をそれぞれ推定する。
尚、合成情報算出部409は、SfM手法を使用する場合に限らず、例えば、SLAM手法を使用してもよい。SLAM手法では、入力画像の変化に応じて動的に更新される特徴点のセットを用いて、特徴点の位置とカメラ202の位置及び姿勢とを同時に推定することができる。SLAM手法の基本的な原理は、文献(Andrew J.Davison,“Real-Time Simultaneous Localization and Mapping with a Single Camera”,Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されている。
図8は、上述したようにSfMの手法を使用して算出されたカメラ202の位置(位置情報)P1、カメラ202の姿勢(姿勢情報)Q1、及び点群データの3次元位置Rを示す図であり、合成情報算出部409で算出される合成情報はこれらの情報を含む。
≪マッピング≫
次に、3次元設計データ取得部407により、橋梁Bの3次元設計データDが取得される(ステップS13:図4)。図9は、橋梁Bの3次元設計データDを示す図である。
その後、マッピング部411により、撮像画像C6において検出したひびわれ423が3次元設計データDにマッピングされる(ステップS14:図4)。ここで、3次元設計データDに撮像画像がマッピングされたものが点検結果となる。
図10は、点群データの3次元位置Rと3次元設計データDとのレジストレーションに関して示す概念図である。ここでレジストレーションとは、点群データの3次元位置Rと3次元設計データDと形状を一致させることをいう。
3次元設計データDと点群データの3次元位置Rとは、同一座標系上に置かれる。そして、3次元設計データDにおける平面421を基準にして、3次元設計データDにおける平面421と点群データの3次元位置Rにおける対応する平面とが一致するように、点群データの3次元位置Rを並進補正、回転補正、及び/又は拡縮補正を行う。例えば、3次元設計データDにおける平面421と点群データの3次元位置Rにおける平面421との差分を最小にするように最小二乗法で計算され、点群データの3次元位置Rに対して補正が行われる。このように、3次元設計データDを基準に、点群データの3次元位置Rのレジストレーションが行われることにより、3次元設計データは点検管理毎に異なる3次元モデルとならないので、過去の点検結果と比較を容易に行えるようになる。なお、点群データの3次元位置Rに関して上述したようにマーカ等により絶対的な位置が推定されている場合には、点群データの3次元位置Rを基準としてもよい。
図11は、マッピング部411により、ひびわれ423が3次元設計データDの平面421にマッピングされることを示す図である。マッピング部411は、3次元設計データDを基準に、点群データの3次元位置Rのレジストレーションが行われると、点群データの3次元位置Rの補正係数Wが算出する。マッピング部411は、その補正係数Wと、SfM手法を使用して推定したカメラ202の位置P1及び姿勢Q1から、上述のレジストレーション後のカメラ202の位置P2及び姿勢Q2を算出する。そして、マッピング部411は、カメラ202の位置P2及び姿勢Q2に基づいて、新たな行列式を算出し、ひびわれ423を3次元設計データDの平面421にマッピングする。なお、カメラ202の位置P2及び姿勢Q2で撮像されたひびわれ423のマッピングは、公知の技術が使用されるのでここでは説明を省略する。このように、3次元設計データDの平面421に損傷423をマッピングすることにより、マッピングされた撮像画像が均一性を有し、マッピングされた画像の画質劣化が抑制される。また、3次元設計データDの平面421に損傷423をマッピングすることにより、過去の点検結果(3次元設計データDの平面421にマッピングされた過去の損傷)と比較することができる。
表示部340に、ひびわれ423が3次元設計データDにマッピングされるのに伴い、ひびわれ423の損傷情報431である、損傷の種類である「ひびわれ」と損傷の程度「ランクC」が表示される。
図12は、マッピング形態の変形例を示す図であり、撮像画像C6が3次元設計データDの平面421にマッピングされることを示す図である。3次元設計データDの平面421には、ひびわれ423だけでなく、画像群Cを構成する撮像画像をマッピングすることもできる。この場合、各撮像画像をマッピングし、マッピングした撮像画像上に検出したひびわれ423をマッピングする。なお、図12では撮像画像C6のマッピングのみ示しているが、3次元設計データDの平面421には、画像群Cがマッピングされる。画像群Cがマッピングされる場合には、図6で示したように短冊型の連続した撮像画像がマッピングされることになる。
以上で説明したように、本発明では、合成情報算出部で算出された合成情報に基づいて、取得した3次元設計データが示す構造物の表面に、検出した損傷をマッピングする。これにより、マッピングされた損傷の画質が劣化することが抑制され、且つ過去の点検結果との比較を簡単に行うことができる。
上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1 :構造物管理システム
100 :移動体
108 :移動体駆動部
130 :移動体制御部
202 :カメラ
204 :撮像制御部
230 :移動体入出力部
300 :構造物管理装置
310 :装置入出力部
320 :装置制御部
330 :操作部
340 :表示部
350 :記録部
401 :画像取得部
403 :損傷検出部
405 :損傷評価部
407 :3次元設計データ取得部
409 :合成情報算出部
411 :マッピング部

Claims (15)

  1. カメラを搭載した移動体を移動させ、前記カメラにより構造物をオーバーラップ領域をもって撮像された画像群を取得する画像取得部と、
    前記画像群の各画像を解析して前記構造物の損傷を検出する損傷検出部と、
    前記構造物を示す3次元設計データを取得する3次元設計データ取得部と、
    前記画像群の各画像間のオーバーラップ領域内で共通する特徴点の点群データを追跡し、前記カメラの各画像の撮像時のカメラ位置及びカメラ姿勢と前記点群データの3次元位置とを含む合成情報を算出する合成情報算出部と、
    前記合成情報算出部により算出された合成情報を使用して、前記取得した3次元設計データが示す前記構造物の表面を基準として、前記点群データの3次元位置を補正する補正係数を算出し、前記補正係数に基づいて前記検出した損傷をマッピングするマッピング部と、
    を備えた構造物管理装置。
  2. 前記マッピング部は、前記点群データの3次元位置を並進補正、回転補正、及び拡縮補正のうち少なくとも一つを行う前記補正係数を算出する請求項1に記載の構造物管理装置。
  3. 前記マッピング部は、前記合成情報算出部により算出された合成情報に基づいて、前記取得した3次元設計データが示す前記構造物の表面に前記画像群の各画像をマッピングし、前記マッピングした画像上に前記検出した損傷をマッピングする請求項1又は2に記載の構造物管理装置。
  4. 前記損傷検出部により検出された前記損傷の程度を評価する損傷評価部と、
    前記取得した3次元設計データ及び前記マッピングされた損傷を表示する表示部と、
    を備え、
    前記表示部は、前記マッピングされた損傷の位置に関連付けて、前記損傷評価部による損傷の評価結果を含む損傷情報を更に表示する請求項1から3のいずれか1項に記載の構造物管理装置。
  5. 前記損傷検出部により検出された前記損傷の程度を評価する損傷評価部と、
    前記3次元設計データを記録する記録部と、
    を備え、
    前記記録部は、前記マッピングされた損傷の位置情報と関連付けて前記損傷評価部による前記損傷の評価結果を含む損傷情報を記録する請求項1からのいずれか1項に記載の構造物管理装置。
  6. 前記損傷情報は、前記損傷検出部により検出される損傷の種類、前記損傷評価部による損傷の程度を示すランク、及び損傷のサイズを含む請求項又はに記載の構造物管理装置。
  7. 前記合成情報算出部は、Structure from Motion手法又はSimultaneous Localization And Mapping手法により前記画像群の各画像を撮像したときの前記カメラのカメラ位置及びカメラ姿勢と前記点群データの3次元位置を算出する請求項1からのいずれか1項に記載の構造物管理装置。
  8. 前記カメラを搭載した移動体と、
    前記移動体の移動及び前記カメラの撮像を制御し、前記カメラにより前記画像群を撮像
    させる移動体制御部と、を備え、
    前記画像取得部は、前記移動体に搭載された前記カメラにより撮像された前記画像群を
    取得する請求項1からのいずれか1項に記載の構造物管理装置。
  9. 前記移動体は、飛行体である請求項に記載の構造物管理装置。
  10. 画像取得部が、カメラを搭載した移動体を移動させ、前記カメラにより構造物をオーバーラップ領域をもって撮像された画像群を取得するステップと、
    損傷検出部が、前記画像群の各画像を解析して前記構造物の損傷を検出するステップと、
    3次元設計データ取得部が、前記構造物を示す3次元設計データを取得するステップと、
    合成情報算出部が、前記画像群の各画像間のオーバーラップ領域内で共通する特徴点の点群データを追跡し、前記カメラの各画像の撮像時のカメラ位置及びカメラ姿勢と前記点群データの3次元位置とを含む合成情報を算出するステップと、
    マッピング部が、前記算出された合成情報に基づいて、前記取得した3次元設計データが示す前記構造物の表面に、前記検出した損傷をマッピングするステップと、
    を含む構造物管理方法。
  11. 前記マッピングするステップは、前記点群データの3次元位置を並進補正、回転補正、及び拡縮補正のうち少なくとも一つを行う前記補正係数を算出する請求項10に記載の構造物管理方法。
  12. 前記マッピングするステップは、前記合成情報に基づいて前記取得した3次元設計データが示す前記構造物の表面に前記画像群の各画像をマッピングし、前記マッピングした画像上に前記検出した損傷をマッピングする請求項10又は11に記載の構造物管理方法。
  13. 損傷評価部が、前記検出された前記損傷の程度を評価するステップと、
    表示部が、前記取得した3次元設計データ及び前記マッピングされた損傷を表示するステップと、を含み、
    前記表示するステップは、前記マッピングされた損傷の位置に関連付けて、前記損傷評価部による損傷の評価結果を含む損傷情報を更に表示する請求項10から12のいずれか1項に記載の構造物管理方法。
  14. カメラを搭載した移動体を移動させ、前記カメラにより構造物をオーバーラップ領域をもって撮像された画像群を取得する機能と、
    前記画像群の各画像を解析して前記構造物の損傷を検出する機能と、
    前記構造物を示す3次元設計データを取得する機能と、
    前記画像群の各画像間のオーバーラップ領域内で共通する特徴点の点群データを追跡し、前記カメラの各画像の撮像時のカメラ位置及びカメラ姿勢と前記点群データの3次元位置とを含む合成情報を算出する機能と、
    前記算出された合成情報を使用して、前記取得した3次元設計データが示す前記構造物の表面を基準として、前記点群データの3次元位置を補正する補正係数を算出し、前記補正係数に基づいて前記検出した損傷をマッピングする機能と、
    をコンピュータに実行させる構造物管理プログラム。
  15. 非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に、
    カメラを搭載した移動体を移動させ、前記カメラにより構造物をオーバーラップ領域をもって撮像された画像群を取得する機能と、
    前記画像群の各画像を解析して前記構造物の損傷を検出する機能と、
    前記構造物を示す3次元設計データを取得する機能と、
    前記画像群の各画像間のオーバーラップ領域内で共通する特徴点の点群データを追跡し、前記カメラの各画像の撮像時のカメラ位置及びカメラ姿勢と前記点群データの3次元位置とを含む合成情報を算出する機能と、
    前記算出された合成情報を使用して、前記取得した3次元設計データが示す前記構造物の表面を基準として、前記点群データの3次元位置を補正する補正係数を算出し、前記補正係数に基づいて前記検出した損傷をマッピングする機能と、
    を含む構造物管理機能をコンピュータに実現させる記録媒体。
JP2020513211A 2018-04-11 2019-04-02 構造物管理装置、構造物管理方法、及び構造物管理プログラム Active JP6970817B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018076130 2018-04-11
JP2018076130 2018-04-11
PCT/JP2019/014596 WO2019198562A1 (ja) 2018-04-11 2019-04-02 構造物管理装置、構造物管理方法、及び構造物管理プログラム

Publications (2)

Publication Number Publication Date
JPWO2019198562A1 JPWO2019198562A1 (ja) 2021-04-30
JP6970817B2 true JP6970817B2 (ja) 2021-11-24

Family

ID=68163691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020513211A Active JP6970817B2 (ja) 2018-04-11 2019-04-02 構造物管理装置、構造物管理方法、及び構造物管理プログラム

Country Status (3)

Country Link
US (1) US11915411B2 (ja)
JP (1) JP6970817B2 (ja)
WO (1) WO2019198562A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117558A1 (ja) * 2019-12-09 2021-06-17 富士フイルム株式会社 画像処理方法、画像処理装置、画像処理プログラム、及び画像処理システム
CN115176281A (zh) * 2020-03-03 2022-10-11 富士胶片株式会社 三维显示装置、方法及程序
JPWO2022070734A1 (ja) * 2020-10-02 2022-04-07
JPWO2022259383A1 (ja) * 2021-06-08 2022-12-15

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4540329B2 (ja) * 2003-07-11 2010-09-08 オリンパス株式会社 情報呈示装置
KR20060030902A (ko) 2003-07-11 2006-04-11 올림푸스 가부시키가이샤 정보 제시 장치 및 그것을 이용한 정보 제시 시스템
JP2005310044A (ja) * 2004-04-26 2005-11-04 Constec Engi Co データ処理装置、データ処理方法、及びデータ処理プログラム
JP5593177B2 (ja) * 2010-09-14 2014-09-17 株式会社トプコン 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
US9639959B2 (en) * 2012-01-26 2017-05-02 Qualcomm Incorporated Mobile device configured to compute 3D models based on motion sensor data
JP6029475B2 (ja) * 2013-01-10 2016-11-24 株式会社竹中工務店 壁面診断結果記録システム、壁面診断結果記録方法、及び壁面診断結果記録プログラム
US20160148363A1 (en) * 2013-03-14 2016-05-26 Essess, Inc. Methods and systems for structural analysis
JP6080641B2 (ja) * 2013-03-25 2017-02-15 株式会社ジオ技術研究所 3次元点群解析方法
JP2015114954A (ja) 2013-12-13 2015-06-22 株式会社ジオ技術研究所 撮影画像解析方法
JP2016126769A (ja) * 2014-12-26 2016-07-11 古河機械金属株式会社 検査結果出力装置、検査結果出力方法、及び、プログラム
JPWO2016157349A1 (ja) * 2015-03-30 2017-07-13 株式会社日立製作所 形状計測方法およびその装置
US9613538B1 (en) * 2015-12-31 2017-04-04 Unmanned Innovation, Inc. Unmanned aerial vehicle rooftop inspection system
WO2017116860A1 (en) * 2015-12-31 2017-07-06 Unmanned Innovation, Inc. Unmanned aerial vehicle rooftop inspection system
JP2017130049A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017151026A (ja) * 2016-02-26 2017-08-31 東急建設株式会社 三次元情報取得装置、三次元情報取得方法、及びプログラム
JP6733267B2 (ja) * 2016-03-31 2020-07-29 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2017227595A (ja) 2016-06-24 2017-12-28 富士フイルム株式会社 損傷図作成支援システム及び損傷図作成支援方法
WO2017221706A1 (ja) * 2016-06-24 2017-12-28 富士フイルム株式会社 損傷図編集装置及び損傷図編集方法
EP3273266A1 (en) * 2016-07-21 2018-01-24 Grupo Empresarial Copisa, S.L. A system and a method for surface aerial inspection
US9805261B1 (en) * 2017-02-27 2017-10-31 Loveland Innovations, LLC Systems and methods for surface and subsurface damage assessments, patch scans, and visualization
WO2020202496A1 (ja) * 2019-04-03 2020-10-08 日本電気株式会社 表面異常検知装置、及びシステム

Also Published As

Publication number Publication date
WO2019198562A1 (ja) 2019-10-17
JPWO2019198562A1 (ja) 2021-04-30
US11915411B2 (en) 2024-02-27
US20210018447A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
JP6970817B2 (ja) 構造物管理装置、構造物管理方法、及び構造物管理プログラム
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
US9235928B2 (en) 3D body modeling, from a single or multiple 3D cameras, in the presence of motion
RU2609434C2 (ru) Выявление расположения и местоположения объектов
JP5430456B2 (ja) 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
JP6733267B2 (ja) 情報処理プログラム、情報処理方法および情報処理装置
EP3605456B1 (en) Image processing device and image processing method
Herráez et al. 3D modeling by means of videogrammetry and laser scanners for reverse engineering
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP6877293B2 (ja) 位置情報記録方法および装置
Mader et al. UAV-based acquisition of 3D point cloud–a comparison of a low-cost laser scanner and SFM-tools
US20230080178A1 (en) Automated assessment of cracks using lidar and camera data
JP5439277B2 (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
JP4568845B2 (ja) 変化領域認識装置
US20220405878A1 (en) Image processing apparatus, image processing method, and image processing program
Guo et al. 3D scanning of live pigs system and its application in body measurements
Ioli et al. UAV photogrammetry for metric evaluation of concrete bridge cracks
JPWO2008032375A1 (ja) 画像補正装置及び方法、並びにコンピュータプログラム
Feng et al. Crack assessment using multi-sensor fusion simultaneous localization and mapping (SLAM) and image super-resolution for bridge inspection
JP6228239B2 (ja) プリミティブの組を用いてデータをレジストレーションする方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
WO2023133125A1 (en) System and method for mapping the skin
JP7447238B2 (ja) 画像表示装置、画像表示方法、及びプログラム
JP2014112056A (ja) 被写体形状の3次元計測方法およびシステム
JP2006172099A (ja) 変化領域認識装置および変化認識システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211029

R150 Certificate of patent or registration of utility model

Ref document number: 6970817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150