JP6771449B2 - 航空画像からの自動物体検出のための方法およびシステム - Google Patents

航空画像からの自動物体検出のための方法およびシステム Download PDF

Info

Publication number
JP6771449B2
JP6771449B2 JP2017228695A JP2017228695A JP6771449B2 JP 6771449 B2 JP6771449 B2 JP 6771449B2 JP 2017228695 A JP2017228695 A JP 2017228695A JP 2017228695 A JP2017228695 A JP 2017228695A JP 6771449 B2 JP6771449 B2 JP 6771449B2
Authority
JP
Japan
Prior art keywords
region
image
dsm
aerial
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017228695A
Other languages
English (en)
Other versions
JP2018092628A (ja
Inventor
正方 羅
正方 羅
姿秀 陳
姿秀 陳
長榮 柯
長榮 柯
俊毅 ▲呉▼
俊毅 ▲呉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Geosat Aerospace and Technology Inc
Original Assignee
Geosat Aerospace and Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geosat Aerospace and Technology Inc filed Critical Geosat Aerospace and Technology Inc
Publication of JP2018092628A publication Critical patent/JP2018092628A/ja
Application granted granted Critical
Publication of JP6771449B2 publication Critical patent/JP6771449B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Quality & Reliability (AREA)

Description

本開示は、概して、空撮画像から物体を検出するための方法およびシステムに関し、より詳細には、テンプレートマッチングおよび人工知能によって関心領域の航空画像から物体を検出するための方法およびシステムに関する。
自動物体検出は、画像内の標的物体を見つけて識別するのに役立つ。人間は、画像内の1つまたはいくつかの物体をほとんど努力せずに認識することができる。しかしながら、人間が画像内の相当数の標的物体を見つけて識別することは困難であり得る。画像内の標的物体は、異なるサイズおよびスケールで表示された場合、または、さらには異なる回転角度で表示された場合、異なる視点からは異なって見える場合がある。いくつかのコンピュータ実施方法は、その外観または特徴に基づいて標的物体を検出することができる。しかしながら、これらの物体検出方法の正確度は、換金作物または特定の農業用途のようないくつかの用途には十分ではない可能性がある。
関心領域内の潜在的な標的物体の数が増加し、航空画像の解像度が制限される場合、空撮画像からの物体検出はさらに困難になる。大規模な領域に潜在的な標的物体が相当量存在する場合、標的物体を見つけて識別するために人間に頼ることは実行不可能になる。航空画像の解像度を上げることは、物体検出の正確度を高めるのに役立つ可能性がある。しかしながら、同時に、高解像度画像上で物体認識および検出を実行することは計算複雑度を増大させ、特定の用途の実現可能性および効率を制限する。
したがって、関心領域の空撮画像から標的物体を迅速かつ精密に検出するための方法およびシステムが必要とされている。開示されている方法およびシステムは、上述した1つまたは複数の問題および/または従来技術の他の問題を克服または改善することを目的とする。
本開示の1つの態様は、実行されると、1つまたは複数のプロセッサに、空撮画像から物体を検出するための動作を実行させる命令を記憶する非一時的コンピュータ可読媒体に関する。動作は、一定の領域の数値表層モデル(DSM)画像を得ることを含み得る。この動作は、1つまたは複数の標的物体のDSM画像を得ることをさらに含むことができる。動作は、領域および1つまたは複数の標的物体のDSM画像に基づいて、領域内の標的物体を検出することをさらに含むことができる。動作は、領域のDSM画像に対応する領域の航空画像を得ることをさらに含むことができる。動作は、領域の航空画像上の検出された標的物体の1つまたは複数の位置を取得することをさらに含むことができる。動作は、検出された標的物体の1つまたは複数の位置において1つまたは複数の領域航空画像を取得することをさらに含むことができる。この動作は、1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を、1つまたは複数の特徴ベクトルとして抽出することをさらに含むことができる。動作は、複数の訓練データを得ることをさらに含み、訓練データは、標的物体と同じ種類の物体の複数の航空画像を含む。動作はさらに、複数の訓練データに基づいて分類器を訓練することを含むことができる。この動作は、1つまたは複数の特徴ベクトルに従って、訓練された分類器によって1つまたは複数の領域航空画像を分類することをさらに含むことができる。この動作は、分類結果に基づいて、1つまたは複数の領域航空画像の中の標的物体を認識することをさらに含むことができる。動作は、認識された標的物体の1つまたは複数の位置を取得することをさらに含むことができる。動作は、認識された標的物体の数を計算することをさらに含むことができる。
本開示の別の態様は、方法を実施する命令を実行する1つもしくは複数の集積回路、1つもしくは複数のフィールドプログラマブルゲートアレイ、1つもしくは複数のプロセッサもしくはコントローラ、またはそれらの任意の組み合わせによって実行される、空撮画像から物体を検出する方法に関する。この方法は、ある領域のDSM画像を得ることを含むことができる。この方法は、1つまたは複数の標的物体のDSM画像を得ることをさらに含むことができる。方法は、領域および1つまたは複数の標的物体のDSM画像に基づいて、領域内の標的物体を検出することをさらに含むことができる。方法は、領域のDSM画像に対応する領域の航空画像を得ることをさらに含むことができる。方法は、領域の航空画像上の検出された標的物体の1つまたは複数の位置を取得することをさらに含むことができる。方法は、検出された標的物体の1つまたは複数の位置において1つまたは複数の領域航空画像を取得することをさらに含むことができる。この方法は、1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を、1つまたは複数の特徴ベクトルとして抽出することをさらに含むことができる。方法は、複数の訓練データを得ることをさらに含み、訓練データは、標的物体と同じ種類の物体の複数の航空画像を含む。方法はさらに、複数の訓練データに基づいて分類器を訓練することを含むことができる。この方法は、1つまたは複数の特徴ベクトルに従って、訓練された分類器によって1つまたは複数の領域航空画像を分類することをさらに含むことができる。この方法は、分類結果に基づいて、1つまたは複数の領域航空画像の中の標的物体を認識することをさらに含むことができる。方法は、認識された標的物体の1つまたは複数の位置を取得することをさらに含むことができる。方法は、認識された標的物体の数を計算することをさらに含むことができる。
本開示のさらに別の態様は、空撮画像から物体を検出するためのシステムに関する。空撮画像から物体を検出するためのシステムは、航空画像ユニット、標的画像ユニット、および検出ユニットを含むことができる。航空画像ユニットは、領域のDSM画像を得るように構成することができる。標的画像ユニットは、1つまたは複数の標的物体のDSM画像を得るように構成することができる。検出ユニットは、領域および1つまたは複数の標的物体のDSM画像に基づいて、領域内の標的物体を検出するように構成することができる。
空撮画像から物体を検出するためのシステムは、測位ユニット、領域航空画像ユニット、抽出ユニット、および分類認識ユニットをさらに含むことができる。航空画像ユニットは、領域のDSM画像に対応する領域の航空画像を得るように構成することができる。測位ユニットは、領域の航空画像上の検出された標的物体の1つまたは複数の位置を取得するように構成することができる。領域航空画像取得ユニットは、検出された標的物体の1つまたは複数の位置において1つまたは複数の領域航空画像を取得するように構成することができる。抽出ユニットは、1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を、1つまたは複数の特徴ベクトルとして抽出するように構成することができる。分類認識ユニットは、複数の訓練データを得るように構成することができ、訓練データは、標的物体と同じ種類の物体の複数の航空画像を含む。分類認識ユニットは、複数の訓練データに基づいて分類器を訓練するようにさらに構成することができる。分類認識ユニットは、1つまたは複数の特徴ベクトルに従って、訓練された分類器によって1つまたは複数の領域航空画像を分類するようにさらに構成することができる。分類認識ユニットは、分類結果に基づいて、1つまたは複数の領域航空画像の中の標的物体を認識するようにさらに構成することができる。分類認識ユニットは、認識された標的物体の1つまたは複数の位置を取得するようにさらに構成することができる。分類認識ユニットは、認識された標的物体の数を計算するようにさらに構成することができる。
開示されている実施形態による自動物体検出のための領域の例示的な航空画像を示す図である。
開示されている実施形態による、空撮画像からの自動物体検出のための例示的な方法を示すフローチャートである。
開示されている実施形態による、自動物体検出のための図1内の領域の例示的な航空画像に対応する、領域の例示的なDSM画像を示す図である。
開示されている実施形態による、自動物体検出のための例示的な種類の標的物体の2つの例示的なDSM画像を示す図である。
開示されている実施形態による、自動物体検出のための図3の領域の例示的なDSM画像と図4の例示的なテンプレート画像との間の一致率の例示的な計算からの一致率の例示的な画像を示す図である。
開示されている実施形態による、図2の自動物体検出のための例示的な方法による、検出された例示的な標的物体の位置をマークされた領域の例示的な航空画像を示す図である。
開示されている実施形態による、空撮画像からの自動物体検出のための別の例示的な方法を示すフローチャートである。
開示されている実施形態による、図2の自動物体検出のための例示的な方法による、検出された例示的な標的物体の位置をマークされた領域の例示的な航空画像を示す部分拡大図である。
開示されている実施形態による、自動物体検出のための例示的な分類器を訓練するために利用され得る、複数の例示的な訓練データの図である。
開示されている実施形態による、図7の自動物体検出のための例示的な方法による、検出された標的物体の位置において分類結果をマークされた領域の例示的な航空画像を示す部分拡大図である。
開示されている実施形態による、図7の自動物体検出のための例示的な方法による、正確に検出および認識された例示的な標的物体の位置をマークされた領域の例示的な航空画像を示す部分拡大図である。
開示されている実施形態による、図7の自動物体検出のための例示的な方法による、検出および分類された例示的な標的物体の位置において分類結果をマークされた領域の例示的な航空画像を示す図である。
開示されている実施形態による、空撮画像からの自動物体検出のための例示的なシステムのブロック図である。
本開示は、概して、空撮画像から物体を検出するための方法およびシステムに関する。物体は、植物、樹木、油ヤシの木、物体、建物、施設、土地、地形学的特徴、またはそれらの任意の組み合わせであり得ることが企図されている。一般に、検出される標的物体には、物体、建物、施設、植物、樹木、動物、およびさらには人間のようなものが含まれ得る。標的物体は、色、形状、および/または外観においていくつかの特徴を有することができる。標的物体のこれらの特徴は、関心領域の画像内の標的物体を検出するために利用することができる。
図1は、開示されている実施形態による自動物体検出のための領域の例示的な航空画像の図である。例えば、油ヤシの木が、その領域の航空画像において検出されるべき例示的な標的物体である。これらの油ヤシの木は地面から一定の高さを有する。いくつかの実施形態では、開示されている方法およびシステムは、領域の航空画像内の標的物体の高さ情報に基づいて標的物体を検出することを含むことができる。例えば、ある領域のDSMは、地表およびすべての物体、ならびに、地表およびすべての物体に関連する高さ情報を含むことができる。開示されている方法およびシステムは、関心領域のDSMに含まれる高さ情報を介して標的物体を検出することを含むことができることが企図されている。いくつかの実施形態では、開示されている方法およびシステムは、領域の数値標高モデル(DEM)などの高さ情報を含む領域の様々なモデルおよび/または画像の中の標的物体を検出することを含むことができる。
いくつかの実施形態では、開示されている方法およびシステムは、1つもしくは複数の光検出および測距(LiDAR)センサ、リアルタイムDSMセンサ、DSMを事後生成するためのセンサ、領域の複数の航空画像からの計算、またはそれらの任意の組み合わせを使用することによって、ある領域のDSM、DEM、および/または航空画像を得ることを含むことができる。いくつかの実施形態では、開示されている方法およびシステムは、無人航空機(UAV)100(図13に示されている)、ドローン、航空機、ヘリコプタ、バルーン、または衛星によって上述のセンサおよび/またはカメラのうちの1つを使用することによって、ある領域のDSM、DEMおよび/または航空画像を収集することを含むことができる。いくつかの実施形態では、開示されている方法およびシステムは、Bluetooth(登録商標)、Wi−Fi、セルラ(例えば、GPRS、WCDMA(登録商標)、HSPA、LTE、またはそれ以降の世代のセルラ通信システム)、および衛星接続などの無線接続、または、USBラインもしくは電灯線のような有線接続を通じて、UAV100、ドローン、航空機、ヘリコプタ、バルーン、または衛星から、ある領域のDSM、DEMおよび/または航空画像の関連データを受信することをさらに含むことができる。
いくつかの実施形態では、開示されている方法およびシステムは、領域の部分の複数のDSM、DEMおよび/または航空画像から物体検出のためのある領域のDSM、DEMおよび/または航空画像を得ることを含むことができる。例えば、開示されている方法およびシステムは、物体検出のための図1の領域の航空画像を得るために、領域の部分の複数の航空画像を結合またはステッチングすることを含むことができる。開示されている方法およびシステムは、画像アライメントのために、ある画像の画素座標を別の画像の画素座標に関連付ける適切な数学モデルを決定することを含むことができる。開示されている方法およびシステムは、画素対画素の直接の比較と勾配降下とを組み合わせることによって、様々な航空画像対に関する正確なアライメントを推定することをさらに含むことができる。開示されている方法およびシステムは、航空画像の対の間の対応を確立するために、領域の部分の航空画像における特有の特徴を識別およびマッチングすることをさらに含むことができる。開示されている方法およびシステムは、位置合わせされた航空画像のすべてをそれに対してワーピングするかまたは投影的に変換し配置するための最終合成面を決定することをさらに含むことができる。開示されている方法およびシステムは、視差、レンズ歪み、シーン動き、および露出差の存在下であっても、重なり合う航空画像をシームレスに混合することをさらに含むことができる。
図2は、開示されている実施形態による、空撮画像からの自動物体検出のための例示的な方法200を示すフローチャートである。本開示の1つの態様は、実行されると、1つまたは複数のプロセッサに、空撮画像から物体を検出するための図2の例示的な方法200を実行させる命令を記憶する非一時的コンピュータ可読媒体に関する。コンピュータ可読媒体は、揮発性もしくは不揮発性、磁気、半導体、テープ、光学、取外し可能、取外し不能、もしくは他のタイプのコンピュータ可読媒体またはコンピュータ可読記憶デバイスを含んでもよい。例えば、コンピュータ可読媒体は、開示されているように、コンピュータ命令を記憶されている記憶ユニットまたはメモリモジュールであってもよい。いくつかの実施形態では、コンピュータ可読媒体は、コンピュータ命令が記憶されているディスクまたはフラッシュドライブであってもよい。いくつかの実施形態では、コンピュータ可読媒体は、コンピュータ命令が記憶されているクラウドまたはリモートストレージであってもよく、命令は、実行のために別のデバイスにダウンロードされてもよい。
方法200は、領域のDSM画像を得るステップ(ステップ220)と、標的物体のDSM画像を得るステップ(ステップ240)と、ステップ220および240における領域および標的物体のDSM画像に基づいて領域内の標的物体を検出するステップ(ステップ260)とを含むことができる。ある領域のDSMにはその領域の高さ情報が含まれていることに留意すべきである。領域の高さ情報を領域のグレースケール画像のグレースケール値として使用することにより、およびその逆により、領域のDSM画像を得ることができる。したがって、本開示全体を通して適用可能であれば、「DSM」および「DSM画像」を代替的に使用することができる。
ステップ220は、関心領域のDSM画像を得ることを含むことができる。例えば、ステップ220のある領域のDSM画像を得ることは、コンピュータ可読媒体またはコンピュータ可読記憶デバイスから関心領域のDSM画像にアクセスすることを含むことができる。別の例として、ステップ220のある領域のDSM画像を得ることは、画像入力120(これは、開示されているシステムで説明する)のような外部入力から関心領域のDSM画像を受信するステップを含むことができる。画像入力120は、例えば、UAV100、ドローン、航空機、ヘリコプタ、バルーン、または衛星に通信可能に接続されてもよい。言い換えれば、ステップ220のある領域のDSM画像を得ることは、UAV100、ドローン、航空機、ヘリコプタ、バルーン、または衛星から関心領域のDSM画像を受信することを含むことができる。いくつかの実施形態では、ステップ220のある領域のDSM画像を得ることは、領域の部分の複数のDSM画像を得ることと、関心領域のDSM画像を得るために、領域の部分の複数のDSM画像を結合またはステッチングすることとを含むことができる。例えば、ステップ220のある領域のDSM画像を得ることは、領域の部分の複数のDSM画像を得ることと、DSM画像の対の間の対応を確立するために、複数のDSM画像内の特有の特徴を識別およびマッチングすることとを含むことができる。ステップ220のある領域のDSM画像を得ることは、関心領域のDSM画像を得るために、DSM画像の対の間の確立された対応に基づいて領域の部分の複数のDSM画像を混合することをさらに含むことができる。
いくつかの実施形態では、ステップ220のある領域のDSM画像を得ることは、ある領域の複数の航空画像を得ることと、領域のDSM画像を得るために、領域の部分のこれらの航空画像を結合またはステッチングすることと、領域のステッチングされた航空画像を領域のDSM画像に変換することとを含むことができる。例えば、ステップ220のある領域のDSM画像を得ることは、ある領域の部分の複数の航空画像を受信することと、図1に示す領域の航空画像を得るために、領域の部分の複数の航空画像をステッチングすることとを含むことができる。領域の部分のこれらの航空画像は、領域の部分の複数のDSMと関連付けることができる。換言すれば、領域の部分の複数の航空画像は、領域の部分の複数のDSMに対応することができる。ステップ220は、領域の部分の航空画像とDSMとの間の対応に基づいて、図1の領域のステッチングされた航空画像に対応する図3の領域のDSM画像を得ることを含むことができる。図3は、開示されている実施形態による、自動物体検出のための図1内の領域の例示的な航空画像に対応する、領域の例示的なDSM画像の図である。
いくつかの実施形態では、ステップ220の領域のDSM画像を得ることは、1つもしくは複数のLiDARセンサ、リアルタイムDSMセンサ、DSMを事後生成するためのセンサ、領域の複数の航空画像からの計算、またはそれらの任意の組み合わせを使用することによって、領域または領域の部分のDSMおよび/または航空画像を収集することを含むことができる。いくつかの実施形態では、ステップ220の領域のDSM画像を得ることは、UAV 100、ドローン、航空機、ヘリコプタ、バルーン、または衛星によって上述のセンサおよび/またはカメラのうちの1つを使用することによって、ある領域または領域の部分のDSMおよび/または航空画像を収集することを含むことができる。いくつかの実施形態では、ステップ220の領域のDSM画像を得ることは、Bluetooth(登録商標)、Wi−Fi、セルラ(例えば、GPRS、WCDMA(登録商標)、HSPA、LTE、またはそれ以降の世代のセルラ通信システム)、および衛星接続などの無線接続、または、USBラインもしくは電灯線のような有線接続を通じて、UAV100、ドローン、航空機、ヘリコプタ、バルーン、または衛星から、領域のDSMおよび/または航空画像の収集されているデータを受信することをさらに含むことができる。
いくつかの実施形態では、ステップ220のある領域のDSM画像を得るステップは、領域のDSM画像に対応する領域のカラー航空画像を得ることと、標的物体のカラー航空画像を得ることと、領域のカラー航空画像および標的物体の色に基づいて、領域の1つまたは複数の部分領域を、1つまたは複数の標的部分領域として決定することとをさらに含むことができる。
例えば、ステップ220のある領域のDSM画像を得ることは、図3の関心領域のDSM画像に対応する、図1の領域のRGB航空画像を得ることをさらに含むことができる。さらに、ステップ220のある領域のDSM画像を得ることは、標的物体である油ヤシの木のRGB航空画像を得ることをさらに含むことができる。さらに、ステップ220のある領域のDSM画像を得ることは、油ヤシの木の特定の原色として緑色を識別することをさらに含むことができる。さらに、ステップ220のある領域のDSM画像を得ることは、個々のG値がその個々のR値とB値の両方よりも大きいときに、領域の航空画像の画素を、油ヤシの木の可能性のある画素として識別することをさらに含むことができる。たとえば、次の条件付き演算を使用して、画素が油ヤシの木の可能性のある画素として識別されるか否かをチェックすることができる:If(Pixel.G>Pixel.R&&Pixel.G>Pixel.B)Get Pixel。Pixel.R、Pixel.G、およびPixel.Bは、画素の個々のR、G、およびBレベルを表す。さらに、ステップ220のある領域のDSM画像を得ることは、油ヤシの木の隣接する一定量の可能性のある画素を標的部分領域として識別することをさらに含むことができる。
いくつかの実施形態において、ステップ220のある領域のDSM画像を得ることは、標的物体の特定の原色を識別することをさらに含むことができる。例えば、ステップ220の標的物体の特定の原色を識別することは、標的物体の航空画像の画素内の個々のR、G、およびBレベルを比較することと、これらの画素の代表的な原色を決定することとを含むことができる。さらに、ステップ220の標的物体の特定の原色を識別することは、これらの画素の代表的な原色の数を計算することと、最大数の画素の代表的な原色を標的物体の特定の原色として識別することとをさらに含むことができる。例えば、ステップ220の標的物体の特定の原色を識別することは、緑色が油ヤシの木の航空画像の最大画素数を有する代表的な原色である場合に、緑色を、油ヤシの木の特定の原色として識別することを含むことができる。
いくつかの実施形態では、ステップ220のある領域のDSM画像を得ることは、領域のDSM画像上の1つまたは複数の標的部分領域の画像のコントラストを強調することをさらに含むことができる。例えば、ステップ220の標的部分領域のコントラストを強調することは、ヒストグラム等化によって領域の航空画像の識別された標的部分領域に対応する領域のDSM画像の標的部分領域のコントラストを強調することを含むことができる。例えば、ヒストグラム等化を使用することによって、ステップ220のコントラストを強調することは、標的部分領域の画素の確率質量関数を計算することと、グレーレベルに従って累積分布関数(CDF)値を計算すること、CDF値に(グレーレベル−1)を乗算することと、新しいグレーレベル値を標的部分領域の画素にマッピングすることとを含むことができる。ステップ220のコントラストを強調することは、大域的拡張、異方性拡散、非線形ピラミッド技法、マルチスケール形態学的技術、多解像度スプライン、マウンテンクラスタリング、retinex理論、ウェーブレット変換、カーブレット変換、kシグマクリッピング、ファジー理論、遺伝的アルゴリズム、または欲張りアルゴリズムなどの他のアルゴリズムによってコントラストを協調することを含むことができる。
ステップ240は、標的物体のDSM画像を得ることを含むことができる。図4は、開示されている実施形態による、自動物体検出のための例示的な種類の標的物体の2つの例示的なDSM画像を示す。例えば、ステップ240の標的物体のDSM画像を得ることは、コンピュータ可読媒体またはコンピュータ可読記憶デバイスから図4(a)の油ヤシの木のDSM画像にアクセスすることを含むことができる。別の例として、ステップ240の標的物体のDSM画像を得ることは、画像入力120(これは、開示されているシステムで説明する)のような外部入力から図4(a)の油ヤシの木のDSM画像を受信することを含むことができる。別の例として、ステップ240の標的物体のDSM画像を得ることは、画像入力120などの内部入力から選択信号を受信することを含むことができる。選択信号は、ステップ220における領域のDSM画像の一部を標的物体のDSM画像として識別することを含むことができる。例えば、選択信号は、ユーザがマウスカーソル、自身の指、またはペンを使用して、表示画面上の領域を選択している間に、DSM画像上で油ヤシの木のDSM画像を囲む領域を、標的物体として識別することを含むことができる。
いくつかの実施形態では、ステップ240の標的物体のDSM画像を得るステップは、標的物体の複数のDSM画像にアクセスまたは受信することと、それらの1つを標的物体のDSM画像として選択することとを含むことができる。ステップ240の標的物体のDSM画像を選択するステップは、標的物体の形状に基づいて標的物体のDSM画像を選択するステップを含むことができる。例えば、ステップ240の標的物体のDSM画像を選択するステップは、その形状がほとんどの同じ種類の標的物体と同様であり得る標的物体のDSM画像を選択するステップを含むことができる。いくつかの実施形態では、ステップ240の標的物体のDSM画像を選択するステップは、標的物体のDSM画像のコントラストに基づいて標的物体のDSM画像を選択するステップを含むことができる。例えば、ステップ240の標的物体のDSM画像を選択するステップは、そのコントラストが他よりも良好であり得る標的物体のDSM画像を選択するステップを含むことができる。いくつかの実施形態では、ステップ240の標的物体のDSM画像を得ることは、標的物体の2つ以上のDSM画像を得ることを含むことができる。例えば、ステップ240の標的物体のDSM画像を得ることは、標的物体の形状および標的物体のDSM画像のコントラストにそれぞれ基づいて、標的物体の2つのDSM画像を得ることを含むことができる。
いくつかの実施形態では、ステップ240の標的物体のDSM画像を得ることは、1つもしくは複数のLiDARセンサ、リアルタイムDSMセンサ、DSMを事後生成するためのセンサ、領域の複数の航空画像からの計算、またはそれらの任意の組み合わせを使用することによって、標的物体の1つまたは複数のDSMおよび/または航空画像を収集することを含むことができる。いくつかの実施形態では、ステップ240の標的物体のDSM画像を得ることは、UAV 100、ドローン、航空機、ヘリコプタ、バルーン、または衛星によって上述のセンサおよび/またはカメラのうちの1つを使用することによって、標的物体の1つまたは複数のDSMおよび/または航空画像を収集することを含むことができる。いくつかの実施形態では、ステップ240の標的物体のDSM画像を得ることは、Bluetooth(登録商標)、Wi−Fi、セルラ(例えば、GPRS、WCDMA(登録商標)、HSPA、LTE、またはそれ以降の世代のセルラ通信システム)、および衛星接続などの無線接続、または、USBラインもしくは電灯線のような有線接続を通じて、UAV100、ドローン、航空機、ヘリコプタ、バルーン、または衛星から、標的物体のDSMおよび/または航空画像を受信することをさらに含むことができる。
いくつかの実施形態では、ステップ240の標的物体のDSM画像を得ることは、標的物体の1つまたは複数のDSM画像に対応する標的物体の1つまたは複数の航空画像を得ることと、標的物体の形状および/または標的物体の航空画像のコントラストに基づいて、標的物体の1つまたは複数のDSM画像を選択することとを含むことができる。
ステップ260は、ステップ220および240における領域および標的物体のDSM画像に基づいて、領域内の標的物体を検出することを含むことができる。いくつかの実施形態では、ステップ260の標的物体を検出することは、標的物体のDSM画像と領域の複数のDSM部分画像との間の一致率を計算することと、一致率に基づいて、領域の1つまたは複数のDSM部分画像を標的物体として決定することとを含むことができる。例えば、ステップ260の標的物体を検出することは、図4(a)の油ヤシの木のDSM画像と、図3の領域のDSM画像からの領域の複数のDSM部分画像との間の一致率を計算することを含むことができる。領域の複数のDSM部分画像は、油ヤシの木のDSM画像と同じまたは類似のサイズを有することができる。例えば、領域の複数のDSM部分画像のサイズは300×300画素であってもよく、図4(a)の油ヤシの木のDSM画像は300×300画素または同様のサイズであってもよい。例えば、領域の複数のDSM部分画像は、領域のDSM画像の1,2,5、または10画素ごとに300×300画素の部分画像を含んでもよい。言い換えれば、ステップ260の標的物を検出することは、油ヤシの木のテンプレートDSM画像(T)を、その各1,2,5または10画素をスライドさせることによって領域のDSM画像(I)と比較することを含むことができる。例えば、領域のDSM画像上のスライドの各位置(x,y)に対して、一致率Rは次のように計算することができる。
ここで、x’およびy’は油ヤシの木のテンプレートDSM画像(T’)および領域のDSM部分画像(I’)内の画素位置を示す。
図5は、開示されている実施形態による、自動物体検出のための図3の領域の例示的なDSM画像と図4の例示的なテンプレート画像との間の一致率の例示的な計算からの一致率の例示的な画像の図である。図5では、位置が明るいほど、その位置が標的物体である可能性が高くなる。例えば、図5の一致率の画像上の明るい点は、関心領域内のヤシの木の位置であってもよい。
いくつかの実施形態では、ステップ260の一致率を計算することは、二乗差分法、正規化二乗差分法、相互相関法、正規化相互相関法、相関係数法、正規化相関係数法、またはそれらの任意の組み合わせなどの、従来のテンプレートマッチング法に従って一致率を計算することを含むことができる。
いくつかの実施形態では、ステップ260の領域のDSM部分画像を標的物体として決定することは、標的物体のテンプレート画像との一致率Rsが、油ヤシの木のテンプレートDSM画像(T)の自己一致率の80%、70%、または60%などの一致閾値よりも高い場合に、領域1つまたは複数のDSM部分画像を油ヤシの木として決定することを含むことができる。
いくつかの実施形態では、ステップ260の標的物体を検出することは、ステップ220および240における領域および標的物体のDSM画像の解像度を低減することと、領域および標的物体の解像度低減DSM画像に基づいて領域内の標的物体を検出することとを含むことができる。例えば、ステップ260の標的物体を検出することは、図3の領域および図4(a)の油ヤシの木のDSM画像の解像度を元の解像度の0.1倍に低減することを含むことができる。ステップ260の標的物体を検出することは、油ヤシの木のDSM画像と領域の複数の解像度低減DSM部分画像との間の一致率を計算することと、一致率に基づいて、領域の1つまたは複数のDSM部分画像を標的物体として決定することとをさらに含むことができる。
いくつかの実施形態では、ステップ260の標的物体を検出することは、ステップ220における領域のDSMの画像と、ステップ240における標的物体の2つ以上の画像とに基づいて、領域内の標的物体を検出することを含むことができる。例えば、ステップ260の標的物体を検出することは、図4(a)および図4(b)の油ヤシの木の2つのDSM画像と領域の複数のDSM部分画像との間の一致率をそれぞれ計算することと、油ヤシの木の2つのDSM画像からの一致率に基づいて、領域の1つまたは複数のDSM部分画像を油ヤシの木として決定することとをさらに含むことができる。例えば、ステップ260の標的物体を検出することは、ステップ240において標的物体の形状に基づいて選択される油ヤシの木のDSM画像と、領域の複数のDSM部分画像との間の一致率を計算することを含むことができる。ステップ260の標的物体を検出することは、ステップ240において標的物体のコントラストに基づいて選択される油ヤシの木の別のDSM画像と、領域の複数のDSM部分画像との間の一致率を計算することを含むことができる。ステップ260の標的物体を検出することは、標的物体の形状または画像のコントラストのいずれかに基づいて選択される油ヤシの木のテンプレートDSM画像からの一致率が、一致閾値よりも高いときに、領域の1つまたは複数のDSM部分画像を油ヤシの木として決定することをさらに含むことができる。別の例として、ステップ260の油ヤシの木を決定することは、油ヤシの木の形状および油ヤシの木の画像のコントラストに基づいて選択される油ヤシの木のテンプレートDSM画像からの両方の一致率が、一致閾値よりも高いときに、領域の1つまたは複数のDSM部分画像を油ヤシの木として決定することをさらに含むことができる。
いくつかの実施形態では、ステップ260の領域のDSM部分画像を標的物体として決定するステップは、以下の2つの基準の一方または両方に基づいて標的物体を決定することを含むことができる。領域の1つまたは複数のDSM部分画像の一致率は、領域の航空画像上の一定の距離(D)内の最大値である。領域の1つまたは複数のDSM部分画像の高さは、高さ閾値(H)だけ、別の距離(D)内の最も低い位置の高さよりも高い。例えば、ステップ260の油ヤシの木を決定することは、一致率が、油ヤシの木の航空画像の例示的な半径である2メートル(すなわち、D=2メートル)以内の他のものよりも高い場合、1つまたは複数のDSM部分画像を油ヤシの木として決定することを含むことができる。別の例として、ステップ260の油ヤシの木を決定することは、高さが、油ヤシの木と土地の両方が存在し得る個々の領域の例示的な半径である3メートル(すなわちD=3)以内の最も低い位置の高さよりも、2.5メートルの例示的な高さ閾値(例えば、H=2.5メートル)だけ高いとき、領域の1つまたは複数のDSM部分画像を油ヤシの木として決定することを含むことができる。上記のD、D、およびHパラメータに従って、地面から2.5メートルよりも高い油ヤシの木を検出することができる。これらのファクタは、高さおよび分布に従って、様々な標的物体に対して調整可能であり得る。
いくつかの実施形態では、ステップ260は、ステップ220における領域の協調されたDSMの画像と、標的物体のDSM画像とに基づいて、領域内の標的物体を検出することを含むことができる。例えば、ステップ260の標的物体を検出することは、図4の油ヤシの木の1つまたは2つのDSM画像と、その標的部分領域がステップ220において識別されており、コントラストを強調されている場合がある、領域のコントラスト強調DSM画像に基づいて、領域内の油ヤシの木を検出することを含むことができる。
いくつかの実施形態において、方法200は、ステップ260において検出された標的物体の1つまたは複数の位置を取得することをさらに含むことができる。例えば、物体の位置を取得することは、図3の領域のDSM画像上で検出された油ヤシの木の位置を取得することを含むことができる。別の例として、ステップ290の標的物体の位置を取得するステップは、領域のDSM画像と領域の航空画像との間の対応に基づいて、領域の航空画像上で検出された油ヤシの木の位置を取得することを含むことができる。図6は、開示されている実施形態による、図2の自動物体検出のための例示的な方法に従って検出された例示的な標的物体の位置をマークされた領域の例示的な航空画像の図である。図6では、検出された油ヤシの木は、その領域の航空画像内で赤い円でマークされている。
いくつかの実施形態において、ステップ290は、検出された標的物体の位置を、領域の航空画像または地図上に表示することをさらに含むことができる。例えば、ステップ290の検出された標的物を表示することは、1つまたは複数の検出された油ヤシの木の位置を、領域の航空画像上に、図6に示す赤い円として表示することを含むことができる。別の例として、ステップ290の検出された標的物体を表示するステップは、領域のDSM画像上の位置と領域の地図(図示せず)との間の関連または対応に基づいて、1つまたは複数の検出された油ヤシの木の位置を、領域の地図上に表示することを含むことができる。例えば、領域のDSM画像上の位置は、経度、緯度、および標高のセットと関連付けられてもよい。ステップ290は、検出された油ヤシの木の経度、緯度、および標高のセットを得ることと、検出されたヤシの木を、経度、緯度および/または標高のセットに基づいて地図上に表示することとを含むことができる。例えば、ステップ290の検出された油ヤシの木を表示することは、検出された油ヤシの木を、経度および緯度のセットに基づいて地理情報システム(GIS)マップ上に表示することを含むことができる。別の例として、ステップ290の検出された油ヤシの木を表示することは、検出された油ヤシを、経度、緯度、および標高のセットに基づく地図、例えば、3D GISマップ上に表示することとを含むことができる。
いくつかの実施形態において、ステップ290は、検出された標的物体の数を計算することをさらに含むことができる。例えば、ステップ290の検出された標的物を計算することは、図6に示される検出された油ヤシの木を計算することを含むことができる。
図7は、開示されている実施形態による、空撮画像からの自動物体検出のための別の例示的な方法700を示すフローチャートである。方法700は、ステップ220,240、および260を含むことができ、領域のDSM画像に対応する領域の航空画像を取得すること(ステップ710)と、領域の航空画像上での検出された標的物体の1つまたは複数の位置を取得すること(ステップ720)と、検出された標的物体の1つまたは複数の位置において1つまたは複数の領域航空画像を取得すること(ステップ730)と、1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を、1つまたは複数の特徴ベクトルとして抽出すること(ステップ740)と、複数の訓練データを取得すること(ステップ750)と、複数の訓練データに基づいて分類器を訓練すること(ステップ760)と、訓練された分類器によって、1つまたは複数の特徴ベクトルに従って1つまたは複数の領域航空画像を分類すること(ステップ770)と、分類結果に基づいて1つまたは複数の領域航空画像の中の標的物体を認識すること(ステップ780)とをさらに含むことができる。訓練データは、標的物体と同じ種類の物体の複数の航空画像を含むことができる。
ステップ710は、ステップ220における領域のDSM画像に対応する領域の航空画像を得ることをさらに含むことができる。例えば、ステップ710は、図3の関心領域のDSM画像に対応する、図1の領域のRGB航空画像を得ることを含むことができる。例えば、ステップ710の領域の航空画像を得ることは、コンピュータ可読媒体またはコンピュータ可読記憶デバイスから関心領域の航空画像にアクセスすることを含むことができる。別の例として、ステップ710の領域の航空画像を得ることは、画像入力120(これは、開示されているシステムで説明する)のような外部入力から領域のDSM画像を受信することを含むことができる。いくつかの実施形態において、ステップ710の領域の航空画像を得ることは、領域の部分の複数の航空画像を得ることと、領域の航空画像を得るために、領域の部分の複数の航空画像をステッチングすることとを含むことができる。例えば、ステップ710の領域の航空画像を得ることは、図1の領域の部分の複数の航空画像を得ることと、関心領域の航空画像を得るために、領域の部分の航空画像をステッチングすることとを含むことができる。
いくつかの実施形態では、ステップ710の領域の航空画像を得ることは、様々な色空間における領域の航空画像を得ることを含むことができる。例えば、ステップ710の領域の航空画像を得ることは、RGB、グレースケール、HSI、L*a*b、マルチスペクトル空間、またはそれらの任意の組み合わせのうちの少なくとも1つを含む色空間内の領域の航空画像を得ることを含むことができる。
いくつかの実施形態では、ステップ710の領域の航空画像を得ることは、1つもしくは複数のLiDARセンサ、リアルタイムDSMセンサ、DSMを事後生成するためのセンサ、領域の複数の航空画像からの計算、またはそれらの任意の組み合わせを使用することによって、領域または領域の部分の航空画像を収集することを含むことができる。いくつかの実施形態では、ステップ710の領域の航空画像を得ることは、UAV 100、ドローン、航空機、ヘリコプタ、バルーン、または衛星によって上述のセンサおよび/またはカメラのうちの1つを使用して、ある領域または領域の部分の航空画像を収集することを含むことができる。いくつかの実施形態では、ステップ710の領域の航空画像を得ることは、Bluetooth(登録商標)、Wi−Fi、セルラ(例えば、GPRS、WCDMA(登録商標)、HSPA、LTE、またはそれ以降の世代のセルラ通信システム)、および衛星接続などの無線接続、または、USBラインもしくは電灯線のような有線接続を通じて、UAV100、ドローン、航空機、ヘリコプタ、バルーン、または衛星から、領域の航空画像の収集されているデータを受信することをさらに含むことができる。
ステップ720は、領域の航空画像上の、ステップ260における検出された標的物体の1つまたは複数の位置を取得することをさらに含むことができる。例えば、ステップ720の検出された標的物体の位置を取得するステップは、図3の領域のDSM画像上の検出された油ヤシの木の位置を取得することと、領域のDSM画像と領域の航空画像との間の対応に基づいて、図1の領域の航空画像上の検出された油ヤシの木の位置を取得することとを含むことができる。換言すれば、ステップ720の検出された物体の位置を取得することは、図6において、赤い円、すなわち、検出された油ヤシの木の位置を取得することを含むことができる。
ステップ730は、検出された標的物体の1つまたは複数の位置において1つまたは複数の領域航空画像を取得することを含むことができる。図8は、開示されている実施形態による、図2の自動物体検出のための例示的な方法による、検出された例示的な標的物体の位置をマークされた領域の例示的な航空画像の部分拡大図である。例えば、ステップ730の領域航空画像を取得することは、ステップ720で取得された位置に基づいて、ステップ710における航空の航空画像から、図8の検出された油ヤシの木801,802,803において300x300の領域航空画像を取得することを含むことができる。例えば、ステップ730の領域航空画像を取得することは、ステップ720における検出された位置を300x300の領域航空画像の中心として参照することによって、検出された油ヤシの木の300x300の領域航空画像を取得することを含むことができる。別の例として、ステップ730の領域航空画像を取得することは、ステップ720における検出された位置を円の中心として参照することによって、検出された油ヤシの木の円形領域航空画像を取得することを含むことができる。検出された油ヤシの木の円形航空画像の半径は、例えば150画素を含んでもよい。検出された標的物体の領域航空画像の形状は、矩形、三角形、または標的物体の形状に類似する他の形状のような他の形状を含んでもよい。
いくつかの実施形態では、ステップ730の領域航空画像を取得することは、検出された標的物体の位置を原点として使用することによって1つまたは複数の座標を作成することと、これらの原点の周りの1つまたは複数の300x300の領域航空画像を取得することとを含むことができる。これらの座標は、取得された領域航空画像を参照するために使用することができる。
いくつかの実施形態では、ステップ730の領域航空画像を取得することは、様々な色空間における、検出された標的物体の1つまたは複数の位置における1つまたは複数の領域航空画像を取得することを含むことができる。例えば、ステップ730の領域航空画像を取得することは、RGB、グレースケール、HSI、L*a*b、マルチスペクトル空間、またはそれらの任意の組合せなどの色空間における、検出された油ヤシの木の1つまたは複数の300x300の領域航空画像を取得することを含むことができる。例えば、ステップ730の領域航空画像を取得することは、ステップ710における、前述の色空間における領域の航空画像から、前述の色空間における検出された油ヤシの木のこれらの領域航空画像を取得することを含むことができる。いくつかの実施形態では、ステップ730の領域航空画像を取得することは、色空間における、検出された標的物体の1つまたは複数の領域航空画像を取得することと、その色空間における検出された標的物体の1つまたは複数の領域航空画像を、別の色空間におけるそれらの対応画像に変換することとを含むことができる。例えば、ステップ730の領域航空画像を取得することは、検出された油ヤシの木の1つまたは複数のRGB領域航空画像を取得し、それらをグレースケールの対応画像に変換することを含むことができる。別の例として、ステップ730の領域航空画像を取得することは、検出された油ヤシの木の1つまたは複数のRGB領域航空画像を取得し、それらをHSIにおけるそれらの対応画像に変換することとを含むことができる。
ステップ740は、1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を、ステップ260における検出された標的物体の1つまたは複数の特徴ベクトルとして抽出することを含むことができる。例えば、ステップ740のテキスト特徴を抽出することは、ガボールフィルタ、グレーレベル同時生起行列(GLCM)、ローカルバイナリパターン(LBP)、勾配方向ヒストグラム(HOG)、一次特徴記述、二次特徴記述、またはそれらの任意の組み合わせに基づいて、1つまたは複数のテキスト特徴を抽出することを含むことができる。ステップ740の特徴を抽出することは、ステップ770における後続の分類を容易にするために、前述の方法によって領域航空画像の有益で非冗長の特徴を抽出することを含むことができる。
いくつかの実施形態では、ステップ740の1つまたは複数のテキスト特徴を抽出することは、1つの色空間における1つもしくは複数の領域航空画像、および/または、別の色空間における1つもしくは複数の領域航空画像のうちの少なくとも1つから1つまたは複数のテキスト特徴を抽出することを含むことができる。例えば、ステップ740の1つまたは複数のテキスト特徴を抽出することは、マルチブロックローカルバイナリパターン(MB−LBP)に基づいて、グレースケールにおける検出された油ヤシの木の1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を抽出することを含むことができる。別の例として、ステップ740の1つまたは複数のテキスト特徴を抽出することは、ガボールフィルタに基づいて、RGBにおける検出された油ヤシの木の1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を抽出することを含むことができる。別の例として、ステップ740の1つまたは複数のテキスト特徴を抽出することは、マルチブロックローカルバイナリパターン(MB−LBP)に基づいて、グレースケールとRGBの両方における検出された油ヤシの木の1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を抽出することを含むことができる。例えば、ステップ740の1つまたは複数のテキスト特徴を抽出することは、GLCMに基づいて、グレースケールにおける検出された油ヤシの木の1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を抽出することと、HOGに基づいて、L*a*bにおける検出された油ヤシの木の1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を抽出することとを含むことができる。
ステップ750は、複数の訓練データを得ることを含むことができる。訓練データは、標的物体と同じ種類の物体の複数の航空画像を含むことができる。図9は、開示されている実施形態による、自動物体検出のための例示的な分類器を訓練するために利用され得る、複数の例示的な訓練データの図である。例えば、ステップ750は、図9(a)に示される油ヤシの木の複数の航空画像を訓練データとして得ることを含むことができる。いくつかの実施形態において、ステップ750は、図9(b)に示される非標的物体の複数の航空画像を訓練データの一部として得ることをさらに含むことができる。例えば、ステップ750の訓練データを得ることは、コンピュータ可読媒体またはコンピュータ可読記憶デバイスから訓練データにアクセスすることを含むことができる。別の例として、ステップ750の訓練データを得ることは、画像入力120(これは、開示されているシステムで説明する)のような外部入力から訓練データを受信することを含むことができる。
ステップ760は、ステップ750における複数の訓練データに基づいて分類器を訓練することを含むことができる。分類器は、パターンマッチングを使用して最も近いマッチを決定する関数である。分類器は、訓練データに従って調整することができる。訓練データは、観測値またはパターンを含んでもよい。例えば、教師あり学習では、各パターンは特定の所定のクラスに属する。クラスは、行わなければならない決定として考えることができる。クラスラベルと組み合わせたすべての観測値は、データセットとして知られている。新しい観測値が受信されると、その観測値は以前の経験に基づいて分類される。例えば、ステップ760の分類器を訓練することは、図9に示す油ヤシの木および非標的物体の訓練データによって、サポートベクタマシン(SVM)分類器、人工ニューラルネットワーク(ANN)分類器、決定木分類器、ベイズ分類器、またはそれらの任意の組み合わせのうちの少なくとも1つを訓練することを含むことができる。別の例として、ステップ760の分類器を訓練することは、図9(a)の油ヤシの木およびランダムに生成される非標的物体の訓練データによって、サポートベクタマシン(SVM)分類器、人工ニューラルネットワーク(ANN)分類器、決定木分類器、ベイズ分類器、またはそれらの任意の組み合わせのうちの少なくとも1つを訓練することを含むことができる。
ステップ760における訓練された分類器によって、ステップ770は、ステップ740における1つまたは複数の特徴ベクトルに従って、ステップ730における1つまたは複数の領域航空画像を分類することをさらに含むことができる。例えば、ステップ770の領域航空画像を分類することは、ステップ760における訓練されたSVM分類器によって、ステップ740においてガボールフィルタおよびGLCMによって抽出された1つまたは複数の特徴ベクトルに従って、ステップ730における検出された油ヤシの木の1つまたは複数の領域航空画像を分類することを含むことができる。別の例として、ステップ770の領域航空画像を分類することは、ステップ760における訓練されたANN分類器によって、ステップ740においてLBPおよびHOGによって抽出された1つまたは複数の特徴ベクトルに従って、ステップ730における検出された油ヤシの木の1つまたは複数の領域航空画像を分類することを含むことができる。別の例として、ステップ770の領域航空画像を分類することは、ステップ760における訓練されたANN分類器によって、ステップ740においてガボールフィルタ、GLCM、LBPおよびHOGによって抽出された1つまたは複数の特徴ベクトルに従って、ステップ730における検出された油ヤシの木の1つまたは複数の領域航空画像を分類することを含むことができる。方法700は、前述のテキスト抽出アルゴリズムと分類器との任意の組み合わせを含むことができる。
分類器による分類結果は、2種類の結果または複数種類の結果を含むことができる。例えば、SVM分類器は、検出された油ヤシの木の領域航空画像がその特徴ベクトルに基づいて図9(a)の同じ種類の物体として分類される場合に「0」を出力することができる。SVM分類器は、検出された油ヤシの木の領域航空画像がその特徴ベクトルに基づいて図9(b)の同じ種類の物体として分類される場合に「1」を出力することができる。図10は、開示されている実施形態による、図7の自動物体検出のための例示的な方法による、検出された標的物体の位置において分類結果をマークされた領域の例示的な航空画像の部分拡大図である。位置1001,1002,1003においてピンクの円でマークされた領域航空画像は、標的の油ヤシの木として分類される。位置1016,1017,1018において青の円でマークされた領域航空画像は、非標的物体として分類される。
ステップ780は、分類結果に基づいて、1つまたは複数の領域航空画像の中の標的物体を認識することをさらに含むことができる。例えば、ステップ780の標的物体を認識することは、ステップ770における分類結果に基づいて、ステップ730における検出された油ヤシの木の1つまたは複数の領域航空画像の中の油ヤシの木を認識することを含むことができる。例えば、図10の検出された油ヤシの木1001,1002,1003の領域航空画像は、図9(a)の物体と同じと分類することができ、それらに対するSVM分類器からの出力はすべて「0」になり得る。したがって、ステップ780の標的物体を認識することは、分類結果「0」に基づいて、検出された油ヤシの木1001、1002、1003の領域航空画像を、標的の油ヤシの木として認識することを含むことができる。例えば、図10の検出された油ヤシの木1016,1017,1018の領域航空画像は、図9(a)の物体と同じと分類することができ、それらに対するSVM分類器からの出力はすべて「1」になり得る。したがって、ステップ780の標的物体を認識することは、分類結果「1」に基づいて、検出された油ヤシの木1016、1017、1018の領域航空画像を、非標的物体として認識することを含むことができる。
いくつかの実施形態において、方法700は、ステップ780における認識された標的物体の1つまたは複数の位置を取得するステップ790を含むことができる。例えば、ステップ790の認識された標的物体の位置を取得することは、領域の航空画像上で認識された油ヤシの木1001、1002、1003の位置を取得することを含むことができる。図10において、認識された油ヤシの木は、領域の航空画像内でピンクの円によってマークされ、一方で、認識された非標的物体は、図の領域の航空画像内で青の円によってマークされる。ステップ790の認識された標的物体の位置を取得することは、領域の航空画像内でピンクの円によってマークされている、認識された油ヤシの木の位置を取得することを含むことができる。
いくつかの実施形態において、ステップ790は、認識された標的物体の1つまたは複数の位置を、領域の航空画像または地図上に表示することをさらに含むことができる。例えば、ステップ790の認識された標的物体を表示することは、領域の航空画像上で、1つまたは複数の認識された油ヤシの木1001、1002、1003の位置を表示することを含むことができる。別の例として、ステップ790の認識された標的物体を表示するステップは、領域の航空画像上の位置と領域の地図(図示せず)との間の関連または対応に基づいて、1つまたは複数の認識された油ヤシの木の位置を、領域の地図上に表示することを含むことができる。例えば、領域の航空画像上の位置は、経度、緯度、および標高のセットと関連付けられてもよい。いくつかの実施形態において、ステップ790の認識された標的物体を表示することは、認識された油ヤシの木の経度、緯度、および標高のセットを得ることと、認識されたヤシの木を、経度、緯度および/または標高のセットに基づいて地図上に表示することとを含むことができる。例えば、ステップ790の認識された油ヤシの木を表示することは、認識された油ヤシの木を、経度および緯度のセットに基づいて地理情報システム(GIS)マップ上に表示することを含むことができる。別の例として、ステップ790の認識された油ヤシの木を表示することは、認識された油ヤシを、3D GISマップのような、経度、緯度、および標高のセットに基づく地図に表示することとを含むことができる。
いくつかの実施形態において、ステップ790は、認識された標的物体の数を計算することを含むことができる。例えば、ステップ790は、認識された油ヤシの木を計算することを含むことができる。
図11は、開示されている実施形態による、図7の自動物体検出のための例示的な方法による、正確に検出および認識された例示的な標的物体の位置をマークされた領域の例示的な航空画像を示す部分拡大図である。標的物体のグランドトゥルース情報が利用可能な場合には、上述した物体検出方法の正確度を推定することができる。図11の白い円1101,1102,1103は、例示的な正確に検出され認識された油ヤシの木である。
図12は、開示されている実施形態による、図7の自動物体検出のための例示的な方法による、検出および分類された例示的な標的物体の位置において分類結果をマークされた領域の例示的な航空画像を示す図である。同図では、ピンクの円によってマークされている領域航空画像が標的の油ヤシの木として認識され、青の円によってマークされている領域航空画像が非標的物体として分類されている。一実施形態では、空撮画像からの物体検出の精度および再現率は、それぞれ90.6%および83.4%を達成することができ、一方で、MB−LBPが特徴抽出に採用され、画像の地表サンプル距離は3センチメートルである。
本開示の別の態様は、方法を実施する命令を実行する1つもしくは複数の集積回路、1つもしくは複数のフィールドプログラマブルゲートアレイ、1つもしくは複数のプロセッサもしくはコントローラ、またはそれらの任意の組み合わせによって実行される、空撮画像から物体を検出する方法に関する。この方法には、前述の方法および実施形態のすべてが含まれ得るが、これらに限定されない。いくつかの実施形態では、前述の方法または実施形態における一部のステップは、遠隔でまたは別々に実行されてもよい。いくつかの実施形態では、この方法は、1つまたは複数の分散システムによって実行されてもよい。
本開示のさらに別の態様は、空撮画像から物体を検出するためのシステムに関する。図13は、開示されている実施形態による、空撮画像からの自動物体検出のための例示的なシステム400のブロック図である。自動異物検出システム400は、領域のDSM画像を得るように構成された航空画像ユニット410と、標的物体のDSM画像を得るように構成された標的画像ユニット420と、領域および標的物体のDSM画像に基づいて領域内の標的物体を検出するように構成された検出ユニット430とを含むことができる。
航空画像ユニット410は、集積回路およびフィールドプログラマブルゲートアレイなどの適切なタイプのハードウェア、または、ステップ220において上述した動作を実行するように、プロセッサもしくはコントローラ上で実行可能な命令セット、サブルーチン、もしくは関数(すなわち関数プログラム)などのソフトウェアを含むことができる。航空画像ユニット410は、領域のDSM画像を得るように構成することができる。いくつかの実施形態では、航空画像ユニット410は、画像入力120に通信可能に結合されてもよい。画像入力120は、前述の様々な画像入力を航空画像ユニット410に提供することができる。例えば、画像入力120は、UAV100、ドローン、航空機、ヘリコプタ、バルーン、または衛星からの領域の航空画像、領域のDSMおよび/または領域のDEMを受信し、これらの画像、DSM、および/またはDEMを航空画像ユニット410に送信することができる。いくつかの実施形態では、航空画像ユニット410はまた、検出ユニット430にも通信可能に結合されてもよい。航空画像ユニット410は、領域のDSM画像および領域または領域の部分の航空画像を検出ユニット430に提供するように構成することができる。いくつかの実施形態では、航空画像ユニット410はまた、標的画像ユニット420にも通信可能に結合されてもよい。航空画像ユニット410は、画像入力120から受信した標的画像を標的画像ユニット420に送信するように構成することができる。
標的画像ユニット420は、集積回路およびフィールドプログラマブルゲートアレイなどの適切なタイプのハードウェア、または、ステップ240において上述した動作を実行するように、プロセッサもしくはコントローラ上で実行可能な命令セット、サブルーチン、もしくは関数(すなわち関数プログラム)などのソフトウェアを含むことができる。標的画像ユニット420は、標的物体のDSM画像を得るように構成することができる。いくつかの実施形態では、標的画像ユニット420はまた、ユーザインターフェース140にも通信可能に結合されてもよい。標的画像ユニット420は、ユーザインターフェース140から標的画像を受信するように構成することができる。いくつかの実施形態では、標的画像ユニット420は、ユーザインターフェース140から標的画像の選択を受信するように構成することができる。いくつかの実施形態では、標的画像ユニット420はまた、検出ユニット430にも通信可能に結合されてもよい。標的画像ユニット420は、物体検出のために標的画像を検出ユニット430に送信するように構成することができる。
検出ユニット430は、集積回路およびフィールドプログラマブルゲートアレイなどの適切なタイプのハードウェア、または、ステップ260において上述した動作を実行するように、プロセッサもしくはコントローラ上で実行可能な命令セット、サブルーチン、もしくは関数(すなわち関数プログラム)などのソフトウェアを含むことができる。検出ユニット430は、航空画像ユニット410および標的画像ユニット420からの領域および標的物体のDSM画像に基づいて、領域内の標的物体を検出するように構成することができる。いくつかの実施形態では、検出ユニット430は、ステップ290における前述の動作として、検出された標的物体の1つまたは複数の位置を取得するように構成することができる。いくつかの実施形態では、検出ユニット430はまた、ディスプレイ160にも通信可能に結合されてもよい。検出ユニット430は、ステップ290における前述の動作として、領域の航空画像または地図上の検出された標的物体の1つまたは複数の位置を、ディスプレイ160上に表示するように構成することができる。いくつかの実施形態では、検出ユニット430は、ステップ290における前述の動作として、検出された標的物体の数を計算するように構成することができる。いくつかの実施形態では、検出ユニット430はまた、出力180にも通信可能に結合されてもよい。検出ユニット430は、検出された標的物体の計算された数を出力180に送信するように構成することができる。
いくつかの実施形態では、自動異物検出システム400は、航空画像ユニット410と、標的画像ユニット420と、検出ユニット430と、測位ユニット440と、領域航空画像ユニット450と、抽出ユニット460と、分類認識ユニット470とを含むことができる。
航空画像ユニット410は、ステップ710における前述した動作として、領域のDSM画像に対応する領域の航空画像を得るようにさらに構成することができる。
測位ユニット440は、集積回路およびフィールドプログラマブルゲートアレイなどの適切なタイプのハードウェア、または、ステップ720において上述した動作を実行するように、プロセッサもしくはコントローラ上で実行可能な命令セット、サブルーチン、もしくは関数(すなわち関数プログラム)などのソフトウェアを含むことができる。測位ユニット440は、領域の航空画像上の検出された標的物体の1つまたは複数の位置を取得するように構成することができる。いくつかの実施形態では、測位ユニット440は、検出ユニット430に通信可能に結合されてもよい。測位ユニット440は、検出ユニット430から検出された標的物体を受信し、領域の航空画像上の検出された標的物体の1つまたは複数の位置を取得するように構成することができる。いくつかの実施形態では、測位ユニット440はまた、領域航空画像ユニット450にも通信可能に結合されてもよい。測位ユニット440は、検出された標的物体の取得された位置を領域航空画像ユニット450に送信するように構成することができる。いくつかの実施形態では、測位ユニット440はまた、分類認識ユニット470にも通信可能に結合されてもよい。測位ユニット440は、検出された標的物体の取得された位置を分類認識ユニット470に送信するように構成することができる。
領域航空画像ユニット450は、集積回路およびフィールドプログラマブルゲートアレイなどの適切なタイプのハードウェア、または、ステップ730において上述した動作を実行するように、プロセッサもしくはコントローラ上で実行可能な命令セット、サブルーチン、もしくは関数(すなわち関数プログラム)などのソフトウェアを含むことができる。領域航空画像取得ユニットは、検出された標的物体の1つまたは複数の位置において1つまたは複数の領域航空画像を取得するように構成することができる。いくつかの実施形態では、領域航空画像ユニット450はまた、検出ユニット430にも通信可能に結合されてもよい。領域航空画像ユニット450は、検出された標的物体および/または領域の航空画像を検出ユニット430から受信するように構成することができる。いくつかの実施形態では、領域航空画像ユニット450はまた、抽出ユニット460にも通信可能に結合されてもよい。領域航空画像ユニット450は、検出された標的物体の1つまたは複数の位置における取得された領域航空画像を抽出ユニット460に送信するように構成することができる。いくつかの実施形態では、領域航空画像ユニット450はまた、分類認識ユニット470にも通信可能に結合されてもよい。領域航空画像ユニット450は、検出された標的物体の1つまたは複数の位置における取得された領域航空画像を分類認識ユニット470に送信するように構成することができる。
抽出ユニット460は、集積回路およびフィールドプログラマブルゲートアレイなどの適切なタイプのハードウェア、または、ステップ740において上述した動作を実行するように、プロセッサもしくはコントローラ上で実行可能な命令セット、サブルーチン、もしくは関数(すなわち関数プログラム)などのソフトウェアを含むことができる。抽出ユニット740は、1つまたは複数の領域航空画像から1つまたは複数のテキスト特徴を、1つまたは複数の特徴ベクトルとして抽出するように構成することができる。いくつかの実施形態では、抽出ユニット460はまた、領域航空画像ユニット450にも通信可能に結合されてもよい。抽出ユニット460は、検出された標的物体の1つまたは複数の位置における取得された領域航空画像を領域航空画像ユニット450から受信するように構成することができる。いくつかの実施形態では、抽出ユニット460はまた、ユーザインターフェース140にも通信可能に結合されてもよい。抽出ユニット460は、ユーザインターフェース140からユーザ入力または抽出アルゴリズムの選択を受信するように構成することができる。いくつかの実施形態では、抽出ユニット460はまた、分類認識ユニット470にも通信可能に結合されてもよい。抽出ユニット460は、抽出された1つまたは複数の特徴ベクトルを分類認識ユニット470に送信するように構成することができる。
分類認識ユニット470は、集積回路およびフィールドプログラマブルゲートアレイなどの適切なタイプのハードウェア、または、ステップ750、760、770、および780において上述した動作を実行するように、プロセッサもしくはコントローラ上で実行可能な命令セット、サブルーチン、もしくは関数(すなわち関数プログラム)などのソフトウェアを含むことができる。いくつかの実施形態では、分類認識ユニット470はまた、ユーザインターフェース140にも通信可能に結合されてもよい。分類認識ユニット470は、ユーザインターフェース140から複数の訓練データを得るように構成することができる。いくつかの実施形態では、分類認識ユニット470はまた、測位ユニット440にも通信可能に結合されてもよい。分類認識ユニット470は、検出された標的物体の取得された位置を測位ユニット440から受信するように構成することができる。いくつかの実施形態では、分類認識ユニット470はまた、領域航空画像ユニット450にも通信可能に結合されてもよい。分類認識ユニット470は、検出された標的物体の1つまたは複数の位置における取得された領域航空画像を領域航空画像ユニット450から受信するように構成することができる。いくつかの実施形態では、分類認識ユニット470はまた、抽出ユニット460にも通信可能に結合されてもよい。分類認識ユニット470は、抽出された1つまたは複数の特徴ベクトルを抽出ユニット460から受信するように構成することができる。
分類認識ユニット470は、複数の訓練データを得るように構成することができ、訓練データは、標的物体と同じ種類の物体の複数の航空画像を含む。分類認識ユニット470は、複数の訓練データに基づいて分類器を訓練するようにさらに構成することができる。分類認識ユニット470は、1つまたは複数の特徴ベクトルに従って、訓練された分類器によって1つまたは複数の領域航空画像を分類するようにさらに構成することができる。分類認識ユニット470は、分類結果に基づいて、1つまたは複数の領域航空画像の中の標的物体を認識するようにさらに構成することができる。
いくつかの実施形態では、分類認識ユニット470は、ステップ790における前述の動作として、認識された標的物体の1つまたは複数の位置を取得するようにさらに構成することができる。いくつかの実施形態では、分類認識ユニット470はまた、ディスプレイ160にも通信可能に結合されてもよい。分類認識ユニット470は、ステップ790における前述の動作として、領域の航空画像または地図上の認識された標的物体の1つまたは複数の位置を、ディスプレイ160上に表示するように構成することができる。いくつかの実施形態では、分類認識ユニット470は、ステップ790における前述の動作として、検出された標的物体の数を計算するように構成することができる。いくつかの実施形態では、分類認識ユニット470はまた、出力180にも通信可能に結合されてもよい。分類認識ユニット470は、認識された標的物体の計算された数を出力180に送信するように構成することができる。
空撮画像から物体を検出するための開示されている方法およびシステムに対して様々な変更および変形がなされ得ることは、当業者には明らかであろう。本明細書を検討すること、ならびに、空撮画像から物体を検出するための開示されている方法およびシステムを実践することから、他の実施形態が、当業者には明らかであろう。本明細書および実施例は、例示的なものとしてのみ考慮され、真の範囲は、添付の特許請求の範囲およびそれらの均等物によって示されることが意図される。

Claims (26)

  1. 実行されると、1つまたは複数のプロセッサに、空撮画像から物体を検出するための動作を実行させる命令を記憶する非一時的コンピュータ可読媒体であって、
    前記動作は、一定の領域の数値表層モデル(DSM)画像を得ることと、
    1つまたは複数の標的物体のDSM画像を得ることと、
    前記1つまたは複数の標的物体の前記DSM画像を、前記領域の前記DSM画像に対してスライドさせることにより、前記1つまたは複数の標的物体の前記DSM画像と、前記領域の前記DSM画像との間の一致率に基づいて、前記領域内の前記標的物体を検出することとを含み、
    前記領域の前記DSM画像を得ることは、
    前記領域の前記DSM画像上の1つまたは複数の標的部分領域を特定することと、
    前記1つまたは複数の標的部分領域のコントラストを強調することとをさらに含み、
    前記標的物体を検出することは、
    前記領域の前記強調されたDSM画像および前記1つまたは複数の標的物体の前記DSM画像に基づいて、前記標的物体を検出することを含む、
    非一時的コンピュータ可読媒体。
  2. 前記1つまたは複数の標的物体の前記DSM画像は、前記1つまたは複数の標的物体の形状もしくはコントラストに基づいて、または前記標的物体の形状とコントラストとの組み合わせに基づいて取得される、
    請求項1に記載の非一時的コンピュータ可読媒体。
  3. 前記動作は、前記標的物体を検出する前に、前記領域および前記1つまたは複数の標的物体の前記DSM画像の解像度を低減することをさらに含む、
    請求項1に記載の非一時的コンピュータ可読媒体。
  4. 前記1つまたは複数の標的部分領域を識別することは、前記領域の前記DSM画像に対応する前記領域のカラー航空画像と前記1つまたは複数の標的物体のカラー航空画像を得ることと、前記領域の前記カラー航空画像および前記1つまたは複数の標的物体の前記カラー航空画像に基づいて、前記1つまたは複数の標的部分領域を識別すること、とを含む、
    請求項1に記載の非一時的コンピュータ可読媒体。
  5. 前記領域内の前記標的物体を検出することは、前記1つまたは複数の標的物体の前記DSM画像と前記領域の1つまたは複数のDSM部分画像との間の一致率を計算することと、前記一致率に基づいて、前記領域の前記1つまたは複数のDSM部分画像を前記標的物体として決定することとをさらに含む、
    請求項1に記載の非一時的コンピュータ可読媒体。
  6. 前記領域の前記1つまたは複数のDSM部分画像を前記標的物体として決定することは、前記領域の前記1つまたは複数のDSM部分画像の前記一致率が、第1の距離以内で最大であること、または、前記領域の前記1つまたは複数のDSM部分画像の高さが、第2の距離内で最も低い位置の高さよりも、高さ閾値だけ高いことのうちの少なくとも一方に基づいて決定することを含む、
    請求項5に記載の非一時的コンピュータ可読媒体。
  7. 前記動作は、前記1つまたは複数の検出された標的物体において1つまたは複数の領域航空画像を取得することと、分類器を得ることと、前記分類器によって前記1つまたは複数の領域航空画像を分類することと、その分類結果に基づいて、前記1つまたは複数の領域航空画像の中の前記標的物体を認識することとを含む、
    請求項1に記載の非一時的コンピュータ可読媒体。
  8. 前記分類器を得ることは、複数の訓練データを得ることと、前記複数の訓練データに基づいて前記分類器を訓練することとを含む、
    請求項7に記載の非一時的コンピュータ可読媒体。
  9. 前記複数の訓練データは、前記標的物体の1つまたは複数の航空画像と、非標的物体の1つまたは複数の航空画像とを含む、
    請求項8に記載の非一時的コンピュータ可読媒体。
  10. 前記1つまたは複数の領域航空画像を分類することは、前記1つまたは複数の領域航空画像から1つまたは複数の特徴ベクトルを抽出することと、前記1つまたは複数の特徴ベクトルに従って前記1つまたは複数の領域航空画像を分類することとを含む、
    請求項9に記載の非一時的コンピュータ可読媒体。
  11. 前記1つまたは複数の特徴ベクトルを抽出することは、ガボールフィルタ、グレーレベル同時生起行列(GLCM)、ローカルバイナリパターン(LBP)、勾配方向ヒストグラム(HOG)、一次特徴記述、二次特徴記述、またはそれらの任意の組み合わせに基づいて抽出することを含む、
    請求項10に記載の非一時的コンピュータ可読媒体。
  12. 前記1つまたは複数の領域航空画像を取得することは、第1の色空間において前記1つまたは複数の領域航空画像を取得することと、前記第1の色空間における前記1つまたは複数の領域航空画像を第2の色空間における1つまたは複数の領域航空画像に変換することとを含み、前記1つまたは複数の特徴ベクトルを抽出することは、前記第1の色空間における前記1つもしくは複数の領域航空画像、または、前記第2の色空間における前記1つもしくは複数の領域航空画像のうちの少なくとも1つから抽出することを含む、
    請求項10に記載の非一時的コンピュータ可読媒体。
  13. 前記1つまたは複数の領域の航空画像を取得することは、前記領域の部分の複数の航空画像を得ることと、前記領域の前記航空画像を得るために、前記領域の部分の前記複数の航空画像をステッチングすることと、前記領域の前記航空画像から前記1つまたは複数の領域航空画像を取得することとを含む、
    請求項7に記載の非一時的コンピュータ可読媒体。
  14. 空撮画像から物体を検出するための方法であって、前記方法を実施する命令を実行する1つもしくは複数の集積回路、1つもしくは複数のフィールドプログラマブルゲートアレイ、1つもしくは複数のプロセッサもしくはコントローラ、またはそれらの任意の組み合わせによって実施され、
    前記方法は、
    一定の領域の数値表層モデル(DSM)画像を得ることと、
    1つまたは複数の標的物体のDSM画像を得ることと、
    前記1つまたは複数の標的物体の前記DSM画像を、前記領域の前記DSM画像に対してスライドさせることにより、前記1つまたは複数の標的物体の前記DSM画像と、前記領域の前記DSM画像との間の一致率に基づいて、前記領域内の前記標的物体を検出することとを含み、
    前記領域の前記DSM画像を得ることは、
    前記領域の前記DSM画像上の1つまたは複数の標的部分領域を特定することと、
    前記1つまたは複数の標的部分領域のコントラストを強調することとをさらに含み、
    前記標的物体を検出することは、
    前記領域の前記強調されたDSM画像および前記1つまたは複数の標的物体の前記DSM画像に基づいて、前記標的物体を検出することを含む、
    方法。
  15. 前記1つまたは複数の標的物体の前記DSM画像は、前記1つまたは複数の標的物体の形状もしくはコントラストに基づいて、または前記標的物体の形状とコントラストとの組み合わせに基づいて取得される、
    請求項14に記載の方法。
  16. 前記標的物体を検出する前に、前記領域および前記1つまたは複数の標的物体の前記DSM画像の解像度を低減することをさらに含む、
    請求項14に記載の方法。
  17. 前記1つまたは複数の標的部分領域を識別することは、前記領域の前記DSM画像に対応する前記領域のカラー航空画像と前記1つまたは複数の標的物体のカラー航空画像を得ることと、前記領域の前記カラー航空画像および前記1つまたは複数の標的物体の前記カラー航空画像に基づいて、前記1つまたは複数の標的部分領域を識別することとを含む、
    請求項14に記載の方法。
  18. 前記領域内の前記標的物体を検出することは、前記1つまたは複数の標的物体の前記DSM画像と前記領域の1つまたは複数のDSM部分画像との間の一致率を計算することと、前記一致率に基づいて、前記領域の前記1つまたは複数のDSM部分画像を前記標的物体として決定することとをさらに含む、
    請求項14に記載の方法。
  19. 前記領域の前記1つまたは複数のDSM部分画像を前記標的物体として決定することは、前記領域の前記1つまたは複数のDSM部分画像の前記一致率が、第1の距離以内で最大であること、または、前記領域の前記1つまたは複数のDSM部分画像の高さが、第2の距離内で最も低い位置の高さよりも、高さ閾値だけ高いことのうちの少なくとも一方に基づいて決定することを含む、
    請求項18に記載の方法。
  20. 前記1つまたは複数の検出された標的物体において1つまたは複数の領域航空画像を取得することと、分類器を得ることと、前記分類器によって前記1つまたは複数の領域航空画像を分類することと、その分類結果に基づいて、前記1つまたは複数の領域航空画像の中の前記標的物体を認識することとを含む、
    請求項14に記載の方法。
  21. 前記分類器を得ることは、複数の訓練データを得ることと、前記複数の訓練データに基づいて前記分類器を訓練することとを含む、
    請求項20に記載の方法。
  22. 前記複数の訓練データは、前記標的物体の1つまたは複数の航空画像と、非標的物体の1つまたは複数の航空画像とを含む、
    請求項21に記載の方法。
  23. 前記1つまたは複数の領域航空画像を分類することは、前記1つまたは複数の領域航空画像から1つまたは複数の特徴ベクトルを抽出することと、前記1つまたは複数の特徴ベクトルに従って前記1つまたは複数の領域航空画像を分類することとを含む、
    請求項22に記載の方法。
  24. 前記1つまたは複数の特徴ベクトルを抽出することは、ガボールフィルタ、グレーレベル同時生起行列(GLCM)、ローカルバイナリパターン(LBP)、勾配方向ヒストグラム(HOG)、一次特徴記述、二次特徴記述、またはそれらの任意の組み合わせに基づいて抽出することを含む、
    請求項23に記載の方法。
  25. 前記1つまたは複数の領域航空画像を取得することは、第1の色空間において前記1つまたは複数の領域航空画像を取得することと、前記第1の色空間における前記1つまたは複数の領域航空画像を第2の色空間における1つまたは複数の領域航空画像に変換することとを含み、前記1つまたは複数の特徴ベクトルを抽出することは、前記第1の色空間における前記1つもしくは複数の領域航空画像、または、前記第2の色空間における前記1つもしくは複数の領域航空画像のうちの少なくとも1つから抽出することを含む、
    請求項23に記載の方法。
  26. 前記1つまたは複数の領域の航空画像を取得することは、前記領域の部分の複数の航空画像を得ることと、前記領域の前記航空画像を得るために、前記領域の部分の前記複数の航空画像をステッチングすることと、前記領域の前記航空画像から前記1つまたは複数の領域航空画像を取得することとを含む、
    請求項20に記載の方法。
JP2017228695A 2016-12-02 2017-11-29 航空画像からの自動物体検出のための方法およびシステム Active JP6771449B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/367,975 US10546195B2 (en) 2016-12-02 2016-12-02 Methods and systems for automatic object detection from aerial imagery
US15/367,975 2016-12-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020088847A Division JP7113044B2 (ja) 2016-12-02 2020-05-21 航空画像からの自動物体検出のための方法およびシステム

Publications (2)

Publication Number Publication Date
JP2018092628A JP2018092628A (ja) 2018-06-14
JP6771449B2 true JP6771449B2 (ja) 2020-10-21

Family

ID=62243227

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017228695A Active JP6771449B2 (ja) 2016-12-02 2017-11-29 航空画像からの自動物体検出のための方法およびシステム
JP2020088847A Active JP7113044B2 (ja) 2016-12-02 2020-05-21 航空画像からの自動物体検出のための方法およびシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020088847A Active JP7113044B2 (ja) 2016-12-02 2020-05-21 航空画像からの自動物体検出のための方法およびシステム

Country Status (7)

Country Link
US (1) US10546195B2 (ja)
JP (2) JP6771449B2 (ja)
CN (1) CN108154082B (ja)
HK (1) HK1255087A1 (ja)
MY (1) MY198109A (ja)
PH (1) PH12017000344A1 (ja)
TW (2) TWI709109B (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101751020B1 (ko) * 2015-12-08 2017-07-11 한국해양과학기술원 다중 위성 기반 위험유해물질 연속 탐지 방법 및 장치
US9934591B2 (en) * 2016-04-08 2018-04-03 Orbital Insight, Inc. Remote determination of quantity stored in containers in geographical region
NL2016718B1 (en) * 2016-05-02 2017-11-10 Cyclomedia Tech B V A method for improving position information associated with a collection of images.
CN110402456B (zh) * 2017-02-28 2023-06-23 株式会社OPTiM 异常检测系统、异常检测方法以及存储介质
US10460431B2 (en) * 2018-01-15 2019-10-29 Otis Elevator Company Part recognition and damage characterization using deep learning
US10691944B2 (en) * 2018-05-21 2020-06-23 The Boeing Company Geo-registering an aerial image by an object detection model using machine learning
US10775174B2 (en) 2018-08-30 2020-09-15 Mapbox, Inc. Map feature extraction system for computer map visualizations
US11428817B2 (en) * 2018-10-11 2022-08-30 Baidu Usa Llc Automatic LIDAR calibration based on cross validation for autonomous driving
TWI684925B (zh) * 2018-10-17 2020-02-11 新漢智能系統股份有限公司 自動建立物件辨識模型的方法
US11144758B2 (en) 2018-11-15 2021-10-12 Geox Gis Innovations Ltd. System and method for object detection and classification in aerial imagery
KR102275572B1 (ko) * 2018-12-21 2021-07-09 한국전자통신연구원 이종 고도 항공영상을 이용한 3차원 지형정보 정합 방법 및 장치
KR102318522B1 (ko) * 2018-12-31 2021-10-29 한국전자통신연구원 수치표고모델을 이용한 3차원 가상 환경 저작 시스템 및 그것의 동작 방법
US11049404B2 (en) * 2019-02-06 2021-06-29 Motorola Mobility Llc Methods and systems for unmanned aircraft monitoring in response to Internet-of-things initiated investigation requests
KR102038141B1 (ko) * 2019-02-18 2019-11-26 아주대학교산학협력단 부동산 정보를 제공하는 방법, 이를 이용하는 서버 및 시스템
JP7114082B2 (ja) * 2019-03-20 2022-08-08 株式会社アクセルスペース 情報処理装置、情報処理方法及びプログラム
CN109975780B (zh) * 2019-04-17 2022-12-06 西安电子工程研究所 基于脉冲多普勒雷达时域回波的直升机型号识别算法
CN110120056B (zh) * 2019-05-21 2021-08-10 闽江学院 基于自适应直方图阈值和轮廓检测的血液白细胞分割方法
US11228501B2 (en) * 2019-06-11 2022-01-18 At&T Intellectual Property I, L.P. Apparatus and method for object classification based on imagery
TWI760782B (zh) * 2019-07-08 2022-04-11 國立臺灣大學 用於地理區域上果園辨識之系統及方法
US11323890B2 (en) 2019-07-10 2022-05-03 At&T Intellectual Property I, L.P. Integrated mobility network planning
US12037442B2 (en) 2019-07-26 2024-07-16 Lg Chem, Ltd. Post-treatment method of vinyl chloride-based polymer and closed post-treatment system for the same
TWI709921B (zh) * 2019-08-27 2020-11-11 騰擎科研創設股份有限公司 物體辨識系統及方法
CN110598619B (zh) * 2019-09-06 2023-04-07 中国农业科学院农业资源与农业区划研究所 一种利用无人机影像进行果树识别和计数的方法和系统
CN112189202A (zh) * 2019-09-17 2021-01-05 深圳市大疆创新科技有限公司 基于机器视觉的树木识别方法及装置
CN110910403A (zh) * 2019-11-16 2020-03-24 厦门梓蔓生物科技有限公司 一种基于图像处理的工业大麻种子计数方法
KR102314038B1 (ko) * 2019-12-18 2021-10-19 한국항공우주연구원 인공 신경망 기반으로 광학적 항법을 위하여 특이 영역을 결정하는 방법, 온보드 맵 생성 장치, 및 착륙선의 방향을 결정하는 방법
EP3839804A1 (en) * 2019-12-20 2021-06-23 KWS SAAT SE & Co. KGaA Method and system for automated plant image labeling
TWI785436B (zh) * 2019-12-20 2022-12-01 經緯航太科技股份有限公司 自航拍影像偵測物體之系統、偵測航拍影像內物體之方法及其非暫態電腦可讀取媒體
JP7236377B2 (ja) * 2019-12-26 2023-03-09 エヌ・ティ・ティ・コムウェア株式会社 物体検出装置および物体検出方法
JP7271413B2 (ja) * 2019-12-26 2023-05-11 エヌ・ティ・ティ・コムウェア株式会社 物体検出装置および物体検出方法
US11222245B2 (en) * 2020-05-29 2022-01-11 Raytheon Company Systems and methods for feature extraction and artificial decision explainability
US11587249B2 (en) 2020-09-24 2023-02-21 Eagle Technology, Llc Artificial intelligence (AI) system and methods for generating estimated height maps from electro-optic imagery
US11302071B1 (en) * 2020-09-24 2022-04-12 Eagle Technology, Llc Artificial intelligence (AI) system using height seed initialization for extraction of digital elevation models (DEMs) and related methods
US11747468B2 (en) 2020-09-24 2023-09-05 Eagle Technology, Llc System using a priori terrain height data for interferometric synthetic aperture radar (IFSAR) phase disambiguation and related methods
US11238307B1 (en) 2020-09-24 2022-02-01 Eagle Technology, Llc System for performing change detection within a 3D geospatial model based upon semantic change detection using deep learning and related methods
CN112541876B (zh) * 2020-12-15 2023-08-04 北京百度网讯科技有限公司 卫星图像处理方法、网络训练方法、相关装置及电子设备
US20240096090A1 (en) * 2021-02-03 2024-03-21 Spark Insights, Inc. Damage Detection and Image Alignment Based on Polygonal Representation of Objects
US20240185599A1 (en) * 2021-03-21 2024-06-06 B.G. Negev Technologies And Applications Ltd. Palm tree mapping
TWI764635B (zh) * 2021-03-22 2022-05-11 江俊昇 具被遮蔽區域地面模型建立之方法
JP2023042205A (ja) 2021-09-14 2023-03-27 株式会社島津製作所 対象物検出装置
CN114926753B (zh) * 2022-06-16 2023-10-13 无锡慧眼人工智能科技有限公司 一种海量图像条件下的快速目标场景信息提取方法
TWI836835B (zh) * 2023-01-03 2024-03-21 中華電信股份有限公司 適用於空拍影像的定位系統和定位方法
CN116400352B (zh) * 2023-03-21 2024-05-28 大连理工大学 一种基于相关性分析的雷达回波图像海浪纹理检测方法
CN117953400A (zh) * 2024-02-23 2024-04-30 广州市市政集团设计院有限公司 城镇老旧小区绿色微改造系统

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212670B1 (en) 2002-05-03 2007-05-01 Imagetree Corp. Method of feature identification and analysis
JP4004332B2 (ja) 2002-05-22 2007-11-07 株式会社パスコ 森林情報処理システム
US8737720B2 (en) 2003-04-30 2014-05-27 Deere & Company System and method for detecting and analyzing features in an agricultural field
JP2005308553A (ja) * 2004-04-21 2005-11-04 Topcon Corp 三次元画像計測装置及び方法
US20050276443A1 (en) 2004-05-28 2005-12-15 Slamani Mohamed A Method and apparatus for recognizing an object within an image
JP4339289B2 (ja) * 2005-07-28 2009-10-07 Necシステムテクノロジー株式会社 変化判定装置、変化判定方法および変化判定プログラム
US7310606B2 (en) 2006-05-12 2007-12-18 Harris Corporation Method and system for generating an image-textured digital surface model (DSM) for a geographical area of interest
JP4378571B2 (ja) 2007-05-31 2009-12-09 Necシステムテクノロジー株式会社 地図変化検出装置、地図変化検出方法およびプログラム
US8229163B2 (en) * 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
US8427505B2 (en) * 2008-11-11 2013-04-23 Harris Corporation Geospatial modeling system for images and related methods
EP2356584B1 (en) * 2008-12-09 2018-04-11 Tomtom North America, Inc. Method of generating a geodetic reference database product
JP5464915B2 (ja) * 2009-06-09 2014-04-09 三菱電機株式会社 対象物検出装置及び対象物検出方法
US8655070B1 (en) * 2009-11-04 2014-02-18 Google Inc. Tree detection form aerial imagery
JP5384316B2 (ja) * 2009-12-24 2014-01-08 株式会社パスコ 変位計測装置、変位計測方法、及び変位計測プログラム
CN102222235A (zh) * 2010-04-14 2011-10-19 同济大学 基于对象集成高度信息的面向对象的高光谱分类处理方法
JP5642561B2 (ja) * 2011-01-11 2014-12-17 株式会社パスコ 家屋異動判読支援装置、家屋異動判読支援方法及び家屋異動判読支援プログラム
US8994821B2 (en) * 2011-02-24 2015-03-31 Lockheed Martin Corporation Methods and apparatus for automated assignment of geodetic coordinates to pixels of images of aerial video
TWI482121B (zh) * 2011-04-28 2015-04-21 Univ Nat Central The method of correcting the color of the image
US20140362082A1 (en) * 2011-05-03 2014-12-11 Google Inc. Automated Overpass Extraction from Aerial Imagery
US9378431B2 (en) * 2011-11-18 2016-06-28 Metaio Gmbh Method of matching image features with reference features and integrated circuit therefor
KR102038856B1 (ko) * 2012-02-23 2019-10-31 찰스 디. 휴스턴 환경을 생성하고 환경내 위치기반 경험을 공유하는 시스템 및 방법
US9041711B1 (en) * 2012-05-08 2015-05-26 Google Inc. Generating reduced resolution textured model from higher resolution model
US20140300736A1 (en) * 2013-04-09 2014-10-09 Microsoft Corporation Multi-sensor camera recalibration
US9171355B2 (en) * 2013-04-12 2015-10-27 Qualcomm Incorporated Near infrared guided image denoising
JP6347061B2 (ja) 2013-12-27 2018-06-27 国際航業株式会社 計測結果の整合性判定方法、及び計測結果の整合性判定装置
JP6200826B2 (ja) 2014-02-12 2017-09-20 株式会社パスコ 林相解析装置、林相解析方法及びプログラム
WO2015199772A2 (en) * 2014-03-28 2015-12-30 Konica Minolta Laboratory U.S.A., Inc. Method and system of stitching aerial data using information from previous aerial images
US9177214B1 (en) * 2014-04-10 2015-11-03 Xerox Corporation Method and apparatus for an adaptive threshold based object detection
US20160063516A1 (en) * 2014-08-29 2016-03-03 The Nielsen Company (Us), Llc Methods and apparatus to estimate commercial characteristics based on geospatial data
CN104237887B (zh) * 2014-09-29 2016-10-05 中国测绘科学研究院 一种sar遥感影像匹配方法
SE542194C2 (en) * 2014-10-30 2020-03-10 Icomera Ab Wireless communication system for trains using voice over wifi (vowifi)
US9367743B1 (en) * 2014-12-16 2016-06-14 Vricon Systems Aktiebolag Method and system for classifying a terrain type in an area
WO2016147652A1 (ja) * 2015-03-19 2016-09-22 日本電気株式会社 オブジェクト検出装置、オブジェクト検出方法および記録媒体
CN104820830B (zh) * 2015-05-08 2018-01-02 南京林业大学 一种基于全波形LiDAR冠层剖面模型的树种识别方法
CA2995850A1 (en) * 2015-08-31 2017-03-09 Ryan Kottenstette Systems and methods for analyzing remote sensing imagery
JP6577347B2 (ja) * 2015-11-20 2019-09-18 株式会社東芝 情報伝達装置、情報伝達方法およびプログラム
SE539532C2 (en) * 2016-01-29 2017-10-10 Icomera Ab Wireless communication system and method for trains and other vehicles using trackside base stations
SE540352C2 (en) * 2016-01-29 2018-07-24 Icomera Ab Wireless communication system and method for trains and other vehicles using trackside base stations
KR102630227B1 (ko) * 2016-07-21 2024-01-29 한화비전 주식회사 감시 데이터 제공 시스템 및 방법

Also Published As

Publication number Publication date
JP2018092628A (ja) 2018-06-14
TW201921316A (zh) 2019-06-01
TW201828253A (zh) 2018-08-01
TWI684164B (zh) 2020-02-01
PH12017000344A1 (en) 2018-07-30
CN108154082A (zh) 2018-06-12
US10546195B2 (en) 2020-01-28
CN108154082B (zh) 2021-10-29
HK1255087A1 (zh) 2019-08-02
US20180157911A1 (en) 2018-06-07
JP2020144922A (ja) 2020-09-10
JP7113044B2 (ja) 2022-08-04
MY198109A (en) 2023-08-03
TWI709109B (zh) 2020-11-01

Similar Documents

Publication Publication Date Title
JP6771449B2 (ja) 航空画像からの自動物体検出のための方法およびシステム
US10699119B2 (en) Methods and systems for automatic object detection from aerial imagery
US10614562B2 (en) Inventory, growth, and risk prediction using image processing
Huang et al. Individual tree crown detection and delineation from very-high-resolution UAV images based on bias field and marker-controlled watershed segmentation algorithms
Aquino et al. Automated early yield prediction in vineyards from on-the-go image acquisition
Kitpo et al. Early rice disease detection and position mapping system using drone and IoT architecture
WO2022100470A1 (en) Systems and methods for target detection
CN107918776B (zh) 一种基于机器视觉的用地规划方法、系统及电子设备
JP2019514123A (ja) 地理的領域におけるコンテナ内に格納された量の遠隔決定
JP6397379B2 (ja) 変化領域検出装置、方法、及びプログラム
David et al. Vegetation indices and textures in object-based weed detection from UAV imagery
US11804025B2 (en) Methods and systems for identifying topographic features
US20220004740A1 (en) Apparatus and Method For Three-Dimensional Object Recognition
Polewski et al. Detection of single standing dead trees from aerial color infrared imagery by segmentation with shape and intensity priors
TWI785436B (zh) 自航拍影像偵測物體之系統、偵測航拍影像內物體之方法及其非暫態電腦可讀取媒體
Abraham et al. Vehicle detection and classification from high resolution satellite images
KR20220168875A (ko) 인공지능을 이용하여 벼 도복 피해면적을 산정하는 장치 및 방법
Hamzah et al. Drone Aerial Image Identification of Tropical Forest Tree Species Using the Mask R-CNN
Ankayarkanni et al. Object based segmentation techniques for classification of satellite image
Krzywicki Weather and a part of day recognition in the photos using a KNN methodology
Chung et al. Applying image processing technology to region area estimation
Ameslek et al. Identification and mapping of Individual Trees from Unmanned Aerial Vehicle Imagery Using an object oriented Convolutional Neural Network
Choukuljaratsiri et al. Plant cover detection from visible satellite imagery
Hamzah et al. Visualization of Tree Species Identification Using Mask RCNNs for Tropical Forests in Malaysia
Guirado Hernández et al. Deep-learning Versus OBIA for Scattered Shrub Detection with Google Earth Imagery: Ziziphus lotus as Case Study

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171129

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190410

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200521

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20200602

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200623

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200929

R150 Certificate of patent or registration of utility model

Ref document number: 6771449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250