JP6976270B2 - 地理的領域におけるコンテナ内に格納された量の遠隔決定 - Google Patents

地理的領域におけるコンテナ内に格納された量の遠隔決定 Download PDF

Info

Publication number
JP6976270B2
JP6976270B2 JP2018553076A JP2018553076A JP6976270B2 JP 6976270 B2 JP6976270 B2 JP 6976270B2 JP 2018553076 A JP2018553076 A JP 2018553076A JP 2018553076 A JP2018553076 A JP 2018553076A JP 6976270 B2 JP6976270 B2 JP 6976270B2
Authority
JP
Japan
Prior art keywords
image
interest
idealized
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018553076A
Other languages
English (en)
Other versions
JP2019514123A (ja
JP2019514123A5 (ja
Inventor
アレクサンドロヴィッチ バベンコ ボリス
ボグダノフ アブタンスキー アレクサンダー
ディー.ロアン ジェイソン
Original Assignee
オービタル インサイト インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オービタル インサイト インコーポレイテッド filed Critical オービタル インサイト インコーポレイテッド
Publication of JP2019514123A publication Critical patent/JP2019514123A/ja
Publication of JP2019514123A5 publication Critical patent/JP2019514123A5/ja
Application granted granted Critical
Publication of JP6976270B2 publication Critical patent/JP6976270B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1914Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries, e.g. user dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

関連出願の相互参照
本出願は、参照によりその全体が組み込まれる、2016年4月8日に出願された米国仮特許出願第62/320,387号の利益を主張する。
本開示は、一般に画像処理に関し、特に、空中撮像デバイスによって捕捉される画像を使用して地理的領域における遠隔物体内に格納された量を決定することに関する。
いくつかのアプリケーションは、例えば、衛星によって捕捉される空中画像内の様々な物体などの、画像内の物体を識別するために、空中画像を分析する。高解像度画像(high resolution images)の分析は、比較的単純な技法を使用して実施できる。高解像度の空中画像を取得することは、一般的に、大きい、高価な衛星および結果の使用を必要とする。これらの衛星は一般的に、相当量のリソースを必要とする。例えば、そのような衛星は、高空間解像度カメラ、高価なトランスポンダ、および高度化されたコンピュータのような、洗練された高価な機器を備える。高価な撮像衛星に関連するコストに寄与する他の要因は、打ち上げコストおよび保守管理である。高価な高空間解像度の撮像衛星は、地上施設から監視しなければならず、これは高価な人的資源を必要とする。これらの衛星はまた、損傷またはコストのかかる休止時間の影響を受けやすい。高価な撮像衛星の高い打ち上げおよび開発コストは、物体検出のための新たなまたは改良された衛星画像および通信サービスの導入における減速をもたらす。
より安価な低空間解像度の撮像衛星が、画像を捕捉するために使用され得る。しかしながら、そのような衛星は不明瞭な画像を提供する。低解像度画像において、コンテナまたはタンクのような物体は、一般的に、明瞭に識別可能でなく、多くの場合、いくつかの隣接するピクセルを含むブロブ(blobs)として見える。赤外線帯域画像のような他の事例において、画像は人間に対しては完全に不可視である場合がある。
開示する実施形態は、詳細な説明、添付された特許請求の範囲、および付随する図(または図面)からより容易に明らかになる利点および特徴を有する。図の簡単な紹介は以下のとおりである。
一実施形態による、遠隔コンテナ分析システムが動作する例示的なシステム環境のブロック図である。 一実施形態による、遠隔コンテナ分析システムのための例示的なシステムアーキテクチャのブロック図である。 一実施形態による、遠隔コンテナ分析システムのための例示的な肯定的トレーニングセットを示す図である。 一実施形態による、遠隔コンテナ分析システムのための例示的な否定的トレーニングセットを示す図である。 一実施形態による、遠隔コンテナ分析システム内の機械学習モデルをトレーニングするための例示的なプロセスを示す図である。 一実施形態による、遠隔物体を識別するための遠隔コンテナ分析システムの例示的なプロセスを示す図である。 一実施形態による、遠隔物体の充填容積を決定するための遠隔コンテナ分析システムの例示的なプロセスを示す図である。 一実施形態による、理想化された画像の例示的な合成を示す図である。 一実施形態による、理想化された画像の例示的な円投影式のセットを示す図である。 一実施形態による、例示的な理想化された画像のセットを示す図である。 一実施形態による、コンテナの例示的な受信した画像を示す図である。 一実施形態による、受信した画像の例示的な画像勾配を示す図である。 一実施形態による、理想化された画像内のコンテナの上縁の例示的な輪郭を示す図である。 一実施形態による、理想化された画像内のコンテナの内面上の影の例示的な輪郭を示す図である。 機械可読媒体から命令を読み出し、プロセッサまたはコントローラにおいてそれらを実行することが可能な例示的な機械の構成要素を示すブロック図である。
図面および以下の説明は、例示としてのみ、好ましい実施形態に関する。以下の説明から、ここで開示する構造および方法の代替的実施形態は、特許請求するものの原理から逸脱することなく、採用し得る実行可能な代替形態として容易に認識されるであろうことに留意すべきである。
ここで、いくつかの実施形態に対する参照が詳細に行われ、その例は付随する図面に示されている。実用的であるときはいつでも、類似のまたは同様の参照番号が図面内で使用される場合があり、類似のまたは同様の機能を示すことができることに留意されたい。図面は、例示のみの目的のために、開示されているシステム(または方法)の実施形態を示す。当業者は、以下の説明から、ここで説明されている原理から逸脱することなく、ここで示されている構造および方法の代替的実施形態を採用し得ることを容易に認識するであろう。
構成の概観
例として開示する実施形態は、広い地理的領域(例えば、国)にわたって、浮き屋根(floating roof)構造を有する円筒コンテナまたはタンクのような遠隔物体を識別し、遠隔物体の充填容積(filled volume)を決定するためのシステム、方法および/またはコンピュータプログラム製品(例えば、1つ以上の処理装置によって実行可能な命令を格納する非一時的(non−transitory)コンピュータ可読記憶媒体)である。
1つの例示的な実施形態において、遠隔コンテナ分析システムが、衛星、ドローン、または他の空中に構成された撮像システムのような空中撮像デバイスから、浮き屋根構造を有する円筒コンテナまたはタンクのような対象の物体の画像を受信することができる。そのようなタンクは一般的にクラスタまたは「タンク場(tank farms)」において見出される。システムは、画像からパラメータベクトルを抽出する。パラメータベクトルは、空中撮像デバイスの仰角を記述するパラメータを含むことができる。システムは、画像に対して画像分析を実施して、対象の物体の高さおよび幅を決定する。システムは、抽出したパラメータベクトルならびに対象の物体の決定した高さおよび幅を使用して、対象の物体の理想化された画像テンプレートを生成する。各理想化された画像は、30%、70%などのような対象の物体の別個の充填容積に対応する。システムは、対象の物体の受信した画像を各理想化された画像と照合(match)し、受信した画像のピクセルと理想化された画像のピクセルとの間のドット積(dot product)を実施することによって対象の物体の充填容積を決定する。システムは、対象の物体の決定した充填容積に対応する情報をユーザデバイスに送信する。
例示的なシステム環境
ここで図1を参照すると、それは、一実施形態による、遠隔コンテナ分析システム101が動作する例示的なシステム環境のブロック図を示す。図1に示す例示的なシステム環境は、空中撮像デバイス110、遠隔コンテナ分析システム101、およびユーザデバイス120を含むことができる。
図1に示す空中撮像デバイス110は、衛星、ドローン、または、他の空中に構成された撮像システムであってもよく、低解像度画像を捕捉することができる。画像は、同じスペクトル帯域または異なるスペクトル帯域に対応してもよく、スペクトル帯域は光の波長の範囲に対応する。例示的なスペクトル帯域は、赤色スペクトル帯域、緑色スペクトル帯域、青色スペクトル帯域、赤外線スペクトル帯域、および全整色(panchromatic)のスペクトル帯域を含む。低解像度画像は、高解像度画像(例えば、1ピクセル当たり50cm)よりも相当に低い解像度(例えば、1ピクセル当たり15m)を有することに留意されたい。
遠隔コンテナ分析システム101は、画像ストア102、任意選択の特徴抽出モジュール104、機械学習モデル104、コンテナ分析モジュール107、パラメータ抽出モジュール105、およびテンプレート生成モジュール103を含むことができる。図2を参照しながら以下で示し、説明するように、図1に示す画像ストア102は、空中撮像デバイス110から受信した画像を格納することができる。特徴抽出モジュール104は、任意選択的に、空中撮像デバイス110から受信した画像から特徴ベクトルを抽出することができる。図4を参照しながら以下で示し、説明するように、例えば、特徴ベクトルは、画像内のピクセルのピクセル属性に基づく集約値(aggregate values)を含んでもよい。図5を参照しながら以下で示し、説明するように、遠隔コンテナ分析システム101は、機械学習モデル104に特徴ベクトルを送信して、画像内の対象の物体を識別する。コンテナ分析モジュール107は、画像内の識別した対象の物体に関連するパターン、例えば、画像の捕捉の時間、画像のカウント(counts)、画像の充填容積を分析することができる。
パラメータ抽出モジュール105は、画像からパラメータ、例えば、空中撮像デバイス110の方位角を記述するパラメータ、太陽の仰角を記述するパラメータ、および、太陽の方位角を記述するパラメータを抽出することができる。図7を参照しながら以下で示し、説明するように、抽出したパラメータを使用して対象の物体の理想化された画像テンプレートを生成するために、パラメータはテンプレート生成モジュール103によって使用される。各理想化された画像は、対象の物体の別個の充填容積、例えば、35%に対応する。
遠隔コンテナ分析システム101は、図1に示すユーザデバイス120と対話することができる。ユーザデバイス120は、ユーザ入力を受信すること、ならびに、ネットワークを介してデータを送信および/または受信することが可能なコンピューティングデバイスであってもよい。1つの例示的な実施形態において、ユーザデバイス120は、デスクトップまたはラップトップコンピュータのような従来のコンピュータシステムであってもよい。あるいは、ユーザデバイス120は、パーソナルデジタルアシスタント(PDA)、携帯電話、スマートフォン、タブレット、または別の適切なデバイスのようなコンピュータ機能を有するデバイスであってもよい。遠隔コンテナ分析システム101は、例えば、グラフィカルアイコン、グラフィカルオーバーレイ、および他の視覚インジケータを通じて、対象の物体の視覚表現をユーザデバイス120に送信し、対象の物体の視覚表現をユーザインターフェースに出力することができる。
例示的なシステムアーキテクチャ
ここで図2に移ると、それは、一実施形態による、遠隔コンテナ分析システム101のための例示的なシステムアーキテクチャのブロック図を示す。図2に示すシステムアーキテクチャは、外部システムインターフェース201、画像ストア102、パラメータ抽出モジュール105、テンプレート生成モジュール103、任意選択の特徴抽出モジュール104、任意選択の特徴ストア202、機械学習モデル106、機械学習トレーニングエンジン203、画像分析モジュール204、テンプレートマッチングモジュール205、コンテナ分析モジュール107、およびコンテナパターンストア206を含むことができる。
図2に示す外部システムインターフェース201は、空中撮像デバイス110から画像を表すデータパケットを受信する専用のハードウェアまたはソフトウェアネットワーキングデバイスであってもよい。外部システムインターフェース201は、対象の物体の視覚表現または対象の物体の決定した充填容積に対応する情報を表すデータパケットを、遠隔コンテナ分析システム101からネットワークを介してユーザデバイス120に転送することができる。1つの例において、外部システムインターフェース201は、インターネット基幹の光ファイバ回線を通して高速にデータパケットを転送する。別の例において、外部システムインターフェース201は、ボーダゲートウェイプロトコル(BGP)を使用してルーティング情報を交換し、エッジルータ、境界ルータ、またはコアルータであってもよい。
図2に示す画像ストア102は、空中撮像デバイスから受信した画像を格納することができる。実用的で効率的な広い領域にわたる走査を行うために、より解像度の低い画像がシステムの第1のフェーズに使用される。そのような画像の一例が、(全整色の帯域における)15m/ピクセルのランドサット画像である。システムの第1のフェーズは、より低い精度という代償を払って高い再現率を有するように設計される。図4を参照しながら以下で説明するように、第2のフェーズにおいて、より高い解像度の画像、例えば、50cm/ピクセルを使用して、フォールスアラーム(false alarms)をフィルタで除去(filter out)するように機械学習モデルをトレーニングすることができる。パラメータ抽出モジュール105、任意選択の特徴抽出モジュール104、および画像分析モジュール204は、処理のために、画像ストア102によって格納されている画像を取り出すことができる。画像ストア102は、取り外し可能または取り外し不能なメモリカード、テープカセット、ジップカセット、およびコンピュータハードドライブのうちの1つ以上に格納される画像のデータベースまたは表として編成されてもよい。1つの実施形態において、画像ストア102は、各々が画像の1つ以上の属性を記述する複数のデータフィールドを含むことができる。1つの例において、画像ストア102は、単一の画像について、捕捉の時間、スペクトル帯域情報、地理的領域座標などを含む。
任意選択の特徴抽出モジュール104は、画像ストア102内の画像から、特徴ベクトルを抽出することができる。特徴ベクトルは、画像内のピクセルのピクセル属性に基づく集約値を含むことができる。一実施形態において、特徴抽出モジュール104は、任意選択的に、ピクセルクラスタリング(pixel clustering)を使用して隣接するピクセルのクラスタを識別することができる。識別したクラスタ内で、隣接するピクセルは、ピクセル属性に基づいて互いにマッチすることができる。例えば、グレースケール画像について、ピクセル属性は、ピクセルの輝度を表す単一の数であってもよい。この例において、ピクセル属性は、0から255までの可能な値の範囲を与える8ビット整数として格納されるバイトである。ゼロは黒色を表し、255は白色を表す。0と255との間の値は、灰色の異なる色調を構成する。色画像の別の例において、別個の赤色、緑色および青色の成分が、各ピクセルについて指定される。この例において、ピクセル属性は、3つの数のベクトルである。
図2に示す任意選択の特徴抽出モジュール104は、画像内の各ピクセルを、ピクセルの属性を有する領域として初期化することによって、画像ストア102からの画像内のピクセルクラスタを識別することができる。特徴抽出モジュール104は、最も類似する属性値を有する2つの隣接する領域を識別する。これらの2つの領域は併合され、2つの領域のすべてのピクセルを含み、2つの領域の属性値の平均としての属性値を有する新たな領域を形成する。特徴抽出モジュール104は、残された類似する領域がなくなるまで、このプロセスを繰り返す。
図2に示す特徴抽出モジュール104の他の実施形態は、(a)候補特徴として使用するための画像内のエッジまたはコーナを見出す、ハリスコーナ(Harris Corner)またはキャニーエッジ(Canny edge)のようなエッジ/コーナ検出方法、(b)エッジ強度情報を抽出する画像勾配(image gradients)、(c)特定の形状を識別する方向付けられたフィルタ、(d)特徴を抽出するために局所または大域閾値を使用する閾値化方法、(e)与えられた画像パッチにおける向きおよびエッジ記述特徴を算出する、スケール不変特徴変換(SIFT:Scale−Invariant Feature Transform)、スピードアップロバスト特徴(SURF:Speeded Up Robust Features)、加速化断片試験による特徴抽出(FAST:Features from Accelerated Segment Test)、二値頑健独立基本特徴(BRIEF:Binary Robust Independent Elementary Feature)、高速レティーナキーポイント(FREAK:Fast Retina Keypoint)、および勾配方向ヒストグラム(HOG:Histogram of Oriented Gradients)のような画像パッチ記述手段のうちの1つまたは組み合わせを使用することができる。
図2に示す特徴抽出モジュール104は、受信した画像においてエッジ分析を実施して、対象の物体に対応する画像内のピクセルを識別することができる。特徴抽出モジュール104は、画像内の各ピクセル位置(i,j)に作用することができる。ここで、iは画像内のピクセル位置の行値を表し、jは画像内のピクセルの列値を表す。1つの例示的な実施形態において、Sは画像を表し、Mは対応する物体マップ画像出力を表す。画像S内の位置(i,j)が物体ピクセルに対応するときはいつでも、関数M(i,j)は1であると定義され、それ以外では0であると定義される。特徴抽出モジュール104は、ピクセル属性が急激に変化する画像内の点を識別することができる。ピクセル属性が急激に変化する点は、エッジと称される曲線セグメントのセットに編成され得る。特徴抽出モジュール104は、エッジの対を識別するためのエッジ分析プロセスにおいて3つのステップ、すなわち、フィルタリング、強調(enhancement)、および検出を実施することができる。フィルタリングステップは、画像内のノイズ、例えば、ごま塩ノイズ、インパルスノイズおよびガウスノイズを低減する。強調は、ピクセル属性値における相当の変化がある位置(i,j)にあるピクセルを目立たせる。1つの例において、特徴抽出モジュール104は、様々なピクセル位置(i,j)において画像の勾配の大きさを計算することによって、強調を実施する。検出は、閾値よりも高い勾配値を有するピクセル位置(i,j)を探索して、エッジピクセルを検出する。
代替的実施形態において、図2に示す特徴抽出モジュール104は、画像を分析して、対象の物体が予測される対象の領域を含む確率的ヒートマップまたはブロック化された画像を作成することができる。特徴抽出モジュール104は、幾何学的情報(例えば、点、線、および多角形)を含む他のマッピングソースを組み込むようにさらに構成されてもよい。特徴抽出モジュール104は、確率的ヒートマップを直接的に作成するために、または、例えば、線発見アルゴリズムもしくはランダムフォレストアルゴリズムのような他の画像処理演算と合わせて、または、特徴抽出を必要としない、サポートベクタマシン(SVM:Support Vector Machines)、ニューラルネットワーク、もしくは畳み込みニューラルネットワーク(CNN:convolutional neural network)のような機械学習方法を使用して、幾何学的情報を使用することができる。
図2に戻って参照すると、特徴抽出モジュール104は、画像内の冗長性、例えば、繰り返しピクセル値を低減して、画像を縮小された特徴セット(特徴ベクトル)に変換する。特徴ベクトルは、初期画像全体の代わりに、この縮小された表現を使用することによって、対象の物体が機械学習モデル106によって識別され得るように、画像からの関連情報を含む。特徴抽出モジュール104によって抽出される例示的な特徴が図4に示され、記載されている。いくつかの例示的な実施形態において、以下の次元縮小技法(dimensionality reduction techniques)、すなわち、独立成分分析、アイソマップ(Isomap)、カーネルPCA、潜在的意味分析、部分最小二乗法、主成分分析、多因子次元縮小法、非線形次元縮小法、多重線形主成分分析、多重線形部分空間学習、半定値埋め込み(semidefinite embedding)、オートエンコーダ、および深い特徴合成(deep feature synthesis)が、特徴抽出モジュール104によって使用されてもよい。
図2に示す特徴ストア202は、特徴抽出モジュール104によって、受信した画像から抽出された特徴を格納する。遠隔コンテナ分析システム101は、機械学習モデル106をトレーニングするために、格納された特徴を取り出す。特徴ストア202は、取り外し可能または取り外し不能なメモリカード、テープカセット、ジップカセット、およびコンピュータハードドライブのうちの1つ以上に格納される画像のデータベースまたは表として編成されてもよい。
遠隔コンテナ分析システム101は、トレーニングセットおよび特徴ストア202からのデータを使用して、機械学習モデル106をトレーニングすることができる。図3Aおよび図3Bを参照しながら以下で示し、説明するように、1つの例示的な実施形態において、機械学習モデル106は、対象の物体に対応するピクセルのラベルを付されたクラスタを含むトレーニングセットを受信することができる。図2に示す機械学習トレーニングエンジン203は、ピクセルのクラスタのスコアを決定するために、トレーニングセットを使用して機械学習モデル106をトレーニングすることができる。スコアは、特徴ベクトルに基づいてクラスタが対象の物体に対応する尤度(likelihood)を示す。機械学習トレーニングエンジン203によって追従されるプロセスは、図4に示されている。遠隔コンテナ分析システム101は、スコアが閾値を超え、クラスタを対象の物体と関連付けるか否かに基づいて、クラスタを選択することができる。
代替的な例示的実施形態において、(畳み込みニューラルネットワークの形態の)図2に示す機械学習モデル106は、特徴抽出の必要なしに、画像から直接的に出力を生成することができる。CNNは、そのニューロンの間の接続パターンが視覚野の組織によって刺激を与えられるタイプのフィードフォワード人工ニューラルネットワークである。個々の皮質ニューロンは、受容野として知られている制限された空間領域内で刺激に対して応答する。異なるニューロンの受容野は、それらが視覚野をタイリングするように、部分的に重なり合う。その受容野内での刺激に対する個々のニューロンの応答は、畳み込み演算によって数学的に近似され得る。CNNは、生物学的プロセスに基づき、最小量の前処理を使用するように設計された多層パーセプトロンの変形形態である。CNNの利点は、特徴抽出の排除および畳み込み層における共有される重みの使用を含み、これは、層内の各ピクセルについて同じフィルタ(重みバンク)が使用されることを意味し、これは、メモリフットプリントを低減するとともに、性能を改善する。
機械学習モデル106は、畳み込み層と最大プーリング層の両方から成るCNNであってもよい。機械学習モデル106のアーキテクチャは「完全に畳み込み」であってもよく、これは、可変にサイジングされる入力画像がそれに供給され得ることを意味する。機械学習モデル106への入力は、全整色ランドサット画像であってもよく、機械学習モデル106の出力は、ピクセル毎の確率マップであってもよい(すなわち、入力画像内の各ピクセルについて、機械学習モデル106は、そのピクセルの周囲のパッチを考慮し、そのピクセルがタンク場の一部分である確率を返す)。機械学習モデル106内の最後を除くすべての畳み込み層が、適切に修正された線形ユニット活性化によって追従され得る。すべての畳み込み層について、機械学習モデル106は、カーネルサイズ、畳み込みのストライド、およびその層の入力に適用されるゼロパディングの量を指定することができる。プーリング層について、モデル106は、カーネルサイズおよびプーリングのストライドを指定することができる。
(CNNの形態の)機械学習モデル106の出力は、任意選択的に、ピクセルクラスタを含んでもよく、各ピクセルクラスタは、複数の画像のうちの個別の画像内の1つ以上の隣接するピクセルを含み、当該隣接するピクセルは、ピクセル属性に基づいて互いにマッチする。出力は、ピクセルクラスタが対象の物体に対応する尤度を示すスコアを含むことができる。出力は、対象の物体に対応する1つ以上のピクセル位置を含むことができる。出力は、各対象の物体内のピクセルの数を含むことができる。出力は、ピクセルクラスタと対象の物体との間の関連付けを含むことができる。
図2に示すパラメータ抽出モジュール105は、空中撮像デバイス110から受信した画像内のメタデータからパラメータベクトルを抽出することができる。パラメータベクトルは、空中撮像デバイスの仰角を記述する例示的なパラメータを含むことができる。衛星仰角とは、衛星を直接的に差す線と、局所水平面との間の角度を指す。パラメータは、受信した画像の捕捉の時間を記述することができる。パラメータは、空中撮像デバイスの方位角を記述することができる。方位角は球座標系における角度測定値であり、これは、衛星を直接的に差す線と、基準面上で北を指す基準ベクトルとの間の角度を指す。
パラメータ抽出モジュール105によって抽出されるパラメータは、太陽の仰角を記述することができる。太陽の仰角とは、太陽を直接的に差す線と、局所水平面との間の角度を指す。パラメータは、太陽の方位角を記述することができる。太陽の方位角とは、太陽を直接的に差す線と、基準面上で北を指す基準ベクトルとの間の角度を指す。パラメータは、画像内の対象の物体の底部の中心の地理的位置を記述することができる。遠隔コンテナ分析システム101は、いくつかのパラメータが不正確であり得るという仮定の下で動作する。具体的には、システムは、物体の位置および衛星の角度が正確でない可能性があるが、ここで説明されているように処理され得ると仮定する。
画像分析モジュール204は、画像ストア102から画像を取り出す。画像分析モジュール204は、画像に対して画像分析を実施して、画像内の対象の物体の高さおよび幅を決定する。例えば、画像分析モジュール204は、対象の物体の画像のピクセル解像度rを受信することができる。画像分析モジュール204は、対象の物体の高さに関連するピクセルの数hを決定することができる。画像分析モジュール204は、ピクセル解像度rおよび対象の物体の高さに関連するピクセルの数hに基づいて、高さ=r×hとして、対象の物体の高さを決定することができる。画像分析モジュール204は、対象の物体の幅に関連するピクセルの数wを決定することができる。画像分析モジュール204は、ピクセル解像度rおよび対象の物体の幅に関連するピクセルの数wに基づいて、幅=r×wとして、対象の物体の幅を決定することができる。
画像分析モジュール204は、受信した画像をクロップ(crop)して、対象の物体の中心を受信した画像の中心に位置付けることができる。実施形態において、画像分析モジュール204は、画像の外側部分を自動的に除去して、フレーミングを改善し、対象の物体を目立たせ、またはアスペクト比を変更することができる。画像分析モジュール204は、対象の物体の影および内面に対応するピクセルを負の値、例えば−1に設定し、対象の物体の屋根に対応するピクセルを正の値、例えば+1に設定することによって、対象の物体の受信した画像のスケールを変更することができる。
図2に示すテンプレート生成モジュール103は、パラメータ抽出モジュール105によって抽出されたパラメータベクトルを使用し、対象の物体の幾何学的形状の三角法投影(trigonometric projection)に基づいて、例えば、10%、30%などの異なる充填容積の割合についての理想化された画像テンプレートを合成する。充填容積の割合を変化させることによって、テンプレートのセットが生成される。図8は、異なる充填容積の割合に対応する円筒タンクコンテナの理想化された画像800のセットを示す。テンプレート生成モジュール103は、抽出したパラメータベクトル、対象の物体の決定された高さおよび決定された幅を使用して、対象の物体の理想化された画像を生成する。衛星視野角(仰角および方位角)の不正確さを許容するために、テンプレート生成モジュール103は、特徴抽出モジュール104によって抽出された角度値の周りの角度値の範囲にわたる掃引(sweep)を実施することができる。
テンプレート生成モジュール103は、受信した画像が中心に対象の物体を有すると仮定するが、合成プロセスによって正確な位置についてのいくらかの誤差が許容される。また、テンプレート生成モジュール103は、その屋根を含む物体が明るく色付けされているとも仮定する。それは、物体の屋根およびその上縁(top rim)、ならびに物体の内壁によって落とされる影が暗く色付けされていると仮定する。図7を参照しながら以下で示し、説明するように、理想化された画像テンプレートは、円の位置から構築される。円は、対象の物体の上縁、対象の物体の底部、対象の物体の内面上の影の円弧、および、対象の物体の屋根に対応する。図8に示す実施形態において、理想化された画像は、対象の物体の上縁、対象の物体の内面上の影の円弧、および、対象の物体の屋根に対応する円の位置のみから構築され得る。テンプレート生成モジュール103は、物体の高さおよび幅、所望の浮き屋根の高さ、2つの衛星角度および2つの太陽角度を使用する。その情報および図7に示す三角方程式を使用して、テンプレート生成モジュール103は、円が位置する所の2D投影を作成する。また、テンプレート生成モジュール103は、各理想化された画像をクロップして、対象の物体の中心を各理想化された画像の中心に位置付けることもできる。
円位置が生成されると、テンプレート生成モジュール103は、上縁に対応する円、影の円弧に対応する円、および屋根に対応する円に対して畳み込みを実施することによって、物体の異なる充填容積について図9に示す理想化された画像を合成する。テンプレート生成モジュール103は、3つの円の間のユニオン(unions)およびインターセクション(intersections)を実施することによって畳み込みを実施して、図9に示す理想化された物体画像の「眼球」形状(暗い領域および影の領域)を生成する。テンプレート生成モジュール103は、対象の物体の影および内面に対応するピクセルを−1のような負の値に設定し、対象の物体の屋根に対応するピクセルを+1のような正の値に設定し、すべての他のピクセルを0に設定することによって、対象の物体の各理想化された画像のスケールを変更することができる。
3つの円の間のユニオンおよびインターセクションは、テンプレート生成モジュール103によって、例えば、形態学的画像処理(morphological image processing)を使用して実施されてもよい。形態学的画像処理とは、画像内の特徴の形状または形態に関する非線形演算を指す。形態学的画像処理演算は、ピクセル値の相対的な順序付けのみに依拠し、それらの数値には依拠せず、それゆえ、スケールを変更された理想化された画像に適合する。A∩Bと書かれる2つの画像AおよびBのインターセクションは、AとBの両方において1であるすべてのピクセルpにおいて1である二値画像である。A∪Bと書かれるAおよびBのユニオンは、Aにおいて1であるかまたはBにおいて1である(または両方において1である)すべてのピクセルpにおいて1である二値画像である。
図2に示すテンプレートマッチングモジュール205は、対象の物体の受信した画像を、テンプレート生成モジュール103によって合成された各理想化された画像と照合して、対象の物体の充填容積を決定する。照合は、受信した画像のピクセルと、理想化された画像のピクセルとの間のドット積を実施することによって実施され得る。受信した画像および理想化された画像は、そのピクセル値が−1から+1までの範囲にわたる(すなわち、暗いピクセル(影、内壁など)は負であり、明るいピクセル(屋根など)は正である)ようにスケールを変更されるため、受信した画像と理想化された画像との間のドット積を実施することは、結果として、受信した画像と理想化された画像とが同様に見える場合に大きい正の数をもたらす。これは、受信した画像内の正のピクセルが理想化された画像内の正のピクセルと整合し、受信した画像内の負のピクセルが理想化された画像内の負のピクセルと整合するためである。
図2に示すテンプレートマッチングモジュール205によってドット積を実施することは、受信した画像のピクセルおよび理想化された画像のピクセルを受けて単一の数を返す代数的演算である。代数的には、ドット積は、受信した画像のピクセルおよび理想化された画像のピクセルの対応するピクセル値の積の和である。例えば、Aが受信した画像であり、Bが理想化された画像テンプレートである場合において、2つの画像A=[a,a,...,a]およびB=[b,b,...,b]のドット積は、A・B=Σ=a+a+...+aとして決定できる。偽陽性(false positive)マッチを回避するために画像分析モジュール204およびテンプレートマッチングモジュール205によって実施される畳み込みのさらなる詳細については、図9を参照しながら以下で示し、説明する。
地理的に参照される画像における不正確さ、および、物体が予測される位置に正確に存在しない場合があるという事実を許容するために、テンプレートマッチングモジュール205は、受信した画像にわたって掃引を実施して、物体のいくつかの可能性のある位置を考慮する。テンプレートマッチングモジュール205は、受信した画像と各テンプレートとの間の2D畳み込みを使用することによって掃引を実施する。テンプレートマッチングモジュール205は、対象の物体の受信した画像についてのテンプレートマッチを発見すると、対象の物体の充填容積を、マッチする理想化された画像テンプレートに対応する充填容積として決定する。
コンテナ分析モジュール107は、受信した画像の捕捉の時間、受信した画像内の1つ以上の対象の物体のカウント、および、受信した画像内の1つ以上の対象の物体の各々の決定した充填容積のうちの1つ以上を含む対象の物体のパターンを分析することができる。コンテナ分析モジュール107は、分析した対象の物体のパターンが閾値を超える場合に、ユーザデバイス120に情報を送信することができる。例えば、コンテナ分析モジュール107は、受信した画像内の対象の物体のカウントが閾値を超えるか、または、閾値数の物体の決定した充填容積が閾値を超える場合に、ユーザデバイス120に情報を送信することができる。
図2に示すコンテナパターンストア206は、コンテナ分析モジュール107から受信したパターンを格納することができる。コンテナパターンストア206は、取り外し可能または取り外し不能なメモリカード、テープカセット、ジップカセット、およびコンピュータハードドライブのうちの1つ以上に格納されるデータベースまたは表として編成されてもよい。1つの実施形態において、コンテナパターンストア206は、各々が物体の1つ以上の属性を記述する複数のデータフィールドを格納する。1つの例において、コンテナパターンストア206は、単一の物体について、画像の捕捉の時間、地理的領域座標、物体の高さ、および/または物体の幅を格納する。
例示的な機械学習トレーニングセット
図3Aは、一実施形態による、遠隔コンテナ分析システム101のための例示的な肯定的トレーニングセット300を示す。機械学習モデル106のトレーニングの一部として、機械学習トレーニングエンジン203は、問題の特性(移動車両の存在)を有すると決定されている特徴の肯定的トレーニングセットを識別することによって、特徴およびトレーニングラベル、例えばコンテナ305のトレーニングセットを形成し、いくつかの実施形態において、図3Bを参照しながら以下で詳細に説明するように、問題の特性を欠く特徴の否定的トレーニングセットを形成する。例えば、各トレーニングセットは、コンテナ、例えばコンテナ303に対応する、ラベルを付されたピクセルクラスタを含むことができる。トレーニングセットを収集するために、世界中の知られているタンク場の周りで多角形をマークし、ダウンロードされたランドサット8画像を、これらの多角形と交わらせることができる。また、否定的な例(すなわち、石油タンク場を含まない画像)のセットのために、ランダムにサンプリングされた画像を収集することもできる。トレーニングされると、機械学習モデル106は、対象の領域(例えば、米国)内のすべての画像上で動作することができる。遠隔コンテナ分析システム101の最終的な出力は、機械学習モデル106が高い出力スコアを返した対象の領域(幾何学的多角形)のセットである。
図3Aに示す肯定的トレーニングセット300は、コンテナの存在を有すると決定されている特徴を含む。肯定的トレーニングセット300は、コンテナ305、コンテナ303、およびコンテナ304に対応する、ラベルを付されたピクセルクラスタを含むことができる。また、肯定的トレーニングセット300は、背景領域の水301および陸地302のラベルをも含む。例示的なトレーニングセット300は、陸地302が水302に直面する港に対応し得る。肯定的トレーニングセット300において、コンテナ305は、水のラベルを付された領域内にあり、一方で、コンテナ303および304は、陸地のラベルを付された領域内にある。
図3Bは、例示的な一実施形態による、遠隔コンテナ分析システム101のための例示的な否定的トレーニングセットを示す。図3Bに示す否定的トレーニングセット350は、コンテナの存在を欠くと決定されている特徴を含む。否定的トレーニングセット350は、部分的に水351の中に位置付けられ、部分的に陸地352の上に位置付けられている偽陽性のピクセルのクラスタ354を含む。また、否定的トレーニングセット350は、2つの交わるピクセルのクラスタに関連する偽陽性のピクセルのクラスタ353をも含む。2つのコンテナは互いに交わり得ないため、これらの2つの交わるピクセルのクラスタは偽陽性であり、そのようにラベルを付される(353)。
いくつかの例示的な実施形態において、トレーニングセット300および350は、高いスコアを表すピクセルクラスタ、および、低いスコアを表すピクセルクラスタに手作業でラベルを付すことによって作成され得る。他の実施形態において、機械学習トレーニングエンジン203は、画像ストア102から取得される、格納されている画像からトレーニングセットを抽出することができる。例えば、格納されている画像が、陸地に位置付けられているピクセルクラスタ、例えばコンテナ303を含む場合、機械学習トレーニングエンジン203は、そのピクセルクラスタを肯定的トレーニングセットとして使用することができる。格納されている画像が、部分的に陸地に位置付けられており、部分的に水の上に位置付けられているピクセルクラスタ、例えば偽陽性354を含む場合、機械学習トレーニングエンジン203は、そのピクセルクラスタを否定的トレーニングセットとして使用することができる。
例示的な機械学習トレーニングプロセス
ここで、図4を参照すると、それは、遠隔コンテナ分析システム101内の機械学習モデル106のための、機械学習トレーニングエンジン203の例示的なトレーニングプロセスを示す。プロセスは、画像分析モジュール204、特徴抽出モジュール104、および機械学習モデル106を使用することができる。図4および他の図面は、同様の要素を識別するために、同様の参照数字を使用する。「410a」のような、参照数字の後の文字は、テキストがその特定の参照数字を有する要素を特に参照することを示す。「410」のような、後続の文字を有しないテキスト内の参照数字は、その参照数字を保持する図面内のあらゆる要素を参照し、例えば、テキスト内の「410」は、図面内の参照数字「410a」および/または「410b」を参照する。
画像分析モジュールは、トレーニング画像401内でエッジ分析を実施して、対象の物体に対応する画像内のピクセルを識別することができる。図4に示す特徴抽出モジュール104は、トレーニング画像401から特徴410を抽出する。トレーニング画像401に対応する特徴410は、トレーニングラベル402に基づいて機械学習モデル106をトレーニングするために使用される。1つの例示的な実施形態において、特徴410aは、画像401内のピクセルのピクセル属性に基づく集約値を表すことができる。画像401から特徴410aを抽出することは、ピクセルクラスタリングを実施して、画像401内の隣接するピクセルのクラスタを識別することを含むことができる。画像401内の当該隣接するピクセルは、ピクセル属性に基づいて互いにマッチする。例示的な特徴410bは、画像内の隣接するピクセルの2つのクラスタが互いに交わるか否かを表すことができ、この特徴は、機械学習モデル106に、コンテナが交わり得ないため、2つのピクセルクラスタはコンテナを表すことができないことを教示する。
例示的な特徴410cは、ピクセルのクラスタが部分的に陸地に、かつ部分的に水の上に位置付けられるか否かを表すことができ、この特徴は、機械学習モデル106に、コンテナが部分的に陸地に、かつ部分的に水の上に位置付けられ得ないため、ピクセルクラスタはコンテナを表すことができないことを教示する。特徴410dは、ピクセル位置とピクセル属性との間の関連付けを表すことができる。例えば、特徴410dは、画像内でその右側に位置付けられているピクセルに対するあるピクセルの輝度値を表すことができ、この特徴は、機械学習モデル106に、ピクセルが周囲のピクセルよりも明るいため、ピクセルがコンテナを表すピクセルクラスタの一部であり得ることを教示する。特徴410eは、画像内で同じ行に位置付けられているピクセルの平均輝度に対するあるピクセルの輝度を表すことができ、この特徴は、機械学習モデル106に、ピクセルが周囲のピクセルよりも明るい(例えば、より大きい照度である)ため、ピクセルがコンテナを表す画像ブロブの一部であり得ることを教示する。
機械学習トレーニングエンジン203は、特徴ベクトル410およびトレーニングラベル402を使用して、図4に示す機械学習モデル106をトレーニングすることができる。1つの実施形態では、それによって機械学習モデル106は画像内の各ピクセル位置のスコアを決定するように構成されており、スコアは、当該ピクセル位置がコンテナに対応する尤度を示す。別の実施形態では、機械学習モデル106はピクセルクラスタのスコアを決定するように構成されており、スコアは、ピクセルクラスタがコンテナに対応する尤度を示す。代替的実施形態では、機械学習モデル106はピクセルクラスタ、および、ピクセルクラスタがコンテナに対応する尤度を示すスコアを含む出力を生成するように構成されている。一実施形態において、機械学習モデル106は、ピクセルクラスタに対応する1つ以上のピクセル位置、および、ピクセル位置がピクセルクラスタに対応する尤度を示すスコアを含む出力を生成するように構成されている。一実施形態において、機械学習モデル106は、各識別したピクセルクラスタ内のピクセルの数を含む出力を生成するように構成されている。一実施形態において、機械学習モデル106は、識別したピクセルクラスタとコンテナとの間の関連付けを含む出力を生成するように構成されている。
図4に示す機械学習モデルトレーニングエンジン203は、機械学習技法を適用して、特徴に適用されると、特徴に関連する1つ以上の特性を有するか否かの指示を出力する、例えば、受信した画像の特徴に適用されると、特徴が特定のブール特性またはスカラー特性の推定値を有する確率のような、コンテナが存在するか否かの推定値を出力する機械学習モデル106をトレーニングすることができる。機械学習トレーニングエンジン203は、(例えば、線形判別分析(LDA)、主成分分析(PCA)などを介して)次元縮小を適用して、特徴ベクトル410内のデータの量を、より小さい、より代表的なデータセットへと低減することができる。
機械学習トレーニングエンジン203は、教師あり機械学習を使用して、図4に示す機械学習モデル106をトレーニングすることができ、肯定的トレーニングセットおよび否定的トレーニングセットの特徴ベクトル410が入力としての役割を果たす。他の実施形態において、線形サポートベクタマシン(線形SVM)、他のアルゴリズムのブースト(例えば、AdaBoost)、ロジスティック回帰(logistic regression)、ナイーブベイズ(naive Bayes)、メモリベースの学習、ランダムフォレスト、バッギング木(bagged tree)、決定木、ブースティング木(boosted trees)、ブーストスタンプ(boosted stumps)、ニューラルネットワーク、CNNなどのような異なる機械学習技法が使用されてもよい。機械学習モデル106は、受信した画像のセットから抽出された特徴ベクトル410に適用されると、ピクセルクラスタが、ブールのはい/いいえの推定値、または確率を表すスカラー値のような、問題の特性を有するか否かの指示を出力する。
いくつかの例示的な実施形態において、問題の特性を有するかまたは欠くものとしてすでに決定されているトレーニングセット内のもの以外の追加の特徴から検証セットが形成される。機械学習トレーニングエンジン203は、図4に示すトレーニングされた機械学習モデル106を検証セットの特徴に適用して、機械学習モデル106の正確度を定量化する。正確度の測定に適用される共通の測定基準は、適合率(Precision)=TP/(TP+FP)、および再現率(Recall)=TP/(TP+FN)を含み、ここで、適合率とは、機械学習モデル106が、それが予測した総数(TPすなわち真陽性+FPすなわち偽陽性)のうち、正確に予測した数(TP)であり、再現率とは、機械学習モデル106が、問題の特性を有していた特徴の総数(TP+FNすなわち偽陰性)のうち、正確に予測した数(TP)である。Fスコア(F−score=2×PR/(P+R))が、適合率および再現率を統一して単一の測度にする。1つの実施形態において、機械学習トレーニングエンジン203は、機械学習モデル106が十分に正確であるという正確度測定指標、または、行われたトレーニングラウンドの数のような停止条件の発生まで、機械学習モデル106を繰り返し再トレーニングする。
代替的実施形態において、機械学習モデル106は、明示的な特徴抽出なしにトレーニングセットから直接的に、いずれのピクセルクラスタがコンテナに対応するかのような有用な表現(特徴)を学習するCNNであってもよい。例えば、機械学習モデル106は、トレーニング画像401からの未処理のピクセルを直接的に内部ラベルへと取り込むエンドツーエンド認識システム(非線形マップ)であってもよい。図4に示す(CNNの形態の)機械学習モデル106は、特徴抽出、エッジ分析またはピクセルクラスタ識別を必要とせずに、画像401から直接的に出力を生成することができる。
遠隔物体を識別するための例示的なプロセス
図5は、一実施形態による、遠隔物体を識別するための遠隔コンテナ分析システムの例示的なプロセスを示す。いくつかの例示的な実施形態において、プロセスは、図5に関連して説明されているものとは異なるステップおよび/または追加のステップを有することができる。このプロセスのステップは、図5に関連して説明されている順序とは異なる順序において実施されてもよい。いくつかのステップは並列に実行されてもよい。あるいは、それらのステップのいくつかが並列に実行され、いくつかのステップが順次実行されてもよい。あるいは、いくつかのステップは、あるステップの実行が先行するステップの実行の前に開始されるように、パイプライン化された様式において実行してもよい。
遠隔コンテナ分析システム101は、地理的領域の第1の画像を受信し500、第1の画像は第1の解像度を有する。第1の画像は、広い地理的領域のものである。広い地理的領域は、例えば、領域(エリア)に基づいて予め規定され得る。例えば、この領域(エリア)は国全体、例えば米国、または、州/県もしくは都市のようなより小さい部分、例えばテキサス州および/もしくはヒューストンであってもよい。実用的で効率的な広い領域にわたる走査を行うために、より解像度の低い画像が第1の画像に使用される。そのような画像の一例が、(全整色の帯域における)15m/ピクセルのランドサット画像である。特徴抽出モジュール104は、第1の画像から第1の特徴ベクトルを抽出する504。図2を参照しながら上で説明したように、第1の特徴ベクトルは、第1の画像内のピクセルのピクセル属性に基づく集約値を含んでもよい。遠隔コンテナ分析システム101は、機械学習モデル106に第1の特徴ベクトルを送信して508、第1の画像内の対象の物体を含む対象の領域を識別する。図2および図4を参照しながら上で説明したように、第1の画像内の対象の物体を含む対象の領域を識別することは、第1の画像内の各ピクセルについて、当該ピクセルが対象の物体に対応する尤度を決定することを含む。機械学習モデル106は、より低い適合率(例えば、より高い偽陽性率)という代償を払って高い再現率を有するようにトレーニングされる。
遠隔コンテナ分析システム101は、地理的領域の第2の画像を受信する512。第2の画像は、第1の解像度よりも高い第2の解像度を有する。低解像度の第1の画像の処理は、第2の画像に対する汚染除去(cleanup)フェーズによって後続される。偽陽性をフィルタで除去するために、第1のパスによって返される対象の領域の全体にわたって、第2のパスが実施される。今回は、より高い解像度の画像が使用され、個々のコンテナがより明瞭に見え得る(例えば、1ピクセル当たり50cmの画像を使用する)。特徴抽出モジュール104は、第2の画像から第2の特徴ベクトルを抽出する516。図2を参照しながら上で説明したように、第2の特徴ベクトルは、対象の領域内のピクセルのピクセル属性に基づく集約値を含む。
遠隔コンテナ分析システム101は、機械学習モデル106に第2の特徴ベクトルを送信して520、対象の領域が対象の物体を含む尤度を決定する。図2および図4を参照しながら上で説明したように、対象の領域が対象の物体を含む尤度を決定することは、対象の領域内の各ピクセルについて、当該ピクセルが対象の物体に対応する尤度を決定することを含む。尤度が閾値を下回る場合、遠隔コンテナ分析システム101は、第1の解像度を有する画像内の対象の領域に対応する特徴をフィルタで除去するように、機械学習モデルをトレーニングする524。機械学習モデル106の正確度を改善するために、「ブートストラッピング」または「ハードネガティブマイニング」として参照される手順が実施され得る。汚染除去は、高いスコアの対象の領域の妥当に小さいセットに制限される。高いスコアを受けるが物体を含まない対象の領域は、否定的トレーニングセットに戻って追加され、機械学習モデル106は再びトレーニングされる。この手順は、トレーニングセットが「困難な」否定的例を含むことを保証し、適合率を改善して偽陽性の数を低減することができる。
1つの例示的な実施形態において、対象の領域に対応する特徴をフィルタで除去するように機械学習モデル106をトレーニングすること524は、第1の画像から対象の領域に対応する特徴ベクトルを抽出することを含む。遠隔コンテナ分析システム101は、特徴ベクトルと、第1の画像内の対象の物体の欠如に対応するラベルとを含むトレーニングセットを作成する。遠隔コンテナ分析システム101は、トレーニングセットに基づいて第1の画像内の対象の物体の欠如を識別するように機械学習モデル106を構成する。別の例示的な実施形態において、対象の領域に対応する特徴をフィルタで除去するように機械学習モデル106をトレーニングすること524は、第1の画像から対象の領域に対応する特徴ベクトルを抽出することと、抽出した特徴ベクトルに基づいて第1の画像内の対象の物体の欠如を報告するように機械学習モデル106を構成することとを含む。
第2の画像内の対象の領域が対象の物体を含む尤度が閾値を超える場合、遠隔コンテナ分析システム101は、図2に記載されているように、対象の物体の視覚表現をユーザデバイスに送信する528。
遠隔物体の充填容積を決定するための例示的なプロセス
図6は、一実施形態による、遠隔物体の充填容積を決定するための遠隔コンテナ分析システムの例示的なプロセスを示す。いくつかの実施形態において、プロセスは、図6に関連して説明されているものとは異なるステップおよび/または追加のステップを有することができる。例えば、図6において、破線を使用して任意選択のステップが示されている。このプロセスのステップは、図6に関連して説明されている順序とは異なる順序において実施されてもよい。いくつかのステップは並列に実行されてもよい。あるいは、それらのステップのいくつかが並列に実行され、いくつかのステップが順次実行されてもよい。あるいは、いくつかのステップは、あるステップの実行が先行するステップの実行の前に開始されるように、パイプライン化された様式において実行してもよい。
遠隔コンテナ分析システム101は、画像と、知られた浮き屋根コンテナの位置との交わりを探索するために、衛星画像を処理する。コンテナ画像が受信され600、コンテナの中心が画像の中心になるようにクロップされる。クロップされた画像を使用して、課題は、コンテナの充填容積を決定する(すなわち、屋根がどれだけ下がっているかを決定する)ことである。例示的な一実施形態において、システムは、コンテナが明るく色付けされていると仮定され、各コンテナの内壁が暗く色付けされるように構成されている。遠隔コンテナ分析システム101は、画像からパラメータベクトルを抽出する604。パラメータベクトルは、コンテナの緯度および経度、画像タイムスタンプ、衛星仰角および方位角、太陽仰角および方位角、ならびにタンクの高さおよび幅(または直径)を記述するパラメータを含むことができる。
例示的な一実施形態において、図2を参照しながら上で説明したように、遠隔コンテナ分析システム101は、画像に対して画像分析を実施して608、対象の物体(コンテナ)の高さおよび幅を決定することができる。図2を参照しながら上で説明し、かつ、図7を参照しながら以下で示すように、遠隔コンテナ分析システム101は、抽出したパラメータベクトル、対象の物体の決定した高さ、および決定した幅を使用して、対象の物体の理想化された画像を生成する612。図8を参照しながら以下で示し、説明するように、各理想化された画像は、対象の物体の別個の充填容積に対応する。
遠隔コンテナ分析システム101は、対象の物体の受信した画像を、各理想化された画像と照合して616、対象の物体の充填容積を決定する。図2を参照しながら上で説明し、かつ、図9を参照しながら以下でさらに示すように、照合することは、受信した画像のピクセルと、理想化された画像のピクセルとの間でドット積を実施することを含む。図2を参照しながら上で説明したように、遠隔コンテナ分析システム101は、対象の物体の決定した充填容積に対応する情報をユーザデバイス120に送信する620。
理想化された画像の例示的な合成
図7は、一実施形態による、理想化された画像の例示的な合成704を示す。テンプレート生成モジュール103は、その屋根を含むコンテナが白色であり、または明るく色付けされていると仮定する。また、影および内部コンテナ表面が黒色であるとも仮定する。テンプレート生成モジュール103は、円、すなわち、上部円704(物体の上縁)、底部円720(物体の底部、ここでそれが地面に接する)、屋根の高さの円708(物体の屋根を表す)、および内部の影の円(物体の内面712上の内部の影の円弧から生成される)の位置から理想化された画像テンプレートを生成する。実施形態において、上部円704、屋根の高さの円708、および内部の影の円712のみが使用され得る。理想化された画像テンプレートを生成するために、テンプレート生成モジュール103は、以下の情報、すなわち、物体の高さおよび幅、所望の屋根の高さ、2つの衛星角度および2つの太陽角度を使用する。上記の情報および図8に示す三角方程式に基づいて、テンプレート生成モジュール103は、円が位置する所の2D投影を作成する。
テンプレート生成モジュール103は、図8に示すようなパラメータベクトルを使用して、対象の物体の上縁に対応する円704を生成することによって、物体の所与の充填容積の理想化された画像を生成する。テンプレート生成モジュール103は、パラメータベクトルを使用して、対象の物体の内面上の影の円弧に対応する円712を生成する。テンプレート生成モジュール103は、パラメータベクトルを使用して、対象の物体の屋根に対応する円708を生成する。テンプレート生成モジュール103は、屋根上の影716を使用して、図8に示すような所望の屋根の高さに対応するテンプレートを作成する。テンプレート生成モジュール103は、円704、円720、内側の影の円弧に対応する円712、および円708に対する畳み込みを実施することによって、理想化された画像を合成することができる。
図2を参照しながら上で説明したように、円の位置を知ると、テンプレート生成モジュール103は、ユニオンおよびインターセクションを計算して、図7に示す「眼球」形状(暗い領域および影の領域)テンプレートを生成する。最後のテンプレートにおいて、内側の影のピクセルおよび内壁のピクセルは−1に設定され、屋根のピクセルは+1に設定され、他のすべてのピクセルは0に設定される。これは、暗いピクセル(例えば、影および内面)が負であり、明るいピクセル(例えば、屋根)が正であるように行われる。このとき、入力画像と理想化された画像との間で実施されるドット積は、テンプレートおよび画像が類似している場合、結果として大きい正の数をもたらす。なぜなら、画像内の正のピクセルが理想化された画像内の正のピクセルと整合し、画像内の負のピクセルが理想化された画像内の負のピクセルと整合するからである。
例示的な円投影式
図8は、一実施形態による、例示的な円投影式のセットを示す。テンプレート生成モジュール103は、抽出したパラメータおよび図8に示す三角方程式に基づいて、図7を参照しながら上で示し、説明した円の位置から理想化された画像テンプレートを生成する。
1つの実施形態において、テンプレート生成モジュール103は、図8に示す三角方程式に基づいて投影を作成して、パラメータベクトルを円上にマッピングすることができる。テンプレート生成モジュール103は、以下のように、上縁によって屋根に落とされる影および内面によって平面に落とされる影を投影することができる。点の投影は、平面上のその影である。平面上の点の影は、点自体である。例えば、点から平面上への投影は、以下のように実施され得る。Cが投影の中心と呼ばれる点である場合、Cとは異なる点Pの、Cを含まない平面上への投影は、線CPと平面との交わりである。線CPが平面に平行であるような点Pは、投影によっていかなる画像も有しない。しかしながら、それらは、平面の無限遠にある点に対して投影しているものと考えられる。点C自体の投影は定義されない。別の例において、以下のように、投影は、方向Dに平行に、平面に対して実施され得る。点Pの画像は、Pを通過するDに平行な線の平面との交わりである。
代替的実施形態において、テンプレート生成モジュール103は、フィールドKにわたる次元nの投影空間P(V)を、次元n+1のKベクトル空間内の線のセットとして定義することができる。Vの基底が固定されている場合、Vの点は、Kn+1の点(x,...,x)によって表され得る。従って、V内の線であるP(V)の点は、この線の任意の非ゼロ点の座標によって表され得る。同じ次元の2つの投影空間P(V)およびP(W)が与えられると、テンプレート生成モジュール103は、ベクトル空間の同型f:V→Wによって誘発される、P(V)からP(W)へのマッピングとしてのホモグラフィを生成することができる。fの線形性のために、そのような同型は、P(V)からP(W)への双射を誘発する。2つのそのような同型fおよびgは、g=afとなるようなKの非零要素aがある場合かつその場合に限り、同じホモグラフィを規定することができる。
例示的な理想化された画像
図9は、一実施形態による、例示的な理想化された画像900のセットを示す。理想化された画像900は、テンプレート生成モジュール103によって、対象のコンテナの充填容積の割合を、0%充填(画像904)から100%充填(画像924)まで変化させることによって生成される。画像908において、コンテナの充填容積の割合は20%である。画像912において、コンテナの充填容積の割合は40%である。コンテナの上縁によってコンテナの屋根932および内面に落とされる画像912内の影936は、画像908内の影よりも小さい。
画像916において、コンテナの充填容積の割合は60%である。コンテナの上縁によってコンテナの屋根および内面に落とされる画像916内の影は、画像912内の影936よりも小さい。画像920において、コンテナの充填容積の割合は80%である。コンテナの上縁によってコンテナの屋根および内面に落とされる画像920内の影は、画像916内の影よりも小さい。画像924において、コンテナの充填容積の割合は100%である。画像924内に影はない。
所与の入力のセットについて、遠隔コンテナ分析システム101は、画像900の中でいずれの理想化されたテンプレートが受信した画像に最もよくマッチするかを決定し、その後、対応する充填容積の割合を返す。1つの例示的な実施形態において、テンプレートマッチングモジュール205は、以下のように、受信した画像、衛星および太陽の角度、ならびにコンテナの寸法に基づいてコンテナの充填容積を決定する。テンプレートマッチングモジュール205は、変数「best_score(最良スコア)」を大きい負の数に設定する。テンプレートマッチングモジュール205は、変数「best_fill_percentage(最良の充填割合)」を−1に設定する。テンプレートマッチングモジュール205は、0%から100%までの異なる充填容積の割合について、以下のステップを実施する。テンプレートマッチングモジュール205は、受信した画像の各テンプレートに対する照合からスコアを決定する。スコアが「best_score」よりも高い場合、テンプレートマッチングモジュール205は、「best_score」の値を当該スコアに設定し、「best_fill_percentage」の値を当該充填容積の割合に設定する。プロセスの終わりに、テンプレートマッチングモジュール205は、「best_fill_percentage」の値を返す。
遠隔物体の例示的な画像勾配および輪郭
ここで図10Aを参照すると、それは、一実施形態による、コンテナの例示的な受信した画像1000を示す。コンテナは、影1004を有する屋根1008を有する。浮き屋根コンテナの屋根1008が完全に上がっている(満杯のコンテナである)とき、マッチする理想化された画像は、図9の画像924として上で示されている、灰色ピクセル1012(0の値を有するピクセル)によって囲まれた(すべてのピクセルが値1を有する)白色の円である。このテンプレートは、同じスコアを有するあらゆる白色領域とマッチする。偽陽性を回避するために、受信した画像1000からの勾配情報が、テンプレートマッチングモジュール205によって組み込まれ得る。
図10Bは、一実施形態による、図10Aの受信した画像1000の例示的な画像勾配1020を示す。画像分析モジュール204は、受信した画像1000に対して、図2を参照しながら上で説明したようなエッジ分析を実施して、受信した画像1000の画像勾配1020を取得することができる。画像勾配1020は、画像1000内の強度または色の方向的変化(directional change)を表す。画像分析モジュール204は、画像勾配1020を、各ピクセルにおける単一の値として導出することができる。各画像点において、勾配は、最大の可能な強度増加を示す。図10Bのエッジ1024は、図10Aの背景1012から影1004への、画像1000内の強度または色の変化を表す。図10Bのエッジ1028は、図10Aの影1004から屋根1008への、画像1000内の強度または色の変化を表す。図10Bのエッジ1032は、図10Aの屋根1008から背景1012への、画像1000内の強度または色の変化を表す。
図10Cは、一実施形態による、理想化された画像テンプレート内の対象の物体(コンテナ)の上縁1044の例示的な輪郭1040を示す。画像分析モジュール204は、理想化された画像に対してエッジ分析を実施して、理想化された画像内のコンテナの上縁1044の輪郭1040を取得することができる。例えば、画像分析モジュール204は、エッジ細線化を実施して、輪郭1040内のエッジ1044上の所望されない誤った点を除去することができる。(例えば、メジアンフィルタ、ガウスフィルタなどを使用して)理想化された画像に対してノイズについてのフィルタをかけ、(図2を参照しながら上で説明したように)エッジ演算子を適用してエッジ1044を検出し、適切な閾値を使用してエッジ1044を平滑化した後に、画像分析モジュール204は、エッジ細線化を実施することができる。これは、すべての所望されない点を除去し、結果として、一実施形態において、1ピクセルの太さのエッジ要素をもたらす。
テンプレートマッチングモジュール205は、受信した画像1000内のコンテナの充填容積を決定するために、画像勾配1020のピクセルと、上縁1044の輪郭1040のピクセルとの間のドット積を実施することができる。このプロセスの利益および利点は、鮮鋭で細いエッジがテンプレートマッチングにおいてより高い効率をもたらすことである。ハフ変換を使用して(影の)円弧および円(例えば、上縁)を検出することは、結果として、より大きい正確度をもたらす。
図10Dは、一実施形態による、理想化された画像テンプレート内のコンテナの内面上の影の例示的な輪郭1060を示す。画像分析モジュール204は、理想化された画像に対してエッジ分析を実施して、コンテナの内面上の影の輪郭1060を取得することができる。図10Dにおいて、エッジ1064は、背景から内面上の影への、理想化された画像1060内の強度または色の変化を表す。エッジ1068は、内面上の影から屋根への、理想化された画像1060内の強度または色の変化を表す。テンプレートマッチングモジュール205は、受信した画像1000内のコンテナの充填容積を決定するために、画像勾配1020のピクセルと、影1060の輪郭のピクセルとの間のドット積を実施することができる。
いくつかの例示的な実施形態において、3つの畳み込みを実施し、合計して、応答マップを形成することができる。第1の畳み込みは、受信した画像1000と、理想化された画像テンプレート、例えば、図9の画像912との間である。第2の畳み込みは、画像勾配1020と、上縁の輪郭1040との間である。第3の畳み込みは、画像勾配1020と、影の輪郭1060との間である。3つの結果として生じる応答マップを合計し、画像の中心の指定された半径内の最大応答を有する位置を、最終的なテンプレートマッチスコアとして決定することができる。上記の手順は、対象の物体の幾何学的形状が知られており、そのほとんどが知られている少数のパラメータによって特徴付けられる任意の状況に一般化され得る。その後、可能性のある値にわたって掃引し、テンプレートを生成し、それらを入力画像と照合することによって、知られていないパラメータを決定できる。
例示的な機械アーキテクチャ
図11は、ここでプロセスとして説明されている命令を機械可読媒体から読み出し、少なくとも1つのプロセッサ(またはコントローラ)においてそれらを実行することが可能な例示的な機械の構成要素を示すブロック図である。具体的には、図11は、コンピュータシステム1100の例示的な形態の機械の図解表現を示す。コンピュータシステム1100は、機械に、ここで説明されている方法(またはプロセス)のうちのいずれか1つ以上を実施させるための命令1124(例えば、プログラムコードまたはソフトウェア)を実行するために使用され得る。代替的実施形態において、機械は、独立型デバイスとして、または、他の機械に接続する、接続される(例えば、ネットワーク接続される)デバイスとして動作する。ネットワーク接続された配備において、機械は、サーバ−クライアントネットワーク環境におけるサーバ機械もしくはクライアント機械の立場で、またはピアツーピア(または分散された)ネットワーク環境におけるピア機械として動作することができる。命令は、例えば、図1、図2および図4〜図8に関連してここで説明されている構成要素および/またはプロセスの機能に対応することに留意されたい。また、命令は、図3A〜図3B、図9および図10A〜図10Dに示す結果をもたらすための駆動と関連付けられるプロセスに対応することもできる。
機械は、サーバコンピュータ、クライアントコンピュータ、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、スマートフォン、モノのインターネット(IoT)アプライアンス、ネットワークルータ、スイッチもしくはブリッジ、または、その機械によってとられるべき動作を指定する命令1124を(順次にまたは他の様態で)実行することが可能な任意の機械であってもよい。さらに、単一の機械のみが示されているが、「機械」という用語は、ここで論じられている方法のいずれか1つ以上を実施するために個々にまたは共同して命令1124を実行する機械の任意の集合を含むものとしても理解されるべきである。
例示的なコンピュータシステム1100は、1つ以上の処理装置(一般的にはプロセッサ1102)を含む。プロセッサ1102は、例えば、中央処理装置(CPU)、グラフィックスプロセッシングユニット(GPU)、デジタル信号プロセッサ(DSP)、コントローラ、状態機械、1つ以上の特定用途向け集積回路(ASIC)、1つ以上の無線周波数集積回路(RFIC)、またはこれらの任意の組み合わせである。また、コンピュータシステム1100は、メインメモリ1104をも含む。コンピュータシステムは、記憶装置1116を含むことができる。プロセッサ1102、メモリ1104および記憶装置1116はバス1108を介して通信する。
加えて、コンピュータシステム1100は、スタティックメモリ1106、(例えば、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、またはプロジェクタを駆動するための)ディスプレイドライバ1110を含むことができる。また、コンピュータシステム1100は、同じくバス1108を介して通信するように構成されている、英数字入力デバイス1112(例えば、キーボード)、カーソル制御デバイス1114(例えば、マウス、トラックボール、ジョイスティック、運動センサ、または他のポインティング機器)、信号生成デバイス1118(例えば、スピーカ)、およびネットワークインターフェースデバイス1120をも含むことができる。
記憶装置1116は、ここで説明されている方法または機能のうちのいずれか1つ以上を具現化する命令1124(例えば、ソフトウェア)が記憶されている機械可読媒体1122を含む。また、命令1124は、コンピュータシステム1100によるその実行中に、完全にまたは少なくとも部分的に、メインメモリ1104内またはプロセッサ1102内(例えば、プロセッサのキャッシュメモリ内)に存在することもでき、メインメモリ1104およびプロセッサ1102も、機械可読媒体を構成する。命令1124は、ネットワークインターフェースデバイス1120を介してネットワーク1126にわたって送信または受信され得る。
機械可読媒体1122は、例示的な実施形態において、単一の媒体であるものとして示されているが、「機械可読媒体」という用語は、命令1124を記憶することが可能な、単一の媒体または複数の媒体(例えば、集中化されたもしくは分散されたデータベース、または、関連付けられるキャッシュおよびサーバ)を含むように解釈されるべきである。また、「機械可読媒体」という用語は、機械による実行のために命令1124を記憶することが可能であり、機械に、ここで開示されている方法のいずれか1つ以上を実施させる任意の媒体を含むものとしても解釈されるべきである。「機械可読媒体」という用語は、限定されないが、ソリッドステートメモリ、光媒体、および磁気媒体の形態のデータリポジトリを含む。いくつかの例示的な実施形態では、コンピュータシステムの中核構成要素は、プロセッサ1102、メモリ1104、およびバス1108を除く構成要素を無視することができ、また、他の実施形態では、記憶装置1116および/またはネットワークインターフェースデバイス1120をも含んでよいことに留意されたい。
追加の考慮事項
開示されているような遠隔コンテナ分析システムは、ピクセルのクラスタの、遠隔コンテナのデジタル表現、ならびに、各遠隔コンテナについて、遠隔コンテナの屋根、内面、および充填容積のデジタル表現への変換を含む利益および利点を提供する。システムの他の利点は、空中画像のより高速な処理、より低い電力消費、遠隔コンテナ検出におけるより短い待ち時間、ネットワークを介して送信されるより少ないデータなどを含む。
この明細書全体を通じて、複数のインスタンスが、単一のインスタンスとして説明されている構成要素、動作、または構造を実現してもよい。1つ以上の方法の個々の動作は別個の動作として示され、説明されているが、個々の動作のうちの1つ以上は、同時に実施されてもよく、動作が示されている順序において実施されることを必要とするものは何もない。例示的な構成において別個の構成要素として提示されている構造および機能は、組み合わされた構造または構成要素として実現されてもよい。同様に、単一の構成要素として提示されている構造および機能が、別個の構成要素として実現されてもよい。これらのおよび他の変形、修正、追加、および改善は、ここでの主題の範囲内に入る。
特定の実施形態は、例えば、図1、図2、図4、図5、図6、図7、図8、および図11を用いて示し、説明したように、論理またはいくつかの構成要素、モジュール、またはメカニズムを含むものとしてここでは説明されている。モジュールは、ソフトウェアモジュール(例えば、機械可読媒体上で具現化されるコード)またはハードウェアモジュールを構成することができる。ハードウェアモジュールは、特定の動作を実施することが可能な有形ユニットであり、特定の様式で構成または配置され得る。例示的な実施形態において、1つ以上のコンピュータシステム(例えば、独立型、クライアントまたはサーバコンピュータシステム)またはコンピュータシステムの1つ以上のハードウェアモジュール(例えば、プロセッサまたはプロセッサのグループ)は、ソフトウェア(例えば、アプリケーションまたはアプリケーション部分)によって、ここで説明されているような特定の動作を実施するように動作するハードウェアモジュールとして構成され得る。
様々な実施形態において、ハードウェアモジュールは、機械的にまたは電子的に実現されてもよい。例えば、ハードウェアモジュールは、特定の動作を実施するように(例えば、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC)のような特別な目的のプロセッサとして)永続的に構成された専用の回路または論理を含むことができる。また、ハードウェアモジュールは、ソフトウェアによって特定の動作を実施するように一時的に構成されるプログラム可能な論理または回路(例えば、汎用プロセッサまたは他のプログラム可能なプロセッサ内に含まれるものとしての)をも含むことができる。ハードウェアモジュールを専用の永続的に構成された回路において機械的に実現するか、または、一時的に構成される回路(例えば、ソフトウェアによって構成される回路)において実施するかの決定は、コストおよび時間の考慮事項によって動かされ得ることが理解されよう。
ここで説明されている例示的な方法の様々な動作は、少なくとも部分的に、関連する動作を実施するように(例えば、ソフトウェアによって)一時的に構成され、または永続的に構成される1つ以上のプロセッサ、例えばプロセッサ1102によって実施されてもよい。一時的に構成されるか、または、永続的に構成されるかにかかわらず、そのようなプロセッサは、1つ以上の動作または機能を実施するように動作する、プロセッサによって実現されるモジュールを構成することができる。ここで参照されているモジュールは、いくつかの例示的な実施形態において、プロセッサによって実現されるモジュールを含むことができる。
また、1つ以上のプロセッサは、「クラウドコンピューティング」環境における、または、「サービスとしてのソフトウェア」(SaaS)としての関連動作の実施をサポートするように動作することもできる。例えば、少なくともいくつかの動作は、コンピュータ(例えば、プロセッサを含む機械)のグループによって実施することができ、これらの動作は、ネットワーク(例えば、インターネット)を介して、および1つ以上の適切なインターフェース(例えば、アプリケーションプログラムインターフェース(API))を介してアクセス可能である。
特定の動作の実施は、単一の機械内に存在するだけでなく、いくつかの機械にわたって配備される、1つ以上のプロセッサの間で分散されてもよい。いくつかの例示的な実施形態において、1つ以上のプロセッサまたはプロセッサによって実現されるモジュールは、単一の地理的ロケーション(例えば、家庭環境、オフィス環境、またはサーバファーム内)に位置付けられてもよい。他の例示的な実施形態において、1つ以上のプロセッサまたはプロセッサによって実現されるモジュールは、いくつかの地理的ロケーションにわたって分散されてもよい。
この明細書のいくつかの部分は、機械メモリ(例えば、コンピュータメモリ)内にビットまたは二値デジタル信号として格納されているデータに対する動作のアルゴリズムまたは記号的表現の点から提示されている。これらのアルゴリズムまたは記号的表現は、データ処理技術における当業者によって、自身の研究の要旨を他の当業者に伝達するために使用される技法の例である。ここで使用される場合、「アルゴリズム」は、所望の結果をもたらす首尾一貫した一連の動作または類似の処理である。この文脈において、アルゴリズムおよび動作は、物理量の物理的操作を含む。必ずではないが、通常は、そのような量は、機械によって記憶、アクセス、転送、結合、比較、または他の様態で操作されることが可能な電気信号、磁気信号、または光信号の形態をとることができる。主に一般的な用法の理由から、そのような信号を、「データ」、「内容」、「ビット」、「値」、「要素」、「シンボル」、「文字」、「用語」、「数」、「数字」などのような単語を使用して参照することが時として好都合である。しかしながら、これらの単語は、便宜上のラベルに過ぎず、適切な物理量と関連付けられるべきである。
別途具体的に述べられない限り、「処理(processing」)、「計算(computing)」、「算出(calculating)」、「決定(determining)」、「提示(presenting)」、「表示(displaying)」などのような単語を使用したここでの論述は、1つ以上のメモリ(例えば、揮発性メモリ、不揮発性メモリ、またはそれらの組み合わせ)、レジスタ、または、情報を受信、格納、送信、もしくは表示する他の機械構成要素内の物理(例えば、電子、磁気、または光学)量として表されるデータを操作または変換する機械(例えば、コンピュータ)の動作または処理を指し得る。
ここで使用される場合、「1つの実施形態」または「一実施形態」へのあらゆる言及は、その実施形態と関連して説明されている特定の要素、特徴、構造、または特性が、少なくとも1つの実施形態に含まれることを意味する。明細書内の様々な箇所における「1つの実施形態において」という語句の出現は、必ずしもすべてが同じ実施形態を参照しているとは限らない。
いくつかの実施形態は、それらの派生物とともに「結合される」および「接続される」という表現を使用して説明されている場合がある。例えば、いくつかの実施形態は、2つ以上の要素が直接物理的にまたは電気的に接触していることを示すために「結合される」という用語を使用して説明されている場合がある。しかしながら、「結合される」という用語は、2つ以上の要素が互いに直接接触していないが、なお依然として互いに協働または相互作用することを意味することもできる。この文脈において実施形態は限定されない。
ここで使用される場合、「備える(comprises)」、「備える(comprising)」、「含む(includes)」、「含む(including)」、「有する(has)」、「有する(having)」という用語またはそれらの任意の他の変化形は、非排他的な包含をカバーするように意図されている。例えば、要素のリストを含むプロセス、方法、物品、または装置は、必ずしもそれらの要素のみには限定されず、明示的にリストされていない、または、そのようなプロセス、方法、物品、または装置に内在する他の要素を含んでもよい。さらに、逆のことが明示的に述べられていない限り、「または(or)」は包含的orを指すものであって、排他的orを指すものではない。例えば、条件AまたはBは、Aが真であり(または存在し)かつBが偽である(または存在しない)、Aが偽であり(または存在せず)かつBが真である(または存在する)、および、AとBの両方が真である(または存在する)、のうちのいずれか1つによって満たされる。
加えて、「a」または「an」の使用が、ここでの実施形態の要素および構成要素を説明するために採用される。これは、単に便宜上のものとして、特許請求された発明の概括的な意味を与えるために行われている。この記載は、1つまたは少なくとも1つを含むものとして読まれるべきであり、単数形は、そうでないことを意味することが明白でない限り、複数形をも含む。
この開示を読めば、当業者は、ここで開示されている原理を通じて低解像度画像から遠隔コンテナの充填容積を識別し、決定するためのシステムおよびプロセスのさらなる追加の代替的な構造および機能の設計を理解するであろう。従って、特定の実施形態およびアプリケーションが示され、説明されているが、開示されている実施形態は、ここで開示されているまさにその構造および構成要素に限定されないことが理解できる。添付された特許請求の範囲において定義されている精神および範囲から逸脱することなく、当業者に明らかになる様々な修正、変更および変形が、ここで開示されている方法および装置の構成、動作および詳細において行われ得る。

Claims (14)

  1. 空中撮像デバイスからの画像を処理するための方法であって、
    対象の物体の画像を受信するステップと、
    前記画像からパラメータベクトルを抽出するステップと、
    前記画像に対して画像分析を実施して、前記対象の物体の高さおよび幅を決定するステップと、
    前記抽出したパラメータベクトル、前記対象の物体の前記決定した高さ、および前記決定した幅を使用して前記対象の物体の複数の理想化された画像を生成するステップであって、前記複数の理想化された画像の各理想化された画像は、前記対象の物体の別個の充填容積に対応するステップと、
    前記対象の物体の前記受信した画像を、前記複数の理想化された画像の各理想化された画像と照合して、前記対象の物体の充填容積を決定するステップと、
    前記対象の物体の前記決定した充填容積に対応する情報をユーザデバイスに送信するステップと
    を備え、
    前記各理想化された画像を生成するステップは、
    前記パラメータベクトルを使用して前記対象の物体の上縁に対応する円を生成するステップと、
    前記パラメータベクトルを使用して前記対象の物体の内面上の影の円弧に対応する円を生成するステップと、
    前記パラメータベクトルを使用して前記対象の物体の屋根に対応する円を生成するステップと、
    前記上縁に対応する前記円、前記影の前記円弧に対応する前記円、および前記屋根に対応する前記円に対して畳み込みを実施することによって、前記理想化された画像を合成するステップと
    をさらに備えたことを特徴とする方法。
  2. 空中撮像デバイスからの画像を処理するための方法であって、
    対象の物体の画像を受信するステップと、
    前記画像からパラメータベクトルを抽出するステップと、
    前記画像に対して画像分析を実施して、前記対象の物体の高さおよび幅を決定するステップと、
    前記抽出したパラメータベクトル、前記対象の物体の前記決定した高さ、および前記決定した幅を使用して前記対象の物体の複数の理想化された画像を生成するステップであって、前記複数の理想化された画像の各理想化された画像は、前記対象の物体の別個の充填容積に対応するステップと、
    前記対象の物体の前記受信した画像を、前記複数の理想化された画像の各理想化された画像と照合して、前記対象の物体の充填容積を決定するステップと、
    前記対象の物体の前記決定した充填容積に対応する情報をユーザデバイスに送信するステップと
    を備え、
    前記対象の物体の前記受信した画像を各理想化された画像と照合するステップは、
    前記受信した画像のピクセルと各理想化された画像のピクセルとの間のドット積を実施して、第1の応答マップを取得するステップと、
    前記受信した画像の画像勾配のピクセルと、前記理想化された画像内の前記対象の物体の上縁の輪郭のピクセルとの間のドット積を実施して、第2の応答マップを取得するステップと、
    前記画像勾配のピクセルと、前記理想化された画像内の前記対象の物体の内面上の影の輪郭のピクセルとの間のドット積を実施して、第3の応答マップを取得するステップと、
    前記第1の応答マップ、前記第2の応答マップ、および前記第3の応答マップを合計するステップと
    を備えたことを特徴とする方法。
  3. 前記受信した画像をクロップして、前記対象の物体の中心を前記受信した画像の中心に位置付けるステップをさらに備えたことを特徴とする請求項1又は2に記載の方法。
  4. 前記パラメータベクトルは、
    前記受信した画像の捕捉の時間を記述するパラメータ、
    前記空中撮像デバイスの方位角を記述するパラメータ、
    太陽の仰角を記述するパラメータ、および
    太陽の方位角を記述するパラメータ
    のうちの1つ以上をさらに備えたことを特徴とする請求項1又は2に記載の方法。
  5. 前記画像分析を実施するステップは、
    前記対象の物体の前記画像のピクセル解像度を受信するステップと、
    前記対象の物体の前記高さに関連するピクセルの数を決定するステップと、
    前記ピクセル解像度および前記対象の物体の前記高さに関連する前記ピクセルの数に基づいて、前記対象の物体の前記高さを決定するステップと
    をさらに備えたことを特徴とする請求項1又は2に記載の方法。
  6. 前記画像分析を実施するステップは、
    前記対象の物体の前記画像のピクセル解像度を受信するステップと、
    前記対象の物体の前記幅に関連するピクセルの数を決定するステップと、
    前記ピクセル解像度および前記対象の物体の前記幅に関連する前記ピクセルの数に基づいて、前記対象の物体の前記幅を決定するステップと
    をさらに備えたことを特徴とする請求項1又は2に記載の方法。
  7. 前記畳み込みを実施するステップは、前記上縁に対応する前記円、前記影の前記円弧に対応する前記円、および前記屋根に対応する前記円の間でユニオンおよびインターセクションを実施するステップをさらに備えたことを特徴とする請求項1に記載の方法。
  8. 前記対象の物体の影および内面に対応するピクセルを負の値に設定すること、および
    前記対象の物体の屋根に対応するピクセルを正の値に設定すること
    によって、前記対象の物体の前記複数の理想化された画像の各理想化された画像のスケールを変更するステップをさらに備えたことを特徴とする請求項1又は2に記載の方法。
  9. 前記対象の物体の影および内面に対応するピクセルを負の値に設定すること、および
    前記対象の物体の屋根に対応するピクセルを正の値に設定すること
    によって、前記対象の物体の前記受信した画像のスケールを変更するステップをさらに備えたことを特徴とする請求項5に記載の方法。
  10. 前記対象の物体の前記受信した画像を各理想化された画像と照合するステップは、
    前記受信した画像の異なる位置に前記理想化された画像を重ね合わせるステップと、
    前記異なる位置の各々において、前記受信した画像のピクセルと、前記理想化された画像のピクセルとの間のドット積を実施するステップと、
    前記異なる位置の各々における前記ドット積の最大値を決定するステップと
    を備えたことを特徴とする請求項1又は2に記載の方法。
  11. 前記対象の物体の前記受信した画像を各理想化された画像と照合するステップは、
    前記受信した画像に対してエッジ分析を実施して、前記受信した画像の画像勾配を取得するステップと、
    前記理想化された画像に対してエッジ分析を実施して、前記理想化された画像内の前記対象の物体の上縁の輪郭を取得するステップと、
    前記画像勾配のピクセルと前記上縁の前記輪郭のピクセルとの間のドット積を実施するステップと
    を備えたことを特徴とする請求項1又は2に記載の方法。
  12. 前記対象の物体の前記受信した画像を各理想化された画像と照合するステップは、
    前記受信した画像に対してエッジ分析を実施して、前記受信した画像の画像勾配を取得するステップと、
    前記理想化された画像に対してエッジ分析を実施して、前記理想化された画像内の前記対象の物体の内面上の影の輪郭を取得するステップと、
    前記画像勾配のピクセルと前記影の前記輪郭のピクセルとの間のドット積を実施するステップと
    を備えたことを特徴とする請求項1又は2に記載の方法。
  13. 対象の物体のパターンを分析するステップであって、当該パターンは、
    前記受信した画像の捕捉の時間、
    前記受信した画像内の1つ以上の対象の物体のカウント、および
    前記受信した画像内の1つ以上の対象の物体の各々の決定された充填容積
    のうちの1つ以上を含むステップと、
    前記分析した対象の物体のパターンが閾値を超えることに応答して、前記ユーザデバイスに情報を送信するステップと
    をさらに備えたことを特徴とする請求項1又は2に記載の方法。
  14. 少なくとも1つのプロセッサによって実行可能な命令を備える非一時的コンピュータ可読記憶媒体であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、請求項1ないし13のいずれか1つに記載の方法を実施させることを特徴とする非一時的コンピュータ可読記憶媒体。
JP2018553076A 2016-04-08 2017-03-27 地理的領域におけるコンテナ内に格納された量の遠隔決定 Active JP6976270B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662320387P 2016-04-08 2016-04-08
US62/320,387 2016-04-08
PCT/US2017/024317 WO2017176487A1 (en) 2016-04-08 2017-03-27 Remote determination of quantity stored in containers in geographical region

Publications (3)

Publication Number Publication Date
JP2019514123A JP2019514123A (ja) 2019-05-30
JP2019514123A5 JP2019514123A5 (ja) 2020-05-07
JP6976270B2 true JP6976270B2 (ja) 2021-12-08

Family

ID=59998270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018553076A Active JP6976270B2 (ja) 2016-04-08 2017-03-27 地理的領域におけるコンテナ内に格納された量の遠隔決定

Country Status (4)

Country Link
US (3) US9934591B2 (ja)
EP (1) EP3440428B1 (ja)
JP (1) JP6976270B2 (ja)
WO (1) WO2017176487A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977734B1 (en) * 2015-05-29 2021-04-13 State Farm Mutual Automobile Insurance Company Method and system for collaborative inspection of insured properties
US11775850B2 (en) 2016-01-27 2023-10-03 Microsoft Technology Licensing, Llc Artificial intelligence engine having various algorithms to build different concepts contained within a same AI model
US11836650B2 (en) 2016-01-27 2023-12-05 Microsoft Technology Licensing, Llc Artificial intelligence engine for mixing and enhancing features from one or more trained pre-existing machine-learning models
US11868896B2 (en) 2016-01-27 2024-01-09 Microsoft Technology Licensing, Llc Interface for working with simulations on premises
US10803401B2 (en) 2016-01-27 2020-10-13 Microsoft Technology Licensing, Llc Artificial intelligence engine having multiple independent processes on a cloud based platform configured to scale
US20180357543A1 (en) * 2016-01-27 2018-12-13 Bonsai AI, Inc. Artificial intelligence system configured to measure performance of artificial intelligence over time
US11841789B2 (en) 2016-01-27 2023-12-12 Microsoft Technology Licensing, Llc Visual aids for debugging
JP6707920B2 (ja) * 2016-03-14 2020-06-10 株式会社リコー 画像処理装置、画像処理方法、およびプログラム
JP6976270B2 (ja) * 2016-04-08 2021-12-08 オービタル インサイト インコーポレイテッド 地理的領域におけるコンテナ内に格納された量の遠隔決定
US10217236B2 (en) * 2016-04-08 2019-02-26 Orbital Insight, Inc. Remote determination of containers in geographical region
CN106157307B (zh) * 2016-06-27 2018-09-11 浙江工商大学 一种基于多尺度cnn和连续crf的单目图像深度估计方法
US10438094B1 (en) * 2016-11-15 2019-10-08 Google Llc Automatic suggestion to share images
US10410348B2 (en) * 2016-12-21 2019-09-10 Elekta, Inc. Online learning enhanced atlas-based auto-segmentation
US11170216B2 (en) * 2017-01-20 2021-11-09 Sony Network Communications Inc. Information processing apparatus, information processing method, program, and ground marker system
US10657444B2 (en) * 2017-03-09 2020-05-19 Thomas Danaher Harvey Devices and methods using machine learning to reduce resource usage in surveillance
US10672139B2 (en) * 2017-05-19 2020-06-02 Kayrros Method and system for remotely measuring the volume of liquid stored in external floating roof tanks
US10235566B2 (en) * 2017-07-21 2019-03-19 Skycatch, Inc. Determining stockpile volume based on digital aerial images and three-dimensional representations of a site
US11080526B2 (en) * 2017-08-15 2021-08-03 Regents Of The University Of Minnesota Satellite image classification across multiple resolutions and time using ordering constraint among instances
US10491778B2 (en) 2017-09-21 2019-11-26 Honeywell International Inc. Applying features of low-resolution data to corresponding high-resolution data
CN108334823A (zh) * 2018-01-19 2018-07-27 中国公路工程咨询集团有限公司 基于机器学习的高分辨率遥感影像集装箱区域检测方法
CN108444452B (zh) * 2018-02-11 2020-11-17 武汉雄楚高晶科技有限公司 目标经纬度和拍摄装置的三维空间姿态的检测方法及装置
EP3553700A3 (en) * 2018-04-12 2019-11-06 Orbital Insight, Inc. Remote determination of containers in geographical region
US10880299B2 (en) * 2018-05-30 2020-12-29 Jumio Corporation Machine learning for document authentication
CN117726791A (zh) * 2018-06-20 2024-03-19 祖克斯有限公司 从机器学习模型输出推断出的实例分割
US10775174B2 (en) 2018-08-30 2020-09-15 Mapbox, Inc. Map feature extraction system for computer map visualizations
US10778916B2 (en) 2018-10-24 2020-09-15 Honeywell International Inc. Applying an annotation to an image based on keypoints
CN109509188B (zh) * 2018-11-12 2022-04-15 贵州电网有限责任公司 一种基于hog特征的输电线路典型缺陷识别方法
US11049224B2 (en) * 2018-12-05 2021-06-29 Microsoft Technology Licensing, Llc Automated real-time high dynamic range content review system
US10861187B2 (en) * 2019-02-13 2020-12-08 Apical Limited Method of processing object detection data
US10909366B2 (en) 2019-02-28 2021-02-02 Orbital Insight, Inc. Joint modeling of object population estimation using sensor data and distributed device data
US10824897B1 (en) * 2019-03-26 2020-11-03 Facebook, Inc. Detecting an identity of a brand and/or an obfuscated identity of the brand within an image based on embeddings corresponding to regions of interest within the image
CN110458853B (zh) * 2019-08-01 2021-02-26 北京灵医灵科技有限公司 一种医学影像中脚踝韧带分离方法和分离系统
US20210163154A1 (en) * 2019-11-29 2021-06-03 Mitsubishi Heavy Industries, Ltd. Observation control device and spacecraft, observation control method, and observation control program
US11430129B2 (en) * 2020-01-27 2022-08-30 Zebra Technologies Corporation Methods for unit load device (ULD) localization
EP4139841A1 (en) 2020-04-20 2023-03-01 The Heil Co. Identifying overfilled containers
US11796377B2 (en) * 2020-06-24 2023-10-24 Baker Hughes Holdings Llc Remote contactless liquid container volumetry
CN112541876B (zh) * 2020-12-15 2023-08-04 北京百度网讯科技有限公司 卫星图像处理方法、网络训练方法、相关装置及电子设备
US11367289B1 (en) * 2021-07-16 2022-06-21 Motional Ad Llc Machine learning-based framework for drivable surface annotation
US11335203B1 (en) * 2021-08-20 2022-05-17 Beta Air, Llc Methods and systems for voice recognition in autonomous flight of an electric aircraft
US11393122B1 (en) * 2021-11-03 2022-07-19 Walkout Ltd. Method and system for determining contextual object position

Family Cites Families (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765164A (ja) * 1993-08-26 1995-03-10 Kawasaki Steel Corp テンプレートの生成方法
US5943164A (en) 1994-11-14 1999-08-24 Texas Instruments Incorporated Curved 3-D object description from single aerial images using shadows
US5705733A (en) 1996-01-23 1998-01-06 Jannotta; Louis J. Apparatus for monitoring liquid levels and methods for calibrating same
US6064759A (en) 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
US5973770A (en) 1998-05-06 1999-10-26 Quantum Imaging, Inc. Method for measuring the relative proximity of and interacting with a plurality of media/molecular structures
US6714000B2 (en) 1999-06-14 2004-03-30 Genscape, Inc. Method for monitoring power and current flow
JP3524853B2 (ja) * 1999-08-26 2004-05-10 株式会社ナノジオメトリ研究所 パターン検査装置、パターン検査方法および記録媒体
US20010040446A1 (en) 2000-04-13 2001-11-15 Sterling Lapinksi Apparatus and method for the measurement and monitoring of electrical power generation and transmission
DK1297347T3 (da) 2000-04-13 2007-10-08 Genscape Intangible Holding In Apparat og fremgangsmåde til måling og overvågning af effektgenerering og -transmission
ES2287121T3 (es) 2000-04-13 2007-12-16 Genscape Intangible Holding, Inc. Aparato para la medicion y control de forma remota de una linea de transporte de electricidad.
US6782122B1 (en) 2000-04-27 2004-08-24 Simmonds Precision Products, Inc. Apparatus for measuring height of a liquid in a container using area image pattern recognition techniques
CN1164913C (zh) * 2002-04-02 2004-09-01 上海交通大学 油罐容积检测系统及标定方法
US7212670B1 (en) * 2002-05-03 2007-05-01 Imagetree Corp. Method of feature identification and analysis
US6935587B2 (en) 2002-06-06 2005-08-30 Johnson Crushers International Mobile rock crushing plant
US7464889B2 (en) 2002-06-06 2008-12-16 Johnson Crushers International Mobile rock crushing plant
US7400770B2 (en) * 2002-11-06 2008-07-15 Hrl Laboratories Method and apparatus for automatically extracting geospatial features from multispectral imagery suitable for fast and robust extraction of landmarks
US20050027636A1 (en) 2003-07-29 2005-02-03 Joel Gilbert Method and apparatus for trading energy commitments
US7274996B2 (en) 2003-10-20 2007-09-25 Genscape Intangible Holding, Inc. Method and system for monitoring fluid flow
US7376522B2 (en) 2003-10-20 2008-05-20 Genscape Intangible Holding, Inc. Method and system for determining the direction of fluid flow
FI117490B (fi) * 2004-03-15 2006-10-31 Geodeettinen Laitos Menetelmä puustotunnusten määrittämiseksi laserkeilaimen, kuvainformaation ja yksittäisten puiden tulkinnan avulla
US7848595B2 (en) * 2004-06-28 2010-12-07 Inphase Technologies, Inc. Processing data pixels in a holographic data storage system
US7571028B2 (en) 2005-04-19 2009-08-04 Genscape Intangible Holding, Inc. Method and system for AC power grid monitoring
US7580560B2 (en) * 2005-07-18 2009-08-25 Mitutoyo Corporation System and method for fast template matching by adaptive template decomposition
JP4645900B2 (ja) 2005-07-29 2011-03-09 横河電機株式会社 浮屋根式貯蔵タンクの監視システム
US7398168B2 (en) 2005-09-08 2008-07-08 Genscape Intangible Holding, Inc. Method and system for monitoring power flow through an electric power transmission line
JP4647514B2 (ja) * 2006-02-17 2011-03-09 株式会社日立ソリューションズ 航空画像処理装置および航空画像処理方法
WO2008031029A2 (en) 2006-09-08 2008-03-13 Promethean Devices Llc Sensor, method and system of monitoring transmission lines
US8862432B2 (en) 2007-02-12 2014-10-14 Locus Energy, Llc Automatic system information determination of distributed renewable energy systems
US20080195561A1 (en) 2007-02-12 2008-08-14 Michael Herzig Systems and methods for providing renewable power systems by aggregate cost and usage
US7742897B2 (en) 2007-12-02 2010-06-22 Michael Herzig Systems and methods for monitoring and diagnosing the power generated by renewable power systems
US8972221B2 (en) 2007-02-12 2015-03-03 Locus Energy, Llc Estimating solar irradiance components from plane of array irradiance and global horizontal irradiance
US9322951B2 (en) 2007-02-12 2016-04-26 Locus Energy, Inc. Weather and satellite model for estimating solar irradiance
US8190395B2 (en) 2007-02-12 2012-05-29 Locus Energy, Llc Comparible diagnostics for renewable energy power systems
US8725459B2 (en) 2007-02-12 2014-05-13 Locus Energy, Llc Irradiance mapping leveraging a distributed network of solar photovoltaic systems
US8972273B1 (en) 2007-03-21 2015-03-03 Genscape Intangible Holding, Inc. Method and system for providing information to market participants about one or more power generating units based on thermal image data
US7809621B2 (en) 2007-04-25 2010-10-05 Michael Herzig On-premise renewable generation securitization
US20090099915A1 (en) 2007-10-16 2009-04-16 Michael Herzig Systems and methods for standardized billing for at-premise renewable power systems
US7706990B2 (en) 2007-10-30 2010-04-27 Michael Herzig Systems and methods for measuring utilized generation of at-premise renewable power systems
WO2009156527A1 (es) 2008-06-25 2009-12-30 Universidad Politécnica de Madrid Procedimiento y sistema para generar automáticamente meta-datos de geodatos
US8064692B2 (en) * 2008-12-24 2011-11-22 Weyerhaeuser Nr Company Automatic age classification of forest land
US8078995B2 (en) * 2009-01-06 2011-12-13 International Business Machines Corporation Efficient isotropic modeling approach to incorporate electromagnetic effects into lithographic process simulations
JP5684488B2 (ja) * 2009-04-20 2015-03-11 富士フイルム株式会社 画像処理装置、画像処理方法およびプログラム
IT1395344B1 (it) 2009-05-28 2012-09-14 Geosoft S R L Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato.
JP5261312B2 (ja) * 2009-07-30 2013-08-14 富士フイルム株式会社 画像解析装置、画像解析方法およびプログラム
US8170282B1 (en) 2009-09-17 2012-05-01 Sandia Corporation Technique for ship/wake detection
US8655070B1 (en) * 2009-11-04 2014-02-18 Google Inc. Tree detection form aerial imagery
US9208612B2 (en) * 2010-02-12 2015-12-08 The University Of North Carolina At Chapel Hill Systems and methods that generate height map models for efficient three dimensional reconstruction from depth information
US9117310B2 (en) * 2010-04-02 2015-08-25 Imec Virtual camera system
US8842874B1 (en) * 2010-04-19 2014-09-23 Genscape Intangible Holding, Inc. Method and system for determining an amount of a liquid energy commodity stored in a particular location
US10564315B2 (en) 2010-05-10 2020-02-18 Locus Energy, Inc. Methods for location identification of renewable energy systems
US9686122B2 (en) 2010-05-10 2017-06-20 Locus Energy, Inc. Methods for orientation and tilt identification of photovoltaic systems and solar irradiance sensors
US8594375B1 (en) 2010-05-20 2013-11-26 Digitalglobe, Inc. Advanced cloud cover assessment
US20120035887A1 (en) 2010-08-03 2012-02-09 Joseph Augenbraun Shading analysis software
US8532336B2 (en) 2010-08-17 2013-09-10 International Business Machines Corporation Multi-mode video event indexing
US9576349B2 (en) 2010-12-20 2017-02-21 Microsoft Technology Licensing, Llc Techniques for atmospheric and solar correction of aerial images
MY164743A (en) 2011-02-16 2018-01-30 Genscape Intangible Holding Inc Method and system for collecting and analyzing operational information from a network of components associated with a liquid energy commodity
EP2681593B1 (en) 2011-03-02 2016-10-26 Genscape Intangible Holding, Inc. Method and system for determining an amount of a liquid energy commodity in storage in an underground cavern
US8442307B1 (en) * 2011-05-04 2013-05-14 Google Inc. Appearance augmented 3-D point clouds for trajectory and camera localization
US8509476B2 (en) 2011-09-13 2013-08-13 The United States Of America, As Represented By The Secretary Of The Navy Automated system and method for optical cloud shadow detection over water
EP2788956B1 (en) * 2011-11-22 2020-09-23 Smiths Heimann GmbH Laptop detection
US9230333B2 (en) * 2012-02-22 2016-01-05 Raytheon Company Method and apparatus for image processing
JP5964108B2 (ja) * 2012-03-30 2016-08-03 株式会社メガチップス 物体検出装置
AU2013317709B2 (en) 2012-09-21 2018-07-05 Anditi Pty Ltd On-ground or near-ground discrete object detection method and system
US9031287B2 (en) * 2012-12-28 2015-05-12 Weyerhaeuser Nr Company System and method for estimating ages of forests from remotely sensed images
US20140188410A1 (en) 2012-12-28 2014-07-03 Locus Energy, Llc Methods for Photovoltaic Performance Disaggregation
US20140278107A1 (en) 2013-03-12 2014-09-18 Locus Energy, Llc Methods and systems for real-time solar forecasting incorporating a ground network
US20140278108A1 (en) 2013-03-13 2014-09-18 Locus Energy, Llc Methods and Systems for Optical Flow Modeling Applications for Wind and Solar Irradiance Forecasting
US9195876B2 (en) 2013-06-05 2015-11-24 Digitalglobe Inc. Oil tank farm storage monitoring
JP2015011014A (ja) 2013-07-02 2015-01-19 株式会社東芝 計測装置及び計測プログラム
US9798928B2 (en) 2013-07-17 2017-10-24 James L Carr System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability
US20150065178A1 (en) * 2013-09-03 2015-03-05 Qualcomm Incorporated Methods and apparatuses for providing positioning assistance data
JP6183177B2 (ja) * 2013-11-28 2017-08-23 コニカミノルタ株式会社 医用画像システム及びプログラム
US9612598B2 (en) * 2014-01-10 2017-04-04 Pictometry International Corp. Unmanned aircraft structure evaluation system and method
CN105095900B (zh) * 2014-05-04 2020-12-08 斑马智行网络(香港)有限公司 一种提取标准卡片中特定信息的方法和装置
IL232853A (en) * 2014-05-28 2015-11-30 Elbit Systems Land & C4I Ltd Imaging Georegistration System and Method
EP3078014B1 (en) 2014-06-04 2018-12-12 Cuende Infometrics S.A. System and method for measuring the real traffic flow of an area
US9472082B2 (en) * 2014-06-23 2016-10-18 Bruno Delean Vision based system for detecting distress behavior
CA2954810A1 (en) 2014-07-15 2016-01-21 Genscape Intangible Holding, Inc. Method and system for monitoring a production facility for a renewable fuel
SG11201701485TA (en) * 2014-08-25 2017-03-30 Agency Science Tech & Res Methods and systems for assessing retinal images, and obtaining information from retinal images
US9669850B2 (en) 2014-09-08 2017-06-06 Genscape Intangible Holding, Inc. Method and system for monitoring rail operations and transport of commodities via rail
JP5875669B1 (ja) * 2014-12-24 2016-03-02 エー・シー・エス株式会社 土砂災害予測システム
US10303943B2 (en) 2015-01-20 2019-05-28 Bae Systems Plc Cloud feature detection
EP3248138A1 (en) 2015-01-20 2017-11-29 BAE Systems PLC Detecting and ranging cloud features
AU2016201867B2 (en) 2015-03-27 2017-09-28 Konica Minolta Laboratory U.S.A., Inc. Method and system to avoid plant shadows for vegetation and soil imaging
US20160343124A1 (en) 2015-05-19 2016-11-24 Genscape Intangible Holding, Inc. Method and system for determining a status of one or more tanks in a particular location
US9767565B2 (en) 2015-08-26 2017-09-19 Digitalglobe, Inc. Synthesizing training data for broad area geospatial object detection
JP6548518B2 (ja) * 2015-08-26 2019-07-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US9589210B1 (en) 2015-08-26 2017-03-07 Digitalglobe, Inc. Broad area geospatial object detection using autogenerated deep learning models
GB2543749A (en) 2015-10-21 2017-05-03 Nokia Technologies Oy 3D scene rendering
US10068129B2 (en) * 2015-11-18 2018-09-04 Adobe Systems Incorporated Recognizing unknown person instances in an image gallery
US20170147901A1 (en) * 2015-11-20 2017-05-25 The Boeing Company Multi-resolution, change-driven imagery collection asset tasking system
US9807365B2 (en) * 2015-12-08 2017-10-31 Mitsubishi Electric Research Laboratories, Inc. System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
EP3387399A2 (en) 2015-12-09 2018-10-17 Flir Systems, Inc. Unmanned aerial system based thermal imaging and aggregation systems and methods
US9875430B1 (en) * 2016-03-30 2018-01-23 Descartes Labs, Inc. Iterative relabeling using spectral neighborhoods
JP6976270B2 (ja) * 2016-04-08 2021-12-08 オービタル インサイト インコーポレイテッド 地理的領域におけるコンテナ内に格納された量の遠隔決定
CN105959584B (zh) * 2016-04-29 2019-01-22 京东方科技集团股份有限公司 一种图像处理方法、图像处理装置及显示装置
US10083354B2 (en) 2016-11-28 2018-09-25 Digitalglobe, Inc. Advanced cloud detection using machine learning and optimization techniques
US10546195B2 (en) * 2016-12-02 2020-01-28 Geostat Aerospace & Technology Inc. Methods and systems for automatic object detection from aerial imagery
US10303942B2 (en) 2017-02-16 2019-05-28 Siemens Aktiengesellschaft Short term cloud forecast, improved cloud recognition and prediction and uncertainty index estimation
JP6732214B2 (ja) * 2017-03-10 2020-07-29 オムロン株式会社 画像処理装置、画像処理方法、テンプレート作成装置、物体認識処理装置及びプログラム

Also Published As

Publication number Publication date
US9934591B2 (en) 2018-04-03
US20180182122A1 (en) 2018-06-28
WO2017176487A1 (en) 2017-10-12
EP3440428A4 (en) 2019-10-09
JP2019514123A (ja) 2019-05-30
EP3440428A1 (en) 2019-02-13
US20170294027A1 (en) 2017-10-12
EP3440428B1 (en) 2022-06-01
US10192323B2 (en) 2019-01-29
US10319107B2 (en) 2019-06-11
US20170293800A1 (en) 2017-10-12

Similar Documents

Publication Publication Date Title
JP6976270B2 (ja) 地理的領域におけるコンテナ内に格納された量の遠隔決定
US10607362B2 (en) Remote determination of containers in geographical region
JP6709283B2 (ja) 低解像度リモートセンシング画像を用いた移動車両の検出及び分析
Wang et al. Fusing bird’s eye view lidar point cloud and front view camera image for 3d object detection
CN109683699B (zh) 基于深度学习实现增强现实的方法、装置及移动终端
CN109598241B (zh) 基于Faster R-CNN的卫星图像海上舰船识别方法
WO2015038358A1 (en) Classification of land based on analysis of remotely-sensed earth images
EP3553700A2 (en) Remote determination of containers in geographical region
US9213919B2 (en) Category histogram image representation
WO2023126914A2 (en) METHOD AND SYSTEM FOR SEMANTIC APPEARANCE TRANSFER USING SPLICING ViT FEATURES
CN111832568A (zh) 车牌识别方法、车牌识别模型的训练方法和装置
US20220044072A1 (en) Systems and methods for aligning vectors to an image
Misra et al. Feature based remote sensing image registration techniques: A comprehensive and comparative review
Ji et al. An evaluation of conventional and deep learning‐based image‐matching methods on diverse datasets
WO2022260745A1 (en) Volumetric sampling with correlative characterization for dense estimation
CN103733225A (zh) 特征点对等系统、特征点对等方法、以及记录介质
Usman Rafique et al. Weakly supervised fusion of multiple overhead images
WO2022070184A1 (en) System and method for visual localization
Pandey et al. Toward mutual information based place recognition
Zhang et al. Augmented visual feature modeling for matching in low-visibility based on cycle-labeling of Superpixel Flow
Maher et al. Deep-patch orientation network for aircraft detection in aerial images
Porzi et al. An automatic image-to-DEM alignment approach for annotating mountains pictures on a smartphone
Wang et al. Aerial-DEM geolocalization for GPS-denied UAS navigation
US20230386163A1 (en) Object Level Data Augmentation Scheme for Training Object Detectors
US20240070812A1 (en) Efficient cost volume processing within iterative process

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211109

R150 Certificate of patent or registration of utility model

Ref document number: 6976270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150