JP6709283B2 - 低解像度リモートセンシング画像を用いた移動車両の検出及び分析 - Google Patents

低解像度リモートセンシング画像を用いた移動車両の検出及び分析 Download PDF

Info

Publication number
JP6709283B2
JP6709283B2 JP2018526502A JP2018526502A JP6709283B2 JP 6709283 B2 JP6709283 B2 JP 6709283B2 JP 2018526502 A JP2018526502 A JP 2018526502A JP 2018526502 A JP2018526502 A JP 2018526502A JP 6709283 B2 JP6709283 B2 JP 6709283B2
Authority
JP
Japan
Prior art keywords
images
blobs
vehicle
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018526502A
Other languages
English (en)
Other versions
JP2018536236A (ja
Inventor
ウィギン クラフト アダム
ウィギン クラフト アダム
アレクサンドロヴィッチ バベンコ ボリス
アレクサンドロヴィッチ バベンコ ボリス
アラン バクスター マイケル
アラン バクスター マイケル
ジェフリー ビッカートン スティーヴン
ジェフリー ビッカートン スティーヴン
Original Assignee
オービタル インサイト インコーポレイテッド
オービタル インサイト インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オービタル インサイト インコーポレイテッド, オービタル インサイト インコーポレイテッド filed Critical オービタル インサイト インコーポレイテッド
Publication of JP2018536236A publication Critical patent/JP2018536236A/ja
Application granted granted Critical
Publication of JP6709283B2 publication Critical patent/JP6709283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、概して、低解像度画像の画像処理に関し、特に、空中撮像装置によって取り込まれた低解像度画像を使用して地理的領域内の移動車両を識別することに関する。
(関連出願の相互参照)
本出願は、参照によりその全体が本明細書に組み込まれる、2015年11月16日に出願された米国仮出願第62/256,072号の利益を主張する。
いくつかのアプリケーションは、空中画像を分析して、例えば、衛星によって取り込まれた空中画像内の様々な物体など、画像内の物体を識別する。高解像度画像の分析は、比較的単純な技術を用いて行うことができる。高解像度の空中画像を得るためには、通常、大きくて高価な衛星を使用する必要がある。これらの衛星は、通常、かなりの量のリソースを必要とする。例えば、そのような衛星は、高い空間分解能のカメラ、高価なトランスポンダ、高度なコンピュータなどの高度で高価な機器を運搬する。高価な撮像衛星に関連するコストに寄与する他の要因は、打ち上げコストおよびメンテナンスである。高価な人力を必要とする地上設備から、高価な高空間分解能撮像衛星を監視しなければならない。これらの衛星は、損傷や高価なダウンタイムの影響を受けやすい。高価な撮像衛星の高い打ち上げコスト及び開発コストは、物体検出のための新しいまたはアップグレードされた空中画像および通信サービスの導入の減速につながる。
より安価な低空間分解能の撮像衛星および無人機を画像の取り込みに使用することができる。しかしながら、そのような衛星及び無人機は、不明確な画像を提供する。低解像度の画像では、車両などの物体は一般的にはっきりと識別できず、しばしば隣接するいくつかのピクセルを含むブロブ(blob)として表示される。赤外線帯域画像のような他の場合、画像は人間には完全に見えない。従来の画像処理技術は、安価な低解像度撮像衛星によって撮影された低解像度画像から移動車両、自動車、トラック、またはスピードボートなどの物体を識別することができない。
開示された実施形態は、詳細な説明、添付の特許請求の範囲、および添付の図面(または描画)からより容易に明らかとなる利点および特徴を有する。図面の簡単なイントロダクションは以下の通りである。
図1は、移動車両分析システムが動作する例示的なシステム環境のブロック図を示す。 図2は、移動車両分析システムのための例示的なシステムアーキテクチャのブロック図を示す。 図3は、複数の撮像センサから取得された例示的な低解像度空中画像を示す図である。 図4は、移動車両分析システムにおける機械学習トレーニングエンジンの例示的なプロセスを示す図である。 図5は、移動車両分析システムにおける機械学習モデルのトレーニングセットの例を示す図である。 図6は、低解像度空中画像を処理するための移動車両分析システムの例示的なプロセスを示す図である。 図7は、移動車両分析システムが低分解能の空中画像を処理するプロセスの応用例を示す図である。 図8は、複数の撮像センサから取得された地理的領域の例示的な低解像度空中画像を示す図である。 図9は、ピクセルブロブを含む例示的な低解像度空中画像を示す図である。 図10は、交通分析モジュールの出力例を示す図である。 図11は、異なる時間に単一の撮像センサから取得された例示的な低分解能空中画像を示す図である。 図12Aは、2つの移動車両の機械学習モデルの出力例を示す図である。 図12Bは、2つの移動車両の交通分析モジュールの出力例を示す図である。 図13は、機械可読媒体から命令を読み取り、プロセッサまたはコントローラにおいて命令を実行することができる例示的な機械の構成要素を示すブロック図である。
図および以下の説明は、例示のみを目的として、好ましい実施形態に関する。以下の説明から、本明細書に開示された構造および方法の代替の実施形態は、特許請求された原理から逸脱することなく採用され得る実行可能な代替物として容易に認識されることに留意されたい。
いくつかの実施形態を詳細に参照し、その例を添付図面に示す。実施可能である場合には、類似のまたは同様の参照番号を図面で使用することができ、類似または同様の機能を示すことができることに留意されたい。図面は、例示のみを目的として、開示されたシステム(または方法)の実施形態を示す。当業者であれば、以下の説明から、本明細書に記載する構造および方法の代替実施形態を、本明細書に記載の原理から逸脱することなく使用できることを容易に認識するであろう。
(構成の概要)
例示的な実施形態として、低解像度空中画像から移動車両を識別するためのシステム、方法、および/またはコンピュータプログラム製品(例えば、1つまたは複数の処理ユニットによって実行可能な命令を記憶するコンピュータ可読記憶媒体)が開示される。1つの例示的な実施形態では、移動車両分析システムは、衛星、無人機または他の衛星に構成された撮像システムなどの空中撮像装置から地理的領域の低解像度画像を受信する。空中撮像装置内には、異なる瞬間に画像を取り込む複数の画像センサがある。単一の撮像センサが特定の時間に画像を取り込む。
移動車両分析システムは、ノイズが多い低解像度画像から信号を抽出し、画像内の移動車両を識別する。受信した低解像度画像のピクセル解像度は、地上分解能(Ground Sample Distance:GSD)単位で測定される。一例では、受信された画像の解像度は3〜5メートル/ピクセルの範囲内にある。この解像度では、自動車、トラック、電車、船舶、スピードボートなどの移動車両は、隣接するいくつかのピクセルのあいまいなピクセルブロブとして表示される。用語「ピクセルブロブ」および「ブロブ」は、この説明では交換可能に使用されてもよく、各々、ピクセル属性に基づいて互いにほぼ一致する隣接ピクセルの集合を参照することに留意されたい。例えば、ブロブは、ブロブを囲む全ピクセルの輝度属性値の2倍以上の5つの隣接ピクセルを含むことができる。別の例では、ブロブ内のピクセルの各対は、輝度属性値が互いに閾値内にあるピクセルを含むことができる。
移動車両分析システムは、車両経路に対応するエッジ(edge)の対を識別するために画像内でエッジ分析を実行することができる。車両経路は、車両が道路、街路、道路、輸送車線、鉄道線路等の上を通り抜けることができる経路であってもよい。移動車両分析システムは、ピクセルクラスタリング又は他の画像処理技術によって画像内のピクセルブロブを識別する。移動車両分析システムは、画像から特徴ベクトルを抽出することができる。特徴ベクトルは、互いに対して及び車両経路に関してブロブの相対位置を記述する特徴を含むことができる。
他の例示的な実施形態では、移動車両分析システムは、ブロブが移動車両に対応する可能性を示すスコアを生成するための機械学習モデルへの入力として特徴ベクトルを提供することができる。移動車両分析システムは、生成されたスコアが閾値を超える場合、ブロブを移動車両と関連付けることができる。1つの例示的な実施形態では、移動車両分析システムは、各移動車両が対応するブロブに関連付けられている画像内の移動車両の数を決定することができる。移動車両分析システムは、各移動車両のサイズ、速度、および方向を決定することができる。移動車両分析システムは、分析された閾値を超える交通パターンに応じて、車両経路に対応する交通パターンを分析し、移動車両に再経路指定情報を送信することができる。
(例示的なシステム環境)
図1は、移動車両分析システム101が動作する例示的なシステム環境のブロック図を示す。図1に示す例示的なシステム環境は、空中撮像装置110、移動車両分析システム101、交通データベース109、クライアント装置120、及び車両130を含むことができる。空中撮像装置110は、低解像度画像を取り込むことができる、衛星、無人機、または他の衛星に構成された撮像システムであってもよい。空中撮像装置110内の撮像システムは、異なる時間に取り込む複数の撮像センサを含むことができることに留意されたい。空中撮像装置110は、時間差を有する複数の画像を取り込むことができる。複数の画像は、同じスペクトル帯域または異なるスペクトル帯域に対応してもよく、スペクトル帯域は光の波長範囲に対応する。例示的なスペクトル帯域には、赤色スペクトル帯域、緑色スペクトル帯域、青色スペクトル帯域、赤外スペクトル帯域、およびパンクロマティックスペクトル帯域が含まれる。
図3を参照して以下に詳細に例示及び記載されるように、移動車両は、各画像上の隣接するピクセルのあいまいなブロブとして現れることがある。空中撮像装置110からの画像は時間差で取り込まれるため、複数の撮像センサからの画像が結合されたとき、移動車両のブロブは整列しない。例えば、各撮像センサが異なるスペクトル帯域に対応する空中撮像装置110において、移動車両のブロブは、赤色、青色及び緑色スペクトル帯域の異なる位置に現れることができる。これは、異なる撮像センサからの画像が結合されてカラー画像になるときに明らかになる。複数の撮像センサから結合されたブロブを含む例示的な低解像度空中画像が、図3において以下に例示及び記載される。
図1に示す移動車両分析システム101は、画像記憶部102、オプションの車両経路検出モジュール105、オプションのピクセルブロブ識別モジュール103、オプションの特徴抽出モジュール104、機械学習モデル106、交通分析モジュール107、およびバス108を含むことができる。図1に例示されたシステム環境の任意の構成要素は、点線で示されている。図1に示す画像記憶部102は、空中撮像装置110から受信した低解像度画像を記憶することができる。車両経路検出モジュール105、ピクセルブロブ識別モジュール103、特徴抽出モジュール104、および機械学習モデル106は、処理のために画像記憶部102に記憶された画像を取り出すことができる。
図2を参照して以下に詳細に例示及び記載されるように、図1に示すオプションの車両経路検出モジュール105は、エッジの対を識別するために、受信した画像内でエッジ分析を実行する。エッジの各対は、車両経路に対応する。先に注記したように、車両経路は、例えば道路、通り、大通り、高速道路、未舗装道路、鉄道線路などの車両走行に伴う経路であってもよい。例示的な一実施形態では、図1に示すピクセルブロブ識別モジュール103は、画像記憶部102から画像を取得し、各画像内のブロブを識別する。各ブロブは、ピクセル属性に基づいて互いに一致する隣接ピクセルを含む。一例では、ピクセル属性は、ピクセルの輝度を表す0〜256の値である。移動車両分析システム101がピクセル属性に基づいてブロブをどのように識別することができるかについてのさらなる詳細は、図2に開示されている。図2を参照して以下に詳細に例示及び記載されるように、特徴抽出モジュール104は、車両経路検出モジュール105によって識別された車両経路に関するブロブ及び他のブロブに関する相対位置を記述する受信した画像から特徴ベクトルを抽出することができる。特徴ベクトルは、識別されたブロブが1つまたは複数の移動車両に対応する可能性を示すスコアを生成するために、機械学習モデル106に送信されてもよい。別の実施形態では、機械学習モデル106は、受信した画像に基づいて、(ピクセル属性に基づいて互いに一致する1つまたは複数の隣接ピクセルを含む)ピクセルブロブおよびブロブが移動車両に対応する可能性を示すスコアを含む出力を生成することができる。
図1に示す交通分析モジュール107は、ブロブに対して生成されたスコアが閾値を超える場合、ブロブと移動車両との間の関連を記憶することができる。図2を参照して以下に詳細に例示及び記載されるように、交通分析モジュール107は、受信した画像内の1つまたは複数の移動車両の数を決定することができ、各移動車両は、対応するブロブと関連付けられる。また、交通分析モジュール107は、移動車両の速度及びサイズを決定することができる。また、交通分析モジュール107は、画像の取り込み時間、移動車両の数、各移動車両のサイズ、およびそれらの平均速度に対応する交通パターンを分析してもよい。また、交通分析モジュール107は、分析された交通パターンが渋滞値などの閾値を超える場合に、クライアント装置120および車両130に再経路指定情報を送信することができる。画像記憶部102、車両経路検出モジュール105、ピクセルブロブ識別モジュール103、特徴抽出モジュール104、機械学習モデル106、および交通分析モジュール107は、バス108によって通信する。移動車両分析システム101の構成要素に関するさらなる詳細は、図2に提供される。
図1に示すオプションの外部交通データベース109は、機械学習モデル106および交通分析モジュール107のために移動車両分析システム101と通信して、処理のために交通情報を検索することができる。交通データベース109は、高速道路(量、速度、車両分類、トラック重量データなど)との交差点における交通量、交通量の増加および傾向、年間平均一日交通量(AADT)の推定値を決定する際に使用される季節調整係数と運輸省からの指向性設計時容積(DDHV)についての情報を含むことができる。交通データベース109は、OpenStreetMapデータベースからの、ハンドヘルドGPSユニット、ノートブック、デジタルカメラ、ボイスレコーダなどのツールを用いてシステマチックな地上調査を行って収集された地図データを含むことができる。機械学習モデル106は、交通データベース109内の情報を使用して、移動車両に対応するブロブを識別することができる。交通分析モジュール107は、交通データベース109内の情報を使用して、移動車両の数、各車両のサイズ、平均速度、車両の密度などを含む交通パターンを分析することができる。
移動車両分析システム101は、図1に示すクライアント装置120と対話することができる。クライアント装置120は、クライアント入力を受信することができ、ネットワークを介してデータを送信および/または受信することができるコンピューティング装置であってもよい。1つの例示的な実施形態では、クライアント装置120は、デスクトップまたはラップトップコンピュータのような従来のコンピュータシステムであってもよい。あるいは、クライアント装置120は、パーソナルデジタルアシスタント(PDA)、携帯電話、スマートフォン、タブレット、または別の適切な装置などのコンピュータ機能を有する装置であってもよい。車両130はまた、ネットワークを介してクライアント入力を受信するだけでなく、データを送信および/または受信することもできる。一実施形態では、車両130は、ネットワークを介して移動車両分析システム101と通信することもできるGPS装置を含む。移動車両分析システム101は、ブロブを移動車両の視覚的表現に変換し、移動車両の視覚的表現をユーザ装置120に配信し、移動車両の視覚的表現をグラフィカルアイコンおよび視覚的インジケータなどのユーザインタフェースに出力してもよい。
(例示的なシステムアーキテクチャ)
図2は、移動車両分析システム101の例示的なシステムアーキテクチャのブロック図を示す。図2に示されるシステムは、外部システムインターフェース201、画像記憶部102、オプションの車両経路検出モジュール105、オプションのピクセルブロブ識別モジュール103、オプションの特徴抽出モジュール104、オプションの特徴記憶部202、機械学習モデル106、機械学習トレーニングエンジン203、移動車両記憶部204、交通分析モジュール107、および交通パターン記憶部206を含む。図2のオプションの構成要素は、破線で示されている。
図1に示す外部システムインターフェース201は、空中撮像装置110から画像を表すデータパケットを受信する専用のハードウェアまたはソフトウェアネットワーキング装置であってもよい。外部システムインターフェース201は、移動車両分析システム101からの経路変更情報を表すデータパケットをネットワークを介してクライアント装置および車両に転送することができる。一例では、外部システムインターフェース201は、インターネットバックボーンの光ファイバ線に沿って高速でデータパケットを転送する。別の例では、外部システムインターフェース201は、ボーダーゲートウェイプロトコル(BGP)を使用して経路指定情報を交換する、エッジルータ、境界ルータ、またはコアルータであってもよい。
図2に示す画像記憶部102は、空中撮像装置から受信した低解像度画像を記憶することができる。車両経路検出モジュール105、ピクセルブロブ識別モジュール103および特徴抽出モジュール104は、処理のために画像記憶部102によって記憶された画像を取り出すことができる。画像記憶部102は、1つまたは複数のリムーバブルまたは非リムーバブルメモリカード、テープカセット、ジップカセット、およびコンピュータハードドライブに記憶されたデータベースまたは画像のテーブルとして編成することができる。一実施形態では、画像記憶部102は、それぞれが画像の1つまたは複数の属性を記述する複数のデータフィールドを含むことができる。一例では、画像記憶部102は、単一の画像に対して、取り込み時間、スペクトル帯域情報、地理的領域座標などを含む。
図2に示す車両経路検出モジュール105は、エッジの対を識別するために、受信された画像においてエッジ分析を実行することができ、エッジの各対は、車両経路に対応する。車両経路を含む例示的な画像は、図8を参照して以下に詳細に例示及び記載される。車両経路は、道路、通り、大通り、高速道路、未舗装道路などであってもよい。車両経路検出モジュール105は、例えば、移動車両が予想される道路、高速道路、または他の経路のような車両経路を選択することによって画像記憶部102からの画像内の移動車両を検出するための探索空間を縮小するように構成されることができる。
図2に示す車両経路検出モジュール105は、画像内の各ピクセル位置(i,j)上で動作することができる。例示的な一実施形態では、Sは画像を表し、Mは対応する道路地図画像出力を表す。関数M(i,j)は、画像S内の位置(i,j)が道路ピクセルに対応する場合は常に1と定義され、そうでない場合は0と定義される。車両経路検出モジュール105は、ピクセル属性が急激に変化する画像内の点を識別することができる。ピクセル属性が急激に変化する点は、エッジと呼ばれる曲線セグメントの集合に編成することができる。車両経路検出モジュール105は、エッジの対を識別するためのエッジ分析プロセスの3つのステップ、すなわち、フィルタリング、強調(enhancement)、および検出を実行することができる。フィルタリングステップは、ごま塩ノイズ、インパルスノイズおよび画像中のガウスノイズなどのノイズを低減する。強調は、ピクセル属性値に大きな変化がある位置(i,j)のピクセルを強調する。一例では、車両経路検出モジュール105は、様々なピクセル位置(i,j)における画像の勾配の大きさを計算することによって強調を行う。この検出は、エッジピクセルを検出するための閾値より高い勾配値を有するピクセル位置(i,j)を探索する。車両経路検出モジュール105は、各エッジ上に位置するピクセルの位置に基づいて、車両経路に対応するエッジ対にエッジを結合する。一例では、2つのエッジの対応するピクセル位置の間の平均差が第1のエッジと任意の他のエッジとの対応するピクセル位置の間の平均差未満である場合、ピクセルの第1のエッジは車両経路内のピクセルの第2のエッジと対にされる。受信された各画像は同じ地理的領域であるため、車両経路検出モジュール105は、1つの画像のみについてエッジ分析を行い、識別された車両経路を残りの画像に重ね合わせる。
別の実施形態では、図2に示す車両経路検出モジュール105は、画像を分析して、移動車両が予想される車両経路の関心領域を含む確率的なヒートマップまたはブロック画像を作成することができる。車両経路検出モジュール105は、幾何情報(点、線、およびポリゴン)を含む他のマッピングソースを組み込むようにさらに構成されてもよい。車両経路検出モジュール105は、幾何情報を用いて、確率的ヒートマップを直接生成するか、または線発見アルゴリズム、ランダムフォレストアルゴリズム、サポートベクトルマシン(SVM)、ニューラルネットワーク、畳み込みニューラルネットワーク、画像処理演算(CNN)などの他の画像処理動作を併せて確率的ヒートマップを生成することができる。
例示的な一実施形態では、図2に示すピクセルブロブ識別モジュール103は、ピクセルクラスタリングを使用して隣接ピクセルのブロブを識別することができる。識別されたブロブ内では、隣接するピクセルは、ピクセル属性に基づいて互いに一致する。一例では、グレースケール画像の場合、ピクセル属性は、ピクセルの輝度を表す単一の数値である。この例では、ピクセル属性は、0〜255の可能な値の範囲を与える8ビット整数として記憶されたバイトである。0は黒を表し、255は白を表す。0と255の間の値は、グレーの異なる陰影(shade)を構成する。カラー画像の別の例では、赤、緑および青の成分がピクセルごとに個別に指定される。この例では、ピクセル属性は3つの数値のベクトルである。
図2に示すピクセルブロブ識別モジュール103は、ピクセルクラスタリングによって外部システムインターフェース201を介して受信された画像記憶部102からの画像内のピクセルブロブを識別して、例えば輝度または色などのピクセル属性に基づいて互いに一致する隣接ピクセルを識別することができる。一例では、ピクセルブロブ識別モジュール103は、画像の各ピクセルをピクセルの属性を有する領域として初期化することによって開始する。ピクセルブロブ識別モジュール103は、最も類似した属性値を有する2つの隣接する領域を識別する。これらの2つの領域は、2つの領域のすべてのピクセルを含み、2つの領域の属性値の平均としての属性値を有する新しい領域を形成するためにマージされる。ピクセルブロブ識別モジュール103は、同様の領域がなくなるまでこの処理を繰り返す。
別の例示的な実施形態では、空中撮像装置110内の各撮像センサが異なるスペクトル帯域に対応し、図3を参照して以下に詳細に例示及び記載されるように、ブロブは、赤色、青色および緑色スペクトル帯域の異なる位置に現れることができる。この実施形態では、図2に示すピクセルブロブ識別モジュール103は、ピクセルクラスタリングを使用して(ピクセル属性に基づいて互いに一致する)ピクセル位置を識別する。1つの帯域に対応する画像の属性値は、他の帯域と大きく異なる。一例では、G(i,j)>2×R(i,j)である場合、緑色帯域画像内の位置(i,j)のピクセルは、ブロブの一部として識別される。ここで、G(i,j)は、緑色帯域画像における位置(i,j)におけるピクセルの属性値であり、R(i,j)は、赤色帯域画像における位置(i,j)におけるピクセルの属性値である。この実施形態では、ピクセルブロブ識別モジュール103は、異なる数の帯域から構成される画像を処理するように構成することもできる。ここで、個々の帯域に対応する画像は、単一のマルチスペクトル画像に結合されている。個々のピクセル値は、画像の異なる帯域にわたって同じ位置について比較及び分析される。
別の例示的な実施形態では、図2に示すピクセルブロブ識別モジュール103は、ピクセルクラスタリングを使用してピクセルの領域またはウィンドウを検査して、ピクセル属性に基づいて互いに一致する隣接ピクセルのブロブを検出することができる。この実施形態では、ピクセルブロブ識別モジュール103は、画像記憶部102から画像を受け取り、分析する候補領域を見つけ出し、その領域を分析してブロブを含む領域を決定する。一例では、矩形の3×3ピクセル領域が候補領域を徹底的に識別するために画像を横切って連続的に移動するスライディングウィンドウアプローチが使用される。この例では、ブロブは、1つの帯域に対応する領域内の(ピクセル属性に基づいて互いに一致する)ピクセルの平均属性値が他の帯域と大きく異なる場合に検出される。別の実施形態では、候補領域が選択された後、ピクセルブロブ識別モジュール103は、周囲の「車両経路」領域と比較したときに(ピクセル属性に基づいて互いに一致する)「明るい」領域を識別する。
図2に示すピクセルブロブ識別モジュール103の他の実施形態は、以下のうちの1つまたは組み合わせを使用することができる:(a)選択的探索(Selective Search)などの、ヒューリスティックを使用して候補ウィンドウ領域の最良の集合を決定する領域提案アルゴリズム;(b)ハリスコーナー(Harris Corner)またはキャニー(Canny)エッジなどの、候補領域として使用する画像のエッジまたはコーナーを見つけ出すエッジ/コーナー検出方法;(c)エッジ強度情報を抽出する画像勾配;(d)特定のブロブ形状を識別する配向フィルタ(oriented filters);(e)移動車両のブロブを抽出するために局所的または全体的な閾値を用いる閾値処理方法;(f)スケール不変特徴変換(Scale-Invariant Feature Transform:SIFT)、Speeded Up Robust Features(SURF)、Features from Accelerated Segment Test(FAST)、Binary Robust Independent Elementary Features(BRIEF)、Fast Retina Keypoint(FREAK)、及びHistogram of Oriented Gradients(HOG)などの、所与の画像パッチで方向およびエッジ記述の特徴を計算する画像パッチ記述子。識別されたピクセルブロブを含む例示的な低解像度の空中画像は、図9に例示及び記載される。
再び図2を参照すると、特徴抽出モジュール104は、受信画像から、車両経路検出モジュール105によって識別された車両経路に関するブロブ及び他のブロブの相対位置を記述する特徴ベクトルを抽出することができる。特徴抽出モジュール104は、画像の冗長性、例えば反復ピクセル値を低減して、画像を低減された特徴の組(特徴ベクトル)に変換する。特徴ベクトルは、完全な初期画像の代わりにこの低減された表現を使用することによって、移動車両が機械学習モデル106によって複数のブロブとして識別されるように、画像からの関連情報を含む。特徴ベクトルは、車両経路に対応する一対のエッジに対するブロブの相対位置を記述する少なくとも1つの特徴を含むことができる。特徴抽出モジュールによって抽出された例示的な特徴は、図4及び図5に例示及び記載される。一実施形態では、以下の次元縮小法が特徴抽出モジュール104によって用いられる:独立成分分析、Isomap、カーネルPCA、潜在的意味分析、部分最小二乗法、主成分分析、多因子次元縮退(multifactor dimensionality reduction)、非線形次元縮退、多線形主成分分析、マルチライン部分空間学習、半定量的埋め込み(semidefinite embedding)、オートエンコーダー、ディープフィーチャ合成。
図2に示される特徴記憶部202は、特徴抽出モジュール104による受信画像から抽出された特徴を記憶する。移動車両分析システム101は、機械学習モデル106をトレーニングするため、および複数のブロブと移動車両とを関連付けるために、記憶された特徴を検索する。特徴記憶部202に記憶された特徴の詳細は、図4及び図5に示されている。
移動車両分析システム101は、特徴記憶部202からのトレーニングセットおよびデータを使用して、機械学習モデル106をトレーニングすることができる。一実施形態では、機械学習モデル106は、移動車両に対応するラベル付きブロブ又は車両経路に対応するラベル付きエッジを含むトレーニングセットを受信する。図2に示す機械学習トレーニングエンジン203は、トレーニングセットを用いて機械学習モデル106をトレーニングし、2つ以上のブロブのスコアを決定する。スコアは、ブロブが特徴ベクトルに基づいて移動車両に対応する可能性を示す。トレーニングセットは、図5に例示されている。機械学習トレーニングエンジン203が後に続くプロセスは、図4に例示されている。移動車両分析システム101は、スコアが閾値を超えるかどうかに基づいてブロブを選択し、ブロブを移動車両に関連付ける。
代替の実施形態では、(畳み込みニューラルネットワークの形態で)図2に示す機械学習モデル106は、特徴抽出、エッジ分析またはブロブ識別の必要なしに、画像から直接出力を生成することができる。CNNは、そのニューロン間の接続パターンが視覚野の構成に影響されるフィードフォワード人工ニューラルネットワークの一種である。個々の皮質ニューロンは、受容野として知られる制限された空間領域の刺激に応答する。異なるニューロンの受容野は、視野をタイル状にするように部分的に重なり合う。その受容野内の刺激に対する個々のニューロンの応答は、畳み込み演算によって数学的に近似することができる。CNNは、生物学的プロセスに基づいており、最小量の前処理を使用するように設計された多層パーセプトロンの変形である。CNNの利点は、特徴抽出の回避と畳み込み階層での共有重みづけの使用とを含む。これは、同じフィルタ(重みづけバンク)が階層の各ピクセルに使用されることを意味する。この両者は、メモリ占有量を削減し、パフォーマンスを向上する。(CNNの形態で)機械学習モデル106の出力は、ブロブを含むことができ、各ブロブは、画像の別個の画像内の1つまたは複数の隣接するピクセルを含み、隣接するピクセルはピクセル属性に基づいて互いに一致する。出力は、ブロブが移動車両に対応する可能性を示すスコアを含むことができる。出力は、ブロブに対応する1つまたは複数のピクセル位置を含むことができる。出力は、車両経路に対応するピクセル位置を含むことができる。出力は、各ブロブ内のピクセル数を含むことができる。出力は、ブロブと移動車両との間の関連を含むことができる。
図2に示される移動車両記憶部204は、機械学習モデル106から受信した、移動車両を表す情報を記憶することができる。移動車両記憶部204は、1つまたは複数のリムーバブルまたは非リムーバブルメモリカード、テープカセット、ジップカセット、およびコンピュータハードドライブに記憶されたデータベース、テーブル、またはファイルとして編成されてもよい。一実施形態では、移動車両記憶部204は、各々が識別された移動車両の1つまたは複数の属性を記述する複数のデータフィールドを記憶する。一例では、移動車両記憶部204は、受信された画像において識別された移動車両の数を記憶し、単一の車両については、取り込み時間、地理的領域座標、各ブロブの直径、車両の速度および方向などを記憶する。
図2に示される交通分析モジュール107は、移動車両記憶部204からの情報を受信し、それを車両ごと、車両ごとの経路ごと、または地理的領域ごとに分析する。一つの例示的な実施形態では、交通分析モジュール107は、画像記憶部202から画像のピクセル解像度に対応する情報を受信する。低解像度画像のピクセル解像度は、一般に3〜5メートル/ピクセルのGSD単位で測定される。この実施形態では、交通分析モジュール107は、移動車両記憶部204から、車両に対応する各ブロブのピクセル数に対応する情報も受信する。一例では、rはメートル/ピクセル単位のピクセル解像度を表し、d(k)は車両vに対応するブロブkの直径を表し、nは車両vに対応するブロブの数を表す。交通量分析部107は、車両vの大きさを(Σkd(k))/n×rとして決定する。ここで、(Σkd(k))/nは、車両vに対応する全てのブロブのピクセル内の平均直径である。
他の例示的な実施形態では、図2に示される交通分析モジュール107は、画像内の車両経路の長さを決定する。この例示的な実施形態では、交通分析モジュール107は、画像記憶部202から画像のピクセル解像度に対応する情報を受信する。交通分析モジュール107は、経路内の全てのピクセルにラベルを割り当て、経路のエッジに沿ってラベル付きエッジを計数することによって、車両経路の長さlに関連付けられたピクセルの数hを決定することができる。交通分析モジュール107は、ピクセル解像度と車両経路の長さに関連付けられたピクセルの数hとに基づいて、車両経路の長さlを決定することができる。一例では、rはメートル/ピクセル単位のピクセル解像度を表し、h1は車両経路の第1のエッジに関連付けられたピクセルの数を表し、h2は車両経路の第2のエッジに関連付けられたピクセルの数を表す。交通分析モジュール107は、車両経路の長さlをl=(h1+h2)/2×rと決定する。ここで、(h1+h2)/2は、車両経路の長さに関連付けられたピクセルの平均数である。
別の例示的な実施形態では、図2に示される交通分析モジュール107は、移動車両の数と車両経路の長さとに基づいて、車両経路上の移動車両の密度を決定する。一例では、cは移動車両の数を表し、lは車両経路の長さを表す。交通分析モジュール107は、移動車両の密度をc/lと決定する。
別の例示的な実施形態では、図2に示される交通分析モジュール107は、図11を参照して以下に詳細に例示及び記載されるように、対応するブロブの各ブロブの重心間の差を決定することによって、移動車両に関連付けられた対応するブロブの方向ベクトルを決定する。交通分析モジュール107は、ブロブ内の全てのピクセル位置の算術平均位置によって、ブロブの重心または幾何学中心を、Σij(i,j)/mとして決定する。ここで(i,j)は、ブロブ内のピクセルの位置を表し、mはブロブ内のピクセル数を表す。一例では、移動車両に対応する2つのブロブaおよびbがあり、各ブロブは1つの画像に対応する。この例では、(i,j)はブロブa内のピクセルの位置を表し、mはブロブa内のピクセル数を表す。さらに、(p、q)はブロブb内のピクセルの位置を表し、sはブロブb内のピクセル数を表す。交通分析モジュール107は、方向ベクトルをΣij(i,j)/m−Σpq(p,q)/sと決定する。このプロセスは図11に例示される。方向ベクトルは、移動車両の速度及び方向に対応する。
図2に示す交通分析モジュール107は、方向ベクトルの長さをr×(Σij(i,j)/m−Σpq(p,q)/s)と決定することができる。ここで、rはピクセル解像度と表す。他の例では、taはブロブaを含む画像の取り込み時間を表し、tbはブロブbを含む画像の取り込み時間を表す。この例では、交通分析モジュール107は、図12を参照して以下に詳細に例示及び記載されるように、方向ベクトルの長さを画像a及びbの時間差で割ることによって、移動車両の速度を(r×(Σij(i,j)/m−Σpq(p,q)/s))/(ta−tb)と決定する。他の例では、交通分析モジュール107は、移動車両の方向をtan-1(q−j/p−i)で決定する。ここで、(q−j/p−i)は、2つの重心のY座標の間の差と、2つの重心のX座標の間の差との割合に対応する。
他の例示的な実施形態では、図2に示す交通分析モジュール107は、2つ以上の移動車両の速度の合計を1つまたは複数の移動車両の数で割ったものとして、受信された画像において識別された移動車両の平均速度を決定することができる。交通分析モジュール107は、画像の取り込み時間、車両経路上の移動車両の数、移動車両のサイズ、平均速度、移動車両の密度、及び車両経路の長さを含む交通パターンを分析する。平均速度が閾値を下回るか、または移動車両の数または密度が閾値を超える場合、移動車両分析システム101は、外部システムインターフェース201を介してクライアント装置120または車両130に再経路指定情報を送信することができる。一例では、再経路指定情報は、Dijkstraのアルゴリズム、Bellman-Fordアルゴリズム、A*探索、Floyd-Warshallアルゴリズム、Johnsonのアルゴリズム、Viterbiアルゴリズムなどを用いて決定することができる。
図2に示す交通パターン記憶部206は、交通分析モジュール107から受信した交通パターンを記憶することができる。交通パターン記憶部206は、1つまたは複数のリムーバブルまたは非リムーバブルメモリカード、テープカセット、ジップカセット、およびコンピュータハードドライブに記憶されたデータベースまたはテーブルとして編成されてもよい。一実施形態では、交通パターン記憶部206は、それぞれが車両経路の1つまたは複数の属性を記述する複数のデータフィールドを記憶する。一例では、交通パターン記憶部206は、単一の車両経路について、画像の取り込み時間、地理的領域座標、車両経路上の1つまたは複数の移動車両の数、車両経路上の1つまたは複数の移動車両の各々のサイズ、平均速度、移動車両の密度、車両経路の長さなどを記憶する。
(低解像度の空中画像)
ここで、図3を参照すると、空中撮像装置110内の3つの赤色、青色および緑色撮像センサから組み合わされた例示的な低解像度空中画像300が示されており、各センサは異なる帯域の別個の画像を取り込む。組み合わされた画像300は、青いブロブ301、緑のブロブ301、赤いブロブ303、および車両経路304を含む。空中撮像装置110内の3つの撮像センサは、小さな時間差で別個の画像を取り込む。画像内の大部分の物体(例えば、車両経路304、樹木、住宅など)は動いていないため、取り込まれた画像は画像300に組み合わされたときに同じように見える。しかし、移動車両は、異なる画像が結合されたときの取り込み時間の差のために完全に並んでいない。例えば、移動車両は、赤、青、緑の帯域の異なる位置にブロブとして現れることがある。これは、3つの画像が単一の画像300に結合されたときに明らかである。画像300において、図3に青色ピクセルの集合として示されるブロブ301は、青色スペクトル撮像センサによって取り込まれる。画像300において、図3に緑色ピクセルの集合として示されるブロブ302は、緑色スペクトル撮像センサによって取り込まれる。画像300において、図3に赤色ピクセルの集合として示されるブロブ303は、赤色スペクトル撮像センサによって取り込まれる。青色ブロブ301及び緑色ブロブ302は、これらの2つのスペクトル帯域間の時間遅延が、青色スペクトル帯域と赤色スペクトル帯域との間の時間遅延または緑色スペクトル帯域と赤色スペクトル帯域との間の時間遅延と比較して小さいため、画像300において互いに接近している。
車両経路ピクセルは、図2を参照して詳細に記載するように識別することができる。代替の実施形態では、空中画像形成装置110は、赤外線帯域およびパンクロマティック帯域から画像を取り込むことができる。空中画像形成装置110は、別個の時間に単一の帯域から画像を取り込むようにさらに構成することができる。得られた画像は、外部システムインターフェース201を介して車両分析システム101に送信される。
(機械学習トレーニングプロセスの例)
図4は、移動車両分析システム101内の機械学習モデル106のための機械学習トレーニングエンジン203の例示的なトレーニングプロセスを示す。プロセスは、トレーニング画像401、ピクセルブロブ識別モジュール103、画像記憶部102、車両経路検出モジュール105、特徴抽出モジュール104、特徴ベクトル410、機械学習モデル106、交通データベース109、およびトレーニングラベル402を用いることができる。オプションの要素は、図4の破線を用いて示される。一実施形態では、図4に示すピクセルブロブ識別モジュール103は、ピクセルクラスタリングを実行して、トレーニング画像401の各画像について、隣接ピクセルを含むブロブを識別することによってブロブを識別する。隣接ピクセルはピクセル属性に基づいて互いに一致する。ピクセルブロブ識別モジュール103は、識別されたブロブを含むトレーニング画像401を特徴抽出モジュール104に送信することができる。
図4に示す画像記憶部102はまた、トレーニング画像401を受信して、それらを車両経路検出モジュール105に伝送する。車両経路検出モジュール105は、図2において上記で詳細に例示及び記載したように、トレーニング画像401内のエッジ分析を実行して一対のエッジを識別する。各エッジの対は、車両経路に対応する。図4に示す特徴抽出モジュール104は、トレーニング画像401と車両経路から特徴ベクトル410を抽出する。トレーニング画像401に対応する特徴は、トレーニングラベル402に基づいて機械学習モデル106をトレーニングするために使用される。トレーニングラベル402の詳細は、図5に例示及び記載される。
図4に示される特徴ベクトル410は、画像内のブロブの相対位置を表す少なくとも1つの特徴を有することができる。ピクセルブロブ識別モジュール103がブロブを識別する例示的な一実施形態では、特徴410aは、ブロブが車両経路に対応するエッジの対の間に位置するかどうかを表すことができる。この特徴は、ブロブが車両経路上の移動車両を表すことができる機械学習モデル106を教示する。図4及び他の図は、同様の要素を識別するために同じ参照番号を使用する。「410a」のような参照番号の後の文字は、その特定の参照番号を有する要素を本文が特に参照することを示す。「410」などの後続する文字を含まない本文中の参照番号は、その参照番号を有する図の要素のいずれかまたはすべてを指し、例えば、本文中の「410」は、図中の参照番号「410a」および/又は「410b」に対応する。
図4に示す特徴410bは、2つのブロブが互いに交差するかどうかを表すことができる。この特徴は、車両が交差することができないため、2つのブロブが移動車両を表さない可能性があることを機械学習モデル106に教示する。特徴410cは、ブロブのグループの各ブロブの重心間の差が、トレーニングラベル402内の車両経路のラベル付けされた方向と一致するかどうかを表すことができる。この特徴は、ブロブが正しい方向に動いているため、ブロブが移動車両を表すことを機械学習モデル106に教示する。特徴410dは、ブロブが複数の画像内の同じピクセル位置に位置するかどうかを表すことができる。この特徴は、ブロブが異なる時間に取り込まれた画像の間の位置を動かさなかったため、ブロブが移動車両を表さない可能性があることを機械学習モデル106に教示する。
代替の実施形態では、(CNNの形態で)図4に示される機械学習モデル106は、特徴抽出、エッジ分析またはブロブ識別の必要なしに、画像から直接出力を生成することができる。(CNNの形態で)図4に示される機械学習モデル106は、図2において上記で詳細に例示及び記載したように、画像内のピクセルブロブを識別することができる。そのような実施形態では、特徴410eは、ピクセル位置とピクセル属性との間の関連を表すことができる。例えば、特徴は、画像の右に位置するピクセルに対するピクセルの輝度値を表すことができる。この特徴は、ピクセルが周囲のピクセルよりも明るいため、ピクセルが移動車両を表すブロブの一部である可能性があることを機械学習モデル106に教示する。他の例では、特徴は、画像内の同じ行に位置するピクセルの平均輝度に対するピクセルの輝度を表すことができる。この特徴は、ピクセルが周囲のピクセルよりも明るいため、ピクセルが移動車両を表すブロブの一部である可能性があることを機械学習モデル106に教示する。
機械学習トレーニングエンジン203は、図4に示す機械学習モデル106をトレーニングすることができる。一実施形態では、機械学習モデル106は、画像内の各ピクセル位置のスコアを決定するように構成される。スコアは、ピクセル位置がブロブに対応する可能性を示す。他の実施形態では、機械学習モデル106は、ブロブが移動車両に対応する可能性を示すブロブのスコアを決定するように構成される。代替の実施形態では、機械学習モデル106は、ブロブを含む出力と、ブロブが移動車両に対応する可能性を示すスコアを生成するように構成される。一実施形態では、機械学習モデル106は、ブロブに対応する1つまたは複数のピクセル位置と、そのピクセル位置がブロブに対応する可能性を示すスコアとを含む出力を生成するように構成される。一実施形態では、機械学習モデル106は、車両経路に対応するピクセル位置と、ピクセル位置が車両経路に対応する可能性を示すスコアとを含む出力を生成するように構成される。一実施形態では、機械学習モデル106は、識別された各ブロブ内の多数のピクセルを含む出力を生成するように構成される。一実施形態では、機械学習モデル106は、識別されたブロブと移動車両との間の関連を含む出力を生成するように構成される。
図4に示す機械学習モデルトレーニングエンジン203は、機械学習技術を適用して、機械学習モデル106をトレーニングする。機械学習モデル106は、例えば、受信画像の特徴に適用されたときに特徴が特定のブールプロパティまたはスカラープロパティの推定値を有する確率などの、存在する移動車両があるかどうかの推定を出力する等、特徴に適用されたときに特徴が関連付けられた1つまたは複数のプロパティを有するかどうかの指標を出力する。機械学習モデル106のトレーニングの一部として、機械学習トレーニングエンジン203は、質問内のプロパティを有すると判定された特徴の正のトレーニングセットを識別することによって、特徴のトレーニングセット410およびトレーニングラベル402を形成し、いくつかの実施形態では、図5を参照して以下に詳細に記載されるように、質問内のプロパティを欠いている特徴の負のトレーニングセットを形成する。例えば、各トレーニングセットは、移動車両に対応するラベル付きブロブを含むことができる。機械学習トレーニングエンジン203は、(例えば、線形判別分析(LDA)、主成分分析(PCA)などの)次元縮退を適用して、特徴ベクトル410内のデータ量をより小さく、データのより代表的な集合へと低減することができる。
機械学習トレーニングエンジン203は、図4に示す機械学習モデル106をトレーニングするために教師あり機械学習を使用することができ、正のトレーニングセットおよび負のトレーニングセットの特徴ベクトル410が入力として働く。他の実施形態では、線形サポートベクトルマシン(線形SVM)、(例えばAdaBoostなどの)他のアルゴリズムのためのブースティング、ロジスティック回帰、ナイーブベイズ、メモリベース学習、ランダムフォレスト、バグツリー、デシジョンツリー、ブーストされたツリー、ブーストされたスタンプ、ニューラルネットワーク、CNNなどの異なる機械学習技術を使用することができる。機械学習モデル106は、受信した画像のセットから抽出された特徴ベクトル410に適用されるとき、ブロブがブーリアン型イエス/ノー推定または確率を表すスカラー値のような質問内のプロパティを有するかどうかの指標を出力する。
いくつかの例示的な実施形態では、バリデーションセットは、質問内のプロパティを有するまたは欠如していると既に決定されている、トレーニングセット内のこれら以外の追加の特徴から形成される。機械学習トレーニングエンジン203は、機械学習モデル106の正解率(accuracy)を定めるために、図4に示すトレーニングされた機械学習モデル106をバリデーションセットの特徴に適用する。正解率測定において適用される一般的なメトリックは、(適合率)=TP/(TP+FP)、及び(再現率)=TP/(TP+FN)を含む。ここで、適合率(Precision)は機械学習モデル106が予測した総数(TP+FPすなわち偽陽性)のうち正確に予測した数(TPすなわち真陽性)を示し、再現率(Recall)は質問内のプロパティを有していた特徴(TP+FNすなわち偽陰性)の総数のうち機械学習モデル106が正しく予測した数(TP)を示す。Fスコア(Fスコア=2×PR/(P+R))は、適合率及び再現率を単一の尺度に統一する。一実施形態では、機械学習トレーニングエンジン203は、機械学習モデル106が十分に正確であることを示す適合率測定、又は行われた多数のトレーニングラウンドなどの停止条件の発生まで、機械学習モデル106を反復的に再トレーニングする。
代替の実施形態では、機械学習モデル106は、明白な特徴抽出なしにトレーニングセットから直接どのブロブが移動車両に対応するのかなどの有用な表現(特徴)を学習するCNNであってもよい。例えば、機械学習モデル106は、生ピクセルをトレーニング画像401から内部ラベルに直接取り込むエンドツーエンド認識システム(非線形マップ)であってもよい。
一実施形態では、機械学習モデル106は、データが、順番に利用可能になり、各ステップで将来のデータに関する機械学習モデル106の最良予測子を更新するために用いられる、交通データベース109からの交通パターンに関する情報を使用することができる。一例では、交通データベース109は、機械学習モデル106を時間に応じて交通データベース109内の新しいパターンに動的に適応させるために使用されてもよい。この実施形態では、機械学習トレーニングエンジン203は、統計的学習モデル(例えば、確率的勾配降下法、パーセプトロン)または敵対的モデルを使用することができる。
(機械学習モデルの例示的なトレーニングセット)
図5は、移動車両分析システム101における機械学習モデル106に関する例示的なトレーニングセット500および510を示す。各トレーニングセットは、図4に例示及び記載されたトレーニング画像401およびトレーニングラベル402を含む。図5に示す正のトレーニングセット500は、移動車両の存在を有すると決定された特徴410を含む。正のトレーニングセット500は、異なる時間に撮影された画像からの合成画像である。正のトレーニングセット500は、2つのラベルされたピクセルブロブ501および502を含む。一例では、ピクセルブロブ501は緑色スペクトル帯域に対応し、ピクセルブロブ502は赤色スペクトル帯域に対応する。正のトレーニングセット500は、2つのピクセルブロブ501および502が移動車両に対応することを機械学習モデル106にトレーニングするために、機械学習モデルトレーニングエンジン203によって使用される移動車両トレーニングラベル503をさらに含む。正のトレーニングセット500は、機械学習トレーニングエンジン203によって使用される車両経路エッジトレーニングラベル504をさらに含み、エッジが車両経路に対応することを機械学習モデル106にトレーニングする。
図5に示す負のトレーニングセット510は、移動車両のプレゼンスを欠くと決定された特徴410を含む。負のトレーニングセット510は、別個の時間に撮影された画像からの合成画像でもある。負のトレーニングセット510は、3つの未標識ピクセルブロブ511、512、513、および2つの未標識エッジ514、515を含む。一例では、ピクセルブロブ511は緑色スペクトル帯域に対応し、ピクセルブロブ512は赤色スペクトル帯域に対応している。ピクセルブロブ513は、青色スペクトル帯域に対応することができる。ピクセルブロブ511は、2つのエッジ514及び515の間にはなく、移動車両に対応しない背景領域516に位置する。ピクセルブロブ511は、移動車両としてラベル付けされていない。
ピクセルブロブ512は、ラベルされていない1対のエッジ514及び515の間に位置する。さらに、ピクセルブロブ512は赤色スペクトル帯域に対応するが、ラベルされていない1対のエッジ514及び515の間に存在する別のスペクトル帯域から、対応するピクセルブロブは存在しない。したがって、ピクセルブロブ512は、移動車両に対応しない。ピクセルブロブ512は、移動車両としてラベル付けされていない。ピクセルブロブ513は、2つのエッジ514及び515の間ではない背景領域517に位置し、移動車両に対応しない。ピクセルブロブ513は、移動車両としてラベル付けされていない。負のトレーニングセット510は、3つのピクセルブロブ511、512および513が移動車両に対応していないことを機械学習モデル106にトレーニングするために、機械学習トレーニングエンジン203によって使用される。負のトレーニングセット510は、機械学習トレーニングエンジン203によって、エッジ514および515が車両経路に対応していないことを機械学習モデル106にトレーニングするためにさらに使用される。
一実施形態では、トレーニングセットは、高スコアを表す複数のブロブと、低スコアを表すブロブの複数を手動でラベルすることによって作成される。別の実施形態では、機械学習トレーニングエンジン203は、画像記憶部102から得られた記憶画像からトレーニングセットを抽出する。一例では、記憶画像が車両経路に対応する一対の辺の間に位置するブロブを含む場合、機械学習トレーニングエンジン203は、ブロブを正のトレーニングセットとして使用する。記憶画像が車両経路に対応する一対のエッジの間に位置しないブロブを含む場合、機械学習トレーニングエンジン203は、ブロブを負のトレーニングセットとして使用する。
(例示的なプロセス)
図6は、移動車両分析システム101の例示的なプロセスを例示する。いくつかの実施形態では、本プロセスは、図6に関連して記載したものとは異なるステップおよび/または追加のステップを有することができる。例えば、オプションのステップは、図6に点線で示されている。本プロセスのステップは、図6に関連して記載した順序と異なる順序で実行されてもよい。いくつかのステップは、並行して実行することができる。代替的に、いくつかのステップは並列に実行されてもよく、いくつかのステップは逐次実行されてもよい。代替的に、いくつかのステップは、前のステップの実行の前にステップの実行が開始されるように、パイプライン方式で実行されてもよい。
移動車両分析システム101は、空中撮像装置110から別個の時間に撮影された地理的領域の600枚の画像を受信し、図2を参照して上記で詳細に例示及び記載したように画像記憶部102に画像を記憶する。空中撮像装置110から受信された地理的領域の例示的な画像は、図8を参照して以下に詳細に例示及び記載される。
1つの例示的な実施形態では、ピクセルブロブ識別モジュール103は、図2に記載された方法の1つに従ってピクセルクラスタリングを実行して、受信画像内の604個のブロブを識別することができる。各ブロブは、ピクセル属性に基づいて互いに一致する隣接ピクセルを含む。特徴抽出モジュール104は、図4を参照して上記で詳細に例示及び記載したように、画像から特徴ベクトル410を抽出する(608)。特徴ベクトル410は、少なくともブロブの相対位置を記述する特徴を含む。
移動車両分析システム101は、特徴ベクトル410を入力として機械学習モデル106に送信することができる。特徴ベクトル410は、例えば、銅線、光ファイバ、無線通信チャネル、記憶媒体およびコンピュータバスなどのポイントツーポイントまたはポイントツーマルチポイント通信チャネルにわたってデジタルビットストリームまたはデジタル化アナログ信号として物理的に送信されてもよい。特徴ベクトル410は、電圧、電波、マイクロ波、または赤外線信号などの電磁信号として表すことができる。
一実施形態では、機械学習モデル106は、特徴ベクトル410に基づいて、ブロブ(別個の画像に対応する各ブロブ)と、ブロブが移動車両に対応する可能性を示すスコアと、を含む出力を生成する(612)。機械学習モデル106がCNNである別の実施形態では、機械学習モデル106は、画像に基づいて、ブロブと、ブロブが移動車両に対応する可能性を示すスコアとを含む出力を生成する(612)。移動車両分析システム101は、生成されたスコアを閾値に超えたことに基づいて、ブロブと移動車両との関連付けを記憶する(616)。ブロブと移動車両との間の関連付けは、スタティックプログラム記憶装置に記憶され、移動車両分析システム101によってプリフェッチされ、またはアプリケーション固有のプラットフォーム上のハードウェア内に記憶されたデータベース、ルックアップテーブル、またはデータポインタのリストなどとして記憶されてもよい。移動車両分析システム101は、画像内の移動車両の数を決定する(620)。各移動車両は、対応するブロブに関連付けられる。
(プロセスの応用例)
図7は、低解像度空中画像を処理する移動車両分析システム101のための、図6を参照して上記で詳細に例示及び記載されるプロセスの応用例を例示する。本プロセスは、画像701と、オプションのピクセルブロブ識別モジュール103と、画像記憶部102と、車両経路検出モジュール105と、特徴ベクトル410と、機械学習モデル106と、移動車両記憶部204と、交通分析モジュール107と、交通データベース109と、交通パターン記憶部205とを含む。オプションの要素は、図7に破線で示されている。移動車両分析システム101は、外部システムインターフェース201を介して地理的領域の画像701を受信する。各画像701は、別個の時間に取り込まれる。画像701は、1つまたは複数のスペクトル帯域に対応することができる。図7に示す受信画像701は、図2を参照して上記で詳細に説明したように、画像記憶部102に記憶される。
一実施形態では、図7に示すピクセルブロブ識別モジュール103は、図2に記載したようなピクセルクラスタリングを実行してピクセルブロブを識別する。各ブロブは、隣接するピクセルを含み、隣接するピクセルは、色または輝度のようなピクセル属性に基づいて互いに一致する。車両経路検出モジュール105は、説明されているように、車両経路に対応するエッジ対を識別するために、画像内でエッジ分析を実行する。移動車両分析システム101は、機械学習モデル106によって使用される画像から特徴ベクトル410を抽出する。図4に記載される一実施形態では、この特徴は、車両経路及び他のブロブに対するブロブの相対位置を記述する。図4に記載される他の実施形態では、特徴ベクトル410は、画像内の同じ行に位置する他のピクセルの平均輝度に対するピクセルの輝度を記述する。
移動車両分析システム101は、抽出した特徴ベクトル410を機械学習モデルに送信する。一実施形態では、機械学習モデルは、図7に示す機械学習モデル106である。1つの例示的な実施形態では、機械学習モデル106は、ピクセルブロブが移動車両に対応する可能性を示すスコアを生成することができる。機械学習モデル106がCNNである別の実施形態では、スコアは、画像701のピクセルが移動車両を表すブロブに対応する可能性を示す。この実施形態では、機械学習モデル106は、画像701内のピクセルが画像701内のピクセルの位置および輝度に基づいて移動車両を表すブロブに対応する条件付き確率を最適化するように構成される。一例では、P(blob(e))は、輝度属性eを有するピクセルがブロブに対応する確率を表す。この例では、P(vehicle(i,j))は、画像701内のピクセル位置(i,j)が移動車両に対応する確率を表す。機械学習モデル106は、ピクセル704が輝度属性eを有すると仮定すると、画像701内の全ピクセル位置(i,j)にわたる条件付き確率の合計と、画像701内のピクセル位置(i,j)が移動車両に対応するピクセル輝度eの全ての値とを表す和ΣiΣjΣeP(vehicle(i,j)| blob(e))を最適化するように構成される。
図7に示す交通分析モジュール107は、図2を参照して上記で詳細に説明したように、それぞれが対応するブロブに関連付けられた、画像内の1つまたは複数の移動車両の数を決定し、識別された移動車両に関する情報を移動車両記憶部204に記憶する。交通分析モジュール107は、識別された移動車両の位置を比較して正確な経路指定、到着予定時刻などを作成するために、交差点数(信号交差点または信号なし交差点を通って移動するときの交通量、左折、右折、Uターンおよびスルー移動の回数)、迂回数(迂回路のターン移動量、迂回レグごとの入場、巡回及び退出フロー量など)、道路量データ(車両量、車両種別、車線別分類及び量など)、車両間隔データ(特定の基準点における主要な交通の流れにおける車両間に存在する数秒中の間隔の数)などの情報を、交通データベース109から使用することができる。
(地理的領域の例示的な画像)
図8は、図1を参照して上記で詳細に説明したように、空中撮像装置110内の複数の撮像センサから組み合わされた地理的領域の例示的な低解像度空中画像800である。画像800は、図2を参照して上記で詳細に説明したように、移動車両分析システム101によって受信される。空中撮像装置110内の複数の撮像センサは、図1を参照して上記で詳細に説明したように、異なるスペクトル帯域に対応し、異なる時間に画像を取り込む。車両経路検出モジュール105または機械学習モデル106(CNNの形態)によって検出された車両経路801、802および803は、画像800内で可視である。車両経路801上のブロブ804は、機械学習モデル106によって識別される移動車両に対応する。移動車両経路801上のブロブ805は、機械学習モデル106によって識別される別の移動車両に対応する。移動方向806は、対応するブロブ804及び805内の緑色から赤色ブロブへの方向に対応する。緑色のスペクトル帯域画像が赤色のスペクトル帯域画像の前に取り込まれるためである。
(ピクセル画像を含む例示的な画像)
図9は、図2を参照して上記で詳細に説明したように、複数の撮像センサから組み合わされ、移動車両分析システム101によって識別されるピクセルブロブおよび車両経路を含む例示的な低解像度空中画像900を例示する。画像900において、移動車両分析システム101は、車両経路に対応するエッジを含まない背景領域901および902を特定した。図9に示すピクセルブロブ910及び909は、図2を参照して上記で詳細に説明したように識別されている。図7を参照して上記で詳細に説明したように、ピクセルブロブ910および909は、エッジを含まない背景領域901および902に位置付けられ、移動車両に対応するものとして識別されない。
画像900において、移動車両分析システム101は、図2を参照して上記で詳細に説明したように、車両経路903に対応するエッジ904および905も識別する。エッジ904とエッジ905との間に位置するブロブのみが移動車両に対応することができる。図9に示すピクセルブロブ906、907及び908が識別された。ピクセルブロブ906、907および908は、異なる時間に撮影された画像に対応し、車両経路903に対応するエッジ904および905の間に位置する。したがって、ピクセルブロブ906、907および908は、図7を参照して上記で詳細に説明したプロセスの適用によって、移動車両に対応するものとして識別されることができる。
(交通分析の例示的な出力)
図10は、交通分析モジュール107の例示的な出力1000を示す。図10において例示される画像は、図7を参照して上記で詳細に説明したプロセスの適用によって識別された移動車両に対応する車両経路1001と2つのピクセルブロブ1002および1003とを含む。 交通分析モジュール107は、対応するブロブの各々の重心間の差を決定することによって、各移動車両に対応するブロブの方向ベクトルを決定する。図2を参照して上記で詳細に説明したように、図10に示す交通分析モジュール107の例示的な出力1000では、交通分析モジュール107は、小ブロブ1002の重心1004を、小ブロブ1002内のすべてのピクセル位置の算術平均位置Σij(i,j)/mとして決定した。ここで、(i,j)はブロブ1002内のピクセルの位置を表し、m、ブロブ1002内のピクセルの数を表す。
さらに、例示的な出力例1000において、交通分析モジュール107は、ブロブ1003の重心1005を、ブロブ1003内のすべてのピクセル位置の算術平均位置Σpq(p,q)/sとして決定した。ここで、(p,q)はブロブ1003内のピクセルのピクセル位置を表し、sはブロブ1003内のピクセル数を表す。例示的な出力1000では、交通分析モジュール107は、移動車両の方向ベクトル1006を、Σij(i,j)/m−Σpq(p,q)/sとして決定した。方向ベクトルは、移動車両の速度および方向に対応する。
(単一の撮像センサからの例示的な入力画像)
図11は、それぞれが異なる時間t1およびt2で単一の撮像センサから取り込まれる、低解像度空中画像1100および1110を例示する。ここで、t1はt2より時間的に早い。画像1100および1110は、移動車両分析システム101によって入力として受信される。一例では、時刻t1に取り込まれた画像1100は、緑色スペクトル帯域に対応する。この例では、時間t2で取り込まれた画像1110は、赤色スペクトル帯域に対応する。画像1100は、車両経路1101と、車両経路1101に対応する2つのエッジ1102および1103とを含む。画像1100は、緑色スペクトル帯域に対応する2つのピクセルブロブ1104および1105をさらに含む。両方のブロブ1104および1105は、車両経路1101に対応する一対のエッジ1102および1103の間に位置付けられる。ピクセルブロブ1104は、エッジ1103よりもエッジ1102の近くに位置付けられ、ブロブ1105は、エッジ1102よりもエッジ1103の近くに位置付けられる。
図11に示す画像1110は、車両経路1101と、車両経路1101に対応する2つのエッジ1102および1103も含む。画像1110は、赤色スペクトル帯域に対応する2つのピクセルブロブ1114および1115をさらに含む。両方のブロブ1114および1115は、車両経路1101に対応する一対のエッジ1102および1103の間に位置付けられる。ピクセルブロブ1114は、エッジ1103よりもエッジ1102の近くに位置付けられ、ブロブ1115は、エッジ1102よりもエッジ1103の近くに位置付けられる。画像1100は画像1110が取り込まれる時間t2よりも早い時刻t1に取り込まれるため、ブロブ1104および1105は、時間的に早い移動車両の位置を表す。画像1110は画像1100が取り込まれる時間t1よりも遅い時間t2に取り込まれるため、ブロブ1114および1115は、時間的に後の移動車両の位置を表す。
(機械学習モデルの例示的な出力)
図12Aは、図6のプロセスに従った、図11に示す受信画像1100および1110に関する機械学習モデル106の例示的な出力1200を示す。機械学習モデル106の出力1200は、図12Aに示す識別された車両経路1101を含む。機械学習モデル106の出力1200は、車両経路1101に対応するエッジ内に位置付けられた画像1100および1110からのブロブ1104および1114をさらに含む。ブロブ1104は緑色スペクトル帯域に対応し、ブロブ1114は赤色スペクトル帯域に対応するため、機械学習モデル106は、画像1100および1110からのブロブ1104および1114が、車両経路1101の上方のエッジのより近くを走行中の車両1204に対応することを識別した。
機械学習モデル106の出力1200は、図12Aに示す車両経路1101に対応する一対のエッジの間に位置付けられた画像1100および1110からのブロブ1105および1115をさらに含む。ブロブ1105は緑色スペクトル帯域に対応し、ブロブ1115は赤色スペクトル帯域に対応するため、機械学習モデル106は、画像1100および1110からのブロブ1105および1115が、車両経路1101の下方のエッジのより近くを走行中の第2の車両1205に対応することを識別した。
(交通分析の出力例)
図12Bは、図12Aからの2つの移動車両1204および1205に関する交通分析モジュール107の例示的な出力1210を示す。図12Bでは、図2を参照して上記で詳細に説明したように、交通分析モジュール107は、図12Aからの移動車両1204に関する方向ベクトル1214を計算した。移動車両1204は、時間t1で取り込まれた緑色スペクトル帯域に対応するブロブ1104によって、および時間t2で取り込まれた赤色スペクトル帯域に対応するブロブ1114によって、図12Aに示されている。ここで、t1はt2より時間的に早い。したがって、交通分析モジュール107は、図12Aからの移動車両1204の図12Bに示す方向ベクトル1214を、ブロブ1104からブロブ1114への方向に移動するものとして計算する。
図12Bでは、交通分析モジュール107は、図2を参照して上記で詳細に説明したように、図12Aからの移動車両1205の方向ベクトル1215をさらに計算した。移動車両1205は、時間t1で取り込まれた緑色スペクトル帯域に対応するブロブ1105と、時間t2で取り込まれた赤色スペクトル帯域に対応するブロブ1115とによって図12Aに示されている。ここで、t1はt2より時間的に早い。したがって、交通分析モジュール107は、図12Aからの移動車両1205の図12Bに示す方向ベクトル1215を、ブロブ1105からブロブ1115への方向に移動するものとして計算する。
(例示的な機械アーキテクチャ)
図13は、本明細書においてプロセスとして説明された命令を機械可読媒体から読み取り、それらを少なくとも1つのプロセッサ(またはコントローラ)において実行できる例示的な機械の構成要素を例示するブロック図である。具体的には、図13は、コンピュータシステム1300の例示的な形態の機械の概略図を示す。コンピュータシステム1300は、本明細書に記載された任意の1つまたは複数の方法(またはプロセス)を機械に実行させるための命令1324(たとえば、プログラムコードまたはソフトウェア)を実行するために使用されることができる。代替の実施形態では、機械は、スタンドアロン装置または他の機械に接続する(例えば、ネットワーク接続)接続装置として動作する。ネットワーク展開では、機械は、サーバ−クライアントネットワーク環境内のサーバマシンまたはクライアントマシンとして、またはピアツーピア(または分散型)ネットワーク環境のピアマシンとして動作することができる。
機械は、サーバコンピュータ、クライアントコンピュータ、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、スマートフォン、IoT(internet of things)機器、ネットワークルータ、スイッチ若しくはブリッジ、またはその機械がとるべき動作を指定する命令1324(シーケンシャルまたはその他)を実行できる任意の機械とすることができる。さらに、単一の機械だけが例示されているが、用語「機械」は、本明細書で論じられる方法のうちの1つまたは複数を実行するために命令1324を個別にまたは共同して実行する機械の集合を含むものとする。
例示的なコンピュータシステム1300は、1つまたは複数の処理ユニット(概してプロセッサ1302)を含む。プロセッサ1302は、例えば、中央処理装置(CPU)、グラフィック処理装置(GPU)、デジタル信号プロセッサ(DSP)、コントローラ、状態機械、1つまたは複数の特定用途向け集積回路(ASIC)、1つまたは複数の無線周波数集積回路(RFIC)、またはこれらの任意の組み合わせである。コンピュータシステム1300はまた、メインメモリ1304を含む。コンピュータシステムは、記憶部1316を含むことができる。プロセッサ1302、メモリ1304および記憶部1316は、バス1308を介して通信する。
さらに、コンピュータシステム1300は、スタティックメモリ1306と、(例えば、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、またはプロジェクタを駆動するための)表示ドライバ1310とを含むことができる。コンピュータシステム1300はまた、英数字入力装置1312(例えば、キーボード)、カーソル制御装置1314(例えば、マウス、トラックボール、ジョイスティック、モーションセンサ、または他のポインティング機器)、信号生成装置1318(例えば、スピーカ)、およびネットワークインターフェース装置1320を含むことができ、これらもバス1308を介して通信するように構成されている。
記憶部1316は、本明細書に記載された方法または機能のうちの任意の1つまたは複数を具体化する命令1324(例えば、ソフトウェア)が記憶された機械可読媒体1322を含む。命令1324はまた、機械可読媒体をまた構成するコンピュータシステム1300、メインメモリ1304およびプロセッサ1302によるそれらの実行中に、メインメモリ1304内またはプロセッサ1302内(例えば、プロセッサのキャッシュメモリ内)に完全にまたは少なくとも部分的に常駐することもできる。命令1324は、ネットワークインターフェース装置1320を介してネットワーク1326にわたって送信または受信することができる。
機械可読媒体1322は、単一の媒体である例示的な実施形態において示されているが、用語「機械可読媒体」は、命令1324を記憶することができる単一の媒体または複数の媒体(例えば、集中型若しくは分散型のデータベース、又は関連付けられたキャッシュ及びサーバ)を含むと解釈されるべきである。用語「機械可読媒体」はまた、機械による実行のための命令1324を記憶することができ、本明細書に記載された任意の1つまたは複数の方法を機械に実行させる任意の媒体を含むと解釈されるべきである。用語「機械可読媒体」は、限定はしないが、ソリッドステートメモリ、光学媒体及び磁気媒体の形態のデータレポジトリを含む。
(その他の考慮事項)
開示された移動車両分析システムは、ピクセルのクラスタを移動車両のデジタル表現に変換すること、及び各移動車両について、移動車両のサイズ、移動車両の速度、および移動車両の方向のデジタル表現に変換することを含む利点および利点を提供する。このシステムの他の利点には、空中画像の処理の高速化、電力消費の低減、移動車両の検出におけるより低い待ち時間、ネットワークを介して送信されるデータの減少などを含む。
本明細書を通して、複数のインスタンスは、単一のインスタンスとして記載される構成要素、オペレーション、または構造を実装することができる。1つまたは複数の方法の個々の操作が別々の操作として例示及び記載されているが、1つまたは複数の個々の操作は同時に実行されてもよく、操作が例示される順序で実行される必要はない。例示的な構成において別々の構成要素として提示される構造および機能は、組み合わされた構造または構成要素として実装されてもよい。同様に、単一の構成要素として提示される構造および機能は、別個の構成要素として実装されてもよい。これらおよび他の変形、修正、追加および改良は、本明細書の主題の範囲内に入る。
特定の実施形態は、例えば、図1、図2、図4、図6、図7および図13に例示及び記載されるように、ロジック若しくは多数の構成要素、モジュール、または機構を含むものとして本明細書に記載される。モジュールは、ソフトウェアモジュール(例えば、機械可読媒体にコード化されたコード)またはハードウェアモジュールのいずれかを構成することができる。ハードウェアモジュールは、特定の操作を実行することができる有形のユニットであり、特定の方法で構成または配置することができる。例示的な実施形態では、1つまたは複数のコンピュータシステム(たとえば、スタンドアロン、クライアントまたはサーバコンピュータシステム)又はコンピュータシステム(例えば、プロセッサまたはプロセッサ群)のうちの1つ若しくは複数のハードウェアモジュールは、ソフトウェア(例えば、ソフトウェアアプリケーションまたはアプリケーション部分)によって、本明細書に記載される特定の動作を実行するように動作するハードウェアモジュールとして構成されることができる。
様々な実施形態において、ハードウェアモジュールは、機械的または電子的に実装されてもよい。例えば、ハードウェアモジュールは、特定の操作を実行するように(例えば、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC)などの専用プロセッサとして)恒久的に構成された専用回路またはロジックを含むことができる。ハードウェアモジュールはまた、特定の動作を実行するためにソフトウェアによって一時的に構成されるプログラマブルロジックまたは回路(例えば、汎用プロセッサまたは他のプログラマブルプロセッサに包含されるもの)を含むことができる。機械的にハードウェアモジュールを実装する決定は、専用および恒久的に構成された回路において、または一時的に構成された(例えば、ソフトウェアによって構成された)回路において、コストおよび時間の考慮によって駆動され得ることが理解されよう。
本明細書に記載される例示的方法の様々な動作は、関連する動作を実行するように一時的に(例えば、ソフトウェアによって)構成されるか、または永続的に構成される1つまたは複数のプロセッサ、例えばプロセッサ1302によって少なくとも部分的に実行され得る。一時的または永続的に構成されようと、そのようなプロセッサは、1つまたは複数の動作または機能を実行するように動作するプロセッサ実装モジュールを構成することができる。本明細書で参照されるモジュールは、いくつかの例示的な実施形態では、プロセッサ実装モジュールを含むことができる。
1つまたは複数のプロセッサは、「クラウドコンピューティング」環境または「サービスとしてのソフトウェア」(SaaS)における関連操作の性能をサポートするように動作することもできる。例えば、少なくともいくつかの操作は、ネットワーク(例えば、インターネット)を介して、および1つまたは複数の適切なインターフェース(例えば、アプリケーションプログラムインターフェイス(API))を介してアクセス可能なこれらの操作を、(プロセッサを含む機械の例としての)コンピュータ群によって実行することができる。
特定の操作の性能は、単一のマシン内に常駐するだけでなく、複数の機械にわたって展開される、1つまたは複数のプロセッサ間に分散されてもよい。いくつかの例示的な実施形態では、1つ若しくは複数のプロセッサまたはプロセッサ実装モジュールは、単一の地理的位置(例えば、家庭環境、オフィス環境、またはサーバファーム内)に配置されてもよい。他の例示的な実施形態では、1つ若しくは複数のプロセッサまたはプロセッサ実装モジュールは、いくつかの地理的位置に分散されてもよい。
この明細書のいくつかの部分は、機械メモリ(例えば、コンピュータメモリ)内のビットまたはバイナリデジタル信号として記憶されたデータに対する演算のアルゴリズムまたは記号表現に関して提示される。これらのアルゴリズムまたはシンボリック表現は、データ処理技術分野の当業者が彼らの仕事の内容を当業者に伝えるために使用する技術の例である。本明細書で使用されるように、「アルゴリズム」は、所望の結果を導く操作または類似の処理の自己一貫シーケンスである。この文脈において、アルゴリズムおよび演算は、物理量の物理的操作を含む。典型的には、必須ではないが、このような量は、保存、アクセス、転送、組み合わせ、比較または機械によって他に操作されることが可能な電気信号、磁気信号、又は光信号の形態を取ることができる。主に一般的な使用の理由をために、時折、「データ」、「コンテンツ」、「ビット」、「値」、「要素」、「記号」、「文字」、「用語」、「数字」、「数字」などの単語を使用してそのような信号を言及することが便利である。しかし、これらの言葉は、単に便利なラベルであり、適切な物理量に関連付けられるべきものである。
特に断らない限り、「処理する」、「演算する」、「計算する」、「決定する」、「提示する」、「表示する」などの単語を使用する本明細書の議論は、1つまたは複数のメモリ(例えば、揮発性メモリ、不揮発性メモリ、またはそれらの組み合わせ)、レジスタ、又は情報を受信、記憶、送信、若しくは表示するその他の機械構成要素内の物理的(例えば、電子的、磁気的または光学的)量として表されるデータを操作または変換する機械の動作またはプロセスを言及することができる。
本明細書で使用される場合、「一実施形態」または「実施形態」のいずれかの言及は、実施形態に関連して記載される特定の要素、特徴、構造またはプロパティが少なくとも1つの実施形態に含まれることを意味する。本明細書の様々な場所における「一実施形態では」という表現の出現は、必ずしも全てが同じ実施形態を指しているとは限らない。
いくつかの実施形態は、それらの派生語と共に「結合された」および「接続された」という表現を使用して説明することができる。例えば、いくつかの実施形態は、2つ以上の要素が物理的または電気的に直接的に接触していることを示すために「結合された」という用語を使用して説明することができる。しかしながら、「結合された」という用語は、2つ以上の要素が互いに直接接触していないが、依然として互いに協働し又は相互作用していることを意味してもよい。実施形態はこの文脈に限定されない。
本明細書で使用される場合、用語「comprises」、「comprising」、「includes」、「including」、「has」、「having」またはその任意の他の変形は、非排他的な包含を包含することが意図される。例えば、要素のリストを含むプロセス、方法、物品、または装置は、必ずしもそれらの要素だけに限定されるものではなく、明示的に列挙されていないか、そのようなプロセス、方法、物品または装置に固有の他の要素を含むことができる。さらに、反対のことが明示的に述べられていない限り、「または」は排他的または排他的ではなく包括的であることを意味する。例えば、条件AまたはBは、Aが真(または存在)、Bが偽(または存在しない)、Aが偽(または存在しない)、Bが真(または存在)、AとBの両方が真である(または存在する)。
さらに、「a」または「an」の使用は、本明細書の実施形態の要素および構成要素を説明するために用いられる。これは単に便宜上のためであり、クレームされた発明の一般的な意味を与えるためである。この説明は、1つまたは少なくとも1つを含むように読まれるべきであり、単数形は、それが他の意味であることが明らかでない限り、複数形も含む。
この開示を読むと、当業者は、本明細書の開示された原理を通じて低解像度画像から移動車両を識別するシステムおよびプロセスのためのさらに別の代替の構造的および機能的設計を理解するであろう。したがって、特定の実施形態およびアプリケーションを例示及び記載してきたが、開示された実施形態は、本明細書に開示される厳密な構成および構成要素に限定されないことを理解されたい。添付の特許請求の範囲に規定された精神および範囲から逸脱することなく、本明細書に開示された方法および装置の配置、動作並びに詳細において、当業者には明らかであろう様々な修正、変更および変形がなされ得る。

Claims (20)

  1. 空中撮像装置からの画像を処理する方法であって、
    地理的領域の複数の画像を受信するステップであって、前記複数の画像の各画像は、異なる時間に取り込まれる、ステップと、
    前記複数の画像の各画像について、ピクセルクラスタリングを実行して前記画像における複数の隣接ピクセルを含むブロブを識別するステップであって、前記隣接ピクセルは、ピクセル属性に基づいて互いに一致する、ステップと、
    前記複数の画像から特徴ベクトルを抽出するステップであって、前記特徴ベクトルは、前記複数の画像の各ブロブの相対位置を示す特徴を少なくとも含む、ステップと、
    前記特徴ベクトルに基づく機械学習モデルによって、
    各ブロブが前記複数の画像の異なる画像に対応する、複数のブロブと、
    前記複数のブロブが移動車両に対応する可能性を示すスコアであって、前記スコアは、前記機械学習モデルに入力される前記特徴ベクトルを使用して生成される、スコアと、
    を含む出力を生成するステップと、
    閾値を超える前記生成したスコアに応答して、前記複数のブロブと前記移動車両との間の関連を記憶するステップと、
    前記複数の画像における1つまたは複数の移動車両の数を決定するステップであって、各移動車両は、対応する複数のブロブに関連付けられる、ステップと、
    前記1つまたは複数の移動車両の視覚的表現をユーザ装置に配信するステップと、
    含む方法
  2. 空中撮像装置からの画像を処理する方法であって、
    地理的領域の複数の画像を受信するステップであって、前記複数の画像の各画像は、異なる時間に取り込まれる、ステップと、
    前記複数の画像に基づく機械学習モデルによって、
    各ブロブが前記複数の画像の異なる画像における1つまたは複数の隣接ピクセルを含み、前記隣接ピクセルは、ピクセル属性に基づいて互いに一致する、複数のブロブと、
    前記複数のブロブが移動車両に対応する可能性を示すスコアであって、前記スコアは、前記複数の画像の前記複数のブロブのそれぞれの相対位置を示す、前記機械学習モデルに入力される特徴ベクトルを使用して生成される、スコアと、
    を含む出力を生成するステップと、
    閾値を超える前記生成したスコアに応答して、前記複数のブロブと前記移動車両との間の関連を記憶するステップと、
    前記複数の画像における1つまたは複数の移動車両の数を決定するステップであって、各移動車両は、対応する複数のブロブに関連付けられる、ステップと、
    含む方法
  3. 前記複数の画像の各画像は、スペクトル帯域に対応し、スペクトル帯域は光の波長範囲に対応する請求項2に記載の方法。
  4. 前記複数の画像の各画像について、ピクセルクラスタリングを実行してブロブを識別するステップをさらに含む請求項2に記載の方法。
  5. 前記出力は、
    ブロブに対応する1つまたは複数のピクセル位置及び前記1つまたは複数のピクセル位置がブロブに対応する可能性を示すスコアと、
    車両経路に対応する複数のピクセル位置及び前記複数のピクセル位置が車両経路に対応する可能性を示すスコアと、
    複数のブロブのうちの各ブロブにおけるピクセルの数と、
    前記複数のブロブと移動車両との間の関連と、
    のうちの少なくとも1つをさらに含む請求項2に記載の方法。
  6. 複数のトレーニングセットを受信するステップであって、各トレーニングセットは移動車両に対応するラベル付きの複数のブロブを含む、ステップと、
    前記トレーニングセットを用いて前記機械学習モデルをトレーニングするステップであって、前記機械学習モデルは、複数のブロブと、前記複数のブロブが移動車両に対応する可能性を示すスコアとを含む出力を生成するように構成される、ステップと、
    をさらに含む請求項2に記載の方法。
  7. 前記複数の画像のピクセル解像度を受信するステップと、
    前記複数のブロブの各ブロブにおけるピクセルの数を決定するステップと、
    前記ピクセル解像度と、前記移動車両に関連付けられた前記対応する複数のブロブの各ブロブにおけるピクセルの数とに基づいて、前記1つまたは複数の移動車両における各車両のサイズを決定するステップと、
    をさらに含む請求項2に記載の方法。
  8. 前記複数の画像のピクセル解像度を受信するステップと、
    車両経路の長さに関連付けられたピクセルの数を決定するステップと、
    前記ピクセル解像度と、前記車両経路の前記長さに関連付けられた前記ピクセルの数とに基づいて、前記車両経路の前記長さを決定するステップと、
    をさらに含む請求項7に記載の方法。
  9. 前記1つまたは複数の移動車両の数及び前記車両経路の前記長さに基づいて、移動車両の密度を決定するステップをさらに含む請求項8に記載の方法。
  10. 前記1つまたは複数の移動車両の各々について、前記対応する複数のブロブの各ブロブの重心間の差を決定することにより、前記移動車両に関連付けらた前記対応する複数のブロブに関する方向ベクトルを決定するステップであって、前記方向ベクトルは、前記移動車両の速度及び方向に対応する、ステップをさらに含む請求項9に記載の方法。
  11. 前記複数の画像のピクセル解像度を受信するステップと、
    前記1つまたは複数の移動車両の各々について、前記ピクセル解像度に基づいて前記方向ベクトルの長さを決定するステップと、
    をさらに含む請求項10に記載の方法。
  12. 前記1つまたは複数の移動車両の各々について、前記方向ベクトルの長さを前記複数の画像の間の時間差によって割ることにより速度を決定するステップをさらに含む請求項11に記載の方法。
  13. 前記1つまたは複数の移動車両の前記速度の合計を前記1つまたは複数の移動車両の数によって割ることにより平均速度を決定するステップをさらに含む請求項12に記載の方法。
  14. 前記複数の画像のうちの画像の取り込み時間と、
    前記1つまたは複数の移動車両の数と、
    前記1つまたは複数の移動車両の各車両のサイズと、
    前記平均速度と、
    前記移動車両の密度と、
    前記車両経路の前記長さと、
    のうちの少なくとも1つを含む交通パターンを分析するステップと、
    閾値を超える前記分析された交通パターンに応答して、前記1つまたは複数の移動車両に再経路指定情報を送信するステップと、
    をさらに含む請求項13に記載の方法。
  15. 前記複数の画像のうちの画像においてエッジ分析を実行して、一対のエッジを識別するステップであって、前記一対のエッジは、車両経路に対応する、ステップをさらに含む請求項2に記載の方法。
  16. 前記複数の画像から特徴ベクトルを抽出するステップであって、前記特徴ベクトルは、ブロブが前記車両経路に対応する前記一対のエッジの間に位置付けられるかどうかを示す特徴を少なくとも含む、ステップをさらに含む請求項15に記載の方法。
  17. 特徴は、前記複数のブロブの2つのブロブがそれぞれ、前記複数の画像において互いに重なるピクセル位置を有する、請求項16に記載の方法。
  18. 特徴は、前記複数のブロブのうちの各ブロブの重心間の差が前記車両経路のラベル付きの方向と一致するかどうかを示す請求項16に記載の方法。
  19. 特徴は、複数のピクセル位置と前記ピクセル属性との間の関連を示す請求項16に記載の方法。
  20. 少なくとも1つのプロセッサによって実行可能な命令を含む非一時的コンピュータ可読記憶媒体であって、前記命令は、前記プロセッサによって実行されるとき、前記プロセッサに、
    地理的領域の複数の画像を受信するステップであって、前記複数の画像の各画像は、異なる時間に取り込まれる、ステップと、
    前記複数の画像に基づく機械学習モデルによって、
    各ブロブが前記複数の画像の異なる画像における1つまたは複数の隣接ピクセルを含み、前記隣接ピクセルは、ピクセル属性に基づいて互いに一致する、複数のブロブと、
    前記複数のブロブが移動車両に対応する可能性を示すスコアであって、前記スコアは、前記複数の画像の前記複数のブロブのそれぞれの相対位置を示す、前記機械学習モデルに入力される特徴ベクトルを使用して生成される、スコアと、
    を含む出力を生成するステップと、
    閾値を超える前記生成したスコアに応答して、前記複数のブロブと前記移動車両との間の関連を記憶するステップと、
    前記複数の画像における1つまたは複数の移動車両の数を決定するステップであって、各移動車両は、対応する複数のブロブに関連付けられる、ステップと、
    を実行させる非一時的コンピュータ可読記憶媒体。
JP2018526502A 2015-11-16 2016-11-14 低解像度リモートセンシング画像を用いた移動車両の検出及び分析 Active JP6709283B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562256072P 2015-11-16 2015-11-16
US62/256,072 2015-11-16
PCT/US2016/061925 WO2017087334A1 (en) 2015-11-16 2016-11-14 Moving vehicle detection and analysis using low resolution remote sensing imagery

Publications (2)

Publication Number Publication Date
JP2018536236A JP2018536236A (ja) 2018-12-06
JP6709283B2 true JP6709283B2 (ja) 2020-06-10

Family

ID=58691278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018526502A Active JP6709283B2 (ja) 2015-11-16 2016-11-14 低解像度リモートセンシング画像を用いた移動車両の検出及び分析

Country Status (4)

Country Link
US (2) US10255523B2 (ja)
EP (1) EP3378222A4 (ja)
JP (1) JP6709283B2 (ja)
WO (1) WO2017087334A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992977B2 (en) * 2015-06-03 2018-06-12 Keltronix, Inc. Agricultural monitoring system using image analysis
US20180276578A1 (en) * 2017-03-22 2018-09-27 Facebook, Inc. Providing travel related content to modify travel itineraries
US11037330B2 (en) * 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
EP3399460B1 (en) * 2017-05-02 2019-07-17 Dassault Systèmes Captioning a region of an image
CA3065340A1 (en) * 2017-06-05 2018-12-13 Citifyd, Inc. Parking objects detection system
US11367354B2 (en) * 2017-06-22 2022-06-21 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Traffic prediction based on map images for autonomous driving
US10599161B2 (en) * 2017-08-08 2020-03-24 Skydio, Inc. Image space motion planning of an autonomous vehicle
CN108230421A (zh) * 2017-09-19 2018-06-29 北京市商汤科技开发有限公司 一种道路图生成方法、装置、电子设备和计算机存储介质
CN107944484B (zh) * 2017-11-17 2021-06-01 长春工程学院 一种基于范围能量差的高分辨率遥感影像聚类方法
US11380054B2 (en) * 2018-03-30 2022-07-05 Cae Inc. Dynamically affecting tailored visual rendering of a visual element
CN108664994A (zh) * 2018-04-17 2018-10-16 哈尔滨工业大学深圳研究生院 一种遥感图像处理模型构建系统和方法
US10878588B2 (en) * 2018-06-22 2020-12-29 X Development Llc Detection and replacement of transient obstructions from high elevation digital images
US10845806B2 (en) 2018-07-31 2020-11-24 GM Global Technology Operations LLC Autonomous vehicle control using prior radar space map
CN109214334B (zh) * 2018-09-03 2020-12-29 百度在线网络技术(北京)有限公司 车道线处理方法和装置
US11715111B2 (en) * 2018-09-25 2023-08-01 Capital One Services, Llc Machine learning-driven servicing interface
US10747230B2 (en) * 2018-10-08 2020-08-18 Mando Corporation Vehicle control apparatus, vehicle control system, and image sensor
US11700356B2 (en) * 2018-10-26 2023-07-11 AutoBrains Technologies Ltd. Control transfer of a vehicle
EP3690704B1 (en) * 2019-01-29 2021-02-24 Accenture Global Solutions Limited Distributed and self-validating dense object detection in digital images
JP6742037B1 (ja) * 2019-03-19 2020-08-19 株式会社 システムスクエア 学習モデルの生成方法、学習モデル、検査装置、異常検出方法、及びコンピュータプログラム
JP6749655B1 (ja) * 2019-03-19 2020-09-02 株式会社 システムスクエア 検査装置、異常検出方法、コンピュータプログラム、学習モデルの生成方法、及び学習モデル
WO2020209078A1 (ja) * 2019-04-09 2020-10-15 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11574409B2 (en) * 2019-09-30 2023-02-07 Ghost Autonomy Inc. Scene filtering using motion estimation
CN114787739A (zh) * 2019-11-15 2022-07-22 伟摩有限责任公司 使用向量化输入的智能体轨迹预测
JP7398249B2 (ja) * 2019-11-19 2023-12-14 アジア航測株式会社 写真画像を用いた移動体軌跡生成装置
KR20210065605A (ko) * 2019-11-27 2021-06-04 한국전자통신연구원 선인출 정보를 이용한 메모리 제어 방법 및 장치
JP7405607B2 (ja) * 2019-12-26 2023-12-26 ファナック株式会社 三次元データを補間する三次元データ生成装置及びロボットシステム
SG10201913873QA (en) * 2019-12-30 2021-07-29 Singpilot Pte Ltd Sequential Mapping And Localization (SMAL) For Navigation
CN111259797A (zh) * 2020-01-16 2020-06-09 南开大学 一种基于点的迭代式遥感图像道路提取方法
US11676018B2 (en) * 2020-01-30 2023-06-13 Mediatek Inc. Feature extraction with keypoint resampling and fusion (KRF)
CN112052773B (zh) * 2020-08-31 2022-02-11 郑州工程技术学院 基于图像传感的无人机交通疏导智能播音方法及装置
CN112632315B (zh) * 2020-12-30 2022-03-29 珠海大横琴科技发展有限公司 一种遥感图像检索的方法和装置
US11941895B1 (en) * 2021-04-01 2024-03-26 Endera Corporation Vehicle-based facial recognition system and method
CN113297947B (zh) * 2021-05-19 2022-04-15 徐州工程学院 一种基于无人机监测的交通目标检测和识别方法
CN115082310B (zh) * 2022-06-07 2023-04-07 生态环境部长江流域生态环境监督管理局生态环境监测与科学研究中心 一种卫星视频的超分辨率重建方法、装置及处理设备
US11551459B1 (en) * 2022-06-27 2023-01-10 Plusai, Inc. Ambiguous lane detection event miner
CN117036756B (zh) * 2023-08-08 2024-04-05 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) 基于变分自动编码器的遥感图像匹配方法及系统

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2132515C (en) 1992-03-20 2006-01-31 Glen William Auty An object monitoring system
US7000200B1 (en) * 2000-09-15 2006-02-14 Intel Corporation Gesture recognition system recognizing gestures within a specified timing
US9919723B2 (en) * 2002-06-04 2018-03-20 General Electric Company Aerial camera system and method for determining size parameters of vehicle systems
US7809061B1 (en) * 2004-01-22 2010-10-05 Vidiator Enterprises Inc. Method and system for hierarchical data reuse to improve efficiency in the encoding of unique multiple video streams
JP4461977B2 (ja) * 2004-09-21 2010-05-12 株式会社デンソー 道路混雑度予測システムおよび道路混雑度予測装置
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
WO2007124502A2 (en) 2006-04-21 2007-11-01 Sarnoff Corporation Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
US8358806B2 (en) * 2007-08-02 2013-01-22 Siemens Corporation Fast crowd segmentation using shape indexing
CA2840860C (en) * 2007-11-14 2015-05-26 Intergraph Software Technologies Company Method and apparatus of taking aerial surveys
EP2243125B1 (en) * 2007-12-13 2020-04-29 Clemson University Research Foundation Vision based real time traffic monitoring
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8374462B2 (en) * 2008-11-14 2013-02-12 Seiko Epson Corporation Content-aware image and video resizing by anchor point sampling and mapping
TWI401409B (zh) * 2009-12-29 2013-07-11 Avermedia Information Inc 具有物體實際尺寸估計功能之實物攝影機
US8611598B2 (en) * 2011-07-26 2013-12-17 Harman International (China) Holdings Co., Ltd. Vehicle obstacle detection system
US9286516B2 (en) 2011-10-20 2016-03-15 Xerox Corporation Method and systems of classifying a vehicle using motion vectors
US10018703B2 (en) * 2012-09-13 2018-07-10 Conduent Business Services, Llc Method for stop sign law enforcement using motion vectors in video streams
WO2013081985A1 (en) * 2011-11-28 2013-06-06 Magna Electronics, Inc. Vision system for vehicle
JP5971341B2 (ja) * 2012-08-09 2016-08-17 トヨタ自動車株式会社 物体検出装置及び運転支援装置
WO2014031615A1 (en) * 2012-08-20 2014-02-27 Behavioral Recognition Systems, Inc. Method and system for detecting sea-surface oil
US9582722B2 (en) * 2012-08-31 2017-02-28 Xerox Corporation Video-based vehicle speed estimation from motion vectors in video streams
US9465997B2 (en) * 2012-09-26 2016-10-11 General Electric Company System and method for detection and tracking of moving objects
FR3013876B1 (fr) * 2013-11-28 2016-01-01 Sagem Defense Securite Analyse d'une image multispectrale
CN106536299B (zh) * 2014-05-22 2019-06-28 御眼视觉技术有限公司 基于检测对象制动车辆的系统和方法
US9489581B2 (en) * 2014-08-11 2016-11-08 Nokia Technologies Oy Vehicle counting and emission estimation
US10015394B2 (en) * 2015-10-06 2018-07-03 Genetec Inc. Camera-based speed estimation and system calibration therefor
US9910441B2 (en) * 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic

Also Published As

Publication number Publication date
EP3378222A1 (en) 2018-09-26
WO2017087334A1 (en) 2017-05-26
JP2018536236A (ja) 2018-12-06
US10255523B2 (en) 2019-04-09
US20190220696A1 (en) 2019-07-18
US20170140245A1 (en) 2017-05-18
EP3378222A4 (en) 2019-07-03

Similar Documents

Publication Publication Date Title
JP6709283B2 (ja) 低解像度リモートセンシング画像を用いた移動車両の検出及び分析
US10902615B2 (en) Hybrid and self-aware long-term object tracking
US10192323B2 (en) Remote determination of containers in geographical region
US10607362B2 (en) Remote determination of containers in geographical region
Ouyang et al. Deep CNN-based real-time traffic light detector for self-driving vehicles
Fan et al. Multi-level contextual rnns with attention model for scene labeling
US9400936B2 (en) Methods and systems for vehicle tag number recognition
JP2016062610A (ja) 特徴モデル生成方法及び特徴モデル生成装置
Ye et al. A two-stage real-time YOLOv2-based road marking detector with lightweight spatial transformation-invariant classification
EP3553700A2 (en) Remote determination of containers in geographical region
WO2023231991A1 (zh) 交通信号灯感知方法、装置、设备及存储介质
CN112465854A (zh) 基于无锚点检测算法的无人机跟踪方法
CN110909656B (zh) 一种雷达与摄像机融合的行人检测方法和系统
Gautam et al. Image-based automatic traffic lights detection system for autonomous cars: a review
Zhang et al. Detection-by-tracking of traffic signs in videos
Dong et al. Fast segmentation-based object tracking model for autonomous vehicles
Zhang et al. Bus passenger flow statistics algorithm based on deep learning
Imad et al. Navigation system for autonomous vehicle: A survey
Maher et al. Deep-patch orientation network for aircraft detection in aerial images
CN113449629A (zh) 基于行车视频的车道线虚实识别装置、方法、设备及介质
Truong et al. Rotated Mask Region-Based Convolutional Neural Network Detection for Parking Space Management System
Wang et al. A Multi-Objective Recognition Algorithm with Time and Space Fusion
Gonthina et al. Robust Pedestrian Detection in Challenging Environmental Conditions Using FCOS
Cam et al. Vehicle License Plates Recognition Using Object Detection and Classification Algorithms
Velesaca et al. Video Analytics in Urban Environments: Challenges and Approaches

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200522

R150 Certificate of patent or registration of utility model

Ref document number: 6709283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250