JP2015201183A - 走行路メタデータを用いた空中写真/映像におけるコンテキスト・アウェア物体検出 - Google Patents

走行路メタデータを用いた空中写真/映像におけるコンテキスト・アウェア物体検出 Download PDF

Info

Publication number
JP2015201183A
JP2015201183A JP2015062049A JP2015062049A JP2015201183A JP 2015201183 A JP2015201183 A JP 2015201183A JP 2015062049 A JP2015062049 A JP 2015062049A JP 2015062049 A JP2015062049 A JP 2015062049A JP 2015201183 A JP2015201183 A JP 2015201183A
Authority
JP
Japan
Prior art keywords
images
moving object
travel path
reference map
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015062049A
Other languages
English (en)
Other versions
JP6726932B2 (ja
Inventor
フローレス アルトゥーロ
Flores Arturo
フローレス アルトゥーロ
キム キョンナム
Kyungnam Kim
キム キョンナム
オヴェチコ ユーリ
Owechko Yuri
オヴェチコ ユーリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2015201183A publication Critical patent/JP2015201183A/ja
Application granted granted Critical
Publication of JP6726932B2 publication Critical patent/JP6726932B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】地理的領域において、走行路上の移動物体のリアルタイム検出を行うためのシステム及び方法を提供する。【解決手段】地理的領域の連続する画像を撮影するための撮像装置20と、地理的領域のコンテキスト情報を含む地理基準マップと、連続する画像間の差異を計算し、走行路上の移動物体をリアルタイムで検出するように構成されているプロセッサ24と、を備える。方法は、撮像装置を用いて地理的領域の連続する画像を撮影することと、地理的基準マップに従って連続する画像のうち少なくともいくつかのジオレジストレーションを行うことと、連続する画像間の差異を計算することにより、リアルタイムで物体を検出することと、を含む。【選択図】図1

Description

本発明は、走行路における、対象とする移動物体のリアルタイム検出、並びに、誤報(f alse alarms)及び検出漏れの低減に関する。また、本発明は、リアルタイムでこのよう な移動物体を追跡する際にも用いることができる。
ビデオトラッキングを用いて、走行路などの経路上を移動する対象物体を検出及び追跡するシステムが、先行技術として知られている。しかしながら、これらのシステムの多くは、環境を構成する人工物(artifacts)、及び、対象物体への光の影響に起因する画質により、リアルタイムでの物体の検出精度に限界がある。結果として、現行のシステムは、特定の環境においては、対象物体を適切に追跡できないことがある。
地理的領域において、走行路上の移動物体のリアルタイム検出を行うためのシステム及び方法が提供される。また、システム及び方法は、リアルタイムでそのような移動物体を追跡するために用いることもできる。上記システムは、地理的領域の連続する画像を撮影するための撮像装置と、地理的領域のコンテキスト情報を含む地理基準マップと、連続する画像間の差異を計算し、走行路上の移動物体をリアルタイムで検出するように構成されているプロセッサと、を備える。上記方法は、撮像装置を用いて地理的領域の連続する画像を撮影することと、地理的基準マップに対して連続する画像のうち少なくともいくつかについてジオレジストレーションを行うことと、連続する画像間の差異を計算することにより、リアルタイムで物体を検出することと、を含む。
更に、本開示は、以下の付記に係る実施形態も含むものとする。
付記1.物体をリアルタイムに検出する方法であって、
撮像装置を用いて、少なくとも1つの走行路を含む地理的領域についての連続する画像を撮影することと、
地理基準マップに対して連続する画像のうち少なくともいくつかの画像についてジオレジストレーションを行うことと、を含み、地理基準マップは、地理的領域のコンテキスト情報を含み、
連続する画像間での差異を計算することにより、リアルタイムで物体を検出することを更に含む、方法。
付記2.連続する画像のうち、第1画像のジオレジストレーションは手動で行われる、付記1に記載の方法。
付記3.走行路を含む地理的領域の画像を取得することを更に含む、付記1に記載の方法。
付記4.コンテキスト情報は走行路メタデータである、付記1に記載の方法。
付記5.走行路は道路である、付記1に記載の方法。
付記6.撮像装置は、空中輸送手段に位置する、付記1に記載の方法。
付記7.連続する画像は、地理的領域について少なくとも1つのビデオシーケンスを撮影することにより生成され、方法は、ビデオシーケンスを連続する画像に分割することを更に含む、付記1に記載の方法。
付記8.平面ホモグラフィは、基準マップ上で連続する画像について相対的にジオレジストレーションを行うために用いられる、付記1に記載の方法。
付記9.コンテキスト情報を用いて、走行路外に存在する移動物体の誤検出を抑制することを更に含む、付記1に記載の方法。
付記10.コンテキスト情報を用いて、走行路内に存在する移動物体を検出することを更に含む、付記1に記載の方法。
付記11.基準マップに従って、連続する画像のうち1つについて追加的にジオレジストレーションを行うことにより、レジストレーションにおける誤差を低減することを更に含む、付記1に記載の方法。
付記12.移動物体の位置を追跡することを更に含む、付記1に記載の方法。
付記13.地理的領域において、走行路上の移動物体のリアルタイム検出を行うためのシステムであって、
地理的領域の連続する画像を撮影するための撮像装置と、
地理的領域のコンテキスト情報を含む地理基準マップと、
連続する画像間の差異を計算し、走行路上の移動物体をリアルタイムで検出するように構成されているプロセッサと、を備えるシステム。
付記14.撮像装置は、ビデオカメラである、付記13に記載のシステム。
付記15.地理基準マップは、メタデータを含むマップである、付記13に記載のシステム。
付記16.移動物体は運搬手段であり、走行路は道路である、付記13に記載のシステム。
付記17.撮像装置は、空中輸送手段における空中プラットフォームに搭載されている、付記13に記載のシステム。
付記18.空中輸送手段は無人である、付記17に記載のシステム。
付記19.地理基準マップは、プロセッサから離れたサーバに格納されている、付記13に記載のシステム。
付記20.プロセッサは、更に、移動物体の位置を追跡するように構成されている、付記13に記載のシステム。
本発明の範囲は、添付する特許請求の範囲でのみ定義され、この発明の概要における記載には影響されないものとする。
本発明は、以下の図面及び説明を参照することによって、より理解されるであろう。図中の構成要素は必ずしも縮尺にしたがっておらず、本発明の原理を例示することに重点が置かれている。
本発明の構成要素を含むシステムを示すブロック図である。 本発明のシステムにおいて用いられる撮像装置を示すブロック図である。 本発明のシステムにおいて用いられるプロセッサを示すブロック図である。 本発明のシステムにおける撮像装置により撮影される画像、及び、基準マップを示す線画である。 本発明のシステムにおいて、基準マップに従った画像のジオレジストレーションが、平面ホモグラフィを用いてどのように行われるかを示す線画である。 本方法で用いられるステップを示す線画と、それに関連するフローチャートである。 本発明の移動物体検出の例を示す図である。 走行路メタデータを用いない移動物体検出を示す図である。 本発明に係る、走行路メタデータを用いた移動物体検出を示す図である。
本発明は、様々な形態で実現可能であるが、図示する例、及び、本明細書における詳細な説明は、例えば、無人航空機(UAV:unmanned aerial vehicle)、空中プラットフォーム、又は有人輸送体などの、空中構造体に搭載される撮像装置を用いて行う走行路の対象移動物体の検出についての特定の実施形態に関するものである。なお、本開示は、本発明の原理を例示したものであり、本発明を、ここで図示及び説明されている実施形態に限定することを意図するものではない。したがって、特に明記しない限り、本明細書に開示される特徴を互いに組み合わせることにより、本明細書では簡略化のため説明されていない付加的な組み合わせを形成することが可能である。
空中位置から撮影した画像を用いて、ジオレジストレーション(geo-registration)を行うとともに、走行路に沿った移動物体のコンテキスト・アウェア検出(context-aware detection)を行うシステム及び方法は、走行路上の移動物体の検出性能を向上させ、また、誤報及び検出漏れを低減する。上記システム及び方法は、このような移動物体を追跡するために用いることもできる。上記方法は、リアルタイムで実行可能である。ジオレジストレーション情報と、グローバルマッピングシステム(global mapping system)により提供される走行路のメタデータ(metadata)とを組み合わせることにより、先行技術と比べてシステムの精度を向上させることができる。
図1のブロック図に示すように、システムは、例えば、カメラなどの、少なくとも1つの走行路を含みうる地理的領域のデジタル画像を生成するための撮像装置20と;無人航空機(UAV)、又は、ヘリコプターなどの有人輸送体におけるプラットフォームなどの、撮像装置20を搭載するための空中構造体22と;ソフトウェアを内部に有し、撮像装置20と通信するプロセッサであって、撮像装置20からの画像を処理可能なプロセッサ24と;プロセッサ24と通信するユーザーインターフェース26と;グローバルマッピングシステムからの走行路のメタデータを格納し、プロセッサ24と通信するサーバ28と、を含む。
撮像装置20は、例えば、建物、草木、及び乗り物などの、撮像装置20の視野内における物体の写真又は映像などのデジタル画像を撮像するように構成されている。撮像装置20は、プロセッサ24と通信可能に接続している。図2に示すように、撮像装置20は、撮像装置光学系30と、撮像部32と、通信インターフェース34とを含む。撮像装置光学系30は、レンズ及び他の光学部品を含み、撮像部32と通信可能に接続している。撮像部32は、通信インターフェース34へ画像を伝送し、当該通信インターフェースは、これらの画像をプロセッサ24へ伝送する。
プロセッサ24及びサーバ28は互いに接続され、これらの間で情報が送信される。この情報は、例えば、ローカルエリアネットワーク、ワイドエリアネットワーク、有線ネットワーク及び/又は無線ネットワークなどの通信網を介して、サーバ28に対して送受信される情報である。サーバ28は、空中構造体22に搭載されてもよいし、地上に設置されてもよい。
プロセッサ24は、空中構造体22に搭載されてもよいし、地上に設置されてもよい。プロセッサ24が地上に設置されている場合、撮像装置20は、無線信号を介してプロセッサ24へ画像を送信する。図3に示すように、プロセッサ24は、撮像装置20及びサーバ28からの画像情報を処理し、中央処理装置(CPU)又はデジタル信号プロセッサ(DSP)36と、メモリ38とを含む。CPU/DSP36はメモリ38に接続しており、当該メモリは、ランダムアクセスメモリ(RAM)と、リードオンリーメモリ(ROM)とを含む。メモリ38は、非一時的であり、機械読取可能かつ機械実行可能なソフトウェアコード40を格納している。このソフトウェアコードは、実行されると、本明細書に記載する様々な機能をCPU/DSP36に実行させるように構成されている。プロセッサ24は、撮像部32からの情報を解析することにより、ユーザーインターフェース26のディスプレイに表示可能な画像であって、ユーザーインターフェース26のプリンタを用いた印刷、及び、ユーザによる解析が可能な画像を生成する。
ユーザーインターフェース26は、キーボード、ディスプレイ、及びスピーカなどの入力装置を含むことにより、ユーザに対して視覚及び音声情報を提供することができ、ユーザは、プロセッサ24に対してパラメータを入力することができる。ユーザーインターフェース26は、システムによって撮影された画像を印刷するためのプリンタを更に含んでもよい。
グローバルマッピングシステムは、第三者により利用される拡張走行路メタデータを提供する。そのようなマッピングシステムとしては、例えば、グーグルマップ、ビングマップ、又は、ジオポジショニング情報(geo-positioning information)を用いる他の適切なグローバルマッピングシステムなどがある。走行路メタデータは、特に、道路、水路、及び/又は歩道などの走行路の場所と、走行路近辺の建物、草木、及び、その他邪魔になりそうな物体などの構造物と、に関するコンテキスト情報を提供する。この走行路メタデータは、基準マップとして第三者に提供されてもよい。そのような基準マップ42の線画例を図4Aに示す。同図には、地理的領域での走行路が描かれており、この特定の基準マップにおいては、走行路は、例えば道路である。走行路は、図4Bでは、陰影線で示されている。マッピング情報は、インターネット接続などを介してオンラインで取得してもよいし、電気ディスク、磁気ディスク、光ディスクなどの記録媒体を介してオフラインで取得してもよい。この走行路メタデータ、及び、それに関連する基準マップは、サーバ28に格納されてもよい、これに代えて、この走行路メタデータ、及び、それに関連する基準マップは、プロセッサ24に格納されてもよい。
複数の写真又はビデオシーケンスなどの、複数のデジタル画像は、撮像装置20によって撮影することができる。これらの画像は、その後、プロセッサ24に送信されて処理が施されてもよい。写真が撮影される実施形態において、プロセッサ24は、これらの写真を、個々の画像44a、44b、44cなどに分離するように構成されてもよい。映像が撮影される実施形態において、プロセッサ24は、ビデオシーケンスを、個々の画像44a、44b、44cなどに分離するように構成されてもよい。
プロセッサ24は、サーバ28にアクセスして、図4に示されるような、ジオレジストレーション情報を含む適切な基準マップ42を取得するように構成されてもよい。プロセッサ24は、撮像装置20からの画像を、基準マップ42と比較するように構成されてもよい。プロセッサ24は、画像特徴のマッチング及び平面ホモグラフィ(planar homography)を用いて、基準マップに対して画像のジオレジストレーションを行ってもよい。
ジオレジストレーション処理中において、第1画像44aのジオレジストレーションは、ユーザが、ユーザーインターフェース26を介してプロセッサ24にレジストレーション情報を入力することにより、基準マップ42に従って手動で行ってもよい。この代わりに、プロセッサ24は、撮像装置20に組み込まれたGPS及び/又は慣性センサ(inertia sensors)などの入力を用いて、第1画像44aのジオレジストレーションを、基準マップ42に対して自動で行うように構成されてもよい。本システム及び方法において、画像44a、44b、44c等及び基準マップ42には主要平面が存在すると考えられる。したがって、プロセッサ24は、基準マップ42に対して画像44a、44b、44c等を位置合わせするための平面ホモグラフィを用いるように構成されてもよい。
以下において、H0,Mは、基準マップ42に対して第1画像44aを位置合わせするためのホモグラフィである。第1画像44aのレジストレーションが完了すると、後続する画像44b、44c・・・について、以下のようにジオレジストレーションが行われる。Itは、時間tにおいて、撮像装置によって撮影された画像として定義され、It+1 は、後続する画像として定義される。図6Aに示すように、画像間のレジストレーションは、両方の画像(現在の画像は解析中であり、前回の画像は解析済)における画像から、スケール不変特徴変換(SIFT:scale-invariant feature transform)記述子又は他のよく知られた記述子を抽出することにより、既知な方法で行われる。両方の画像における画像から、ユークリッド空間におけるこれらの画像の最近傍を介してSIFT記述子をマッチングすることにより、対応付けの最初のセットが得られる。これらの推定される対応付けは、多くの誤った組み合わせを含んでおり、これらの組み合わせは、ランダムサンプルコンセンサス(RANSAC:randomsampleconsensus、著Fischler, and Bolles, Comm.of the ACM, Vol.24, pp.381-395, 1981)などの既知の方法、又は、外れ値を含む方法であって、ItにIt+1を位置合わせするホモグラフィであるHt+1,tを提供する測定データのセットから、数学的モデルのパラメータを推測するための他の方法を用いて切り捨てられる。結果として、後続する画像It+1は、Ht+1,tHt,t-1Ht-1t-2...H1,0H0,Mの積、又は、単に以下のように、
を用いてジオレジストレーションされる。
プロセッサ24は、連続する画像のそれぞれについてジオレジストレーションを行うように構成されてもよく、画像群のうち所定の画像についてジオレジストレーションを行う(例えば、いくつかの連続する画像をスキップする)ように構成されてもよい。
上記方法は、各ホモグラフィ演算において小さな誤差が生じる場合があり、これらの誤差が時間の経過とともに蓄積すると、やがて画像同士が正しく位置合わせされなくなることがある。これらの誤差は、更に別の画像と基準マップとの間のレジストレーションを利用して、画像間のレジストレーションをより正確に行うことにより軽減することができる。時間tにおいて、ジオレジストレーションが行われる画像Itは、小さい誤差の範囲内であると仮定する。ジオレジストレーションは、画像パッチの相関情報を用いて、It及び基準マップ42における対象点をマッチングすることにより、より正確に行うことができる。相関情報とは、2つの信号間で重複する情報の指標であり、一方の信号に基づく情報から他方の信号の情報をどの程度得られるかを表す。相関情報は、一方の信号が変化しても、他方の信号が変化しない場合にのみ影響を受けるが、これらの信号の相対値には影響を受けないため、ロバスト性が高く(robust)有用である。基準マップ42と解析される画像とは、異なる時間帯に撮影されたものであるため、異なる時刻、異なる気象条件などと相まって、解析される画像が、基準マップ42における画像とは異なる角度から撮影された可能性もあるため、複雑化因子が生じ得る。相関情報は、これらの複雑化因子を軽減するために役立つ。結果として、誤差の蓄積、及びジオレジストレーションの「ずれ(drift)」が無効化される。
ジオレジストレーション後のビデオシーケンスの例を図4A〜4Dに示す。図4Aは、基準マップ42を示す。図4Bは、基準マップ42に対してレジストレーションが行われた第1画像44aを示す。図4C及び4Dは、基準マップ42に対してレジストレーションが行われた、後続する画像44b、44cを示す。走行路は、基準マップ42から得られた走行路メタデータを用いて陰影線で示されている。
画像などのジオレジストレーションが完了すると、プロセッサ24は、画像44a、44b、44cなどにおいて、例えば乗り物などの対象移動物体46を検出するための追加コンテキストとして、基準マップ42からの走行路メタデータを用いるように構成されてもよい。移動物体検出は、プロセッサ24が、例えば、画像44a及び44bなどの連続する画像間の差異を計算することによって行われる。この計算は、既知の方法で粗バックグラウンド減算(coarse background subtraction)を用いることにより、基準画像42に対してこれらの画像のジオレジストレーションが行われた後に行われる。Itは、基準画像42として定義され、Itを基準座標系として用いて、画像It-k,It-(k-1),...It-1,It+2,...,It+kのレジストレーションが行われる。その後、以下に示すように、基準画像42と、他の全ての画像44a、44b、44cとの間でのピクセルの差の2乗が蓄積される。
典型的には、k=2である。全ての画像44a、44b、44cのレジストレーションが、基準画像42に対して行われるため、静止物体及びバックグラウンドは、2乗差演算により互いに打ち消しあい、移動物体46が際立つと考えられる。感度閾値Tを、蓄積された差異画像に適用して、次のように、バイナリ画像(binary image)Bを生成する。
図6Bにおいて、差異画像が算出されると、プロセッサ24は、ラベル付マップ領域(labeled map regions)に基づいて、蓄積された差異画像に対して閾値演算を行うように構成されている。この構成により、バックグラウンドと比較して、所定の速度よりも速く移動している物体を示す分割された画像領域が得られる。閾値Tを変化させることにより、動きに対する感度が、分割された画像領域を含むラベル付マップ領域に応じて決まるように設定することができる。例えば、走行路外の移動物体候補の感度閾値と比較して、より低い感度閾値を走行路内の移動物体候補に使用してもよい。次に、プロセッサ24は、ラベル付マップ領域に基づいた可変決定閾値(variable decision threshold)とともに、領域のサイズ、形状、及び動的特性に基づいて、分割された画像領域を物体として検出するように構成されてもよい。その後、プロセッサ24は、例えば、既知のカルマンフィルタ(Kalman filter)、又は、他の適切な既知のトラッカー(tracker)を用いて、移動経路を形成してもよい。最後のステップとして、プロセッサ24は、検出した物体及び移動経路をユーザに出力するように構成されてもよい。
移動物体の検出及び追跡処理の例を図7A〜7Cに示す。図7Aは、蓄積された差異画像を示す。図7Bは、例えば、閾値化及びモルフォロジー演算(morphological operations)を用いることにより、図7Aの蓄積した差異画像に処理を行った後の分割領域を示す。このようなモルフォロジー演算は、当該技術分野ではよく知られている。図7Cは、物体追跡の結果を示す。各対象追跡物体46は、例えば、特定色の楕円などの、当てはめが行われた楕円で示されてもよい。対象追跡物体46の過去の場所の履歴は、同じ色を用いて後方の点で示してもよい。
更に、画像等のレジストレーションが完了すると、プロセッサ24は、走行路メタデータを用いて、走行路以外の場所での検出に関する誤報を低減するように構成されてもよい。対象移動物体46が検出されると、本方法において、走行路メタデータを用いて誤報を除去するとともに検出漏れを低減するための図6Bのステップが実行される。画像毎の誤報数は、検索領域の面積にほぼ比例するため、誤報率は、走行路メタデータのみを用いることにより(検索領域を縮小することにより)低減される。走行路メタデータを用いて検索領域を縮小する場合、誤報率は低下するが、移動物体の検出率は変化しないと考えられる。感度閾値が低下すると移動物体の検出率が増加し、誤報率についても、走行路メタデータを用いて下げられた値から増加する。例えば、誤報率が、メタデータを用いない場合の比率から変化しないように、感度閾値を下げることができる。この場合、感度閾値が低下したことにより、検出率が上昇する。感度閾値を下げて、検索領域を縮小することにより、誤報率を一定に保つことができる。この方法において、蓄積された差異画像は、閾値化され、バイナリ画像に変換される。検索領域を縮小する場合、感度閾値を下げることにより、誤報率を一定に保つことができる。
ユーザは、対象移動物体46を検出するため、プロセッサ24に対して感度閾値Tを設定する。感度閾値Tの設定は、例えば、ユーザが、移動物体と、当該移動物体が重なっている構造物との間の画像におけるコントラストを所定のレベルに設定するか、又は、ユーザが移動物体に対して所定のピクセル数を設定することにより実現される。感度閾値Tは、基準マップ42から分かる領域であって、走行路が存在する領域では低く設定し、その他の走行路が存在しない領域では高く設定してもよい。例えば、プロセッサ24は、画像中の走行路又は建物よりも移動物体を暗く認識するように構成されてもよく、プロセッサ24は、画像中の走行路又は建物よりも移動物体を明るく認識するように構成されてもよい。或は、例えば、プロセッサ24は、走行路よりも移動物体のピクセル数が多いと認識するように構成されてもよい。しかしながら、ユーザが、あまりに低く感度閾値Tを設定した(移動物体と、当該移動物体が重なっている構造物との間のコントラスト量、又はピクセル数の違いが小さいことが要求される)場合、多くの物体がこの設定に適合するため、結果的に許容不可能な数の誤報が生じてしまう。しかしながら、ユーザが、あまりに高く感度閾値Tを設定した(移動物体と、当該移動物体が重なっている構造物との間のコントラスト量、又はピクセル数の違いが大きいことが要求される)場合、建物の影に入っている物体は、その物体と走行路との間において高レベルのコントラストを示さず、ピクセル数においても大きな違いを示さないため、結果的に検出漏れが生じてしまう。本発明においては、プロセッサ24によって、走行路メタデータがコンテキストとして用いられるため、走行路以外の領域における誤報を抑制することができる。また、同時に走行路における移動物体検出処理において、低い感度閾値が用いられるため、走行路における誤報も低減することができる。感度閾値を低くすることにより、移動物体検出処理の感度を効果的に高めることができる。図7Aから8Bに示す例において、検出される対象移動物体46は、通常、走行路上を走行し、通常、走行路を外れて走行しない乗り物である。
図8A及び8Bは、都市環境で撮影された画像44a、44b、44cを処理する際に直面しうる問題点を示す。高層ビル及び草木は、地上面(ground plane)に存在しないため、平面ホモグラフィを用いて位置合わせを行うことができない。結果として、2乗差演算を行うと、図8Aで見られるような、誤報及び検出漏れが生じる可能性がある。誤報は、画像中の、走行路を走行していない移動物体により生じうる。検出漏れは、対象移動物体が高層ビルの影に入ってしまい、撮像装置20及びプロセッサ24により容易に検出されない場合に生じうる。走行路メタデータを追加コンテキストとして用い、さらに、図6Bに示す方法を用いて、このような誤報及び検出漏れを軽減することができる。
上述したように、走行路メタデータは、走行路内の領域における移動物体検出処理の感度を高めるためにも用いることができる。図8Aに見られるように、移動している車は、高層ビルの影に隠れて検出されていない。これは、その領域において画像のコントラストが低いことに原因がある。走行路が存在する領域において、検出処理の感度閾値を下げることによって、この移動している運搬手段を検出することができる。
対象の移動物体が検出されると、プロセッサ24は、時間の経過と共に、対象移動物体46の位置を追跡するように構成されてもよい。これに代えて、対象移動物体46が検出されると、ユーザは、その特定の対象移動物体46を追跡するために、ユーザーインターフェース26を介してプロセッサ24に命令を入力してもよい。プロセッサ24は、外観、場所、速度等によって、連続する画像44a、44b、44cにおける対象移動物体46を検出するように構成されてもよい。
画像44a、44b、44cは、ジオレジストレーションされるため、検出された対象移動物体46は、正確な地理座標を有している。これにより、ユーザは、容易に対象の移動物体46を検出及び追跡することができる。
本発明は、画像44a、44b、44cにおいて複数の対象移動物体を検出及び追跡するために用いることができる。これら複数の対象移動物体は、画像44a、44b、44cにおいて、同じ走行路に存在してもよい。これに代えて、複数の対象移動物体のうち1つ又は複数の物体は、画像44a、44b、44cにおいて、1つの走行路に存在してもよく、複数の対象移動物体のうち別の1つ又は複数の物体は、画像44a、44b、44cにおいて、異なる走行路に存在してもよい。
本明細書において要旨の特定の態様を示して説明してきたが、本明細書の開示に基づいて、本明細書に記載された要旨及びその広範な態様から逸脱することなく変更および改変が可能であるということは、当業者には明らかであろう。したがって、添付する請求項の範囲は、本明細書に記載された要旨の真の思想及び範囲内において、そのような変更及び改変の全てを含むものとする。更に、本発明は、添付する請求項により定義されるということを理解されたい。したがって、本発明は、添付する請求項及びその均等物を考慮することを除いては限定されるものではない。

Claims (20)

  1. 物体をリアルタイムに検出する方法であって、
    撮像装置(20)を用いて、少なくとも1つの走行路を含む地理的領域についての連続する画像(44a、44b、44c)を撮影することと、
    地理基準マップ(42)に対して前記連続する画像(44a、44b、44c)のうち少なくともいくつかの画像についてジオレジストレーションを行うことと、を含み、前記地理基準マップ(42)は、前記地理的領域のコンテキスト情報を含み、
    前記連続する画像(44a、44b、44c)間での差異を計算することにより、リアルタイムで物体(46)を検出することを更に含む、方法。
  2. 前記連続する画像(44a、44b、44c)のうち、第1画像(44a)のジオレジストレーションは手動で行われる、請求項1に記載の方法。
  3. 走行路を含む前記地理的領域の画像を取得することを更に含む、請求項1又は2に記載の方法。
  4. 前記コンテキスト情報は走行路メタデータである、請求項1、2、又は3に記載の方法。
  5. 前記走行路は道路である、請求項1〜4のいずれかに記載の方法。
  6. 前記撮像装置(20)は、空中輸送手段に位置する、請求項1〜5のいずれかに記載の方法。
  7. 連続する画像(44a、44b、44c)は、前記地理的領域について少なくとも1つのビデオシーケンスを撮影することにより生成され、前記方法は、前記ビデオシーケンスを前記連続する画像(44a、44b、44c)に分割することを更に含む、請求項1〜6のいずれかに記載の方法。
  8. 平面ホモグラフィは、前記基準マップ(42)上で前記連続する画像(44a、44b、44c)について相対的にジオレジストレーションを行うために用いられる、請求項1〜7のいずれかに記載の方法。
  9. 前記コンテキスト情報を用いて、走行路外に存在する移動物体(46)の誤検出を抑制することを更に含む、請求項1〜8のいずれかに記載の方法。
  10. 前記コンテキスト情報を用いて、走行路内に存在する移動物体(46)を検出することを更に含む、請求項1〜9のいずれかに記載の方法。
  11. 前記基準マップ(42)に従って、前記連続する画像(44a、44b、44c)のうち1つについて追加的にジオレジストレーションを行うことにより、前記レジストレーションにおける誤差を低減することを更に含む、請求項1〜10のいずれかに記載の方法。
  12. 前記移動物体の位置を追跡することを更に含む、請求項1〜11のいずれかに記載の方法。
  13. 地理的領域において、走行路上の移動物体のリアルタイム検出を行うためのシステムであって、
    地理的領域の連続する画像(44a、44b、44c)を撮影するための撮像装置(20)と、
    前記地理的領域のコンテキスト情報を含む地理基準マップ(42)と、
    連続する画像(44a、44b、44c)間の差異を計算し、前記走行路上の移動物体(46)をリアルタイムで検出するように構成されているプロセッサ(24)と、を備えるシステム。
  14. 前記撮像装置(20)は、ビデオカメラである、請求項13に記載のシステム。
  15. 前記地理基準マップ(42)は、メタデータを含むマップである、請求項13に記載のシステム。
  16. 前記移動物体(46)は運搬手段であり、前記走行路は道路である、請求項13に記載のシステム。
  17. 前記撮像装置(20)は、空中輸送手段における空中プラットフォームに搭載されている、請求項13〜16に記載のシステム。
  18. 前記空中輸送手段は無人である、請求項13〜17のいずれかに記載のシステム。
  19. 前記地理基準マップ(42)は、前記プロセッサ(24)から離れたサーバ(28)に格納されている、請求項13〜18のいずれかに記載のシステム。
  20. 前記プロセッサ(24)は、更に、前記移動物体(46)の位置を追跡するように構成されている、請求項13〜19のいずれかに記載のシステム。
JP2015062049A 2014-04-08 2015-03-25 走行路メタデータを用いた空中写真/映像におけるコンテキスト・アウェア物体検出 Active JP6726932B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/247,398 US9734399B2 (en) 2014-04-08 2014-04-08 Context-aware object detection in aerial photographs/videos using travel path metadata
US14/247,398 2014-04-08

Publications (2)

Publication Number Publication Date
JP2015201183A true JP2015201183A (ja) 2015-11-12
JP6726932B2 JP6726932B2 (ja) 2020-07-22

Family

ID=52462808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015062049A Active JP6726932B2 (ja) 2014-04-08 2015-03-25 走行路メタデータを用いた空中写真/映像におけるコンテキスト・アウェア物体検出

Country Status (6)

Country Link
US (1) US9734399B2 (ja)
EP (1) EP2930686B1 (ja)
JP (1) JP6726932B2 (ja)
KR (1) KR102400452B1 (ja)
CN (1) CN104978390B (ja)
BR (1) BR102015003962B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018537335A (ja) * 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の飛行を制御する方法及びシステム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106851306B (zh) 2011-01-12 2020-08-04 太阳专利托管公司 动态图像解码方法和动态图像解码装置
WO2012117728A1 (ja) 2011-03-03 2012-09-07 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
JP2013055569A (ja) * 2011-09-06 2013-03-21 Sony Corp 撮像装置、情報処理装置、それらの制御方法、および、プログラム
US11080765B2 (en) * 2013-03-14 2021-08-03 Igor Gershteyn Method and system for data structure creation, organization and searching using basic atomic units of information
AU2016350155B2 (en) * 2015-11-08 2021-08-19 Agrowing Ltd A method for aerial imagery acquisition and analysis
US10248839B2 (en) * 2015-11-30 2019-04-02 Intel Corporation Locating objects within depth images
CN105512685B (zh) * 2015-12-10 2019-12-03 小米科技有限责任公司 物体识别方法和装置
US10670418B2 (en) * 2016-05-04 2020-06-02 International Business Machines Corporation Video based route recognition
US10054445B2 (en) * 2016-05-16 2018-08-21 Northrop Grumman Systems Corporation Vision-aided aerial navigation
IL248749B (en) * 2016-11-03 2019-08-29 Dan El Eglick A system for looking at using several databases
US10560666B2 (en) * 2017-01-21 2020-02-11 Microsoft Technology Licensing, Llc Low-cost, long-term aerial imagery
US10209089B2 (en) 2017-04-03 2019-02-19 Robert Bosch Gmbh Automated image labeling for vehicles based on maps
CN108176049B (zh) * 2017-12-28 2021-05-25 珠海豹好玩科技有限公司 一种信息提示方法、装置、终端和计算机可读存储介质
US10445913B2 (en) * 2018-03-05 2019-10-15 Faro Technologies, Inc. System and method of scanning and editing two dimensional floorplans
US11195324B1 (en) 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures
CN110349173B (zh) * 2019-07-15 2020-07-24 长光卫星技术有限公司 基于高分辨率遥感影像的地物变化监测方法
US11200671B2 (en) * 2019-12-31 2021-12-14 International Business Machines Corporation Reference image guided object detection in medical image processing
CN111619584B (zh) * 2020-05-27 2021-09-21 北京经纬恒润科技股份有限公司 一种无人驾驶汽车的状态监管方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
KR100489890B1 (ko) * 2002-11-22 2005-05-17 한국전자통신연구원 스테레오 비디오 또는/및 지리객체의 상세정보 제공 장치및 그방법
WO2009158494A1 (en) * 2008-06-26 2009-12-30 Lynntech, Inc. Method of searching for a thermal target
WO2011133845A2 (en) * 2010-04-22 2011-10-27 Bae Systems Information And Electronic Systems Integration Inc. Situational awareness integrated network and system for tactical information and communications
US10645344B2 (en) 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
US9746988B2 (en) * 2011-05-23 2017-08-29 The Boeing Company Multi-sensor surveillance system with a common operating picture
US20130021475A1 (en) * 2011-07-21 2013-01-24 Canant Ross L Systems and methods for sensor control
US8958945B2 (en) * 2012-02-07 2015-02-17 Ge Aviation Systems Llc System and methods for maintaining and operating an aircraft
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018537335A (ja) * 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の飛行を制御する方法及びシステム
US10670407B2 (en) 2015-12-09 2020-06-02 SZ DJI Technology Co., Ltd. Systems and methods for auto-return
US11300413B2 (en) 2015-12-09 2022-04-12 SZ DJI Technology Co., Ltd. Systems and methods for auto-return
US11879737B2 (en) 2015-12-09 2024-01-23 SZ DJI Technology Co., Ltd. Systems and methods for auto-return

Also Published As

Publication number Publication date
KR20150116777A (ko) 2015-10-16
BR102015003962A2 (pt) 2016-07-26
KR102400452B1 (ko) 2022-05-19
EP2930686A1 (en) 2015-10-14
EP2930686B1 (en) 2020-09-02
US9734399B2 (en) 2017-08-15
CN104978390B (zh) 2020-11-03
CN104978390A (zh) 2015-10-14
JP6726932B2 (ja) 2020-07-22
US20150286868A1 (en) 2015-10-08
BR102015003962B1 (pt) 2021-06-01

Similar Documents

Publication Publication Date Title
JP6726932B2 (ja) 走行路メタデータを用いた空中写真/映像におけるコンテキスト・アウェア物体検出
KR101647370B1 (ko) 카메라 및 레이더를 이용한 교통정보 관리시스템
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2019145089A (ja) 点群データを融合させるための方法及び装置
JP6589926B2 (ja) 物体検出装置
KR101261409B1 (ko) 영상 내 노면표시 인식시스템
JP6632474B2 (ja) 監視装置、監視方法及び空港監視システム
JP6524529B2 (ja) 建築限界判定装置
CN108692701B (zh) 基于粒子滤波器的移动机器人多传感器融合定位方法
JP2019078700A (ja) 情報処理装置および情報処理システム
JP2015194397A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
JP6647171B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN111353453A (zh) 用于车辆的障碍物检测方法和装置
CN105716625A (zh) 用于在飞行器的监测传感器的操作期间自动地检测失准的方法和系统
CN114419165B (zh) 相机外参校正方法、装置、电子设备和存储介质
US20160035107A1 (en) Moving object detection
CN111553342B (zh) 一种视觉定位方法、装置、计算机设备和存储介质
KR102195040B1 (ko) 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
CN110660113A (zh) 特征地图的建立方法、装置、采集设备和存储介质
CN112985388A (zh) 基于大位移光流法的组合导航方法及系统
US11741631B2 (en) Real-time alignment of multiple point clouds to video capture
JP2019132701A (ja) 地図情報作成方法
JP6847420B2 (ja) 速度推定装置、速度推定方法、及び速度推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200630

R150 Certificate of patent or registration of utility model

Ref document number: 6726932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250