JP6950273B2 - 飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラム - Google Patents

飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラム Download PDF

Info

Publication number
JP6950273B2
JP6950273B2 JP2017097949A JP2017097949A JP6950273B2 JP 6950273 B2 JP6950273 B2 JP 6950273B2 JP 2017097949 A JP2017097949 A JP 2017097949A JP 2017097949 A JP2017097949 A JP 2017097949A JP 6950273 B2 JP6950273 B2 JP 6950273B2
Authority
JP
Japan
Prior art keywords
flying object
camera
unit
epipolar line
same
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017097949A
Other languages
English (en)
Other versions
JP2018195965A (ja
Inventor
重哲 並木
重哲 並木
祐司 岡本
祐司 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017097949A priority Critical patent/JP6950273B2/ja
Publication of JP2018195965A publication Critical patent/JP2018195965A/ja
Application granted granted Critical
Publication of JP6950273B2 publication Critical patent/JP6950273B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラムに関し、特に複数のカメラを用いて飛行物体の位置を検出する飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラムに関する。
近年、空港や風力発電設備に鳥などが侵入し航空機や風車へ衝突するバードストライクが社会的に大きな問題になってきている。これらの重要施設においてはバードストライク防止のため、侵入する鳥類などの飛行物体を検出する飛行物体位置検知装置が設置されている。
飛行物体位置検知装置は、例えば、重要施設に侵入する飛行物体をカメラにより撮像し、その飛行物体が鳥類であると判断すると、その飛行物体を撮像した画像を表示する。このような方式のものは、設置が比較的容易であるとともに、直接目視して判断結果の正しさを確認できるというメリットがある。
例えば特許文献1に、この種の鳥類個体識別用撮影装置が開示されている。特許文献1に開示される撮影装置は、望遠レンズよりも相対的に広範囲を撮影可能なレンズ、好ましくは対角線画角60度以上の広角レンズ又は超広角レンズを備えた第1カメラと、望遠レンズを備えた第2カメラを備えている。撮影装置は、第1カメラの撮影領域中に目的とする被写体(例えば、鳥類)が侵入すると、第1カメラから送信される画像データを読み取って、該被写体が捉えられたと判定し、続いて、被写体の空間位置座標(x座標、y座標)を求める。そして撮影装置は、求めた空間位置座標の情報を用いて、第2カメラの設置点を基準とした仰角及び水平角を求め、第2カメラの望遠レンズを被写体の空間位置座標に向かせる。
特開2010−219822号公報
特許文献1の撮影装置は、第1カメラの撮影のみで被写体の空間位置座標を求め、その空間位置座標の情報を用いて、第2カメラの仰角及び水平角を求める構成となっている。しかしながら特許文献1には、被写体のz座標や第二カメラのズーム値をどのように設定するかは開示されていないことから特許文献1の撮影装置は、第1カメラから被写体までの距離を所定の狭い範囲に限定することで被写体の空間位置座標を求めていると考えられる。撮影対象領域が広範囲であり第1カメラから被写体までの距離が大きく異なる場合でも被写体の3次元位置を測定できる構成は特許文献1には開示されていない。
本発明はこのような問題点に鑑みてなされたものであり、複数のカメラを用いて飛行物体の位置を検出する飛行物体位置検知装置において、対象領域が広範囲であっても飛行物体の3次元位置を高精度に測定することができる飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラムを提供することを目的の1つとする。
上記課題を解決するため、本発明の1側面による飛行物体位置検知装置は、第1カメラから取得した第1画像中の第1飛行物体を検出する第1飛行物体位置検出部と、前記第1カメラからみた前記第1飛行物体の方向を示すエピポーラ線を求めるエピポーラ線算出部と、前記第2カメラが前記エピポーラ線に沿って撮影を行うよう前記第2カメラを制御する第2カメラ制御部と、前記第2カメラから取得した第2画像中の第2飛行物体を検出する第2飛行物体位置検出部と、前記第2飛行物体と前記第1飛行物体が同一か判断する同一判断部と、前記第2飛行物体と前記第1飛行物体が同一であると判断した場合、前記第2飛行物体の位置を前記第2カメラの向きと前記エピポーラ線とから算出する位置算出部と、を有する。
また本発明の他の1側面による飛行物体位置検知システムは、監視領域の画像を撮影する第1カメラと、前記監視領域を前記第1カメラと異なる向きで撮影する第2カメラと、上記飛行物体位置検知装置と、を有する。
また本発明の他の1側面による飛行物体位置検知方法は、第1カメラから取得した第1画像中の第1飛行物体を検出し、前記第1カメラからみた前記第1飛行物体の方向を示すエピポーラ線を求め、前記第2カメラが前記エピポーラ線に沿って撮影を行うよう前記第2カメラを制御し、前記第2カメラから取得した第2画像中の飛行物体を検出し、前記第2飛行物体と前記第1飛行物体が同一か判断し、前記第2飛行物体と前記第1飛行物体が同一であると判断した場合、前記第2飛行物体の位置を前記第2カメラの向きと前記エピポーラ線とから算出する。
また本発明の他の1側面によるプログラムは、コンピュータに、第1カメラから取得した第1画像中の第1飛行物体を検出する処理と、前記第1カメラからみた前記第1飛行物体の方向を示すエピポーラ線を求める処理と、前記第2カメラが前記エピポーラ線に沿って撮影を行うよう前記第2カメラを制御する処理と、前記第2カメラから取得した第2画像中の第2飛行物体を検出する処理と、前記第2飛行物体と前記第1飛行物体が同一か判断する処理と、前記第2飛行物体と前記第1飛行物体が同一であると判断した場合、前記第2飛行物体の位置を前記第2カメラの向きと前記エピポーラ線とから算出する処理と、を実行させる。
本発明の他の1側面による飛行物体位置検知装置は、複数の第1カメラから取得した複数の第1画像中の第1飛行物体をそれぞれ検出する複数の第1飛行物体位置検出部と、前記第1飛行物体を検出した第1飛行物体位置検出部の1つを選択する選択部と、選択された第1飛行物体位置検出部の1つに対応する第1カメラからみた、選択された前記第1飛行物体位置検出部に検出された第1飛行物体の方向を示すエピポーラ線を求めるエピポーラ線算出部と、前記第2カメラが前記エピポーラ線に沿って撮影を行うよう前記第2カメラを制御する第2カメラ制御部と、前記第2カメラから取得した第2画像中の第2飛行物体を検出する第2飛行物体位置検出部と、前記第2飛行物体と前記第1飛行物体が同一か判断する同一判断部と、前記第2飛行物体と前記第1飛行物体が同一であると判断した場合、前記第2飛行物体の位置を前記第2カメラの向きと前記エピポーラ線とから算出する位置算出部と、を有する。
本発明の他の1側面による飛行物体位置検知システムは、監視領域の画像を撮影する複数の第1カメラと、前記監視領域を前記複数の第1カメラと異なる向きで撮影する第2カメラと、上記飛行物体位置検知装置と、を有する。
本発明の上記側面によれば、複数のカメラを用いて飛行物体の位置を検出する飛行物体位置検知装置において、対象領域が広範囲であっても飛行物体の3次元位置を高精度に測定することができる。
図1は、第1の実施形態の構成を示すブロック図である。 図2は、図1の第2カメラ制御部の動作を示す説明図である。 図3は、図1の第1カメラ及び第2カメラによる飛行物体の画像の一例を示す図である。 図4は、図1の第1カメラ及び第2カメラによる飛行物体の画像の周期的変化の一例を示す図である。 図5は、図1の第1カメラ及び第2カメラで検知された飛行物体の飛翔パターンの一例を示す図である。 図6は、図1の動作を示すフローチャートである。 図7は、第2の実施形態の第1カメラ及び第2カメラの配置を示す図である。 図8は、第2の実施形態の構成を示すブロック図である。 図9は、第3の実施形態の構成を示すブロック図である。 図10は、各実施形態の各部の機能を実現するコンピュータの構成を示すブロック図である。
図1は、第1の実施形態の構成を示すブロック図である。図1に示すように、飛行物体位置検知システム1は、監視領域の画像を撮影する第1カメラ11と、第1カメラ11の撮影領域を第1カメラ11と異なる向きに設置された第2カメラ12と、飛行物体位置検知装置20を備えている。本実施形態は、空港における滑走路離着陸エリアを監視エリアとした飛行物体位置検知システムの実施形態である。
第1カメラ11は広角高解像度カメラであり、図示しない固定台に設置され、空港における滑走路離着陸エリアの一定の方位を定点監視するか、または任意の方位・仰角に旋回して映像を撮影する。第1カメラ11は、例えば毎秒60フレームの周期で画像を継続的に撮影し、撮影した撮像画像を有線または無線により飛行物体位置検知装置20へ伝送する機能を持つ。
また第2カメラ12は、PTZ動作の指令を受信した場合、パン/チルト/ズーム動作(以降、PTZ動作と呼称する)を行うことが可能な、いわゆるPTZカメラである。第2カメラ12は、第1カメラ11と同様、図示しない固定台に設置され、空港における滑走路離着陸エリアの一定の方位を定点監視するか、または任意の方位・仰角に旋回して映像を撮影する。第2カメラ12は、第1カメラ11と同様、例えば毎秒60フレームの周期で画像を継続的に撮影し、撮影した撮像画像を有線または無線により飛行物体位置検知装置20へ伝送する機能を持つ。
飛行物体位置検知装置20は、第1カメラ11から取得した画像中の飛行物体(以下、第1飛行物体ともいう)を検出する第1飛行物体位置検出部21と、エピポーラ線算出部22と、エピポーラ線に沿って第2カメラ12の向きを制御する第2カメラ制御部23を備えている。第1飛行物体位置検出部21が第1カメラ11から取得した画像中に飛行物体が存在することを検出すると、エピポーラ線算出部22に第1カメラ11から取得した画像中に存在する飛行物体の情報を送信する。また第1飛行物体位置検出部21は、第1カメラ11から取得した画像中に飛行物体が存在することを検出すると、同一判断部25に第1カメラ11から取得した画像中に存在する飛行物体の画像を送信する。
第1飛行物体位置検出部21から第1飛行物体の情報を受信すると、エピポーラ線算出部22は、第1カメラ11からみた飛行物体の方向を示すエピポーラ線、すなわち第1カメラ11と飛行物体の2点を通る直線を求める。エピポーラ線算出部22は、求めたエピポーラ線を第2カメラ制御部23に送信する。
第2カメラ制御部23は、エピポーラ線算出部22からエピポーラ線を受信すると、第2カメラ12がエピポーラ線に沿って撮影を行うよう第2カメラ12を制御する。第2カメラ制御部23は、第2カメラ12がエピポーラ線に沿って、例えば第1カメラ11から離れた端から撮影していく。ただし、時間経過とともに飛行物体が移動していくため、エピポーラ線算出部22は、飛行物体の移動にともなってエピポーラ線を推移させていく。第2カメラ制御部23は、飛行物体の移動に伴って推移するエピポーラ線に沿って第2カメラ12の撮影範囲を走査させていき、後述の第2飛行物体位置検出部24に飛行物体を探索させる。
図2は、図1の第2カメラ制御部23の動作を示す説明図である。図2に示すように、例えば時刻t、t+τ、t+2τにおいてエピポーラ線算出部22から受信するエピポーラ線は、第1カメラで検出されている飛行物体が移動するため、異なる直線となる。まず第2カメラ制御部23は、時刻tにおいてその時のエピポーラ線上であって、第1カメラ11から離れた領域を撮影するよう第2カメラ12を制御する。次に時刻t+τでは、第2カメラ制御部23は、その時のエピポーラ線上であって、エピポーラ線に沿って時間τに対応する距離の分、第1カメラ11に近づいた領域を撮影するよう第2カメラ12を制御する。
時刻t+2τでは、第2カメラ制御部23は、さらに時間τに対応する距離の分その時のエピポーラ線に沿って第1カメラ11に近づいた領域を撮影するよう第2カメラ12を制御する。
図1に戻り、第1の実施形態の構成をさらに説明する。飛行物体位置検知装置20は、第2カメラ12から取得した画像中の飛行物体(以下、第2飛行物体ともいう)を検出する第2飛行物体位置検出部24と、第1飛行物体と第2飛行物体が同一か判断する同一判断部25と、第1飛行物体と第2飛行物体が同一と判断された場合にその位置を算出する位置算出部26を備えている。
第2飛行物体位置検出部24は、第2カメラ12から取得した画像中に飛行物体が存在することを検出すると、同一判断部25に第2カメラ12から取得した画像中に存在する飛行物体の画像を送信する。
同一判断部25は、まず第1カメラ11から取得した画像中に存在する第1飛行物体の画像を第1飛行物体位置検出部21から受信する。その後、第2カメラ12から取得した画像中に存在する第2飛行物体の画像を第2飛行物体位置検出部24から受信すると、第1飛行物体と第2飛行物体が同一か判断する。
第1飛行物体と第2飛行物体が同一と判断すると、同一判断部25は、第1カメラからみた第1飛行物体の方向及び第2カメラからみた第2飛行物体の方向を、位置算出部26に送信する。なお位置算出部26は、第1カメラからみた第1飛行物体の方向は、エピポーラ線算出部22から取得してもよいし、第2カメラからみた第2飛行物体の方向は第2カメラ制御部23から取得してもよい。
同一判断部25から第1カメラからみた第1飛行物体の方向及び第2カメラからみた第2飛行物体の方向を受信すると、位置算出部26は、これらと、予め測定され記憶している第1カメラ11及び第2カメラ12の位置とに基づいて、三角測量の原理により飛行物体の位置を算出する。
ここで同一判断部25の、第1飛行物体と第2飛行物体が同一か判断する動作について説明する。第1カメラ11と第2カメラ12のベースライン(第1カメラ11と第2カメラ12の間の距離)が離れており、また、カメラの向きが異なる場合、例えば、飛行物体が鳥である場合には、第1カメラ11が撮影した飛行物体の画像と第2カメラ12が撮影した飛行物体の画像は大きく異なっており、形状特徴等から同一物体であるかどうかを識別することが難しい。
図3は、図1の第1カメラ11及び第2カメラ12による飛行物体の画像の一例を示す図である。図3は、例えば飛行物体が鳥であり、第1カメラ11が鳥の飛行方向前方から鳥を撮影し、第2カメラ12が鳥の飛行方向左側から鳥を撮影する場合の第1カメラ11による飛行物体の画像と第2カメラ12による飛行物体の画像の例を示している。
飛行物体が鳥である場合、飛行物体の画像は鳥の羽ばたきに応じて、周期的に一定のパターンで変化する。図4は、図1の第1カメラ11及び第2カメラ12による飛行物体の画像の周期的変化の一例を示す図である。図4に示すように、飛行物体の進行方向に垂直な方向について、鳥の胴体部分の中心から最も離れた鳥の外形の頂点を算出すると、この頂点位置は鳥の羽ばたきに応じて、上下に(正負に)周期的に変化する。以下、この飛行物体の進行方向に対する垂直方向の外形の頂点位置の周期的な変化パターンは飛翔パターンと呼称される。
図6は、図1の第1カメラ11及び第2カメラ12で検知された飛行物体の飛翔パターンの一例を示す図である。飛翔パターンの振幅は、カメラと鳥との距離や撮影する角度に応じて変動するが、飛翔パターンの周期や位相はカメラと鳥との距離や撮影する角度に依存しない。そのため、飛行物体が鳥である場合、第1カメラで検知された飛行物体の飛翔パターンの周期及び位相と第2カメラで検知された飛行物体の飛翔パターンの周期及び位相の類似度により同一の飛行物体か判断することができる。
そこで同一判断部25は、まず第1飛行物体及び第2飛行物体の画像を受信したとき形状変化があるか判断し、形状変化があると判断した場合は、第1飛行物体及び第2飛行物体の飛翔パターンを生成する。すなわち同一判断部25は、第1飛行物体及び第2飛行物体の一連の画像から飛行物体の進行方向に垂直な方向について、一連の画像が撮影された各時刻で鳥の胴体部分の中心から最も離れた鳥の外形の頂点を算出し、第1飛行物体及び第2飛行物体の飛翔パターンを生成する。そして第1飛行物体の飛翔パターンと第2飛行物体の飛翔パターンの周期及び位相が一致又は類似しているか判断し、一致又は類似していると判断した場合、第1飛行物体と第2飛行物体が同一と判断する。
なお、上記の飛翔パターンの計算方法は、あくまで一例である。飛翔パターンの計算方法は、上記の方式に限らず、周期的な変動を捕らえるものであれば何でもよい。例えば、飛翔パターンの計算方法は、飛行物体の画像領域の縦横比の周期的な変動をとらえるものであってもよい。
また、同一判断部25は、飛行物体がドローン等のように、形状やサイズの変化がない飛行物体の場合、上記と異なる動作により第1飛行物体と第2飛行物体が同一か判断する。例えば同一判断部25は、まず第1飛行物体及び第2飛行物体の画像を受信したとき形状変化があるか判断し、形状変化がないと判断した場合は、仮に第1飛行物体と第2飛行物体が同一であるとして位置算出部26に仮の3次元位置を算出させる。すなわち、同一判断部25は、第1カメラからみた第1飛行物体の方向及び第2カメラからみた第2飛行物体の方向を位置算出部26に送信し、位置算出部26は、これらに基づいて仮の3次元位置を算出して同一判断部25に送信する。次に同一判断部25は、算出された仮の3次元位置に基づいて第1飛行物体の第1物体サイズ及び第2飛行物体の第2物体サイズを算出する。そして同一判断部25は、算出された仮の第1物体サイズ及び第2物体サイズが一致又は類似であるか判断し、一致又は類似であると判断した場合、第1飛行物体と第2飛行物体が同一と判断する。
なお第1の実施形態及び後述の各実施形態の飛行物体位置検知システムの各構成要素は、機能単位のブロックを示している。本実施形態の飛行物体位置検知システムの各構成要素の一部又は全部は、例えば図10に示すようなコンピュータ100とプログラムとの任意の組み合わせにより実現されてもよい。コンピュータ100は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)101
・ROM(Read Only Memory)102
・RAM(Random Access Memory)103
・RAM103にロードされるプログラム104
・プログラム104を格納する記憶装置105
・記録媒体106の読み書きを行うドライブ装置107
・通信ネットワーク109と接続する通信インターフェース108
・データの入出力を行う入出力インターフェース110
・各構成要素を接続するバス111
本実施形態の飛行物体位置検知システムの各構成要素の機能は、これらの機能を実現するプログラム104をCPU101が取得して実行することで実現される。各装置の各構成要素の機能を実現するプログラム104は、例えば、予め記憶装置105やROM102やRAM103に格納されており、必要に応じてCPU101が読み出す。
なお、プログラム104は、通信ネットワーク109を介してCPU101に供給されてもよいし、予め記録媒体106に格納されており、ドライブ装置107が当該プログラムを読み出してCPU101に供給してもよい。
飛行物体位置検知システムの各構成要素の機能の実現方法には、様々な変形例がある。例えば、飛行物体位置検知システムの各構成要素の機能は、構成要素毎にそれぞれ別個のコンピュータとプログラムとの任意の組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素の機能が、一つのコンピュータとプログラムとの任意の組み合わせにより実現されてもよい。
また、飛行物体位置検知システムの各構成要素の一部又は全部は、その他の汎用または専用の回路(circuitry)、プロセッサ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。また各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
飛行物体位置検知システムの各構成要素の一部又は全部が複数のコンピュータや回路等により実現される場合には、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、コンピュータや回路等は、各々が通信ネットワークを介して接続される形態として実現されてもよい。
次に本実施形態の動作について説明する。図6は、図1の動作を示すフローチャートである。図6に示すように、まず第1カメラ11により監視領域が撮影されると第1飛行物体位置検出部21がその画像を第1カメラ11から取得し、取得した画像中に存在する飛行物体(第1飛行物体)を検出する(ステップS1)。
次にエピポーラ線算出部22が第1カメラ11からみた飛行物体の方向を示すエピポーラ線を求める(ステップS2)。
次に第2カメラ12がエピポーラ線に沿って撮影を行うよう第2カメラ制御部23が第2カメラを制御する(ステップS3)。例えば、第2カメラ制御部23は、第1カメラ11から遠い位置からエピポーラ線に沿って走査するよう第2カメラにPTZ指令を送信する。
そして第2カメラ12が撮影した画像を第2飛行物体位置検出部24が取得し、その画像中の飛行物体(第2飛行物体)を検出する(ステップS4)。
飛行物体が検出されると同一判断部25は第1カメラ11が撮影した画像中の飛行物体(第1飛行物体)と第2カメラ12が撮影した画像中の飛行物体(第2飛行物体)が同一か判断する(ステップS5)。
ステップS5において、第1飛行物体と第2飛行物体が同一でないと判断されると、ステップS3に戻り、ステップS4で飛行物体を検出した領域に続く領域から第2カメラ12がエピポーラ線に沿って撮影を行うよう第2カメラ制御部23が第2カメラを制御する。
ステップS5において、第1飛行物体と第2飛行物体が同一と判断されると、位置算出部26は、第1カメラからみた第1飛行物体の方向と、第2カメラからみた第2飛行物体の方向を取得する。そして、位置算出部26は、予め測定され記憶している第1カメラ11及び第2カメラ12の位置と、第1カメラからみた第1飛行物体の方向と、第2カメラからみた第2飛行物体の方向に基づいて、三角測量の原理により飛行物体の位置を算出する。(ステップS6)。
以上説明したように、本実施形態によれば、第1カメラ11の画像中に飛行物体を検出すると、第1カメラ11からみた飛行物体の方向を示すエピポーラ線が求められ、第2カメラ12がエピポーラ線に沿って撮影を行うよう制御される。この構成により、第1カメラ11と第2カメラ12が離れて設置されても第2カメラ12が飛行物体を見失うおそれは少なく、対象領域が広範囲であっても飛行物体の3次元位置を高精度に測定することができる。
次に第2の実施形態について説明する。図7は、第2の実施形態の第1カメラ及び第2カメラの設置例を示す図である。図7に示すように、本実施形態の飛行物体位置検知システムでは、第1カメラ11が複数の重点監視領域についてそれぞれ1台ずつ設置されるのに対し、1台の第2カメラ12が、各重点監視領域を撮影範囲に含むように設置されている。
図8は、第2の実施形態の構成を示すブロック図である。図8に示すように、本実施形態の飛行物体位置検知システム2は、第1カメラ11を複数備え、飛行物体位置検知装置27の第1飛行物体位置検出部28に複数の第1カメラが接続される。第1飛行物体位置検出部28は、優先順位にしたがって複数の第1カメラ11を順次切り替え、選択された1台の第1カメラ11から取得した画像について飛行物体が存在するか判断する。優先順位は、例えば空港の場合、飛行物体が検出されている第1カメラ11のうち離着陸予定時刻が近い監視エリアを撮影する第1カメラ11を優先して選択してもよい。第1飛行物体位置検出部28は、所定時間、飛行物体が検出されない場合は、次の優先順位の第1カメラ11を選択する。
第1飛行物体位置検出部28は、選択した第1カメラ11から取得した画像中に飛行物体が存在することを検出すると、第1カメラ11の切り替えを停止する。
その後、第1飛行物体位置検出部28は、第1の実施形態と同様に、エピポーラ線算出部22に選択された第1カメラ11から取得した画像中に存在する飛行物体の情報を送信する。また第1飛行物体位置検出部21は、選択された第1カメラ11から取得した画像中に飛行物体が存在することを検出すると、同一判断部25に選択された第1カメラ11から取得した画像中に存在する飛行物体の画像を送信する。
エピポーラ線算出部22と、第2カメラ制御部23と、第2飛行物体位置検出部24と、同一判断部25と、位置算出部26は、第1の実施形態と同様に動作する。同一判断部25は、第1飛行物体と第2飛行物体が同一と判断し、その後、位置算出部26が飛行物体の位置を算出したことを検知して、第1飛行物体位置検出部28に飛行物体の位置を算出したことを通知する。
第1飛行物体位置検出部28は、飛行物体位置の算出通知を受信してから所定時間、飛行物体を検知しなければ第1カメラ11の切り替えを再開する。
なお図8では第1飛行物体位置検出部28が第1カメラからの入力を順次切り替える構成として説明したが、これに限らず、例えば第1カメラ11と同数の第1飛行物体位置検出部28を備え、エピポーラ線算出部22が、複数の第1飛行物体位置検出部28からの入力を順次切り替える構成としてもよい。さらにエピポーラ線算出部22も第1カメラ11及び第1飛行物体位置検出部28と同数備え、第2カメラ制御部23が複数のエピポーラ線算出部22からの入力を順次切り替える構成としてもよい。
本実施形態では、第1の実施形態と同様の効果を持つと共に、複数の重点監視領域のすべての地点にそれぞれ1台ずつ第1カメラを設置すればよく、それぞれに第1カメラと第2カメラを設置する必要がない。したがって本実施形態によれば、複数の広範囲な重点監視領域を監視する場合でも少ない台数で飛行物体を検出することができ、設置・運用・保守コストを抑えることが可能となる。
次に第3の実施形態について図面を参照して詳細に説明する。図9は、本発明の第3の実施形態の構成を示す図である。
本実施形態の第1飛行物体位置検出部31は、入力処理部311、検出部312、方向抽出部313、追跡処理部314、記憶部315を備えている。
入力処理部311は、1台以上の第1カメラ11が接続される。複数の第1カメラ11が接続される構成では、入力処理部311は、第2実施形態と同様に、優先順位にしたがって複数の第1カメラ11を順次切り替え、選択された1台の第1カメラ11から取得した画像についてから伝送された撮像画像を受信する。入力処理部311は、ファーストイン・ファーストアウト方式により常時3フレーム分の画像データを基にローリング・シャッタ現象に起因する映像の乱れを補正して検出部312に出力する。
検出部312は、連続した3フレームの画像の差分情報から動いている物体の輪郭線を抽出する。また、検出部312は、この動いている物体の撮影時刻、位置、大きさ、画像、及び輝度勾配のヒストグラムであるHOG(Histograms of Oriented Gradients)特徴量をひとまとめにして第1カメラ11の飛行物体候補情報として記憶部315内に記録する。より詳細には、検出部312は、第1カメラ11から入力した撮像画像をもとに、連続した、または時系列的に一定間隔に抜き出した3枚の画像(それぞれフレームn−1,n,n+1とする)を輝度で2値化した上で、それぞれ差分画像m=n−(n−1)、m+1=(n+1)−nを生成する。さらに検出部312は、mとm+1の積画像D=m*(m+1)を生成することにより、3枚の元画像から飛行物体候補である動体を抽出する。積画像D上で抽出された動体については、検出部332は、それぞれ積画像D上での重心位置と形状、及び大きさを予め設定した基準値に正規化した上でHOG特徴量を計算し、飛行物体候補情報として記憶部315に記録する。
また検出部312は、飛行物体候補情報のHOG特徴量をもとに、多クラスのSVM(Support Vector Machine)やニューラルネットワーク等の原理に基づく多値判別器により物体の種類を判定して第1飛行物体を検出する。検出部312は、例えば、動いている物体が鳥かもしくはその他の物体(航空機やドローン等)か、背景(樹木の揺れ、海面の白波、車両等)かを判定する。
多値判別器の判別基準の学習には記憶部315内に記録された飛行物体判別ライブラリに収められた過去に得られた鳥やその他の物体(航空機、ドローン等)、背景の画像のHOG特徴量データベースが利用される。より詳細には、各飛行物体候補情報に対し、飛行物体判別ライブラリから生成された閾値を基準とする多値判別器を適用することで当該飛行物体候補情報が飛行物体か否かの判定を行う。
上記判定で飛行物体以外の物体と判断されたものは飛行物体候補情報を削除する。また飛行物体と判断されたものは、後段の処理へ廻される。
方向抽出部313は、第1カメラ11からみた第1飛行物体の方向、すなわち、仰角および方位角を算出する。より詳細には、方向抽出部313は、飛行物体候補情報に含まれる飛行物体の画像中の位置に対し、第1カメラ11の外部パラメータ(設置位置・向き)および内部パラメータ(撮像素子の主点位置・傾き・およびレンズの焦点距離・レンズの歪み)から、第1カメラ11に対する飛行物体の方向(仰角および方位角)を算出する。
追跡処理部314は、飛行物体候補情報と飛行物体の方向を連続的に得て、飛行物体の追跡処理を行う。一般的にはカルマンフィルタやパーティクルフィルタを用いた追跡処理がある。特に飛行物体を鳥に限定した場合、鳥の飛行が直線的であることが多いため等速直線運動のモデルが当てはめられる。また追跡処理部314は、過去の第1飛行物体の方向等及び画像情報を含む第1飛行物体の追跡処理情報を記憶部315内に記録する。
さらに追跡処理部314は、もし、サイズ推定部351から飛行物体のサイズの推定値が伝送されてきた場合、飛行物体のサイズの推定値を記憶部315内に追加し、これを利用して飛行物体の位置の計算に利用する機能も備えてもよい。すなわち、追跡処理部314は、一度、飛行物体のサイズの推定値を得ることができると、飛行物体の位置の3次元座標の推定値を得る機能を備えてもよい。
追跡処理部314は、サイズ推定部351から第1飛行物体のサイズの推定値が伝送されていない場合は、第1飛行物体の追跡処理情報をエピポーラ線算出部22および同一判断部35に伝送する。
エピポーラ線算出部22は、第1飛行物体位置検出部31の追跡処理部314で追跡処理された第1飛行物体について第1カメラ11から見た飛行物体の方向(仰角および方位角)を示すエピポーラ線を、まずは第1カメラ11のカメラ座標系において求める。そしてエピポーラ線算出部22は、第2カメラ12のカメラ座標系に座標変換して第2カメラ制御部23に伝送する。
第2カメラ制御部23は、エピポーラ線に沿って第2カメラ12が撮影を行うようにパン/チルト/ズーム動作(以降、PTZ動作と呼称する)を指令する。第2カメラ制御部23は、エピポーラ線のうち現実的な有限の範囲内のみを第2カメラ12が撮影するようなPTZ動作を指令する。第2カメラ制御部23は、サイズ推定部351から追跡処理部314に飛行物体のサイズの推定値が伝送されてくるまでの間、このPTZ動作指令を継続する。
本実施形態の同一判断部35は、判断部351と、飛翔パターン生成部352と、記憶部353と、サイズ推定部354を備える。判断部351は、追跡処理部314から受信した第1飛行物体の追跡処理情報に含まれる一連の第1飛行物体の画像から形状変化があるか判断し、形状変化があると判断すると、飛翔パターン生成部352に受信した第1飛行物体の追跡処理情報を転送する。
飛翔パターン生成部352は、第1飛行物体の追跡処理情報に含まれる一連の第1飛行物体の画像について、それぞれ第1飛行物体の進行方向に対し垂直方向の外形の頂点位置の周期的な変化パターンを計算し、図6に示すような第1飛翔パターンを生成し、記憶部353に記録する。
第2飛行物体位置検出部32は、第1飛行物体位置検出部31と同様の構成を持ち、入力処理部321、検出部322、方向抽出部323、追跡処理部324、記憶部325を備えている。入力処理部321は、第2カメラ12から伝送された撮像画像を受信し、入力処理部311と同様に、常時3フレーム分の画像データを一時保管する。入力処理部321は、入力処理部311と同様に、一時保管した画像についてローリング・シャッタ現象に起因する映像の乱れを補正した後、検出部322及び表示部33に伝送する。
検出部322は、検出部312と同様に、連続した3フレームの画像の差分情報から動いている物体の輪郭線を抽出する。また、検出部322は、この動いている物体の撮影時刻、位置、大きさ、画像、及び輝度勾配のヒストグラムであるHOG特徴量をひとまとめにして、飛行物体候補情報として記憶部325内に記録する。
検出部322は、検出部312と同様に、飛行物体候補情報のHOG特徴量をもとに、多クラスのサポートベクターマシン(SVM)やニューラルネットワーク等の原理に基づく多値判別器により当該動体が鳥かもしくはその他の物体(航空機やドローン等)か、背景(樹木の揺れ、海面の白波、車両等)か、の判定を行い、第2飛行物体を検出する。多値判別器の判別基準の学習には記憶部325内の飛行物体判別ライブラリに収められた過去に得られた鳥やその他の物体(航空機、ドローン等)、背景の画像のHOG特徴量データベースが利用される。
方向抽出部323は、第2カメラ12からみた第2飛行物体の方向、すなわち、仰角および方位角を算出する。
追跡処理部324は、追跡処理部314と同様に第2飛行物体の追跡処理を行う。また追跡処理部324は、過去の第2飛行物体の方向等及び画像情報を含む第2飛行物体の追跡処理情報を記憶部325内に記録する。また追跡処理部324は、第2飛行物体の追跡処理情報を同一判断部35に送信する。
判断部351は、受信した第2飛行物体の追跡処理情報に含まれる一連の第2飛行物体の画像において形状変化があるか判断し、形状変化があると判断すると、飛翔パターン生成部352に受信した第2飛行物体の追跡処理情報を転送する。
飛翔パターン生成部352は、第2飛行物体の追跡処理情報に含まれている一連の第2飛行物体の画像情報についてそれぞれ第2飛行物体の進行方向に対する垂直方向の外形の頂点位置の周期的な変化パターンを計算して第2飛翔パターンを生成し、記憶部353内に記録する。また飛翔パターン生成部352は、第1飛行物体の追跡処理情報及び第1飛翔パターンを記憶部353から読出し、第2飛行物体の追跡処理情報及び第2飛翔パターンとともに判断部351に伝送する。
判断部351は、第1飛行物体及び第2飛行物体の追跡処理情報と、第1飛翔パターン及び第2飛翔パターンを受信すると、第1飛翔パターン及び第2飛翔パターンの周期及び位相を算出してこれらのマッチング処理を行う。マッチング処理が成功、すなわち第1飛翔パターンと第2飛翔パターンの周期及び位相が一致又は類似した場合、判断部352は、第1飛行物体と第2飛行物体は同一であると判断して、位置算出部26に第1飛行物体の追跡処理情報および第2飛行物体の追跡処理情報を送信する。マッチング処理が成功しなかった、すなわち第1飛翔パターンと第2飛翔パターンの周期及び位相が一致又は類似しなかった場合、判断部352は、新しい第2飛行物体の追跡処理情報を受信するまで待機する。
なお、判断部351は、追跡処理部324から受信した第2飛行物体の追跡処理情報に含まれる一連の第2飛行物体の画像において形状変化がないと判断すると、仮の第1飛行物体及び第2飛行物体の位置を取得するため位置算出部26に第1飛行物体及び第2飛行物体の追跡処理情報を送信する。
位置算出部26は、判断部351から第1飛行物体及び第2飛行物体の追跡処理情報を受信すると、第1飛行物体の追跡処理情報に含まれる第1カメラ11からみた飛行物体の方向、および、第2飛行物体の追跡処理情報に含まれる第2カメラからみた飛行物体の方向に基づいて、三角測量の原理により飛行物体の位置を算出する。位置算出部26は、算出した第1飛行物体及び第2飛行物体の位置を判断部351に送信する。
サイズ推定部354は、第1飛行物体の第1カメラ11の撮影した画像上のサイズを算出する。第1カメラ11の焦点距離に対する第1カメラと第1飛行物体の距離の比率は、第1飛行物体の第1カメラ11の撮影した画像上のサイズに対する第1飛行物体のサイズの比率と一致する。このことにより、サイズ推定部354は、第1カメラ11の焦点距離と、第1飛行物体の第1カメラ11の撮影した画像上のサイズと、第1飛行物体の位置とから、第1飛行物体のサイズを推定する。同様にサイズ推定部354は、第2飛行物体の位置と第2飛行物体の追跡処理情報から、第2飛行物体のサイズを推定する。サイズ推定部354は、第1飛行物体及び第2飛行物体のサイズの推定値を、判断部351に伝送する。
判断部351は、第1飛行物体のサイズ及び第2飛行物体のサイズの推定値が一致しているか判断し、一致していれば第1飛行物体と第2飛行物体が同一であると判断して、第1飛行物体のサイズの推定値を第1飛行物体位置検出部31の追跡処理部314に伝送する。なお第2飛行物体の形状変化がないと判断していた場合には、第1飛行物体のサイズ及び第2飛行物体のサイズの推定値が一致しない場合がある。この場合は第1飛行物体と第2飛行物体は同一ではない。したがって、判断部351は、新しい第2飛行物体の追跡処理情報を受信するまで待機する。
追跡処理部314は、第1飛行物体のサイズの推定値を受信すると、記憶部315に格納する。追跡処理部314は、第1飛行物体のサイズの推定値を受信した後は、この比率計算を用いて、第1カメラ11の焦点距離と、飛行物体の第1カメラ11の撮影した画像上のサイズと、飛行物体のサイズの推定値から第1カメラ11と飛行物体との距離を推定し、さらに第1カメラの向きの情報を取得して飛行物体の位置の3次元座標を推定する。なお、形状が周期的に変動する飛行物体においては、時系列でみたときの平均サイズが一定的であることを利用し本比率計算を行うことができる。
このことにより、本実施形態によれば、追跡処理部314は、飛行物体のサイズの推定値を受信した後は、第2飛行物体位置検出部32による撮影画像中の飛行物体位置検出、及び同一判断部35による第1飛行物体と第2飛行物体の同一判断を介さず、飛行物体の3次元位置を推定することができる。
追跡処理部314が飛行物体のサイズの推定値を受信した後は、第2カメラ制御部23は、エピポーラ線算出部22から第1カメラ11の映像中の別の飛行物体が検出されるまで待機する。また第2の実施形態のように第1カメラ11を複数備える構成の場合、第2カメラ制御部23は、ある第1カメラ11の画像中に検出された飛行物体について、サイズ推定部31が飛行物体の位置とサイズを推定した後は、その他の第1カメラ11の映像中に飛行物体が検出されるまで待機する。
また判断部351は、第1飛行物体のサイズ及び第2飛行物体のサイズの推定値が一致していれば、位置算出部26から送信された飛行物体の位置の3次元座標とともに、サイズ推定部354が推定した飛行物体のサイズの推定値を表示部33に伝送する。
表示部33は、飛行物体の3次元位置とサイズを取得し、第2カメラ12で撮影された画像から検知した第2飛行物体の拡大映像を第2飛行物体位置検出部34から取得し、これらを表示する機能を持つ。
以上、説明したように、本実施形態によっても、第1の実施形態と同様の効果が得られる。また第1飛行物体と第2飛行物体が同一であると判断されると飛行物体のサイズが第1飛行物体位置検出部31に送信され、記憶される。この構成により、第1飛行物体と第2飛行物体が同一であると判断された後は、第2飛行物体位置検出部32による撮影画像中の飛行物体位置検出、及び同一判断部35による第1飛行物体と第2飛行物体の同一判断を介さず、飛行物体の3次元位置を推定することができる。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
1、2、3 飛行物体位置検知システム
11 第1カメラ
12 第2カメラ
20、27、30 飛行物体位置検知装置
21、28、33 第1飛行物体位置検出部
22 エピポーラ線算出部
23 第2カメラ制御部
24、34 第2飛行物体位置検出部
25、35 同一判断部
26 位置算出部
311、321 入力処理部
312、322 検出部
313、323 方向抽出部
314、324 追跡処理部
315、325 記憶部
351 判断部
352 飛翔パターン生成部
353 記憶部
354 サイズ推定部
31 表示部
100 コンピュータ
101 CPU
102 ROM
103 RAM
104 プログラム
105 記憶装置
106 記録媒体
107 ドライブ装置
108 通信インターフェース
109 通信ネットワーク
110 入出力インターフェース
111 バス

Claims (10)

  1. 第1カメラから取得した第1画像中の第1飛行物体を検出する第1飛行物体位置検出部と、
    前記第1カメラからみた前記第1飛行物体の方向を示すエピポーラ線を求めるエピポーラ線算出部と、
    2カメラが前記エピポーラ線に沿って撮影を行うよう前記第2カメラを制御する第2カメラ制御部と、
    前記第2カメラから取得した第2画像中の第2飛行物体を検出する第2飛行物体位置検出部と、
    前記第1飛行物体と前記第2飛行物体が同一か判断する同一判断部と、
    前記第1飛行物体及び前記第2飛行物体の位置を算出する位置算出部と、
    を有する飛行物体位置検知装置。
  2. 前記同一判断部は、
    前記第1飛行物体及び前記第2飛行物体の進行方向に垂直な方向の外形の頂点位置の変化である第1飛翔パターン及び第2飛翔パターンを生成する飛翔パターン生成部と、
    前記第1飛翔パターン及び前記第2飛翔パターンに基づいて前記第1飛行物体と前記第2飛行物体が同一か判断する判断部と、
    を有する、請求項1に記載の飛行物体位置検知装置。
  3. 前記判断部は、前記第1飛翔パターン及び前記第2飛翔パターンの周期及び位相が一致又は類似する場合、前記第1飛行物体と前記第2飛行物体が同一と判断する、
    請求項2に記載の飛行物体位置検知装置。
  4. 前記同一判断部は、前記第1飛行物体及び前記第2飛行物体の位置に基づいて前記第1飛行物体の第1物体サイズ及び前記第2飛行物体の第2物体サイズを算出し、一致又は類似であるかに応じて第1飛行物体と第2飛行物体が同一と判断する、請求項1に記載の飛行物体位置検知装置。
  5. 前記同一判断部は、前記第1飛行物体又は前記第2飛行物体の位置と、前記第1カメラの焦点距離と、前記第1飛行物体の前記第1カメラの撮影した画像上のサイズと、に基づいて前記第1飛行物体又は前記第2飛行物体のサイズを推定するサイズ推定部を有する請求項4に記載の飛行物体位置検知装置。
  6. 前記エピポーラ線算出部は、前記第1飛行物体の移動にともなって前記エピポーラ線を推移させ、
    前記第2カメラ制御部は、推移する前記エピポーラ線に沿って前記第2カメラの撮影領域を走査するよう前記第2カメラを制御する、
    請求項1から5のいずれかに記載の飛行物体位置検知装置。
  7. 監視領域の画像を撮影する複数の第1カメラの1つを選択し、選択された第1カメラから取得した第1画像中の第1飛行物体を検出する第1飛行物体位置検出部と、
    選択された第1カメラからみた第1飛行物体の方向を示すエピポーラ線を求めるエピポーラ線算出部と、
    第2カメラが前記エピポーラ線に沿って撮影を行うよう前記第2カメラを制御する第2カメラ制御部と、
    前記第2カメラから取得した第2画像中の第2飛行物体を検出する第2飛行物体位置検出部と、
    前記第1飛行物体と前記第2飛行物体が同一か判断する同一判断部と、
    前記第1飛行物体と前記第2飛行物体が同一であると判断した場合、飛行物体の位置を算出する位置算出部と、
    を有する飛行物体位置検知装置。
  8. 監視領域の画像を撮影する複数の第1カメラと、
    前記複数の第1カメラの撮影領域を前記第1カメラと異なる向きで撮影する前記第2カメラと、
    請求項7に記載の飛行物体位置検知装置と、
    を有する飛行物体位置検知システム。
  9. 第1カメラから取得した第1画像中の第1飛行物体を検出し、
    前記第1カメラからみた前記第1飛行物体の方向を示すエピポーラ線を求め、
    2カメラが前記エピポーラ線に沿って撮影を行うよう前記第2カメラを制御し、
    前記第2カメラから取得した第2画像中の第2飛行物体を検出し、
    前記第1飛行物体と前記第2飛行物体が同一か判断し、
    前記第1飛行物体及び前記第2飛行物体の位置を算出する、
    飛行物体位置検知方法。
  10. コンピュータに、
    第1カメラから取得した第1画像中の第1飛行物体を検出する処理と、
    前記第1カメラからみた前記第1飛行物体の方向を示すエピポーラ線を求める処理と、
    2カメラが前記エピポーラ線に沿って撮影を行うよう前記第2カメラを制御する処理と、
    前記第2カメラから取得した第2画像中の第2飛行物体を検出する処理と、
    前記第1飛行物体と前記第2飛行物体が同一か判断する処理と、
    前記第1飛行物体及び前記第2飛行物体の位置を算出する処理と、
    を実行させるプログラム。
JP2017097949A 2017-05-17 2017-05-17 飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラム Active JP6950273B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097949A JP6950273B2 (ja) 2017-05-17 2017-05-17 飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097949A JP6950273B2 (ja) 2017-05-17 2017-05-17 飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018195965A JP2018195965A (ja) 2018-12-06
JP6950273B2 true JP6950273B2 (ja) 2021-10-13

Family

ID=64571941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097949A Active JP6950273B2 (ja) 2017-05-17 2017-05-17 飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6950273B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7231113B2 (ja) * 2020-03-25 2023-03-01 日本電気株式会社 可視化制御装置、可視化システム、可視化制御方法およびコンピュータプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4188394B2 (ja) * 2005-09-20 2008-11-26 フジノン株式会社 監視カメラ装置及び監視カメラシステム
JP2010219822A (ja) * 2009-03-16 2010-09-30 Tokyo Electric Power Co Inc:The 個体識別用撮影装置及びコンピュータプログラム
JP5480710B2 (ja) * 2010-04-28 2014-04-23 グローリー株式会社 同一対象物判定装置および同一対象物判定方法
WO2013005244A1 (ja) * 2011-07-01 2013-01-10 株式会社ベイビッグ 3次元相対座標計測装置およびその方法

Also Published As

Publication number Publication date
JP2018195965A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
CN112567201B (zh) 距离测量方法以及设备
US20200208970A1 (en) Method and device for movable object distance detection, and aerial vehicle
JP6379343B2 (ja) 物体検出装置、物体検出方法および物体検出システム
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
KR101758576B1 (ko) 물체 탐지를 위한 레이더 카메라 복합 검지 장치 및 방법
CN108156450B (zh) 用于校准摄像机的方法、校准设备、校准系统以及机器可读的存储介质
US8942964B2 (en) Optical state estimation and simulation environment for unmanned aerial vehicles
US10007836B2 (en) Bird detection device, bird detection system, bird detection method, and program extracting a difference between the corrected images
US20160217326A1 (en) Fall detection device, fall detection method, fall detection camera and computer program
Najiya et al. UAV video processing for traffic surveillence with enhanced vehicle detection
KR101125233B1 (ko) 융합기술기반 보안방법 및 융합기술기반 보안시스템
US10215851B2 (en) Doppler-based segmentation and optical flow in radar images
US10042047B2 (en) Doppler-based segmentation and optical flow in radar images
JP2018125670A (ja) 空中監視装置、空中監視方法及びプログラム
CN112673377A (zh) 监测设备以及用于人员落水监测的方法
US9721154B2 (en) Object detection apparatus, object detection method, and object detection system
KR101231387B1 (ko) 카메라 영상을 이용하는 구형물체의 비행속도 추정 방법
JP6950273B2 (ja) 飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラム
JP2016119614A (ja) 動体検知装置、動体検知方法および動体検知プログラム
JP7243372B2 (ja) 物体追跡装置および物体追跡方法
Poiesi et al. Detection of fast incoming objects with a moving camera.
US12002371B2 (en) Neuromorphic cameras for aircraft
EP4006829A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium having program stored thereon
JP2021103410A (ja) 移動体及び撮像システム
JP2021076948A (ja) 人検出装置、人検出システム、人検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6950273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150