JP2019068325A - 動体追尾装置及びそのプログラム - Google Patents

動体追尾装置及びそのプログラム Download PDF

Info

Publication number
JP2019068325A
JP2019068325A JP2017193646A JP2017193646A JP2019068325A JP 2019068325 A JP2019068325 A JP 2019068325A JP 2017193646 A JP2017193646 A JP 2017193646A JP 2017193646 A JP2017193646 A JP 2017193646A JP 2019068325 A JP2019068325 A JP 2019068325A
Authority
JP
Japan
Prior art keywords
area
moving object
aircraft
moving body
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017193646A
Other languages
English (en)
Other versions
JP6934386B2 (ja
Inventor
隼 浅野
Hayato Asano
隼 浅野
渡部 悟
Satoru Watabe
悟 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2017193646A priority Critical patent/JP6934386B2/ja
Publication of JP2019068325A publication Critical patent/JP2019068325A/ja
Application granted granted Critical
Publication of JP6934386B2 publication Critical patent/JP6934386B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】本発明は、昼夜を問わずに様々な動体を追尾できる動体追尾装置を提供する。【解決手段】航空機追尾撮影システム1は、空港を離発着する航空機をロボットカメラ40で追尾して撮影するものであり、センサ映像90を出力するセンサカメラ10と、センサ映像から動体を検出する動体検出装置20と、検出した動体の中から追跡対象となる航空機を決定し、その航空機をロボットカメラ40に追尾して撮影させる位置特定・雲台制御装置30と、位置特定・雲台制御装置30からの指令に従って、航空機を撮影するロボットカメラ40とを備える。【選択図】図1

Description

本発明は、動体追尾装置及びそのプログラムに関する。
従来より、航空機が空港を離発着する様子をロボットカメラで自動追尾しながら撮影する発明が提案されている(例えば、特許文献1,2)。
特許文献1に記載の発明は、航空機が発するADS-B(Automatic Dependent Surveillance-Broadcast)信号を用いて、航空機の進入路や滑走方向を特定し、特定した方向にロボットカメラを向け、テンプレートマッチングにより航空機を追尾するものである。
また、特許文献2に記載の発明は、風向きや風速の計測データから航空機の進入路や滑走方向を予測し、特定した方向にロボットカメラを向け、テンプレートマッチングにより航空機を追尾するものである。
特許第5858741号公報 特開2013−119328号公報
しかし、特許文献1,2に記載の発明では、テンプレートマッチングを用いるので、夜間だと航空機が映りにくく、航空機の検出精度が低下するという問題がある。さらに、特許文献1に記載の発明では、ADS−B信号を発しない航空機の追尾が困難である。
そこで、本発明は、昼夜を問わずに様々な動体を追尾できる動体追尾装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本発明にかかる動体追尾装置は、センサカメラで動体を撮影したセンサ映像を用いて、追尾対象となる動体を追尾する動体追尾装置であって、差分画像生成手段と、差分領域検出手段と、記憶手段と、動体検出手段と、追尾手段と、を備える構成とした。
かかる動体追尾装置によれば、差分画像生成手段は、センサ映像から差分画像を生成する。また、差分領域検出手段は、低感度モード及び低感度モードより検出感度が高い高感度モードのそれぞれで、差分画像から差分領域を検出する。
また、記憶手段は、低感度モードにおいて、センサ映像内で動体を追尾対象として特定するための追尾対象特定エリア及び追尾対象が通過しないマスクエリアと、高感度モードにおいて、追尾対象の検出エリア誤りを防止するための誤検出防止エリアとを表すエリア情報を予め記憶する。
また、動体検出手段は、予め設定されたフレーム数以上にわたり位置が変化する差分領域を抽出し、エリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、検出した動体の位置及び所属エリアを表す動体検出情報を生成する。そして、追尾手段は、動体検出情報に基づいて動体毎にスコアを算出し、算出したスコアに基づいて追尾対象を決定する。
このように、動体追尾装置は、センサ映像を用いるので、ADS−B信号を発しない航空機などの様々な追尾対象を追尾できる。さらに、動体追尾装置は、テンプレートマッチングを使用せず、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、夜間においても正確に追尾できる。
本発明によれば、以下のような効果を奏する。
本発明にかかる動体追尾装置は、センサ映像を用いると共に、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、昼夜を問わずに様々な動体を追尾することができる。
本発明の実施形態にかかる航空機追尾撮影システムの全体構成図である。 図1のセンサカメラの設置を説明する説明図である。 図2のセンサ映像の拡大図である。 図1の航空機追尾撮影システムの構成を示すブロック図である。 図3の右側のセンサ映像において、低感度モードで設定するエリア情報の説明図である。 図3の右側のセンサ映像において、高感度モードで設定するエリア情報の説明図である。 図3の右側のセンサ映像において、夜間に設定するエリア情報の説明図である。 図3の中央のセンサ映像において、低感度モードで設定するエリア情報の説明図である。 図3の中央のセンサ映像において、高感度モードで設定するエリア情報の説明図である。 図4の動体検出手段による動体の検出を説明する説明図である。 図4の動体検出手段による動体の検出を説明する説明図である。 図4の動体検出手段において、動体の誤検出を説明する説明図である。 図4の動体検出手段において、動体の誤検出を説明する説明図である。 図4の追尾対象決定手段によるスコアの算出を説明する説明図である。 図4の航空機追尾撮影システムによる航空機の追尾を説明する説明図である。 図4の航空機追尾撮影システムによる航空機の追尾を説明する説明図である。 図4の航空機追尾撮影システムの動作を示すシーケンス図である。
[航空機追尾撮影システムの概略]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
図1を参照し、本発明の実施形態にかかる航空機追尾撮影システム1の概略について説明する。
航空機追尾撮影システム1は、空港を離発着する航空機(追尾対象)をロボットカメラ40で追尾して撮影するものであり、図1に示すように、センサカメラ10(10,10,10)と、動体検出装置20(20,20,20)と、位置特定・雲台制御装置30と、ロボットカメラ40とを備える。ここで、動体検出装置20及び位置特定・雲台制御装置30が特許請求の範囲に記載の動体追尾装置に相当する。
センサカメラ10は、航空機を撮影してセンサ映像を生成するものであり、例えば、撮影方向及び撮影画角が一定の固定カメラである。そして、センサカメラ10は、生成したセンサ映像を動体検出装置20に出力する。
ここで、センサカメラ10は、1台以上、必要に応じた台数を設置できる。本実施形態では、センサカメラ10は、図2に示すように、滑走路全体を撮影できるように、空港中央の建物屋上に3台設置している。このとき、各センサカメラ10は、互いの撮影範囲が重複する。図2では、センサカメラ10が滑走路右側を向き、センサカメラ10が滑走路中央を向き、センサカメラ10が滑走路左側を向いている。そして、センサカメラ10,10,10は、図3に示すように、それぞれの撮影方向で滑走路を撮影したセンサ映像90,90,90を生成する。センサ映像90,90,90の端が互いに重なる。
なお、図2では、センサカメラ10,10,10の撮影画角が重複しないように破線で図示したが、実際には重複している。
図1に戻り、航空機追尾撮影システム1の説明を続ける。
動体検出装置20は、センサカメラ10からのセンサ映像を画像解析し、動体を検出し、その検出結果(動体検出情報)を位置特定・雲台制御装置30に出力する。本実施形態では、動体検出装置20は、追尾対象となる航空機の他、自動車、人物、鳥などの動体についても検出し、その動体についての動体検出情報を出力する。
本実施形態では、動体検出装置20は、センサカメラ10と1対1で対応するように、空港から離れた放送局に3台設置している。そして、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析し、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析し、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析する。
位置特定・雲台制御装置30は、動体検出情報から算出される動体の軌跡に基づいて、動体検出装置20が検出した動体の中から、追尾対象となる航空機を特定するものである。そして、位置特定・雲台制御装置30は、特定した航空機を撮影するようにロボットカメラ40を制御する。本実施形態では、位置特定・雲台制御装置30は、動体検出装置20と同じ放送局に1台設置している。
なお、追尾対象とは、航空機追尾撮影システム1で追尾する対象となる1つの動体のことである。本実施形態では、空港にいる航空機のうち、離発着中の航空機が追尾対象であることとする。
ロボットカメラ40は、位置特定・雲台制御装置30からの制御信号に従って駆動し、航空機を撮影するものである。このロボットカメラ40は、パン、チルト、ズームが可能な一般的なロボットカメラであり、航空機の撮影映像91を生成するカメラ本体41と、カメラ本体41を搭載する雲台43とを備える。
本実施形態では、ロボットカメラ40は、センサカメラ10と同様、空港中央の建物屋上に1台設置している。
なお、夜間では、航空機がセンサ映像に映りにくくなるため、昼間に比べて、以下の工夫を行っている。夜間の場合、航空機追尾撮影システム1は、センサ映像90に夜間用進入路エリアA(図7)を設定し、この夜間用進入路エリアAから航空機のライトを検出する。
[動体検出装置の構成]
図4を参照し、動体検出装置20の構成について説明する。
動体検出装置20は、図4に示すように、昼夜判定手段21と、記憶手段22と、差分画像生成手段23と、差分領域検出手段24と、ライト検出手段25と、動体検出手段26とを備える。
なお、3台の動体検出装置20は、同一構成のため、1台のみ説明する。
昼夜判定手段21は、時刻に基づいて夜間であるか否かを判定するものである。本実施形態では、昼夜判定手段21は、緯度情報及び経度情報をもとに日の出時刻及び日の入り時刻を算出し、昼間時間帯及び夜間時間帯を決定する。そして、昼夜判定手段21は、現在時刻が昼間時間帯又は夜間時間帯の何れに属するかにより、昼間又は夜間を判定する。その後、昼夜判定手段21は、昼間又は夜間の判定結果を差分領域検出手段24及び動体検出手段26に出力する。
記憶手段22は、動体検出装置20の処理に必要な各種情報を予め記憶するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶装置である。例えば、航空機追尾撮影システム1の管理者が、図示を省略したマウス、キーボード等の操作手段を介して、エリア情報を記憶手段22に手動で設定する。さらに、航空機追尾撮影システム1の管理者は、予め算出した変換情報を記憶手段22に設定する。
エリア情報は、航空機を特定するための航空機特定エリア(追尾対象特定エリア)、航空機が通過しないマスクエリア、航空機の検出エリア誤りを防止するための誤検出防止エリアなどの各エリアを、センサ映像90内に予め設定した情報である。
<エリア情報の設定>
図5を参照し、エリア情報の設定を具体的に説明する。
ここでは、センサカメラ10のセンサ映像90にエリア情報を設定することとして説明する。
低感度モードでは、図5に示すように、エリア情報として、進入路エリアAと、滑走路エリアRと、マスクエリアMと、上空エリアSとをセンサ映像90内に設定する。本実施形態では、進入路エリアA及び滑走路エリアRが航空機特定エリアに対応する。後記する追尾対象決定手段35において、動体検出手段26が検出した動体のうち、この航空機特定エリアを一度でも通過した動体を航空機として特定する。
進入路エリアAは、センサ映像90において、離発着する航空機が進入する領域を表す。
滑走路エリアRは、センサ映像90に含まれる滑走路の領域を表す。
上空エリアSは、進入路エリアA以外の空域を表す。
マスクエリアMは、例えば、展望デッキ、空港施設、鳥が多い箇所、草木、水溜りなど、誤検出が多かったり、航空機を追尾する必要がない領域を表す。
高感度モードでは、図6に示すように、エリア情報として、進入路エリアAと、誘導路エリアTとをセンサ映像90内に設定する。
進入路エリアAは、図5の進入路エリアAと同様、離発着する航空機が進入する領域を表す。高感度モードでは低感度モードに比べてノイズなどを誤検出する可能性が高いので、進入路エリアA,Aは、異なる位置及び大きさでセンサ映像90内に設定できる。
誘導路エリアTは、センサ映像90に含まれる誘導路の領域を表す。本実施形態では、誘導路エリアTが誤検出防止エリアに対応する。
さらに、図7に示すように、エリア情報として、夜間用進入路エリアAをセンサ映像90内に設定する。
夜間用進入路エリアAは、進入路エリアA,Aと同様、離発着する航空機が進入する領域を表す。夜間の場合、夜間用進入路エリアAは、航空機のライトを検出する領域となるので、航空機のライト以外を誤検出しないように設定することが好ましい。
センサ映像90と同様、センサ映像90にもエリア情報を設定する。
図8に示すように、低感度モードでは、エリア情報として、滑走路エリアRと、マスクエリアMと、上空エリアSとをセンサ映像90内に設定する。また、図9に示すように、高感度モードでは、エリア情報として、誘導路エリアTをセンサ映像90内に設定する。
なお、センサ映像90に進入路が映らないので、進入路エリアを設定していない。
また、センサ映像90は、センサ映像90と同様にエリア情報を設定できるので、説明を省略する。
このように、エリア情報は、昼間及び夜間で別々に設定できる。このため、エリア情報では、例えば、昼間では鳥が多く飛ぶ場所や、夜間では航空機以外のライトが映る場所など、誤検出の可能性が高い場所を外すことができる。
図4に戻り、図1の動体検出装置20について、説明を続ける。
変換情報は、センサカメラ10とロボットカメラ40との画角を変換するパラメータの情報である。この変換情報は、センサカメラ10で検出した航空機の速度やサイズをロボットカメラ40に映る航空機の速度やサイズに合わせるために必要な情報である。本実施形態では、変換情報は、各センサカメラ10の撮影画角に応じて、センサカメラ10毎に予め算出することとする。
差分画像生成手段23は、センサカメラ10よりセンサ映像が入力され、入力されたセンサ映像から差分画像を生成するものである。つまり、差分画像生成手段23は、センサ映像で前後するフレーム間で画素毎に輝度差を求め、求めた画素毎の輝度差を表す差分画像を生成する。そして、差分画像生成手段23は、生成した差分画像を差分領域検出手段24に出力する。
差分領域検出手段24は、昼夜判定手段21からの判定結果が昼間の場合、低感度モード及び高感度モードのそれぞれで、差分画像から差分領域を検出するものである。つまり、差分領域検出手段24は、輝度差が閾値以上となる各画素について、近いもの同士をグループ化して差分領域を生成する。
具体的には、差分領域検出手段24は、差分画像の各画素の画素値(輝度値)を閾値判定し、画素値が予め設定した閾値以上となる画素を差分画像から抽出する。このとき、高感度モードでは、差分領域の検出感度が低感度モードより高くなるように閾値を小さな値とする。そして、差分領域検出手段24は、抽出した画素同士の距離が一定以下となる画素領域を差分領域として検出する。
また。差分領域検出手段24は、昼夜判定手段21からの判定結果が夜間の場合、低感度モードだけで差分画像から差分領域を検出する。夜間の場合でも、低感度モードの手順自体は昼間と同様のため、これ以上の説明を省略する。
その後、差分領域検出手段24は、検出した差分領域の情報として、その差分領域の位置と、その差分領域の検出時間帯との情報を動体検出手段26に出力する。ここで、差分領域の位置は、差分領域の中心位置又は重心位置を表す。また、差分領域の検出時間帯は、昼間又は夜間の区分と、差分領域の検出元となるセンサ映像90の時刻情報(タイムコード)とを表す。
ライト検出手段25は、昼夜判定手段21からの判定結果が夜間の場合、センサ映像90から航空機のライトを検出するものである。本実施形態では、ライト検出手段25は、記憶手段22のエリア情報を参照し、センサ映像90内に設定した夜間用進入路エリアAにおいて、輝度値が予め設定された閾値以上になる画素領域を検出し、その画素領域の重心位置又は中心位置を航空機のライト位置として検出する。
その後、ライト検出手段25は、検出した航空機のライトの情報として、ライト位置及び検出時間帯を動体検出手段26に出力する。
なお、ライト検出手段25は、昼夜判定手段21からの判定結果が昼間の場合、処理を行わない。
動体検出手段26は、差分領域検出手段24から入力された差分領域のうち、予め設定されたフレーム数以上にわたり位置が変化する差分領域を抽出するものである。つまり、動体検出手段26は、数フレームにわたって連続的に動いている動体領域を抽出する。これにより、動体検出手段26は、連続的に動いている動体領域と、それ以外のノイズ領域とを区分できる。
次に、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、後記する動体検出情報を生成するものである。以下、動体検出手段26について、昼夜判定手段21からの判定結果が昼間と夜間の場合にわけて説明する。
なお、以下の例では、航空機が動体であることとして説明するが、実際には、航空機以外の動体が検出される場合もある。
<動体の検出:昼間の場合>
昼間の場合、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の所属エリアに応じて動体を検出する。本実施形態では、動体検出手段26は、マスクエリアM以外の各エリア(進入路エリアA、上空エリアS、滑走路エリアR、誘導路エリアT)から、動体を検出する。
具体点には、動体検出手段26は、図10に示すように、低感度モードで進入路エリアAに含まれる動体Objを検出する。この進入路エリアAと同様、動体検出手段26は、低感度モードで上空エリアSに含まれる動体を検出する。一方、動体検出手段26は、図11に示すように、低感度モードでマスクエリアMに含まれる物体Obj(例えば、トーイングカー)を検出しない。
ここで、図12に示すように、センサカメラ10から見て、航空機Objの一部(例えば、機体と色や模様が異なる尾翼)が滑走路に重なることがある。この場合、フレーム間差分では、尾翼部分のみが検出されやすいため、実際には航空機が誘導路に位置するにも関わらず、航空機が滑走路に位置すると誤判定することがある。一方、図13に示すように、高感度モードが低感度モードより検出感度が高いので、低感度モードで尾翼部分のみの動きを検出しているときには、高感度モードであれば、航空機Objの全体の動きを検出し、航空機が誘導路に位置すると正しく判定できる可能性が高い。
なお、図12,図13では、航空機Objのうち、動体として検出された箇所を一点鎖線で図示した。
そこで、動体検出手段26は、低感度モード及び高感度モードという2つの検出モードを組み合わせることで、動体のエリア情報の誤検出を低減している。具体的には、動体検出手段26は、低感度モードで滑走路エリアRに含まれ、かつ、高感度モードで誘導路エリアTに含まれない動体を、滑走路エリアRの動体として検出する(不図示)。一方、動体検出手段26は、低感度モードで滑走路エリアRに含まれ(図12)、かつ、高感度モードで誘導路エリアTに含まれる動体Objを、誘導路エリアTの動体として検出する(図13)。
<動体の検出:夜間の場合>
夜間の場合、動体検出手段26は、昼間と同様、低感度モードのみで動体を検出する。具体的には、動体検出手段26は、低感度モードにおいて、マスクエリアM以外の各エリア(進入路エリアA、上空エリアS)に含まれる動体を検出する。一方、動体検出手段26は、低感度モードにおいて、マスクエリアMに含まれる動体を検出しない。
なお、夜間の場合、動体検出手段26は、低感度モード及び高感度モードを併用しないので、滑走路エリアR及び誘導路エリアTの動体を検出することがない。
その後、動体検出手段26は、決定した動体検出情報を生成し、生成した動体検出情報を位置特定・雲台制御装置30(情報集約手段31)に出力する。この動体検出情報は、センサ映像90に映る各動体の位置、所属エリア(進入路エリアや滑走路エリアなど)、サイズ、及び、そのセンサ映像90の時刻情報を表す。
このとき、動体検出手段26は、差分領域に外接する矩形領域の高さ及び幅から、センサカメラ10上での動体の検出サイズを求める。そして、動体検出手段26は、記憶手段22の変換情報を参照し、センサカメラ10上での動体の検出サイズを、ロボットカメラ40上での動体のサイズに変換する。
<遠方航空機の検出:昼間の場合>
離陸での滑走開始時や着陸での滑走路進入時など、航空機が遠方に位置し、速度が遅い場合、差分領域の検出精度が低くなる。このとき、ロボットカメラ40で撮影を行うと、差分領域の誤検出により航空機が撮影画角から外れてしまう可能性が高い。そこで、追尾制御の代わりに、遠方の航空機が撮影画角から外れないように定位置制御を行う必要がある。
昼間の場合、動体検出手段26は、センサ映像90に遠方の航空機が映っているか否かを判定する。つまり、動体検出手段26は、低感度モードで進入路エリアAに含まれず、かつ、高感度モードで進入路エリアAに含まれる動体を遠方の航空機として決定する。
<遠方航空機の検出:夜間の場合>
夜間の場合、航空機の機体がセンサ映像90に映らず、航空機を検出できる可能性が低い。そこで、動体検出手段26は、低感度モードで動体が検出されない場合、ライト検出手段25で検出された夜間用進入路エリアA内のライトを、遠方の航空機として検出する。これにより、航空機追尾撮影システム1では、夜間でも定位置制御が可能となる。
その後、動体検出手段26は、遠方の航空機を検出したことを示す遠方動体検出情報を位置特定・雲台制御装置30(追尾対象決定手段35)に出力する。
[位置特定・雲台制御装置の構成]
図4に戻り、位置特定・雲台制御装置30の構成について説明する。
位置特定・雲台制御装置30は、図4に示すように、情報集約手段31と、識別情報付加手段33と、追尾対象決定手段(追尾手段)35と、雲台制御手段(ロボットカメラ制御手段)37とを備える。
情報集約手段31は、動体検出装置20(動体検出手段26)から動体検出情報を取得し、取得した動体検出情報を集約するものである。本実施形態では、情報集約手段31は、3台全ての動体検出装置20から動体検出情報を取得したか否かを判定する。そして、情報集約手段31は、3台分の動体検出情報を取得した場合、例えば、タイムコードにより同一時刻の動体検出情報を対応付けて、識別情報付加手段33に出力する。
識別情報付加手段33は、情報集約手段31からの動体検出情報に識別情報を付加するものである。本実施形態では、識別情報付加手段33は、過去から現在までの動体検出情報を参照し、その位置に基づいて前後するフレームで同一と思われる動体を判定し、同一の識別情報を付加する。具体的には、識別情報付加手段33は、鳥などの誤検出を抑制するため、数フレームにわたって一定の速度、方向で動体が動いている場合、同一の識別情報を動体検出情報に付加する。
また、識別情報付加手段33は、動体検出情報の所属エリアを参照し、その動体が航空機特定エリア(進入路エリア及び滑走路エリア)を過去に一度でも通過している場合、航空機として特定したことを示す特定情報を動体検出情報に付加する。さらに、識別情報付加手段33は、同一の識別情報が付与された動体検出情報について、その動体の位置変化量から動体の速度を算出し、算出した速度を動体検出情報に付加する。
その後、識別情報付加手段33は、動体検出情報を追尾対象決定手段35に出力する。
これにより、航空機が着陸時に滑走路を逸脱した場合や、航空機が着陸復行のために再上昇した場合でも、同一の識別情報が付加されているので追尾を継続できる。さらには、航空機が別のセンサカメラ10の撮影画角に移動した場合でも、同一の識別情報が付加されているので追尾を継続できる。
追尾対象決定手段35は、識別情報付加手段33からの動体検出情報に基づいて航空機毎にスコアを算出し、算出したスコアに基づいて追尾対象の航空機を決定するものである。そして、追尾対象決定手段35は、追尾対象の情報として、その航空機の位置、速度、加速度及びサイズを雲台制御手段37に出力する。
<スコアに基づいた航空機の決定>
以下、スコアに基づいた航空機の決定について、具体的に説明する。
本実施形態では、追尾対象決定手段35は、特定情報が付加されている動体検出情報について、スコアを算出する。つまり、追尾対象決定手段35は、特定情報が付加されていない動体検出情報から、スコアを算出しない。
まず、追尾対象決定手段35は、航空機の速度に応じた速度スコアを加算する。つまり、追尾対象決定手段35は、動体検出情報の速度を参照し、その速度に応じた速度スコアを加算する。この速度スコアは、航空機の速度に応じて予め設定されている(例えば、0ポイント〜500ポイント)。
また、追尾対象決定手段35は、航空機が上空で検出された場合、上空エリアスコア(第1のエリアスコア)を加算する。つまり、追尾対象決定手段35は、動体検出情報の所属エリアが上空エリアS(図5)の場合、上空エリアスコアを加算する。この上空エリアスコアは、速度スコアよりも高い値で予め設定されている(例えば、1000ポイント)。
また、追尾対象決定手段35は、航空機が進入路又は滑走路で検出された場合、特定エリアスコア(第2のエリアスコア)を加算する。つまり、追尾対象決定手段35は、動体検出情報の所属エリアが滑走路エリアR又は進入路エリアA(図5)の場合、特定エリアスコアを加算する。この特定エリアスコアは、上空エリアスコアよりも高い値で予め設定されている(例えば、2000ポイント)。
そして、追尾対象決定手段35は、速度スコア及びエリアスコアの合計値が最も高くなる航空機を追尾対象として決定する。図14に示すように、滑走路上で航空機Objが滑走し、誘導路に航空機Objが位置する場合を考える。この場合、滑走中の航空機Objが航空機Objより速いので、航空機Objの速度スコアが航空機Objより高くなる。また、航空機Objが滑走路に位置し、航空機Objが誘導路に位置するので、航空機Objのエリアスコアも航空機Objより高くなる。その結果、追尾対象決定手段35は、図14のセンサ映像90において、航空機Objを追尾対象として決定する。
なお、追尾対象決定手段35は、特定情報が付加されている動体検出情報が1つのみの場合(つまり、航空機が1機しか検出されていない場合)、スコアを算出せずに、その航空機を追尾対象として即座に決定してもよい。
<追尾対象決定手段35における他の処理>
ここで、追尾対象決定手段35は、スコアに基づいた航空機の決定の他、以下の処理を行ってもよい。
例えば、追尾対象決定手段35は、追尾対象となる航空機が存在せず、かつ、動体検出装置20(動体検出手段26)から遠方動体検出情報が入力された場合、定位置制御を行うと決定する。この場合、追尾対象決定手段35は、定位置制御指令を雲台制御手段37に出力する。この定位置制御とは、例えば、図6の進入路エリアAを撮影映像に収めるように予め設定された撮影方向及び撮影画角で、ロボットカメラ40に撮影させることである。
また、追尾対象決定手段35は、航空機が建物や他の航空機の背後に隠れたときなど、航空機の検出が途絶えた場合、予め設定した再検出時間だけ、ベイズ推定に基づいて追尾速度から航空機の推定位置を求め、その推定位置で航空機が再検出されるのを待つ。そして、追尾対象決定手段35は、その推定位置で航空機が再検出されると、追尾を継続する。
また、追尾対象決定手段35は、再検出時間経過しても航空機が再検出されなかった場合、推定位置制御指令を雲台制御手段37に出力する。この推定位置制御とは、事故映像の撮影可能性を高くするため、現時点での航空機の推定位置を中心として、広い撮影画角でロボットカメラ40に撮影させることである。
また、追尾対象決定手段35は、推定位置制御指令を出力後、予め設定した待機時間経過しても航空機が再検出されなかった場合、待機位置制御指令を雲台制御手段37に出力する。この待機位置制御とは、例えば、進入路エリアなど事故発生率が高い箇所を撮影映像に収めるように予め設定された撮影方向及び撮影画角で、ロボットカメラ40に撮影させることである。
図4に戻り、位置特定・雲台制御装置30の説明を続ける。
雲台制御手段37は、追尾対象決定手段35からの追尾対象の位置に基づいて、ロボットカメラ40(雲台43)を制御するものである。本実施形態では、雲台制御手段37は、追尾対象となる航空機をロボットカメラ40が追尾して撮影できるように、一般的なフィードバック制御を行う。
ここで、雲台制御手段37は、追尾対象決定手段35から入力された航空機のサイズに応じて、ロボットカメラ40のズームを制御する。具体的には、雲台制御手段37は、航空機のサイズが大きくなる程にズームアウトし、航空機のサイズが小さくなる程にズームインする制御を行う。また、航空機の速度がロボットカメラ40の最大動作速度を超える場合、雲台制御手段37は、ズームアウトする制御を行ってもよい。
また、雲台制御手段37は、追尾対象決定手段35から定位置制御指令が入力された場合、ロボットカメラ40の定位置制御を行う。また、雲台制御手段37は、追尾対象決定手段35から推定位置制御指令が入力された場合、ロボットカメラ40の推定位置制御を行う。また、雲台制御手段37は、追尾対象決定手段35から待機位置制御指令が入力された場合、ロボットカメラ40の待機位置制御を行う。
以上より、航空機追尾撮影システム1は、図15に示すように、センサ映像90に映っている離発着中の航空機を追尾し、ロボットカメラ40で撮影することができる。さらに、航空機追尾撮影システム1は、図16に示すように、同一の航空機がセンサ映像90,90に映っている場合でも、追尾対象決定手段35により航空機を追尾することができる。
なお、図15,図16では、添え字tが時刻を表し、航空機として検出された領域を一点鎖線で図示した。
[航空機追尾撮影システムの動作]
図17を参照し、航空機追尾撮影システム1の動作について説明する。
なお、図17では、図面を見やすくするため、センサカメラ10及び動体検出装置20を1台のみ図示した。また、各センサカメラ10及び各動体検出装置20の処理は同一のため、重複説明を省略する。
また、図17では、記憶手段22がエリア情報及び変換情報を記憶しており、昼夜判定手段21が昼間と判定したこととする。
センサカメラ10は、航空機を撮影したセンサ映像を生成し、生成したセンサ映像90を動体検出装置20に出力する(ステップS1)。
差分画像生成手段23は、センサ映像から差分画像を生成する。つまり、差分画像生成手段23は、センサ映像で前後するフレーム間で画素毎に輝度差を求め、求めた輝度差を表す差分画像を生成する(ステップS2)。
差分領域検出手段24は、低感度モード及び高感度モードのそれぞれで、ステップS2で生成した差分画像から差分領域を検出する。つまり、差分領域検出手段24は、輝度差が閾値以上となる各画素について、近いもの同士をグループ化して差分領域を生成する(ステップS3)。
動体検出手段26は、ステップS3で生成した差分領域のうち、所定のフレーム数以上にわたり位置が変化する差分領域を抽出する。そして、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、動体検出情報を生成する。例えば、動体検出手段26は、マスクエリアM以外の各エリアから動体を検出し、マスクエリアMから動体を検出しない(ステップS4)。
動体検出手段26は、ステップS4で生成した動体検出情報を情報集約手段31に出力する(ステップS5)。
情報集約手段31は、3台全ての動体検出装置20から動体検出情報を取得したか否かを判定し(ステップS6)、全ての動体検出情報を取得するまで処理を待つ(ステップS6でNo)。
全ての動体検出情報を取得した場合(ステップS6でYes)、識別情報付加手段33は、ステップS6で取得した動体検出情報に識別情報を付加する。ここでは、識別情報付加手段33は、過去から現在までの動体検出情報を参照し、動体の検出位置に基づいて前後するフレームで同一と思われる動体を判定し、その動体に対応する動体検出情報に同一の識別情報を付加する。さらに、識別情報付加手段33は、動体検出情報を参照すれば動体の軌跡が分かるので、その動体が航空機特定エリアを過去に一度でも通過している場合、航空機として特定したことを示す特定情報を動体検出情報に付加する。さらに、識別情報付加手段33は、同一の識別情報が付与された動体検出情報について、その動体の位置変化量から動体の速度を算出し、算出した速度を動体検出情報に付加する(ステップS7)。
追尾対象決定手段35は、動体検出情報の所属エリア及び速度に基づいて、航空機として特定された動体毎にスコアを算出する。具体的には、追尾対象決定手段35は、動体の速度に応じた速度スコアを加算する。さらに、追尾対象決定手段35は、動体の所属エリアに応じたエリアスコアを加減算する。そして、追尾対象決定手段35は、速度スコア及びエリアスコアの合計値が最も高くなる動体を追尾対象の航空機として決定する(ステップS8)。
雲台制御手段37は、ステップS8で決定した航空機の位置に基づいて、ロボットカメラ40の制御信号を生成する。ここでは、雲台制御手段37は、追尾対象の航空機をロボットカメラ40が追尾して撮影できるように、一般的なフィードバック制御を行う(ステップS9)。
雲台制御手段37は、ステップS9で生成した制御信号をロボットカメラ40に出力する(ステップS10)。
ロボットカメラ40は、制御信号に基づいて航空機を追尾、撮影する(ステップS11)。
[作用・効果]
以上のように、本発明の実施形態にかかる航空機追尾撮影システム1は、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、テンプレートマッチングのように夜間で急激に検出精度が低下せず、昼夜を問わずに航空機を正確に追尾することができる。
さらに、航空機追尾撮影システム1は、動体の過去の軌跡に基づいて追尾対象を決定するため、予期しない進路に逸脱した動体も正確に追尾することができる。
さらに、航空機追尾撮影システム1は、センサ映像90を用いるので、ADS-B信号を発しない航空機も追尾することができる。
以上、本発明の実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、センサカメラが3台であることとして説明したが、本発明は、これに限定されない。例えば、1台の超広角カメラをセンサカメラとして用いてもよく、2台以上のセンサカメラを用いてもよい。
前記した実施形態では、センサカメラ毎に動体検出装置を備えることとして説明したが、本発明は、これに限定されない。例えば、1台の動体検出装置で各センサカメラのセンサ映像を画像解析してもよい。
また、前記した実施形態では、動体検出装置及び位置特定・雲台制御装置が別々の構成であることとして説明したが、本発明は、動体検出装置及び位置特定・雲台制御装置を一体化してもよい。
前記した実施形態では、動体が航空機であることとして説明したが、本発明は、これに限定されない。すなわち、本発明では、動体が移動するものであれば特に限定されない。特に、動体は、一定の方向に移動するものであれば好ましく、例えば、船舶、鉄道、自動車などがある。さらに、本発明は、陸上競技の選手などを動体として撮影するスポーツ映像にも適用できる。
前記した実施形態では、ロボットカメラに航空機を追尾させることとして説明したが、本発明は、これに限定されない。例えば、本発明は、映像上で航空機を追跡(トラッキング)する手法に適用してもよい。
前記した実施形態では、具体的なスコア(ポイント数)を例示したが、本発明は、これに限定されない。例えば、各空港の環境に応じて、各エリアに応じたスコアを手動で設定すればよい。
前記した実施形態では、動体追尾装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した動体追尾装置として協調動作させる動体追尾プログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1 航空機追尾撮影システム
10,10,10,10 センサカメラ
20,20,20,20 動体検出装置
21 昼夜判定手段
22 記憶手段
23 差分画像生成手段
24 差分領域検出手段
25 動体検出手段
26 ライト検出手段
30 位置特定・雲台制御装置
31 情報集約手段
33 識別情報付加手段
35 追尾対象決定手段(追尾手段)
37 雲台制御手段(ロボットカメラ制御手段)
40 ロボットカメラ

Claims (8)

  1. センサカメラで動体を撮影したセンサ映像を用いて、追尾対象となる前記動体を追尾する動体追尾装置であって、
    前記センサ映像から差分画像を生成する差分画像生成手段と、
    低感度モード及び前記低感度モードより検出感度が高い高感度モードのそれぞれで、前記差分画像から差分領域を検出する差分領域検出手段と、
    前記低感度モードにおいて、前記センサ映像内で前記動体を前記追尾対象として特定するための追尾対象特定エリア及び前記追尾対象が通過しないマスクエリアと、前記高感度モードにおいて、前記追尾対象の検出エリア誤りを防止するための誤検出防止エリアとを表すエリア情報を予め記憶する記憶手段と、
    予め設定されたフレーム数以上にわたり位置が変化する前記差分領域を抽出し、前記エリア情報を参照し、抽出した前記差分領域の位置及び前記検出感度により前記動体を検出し、検出した当該動体の位置及び所属エリアを表す動体検出情報を生成する動体検出手段と、
    前記動体検出情報に基づいて前記動体毎にスコアを算出し、算出した前記スコアに基づいて前記追尾対象を決定する追尾手段と、
    を備えることを特徴とする動体追尾装置。
  2. 前記追尾対象は、航空機であり、
    前記記憶手段は、前記追尾対象特定エリアとして前記センサ映像内の進入路エリア及び滑走路エリアを表し、前記誤検出防止エリアとして前記センサ映像内の誘導路エリアを表す前記エリア情報を記憶し、
    前記動体検出情報に基づいて前記動体が同一であるか否かを判定し、同一の前記動体に同一の識別情報を付加し、前記動体が前記進入路エリア又は前記滑走路エリアを過去に通過した場合、当該動体を航空機として特定する識別情報付加手段、をさらに備え、
    前記追尾手段は、前記識別情報付加手段が航空機として特定した動体のスコアを算出することを特徴とする請求項1に記載の動体追尾装置。
  3. 前記記憶手段は、前記低感度モードにおいて、前記センサ映像内の上空エリアがさらに設定された前記エリア情報を記憶し、
    前記動体検出手段は、
    前記低感度モードで前記進入路エリア又は前記上空エリアに含まれる動体を検出し、
    前記低感度モードで前記滑走路エリアに含まれ、かつ、前記高感度モードで前記誘導路エリアに含まれない動体を前記滑走路エリアの動体として検出し、
    前記低感度モードで前記滑走路エリアに含まれ、かつ、前記高感度モードで前記誘導路エリアに含まれる動体を前記誘導路エリアの動体として検出し、
    前記低感度モードで前記マスクエリアに含まれる動体を検出しないことを特徴とする請求項2に記載の動体追尾装置。
  4. 前記識別情報付加手段は、同一の前記識別情報が付与された動体検出情報について、前記動体の位置変化量に基づいて前記動体の速度を算出し、
    前記追尾手段は、
    前記動体に応じて予め設定された速度スコアを加算し、
    前記動体の所属エリアが前記上空エリアの場合、前記速度スコアよりも高い第1のエリアスコアを加算し、
    前記動体の所属エリアが前記進入路エリア又は前記滑走路エリアの場合、前記第1のエリアスコアよりも高い第2のエリアスコアを加算し、
    前記速度スコア及びエリアスコアの合計値が最も高くなる動体を前記追尾対象として決定することを特徴とする請求項3に記載の動体追尾装置。
  5. 時刻に基づいて夜間であるか否かを判定する昼夜判定手段、をさらに備え、
    前記差分領域検出手段は、夜間と判定されたときに前記低感度モードのみで前記差分領域を検出し、
    前記動体検出手段は、夜間と判定されたときに、前記低感度モードで前記進入路エリアに含まれる動体を検出し、前記低感度モードで前記マスクエリアに含まれる動体を検出しないことを特徴とする請求項2から請求項4の何れか一項に記載の動体追尾装置。
  6. 前記追尾手段が出力した追尾対象の位置に基づいて、前記動体を撮影するロボットカメラを制御するロボットカメラ制御手段、をさらに備えることを特徴とする請求項2から請求項5の何れか一項に記載の動体追尾装置。
  7. 前記記憶手段は、前記高感度モードにおいて前記進入路エリアと、夜間用進入路エリアとがさらに設定された前記エリア情報を記憶し、
    夜間と判定されたとき、前記センサ映像内の前記夜間用進入路エリアにおいて、予め設定された輝度値以上の画素エリアを、前記航空機のライトとして検出するライト検出手段、をさらに備え、
    前記動体検出手段は、
    昼間と判定されたときに、前記低感度モードで前記進入路エリアに含まれず、かつ、前記高感度モードで前記進入路エリアに含まれる動体を遠方動体としてさらに検出し、
    夜間と判定されたときに、前記低感度モードで前記動体が検出されない場合、前記ライト検出手段が検出した航空機のライトを前記遠方動体としてさらに検出し、
    前記追尾手段は、前記追尾対象が存在せず、かつ、前記遠方動体を検出した場合、定位置制御を行うと決定し、
    前記ロボットカメラ制御手段は、前記追尾手段が前記定位置制御を行うと決定した場合、予め設定された撮影方向及び撮影画角で撮影するように前記ロボットカメラを制御することを特徴とする請求項6に記載の動体追尾装置。
  8. コンピュータを、請求項1から請求項7の何れか一項に記載の動体追尾装置として機能させるための動体追尾プログラム。
JP2017193646A 2017-10-03 2017-10-03 動体追尾装置及びそのプログラム Active JP6934386B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017193646A JP6934386B2 (ja) 2017-10-03 2017-10-03 動体追尾装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017193646A JP6934386B2 (ja) 2017-10-03 2017-10-03 動体追尾装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2019068325A true JP2019068325A (ja) 2019-04-25
JP6934386B2 JP6934386B2 (ja) 2021-09-15

Family

ID=66340786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017193646A Active JP6934386B2 (ja) 2017-10-03 2017-10-03 動体追尾装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6934386B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200388171A1 (en) * 2019-06-04 2020-12-10 Sucxess LLC System for recording images of landing and departing aircraft
JP7447417B2 (ja) 2019-09-27 2024-03-12 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514898A (ja) * 1991-06-28 1993-01-22 Toshiba Corp 画像監視装置
JP2003317200A (ja) * 2002-04-24 2003-11-07 Toshiba Corp 空港管制支援システム
JP2006301933A (ja) * 2005-04-20 2006-11-02 Toshiba Corp 走行誘導支援システム及び走行誘導支援方法
JP2008199442A (ja) * 2007-02-15 2008-08-28 Sony Corp 動き検出装置、動き検出方法、撮像装置および監視システム
JP2013157934A (ja) * 2012-01-31 2013-08-15 Nikon Corp 画像処理装置、撮像装置、及び画像処理プログラム
US8929603B1 (en) * 2013-03-15 2015-01-06 Puretech Systems, Inc. Autonomous lock-on target tracking with geospatial-aware PTZ cameras
WO2015122161A1 (ja) * 2014-02-14 2015-08-20 日本電気株式会社 映像解析システム
JP2016059014A (ja) * 2014-09-12 2016-04-21 沖電気工業株式会社 監視システム、映像解析装置、映像解析方法およびプログラム
JP2016139172A (ja) * 2015-01-26 2016-08-04 三菱電機株式会社 空港監視装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514898A (ja) * 1991-06-28 1993-01-22 Toshiba Corp 画像監視装置
JP2003317200A (ja) * 2002-04-24 2003-11-07 Toshiba Corp 空港管制支援システム
JP2006301933A (ja) * 2005-04-20 2006-11-02 Toshiba Corp 走行誘導支援システム及び走行誘導支援方法
JP2008199442A (ja) * 2007-02-15 2008-08-28 Sony Corp 動き検出装置、動き検出方法、撮像装置および監視システム
JP2013157934A (ja) * 2012-01-31 2013-08-15 Nikon Corp 画像処理装置、撮像装置、及び画像処理プログラム
US8929603B1 (en) * 2013-03-15 2015-01-06 Puretech Systems, Inc. Autonomous lock-on target tracking with geospatial-aware PTZ cameras
WO2015122161A1 (ja) * 2014-02-14 2015-08-20 日本電気株式会社 映像解析システム
JP2016059014A (ja) * 2014-09-12 2016-04-21 沖電気工業株式会社 監視システム、映像解析装置、映像解析方法およびプログラム
JP2016139172A (ja) * 2015-01-26 2016-08-04 三菱電機株式会社 空港監視装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200388171A1 (en) * 2019-06-04 2020-12-10 Sucxess LLC System for recording images of landing and departing aircraft
JP7447417B2 (ja) 2019-09-27 2024-03-12 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
JP6934386B2 (ja) 2021-09-15

Similar Documents

Publication Publication Date Title
CN110675592B (zh) 一种基于目标识别的高空抛物预警防护系统和控制方法
US7889232B2 (en) Method and system for surveillance of vessels
KR102177655B1 (ko) Mvs 기반의 무인항공기를 갖춘 객체 추적 시스템
Niu et al. A UAV-based traffic monitoring system-invited paper
CN104754302A (zh) 一种基于枪球联动系统的目标检测跟踪方法
JP2009143722A (ja) 人物追跡装置、人物追跡方法及び人物追跡プログラム
US20180249128A1 (en) Method for monitoring moving target, and monitoring device, apparatus, and system
US11436839B2 (en) Systems and methods of detecting moving obstacles
RU2755603C2 (ru) Система и способ обнаружения и противодействия беспилотным летательным аппаратам
JP6934386B2 (ja) 動体追尾装置及びそのプログラム
JP2006270404A (ja) 撮影制御装置、撮影制御方法および撮影制御プログラム
US11483484B2 (en) Systems and methods for imaging of moving objects using multiple cameras
JP6478177B2 (ja) 制御装置、撮像システム、移動体、制御方法、およびプログラム
US20200125879A1 (en) Apparatus and method for capturing flying objects
GB2605675A (en) Event-based aerial detection vision system
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
KR101403936B1 (ko) 차량촬영시스템
US10638098B2 (en) Surveillance method
KR20240021672A (ko) 우선순위에 따라 미확인 객체를 감시하는 객체 모니터링 장치
GB2582988A (en) Object classification
US20190068943A1 (en) Environment Perception System for Autonomous Vehicle
KR102172974B1 (ko) 레이더를 이용한 무인 비행체 식별 장치 및 그 방법
KR20230020184A (ko) 고정 카메라 및 이동 카메라를 이용한 영상 분석 장치
JP2022061059A (ja) 動体追尾装置及びそのプログラム
Shahbazi et al. Vehicle Tracking and Speed Estimation from Unmanned Aerial Videos

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6934386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250