JP6349737B2 - Moving object tracking device and moving object tracking method - Google Patents

Moving object tracking device and moving object tracking method Download PDF

Info

Publication number
JP6349737B2
JP6349737B2 JP2014006775A JP2014006775A JP6349737B2 JP 6349737 B2 JP6349737 B2 JP 6349737B2 JP 2014006775 A JP2014006775 A JP 2014006775A JP 2014006775 A JP2014006775 A JP 2014006775A JP 6349737 B2 JP6349737 B2 JP 6349737B2
Authority
JP
Japan
Prior art keywords
speed
information
moving
moving body
specific timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014006775A
Other languages
Japanese (ja)
Other versions
JP2015135274A (en
Inventor
伸吾 松尾
伸吾 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014006775A priority Critical patent/JP6349737B2/en
Publication of JP2015135274A publication Critical patent/JP2015135274A/en
Application granted granted Critical
Publication of JP6349737B2 publication Critical patent/JP6349737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動体追尾装置及び、移動体追尾方法に関する。   The present invention relates to a moving body tracking device and a moving body tracking method.

遠距離点を高速移動する移動体を光センサにより撮像して、その進路予測を行う方法が提案されている。例えば、特開2008−112210号公報においては、移動体の複数の画像を取得し、これらの画像から移動体を検出して、その移動ベクトルを算出する移動体検出手段と、算出した移動ベクトル等を用いて将来位置を予測する位置予測手段と、を備えた構成が開示されている。   A method has been proposed in which a moving body moving at a high speed at a long distance point is imaged by an optical sensor and the course is predicted. For example, in Japanese Patent Application Laid-Open No. 2008-112210, a moving body detection unit that acquires a plurality of images of a moving body, detects the moving body from these images, and calculates a movement vector thereof, a calculated movement vector, and the like And a position predicting means for predicting a future position using the above.

なお、将来位置を予測する際には、移動体は直線運動していると仮定し、当該仮定の元で移動ベクトルを用いて移動体の位置を予測する。   When predicting the future position, it is assumed that the moving body is moving linearly, and the position of the moving body is predicted using the movement vector based on the assumption.

特開2008−112210号公報JP 2008-112210 A

しかしながら、上述した特開2008−112210号公報にかかる方法では、移動ベクトルを求める際には、時刻の異なる複数の画像が必要であった。このため、進行方向が変化する移動体では進行方向の推定精度が低い場合があった。   However, in the method according to Japanese Patent Application Laid-Open No. 2008-112210 described above, a plurality of images having different times are necessary when obtaining the movement vector. For this reason, there are cases where the accuracy of estimation of the traveling direction is low in a moving body whose traveling direction changes.

また、移動体が直線運動すると仮定しているため、非直線運動している場合には、適正に将来位置を予測できない問題があった。   In addition, since it is assumed that the moving body moves linearly, there is a problem that the future position cannot be properly predicted when the moving body is moving non-linearly.

そこで、本発明の主目的は移動体の将来位置の予測精度を向上することができる移動体追尾装置及び、移動体追尾方法を提供することである。


そこで、本発明の主目的は、多くの画像を必要とすることなく、かつ、移動体が非直線運動する場合でも、当該移動体の将来位置を高精度に予測できる移動体追尾装置及び、移動体追尾方法を提供することである。
Therefore, a main object of the present invention is to provide a mobile tracking device and a mobile tracking method that can improve the prediction accuracy of the future position of the mobile.


Therefore, the main object of the present invention is to provide a mobile tracking device and a mobile device that can predict the future position of the mobile body with high accuracy even when the mobile body moves in a non-linear motion without requiring many images. It is to provide a body tracking method.

上記課題を解決するため、移動体追尾装置に係る発明は、現在位置での移動体の画像を画像情報として取り込み、予め登録されているテンプレートと比較することにより、移動体の進行方向を進行方位情報として算出・出力する進行方位取得ユニットと、移動体の現在位置である現在位置情報及び進行方位情報を取得して、移動体が、進行方向に沿って移動した際の将来位置を予測する将来位置予測ユニットと、を備えることを特徴とする。   In order to solve the above-described problems, the invention according to the moving body tracking device captures an image of the moving body at the current position as image information and compares it with a template registered in advance, thereby determining the traveling direction of the moving body as the traveling direction. The future direction where the moving body moves along the traveling direction by acquiring the traveling direction acquisition unit that calculates / outputs the information and the current position information and traveling direction information that is the current position of the moving body A position prediction unit.

また、移動体追尾方法に係る発明は、現在位置での移動体の画像を画像情報として取り込み、予め登録されているテンプレートと比較することにより、移動体の進行方向を進行方位情報として算出・出力する進行方位取得手順と、移動体の現在位置である現在位置情報及び進行方位情報を取得して、移動体が、進行方向に沿って移動した際の将来位置を予測する将来位置予測手順と、を含むことを特徴とする。   In addition, the invention relating to the moving body tracking method calculates and outputs the moving direction of the moving body as the traveling direction information by capturing the image of the moving body at the current position as image information and comparing it with a pre-registered template. A future direction prediction procedure for acquiring a current position information and a current direction information that are the current position of the mobile body, and predicting a future position when the mobile body has moved along the travel direction; It is characterized by including.

本発明によれば、少なくとも1枚の撮像画像から移動体の進行方位を取得し、これを用いて予測した進行方向を使用して将来位置を予測するので予測精度を向上させることができるようになる。   According to the present invention, the traveling direction of the moving object is acquired from at least one captured image, and the future position is predicted using the traveling direction predicted using the moving direction, so that the prediction accuracy can be improved. Become.

追尾方法に関する原理を説明する図で、(a)は本発明にかかる追尾方法を説明する図、(b)は公知の追尾方法を説明する図である。It is a figure explaining the principle regarding a tracking method, (a) is a figure explaining the tracking method concerning this invention, (b) is a figure explaining the well-known tracking method. 実施形態に係る移動体追尾装置のブロック図である。It is a block diagram of the mobile body tracking device concerning an embodiment. 移動体追尾方法を示すに示すフローチャートである。It is a flowchart shown in a mobile body tracking method. 画像情報、速度情報、距離情報の説明図で、(a)は画像情報の説明図、(b)は速度情報の説明図、(c)は距離情報の説明図である。It is explanatory drawing of image information, speed information, and distance information, (a) is explanatory drawing of image information, (b) is explanatory drawing of speed information, (c) is explanatory drawing of distance information. 対照処理を例示した図である。It is the figure which illustrated the control process. 視野方位情報の説明図である。It is explanatory drawing of visual field direction information. 進行速度の導出を説明する図である。It is a figure explaining derivation of advancing speed. 予測した将来位置の誤差を説明する図である。It is a figure explaining the error of the predicted future position. 図2の移動体追尾装置に代わる構成の移動体追尾装置のブロック図である。It is a block diagram of the mobile body tracking apparatus of the structure replaced with the mobile body tracking apparatus of FIG.

<原理>
先ず、本実施形態に係る移動体追尾方法の原理について説明する。図1は、移動体の追尾原理を説明する図で、(a)は本実施形態に係る原理(以下、本発明原理と記載する)、(b)は従前の原理(以下、公知原理と記載する)に係る原理を示した図である。同図において、撮像画像Fには、移動体Mが写っている。また、符号Pは撮像画像F内に設定した座標系での移動体Mの位置(画素位置)を示している。そこで、移動体Mが、位置Pに位置していることをM(P)として記載する。そして、時系列情報を添字i,j,kで示し、iは過去、jは現在、kは将来を示す。
<Principle>
First, the principle of the moving body tracking method according to the present embodiment will be described. 1A and 1B are diagrams for explaining the tracking principle of a moving object, where FIG. 1A is a principle according to the present embodiment (hereinafter referred to as the principle of the present invention), and FIG. 1B is a conventional principle (hereinafter referred to as a known principle). It is the figure which showed the principle which concerns. In the figure, the moving body M is shown in the captured image F. A symbol P indicates the position (pixel position) of the moving body M in the coordinate system set in the captured image F. Therefore, the fact that the moving body M is located at the position P is described as M (P). The time series information is indicated by subscripts i, j, and k, where i is the past, j is the present, and k is the future.

移動体の将来位置を予測するためには、この移動体の現在位置、速度、進行方向に関する情報が必要である。公知原理によれば、移動体Mは等速直線移動していると仮定して、移動体Mの進行方向は変化しないとしている。そして、レーダ等により移動体Mの速度、現在位置、進行方向を求めて、将来位置を予測する。このとき、進行方向を移動体の過去位置と現在位置とにより求めている。即ち、図1(b)に示すように、過去の位置Pi及び現在の位置Pjから進行方向を求め、位置Piから位置Pj間での距離及び所要時間t1から速度を求める。そして、進行方向及び速度を用いて、現在の位置Pjから時間t2後の位置Pkを予測する。従って、予測した位置Pkに撮像装置を向けて撮像するならば、移動体Mを撮像することができる(追尾することができる)。   In order to predict the future position of the mobile body, information on the current position, speed, and traveling direction of the mobile body is required. According to the known principle, it is assumed that the moving body M does not change the traveling direction, assuming that the moving body M is moving at a constant linear velocity. Then, the speed, the current position, and the traveling direction of the moving body M are obtained by a radar or the like, and the future position is predicted. At this time, the traveling direction is obtained from the past position and the current position of the moving body. That is, as shown in FIG. 1B, the traveling direction is obtained from the past position Pi and the current position Pj, and the speed is obtained from the distance between the position Pi and the position Pj and the required time t1. Then, the position Pk after the time t2 from the current position Pj is predicted using the traveling direction and the speed. Therefore, if the imaging apparatus is directed toward the predicted position Pk and the image is taken, the moving object M can be imaged (tracked).

しかし、このような追尾方法は、先に説明したように、移動体Mが等速直線運動しているとの仮定の下で成り立つ。従って、非直線運動する移動体Mの場合は、時間t2後には位置Pkに位置せず、位置Pk'に位置するので、予測した位置Pkに撮像装置を向けても移動体を撮像(追尾)することができない。   However, as described above, such a tracking method is established under the assumption that the moving body M is moving at a constant linear velocity. Therefore, in the case of the moving body M that moves in a non-linear manner, after the time t2, it is not located at the position Pk but is located at the position Pk ′. Therefore, the moving body is imaged (tracking) even if the imaging device is directed to the predicted position Pk. Can not do it.

これに対し、本発明原理では、図1(a)に示すように、現在の撮像画像Fjから進行方向を求める。また、レーダ等からの情報を利用して、速度及び現在位置を求めて、将来の位置Pkを予測する。従って、移動体Mが直線運動しているか非直線運動しているかにかかわらず、将来位置Pkが予測できるため、追尾することができる。   In contrast, according to the principle of the present invention, the traveling direction is obtained from the current captured image Fj as shown in FIG. Further, the speed and the current position are obtained using information from the radar or the like, and the future position Pk is predicted. Therefore, since the future position Pk can be predicted regardless of whether the moving body M is moving linearly or non-linearly, it can be tracked.

次に、このような移動体追尾方法の原理に基づく移動体追尾装置2について説明する。図2は、本実施形態に係る移動体追尾装置2のブロック図である。この移動体追尾装置2は、進行方位取得ユニット11、現在位置算出ユニット12、将来位置算出ユニット13を主要構成とする。   Next, the mobile body tracking device 2 based on the principle of such a mobile body tracking method will be described. FIG. 2 is a block diagram of the moving body tracking device 2 according to the present embodiment. The moving body tracking device 2 includes a traveling direction acquisition unit 11, a current position calculation unit 12, and a future position calculation unit 13 as main components.

なお、図2に示す移動体追尾装置2は、撮像装置4aやレーダ4b(電波レーダやレーザレーダ等)を備える計測ユニット4を含まない場合を示した。これは、撮像装置4aやレーダ4bは、種々の目的で設置されているので、本実施形態に係る移動体追尾装置2は、既存の設備(撮像装置4aやレーダ4b等)を利用する場合を例示したものである。しかし、当該移動体追尾装置2に、撮像装置4aやレーダ4bを含めることは、本発明の趣旨を逸脱するものではない。   Note that the moving body tracking device 2 illustrated in FIG. 2 does not include the measurement unit 4 including the imaging device 4a and the radar 4b (radio wave radar, laser radar, or the like). This is because the imaging device 4a and the radar 4b are installed for various purposes, and the mobile tracking device 2 according to the present embodiment uses the existing equipment (the imaging device 4a, the radar 4b, etc.). This is just an example. However, including the imaging device 4a and the radar 4b in the moving body tracking device 2 does not depart from the spirit of the present invention.

撮像装置4aは、CCDカメラ等を搭載して、移動する移動体を撮像して画像情報G1として出力する。また、レーダ4bは、移動体の速度に関する情報(以下、速度情報)G2や移動体までの距離に関する情報(以下、距離情報)G3を検出する。移動体の速度に関する情報として、ドップラ信号が例示できるが、本実施形態は当該ドップラ信号に限定するものではない。   The imaging device 4a is equipped with a CCD camera or the like, images a moving moving body, and outputs it as image information G1. Further, the radar 4b detects information (hereinafter referred to as speed information) G2 related to the speed of the moving object and information (hereinafter referred to as distance information) G3 related to the distance to the moving object. As information regarding the speed of the moving body, a Doppler signal can be exemplified, but the present embodiment is not limited to the Doppler signal.

進行方位取得ユニット11は、テンプレート記憶部11a、抽出画像解析部11bを含んでいる。   The traveling direction acquisition unit 11 includes a template storage unit 11a and an extracted image analysis unit 11b.

テンプレート記憶部11aは、テンプレートを予め格納している。このテンプレートは、例えば移動体が航空機の場合には、コクピット、主翼、尾翼等の位置関係を特徴点として含む航空機の3次元データの画像又は3次元情報からなる数値データが例示できる。   The template storage unit 11a stores templates in advance. For example, when the moving body is an aircraft, this template can be exemplified by an image of three-dimensional data of an aircraft including positional relationships such as a cockpit, a main wing, and a tail wing as feature points, or numerical data composed of three-dimensional information.

抽出画像解析部11bは、画像情報G1の中から移動体のみの画像を抽出する。以下、当該抽出処理により得られた画像を抽出画像と記載し、この抽出画像に関する情報を抽出画像情報G4と記載する。そして、抽出画像解析部11bは、抽出画像とテンプレートとの対照処理を行って、撮像装置4aに対する移動体の進行方向を3次元座標で決定し、これを進行方位情報G5として出力する。   The extracted image analysis unit 11b extracts an image of only the moving object from the image information G1. Hereinafter, an image obtained by the extraction process is referred to as an extracted image, and information regarding the extracted image is referred to as extracted image information G4. Then, the extracted image analysis unit 11b performs a contrast process between the extracted image and the template, determines the traveling direction of the moving body with respect to the imaging device 4a with three-dimensional coordinates, and outputs this as traveling direction information G5.

この進行方位情報を取得する方法として、例えば特開平09−9−33649号公報に開示されている方法が適用できる。この方法では、レーダエコーを処理して得られるISAR画像上に複数の点を指定し、各点間の2次元面上の相対位置関係を求める。そして、目標の3次元形状モデルデータベースから任意に選択される3次元形状モデルについてISAR画像上の複数の点に対応する対応点を求め、各対応点間の3次元空間における相対位置関係を求めることで、進行方向を推定する。   As a method for acquiring the traveling direction information, for example, a method disclosed in Japanese Patent Application Laid-Open No. 09-9-33649 can be applied. In this method, a plurality of points are designated on an ISAR image obtained by processing radar echoes, and the relative positional relationship on the two-dimensional surface between each point is obtained. Then, corresponding points corresponding to a plurality of points on the ISAR image are obtained for a three-dimensional shape model arbitrarily selected from the target three-dimensional shape model database, and a relative positional relationship in the three-dimensional space between the corresponding points is obtained. Then, the direction of travel is estimated.

無論、進行方位情報を取得する方法として、上述した方法に限定するものではなく、他の公知の方法も適用可能である。テンプレートの画像は、先に述べたように、3次元データの画像又は3次元情報からなる数値データでもよい。この場合、テンプレートの画像を3次元回転させ、また拡大縮小して、そのときのテンプレート画像と抽出画像とを対照して差分を求める。そして、この差分が最も少なくなるときの回転量から進行方向を求めることが可能である。   Of course, the method of acquiring the traveling direction information is not limited to the above-described method, and other known methods can be applied. As described above, the template image may be an image of three-dimensional data or numerical data including three-dimensional information. In this case, the template image is three-dimensionally rotated and scaled, and the difference between the template image and the extracted image at that time is obtained. Then, it is possible to obtain the traveling direction from the amount of rotation when the difference is the smallest.

現在位置算出ユニット12は、目標方位解析部12a、目標位置解析部12bを含んでいる。   The current position calculation unit 12 includes a target orientation analysis unit 12a and a target position analysis unit 12b.

目標方位解析部12aは、抽出画像に含まれる移動体の画素位置と、撮像装置4aの指向方向(視線方向)、画角、画素数等の条件とから、移動体の視野方位を決定し、これを視野方位情報G6として出力する。なお、視野方位とは、観測地点と移動体とを結ぶ線分のなす方向であり、ここでは撮像装置4aから見た移動体の視線方向である。   The target orientation analysis unit 12a determines the viewing direction of the moving object from the pixel position of the moving object included in the extracted image and the conditions such as the directing direction (gaze direction), the angle of view, and the number of pixels of the imaging device 4a. This is output as visual field direction information G6. The visual field direction is a direction formed by a line segment connecting the observation point and the moving body, and here, the viewing direction of the moving body as viewed from the imaging device 4a.

目標位置解析部12bは、レーダ4bからの距離情報G3と目標方位解析部12aからの視野方位情報G6とに基づき、移動体の現在位置を3次元座標で求め、これを現在位置情報G7として出力する。   Based on the distance information G3 from the radar 4b and the visual field azimuth information G6 from the target azimuth analysis unit 12a, the target position analysis unit 12b obtains the current position of the moving object in three-dimensional coordinates and outputs this as current position information G7. To do.

将来位置算出ユニット13は、将来位置予測部13a、目標位置誤差解析部13bを含んでいる。   The future position calculation unit 13 includes a future position prediction unit 13a and a target position error analysis unit 13b.

将来位置予測部13aには、レーダ4bからの速度情報G2、抽出画像解析部11bからの進行方位情報G5、目標位置解析部12bからの現在位置情報G7が入力する。そこで、将来位置予測部13aは、これらの情報を用いて移動体の将来位置を予測し、予測結果を将来位置情報G8として出力する。   The future position prediction unit 13a receives speed information G2 from the radar 4b, travel direction information G5 from the extracted image analysis unit 11b, and current position information G7 from the target position analysis unit 12b. Therefore, the future position prediction unit 13a predicts the future position of the mobile object using these pieces of information, and outputs the prediction result as future position information G8.

移動体の将来位置を予測する際には、移動体の現在位置、進行方向、速度が必要になる。現在位置は現在位置情報G7から求めることができ、進行方向は進行方位情報G5から求めることができる。   When predicting the future position of the moving body, the current position, traveling direction, and speed of the moving body are required. The current position can be obtained from the current position information G7, and the traveling direction can be obtained from the traveling direction information G5.

しかし、速度情報G2が示す速度(以下、視線速度と記載する)は、移動体の視線方向(レーダから見た移動体の方向)の速度であり、移動体の進行方向の速度(以下、進行速度と記載する)ではない。そこで、速度情報G2が示す視線速度を速度成分とする進行速度を求める。即ち、進行速度の視線方向成分が、視線速度となるように進行速度を算出する。   However, the speed indicated by the speed information G2 (hereinafter referred to as the line-of-sight speed) is the speed in the line-of-sight direction of the moving body (the direction of the moving body viewed from the radar), and the speed in the traveling direction of the moving body (hereinafter referred to as the progress) Not described as speed). Therefore, the traveling speed having the visual line speed indicated by the speed information G2 as a speed component is obtained. That is, the traveling speed is calculated so that the line-of-sight direction component of the traveling speed becomes the line-of-sight speed.

ところで、将来位置予測部13aには、目標位置誤差解析部13bから位置誤差補正情報G9も入力している。そこで、将来位置予測部13aは、位置誤差補正情報G9に基づき、少なくとも進行方位情報G5、速度情報G2、現在位置情報G7の1つの情報を補正して、補正された情報を用いて進行速度を求める。   By the way, the position error correction information G9 is also inputted to the future position prediction unit 13a from the target position error analysis unit 13b. Therefore, the future position prediction unit 13a corrects at least one information of the traveling direction information G5, the speed information G2, and the current position information G7 based on the position error correction information G9, and uses the corrected information to determine the traveling speed. Ask.

目標位置誤差解析部13bは、目標位置解析部12bからの現在位置情報G7と将来位置予測部13aからの将来位置情報G8とに基づき、当該将来位置情報G8の誤差を求める。但し、将来位置情報G8が、時刻t1の時の移動体の位置であったとすると、現在位置情報G7が示す移動体の位置も時刻t1の時の位置である。このようにして、予測した位置(将来位置情報G8が示す移動体の将来位置)と実際の位置(現在位置情報G7が示す現在位置)との差分から、進行方位情報G5、速度情報G2、現在位置情報G7に対する補正量を算出する。そして、上述したように、将来位置予測部13aは、この補正量を用いて、補正された移動体の進行速度を求める。   The target position error analysis unit 13b obtains an error of the future position information G8 based on the current position information G7 from the target position analysis unit 12b and the future position information G8 from the future position prediction unit 13a. However, if the future position information G8 is the position of the moving object at time t1, the position of the moving object indicated by the current position information G7 is also the position at time t1. Thus, from the difference between the predicted position (the future position of the mobile body indicated by the future position information G8) and the actual position (the current position indicated by the current position information G7), the traveling direction information G5, the speed information G2, and the current A correction amount for the position information G7 is calculated. Then, as described above, the future position prediction unit 13a obtains the corrected traveling speed of the moving body using the correction amount.

なお、補正処理は、進行方位情報G5に対して優先的に行うことが好ましい。これは速度情報G2がレーダ4bの性能に依存し、また現在位置情報もレーダ4bや撮像装置4aの性能に依存する計測装置に由来する誤差が主であるのに対して、進行方位情報G5は対照処理の対照精度に依存した解析誤差が主であるためである。   The correction process is preferably performed with priority on the traveling direction information G5. This is because the speed information G2 depends on the performance of the radar 4b, and the current position information mainly includes errors derived from the measuring device depending on the performance of the radar 4b and the imaging device 4a. This is because the analysis error depending on the control accuracy of the control process is main.

目標位置誤差解析部13bは、算出した補正値を数回分記憶して、当該補正量が収束傾向にあるか否かを判断する。そして、収束傾向にある場合は、補正量は変更せずに将来位置予測部13aに出力し、収束傾向にない場合は補正算出処理を継続する。   The target position error analysis unit 13b stores the calculated correction value for several times, and determines whether the correction amount tends to converge. And when it is in a convergence tendency, it outputs to the future position prediction part 13a, without changing a correction amount, and when not in a convergence tendency, a correction calculation process is continued.

次に、上述した移動体追尾装置2の詳細な構成を、図3を参照して説明する。なお、図3は、移動体追尾方法を示すに示すフローチャートである。   Next, a detailed configuration of the mobile tracking device 2 described above will be described with reference to FIG. FIG. 3 is a flowchart showing the moving body tracking method.

ステップS1: 移動体追尾装置2は、撮像装置4aやレーダ4b等の計測ユニット4からの計測値(画像情報G1、速度情報G2、距離情報G3)を取り込む。図4(a)〜図4(c)は、これら画像情報G1、速度情報G2、距離情報G3の説明図である。図4(a)は、画像情報G1を例示し、この画像情報G1には、移動体として航空機が写ると共に、背景として雲等が写っている。また、図4(b)は速度情報G2の説明図で、移動体は、レーダ4bの視線方向に視線速度100m/sで接近している場合を例示している。さらに、図4(c)は距離情報G3の説明図で、移動体は、レーダ4bから視線方向に10km離れた位置に存在している場合を例示している。   Step S1: The moving body tracking device 2 takes in measured values (image information G1, velocity information G2, distance information G3) from the measurement unit 4 such as the imaging device 4a or the radar 4b. FIGS. 4A to 4C are explanatory diagrams of the image information G1, the speed information G2, and the distance information G3. FIG. 4A illustrates the image information G1. In this image information G1, an aircraft is shown as a moving body, and clouds and the like are shown as a background. FIG. 4B is an explanatory diagram of the speed information G2, and illustrates a case where the moving body is approaching at a line-of-sight speed of 100 m / s in the line-of-sight direction of the radar 4b. Further, FIG. 4C is an explanatory diagram of the distance information G3, and illustrates a case where the moving body is present at a position 10 km away from the radar 4b in the line-of-sight direction.

ステップS2: そこで、抽出画像解析部11bは、画像情報G1から抽出画像情報G4を作成する。抽出画像情報G4の作成は、図4(a)に示すような画像情報G1から、背景を差し引くことにより行う。これにより画像情報G1から移動体が抽出され画像が得られる。   Step S2: Therefore, the extracted image analysis unit 11b creates extracted image information G4 from the image information G1. The extracted image information G4 is created by subtracting the background from the image information G1 as shown in FIG. As a result, the moving object is extracted from the image information G1, and an image is obtained.

ステップS3:このような抽出画像情報G4を作成した後、抽出画像解析部11bは、この抽出画像情報G4を出力すると共に、当該抽出画像情報G4から、対照処理により進行方位情報G5を求める。   Step S3: After creating such extracted image information G4, the extracted image analysis unit 11b outputs the extracted image information G4 and obtains the traveling direction information G5 from the extracted image information G4 by a contrast process.

この対照処理は、テンプレート記憶部11aからテンプレートを読み出し、抽出画像情報G4と比較する処理である。図5は、このような対照処理を例示した図である。テンプレート記憶部11aから任意のテンプレートを読み出し、抽出画像情報G4と比較(対照)する。そして、抽出画像情報G4とテンプレートとの差分が、予め設定した閾値より小さい場合には、当該比較したテンプレートと抽出画像情報G4とは種別が同じであると判断する。種別が同じであるとは、テンプレートが航空機の画像である場合には、抽出画像情報G4に含まれる移動体は航空機であると判断することに対応する。以下、移動体の種別が航空機の場合を例に説明する。   This contrast process is a process of reading a template from the template storage unit 11a and comparing it with the extracted image information G4. FIG. 5 is a diagram illustrating such a control process. An arbitrary template is read from the template storage unit 11a and compared (contrast) with the extracted image information G4. When the difference between the extracted image information G4 and the template is smaller than a preset threshold value, it is determined that the compared template and the extracted image information G4 have the same type. The same type corresponds to determining that the moving body included in the extracted image information G4 is an aircraft when the template is an aircraft image. Hereinafter, a case where the type of the moving body is an aircraft will be described as an example.

ステップS4: 次に、抽出画像解析部11bは、抽出画像情報G4から移動体の種別に対応した特徴点の位置を判断する。例えば、移動体が航空機の場合、抽出画像情報G4の画像からコクピット、主翼、尾翼等の予め設定された特徴部位の位置を判断する。そして、特徴部位の位置関係から移動体の進行方向を3次元座標で決定する。   Step S4: Next, the extracted image analysis unit 11b determines the position of the feature point corresponding to the type of the moving object from the extracted image information G4. For example, when the moving body is an aircraft, the position of preset characteristic parts such as a cockpit, main wing, and tail wing is determined from the image of the extracted image information G4. And the advancing direction of a moving body is determined with a three-dimensional coordinate from the positional relationship of a characteristic part.

テンプレートが3次元画像であるので、このテンプレートを回転させ、また拡大縮小させることにより、テンプレートにおける航空機を抽出画像情報G4における航空機に重ね合わせることができる。このときのテンプレートを回転量から、移動体の進行方向が得られる。   Since the template is a three-dimensional image, the aircraft in the template can be superimposed on the aircraft in the extracted image information G4 by rotating and enlarging / reducing the template. The traveling direction of the moving body can be obtained from the rotation amount of the template at this time.

ステップS5: 目標方位解析部12aは、図6に示すように、抽出画像情報G4における移動体の位置から、移動体の方位を判断して、視野方位情報G6として出力する。   Step S5: As shown in FIG. 6, the target azimuth analyzing unit 12a determines the azimuth of the moving body from the position of the moving body in the extracted image information G4, and outputs it as visual field azimuth information G6.

例えば、図6に示す場合、抽出画像情報G4は水平640画素で画角2°、垂直480画素で画角1.5°の画像情報であるとすると、移動体は、水平軸方向に中心から160画素、垂直軸方向に中心から120画素に位置している。このとき、抽出画像情報G4の中心が撮像装置4aの現在の指向方向(視線方向)であるとすると、移動体は、視線方向から水平軸方向に約0.5°、垂直軸方向に約0.38°の方位に位置していること判断できる。   For example, in the case illustrated in FIG. 6, if the extracted image information G4 is image information having a horizontal angle of 640 pixels and an angle of view of 2 °, and a vertical angle of 480 pixels and an angle of view of 1.5 °, the moving object is centered in the horizontal axis direction. 160 pixels, 120 pixels from the center in the vertical axis direction. At this time, assuming that the center of the extracted image information G4 is the current directivity direction (gaze direction) of the imaging device 4a, the moving body is about 0.5 ° from the gaze direction in the horizontal axis direction and about 0 in the vertical axis direction. It can be determined that the head is located in a 38 ° azimuth.

ステップS6: 次に、目標位置解析部12bは、距離情報G3と視野方位情報G6とを用いて、移動体までの距離を算出して、現在位置情報G7を出力する。   Step S6: Next, the target position analysis unit 12b calculates the distance to the moving body using the distance information G3 and the visual field orientation information G6, and outputs the current position information G7.

レーダ4bからの距離情報G3は、移動体とレーダ4bとの間の距離を示すだけで、方向に関する情報は含んでいない。そこで、距離情報G3と視野方位情報G6とから、移動体の現在位置(レーダ4bから○△の方向に、距離△□だけ離れた位置)を算出する。   The distance information G3 from the radar 4b only indicates the distance between the moving body and the radar 4b, and does not include information regarding the direction. Therefore, the current position of the moving body (a position that is separated from the radar 4b by a distance Δ □) is calculated from the distance information G3 and the visual field direction information G6.

ステップS7: 以上の処理により取得された進行方位情報G5、速度情報G2、現在位置情報G7が将来位置予測部13aに入力する。将来位置予測部13aは、速度情報G2から移動体の進行方向における進行速度を求める。   Step S7: The traveling direction information G5, speed information G2, and current position information G7 acquired by the above process are input to the future position prediction unit 13a. The future position prediction unit 13a obtains the traveling speed in the traveling direction of the moving object from the speed information G2.

図7は、進行速度の導出を説明する2次元平面図である。移動体の進行方位は進行方位情報G5から視線方向に対してレーダ4bに近づく方向に60°、視線速度は速度情報G2からレーダ4bに近づく方向に100m/sであるとする。このとき、移動体の進行速度は、視線速度を進行方向上に投影すると200m/sとなる。   FIG. 7 is a two-dimensional plan view for explaining the derivation of the traveling speed. It is assumed that the traveling direction of the moving body is 60 ° in the direction approaching the radar 4b with respect to the viewing direction from the traveling direction information G5, and the viewing speed is 100 m / s in the direction approaching the radar 4b from the speed information G2. At this time, the traveling speed of the moving body is 200 m / s when the line-of-sight speed is projected in the traveling direction.

ステップS8: このようにして、進行速度が算出できたので、将来位置予測部13aは、この進行速度、現在位置、進行方向を用いて、現在位置から進行方向に沿った方向に進行速度で移動したとき、所定時間後にどの位置(将来位置)に位置するかを算出する。算出した将来位置は、将来位置情報G8として出力される。なお、将来位置予測部13aには、後述する手順で入力した目標位置誤差解析部13bからの補正値が記憶されている。将来位置予測部13aは、進行速度、現在位置、進行方向の少なくとも1つに対して補正値に基づく補正を行い、将来位置を予測する。   Step S8: Since the traveling speed has been calculated in this way, the future position predicting unit 13a uses the traveling speed, the current position, and the traveling direction to move from the current position to the direction along the traveling direction at the traveling speed. When this is done, it is calculated which position (future position) is located after a predetermined time. The calculated future position is output as future position information G8. The future position prediction unit 13a stores a correction value from the target position error analysis unit 13b input in the procedure described later. The future position prediction unit 13a performs a correction based on the correction value on at least one of the traveling speed, the current position, and the traveling direction, and predicts the future position.

ステップS9: 目標位置誤差解析部13bは、将来位置情報G8と移動体現在位置情報G7との差分から将来位置の誤差を算出し、この誤差に基づき補正量を求める。   Step S9: The target position error analysis unit 13b calculates a future position error from the difference between the future position information G8 and the moving body current position information G7, and obtains a correction amount based on the error.

図8は、誤差を説明する図で、点αは将来位置情報G8が示す将来位置を示し、点βは移動体現在位置情報G7が示す現在位置を示している。図8においては、進行方位情報G5に主な誤差が含まれていると仮定している。即ち、進行方位情報G5に基づき算出した進行方向は視野方向に対して60°の角度であったが、実際の進行方向は50°の角度であったことを示している。そこで、目標位置誤差解析部13bは、進行方向の角度差(=10°)を補正値とする。   FIG. 8 is a diagram for explaining the error. The point α indicates the future position indicated by the future position information G8, and the point β indicates the current position indicated by the moving body current position information G7. In FIG. 8, it is assumed that main error is included in the traveling direction information G5. That is, the traveling direction calculated based on the traveling direction information G5 is an angle of 60 ° with respect to the visual field direction, but the actual traveling direction is an angle of 50 °. Therefore, the target position error analysis unit 13b sets the angle difference (= 10 °) in the traveling direction as a correction value.

ステップS10,S11: 目標位置誤差解析部13bは、この補正値を数回分記憶して、その収束性を判断する。この場合、補正値が一定値に近づくようであれば収束性があると判断して、この補正値を将来位置予測部13aに出力する。将来位置予測部13aはこの補正値を、既に記憶している補正値と置き換える。即ち、補正値を更新する。   Steps S10 and S11: The target position error analysis unit 13b stores the correction value for several times and determines its convergence. In this case, if the correction value approaches a constant value, it is determined that there is convergence, and this correction value is output to the future position prediction unit 13a. The future position prediction unit 13a replaces the correction value with the correction value that has already been stored. That is, the correction value is updated.

一方、補正値が大きくなるようであれば、ステップS9に戻る。ステップ9に戻ることは、将来位置予測部13aに記憶されている補正値は更新されないことを意味する。   On the other hand, if the correction value increases, the process returns to step S9. Returning to step 9 means that the correction value stored in the future position prediction unit 13a is not updated.

以上説明したように、将来位置の予測に際しては、移動体の過去の位置等の情報が必要とされず、現時点での情報のみで将来位置を予測する。このため、複雑な追尾アルゴリズム等を用いずに、簡単に、かつ、高精度に非直線運動する移動体を追尾することができるようになる。   As described above, in predicting the future position, information such as the past position of the mobile object is not required, and the future position is predicted only with the current information. For this reason, it becomes possible to track a moving body that moves non-linearly with high accuracy without using a complicated tracking algorithm or the like.

なお、上記説明では、視野方位情報G6と距離情報G3とを用いて、移動体の現在位置を高精度で算出するようにした。しかし、レーダでも例えばアレーアンテナを用いて移動体の現在位置を取得できる場合には、図9に示すように、現在位置算出ユニットを省略することが可能であることを付言する。   In the above description, the current position of the moving object is calculated with high accuracy by using the viewing direction information G6 and the distance information G3. However, when the radar can acquire the current position of the moving object using, for example, an array antenna, it is added that the current position calculation unit can be omitted as shown in FIG.

2 移動体追尾装置
4 計測ユニット
4a 撮像装置
4b レーダ
11 進行方位取得ユニット
11a テンプレート記憶部
11b 抽出画像解析部
12 現在位置算出ユニット
12a 目標方位解析部
12b 目標位置解析部
13 将来位置算出ユニット
13a 将来位置予測部
13b 目標位置誤差解析部
DESCRIPTION OF SYMBOLS 2 Moving body tracking apparatus 4 Measurement unit 4a Imaging apparatus 4b Radar 11 Traveling direction acquisition unit 11a Template memory | storage part 11b Extracted image analysis part 12 Current position calculation unit 12a Target direction analysis part 12b Target position analysis part 13 Future position calculation unit 13a Future position Prediction unit 13b Target position error analysis unit

Claims (8)

特定タイミングでの移動体の画像を画像情報として取り込み、予め登録されているテンプレートと比較することにより、前記移動体の進行方向を進行方位情報として算出する進行方位解析手段と、
前記移動体の速度を取得する速度取得手段と、
前記移動体の位置情報を取得する移動体位置取得手段と、
前記移動体の特定タイミングでの前記進行方位情報と、前記速度取得手段により取得された特定タイミングでの前記移動体の速度と、前記移動体位置取得手段により取得された特定タイミングでの前記移動体の位置情報とを用いて特定タイミングから所定期間経過した時の移動体の位置を予測する位置予測手段と、
前記移動体位置取得手段により、前記特定タイミングから所定期間経過時における移動体の位置情報を取得し、前記位置予測手段により予測した移動体の位置と前記特定タイミングから所定期間経過時における移動体の位置情報とを比較して予測誤差を求め、前記進行方位情報を補正する補正値を算出する移動体位置誤差解析手段を備えることを特徴とする移動体追尾装置。
A moving direction analysis unit that takes in an image of a moving body at a specific timing as image information and compares it with a template registered in advance, and calculates the moving direction of the moving body as traveling direction information;
Speed acquisition means for acquiring the speed of the moving body;
Moving body position acquisition means for acquiring position information of the moving body;
The traveling direction information at a specific timing of the mobile body, the speed of the mobile body at the specific timing acquired by the speed acquisition means, and the mobile body at the specific timing acquired by the mobile body position acquisition means position information of the position prediction means for predicting the position of the movable body when the predetermined period of time has elapsed from a specific timing using a
The mobile body position acquisition means acquires position information of the mobile body when a predetermined period has elapsed from the specific timing, and the position of the mobile body predicted by the position prediction means and the mobile body when the predetermined period has elapsed from the specific timing. A moving body tracking device comprising a moving body position error analyzing means for calculating a correction value for correcting the traveling direction information by calculating a prediction error by comparing with position information .
特定タイミングでの移動体の画像を画像情報として取り込み、予め登録されているテンプレートと比較することにより、前記移動体の進行方向を進行方位情報として算出する進行方位解析手段と、
前記移動体の速度を取得する速度取得手段と、
前記移動体の位置情報を取得する移動体位置取得手段と、
前記移動体の特定タイミングでの前記進行方位情報と、前記速度取得手段により取得された特定タイミングでの前記移動体の速度と、前記移動体位置取得手段により取得された特定タイミングでの前記移動体の位置情報とを用いて特定タイミングから所定期間経過した時の移動体の位置を予測する位置予測手段を備える移動体追尾装置であって、
前記位置予測手段は、前記進行方向の速度を進行速度とし、移動体のレーダ視線方向の速度を視線速度とした際に、前記進行方位情報と視線速度情報とから、前記進行速度の前記視線方向における速度成分が前記視線速度に一致するように、前記進行速度を算出することを特徴とする移動体追尾装置。
A moving direction analysis unit that takes in an image of a moving body at a specific timing as image information and compares it with a template registered in advance, and calculates the moving direction of the moving body as traveling direction information;
Speed acquisition means for acquiring the speed of the moving body;
Moving body position acquisition means for acquiring position information of the moving body;
The traveling direction information at a specific timing of the mobile body, the speed of the mobile body at the specific timing acquired by the speed acquisition means, and the mobile body at the specific timing acquired by the mobile body position acquisition means A mobile body tracking device comprising position prediction means for predicting the position of the mobile body when a predetermined period has elapsed from a specific timing using the position information of
The position predicting means uses the traveling direction information and the line-of-sight speed information as the line-of-sight direction of the traveling speed when the speed in the traveling direction is the traveling speed and the speed of the moving body in the radar line-of-sight direction is the line-of-sight The moving body tracking device according to claim 1, wherein the traveling speed is calculated so that a velocity component in the line coincides with the line-of-sight speed .
請求項に記載の移動体追尾装置であって、
前記位置予測手段は、前記進行方向の速度を進行速度とし、移動体のレーダ視線方向の速度を視線速度とした際に、前記位置予測手段は、前記進行方位情報と視線速度情報とから、前記進行速度の前記視線方向における速度成分が前記視線速度に一致するように、前記進行速度を算出することを特徴とする移動体追尾装置。
The mobile tracking device according to claim 1 ,
When the position predicting means uses the speed in the traveling direction as the traveling speed and the speed in the radar line-of-sight direction of the moving body as the line-of-sight speed, the position predicting means uses the traveling direction information and the line-of-sight speed information to calculate the position The moving body tracking device , wherein the traveling speed is calculated so that a speed component of the traveling speed in the line-of-sight direction matches the line-of-sight speed .
請求項1乃至3のいずれか1項に記載の移動体追尾装置であって、
前記進行方位解析手段は、
前記テンプレートを予め複数記憶するテンプレート記憶手段と、
前記画像情報から前記移動体を抽出した抽出画像情報を作成し、当該抽出画像情報と前記テンプレート記憶手段から読み出した前記テンプレートとを比較することにより、前記移動体の進行方向を進行方位情報として求める抽出画像解析手段を備えることを特徴とする移動体追尾装置。
The mobile tracking device according to any one of claims 1 to 3,
The traveling direction analyzing means is
Template storage means for storing a plurality of the templates in advance;
The extracted image information obtained by extracting the moving object from the image information is created, and the extracted image information is compared with the template read from the template storage unit, thereby obtaining the traveling direction of the moving object as the traveling direction information. A moving body tracking device comprising extracted image analysis means .
特定タイミングでの移動体の画像を画像情報として取り込み、予め登録されているテンプレートと比較することにより、前記移動体の進行方向を進行方位情報として算出する進行方位解析手順と、前記移動体の速度を取得する速度取得手順と、
前記移動体の位置情報を取得する移動体位置取得手順と、
前記移動体の特定タイミングでの前記進行方位情報と、前記速度取得手順により取得された特定タイミングでの前記移動体の速度と、前記移動体位置取得手順により取得された特定タイミングでの前記移動体の位置情報とを用いて特定タイミングから所定期間経過した時の移動体の位置を予測する位置予測手順と、
前記移動体位置取得手順により、前記特定タイミングから所定期間経過時における移動体の位置情報を取得し、前記位置予測手順により予測した移動体の位置と前記特定タイミングから所定期間経過時における移動体の位置情報とを比較して予測誤差を求め、前記進行方位情報を補正する補正値を算出する移動体位置誤差解析手順を備えることを特徴とする移動体追尾方法。
A moving direction analysis procedure for calculating the moving direction of the moving body as moving direction information by taking an image of the moving body at a specific timing as image information and comparing it with a pre-registered template, and the speed of the moving body To get the speed acquisition procedure,
A moving object position acquisition procedure for acquiring position information of the moving object;
The traveling direction information at a specific timing of the mobile body, the speed of the mobile body at the specific timing acquired by the speed acquisition procedure, and the mobile body at the specific timing acquired by the mobile body position acquisition procedure position information of the position prediction procedure predicts the position of the movable body when the predetermined period of time has elapsed from a specific timing using a
The mobile body position acquisition procedure acquires the position information of the mobile body at the time when the predetermined period has elapsed from the specific timing, and the position of the mobile body predicted by the position prediction procedure and the mobile body at the time when the predetermined period has elapsed from the specific timing. A moving body tracking method comprising: a moving body position error analysis procedure for calculating a correction value for correcting the traveling direction information by calculating a prediction error by comparing with position information .
特定タイミングでの移動体の画像を画像情報として取り込み、予め登録されているテンプレートと比較することにより、前記移動体の進行方向を進行方位情報として算出する進行方位解析手順と、前記移動体の速度を取得する速度取得手順と、
前記移動体の位置情報を取得する移動体位置取得手順と、
前記移動体の特定タイミングでの前記進行方位情報と、前記速度取得手順により取得された特定タイミングでの前記移動体の速度と、前記移動体位置取得手順により取得された特定タイミングでの前記移動体の位置情報とを用いて特定タイミングから所定期間経過した時の移動体の位置を予測する位置予測手順とを備える移動体追尾方法であって、
前記位置予測手順は、前記進行方向の速度を進行速度とし、移動体のレーダ視線方向の速度を視線速度とした際に、前記位置予測手順は、前記進行方位情報と前記視線速度とから、前記進行速度の前記視線方向における速度成分が前記視線速度に一致するように、前記進行速度を算出することを特徴とする移動体追尾方法。
A moving direction analysis procedure for calculating the moving direction of the moving body as moving direction information by taking an image of the moving body at a specific timing as image information and comparing it with a pre-registered template, and the speed of the moving body To get the speed acquisition procedure,
A moving object position acquisition procedure for acquiring position information of the moving object;
The traveling direction information at a specific timing of the mobile body, the speed of the mobile body at the specific timing acquired by the speed acquisition procedure, and the mobile body at the specific timing acquired by the mobile body position acquisition procedure A position tracking procedure for predicting the position of the moving object when a predetermined period has elapsed from the specific timing using the position information of
In the position prediction procedure, when the speed in the traveling direction is set as the traveling speed and the speed in the radar line-of-sight direction of the moving body is set as the line-of-sight speed, the position prediction procedure is calculated from the traveling direction information and the line-of-sight speed The moving body tracking method , wherein the traveling speed is calculated so that a speed component of the traveling speed in the line-of-sight direction matches the line-of-sight speed .
請求項に記載の移動体追尾方法であって、
前記位置予測手順は、前記進行方向の速度を進行速度とし、移動体のレーダ視線方向の速度を視線速度とした際に、前記位置予測手順は、前記進行方位情報と前記視線速度とから、前記進行速度の前記視線方向における速度成分が前記視線速度に一致するように、前記進行速度を算出することを特徴とする移動体追尾方法。
The mobile tracking method according to claim 5 ,
In the position prediction procedure, when the speed in the traveling direction is set as the traveling speed and the speed in the radar line-of-sight direction of the moving body is set as the line-of-sight speed, the position prediction procedure is calculated from the traveling direction information and the line-of-sight speed. The moving body tracking method , wherein the traveling speed is calculated so that a speed component of the traveling speed in the line-of-sight direction matches the line-of-sight speed .
請求項5乃至7のいずれか1項に記載の移動体追尾方法であって、
前記進行方位解析手順は、
前記テンプレートを予め複数記憶するテンプレート記憶手順と、
前記画像情報から前記移動体を抽出した抽出画像情報を作成し、当該抽出画像情報と前記テンプレートとを比較することにより、前記移動体の進行方向を進行方位情報として求める抽出画像解析手順を含むことを特徴とする移動体追尾方法。
A moving body tracking method according to any one of claims 5 to 7,
The traveling direction analysis procedure is:
A template storage procedure for storing a plurality of the templates in advance;
Including an extracted image analysis procedure for creating extracted image information obtained by extracting the moving object from the image information and comparing the extracted image information and the template to determine the traveling direction of the moving object as traveling direction information. The moving body tracking method characterized by this.
JP2014006775A 2014-01-17 2014-01-17 Moving object tracking device and moving object tracking method Active JP6349737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014006775A JP6349737B2 (en) 2014-01-17 2014-01-17 Moving object tracking device and moving object tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014006775A JP6349737B2 (en) 2014-01-17 2014-01-17 Moving object tracking device and moving object tracking method

Publications (2)

Publication Number Publication Date
JP2015135274A JP2015135274A (en) 2015-07-27
JP6349737B2 true JP6349737B2 (en) 2018-07-04

Family

ID=53767198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014006775A Active JP6349737B2 (en) 2014-01-17 2014-01-17 Moving object tracking device and moving object tracking method

Country Status (1)

Country Link
JP (1) JP6349737B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101704635B1 (en) * 2015-12-14 2017-02-08 현대오트론 주식회사 Method and apparatus for detecting target using radar and image raster data
KR101848864B1 (en) * 2016-03-31 2018-04-16 주식회사 아이유플러스 Apparatus and method for tracking trajectory of target using image sensor and radar sensor
JP6826888B2 (en) * 2017-01-11 2021-02-10 株式会社トプコン Surveying equipment, unmanned aerial vehicle search methods, surveying systems and programs
JP6511560B1 (en) * 2018-03-15 2019-05-15 東芝電波プロダクツ株式会社 Precision measurement radar and display system
JP7268732B2 (en) * 2019-06-28 2023-05-08 日本電気株式会社 Radar system, imaging method and imaging program
KR102162019B1 (en) * 2019-07-29 2020-10-06 한국과학기술원 Three dimensional image generating method and apparatus
TWI800287B (en) 2022-03-03 2023-04-21 緯創資通股份有限公司 Radar detection system and radar field of view adjustment method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03105200A (en) * 1989-09-19 1991-05-01 Mitsubishi Electric Corp Aiming mechanism
JP3304744B2 (en) * 1996-03-05 2002-07-22 三菱電機株式会社 Radar equipment
JP2003337170A (en) * 2002-03-14 2003-11-28 Furuno Electric Co Ltd Radar and radar signal processor
JP2010032429A (en) * 2008-07-30 2010-02-12 Toyota Motor Corp Object detector
US9075143B2 (en) * 2010-04-30 2015-07-07 Applied Physical Sciences Corp. Sparse array RF imaging for surveillance applications
JP5769163B2 (en) * 2010-05-13 2015-08-26 株式会社ユピテル Alarm device

Also Published As

Publication number Publication date
JP2015135274A (en) 2015-07-27

Similar Documents

Publication Publication Date Title
JP6349737B2 (en) Moving object tracking device and moving object tracking method
US10884110B2 (en) Calibration of laser and vision sensors
CN108171733B (en) Method of registering two or more three-dimensional 3D point clouds
CN112567201B (en) Distance measuring method and device
JP5459678B2 (en) Mobile image tracking device
US9317035B2 (en) Remote operation system
KR20180044279A (en) System and method for depth map sampling
JP6708730B2 (en) Mobile
JP2016517981A (en) Method for estimating the angular deviation of a moving element relative to a reference direction
JP2017524932A (en) Video-assisted landing guidance system and method
CN113239719A (en) Track prediction method and device based on abnormal information identification and computer equipment
JP2019023017A (en) Vehicle body inclination estimating device
JP2019056629A (en) Distance estimation device and method
JP6815935B2 (en) Position estimator
JP5370122B2 (en) Moving object position estimation device and moving object position estimation method
JP2009260564A (en) Mobile object image tracking apparatus
US11645762B2 (en) Obstacle detection
US9245343B1 (en) Real-time image geo-registration processing
CN113064434B (en) Water surface target detection and tracking control method based on master-slave formation
JP2019179289A (en) Processing device and program
JPWO2018123640A1 (en) Imaging device
JP2014107791A (en) Tracker and tracking method
Matsuyama et al. Estimation of pedestrian pose and velocity considering arm swing using point-cloud data
JP2020076714A (en) Position attitude estimation device
JP2016142577A (en) Image processing device, image processing method, image processing system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6349737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150