JP2019003334A - Object tracking method and object tracking program and object tracking system - Google Patents

Object tracking method and object tracking program and object tracking system Download PDF

Info

Publication number
JP2019003334A
JP2019003334A JP2017116144A JP2017116144A JP2019003334A JP 2019003334 A JP2019003334 A JP 2019003334A JP 2017116144 A JP2017116144 A JP 2017116144A JP 2017116144 A JP2017116144 A JP 2017116144A JP 2019003334 A JP2019003334 A JP 2019003334A
Authority
JP
Japan
Prior art keywords
unrecognized
moving
type
moving object
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017116144A
Other languages
Japanese (ja)
Other versions
JP6898587B2 (en
Inventor
俊介 ▲高▼村
俊介 ▲高▼村
Shunsuke Takamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017116144A priority Critical patent/JP6898587B2/en
Publication of JP2019003334A publication Critical patent/JP2019003334A/en
Application granted granted Critical
Publication of JP6898587B2 publication Critical patent/JP6898587B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an object tracking method capable of reducing a calculation load of object tracking.SOLUTION: An object tracking method has a step of classifying an object whose elapsed time from a time when the object is detected in a moving image where a plurality of frames is lined up along a time sequence continue for a prescribed time as a dynamic body, a step of classifying an object whose elapsed time is below the prescribed time as a candidate of a dynamic body, a step of checking a correspondence of an unrecognized object detected in a current frame to the dynamic body (S1 to S6), a step of mapping the unrecognized object as the dynamic body when it is judged that the unrecognized object corresponds to the dynamic body (S7:YES, S30), a step of checking a correspondence of the unrecognized object to the candidate of a dynamic body when it is judged that the unrecognized object does not correspond to the dynamic body (S7:NO, S8 to S10), and a step of mapping the unrecognized object with the candidate of a dynamic body when it is judged that the unrecognized object corresponds to the candidate of a dynamic body (S10:YES, S31).SELECTED DRAWING: Figure 4

Description

本発明は、物体追跡方法、物体追跡プログラム、および物体追跡システムに関する。   The present invention relates to an object tracking method, an object tracking program, and an object tracking system.

物体追跡は、時系列に並んだ複数の画像(フレーム)内から、それら複数の画像内で移動する物体を識別して追跡する技術である。   Object tracking is a technique for identifying and tracking an object moving in a plurality of images (frames) arranged in time series.

従来の物体追跡技術としては、たとえば、先行車を検出する技術がある。この技術では、ミリ波レーダにより検出された計測点のうち、互いに近接し、かつ同じ相対速度を有する計測点どうしをグルーピングして計測点グループを生成する。生成された計測点グループのうち、先行車両の条件を満たす計測点グループを抽出し、時間の経過に応じて所定回数以上抽出された計測点グループを先行車両として検出している(特許文献1)。   As a conventional object tracking technique, for example, there is a technique for detecting a preceding vehicle. In this technique, among measurement points detected by a millimeter wave radar, measurement points that are close to each other and have the same relative velocity are grouped to generate a measurement point group. Among the generated measurement point groups, measurement point groups that satisfy the conditions of the preceding vehicle are extracted, and a measurement point group that is extracted a predetermined number of times or more is detected as the preceding vehicle as time passes (Patent Document 1). .

特開2005−173806号公報JP-A-2005-173806

しかしながら、従来技術では、現在時点で検出された計測点が、先行車として認識された測定点グループの測定点と同じであるか否かを判断する段階では、すべての測定点グループと、現在時点における計測点との関連度を調べている。このため、過去の時間経過で認識された先行車(物体)と現在の測定点との対応関係を計算する際の負荷が大きい。   However, in the prior art, in determining whether the measurement points detected at the current time point are the same as the measurement points of the measurement point group recognized as the preceding vehicle, all the measurement point groups are Investigating the degree of association with measurement points. For this reason, the load at the time of calculating the correspondence between the preceding vehicle (object) recognized in the past time passage and the current measurement point is large.

そこで、本発明の目的は、物体追跡の計算負荷を軽減できる物体追跡方法を提供することである。また、本発明の他の目的は、物体追跡の計算負荷を軽減できる物体追跡プログラムを提供することである。さらに、本発明の他の目的は、物体追跡の計算負荷を軽減できる物体追跡システムを提供することである。   Therefore, an object of the present invention is to provide an object tracking method that can reduce the calculation load of object tracking. Another object of the present invention is to provide an object tracking program capable of reducing the object tracking calculation load. Furthermore, the other object of this invention is to provide the object tracking system which can reduce the calculation load of object tracking.

上記の目的は、以下の手段により達成される。   The above object is achieved by the following means.

(1)時系列に沿って複数のフレームが並んでいる動画の中で検出された物体であって、検出されてからの経過時間が、あらかじめ決められた所定時間以上継続している物体を第1種物体と分類し、前記所定時間未満の物体を第2種物体と分類しておく段階(a)と、
現在フレームで検出した物体を未認識物体として、当該未認識物体と前記第1種物体との対応を調べる段階(b)と、
前記段階(b)において、前記未認識物体と前記第1種物体とが対応していると判断された場合は前記未認識物体と前記第1種物体とを対応付けする段階(c)と、
前記段階(b)において、前記未認識物体と前記第1種物体が対応していないと判断された場合は、前記未認識物体と前記第2種物体との対応を調べる段階(d)と、
前記段階(d)において、前記未認識物体と前記第2種物体とが対応していると判断された場合は前記未認識物体と前記第2種物体とを対応付けする段階(e)と、
を有する、物体追跡方法。
(1) An object that is detected in a moving image in which a plurality of frames are arranged in time series and that has elapsed since detection is continued for a predetermined time or more. Classifying as an object of type 1 and classifying an object of less than the predetermined time as an object of type 2 (a);
(B) examining the correspondence between the unrecognized object and the first type object, using the object detected in the current frame as an unrecognized object;
A step (c) of associating the unrecognized object and the first type object when it is determined in the step (b) that the unrecognized object and the first type object correspond to each other;
In the step (b), when it is determined that the unrecognized object and the first type object do not correspond to each other, a step (d) of checking the correspondence between the unrecognized object and the second type object;
In the step (d), when it is determined that the unrecognized object and the second type object correspond to each other, the step (e) of associating the unrecognized object with the second type object;
An object tracking method.

(2)前記段階(e)において、前記未認識物体と対応付けた前記第2種物体が、物体として検出されてからの経過時間が前記所定時間以上経過していれば前記第2種物体を前記第1種物体に分類する段階(e1)を有する、上記(1)記載の物体追跡方法。   (2) In the step (e), if the elapsed time after the second type object associated with the unrecognized object is detected as an object has passed the predetermined time, the second type object is The object tracking method according to (1), further including a step (e1) of classifying the first type object.

(3)前記段階(a)において、前記第2種物体は、物体として検出されてからの経過時間と関連付けておき、
前記段階(d)において、前記第2種物体は、物体として検出されてからの経過時間が長い方から順に前記未認識物体との対応を調べる、上記(1)または(2)に記載の物体追跡方法。
(3) In the step (a), the second type object is associated with an elapsed time since it was detected as an object,
The object according to (1) or (2), wherein in the step (d), the second type object is checked for correspondence with the unrecognized object in order from the longer elapsed time after being detected as an object. Tracking method.

(4)前記段階(a)において、前記第1種物体は、物体として検出されてからの経過時間と関連付けておき、
前記段階(b)において、前記第1種物体は、物体として検出されてからの経過時間が長い方から順に前記未認識物体との対応を調べる、上記(1)〜(3)のいずれか1つに記載の物体追跡方法。
(4) In the step (a), the first type object is associated with an elapsed time since it was detected as an object,
In the step (b), any one of the above (1) to (3), wherein the first type object is checked for correspondence with the unrecognized object in order from the longest elapsed time after being detected as an object. The object tracking method described in one.

(5)前記段階(a)において、前記段階(b)で前記未認識物体と対応していない前記第1種物体を第3種物体として分類しておき、
前記段階(d)において、前記未認識物体と前記第2種物体とが対応していないと判断された場合は前記未認識物体と前記第3種物体との対応を調べる段階(f)と、
前記段階(f)において、前記未認識物体と前記第3種物体とが対応していると判断された場合は前記未認識物体と前記第3種物体とを対応付けして、前記第3種物体を前記第1種物体に分類し直す段階(g)と、
前記段階(f)において、前記未認識物体と前記第3種物体とが対応していないと判断された場合は前記未認識物体を前記第2種物体に分類する段階(h)と、
を有する、上記(1)〜(4)のいずれか1つに記載の物体追跡方法。
(5) In the step (a), the first type object that does not correspond to the unrecognized object in the step (b) is classified as a third type object,
In the step (d), when it is determined that the unrecognized object and the second type object do not correspond to each other, a step (f) of checking the correspondence between the unrecognized object and the third type object;
In the step (f), when it is determined that the unrecognized object and the third type object correspond to each other, the unrecognized object and the third type object are associated with each other, and the third type Reclassifying an object into the first type object (g);
In the step (f), when it is determined that the unrecognized object and the third type object do not correspond to each other, the step (h) of classifying the unrecognized object as the second type object;
The object tracking method according to any one of (1) to (4) above, including:

(6)前記段階(d)において、前記未認識物体がいずれの前記第2種物体とも対応していないと判断された場合は前記未認識物体を前記第2種物体に分類する段階(d1)、を有する、上記(1)〜(4)のいずれか1つに記載の物体追跡方法。   (6) In the step (d), when it is determined that the unrecognized object does not correspond to any second-type object, the unrecognized object is classified as the second-type object (d1) The object tracking method according to any one of (1) to (4) above.

(7)前記所定時間は、0.2秒以上1秒未満である、上記(1)〜(6)のいずれか1つに記載の物体追跡方法。   (7) The object tracking method according to any one of (1) to (6), wherein the predetermined time is 0.2 seconds or more and less than 1 second.

(8)前記時間は前記フレームを単位としてカウントする、上記(1)〜(7)のいずれか1つに記載の物体追跡方法。   (8) The object tracking method according to any one of (1) to (7), wherein the time is counted in units of the frame.

(9)前記第1種物体を、動体であることを表す情報とともに表示する段階(i)を有する、上記(1)〜(8)のいずれか1つに記載の物体追跡方法。   (9) The object tracking method according to any one of (1) to (8), including a step (i) of displaying the first type object together with information indicating that it is a moving object.

(10)上記(1)〜(9)のいずれか1つに記載の物体追跡方法をコンピューターに実行させるための物体追跡プログラム。   (10) An object tracking program for causing a computer to execute the object tracking method according to any one of (1) to (9).

(11)時系列に沿ってフレームを取得する画像取得センサーと、
上記(10)に記載のプログラムを実行するコンピューターと、
を有する、物体追跡システム。
(11) an image acquisition sensor that acquires frames in time series;
A computer that executes the program according to (10) above;
An object tracking system.

本発明によれば、前フレームまでで所定時間以上に継続して検出されている第1種物体から先に未認識物体と対応するかを調べ、第1種物体と対応した場合は、その未認識物体を第1種物体と対応付けし、対応しない場合にだけ、検出されてからの経過時間が第1種物体より短い第2種物体との対応を調べることとした。これにより第1種物体と未認識物体が対応付けされたなら、第2種物体については調べなくても済む。このため、その分、計算負荷を減らすことができる。   According to the present invention, it is checked whether the first type object that has been detected continuously for a predetermined time or more until the previous frame corresponds to the unrecognized object first. Only when the recognition object is associated with the first type object and does not correspond, the correspondence with the second type object having a shorter elapsed time than the first type object is examined. Thus, if the first type object and the unrecognized object are associated with each other, the second type object need not be examined. For this reason, the calculation load can be reduced accordingly.

物体追跡システムの全体構成を説明するための説明図である。It is explanatory drawing for demonstrating the whole structure of an object tracking system. 物体追跡装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of an object tracking apparatus. 物体を分類したリストの一例を示すリスト図である。It is a list figure showing an example of a list which classified an object. 本実施形態の物体追跡方法の処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the process sequence of the object tracking method of this embodiment. 本実施形態の物体追跡方法の処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the process sequence of the object tracking method of this embodiment. 本実施形態の物体追跡方法の処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the process sequence of the object tracking method of this embodiment. 前フレームまでで認識されている動体、第1動体候補、および第2動体候補の例を説明する説明図である。It is explanatory drawing explaining the example of the moving body recognized by the previous frame, a 1st moving body candidate, and a 2nd moving body candidate. 図7のときの各リストを示すリスト図である。It is a list figure which shows each list at the time of FIG. 現在フレームで未認識物体を検出した例を説明する説明図である。It is explanatory drawing explaining the example which detected the unrecognized object by the present flame | frame. 図7に示した前フレームと図9に示した現在フレームを重ね合わせた説明図である。FIG. 10 is an explanatory diagram in which the previous frame shown in FIG. 7 and the current frame shown in FIG. 9 are superimposed. 動体M1と未認識物体Ob1が対応した状態を説明する説明図である。It is explanatory drawing explaining the state with which the moving body M1 and the unrecognized object Ob1 corresponded. 比較例として、現在フレームで検出された未認識物体と、前フレームまでで認識しているすべての物体を総当たりで調べる例を説明する説明図である。As a comparative example, it is explanatory drawing explaining the example which investigates the unrecognized object detected by the present flame | frame, and all the objects recognized by the previous frame by brute force. 未認識物体Ob2と第1動体候補C1とが対応した状態を説明する説明図である。It is explanatory drawing explaining the state with which unrecognized object Ob2 and 1st moving body candidate C1 corresponded. 処理が最後まで進んだ時点での各リストを示すリスト図である。It is a list figure which shows each list | wrist when a process progresses to the last. 処理終了時の現在フレームを説明する説明図である。It is explanatory drawing explaining the present frame at the time of a process end. レーザーレーダーにより得られる3次元の距離画像の例を示す図である。It is a figure which shows the example of the three-dimensional distance image obtained by a laser radar. レーザーレーダーの構成を説明する断面図である。It is sectional drawing explaining the structure of a laser radar. ミラーユニットMUの回転に応じて、出射するレーザースポット光SB(ハッチングで示す)で、監視装置MDの監視空間内を走査する状態を説明する説明図である。It is explanatory drawing explaining the state which scans the inside of the monitoring space of the monitoring apparatus MD with the laser spot light SB (it shows by hatching) radiate | emitted according to rotation of the mirror unit MU.

以下、添付した図面を参照しながら、本発明の実施形態を説明する。本発明は、以下の実施形態に限定されない。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。また、以下の説明において、時系列に並んだフレームで、現在のフレームを現在フレームと称し、現在フレームより過去のフレームを過去フレームと称し、中でも現在フレームの1つ前のフレームを前フレームと称する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The present invention is not limited to the following embodiments. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation, and may be different from the actual ratios. In the following description, the current frame is referred to as the current frame among the frames arranged in time series, the frame before the current frame is referred to as the past frame, and the frame immediately before the current frame is referred to as the previous frame. .

(物体追跡システム)
図1は物体追跡システムの全体構成を説明するための説明図である。図2は物体追跡装置の構成を説明するためのブロック図である。
(Object tracking system)
FIG. 1 is an explanatory diagram for explaining the overall configuration of the object tracking system. FIG. 2 is a block diagram for explaining the configuration of the object tracking apparatus.

物体追跡システムは、時系列に並んだフレームを取得するレーザーレーダー101と、時系列に並んだフレームの中にある動体を時系列に沿って追跡する物体追跡装置102を有する。時系列に並んだフレームが時系列に再生(表示)されることで動画となる。   The object tracking system includes a laser radar 101 that acquires frames arranged in time series, and an object tracking device 102 that tracks a moving object in the frames arranged in time series along the time series. The frames arranged in time series are reproduced (displayed) in time series to become a moving image.

レーザーレーダー101は画像取得センサーである。このレーザーレーダー101の詳細は後述するが、レーザーを走査してその反射光から物体までの距離をリアルタイム計測する。このため、レーザーレーダー101の設置位置から未認識物体までの距離および大きさ(高さや幅など)が得られる。またこれにより距離画像といわれる画像を得ることができる。この距離画像を1走査1フレームとして時系列に沿って並べる(つまり連続して表示する)ことで動画となる。レーザーレーダー101からの距離画像(フレーム)は物体追跡装置102に送信される。   The laser radar 101 is an image acquisition sensor. Although details of the laser radar 101 will be described later, the laser is scanned to measure the distance from the reflected light to the object in real time. For this reason, the distance and size (height, width, etc.) from the installation position of the laser radar 101 to the unrecognized object can be obtained. This also makes it possible to obtain an image called a distance image. This distance image is arranged in chronological order as one frame per scan (that is, displayed continuously) so that a moving image is obtained. A distance image (frame) from the laser radar 101 is transmitted to the object tracking device 102.

物体追跡装置102は、コンピューターであり、一般的なパソコンでもよいし、専用のコンピューターでもよい。物体追跡装置102の構成は、図2に示すように、CPU(Central Processing Unit)11、RAM(Random access memory)12、ROM(Read Only Memory)13、HDD(Hard Disk Drive)14を備える。   The object tracking device 102 is a computer, and may be a general personal computer or a dedicated computer. As shown in FIG. 2, the configuration of the object tracking device 102 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, and an HDD (Hard Disk Drive) 14.

RAM12は、CPU11がワークエリアとして使用する記憶部であり、たとえば処理に必要なプログラムやデータを一時記憶する。   The RAM 12 is a storage unit that the CPU 11 uses as a work area, and temporarily stores programs and data necessary for processing, for example.

ROM13は、物体追跡装置102の起動やコンピューターとしての基本動作に必要な基本プログラムを記憶している。   The ROM 13 stores a basic program necessary for starting the object tracking device 102 and basic operations as a computer.

CPU11は処理内容に応じたプログラムをHDD14から読み出してRAM12に展開し、展開したプログラムを実行する。ここでは主に、レーザーレーダー101から得られるフレームをもとに動画を構成し、動画内の物体追跡を行う。   The CPU 11 reads out a program corresponding to the processing content from the HDD 14 and expands it in the RAM 12 and executes the expanded program. Here, a moving image is mainly configured based on a frame obtained from the laser radar 101, and an object in the moving image is tracked.

HDD14は各処理に必要なプログラムや、データを記憶している。HDDに代えて不揮発性の半導体メモリ(たとえばフラッシュメモリ)でもよい。   The HDD 14 stores programs and data necessary for each process. A nonvolatile semiconductor memory (for example, a flash memory) may be used instead of the HDD.

また、物体追跡装置102は、マウスやキーボードなどの入力装置15、画像(動画)を表示するディスプレイ16、さらに外部機器を接続するためのネットワークインターフェース17を備える。   The object tracking device 102 includes an input device 15 such as a mouse and a keyboard, a display 16 for displaying an image (moving image), and a network interface 17 for connecting an external device.

ネットワークインターフェース17は、たとえば、イーサネット(登録商標)などであり、レーザーレーダー101との通信に使用される。また、ネットワークインターフェース17は、LAN(Local Area Network)などとも接続され、サーバー(後述)との通信にも使用される。   The network interface 17 is, for example, Ethernet (registered trademark), and is used for communication with the laser radar 101. The network interface 17 is also connected to a LAN (Local Area Network) or the like, and is also used for communication with a server (described later).

物体追跡装置102は、このようなコンピューターが後述する物体追跡方法の処理手順を実行することで達成されている。なお、物体追跡装置102はレーザーレーダー101からの計測値だけを取得して、距離画像およびその動画を構成するようにしてもよい。   The object tracking device 102 is achieved by such a computer executing a processing procedure of an object tracking method described later. Note that the object tracking device 102 may acquire only the measurement values from the laser radar 101 and configure the distance image and its moving image.

物体追跡装置102は、また、たとえばサーバー103がネットワークにより接続されている。サーバー103は、時系列に並んだフレームからなる動画を物体追跡装置102から受け取って記憶する。また、サーバー103はその他の動画を記憶していて、物体追跡装置102からの読み出しに応じて提供する。その他の動画は、レーザーレーダー101によって取得した動画に限らず、通常のムービーカメラの動画などを含む。   For example, the server 103 is connected to the object tracking device 102 via a network. The server 103 receives a moving image composed of frames arranged in time series from the object tracking device 102 and stores it. In addition, the server 103 stores other moving images and provides them in response to reading from the object tracking device 102. Other moving images are not limited to moving images acquired by the laser radar 101, but include moving images of ordinary movie cameras.

(物体追跡方法)
本実施形態の物体追跡方法について説明する。
(Object tracking method)
The object tracking method of this embodiment will be described.

本実施形態では、物体追跡のために、レーザーレーダー101が取得したフレーム内の、背景や静止物以外の物体について以下のように分類する。   In the present embodiment, for object tracking, objects other than the background and stationary objects in the frame acquired by the laser radar 101 are classified as follows.

(1)「動体」(第1種物体):あらかじめ決められた第1所定時間以上連続して認識された物体。   (1) “Moving object” (first type object): an object that has been recognized continuously for a predetermined first predetermined time or more.

(2)「第1動体候補」(第2種物体):第2所定時間以上、第1所定時間未満連続して認識された物体。   (2) “First moving object candidate” (second type object): an object that is continuously recognized for a second predetermined time or more and less than a first predetermined time.

(3)「第2動体候補」(第2種物体):第3所定時間以上、第2所定時間未満連続して認識された物体。   (3) “Second moving object candidate” (second-type object): an object that is continuously recognized for a time period equal to or longer than a third predetermined time and shorter than a second predetermined time.

(4)「未認識物体」:現在フレーム(現在時点)で検出された物体。   (4) “Unrecognized object”: an object detected in the current frame (current time).

各所定時間の長さは、第1所定時間>第2所定時間>第3所定時間である。   The length of each predetermined time is first predetermined time> second predetermined time> third predetermined time.

時間の計測は、物体追跡装置102を構成するコンピューターのシステムクロックをカウントすることで可能である。第1所定時間は、たとえば、0.2秒以上1秒未満とすることが好ましく、0.3秒以上0.5秒未満とすることがより好ましい。このような時間とすることで、ごく短時間の間現れて消えてしまうノイズや、風で揺れている草花や木々を動体と認識しないようにできる。もちろん、第1所定時間とする時間は任意であり、たとえば、センサーによる計測範囲の広さや奥行き、監視対象などに合わせて設定すればよい。   Time can be measured by counting a system clock of a computer constituting the object tracking apparatus 102. For example, the first predetermined time is preferably 0.2 seconds or more and less than 1 second, and more preferably 0.3 seconds or more and less than 0.5 seconds. By setting the time as described above, it is possible to prevent the noise that appears and disappears for a very short time, the flowers and trees swaying in the wind from being recognized as moving objects. Of course, the time set as the first predetermined time is arbitrary, and may be set in accordance with, for example, the width and depth of the measurement range by the sensor, the monitoring target, and the like.

ここで、レーザーレーダー101が取得する距離画像、すなわちフレームは、たとえば、1秒あたり10フレームなどである。この場合、1フレームの時間は1/10秒となる。そこで、本実施形態では、直接システムクロックをカウントする代わりに、フレーム単位で時間をカウントすることとした。つまり、時間の代わりにフレームの数をカウントするのである。   Here, the distance image, that is, the frame acquired by the laser radar 101 is, for example, 10 frames per second. In this case, the time for one frame is 1/10 second. Therefore, in this embodiment, instead of directly counting the system clock, the time is counted in units of frames. In other words, the number of frames is counted instead of time.

そこで、所定時間についてもフレーム単位で再定義すると以下のとおりである。なお、ここでは、1秒あたり10フレームの場合である。   Therefore, redefining the predetermined time in units of frames is as follows. Here, the case is 10 frames per second.

(1)「動体」:過去フレームの内、直前の3フレーム以上で連続して認識された物体。   (1) “Moving object”: an object that is continuously recognized in the previous three frames or more among the past frames.

(2)「第1動体候補」:過去フレームの内、直前の2フレームで連続して認識された物体。   (2) “First moving object candidate”: an object that is continuously recognized in the immediately preceding two frames among the past frames.

(3)「第2動体候補」:過去フレームの内、直前の1フレームのみで認識された物体。   (3) “Second moving object candidate”: an object recognized only in the immediately preceding frame of the past frames.

(4)「未認識物体」:現在フレームで検出された物体。   (4) “Unrecognized object”: an object detected in the current frame.

以上により定義された動体、第1動体候補、および第2動体候補は、それぞれリストにして分類し、RAM12に記憶しておく。RAM以外の記憶装置であってもよいが、少なくとも物体追跡の処理が可能となるように、高速で読み書き可能な記憶装置であることが好ましい。   The moving body, the first moving body candidate, and the second moving body candidate defined as described above are classified as a list and stored in the RAM 12. A storage device other than the RAM may be used, but a storage device capable of reading and writing at high speed is preferable so that at least object tracking processing can be performed.

なお、本発明はこのようなフレーム数や時間に限定されるものではない。1秒あたりのフレーム数が変われば、1フレームの時間も変わることになる。たとえば、監視カメラなどで使用されている1秒当たり5フレームでは、1フレーム1/5秒となる。逆に1秒あたり30フレームの動画では1/30秒となる。   The present invention is not limited to such a number of frames and time. If the number of frames per second changes, the time for one frame also changes. For example, 5 frames per second used in a surveillance camera or the like is 1/5 second per frame. Conversely, for a moving image of 30 frames per second, it is 1/30 second.

図3は物体を分類したリストの一例を示すリスト図である。   FIG. 3 is a list diagram illustrating an example of a list in which objects are classified.

図3に示すように、動体、第1動体候補、および第2動体候補がそれぞれリストとして分類される。つまり動体は動体リスト(3フレーム以上継続)、第1動体候補は第1動体候補リスト(2フレーム継続)、第2動体候補は第2動体候補リスト(1フレームのみ)に分類される。   As shown in FIG. 3, the moving object, the first moving object candidate, and the second moving object candidate are each classified as a list. That is, the moving object is classified into a moving object list (continuing 3 frames or more), the first moving object candidate is classified into a first moving object candidate list (continuing 2 frames), and the second moving object candidate is classified into a second moving object candidate list (only 1 frame).

さらに本実施形態では、ロスト動体リストを設けている。ロスト動体リストは、一時的に動体が見えなくなった場合に備えるリストである。つまり、動体は、センサーの計測範囲であるフレーム内から去って消える場合もあるが、フレーム内において一時的に見えなくなる場合もある。一時的に見えなくなる場合とは、たとえば、センサー設置位置から見て、動体が静止物の向こう側に隠れた場合、複数の動体があって1つの動体が他の動体の向こう側に隠れた場合などである。このような場合は、現在フレームにおいて未認識物体が検出されないか、または過去フレームで認識されている動体のいずれとも対応が付かなくなる。そこでロスト動体リストを設け、このような対応が付かない動体をロスト動体(第3種物体)として登録することにした。そして、未認識物体が検出されたときに、動体や動体候補と対応がなければ、このロスト動体リストの中のロスト動体との対応を調べることにより、前にあった動体と同じ物体かどうか対応付けることができる。このロスト動体リストに登録したロスト動体は、システムを停止するまで継続して記憶しておいてもよいが、一定時間経過または所定時間になったら削除してもよい。たとえば、数秒〜数分または数時間経過したら削除したり、毎日0時になったら削除したりなどである。   Furthermore, in this embodiment, a lost moving object list is provided. The lost moving object list is a list provided when a moving object is temporarily invisible. That is, the moving object may disappear from the frame that is the measurement range of the sensor, but may disappear temporarily in the frame. For example, when the moving object is hidden behind a stationary object when viewed from the sensor installation position, there are multiple moving objects and one moving object is hidden behind the other moving object. Etc. In such a case, an unrecognized object is not detected in the current frame, or the moving object recognized in the past frame cannot be associated. Therefore, a lost moving object list is provided, and moving objects that do not have such correspondence are registered as lost moving objects (type 3 objects). If an unrecognized object is detected and there is no correspondence with the moving object or the moving object candidate, the correspondence with the lost moving object in the lost moving object list is checked to determine whether the object is the same as the previous moving object. be able to. The lost moving body registered in the lost moving body list may be continuously stored until the system is stopped, but may be deleted when a predetermined time elapses or a predetermined time is reached. For example, it is deleted after several seconds to several minutes or hours, or deleted every day at 0:00.

なお、ロスト動体リストはなくてもよく、その場合は、未認識物体と対応付かない動体は動体リストから削除するだけでよい。その場合でも、動体リストから削除された物体と同じ物体が再び現れた場合には、新規に表れた物体になるが、物体追跡は行われる。   Note that the lost moving object list may not be provided, and in that case, a moving object that does not correspond to an unrecognized object need only be deleted from the moving object list. Even in this case, when the same object as the object deleted from the moving object list appears again, the object appears as a new object, but object tracking is performed.

これらのリストはRAM12に記憶する。図3では各リストをひとまとめにしているが、これに限らず、たとえば、リストごとに独立して記憶してもよい。   These lists are stored in the RAM 12. In FIG. 3, each list is grouped together. However, the present invention is not limited to this. For example, each list may be stored independently.

各リストに分類された物体は、たとえば識別番号(ID)を付けて管理する。図3においては、動体をM1、M2、M3、…、動体候補を(第1と第2の区別なく)C1、C2、C3、…、未認識物体をOb1、Ob2、Ob3、…とした。なお、ここでは、説明の便宜上、動体M、動体候補C、未認識物体Obなどと分けて示したが、実際の処理においては、動体、動体候補、未認識物体に付与するIDやタグなどは、これらの区別なく通し番号としたり、時間に基づく番号や符号としたりしてもよく、限定されない。
物体追跡方法の処理手順を説明する。
The objects classified in each list are managed by attaching an identification number (ID), for example. In FIG. 3, moving objects are M1, M2, M3,..., Moving object candidates are C1, C2, C3,... (Without distinction between the first and second), and unrecognized objects are Ob1, Ob2, Ob3,. Here, for convenience of explanation, the moving object M, the moving object candidate C, the unrecognized object Ob, and the like are shown separately. However, in actual processing, the IDs and tags assigned to the moving object, the moving object candidate, and the unrecognized object are These may be serial numbers without distinction, or may be numbers or codes based on time, and are not limited.
A processing procedure of the object tracking method will be described.

図4〜6は、本実施形態の物体追跡方法の処理手順を説明するためのフローチャートである。   4 to 6 are flowcharts for explaining the processing procedure of the object tracking method of the present embodiment.

この処理手順は物体追跡装置102によって実施される。なお、以下の説明において、未認識物体とは既に定義したとおり、現在フレームにおいて検出され、いずれにも分類されていない物体である。   This processing procedure is performed by the object tracking device 102. In the following description, as already defined, an unrecognized object is an object that is detected in the current frame and is not classified in any way.

まず、レーザーレーダー101から計測データ、すなわち現在フレームを取得する(S1)。このS1では、ここで説明する処理手順によって、過去フレームにおいて認識された動体、第1動体候補、および第2動体候補のリスト化が行われているものとする。   First, measurement data, that is, the current frame is acquired from the laser radar 101 (S1). In S <b> 1, it is assumed that the moving body recognized in the past frame, the first moving body candidate, and the second moving body candidate are listed according to the processing procedure described here.

続いて、取得した現在フレームの中から未認識物体を検出する(S2)。未認識物体の検出は、たとえば、あらかじめ決められた基準となるフレームと現在フレームとの差分を取り、現在フレームにのみ存在する物体を未認識物体とする。基準となるフレームは、たとえば、過去フレームのいずれか(たとえば前フレーム)でもよいし、動体のない背景のみのフレームを用意しておいてもよい(ユーザーが目視で見つけ出し選択した、動体のないフレームなど)。なお、このような基準となるフレームはHDD14に記憶しておいて、動作中はRAM12に展開して、現在フレームとの比較に用いる。   Subsequently, an unrecognized object is detected from the acquired current frame (S2). In the detection of the unrecognized object, for example, a difference between a predetermined reference frame and the current frame is obtained, and an object that exists only in the current frame is determined as an unrecognized object. The reference frame may be, for example, any of the past frames (for example, the previous frame), or a frame having only a background without a moving object may be prepared (a frame without a moving object that is found and selected by the user visually) Such). Note that such a reference frame is stored in the HDD 14 and is expanded in the RAM 12 during operation and used for comparison with the current frame.

このS2においては、複数の未認識物体があればそれらすべてを検出する。検出した未認識物体には、処理に必要となるIDやラベルなどが付与される(たとえば、未認識物体Ob1、Ob2、Ob3、…など)。   In S2, if there are a plurality of unrecognized objects, all of them are detected. The detected unrecognized object is given an ID or a label necessary for processing (for example, unrecognized objects Ob1, Ob2, Ob3,...).

また、このS2では、検出された物体についてクラスタリングすることで、動体となり得る未認識物体か否かを選別してもよい。たとえば、レーザーレーダー101による計測データの中の物体を一定サイズ(画素数)にクラスタリングする。物体が複数あればそれぞれの物体ごとにクラスタリングする。そして、あらかじめ決められたサイズ閾値以上であれば未認識物体とする。サイズ閾値は、監視場所や監視対象などにより任意に決めればよい。たとえば、人を追跡して監視するのであれば、通常の人の大きさの最小値を、クラスタリングする場合のサイズ閾値とすればよい。逆にあらゆる物体を追跡するのであれば、サイズ閾値は小さな値、たとえば1〜数画素程度などとしてもよいし、あるいはサイズ閾値を設けなくてもよい。   In S2, the detected objects may be clustered to select whether they are unrecognized objects that can be moving objects. For example, the objects in the measurement data by the laser radar 101 are clustered to a certain size (number of pixels). If there are multiple objects, clustering is performed for each object. And if it is more than the predetermined size threshold value, it will be set as an unrecognized object. The size threshold may be arbitrarily determined depending on the monitoring location and the monitoring target. For example, if a person is tracked and monitored, the normal minimum size of the person may be set as a size threshold for clustering. On the contrary, if all objects are tracked, the size threshold may be a small value, for example, about 1 to several pixels, or the size threshold may not be provided.

続いて、S2の結果(または後述するステップから戻った後)、未認識物体がなければ(S3:NO)、S40へ進む(図6)、一方、未認識物体があれば(S3:YES)、続いて、未認識物体のうちの1つを選択する(S4)。これはS2で複数の未認識物体が検出された場合に、未認識物体を1つずつ調べるためである。選択する順番は特に限定されず、たとえば、S2で付与したIDの順番としたり、フレーム内に座標系を設定して原点に近い方(座標値の小さな方)から順にするなどである。   Subsequently, as a result of S2 (or after returning from a step described later), if there is no unrecognized object (S3: NO), the process proceeds to S40 (FIG. 6), whereas if there is an unrecognized object (S3: YES). Subsequently, one of the unrecognized objects is selected (S4). This is for checking the unrecognized objects one by one when a plurality of unrecognized objects are detected in S2. The order of selection is not particularly limited. For example, the order of the IDs assigned in S2 is set, or the coordinate system is set in the frame and the order is closer to the origin (the one with the smaller coordinate value).

続いて、動体リストの中に未対応の動体があるか否かを確認する(S5)。未対応の動体は、この処理手順の中で、未認識物体と対応付けがなされていない動体である。ここで、動体リストに未対応の動体がなければ(S5:NO)、S8へ進む。一方、動体リストの中に未対応の動体が存在していれば(S5:YES)、続いて、動体リストの中の未対応の動体(以下単に動体という)とS4で選択した未認識物体との対応を調べる(S6)。   Subsequently, it is confirmed whether or not there is an unsupported moving object in the moving object list (S5). An unsupported moving object is a moving object that is not associated with an unrecognized object in this processing procedure. If there is no unsupported moving object in the moving object list (S5: NO), the process proceeds to S8. On the other hand, if there is an unsupported moving object in the moving object list (S5: YES), then the unsupported moving object in the moving object list (hereinafter simply referred to as a moving object) and the unrecognized object selected in S4 Is checked (S6).

この動体と未認識物体との対応を調べる処理は、それらの関連度を調べることにより行う。関連度について説明する。   The process of checking the correspondence between the moving object and the unrecognized object is performed by checking the degree of association between them. The relevance will be described.

関連度は、たとえば、距離、移動速度、センサーからの距離、サイズ、画素数、色などを指標として調べることができる。   The degree of association can be examined using, for example, the distance, the moving speed, the distance from the sensor, the size, the number of pixels, the color, and the like as an index.

距離は、画像取得センサーがレーザーレーダー101の場合は、動体のうち前フレームの動体と未認識物体との間の距離の値を関連度とする。前フレームの動体と未認識物体との間の距離は、レーザーレーダー101の場合、計測データから物体の3次元での位置がわかるので、たとえばフレームに3次元座標系を設定して、前フレームの動体の位置および未認識物体の位置がそれぞれ座標値としてわかる。したがってそれらの間の距離は座標値の差分として得られる。ムービーカメラの場合は前フレームの動体と未認識物体とのフレーム内における距離を比較して、その値を関連度とする。ムービーカメラの画像の場合はフレームに2次元座標系を設定して、上記同様に座標値の差分として求めることができる。いずれの場合も距離が近い(値が小さい)ほど関連度が高い。以下の説明においても「位置」は同様に座標値とする。   When the image acquisition sensor is the laser radar 101, the distance is the degree of relevance between the moving object in the previous frame and the unrecognized object among the moving objects. In the case of the laser radar 101, the distance between the moving body of the previous frame and the unrecognized object can be obtained from the measurement data, so that the position of the object in three dimensions can be determined. The position of the moving object and the position of the unrecognized object are known as coordinate values. Therefore, the distance between them is obtained as a difference in coordinate values. In the case of a movie camera, the distance between the moving object of the previous frame and the unrecognized object in the frame is compared, and the value is used as the relevance. In the case of a movie camera image, a two-dimensional coordinate system is set for the frame, and the difference between coordinate values can be obtained in the same manner as described above. In any case, the closer the distance (the smaller the value), the higher the degree of association. In the following description, “position” is also a coordinate value.

移動速度は、動体の移動速度と未認識物体の移動速度とを比較して、その値を関連度とする。動体の移動速度は、たとえば前々フレームにおける動体の位置と前フレームにおける動体の位置との差が動体の移動距離になるので、これを時間(1フレームの時間)で割って求める。未認識物体の移動速度は、仮に、対応を調べている動体が未認識物体と同じ物体であったとして、その動体の前フレームの位置と未認識物体の位置との差を時間(1フレームの時間)で割って求める。移動速度が近いほど関連度が高い。   The moving speed compares the moving speed of the moving object and the moving speed of the unrecognized object, and uses the value as the relevance level. The moving speed of the moving body is obtained by dividing the moving distance of the moving body by the time (time of one frame), for example, because the difference between the position of the moving body in the previous frame and the position of the moving body in the previous frame is the moving distance of the moving body. As for the moving speed of the unrecognized object, assuming that the moving object whose correspondence is being examined is the same object as the unrecognized object, the difference between the position of the previous frame of the moving object and the position of the unrecognized object is expressed as time (one frame). Divide by (time). The closer the moving speed, the higher the relevance.

センサーからの距離は、レーザーレーダー101から前フレームの動体までの距離とレーザーレーダー101から未認識物体までの距離を比較して、その値を関連度とする。距離の値同士が近いものほど関連度が高い。   For the distance from the sensor, the distance from the laser radar 101 to the moving object in the previous frame is compared with the distance from the laser radar 101 to the unrecognized object, and the value is used as the relevance. The closer the distance values are, the higher the degree of association.

サイズはレーザーレーダー101で計測される前フレームの動体と未認識物体の大きさを比較して、その値を関連度とする。サイズの値が近いほど関連度が高い。   For the size, the size of the moving object in the previous frame measured by the laser radar 101 and the size of the unrecognized object are compared, and the value is used as the relevance. The closer the size value, the higher the relevance.

画素数はムービーカメラで撮影された前フレームの動体と未認識物体がそれぞれ占める画素数を比較して、その値を関連度とする。画素数が近いほど関連度が高い。   For the number of pixels, the number of pixels occupied by the moving object and the unrecognized object in the previous frame captured by the movie camera are compared, and the value is used as the relevance level. The closer the number of pixels, the higher the degree of association.

色はカラームービーカメラで撮影された前フレームの動体の色と未認識物体の色を比較して、その値を関連度とする。色は、たとえばLab値などの色情報による色差を比較してもよいし、単純にRGBの階調値の差を比較してもよい。色差が少ないほど関連度が高い。また、もっとも多い色の数(画素数)、色の平均値などでもよい。   For the color, the color of the moving object in the previous frame shot by the color movie camera is compared with the color of the unrecognized object, and the value is used as the relevance. For color, for example, a color difference based on color information such as a Lab value may be compared, or a difference in RGB gradation values may be simply compared. The smaller the color difference, the higher the relevance. Alternatively, the most number of colors (number of pixels), an average value of colors, or the like may be used.

これらの指標は、単独で用いてもよいし、いずれかを複数組み合わせてもよい。指標を複数組み合わせて用いる場合は、たとえば、カラームービーカメラ(2次元画像)の場合、距離と色を用いて関連度を調べる。この場合、距離と色それぞれに重み付けをして関連度を調べる。たとえば、「距離×0.6+色差×0.4」などとする。ここで用いた重み付け定数は経験値や実験などで求めた値である。そのほか、ムービーカメラの用いている場合は、距離と画素数、移動速度と色、画素数と色など、様々に組み合わせて、それぞれに経験値や実験値などにより重み付けをして関連度を調べる。   These indicators may be used alone or in combination. When a plurality of indices are used in combination, for example, in the case of a color movie camera (two-dimensional image), the degree of association is examined using distance and color. In this case, the degree of association is examined by weighting each distance and color. For example, “distance × 0.6 + color difference × 0.4”. The weighting constant used here is a value obtained through experience values or experiments. In addition, when using a movie camera, the distance and the number of pixels, the moving speed and the color, the number of the pixels and the color, etc. are combined in various ways, and the degree of relevance is examined by weighting each with an experience value or an experimental value.

また、レーザーレーダー101の場合は、たとえば、距離とサイズを用いて関連度を調べる。また、レーザーレーダー101の場合は、センサーからの距離とサイズなどを組み合わせてもよい。さらに、移動速度とサイズなどでもよい。複数の指標を用いて関連度を調べることで、より精度の高い関連度を得られる。   In the case of the laser radar 101, for example, the degree of association is checked using the distance and the size. In the case of the laser radar 101, the distance from the sensor and the size may be combined. Further, the moving speed and size may be used. By investigating the degree of association using a plurality of indices, a more accurate degree of association can be obtained.

ここで、前フレームの動体および未認識物体がいずれも1つずつの場合は、関連度を調べることなく、それらは関連していると判定してもよい。これは、動体および未認識物体がともに1つずつであるなら、前フレームの動体が現在フレームで未認識物体として検出された可能性が極めて高いからである。しかし、未認識物体がノイズであったり、突発的に出現したものであったりする可能性もある。そこで前フレームの動体および未認識物体がともに1つずつであっても関連度を調べることが好ましい。そして、関連度があらかじめ決めた閾値以上である場合に、それらは同じものであるとして対応付けする。この場合、あらかじめ決めた閾値は、それぞれの指標ごとに異なるが、経験値や実験値としてあらかじめ求めておくとよい。   Here, when there is one moving object and one unrecognized object in the previous frame, it may be determined that they are related without checking the degree of association. This is because if there is one moving object and one unrecognized object, it is very likely that the moving object in the previous frame has been detected as an unrecognized object in the current frame. However, there is a possibility that the unrecognized object is noise or appears suddenly. Therefore, it is preferable to check the degree of association even if there is one moving object and one unrecognized object in the previous frame. Then, when the relevance is equal to or greater than a predetermined threshold, they are associated with each other as being the same. In this case, the predetermined threshold value is different for each index, but it may be obtained in advance as an empirical value or an experimental value.

一方、動体リストの動体が2つ以上の場合は、それら相互の関連度を調べて関連度の高い組み合わせを対応付けする。   On the other hand, when there are two or more moving objects in the moving object list, the degree of relevance between them is examined and a combination with a high degree of association is associated.

たとえば、S6に来た段階で動体リストに2つの動体M1とM2がある場合、動体M1と未認識物体Ob1との関連度、動体M2と未認識物体Ob1との関連度をそれぞれ調べ、より関連度の高い方の組み合わせを対応付けする。   For example, when there are two moving objects M1 and M2 in the moving object list at S6, the degree of association between the moving object M1 and the unrecognized object Ob1, and the degree of association between the moving object M2 and the unrecognized object Ob1, are examined, respectively. The higher combination is associated.

なお、動体が複数ある場合にどちらの動体との対応を先に調べるかは、たとえば時系列で古い動体と未認識物体との関連度を先に調べる。時系列で古い動体と未認識物体との関連度を先に調べる場合、動体リストにおいては、その動体が物体として検出された時間(時刻)、または検出されてからの経過時間をタグなどとして付与しておく。付与する時間(時刻)は、たとえば実時間である。また経過時間は時間そのものでもよいが、検出されてからのフレーム数をカウントすることでもよい。なお、「物体として検出された」とは、現在フレームにおいて物体(すなわち未認識物体)として検出された時点である。   Note that when there are a plurality of moving objects, the correspondence with which moving object is checked first, for example, the degree of association between the old moving object and the unrecognized object is checked first in time series. When first checking the degree of association between an old moving object and an unrecognized object in time series, the time (time) when the moving object was detected as an object or the elapsed time since the detection was given as a tag, etc. Keep it. The given time (time) is, for example, real time. The elapsed time may be the time itself, or the number of frames after detection may be counted. Note that “detected as an object” is a time point when an object (ie, an unrecognized object) is detected in the current frame.

またたとえば、フレームに座標系を設定し(レーザーレーダー101のフレームでは3次元座標系、ムービーカメラのフレームでは2次元座標系)、原点に近い方から先に調べるなどとしてもよい。さらにこれらに限らず任意の順番で調べてもよい。   Alternatively, for example, a coordinate system may be set for the frame (a three-dimensional coordinate system for the laser radar 101 frame and a two-dimensional coordinate system for the movie camera frame), and the first closer to the origin may be examined first. Furthermore, you may investigate not only in these but arbitrary orders.

フローチャートに戻り説明を続ける。S6で動体と未認識物体との対応を調べた結果、対応していると判断されたなら(S7:YES)、動体と未認識物体を対応付けして、動体は動体リストの中で対応付けしたことをタグなどで記録して更新する(S30)。その後、S3へ戻り、処理を継続する。   Returning to the flowchart, the description will be continued. As a result of examining the correspondence between the moving object and the unrecognized object in S6, if it is determined that they correspond (S7: YES), the moving object is associated with the unrecognized object, and the moving object is associated in the moving object list. It records and updates with a tag etc. (S30). Then, it returns to S3 and continues a process.

一方、S7で動体と未認識物体とが対応しないと判断されたなら(S7:NO)、続いて、第1動体候補リストに第1動体候補があるか否かを確認して(S8)、第1動体候補がなければ(S8:NO)、S11へ進む(図5参照)。一方、第1動体候補リストに第1動体候補があれば(S8:YES)、第1動体候補とS4で選択された未認識物体との対応を調べる(S9)。ここではS6と同様に第1動体候補と未認識物体の関連度を求め、対応しているか調べる。関連度の調べ方はS6における動体が第1動体候補に変わっただけであるので説明は省略する。   On the other hand, if it is determined in S7 that the moving object does not correspond to the unrecognized object (S7: NO), then it is confirmed whether or not there is a first moving object candidate in the first moving object candidate list (S8), If there is no 1st moving body candidate (S8: NO), it will progress to S11 (refer FIG. 5). On the other hand, if there is a first moving object candidate in the first moving object candidate list (S8: YES), the correspondence between the first moving object candidate and the unrecognized object selected in S4 is examined (S9). Here, as in S6, the degree of association between the first moving object candidate and the unrecognized object is obtained to check whether it corresponds. Since the method of checking the relevance is merely the change of the moving object to the first moving object candidate in S6, the description is omitted.

S9の結果、第1動体候補と未認識物体とが対応していると判断されたなら(S10:YES)、対応付けされた第1動体候補を動体に変更して動体リストへ移動する(S31)。つまり、この段階で、2フレーム連続して認識されていた第1動体候補が未認識物体と同じものと認識されたので3フレーム連続して認識されたことになる。このため第1動体候補を動体に変更する。その後、S3へ戻り、処理を継続する。   As a result of S9, if it is determined that the first moving object candidate corresponds to the unrecognized object (S10: YES), the associated first moving object candidate is changed to a moving object and moved to the moving object list (S31). ). That is, at this stage, since the first moving object candidate recognized for two consecutive frames is recognized as the same as the unrecognized object, it is recognized for three consecutive frames. Therefore, the first moving object candidate is changed to a moving object. Then, it returns to S3 and continues a process.

一方、S9の結果、第1動体候補と未認識物体とが対応しないと判断されたなら(S10:NO)、続いて(以降図5参照)、第2動体候補リストに第2動体候補があるか否かを確認して(S11)、第2動体候補がなければ(S11:NO)、S15へ進む。一方、第2動体候補リストに第2動体候補があければ(S11:YES)、第2動体候補とS4で選択された未認識物体との対応を調べる(S12)。ここではS6と同様に第2動体候補と未認識物体の関連度を求めて対応しているか調べる。関連度などの調べ方はS6における動体が第2動体候補に変わっただけであるので説明は省略する。   On the other hand, if it is determined as a result of S9 that the first moving object candidate and the unrecognized object do not correspond (S10: NO), then (see FIG. 5 hereinafter), the second moving object candidate is in the second moving object candidate list. If there is no second moving object candidate (S11: NO), the process proceeds to S15. On the other hand, if there is a second moving object candidate in the second moving object candidate list (S11: YES), the correspondence between the second moving object candidate and the unrecognized object selected in S4 is examined (S12). Here, as in S6, the degree of association between the second moving object candidate and the unrecognized object is obtained to check whether it corresponds. Since the method of checking the degree of association, etc. is merely the change of the moving object in S6 to the second moving object candidate, the description thereof is omitted.

S12の結果、第2動体候補と未認識物体とが対応していると判断されたなら(S13:YES)、その第2動体候補は第1動体候補に変更して第1動体候補リストに移動させる(S32)。つまり、この段階で、1フレームだけ認識されていた第2動体候補が未認識物体と同じものと認識されたので2フレーム連続して認識されたことになる。このため第2動体候補を第1動体候補に変更する。   As a result of S12, if it is determined that the second moving object candidate corresponds to the unrecognized object (S13: YES), the second moving object candidate is changed to the first moving object candidate and moved to the first moving object candidate list. (S32). That is, at this stage, since the second moving object candidate that has been recognized for only one frame is recognized as the same as the unrecognized object, it is recognized continuously for two frames. Therefore, the second moving object candidate is changed to the first moving object candidate.

一方、S12の結果、第2動体候補と未認識物体とが対応しないと判断されたなら(S13:NO)、続いて、ロスト動体リストにロスト動体があるか否かを確認して(S15)、ロスト動体リストにロスト動体がなければ(S15:NO)、S4で選択された未認識物体を第2動体候補として第2動体候補リストに入れる(S33)。一方、ロスト動体リストにロスト動体があければ(S15:YES)、ロスト動体と未認識物体との対応を調べる(S16)。ここでも、S6と同様にロスト動体と未認識物体の関連度を求めて対応しているか調べる。関連度などの調べ方はS6と同様であるので説明は省略する。   On the other hand, if it is determined as a result of S12 that the second moving object candidate and the unrecognized object do not correspond (S13: NO), then it is confirmed whether or not there is a lost moving object in the lost moving object list (S15). If there is no lost moving object in the lost moving object list (S15: NO), the unrecognized object selected in S4 is entered as the second moving object candidate in the second moving object candidate list (S33). On the other hand, if there is a lost moving object in the lost moving object list (S15: YES), the correspondence between the lost moving object and the unrecognized object is examined (S16). Here again, as in S6, the degree of association between the lost moving object and the unrecognized object is obtained to check whether it corresponds. Since the method of checking the relevance and the like is the same as in S6, the description is omitted.

S16の結果、ロスト動体と未認識物体とが対応していると判断されたなら(S17:YES)、そのロスト動体は動体としてロスト動体リストから動体リストに移動する(S18)。   If it is determined as a result of S16 that the lost moving object corresponds to the unrecognized object (S17: YES), the lost moving object moves from the lost moving object list to the moving object list as a moving object (S18).

S16の結果、動体と未認識物体とが対応しないと判断されたなら(S17:NO)、S4で選択された未認識物体を第2動体候補として第2動体候補リストに入れる(S33)。その後、S3へ戻り、処理を継続する。   As a result of S16, if it is determined that the moving object does not correspond to the unrecognized object (S17: NO), the unrecognized object selected in S4 is put in the second moving object candidate list as the second moving object candidate (S33). Then, it returns to S3 and continues a process.

S3において未認識物体がない場合(S3:NO)を説明する(図6参照)。未認識物体がない場合は、そもそも現在フレームで未認識物体が検出されなかった場合と、既に説明した処理により、未認識物体と動体、第1および第2動体候補、ロスト動体との対応関係を調べた後、未認識物体が存在しなくなった場合である。   A case where there is no unrecognized object in S3 (S3: NO) will be described (see FIG. 6). If there is no unrecognized object, the correspondence between the unrecognized object and the moving object, the first and second moving object candidates, and the lost moving object is determined according to the case where the unrecognized object is not detected in the current frame. This is a case where no unrecognized object exists after the examination.

S3において未認識物体がない場合(S3:NO)は、続いて動体リストに未対応の動体があるか否かを確認する(S40)。   If there is no unrecognized object in S3 (S3: NO), it is subsequently confirmed whether or not there is an unsupported moving object in the moving object list (S40).

ここで、動体リストに未対応の動体があれば(S40:YES)、動体リスト内の未対応の動体をすべてロスト動体としてロスト動体リストに移動する(S41)。一方、動体リストに未対応の動体がなければ(S40:NO)、そのままS42へ進む。   If there is an unsupported moving object in the moving object list (S40: YES), all the unsupported moving objects in the moving object list are moved to the lost moving object list as the lost moving object (S41). On the other hand, if there is no unsupported moving object in the moving object list (S40: NO), the process proceeds to S42 as it is.

続いて、第1動体候補リストおよび第2動体候補リスト内の第1動体候補および第2動体候補を削除して(S42)、処理を終了する。処理終了後は、S1へ戻り、次の処理を継続することになる。   Then, the 1st moving body candidate and the 2nd moving body candidate in a 1st moving body candidate list | wrist and a 2nd moving body candidate list | wrist are deleted (S42), and a process is complete | finished. After the process is completed, the process returns to S1 and the next process is continued.

以上説明した処理手順では、複数の未認識物体がある場合に、対応を調べる未認識物体を1つずつ選択している(S4の処理)。これに代えて、複数の未認識物体について、同時に(時間的な差があっても同じステップとして)、対応関係を調べてそれぞれの対応に応じた処理、すなわち動体、動体候補、ロスト動体などとの対応付け、またはいずれとも対応しない処理などを並列に実行させてもよい。   In the processing procedure described above, when there are a plurality of unrecognized objects, unrecognized objects to be checked for correspondence are selected one by one (the process of S4). Instead, for a plurality of unrecognized objects at the same time (even if there is a time difference, as the same step), the correspondence is examined and processing corresponding to each correspondence, that is, moving object, moving object candidate, lost moving object, etc. These processes may be executed in parallel, or processes that do not correspond to any of them may be executed in parallel.

次に、物体追跡方法を、動体、第1動体候補、第2動体候補、および未認識物体の事例を挙げて説明する。   Next, the object tracking method will be described with examples of moving objects, first moving object candidates, second moving object candidates, and unrecognized objects.

図7は、前フレームまでで認識されている動体、第1動体候補、および第2動体候補の例を説明する説明図である。図示する状態は、上記処理手順のS1において、現在フレームが取得される時点の前フレームを示している。このとき、動体M1、第1動体候補C1、および第2動体候補C2が認識されている。図8は、図7のときの各リストを示すリスト図である。動体M1、第1動体候補C1、および第2動体候補C2がそれぞれ分類されて、登録されている。なお、ここではロスト動体リストにロスト動体はない。   FIG. 7 is an explanatory diagram illustrating examples of moving objects, first moving object candidates, and second moving object candidates recognized up to the previous frame. The state shown in the figure shows the previous frame at the time when the current frame is acquired in S1 of the above processing procedure. At this time, the moving body M1, the first moving body candidate C1, and the second moving body candidate C2 are recognized. FIG. 8 is a list diagram showing each list in FIG. The moving body M1, the first moving body candidate C1, and the second moving body candidate C2 are classified and registered. Here, there is no lost moving object in the lost moving object list.

図9は、現在フレームで未認識物体を検出した例を説明する説明図である。図示する状態は、S1で取得した現在フレーム内において、S2で未認識物体Ob1およびOb2が検出されている。   FIG. 9 is an explanatory diagram illustrating an example in which an unrecognized object is detected in the current frame. In the state shown in the figure, unrecognized objects Ob1 and Ob2 are detected in S2 in the current frame acquired in S1.

図10は、図7に示した前フレームと図9に示した現在フレームを重ね合わせた説明図である。なお、実際の処理においては、このような前フレームと現在フレームの重ね合わせ(画像合成)は必要ない。   FIG. 10 is an explanatory diagram in which the previous frame shown in FIG. 7 and the current frame shown in FIG. 9 are overlapped. In actual processing, such superposition (image synthesis) of the previous frame and the current frame is not necessary.

この例では、S6において、動体M1と未認識物体Ob1との対応を調べることになる。   In this example, in S6, the correspondence between the moving object M1 and the unrecognized object Ob1 is examined.

S6の処理の結果、ここでは動体M1と未認識物体Ob1が対応したものとする。図11は動体M1と未認識物体Ob1が対応した状態を説明する説明図である。図11では、動体M1と未認識物体Ob1が対応している(Ob1=C2)。図においては、動体M1が未認識物体Ob1へ移動したことを矢印で示した。   As a result of the process of S6, it is assumed here that the moving object M1 corresponds to the unrecognized object Ob1. FIG. 11 is an explanatory diagram illustrating a state where the moving object M1 and the unrecognized object Ob1 correspond to each other. In FIG. 11, the moving body M1 and the unrecognized object Ob1 correspond (Ob1 = C2). In the figure, an arrow indicates that the moving body M1 has moved to the unrecognized object Ob1.

この段階で、未認識物体Ob1については動体M1と対応付けされる。このため、前フレームに存在している第1動体候補C1、第2動体候補C2などとの対応について調べる必要はない。したがって、その分、物体追跡のための計算負荷が少なくなる。   At this stage, the unrecognized object Ob1 is associated with the moving object M1. Therefore, it is not necessary to examine the correspondence with the first moving object candidate C1, the second moving object candidate C2, and the like existing in the previous frame. Therefore, the calculation load for object tracking is reduced accordingly.

この点、従来の方法では、現在フレームで検出された未認識物体と、前フレームまでで認識されているすべての物体(この例では、動体M1、第1動体候補C1、第2動体候補C2)との対応関係を総当たりで調べる。図12は、比較例として、現在フレームで検出された未認識物体と、前フレームまでで認識しているすべての物体を総当たりで調べる例を説明する説明図である。   In this regard, in the conventional method, an unrecognized object detected in the current frame and all objects recognized up to the previous frame (in this example, moving object M1, first moving object candidate C1, and second moving object candidate C2) We examine correspondence with brute force. FIG. 12 is an explanatory diagram illustrating an example in which a non-recognized object detected in the current frame and all objects recognized up to the previous frame are examined in a brute force manner as a comparative example.

図12に示すように、従来の方法による比較例では、未認識物体Ob1と、動体M1、第1動体候補C1、および第2動体候補C2との対応をすべて調べることになる。その結果、未認識物体Ob1に対して、第2動体候補C2が動体M1よりも近い位置にある場合、近くにある第2動体候補C2を前フレームからの動体と同じであると誤認識して、未認識物体Ob1と第2動体候補C2が対応すると判断されてしまう場合がある(Ob1=C2)。この場合、図中の矢印で示したように第2動体候補C2が未認識物体Ob1へ移動したことになる。また、未認識物体と、過去フレームにあるすべての物体との対応を調べるため、多く時間がかかる。なお、この比較例の説明では、わかりやすくするために、動体M1、第1動体候補C1、第2動体候補C2などと分類して示したが、従来の方法において過去フレームで認識されている物体についての分類はない。   As shown in FIG. 12, in the comparative example using the conventional method, all correspondences between the unrecognized object Ob1 and the moving object M1, the first moving object candidate C1, and the second moving object candidate C2 are examined. As a result, when the second moving object candidate C2 is located closer to the moving object M1 relative to the unrecognized object Ob1, the second moving object candidate C2 that is near is erroneously recognized as the same as the moving object from the previous frame. In some cases, it is determined that the unrecognized object Ob1 and the second moving object candidate C2 correspond to each other (Ob1 = C2). In this case, the second moving object candidate C2 has moved to the unrecognized object Ob1 as indicated by the arrow in the figure. In addition, it takes a lot of time to check the correspondence between the unrecognized object and all the objects in the past frame. In the description of the comparative example, for the sake of clarity, the moving object M1, the first moving object candidate C1, the second moving object candidate C2, and the like are classified and shown. However, the object recognized in the past frame in the conventional method There is no classification for.

これに対し、本実施形態では、過去フレームで所定時間(第1所定時間)以上連続して認識した動体との対応を先に調べるため、比較例のような誤認識はない。また、本実施形態では、過去フレームから既に動体と認識されている物体(すなわちここで動体に分類されている物体)との対応を先に調べているため、未認識物体が対応する可能性が高くなる。そうすると他の物体との対応を調べなくてもよくなる。特に、1フレームや2フレームなどの短時間しか出現していない物体との対応を調べなくてもよくなるので、その分、計算負荷が少なくなり、また処理時間も短くなる。   On the other hand, in this embodiment, since the correspondence with the moving object recognized continuously for a predetermined time (first predetermined time) or longer in the past frame is checked first, there is no erroneous recognition as in the comparative example. In the present embodiment, since correspondence with an object that has already been recognized as a moving object from the past frame (that is, an object that is classified as a moving object here) is first examined, there is a possibility that an unrecognized object may correspond. Get higher. Then, it is not necessary to check the correspondence with other objects. In particular, since it is not necessary to examine the correspondence with an object that appears only for a short time, such as one frame or two frames, the calculation load is reduced accordingly, and the processing time is also shortened.

図11の事例に戻って説明を続ける。未認識物体Ob1の対応結果が出た後、引き続き未認識物体Ob2について対応を調べる。この段階では、動体M1は既に対応付けが終わっているので、S8に処理が進むことになる。S8では、未認識物体Ob2と第1動体候補C1との対応を調べることになる。その結果、ここでは未認識物体Ob2と第1動体候補C1とが対応するものとする。図13は未認識物体Ob2と第1動体候補C1とが対応した状態を説明する説明図である。図13では、2フレーム連続して認識されていた第1動体候補C1が、ここでさらに未認識物体Ob2と同じものと認識されたので、3フレーム連続して認識されたことになる。これにより第1動体候補C1は動体M2となる。また矢印で示すように、第1動体候補C1は動体M2へ移動したことなる。   Returning to the case of FIG. After the correspondence result of the unrecognized object Ob1 is obtained, the correspondence of the unrecognized object Ob2 is continuously examined. At this stage, since the moving object M1 has already been associated, the process proceeds to S8. In S8, the correspondence between the unrecognized object Ob2 and the first moving object candidate C1 is examined. As a result, it is assumed here that the unrecognized object Ob2 corresponds to the first moving object candidate C1. FIG. 13 is an explanatory diagram illustrating a state where the unrecognized object Ob2 and the first moving object candidate C1 correspond to each other. In FIG. 13, the first moving object candidate C1 that has been recognized continuously for two frames is further recognized to be the same as the unrecognized object Ob2 here, so that it is recognized continuously for three frames. As a result, the first moving object candidate C1 becomes the moving object M2. As indicated by the arrows, the first moving object candidate C1 has moved to the moving object M2.

その後、さらに処理が進むと、第2動体候補C2には対応する物体がないので、第2に動体候補リストから削除される。この時点で第2動体候補C2は、たとえば、ノイズなどということになる。   Thereafter, when the processing further proceeds, since there is no corresponding object in the second moving object candidate C2, it is secondly deleted from the moving object candidate list. At this time, the second moving object candidate C2 is, for example, noise.

図14は、処理が最後まで進んだ時点での各リストを示すリスト図である。図示するように、動体リストに動体M1およびM2が登録され、第1動体候補リストおよび第2動体候補リストは登録がなくなる。ロスト動体リストは元々登録がない。   FIG. 14 is a list diagram showing each list when the processing has progressed to the end. As illustrated, the moving bodies M1 and M2 are registered in the moving body list, and the first moving body candidate list and the second moving body candidate list are not registered. The lost moving body list is not originally registered.

図15は、処理終了時の現在フレームを説明する説明図である。図15に示すように、処理終了時には現在フレームにおいて、動体M1とM2が認識されることになる。   FIG. 15 is an explanatory diagram illustrating the current frame at the end of processing. As shown in FIG. 15, at the end of the process, moving objects M1 and M2 are recognized in the current frame.

(レーザーレーダー101)
次に、レーザーレーダー101について説明する。
(Laser radar 101)
Next, the laser radar 101 will be described.

レーザーレーダー101はライダー(LiDAR(Light Detection And Ranging))などとも称されており、レーザーを打ち出し、それが物体に反射して戻ってくるまでの時間を計測(TOF(Time of Flight))し、距離を求める。それを一定範囲内を走査しながら行うことで3次元の距離画像が得られる。図16は、レーザーレーダー101により得られる3次元の距離画像の例を示す図である。このような距離画像1枚1枚がフレームとなって、時系列に連続することで動画となる。   The laser radar 101 is also referred to as a lidar (LiDAR (Light Detection And Ranging)), and measures the time (TOF (Time of Flight)) until the laser is launched and reflected back to the object. Find the distance. By performing this while scanning within a certain range, a three-dimensional distance image can be obtained. FIG. 16 is a diagram illustrating an example of a three-dimensional distance image obtained by the laser radar 101. Each such distance image becomes a frame and becomes a moving image by being continuous in time series.

距離画像では、図示するように、レーザーレーダー101の設置位置からの距離が判明した3次元画像が得られる。ここでは、複数の動体M1、M2、M3などが映っている。また、静止物St1、St2、St3なども映っている。これらは、レーザーレーダー101による測定結果が描画されて画像化されているものである。そして、この画像例では、動体として認識された物体に対して、動体であることを表す情報を重ねて表示している。ここでは動体であることを表す情報として直方体の枠(図示白線の枠)で物体(動体)を囲んでいる。このようにすることで、ユーザーが画面(動画)を見たときに、動体として認識されている物体がわかりやすくなる。なお、このような枠線はなくてもよいし、またユーザーからの指令により付けたり消したりできるようにしてもよい。また、動体であることを表す情報は、枠線に限らず三角や矢印など任意の印、さらには文字情報などであってもよい。   In the distance image, a three-dimensional image in which the distance from the installation position of the laser radar 101 is found is obtained as illustrated. Here, a plurality of moving bodies M1, M2, M3, etc. are shown. In addition, stationary objects St1, St2, and St3 are also shown. In these, the measurement result by the laser radar 101 is drawn and imaged. In this image example, information representing a moving object is displayed superimposed on an object recognized as a moving object. Here, the object (moving object) is surrounded by a rectangular parallelepiped frame (frame of white line in the figure) as information indicating that it is a moving object. This makes it easier to understand an object that is recognized as a moving object when the user views the screen (moving image). Such a frame line may not be provided, and it may be added or deleted according to a command from the user. Further, the information indicating that the object is a moving object is not limited to a frame line, and may be an arbitrary mark such as a triangle or an arrow, or character information.

図17は、レーザーレーダー101の構成を説明する断面図である。   FIG. 17 is a cross-sectional view illustrating the configuration of the laser radar 101.

図17に示したレーザーレーダー101は、監視装置MDとして用いられている例である。監視装置MDは、傾いた壁面WLに取り付けられた状態で示しているが、構成要素の形状や長さ等、実際と異なる場合がある。また、図17では監視装置MDが天地を逆にした状態で設置されているものとする。   A laser radar 101 shown in FIG. 17 is an example used as a monitoring device MD. Although the monitoring device MD is shown in a state where it is attached to the inclined wall surface WL, the shape and length of the components may differ from the actual ones. In FIG. 17, it is assumed that the monitoring device MD is installed with the top and bottom reversed.

監視装置MDは、たとえば、レーザー光束を出射するパルス式の半導体レーザーLDと、半導体レーザーLDからの発散光を平行光に変換するコリメートレンズCLと、コリメートレンズCLで平行とされたレーザー光を、回転するミラー面により監視空間に向かって走査投光するとともに、未認識物体からの反射光を反射させるミラーユニットMUと、ミラーユニットMUで反射された未認識物体からの反射光を集光するレンズLSと、レンズLSにより集光された光を受光するフォトダイオードPDと、半導体レーザーLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める処理回路(処理部)PROCと、ミラーユニットMUを回転駆動するモータMTと、これらを収容する筐体CSとを有する。フォトダイオードPDは、Y方向に並んだ複数の画素を有する。   The monitoring device MD includes, for example, a pulsed semiconductor laser LD that emits a laser beam, a collimating lens CL that converts divergent light from the semiconductor laser LD into parallel light, and laser light that is collimated by the collimating lens CL. A mirror unit MU that scans and projects light toward the monitoring space by a rotating mirror surface and reflects reflected light from the unrecognized object, and a lens that collects reflected light from the unrecognized object reflected by the mirror unit MU. LS, a photodiode PD that receives light collected by the lens LS, and a processing circuit (processing unit) PROC that obtains distance information according to the time difference between the emission timing of the semiconductor laser LD and the light reception timing of the photodiode PD; , A motor MT that rotationally drives the mirror unit MU, and a housing CS that houses these motors To. The photodiode PD has a plurality of pixels arranged in the Y direction.

半導体レーザーLDとコリメートレンズCLとで出射部LPSを構成し、レンズLSとフォトダイオードPDとで受光部RPSを構成し、ミラーユニットMUが走査部を構成し、さらにこれらで投受光ユニットを構成する。   The semiconductor laser LD and the collimating lens CL constitute an emission part LPS, the lens LS and the photodiode PD constitute a light receiving part RPS, the mirror unit MU constitutes a scanning part, and these constitute a light projecting / receiving unit. .

出射部LPS、受光部RPSの光軸は、ミラーユニットMUの回転軸ROに対して直交していると好ましい。   The optical axes of the emission part LPS and the light receiving part RPS are preferably orthogonal to the rotation axis RO of the mirror unit MU.

壁面WL等に固定されたボックス状の筐体CSは、上壁CSaと、これに対向する下壁CSbと、上壁CSaと下壁CSbとを連結する側壁CScとを有する。側壁CScの一部に開口CSdが形成され、開口CSdには透明板TRが取り付けられている。   The box-shaped casing CS fixed to the wall surface WL or the like includes an upper wall CSa, a lower wall CSb facing the upper wall CSa, and a side wall CSc connecting the upper wall CSa and the lower wall CSb. An opening CSd is formed in a part of the side wall CSc, and a transparent plate TR is attached to the opening CSd.

ミラーユニットMUは、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面MR1、MR2を4対(ただし4対に限られない)有している。ミラー面MR1、MR2は、ミラーユニットの形状をした樹脂素材(たとえばPC(Polycarbonate))の表面に、反射膜を蒸着することにより形成されていると好ましい。   The mirror unit MU has a shape in which two quadrangular pyramids are joined in opposite directions, that is, four pairs of mirror surfaces MR1 and MR2 tilted in a direction facing each other in pairs (but not limited to four pairs). ) The mirror surfaces MR1 and MR2 are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC (Polycarbonate)) in the shape of a mirror unit.

ミラーユニットMUは、筐体CSに固定されたモータMTの軸MTaに連結され、回転駆動されるようになっている。ここでは、軸MTaの軸線(回転軸線)が鉛直方向に対して傾いたY方向に延在しており、またY方向に直交するZ方向およびX方向によりなすZX平面が水平面に対して傾いているが、軸MTaの軸線を鉛直方向に一致させてもよい。   The mirror unit MU is connected to a shaft MTa of a motor MT fixed to the casing CS and is driven to rotate. Here, the axis (rotation axis) of the axis MTa extends in the Y direction inclined with respect to the vertical direction, and the ZX plane perpendicular to the Y direction and the ZX plane formed by the X direction are inclined with respect to the horizontal plane. However, the axis of the axis MTa may coincide with the vertical direction.

監視装置MDの未認識物体検出原理について説明する。図17において、半導体レーザーLDからパルス状に間欠的に出射された発散光は、コリメートレンズCLで平行光束に変換され、回転するミラーユニットMUの第1ミラー面MR1に入射し、ここで反射され、さらに第2ミラー面MR2で反射した後、透明板TRを透過して外部の監視空間に向けて、たとえば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、出射されたレーザースポット光が未認識物体で反射し、反射光として戻ってくる方向を投受光方向という。同一投受光方向に進行するレーザースポット光束は、同一の画素で検出される。   An unrecognized object detection principle of the monitoring device MD will be described. In FIG. 17, divergent light intermittently emitted in a pulse form from the semiconductor laser LD is converted into a parallel light beam by the collimator lens CL, enters the first mirror surface MR1 of the rotating mirror unit MU, and is reflected there. Further, after being reflected by the second mirror surface MR2, it is scanned and projected as a laser spot light having, for example, a vertically long rectangular cross section through the transparent plate TR and directed to the external monitoring space. The direction in which the emitted laser spot light is reflected by an unrecognized object and returned as reflected light is referred to as a light projecting / receiving direction. Laser spot light beams traveling in the same light projecting / receiving direction are detected by the same pixel.

図18は、ミラーユニットMUの回転に応じて、出射するレーザースポット光SB(ハッチングで示す)で、監視装置MDの監視空間内を走査する状態を説明する説明図である。   FIG. 18 is an explanatory diagram for explaining a state in which the monitoring space of the monitoring device MD is scanned with the laser spot light SB (shown by hatching) emitted according to the rotation of the mirror unit MU.

ここで、ミラーユニットMUの第1ミラー面MR1と第2ミラー面MR2の組み合わせにおいて、それぞれ交差角が異なっている。   Here, in the combination of the first mirror surface MR1 and the second mirror surface MR2 of the mirror unit MU, the crossing angles are different.

レーザー光は、回転する第1ミラー面MR1と第2ミラー面MR2にて、順次反射される。まず1番対の第1ミラー面MR1と第2ミラー面MR2にて反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の一番上の領域Ln1を水平方向に左から右へと走査される。   The laser light is sequentially reflected by the rotating first mirror surface MR1 and second mirror surface MR2. First, the laser light reflected by the first pair of the first mirror surface MR1 and the second mirror surface MR2 moves from the left to the right in the horizontal direction in the uppermost area Ln1 in accordance with the rotation of the mirror unit MU. Is scanned.

次に、2番対の第1ミラー面MR1と第2ミラー面MR2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の上から2番目の領域Ln2を水平方向に左から右へと走査される。   Next, the laser light reflected by the second pair of the first mirror surface MR1 and the second mirror surface MR2 moves from the left in the horizontal direction to the second region Ln2 from the top of the monitoring space according to the rotation of the mirror unit MU. Scan to the right.

次に、3番対の第1ミラー面MR1と第2ミラー面MR2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の上から3番目の領域Ln3を水平方向に左から右へと走査される。   Next, the laser light reflected by the third pair of the first mirror surface MR1 and the second mirror surface MR2 passes through the third region Ln3 from the top of the monitoring space in the horizontal direction from the left in accordance with the rotation of the mirror unit MU. Scan to the right.

次に、4番対の第1ミラー面MR1と第2ミラー面MR2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間のもっとも下の領域Ln4を水平方向に左から右へと走査される。   Next, the laser light reflected by the fourth pair of the first mirror surface MR1 and the second mirror surface MR2 moves from the left to the right in the horizontal direction in the lowest region Ln4 in the monitoring space according to the rotation of the mirror unit MU. Is scanned.

これにより監視装置MDが監視可能な監視空間全体の1回の走査が完了する。このようにレーザースポット光束が2次元的に隙間なく走査される(走査されたレーザースポット光束の軌跡が隣接する場合(たとえば領域Ln1と領域Ln2)において、隣接する軌跡が隙間なく接することをいうが、一部重なり合う場合を含む)と、監視装置MDの設定時に、ユーザーが直感的に空間把握しやすい距離画像が得られることになり、好ましい。   Thus, one scan of the entire monitoring space that can be monitored by the monitoring device MD is completed. As described above, the laser spot light beam is scanned two-dimensionally without any gap (when the trajectories of the scanned laser spot light beam are adjacent to each other (for example, the region Ln1 and the region Ln2), the adjacent locus is in contact with no gap. , Including a case where a part of the images overlaps each other), a distance image that allows the user to intuitively grasp the space intuitively is preferable when setting the monitoring device MD.

この領域Ln1〜Ln4の走査により得られた画像を組み合わせて、1つのフレームFLが得られる。そして、ミラーユニットMUが1回転した後、1番対の第1ミラー面MR1と第2ミラー面MR2が戻ってくれば、再び監視空間の一番上の領域Ln1からもっとも下の領域Ln4までの走査を繰り返し、次のフレームFLが得られる。   One frame FL is obtained by combining images obtained by scanning the regions Ln1 to Ln4. If the first pair of the first mirror surface MR1 and the second mirror surface MR2 return after one rotation of the mirror unit MU, the region from the uppermost region Ln1 to the lowermost region Ln4 is again displayed. Scanning is repeated to obtain the next frame FL.

図17を参照して、走査投光された光束のうち未認識物体に当たって反射したレーザー光の一部は、再び透明板TRを透過して筐体CS内のミラーユニットMUの第2ミラー面MR2に入射し、ここで反射され、さらに第1ミラー面MR1で反射されて、レンズLSにより集光され、それぞれフォトダイオードPDの受光面で画素ごとに検知されることとなる。   Referring to FIG. 17, a part of the laser beam reflected by the unrecognized object among the light beams projected and transmitted again passes through the transparent plate TR and the second mirror surface MR2 of the mirror unit MU in the housing CS. , And is reflected by the first mirror surface MR1, collected by the lens LS, and detected for each pixel on the light receiving surface of the photodiode PD.

さらに、処理回路(不図示)が、半導体レーザーLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で未認識物体の検出を行って、画素(測定点)ごとに距離情報(3次元の計測値)を持つ距離画像(測定点マーカー群ともいわれている)としてのフレームFL(図18参照)を得ることができる。距離画像の形状は、実際に走査されるスポット光束SBの形状と同じである。距離画像は処理回路から物体追跡装置102に送られて、物体追跡が行われる。また距離画像は必要に応じてサーバー103に送られて記憶される。   Further, a processing circuit (not shown) obtains distance information according to the time difference between the emission timing of the semiconductor laser LD and the light reception timing of the photodiode PD. As a result, an unrecognized object is detected in the entire area in the monitoring space, and a distance image (also referred to as a measurement point marker group) having distance information (three-dimensional measurement value) for each pixel (measurement point). A frame FL (see FIG. 18) can be obtained. The shape of the distance image is the same as the shape of the spot light beam SB that is actually scanned. The distance image is sent from the processing circuit to the object tracking device 102 to perform object tracking. The distance image is sent to the server 103 and stored as necessary.

以上説明した実施形態によれば、以下のような効果を奏する。   According to the embodiment described above, the following effects can be obtained.

(1)本実施形態は、前フレームまでで、所定時間以上継続して検出している物体を第1種物体と分類し、所定時間未満の物体を第2種物体と分類した。本実施形態では第1種物体を動体、第2種物体を動体候補と称した。そして、現在フレームで検出された未認識物体は、動体から先に対応するかを調べる。未認識物体が動体と対応した場合は、その未認識物体を動体と対応付けすることで動体と認識し、未認識物体が動体と対応付かなければ動体候補との対応を調べることとした。これにより、動体と未認識物体が対応付けされたなら、動体候補については調べなくてもよくなる。このため、その分、計算負荷を低減することができ、処理時間も短くすることができる。また、1フレームや2フレームなどごく短い時間しか出現しないようなノイズや木々の揺れなどのようなものは動体候補として後回しで評価される。このため、そのようなノイズなどが物体追跡データ全体の中に紛れ込んでしまうことがなくなる。   (1) In this embodiment, an object that has been detected for a predetermined time or more until the previous frame is classified as a first type object, and an object that is less than a predetermined time is classified as a second type object. In the present embodiment, the first type object is referred to as a moving object, and the second type object is referred to as a moving object candidate. Then, it is checked whether the unrecognized object detected in the current frame corresponds to the moving object first. When an unrecognized object corresponds to a moving object, the unrecognized object is recognized as a moving object by associating with the moving object, and if the unrecognized object does not correspond to the moving object, the correspondence with the moving object candidate is examined. As a result, if the moving object is associated with the unrecognized object, the moving object candidate need not be examined. For this reason, the calculation load can be reduced correspondingly, and the processing time can be shortened. Also, noise such as one frame or two frames that appears only for a very short time, or shaking of trees is evaluated later as a moving object candidate. For this reason, such noise and the like are not mixed into the entire object tracking data.

(2)未認識物体と対応付けた動体候補は、物体として検出されてからの経過時間が所定時間以上経過していれば動体に分類することとした。これにより、時間経過とともに同じ物体が認識されると動体候補を動体に分類して物体追跡することができる。   (2) A moving object candidate associated with an unrecognized object is classified as a moving object if the elapsed time from the detection as an object has passed a predetermined time or more. Thereby, when the same object is recognized over time, the moving object candidate can be classified as a moving object and the object can be tracked.

(3)動体候補は、物体として検出されてからの経過時間が長い方(フレーム数の多い方)から順に第1動体候補、第2動体候補などと、複数の段階に分類することとした。そして経過時間が長い方(フレーム数の多い方)から順に未認識物体との対応を調べることとした。これにより、より細かく計算量の削減、ノイズの影響の低減を行うことができる。   (3) The moving object candidates are classified into a plurality of stages, such as a first moving object candidate, a second moving object candidate, and the like in order from the longer elapsed time (the one with the larger number of frames) after the detection as an object. Then, the correspondence with unrecognized objects is examined in order from the longer elapsed time (the one with the larger number of frames). Thereby, the amount of calculation can be reduced more finely and the influence of noise can be reduced.

(4)動体についても、物体として検出されてからの経過時間が長い方(フレーム数の多い方)から順に複数の段階に分類しておき、経過時間が長い方から順に未認識物体との対応を調べることとした。これにより、より長い時間動体として認識されている物体から順に追跡できるようになる。   (4) The moving object is also classified into a plurality of stages in order from the longest elapsed time after detection as an object (the one with the largest number of frames), and the correspondence with the unrecognized object in the order from the longest elapsed time. I decided to investigate. Thereby, it becomes possible to track in order from an object recognized as a moving object for a longer time.

(5)さらに、本実施形態では、未認識物体と対応していない動体を第3種物体と分類した。ここでも本実施形態では、第3種物体をロスト動体と称している。そして、未認識物体がロスト動体と対応した場合は、動体に分類し直すこととした。これにより、フレーム内で一時的に隠れた物体を再出現時に同一の動体として認識することができる。   (5) Furthermore, in this embodiment, moving objects that do not correspond to unrecognized objects are classified as third type objects. Again, in the present embodiment, the third type object is referred to as a lost moving object. When an unrecognized object corresponds to a lost moving object, it is classified as a moving object. Thereby, the object temporarily hidden in the frame can be recognized as the same moving object when it reappears.

(6)未認識物体がいずれの動体候補とも対応していないと判断された場合は、未認識物体を現在フレームで新規に出現したものとして動体候補に分類することとした。これにより、現在フレームだけで出現した物体を動体候補として分類しておいて、時間経過とともに同じ物体が認識されなければ動体とせずに排除することができる。   (6) If it is determined that the unrecognized object does not correspond to any moving object candidate, the unrecognized object is classified as a moving object candidate as newly appearing in the current frame. As a result, an object that appears only in the current frame is classified as a moving object candidate, and if the same object is not recognized over time, it can be eliminated without being a moving object.

(7)所定時間を0.2秒以上1秒未満とすることでごく短時間の間現れて消えてしまうノイズや、風で揺れて生きる草花や木々を動体と認識しないようにできる。   (7) By setting the predetermined time to not less than 0.2 seconds and less than 1 second, noise that appears and disappears for a very short time, and flowers and trees that live by shaking with the wind can be prevented from being recognized as moving objects.

(8)時間のカウントをフレーム単位で行うこととした。これにより、経過時間がフレームを数えることでわかるようになる。また、フレーム内における物体の認識はフレーム単位で行われるため、物体を認識するための時間間隔として切りの良い時間でカウントすることができる。   (8) Time is counted in units of frames. Thereby, the elapsed time can be understood by counting the frames. In addition, since the recognition of the object in the frame is performed in units of frames, the time interval for recognizing the object can be counted with a good time.

(9)認識した動体には、動体であることを表す情報とともに表示することとした。これによりユーザーが画面を見た時に、認識されている動体をわかりやすくなる。   (9) The recognized moving object is displayed together with information indicating that it is a moving object. This makes it easier to understand the recognized moving object when the user looks at the screen.

以上本発明を適用した実施形態を説明したが、本発明はこれら実施形態に限定されるものではない。   Although the embodiments to which the present invention is applied have been described above, the present invention is not limited to these embodiments.

画像取得センサーは、レーザーレーダー101ではなく、普通のムービーカメラを用いることもできる。ムービーカメラを用いた場合、3次元の距離情報は得られないが、フレーム内において物体がどの程度の時間(フレーム数)継続して存在しているかを認識することは可能である。したがって、ムービーカメラを用いた動画(時系列に並んだフレーム)から上述した実施形態同様に(3次元計測することを除いて)、物体追跡を行うことができる。   As the image acquisition sensor, an ordinary movie camera can be used instead of the laser radar 101. When a movie camera is used, three-dimensional distance information cannot be obtained, but it is possible to recognize how long (number of frames) an object exists in a frame. Accordingly, object tracking can be performed from a moving image (frames arranged in time series) using a movie camera, as in the above-described embodiment (except for three-dimensional measurement).

また、実施形態では、動体候補(第2種物体)は、第1動体候補と第2動体候補の2段階とした。つまり物体として検出してから2つの経過時間(フレーム数)に関連付けしたものである。しかし、これは1つの経過時間に関連付けて1段階としてよいし、さらに複数の経過時間に関連付けて、n段階(第n動体候補(ただしnは自然数))でもよい。   In the embodiment, the moving object candidate (second type object) is in two stages: the first moving object candidate and the second moving object candidate. That is, it is associated with two elapsed times (the number of frames) after detection as an object. However, this may be one stage associated with one elapsed time, or may be n stages (nth moving body candidates (where n is a natural number)) associated with a plurality of elapsed times.

また、動体についても経過時間(フレーム数)によって多段階に分けて管理してもよい。たとえば、物体として検出されてからの経過時間(フレーム数)ごとに、第1から第n動体(ただしnは自然数)とする。このようにすることで、過去フレームにおいて認識されている時間が長い(フレーム数が多い)方の動体から順に未認識物体との対応を調べることができる。   Also, moving objects may be managed in multiple stages depending on the elapsed time (number of frames). For example, the first to nth moving bodies (where n is a natural number) are set for each elapsed time (number of frames) since the object is detected. By doing so, it is possible to examine the correspondence with unrecognized objects in order from the moving object that has been recognized in the past frame for the longer time (the number of frames is larger).

そのほか本発明は特許請求の範囲に記載された構成に基づき様々な改変が可能であり、それらについても本発明の範疇である。   In addition, the present invention can be variously modified based on the configurations described in the claims, and these are also within the scope of the present invention.

11 CPU、
12 RAM、
14 HDD、
101 レーザーレーダー、
102 物体追跡装置。
11 CPU,
12 RAM,
14 HDD,
101 laser radar,
102 Object tracking device.

Claims (11)

時系列に沿って複数のフレームが並んでいる動画の中で検出された物体であって、検出されてからの経過時間が、あらかじめ決められた所定時間以上継続している物体を第1種物体と分類し、前記所定時間未満の物体を第2種物体と分類しておく段階(a)と、
現在フレームで検出した物体を未認識物体として、当該未認識物体と前記第1種物体との対応を調べる段階(b)と、
前記段階(b)において、前記未認識物体と前記第1種物体とが対応していると判断された場合は前記未認識物体と前記第1種物体とを対応付けする段階(c)と、
前記段階(b)において、前記未認識物体と前記第1種物体が対応していないと判断された場合は、前記未認識物体と前記第2種物体との対応を調べる段階(d)と、
前記段階(d)において、前記未認識物体と前記第2種物体とが対応していると判断された場合は前記未認識物体と前記第2種物体とを対応付けする段階(e)と、
を有する、物体追跡方法。
A first-type object that is detected in a moving image in which a plurality of frames are arranged in time series and has elapsed for a predetermined time or more after being detected. And classifying the object of less than the predetermined time as the second type object (a),
(B) examining the correspondence between the unrecognized object and the first type object, using the object detected in the current frame as an unrecognized object;
A step (c) of associating the unrecognized object and the first type object when it is determined in the step (b) that the unrecognized object and the first type object correspond to each other;
In the step (b), when it is determined that the unrecognized object and the first type object do not correspond to each other, a step (d) of checking the correspondence between the unrecognized object and the second type object;
In the step (d), when it is determined that the unrecognized object and the second type object correspond to each other, the step (e) of associating the unrecognized object with the second type object;
An object tracking method.
前記段階(e)において、前記未認識物体と対応付けた前記第2種物体が、物体として検出されてからの経過時間が前記所定時間以上経過していれば前記第2種物体を前記第1種物体に分類する段階(e1)を有する、請求項1記載の物体追跡方法。   In the step (e), if the elapsed time after the second type object associated with the unrecognized object is detected as an object has passed the predetermined time, the second type object is changed to the first type. The object tracking method according to claim 1, further comprising a step (e1) of classifying the seed object. 前記段階(a)において、前記第2種物体は、物体として検出されてからの経過時間と関連付けておき、
前記段階(d)において、前記第2種物体は、物体として検出されてからの経過時間が長い方から順に前記未認識物体との対応を調べる、請求項1または2に記載の物体追跡方法。
In the step (a), the second type object is associated with an elapsed time since it was detected as an object,
3. The object tracking method according to claim 1, wherein, in the step (d), the correspondence between the second type object and the unrecognized object is examined in order from the longest elapsed time after being detected as an object.
前記段階(a)において、前記第1種物体は、物体として検出されてからの経過時間と関連付けておき、
前記段階(b)において、前記第1種物体は、物体として検出されてからの経過時間が長い方から順に前記未認識物体との対応を調べる、請求項1〜3のいずれか1つに記載の物体追跡方法。
In the step (a), the first type object is associated with an elapsed time since it was detected as an object,
The said 1st type object investigates a response | compatibility with the said unrecognized object in an order from the longest elapsed time after the said 1st type object is detected as an object in the said step (b). Object tracking method.
前記段階(a)において、前記段階(b)で前記未認識物体と対応していない前記第1種物体を第3種物体として分類しておき、
前記段階(d)において、前記未認識物体と前記第2種物体とが対応していないと判断された場合は前記未認識物体と前記第3種物体との対応を調べる段階(f)と、
前記段階(f)において、前記未認識物体と前記第3種物体とが対応していると判断された場合は前記未認識物体と前記第3種物体とを対応付けして、前記第3種物体を前記第1種物体に分類し直す段階(g)と、
前記段階(f)において、前記未認識物体と前記第3種物体とが対応していないと判断された場合は前記未認識物体を前記第2種物体に分類する段階(h)と、
を有する、請求項1〜4のいずれか1つに記載の物体追跡方法。
In the step (a), the first type object that does not correspond to the unrecognized object in the step (b) is classified as a third type object,
In the step (d), when it is determined that the unrecognized object and the second type object do not correspond to each other, a step (f) of checking the correspondence between the unrecognized object and the third type object;
In the step (f), when it is determined that the unrecognized object and the third type object correspond to each other, the unrecognized object and the third type object are associated with each other, and the third type Reclassifying an object into the first type object (g);
In the step (f), when it is determined that the unrecognized object and the third type object do not correspond to each other, the step (h) of classifying the unrecognized object as the second type object;
The object tracking method according to claim 1, comprising:
前記段階(d)において、前記未認識物体がいずれの前記第2種物体とも対応していないと判断された場合は前記未認識物体を前記第2種物体に分類する段階(d1)、を有する、請求項1〜4のいずれか1つに記載の物体追跡方法。   In the step (d), when it is determined that the unrecognized object does not correspond to any of the second type objects, the method includes a step (d1) of classifying the unrecognized object into the second type object. The object tracking method according to any one of claims 1 to 4. 前記所定時間は、0.2秒以上1秒未満である、請求項1〜6のいずれか1つに記載の物体追跡方法。   The object tracking method according to claim 1, wherein the predetermined time is not less than 0.2 seconds and less than 1 second. 前記時間は前記フレームを単位としてカウントする、請求項1〜7のいずれか1つに記載の物体追跡方法。   The object tracking method according to claim 1, wherein the time is counted in units of the frame. 前記第1種物体を、動体であることを表す情報とともに表示する段階(i)を有する、請求項1〜8のいずれか1つに記載の物体追跡方法。   The object tracking method according to claim 1, further comprising a step (i) of displaying the first type object together with information indicating that the object is a moving object. 請求項1〜9のいずれか1つに記載の物体追跡方法をコンピューターに実行させるための物体追跡プログラム。   An object tracking program for causing a computer to execute the object tracking method according to claim 1. 時系列に沿ってフレームを取得する画像取得センサーと、
請求項10に記載のプログラムを実行するコンピューターと、
を有する、物体追跡システム。
An image acquisition sensor that acquires frames in chronological order;
A computer that executes the program according to claim 10;
An object tracking system.
JP2017116144A 2017-06-13 2017-06-13 Object tracking methods, object tracking programs, and object tracking systems Active JP6898587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017116144A JP6898587B2 (en) 2017-06-13 2017-06-13 Object tracking methods, object tracking programs, and object tracking systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017116144A JP6898587B2 (en) 2017-06-13 2017-06-13 Object tracking methods, object tracking programs, and object tracking systems

Publications (2)

Publication Number Publication Date
JP2019003334A true JP2019003334A (en) 2019-01-10
JP6898587B2 JP6898587B2 (en) 2021-07-07

Family

ID=65006085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017116144A Active JP6898587B2 (en) 2017-06-13 2017-06-13 Object tracking methods, object tracking programs, and object tracking systems

Country Status (1)

Country Link
JP (1) JP6898587B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021260934A1 (en) * 2020-06-26 2021-12-30

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077898A (en) * 2000-08-23 2002-03-15 Hitachi Ltd Moving object detecting system
JP2002334338A (en) * 2001-05-09 2002-11-22 National Institute Of Advanced Industrial & Technology Device and method for object tracking and recording medium
JP2012059224A (en) * 2010-09-13 2012-03-22 Toshiba Corp Moving object tracking system and moving object tracking method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077898A (en) * 2000-08-23 2002-03-15 Hitachi Ltd Moving object detecting system
JP2002334338A (en) * 2001-05-09 2002-11-22 National Institute Of Advanced Industrial & Technology Device and method for object tracking and recording medium
JP2012059224A (en) * 2010-09-13 2012-03-22 Toshiba Corp Moving object tracking system and moving object tracking method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021260934A1 (en) * 2020-06-26 2021-12-30
WO2021260934A1 (en) * 2020-06-26 2021-12-30 日本電気株式会社 Information processing device, information processing method, and program storage medium

Also Published As

Publication number Publication date
JP6898587B2 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
JP5470262B2 (en) Binocular detection and tracking method and apparatus
US10163256B2 (en) Method and system for generating a three-dimensional model
US10832017B2 (en) Tracking objects in a two dimensional space
WO2018119902A1 (en) Method and apparatus for detecting ground environment
US20130070257A1 (en) Three-Dimensional Scanning System
US20190370612A1 (en) Method and a system for identifying reflective surfaces in a scene
US20200201513A1 (en) Systems and methods for rfid tag locationing in augmented reality display
CN113888458A (en) Method and system for object detection
JP2019101000A (en) Distance measurement point group data measurement system and control program
CN111397586B (en) Measurement system and method for verifying pre-configured target attributes using the same
JP6898587B2 (en) Object tracking methods, object tracking programs, and object tracking systems
JP6932971B2 (en) Motion tracking methods, motion tracking programs, and motion tracking systems
JP2011106829A (en) Method for detecting moving body, and laser apparatus for measuring distance
JP2017207365A (en) Computation processing device, computation processing method, and program
WO2021045813A1 (en) Improved 3d mapping by distinguishing between different environmental regions
JP2018181114A (en) Intrusion monitoring method, intrusion monitoring program, and intrusion monitoring system
JP2005069977A (en) Device and method for tracking moving route of object
US6616044B1 (en) Methods and apparatus for obtaining imaging information in bar code scanners
JP6988797B2 (en) Monitoring system
Börcs et al. Dynamic 3D environment perception and reconstruction using a mobile rotating multi-beam Lidar scanner
JP7020096B2 (en) Object detection device, control method of object detection device, and control program of object detection device
JP2007003448A (en) Movement information generating device, movement information generating method, program, and storage medium
JP6599031B2 (en) Monitoring device
CN110839131A (en) Synchronization control method, synchronization control device, electronic equipment and computer readable medium
Shand Origins and mitigations of some automotive pulsed lidar artifacts

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210525

R150 Certificate of patent or registration of utility model

Ref document number: 6898587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150