JP7053057B2 - Mobile tracking device and mobile tracking method - Google Patents

Mobile tracking device and mobile tracking method Download PDF

Info

Publication number
JP7053057B2
JP7053057B2 JP2020087696A JP2020087696A JP7053057B2 JP 7053057 B2 JP7053057 B2 JP 7053057B2 JP 2020087696 A JP2020087696 A JP 2020087696A JP 2020087696 A JP2020087696 A JP 2020087696A JP 7053057 B2 JP7053057 B2 JP 7053057B2
Authority
JP
Japan
Prior art keywords
unit
image
tracking
moving
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020087696A
Other languages
Japanese (ja)
Other versions
JP2021182288A (en
Inventor
泰祐 岡部
覚 渋谷
Original Assignee
技研トラステム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 技研トラステム株式会社 filed Critical 技研トラステム株式会社
Priority to JP2020087696A priority Critical patent/JP7053057B2/en
Publication of JP2021182288A publication Critical patent/JP2021182288A/en
Application granted granted Critical
Publication of JP7053057B2 publication Critical patent/JP7053057B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置及び移動体追跡方法に関する。 The present invention relates to a moving body tracking device and a moving body tracking method for tracking a moving body based on an object image in a captured image captured by an imaging unit.

近年では、例えば、ディープニューラルネットワーク(DNN:Deep Neural Network)を用いた人物や自動車といった物体検出の手法が多く研究されている。予め自家用車やバス、トラック、人、自転車といった種別毎に識別した画像を用いて深層学習を行った人工知能を搭載した画像処理装置でカメラの撮像画像を評価することで、その画像中に含まれる各物体の種別と画像中の位置を推定することが可能である。既存の画像処理による識別では、各種別毎にアルゴリズムを作製する必要があったが、DNNを用いることでより簡易に複数種の物体検出を行うことができる。また、DNNを用いて、上述のように撮像画像中の物体の位置だけではなく、その後の物体の移動の追跡を含めて実施する技術も研究されており、例えば、パーティクルフィルタを用いた追跡装置などがある(特許文献1等)。 In recent years, for example, many methods for detecting objects such as people and automobiles using a deep neural network (DNN) have been studied. By evaluating the captured image of the camera with an image processing device equipped with artificial intelligence that performed deep learning using images identified for each type such as private cars, buses, trucks, people, and bicycles in advance, it is included in the image. It is possible to estimate the type of each object and its position in the image. In the existing identification by image processing, it was necessary to create an algorithm for each type, but by using DNN, it is possible to more easily detect a plurality of types of objects. Further, a technique of using DNN to track not only the position of an object in a captured image but also the subsequent movement of the object as described above is also being researched. For example, a tracking device using a particle filter is being studied. Etc. (Patent Document 1 etc.).

また、カメラの撮像画像中から所定の物体を認識する方法として、ベクトル焦点法が知られている。このベクトル焦点法は、認識すべき物体の標準モデルに基づく標準体データを作製しておき、撮像画像中から標準体データと適合する物体を認識するものである(特許文献2,3,4)。 Further, a vector focus method is known as a method of recognizing a predetermined object from an image captured by a camera. This vector focal method creates standard body data based on a standard model of an object to be recognized, and recognizes an object that matches the standard body data from captured images (Patent Documents 2, 3, and 4). ..

特開2019-185210号公報Japanese Unexamined Patent Publication No. 2019-185210 特許第3406587号公報Japanese Patent No. 3406587 特許第3390426号公報Japanese Patent No. 3390426 特許第3406577号公報Japanese Patent No. 340657577

DNNを用いて物体検出及び追跡を実施する場合、演算量が多いため、実用上は高速に演算処理できる演算処理装置が必要となる。しかしながら、通行量の測定など小型で安価なシステム上で動作させる必要がある場合、長時間安定動作させるために低消費電力にする必要性や、経済上等の諸事情により、使用可能な演算処理装置が限られてくる。それゆえ、現実問題として撮像画像から多様な物体を高精度で認識でき且つ低消費電力で電力供給方法、放熱問題の殆ど無い移動体追跡装置の提供が望まれる。 When object detection and tracking are performed using DNN, since the amount of calculation is large, a calculation processing device capable of high-speed calculation processing is required in practice. However, when it is necessary to operate on a small and inexpensive system such as traffic volume measurement, it is possible to use arithmetic processing due to the need for low power consumption for long-term stable operation and various economic circumstances. The equipment is limited. Therefore, as a practical matter, it is desired to provide a moving object tracking device that can recognize various objects from captured images with high accuracy, has low power consumption, has a power supply method, and has almost no heat dissipation problem.

また、追跡対象が自動車や人物等、種類が多岐にわたる場合、移動の規則性や速度がそれぞれ異なり、同一のアルゴリズムにて多岐の移動体に渡って精度よく移動体の追跡を行うためには、秒間の撮像画像の処理回数(FPS:Frames Per Second)を多くする必要がある。例えば、移動体が等速直線運動ではなく不規則な運動をしている場合、撮像画像から得られる特徴点が変化している場合、類似の特徴点が得られる物体同士が交差する場合など、画像取得の頻度が低いほど撮像画像から得られる特徴点の一致度や位置の一致度が低下し、追跡精度が低下する。その為、DNNを用いて種類毎に識別された移動体を精度よく追跡するには撮像画像のFPSを高めることが必要となるが、上述のような限られた性能の演算処理装置では限界がある。 In addition, when there are various types of tracking targets such as automobiles and people, the regularity and speed of movement are different, and in order to accurately track moving objects over various moving objects with the same algorithm, It is necessary to increase the number of times the captured image is processed per second (FPS: Frames Per Second). For example, when a moving object is moving irregularly instead of a constant velocity linear motion, the feature points obtained from a captured image are changing, or objects having similar feature points intersect with each other. The lower the frequency of image acquisition, the lower the degree of matching of feature points and the degree of matching of positions obtained from captured images, and the lower the tracking accuracy. Therefore, it is necessary to increase the FPS of the captured image in order to accurately track the moving object identified for each type using DNN, but there is a limit in the arithmetic processing device with limited performance as described above. be.

また、前記ベクトル焦点法を用いて移動体の追跡を高精度に行うためには、経時的に多様かつ個性的に変化する物体像に対応して標準体データを設定する必要があるが、多様かつ個性的な変化に対応した標準体データを事前に想定して設定することは困難であった。 Further, in order to trace a moving body with high accuracy by using the vector focal method, it is necessary to set standard body data corresponding to an object image that changes variously and individually over time. Moreover, it was difficult to anticipate and set standard data corresponding to individual changes in advance.

本発明は、以上の事情に鑑みてなされたものであり、低消費電力で動作可能でありながら、撮像画像から所定の移動体を精度よく追跡を行うことが可能な移動体追跡装置及び移動体追跡方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and is a moving body tracking device and a moving body capable of accurately tracking a predetermined moving body from a captured image while being able to operate with low power consumption. The purpose is to provide a tracking method.

本発明者らは、高速に実行できる物体識別部を例えば1/10程度の間欠動作をさせることで低消費電力に動作させて物体を認識させ、又は簡易なハードウエアで低消費電力だが低速な実行の物体識別部を使って物体を認識させ、物体の追跡は低消費電力で実行できるベクトル焦点法で機能補間することにより、高精度でありながら、低消費電力、小型で熱対策の容易な装置及び方法を完成させた。 The present inventors operate an object identification unit that can be executed at high speed intermittently, for example, by about 1/10 to operate it with low power consumption to recognize an object, or simple hardware with low power consumption but low speed. The object is recognized using the object identification unit of the execution, and the object tracking is performed by the vector focus method that can be executed with low power consumption. Completed the device and method.

すなわち、本発明に係る移動体追跡装置は、
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置であって、
前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力と前記撮像画像を遅延させず間引く出力との2系統に分配し、前記撮像画像を出力する画像分配部と、
人工知能又はベクトル焦点法による物体検出により、前記画像分配部から入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別部と、
物体識別部での物体の認識結果の位置と範囲をベクトル焦点法による画像処理の標準モデルとして扱い、前記画像分配部から入力された撮像画像中から前記標準モデルに適合する追跡対象の移動体を追跡する処理を行う移動体追跡部と、
物体識別部と移動体追跡部の結果の統合を行う一致判定部とを備え、
前記画像分配部は、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう毎回撮像画像を出力する構成とし、
前記物体識別部は、高速の演算処理で間欠動作を行う又は低速な演算処理を行う構成とし、
前記一致判定部は、前記物体識別部及び前記移動体追跡部からの出力より互いに同一の移動体が存在する場合、前記移動体追跡部が追跡する当該移動体を前記物体識別部で検出する物体と一致させるための処理を行う構成とする。
That is, the mobile tracking device according to the present invention is
It is a mobile object tracking device that tracks a moving object based on the object image in the captured image captured by the imaging unit.
An image distribution unit that distributes the captured image into two systems, an output that delays the captured image in a FIFO type according to the image processing speed and an output that thins the captured image without delay, and outputs the captured image.
An object identification unit that performs processing to detect an object to be tracked from the captured images input from the image distribution unit by object detection by artificial intelligence or the vector focus method.
The position and range of the recognition result of the object in the object identification unit are treated as a standard model of image processing by the vector focus method, and the moving object to be tracked that matches the standard model is selected from the captured images input from the image distribution unit. A moving object tracking unit that performs tracking processing, and
It is equipped with a match determination unit that integrates the results of the object identification unit and the moving object tracking unit.
The image distribution unit periodically outputs captured images to the object identification unit at intervals of a fixed number of frames, and outputs the object identification unit to the moving object tracking unit and the moving object tracking unit. The configuration is such that the captured image is output each time so that the output is at the same timing.
The object identification unit is configured to perform intermittent operations by high-speed arithmetic processing or to perform low-speed arithmetic processing.
When the same moving object exists from the outputs from the object identification unit and the moving object tracking unit, the matching determination unit detects the moving object tracked by the moving object tracking unit by the object identification unit. It is configured to perform processing to match with.

本発明に係る移動体追跡方法の一形態は、
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡方法であって、
画像分配部にて、前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力及び遅延させず間引く出力の2系統に分配し、各処理部へ前記撮像画像を出力する画像分配ステップと、
物体識別部にて、人工知能により、前記画像分配ステップで入力されたフレームの撮像画像中から追跡対象の物体を検出する処理を行う物体識別ステップと、
移動体追跡部にて、ベクトル焦点法による画像処理により、前記画像分配ステップで入力されたフレームの撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡ステップと、
一致判定部にて、前記移動体追跡ステップが追跡すべき移動体を前記物体識別ステップで検出する物体と一致させるための処理を行う一致判定ステップとを備え、
前記画像分配ステップは、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう遅延させて毎回撮像画像を出力する処理を行い、
前記物体識別ステップは、前記人工知能において追跡対象の移動体となる実際の物体の様々な形の画像データを機械学習させた学習済みモデルが構築され、これより前記画像分配ステップにより定期的に入力されるフレームの撮像画像中における所定の物体の領域、物体の位置、物体の種別を精度よく検出する処理を行い、
前記移動体追跡ステップは、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配ステップにより毎回入力されるフレームの撮像画像中から同一の移動体の代表点を追跡する処理を行い、
前記一致判定ステップは、
前記物体識別ステップと前記移動体追跡ステップとに入力された同一フレームの撮像画像について、物体識別ステップで検出された物体のなかに移動体追跡ステップで追跡中の移動体と同一の移動体が存在するか否か一致判定をし、
前記一致判定で同一の移動体が存在すると判定された場合は、前記移動体追跡ステップにおいて、前記一致判定で用いた現フレームより1つ後の次フレームの撮像画像の処理では、前記物体識別ステップで検出された物体を標準モデルとして使用させる処理を行い、
前記一致判定で同一の移動体が存在しないと判定された場合は、前記移動体追跡ステップにおいて、前記次フレームの撮像画像の処理では、前記物体識別ステップのみに検出された物体を新規の移動体として登録し、当該物体を標準モデルとする処理を行う。
One form of the mobile tracking method according to the present invention is
It is a moving body tracking method that tracks a moving body based on an object image in the captured image captured by the imaging unit.
An image distribution step in which the image distribution unit distributes the captured image into two systems, an output that delays the captured image in a FIFO type according to the image processing speed and an output that thins out without delay, and outputs the captured image to each processing unit.
In the object identification unit, an object identification step that performs a process of detecting an object to be tracked from the captured images of the frame input in the image distribution step by artificial intelligence, and an object identification step.
A mobile tracking step that performs processing to track a moving object to be tracked from the captured images of the frame input in the image distribution step by image processing by the vector focusing method in the moving object tracking unit.
The match determination unit includes a match determination step for performing a process for matching a moving object to be tracked by the moving object tracking step with an object detected by the object identification step.
The image distribution step periodically outputs captured images to the object identification unit at intervals of a fixed number of frames, and outputs the object identification unit to the moving object tracking unit and the moving object tracking unit. A process is performed to output the captured image each time with a delay so that the output is at the same timing.
In the object identification step, a trained model is constructed by machine-learning image data of various shapes of an actual object to be tracked in the artificial intelligence, and the object is periodically input by the image distribution step. A process is performed to accurately detect the area of a predetermined object, the position of the object, and the type of the object in the captured image of the frame to be performed.
In the moving body tracking step, standard body data based on a standard model of the moving body to be tracked is set by image processing by the vector focusing method, and a representative point is a moving body that matches the standard body data in the captured image. A process of tracking the representative points of the same moving body from the captured images of the frames that are arranged and input each time by the image distribution step is performed.
The match determination step is
Regarding the captured images of the same frame input to the object identification step and the moving object tracking step, among the objects detected in the object identification step, the same moving object as the moving object being tracked in the moving object tracking step exists. Make a match judgment and decide whether or not to do it.
When it is determined in the matching determination that the same moving object exists, in the processing of the captured image of the next frame one after the current frame used in the matching determination in the moving object tracking step, the object identification step is performed. The object detected in is used as a standard model, and it is processed.
When it is determined in the matching determination that the same moving object does not exist, in the moving object tracking step, in the processing of the captured image of the next frame, the object detected only in the object identification step is a new moving object. Is registered as, and processing is performed using the object as a standard model.

本発明に係る移動体追跡方法の他の形態は、
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡方法であって、
画像分配部にて、前記撮像画像を取得し出力する画像分配ステップと、
物体識別部にて、ベクトル焦点法による物体検出により、前記画像分配ステップで入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別ステップと、
移動体追跡部にて、ベクトル焦点法による画像処理により、前記画像分配ステップで入力された撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡ステップとを備え、
前記移動体追跡ステップは、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配ステップで時間経過順に毎回入力される撮像画像中から同一の移動体の代表点を追跡する処理を行うステップであり、前記標準モデルとして当該撮像画像の1つ前の撮像画像で追跡中の移動体又は前記物体識別ステップが検出した物体を使用する。
Another embodiment of the mobile tracking method according to the present invention is
It is a moving body tracking method that tracks a moving body based on an object image in the captured image captured by the imaging unit.
An image distribution step of acquiring and outputting the captured image in the image distribution unit,
In the object identification unit, an object identification step that performs a process of detecting an object to be tracked from the captured images input in the image distribution step by object detection by the vector focus method, and an object identification step.
The moving object tracking unit includes a moving object tracking step that performs a process of tracking a moving object to be tracked from the captured images input in the image distribution step by image processing by the vector focus method.
In the moving object tracking step, standard body data based on a standard model of the moving body to be tracked is set by image processing by the vector focusing method, and a representative point is set to a moving body that matches the standard body data in the captured image. It is a step of tracking the representative points of the same moving body from the captured images that are arranged and then input each time in the order of passage of time in the image distribution step, and is one step before the captured image as the standard model. A moving object being tracked in the captured image or an object detected by the object identification step is used.

以上より、本発明によれば、ベクトル焦点法を用いて移動体の追跡を行う際、経時的に多様かつ個性的に変化する物体像に対応した標準体データを作製することができ、従って、目的の移動体の追跡を高速且つ高精度に行うことができる。また、計算負荷が高い物体識別部の処理頻度を減らしながら移動体の追跡をベクトル焦点法を用いて高頻度に追跡処理することで、低消費電力、低性能な動作環境においても複数種の移動体を分類した追跡を行うことができる。 From the above, according to the present invention, when tracking a moving body using the vector focal method, it is possible to prepare standard body data corresponding to an object image that changes variously and individually over time, and therefore, It is possible to track the target moving object at high speed and with high accuracy. In addition, by reducing the processing frequency of the object identification unit, which has a high computational load, and tracking the moving object with high frequency using the vector focus method, multiple types of movement can be performed even in a low power consumption and low performance operating environment. Body-classified tracking can be performed.

実施形態1の移動体追跡装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving body tracking apparatus of Embodiment 1. FIG. 画像分配部による撮像画像の分配出力方法を説明するための模式図である。It is a schematic diagram for demonstrating the distribution output method of the captured image by an image distribution part. 物体識別部での人工知能(AI)による画像処理を説明するための模式図である。It is a schematic diagram for demonstrating image processing by artificial intelligence (AI) in an object identification part. 移動体追跡部でのベクトル焦点法による画像処理を説明するための模式図である。It is a schematic diagram for demonstrating the image processing by the vector focus method in the moving body tracking part. ベクトル焦点法による画像処理の際、円形フーリエ変換の範囲を所定の投票範囲とする場合を説明するための模式図である。It is a schematic diagram for demonstrating the case where the range of a circular Fourier transform is set to a predetermined voting range at the time of image processing by the vector focal method. ベクトル焦点法による画像処理の際、移動体の追跡履歴がある場合に円形フーリエ変換の範囲を所定の投票範囲とする場合を説明するための模式図である。It is a schematic diagram for demonstrating the case where the range of a circular Fourier transform is set to a predetermined voting range when there is a tracking history of a moving object at the time of image processing by the vector focal method. ベクトル焦点法における標準モデルの使用方法を説明するための模式図である。It is a schematic diagram for demonstrating how to use a standard model in a vector focal method. 一致判定部による移動体追跡部への標準モデルの作製指令の流れを示す模式図である。It is a schematic diagram which shows the flow of the production instruction of the standard model to the moving body tracking part by a match determination part. 実施形態1の移動体追跡装置による移動体追跡方法の各ステップを示す模式図である。It is a schematic diagram which shows each step of the moving body tracking method by the moving body tracking apparatus of Embodiment 1. FIG. 実施形態1における移動体追跡ステップの手順を示すフローチャートである。It is a flowchart which shows the procedure of the moving body tracking step in Embodiment 1. 実施形態2の移動体追跡装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving body tracking apparatus of Embodiment 2.

以下に、本発明の実施形態について添付図面を参照しながら説明する。
(実施形態1)
実施形態1の移動体追跡装置1は、カメラ10で撮像した撮像画像20中の物体像から移動体を追跡する装置である。なお、実施形態1において、撮像画像20からの画像処理や判定の対象は、物体像、移動体像という画像であるが、以下の説明では、単に「物体」、「移動体」と述べている場合がある。また、実施形態1では、物体ないし移動体は人物を想定したものであるが、本発明は、人物に限らず、人物以外の動物や、自家用車、バス、トラック、自転車等の乗り物等、その他の撮像画像から画像処理で識別可能な物体を追跡対象の物体ないし移動体とすることができる。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
(Embodiment 1)
The moving body tracking device 1 of the first embodiment is a device that tracks a moving body from an object image in the captured image 20 captured by the camera 10. In the first embodiment, the objects of image processing and determination from the captured image 20 are images such as an object image and a moving body image, but in the following description, they are simply referred to as "object" and "moving body". In some cases. Further, in the first embodiment, the object or the moving body is assumed to be a person, but the present invention is not limited to the person, but the present invention is not limited to the person, but also animals other than the person, vehicles such as private cars, buses, trucks, bicycles, etc. An object that can be identified by image processing from the captured image of the above can be an object to be tracked or a moving object.

図1に示すように、実施形態1の移動体追跡装置1は、カメラ10と接続されており、主な構成として、画像分配部2、物体識別部3、移動体追跡部5、一致判定部6を有する。カメラ10は、追跡すべき移動体が存在する所定のエリアを撮像するための撮像部であり、例えば、CMOSカメラ等で構成される。カメラ10は、追跡対象の移動体が移動可能な所定のエリアを撮像できるように設置される。例えば、店舗前の通路の通行人の動きや店舗内の人の動き等を追跡する場合、カメラ10は、通路、店舗内の所定エリアを上方から撮像できるように天井又は壁面等に設置することができる。カメラ10は、移動体追跡装置1と有線又は無線等で通信接続されていてもよいし、LAN等のネットワークにより通信接続されていてもよい。また、カメラ10は、移動体追跡装置1とは接続されず、カメラ10で撮像した撮像データを記憶装置に記憶させ、移動体追跡装置1は、この記憶装置から撮像データを読み込むように構成されていてよい。 As shown in FIG. 1, the mobile object tracking device 1 of the first embodiment is connected to the camera 10, and its main configuration is an image distribution unit 2, an object identification unit 3, a mobile object tracking unit 5, and a matching determination unit. Has 6. The camera 10 is an imaging unit for imaging a predetermined area in which a moving object to be tracked exists, and is composed of, for example, a CMOS camera or the like. The camera 10 is installed so that a predetermined area in which the moving object to be tracked can move can be imaged. For example, when tracking the movement of a passerby in the aisle in front of the store, the movement of a person in the store, etc., the camera 10 should be installed on the ceiling or the wall surface so that the aisle and a predetermined area in the store can be imaged from above. Can be done. The camera 10 may be communicated and connected to the mobile tracking device 1 by wire or wirelessly, or may be communicated and connected by a network such as a LAN. Further, the camera 10 is not connected to the moving body tracking device 1, and the image pickup data captured by the camera 10 is stored in a storage device, and the moving body tracking device 1 is configured to read the image pickup data from this storage device. You may be.

移動体追跡装置1は、カメラ10での撮像画像20中において、物体識別部3により人物を物体像として検出し、物体識別部3で検出した物体を移動体追跡部5により移動体としてその人物の移動を追跡する構成とするものである。移動体追跡部5は、定期的に物体識別部3により撮像画像20中から人物の物体像を検出することで、物体識別部3での物体情報に基づいて移動体追跡部5が現に追跡している移動体の追跡情報を補正する構成とするものである。 The moving object tracking device 1 detects a person as an object image by the object identification unit 3 in the image 20 captured by the camera 10, and the object detected by the object identification unit 3 is used as a moving object by the moving object tracking unit 5. It is configured to track the movement of the object. The moving object tracking unit 5 periodically detects an object image of a person from the captured image 20 by the object identification unit 3, and the moving object tracking unit 5 actually tracks the object based on the object information in the object identification unit 3. It is configured to correct the tracking information of the moving object.

物体識別部3と移動体追跡部5とには、カメラ10での撮像画像20がフレーム単位で画像分配部2から入力される。物体識別部3と移動体追跡部5とでは、撮像画像20の秒間の処理回数(FPS:Frames Per Second)は物体識別部3の方が低く、例えば、物体識別部3のFPSに対して移動体追跡部5のFPSの方が5倍くらい大きくなるよう構築されたものである。移動体追跡装置1において、例えば、移動体追跡部5は主にCPU(Central Processing Unit)を用いて処理し、物体識別部3は主にGPU(Graphics Processing Unit)を用いて処理され、別個の演算装置に分けることでより効率的に移動体追跡システムを構成することができる。 The image captured by the camera 10 is input to the object identification unit 3 and the moving object tracking unit 5 from the image distribution unit 2 in frame units. In the object identification unit 3 and the moving object tracking unit 5, the processing frequency (FPS: Frames Per Second) per second of the captured image 20 is lower in the object identification unit 3, for example, moving with respect to the FPS of the object identification unit 3. The FPS of the body tracking unit 5 is constructed to be about 5 times larger. In the moving object tracking device 1, for example, the moving object tracking unit 5 is processed mainly by using a CPU (Central Processing Unit), and the object identification unit 3 is mainly processed by using a GPU (Graphics Processing Unit), which are separate. The moving object tracking system can be configured more efficiently by dividing it into arithmetic units.

画像分配部2は、カメラ10で撮像した撮像画像を処理部(3又は5)での画像処理速度に応じてFIFO(First-In, First-Out)型で遅延させる出力及び遅延させず間引く出力の2系統に分配し、撮像画像を出力するものである。この画像分配部2では、カメラ10での撮像データから時間経過順に撮像画像20を一時的に複数フレームにわたり記録していき、時間経過順に撮像画像20を所定の時間間隔で物体識別部3及び移動体追跡部5へと出力する構成を備える。例えば、物体識別部3と移動体追跡部5とでは、画像処理能力(FPS:Frames Per Second、1秒あたりのフレーム処理数)において物体識別部3よりも移動体追跡部5の方が速く、1つのフレームの撮像画像20に対する画像処理時間は、物体識別部3では長く、移動体追跡部5では短い。画像分配部2は、移動体追跡部5での短い画像処理時間に合わせた時間間隔でカメラ10の撮像データから撮像画像20を取得して記録し、少なくとも物体識別部3での長い画像処理時間内で取得できるフレーム数分の撮像画像20を一時的に記録する。 The image distribution unit 2 delays the captured image captured by the camera 10 in a FIFO (First-In, First-Out) type according to the image processing speed of the processing unit (3 or 5), and outputs thinning without delay. It is distributed to the two systems of and outputs the captured image. The image distribution unit 2 temporarily records the captured images 20 over a plurality of frames in the order of passage of time from the data captured by the camera 10, and moves the captured images 20 to the object identification unit 3 and the object identification unit 3 at predetermined time intervals in the order of passage of time. It is provided with a configuration for outputting to the body tracking unit 5. For example, in the object identification unit 3 and the moving object tracking unit 5, the moving object tracking unit 5 is faster than the object identification unit 3 in terms of image processing capacity (FPS: Frames Per Second). The image processing time for the captured image 20 of one frame is long in the object identification unit 3 and short in the moving object tracking unit 5. The image distribution unit 2 acquires and records the captured image 20 from the image captured data of the camera 10 at a time interval corresponding to the short image processing time in the moving object tracking unit 5, and at least the long image processing time in the object identification unit 3. The captured images 20 for the number of frames that can be acquired in the image 20 are temporarily recorded.

そして、画像分配部2は、撮像画像20の出力として、物体識別部3に対して時間経過順に一定フレーム数おきの間隔で撮像画像20を出力し、移動体追跡部5に対して時間経過順に各フレーム毎に撮像画像20を出力する。このとき、画像分配部2は、移動体追跡部5への撮像画像20の出力として、物体識別部3へ出力した撮像画像20と同じ撮像画像20について、物体識別部3と移動体追跡部5とで画像処理の終了タイミングが同じタイミングとなるように移動体追跡部5への出力を遅延させる。これにより、物体識別部3と移動体追跡部5とのそれぞれの画像処理結果が、同じ撮像画像20について同タイミングで得られることになる。計算負荷の高い物体識別部3のFPSのみを減らすことで、移動体追跡装置1としてのFPSを維持したまま、時間当たりの計算量を減らし、消費電力を低減させることができる。 Then, as the output of the captured image 20, the image distribution unit 2 outputs the captured image 20 to the object identification unit 3 at intervals of a fixed number of frames in the order of passage of time, and outputs the captured image 20 to the moving object tracking unit 5 in the order of passage of time. The captured image 20 is output for each frame. At this time, the image distribution unit 2 has the object identification unit 3 and the moving object tracking unit 5 for the same captured image 20 as the captured image 20 output to the object identification unit 3 as the output of the captured image 20 to the moving object tracking unit 5. The output to the moving object tracking unit 5 is delayed so that the end timing of the image processing becomes the same timing. As a result, the image processing results of the object identification unit 3 and the moving object tracking unit 5 can be obtained at the same timing for the same captured image 20. By reducing only the FPS of the object identification unit 3 having a high calculation load, it is possible to reduce the amount of calculation per hour and reduce the power consumption while maintaining the FPS as the moving object tracking device 1.

図2に基づいて、一例を説明すると、物体識別部3は1FPS(1フレーム毎秒)で画像処理動作し、移動体追跡部5は5FPS(5フレーム毎秒)で画像処理動作する場合、画像分配部2ではカメラ10の撮像データから5FPSの時間間隔で撮像画像20を取得し、5フレームにわたり一時的に記録する。すなわち、画像分配部2は、カメラ10の撮像データから1/5秒間隔で1枚の撮像画像20を取得し、経時的に一時記録していく。画像分配部2において、単位時間あたりの撮像画像20の記録数が多いほど過去に遡った追跡処理が可能となるが、最低でも物体識別部3が画像処理動作する間の撮像画像分、すなわち上述の例では1秒あたり5フレーム分の撮像画像20を時間経過順に記録しておくことが好ましい。また、物体識別部3の動作速度及び移動体追跡部5の動作速度は、動作環境の性能及び追跡対象となる移動体の性質に合わせて予め調整しておくことが好ましい。 To explain an example based on FIG. 2, when the object identification unit 3 performs image processing operation at 1 FPS (1 frame per second) and the moving object tracking unit 5 performs image processing operation at 5 FPS (5 frames per second), the image distribution unit In 2, the captured image 20 is acquired from the captured data of the camera 10 at a time interval of 5 FPS, and temporarily recorded over 5 frames. That is, the image distribution unit 2 acquires one captured image 20 from the captured data of the camera 10 at 1/5 second intervals and temporarily records it over time. In the image distribution unit 2, as the number of recorded images 20 per unit time increases, the tracking process that goes back to the past becomes possible, but at least the captured image portion during the image processing operation of the object identification unit 3, that is, the above-mentioned In this example, it is preferable to record the captured images 20 for 5 frames per second in the order of passage of time. Further, it is preferable that the operating speed of the object identification unit 3 and the operating speed of the moving object tracking unit 5 are adjusted in advance according to the performance of the operating environment and the properties of the moving object to be tracked.

そして、画像分配部2は、カメラ10の撮像データから取得し記録したフレームNO.1の撮像画像20をフレーム記録時点で物体識別部3に対して出力する。移動体追跡部5では画像処理能力が5FPSであるが、物体識別部3は、画像処理能力が1FPSであり移動体追跡部5での画像処理時間の5倍の時間を要する。そのため、物体識別部3がフレームNO.1の撮像画像20の画像処理が終了するのに、画像分配部2がフレームNO.5の撮像画像20を取得して記録する時点まで要する。従って、画像分配部2は、フレームNO.5の撮像画像20を取得し記録した時点で、このフレームNO.5より4フレーム前のフレームの撮像画像20、すなわち物体識別部3へ出力した撮像画像20と同じフレームNO.1の撮像画像20を移動体追跡部5へ出力する。これにより、同じフレームNO.1の撮像画像20について、物体識別部3と移動体追跡部5とのそれぞれの画像処理結果の出力が同タイミングで得られる。 Then, the image distribution unit 2 obtains and records the frame No. 1 from the image pickup data of the camera 10. The captured image 20 of 1 is output to the object identification unit 3 at the time of frame recording. The moving object tracking unit 5 has an image processing capacity of 5 FPS, but the object identification unit 3 has an image processing capacity of 1 FPS, which requires five times as long as the image processing time of the moving object tracking unit 5. Therefore, the object identification unit 3 has the frame NO. Although the image processing of the captured image 20 of 1 is completed, the image distribution unit 2 is set to the frame NO. It takes until the time when the captured image 20 of 5 is acquired and recorded. Therefore, the image distribution unit 2 has the frame NO. At the time when the captured image 20 of No. 5 was acquired and recorded, this frame No. The same frame number as the captured image 20 of the frame 4 frames before 5, that is, the captured image 20 output to the object identification unit 3. The captured image 20 of 1 is output to the mobile tracking unit 5. As a result, the same frame No. With respect to the captured image 20 of 1, the output of the image processing results of the object identification unit 3 and the moving object tracking unit 5 is obtained at the same timing.

以後、同様に、画像分配部2は、移動体追跡部5へは、移動体追跡部5の処理能力(5FPS)に合わせて、フレームNO.1に続けてフレームNO.2、フレームNO.3、・・・のようにフレーム毎に撮像画像20を毎回出力していき、物体識別部3へは、物体識別部3の処理能力(1FPS)に合わせて、フレームNO.1の次にフレームNO.6、その次はフレームNO.11、・・・のように、5フレームおきの間隔で定期的にフレームの撮像画像20を出力していく。これにより、上記同様に、NO.6、NO.11等の同じフレームの撮像画像20について、物体識別部3と移動体追跡部5とのそれぞれの画像処理結果が同タイミングで得られる。 After that, similarly, the image distribution unit 2 sends the moving body tracking unit 5 to the frame NO. Frame No. following 1 2. Frame No. The captured image 20 is output for each frame as in 3, ..., And the frame NO. To the object identification unit 3 is adjusted to the processing capacity (1 FPS) of the object identification unit 3. Next to 1, the frame number. 6. Next is the frame number. As in 11, ..., the captured image 20 of the frame is output periodically at intervals of 5 frames. As a result, in the same manner as above, NO. 6, NO. For the captured image 20 of the same frame such as 11, the image processing results of the object identification unit 3 and the moving object tracking unit 5 are obtained at the same timing.

このように、同一フレームの撮像画像20についての物体識別部3と移動体追跡部5との画像処理結果を同じタイミングで得ることにより、このタイミングで移動体追跡部5での画像処理結果を物体識別部3での画像処理結果にて検証することで、移動体追跡部5での追跡情報を物体識別部3での検出情報によって定期的(物体識別部3での長い画像処理時間の時間間隔)に補正することができ、その結果、移動体追跡部5による追跡精度を向上することができる。 In this way, by obtaining the image processing results of the object identification unit 3 and the moving object tracking unit 5 for the captured image 20 of the same frame at the same timing, the image processing result of the moving object tracking unit 5 is obtained at this timing. By verifying with the image processing result of the identification unit 3, the tracking information of the moving object tracking unit 5 is periodically (time interval of the long image processing time of the object identification unit 3) by the detection information of the object identification unit 3. ), And as a result, the tracking accuracy by the moving object tracking unit 5 can be improved.

物体識別部3は、特徴抽出部31、物体検出部32を備え、特徴抽出部31及び/又は物体検出部32が人工知能で構成されている。図3を参照して、物体識別部3は、画像分配部2から入力されたフレームの撮像画像20中から、学習済みモデルで構築された人工知能により追跡対象の移動体となる物体21を検出する処理を行い、この画像処理結果を一致判定部6へ出力する構成を備えるものである。 The object identification unit 3 includes a feature extraction unit 31 and an object detection unit 32, and the feature extraction unit 31 and / or the object detection unit 32 are configured by artificial intelligence. With reference to FIG. 3, the object identification unit 3 detects an object 21 that is a moving object to be tracked by artificial intelligence constructed by the trained model from the captured images 20 of the frame input from the image distribution unit 2. The image processing result is output to the match determination unit 6.

特徴抽出部31は、撮像画像20から特徴抽出する処理を行う機能部であり、例えば、撮像画像20における各画素の輝度や色等の画像の特徴量を求める。この特徴抽出部31は、前記特徴量を求めるための画像解析処理のアルゴリズムに従ったプログラムで構成することができるが、前記特徴量を求めるためのデータを機械学習させた学習済みモデルを構築した人工知能で構成されてもよい。 The feature extraction unit 31 is a functional unit that performs a process of extracting features from the captured image 20, and obtains, for example, image feature quantities such as brightness and color of each pixel in the captured image 20. The feature extraction unit 31 can be configured by a program according to an algorithm of image analysis processing for obtaining the feature amount, and has constructed a trained model in which the data for obtaining the feature amount is machine-learned. It may be composed of artificial intelligence.

物体検出部32は、特徴抽出部31で抽出された特徴量のデータから物体の種別、物体の領域、物体の位置、物体の中心点等を求める処理を行う機能部であり、撮像画像20中において追跡対象の移動体となる物体を精度よく検出する。この物体検出部32は、撮像画像20中から撮像された所定の物体像21を検出するように学習させた人工知能で構成することができるが、撮像画像20中から撮像された所定の物体像21を検出するためのアルゴリズムに従ったプログラムで構成されてもよい。 The object detection unit 32 is a functional unit that performs processing for obtaining the type of object, the area of the object, the position of the object, the center point of the object, and the like from the data of the feature amount extracted by the feature extraction unit 31, and is in the captured image 20. Detects a moving object to be tracked with high accuracy. The object detection unit 32 can be configured by artificial intelligence trained to detect a predetermined object image 21 captured from the captured image 20, but the predetermined object image captured from the captured image 20. It may be composed of a program according to an algorithm for detecting 21.

物体検出部32を構成する人工知能は、検出対象の物体(例えば、人物、犬、猫等その他の動物、自家用車、バス、トラック、自転車等その他の乗り物等)の様々な形を含む大量の画像データを機械学習させた学習済みモデルにより構成されている。この人工知能は、例えば、畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)が使用される。ニューラルネットワークは、正解の物体の画像データよりなる大量の訓練画像データ(教師データ)を用いて機械学習させて正解の物体像とそれ以外の画像(背景像等)を区別する方法を学び、入力された撮像画像20から物体の種別、物体の領域、物体の位置、物体の中心点等を精度よく出力するように構築された学習済みのニューラルネットワークモデルを用いる。ここで物体の領域とは、撮像画像20内にて物体21が存在する候補領域を指し、例えば、撮像画像20上に写っている物体像21を囲む、あるいは物体像21に付す矩形状の枠線であるバウンディングボックス(Bounding Box)Bで表現することができる。物体像21の中心点mは、バウンディングボックスBの2つの対角線の交点によって現すことができる。 The artificial intelligence that constitutes the object detection unit 32 is a large amount including various shapes of the object to be detected (for example, other animals such as a person, a dog, a cat, a private car, a bus, a truck, a bicycle, etc.). It is composed of a trained model in which image data is machine-learned. For this artificial intelligence, for example, a convolutional neural network (CNN) is used. Neural networks learn and input how to distinguish between correct object images and other images (background images, etc.) by machine learning using a large amount of training image data (teacher data) consisting of image data of correct objects. A trained neural network model constructed so as to accurately output the type of the object, the area of the object, the position of the object, the center point of the object, and the like from the captured image 20 is used. Here, the area of the object refers to a candidate area in which the object 21 exists in the captured image 20, for example, a rectangular frame that surrounds the object image 21 shown on the captured image 20 or is attached to the object image 21. It can be represented by a Bounding Box B, which is a line. The center point m of the object image 21 can be represented by the intersection of two diagonal lines of the bounding box B.

物体の領域、物体の位置、物体の中心点等の現し方についても、ニューラルネットワークに備えさせるなど、より高速に計算可能な手法をとるものとするのが好ましい。また、物体検出部32では、検出された物体のうち同じ物体を重複して検出したものを除外するアルゴリズム及び物体の位置座標を推定するアルゴリズムを含むものであり、1つの撮像画像20から同じ物体を重複して出力しないものである。例えば、Non-Maximum-Suppression(NMS)と呼ばれるアルゴリズムを備えさせ、このNMSにより、同じ物体への複数の枠線に対してIoU(Intersection over Union)値を求めることでIoU値が大きくて重複領域の割合が多いものを除外することで重複した出力を抑制することができる。 It is preferable to adopt a method that can be calculated at a higher speed, such as providing a neural network for the appearance of the area of the object, the position of the object, the center point of the object, and the like. Further, the object detection unit 32 includes an algorithm for excluding detected objects that have been detected in duplicate and an algorithm for estimating the position coordinates of the objects, and includes the same object from one captured image 20. Is not output in duplicate. For example, an algorithm called Non-Maximum-Suppression (NMS) is provided, and by using this NMS to obtain the IoU (Intersection over Union) value for multiple borders on the same object, the IoU value is large and the overlapping region. Duplicate output can be suppressed by excluding those with a large proportion of.

なお、上述したニューラルネットワークやアルゴリズムは、物体識別に用いるアルゴリズムの例であり、物体識別部3は、入力される撮像画像20から、追跡対象の移動体となる物体について、物体の種別、撮像画像20内の物体の領域、撮像画像20内の物体の位置座標、撮像画像20内の物体の中心点、評価値等が得られるよう構築されたニューラルネットワークやアルゴリズムで構成されていればよく、より高速且つ正確に算出できる手法を選択することができる。また、特徴抽出部31及び物体検出部32の両方にニューラルネットワークを用いる場合、複数のニューラルネットワークを組み合わせ、特徴抽出部31と物体検出部32が一体となった複合的なニューラルネットワークで構成してもよい。 The above-mentioned neural network and algorithm are examples of the algorithm used for object identification, and the object identification unit 3 uses the input captured image 20 to determine the type of object and the captured image of the moving object to be tracked. It suffices if it is composed of a neural network or an algorithm constructed so as to obtain the area of the object in 20, the position coordinates of the object in the captured image 20, the center point of the object in the captured image 20, the evaluation value, and the like. It is possible to select a method that can be calculated quickly and accurately. When a neural network is used for both the feature extraction unit 31 and the object detection unit 32, a plurality of neural networks are combined to form a complex neural network in which the feature extraction unit 31 and the object detection unit 32 are integrated. May be good.

移動体追跡部5は、ベクトル焦点法による画像処理部51、追跡部52を備え、画像分配部2から入力されたフレームの撮像画像20中における所定の移動体21を追跡する処理を行い、この画像処理結果を一致判定部6へ出力する構成を備えるものである。物体識別部3は移動体追跡部5よりも演算処理が重く演算処理に移動体追跡部5の何倍もの実行時間を要するため、本実施形態1では、移動体追跡部5は、物体識別部3における物体検出のアルゴリズムを移動体追跡として実用的に取り扱えるようにするための機能構成部でもある。 The moving body tracking unit 5 includes an image processing unit 51 and a tracking unit 52 by the vector focusing method, and performs a process of tracking a predetermined moving body 21 in the captured image 20 of the frame input from the image distribution unit 2. It is provided with a configuration in which the image processing result is output to the match determination unit 6. Since the object identification unit 3 is heavier in arithmetic processing than the moving object tracking unit 5 and requires many times the execution time of the moving object tracking unit 5 in the arithmetic processing, in the first embodiment, the moving object tracking unit 5 is the object identification unit. It is also a functional component for making it possible to practically handle the object detection algorithm in No. 3 as moving object tracking.

移動体追跡部5は、ベクトル焦点法による画像処理技術を利用して撮像画像20中から移動体21を高速に追跡処理できるものである。すなわち、移動体追跡部5において、ベクトル焦点法による画像処理部51は、追跡対象の移動体となる物体の標準モデルを画像上に配置し、この標準モデルにおける中心点と標準モデルの輪郭線に対する法線ベクトルの位置との間の方向(法線ベクトルの角度情報)と長さ(法線ベクトルの位置の座標情報)とによる標準体データを基に、撮像画像20中において標準体データと適合する物体像(移動体)に代表点を付す。追跡部52は、時間経過順の撮像画像20から前記代表点を経時的に追跡することで追跡対象の移動体を高速に追跡するというものである。例えば、追跡部52は、前後フレームで各々の代表点が一定範囲内に存在し最も距離が近い組み合わせを同一の移動体とみなして追跡を行う。ここで同一の移動体とみなすための前記一定範囲は、移動体の種別に応じて検証、実験等を通じて設定してもよいし、また、移動体の各フレームにおける位置座標の差から移動速度と方向で等速直線運動をしている前提で現フレームの位置を推定することで設定するようにしてもよい。 The moving body tracking unit 5 can track the moving body 21 from the captured image 20 at high speed by using the image processing technique by the vector focusing method. That is, in the moving object tracking unit 5, the image processing unit 51 by the vector focal method arranges a standard model of the moving object to be tracked on the image, and with respect to the center point in this standard model and the contour line of the standard model. Conforms with the standard body data in the captured image 20 based on the standard body data by the direction (angle information of the normal vector) and the length (coordinate information of the position of the normal vector) between the positions of the normal vector. A representative point is attached to the object image (moving body) to be used. The tracking unit 52 tracks the moving object to be tracked at high speed by tracking the representative points over time from the captured images 20 in the order of passage of time. For example, the tracking unit 52 tracks the combination in which the representative points exist within a certain range in the front and rear frames and the closest distance is regarded as the same moving body. Here, the fixed range to be regarded as the same moving body may be set through verification, experiment, etc. according to the type of the moving body, or may be set as the moving speed from the difference in the position coordinates in each frame of the moving body. It may be set by estimating the position of the current frame on the premise that the linear motion is constant velocity in the direction.

図4を参照して、前記ベクトル焦点法を利用した移動体の追跡処理手順として、まずは、撮像画像20上に追跡対象の移動体21となる物体像の標準モデルSを配置し、この撮像画像20の各画素点について処理点を中心とする円形状にフーリエ変換(円形フーリエ変換)を行うことで各画素の輝度勾配と勾配方向を算出する。輝度勾配は物体像(標準モデルS)の特徴に沿って現れ、輝度勾配が一定以上の画素を有効画素とし、この有効画素の集合体が前記物体像の標準モデルSを反映した領域となる。勾配方向は物体像の特徴境界に対する法線方向のベクトル(法線ベクトル)bとなる。この勾配方向は、例えば、360度を16方向分割した各方向を選ぶようにしてもよい。そして、各画素の輝度勾配の位置(標準モデルSの輪郭に相当する位置)につき、標準モデルSの中心点pとの間で勾配方向の角度(角度情報)と長さ(座標情報)を求め、これを前記標準モデルSによる標準体データとして記憶する。 With reference to FIG. 4, as a procedure for tracking a moving object using the vector focus method, first, a standard model S of an object image to be a moving object 21 to be tracked is arranged on the captured image 20, and the captured image is obtained. The brightness gradient and the gradient direction of each pixel are calculated by performing a Fourier transform (circular Fourier transform) on each of the 20 pixel points into a circular shape centered on the processing point. The luminance gradient appears along the characteristics of the object image (standard model S), and pixels having a luminance gradient of a certain value or more are regarded as effective pixels, and an aggregate of these effective pixels is a region reflecting the standard model S of the object image. The gradient direction is a vector (normal vector) b in the normal direction with respect to the feature boundary of the object image. For this gradient direction, for example, each direction obtained by dividing 360 degrees into 16 directions may be selected. Then, for the position of the brightness gradient of each pixel (the position corresponding to the contour of the standard model S), the angle (angle information) and the length (coordinate information) in the gradient direction are obtained from the center point p of the standard model S. , This is stored as standard data according to the standard model S.

次に、カメラ10で撮像した実際の撮像画像20に対して前記円形フーリエ変換を行って輝度勾配と勾配方向を算出し、前記標準体データに基づいて中心点pへの投票を行い、所定範囲内に一定以上の点が集まったと評価できる場合は、この撮像画像20中に標準モデルSに相当する物体像(移動体)が存在すると判断でき、前記投票結果が最も高い集計結果の点をこの撮像画像20での移動体21が存在する代表点dの位置座標とする。以上のように、画像処理部51により時間経過順に入力される撮像画像20毎に同様にして移動体21の代表点dの位置座標を求め、追跡部52により時間経過順に撮像画像20の代表点dを追跡することでその代表点dで示される移動体21の追跡を行う。このように追跡する事で、照度変化に強く、移動体の外形形状、移動体の内部模様等を特徴点として忠実にかつ高速に追跡できる。なお、前記ベクトル焦点法として、上述では各画素の輝度を基に説明したが、もちろん各画素の色の色勾配やその勾配方向を使ってもよい。 Next, the circular Fourier transform is performed on the actual captured image 20 captured by the camera 10 to calculate the brightness gradient and the gradient direction, and a vote is performed for the center point p based on the standard body data to obtain a predetermined range. If it can be evaluated that a certain number of points or more are gathered in the image, it can be determined that an object image (moving body) corresponding to the standard model S exists in the captured image 20, and the point of the aggregated result having the highest voting result is this. It is the position coordinate of the representative point d in which the moving body 21 exists in the captured image 20. As described above, the position coordinates of the representative point d of the moving body 21 are obtained in the same manner for each captured image 20 input in the order of passage of time by the image processing unit 51, and the representative points of the captured images 20 are obtained by the tracking unit 52 in the order of passage of time. By tracking d, the moving body 21 indicated by the representative point d is tracked. By tracking in this way, it is resistant to changes in illuminance, and it is possible to faithfully and at high speed track the external shape of the moving body, the internal pattern of the moving body, and the like as feature points. Although the vector focus method has been described above based on the brightness of each pixel, of course, the color gradient of the color of each pixel and the gradient direction thereof may be used.

なお、移動体追跡部5において、物体識別部3で検出された物体の数が少ない場合(例えば、撮像画像20内に数個以下)、検出した物体の種類に応じた移動可能範囲を基に所定の投票範囲に対してのみ前記円形フーリエ変換を行ってもよい。前記移動可能範囲は、例えば、物体の種別毎に予め定義された最大移動速度と物体識別部3での画像処理能力(FPS)から求めることができる。また、前記円形フーリエ変換の範囲を前記投票範囲に限定するか否かは、物体識別部3で検出された物体の数に応じて決定することができる。これにより、より移動体追跡部5の処理速度を向上させることができる。 When the number of objects detected by the object identification unit 3 in the moving object tracking unit 5 is small (for example, several or less in the captured image 20), the movable range is based on the type of the detected object. The circular Fourier transform may be performed only for a predetermined voting range. The movable range can be obtained, for example, from the maximum moving speed defined in advance for each type of object and the image processing ability (FPS) in the object identification unit 3. Further, whether or not to limit the range of the circular Fourier transform to the voting range can be determined according to the number of objects detected by the object identification unit 3. As a result, the processing speed of the mobile tracking unit 5 can be further improved.

ベクトル焦点法による画像処理において、前記投票を行う際に画像全体に対して投票処理を行った場合、処理範囲が広く計算負荷が高くなってしまう。そのため、中心点pへの投票処理を行う投票範囲を定義し、投票範囲のみ前記投票処理を行うことで計算負荷を軽減し、高速に動作させることができる。また同時に、消費電力も低減される。 In the image processing by the vector focus method, when the voting process is performed on the entire image when the voting is performed, the processing range is wide and the calculation load becomes high. Therefore, by defining a voting range in which the voting process for the central point p is performed and performing the voting process only in the voting range, the calculation load can be reduced and the operation can be performed at high speed. At the same time, power consumption is also reduced.

図5を参照して、前記投票範囲R1は、例えば、移動体21の種類に応じて設定された移動体21の1フレーム間での最大移動量jに移動体21の大きさsを加えた値を半径とした円で表現できる。代表点dの検索範囲dRは、最大移動量jを半径とする円の範囲とすることができる。なお、前記投票範囲R1は、前記円での表現に限らず、ボックス等での表現でもよい。
このとき、1フレーム間での最大移動量jとは、たとえば移動体21が人であれば、人の最大速度は25km/h程度であり、1フレームあたりの移動距離に換算したものを計測対象となる移動体毎に定義しておき、カメラ10の設置角度や設置位置から、1フレームあたりの代表点dの移動距離を撮像画像20中の座標系に換算することで得られる。
移動体21の大きさsは、例えば移動体21が人であれば、人の中心位置から頭部や足部への撮像画像20上の距離を移動体21の大きさsとして予め定義しておく。
With reference to FIG. 5, in the voting range R1, for example, the size s of the moving body 21 is added to the maximum moving amount j between one frame of the moving body 21 set according to the type of the moving body 21. It can be expressed as a circle with the value as the radius. The search range dR of the representative point d can be a range of a circle whose radius is the maximum movement amount j. The voting range R1 is not limited to the expression in the circle, but may be expressed in a box or the like.
At this time, the maximum movement amount j between one frame is, for example, if the moving body 21 is a person, the maximum speed of the person is about 25 km / h, and the measurement target is converted into the movement distance per frame. It is obtained by defining each moving object and converting the moving distance of the representative point d per frame into the coordinate system in the captured image 20 from the installation angle and the installation position of the camera 10.
For the size s of the moving body 21, for example, if the moving body 21 is a person, the distance on the captured image 20 from the center position of the person to the head or foot is defined in advance as the size s of the moving body 21. back.

また、図6を参照して、前記投票範囲R2は、追跡対象の移動体21に追跡履歴がある場合、その複数の過去フレームにおける位置座標から、等速直線運動をしている前提で移動体21の代表点dの次フレームでの予測点eが推定できる。予測点eの検索範囲eRは、最大移動量jの半分の距離に補正距離cを加えた値を長径、補正距離cを短径とする楕円の範囲とすることができる。前記投票範囲R2は、現フレームでの移動体21の代表点dの位置座標と前記予測点eとの中点ed、補正距離c、移動体21の大きさsから、
長径a=e-ed+c+s
短径b=c+s
とし、楕円の式
/a+y/b=1
で表現することができる。
ここで、補正距離cは予測点eからの誤差量であり、たとえば最大移動量jの半分程度としておくと、計算量の削減と精度の両立ができる。なお、補正距離cは実験などから移動体毎に定義するのが好ましい。
Further, referring to FIG. 6, when the moving body 21 to be tracked has a tracking history, the voting range R2 is a moving body on the premise that it is performing a constant velocity linear motion from the position coordinates in the plurality of past frames. The predicted point e in the next frame of the representative point d of 21 can be estimated. The search range eR of the prediction point e can be an elliptical range in which the value obtained by adding the correction distance c to the distance half of the maximum movement amount j is the major axis and the correction distance c is the minor axis. The voting range R2 is based on the position coordinates of the representative point d of the moving body 21 in the current frame and the midpoint ed of the predicted point e, the correction distance c, and the size s of the moving body 21.
Major axis a = e-ed + c + s
Minor diameter b = c + s
And the ellipse formula x 2 / a 2 + y 2 / b 2 = 1
Can be expressed by.
Here, the correction distance c is an error amount from the prediction point e, and if it is set to about half of the maximum movement amount j, for example, the calculation amount can be reduced and the accuracy can be achieved at the same time. The correction distance c is preferably defined for each moving body from experiments and the like.

図7を参照して、上述のベクトル焦点法において現フレームの撮像画像20fnに配置する標準モデルは、現フレームの1つ前の前フレームの撮像画像20fn-1で追跡中の移動体21を標準モデルS-2として使用する。これにより、経時的に多様かつ個性的に変化する移動体21であっても、最新の移動体21に対応した標準モデルS-2に基づく標準モデルS-2の中心点pや標準体データを作製することができ、追跡精度を向上することができる。なお、前記標準モデルS-2は、このような実際に追跡中の移動体21を使用することに限らず、固定のカメラ10で撮像した撮像画像20中に写る物体ないし移動体の形を事前に作成した標準モデルを使用することでもよい。例えば、追跡対象の移動体21が等速に移動する場合、移動体21それ自体の形の変化に乏しい場合等、経時的に多様かつ個性的に位置や形状等の変化が少ない物体ないし移動体であれば、前記事前に作成した標準モデルであっても精度よく追跡することができる。 With reference to FIG. 7, the standard model placed on the captured image 20fn of the current frame in the above-mentioned vector focusing method standardizes the moving body 21 being tracked by the captured image 20fn-1 of the previous frame immediately before the current frame. Used as model S-2. As a result, even if the moving body 21 changes variously and individually over time, the center point p and the standard body data of the standard model S-2 based on the standard model S-2 corresponding to the latest moving body 21 can be obtained. It can be manufactured and the tracking accuracy can be improved. The standard model S-2 is not limited to using the moving body 21 that is actually being tracked, and the shape of the object or the moving body that is captured in the captured image 20 captured by the fixed camera 10 is preliminarily used. You may also use the standard model created in. For example, when the moving body 21 to be tracked moves at a constant speed, or when the shape of the moving body 21 itself does not change much, an object or a moving body whose position, shape, etc. do not change in various ways over time. If so, even the standard model created in advance can be traced accurately.

もっとも、物体識別部3で撮像画像20中から物体が検出された場合は、物体識別部3での画像処理結果として出力される物体像を標準モデルS-1として使用する(その詳細は、次の一致判定部6で説明する。)。例えば、物体識別部3で検出した物体21の中心点mを移動体追跡部5における標準モデルS-1の中心点pとして使用する。上述のとおり、物体識別部3は、人工知能により撮像画像20中から所定の物体を精度よく検出することができる。従って、撮像画像20中に初めて出現した物体を物体識別部3で精度よく検出してこの物体を新規の移動体として移動体追跡部5で確実に追跡することができる。また、移動体追跡部5で追跡中の移動体に対する標準モデル(標準モデルSの中心点pや標準体データ)を定期的に物体識別部3で精度よく検出した物体と対応するように補正することができ、移動体追跡部5による移動体の追跡精度をさらに向上することができる。 However, when the object is detected in the captured image 20 by the object identification unit 3, the object image output as the image processing result by the object identification unit 3 is used as the standard model S-1 (details thereof are as follows. This will be described in the match determination unit 6 of.). For example, the center point m of the object 21 detected by the object identification unit 3 is used as the center point p of the standard model S-1 in the mobile object tracking unit 5. As described above, the object identification unit 3 can accurately detect a predetermined object from the captured image 20 by artificial intelligence. Therefore, the object that first appears in the captured image 20 can be accurately detected by the object identification unit 3, and this object can be reliably tracked by the mobile object tracking unit 5 as a new moving object. In addition, the standard model (center point p of the standard model S and standard body data) for the moving body being tracked by the moving body tracking unit 5 is periodically corrected so as to correspond to the object accurately detected by the object identification unit 3. This makes it possible to further improve the tracking accuracy of the moving object by the moving object tracking unit 5.

一致判定部6は、移動体追跡部5が追跡すべき移動体を物体識別部3で検出する物体と一致させるための処理を行う構成を備えるものであり、判定部61、補正部62、新規作成部63を有する。 The match determination unit 6 has a configuration for performing a process for matching a moving object to be tracked by the moving object tracking unit 5 with an object detected by the object identification unit 3, and includes a determination unit 61, a correction unit 62, and a new one. It has a creating unit 63.

図8を参照して、判定部61は、画像分配部2より物体識別部3と移動体追跡部5とに入力された同一フレームの撮像画像20について、物体識別部3と移動体追跡部5との画像処理結果を対比して、物体識別部3で検出された物体のなかに移動体追跡部5で追跡中の移動体と同一の移動体が存在するか否かの一致判定を行う。すなわち、判定部61は、物体識別部3と移動体追跡部5とから同一フレームの撮像画像20に対する画像処理結果が一致判定部6に入力されると、物体識別部3での処理結果と移動体追跡部5での処理結果とで一致する移動体21を検索する。具体的には、判定部61は、物体識別部3で検出された物体21の中心点mの位置座標と、移動体追跡部5で追跡中の移動体21の代表点dの位置座標とが、一定範囲内に存在し最も距離が近い組み合わせを「同一の移動体」とみなす(図8(A)参照)。同一の移動体とみなすための前記一定範囲は、検証、実験等により求める等し、設定するようにしてもよい。 With reference to FIG. 8, the determination unit 61 has the object identification unit 3 and the moving object tracking unit 5 for the captured image 20 of the same frame input to the object identification unit 3 and the moving object tracking unit 5 by the image distribution unit 2. By comparing the image processing results with the above, it is determined whether or not the same moving object as the moving object being tracked by the moving object tracking unit 5 exists among the objects detected by the object identification unit 3. That is, when the image processing result for the captured image 20 of the same frame is input to the match determination unit 6 from the object identification unit 3 and the moving object tracking unit 5, the determination unit 61 moves with the processing result in the object identification unit 3. The moving body 21 that matches the processing result of the body tracking unit 5 is searched for. Specifically, the determination unit 61 has the position coordinates of the center point m of the object 21 detected by the object identification unit 3 and the position coordinates of the representative point d of the moving body 21 being tracked by the moving body tracking unit 5. , The combination that exists within a certain range and is the closest to the distance is regarded as the "same moving object" (see FIG. 8 (A)). The fixed range to be regarded as the same moving body may be determined and set by verification, experiment, or the like.

また、撮像画像20中に初めて出現した物体について、移動体追跡部5では、未だその物体の標準データが存在しないため、当該物体の代表点dは付されないが、物体識別部3では、撮像画像20中に初めて出現した物体についても検出され、当該物体の中心点mも検出される。この場合、物体識別部3で検出する中心点mと組みとなる移動体追跡部5での代表点dが存在せず、物体識別部3での画像処理結果においてのみ物体が検出されることとなる。従って、判定部61では、物体識別部3と移動体追跡部5とで同一の移動体は存在しないと判定される(図8(B)参照)。 Further, regarding the object that first appears in the captured image 20, the moving object tracking unit 5 does not yet have the standard data of the object, so that the representative point d of the object is not attached, but the object identification unit 3 has the captured image. An object that first appears in 20 is also detected, and the center point m of the object is also detected. In this case, the representative point d in the moving object tracking unit 5 that is paired with the center point m detected by the object identification unit 3 does not exist, and the object is detected only in the image processing result in the object identification unit 3. Become. Therefore, in the determination unit 61, it is determined that the same moving object does not exist in the object identification unit 3 and the moving object tracking unit 5 (see FIG. 8B).

判定部61で同一の移動体21が存在すると判定された場合は、補正部62が、移動体追跡部5に対して、一致判定部6に入力されたフレームの次のフレーム、すなわち、判定部61の判定で用いた現フレーム20fnの1つ後の次フレーム20fn+1では、標準体データとして物体識別部3で検出された物体を標準モデルS-1とする標準体データに修正して使用させる処理を行う。一方、判定部61で同一の移動体21が存在しないと判定された場合、すなわち、物体識別部3で検出された物体において移動体追跡部5で追跡中の移動体と同一のものとはみなせず、物体識別部3での画像処理結果においてのみ存在する物体が検出された場合は、新規作成部63が、移動体追跡部5に対して、次フレーム20fn+1では、物体識別部3のみに検出された物体を新規の移動体として登録し、当該物体を標準モデルS-1とする標準体データを使用させる処理を行う。 When the determination unit 61 determines that the same moving object 21 exists, the correction unit 62 tells the moving object tracking unit 5 the frame next to the frame input to the match determination unit 6, that is, the determination unit. In the next frame 20fn + 1 one after the current frame 20fn used in the determination of 61, the process of modifying the object detected by the object identification unit 3 as the standard body data into the standard body data as the standard model S-1 and using it. I do. On the other hand, when the determination unit 61 determines that the same moving object 21 does not exist, that is, the object detected by the object identification unit 3 can be regarded as the same as the moving object being tracked by the moving object tracking unit 5. If an object that exists only in the image processing result of the object identification unit 3 is detected, the new creation unit 63 detects the moving object tracking unit 5 only in the object identification unit 3 in the next frame 20fn + 1. The created object is registered as a new moving object, and the process of using the standard object data using the object as the standard model S-1 is performed.

また、移動体追跡部5で追跡中の移動体21の代表点dの位置座標に対し、「同一の移動体」とみなすことが出来る移動体を物体識別部3の処理結果から見つけることが出来ない場合は、補正部62では代表点dの位置座標に対して移動体追跡部5で追跡した移動体21の輝度勾配を基に標準モデルS-1とする標準体データに修正して使用させる処理を行う。これにより、物体識別部3の人工知能における学習済みデータの不足等による瞬間的な検出漏れや誤検出があった場合においても精度よく追跡を行うことが出来る。 Further, a moving body that can be regarded as "the same moving body" with respect to the position coordinates of the representative point d of the moving body 21 being tracked by the moving body tracking unit 5 can be found from the processing result of the object identification unit 3. If not, the correction unit 62 corrects the position coordinates of the representative point d to the standard body data as the standard model S-1 based on the brightness gradient of the moving body 21 tracked by the moving body tracking unit 5. Perform processing. As a result, even if there is a momentary omission of detection or erroneous detection due to a lack of learned data in the artificial intelligence of the object identification unit 3, it is possible to perform accurate tracking.

なお、前記一致判定部61において、複数フレームに連続して移動体追跡部5で追跡中の移動体21の代表点dの位置座標に対し、「同一の移動体」とみなすことが出来る移動体21を物体識別部3の処理結果から見つけることが出来ない場合は、その追跡対象が誤って追跡した物体であるとみなし、追跡対象から除外しても良い。これにより、移動体追跡部5と物体識別部3の誤検出の結果を吸収し、精度よく移動体21を追跡することが出来る。ここで連続して「同一の移動体」とみなすことが出来る移動体21を見つけられない回数については、実験等を通じて設定してもよいし、人工知能の検出性能に合わせて調整するのが好ましい。 In the matching determination unit 61, the moving body can be regarded as the "same moving body" with respect to the position coordinates of the representative point d of the moving body 21 being tracked by the moving body tracking unit 5 in succession in a plurality of frames. If 21 cannot be found from the processing result of the object identification unit 3, it may be considered that the tracking target is an object that has been erroneously tracked and may be excluded from the tracking target. As a result, the result of erroneous detection of the moving body tracking unit 5 and the object identification unit 3 can be absorbed, and the moving body 21 can be tracked with high accuracy. Here, the number of times that the moving body 21 that can be continuously regarded as the "same moving body" cannot be found may be set through experiments or the like, and is preferably adjusted according to the detection performance of artificial intelligence. ..

以上より、移動体追跡部5で追跡中の移動体21を定期的に物体識別部3で検証し修正することができ、移動体追跡部5による移動体21の追跡精度をさらに向上することができる。また、撮像画像20中に初めて出現した物体を物体識別部3で精度よく検出してこの物体を新規の移動体21として移動体追跡部5で精度よく追跡することができる。また、計算負荷が高い物体識別部3の処理頻度を減らしながら移動体追跡部5にて移動体21の追跡をベクトル焦点法を用いて高頻度に追跡処理することで、低消費電力、低性能な動作環境においても複数種の移動体を分類した追跡を行うことができる。 From the above, the moving body 21 being tracked by the moving body tracking unit 5 can be periodically verified and corrected by the object identification unit 3, and the tracking accuracy of the moving body 21 by the moving body tracking unit 5 can be further improved. can. Further, an object that first appears in the captured image 20 can be accurately detected by the object identification unit 3, and this object can be accurately tracked by the mobile object tracking unit 5 as a new moving object 21. Further, the moving body tracking unit 5 frequently tracks the moving body 21 by using the vector focus method while reducing the processing frequency of the object identification unit 3 having a high calculation load, resulting in low power consumption and low performance. It is possible to classify and track multiple types of moving objects even in various operating environments.

以上のようにして、移動体追跡装置1は、移動体21の追跡を行い、その移動体情報4を外部出力することができる。移動体情報4は、移動体21の位置座標や種別だけではなく、例えば、追跡開始時刻や識別番号、速度情報などその移動体21に紐づく情報を目的や用途に合わせて記録し、出力してもよい。 As described above, the mobile tracking device 1 can track the moving body 21 and output the moving body information 4 to the outside. The moving body information 4 records and outputs not only the position coordinates and type of the moving body 21, but also information associated with the moving body 21, such as a tracking start time, an identification number, and a speed information, according to the purpose and use. You may.

次に、移動体追跡装置1を用いた移動体追跡方法について説明する。
図9に示すように、移動体追跡方法は、画像分配ステップ、物体識別ステップ、移動体追跡ステップ、一致判定ステップを有している。これらのステップのそれぞれは、画像分配部2、物体識別部3、一致判定部6の機能によって実行される。なお、各ステップにおいて、上述した移動体追跡装置1の各部の説明が適宜に援用される。
Next, a moving body tracking method using the moving body tracking device 1 will be described.
As shown in FIG. 9, the moving object tracking method includes an image distribution step, an object identification step, a moving object tracking step, and a matching determination step. Each of these steps is executed by the functions of the image distribution unit 2, the object identification unit 3, and the match determination unit 6. In each step, the description of each part of the mobile tracking device 1 described above is appropriately incorporated.

画像分配ステップは、画像分配部2にて、カメラ10で撮像した撮像画像20をFIFO型で遅延させる出力及び遅延させない出力の2系統に分配し、各処理部3,5へ撮像画像20を出力する処理を行うステップである。この画像分配ステップでは、物体識別部3に対して一定フレーム数おきの間隔で定期的に撮像画像20を出力し、移動体追跡部5に対してフレーム毎に毎回撮像画像20を出力する。このとき、移動体追跡部5への撮像画像20の出力タイミングは、物体識別部3に出力した同一フレームの撮像画像20について移動体追跡部5での画像処理終了タイミングが物体識別部3での画像処理終了タイミングと一致するように遅延させて出力する。 In the image distribution step, the image distribution unit 2 distributes the captured image 20 captured by the camera 10 into two systems, an output that delays the image in the FIFO type and an output that does not delay, and outputs the captured image 20 to the processing units 3 and 5. It is a step to perform the processing to be performed. In this image distribution step, the captured image 20 is periodically output to the object identification unit 3 at intervals of a fixed number of frames, and the captured image 20 is output to the moving object tracking unit 5 for each frame. At this time, the output timing of the captured image 20 to the moving object tracking unit 5 is such that the image processing end timing of the moving object tracking unit 5 is the image processing end timing of the object identification unit 3 for the captured image 20 of the same frame output to the object identification unit 3. The output is delayed so as to match the image processing end timing.

物体識別ステップは、物体識別部3にて、人工知能により、画像分配ステップで入力されたフレームの撮像画像20中から追跡対象の物体を検出する処理を行うステップである。すなわち、追跡対象の移動体21となる実際の物体の様々な形の画像データを機械学習させた学習済みモデルが構築された人工知能により、画像分配ステップから定期的に入力されるフレームの撮像画像20中における所定の物体の領域、物体の位置、物体の種別を精度よく検出する処理が行われる。これにより、移動体追跡ステップで画像処理される毎回の撮像画像20のうち一定フレーム数おきの間隔で定期的に同一の撮像画像20について画像処理され、移動体追跡部5での移動体追跡情報を定期的に修正することで移動体21の追跡精度を向上させることができる。 The object identification step is a step in which the object identification unit 3 performs a process of detecting an object to be tracked from the captured images 20 of the frame input in the image distribution step by artificial intelligence. That is, a captured image of a frame periodically input from the image distribution step by artificial intelligence constructed by a trained model in which image data of various shapes of an actual object to be a moving object 21 to be tracked is machine-learned. A process of accurately detecting the region of a predetermined object, the position of the object, and the type of the object in 20 is performed. As a result, the same captured image 20 is periodically image-processed at intervals of a fixed number of frames among the captured images 20 image-processed in the moving object tracking step, and the moving object tracking information in the moving object tracking unit 5 is performed. The tracking accuracy of the moving body 21 can be improved by modifying the moving body 21 on a regular basis.

移動体追跡ステップは、移動体追跡部5にて、ベクトル焦点法による画像処理により、画像分配ステップで入力されたフレームの撮像画像20中から追跡対象の移動体21を追跡する処理を行うステップである。この移動体追跡ステップでは、ベクトル焦点法による画像処理によって、追跡すべき移動体21の標準モデルに基づく標準体データが設定され、撮像画像20中における前記標準体データと適合する移動体21に代表点dが配置され、これより画像分配ステップにより毎回入力されるフレームの撮像画像20中から同一の移動体21の代表点dを追跡する処理が行われる。この移動体追跡ステップにおける手順は、後述する。 The moving object tracking step is a step in which the moving object tracking unit 5 performs a process of tracking the moving object 21 to be tracked from the captured images 20 of the frame input in the image distribution step by image processing by the vector focus method. be. In this moving body tracking step, standard body data based on the standard model of the moving body 21 to be tracked is set by image processing by the vector focus method, and is represented by the moving body 21 that matches the standard body data in the captured image 20. A point d is arranged, and a process of tracking the representative point d of the same moving body 21 from the captured image 20 of the frame input each time by the image distribution step is performed. The procedure in this mobile tracking step will be described later.

一致判定ステップは、一致判定部6にて、前記移動体追跡ステップが追跡すべき移動体21を前記物体識別ステップで検出する物体と一致させるための処理を行うステップである。この一致判定ステップでは、まず、判定部61にて、物体識別ステップと移動体追跡ステップとに入力された同一フレームの撮像画像20について、物体識別ステップで検出された物体のなかに移動体追跡ステップで追跡中の移動体21と同一の移動体21が存在するか否かの一致判定をする。そして、前記一致判定で同一の移動体21が存在すると判定された場合は、補正部62にて、移動体追跡ステップにおいて、前記一致判定で用いた現フレームより1つ後の次フレームの撮像画像20の処理では、前記物体識別ステップで検出された物体を標準モデルとする標準体データに修正して使用させる処理を行う。前記一致判定で同一の移動体21が存在しないと判定された場合は、新規作成部63にて、移動体追跡ステップにおいて、前記次フレームの撮像画像20の処理では、物体識別ステップのみに検出された物体を新規の移動体21として登録し、当該物体を標準モデルとする標準体データを使用させる処理を行う。 The match determination step is a step in which the match determination unit 6 performs a process for matching the moving object 21 to be tracked by the moving object tracking step with the object detected in the object identification step. In this match determination step, first, the determination unit 61 takes a moving object tracking step among the objects detected in the object identification step for the captured image 20 of the same frame input to the object identification step and the moving object tracking step. It is determined whether or not the same moving body 21 as the moving body 21 being tracked exists in the above. Then, when it is determined in the matching determination that the same moving object 21 exists, the correction unit 62 captures an image of the next frame one frame after the current frame used in the matching determination in the moving object tracking step. In the process of 20, the object detected in the object identification step is modified into standard body data as a standard model and used. When it is determined in the matching determination that the same moving body 21 does not exist, it is detected only in the object identification step in the processing of the captured image 20 of the next frame in the moving body tracking step in the new creation unit 63. The object is registered as a new moving body 21, and a process of using the standard body data using the object as a standard model is performed.

次に、前記移動体追跡ステップにおける処理手順を説明する。
図10に示すように、移動体追跡の動作をスタートすると、画像分配ステップにより移動体追跡部5に撮像画像20が入力され(S1)、初めて撮像画像20が入力されたか否か判断する(S2)。初めて撮像画像20が入力された場合(すなわち1番目のフレームの撮像画像20が入力された場合)、撮像画像20中から移動体21を検出し(S3)、その移動体検出結果を一致判定部6へ出力する(S4)。
Next, the processing procedure in the moving body tracking step will be described.
As shown in FIG. 10, when the moving body tracking operation is started, the captured image 20 is input to the moving body tracking unit 5 by the image distribution step (S1), and it is determined whether or not the captured image 20 is input for the first time (S2). ). When the captured image 20 is input for the first time (that is, when the captured image 20 of the first frame is input), the moving body 21 is detected from the captured images 20 (S3), and the moving body detection result is determined by the match determination unit. Output to 6 (S4).

手順S1で、初めて撮像画像20が入力された場合でない場合(すなわち2番目以降のフレームの撮像画像20が入力された場合)、手順S5へ処理を移行し、一致判定部6から判定結果の指令の入力があるか否か判断する。判定結果の指令が入力され、物体識別部3で検出した物体と同一の移動体21が移動体追跡部5で存在する場合(S6で「yes」)、手順S7にて、入力された撮像画像20の画像処理に際し、標準体データとして、前記一致判定で用いた物体識別部3での検出物体を標準モデルS-1に使用して標準体データを修正する(図8参照)。 When the captured image 20 is not input for the first time in step S1 (that is, when the captured image 20 of the second and subsequent frames is input), the process shifts to procedure S5, and the matching determination unit 6 commands the determination result. Judge whether there is an input of. When the command of the determination result is input and the same moving body 21 as the object detected by the object identification unit 3 exists in the moving body tracking unit 5 (“yes” in S6), the captured image input in the procedure S7. In the image processing of No. 20, as the standard body data, the detected object in the object identification unit 3 used in the matching determination is used for the standard model S-1 to correct the standard body data (see FIG. 8).

一方、手順S6にて、物体識別部3で検出した物体と同一の移動体21が移動体追跡部5で存在しない場合(S6で「no」)、物体識別部3のみに検出した物体について新規に出現した移動体21として登録して追跡を開始し(S8)、また、入力された撮像画像20の画像処理に際し、標準体データとして、前記一致判定で用いた物体識別部3での検出物体を標準モデルS-1に使用して標準体データを新規に作製する(S9)。 On the other hand, in the procedure S6, when the same moving object 21 as the object detected by the object identification unit 3 does not exist in the moving object tracking unit 5 (“no” in S6), the object detected only by the object identification unit 3 is new. It is registered as the moving body 21 appearing in the above and the tracking is started (S8), and when the input image processing of the captured image 20 is performed, the detected object by the object identification unit 3 used in the matching determination is used as the standard body data. Is used for the standard model S-1 to newly create standard data (S9).

そして、入力された撮像画像20中から移動体を検出し(S10)、検出された移動体21を追跡する(S11)。また、移動体追跡部5での移動体検出結果を一致判定部6へ出力する(S11)。なお、一致判定部6への出力は、移動体追跡部5に入力された撮像画像20毎に毎回行うのではなく、物体識別部3に入力された撮像画像20と同一の撮像画像20の処理のときだけその移動体検出結果を出力するようにしてもよい。 Then, the moving body is detected from the input captured image 20 (S10), and the detected moving body 21 is tracked (S11). Further, the moving object detection result of the moving object tracking unit 5 is output to the matching determination unit 6 (S11). It should be noted that the output to the match determination unit 6 is not performed every time for each captured image 20 input to the moving object tracking unit 5, but to process the same captured image 20 as the captured image 20 input to the object identification unit 3. The moving object detection result may be output only when.

また、手順S5で、一致判定部6から判定結果の指令の入力が無い場合(S5で「no」)、手順S13にて、入力された撮像画像20の画像処理に際し、標準体データとして、入力された撮像画像20のフレームの1つ前の前フレームの撮像画像20で追跡中の移動体21を標準モデルS-2に使用して標準体データを作製する(図7参照)。 If there is no input of the determination result command from the match determination unit 6 in the procedure S5 (“no” in S5), the input image 20 is input as standard data in the image processing of the input image 20 in the procedure S13. The moving body 21 being tracked in the captured image 20 of the previous frame immediately before the frame of the captured image 20 is used for the standard model S-2 to generate standard data (see FIG. 7).

そして、入力された撮像画像20中から移動体21を検出し(S14)、追跡中の移動体21と同一の移動体21を追跡する(S15、S16)。また、移動体追跡部5での移動体検出結果を一致判定部6へ出力する(S18)。この場合も、一致判定部6への出力は、移動体追跡部5に入力された撮像画像20毎に毎回行うのではなく、物体識別部3に入力された撮像画像20と同一の撮像画像20の処理のときだけその移動体検出結果を出力するようにしてもよい。入力された撮像画像20で追跡中の移動体21と同一の移動体21が無かった場合(S15で「no」)、その移動体21の追跡を終了する(S17)。
以上の動作を繰り返すことで、カメラ10での撮像画像20中から所定の移動体21を精度よく追跡を行うことができる。
Then, the moving body 21 is detected from the input captured image 20 (S14), and the same moving body 21 as the moving body 21 being tracked is tracked (S15, S16). Further, the moving object detection result of the moving object tracking unit 5 is output to the matching determination unit 6 (S18). Also in this case, the output to the match determination unit 6 is not performed every time for each captured image 20 input to the moving object tracking unit 5, but is the same as the captured image 20 input to the object identification unit 3. The moving object detection result may be output only at the time of the processing of. If there is no moving body 21 that is the same as the moving body 21 being tracked in the input captured image 20 (“no” in S15), the tracking of the moving body 21 is terminated (S17).
By repeating the above operation, the predetermined moving body 21 can be accurately tracked from the captured image 20 of the camera 10.

なお、前記手順S15で追跡中の移動体21と同一の移動体21が無かった場合は、手順S17にて直ちに追跡を終了させないようにしてもよい。すなわち、オクルージョンや光源との位置関係等により、実際には存在しているにもかかわらず、撮像画像20に映らない(見えない)場合が存在する。そのため、直ちには追跡を終了させず、移動体21の過去の経時的な各フレームにおける位置座標の差から移動速度と方向とにより等速直線運動をしている前提で現フレームでの移動体位置を推定し、この推定位置が撮像画像20の範囲内にある場合は、この推定位置を移動体21の代表点の位置座標として追跡情報を更新し、残すようにしてもよい。前記推定位置が撮像画像20の範囲外となるような場合は、移動体21がフレームアウトしたものとして追跡を終了させるようにしてもよい。 If there is no moving body 21 that is the same as the moving body 21 being tracked in the procedure S15, the tracking may not be terminated immediately in the procedure S17. That is, there are cases where the image 20 does not appear (cannot be seen) even though it actually exists due to the positional relationship with the occlusion and the light source. Therefore, the tracking is not terminated immediately, and the position of the moving body in the current frame is assumed to be moving linearly at a constant velocity depending on the moving speed and the direction due to the difference in the position coordinates of the moving body 21 in each frame over time in the past. If this estimated position is within the range of the captured image 20, the tracking information may be updated and left with this estimated position as the position coordinates of the representative point of the moving body 21. If the estimated position is outside the range of the captured image 20, the tracking may be terminated assuming that the moving body 21 is out of frame.

(実施形態2)
図11に示すように、実施形態2の移動体追跡装置1Xは、主要構成として、実施形態1の図1と同様に、画像分配部2X、物体識別部3X、移動体追跡部5X、一致判定部6Xを備えている。
(Embodiment 2)
As shown in FIG. 11, the moving body tracking device 1X of the second embodiment has, as the main configuration, the image distribution unit 2X, the object identification unit 3X, the moving body tracking unit 5X, and the matching determination as in FIG. 1 of the first embodiment. It has a part 6X.

実施形態1では、物体識別部3が人工知能を用いて物体の検出を行うことがあるものであったが、この実施形態2では、物体識別部3Xは、ベクトル焦点法による画像処理にて物体の検出を行うものである。ベクトル焦点法を用いた物体識別部3Xは、画像処理の演算処理負荷が小さく低消費電力とすることができる。なお、ベクトル焦点法による物体の検出方法は、実施形態1の移動体追跡部5での移動体検出の説明の該当箇所が参照される。 In the first embodiment, the object identification unit 3 may detect the object by using artificial intelligence, but in the second embodiment, the object identification unit 3X is an object by image processing by the vector focus method. Is to be detected. The object identification unit 3X using the vector focus method has a small arithmetic processing load for image processing and can achieve low power consumption. As for the method of detecting an object by the vector focus method, the corresponding part of the description of the moving body detection by the moving body tracking unit 5 of the first embodiment is referred to.

実施形態2によれば、物体識別部3Xも移動体追跡部5Xもベクトル焦点法の画像処理を用いた構成とすることにより、物体識別部3X及び移動体追跡部5Xでの演算処理負荷の低減、低消費電力とすることができる。従って、移動体追跡装置1Xは、低消費電力、小型で熱対策の容易な装置とすることができる。 According to the second embodiment, both the object identification unit 3X and the moving object tracking unit 5X are configured to use the image processing of the vector focus method, whereby the calculation processing load in the object identification unit 3X and the moving object tracking unit 5X is reduced. , Low power consumption can be achieved. Therefore, the mobile tracking device 1X can be a device having low power consumption, small size, and easy heat countermeasures.

実施形態2の物体識別部3Xは、ベクトル焦点法の画像処理により物体検出を行うので、人工知能を用いた実施形態1の物体識別部3と比べて画像処理を比較的高速に行うことができるから、実施形態2の物体識別部3Xは、間欠動作させるようにしてもよい。この場合は、一致判定部6Xの一致判定動作も間欠的になる。これにより、物体識別部3X、一致判定部6Xでの電力消費を低減することができ、さらに低消費電力の移動体追跡装置1Xを実現することができる。また、一致判定部6Xの一致判定動作は、定期的に行われることとなるから、移動体追跡部5Xでは、物体識別部3X及び一致判定部6Xの間欠動作に合わせて定期的に、同一の撮像画像20中から物体識別部3Xが同一移動体21として検出した物体を標準モデルS-1とし、移動体21の追跡を行うこととなる。なお、物体識別部3Xが動作停止中のとき、移動体追跡部5Xにおいてベクトル焦点法による画像処理で使用する標準モデルSは、移動体像を模して予め設定された標準モデルを使用してもよい。
実施形態2においてその他の構成及び作用効果については実施形態1での説明が援用される。
Since the object identification unit 3X of the second embodiment performs object detection by image processing of the vector focus method, the image processing can be performed at a relatively high speed as compared with the object identification unit 3 of the first embodiment using artificial intelligence. Therefore, the object identification unit 3X of the second embodiment may be operated intermittently. In this case, the match determination operation of the match determination unit 6X is also intermittent. As a result, the power consumption of the object identification unit 3X and the match determination unit 6X can be reduced, and the mobile object tracking device 1X with low power consumption can be realized. Further, since the match determination operation of the match determination unit 6X is performed periodically, the moving object tracking unit 5X periodically performs the same operation in accordance with the intermittent operation of the object identification unit 3X and the match determination unit 6X. The object detected by the object identification unit 3X as the same moving body 21 from the captured image 20 is set as the standard model S-1, and the moving body 21 is tracked. When the object identification unit 3X is stopped, the standard model S used in the image processing by the vector focus method in the moving object tracking unit 5X uses a preset standard model imitating a moving object image. May be good.
In the second embodiment, the description in the first embodiment is incorporated for other configurations and actions and effects.

なお、本発明は、前記実施形態に限らず、本発明の範囲内で任意に変更を施すことが可能である。 The present invention is not limited to the above-described embodiment, and can be arbitrarily modified within the scope of the present invention.

1 移動体追跡装置
2 画像分配部
3 物体識別部
4 移動体情報
5 移動体追跡部
6 一致判定部
20 撮像画像
21 移動体像、物体像
31 特徴抽出部
32 物体検出部
51 画像処理部
52 追跡部
B バウンディングボックス
d 代表点
m 物体の中心点
p 標準モデルの中心点
S,S-1,S-2 標準モデル

1 Moving object tracking device 2 Image distribution unit 3 Object identification unit 4 Moving object information 5 Moving object tracking unit 6 Match determination unit 20 Captured image 21 Moving object image, object image 31 Feature extraction unit 32 Object detection unit 51 Image processing unit 52 Tracking unit Part B Bounding box d Representative point m Center point of object p Center point of standard model S, S-1, S-2 Standard model

Claims (7)

撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置であって、
前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力と前記撮像画像を遅延させず間引く出力との2系統に分配し、前記撮像画像を出力する画像分配部と、
人工知能又はベクトル焦点法による物体検出により、前記画像分配部から入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別部と、
物体識別部での物体の認識結果の位置と範囲をベクトル焦点法による画像処理の標準モデルとして扱い、前記画像分配部から入力された撮像画像中から前記標準モデルに適合する追跡対象の移動体を追跡する処理を行う移動体追跡部と、
物体識別部と移動体追跡部の結果の統合を行う一致判定部とを備え、
前記画像分配部は、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう毎回撮像画像を出力する構成とし、
前記物体識別部は、高速の演算処理で間欠動作を行う又は低速な演算処理を行う構成とし、
前記一致判定部は、前記物体識別部及び前記移動体追跡部からの出力より互いに同一の移動体が存在する場合、前記移動体追跡部が追跡する当該移動体を前記物体識別部で検出する物体と一致させるための処理を行う構成とする移動体追跡装置。
It is a mobile object tracking device that tracks a moving object based on the object image in the captured image captured by the imaging unit.
An image distribution unit that distributes the captured image into two systems, an output that delays the captured image in a FIFO type according to the image processing speed and an output that thins the captured image without delay, and outputs the captured image.
An object identification unit that performs processing to detect an object to be tracked from the captured images input from the image distribution unit by object detection by artificial intelligence or the vector focus method.
The position and range of the recognition result of the object in the object identification unit are treated as a standard model of image processing by the vector focus method, and the moving object to be tracked that matches the standard model is selected from the captured images input from the image distribution unit. A moving object tracking unit that performs tracking processing, and
It is equipped with a match determination unit that integrates the results of the object identification unit and the moving object tracking unit.
The image distribution unit periodically outputs captured images to the object identification unit at intervals of a fixed number of frames, and outputs the object identification unit to the moving object tracking unit and the moving object tracking unit. The configuration is such that the captured image is output each time so that the output is at the same timing.
The object identification unit is configured to perform intermittent operations by high-speed arithmetic processing or to perform low-speed arithmetic processing.
When the same moving object exists from the outputs from the object identification unit and the moving object tracking unit, the matching determination unit detects the moving object tracked by the moving object tracking unit by the object identification unit. A moving object tracking device configured to perform processing for matching with.
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置であって、
前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力及び遅延させず間引く出力の2系統に分配し、各処理部へ前記撮像画像を出力する画像分配部と、
人工知能を用いて、前記画像分配部から入力されたフレームの撮像画像中から追跡対象の物体を検出する処理を行う物体識別部と、
ベクトル焦点法による画像処理により、前記画像分配部から入力されたフレームの撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡部と、
前記移動体追跡部が追跡すべき移動体を前記物体識別部で検出する物体と一致させるための処理を行う一致判定部とを備え、
前記画像分配部は、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう遅延させて毎回撮像画像を出力する構成を有し、
前記物体識別部は、前記人工知能において追跡対象の移動体となる実際の物体の様々な形の画像データを機械学習させた学習済みモデルが構築され、これより前記画像分配部から定期的に入力されるフレームの撮像画像中における所定の物体の領域、物体の位置、物体の種別を精度よく検出する構成を有し、
前記移動体追跡部は、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配部から毎回入力されるフレームの撮像画像中から同一の移動体の代表点を追跡する構成を有し、
前記一致判定部は、
前記物体識別部と前記移動体追跡部とに入力された同一フレームの撮像画像について、物体識別部で検出された物体のなかに移動体追跡部で追跡中の移動体と同一の移動体が存在するか否か一致判定をし、
前記一致判定で同一の移動体が存在すると判定された場合は、前記移動体追跡部に対して、前記一致判定で用いた現フレームより1つ後の次フレームの撮像画像の処理では、前記物体識別部で検出された物体を標準モデルとして使用させる処理を行い、
前記一致判定で同一の移動体が存在しないと判定された場合は、前記移動体追跡部に対して、前記次フレームの撮像画像の処理では、前記物体識別部のみに検出された物体を新規の移動体として登録し、当該物体を標準モデルとする処理を行う構成を有する移動体追跡装置。
It is a mobile object tracking device that tracks a moving object based on the object image in the captured image captured by the imaging unit.
An image distribution unit that distributes the captured image to two systems, an output that is delayed by a FIFO type according to the image processing speed and an output that is thinned out without delay, and outputs the captured image to each processing unit.
An object identification unit that performs processing to detect an object to be tracked from the captured image of the frame input from the image distribution unit using artificial intelligence, and an object identification unit.
A mobile tracking unit that performs processing to track a moving object to be tracked from the captured image of a frame input from the image distribution unit by image processing by the vector focus method.
A matching determination unit that performs processing for matching a moving object to be tracked by the moving object tracking unit with an object detected by the object identification unit is provided.
The image distribution unit periodically outputs captured images to the object identification unit at intervals of a fixed number of frames, and outputs the object identification unit to the moving object tracking unit and the moving object tracking unit. It has a configuration in which the captured image is output each time with a delay so that the output is at the same timing.
The object identification unit constructs a trained model in which image data of various shapes of an actual object to be tracked by the artificial intelligence is machine-learned, and is periodically input from the image distribution unit. It has a configuration that accurately detects the region of a predetermined object, the position of the object, and the type of the object in the captured image of the frame to be formed.
In the moving body tracking unit, standard body data based on a standard model of the moving body to be tracked is set by image processing by the vector focus method, and a representative point is a moving body that matches the standard body data in the captured image. It has a configuration in which the representative points of the same moving body are tracked from the captured images of the frames that are arranged and input from the image distribution unit each time.
The match determination unit
Regarding the captured image of the same frame input to the object identification unit and the moving object tracking unit, the same moving object as the moving object being tracked by the moving object tracking unit exists among the objects detected by the object identification unit. Make a match judgment and decide whether or not to do it.
When it is determined by the matching determination that the same moving object exists, the object is processed by the moving object tracking unit in the processing of the captured image of the next frame one frame after the current frame used in the matching determination. Performs processing to use the object detected by the identification unit as a standard model,
When it is determined in the matching determination that the same moving object does not exist, the object detected only in the object identification unit is newly added to the moving object tracking unit in the processing of the captured image of the next frame. A moving object tracking device having a configuration in which a moving object is registered and processing is performed using the object as a standard model.
請求項2に記載の移動体追跡装置において、
前記移動体追跡部は、前記フレームの撮像画像の処理で使用する前記標準モデルとして、前記一致判定部によって前記物体識別部で検出された物体を標準モデルとする場合を除き、当該フレームの1つ前のフレームの撮像画像で追跡中の移動体を標準モデルとする構成を有する移動体追跡装置。
In the mobile tracking device according to claim 2,
The moving object tracking unit is one of the frames as the standard model used in the processing of the captured image of the frame, except when the object detected by the object identification unit by the matching determination unit is used as the standard model. A moving object tracking device having a configuration in which the moving object being tracked in the captured image of the previous frame is used as a standard model.
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置であって、
前記撮像画像を取得し出力する画像分配部と、
ベクトル焦点法による物体検出により、前記画像分配部から入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別部と、
ベクトル焦点法による画像処理により、前記画像分配部から入力された撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡部とを備え、
前記移動体追跡部は、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配部から時間経過順に毎回入力される撮像画像中から同一の移動体の代表点を追跡する構成を備えるものであり、前記標準モデルとして当該撮像画像の1つ前の撮像画像で追跡中の移動体又は前記物体識別部が検出した物体を使用する構成を有する移動体追跡装置。
It is a mobile object tracking device that tracks a moving object based on the object image in the captured image captured by the imaging unit.
An image distribution unit that acquires and outputs the captured image, and
An object identification unit that performs processing to detect an object to be tracked from the captured images input from the image distribution unit by object detection by the vector focus method.
It is provided with a moving object tracking unit that performs processing for tracking a moving object to be tracked from the captured image input from the image distribution unit by image processing by the vector focus method.
In the moving body tracking unit, standard body data based on a standard model of the moving body to be tracked is set by image processing by the vector focus method, and a representative point is a moving body that matches the standard body data in the captured image. It is provided with a configuration for tracking a representative point of the same moving object from the captured images that are arranged and input from the image distribution unit each time in the order of passage of time, and is one before the captured image as the standard model. A moving object tracking device having a configuration in which a moving object being tracked in an captured image or an object detected by the object identification unit is used.
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡方法であって、
画像分配部にて、前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力及び遅延させず間引く出力の2系統に分配し、各処理部へ前記撮像画像を出力する画像分配ステップと、
物体識別部にて、人工知能により、前記画像分配ステップで入力されたフレームの撮像画像中から追跡対象の物体を検出する処理を行う物体識別ステップと、
移動体追跡部にて、ベクトル焦点法による画像処理により、前記画像分配ステップで入力されたフレームの撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡ステップと、
一致判定部にて、前記移動体追跡ステップが追跡すべき移動体を前記物体識別ステップで検出する物体と一致させるための処理を行う一致判定ステップとを備え、
前記画像分配ステップは、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう遅延させて毎回撮像画像を出力する処理を行い、
前記物体識別ステップは、前記人工知能において追跡対象の移動体となる実際の物体の様々な形の画像データを機械学習させた学習済みモデルが構築され、これより前記画像分配ステップにより定期的に入力されるフレームの撮像画像中における所定の物体の領域、物体の位置、物体の種別を精度よく検出する処理を行い、
前記移動体追跡ステップは、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配ステップにより毎回入力されるフレームの撮像画像中から同一の移動体の代表点を追跡する処理を行い、
前記一致判定ステップは、
前記物体識別ステップと前記移動体追跡ステップとに入力された同一フレームの撮像画像について、物体識別ステップで検出された物体のなかに移動体追跡ステップで追跡中の移動体と同一の移動体が存在するか否か一致判定をし、
前記一致判定で同一の移動体が存在すると判定された場合は、前記移動体追跡ステップにおいて、前記一致判定で用いた現フレームより1つ後の次フレームの撮像画像の処理では、前記物体識別ステップで検出された物体を標準モデルとして使用させる処理を行い、
前記一致判定で同一の移動体が存在しないと判定された場合は、前記移動体追跡ステップにおいて、前記次フレームの撮像画像の処理では、前記物体識別ステップのみに検出された物体を新規の移動体として登録し、当該物体を標準モデルとする処理を行う移動体追跡方法。
It is a moving body tracking method that tracks a moving body based on an object image in the captured image captured by the imaging unit.
An image distribution step in which the image distribution unit distributes the captured image into two systems, an output that delays the captured image in a FIFO type according to the image processing speed and an output that thins out without delay, and outputs the captured image to each processing unit.
In the object identification unit, an object identification step that performs a process of detecting an object to be tracked from the captured images of the frame input in the image distribution step by artificial intelligence, and an object identification step.
A mobile tracking step that performs processing to track a moving object to be tracked from the captured images of the frame input in the image distribution step by image processing by the vector focusing method in the moving object tracking unit.
The match determination unit includes a match determination step for performing a process for matching a moving object to be tracked by the moving object tracking step with an object detected by the object identification step.
The image distribution step periodically outputs captured images to the object identification unit at intervals of a fixed number of frames, and outputs the object identification unit to the moving object tracking unit and the moving object tracking unit. A process is performed to output the captured image each time with a delay so that the output is at the same timing.
In the object identification step, a trained model is constructed by machine-learning image data of various shapes of an actual object to be tracked in the artificial intelligence, and the object is periodically input by the image distribution step. A process is performed to accurately detect the area of a predetermined object, the position of the object, and the type of the object in the captured image of the frame to be performed.
In the moving body tracking step, standard body data based on a standard model of the moving body to be tracked is set by image processing by the vector focusing method, and a representative point is a moving body that matches the standard body data in the captured image. A process of tracking the representative points of the same moving body from the captured images of the frames that are arranged and input each time by the image distribution step is performed.
The match determination step is
Regarding the captured images of the same frame input to the object identification step and the moving object tracking step, among the objects detected in the object identification step, the same moving object as the moving object being tracked in the moving object tracking step exists. Make a match judgment and decide whether or not to do it.
When it is determined in the matching determination that the same moving object exists, in the processing of the captured image of the next frame one after the current frame used in the matching determination in the moving object tracking step, the object identification step is performed. The object detected in is used as a standard model, and it is processed.
When it is determined in the matching determination that the same moving object does not exist, in the moving object tracking step, in the processing of the captured image of the next frame, the object detected only in the object identification step is a new moving object. A moving object tracking method that registers as a standard model and performs processing using the object as a standard model.
請求項5に記載の移動体追跡方法において、
前記移動体追跡ステップは、前記フレームの撮像画像の処理で使用する前記標準モデルとして、前記一致判定ステップによって前記物体識別ステップで検出された物体を標準モデルとする場合を除き、当該フレームの1つ前のフレームの撮像画像で追跡中の移動体を標準モデルとする移動体追跡方法。
In the mobile tracking method according to claim 5,
The moving object tracking step is one of the frames, except when the object detected in the object identification step by the matching determination step is used as the standard model as the standard model used in the processing of the captured image of the frame. A moving object tracking method that uses the moving object being tracked in the captured image of the previous frame as a standard model.
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡方法であって、
画像分配部にて、前記撮像画像を取得し出力する画像分配ステップと、
物体識別部にて、ベクトル焦点法による物体検出により、前記画像分配ステップで入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別ステップと、
移動体追跡部にて、ベクトル焦点法による画像処理により、前記画像分配ステップで入力された撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡ステップとを備え、
前記移動体追跡ステップは、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配ステップで時間経過順に毎回入力される撮像画像中から同一の移動体の代表点を追跡する処理を行うステップであり、前記標準モデルとして当該撮像画像の1つ前の撮像画像で追跡中の移動体又は前記物体識別ステップが検出した物体を使用する移動体追跡方法。
It is a moving body tracking method that tracks a moving body based on an object image in the captured image captured by the imaging unit.
An image distribution step of acquiring and outputting the captured image in the image distribution unit,
In the object identification unit, an object identification step that performs a process of detecting an object to be tracked from the captured images input in the image distribution step by object detection by the vector focus method, and an object identification step.
The moving object tracking unit includes a moving object tracking step that performs a process of tracking a moving object to be tracked from the captured images input in the image distribution step by image processing by the vector focus method.
In the moving object tracking step, standard body data based on a standard model of the moving body to be tracked is set by image processing by the vector focusing method, and a representative point is set to a moving body that matches the standard body data in the captured image. It is a step of tracking the representative points of the same moving body from the captured images that are arranged and then input each time in the order of passage of time in the image distribution step, and is one step before the captured image as the standard model. A moving object tracking method using a moving object being tracked in an captured image or an object detected by the object identification step.
JP2020087696A 2020-05-19 2020-05-19 Mobile tracking device and mobile tracking method Active JP7053057B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020087696A JP7053057B2 (en) 2020-05-19 2020-05-19 Mobile tracking device and mobile tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020087696A JP7053057B2 (en) 2020-05-19 2020-05-19 Mobile tracking device and mobile tracking method

Publications (2)

Publication Number Publication Date
JP2021182288A JP2021182288A (en) 2021-11-25
JP7053057B2 true JP7053057B2 (en) 2022-04-12

Family

ID=78606654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020087696A Active JP7053057B2 (en) 2020-05-19 2020-05-19 Mobile tracking device and mobile tracking method

Country Status (1)

Country Link
JP (1) JP7053057B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086045A (en) 2009-10-14 2011-04-28 Giken Torasutemu Kk Assistant/customer separation/aggregation device
JP2013085089A (en) 2011-10-07 2013-05-09 Nikon Corp Object tracking device and camera
WO2020080535A1 (en) 2018-10-18 2020-04-23 国立研究開発法人科学技術振興機構 Target tracking method, target tracking system, and target tracking program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086045A (en) 2009-10-14 2011-04-28 Giken Torasutemu Kk Assistant/customer separation/aggregation device
JP2013085089A (en) 2011-10-07 2013-05-09 Nikon Corp Object tracking device and camera
WO2020080535A1 (en) 2018-10-18 2020-04-23 国立研究開発法人科学技術振興機構 Target tracking method, target tracking system, and target tracking program

Also Published As

Publication number Publication date
JP2021182288A (en) 2021-11-25

Similar Documents

Publication Publication Date Title
JP7345504B2 (en) Association of LIDAR data and image data
Zhu et al. Seeing small faces from robust anchor's perspective
JP6709283B2 (en) Detection and analysis of moving vehicles using low resolution remote sensing images
JP6398347B2 (en) Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system
JP2020052694A (en) Object detection apparatus, object detection method, and computer program for object detection
US11170272B2 (en) Object detection device, object detection method, and computer program for object detection
WO2012127815A1 (en) Moving object detecting apparatus and moving object detecting method
US8379981B1 (en) Segmenting spatiotemporal data based on user gaze data
Zou et al. Robust nighttime vehicle detection by tracking and grouping headlights
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
WO2004057537A1 (en) Method and device for tracing moving object in image
TWI595450B (en) Object detection system
CN106570490B (en) A kind of pedestrian's method for real time tracking based on quick clustering
Ciberlin et al. Object detection and object tracking in front of the vehicle using front view camera
KR102493930B1 (en) Apparatus and method for controlling traffic signal based on reinforcement learning
CN112241969A (en) Target detection tracking method and device based on traffic monitoring video and storage medium
KR20130054637A (en) Apparatus and method detecting object in automatic parking system
JP2015064752A (en) Vehicle monitoring device and vehicle monitoring method
Weimer et al. Gpu architecture for stationary multisensor pedestrian detection at smart intersections
JP2020109644A (en) Fall detection method, fall detection apparatus, and electronic device
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP7053057B2 (en) Mobile tracking device and mobile tracking method
US20230394686A1 (en) Object Identification
JP2019218022A (en) Rail track detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220324

R150 Certificate of patent or registration of utility model

Ref document number: 7053057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150