JP2017046023A - Mobile tracking device, mobile tracking method and mobile tracking program - Google Patents

Mobile tracking device, mobile tracking method and mobile tracking program Download PDF

Info

Publication number
JP2017046023A
JP2017046023A JP2015164437A JP2015164437A JP2017046023A JP 2017046023 A JP2017046023 A JP 2017046023A JP 2015164437 A JP2015164437 A JP 2015164437A JP 2015164437 A JP2015164437 A JP 2015164437A JP 2017046023 A JP2017046023 A JP 2017046023A
Authority
JP
Japan
Prior art keywords
moving body
moving
radio
imaging
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015164437A
Other languages
Japanese (ja)
Other versions
JP6462528B2 (en
Inventor
浩平 岡原
Kohei Okahara
浩平 岡原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015164437A priority Critical patent/JP6462528B2/en
Publication of JP2017046023A publication Critical patent/JP2017046023A/en
Application granted granted Critical
Publication of JP6462528B2 publication Critical patent/JP6462528B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To track a mobile of a tracking target indoors even in the case where the mobile of the tracking target cannot be detected in a captured image.SOLUTION: Based on at least either a field intensity of a radio wave from a radio terminal device moving with a mobile measured at each of a plurality of pieces of radio communication equipment disposed separately in a target area or a field intensity of a radio wave from each of the plurality of pieces of radio communication equipment measured at the radio terminal device, a moving route prediction part 42 estimates a current position of the mobile and predicts a moving route of the mobile. Based on imaging possible ranges of a plurality of imaging apparatuses disposed separately in the target area and the moving route predicted by the moving route prediction part 42, an imaging apparatus control part 43 selects an imaging apparatus which is caused to image the mobile moving along the moving route, from among the plurality of imaging apparatuses.SELECTED DRAWING: Figure 4

Description

本発明は、移動体を追跡する技術に関する。   The present invention relates to a technique for tracking a moving object.

複数の撮像装置が連携して移動体を追跡する技術が知られている。
従来の追跡装置は、画像解析装置を有しており、撮影画像内から追跡対象の画像を検出し、撮像装置の位置情報と画像内の追跡対象の動きに関する情報をネットワーク経由で共有し、次に対象物体が撮影範囲に入ると予想される撮像装置に追跡制御命令を行うことで追跡対象を追跡する(例えば、特許文献1)。
また、モバイル端末装置から送信される移動体の位置情報を画像解析情報と組み合わせて撮像装置の映像内にて移動体を追跡する技術もある(例えば、特許文献2)。
A technique in which a plurality of imaging devices cooperate to track a moving object is known.
A conventional tracking device has an image analysis device, detects an image to be tracked from within a captured image, shares position information of the imaging device and information about the movement of the tracking target in the image via a network, and The tracking target is tracked by issuing a tracking control command to the imaging apparatus in which the target object is expected to fall within the imaging range (for example, Patent Document 1).
There is also a technique for tracking a moving body in a video of an imaging device by combining the position information of the moving body transmitted from a mobile terminal device with image analysis information (for example, Patent Document 2).

特開2015−2553号公報Japanese Patent Laying-Open No. 2015-2553 特開2002−290963号公報JP 2002-290963 A

しかしながら、従来の画像解析による移動体の追跡は、遮蔽物や移動体の向きにより、移動体の検出ができず、追跡が困難になるという課題があった。
特に、商用施設や駅構内等の混雑状況において、子供のように身長の低い人物は、周囲の身長の高い人物に遮蔽されてしまうことがあり、撮影画像内に姿が映り込まない可能性がある。
また、特許文献2で利用される位置情報は屋外での利用を想定したものであり、屋内である駅構内や商用施設等に設置された撮像装置には適用できないという課題がある。
However, the tracking of the moving object by the conventional image analysis has a problem that the moving object cannot be detected due to the direction of the shielding object or the moving object, and the tracking becomes difficult.
In particular, in a crowded situation such as a commercial facility or a station, a person with a short height, such as a child, may be shielded by a person with a high height around him, and there is a possibility that the figure does not appear in the captured image. is there.
Further, the position information used in Patent Document 2 is assumed to be used outdoors, and there is a problem that it cannot be applied to an imaging apparatus installed indoors in a station premises, a commercial facility, or the like.

本発明は上記のような課題を解決することを主な目的としており、屋内において、撮影画像内に追跡対象の移動体が検出できない場合でも、追跡対象の移動体を追跡することができる構成を得ることを主な目的とする。   The main object of the present invention is to solve the above-described problems. A configuration in which a tracking target moving body can be tracked indoors even when the tracking target moving body cannot be detected in a captured image. The main purpose is to obtain.

本発明に係る移動体追跡装置は、
対象エリア内に離間して配置されている複数の無線通信機の各々で計測された、移動体とともに移動する無線端末装置からの電波の電波強度又は前記無線端末装置で計測された前記複数の無線通信機の各々からの電波の電波強度の少なくともいずれかに基づき、前記移動体の現在位置を推定し、前記移動体の移動経路を予測する移動経路予測部と、
前記対象エリア内に離間して配置されている複数の撮像装置の各々の撮影可能範囲と、前記移動経路予測部により予測された前記移動経路とに基づき、前記複数の撮像装置の中から、前記移動経路を移動する前記移動体を撮影させる撮像装置を選択する撮像装置制御部とを有する。
The mobile tracking device according to the present invention is:
The radio wave intensity of radio waves from a radio terminal device moving with a mobile object, measured by each of a plurality of radio communication devices arranged separately in a target area, or the radio waves measured by the radio terminal device Based on at least one of the radio field strengths of radio waves from each of the communication devices, a current path of the mobile body is estimated, and a travel path prediction unit that predicts a travel path of the mobile body;
From the plurality of imaging devices, based on the imageable range of each of the plurality of imaging devices arranged separately in the target area and the movement path predicted by the movement route prediction unit, An imaging device control unit that selects an imaging device that captures an image of the moving body moving along the movement path.

本発明では、電波強度に基づき移動体の現在位置を推定し、当該移動体の移動経路を予測し、予測した移動経路に基づき、当該移動体を撮影させる撮像装置を選択する。
このため、本発明によれば、屋内において、撮影画像内に追跡対象の移動体が検出できない場合でも、追跡対象の移動体を追跡することができる。
In the present invention, the current position of the moving body is estimated based on the radio wave intensity, the moving path of the moving body is predicted, and the imaging apparatus that captures the moving body is selected based on the predicted moving path.
Therefore, according to the present invention, the tracking target moving body can be tracked indoors even when the tracking target moving body cannot be detected in the captured image.

実施の形態1に係るモバイル端末連携移動体追跡システムの構成例を示す図。1 is a diagram illustrating a configuration example of a mobile terminal cooperation mobile body tracking system according to Embodiment 1. FIG. 実施の形態1に係るモバイル端末装置の機能構成例を示す図。FIG. 3 is a diagram illustrating a functional configuration example of a mobile terminal device according to the first embodiment. 実施の形態1に係る無線通信機の機能構成例を示す図。3 is a diagram illustrating an example of a functional configuration of a wireless communication device according to Embodiment 1. FIG. 実施の形態1に係るモバイル端末連携装置の機能構成例を示す図。FIG. 3 is a diagram illustrating a functional configuration example of a mobile terminal cooperation device according to the first embodiment. 実施の形態1に係る撮像装置の機能構成例を示す図。FIG. 3 is a diagram illustrating a functional configuration example of the imaging apparatus according to Embodiment 1; 実施の形態1に係る移動経路予測部の内部構成例を示す図。The figure which shows the internal structural example of the movement route estimation part which concerns on Embodiment 1. FIG. 実施の形態1に係る撮像装置制御部の内部構成例を示す図。FIG. 3 is a diagram illustrating an internal configuration example of an imaging apparatus control unit according to the first embodiment. 実施の形態1に係るモバイル端末連携装置の動作例を示すフローチャート図。FIG. 3 is a flowchart showing an operation example of the mobile terminal cooperation device according to the first embodiment. 実施の形態1に係るモバイル端末連携移動体追跡システムの動作例を示すシーケンス図。FIG. 3 is a sequence diagram illustrating an operation example of the mobile terminal cooperative mobile tracking system according to the first embodiment. 実施の形態1に係る無線通信機及び撮像装置の配置例を示す図。FIG. 3 illustrates an arrangement example of a wireless communication device and an imaging device according to Embodiment 1; 実施の形態2に係るモバイル端末連携移動体追跡システムの構成例を示す図。The figure which shows the structural example of the mobile terminal cooperation mobile body tracking system which concerns on Embodiment 2. FIG. 実施の形態2に係るモバイル端末連携装置の機能構成例を示す図。FIG. 6 is a diagram illustrating a functional configuration example of a mobile terminal cooperation device according to a second embodiment. 実施の形態2に係る画像解析装置の機能構成例を示す図。FIG. 4 is a diagram illustrating a functional configuration example of an image analysis device according to a second embodiment. 実施の形態2に係る撮像装置の機能構成例を示す図。FIG. 4 is a diagram illustrating an example of a functional configuration of an imaging apparatus according to Embodiment 2. 実施の形態2に係るモバイル端末連携装置の動作例を示すフローチャート図。FIG. 6 is a flowchart showing an operation example of the mobile terminal cooperation device according to the second embodiment. 実施の形態2に係るモバイル端末連携移動体追跡システムの動作例を示すシーケンス図。FIG. 10 is a sequence diagram showing an operation example of the mobile terminal cooperative mobile tracking system according to the second embodiment. 実施の形態1及び2に係るモバイル端末連携装置のハードウェア構成例を示す図。The figure which shows the hardware structural example of the mobile terminal cooperation apparatus which concerns on Embodiment 1 and 2. FIG. 実施の形態1に係る移動経路履歴データの例を示す図。FIG. 5 is a diagram showing an example of travel route history data according to the first embodiment. 実施の形態1に係る追跡対象人物の移動経路履歴の例を示す図。The figure which shows the example of the movement path | route log | history of the tracking object person which concerns on Embodiment 1. FIG.

実施の形態1.
本実施の形態では、無線通信端末装置であるモバイル端末装置と複数の撮像装置と複数の無線通信機を含み、移動体を追跡するモバイル端末連携移動体追跡システムを説明する。
本実施の形態では、移動体を、モバイル端末装置を携行する人物とする。
以下では、モバイル端末装置を携行する、追跡対象の人物を追跡対象人物という。
本実施の形態に係るモバイル端末連携移動体追跡システムは、無線通信機の電波強度を利用して、モバイル端末装置を持つ追跡対象人物の移動経路予測を行い、追跡対象人物の予測移動経路を撮影可能な撮像装置に制御命令を行う。
Embodiment 1 FIG.
In the present embodiment, a mobile terminal cooperation mobile body tracking system that includes a mobile terminal apparatus that is a wireless communication terminal apparatus, a plurality of imaging apparatuses, and a plurality of wireless communication apparatuses and tracks a mobile body will be described.
In the present embodiment, the moving object is a person carrying the mobile terminal device.
Hereinafter, the person to be tracked who carries the mobile terminal device is referred to as a person to be tracked.
The mobile terminal cooperative mobile tracking system according to the present embodiment uses the radio field strength of a wireless communication device to perform a movement path prediction of a tracking target person having a mobile terminal device, and captures the predicted movement path of the tracking target person Provide control commands to possible imaging devices.

***構成の説明***
本実施の形態に係るモバイル端末連携移動体追跡システムは少なくとも、無線通信機能を持つモバイル端末装置、視野の異なる複数台の撮像装置、異なる位置に設置された複数の無線通信機、移動経路予測及び撮像装置の制御を行うモバイル端末連携装置がネットワークを介して接続された構成からなる。
モバイル端末装置と無線通信機の通信には、Wi−Fi、Bluetooth(登録商標)、Bluetooth(登録商標) Low Energy等の無線規格が用いられる。
なお、本実施の形態に係るモバイル端末連携移動体追跡システムは、インターネットを通じて監視制御装置と接続されていてもよい。
また、本実施の形態に係るモバイル端末連携移動体追跡システムは、インターネットを通じて他の装置(録画装置、表示装置、モバイル端末装置)と接続されていてもよい。
以下、図1〜図5を用いて、本実施の形態のモバイル端末連携移動体追跡システムの構成について説明する。
*** Explanation of configuration ***
The mobile terminal cooperation mobile body tracking system according to the present embodiment includes at least a mobile terminal device having a wireless communication function, a plurality of imaging devices having different fields of view, a plurality of wireless communication devices installed at different positions, a movement path prediction, and The mobile terminal cooperation apparatus which controls an imaging device consists of the structure connected via the network.
Wireless standards such as Wi-Fi, Bluetooth (registered trademark), and Bluetooth (registered trademark) Low Energy are used for communication between the mobile terminal device and the wireless communication device.
Note that the mobile terminal cooperation mobile body tracking system according to the present embodiment may be connected to the monitoring control device through the Internet.
In addition, the mobile terminal cooperative mobile tracking system according to the present embodiment may be connected to other devices (recording device, display device, mobile terminal device) through the Internet.
Hereinafter, the structure of the mobile terminal cooperation mobile body tracking system of this Embodiment is demonstrated using FIGS.

図1は、本実施の形態に係るモバイル端末連携移動体追跡システム1のシステム構成図である。   FIG. 1 is a system configuration diagram of a mobile terminal cooperation mobile body tracking system 1 according to the present embodiment.

本実施の形態に係るモバイル端末連携移動体追跡システム1は、モバイル端末装置2と無線通信機3〜3(以下、無線通信機3と総称する場合がある)、モバイル端末連携装置4、撮像装置5〜5(以下、撮像装置5と総称する場合がある)を備える。
なお、無線通信機3と撮像装置5の数は図1に示す例に限られない。
The mobile terminal cooperation mobile body tracking system 1 according to the present embodiment includes a mobile terminal device 2 and wireless communication devices 3 1 to 3 n (hereinafter may be collectively referred to as wireless communication device 3), a mobile terminal cooperation device 4, Imaging devices 5 1 to 5 n (hereinafter may be collectively referred to as imaging device 5) are provided.
The numbers of the wireless communication device 3 and the imaging device 5 are not limited to the example illustrated in FIG.

モバイル端末装置2は、追跡対象人物とともに移動する。
モバイル端末装置2は、無線通信機能を有する。
また、モバイル端末装置2は、無線通信機3〜3からの電波の電波強度を計測する機能も有する。
モバイル端末装置2は、無線端末装置の例に相当する。
また、モバイル端末装置2の詳細は、図2を参照して後述する。
The mobile terminal device 2 moves with the tracking target person.
The mobile terminal device 2 has a wireless communication function.
The mobile terminal device 2 also has a function of measuring the radio field intensity of radio waves from the wireless communication devices 3 1 to 3 n .
The mobile terminal device 2 corresponds to an example of a wireless terminal device.
Details of the mobile terminal device 2 will be described later with reference to FIG.

無線通信機3〜3は、モバイル端末連携移動体追跡システム1が追跡の対象としている対象エリアに、相互に離間されて配置されている。
無線通信機3〜3は、無線通信機能を有する。
また、無線通信機3〜3は、モバイル端末装置2からの電波の電波強度を計測する機能も有する。
無線通信機3〜3の詳細は、図3を参照して後述する。
The wireless communication devices 3 1 to 3 n are arranged to be separated from each other in a target area that is tracked by the mobile terminal cooperative mobile tracking system 1.
The wireless communication devices 3 1 to 3 n have a wireless communication function.
The wireless communication devices 3 1 to 3 n also have a function of measuring the radio field intensity of the radio wave from the mobile terminal device 2.
Details of the wireless communication devices 3 1 to 3 n will be described later with reference to FIG.

モバイル端末連携装置4は、モバイル端末装置2を所持する追跡対象人物の現在位置を推定し、当該追跡対象人物の移動経路を予測し、予測した移動経路を移動する当該追跡対象人物を撮影できる撮像装置5を選択し、選択した撮像装置5を制御する。
モバイル端末連携装置4は、移動体追跡装置の例に相当する。
モバイル端末連携装置4の詳細は、図4を参照して後述する。
The mobile terminal cooperation device 4 estimates the current position of the tracking target person possessing the mobile terminal device 2, predicts the movement path of the tracking target person, and can capture the tracking target person moving along the predicted movement path. The device 5 is selected and the selected imaging device 5 is controlled.
The mobile terminal cooperation device 4 corresponds to an example of a mobile body tracking device.
Details of the mobile terminal cooperation device 4 will be described later with reference to FIG.

撮像装置5〜5は、モバイル端末連携装置4からの制御に基づき、人物を撮影する。
撮像装置5〜5の詳細は、図5を参照して後述する。
撮像装置5〜5は、カメラとも表記する。
The imaging devices 5 1 to 5 n capture a person based on the control from the mobile terminal cooperation device 4.
Details of the imaging devices 5 1 to 5 n will be described later with reference to FIG.
The imaging devices 5 1 to 5 n are also referred to as cameras.

以下、モバイル端末装置2、無線通信機3、モバイル端末連携装置4、撮像装置5の機能構成を、図2〜図5を用いて説明する。   Hereinafter, functional configurations of the mobile terminal device 2, the wireless communication device 3, the mobile terminal cooperation device 4, and the imaging device 5 will be described with reference to FIGS.

<モバイル端末装置>
モバイル端末装置2はユーザID取得部21、センサ情報取得部22及び無線通信部23を備える(図2)。
モバイル端末装置2は、端末ごとに固有のユーザID(Identifier)を持ち、これをユーザID取得部21より取得する。
ユーザIDはモバイル端末連携装置4にて、追跡対象人物の個人情報、移動履歴等を参照するのに利用してもよい。
モバイル端末装置2は加速度センサ、地磁気センサ、ジャイロセンサ等を搭載し、センサ情報取得部22が、それぞれのセンサ値を取得する。
モバイル端末装置2は、無線通信部23を通して、無線通信機3と通信を行う。
無線通信部23は、無線の送受信、電波強度を測定する機能を備える。
<Mobile terminal device>
The mobile terminal device 2 includes a user ID acquisition unit 21, a sensor information acquisition unit 22, and a wireless communication unit 23 (FIG. 2).
The mobile terminal device 2 has a unique user ID (Identifier) for each terminal, and acquires this from the user ID acquisition unit 21.
The user ID may be used by the mobile terminal cooperation apparatus 4 to refer to personal information, movement history, etc. of the person to be tracked.
The mobile terminal device 2 includes an acceleration sensor, a geomagnetic sensor, a gyro sensor, and the like, and the sensor information acquisition unit 22 acquires each sensor value.
The mobile terminal device 2 communicates with the wireless communication device 3 through the wireless communication unit 23.
The wireless communication unit 23 has functions of wireless transmission / reception and measurement of radio wave intensity.

<無線通信機>
無線通信機3は、無線通信部31、データ取得部32及び内部通信部33を備える(図3)。
無線通信部31が、モバイル端末装置2と通信を行う。
データ取得部32は、モバイル端末装置2から送信されたデータを取得する。
内部通信部33は、モバイル端末連携装置4と通信を行う。
<Wireless communication device>
The wireless communication device 3 includes a wireless communication unit 31, a data acquisition unit 32, and an internal communication unit 33 (FIG. 3).
The wireless communication unit 31 communicates with the mobile terminal device 2.
The data acquisition unit 32 acquires data transmitted from the mobile terminal device 2.
The internal communication unit 33 communicates with the mobile terminal cooperation device 4.

<モバイル端末連携装置>
モバイル端末連携装置4は、内部通信部41、移動経路予測部42及び撮像装置制御部43を備える(図4)。
内部通信部41は、無線通信機3と通信を行う。
移動経路予測部42は、モバイル端末装置2から取得したデータを基に追跡対象人物の移動経路の予測を行う。
より具体的には、移動経路予測部42は、無線通信機3〜3の各々で計測された、モバイル端末装置2からの電波の電波強度又はモバイル端末装置2で計測された無線通信機3〜3の各々からの電波の電波強度の少なくともいずれかに基づき、追跡対象人物の現在位置を推定する。
更に、移動経路予測部42は、推定した追跡対象人物の現在位置から、当該追跡対象人物の移動経路を予測する。
移動経路予測部42により行われる処理は、移動経路予測ステップに相当する。
撮像装置制御部43は、予測した移動経路を基に、撮像装置5の制御を行う。
より具体的には、撮像装置制御部43は、撮像装置5〜5の各々の撮影可能範囲と、移動経路予測部42により予測された移動経路とに基づき、撮像装置5〜5の中から、移動経路を移動する追跡対象人物を撮影させる撮像装置5を選択する。
更に、撮像装置制御部43は、追跡対象人物を撮影させるための制御を、選択した撮像装置5に対して行う。
撮像装置制御部43により行われる処理は、撮像装置制御ステップに相当する。
なお、撮像装置5はネットワークケーブルもしくは同軸ケーブルを用いてモバイル端末連携装置4と接続される。
<Mobile terminal cooperation device>
The mobile terminal cooperation device 4 includes an internal communication unit 41, a movement route prediction unit 42, and an imaging device control unit 43 (FIG. 4).
The internal communication unit 41 communicates with the wireless communication device 3.
The movement route prediction unit 42 predicts the movement route of the tracking target person based on the data acquired from the mobile terminal device 2.
More specifically, the movement path prediction unit 42 is configured to measure the radio field intensity of the radio wave from the mobile terminal device 2 or the radio communication device measured by the mobile terminal device 2 measured by each of the radio communication devices 3 1 to 3 n. The current position of the person to be tracked is estimated based on at least one of the radio field intensities of the radio waves from 3 1 to 3 n .
Furthermore, the movement route prediction unit 42 predicts the movement route of the tracking target person from the estimated current position of the tracking target person.
The process performed by the movement route prediction unit 42 corresponds to a movement route prediction step.
The imaging device control unit 43 controls the imaging device 5 based on the predicted movement path.
More specifically, the imaging apparatus control unit 43, based on the imaging range of each of the imaging device 5 1 to 5 n, the moving path predicted by the movement path prediction section 42, the imaging device 5 1 to 5 n The imaging device 5 that captures the person to be tracked moving along the movement path is selected.
Further, the imaging device control unit 43 performs control for causing the tracking target person to be photographed with respect to the selected imaging device 5.
The process performed by the imaging device control unit 43 corresponds to an imaging device control step.
The imaging device 5 is connected to the mobile terminal cooperation device 4 using a network cable or a coaxial cable.

<撮像装置>
撮像装置5は、内部通信部51、PTZ(パン・チルト・ズーム)制御部52及び画像取得部53を有する(図5)。
内部通信部51は、通信ネットワークBを介してモバイル端末連携装置4と通信を行う。
PTZ制御部52では、モバイル端末連携装置4の指示に基づいて、撮像装置5のパン・チルト・ズームの制御を行う。
<Imaging device>
The imaging device 5 includes an internal communication unit 51, a PTZ (pan / tilt / zoom) control unit 52, and an image acquisition unit 53 (FIG. 5).
The internal communication unit 51 communicates with the mobile terminal cooperation device 4 via the communication network B.
The PTZ control unit 52 controls pan / tilt / zoom of the imaging device 5 based on an instruction from the mobile terminal cooperation device 4.

***動作の説明***
次に、本実施の形態に係るモバイル端末連携移動体追跡システム1の動作を説明する。
*** Explanation of operation ***
Next, the operation of the mobile terminal cooperative mobile body tracking system 1 according to the present embodiment will be described.

<モバイル端末装置2と無線通信機3の通信>
まず、モバイル端末装置2の無線通信部23から送信された無線の電波強度を無線通信機3の無線通信部31にて取得する。
本通信を行う際に、モバイル端末装置2のセンサ情報取得部22やユーザID取得部21からユーザのセンサ情報やユーザIDを取得し送信することも可能である。
その場合には、ユーザID、センサ情報を無線通信機3のデータ取得部32にて取得する。
上記の無線通信では、モバイル端末装置2が発した電波の電波強度を無線通信機3で測定しているが、無線通信機3が発した電波の電波強度をモバイル端末装置2で測定し、測定結果を無線通信機3に送信してもよい。
これらの方法により、モバイル端末装置2から接続可能範囲にある無線通信機3の設置個数分の電波強度を取得できる。
<Communication between mobile terminal device 2 and wireless communication device 3>
First, the radio communication unit 31 of the radio communication device 3 acquires the radio field intensity transmitted from the radio communication unit 23 of the mobile terminal device 2.
When performing this communication, it is also possible to acquire and transmit user sensor information and user ID from the sensor information acquisition unit 22 and the user ID acquisition unit 21 of the mobile terminal device 2.
In that case, the user ID and sensor information are acquired by the data acquisition unit 32 of the wireless communication device 3.
In the above wireless communication, the radio wave intensity of the radio wave emitted by the mobile terminal device 2 is measured by the radio communication device 3, but the radio wave intensity of the radio wave emitted by the radio communication device 3 is measured by the mobile terminal device 2 and measured. The result may be transmitted to the wireless communication device 3.
By these methods, the radio field intensity corresponding to the number of installed wireless communication devices 3 within the connectable range can be acquired from the mobile terminal device 2.

<無線通信機3とモバイル端末連携装置4の通信>
無線通信機3は、通信ネットワーク1を介してモバイル端末連携装置4にモバイル端末装置2から取得したデータ(電波強度、ユーザID、各種センサ情報)を内部通信部33より送信する。
モバイル端末連携装置4は、内部通信部41より上記のデータを取得する。
<Communication between the wireless communication device 3 and the mobile terminal cooperation device 4>
The wireless communication device 3 transmits data (radio wave intensity, user ID, various sensor information) acquired from the mobile terminal device 2 to the mobile terminal cooperation device 4 via the communication network 1 from the internal communication unit 33.
The mobile terminal cooperation device 4 acquires the above data from the internal communication unit 41.

<モバイル端末連携装置4の動作>
次に、モバイル端末連携装置4の動作例を図6〜図8を参照して説明する。
図6は、移動経路予測部42の内部構成例を示す。
図7は、撮像装置制御部43の内部構成例を示す。
図8は、モバイル端末連携装置4の動作フローを示す。
なお、図8の動作フローは実施の形態1を実現する処理の一例を示すものであり、実現方法を限定するものではない。
また、以下で説明するモバイル端末連携装置4の動作手順は、移動体追跡方法及び移動体追跡プログラムの例に相当する。
<Operation of Mobile Terminal Cooperation Device 4>
Next, an operation example of the mobile terminal cooperation device 4 will be described with reference to FIGS.
FIG. 6 illustrates an internal configuration example of the movement route prediction unit 42.
FIG. 7 shows an internal configuration example of the imaging device control unit 43.
FIG. 8 shows an operation flow of the mobile terminal cooperation device 4.
Note that the operation flow of FIG. 8 shows an example of processing for realizing the first embodiment, and does not limit the implementation method.
In addition, the operation procedure of the mobile terminal cooperation device 4 described below corresponds to an example of a moving body tracking method and a moving body tracking program.

内部通信部41が無線通信機3からユーザID、電波強度が含まれるデータを受信すると(S11)、追跡するモバイル端末装置が存在する場合(S12でYES)に、内部通信部41は無線通信機3からのデータを移動経路予測部42に転送する。
移動経路予測部42では、まずデータ取得部421が内部通信部41が取得したデータを受け取る(S13)。
When the internal communication unit 41 receives data including the user ID and the radio wave intensity from the wireless communication device 3 (S11), when there is a mobile terminal device to be tracked (YES in S12), the internal communication unit 41 is the wireless communication device. 3 is transferred to the movement route prediction unit 42.
In the movement route prediction unit 42, first, the data acquisition unit 421 receives data acquired by the internal communication unit 41 (S13).

次に、位置推定部422が、電波強度DB425を参照し、電波強度DB425から、電波強度についての学習データを取得する。
学習データには、学習により得られた、モバイル端末連携移動体追跡システム1の対象エリア内の複数地点における地点ごとの電波強度の値が示される。
上記で取得した学習データとデータ取得部421で取得した現在の電波強度の値を基に位置推定部422がモバイル端末装置2を所持する追跡対象人物の現在位置を推定する(S15)。
現在位置はモバイル端末連携移動体追跡システム1の対象エリアのマップ上における座標で表す。
電波強度の学習データは、対象エリア内の複数の地点の座標と、無線通信機3〜3の各々からの電波の計測値(電波強度の値)とが対応付けられたデータである。
つまり、対象エリア内の地点Aで計測した無線通信機3〜3の各々からの電波の電波強度の値、対象エリア内の地点Bで計測した無線通信機3〜3の各々からの電波の電波強度の値というように、地点ごとに、その地点で計測した電波強度の値が示される。
また、学習データは、対象エリア内の複数の地点における各々の地点から送信された電波の無線通信機3〜3の各々での計測値(電波強度の値)としてもよい。
つまり、対象エリア内の地点Aから送信した電波を無線通信機3〜3の各々で計測した電波強度の値、対象エリア内の地点Bから送信した電波を無線通信機3〜3の各々で計測した電波強度の値というように、地点ごとに、その地点から送信された電波の無線通信機3〜3の各々で計測した電波強度の値が示されていてもよい。
学習データは、このように、予め計測した電波強度の値が示されるが、位置推定部422により推定された追跡対象人物の位置(座標)とデータ取得部421により取得された電波強度を新たに学習データに追加してもよい。
位置推定部422は、データ取得部421により取得された無線通信機3〜3の電波強度の値と、学習データの地点ごとの無線通信機3〜3の電波強度の値とを比較し、データ取得部421により取得された電波強度の値と最も近似する値の地点を追跡対象人物の現在位置と推定する。
Next, the position estimation unit 422 refers to the radio wave intensity DB 425 and acquires learning data regarding the radio wave intensity from the radio wave intensity DB 425.
In the learning data, the value of the radio wave intensity at each point at a plurality of points in the target area of the mobile terminal cooperative mobile tracking system 1 obtained by learning is shown.
Based on the learning data acquired above and the value of the current radio wave intensity acquired by the data acquisition unit 421, the position estimation unit 422 estimates the current position of the tracking target person holding the mobile terminal device 2 (S15).
The current position is represented by coordinates on the map of the target area of the mobile terminal cooperative mobile tracking system 1.
The radio wave intensity learning data is data in which the coordinates of a plurality of points in the target area are associated with radio wave measurement values (radio wave intensity values) from the wireless communication devices 3 1 to 3 n .
That is, the value of the radio wave intensity from each of the wireless communication devices 3 1 to 3 n measured at the point A in the target area, and from each of the wireless communication devices 3 1 to 3 n measured at the point B in the target area. For each point, the value of the radio field intensity measured at that point is shown as the value of the radio field intensity of the radio wave.
Also, the learning data may be a measured value at each of the transmitted radio waves of the wireless communication device 3 1 to 3 n from each point in the plurality of points in the target area (the value of radio field intensity).
That is, the radio wave intensity value measured by each of the wireless communication devices 3 1 to 3 n for the radio wave transmitted from the point A in the target area, and the radio wave transmitted from the point B in the target area to the wireless communication devices 3 1 to 3 n For each point, the value of the radio wave intensity measured by each of the radio communication devices 3 1 to 3 n of the radio wave transmitted from the point may be indicated.
In this way, the learning data shows the value of the radio wave intensity measured in advance, but the position (coordinates) of the tracking target person estimated by the position estimation unit 422 and the radio wave intensity acquired by the data acquisition unit 421 are newly set. You may add to learning data.
The position estimation unit 422 uses the radio field intensity values of the wireless communication devices 3 1 to 3 n acquired by the data acquisition unit 421 and the radio field intensity values of the wireless communication devices 3 1 to 3 n for each point of the learning data. By comparison, a point having a value closest to the value of the radio wave intensity acquired by the data acquisition unit 421 is estimated as the current position of the tracking target person.

位置推定部422にて現在の位置座標を推定した後は、データ抽出部423が、移動経路履歴DB426を参照し、位置推定部422により推定された位置に関する移動経路履歴データを取得する(S16)。
データ抽出部423は、移動経路履歴データとして、追跡対象人物の現在位置までの移動軌跡の情報を取得してもよい。
移動経路履歴データは、図18に示すように、追跡対象人物の地図上における座標(x,y)の時刻変化を記録したデータである。
移動経路履歴データ上の座標はモバイル端末装置2と無線通信機3が通信を行った際の電波強度を用いて推定した追跡対象人物の座標である。
図18の移動経路履歴データは、図19に示す、追跡対象人物の移動経路履歴を表している。
また、データ抽出部423は、追跡対象人物のユーザIDを基にして、当該追跡対象人物の過去の現在位置からの移動先の情報を取得してもよい。
更に、データ抽出部423は、当該追跡対象人物と同じ属性(年齢、性別、勤務地、目的地、センサ情報を基にした移動速度、移動方向)を有する他の人物の現在位置からの移動先の情報を取得してもよい。
次に、経路予測部424が、データ抽出部423にて抽出された移動経路履歴データを基に、追跡対象人物の移動経路を予測する(S17)。
つまり、経路予測部424は、追跡対象人物の現在位置までの移動軌跡、過去における追跡対象人物の現在位置からの移動先、追跡対象人物と同じ属性を有する他の人物の現在位置からの移動先の少なくともいずれかに基づいて、追跡対象人物の現在位置からの移動経路を予測する。
また、経路予測部424は、モバイル端末装置2の加速度センサ、地磁気センサ、ジャイロセンサ等で計測した追跡対象人物の移動方向、移動速度等を用いて、追跡対象人物の現在位置からの移動経路を予測するようにしてもよい。
なお、経路予測部424の移動経路の予測方法の一例は後述する。
また、移動経路履歴データは、追跡対象人物の属性によって重みづけ(本人の移動経路履歴であれば重みを大きくする)することで、より精度よく移動経路を予測することが可能になる。
移動経路予測部42では上記の予測処理を細かい時間単位で繰り返し行い、予測移動経路を常に更新する。
次に、移動経路予測部42は、予測した移動経路を移動経路履歴DB426に登録する(S18)。
次に、移動経路予測部42は、予測した移動経路データを撮像装置制御部43に送信する。
After the current position coordinates are estimated by the position estimation unit 422, the data extraction unit 423 refers to the movement route history DB 426 and acquires movement route history data related to the position estimated by the position estimation unit 422 (S16). .
The data extraction unit 423 may acquire information on the movement locus up to the current position of the person to be tracked as movement route history data.
As shown in FIG. 18, the movement route history data is data in which the time change of coordinates (x, y) on the map of the person to be tracked is recorded.
The coordinates on the movement route history data are the coordinates of the person to be tracked estimated using the radio wave intensity when the mobile terminal device 2 and the wireless communication device 3 communicate.
The movement route history data of FIG. 18 represents the movement route history of the tracking target person shown in FIG.
Further, the data extraction unit 423 may acquire information on the movement destination from the past current position of the tracking target person based on the user ID of the tracking target person.
Further, the data extraction unit 423 moves the destination from the current position of another person having the same attributes (age, gender, work place, destination, movement speed and movement direction based on sensor information) as the person to be tracked. May be obtained.
Next, the route prediction unit 424 predicts the movement route of the tracking target person based on the movement route history data extracted by the data extraction unit 423 (S17).
That is, the route prediction unit 424 moves the tracking target person to the current position, the movement destination of the tracking target person from the current position in the past, and the movement destination of the other person having the same attribute as the tracking target person from the current position. Based on at least one of the above, the movement path from the current position of the person to be tracked is predicted.
In addition, the route prediction unit 424 uses the movement direction, movement speed, and the like of the tracking target person measured by the acceleration sensor, the geomagnetic sensor, the gyro sensor, or the like of the mobile terminal device 2 to determine the movement path from the current position of the tracking target person. You may make it predict.
An example of a method for predicting the movement route of the route prediction unit 424 will be described later.
Further, the movement route history data is weighted according to the attribute of the person to be tracked (the weight is increased in the case of the person's movement route history), so that the movement route can be predicted with higher accuracy.
The movement route prediction unit 42 repeatedly performs the above prediction processing in fine time units, and constantly updates the prediction movement route.
Next, the travel route prediction unit 42 registers the predicted travel route in the travel route history DB 426 (S18).
Next, the movement route prediction unit 42 transmits the predicted movement route data to the imaging device control unit 43.

撮像装置制御部43では、移動経路予測データ取得部431が移動経路予測部42から、移動経路予測データを取得する。
次に、撮像装置制御情報生成部432が、撮像装置制御情報を生成する(S19)。
具体的には、撮像装置制御情報生成部432が、周辺地図DB434と撮像装置制御情報DB435を参照して、各撮像装置5の撮影可能範囲と現在の撮影範囲を取得する。
次に、撮像装置制御情報生成部432は、各撮像装置5の撮影可能範囲と、移動経路予測データ取得部431が取得した追跡対象人物の移動経路とを照合し、移動経路が撮影可能範囲にある撮像装置5を、追跡対象人物を撮影させる撮像装置5として選択する。
そして、撮像装置制御情報生成部432は、選択した撮像装置5のPTZを制御するための撮像装置制御情報を生成する。
撮像装置制御情報DB435には、各撮像装置5の設置位置、設置方向と現在のPTZ情報、撮像可能範囲等がデータとして保存されている。
撮像装置制御情報生成部432は、これを周辺地図の情報と合わせることにより、追跡対象人物の地図上での移動経路が求まったときに追跡対象人物を撮影する撮像装置5及びそのPTZを決定することができる。
制御命令部433は、撮像装置制御情報生成部432より制御する撮像装置5の番号を指定し(複数も可)、内部通信部436を介して指定した撮像装置5に撮像装置制御情報を送信する(S20)。
また、制御命令部433は、このとき撮像装置制御情報を撮像装置制御情報DB435にも登録しておく。
In the imaging device control unit 43, the travel route prediction data acquisition unit 431 acquires travel route prediction data from the travel route prediction unit 42.
Next, the imaging device control information generation unit 432 generates imaging device control information (S19).
Specifically, the imaging device control information generation unit 432 refers to the surrounding map DB 434 and the imaging device control information DB 435, and acquires the shootable range and the current shooting range of each imaging device 5.
Next, the imaging device control information generation unit 432 collates the shootable range of each imaging device 5 with the movement route of the tracking target person acquired by the movement route prediction data acquisition unit 431, and the movement route becomes the shootable range. A certain imaging device 5 is selected as the imaging device 5 that captures the person to be tracked.
Then, the imaging device control information generation unit 432 generates imaging device control information for controlling the PTZ of the selected imaging device 5.
In the imaging device control information DB 435, the installation position, installation direction, current PTZ information, imaging range, and the like of each imaging device 5 are stored as data.
The imaging device control information generation unit 432 determines the imaging device 5 that captures the tracking target person and its PTZ when the movement path on the map of the tracking target person is obtained by combining this with the information of the surrounding map. be able to.
The control command unit 433 designates the number of the imaging device 5 to be controlled by the imaging device control information generation unit 432 (multiple is possible), and transmits the imaging device control information to the designated imaging device 5 via the internal communication unit 436. (S20).
At this time, the control command unit 433 also registers the imaging device control information in the imaging device control information DB 435.

<撮像装置5の動作>
撮像装置5では、内部通信部51が、撮像装置制御情報を取得する。
内部通信部51は、撮像装置制御情報をPTZ制御部52に転送する。
PTZ制御部52は、撮像装制御情報を基に、撮像装置5のPTZの値を変更する。
また、画像取得部53が、撮影した画像を取得し、取得した画像を符号化し、符号化により得られたデータを内部通信部51を介して、モバイル端末連携装置4あるいは監視制御装置等に送信する。
<Operation of Imaging Device 5>
In the imaging device 5, the internal communication unit 51 acquires imaging device control information.
The internal communication unit 51 transfers the imaging device control information to the PTZ control unit 52.
The PTZ control unit 52 changes the PTZ value of the imaging device 5 based on the imaging device control information.
In addition, the image acquisition unit 53 acquires a captured image, encodes the acquired image, and transmits data obtained by the encoding to the mobile terminal cooperation device 4 or the monitoring control device via the internal communication unit 51. To do.

<システム全体の動作>
図9に、システム全体のシーケンス図を示す。
図9は、実施の形態1の動作の一例を示すものであり、実現方法を限定するものではない。
まず、モバイル端末装置2から各無線通信機3〜3に無線信号を送信する。
無線通信機3は受信後、取得情報をモバイル端末連携装置4に送信する。
モバイル端末連携装置4は取得情報の受信後、追跡対象人物の現在位置の推定、これを基にした移動経路の予測、移動経路の予測結果の移動経路履歴DB426への記録、撮像装置5の選択、撮像装置制御情報の生成を行う。
更に、モバイル端末連携装置4は、選択した撮像装置5へ撮像装置制御情報を送信する。
撮像装置5は、撮像装置制御情報を受信した場合は、撮像装置制御情報に基づいてPTZの制御を行う。
その後、撮像装置5は撮影した画像情報をモバイル端末連携装置4や監視制御装置に送信する。
<Operation of the entire system>
FIG. 9 shows a sequence diagram of the entire system.
FIG. 9 shows an example of the operation of the first embodiment, and does not limit the realization method.
First, a wireless signal is transmitted from the mobile terminal device 2 to each of the wireless communication devices 3 1 to 3 n .
After receiving, the wireless communication device 3 transmits the acquired information to the mobile terminal cooperation device 4.
After receiving the acquired information, the mobile terminal cooperation device 4 estimates the current position of the person to be tracked, predicts the travel route based on this, records the travel route prediction result in the travel route history DB 426, and selects the imaging device 5 The imaging device control information is generated.
Further, the mobile terminal cooperation device 4 transmits the imaging device control information to the selected imaging device 5.
When receiving the imaging device control information, the imaging device 5 controls the PTZ based on the imaging device control information.
Thereafter, the imaging device 5 transmits the captured image information to the mobile terminal cooperation device 4 and the monitoring control device.

<システムの配置例>
図10に、本実施の形態1に係る無線通信機3と撮像装置5の配置例を示す。
図10は、実施の形態1の配置の一例を示すものであり、配置方法を限定するものではない。
追跡対象人物はモバイル端末装置2を保持している。
無線通信機3は天井等に設置する。
無線通信機3と撮像装置5はネットワークを介してモバイル端末連携装置4と接続されている。
<Example of system layout>
FIG. 10 shows an arrangement example of the wireless communication device 3 and the imaging device 5 according to the first embodiment.
FIG. 10 shows an example of the arrangement according to the first embodiment, and does not limit the arrangement method.
The person to be tracked holds the mobile terminal device 2.
The wireless communication device 3 is installed on the ceiling or the like.
The wireless communication device 3 and the imaging device 5 are connected to the mobile terminal cooperation device 4 via a network.

<経路予測部424による移動経路の予測方法>
以下では、図8のS17において行われる追跡対象人物の現在位置からの移動経路の予測方法の一例を説明する。
<Method of Predicting Travel Route by Route Prediction Unit 424>
Hereinafter, an example of a method for predicting the movement path from the current position of the person to be tracked performed in S17 of FIG. 8 will be described.

1)追跡対象人物が過去に対象エリアを通ったことがある場合
経路予測部424は追跡対象人物の現在位置の座標を取得すると、追跡対象人物が対象エリアを通った過去の移動経路履歴データを探索する。
次に、経路予測部424は、探索により得られた過去の移動経路履歴データのそれぞれから現在位置に最も近い座標を取得する。
次に、経路予測部424は、以下の2つのうちのいずれかの方法にて、移動経路を予測する。
1) When the tracking target person has passed through the target area in the past When the route prediction unit 424 obtains the coordinates of the current position of the tracking target person, the past movement route history data that the tracking target person passed through the target area is obtained. Explore.
Next, the route prediction unit 424 acquires the coordinates closest to the current position from each of the past movement route history data obtained by the search.
Next, the route prediction unit 424 predicts the movement route by one of the following two methods.

1−1)過去の移動経路との類似度を算出し、類似度が最も近い移動経路を参照する方法
経路予測部424は、追跡対象人物の現在の移動経路履歴データから、現在位置までの追跡対象人物の移動経路(Mフレーム前まで)を取得する。
また、経路予測部424は、追跡対象人物の過去の移動経路履歴データのそれぞれから、現在位置に最も近い座標までの追跡対象人物の移動経路(Mフレーム前まで)を取得する。
そして、経路予測部424は、取得した移動経路の類似度を算出する。
経路予測部424は、例えば、現在の移動経路と過去の移動経路との同一フレームの座標間の距離を足し合わせて、現在の移動経路と過去の移動経路との類似度を算出することが考えられる。
この方法では、座標間の距離の総和が小さいほど、現在の移動経路と過去の移動経路との類似度が高い。
なお、現在の移動経路と過去の移動経路との間で同一のフレームが無い場合は、経路予測部424は、前後のフレームを用いて補完する。
経路予測部424は、過去の移動経路ごとに、現在の移動経路との類似度を算出し、類似度が最も高い過去の移動経路を選出する。
そして、経路予測部424は、追跡対象人物の次のフレームでの予測移動位置は現在の移動速度をもって、この選出した移動経路を進んだ位置とする。
次フレーム以降の予測移動位置は、次フレームで辿り着く予測移動位置に対し、同じ処理を繰り返すことで求めることができる。
1-1) Method of calculating similarity with past movement route and referring to movement route with the closest similarity The route prediction unit 424 tracks the current movement route history data of the tracking target person to the current position. The movement path (up to M frames before) of the target person is acquired.
In addition, the route prediction unit 424 acquires the movement route (up to M frames before) of the tracking target person to the coordinates closest to the current position from each of the past movement route history data of the tracking target person.
Then, the route prediction unit 424 calculates the similarity of the acquired travel route.
For example, the route predicting unit 424 may calculate the similarity between the current travel route and the past travel route by adding the distances between the coordinates of the same frame of the current travel route and the past travel route. It is done.
In this method, the smaller the sum of the distances between coordinates, the higher the similarity between the current travel path and the past travel path.
Note that if there is no identical frame between the current travel route and the past travel route, the route prediction unit 424 complements using the previous and subsequent frames.
The route prediction unit 424 calculates the similarity with the current travel route for each past travel route, and selects the past travel route with the highest similarity.
Then, the route predicting unit 424 sets the predicted movement position in the next frame of the person to be tracked as the advanced position on the selected movement route with the current movement speed.
The predicted movement position after the next frame can be obtained by repeating the same process for the predicted movement position that arrives at the next frame.

1−2)過去の移動経路との類似度を算出し、類似度によって重み付けを行う方法
経路予測部424は、上記の1−1)の類似度の計算を行い、ある閾値以上の類似度(座標間の距離の総和が特定の値以下)をもつ過去の移動経路をいくつか選出する。
更に、経路予測部424は、類似度によって、選出した過去の移動経路に重み付けを行う。
そして、経路予測部424は、追跡対象人物の次のフレームでの予測移動位置は、選出された過去の移動経路での移動先の位置の重み付き平均とする。
1-2) Method of calculating similarity with past travel route and weighting based on similarity The route prediction unit 424 calculates the similarity in 1-1) above, and calculates a similarity equal to or greater than a certain threshold ( Select several past movement paths that have a sum of distances between coordinates below a specific value).
Further, the route prediction unit 424 weights the selected past movement route according to the similarity.
Then, the route prediction unit 424 sets the predicted movement position in the next frame of the tracking target person as a weighted average of the positions of the movement destinations in the selected past movement route.

2)追跡対象人物が初めて対象エリアを通る場合
経路予測部424は、追跡対象人物の現在位置の座標、現在の移動速度、現在の進行方位を用いて、次のフレームの時刻に辿りつくであろう予測移動位置を計算する。
予測移動位置の計算は、既存の予測計算方法を用いることができる。
なお、追跡対象人物のデータで参照するものが無い場合は、経路予測部424は、追跡対象人物に類似する類似ユーザのデータを利用する。
経路予測方法については、上記の「1)追跡対象人物が過去に対象エリアを通ったことがある場合」と同じ方法を用いることができる。
つまり、経路予測部424は、類似ユーザの移動履歴データを利用して同様の処理を行う。
次に、類似ユーザの選出方法を説明する。
[類似ユーザの選出]
追跡対象人物が目的地を登録している場合に、経路予測部424は、追跡対象人物の目的地と同じ又は近隣の目的地が登録されている他のユーザを類似ユーザとして選出する。
目的地は、図18に示すように、例えば移動経路履歴データに登録されている。
類似ユーザが多数いる場合は、経路予測部424は、追跡対象人物の移動速度や個人データ(性別、年齢等)に近いユーザを優先して選出する。
このようにすることにより、予測移動位置の推定精度が向上する。
2) When the tracking target person passes through the target area for the first time The route prediction unit 424 uses the coordinates of the current position of the tracking target person, the current moving speed, and the current traveling direction to reach the time of the next frame. Calculate the predicted wax movement position.
For the calculation of the predicted movement position, an existing prediction calculation method can be used.
In addition, when there is nothing to be referred to in the tracking target person data, the route prediction unit 424 uses similar user data similar to the tracking target person.
As for the route prediction method, the same method as “1) When the tracking target person has passed through the target area in the past” can be used.
That is, the route prediction unit 424 performs the same processing using the movement history data of similar users.
Next, a method for selecting similar users will be described.
[Select similar users]
When the tracking target person registers the destination, the route prediction unit 424 selects another user who has registered the same or a nearby destination as the destination of the tracking target person as a similar user.
As shown in FIG. 18, the destination is registered in, for example, travel route history data.
When there are a lot of similar users, the route prediction unit 424 preferentially selects users who are close to the movement speed of the person to be tracked and personal data (gender, age, etc.).
By doing so, the estimation accuracy of the predicted movement position is improved.

***実施の形態の効果***
以上のように、本実施の形態では、画像解析ベースでなく、地図上での追跡対象人物の移動経路を把握するようにしているため、画像上で遮蔽物により追跡対象人物が隠れており追跡ができない場合にも追跡対象人物の追跡を継続することができる。
このように、本実施の形態によれば、継続的に追跡対象人物を追跡することができるため、次に追跡対象人物が画像上に出現したときにもスムーズに画像に収めることができる。
また、移動経路の予測においては、GPS(Global Positioning System)を利用せず、無線通信の電波強度を用いているため、駅構内や商用施設等の屋内でも追跡対象人物の移動経路を予測できる。
また、本実施の形態では、地図上での追跡対象人物の所在位置を取得でき、各撮像装置の設置情報、PTZ制御情報から地図上での撮像範囲を推定できることから、画像内に映っている追跡対象人物の画像内でのおおよその位置が特定できる。
*** Effect of the embodiment ***
As described above, in this embodiment, since the movement path of the person to be tracked on the map is grasped instead of the image analysis base, the person to be tracked is hidden by the shield on the image and is tracked. The tracking of the tracking target person can be continued even when the user cannot perform the tracking.
As described above, according to the present embodiment, the tracking target person can be tracked continuously, so that the next time the tracking target person appears on the image can be smoothly captured in the image.
Moreover, in the prediction of the movement route, the GPS (Global Positioning System) is not used, and the radio wave intensity of the wireless communication is used. Therefore, the movement route of the person to be tracked can be predicted even in a station premises or a commercial facility.
Further, in the present embodiment, the location of the tracking target person on the map can be acquired, and the imaging range on the map can be estimated from the installation information and PTZ control information of each imaging device, so that it is reflected in the image. The approximate position in the image of the person to be tracked can be specified.

実施の形態2.
以上の実施の形態1では、無線電波の電波強度のみで追跡対象人物の移動経路予測および、撮像装置の制御を行ったものであるが、次にカメラで取得した画像を画像解析装置によって解析した結果も統合して、移動経路を予測する実施の形態を示す。
本実施の形態に係るモバイル端末連携移動体追跡システムでは、撮像装置で取得した画像を解析する画像解析装置を撮像装置内、あるいは撮像装置とネットワークで接続された場所に設置しておく。
そして、電波強度による移動経路の推定だけでなく、画像上に映る追跡対象人物の動きも用いて、推定現在位置の補正、撮像装置のPTZ制御の補正を行う。
Embodiment 2. FIG.
In the first embodiment described above, the movement path prediction of the tracking target person and the control of the imaging device are performed only by the radio wave intensity. Next, the image acquired by the camera is analyzed by the image analysis device. An embodiment in which results are also integrated to predict a movement route will be described.
In the mobile terminal cooperative moving body tracking system according to the present embodiment, an image analysis device that analyzes an image acquired by the imaging device is installed in the imaging device or at a location connected to the imaging device via a network.
Then, not only the estimation of the moving path based on the radio wave intensity but also the movement of the tracking target person shown on the image is used to correct the estimated current position and the PTZ control of the imaging apparatus.

以下、図11〜図14を用いて本実施の形態のモバイル端末連携移動体追跡システムの構成について説明する。   Hereinafter, the structure of the mobile terminal cooperation mobile body tracking system of this Embodiment is demonstrated using FIGS. 11-14.

***構成の説明***
図11に、本実施の形態に係るモバイル端末連携移動体追跡システム6のシステム構成図を示す。
本実施の形態に係るモバイル端末連携移動体追跡システム6においても、モバイル端末装置2、無線通信機3および通信ネットワークA、無線通信回線は同様のため詳細は省略する。
また、その他の装置についても実施の形態1との差分のみ記載する。
なお、撮像装置9〜9は、以下、撮像装置9と総称する場合がある。
*** Explanation of configuration ***
In FIG. 11, the system block diagram of the mobile terminal cooperation mobile body tracking system 6 which concerns on this Embodiment is shown.
Also in the mobile terminal cooperative mobile tracking system 6 according to the present embodiment, the mobile terminal device 2, the wireless communication device 3, the communication network A, and the wireless communication line are the same, and the details are omitted.
For other devices, only the differences from the first embodiment are described.
Hereinafter, the imaging devices 9 1 to 9 n may be collectively referred to as the imaging device 9.

<モバイル端末連携装置7>
図12に示すように、モバイル端末連携装置7は、内部通信部71、追跡対象データ取得部72、移動経路予測部73及び撮像装置制御部74を備える。
本実施の形態のモバイル端末連携装置7は、画像解析装置8と通信ネットワークCを介して接続される。
内部通信部71は、通信ネットワークCを介して、撮像装置9とのデータの送受信に加え、画像解析装置8とのデータの送受信を行う。
本実施の形態においても、モバイル端末連携装置7は、移動体追跡装置の例に相当する。
<Mobile terminal cooperation device 7>
As illustrated in FIG. 12, the mobile terminal cooperation device 7 includes an internal communication unit 71, a tracking target data acquisition unit 72, a movement route prediction unit 73, and an imaging device control unit 74.
The mobile terminal cooperation device 7 of the present embodiment is connected to the image analysis device 8 via the communication network C.
The internal communication unit 71 transmits and receives data to and from the image analysis apparatus 8 in addition to transmission and reception of data to and from the imaging device 9 via the communication network C.
Also in the present embodiment, the mobile terminal cooperation device 7 corresponds to an example of a mobile tracking device.

<画像解析装置8>
図13に示すように、画像解析装置8は、内部通信部81、画像データ取得部82及び画像解析部83を備える。
画像データ取得部82は、内部通信部81より通信ネットワークCを経由して撮像装置9〜9が撮影した画像データを取得する。
画像解析部83は、画像データ取得部82の取得した画像データの解析を行う。
<Image analysis device 8>
As shown in FIG. 13, the image analysis device 8 includes an internal communication unit 81, an image data acquisition unit 82, and an image analysis unit 83.
The image data acquisition unit 82 acquires image data captured by the imaging devices 9 1 to 9 n from the internal communication unit 81 via the communication network C.
The image analysis unit 83 analyzes the image data acquired by the image data acquisition unit 82.

<撮像装置9>
図14に示すように、撮像装置9は、内部通信部91、PTZ(パン・チルト・ズーム)制御部92及び画像取得部93を有する。
内部通信部91は、通信ネットワークCを介して、モバイル端末連携装置7と通信を行う他、画像解析装置8と通信を行う。
PTZ制御部92は、モバイル端末連携装置7の指示を基に、撮像装置9のパン・チルト・ズームの制御を行う。
画像取得部93は、撮像装置9で撮影した画像を取得し、内部通信部91から通信ネットワークCを介して画像解析装置8に送信する。
<Imaging device 9>
As illustrated in FIG. 14, the imaging device 9 includes an internal communication unit 91, a PTZ (pan / tilt / zoom) control unit 92, and an image acquisition unit 93.
The internal communication unit 91 communicates with the image analysis device 8 in addition to communicating with the mobile terminal cooperation device 7 via the communication network C.
The PTZ control unit 92 controls pan / tilt / zoom of the imaging device 9 based on an instruction from the mobile terminal cooperation device 7.
The image acquisition unit 93 acquires an image captured by the imaging device 9 and transmits the image from the internal communication unit 91 to the image analysis device 8 via the communication network C.

***動作の説明***
次に、本実施の形態に係るモバイル端末連携移動体追跡システム6の動作を説明する。
なお、下記の2項目の動作ついては、実施の形態1と同様であるため説明を省略する。1)モバイル端末装置2と無線通信機3との間の通信
2)無線通信機3とモバイル端末連携装置4との間の通信
*** Explanation of operation ***
Next, the operation of the mobile terminal cooperative moving body tracking system 6 according to the present embodiment will be described.
Note that the operations of the following two items are the same as those in the first embodiment, and thus description thereof is omitted. 1) Communication between the mobile terminal device 2 and the wireless communication device 3 2) Communication between the wireless communication device 3 and the mobile terminal cooperation device 4

<撮像装置9の動作>
撮像装置9は内部通信部91より、撮像装置制御情報を取得する。
PTZ制御部92では、取得した撮像装置制御情報を基に、撮像装置9のPTZの値を変更する。
また、画像取得部93は、撮影した撮影画像を取得し、これを符号化し、符号化により得られたデータを内部通信部51を介して、画像解析装置8およびモバイル端末連携装置4あるいは監視制御装置等に送信する。
<Operation of Imaging Device 9>
The imaging device 9 acquires imaging device control information from the internal communication unit 91.
The PTZ control unit 92 changes the PTZ value of the imaging device 9 based on the acquired imaging device control information.
Further, the image acquisition unit 93 acquires a captured image, encodes the image, and transmits the data obtained by the encoding via the internal communication unit 51 to the image analysis device 8 and the mobile terminal cooperation device 4 or monitoring control. Send to device etc.

<画像解析装置8の動作>
画像解析装置8では、内部通信部81を介して、画像データ取得部82が、撮像装置9から送信されたデータを取得する。
そして、画像データ取得部82は、当該データを復号し、撮像装置9で撮影された撮影画像を画像解析部83に送信する。
画像解析部83は、モバイル端末連携装置7から送信された、追跡対象のデータ(画像、性別、年齢等)を取得する。
更に、画像解析部83は、画像データ取得部82から撮像装置9で撮影された撮影画像を取得し、撮影画像内から追跡対象人物の画像を検出する。
そして、画像解析部83は、画像上での追跡対象人物の位置、追跡対象人物の動き情報を解析し、これを基にした地図上での追跡対象人物の現在位置を推定し、更に、追跡対象人物の移動方向を推定する。
そして、画像解析部83は、画像上での追跡対象人物の位置、追跡対象人物の動き情報、追跡対象人物の推定現在位置、推定移動方向、撮影画像を取得した撮像装置9の情報、検出した追跡対象の画像等をモバイル端末連携装置7に送信する。
<Operation of Image Analysis Device 8>
In the image analysis device 8, the image data acquisition unit 82 acquires data transmitted from the imaging device 9 via the internal communication unit 81.
Then, the image data acquisition unit 82 decodes the data and transmits the captured image captured by the imaging device 9 to the image analysis unit 83.
The image analysis unit 83 acquires tracking target data (image, gender, age, etc.) transmitted from the mobile terminal cooperation device 7.
Further, the image analysis unit 83 acquires a captured image captured by the imaging device 9 from the image data acquisition unit 82, and detects an image of the tracking target person from the captured image.
Then, the image analysis unit 83 analyzes the position of the tracking target person on the image and the movement information of the tracking target person, estimates the current position of the tracking target person on the map based on this, and further performs tracking. The moving direction of the target person is estimated.
Then, the image analysis unit 83 detects the position of the tracking target person on the image, the movement information of the tracking target person, the estimated current position of the tracking target person, the estimated moving direction, and the information of the imaging device 9 that acquired the captured image. The tracking target image or the like is transmitted to the mobile terminal cooperation device 7.

<モバイル端末連携装置7の動作>
モバイル端末連携装置7の移動経路予測部73の内部構成は、図6に示す移動経路予測部42と同様である。
ただし、データ取得部421は、モバイル端末装置2から送信された情報に加え、画像解析装置8から送信されたデータも取得する。
取得するデータは上記の画像解析装置8の動作に記載の通りである。
位置推定部422は、実施の形態1で記載した電波強度による方法で追跡対象人物の現在位置を推定するとともに、例えば、電波強度により推定した追跡対象人物の現在位置を、画像解析部83で推定された追跡対象人物の現在位置により補正する。
現在位置の補正方法の一例は後述する。
また、移動履歴情報DB426には、実施の形態1のデータに加え、画像解析装置8から取得したデータ(上記記載済)も保存する。
データ抽出部423では、実施の形態1で利用した情報以外に、画像解析装置8から取得した情報も含めて、必要となる学習データを抽出する。
また、経路予測部424は、モバイル端末装置2の加速度センサ、地磁気センサ、ジャイロセンサ等で計測した追跡対象人物の移動方向の代わりに、画像解析部83で推定された追跡対象物の移動方向を用いて、追跡対象人物の移動経路を予測することができる。
その他の経路予測部424の動作は実施の形態1と同様である。
撮像装置制御部43の動作は実施の形態1と同様のため省略する。
<Operation of Mobile Terminal Cooperation Device 7>
The internal configuration of the movement route prediction unit 73 of the mobile terminal cooperation device 7 is the same as that of the movement route prediction unit 42 shown in FIG.
However, the data acquisition unit 421 also acquires data transmitted from the image analysis device 8 in addition to the information transmitted from the mobile terminal device 2.
The data to be acquired is as described in the operation of the image analysis device 8 described above.
The position estimation unit 422 estimates the current position of the tracking target person using the method based on the radio wave intensity described in the first embodiment. For example, the image analysis unit 83 estimates the current position of the tracking target person estimated based on the radio wave intensity. Correction is performed based on the current position of the tracked person.
An example of the current position correction method will be described later.
In addition to the data of the first embodiment, the movement history information DB 426 also stores data acquired from the image analysis device 8 (described above).
The data extraction unit 423 extracts necessary learning data including information acquired from the image analysis apparatus 8 in addition to the information used in the first embodiment.
In addition, the route prediction unit 424 uses the movement direction of the tracking target estimated by the image analysis unit 83 instead of the movement direction of the tracking target person measured by the acceleration sensor, the geomagnetic sensor, the gyro sensor, or the like of the mobile terminal device 2. It is possible to predict the movement path of the tracking target person.
The other operations of the route prediction unit 424 are the same as those in the first embodiment.
Since the operation of the imaging device control unit 43 is the same as that of the first embodiment, the description thereof is omitted.

図15にモバイル端末連携装置7の動作フローを示す。
図15の動作フローは実施の形態2を実現する処理の一例を示すものであり、実現方法を限定するものではない。
図15においてS31〜S34は図10のS11〜S14と同じであるため、説明を省略する。
S35では、移動経路予測部73は、内部通信部71を介して、画像解析装置8からの画像解析データ(撮像装置ID、画像内での追跡対象人物の位置、追跡対象人物の推定現在位置、追跡対象人物の推定移動方向(動きベクトル等))を取得する。
そして、S36では、これらと現在の電波強度を基にモバイル端末装置2の現在位置を推定する。
S37は、図10のS16と同じであるため、説明を省略する。
S38は、図10のS17と基本的に同じであるが、前述のように、画像解析装置8による追跡対象人物の推定移動方向を用いて移動経路を予測してもよい。
S39〜S41は、図10のS18〜S20と同じであるため、説明を省略する。
FIG. 15 shows an operation flow of the mobile terminal cooperation device 7.
The operation flow of FIG. 15 shows an example of processing for realizing the second embodiment, and does not limit the implementation method.
In FIG. 15, S31 to S34 are the same as S11 to S14 of FIG.
In S <b> 35, the movement path prediction unit 73 transmits the image analysis data from the image analysis device 8 (imaging device ID, the position of the tracking target person in the image, the estimated current position of the tracking target person, via the internal communication unit 71. The estimated movement direction (motion vector, etc.) of the tracking target person is acquired.
In S36, the current position of the mobile terminal device 2 is estimated based on these and the current radio wave intensity.
S37 is the same as S16 in FIG.
S38 is basically the same as S17 in FIG. 10, but as described above, the movement path may be predicted using the estimated movement direction of the person to be tracked by the image analysis device 8.
S39 to S41 are the same as S18 to S20 in FIG.

<システム全体の動作>
図16にシステム全体のシーケンス図を示す。
図16は実施の形態2の動作の一例を示すものであり、実現方法を限定するものではない。
まず、モバイル端末装置2から各無線通信機3〜3に無線信号を送信する。
無線通信機3は受信後、取得情報をモバイル端末連携装置7に送信する。
上記動作と並行して、撮像装置9は撮影画像を画像解析装置8へ送信する。
画像解析装置8は、撮像装置9から撮影画像の受信後、画像解析を行い、追跡対象人物の画像が撮影画像内に存在する撮像装置のID、撮影画像内での追跡対象人物の位置(x,y)、追跡対象人物の撮影画像内での位置に基づく、対象のマップ上での推定現在位置、追跡対象人物の撮影画像内での動きベクトル情報を算出する。
なお、画像解析装置8は、時系列で撮影画像を解析して動きベクトル情報を算出する。
そして、画像解析装置8は、モバイル端末連携装置7へ画像解析情報を送信する。
モバイル端末連携装置7は、画像解析情報の受信後、現在位置の推定、これを基にした移動経路推定、移動経路推定結果の移動経路履歴DB426への記録、撮像装置の制御情報の生成を行う。
更に、モバイル端末連携装置4は、選択した撮像装置5へ撮像装置制御情報を送信する。
撮像装置5は、撮像装置制御情報を受信した場合は、撮像装置制御情報に基づいてPTZの制御を行う。
その後、撮像装置9は撮影した撮影画像を画像解析装置8へ送信する。
撮像装置9は撮影画像を画像解析装置8だけでなく、モバイル端末連携装置7や監視制御装置へ送信してもよい。
また、画像解析装置8やモバイル端末連携装置7を経由して監視制御装置へ送信してもよい。
<Operation of the entire system>
FIG. 16 shows a sequence diagram of the entire system.
FIG. 16 shows an example of the operation of the second embodiment, and does not limit the realization method.
First, a wireless signal is transmitted from the mobile terminal device 2 to each of the wireless communication devices 3 1 to 3 n .
After receiving, the wireless communication device 3 transmits the acquired information to the mobile terminal cooperation device 7.
In parallel with the above operation, the imaging device 9 transmits the captured image to the image analysis device 8.
The image analysis device 8 performs image analysis after receiving the captured image from the imaging device 9, and the ID of the imaging device in which the image of the tracking target person is present in the captured image, the position of the tracking target person in the captured image (x , Y), an estimated current position on the target map based on the position of the tracking target person in the captured image, and motion vector information in the captured image of the tracking target person are calculated.
The image analysis device 8 analyzes the captured image in time series and calculates motion vector information.
Then, the image analysis device 8 transmits image analysis information to the mobile terminal cooperation device 7.
After receiving the image analysis information, the mobile terminal cooperation device 7 estimates the current position, estimates the movement route based on the current position, records the movement route estimation result in the movement route history DB 426, and generates control information for the imaging device. .
Further, the mobile terminal cooperation device 4 transmits the imaging device control information to the selected imaging device 5.
When receiving the imaging device control information, the imaging device 5 controls the PTZ based on the imaging device control information.
Thereafter, the imaging device 9 transmits the captured image to the image analysis device 8.
The imaging device 9 may transmit the captured image not only to the image analysis device 8 but also to the mobile terminal cooperation device 7 and the monitoring control device.
Moreover, you may transmit to the monitoring control apparatus via the image analysis apparatus 8 or the mobile terminal cooperation apparatus 7. FIG.

<位置推定部422による現在位置の補正方法>
カメラのキャリブレーション(内部パラメータ、歪み係数、外部パラメータ)が厳密に行われており、地図上の座標とカメラの画像座標の対応が取れている場合は、幾何変換により、画像内での追跡対象人物の検出位置(u,v)から追跡対象人物の地図座標上での位置(x,y)を推定でき、また、追跡対象人物の地図座標上での位置(x,y)から画像内での追跡対象人物の検出位置(u,v)を推定することができる。
カメラの幾何変換については公知であるため、説明を省略する。
本実施の形態では、追跡対象人物の顔画像が撮像装置5に登録されており、撮像装置5は登録されている追跡対象人物の顔画像を用いて、人物認識が可能であるとする。
位置推定部422は、基本的に電波強度によって推定された位置を追跡対象人物の現在位置とするが、移動中の追跡対象人物をカメラで認識(人物認識)できた場合には、その追跡対象人物の画像上での位置を地図上での座標に変換したものを現在位置とし、電波強度による推定位置は利用しない。
カメラが厳密にキャリブレーションされている場合は、推定される位置の精度は電波強度を用いた方法よりも、カメラを用いた方法の方が高いことが予想される。
ただし、画像上で追跡対象人物を正しく認識できるとは限らない。
そこで、位置推定部422は、電波強度によって推定された位置(座標)を当該カメラで捕捉した場合に、画像上のどの位置に追跡対象人物が表示されるかを計算する(カメラがキャリブレーションできていれば幾何変換により算出可能)。
このとき、計算により得られた追跡対象人物の予想表示位置と、カメラで認識した人物の表示位置が大幅にずれていた場合は、カメラが正しく追跡対象人物を認識できていない可能性がある。
このため、位置推定部422は、カメラの人物認識により求めた推定位置は利用せず、電波強度による推定位置を利用する。
あるいは、電波強度によって推定された位置(座標)を再探索し、人物認識を再度行うことも可能である。
再度、人物が認識され、上記の計算を行った結果、正しく追跡対象人物を捕捉していると判断された場合(電波強度からの推定位置に基づく予想表示位置とカメラの人物認識による人物の表示位置の誤差が一定以下になった場合)に、位置推定部422は、カメラの人物認識で推定された位置座標を利用する。
<Current Position Correction Method by Position Estimation Unit 422>
If the camera calibration (internal parameters, distortion coefficient, external parameters) is strictly performed and the coordinates on the map correspond to the image coordinates of the camera, the object to be tracked in the image by geometric transformation The position (x, y) of the tracking target person on the map coordinates can be estimated from the detected position (u, v) of the person, and the position (x, y) of the tracking target person on the map coordinates can be estimated in the image. The detection position (u, v) of the tracking target person can be estimated.
Since the geometric transformation of the camera is well known, the description is omitted.
In the present embodiment, it is assumed that the face image of the person to be tracked is registered in the image capturing apparatus 5 and that the image capturing apparatus 5 can perform person recognition using the face image of the person to be tracked registered.
The position estimation unit 422 basically uses the position estimated based on the radio wave intensity as the current position of the tracking target person. If the tracking target person moving can be recognized (person recognition) by the camera, the tracking target person The position obtained by converting the position on the image of the person into the coordinates on the map is the current position, and the estimated position based on the radio wave intensity is not used.
When the camera is calibrated strictly, it is expected that the accuracy of the estimated position is higher in the method using the camera than in the method using the radio wave intensity.
However, the person to be tracked may not be correctly recognized on the image.
Therefore, the position estimation unit 422 calculates the position on the image where the tracking target person is displayed when the position (coordinates) estimated by the radio wave intensity is captured by the camera (the camera can be calibrated). If so, it can be calculated by geometric transformation).
At this time, if the predicted display position of the tracking target person obtained by the calculation and the display position of the person recognized by the camera are significantly shifted, there is a possibility that the camera cannot correctly recognize the tracking target person.
For this reason, the position estimation unit 422 does not use the estimated position obtained by the person recognition of the camera, but uses the estimated position based on the radio field intensity.
Alternatively, the position (coordinates) estimated by the radio wave intensity can be searched again to perform person recognition again.
When the person is recognized again and the above calculation is performed, it is determined that the person to be tracked is correctly captured (the expected display position based on the estimated position from the radio wave intensity and the person display by the camera person recognition) When the position error is below a certain level), the position estimation unit 422 uses the position coordinates estimated by the person recognition of the camera.

***実施の形態の効果***
実施の形態2では、上記の実施の形態1の効果に加え、撮像装置での撮影画像を解析し、追跡対象人物の動き情報を検出し、これを移動経路予測に利用することで、より精度のよい移動経路の予測、それに伴う追跡精度向上が実現できる。
また、撮影画像の追跡対象人物の位置と電波強度で推定した追跡対象の位置の整合を取ることにより、追跡対象人物の誤検出を防ぐことができる他、検出した追跡対象人物の画像を次の検出の際の参照画像として使用することができる。
また、モバイル端末装置の所有者と画像上で検出した追跡対象人物を一致させることにより、特定対象の見守り、監視サービスが実現できる。
特定対象としては、例えば、小柄なために周囲の人や構造物などで遮蔽されてカメラ画像に映らなくなる可能性の高い子ども、老人、小動物などが考えられる。
*** Effect of the embodiment ***
In the second embodiment, in addition to the effects of the first embodiment described above, the captured image of the imaging apparatus is analyzed, the motion information of the tracking target person is detected, and this is used for the movement path prediction, thereby achieving more accuracy. It is possible to realize the prediction of a good movement path and the accompanying improvement in tracking accuracy.
In addition, by matching the position of the tracking target person in the captured image and the position of the tracking target estimated by the radio wave intensity, it is possible to prevent erroneous detection of the tracking target person. It can be used as a reference image for detection.
In addition, by matching the owner of the mobile terminal device with the tracking target person detected on the image, a specific target can be watched and monitored.
As the specific target, for example, a child, an elderly person, a small animal, or the like, which is small and is likely to be blocked by a surrounding person or structure and not appear in the camera image, can be considered.

***付記*** *** Additional notes ***

以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
As mentioned above, although embodiment of this invention was described, you may implement in combination of 2 or more among these embodiment.
Alternatively, one of these embodiments may be partially implemented.
Alternatively, two or more of these embodiments may be partially combined.
In addition, this invention is not limited to these embodiment, A various change is possible as needed.

また、上記では、追跡対象を人物として説明してきたが、追跡対象は移動体であれば人物でなくてもよい。
例えば、無線通信端末装置が装着された動物であってもよいし、自動車等の車両等であってもよい。
In the above description, the tracking target is described as a person, but the tracking target may not be a person as long as the tracking target is a moving object.
For example, it may be an animal equipped with a wireless communication terminal device or a vehicle such as an automobile.

***ハードウェア構成の説明***
モバイル端末連携装置4、7のハードウェア構成例を図17を参照して説明する。
モバイル端末連携装置4、7はコンピュータである。
モバイル端末連携装置4、7は、プロセッサ901、補助記憶装置902、メモリ903、通信装置904、入力インタフェース905、ディスプレイインタフェース906といったハードウェアを備える。
プロセッサ901は、信号線910を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
入力インタフェース905は、入力装置907に接続されている。
ディスプレイインタフェース906は、ディスプレイ908に接続されている。
*** Explanation of hardware configuration ***
A hardware configuration example of the mobile terminal cooperation devices 4 and 7 will be described with reference to FIG.
The mobile terminal cooperation devices 4 and 7 are computers.
The mobile terminal cooperation devices 4 and 7 include hardware such as a processor 901, an auxiliary storage device 902, a memory 903, a communication device 904, an input interface 905, and a display interface 906.
The processor 901 is connected to other hardware via the signal line 910, and controls these other hardware.
The input interface 905 is connected to the input device 907.
The display interface 906 is connected to the display 908.

プロセッサ901は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ901は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
補助記憶装置902は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)である。
メモリ903は、例えば、RAM(Random Access Memory)である。
図6、図7に示す記憶部は、補助記憶装置902又はメモリ903により実現される。
通信装置904は、データを受信するレシーバー9041及びデータを送信するトランスミッター9042を含む。
通信装置904は、例えば、通信チップ又はNIC(Network Interface Card)である。
入力インタフェース905は、入力装置907のケーブル911が接続されるポートである。
入力インタフェース905は、例えば、USB(Universal Serial Bus)端子である。
ディスプレイインタフェース906は、ディスプレイ908のケーブル912が接続されるポートである。
ディスプレイインタフェース906は、例えば、USB端子又はHDMI(登録商標)(High Definition Multimedia Interface)端子である。
入力装置907は、例えば、マウス、キーボード又はタッチパネルである。
ディスプレイ908は、例えば、LCD(Liquid Crystal Display)である。
The processor 901 is an IC (Integrated Circuit) that performs processing.
The processor 901 is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
The auxiliary storage device 902 is, for example, a ROM (Read Only Memory), a flash memory, or an HDD (Hard Disk Drive).
The memory 903 is, for example, a RAM (Random Access Memory).
6 and 7 is realized by the auxiliary storage device 902 or the memory 903.
The communication device 904 includes a receiver 9041 that receives data and a transmitter 9042 that transmits data.
The communication device 904 is, for example, a communication chip or a NIC (Network Interface Card).
The input interface 905 is a port to which the cable 911 of the input device 907 is connected.
The input interface 905 is, for example, a USB (Universal Serial Bus) terminal.
The display interface 906 is a port to which the cable 912 of the display 908 is connected.
The display interface 906 is, for example, a USB terminal or an HDMI (registered trademark) (High Definition Multimedia Interface) terminal.
The input device 907 is, for example, a mouse, a keyboard, or a touch panel.
The display 908 is, for example, an LCD (Liquid Crystal Display).

補助記憶装置902には、図4に示す内部通信部41、移動経路予測部42、撮像装置制御部43、図7に示す内部通信部71、追跡対象データ取得部72、移動経路予測部73、撮像装置制御部74のうち、記憶部を除く構成要素の機能を実現するプログラムが記憶されている。
つまり、補助記憶装置902には、データ取得部421、位置推定部422、データ抽出部423、経路予測部424、移動経路予測データ取得部431、撮像装置制御情報生成部432、制御命令部433(以下、これらをまとめて「部」と表記する)の機能を実現するプログラムが記憶されている。
このプログラムは、メモリ903にロードされ、プロセッサ901に読み込まれ、プロセッサ901によって実行される。
更に、補助記憶装置902には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がメモリ903にロードされ、プロセッサ901はOSを実行しながら、「部」の機能を実現するプログラムを実行する。
図17では、1つのプロセッサ901が図示されているが、モバイル端末連携装置4、7が複数のプロセッサ901を備えていてもよい。
そして、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、メモリ903、補助記憶装置902、又は、プロセッサ901内のレジスタ又はキャッシュメモリに記憶される。
The auxiliary storage device 902 includes an internal communication unit 41, a movement path prediction unit 42, an imaging device control unit 43, an internal communication unit 71, a tracking target data acquisition unit 72, a movement path prediction unit 73 shown in FIG. A program for realizing the functions of the constituent elements of the imaging device control unit 74 excluding the storage unit is stored.
That is, the auxiliary storage device 902 includes a data acquisition unit 421, a position estimation unit 422, a data extraction unit 423, a route prediction unit 424, a movement route prediction data acquisition unit 431, an imaging device control information generation unit 432, and a control command unit 433 ( In the following, a program that realizes the function of “unit” will be described.
This program is loaded into the memory 903, read into the processor 901, and executed by the processor 901.
Further, the auxiliary storage device 902 also stores an OS (Operating System).
Then, at least a part of the OS is loaded into the memory 903, and the processor 901 executes a program that realizes the function of “unit” while executing the OS.
In FIG. 17, one processor 901 is illustrated, but the mobile terminal cooperation apparatuses 4 and 7 may include a plurality of processors 901.
A plurality of processors 901 may execute a program for realizing the function of “unit” in cooperation with each other.
In addition, information, data, signal values, and variable values indicating the processing results of “unit” are stored in the memory 903, the auxiliary storage device 902, or a register or cache memory in the processor 901.

「部」を「サーキットリー」で提供してもよい。
また、「部」を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
「回路」及び「サーキットリー」は、プロセッサ901だけでなく、ロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field−Programmable Gate Array)といった他の種類の処理回路をも包含する概念である。
The “part” may be provided as “circuitry”.
Further, “part” may be read as “circuit”, “process”, “procedure”, or “processing”.
“Circuit” and “Circuitry” include not only the processor 901 but also other types of processing circuits such as a logic IC or GA (Gate Array) or ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array). It is a concept to include.

1 モバイル端末連携移動体追跡システム、2 モバイル端末装置、3 無線通信機、4 モバイル端末連携装置、5 撮像装置、6 モバイル端末連携移動体追跡システム、7 モバイル端末連携装置、8 画像解析装置、9 撮像装置、21 ユーザID取得部、22 センサ情報取得部、23 無線通信部、31 無線通信部、32 データ取得部、33 内部通信部、41 内部通信部、42 移動経路予測部、43 撮像装置制御部、51 内部通信部、52 PTZ制御部、53 画像取得部、71 内部通信部、72 追跡対象データ取得部、73 移動経路予測部、74 撮像装置制御部、81 内部通信部、82 画像データ取得部、83 画像解析部、91 内部通信部、92 PTZ制御部、93 画像取得部、421 データ取得部、422 位置推定部、423 データ抽出部、424 経路予測部、425 電波強度DB、426 移動経路履歴DB、431 移動経路予測データ取得部、432 撮像装置制御情報生成部、433 制御命令部、434 周辺地図DB、435 撮像装置制御情報DB、436 内部通信部。   DESCRIPTION OF SYMBOLS 1 Mobile terminal cooperation mobile body tracking system, 2 Mobile terminal apparatus, 3 Wireless communication apparatus, 4 Mobile terminal cooperation apparatus, 5 Imaging apparatus, 6 Mobile terminal cooperation mobile body tracking system, 7 Mobile terminal cooperation apparatus, 8 Image analysis apparatus, 9 Imaging device, 21 User ID acquisition unit, 22 Sensor information acquisition unit, 23 Wireless communication unit, 31 Wireless communication unit, 32 Data acquisition unit, 33 Internal communication unit, 41 Internal communication unit, 42 Moving path prediction unit, 43 Imaging device control 51, internal communication unit, 52 PTZ control unit, 53 image acquisition unit, 71 internal communication unit, 72 tracking target data acquisition unit, 73 movement path prediction unit, 74 imaging device control unit, 81 internal communication unit, 82 image data acquisition Unit, 83 image analysis unit, 91 internal communication unit, 92 PTZ control unit, 93 image acquisition unit, 421 data acquisition unit, 42 2 Position estimation unit, 423 data extraction unit, 424 route prediction unit, 425 radio wave intensity DB, 426 movement route history DB, 431 movement route prediction data acquisition unit, 432 imaging device control information generation unit, 433 control command unit, 434 map around DB, 435 Imaging device control information DB, 436 Internal communication unit.

Claims (9)

対象エリア内に離間して配置されている複数の無線通信機の各々で計測された、移動体とともに移動する無線端末装置からの電波の電波強度又は前記無線端末装置で計測された前記複数の無線通信機の各々からの電波の電波強度の少なくともいずれかに基づき、前記移動体の現在位置を推定し、前記移動体の移動経路を予測する移動経路予測部と、
前記対象エリア内に離間して配置されている複数の撮像装置の各々の撮影可能範囲と、前記移動経路予測部により予測された前記移動経路とに基づき、前記複数の撮像装置の中から、前記移動経路を移動する前記移動体を撮影させる撮像装置を選択する撮像装置制御部とを有する移動体追跡装置。
The radio wave intensity of radio waves from a radio terminal device moving with a mobile object, measured by each of a plurality of radio communication devices arranged separately in a target area, or the radio waves measured by the radio terminal device Based on at least one of the radio field strengths of radio waves from each of the communication devices, a current path of the mobile body is estimated, and a travel path prediction unit that predicts a travel path of the mobile body;
From the plurality of imaging devices, based on the imageable range of each of the plurality of imaging devices arranged separately in the target area and the movement path predicted by the movement route prediction unit, A moving body tracking apparatus comprising: an imaging apparatus control unit that selects an imaging apparatus that images the moving body that moves along a movement path.
前記撮像装置制御部は、
前記移動体を撮影させるための制御を、選択した撮像装置に対して行う請求項1に記載の移動体追跡装置。
The imaging device controller is
The moving body tracking device according to claim 1, wherein control for photographing the moving body is performed on the selected imaging device.
前記撮像装置制御部は、
前記移動体を撮影させるための制御として、パン、チルト及びズームに関する制御を、選択した撮像装置に対して行う請求項1に記載の移動体追跡装置。
The imaging device controller is
The moving body tracking device according to claim 1, wherein control related to panning, tilting, and zooming is performed on the selected imaging device as control for photographing the moving body.
前記移動経路予測部は、
学習により得られた、前記対象エリア内の複数地点における地点ごとに計測された前記複数の無線通信機の各々からの電波の電波強度の値及び前記複数の無線通信機の各々で計測された前記対象エリア内の複数地点における地点ごとに送信された電波の電波強度の値の少なくともいずれかが示される学習データを用いて、前記移動体の現在位置を推定する請求項1に記載の移動体追跡装置。
The travel route prediction unit
Obtained by learning, the value of the radio wave intensity from each of the plurality of wireless communication devices measured for each point in the plurality of points in the target area, and the value measured by each of the plurality of wireless communication devices The mobile body tracking according to claim 1, wherein the current position of the mobile body is estimated using learning data indicating at least one of radio field intensity values of radio waves transmitted for each of a plurality of points in the target area. apparatus.
前記移動経路予測部は、
前記移動体が前記現在位置に到達するまでの移動軌跡、過去における前記移動体の前記現在位置からの移動先、前記移動体と共通の属性を有する他の移動体の前記現在位置からの移動先、前記移動体の移動方向、前記移動体の移動速度の少なくともいずれかに基づいて、前記移動体の移動経路を予測する請求項1に記載の移動体追跡装置。
The travel route prediction unit
A movement trajectory until the moving body reaches the current position, a movement destination of the moving body in the past from the current position, a movement destination of the other moving body having the same attribute as the moving body from the current position The moving body tracking device according to claim 1, wherein a moving path of the moving body is predicted based on at least one of a moving direction of the moving body and a moving speed of the moving body.
前記移動経路予測部は、
前記複数の撮像装置のうちのいずれかの撮像装置により撮影され、前記移動体の画像が含まれる撮影画像を解析して推定された前記移動体の現在位置を用いて、電波強度に基づいて推定した前記移動体の現在位置を補正する請求項1に記載の移動体追跡装置。
The travel route prediction unit
Estimated based on radio wave intensity using the current position of the moving body that is captured by any one of the plurality of imaging apparatuses and analyzed by analyzing a captured image that includes the image of the moving body The moving body tracking device according to claim 1, wherein the current position of the moving body is corrected.
前記移動経路予測部は、
前記複数の撮像装置のうちのいずれかの撮像装置により撮影され、前記移動体の画像撮影映像が含まれる撮影映像を解析して推定された前記移動体の移動方向に基づき、前記移動体の移動経路を予測する請求項1に記載の移動体追跡装置。
The travel route prediction unit
The movement of the moving body based on the moving direction of the moving body estimated by analyzing a captured image captured by any one of the plurality of imaging apparatuses and including an image shooting image of the moving body. The moving body tracking apparatus according to claim 1, wherein a path is predicted.
コンピュータが、対象エリア内に離間して配置されている複数の無線通信機の各々で計測された、移動体とともに移動する無線端末装置からの電波の電波強度又は前記無線端末装置で計測された前記複数の無線通信機の各々からの電波の電波強度の少なくともいずれかに基づき、前記移動体の現在位置を推定し、前記移動体の移動経路を予測する移動経路予測ステップと、
前記コンピュータが、前記対象エリア内に離間して配置されている複数の撮像装置の各々の撮影可能範囲と、前記移動経路予測ステップにより予測された前記移動経路とに基づき、前記複数の撮像装置の中から、前記移動経路を移動する前記移動体を撮影させる撮像装置を選択する撮像装置制御ステップとを有する移動体追跡方法。
The computer is measured by each of a plurality of wireless communication devices arranged separately in a target area, and the radio wave intensity of a radio wave from a radio terminal device moving with a moving body or the radio terminal device Based on at least one of the radio field strengths of radio waves from each of a plurality of wireless communication devices, the current position of the moving body is estimated, and a moving path prediction step for predicting the moving path of the moving body;
The computer is configured to detect the plurality of imaging devices based on the photographing range of each of the plurality of imaging devices that are spaced apart in the target area and the movement path predicted by the movement route prediction step. The moving body tracking method which has an imaging device control step which selects the imaging device which image | photographs the said moving body which moves the said movement path | route from inside.
対象エリア内に離間して配置されている複数の無線通信機の各々で計測された、移動体とともに移動する無線端末装置からの電波の電波強度又は前記無線端末装置で計測された前記複数の無線通信機の各々からの電波の電波強度の少なくともいずれかに基づき、前記移動体の現在位置を推定し、前記移動体の移動経路を予測する移動経路予測ステップと、
前記対象エリア内に離間して配置されている複数の撮像装置の各々の撮影可能範囲と、前記移動経路予測ステップにより予測された前記移動経路とに基づき、前記複数の撮像装置の中から、前記移動経路を移動する前記移動体を撮影させる撮像装置を選択する撮像装置制御ステップとをコンピュータに実行させる移動体追跡プログラム。
The radio wave intensity of radio waves from a radio terminal device moving with a mobile object, measured by each of a plurality of radio communication devices arranged separately in a target area, or the radio waves measured by the radio terminal device Based on at least one of the radio field strengths of radio waves from each of the communication devices, the current position of the moving body is estimated, and a moving path prediction step for predicting the moving path of the moving body;
From the plurality of imaging devices, based on the imageable range of each of the plurality of imaging devices arranged separately in the target area and the movement path predicted by the movement route prediction step, The moving body tracking program which makes a computer perform the imaging device control step which selects the imaging device which images the said moving body which moves a movement path | route.
JP2015164437A 2015-08-24 2015-08-24 MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND MOBILE BODY TRACKING PROGRAM Active JP6462528B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015164437A JP6462528B2 (en) 2015-08-24 2015-08-24 MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND MOBILE BODY TRACKING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015164437A JP6462528B2 (en) 2015-08-24 2015-08-24 MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND MOBILE BODY TRACKING PROGRAM

Publications (2)

Publication Number Publication Date
JP2017046023A true JP2017046023A (en) 2017-03-02
JP6462528B2 JP6462528B2 (en) 2019-01-30

Family

ID=58210421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015164437A Active JP6462528B2 (en) 2015-08-24 2015-08-24 MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND MOBILE BODY TRACKING PROGRAM

Country Status (1)

Country Link
JP (1) JP6462528B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018193977A1 (en) * 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 Identification system, identification method and program
JP2020042528A (en) * 2018-09-10 2020-03-19 公立大学法人岩手県立大学 Object identification system, model learning system, object identification method, model learning method, and program
JP2020113920A (en) * 2019-01-15 2020-07-27 株式会社Nttドコモ Imaging apparatus
CN113660462A (en) * 2021-08-09 2021-11-16 苏州工业园区测绘地理信息有限公司 Surrounding ring type mobile vehicle video tracking method based on fusion multi-source data analysis
WO2022130513A1 (en) * 2020-12-15 2022-06-23 三菱電機株式会社 Identification device, equipment system, and identification method
KR102482545B1 (en) * 2022-05-25 2022-12-29 주식회사 유투에스알 AI-based path prediction method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007138811A1 (en) * 2006-05-31 2007-12-06 Nec Corporation Device and method for detecting suspicious activity, program, and recording medium
JP2009004977A (en) * 2007-06-20 2009-01-08 Chugoku Electric Power Co Inc:The Apparatus and method for selecting supervisory camera
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device
WO2011114770A1 (en) * 2010-03-15 2011-09-22 オムロン株式会社 Surveillance camera terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007138811A1 (en) * 2006-05-31 2007-12-06 Nec Corporation Device and method for detecting suspicious activity, program, and recording medium
JP2009004977A (en) * 2007-06-20 2009-01-08 Chugoku Electric Power Co Inc:The Apparatus and method for selecting supervisory camera
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device
WO2011114770A1 (en) * 2010-03-15 2011-09-22 オムロン株式会社 Surveillance camera terminal

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018193977A1 (en) * 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 Identification system, identification method and program
JP2018182705A (en) * 2017-04-21 2018-11-15 パナソニックIpマネジメント株式会社 Identification system, identification method and program
JP2020042528A (en) * 2018-09-10 2020-03-19 公立大学法人岩手県立大学 Object identification system, model learning system, object identification method, model learning method, and program
JP7222519B2 (en) 2018-09-10 2023-02-15 公立大学法人岩手県立大学 Object identification system, model learning system, object identification method, model learning method, program
JP2020113920A (en) * 2019-01-15 2020-07-27 株式会社Nttドコモ Imaging apparatus
JP7129920B2 (en) 2019-01-15 2022-09-02 株式会社Nttドコモ Imaging device
WO2022130513A1 (en) * 2020-12-15 2022-06-23 三菱電機株式会社 Identification device, equipment system, and identification method
CN113660462A (en) * 2021-08-09 2021-11-16 苏州工业园区测绘地理信息有限公司 Surrounding ring type mobile vehicle video tracking method based on fusion multi-source data analysis
CN113660462B (en) * 2021-08-09 2023-12-29 园测信息科技股份有限公司 Surrounding ring type moving vehicle video tracking method based on fusion multi-source data analysis
KR102482545B1 (en) * 2022-05-25 2022-12-29 주식회사 유투에스알 AI-based path prediction method

Also Published As

Publication number Publication date
JP6462528B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
JP6462528B2 (en) MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND MOBILE BODY TRACKING PROGRAM
TWI786313B (en) Method, device, storage medium, and apparatus of tracking target
CN104103030B (en) Image analysis method, camera apparatus, control apparatus and control method
CN109785368B (en) Target tracking method and device
EP2862146B1 (en) Adaptive switching between a vision aided intertial camera pose estimation and a vision based only camera pose estimation.
US8154616B2 (en) Data processing apparatus and method, and recording medium
US20170364755A1 (en) Systems and Methods for Tracking Movements of a Target
CN107408303A (en) System and method for Object tracking
EP3077992A1 (en) Fusing device and image motion for user identification, tracking and device association
JP6551226B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
US10846933B2 (en) Geophysical sensor positioning system
CN111680697B (en) Method, device, electronic equipment and medium for realizing field adaptation
CN112115894B (en) Training method and device of hand key point detection model and electronic equipment
US20170085656A1 (en) Automatic absolute orientation and position
US20210174520A1 (en) Control apparatus, control method, and program
JPWO2014050432A1 (en) Information processing system, information processing method, and program
TW201926141A (en) Image object tracking method and apparatus
CN111445499B (en) Method and device for identifying target information
CN111611836A (en) Ship detection model training and ship tracking method based on background elimination method
CN113432620B (en) Error estimation method and device, vehicle-mounted terminal and storage medium
KR102223313B1 (en) Electronic device and method for operating an electronic device
KR101886856B1 (en) System and method for data combining based on result of non-rigid object tracking on multi-sensor seeker
WO2020115945A1 (en) Positioning system
JP7185786B2 (en) Positioning system and terminal
KR102329785B1 (en) Method for estimating head direction of terminal for position measurement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181227

R150 Certificate of patent or registration of utility model

Ref document number: 6462528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250