JP6814673B2 - Movement route prediction device and movement route prediction method - Google Patents

Movement route prediction device and movement route prediction method Download PDF

Info

Publication number
JP6814673B2
JP6814673B2 JP2017058528A JP2017058528A JP6814673B2 JP 6814673 B2 JP6814673 B2 JP 6814673B2 JP 2017058528 A JP2017058528 A JP 2017058528A JP 2017058528 A JP2017058528 A JP 2017058528A JP 6814673 B2 JP6814673 B2 JP 6814673B2
Authority
JP
Japan
Prior art keywords
information
movement route
person
sensor
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017058528A
Other languages
Japanese (ja)
Other versions
JP2018160219A (en
Inventor
田村 雅人
雅人 田村
恭平 海野
恭平 海野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017058528A priority Critical patent/JP6814673B2/en
Publication of JP2018160219A publication Critical patent/JP2018160219A/en
Application granted granted Critical
Publication of JP6814673B2 publication Critical patent/JP6814673B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、移動経路予測装置、及び移動経路予測方法に関する。 The present invention relates to a movement route prediction device and a movement route prediction method.

特許文献1には、「異常挙動が生じる前にそれを予測することが可能な監視システムは存在していない。その種のシステムは、その種の侵害または事故が発生した後にそれらをレポートするのではなく、多様なセキュリティ侵害を防止して生命を救うことができる。」、「本発明は、監視デバイスによって観察されている移動物体の将来の場所を予測するための方法である。この方法は、その移動物体に対応する動きデータを監視デバイスから受取り、受取ったデータに基づいてメタデータを生成するステップを包含し、それにおいて当該メタデータは、その移動物体のタイムスタンプ、場所、および大きさを含む。さらにこの方法は、メタデータに基づいてデータ構造に対して少なくとも1つのウェーブレット変換を実行し、その少なくとも1つのウェーブレット変換に基づいてキーを生成するステップを包含する。この方法は、さらに、そのキーを使用して予測モデル・データベースのクエリを行うステップを包含し、それにおいて予測モデル・データベーは、学習済みデータに基づく予測モデルをストアしており、かつそれにおいて予測モデルは、それぞれ、学習済み軌跡の第1の部分に基づくモデル・キー、当該学習済み軌跡の第2の部分に基づくモデル予測、およびモデル・キーとモデル予測の間における相関に対応するカウントを含む。この方法は、前記予測モデル・データベースから少なくとも1つの予測モデルを受取るステップを含み、そのキーと受取る予測モデルのモデル・キーの類似性に基づいてそれを受取る。さらにこの方法は、受取ったモデル・キーおよび受取ったカウントに基づいて、その移動物体の少なくとも1つの将来の場所を生成するステップを包含する。」と記載されている。 Patent Document 1 states, "There is no monitoring system capable of predicting anomalous behavior before it occurs. Such systems report them after such infringement or accident occurs. Instead, it can prevent various security breaches and save lives. "," The present invention is a method for predicting the future location of a moving object being observed by a surveillance device. Includes the step of receiving motion data corresponding to the moving object from a monitoring device and generating metadata based on the received data, wherein the metadata is the time stamp, location, and size of the moving object. In addition, the method further comprises performing at least one wavelet transformation on the data structure based on the metadata and generating a key based on the at least one wavelet transformation. , Including the step of querying the predictive model database using that key, in which the predictive model database stores predictive models based on trained data, in which the predictive models are each. , A model key based on the first part of the trained locus, a model prediction based on the second part of the trained locus, and a count corresponding to the correlation between the model key and the model prediction. , Which includes the step of receiving at least one predictive model from the predictive model database, and receives it based on the similarity between the key and the model key of the predictive model received. Further, this method receives the received model key and receives. It includes the step of generating at least one future location for the moving object based on the count. "

特表2012−518846号公報Japanese Patent Publication No. 2012-518846

特許文献1には、ビデオ・データ等の監視データに基づきビデオ監視システム内における異常挙動を予測する方法について記載されている。ここで例えば犯罪者等の異常者と正常者とでは将来の移動経路が異なるため、ビデオ・データ等の監視データに基づき人物の移動経路を正確に予測する場合には人物がとる行動等の人物に関する情報についても考慮する必要がある。特許文献1では、監視データから生成した予測モデルに基づき移動物体の将来の場所を予測しているが、人物がとる行動等の人物に関する情報については何ら考慮されていない。 Patent Document 1 describes a method of predicting abnormal behavior in a video surveillance system based on surveillance data such as video data. Here, for example, since the future movement route differs between an abnormal person such as a criminal and a normal person, a person such as an action taken by the person when accurately predicting the movement route of the person based on monitoring data such as video data. You also need to consider information about. In Patent Document 1, the future location of a moving object is predicted based on a prediction model generated from monitoring data, but no consideration is given to information about the person such as actions taken by the person.

本発明は、こうした背景に鑑みてなされたもので、人物の移動経路を正確に予測することが可能な移動経路予測装置、及び移動経路予測方法を提供することを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to provide a movement route prediction device capable of accurately predicting a movement route of a person, and a movement route prediction method.

上記目的を達成するための本発明の一つは、移動経路予測装置であって、センサによって取得される情報であるセンサ情報を取得するセンサ情報取得部と、前記センサ情報に基づき、人物の移動履歴に関する情報である移動履歴情報を生成する移動履歴情報生成部と、人物の行動に関する情報である行動情報と人物の属性情報とを記憶する情報記憶部と、前記移動履歴情報、前記行動情報、及び前記属性情報に基づき、人物がとる行動と、当該人物が移動することが予測される移動経路である予測移動経路とを対応づけた情報を含む予測モデルを生成する予測モデル生成部と、追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得する移動経路予測部と、取得した前記予測移動経路を示す情報を出力する予測結果出力部と、を備える。 One of the present inventions for achieving the above object is a movement path prediction device, which is a sensor information acquisition unit that acquires sensor information, which is information acquired by a sensor, and movement of a person based on the sensor information. A movement history information generation unit that generates movement history information that is information about history , an information storage unit that stores behavior information that is information about a person's behavior and attribute information of a person, and the movement history information, the behavior information, And a prediction model generation unit that generates a prediction model including information that associates the action taken by the person with the prediction movement route that is the movement route that the person is predicted to move based on the attribute information, and tracking. It includes a movement route prediction unit that acquires the predicted movement route corresponding to the behavior information of the target person from the prediction model, and a prediction result output unit that outputs information indicating the acquired predicted movement route.

その他、本願が開示する課題、及びその解決方法は、発明を実施するための形態の欄、及び図面により明らかにされる。 In addition, the problems disclosed in the present application and the solutions thereof will be clarified by the column of the form for carrying out the invention and the drawings.

本発明によれば、人物の移動経路を正確に予測することができる。 According to the present invention, the movement path of a person can be accurately predicted.

第1実施形態として示す移動経路予測システムの構成を示す図である。It is a figure which shows the structure of the movement route prediction system shown as 1st Embodiment. 移動経路予測装置のハードウェアの一例である。This is an example of the hardware of the movement route prediction device. 第1実施形態の移動経路予測装置のブロック図である。It is a block diagram of the movement route prediction apparatus of 1st Embodiment. 移動経路予測処理を説明するフローチャートである。It is a flowchart explaining the movement route prediction processing. 移動軌跡情報生成処理を説明するフローチャートである。It is a flowchart explaining the movement locus information generation processing. 移動軌跡情報の一例である。This is an example of movement locus information. 行動情報生成処理を説明するフローチャートである。It is a flowchart explaining behavior information generation processing. 動作モデル情報の一例である。This is an example of operation model information. 行動情報の一例である。This is an example of behavioral information. 予測モデルの一例である。This is an example of a prediction model. 予測移動経路の一例である。This is an example of a predicted movement route. 予測結果表示画面の一例である。This is an example of a prediction result display screen. 予測モデル生成処理を説明するフローチャートである。It is a flowchart explaining the prediction model generation process. 第2実施形態の移動経路予測システムの構成を示す図である。It is a figure which shows the structure of the movement route prediction system of 2nd Embodiment. 第2実施形態の移動経路予測装置のブロック図である。It is a block diagram of the movement route prediction apparatus of 2nd Embodiment. 第3実施形態の移動経路予測システムの構成を示す図である。It is a figure which shows the structure of the movement route prediction system of 3rd Embodiment. 携帯情報端末に表示される予測結果表示画面の一例である。This is an example of a prediction result display screen displayed on a mobile information terminal.

以下、実施形態について説明する。以下の説明において、同一の又は類似する構成について同一の符号を用いて重複した説明を省略することがある。 Hereinafter, embodiments will be described. In the following description, duplicate description may be omitted by using the same reference numerals for the same or similar configurations.

[第1実施形態]
図1に第1実施形態として示す移動経路予測システム1の構成を示している。同図に示すように、移動経路予測システム1は、一つ以上の画像取得装置2と、移動経路予測装置100とを含む。移動経路予測システム1は、画像取得装置2から提供される情報に基づき、人物の移動軌跡に関する情報(以下、移動軌跡情報と称する。)、及び人物の行動に関する情報(以下、行動情報と称する。)を生成し、生成した移動軌跡情報及び行動情報に基づき人物(追跡対象者3)の将来の移動経路を予測し、予測した結果をユーザに提供(表示等)する。移動経路予測システム1は、例えば、ショッピングセンタやコンビニエンスストア等の店舗における不審者や子供の行動監視、福祉施設における障害者や老人等の行動監視に適用される。
[First Embodiment]
FIG. 1 shows the configuration of the movement route prediction system 1 shown as the first embodiment. As shown in the figure, the movement route prediction system 1 includes one or more image acquisition devices 2 and a movement route prediction device 100. The movement route prediction system 1 is based on the information provided by the image acquisition device 2, and is referred to as information on the movement locus of the person (hereinafter referred to as movement locus information) and information on the behavior of the person (hereinafter referred to as behavior information). ) Is generated, the future movement route of the person (tracking target person 3) is predicted based on the generated movement trajectory information and action information, and the predicted result is provided (displayed, etc.) to the user. The movement route prediction system 1 is applied to, for example, behavior monitoring of suspicious persons and children in stores such as shopping centers and convenience stores, and behavior monitoring of persons with disabilities and elderly people in welfare facilities.

画像取得装置2と移動経路予測装置100は、例えば、有線又は無線の通信手段(LAN(Local Area Network)、無線LAN(Wi−Fi等)、USB(Universal Serial Bus Interface)等)を介して通信可能に接続している。画像取得装置2は、人物の移動軌跡情報や行動情報を取得するためのセンサの一例である。尚、例えば、監視カメラ等の画像取得装置2が現場に予め設置されている場合は画像取得装置2をセンサとして移動経路
予測システム1に利用することが可能であり、その場合はシステムの導入費用を削減することができる。
The image acquisition device 2 and the movement route prediction device 100 communicate via, for example, a wired or wireless communication means (LAN (Local Area Network), wireless LAN (Wi-Fi, etc.), USB (Universal Serial Bus Interface), etc.). It is connected as possible. The image acquisition device 2 is an example of a sensor for acquiring movement locus information and behavior information of a person. For example, when an image acquisition device 2 such as a surveillance camera is installed in advance at the site, the image acquisition device 2 can be used as a sensor in the movement route prediction system 1. In that case, the system introduction cost Can be reduced.

画像取得装置2は、監視対象領域の時系列的な画像(以下、時系列画像と称する。)を取得する。時系列画像は、時系列的に取得された画像(静止画)の集まりである。時系列画像を構成する各画像には夫々が取得(撮影)された日時を示す情報(例えば、タイムスタンプ)が付帯している。時系列画像は、例えば、映像(動画)から取得されるものであってもよい。 The image acquisition device 2 acquires a time-series image (hereinafter, referred to as a time-series image) of the monitored area. A time-series image is a collection of images (still images) acquired in time series. Information (for example, a time stamp) indicating the date and time when each image was acquired (photographed) is attached to each image constituting the time series image. The time-series image may be, for example, one obtained from a video (moving image).

移動経路予測システム1を構成する複数の画像取得装置2は、互いに撮影範囲が異なるように設置位置、撮影方向、レンズ倍率等が設定されている。複数の画像取得装置2間で撮影範囲の一部が重複していてもよい。また画像取得装置2は、例えば、公知の動体検知等の仕組みと連携し、自動的に人物が存在する方向に撮影方向が向くように構成されたものであってもよい。 The plurality of image acquisition devices 2 constituting the movement path prediction system 1 are set with an installation position, a shooting direction, a lens magnification, and the like so that the shooting ranges are different from each other. A part of the shooting range may overlap between the plurality of image acquisition devices 2. Further, the image acquisition device 2 may be configured so that the shooting direction automatically faces the direction in which the person exists in cooperation with a known mechanism such as motion detection.

画像取得装置2としては、例えば、監視カメラ等のビデオカメラを想定しているが、時系列画像を取得可能なものであれば画像取得装置2の構成や種類は必ずしも限定されない。画像取得装置2は、例えば、夜間撮影が可能な赤外線カメラ等の暗視カメラや距離画像を取得可能なカメラ(タイムオブフライト(TOF: Time Of Flight)カメラ、ステレオカ
メラ等)であってもよい。画像取得装置2は、移動経路予測装置100と通信するための有線方式又は無線方式の通信手段(LANインタフェース(Local Area Network Interface)、USBインタフェース(Universal Serial Bus Interface)、無線通信モジュール等)を備える。
As the image acquisition device 2, for example, a video camera such as a surveillance camera is assumed, but the configuration and type of the image acquisition device 2 are not necessarily limited as long as they can acquire time-series images. The image acquisition device 2 may be, for example, a night-vision camera such as an infrared camera capable of shooting at night, or a camera capable of acquiring a distance image (Time Of Flight (TOF) camera, stereo camera, etc.). .. The image acquisition device 2 includes a wired or wireless communication means (LAN interface (Local Area Network Interface), USB interface (Universal Serial Bus Interface), wireless communication module, etc.) for communicating with the movement route prediction device 100. ..

移動経路予測装置100は、画像取得装置2が取得した時系列画像に基づき、人物の移動軌跡情報や行動情報を取得し、取得した情報に基づき人物(追跡対象者3)の未来の移動経路を予測し、予測した結果をユーザに提供(表示等)する。尚、移動経路予測装置100は、画像取得装置2が取得した時系列画像に基づき移動軌跡情報を取得する。また移動経路予測装置100は、画像取得装置2が取得した時系列画像について、例えば、予め記憶している動作モデルとの間でパターンマッチングを行うことにより人物の行動情報を取得する。 The movement route prediction device 100 acquires the movement trajectory information and action information of the person based on the time-series image acquired by the image acquisition device 2, and based on the acquired information, determines the future movement route of the person (tracking target person 3). Predict and provide (display, etc.) the predicted result to the user. The movement route prediction device 100 acquires the movement trajectory information based on the time-series image acquired by the image acquisition device 2. Further, the movement route prediction device 100 acquires the behavior information of a person by performing pattern matching with, for example, a motion model stored in advance for the time-series image acquired by the image acquisition device 2.

図2に移動経路予測装置100のハードウェアの一例を示す。同図に示すように、移動経路予測装置100は、プロセッサ51、主記憶装置52、補助記憶装置53、入力装置54、出力装置55、及び通信装置56の各構成を有し、これらはバス等の通信手段を介して互いに通信可能に接続されている。移動経路予測装置100は情報処理装置として機能することができる。 FIG. 2 shows an example of the hardware of the movement route prediction device 100. As shown in the figure, the movement route prediction device 100 has a processor 51, a main storage device 52, an auxiliary storage device 53, an input device 54, an output device 55, and a communication device 56. They are connected so as to be able to communicate with each other via the communication means of The movement route prediction device 100 can function as an information processing device.

プロセッサ51は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等を用いて構成されている。プロセッサ51が、主記憶装置52に格納されているプログラムを読み出して実行することにより、移動経路予測装置100の全部又は一部の機能が実現される。主記憶装置52は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性半導体メモリ(NVRAM(Non Volatile RAM))等であり、プログラムやデータを記憶する。 The processor 51 is configured by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), and the like. When the processor 51 reads and executes the program stored in the main storage device 52, all or a part of the functions of the movement route prediction device 100 are realized. The main storage device 52 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a non-volatile semiconductor memory (NVRAM (Non Volatile RAM)), or the like, and stores programs and data.

補助記憶装置53は、例えば、ハードディスクドライブ、SSD(Solid State Drive
)、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDメモリカードや光学式記録媒体等の記録媒体の読取/書込装置等である。補助記憶装置53に格納されているプログラムやデータは主記憶装
置52に随時ロードされる。補助記憶装置53は、例えば、ネットワークストレージのように移動経路予測装置100とは独立した構成としてもよい。
The auxiliary storage device 53 is, for example, a hard disk drive or an SSD (Solid State Drive).
), Optical storage devices (CD (Compact Disc), DVD (Digital Versatile Disc), etc.), storage systems, IC cards, SD memory cards, optical recording media, and other recording media readers / writers. Programs and data stored in the auxiliary storage device 53 are loaded into the main storage device 52 at any time. The auxiliary storage device 53 may have a configuration independent of the movement route prediction device 100, such as network storage.

入力装置54は、外部入力を受け付けるユーザインタフェースであり、例えば、キーボード、マウス、タッチパネル等である。尚、例えば、移動経路予測装置100が、外部入力を通信装置56を介して受け付ける構成としてもよい。 The input device 54 is a user interface that accepts external input, and is, for example, a keyboard, a mouse, a touch panel, or the like. In addition, for example, the movement route prediction device 100 may be configured to receive an external input via the communication device 56.

出力装置55は、処理経過や処理結果等の各種情報を外部に提供するユーザインタフェースであり、例えば、画面表示装置(液晶ディスプレイ(Liquid Crystal Display)、プロジェクタ、グラフィックカード等)、印字装置等である。尚、例えば、移動経路予測装置100が、処理経過や処理結果等の各種情報を通信装置56を介して外部に提供する構成としてもよい。 The output device 55 is a user interface that provides various information such as processing progress and processing results to the outside, and is, for example, a screen display device (liquid crystal display (Liquid Crystal Display), projector, graphic card, etc.), a printing device, or the like. .. In addition, for example, the movement route prediction device 100 may be configured to provide various information such as the processing progress and the processing result to the outside via the communication device 56.

通信装置56は、画像取得装置2等の他の装置や素子との間の通信を実現する有線方式又は無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール等である。 The communication device 56 is a wired or wireless communication interface that realizes communication with other devices or elements such as the image acquisition device 2, and is, for example, a NIC (Network Interface Card), a wireless communication module, or the like. ..

図3は、移動経路予測装置100が備える機能、及び移動経路予測装置100が記憶する情報(データ)を示すブロック図である。同図に示すように、移動経路予測装置100は、画像取得部311、移動軌跡情報生成部312、行動情報生成部313、移動経路予測部314、予測結果出力部316、予測モデル生成部315、及び情報記憶部317の各機能を備える。これらの機能は、例えば、移動経路予測装置100のプロセッサ51が、主記憶装置52や補助記憶装置53に格納されているプログラムを読み出して実行することにより実現される。またこれらの機能は、例えば、移動経路予測装置100が備えるハードウェア(FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等)によって実現される。尚、移動経路予測装置100は、これらの機能以外に、例えば、オペレーティングシステム、デバイスドライバ、DBMS(DataBase Management System)等を備えていてもよい。 FIG. 3 is a block diagram showing a function included in the movement route prediction device 100 and information (data) stored in the movement route prediction device 100. As shown in the figure, the movement route prediction device 100 includes an image acquisition unit 311, a movement locus information generation unit 312, an action information generation unit 313, a movement route prediction unit 314, a prediction result output unit 316, and a prediction model generation unit 315. It also has each function of the information storage unit 317. These functions are realized, for example, by the processor 51 of the movement route prediction device 100 reading and executing a program stored in the main storage device 52 and the auxiliary storage device 53. Further, these functions are realized by, for example, hardware (FPGA (Field-Programmable Gate Array), ASIC (Application Specific Integrated Circuit), etc.) included in the movement route prediction device 100. In addition to these functions, the movement route prediction device 100 may include, for example, an operating system, a device driver, a DBMS (DataBase Management System), and the like.

情報記憶部317は、移動経路予測装置100の機能の実現に用いる各種情報、具体的には、時系列画像351、移動軌跡情報352、行動情報353、動作モデル情報354、予測モデル355、及び予測結果356を記憶する。情報記憶部317は、これらの情報を、例えば、ファイルシステムやDBMSによって管理する。 The information storage unit 317 uses various information used to realize the function of the movement route prediction device 100, specifically, time-series image 351 and movement locus information 352, action information 353, motion model information 354, prediction model 355, and prediction. The result 356 is stored. The information storage unit 317 manages such information by, for example, a file system or a DBMS.

上記機能のうち、画像取得部311は、画像取得装置2から送られてくる時系列画像351を取得する。移動軌跡情報生成部312は、時系列画像に基づき移動軌跡情報352を生成する。行動情報生成部313は、時系列画像に基づき行動情報353を生成する。移動経路予測部314は、移動軌跡情報352及び行動情報353に基づき、人物(追跡対象者3)の移動経路を予測する。予測モデル生成部315は、移動軌跡情報352及び行動情報353に基づき、人物の移動経路の予測に際して用いる予測モデル355を生成する。予測結果出力部316は、移動経路予測部314が予測した予測結果を示す情報(予測結果356)を生成して出力装置55に出力する。 Among the above functions, the image acquisition unit 311 acquires the time-series image 351 sent from the image acquisition device 2. The movement locus information generation unit 312 generates the movement locus information 352 based on the time-series image. The action information generation unit 313 generates the action information 353 based on the time-series image. The movement route prediction unit 314 predicts the movement route of the person (tracking target person 3) based on the movement locus information 352 and the action information 353. The prediction model generation unit 315 generates a prediction model 355 used for predicting the movement path of a person based on the movement locus information 352 and the action information 353. The prediction result output unit 316 generates information (prediction result 356) indicating the prediction result predicted by the movement route prediction unit 314 and outputs it to the output device 55.

図4は、人物の移動経路の予測に際して移動経路予測装置100が行う処理(以下、移動経路予測処理S400と称する。)を説明するフローチャートである。以下、同図とともに移動経路予測処理S400について説明する。 FIG. 4 is a flowchart illustrating a process (hereinafter, referred to as a movement route prediction process S400) performed by the movement route prediction device 100 when predicting a movement route of a person. Hereinafter, the movement route prediction process S400 will be described with reference to the figure.

同図に示すように、まず移動経路予測装置100の画像取得部311は、画像取得装置2から送られてくる時系列画像351を取得(受信)する(S411)。尚、画像取得部311は、時系列画像351を画像取得装置2からリアルタイムに受信することが望まし
いが、後述する人物の移動経路の予測に支障が出ない程度であれば時間差をもって時系列画像351を画像取得装置2から受信してもよい。
As shown in the figure, first, the image acquisition unit 311 of the movement route prediction device 100 acquires (receives) the time-series image 351 sent from the image acquisition device 2 (S411). It is desirable that the image acquisition unit 311 receives the time-series image 351 from the image acquisition device 2 in real time, but the time-series image 351 has a time lag as long as it does not interfere with the prediction of the movement path of the person described later. May be received from the image acquisition device 2.

続いて、移動経路予測装置100の移動軌跡情報生成部312が、時系列画像351に基づき人物の移動軌跡情報352を生成する処理(以下、移動軌跡情報生成処理S412と称する。)を行う。また移動経路予測装置100の行動情報生成部313が行動情報353を生成する処理(以下、行動情報生成処理S413と称する。)を行う。尚、移動経路予測装置100は、移動軌跡情報生成処理S412及び行動情報生成処理S413を並列処理として行ってもよいし、一方が終了した後に他方を開始する順次処理として行ってもよい。 Subsequently, the movement locus information generation unit 312 of the movement route prediction device 100 performs a process of generating the movement locus information 352 of the person based on the time-series image 351 (hereinafter, referred to as the movement locus information generation process S412). Further, the action information generation unit 313 of the movement route prediction device 100 performs a process of generating the action information 353 (hereinafter, referred to as an action information generation process S413). The movement route prediction device 100 may perform the movement locus information generation process S412 and the action information generation process S413 as parallel processing, or may be performed as sequential processing in which one is completed and the other is started.

図5は、移動軌跡情報生成処理S412の詳細を説明するフローチャートである。以下、同図とともに移動軌跡情報生成処理S412について説明する。 FIG. 5 is a flowchart illustrating the details of the movement locus information generation process S412. Hereinafter, the movement locus information generation process S412 will be described with reference to the figure.

同図に示すように、移動軌跡情報生成部312は、まず図4のS411で取得した時系列画像351に基づき人物の移動軌跡を取得する(S511)。移動軌跡情報生成部312は、例えば、人物の特徴点を追跡する方法、オプティカルフローとクラスタリングを用いて人物の動きを捉える方法、色ヒストグラムを用いて人物を追跡する方法等により、人物の移動軌跡を取得する。移動軌跡を構成する各点の位置座標の取得は、例えば、画像取得装置2の設置位置や撮影方向、レンズ倍率等をパラメータとして、時系列画像に公知の位置推定アルゴリズムや画像解析アルゴリズム、ビデオ解析アルゴリズム等を適用することにより行う。 As shown in the figure, the movement locus information generation unit 312 first acquires the movement locus of a person based on the time-series image 351 acquired in S411 of FIG. 4 (S511). The movement locus information generation unit 312 uses, for example, a method of tracking a feature point of a person, a method of capturing the movement of a person using optical flow and clustering, a method of tracking a person using a color histogram, and the like. To get. To acquire the position coordinates of each point constituting the movement locus, for example, the position estimation algorithm, the image analysis algorithm, and the video analysis known for the time-series image are used as parameters such as the installation position of the image acquisition device 2, the shooting direction, and the lens magnification. This is done by applying an algorithm or the like.

続いて、移動軌跡情報生成部312は、各画像取得装置2の時系列画像351から取得された、同一の人物についての軌跡を連結する。まず移動軌跡情報生成部312は、各画像取得装置2から取得した時系列画像351から、人物が写っている領域(以下、人物領域と称する。)を特定する(S512)。移動軌跡情報生成部312は、例えば、画像取得装置2が人物の特徴点を基準として所定範囲を切り出す方法、公知の人検出のアルゴリズムを利用する方法等により人物領域を特定する。 Subsequently, the movement locus information generation unit 312 connects the loci about the same person acquired from the time-series image 351 of each image acquisition device 2. First, the movement locus information generation unit 312 identifies an area in which a person is captured (hereinafter, referred to as a person area) from the time-series image 351 acquired from each image acquisition device 2 (S512). The movement locus information generation unit 312 specifies a person area by, for example, a method in which the image acquisition device 2 cuts out a predetermined range with reference to a feature point of the person, a method using a known person detection algorithm, or the like.

続いて、移動軌跡情報生成部312は、特定した人物領域の夫々について特徴量(以下、人物特徴量と称する。)を求める(S513)。移動軌跡情報生成部312は、例えば、色ヒストグラムやエッジ特徴量、ディープラーニング(Deep Learning)等の機械学習
手法により求めた特徴量等を人物特徴量として用いる。例えば、人物の向きや人物の姿勢等の情報(メタデータ)を人物特徴量として用いてもよい。また例えば、人の手や足などの人の部位(パーツ)毎の特徴量を人物特徴量として用いてもよい。
Subsequently, the movement locus information generation unit 312 obtains a feature amount (hereinafter, referred to as a person feature amount) for each of the specified person areas (S513). The movement locus information generation unit 312 uses, for example, a color histogram, an edge feature amount, a feature amount obtained by a machine learning method such as deep learning, and the like as a person feature amount. For example, information (metadata) such as the orientation of a person and the posture of a person may be used as a person feature amount. Further, for example, a feature amount for each part of a person such as a person's hand or foot may be used as a person feature amount.

続いて、移動軌跡情報生成部312は、人物特徴量間の類似度を求める(S514)。移動軌跡情報生成部312は、例えば、ユークリッド距離やコサイン距離等のベクトル距離に基づく方法、距離学習(Metric Learning)等の機械学習の手法を用いて距離を状況
に応じて適応的に変化させる方法等により人物特徴量間の類似度を求める。
Subsequently, the movement locus information generation unit 312 obtains the degree of similarity between the person feature quantities (S514). The movement locus information generation unit 312 uses, for example, a method based on vector distances such as Euclidean distance and cosine distance, and a method of adaptively changing the distance according to a situation by using a machine learning method such as distance learning (Metric Learning). The degree of similarity between personal features is obtained by such means.

続いて、移動軌跡情報生成部312は、人物特徴量間の類似度が高い(類似度が予め設定した閾値を超える)時系列画像に基づく移動軌跡を組み合わせることにより人物の移動軌跡を連結する(S515)。尚、いずれの画像取得装置2にも写っていない範囲については、例えば、連結する各時系列画像の移動軌跡の開始点や終了点、開始点の時刻や終了点の時刻、人物が移動可能な範囲に関する情報を用いて移動軌跡を補完する。例えば、移動軌跡情報生成部312は、移動軌跡を時系列に並べ、隣り合う移動軌跡について、時間的に前の移動軌跡の終了点と時間的に後の軌跡の開始点とを最短距離で結んだものを移動軌跡として補完する。 Subsequently, the movement locus information generation unit 312 connects the movement loci of the person by combining the movement loci based on the time-series images having a high degree of similarity between the person feature quantities (the degree of similarity exceeds a preset threshold value). S515). Regarding the range not shown in any of the image acquisition devices 2, for example, the start point and end point of the movement locus of each time-series image to be connected, the time of the start point and the time of the end point, and the person can move. Complement the movement trajectory with information about the range. For example, the movement locus information generation unit 312 arranges the movement loci in chronological order, and connects the end point of the movement locus before the time and the start point of the locus after the time with the shortest distance for the adjacent movement loci. Complement what is as a movement trajectory.

情報記憶部317は、以上のようにして求めた移動軌跡を移動軌跡情報352として記憶する(S516)。 The information storage unit 317 stores the movement locus obtained as described above as the movement locus information 352 (S516).

以上の処理によれば、複数の画像取得装置2から取得される時系列画像に基づき、監視対象となる領域の広範囲に亘って人物(追跡対象者3)の移動軌跡を取得することができる。そのため、例えば、監視対象である施設の全体における人物の移動経路を予測する仕組みを容易に実現することができる。 According to the above processing, it is possible to acquire the movement locus of the person (tracking target person 3) over a wide range of the monitoring target area based on the time-series images acquired from the plurality of image acquisition devices 2. Therefore, for example, it is possible to easily realize a mechanism for predicting the movement route of a person in the entire facility to be monitored.

図6に移動軌跡情報生成部312が生成する移動軌跡情報352の一例を示している。同図に示すように、移動軌跡情報352は、軌跡ID611、画像取得装置ID612、ローカル座標613、ワールド座標614、及び取得日時615の各項目を有する一つ以上のレコードで構成されている。各レコードは、時系列画像から特定される、人物が存在していた場所(移動軌跡を構成する各点)に対応している。 FIG. 6 shows an example of the movement locus information 352 generated by the movement locus information generation unit 312. As shown in the figure, the movement locus information 352 is composed of one or more records having each item of locus ID 611, image acquisition device ID 612, local coordinates 613, world coordinates 614, and acquisition date and time 615. Each record corresponds to the place where the person existed (each point constituting the movement locus) identified from the time series image.

上記項目のうち、軌跡ID611には、移動経路予測装置100が求めた軌跡毎に付与される識別子(以下、軌跡IDと称する。)が設定される。同じ人物の移動軌跡には同じ軌跡IDが付与される。同じ軌跡IDのレコードで表される各点を結ぶことで移動軌跡の全体が表される。 Among the above items, the locus ID 611 is set with an identifier (hereinafter, referred to as a locus ID) assigned to each locus obtained by the movement route prediction device 100. The same locus ID is assigned to the movement locus of the same person. The entire movement locus is represented by connecting the points represented by the records with the same locus ID.

画像取得装置ID612には、当該レコードの内容の取得元となる時系列画像の提供元の画像取得装置2の識別子(以下、画像取得装置IDと称する。)が設定される。 In the image acquisition device ID 612, an identifier (hereinafter, referred to as an image acquisition device ID) of the image acquisition device 2 that provides the time-series image that is the acquisition source of the contents of the record is set.

ローカル座標613には、当該レコードが表す点の位置を、画像取得装置2毎に個別に設定された座標系(以下、ローカル座標と称する。)で表した位置座標が設定される。 In the local coordinates 613, the position coordinates of the points represented by the record are set in the coordinate system (hereinafter, referred to as local coordinates) individually set for each image acquisition device 2.

ワールド座標614には、当該レコードが表す点の位置を、複数の画像取得装置2について統一して(共通に)設定された座標系(以下、ワールド座標と称する。)で表した位置座標が設定される。本実施形態では、ローカル座標及びワールド座標を二次元座標(平面座標)としているが、ローカル座標及びワールド座標は三次元座標であってもよい。ローカル座標とワールド座標との間の変換は、例えば、複数の画像取得装置2の夫々の設置位置や撮影方向、レンズ倍率等に基づき生成した変換行列式(変換マップ)により行うことができる。 In the world coordinates 614, the position coordinates of the points represented by the record are set in the coordinate system (hereinafter referred to as world coordinates) set uniformly (commonly) for the plurality of image acquisition devices 2. Will be done. In the present embodiment, the local coordinates and the world coordinates are set as two-dimensional coordinates (plane coordinates), but the local coordinates and the world coordinates may be three-dimensional coordinates. The conversion between the local coordinates and the world coordinates can be performed by, for example, a transformation determinant (conversion map) generated based on the installation position, shooting direction, lens magnification, etc. of each of the plurality of image acquisition devices 2.

取得日時615には、当該レコードの元になる時系列画像が画像取得装置2によって取得された日時(時系列画像に付帯するタイムスタンプから取得される日時)が設定される。 The acquisition date and time 615 is set to the date and time when the time-series image that is the basis of the record is acquired by the image acquisition device 2 (the date and time acquired from the time stamp attached to the time-series image).

尚、例えば、移動軌跡の変化が激しい期間(単位時間当たりの変化の発生回数が多い期間)においては短い時刻間隔で移動軌跡情報352のレコードを生成し、軌跡の時間変化が少ない期間単位時間当たりの変化の発生回数が少ない期間)においては長い時間間隔で移動軌跡情報352のレコードを生成するようにすれば、移動軌跡情報352のデータサイズの増大を抑制することができる。 For example, in a period in which the movement locus changes drastically (a period in which the number of changes per unit time is large), a record of movement locus information 352 is generated at short time intervals, and a period unit time in which the time change of the locus is small is generated. If the records of the movement locus information 352 are generated at long time intervals during the period (the period during which the number of occurrences of the change is small), the increase in the data size of the movement locus information 352 can be suppressed.

図7は、図4に示した行動情報生成処理S413の詳細を説明するフローチャートである。以下、同図とともに行動情報生成処理S413について説明する。 FIG. 7 is a flowchart illustrating the details of the action information generation process S413 shown in FIG. Hereinafter, the behavior information generation process S413 will be described with reference to the figure.

まず移動経路予測装置100の行動情報生成部313は、前述した図5のS512と同様の方法により、各画像取得装置2の時系列画像から、人物が写っている領域(以下、人物領域と称する。)を特定する(S711)。 First, the action information generation unit 313 of the movement route prediction device 100 uses the same method as S512 in FIG. 5 described above to capture a person from the time-series images of each image acquisition device 2 (hereinafter referred to as a person area). ) Is specified (S711).

続いて、行動情報生成部313は、特定した人物領域の夫々について、人物の動作に関する情報を検出する(S712)。例えば、行動情報生成部313は、人物領域に対して画像処理を行うことにより骨格情報(スケルトン情報)を抽出し、抽出した骨格情報から取得される関節の動きに関する情報から「物を持ち上げる動作」を検出する。また例えば、行動情報生成部313は、「狭い領域を往復」していることから「うろつき」の動作を検出する。 Subsequently, the action information generation unit 313 detects information on the movement of the person for each of the specified person areas (S712). For example, the action information generation unit 313 extracts skeleton information (skeleton information) by performing image processing on a person area, and "lifts an object" from information related to joint movement acquired from the extracted skeleton information. Is detected. Further, for example, the action information generation unit 313 detects the motion of "prowling" because it "reciprocates in a narrow area".

続いて、行動情報生成部313は、各人物領域について検出した動作に基づき、各人物領域について人物の行動を特定する(S713)。行動情報生成部313は、人物の一連の動作又は動作の組み合わせを動作モデル情報354と対照することにより行動を特定する。 Subsequently, the action information generation unit 313 identifies the action of the person for each person area based on the action detected for each person area (S713). The action information generation unit 313 identifies the action by comparing a series of actions or combinations of actions of the person with the action model information 354.

図8に動作モデル情報354の一例を示す。同図に示すように、動作モデル情報354には、人物の動作又は動作の組み合わせ(動作811)と、行動812とを対応づけた一つ以上のレコードで構成されている。動作モデル情報354の内容は、例えば、入力装置54や出力装置55を用いて構成されるユーザインタフェースを介してユーザが設定する。また、例えば、ある行動に達するまでの動作を行う画像を学習データとし、当該学習データに基づき行動を自動的に特定することにより、移動経路予測装置100が動作モデル情報354の内容を自動生成するようにしてもよい。 FIG. 8 shows an example of the operation model information 354. As shown in the figure, the motion model information 354 is composed of one or more records in which the motion or combination of motions of a person (motion 811) and the action 812 are associated with each other. The content of the operation model information 354 is set by the user, for example, via a user interface configured by using the input device 54 and the output device 55. Further, for example, the movement route prediction device 100 automatically generates the content of the motion model information 354 by using an image that performs an motion until reaching a certain action as learning data and automatically specifying the action based on the learning data. You may do so.

行動情報生成部313は、動作モデル情報354に基づき、例えば、人物領域から「物を持ち上げる」動作と「鞄にしまう」動作の双方を検出した場合、動作モデル情報354に基づき「万引き」の行動であると特定する。また行動情報生成部313は、「狭い領域を往復する」動作を検出した場合、動作モデル情報354に基づき「迷子」の行動であると特定する。 When the action information generation unit 313 detects both the "lifting" motion and the "bagging" motion from the person area based on the motion model information 354, the action of "shoplifting" based on the motion model information 354, for example. Identify as. Further, when the action information generation unit 313 detects an action of "reciprocating in a narrow area", it identifies the action as a "lost child" based on the action model information 354.

図7に戻り、続いて、情報記憶部317が、行動情報生成部313が特定した行動を行動情報353として記憶する。以上により、図4の行動情報生成処理S413が終了する。 Returning to FIG. 7, the information storage unit 317 subsequently stores the action specified by the action information generation unit 313 as the action information 353. As a result, the action information generation process S413 of FIG. 4 is completed.

図9に行動情報353の一例を示す。同図に示すように、行動情報353は、軌跡ID911、行動912、発生座標913、及び発生日時914の各項目を有する一つ以上のレコードで構成されている。 FIG. 9 shows an example of action information 353. As shown in the figure, the action information 353 is composed of one or more records having each item of the locus ID 911, the action 912, the occurrence coordinate 913, and the occurrence date and time 914.

上記項目のうち、軌跡ID911には、前述した軌跡IDが設定される。軌跡IDにより、当該行動と当該行動を起こした人物の移動軌跡(移動軌跡情報352の軌跡ID611と同一の軌跡IDが設定されているレコード)とが関連付けられる。 Among the above items, the above-mentioned locus ID is set in the locus ID 911. The locus ID associates the action with the movement locus of the person who caused the action (a record in which the same locus ID as the locus ID 611 of the movement locus information 352 is set).

行動912には、前述した行動情報生成処理S413によって特定された行動が設定される。本例では、行動912に「万引き」、「迷子」、「立入り禁止区域侵入」が設定されている。 The action specified by the above-mentioned action information generation process S413 is set in the action 912. In this example, "shoplifting", "lost child", and "invasion of the exclusion zone" are set in the action 912.

発生座標913には、当該レコードの行動が行われた場所を示すワールド座標で表された位置座標が設定される。 Position coordinates represented by world coordinates indicating the place where the action of the record is performed are set in the generation coordinates 913.

発生日時914には、当該行動が行われた日時(時系列画像に付帯するタイムスタンプから取得される日時)が設定される。 The date and time when the action is performed (date and time obtained from the time stamp attached to the time-series image) is set in the occurrence date and time 914.

図4に戻り、続いて、移動経路予測装置100の移動経路予測部314が、移動軌跡情
報352及び行動情報353の内容と、予測モデル355の内容とを対照することにより、人物(追跡対象者3)の移動経路を予測する(S414)。
Returning to FIG. 4, the movement route prediction unit 314 of the movement route prediction device 100 subsequently compares the contents of the movement locus information 352 and the behavior information 353 with the contents of the prediction model 355, thereby causing a person (tracking target person). Predict the movement route of 3) (S414).

図10に予測モデル355の一例を示す。尚、予測モデル355の生成方法については後述する。 FIG. 10 shows an example of the prediction model 355. The method of generating the prediction model 355 will be described later.

同図に示すように、予測モデル355は、予測ID1011、行動1012、発生座標1013、発生日時1014、予測移動経路1015、及び確率1016の各項目を有する一つ以上のレコードで構成されている。 As shown in the figure, the prediction model 355 is composed of one or more records having each item of prediction ID 1011, action 1012, occurrence coordinate 1013, occurrence date and time 1014, prediction movement route 1015, and probability 1016.

上記項目のうち、予測ID1011には、予測結果(当該予測モデル355の各レコード)の識別子が設定される。 Among the above items, the prediction ID 1011 is set with an identifier of the prediction result (each record of the prediction model 355).

行動1012、発生座標1013、及び発生日時1014の各項目には、夫々、行動情報353における、行動912、発生座標913、及び発生日時914と同様の内容が設定される。尚、行動1012、発生座標1013、及び発生日時1014は、移動経路を予測しようとする人物(追跡対象者3)の行動(行動情報353の内容)に基づき予測移動経路1015及び確率1016を特定する際のキー項目となる。 Each item of the action 1012, the occurrence coordinate 1013, and the occurrence date and time 1014 is set with the same contents as the action 912, the occurrence coordinate 913, and the occurrence date and time 914 in the action information 353. The action 1012, the occurrence coordinate 1013, and the occurrence date and time 1014 specify the predicted movement route 1015 and the probability 1016 based on the behavior (contents of the action information 353) of the person (tracking target person 3) who intends to predict the movement route. It becomes a key item at the time.

予測移動経路1015には、予測される移動経路(以下、予測移動経路と称する。)を示す情報(本例では図11の予測移動経路1015を特定する情報(後述の経路ID))が設定される。 Information indicating a predicted movement route (hereinafter, referred to as a predicted movement route) is set in the predicted movement route 1015 (information for identifying the predicted movement route 1015 in FIG. 11 in this example (route ID described later)). To.

図11に予測移動経路1015に設定される情報の一例を示す。同図に示すように、予測移動経路1015には、経路ID1111、座標1112、及び順序1113の各項目を含む一つ以上のレコードからなる情報が設定される。このうち経路ID1111には、予測移動経路の識別子(以下、経路IDと称する。)が設定される(予測モデル355の予測移動経路1015と同じ経路IDが設定される。)。座標1112には、予測移動経路上の点の位置座標が設定される。順序1113には、各点を連結する順序を示す情報が設定される。各レコードが表す点を順序1113に従って並べることにより予測移動経路の全体が表現される。 FIG. 11 shows an example of the information set in the predicted movement route 1015. As shown in the figure, the predicted movement route 1015 is set with information consisting of one or more records including each item of the route ID 1111, the coordinates 1112, and the order 1113. Of these, the route ID 1111 is set with an identifier of the predicted movement route (hereinafter, referred to as a route ID) (the same route ID as the predicted movement route 1015 of the prediction model 355 is set). The position coordinates of the points on the predicted movement path are set in the coordinates 1112. Information indicating the order in which the points are connected is set in the order 1113. By arranging the points represented by each record according to the order 1113, the entire predicted movement route is represented.

図10に戻り、確率1016には、人物(追跡対象者3)が当該予測移動経路を通る確率を示す情報が設定される。尚、移動軌跡の変化が激しい期間においては短い時刻間隔で予測モデル355のレコードを生成し、軌跡の時間変化が少ない期間においては長い時間間隔で予測モデル355のレコードを生成することで、予測モデル355のデータサイズの増大を抑制することができる。 Returning to FIG. 10, the probability 1016 is set with information indicating the probability that the person (tracking target person 3) will pass the predicted movement route. The prediction model is generated by generating records of the prediction model 355 at short time intervals during a period in which the movement locus changes drastically, and by generating records of the prediction model 355 at long time intervals in a period in which the time change of the locus is small. It is possible to suppress an increase in the data size of 355.

図4に戻り、S414において、移動経路予測部314は、行動情報353を予測モデル355と対照し、人物(追跡対象者3)が起こした行動に対応するレコード(例えば、行動情報353の、行動912、発生座標913、及び発生日時914の組み合わせが一致するレコード)を予測モデル355から抽出する。 Returning to FIG. 4, in S414, the movement route prediction unit 314 contrasts the action information 353 with the prediction model 355, and records the action taken by the person (tracked person 3) (for example, the action of the action information 353). (Records in which the combination of 912, occurrence coordinates 913, and occurrence date and time 914 match) are extracted from the prediction model 355.

例えば、図9の行動情報353の軌跡ID911が「1」のレコードの場合、移動経路予測部314は、行動912に設定されている「万引き」が行動1012に設定されているレコードを予測モデル355から抽出する。この例では、図10に示すレコードのうち1行目と2行目のレコード(予測ID1011が「1」のレコードと予測ID1011が「2」のレコード)が抽出される。 For example, when the locus ID 911 of the action information 353 in FIG. 9 is a record of "1", the movement route prediction unit 314 predicts a record in which "shoplifting" set in the action 912 is set in the action 1012. Extract from. In this example, the records of the first row and the second row (the record having the prediction ID 1011 of "1" and the record having the prediction ID 1011 being "2") are extracted from the records shown in FIG.

尚、発生座標913及び発生日時914については必ずしも完全に予測モデル355の
発生座標1013や発生日時1014と一致している必要はなく、例えば、所定の幅(許容範囲)をもって一致/不一致を判定してよい。尚、一致/不一致の判定に発生日時を用いることで、例えば、時間帯によって変化する混雑度等の現場の状況に応じて適切に移動軌跡を予測することが可能になる。
The occurrence coordinates 913 and the occurrence date and time 914 do not necessarily have to completely match the occurrence coordinates 1013 and the occurrence date and time 1014 of the prediction model 355. For example, the match / mismatch is determined with a predetermined width (allowable range). You can. By using the date and time of occurrence for the determination of match / mismatch, it is possible to appropriately predict the movement locus according to the situation at the site such as the degree of congestion that changes depending on the time zone.

図4に戻り、続くS415では、移動経路予測装置100の予測結果出力部316が、S414にて移動経路予測部314が抽出した予測モデル355のレコードの内容に基づき、人物(追跡対象者3)の移動経路の予測結果を示した情報を予測結果356として生成し、生成した予測結果356を出力装置55に出力する。 Returning to FIG. 4, in the following S415, the prediction result output unit 316 of the movement route prediction device 100 is a person (tracking target person 3) based on the contents of the record of the prediction model 355 extracted by the movement route prediction unit 314 in S414. Information indicating the prediction result of the movement route of the above is generated as the prediction result 356, and the generated prediction result 356 is output to the output device 55.

図12は、出力装置55に出力する予測結果356の一例(以下、予測結果表示画面1200と称する。)である。同図に示すように、予測結果表示画面1200には、人物(追跡対象者3)が移動する領域周辺の地図情報(店舗内の俯瞰マップ等)に重ねて予測結果356が示されている。同図において、符号1201は行動(万引き)が行われた位置を、符号1202は人物(追跡対象者3)の現在位置を、符号1203は人物(追跡対象者3)の移動軌跡を、夫々示している。また符号1204及び符号1205で示す破線は、夫々人物(追跡対象者3)の予測移動経路を示している。尚、符号1204で示す破線は、図10の予測ID1011が「1」のレコードの予測移動経路1015であり、確率1016の内容である「80%」も併せて表示されている。また符号1205で示す破線は、図10の予測ID1011が「2」のレコードの予測移動経路1015であり、確率1016の内容である「20%」も併せて表示されている。 FIG. 12 is an example of the prediction result 356 output to the output device 55 (hereinafter, referred to as a prediction result display screen 1200). As shown in the figure, the prediction result display screen 1200 shows the prediction result 356 superimposed on the map information (overhead map in the store, etc.) around the area where the person (tracking target person 3) moves. In the figure, reference numeral 1201 indicates the position where the action (shoplifting) was performed, reference numeral 1202 indicates the current position of the person (tracking target person 3), and reference numeral 1203 indicates the movement trajectory of the person (tracking target person 3). ing. Further, the broken lines indicated by reference numerals 1204 and 1205 indicate the predicted movement paths of the persons (tracked persons 3), respectively. The broken line indicated by reference numeral 1204 is the predicted movement path 1015 of the record whose prediction ID 1011 in FIG. 10 is "1", and "80%" which is the content of the probability 1016 is also displayed. Further, the broken line indicated by the reference numeral 1205 is the predicted movement path 1015 of the record whose prediction ID 1011 is “2” in FIG. 10, and “20%” which is the content of the probability 1016 is also displayed.

監視者等のユーザは、同図に示す予測結果表示画面1200に基づき、人物(追跡対象者3)が、将来、符号1205で示す移動経路に沿って移動する可能性が高いことを知ることができる。そのため、例えば、当該移動経路に沿ったラインで監視等するのがよいと判断することができる。 Based on the prediction result display screen 1200 shown in the figure, a user such as a monitor can know that a person (tracking target person 3) is likely to move along a movement route indicated by reference numeral 1205 in the future. it can. Therefore, for example, it can be determined that it is better to monitor the line along the movement route.

[予測モデルの生成]
図13は、前述した予測モデル355を生成する処理(以下、予測モデル生成処理S1300と称する。)を説明するフローチャートである。以下、同図とともに予測モデル生成処理S1300について説明する。
[Generation of prediction model]
FIG. 13 is a flowchart illustrating a process of generating the above-mentioned prediction model 355 (hereinafter, referred to as a prediction model generation process S1300). Hereinafter, the prediction model generation process S1300 will be described with reference to the figure.

移動経路予測装置100の予測モデル生成部315は、移動軌跡情報352から複数人分の移動軌跡を、また行動情報353から複数人分の行動情報を、夫々取得する(S1311,S1312)。続いて、予測モデル生成部315は、取得した移動軌跡と行動情報とを、軌跡IDをキーとして関連付ける(S1313)。続いて、予測モデル生成部315は、関連付けたデータについて学習を行う。学習は、例えば、行動の発生日時や発生座標、及び人物のその後の移動経路等について統計的な性質を発見することにより行う(S1314)。続いて、予測モデル生成部315は、学習結果を予測モデル355として記憶する(S1315)。以上で予測モデル生成処理S1300が終了する。 The prediction model generation unit 315 of the movement route prediction device 100 acquires the movement loci for a plurality of persons from the movement locus information 352 and the action information for a plurality of persons from the action information 353 (S1311, S1312). Subsequently, the prediction model generation unit 315 associates the acquired movement locus with the action information using the locus ID as a key (S1313). Subsequently, the prediction model generation unit 315 learns about the associated data. Learning is performed by discovering statistical properties such as the date and time of occurrence of an action, the coordinates of occurrence, and the subsequent movement path of a person (S1314). Subsequently, the prediction model generation unit 315 stores the learning result as the prediction model 355 (S1315). This completes the prediction model generation process S1300.

ところで、以上に説明した第1実施形態では、人物に関する情報として行動情報353を用いているが、属性情報(大人、男性、女性、子供、若者、老人等)を人物に関する情報として用いてもよい。属性情報を人物に関する情報として用いて予測モデル355を生成することで(例えば、「子ども」(属性情報)の「うろつき」を「迷子」として特定する)移動軌跡の予測精度を向上させることができる。尚、以上に説明した移動経路予測システム1では、移動軌跡情報352や行動情報353を取得するためのセンサとして、時系列画像351を取得する画像取得装置2(ビデオカメラ等)を用いているが、これを利用して、例えば、時系列画像351に基づき人物の年齢や性別などの属性情報を生成する機能(属性情報生成部)を移動経路予測装置100に設けてもよい。 By the way, in the first embodiment described above, the behavior information 353 is used as the information about the person, but the attribute information (adult, male, female, child, young person, old man, etc.) may be used as the information about the person. .. By generating the prediction model 355 using the attribute information as the information about the person (for example, specifying the "wandering" of the "child" (attribute information) as the "lost child"), the prediction accuracy of the movement locus can be improved. .. In the movement route prediction system 1 described above, an image acquisition device 2 (video camera or the like) for acquiring a time series image 351 is used as a sensor for acquiring the movement trajectory information 352 and the action information 353. By utilizing this, for example, the movement route prediction device 100 may be provided with a function (attribute information generation unit) for generating attribute information such as the age and gender of a person based on the time series image 351.

[第2実施形態]
図14に第2実施形態の移動経路予測システム1の構成を示している。同図に示すように、第2実施形態の移動経路予測システム1は、一つ以上の携帯情報端末4、一つ以上の中継装置6、及び移動経路予測装置100を含む。第1実施形態の移動経路予測システム1では、人物(追跡対象者3)の移動軌跡情報や行動情報を取得するセンサの一例としてビデオカメラ等の画像取得装置2を用いたが、第2実施形態では上記センサとして携帯情報端末4を用いる。
[Second Embodiment]
FIG. 14 shows the configuration of the movement route prediction system 1 of the second embodiment. As shown in the figure, the movement route prediction system 1 of the second embodiment includes one or more mobile information terminals 4, one or more relay devices 6, and a movement route prediction device 100. In the movement route prediction system 1 of the first embodiment, an image acquisition device 2 such as a video camera is used as an example of a sensor for acquiring the movement trajectory information and the behavior information of the person (tracking target person 3), but the second embodiment Then, the portable information terminal 4 is used as the sensor.

携帯情報端末4は、例えば、スマートフォン、携帯電話機、PDA(Personal Digital
Assistant)等である。本実施形態では携帯情報端末4を人物が携帯して持ち歩くことを想定している。携帯情報端末4は、自身の位置を示す情報を出力する機能(無線LAN(Wi−Fi等)やGPS(Global Positioning System)等による位置測定機能)を備え
る。中継装置6は、携帯情報端末4と移動経路予測装置100とを通信可能に接続する装置であり、例えば、無線LANのルータ(Router)である。尚、移動経路予測装置100のハードウェアは第1実施形態と同様であるので説明を省略する。
The mobile information terminal 4 is, for example, a smartphone, a mobile phone, or a PDA (Personal Digital).
Assistant) etc. In this embodiment, it is assumed that a person carries the mobile information terminal 4 with him / her. The mobile information terminal 4 has a function of outputting information indicating its own position (position measurement function by wireless LAN (Wi-Fi or the like), GPS (Global Positioning System) or the like). The relay device 6 is a device for communicably connecting the mobile information terminal 4 and the movement route prediction device 100, and is, for example, a router for a wireless LAN. Since the hardware of the movement route prediction device 100 is the same as that of the first embodiment, the description thereof will be omitted.

図15は、第2実施形態の移動経路予測装置100が備える機能、及び第2実施形態の移動経路予測装置100が記憶する情報(データ)を示すブロック図である。第1実施形態と異なり、第2実施形態の移動経路予測装置100は、画像取得部311に代えて端末位置情報取得部321を備える。端末位置情報取得部321は、携帯情報端末4から送られてくる、携帯情報端末4の現在位置を示す情報を取得する。第1実施形態と異なり、情報記憶部317は、端末位置情報取得部321が取得した携帯情報端末4の現在位置を示す情報を時系列位置情報361として記憶する。 FIG. 15 is a block diagram showing a function included in the movement route prediction device 100 of the second embodiment and information (data) stored in the movement route prediction device 100 of the second embodiment. Unlike the first embodiment, the movement route prediction device 100 of the second embodiment includes a terminal position information acquisition unit 321 instead of the image acquisition unit 311. The terminal position information acquisition unit 321 acquires the information indicating the current position of the mobile information terminal 4 sent from the mobile information terminal 4. Unlike the first embodiment, the information storage unit 317 stores information indicating the current position of the mobile information terminal 4 acquired by the terminal position information acquisition unit 321 as time-series position information 361.

第2実施形態の移動軌跡情報生成部312は、時系列位置情報361に基づき移動軌跡情報352を生成する。第2実施形態の行動情報生成部313は、例えば、ユーザからの設定入力により行動情報353を生成する。第2実施形態の移動経路予測装置100の他の構成については基本的に第1実施形態の移動経路予測装置100と同様である。 The movement locus information generation unit 312 of the second embodiment generates the movement locus information 352 based on the time series position information 361. The action information generation unit 313 of the second embodiment generates the action information 353 by inputting a setting from the user, for example. Other configurations of the movement route prediction device 100 of the second embodiment are basically the same as those of the movement route prediction device 100 of the first embodiment.

第2実施形態の移動経路予測装置100は、例えば、各携帯情報端末4に付与されている識別子(MACアドレス、IPアドレス)により各携帯情報端末4を識別する。尚、IPアドレスを用いる場合には、例えば、中継装置6の通信可能エリアから外れるとIPアドレスが変化する可能性があるため、例えば、監視対象となるエリアが通信可能エリア内になるようにする。 The movement route prediction device 100 of the second embodiment identifies each mobile information terminal 4 by, for example, an identifier (MAC address, IP address) given to each mobile information terminal 4. When using an IP address, for example, the IP address may change if it goes out of the communicable area of the relay device 6, so for example, the area to be monitored should be within the communicable area. ..

以上のように、センサとして携帯情報端末4を用いた場合でも、人物(追跡対象者3)の移動経路を予測する構成を実現することができる。また第2実施形態の移動経路予測システム1では、移動経路予測装置100が画像処理を行う必要がなく、第1実施形態の移動経路予測システム1に比べて移動経路予測装置100の負荷を軽減することができる。 As described above, even when the mobile information terminal 4 is used as the sensor, it is possible to realize a configuration that predicts the movement route of the person (tracking target person 3). Further, in the movement route prediction system 1 of the second embodiment, the movement route prediction device 100 does not need to perform image processing, and the load of the movement route prediction device 100 is reduced as compared with the movement route prediction system 1 of the first embodiment. be able to.

[第3実施形態]
図16に第3実施形態の移動経路予測システム1の構成を示している。同図に示すように、第3実施形態の移動経路予測システム1は、第1実施形態の移動経路予測システム1が備える構成に加え、携帯情報端末4に予測結果356を提供するための構成を含む。
[Third Embodiment]
FIG. 16 shows the configuration of the movement route prediction system 1 of the third embodiment. As shown in the figure, the movement route prediction system 1 of the third embodiment has a configuration for providing the prediction result 356 to the mobile information terminal 4 in addition to the configuration provided in the movement route prediction system 1 of the first embodiment. Including.

第3実施形態の移動経路予測装置100の予測結果出力部316は、予測結果356を表示する画面として、携帯情報端末4に表示可能な形式の画面(以下、予測結果表示画面1700)を生成する。第3実施形態の移動経路予測装置100の通信装置56は、通信手段(携帯電話網、インターネット、無線LAN等)を介して携帯情報端末4と無線通信
し、予測結果表示画面1700を携帯情報端末4に送信する。第3実施形態の移動経路予測装置100の他の構成については基本的に第1実施形態の移動経路予測装置100と同様である。
The prediction result output unit 316 of the movement route prediction device 100 of the third embodiment generates a screen in a format that can be displayed on the mobile information terminal 4 (hereinafter, prediction result display screen 1700) as a screen for displaying the prediction result 356. .. The communication device 56 of the movement route prediction device 100 of the third embodiment wirelessly communicates with the mobile information terminal 4 via a communication means (mobile phone network, Internet, wireless LAN, etc.), and displays the prediction result display screen 1700 on the mobile information terminal. Send to 4. Other configurations of the movement route prediction device 100 of the third embodiment are basically the same as those of the movement route prediction device 100 of the first embodiment.

図17に第3実施形態の移動経路予測装置100の予測結果出力部316が出力する予測結果表示画面1700の一例を示す。同図において、符号1701は行動(万引き)が行われた位置を、符号1702は人物(追跡対象者3)の現在位置を、符号1703は人物(追跡対象者3)の移動軌跡を、夫々示している。また符号1704及び符号1705で示す破線は、夫々人物(追跡対象者3)の予測移動経路を示している。 FIG. 17 shows an example of the prediction result display screen 1700 output by the prediction result output unit 316 of the movement route prediction device 100 of the third embodiment. In the figure, reference numeral 1701 indicates the position where the action (shoplifting) was performed, reference numeral 1702 indicates the current position of the person (tracking target person 3), and reference numeral 1703 indicates the movement trajectory of the person (tracking target person 3). ing. Further, the broken lines indicated by reference numerals 1704 and 1705 indicate the predicted movement paths of the persons (tracked persons 3), respectively.

第3実施形態の移動経路予測システム1によれば、例えば、監視員等のユーザは、携帯情報端末4に表示される予測結果表示画面1700を確認しながら人物(追跡対象者3)を効率よく追跡することができる。また移動経路予測装置100が、例えば、画像取得装置2から送られてくる時系列画像に基づき予測結果表示画面1700の内容をリアルタイムに更新することで、ユーザは現場の最新の状況に基づき人物(追跡対象者3)を追跡することができる。 According to the movement route prediction system 1 of the third embodiment, for example, a user such as an observer efficiently picks up a person (tracking target person 3) while checking the prediction result display screen 1700 displayed on the mobile information terminal 4. Can be tracked. Further, the movement route prediction device 100 updates the contents of the prediction result display screen 1700 in real time based on, for example, a time-series image sent from the image acquisition device 2, so that the user can use a person (a person () based on the latest situation at the site. The tracked person 3) can be tracked.

ところで、本発明は上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また上記実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 By the way, it goes without saying that the present invention is not limited to the above embodiment and can be variously modified without departing from the gist thereof. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add / delete / replace a part of the configuration of the above embodiment with another configuration.

また上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、また
はICカード、SDカード、DVD等の記録媒体に置くことができる。
Further, each of the above configurations, functional units, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, etc. may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。例えば、実際にはほとんど全ての構成が相互に接続されていると考えてもよい。 Further, in each of the above figures, the control lines and information lines are shown as necessary for explanation, and not all the control lines and information lines in the implementation are necessarily shown. For example, in practice almost all configurations may be considered interconnected.

また以上に説明した移動経路予測装置100の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、移動経路予測装置100が備えるハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。 Further, the arrangement form of various functional units, various processing units, and various databases of the movement route prediction device 100 described above is only an example. The arrangement form of the various functional units, the various processing units, and the various databases can be changed to the optimum arrangement form from the viewpoints of the performance, processing efficiency, communication efficiency, and the like of the hardware and software included in the movement route prediction device 100.

また前述したデータベースの構成(スキーマ(Schema)等)は、リソースの効率的な利用、処理効率向上、アクセス効率向上、検索効率向上等の観点から柔軟に変更し得る。 Further, the above-mentioned database configuration (schema, etc.) can be flexibly changed from the viewpoints of efficient use of resources, improvement of processing efficiency, improvement of access efficiency, improvement of search efficiency, and the like.

1 移動経路予測システム、2 画像取得装置、3 追跡対象者、4 携帯情報端末、6
中継装置、100 移動経路予測装置、311 画像取得部、312 移動軌跡情報生成部、313 行動情報生成部、314 移動経路予測部、315 予測モデル生成部、316 予測結果出力部、317 情報記憶部、351 時系列画像、352 移動軌跡情報、353 行動情報、354 動作モデル情報、355 予測モデル、356 予測結果、S400 移動経路予測処理、S412 移動軌跡情報生成処理、S413 行動情報生成処理、1200 予測結果表示画面、S1300 予測モデル生成処理、170
0 予測結果表示画面
1 Movement route prediction system, 2 Image acquisition device, 3 Tracked person, 4 Mobile information terminal, 6
Relay device, 100 movement route prediction device, 311 image acquisition unit, 312 movement trajectory information generation unit, 313 action information generation unit, 314 movement route prediction unit, 315 prediction model generation unit, 316 prediction result output unit, 317 information storage unit, 351 time series image, 352 movement locus information, 353 behavior information, 354 motion model information, 355 prediction model, 356 prediction result, S400 movement route prediction processing, S412 movement locus information generation processing, S413 behavior information generation processing, 1200 prediction result display Screen, S1300 Predictive model generation process, 170
0 Prediction result display screen

Claims (15)

センサによって取得される情報であるセンサ情報を取得するセンサ情報取得部と、
前記センサ情報に基づき、人物の移動履歴に関する情報である移動履歴情報を生成する移動履歴情報生成部と、
人物の行動に関する情報である行動情報と人物の属性情報とを記憶する情報記憶部と、
前記移動履歴情報、前記行動情報、及び前記属性情報に基づき、人物がとる行動と、当該人物が移動することが予測される移動経路である予測移動経路とを対応づけた情報を含む予測モデルを生成する予測モデル生成部と、
追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得する移動経路予測部と、
取得した前記予測移動経路を示す情報を出力する予測結果出力部と、
を備える、移動経路予測装置。
A sensor information acquisition unit that acquires sensor information, which is information acquired by the sensor,
A movement history information generation unit that generates movement history information, which is information related to the movement history of a person, based on the sensor information.
An information storage unit that stores behavioral information and attribute information of a person, which is information about the behavior of a person ,
Based on the movement history information, the action information, and the attribute information, a prediction model including information that associates an action taken by a person with a predicted movement route that is a movement route in which the person is predicted to move is provided. a prediction model generation unit to be generated,
A movement route prediction unit that acquires the predicted movement route corresponding to the behavior information of the tracked person from the prediction model, and
A prediction result output unit that outputs the acquired information indicating the predicted movement route, and
A movement route prediction device.
請求項1に記載の移動経路予測装置であって、
前記予測モデル生成部は、前記移動履歴情報、前記行動情報、及び前記属性情報に基づき、人物がとる行動と、当該人物が移動することが予測される移動経路である予測移動経路と、当該人物が移動することが予測される移動経路が前記予測移動経路である確率と、を対応づけた情報を含む予測モデルを生成し、
前記予測結果出力部は、取得した前記予測移動経路を示す情報と当該予測移動経路の前記確率とを出力する、
移動経路予測装置。
The movement route prediction device according to claim 1.
The prediction model generation unit includes an action taken by a person based on the movement history information, the action information, and the attribute information, a predicted movement route which is a movement route in which the person is predicted to move, and the person. A prediction model including information associated with the probability that the movement route predicted to move is the predicted movement route is generated.
The prediction result output unit outputs the acquired information indicating the predicted movement route and the probability of the predicted movement route.
Movement route prediction device.
請求項1又は2に記載の移動経路予測装置であって、
前記センサ情報に基づき前記行動情報を生成する行動情報生成部を備え、
前記移動経路予測部は、前記センサ情報に基づき生成された追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得する、
移動経路予測装置。
The movement route prediction device according to claim 1 or 2 .
It is provided with an action information generation unit that generates the action information based on the sensor information.
The movement route prediction unit acquires the predicted movement route corresponding to the behavior information of the tracking target person generated based on the sensor information from the prediction model.
Movement route prediction device.
請求項1又は2に記載の移動経路予測装置であって、
前記センサ情報に基づき前記属性情報を生成する属性情報生成部をさらに備える、
移動経路予測装置。
The movement route prediction device according to claim 1 or 2 .
An attribute information generation unit that generates the attribute information based on the sensor information is further provided.
Movement route prediction device.
請求項1又は2のいずれか一項に記載の移動経路予測装置であって、
前記センサは一つ以上の画像取得装置であり、
前記センサ情報取得部は、前記センサから時系列的な画像を前記センサ情報として取得し、
前記移動履歴情報生成部は、前記時系列的な画像に基づき前記移動履歴情報を生成する、
移動経路予測装置。
The movement route prediction device according to any one of claims 1 or 2 .
The sensor is one or more image acquisition devices.
The sensor information acquisition unit acquires time-series images from the sensor as the sensor information.
The movement history information generation unit generates the movement history information based on the time-series image.
Movement route prediction device.
請求項4に記載の移動経路予測装置であって、
前記センサは一つ以上の画像取得装置であり、
前記センサ情報取得部は、前記センサと通信することにより前記画像取得装置から時系列的な画像を前記センサ情報として取得し、
前記属性情報生成部は、前記時系列的な画像に基づき前記属性情報を生成する、
移動経路予測装置。
The movement route prediction device according to claim 4.
The sensor is one or more image acquisition devices.
The sensor information acquisition unit acquires a time-series image from the image acquisition device as the sensor information by communicating with the sensor.
The attribute information generation unit generates the attribute information based on the time-series image.
Movement route prediction device.
請求項1又は2に記載の移動経路予測装置であって、
前記センサは現在位置を取得する機能を有する一つ以上の携帯情報端末であり、
前記センサ情報取得部は、前記携帯情報端末から当該携帯情報端末の現在位置を示す情報を前記センサ情報として取得する、
移動経路予測装置。
The movement route prediction device according to claim 1 or 2 .
The sensor is one or more personal digital assistants having a function of acquiring the current position.
The sensor information acquisition unit acquires information indicating the current position of the mobile information terminal from the mobile information terminal as the sensor information.
Movement route prediction device.
請求項に記載の移動経路予測装置であって、
携帯情報端末と通信する通信装置を備え、
前記予測結果出力部は、前記予測移動経路を示す情報と当該予測移動経路の前記確率とを記載した、前記携帯情報端末に表示可能な形式の画面を生成し、前記画面を前記携帯情報端末に送信する、
移動経路予測装置。
The movement route prediction device according to claim 2 .
Equipped with a communication device that communicates with mobile information terminals
The prediction result output unit generates a screen in a format that can be displayed on the mobile information terminal, which describes information indicating the predicted movement route and the probability of the predicted movement route, and displays the screen on the mobile information terminal. Send,
Movement route prediction device.
情報処理装置が、
センサによって取得される情報であるセンサ情報を取得するステップ、
前記センサ情報に基づき、人物の移動履歴に関する情報である移動履歴情報を生成するステップ、
人物の行動に関する情報である行動情報と人物の属性情報とを記憶するステップ、
前記移動履歴情報、前記行動情報、及び前記属性情報に基づき、人物がとる行動と、当該人物が移動することが予測される移動経路である予測移動経路とを対応づけた情報を含む予測モデルを生成するステップ、
追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得するステップ、
取得した前記予測移動経路を示す情報を出力するステップ、
を実行する、移動経路予測方法。
Information processing device
Steps to acquire sensor information, which is information acquired by the sensor,
A step of generating movement history information, which is information on the movement history of a person, based on the sensor information.
Steps to memorize behavioral information and attribute information of a person, which is information about the behavior of a person ,
Based on the movement history information, the action information, and the attribute information, a prediction model including information that associates an action taken by a person with a predicted movement route that is a movement route in which the person is predicted to move is provided. Steps to generate ,
A step of acquiring the predicted movement route corresponding to the behavior information of the tracked person from the predicted model,
A step of outputting information indicating the acquired predicted movement route,
A movement route prediction method that executes.
請求項9に記載の移動経路予測方法であって、
前記情報処理装置が、
前記移動履歴情報、前記行動情報、及び前記属性情報に基づき、人物がとる行動と、当該人物が移動することが予測される移動経路である予測移動経路と、当該人物が移動することが予測される移動経路が前記予測移動経路である確率と、を対応づけた情報を含む予測モデルを生成するステップと、
取得した前記予測移動経路を示す情報と当該予測移動経路の前記確率とを出力するステップと、
更に実行する、移動経路予測方法。
The movement route prediction method according to claim 9.
The information processing device
Based on the movement history information, the action information, and the attribute information, the action taken by the person, the predicted movement route which is the movement route where the person is predicted to move, and the predicted movement route where the person is predicted to move are predicted. A step of generating a prediction model including information associated with the probability that the movement route is the predicted movement route, and
A step of outputting the acquired information indicating the predicted movement route and the probability of the predicted movement route, and
A movement route prediction method that further executes.
請求項9又は10に記載の移動経路予測方法であって、
前記情報処理装置が、
前記センサ情報に基づき前記行動情報を生成するステップ、
前記センサ情報に基づき生成された追跡対象者の前記行動情報に対応する前記予測移動経路を前記予測モデルから取得するステップ、
を実行する、移動経路予測方法。
The movement route prediction method according to claim 9 or 10 .
The information processing device
A step of generating the action information based on the sensor information,
A step of acquiring the predicted movement route corresponding to the behavior information of the tracking target person generated based on the sensor information from the prediction model.
A movement route prediction method that executes.
請求項9又は10に記載の移動経路予測方法であって、
前記情報処理装置が、
前記センサ情報に基づき前記属性情報を生成するステップ、
をさらに実行する、移動経路予測方法。
The movement route prediction method according to claim 9 or 10 .
The information processing device
A step of generating the attribute information based on the sensor information,
A movement route prediction method that further executes.
請求項9又は10のいずれか一項に記載の移動経路予測方法であって、
前記センサは一つ以上の画像取得装置であり、
前記情報処理装置が、
前記センサから時系列的な画像を前記センサ情報として取得するステップ、
前記時系列的な画像に基づき前記移動履歴情報を生成するステップ、
をさらに実行する、移動経路予測方法。
The movement route prediction method according to any one of claims 9 or 10 .
The sensor is one or more image acquisition devices.
The information processing device
A step of acquiring a time-series image from the sensor as the sensor information,
A step of generating the movement history information based on the time-series image,
A movement route prediction method that further executes.
請求項12に記載の移動経路予測方法であって、
前記センサは一つ以上の画像取得装置であり、
前記情報処理装置が、
前記センサと通信することにより前記画像取得装置から時系列的な画像を前記センサ情報として取得するステップ、
前記時系列的な画像に基づき前記属性情報を生成するステップ、
をさらに実行する、移動経路予測方法。
The movement route prediction method according to claim 12.
The sensor is one or more image acquisition devices.
The information processing device
A step of acquiring a time-series image as the sensor information from the image acquisition device by communicating with the sensor.
A step of generating the attribute information based on the time-series image,
A movement route prediction method that further executes.
請求項9又は10に記載の移動経路予測方法であって、
前記センサは現在位置を取得する機能を有する一つ以上の携帯情報端末であり、
前記情報処理装置が、前記携帯情報端末から当該携帯情報端末の現在位置を示す情報を前記センサ情報として取得するステップ、
をさらに実行する、移動経路予測方法。
The movement route prediction method according to claim 9 or 10 .
The sensor is one or more personal digital assistants having a function of acquiring the current position.
A step in which the information processing device acquires information indicating the current position of the mobile information terminal from the mobile information terminal as the sensor information.
A movement route prediction method that further executes.
JP2017058528A 2017-03-24 2017-03-24 Movement route prediction device and movement route prediction method Active JP6814673B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017058528A JP6814673B2 (en) 2017-03-24 2017-03-24 Movement route prediction device and movement route prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058528A JP6814673B2 (en) 2017-03-24 2017-03-24 Movement route prediction device and movement route prediction method

Publications (2)

Publication Number Publication Date
JP2018160219A JP2018160219A (en) 2018-10-11
JP6814673B2 true JP6814673B2 (en) 2021-01-20

Family

ID=63796739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058528A Active JP6814673B2 (en) 2017-03-24 2017-03-24 Movement route prediction device and movement route prediction method

Country Status (1)

Country Link
JP (1) JP6814673B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086659A (en) * 2018-11-19 2020-06-04 トヨタ自動車株式会社 Information processing system, program, and information processing method
JP6647489B1 (en) 2018-11-27 2020-02-14 株式会社アジラ Suspicious body / abnormal body detection device
JP7442280B2 (en) * 2019-08-21 2024-03-04 興和株式会社 Information display system and information display device
CN112000898A (en) * 2020-07-14 2020-11-27 浙江大华技术股份有限公司 Data generation method, electronic device, and storage medium
JP7407677B2 (en) 2020-08-25 2024-01-04 三菱電機ビルソリューションズ株式会社 Lost child detection device, lost child detection method, and program
JPWO2022153407A1 (en) * 2021-01-13 2022-07-21
JP7171968B1 (en) * 2021-03-25 2022-11-15 楽天グループ株式会社 Estimation system, estimation method, and program
WO2023105666A1 (en) * 2021-12-08 2023-06-15 日本電気株式会社 Image processing system, image processing method, and non-transitory computer-readable medium
WO2023166648A1 (en) * 2022-03-03 2023-09-07 日本電気株式会社 Movement trajectory information processing device
WO2023166649A1 (en) * 2022-03-03 2023-09-07 日本電気株式会社 Movement path information processing device, movement path information processing method, and recording medium
KR102557342B1 (en) * 2022-06-28 2023-07-19 주식회사 시큐오션 System and method for controlling operation of sensor for detecting intruder
WO2024034353A1 (en) * 2022-08-12 2024-02-15 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, information processing system, base station, and terminal
CN117251748B (en) * 2023-10-10 2024-04-19 中国船舶集团有限公司第七〇九研究所 Track prediction method, equipment and storage medium based on historical rule mining

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4702598B2 (en) * 2005-03-15 2011-06-15 オムロン株式会社 Monitoring system, monitoring apparatus and method, recording medium, and program
JP5121258B2 (en) * 2007-03-06 2013-01-16 株式会社東芝 Suspicious behavior detection system and method
JP6047910B2 (en) * 2012-04-12 2016-12-21 株式会社デンソー Monitoring device and monitoring center
JP6200225B2 (en) * 2013-07-04 2017-09-20 セコム株式会社 Guidance system
JP6720866B2 (en) * 2014-05-27 2020-07-08 ソニー株式会社 Information processing apparatus, information presentation method, and program
JP2017004046A (en) * 2015-06-04 2017-01-05 住友電工システムソリューション株式会社 Abnormal behavior detection device, abnormal behavior detection system, abnormal behavior detection method, and computer program

Also Published As

Publication number Publication date
JP2018160219A (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP6814673B2 (en) Movement route prediction device and movement route prediction method
US10572736B2 (en) Image processing apparatus, image processing system, method for image processing, and computer program
KR101897923B1 (en) System for providing identify target object based on neural network learning model, method thereof, and computer readable storage having the same
JP6885682B2 (en) Monitoring system, management device, and monitoring method
US9396400B1 (en) Computer-vision based security system using a depth camera
US8295545B2 (en) System and method for model based people counting
US20170213080A1 (en) Methods and systems for automatically and accurately detecting human bodies in videos and/or images
JP7405200B2 (en) person detection system
KR101891887B1 (en) Image processing method, apparatus for predicting dangerous situation and method, server for predicting dangerous situation using thereof
JP5743849B2 (en) Video analysis apparatus and system
JPWO2018025831A1 (en) People flow estimation device, people flow estimation method and program
US10635908B2 (en) Image processing system and image processing method
JP2018148399A (en) Information processing system, information processing method, and program
US9489582B2 (en) Video anomaly detection based upon a sparsity model
JP2015072578A (en) Person identification apparatus, person identification method, and program
JP2013192154A (en) Monitoring device, reliability calculation program and reliability calculation method
WO2019033567A1 (en) Method for capturing eyeball movement, device and storage medium
KR101979375B1 (en) Method of predicting object behavior of surveillance video
JP2013206458A (en) Object classification based on external appearance and context in image
JP5202419B2 (en) Security system and security method
KR102110375B1 (en) Video watch method based on transfer of learning
US10783365B2 (en) Image processing device and image processing system
JP2014215747A (en) Tracking device, tracking system, and tracking method
CN110262269B (en) Operation control method, module, system, household appliance and readable storage medium
CN113837066A (en) Behavior recognition method and device, electronic equipment and computer storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150