JP2016129306A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2016129306A
JP2016129306A JP2015003465A JP2015003465A JP2016129306A JP 2016129306 A JP2016129306 A JP 2016129306A JP 2015003465 A JP2015003465 A JP 2015003465A JP 2015003465 A JP2015003465 A JP 2015003465A JP 2016129306 A JP2016129306 A JP 2016129306A
Authority
JP
Japan
Prior art keywords
presentation
video
flow line
range
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015003465A
Other languages
Japanese (ja)
Other versions
JP6532234B2 (en
Inventor
悠美子 内田
Yumiko Uchida
悠美子 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015003465A priority Critical patent/JP6532234B2/en
Publication of JP2016129306A publication Critical patent/JP2016129306A/en
Application granted granted Critical
Publication of JP6532234B2 publication Critical patent/JP6532234B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make an observer's video confirmation work be efficient, by automatically performing traffic line analysis using imaged video and providing video depending on a result of the analysis.SOLUTION: An information processing system includes: one or more imaging devices for imaging one or more moving objects; and an information processing device. The information processing device includes: traffic line extraction means for extracting traffic lines of the one or more moving objects from video obtained by the imaging devices; range identification means for identifying, on the basis of the traffic lines, at least one of a presentation area and a presentation period to be a presentation range in time and space imaged by the imaging devices; video identification means for identifying, on the basis of the presentation range, presentation video to be presented to a user; and display means for displaying the presentation video.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理システム、情報処理方法及びプログラムに関する。   The present invention relates to an information processing system, an information processing method, and a program.

近年、監視カメラの普及が進んでいるが、映像を蓄積するのみで、リアルタイムな映像の活用が行われていない環境も多い。また、監視カメラシステムにおける解析技術として、動線(個人の移動軌跡、又は人の流れや行列としての全体の移動軌跡)を活用した解析技術が発展している。動線解析の結果は、店舗における顧客行動分析や異常検知など広範囲に応用可能であるが、動線の分析を専門で行う要員を確保できない環境も多い。そのような環境でも、提示映像や動線解析結果をリアルタイムに活用してサービスを向上させるために、監視カメラから独立したデバイス上に、動線解析結果に基づいて提示映像を表示する仕組みが必要となる。   In recent years, surveillance cameras have been widely used, but there are many environments in which only video is accumulated and real-time video is not utilized. Further, as an analysis technique in the surveillance camera system, an analysis technique using a flow line (individual movement trajectory, or the entire movement trajectory as a human flow or a matrix) has been developed. The results of flow line analysis can be applied to a wide range of customer behavior analysis and abnormality detection in stores, but there are many environments where it is not possible to secure personnel who specialize in flow line analysis. Even in such an environment, in order to improve the service by using the presentation video and flow line analysis results in real time, a mechanism to display the presentation video based on the flow line analysis results on a device independent of the surveillance camera is necessary. It becomes.

特許文献1には、道路に沿ってパノラマ画像を表示可能なビューシステムが開示されている。このシステムは、パノラマ画像に監視カメラからのリアルタイムな映像を統合することで、ユーザの周辺状況理解を手助けするものである。特許文献2には、渋滞の発生エリアとその渋滞の原因映像を、渋滞中の車両に提供する技術が開示されている。この技術は、複数の車両から提供される車両位置情報に基づき、渋滞の発生エリアを検出し、車両が送信した、発生エリアの映像を取得し、発生エリアの映像データを、渋滞提示情報として提供するものである。   Patent Document 1 discloses a view system that can display a panoramic image along a road. This system helps users understand the surrounding situation by integrating real-time video from a surveillance camera into a panoramic image. Patent Document 2 discloses a technology for providing a traffic jam occurrence area and a cause video of the traffic jam to a vehicle in a traffic jam. This technology detects a traffic jam area based on vehicle position information provided by multiple vehicles, acquires video of the traffic area transmitted by the vehicle, and provides video data of the traffic area as traffic jam presentation information To do.

特表2014−502430号公報Special table 2014-502430 gazette 特開2013−20523号公報JP 2013-20523 A

しかしながら、上述のように、映像を活用するには、専門の要員を確保する必要があるなど、その活用機会は制限されている。特許文献1の技術では、予め定められた道路の形状に従って、監視カメラ映像を閲覧することが可能であり、人物の行動をリアルタイム映像で確認することができる。しかし、毎回異なる動きをする人の行動を把握するためには、人がどの道路を移動したかをユーザが予測した上で、映像を閲覧する道路を指定する必要がある。また、特許文献2の技術では、渋滞の先頭映像を離れた位置から閲覧することがでる。しかし、先頭位置以外に映像を切り替えることはできず、人物の行動の状況把握に用いるには不十分である。   However, as described above, in order to utilize the video, the utilization opportunities are limited, for example, it is necessary to secure specialized personnel. With the technique of Patent Document 1, it is possible to view a surveillance camera video according to a predetermined road shape, and it is possible to confirm a person's action with a real-time video. However, in order to grasp the behavior of a person who moves differently each time, it is necessary for the user to predict which road the person has moved and to specify the road on which the video is to be viewed. Further, with the technique of Patent Document 2, it is possible to browse the head video of a traffic jam from a remote position. However, the video cannot be switched to a position other than the head position, which is insufficient for use in grasping the situation of a person's action.

本発明はこのような問題点に鑑みなされたもので、撮影映像を活用した動線解析を自動的に行い、解析結果に応じた映像を提供することにより、観察者による映像の確認作業の効率化を図ることを目的とする。   The present invention has been made in view of such problems, and by automatically performing a flow line analysis utilizing a captured image and providing an image according to the analysis result, the efficiency of the image confirmation work by the observer is improved. The purpose is to make it easier.

そこで、本発明は、1以上の移動オブジェクトを撮影する1以上の撮影装置と、情報処理装置とを有する情報処理システムであって、前記情報処理装置は、前記撮影装置により得られた映像から、1以上の移動オブジェクトの動線を抽出する動線抽出手段と、前記動線に基づいて、前記撮影装置により撮影された時空間において、提示範囲となる提示領域及び提示期間のうち少なくとも一方を特定する範囲特定手段と、前記提示範囲に基づいて、ユーザに提示する提示映像を特定する映像特定手段と、前記提示映像を表示する表示手段とを有することを特徴とする。   Therefore, the present invention is an information processing system including one or more photographing devices that photograph one or more moving objects, and an information processing device, wherein the information processing device is obtained from a video obtained by the photographing device. A flow line extracting means for extracting a flow line of one or more moving objects, and at least one of a presentation area and a presentation period as a presentation range in a time-space photographed by the photographing apparatus based on the flow line And a display means for displaying the presentation video. The range specification means includes: a video identification means for specifying a presentation video to be presented to a user based on the presentation range; and a display means for displaying the presentation video.

本発明によれば、撮影映像を活用した動線解析を自動的に行い、解析結果に応じた映像を提供することにより、観察者による映像の確認作業の効率化を図ることができる。   According to the present invention, the flow line analysis utilizing the captured video is automatically performed, and the video according to the analysis result is provided, so that the efficiency of the video checking operation by the observer can be improved.

監視システムの全体図である。1 is an overall view of a monitoring system. 監視システムの各装置のハードウェア構成図である。It is a hardware block diagram of each apparatus of a monitoring system. 監視システムの各装置のソフトウェア構成図である。It is a software block diagram of each apparatus of the monitoring system. 本実施形態に係る監視システムの利用形態の説明図である。It is explanatory drawing of the utilization form of the monitoring system which concerns on this embodiment. 人の流れと提示映像の関係を示す図である。It is a figure which shows the relationship between a person's flow and a presentation image | video. 動線DBに格納されるデータを示す図である。It is a figure which shows the data stored in flow line DB. 提示範囲のデータを示す図である。It is a figure which shows the data of a presentation range. 再生リストの一例を示す図である。It is a figure which shows an example of a reproduction list. 設定情報の一例を示す図である。It is a figure which shows an example of setting information. 動線抽出処理を示すフローチャートである。It is a flowchart which shows a flow line extraction process. 提示映像送信処理を示すフローチャートである。It is a flowchart which shows a presentation video transmission process. 提示範囲特定処理を示すフローチャートである。It is a flowchart which shows a presentation range specific process. 再生リスト生成処理を示すフローチャートである。It is a flowchart which shows a reproduction | regeneration list production | generation process. 再生表示処理を示すフローチャートである。It is a flowchart which shows a reproduction | regeneration display process. 第2の実施形態に係る設定情報の一例を示す図である。It is a figure which shows an example of the setting information which concerns on 2nd Embodiment. 第2の実施形態に係る監視システムの利用形態の説明図である。It is explanatory drawing of the utilization form of the monitoring system which concerns on 2nd Embodiment. 滞留時刻と提示映像の関係を示す図である。It is a figure which shows the relationship between a residence time and a presentation image | video. 第2の実施形態に係る提示範囲特定処理を示すフローチャートである。It is a flowchart which shows the presentation range specific process which concerns on 2nd Embodiment. 第2の実施形態に係る再生リスト生成処理を示すフローチャートである。It is a flowchart which shows the play list production | generation process which concerns on 2nd Embodiment. 第3の実施形態に係る設定情報の一例を示す図である。It is a figure which shows an example of the setting information which concerns on 3rd Embodiment. 第3の実施形態に係る監視システムの利用形態の説明図である。It is explanatory drawing of the utilization form of the monitoring system which concerns on 3rd Embodiment. 個別動線と提示映像の関係を示す図である。It is a figure which shows the relationship between an individual flow line and a presentation image | video. 第3の実施形態に係る提示映像送信処理を示すフローチャートである。It is a flowchart which shows the presentation video transmission process which concerns on 3rd Embodiment. 第3の実施形態に係る再生リスト生成処理を示すフローチャートである。It is a flowchart which shows the play list production | generation process which concerns on 3rd Embodiment.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る情報処理システムの一例としての監視システムの全体図である。監視システムは、監視カメラ100と、監視サーバ装置110と、モバイル端末(携帯端末)120とを有している。監視カメラ100と、監視サーバ装置110と、モバイル端末120とは、互いにインターネットやイントラネット等のネットワークを介して通信を行うことができる。なお、監視カメラ100及びモバイル端末120の数は、1以上であればよく、特に限定されるものではない。
(First embodiment)
FIG. 1 is an overall view of a monitoring system as an example of an information processing system according to the first embodiment. The monitoring system includes a monitoring camera 100, a monitoring server device 110, and a mobile terminal (portable terminal) 120. The monitoring camera 100, the monitoring server device 110, and the mobile terminal 120 can communicate with each other via a network such as the Internet or an intranet. Note that the number of monitoring cameras 100 and mobile terminals 120 is not particularly limited as long as it is one or more.

監視カメラ100は、監視対象となる監視空間内の所定の位置にそれぞれ設置されている。監視カメラ100は、設置された空間の映像を記録することができる。複数の監視カメラ100で撮影された映像は、監視サーバ装置110に蓄積される。監視サーバ装置110は、監視カメラ100から受信した映像の解析、編集を行い、適宜モバイル端末120に提供する。モバイル端末120は、ユーザが所持するものであり、装着型ディスプレイである。なお、他の例としては、モバイル端末120は、スマートフォンや、タブレット端末等であってもよい。   The monitoring cameras 100 are respectively installed at predetermined positions in the monitoring space to be monitored. The surveillance camera 100 can record an image of the installed space. Videos taken by a plurality of monitoring cameras 100 are accumulated in the monitoring server device 110. The monitoring server device 110 analyzes and edits the video received from the monitoring camera 100 and provides it to the mobile terminal 120 as appropriate. The mobile terminal 120 is possessed by the user and is a wearable display. As another example, the mobile terminal 120 may be a smartphone, a tablet terminal, or the like.

図2は、監視カメラ100、監視サーバ装置110及びモバイル端末120のハードウェア構成図である。CPU201は、ROM202に格納されている制御プログラムを実行することにより、各装置(監視サーバ装置110、監視カメラ100、モバイル端末120)の制御を行う。RAM203は、各構成要素からの各種データを一時記憶する。また、プログラムを展開し、各装置を実行可能な状態にする。表示装置204は、各種情報を表示する。撮影装置205は、光学装置及び撮像素子等によって構成され、CPU201からの指示に応じて、被写体の撮影を行う。記憶装置206は、各種データを記憶する。通信装置207は、他の装置との通信を行う。入力装置208は、ユーザによる各種操作を受け付ける。なお、監視サーバ装置110は、撮影装置205は有さないものとする。   FIG. 2 is a hardware configuration diagram of the monitoring camera 100, the monitoring server device 110, and the mobile terminal 120. The CPU 201 controls each device (the monitoring server device 110, the monitoring camera 100, and the mobile terminal 120) by executing a control program stored in the ROM 202. The RAM 203 temporarily stores various data from each component. Further, the program is expanded to make each device executable. The display device 204 displays various information. The imaging device 205 is configured by an optical device, an imaging device, and the like, and performs imaging of a subject in response to an instruction from the CPU 201. The storage device 206 stores various data. The communication device 207 communicates with other devices. The input device 208 accepts various operations by the user. Note that the monitoring server device 110 does not include the imaging device 205.

図3は、監視カメラ100、監視サーバ装置110及びモバイル端末120のソフトウェア構成図である。監視カメラ100は、撮影処理部300と、通信処理部301とを有している。撮影処理部300は、設置位置近辺の映像を撮影する。通信処理部301は、撮影により得られた映像を、監視サーバ装置110に送信する。   FIG. 3 is a software configuration diagram of the monitoring camera 100, the monitoring server device 110, and the mobile terminal 120. The monitoring camera 100 includes an imaging processing unit 300 and a communication processing unit 301. The imaging processing unit 300 captures an image near the installation position. The communication processing unit 301 transmits the video obtained by shooting to the monitoring server device 110.

監視サーバ装置110は、映像管理部310と、映像解析部311と、映像再生制御部312と、通信処理部313と、映像DB314と、動線DB315と、再生リストDB316とを有している。映像管理部310は、通信処理部313を介して受信した映像を映像DB314に記録する。   The monitoring server device 110 includes a video management unit 310, a video analysis unit 311, a video playback control unit 312, a communication processing unit 313, a video DB 314, a flow line DB 315, and a playback list DB 316. The video management unit 310 records the video received via the communication processing unit 313 in the video DB 314.

映像解析部311は、映像DB314に格納されている映像を解析して、移動オブジェクトの検出や動線の抽出を行い、動線に関する情報を動線DB315に格納する。なお、本実施形態においては、移動オブジェクトとして、人物を例に説明する。映像再生制御部312は、動線DB315に格納されている情報を参照して、モバイル端末120のユーザに提示する映像を特定し、さらに特定した映像の再生順を決定する。そして、映像再生制御部312は、提示映像と、再生順を定めた再生リストを生成し、これを再生リストDB316に記録する。再生リストは、通信処理部313によりモバイル端末120に送信される。映像DB314、動線DB315及び再生リストDB316を格納する記憶装置としては、フラッシュメモリ、HDD等を用いることができる。   The video analysis unit 311 analyzes the video stored in the video DB 314, detects a moving object, extracts a flow line, and stores information related to the flow line in the flow line DB 315. In the present embodiment, a person will be described as an example of a moving object. The video playback control unit 312 refers to the information stored in the flow line DB 315, specifies the video to be presented to the user of the mobile terminal 120, and further determines the playback order of the specified video. Then, the video playback control unit 312 generates a presentation video and a playback list that defines the playback order, and records this in the playback list DB 316. The reproduction list is transmitted to the mobile terminal 120 by the communication processing unit 313. As a storage device for storing the video DB 314, the flow line DB 315, and the reproduction list DB 316, a flash memory, an HDD, or the like can be used.

モバイル端末120は、表示処理部320と、受付部321と、撮影処理部322と、位置情報取得部323と、通信処理部324とを有している。受付部321は、入力装置208へのユーザによる入力内容を受け付ける。例えば、受付部321は、映像取得要求を受け付ける。この場合、通信処理部324は、監視サーバ装置110に対し、映像取得要求を送信する。表示処理部320は、撮影処理部322により撮影された映像や、監視サーバ装置110から受信した映像を、自装置の表示装置204に表示する。位置情報取得部323は、自装置の位置を示す位置情報を取得する。なお、位置情報は、通信処理部324により、監視サーバ装置110に送信される。モバイル端末120は、GPS受信機を備え、位置情報取得部323は、GPS受信機から位置情報を取得するものとする。   The mobile terminal 120 includes a display processing unit 320, a reception unit 321, an imaging processing unit 322, a position information acquisition unit 323, and a communication processing unit 324. The accepting unit 321 accepts content input by the user to the input device 208. For example, the reception unit 321 receives a video acquisition request. In this case, the communication processing unit 324 transmits a video acquisition request to the monitoring server device 110. The display processing unit 320 displays the video captured by the imaging processing unit 322 and the video received from the monitoring server device 110 on the display device 204 of the own device. The position information acquisition unit 323 acquires position information indicating the position of the own device. The position information is transmitted to the monitoring server device 110 by the communication processing unit 324. The mobile terminal 120 includes a GPS receiver, and the position information acquisition unit 323 acquires position information from the GPS receiver.

図3において説明した各装置の機能や、後述する各機能の処理は、各装置のCPU201がROM202等に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、他の例としては、各装置の各機能や各処理は、それぞれ電子回路等のハードウェアで実現されるものであってもよい。   The functions of each device described in FIG. 3 and the processing of each function to be described later are realized by the CPU 201 of each device reading a program stored in the ROM 202 or the like and executing this program. As another example, each function and each process of each device may be realized by hardware such as an electronic circuit.

図4は、本実施形態に係る監視システムの利用形態の説明図である。図4(A)は、地点Aに位置し、モバイル端末120を所持するユーザ400が、監視空間内の人の流れ410を見ている様子を示している。人の流れ410の様子は、複数の監視カメラ100により撮影されている。監視サーバ装置110は、監視空間内の異なる複数の位置に設置された複数の監視カメラ100により撮影された映像をまとめて管理することにより、広範囲の監視を可能にしている。ここで、モバイル端末120を所持するユーザ400は、監視空間を含む施設のスタッフ等であり、人の流れ410は、施設内に発生した人流であるものとする。   FIG. 4 is an explanatory diagram of a usage pattern of the monitoring system according to the present embodiment. FIG. 4A shows a state where the user 400 who is located at the point A and has the mobile terminal 120 is watching the human flow 410 in the monitoring space. The state of the human flow 410 is captured by a plurality of surveillance cameras 100. The monitoring server device 110 enables a wide range of monitoring by collectively managing videos taken by a plurality of monitoring cameras 100 installed at a plurality of different positions in the monitoring space. Here, it is assumed that the user 400 who owns the mobile terminal 120 is a staff of a facility including a monitoring space, and the human flow 410 is a human flow generated in the facility.

図4(B)は、ユーザ400が、地点Aにおいて、モバイル端末120を介して人の流れ410を見たときの、モバイル端末120の表示装置204に表示される表示画面420の一例を示す図である。このとき、モバイル端末120の撮影処理部322は、人の流れ410を撮影する。そして、表示画面420には、モバイル端末120の撮影装置205により撮影された、人の流れ410の撮影映像421が表示される。さらに、撮影映像421上には、監視サーバ装置110から受信した提示映像422が重畳表示されている。提示映像422は、監視サーバ装置110が監視カメラ100により得られた撮影映像に基づいて、モバイル端末120のユーザに提示する映像として生成したものである。なお、本実施形態においては、提示映像422は、監視のために利用される監視映像である。提示映像422には、監視カメラ100により撮影された映像であり、提示映像422には、地点Aに位置するユーザからは見えない、人の流れ210の先頭の様子が映されている。さらに、表示画面420には、ユーザ400の現在位置から撮影位置までの距離や方向を示す情報が、提示映像422と共に表示されてもよい。ユーザ400は、自身が位置する地点Aからは人の流れ410の先頭を直接見ることはできないが、提示映像422によって、人の流れ410が何に起因して発生しているのかを知ることができる。   FIG. 4B shows an example of a display screen 420 displayed on the display device 204 of the mobile terminal 120 when the user 400 views the flow of people 410 via the mobile terminal 120 at the point A. It is. At this time, the imaging processing unit 322 of the mobile terminal 120 captures the human flow 410. On the display screen 420, a captured image 421 of the human flow 410 captured by the imaging device 205 of the mobile terminal 120 is displayed. Furthermore, the presentation video 422 received from the monitoring server device 110 is superimposed on the captured video 421. The presentation video 422 is generated as a video to be presented to the user of the mobile terminal 120 based on the captured video obtained by the monitoring server 100 by the monitoring server device 110. In the present embodiment, the presentation video 422 is a monitoring video used for monitoring. The presentation video 422 is a video taken by the monitoring camera 100, and the presentation video 422 shows the state of the head of the human flow 210 that cannot be seen by the user located at the point A. Furthermore, information indicating the distance and direction from the current position of the user 400 to the shooting position may be displayed on the display screen 420 together with the presentation video 422. Although the user 400 cannot directly see the head of the human flow 410 from the point A where the user 400 is located, the user 400 can know the cause of the human flow 410 from the presentation video 422. it can.

撮影映像421上には、さらに仮想オブジェクトとしての、補助表示423と、切替表示424とが重畳表示されている。補助表示423は、人の流れ410の方向や流量を示すオブジェクトである。補助表示423と提示映像422とを合わせて表示することで、ユーザ400は、提示映像422の撮影位置をより直感的に把握することができる。切替表示424は、提示映像422を他の映像に切り替え可能であることを示すオブジェクトである。ユーザ400は、入力装置208に対し切替指示を入力することにより、提示映像422を他の提示映像に切り替えることができる。なお、切替指示の入力には、フリック操作やタッチ操作、ボタン操作、ジェスチャ操作等を利用することができる。   On the photographed video 421, an auxiliary display 423 and a switching display 424 are further superimposed as virtual objects. The auxiliary display 423 is an object indicating the direction and flow rate of the human flow 410. By displaying the auxiliary display 423 and the presentation video 422 together, the user 400 can more intuitively grasp the shooting position of the presentation video 422. The switching display 424 is an object indicating that the presentation video 422 can be switched to another video. The user 400 can switch the presentation video 422 to another presentation video by inputting a switching instruction to the input device 208. Note that a flick operation, a touch operation, a button operation, a gesture operation, or the like can be used to input the switching instruction.

図4(C)は、切替指示に従い切り替えられた後の表示画面430の一例を示す図である。表示画面430においては、提示映像422に替えて、提示映像432が重畳表示されている。提示映像432は、提示映像422の撮影位置から人の流れ410に沿って、後方に移動した位置の映像である。提示映像432と提示映像422は別の監視カメラ100で撮影されたものであり、すべての監視カメラ100が撮影した、すべての映像を含む映像群の中から選ばれている。人の流れ410の通過経路を網羅するように、経路の通過順に沿って、映像群の中から、提示映像422や提示映像432が選ばれる。このように、ユーザ400は、モバイル端末120において、自装置において撮影された、実際に眼の前に存在する空間の映像と、人の流れ410に沿って再生された映像とを確認することができる。したがって、人の流れ410の原因や全体の様子を効率的に把握することができる。すなわち、本実施形態に係る監視システムは、人物を移動オブジェクトとして検出し、人物の移動により生じる動線に基づいて、提示映像を生成し、これをユーザに提示することができる。   FIG. 4C is a diagram illustrating an example of the display screen 430 after switching according to the switching instruction. On the display screen 430, a presentation video 432 is superimposed and displayed instead of the presentation video 422. The presentation video 432 is a video of a position moved backward along the flow of people 410 from the shooting position of the presentation video 422. The presentation video 432 and the presentation video 422 are taken by different monitoring cameras 100 and are selected from a group of videos including all the videos shot by all the monitoring cameras 100. The presentation video 422 and the presentation video 432 are selected from the video group along the order of passage of the route so as to cover the passage route of the human flow 410. As described above, the user 400 can confirm the video of the space actually existing in front of the user and the video reproduced along the human flow 410, which is captured by the mobile device 120. it can. Therefore, it is possible to efficiently grasp the cause of the human flow 410 and the overall state. That is, the monitoring system according to the present embodiment can detect a person as a moving object, generate a presentation video based on a flow line generated by the movement of the person, and present it to the user.

図5は、人の流れ410と提示映像の関係を示す図である。監視空間500は、撮影位置(x、y)に、撮影時刻を加えた3次元の時空間で表現される。監視カメラ100は、この時空間を撮影する。なお、撮影位置と撮影時刻を特定することで、映像を一意に定めることができる。図5に示す監視空間500には、複数の個別動線510a,510b,510c,510d,510e・・・が存在し、人の流れ410を形成している。ここで、個別動線とは、各人物の移動軌跡を示す曲線である。モバイル端末120は、複数の個別動線を解析して、人の流れ410の特徴を抽出することにより、集合動線520を得る。そして、モバイル端末120は、集合動線520に基づいて提示範囲530a,530b,530c・・・を特定し、提示範囲の映像を提示映像として、モバイル端末120に送信する。   FIG. 5 is a diagram showing the relationship between the human flow 410 and the presented video. The monitoring space 500 is represented by a three-dimensional space-time in which shooting time is added to the shooting position (x, y). The surveillance camera 100 captures this time and space. Note that the video can be uniquely determined by specifying the shooting position and the shooting time. A plurality of individual flow lines 510a, 510b, 510c, 510d, 510e,... Exist in the monitoring space 500 shown in FIG. Here, the individual flow line is a curve indicating the movement trajectory of each person. The mobile terminal 120 obtains a collective flow line 520 by analyzing a plurality of individual flow lines and extracting features of the human flow 410. Then, the mobile terminal 120 identifies the presentation ranges 530a, 530b, 530c... Based on the collective flow line 520, and transmits the video in the presentation range to the mobile terminal 120 as a presentation video.

ここで、提示範囲は、提示映像として利用する映像を特定するための情報であり、提示領域及び提示期間を特定する情報である。ここで、提示領域とは、提示対象となる提示映像に映される撮影範囲であり、提示期間とは、提示対象となる提示映像の撮影時刻の時間軸上の期間である。なお、本実施形態においては、提示期間は、最新時刻から一定期間と定められている場合について説明する。すなわち、本実施形態に係る監視サーバ装置110は、集合動線に基づいて、提示領域を特定し、特定した提示領域と、予め定められた提示期間と、に基づいて、提示範囲を特定する。   Here, the presentation range is information for specifying a video to be used as a presentation video, and is information for specifying a presentation area and a presentation period. Here, the presentation area is a shooting range shown in the presentation video to be presented, and the presentation period is a period on the time axis of the shooting time of the presentation video to be presented. In the present embodiment, a case where the presentation period is determined to be a certain period from the latest time will be described. That is, the monitoring server apparatus 110 according to the present embodiment specifies the presentation area based on the collective flow line, and specifies the presentation range based on the specified presentation area and a predetermined presentation period.

図6は、動線DB315に格納されるデータを示す図である。図6(A)は、映像DB314に蓄積された映像から得られた移動オブジェクト(人物)の移動軌跡である個別動線のデータを示す図である。個別動線の各レコードは、個別動線ID601と、時刻602と、位置603と、方向604と、速度605と、取得元606とを含んでいる。個別動線ID601は、同一人物による個別動線を特定するための情報である。同一の個別動線ID601を持つ観測点(レコード)の集合が1本の個別動線として扱われる。時刻602は、観測された時刻を示す情報である。位置603、方向604及び速度605は、それぞれ時刻602における監視空間内における動線の位置、移動方向及び移動速度を示す情報である。取得元606は、各観測点を撮影した監視カメラ100を特定するための情報である。   FIG. 6 is a diagram illustrating data stored in the flow line DB 315. FIG. 6A is a diagram illustrating individual flow line data that is a movement trajectory of the moving object (person) obtained from the video stored in the video DB 314. Each record of the individual flow line includes an individual flow line ID 601, a time 602, a position 603, a direction 604, a speed 605, and an acquisition source 606. The individual flow line ID 601 is information for specifying an individual flow line by the same person. A set of observation points (records) having the same individual flow line ID 601 is treated as one individual flow line. Time 602 is information indicating the observed time. The position 603, the direction 604, and the speed 605 are information indicating the position of the flow line, the moving direction, and the moving speed in the monitoring space at time 602, respectively. The acquisition source 606 is information for specifying the monitoring camera 100 that captured each observation point.

図6(B)は、個別動線のデータから生成された集合動線のデータを示す図である。ここで、集合動線とは、複数の個別動線から観測時刻の差を除き、移動パターンの特徴を抽出したものである。集合動線は、映像解析部311により、映像データに基づいて、生成される。共通の移動パターンを示す個別動線が1つの集合動線に集約される。集合動線の各レコードは、集合動線ID611と、系列順612と、位置613と、方向614と、速度615と、取得元616とを含んでいる。集合動線ID611は、集合動線を特定するための情報である。同一の集合動線ID307を持つ観測点(レコード)の集合が1本の集合動線として扱われる。系列順612は、集合動線上の観測点の観測順を示すものである。位置613、方向614及び速度615は、それぞれ監視空間内における集合動線の位置、移動方向及び移動速度を示す情報である。取得元616は、各観測点を撮影した監視カメラ100を特定するものである。   FIG. 6B is a diagram illustrating collective flow line data generated from individual flow line data. Here, the collective flow line is obtained by extracting the characteristics of the movement pattern by removing the difference in observation time from a plurality of individual flow lines. The collective flow line is generated by the video analysis unit 311 based on the video data. Individual flow lines indicating a common movement pattern are collected into one collective flow line. Each record of the collective flow line includes a collective flow line ID 611, a sequence order 612, a position 613, a direction 614, a speed 615, and an acquisition source 616. The collective flow line ID 611 is information for specifying the collective flow line. A set of observation points (records) having the same collective flow line ID 307 is treated as one collective flow line. The sequence order 612 indicates the observation order of the observation points on the collective flow line. The position 613, the direction 614, and the speed 615 are information indicating the position, moving direction, and moving speed of the collective flow line in the monitoring space, respectively. The acquisition source 616 identifies the monitoring camera 100 that captured each observation point.

図6(C)は、個別動線と集合動線の対応関係のデータを示す図である。対応関係データは、いずれの個別動線からいずれの集合動線が抽出されたかの対応関係を示すものである。各レコードは、集合動線ID621が示す集合動線が、個別動線ID622が示す個別動線群から抽出されたことを示している。1つの集合動線は1つ以上の個別動線から抽出されるが、その集約度合は制御可能であり、1つの集合動線が1つの個別動線から抽出されていてもよい。また、1つの個別動線が複数の集合動線の抽出に用いられていてもよい。   FIG. 6C is a diagram showing data on the correspondence between individual flow lines and collective flow lines. Correspondence relationship data indicates correspondence relationships indicating which individual flow lines are extracted from which individual flow lines. Each record indicates that the collective flow line indicated by the collective flow line ID 621 is extracted from the individual flow line group indicated by the individual flow line ID 622. Although one collective flow line is extracted from one or more individual flow lines, the degree of aggregation is controllable, and one collective flow line may be extracted from one individual flow line. One individual flow line may be used for extracting a plurality of collective flow lines.

図7は、提示範囲のデータを示す図である。提示範囲のデータは、映像再生制御部312により作成される。提示範囲のデータは、提示範囲を示す複数のレコードを含み、各レコードは、時刻701と、位置702と、取得元703とを含んでいる。時刻701及び位置702は、提示範囲となる時空間(提示期間及び提示領域)を定めるための情報である。また取得元703は、提示映像の取得元(監視カメラ)を示すものであり、集合動線の取得元616が引き継がれている。なお、本実施形態のように、最新時刻を提示範囲とする場合には、提示期間は予め定められているため、時刻701への時刻の記録は行わなくともよい。   FIG. 7 is a diagram showing the data of the presentation range. The data of the presentation range is created by the video reproduction control unit 312. The data of the presentation range includes a plurality of records indicating the presentation range, and each record includes a time 701, a position 702, and an acquisition source 703. The time 701 and the position 702 are information for determining a time space (presentation period and presentation area) that is a presentation range. The acquisition source 703 indicates the acquisition source (monitoring camera) of the presentation video, and the collection flow line acquisition source 616 is taken over. Note that, when the latest time is set as the presentation range as in the present embodiment, the presentation period is determined in advance, and therefore recording of the time at the time 701 may not be performed.

図8は、再生リストDB316に格納される再生リストの一例を示す図である。提示範囲のデータに含まれる複数のレコードに基づいて、再生リストが作成される。再生リストは複数のレコードを含み、各レコードは、提示映像の再生順801と、監視カメラID802と、映像種別803と、開始時刻804と、終了時刻805と、位置806と、再生中フラグ807とを含んでいる。再生順801は、再生リストに含まれる複数の提示映像を連続して再生する際の、各提示映像の再生順序を定めるものであり、この順に沿って映像を連続して再生可能である。監視カメラID802は、監視カメラ100を特定するものであり、ここに示された監視カメラ100で撮影された映像が提示映像として選択される。   FIG. 8 is a diagram showing an example of a playlist stored in the playlist DB 316. As shown in FIG. A playlist is created based on a plurality of records included in the presentation range data. The reproduction list includes a plurality of records. Each record includes a reproduction order 801 of the presented video, a monitoring camera ID 802, a video type 803, a start time 804, an end time 805, a position 806, and a playing flag 807. Is included. The playback order 801 defines the playback order of each presented video when a plurality of presented videos included in the playback list are played back continuously, and the videos can be played back continuously in this order. The surveillance camera ID 802 identifies the surveillance camera 100, and an image captured by the surveillance camera 100 shown here is selected as a presentation image.

映像種別803は、提示映像が撮影中のものであるか録画されたものであるかを示している。映像種別803が撮影中の場合は、モバイル端末120において、監視カメラ100により撮影中の映像のストリーム再生が行われ、録画の場合は、録画映像が再生される。開始時刻804及び終了時刻805は、映像の開始及び終了時刻である。位置806は、映像内の移動オブジェクトの存在位置を示す。再生中フラグ807は、再生対象となっている映像を特定するために用いられる。   The video type 803 indicates whether the presented video is being shot or recorded. When the video type 803 is being shot, the mobile terminal 120 performs stream playback of the video being shot by the monitoring camera 100, and in the case of recording, the recorded video is played back. A start time 804 and an end time 805 are video start and end times. A position 806 indicates the presence position of the moving object in the video. The in-reproduction flag 807 is used for specifying a video to be reproduced.

図9は、本実施形態に係る監視システムが利用する設定情報の一例を示す図である。図9に示す設定情報は、監視サーバ装置110の記憶装置206等に記録されているものとする。利用形態に応じて、設定情報に含まれる各項目(要素)を個別に設定することが可能である。後述するフローチャートにおける各処理は本設定値に応じて実行される。「提示領域設定」には、「集合動線の通過範囲」が設定されており、図6に示す提示範囲のデータには、集合動線内のすべての観測点(位置及び時刻)が提示範囲の時空間として記録される。また、本実施形態においては、「提示期間設定」には、「最新時刻」と設定されている。これは、提示期間が、最新時刻を含む一定期間であることを示している。これに対応し、提示範囲のデータの時刻701、再生リストの開始時刻804、終了時刻805には値が記録されない。そして、警備映像として、集合動線から特定された提示領域の、最新時刻の映像が提示映像として再生される。   FIG. 9 is a diagram illustrating an example of setting information used by the monitoring system according to the present embodiment. The setting information shown in FIG. 9 is assumed to be recorded in the storage device 206 of the monitoring server device 110. Each item (element) included in the setting information can be individually set according to the usage form. Each process in the flowchart to be described later is executed according to this set value. In “presentation area setting”, “passage range of collective flow line” is set, and in the presentation range data shown in FIG. 6, all observation points (position and time) within the collective flow line are presented. It is recorded as a spatio-temporal. In the present embodiment, “presentation time setting” is set to “latest time”. This indicates that the presentation period is a certain period including the latest time. Corresponding to this, no value is recorded at the time 701 of the data in the presentation range, the start time 804 of the reproduction list, and the end time 805. And the video of the newest time of the presentation area specified from the collective flow line is reproduced as a presentation video as a security video.

図10は、監視サーバ装置110よる、動線抽出処理を示すフローチャートである。動線抽出処理において、監視サーバ装置110は、監視カメラ100が撮影した映像を解析して個別動線を抽出し、所定量の個別動線が抽出された後に、集合動線の抽出を行う。まず、ステップS1001において、映像解析部311は、映像DB314内の映像フレームを1つ以上取得する。次に、ステップS1002において、映像解析部311は、取得した映像内から移動オブジェクトを検出する。次に、ステップS1003において、映像解析部311は、移動オブジェクトの位置をはじめとする、個別動線のデータを記録する。なお、映像解析部311は、異なる映像から得られた移動オブジェクトについては、検出位置と検出時刻の対応関係から、同一の移動オブジェクトであるのか、異なる移動オブジェクトであるのかを判別する。そして、映像解析部311は、各移動オブジェクトに対応した個別動線IDを付与することとする。すなわち、この処理により、個別動線のデータが更新される。なお、移動オブジェクトの検出には、背景差分法等公知の技術を用いることができる。   FIG. 10 is a flowchart showing a flow line extraction process by the monitoring server device 110. In the flow line extraction process, the monitoring server device 110 analyzes the video captured by the monitoring camera 100 to extract individual flow lines, and extracts a collective flow line after extracting a predetermined amount of individual flow lines. First, in step S <b> 1001, the video analysis unit 311 acquires one or more video frames in the video DB 314. Next, in step S1002, the video analysis unit 311 detects a moving object from within the acquired video. In step S1003, the video analysis unit 311 records individual flow line data including the position of the moving object. Note that the video analysis unit 311 determines whether a moving object obtained from a different video is the same moving object or a different moving object from the correspondence between the detection position and the detection time. Then, the video analysis unit 311 assigns an individual flow line ID corresponding to each moving object. That is, the data of the individual flow line is updated by this process. A known technique such as a background subtraction method can be used for detecting the moving object.

次に、ステップS1004において、映像解析部311は、ステップS1002において検出した移動オブジェクトの数、すなわち個別動線の数が所定数に達したか否かを判定する。映像解析部311は、所定数に達している場合には(ステップS1004でYes)、処理をステップS1005へ進める。映像解析部311は、所定数に達していない場合には(ステップS1004でNo)、処理をステップS1001へ進め、再びステップS1001から処理を繰り返す。   In step S1004, the video analysis unit 311 determines whether the number of moving objects detected in step S1002, that is, the number of individual flow lines has reached a predetermined number. If the predetermined number has been reached (Yes in step S1004), the video analysis unit 311 advances the process to step S1005. If the predetermined number has not been reached (No in step S1004), the video analysis unit 311 advances the process to step S1001, and repeats the process from step S1001 again.

ステップS1005において、映像解析部311は、ステップS1001〜ステップS1004の処理により得られた複数の個別動線を含む個別動線群から集合動線を抽出する(動線抽出処理)。そして、映像解析部311は、図6(B)に示す集合動線のデータ及び図6(C)に示す対応関係のデータを更新する。集合動線の抽出には、軌跡が類似した個別動線を集約するクラスタリング技術等の公知の技術を用いることができる。次に、ステップS1006において、映像解析部311は、集合動線の形状や流量を示す補助画像を生成する。さらに、映像解析部311は、個別動線数のカウントを初期化して、動線抽出処理を終了する。   In step S1005, the video analysis unit 311 extracts a collective flow line from an individual flow line group including a plurality of individual flow lines obtained by the processes in steps S1001 to S1004 (flow line extraction process). Then, the video analysis unit 311 updates the collective flow line data illustrated in FIG. 6B and the correspondence data illustrated in FIG. For extracting the collective flow line, a known technique such as a clustering technique for collecting individual flow lines having similar trajectories can be used. Next, in step S1006, the video analysis unit 311 generates an auxiliary image indicating the shape and flow rate of the collective flow line. Furthermore, the video analysis unit 311 initializes the count of the number of individual flow lines, and ends the flow line extraction process.

なお、動線抽出処理は、監視カメラ100による撮影が行われている間、繰り返し実行されるものとする。また、本実施形態では、個別動線が所定数に達した後に全個別動線を参照して集合動線抽出を行うものとしたが、集合動線を抽出するタイミングは、実施形態に限定されるものではない。他の例としては、映像解析部311は、新規観測点が得られる度に、逐次集合動線を更新することとしてもよい。この場合は、常に最新の個別動線を集合動線に反映することができる。   It is assumed that the flow line extraction process is repeatedly executed while the monitoring camera 100 is photographing. In this embodiment, the collective flow line is extracted with reference to all the individual flow lines after the predetermined number of individual flow lines reaches a predetermined number. However, the timing for extracting the collective flow line is limited to the embodiment. It is not something. As another example, the video analysis unit 311 may update the collective flow line every time a new observation point is obtained. In this case, the latest individual flow line can always be reflected in the collective flow line.

図11は、監視サーバ装置110による、提示映像送信処理を示すフローチャートである。提示映像送信処理において、監視サーバ装置110は、提示映像として利用する映像を特定し、これをモバイル端末120に送信する。まず、ステップS1101において、通信処理部313は、モバイル端末120から、動線取得要求を受信する。ここで、動線取得要求は、モバイル端末120の表示装置204への提示対象として、監視サーバ装置110により特定された動線の取得を要求する情報である。動線取得要求には、位置情報取得部323が取得した、モバイル端末120の位置情報が含まれているものとする。なお、動線取得要求は、モバイル端末120のユーザが入力装置208を利用して、動線取得要求を入力したタイミングで、モバイル端末120から送信されることとする。また、他の例としては、モバイル端末120は、自装置の撮影装置205が、一定量以上の人の流れを検知したタイミングで、動線取得要求を送信することとしてもよい。   FIG. 11 is a flowchart showing the presentation video transmission processing by the monitoring server device 110. In the presentation video transmission process, the monitoring server device 110 specifies a video to be used as the presentation video and transmits this to the mobile terminal 120. First, in step S <b> 1101, the communication processing unit 313 receives a flow line acquisition request from the mobile terminal 120. Here, the flow line acquisition request is information for requesting acquisition of a flow line specified by the monitoring server device 110 as an object to be presented to the display device 204 of the mobile terminal 120. It is assumed that the flow line acquisition request includes the position information of the mobile terminal 120 acquired by the position information acquisition unit 323. Note that the flow line acquisition request is transmitted from the mobile terminal 120 at the timing when the user of the mobile terminal 120 inputs the flow line acquisition request using the input device 208. As another example, the mobile terminal 120 may transmit a flow line acquisition request at a timing when the imaging device 205 of the mobile device 120 detects a flow of a person of a certain amount or more.

次に、ステップS1102において、映像解析部311は、動線抽出処理において抽出された集合動線群から、提示対象の集合動線を選択する。具体的には、映像解析部311は、抽出された集合動線の位置と、動線取得要求に含まれるモバイル端末120の位置情報とを比較し、モバイル端末120の近くにある集合動線を提示対象の集合動線として選択する。具体的には、映像解析部311は、モバイル端末120の位置から集合動線の位置までの距離が最小となる集合映像を選択する。映像解析部311はさらに、モバイル端末120の撮影装置205による撮影領域に基づいて、提示対象の集合動線をモバイル端末120の撮影領域内に含まれる範囲に、少なくともその一部が存在する集合動線に限定してもよい。このとき、モバイル端末120の撮影領域は、動線取得要求に含まれて送信されるものとする。   Next, in step S1102, the video analysis unit 311 selects a collective flow line to be presented from the collective flow line group extracted in the flow line extraction process. Specifically, the video analysis unit 311 compares the position of the extracted collective flow line with the position information of the mobile terminal 120 included in the flow line acquisition request, and determines the collective flow line near the mobile terminal 120. Select as the set flow line to be presented. Specifically, the video analysis unit 311 selects a collective video that minimizes the distance from the position of the mobile terminal 120 to the collective flow line. The video analysis unit 311 further includes a collective motion in which at least a part of the collective flow line to be presented is included in a range included in the photographing region of the mobile terminal 120 based on the photographing region by the photographing device 205 of the mobile terminal 120. You may limit to a line. At this time, it is assumed that the imaging region of the mobile terminal 120 is transmitted by being included in the flow line acquisition request.

次に、ステップS1103において、映像解析部311は、ステップS1103において特定した、提示対象の集合動線に基づいて、提示範囲を設定する。前述の通り、提示範囲のうち提示期間は予め定められているため、ステップS1103において、映像解析部311は、まず、ステップS1102において選択された提示対象の集合動線に基づいて、提示範囲を特定する(提示範囲特定処理)。ここで、提示範囲とは、提示対象となる時空間、すなわち提示対象となる提示領域と提示期間である。具体的には、映像解析部311は、集合動線の通過経路を包含する範囲の空間を提示領域として特定する。そして、映像解析部311は、予め定められた提示期間と、提示領域とに基づいて定まる時空間を提示対象として設定する。   Next, in step S1103, the video analysis unit 311 sets a presentation range based on the collective flow line to be presented specified in step S1103. As described above, since the presentation period is predetermined in the presentation range, in step S1103, the video analysis unit 311 first identifies the presentation range based on the collective flow line of the presentation target selected in step S1102. (Presentation range specifying process). Here, the presentation range is a space-time to be presented, that is, a presentation area to be presented and a presentation period. Specifically, the video analysis unit 311 specifies a space in a range including the passage route of the collective flow line as a presentation area. Then, the video analysis unit 311 sets a time space determined based on a predetermined presentation period and a presentation area as a presentation target.

次に、ステップS1104において、映像解析部311は、ステップS1103において設定した提示範囲に基づいて、ユーザへの提示映像として利用する映像を特定する(提示映像特定処理)。そして、映像解析部311は、特定した映像を連続して再生するための再生リストを生成する。なお、ステップS1103及びステップS1104の処理については、後に詳述する。次に、ステップS1105において、映像解析部311は、ステップS1104において生成した再生リストの中から初期映像を設定する。本実施形態に係る映像解析部311は、図8に示す設定情報に従い、集合動線の先頭位置である再生リストの先頭が初期に表示される初期映像として設定される。すなわち、再生リストの先頭映像が再生対象映像に設定される。   Next, in step S1104, the video analysis unit 311 identifies a video to be used as a video to be presented to the user based on the presentation range set in step S1103 (presentation video identification processing). Then, the video analysis unit 311 generates a playback list for continuously playing the specified video. Note that the processing in step S1103 and step S1104 will be described in detail later. In step S1105, the video analysis unit 311 sets an initial video from the reproduction list generated in step S1104. The video analysis unit 311 according to the present embodiment is set as the initial video that is initially displayed at the top of the reproduction list, which is the top position of the collective flow line, according to the setting information shown in FIG. That is, the top video of the playback list is set as the playback target video.

ステップS1106において、通信処理部313は、提示対象の集合動線のデータと、補助表示423等の仮想オブジェクトと、再生リストとをモバイル端末120に送信する。次に、ステップS1107において、通信処理部313は、モバイル端末120から映像取得要求を受信するまで待機する。映像解析部311は、映像取得要求を受信した場合には(ステップS1107でYes)、処理をステップS1108へ進める。ステップS1108において、映像解析部311は、通信処理部313を介して、映像取得要求に係る映像、すなわち、提示映像として再生リストに示された映像を、再生順801に従い、順にモバイル端末120に送信する。ステップS1109において、映像解析部311は、モバイル端末120から終了要求を受信したか否かを判定する。映像解析部311は、終了要求を受信した場合には(ステップS1109でYes)、映像送信処理を終了する。映像解析部311は、終了要求を受信しなかった場合には(ステップS1109でNo)、処理をステップS1107へ進める。   In step S <b> 1106, the communication processing unit 313 transmits the collection target flow line data to be presented, the virtual object such as the auxiliary display 423, and the play list to the mobile terminal 120. In step S <b> 1107, the communication processing unit 313 waits until a video acquisition request is received from the mobile terminal 120. If the video analysis unit 311 receives a video acquisition request (Yes in step S1107), the video analysis unit 311 advances the process to step S1108. In step S1108, the video analysis unit 311 transmits the video related to the video acquisition request, that is, the video shown in the playlist as the presentation video, to the mobile terminal 120 in order according to the playback order 801 via the communication processing unit 313. To do. In step S <b> 1109, the video analysis unit 311 determines whether an end request has been received from the mobile terminal 120. If the video analysis unit 311 receives an end request (Yes in step S1109), the video analysis unit 311 ends the video transmission process. If the video analysis unit 311 does not receive the termination request (No in step S1109), the video analysis unit 311 advances the process to step S1107.

図12は、提示範囲特定処理(ステップS1103)における、詳細な処理を示すフローチャートである。ステップS1201において、映像解析部311は、提示対象の集合動線の先頭位置を検出する。次に、ステップS1202において、映像解析部311は、ステップS1202において検出した集合動線の先頭位置から順に、集合動線の系列順に沿って、集合動線内の観測点の位置を1つ特定する。次に、ステップS1203において、映像解析部311は、ステップS1202において特定した観測点の位置に基づいて、提示領域を特定する。ここで、提示領域は、監視カメラ100により撮影された時空間内の領域であり、位置により定まる。そして、映像解析部311は、特定した提示領域と、提示期間により定まる提示範囲を特定する。そして、映像解析部311は、提示範囲のレコードを、図6に示す提示範囲のデータに追加する。   FIG. 12 is a flowchart showing detailed processing in the presentation range specifying processing (step S1103). In step S <b> 1201, the video analysis unit 311 detects the head position of the set flow line to be presented. Next, in step S1202, the video analysis unit 311 specifies one observation point position in the collective flow line in order of the collective flow line sequence in order from the head position of the collective flow line detected in step S1202. . Next, in step S1203, the video analysis unit 311 identifies a presentation area based on the position of the observation point identified in step S1202. Here, the presentation area is an area in space-time taken by the monitoring camera 100 and is determined by the position. Then, the video analysis unit 311 identifies a presentation range determined by the identified presentation area and the presentation period. Then, the video analysis unit 311 adds the presentation range record to the presentation range data illustrated in FIG. 6.

ここで、提示期間は、時空間内の期間であり、撮影時刻により定まる予め定められた期間である。本実施形態においては、図8に示すように、提示範囲時刻設定に「最新時刻」と設定されている。これは、提示期間が、最新時刻から一定時間であることを意味する。ここで、最新時刻とは、提示対象の映像がモバイル端末120に表示される表示処理時点の時刻である。このように、本実施形態においては、提示期間は予め定められている。したがって、映像解析部311は、動線から提示期間を特定する処理を行う必要はない。なお、ステップS1203の処理は、動線に基づいて、監視カメラ100により撮影された時空間において、提示範囲となる提示領域を特定し、さらに、提示領域と、予め定められた提示期間とに基づいて、提示範囲を特定する範囲特定処理の一例である。   Here, the presentation period is a period in time and space, and is a predetermined period determined by the shooting time. In the present embodiment, as shown in FIG. 8, “latest time” is set in the presentation range time setting. This means that the presentation period is a fixed time from the latest time. Here, the latest time is the time at the time of display processing when the video to be presented is displayed on the mobile terminal 120. Thus, in this embodiment, the presentation period is predetermined. Therefore, the video analysis unit 311 does not need to perform processing for specifying the presentation period from the flow line. Note that the processing in step S1203 identifies a presentation area that is a presentation range in the space-time photographed by the monitoring camera 100 based on the flow line, and further, based on the presentation area and a predetermined presentation period. This is an example of a range specifying process for specifying the presentation range.

次に、ステップS1204において、映像解析部311は、提示対象の集合動線に含まれるすべての観測点に対応する提示範囲のレコードを作成する処理が終了したか否かを判定する。映像解析部311は、処理が終了している場合には(ステップS1204でYes)、提示範囲特定処理を終了する。映像解析部311は、処理が終了していない場合には(ステップS1204でNo)、処理をS1102へ進める。この場合、ステップS1202において、映像解析部311は、未処理の観測点の位置を1つ特定し、処理を繰り返す。   Next, in step S1204, the video analysis unit 311 determines whether or not the process of creating a presentation range record corresponding to all observation points included in the set flow line to be presented has ended. If the process has been completed (Yes in step S1204), the video analysis unit 311 ends the presentation range specifying process. If the process has not ended (No in step S1204), the video analysis unit 311 advances the process to step S1102. In this case, in step S1202, the video analysis unit 311 identifies one unprocessed observation point position and repeats the process.

図13は、再生リスト生成処理(ステップS1104)における詳細な処理を示すフローチャートである。まず、ステップ1301において、映像解析部311は、提示範囲のデータの1つのレコード、すなわち1つの提示範囲を読み込む。次に、ステップS1302において、映像解析部311は、提示範囲に対応する監視カメラ100を特定する。監視カメラ100の特定には、取得元703(図7)の情報を利用することができる。監視カメラ100が撮影している空間には重複があるため、取得元703として、2つ以上の監視カメラ100が指定されている場合もある。この場合には、映像解析部311は、提示範囲を定める提示領域に最も近い位置に配置された監視カメラ100を選ぶこととする。これにより、より視認性の高い映像を得ることができる。   FIG. 13 is a flowchart showing detailed processing in the playlist generation processing (step S1104). First, in step 1301, the video analysis unit 311 reads one record of presentation range data, that is, one presentation range. Next, in step S1302, the video analysis unit 311 identifies the monitoring camera 100 corresponding to the presentation range. Information of the acquisition source 703 (FIG. 7) can be used for specifying the monitoring camera 100. Since there are overlaps in the space taken by the monitoring camera 100, two or more monitoring cameras 100 may be designated as the acquisition source 703. In this case, the video analysis unit 311 selects the monitoring camera 100 arranged at a position closest to the presentation area that defines the presentation range. Thereby, a video with higher visibility can be obtained.

次に、ステップS1303において、映像解析部311は、特定した監視カメラ100が1つ前の提示範囲のデータのレコードから特定された監視カメラ100と同一か否かを判定する。映像解析部311は、同一の場合には(ステップS1303でYes)、処理をステップS1306へ進める。映像解析部311は、同一でない場合には(ステップS1303でNo)、処理をステップS1304へ進める。ステップS1304において、映像解析部311は、再生リストの新規レコードを作成し、再生順801、監視カメラID802、映像種別803等を設定する。上述のように、提示期間として「最新時刻」が設定されている場合には、映像種別803には「撮影中」が設定される。この場合、開始時刻804及び終了時刻805の記録は不要である。次に、ステップS1305において、映像解析部311は、作成したレコードを、再生リストに追加し、処理をステップS1307へ進める。一方、監視カメラ100が同一の場合には、ステップS1302において特定した監視カメラ100は、再生リストに追加されている。そこで、ステップS1306において、映像解析部311は、直前に作成、追加されたレコードの位置806に対し、位置情報を追加し、その後処理をステップS1307へ進める。   Next, in step S1303, the video analysis unit 311 determines whether or not the specified monitoring camera 100 is the same as the monitoring camera 100 specified from the data record of the previous presentation range. If they are the same (Yes in step S1303), the video analysis unit 311 advances the process to step S1306. If they are not the same (No in step S1303), the video analysis unit 311 advances the process to step S1304. In step S1304, the video analysis unit 311 creates a new record in the playback list, and sets the playback order 801, the monitoring camera ID 802, the video type 803, and the like. As described above, when “latest time” is set as the presentation period, “in shooting” is set in the video type 803. In this case, it is not necessary to record the start time 804 and the end time 805. In step S1305, the video analysis unit 311 adds the created record to the reproduction list, and advances the process to step S1307. On the other hand, if the surveillance cameras 100 are the same, the surveillance camera 100 identified in step S1302 has been added to the reproduction list. In step S1306, the video analysis unit 311 adds position information to the position 806 of the record created and added immediately before, and then advances the processing to step S1307.

ステップS1307において、映像解析部311は、提示範囲のデータに示されるすべてのレコード(提示範囲)について、ステップS1301〜ステップS1306の処理を終了したか否かを判定する。映像解析部311は、処理が終了した場合には(ステップS1307でYes)、再生リスト生成処理を終了する。映像解析部311は、処理が終了していない場合には(ステップS1307でNo)、処理をS1301へ進める。この場合、映像解析部311は、S1301において、未処理の撮影範囲を読み込み、S1302以降の処理を繰り返す。   In step S1307, the video analysis unit 311 determines whether or not the processing in steps S1301 to S1306 has been completed for all the records (presentation ranges) indicated in the presentation range data. When the process is completed (Yes in step S1307), the video analysis unit 311 ends the playlist generation process. If the process has not been completed (No in step S1307), the video analysis unit 311 advances the process to step S1301. In this case, the video analysis unit 311 reads an unprocessed shooting range in S1301, and repeats the processing after S1302.

なお、本実施形態においては、映像解析部311は、提示映像として特定された映像の再生順は、集合動線の先頭から最後尾までの位置の移動に応じて定めるものとする。但し、再生順は、実施形態に限定されるものではない。他の例としては、映像解析部311は、最後尾から先頭までの位置の移動に応じて再生順を定めてもよい。これにより、人の流れ410が長い行列である場合に、どこに並べばよいかを迅速に把握することができる。   In the present embodiment, the video analysis unit 311 determines the playback order of the video specified as the presentation video according to the movement of the position from the beginning to the end of the collective flow line. However, the playback order is not limited to the embodiment. As another example, the video analysis unit 311 may determine the playback order according to the movement of the position from the tail to the head. Thereby, when the human flow 410 is a long queue, it is possible to quickly grasp where to line up.

図14は、モバイル端末120による、再生表示処理を示すフローチャートである。ステップS1401において、モバイル端末120の通信処理部324は、監視サーバ装置110に対し、動線取得要求を送信する。次に、ステップS1402において、通信処理部324は、監視サーバ装置110から提示対象の集合動線のデータと、仮想オブジェクトと、再生リストと、を受信する。次に、ステップS1403において、表示処理部320は、監視サーバ装置110から受信した集合動線の位置が、モバイル端末120の撮影装置205の撮影領域内に含まれるか否かを判定する。表示処理部320は、集合動線の位置が撮影領域内である場合には(ステップS1403でYes)、処理をステップS1404へ進める。表示処理部320は、集合動線の位置が撮影領域内でない場合には(ステップS1403でNo)、処理をステップS1412へ進める。ステップS1412において、通信処理部324は、監視サーバ装置110に対し、再生終了要求を送信する。以上で、モバイル端末120は、再生表示処理を終了する。動線の位置が撮影領域内でない場合には、ユーザの視認領域内に動線が存在しないためである。なお、ステップS1403の処理は、モバイル端末120の撮影領域に基づいて、提示映像を再生表示するか否かを判断する判断処理の一例である。   FIG. 14 is a flowchart showing the playback display process by the mobile terminal 120. In step S1401, the communication processing unit 324 of the mobile terminal 120 transmits a flow line acquisition request to the monitoring server device 110. In step S <b> 1402, the communication processing unit 324 receives from the monitoring server device 110 data on the collective flow line to be presented, a virtual object, and a play list. Next, in step S1403, the display processing unit 320 determines whether or not the position of the collective flow line received from the monitoring server device 110 is included in the imaging region of the imaging device 205 of the mobile terminal 120. If the position of the collective flow line is within the imaging region (Yes in step S1403), the display processing unit 320 advances the process to step S1404. If the position of the collective flow line is not within the imaging region (No in step S1403), the display processing unit 320 advances the process to step S1412. In step S1412, the communication processing unit 324 transmits a reproduction end request to the monitoring server device 110. As described above, the mobile terminal 120 ends the reproduction display process. This is because when the position of the flow line is not within the shooting area, there is no flow line within the user's visual recognition area. Note that the process of step S1403 is an example of a determination process for determining whether to reproduce and display the presented video based on the shooting area of the mobile terminal 120.

ステップS1404において、表示処理部320は、受信した仮想オブジェクトを、自装置の撮影装置205により撮影された撮影映像上に、重畳して表示する。ここで、仮想オブジェクトは、位置情報の羅列で構成される空間オブジェクトである。表示処理部320は、モバイル端末120が撮影装置205の撮影領域との突き合せを行うことにより、仮想オブジェクトの位置座標の、表示装置204の表示座標への変換を行う。次に、ステップS1405において、表示処理部320は、監視サーバ装置110に対して、再生リストにおいて、提示映像として特定されている映像を指定した、映像取得要求を送信する。次に、ステップS1406において、通信処理部324は、監視サーバ装置110から映像取得要求に係る映像を受信する(受信処理)。そして、表示処理部320は、受信した映像の再生表示を開始する(表示処理)。表示処理部320は、このとき再生リストの位置806を参照して、監視映像内の特定位置を拡大表示してもよい。また、映像取得要求に係る映像の映像種別が「撮影中」である場合には、通信処理部324は、表示処理時点において撮影されたリアルタイム映像を受信し、表示処理部320は、これをリアルタイムに表示する。   In step S1404, the display processing unit 320 superimposes and displays the received virtual object on the captured video imaged by the imaging device 205 of the own device. Here, the virtual object is a spatial object composed of a list of position information. The display processing unit 320 converts the position coordinates of the virtual object into the display coordinates of the display device 204 when the mobile terminal 120 matches the shooting area of the shooting device 205. Next, in step S1405, the display processing unit 320 transmits a video acquisition request specifying the video specified as the presentation video in the reproduction list to the monitoring server device 110. Next, in step S1406, the communication processing unit 324 receives the video related to the video acquisition request from the monitoring server device 110 (reception processing). Then, the display processing unit 320 starts reproducing and displaying the received video (display processing). At this time, the display processing unit 320 may refer to the position 806 of the reproduction list and enlarge and display a specific position in the monitoring video. When the video type of the video related to the video acquisition request is “capturing”, the communication processing unit 324 receives the real-time video captured at the time of the display process, and the display processing unit 320 performs real-time video capture. To display.

ステップS1407において、表示処理部320は、ユーザから映像変更指示を受け付けたか否かを判定する。表示処理部320は、映像変更指示を受け付けた場合には(ステップS1407でYes)、処理をステップS1408へ進める。表示処理部320は、映像変更指示を受け付けなかった場合には(ステップS1407でNo)、処理をステップS1709へ進める。ステップS1408において、表示処理部320は、映像変更指示に示された分、再生リスト内を移動し、再生対象の映像を変更し、処理をステップS1405へ進める。   In step S1407, the display processing unit 320 determines whether a video change instruction has been received from the user. If the display processing unit 320 receives a video change instruction (Yes in step S1407), the display processing unit 320 advances the process to step S1408. If the display processing unit 320 has not received the video change instruction (No in step S1407), the display processing unit 320 advances the process to step S1709. In step S1408, the display processing unit 320 moves through the play list by the amount indicated by the video change instruction, changes the video to be played, and advances the process to step S1405.

ステップS1409において、表示処理部320は、ステップS1409の処理時点において、再生対象となっている映像の再生が終了したか否かを判定する。表示処理部320は、再生が終了した場合には(ステップS1409でYes)、処理をステップS1410へ進める。表示処理部320は、再生が終了していない場合には(ステップS1409でNo)、処理をステップS1411へ進める。ステップS1410において、表示処理部320は、再生リストを1つ進め、次の映像を再生対象に設定した上で、処理をステップS1405へ進める。ステップS1411において、表示処理部320は、受付部321が終了指示を受け付けたか否か、及び再生リスト内のすべての映像の再生を終了したか否かを判定する。表示処理部320は、終了指示を受け付けておらず、かつ再生が終了していない場合には(ステップS1411でNo)、処理をステップS1407へ進める。表示処理部320は、終了指示を受け付けた場合及び再生リストのすべての映像の再生を終了した場合の何れかの場合に該当する場合には(ステップS1411でYes)、処理をステップS1412へ進める。   In step S1409, the display processing unit 320 determines whether or not the playback of the video to be played has ended at the time of the processing in step S1409. When the reproduction is finished (Yes in step S1409), the display processing unit 320 advances the process to step S1410. If the reproduction has not ended (No in step S1409), the display processing unit 320 advances the process to step S1411. In step S1410, the display processing unit 320 advances the reproduction list by one, sets the next video as a reproduction target, and advances the processing to step S1405. In step S1411, the display processing unit 320 determines whether or not the reception unit 321 has received an end instruction and whether or not playback of all the videos in the playback list has ended. If the display processing unit 320 has not received an end instruction and playback has not ended (No in step S1411), the display processing unit 320 advances the process to step S1407. The display processing unit 320 advances the process to step S1412 in the case where either the end instruction is accepted or the case where the reproduction of all the videos in the reproduction list is completed (Yes in step S1411).

以上のように、本実施形態に係る監視システムは、集合動線に対応する映像を連続再生することができる。したがって、ユーザ端末を所持するユーザは、ユーザの位置からでは直接視認することのできない場所についても、提示映像を確認することにより、効率的に把握することができる。さらに、本実施形態に係る監視システムにおいては、ユーザ端末における撮影装置の撮影範囲が、集合動線を含む場合に、この集合動線に対応する提示映像がユーザ端末の表示装置において、ユーザ端末における撮影映像上に重畳表示される。したがって、ユーザは、自身の位置から実際に視認可能な移動オブジェクトの動きと、提示映像との対応関係を容易に把握することができる。   As described above, the monitoring system according to the present embodiment can continuously reproduce the video corresponding to the collective flow line. Therefore, the user who possesses the user terminal can efficiently grasp the place that cannot be directly visually recognized from the position of the user by checking the presented video. Furthermore, in the monitoring system according to the present embodiment, when the shooting range of the imaging device in the user terminal includes a collective flow line, the presentation video corresponding to the collective flow line is displayed on the user terminal in the user terminal. It is superimposed on the captured video. Therefore, the user can easily grasp the correspondence between the movement of the moving object that can be visually recognized from his / her position and the presented video.

第1の実施形態に係る監視システムの第1の変更例としては、監視サーバ装置110による提示対象の動線データ、仮想オブジェクト及び再生リストの送信タイミングは、実施形態に限定されるものではない。他の例としては、監視サーバ装置110は、最初に提示対象の集合動線データのみを送信することとしてもよい。そして、モバイル端末120において、集合動線が撮影領域内に位置すると判定された場合に、モバイル端末120からの要求に従い、撮影範囲内に位置する集合動線の仮想オブジェクト及び再生リストとを送信してもよい。これにより、モバイル端末120と監視サーバ装置110の通信量を削減することができる。   As a first modification of the monitoring system according to the first embodiment, the transmission timing of the flow line data, the virtual object, and the playlist to be presented by the monitoring server apparatus 110 is not limited to the embodiment. As another example, the monitoring server apparatus 110 may first transmit only the aggregate flow line data to be presented. When the mobile terminal 120 determines that the collective flow line is located within the shooting area, the mobile terminal 120 transmits a virtual object and a play list of the collective flow line located within the shooting range in accordance with a request from the mobile terminal 120. May be. Thereby, the communication amount of the mobile terminal 120 and the monitoring server apparatus 110 can be reduced.

また、第2の変更例としては、監視サーバ装置110の設定情報は、実施形態に限定されるものではない。また、監視サーバ装置110は、ステップS1101において、動線取得要求と共にモバイル端末120から設定情報を受信することとしてもよい。そして、監視サーバ装置110は、ステップS1102〜ステップS1105においては、受信した設定情報の設定内容に従った処理を行うこととしてもよい。   As a second modification, the setting information of the monitoring server device 110 is not limited to the embodiment. In addition, in step S1101, the monitoring server apparatus 110 may receive setting information from the mobile terminal 120 together with the flow line acquisition request. And the monitoring server apparatus 110 is good also as performing the process according to the setting content of the received setting information in step S1102-step S1105.

また、第3の変更例としては、監視サーバ装置110による、提示範囲を特定する処理は、実施形態に限定されるものではない。他の例としては、監視サーバ装置110は、集合動線上での滞留発生箇所や人物密度、移動方向に基づいて、提示範囲を特定してもよい。人流が発生している箇所での滞留発生や人物密度超過、移動方向変化は、転倒等の原因になり得る。したがって、これらの箇所の映像のみを連続して再生可能にすることで、転倒が起きる前に人流整理等の対応を行うことができる。   As a third modification, the process of specifying the presentation range by the monitoring server device 110 is not limited to the embodiment. As another example, the monitoring server device 110 may specify the presentation range based on the stay occurrence location, the person density, and the movement direction on the collective flow line. The occurrence of stagnation at a location where a human current is generated, the excess of the person density, and the change in the moving direction may cause a fall or the like. Therefore, by making it possible to continuously play back only the video at these locations, it is possible to take measures such as organizing human flow before a fall occurs.

また、第4の変更例としては、監視サーバ装置110において、予め設定された提示期間は、「最新時刻」に限定されるものではない。   As a fourth modification, the preset presentation period in the monitoring server device 110 is not limited to “latest time”.

また、第5の変更例としては、監視サーバ装置110は、提示領域及び提示期間のうち少なくとも一方を、動線に基づいて特定すればよい。すなわち、他の例としては、監視サーバ装置110は、動線に基づいて、提示期間のみを特定してもよい。この場合、提示領域は、予め定められているものとする。また、他の例としては、監視サーバ装置110は、動線に基づいて、提示領域及び提示期間の両方を特定してもよい。   As a fifth modification, the monitoring server device 110 may specify at least one of the presentation area and the presentation period based on the flow line. That is, as another example, the monitoring server apparatus 110 may specify only the presentation period based on the flow line. In this case, the presentation area is determined in advance. As another example, the monitoring server device 110 may specify both the presentation area and the presentation period based on the flow line.

(第2の実施形態)
次に、第2の実施形態に係る監視システムについて説明する。なお、ここでは、第2の実施形態に係る監視システムについて、第1の実施形態に係る監視システムと異なる部分について説明する。第1の実施形態に係る監視システムは、集合動線に基づいて、提示対象の空間的位置を設定し、動線上の異なる複数の位置の映像を、モバイル端末120の表示装置204に連続再生するものである。これに対し、第2の実施形態に係る監視システムは、動線上の同一位置における異なる時刻の映像を、モバイル端末120の表示装置204に連続再生するものである。
(Second Embodiment)
Next, a monitoring system according to the second embodiment will be described. Note that here, the monitoring system according to the second embodiment will be described with respect to parts different from the monitoring system according to the first embodiment. The monitoring system according to the first embodiment sets the spatial position of the presentation target based on the collective flow line, and continuously reproduces videos at a plurality of different positions on the flow line on the display device 204 of the mobile terminal 120. Is. On the other hand, the monitoring system according to the second embodiment continuously reproduces video at different times at the same position on the flow line on the display device 204 of the mobile terminal 120.

図15は、第2の実施形態に係る監視サーバ装置110に設定されている設定情報の一例を示す図である。提示領域及び提示期間には、それぞれ「滞留発生個所」及び「滞留発生時刻」と設定されている。これは、滞留発生個所を提示領域として特定し、滞留発生中の期間を提示期間として特定することを示している。すなわち、本実施形態に係る監視サーバ装置110は、集合動線上の滞留発生個所を、提示領域として特定し、滞留発生中の期間を提示期間として特定する。そして、監視サーバ装置110は、図7に示す提示範囲に、滞留発生箇所のうち、処理時点において、モバイル端末120が存在する位置付近の滞留発生位置に対応する提示範囲のレコードを記録する。なお、開始時刻804及び終了時刻805には、滞留発生の開始時刻及び終了時刻が記録される。すなわち、開始時刻804及び終了時刻805には、滞留発生がどれだけ継続したかを示す時間情報が格納される。   FIG. 15 is a diagram illustrating an example of setting information set in the monitoring server apparatus 110 according to the second embodiment. In the presentation area and the presentation period, “stagnation occurrence location” and “stagnation occurrence time” are set, respectively. This indicates that the stay occurrence point is specified as the presentation area, and the period during which the stay is occurring is specified as the presentation period. That is, the monitoring server apparatus 110 according to the present embodiment identifies the stay occurrence location on the collective flow line as the presentation area, and identifies the period during which the stay is occurring as the presentation period. Then, the monitoring server apparatus 110 records a record of the presentation range corresponding to the stay occurrence position near the position where the mobile terminal 120 exists at the processing time among the stay occurrence locations in the presentation range illustrated in FIG. In addition, in the start time 804 and the end time 805, the start time and end time of occurrence of stay are recorded. In other words, the start time 804 and the end time 805 store time information indicating how long the stay has continued.

本実施形態に係る監視サーバ装置110の映像解析部311は、軌跡だけでなく、加速度変化が類似した個別動線を集約することにより、集合動線を抽出する。映像解析部311はさらに、集合動線に基づいて、滞留を検出し(滞留検出処理)、滞留発生箇所を特定する。具体的には、映像解析部311は、集合動線の移動速度が閾値以下となる箇所を滞留発生箇所として特定する。また、他の例としては、映像解析部311は、集合動線の速度が閾値以下となる時間が一定時間以上となる箇所を滞留発生箇所として特定してもよい。また、他の例としては、映像解析部311は、集合動線を構成する複数の個別動線それぞれの速度変化に基づいて、滞留発生箇所を特定してもよい。   The video analysis unit 311 of the monitoring server device 110 according to the present embodiment extracts a collective flow line by aggregating not only the trajectory but individual flow lines with similar acceleration changes. Further, the video analysis unit 311 detects staying (staying detection processing) based on the collective flow line, and specifies a staying occurrence location. Specifically, the video analysis unit 311 identifies a place where the moving speed of the collective flow line is equal to or less than a threshold value as a stay occurrence place. As another example, the video analysis unit 311 may identify a location where the time during which the speed of the collective flow line is equal to or less than a threshold value is equal to or longer than a certain time as a residence occurrence location. As another example, the video analysis unit 311 may specify a stay occurrence location based on a speed change of each of a plurality of individual flow lines constituting the collective flow line.

図16は、第2の実施形態に係る監視システムの利用形態の説明図である。図16(A)は、モバイル端末120を所持するユーザ1600が、監視空間としての施設内の空間1610を見ている様子を示している。ここで、ユーザ1600は、施設のスタッフ等である。図16(B)は、ユーザ1600がモバイル端末120を介して施設内の空間1610を見たときの、モバイル端末120の表示装置204に表示される表示画面1620の一例を示す図である。表示画面1620には、モバイル端末120の撮影処理部322による撮影中の撮影映像1621が表示されている。さらに、撮影映像1621上に、監視サーバ装置110から受信した提示映像1622が重畳表示されている。撮影映像1621上には、さらに仮想オブジェクトとしての、補助表示1623と、滞留位置表示1624と、切替表示1625とが重畳表示されている。補助表示1623及び切替表示1625は、それぞれ図4(B)を参照しつつ説明した、補助表示423と及び切替表示524と同様である。滞留位置表示1624は、監視空間に存在する、個別動線の滞留発生箇所(滞留発生位置)を示すオブジェクトである。   FIG. 16 is an explanatory diagram of a usage pattern of the monitoring system according to the second embodiment. FIG. 16A shows a state where a user 1600 who owns the mobile terminal 120 is looking at a space 1610 in a facility as a monitoring space. Here, the user 1600 is a facility staff or the like. FIG. 16B is a diagram illustrating an example of a display screen 1620 displayed on the display device 204 of the mobile terminal 120 when the user 1600 views the space 1610 in the facility via the mobile terminal 120. On the display screen 1620, a captured video 1621 being captured by the capture processing unit 322 of the mobile terminal 120 is displayed. Further, a presentation video 1622 received from the monitoring server device 110 is superimposed on the captured video 1621. On the photographed video 1621, an auxiliary display 1623, a staying position display 1624, and a switching display 1625 are further displayed as virtual objects. The auxiliary display 1623 and the switching display 1625 are the same as the auxiliary display 423 and the switching display 524 described with reference to FIG. The stay position display 1624 is an object indicating a stay occurrence position (stay occurrence position) of an individual flow line that exists in the monitoring space.

滞留位置表示1624は、この監視空間において、過去に人の滞留が発生していたことを示しており、施設のレイアウトに何らかの問題があることが想定される。しかし、滞留が発生していたという情報だけでは、その場で何が起きていたのかを正確に把握できず、どう改善すればよいのかを判断できない。これに対し、本実施形態においては、モバイル端末120は、提示映像1622を、滞留位置表示1624の位置に合わせて表示することができる。ここで、提示映像1622は、監視カメラ100によって撮影されたものであり、監視空間において滞留が発生していた時刻(滞留発生時刻)において撮影された映像である。提示映像1622には、撮影された時刻情報を付加することもできる。   The staying position display 1624 indicates that a person has stayed in the monitoring space in the past, and it is assumed that there is some problem in the layout of the facility. However, only the information that the stagnation has occurred cannot accurately grasp what happened on the spot, and cannot determine how to improve it. On the other hand, in this embodiment, the mobile terminal 120 can display the presentation video 1622 in accordance with the position of the staying position display 1624. Here, the presentation video 1622 is taken by the monitoring camera 100, and is a video taken at the time when the stagnation has occurred in the monitoring space (stagnation occurrence time). Shooting time information can also be added to the presentation video 1622.

図16(C)は、ユーザからの切替指示に従い切り替えられた後の表示画面1630の一例を示す図である。表示画面1630の提示映像1632は、提示映像1622の撮影時刻よりも過去の撮影時刻に撮影された映像である。このように、モバイル端末120は、滞留発生時刻の映像を、時刻を遡りながら連続して再生することができる。したがって、ユーザ1600は、モバイル端末120の表示内容から、滞留が発生している原因を効率的に把握することができる。   FIG. 16C is a diagram showing an example of the display screen 1630 after being switched according to the switching instruction from the user. A presentation video 1632 on the display screen 1630 is a video shot at a shooting time that is earlier than the shooting time of the presentation video 1622. As described above, the mobile terminal 120 can continuously reproduce the video of the stay occurrence time while going back in time. Therefore, the user 1600 can efficiently grasp the cause of the stay from the display content of the mobile terminal 120.

図17は、滞留時刻と提示映像の関係を示す図である。図5と同様に、監視空間1700は、撮影位置(x、y)に、撮影時刻を加えた3次元空間で表現される。撮影位置と撮影時刻を特定することで、映像を一意に定めることができる。本実施形態では、提示領域は、個別動線1710a,1710b,1710cにより形成された集合動線1720上の領域のうち、滞留発生位置を含む領域に固定される。そして、監視サーバ装置110は、集合動線内の個別動線の滞留発生時刻に合わせて提示期間1730を特定する。   FIG. 17 is a diagram illustrating the relationship between the staying time and the presented video. Similar to FIG. 5, the monitoring space 1700 is expressed in a three-dimensional space in which the photographing time is added to the photographing position (x, y). By specifying the shooting position and the shooting time, a video can be uniquely determined. In the present embodiment, the presentation area is fixed to an area including the stay occurrence position among areas on the collective flow line 1720 formed by the individual flow lines 1710a, 1710b, and 1710c. And the monitoring server apparatus 110 specifies the presentation period 1730 according to the residence occurrence time of the individual flow line in the collective flow line.

第2の実施形態に係る提示映像送信処理は、図11を参照しつつ説明した第1の実施形態に係る監視サーバ装置110による提示映像送信処理とほぼ同様であるが、ステップS1103及びステップS1104における処理が異なっている。図18は、第2の実施形態に係る監視サーバ装置110による、提示範囲特定処理における詳細な処理を示すフローチャートである。ステップS1801において、映像解析部311は、提示対象の集合動線の滞留発生位置のうち、モバイル端末120の現在位置付近の滞留発生位置を含む領域を提示領域として特定する。   The presentation video transmission process according to the second embodiment is substantially the same as the presentation video transmission process by the monitoring server apparatus 110 according to the first embodiment described with reference to FIG. 11, but in steps S1103 and S1104. Processing is different. FIG. 18 is a flowchart showing a detailed process in the presentation range specifying process by the monitoring server apparatus 110 according to the second embodiment. In step S <b> 1801, the video analysis unit 311 identifies, as a presentation area, an area including a stay occurrence position near the current position of the mobile terminal 120 among the stay occurrence positions of the collection flow line to be presented.

次に、ステップS1802において、映像解析部311は、ステップS1102において選択した、提示対象の集合動線に含まれる個別動線を1つ取得する。次に、ステップS1803において、映像解析部311は、取得した個別動線がステップS1801において特定した提示領域に滞留した期間を、提示期間として特定する。本実施形態においては、映像解析部311は、所定値以下の移動速度が一定時間継続した場合に、滞留が発生したと判断することとする。なお、滞留が検知された位置に対応付けて、映像解析部311は、図6に示す個別動線の速度305に対し、インデックスを付与しておくこととしてもよい。これにより、映像解析部311は、滞留発生箇所の候補を高速に抽出することができる。そして、映像解析部311は、集合動線から特定した提示領域及び提示範囲により定まる提示範囲を特定し、特定した提示範囲のレコードを、図6に示す提示範囲のデータに追加する。   Next, in step S1802, the video analysis unit 311 acquires one individual flow line included in the collective flow line to be presented selected in step S1102. Next, in step S1803, the video analysis unit 311 specifies a period during which the acquired individual flow line stays in the presentation area specified in step S1801 as a presentation period. In the present embodiment, the video analysis unit 311 determines that stagnation has occurred when a moving speed equal to or lower than a predetermined value continues for a certain period of time. The video analysis unit 311 may assign an index to the individual flow line speed 305 illustrated in FIG. 6 in association with the position where the stay is detected. As a result, the video analysis unit 311 can extract a candidate for a stay occurrence point at high speed. Then, the video analysis unit 311 specifies a presentation range determined by the presentation area and the presentation range specified from the collective flow line, and adds a record of the specified presentation range to the data of the presentation range shown in FIG.

ステップS1804において、映像解析部311は、集合動線に含まれるすべての個別動線について、ステップS1802及びステップS1803の処理を終了したか否かを判定する。映像解析部311は、処理が終了した場合には(ステップS1804でYes)、処理をステップS1805へ進める。映像解析部311は、処理が終了していない場合には(ステップS1804でNo)、処理をS1802へ進める。この場合、映像解析部311は、S1802において、未処理の個別動線を1つ取得し、S1803以降の処理を繰り返す。   In step S1804, the video analysis unit 311 determines whether or not the processing in steps S1802 and S1803 has been completed for all individual flow lines included in the collective flow line. When the process is completed (Yes in step S1804), the video analysis unit 311 advances the process to step S1805. If the process has not ended (No in step S1804), the video analysis unit 311 advances the process to step S1802. In this case, the video analysis unit 311 acquires one unprocessed individual flow line in S1802, and repeats the processing from S1803 onward.

ステップS1805において、映像解析部311は、提示時刻に基づいて、提示範囲をソートする。具体的には、映像解析部311は、提示時刻が最新時刻に近い順に、提示範囲をソートする。この処理は、次に続く、再生リスト生成処理(ステップS1104)において、時刻順となるような再生リストを作成するために行うものである。すなわち、再生リスト生成処理においては、映像解析部311は、ステップS1805においてソートされた順に従い、再生順801を決定する。   In step S1805, the video analysis unit 311 sorts the presentation range based on the presentation time. Specifically, the video analysis unit 311 sorts the presentation ranges in order from the presentation time to the latest time. This process is performed in order to create a playlist that is in chronological order in the subsequent playlist generation process (step S1104). That is, in the playlist generation process, the video analysis unit 311 determines the playback order 801 in accordance with the order sorted in step S1805.

図19は、第2の実施形態に係る再生リスト生成処理(ステップS1104)における詳細な処理を示すフローチャートである。ステップS1901において、映像解析部311は、提示範囲のデータから、監視カメラ100を特定する。本実施形態においては、対象領域は固定である。したがって、提示範囲のデータに示されるすべての提示範囲について、1つの監視カメラ100を定めることができる。ステップS1901の処理は、提示領域に基づいて、撮影手段としての監視カメラ100を選択する選択処理の一例である。   FIG. 19 is a flowchart showing detailed processing in the playlist generation processing (step S1104) according to the second embodiment. In step S1901, the video analysis unit 311 identifies the monitoring camera 100 from the presentation range data. In the present embodiment, the target area is fixed. Therefore, one surveillance camera 100 can be defined for all the presentation ranges indicated in the presentation range data. The process in step S1901 is an example of a selection process for selecting the monitoring camera 100 as the imaging unit based on the presentation area.

次に、ステップS1902において、映像解析部311は、提示範囲のデータの先頭から順に1つのレコード、すなわち1つの提示範囲を読み込む。次に、ステップS1903において、映像解析部311は、ステップS1902において読み込んだ提示範囲の提示期間が、その直前に読み込んだ提示範囲の提示期間と連続であるか否かを判定する。なお、映像解析部311は、撮影期間の境界位置の差分が所定値以下の場合に、連続すると判断するものとする。映像解析部311は、連続しない場合には(ステップS1903でNo)、処理をステップS1904へ進める。映像解析部311は、連続する場合には(ステップS1903でYes)、処理をステップS1907へ進める。   Next, in step S1902, the video analysis unit 311 reads one record, that is, one presentation range in order from the top of the presentation range data. Next, in step S1903, the video analysis unit 311 determines whether or not the presentation range presentation period read in step S1902 is continuous with the presentation range presentation period read immediately before. Note that the video analysis unit 311 determines to be continuous when the difference in the boundary position of the shooting period is a predetermined value or less. If the video analysis unit 311 is not continuous (No in step S1903), the video analysis unit 311 advances the process to step S1904. If the video analysis unit 311 continues (Yes in step S1903), the video analysis unit 311 advances the process to step S1907.

ステップ1904において、映像解析部311は、作成済みのレコードを再生リストに追加する。次に、ステップS1905において、映像解析部311は、新規レコードを作成する。次に、ステップS1906において、映像解析部311は、新規レコードの開始時刻に、ステップS1902で読み込んだ提示期間の開始時刻を設定する。一方、ステップ1907において、映像解析部311は、新規レコードは作成せず、保持している再生リストのレコードの終了時刻に、ステップS1902で読み込んだ提示期間の終了時刻を設定する。なお、終了時刻が既に設定されている場合には、映像解析部311は、終了時刻を上書き(更新)する。   In step 1904, the video analysis unit 311 adds the created record to the reproduction list. Next, in step S1905, the video analysis unit 311 creates a new record. Next, in step S1906, the video analysis unit 311 sets the start time of the presentation period read in step S1902 as the start time of the new record. On the other hand, in step 1907, the video analysis unit 311 does not create a new record, but sets the end time of the presentation period read in step S1902 as the end time of the record in the held playlist. If the end time has already been set, the video analysis unit 311 overwrites (updates) the end time.

ステップS1908において、映像解析部311は、提示範囲のデータに示されるすべてのレコード(提示範囲)について、ステップS1902〜ステップS1907の処理を終了したか否かを判定する。映像解析部311は、処理が終了した場合には(ステップS1908でYes)、再生リスト生成処理を終了する。映像解析部311は、処理が終了していない場合には(ステップS1908でNo)、処理をS1902へ進める。この場合、映像解析部311は、S1902において、未処理の撮影範囲を読み込み、S1903以降の処理を繰り返す。ステップS1909において、映像解析部311は、作成済みレコードを再生リストに追加し、再生リスト生成処理を終了する。なお、第2の実施形態に係る監視システムのこれ以外の構成及び処理は、第1の実施形態に係る監視システムの構成及び処理と同様である。   In step S1908, the video analysis unit 311 determines whether or not the processing in steps S1902 to S1907 has been completed for all the records (presentation ranges) indicated in the presentation range data. When the process is completed (Yes in step S1908), the video analysis unit 311 ends the playlist generation process. If the process has not been completed (No in step S1908), the video analysis unit 311 advances the process to S1902. In this case, the video analysis unit 311 reads an unprocessed shooting range in S1902, and repeats the processing after S1903. In step S1909, the video analysis unit 311 adds the created record to the playlist, and ends the playlist generation process. The remaining configuration and processing of the monitoring system according to the second embodiment are the same as the configuration and processing of the monitoring system according to the first embodiment.

以上のように、第2の実施形態に係る監視システムは、集合動線上において、滞留の発生した時刻のみを連続して再生することができる。したがって、ユーザは、施設のレイアウト上の課題や顧客の興味対象等を効率的に把握することが可能となる。   As described above, the monitoring system according to the second embodiment can continuously reproduce only the time at which stagnation occurs on the collective flow line. Therefore, the user can efficiently grasp the facility layout problem, the customer's interest, and the like.

なお、第2の実施形態に係る監視システムの第1の変更例としては、監視サーバ装置110は、動線取得要求を受信した場合に、再生リストを生成するが、再生リストの生成タイミングは、実施形態に限定されるものではない。すなわち、監視サーバ装置110は、集合動線が得られた後、動線取得要求を受信する前に、事前に再生リストを生成してもよい。この場合、最新の滞留映像を提示範囲に含めることはできないが、映像再生開始までの時間を短縮することができる。   Note that, as a first modification of the monitoring system according to the second embodiment, the monitoring server device 110 generates a playlist when receiving a flow line acquisition request. It is not limited to the embodiment. That is, the monitoring server apparatus 110 may generate a playlist in advance after receiving the flow line acquisition request after the collective flow line is obtained. In this case, the latest staying video cannot be included in the presentation range, but the time until video playback start can be shortened.

また、第2の変更例としては、監視サーバ装置110は、滞留に替えて、集合動線上の異なる時刻毎の複数点における人物の密度を特定してもよい(密度特定処理)。そして、監視サーバ装置110は、人物の密度が所定の値を超えた領域及び期間に基づいて、提示範囲を特定し、この提示範囲に基づいて、再生リストを生成してもよい。この場合には、モバイル端末120の表示装置204には、人物の密度の高い領域の映像が連続再生される。したがって、ユーザは、混雑発生の原因等を効率的に把握することが可能である。   As a second modification, the monitoring server device 110 may specify the density of persons at a plurality of points at different times on the collective flow line instead of staying (density specifying process). Then, the monitoring server device 110 may specify a presentation range based on an area and a period in which the density of the person has exceeded a predetermined value, and may generate a playlist based on the presentation range. In this case, the display device 204 of the mobile terminal 120 continuously reproduces the video of the area with high human density. Therefore, the user can efficiently grasp the cause of the occurrence of congestion.

また、第3の変更例としては、監視サーバ装置110は、提示範囲特定処理において、提示対象の集合動線に含まれるすべての個別動線に対応する提示範囲を特定するのに替えて、一部の個別動線に対応する提示範囲のみを特定してもよい。例えば、映像解析部311は、所定数の個別動線に対応する提示範囲が得られた時点で、提示範囲の特定を終了してもよい。これにより、蓄積された個別動線数が多い場合に、映像再生の開始を早めることができる。   Further, as a third modification example, the monitoring server apparatus 110 replaces with specifying the presentation range corresponding to all the individual flow lines included in the collective flow line to be presented in the presentation range specifying process. Only the presentation range corresponding to the individual flow lines may be specified. For example, the video analysis unit 311 may end the specification of the presentation range when a presentation range corresponding to a predetermined number of individual flow lines is obtained. Thereby, when the number of accumulated individual flow lines is large, the start of video reproduction can be accelerated.

(第3の実施形態)
次に、第3の実施形態に係る監視システムについて説明する。なお、ここでは、第3の実施形態に係る監視システムについて、他の実施形態に係る監視システムと異なる部分について説明する。第3の実施形態に係る監視システムは、ユーザにより特定された個別動線に基づいて、提示範囲を特定する。すなわち、本実施形態に係る監視サーバ装置110は、集合動線を抽出する処理は行わなくともよい。
(Third embodiment)
Next, a monitoring system according to the third embodiment will be described. Note that here, the monitoring system according to the third embodiment will be described with respect to parts different from the monitoring system according to other embodiments. The monitoring system according to the third embodiment specifies the presentation range based on the individual flow line specified by the user. That is, the monitoring server apparatus 110 according to the present embodiment does not have to perform the process of extracting the collective flow line.

図20は、第3の実施形態に係る監視サーバ装置110に設定されている設定情報の一例を示す図である。提示範囲及び提示期間には、それぞれ「個別動線の通過範囲」及び「個別動線の存在時刻」と設定されている。これは、個別動線の通過範囲を提示領域として特定し、個別動線が存在する期間を提示時刻として特定することを示している。したがって、図7に示す提示範囲のデータには、個別動線の観測点の時刻及び位置が記録される。そして、映像解析部311は、提示範囲のデータから、個別動線が同一の監視カメラ100によって連続して撮影されていた区間を統合し、図8に示す再生リストを生成する。   FIG. 20 is a diagram illustrating an example of setting information set in the monitoring server device 110 according to the third embodiment. In the presentation range and the presentation period, “passage range of individual flow line” and “existence time of individual flow line” are set, respectively. This indicates that the passing range of the individual flow line is specified as the presentation area, and the period in which the individual flow line exists is specified as the presentation time. Therefore, the time and position of the observation point of the individual flow line are recorded in the data of the presentation range shown in FIG. Then, the video analysis unit 311 integrates the sections in which the individual flow lines are continuously captured by the same monitoring camera 100 from the presentation range data, and generates the reproduction list illustrated in FIG. 8.

図21は、第3の実施形態に係る監視システムの利用形態の説明図である。図21(A)は、モバイル端末120を所持しているユーザ2100が、施設内の不審者2101を見ている場面である。ここでユーザ2100は、施設のスタッフ等であり、不審者2101は施設に訪れている顧客等である。図21(B)は、ユーザ2100がモバイル端末120を介して不審者2101を含む監視空間2110を見たときの、モバイル端末120の表示装置204に表示される表示画面2120の一例を示す図である。表示画面2120には、モバイル端末120の撮影処理部322による撮影中の撮影映像2121が表示されている。さらに、撮影映像2121上に、監視サーバ装置110から受信した提示映像2122が重畳表示されている。提示映像2122は、不審者2101の過去の行動を捉えた映像である。提示映像2122には、撮影された時刻や、不審者2101の個別動線を表示するオブジェクトを付加することもできる。撮影映像2121上には、さらに仮想オブジェクトとしての切替表示2123が重畳表示されている。切替表示2123は、図4(B)を参照しつつ説明した、切替表示424と同様である。   FIG. 21 is an explanatory diagram of a usage pattern of the monitoring system according to the third embodiment. FIG. 21A shows a scene in which a user 2100 holding the mobile terminal 120 is looking at a suspicious person 2101 in the facility. Here, the user 2100 is a facility staff or the like, and the suspicious person 2101 is a customer or the like visiting the facility. FIG. 21B is a diagram illustrating an example of a display screen 2120 displayed on the display device 204 of the mobile terminal 120 when the user 2100 views the monitoring space 2110 including the suspicious person 2101 via the mobile terminal 120. is there. On the display screen 2120, a captured image 2121 being captured by the capturing processing unit 322 of the mobile terminal 120 is displayed. Further, a presentation video 2122 received from the monitoring server device 110 is superimposed on the captured video 2121. The presented video 2122 is a video that captures past actions of the suspicious person 2101. An object for displaying the shooting time and the individual flow line of the suspicious person 2101 can be added to the presentation video 2122. On the captured video 2121, a switching display 2123 as a virtual object is further superimposed. The switching display 2123 is the same as the switching display 424 described with reference to FIG.

図21(C)は、ユーザからの切替指示に従い切り替えられた後の表示画面2130の一例を示す図である。表示画面2130の提示映像2132は、提示映像2122よりも過去の撮影時刻に撮影された映像である。すなわち、提示映像2132は、提示映像2122とは、撮影場所及び撮影時刻の異なる映像である。本実施形態に係る監視システムは、このように、不審者2101の移動に沿って、位置及び時刻の異なる映像を連続して再生表示することができる。したがって、ユーザは、万引き等の行動がなかったかを効率的に確認することができる。   FIG. 21C is a diagram showing an example of the display screen 2130 after being switched according to the switching instruction from the user. A presentation video 2132 on the display screen 2130 is a video shot at a shooting time in the past of the presentation video 2122. That is, the presentation video 2132 is a video with a different shooting location and shooting time from the presentation video 2122. As described above, the monitoring system according to the present embodiment can continuously reproduce and display videos having different positions and times as the suspicious person 2101 moves. Therefore, the user can efficiently confirm whether there has been any action such as shoplifting.

図22は、個別動線と提示映像の関係を示す図である。図5と同様に、監視空間2200は、撮影位置(x、y)に、撮影時刻を加えた3次元空間で表現される。撮影位置と撮影時刻を特定することで、映像を一意に定めることができる。本実施形態では、提示対象の空間的位置及び時刻を、個別動線に合わせて移動することで、提示範囲2210が切り替わっている。   FIG. 22 is a diagram illustrating the relationship between the individual flow lines and the presented video. Similar to FIG. 5, the monitoring space 2200 is expressed in a three-dimensional space in which the photographing time is added to the photographing position (x, y). By specifying the shooting position and the shooting time, a video can be uniquely determined. In the present embodiment, the presentation range 2210 is switched by moving the spatial position and time of the presentation target according to the individual flow line.

次に、第3の実施形態に係る監視サーバ装置110による処理について説明する。第3の実施形態においては、監視サーバ装置110は、動線抽出処理において、個別動線の抽出を行うが、集合動線の抽出は行わない。すなわち、監視サーバ装置110は、図10に示す動線抽出処理のうち、ステップS1001〜ステップS1003の処理を行う。一方、監視サーバ装置110は、ステップS1004〜ステップS1006の処理は行わなくともよい。   Next, processing by the monitoring server device 110 according to the third embodiment will be described. In the third embodiment, the monitoring server apparatus 110 extracts individual flow lines in the flow line extraction process, but does not extract collective flow lines. That is, the monitoring server apparatus 110 performs the processes of steps S1001 to S1003 in the flow line extraction process illustrated in FIG. On the other hand, the monitoring server apparatus 110 does not have to perform the processing of steps S1004 to S1006.

図23は、第3の実施形態に係る監視サーバ装置110による、提示範囲特定処理を示すフローチャートである。ステップS2301において、通信処理部313は、モバイル端末120から、移動オブジェクトの選択情報を受信する。なお、モバイル端末120においては、ユーザがモバイル端末120の入力装置208を操作し、不審人物等の移動オブジェクトが選択される。モバイル端末120の通信処理部324は、移動オブジェクトが選択されると、移動オブジェクトが選択された時刻と、選択された位置とを含む選択情報を監視サーバ装置110に送信する。   FIG. 23 is a flowchart showing a presentation range specifying process by the monitoring server apparatus 110 according to the third embodiment. In step S <b> 2301, the communication processing unit 313 receives moving object selection information from the mobile terminal 120. In the mobile terminal 120, the user operates the input device 208 of the mobile terminal 120, and a moving object such as a suspicious person is selected. When the moving object is selected, the communication processing unit 324 of the mobile terminal 120 transmits selection information including the time when the moving object is selected and the selected position to the monitoring server device 110.

次に、ステップS2302において、映像解析部311は、選択情報に示される位置(以下、移動オブジェクト位置と称する)に近い位置に存在する個別動線を抽出する(動線抽出処理)。具体的には、映像解析部311は、移動オブジェクト位置との距離が閾値以下の個別動線を抽出する。なお、映像解析部311は、動線抽出処理時に、動線抽出時期が古い個別動線を破棄し、最近の個別動線だけをリスト化する処理を行ってもよい。これにより、選択された移動オブジェクトのものである可能性の高い個別動線を効率的に抽出することができる。次に、ステップS2303において、映像解析部311は、移動オブジェクトが選択された時刻における、移動オブジェクトの位置と、個別動線の観測点とを比較する。そして、映像解析部311は、個別動線の観測点の位置が、移動オブジェクト位置と一致する個別動線を提示対象の個別動線として選択する。   Next, in step S2302, the video analysis unit 311 extracts an individual flow line existing at a position close to the position indicated by the selection information (hereinafter referred to as a moving object position) (flow line extraction process). Specifically, the video analysis unit 311 extracts an individual flow line whose distance from the moving object position is equal to or less than a threshold value. Note that, during the flow line extraction process, the video analysis unit 311 may perform a process of discarding individual flow lines whose flow line extraction time is old and listing only the latest individual flow lines. As a result, it is possible to efficiently extract individual flow lines that are likely to be of the selected moving object. Next, in step S2303, the video analysis unit 311 compares the position of the moving object and the observation point of the individual flow line at the time when the moving object is selected. Then, the video analysis unit 311 selects an individual flow line in which the position of the observation point of the individual flow line matches the moving object position as the individual flow line to be presented.

次に、ステップS2304において、映像解析部311は、ステップS2303において選択した、提示対象の個別動線に基づいて、提示範囲を設定する。なお、ステップS2304〜ステップS2310の処理は、第1の実施形態において、図11を参照しつつ説明した提示映像送信処理における、ステップS1103〜ステップS1109の処理と同様である。但し、本実施形態においては、映像解析部311は、提示対象の集合動線を参照する処理については、提示対象の集合動線に替えて、提示対象の個別動線を参照することとする。   In step S2304, the video analysis unit 311 sets a presentation range based on the individual flow line to be presented selected in step S2303. Note that the processing from step S2304 to step S2310 is the same as the processing from step S1103 to step S1109 in the presentation video transmission processing described with reference to FIG. 11 in the first embodiment. However, in the present embodiment, the video analysis unit 311 refers to the individual flow line to be presented instead of the collective flow line to be presented for the process of referring to the collection flow line to be presented.

提示範囲特定処理(ステップS2304)は、図12に示す、第1の実施形態に係る提示範囲特定処理とほぼ同様の処理を行う。但し、集合動線に替えて、提示対象の個別動線を処理対象とする。具体的には、ステップS1201において、映像解析部311は、提示対象の個別動線の先頭を検出する。次に、ステップS1202において、映像解析部311は、ステップS1201において検出した先頭位置から順に、個別動線の時刻に沿って、個別動線内の観測点を1つ特定する。次に、ステップS1203において、映像解析部311は、ステップS1202において特定した観測点の位置と時刻に基づいて、提示範囲を特定する。映像解析部311は、以上の処理を個別動線に含まれるすべての観測点に対して実行する(ステップS1204)。   The presentation range specifying process (step S2304) performs substantially the same process as the presentation range specifying process according to the first embodiment shown in FIG. However, instead of the collective flow line, an individual flow line to be presented is a processing target. Specifically, in step S1201, the video analysis unit 311 detects the head of the individual flow line to be presented. Next, in step S1202, the video analysis unit 311 identifies one observation point in the individual flow line along the time of the individual flow line in order from the head position detected in step S1201. Next, in step S1203, the video analysis unit 311 specifies the presentation range based on the position and time of the observation point specified in step S1202. The video analysis unit 311 performs the above processing for all observation points included in the individual flow lines (step S1204).

図24は、第3の実施形態に係る監視サーバ装置110による、再生リスト生成処理(ステップS2305)における詳細な処理を示すフローチャートである。ステップS2401において、映像解析部311は、提示範囲のデータの先頭から順に、1つのレコード、すなわち1つの提示範囲を読み込む。次に、ステップS2402において、映像解析部311は、提示範囲に対応する監視カメラ100を特定する。次に、ステップS2403において、映像解析部311は、特定した監視カメラ100が1つ前の提示範囲のデータのレコードから特定された監視カメラ100と同一か否かを判定する。映像解析部311は、同一の場合には(ステップS2403でYes)、処理をステップS2407へ進める。映像解析部311は、同一でない場合には(ステップS2403でNo)、処理をステップS2404へ進める。   FIG. 24 is a flowchart illustrating detailed processing in the playlist generation processing (step S2305) by the monitoring server device 110 according to the third embodiment. In step S2401, the video analysis unit 311 reads one record, that is, one presentation range in order from the top of the presentation range data. Next, in step S2402, the video analysis unit 311 identifies the monitoring camera 100 corresponding to the presentation range. Next, in step S2403, the video analysis unit 311 determines whether or not the specified monitoring camera 100 is the same as the monitoring camera 100 specified from the data record in the previous presentation range. If they are the same (Yes in step S2403), the video analysis unit 311 advances the process to step S2407. If not identical (No in step S2403), the video analysis unit 311 advances the process to step S2404.

ステップS2404において、映像解析部311は、作成済みレコードを再生リストに追加する。次に、ステップS2405において、映像解析部311は、新規レコードを作成する。次に、ステップS2406において、映像解析部311は、新規レコードの開始時刻に、ステップS2401で読み込んだ提示範囲の提示期間の開始時刻を設定する。一方、ステップS2407において、映像解析部311は、新規レコードは作成せず、保持している再生リストのレコードの終了時刻に、ステップS2401で読み込んだ提示期間の終了時刻を設定する。   In step S2404, the video analysis unit 311 adds the created record to the reproduction list. Next, in step S2405, the video analysis unit 311 creates a new record. Next, in step S2406, the video analysis unit 311 sets the start time of the presentation period of the presentation range read in step S2401 as the start time of the new record. On the other hand, in step S2407, the video analysis unit 311 does not create a new record, but sets the end time of the presentation period read in step S2401 as the end time of the record in the held playlist.

ステップS2408において、映像解析部311は、提示範囲のデータに示されるすべてのレコード(提示範囲)について、ステップS2401〜ステップS2407の処理を終了したか否かを判定する。映像解析部311は、処理が終了した場合には(ステップS2408でYes)、再生リスト生成処理を終了する。映像解析部311は、処理が終了していない場合には(ステップS2408でNo)、処理をS2401へ進める。この場合、映像解析部311は、S2401において、未処理の撮影範囲を読み込み、ステップS2402以降の処理を繰り返す。ステップS2409において、映像解析部311は、作成済みレコードを再生リストに追加し、再生リスト生成処理を終了する。なお、第3の実施形態に係る監視システムのこれ以外の構成及び処理は、他の実施形態に係る監視システムの構成及び処理と同様である。   In step S2408, the video analysis unit 311 determines whether or not the processing in steps S2401 to S2407 has been completed for all the records (presentation ranges) indicated in the presentation range data. When the process is completed (Yes in step S2408), the video analysis unit 311 ends the playlist generation process. If the process has not ended (No in step S2408), the video analysis unit 311 advances the process to S2401. In this case, the video analysis unit 311 reads an unprocessed shooting range in S2401, and repeats the processing from step S2402. In step S2409, the video analysis unit 311 adds the created record to the playlist, and ends the playlist generation process. The remaining configuration and processing of the monitoring system according to the third embodiment are the same as the configuration and processing of the monitoring system according to other embodiments.

以上のように、本実施形態に係る監視システムは、特定の人物に係る個別動線に沿って、その人物が映された映像を連続して再生表示することができる。したがって、ユーザは、人物の行動把握を効率的に行うことができる。ユーザは、例えば、施設内の不審人物の過去行動を映像で確認することで、万引き等の不審行動がなかったかを迅速に把握することができる。   As described above, the monitoring system according to the present embodiment can continuously reproduce and display the video image of the person along the individual flow line related to the specific person. Therefore, the user can efficiently grasp the behavior of the person. For example, the user can quickly grasp whether there was any suspicious behavior such as shoplifting by confirming the past behavior of the suspicious person in the facility with a video.

第3の実施形態に係る監視システムの変更例としては、提示対象の個別動線を選択するための処理は、実施形態に限定されるものではない。他の例としては、監視サーバ装置110は、ユーザと同伴行動をとった後にはぐれた人物の動線を提示対象動線としてもよい。この場合には、ツアー等で引率者とはぐれたツアー客をすばやく発見することができるとともに、はぐれ時の映像を確認できるため、はぐれの原因の分析等に役立てることができる。   As a modification example of the monitoring system according to the third embodiment, the process for selecting the individual flow line to be presented is not limited to the embodiment. As another example, the monitoring server device 110 may use a flow line of a person who has lost his / her accompaniment with the user as a presentation target flow line. In this case, it is possible to quickly find a tour customer who has been separated from the lead in a tour or the like and to check the video at the time of separation, which can be used for analysis of the cause of the separation.

以上のように、本実施形態に係る監視システムによれば、ユーザは監視カメラから独立したデバイスを用いて、動線に沿って映像を移動させながら閲覧することができる。また、ユーザは、滞留発生等の動線上の特徴に基づいて、動線上の位置や時刻を切り替えた映像を閲覧することができる。このように、ユーザは、監視カメラが撮影した映像を効率的に見ることができるので、状況把握の効率化を図ることができる。   As described above, according to the monitoring system of the present embodiment, the user can browse while moving the video along the flow line using the device independent of the monitoring camera. In addition, the user can view an image in which the position on the flow line and the time are switched based on characteristics on the flow line such as the occurrence of stay. In this way, the user can efficiently view the video taken by the surveillance camera, so that the situation can be efficiently identified.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、上述した各実施形態によれば、撮影映像を活用した動線解析を自動的に行い、解析結果に応じた映像を提供することにより、観察者による映像の確認作業の効率化を図ることができる。   As described above, according to each of the above-described embodiments, the flow line analysis using the captured video is automatically performed, and the video according to the analysis result is provided, thereby improving the efficiency of the video checking operation by the observer. Can do.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

100 監視カメラ
110 監視サーバ装置
120 モバイル端末
310 映像管理部
311 映像解析部
312 映像再生制御部
314 映像DB
315 動線DB
316 再生リスト
320 表示処理部
100 surveillance camera 110 surveillance server device 120 mobile terminal 310 video management unit 311 video analysis unit 312 video playback control unit 314 video DB
315 Flow line DB
316 Playback List 320 Display Processing Unit

Claims (20)

1以上の移動オブジェクトを撮影する1以上の撮影装置と、情報処理装置とを有する情報処理システムであって、
前記情報処理装置は、
前記撮影装置により得られた映像から、1以上の移動オブジェクトの動線を抽出する動線抽出手段と、
前記動線に基づいて、前記撮影装置により撮影された時空間において、提示範囲となる提示領域及び提示期間のうち少なくとも一方を特定する範囲特定手段と、
前記提示範囲に基づいて、ユーザに提示する提示映像を特定する映像特定手段と、
前記提示映像を表示する表示手段と
を有することを特徴とする情報処理システム。
An information processing system having one or more photographing devices that photograph one or more moving objects and an information processing device,
The information processing apparatus includes:
A flow line extracting means for extracting a flow line of one or more moving objects from the video obtained by the photographing apparatus;
A range specifying means for specifying at least one of a presentation area and a presentation period as a presentation range in the space-time imaged by the imaging device based on the flow line;
Video specifying means for specifying a presentation video to be presented to the user based on the presentation range;
An information processing system comprising display means for displaying the presented video.
前記範囲特定手段は、前記提示領域を特定し、さらに、前記提示領域と、予め定められた提示期間と、に基づいて、前記提示範囲を特定することを特徴とする請求項1に記載の情報処理システム。   The information according to claim 1, wherein the range specifying unit specifies the presentation area, and further specifies the presentation range based on the presentation area and a predetermined presentation period. Processing system. 前記範囲特定手段は、前記動線を含む領域を前記提示領域として特定することを特徴とする請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein the range specifying unit specifies an area including the flow line as the presentation area. 前記動線における移動オブジェクトの滞留を検出する滞留検出手段をさらに有し、
前記範囲特定手段は、前記滞留の位置に基づいて、前記提示領域を特定することを特徴とする請求項2に記載の情報処理システム。
It further has a stay detection means for detecting stay of the moving object in the flow line,
The information processing system according to claim 2, wherein the range specifying unit specifies the presentation area based on the staying position.
前記動線抽出手段は、複数の移動オブジェクトにより定まる1つの集合動線を抽出し、
前記移動オブジェクトの前記集合動線上の複数点における密度を特定する密度特定手段をさらに有し、
前記範囲特定手段は、各点の密度に基づいて、前記提示領域を特定し、さらに、前記提示領域と、予め定められた提示期間と、に基づいて、前記提示範囲を特定することを特徴とする請求項1に記載の情報処理システム。
The flow line extraction means extracts one collective flow line determined by a plurality of moving objects,
A density specifying means for specifying a density at a plurality of points on the collective flow line of the moving object;
The range specifying means specifies the presentation area based on the density of each point, and further specifies the presentation range based on the presentation area and a predetermined presentation period. The information processing system according to claim 1.
複数の前記撮影装置を有し、
前記範囲特定手段は、一定の前記提示領域を特定し、
前記提示領域に基づいて、前記撮影装置を選択する選択手段をさらに有し、
前記映像特定手段は、前記選択手段により選択された前記撮影装置により得られた映像の中から、提示映像を特定することを特徴とする請求項1に記載の情報処理システム。
A plurality of the photographing devices;
The range specifying means specifies a certain presentation area,
Further comprising selection means for selecting the imaging device based on the presentation area,
The information processing system according to claim 1, wherein the video specifying unit specifies a presentation video from videos obtained by the photographing apparatus selected by the selection unit.
前記表示手段は、前記提示映像が表示される表示処理時点が前記提示期間として設定されている場合には、表示処理時点において撮影されたリアルタイム映像を前記提示映像として表示する前記提示映像をリアルタイムに表示し、前記提示映像が表示される表示処理時点よりも過去の前記提示期間が設定されている場合には、前記提示期間に撮影された前記提示映像を表示することを特徴とする請求項1に記載の情報処理システム。   If the display processing time point at which the presentation video is displayed is set as the presentation period, the display means displays the real time video captured at the display processing time as the presentation video in real time. The display video displayed during the presentation period is displayed when the presentation period past the display processing time point at which the presentation video is displayed is set. Information processing system described in 1. 前記範囲特定手段は、前記提示期間を特定し、さらに、前記提示期間と、予め定められた提示領域と、に基づいて、前記提示範囲を特定することを特徴とする請求項1に記載の情報処理システム。   The information according to claim 1, wherein the range specifying unit specifies the presentation period, and further specifies the presentation range based on the presentation period and a predetermined presentation area. Processing system. 前記範囲特定手段は、前記動線に対応する映像が撮影された期間に基づいて、前記提示期間を特定することを特徴とする請求項8に記載の情報処理システム。   The information processing system according to claim 8, wherein the range specifying unit specifies the presentation period based on a period during which a video corresponding to the flow line is captured. 前記動線における移動オブジェクトの滞留を検出する滞留検出手段をさらに有し、
前記範囲特定手段は、前記滞留が検出された時刻に基づいて、前記提示期間を特定することを特徴とする請求項8に記載の情報処理システム。
It further has a stay detection means for detecting stay of the moving object in the flow line,
The information processing system according to claim 8, wherein the range specifying unit specifies the presentation period based on a time when the stay is detected.
前記動線抽出手段は、複数の移動オブジェクトにより定まる1つの集合動線を抽出し、
前記移動オブジェクトの前記集合動線上の複数点における密度を特定する密度特定手段をさらに有し、
前記範囲特定手段は、異なる時刻毎の密度に基づいて、前記提示期間を特定し、さらに、前記提示期間と、予め定められた提示領域と、に基づいて前記提示範囲を特定することを特徴とする請求項1に記載の情報処理システム。
The flow line extraction means extracts one collective flow line determined by a plurality of moving objects,
A density specifying means for specifying a density at a plurality of points on the collective flow line of the moving object;
The range specifying means specifies the presentation period based on densities at different times, and further specifies the presentation range based on the presentation period and a predetermined presentation area. The information processing system according to claim 1.
前記範囲特定手段は、前記動線に基づいて、前記提示領域と、前記提示期間と、を特定し、さらに前記提示領域と、前記提示期間と、に基づいて、前記提示範囲を特定することを特徴とする請求項1に記載の情報処理システム。   The range specifying means specifies the presentation area and the presentation period based on the flow line, and further specifies the presentation range based on the presentation area and the presentation period. The information processing system according to claim 1. 撮影装置により得られた映像から、1以上の移動オブジェクトの動線を抽出する動線抽出手段と、
前記動線に基づいて、前記撮影装置により撮影された時空間において、提示範囲となる提示領域及び提示期間のうち少なくとも一方を特定する範囲特定手段と、
前記提示範囲に基づいて、ユーザに提示する提示映像を特定する映像特定手段と
を有することを特徴とする情報処理装置。
A flow line extracting means for extracting a flow line of one or more moving objects from the video obtained by the photographing apparatus;
A range specifying means for specifying at least one of a presentation area and a presentation period as a presentation range in the space-time imaged by the imaging device based on the flow line;
An information processing apparatus comprising: video specifying means for specifying a presentation video to be presented to a user based on the presentation range.
1以上の移動オブジェクトを撮影する1以上の撮影装置と、情報処理装置と、携帯端末とを有する情報処理システムであって、
前記情報処理装置は、
前記撮影装置により得られた映像から、1以上の移動オブジェクトの動線を抽出する動線抽出手段と、
前記動線に基づいて、前記撮影装置により撮影された時空間において、提示範囲となる提示領域又は提示期間のうち少なくとも一方を特定する範囲特定手段と、
前記提示範囲に基づいて、ユーザに提示する提示映像を特定する映像特定手段と
を有し、
前記携帯端末は、
前記携帯端末の位置に基づいて、前記提示映像を再生表示するか否かを判断する判断手段と、
再生表示すると判断された場合に、前記提示映像を前記情報処理装置から受信する受信手段と、
前記提示映像を表示する表示手段と
を有することを特徴とする情報処理システム。
An information processing system having one or more photographing devices that photograph one or more moving objects, an information processing device, and a mobile terminal,
The information processing apparatus includes:
A flow line extracting means for extracting a flow line of one or more moving objects from the video obtained by the photographing apparatus;
A range specifying means for specifying at least one of a presentation area or a presentation period as a presentation range in a time-space photographed by the photographing device based on the flow line;
Video specifying means for specifying a presentation video to be presented to the user based on the presentation range;
The portable terminal is
Determining means for determining whether to reproduce and display the presented video based on the position of the mobile terminal;
Receiving means for receiving the presented video from the information processing apparatus when it is determined to be reproduced and displayed;
An information processing system comprising display means for displaying the presented video.
前記携帯端末は、
撮影手段をさらに有し、
前記判断手段は、前記携帯端末の位置及び前記撮影手段による撮影領域に基づいて、前記提示映像を再生表示するか否かを判断することを特徴とする請求項14に記載の情報処理システム。
The portable terminal is
It further has a photographing means,
The information processing system according to claim 14, wherein the determination unit determines whether to reproduce and display the presentation video based on a position of the mobile terminal and a shooting region by the shooting unit.
前記表示手段は、前記撮影手段により撮影された映像上に、前記提示映像を重畳して表示することを特徴とする請求項15に記載の情報処理システム。   16. The information processing system according to claim 15, wherein the display unit superimposes and displays the presentation video on the video shot by the shooting unit. 1以上の移動オブジェクトを撮影する1以上の撮影装置と、情報処理装置とを有する情報処理システムが実行する情報処理方法であって、
前記撮影装置により得られた映像から、1以上の移動オブジェクトの動線を抽出する動線抽出ステップと、
前記動線に基づいて、前記撮影装置により撮影された時空間において、提示範囲となる提示領域及び提示期間のうち少なくとも一方を特定する範囲特定ステップと、
前記提示範囲に基づいて、ユーザに提示する提示映像を特定する映像特定ステップと、
前記提示映像を表示する表示ステップと
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing system having one or more photographing devices that photograph one or more moving objects and an information processing device,
A flow line extracting step of extracting a flow line of one or more moving objects from the video obtained by the photographing apparatus;
A range specifying step for specifying at least one of a presentation area and a presentation period as a presentation range in the space-time photographed by the photographing device based on the flow line;
A video identifying step for identifying a presentation video to be presented to the user based on the presentation range;
A display step of displaying the presented video.
情報処理装置が実行する情報処理方法であって、
撮影装置により得られた映像から、1以上の移動オブジェクトの動線を抽出する動線抽出ステップと、
前記動線に基づいて、前記撮影装置により撮影された時空間において、提示範囲となる提示領域及び提示期間のうち少なくとも一方を特定する範囲特定ステップと、
前記提示範囲に基づいて、ユーザに提示する提示映像を特定する映像特定ステップと
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing apparatus,
A flow line extracting step of extracting a flow line of one or more moving objects from the video obtained by the imaging device;
A range specifying step for specifying at least one of a presentation area and a presentation period as a presentation range in the space-time photographed by the photographing device based on the flow line;
And a video specifying step of specifying a video to be presented to the user based on the presentation range.
1以上の移動オブジェクトを撮影する1以上の撮影装置と、情報処理装置と、携帯端末とを有する情報処理システムが実行する情報処理方法であって、
前記情報処理装置が、前記撮影装置により得られた映像から、1以上の移動オブジェクトの動線を抽出する動線抽出ステップと、
前記情報処理装置が、前記動線に基づいて、前記撮影装置により撮影された時空間において、提示範囲となる提示領域又は提示期間のうち少なくとも一方を特定する範囲特定ステップと、
前記提示範囲に基づいて、ユーザに提示する提示映像を特定する映像特定ステップと、
前記携帯端末が、前記携帯端末の位置に基づいて、前記提示映像を再生表示するか否かを判断する判断ステップと、
前記携帯端末が、再生表示すると判断した場合に、前記提示映像を前記情報処理装置から受信する受信ステップと、
前記携帯端末が、前記提示映像を表示する表示ステップと
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing system including one or more photographing devices that photograph one or more moving objects, an information processing device, and a mobile terminal,
A flow line extracting step in which the information processing apparatus extracts a flow line of one or more moving objects from the video obtained by the photographing apparatus;
A range specifying step of specifying at least one of a presentation region or a presentation period as a presentation range in the time-space imaged by the imaging device based on the flow line;
A video identifying step for identifying a presentation video to be presented to the user based on the presentation range;
A determination step of determining whether or not the mobile terminal reproduces and displays the presented video based on a position of the mobile terminal;
A reception step of receiving the presentation video from the information processing device when the portable terminal determines to reproduce and display;
The information processing method characterized by including the display step in which the said portable terminal displays the said presentation image | video.
コンピュータを、
撮影装置により得られた映像から、1以上の移動オブジェクトの動線を抽出する動線抽出手段と、
前記動線に基づいて、前記撮影装置により撮影された時空間において、提示範囲となる提示領域及び提示期間のうち少なくとも一方を特定する範囲特定手段と、
前記提示範囲に基づいて、ユーザに提示する提示映像を特定する映像特定手段と
して機能させるためのプログラム。
Computer
A flow line extracting means for extracting a flow line of one or more moving objects from the video obtained by the photographing apparatus;
A range specifying means for specifying at least one of a presentation area and a presentation period as a presentation range in the space-time imaged by the imaging device based on the flow line;
A program for functioning as video specifying means for specifying a video to be presented to a user based on the presentation range.
JP2015003465A 2015-01-09 2015-01-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM Active JP6532234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015003465A JP6532234B2 (en) 2015-01-09 2015-01-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015003465A JP6532234B2 (en) 2015-01-09 2015-01-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2016129306A true JP2016129306A (en) 2016-07-14
JP6532234B2 JP6532234B2 (en) 2019-06-19

Family

ID=56384532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015003465A Active JP6532234B2 (en) 2015-01-09 2015-01-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6532234B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173855A (en) * 2017-03-31 2018-11-08 日本電気株式会社 Shoplifting prevention system and store side device and center side device used therefor
WO2019017193A1 (en) * 2017-07-18 2019-01-24 ソニーセミコンダクタソリューションズ株式会社 Image-capturing device and image-capturing system
JP2020167720A (en) * 2017-03-31 2020-10-08 日本電気株式会社 Video image processing device, video image analysis system, method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101994A (en) * 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp Monitoring camera system
JP2007267294A (en) * 2006-03-30 2007-10-11 Hitachi Ltd Moving object monitoring apparatus using a plurality of cameras
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2010283645A (en) * 2009-06-05 2010-12-16 Nikon Corp Head-mounted display device, and communication system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101994A (en) * 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp Monitoring camera system
JP2007267294A (en) * 2006-03-30 2007-10-11 Hitachi Ltd Moving object monitoring apparatus using a plurality of cameras
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2010283645A (en) * 2009-06-05 2010-12-16 Nikon Corp Head-mounted display device, and communication system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173855A (en) * 2017-03-31 2018-11-08 日本電気株式会社 Shoplifting prevention system and store side device and center side device used therefor
JP2020167720A (en) * 2017-03-31 2020-10-08 日本電気株式会社 Video image processing device, video image analysis system, method, and program
JP2021185698A (en) * 2017-03-31 2021-12-09 日本電気株式会社 Video image processing device, video image analysis system, method, and program
JP7279747B2 (en) 2017-03-31 2023-05-23 日本電気株式会社 VIDEO PROCESSING DEVICE, VIDEO ANALYSIS SYSTEM, METHOD AND PROGRAM
US11748892B2 (en) 2017-03-31 2023-09-05 Nec Corporation Video image processing device, video image analysis system, method, and program
WO2019017193A1 (en) * 2017-07-18 2019-01-24 ソニーセミコンダクタソリューションズ株式会社 Image-capturing device and image-capturing system

Also Published As

Publication number Publication date
JP6532234B2 (en) 2019-06-19

Similar Documents

Publication Publication Date Title
US11210504B2 (en) Emotion detection enabled video redaction
EP2923487B1 (en) Method and system for metadata extraction from master-slave cameras tracking system
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
CN111131902B (en) Method for determining target object information and video playing equipment
US9870684B2 (en) Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
US11315340B2 (en) Methods and systems for detecting and analyzing a region of interest from multiple points of view
JP4810420B2 (en) Image processing apparatus, image processing method, server, control method therefor, program, and storage medium
JP2015002553A (en) Information system and control method thereof
CN110418112A (en) A kind of method for processing video frequency and device, electronic equipment and storage medium
CN104335594A (en) Automatic digital curation and tagging of action videos
KR20180058019A (en) The Apparatus For Searching Image And The Method For Storing Data And The Apparatus For Storing Data
KR101933153B1 (en) Control Image Relocation Method and Apparatus according to the direction of movement of the Object of Interest
CN108701392A (en) Method and apparatus for executing monitoring
US11037604B2 (en) Method for video investigation
CN108028964A (en) Information processor and information processing method
WO2015122163A1 (en) Video processing system
JPWO2017002240A1 (en) Surveillance system, photographing side device, and collation side device
JP6532234B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
KR101990789B1 (en) Method and Apparatus for Searching Object of Interest by Selection of Object
JP6433928B2 (en) SEARCH DEVICE, SEARCH METHOD, AND SEARCH SYSTEM
JP6203188B2 (en) Similar image search device
CN102905102A (en) Screen capturing video player and screen capturing method
JP2006093955A (en) Video processing apparatus
WO2017026154A1 (en) Information processing device, information processing method, and program
KR101599302B1 (en) System for monitoring embodied with back tracking function of time series video date integrated with space model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190521

R151 Written notification of patent or utility model registration

Ref document number: 6532234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151