JP2022038374A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2022038374A
JP2022038374A JP2020142845A JP2020142845A JP2022038374A JP 2022038374 A JP2022038374 A JP 2022038374A JP 2020142845 A JP2020142845 A JP 2020142845A JP 2020142845 A JP2020142845 A JP 2020142845A JP 2022038374 A JP2022038374 A JP 2022038374A
Authority
JP
Japan
Prior art keywords
frame interval
image
moving image
display
executed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020142845A
Other languages
Japanese (ja)
Inventor
俊哉 小又
Toshiya Omata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020142845A priority Critical patent/JP2022038374A/en
Publication of JP2022038374A publication Critical patent/JP2022038374A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a technique for easily grasping the frame interval of an image in which analysis processing is executed.SOLUTION: An information processing device includes setting means that sets a frame interval in which a predetermined analysis process is executed for a moving image captured by imaging means, acquisition means that acquires the analysis result of a predetermined analysis process executed on the moving image according to a frame interval set by the setting means, and display control means that causes display means to display an index indicating an imaging period of the moving image corresponding to the analysis result among the moving images captured by the imaging means, and the display control means changes the display mode of the index according to the frame interval in which the predetermined analysis process is executed on the moving image corresponding to the analysis result.SELECTED DRAWING: Figure 6

Description

本発明は、情報処理技術に関する。 The present invention relates to information processing technology.

従来、画像から物体を検出する検出処理や、画像中に含まれる物体の数をカウントするカウント処理などの画像の解析処理が知られている。また画像に対する解析処理の結果を当該画像の撮像日時と関連付けて蓄積し、タイムライン上に解析処理の結果を示す情報を表示させる技術が知られている。 Conventionally, image analysis processing such as detection processing for detecting an object from an image and counting processing for counting the number of objects contained in the image is known. Further, there is known a technique of accumulating the result of analysis processing for an image in association with the imaging date and time of the image and displaying information indicating the result of analysis processing on a timeline.

特許文献1では、画像から人物が検出されていた期間の情報をタイムライン上で表示させる旨の記載が開示されている。 Patent Document 1 discloses a description that information on a period during which a person is detected from an image is displayed on a timeline.

特開2019-125911号公報Japanese Unexamined Patent Publication No. 2019-125911

しかしながら、特許文献1に記載の技術を用いて所定の解析処理の結果をタイムライン上に表示する場合において、解析処理が実行された画像のフレーム間隔をユーザは確認できないため、ユーザは解析処理が十分に実行されたかを把握できないことがある。 However, when the result of a predetermined analysis process is displayed on the timeline using the technique described in Patent Document 1, the user cannot confirm the frame interval of the image in which the analysis process is executed, so that the user can perform the analysis process. It may not be possible to know if it has been fully executed.

そこで、本発明は、解析処理が実行された画像のフレーム間隔を容易に把握できるようにする技術の提供を目的とする。 Therefore, an object of the present invention is to provide a technique for easily grasping the frame interval of an image in which an analysis process is executed.

上記課題を解決するために、本発明の情報処理装置は、例えば、以下の構成を備える。すなわち、撮像手段に撮像された動画像に対して所定の解析処理が実行されるフレーム間隔を設定する設定手段と、前記設定手段により設定されたフレーム間隔に従って前記動画像に対して実行された銭所定の解析処理の解析結果を取得する取得手段と、前記撮像手段に撮像された動画像のうち前記解析結果に対応する前記動画像の撮像期間を示す指標を表示手段に表示させる表示制御手段と、前記表示制御手段は、前記表示画面において、前記解析結果に対応する前記動画像に対して前記所定の解析処理が実行された前記フレーム間隔に応じて、前記指標の表示態様を異ならせる。 In order to solve the above problems, the information processing apparatus of the present invention has, for example, the following configuration. That is, a setting means for setting a frame interval in which a predetermined analysis process is executed for the moving image captured by the imaging means, and a coin executed for the moving image according to the frame interval set by the setting means. An acquisition means for acquiring an analysis result of a predetermined analysis process, and a display control means for displaying an index indicating an imaging period of the moving image corresponding to the analysis result among the moving images captured by the imaging means on the display means. On the display screen, the display control means changes the display mode of the index according to the frame interval in which the predetermined analysis process is executed on the moving image corresponding to the analysis result.

本発明によれば、解析処理が実行された画像のフレーム間隔を容易に把握できるようにすることができる。 According to the present invention, it is possible to easily grasp the frame interval of the image in which the analysis process is executed.

システム構成の一例を示した図である。It is a figure which showed an example of the system configuration. 機能ブロックの一例を示す図である。It is a figure which shows an example of a functional block. 画像に対し所定の解析処理が実行された様子の一例を示す図である。It is a figure which shows an example of the appearance that a predetermined analysis process was executed with respect to an image. 記録される設定情報の一例を示す図である。It is a figure which shows an example of the setting information to be recorded. 記録される解析結果情報の一例を示す図である。It is a figure which shows an example of the analysis result information recorded. ディスプレイ130に表示される表示画面の一例である。This is an example of a display screen displayed on the display 130. 画像に対する所定の解析処理の結果が蓄積される処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which accumulates the result of the predetermined analysis process for an image. ディスプレイ130に表示画面を表示させる処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which displays the display screen on a display 130. ディスプレイ130に表示される表示画面の一例である。This is an example of a display screen displayed on the display 130. ディスプレイ130に表示される表示画面の一例である。This is an example of a display screen displayed on the display 130. ディスプレイ130に表示される表示画面の一例である。This is an example of a display screen displayed on the display 130. ディスプレイ130に表示される表示画面の一例である。This is an example of a display screen displayed on the display 130. 各装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of each apparatus.

以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。 Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings. The configuration shown in the following embodiments is merely an example, and is not limited to the configurations shown in the drawings.

(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、情報処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
(Embodiment 1)
FIG. 1 is a diagram showing a system configuration in this embodiment. The system in this embodiment includes an information processing device 100, an image pickup device 110, a recording device 120, and a display 130.

情報処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。 The information processing device 100, the image pickup device 110, and the recording device 120 are connected to each other via the network 140. The network 140 is realized from a plurality of routers, switches, cables and the like conforming to a communication standard such as ETHERNET (registered trademark).

なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。 The network 140 may be realized by the Internet, a wired LAN (Local Area Network), a wireless LAN (Wireless Lan), a WAN (Wide Area Network), or the like.

情報処理装置100は、例えば、後述する情報処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。 The information processing apparatus 100 is realized by, for example, a personal computer or the like in which a program for realizing the information processing function described later is installed.

撮像装置110は、画像を撮像する装置であり、撮像手段として機能する。なお、本実施形態において、複数の撮像装置110がネットワーク140を介して情報処理装置100や記録装置120と接続される場合について説明するが、撮像装置110は1つであってもよい。複数の撮像装置110の各々は、撮像した画像の画像データと、画像を撮像した撮像日時の情報と、画像を撮像した撮像装置110を識別する識別情報とを関連付けて、ネットワーク140を介し、情報処理装置100や記録装置120などへ送信する。情報処理装置100および記録装置120は、例えば、送信された画像と関連付けられた識別情報を用いて、送信された当該画像は、複数の撮像装置110のうちどの撮像装置110により撮像されたかを判断する。 The image pickup device 110 is a device for taking an image and functions as an image pickup means. In the present embodiment, the case where a plurality of image pickup devices 110 are connected to the information processing device 100 and the recording device 120 via the network 140 will be described, but the image pickup device 110 may be one. Each of the plurality of image pickup devices 110 associates the image data of the captured image, the information of the capture date and time when the image was captured, and the identification information for identifying the image pickup device 110 that captured the image, and provides information via the network 140. It is transmitted to the processing device 100, the recording device 120, and the like. The information processing device 100 and the recording device 120 use, for example, the identification information associated with the transmitted image to determine which image pickup device 110 among the plurality of image pickup devices 110 has captured the transmitted image. do.

記録装置120は、撮像装置110が撮像した画像の画像データと、画像を撮像した撮像日時の情報と、撮像装置110を識別する識別情報とを関連付けて記録する。そして、情報処理装置100からの要求に従って、記録装置120は、記録したデータ(画像、識別情報など)を情報処理装置100へ送信する。 The recording device 120 records the image data of the image captured by the image pickup device 110, the information on the date and time when the image was captured, and the identification information for identifying the image pickup device 110 in association with each other. Then, in accordance with the request from the information processing device 100, the recording device 120 transmits the recorded data (image, identification information, etc.) to the information processing device 100.

ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されており、情報処理装置100の情報処理の結果や、撮像装置110が撮像した画像などを表示する。ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して情報処理装置100と接続されている。なお、ディスプレイ130、情報処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。 The display 130 is composed of an LCD (Liquid Crystal Display) or the like, and displays the information processing result of the information processing apparatus 100, the image captured by the imaging apparatus 110, and the like. The display 130 is connected to the information processing apparatus 100 via a display cable compliant with a communication standard such as HDMI (registered trademark) (High Definition Multimedia Interface). At least two or all of the display 130, the information processing device 100, and the recording device 120 may be provided in a single housing.

なお、情報処理装置100による情報処理の結果や、撮像装置110により撮像された画像は、情報処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限らず、例えば、次のような外部装置が有するディスプレイに表示されてもよい。すなわち、ネットワーク140を介して接続されたスマートフォン、タブレット端末などのモバイルデバイスが有するディスプレイに表示されていてもよい。 The result of information processing by the information processing device 100 and the image captured by the image pickup device 110 are not limited to the display 130 connected to the information processing device 100 via the display cable, for example, the following external device. It may be displayed on the display of. That is, it may be displayed on a display of a mobile device such as a smartphone or a tablet terminal connected via the network 140.

次に、図2に示す本実施形態に係る情報処理装置100の機能ブロックを参照して、本実施形態に係る情報処理装置100の情報処理について説明する。 Next, the information processing of the information processing apparatus 100 according to the present embodiment will be described with reference to the functional block of the information processing apparatus 100 according to the present embodiment shown in FIG.

なお、図2に示す各機能は、本実施形態の場合、図13を参照して後述するROM(Read Only Memory)1320とCPU(Central Processing Unit)1300とを用いて、次のようにして実現されるものとする。すなわち、図2に示す各機能は、情報処理装置100のROM1320に格納されたコンピュータプログラムを情報処理装置100のCPU1300が実行することにより実現される。 In the case of this embodiment, each function shown in FIG. 2 is realized as follows by using a ROM (Read Only Memory) 1320 and a CPU (Central Processing Unit) 1300, which will be described later with reference to FIG. It shall be done. That is, each function shown in FIG. 2 is realized by the CPU 1300 of the information processing apparatus 100 executing the computer program stored in the ROM 1320 of the information processing apparatus 100.

取得部200は、撮像装置110に撮像された動画像を構成する各フレームの画像を順次取得する。なお、取得部200は、撮像装置110から送信された動画像を取得してもよいし、記録装置120から送信された動画像を取得してもよい。 The acquisition unit 200 sequentially acquires images of each frame constituting the moving image captured by the image pickup apparatus 110. The acquisition unit 200 may acquire the moving image transmitted from the imaging device 110, or may acquire the moving image transmitted from the recording device 120.

記録部201は、図13を参照して後述するRAM(Random Access Memory)1310やHDD(Hard Disk Drive)1330等によって実現でき、情報処理装置100による情報処理に関わる情報やデータを記録する。 The recording unit 201 can be realized by a RAM (Random Access Memory) 1310, an HDD (Hard Disk Drive) 1330, or the like, which will be described later with reference to FIG. 13, and records information and data related to information processing by the information processing apparatus 100.

操作受付部202は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。例えば、操作受付部202は、動画像に対して所定の解析処理が実行されるフレーム間隔を指定するユーザ操作を受け付ける。 The operation receiving unit 202 receives an operation performed by the user via an input device (not shown) such as a keyboard or a mouse. For example, the operation receiving unit 202 accepts a user operation for designating a frame interval in which a predetermined analysis process is executed for a moving image.

設定部203は、取得部200に取得された動画像に対して所定の解析処理が実行されるフレーム間隔を設定する。例えば、所定の解析処理が実行されるフレーム間隔を指定するユーザ操作を操作受付部202が受け付けた場合、設定部203は、当該ユーザ操作に基づき、指定されたフレーム間隔を、動画像に対し所定の解析処理が実行されるフレーム間隔として設定する。設定部203により設定されたフレーム間隔の情報は記録部201により記録される。なお、設定部203によるフレーム間隔の設定処理については後述する。 The setting unit 203 sets a frame interval in which a predetermined analysis process is executed for the moving image acquired by the acquisition unit 200. For example, when the operation receiving unit 202 accepts a user operation for specifying a frame interval in which a predetermined analysis process is executed, the setting unit 203 determines a specified frame interval for a moving image based on the user operation. Set as the frame interval at which the analysis process of is executed. The information of the frame interval set by the setting unit 203 is recorded by the recording unit 201. The frame interval setting process by the setting unit 203 will be described later.

画像解析部204は、取得部200により取得された動画像に対して、設定部203により設定されたフレーム間隔に従って、所定の解析処理を実行する。なお本実施形態において、所定の解析処理は、動画像に含まれる画像から特定の物体を検出する検出処理に関するものとする。例えば、所定の解析処理は、動画像に含まれるフレームの画像に対する特定の物体を検出する検出処理、当該画像において検出処理により検出された特定物体の数を計数する計数処理などがある。なお、画像から特定の物体を検出する検出処理では、例えば、パターンマッチング処理などを用いてもよいし、機械学習により学習された識別器を用いて画像から特定の物体を検出する処理を用いてもよい。また、所定の解析処理は、動画像に含まれるフレームの画像において検出処理により検出された特定の物体を追尾する追尾処理でもよい。なお、記録部201は、設定されたフレーム間隔に従って動画像に対して画像解析部204により実行された所定の解析処理の情報を取得し、記録(保持)する。またこのとき、記録部201は、画像に対し実行された所定の解析処理の解析結果との情報を記録する。 The image analysis unit 204 executes a predetermined analysis process on the moving image acquired by the acquisition unit 200 according to the frame interval set by the setting unit 203. In the present embodiment, the predetermined analysis process is related to the detection process of detecting a specific object from the image included in the moving image. For example, the predetermined analysis process includes a detection process for detecting a specific object for an image of a frame included in a moving image, a counting process for counting the number of specific objects detected by the detection process in the image, and the like. In the detection process for detecting a specific object from an image, for example, a pattern matching process or the like may be used, or a process for detecting a specific object from an image using a classifier learned by machine learning may be used. May be good. Further, the predetermined analysis process may be a tracking process for tracking a specific object detected by the detection process in the image of the frame included in the moving image. The recording unit 201 acquires (holds) information on a predetermined analysis process executed by the image analysis unit 204 on the moving image according to the set frame interval. At this time, the recording unit 201 records information with the analysis result of the predetermined analysis process executed on the image.

生成部205は、撮像装置110に撮像された動画像のうち解析結果に対応する動画像の撮像期間を示す指標が含まれる表示画面を生成する。なおこのとき、生成部205は、解析結果に対応する動画像に対して所定の解析処理が実行されたフレーム間隔に応じて、当該動画像の撮像期間を示す指標の表示態様を異ならせる。表示制御部206は、生成部205により生成された表示画面をディスプレイ130に表示させる。また、表示制御部206は、撮像装置110に撮像された動画像をディスプレイ130に表示させる。 The generation unit 205 generates a display screen including an index indicating the imaging period of the moving image corresponding to the analysis result among the moving images captured by the imaging device 110. At this time, the generation unit 205 changes the display mode of the index indicating the imaging period of the moving image according to the frame interval in which the predetermined analysis processing is executed for the moving image corresponding to the analysis result. The display control unit 206 causes the display 130 to display the display screen generated by the generation unit 205. Further, the display control unit 206 causes the display 130 to display the moving image captured by the image pickup device 110.

ここで、図3~図8を参照して、本実施形態における情報処理装置100の情報処理についてより詳細に説明する。図3は、画像に対して画像解析部204により所定の画像処理が実行された様子の一例を示す図である。なお、以降の説明において、画像解析部204は、画像に含まれる特定の物体として人物を検出する検出処理を実行し、当該画像から検出処理により検出された人物の数を計数する計数処理を実行するものとする。図3に示すように、本実施形態における画像解析部204は、撮像された画像300に含まれる人物を検出する検出処理を実行し、更に、画像300から検出処理により検出された人物の計数する計数処理を実行する。また、生成部205は、図3に示すように、画像300から検出された人物の位置に枠301を画像300に重畳するとともに、画像300において計数された人物の数を含むラベル302を画像300に重畳した出力画像を生成するようにしてもよい。このとき、表示制御部206は、生成部205により生成された出力画像をディスプレイ130に表示させてもよい。なお、図3に示す例では、画像300の領域全体が検出処理および計数処理の対象である場合を想定し、画像300において15人の人物が検出され、“15”という解析結果が得られている。そのため、生成部205は、撮像された画像300について計数処理により得られたカウント結果として“15”という数値を含むラベル302を画像300に重畳する。 Here, the information processing of the information processing apparatus 100 in the present embodiment will be described in more detail with reference to FIGS. 3 to 8. FIG. 3 is a diagram showing an example of a state in which a predetermined image process is executed by the image analysis unit 204 on the image. In the following description, the image analysis unit 204 executes a detection process for detecting a person as a specific object included in the image, and executes a counting process for counting the number of persons detected by the detection process from the image. It shall be. As shown in FIG. 3, the image analysis unit 204 in the present embodiment executes a detection process for detecting a person included in the captured image 300, and further counts the persons detected from the image 300 by the detection process. Execute the counting process. Further, as shown in FIG. 3, the generation unit 205 superimposes the frame 301 on the image 300 at the position of the person detected from the image 300, and displays the label 302 including the number of people counted in the image 300 on the image 300. The output image superimposed on the may be generated. At this time, the display control unit 206 may display the output image generated by the generation unit 205 on the display 130. In the example shown in FIG. 3, assuming that the entire region of the image 300 is the target of the detection process and the counting process, 15 people are detected in the image 300, and the analysis result of "15" is obtained. There is. Therefore, the generation unit 205 superimposes the label 302 including the numerical value “15” on the image 300 as the counting result obtained by the counting process for the captured image 300.

次に、図4および図5を参照して、本実施形態における記録部201が保持する情報について説明する。図4に示す設定情報400は、記録部201により記録される情報であって、次のような情報が記録される。すなわち、設定情報400において、撮像装置110の識別情報401、当該撮像装置110に撮像された動画像のうち所定の解析処理が実行される期間である解析期間402、解析処理が実行されるフレーム間隔403、が関連つけられて記録される。図4の例では、複数の撮像装置110のうち、識別情報401が“cameraA”、“camaraB”、“cameraC”の3つの撮像装置110について設定情報400に記録される。例えば図4に示すように“cameraA”の撮像装置110が撮像した動画像のうち、解析期間402“2020/7/30,13:00~14:00”の期間に撮像された動画像に対し、フレーム間隔403が示す“3フレーム”ごとに解析処理が実行される。また設定情報400の例では“cameraA”の撮像装置110が撮像した動画像のうち、解析期間402 “2020/7/30,15:00~17:00”に撮像された動画像に対して、フレーム間隔403が示す“1フレーム”ごとに解析処理が実行される。なお、記録部201が記録する設定情報400に含まれる情報は、例えば、ユーザによる操作に従って設定される。例えば、操作受付部202は、リアルタイムのライブ映像に対し解析処理を実行するのに先立って、次のような情報を指定するユーザ操作を受け付ける。すなわち操作受付部202は、”cameraA”の情報、“2020/7/30,13:00~14:00”という解析処理が実行される期間の情報、“3フレーム”というフレーム間隔の情報、を指定するユーザ操作を受け付ける。そして、記録部201は、操作受付部202が受け付けた情報に従って、識別情報401“cameraA”と、解析期間402“2020/7/30,13:00~14:00”と、フレーム間隔403“3フレーム”とを関連付けて設定情報400に格納する。 Next, the information held by the recording unit 201 in the present embodiment will be described with reference to FIGS. 4 and 5. The setting information 400 shown in FIG. 4 is information recorded by the recording unit 201, and the following information is recorded. That is, in the setting information 400, the identification information 401 of the image pickup device 110, the analysis period 402 which is the period during which the predetermined analysis process is executed among the moving images captured by the image pickup device 110, and the frame interval at which the analysis process is executed. 403, is associated and recorded. In the example of FIG. 4, among the plurality of image pickup devices 110, the identification information 401 is recorded in the setting information 400 for the three image pickup devices 110 of “cameraA”, “camaraB”, and “cameraC”. For example, as shown in FIG. 4, among the moving images captured by the image pickup device 110 of the “camera A”, the moving images captured during the analysis period 402 “2020/7/30, 13: 00-14: 00” , The analysis process is executed every "3 frames" indicated by the frame interval 403. Further, in the example of the setting information 400, among the moving images captured by the image pickup device 110 of the “camera A”, the moving images captured during the analysis period 402 “2020/7/30, 15: 00-17: 00” are compared. The analysis process is executed every "1 frame" indicated by the frame interval 403. The information included in the setting information 400 recorded by the recording unit 201 is set according to, for example, an operation by the user. For example, the operation reception unit 202 receives a user operation for specifying the following information prior to executing the analysis process for the real-time live video. That is, the operation reception unit 202 provides information on "cameraA", information on the period during which the analysis process is executed "2020/7/30, 13: 00-14: 00", and information on the frame interval of "3 frames". Accepts the specified user operation. Then, the recording unit 201 has the identification information 401 “cameraA”, the analysis period 402 “2020/7/30, 13: 00-14: 00”, and the frame interval 403 “3” according to the information received by the operation reception unit 202. It is stored in the setting information 400 in association with the "frame".

ここで、図5に示す解析結果情報500について説明する。解析結果情報500は、記録部201により記録される情報であり、撮像装置110に撮像された動画像に対して、設定情報400に従って、所定の解析処理が実行されることで得られた解析結果の情報が記録される。図5に示す例では、解析結果情報500において、次のような情報が記録される。すなわち、撮像装置110の識別情報501と、当該撮像装置110が撮像した画像のフレーム番号502と、当該画像の撮像日時503と、当該画像に対する解析処理の解析結果504とが関連つけられて記録される。例えば解析結果情報500では、識別情報501“cameraA”の撮像装置110により撮像され、フレーム番号502が“0”であり、撮像日時503が“2020/7/30/13:00”の画像、に対する解析結果504“15”が格納されている。なお、本実施形態において、動画像に対し実行される所定の解析処理は、画像に含まれる特定物体の数の計数処理である場合を想定しているため、解析結果504には、画像各々について計数された特定物体の数の情報が格納される。 Here, the analysis result information 500 shown in FIG. 5 will be described. The analysis result information 500 is information recorded by the recording unit 201, and is an analysis result obtained by executing a predetermined analysis process on the moving image captured by the image pickup apparatus 110 according to the setting information 400. Information is recorded. In the example shown in FIG. 5, the following information is recorded in the analysis result information 500. That is, the identification information 501 of the image pickup device 110, the frame number 502 of the image captured by the image pickup device 110, the image capture date and time 503 of the image, and the analysis result 504 of the analysis process for the image are recorded in association with each other. To. For example, in the analysis result information 500, the image is imaged by the image pickup device 110 of the identification information 501 “cameraA”, the frame number 502 is “0”, and the image pickup date and time 503 is “2020/7/30/13: 00”. The analysis result 504 "15" is stored. In the present embodiment, it is assumed that the predetermined analysis process executed on the moving image is a counting process of the number of specific objects included in the image. Therefore, the analysis result 504 shows each image. Information on the number of specific objects counted is stored.

なお、本実施形態において、撮像装置110により撮像された動画像のうち解析結果に対応する動画像、言い換えれば、撮像装置に撮像された動画像のうち解析結果が存在する動画像とは、次のような動画像を示す。すなわち、撮像装置110により撮像された動画像のうち所定の解析処理が実行された動画像を示す。例えば、“cameraA”の撮像装置110が“2020/7/30、13:00~17:00”の期間にわたって動画像を撮像した場合を想定する。このとき図4~5の例では、“cameraA”の撮像装置110により撮像された動画像のうち解析結果が存在する動画像とは、“2020/7/30、13:00~14:00”と“2020/7/30、15:00~17:00”に撮像された動画像を示す。一方、撮像装置110により“2020/7/30、13:00~17:00”の期間にわたって撮像された動画像のうち解析結果が存在しない動画像とは、例えば、“2020/7/30、14:01~14:59”の期間に撮像された動画像を示す。 In the present embodiment, the moving image corresponding to the analysis result among the moving images captured by the imaging device 110, in other words, the moving image in which the analysis result exists among the moving images captured by the imaging device is as follows. A moving image such as is shown. That is, it shows a moving image in which a predetermined analysis process is executed among the moving images captured by the image pickup apparatus 110. For example, it is assumed that the image pickup device 110 of "camera A" captures a moving image over a period of "2020/7/30, 13: 00-17: 00". At this time, in the example of FIGS. 4 to 5, among the moving images captured by the image pickup device 110 of "cameraA", the moving image in which the analysis result exists is "2020/7/30, 13: 00-14: 00". And "2020/7/30, 15: 00-17: 00" are shown. On the other hand, among the moving images captured by the image pickup apparatus 110 over the period of "2020/7/30, 13: 00-17: 00", the moving image for which no analysis result exists is, for example, "2020/7/30, The moving image taken in the period of "14:01 to 14:59" is shown.

次に、図6を参照して、本実施形態における生成部205により生成され表示制御部206によりディスプレイ130に表示される情報について説明する。図6に示す表示画面600は、生成部205により生成され、表示制御部206によりディスプレイ130に表示される画面を示す。生成部205は、例えば、設定情報400に従って解析処理が実行されることで解析結果情報500が得られたことに応じて、表示画面600を生成する。本実施形態における生成部205は、撮像装置110の各々について、撮像装置110に撮像された動画像のうち解析結果に対応する動画像の撮像期間を示す指標が含まれる表示画面600を生成する。具体的には、生成部205は、“cameraA”の撮像装置110について、時間軸に対応する図形であるタイムライン601a上に、解析結果が得られた動画像の撮像期間を示す指標602aと指標603aを描画する。このとき、生成部205は、設定情報400又は解析結果情報500を参照し、“2020/7/30,13:00~14:00”の期間において“cameraA”の撮像装置110に撮像された動画像に対して解析処理が実行されたと判断する。そして、生成部205は、“2020/7/30,13:00~14:00”の期間を解析結果が得られた動画像の撮像期間として、当該期間を示す指標602aをタイムライン601a上の当該期間に対応する位置に描画する。このとき、生成部205は、図6に示すように、“2020/7/30,13:00~14:00”の期間に対応するタイムライン601a上の位置として、タイムライン601a上の13:00~14:00の位置に、当該期間を示す指標602aを描画する。また同様に、生成部205は、設定情報400又は解析結果情報500を参照し、“2020/7/30,15:00~17:00”の期間において“cameraA”の撮像装置110に撮像された動画像に対して解析処理が実行されたと判断する。このとき、“2020/7/30,15:00~17:00”の期間を解析結果が得られた動画像の撮像期間として、当該期間を示す指標603aをタイムライン601a上に描画する。このように、本実施形態において、生成部205は、或る撮像装置110について、当該撮像装置110に対応するタイムライン上に、解析結果が得られた動画像の撮像期間を示す指標としてマークを描画する。なお図6では、本実施形態に係る生成部205は、“cameraB”の撮像装置110および“cameraC”の撮像装置110各々について、設定情報400又は解析結果情報500を参照し、解析結果が得られた動画像の撮像期間を示す指標を描画する。例えば図6では、生成部205は、“cameraB”の撮像装置110について、解析結果が得られた動画像の撮像期間を示す指標602bを、”cameraB”の撮像装置110に対応するタイムライン601b上の当該撮像期間に対応する位置に描画する。また図6では、生成部205は、“cameraC”の撮像装置110について、解析結果が得られた動画像の撮像期間を示す指標602cを、”cameraC”の撮像装置110に対応するタイムライン601c上の当該撮像期間に対応する位置に描画する。 Next, with reference to FIG. 6, the information generated by the generation unit 205 in the present embodiment and displayed on the display 130 by the display control unit 206 will be described. The display screen 600 shown in FIG. 6 shows a screen generated by the generation unit 205 and displayed on the display 130 by the display control unit 206. The generation unit 205 generates the display screen 600 in response to the acquisition of the analysis result information 500 by executing the analysis process according to the setting information 400, for example. For each of the image pickup devices 110, the generation unit 205 in the present embodiment generates a display screen 600 including an index indicating the imaging period of the moving image corresponding to the analysis result among the moving images captured by the image pickup device 110. Specifically, the generation unit 205 has an index 602a and an index indicating the imaging period of the moving image from which the analysis result is obtained on the timeline 601a, which is a figure corresponding to the time axis, for the image pickup device 110 of the “cameraA”. 603a is drawn. At this time, the generation unit 205 refers to the setting information 400 or the analysis result information 500, and the moving image captured by the image pickup device 110 of the “camera A” during the period of “2020/7/30, 13: 00-14: 00”. It is determined that the analysis process has been executed for the image. Then, the generation unit 205 sets the period of "2020/7/30, 13: 00-14: 00" as the imaging period of the moving image for which the analysis result is obtained, and sets the index 602a indicating the period on the timeline 601a. Draw at the position corresponding to the period. At this time, as shown in FIG. 6, the generation unit 205 is positioned on the timeline 601a corresponding to the period of “2020/7/30, 13:00 to 14:00”, and is 13: on the timeline 601a. An index 602a indicating the period is drawn at positions from 00 to 14:00. Similarly, the generation unit 205 referred to the setting information 400 or the analysis result information 500, and was imaged by the image pickup device 110 of the “camera A” during the period of “2020/7/30, 15:00 to 17:00”. It is determined that the analysis process has been executed for the moving image. At this time, the period of "2020/7/30, 15:00 to 17:00" is set as the imaging period of the moving image for which the analysis result is obtained, and the index 603a indicating the period is drawn on the timeline 601a. As described above, in the present embodiment, the generation unit 205 marks a certain image pickup device 110 as an index indicating the image pickup period of the moving image for which the analysis result is obtained on the timeline corresponding to the image pickup device 110. draw. In FIG. 6, the generation unit 205 according to the present embodiment refers to the setting information 400 or the analysis result information 500 for each of the image pickup device 110 of the “camera B” and the image pickup device 110 of the “camera C”, and the analysis result is obtained. An index indicating the imaging period of the moving image is drawn. For example, in FIG. 6, the generation unit 205 sets the index 602b indicating the imaging period of the moving image for which the analysis result is obtained for the image pickup device 110 of the “camera B” on the timeline 601b corresponding to the image pickup device 110 of the “camera B”. It is drawn at the position corresponding to the image pickup period. Further, in FIG. 6, the generation unit 205 sets the index 602c indicating the imaging period of the moving image for which the analysis result is obtained for the image pickup device 110 of the “cameraC” on the timeline 601c corresponding to the image pickup device 110 of the “cameraC”. It is drawn at the position corresponding to the image pickup period.

また、生成部205は、図6に示すように、解析結果に対応する動画像に対して解析処理が実行されたフレーム間隔に応じて、当該解析結果に対応する動画像の撮像期間を示す指標の表示態様を異ならせる。例えば、生成部205は、“2020/7/30,13:00~14:00”の期間に”cameraA”の撮像装置110に撮像された動画像に対し所定の解析処理が実行されたフレーム間隔に従って、指標602aの表示態様を異ならせる。なお、本実施形態では、生成部205は、例えば、所定の解析処理が実行されたフレーム間隔が大きいほど指標の色を薄くし、当該フレーム間隔が小さいほど指標の色を濃くする。図4に示す設定情報400の例では、“2020/7/30,13:00~14:00”の撮像期間に”cameraA”の撮像装置110に撮像された動画像に対応するフレーム間隔は“3フレーム”である。また設定情報400の例では、“2020/7/30,15:00~17:00”の撮像期間に”cameraA”の撮像装置110に撮像された動画像に対応するフレーム間隔は“1フレーム”である。よって、図6に示すように、生成部205は、タイムライン601a上に、“2020/7/30,13:00~14:00”に対応する指標602aの色を薄く、“2020/7/30,13:00~17:00”に対応する指標603aの色を濃く表示させる。このように生成部205は、或る撮像装置110に撮像された動画像のうち解析結果に対応する動画像の撮像期間を示す指標を表示させるとともに、当該動画像に対する解析処理が実行されたフレーム間隔に応じて当該指標の表示態様を異ならせる。なお、本実施形態において、フレーム間隔に応じて指標(指標602aや指標603aなど)の色の濃淡を変更するようにしたが、これに限らない。例えば、フレーム間隔に応じて指標の色を変更するようにしてもよいし、指標の模様のパターンを変更するようにしてもよい。そして、表示制御部206は、生成部205により生成された表示画面600をディスプレイ130に表示させる。 Further, as shown in FIG. 6, the generation unit 205 is an index indicating the imaging period of the moving image corresponding to the analysis result according to the frame interval in which the analysis processing is executed for the moving image corresponding to the analysis result. The display mode of is different. For example, the generation unit 205 has a frame interval in which a predetermined analysis process is executed on the moving image captured by the image pickup device 110 of the "camera A" during the period of "2020/7/30, 13: 00-14: 00". Therefore, the display mode of the index 602a is changed. In the present embodiment, for example, the generation unit 205 makes the index color lighter as the frame interval in which the predetermined analysis process is executed is larger, and darkens the index color as the frame interval is smaller. In the example of the setting information 400 shown in FIG. 4, the frame interval corresponding to the moving image captured by the image pickup device 110 of the "camera A" during the image pickup period of "2020/7/30, 13: 00-14: 00" is ". 3 frames ". Further, in the example of the setting information 400, the frame interval corresponding to the moving image captured by the image pickup device 110 of the "camera A" during the image pickup period of "2020/7/30, 15:00 to 17:00" is "1 frame". Is. Therefore, as shown in FIG. 6, the generation unit 205 lightens the color of the index 602a corresponding to “2020/7/30, 13: 00-14: 00” on the timeline 601a, and “2020/7 / The color of the index 603a corresponding to "30, 13:00 to 17:00" is displayed darkly. In this way, the generation unit 205 displays an index indicating the imaging period of the moving image corresponding to the analysis result among the moving images captured by a certain imaging device 110, and the frame in which the analysis processing for the moving image is executed. The display mode of the index is changed according to the interval. In the present embodiment, the shade of the color of the index (index 602a, index 603a, etc.) is changed according to the frame interval, but the present invention is not limited to this. For example, the color of the index may be changed according to the frame interval, or the pattern of the pattern of the index may be changed. Then, the display control unit 206 causes the display 130 to display the display screen 600 generated by the generation unit 205.

次に、図7を参照して、本実施形態における情報処理装置100の情報処理について説明する。なお、図7に示す処理を実行することで、画像に対し所定の解析処理を実行するとともに、当該解析処理の結果を記録することができる。なお、図7に示す処理は、例えば、情報処理装置100のROM1320に格納されたコンピュータプログラムを情報処理装置100のCPU1300が実行して実現される図2に示す機能ブロックにより実行されるものとする。 Next, the information processing of the information processing apparatus 100 in the present embodiment will be described with reference to FIG. 7. By executing the process shown in FIG. 7, it is possible to execute a predetermined analysis process on the image and record the result of the analysis process. The process shown in FIG. 7 is executed by, for example, the functional block shown in FIG. 2 realized by executing the computer program stored in the ROM 1320 of the information processing apparatus 100 by the CPU 1300 of the information processing apparatus 100. ..

まず図7に示す情報処理について説明する。まず、S701にて、取得部200は、撮像装置110に撮像された動画像を構成する複数のフレームの画像のうち、1つのフレームの画像を処理対象の画像(以下、処理対象画像)として取得する。なおこのとき、取得部200は、処理対象画像を取得するとともに、当該処理対象画像の撮像日時と、当該処理対象画像を撮像した撮像装置110を識別する識別情報とを取得する。 First, the information processing shown in FIG. 7 will be described. First, in S701, the acquisition unit 200 acquires an image of one frame as an image to be processed (hereinafter referred to as an image to be processed) among the images of a plurality of frames constituting the moving image captured by the image pickup apparatus 110. do. At this time, the acquisition unit 200 acquires the image to be processed, and also acquires the imaging date and time of the image to be processed and the identification information for identifying the image pickup device 110 that has imaged the image to be processed.

次に、S702にて、画像解析部204は、S701で取得した処理対象画像が解析期間に含まれるかを判定する。このとき、画像解析部204は、例えば、図7に示すフローの処理に先立って設定された設定情報400を参照して、次のような処理を実行する。すなわち、画像解析部204は、S701で取得した処理対象画像の撮像日時が、当該処理対象画像を撮像した撮像装置110の識別情報401に対応する解析期間402に含まれているかを判定する。例えば、画像解析部204は、処理対象画像に関連付けられた識別情報が“cameraA”である場合、画像解析部204は、設定情報400を参照し、“cameraA”の解析期間402に、当該処理対象画像の撮像日時が含まれているかを判定する。そして、S701で取得した処理対象画像の撮像日時が設定情報400の解析期間402に含まれていないと判定された場合(S702にてNo)、S701へ遷移し、S701にて、取得部200は、次のフレームの画像を取得する。一方、S701で取得した処理対象画像の撮像日時が設定情報400の解析期間に含まれていると判定された場合(S702にてYes)、S703へ遷移する。なお、現在の処理対象画像の撮像日時を含む解析期間を対象解析期間とする。 Next, in S702, the image analysis unit 204 determines whether the processing target image acquired in S701 is included in the analysis period. At this time, the image analysis unit 204, for example, refers to the setting information 400 set prior to the flow processing shown in FIG. 7, and executes the following processing. That is, the image analysis unit 204 determines whether the imaging date and time of the processing target image acquired in S701 is included in the analysis period 402 corresponding to the identification information 401 of the image pickup apparatus 110 that captured the processing target image. For example, when the image analysis unit 204 refers to the setting information 400 when the identification information associated with the image to be processed is “cameraA”, the image analysis unit 204 refers to the setting information 400 and performs the processing target during the analysis period 402 of “cameraA”. Determine if the image capture date and time is included. Then, when it is determined that the imaging date and time of the image to be processed acquired in S701 is not included in the analysis period 402 of the setting information 400 (No in S702), the transition to S701 is performed, and the acquisition unit 200 in S701 , Get the image of the next frame. On the other hand, when it is determined that the imaging date and time of the image to be processed acquired in S701 is included in the analysis period of the setting information 400 (Yes in S702), the process transitions to S703. The analysis period including the imaging date and time of the current image to be processed is defined as the target analysis period.

そしてS703にて、画像解析部204は、対象解析期間に対応するフレーム間隔に基づき、前回所定の解析処理が実行されたフレームから現在の処理対象画像のフレームまで、当該フレーム間隔だけ経過したかを判定する。ここで“cameraA”の撮像装置110に撮像され、撮像日時503が“2020/7/30/13:00”であり、フレーム番号502が“0”の画像に対し、既に所定の解析処理が実行され、解析結果504が得られている場合を想定する。ここで現在の処理対象画像に対応する識別情報が“cameraA”、処理対象画像のフレーム順序を示すフレーム番号が“3”、処理対象画像の撮像日時が“2020/7/30/13:03”の場合、画像解析部204は、S703にて次のような判定を行う。すなわち画像解析部204は、“cameraA”について、前回所定の解析処理が実行されたフレーム番号“0”の画像からフレーム番号“3”の現在の処理対象画像まで、対象解析期間に対応するフレーム間隔403“3フレーム”だけ経過していると判定する。このとき、S703にてYesとなるため、S704へ遷移する。一方、現在の処理対象画像に対応する識別情報“cameraA”、処理対象画像のフレーム順序を示すフレーム番号“1”、現在の処理対象画像の撮像日時“2020/7/30/13:01”の場合、画像解析部204は、S703にて次のような判定を行う。すなわち、画像解析部204は、前回所定の解析処理が実行されたフレーム番号“0”の画像からフレーム番号“1”の現在の処理対象画像まで、対象解析期間に対応するフレーム間隔“3フレーム”だけ経過していないと判定する。このとき、S703にてNoとなり、S701へ遷移し、S701にて取得部200は、次に処理対象画像とする画像を取得する。なお、現在の処理対処画像が対象解析期間のうち最初に得られた画像である場合はS703にてYesとしてS704へ遷移するものとする。例えば、現在の処理対象に対応する識別情報が“cameraA”、処理対象画像のフレーム順序を示すフレーム番号502が“0”、現在の処理対象画像の撮像日時503が“2020/7/30/13:00”である場合を想定する。このとき、この処理対象画像は、対象解析期間“2020/7/30,13:00~14:00”のうち最初に取得された画像であるため、S704へ遷移するものとする。 Then, in S703, the image analysis unit 204 determines whether or not the frame interval has elapsed from the frame in which the predetermined analysis process was executed last time to the frame of the current process target image, based on the frame interval corresponding to the target analysis period. judge. Here, a predetermined analysis process has already been executed for an image imaged by the image pickup device 110 of "cameraA", the image pickup date and time 503 is "2020/7/30/13: 00", and the frame number 502 is "0". It is assumed that the analysis result 504 is obtained. Here, the identification information corresponding to the current processing target image is "cameraA", the frame number indicating the frame order of the processing target image is "3", and the imaging date and time of the processing target image is "2020/7/30/13: 03". In the case of, the image analysis unit 204 makes the following determination in S703. That is, the image analysis unit 204 has a frame interval corresponding to the target analysis period from the image of the frame number “0” where the predetermined analysis process was executed last time to the current processing target image of the frame number “3” for “cameraA”. 403 It is determined that only "3 frames" have passed. At this time, since it becomes Yes in S703, the transition to S704 is performed. On the other hand, the identification information "cameraA" corresponding to the current processing target image, the frame number "1" indicating the frame order of the processing target image, and the imaging date and time "2020/7/30/13: 01" of the current processing target image. In this case, the image analysis unit 204 makes the following determination in S703. That is, the image analysis unit 204 has a frame interval "3 frames" corresponding to the target analysis period from the image having the frame number "0" on which the predetermined analysis process was executed last time to the current image to be processed having the frame number "1". It is determined that only has not passed. At this time, the result becomes No in S703, the transition to S701 occurs, and in S701, the acquisition unit 200 acquires an image to be processed next. If the current processed image is the first image obtained during the target analysis period, the transition to S704 is assumed to be Yes in S703. For example, the identification information corresponding to the current processing target is "cameraA", the frame number 502 indicating the frame order of the processing target image is "0", and the imaging date and time 503 of the current processing target image is "2020/7/30/13". : 00 ”is assumed. At this time, since the image to be processed is the first image acquired during the target analysis period "2020/7/30, 13:00 to 14:00", it is assumed that the transition to S704 is made.

S704にて、画像解析部204は、現在の処理対象画像に対して所定の解析処理を実行する。本実施形態における画像解析部204は、現在の処理対象画像に対して特定の物体を検出する検出処理を実行し、更に、処理対象画像から検出処理により検出された特定の物体を計数する計数処理を実行する。次に、S705にて、記録部201は、現在の処理対象画像に対する所定の解析処理の解析結果を解析結果情報500に格納して記録する。本実施形態において、所定の解析処理として計数処理を想定している。そのため、記録部201は、処理対象画像に対応する識別情報501と、処理対象画像のフレーム番号502と、処理対象画像の撮像日時503と、処理対象画像に対する解析結果504(計数処理の結果)とを関連付けて、解析結果情報500に格納する。 In S704, the image analysis unit 204 executes a predetermined analysis process on the current image to be processed. The image analysis unit 204 in the present embodiment executes a detection process for detecting a specific object with respect to the current image to be processed, and further, a counting process for counting the specific object detected by the detection process from the image to be processed. To execute. Next, in S705, the recording unit 201 stores and records the analysis result of the predetermined analysis process for the current image to be processed in the analysis result information 500. In the present embodiment, a counting process is assumed as a predetermined analysis process. Therefore, the recording unit 201 includes identification information 501 corresponding to the image to be processed, a frame number 502 of the image to be processed, an imaging date and time 503 of the image to be processed, and an analysis result 504 (result of counting processing) for the image to be processed. Is associated and stored in the analysis result information 500.

S706にて、終了の指示がある場合(S706にてYes)、図7に示すフローの処理を終了する。一方、S706にて、終了の指示がない場合(S706にてNo)、S701へ遷移し、S701にて、取得部200は、次に処理対象画像とする画像を取得する。 When there is an instruction to end in S706 (Yes in S706), the process of the flow shown in FIG. 7 is terminated. On the other hand, if there is no end instruction in S706 (No in S706), the transition to S701 is performed, and in S701, the acquisition unit 200 acquires an image to be processed next.

続いて、図8に示すフローについて説明する。図8に示す処理を実行することで、撮像装置110に撮像された動画像のうち解析結果に対応する動画像の撮像期間を示す指標をディスプレイ130に表示させることができる。なお、図8に示す処理は、例えば、情報処理装置100のROM1320に格納されたコンピュータプログラムを情報処理装置100のCPU1300が実行して実現される図2に示す機能ブロックにより実行されるものとする。 Subsequently, the flow shown in FIG. 8 will be described. By executing the process shown in FIG. 8, the display 130 can display an index indicating the imaging period of the moving image corresponding to the analysis result among the moving images captured by the imaging device 110. The process shown in FIG. 8 is, for example, executed by the functional block shown in FIG. 2 realized by executing the computer program stored in the ROM 1320 of the information processing apparatus 100 by the CPU 1300 of the information processing apparatus 100. ..

まずS801にて、生成部205は、動画像に対して実行された所定の解析処理の解析結果に関する情報を取得する。具体的には、生成部205は、例えば、図5に示す解析結果情報500を取得する。 First, in S801, the generation unit 205 acquires information regarding the analysis result of the predetermined analysis process executed on the moving image. Specifically, the generation unit 205 acquires, for example, the analysis result information 500 shown in FIG.

次に、S802にて、生成部205は、S801で取得した情報に基づき、ディスプレイ130に表示させるための表示画面を生成する。本実施形態における生成部205は、図6に示すように、複数の撮像装置各々について、当該撮像装置110に撮像された動画像のうち解析結果に対応する動画像の撮像期間を示す指標をタイムライン上に表示させた表示画面を生成する。なおこのとき、生成部205は、動画像に対する解析処理が実行されたフレーム間隔に応じて指標の表示態様を異ならせる。 Next, in S802, the generation unit 205 generates a display screen for display on the display 130 based on the information acquired in S801. As shown in FIG. 6, the generation unit 205 in the present embodiment sets as an index indicating the imaging period of the moving image corresponding to the analysis result among the moving images captured by the imaging device 110 for each of the plurality of imaging devices. Generate the display screen displayed on the line. At this time, the generation unit 205 changes the display mode of the index according to the frame interval in which the analysis process for the moving image is executed.

次に、S803にて、表示制御部206は、S802にて生成部205により生成された表示画面をディスプレイ130に表示させる。例えば、表示制御部206は、生成部205により生成された表示画面600をディスプレイ130に表示させる。 Next, in S803, the display control unit 206 causes the display 130 to display the display screen generated by the generation unit 205 in S802. For example, the display control unit 206 causes the display 130 to display the display screen 600 generated by the generation unit 205.

なお、複数の撮像装置110からなるシステムにおいて、複数の撮像装置110各々の同時刻の結果をユーザは比較しつつ確認したい場合が考えられる。そのこで、表示される表示画面上のタイムラインの時間的な表示範囲を変更する際、一つの撮像装置110のタイムラインの表示範囲の変更に合わせて、他の撮像装置110のタイムラインの表示範囲を変更するようにしてもよい。ここで例えば、図9(a)に示すように、表示制御部206は、生成部205により生成された表示画面700aをディスプレイ130に表示させている場合を想定する。また操作受付部205は、“cameraA”の撮像装置110に対応するタイムライン601aの時間的な表示範囲を変更するユーザ操作として、タイムライン601a上でマウス901を右から左の方向902へドラッグする操作を受け付けた場合を想定する。このとき表示制御部206は、方向902へドラッグする操作に従って、タイムライン上の第1表示範囲を、当該第1表示範囲の時間帯よりも後の時間帯に対応する第2表示範囲に変更する。例えば表示制御部206は、方向902へマウス901をドラッグさせる操作に基づき、タイムライン上の第1表示範囲“2020/7/30、13:00~17:00”から第2表示範囲“2020/7/30、16:00~20:00”に変更する。すなわち、”cameraA”~”cameraC”の各々に対応するタイムライン601a~601cの時間的な表示範囲が、“2020/7/30、13:00~17:00”から“2020/7/30、16:00~20:00”に変更される。図9(b)に示す表示画面900bは、ユーザ操作に従って第1表示範囲から第2表示範囲に変更された後において、表示制御部206によりディスプレイ130に表示される表示画面である。このように、表示画面上のタイムラインの時間的な表示範囲を変更する際、一つの撮像装置110のタイムラインの表示範囲の変更に合わせて、他の撮像装置110のタイムラインの表示範囲を変更するようにしてもよい。 In a system composed of a plurality of image pickup devices 110, the user may want to confirm the results of each of the plurality of image pickup devices 110 at the same time while comparing them. Therefore, when changing the temporal display range of the timeline on the displayed display screen, the timeline of the other image pickup apparatus 110 is changed according to the change of the display range of the timeline of the other image pickup apparatus 110. The display range may be changed. Here, for example, as shown in FIG. 9A, it is assumed that the display control unit 206 displays the display screen 700a generated by the generation unit 205 on the display 130. Further, the operation reception unit 205 drags the mouse 901 from the right to the left direction 902 on the timeline 601a as a user operation for changing the temporal display range of the timeline 601a corresponding to the image pickup device 110 of the “cameraA”. It is assumed that the operation is accepted. At this time, the display control unit 206 changes the first display range on the timeline to the second display range corresponding to the time zone after the time zone of the first display range according to the operation of dragging in the direction 902. .. For example, the display control unit 206 has the first display range “2020/7/30, 13: 00-17: 00” on the timeline to the second display range “2020 /” based on the operation of dragging the mouse 901 in the direction 902. Change to "7/30, 16: 00-20: 00". That is, the temporal display range of the timelines 601a to 601c corresponding to each of "cameraA" to "cameraC" is from "2020/7/30, 13:00 to 17:00" to "2020/7/30," It will be changed from 16:00 to 20:00. The display screen 900b shown in FIG. 9B is a display screen displayed on the display 130 by the display control unit 206 after the first display range is changed to the second display range according to a user operation. In this way, when changing the temporal display range of the timeline on the display screen, the display range of the timeline of the other image pickup apparatus 110 is changed according to the change of the display range of the timeline of one image pickup apparatus 110. You may change it.

また、本実施形態における生成部205は、複数の撮像装置110を複数のグループに分け、当該複数のグループ各々について、表示画面を生成するようにしてもよい。例えば図10の例で、生成部205は、第1グループ(グループA)である”cameraA”~”cameraC”の3つの撮像装置110について表示画面1001を生成する。また、生成部205は、第2グループ(グループB)である“cameraD”~”cameraF”の3つの撮像装置110について表示画面1002を生成する。そして、表示制御部206は、第1グループに対応する表示画面1001と、第2グループに対応する表示画面1002とを同時に並べてディスプレイ130に表示させる。なおこのとき、図10に示すように、生成部205は、グループごとに異なる表示範囲でタイムラインが表示されるよう表示画面1001および表示画面1002を生成してもよい。具体的には、生成部205は、第1グループについて“2020/07/30、13:00~17:00”の表示範囲で、“cameraA”~”cameraC”の3つの撮像装置110の各々に対応するタイムラインを含む表示画面1001を生成する。そして、生成部205は、第2グループについて“2020/07/29、18:00~22:00”の表示範囲で、“cameraD”~”cameraF”の3つの撮像装置110の各々に対応するタイムラインを含む表示画面1002を生成する。また表示画面上のタイムラインの時間的な表示範囲を変更する際、一つの撮像装置110のタイムラインの表示範囲の変更に合わせて、当該一つの撮像装置110と同じグループに属する他の撮像装置110のタイムラインの表示範囲を変更するようにしてもよい。例えば、第1グループの“cameraA”のタイムライン上において右から左へマウスをドラッグするユーザ操作が行われた場合、表示制御部206は、第1グループについてのみ、タイムラインの表示範囲を変更するようにしてもよい。すなわち、グループごとに別個に表示範囲の変更を可能とするようにする。 Further, the generation unit 205 in the present embodiment may divide the plurality of image pickup devices 110 into a plurality of groups and generate a display screen for each of the plurality of groups. For example, in the example of FIG. 10, the generation unit 205 generates the display screen 1001 for the three image pickup devices 110 of the first group (group A), "cameraA" to "cameraC". Further, the generation unit 205 generates a display screen 1002 for the three image pickup devices 110 of the second group (group B), “cameraD” to “cameraF”. Then, the display control unit 206 displays the display screen 1001 corresponding to the first group and the display screen 1002 corresponding to the second group side by side on the display 130 at the same time. At this time, as shown in FIG. 10, the generation unit 205 may generate the display screen 1001 and the display screen 1002 so that the timeline is displayed in a different display range for each group. Specifically, the generation unit 205 is attached to each of the three image pickup devices 110 of "cameraA" to "cameraC" in the display range of "2020/07/30, 13:00 to 17:00" for the first group. Generate a display screen 1001 including the corresponding timeline. Then, the generation unit 205 has a time corresponding to each of the three image pickup devices 110 of "cameraD" to "cameraF" in the display range of "2020/07/29, 18:00 to 22:00" for the second group. Generate a display screen 1002 including lines. Further, when changing the temporal display range of the timeline on the display screen, another image pickup device belonging to the same group as the one image pickup device 110 is matched with the change of the timeline display range of one image pickup device 110. The display range of the 110 timeline may be changed. For example, when a user operation of dragging the mouse from right to left is performed on the timeline of "cameraA" of the first group, the display control unit 206 changes the display range of the timeline only for the first group. You may do so. That is, the display range can be changed separately for each group.

また、本実施形態における情報処理装置100は、撮像された動画像のうち解析結果に対応する動画像の撮像期間を示す指標を表示させるとともに、解析処理が実行されたフレーム間隔に応じて当該指標の表示態様を異ならせたが、これに限らない。例えば、情報処理装置100は、撮像された動画像のうち解析結果に対応する動画像の撮像期間を示す指標を表示させるとともに、当該動画像に対する解析処理の結果に応じて当該指標の表示態様を異ならせてもよい。例えば、所定の解析処理として、画像に含まれる特定物体の数の計数処理が実行される場合を想定する。このとき生成部205は、例えば、図6の例では、”cameraA”に対応するタイムライン601上に指標602aを描画するとともに、当該指標が示す期間“2020/7/30,13:00~14:00”における計数結果に応じて表示態様を異ならせる。具体的には、“2020/7/30,13:00~14:00”における計数結果の変化に応じて指標602aの色を異ならせてもよい。例えば、“2020/7/30,13:00~13:30”における計数結果の平均が“100”であり、2020/7/30,13:30~13:40”における計数結果の平均が“30”である場合を想定する。このとき、指標602aにおいて、“2020/7/30,13:00~13:30”に対応する部分の色を濃く表示させ、2020/7/30,13:30~13:40”における計数結果の部分の色を薄く表示させるようにしてもよい。このようにすることで、タイムライン上で計数処理の結果をユーザは容易に把握することが可能となる。 Further, the information processing apparatus 100 in the present embodiment displays an index indicating the imaging period of the moving image corresponding to the analysis result among the captured moving images, and the index is determined according to the frame interval in which the analysis processing is executed. However, the display mode is different, but the display mode is not limited to this. For example, the information processing apparatus 100 displays an index indicating the imaging period of the moving image corresponding to the analysis result among the captured moving images, and displays the index according to the result of the analysis processing for the moving image. It may be different. For example, it is assumed that a counting process for the number of specific objects included in an image is executed as a predetermined analysis process. At this time, for example, in the example of FIG. 6, the generation unit 205 draws the index 602a on the timeline 601 corresponding to “cameraA” and the period “2020/7/30, 13: 00-14” indicated by the index. The display mode is changed according to the counting result at ": 00". Specifically, the color of the index 602a may be changed according to the change in the counting result in "2020/7/30, 13: 00-14: 00". For example, the average of the counting results in "2020/7/30, 13: 00-13: 30" is "100", and the average of the counting results in "2020/7/30, 13: 30-13: 40" is ". It is assumed that the value is "30". At this time, in the index 602a, the color of the portion corresponding to "2020/7/30, 13: 00-13: 30" is displayed darkly, and 2020/7/30, 13: The color of the counting result portion at "30 to 13:40" may be displayed lightly. By doing so, the user can easily grasp the result of the counting process on the timeline.

以上説明したように、本実施形態における情報処理装置100は、撮像装置110に撮像された動画像のうち解析結果に対応する動画像の撮像期間を示す指標をディスプレイ130に表示させる。またこのとき、情報処理装置100は、当該動画像に対し所定の解析処理が実行されるフレーム間隔に従って、当該指標の表示態様を異ならせる。このようにすることで、解析処理が実行された撮像期間を把握できるとともに、解析処理が実行された画像のフレーム間隔をユーザは容易に把握することが可能となる。 As described above, the information processing apparatus 100 in the present embodiment causes the display 130 to display an index indicating the imaging period of the moving image corresponding to the analysis result among the moving images captured by the imaging device 110. At this time, the information processing apparatus 100 changes the display mode of the index according to the frame interval in which the predetermined analysis process is executed for the moving image. By doing so, it is possible to grasp the imaging period in which the analysis process is executed, and it is possible for the user to easily grasp the frame interval of the image in which the analysis process is executed.

(実施形態2)
撮像装置110によりリアルタイムで撮像された動画像に対してリアルタイムで所定の解析処理が実行されるような場合において次のようなことが考えられる。すなわち、撮像装置110の数が多いと、解析処理が実行される動画像のデータ量が増えるため、処理負荷を低減させるために、所定の解析処理が実行されるフレーム間隔を大きくすることがある。一方、撮像装置110の数が少ないと、改正処理が実行される動画像のデータ量が減少するため、所定の解析処理が事項されるフレーム間隔を小さくすることができる。このように、解析処理が実行される状況に応じて、時間帯によっては解析処理が実行されるフレーム間隔が異なる場合がある。このとき後からより十分な解析結果を得るために、フレーム間隔が大きく解析処理が十分に行われていない時間帯に対して再度解析処理を実行したいというユースケースが考えられる。そこで本実施形態における情報処理装置100は、生成された表示画面が表示されている状態で、解析処理を再実行する対象となる時間範囲を指定する操作に基づき、指定された時間範囲に対応する動画像に対して所定の解析処理を再実行する。なお、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
(Embodiment 2)
The following can be considered when a predetermined analysis process is executed in real time on a moving image captured in real time by the image pickup apparatus 110. That is, if the number of image pickup devices 110 is large, the amount of data of the moving image in which the analysis process is executed increases, so that the frame interval in which the predetermined analysis process is executed may be increased in order to reduce the processing load. .. On the other hand, if the number of image pickup devices 110 is small, the amount of data of the moving image on which the revision processing is executed decreases, so that the frame interval in which the predetermined analysis processing is performed can be reduced. As described above, the frame interval in which the analysis process is executed may differ depending on the time zone depending on the situation in which the analysis process is executed. At this time, in order to obtain more sufficient analysis results later, there may be a use case in which the analysis process is to be executed again in a time zone in which the frame interval is large and the analysis process is not sufficiently performed. Therefore, the information processing apparatus 100 in the present embodiment corresponds to the designated time range based on the operation of designating the time range for which the analysis process is to be re-executed while the generated display screen is displayed. The predetermined analysis process is re-executed for the moving image. The parts different from those of the first embodiment will be mainly described, and the same components and the same reference numerals are given to the components and the processes which are the same as or the same as those of the first embodiment, and the duplicated description will be omitted.

図11は、本実施形態における情報処理装置100による情報処理を説明するための図である。ここで“cameraA”~”cameraC”の3つの撮像装置110の各々に対応するタイムライン1101a~1101cを含む表示画面1100aが表示させている状況において、操作受付部202は、次のようなユーザ操作を受け付けた場合を想定する。すなわち、操作受付部202は、図11(a)に示すようにマウス1102を左上から右下へ方向1103にドラッグさせ、タイムライン1101b上において時間範囲1104を指定するユーザ操作を受け付ける。このとき、生成部205は、マウス1102のドラッグ操作の始点および終点の各々を頂点とする時間範囲1104を表示画面1100a上に描画し、表示制御部205は、時間範囲1104が描画された表示画面1100aをディスプレイ130に表示させる。また更に、操作受付部202は、時間範囲1104に対応する動画像に対し所定の解析処理が実行されるフレーム間隔を変更するユーザ操作を受け付ける。例えば、表示制御部205は、時間範囲1104が指定された場合、当該時間範囲1104に対する現在のフレーム間隔の数値の情報をディスプレイ130に表示させる。このとき、表示されたフレーム間隔の数値を変更するユーザ操作を操作受付部202が受け付けた場合、設定部203は、時間範囲1104に対するフレーム間隔を変更後の数値に更新する。ここで例えば、タイムライン1101b上の時間範囲1104が示す“2020/7/25、18:00~19:00”の動画像に対する現在のフレーム間隔が“10フレーム”、更新された後のフレーム間隔が“3フレーム”である場合を想定する。このとき、画像解析部204は、“2020/7/25、18:00~19:00”において“cameraB”に撮像された動画像に対し実行される所定の解析処理がフレーム間隔“3フレーム”となるよう、当該動画像に対し所定の解析処理を再実行する。例えば、画像解析部204は、“2020/7/25、18:00~19:00”において“cameraB”に撮像された動画像に対して“3フレーム”ごとに所定の解析処理を実行する。このとき例えば、記録部201は、“2020/7/25、18:00~19:00”において“cameraB”に撮像された動画像に対して前回“10フレーム”ごとに実行された解析処理の結果を解析結果情報500から削除する。そして、記録部201は、当該動画像に対して新たに実行された“3フレーム”ごとの解析処理の結果を解析結果情報500に蓄積する。時間範囲1104の撮像期間に撮像された動画像に対して更新後のフレーム間隔に従って新たに実行された解析処理の解析結果が得られたのち、生成部205は、ディスプレイ130に表示される表示画面の更新を行う。すなわち、生成部205は、撮像範囲1104が示す”cameraB”の“2020/7/25、18:00~19:00”の期間に対応する指標の表示態様を変更する。図11(b)に示す表示画面1100bは、“cameraB”の“2020/7/25、18:00~19:00”の期間に対するフレーム間隔が“10フレーム”から“3フレーム”に更新されたことに応じて、生成部205により更新された画面である。このように、本実施形態における情報処理装置100は、解析結果が得られた期間を示す指標が描画されたタイムラインを含む表示画面を表示させるとともに、当該タイムライン上で指定された時間範囲に対応するフレーム間隔を更新するユーザ操作を受け付ける。そして、情報処理装置100は、更新されたフレーム間隔に従って再度解析処理を実行する。このようにすることで、他の時間帯と比べてフレーム間隔が大きい時間帯を容易に特定可能にするとともに、当該時間帯に対しする解析処理のフレーム間隔が小さくなるよう再度解析処理を実行させる指示を容易にすることができる。 FIG. 11 is a diagram for explaining information processing by the information processing apparatus 100 in the present embodiment. Here, in a situation where the display screen 1100a including the timelines 1101a to 1101c corresponding to each of the three image pickup devices 110 of "cameraA" to "cameraC" is displayed, the operation reception unit 202 performs the following user operation. Is assumed. That is, the operation receiving unit 202 drags the mouse 1102 from the upper left to the lower right in the direction 1103 as shown in FIG. 11A, and receives a user operation for designating the time range 1104 on the timeline 1101b. At this time, the generation unit 205 draws a time range 1104 whose vertices are each of the start point and the end point of the drag operation of the mouse 1102 on the display screen 1100a, and the display control unit 205 draws the time range 1104 on the display screen. The 1100a is displayed on the display 130. Furthermore, the operation receiving unit 202 accepts a user operation for changing the frame interval in which a predetermined analysis process is executed for the moving image corresponding to the time range 1104. For example, when the time range 1104 is specified, the display control unit 205 causes the display 130 to display numerical information of the current frame interval with respect to the time range 1104. At this time, when the operation reception unit 202 accepts the user operation for changing the displayed frame interval value, the setting unit 203 updates the frame interval with respect to the time range 1104 to the changed value. Here, for example, the current frame interval for the moving image of "2020/7/25, 18:00 to 19:00" indicated by the time range 1104 on the timeline 1101b is "10 frames", and the frame interval after the update is updated. Is assumed to be "3 frames". At this time, the image analysis unit 204 performs a predetermined analysis process executed on the moving image captured by the “camera B” at “2020/7/25, 18:00 to 19:00” at a frame interval of “3 frames”. The predetermined analysis process is re-executed for the moving image so as to be. For example, the image analysis unit 204 executes a predetermined analysis process every “3 frames” for the moving image captured by the “camera B” at “2020/7/25, 18:00 to 19:00”. At this time, for example, the recording unit 201 performs analysis processing performed every "10 frames" last time on the moving image captured by "cameraB" at "2020/7/25, 18:00 to 19:00". The result is deleted from the analysis result information 500. Then, the recording unit 201 stores the result of the analysis processing for each "3 frames" newly executed for the moving image in the analysis result information 500. After obtaining the analysis result of the analysis process newly executed according to the updated frame interval for the moving image captured in the imaging period of the time range 1104, the generation unit 205 displays the display screen on the display 130. Update. That is, the generation unit 205 changes the display mode of the index corresponding to the period of "2020/7/25, 18:00 to 19:00" of "cameraB" indicated by the imaging range 1104. In the display screen 1100b shown in FIG. 11B, the frame interval for the period of "2020/7/25, 18: 00-19: 00" of "cameraB" has been updated from "10 frames" to "3 frames". It is a screen updated by the generation unit 205 accordingly. As described above, the information processing apparatus 100 in the present embodiment displays a display screen including a timeline on which an index indicating the period in which the analysis result is obtained is drawn, and at the same time, within the time range designated on the timeline. Accepts user operations to update the corresponding frame interval. Then, the information processing apparatus 100 executes the analysis process again according to the updated frame interval. By doing so, it is possible to easily identify a time zone in which the frame interval is larger than in other time zones, and the analysis process is executed again so that the frame interval of the analysis process for the time zone becomes smaller. Instructions can be facilitated.

(実施形態3)
タイムラインの時間的な表示範囲が時間的に広い場合、他の時間帯に対応するフレーム間隔と比べて逸脱したフレーム間隔の時間帯をユーザが見つけることが困難なことがある。そこで本実施形態における情報処理装置100は、タイムライン表示を行う際、連続して解析結果を持つ範囲内において周囲の解析結果と比べて極端に解析間隔が長くなってしまっている箇所があった場合、その場所にマーカーを配置することができる。なお、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
(Embodiment 3)
If the timeline has a wide temporal display range, it may be difficult for the user to find a time zone with a frame interval that deviates from the frame interval corresponding to other time zones. Therefore, in the information processing apparatus 100 of the present embodiment, when displaying the timeline, there is a place where the analysis interval is extremely long as compared with the surrounding analysis results within the range where the analysis results are continuously obtained. If so, you can place a marker at that location. The parts different from those of the first embodiment will be mainly described, and the same components and the same reference numerals are given to the components and the processes which are the same as or the same as those of the first embodiment, and the duplicated description will be omitted.

図12に示す表示画面1200は、本実施形態における生成部205により生成され、表示制御部206により表示される表示画面の一例である。表示画面1200には解析結果の有無を示すタイムライン1201と、所定の位置に周辺の時間帯の解析結果よりもフレーム間隔が長い解析結果を含むことを示すマーカー1203が含まれている。また表示画面1200には、表示させる時間的な範囲を示す時間範囲1204、時間範囲1204を拡大して表示するタイムライン1202が含まれている。なお、本実施形態における表制御部206は、マーカー1203をマウス(不図示)で指定するユーザ操作に応じて、タイムライン1202を表示させるようにしてもよい。なお、周囲の解析結果よりもフレーム間隔が長くなってしまっている箇所にマーカーを表示するとしたが、マーカーを表示する条件はこれに限定されない。例えば、1秒に10枚のフレームに対し解析処理を行うなどのフレーム間隔を指定して画像解析を行わせた際に、1秒に1枚しか解析が行えなかった箇所などの、設定と実際の動作とに差が発生した箇所にマーカー1203を表示しても良い。以上のように本実施形態における情報処理装置100によれば、タイムライン上の周囲の解析結果と差がある箇所にマーカーを表示することで、ユーザーは解析における想定外の動作を容易に把握することが可能になる。 The display screen 1200 shown in FIG. 12 is an example of a display screen generated by the generation unit 205 in the present embodiment and displayed by the display control unit 206. The display screen 1200 includes a timeline 1201 indicating the presence or absence of the analysis result, and a marker 1203 indicating that the predetermined position includes the analysis result having a longer frame interval than the analysis result of the surrounding time zone. Further, the display screen 1200 includes a time range 1204 showing a time range to be displayed, and a timeline 1202 that enlarges and displays the time range 1204. The table control unit 206 in the present embodiment may display the timeline 1202 in response to a user operation in which the marker 1203 is designated by a mouse (not shown). It should be noted that the marker is displayed at a place where the frame interval is longer than the surrounding analysis result, but the condition for displaying the marker is not limited to this. For example, when performing image analysis by specifying a frame interval such as performing analysis processing on 10 frames per second, settings and actual settings such as where only one image could be analyzed per second. The marker 1203 may be displayed at a place where a difference occurs from the operation of. As described above, according to the information processing apparatus 100 in the present embodiment, the user can easily grasp the unexpected operation in the analysis by displaying the marker at the place where there is a difference from the surrounding analysis result on the timeline. Will be possible.

(その他の実施形態)
次に図13を参照して、各実施形態の各機能を実現するための情報処理装置100のハードウェア構成を説明する。なお、以降の説明において情報処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。
(Other embodiments)
Next, with reference to FIG. 13, the hardware configuration of the information processing apparatus 100 for realizing each function of each embodiment will be described. Although the hardware configuration of the information processing device 100 will be described in the following description, it is assumed that the recording device 120 and the image pickup device 110 are also realized by the same hardware configuration.

本実施形態における情報処理装置100は、CPU1300と、RAM1310と、ROM1320、HDD1330と、I/F1340と、を有している。 The information processing apparatus 100 in the present embodiment includes a CPU 1300, a RAM 1310, a ROM 1320, an HDD 1330, and an I / F 1340.

CPU1300は情報処理装置100を統括制御する中央処理装置である。RAM1310は、CPU1300が実行するコンピュータプログラムを一時的に記憶する。また、RAM1310は、CPU1300が処理を実行する際に用いるワークエリアを提供する。また、RAM1310は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。 The CPU 1300 is a central processing unit that controls the information processing device 100 in an integrated manner. The RAM 1310 temporarily stores a computer program executed by the CPU 1300. The RAM 1310 also provides a work area used by the CPU 1300 to execute processing. Further, the RAM 1310 functions as, for example, a frame memory or a buffer memory.

ROM1320は、CPU1300が情報処理装置100を制御するためのプログラムなどを記憶する。HDD1330は、画像データ等を記録する記憶装置である。 The ROM 1320 stores a program or the like for the CPU 1300 to control the information processing apparatus 100. The HDD 1330 is a storage device for recording image data and the like.

I/F1310は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。 The I / F 1310 communicates with an external device via the network 140 according to TCP / IP, HTTP, or the like.

なお、上述した各実施形態の説明では、CPU1300が処理を実行する例について説明するが、CPU1300の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM1320からプログラムコードを読み出してRAM1310に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。 In the description of each of the above-described embodiments, an example in which the CPU 1300 executes the processing will be described, but at least a part of the processing of the CPU 1300 may be performed by dedicated hardware. For example, the process of displaying a GUI (GRAPHICAL USER INTERDEFACE) or image data on the display 130 may be executed by a GPU (GRAPHICS PROCESSING UNIT). Further, the process of reading the program code from the ROM 1320 and expanding it to the RAM 1310 may be executed by a DMA (Direct Memory Access) that functions as a transfer device.

なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、情報処理装置100の各部は、図13に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。 The present invention can also be realized by a process in which one or more processors read and execute a program that realizes one or more functions of the above-described embodiment. The program may be supplied to a system or device having a processor via a network or storage medium. The present invention can also be realized by a circuit (for example, an ASIC) that realizes one or more functions of the above-described embodiment. Further, each part of the information processing apparatus 100 may be realized by the hardware shown in FIG. 13 or by software.

なお、上述した各実施形態に係る情報処理装置100の1以上の機能を他の装置が有していてもよい。例えば、各実施形態に係る情報処理装置100の1以上の機能を撮像装置110が有していてもよい。なお、上述した各実施形態を組み合わせて、例えば、上述した実施形態を任意に組み合わせて実施してもよい。 In addition, another device may have one or more functions of the information processing device 100 according to each of the above-described embodiments. For example, the image pickup apparatus 110 may have one or more functions of the information processing apparatus 100 according to each embodiment. It should be noted that each of the above-described embodiments may be combined, and for example, the above-mentioned embodiments may be arbitrarily combined.

以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。 Although the present invention has been described above with the embodiments, the above embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention is limitedly interpreted by these. It's not a thing. That is, the present invention can be implemented in various forms within a range that does not deviate from the technical idea or its main features. For example, a combination of the respective embodiments is also included in the disclosure contents of the present specification.

100 情報処理装置
200 取得部
201 記録部
202 操作受付部
203 設定部
204 画像解析部
205 生成部
206 表示制御部
100 Information processing device 200 Acquisition unit 201 Recording unit 202 Operation reception unit 203 Setting unit 204 Image analysis unit 205 Generation unit 206 Display control unit

Claims (10)

撮像手段に撮像された動画像に対して所定の解析処理が実行されるフレーム間隔を設定する設定手段と、
前記設定手段により設定されたフレーム間隔に従って前記動画像に対して実行された所定の解析処理の解析結果を取得する取得手段と、
前記撮像手段に撮像された動画像のうち前記解析結果に対応する前記動画像の撮像期間を示す指標を表示手段に表示させる表示制御手段と、
前記表示制御手段は、前記解析結果に対応する前記動画像に対して前記所定の解析処理が実行された前記フレーム間隔に応じて、前記指標の表示態様を異ならせることを特徴とする情報処理装置。
A setting means for setting a frame interval in which a predetermined analysis process is executed for a moving image captured by the imaging means, and a setting means.
An acquisition means for acquiring the analysis result of a predetermined analysis process executed on the moving image according to a frame interval set by the setting means, and an acquisition means.
A display control means for causing the display means to display an index indicating the imaging period of the moving image corresponding to the analysis result among the moving images captured by the imaging means.
The display control means is an information processing apparatus characterized in that the display mode of the index is changed according to the frame interval in which the predetermined analysis process is executed on the moving image corresponding to the analysis result. ..
前記表示制御手段は、
前記解析結果に対応する前記動画像に対して前記所定の解析処理が実行された前記フレーム間隔が第1フレーム間隔である場合、前記指標を第1表示態様で表示させ、
前記フレーム間隔が第1フレーム間隔と異なる第2フレーム間隔である場合、前記指標を前記第1表示態様と異なる第2表示態様で表示させることを特徴とする請求項1に記載の情報処理装置。
The display control means is
When the frame interval in which the predetermined analysis process is executed for the moving image corresponding to the analysis result is the first frame interval, the index is displayed in the first display mode.
The information processing apparatus according to claim 1, wherein when the frame interval is a second frame interval different from the first frame interval, the index is displayed in a second display mode different from the first display mode.
前記表示制御手段は、時間軸に対応する図形であるタイムラインにおいて、前記解析結果に対応する前記動画像の前記撮像期間に対応させて、前記撮像期間を示す指標を表示させ、
前記表示制御手段は、
前記解析結果に対応する前記動画像に対して前記所定の解析処理が実行された前記フレーム間隔が前記第1フレーム間隔である場合、前記第1表示態様の前記指標を前記タイムライン上に表示させ、
前記解析結果に対応する前記動画像に対して前記所定の解析処理が実行された前記フレーム間隔が前記第2フレーム間隔である場合、前記第2表示態様の前記指標を前記タイムライン上に表示させることを特徴とする請求項2に記載の情報処理装置。
The display control means displays an index indicating the imaging period in a timeline, which is a figure corresponding to the time axis, in correspondence with the imaging period of the moving image corresponding to the analysis result.
The display control means is
When the frame interval in which the predetermined analysis process is executed for the moving image corresponding to the analysis result is the first frame interval, the index of the first display mode is displayed on the timeline. ,
When the frame interval in which the predetermined analysis process is executed for the moving image corresponding to the analysis result is the second frame interval, the index of the second display mode is displayed on the timeline. The information processing apparatus according to claim 2.
前記第1表示態様の前記指標は、前記タイムライン上において、前記第1フレーム間隔に基づく間隔でラインが並べて描画された図であり、
前記第2表示態様の前記指標は、前記タイムライン上において、前記第2フレーム間隔に基づく間隔でラインが並べて描画された図であることを特徴とする請求項3に記載の情報処理装置。
The index of the first display mode is a diagram in which lines are drawn side by side at intervals based on the first frame interval on the timeline.
The information processing apparatus according to claim 3, wherein the index of the second display aspect is a diagram in which lines are drawn side by side at intervals based on the second frame interval on the timeline.
前記第1表示態様の前記指標は、第1の色のマークであり、
前記第2表示態様の前記指標は、前記第1の色と異なる第2の色のマークであることを特徴とする請求項2または3に記載の情報処理装置。
The index of the first display aspect is a mark of the first color, and is
The information processing apparatus according to claim 2 or 3, wherein the index of the second display aspect is a mark of a second color different from the first color.
前記所定の解析処理は、前記動画像に含まれる画像における特定の物体を検出する処理に関することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, wherein the predetermined analysis process relates to a process of detecting a specific object in an image included in the moving image. 前記解析結果に対応する前記動画像の撮像期間は、前記撮像手段に撮像された動画像のうち、前記特定の物体が検出されていた前記動画像の期間であることを特徴とする請求項6に記載の情報処理装置。 6. The image pickup period of the moving image corresponding to the analysis result is the period of the moving image in which the specific object is detected among the moving images captured by the imaging means. The information processing device described in. 前記特定の物体は人物であることを特徴とする請求項6または7に記載の情報処理装置。 The information processing apparatus according to claim 6 or 7, wherein the specific object is a person. 撮像手段に撮像された動画像に対して所定の解析処理が実行されるフレーム間隔を設定する設定工程と、
前記設定工程において設定されたフレーム間隔に従って前記動画像に対して実行された所定の解析処理の解析結果を取得する取得工程と、
前記撮像手段に撮像された動画像のうち前記解析結果に対応する前記動画像の撮像期間を示す指標を表示手段に表示させる表示制御工程とを有し、
前記表示制御工程において、前記解析結果に対応する前記動画像に対して前記所定の解析処理が実行された前記フレーム間隔に応じて、前記指標の表示態様を異ならせることを特徴とする情報処理方法。
A setting process for setting a frame interval in which a predetermined analysis process is executed for a moving image captured by an imaging means, and a setting step.
An acquisition step of acquiring the analysis result of a predetermined analysis process executed on the moving image according to the frame interval set in the setting step, and an acquisition step.
It has a display control step of displaying an index indicating an imaging period of the moving image corresponding to the analysis result among the moving images captured by the imaging means on the display means.
In the display control step, an information processing method characterized in that the display mode of the index is changed according to the frame interval in which the predetermined analysis process is executed on the moving image corresponding to the analysis result. ..
コンピュータを、請求項1乃至8のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the information processing apparatus according to any one of claims 1 to 8.
JP2020142845A 2020-08-26 2020-08-26 Information processing device, information processing method, and program Pending JP2022038374A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020142845A JP2022038374A (en) 2020-08-26 2020-08-26 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020142845A JP2022038374A (en) 2020-08-26 2020-08-26 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2022038374A true JP2022038374A (en) 2022-03-10

Family

ID=80497891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020142845A Pending JP2022038374A (en) 2020-08-26 2020-08-26 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2022038374A (en)

Similar Documents

Publication Publication Date Title
JP4539048B2 (en) Moving image display system and program
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
US10235574B2 (en) Image-capturing device, recording device, and video output control device
CN104811660A (en) Control apparatus and control method
JP2009211274A (en) Image processing apparatus, image processing method, program and storage medium
JP6914007B2 (en) Information processing device and information processing method
US10257436B1 (en) Method for using deep learning for facilitating real-time view switching and video editing on computing devices
JP2023072003A (en) Information processing system, information processing method and program
JP2020102012A (en) Image processing system, image processing method and program
JP2019200715A (en) Image processing apparatus, image processing method, and program
CN109271929B (en) Detection method and device
JP6758834B2 (en) Display device, display method and program
CN112752158A (en) Video display method and device, electronic equipment and storage medium
JP6602067B2 (en) Display control apparatus, display control method, and program
CN110709857A (en) Apparatus, method and program for managing number of people
US11363241B2 (en) Surveillance apparatus, surveillance method, and storage medium
JP6948787B2 (en) Information processing equipment, methods and programs
US20230215464A1 (en) Management of video playback speed based on objects of interest in the video data
JP2022038374A (en) Information processing device, information processing method, and program
US20220036093A1 (en) Information processing apparatus, information processing method, and storage medium
JP2017207972A (en) Image processing device, image processing method, and program
KR20140066560A (en) Method and apparatus for setting object area for use in video monitoring device
WO2023223704A1 (en) Information processing device, information processing method, and program
JP2022011926A (en) Information processing device, information processing method, and program
JP2022068793A (en) Information processing apparatus, information processing method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200918