WO2014091667A1 - 解析制御システム - Google Patents

解析制御システム Download PDF

Info

Publication number
WO2014091667A1
WO2014091667A1 PCT/JP2013/006533 JP2013006533W WO2014091667A1 WO 2014091667 A1 WO2014091667 A1 WO 2014091667A1 JP 2013006533 W JP2013006533 W JP 2013006533W WO 2014091667 A1 WO2014091667 A1 WO 2014091667A1
Authority
WO
WIPO (PCT)
Prior art keywords
analysis
priority
engine
analysis processing
processing
Prior art date
Application number
PCT/JP2013/006533
Other languages
English (en)
French (fr)
Inventor
小山 和也
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US14/648,936 priority Critical patent/US10229327B2/en
Priority to JP2014551843A priority patent/JPWO2014091667A1/ja
Publication of WO2014091667A1 publication Critical patent/WO2014091667A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Definitions

  • the present invention relates to an analysis control system, and more particularly to an analysis control system that controls an analysis operation by an analysis engine that executes an analysis process on data to be analyzed.
  • analysis engines that analyze various data have been developed. For example, a person with a specific outfit is extracted from moving image data, a person with a specific face is extracted from moving image data, position information for tracing a human flow line is generated from moving image data, text data from voice data Various analysis engines have been developed.
  • an analysis system that can obtain various analysis processing results from input data by combining multiple analysis engines of the same or different types has been developed.
  • analysis processing such as processing moving image data input from a camera in parallel or in series using a flow line extraction engine, a face extraction engine, an age discrimination engine, etc., and determining a person with a predetermined behavior.
  • an analysis system such as determining a person from moving image data captured by such a camera, it is required to obtain an analysis processing result quickly and preferably in real time without delay from the input of analysis target data. .
  • the analysis target data is continuously input data such as moving image data or audio data and has a relatively large capacity
  • the load of analysis processing performed by the analysis engine increases, and the analysis processing result can be quickly obtained. It becomes difficult to obtain.
  • the analysis target data volume is reduced in advance, such as by setting the frame rate of moving image data low, there arises a problem that an analysis result with desired analysis accuracy cannot be obtained.
  • Patent Document 1 discloses a technique for changing a pixel to be analyzed in accordance with an intrusion state of an object with respect to a range monitored by a camera.
  • this technique is effective when a desired analysis result can be obtained even if the analysis processing area is limited, but it cannot cope with other cases. Therefore, there arises a problem that a desired analysis result cannot be obtained quickly.
  • an object of the present invention is to provide an analysis control system that can solve the problem that a desired analysis result cannot be obtained quickly from analysis target data.
  • An analysis control system is An engine control unit that controls analysis processing operations of a plurality of analysis engines that perform analysis processing on analysis target data; An analysis processing condition receiving unit that receives an input of an analysis processing condition for the analysis target data; A priority setting unit that sets the priority of the analysis engine that performs analysis processing on the analysis target data based on the analysis processing conditions; The engine control unit controls an analysis processing operation of the analysis engine according to the priority set by the priority setting unit.
  • the configuration is as follows.
  • An information processing apparatus An analysis processing condition reception unit that receives input of analysis processing conditions for analysis target data by the analysis engine; A priority determining unit that determines a priority of an analysis engine that performs an analysis process on the analysis target data based on the analysis processing condition; The priority is set in an analysis processing apparatus including an engine control unit that controls the analysis processing operations of the plurality of analysis engines so that the engine control unit controls the analysis processing operation of the analysis engine according to the priority.
  • a priority setting unit It has the configuration of comprising.
  • the program which is the other form of this invention is: In the information processing device, An analysis processing condition reception unit that receives input of analysis processing conditions for analysis target data by the analysis engine; A priority determining unit that determines a priority of an analysis engine that performs an analysis process on the analysis target data based on the analysis processing condition; The priority is set in an analysis processing apparatus including an engine control unit that controls the analysis processing operations of the plurality of analysis engines so that the engine control unit controls the analysis processing operation of the analysis engine according to the priority.
  • a priority setting unit It is a program for realizing.
  • the analysis control method includes: Accepts input of analysis processing conditions for analysis target data by analysis engine, Based on the analysis processing conditions, set the priority of the analysis engine that performs the analysis processing on the analysis target data, Control analysis processing operations of a plurality of the analysis engines according to the priority.
  • the configuration is as follows.
  • the present invention can provide an analysis control system that can quickly obtain a desired analysis result from analysis target data by being configured as described above.
  • the analysis system includes a video analysis apparatus 20 including a plurality of analysis engines that execute analysis processing on video data that is analysis target data, and analysis conditions for setting the priority of the analysis engines. And a setting device 10.
  • a case where the analysis target data is video data will be described as an example, but the analysis target data is not necessarily limited to video data.
  • the analysis target data may be other data that is continuously input, such as voice data.
  • FIGS. 1 to 5 are diagrams for explaining the configuration of the analysis system in the present embodiment
  • FIGS. 6 to 7 are diagrams for explaining the operation of the analysis system.
  • the analysis system in this embodiment includes an analysis condition setting device 10 and a video analysis device 20.
  • the analysis system is not necessarily limited to the two information processing devices such as the analysis condition setting device 10 and the video analysis device 20, and is configured by one or three or more information processing devices. Also good.
  • the video analysis device 20 has a function of receiving analysis target data that is continuously input and sequentially executing analysis processing on the analysis target data.
  • the video analysis device 20 acquires video data at a certain location and performs analysis processing for monitoring the location displayed in the video data.
  • the video analysis apparatus 20 is connected to cameras A and B (data acquisition apparatuses) that acquire video data that is analysis target data, and captures video data captured by the cameras A and B, respectively.
  • the camera A is installed in “A station No. 1 home” and is a camera for photographing the home in a wide range.
  • the camera B is installed at a “B ticket gate of B station” connected by a predetermined route from the A station, and is a camera for taking an up image of the face of a person passing through the ticket gate.
  • the video analysis apparatus 20 includes analysis units 21 and 22 (camera A analysis unit 21 and camera B analysis unit 22) that execute analysis processing on video data captured by the cameras A and B, respectively.
  • Each of the analysis units 21 and 22 includes a plurality of analysis engines for performing various analysis processes on the video data.
  • the analysis unit 21 for the camera A first includes a face analysis unit 31 (analysis engine) that performs face collation with the face data registered in the face BL management unit 32 in advance for the video data.
  • the camera A analyzing unit 21 includes a clothing analyzing unit 33 (analysis engine) that performs clothes matching with the clothing data registered in the clothing BL managing unit 34 in advance for the video data.
  • the camera A analysis unit 21 includes a behavior analysis unit 35 (analysis engine) that tracks a person's flow line with respect to video data.
  • the camera B analysis unit 22 performs various analysis processes on video data captured by the camera B.
  • the face analysis unit 41 and the face BL management unit 42, the clothes analysis unit 43 and the clothes BL management unit 44, behavior analysis A portion 45 is provided.
  • the video analysis apparatus 20 includes an analysis priority management unit 23 and an analysis execution control unit 24.
  • the analysis priority management unit 23 has a function of setting various priorities determined by the analysis condition setting device 10 as will be described later. For example, the analysis priority management unit 23 prioritizes the analysis engine such as which analysis engine is to be prioritized and which camera is used to perform the analysis processing with priority. Further, the priority of the collation data, such as which collation data is to be preferentially collated when collation is performed by the analysis engine, is set.
  • the analysis execution control unit 24 controls analysis processing by each analysis engine according to the set priority. At this time, the analysis execution control unit 24 performs an analysis process with a higher priority on video data acquired by a camera with a higher priority set, and another analysis engine with respect to other video data. Executes in preference to the analysis processing by. Further, in the analysis process by the analysis engine, the collation process for the collation data for which a higher priority is set is executed in preference to the collation process for the other collation data. And the analysis execution control part 24 performs the analysis process by the analysis engine by which the high priority was set at least, and does not necessarily need to perform the analysis process by the analysis engine with a low priority.
  • the camera A analysis unit 21, the camera B analysis unit 22, the analysis priority management unit 23, and the analysis execution control unit 24 included in the video analysis device 20 described above are included in the arithmetic device provided in the video analysis device 20. This is realized by incorporating the program.
  • the analysis condition setting device 10 includes a monitoring condition reception unit 11, a priority determination unit 12, a priority setting unit 13, a monitoring condition management unit 14, a condition priority determination unit 15, and a camera information management unit 16. , An analysis processing information management unit 17 and an area inference unit 18 are provided. Note that the above-described units 11 to 18 are realized by incorporating a program into an arithmetic device provided in the analysis condition setting device 10.
  • the monitoring condition receiving unit 11 receives an input of analysis processing conditions for the analysis target data, and stores and manages the monitoring condition management unit 14 in a storage device.
  • the monitoring condition receiving unit 11 receives analysis processing conditions input from a keyboard or the like by a user.
  • the analysis processing condition is a condition for the analysis engine to output an analysis result from the analysis target data.
  • the analysis processing condition is information of “red clothes”
  • the analysis engine that is the clothes analysis unit 33 checks whether or not “objects of red clothes” exist in the video data. Then, the data regarding the detected “object of red clothes” is output as an analysis result.
  • the analysis processing conditions received by the monitoring condition receiving unit 11 may be input by any method.
  • the analysis processing conditions are output by analysis processing by a preferentially executed analysis engine.
  • the analysis result may be accepted as a new analysis processing condition.
  • the priority determination unit 12 determines the various priorities described above based on the analysis processing conditions received by the monitoring condition reception unit 11. For example, as described above, when the analysis processing condition is information “red clothes”, video data and an analysis engine that can obtain an analysis result related to “clothes” by the analysis processing are required. For this reason, a higher priority is set for a camera that captures video data at an angle of view in which clothes are projected, and a higher priority is set for an analysis engine that performs clothes analysis processing. At this time, information of each camera is stored in the camera information management unit 16, and conditions of video data necessary for each analysis process are stored in the analysis processing information management unit 17 in advance. For example, as shown in FIG.
  • the camera information management unit 16 stores information on a camera name, a camera installation location, and an angle of view of video data captured by the camera.
  • the analysis processing information management unit 17 stores information on analysis contents and angle of view conditions of video data. Then, using these pieces of information, the condition priority determination unit 15 determines the priority of the camera and the priority of the analysis engine as described above according to the analysis processing condition.
  • the area inference unit 18 uses the location and time information to determine the location of the camera that captures the video data that is the analysis target data. And set the priority of the camera higher.
  • the priority determination unit 12 determines the priority of collation data to be collated that is used when collation processing is performed by the analysis engine. For example, when the analysis processing condition is “red clothing”, the priority of the collation data “red clothing” is determined to be higher.
  • the priority setting unit 13 transmits the priority determined as described above to the video analysis device 20 and sets it.
  • an example in which priority is set in the video analysis device 20 is shown in FIGS. 5A to 5C, and details of these information will be described later.
  • the analysis processing conditions include location information “First station at station A”, time information “10:00”, analysis target information “clothes”, and verification target information “brown coat”. Suppose that it was input by the operator. Then, the monitoring condition receiving unit 11 of the analysis condition setting device 10 receives the input information on the analysis processing condition, registers the information on the analysis processing condition in the storage device as shown in FIG. It is stored and managed in the condition management unit 14 (steps S1 and S2 in FIG. 6).
  • the priority determination unit 12 of the analysis condition setting device 10 determines various priorities based on the registered analysis processing conditions (step S3 in FIG. 6).
  • the priority determination processing will be described with reference to the flowchart of FIG.
  • the priority of the camera is determined (step S11 in FIG. 7).
  • the priority of the camera is determined according to the installation position of the camera and the angle of view of video data captured by the camera with respect to the analysis processing conditions.
  • the analysis processing conditions include a place “first station at station A” and a time “10:00”, the criminal can move from the place “first platform at station A” from the time of the incident to the current time.
  • a range of cameras should be given priority. For this reason, it is determined that the camera positions of the cameras A and B have high priority.
  • the analysis processing condition includes the analysis target “clothes”, it is necessary to give priority to a camera that can capture video data of an angle of view in which clothes are projected. Therefore, based on the information shown in FIG. 4B managed by the camera information management 16 and the information shown in FIG. 4C managed by the analysis processing information management unit 17, the clothes It is determined that the priority of the camera A that captures video data with a wide angle of view necessary for analysis is high.
  • the priority of the analysis engine is determined (step S12 in FIG. 7).
  • the priority of the analysis engine is determined according to the analysis contents of the analysis engine with respect to the analysis processing condition.
  • the analysis processing condition includes the analysis object “clothes”
  • priority should be given to the clothes analysis units 33 and 43 that are analysis engines that analyze clothes.
  • the priority of the clothes analysis units 33 and 43 is high.
  • a priority combined with the camera priority described above is further determined. That is, it is determined that “analysis processing of the clothing analysis unit 33 for the video data captured by the camera A has high priority”. In other words, it is determined that “the other analysis processing for the video data captured by the other camera B has low priority”.
  • the priority of collation data in each analysis process is determined (step S13 in FIG. 7).
  • the analysis processing condition is “brown coat” to be collated, priority should be given to the collation processing for the collation data “brown coat”. For this reason, regarding the collation data, it is determined that the priority of “brown coat” is high.
  • a priority is determined for a process that has not been determined as having a high priority in the above-described priority determination process (step S14 in FIG. 7). For example, in the above description, it is determined that “the analysis processing of the clothing analysis unit 33 for the video data captured by the camera A has a high priority (high)”, but “the clothing analysis for the video data captured by the other camera B”.
  • the priority of the analysis processing of the unit 43 may be determined to be the next highest (medium) ”, and the analysis processing by other analysis engines is also prioritized so that it is executed with the minimum analysis accuracy maintained. You may decide. Thereby, even if a person who meets the analysis processing condition is missed by the analysis processing by the analysis engine having the highest priority, the possibility of being detected by other analysis processing can be left.
  • the priority setting unit 13 of the analysis condition setting device 10 sets the determined priority for the video analysis device 20 (step S4 in FIG. 6). Specifically, first, as shown in FIG. 5A, the priority information that “the analysis processing of the clothing analysis unit 33 for the video data captured by the camera A is high (high)” is analyzed. It is set in the priority management unit 23. Further, as the priority of the collation data to be collated when performing the collation processing in the clothes analysis unit 33, as shown in FIG. 5C, the collation data of “clothes 2” having the content “brown coat” is displayed. Priority information “high priority (high)” is set in the clothing BL management unit 34. Although not used in the present embodiment, the priority information of the face matching data shown in FIG. 5B is set in the face BL management unit.
  • the analysis execution control unit 24 of the video analysis device 20 controls the analysis processing operation based on each priority information set as described above.
  • clothes analysis processing for video data captured by the camera A which is analysis processing by the clothes analysis section 33 of the camera A analysis section 21, is executed with priority over other analysis processing. That is, the clothes analysis unit 33 performs the analysis of the video analysis device 20 in comparison with other analysis processing (such as face analysis processing) for the same video data captured by the camera A and analysis processing for video data captured by the camera B.
  • the analysis process is executed first using hardware resources.
  • the video analysis device 20 performs analysis processing according to priority as follows. First, for each frame image of video data that is continuously input, the video analysis device 20 loads the execution of each analysis process for each image into a queue as one task. When the tasks loaded in the queue are sequentially executed, the tasks with the highest priority are processed first. Alternatively, when loading tasks into the queue, if the queue size exceeds the default value, discarding the lower priority items first causes only the higher priority tasks to be loaded into the queue, thereby increasing the priority. High tasks may be processed preferentially.
  • the clothes analysis unit 33 preferentially performs the matching process on the matching data of “clothes 2” representing “brown coat” during the analysis process. Then, the clothes analysis unit 33 performs clothes matching processing on continuously input video data. However, if the hardware resources of the video analysis apparatus 20 have a margin even when performing such processing, In parallel, other low-priority analysis processing or collation processing for other collation data is performed. However, a process with a low priority is not necessarily executed and may be discarded.
  • an analysis process that can obtain the input analysis process condition is executed with priority over other processes, and thus a desired analysis process result can be quickly obtained. Obtainable. As a result, it is possible to provide a higher performance analysis system while suppressing hardware resources. For example, in the above-described example, since a person in “brown coat” can be quickly extracted from the video data, the criminal can be tracked and captured at an early stage.
  • FIGS. 8 and 9 are diagrams for explaining the configuration of the analysis system in the present embodiment
  • FIG. 10 is a diagram for explaining the operation of the analysis system.
  • the analysis system in the present embodiment has a configuration that is almost the same as that described in the first embodiment. Therefore, hereinafter, only differences from the first embodiment will be described.
  • the monitoring condition receiving unit 11 included in the analysis condition setting device 10 has received the input of the analysis processing condition by manual input by the user. As indicated by an arrow Y1 in FIG. 8, an analysis processing condition input by the video analysis device 20 is accepted. Therefore, the video analysis device 20 has a function of inputting information generated as a result of the analysis processing by the analysis engine to the analysis condition setting device 10 as a new analysis processing condition.
  • the operation of the analysis system in this embodiment will be described assuming the following situation.
  • the analysis process according to the first embodiment analyzes that “when a facial photograph of a person wearing“ brown coat ”can be extracted, a criminal of the face is extracted from the video data”. Assume that processing is performed.
  • place information “First platform at station A”, time information “10:00”, analysis target information “clothes”, and verification target information “brown coat” are input by the operator.
  • a command to “acquire a“ face image ”of a person in“ brown coat ”by an analysis process according to an analysis process condition” and an analysis “face” when “a face image” is acquired.
  • the operator inputs a command “input target information and collation target information of the acquired“ face image ”as second analysis processing condition (new analysis processing condition)”.
  • the analysis condition setting device 10 and the video analysis device 20 identify the video of the person of “brown coat” according to the first analysis processing condition (FIG. 10).
  • steps S1 to S5 a “face image” of a person is extracted from the video (step SS6: No, step S7: Yes in FIG. 10).
  • the video analysis device 20 inputs the extracted “face image” as a new analysis processing condition to the analysis condition setting device 10 (step S8 in FIG. 10).
  • the analysis condition setting apparatus 10 accepts and registers, as a new analysis processing condition, the second analysis processing condition including the analysis target information “face” and the verification target information of the acquired “face image” (FIG. 5). 10 steps S1, S2).
  • the analysis condition setting device 10 sets priorities based on the new analysis processing conditions as in the first embodiment (steps S3 and S4 in FIG. 10). At this time, the analysis condition setting device 10 further prioritizes the priority based on the new analysis processing condition while adding the priority based on the new analysis processing condition to the priority based on the first analysis processing condition. Then, a new priority is determined.
  • the analysis target is “face”, and therefore an analysis engine that prioritizes a camera that can shoot video data of the angle of view on which the up image of the face is projected and performs face analysis processing Priority. For this reason, it is determined from the information of FIGS. 4B and 4C that “the analysis processing of the face analysis unit 41 for the video data captured by the camera B has high priority (high)”.
  • the priority of the “analysis processing of the clothing analysis unit 33 for the video data photographed by the camera A” is determined to be high under the first analysis processing condition, the above-described face is determined to continue the analysis processing.
  • a priority “medium” lower than the analysis processing priority is determined.
  • the face analysis process for the video data of the camera B high
  • the clothes analysis process for the video data of the camera A medium
  • the other analysis processes low
  • the degree is determined and set in the video analysis device 20.
  • the priority of collation data in each analysis process is also set (steps S3 and S4 in FIG. 10).
  • the analysis processing condition includes “face image” as a collation target
  • the priority of collation processing for the collation data “face 1” information of the “face image” is determined as “high”, and FIG. )
  • FIG. 9C The priority of the collation data at the time of the clothes analysis process set based on the first analysis process condition is that of the collation data of “clothes 2” representing “brown coat” as shown in FIG. 9C. The priority remains “high”.
  • the video analysis device 20 controls the analysis processing operation based on each priority information set as described above (step S5 in FIG. 10).
  • the face analysis unit 41 corresponding to the video data of the camera B uses the hardware resource of the video analysis device 20 to execute the analysis process before other analysis processes.
  • the analysis system executes a preset process such as outputting an alert.
  • the face analysis processing described above is performed on continuously input video data.
  • the hardware resources of the video analysis device 20 are sufficient even if such processing is performed, the face analysis processing is performed in parallel.
  • clothes analysis processing with the highest priority (priority “medium”) is performed.
  • processing with lower priority may be performed in parallel.
  • a process with a low priority is not necessarily executed, and may be discarded.
  • new analysis processing conditions can be input according to a certain analysis processing result, so that a desired analysis processing result satisfying more complicated conditions can be obtained quickly. it can. As a result, it is possible to provide a higher performance analysis system while suppressing hardware resources.
  • An engine control unit 103 that controls analysis processing operations of a plurality of analysis engines 110 that perform analysis processing on analysis target data;
  • An analysis processing condition receiving unit 101 that receives an input of an analysis processing condition for the analysis target data;
  • a priority setting unit 102 that sets the priority of the analysis engine that performs analysis processing on the analysis target data based on the analysis processing conditions;
  • the engine control unit 103 controls the analysis processing operation of the analysis engine according to the priority set by the priority setting unit.
  • the analysis control device (Appendix 2) The analysis control device according to attachment 1, wherein The priority setting unit sets the priority of the analysis engine that executes an analysis process capable of obtaining an analysis result according to the analysis processing condition higher than the priority of other analysis engines, The engine control unit performs control so that the analysis process by the analysis engine set with a high priority value is executed in preference to the analysis process by another analysis engine; Analysis control system.
  • the analysis control system according to any one of appendices 1 to 3,
  • the priority setting unit sets a priority of a data acquisition device that acquires the analysis target data based on the analysis processing condition,
  • the engine control unit controls the analysis processing operation of the analysis engine for the analysis target data acquired by the data acquisition device according to the priority of the analysis engine and the priority of the data acquisition device. , Analysis control system.
  • the analysis control system according to attachment 4, wherein The priority setting unit sets the priority of the data acquisition device that acquires the analysis target data from which the analysis result according to the analysis processing condition can be obtained higher than the priority of other data acquisition devices.
  • the engine control unit is configured to acquire an analysis process by the analysis engine for the analysis target data acquired by the data acquisition device set with a high priority value of the data acquisition device by another data acquisition device. Control to execute in preference to the analysis process for the analyzed data. Analysis control system.
  • the analysis control system according to appendix 5 or 6,
  • the priority setting unit assigns the priority of the data acquisition device installed at the position where the analysis target data can be obtained to obtain the analysis processing result according to the analysis processing condition to the priority of other data acquisition devices. Set higher than Analysis control system.
  • the analysis control system according to any one of appendices 1 to 7,
  • the analysis processing condition reception unit receives information based on an analysis result by the analysis engine as the analysis processing condition. Analysis control system.
  • the analysis control system according to appendix 8,
  • the analysis processing condition receiving unit receives information based on an analysis result by the analysis engine set with a high priority of the analysis engine as a new analysis processing condition,
  • the priority setting unit sets a new priority of the analysis engine that performs an analysis process on the analysis target data based on the new analysis processing condition,
  • the engine control unit controls an analysis processing operation of the analysis engine according to the new priority set by the priority setting unit. Analysis control system.
  • An analysis processing condition reception unit that receives input of analysis processing conditions for analysis target data by the analysis engine;
  • a priority determination unit that determines the priority of an analysis engine that performs an analysis process on the analysis target data based on the analysis processing condition;
  • the priority is set in an analysis processing apparatus including an engine control unit that controls the analysis processing operations of the plurality of analysis engines so that the engine control unit controls the analysis processing operation of the analysis engine according to the priority.
  • a priority setting unit An information processing apparatus comprising:
  • appendix 11 An information processing apparatus according to appendix 10, wherein The priority determination unit determines that the priority of the analysis engine that executes an analysis process capable of obtaining an analysis result according to the analysis processing condition is higher than the priority of another analysis engine, The priority setting unit gives the priority to the analysis processing device so that the engine control unit executes analysis processing by the analysis engine having a high priority value in preference to analysis processing by another analysis engine. Set the degree, Information processing device.
  • An analysis processing condition reception unit that receives input of analysis processing conditions for analysis target data by the analysis engine;
  • a priority determination unit that determines the priority of an analysis engine that performs an analysis process on the analysis target data based on the analysis processing condition;
  • the priority is set in an analysis processing apparatus including an engine control unit that controls the analysis processing operations of the plurality of analysis engines so that the engine control unit controls the analysis processing operation of the analysis engine according to the priority.
  • a priority setting unit A program to realize
  • the priority determination unit determines that the priority of the analysis engine that executes an analysis process capable of obtaining an analysis result according to the analysis processing condition is higher than the priority of another analysis engine
  • the priority setting unit gives the priority to the analysis processing device so that the engine control unit executes analysis processing by the analysis engine having a high priority value in preference to analysis processing by another analysis engine. Set the degree, Information processing device.
  • Appendix 14 Accepts input of analysis processing conditions for analysis target data by analysis engine, Based on the analysis processing conditions, set the priority of the analysis engine that performs the analysis processing on the analysis target data, Control analysis processing operations of a plurality of the analysis engines according to the priority. Analysis control method.
  • the above-described program is stored in a storage device or recorded on a computer-readable recording medium.
  • the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 本発明の解析制御システム100は、解析対象データに対する解析処理を行う複数の解析エンジン110の解析処理動作を制御するエンジン制御部103と、解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部101と、解析処理条件に基づいて、解析対象データに対する解析処理を行う解析エンジンの優先度を設定する優先度設定部102と、を備え、上記エンジン制御部103は、優先度設定部にて設定された優先度に応じて、解析エンジンの解析処理動作を制御する。

Description

解析制御システム
 本発明は、解析制御システムにかかり、特に、解析対象データに対する解析処理を実行する解析エンジンによる解析動作を制御する解析制御システムに関する。
 近年、情報処理技術の発達に伴い、様々なデータの解析を行う解析エンジンの開発が行われている。例えば、動画像データから特定の服装の人物を抽出する、動画像データから特定の顔の人物を抽出する、動画像データから人間の動線をトレースする位置情報を生成する、音声データからテキストデータを生成するなど、様々な解析エンジンが開発されている。
 また、同種あるいは異種の解析エンジンを複数組み合わせて、入力データから様々な解析処理結果を得ることができる解析システムも開発されている。例えば、カメラから入力した動画像データを、動線抽出エンジン、顔抽出エンジン、年齢判別エンジンなどを用いて並列又は直列に処理し、所定の挙動の人物を判定する、といった解析処理を行うシステムも開発されている。このようなカメラにて撮影した動画像データから人物を判定するといった解析システムでは、解析対象データの入力時から、遅滞なく迅速に、望ましくはリアルタイムに、解析処理結果を得ることが要求されている。
特表2004-535616号公報
 しかしながら、解析対象データが、動画像データや音声データといった連続的に入力され、かつ、容量が比較的大きいデータである場合には、解析エンジンで行う解析処理の負荷が高まり、解析処理結果を迅速に得ることが困難となる。一方で、動画像データのフレームレートを低く設定するなど、予め解析対象データの容量を小さくしておくと、所望の解析精度の解析結果を得ることができない、という問題が生じる。
 ここで、特許文献1には、カメラにて監視している範囲に対する対象物の侵入状況に応じて、分析するピクセルを変化させる技術が開示されている。ところが、かかる技術では、解析処理を行う領域を制限しても所望の解析結果を得られる場合には有効であるが、その他の場合に対応することができない。従って、迅速に所望の解析結果を得ることができない、という問題が生じる。
 このため、本発明の目的は、解析対象データから迅速に所望の解析結果を得ることができない、という問題を解決することができる解析制御システムを提供することにある。
 本発明の一形態である解析制御システムは、
 解析対象データに対する解析処理を行う複数の解析エンジンの解析処理動作を制御するエンジン制御部と、
 前記解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部と、
 前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う前記解析エンジンの優先度を設定する優先度設定部と、を備え、
 前記エンジン制御部は、前記優先度設定部にて設定された前記優先度に応じて、前記解析エンジンの解析処理動作を制御する、
という構成をとる。
 また、本発明の他の形態である情報処理装置は、
 解析エンジンによる解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部と、
 前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を決定する優先度決定部と、
 複数の前記解析エンジンの解析処理動作を制御するエンジン制御部を備えた解析処理装置に、当該エンジン制御部が前記優先度に応じて前記解析エンジンの解析処理動作を制御するよう当該優先度を設定する優先度設定部と、
を備える、という構成をとる。
 また、本発明の他の形態であるプログラムは、
 情報処理装置に、
 解析エンジンによる解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部と、
 前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を決定する優先度決定部と、
 複数の前記解析エンジンの解析処理動作を制御するエンジン制御部を備えた解析処理装置に、当該エンジン制御部が前記優先度に応じて前記解析エンジンの解析処理動作を制御するよう当該優先度を設定する優先度設定部と、
を実現させるためのプログラムである。
 また、本発明の他の形態である解析制御方法は、
 解析エンジンによる解析対象データに対する解析処理条件の入力を受け付け、
 前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を設定し、
 前記優先度に応じて、複数の前記解析エンジンの解析処理動作を制御する、
という構成をとる。
 本発明は、以上のように構成されることにより、解析対象データから迅速に所望の解析結果を得ることができる解析制御システムを提供することができる。
本発明における解析システムの構成の概略を示すブロック図である。 本発明の実施形態1における解析システムを構成する解析条件設定装置の構成を示すブロック図である。 本発明の実施形態1における解析システムを構成する解析条件設定装置の構成を示すブロック図である。 図2に開示した解析条件設定装置に記憶されるデータの一例を示す図である。 図3に開示した映像解析装置に記憶されるデータの一例を示す図である。 本発明の実施形態1における解析システムの動作を示すフローチャートである。 本発明の実施形態1における解析システムの動作を示すフローチャートである。 本発明の実施形態2における解析システムを構成する解析条件設定装置の構成を示すブロック図である。 本発明の実施形態2における映像解析装置に記憶されるデータの一例を示す図である。 本発明の実施形態2における解析システムの動作を示すフローチャートである。 本発明の付記1における解析制御システムの構成を示すブロック図である。
 本発明における解析システムは、図1に示すように、解析対象データである映像データに対する解析処理を実行する複数の解析エンジンを備えた映像解析装置20と、解析エンジンの優先度を設定する解析条件設定装置10と、を備えて構成されている。なお、以下に説明する実施形態では、解析対象データが映像データである場合を例に挙げて説明するが、解析対象データは必ずしも映像データであることに限定されない。例えば、解析対象データは、音声データなど、連続的に入力される他のデータであってもよい。
 <実施形態1>
 本発明の第1の実施形態を、図1乃至図7を参照して説明する。図1乃至図5は、本実施形態における解析システムの構成を説明するための図であり、図6乃至図7は、解析システムの動作を説明するための図である。
 図1に示すように、本実施形態における解析システムは、解析条件設定装置10と、映像解析装置20と、を備えて構成されている。但し、解析システムは、必ずしも解析条件設定装置10及び映像解析装置20といった2台の情報処理装置で構成されていることに限定されず、1台又は3台以上の情報処理装置で構成されていてもよい。
 上記映像解析装置20は、連続して入力される解析対象データを受け付けて、順次、解析対象データに対する解析処理を実行する機能を有する。特に、本実施形態における映像解析装置20は、ある場所における映像データを取得して、当該映像データに映し出されている場所を監視する解析処理を行うものである。このため、映像解析装置20は、解析対象データである映像データを取得するカメラA,B(データ取得装置)を接続しており、当該各カメラA,Bにてそれぞれ撮影された映像データを取り込む。なお、本実施形態では、カメラAは、「A駅1番ホーム」に設置されており、当該ホームを広範囲に撮影するためのカメラである。また、カメラBは、上記A駅から所定の路線で接続されている「B駅の改札」に設置されており、当該改札を通過する人物の顔のアップ画像を撮影するためのカメラである。
 映像解析装置20は、各カメラA,Bにて撮影した映像データに対する解析処理をそれぞれ実行する各解析部21,22(カメラA用解析部21及びカメラB用解析部22)を備えている。そして、各解析部21,22は、それぞれ映像データに対する各種の解析処理を行うための複数の解析エンジンを備えている。例えば、カメラA用解析部21は、まず、映像データに対して、予め顔BL管理部32に登録された顔データとの顔照合を行う顔解析部31(解析エンジン)を備えている。また、カメラA用解析部21は、映像データに対して、予め服BL管理部34に登録された服データとの服照合を行う服解析部33(解析エンジン)を備えている。さらに、カメラA用解析部21は、映像データに対して、人物の動線を追跡する行動解析部35(解析エンジン)を備えている。同様に、カメラB用解析部22は、カメラBにて撮影した映像データに対する各種解析処理を行う、顔解析部41及び顔BL管理部42、服解析部43及び服BL管理部44、行動解析部45を備えている。
 また、映像解析装置20は、解析優先度管理部23と、解析実行制御部24と、を備えている。解析優先度管理部23は、後述するように解析条件設定装置10にて決定された各種優先度を設定する機能を有する。例えば、解析優先度管理部23は、いずれの解析エンジンによる解析処理を優先して実行するか、といった解析エンジンの優先度や、いずれのカメラで取得した映像データを優先して解析処理を行うか、といった映像データの優先度、さらには、解析エンジンにて照合を行う場合にいずれの照合データを優先して照合対象とするか、といった照合データの優先度、を設定する。
 解析実行制御部24(エンジン制御部)は、設定された優先度に従って、各解析エンジンによる解析処理を制御する。このとき、解析実行制御部24は、より高い優先度が設定されたカメラにて取得した映像データに対して、より高い優先度が設定された解析処理を、他の映像データに対する他の解析エンジンによる解析処理よりも優先して実行する。また、解析エンジンによる解析処理の際に、より高い優先度が設定された照合データに対する照合処理を、他の照合データに対する照合処理よりも優先して実行する。そして、解析実行制御部24は、少なくとも高い優先度が設定された解析エンジンによる解析処理を実行し、優先度が低い解析エンジンによる解析処理は、必ずしも実行しなくてもよい。
 なお、上述した映像解析装置20が備えるカメラA用解析部21、カメラB用解析部22、解析優先度管理部23、解析実行制御部24は、当該映像解析装置20に装備された演算装置にプログラムが組み込まれることで実現される。
 次に、解析条件設定装置10について説明する。図2に示すように、解析条件設定装置10は、監視条件受付部11、優先度決定部12、優先度設定部13、監視条件管理部14、条件優先度判定部15、カメラ情報管理部16、解析処理情報管理部17、エリア推論部18、を備えている。なお、上記各部11~18は、解析条件設定装置10に装備された演算装置にプログラムが組み込まれることで実現される。
 上記監視条件受付部11(解析処理条件受付部)は、解析対象データに対する解析処理条件の入力を受け付けて、監視条件管理部14にて記憶装置に記憶して管理する。本実施形態では、監視条件受付部11は、ユーザによってキーボードなどから入力された解析処理条件を受け付ける。解析処理条件は、解析エンジンが解析対象データから解析結果を出力する条件である。例えば、解析処理条件が「赤い服」という情報である場合には、服解析部33である解析エンジンは、映像データ内に「赤い服の物体」が存在するかを調べ、存在する場合には、検出した「赤い服の物体」に関するデータを解析結果として出力することとなる。なお、監視条件受付部11が受け付ける解析処理条件は、いかなる方法にて入力されてもよく、例えば、後に実施形態2で説明するように、優先的に実行された解析エンジンによる解析処理により出力された解析結果を、新たな解析処理条件として受け付けてもよい。
 上記優先度決定部12は、監視条件受付部11にて受け付けた解析処理条件に基づいて、上述した各種優先度を決定する。例えば、上述したように解析処理条件が「赤い服」という情報である場合には、解析処理により「服」に関連する解析結果を得ることができる映像データ及び解析エンジンが必要となる。このため、服が映し出される画角で映像データを撮影するカメラの優先度を高く設定し、かつ、服の解析処理を行う解析エンジンの優先度を高く設定する。このとき、各カメラの情報は、カメラ情報管理部16に記憶されており、また、各解析処理に必要な映像データの条件は、解析処理情報管理部17に予め記憶されている。例えば、カメラ情報管理部16には、図4(B)に示すように、カメラ名、カメラの設置場所、カメラにて撮影する映像データの画角、の情報が記憶されている。また、解析処理情報管理部17には、図4(C)に示すように、解析内容、映像データの画角条件、の情報が記憶されている。そして、これらの情報を用いて、解析処理条件に応じて、条件優先度判定部15が上述したようにカメラの優先度や解析エンジンの優先度を判定する。
 なお、エリア推論部18は、解析処理条件に「場所」や「時刻」に関する情報が含まれている場合に、かかる場所や時刻の情報から、解析対象データとなる映像データを撮影するカメラの場所を推定し、当該カメラの優先度を高く設定する。
 また、優先度決定部12は、解析エンジンにて照合処理を行う際に利用する照合対象となる照合データの優先度を決定する。例えば、解析処理条件が「赤色の服」である場合には、「赤色の服」という照合データの優先度が高くなるよう決定する。
 上記優先度設定部13は、上述したように決定した優先度を、映像解析装置20に送信して設定する。ここで、映像解析装置20内に優先度が設定された場合の例を図5(A)~(C)に示すが、これらの情報の詳細については後述する。
 続いて、上述した解析システムの動作を、具体例を用いて、図6乃至図7のフローチャートを参照して説明する。
 まず、状況として、「A駅の1番ホームで事件が発生し、犯人が逃走。目撃証言から犯人の服装が茶色のコートであることがわかっている」ということとし、このような状況において、監視カメラの映像から犯人の映像を抽出する解析処理を行うことを想定する。
 上述した状況から、解析処理条件として、「A駅の1番ホーム」という場所情報、「10:00」という時刻情報、「服」という解析対象情報、「茶色のコート」という照合対象情報、が操作者により入力されたとする。すると、解析条件設定装置10の監視条件受付部11は、入力された解析処理条件の情報を受け付けて、当該解析処理条件の情報を図4(A)に示すように記憶装置に登録し、監視条件管理部14に記憶して管理する(図6のステップS1,S2)。
 続いて、解析条件設定装置10の優先度決定部12は、登録された解析処理条件に基づいて、各種の優先度を決定する(図6のステップS3)。ここで、優先度の決定処理の詳細を、図7のフローチャートを参照して説明する。
 まず、カメラの優先度を決定する(図7のステップS11)。カメラの優先度は、解析処理条件に対して、カメラの設置位置と、カメラにて撮影する映像データの画角、に応じて決定される。ここでは、解析処理条件に、場所「A駅の1番ホーム」、時刻「10:00」とあるため、事件発生時刻から現在時刻までに場所「A駅の1番ホーム」から犯人が移動可能な範囲のカメラを優先すべきである。このため、カメラの位置に関しては、カメラA,Bとも優先度が高い、と決定する。但し、解析処理条件に、解析対象「服」とあるため、服装が映し出されている画角の映像データを撮影可能なカメラを優先する必要がある。このため、カメラ情報管理16にて管理されている図4(B)に示す情報と、解析処理情報管理部17にて管理されている図4(C)に示す情報と、に基づいて、服解析に必要な広角の画角で映像データを撮影するカメラAの優先度が高い、と決定する。
 続いて、解析エンジンの優先度を決定する(図7のステップS12)。解析エンジンの優先度は、解析処理条件に対して、解析エンジンの解析内容に応じて決定される。ここでは、解析処理条件に、解析対象「服」とあるため、服を解析対象とする解析エンジンである服解析部33,43を優先すべきである。このため、解析エンジンに関しては、服解析部33,43の優先度が高い、と決定する。このとき、さらに、上述したカメラの優先度と併せた優先度を決定する。つまり、「カメラAで撮影した映像データに対する服解析部33の解析処理が、優先度が高い」、と決定する。逆に言うと、「他のカメラBで撮影した映像データに対する他の解析処理は、優先度が低い」と決定する。
 続いて、各解析処理における照合データの優先度を決定する(図7のステップS13)。ここでは、解析処理条件に、照合対象「茶色のコート」とあるため、「茶色のコート」という照合データに対する照合処理を優先すべきである。このため、照合データに関しては、「茶色のコート」の優先度が高い、と決定する。
 続いて、上述した優先度の決定処理において優先度が高い、と決定しなかった処理についての優先度を決定する(図7のステップS14)。例えば、上記では、「カメラAで撮影した映像データに対する服解析部33の解析処理が、優先度が高い(高)」、と決定したが、「他のカメラBで撮影した映像データに対する服解析部43の解析処理の優先度が、その次に高い(中)」と決定してもよく、他の解析エンジンによる解析処理も、最低限の解析精度が保たれて実行されるよう優先度を決定してもよい。これにより、最も優先度が高い解析エンジンによる解析処理により、解析処理条件に適合する人物を見逃してしまった場合であっても、他の解析処理により検出できる可能性を残すことができる。
 以上のようにして優先度を決定した後に、解析条件設定装置10の優先度設定部13は、映像解析装置20に対して、決定した優先度を設定する(図6のステップS4)。具体的には、まず、図5(A)に示すように、「カメラAで撮影した映像データに対する服解析部33の解析処理が、優先度が高い(高)」という優先度情報が、解析優先度管理部23に設定される。また、服解析部33にて照合処理を行う際に照合する照合データの優先度として、図5(C)に示すように、「「茶色のコート」という内容の「服2」の照合データの優先度が高い(高)」、という優先度情報が、服BL管理部34に設定される。なお、本実施形態では利用しないが、図5(B)に示す顔の照合データの優先度情報が、顔BL管理部に設定される。
 続いて、映像解析装置20の解析実行制御部24は、上述したように設定された各優先度情報に基づいて、解析処理動作を制御する。この場合には、まず、カメラA用解析部21の服解析部33による解析処理であるカメラAにて撮影した映像データに対する服解析処理を、他の解析処理よりも優先して実行する。つまり、カメラAにて撮影した同一の映像データに対する他の解析処理(顔解析処理など)や、カメラBにて撮影した映像データに対する解析処理よりも、服解析部33が、映像解析装置20のハードウェア資源を利用して、先に解析処理を実行する。
 具体的に、映像解析装置20は、以下のようにして、優先度に応じて解析処理を行う。まず、映像解析装置20は、連続して入力される映像データの各フレーム画像について、各画像毎の各解析処理の実行を1つのタスクとして、キューに積む。そして、キューに積まれたタスクを順次実行するとき、優先度が高いものから先に処理する。あるいは、タスクをキューに積むとき、キューサイズが既定値を超えた場合に、優先度が低いものを先に破棄することによって、優先度が高いタスクだけがキューの積まれ、これにより優先度が高いタスクを優先的に処理してもよい。
 また、服解析部33は、解析処理の際に、「茶色のコート」を表す「服2」の照合データに対する照合処理を優先して行う。そして、服解析部33が、連続して入力される映像データに対して服の照合処理を行うが、かかる処理を行っていても映像解析装置20のハードウェア資源に余裕がある場合には、並列して優先度の低い他の解析処理を行ったり、他の照合データに対する照合処理を行う。但し、優先度が低く設定された処理は、必ずしも実行する必要はなく、破棄されてもよい。
 以上のように、本実施形態における解析システムでは、入力された解析処理条件を得られる可能性のある解析処理が他の処理よりも優先して実行されるため、迅速に所望の解析処理結果を得ることができる。その結果、ハードウェア資源を抑制しつつ、より高性能な解析システムを提供することができる。例えば、上述した例では、「茶色のコート」の服装の人物を、映像データから迅速に抽出することができるため、早期に犯人の追跡や捕捉することが可能となる。
 <実施形態2>
 次に、本発明の第2の実施形態を、図8乃至図10を参照して説明する。図8及び図9は、本実施形態における解析システムの構成を説明するための図であり、図10は、解析システムの動作を説明するための図である。
 本実施形態における解析システムは、上述した実施形態1で説明したものとほぼ同様の構成をとっている。従って、以下では、実施形態1と異なる点についてのみ説明する。
 まず、上述した実施形態1における解析条件設定装置10が備える監視条件受付部11は、ユーザによる手入力により解析処理条件の入力を受け付けていたが、本実施形態に監視条件受付部11は、図8の矢印Y1に示すように、映像解析装置20が入力する解析処理条件を受け付ける、という構成をとっている。このため、映像解析装置20は、解析エンジンによる解析処理の結果、生成された情報を、新たな解析処理条件として解析条件設定装置10に入力する機能を有する。
 具体的に、以下の状況を想定して、本実施形態における解析システムの動作を説明する。まず、状況として、実施形態1と同様に、「A駅の1番ホームで事件が発生し、犯人が逃走。目撃証言から犯人の服装が茶色のコートであることがわかっている」ということとする。このような状況において、実施形態1における解析処理により、「「茶色のコート」の服装の人物の顔写真を抽出できた場合に、さらに、映像データからかかる顔の犯人を抽出する」、という解析処理を行うことを想定する。
 まず、はじめに、第1の解析処理条件として、「A駅の1番ホーム」という場所情報、「10:00」という時刻情報、「服」という解析対象情報、「茶色のコート」という照合対象情報、が操作者により入力される。これと共に、「解析処理条件に応じた解析処理により、「茶色のコート」の人物の「顔画像」を取得する」という指令と、「「顔画像」を取得した場合に、「顔」という解析対象情報、取得した「顔画像」の照合対象情報を、第2の解析処理条件(新たな解析処理条件)として入力する」、という指令が、操作者によって入力される。
 続いて、解析条件設定装置10及び映像解析装置20は、実施形態1で説明したように、第1の解析処理条件に応じて、「茶色のコート」の人物の映像を特定し(図10のステップS1~S5)、当該映像から人物の「顔画像」を抽出する(図10のステップSS6:No,ステップS7:Yes)。すると、映像解析装置20は、抽出した「顔画像」を新たな解析処理条件として、解析条件設定装置10に入力する(図10のステップS8)。これにより、解析条件設定装置10は、「顔」という解析対象情報、取得した「顔画像」の照合対象情報からなる第2の解析処理条件を、新たな解析処理条件として受け付け、登録する(図10のステップS1,S2)。
 その後、解析条件設定装置10は、新たな解析処理条件に基づいて、実施形態1と同様に優先度を設定する(図10のステップS3,S4)。このとき、解析条件設定装置10は、第1の解析処理条件に基づく優先度に、新たな解析処理条件に基づく優先度を加えつつ、当該新たな解析処理条件に基づく優先度の方をさらに優先して、新たな優先度を決定する。例えば、新たな解析処理条件では、解析対象が「顔」であるため、顔のアップ画像が映し出されている画角の映像データを撮影可能なカメラを優先すると共に、顔解析処理を行う解析エンジンを優先する。このため、図4(B),(C)の情報から、「カメラBで撮影した映像データに対する顔解析部41の解析処理が、優先度が高い(高)」、と決定する。
 但し、第1の解析処理条件では、「カメラAで撮影した映像データに対する服解析部33の解析処理」の優先度が高い、と決定されていたため、かかる解析処理も継続すべく、上述した顔解析処理の優先度よりも低い優先度「中」と決定する。これにより、図9(A)に示すように、カメラBの映像データに対する顔解析処理(高)、カメラAの映像データに対する服解析処理(中)、その他の解析処理(低)、の順に優先度が決定され、映像解析装置20に設定される。
 また、上述同様に、各解析処理における照合データの優先度も設定される(図10のステップS3,S4)。ここでは、解析処理条件に、照合対象として「顔画像」があるため、かかる「顔画像」の照合データ「顔1」情報に対する照合処理の優先度を「高」に決定し、図9(B)に示すように映像解析装置20に設定する。なお、第1の解析処理条件に基づいて設定した服解析処理時の照合データの優先度は、図9(C)に示すように、「茶色のコート」を表す「服2」の照合データの優先度が「高」のままである。
 続いて、映像解析装置20は、上述したように設定された各優先度情報に基づいて、解析処理動作を制御する(図10のステップS5)。この場合には、カメラBの映像データに対応する顔解析部41が、映像解析装置20のハードウェア資源を利用して、他の解析処理よりも先に解析処理を実行する。そして、顔照合の結果、照合データと一致する顔画像の人物を検出した場合には、アラートを出力するなど予め設定された処理を解析システムは実行する。なお、上述した顔解析処理は、連続して入力される映像データに対して行われるが、かかる処理を行っていても映像解析装置20のハードウェア資源に余裕がある場合には、並列して次に優先度の高い(優先度「中」)、服解析処理を行う。また、さらにハードウェア資源に余裕がある場合には、並列して、さらに優先度の低い処理を行ってもよい。但し、優先度が低く設定された処理は、必ずしも実行する必要はなく、破棄されてもよい。
 以上のように、本実施形態における解析システムでは、ある解析処理結果に応じて新たな解析処理条件を入力することができるため、より複雑な条件を満たす所望の解析処理結果を迅速に得ることができる。その結果、ハードウェア資源を抑制しつつ、より高性能な解析システムを提供することができる。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における解析制御システム(図11参照)、プログラム、解析制御方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 解析対象データに対する解析処理を行う複数の解析エンジン110の解析処理動作を制御するエンジン制御部103と、
 前記解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部101と、
 前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う前記解析エンジンの優先度を設定する優先度設定部102と、を備え、
 前記エンジン制御部103は、前記優先度設定部にて設定された前記優先度に応じて、前記解析エンジンの解析処理動作を制御する、
解析制御システム100。
(付記2)
 付記1に記載の解析制御装置であって、
 前記優先度設定部は、前記解析処理条件に応じた解析結果を得ることが可能な解析処理を実行する前記解析エンジンの優先度を、他の解析エンジンの優先度よりも高く設定し、
 前記エンジン制御部は、前記優先度の値が高く設定された前記解析エンジンによる解析処理を、他の解析エンジンによる解析処理よりも優先して実行するよう制御する、
解析制御システム。
(付記3)
 付記2に記載の解析制御装置であって、
 前記エンジン制御部は、前記優先度の値が高く設定された少なくとも1つの前記解析エンジンによる解析処理を実行するよう制御する、
解析制御システム。
(付記4)
 付記1乃至3のいずれかに記載の解析制御システムであって、
 前記優先度設定部は、前記解析処理条件に基づいて、前記解析対象データを取得するデータ取得装置の優先度を設定し、
 前記エンジン制御部は、前記解析エンジンの優先度と、前記データ取得装置の優先度とに応じて、前記データ取得装置にて取得された前記解析対象データに対する前記解析エンジンの解析処理動作を制御する、
解析制御システム。
(付記5)
 付記4に記載の解析制御システムであって、
 前記優先度設定部は、前記解析処理条件に応じた解析結果を得ることが可能な前記解析対象データを取得するデータ取得装置の優先度を、他のデータ取得装置の優先度よりも高く設定し、
 前記エンジン制御部は、前記データ取得装置の優先度の値が高く設定された当該データ取得装置にて取得した前記解析対象データに対する前記解析エンジンによる解析処理を、他のデータ取得装置にて取得された解析対象データに対する解析処理よりも優先して実行するよう制御する、
解析制御システム。
(付記6)
 付記5に記載の解析制御システムであって、
 前記解析対象データが映像データであり、前記データ取得装置が前記映像データを撮影するカメラである場合に、
 前記優先度設定部は、前記解析処理条件に応じた解析結果を得ることが可能な画角の前記映像データを撮影するよう設置された前記カメラの優先度を、他のカメラの優先度よりも高く設定する、
解析制御システム。
(付記7)
 付記5又は6に記載の解析制御システムであって、
 前記優先度設定部は、前記解析処理条件に応じた解析処理結果を得ることが可能な前記解析対象データを取得する位置に設置されたデータ取得装置の優先度を、他のデータ取得装置の優先度よりも高く設定する、
解析制御システム。
(付記8)
 付記1乃至7のいずれかに記載の解析制御システムであって、
 前記解析処理条件受付部は、前記解析エンジンによる解析結果に基づく情報を前記解析処理条件として受け付ける、
解析制御システム。
(付記9)
 付記8に記載の解析制御システムであって、
 前記解析処理条件受付部は、前記解析エンジンの優先度が高く設定された当該解析エンジンによる解析結果に基づく情報を新たな前記解析処理条件として受け付け、
 前記優先度設定部は、前記新たな解析処理条件に基づいて、前記解析対象データに対する解析処理を行う前記解析エンジンの新たな優先度を設定し、
 前記エンジン制御部は、前記優先度設定部にて設定された前記新たな優先度に応じて、前記解析エンジンの解析処理動作を制御する、
解析制御システム。
(付記10)
 解析エンジンによる解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部と、
 前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を決定する優先度決定部と、
 複数の前記解析エンジンの解析処理動作を制御するエンジン制御部を備えた解析処理装置に、当該エンジン制御部が前記優先度に応じて前記解析エンジンの解析処理動作を制御するよう当該優先度を設定する優先度設定部と、
を備えた情報処理装置。
(付記11)
 付記10に記載の情報処理装置であって、
 前記優先度決定部は、前記解析処理条件に応じた解析結果を得ることが可能な解析処理を実行する前記解析エンジンの優先度が、他の解析エンジンの優先度よりも高くなるよう決定し、
 前記優先度設定部は、前記解析処理装置に、前記エンジン制御部が、前記優先度の値が高い前記解析エンジンによる解析処理を他の解析エンジンによる解析処理よりも優先して実行するよう前記優先度を設定する、
情報処理装置。
(付記12)
 情報処理装置に、
 解析エンジンによる解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部と、
 前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を決定する優先度決定部と、
 複数の前記解析エンジンの解析処理動作を制御するエンジン制御部を備えた解析処理装置に、当該エンジン制御部が前記優先度に応じて前記解析エンジンの解析処理動作を制御するよう当該優先度を設定する優先度設定部と、
を実現させるためのプログラム。
(付記13)
 付記12に記載のプログラムであって、
 前記優先度決定部は、前記解析処理条件に応じた解析結果を得ることが可能な解析処理を実行する前記解析エンジンの優先度が、他の解析エンジンの優先度よりも高くなるよう決定し、
 前記優先度設定部は、前記解析処理装置に、前記エンジン制御部が、前記優先度の値が高い前記解析エンジンによる解析処理を他の解析エンジンによる解析処理よりも優先して実行するよう前記優先度を設定する、
情報処理装置。
(付記14)
 解析エンジンによる解析対象データに対する解析処理条件の入力を受け付け、
 前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を設定し、
 前記優先度に応じて、複数の前記解析エンジンの解析処理動作を制御する、
解析制御方法。
(付記15)
 付記14に記載の解析制御方法であって、
 前記解析処理条件に応じた解析結果を得ることが可能な解析処理を実行する前記解析エンジンの優先度が、他の解析エンジンの優先度よりも高くなるよう当該優先度を設定し、
 前記優先度の値が高く設定された前記解析エンジンによる解析処理を、他の解析エンジンによる解析処理よりも優先して実行するよう制御する、
解析制御方法。
 なお、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
 以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 なお、本発明は、日本国にて2012年12月10日に特許出願された特願2012-269141の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
10 解析条件設定装置
11 監視条件受付部
12 優先度決定部
13 優先度設定部
14 監視条件管理部
15 条件優先度判定部
16 カメラ情報管理部
17 解析処理情報管理部
18 エリア推論部
20 映像解析装置
21 カメラA用解析部
22 カメラB用解析部
23 解析優先度管理部
24 解析実行制御部
31 顔解析部
32 顔BL管理部
33 服解析部
34 服BL管理部
35 行動解析部
41 顔解析部
42 顔BL管理部
43 服解析部
44 服BL管理部
45 行動解析部
100 解析制御システム
101 解析処理条件受付部
102 優先度設定部
103 エンジン制御部
110 解析エンジン
 

Claims (15)

  1.  解析対象データに対する解析処理を行う複数の解析エンジンの解析処理動作を制御するエンジン制御部と、
     前記解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部と、
     前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う前記解析エンジンの優先度を設定する優先度設定部と、を備え、
     前記エンジン制御部は、前記優先度設定部にて設定された前記優先度に応じて、前記解析エンジンの解析処理動作を制御する、
    解析制御システム。
  2.  請求項1に記載の解析制御装置であって、
     前記優先度設定部は、前記解析処理条件に応じた解析結果を得ることが可能な解析処理を実行する前記解析エンジンの優先度を、他の解析エンジンの優先度よりも高く設定し、
     前記エンジン制御部は、前記優先度の値が高く設定された前記解析エンジンによる解析処理を、他の解析エンジンによる解析処理よりも優先して実行するよう制御する、
    解析制御システム。
  3.  請求項2に記載の解析制御装置であって、
     前記エンジン制御部は、前記優先度の値が高く設定された少なくとも1つの前記解析エンジンによる解析処理を実行するよう制御する、
    解析制御システム。
  4.  請求項1乃至3のいずれかに記載の解析制御システムであって、
     前記優先度設定部は、前記解析処理条件に基づいて、前記解析対象データを取得するデータ取得装置の優先度を設定し、
     前記エンジン制御部は、前記解析エンジンの優先度と、前記データ取得装置の優先度とに応じて、前記データ取得装置にて取得された前記解析対象データに対する前記解析エンジンの解析処理動作を制御する、
    解析制御システム。
  5.  請求項4に記載の解析制御システムであって、
     前記優先度設定部は、前記解析処理条件に応じた解析結果を得ることが可能な前記解析対象データを取得するデータ取得装置の優先度を、他のデータ取得装置の優先度よりも高く設定し、
     前記エンジン制御部は、前記データ取得装置の優先度の値が高く設定された当該データ取得装置にて取得した前記解析対象データに対する前記解析エンジンによる解析処理を、他のデータ取得装置にて取得された解析対象データに対する解析処理よりも優先して実行するよう制御する、
    解析制御システム。
  6.  請求項5に記載の解析制御システムであって、
     前記解析対象データが映像データであり、前記データ取得装置が前記映像データを撮影するカメラである場合に、
     前記優先度設定部は、前記解析処理条件に応じた解析結果を得ることが可能な画角の前記映像データを撮影するよう設置された前記カメラの優先度を、他のカメラの優先度よりも高く設定する、
    解析制御システム。
  7.  請求項5又は6に記載の解析制御システムであって、
     前記優先度設定部は、前記解析処理条件に応じた解析処理結果を得ることが可能な前記解析対象データを取得する位置に設置されたデータ取得装置の優先度を、他のデータ取得装置の優先度よりも高く設定する、
    解析制御システム。
  8.  請求項1乃至7のいずれかに記載の解析制御システムであって、
     前記解析処理条件受付部は、前記解析エンジンによる解析結果に基づく情報を前記解析処理条件として受け付ける、
    解析制御システム。
  9.  請求項8に記載の解析制御システムであって、
     前記解析処理条件受付部は、前記解析エンジンの優先度が高く設定された当該解析エンジンによる解析結果に基づく情報を新たな前記解析処理条件として受け付け、
     前記優先度設定部は、前記新たな解析処理条件に基づいて、前記解析対象データに対する解析処理を行う前記解析エンジンの新たな優先度を設定し、
     前記エンジン制御部は、前記優先度設定部にて設定された前記新たな優先度に応じて、前記解析エンジンの解析処理動作を制御する、
    解析制御システム。
  10.  解析エンジンによる解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部と、
     前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を決定する優先度決定部と、
     複数の前記解析エンジンの解析処理動作を制御するエンジン制御部を備えた解析処理装置に、当該エンジン制御部が前記優先度に応じて前記解析エンジンの解析処理動作を制御するよう当該優先度を設定する優先度設定部と、
    を備えた情報処理装置。
  11.  請求項10に記載の情報処理装置であって、
     前記優先度決定部は、前記解析処理条件に応じた解析結果を得ることが可能な解析処理を実行する前記解析エンジンの優先度が、他の解析エンジンの優先度よりも高くなるよう決定し、
     前記優先度設定部は、前記解析処理装置に、前記エンジン制御部が、前記優先度の値が高い前記解析エンジンによる解析処理を他の解析エンジンによる解析処理よりも優先して実行するよう前記優先度を設定する、
    情報処理装置。
  12.  情報処理装置に、
     解析エンジンによる解析対象データに対する解析処理条件の入力を受け付ける解析処理条件受付部と、
     前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を決定する優先度決定部と、
     複数の前記解析エンジンの解析処理動作を制御するエンジン制御部を備えた解析処理装置に、当該エンジン制御部が前記優先度に応じて前記解析エンジンの解析処理動作を制御するよう当該優先度を設定する優先度設定部と、
    を実現させるためのプログラム。
  13.  請求項12に記載のプログラムであって、
     前記優先度決定部は、前記解析処理条件に応じた解析結果を得ることが可能な解析処理を実行する前記解析エンジンの優先度が、他の解析エンジンの優先度よりも高くなるよう決定し、
     前記優先度設定部は、前記解析処理装置に、前記エンジン制御部が、前記優先度の値が高い前記解析エンジンによる解析処理を他の解析エンジンによる解析処理よりも優先して実行するよう前記優先度を設定する、
    情報処理装置。
  14.  解析エンジンによる解析対象データに対する解析処理条件の入力を受け付け、
     前記解析処理条件に基づいて、前記解析対象データに対する解析処理を行う解析エンジンの優先度を設定し、
     前記優先度に応じて、複数の前記解析エンジンの解析処理動作を制御する、
    解析制御方法。
  15.  請求項14に記載の解析制御方法であって、
     前記解析処理条件に応じた解析結果を得ることが可能な解析処理を実行する前記解析エンジンの優先度が、他の解析エンジンの優先度よりも高くなるよう当該優先度を設定し、
     前記優先度の値が高く設定された前記解析エンジンによる解析処理を、他の解析エンジンによる解析処理よりも優先して実行するよう制御する、
    解析制御方法。
PCT/JP2013/006533 2012-12-10 2013-11-06 解析制御システム WO2014091667A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/648,936 US10229327B2 (en) 2012-12-10 2013-11-06 Analysis control system
JP2014551843A JPWO2014091667A1 (ja) 2012-12-10 2013-11-06 解析制御システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-269141 2012-12-10
JP2012269141 2012-12-10

Publications (1)

Publication Number Publication Date
WO2014091667A1 true WO2014091667A1 (ja) 2014-06-19

Family

ID=50933976

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006533 WO2014091667A1 (ja) 2012-12-10 2013-11-06 解析制御システム

Country Status (3)

Country Link
US (1) US10229327B2 (ja)
JP (1) JPWO2014091667A1 (ja)
WO (1) WO2014091667A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151751A (ja) * 2017-03-10 2018-09-27 大日本印刷株式会社 火災検出装置、及び、火災検出システム
JP2018170573A (ja) * 2017-03-29 2018-11-01 セコム株式会社 監視システム
JP2020113940A (ja) * 2019-01-16 2020-07-27 パナソニックi−PROセンシングソリューションズ株式会社 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017060029A (ja) * 2015-09-17 2017-03-23 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法
US10783925B2 (en) 2017-12-29 2020-09-22 Dish Network L.L.C. Methods and systems for an augmented film crew using storyboards
US10834478B2 (en) 2017-12-29 2020-11-10 Dish Network L.L.C. Methods and systems for an augmented film crew using purpose

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005534205A (ja) * 2001-11-21 2005-11-10 イー・トレピッド・テクノロジーズ・エルエルシー 複数のカメラから与えられたデジタルビデオ内容を記憶する方法および装置
JP2008011457A (ja) * 2006-06-30 2008-01-17 Olympus Imaging Corp カメラ
JP2010204892A (ja) * 2009-03-03 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> 映像解析装置,映像解析方法および映像解析プログラム
WO2012098853A1 (ja) * 2011-01-20 2012-07-26 日本電気株式会社 動線検出処理データ分散システム、動線検出処理データ分散方法およびプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1128676B1 (en) * 2000-02-28 2009-04-15 Hitachi Kokusai Electric Inc. Intruding object monitoring method and intruding object monitoring system
US7200246B2 (en) 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
US6998987B2 (en) * 2003-02-26 2006-02-14 Activseye, Inc. Integrated RFID and video tracking system
US20050116821A1 (en) * 2003-12-01 2005-06-02 Clifton Labs, Inc. Optical asset tracking system
US9036028B2 (en) * 2005-09-02 2015-05-19 Sensormatic Electronics, LLC Object tracking and alerts
US20080028031A1 (en) * 2006-07-25 2008-01-31 Byron Lewis Bailey Method and apparatus for managing instant messaging
WO2008035745A1 (en) * 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
JP4594945B2 (ja) * 2007-02-13 2010-12-08 株式会社東芝 人物検索装置および人物検索方法
US7797060B2 (en) * 2007-02-27 2010-09-14 Rockwell Automation Technologies, Inc. Prioritization associated with controller engine instances
JP4341696B2 (ja) * 2007-05-18 2009-10-07 カシオ計算機株式会社 撮像装置、顔領域検出プログラム、及び、顔領域検出方法
JP5053731B2 (ja) * 2007-07-03 2012-10-17 キヤノン株式会社 画像表示制御装置及び画像表示制御方法及びプログラム及び記録媒体
US20090099880A1 (en) * 2007-10-12 2009-04-16 International Business Machines Corporation Dynamic business process prioritization based on context
JP2010021943A (ja) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
JP4561914B2 (ja) * 2008-09-22 2010-10-13 ソニー株式会社 操作入力装置、操作入力方法、プログラム
JP5127686B2 (ja) * 2008-12-11 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、ならびに、撮像装置
JP5066122B2 (ja) * 2009-03-23 2012-11-07 株式会社東芝 パターン形成方法
US8334902B2 (en) * 2009-03-31 2012-12-18 Fuji Xerox Co., Ltd. System and method for facilitating the use of whiteboards
US8174375B2 (en) * 2009-06-30 2012-05-08 The Hong Kong Polytechnic University Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices
US8345974B2 (en) * 2009-07-14 2013-01-01 Hewlett-Packard Development Company, L.P. Hierarchical recursive image segmentation
JP4846071B2 (ja) * 2010-02-10 2011-12-28 パナソニック株式会社 画像評価装置、画像評価方法、プログラム、集積回路
MX2012009579A (es) * 2010-02-19 2012-10-01 Toshiba Kk Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
JPWO2011158405A1 (ja) * 2010-06-18 2013-08-15 パナソニック株式会社 優先度情報生成装置、情報処理装置
US9104909B2 (en) * 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
RU2504014C1 (ru) * 2012-06-13 2014-01-10 Общество с ограниченной ответственностью "ДиСиКон" (ООО "ДСК") Способ управления системой мониторинга и система для его реализации
JP5925068B2 (ja) * 2012-06-22 2016-05-25 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム
JPWO2014122879A1 (ja) * 2013-02-05 2017-01-26 日本電気株式会社 解析処理システム
JP6171374B2 (ja) * 2013-02-06 2017-08-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US10070077B2 (en) * 2014-09-26 2018-09-04 Sensormatic Electronics, LLC System and method for automated camera guard tour operation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005534205A (ja) * 2001-11-21 2005-11-10 イー・トレピッド・テクノロジーズ・エルエルシー 複数のカメラから与えられたデジタルビデオ内容を記憶する方法および装置
JP2008011457A (ja) * 2006-06-30 2008-01-17 Olympus Imaging Corp カメラ
JP2010204892A (ja) * 2009-03-03 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> 映像解析装置,映像解析方法および映像解析プログラム
WO2012098853A1 (ja) * 2011-01-20 2012-07-26 日本電気株式会社 動線検出処理データ分散システム、動線検出処理データ分散方法およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151751A (ja) * 2017-03-10 2018-09-27 大日本印刷株式会社 火災検出装置、及び、火災検出システム
JP2018170573A (ja) * 2017-03-29 2018-11-01 セコム株式会社 監視システム
JP2020113940A (ja) * 2019-01-16 2020-07-27 パナソニックi−PROセンシングソリューションズ株式会社 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム
JP7193355B2 (ja) 2019-01-16 2022-12-20 i-PRO株式会社 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム

Also Published As

Publication number Publication date
US10229327B2 (en) 2019-03-12
JPWO2014091667A1 (ja) 2017-01-05
US20150317521A1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
WO2014091667A1 (ja) 解析制御システム
KR101423916B1 (ko) 복수의 얼굴 인식 방법 및 장치
US11308351B2 (en) Method and apparatus for recognizing sequence in image, electronic device, and storage medium
US10353954B2 (en) Information processing apparatus, method of controlling the same, and storage medium
JP6508041B2 (ja) 対象物監視システム、対象物監視方法および監視対象抽出プログラム
US9477138B2 (en) Autofocus
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
US10762133B2 (en) Information processing apparatus, method of controlling the same, and storage medium
EP3860116A1 (en) Authentication system, authentication method, and storage medium
JP6225896B2 (ja) 解析処理システム
WO2022009944A1 (ja) 映像解析装置、広域監視システム及びカメラの選定方法
CN111178277B (zh) 一种视频流识别方法及装置
JP6098631B2 (ja) 解析処理装置
JP6679373B2 (ja) 顔検出装置、顔検出方法及び顔認識システム
Kim et al. Low-complexity online model selection with Lyapunov control for reward maximization in stabilized real-time deep learning platforms
WO2014122879A1 (ja) 解析処理システム
KR102194511B1 (ko) 대표 영상프레임 결정시스템 및 이를 이용한 방법
CN111898529B (zh) 脸部检测方法、装置、电子设备和计算机可读介质
JP6369328B2 (ja) 解析システム
CN114596638A (zh) 人脸活体检测方法、装置及存储介质
JP6168049B2 (ja) 解析システム
CN115082911A (zh) 一种视频分析方法、装置及视频处理设备
JP2019106089A (ja) 情報処理装置、情報処理方法、コンピュータプログラム
WO2023276050A1 (ja) 画像処理システム及び撮像装置
Dzulkifly et al. Enhanced continuous face recognition algorithm for bandwidth constrained network in real time application

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13862579

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014551843

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14648936

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13862579

Country of ref document: EP

Kind code of ref document: A1