JP6098631B2 - Analysis processing device - Google Patents

Analysis processing device Download PDF

Info

Publication number
JP6098631B2
JP6098631B2 JP2014500077A JP2014500077A JP6098631B2 JP 6098631 B2 JP6098631 B2 JP 6098631B2 JP 2014500077 A JP2014500077 A JP 2014500077A JP 2014500077 A JP2014500077 A JP 2014500077A JP 6098631 B2 JP6098631 B2 JP 6098631B2
Authority
JP
Japan
Prior art keywords
priority
area
region
image
analysis processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014500077A
Other languages
Japanese (ja)
Other versions
JPWO2013121711A1 (en
Inventor
白石 展久
展久 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2013121711A1 publication Critical patent/JPWO2013121711A1/en
Application granted granted Critical
Publication of JP6098631B2 publication Critical patent/JP6098631B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、解析処理装置にかかり、特に、カメラにて撮影した画像を解析する解析処理装置に関する。   The present invention relates to an analysis processing apparatus, and more particularly to an analysis processing apparatus that analyzes an image captured by a camera.

近年、情報処理技術の発達に伴い、様々なデータの解析を行う解析システムの開発が行われている。例えば、監視カメラにて撮影した画像を解析して、予め登録された特定の人物や物体などの存在を検出する解析システムがある。このような解析システムでは、監視カメラにて画像を撮影してから所定の時間内に、特定の人物などの存在を検出することが要求される。このため、高速な解析処理を実行されることが望まれている。   In recent years, with the development of information processing technology, analysis systems for analyzing various data have been developed. For example, there is an analysis system that analyzes an image taken by a surveillance camera and detects the presence of a specific person or object registered in advance. In such an analysis system, it is required to detect the presence of a specific person or the like within a predetermined time after an image is taken by a surveillance camera. For this reason, it is desired to perform high-speed analysis processing.

一方で、監視カメラが多数あり、これらで撮影した多数の画像内に同時に多数の人物や物体が映っている場合には、特定の人物や物体を検出するための処理が多数となり、解析処理装置に対する処理依頼が集中してしまう。すると、解析処理装置にて高速な解析処理を実現できず、特定の人物や物体を検出するまでの時間が多くかかってしまう、という問題が生じる。なお、監視カメラが1つの場合であっても、画像内に同時に多数の人物や物体が映っている場合には、上述同様に、特定の人物や物体を検出するまでの時間が多くかかってしまう。   On the other hand, when there are many surveillance cameras and many people and objects are simultaneously shown in many images taken by these cameras, there are many processes for detecting a specific person or object, and the analysis processing device Processing requests for are concentrated. Then, there is a problem that high-speed analysis processing cannot be realized by the analysis processing apparatus, and it takes a long time to detect a specific person or object. Even if there is a single surveillance camera, if a large number of people and objects are shown in the image at the same time, it will take a long time to detect a specific person or object as described above. .

ここで、特許文献1には、監視カメラにて撮影した画像から特定の人物を検出するための技術が記載されている。具体的に、特許文献1の技術では、カメラから入力される入力画像において検出された顔画像の位置などに基づいて、入力画像毎に処理の優先度を設定する、という処理を行っている。例えば、画像の横端に近い位置に顔領域が存在する画像については、当該画像に対する解析処理の優先度を高く設定する、ことが記載されている。   Here, Patent Document 1 describes a technique for detecting a specific person from an image taken by a surveillance camera. Specifically, in the technique of Patent Literature 1, processing priority is set for each input image based on the position of the face image detected in the input image input from the camera. For example, it is described that, for an image in which a face region exists at a position close to the horizontal edge of the image, the priority of analysis processing for the image is set high.

特開2011−70576号公報JP 2011-70576 A

しかしながら、上述した特許文献1に開示の技術では、入力画像において検出された顔画像の位置などの条件に基づいて、「入力画像毎」に解析処理の優先度を設定している。このため、優先度が高く設定された入力画像が優先的に処理されることとなるが、かかる入力画像全体に対して解析処理が実行されるため、不要な画像領域に対する解析処理も実行されうる。すると、結果として、解析処理装置にて高速な解析処理を行うことができない、という問題が生じる。   However, in the technique disclosed in Patent Document 1 described above, the priority of analysis processing is set for each “input image” based on conditions such as the position of the face image detected in the input image. For this reason, an input image set with a high priority is preferentially processed. However, an analysis process is performed on the entire input image, and therefore an analysis process for an unnecessary image region can also be performed. . As a result, there arises a problem that high-speed analysis processing cannot be performed by the analysis processing apparatus.

このため、本発明の目的は、画像処理を行う解析処理装置、プログラム、解析処理方法において、画像に対する解析処理に時間がかかる、という課題を解決することにある。   Therefore, an object of the present invention is to solve the problem that it takes time to perform analysis processing on an image in an analysis processing apparatus, a program, and an analysis processing method that perform image processing.

本発明の一形態である解析処理装置は、
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
前記物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定する物体位置判定手段と、
前記物体位置判定手段による判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定する優先度設定手段と、
を備えた、
という構成をとる。
An analysis processing apparatus according to one aspect of the present invention is
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Object detection means to be set as
Object position determination means for determining whether or not the object region is located in a predetermined specific region in the image;
Priority setting means for setting a priority indicating a priority level for executing a predetermined analysis process on the object region in accordance with a determination result by the object position determination means;
With
The configuration is as follows.

また、本発明の他の形態であるプログラムは、
情報処理装置に、
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
前記物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定する物体位置判定手段と、
前記物体位置判定手段による判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定する優先度設定手段と、
を実現させるためのプログラムである。
Moreover, the program which is the other form of this invention is:
In the information processing device,
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Object detection means to be set as
Object position determination means for determining whether or not the object region is located in a predetermined specific region in the image;
Priority setting means for setting a priority indicating a priority level for executing a predetermined analysis process on the object region in accordance with a determination result by the object position determination means;
It is a program for realizing.

また、本発明の他の形態である解析処理方法は、
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定し、
前記物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定し、
前記物体領域が前記特定領域に位置するか否かの判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定する、
という構成をとる。
In addition, an analysis processing method according to another embodiment of the present invention includes:
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Set as
Determining whether the object region is located in a predetermined specific region in the image;
In accordance with a determination result of whether or not the object region is located in the specific region, a priority level representing a priority level for executing a predetermined analysis process on the object region is set.
The configuration is as follows.

本発明は、以上のように構成されることにより、画像に対する解析処理の高速化を図ることができる解析処理装置、プログラム、解析処理方法を提供することができる。   The present invention can provide an analysis processing device, a program, and an analysis processing method that can increase the speed of analysis processing for an image by being configured as described above.

本発明の実施形態1における映像解析システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video analysis system in Embodiment 1 of this invention. 図1に開示した映像解析システムによる画像処理の一例を示す図である。It is a figure which shows an example of the image processing by the video analysis system disclosed in FIG. 図1に開示した映像解析システムによる画像処理の一例を示す図である。It is a figure which shows an example of the image processing by the video analysis system disclosed in FIG. 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。It is a figure which shows an example of the data memorize | stored in the video analysis system disclosed in FIG. 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。It is a figure which shows an example of the data memorize | stored in the video analysis system disclosed in FIG. 図1に開示した映像解析システムによる画像処理の一例を示す図である。It is a figure which shows an example of the image processing by the video analysis system disclosed in FIG. 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。It is a figure which shows an example of the data memorize | stored in the video analysis system disclosed in FIG. 図1に開示した映像解析システムに記憶されるデータの一例を示す図である。It is a figure which shows an example of the data memorize | stored in the video analysis system disclosed in FIG. 図1に開示した映像解析システムの動作を示す図である。It is a figure which shows operation | movement of the image | video analysis system disclosed in FIG. 図1に開示した映像解析システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image | video analysis system disclosed in FIG. 本発明の実施形態2における映像解析システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video analysis system in Embodiment 2 of this invention. 図11に開示した映像解析システムに記憶されるデータの一例を示す図である。It is a figure which shows an example of the data memorize | stored in the video analysis system disclosed in FIG. 図11に開示した映像解析システムによる画像処理の一例を示す図である。It is a figure which shows an example of the image processing by the video analysis system disclosed in FIG. 図11に開示した映像解析システムによる画像処理の一例を示す図である。It is a figure which shows an example of the image processing by the video analysis system disclosed in FIG. 図11に開示した映像解析システムによる画像処理の一例を示す図である。It is a figure which shows an example of the image processing by the video analysis system disclosed in FIG. 図11に開示した映像解析システムの動作を示す図である。FIG. 12 is a diagram illustrating an operation of the video analysis system disclosed in FIG. 11. 図11に開示した映像解析システムの動作を示すフローチャートである。12 is a flowchart illustrating an operation of the video analysis system disclosed in FIG. 11. 本発明の付記1−1における映像解析システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video analysis system in additional remark 1-1 of this invention.

<実施形態1>
本発明の第1の実施形態を、図1乃至図10を参照して説明する。図1は、映像解析システムの構成を示す図であり、図2乃至図8は、映像解析システムに記憶されているデータや解析処理の様子を示す図である。図9乃至図10は、映像解析システムの動作を示す図である。
<Embodiment 1>
A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a diagram illustrating a configuration of a video analysis system, and FIGS. 2 to 8 are diagrams illustrating data stored in the video analysis system and a state of analysis processing. 9 to 10 are diagrams illustrating the operation of the video analysis system.

本実施形態における映像解析システム10は、1台又は複数台の情報処理装置にて構成されており、画像に対する所定の解析処理を行う解析処理装置である。具体的に、映像解析システム10は、監視カメラ20にて撮影された画像内から、予め登録された人物を検出して、アラーム表示アプリケーション30に通知する処理を行う。なお、映像解析システム10は、本発明である解析処理装置の一例であって、必ずしも以下に説明する解析処理を実行することに限定されず、他の解析処理を行ってもよい。   The video analysis system 10 according to the present embodiment is configured by one or a plurality of information processing apparatuses, and is an analysis processing apparatus that performs a predetermined analysis process on an image. Specifically, the video analysis system 10 performs processing for detecting a person registered in advance from an image captured by the monitoring camera 20 and notifying the alarm display application 30 of the detected person. Note that the video analysis system 10 is an example of an analysis processing apparatus according to the present invention, and is not necessarily limited to executing the analysis processing described below, and may perform other analysis processing.

映像解析システム10の構成の一例を、図1に示す。この図に示すように、映像解析システム10には、まず、上述した監視カメラ20が複数接続されている。各監視カメラ20は、例えば、監視対象となる建物内のそれぞれ異なる個所に設置されており、建物内の各部屋といった各スペースの映像(画像)を撮影して、当該映像を解析システム10に送信する。   An example of the configuration of the video analysis system 10 is shown in FIG. As shown in this figure, the video analysis system 10 is first connected with a plurality of the monitoring cameras 20 described above. For example, each monitoring camera 20 is installed at a different location in a building to be monitored, and takes images (images) of each space such as each room in the building and transmits the images to the analysis system 10. To do.

また、映像解析システム10には、上述したアラーム表示アプリケーション30が接続されている。このアラーム表示アプリケーション30は、例えば、建物内の監視を行う者の情報処理端末に組み込まれており、後述するように、映像解析システム10から通知された情報を監視者に報知すべく、報知情報を情報処理端末の画面に表示したり、音や光などを出力する。   Further, the above-described alarm display application 30 is connected to the video analysis system 10. The alarm display application 30 is incorporated in, for example, an information processing terminal of a person who performs monitoring in a building. As will be described later, in order to notify the monitor of information notified from the video analysis system 10, notification information is provided. Is displayed on the screen of the information processing terminal, or sound or light is output.

また、映像解析システム10は、装備された演算装置にプログラムが組み込まれることで構築された、顔位置検出部11、顔特徴解析部12、顔照合部13、解析処理優先度算出部15、解析処理優先度制御部16、を備えている。また、映像解析システム10は、装備された記憶装置に、顔特徴情報データベース14、解析優先撮影領域情報記憶部17、解析処理タスク群記憶部18、を備えている。以下、各構成について詳述する。   In addition, the video analysis system 10 is constructed by incorporating a program into the equipped arithmetic device, and includes a face position detection unit 11, a face feature analysis unit 12, a face collation unit 13, an analysis processing priority calculation unit 15, and an analysis. A processing priority control unit 16 is provided. In addition, the video analysis system 10 includes a face feature information database 14, an analysis priority shooting area information storage unit 17, and an analysis processing task group storage unit 18 in a storage device that is equipped. Hereinafter, each configuration will be described in detail.

上記顔位置検出部11(物体検出手段)は、上記各監視カメラ20にて撮影され当該各監視カメラ20から送信された映像を取得し、取得した映像のフレーム毎に、当該フレーム内に映っている人間の顔を検出する。具体的に、顔位置検出部11は、映像を構成するフレームを所定のサンプリング周期で取得し(図9の矢印Y1、図10のステップS1)、各フレーム内から人間の顔を検出する。例えば、予め設定された人間の顔の特徴を表す情報(色や形状の情報)に基づいて、フレーム内に映っている人間の顔の位置を検出する。   The face position detection unit 11 (object detection means) acquires the video imaged by each monitoring camera 20 and transmitted from each monitoring camera 20, and is displayed in the frame for each frame of the acquired video image. Detect human faces. Specifically, the face position detection unit 11 acquires frames constituting an image at a predetermined sampling period (arrow Y1 in FIG. 9 and step S1 in FIG. 10), and detects a human face from within each frame. For example, the position of the human face shown in the frame is detected based on preset information (color and shape information) representing the characteristics of the human face.

ここで、監視カメラ20毎のフレームにおいて人間の顔を検出したときの一例を図2に示す。図2において、上段図は予め割当てられたカメラIDが「001」の監視カメラ20から取得したフレームにて人間の顔を検出したときの様子を示し、下段図はほぼ同一日時に予め割当てられたカメラIDが「002」の監視カメラ20から取得したフレームにて人間の顔を検出したときの様子を示している。この図の例では、カメラIDが「001」の監視カメラ20から取得したフレームから符号P11,P12,P13に示す人間の顔が検出され、カメラIDが「002」の監視カメラ20から取得したフレームからは符号P21,P22に示す人間の顔が検出されている。   Here, an example when a human face is detected in a frame for each surveillance camera 20 is shown in FIG. In FIG. 2, the upper diagram shows a state when a human face is detected in a frame acquired from the surveillance camera 20 with the camera ID “001” assigned in advance, and the lower diagram is assigned in advance at almost the same date and time. A state when a human face is detected in a frame acquired from the monitoring camera 20 with the camera ID “002” is shown. In the example of this figure, the human face indicated by reference signs P11, P12, and P13 is detected from the frame acquired from the monitoring camera 20 with the camera ID “001”, and the frame acquired from the monitoring camera 20 with the camera ID “002”. The human faces indicated by reference numerals P21 and P22 are detected.

そして、顔位置検出部11は、フレーム内において、検出した人間の顔の位置を基準として当該顔が含まれる範囲の画像領域を、人物領域(物体領域)として設定する(図10のステップS2)。具体的に、顔位置検出部11は、人間の顔として検出した領域全体を囲う矩形の範囲を人物領域として設定したり、人間の顔として検出した位置の重心点を中心として予め設定された矩形の範囲を人物領域として設定する。   Then, the face position detection unit 11 sets an image area in a range including the face as a person area (object area) with reference to the detected position of the human face in the frame (step S2 in FIG. 10). . Specifically, the face position detection unit 11 sets a rectangular area surrounding the entire area detected as a human face as a person area, or a rectangular area set in advance around the center of gravity of the position detected as a human face. Is set as a person area.

ここで、取得したフレームにおいて人物領域を設定したときの一例を図3に示す。図3において、上段図はカメラIDが「001」の監視カメラ20において人物領域を設定したときの様子を示し、下段図はカメラIDが「002」の監視カメラ20において人物領域を設定したときの様子を示している。この図の例では、カメラIDが「001」の監視カメラ20から取得したフレームから符号P11,P12,P13に示す人間の顔に対応する人物領域A11,A12,A13が設定され、カメラIDが「002」の監視カメラ20から取得したフレームからは符号P21,P22に示す人間の顔に対応する人物領域A21,A22が設定されている。   Here, FIG. 3 shows an example when a person area is set in the acquired frame. In FIG. 3, the upper diagram shows the situation when the person area is set in the monitoring camera 20 with the camera ID “001”, and the lower figure shows the situation when the person area is set in the monitoring camera 20 with the camera ID “002”. It shows a state. In the example of this figure, person areas A11, A12, and A13 corresponding to human faces indicated by reference signs P11, P12, and P13 are set from the frame acquired from the monitoring camera 20 with the camera ID “001”, and the camera ID is “ Person regions A21 and A22 corresponding to the human face indicated by symbols P21 and P22 are set from the frame acquired from the monitoring camera 20 of “002”.

なお、上記では、顔位置検出部11にて人間の顔を検出する方法や人物領域を設定する方法の一例を説明したが、これらの方法は上述した方法に限定されず、他の方法を用いてもよい。また、上記では、人間の顔を検出する場合を例示したが、人間の顔ではなく別の予め設定された物体を検出して、当該物体の領域(物体領域)を設定してもよい。   In the above description, an example of a method of detecting a human face and a method of setting a human area by the face position detection unit 11 has been described. However, these methods are not limited to the above-described methods, and other methods are used. May be. Moreover, although the case where a human face was detected was illustrated above, you may set the area | region (object area | region) of the said object by detecting another preset object instead of a human face.

そして、顔位置検出部11は、各監視カメラ20にて撮影された映像のフレーム毎に設定した人物領域の情報を、解析処理優先度算出部15に送信する(図9の矢印Y2)。このとき、顔位置検出部11は、撮影した監視カメラ20を特定するカメラIDと、フレームが撮影された時の日時情報と、フレーム全体の画像情報と、人物領域の範囲を特定する情報とを、解析対象データとして、解析処理優先度算出部15に送信する。   Then, the face position detection unit 11 transmits information on the person area set for each frame of the video captured by each monitoring camera 20 to the analysis processing priority calculation unit 15 (arrow Y2 in FIG. 9). At this time, the face position detection unit 11 includes a camera ID that identifies the captured surveillance camera 20, date information when the frame is captured, image information of the entire frame, and information that identifies the range of the person area. The data to be analyzed is transmitted to the analysis processing priority calculation unit 15.

上記解析処理優先度算出部15(物体位置判定手段、優先度設定手段)は、顔位置検出部11から送信された上記解析対象データを受信し、各人物領域の優先度を算出する。具体的に、解析処理優先度算出部15は、まず、解析対象データから撮影した監視カメラ20のカメラIDと人物領域の範囲を特定する情報とを抽出すると共に、抽出したカメラIDと同一の監視カメラ20について設定されている特定領域情報を解析優先撮影領域情報記憶部17から取得する(図9の矢印Y3)。ここで、上記特定領域情報とは、監視カメラ20で撮影されるフレーム内における予め設定された特定領域を示す情報であり、各監視カメラ20毎に設定されている。   The analysis processing priority calculation unit 15 (object position determination unit, priority setting unit) receives the analysis target data transmitted from the face position detection unit 11 and calculates the priority of each person area. Specifically, the analysis processing priority calculation unit 15 first extracts the camera ID of the monitoring camera 20 taken from the analysis target data and information for specifying the range of the person area, and monitors the same as the extracted camera ID. The specific area information set for the camera 20 is acquired from the analysis priority imaging area information storage unit 17 (arrow Y3 in FIG. 9). Here, the specific area information is information indicating a predetermined specific area in a frame shot by the monitoring camera 20 and is set for each monitoring camera 20.

例えば、上記特定領域は、図4に示すように、上段図のカメラIDが「001」の監視カメラ20については、符号R11,R12に示す矩形の領域が設定されており、下段図のカメラIDが「002」の監視カメラ20については、符号R21,R22に示す矩形の領域が設定されている。そして、実際に特定領域の情報は、図5に示すように、矩形である特定領域の四隅の座標にて表されており、カメラIDと予め設定された優先度とが関連付けられて、解析優先撮影領域情報記憶部17に記憶されている。なお、各特定領域に関連付けられている優先度は、例えば0より大きい値であり、特定領域の位置に応じて管理者側によって予め設定された値が記憶されていている。但し、各特定領域に関連付けられている優先度は、解析処理の結果に応じて更新されてもよい。また、特定領域は、必ずしも矩形であることに限定されない。   For example, as shown in FIG. 4, for the monitoring area 20 with the camera ID “001” in the upper diagram, the specific area is set to a rectangular area indicated by reference numerals R11 and R12. For the monitoring camera 20 with "002", rectangular areas indicated by reference numerals R21 and R22 are set. As shown in FIG. 5, the information on the specific area is actually represented by the coordinates of the four corners of the specific area that is a rectangle, and the camera ID is associated with the preset priority, and analysis priority is given. It is stored in the shooting area information storage unit 17. The priority associated with each specific area is, for example, a value larger than 0, and a value preset by the administrator side according to the position of the specific area is stored. However, the priority associated with each specific area may be updated according to the result of the analysis process. Further, the specific area is not necessarily limited to a rectangle.

そして、解析処理優先度算出部15は、顔位置検出部11から送信された人物領域が、当該人物領域のフレームを撮影した監視カメラ20について設定された特定領域に位置するか否かを判定する(図10のステップS3)。このとき、解析処理優先度算出部15は、人物領域の少なくとも一部が特定領域内に位置している場合には、人物領域が特定領域に位置している、と判定する。具体的には、まず、判定対象である人物領域が含まれるフレームが撮影されたカメラIDを取得し、当該カメラIDと同一のカメラIDに関連付けられている特定領域の座標を読み出す。そして、判定対象となっている人物領域の少なくとも一部の座標が、同一の監視カメラ20について設定された特定領域内に位置しているか否かを判定する。   Then, the analysis processing priority calculation unit 15 determines whether or not the person region transmitted from the face position detection unit 11 is located in a specific region set for the monitoring camera 20 that has captured the frame of the person region. (Step S3 in FIG. 10). At this time, the analysis processing priority calculation unit 15 determines that the person area is located in the specific area when at least a part of the person area is located in the specific area. Specifically, first, a camera ID in which a frame including a person area to be determined is captured is acquired, and coordinates of a specific area associated with the same camera ID as the camera ID are read out. Then, it is determined whether or not at least some of the coordinates of the person region that is the determination target are located within a specific region set for the same monitoring camera 20.

ここで、上述した図3に示すよう人物領域A11等が設定され、図4に示すような特定領域R11等が設定されている場合には、人物領域A11等と特定領域R11等との関係は図6に示すようになる。この場合は、カメラIDが「001」の監視カメラ20から取得したフレーム内の人物領域A11,A13が、同一のカメラIDが「001」の監視カメラ20に関連付けられた特定領域R11,R12に位置する、と判定される。また、カメラIDが「002」の監視カメラ20から取得したフレーム内の人物領域A21が、同一のカメラIDが「002」の監視カメラ20に関連付けられた特定領域R21に位置する、と判定される。一方で、人物領域A12,A22は、特定領域に位置しない、と判定される。   Here, when the person area A11 and the like are set as shown in FIG. 3 and the specific area R11 and the like as shown in FIG. 4 are set, the relationship between the person area A11 and the specific area R11 is As shown in FIG. In this case, the person areas A11 and A13 in the frame acquired from the monitoring camera 20 with the camera ID “001” are positioned in the specific areas R11 and R12 associated with the monitoring camera 20 with the same camera ID “001”. It is determined that Further, it is determined that the person area A21 in the frame acquired from the monitoring camera 20 with the camera ID “002” is located in the specific area R21 associated with the monitoring camera 20 with the same camera ID “002”. . On the other hand, it is determined that the person areas A12 and A22 are not located in the specific area.

そして、解析処理優先度算出部15は、上述した判定結果に基づいて、各人物領域に対して、解析処理を実行する優先度合いを表す優先度を設定する。具体的に、特定領域に位置すると判定された人物領域に対しては、その特定領域に関連付けられた優先度の値に基づく優先度を設定する。例えば、特定領域に関連付けられた優先度のそのままの値が、あるいは、優先度の値に所定の重みが乗算された値が、人物領域の優先度として設定されることで、当該人物領域の優先度は0より大きい値となる。一方、特定領域に位置しないと判定された人物領域に対しては、優先度は0に設定される。これにより、特定領域に位置すると判定された人物領域の優先度の値が、特定領域に位置しないと判定された人物領域の優先度の値よりも高くなるよう設定される(図10のステップS4)。   And the analysis process priority calculation part 15 sets the priority showing the priority which performs an analysis process with respect to each person area | region based on the determination result mentioned above. Specifically, a priority based on a priority value associated with the specific area is set for a person area determined to be located in the specific area. For example, the priority of the person area is set by setting the priority value associated with the specific area as it is or the value obtained by multiplying the priority value by a predetermined weight as the priority of the person area. The degree is greater than zero. On the other hand, the priority is set to 0 for the person area determined not to be located in the specific area. Thereby, the priority value of the person area determined to be located in the specific area is set to be higher than the priority value of the person area determined not to be located in the specific area (step S4 in FIG. 10). ).

その後、解析処理優先度算出部15は、フレーム全体の画像情報や撮影された時の日時情報、人物領域の範囲を特定する情報などの解析対象データに、当該人物領域に対して設定した優先度の情報を付加して、解析処理優先度制御部16に送信する(図9の矢印Y4)。   After that, the analysis processing priority calculation unit 15 sets the priority set for the person area in the analysis target data such as the image information of the entire frame, the date / time information at the time of shooting, and the information specifying the range of the person area. Is sent to the analysis processing priority control unit 16 (arrow Y4 in FIG. 9).

上記解析処理優先度制御部16(解析処理手段)は、解析処理優先度算出部15から受け取った解析対象データに基づいて、解析処理タスクを生成し、解析処理タスク群記憶部18に記憶する(図9の矢印Y5)。具体的に、解析処理優先度制御部16は、予め設定されている解析処理手順の情報と、受信した解析対象データとに基づいて、各解析対象データの人物領域毎にタスクIDを割り当て、解析処理内容(解析エンジン名)と、優先度と、人物領域が含まれるフレームが撮影された時刻情報と、を関連付けて、解析処理タスク群記憶部18として記憶する。ここで、図7に、解析処理タスク群記憶部18に記憶された解析処理タスクの一例を示す。この図において、右端の「解析データ」が、人物領域の範囲に位置する画像情報であり、これに上述した撮影された日時情報や優先度、解析エンジンが関連付けられた状態となる。   The analysis processing priority control unit 16 (analysis processing means) generates an analysis processing task based on the analysis target data received from the analysis processing priority calculation unit 15 and stores it in the analysis processing task group storage unit 18 ( Arrow Y5 in FIG. 9). Specifically, the analysis processing priority control unit 16 assigns a task ID to each person area of each analysis target data based on information on the analysis processing procedure set in advance and the received analysis target data, and performs analysis. The processing contents (analysis engine name), the priority, and the time information when the frame including the person area is captured are associated and stored as the analysis processing task group storage unit 18. Here, FIG. 7 shows an example of the analysis processing task stored in the analysis processing task group storage unit 18. In this figure, “analysis data” at the right end is image information located in the range of the person area, and the above-described imaged date / time information, priority, and analysis engine are associated with each other.

なお、本実施形態では、解析処理優先度制御部16にて実行が制御される解析処理は、顔特徴解析部12にて実行される人物領域内に映っている人物の顔の特徴量を抽出する特徴量抽出処理と、顔照合部13にて実行される抽出した人物の顔の特徴量と予め登録されている特徴量とを照合して人物を特定する照合処理と、である。そして、予め登録されている特徴量とは、解析により発見したい人物の顔の特徴量であり、事前に生成した特徴量が顔特徴情報データベース14に記憶されている。但し、本発明では、解析処理優先度制御部16にて実行が制御される解析処理は、上述した解析処理に限定されない。   In the present embodiment, the analysis process whose execution is controlled by the analysis process priority control unit 16 extracts the facial feature amount of the person shown in the person area executed by the face feature analysis unit 12. And a collation process for identifying a person by collating the extracted feature quantity of the person's face with a pre-registered feature quantity, which is executed by the face collating unit 13. The feature amount registered in advance is a feature amount of a person's face to be found by analysis, and the feature amount generated in advance is stored in the face feature information database 14. However, in the present invention, the analysis process whose execution is controlled by the analysis process priority control unit 16 is not limited to the analysis process described above.

そして、解析処理優先度制御部16は、上記図7に示したように生成して記憶した解析処理タスク群の表を、図8に示すように、優先度の高い順にソートする。そして、解析処理優先度制御部16は、優先度が高い順にソートした解析処理タスク群の表に従って、人物領域に対する解析処理を実行するよう制御する。つまり、設定された優先度が高い順に、人物領域内の画像情報に対して特徴量抽出処理と照合処理を実行するよう、顔特徴解析部12及び顔照合部13による解析処理を制御する(図10のステップS5、図9の矢印Y5,Y6,Y7,Y8)。   Then, the analysis processing priority control unit 16 sorts the table of analysis processing task groups generated and stored as shown in FIG. 7 in descending order of priority as shown in FIG. Then, the analysis processing priority control unit 16 performs control so as to execute the analysis processing for the person area according to the table of analysis processing task groups sorted in descending order of priority. That is, the analysis processing by the face feature analysis unit 12 and the face matching unit 13 is controlled so that the feature amount extraction processing and the matching processing are executed on the image information in the person area in descending order of the set priority (see FIG. 10 step S5, arrows Y5, Y6, Y7, Y8 in FIG. 9).

その後、解析処理優先度制御部16は、最終的な解析結果をアラーム表示アプリケーション30に通知する(図9の矢印Y9)。ここでは、照合処理により顔特徴情報データベースに登録されている人物が検出された場合に、その人物の情報と共に、フレームを撮影した日時情報や監視カメラ20のカメラID、フレーム内における座標などの撮影した映像に関する情報を、通知する。   Thereafter, the analysis processing priority control unit 16 notifies the alarm analysis application 30 of the final analysis result (arrow Y9 in FIG. 9). Here, when a person registered in the face feature information database is detected by the collation processing, information on the date, the camera ID of the monitoring camera 20, the coordinates in the frame, etc. are taken together with the person information. Notify information related to the recorded video.

これにより、特定領域に人物の顔が映し出された場合には、かかる人物の顔の領域である人物領域の画像情報に対する解析処理が優先的に実行される。このため、特定領域付近の解析処理を高速に行うことができ、迅速に人物検出を行うことができる。   As a result, when a person's face is projected in the specific area, the analysis processing for the image information of the person area, which is the person's face area, is preferentially executed. Therefore, analysis processing in the vicinity of the specific area can be performed at high speed, and person detection can be performed quickly.

なお、上記構成に加えて、解析処理優先度算出部15は、解析優先撮影領域情報記憶部17に記憶された特定領域の優先度を更新する処理を実行してもよい。一例として、上述した人物領域が特定領域に位置するか否かの判定結果に応じて、人物領域が特定領域に位置する所定時間当たりの回数や全体に対する割合に応じて、当該特定領域の優先度の値を変更する更新を行ってもよい。具体的には、回数が多かったり割合が大きい場合には、優先度の値を高く変更してもよい。   In addition to the above configuration, the analysis processing priority calculation unit 15 may execute a process of updating the priority of the specific area stored in the analysis priority imaging area information storage unit 17. As an example, according to the determination result of whether or not the above-described person area is located in the specific area, the priority of the specific area depends on the number of times the person area is located in the specific area and the ratio to the whole area. An update may be performed to change the value of. Specifically, when the number of times is large or the ratio is large, the priority value may be changed to a higher value.

<実施形態2>
本発明の第2の実施形態を、図11乃至図17を参照して説明する。図11は、映像解析システムの構成を示す図であり、図12乃至図15は、映像解析システムに記憶されているデータや解析処理の様子を示す図である。図16乃至図17は、映像解析システムの動作を示す図である。
<Embodiment 2>
A second embodiment of the present invention will be described with reference to FIGS. FIG. 11 is a diagram illustrating a configuration of the video analysis system, and FIGS. 12 to 15 are diagrams illustrating data stored in the video analysis system and a state of analysis processing. 16 to 17 are diagrams illustrating the operation of the video analysis system.

本実施形態における映像解析システム10は、上述した実施形態1とほぼ同一の構成をとっている。つまり、映像解析システム10は、装備された演算装置にプログラムが組み込まれることで構築された、顔位置検出部11、顔特徴解析部12、顔照合部13、解析処理優先度算出部15、解析処理優先度制御部16、を備えている。また、映像解析システム10は、装備された記憶装置に、顔特徴情報データベース14、解析優先撮影領域情報記憶部17、解析処理タスク群記憶部18、を備えている。そして、本実施形態における映像解析システムは、上記構成に加え、図11に示すように、フレーム顔位置情報記憶部19を有しており、また、解析処理優先度算出部15の機能が異なる。以下、主に実施形態1と異なる構成について詳しく説明する。   The video analysis system 10 in the present embodiment has almost the same configuration as that of the first embodiment described above. That is, the video analysis system 10 includes a face position detection unit 11, a face feature analysis unit 12, a face collation unit 13, an analysis processing priority calculation unit 15, and an analysis, which are constructed by incorporating a program into an equipped arithmetic device. A processing priority control unit 16 is provided. In addition, the video analysis system 10 includes a face feature information database 14, an analysis priority shooting area information storage unit 17, and an analysis processing task group storage unit 18 in a storage device that is equipped. In addition to the above configuration, the video analysis system according to the present embodiment includes a frame face position information storage unit 19 as shown in FIG. 11, and the function of the analysis processing priority calculation unit 15 is different. Hereinafter, the configuration different from the first embodiment will be mainly described in detail.

本実施形態における顔位置検出部11(物体検出手段)は、上記各監視カメラ20にて撮影され当該各監視カメラ20から送信された映像を取得し(図16の矢印Y1、図17のステップS11)、取得した映像のフレーム毎に、当該フレーム内に映っている人間の顔を検出する。なお、顔を検出する処理については実施形態1で説明したとおりである。   The face position detection unit 11 (object detection means) in the present embodiment obtains an image captured by each monitoring camera 20 and transmitted from each monitoring camera 20 (arrow Y1 in FIG. 16, step S11 in FIG. 17). ) For each frame of the acquired video, the human face reflected in the frame is detected. The process for detecting a face is as described in the first embodiment.

そして、顔位置検出部11は、フレーム内において、検出した人間の顔の位置を基準として当該顔が含まれる範囲の画像領域を、人物領域(物体領域)として設定する(図17のステップS12)。なお、人物領域の設定処理は実施形態1で説明したとおりである。   Then, the face position detection unit 11 sets, as a person area (object area), an image area in a range including the face with reference to the detected position of the human face in the frame (step S12 in FIG. 17). . The person area setting process is as described in the first embodiment.

そして、顔位置検出部11は、各監視カメラ20にて撮影された映像のフレーム毎に設定した人物領域の情報を、解析処理優先度算出部15に送信する(図16の矢印2)。このとき、顔位置検出部11は、撮影した監視カメラ20を特定するカメラIDと、フレームが撮影された時の日時情報と、フレーム全体の画像情報と、人物領域の範囲を特定する情報とを、解析対象データとして解析処理優先度算出部15に送信する。なお、顔位置検出部11は、各監視カメラ20からフレームが取得されると、順次、上述したように人物領域を特定し、解析処理優先度算出部15に送信する。   Then, the face position detection unit 11 transmits information on the person area set for each frame of the video captured by each monitoring camera 20 to the analysis processing priority calculation unit 15 (arrow 2 in FIG. 16). At this time, the face position detection unit 11 includes a camera ID that identifies the captured surveillance camera 20, date information when the frame is captured, image information of the entire frame, and information that identifies the range of the person area. Then, it is transmitted to the analysis processing priority calculation unit 15 as analysis target data. In addition, when a frame is acquired from each monitoring camera 20, the face position detection unit 11 sequentially identifies a person area as described above and transmits the person region to the analysis processing priority calculation unit 15.

上記解析処理優先度算出部15(物体領域情報記憶処理手段、新規物体領域特定手段)は、顔位置検出部11から送信された上記解析対象データを受信して記憶すると共に、同一の監視カメラ20にて撮影した過去(例えば、直前)のフレームに対して新たに出現した物体が含まれる領域(物体領域)を、新規物体領域として特定する。   The analysis processing priority calculation unit 15 (object region information storage processing unit, new object region specifying unit) receives and stores the analysis target data transmitted from the face position detection unit 11 and also uses the same monitoring camera 20. A region (object region) that includes an object that has newly appeared in the past (for example, immediately before) frame captured in step (b) is specified as a new object region.

具体的に、解析処理優先度算出部15は、まず、顔位置検出部11から送信された解析対象データを受信して、当該解析対象データをフレーム顔位置情報記憶部19に記憶する(図16の矢印Y3’、図17のステップS13)。このとき、記憶される解析対象データは、図12に示すように、フレーム全体の画像情報に、撮影した監視カメラ20のカメラIDと人物領域の範囲を特定する情報と撮影された日時情報とを少なくとも含んでいる。なお、解析処理優先度算出部15は、顔位置検出部11から解析対象データを受信するごとに、当該解析対象データをフレーム顔位置情報記憶部19に記憶する。   Specifically, the analysis processing priority calculation unit 15 first receives the analysis target data transmitted from the face position detection unit 11, and stores the analysis target data in the frame face position information storage unit 19 (FIG. 16). Arrow Y3 ', step S13 in FIG. At this time, as shown in FIG. 12, the analysis target data stored includes, in the image information of the entire frame, information that identifies the camera ID of the captured surveillance camera 20, the range of the person area, and the captured date and time information. At least. The analysis processing priority calculation unit 15 stores the analysis target data in the frame face position information storage unit 19 every time the analysis target data is received from the face position detection unit 11.

続いて、解析処理優先度算出部15は、顔位置検出部11から新規に解析対象データを受信すると、受信した解析対象データに対応するフレームを撮影した監視カメラ20と同一の監視カメラ20にて撮影された過去のフレームに関する解析対象データを、フレーム顔位置情報記憶部19から読み出す(図16の矢印Y3’)。例えば、新規の解析対象データに含まれるカメラIDや撮影日時に基づいて、同一の監視カメラ20にて撮影された直前のフレームの解析対象データと読み取る。   Subsequently, when the analysis processing priority calculation unit 15 newly receives the analysis target data from the face position detection unit 11, the analysis processing priority calculation unit 15 uses the same monitoring camera 20 as the monitoring camera 20 that captured the frame corresponding to the received analysis target data. Data to be analyzed relating to the captured past frame is read from the frame face position information storage unit 19 (arrow Y3 ′ in FIG. 16). For example, based on the camera ID and shooting date / time included in the new analysis target data, the analysis target data of the immediately previous frame shot by the same monitoring camera 20 is read.

ここで、解析処理優先度算出部15が、例えば、図13(B)に示すように、カメラIDが「001」の監視カメラ20にて撮影したフレームの解析対象データを新規に受信し、図13(A)に示すように同一のカメラID「001」の監視カメラ20にて直前に撮影したフレームの解析対象データを、フレーム顔位置情報記憶部19から読み出した場合を考える。なお、図13(B)に示す新規のフレームでは、人間の顔に対応する人物領域A41,A42,A43,A44が設定されており、図13(A)に示すその直前(過去)のフレームでは、人間の顔に対応する人物領域A31,A32,A33が設定されている。   Here, for example, as shown in FIG. 13B, the analysis processing priority calculation unit 15 newly receives analysis target data of a frame shot by the monitoring camera 20 with the camera ID “001”. Assume that the analysis target data of the frame captured immediately before by the monitoring camera 20 with the same camera ID “001” is read from the frame face position information storage unit 19 as shown in FIG. In the new frame shown in FIG. 13B, person areas A41, A42, A43, and A44 corresponding to the human face are set, and in the frame immediately before (past) shown in FIG. Person areas A31, A32, A33 corresponding to human faces are set.

続いて、解析処理優先度算出部15は、新規のフレーム内における人物領域の数が、直前のフレーム内における人物領域の数よりも増加している場合には(図17のステップS14でYes)、新規に顔領域が追加されたと判断する。そして、解析処理優先度算出部15は、直前のフレームにおける人物領域A31〜A33に対して、新規のフレーム内における人物領域A41〜A44の対応付けを行う。このとき、例えば、直前のフレームにおける各人物領域A31〜A33に対して、人物領域間の距離が短い新規のフレームにおける人物領域A41〜A44を対応付ける。   Subsequently, the analysis processing priority calculation unit 15 determines that the number of person areas in the new frame is larger than the number of person areas in the immediately preceding frame (Yes in step S14 in FIG. 17). It is determined that a new face area has been added. Then, the analysis processing priority calculation unit 15 associates the person areas A41 to A44 in the new frame with the person areas A31 to A33 in the immediately preceding frame. At this time, for example, the person areas A41 to A44 in the new frame with a short distance between the person areas are associated with the person areas A31 to A33 in the immediately preceding frame.

具体的に、解析処理優先度算出部15による対応付けの処理を、図14を参照して説明する。図14(A)は、同一の監視カメラ20で撮影した新規のフレームにおける人物領域(実線)(図13(B))と、直前のフレームにおける人物領域(点線)(図13(A))と、を重ね合わせたときの様子を示しており、図14(B)は、各人物領域を対応付ける処理の様子を示している。図14(B)に示すように、新規のフレームの人物領域(実線)の一点である矩形の左上の角から、直前のフレームの人物領域(点線)の一点である矩形の左上の角までの距離を調べ(図17のステップS15)、かかる距離が最も短い人物領域同士を対応付ける(図17のステップS16)。その後、残りの人物領域間の距離を調べ、かかる距離が最も短い人物領域同士を付け、かかる処理を繰り返す(図17のステップS15,S16を繰り返す)。ここでは、直前のフレームにおける人物領域A31と新規のフレームにおける人物領域A41とが対応付けられ、人物領域A32とA42、人物領域A33とA43がそれぞれ対応付けられる。すると、新規のフレームにおける人物領域A44が、直前のフレームにおけるいずれの人物領域に対応付けられないこととなる。   Specifically, the association processing by the analysis processing priority calculation unit 15 will be described with reference to FIG. FIG. 14A shows a person area (solid line) (FIG. 13B) in a new frame photographed by the same monitoring camera 20, and a person area (dotted line) (FIG. 13A) in the immediately preceding frame. , And FIG. 14B shows a state of processing for associating each person area. As shown in FIG. 14B, from the upper left corner of the rectangle which is one point of the person area (solid line) of the new frame to the upper left corner of the rectangle which is one point of the person area (dotted line) of the previous frame The distance is checked (step S15 in FIG. 17), and the person regions having the shortest distance are associated with each other (step S16 in FIG. 17). Thereafter, the distance between the remaining person areas is checked, the person areas with the shortest distance are attached, and this process is repeated (steps S15 and S16 in FIG. 17 are repeated). Here, the person area A31 in the immediately preceding frame is associated with the person area A41 in the new frame, and the person areas A32 and A42 and the person areas A33 and A43 are associated with each other. Then, the person area A44 in the new frame is not associated with any person area in the immediately preceding frame.

さらに、解析処理優先度算出部15は、対応づけられなかった新規のフレームにおける人物領域A44から直前のフレームにおける全ての人物領域A31,A32,A33までの距離をそれぞれ調べる。そして、解析処理優先度算出部15は、対応づけられなかった新規のフレームにおける人物領域A44から直前のフレームにおける人物領域A31等までの距離が予め設定された値以上である場合に、対応づけられなかった人物領域A44を、新規物体領域として特定する(図17のステップS17)。ここで、新規物体領域とは、直前のフレーム内に対して新規のフレーム内に新たに出現した人物が含まれる物体領域である。   Furthermore, the analysis processing priority calculation unit 15 examines the distances from the person area A44 in the new frame that is not associated to all the person areas A31, A32, and A33 in the immediately preceding frame. Then, the analysis processing priority calculation unit 15 is associated when the distance from the person area A44 in the new frame that has not been associated to the person area A31 in the immediately preceding frame is equal to or greater than a preset value. The missing person area A44 is specified as a new object area (step S17 in FIG. 17). Here, the new object region is an object region including a person who newly appears in a new frame with respect to the previous frame.

なお、解析処理優先度算出部15は、対応付けられなかった人物領域A44を、当該人物領域A44から直前のフレームにおける全ての人物領域A31,A32,A33までの距離を調べることなく、新規物体領域として特定してもよい。また、解析処理優先度算出部15は、上述したように、各人物領域間の距離が最も短いもの同士から対応付けることなく、各人物領域間の距離が予め設定された距離より短いもの同士を対応付け、対応づけられなかった人物領域を新規物体領域として特定してもよい。   The analysis processing priority calculation unit 15 determines the new object region A44 as the new object region A44 without examining the distances from the person region A44 to all the person regions A31, A32, A33 in the immediately preceding frame. May be specified. In addition, as described above, the analysis processing priority calculation unit 15 does not associate each person area with the shortest distance, and associates each person area with a distance shorter than a preset distance. In addition, the person area that is not associated may be specified as the new object area.

ここで、解析処理優先度算出部15が新規物体領域を特定する方法は、上述した方法に限定されない。例えば、人物領域間を対応付ける際に算出する各人物領域間の距離は、当該各人物領域の重心点同士の距離を用いてもよく、他の基準に基づいて、人物領域間を対応づけてもよい。例えば、各人物領域間の距離を用いることなく、新規のフレームにおける人物領域の面積と、直前のフレームにおける人物領域の面積と、を比較して、各面積の差が小さいものから人物領域間の対応付けを行ってもよく、各面積の差が一定値より小さいもの同士を対応付けてもよい。   Here, the method by which the analysis processing priority calculation unit 15 specifies the new object region is not limited to the method described above. For example, the distance between the person areas calculated when associating the person areas may be the distance between the centroids of the person areas, or the person areas may be associated with each other based on other criteria. Good. For example, comparing the area of the person area in the new frame and the area of the person area in the previous frame without using the distance between the person areas, Corresponding may be performed, and those having a difference of each area smaller than a certain value may be associated.

また、上記では、新規のフレームにおける新規物体領域を特定する方法として、新規のフレームに対する直前のフレームを用いることを説明したが、新規のフレームに対して直前のフレームを用いるのではなく、さらに過去のフレームを用いてもよい。例えば、新規のフレームにおける人物領域に対して、過去の予め設定された時間内における1つあるいは複数のフレームにおける人物領域を対応付けることで、新規のフレーム内における新規物体領域を特定してもよい。   Also, in the above description, as a method for specifying a new object region in a new frame, the use of the immediately preceding frame with respect to the new frame has been described. The frame may be used. For example, the new object area in the new frame may be specified by associating the person area in the new frame with the person area in one or a plurality of frames in the past preset time.

続いて、解析処理優先度算出部15(物体位置判定手段、優先度設定手段)は、上記新規物体領域として特定された人物領域の優先度を算出する。具体的に、解析処理優先度算出部15は、新規物体領域として特定された人物領域が含まれるフレームが撮影された監視カメラ20のカメラIDから、同一の監視カメラ20について設定されている特定領域情報を解析優先撮影領域情報記憶部17から取得する(図16の矢印Y3)。ここで、上記特定領域情報とは、監視カメラ20で撮影されるフレーム内における予め設定された特定領域を示す情報であり、各監視カメラ20毎に設定されている。なお、特定領域は実施形態1で説明したものと同一であることとし、その詳細な説明は省略する。   Subsequently, the analysis processing priority calculation unit 15 (object position determination means, priority setting means) calculates the priority of the person area specified as the new object area. Specifically, the analysis processing priority calculation unit 15 specifies the specific area set for the same monitoring camera 20 from the camera ID of the monitoring camera 20 in which the frame including the person area specified as the new object area is captured. Information is acquired from the analysis priority imaging region information storage unit 17 (arrow Y3 in FIG. 16). Here, the specific area information is information indicating a predetermined specific area in a frame shot by the monitoring camera 20 and is set for each monitoring camera 20. The specific area is the same as that described in the first embodiment, and detailed description thereof is omitted.

そして、解析処理優先度算出部15は、新規物体領域として特定された人物領域が、当該人物領域のフレームを撮影した監視カメラ20について設定された特定領域に位置するか否かを判定する。このとき、解析処理優先度算出部15は、人物領域の少なくとも一部が特定領域内に位置している場合には、人物領域が特定領域に位置している、と判定する。   Then, the analysis processing priority calculation unit 15 determines whether or not the person area specified as the new object area is located in the specified area set for the monitoring camera 20 that captured the frame of the person area. At this time, the analysis processing priority calculation unit 15 determines that the person area is located in the specific area when at least a part of the person area is located in the specific area.

ここで、図15の上段図は、カメラIDが「001」の監視カメラ20について設定された特定領域R11,R12(点線)の位置を示しており、また、同一の監視カメラ20から取得したフレーム内の人物領域A44が新規物体領域として特定された場合を示している。この場合は、新規物体領域として特定された人物領域A44は、特定領域に位置しているとは判定されない。また、図15の下段図は、カメラIDが「002」の監視カメラ20について設定された特定領域R21,R22(点線)の位置を示しており、また、同一の監視カメラ20から取得したフレーム内の人物領域A51が新規物体領域として特定された場合を示している。この場合は、新規物体領域として特定された人物領域A51は、特定領域に位置していると判定される。   Here, the upper diagram in FIG. 15 shows the positions of the specific areas R11 and R12 (dotted lines) set for the monitoring camera 20 with the camera ID “001”, and the frames acquired from the same monitoring camera 20 are shown. In the figure, a person area A44 is identified as a new object area. In this case, it is not determined that the person area A44 specified as the new object area is located in the specific area. The lower diagram of FIG. 15 shows the positions of the specific areas R21 and R22 (dotted lines) set for the monitoring camera 20 with the camera ID “002”. In addition, in the frame acquired from the same monitoring camera 20 The person area A51 is identified as a new object area. In this case, it is determined that the person area A51 specified as the new object area is located in the specific area.

そして、解析処理優先度算出部15は、上述した判定結果に基づいて、各人物領域に対して、解析処理を実行する優先度合いを表す優先度を設定する。具体的に、新規物体領域として特定された人物領域に対しては、他の人物領域よりも高い値の優先度の値を設定する。例えば、新規物体領域に特定された人物領域の優先度は0より大きい値に設定され、それ以外の人物領域の優先度は0に設定される。また、新規物体領域に特定された人物領域のうち、上述したように特定領域に位置すると判定された人物領域については、さらに高い値の優先度の値を設定する。これにより、新規物体領域であり特定領域に位置する人物領域、新規物体領域であるが特定領域に位置しない人物領域、その他の人物領域、の順に高い値の優先度が設定される(図17のステップS17)。   And the analysis process priority calculation part 15 sets the priority showing the priority which performs an analysis process with respect to each person area | region based on the determination result mentioned above. Specifically, a higher priority value than the other person areas is set for the person area specified as the new object area. For example, the priority of the person area specified as the new object area is set to a value greater than 0, and the priorities of the other person areas are set to 0. Further, among the person areas specified as the new object area, a higher priority value is set for the person area determined to be located in the specific area as described above. As a result, a higher priority is set in the order of the person area that is the new object area and located in the specific area, the person area that is the new object area but is not located in the specific area, and the other person areas (FIG. 17). Step S17).

その後、解析処理優先度算出部15は、フレーム全体の画像情報や撮影された時の日時情報、人物領域の範囲を特定する情報などの解析対象データに、当該人物領域に対して設定した優先度の情報を付加して、解析処理優先度制御部16に送信する(図16の矢印Y4)。   After that, the analysis processing priority calculation unit 15 sets the priority set for the person area in the analysis target data such as the image information of the entire frame, the date / time information at the time of shooting, and the information specifying the range of the person area. Is sent to the analysis processing priority control unit 16 (arrow Y4 in FIG. 16).

上記解析処理優先度制御部16(解析処理手段)は、実施形態1と同様に、解析処理優先度算出部15から受け取った解析対象データに基づいて、解析処理タスクを生成し、解析処理タスク群記憶部18に記憶する(図16の矢印Y5)。そして、解析処理優先度制御部16は、解析処理タスク群の表を優先度の高い順にソートして、優先度が高い順に、人物領域に対する解析処理を実行するよう制御する。つまり、設定された優先度が高い順に、人物領域内の画像情報に対して特徴量抽出処理と照合処理を実行するよう、顔特徴解析部12及び顔照合部13による解析処理を制御する(図17のステップS18、図16の矢印Y5,Y6,Y7,Y8)。   Similar to the first embodiment, the analysis processing priority control unit 16 (analysis processing unit) generates an analysis processing task based on the analysis target data received from the analysis processing priority calculation unit 15, and generates an analysis processing task group. It memorize | stores in the memory | storage part 18 (arrow Y5 of FIG. 16). Then, the analysis processing priority control unit 16 sorts the table of the analysis processing task group in descending order of priority, and performs control so as to execute the analysis processing on the person region in descending order of priority. That is, the analysis processing by the face feature analysis unit 12 and the face matching unit 13 is controlled so that the feature amount extraction processing and the matching processing are executed on the image information in the person area in descending order of the set priority (see FIG. 17 (step S18, arrows Y5, Y6, Y7, Y8 in FIG. 16).

その後、解析処理優先度制御部16は、最終的な解析結果をアラーム表示アプリケーション30に通知する(図16の矢印Y9)。ここでは、照合処理により顔特徴情報データベースに登録されている人物が検出された場合に、その人物の情報と共に、フレームを撮影した日時情報や監視カメラ20のカメラID、フレーム内における座標などの撮影した映像に関する情報を、通知する。   Thereafter, the analysis processing priority control unit 16 notifies the final analysis result to the alarm display application 30 (arrow Y9 in FIG. 16). Here, when a person registered in the face feature information database is detected by the collation processing, information on the date, the camera ID of the monitoring camera 20, the coordinates in the frame, etc. are taken together with the person information. Notify information related to the recorded video.

これにより、新規のフレームに新たに人物の顔が出現した場合には、かかる人物の顔の領域である人物領域の画像情報に対する解析処理が優先的に実行される。特に、新規のフレームに新たに出現した人物領域が特定領域に位置している場合には、かかる人物領域の画像情報に対する解析処理がさらに優先的に実行される。このため、必要とされる画像領域の解析処理を高速に行うことができ、迅速に人物検出を行うことができる。   As a result, when a new human face appears in a new frame, the analysis processing for the image information of the human area, which is the human face area, is preferentially executed. In particular, when a person area newly appearing in a new frame is located in a specific area, the analysis process for the image information of the person area is further preferentially executed. For this reason, analysis processing of a required image area can be performed at high speed, and person detection can be performed quickly.

ここで、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。   Here, the above-described program is stored in a storage device or recorded on a computer-readable recording medium. For example, the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。   Although the present invention has been described with reference to the above-described embodiment and the like, the present invention is not limited to the above-described embodiment. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における解析処理装置(図18参照)、プログラム、解析処理方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
<Appendix>
Part or all of the above-described embodiment can be described as in the following supplementary notes. The outline of the configuration of the analysis processing apparatus (see FIG. 18), program, and analysis processing method in the present invention will be described below. However, the present invention is not limited to the following configuration.

(付記1−1)
カメラ110にて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出する物体検出手段101と、
前記画像内における前記物体検出手段101にて物体が検出された位置を基準とした所定範囲を物体領域として設定すると共に、当該物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定する物体位置判定手段102と、
前記物体位置判定手段102による判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定する優先度設定手段103と、
を備えた解析処理装置100。
(Appendix 1-1)
An object detection unit 101 that acquires an image captured by the camera 110 and detects an object having a preset feature in the acquired image;
A predetermined range based on the position where the object is detected by the object detection means 101 in the image is set as an object region, and whether or not the object region is located in a predetermined specific region in the image Object position determination means 102 for determining whether or not
A priority setting unit 103 for setting a priority indicating a priority level for executing a predetermined analysis process on the object region in accordance with a determination result by the object position determination unit 102;
The analysis processing apparatus 100 provided with.

(付記1−2)
付記1−1に記載の解析処理装置であって、
前記優先度設定手段は、前記物体位置判定手段による判定結果に応じて、前記特定領域に位置する前記物体領域の優先度が、前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
解析処理装置。
(Appendix 1-2)
The analysis processing device according to attachment 1-1,
The priority setting means is configured such that the priority of the object area located in the specific area is higher than the priority of the object area not located in the specific area according to the determination result by the object position determination means. Set,
Analysis processing device.

(付記1−3)
付記1−1又は1−2に記載の解析処理装置であって、
前記優先度設定手段は、前記特定領域毎に予め設定された優先度の値に基づいて、当該特定領域に位置する前記物体領域の優先度を設定する、
解析処理装置。
(Appendix 1-3)
The analysis processing device according to appendix 1-1 or 1-2,
The priority setting means sets the priority of the object region located in the specific region based on a priority value preset for each specific region;
Analysis processing device.

(付記1−4)
付記1−1乃至1−3のいずれかに記載の解析処理装置であって、
前記物体検出手段は、複数のカメラにてそれぞれ撮影した画像を取得すると共に、前記カメラ毎に取得した前記画像内において予め設定された特徴を有する物体を検出し、
前記物体位置判定手段は、前記カメラ毎に撮影した前記画像内における前記物体領域をそれぞれ設定すると共に、当該物体領域が、当該物体領域が設定された前記画像が撮影された前記カメラと同一のカメラについて予め設定された前記特定領域に位置するか否かを判定し、
前記優先度設定手段は、前記物体位置判定手段による判定結果に応じて、同一の前記カメラについて前記特定領域に位置する前記物体領域の優先度が、同一の前記カメラについて前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
解析処理装置。
(Appendix 1-4)
An analysis processing apparatus according to any one of appendices 1-1 to 1-3,
The object detection means acquires images captured by a plurality of cameras, detects an object having a preset feature in the images acquired for each camera,
The object position determination means sets the object region in the image captured for each camera, and the object region is the same camera as the camera from which the image in which the object region is set is captured. It is determined whether or not it is located in the specific area set in advance,
The priority setting unit is configured such that the priority of the object region located in the specific region with respect to the same camera is not located in the specific region with respect to the same camera according to a determination result by the object position determination unit. Set to be higher than the priority of the object area,
Analysis processing device.

(付記1−5)
付記1−4に記載の解析処理装置であって、
前記優先度設定手段は、前記カメラ毎及び前記特定領域毎に予め設定された優先度の値に基づいて、当該カメラについて設定された前記特定領域に位置する前記物体領域の優先度を設定する、
解析処理装置。
(Appendix 1-5)
The analysis processing apparatus according to appendix 1-4,
The priority setting means sets the priority of the object area located in the specific area set for the camera based on a priority value set in advance for each camera and for each specific area.
Analysis processing device.

(付記1−6)
付記1−1乃至1−5のいずれかに記載の解析処理装置であって、
前記優先度設定手段にて前記物体領域に設定された優先度の値が高い順に、当該物体領域内のデータに対する予め設定された解析処理を行う解析処理手段を備えた、
解析処理装置。
(Appendix 1-6)
An analysis processing apparatus according to any one of appendices 1-1 to 1-5,
An analysis processing means for performing a preset analysis process on the data in the object region in descending order of the priority values set in the object region by the priority setting unit;
Analysis processing device.

(付記1−7)
付記1−6に記載の解析処理装置であって、
前記解析処理手段は、前記予め設定された解析処理として、前記物体領域内のデータから予め設定された特徴量を抽出する特徴量抽出処理と、当該抽出した特徴量と予め設定された照合対象となる特徴量との照合を行う照合処理と、を行う、
解析処理装置。
(Appendix 1-7)
The analysis processing device according to attachment 1-6,
The analysis processing means includes, as the preset analysis process, a feature quantity extraction process for extracting a preset feature quantity from the data in the object region, and the extracted feature quantity and a preset collation target And a matching process for matching with the feature quantity
Analysis processing device.

(付記1−8)
情報処理装置に、
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出する物体検出手段と、
前記画像内における前記物体検出手段にて物体が検出された位置を基準とした所定範囲を物体領域として設定すると共に、当該物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定する物体位置判定手段と、
前記物体位置判定手段による判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定する優先度設定手段と、
を実現させるためのプログラム。
(Appendix 1-8)
In the information processing device,
An object detection means for acquiring an image captured by the camera and detecting an object having a preset feature in the acquired image;
A predetermined range based on the position where the object is detected by the object detection means in the image is set as an object area, and whether or not the object area is located in a predetermined specific area in the image Object position determination means for determining
Priority setting means for setting a priority indicating a priority level for executing a predetermined analysis process on the object region in accordance with a determination result by the object position determination means;
A program to realize

(付記1−9)
付記1−8に記載のプログラムであって、
前記優先度設定手段は、前記物体位置判定手段による判定結果に応じて、前記特定領域に位置する前記物体領域の優先度が、前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
プログラム。
(Appendix 1-9)
The program according to appendix 1-8,
The priority setting means is configured such that the priority of the object area located in the specific area is higher than the priority of the object area not located in the specific area according to the determination result by the object position determination means. Set,
program.

(付記1−10)
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出し、
前記画像内における物体が検出された位置を基準とした所定範囲を物体領域として設定すると共に、当該物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定し、
前記物体領域が前記特定領域に位置するか否かの判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定する、
解析処理方法。
(Appendix 1-10)
Acquire an image captured by the camera, and detect an object having a preset feature in the acquired image,
A predetermined range based on the position where the object is detected in the image is set as an object region, and it is determined whether the object region is located in a predetermined specific region in the image,
In accordance with a determination result of whether or not the object region is located in the specific region, a priority level representing a priority level for executing a predetermined analysis process on the object region is set.
Analysis processing method.

(付記1−11)
付記1−10に記載の解析処理方法であって、
前記優先度を設定する際に、前記物体領域が前記特定領域に位置するか否かの判定結果に応じて、前記特定領域に位置する前記物体領域の優先度が、前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
(Appendix 1-11)
The analysis processing method according to attachment 1-10, wherein:
When setting the priority, the priority of the object region located in the specific region is not located in the specific region according to a determination result of whether or not the object region is located in the specific region. Set to be higher than the priority of the object area,
Analysis processing method.

(付記2−1)
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段と、
過去に取得された前記画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された前記画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された前記画像内に対して新たに取得された前記画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定する新規物体領域特定手段と、
を備えた解析処理装置。
(Appendix 2-1)
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Object detection means to be set as
Object area information storage processing means for storing information of the object area in a storage device;
Based on the information of the object area stored in the storage device in the image acquired in the past and the information of the object area set by the object detection means in the newly acquired image, New object region specifying means for specifying, as a new object region, the object region that includes a newly appearing object in the image newly acquired in the image acquired in the past;
An analysis processing apparatus comprising:

(付記2−2)
付記2−1に記載の解析処理装置であって、
前記新規物体領域特定手段は、新たに取得された前記画像における前記物体検出手段にて設定された前記物体領域の情報と、直前に取得された前記画像における前記記憶装置に記憶された前記物体領域の情報と、に基づいて、直前に取得された前記画像内に対して新たに取得された前記画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定する、
解析処理装置。
(Appendix 2-2)
An analysis processing apparatus according to appendix 2-1,
The new object area specifying means includes information on the object area set by the object detection means in the newly acquired image, and the object area stored in the storage device in the image acquired immediately before And identifying the object region including an object that newly appears in the newly acquired image as the new object region based on the information of
Analysis processing device.

(付記2−3)
付記2−1又は2−2に記載の解析処理装置であって、
前記新規物体領域特定手段は、新たに取得された前記画像における前記物体検出手段にて設定された前記物体領域の情報と、過去に取得された前記画像における前記記憶装置に記憶された前記物体領域の情報と、に基づいて、予め設定された基準により、過去に取得された前記画像における前記物体領域に対して、新たに取得された前記画像における前記物体領域を対応付け、過去に取得された前記画像における前記物体領域に対応付けられない新たに取得された前記画像における前記物体領域を前記新規物体領域として特定する、
解析処理装置。
(Appendix 2-3)
The analysis processing device according to attachment 2-1 or 2-2,
The new object area specifying means includes information on the object area set by the object detection means in the newly acquired image, and the object area stored in the storage device in the image acquired in the past. And the object region in the newly acquired image is associated with the object region in the image acquired in the past according to a preset criterion based on the information of Identifying the object region in the newly acquired image that is not associated with the object region in the image as the new object region;
Analysis processing device.

(付記2−4)
付記2−3に記載の解析処理装置であって、
前記新規物体領域特定手段は、過去に取得された前記画像における前記物体領域に対する、新たに取得された前記画像における前記物体領域の距離に基づいて、前記物体領域間の対応付けを行う、
解析処理装置。
(Appendix 2-4)
The analysis processing device according to attachment 2-3,
The new object area specifying unit performs association between the object areas based on a distance of the object area in the newly acquired image with respect to the object area in the image acquired in the past.
Analysis processing device.

(付記2−5)
付記2−3又は2−4に記載の解析処理装置であって、
前記新規物体領域特定手段は、過去に取得された前記画像における前記物体領域に対する、新たに取得された前記画像における前記物体領域の距離が、予め設定された値以上である当該新たに取得された前記画像における前記物体領域を、前記新規物体領域として特定する、
解析処理装置。
(Appendix 2-5)
An analysis processing apparatus according to appendix 2-3 or 2-4,
The new object region specifying means is newly acquired in which a distance of the object region in the newly acquired image is greater than or equal to a preset value with respect to the object region in the image acquired in the past. Identifying the object region in the image as the new object region;
Analysis processing device.

(付記2−6)
付記2−1乃至2−5のいずれかに記載の解析処理装置であって、
前記新規物体領域特定手段にて前記新規物体領域として特定された前記物体領域内のデータに対して予め設定された解析処理を、他の前記物体領域内のデータよりも優先して行う解析処理手段を備えた、
解析処理装置。
(Appendix 2-6)
The analysis processing device according to any one of supplementary notes 2-1 to 2-5,
Analysis processing means for performing pre-set analysis processing on data in the object area specified as the new object area by the new object area specifying means in preference to data in other object areas With
Analysis processing device.

(付記2−7)
付記2−1乃至2−5のいずれかに記載の解析処理装置であって、
前記新規物体領域特定手段は、当該新規物体領域特定手段にて前記新規物体領域として特定した前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度が、他の前記物体領域の優先度よりも高くなるよう設定し、
前記新規物体領域特定手段にて前記物体領域に設定された優先度が高い順に、当該物体領域内のデータに対する予め設定された解析処理を行う解析処理手段を備えた、
解析処理装置。
(Appendix 2-7)
The analysis processing device according to any one of supplementary notes 2-1 to 2-5,
The new object area specifying means has a priority indicating the priority of executing a predetermined analysis process on the object area specified as the new object area by the new object area specifying means. Set to be higher than
An analysis processing means for performing a preset analysis process on the data in the object area in descending order of the priority set in the object area by the new object area specifying means,
Analysis processing device.

(付記2−8)
付記2−6又は2−7に記載の解析処理装置であって、
前記解析処理手段は、前記予め設定された解析処理として、前記物体領域内における予め設定された特徴量を抽出する特徴量抽出処理と、この抽出した特徴量と予め設定された照合対象となる特徴量との照合を行う照合処理と、を行う、
解析処理装置。
(Appendix 2-8)
The analysis processing device according to appendix 2-6 or 2-7,
The analysis processing means includes, as the preset analysis process, a feature quantity extraction process for extracting a preset feature quantity in the object region, and the extracted feature quantity and a feature to be a preset collation target A collation process for collating with the quantity,
Analysis processing device.

(付記2−9)
情報処理装置に、
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
前記物体領域の情報を記憶装置に記憶する物体領域情報記憶処理手段と、
過去に取得された前記画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された前記画像における前記物体検出手段にて設定された前記物体領域の情報と、に基づいて、過去に取得された前記画像内に対して新たに取得された前記画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定する新規物体領域特定手段と、
を実現させるためのプログラム。
(Appendix 2-9)
In the information processing device,
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Object detection means to be set as
Object area information storage processing means for storing information of the object area in a storage device;
Based on the information of the object area stored in the storage device in the image acquired in the past and the information of the object area set by the object detection means in the newly acquired image, New object region specifying means for specifying, as a new object region, the object region that includes a newly appearing object in the image newly acquired in the image acquired in the past;
A program to realize

(付記2−10)
付記2−9に記載のプログラムであって、
前記新規物体領域特定手段は、新たに取得された前記画像における前記物体検出手段にて設定された前記物体領域の情報と、直前に取得された前記画像における前記記憶装置に記憶された前記物体領域の情報と、に基づいて、直前に取得された前記画像内に対して新たに取得された前記画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定する、
プログラム。
(Appendix 2-10)
A program according to appendix 2-9,
The new object area specifying means includes information on the object area set by the object detection means in the newly acquired image, and the object area stored in the storage device in the image acquired immediately before And identifying the object region including an object that newly appears in the newly acquired image as the new object region based on the information of
program.

(付記2−11)
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定し、
前記物体領域の情報を記憶装置に記憶し、
過去に取得された前記画像における前記記憶装置に記憶された前記物体領域の情報と、新たに取得された前記画像において設定された前記物体領域の情報と、に基づいて、過去に取得された前記画像内に対して新たに取得された前記画像内に新たに出現した物体が含まれる前記物体領域を新規物体領域として特定する、
解析処理方法。
(Appendix 2-11)
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Set as
Storing information of the object region in a storage device;
Based on the information on the object region stored in the storage device in the image acquired in the past and the information on the object region set in the newly acquired image, the information acquired in the past Specifying the object region including a newly appearing object in the image newly acquired in the image as a new object region;
Analysis processing method.

(付記2−12)
付記2−11に記載の解析処理方法であって、
前記新規物体領域を特定する際に、新たに取得された前記画像において設定された前記物体領域の情報と、直前に取得された前記画像における前記記憶装置に記憶された前記物体領域の情報と、に基づいて、直前に取得された前記画像内に対して新たに取得された前記画像内に新たに出現した物体が含まれる前記物体領域を前記新規物体領域として特定する、
解析処理方法。
(Appendix 2-12)
The analysis processing method according to attachment 2-11,
When specifying the new object region, information on the object region set in the newly acquired image, information on the object region stored in the storage device in the image acquired immediately before, Based on the above, the object region that includes a newly appearing object in the image that is newly acquired relative to the image acquired immediately before is specified as the new object region.
Analysis processing method.

なお、本発明は、日本国にて2012年2月15日に特許出願された特願2012−030466の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。   The present invention enjoys the benefit of the priority claim based on the patent application of Japanese Patent Application No. 2012-030466, filed on February 15, 2012 in Japan, and is described in the patent application. The contents are all included in this specification.

10 映像解析システム
11 顔位置検出部
12 顔特徴解析部
13 顔照合部
14 顔特徴情報データベース
15 解析処理優先度算出部
16 解析処理優先度制御部
17 解析優先撮影領域情報記憶部
18 解析処理タスク群記憶部
19 フレーム顔位置情報記憶部
20 監視カメラ
30 アラーム表示アプリケーション
100 解析処理装置
101 物体検出手段
102 物体位置判定手段
103 優先度設定手段
110 カメラ
DESCRIPTION OF SYMBOLS 10 Image | video analysis system 11 Face position detection part 12 Face feature analysis part 13 Face collation part 14 Face feature information database 15 Analysis process priority calculation part 16 Analysis process priority control part 17 Analysis priority imaging | photography area information storage part 18 Analysis process task group Storage unit 19 Frame face position information storage unit 20 Surveillance camera 30 Alarm display application 100 Analysis processing device 101 Object detection unit 102 Object position determination unit 103 Priority setting unit 110 Camera

Claims (10)

カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
前記物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定する物体位置判定手段と、
前記物体位置判定手段による判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定する優先度設定手段と、
を備え、
前記物体検出手段は、複数のカメラにてそれぞれ撮影した画像を取得すると共に、前記カメラ毎に、取得した前記画像内において予め設定された特徴を有する物体を検出して、当該検出した物体の前記物体領域を設定し、
前記物体位置判定手段は、前記物体領域が、当該物体領域が設定された前記画像が撮影された前記カメラと同一のカメラについて予め設定された前記特定領域に位置するか否かを判定し、
前記優先度設定手段は、前記物体位置判定手段による判定結果に応じて、同一の前記カメラについて前記特定領域に位置する前記物体領域の優先度が、同一の前記カメラについて前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
解析処理装置。
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Object detection means to be set as
Object position determination means for determining whether or not the object region is located in a predetermined specific region in the image;
Priority setting means for setting a priority indicating a priority level for executing a predetermined analysis process on the object region in accordance with a determination result by the object position determination means ;
Bei to give a,
The object detection means acquires images captured by a plurality of cameras, detects an object having a preset characteristic in the acquired image for each camera, and detects the detected object. Set the object area
The object position determination means determines whether the object region is located in the specific region set in advance for the same camera as the camera from which the image in which the object region is set is captured,
The priority setting unit is configured such that the priority of the object region located in the specific region with respect to the same camera is not located in the specific region with respect to the same camera according to a determination result by the object position determination unit. Set to be higher than the priority of the object area,
Analysis processing device.
請求項1に記載の解析処理装置であって、
前記優先度設定手段は、前記物体位置判定手段による判定結果に応じて、前記特定領域に位置する前記物体領域の優先度が、前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
解析処理装置。
The analysis processing device according to claim 1,
The priority setting means is configured such that the priority of the object area located in the specific area is higher than the priority of the object area not located in the specific area according to the determination result by the object position determination means. Set,
Analysis processing device.
請求項1又は2に記載の解析処理装置であって、
前記優先度設定手段は、前記特定領域毎に予め設定された優先度の値に基づいて、当該特定領域に位置する前記物体領域の優先度を設定する、
解析処理装置。
The analysis processing device according to claim 1 or 2,
The priority setting means sets the priority of the object region located in the specific region based on a priority value preset for each specific region;
Analysis processing device.
請求項1乃至3のいずれかに記載の解析処理装置であって、
前記優先度設定手段は、前記カメラ毎及び前記特定領域毎に予め設定された優先度の値に基づいて、当該カメラについて設定された前記特定領域に位置する前記物体領域の優先度を設定する、
解析処理装置。
The analysis processing device according to any one of claims 1 to 3 ,
The priority setting means sets the priority of the object area located in the specific area set for the camera based on a priority value set in advance for each camera and for each specific area.
Analysis processing device.
請求項1乃至4のいずれかに記載の解析処理装置であって、The analysis processing device according to any one of claims 1 to 4,
前記優先度設定手段にて前記物体領域に設定された優先度の値が高い順に、当該物体領域内のデータに対する予め設定された解析処理を行う解析処理手段を備えた、An analysis processing means for performing a preset analysis process on the data in the object region in descending order of the priority values set in the object region by the priority setting unit;
解析処理装置。Analysis processing device.
請求項に記載の解析処理装置であって、
前記解析処理手段は、前記予め設定された解析処理として、前記物体領域内のデータから予め設定された特徴量を抽出する特徴量抽出処理と、当該抽出した特徴量と予め設定された照合対象となる特徴量との照合を行う照合処理と、を行う、
解析処理装置。
The analysis processing device according to claim 5 ,
The analysis processing means includes, as the preset analysis process, a feature quantity extraction process for extracting a preset feature quantity from the data in the object region, and the extracted feature quantity and a preset collation target And a matching process for matching with the feature quantity
Analysis processing device.
情報処理装置に、
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定する物体検出手段と、
前記物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定する物体位置判定手段と、
前記物体位置判定手段による判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定する優先度設定手段と、
を実現させると共に、
前記物体検出手段は、複数のカメラにてそれぞれ撮影した画像を取得すると共に、前記カメラ毎に、取得した前記画像内において予め設定された特徴を有する物体を検出して、当該検出した物体の前記物体領域を設定し、
前記物体位置判定手段は、前記物体領域が、当該物体領域が設定された前記画像が撮影された前記カメラと同一のカメラについて予め設定された前記特定領域に位置するか否かを判定し、
前記優先度設定手段は、前記物体位置判定手段による判定結果に応じて、同一の前記カメラについて前記特定領域に位置する前記物体領域の優先度が、同一の前記カメラについて前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
ことを実現させるためのプログラム。
In the information processing device,
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Object detection means to be set as
Object position determination means for determining whether or not the object region is located in a predetermined specific region in the image;
Priority setting means for setting a priority indicating a priority level for executing a predetermined analysis process on the object region in accordance with a determination result by the object position determination means ;
And realize
The object detection means acquires images captured by a plurality of cameras, detects an object having a preset characteristic in the acquired image for each camera, and detects the detected object. Set the object area
The object position determination means determines whether the object region is located in the specific region set in advance for the same camera as the camera from which the image in which the object region is set is captured,
The priority setting unit is configured such that the priority of the object region located in the specific region with respect to the same camera is not located in the specific region with respect to the same camera according to a determination result by the object position determination unit. Set to be higher than the priority of the object area,
A program to make things happen.
請求項7に記載のプログラムであって、
前記優先度設定手段は、前記物体位置判定手段による判定結果に応じて、前記特定領域に位置する前記物体領域の優先度が、前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
プログラム。
The program according to claim 7,
The priority setting means is configured such that the priority of the object area located in the specific area is higher than the priority of the object area not located in the specific area according to the determination result by the object position determination means. Set,
program.
カメラにて撮影した画像を取得すると共に、当該取得した画像内において予め設定された特徴を有する物体を検出して、当該物体が検出された前記画像内における位置を基準とした所定範囲を物体領域として設定し、
前記物体領域が前記画像内における予め設定された特定領域に位置するか否かを判定し、
前記物体領域が前記特定領域に位置するか否かの判定結果に応じて、前記物体領域に対する所定の解析処理を実行する優先度合いを表す優先度を設定すると共に、
前記物体領域を設定する際に、複数のカメラにてそれぞれ撮影した画像を取得すると共に、前記カメラ毎に、取得した前記画像内において予め設定された特徴を有する物体を検出して、当該検出した物体の前記物体領域を設定し、
前記物体領域が前記特定領域に位置するか否かを判定する際に、前記物体領域が、当該物体領域が設定された前記画像が撮影された前記カメラと同一のカメラについて予め設定された前記特定領域に位置するか否かを判定し、
前記優先度を設定する際に、前記物体領域が前記特定領域に位置するか否かの判定結果に応じて、同一の前記カメラについて前記特定領域に位置する前記物体領域の優先度が、同一の前記カメラについて前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
An image captured by the camera is acquired, an object having a preset characteristic is detected in the acquired image, and a predetermined range based on a position in the image where the object is detected is defined as an object region. Set as
Determining whether the object region is located in a predetermined specific region in the image;
In accordance with a determination result of whether or not the object region is located in the specific region, setting a priority that represents a priority for performing a predetermined analysis process on the object region ,
When setting the object area, the image acquired by each of the plurality of cameras is acquired, and an object having a preset characteristic in the acquired image is detected for each camera, and the detection is performed. Set the object area of the object,
When determining whether or not the object area is located in the specific area, the object area is specified in advance for the same camera as the camera from which the image in which the object area is set is captured. Determine whether it is located in the area,
When setting the priority, the priority of the object region located in the specific region is the same for the same camera according to the determination result of whether or not the object region is located in the specific region. Setting the camera to be higher than the priority of the object area not located in the specific area
Analysis processing method.
請求項9に記載の解析処理方法であって、
前記優先度を設定する際に、前記物体領域が前記特定領域に位置するか否かの判定結果に応じて、前記特定領域に位置する前記物体領域の優先度が、前記特定領域に位置しない前記物体領域の優先度よりも高くなるよう設定する、
解析処理方法。
The analysis processing method according to claim 9, wherein
When setting the priority, the priority of the object region located in the specific region is not located in the specific region according to a determination result of whether or not the object region is located in the specific region. Set to be higher than the priority of the object area,
Analysis processing method.
JP2014500077A 2012-02-15 2013-01-29 Analysis processing device Active JP6098631B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012030466 2012-02-15
JP2012030466 2012-02-15
PCT/JP2013/000445 WO2013121711A1 (en) 2012-02-15 2013-01-29 Analysis processing device

Publications (2)

Publication Number Publication Date
JPWO2013121711A1 JPWO2013121711A1 (en) 2015-05-11
JP6098631B2 true JP6098631B2 (en) 2017-03-22

Family

ID=48983852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014500077A Active JP6098631B2 (en) 2012-02-15 2013-01-29 Analysis processing device

Country Status (2)

Country Link
JP (1) JP6098631B2 (en)
WO (1) WO2013121711A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6056837B2 (en) * 2013-11-25 2017-01-11 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, control method, and program
JP7103431B2 (en) * 2018-11-19 2022-07-20 日本電気株式会社 Media data processing systems, methods and programs

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3484531B2 (en) * 1997-04-16 2004-01-06 オムロン株式会社 Image output control device, monitoring system, image output control method, and storage medium
DE112005000929B4 (en) * 2004-04-28 2011-07-21 Chuo Electronics Co. Ltd., Tokyo Automatic imaging method and device
JP2009081714A (en) * 2007-09-26 2009-04-16 Olympus Imaging Corp Imaging device and face region determination method thereof
JP5390322B2 (en) * 2009-09-28 2014-01-15 株式会社東芝 Image processing apparatus and image processing method
JP5653105B2 (en) * 2010-07-21 2015-01-14 キヤノン株式会社 Video processing system, video processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JPWO2013121711A1 (en) 2015-05-11
WO2013121711A1 (en) 2013-08-22

Similar Documents

Publication Publication Date Title
JP5339476B2 (en) Image processing system, fever tracking method, image processing apparatus, control method thereof, and control program
US10872242B2 (en) Information processing apparatus, information processing method, and storage medium
WO2016147770A1 (en) Monitoring system and monitoring method
JP6233624B2 (en) Information processing system, information processing method, and program
US20180268224A1 (en) Information processing device, determination device, notification system, information transmission method, and program
JP6098631B2 (en) Analysis processing device
JP2011060058A (en) Imaging apparatus and monitoring system
WO2014091667A1 (en) Analysis control system
JP6437217B2 (en) Image output device, image management system, image processing method, and program
JP2019153920A (en) Information processing apparatus, control method thereof, subject detection system, and program
WO2014122879A1 (en) Analysis processing system
JP2012124658A (en) System and method for detecting specific person
JP2021196741A (en) Image processing device, image processing method and program
US11341774B2 (en) Information processing apparatus, data generation method, and non-transitory computer readable medium storing program
JP2005157134A (en) Information output method, device and program, and computer readable storage medium stored with information output program
WO2013121713A1 (en) Analysis processing device
JP2011087214A (en) Photographing system, method and program
JP2015176489A (en) Monitor system, monitor method and monitor program
JP2018142137A (en) Information processing device, information processing method and program
JP2018055151A (en) Flame detector and program
JPWO2021131050A5 (en)
JP5968402B2 (en) Image processing method and apparatus
US20230214024A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP5896781B2 (en) Image processing apparatus and image processing method
JP7327571B2 (en) Information processing system, terminal device, authentication target management method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170206

R150 Certificate of patent or registration of utility model

Ref document number: 6098631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150