JP2021027399A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2021027399A
JP2021027399A JP2019141357A JP2019141357A JP2021027399A JP 2021027399 A JP2021027399 A JP 2021027399A JP 2019141357 A JP2019141357 A JP 2019141357A JP 2019141357 A JP2019141357 A JP 2019141357A JP 2021027399 A JP2021027399 A JP 2021027399A
Authority
JP
Japan
Prior art keywords
person
image
detection unit
imaging device
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019141357A
Other languages
Japanese (ja)
Inventor
米澤 博紀
Hironori Yonezawa
博紀 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019141357A priority Critical patent/JP2021027399A/en
Publication of JP2021027399A publication Critical patent/JP2021027399A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an information processing apparatus detecting a person detection and a behavior detection of a person from an image, in which the image to be input is suppressed and a processing load applied to the behavior detection is reduced.SOLUTION: An information processing apparatus 100 including a person detection part 203 performing a person detection from an image and a behavior detection part 204 performing a person behavior detection, includes: a determination part 202 determining each imaging device that imaged the image that the same person is detected by the person detection part 203 as a first imaging device imaging the image for detecting the other person different from the same person by the person detection part 203 or a second imaging device imaging the image input into the behavior detection part 204 that detects a behavior of the same person; and a control part 206 that inputs the image imaged by the first imaging device into the person detection part 203 and inputs the image imaging the same person by the second imaging device into the behavior detection part 204.SELECTED DRAWING: Figure 2

Description

本発明は、画像から特定の人物または人物の行動を検出する技術に関する。 The present invention relates to a technique for detecting a specific person or the behavior of a specific person from an image.

近年、複数の撮像装置を店舗に設置し、撮像された画像に基づき来客の行動を監視する技術が普及している。このような技術では複数段階の検出処理が行われる場合がある。例えば、店舗内で各撮像装置の監視領域に存在する人物を画像から検出する人物検出が行われる。さらに、検出された人物が犯罪の予兆となる不審な行動(見まわし、物色)をしているか動画から検出する行動検出が行われる。特許文献1は、人物検出用の撮像装置で撮影された画像から検出された人物を追跡用の撮像装置で追跡する。 In recent years, a technique of installing a plurality of imaging devices in a store and monitoring the behavior of a visitor based on the captured images has become widespread. In such a technique, a plurality of stages of detection processing may be performed. For example, a person detection is performed in which a person existing in a monitoring area of each imaging device in a store is detected from an image. Furthermore, behavior detection is performed to detect from the video whether the detected person is performing suspicious behavior (look around, looking for something) that is a sign of a crime. In Patent Document 1, a person detected from an image taken by an image pickup device for person detection is tracked by the image pickup device for tracking.

特開2013−168757号公報Japanese Unexamined Patent Publication No. 2013-168757

特許文献1では、複数の追跡用の撮像装置で特定の人物を撮像できる場合、特定の人物の追跡、すなわち行動検出を複数の撮像装置で撮像された画像で認識処理する。その場合は行動検出にかかる処理負荷が大きくなる恐れがある。本発明は上記課題に鑑みてなされたものであり、特定の人物の行動検出が可能なすべての撮像装置ではなく、行動検出に適した撮像装置を選択することで、行動検出に入力される画像を抑制し行動検出にかかる処理負荷を軽減することを目的とする。 In Patent Document 1, when a specific person can be imaged by a plurality of tracking imaging devices, tracking of the specific person, that is, behavior detection is recognized and processed by images captured by the plurality of imaging devices. In that case, the processing load required for behavior detection may increase. The present invention has been made in view of the above problems, and an image input to behavior detection is performed by selecting an imaging device suitable for behavior detection, instead of all imaging devices capable of detecting behavior of a specific person. The purpose is to reduce the processing load required for behavior detection.

上記課題を解決する本発明にかかる情報処理装置は、画像から人物検出を行う人物検出部、および人物の行動検出を行う行動検出部を有する情報処理装置であって、前記人物検出部によって同一人物が検出された画像を撮像した撮像装置のそれぞれを、前記人物検出部によって前記同一人物とは異なる他の人物を検出する画像を撮像する第1撮像装置、または前記同一人物の行動を検出する行動検出部に入力する画像を撮像する第2撮像装置、として決定する決定手段と、前記第1撮像装置によって撮像された画像を前記人物検出部に入力し、前記第2撮像装置によって前記同一人物を撮像された画像を前記行動検出部に入力するように制御する制御手段と、を有することを特徴とする。 The information processing device according to the present invention that solves the above problems is an information processing device having a person detection unit that detects a person from an image and an action detection unit that detects a person's behavior, and the same person is detected by the person detection unit. The first imaging device that captures an image that detects another person different from the same person by the person detection unit, or an action that detects the behavior of the same person, for each of the imaging devices that have captured the detected image. A determination means for determining as a second imaging device that captures an image input to the detection unit, and an image captured by the first imaging device are input to the person detection unit, and the same person is captured by the second imaging device. It is characterized by having a control means for controlling the captured image to be input to the behavior detection unit.

本発明によれば、特定の人物の行動検出が可能なすべての撮像装置ではなく、行動検出に適した撮像装置を選択することで、行動検出に入力される画像を抑制し行動検出にかかる処理負荷を軽減できる。 According to the present invention, by selecting an imaging device suitable for behavior detection instead of all imaging devices capable of detecting the behavior of a specific person, the image input to the behavior detection is suppressed and the processing related to the behavior detection is performed. The load can be reduced.

情報処理装置のハードウェア構成例を示す図The figure which shows the hardware configuration example of an information processing apparatus 情報処理装置の機能構成例を示すブロック図Block diagram showing a functional configuration example of an information processing device 情報処理装置が実行する処理の一例を示すフローチャートFlowchart showing an example of processing executed by an information processing device 撮像装置の監視対象を示す一例を示す図The figure which shows an example which shows the monitoring target of an image pickup apparatus 撮像装置毎の情報を管理する表(撮像装置情報テーブル)の一例を示す図The figure which shows an example of the table (imaging device information table) which manages the information for each image pickup apparatus. 撮像装置の監視対象を示す一例を示す図The figure which shows an example which shows the monitoring target of an image pickup apparatus 撮像装置毎の情報を管理する表(撮像装置情報テーブル)の一例を示す図The figure which shows an example of the table (imaging device information table) which manages the information for each image pickup apparatus. 撮像装置の監視対象を示す一例を示す図The figure which shows an example which shows the monitoring target of an image pickup apparatus 撮像装置毎の情報を管理する表(撮像装置情報テーブル)の一例を示す図The figure which shows an example of the table (imaging device information table) which manages the information for each image pickup apparatus. 撮像装置の監視対象を示す一例を示す図The figure which shows an example which shows the monitoring target of an image pickup apparatus 情報処理装置の機能構成例を示すブロック図Block diagram showing a functional configuration example of an information processing device 情報処理装置が実行する処理の一例を示すフローチャートFlowchart showing an example of processing executed by an information processing device 撮像装置毎の情報を管理する表(撮像装置情報テーブル)の一例を示す図The figure which shows an example of the table (imaging device information table) which manages the information for each image pickup apparatus. 情報処理装置の機能構成例を示すブロック図Block diagram showing a functional configuration example of an information processing device 情報処理装置が実行する処理の一例を示すフローチャートFlowchart showing an example of processing executed by an information processing device 撮像装置毎の情報を管理する表(撮像装置情報テーブル)の一例を示す図The figure which shows an example of the table (imaging device information table) which manages the information for each image pickup apparatus. 情報処理装置が実行する処理の一例を示すフローチャートFlowchart showing an example of processing executed by an information processing device 撮像装置毎の情報を管理する表(撮像装置情報テーブル)の一例を示す図The figure which shows an example of the table (imaging device information table) which manages the information for each image pickup apparatus. 情報処理装置が実行する処理の一例を示すフローチャートFlowchart showing an example of processing executed by an information processing device

<実施形態1>
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<Embodiment 1>
Hereinafter, embodiments will be described with reference to the drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.

図1は、情報処理装置100のハードウェア構成例を示す図である。情報処理装置100は、ハードウェア構成として、CPU10、ROM11、RAM12、外部メモリ13、ネットワークI/F(インターフェース)14、表示部15、入力部16、システムバス18を含む。 FIG. 1 is a diagram showing a hardware configuration example of the information processing device 100. The information processing device 100 includes a CPU 10, a ROM 11, a RAM 12, an external memory 13, a network I / F (interface) 14, a display unit 15, an input unit 16, and a system bus 18 as hardware configurations.

中央処理ユニット(CPU)10は、RAM12をワークメモリとして、ROM11や外部メモリ13に格納されたOSやその他プログラムを読みだして実行し、システムバス18に接続された各構成を制御して、各種処理の演算や論理判断などを行う。ROM11は、CPU10が処理に利用するデータ、プログラム等を記憶する。外部メモリ13は、ハードディスクやSSD等であり、ROM11には収まらないデータやプログラム等を記憶する。これらデータやプログラムはネットワーク上の他の機器よりネットワークI/F14を介して取得してもよい。ネットワークI/F14は、情報処理装置100をネットワークに接続するインターフェースである。表示部15は、液晶表示装置等であり、CPU10による処理の結果等を表示する。入力部16は、マウス、又はボタン等であり、ユーザの操作を情報処理装置100に入力する。なお、これらのハードウェアは情報処理装置100と接続された別装置がそれぞれの構成を有していてもよい。CPU10がROM11および外部メモリ13に記憶されたプログラムに基づき処理を実行することにより、後述する図2の情報処理装置100の機能構成及び後述する図3のフローチャートの処理が実現される。 The central processing unit (CPU) 10 uses the RAM 12 as a work memory to read and execute the OS and other programs stored in the ROM 11 and the external memory 13, and controls each configuration connected to the system bus 18 to control various configurations. Performs processing operations and logical judgments. The ROM 11 stores data, programs, and the like used by the CPU 10 for processing. The external memory 13 is a hard disk, SSD, or the like, and stores data, programs, or the like that cannot be stored in the ROM 11. These data and programs may be acquired from other devices on the network via the network I / F14. The network I / F14 is an interface for connecting the information processing device 100 to the network. The display unit 15 is a liquid crystal display device or the like, and displays the result of processing by the CPU 10 or the like. The input unit 16 is a mouse, a button, or the like, and inputs a user's operation to the information processing device 100. In addition, each of these hardware may have a configuration of another device connected to the information processing device 100. When the CPU 10 executes processing based on the programs stored in the ROM 11 and the external memory 13, the functional configuration of the information processing apparatus 100 of FIG. 2 described later and the processing of the flowchart of FIG. 3 described later are realized.

図2は情報処理装置100の機能構成の一例を示す図である。情報処理装置100は、複数の撮像装置によって撮像された画像から人物を検出する情報処理装置であって、決定部202、人物検出部203、行動検出部204、提示部205、制御部206、評価部208、記憶部207、選択部209を含む。撮像装置401,403,405,407は、予め監視対象領域である店舗内に、店舗内に死角が発生しないようにかつ各撮像装置の監視領域がなるべく重複しないように設置される。ここでは、4台の撮像装置401、403、405、407によって監視する例を説明する。 FIG. 2 is a diagram showing an example of the functional configuration of the information processing device 100. The information processing device 100 is an information processing device that detects a person from images captured by a plurality of imaging devices, and includes a determination unit 202, a person detection unit 203, an action detection unit 204, a presentation unit 205, a control unit 206, and an evaluation unit. A unit 208, a storage unit 207, and a selection unit 209 are included. The imaging devices 401, 403, 405, and 407 are installed in advance in the store, which is the monitoring target area, so that no blind spots are generated in the store and the monitoring areas of the imaging devices do not overlap as much as possible. Here, an example of monitoring by four imaging devices 401, 403, 405, and 407 will be described.

決定部202は、画像から所定の特徴を有する人物を検出する人物検出処理の結果に基づいて、同一人物を検出可能な画像を撮像した撮像装置のそれぞれを、同一人物とは異なる他の人物を検出する人物検出処理に入力する画像を撮像する第1撮像装置を決定する。または同一人物の行動を検出する第2検出処理に入力する画像を撮像する第2撮像装置、として決定する。つまり、予め準備された撮像装置ごとの検出率に関する情報を用いて、人物検出に入力する画像と行動検出に入力する画像を分類する。ここで、すべての撮像装置のうち、第1検出処理で特定の人物を検出した画像を撮像した撮像装置のうち、第1検出処理を継続する撮像装置を第1撮像装置とする。また、第1検出処理で特定の人物を検出した画像を撮像した撮像装置のうち、第2検出処理に適した撮像装置として所定の条件を満たす撮像装置を第2撮像装置とする。ある特定の同一人物を撮像した撮像装置が複数台あった場合に、必要最低限の台数で行動検出を行うようにすることで、行動検出を行う画像の量を減らし処理負荷を軽減できる。なお、所定の条件とは、例えば、第1撮像装置によって撮像できる撮像領域が所定の大きさより大きいという条件、各検出処理が満たすべき正解率に関する条件、同一人物の顔の向きの条件である。このようにして、第2撮像装置が撮像した画像のみを第2検出処理に入力することで処理負荷を軽減できる。詳しい処理については後述する。ここで、第1検出処理は予め登録された要注意人物(同一人物)を検出する処理である。第2検出処理は、第1検出処理において要注意人物が検出された場合、第1検出処理で検出された要注意人物の行動を監視し、それが犯罪行動であるか否かを検出する。 The determination unit 202 uses each of the image pickup devices that capture an image capable of detecting the same person based on the result of the person detection process for detecting a person having a predetermined feature from the image, and sets another person different from the same person. A first imaging device for capturing an image to be input to the person detection process to be detected is determined. Alternatively, it is determined as a second imaging device that captures an image to be input to the second detection process for detecting the behavior of the same person. That is, the image to be input to the person detection and the image to be input to the behavior detection are classified by using the information on the detection rate for each imaging device prepared in advance. Here, among all the imaging devices, among the imaging devices that have captured the image obtained by detecting a specific person in the first detection process, the imaging device that continues the first detection process is referred to as the first imaging device. Further, among the image pickup devices that have captured the image obtained by detecting a specific person in the first detection process, the image pickup device that satisfies a predetermined condition as the image pickup device suitable for the second detection process is referred to as the second image pickup device. When there are a plurality of imaging devices that image a specific same person, the amount of images for which the behavior is detected can be reduced and the processing load can be reduced by performing the behavior detection with the minimum necessary number. The predetermined conditions are, for example, a condition that the imaging region that can be imaged by the first imaging apparatus is larger than a predetermined size, a condition regarding the correct answer rate that each detection process should satisfy, and a condition that the face of the same person is oriented. In this way, the processing load can be reduced by inputting only the image captured by the second imaging device into the second detection process. Detailed processing will be described later. Here, the first detection process is a process of detecting a person requiring attention (same person) registered in advance. When the person requiring attention is detected in the first detection process, the second detection process monitors the behavior of the person requiring attention detected in the first detection process and detects whether or not it is a criminal action.

人物検出部203は、複数の撮像装置によって撮像された画像に対して、人物検出処理(第1検出処理)を行う。ここでは、予め登録された特徴を有する要注意人物の検出を行う。第1検出処理の一例として、顔認識の処理を説明する。まず、人物検出部203は、入力された画像に対して、顔の構成要素である目や鼻の画像特徴を抽出することによって、画像に含まれる顔画像の検出を行う。画像に人物が含まれない場合は顔画像を検出しない。画像に複数の人物が含まれる場合は各人物の顔画像を検出する。顔の検出手法は既存の公知の手法を使えばよい。例えば、鼻、口や目などの顔画像の構成要素に相当する形状を示す画像特徴を抽出する。抽出された両目の大きさとそれらの距離から顔の大きさを推定し、鼻の中心に相当する位置を基準として、抽出された大きさの領域で囲んだ領域を顔画像とする。 The person detection unit 203 performs a person detection process (first detection process) on images captured by a plurality of imaging devices. Here, a person requiring attention having a pre-registered feature is detected. A face recognition process will be described as an example of the first detection process. First, the person detection unit 203 detects the face image included in the image by extracting the image features of the eyes and nose, which are the constituent elements of the face, from the input image. If the image does not include a person, the face image is not detected. When the image contains a plurality of people, the face image of each person is detected. As the face detection method, an existing known method may be used. For example, an image feature showing a shape corresponding to a component of a face image such as a nose, mouth, and eyes is extracted. The size of the face is estimated from the size of the extracted eyes and their distance, and the area surrounded by the area of the extracted size is used as the face image based on the position corresponding to the center of the nose.

次に顔画像から、個人を特定可能な人物の部位の位置関係を示す特徴を取得する。ここでいう特徴とは、画像からエッジ検出等で得られるような画像特徴であることが想定されている。取得方法は任意で良いが、本実施形態では以下のように人物の顔についての特徴を抽出する。まず画像から特定された目・鼻・口など代表的な器官の位置に基づいて、両目の幅が所定の距離になるように、両目を結ぶ線分が画像上で水平になるように画像を回転・拡大縮小する。そして顔画像に特徴を抽出する矩形領域を設定する。領域の大きさは任意であるが、個人の特徴をよく表す目や口などの器官がもれなく入るように、しかし背景などは入らないように、一辺が目幅のおおよそ1.5倍程度の正方形を顔の中央に配置するとよい。続いて矩形領域内の画素値を左上から右下に向かって順に取り出し、一列につなげてベクトルとする。なお、本実施形態に用いる人物の特徴の抽出は、上記に示した手法に限らない。例えば、ディープニューラルネットワークを用いて個人毎の特徴を抽出してもよい。具体的には、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)における、畳込み層から取得できる画像特徴などを取得する。この場合、顔画像を、個人の識別を学習させたニューラルネットワーク(学習済みモデル)に入力することによって、個人の識別に必要な特徴を取得する。なお、学習済みモデルとは、撮像画像から撮像画像に対応する検出結果を出力するニューラルネットワークに基づくネットワーク構造とそのパラメータである。認識は、例えば画像から個人を特定するものでもよい。学習済みモデルを用いることで、より精度良く個人の認識を行うことができる。 Next, from the face image, a feature indicating the positional relationship of the part of the person who can identify the individual is acquired. It is assumed that the feature referred to here is an image feature that can be obtained from an image by edge detection or the like. The acquisition method may be arbitrary, but in the present embodiment, the features of the human face are extracted as follows. First, based on the positions of typical organs such as eyes, nose, and mouth identified from the image, make the image so that the line segment connecting both eyes is horizontal on the image so that the width of both eyes is a predetermined distance. Rotate / enlarge / reduce. Then, a rectangular area for extracting features is set in the face image. The size of the area is arbitrary, but a square with one side about 1.5 times the width of the eyes so that organs such as eyes and mouth that well represent individual characteristics can be inserted, but the background etc. are not included. Should be placed in the center of the face. Next, the pixel values in the rectangular area are taken out in order from the upper left to the lower right, and connected in a row to form a vector. The extraction of the characteristics of the person used in this embodiment is not limited to the method shown above. For example, a deep neural network may be used to extract individual features. Specifically, the image features and the like that can be acquired from the convolutional layer in the CNN (Convolutional Neural Network) are acquired. In this case, by inputting the face image into the neural network (learned model) trained to identify the individual, the features necessary for the identification of the individual are acquired. The trained model is a network structure based on a neural network that outputs a detection result corresponding to the captured image from the captured image and its parameters. The recognition may be, for example, identifying an individual from an image. By using the trained model, individual recognition can be performed more accurately.

行動検出部204は、決定部202によって決定された第2撮像装置が撮像した画像に対して、第2検出処理を行う。第2検出処理は、人物の行動認識を行い、予め登録された犯罪行動の予兆を検出する。第2検出処理の一例として、ニューラルネットワークを用いた異常行動検出を説明する。学習データとして、検出すべき異常行為(例えば、窃盗や暴力)をとる人物の画像を異常事例のラベルを付ける。それ以外の普通の行為(例えば、歩く、話す)は正常事例のラベルを付ける。このような学習データを多く作成し、ニューラルネットワークに入力する。学習済みのニューラルネットワークは、画像(一連の行動を撮像した時系列画像でもよい)を入力すると、その画像に映った人物が正常な行動か異常な行動かを出力する。なお、学習の方法は上記に限らない。 The behavior detection unit 204 performs the second detection process on the image captured by the second image pickup device determined by the determination unit 202. The second detection process recognizes the behavior of a person and detects a sign of a pre-registered criminal behavior. As an example of the second detection process, abnormal behavior detection using a neural network will be described. As learning data, an image of a person who commits an abnormal act (for example, theft or violence) to be detected is labeled as an abnormal case. Other normal activities (eg walking, speaking) are labeled as normal cases. A lot of such training data is created and input to the neural network. When the trained neural network inputs an image (a time-series image obtained by capturing a series of actions), the trained neural network outputs whether the person shown in the image is a normal action or an abnormal action. The learning method is not limited to the above.

行動認識では、人物の顔の部分だけではなく、手元や足元の動きを認識する必要がある。すなわち、顔認識では顔が鮮明に映った画像が適切であるが、行動認識に適した画像はその限りではない。そのため、行動認識に適した画像を撮像可能な撮像装置を選択する必要がある。また、もしユーザがリアルタイムに店舗の監視を行いたい場合は、複数の領域における入力画像をすべて第1検出処理と第2検出処理にかけることが理想的である。しかしながら、計算リソースには限りがある。例えば、異常行動検出には、人物の全身について情報を抽出するため、顔認識よりも処理負荷が大きい。そのため、すべての撮像画像を行動検出に入力すると、処理負荷が膨大になり、リアルタイムに処理できなく可能性がある。このような場合に、どの領域(撮像装置)の画像をどの検出処理に入力するかを適切に制御することで、より広い領域をより少ない処理負荷で監視できる。なお、第1検出処理と第2検出処理との組み合わせは上記の組み合わせに限らない。なお、第2検出処理の処理負荷が第1検出処理よりも大きい場合に、情報処理装置100にかかる処理負荷をより軽減できる。 In behavior recognition, it is necessary to recognize not only the movement of the person's face but also the movement of the hands and feet. That is, in face recognition, an image in which the face is clearly reflected is appropriate, but an image suitable for behavior recognition is not limited to this. Therefore, it is necessary to select an imaging device capable of capturing an image suitable for behavior recognition. Further, if the user wants to monitor the store in real time, it is ideal that all the input images in the plurality of areas are subjected to the first detection process and the second detection process. However, computational resources are limited. For example, abnormal behavior detection has a larger processing load than face recognition because it extracts information about the whole body of a person. Therefore, if all the captured images are input to the behavior detection, the processing load becomes enormous and there is a possibility that the processing cannot be performed in real time. In such a case, a wider area can be monitored with a smaller processing load by appropriately controlling which area (imaging device) image is input to which detection process. The combination of the first detection process and the second detection process is not limited to the above combination. When the processing load of the second detection process is larger than that of the first detection process, the processing load on the information processing apparatus 100 can be further reduced.

提示部205は、人物検出部203または行動検出部204の検出結果を、情報処理装置100の操作者に提示する。検出結果は、例えば、表示装置によって表示される。音声発生装置で検出結果を発声してもよい。具体的には、第2検出処理によって、要注意人物の犯罪の予兆が検出された場合は、操作者に対して要注意人物の顔や位置を提示する。 The presentation unit 205 presents the detection result of the person detection unit 203 or the action detection unit 204 to the operator of the information processing device 100. The detection result is displayed by, for example, a display device. The detection result may be uttered by the voice generator. Specifically, when a sign of a crime of a person requiring attention is detected by the second detection process, the face and position of the person requiring attention are presented to the operator.

制御部206は、決定部202で決定された撮像装置を、同一人物を撮像するように制御する。具体的には、第1検出処理で検出された同一人物の身体を撮像するように、第2検出処理に入力する画像を撮像する撮像装置の画角を制御する。 The control unit 206 controls the image pickup device determined by the determination unit 202 so as to image the same person. Specifically, the angle of view of the image pickup device that captures the image input to the second detection process is controlled so as to image the body of the same person detected in the first detection process.

記憶部207は、後述する図5の撮像装置情報テーブルを記憶する。評価部208は、第1検出処理または第2検出処理について、検出性能を評価する。具体的な評価方法は、実施形態2で説明する。選択部209は、第1検出処理によって検出された要注意人物が撮像装置の台数に応じた所定の数より多く検出された場合、要注意人物毎に設定された優先度に基づいて前記第1検出処理で行動検出する同一人物を選択する。優先度とは、複数の要注意人物のうち、優先順位が高い順に行動検出を行うことを示す。例えば、要注意人物のリストとともに行動検出を行う優先順位についての情報を予め設定しておく。 The storage unit 207 stores the image pickup device information table of FIG. 5, which will be described later. The evaluation unit 208 evaluates the detection performance of the first detection process or the second detection process. A specific evaluation method will be described in the second embodiment. When the number of persons requiring attention detected by the first detection process is more than a predetermined number according to the number of imaging devices, the selection unit 209 is based on the priority set for each person requiring attention. Select the same person whose behavior is detected by the detection process. The priority indicates that the action is detected in descending order of priority among a plurality of persons requiring attention. For example, information about the priority for detecting an action is set in advance together with a list of people requiring attention.

図3は、情報処理装置100が実行する処理の一例を示すフローチャートである。以下の説明では、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。ただし、情報処理装置100はこのフローチャートで説明するすべてのステップを必ずしも行わなくてもよい。図3のフローチャートに示した処理は、コンピュータである図1のCPU10によりROM11に格納されているコンピュータプログラムに従って実行される。 FIG. 3 is a flowchart showing an example of processing executed by the information processing apparatus 100. In the following description, the notation of the process (step) is omitted by adding S at the beginning of each process (step). However, the information processing apparatus 100 does not necessarily have to perform all the steps described in this flowchart. The process shown in the flowchart of FIG. 3 is executed by the CPU 10 of FIG. 1, which is a computer, according to a computer program stored in the ROM 11.

S301において、人物検出部203は、複数の撮像装置によって撮像された画像から所定の特徴を有する同一人物を検出する第1検出処理を行う。第1検出処理において、まず、すべての入力画像に対して人物の特徴を抽出する。さらに、抽出された人物の特徴と、設定された要注意人物の特徴とを比較する。所定の閾値より類似した人物を要注意人物として検出する。以後、特に断りの無い限り、撮像装置によって撮像された画像は、人物検出部203もしくは行動検出部204に継続して出力され、検出処理されるものとする。 In S301, the person detection unit 203 performs the first detection process of detecting the same person having a predetermined feature from the images captured by the plurality of imaging devices. In the first detection process, first, the characteristics of a person are extracted for all the input images. Furthermore, the characteristics of the extracted person are compared with the characteristics of the set person requiring attention. A person who is similar to a predetermined threshold value is detected as a person requiring attention. After that, unless otherwise specified, the image captured by the image pickup apparatus shall be continuously output to the person detection unit 203 or the behavior detection unit 204 for detection processing.

引き続き、S302において、人物検出部203は、各撮像装置が撮像した画像に対し、要注意人物の検出処理(第1検出)を実行し、要注意人物が検出されたか否かを判断する。ここで要注意人物を特定するための要注意人物の顔の特徴が、予め第1検出処理に設定されているものとする。人物検出に用いる人間の部位の特徴は、個人を特定可能な特徴であれば顔特徴以外でもよい。第1検出処理の結果、要注意人物が検出された場合、S303に進む。この際、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさといった情報を決定部202に出力する。検出されない場合は、S301に戻り、次の時系列画像を取得し、継続して全ての撮像装置によって撮像された画像について顔認証処理を行う。 Subsequently, in S302, the person detection unit 203 executes the detection process (first detection) of the person requiring attention on the image captured by each imaging device, and determines whether or not the person requiring attention has been detected. Here, it is assumed that the facial features of the person requiring attention for identifying the person requiring attention are set in advance in the first detection process. The feature of the human part used for person detection may be other than the facial feature as long as it is a feature that can identify an individual. If a person requiring attention is detected as a result of the first detection process, the process proceeds to S303. At this time, information such as the ID of the imaging device that captured the person requiring attention, the ID of the person requiring attention, the position of the face of the person requiring attention on the image, and the size of the face of the person requiring attention is output to the determination unit 202. If it is not detected, the process returns to S301, the next time-series image is acquired, and the face recognition process is continuously performed on the images captured by all the imaging devices.

S303では、選択部209が、第1検出処理によって検出された要注意人物が撮像装置の台数に応じた所定の数より多く検出された場合、要注意人物毎に設定された優先度に基づいて第2検出処理で行動検出する同一人物を選択する。これによって要注意人物が複数人いる場合でも安定して行動監視を行うことができる。なお、要注意人物が1人の場合は、このステップを飛ばしてよい。 In S303, when the selection unit 209 detects more than a predetermined number of people requiring attention detected by the first detection process according to the number of imaging devices, the selection unit 209 is based on the priority set for each person requiring attention. The same person whose behavior is detected in the second detection process is selected. As a result, behavior monitoring can be performed stably even when there are a plurality of persons requiring attention. If there is only one person requiring attention, this step may be skipped.

S304では、決定部202は、人物検出部203の処理結果と記憶部207の情報とに基づいて、要注意人物の犯罪予兆となる行動を検出(第2検出処理)するための画像を撮像する撮像装置(以下、第2撮像装置と呼ぶ)を決定する。S303において、複数人の要注意人物について優先順位が設定されている場合は、要注意人物毎に第2検出処理をするための画像を撮像する撮像装置を決定する。決定方法の一例は、まず、第1検出処理の処理結果として、検出された人物のうち、要注意人物を検出した画像を撮像した第1撮像装置を特定する。さらに、特定された第1撮像装置のうち、第1検出処理に入力される画像がカバーする第1撮像装置による監視領域が最大になるように、第2検出処理に用いる画像を撮像する少なくとも1つ以上の第2撮像装置を決定する。ここでは、第1検出処理において、複数の撮像装置の画像から同一の要注意人物を検出した場合、その複数の撮像装置の画像をすべて第2検出処理に入力するようにすると処理負荷が大きくなってしまう。その結果、リアルタイムに要注意人物を検出できなくなる恐れがある。処理負荷が大きくなりすぎることを防ぐために、第1検出処理で要注意人物を検出した画像を撮像した撮像装置のうち、一部の撮像装置によって第2検出処理に入力する画像を撮像するようにする。これによって、処理負荷を軽減できる。 In S304, the determination unit 202 captures an image for detecting an action that is a sign of a crime of a person requiring attention (second detection process) based on the processing result of the person detection unit 203 and the information of the storage unit 207. An image pickup device (hereinafter referred to as a second image pickup device) is determined. In S303, when a priority is set for a plurality of persons requiring attention, an imaging device for capturing an image for performing the second detection process is determined for each person requiring attention. As an example of the determination method, first, as a processing result of the first detection process, the first imaging device that has captured the image of the person requiring attention is specified among the detected persons. Further, among the specified first imaging devices, at least one image used for the second detection process is captured so that the monitoring area by the first image pickup device covered by the image input to the first detection process is maximized. Determine one or more second imaging devices. Here, when the same person requiring attention is detected from the images of a plurality of imaging devices in the first detection process, the processing load becomes large if all the images of the plurality of imaging devices are input to the second detection process. It ends up. As a result, there is a risk that the person requiring attention cannot be detected in real time. In order to prevent the processing load from becoming too large, some of the imaging devices that have captured the image of the person requiring attention in the first detection process should capture the image to be input to the second detection process. To do. As a result, the processing load can be reduced.

以下、切り替えの処理の流れを、図4、図5を併用して説明する。図4は、店舗410内に撮像装置401、403、405、407が設置されている様子を図示した一例である。撮像装置401、403、405、407が撮影した画像に対しては、要注意人物検出処理(第1検出処理)がなされている。 Hereinafter, the flow of the switching process will be described with reference to FIGS. 4 and 5. FIG. 4 is an example showing how the image pickup devices 401, 403, 405, and 407 are installed in the store 410. The images taken by the image pickup devices 401, 403, 405, and 407 are subjected to a person requiring attention detection process (first detection process).

ここで領域402、404、406、408はそれぞれ撮像装置401、403、405、407が検出対象である人物の第1検出処理(顔認証処理)および第2検出処理(行動検出)を所定の正解率(例えば、70%)で実施可能な監視領域を示している。 Here, in the areas 402, 404, 406, and 408, the first detection process (face recognition process) and the second detection process (behavior detection) of the person whose image pickup devices 401, 403, 405, and 407 are the detection targets are predetermined correct answers, respectively. It shows the monitoring area that can be implemented at a rate (eg 70%).

監視領域は後述する図5の撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、認識可能な撮像装置から被写体までの最大距離から算出される。撮像装置情報テーブルは、実際に撮像装置を設置して検出処理を実行し、検出が正しく行える監視領域を、ユーザが測定して作成する。撮像装置情報テーブルは記憶部207に保持され、必要に応じて決定部202によって更新される。 The monitoring area is calculated from the position / orientation of the image pickup device, the angle of view, and the maximum distance from the recognizable image pickup device to the subject described in the image pickup device information table of FIG. The image pickup device information table is created by the user measuring a monitoring area in which the image pickup device is actually installed, the detection process is executed, and the detection can be performed correctly. The image pickup device information table is held in the storage unit 207, and is updated by the determination unit 202 as necessary.

441〜444は店舗内にいる客であり、犯罪行動を起こさないか監視すべき対象である。図5(a)(b)(c)は、撮像装置情報テーブルの一例である。ここでは撮像装置の位置姿勢は図4に示される座標軸に基づいて表現されるものとする。図5(a)は初期状態の撮像装置情報テーブルである。 441-444 are customers in the store and should be monitored for criminal activity. 5A, 5B, and 5C are examples of an image pickup device information table. Here, it is assumed that the position and orientation of the image pickup apparatus are expressed based on the coordinate axes shown in FIG. FIG. 5A is an image pickup device information table in the initial state.

S304で、決定部202は、さらに、人物検出部203から、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を取得する。これらの情報と、撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、最大距離から、要注意人物の位置を推定し、撮像装置情報テーブルを更新する。 In S304, the determination unit 202 further determines from the person detection unit 203 the ID of the imaging device that captured the person requiring attention, the ID of the person requiring attention, the position of the face of the person requiring attention on the image, and the face of the person requiring attention. Get information about size. The position of the person requiring attention is estimated from this information and the position / orientation, angle of view, and maximum distance of the image pickup device described in the image pickup device information table, and the image pickup device information table is updated.

図5(b)は、客443が要注意人物として、撮像装置401、405の画像から検出された場合の撮像装置情報テーブルである。続いて、撮像装置情報テーブルに記載されている撮像装置毎の要注意人物のIDと位置から、要注意人物の位置を求める。本実施形態においては、要注意人物の位置として撮像装置毎に求められた値を平均して出すものとするが、これに限定せずとも別の手法で求めてもよい。 FIG. 5B is an image pickup device information table when the customer 443 is detected from the images of the image pickup devices 401 and 405 as a person requiring attention. Subsequently, the position of the person requiring attention is obtained from the ID and position of the person requiring attention for each imaging device described in the image pickup device information table. In the present embodiment, the values obtained for each imaging device are averaged as the positions of people requiring attention, but the position is not limited to this and may be obtained by another method.

続いて、各撮像装置について、要注意人物443の第2検出処理が可能かを各撮像装置の監視領域と要注意人物の位置から判定し、検出可能な撮像装置の監視領域の論理和から、監視領域を除いた領域を計算する。引き続いてこの領域が最大となるような撮像装置出力を第2検出処理に切り替える。 Subsequently, for each imaging device, whether or not the second detection process of the person requiring attention 443 is possible is determined from the monitoring area of each imaging device and the position of the person requiring attention, and from the logical sum of the monitoring areas of the detectable imaging device, Calculate the area excluding the monitoring area. Subsequently, the image pickup device output that maximizes this region is switched to the second detection process.

図5(c)は、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、第2検出処理の撮像装置を405に決定した後の撮像装置情報テーブルである。図6は図5(c)に対応した撮像装置および監視領域を図示した一例である。撮像装置401、403、407からの撮影画像に対しては、要注意人物検出処理(第1検出処理)がなされている。撮像装置405からの撮影画像に対しては、行動検出(第2検出処理)がなされている。 FIG. 5C is an image pickup device information table after the image pickup devices capable of the second detection process of the person requiring attention 443 are 401, 403, and 405, and the image pickup device for the second detection process is determined to be 405. .. FIG. 6 is an example showing the imaging device and the monitoring area corresponding to FIG. 5 (c). A person requiring attention detection processing (first detection processing) is performed on the captured images from the image pickup devices 401, 403, and 407. Behavior detection (second detection processing) is performed on the captured image from the image pickup apparatus 405.

続くS305において、行動検出部204が、決定部202によって決定された撮像装置によって撮像された画像に基づいて、特定の人物について所定の行動を検出する第2検出処理を行う。ここで、所定の行動とは犯罪行動を予兆する行動を指す。 In the subsequent S305, the behavior detection unit 204 performs a second detection process for detecting a predetermined behavior for a specific person based on the image captured by the image pickup device determined by the determination unit 202. Here, the predetermined action refers to an action that predicts a criminal action.

S306では、行動検出部204が、特定の人物の所定の行動を検出したか否かを判断する。第2検出処理に切り替えられた撮像装置の画像から異常行動が検出された場合は、S307に進む。S307にて、提示部205が、特手の人物、すなわち要注意人物が異常行動をしたことを提示する。異常行動があったことを示す提示は、例えば、表示でもよいし、音声でもよい。 In S306, the action detection unit 204 determines whether or not a predetermined action of a specific person has been detected. If abnormal behavior is detected from the image of the image pickup device switched to the second detection process, the process proceeds to S307. In S307, the presentation unit 205 presents that a special person, that is, a person requiring attention has behaved abnormally. The presentation indicating that there was an abnormal behavior may be, for example, a display or a voice.

S305にて異常行動が検出されない場合は、第2撮像装置を決定し直す必要があるため、S310に進む。S310では、人物検出部203が、第2撮像装置以外の他の撮像装置によって撮像された画像とともに、決定部202が決定した撮像装置(第2撮像装置)が撮像した画像に対して所定の間隔で第1検出処理を行う。要注意人物が第2撮像装置の監視領域内に存在するか検出する。第2撮像装置の監視領域内に存在していない場合は、S311に進む。S311において、制御部206は、第2撮像装置によって撮像された画像を人物検出部203に入力し、デフォルトの監視領域を撮像するように画角を切り替えるといった制御を行う。S310において、要注意人物が第2撮像装置の監視領域内にいる場合はS302に戻って処理を継続する。 If no abnormal behavior is detected in S305, it is necessary to redetermine the second imaging device, so the process proceeds to S310. In S310, the person detection unit 203 has a predetermined interval with respect to the image captured by the image pickup device (second image pickup device) determined by the determination unit 202 together with the image captured by the image pickup device other than the second image pickup device. The first detection process is performed with. Detects whether a person requiring attention exists in the monitoring area of the second imaging device. If it does not exist in the monitoring area of the second imaging device, the process proceeds to S311. In S311 the control unit 206 inputs the image captured by the second imaging device to the person detection unit 203 and controls the angle of view to be switched so as to capture the default monitoring area. In S310, when the person requiring attention is in the monitoring area of the second imaging device, the process returns to S302 and the process is continued.

なお、決定部202は、制御手段によって制御されている撮像装置によって第1検出処理で検出された人物を撮像できなくなった場合、第2撮像装置と異なる撮像装置から第2検出処理に入力する画像を撮像する撮像装置を決定する。他の撮像装置のうち、要注意人物との距離が所定の範囲内(例えば1m〜15m)にある撮像装置を第2撮像装置として決定してもよい。要注意人物と撮像装置との距離は、遠すぎると身体の姿勢判定が難しくなり、近すぎても身体の様子が撮れない。各撮像装置と要注意人物との距離は画像から推定された位置と、既知である撮像装置の絶対位置から計測する。その他、例えば、各撮像装置に図示しない距離センサを備え、要注意人物と各撮像装置との距離を計測してもよい。その計測結果に基づいて、要注意人物と撮像装置との距離が所定の範囲内に存在する撮像装置を決定する。これによって、要注意人物が移動しても他の撮像装置によって要注意人物を継続的に検出できる。 When the image pickup device controlled by the control means cannot image a person detected in the first detection process, the determination unit 202 inputs an image input to the second detection process from an image pickup device different from the second image pickup device. Determine the imaging device to image. Among other imaging devices, an imaging device whose distance from the person requiring attention is within a predetermined range (for example, 1 m to 15 m) may be determined as the second imaging device. If the distance between the person requiring attention and the imaging device is too far, it will be difficult to determine the posture of the body, and if it is too close, the state of the body cannot be captured. The distance between each image pickup device and the person requiring attention is measured from the position estimated from the image and the known absolute position of the image pickup device. In addition, for example, each imaging device may be provided with a distance sensor (not shown) to measure the distance between the person requiring attention and each imaging device. Based on the measurement result, the image pickup device in which the distance between the person requiring attention and the image pickup device is within a predetermined range is determined. As a result, even if the person requiring attention moves, the person requiring attention can be continuously detected by another imaging device.

<変形例>
上記の具体例では、店舗における防犯カメラについて説明したが、それ以外のユースケースでもよい。例えば、病院や介護施設を中心に、高齢者が多い施設において、高齢者の転倒検出を行う場合でも本発明を適用できる。転倒検出は人物の姿勢推定を数フレームにわたって処理する必要があるため、監視領域内のすべての人物に適用すると処理負荷が大きくなってしまう。このとき、第1検出処理では、所定の特徴として検出された人物の年齢を推定し、所定の年齢(例えば60歳以上)より高い年齢が推定された場合、その人物を検出する。人物の年齢推定には、人物の年齢を推定する学習済みモデルを用いてよい。第2検出処理では、人物の所定の行動として転倒状態を検知する。転倒検出には、まず人物の姿勢推定をする学習済みモデルを用いて、さらに人物の姿勢が所定の状態、すなわち転倒状態であるか否かを判断する学習済みモデルを用いる。このように認識処理を行う人物を限定することによって、病院等不特定多数の人が出入りする施設においても効率的に監視が行える。
<Modification example>
In the above specific example, the security camera in the store has been described, but other use cases may be used. For example, the present invention can be applied even when a fall detection of an elderly person is performed in a facility having many elderly people, mainly in a hospital or a long-term care facility. Since it is necessary to process the posture estimation of a person over several frames in the fall detection, if it is applied to all the people in the monitoring area, the processing load becomes large. At this time, in the first detection process, the age of the person detected as a predetermined feature is estimated, and when the age higher than the predetermined age (for example, 60 years or older) is estimated, the person is detected. For estimating the age of a person, a trained model for estimating the age of a person may be used. In the second detection process, the fall state is detected as a predetermined action of the person. For fall detection, first, a trained model that estimates the posture of a person is used, and then a trained model that determines whether or not the posture of the person is in a predetermined state, that is, a fall state is used. By limiting the persons who perform the recognition process in this way, it is possible to efficiently monitor even in a facility such as a hospital where an unspecified number of people enter and exit.

以上説明してきたような手順で、各認識に適した画像に入力を切り替えることで安定的に認識を行うことができる、すなわち、所定の人物を撮像可能な位置にある撮像装置によって撮像された画像を第2検出処理に入力させる。それ以外の残りの撮像装置によって撮像された画像を顔認証処理に入力する。これによって、可能な限り広い領域で、複数の要注意人物の検出を行いながら、所定の人物の行動を監視することが可能となる。これに加えて、特定の人物の行動検出が可能なすべての撮像装置ではなく、行動検出に適した撮像装置を選択することで、行動検出に入力される画像を抑制し行動検出にかかる処理負荷を軽減させる効果が得られる。 By switching the input to an image suitable for each recognition by the procedure as described above, stable recognition can be performed, that is, an image captured by an imaging device at a position where a predetermined person can be imaged. Is input to the second detection process. The images captured by the remaining image pickup devices other than that are input to the face recognition process. This makes it possible to monitor the behavior of a predetermined person while detecting a plurality of persons requiring attention in the widest possible area. In addition to this, by selecting an imaging device suitable for behavior detection instead of all imaging devices capable of detecting the behavior of a specific person, the image input to the behavior detection is suppressed and the processing load applied to the behavior detection. The effect of reducing is obtained.

<実施形態2>
本実施形態は、各撮像装置によって撮像された画像の入力制御を、第1検出処理に入力される画像に含まれる領域が最大になるようにしていたのに加え、第2検出処理の性能も考慮する場合について説明する。なお、実施形態1と同様の部分については説明を省略し、異なる点のみについて説明する。これによって、第2検出処理の精度を向上させることができる。
<Embodiment 2>
In this embodiment, in addition to controlling the input of the image captured by each imaging device to maximize the area included in the image input to the first detection process, the performance of the second detection process is also increased. The case to consider will be described. The same parts as in the first embodiment will be omitted, and only the differences will be described. Thereby, the accuracy of the second detection process can be improved.

図7は、実施形態2における撮像装置情報テーブルの一例である。実施形態1に加えて、撮像装置出力ごとに、予め計測した異常行動監視処理(第2検出処理)の正解率を評価部208が評価する。 FIG. 7 is an example of the image pickup device information table according to the second embodiment. In addition to the first embodiment, the evaluation unit 208 evaluates the correct answer rate of the abnormal behavior monitoring process (second detection process) measured in advance for each output of the imaging device.

例えば、正解率の計測は次のように行う。まず、本実施形態の撮像装置を実際に運用可能な状態になるように設置する。次に、第2検出処理が正確に異常行動と検出する所定の動作を、実際に人が各撮像装置の監視領域内で行う。その間、別の人が提示部205を目視して異常行動と検出されるかどうかを確認する。これを所定の回数繰り返し行い、異常行動と検出された回数との割合を求める。 For example, the correct answer rate is measured as follows. First, the imaging device of the present embodiment is installed so that it can actually be operated. Next, a person actually performs a predetermined operation that the second detection process accurately detects as an abnormal behavior within the monitoring area of each imaging device. Meanwhile, another person visually checks the presentation unit 205 to see if it is detected as abnormal behavior. This is repeated a predetermined number of times, and the ratio between the abnormal behavior and the number of times detected is calculated.

図19におけるS2000で、決定部202は、第2検出処理の正解率に基づいて、第2検出処理に入力する画像を撮像する撮像装置を決定する。決定部202は、人物検出部203から、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を取得する。これらの情報と、撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、最大距離から、要注意人物の位置を推定し、撮像装置情報テーブルを更新する。 In S2000 in FIG. 19, the determination unit 202 determines an imaging device that captures an image to be input to the second detection process based on the correct answer rate of the second detection process. From the person detection unit 203, the determination unit 202 obtains information regarding the ID of the imaging device that captured the person requiring attention, the ID of the person requiring attention, the position of the face of the person requiring attention on the image, and the size of the face of the person requiring attention. get. The position of the person requiring attention is estimated from this information and the position / orientation, angle of view, and maximum distance of the image pickup device described in the image pickup device information table, and the image pickup device information table is updated.

続いて、撮像装置情報テーブルに記載されている撮像装置毎の要注意人物のIDと位置から、要注意人物の位置を求める。本実施形態においては、要注意人物の位置として撮像装置毎に求められた値を平均して出すものとするが、これに限定せずとも別の手法で求めてもよい。 Subsequently, the position of the person requiring attention is obtained from the ID and position of the person requiring attention for each imaging device described in the image pickup device information table. In the present embodiment, the values obtained for each imaging device are averaged as the positions of people requiring attention, but the position is not limited to this and may be obtained by another method.

続いて、各撮像装置について、要注意人物443の第2検出処理が可能かを各撮像装置の監視領域と要注意人物の位置から判定し、その中から異常行動監視処理の正解率が最大の撮像装置出力を第2検出処理に切り替える。 Subsequently, for each imaging device, whether or not the second detection process of the person requiring attention 443 is possible is determined from the monitoring area of each imaging device and the position of the person requiring attention, and the correct answer rate of the abnormal behavior monitoring process is the largest. The image pickup device output is switched to the second detection process.

図19におけるS2001では、行動検出部204が、特定の人物の所定の行動を検出したか否かを判断する。要注意人物の異常行動が検出された場合は、S307に進む。要注意人物の異常行動が検出されなかった場合は、第2撮像装置を決定し直す必要があるため、S2002に進む。なお、行動検出部の判断に関わらず、所定の間隔でS2002に進むようにしてもよい。 In S2001 in FIG. 19, the action detection unit 204 determines whether or not a predetermined action of a specific person has been detected. If an abnormal behavior of a person requiring attention is detected, the process proceeds to S307. If the abnormal behavior of the person requiring attention is not detected, it is necessary to redetermine the second imaging device, so the process proceeds to S2002. In addition, regardless of the judgment of the action detection unit, the process may proceed to S2002 at predetermined intervals.

図19におけるS2002では、評価部208が、複数の撮像装置毎に第1検出処理または第2検出処理の検出性能を評価する。本実施形態では第2検出処理の検出性能として、第1検出処理における要注意人物の検出率を評価する。所定の間隔(例えば100フレームに1回)の頻度で、第2撮像装置を含むすべての撮像装置で撮像された画像を第1検出処理に入力する。要注意人物がよく映っている画像を撮る撮像装置の検出性能を高く評価し、要注意人物が映っていない画像を撮る撮像装置を低く評価する。もし、現在の第2撮像装置より要注意人物がよく検出される画像を撮る撮像装置、すなわち検出性能の高い撮像装置があれば、決定部202は第2撮像装置を変更するためS2000に戻る。現在の第2撮像装置より検出性能が低い撮像装置しかない場合、すなわち検出性能の高い撮像装置がない場合はS310に進む。 In S2002 in FIG. 19, the evaluation unit 208 evaluates the detection performance of the first detection process or the second detection process for each of the plurality of imaging devices. In the present embodiment, the detection rate of the person requiring attention in the first detection process is evaluated as the detection performance of the second detection process. Images captured by all the image pickup devices including the second image pickup device are input to the first detection process at a predetermined interval (for example, once every 100 frames). The detection performance of the image pickup device that captures an image of a person requiring attention is highly evaluated, and the image pickup device that captures an image of a person requiring attention is evaluated low. If there is an image pickup device that captures an image in which a person requiring attention is detected more often than the current second image pickup device, that is, an image pickup device having high detection performance, the determination unit 202 returns to S2000 to change the second image pickup device. If there is only an imaging device having a lower detection performance than the current second imaging device, that is, if there is no imaging device having a higher detection performance, the process proceeds to S310.

図7は、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、第2検出処理の撮像装置を401に決定した後の撮像装置情報テーブルである。図8は図7に対応した撮像装置および監視領域を図示した一例である。撮像装置403、405、407からの撮影画像に対しては、要注意人物検出処理がなされている。撮像装置401からの撮影画像に対しては、第2検出処理がなされている。 FIG. 7 is an image pickup device information table after the image pickup devices capable of the second detection process of the person requiring attention 443 are 401, 403, and 405, and the image pickup device for the second detection process is determined to be 401. FIG. 8 is an example showing the imaging device and the monitoring area corresponding to FIG. 7. The images taken from the image pickup devices 403, 405, and 407 are subjected to the attention-requiring person detection process. A second detection process is performed on the captured image from the image pickup apparatus 401.

ある店舗に設置できる撮像装置の台数には限りがあるため、その撮像装置の台数に応じて追跡する要注意人物の数を制限してもよい。その場合、S303において、第1検出処理で所定の数より多く複数人の要注意人物が検出された場合、優先度に基づいて前記第2検出処理で行動検出する同一人物を選択する。決定部は、要注意人物の優先度に基づいて、要注意人物毎に第2検出処理で行動検出する画像を撮像する第2撮像装置を決定する。あるいは該当する人物を撮像した画像を第2検出処理に入力する順番を決定しても良い。要注意人物の優先度は、予めユーザが設定した優先度あるいは所定の基準を記憶部207に記憶する。例えば、予め設定された要注意人物リストにユーザが優先度のフラグ(大小など)を付与したデータベースを用いる。他、今までの記録から、検出された要注意人物のうち、第2検出処理によって異常行動検出されたことがある人物の優先度を高くする。これによって、要注意人物が多く検出された場合でも処理負荷を軽減できる。以上説明してきたような手順で、第2検出処理の精度を向上させることができる。 Since the number of image pickup devices that can be installed in a store is limited, the number of people requiring attention may be limited according to the number of image pickup devices. In that case, in S303, when a plurality of persons requiring attention are detected in the first detection process in excess of a predetermined number, the same person whose behavior is detected in the second detection process is selected based on the priority. The determination unit determines a second imaging device that captures an image whose behavior is detected by the second detection process for each person requiring attention, based on the priority of the person requiring attention. Alternatively, the order in which the images of the corresponding person are input to the second detection process may be determined. As the priority of the person requiring attention, the priority set in advance by the user or a predetermined standard is stored in the storage unit 207. For example, a database in which a user assigns a priority flag (large or small, etc.) to a preset list of people requiring attention is used. In addition, from the records so far, among the detected persons requiring attention, the person who has detected abnormal behavior by the second detection process is given higher priority. As a result, the processing load can be reduced even when a large number of people requiring attention are detected. The accuracy of the second detection process can be improved by the procedure as described above.

<実施形態3>
本実施形態は、各撮像装置によって撮像された画像の入力制御を、第1検出処理が可能な領域を最大にするようにしていたのに加え、第1検出処理の性能も考慮する場合について説明する。なお、実施形態1と同様の部分については説明を省略し、異なる点のみについて説明する。これによって、第1検出処理の精度を向上させることができる。
<Embodiment 3>
The present embodiment describes a case where the input control of the image captured by each imaging device is set to maximize the area where the first detection process is possible, and the performance of the first detection process is also taken into consideration. To do. The same parts as in the first embodiment will be omitted, and only the differences will be described. Thereby, the accuracy of the first detection process can be improved.

図9は、実施形態3における撮像装置情報テーブルの一例である。撮像装置ごとに、予め計測した顔認証処理の正解率を評価部208によって評価する。 FIG. 9 is an example of the image pickup device information table in the third embodiment. The evaluation unit 208 evaluates the accuracy rate of the face recognition process measured in advance for each imaging device.

顔認証処理の正解率の評価は次のように行う。まず、本実施形態の撮像装置を実際に運用可能な状態になるように設置する。次に、実際に人が各撮像装置の監視領域内に入り、顔認証処理が正確に動作する範囲で様々な方向に顔を向けたり、様々な表情を作ったりする。別の人が、提示部205を目視し顔認証結果を確認する。これを所定の回数、所定の人数で繰り返し行い、正しく顔認証された回数との割合を求める。 The correct answer rate of the face recognition process is evaluated as follows. First, the imaging device of the present embodiment is installed so that it can actually be operated. Next, a person actually enters the monitoring area of each imaging device, turns his face in various directions within the range in which the face recognition process operates accurately, and makes various facial expressions. Another person visually checks the presentation unit 205 to confirm the face recognition result. This is repeated a predetermined number of times and a predetermined number of people, and the ratio with the number of times that the face is correctly authenticated is obtained.

図3におけるS304で、決定部202は、第1検出処理の正解率に基づいて、第2検出処理に入力する画像を撮像する撮像装置を決定する。人物検出部203から、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を取得する。決定部202は、これらの情報と、撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、最大距離から、要注意人物の位置を推定し、撮像装置情報テーブルを更新する。 In S304 in FIG. 3, the determination unit 202 determines an imaging device that captures an image to be input to the second detection process based on the correct answer rate of the first detection process. From the person detection unit 203, information on the ID of the imaging device that captured the person requiring attention, the ID of the person requiring attention, the position of the face of the person requiring attention on the image, and the size of the face of the person requiring attention is acquired. The determination unit 202 estimates the position of the person requiring attention from the information and the position / orientation, angle of view, and maximum distance of the image pickup device described in the image pickup device information table, and updates the image pickup device information table.

続いて、撮像装置情報テーブルに記載されている撮像装置毎の要注意人物のIDと位置から、要注意人物の位置を求める。本実施形態においては、要注意人物の位置として撮像装置毎に求められた値を平均して出すものとするが、これに限定せずとも別の手法で求めてもよい。 Subsequently, the position of the person requiring attention is obtained from the ID and position of the person requiring attention for each imaging device described in the image pickup device information table. In the present embodiment, the values obtained for each imaging device are averaged as the positions of people requiring attention, but the position is not limited to this and may be obtained by another method.

続いて、各撮像装置について、要注意人物443の第2検出処理が可能かを各撮像装置の監視領域と要注意人物の位置から判定し、その中から顔認証処理の正解率が最小となる撮像装置によって撮像された画像を第2検出処理に入力させる。 Subsequently, for each image pickup device, whether or not the second detection process of the person requiring attention 443 is possible is determined from the monitoring area of each image pickup device and the position of the person requiring attention, and the correct answer rate of the face recognition process is minimized from among them. The image captured by the image pickup device is input to the second detection process.

図9は、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、第2画像検出の撮像装置を403に決定した後の撮像装置情報テーブルである。 FIG. 9 is an image pickup device information table after the image pickup devices capable of the second detection process of the person requiring attention 443 are 401, 403, and 405, and the image pickup device for the second image detection is determined to be 403.

図10は、図9に対応した撮像装置および監視領域を図示した一例である。撮像装置401、405、407からの撮影画像に対しては、第1検出処理がなされている。撮像装置403からの撮影画像に対しては、第2検出処理がなされている。 FIG. 10 is an example showing the imaging device and the monitoring area corresponding to FIG. 9. The first detection process is performed on the captured images from the image pickup devices 401, 405, and 407. A second detection process is performed on the captured image from the image pickup apparatus 403.

以上説明してきたような手順で、第1検出処理の精度を向上させることができる。 The accuracy of the first detection process can be improved by the procedure as described above.

<実施形態4>
本実施形態は、実施形態2を拡張し、検出処理性能に影響を与えうる、明るさに関する外部情報に基づいて、各撮像装置によって撮像された画像の入力制御を行う場合について説明する。なお、実施形態1〜2と同様の部分については説明を省略し、異なる点のみについて説明する。これによって各検出処理に適した明るさの画像を入力することで検出処理の精度が安定する。
<Embodiment 4>
This embodiment is an extension of the second embodiment, and describes a case where input control of an image captured by each imaging device is performed based on external information regarding brightness that may affect the detection processing performance. The same parts as those in the first and second embodiments will be omitted, and only the differences will be described. As a result, the accuracy of the detection process is stabilized by inputting an image having a brightness suitable for each detection process.

図11は、情報処理装置101の機能構成の一例を示す図である。図2との差は、取得部210が加わっている点である。取得部210は、撮像装置毎の撮像範囲の明るさに関する外部情報を取得する。すなわち撮像装置毎の撮像範囲の環境光を計測する外界センサ17からの外部情報を取得する。具体的には、外界センサ17は照度センサ等である。そして、制御部206に外界の明るさを示す外部情報を出力する。本実施形態では、上記外部情報が示す明るさは明、通常、暗の3段階であるとする。例えば、ある撮像装置の撮像範囲が所定の明るさより明るい場合、顔認識の精度が落ちる可能性がある。逆に、ある撮像装置の撮像範囲が所定の明るさより暗い場合も、顔認識や行動認識の精度が落ちる可能性がある。そのため、ある領域の明るさについて検出処理に理想的な明るさの範囲を満たす場合に、その領域を撮像する撮像装置は検出処理に適した画像を撮像できる。 FIG. 11 is a diagram showing an example of the functional configuration of the information processing device 101. The difference from FIG. 2 is that the acquisition unit 210 is added. The acquisition unit 210 acquires external information regarding the brightness of the imaging range for each imaging device. That is, external information is acquired from the external sensor 17 that measures the ambient light in the imaging range for each imaging device. Specifically, the outside world sensor 17 is an illuminance sensor or the like. Then, external information indicating the brightness of the outside world is output to the control unit 206. In the present embodiment, the brightness indicated by the external information is assumed to be in three stages of bright and usually dark. For example, if the imaging range of a certain imaging device is brighter than a predetermined brightness, the accuracy of face recognition may decrease. On the contrary, when the imaging range of a certain imaging device is darker than a predetermined brightness, the accuracy of face recognition and behavior recognition may decrease. Therefore, when the brightness of a certain area satisfies the range of brightness ideal for the detection process, the image pickup apparatus that images the area can capture an image suitable for the detection process.

図12は、情報処理装置101の処理の一例を示すフローチャートである。図3との差異はS1200とS1201である。なお、図3と同じステップ番号の処理は実施形態1と同様の処理である。ここでは差がある処理について説明する。S1200では、取得部201が、撮像装置毎の監視領域の明るさに関する外部情報を取得する。S1201では、決定部202が、前記外部情報に基づいて、監視領域における明るさが所定の範囲を満たす撮像装置を第2検出処理に入力する画像を撮像する撮像装置として決定する。まず、実施形態2のS304と同様に、要注意人物の位置情報を取得する。さらに、各撮像装置について、要注意人物443の第2検出処理が可能かを、各撮像装置の監視領域と要注意人物の位置情報とに基づいて判定する。その中から第2検出処理の正解率が最大の撮像装置の画像を第2検出処理に入力させる。この時に、取得部210の外部情報をさらに参照して、第2検出処理の性能を判断する。撮像装置は基本的に照度が高すぎる又は低すぎる場合に各検出処理に適切な画像を撮像できないため、第1または第2検出処理に適切な照度の範囲を予め設定して、その範囲内の照度で撮像できる撮像装置を決定するようにしてもよい。 FIG. 12 is a flowchart showing an example of processing of the information processing device 101. The difference from FIG. 3 is S1200 and S1201. The process of the same step number as in FIG. 3 is the same process as in the first embodiment. Here, the processing with a difference will be described. In S1200, the acquisition unit 201 acquires external information regarding the brightness of the monitoring area for each imaging device. In S1201, the determination unit 202 determines, based on the external information, an image pickup device whose brightness in the monitoring region satisfies a predetermined range as an image pickup device for capturing an image to be input to the second detection process. First, similarly to S304 of the second embodiment, the position information of the person requiring attention is acquired. Further, for each imaging device, it is determined whether or not the second detection process of the person requiring attention 443 is possible based on the monitoring area of each imaging device and the position information of the person requiring attention. The image of the image pickup apparatus having the maximum accuracy rate of the second detection process is input to the second detection process. At this time, the performance of the second detection process is determined by further referring to the external information of the acquisition unit 210. Since the imaging device basically cannot capture an image suitable for each detection process when the illuminance is too high or too low, a range of illuminance suitable for the first or second detection process is set in advance and within that range. An imaging device capable of imaging with illuminance may be determined.

図13は、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、取得部210の情報が「暗」の場合に、第2検出処理の撮像装置を405に決定した後の撮像装置情報テーブルである。 In FIG. 13, when the image pickup devices capable of the second detection process of the person requiring attention 443 are 401, 403, and 405 and the information of the acquisition unit 210 is “dark”, the image pickup device for the second detection process is set to 405. It is an image pickup device information table after the decision.

なお、外界センサ17は本実施形態で示した照度センサに限定せず、環境光を間接的に変化させる遮光カーテンの開閉情報、窓ガラスのある場所での天候情報や時間情報などを取得する装置であってもよい。更には、これらの機器がネットワークI/F14を介して接続されていてもよい。 The external sensor 17 is not limited to the illuminance sensor shown in the present embodiment, but is a device for acquiring information on opening / closing of a light-shielding curtain that indirectly changes ambient light, weather information at a place with a window glass, time information, and the like. It may be. Furthermore, these devices may be connected via the network I / F14.

以上説明してきたような手順で、明るさに関する外部情報に基づいて、各撮像装置によって撮像された画像の入力制御を行う。 In the procedure as described above, the input control of the image captured by each imaging device is performed based on the external information regarding the brightness.

<実施形態5>
本実施形態は、各撮像装置によって撮像された画像の入力制御を、第1検出処理に入力される画像に含まれる領域が最大になるようにしていたのに加え、人物の属性情報(顔向き)に基づいて各検出処理に対する入力制御する場合について説明する。なお、実施形態1と同様の部分については説明を省略し、異なる点のみについて説明する。例えば、要注意人物の顔を正面から撮像できる位置にある撮像装置からは人物の身体も正面を向く可能性が高いため、上記撮像装置によって撮像された画像を第2検出処理に入力することで第2検出処理の精度が向上するという効果が期待できる。
<Embodiment 5>
In the present embodiment, the input control of the image captured by each imaging device is set so that the area included in the image input to the first detection process is maximized, and the attribute information of the person (face orientation). ) Will be described for input control for each detection process. The same parts as in the first embodiment will be omitted, and only the differences will be described. For example, since there is a high possibility that the body of a person also faces the front from an image pickup device that is in a position where the face of a person requiring attention can be imaged from the front, the image captured by the image pickup device can be input to the second detection process. The effect of improving the accuracy of the second detection process can be expected.

図14は情報処理装置102の機能構成の一例を示す図である。実施形態1に顔向き検出部211を加えている。顔向き検出処理は、例えば、顔属性検出(顔向き判定)を行う。また、人物検出部203は要注意人物の検出時に、入力された画像を顔向き検出部211に出力する。すなわち、第1検出処理と顔向き検出処理に入力される画像は共通している。 FIG. 14 is a diagram showing an example of the functional configuration of the information processing device 102. A face orientation detection unit 211 is added to the first embodiment. In the face orientation detection process, for example, face attribute detection (face orientation determination) is performed. Further, the person detection unit 203 outputs the input image to the face orientation detection unit 211 when the person requiring attention is detected. That is, the images input to the first detection process and the face orientation detection process are common.

顔向き検出部211は、人物検出部203から送られる画像または顔特徴に基づいて、人物の顔向きを示す情報を制御部206に出力する。顔向き判定には、人間の顔の向きを学習させたニューラルネットワーク等を用いる。 The face orientation detection unit 211 outputs information indicating the face orientation of the person to the control unit 206 based on the image or the face feature sent from the person detection unit 203. For face orientation determination, a neural network or the like that has learned the orientation of a human face is used.

決定部202は、顔向き検出部211の処理結果に基づいて、複数の撮像装置401〜407毎の画像を人物検出部203、第2検出処理部204のどちらに入力させるかを決定する。 The determination unit 202 determines which of the person detection unit 203 and the second detection processing unit 204 should input the images for each of the plurality of imaging devices 401 to 407 based on the processing results of the face orientation detection unit 211.

図15は、情報処理装置102の処理の一例を示すフローチャートである。図3と同じ符号の処理については実施形態1と同様のため説明を割愛する。S1500において、人物検出部203は、各撮像装置から出力される画像に対し、要注意人物の検出処理(顔認証処理)で要注意人物を検出したか否かを判断する。顔認証処理の結果、要注意人物が検出された場合、撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を決定部202に出力する。また、顔向き検出部211に処理を行った画像を送信する。要注意人物が検出されない場合は、継続して全ての撮像装置について顔認証処理を行う。 FIG. 15 is a flowchart showing an example of processing of the information processing apparatus 102. Since the processing of the same reference numerals as in FIG. 3 is the same as that in the first embodiment, the description thereof will be omitted. In S1500, the person detection unit 203 determines whether or not the person requiring attention has been detected by the detection process (face recognition processing) of the person requiring attention for the image output from each imaging device. When a person requiring attention is detected as a result of face recognition processing, the determination unit determines information on the ID of the imaging device, the ID of the person requiring attention, the position of the face of the person requiring attention on the image, and the size of the face of the person requiring attention. Output to 202. In addition, the processed image is transmitted to the face orientation detection unit 211. If the person requiring attention is not detected, face recognition processing is continuously performed for all the imaging devices.

S1501において、顔向き検出部211は、検出結果である要注意人物の顔向き情報を制御部206に出力する。S1502において、決定部202は、顔向き検出部によって人物の顔が正面であると判定された画像を撮像した撮像装置を第2検出処理に入力する画像を撮像する撮像装置として決定する。実施形態1のS304と同様に、人物検出部203から、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を取得する。これらの情報と、撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、最大距離から、要注意人物の位置を推定し、撮像装置情報テーブルを更新する。 In S1501, the face orientation detection unit 211 outputs the face orientation information of the person requiring attention, which is the detection result, to the control unit 206. In S1502, the determination unit 202 determines as an image pickup device that captures an image to be input to the second detection process by an image pickup device that captures an image in which the face of a person is determined to be front by the face orientation detection unit. Similar to S304 of the first embodiment, from the person detection unit 203, the ID of the imaging device that captured the person requiring attention, the ID of the person requiring attention, the position of the face of the person requiring attention on the image, and the size of the face of the person requiring attention. Get information about the face. The position of the person requiring attention is estimated from this information and the position / orientation, angle of view, and maximum distance of the image pickup device described in the image pickup device information table, and the image pickup device information table is updated.

続いて、撮像装置情報テーブルに記載されている撮像装置毎の要注意人物のIDと位置から、要注意人物の位置を求める。本実施形態においては、要注意人物の位置として撮像装置毎に求められた値を平均して出すものとするが、これに限定せずとも別の手法で求めてもよい。 Subsequently, the position of the person requiring attention is obtained from the ID and position of the person requiring attention for each imaging device described in the image pickup device information table. In the present embodiment, the values obtained for each imaging device are averaged as the positions of people requiring attention, but the position is not limited to this and may be obtained by another method.

続いて、各撮像装置について、要注意人物443の第2検出処理が可能かを各撮像装置の監視領域と要注意人物の位置から判定する。制御部206は、加えて要注意人物の向きを考慮して、異常行動監視処理の正解率が最大の撮像装置によって撮像された画像を第2検出処理に入力させる。 Subsequently, for each imaging device, it is determined from the monitoring area of each imaging device and the position of the person requiring attention whether the second detection process of the person requiring attention 443 is possible. In addition, the control unit 206 causes the second detection process to input the image captured by the image pickup device having the maximum accuracy rate of the abnormal behavior monitoring process in consideration of the orientation of the person requiring attention.

図16は、実施形態5における撮像装置情報テーブルの一例である。実施形態1に加えて、撮像装置出力ごとに、異常行動監視処理の正解率が予め入力されている。これらの正解率は、予め計測しておいた値を記憶部207から入力したものである。 FIG. 16 is an example of the image pickup device information table according to the fifth embodiment. In addition to the first embodiment, the correct answer rate of the abnormal behavior monitoring process is input in advance for each output of the imaging device. These correct answer rates are the values measured in advance input from the storage unit 207.

また、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、第2検出処理の撮像装置を403に決定後の状態を示している。各撮像装置の撮影画像中に写る要注意人物の向きは、401は正面、403は横、405は横であり、それらを考慮する。各撮像装置の要注意人物の第2検出処理の正解率をそれぞれ65%、75%、60%として、この状況下で第2検出処理の正解率が最も高い403の撮像装置出力を切り替えている。 Further, the image pickup devices capable of the second detection process of the person requiring attention 443 are 401, 403, and 405, and the state after the image pickup device for the second detection process is determined to 403 is shown. The orientation of the person requiring attention in the captured image of each imaging device is 401 for the front, 403 for the side, and 405 for the side, and these are taken into consideration. The correct answer rate of the second detection process of the person requiring attention of each image pickup device is 65%, 75%, and 60%, respectively, and the output of the 403 image pickup device having the highest correct answer rate of the second detection process is switched under this situation. ..

なお、本実施形態では、人物の属性情報として「顔向き」を考慮して切り換える撮像装置出力を決定したが、眼鏡やマスクなどの装着物有無や、更には混雑度(人数)などの別の検出結果を使用してもよい。 In the present embodiment, the output of the imaging device to be switched is determined in consideration of "face orientation" as the attribute information of the person, but other factors such as the presence or absence of wearing glasses, masks, and the degree of congestion (number of people) are different. The detection result may be used.

以上説明してきたような手順で、例えば、要注意人物の顔を正面から撮像できる位置にある撮像装置からは人物の身体も正面を向く可能性が高い。そのため、上記撮像装置によって撮像された画像を第2検出処理に入力することで第2検出処理の精度が向上するという効果が期待できる。 With the procedure as described above, for example, there is a high possibility that the body of the person also faces the front from the imaging device located at a position where the face of the person requiring attention can be imaged from the front. Therefore, it can be expected that the accuracy of the second detection process is improved by inputting the image captured by the image pickup apparatus into the second detection process.

<実施形態6>
本実施形態は、実施形態1に加えて、各検出処理の正解率が高くなるように、撮像装置出力ごとに撮像装置の内部パラメータ(露出)を変更する場合について説明する。検出処理に最適な撮像装置の内部パラメータを設定することで、各検出処理の正解率を高めることが可能となる。なお、実施形態1と同様の部分については説明を省略し、異なる点のみについて説明する。
<Embodiment 6>
In this embodiment, in addition to the first embodiment, a case where the internal parameter (exposure) of the imaging device is changed for each output of the imaging device so that the correct answer rate of each detection process is high will be described. By setting the internal parameters of the imaging device that are optimal for the detection process, it is possible to increase the accuracy rate of each detection process. The same parts as in the first embodiment will be omitted, and only the differences will be described.

制御部206は、入力システム201の撮像装置に対し、露出の設定を可能としている。図17は、情報処理装置103の処理の一例を示すフローチャートである。S1901において、制御部206は全ての撮像装置に対して、撮像装置情報テーブルに記載されている顔認証処理に最適な露出を設定させる。 The control unit 206 enables the exposure to be set for the image pickup apparatus of the input system 201. FIG. 17 is a flowchart showing an example of processing of the information processing apparatus 103. In S1901, the control unit 206 causes all the image pickup devices to set the optimum exposure for the face recognition process described in the image pickup device information table.

撮像装置パラメータは予め評価部208を使用して、記憶部207に、後述する図20のように撮像装置情報テーブルの形で記憶されるものとする。 The image pickup device parameters are stored in the storage section 207 in advance in the form of an image pickup device information table as shown in FIG. 20, which will be described later, using the evaluation unit 208.

S1903において、制御部206は、S303で第2検出処理に切り替えられた撮像装置のパラメータをS1901と同様に第2検出処理に最適な露出に変更する。 In S1903, the control unit 206 changes the parameter of the image pickup apparatus switched to the second detection process in S303 to the optimum exposure for the second detection process as in S1901.

図18は、実施形態6における撮像装置情報テーブルの一例である。実施形態1に加えて、撮像装置出力ごとに、要注意人物検出処理および異常行動監視処理の最適な露出が予め入力されている。要注意人物443の第2画像検出が可能な撮像装置が401、403、405であり、第2検出処理の撮像装置を405に決定した後の撮像装置情報テーブルである。この時、撮像装置401,403、407の露出は、それぞれ第1検出処理に最適な+3、−1、−2に、撮像装置405の露出は、第2検出処理に最適な−1に設定されている。 FIG. 18 is an example of the image pickup device information table according to the sixth embodiment. In addition to the first embodiment, the optimum exposure of the person requiring attention detection processing and the abnormal behavior monitoring processing is input in advance for each output of the imaging device. The image pickup devices capable of detecting the second image of the person requiring attention 443 are 401, 403, and 405, and the image pickup device information table after the image pickup device for the second detection process is determined to be 405. At this time, the exposure of the imaging devices 401, 403, and 407 is set to +3, -1, and -2, which are optimal for the first detection process, respectively, and the exposure of the imaging device 405 is set to -1, which is optimal for the second detection process. ing.

なお、本実施形態では、設定する撮影パラメータを「露出」として記載しているが、これに限るものではなく、フレームレート、ビットレート(画質)、ホワイトバランスなどの一般的に撮像装置で使用されている内部パラメータを使用してもよい。 In this embodiment, the shooting parameter to be set is described as "exposure", but the present invention is not limited to this, and is generally used in an imaging device such as frame rate, bit rate (image quality), and white balance. You may use the internal parameters that are available.

以上説明してきたような手順で、各検出処理の正解率を高めることが可能となる。また、検出処理に最適な撮像装置の内部パラメータを設定することで、各検出処理の正解率を高めることが可能となる。 With the procedure as described above, it is possible to increase the accuracy rate of each detection process. In addition, by setting the internal parameters of the imaging device that are optimal for the detection process, it is possible to increase the accuracy rate of each detection process.

<その他の実施形態>
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、データ通信用のネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータが読み取り可能な記録媒体に記録して提供してもよい。
<Other Embodiments>
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network for data communication or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or device reads and executes the program. Further, the program may be recorded and provided on a computer-readable recording medium.

100 情報処理装置
202 決定部
203 人物検出部
204 行動検出部
205 提示部
206 制御部
208 評価部
207 記憶部
210 選択部
100 Information processing device 202 Decision unit 203 Person detection unit 204 Behavior detection unit 205 Presentation unit 206 Control unit 208 Evaluation unit 207 Storage unit 210 Selection unit

Claims (17)

画像から人物検出を行う人物検出部、および人物の行動検出を行う行動検出部を有する情報処理装置であって、
前記人物検出部によって同一人物が検出された画像を撮像した撮像装置のそれぞれを、前記人物検出部によって前記同一人物とは異なる他の人物を検出する画像を撮像する第1撮像装置、または前記同一人物の行動を検出する行動検出部に入力する画像を撮像する第2撮像装置、として決定する決定手段と、
前記第1撮像装置によって撮像された画像を前記人物検出部に入力し、前記第2撮像装置によって前記同一人物を撮像された画像を前記行動検出部に入力するように制御する制御手段と、を有することを特徴とする情報処理装置。
An information processing device having a person detection unit that detects a person from an image and a behavior detection unit that detects a person's behavior.
Each of the imaging devices that captures an image in which the same person is detected by the person detection unit is the first imaging device that captures an image that detects another person different from the same person by the person detection unit, or the same. A determination means for determining as a second imaging device that captures an image to be input to a behavior detection unit that detects a person's behavior, and
A control means for inputting an image captured by the first imaging device to the person detection unit and controlling the image of the same person captured by the second imaging device to be input to the behavior detection unit. An information processing device characterized by having.
前記決定手段は、少なくとも1つ以上の撮像装置を前記第1撮像装置として決定することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the determination means determines at least one or more imaging devices as the first imaging device. 前記決定手段は、前記第2撮像装置以外の撮像装置によって撮像された画像を前記行動検出部に入力しないようにすることを決定することを特徴とする請求項1または2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the determination means determines not to input an image captured by an imaging device other than the second imaging device to the behavior detection unit. .. 前記人物検出部は、前記画像から予め登録された特徴を有する要注意人物を検出し、
前記行動検出部は、予め登録された犯罪行動の予兆を前記要注意人物について検出することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
The person detection unit detects a person requiring attention having a feature registered in advance from the image.
The information processing device according to any one of claims 1 to 3, wherein the behavior detection unit detects a sign of a criminal behavior registered in advance for the person requiring attention.
前記人物検出部は、前記画像から所定の値より年齢が高い人物を検出し、
前記行動検出部は、前記所定の値より年齢が高い人物について転倒検出をすることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
The person detection unit detects a person who is older than a predetermined value from the image, and determines the person.
The information processing device according to any one of claims 1 to 3, wherein the behavior detection unit detects a fall of a person who is older than the predetermined value.
前記決定手段は、前記第2撮像装置によって前記同一人物を撮像できなくなった場合、前記第2撮像装置として決定しなかった前記第1撮像装置から前記行動検出部に入力する画像を撮像する次の前記第2撮像装置として決定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 When the same person cannot be imaged by the second imaging device, the determination means captures an image input to the behavior detection unit from the first imaging device that has not been determined as the second imaging device. The information processing device according to any one of claims 1 to 5, wherein the information processing device is determined as the second image pickup device. 前記複数の撮像装置毎に、前記同一人物との距離を計測する計測手段を更に有し、
前記決定手段は、前記第2撮像装置によって前記同一人物を撮像できなくなった場合、前記複数の撮像装置のうち前記同一人物との距離が所定の範囲内である撮像装置を前記行動検出部に入力する画像を撮像する撮像装置として決定することを特徴とする請求項6に記載の情報処理装置。
Each of the plurality of imaging devices further includes a measuring means for measuring the distance to the same person.
When the same person cannot be imaged by the second image pickup device, the determination means inputs an image pickup device having a distance from the same person within a predetermined range among the plurality of image pickup devices to the behavior detection unit. The information processing apparatus according to claim 6, wherein the information processing apparatus is determined as an imaging apparatus for capturing an image to be processed.
前記複数の撮像装置毎に前記人物検出部の検出性能を評価する評価手段を更に有し、
前記制御手段は、前記第2撮像装置が撮像した画像を所定の間隔で前記人物検出部に入力するよう制御し、
前記決定手段は、前記評価手段によって評価された検出性能が前記第2撮像装置より高い撮像装置を、前記同一人物の行動を検出する前記行動検出部に入力する撮像装置に決定することを特徴とする請求項1乃至7いずれか1項に記載の情報処理装置。
Each of the plurality of imaging devices further has an evaluation means for evaluating the detection performance of the person detection unit.
The control means controls so that the images captured by the second imaging device are input to the person detection unit at predetermined intervals.
The determination means is characterized in that an imaging device having a detection performance higher than that of the second imaging device evaluated by the evaluation means is determined as an imaging device that inputs to the behavior detection unit that detects the behavior of the same person. The information processing apparatus according to any one of claims 1 to 7.
前記人物検出部によって検出された人物が前記撮像装置の台数に応じた所定の数より多く検出された場合、
前記行動検出部に入力する優先度を前記人物毎に取得する第1取得手段と、
前記第1取得手段によって取得された前記優先度に基づいて前記行動検出部で行動検出する前記人物から行動検出を行う人物を選択する選択手段と、を更に有し、
前記決定手段は、前記選択手段によって選択された前記人物ごとに前記行動検出部に入力する画像を撮像する第2撮像装置を決定することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
When the number of people detected by the person detection unit is more than a predetermined number according to the number of the image pickup devices,
The first acquisition means for acquiring the priority to be input to the action detection unit for each person, and
Further, it has a selection means for selecting a person who performs action detection from the person whose action is detected by the action detection unit based on the priority acquired by the first acquisition means.
The determination means according to any one of claims 1 to 8, wherein the determination means determines a second imaging device for capturing an image to be input to the behavior detection unit for each person selected by the selection means. The information processing device described.
前記決定手段は、前記人物検出部に入力される画像に映る領域の大きさに関する前記所定の条件を満たす前記第2撮像装置を決定することであることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 Any of claims 1 to 9, wherein the determination means is to determine the second image pickup apparatus that satisfies the predetermined condition regarding the size of the area reflected in the image input to the person detection unit. The information processing device according to item 1. 前記複数の撮像装置のそれぞれについて、前記行動検出部の正解率を記憶する記憶手段を更に有し、
前記決定手段は、前記行動検出部の正解率に基づいて、前記行動検出部の正解率に関する前記所定の条件を満たす前記第2撮像装置を決定することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
Each of the plurality of imaging devices further has a storage means for storing the correct answer rate of the behavior detection unit.
Any of claims 1 to 10, wherein the determination means determines the second imaging device that satisfies the predetermined condition regarding the correct answer rate of the behavior detection unit based on the correct answer rate of the behavior detection unit. The information processing device according to item 1.
前記記憶手段は、前記複数の撮像装置のそれぞれについて、前記人物検出部の正解率を記憶し、
前記決定手段は、前記人物検出部の正解率に基づいて、前記人物検出部の正解率に関する前記所定の条件を満たす前記第2撮像装置を決定することを特徴とする請求項11に記載の情報処理装置。
The storage means stores the correct answer rate of the person detection unit for each of the plurality of imaging devices.
The information according to claim 11, wherein the determination means determines the second imaging device that satisfies the predetermined condition regarding the correct answer rate of the person detection unit based on the correct answer rate of the person detection unit. Processing equipment.
前記撮像装置毎の監視領域の明るさに関する外部情報を取得する第2取得手段を更に有し、
前記決定手段は、前記外部情報に基づいて、前記監視領域における明るさが所定の範囲を満たす前記撮像装置を前記第2撮像装置として決定することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
Further, it has a second acquisition means for acquiring external information regarding the brightness of the monitoring area for each imaging device.
Any one of claims 1 to 12, wherein the determination means determines the image pickup device whose brightness in the monitoring region satisfies a predetermined range as the second image pickup device based on the external information. The information processing device described in the section.
前記画像に映った前記同一人物の顔の向きを認識する顔向き検出処理を行う顔向き検出手段を更に有し、
前記決定手段は、前記顔向き検出手段によって前記同一人物の顔の向きが正面であると検出された前記画像を撮像した前記撮像装置を前記第2撮像装置として決定することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
Further having a face orientation detecting means for performing a face orientation detecting process for recognizing the orientation of the face of the same person reflected in the image.
The determination means is characterized in that the image pickup device that has captured the image detected by the face orientation detection means that the face orientation of the same person is the front is determined as the second image pickup device. The information processing apparatus according to any one of 1 to 13.
画像から人物検出を行う人物検出部、および人物の行動検出を行う行動検出部を有する情報処理装置であって、
同一人物を複数の撮像装置が撮影した際、該複数の撮像装置のそれぞれを、前記同一人物とは異なる人物を検出するために用いるか、前記同一人物の行動検出に用いるか分類する分類手段と、
前記分類した結果に基づいて、前記撮像装置で撮像された画像のそれぞれを、前記人物検出部または前記行動検出部の何れかに入力する制御手段と
を有することを特徴とする情報処理装置。
An information processing device having a person detection unit that detects a person from an image and a behavior detection unit that detects a person's behavior.
When a plurality of imaging devices photograph the same person, each of the plurality of imaging devices is used as a classification means for classifying whether to use the same person for detecting a person different from the same person or for detecting the behavior of the same person. ,
An information processing device having a control means for inputting each of the images captured by the image pickup device to either the person detection unit or the behavior detection unit based on the classification result.
コンピュータを、請求項1乃至15のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each means included in the information processing apparatus according to any one of claims 1 to 15. 画像から人物検出を行う人物検出ステップ、および人物の行動検出を行う行動検出ステップを有する情報処理方法であって、
前記人物検出ステップによって同一人物が検出された画像を撮像した撮像装置のそれぞれを、前記人物検出ステップによって前記同一人物とは異なる他の人物を検出する画像を撮像する第1撮像装置、または前記同一人物の行動を検出する行動検出部に入力する画像を撮像する第2撮像装置、として決定する決定ステップと、
前記第1撮像装置によって撮像された画像を前記人物検出ステップに入力し、前記第2撮像装置によって前記同一人物を撮像された画像を前記行動検出ステップに入力するように制御する制御ステップと、を有することを特徴とする情報処理方法。
An information processing method having a person detection step for detecting a person from an image and a behavior detection step for detecting the behavior of the person.
Each of the image pickup devices that captured the image in which the same person was detected by the person detection step is the first image pickup device that captures an image that detects another person different from the same person by the person detection step, or the same. A determination step for determining as a second imaging device that captures an image to be input to the behavior detection unit that detects the behavior of a person, and
A control step in which an image captured by the first imaging device is input to the person detection step, and an image captured by the same person by the second imaging device is input to the behavior detection step. An information processing method characterized by having.
JP2019141357A 2019-07-31 2019-07-31 Information processing apparatus, information processing method, and program Pending JP2021027399A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019141357A JP2021027399A (en) 2019-07-31 2019-07-31 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019141357A JP2021027399A (en) 2019-07-31 2019-07-31 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021027399A true JP2021027399A (en) 2021-02-22

Family

ID=74664104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019141357A Pending JP2021027399A (en) 2019-07-31 2019-07-31 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021027399A (en)

Similar Documents

Publication Publication Date Title
US20190333241A1 (en) People flow analysis apparatus, people flow analysis system, people flow analysis method, and non-transitory computer readable medium
JP5390322B2 (en) Image processing apparatus and image processing method
JP6406241B2 (en) Information processing system, information processing method, and program
JP5569990B2 (en) Attribute determination method, attribute determination apparatus, program, recording medium, and attribute determination system
JP5567853B2 (en) Image recognition apparatus and method
US12014570B2 (en) Face authentication apparatus
US9477876B2 (en) Person recognition apparatus and method thereof
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP2014182480A (en) Person recognition device and method
JP2013003964A (en) Face image search system and face image search method
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
KR20190093799A (en) Real-time missing person recognition system using cctv and method thereof
Robin et al. Improvement of face and eye detection performance by using multi-task cascaded convolutional networks
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
JP2014064083A (en) Monitoring device and method
JP5752976B2 (en) Image monitoring device
JP2003196017A (en) Data input method and device
Divjak et al. Real-time video-based eye blink analysis for detection of low blink-rate during computer use
US11363241B2 (en) Surveillance apparatus, surveillance method, and storage medium
JP2021027399A (en) Information processing apparatus, information processing method, and program
JP2012049774A (en) Video monitoring device
KR101877873B1 (en) System and method for fear mentality analysis
JP2019110474A (en) Suspicious person detection device
JP2011227677A (en) Notification device
JP2013120954A (en) Sleeping face recognition device