JP2021027399A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2021027399A JP2021027399A JP2019141357A JP2019141357A JP2021027399A JP 2021027399 A JP2021027399 A JP 2021027399A JP 2019141357 A JP2019141357 A JP 2019141357A JP 2019141357 A JP2019141357 A JP 2019141357A JP 2021027399 A JP2021027399 A JP 2021027399A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- detection unit
- imaging device
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、画像から特定の人物または人物の行動を検出する技術に関する。 The present invention relates to a technique for detecting a specific person or the behavior of a specific person from an image.
近年、複数の撮像装置を店舗に設置し、撮像された画像に基づき来客の行動を監視する技術が普及している。このような技術では複数段階の検出処理が行われる場合がある。例えば、店舗内で各撮像装置の監視領域に存在する人物を画像から検出する人物検出が行われる。さらに、検出された人物が犯罪の予兆となる不審な行動(見まわし、物色)をしているか動画から検出する行動検出が行われる。特許文献1は、人物検出用の撮像装置で撮影された画像から検出された人物を追跡用の撮像装置で追跡する。
In recent years, a technique of installing a plurality of imaging devices in a store and monitoring the behavior of a visitor based on the captured images has become widespread. In such a technique, a plurality of stages of detection processing may be performed. For example, a person detection is performed in which a person existing in a monitoring area of each imaging device in a store is detected from an image. Furthermore, behavior detection is performed to detect from the video whether the detected person is performing suspicious behavior (look around, looking for something) that is a sign of a crime. In
特許文献1では、複数の追跡用の撮像装置で特定の人物を撮像できる場合、特定の人物の追跡、すなわち行動検出を複数の撮像装置で撮像された画像で認識処理する。その場合は行動検出にかかる処理負荷が大きくなる恐れがある。本発明は上記課題に鑑みてなされたものであり、特定の人物の行動検出が可能なすべての撮像装置ではなく、行動検出に適した撮像装置を選択することで、行動検出に入力される画像を抑制し行動検出にかかる処理負荷を軽減することを目的とする。
In
上記課題を解決する本発明にかかる情報処理装置は、画像から人物検出を行う人物検出部、および人物の行動検出を行う行動検出部を有する情報処理装置であって、前記人物検出部によって同一人物が検出された画像を撮像した撮像装置のそれぞれを、前記人物検出部によって前記同一人物とは異なる他の人物を検出する画像を撮像する第1撮像装置、または前記同一人物の行動を検出する行動検出部に入力する画像を撮像する第2撮像装置、として決定する決定手段と、前記第1撮像装置によって撮像された画像を前記人物検出部に入力し、前記第2撮像装置によって前記同一人物を撮像された画像を前記行動検出部に入力するように制御する制御手段と、を有することを特徴とする。 The information processing device according to the present invention that solves the above problems is an information processing device having a person detection unit that detects a person from an image and an action detection unit that detects a person's behavior, and the same person is detected by the person detection unit. The first imaging device that captures an image that detects another person different from the same person by the person detection unit, or an action that detects the behavior of the same person, for each of the imaging devices that have captured the detected image. A determination means for determining as a second imaging device that captures an image input to the detection unit, and an image captured by the first imaging device are input to the person detection unit, and the same person is captured by the second imaging device. It is characterized by having a control means for controlling the captured image to be input to the behavior detection unit.
本発明によれば、特定の人物の行動検出が可能なすべての撮像装置ではなく、行動検出に適した撮像装置を選択することで、行動検出に入力される画像を抑制し行動検出にかかる処理負荷を軽減できる。 According to the present invention, by selecting an imaging device suitable for behavior detection instead of all imaging devices capable of detecting the behavior of a specific person, the image input to the behavior detection is suppressed and the processing related to the behavior detection is performed. The load can be reduced.
<実施形態1>
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<
Hereinafter, embodiments will be described with reference to the drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.
図1は、情報処理装置100のハードウェア構成例を示す図である。情報処理装置100は、ハードウェア構成として、CPU10、ROM11、RAM12、外部メモリ13、ネットワークI/F(インターフェース)14、表示部15、入力部16、システムバス18を含む。
FIG. 1 is a diagram showing a hardware configuration example of the
中央処理ユニット(CPU)10は、RAM12をワークメモリとして、ROM11や外部メモリ13に格納されたOSやその他プログラムを読みだして実行し、システムバス18に接続された各構成を制御して、各種処理の演算や論理判断などを行う。ROM11は、CPU10が処理に利用するデータ、プログラム等を記憶する。外部メモリ13は、ハードディスクやSSD等であり、ROM11には収まらないデータやプログラム等を記憶する。これらデータやプログラムはネットワーク上の他の機器よりネットワークI/F14を介して取得してもよい。ネットワークI/F14は、情報処理装置100をネットワークに接続するインターフェースである。表示部15は、液晶表示装置等であり、CPU10による処理の結果等を表示する。入力部16は、マウス、又はボタン等であり、ユーザの操作を情報処理装置100に入力する。なお、これらのハードウェアは情報処理装置100と接続された別装置がそれぞれの構成を有していてもよい。CPU10がROM11および外部メモリ13に記憶されたプログラムに基づき処理を実行することにより、後述する図2の情報処理装置100の機能構成及び後述する図3のフローチャートの処理が実現される。
The central processing unit (CPU) 10 uses the
図2は情報処理装置100の機能構成の一例を示す図である。情報処理装置100は、複数の撮像装置によって撮像された画像から人物を検出する情報処理装置であって、決定部202、人物検出部203、行動検出部204、提示部205、制御部206、評価部208、記憶部207、選択部209を含む。撮像装置401,403,405,407は、予め監視対象領域である店舗内に、店舗内に死角が発生しないようにかつ各撮像装置の監視領域がなるべく重複しないように設置される。ここでは、4台の撮像装置401、403、405、407によって監視する例を説明する。
FIG. 2 is a diagram showing an example of the functional configuration of the
決定部202は、画像から所定の特徴を有する人物を検出する人物検出処理の結果に基づいて、同一人物を検出可能な画像を撮像した撮像装置のそれぞれを、同一人物とは異なる他の人物を検出する人物検出処理に入力する画像を撮像する第1撮像装置を決定する。または同一人物の行動を検出する第2検出処理に入力する画像を撮像する第2撮像装置、として決定する。つまり、予め準備された撮像装置ごとの検出率に関する情報を用いて、人物検出に入力する画像と行動検出に入力する画像を分類する。ここで、すべての撮像装置のうち、第1検出処理で特定の人物を検出した画像を撮像した撮像装置のうち、第1検出処理を継続する撮像装置を第1撮像装置とする。また、第1検出処理で特定の人物を検出した画像を撮像した撮像装置のうち、第2検出処理に適した撮像装置として所定の条件を満たす撮像装置を第2撮像装置とする。ある特定の同一人物を撮像した撮像装置が複数台あった場合に、必要最低限の台数で行動検出を行うようにすることで、行動検出を行う画像の量を減らし処理負荷を軽減できる。なお、所定の条件とは、例えば、第1撮像装置によって撮像できる撮像領域が所定の大きさより大きいという条件、各検出処理が満たすべき正解率に関する条件、同一人物の顔の向きの条件である。このようにして、第2撮像装置が撮像した画像のみを第2検出処理に入力することで処理負荷を軽減できる。詳しい処理については後述する。ここで、第1検出処理は予め登録された要注意人物(同一人物)を検出する処理である。第2検出処理は、第1検出処理において要注意人物が検出された場合、第1検出処理で検出された要注意人物の行動を監視し、それが犯罪行動であるか否かを検出する。
The
人物検出部203は、複数の撮像装置によって撮像された画像に対して、人物検出処理(第1検出処理)を行う。ここでは、予め登録された特徴を有する要注意人物の検出を行う。第1検出処理の一例として、顔認識の処理を説明する。まず、人物検出部203は、入力された画像に対して、顔の構成要素である目や鼻の画像特徴を抽出することによって、画像に含まれる顔画像の検出を行う。画像に人物が含まれない場合は顔画像を検出しない。画像に複数の人物が含まれる場合は各人物の顔画像を検出する。顔の検出手法は既存の公知の手法を使えばよい。例えば、鼻、口や目などの顔画像の構成要素に相当する形状を示す画像特徴を抽出する。抽出された両目の大きさとそれらの距離から顔の大きさを推定し、鼻の中心に相当する位置を基準として、抽出された大きさの領域で囲んだ領域を顔画像とする。
The
次に顔画像から、個人を特定可能な人物の部位の位置関係を示す特徴を取得する。ここでいう特徴とは、画像からエッジ検出等で得られるような画像特徴であることが想定されている。取得方法は任意で良いが、本実施形態では以下のように人物の顔についての特徴を抽出する。まず画像から特定された目・鼻・口など代表的な器官の位置に基づいて、両目の幅が所定の距離になるように、両目を結ぶ線分が画像上で水平になるように画像を回転・拡大縮小する。そして顔画像に特徴を抽出する矩形領域を設定する。領域の大きさは任意であるが、個人の特徴をよく表す目や口などの器官がもれなく入るように、しかし背景などは入らないように、一辺が目幅のおおよそ1.5倍程度の正方形を顔の中央に配置するとよい。続いて矩形領域内の画素値を左上から右下に向かって順に取り出し、一列につなげてベクトルとする。なお、本実施形態に用いる人物の特徴の抽出は、上記に示した手法に限らない。例えば、ディープニューラルネットワークを用いて個人毎の特徴を抽出してもよい。具体的には、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)における、畳込み層から取得できる画像特徴などを取得する。この場合、顔画像を、個人の識別を学習させたニューラルネットワーク(学習済みモデル)に入力することによって、個人の識別に必要な特徴を取得する。なお、学習済みモデルとは、撮像画像から撮像画像に対応する検出結果を出力するニューラルネットワークに基づくネットワーク構造とそのパラメータである。認識は、例えば画像から個人を特定するものでもよい。学習済みモデルを用いることで、より精度良く個人の認識を行うことができる。 Next, from the face image, a feature indicating the positional relationship of the part of the person who can identify the individual is acquired. It is assumed that the feature referred to here is an image feature that can be obtained from an image by edge detection or the like. The acquisition method may be arbitrary, but in the present embodiment, the features of the human face are extracted as follows. First, based on the positions of typical organs such as eyes, nose, and mouth identified from the image, make the image so that the line segment connecting both eyes is horizontal on the image so that the width of both eyes is a predetermined distance. Rotate / enlarge / reduce. Then, a rectangular area for extracting features is set in the face image. The size of the area is arbitrary, but a square with one side about 1.5 times the width of the eyes so that organs such as eyes and mouth that well represent individual characteristics can be inserted, but the background etc. are not included. Should be placed in the center of the face. Next, the pixel values in the rectangular area are taken out in order from the upper left to the lower right, and connected in a row to form a vector. The extraction of the characteristics of the person used in this embodiment is not limited to the method shown above. For example, a deep neural network may be used to extract individual features. Specifically, the image features and the like that can be acquired from the convolutional layer in the CNN (Convolutional Neural Network) are acquired. In this case, by inputting the face image into the neural network (learned model) trained to identify the individual, the features necessary for the identification of the individual are acquired. The trained model is a network structure based on a neural network that outputs a detection result corresponding to the captured image from the captured image and its parameters. The recognition may be, for example, identifying an individual from an image. By using the trained model, individual recognition can be performed more accurately.
行動検出部204は、決定部202によって決定された第2撮像装置が撮像した画像に対して、第2検出処理を行う。第2検出処理は、人物の行動認識を行い、予め登録された犯罪行動の予兆を検出する。第2検出処理の一例として、ニューラルネットワークを用いた異常行動検出を説明する。学習データとして、検出すべき異常行為(例えば、窃盗や暴力)をとる人物の画像を異常事例のラベルを付ける。それ以外の普通の行為(例えば、歩く、話す)は正常事例のラベルを付ける。このような学習データを多く作成し、ニューラルネットワークに入力する。学習済みのニューラルネットワークは、画像(一連の行動を撮像した時系列画像でもよい)を入力すると、その画像に映った人物が正常な行動か異常な行動かを出力する。なお、学習の方法は上記に限らない。
The
行動認識では、人物の顔の部分だけではなく、手元や足元の動きを認識する必要がある。すなわち、顔認識では顔が鮮明に映った画像が適切であるが、行動認識に適した画像はその限りではない。そのため、行動認識に適した画像を撮像可能な撮像装置を選択する必要がある。また、もしユーザがリアルタイムに店舗の監視を行いたい場合は、複数の領域における入力画像をすべて第1検出処理と第2検出処理にかけることが理想的である。しかしながら、計算リソースには限りがある。例えば、異常行動検出には、人物の全身について情報を抽出するため、顔認識よりも処理負荷が大きい。そのため、すべての撮像画像を行動検出に入力すると、処理負荷が膨大になり、リアルタイムに処理できなく可能性がある。このような場合に、どの領域(撮像装置)の画像をどの検出処理に入力するかを適切に制御することで、より広い領域をより少ない処理負荷で監視できる。なお、第1検出処理と第2検出処理との組み合わせは上記の組み合わせに限らない。なお、第2検出処理の処理負荷が第1検出処理よりも大きい場合に、情報処理装置100にかかる処理負荷をより軽減できる。
In behavior recognition, it is necessary to recognize not only the movement of the person's face but also the movement of the hands and feet. That is, in face recognition, an image in which the face is clearly reflected is appropriate, but an image suitable for behavior recognition is not limited to this. Therefore, it is necessary to select an imaging device capable of capturing an image suitable for behavior recognition. Further, if the user wants to monitor the store in real time, it is ideal that all the input images in the plurality of areas are subjected to the first detection process and the second detection process. However, computational resources are limited. For example, abnormal behavior detection has a larger processing load than face recognition because it extracts information about the whole body of a person. Therefore, if all the captured images are input to the behavior detection, the processing load becomes enormous and there is a possibility that the processing cannot be performed in real time. In such a case, a wider area can be monitored with a smaller processing load by appropriately controlling which area (imaging device) image is input to which detection process. The combination of the first detection process and the second detection process is not limited to the above combination. When the processing load of the second detection process is larger than that of the first detection process, the processing load on the
提示部205は、人物検出部203または行動検出部204の検出結果を、情報処理装置100の操作者に提示する。検出結果は、例えば、表示装置によって表示される。音声発生装置で検出結果を発声してもよい。具体的には、第2検出処理によって、要注意人物の犯罪の予兆が検出された場合は、操作者に対して要注意人物の顔や位置を提示する。
The
制御部206は、決定部202で決定された撮像装置を、同一人物を撮像するように制御する。具体的には、第1検出処理で検出された同一人物の身体を撮像するように、第2検出処理に入力する画像を撮像する撮像装置の画角を制御する。
The
記憶部207は、後述する図5の撮像装置情報テーブルを記憶する。評価部208は、第1検出処理または第2検出処理について、検出性能を評価する。具体的な評価方法は、実施形態2で説明する。選択部209は、第1検出処理によって検出された要注意人物が撮像装置の台数に応じた所定の数より多く検出された場合、要注意人物毎に設定された優先度に基づいて前記第1検出処理で行動検出する同一人物を選択する。優先度とは、複数の要注意人物のうち、優先順位が高い順に行動検出を行うことを示す。例えば、要注意人物のリストとともに行動検出を行う優先順位についての情報を予め設定しておく。
The
図3は、情報処理装置100が実行する処理の一例を示すフローチャートである。以下の説明では、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。ただし、情報処理装置100はこのフローチャートで説明するすべてのステップを必ずしも行わなくてもよい。図3のフローチャートに示した処理は、コンピュータである図1のCPU10によりROM11に格納されているコンピュータプログラムに従って実行される。
FIG. 3 is a flowchart showing an example of processing executed by the
S301において、人物検出部203は、複数の撮像装置によって撮像された画像から所定の特徴を有する同一人物を検出する第1検出処理を行う。第1検出処理において、まず、すべての入力画像に対して人物の特徴を抽出する。さらに、抽出された人物の特徴と、設定された要注意人物の特徴とを比較する。所定の閾値より類似した人物を要注意人物として検出する。以後、特に断りの無い限り、撮像装置によって撮像された画像は、人物検出部203もしくは行動検出部204に継続して出力され、検出処理されるものとする。
In S301, the
引き続き、S302において、人物検出部203は、各撮像装置が撮像した画像に対し、要注意人物の検出処理(第1検出)を実行し、要注意人物が検出されたか否かを判断する。ここで要注意人物を特定するための要注意人物の顔の特徴が、予め第1検出処理に設定されているものとする。人物検出に用いる人間の部位の特徴は、個人を特定可能な特徴であれば顔特徴以外でもよい。第1検出処理の結果、要注意人物が検出された場合、S303に進む。この際、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさといった情報を決定部202に出力する。検出されない場合は、S301に戻り、次の時系列画像を取得し、継続して全ての撮像装置によって撮像された画像について顔認証処理を行う。
Subsequently, in S302, the
S303では、選択部209が、第1検出処理によって検出された要注意人物が撮像装置の台数に応じた所定の数より多く検出された場合、要注意人物毎に設定された優先度に基づいて第2検出処理で行動検出する同一人物を選択する。これによって要注意人物が複数人いる場合でも安定して行動監視を行うことができる。なお、要注意人物が1人の場合は、このステップを飛ばしてよい。
In S303, when the
S304では、決定部202は、人物検出部203の処理結果と記憶部207の情報とに基づいて、要注意人物の犯罪予兆となる行動を検出(第2検出処理)するための画像を撮像する撮像装置(以下、第2撮像装置と呼ぶ)を決定する。S303において、複数人の要注意人物について優先順位が設定されている場合は、要注意人物毎に第2検出処理をするための画像を撮像する撮像装置を決定する。決定方法の一例は、まず、第1検出処理の処理結果として、検出された人物のうち、要注意人物を検出した画像を撮像した第1撮像装置を特定する。さらに、特定された第1撮像装置のうち、第1検出処理に入力される画像がカバーする第1撮像装置による監視領域が最大になるように、第2検出処理に用いる画像を撮像する少なくとも1つ以上の第2撮像装置を決定する。ここでは、第1検出処理において、複数の撮像装置の画像から同一の要注意人物を検出した場合、その複数の撮像装置の画像をすべて第2検出処理に入力するようにすると処理負荷が大きくなってしまう。その結果、リアルタイムに要注意人物を検出できなくなる恐れがある。処理負荷が大きくなりすぎることを防ぐために、第1検出処理で要注意人物を検出した画像を撮像した撮像装置のうち、一部の撮像装置によって第2検出処理に入力する画像を撮像するようにする。これによって、処理負荷を軽減できる。
In S304, the
以下、切り替えの処理の流れを、図4、図5を併用して説明する。図4は、店舗410内に撮像装置401、403、405、407が設置されている様子を図示した一例である。撮像装置401、403、405、407が撮影した画像に対しては、要注意人物検出処理(第1検出処理)がなされている。
Hereinafter, the flow of the switching process will be described with reference to FIGS. 4 and 5. FIG. 4 is an example showing how the
ここで領域402、404、406、408はそれぞれ撮像装置401、403、405、407が検出対象である人物の第1検出処理(顔認証処理)および第2検出処理(行動検出)を所定の正解率(例えば、70%)で実施可能な監視領域を示している。
Here, in the
監視領域は後述する図5の撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、認識可能な撮像装置から被写体までの最大距離から算出される。撮像装置情報テーブルは、実際に撮像装置を設置して検出処理を実行し、検出が正しく行える監視領域を、ユーザが測定して作成する。撮像装置情報テーブルは記憶部207に保持され、必要に応じて決定部202によって更新される。
The monitoring area is calculated from the position / orientation of the image pickup device, the angle of view, and the maximum distance from the recognizable image pickup device to the subject described in the image pickup device information table of FIG. The image pickup device information table is created by the user measuring a monitoring area in which the image pickup device is actually installed, the detection process is executed, and the detection can be performed correctly. The image pickup device information table is held in the
441〜444は店舗内にいる客であり、犯罪行動を起こさないか監視すべき対象である。図5(a)(b)(c)は、撮像装置情報テーブルの一例である。ここでは撮像装置の位置姿勢は図4に示される座標軸に基づいて表現されるものとする。図5(a)は初期状態の撮像装置情報テーブルである。 441-444 are customers in the store and should be monitored for criminal activity. 5A, 5B, and 5C are examples of an image pickup device information table. Here, it is assumed that the position and orientation of the image pickup apparatus are expressed based on the coordinate axes shown in FIG. FIG. 5A is an image pickup device information table in the initial state.
S304で、決定部202は、さらに、人物検出部203から、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を取得する。これらの情報と、撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、最大距離から、要注意人物の位置を推定し、撮像装置情報テーブルを更新する。
In S304, the
図5(b)は、客443が要注意人物として、撮像装置401、405の画像から検出された場合の撮像装置情報テーブルである。続いて、撮像装置情報テーブルに記載されている撮像装置毎の要注意人物のIDと位置から、要注意人物の位置を求める。本実施形態においては、要注意人物の位置として撮像装置毎に求められた値を平均して出すものとするが、これに限定せずとも別の手法で求めてもよい。
FIG. 5B is an image pickup device information table when the
続いて、各撮像装置について、要注意人物443の第2検出処理が可能かを各撮像装置の監視領域と要注意人物の位置から判定し、検出可能な撮像装置の監視領域の論理和から、監視領域を除いた領域を計算する。引き続いてこの領域が最大となるような撮像装置出力を第2検出処理に切り替える。
Subsequently, for each imaging device, whether or not the second detection process of the
図5(c)は、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、第2検出処理の撮像装置を405に決定した後の撮像装置情報テーブルである。図6は図5(c)に対応した撮像装置および監視領域を図示した一例である。撮像装置401、403、407からの撮影画像に対しては、要注意人物検出処理(第1検出処理)がなされている。撮像装置405からの撮影画像に対しては、行動検出(第2検出処理)がなされている。
FIG. 5C is an image pickup device information table after the image pickup devices capable of the second detection process of the
続くS305において、行動検出部204が、決定部202によって決定された撮像装置によって撮像された画像に基づいて、特定の人物について所定の行動を検出する第2検出処理を行う。ここで、所定の行動とは犯罪行動を予兆する行動を指す。
In the subsequent S305, the
S306では、行動検出部204が、特定の人物の所定の行動を検出したか否かを判断する。第2検出処理に切り替えられた撮像装置の画像から異常行動が検出された場合は、S307に進む。S307にて、提示部205が、特手の人物、すなわち要注意人物が異常行動をしたことを提示する。異常行動があったことを示す提示は、例えば、表示でもよいし、音声でもよい。
In S306, the
S305にて異常行動が検出されない場合は、第2撮像装置を決定し直す必要があるため、S310に進む。S310では、人物検出部203が、第2撮像装置以外の他の撮像装置によって撮像された画像とともに、決定部202が決定した撮像装置(第2撮像装置)が撮像した画像に対して所定の間隔で第1検出処理を行う。要注意人物が第2撮像装置の監視領域内に存在するか検出する。第2撮像装置の監視領域内に存在していない場合は、S311に進む。S311において、制御部206は、第2撮像装置によって撮像された画像を人物検出部203に入力し、デフォルトの監視領域を撮像するように画角を切り替えるといった制御を行う。S310において、要注意人物が第2撮像装置の監視領域内にいる場合はS302に戻って処理を継続する。
If no abnormal behavior is detected in S305, it is necessary to redetermine the second imaging device, so the process proceeds to S310. In S310, the
なお、決定部202は、制御手段によって制御されている撮像装置によって第1検出処理で検出された人物を撮像できなくなった場合、第2撮像装置と異なる撮像装置から第2検出処理に入力する画像を撮像する撮像装置を決定する。他の撮像装置のうち、要注意人物との距離が所定の範囲内(例えば1m〜15m)にある撮像装置を第2撮像装置として決定してもよい。要注意人物と撮像装置との距離は、遠すぎると身体の姿勢判定が難しくなり、近すぎても身体の様子が撮れない。各撮像装置と要注意人物との距離は画像から推定された位置と、既知である撮像装置の絶対位置から計測する。その他、例えば、各撮像装置に図示しない距離センサを備え、要注意人物と各撮像装置との距離を計測してもよい。その計測結果に基づいて、要注意人物と撮像装置との距離が所定の範囲内に存在する撮像装置を決定する。これによって、要注意人物が移動しても他の撮像装置によって要注意人物を継続的に検出できる。
When the image pickup device controlled by the control means cannot image a person detected in the first detection process, the
<変形例>
上記の具体例では、店舗における防犯カメラについて説明したが、それ以外のユースケースでもよい。例えば、病院や介護施設を中心に、高齢者が多い施設において、高齢者の転倒検出を行う場合でも本発明を適用できる。転倒検出は人物の姿勢推定を数フレームにわたって処理する必要があるため、監視領域内のすべての人物に適用すると処理負荷が大きくなってしまう。このとき、第1検出処理では、所定の特徴として検出された人物の年齢を推定し、所定の年齢(例えば60歳以上)より高い年齢が推定された場合、その人物を検出する。人物の年齢推定には、人物の年齢を推定する学習済みモデルを用いてよい。第2検出処理では、人物の所定の行動として転倒状態を検知する。転倒検出には、まず人物の姿勢推定をする学習済みモデルを用いて、さらに人物の姿勢が所定の状態、すなわち転倒状態であるか否かを判断する学習済みモデルを用いる。このように認識処理を行う人物を限定することによって、病院等不特定多数の人が出入りする施設においても効率的に監視が行える。
<Modification example>
In the above specific example, the security camera in the store has been described, but other use cases may be used. For example, the present invention can be applied even when a fall detection of an elderly person is performed in a facility having many elderly people, mainly in a hospital or a long-term care facility. Since it is necessary to process the posture estimation of a person over several frames in the fall detection, if it is applied to all the people in the monitoring area, the processing load becomes large. At this time, in the first detection process, the age of the person detected as a predetermined feature is estimated, and when the age higher than the predetermined age (for example, 60 years or older) is estimated, the person is detected. For estimating the age of a person, a trained model for estimating the age of a person may be used. In the second detection process, the fall state is detected as a predetermined action of the person. For fall detection, first, a trained model that estimates the posture of a person is used, and then a trained model that determines whether or not the posture of the person is in a predetermined state, that is, a fall state is used. By limiting the persons who perform the recognition process in this way, it is possible to efficiently monitor even in a facility such as a hospital where an unspecified number of people enter and exit.
以上説明してきたような手順で、各認識に適した画像に入力を切り替えることで安定的に認識を行うことができる、すなわち、所定の人物を撮像可能な位置にある撮像装置によって撮像された画像を第2検出処理に入力させる。それ以外の残りの撮像装置によって撮像された画像を顔認証処理に入力する。これによって、可能な限り広い領域で、複数の要注意人物の検出を行いながら、所定の人物の行動を監視することが可能となる。これに加えて、特定の人物の行動検出が可能なすべての撮像装置ではなく、行動検出に適した撮像装置を選択することで、行動検出に入力される画像を抑制し行動検出にかかる処理負荷を軽減させる効果が得られる。 By switching the input to an image suitable for each recognition by the procedure as described above, stable recognition can be performed, that is, an image captured by an imaging device at a position where a predetermined person can be imaged. Is input to the second detection process. The images captured by the remaining image pickup devices other than that are input to the face recognition process. This makes it possible to monitor the behavior of a predetermined person while detecting a plurality of persons requiring attention in the widest possible area. In addition to this, by selecting an imaging device suitable for behavior detection instead of all imaging devices capable of detecting the behavior of a specific person, the image input to the behavior detection is suppressed and the processing load applied to the behavior detection. The effect of reducing is obtained.
<実施形態2>
本実施形態は、各撮像装置によって撮像された画像の入力制御を、第1検出処理に入力される画像に含まれる領域が最大になるようにしていたのに加え、第2検出処理の性能も考慮する場合について説明する。なお、実施形態1と同様の部分については説明を省略し、異なる点のみについて説明する。これによって、第2検出処理の精度を向上させることができる。
<
In this embodiment, in addition to controlling the input of the image captured by each imaging device to maximize the area included in the image input to the first detection process, the performance of the second detection process is also increased. The case to consider will be described. The same parts as in the first embodiment will be omitted, and only the differences will be described. Thereby, the accuracy of the second detection process can be improved.
図7は、実施形態2における撮像装置情報テーブルの一例である。実施形態1に加えて、撮像装置出力ごとに、予め計測した異常行動監視処理(第2検出処理)の正解率を評価部208が評価する。
FIG. 7 is an example of the image pickup device information table according to the second embodiment. In addition to the first embodiment, the
例えば、正解率の計測は次のように行う。まず、本実施形態の撮像装置を実際に運用可能な状態になるように設置する。次に、第2検出処理が正確に異常行動と検出する所定の動作を、実際に人が各撮像装置の監視領域内で行う。その間、別の人が提示部205を目視して異常行動と検出されるかどうかを確認する。これを所定の回数繰り返し行い、異常行動と検出された回数との割合を求める。
For example, the correct answer rate is measured as follows. First, the imaging device of the present embodiment is installed so that it can actually be operated. Next, a person actually performs a predetermined operation that the second detection process accurately detects as an abnormal behavior within the monitoring area of each imaging device. Meanwhile, another person visually checks the
図19におけるS2000で、決定部202は、第2検出処理の正解率に基づいて、第2検出処理に入力する画像を撮像する撮像装置を決定する。決定部202は、人物検出部203から、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を取得する。これらの情報と、撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、最大距離から、要注意人物の位置を推定し、撮像装置情報テーブルを更新する。
In S2000 in FIG. 19, the
続いて、撮像装置情報テーブルに記載されている撮像装置毎の要注意人物のIDと位置から、要注意人物の位置を求める。本実施形態においては、要注意人物の位置として撮像装置毎に求められた値を平均して出すものとするが、これに限定せずとも別の手法で求めてもよい。 Subsequently, the position of the person requiring attention is obtained from the ID and position of the person requiring attention for each imaging device described in the image pickup device information table. In the present embodiment, the values obtained for each imaging device are averaged as the positions of people requiring attention, but the position is not limited to this and may be obtained by another method.
続いて、各撮像装置について、要注意人物443の第2検出処理が可能かを各撮像装置の監視領域と要注意人物の位置から判定し、その中から異常行動監視処理の正解率が最大の撮像装置出力を第2検出処理に切り替える。
Subsequently, for each imaging device, whether or not the second detection process of the
図19におけるS2001では、行動検出部204が、特定の人物の所定の行動を検出したか否かを判断する。要注意人物の異常行動が検出された場合は、S307に進む。要注意人物の異常行動が検出されなかった場合は、第2撮像装置を決定し直す必要があるため、S2002に進む。なお、行動検出部の判断に関わらず、所定の間隔でS2002に進むようにしてもよい。
In S2001 in FIG. 19, the
図19におけるS2002では、評価部208が、複数の撮像装置毎に第1検出処理または第2検出処理の検出性能を評価する。本実施形態では第2検出処理の検出性能として、第1検出処理における要注意人物の検出率を評価する。所定の間隔(例えば100フレームに1回)の頻度で、第2撮像装置を含むすべての撮像装置で撮像された画像を第1検出処理に入力する。要注意人物がよく映っている画像を撮る撮像装置の検出性能を高く評価し、要注意人物が映っていない画像を撮る撮像装置を低く評価する。もし、現在の第2撮像装置より要注意人物がよく検出される画像を撮る撮像装置、すなわち検出性能の高い撮像装置があれば、決定部202は第2撮像装置を変更するためS2000に戻る。現在の第2撮像装置より検出性能が低い撮像装置しかない場合、すなわち検出性能の高い撮像装置がない場合はS310に進む。
In S2002 in FIG. 19, the
図7は、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、第2検出処理の撮像装置を401に決定した後の撮像装置情報テーブルである。図8は図7に対応した撮像装置および監視領域を図示した一例である。撮像装置403、405、407からの撮影画像に対しては、要注意人物検出処理がなされている。撮像装置401からの撮影画像に対しては、第2検出処理がなされている。
FIG. 7 is an image pickup device information table after the image pickup devices capable of the second detection process of the
ある店舗に設置できる撮像装置の台数には限りがあるため、その撮像装置の台数に応じて追跡する要注意人物の数を制限してもよい。その場合、S303において、第1検出処理で所定の数より多く複数人の要注意人物が検出された場合、優先度に基づいて前記第2検出処理で行動検出する同一人物を選択する。決定部は、要注意人物の優先度に基づいて、要注意人物毎に第2検出処理で行動検出する画像を撮像する第2撮像装置を決定する。あるいは該当する人物を撮像した画像を第2検出処理に入力する順番を決定しても良い。要注意人物の優先度は、予めユーザが設定した優先度あるいは所定の基準を記憶部207に記憶する。例えば、予め設定された要注意人物リストにユーザが優先度のフラグ(大小など)を付与したデータベースを用いる。他、今までの記録から、検出された要注意人物のうち、第2検出処理によって異常行動検出されたことがある人物の優先度を高くする。これによって、要注意人物が多く検出された場合でも処理負荷を軽減できる。以上説明してきたような手順で、第2検出処理の精度を向上させることができる。
Since the number of image pickup devices that can be installed in a store is limited, the number of people requiring attention may be limited according to the number of image pickup devices. In that case, in S303, when a plurality of persons requiring attention are detected in the first detection process in excess of a predetermined number, the same person whose behavior is detected in the second detection process is selected based on the priority. The determination unit determines a second imaging device that captures an image whose behavior is detected by the second detection process for each person requiring attention, based on the priority of the person requiring attention. Alternatively, the order in which the images of the corresponding person are input to the second detection process may be determined. As the priority of the person requiring attention, the priority set in advance by the user or a predetermined standard is stored in the
<実施形態3>
本実施形態は、各撮像装置によって撮像された画像の入力制御を、第1検出処理が可能な領域を最大にするようにしていたのに加え、第1検出処理の性能も考慮する場合について説明する。なお、実施形態1と同様の部分については説明を省略し、異なる点のみについて説明する。これによって、第1検出処理の精度を向上させることができる。
<
The present embodiment describes a case where the input control of the image captured by each imaging device is set to maximize the area where the first detection process is possible, and the performance of the first detection process is also taken into consideration. To do. The same parts as in the first embodiment will be omitted, and only the differences will be described. Thereby, the accuracy of the first detection process can be improved.
図9は、実施形態3における撮像装置情報テーブルの一例である。撮像装置ごとに、予め計測した顔認証処理の正解率を評価部208によって評価する。
FIG. 9 is an example of the image pickup device information table in the third embodiment. The
顔認証処理の正解率の評価は次のように行う。まず、本実施形態の撮像装置を実際に運用可能な状態になるように設置する。次に、実際に人が各撮像装置の監視領域内に入り、顔認証処理が正確に動作する範囲で様々な方向に顔を向けたり、様々な表情を作ったりする。別の人が、提示部205を目視し顔認証結果を確認する。これを所定の回数、所定の人数で繰り返し行い、正しく顔認証された回数との割合を求める。
The correct answer rate of the face recognition process is evaluated as follows. First, the imaging device of the present embodiment is installed so that it can actually be operated. Next, a person actually enters the monitoring area of each imaging device, turns his face in various directions within the range in which the face recognition process operates accurately, and makes various facial expressions. Another person visually checks the
図3におけるS304で、決定部202は、第1検出処理の正解率に基づいて、第2検出処理に入力する画像を撮像する撮像装置を決定する。人物検出部203から、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を取得する。決定部202は、これらの情報と、撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、最大距離から、要注意人物の位置を推定し、撮像装置情報テーブルを更新する。
In S304 in FIG. 3, the
続いて、撮像装置情報テーブルに記載されている撮像装置毎の要注意人物のIDと位置から、要注意人物の位置を求める。本実施形態においては、要注意人物の位置として撮像装置毎に求められた値を平均して出すものとするが、これに限定せずとも別の手法で求めてもよい。 Subsequently, the position of the person requiring attention is obtained from the ID and position of the person requiring attention for each imaging device described in the image pickup device information table. In the present embodiment, the values obtained for each imaging device are averaged as the positions of people requiring attention, but the position is not limited to this and may be obtained by another method.
続いて、各撮像装置について、要注意人物443の第2検出処理が可能かを各撮像装置の監視領域と要注意人物の位置から判定し、その中から顔認証処理の正解率が最小となる撮像装置によって撮像された画像を第2検出処理に入力させる。
Subsequently, for each image pickup device, whether or not the second detection process of the
図9は、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、第2画像検出の撮像装置を403に決定した後の撮像装置情報テーブルである。
FIG. 9 is an image pickup device information table after the image pickup devices capable of the second detection process of the
図10は、図9に対応した撮像装置および監視領域を図示した一例である。撮像装置401、405、407からの撮影画像に対しては、第1検出処理がなされている。撮像装置403からの撮影画像に対しては、第2検出処理がなされている。
FIG. 10 is an example showing the imaging device and the monitoring area corresponding to FIG. 9. The first detection process is performed on the captured images from the
以上説明してきたような手順で、第1検出処理の精度を向上させることができる。 The accuracy of the first detection process can be improved by the procedure as described above.
<実施形態4>
本実施形態は、実施形態2を拡張し、検出処理性能に影響を与えうる、明るさに関する外部情報に基づいて、各撮像装置によって撮像された画像の入力制御を行う場合について説明する。なお、実施形態1〜2と同様の部分については説明を省略し、異なる点のみについて説明する。これによって各検出処理に適した明るさの画像を入力することで検出処理の精度が安定する。
<
This embodiment is an extension of the second embodiment, and describes a case where input control of an image captured by each imaging device is performed based on external information regarding brightness that may affect the detection processing performance. The same parts as those in the first and second embodiments will be omitted, and only the differences will be described. As a result, the accuracy of the detection process is stabilized by inputting an image having a brightness suitable for each detection process.
図11は、情報処理装置101の機能構成の一例を示す図である。図2との差は、取得部210が加わっている点である。取得部210は、撮像装置毎の撮像範囲の明るさに関する外部情報を取得する。すなわち撮像装置毎の撮像範囲の環境光を計測する外界センサ17からの外部情報を取得する。具体的には、外界センサ17は照度センサ等である。そして、制御部206に外界の明るさを示す外部情報を出力する。本実施形態では、上記外部情報が示す明るさは明、通常、暗の3段階であるとする。例えば、ある撮像装置の撮像範囲が所定の明るさより明るい場合、顔認識の精度が落ちる可能性がある。逆に、ある撮像装置の撮像範囲が所定の明るさより暗い場合も、顔認識や行動認識の精度が落ちる可能性がある。そのため、ある領域の明るさについて検出処理に理想的な明るさの範囲を満たす場合に、その領域を撮像する撮像装置は検出処理に適した画像を撮像できる。
FIG. 11 is a diagram showing an example of the functional configuration of the
図12は、情報処理装置101の処理の一例を示すフローチャートである。図3との差異はS1200とS1201である。なお、図3と同じステップ番号の処理は実施形態1と同様の処理である。ここでは差がある処理について説明する。S1200では、取得部201が、撮像装置毎の監視領域の明るさに関する外部情報を取得する。S1201では、決定部202が、前記外部情報に基づいて、監視領域における明るさが所定の範囲を満たす撮像装置を第2検出処理に入力する画像を撮像する撮像装置として決定する。まず、実施形態2のS304と同様に、要注意人物の位置情報を取得する。さらに、各撮像装置について、要注意人物443の第2検出処理が可能かを、各撮像装置の監視領域と要注意人物の位置情報とに基づいて判定する。その中から第2検出処理の正解率が最大の撮像装置の画像を第2検出処理に入力させる。この時に、取得部210の外部情報をさらに参照して、第2検出処理の性能を判断する。撮像装置は基本的に照度が高すぎる又は低すぎる場合に各検出処理に適切な画像を撮像できないため、第1または第2検出処理に適切な照度の範囲を予め設定して、その範囲内の照度で撮像できる撮像装置を決定するようにしてもよい。
FIG. 12 is a flowchart showing an example of processing of the
図13は、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、取得部210の情報が「暗」の場合に、第2検出処理の撮像装置を405に決定した後の撮像装置情報テーブルである。
In FIG. 13, when the image pickup devices capable of the second detection process of the
なお、外界センサ17は本実施形態で示した照度センサに限定せず、環境光を間接的に変化させる遮光カーテンの開閉情報、窓ガラスのある場所での天候情報や時間情報などを取得する装置であってもよい。更には、これらの機器がネットワークI/F14を介して接続されていてもよい。
The
以上説明してきたような手順で、明るさに関する外部情報に基づいて、各撮像装置によって撮像された画像の入力制御を行う。 In the procedure as described above, the input control of the image captured by each imaging device is performed based on the external information regarding the brightness.
<実施形態5>
本実施形態は、各撮像装置によって撮像された画像の入力制御を、第1検出処理に入力される画像に含まれる領域が最大になるようにしていたのに加え、人物の属性情報(顔向き)に基づいて各検出処理に対する入力制御する場合について説明する。なお、実施形態1と同様の部分については説明を省略し、異なる点のみについて説明する。例えば、要注意人物の顔を正面から撮像できる位置にある撮像装置からは人物の身体も正面を向く可能性が高いため、上記撮像装置によって撮像された画像を第2検出処理に入力することで第2検出処理の精度が向上するという効果が期待できる。
<Embodiment 5>
In the present embodiment, the input control of the image captured by each imaging device is set so that the area included in the image input to the first detection process is maximized, and the attribute information of the person (face orientation). ) Will be described for input control for each detection process. The same parts as in the first embodiment will be omitted, and only the differences will be described. For example, since there is a high possibility that the body of a person also faces the front from an image pickup device that is in a position where the face of a person requiring attention can be imaged from the front, the image captured by the image pickup device can be input to the second detection process. The effect of improving the accuracy of the second detection process can be expected.
図14は情報処理装置102の機能構成の一例を示す図である。実施形態1に顔向き検出部211を加えている。顔向き検出処理は、例えば、顔属性検出(顔向き判定)を行う。また、人物検出部203は要注意人物の検出時に、入力された画像を顔向き検出部211に出力する。すなわち、第1検出処理と顔向き検出処理に入力される画像は共通している。
FIG. 14 is a diagram showing an example of the functional configuration of the information processing device 102. A face
顔向き検出部211は、人物検出部203から送られる画像または顔特徴に基づいて、人物の顔向きを示す情報を制御部206に出力する。顔向き判定には、人間の顔の向きを学習させたニューラルネットワーク等を用いる。
The face
決定部202は、顔向き検出部211の処理結果に基づいて、複数の撮像装置401〜407毎の画像を人物検出部203、第2検出処理部204のどちらに入力させるかを決定する。
The
図15は、情報処理装置102の処理の一例を示すフローチャートである。図3と同じ符号の処理については実施形態1と同様のため説明を割愛する。S1500において、人物検出部203は、各撮像装置から出力される画像に対し、要注意人物の検出処理(顔認証処理)で要注意人物を検出したか否かを判断する。顔認証処理の結果、要注意人物が検出された場合、撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を決定部202に出力する。また、顔向き検出部211に処理を行った画像を送信する。要注意人物が検出されない場合は、継続して全ての撮像装置について顔認証処理を行う。
FIG. 15 is a flowchart showing an example of processing of the information processing apparatus 102. Since the processing of the same reference numerals as in FIG. 3 is the same as that in the first embodiment, the description thereof will be omitted. In S1500, the
S1501において、顔向き検出部211は、検出結果である要注意人物の顔向き情報を制御部206に出力する。S1502において、決定部202は、顔向き検出部によって人物の顔が正面であると判定された画像を撮像した撮像装置を第2検出処理に入力する画像を撮像する撮像装置として決定する。実施形態1のS304と同様に、人物検出部203から、要注意人物を撮影した撮像装置のID、要注意人物のID、要注意人物の顔の画像上の位置、要注意人物の顔の大きさに関する情報を取得する。これらの情報と、撮像装置情報テーブルに記載されている撮像装置の位置姿勢、画角、最大距離から、要注意人物の位置を推定し、撮像装置情報テーブルを更新する。
In S1501, the face
続いて、撮像装置情報テーブルに記載されている撮像装置毎の要注意人物のIDと位置から、要注意人物の位置を求める。本実施形態においては、要注意人物の位置として撮像装置毎に求められた値を平均して出すものとするが、これに限定せずとも別の手法で求めてもよい。 Subsequently, the position of the person requiring attention is obtained from the ID and position of the person requiring attention for each imaging device described in the image pickup device information table. In the present embodiment, the values obtained for each imaging device are averaged as the positions of people requiring attention, but the position is not limited to this and may be obtained by another method.
続いて、各撮像装置について、要注意人物443の第2検出処理が可能かを各撮像装置の監視領域と要注意人物の位置から判定する。制御部206は、加えて要注意人物の向きを考慮して、異常行動監視処理の正解率が最大の撮像装置によって撮像された画像を第2検出処理に入力させる。
Subsequently, for each imaging device, it is determined from the monitoring area of each imaging device and the position of the person requiring attention whether the second detection process of the
図16は、実施形態5における撮像装置情報テーブルの一例である。実施形態1に加えて、撮像装置出力ごとに、異常行動監視処理の正解率が予め入力されている。これらの正解率は、予め計測しておいた値を記憶部207から入力したものである。
FIG. 16 is an example of the image pickup device information table according to the fifth embodiment. In addition to the first embodiment, the correct answer rate of the abnormal behavior monitoring process is input in advance for each output of the imaging device. These correct answer rates are the values measured in advance input from the
また、要注意人物443の第2検出処理が可能な撮像装置が401、403、405であり、第2検出処理の撮像装置を403に決定後の状態を示している。各撮像装置の撮影画像中に写る要注意人物の向きは、401は正面、403は横、405は横であり、それらを考慮する。各撮像装置の要注意人物の第2検出処理の正解率をそれぞれ65%、75%、60%として、この状況下で第2検出処理の正解率が最も高い403の撮像装置出力を切り替えている。
Further, the image pickup devices capable of the second detection process of the
なお、本実施形態では、人物の属性情報として「顔向き」を考慮して切り換える撮像装置出力を決定したが、眼鏡やマスクなどの装着物有無や、更には混雑度(人数)などの別の検出結果を使用してもよい。 In the present embodiment, the output of the imaging device to be switched is determined in consideration of "face orientation" as the attribute information of the person, but other factors such as the presence or absence of wearing glasses, masks, and the degree of congestion (number of people) are different. The detection result may be used.
以上説明してきたような手順で、例えば、要注意人物の顔を正面から撮像できる位置にある撮像装置からは人物の身体も正面を向く可能性が高い。そのため、上記撮像装置によって撮像された画像を第2検出処理に入力することで第2検出処理の精度が向上するという効果が期待できる。 With the procedure as described above, for example, there is a high possibility that the body of the person also faces the front from the imaging device located at a position where the face of the person requiring attention can be imaged from the front. Therefore, it can be expected that the accuracy of the second detection process is improved by inputting the image captured by the image pickup apparatus into the second detection process.
<実施形態6>
本実施形態は、実施形態1に加えて、各検出処理の正解率が高くなるように、撮像装置出力ごとに撮像装置の内部パラメータ(露出)を変更する場合について説明する。検出処理に最適な撮像装置の内部パラメータを設定することで、各検出処理の正解率を高めることが可能となる。なお、実施形態1と同様の部分については説明を省略し、異なる点のみについて説明する。
<Embodiment 6>
In this embodiment, in addition to the first embodiment, a case where the internal parameter (exposure) of the imaging device is changed for each output of the imaging device so that the correct answer rate of each detection process is high will be described. By setting the internal parameters of the imaging device that are optimal for the detection process, it is possible to increase the accuracy rate of each detection process. The same parts as in the first embodiment will be omitted, and only the differences will be described.
制御部206は、入力システム201の撮像装置に対し、露出の設定を可能としている。図17は、情報処理装置103の処理の一例を示すフローチャートである。S1901において、制御部206は全ての撮像装置に対して、撮像装置情報テーブルに記載されている顔認証処理に最適な露出を設定させる。
The
撮像装置パラメータは予め評価部208を使用して、記憶部207に、後述する図20のように撮像装置情報テーブルの形で記憶されるものとする。
The image pickup device parameters are stored in the
S1903において、制御部206は、S303で第2検出処理に切り替えられた撮像装置のパラメータをS1901と同様に第2検出処理に最適な露出に変更する。
In S1903, the
図18は、実施形態6における撮像装置情報テーブルの一例である。実施形態1に加えて、撮像装置出力ごとに、要注意人物検出処理および異常行動監視処理の最適な露出が予め入力されている。要注意人物443の第2画像検出が可能な撮像装置が401、403、405であり、第2検出処理の撮像装置を405に決定した後の撮像装置情報テーブルである。この時、撮像装置401,403、407の露出は、それぞれ第1検出処理に最適な+3、−1、−2に、撮像装置405の露出は、第2検出処理に最適な−1に設定されている。
FIG. 18 is an example of the image pickup device information table according to the sixth embodiment. In addition to the first embodiment, the optimum exposure of the person requiring attention detection processing and the abnormal behavior monitoring processing is input in advance for each output of the imaging device. The image pickup devices capable of detecting the second image of the
なお、本実施形態では、設定する撮影パラメータを「露出」として記載しているが、これに限るものではなく、フレームレート、ビットレート(画質)、ホワイトバランスなどの一般的に撮像装置で使用されている内部パラメータを使用してもよい。 In this embodiment, the shooting parameter to be set is described as "exposure", but the present invention is not limited to this, and is generally used in an imaging device such as frame rate, bit rate (image quality), and white balance. You may use the internal parameters that are available.
以上説明してきたような手順で、各検出処理の正解率を高めることが可能となる。また、検出処理に最適な撮像装置の内部パラメータを設定することで、各検出処理の正解率を高めることが可能となる。 With the procedure as described above, it is possible to increase the accuracy rate of each detection process. In addition, by setting the internal parameters of the imaging device that are optimal for the detection process, it is possible to increase the accuracy rate of each detection process.
<その他の実施形態>
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、データ通信用のネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータが読み取り可能な記録媒体に記録して提供してもよい。
<Other Embodiments>
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network for data communication or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or device reads and executes the program. Further, the program may be recorded and provided on a computer-readable recording medium.
100 情報処理装置
202 決定部
203 人物検出部
204 行動検出部
205 提示部
206 制御部
208 評価部
207 記憶部
210 選択部
100
Claims (17)
前記人物検出部によって同一人物が検出された画像を撮像した撮像装置のそれぞれを、前記人物検出部によって前記同一人物とは異なる他の人物を検出する画像を撮像する第1撮像装置、または前記同一人物の行動を検出する行動検出部に入力する画像を撮像する第2撮像装置、として決定する決定手段と、
前記第1撮像装置によって撮像された画像を前記人物検出部に入力し、前記第2撮像装置によって前記同一人物を撮像された画像を前記行動検出部に入力するように制御する制御手段と、を有することを特徴とする情報処理装置。 An information processing device having a person detection unit that detects a person from an image and a behavior detection unit that detects a person's behavior.
Each of the imaging devices that captures an image in which the same person is detected by the person detection unit is the first imaging device that captures an image that detects another person different from the same person by the person detection unit, or the same. A determination means for determining as a second imaging device that captures an image to be input to a behavior detection unit that detects a person's behavior, and
A control means for inputting an image captured by the first imaging device to the person detection unit and controlling the image of the same person captured by the second imaging device to be input to the behavior detection unit. An information processing device characterized by having.
前記行動検出部は、予め登録された犯罪行動の予兆を前記要注意人物について検出することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The person detection unit detects a person requiring attention having a feature registered in advance from the image.
The information processing device according to any one of claims 1 to 3, wherein the behavior detection unit detects a sign of a criminal behavior registered in advance for the person requiring attention.
前記行動検出部は、前記所定の値より年齢が高い人物について転倒検出をすることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The person detection unit detects a person who is older than a predetermined value from the image, and determines the person.
The information processing device according to any one of claims 1 to 3, wherein the behavior detection unit detects a fall of a person who is older than the predetermined value.
前記決定手段は、前記第2撮像装置によって前記同一人物を撮像できなくなった場合、前記複数の撮像装置のうち前記同一人物との距離が所定の範囲内である撮像装置を前記行動検出部に入力する画像を撮像する撮像装置として決定することを特徴とする請求項6に記載の情報処理装置。 Each of the plurality of imaging devices further includes a measuring means for measuring the distance to the same person.
When the same person cannot be imaged by the second image pickup device, the determination means inputs an image pickup device having a distance from the same person within a predetermined range among the plurality of image pickup devices to the behavior detection unit. The information processing apparatus according to claim 6, wherein the information processing apparatus is determined as an imaging apparatus for capturing an image to be processed.
前記制御手段は、前記第2撮像装置が撮像した画像を所定の間隔で前記人物検出部に入力するよう制御し、
前記決定手段は、前記評価手段によって評価された検出性能が前記第2撮像装置より高い撮像装置を、前記同一人物の行動を検出する前記行動検出部に入力する撮像装置に決定することを特徴とする請求項1乃至7いずれか1項に記載の情報処理装置。 Each of the plurality of imaging devices further has an evaluation means for evaluating the detection performance of the person detection unit.
The control means controls so that the images captured by the second imaging device are input to the person detection unit at predetermined intervals.
The determination means is characterized in that an imaging device having a detection performance higher than that of the second imaging device evaluated by the evaluation means is determined as an imaging device that inputs to the behavior detection unit that detects the behavior of the same person. The information processing apparatus according to any one of claims 1 to 7.
前記行動検出部に入力する優先度を前記人物毎に取得する第1取得手段と、
前記第1取得手段によって取得された前記優先度に基づいて前記行動検出部で行動検出する前記人物から行動検出を行う人物を選択する選択手段と、を更に有し、
前記決定手段は、前記選択手段によって選択された前記人物ごとに前記行動検出部に入力する画像を撮像する第2撮像装置を決定することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 When the number of people detected by the person detection unit is more than a predetermined number according to the number of the image pickup devices,
The first acquisition means for acquiring the priority to be input to the action detection unit for each person, and
Further, it has a selection means for selecting a person who performs action detection from the person whose action is detected by the action detection unit based on the priority acquired by the first acquisition means.
The determination means according to any one of claims 1 to 8, wherein the determination means determines a second imaging device for capturing an image to be input to the behavior detection unit for each person selected by the selection means. The information processing device described.
前記決定手段は、前記行動検出部の正解率に基づいて、前記行動検出部の正解率に関する前記所定の条件を満たす前記第2撮像装置を決定することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。 Each of the plurality of imaging devices further has a storage means for storing the correct answer rate of the behavior detection unit.
Any of claims 1 to 10, wherein the determination means determines the second imaging device that satisfies the predetermined condition regarding the correct answer rate of the behavior detection unit based on the correct answer rate of the behavior detection unit. The information processing device according to item 1.
前記決定手段は、前記人物検出部の正解率に基づいて、前記人物検出部の正解率に関する前記所定の条件を満たす前記第2撮像装置を決定することを特徴とする請求項11に記載の情報処理装置。 The storage means stores the correct answer rate of the person detection unit for each of the plurality of imaging devices.
The information according to claim 11, wherein the determination means determines the second imaging device that satisfies the predetermined condition regarding the correct answer rate of the person detection unit based on the correct answer rate of the person detection unit. Processing equipment.
前記決定手段は、前記外部情報に基づいて、前記監視領域における明るさが所定の範囲を満たす前記撮像装置を前記第2撮像装置として決定することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。 Further, it has a second acquisition means for acquiring external information regarding the brightness of the monitoring area for each imaging device.
Any one of claims 1 to 12, wherein the determination means determines the image pickup device whose brightness in the monitoring region satisfies a predetermined range as the second image pickup device based on the external information. The information processing device described in the section.
前記決定手段は、前記顔向き検出手段によって前記同一人物の顔の向きが正面であると検出された前記画像を撮像した前記撮像装置を前記第2撮像装置として決定することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。 Further having a face orientation detecting means for performing a face orientation detecting process for recognizing the orientation of the face of the same person reflected in the image.
The determination means is characterized in that the image pickup device that has captured the image detected by the face orientation detection means that the face orientation of the same person is the front is determined as the second image pickup device. The information processing apparatus according to any one of 1 to 13.
同一人物を複数の撮像装置が撮影した際、該複数の撮像装置のそれぞれを、前記同一人物とは異なる人物を検出するために用いるか、前記同一人物の行動検出に用いるか分類する分類手段と、
前記分類した結果に基づいて、前記撮像装置で撮像された画像のそれぞれを、前記人物検出部または前記行動検出部の何れかに入力する制御手段と
を有することを特徴とする情報処理装置。 An information processing device having a person detection unit that detects a person from an image and a behavior detection unit that detects a person's behavior.
When a plurality of imaging devices photograph the same person, each of the plurality of imaging devices is used as a classification means for classifying whether to use the same person for detecting a person different from the same person or for detecting the behavior of the same person. ,
An information processing device having a control means for inputting each of the images captured by the image pickup device to either the person detection unit or the behavior detection unit based on the classification result.
前記人物検出ステップによって同一人物が検出された画像を撮像した撮像装置のそれぞれを、前記人物検出ステップによって前記同一人物とは異なる他の人物を検出する画像を撮像する第1撮像装置、または前記同一人物の行動を検出する行動検出部に入力する画像を撮像する第2撮像装置、として決定する決定ステップと、
前記第1撮像装置によって撮像された画像を前記人物検出ステップに入力し、前記第2撮像装置によって前記同一人物を撮像された画像を前記行動検出ステップに入力するように制御する制御ステップと、を有することを特徴とする情報処理方法。 An information processing method having a person detection step for detecting a person from an image and a behavior detection step for detecting the behavior of the person.
Each of the image pickup devices that captured the image in which the same person was detected by the person detection step is the first image pickup device that captures an image that detects another person different from the same person by the person detection step, or the same. A determination step for determining as a second imaging device that captures an image to be input to the behavior detection unit that detects the behavior of a person, and
A control step in which an image captured by the first imaging device is input to the person detection step, and an image captured by the same person by the second imaging device is input to the behavior detection step. An information processing method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141357A JP2021027399A (en) | 2019-07-31 | 2019-07-31 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141357A JP2021027399A (en) | 2019-07-31 | 2019-07-31 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021027399A true JP2021027399A (en) | 2021-02-22 |
Family
ID=74664104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019141357A Pending JP2021027399A (en) | 2019-07-31 | 2019-07-31 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021027399A (en) |
-
2019
- 2019-07-31 JP JP2019141357A patent/JP2021027399A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190333241A1 (en) | People flow analysis apparatus, people flow analysis system, people flow analysis method, and non-transitory computer readable medium | |
JP5390322B2 (en) | Image processing apparatus and image processing method | |
JP6406241B2 (en) | Information processing system, information processing method, and program | |
JP5569990B2 (en) | Attribute determination method, attribute determination apparatus, program, recording medium, and attribute determination system | |
JP5567853B2 (en) | Image recognition apparatus and method | |
US12014570B2 (en) | Face authentication apparatus | |
US9477876B2 (en) | Person recognition apparatus and method thereof | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
JP2014182480A (en) | Person recognition device and method | |
JP2013003964A (en) | Face image search system and face image search method | |
US10496874B2 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
KR20190093799A (en) | Real-time missing person recognition system using cctv and method thereof | |
Robin et al. | Improvement of face and eye detection performance by using multi-task cascaded convolutional networks | |
JP2006236260A (en) | Face authentication device, face authentication method, and entrance/exit management device | |
JP2014064083A (en) | Monitoring device and method | |
JP5752976B2 (en) | Image monitoring device | |
JP2003196017A (en) | Data input method and device | |
Divjak et al. | Real-time video-based eye blink analysis for detection of low blink-rate during computer use | |
US11363241B2 (en) | Surveillance apparatus, surveillance method, and storage medium | |
JP2021027399A (en) | Information processing apparatus, information processing method, and program | |
JP2012049774A (en) | Video monitoring device | |
KR101877873B1 (en) | System and method for fear mentality analysis | |
JP2019110474A (en) | Suspicious person detection device | |
JP2011227677A (en) | Notification device | |
JP2013120954A (en) | Sleeping face recognition device |