JP2006221355A - Monitoring device and monitoring system - Google Patents
Monitoring device and monitoring system Download PDFInfo
- Publication number
- JP2006221355A JP2006221355A JP2005033290A JP2005033290A JP2006221355A JP 2006221355 A JP2006221355 A JP 2006221355A JP 2005033290 A JP2005033290 A JP 2005033290A JP 2005033290 A JP2005033290 A JP 2005033290A JP 2006221355 A JP2006221355 A JP 2006221355A
- Authority
- JP
- Japan
- Prior art keywords
- face image
- person
- image
- information
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Collating Specific Patterns (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Alarm Systems (AREA)
Abstract
Description
本発明は、カメラで撮影された画像を監視する監視システムに関し、特に、地理的な情報を使って画像に映っている人物を特定する技術に関する。 The present invention relates to a monitoring system for monitoring an image taken by a camera, and more particularly to a technique for identifying a person appearing in an image using geographical information.
近年、顔画像識別による個人認証が広まりつつある。顔画像識別は、顔画像から人物を識別する技術である。具体的には、画像から人物の顔領域を抽出する。次に、その抽出した顔領域と予め登録された顔画像とを照合し、類似性を判定する。そして、判定した類似性から、人物を特定する。 In recent years, personal authentication based on facial image identification has become widespread. Face image identification is a technique for identifying a person from a face image. Specifically, a human face area is extracted from the image. Next, the extracted face area is collated with a pre-registered face image to determine similarity. Then, a person is specified from the determined similarity.
顔画像による個人認証は、心理的な抵抗が少ない。なぜなら、顔画像による個人認証は、遠隔から撮影された画像を用いて非接触で行うので、指紋認証などのように読み取り機器に対する入力動作が必要ないからである。 Personal authentication using face images has little psychological resistance. This is because personal authentication using a face image is performed in a non-contact manner using an image photographed from a remote location, so that an input operation to a reading device is not required as in fingerprint authentication.
しかし、顔画像による個人認証は、照明の変動、画像における顔領域の大きさの変動及び顔の向きの変動等に弱いという問題がある。 However, personal authentication using a face image has a problem that it is vulnerable to variations in illumination, variations in the size of the face area in the image, variations in the orientation of the face, and the like.
そこで、従来の顔画像による個人認証装置は、認証に適した画像を取得することによって、認証する。例えば、個人認証装置は、カメラの前の適切な位置に立たせたユーザの正面顔を撮影することによって、認証に適した画像を取得する。しかし、この個人認証装置は、認証の度に、適切な位置に立たせたユーザを撮影しなければならない。 Therefore, a conventional personal authentication device using a face image performs authentication by acquiring an image suitable for authentication. For example, the personal authentication device acquires an image suitable for authentication by photographing the front face of the user placed at an appropriate position in front of the camera. However, this personal authentication device must take a picture of a user standing at an appropriate position for each authentication.
そこで、この問題を解決する監視装置が知られている(例えば、特許文献1参照。)。この監視装置は、複数の方向からの顔画像を予め記憶することによって、正面顔以外の画像を取得しても、認証することができる。つまり、この監視装置は、ユーザが所定の位置に立ち止まることなく、認証できる。 Therefore, a monitoring device that solves this problem is known (see, for example, Patent Document 1). This monitoring apparatus can authenticate even if an image other than the front face is acquired by storing face images from a plurality of directions in advance. In other words, this monitoring apparatus can authenticate the user without stopping at a predetermined position.
また、人物画像を用いる技術として、人物追跡処理が知られている(例えば、非特許文献1参照。)。この人物追跡処理は、監視カメラ画像中から顔領域を抽出し、抽出した顔領域から顔のサイズ及び顔の向きを求める。次に、求めた顔のサイズ及び顔の向きから、人物の移動方向及び人物の移動速度等を求める。そして、求めた人物の移動方法及び人物の移動速度に基づいて、人物を追跡する。この人物追跡処理は、監視装置及びマーケティング等へ応用されている。 Also, a person tracking process is known as a technique using a person image (see, for example, Non-Patent Document 1). In the person tracking process, a face area is extracted from the surveillance camera image, and the face size and the face direction are obtained from the extracted face area. Next, the moving direction of the person, the moving speed of the person, and the like are obtained from the obtained face size and face orientation. Then, the person is traced based on the obtained person moving method and the moving speed of the person. This person tracking process is applied to monitoring devices and marketing.
この人物追跡処理は、諸条件を満たしていれば、差分などを用いる通常の画像処理のみで行うことができる。諸条件とは、追跡対象の人物が画面内に常に収まっていること、且つ光量が閾値異常であること等である。 This person tracking process can be performed only by normal image processing using a difference or the like if various conditions are satisfied. The various conditions include that the person to be tracked is always within the screen and that the light intensity is abnormal.
よって、従来の人物追跡処理は、人物が画面内から外れその後に再入場すると、追跡を継続できない。つまり、この人物追跡処理は、画面内から外れた人物と再入場した人物とを別の人物として扱ってしまう問題があった。 Therefore, in the conventional person tracking process, if a person leaves the screen and then re-enters, tracking cannot be continued. In other words, the person tracking process has a problem that a person who is out of the screen and a person who re-enters the person are treated as different persons.
この問題を解決するために、複数のカメラによって追跡する技術が知られている。しかし、この技術も、カメラとカメラとの間に死角があると、同一の問題が生じる。
前述した特許文献1に記載された監視装置は、人物の正面顔以外の画像からでも認証できる。しかし、この監視装置は、画像の類似性だけで人物を特定するので、認証の精度が問題となる。 The monitoring device described in Patent Document 1 described above can be authenticated from an image other than the front face of a person. However, since this monitoring device identifies a person only by the similarity of images, the accuracy of authentication becomes a problem.
そこで、本発明は、人物の正面顔以外の画像であっても認証でき、且つ高精度に認証できる監視装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide a monitoring apparatus that can authenticate even an image other than the front face of a person and can authenticate with high accuracy.
本発明は、撮影された画像がカメラから入力され、各種情報を記憶する記憶部から情報を取得する監視装置において、前記記憶部は、前記監視装置に過去に入力された画像に関する情報を含む過去情報と、前記カメラの位置情報を含む地理情報と、を記憶し、前記入力された画像から顔画像を抽出し、前記過去情報に基づいて、前記抽出した顔画像に対応する人物を推定し、前記地理情報に基づいて、前記推定した人物の中から、前記抽出した顔画像に対応する人物を決定することを特徴とする。 The present invention provides a monitoring device in which captured images are input from a camera and acquires information from a storage unit that stores various types of information. The storage unit includes past information including information related to images input to the monitoring device in the past. Storing information and geographic information including position information of the camera, extracting a face image from the input image, and estimating a person corresponding to the extracted face image based on the past information; Based on the geographic information, a person corresponding to the extracted face image is determined from the estimated persons.
本発明によれば、人物の正面顔以外の画像であっても認証でき、更に、高精度に認証できる。 According to the present invention, even an image other than the front face of a person can be authenticated, and further, it can be authenticated with high accuracy.
本発明の実施の形態を図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態の監視システムのブロック図である。
Embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram of a monitoring system according to the first embodiment of this invention.
監視システムは、ビル等の施設を監視する。また監視システムは、カメラ101、サーバ102、入退室制御装置103、人物出現データ108及び地理的データ109を備える。
The monitoring system monitors facilities such as buildings. The monitoring system includes a
なお、サーバ102は、ネットワーク112を介して、カメラ101及び入退室制御装置103と接続されている。
The
カメラ101は、複数備えられ、異なる場所にそれぞれ設置されている。カメラ101は、例えば、人の流れに分岐が生じる地点に設置される。また、カメラ101は、設置されている場所の画像を撮影し、撮影した画像をサーバ102に送信する。なお、カメラ101が設置されている場所には、それぞれの場所を一意に識別するエリア番号が付されている。
A plurality of
サーバ102は、CPU、メモリ及び記憶部を備える計算機である。記憶部には各種プログラムが記憶されており、CPUがこれらのプログラムを実行する。これによって、サーバ102は、カメラ101から受信した画像を処理する。そして、その処理の結果に応じて入退室制御装置103にゲート(図示省略)の開閉を指示する。なお、ゲートは、本実施の形態の監視システムが監視する施設に設置されている。メモリは、カメラ101から受信した画像等を含む各種情報を一時的に記憶する。
The
また、サーバ102は、地理・時間制限算出部105及び顔識別部106を含む。顔識別部106は、カメラ101から受信した画像から顔領域を抽出し、抽出した顔領域に映っている人物(対応人物)を推定する。地理・時間制限算出部105は、当該画像が撮影された場所及び時刻に基づいて、顔識別部106によって推定された人物の中から対応人物を特定する。
Further, the
また、サーバ102は、人物出現データ108及び地理的データ109を取得する。人物出現データ108及び地理的データ109は、サーバ102の内部に記憶されていてもよいし、サーバ102の外部の記憶装置に記憶されていてもよい。
In addition, the
人物出現データ108は、図2で後述するが、カメラ101によって撮影された画像に関する情報を有する。地理的データ109は、図3で後述するが、カメラ101が設置されている場所に関する情報を有する。
As will be described later with reference to FIG. 2, the
入退室制御装置103は、監視システムが監視する施設のゲートの開閉を制御する。
The entrance /
図2は、本発明の実施の形態の人物出現データ108の構成図である。
FIG. 2 is a configuration diagram of the
人物出現データ108は、顔画像データ番号1081、画像特徴量1082、推定人物名1083、信頼度1084、エリア番号1085、出現日時1086及びその他属性1087を含む。
The
顔画像データ番号1081は、顔画像データを一意に識別する識別子である。顔画像データとは、カメラ101によって撮影された画像から、顔の領域を抽出した画像である。
The face
画像特徴量1082は、所定の個数の数値の集合であり、当該顔画像データを特徴付ける値である。特徴量1082は、既知の様々な方法によって算出される。サーバ102は、本実施の形態に適した方法を用いて、顔画像から特徴量1082を算出する。
The
また、サーバ102は、特徴量1082に基づいて、比較する二つの顔画像データの類似度を算出する。類似度は、比較される二つの顔画像データの類似の度合いである。つまり、類似度が大きいほど、比較される二つの画像が類似している。
Further, the
例えば、サーバ102は、画像特徴量1082をベクトルと考えて、類似度を求めてもよい。この場合、サーバ102は、比較する二つの画像データの画像特徴量1082間の距離を算出する。そして、サーバ102は、算出した距離から類似度を求める。具体的には、類似度は、算出された距離が近いほど、大きい値となる。
For example, the
また、サーバ102は、比較する二つの画像データの画像特徴量1082から相関を算出し、算出した相関から類似度を求めてもよい。
Further, the
推定人物名1083は、当該顔画像データに映っている人物(対応人物)と推定される人物の名前である。推定人物名1083は、一つの顔画像データ番号1081に対して、複数のレコードを有していてもよい。この場合、当該画像の対応人物は、推定人物名1083の中の一人である。
The estimated
信頼度1084は、当該推定人物が対応人物となる可能性である。
The
エリア番号1085は、当該顔画像データが撮影された場所を一意に識別する識別子である。出現日時1086には、当該顔画像データが撮影された日付及び時刻が格納される。
The
その他の属性1087には、当該顔画像データに関する情報が格納される。本説明図では、その他の属性1087には、人物の向き、天気情報及び照明情報等が格納される。人物の向きは、当該顔画像データに映っている人物が向いている方向であり、例えば、カメラ101の正面方向を0度とする角度で表す。天気情報は、当該顔画像データが撮影されたときの天気であり、例えば、「晴」、「曇」、「雨」等の情報が格納される。照明情報は、当該顔画像データが撮影されたときの照明の状況であり、例えば、「順光」、「逆光」、「右斜光」、「左斜光」、「屋内」等の情報が格納される。
The
なお、人物出現データ108には、これらの情報と併せて、人物ごとに個人情報を記憶していてもよい。個人情報は、当該人物の顔画像データ番号、当該人物に関するすべての画像特徴量の平均値及び当該人物の認証情報等である。
The
図3は、本発明の実施の形態の地理的データ109の構成図である。
FIG. 3 is a configuration diagram of the
地理的データ109は、地理・時間制限算出部105が対応人物を特定する処理で利用される。地理的データ109には、起点エリア番号1091の場所から行先エリア番号1092の場所への移動に要する平均時間が格納されている。
The
起点エリア番号1091は、人物の移動前の場所を一意に識別する識別子である。行先エリア番号1092は、人物の移動後の場所を一意に識別する識別子である。
The starting
例えば、起点エリア番号1091が「0001」の場所から、行先エリア番号1092が「0002」の場所への平均移動時間は、「2秒」である。
For example, the average travel time from the place where the
また、それぞれのボックスには、平均移動時間が複数格納されてもよい。この場合、移動の方法が複数存在することを示す。移動の方法は、例えば、エレベータ、エスカレータ及び階段等である。 Each box may store a plurality of average movement times. In this case, it indicates that there are a plurality of movement methods. The moving method is, for example, an elevator, an escalator, a staircase, or the like.
例えば、起点エリア番号1091が「0002」の場所から、行先エリア番号1092が「0034」の場所への平均移動時間は、移動方法に応じて異なる。この平均移動時間は、エレベータを利用すると「10秒」であり、エスカレータを利用すると「125秒」であり、階段を利用すると「250秒」である。
For example, the average travel time from the location where the
なお、起点エリア番号1091の場所から行先エリア番号1092の場所への移動が、カメラ101が設置されたその他の場所を経由しないと移動できない場合、該当するボックスには「非隣接」が格納される。この場合、サーバ102は、起点エリア番号1091の場所から行先エリア番号1092の場所への移動経路を検索する。そして、サーバ102は、その移動経路上の平均移動時間をすべて合算することによって、起点エリア番号1091の場所から行先エリア番号1092の場所への平均移動時間を求める。
If the movement from the location of the
図4は、本発明の第1の実施の形態のサーバ102の画像処理のフローチャートである。
FIG. 4 is a flowchart of image processing of the
サーバ102は、カメラ101によって撮影された画像をカメラ101から入力されると、処理を開始する(201)。このとき、サーバ102は、当該画像が撮影された場所のエリア番号及び当該画像が撮影された時刻等を併せて入力されてもよい。
When an image captured by the
まず、入力された画像から顔領域の画像(顔画像)を抽出する(202)。なお、入力された画像に複数の人物の顔領域が存在する場合には、それぞれの顔画像を抽出する。そして、抽出したそれぞれの顔画像に対して、以下の処理を行う。 First, an image of a face area (face image) is extracted from the input image (202). If there are a plurality of human face areas in the input image, each face image is extracted. Then, the following processing is performed on each extracted face image.
次に、抽出した顔画像から画像特徴量を算出する(203)。次に、人物出現データ108の画像特徴量1082を上のレコードから順に抽出する。次に、ステップ203で算出した画像特徴量及び抽出した画像特徴量1082から、類似度を算出する(204)。つまり、類似度は、人物出現データ108のすべてのレコードに対して算出される。
Next, an image feature amount is calculated from the extracted face image (203). Next, the
次に、算出したすべての類似度から一つを、値の大きいものから順に抽出する。次に、抽出した類似度に対応するレコードを人物出現データ108から選択する(205)。 Next, one of the calculated similarities is extracted in descending order of value. Next, a record corresponding to the extracted similarity is selected from the person appearance data 108 (205).
次に、抽出した類似度が、閾値以上であるか否かを判定する(206)。 Next, it is determined whether or not the extracted similarity is a threshold value or more (206).
類似度が閾値より小さいと、比較する二つの顔画像は類似していないと判定する。よって、ステップ202で抽出した顔画像に映った人物を新規人物と決定して(210)、処理を終了する。なお、新規人物とは、人物出現データ108に顔画像データが格納されていない人物である。
If the similarity is smaller than the threshold, it is determined that the two face images to be compared are not similar. Therefore, the person shown in the face image extracted in
一方、類似度が閾値以上であると、比較する二つの顔画像は類似していると判定し、ステップ205で選択したレコードのエリア番号1085を抽出する。次に、抽出したエリア番号1085と地理的データ109の起点エリア番号1091とが一致し、且つ、ステップ201で入力されたエリア番号と地理的データ109の行先エリア番号1092とが一致するボックスに格納された平均移動時間を地理的データ109から抽出する(207)。
On the other hand, if the similarity is equal to or greater than the threshold, it is determined that the two face images to be compared are similar, and the
次に、ステップ201で入力された時刻から、ステップ205で選択したレコードの出現日時1086を減算する。
Next, the
次に、減算した値が、抽出した平均移動時間を中心とする範囲(例えば、±20%以内)に含まれるか否かを判定する。これよって、ステップ205で選択したレコードに対応する画像が撮影された場所から、ステップ201で入力された画像が撮影された場所へ人物が自然に移動できるかを判定する(208)。
Next, it is determined whether or not the subtracted value is included in a range (for example, within ± 20%) centered on the extracted average travel time. Accordingly, it is determined whether the person can naturally move from the place where the image corresponding to the record selected in
自然に移動できないと判定すると、比較する二つの画像に映っている人物は別人物と判定する。そして、ステップ205に戻り、類似度が次に高い画像に対して同一の処理を繰り返す。 If it is determined that it cannot move naturally, the person shown in the two images to be compared is determined as a different person. Then, the process returns to step 205 and the same processing is repeated for the image having the next highest similarity.
一方、自然に移動できると判定すると、ステップ205で選択したレコードの推定人物名1083を対応人物と決定して(209)、処理を終了する。なお、推定人物名1083に複数の人物名が格納されている場合には、ステップ205で選択したレコードの信頼度1084から、最も高いものを抽出する。そして、抽出した信頼度1084に対応する推定人物名1083を対応人物と決定する。
On the other hand, if it is determined that it can move naturally, the estimated
なお、処理を終了する前に、ステップ203で抽出した顔画像に関する情報を人物出現データ109に登録してもよい。
Note that information regarding the face image extracted in
具体的には、まず、人物出現データ108に新たなレコードを作成する。次に、重複しない顔画像データ番号を、ステップ202で抽出した顔画像に付与する。付与した顔画像データ番号を、新たなレコードの顔画像データ番号1081に格納する。次に、ステップ203で算出した画像特徴量を、新たなレコードの画像特徴量1082に格納する。
Specifically, first, a new record is created in the
次に、決定した対応人物の名前を、新たなレコードの推定人物名1083として格納する。次に、ステップ204で算出した類似度、ステップ201で入力されたエリア番号及び撮影された時刻等に基づいて、信頼度を算出する。そして、算出した信頼度を、新たなレコードの信頼度1084に格納する。
Next, the determined name of the corresponding person is stored as the
次に、ステップ201で入力されたエリア番号を、新たなレコードのエリア番号1085に格納する。次に、ステップ201で入力された時刻を、新たなレコードの出現時刻1086に格納する。また、カメラ101からその他の情報(例えば、撮影されたときの天気を含む照明情報)が入力されると、入力されたその他の情報を新たなレコードのその他の属性1087に格納する。
Next, the area number input in
以上のように、本実施の形態によれば、人物出現データ108を参照することによって、画像が類似する人物を判定できる。更に、地理的データ109を参照することによって、画像が類似する人物の中から対応人物を特定できる。
As described above, according to the present embodiment, it is possible to determine persons having similar images by referring to the
(第2の実施の形態)
第2の実施の形態では、サーバ102が人物を追跡することによって、第1の実施の形態の画像処理(図4)を軽減する。
(Second Embodiment)
In the second embodiment, the
図5は、本発明の第2の実施の形態の監視システムの構成のブロック図である。 FIG. 5 is a block diagram of the configuration of the monitoring system according to the second embodiment of this invention.
本発明の第2の実施の形態の監視システムは、サーバ102に含まれる構成を除き、第1の実施の形態の監視システム(図1)と同一である。同一の構成には、同一の番号を付し、説明を省略する。
The monitoring system according to the second embodiment of the present invention is the same as the monitoring system according to the first embodiment (FIG. 1) except for the configuration included in the
サーバ102には、第1の実施の形態のサーバ102(図1)に含まれる構成に加えて、人物検出・追跡部104及び入退室管理部107が含まれる。
The
人物検出・追跡部104は、顔識別部106によって抽出された顔画像に対して人流追跡処理(図6)を行う。入退室管理部107は、入退室制御装置103にゲートの開閉を指示する。
The person detection /
図6は、本発明の第2の実施の形態のサーバ102の人流追跡処理の説明図である。
FIG. 6 is an explanatory diagram of the human flow tracking process of the
本説明図では、歩行している人物601を追跡する処理で説明する。 In this explanatory diagram, a process of tracking a person 601 who is walking will be described.
カメラ101Aは、人物601を連続して撮影し、撮影した画像をサーバに入力する。サーバ102は、カメラ101Aから入力された画像から顔画像を抽出する。サーバ102は、抽出した顔画像に基づいて、人物601の移動方向及び人物601の移動速度を算出する。
The
サーバ102は、カメラ101Aによって撮影された画像における顔画像の位置が、算出した移動方向及び移動速度に矛盾しないかを判定する。例えば、顔画像の位置の移動方向が、算出した移動方向と逆であると、矛盾と判定する。また、顔画像の位置の移動速度が、算出した移動速度と比べて早過ぎると、矛盾と判定する。
The
顔画像の位置が矛盾していないと、サーバ102は、連続して撮影された二つの画像から抽出した顔画像が同一の人物601であると判定する。そして、サーバ102は、その顔画像を人物601の情報として、人物出現データ108に登録する。
If the positions of the face images are not inconsistent, the
なお、サーバ102は、抽出した顔画像が不鮮明であると、該顔画像を人物出現データ108に登録しない。このように、サーバ102は、鮮明な顔画像のみを人物出現データ108に登録するので、人物出現データ108には人物の特徴が明確に記憶される。以上のようにして、サーバ102は、人物601を追跡する。
Note that if the extracted face image is unclear, the
一方、顔画像の位置が矛盾していると、サーバ102は、連続して撮影された二つの画像から抽出した顔画像が別人物602のものであると判定する。
On the other hand, if the position of the face image is inconsistent, the
また、サーバ102は、別のカメラ101Bによって撮影された画像から抽出した顔画像も別人物603のものであると判定する。
Further, the
サーバ102は、顔画像が別人物602、603のものと判定すると、第1の実施の形態の画像処理(図4)を使って、該顔画像の対応人物を決定する。
If the
図7は、本発明の第2の実施の形態のサーバ102の画像処理のフローチャートである。
FIG. 7 is a flowchart of image processing of the
サーバ102は、カメラ101によって撮影された画像をカメラ101から入力されると、処理を開始する(301)。このとき、サーバ102は、当該画像が撮影された場所のエリア番号及び当該画像が撮影された時刻等を併せて入力されてもよい。
The
まず、入力された画像から顔領域の画像(顔画像)を抽出する(302)。次に、抽出した顔画像のサイズを求める。 First, an image of a face area (face image) is extracted from the input image (302). Next, the size of the extracted face image is obtained.
更に、抽出した顔画像に映った顔の向きを推定する。例えば、複数の角度から撮影した顔画像の画像特徴量を格納する人物出現データ108に基づいて、顔の向きを推定する。この場合、人物出現データ108に格納された画像特徴量及びステップ302で抽出した顔画像の画像特徴量から、類似度を算出する。次に、算出した類似度が最も大きくなった画像特徴量(人物出現データに格納されたもの)を特定する。そして、特定した画像特徴量の画像が撮影された角度を、当該顔画像に映った顔の向きと推定する。
Further, the direction of the face shown in the extracted face image is estimated. For example, the orientation of the face is estimated based on the
次に、求めた顔画像のサイズ及び推定した顔の向きに基づいて、人流追跡状況を算出する。人流追跡状況は、当該顔画像に映った人物の移動方向及び人物の移動速度などを含む。人流追跡状況は、例えば、既存の画像処理(例えば、非特許文献1参照。)を用いて、算出できる。 Next, based on the obtained size of the face image and the estimated face orientation, a human flow tracking state is calculated. The human flow tracking situation includes the moving direction of the person reflected in the face image and the moving speed of the person. The human flow tracking situation can be calculated using, for example, existing image processing (see, for example, Non-Patent Document 1).
次に、カメラ101から入力された画像における顔領域の位置から、該カメラ101から直前に入力された画像における顔領域の位置への変化方向及び変化量を求める。そして、求めた変化方向、変化量及び人流追跡状況を参照して(303)、当該顔画像が追跡中の画像であるか否かを判定する(304)。具体的には、求めた変化方向が人流追跡状況に含まれる移動方向と一致し、且つ求めた変化量が人流追跡状況に含まれる移動速度と矛盾しない場合に、追跡中の画像と判定する。
Next, the direction and amount of change from the position of the face area in the image input from the
当該顔画像が追跡中の画像でないと、人物決定処理を行い(307)、ステップ308に進む。人物決定処理307は、第1の実施の形態の画像処理(図4)のステップ203〜210と同一であり、説明は省略する。
If the face image is not the image being tracked, person determination processing is performed (307), and the process proceeds to step 308. The
一方、顔画像が追跡中の画像であると、該顔画像を撮影したカメラ101から直前に入力された画像の対応人物を、当該顔画像の対応人物と決定する(305)。
On the other hand, if the face image is an image being tracked, the corresponding person of the image input immediately before from the
具体的には、ステップ201で入力された画像が撮影されたカメラ101から直前に入力された画像の顔画像データ番号を検索する。次に、検索した顔画像データ番号と人物出現データ108の顔画像データ番号1081とが一致するレコードを特定する。次に、特定したレコードから、最も高い信頼度1084を選択する。次に、選択した信頼度1084に対応する推定人物名1083を、当該顔画像の対応人物と決定する。
Specifically, the face image data number of the image input immediately before from the
次に、ステップ303で求めた人物の変化方向、人物の変化量及び人流追跡状況等に基づいて、決定した人物の信頼度を算出する。
Next, the reliability of the determined person is calculated based on the change direction of the person, the amount of change of the person, the flow tracking situation, and the like obtained in
次に、ステップ302で抽出した顔画像から画像特徴量を算出する(306)。次に、人物出現データ108に人物の個人情報が含まれる場合には、算出した画像特徴量に基づいて、当該個人情報の画像特徴量の平均値を修正する。
Next, an image feature amount is calculated from the face image extracted in step 302 (306). Next, when personal information of a person is included in the
次に、当該顔画像に関する情報を、人物出現データ108に格納する(308)。 Next, information about the face image is stored in the person appearance data 108 (308).
具体的には、まず、人物出現データ108に新たなレコードを作成する。次に、抽出した顔画像に、重複しない顔画像データ番号を付与する。付与した顔画像データ番号を、新たなレコードの顔画像データ番号1081に格納する。
Specifically, first, a new record is created in the
次に、ステップ306で算出した画像特徴量を新たなレコードの画像特徴量1082に格納する。次に、決定した人物名を新たなレコードの推定人物名1083に格納する。
Next, the image feature amount calculated in
次に、ステップ305で算出した信頼度を新たなレコードの信頼度1084に格納する。次に、ステップ301で入力されたエリア番号を新たなレコードのエリア番号1085に格納する。
Next, the reliability calculated in
次に、ステップ201で入力された時刻を、新たなレコードの出現日時1086に格納する。また、カメラ101からその他の情報(例えば、撮影されたときの天気を含む照明情報)が入力されると、入力されたその他の情報を、新たなレコードのその他の属性1087に格納する。
Next, the time input in
次に、当該画像を入力したカメラ101がゲート前に設置されているカメラ101であるかを判定する(309)。具体的には、ステップ301で入力されたエリア番号が、ゲート前のエリア番号であるかを判定する。
Next, it is determined whether the
ゲート前に設置されていないカメラ101であると、認証する必要がないので処理を終了する。
If the
一方、ゲート前に設置されているカメラ101であると、ステップ305又はステップ307で決定した対応人物が立ち入りを許可されているかを判定する(310)。具体的には、人物出現データ108に格納されている認証情報を参照することによって、対応人物が立ち入りを許可されているかを判定する。
On the other hand, if the
立ち入りを許可されていると、ステップ305で算出した信頼度が閾値以上であるか否かを判定する(311)。
If entry is permitted, it is determined whether or not the reliability calculated in
信頼度が閾値以上であると、当該画像に映っている人物が立ち入りを許可されている人物であると判定し、ゲートの開錠を入退室制御装置103に指示する(312)。そして、処理を終了する。入退室制御装置103は、ゲートを開錠する。
If the reliability is equal to or greater than the threshold value, it is determined that the person shown in the image is permitted to enter, and the entrance /
一方、ステップ310において人物が立ち入りを許可されていないと判定する、又は
ステップ311において信頼度が閾値より小さいと判定すると、当該画像を管理者に送信する(313)。そして、処理を終了する。管理者は、受信した画像を参照することによって、当該施設のセキュリティを維持できる。
On the other hand, if it is determined in
次に、本実施の形態の監視システムを、ビルなどの施設内でのセキュリティ確保に用いる場合について説明する。 Next, a case where the monitoring system of the present embodiment is used for ensuring security in a facility such as a building will be described.
この施設は、施設のゲート及び施設内のそれぞれのオフィスのゲートで認証することによって、セキュリティを保っている。 This facility is kept secure by authenticating at the facility gate and the gate of each office in the facility.
カメラ101は、通常の監視カメラを用いる。また、カメラ101は、人物の流れが分岐する場所に主に設置される。人物の流れが分岐する場所は、例えば、エレベータの出入口、階段等である。また、カメラ101は、視界が及ぶ範囲ごとに設置する。
As the
次に、施設への立ち入りを許可された人物(登録者)に対する監視システムの処理について説明する。なお、登録者は、正規かつ頻繁に当該施設に出入りする人物であり、例えば、当該施設に勤務する人物等である。登録者が当該施設のゲートから目的オフィスに向かう場合で説明する。 Next, processing of the monitoring system for a person (registrant) who is permitted to enter the facility will be described. The registrant is a person who regularly and frequently enters and exits the facility, such as a person who works at the facility. This will be explained when the registrant goes from the gate of the facility to the target office.
監視システムは、登録者の顔画像及び施設への立ち入り許可情報を人物出現データ108に予め登録する。なお、登録者の正面の顔画像だけでなく、複数の方向から撮影された顔画像を登録する。例えば、正面、右45度、右90度、左45度及び左90度の五つの水平方向と、正面、俯角10度及び俯角45度の三つの垂直方向と、の組合せからなる15枚の顔画像を登録する。
The monitoring system registers the registrant's face image and facility entry permission information in
まず、登録者が施設のゲートに接近し、施設のゲートに設置されたカメラ101が登録者を撮影する。すると、サーバ102は、施設のゲートに設置されたカメラ101から入力された画像に映った人物を特定する。この場合、画像に映った人物が登録者であると特定する。すると、サーバ102は、施設のゲートの開錠を指示する。
First, the registrant approaches the facility gate, and the
なお、当該監視システムは、高度な安全性が必要な場合には、その他の認証手段を併せて用いてもよい。その他の認証手段は、例えば、暗証番号の入力、IDカード又はバイオメトリクス等である。 In addition, the said monitoring system may use other authentication means together, when high safety | security is required. Other authentication means are, for example, input of a personal identification number, an ID card, biometrics, or the like.
このとき、サーバ102は、当該画像から顔画像を抽出し、抽出した顔画像を登録者の情報として、人物出現データ108に登録する。
At this time, the
施設のゲートが開くと、登録者は、目的オフィスに向かって移動する。登録者の移動経路上にあるカメラ101は、登録者を撮影し、撮影した画像をサーバ102へ入力する。サーバ102は、入力された画像から顔画像を抽出する。次に、サーバ102は、抽出した顔画像を追跡する。これによって、サーバ102は、登録者と異なる人物の混入を防ぎ、更には、処理を軽減できる。
When the facility gate opens, the registrant moves toward the destination office. The
サーバ102は、追跡できなかった場合には、抽出した顔画像の対応人物を決定する。例えば、登録者が、ゲートに設置されたカメラ101の視界から外れ、1階のエレベータホールに設置されたカメラ101の視界に入った場合である。この場合、サーバ102は、人物出現データ108の画像特徴量1082に基づいて、画像が類似する人物を特定する。次に、サーバ102は、抽出した顔画像から、該顔画像に映った人物の移動方向及び移動速度を算出する。次に、サーバ102は、算出した移動方向、移動速度を参照して、抽出した顔画像に映った対応人物を、画像が類似する人物の中から決定する。具体的には、サーバ102は、ゲートに設置されたカメラ101とエレベータホールに設置されたカメラ101との距離及び登録者の移動時間が、算出した移動方向及び移動速度に矛盾しないかを判定することによって、対応人物を決定する。なお、サーバ102は、人物出現データ108の出現日時1086及びその他の属性1087を併せて参照して、対応人物を決定してもよい。これによって、決定した対応人物の信頼性を向上できる。
If the
また、サーバ102は、抽出した顔画像が鮮明であれば、該顔画像を登録者の情報として、人物出現データ108に登録する。
If the extracted face image is clear, the
次に、登録者は、1階のエレベータホールから6階のエレベータホールに移動し、その後、6階の目的オフィスに移動する。 Next, the registrant moves from the elevator hall on the first floor to the elevator hall on the sixth floor, and then moves to the destination office on the sixth floor.
サーバ102は、目的オフィスの前に設置されたカメラ101から入力された画像に映った人物の名前を判定する。ここでは、サーバ102は、画像に映った人物が登録者であると決定する。すると、サーバ102は、目的オフィスのゲート前に登録者が到達したと判断した時点で、目的オフィスのゲートを開錠する。
The
以上のように、本実施の形態の監視システムは、登録者に意識的な認証動作を行わせることなく、ゲートを開錠できる。また、本実施の形態の監視システムは、登録者が頻繁に現れるほど、顔画像が多数蓄積される。すると、この監視システムは、認証の精度を高めることができるので、安全性及び利便性が増す。 As described above, the monitoring system of the present embodiment can unlock the gate without causing the registrant to perform a conscious authentication operation. Also, in the monitoring system of the present embodiment, the more face images are accumulated, the more registrants appear. Then, since this monitoring system can improve the accuracy of authentication, safety and convenience are increased.
次に、初めて来訪する人物(来訪者)に対する監視システムの処理を説明する。来訪者が当該施設のゲートから目的オフィスに向かう場合で説明する。 Next, processing of the monitoring system for a person who visits for the first time (visitor) will be described. The explanation is given when the visitor goes from the gate of the facility to the target office.
まず、来訪者は、施設のゲートにおいて、管理者に連絡する。管理者は、来訪者の入場を許可すると、施設のゲートを開錠する。また、管理者は、サーバ102に目的オフィスのエリア番号を入力する。このとき、施設のゲートに設置されたカメラ101は、来訪者を撮影し、その画像をサーバ102に入力する。サーバ102は、その入力された画像から顔画像を抽出する。そして、抽出した顔画像を、管理者から入力されたエリア番号と共に人物出現データ108に格納する。
First, a visitor contacts an administrator at the facility gate. When the administrator allows the visitor to enter, the administrator unlocks the facility gate. In addition, the administrator inputs the area number of the target office to the
次に、来訪者は目的オフィスに向かって移動する。その際、サーバ102は、前述した登録者に対する処理と同様の処理を行う。従って、来訪者が経路を誤らずに目的オフィスまで到着すると、サーバ102は、目的オフィスのゲートを開錠する。この場合、来訪者に対しても、意識的な認証動作を行わせることなく開錠できる。
Next, the visitor moves toward the destination office. At that time, the
もし、来訪者が経路を誤ると、サーバ102は、経路の外れを検知し、管理者に通知する。また、サーバ102は、通信手段を用いて、来訪者に経路の誤りを通知してもよい。これによって、サーバ102は、来訪者が経路から外れることを防止できる。
If the visitor makes a mistake in the route, the
次に、自らのオフィスから施設内の他の場所へ移動する登録者に対する監視システムの処理を説明する。例えば、登録者が、自らのオフィスからリフレッシュのための共用コーナへ移動する場合等である。従来の監視システムでは、オフィスを出入りするたびに、認証動作を行う必要があった。そのため、従来の監視システムは、利便性を損なっていた。 Next, processing of the monitoring system for a registrant who moves from his / her office to another place in the facility will be described. For example, a registrant moves from his office to a shared corner for refresh. In the conventional monitoring system, it is necessary to perform an authentication operation every time the user enters or leaves the office. Therefore, the conventional monitoring system has lost convenience.
登録者がオフィスから退室すると、オフィスのゲートに設置されたカメラ101が登録者を撮影し、撮影した画像をサーバ102に入力する。サーバ102は、入力された画像から顔画像を抽出し、抽出した顔画像を人物出現データ108に格納する。サーバ102は、オフィスのゲート前に設置されたカメラ101から、人物出現データ108に格納した顔画像と類似する顔画像が所定の時間内に入力されると、ゲートの開錠を指示する。これによって、登録者は、オフィスを出入りする度に、認証動作をする必要がなくなる。
When the registrant leaves the office, the
次に、進入禁止領域が設定された登録者がその進入禁止領域に進入した場合の処理を説明する。 Next, a process when a registrant set with an entry prohibited area enters the entry prohibited area will be described.
サーバ102は、進入禁止領域に設置されたカメラ101から入力された画像の対応人物が当該登録者であると決定すると、進入禁止領域への侵入と判定する。サーバ102は、進入禁止領域への侵入を判定すると、管理者に通知する。また、サーバ102は、通信手段を用いて、登録者に進入禁止を通知してもよい。更に、サーバ102は、人物出現データ108を参照することによって、当該登録者の進入禁止領域への侵入の頻度を判定してもよい。進入の頻度が高い場合には、サーバ102は、当該登録者を要注意人物として管理者へ通知する。更に、当該登録者は人物出現データ108に格納される顔画像の枚数が増加するので、サーバ102は当該登録者に対する判定の精度が向上する。
When the
以上のすべての処理によって、本実施の形態の監視システムは、すべての人物に対して認証動作を意識的にさせることなく、施設を監視できる。 Through all the above processes, the monitoring system of the present embodiment can monitor the facility without making the authentication operation conscious of all persons.
次に、本実施の監視システムを住宅地での来訪者お知らせサービスに適用する場合について説明する。 Next, a case where the monitoring system of the present embodiment is applied to a visitor notification service in a residential area will be described.
近年、安全性の観点から、街区の入り口にゲートを設け、来客を制限する構造の街区が増えている。このような街区は、街の入り口にゲートが有り、各住宅にもゲートがある。よって、屋内と屋外の違いを除けば、監視システムは、前述した施設内のセキュリティ確保に適用した場合と同様の処理を行う。 In recent years, from the viewpoint of safety, there is an increasing number of blocks with a structure that restricts visitors by providing a gate at the entrance of the block. Such a block has a gate at the entrance of the city, and each house also has a gate. Therefore, except for the difference between indoor and outdoor, the monitoring system performs the same processing as that applied to ensuring the security in the facility described above.
なお、監視システムは、街区の入り口付近で撮影した画像の対応人物名を、来訪先に通知してもよい。また、この監視システムは、街区の入り口付近で撮影した画像を、来訪先に送信してもよい。また、来訪者が経路を誤ると、監視システムは、経路外れを来訪先に通知してもよい。 Note that the monitoring system may notify the visited person of the name of the person corresponding to the image taken near the entrance of the block. In addition, this monitoring system may transmit an image taken near the entrance of a block to a visited place. In addition, when a visitor makes a mistake in the route, the monitoring system may notify the visitor that the route is off.
以上のように、来訪者お知らせサービスに適用した監視システムは、街区のセキュリティを確保できる。 As described above, the monitoring system applied to the visitor notification service can secure the security of the block.
(第3の実施の形態)
第3の実施の形態では、照明の状況に応じて、画像を補正する。
(Third embodiment)
In the third embodiment, the image is corrected in accordance with the lighting conditions.
図8は、本発明の第3の実施の形態の監視システムの構成のブロック図である。 FIG. 8 is a block diagram of a configuration of a monitoring system according to the third embodiment of this invention.
第3の実施の形態の監視システムは、照明条件データ110を備える点及びサーバ102に含まれる構成を除き、第1の実施の形態の監視システム(図1)と同一である。同一の構成には、同一の番号を付し、説明を省略する。
The monitoring system according to the third embodiment is the same as the monitoring system according to the first embodiment (FIG. 1) except that the
照明条件データ110は、図9で後述するが、カメラ101が設置された場所における照明の状況を示す。照明には、太陽からの外光と、室内の照明灯等からの内光を含む。
The
サーバ102には、第1の実施の形態のサーバ102(図1)に含まれる構成に加えて、照明・気象状況推定部111が含まれる。
The
照明・気象状況推定部111は、照明条件データ110に基づいて、顔識別部106によって抽出された顔画像を補正する。
The illumination / weather
図9は、本発明の第3の実施の形態の照明条件データ110の構成図である。
FIG. 9 is a configuration diagram of the
照明条件データ110は、エリア番号1101、撮影状況1102、該当顔画像データ番号1103、照明モード1104、特徴量補正係数1105及び前処理内容1106を含む。
The
エリア番号1101は、カメラ101が設置された場所を一意に識別する識別子である。撮影状況1102は、当該エリアに設置されたカメラ101によって画像が撮影されたときの状況である。本説明図では、撮影状況1102には、当該画像に映っている人物の向き、当該画像が撮影された時間帯及び当該画像が撮影されたときの天気等が格納される。
The
該当顔画像データ番号1103は、当該撮影状況において撮影された画像を一意に識別する識別子である。該当顔画像データ番号1103には、該当する画像が複数ある場合には、複数の識別子が格納される。
The corresponding face
照明モード1104は、当該撮影状況下で撮影された画像が影響を受ける外光の状況である。本説明図では、照明モード1104には、外光の種類及び外光の強さが格納される。外光の種類は、例えば、「順光」、「逆光」、「右斜光」、「左斜光」又は「室内」等である。なお、外光の種類が「室内」である場合、当該画像は、外光の影響を受けないことを示す。また、外光の強さは、例えば、「強」、「中」又は「弱」等である。
The
特徴量補正係数1105は、当該撮影状況において撮影された画像の画像特徴量を補正する係数である。サーバ102は、特徴量補正係数1105を使って画像特徴量を補正することによって、外光の影響を除去する。特徴量補正係数1105は、複数のカメラ101で撮影された顔画像の輝度分布及び色分布が同一となるように、予め決定されている。
The feature
例えば、天候が晴れで時間帯が昼間であると、特徴量補正係数1105は大きくなる。逆に、天気が曇であったり、時間帯が夜間であると、特徴量補正係数1105は小さくなる。また窓が西向きで時間帯が夕刻であると、特徴量補正係数1105は、逆光を補正する成分を大きくする。
For example, when the weather is fine and the time zone is daytime, the feature
前処理内容1106は、当該撮影状況において撮影された画像に対する前処理の内容である。例えば、前処理内容1106には、「光ムラ」、「輝度」、「逆光」等が格納される。サーバ102は、顔画像を抽出すると、前処理内容1106に対応する処理を行う。前処理内容1106が「光ムラ」であると、サーバ102は画像の明るさを均一にする。また、前処理内容1106が「輝度」であると、サーバ102は画像の全体暗くする。また、前処理内容1106が「逆光」であると、サーバ102は画像の全体を明るくする。
The
なお、照明条件データ110には、室内の照明灯等に関する情報が格納されていてもよい。例えば、撮影状況1102に室内の照明灯の有無を格納し、特徴量補正係数1105を室内の照明灯を考慮した値とする。これによって、サーバ102は、室内の照明灯をも考慮した補正が可能となる。
Note that the
図10Aは、本発明の第3の実施の形態の照明の影響の説明図である。 FIG. 10A is an explanatory diagram of the influence of illumination according to the third embodiment of this invention.
ここでは、三台のカメラ101C、101D及び101Eを備えている場合で説明する。
Here, a case where three
まず、照明・気象状況推定部111は、画像が撮影されたときの天気及び時刻を取得する。照明・気象状況推定部111は、当該画像を撮影したカメラ101のエリア番号と照明条件データ110のエリア番号1101とが一致し、且つ取得した天気及び時刻等と撮影状況1102とが一致するレコードを選択する。次に、選択したレコードから照明モード1104を抽出する。この抽出した照明モード1104が、当該画像が影響を受ける照明の状況である。
First, the illumination / weather
例えば、本説明図では、天気が晴れで、時間は9時である。 For example, in this explanatory diagram, the weather is fine and the time is 9 o'clock.
この場合、カメラ101Cは、強い右斜光の影響を受けている。また、カメラ101Dは、強い逆光の影響を受けている。また、カメラ101Eは、外光の影響を受けない室内に設置されている。
In this case, the
図10Bは、本発明の第3の実施の形態の外光の影響の説明図である。 FIG. 10B is an explanatory diagram of the influence of external light according to the third embodiment of this invention.
本説明図では、天気が曇りで、時間は17時である。 In this illustration, the weather is cloudy and the time is 17:00.
この場合、カメラ101Cは、弱い順光の影響を受けている。また、カメラ101Dは、弱い左斜光の影響を受けている。また、カメラ101Eは、外光の影響を受けない室内に設置されている。
In this case, the
図11は、本発明の第3の実施の形態のサーバ102の画像処理のフローチャートである。
FIG. 11 is a flowchart of image processing of the
サーバ102は、カメラ101によって撮影された画像をカメラ101から入力されると、処理を開始する(401)。このとき、サーバ102には、当該画像が撮影された場所のエリア番号及び当該画像が撮影された時刻等を併せて入力されてもよい。
When an image captured by the
まず、入力された画像から顔領域の画像(顔画像)を抽出する(402)。 First, an image of a face area (face image) is extracted from the input image (402).
次に、入力された画像の撮影状況を特定する(403)。撮影状況は、当該画像が撮影された時間帯、当該画像が撮影されたときの天気等を含む。具体的には、外部のネットワークからの気象情報、外光センサからの輝度情報又は管理者からの入力情報に基づいて、画像が撮影されたときの天気を特定する。また、カメラ101から入力された時刻に基づいて、画像が撮影された時間帯を特定する。
Next, the shooting situation of the input image is specified (403). The shooting situation includes the time zone when the image was shot, the weather when the image was shot, and the like. Specifically, the weather when the image is taken is specified based on weather information from an external network, luminance information from an external light sensor, or input information from an administrator. Also, based on the time input from the
次に、カメラ101から入力されたエリア番号と照明条件データ110のエリア番号とが一致し、且つ、特定した撮影状況と照明条件データ110の撮影状況1102とが一致するレコードを照明条件データ110から選択する。次に、選択したレコードから、特徴量補正係数1105及び前処理内容1106を抽出する。
Next, a record in which the area number input from the
次に、当該顔画像に対して、抽出した前処理内容1106に対応する前処理を行う。次に、前処理した顔画像から画像特徴量を算出する(404)。
Next, preprocessing corresponding to the extracted
次に、抽出した特徴量補正係数1105を使って、算出した画像特徴量を補正する(405)。そして、人物決定処理を行う(406)。人物決定処理406は、第1の実施の形態の画像処理(図4)のステップ204〜210と同一であり説明は省略する。
Next, the calculated image feature quantity is corrected using the extracted feature quantity correction coefficient 1105 (405). Then, person determination processing is performed (406). The
以上のように、画像を撮影した照明の状況に応じた補正を顔画像に施すことによって、対応人物の精度を高めることができる。 As described above, it is possible to improve the accuracy of the corresponding person by performing correction on the face image according to the lighting condition in which the image is captured.
次に、本実施の形態の監視システムを、市街地等でのセキュリティ確保に使用する場合について説明する。 Next, the case where the monitoring system of this Embodiment is used for security ensuring in a city area etc. is demonstrated.
市街地における監視システムは、施設内における監視システムと同様に、カメラ101を複数台設置する。監視システムは、設置されたカメラ101の相対位置およびカメラ101の向き等を予め記憶する。カメラ101は、例えば、街路に沿って一定間隔で存在する防犯柱に設置される。なお、カメラ101は、繁華街に既に設置されている監視カメラを利用してもよい。
In a monitoring system in an urban area, a plurality of
まず、特定の人物を捜索する処理について説明する。特定の人物は、例えば、指名手配犯、迷子等である。 First, a process for searching for a specific person will be described. The specific person is, for example, a wanted crime or a lost child.
まず、監視システムは、カメラ101によって撮影された画像から顔画像を抽出する。次に、照明条件データ110に基づいて、抽出した顔画像を補正する。次に、補正した顔画像を追跡する。そして、追跡できたすべての顔画像を同一人物の顔画像と決定する。
First, the monitoring system extracts a face image from an image photographed by the
また、監視システムは、追跡できない場合には、撮影された顔画像の対応人物を決定する。そして、監視システムは、抽出した顔画像及び該顔画像に関する情報を人物ごとに蓄積する。 If the monitoring system cannot track the person, the person corresponding to the captured face image is determined. Then, the monitoring system accumulates the extracted face image and information related to the face image for each person.
次に、監視システムは、蓄積した顔画像と特定人物の顔画像との照合度を蓄積したすべての顔画像に対して算出する。そして、監視システムは、算出した照合度が閾値以上のものが多数存在すると、管理者に通報する。 Next, the monitoring system calculates the matching degree between the accumulated face image and the face image of the specific person for all the accumulated face images. The monitoring system notifies the administrator when there are a large number of calculated collation degrees equal to or greater than the threshold.
本実施の監視システムは、様々な環境における顔画像を多数蓄積するので、人物の特定の精度を高めることができる。また、蓄積された一部の顔画像との照合度が高くても、蓄積された他の顔画像との照合度が低いと通報しないので、誤報を減少できる。 Since the monitoring system of the present embodiment accumulates a large number of face images in various environments, it is possible to improve the accuracy of identifying a person. Further, even if the degree of matching with a part of the stored face images is high, no notification is made if the degree of matching with other stored face images is low, so that false alarms can be reduced.
監視システムは、特定人物の捜索処理と併せて、人物の異常行動を検出してもよい。例えば、監視システムは、既存の画像処理技術を用いて、人物の異常行動を検出する。異常行動は、人物が長時間同じ位置に滞留している場合等である。監視システムは、異常行動を検出すると、管理者に通報する。また、監視システムは、異常な行動をした人物の顔画像を蓄積し、蓄積した顔画像の人物を特定してもよい。 The monitoring system may detect the abnormal behavior of the person together with the search process for the specific person. For example, the monitoring system detects an abnormal behavior of a person using an existing image processing technique. Abnormal behavior is when a person stays at the same position for a long time. When the monitoring system detects abnormal behavior, it notifies the administrator. In addition, the monitoring system may accumulate face images of persons who have performed abnormal behavior and specify the person of the accumulated face images.
次に、本実施の形態の監視システムは、混雑検知にも利用できる。 Next, the monitoring system of the present embodiment can also be used for congestion detection.
本実施の形態の監視システムによる顔識別を採り入れることによって、複数の地点での混雑状況の関係を知ることができる。監視システムは、例えば、A地点に現れる人物の80%がB地点に現れると判断する。この場合、管理者は、A地点を訪れる人物とB地点を訪れる人物との間には高い相関関係があると理解できる。 By adopting face identification by the monitoring system of this embodiment, it is possible to know the relationship of the congestion situation at a plurality of points. For example, the monitoring system determines that 80% of people appearing at point A appear at point B. In this case, the administrator can understand that there is a high correlation between the person visiting the point A and the person visiting the point B.
本実施の形態の監視システムは、人物の数の増加に伴い、人物の識別が困難となる。しかし、この監視システムは、複数の地点における人物の関連性がわかればよいので、人物の識別の精度が低くても運用できる。 In the monitoring system according to the present embodiment, it becomes difficult to identify a person as the number of persons increases. However, since this monitoring system only needs to know the relevance of persons at a plurality of points, the monitoring system can be operated even if the accuracy of identification of persons is low.
特許請求の範囲に記載した以外の本発明の観点の代表的なものとして、次のものがあげられる。 The following are typical examples of aspects of the present invention other than those described in the claims.
撮影された画像がカメラから入力され、各種情報を記憶する記憶部から情報を取得する監視装置において、
前記記憶部は、前記監視装置に過去に入力された画像に関する情報を含む過去情報と、前記カメラの位置情報を含む地理情報と、を記憶し、
前記入力された画像から顔画像を抽出し、前記抽出した顔画像から、該顔画像に対応する人物の移動方向及び移動速度を求め、
前記求めた移動方向及び移動速度に基づいて、前記抽出した顔画像の追跡が可能であるか否かを判定し、
追跡可能であると、該追跡した顔画像の人物を前記抽出した顔画像に対応する人物と決定し、
追跡不可能であると、前記過去情報に基づいて、前記抽出した顔画像に対応する人物を推定し、
前記地理情報に基づいて、前記推定した人物の中から、前記抽出した顔画像に対応する人物を決定する監視装置。
In a monitoring device in which a captured image is input from a camera and acquires information from a storage unit that stores various types of information,
The storage unit stores past information including information related to images previously input to the monitoring device, and geographic information including position information of the camera,
A face image is extracted from the input image, and a moving direction and a moving speed of a person corresponding to the face image are obtained from the extracted face image;
Based on the obtained moving direction and moving speed, it is determined whether or not the extracted face image can be tracked,
If tracking is possible, the person of the tracked face image is determined as the person corresponding to the extracted face image;
If tracking is impossible, based on the past information, the person corresponding to the extracted face image is estimated,
A monitoring device that determines a person corresponding to the extracted face image from the estimated persons based on the geographic information.
これによると、監視装置は、顔画像の追跡処理によって、顔画像の対応人物を決定することができる。更に、監視装置は、顔画像の追跡ができない場合のみ、顔画像の対応人物を決定する画像処理を行うので、処理を軽減できる。 According to this, the monitoring apparatus can determine the corresponding person of the face image by the tracking process of the face image. Furthermore, since the monitoring apparatus performs image processing for determining the person corresponding to the face image only when the face image cannot be tracked, the processing can be reduced.
本発明は、カメラで撮影された画像中の人物を追跡するので、屋内及び屋外の監視装置に幅広く適用できる。また、本発明は、認証装置の機能も備えるので、従来の認証装置の代替としても適用できる。 Since the present invention tracks a person in an image taken by a camera, it can be widely applied to indoor and outdoor monitoring devices. In addition, since the present invention also has a function of an authentication device, it can be applied as an alternative to a conventional authentication device.
101 カメラ
102 サーバ
103 入退室制御装置
104 人物検出・追跡部
105 地理・時間制限算出部
106 顔識別部
107 入退室管理部
108 人物出現データ
109 地理的データ
110 照明条件データ
111 照明・気象情報推定部
112 ネットワーク
DESCRIPTION OF
Claims (9)
前記記憶部は、前記カメラが過去に撮影した画像に関する情報を含む過去情報と、前記カメラが撮影する領域情報を含む地理情報と、を記憶し、
前記入力された画像から顔画像を抽出し、前記過去情報に基づいて前記抽出した顔画像に対応する人物を推定する顔識別部と、
前記地理情報に基づいて、前記顔識別部が推定した人物の中から、前記抽出した顔画像に対応する人物を決定する判定部と、を備えることを特徴とする監視装置。 In a monitoring device in which a captured image is input from a camera and acquires information from a storage unit that stores various types of information,
The storage unit stores past information including information related to images captured by the camera in the past, and geographic information including area information captured by the camera,
A face identifying unit that extracts a face image from the input image and estimates a person corresponding to the extracted face image based on the past information;
A monitoring apparatus comprising: a determination unit that determines a person corresponding to the extracted face image from the persons estimated by the face identification unit based on the geographic information.
前記顔識別部は、
前記抽出した顔画像から、該顔画像の特徴を示す特徴量を求め、
前記過去情報に含まれる特徴量と前記求めた特徴量とを比較することによって、前記抽出した顔画像に対応する人物を推定することを特徴とする請求項1に記載の監視装置。 The past information includes a feature amount indicating a feature of a face image extracted in the past by the monitoring device,
The face identification unit
From the extracted face image, a feature amount indicating the feature of the face image is obtained,
The monitoring apparatus according to claim 1, wherein a person corresponding to the extracted face image is estimated by comparing a feature amount included in the past information with the obtained feature amount.
前記過去情報は、前記監視装置が過去に抽出した前記顔画像が撮影された時刻を含み、
前記判定部は、
前記推定した人物が直前に撮影された顔画像を前記過去情報から検索し、
前記検索した顔画像が撮影された時刻を前記過去情報から取得し、
前記抽出した顔画像が撮影された時刻から、前記取得した時刻を減算し、
前記減算した時刻差と前記地理情報に含まれる移動時間とを比較することによって、前記顔識別部が推定した人物の中から、前記抽出した顔画像に対応する人物を決定することを特徴とする請求項1に記載の監視装置。 The geographic information includes a time for a person to move in an area captured by the camera,
The past information includes a time when the face image extracted in the past by the monitoring device is captured,
The determination unit
Search the past information for a face image in which the estimated person was photographed immediately before,
The time when the searched face image was taken is acquired from the past information,
Subtract the acquired time from the time when the extracted face image was taken,
The person corresponding to the extracted face image is determined from the persons estimated by the face identification unit by comparing the subtracted time difference and the travel time included in the geographic information. The monitoring device according to claim 1.
前記照明情報に基づいて、前記抽出した顔画像を補正する補正部を備え、
前記顔識別部は、前記補正部が補正した顔画像に基づいて、前記抽出した顔画像に対応する人物を推定することを特徴とする請求項1に記載の監視装置。 The storage unit stores illumination information including a lighting situation when the face image is captured,
A correction unit that corrects the extracted face image based on the illumination information;
The monitoring apparatus according to claim 1, wherein the face identification unit estimates a person corresponding to the extracted face image based on the face image corrected by the correction unit.
前記抽出した顔画像に対応する人物を決定する際に、該決定する人物と該顔画像に対応する人物とが同一である可能性を示す信頼度を求め、
求めた信頼度を前記過去情報に記憶することを特徴とする請求項1に記載の監視装置。 The determination unit
When determining a person corresponding to the extracted face image, a reliability indicating the possibility that the person to be determined and the person corresponding to the face image are the same is obtained;
The monitoring device according to claim 1, wherein the obtained reliability is stored in the past information.
前記記憶装置は、前記カメラが過去に撮影した画像に関する情報を含む過去情報と、前記カメラが撮影する領域情報を含む地理情報と、を記憶し、
前記監視サーバは、
前記入力された画像から顔画像を抽出し、前記過去情報に基づいて前記抽出した顔画像に対応する人物を推定する顔識別部と、
前記地理情報に基づいて、前記推定した人物の中から、前記抽出した顔画像に対応する人物を決定する判定部と、を備えることを特徴とする監視システム。 In a monitoring system for monitoring facilities, comprising one or more cameras, a storage device for storing various types of information, and a monitoring server in which captured images are input from the camera and obtain information from the storage device,
The storage device stores past information including information on images captured by the camera in the past, and geographic information including region information captured by the camera,
The monitoring server is
A face identifying unit that extracts a face image from the input image and estimates a person corresponding to the extracted face image based on the past information;
A monitoring system comprising: a determination unit that determines a person corresponding to the extracted face image from the estimated person based on the geographic information.
前記記憶装置は、人物が施設への入場を許可されているか否かの情報を含む認証情報を記憶し、
前記判定部は、前記認証情報に基づいて、前記決定した人物が入場を許可されているか否かを判定し、
前記入退制御装置は、前記判定部が入場を許可されている人物と判定すると、施設の出入口を開くように制御することを特徴とする請求項7に記載の監視システム。 The monitoring system includes an entrance / exit control device that controls opening / closing of the entrance / exit of the facility,
The storage device stores authentication information including information on whether or not a person is permitted to enter the facility,
The determination unit determines whether the determined person is allowed to enter based on the authentication information,
The monitoring system according to claim 7, wherein the entrance / exit control device controls to open an entrance / exit of a facility when the determination unit determines that the person is permitted to enter.
前記抽出した顔画像から、該画像に対応する人物の移動方向及び移動速度を求め、前記求めた移動方向及び移動速度に基づいて、前記抽出した顔画像を追跡する追跡部を備え、
前記判定部は、前記追跡した顔画像の人物を前記抽出した顔画像に対応する人物と決定することを特徴とする請求項7に記載の監視システム。
The monitoring server is
From the extracted face image, a movement unit and a movement speed of a person corresponding to the image are obtained, and a tracking unit that tracks the extracted face image based on the obtained movement direction and movement speed is provided.
The monitoring system according to claim 7, wherein the determination unit determines a person of the tracked face image as a person corresponding to the extracted face image.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005033290A JP2006221355A (en) | 2005-02-09 | 2005-02-09 | Monitoring device and monitoring system |
KR1020050071503A KR20060090554A (en) | 2005-02-09 | 2005-08-04 | A surveillance apparatus and surveillance system |
CNA2005100897268A CN1819652A (en) | 2005-02-09 | 2005-08-05 | Watching device and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005033290A JP2006221355A (en) | 2005-02-09 | 2005-02-09 | Monitoring device and monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006221355A true JP2006221355A (en) | 2006-08-24 |
JP2006221355A5 JP2006221355A5 (en) | 2007-06-28 |
Family
ID=36919305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005033290A Pending JP2006221355A (en) | 2005-02-09 | 2005-02-09 | Monitoring device and monitoring system |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2006221355A (en) |
KR (1) | KR20060090554A (en) |
CN (1) | CN1819652A (en) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008236676A (en) * | 2007-03-23 | 2008-10-02 | Fujifilm Corp | Photographing system and photographing method |
JP2008250444A (en) * | 2007-03-29 | 2008-10-16 | Omron Corp | Face detection device, face detection method, and face detection program |
JP2010118019A (en) * | 2008-11-14 | 2010-05-27 | Sharp Corp | Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium |
US8525678B2 (en) | 2007-08-21 | 2013-09-03 | Nec Corporation | Behavior monitoring system and behavior monitoring method |
JP2014511520A (en) * | 2011-02-03 | 2014-05-15 | フェイスブック,インク. | System and method for relevance of image texting and text imaging |
WO2014125882A1 (en) * | 2013-02-15 | 2014-08-21 | 日本電気株式会社 | Information processing system, information processing method, and program |
WO2014171258A1 (en) * | 2013-04-16 | 2014-10-23 | 日本電気株式会社 | Information processing system, information processing method, and program |
WO2014175356A1 (en) * | 2013-04-26 | 2014-10-30 | 日本電気株式会社 | Information processing system, information processing method, and program |
WO2015037713A1 (en) * | 2013-09-13 | 2015-03-19 | 日本電気株式会社 | Information processing device, information processing method, and program |
US9064146B2 (en) | 2008-03-20 | 2015-06-23 | Facebook, Inc. | Relationship mapping employing multi-dimensional context including facial recognition |
US9143573B2 (en) | 2008-03-20 | 2015-09-22 | Facebook, Inc. | Tag suggestions for images on online social networks |
JP2017111587A (en) * | 2015-12-16 | 2017-06-22 | 日本電気株式会社 | Travel-time storage system, travel-time storage method, and travel-time storage program |
JP2019028764A (en) * | 2017-07-31 | 2019-02-21 | キヤノン株式会社 | Information processing apparatus, system, information processing method and program |
JP2019185384A (en) * | 2018-04-10 | 2019-10-24 | キヤノン株式会社 | Image authentication device, image authentication method, computer program and storage medium |
JP2020064675A (en) * | 2015-12-16 | 2020-04-23 | 日本電気株式会社 | Transit time storage system, method for storing transit time, and transit time storage program |
WO2020218320A1 (en) * | 2019-04-26 | 2020-10-29 | 清水建設株式会社 | Reception guidance system and reception guidance method |
JP2021012631A (en) * | 2019-07-09 | 2021-02-04 | キヤノン株式会社 | Image processing system, information processing device, information processing method, and program |
CN112926722A (en) * | 2021-01-27 | 2021-06-08 | 上海兰宝传感科技股份有限公司 | Method for counting people in escalator entrance area |
JP2021168216A (en) * | 2020-01-09 | 2021-10-21 | 日本電気株式会社 | Information processing system, method and program |
US11347739B2 (en) | 2016-02-15 | 2022-05-31 | Kabushiki Kaisha Toshiba | Performing a chained search function |
US11507768B2 (en) | 2019-07-04 | 2022-11-22 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP7419790B2 (en) | 2019-12-18 | 2024-01-23 | 大日本印刷株式会社 | Rename processing equipment and print sales system |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101282913B1 (en) * | 2006-09-08 | 2013-07-05 | 엘지전자 주식회사 | Method for controling monitoring camera in digital video recorder |
JP5115139B2 (en) * | 2007-10-17 | 2013-01-09 | ソニー株式会社 | Composition determination apparatus, composition determination method, and program |
CN101754045B (en) * | 2008-12-08 | 2013-07-24 | 北京中星微电子有限公司 | Method for distinguishing stay-dead picture in monitoring system, monitoring system and device |
JP5441151B2 (en) * | 2008-12-22 | 2014-03-12 | 九州日本電気ソフトウェア株式会社 | Facial image tracking device, facial image tracking method, and program |
EP2418849B1 (en) * | 2009-04-10 | 2013-10-02 | Omron Corporation | Monitoring system, and monitoring terminal |
JP5359645B2 (en) * | 2009-07-23 | 2013-12-04 | ソニー株式会社 | Composition determination apparatus, imaging system, composition determination method, and program |
KR102097781B1 (en) * | 2013-09-06 | 2020-05-29 | 에스케이 텔레콤주식회사 | Apparatus and Method for Providing Object Information |
CN103632141A (en) * | 2013-11-28 | 2014-03-12 | 小米科技有限责任公司 | Method, device and terminal equipment for figure identifying |
KR20180086662A (en) * | 2017-01-23 | 2018-08-01 | 한화에어로스페이스 주식회사 | The Apparatus And The System For Monitoring |
CN107704851B (en) * | 2017-10-30 | 2021-01-15 | 歌尔股份有限公司 | Character identification method, public media display device, server and system |
CN111492371B (en) * | 2017-12-14 | 2023-05-26 | 三菱电机株式会社 | Search system and monitoring system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002279466A (en) * | 2001-03-15 | 2002-09-27 | Toshiba Corp | Device and method for admission control |
JP2003204541A (en) * | 2001-12-28 | 2003-07-18 | Nippon Signal Co Ltd:The | Video processing method and video processing apparatus |
-
2005
- 2005-02-09 JP JP2005033290A patent/JP2006221355A/en active Pending
- 2005-08-04 KR KR1020050071503A patent/KR20060090554A/en not_active Application Discontinuation
- 2005-08-05 CN CNA2005100897268A patent/CN1819652A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002279466A (en) * | 2001-03-15 | 2002-09-27 | Toshiba Corp | Device and method for admission control |
JP2003204541A (en) * | 2001-12-28 | 2003-07-18 | Nippon Signal Co Ltd:The | Video processing method and video processing apparatus |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008236676A (en) * | 2007-03-23 | 2008-10-02 | Fujifilm Corp | Photographing system and photographing method |
JP2008250444A (en) * | 2007-03-29 | 2008-10-16 | Omron Corp | Face detection device, face detection method, and face detection program |
US8525678B2 (en) | 2007-08-21 | 2013-09-03 | Nec Corporation | Behavior monitoring system and behavior monitoring method |
US9275272B2 (en) | 2008-03-20 | 2016-03-01 | Facebook, Inc. | Tag suggestions for images on online social networks |
US9984098B2 (en) | 2008-03-20 | 2018-05-29 | Facebook, Inc. | Relationship mapping employing multi-dimensional context including facial recognition |
US9665765B2 (en) | 2008-03-20 | 2017-05-30 | Facebook, Inc. | Tag suggestions for images on online social networks |
US10423656B2 (en) | 2008-03-20 | 2019-09-24 | Facebook, Inc. | Tag suggestions for images on online social networks |
US9064146B2 (en) | 2008-03-20 | 2015-06-23 | Facebook, Inc. | Relationship mapping employing multi-dimensional context including facial recognition |
US9143573B2 (en) | 2008-03-20 | 2015-09-22 | Facebook, Inc. | Tag suggestions for images on online social networks |
JP2010118019A (en) * | 2008-11-14 | 2010-05-27 | Sharp Corp | Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium |
JP2014511520A (en) * | 2011-02-03 | 2014-05-15 | フェイスブック,インク. | System and method for relevance of image texting and text imaging |
JPWO2014125882A1 (en) * | 2013-02-15 | 2017-02-02 | 日本電気株式会社 | Information processing system, information processing method, and program |
US9697420B2 (en) | 2013-02-15 | 2017-07-04 | Nec Corporation | Information processing system, information processing method, and computer-readable recording medium |
WO2014125882A1 (en) * | 2013-02-15 | 2014-08-21 | 日本電気株式会社 | Information processing system, information processing method, and program |
US10574943B2 (en) | 2013-04-16 | 2020-02-25 | Nec Corporation | Information processing system, information processing method, and program |
US11483521B2 (en) | 2013-04-16 | 2022-10-25 | Nec Corporation | Information processing system, information processing method, and program |
WO2014171258A1 (en) * | 2013-04-16 | 2014-10-23 | 日本電気株式会社 | Information processing system, information processing method, and program |
US10225524B2 (en) | 2013-04-16 | 2019-03-05 | Nec Corporation | Information processing system, information processing method, and program |
US10347100B2 (en) | 2013-04-26 | 2019-07-09 | Nec Corporation | Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not |
US10854057B2 (en) | 2013-04-26 | 2020-12-01 | Nec Corporation | Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not |
US11908293B2 (en) | 2013-04-26 | 2024-02-20 | Nec Corporation | Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram |
WO2014175356A1 (en) * | 2013-04-26 | 2014-10-30 | 日本電気株式会社 | Information processing system, information processing method, and program |
US11367330B2 (en) | 2013-04-26 | 2022-06-21 | Nec Corporation | Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram |
JPWO2014175356A1 (en) * | 2013-04-26 | 2017-02-23 | 日本電気株式会社 | Information processing system, information processing method, and program |
US10854056B2 (en) | 2013-04-26 | 2020-12-01 | Nec Corporation | Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not |
WO2015037713A1 (en) * | 2013-09-13 | 2015-03-19 | 日本電気株式会社 | Information processing device, information processing method, and program |
US9690978B2 (en) | 2013-09-13 | 2017-06-27 | Nec Hong Kong Limited | Information processing apparatus, information processing and program |
JPWO2015037713A1 (en) * | 2013-09-13 | 2017-03-02 | エヌイーシー ホンコン リミテッド | Information processing apparatus, information processing method, and program |
JP2017111587A (en) * | 2015-12-16 | 2017-06-22 | 日本電気株式会社 | Travel-time storage system, travel-time storage method, and travel-time storage program |
JP2020064675A (en) * | 2015-12-16 | 2020-04-23 | 日本電気株式会社 | Transit time storage system, method for storing transit time, and transit time storage program |
US11347739B2 (en) | 2016-02-15 | 2022-05-31 | Kabushiki Kaisha Toshiba | Performing a chained search function |
JP6991771B2 (en) | 2017-07-31 | 2022-01-13 | キヤノン株式会社 | Information processing equipment, information processing system, information processing method and program |
JP2019028764A (en) * | 2017-07-31 | 2019-02-21 | キヤノン株式会社 | Information processing apparatus, system, information processing method and program |
JP2019185384A (en) * | 2018-04-10 | 2019-10-24 | キヤノン株式会社 | Image authentication device, image authentication method, computer program and storage medium |
JP2020181525A (en) * | 2019-04-26 | 2020-11-05 | 清水建設株式会社 | Reception guidance system and reception guidance method |
JP7409782B2 (en) | 2019-04-26 | 2024-01-09 | 清水建設株式会社 | Reception guidance system, reception guidance method |
WO2020218320A1 (en) * | 2019-04-26 | 2020-10-29 | 清水建設株式会社 | Reception guidance system and reception guidance method |
US11507768B2 (en) | 2019-07-04 | 2022-11-22 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP2021012631A (en) * | 2019-07-09 | 2021-02-04 | キヤノン株式会社 | Image processing system, information processing device, information processing method, and program |
JP7374632B2 (en) | 2019-07-09 | 2023-11-07 | キヤノン株式会社 | Information processing device, information processing method and program |
JP7419790B2 (en) | 2019-12-18 | 2024-01-23 | 大日本印刷株式会社 | Rename processing equipment and print sales system |
JP2021168216A (en) * | 2020-01-09 | 2021-10-21 | 日本電気株式会社 | Information processing system, method and program |
JP7218778B2 (en) | 2020-01-09 | 2023-02-07 | 日本電気株式会社 | Information processing system, method and program |
CN112926722A (en) * | 2021-01-27 | 2021-06-08 | 上海兰宝传感科技股份有限公司 | Method for counting people in escalator entrance area |
CN112926722B (en) * | 2021-01-27 | 2022-11-01 | 上海兰宝传感科技股份有限公司 | Method for counting people in escalator entrance area |
Also Published As
Publication number | Publication date |
---|---|
CN1819652A (en) | 2006-08-16 |
KR20060090554A (en) | 2006-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006221355A (en) | Monitoring device and monitoring system | |
JP4759988B2 (en) | Surveillance system using multiple cameras | |
JP4937016B2 (en) | Monitoring device, monitoring method and program | |
US7639846B2 (en) | Authentication system and program | |
CN109658554B (en) | Intelligent residential district security protection system based on big data | |
US20190347528A1 (en) | Image analysis system, image analysis method, and storage medium | |
US20070291998A1 (en) | Face authentication apparatus, face authentication method, and entrance and exit management apparatus | |
KR20180042802A (en) | Method and system for tracking an object in a defined area | |
WO2015136938A1 (en) | Information processing method and information processing system | |
KR101387628B1 (en) | Entrance control integrated video recorder | |
US20130216107A1 (en) | Method of surveillance by face recognition | |
KR102012672B1 (en) | Anti-crime system and method using face recognition based people feature recognition | |
JP2006221355A5 (en) | ||
JP2006236260A (en) | Face authentication device, face authentication method, and entrance/exit management device | |
KR102561308B1 (en) | Method and apparatus of providing traffic information, and computer program for executing the method. | |
JP2016046639A (en) | Authentication device | |
CN114358609A (en) | Scenic spot tourism safety management system and method | |
JP2010009389A (en) | Dictionary information registration device, dictionary information registration method, face authentication device, and access control system | |
JP2007257296A (en) | Access management system and access management method | |
JP2006209585A (en) | Crime prevention system | |
JP2011243054A (en) | Crime prevention device and program | |
WO2021176593A1 (en) | Stay management device, stay management method, non-transitory computer-readable medium in which program is stored, and stay management system | |
GB2499449A (en) | Surveillance by face recognition using colour display of images | |
JP5730000B2 (en) | Face matching system, face matching device, and face matching method | |
CN112002052A (en) | Data sharing method for smart community |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070515 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101026 |