JP2006221355A - Monitoring device and monitoring system - Google Patents

Monitoring device and monitoring system Download PDF

Info

Publication number
JP2006221355A
JP2006221355A JP2005033290A JP2005033290A JP2006221355A JP 2006221355 A JP2006221355 A JP 2006221355A JP 2005033290 A JP2005033290 A JP 2005033290A JP 2005033290 A JP2005033290 A JP 2005033290A JP 2006221355 A JP2006221355 A JP 2006221355A
Authority
JP
Japan
Prior art keywords
face image
person
image
information
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005033290A
Other languages
Japanese (ja)
Other versions
JP2006221355A5 (en
Inventor
Yasuhide Mori
靖英 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005033290A priority Critical patent/JP2006221355A/en
Priority to KR1020050071503A priority patent/KR20060090554A/en
Priority to CNA2005100897268A priority patent/CN1819652A/en
Publication of JP2006221355A publication Critical patent/JP2006221355A/en
Publication of JP2006221355A5 publication Critical patent/JP2006221355A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To identify a person by means of even the image other than his or her front face highly precisely. <P>SOLUTION: In the monitoring device in which a photographed image is inputted from a camera and information is acquired from a storage part for storing various information, the storage part stores past information including information related with an image inputted in the past to the monitoring device and geographical information including the position information of the camera, and extracts the face image from the inputted image, and estimates a figure corresponding to the extracted face image on the basis of the past information, and decides the person corresponding to the extracted face image out of the estimated persons on the basis of the geographical information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、カメラで撮影された画像を監視する監視システムに関し、特に、地理的な情報を使って画像に映っている人物を特定する技術に関する。   The present invention relates to a monitoring system for monitoring an image taken by a camera, and more particularly to a technique for identifying a person appearing in an image using geographical information.

近年、顔画像識別による個人認証が広まりつつある。顔画像識別は、顔画像から人物を識別する技術である。具体的には、画像から人物の顔領域を抽出する。次に、その抽出した顔領域と予め登録された顔画像とを照合し、類似性を判定する。そして、判定した類似性から、人物を特定する。   In recent years, personal authentication based on facial image identification has become widespread. Face image identification is a technique for identifying a person from a face image. Specifically, a human face area is extracted from the image. Next, the extracted face area is collated with a pre-registered face image to determine similarity. Then, a person is specified from the determined similarity.

顔画像による個人認証は、心理的な抵抗が少ない。なぜなら、顔画像による個人認証は、遠隔から撮影された画像を用いて非接触で行うので、指紋認証などのように読み取り機器に対する入力動作が必要ないからである。   Personal authentication using face images has little psychological resistance. This is because personal authentication using a face image is performed in a non-contact manner using an image photographed from a remote location, so that an input operation to a reading device is not required as in fingerprint authentication.

しかし、顔画像による個人認証は、照明の変動、画像における顔領域の大きさの変動及び顔の向きの変動等に弱いという問題がある。   However, personal authentication using a face image has a problem that it is vulnerable to variations in illumination, variations in the size of the face area in the image, variations in the orientation of the face, and the like.

そこで、従来の顔画像による個人認証装置は、認証に適した画像を取得することによって、認証する。例えば、個人認証装置は、カメラの前の適切な位置に立たせたユーザの正面顔を撮影することによって、認証に適した画像を取得する。しかし、この個人認証装置は、認証の度に、適切な位置に立たせたユーザを撮影しなければならない。   Therefore, a conventional personal authentication device using a face image performs authentication by acquiring an image suitable for authentication. For example, the personal authentication device acquires an image suitable for authentication by photographing the front face of the user placed at an appropriate position in front of the camera. However, this personal authentication device must take a picture of a user standing at an appropriate position for each authentication.

そこで、この問題を解決する監視装置が知られている(例えば、特許文献1参照。)。この監視装置は、複数の方向からの顔画像を予め記憶することによって、正面顔以外の画像を取得しても、認証することができる。つまり、この監視装置は、ユーザが所定の位置に立ち止まることなく、認証できる。   Therefore, a monitoring device that solves this problem is known (see, for example, Patent Document 1). This monitoring apparatus can authenticate even if an image other than the front face is acquired by storing face images from a plurality of directions in advance. In other words, this monitoring apparatus can authenticate the user without stopping at a predetermined position.

また、人物画像を用いる技術として、人物追跡処理が知られている(例えば、非特許文献1参照。)。この人物追跡処理は、監視カメラ画像中から顔領域を抽出し、抽出した顔領域から顔のサイズ及び顔の向きを求める。次に、求めた顔のサイズ及び顔の向きから、人物の移動方向及び人物の移動速度等を求める。そして、求めた人物の移動方法及び人物の移動速度に基づいて、人物を追跡する。この人物追跡処理は、監視装置及びマーケティング等へ応用されている。   Also, a person tracking process is known as a technique using a person image (see, for example, Non-Patent Document 1). In the person tracking process, a face area is extracted from the surveillance camera image, and the face size and the face direction are obtained from the extracted face area. Next, the moving direction of the person, the moving speed of the person, and the like are obtained from the obtained face size and face orientation. Then, the person is traced based on the obtained person moving method and the moving speed of the person. This person tracking process is applied to monitoring devices and marketing.

この人物追跡処理は、諸条件を満たしていれば、差分などを用いる通常の画像処理のみで行うことができる。諸条件とは、追跡対象の人物が画面内に常に収まっていること、且つ光量が閾値異常であること等である。   This person tracking process can be performed only by normal image processing using a difference or the like if various conditions are satisfied. The various conditions include that the person to be tracked is always within the screen and that the light intensity is abnormal.

よって、従来の人物追跡処理は、人物が画面内から外れその後に再入場すると、追跡を継続できない。つまり、この人物追跡処理は、画面内から外れた人物と再入場した人物とを別の人物として扱ってしまう問題があった。   Therefore, in the conventional person tracking process, if a person leaves the screen and then re-enters, tracking cannot be continued. In other words, the person tracking process has a problem that a person who is out of the screen and a person who re-enters the person are treated as different persons.

この問題を解決するために、複数のカメラによって追跡する技術が知られている。しかし、この技術も、カメラとカメラとの間に死角があると、同一の問題が生じる。
特開2002−92601号公報 高木 幹雄編集、「新編画像解析ハンドブック」、全面改訂版、東京大学出版会、2004年9月10日
In order to solve this problem, a technique of tracking with a plurality of cameras is known. However, this technique also has the same problem when there is a blind spot between the cameras.
JP 2002-92601 A Edited by Mikio Takagi, “New Image Analysis Handbook”, Full Revised Edition, The University of Tokyo Press, September 10, 2004

前述した特許文献1に記載された監視装置は、人物の正面顔以外の画像からでも認証できる。しかし、この監視装置は、画像の類似性だけで人物を特定するので、認証の精度が問題となる。   The monitoring device described in Patent Document 1 described above can be authenticated from an image other than the front face of a person. However, since this monitoring device identifies a person only by the similarity of images, the accuracy of authentication becomes a problem.

そこで、本発明は、人物の正面顔以外の画像であっても認証でき、且つ高精度に認証できる監視装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a monitoring apparatus that can authenticate even an image other than the front face of a person and can authenticate with high accuracy.

本発明は、撮影された画像がカメラから入力され、各種情報を記憶する記憶部から情報を取得する監視装置において、前記記憶部は、前記監視装置に過去に入力された画像に関する情報を含む過去情報と、前記カメラの位置情報を含む地理情報と、を記憶し、前記入力された画像から顔画像を抽出し、前記過去情報に基づいて、前記抽出した顔画像に対応する人物を推定し、前記地理情報に基づいて、前記推定した人物の中から、前記抽出した顔画像に対応する人物を決定することを特徴とする。   The present invention provides a monitoring device in which captured images are input from a camera and acquires information from a storage unit that stores various types of information. The storage unit includes past information including information related to images input to the monitoring device in the past. Storing information and geographic information including position information of the camera, extracting a face image from the input image, and estimating a person corresponding to the extracted face image based on the past information; Based on the geographic information, a person corresponding to the extracted face image is determined from the estimated persons.

本発明によれば、人物の正面顔以外の画像であっても認証でき、更に、高精度に認証できる。   According to the present invention, even an image other than the front face of a person can be authenticated, and further, it can be authenticated with high accuracy.

本発明の実施の形態を図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態の監視システムのブロック図である。
Embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram of a monitoring system according to the first embodiment of this invention.

監視システムは、ビル等の施設を監視する。また監視システムは、カメラ101、サーバ102、入退室制御装置103、人物出現データ108及び地理的データ109を備える。   The monitoring system monitors facilities such as buildings. The monitoring system includes a camera 101, a server 102, an entrance / exit control device 103, person appearance data 108, and geographical data 109.

なお、サーバ102は、ネットワーク112を介して、カメラ101及び入退室制御装置103と接続されている。   The server 102 is connected to the camera 101 and the entrance / exit control device 103 via the network 112.

カメラ101は、複数備えられ、異なる場所にそれぞれ設置されている。カメラ101は、例えば、人の流れに分岐が生じる地点に設置される。また、カメラ101は、設置されている場所の画像を撮影し、撮影した画像をサーバ102に送信する。なお、カメラ101が設置されている場所には、それぞれの場所を一意に識別するエリア番号が付されている。   A plurality of cameras 101 are provided and are installed in different places. For example, the camera 101 is installed at a point where a branching occurs in the flow of people. In addition, the camera 101 captures an image of the place where it is installed, and transmits the captured image to the server 102. In addition, the area number which identifies each place uniquely is attached | subjected to the place where the camera 101 is installed.

サーバ102は、CPU、メモリ及び記憶部を備える計算機である。記憶部には各種プログラムが記憶されており、CPUがこれらのプログラムを実行する。これによって、サーバ102は、カメラ101から受信した画像を処理する。そして、その処理の結果に応じて入退室制御装置103にゲート(図示省略)の開閉を指示する。なお、ゲートは、本実施の形態の監視システムが監視する施設に設置されている。メモリは、カメラ101から受信した画像等を含む各種情報を一時的に記憶する。   The server 102 is a computer that includes a CPU, a memory, and a storage unit. Various programs are stored in the storage unit, and the CPU executes these programs. As a result, the server 102 processes the image received from the camera 101. Then, the entrance / exit control device 103 is instructed to open and close the gate (not shown) according to the result of the processing. Note that the gate is installed in a facility monitored by the monitoring system of this embodiment. The memory temporarily stores various types of information including images received from the camera 101.

また、サーバ102は、地理・時間制限算出部105及び顔識別部106を含む。顔識別部106は、カメラ101から受信した画像から顔領域を抽出し、抽出した顔領域に映っている人物(対応人物)を推定する。地理・時間制限算出部105は、当該画像が撮影された場所及び時刻に基づいて、顔識別部106によって推定された人物の中から対応人物を特定する。   Further, the server 102 includes a geography / time limit calculation unit 105 and a face identification unit 106. The face identification unit 106 extracts a face area from the image received from the camera 101, and estimates a person (corresponding person) appearing in the extracted face area. The geography / time limit calculation unit 105 identifies a corresponding person among the persons estimated by the face identification unit 106 based on the location and time when the image was taken.

また、サーバ102は、人物出現データ108及び地理的データ109を取得する。人物出現データ108及び地理的データ109は、サーバ102の内部に記憶されていてもよいし、サーバ102の外部の記憶装置に記憶されていてもよい。   In addition, the server 102 acquires the person appearance data 108 and the geographical data 109. The person appearance data 108 and the geographical data 109 may be stored inside the server 102 or may be stored in a storage device outside the server 102.

人物出現データ108は、図2で後述するが、カメラ101によって撮影された画像に関する情報を有する。地理的データ109は、図3で後述するが、カメラ101が設置されている場所に関する情報を有する。   As will be described later with reference to FIG. 2, the person appearance data 108 includes information regarding an image captured by the camera 101. As will be described later with reference to FIG. 3, the geographic data 109 includes information regarding the location where the camera 101 is installed.

入退室制御装置103は、監視システムが監視する施設のゲートの開閉を制御する。   The entrance / exit control device 103 controls the opening and closing of the gate of the facility monitored by the monitoring system.

図2は、本発明の実施の形態の人物出現データ108の構成図である。   FIG. 2 is a configuration diagram of the person appearance data 108 according to the embodiment of this invention.

人物出現データ108は、顔画像データ番号1081、画像特徴量1082、推定人物名1083、信頼度1084、エリア番号1085、出現日時1086及びその他属性1087を含む。   The person appearance data 108 includes a face image data number 1081, an image feature amount 1082, an estimated person name 1083, a reliability 1084, an area number 1085, an appearance date 1086, and other attributes 1087.

顔画像データ番号1081は、顔画像データを一意に識別する識別子である。顔画像データとは、カメラ101によって撮影された画像から、顔の領域を抽出した画像である。   The face image data number 1081 is an identifier for uniquely identifying face image data. The face image data is an image obtained by extracting a face area from an image photographed by the camera 101.

画像特徴量1082は、所定の個数の数値の集合であり、当該顔画像データを特徴付ける値である。特徴量1082は、既知の様々な方法によって算出される。サーバ102は、本実施の形態に適した方法を用いて、顔画像から特徴量1082を算出する。   The image feature amount 1082 is a set of a predetermined number of numerical values, and is a value that characterizes the face image data. The feature amount 1082 is calculated by various known methods. The server 102 calculates the feature value 1082 from the face image by using a method suitable for this embodiment.

また、サーバ102は、特徴量1082に基づいて、比較する二つの顔画像データの類似度を算出する。類似度は、比較される二つの顔画像データの類似の度合いである。つまり、類似度が大きいほど、比較される二つの画像が類似している。   Further, the server 102 calculates the similarity between the two face image data to be compared based on the feature amount 1082. The similarity is a degree of similarity between two face image data to be compared. That is, the larger the similarity, the more similar are the two images being compared.

例えば、サーバ102は、画像特徴量1082をベクトルと考えて、類似度を求めてもよい。この場合、サーバ102は、比較する二つの画像データの画像特徴量1082間の距離を算出する。そして、サーバ102は、算出した距離から類似度を求める。具体的には、類似度は、算出された距離が近いほど、大きい値となる。   For example, the server 102 may obtain the similarity by regarding the image feature quantity 1082 as a vector. In this case, the server 102 calculates the distance between the image feature values 1082 of the two image data to be compared. Then, the server 102 obtains the similarity from the calculated distance. Specifically, the similarity becomes larger as the calculated distance is shorter.

また、サーバ102は、比較する二つの画像データの画像特徴量1082から相関を算出し、算出した相関から類似度を求めてもよい。   Further, the server 102 may calculate a correlation from the image feature values 1082 of two image data to be compared, and obtain the similarity from the calculated correlation.

推定人物名1083は、当該顔画像データに映っている人物(対応人物)と推定される人物の名前である。推定人物名1083は、一つの顔画像データ番号1081に対して、複数のレコードを有していてもよい。この場合、当該画像の対応人物は、推定人物名1083の中の一人である。   The estimated person name 1083 is the name of a person estimated to be a person (corresponding person) shown in the face image data. The estimated person name 1083 may have a plurality of records for one face image data number 1081. In this case, the corresponding person of the image is one of the estimated person names 1083.

信頼度1084は、当該推定人物が対応人物となる可能性である。   The reliability 1084 is a possibility that the estimated person becomes a corresponding person.

エリア番号1085は、当該顔画像データが撮影された場所を一意に識別する識別子である。出現日時1086には、当該顔画像データが撮影された日付及び時刻が格納される。   The area number 1085 is an identifier that uniquely identifies the place where the face image data was taken. The appearance date 1086 stores the date and time when the face image data was taken.

その他の属性1087には、当該顔画像データに関する情報が格納される。本説明図では、その他の属性1087には、人物の向き、天気情報及び照明情報等が格納される。人物の向きは、当該顔画像データに映っている人物が向いている方向であり、例えば、カメラ101の正面方向を0度とする角度で表す。天気情報は、当該顔画像データが撮影されたときの天気であり、例えば、「晴」、「曇」、「雨」等の情報が格納される。照明情報は、当該顔画像データが撮影されたときの照明の状況であり、例えば、「順光」、「逆光」、「右斜光」、「左斜光」、「屋内」等の情報が格納される。   The other attribute 1087 stores information related to the face image data. In this explanatory diagram, the other attribute 1087 stores the orientation of the person, weather information, lighting information, and the like. The direction of the person is the direction in which the person shown in the face image data is facing, for example, an angle with the front direction of the camera 101 being 0 degrees. The weather information is the weather when the face image data is captured, and for example, information such as “sunny”, “cloudy”, and “rain” is stored. Illumination information is the state of illumination when the face image data is captured. For example, information such as “forward light”, “backlight”, “right oblique light”, “left oblique light”, and “indoor” is stored. The

なお、人物出現データ108には、これらの情報と併せて、人物ごとに個人情報を記憶していてもよい。個人情報は、当該人物の顔画像データ番号、当該人物に関するすべての画像特徴量の平均値及び当該人物の認証情報等である。   The person appearance data 108 may store personal information for each person in addition to these pieces of information. The personal information includes a face image data number of the person, an average value of all the image feature amounts related to the person, authentication information of the person, and the like.

図3は、本発明の実施の形態の地理的データ109の構成図である。   FIG. 3 is a configuration diagram of the geographic data 109 according to the embodiment of this invention.

地理的データ109は、地理・時間制限算出部105が対応人物を特定する処理で利用される。地理的データ109には、起点エリア番号1091の場所から行先エリア番号1092の場所への移動に要する平均時間が格納されている。   The geographic data 109 is used by the geography / time limit calculation unit 105 in the process of identifying the corresponding person. The geographic data 109 stores an average time required for moving from the location of the starting area number 1091 to the location of the destination area number 1092.

起点エリア番号1091は、人物の移動前の場所を一意に識別する識別子である。行先エリア番号1092は、人物の移動後の場所を一意に識別する識別子である。   The starting area number 1091 is an identifier that uniquely identifies a location of the person before the movement. The destination area number 1092 is an identifier that uniquely identifies the location of the person after movement.

例えば、起点エリア番号1091が「0001」の場所から、行先エリア番号1092が「0002」の場所への平均移動時間は、「2秒」である。   For example, the average travel time from the place where the starting area number 1091 is “0001” to the place where the destination area number 1092 is “0002” is “2 seconds”.

また、それぞれのボックスには、平均移動時間が複数格納されてもよい。この場合、移動の方法が複数存在することを示す。移動の方法は、例えば、エレベータ、エスカレータ及び階段等である。   Each box may store a plurality of average movement times. In this case, it indicates that there are a plurality of movement methods. The moving method is, for example, an elevator, an escalator, a staircase, or the like.

例えば、起点エリア番号1091が「0002」の場所から、行先エリア番号1092が「0034」の場所への平均移動時間は、移動方法に応じて異なる。この平均移動時間は、エレベータを利用すると「10秒」であり、エスカレータを利用すると「125秒」であり、階段を利用すると「250秒」である。   For example, the average travel time from the location where the origin area number 1091 is “0002” to the location where the destination area number 1092 is “0034” varies depending on the travel method. This average travel time is “10 seconds” when the elevator is used, “125 seconds” when the escalator is used, and “250 seconds” when the stairs are used.

なお、起点エリア番号1091の場所から行先エリア番号1092の場所への移動が、カメラ101が設置されたその他の場所を経由しないと移動できない場合、該当するボックスには「非隣接」が格納される。この場合、サーバ102は、起点エリア番号1091の場所から行先エリア番号1092の場所への移動経路を検索する。そして、サーバ102は、その移動経路上の平均移動時間をすべて合算することによって、起点エリア番号1091の場所から行先エリア番号1092の場所への平均移動時間を求める。   If the movement from the location of the starting area number 1091 to the location of the destination area number 1092 can only be made via another location where the camera 101 is installed, “non-adjacent” is stored in the corresponding box. . In this case, the server 102 searches for a movement route from the location of the origin area number 1091 to the location of the destination area number 1092. Then, the server 102 calculates the average travel time from the location of the origin area number 1091 to the location of the destination area number 1092 by adding up all the average travel times on the travel route.

図4は、本発明の第1の実施の形態のサーバ102の画像処理のフローチャートである。   FIG. 4 is a flowchart of image processing of the server 102 according to the first embodiment of this invention.

サーバ102は、カメラ101によって撮影された画像をカメラ101から入力されると、処理を開始する(201)。このとき、サーバ102は、当該画像が撮影された場所のエリア番号及び当該画像が撮影された時刻等を併せて入力されてもよい。   When an image captured by the camera 101 is input from the camera 101, the server 102 starts processing (201). At this time, the server 102 may input the area number of the place where the image was taken, the time when the image was taken, and the like.

まず、入力された画像から顔領域の画像(顔画像)を抽出する(202)。なお、入力された画像に複数の人物の顔領域が存在する場合には、それぞれの顔画像を抽出する。そして、抽出したそれぞれの顔画像に対して、以下の処理を行う。   First, an image of a face area (face image) is extracted from the input image (202). If there are a plurality of human face areas in the input image, each face image is extracted. Then, the following processing is performed on each extracted face image.

次に、抽出した顔画像から画像特徴量を算出する(203)。次に、人物出現データ108の画像特徴量1082を上のレコードから順に抽出する。次に、ステップ203で算出した画像特徴量及び抽出した画像特徴量1082から、類似度を算出する(204)。つまり、類似度は、人物出現データ108のすべてのレコードに対して算出される。   Next, an image feature amount is calculated from the extracted face image (203). Next, the image feature amount 1082 of the person appearance data 108 is extracted in order from the top record. Next, the similarity is calculated from the image feature amount calculated in step 203 and the extracted image feature amount 1082 (204). That is, the similarity is calculated for all records of the person appearance data 108.

次に、算出したすべての類似度から一つを、値の大きいものから順に抽出する。次に、抽出した類似度に対応するレコードを人物出現データ108から選択する(205)。   Next, one of the calculated similarities is extracted in descending order of value. Next, a record corresponding to the extracted similarity is selected from the person appearance data 108 (205).

次に、抽出した類似度が、閾値以上であるか否かを判定する(206)。   Next, it is determined whether or not the extracted similarity is a threshold value or more (206).

類似度が閾値より小さいと、比較する二つの顔画像は類似していないと判定する。よって、ステップ202で抽出した顔画像に映った人物を新規人物と決定して(210)、処理を終了する。なお、新規人物とは、人物出現データ108に顔画像データが格納されていない人物である。   If the similarity is smaller than the threshold, it is determined that the two face images to be compared are not similar. Therefore, the person shown in the face image extracted in step 202 is determined as a new person (210), and the process ends. The new person is a person whose face image data is not stored in the person appearance data 108.

一方、類似度が閾値以上であると、比較する二つの顔画像は類似していると判定し、ステップ205で選択したレコードのエリア番号1085を抽出する。次に、抽出したエリア番号1085と地理的データ109の起点エリア番号1091とが一致し、且つ、ステップ201で入力されたエリア番号と地理的データ109の行先エリア番号1092とが一致するボックスに格納された平均移動時間を地理的データ109から抽出する(207)。   On the other hand, if the similarity is equal to or greater than the threshold, it is determined that the two face images to be compared are similar, and the area number 1085 of the record selected in step 205 is extracted. Next, the extracted area number 1085 and the origin area number 1091 of the geographic data 109 match, and the area number input in step 201 and the destination area number 1092 of the geographic data 109 match are stored in the box. The obtained average travel time is extracted from the geographical data 109 (207).

次に、ステップ201で入力された時刻から、ステップ205で選択したレコードの出現日時1086を減算する。   Next, the appearance date 1086 of the record selected in step 205 is subtracted from the time input in step 201.

次に、減算した値が、抽出した平均移動時間を中心とする範囲(例えば、±20%以内)に含まれるか否かを判定する。これよって、ステップ205で選択したレコードに対応する画像が撮影された場所から、ステップ201で入力された画像が撮影された場所へ人物が自然に移動できるかを判定する(208)。   Next, it is determined whether or not the subtracted value is included in a range (for example, within ± 20%) centered on the extracted average travel time. Accordingly, it is determined whether the person can naturally move from the place where the image corresponding to the record selected in step 205 is taken to the place where the image inputted in step 201 is taken (208).

自然に移動できないと判定すると、比較する二つの画像に映っている人物は別人物と判定する。そして、ステップ205に戻り、類似度が次に高い画像に対して同一の処理を繰り返す。   If it is determined that it cannot move naturally, the person shown in the two images to be compared is determined as a different person. Then, the process returns to step 205 and the same processing is repeated for the image having the next highest similarity.

一方、自然に移動できると判定すると、ステップ205で選択したレコードの推定人物名1083を対応人物と決定して(209)、処理を終了する。なお、推定人物名1083に複数の人物名が格納されている場合には、ステップ205で選択したレコードの信頼度1084から、最も高いものを抽出する。そして、抽出した信頼度1084に対応する推定人物名1083を対応人物と決定する。   On the other hand, if it is determined that it can move naturally, the estimated person name 1083 of the record selected in step 205 is determined as a corresponding person (209), and the process ends. When a plurality of person names are stored in the estimated person name 1083, the highest one is extracted from the reliability 1084 of the record selected in step 205. Then, the estimated person name 1083 corresponding to the extracted reliability 1084 is determined as the corresponding person.

なお、処理を終了する前に、ステップ203で抽出した顔画像に関する情報を人物出現データ109に登録してもよい。   Note that information regarding the face image extracted in step 203 may be registered in the person appearance data 109 before the processing ends.

具体的には、まず、人物出現データ108に新たなレコードを作成する。次に、重複しない顔画像データ番号を、ステップ202で抽出した顔画像に付与する。付与した顔画像データ番号を、新たなレコードの顔画像データ番号1081に格納する。次に、ステップ203で算出した画像特徴量を、新たなレコードの画像特徴量1082に格納する。   Specifically, first, a new record is created in the person appearance data 108. Next, a non-overlapping face image data number is assigned to the face image extracted in step 202. The assigned face image data number is stored in the face image data number 1081 of the new record. Next, the image feature amount calculated in step 203 is stored in the image feature amount 1082 of the new record.

次に、決定した対応人物の名前を、新たなレコードの推定人物名1083として格納する。次に、ステップ204で算出した類似度、ステップ201で入力されたエリア番号及び撮影された時刻等に基づいて、信頼度を算出する。そして、算出した信頼度を、新たなレコードの信頼度1084に格納する。   Next, the determined name of the corresponding person is stored as the estimated person name 1083 of the new record. Next, the reliability is calculated based on the similarity calculated in step 204, the area number input in step 201, the time of shooting, and the like. Then, the calculated reliability is stored in the reliability 1084 of the new record.

次に、ステップ201で入力されたエリア番号を、新たなレコードのエリア番号1085に格納する。次に、ステップ201で入力された時刻を、新たなレコードの出現時刻1086に格納する。また、カメラ101からその他の情報(例えば、撮影されたときの天気を含む照明情報)が入力されると、入力されたその他の情報を新たなレコードのその他の属性1087に格納する。   Next, the area number input in step 201 is stored in the area number 1085 of the new record. Next, the time input in step 201 is stored in the appearance time 1086 of a new record. Further, when other information (for example, lighting information including the weather at the time of shooting) is input from the camera 101, the input other information is stored in the other attribute 1087 of the new record.

以上のように、本実施の形態によれば、人物出現データ108を参照することによって、画像が類似する人物を判定できる。更に、地理的データ109を参照することによって、画像が類似する人物の中から対応人物を特定できる。   As described above, according to the present embodiment, it is possible to determine persons having similar images by referring to the person appearance data 108. Furthermore, by referring to the geographic data 109, it is possible to specify a corresponding person among persons having similar images.

(第2の実施の形態)
第2の実施の形態では、サーバ102が人物を追跡することによって、第1の実施の形態の画像処理(図4)を軽減する。
(Second Embodiment)
In the second embodiment, the server 102 tracks a person to reduce the image processing (FIG. 4) of the first embodiment.

図5は、本発明の第2の実施の形態の監視システムの構成のブロック図である。   FIG. 5 is a block diagram of the configuration of the monitoring system according to the second embodiment of this invention.

本発明の第2の実施の形態の監視システムは、サーバ102に含まれる構成を除き、第1の実施の形態の監視システム(図1)と同一である。同一の構成には、同一の番号を付し、説明を省略する。   The monitoring system according to the second embodiment of the present invention is the same as the monitoring system according to the first embodiment (FIG. 1) except for the configuration included in the server 102. The same number is attached | subjected to the same structure and description is abbreviate | omitted.

サーバ102には、第1の実施の形態のサーバ102(図1)に含まれる構成に加えて、人物検出・追跡部104及び入退室管理部107が含まれる。   The server 102 includes a person detection / tracking unit 104 and an entrance / exit management unit 107 in addition to the configuration included in the server 102 (FIG. 1) of the first embodiment.

人物検出・追跡部104は、顔識別部106によって抽出された顔画像に対して人流追跡処理(図6)を行う。入退室管理部107は、入退室制御装置103にゲートの開閉を指示する。   The person detection / tracking unit 104 performs a human flow tracking process (FIG. 6) on the face image extracted by the face identification unit 106. The entrance / exit management unit 107 instructs the entrance / exit control device 103 to open and close the gate.

図6は、本発明の第2の実施の形態のサーバ102の人流追跡処理の説明図である。   FIG. 6 is an explanatory diagram of the human flow tracking process of the server 102 according to the second embodiment of this invention.

本説明図では、歩行している人物601を追跡する処理で説明する。   In this explanatory diagram, a process of tracking a person 601 who is walking will be described.

カメラ101Aは、人物601を連続して撮影し、撮影した画像をサーバに入力する。サーバ102は、カメラ101Aから入力された画像から顔画像を抽出する。サーバ102は、抽出した顔画像に基づいて、人物601の移動方向及び人物601の移動速度を算出する。   The camera 101A continuously captures the person 601 and inputs the captured images to the server. The server 102 extracts a face image from the image input from the camera 101A. The server 102 calculates the moving direction of the person 601 and the moving speed of the person 601 based on the extracted face image.

サーバ102は、カメラ101Aによって撮影された画像における顔画像の位置が、算出した移動方向及び移動速度に矛盾しないかを判定する。例えば、顔画像の位置の移動方向が、算出した移動方向と逆であると、矛盾と判定する。また、顔画像の位置の移動速度が、算出した移動速度と比べて早過ぎると、矛盾と判定する。   The server 102 determines whether the position of the face image in the image captured by the camera 101A is consistent with the calculated movement direction and movement speed. For example, if the moving direction of the position of the face image is opposite to the calculated moving direction, it is determined that there is a contradiction. If the moving speed of the face image position is too fast compared to the calculated moving speed, it is determined that there is a contradiction.

顔画像の位置が矛盾していないと、サーバ102は、連続して撮影された二つの画像から抽出した顔画像が同一の人物601であると判定する。そして、サーバ102は、その顔画像を人物601の情報として、人物出現データ108に登録する。   If the positions of the face images are not inconsistent, the server 102 determines that the face images extracted from the two images photographed in succession are the same person 601. Then, the server 102 registers the face image in the person appearance data 108 as information on the person 601.

なお、サーバ102は、抽出した顔画像が不鮮明であると、該顔画像を人物出現データ108に登録しない。このように、サーバ102は、鮮明な顔画像のみを人物出現データ108に登録するので、人物出現データ108には人物の特徴が明確に記憶される。以上のようにして、サーバ102は、人物601を追跡する。   Note that if the extracted face image is unclear, the server 102 does not register the face image in the person appearance data 108. Thus, since the server 102 registers only a clear face image in the person appearance data 108, the person appearance data 108 clearly stores the characteristics of the person. As described above, the server 102 tracks the person 601.

一方、顔画像の位置が矛盾していると、サーバ102は、連続して撮影された二つの画像から抽出した顔画像が別人物602のものであると判定する。   On the other hand, if the position of the face image is inconsistent, the server 102 determines that the face image extracted from the two images photographed consecutively belongs to another person 602.

また、サーバ102は、別のカメラ101Bによって撮影された画像から抽出した顔画像も別人物603のものであると判定する。   Further, the server 102 determines that the face image extracted from the image photographed by another camera 101 </ b> B belongs to another person 603.

サーバ102は、顔画像が別人物602、603のものと判定すると、第1の実施の形態の画像処理(図4)を使って、該顔画像の対応人物を決定する。   If the server 102 determines that the face image is that of another person 602, 603, the server 102 determines the corresponding person of the face image using the image processing (FIG. 4) of the first embodiment.

図7は、本発明の第2の実施の形態のサーバ102の画像処理のフローチャートである。   FIG. 7 is a flowchart of image processing of the server 102 according to the second embodiment of this invention.

サーバ102は、カメラ101によって撮影された画像をカメラ101から入力されると、処理を開始する(301)。このとき、サーバ102は、当該画像が撮影された場所のエリア番号及び当該画像が撮影された時刻等を併せて入力されてもよい。   The server 102 starts processing when an image photographed by the camera 101 is input from the camera 101 (301). At this time, the server 102 may input the area number of the place where the image was taken, the time when the image was taken, and the like.

まず、入力された画像から顔領域の画像(顔画像)を抽出する(302)。次に、抽出した顔画像のサイズを求める。   First, an image of a face area (face image) is extracted from the input image (302). Next, the size of the extracted face image is obtained.

更に、抽出した顔画像に映った顔の向きを推定する。例えば、複数の角度から撮影した顔画像の画像特徴量を格納する人物出現データ108に基づいて、顔の向きを推定する。この場合、人物出現データ108に格納された画像特徴量及びステップ302で抽出した顔画像の画像特徴量から、類似度を算出する。次に、算出した類似度が最も大きくなった画像特徴量(人物出現データに格納されたもの)を特定する。そして、特定した画像特徴量の画像が撮影された角度を、当該顔画像に映った顔の向きと推定する。   Further, the direction of the face shown in the extracted face image is estimated. For example, the orientation of the face is estimated based on the person appearance data 108 that stores the image feature quantities of the face image taken from a plurality of angles. In this case, the similarity is calculated from the image feature amount stored in the person appearance data 108 and the image feature amount of the face image extracted in step 302. Next, the image feature quantity (stored in the person appearance data) having the largest calculated similarity is specified. Then, the angle at which the image of the specified image feature amount is captured is estimated as the orientation of the face shown in the face image.

次に、求めた顔画像のサイズ及び推定した顔の向きに基づいて、人流追跡状況を算出する。人流追跡状況は、当該顔画像に映った人物の移動方向及び人物の移動速度などを含む。人流追跡状況は、例えば、既存の画像処理(例えば、非特許文献1参照。)を用いて、算出できる。   Next, based on the obtained size of the face image and the estimated face orientation, a human flow tracking state is calculated. The human flow tracking situation includes the moving direction of the person reflected in the face image and the moving speed of the person. The human flow tracking situation can be calculated using, for example, existing image processing (see, for example, Non-Patent Document 1).

次に、カメラ101から入力された画像における顔領域の位置から、該カメラ101から直前に入力された画像における顔領域の位置への変化方向及び変化量を求める。そして、求めた変化方向、変化量及び人流追跡状況を参照して(303)、当該顔画像が追跡中の画像であるか否かを判定する(304)。具体的には、求めた変化方向が人流追跡状況に含まれる移動方向と一致し、且つ求めた変化量が人流追跡状況に含まれる移動速度と矛盾しない場合に、追跡中の画像と判定する。   Next, the direction and amount of change from the position of the face area in the image input from the camera 101 to the position of the face area in the image input immediately before from the camera 101 is obtained. Then, referring to the obtained change direction, change amount, and human flow tracking status (303), it is determined whether or not the face image is a tracking image (304). Specifically, when the obtained change direction matches the moving direction included in the human flow tracking situation and the obtained change amount is not inconsistent with the moving speed included in the human flow tracking situation, the image is determined to be a tracking image.

当該顔画像が追跡中の画像でないと、人物決定処理を行い(307)、ステップ308に進む。人物決定処理307は、第1の実施の形態の画像処理(図4)のステップ203〜210と同一であり、説明は省略する。   If the face image is not the image being tracked, person determination processing is performed (307), and the process proceeds to step 308. The person determination process 307 is the same as steps 203 to 210 in the image processing (FIG. 4) of the first embodiment, and a description thereof will be omitted.

一方、顔画像が追跡中の画像であると、該顔画像を撮影したカメラ101から直前に入力された画像の対応人物を、当該顔画像の対応人物と決定する(305)。   On the other hand, if the face image is an image being tracked, the corresponding person of the image input immediately before from the camera 101 that captured the face image is determined as the corresponding person of the face image (305).

具体的には、ステップ201で入力された画像が撮影されたカメラ101から直前に入力された画像の顔画像データ番号を検索する。次に、検索した顔画像データ番号と人物出現データ108の顔画像データ番号1081とが一致するレコードを特定する。次に、特定したレコードから、最も高い信頼度1084を選択する。次に、選択した信頼度1084に対応する推定人物名1083を、当該顔画像の対応人物と決定する。   Specifically, the face image data number of the image input immediately before from the camera 101 where the image input in step 201 was taken is searched. Next, a record in which the searched face image data number matches the face image data number 1081 of the person appearance data 108 is specified. Next, the highest reliability 1084 is selected from the identified record. Next, the estimated person name 1083 corresponding to the selected reliability 1084 is determined as the person corresponding to the face image.

次に、ステップ303で求めた人物の変化方向、人物の変化量及び人流追跡状況等に基づいて、決定した人物の信頼度を算出する。   Next, the reliability of the determined person is calculated based on the change direction of the person, the amount of change of the person, the flow tracking situation, and the like obtained in step 303.

次に、ステップ302で抽出した顔画像から画像特徴量を算出する(306)。次に、人物出現データ108に人物の個人情報が含まれる場合には、算出した画像特徴量に基づいて、当該個人情報の画像特徴量の平均値を修正する。   Next, an image feature amount is calculated from the face image extracted in step 302 (306). Next, when personal information of a person is included in the person appearance data 108, the average value of the image feature amount of the personal information is corrected based on the calculated image feature amount.

次に、当該顔画像に関する情報を、人物出現データ108に格納する(308)。   Next, information about the face image is stored in the person appearance data 108 (308).

具体的には、まず、人物出現データ108に新たなレコードを作成する。次に、抽出した顔画像に、重複しない顔画像データ番号を付与する。付与した顔画像データ番号を、新たなレコードの顔画像データ番号1081に格納する。   Specifically, first, a new record is created in the person appearance data 108. Next, a non-overlapping face image data number is assigned to the extracted face image. The assigned face image data number is stored in the face image data number 1081 of the new record.

次に、ステップ306で算出した画像特徴量を新たなレコードの画像特徴量1082に格納する。次に、決定した人物名を新たなレコードの推定人物名1083に格納する。   Next, the image feature amount calculated in step 306 is stored in the image feature amount 1082 of the new record. Next, the determined person name is stored in the estimated person name 1083 of the new record.

次に、ステップ305で算出した信頼度を新たなレコードの信頼度1084に格納する。次に、ステップ301で入力されたエリア番号を新たなレコードのエリア番号1085に格納する。   Next, the reliability calculated in step 305 is stored in the reliability 1084 of the new record. Next, the area number input in step 301 is stored in the area number 1085 of the new record.

次に、ステップ201で入力された時刻を、新たなレコードの出現日時1086に格納する。また、カメラ101からその他の情報(例えば、撮影されたときの天気を含む照明情報)が入力されると、入力されたその他の情報を、新たなレコードのその他の属性1087に格納する。   Next, the time input in step 201 is stored in the appearance date 1086 of the new record. When other information (for example, lighting information including the weather when the image was taken) is input from the camera 101, the input other information is stored in the other attribute 1087 of the new record.

次に、当該画像を入力したカメラ101がゲート前に設置されているカメラ101であるかを判定する(309)。具体的には、ステップ301で入力されたエリア番号が、ゲート前のエリア番号であるかを判定する。   Next, it is determined whether the camera 101 that has input the image is the camera 101 installed in front of the gate (309). Specifically, it is determined whether the area number input in step 301 is the area number before the gate.

ゲート前に設置されていないカメラ101であると、認証する必要がないので処理を終了する。   If the camera 101 is not installed in front of the gate, it is not necessary to authenticate, and the process ends.

一方、ゲート前に設置されているカメラ101であると、ステップ305又はステップ307で決定した対応人物が立ち入りを許可されているかを判定する(310)。具体的には、人物出現データ108に格納されている認証情報を参照することによって、対応人物が立ち入りを許可されているかを判定する。   On the other hand, if the camera 101 is installed in front of the gate, it is determined whether the corresponding person determined in step 305 or step 307 is permitted to enter (310). Specifically, it is determined whether the corresponding person is permitted to enter by referring to the authentication information stored in the person appearance data 108.

立ち入りを許可されていると、ステップ305で算出した信頼度が閾値以上であるか否かを判定する(311)。   If entry is permitted, it is determined whether or not the reliability calculated in step 305 is greater than or equal to a threshold (311).

信頼度が閾値以上であると、当該画像に映っている人物が立ち入りを許可されている人物であると判定し、ゲートの開錠を入退室制御装置103に指示する(312)。そして、処理を終了する。入退室制御装置103は、ゲートを開錠する。   If the reliability is equal to or greater than the threshold value, it is determined that the person shown in the image is permitted to enter, and the entrance / exit control device 103 is instructed to unlock the gate (312). Then, the process ends. The entrance / exit control device 103 unlocks the gate.

一方、ステップ310において人物が立ち入りを許可されていないと判定する、又は
ステップ311において信頼度が閾値より小さいと判定すると、当該画像を管理者に送信する(313)。そして、処理を終了する。管理者は、受信した画像を参照することによって、当該施設のセキュリティを維持できる。
On the other hand, if it is determined in step 310 that the person is not permitted to enter, or if it is determined in step 311 that the reliability is smaller than the threshold, the image is transmitted to the administrator (313). Then, the process ends. The administrator can maintain the security of the facility by referring to the received image.

次に、本実施の形態の監視システムを、ビルなどの施設内でのセキュリティ確保に用いる場合について説明する。   Next, a case where the monitoring system of the present embodiment is used for ensuring security in a facility such as a building will be described.

この施設は、施設のゲート及び施設内のそれぞれのオフィスのゲートで認証することによって、セキュリティを保っている。   This facility is kept secure by authenticating at the facility gate and the gate of each office in the facility.

カメラ101は、通常の監視カメラを用いる。また、カメラ101は、人物の流れが分岐する場所に主に設置される。人物の流れが分岐する場所は、例えば、エレベータの出入口、階段等である。また、カメラ101は、視界が及ぶ範囲ごとに設置する。   As the camera 101, a normal surveillance camera is used. The camera 101 is mainly installed at a place where the flow of a person branches. The place where the flow of the person branches is, for example, an elevator doorway or a staircase. In addition, the camera 101 is installed for each range covered by the field of view.

次に、施設への立ち入りを許可された人物(登録者)に対する監視システムの処理について説明する。なお、登録者は、正規かつ頻繁に当該施設に出入りする人物であり、例えば、当該施設に勤務する人物等である。登録者が当該施設のゲートから目的オフィスに向かう場合で説明する。   Next, processing of the monitoring system for a person (registrant) who is permitted to enter the facility will be described. The registrant is a person who regularly and frequently enters and exits the facility, such as a person who works at the facility. This will be explained when the registrant goes from the gate of the facility to the target office.

監視システムは、登録者の顔画像及び施設への立ち入り許可情報を人物出現データ108に予め登録する。なお、登録者の正面の顔画像だけでなく、複数の方向から撮影された顔画像を登録する。例えば、正面、右45度、右90度、左45度及び左90度の五つの水平方向と、正面、俯角10度及び俯角45度の三つの垂直方向と、の組合せからなる15枚の顔画像を登録する。   The monitoring system registers the registrant's face image and facility entry permission information in person appearance data 108 in advance. Not only the face image of the registrant's front face but also face images taken from a plurality of directions are registered. For example, 15 faces comprising a combination of five horizontal directions of front, right 45 degrees, right 90 degrees, left 45 degrees and left 90 degrees and three vertical directions of front, depression angle 10 degrees and depression angle 45 degrees. Register the image.

まず、登録者が施設のゲートに接近し、施設のゲートに設置されたカメラ101が登録者を撮影する。すると、サーバ102は、施設のゲートに設置されたカメラ101から入力された画像に映った人物を特定する。この場合、画像に映った人物が登録者であると特定する。すると、サーバ102は、施設のゲートの開錠を指示する。   First, the registrant approaches the facility gate, and the camera 101 installed at the facility gate photographs the registrant. Then, the server 102 specifies a person shown in the image input from the camera 101 installed at the gate of the facility. In this case, it is specified that the person shown in the image is a registrant. Then, the server 102 instructs unlocking of the facility gate.

なお、当該監視システムは、高度な安全性が必要な場合には、その他の認証手段を併せて用いてもよい。その他の認証手段は、例えば、暗証番号の入力、IDカード又はバイオメトリクス等である。   In addition, the said monitoring system may use other authentication means together, when high safety | security is required. Other authentication means are, for example, input of a personal identification number, an ID card, biometrics, or the like.

このとき、サーバ102は、当該画像から顔画像を抽出し、抽出した顔画像を登録者の情報として、人物出現データ108に登録する。   At this time, the server 102 extracts a face image from the image and registers the extracted face image in the person appearance data 108 as registrant information.

施設のゲートが開くと、登録者は、目的オフィスに向かって移動する。登録者の移動経路上にあるカメラ101は、登録者を撮影し、撮影した画像をサーバ102へ入力する。サーバ102は、入力された画像から顔画像を抽出する。次に、サーバ102は、抽出した顔画像を追跡する。これによって、サーバ102は、登録者と異なる人物の混入を防ぎ、更には、処理を軽減できる。   When the facility gate opens, the registrant moves toward the destination office. The camera 101 on the registrant's movement path captures the registrant and inputs the captured image to the server 102. The server 102 extracts a face image from the input image. Next, the server 102 tracks the extracted face image. As a result, the server 102 can prevent a person different from the registrant from being mixed, and further reduce the processing.

サーバ102は、追跡できなかった場合には、抽出した顔画像の対応人物を決定する。例えば、登録者が、ゲートに設置されたカメラ101の視界から外れ、1階のエレベータホールに設置されたカメラ101の視界に入った場合である。この場合、サーバ102は、人物出現データ108の画像特徴量1082に基づいて、画像が類似する人物を特定する。次に、サーバ102は、抽出した顔画像から、該顔画像に映った人物の移動方向及び移動速度を算出する。次に、サーバ102は、算出した移動方向、移動速度を参照して、抽出した顔画像に映った対応人物を、画像が類似する人物の中から決定する。具体的には、サーバ102は、ゲートに設置されたカメラ101とエレベータホールに設置されたカメラ101との距離及び登録者の移動時間が、算出した移動方向及び移動速度に矛盾しないかを判定することによって、対応人物を決定する。なお、サーバ102は、人物出現データ108の出現日時1086及びその他の属性1087を併せて参照して、対応人物を決定してもよい。これによって、決定した対応人物の信頼性を向上できる。   If the server 102 cannot track, the server 102 determines a corresponding person of the extracted face image. For example, the registrant is out of the field of view of the camera 101 installed at the gate and enters the field of view of the camera 101 installed in the elevator hall on the first floor. In this case, the server 102 identifies persons with similar images based on the image feature value 1082 of the person appearance data 108. Next, the server 102 calculates the moving direction and moving speed of the person shown in the face image from the extracted face image. Next, the server 102 refers to the calculated moving direction and moving speed, and determines the corresponding person shown in the extracted face image from the persons with similar images. Specifically, the server 102 determines whether the distance between the camera 101 installed at the gate and the camera 101 installed in the elevator hall and the moving time of the registrant are consistent with the calculated moving direction and moving speed. Thus, the corresponding person is determined. The server 102 may determine the corresponding person by referring to the appearance date 1086 of the person appearance data 108 and other attributes 1087 together. Thereby, the reliability of the determined corresponding person can be improved.

また、サーバ102は、抽出した顔画像が鮮明であれば、該顔画像を登録者の情報として、人物出現データ108に登録する。   If the extracted face image is clear, the server 102 registers the face image in the person appearance data 108 as registrant information.

次に、登録者は、1階のエレベータホールから6階のエレベータホールに移動し、その後、6階の目的オフィスに移動する。   Next, the registrant moves from the elevator hall on the first floor to the elevator hall on the sixth floor, and then moves to the destination office on the sixth floor.

サーバ102は、目的オフィスの前に設置されたカメラ101から入力された画像に映った人物の名前を判定する。ここでは、サーバ102は、画像に映った人物が登録者であると決定する。すると、サーバ102は、目的オフィスのゲート前に登録者が到達したと判断した時点で、目的オフィスのゲートを開錠する。   The server 102 determines the name of the person shown in the image input from the camera 101 installed in front of the target office. Here, the server 102 determines that the person shown in the image is a registrant. Then, the server 102 unlocks the gate of the target office when it is determined that the registrant has arrived before the gate of the target office.

以上のように、本実施の形態の監視システムは、登録者に意識的な認証動作を行わせることなく、ゲートを開錠できる。また、本実施の形態の監視システムは、登録者が頻繁に現れるほど、顔画像が多数蓄積される。すると、この監視システムは、認証の精度を高めることができるので、安全性及び利便性が増す。   As described above, the monitoring system of the present embodiment can unlock the gate without causing the registrant to perform a conscious authentication operation. Also, in the monitoring system of the present embodiment, the more face images are accumulated, the more registrants appear. Then, since this monitoring system can improve the accuracy of authentication, safety and convenience are increased.

次に、初めて来訪する人物(来訪者)に対する監視システムの処理を説明する。来訪者が当該施設のゲートから目的オフィスに向かう場合で説明する。   Next, processing of the monitoring system for a person who visits for the first time (visitor) will be described. The explanation is given when the visitor goes from the gate of the facility to the target office.

まず、来訪者は、施設のゲートにおいて、管理者に連絡する。管理者は、来訪者の入場を許可すると、施設のゲートを開錠する。また、管理者は、サーバ102に目的オフィスのエリア番号を入力する。このとき、施設のゲートに設置されたカメラ101は、来訪者を撮影し、その画像をサーバ102に入力する。サーバ102は、その入力された画像から顔画像を抽出する。そして、抽出した顔画像を、管理者から入力されたエリア番号と共に人物出現データ108に格納する。   First, a visitor contacts an administrator at the facility gate. When the administrator allows the visitor to enter, the administrator unlocks the facility gate. In addition, the administrator inputs the area number of the target office to the server 102. At this time, the camera 101 installed at the facility gate captures a visitor and inputs the image to the server 102. The server 102 extracts a face image from the input image. Then, the extracted face image is stored in the person appearance data 108 together with the area number input by the administrator.

次に、来訪者は目的オフィスに向かって移動する。その際、サーバ102は、前述した登録者に対する処理と同様の処理を行う。従って、来訪者が経路を誤らずに目的オフィスまで到着すると、サーバ102は、目的オフィスのゲートを開錠する。この場合、来訪者に対しても、意識的な認証動作を行わせることなく開錠できる。   Next, the visitor moves toward the destination office. At that time, the server 102 performs the same process as the process for the registrant described above. Accordingly, when the visitor arrives at the destination office without mistake in the route, the server 102 unlocks the gate of the destination office. In this case, the visitor can be unlocked without performing a conscious authentication operation.

もし、来訪者が経路を誤ると、サーバ102は、経路の外れを検知し、管理者に通知する。また、サーバ102は、通信手段を用いて、来訪者に経路の誤りを通知してもよい。これによって、サーバ102は、来訪者が経路から外れることを防止できる。   If the visitor makes a mistake in the route, the server 102 detects the departure of the route and notifies the administrator. Further, the server 102 may notify a visitor of a route error using a communication means. As a result, the server 102 can prevent the visitor from leaving the route.

次に、自らのオフィスから施設内の他の場所へ移動する登録者に対する監視システムの処理を説明する。例えば、登録者が、自らのオフィスからリフレッシュのための共用コーナへ移動する場合等である。従来の監視システムでは、オフィスを出入りするたびに、認証動作を行う必要があった。そのため、従来の監視システムは、利便性を損なっていた。   Next, processing of the monitoring system for a registrant who moves from his / her office to another place in the facility will be described. For example, a registrant moves from his office to a shared corner for refresh. In the conventional monitoring system, it is necessary to perform an authentication operation every time the user enters or leaves the office. Therefore, the conventional monitoring system has lost convenience.

登録者がオフィスから退室すると、オフィスのゲートに設置されたカメラ101が登録者を撮影し、撮影した画像をサーバ102に入力する。サーバ102は、入力された画像から顔画像を抽出し、抽出した顔画像を人物出現データ108に格納する。サーバ102は、オフィスのゲート前に設置されたカメラ101から、人物出現データ108に格納した顔画像と類似する顔画像が所定の時間内に入力されると、ゲートの開錠を指示する。これによって、登録者は、オフィスを出入りする度に、認証動作をする必要がなくなる。   When the registrant leaves the office, the camera 101 installed at the office gate captures the registrant and inputs the captured image to the server 102. The server 102 extracts a face image from the input image and stores the extracted face image in the person appearance data 108. When a face image similar to the face image stored in the person appearance data 108 is input from the camera 101 installed in front of the office gate within a predetermined time, the server 102 instructs the unlocking of the gate. This eliminates the need for the registrant to perform an authentication operation every time he enters or leaves the office.

次に、進入禁止領域が設定された登録者がその進入禁止領域に進入した場合の処理を説明する。   Next, a process when a registrant set with an entry prohibited area enters the entry prohibited area will be described.

サーバ102は、進入禁止領域に設置されたカメラ101から入力された画像の対応人物が当該登録者であると決定すると、進入禁止領域への侵入と判定する。サーバ102は、進入禁止領域への侵入を判定すると、管理者に通知する。また、サーバ102は、通信手段を用いて、登録者に進入禁止を通知してもよい。更に、サーバ102は、人物出現データ108を参照することによって、当該登録者の進入禁止領域への侵入の頻度を判定してもよい。進入の頻度が高い場合には、サーバ102は、当該登録者を要注意人物として管理者へ通知する。更に、当該登録者は人物出現データ108に格納される顔画像の枚数が増加するので、サーバ102は当該登録者に対する判定の精度が向上する。   When the server 102 determines that the corresponding person of the image input from the camera 101 installed in the entry prohibited area is the registrant, the server 102 determines that the person has entered the entry prohibited area. When the server 102 determines the entry into the entry prohibited area, the server 102 notifies the administrator. Further, the server 102 may notify the registrant of entry prohibition using communication means. Further, the server 102 may determine the frequency of entry of the registrant into the entry prohibited area by referring to the person appearance data 108. When the frequency of entry is high, the server 102 notifies the administrator of the registrant as a person requiring attention. Furthermore, since the number of face images stored in the person appearance data 108 increases for the registrant, the server 102 improves the accuracy of determination for the registrant.

以上のすべての処理によって、本実施の形態の監視システムは、すべての人物に対して認証動作を意識的にさせることなく、施設を監視できる。   Through all the above processes, the monitoring system of the present embodiment can monitor the facility without making the authentication operation conscious of all persons.

次に、本実施の監視システムを住宅地での来訪者お知らせサービスに適用する場合について説明する。   Next, a case where the monitoring system of the present embodiment is applied to a visitor notification service in a residential area will be described.

近年、安全性の観点から、街区の入り口にゲートを設け、来客を制限する構造の街区が増えている。このような街区は、街の入り口にゲートが有り、各住宅にもゲートがある。よって、屋内と屋外の違いを除けば、監視システムは、前述した施設内のセキュリティ確保に適用した場合と同様の処理を行う。   In recent years, from the viewpoint of safety, there is an increasing number of blocks with a structure that restricts visitors by providing a gate at the entrance of the block. Such a block has a gate at the entrance of the city, and each house also has a gate. Therefore, except for the difference between indoor and outdoor, the monitoring system performs the same processing as that applied to ensuring the security in the facility described above.

なお、監視システムは、街区の入り口付近で撮影した画像の対応人物名を、来訪先に通知してもよい。また、この監視システムは、街区の入り口付近で撮影した画像を、来訪先に送信してもよい。また、来訪者が経路を誤ると、監視システムは、経路外れを来訪先に通知してもよい。   Note that the monitoring system may notify the visited person of the name of the person corresponding to the image taken near the entrance of the block. In addition, this monitoring system may transmit an image taken near the entrance of a block to a visited place. In addition, when a visitor makes a mistake in the route, the monitoring system may notify the visitor that the route is off.

以上のように、来訪者お知らせサービスに適用した監視システムは、街区のセキュリティを確保できる。   As described above, the monitoring system applied to the visitor notification service can secure the security of the block.

(第3の実施の形態)
第3の実施の形態では、照明の状況に応じて、画像を補正する。
(Third embodiment)
In the third embodiment, the image is corrected in accordance with the lighting conditions.

図8は、本発明の第3の実施の形態の監視システムの構成のブロック図である。   FIG. 8 is a block diagram of a configuration of a monitoring system according to the third embodiment of this invention.

第3の実施の形態の監視システムは、照明条件データ110を備える点及びサーバ102に含まれる構成を除き、第1の実施の形態の監視システム(図1)と同一である。同一の構成には、同一の番号を付し、説明を省略する。   The monitoring system according to the third embodiment is the same as the monitoring system according to the first embodiment (FIG. 1) except that the lighting condition data 110 is provided and the configuration included in the server 102. The same number is attached | subjected to the same structure and description is abbreviate | omitted.

照明条件データ110は、図9で後述するが、カメラ101が設置された場所における照明の状況を示す。照明には、太陽からの外光と、室内の照明灯等からの内光を含む。   The illumination condition data 110, which will be described later with reference to FIG. Illumination includes external light from the sun and internal light from indoor lighting.

サーバ102には、第1の実施の形態のサーバ102(図1)に含まれる構成に加えて、照明・気象状況推定部111が含まれる。   The server 102 includes a lighting / weather condition estimating unit 111 in addition to the configuration included in the server 102 (FIG. 1) of the first embodiment.

照明・気象状況推定部111は、照明条件データ110に基づいて、顔識別部106によって抽出された顔画像を補正する。   The illumination / weather condition estimation unit 111 corrects the face image extracted by the face identification unit 106 based on the illumination condition data 110.

図9は、本発明の第3の実施の形態の照明条件データ110の構成図である。   FIG. 9 is a configuration diagram of the illumination condition data 110 according to the third embodiment of this invention.

照明条件データ110は、エリア番号1101、撮影状況1102、該当顔画像データ番号1103、照明モード1104、特徴量補正係数1105及び前処理内容1106を含む。   The illumination condition data 110 includes an area number 1101, a shooting situation 1102, a corresponding face image data number 1103, an illumination mode 1104, a feature amount correction coefficient 1105, and preprocessing content 1106.

エリア番号1101は、カメラ101が設置された場所を一意に識別する識別子である。撮影状況1102は、当該エリアに設置されたカメラ101によって画像が撮影されたときの状況である。本説明図では、撮影状況1102には、当該画像に映っている人物の向き、当該画像が撮影された時間帯及び当該画像が撮影されたときの天気等が格納される。   The area number 1101 is an identifier that uniquely identifies the place where the camera 101 is installed. The shooting situation 1102 is a situation when an image is taken by the camera 101 installed in the area. In this explanatory diagram, the shooting situation 1102 stores the orientation of the person shown in the image, the time zone when the image was shot, the weather when the image was shot, and the like.

該当顔画像データ番号1103は、当該撮影状況において撮影された画像を一意に識別する識別子である。該当顔画像データ番号1103には、該当する画像が複数ある場合には、複数の識別子が格納される。   The corresponding face image data number 1103 is an identifier for uniquely identifying an image shot in the shooting situation. If there are a plurality of corresponding images, the corresponding face image data number 1103 stores a plurality of identifiers.

照明モード1104は、当該撮影状況下で撮影された画像が影響を受ける外光の状況である。本説明図では、照明モード1104には、外光の種類及び外光の強さが格納される。外光の種類は、例えば、「順光」、「逆光」、「右斜光」、「左斜光」又は「室内」等である。なお、外光の種類が「室内」である場合、当該画像は、外光の影響を受けないことを示す。また、外光の強さは、例えば、「強」、「中」又は「弱」等である。   The illumination mode 1104 is an external light situation in which an image taken under the shooting situation is affected. In this explanatory diagram, the illumination mode 1104 stores the type of external light and the intensity of external light. The type of outside light is, for example, “forward light”, “backlight”, “right oblique light”, “left oblique light”, “indoor”, or the like. When the type of outside light is “indoor”, this indicates that the image is not affected by outside light. In addition, the intensity of external light is, for example, “strong”, “medium”, “weak”, or the like.

特徴量補正係数1105は、当該撮影状況において撮影された画像の画像特徴量を補正する係数である。サーバ102は、特徴量補正係数1105を使って画像特徴量を補正することによって、外光の影響を除去する。特徴量補正係数1105は、複数のカメラ101で撮影された顔画像の輝度分布及び色分布が同一となるように、予め決定されている。   The feature amount correction coefficient 1105 is a coefficient for correcting the image feature amount of an image shot in the shooting situation. The server 102 corrects the image feature amount using the feature amount correction coefficient 1105, thereby removing the influence of external light. The feature amount correction coefficient 1105 is determined in advance so that the luminance distribution and color distribution of the face images taken by the plurality of cameras 101 are the same.

例えば、天候が晴れで時間帯が昼間であると、特徴量補正係数1105は大きくなる。逆に、天気が曇であったり、時間帯が夜間であると、特徴量補正係数1105は小さくなる。また窓が西向きで時間帯が夕刻であると、特徴量補正係数1105は、逆光を補正する成分を大きくする。   For example, when the weather is fine and the time zone is daytime, the feature amount correction coefficient 1105 increases. Conversely, when the weather is cloudy or the time zone is nighttime, the feature amount correction coefficient 1105 is small. When the window is facing west and the time zone is evening, the feature amount correction coefficient 1105 increases the component for correcting backlight.

前処理内容1106は、当該撮影状況において撮影された画像に対する前処理の内容である。例えば、前処理内容1106には、「光ムラ」、「輝度」、「逆光」等が格納される。サーバ102は、顔画像を抽出すると、前処理内容1106に対応する処理を行う。前処理内容1106が「光ムラ」であると、サーバ102は画像の明るさを均一にする。また、前処理内容1106が「輝度」であると、サーバ102は画像の全体暗くする。また、前処理内容1106が「逆光」であると、サーバ102は画像の全体を明るくする。   The pre-processing content 1106 is the content of pre-processing for an image shot in the shooting situation. For example, the preprocessing content 1106 stores “light unevenness”, “luminance”, “backlight”, and the like. When the server 102 extracts the face image, the server 102 performs processing corresponding to the preprocessing content 1106. If the preprocessing content 1106 is “light unevenness”, the server 102 makes the brightness of the image uniform. If the preprocessing content 1106 is “luminance”, the server 102 darkens the entire image. If the preprocessing content 1106 is “backlight”, the server 102 brightens the entire image.

なお、照明条件データ110には、室内の照明灯等に関する情報が格納されていてもよい。例えば、撮影状況1102に室内の照明灯の有無を格納し、特徴量補正係数1105を室内の照明灯を考慮した値とする。これによって、サーバ102は、室内の照明灯をも考慮した補正が可能となる。   Note that the illumination condition data 110 may store information related to indoor lighting. For example, the presence / absence of an indoor lamp is stored in the shooting situation 1102, and the feature amount correction coefficient 1105 is set to a value considering the indoor lamp. As a result, the server 102 can perform correction in consideration of indoor lighting.

図10Aは、本発明の第3の実施の形態の照明の影響の説明図である。   FIG. 10A is an explanatory diagram of the influence of illumination according to the third embodiment of this invention.

ここでは、三台のカメラ101C、101D及び101Eを備えている場合で説明する。   Here, a case where three cameras 101C, 101D, and 101E are provided will be described.

まず、照明・気象状況推定部111は、画像が撮影されたときの天気及び時刻を取得する。照明・気象状況推定部111は、当該画像を撮影したカメラ101のエリア番号と照明条件データ110のエリア番号1101とが一致し、且つ取得した天気及び時刻等と撮影状況1102とが一致するレコードを選択する。次に、選択したレコードから照明モード1104を抽出する。この抽出した照明モード1104が、当該画像が影響を受ける照明の状況である。   First, the illumination / weather condition estimation unit 111 acquires the weather and time when the image is taken. The illumination / weather condition estimation unit 111 records a record in which the area number of the camera 101 that captured the image matches the area number 1101 of the illumination condition data 110, and the acquired weather, time, and the like match the shooting condition 1102. select. Next, the illumination mode 1104 is extracted from the selected record. The extracted illumination mode 1104 is a lighting situation in which the image is affected.

例えば、本説明図では、天気が晴れで、時間は9時である。   For example, in this explanatory diagram, the weather is fine and the time is 9 o'clock.

この場合、カメラ101Cは、強い右斜光の影響を受けている。また、カメラ101Dは、強い逆光の影響を受けている。また、カメラ101Eは、外光の影響を受けない室内に設置されている。   In this case, the camera 101C is affected by strong right oblique light. The camera 101D is also affected by strong backlight. The camera 101E is installed in a room that is not affected by outside light.

図10Bは、本発明の第3の実施の形態の外光の影響の説明図である。   FIG. 10B is an explanatory diagram of the influence of external light according to the third embodiment of this invention.

本説明図では、天気が曇りで、時間は17時である。   In this illustration, the weather is cloudy and the time is 17:00.

この場合、カメラ101Cは、弱い順光の影響を受けている。また、カメラ101Dは、弱い左斜光の影響を受けている。また、カメラ101Eは、外光の影響を受けない室内に設置されている。   In this case, the camera 101C is affected by weak follow light. The camera 101D is also affected by weak left oblique light. The camera 101E is installed in a room that is not affected by outside light.

図11は、本発明の第3の実施の形態のサーバ102の画像処理のフローチャートである。   FIG. 11 is a flowchart of image processing of the server 102 according to the third embodiment of this invention.

サーバ102は、カメラ101によって撮影された画像をカメラ101から入力されると、処理を開始する(401)。このとき、サーバ102には、当該画像が撮影された場所のエリア番号及び当該画像が撮影された時刻等を併せて入力されてもよい。   When an image captured by the camera 101 is input from the camera 101, the server 102 starts processing (401). At this time, the server 102 may be input with the area number of the place where the image was taken, the time when the image was taken, and the like.

まず、入力された画像から顔領域の画像(顔画像)を抽出する(402)。   First, an image of a face area (face image) is extracted from the input image (402).

次に、入力された画像の撮影状況を特定する(403)。撮影状況は、当該画像が撮影された時間帯、当該画像が撮影されたときの天気等を含む。具体的には、外部のネットワークからの気象情報、外光センサからの輝度情報又は管理者からの入力情報に基づいて、画像が撮影されたときの天気を特定する。また、カメラ101から入力された時刻に基づいて、画像が撮影された時間帯を特定する。   Next, the shooting situation of the input image is specified (403). The shooting situation includes the time zone when the image was shot, the weather when the image was shot, and the like. Specifically, the weather when the image is taken is specified based on weather information from an external network, luminance information from an external light sensor, or input information from an administrator. Also, based on the time input from the camera 101, the time zone when the image was taken is specified.

次に、カメラ101から入力されたエリア番号と照明条件データ110のエリア番号とが一致し、且つ、特定した撮影状況と照明条件データ110の撮影状況1102とが一致するレコードを照明条件データ110から選択する。次に、選択したレコードから、特徴量補正係数1105及び前処理内容1106を抽出する。   Next, a record in which the area number input from the camera 101 matches the area number of the lighting condition data 110 and the specified shooting situation matches the shooting situation 1102 of the lighting condition data 110 is read from the lighting condition data 110. select. Next, the feature amount correction coefficient 1105 and the preprocessing content 1106 are extracted from the selected record.

次に、当該顔画像に対して、抽出した前処理内容1106に対応する前処理を行う。次に、前処理した顔画像から画像特徴量を算出する(404)。   Next, preprocessing corresponding to the extracted preprocessing content 1106 is performed on the face image. Next, an image feature amount is calculated from the preprocessed face image (404).

次に、抽出した特徴量補正係数1105を使って、算出した画像特徴量を補正する(405)。そして、人物決定処理を行う(406)。人物決定処理406は、第1の実施の形態の画像処理(図4)のステップ204〜210と同一であり説明は省略する。   Next, the calculated image feature quantity is corrected using the extracted feature quantity correction coefficient 1105 (405). Then, person determination processing is performed (406). The person determination process 406 is the same as steps 204 to 210 in the image processing (FIG. 4) of the first embodiment, and a description thereof will be omitted.

以上のように、画像を撮影した照明の状況に応じた補正を顔画像に施すことによって、対応人物の精度を高めることができる。   As described above, it is possible to improve the accuracy of the corresponding person by performing correction on the face image according to the lighting condition in which the image is captured.

次に、本実施の形態の監視システムを、市街地等でのセキュリティ確保に使用する場合について説明する。   Next, the case where the monitoring system of this Embodiment is used for security ensuring in a city area etc. is demonstrated.

市街地における監視システムは、施設内における監視システムと同様に、カメラ101を複数台設置する。監視システムは、設置されたカメラ101の相対位置およびカメラ101の向き等を予め記憶する。カメラ101は、例えば、街路に沿って一定間隔で存在する防犯柱に設置される。なお、カメラ101は、繁華街に既に設置されている監視カメラを利用してもよい。   In a monitoring system in an urban area, a plurality of cameras 101 are installed as in the monitoring system in a facility. The monitoring system stores in advance the relative position of the installed camera 101, the orientation of the camera 101, and the like. For example, the cameras 101 are installed on crime prevention pillars that exist at regular intervals along a street. The camera 101 may use a surveillance camera already installed in the downtown area.

まず、特定の人物を捜索する処理について説明する。特定の人物は、例えば、指名手配犯、迷子等である。   First, a process for searching for a specific person will be described. The specific person is, for example, a wanted crime or a lost child.

まず、監視システムは、カメラ101によって撮影された画像から顔画像を抽出する。次に、照明条件データ110に基づいて、抽出した顔画像を補正する。次に、補正した顔画像を追跡する。そして、追跡できたすべての顔画像を同一人物の顔画像と決定する。   First, the monitoring system extracts a face image from an image photographed by the camera 101. Next, the extracted face image is corrected based on the illumination condition data 110. Next, the corrected face image is tracked. Then, all face images that can be tracked are determined as face images of the same person.

また、監視システムは、追跡できない場合には、撮影された顔画像の対応人物を決定する。そして、監視システムは、抽出した顔画像及び該顔画像に関する情報を人物ごとに蓄積する。   If the monitoring system cannot track the person, the person corresponding to the captured face image is determined. Then, the monitoring system accumulates the extracted face image and information related to the face image for each person.

次に、監視システムは、蓄積した顔画像と特定人物の顔画像との照合度を蓄積したすべての顔画像に対して算出する。そして、監視システムは、算出した照合度が閾値以上のものが多数存在すると、管理者に通報する。   Next, the monitoring system calculates the matching degree between the accumulated face image and the face image of the specific person for all the accumulated face images. The monitoring system notifies the administrator when there are a large number of calculated collation degrees equal to or greater than the threshold.

本実施の監視システムは、様々な環境における顔画像を多数蓄積するので、人物の特定の精度を高めることができる。また、蓄積された一部の顔画像との照合度が高くても、蓄積された他の顔画像との照合度が低いと通報しないので、誤報を減少できる。   Since the monitoring system of the present embodiment accumulates a large number of face images in various environments, it is possible to improve the accuracy of identifying a person. Further, even if the degree of matching with a part of the stored face images is high, no notification is made if the degree of matching with other stored face images is low, so that false alarms can be reduced.

監視システムは、特定人物の捜索処理と併せて、人物の異常行動を検出してもよい。例えば、監視システムは、既存の画像処理技術を用いて、人物の異常行動を検出する。異常行動は、人物が長時間同じ位置に滞留している場合等である。監視システムは、異常行動を検出すると、管理者に通報する。また、監視システムは、異常な行動をした人物の顔画像を蓄積し、蓄積した顔画像の人物を特定してもよい。   The monitoring system may detect the abnormal behavior of the person together with the search process for the specific person. For example, the monitoring system detects an abnormal behavior of a person using an existing image processing technique. Abnormal behavior is when a person stays at the same position for a long time. When the monitoring system detects abnormal behavior, it notifies the administrator. In addition, the monitoring system may accumulate face images of persons who have performed abnormal behavior and specify the person of the accumulated face images.

次に、本実施の形態の監視システムは、混雑検知にも利用できる。   Next, the monitoring system of the present embodiment can also be used for congestion detection.

本実施の形態の監視システムによる顔識別を採り入れることによって、複数の地点での混雑状況の関係を知ることができる。監視システムは、例えば、A地点に現れる人物の80%がB地点に現れると判断する。この場合、管理者は、A地点を訪れる人物とB地点を訪れる人物との間には高い相関関係があると理解できる。   By adopting face identification by the monitoring system of this embodiment, it is possible to know the relationship of the congestion situation at a plurality of points. For example, the monitoring system determines that 80% of people appearing at point A appear at point B. In this case, the administrator can understand that there is a high correlation between the person visiting the point A and the person visiting the point B.

本実施の形態の監視システムは、人物の数の増加に伴い、人物の識別が困難となる。しかし、この監視システムは、複数の地点における人物の関連性がわかればよいので、人物の識別の精度が低くても運用できる。   In the monitoring system according to the present embodiment, it becomes difficult to identify a person as the number of persons increases. However, since this monitoring system only needs to know the relevance of persons at a plurality of points, the monitoring system can be operated even if the accuracy of identification of persons is low.

特許請求の範囲に記載した以外の本発明の観点の代表的なものとして、次のものがあげられる。   The following are typical examples of aspects of the present invention other than those described in the claims.

撮影された画像がカメラから入力され、各種情報を記憶する記憶部から情報を取得する監視装置において、
前記記憶部は、前記監視装置に過去に入力された画像に関する情報を含む過去情報と、前記カメラの位置情報を含む地理情報と、を記憶し、
前記入力された画像から顔画像を抽出し、前記抽出した顔画像から、該顔画像に対応する人物の移動方向及び移動速度を求め、
前記求めた移動方向及び移動速度に基づいて、前記抽出した顔画像の追跡が可能であるか否かを判定し、
追跡可能であると、該追跡した顔画像の人物を前記抽出した顔画像に対応する人物と決定し、
追跡不可能であると、前記過去情報に基づいて、前記抽出した顔画像に対応する人物を推定し、
前記地理情報に基づいて、前記推定した人物の中から、前記抽出した顔画像に対応する人物を決定する監視装置。
In a monitoring device in which a captured image is input from a camera and acquires information from a storage unit that stores various types of information,
The storage unit stores past information including information related to images previously input to the monitoring device, and geographic information including position information of the camera,
A face image is extracted from the input image, and a moving direction and a moving speed of a person corresponding to the face image are obtained from the extracted face image;
Based on the obtained moving direction and moving speed, it is determined whether or not the extracted face image can be tracked,
If tracking is possible, the person of the tracked face image is determined as the person corresponding to the extracted face image;
If tracking is impossible, based on the past information, the person corresponding to the extracted face image is estimated,
A monitoring device that determines a person corresponding to the extracted face image from the estimated persons based on the geographic information.

これによると、監視装置は、顔画像の追跡処理によって、顔画像の対応人物を決定することができる。更に、監視装置は、顔画像の追跡ができない場合のみ、顔画像の対応人物を決定する画像処理を行うので、処理を軽減できる。   According to this, the monitoring apparatus can determine the corresponding person of the face image by the tracking process of the face image. Furthermore, since the monitoring apparatus performs image processing for determining the person corresponding to the face image only when the face image cannot be tracked, the processing can be reduced.

本発明は、カメラで撮影された画像中の人物を追跡するので、屋内及び屋外の監視装置に幅広く適用できる。また、本発明は、認証装置の機能も備えるので、従来の認証装置の代替としても適用できる。   Since the present invention tracks a person in an image taken by a camera, it can be widely applied to indoor and outdoor monitoring devices. In addition, since the present invention also has a function of an authentication device, it can be applied as an alternative to a conventional authentication device.

本発明の第1の実施の形態の監視システムのブロック図である。It is a block diagram of the monitoring system of a 1st embodiment of the present invention. 本発明の実施の形態の人物出現データの構成図である。It is a block diagram of the person appearance data of embodiment of this invention. 本発明の実施の形態の地理的データの構成図である。It is a block diagram of the geographical data of embodiment of this invention. 本発明の第1の実施の形態のサーバの画像処理のフローチャートである。It is a flowchart of the image processing of the server of the 1st Embodiment of this invention. 本発明の第2の実施の形態の監視システムの構成のブロック図である。It is a block diagram of a structure of the monitoring system of the 2nd Embodiment of this invention. 本発明の第2の実施の形態のサーバの人流追跡処理の説明図である。It is explanatory drawing of the human flow tracking process of the server of the 2nd Embodiment of this invention. 本発明の第2の実施の形態のサーバの画像処理のフローチャートである。It is a flowchart of the image processing of the server of the 2nd Embodiment of this invention. 本発明の第3の実施の形態の監視システムの構成のブロック図である。It is a block diagram of a structure of the monitoring system of the 3rd Embodiment of this invention. 本発明の第3の実施の形態の照明条件データの構成図である。It is a block diagram of the illumination condition data of the 3rd Embodiment of this invention. 本発明の第3の実施の形態の照明の影響の説明図である。It is explanatory drawing of the influence of the illumination of the 3rd Embodiment of this invention. 本発明の第3の実施の形態の照明の影響の説明図である。It is explanatory drawing of the influence of the illumination of the 3rd Embodiment of this invention. 本発明の第3の実施の形態のサーバの画像処理のフローチャートである。It is a flowchart of the image processing of the server of the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

101 カメラ
102 サーバ
103 入退室制御装置
104 人物検出・追跡部
105 地理・時間制限算出部
106 顔識別部
107 入退室管理部
108 人物出現データ
109 地理的データ
110 照明条件データ
111 照明・気象情報推定部
112 ネットワーク
DESCRIPTION OF SYMBOLS 101 Camera 102 Server 103 Entrance / exit control device 104 Person detection / tracking unit 105 Geography / time limit calculation unit 106 Face identification unit 107 Entrance / exit management unit 108 Person appearance data 109 Geographic data 110 Illumination condition data 111 Illumination / weather information estimation unit 112 network

Claims (9)

撮影された画像がカメラから入力され、各種情報を記憶する記憶部から情報を取得する監視装置において、
前記記憶部は、前記カメラが過去に撮影した画像に関する情報を含む過去情報と、前記カメラが撮影する領域情報を含む地理情報と、を記憶し、
前記入力された画像から顔画像を抽出し、前記過去情報に基づいて前記抽出した顔画像に対応する人物を推定する顔識別部と、
前記地理情報に基づいて、前記顔識別部が推定した人物の中から、前記抽出した顔画像に対応する人物を決定する判定部と、を備えることを特徴とする監視装置。
In a monitoring device in which a captured image is input from a camera and acquires information from a storage unit that stores various types of information,
The storage unit stores past information including information related to images captured by the camera in the past, and geographic information including area information captured by the camera,
A face identifying unit that extracts a face image from the input image and estimates a person corresponding to the extracted face image based on the past information;
A monitoring apparatus comprising: a determination unit that determines a person corresponding to the extracted face image from the persons estimated by the face identification unit based on the geographic information.
前記過去情報は、前記監視装置が過去に抽出した顔画像の特徴を示す特徴量を含み、
前記顔識別部は、
前記抽出した顔画像から、該顔画像の特徴を示す特徴量を求め、
前記過去情報に含まれる特徴量と前記求めた特徴量とを比較することによって、前記抽出した顔画像に対応する人物を推定することを特徴とする請求項1に記載の監視装置。
The past information includes a feature amount indicating a feature of a face image extracted in the past by the monitoring device,
The face identification unit
From the extracted face image, a feature amount indicating the feature of the face image is obtained,
The monitoring apparatus according to claim 1, wherein a person corresponding to the extracted face image is estimated by comparing a feature amount included in the past information with the obtained feature amount.
前記地理情報は、前記カメラが撮影する領域を人物が移動する時間を含み、
前記過去情報は、前記監視装置が過去に抽出した前記顔画像が撮影された時刻を含み、
前記判定部は、
前記推定した人物が直前に撮影された顔画像を前記過去情報から検索し、
前記検索した顔画像が撮影された時刻を前記過去情報から取得し、
前記抽出した顔画像が撮影された時刻から、前記取得した時刻を減算し、
前記減算した時刻差と前記地理情報に含まれる移動時間とを比較することによって、前記顔識別部が推定した人物の中から、前記抽出した顔画像に対応する人物を決定することを特徴とする請求項1に記載の監視装置。
The geographic information includes a time for a person to move in an area captured by the camera,
The past information includes a time when the face image extracted in the past by the monitoring device is captured,
The determination unit
Search the past information for a face image in which the estimated person was photographed immediately before,
The time when the searched face image was taken is acquired from the past information,
Subtract the acquired time from the time when the extracted face image was taken,
The person corresponding to the extracted face image is determined from the persons estimated by the face identification unit by comparing the subtracted time difference and the travel time included in the geographic information. The monitoring device according to claim 1.
前記抽出した顔画像から、該顔画像に対応する人物の移動方向及び移動速度を求め、前記求めた移動方向及び移動速度に基づいて前記抽出した顔画像を追跡する追跡部を備えることを特徴とする請求項1に記載の監視装置。   A tracking unit that obtains a movement direction and a movement speed of a person corresponding to the face image from the extracted face image and tracks the extracted face image based on the obtained movement direction and movement speed is provided. The monitoring apparatus according to claim 1. 前記記憶部は、前記顔画像が撮影された時の照明の状況を含む照明情報を記憶し、
前記照明情報に基づいて、前記抽出した顔画像を補正する補正部を備え、
前記顔識別部は、前記補正部が補正した顔画像に基づいて、前記抽出した顔画像に対応する人物を推定することを特徴とする請求項1に記載の監視装置。
The storage unit stores illumination information including a lighting situation when the face image is captured,
A correction unit that corrects the extracted face image based on the illumination information;
The monitoring apparatus according to claim 1, wherein the face identification unit estimates a person corresponding to the extracted face image based on the face image corrected by the correction unit.
前記判定部は、
前記抽出した顔画像に対応する人物を決定する際に、該決定する人物と該顔画像に対応する人物とが同一である可能性を示す信頼度を求め、
求めた信頼度を前記過去情報に記憶することを特徴とする請求項1に記載の監視装置。
The determination unit
When determining a person corresponding to the extracted face image, a reliability indicating the possibility that the person to be determined and the person corresponding to the face image are the same is obtained;
The monitoring device according to claim 1, wherein the obtained reliability is stored in the past information.
一台以上のカメラと、各種情報を記憶する記憶装置と、撮影された画像がカメラから入力され、前記記憶装置から情報を取得する監視サーバと、を備え、施設を監視する監視システムにおいて、
前記記憶装置は、前記カメラが過去に撮影した画像に関する情報を含む過去情報と、前記カメラが撮影する領域情報を含む地理情報と、を記憶し、
前記監視サーバは、
前記入力された画像から顔画像を抽出し、前記過去情報に基づいて前記抽出した顔画像に対応する人物を推定する顔識別部と、
前記地理情報に基づいて、前記推定した人物の中から、前記抽出した顔画像に対応する人物を決定する判定部と、を備えることを特徴とする監視システム。
In a monitoring system for monitoring facilities, comprising one or more cameras, a storage device for storing various types of information, and a monitoring server in which captured images are input from the camera and obtain information from the storage device,
The storage device stores past information including information on images captured by the camera in the past, and geographic information including region information captured by the camera,
The monitoring server is
A face identifying unit that extracts a face image from the input image and estimates a person corresponding to the extracted face image based on the past information;
A monitoring system comprising: a determination unit that determines a person corresponding to the extracted face image from the estimated person based on the geographic information.
監視システムは、施設の出入口の開閉を制御する入退室制御装置を備え、
前記記憶装置は、人物が施設への入場を許可されているか否かの情報を含む認証情報を記憶し、
前記判定部は、前記認証情報に基づいて、前記決定した人物が入場を許可されているか否かを判定し、
前記入退制御装置は、前記判定部が入場を許可されている人物と判定すると、施設の出入口を開くように制御することを特徴とする請求項7に記載の監視システム。
The monitoring system includes an entrance / exit control device that controls opening / closing of the entrance / exit of the facility,
The storage device stores authentication information including information on whether or not a person is permitted to enter the facility,
The determination unit determines whether the determined person is allowed to enter based on the authentication information,
The monitoring system according to claim 7, wherein the entrance / exit control device controls to open an entrance / exit of a facility when the determination unit determines that the person is permitted to enter.
前記監視サーバは、
前記抽出した顔画像から、該画像に対応する人物の移動方向及び移動速度を求め、前記求めた移動方向及び移動速度に基づいて、前記抽出した顔画像を追跡する追跡部を備え、
前記判定部は、前記追跡した顔画像の人物を前記抽出した顔画像に対応する人物と決定することを特徴とする請求項7に記載の監視システム。
The monitoring server is
From the extracted face image, a movement unit and a movement speed of a person corresponding to the image are obtained, and a tracking unit that tracks the extracted face image based on the obtained movement direction and movement speed is provided.
The monitoring system according to claim 7, wherein the determination unit determines a person of the tracked face image as a person corresponding to the extracted face image.
JP2005033290A 2005-02-09 2005-02-09 Monitoring device and monitoring system Pending JP2006221355A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005033290A JP2006221355A (en) 2005-02-09 2005-02-09 Monitoring device and monitoring system
KR1020050071503A KR20060090554A (en) 2005-02-09 2005-08-04 A surveillance apparatus and surveillance system
CNA2005100897268A CN1819652A (en) 2005-02-09 2005-08-05 Watching device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005033290A JP2006221355A (en) 2005-02-09 2005-02-09 Monitoring device and monitoring system

Publications (2)

Publication Number Publication Date
JP2006221355A true JP2006221355A (en) 2006-08-24
JP2006221355A5 JP2006221355A5 (en) 2007-06-28

Family

ID=36919305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005033290A Pending JP2006221355A (en) 2005-02-09 2005-02-09 Monitoring device and monitoring system

Country Status (3)

Country Link
JP (1) JP2006221355A (en)
KR (1) KR20060090554A (en)
CN (1) CN1819652A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236676A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Photographing system and photographing method
JP2008250444A (en) * 2007-03-29 2008-10-16 Omron Corp Face detection device, face detection method, and face detection program
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
US8525678B2 (en) 2007-08-21 2013-09-03 Nec Corporation Behavior monitoring system and behavior monitoring method
JP2014511520A (en) * 2011-02-03 2014-05-15 フェイスブック,インク. System and method for relevance of image texting and text imaging
WO2014125882A1 (en) * 2013-02-15 2014-08-21 日本電気株式会社 Information processing system, information processing method, and program
WO2014171258A1 (en) * 2013-04-16 2014-10-23 日本電気株式会社 Information processing system, information processing method, and program
WO2014175356A1 (en) * 2013-04-26 2014-10-30 日本電気株式会社 Information processing system, information processing method, and program
WO2015037713A1 (en) * 2013-09-13 2015-03-19 日本電気株式会社 Information processing device, information processing method, and program
US9064146B2 (en) 2008-03-20 2015-06-23 Facebook, Inc. Relationship mapping employing multi-dimensional context including facial recognition
US9143573B2 (en) 2008-03-20 2015-09-22 Facebook, Inc. Tag suggestions for images on online social networks
JP2017111587A (en) * 2015-12-16 2017-06-22 日本電気株式会社 Travel-time storage system, travel-time storage method, and travel-time storage program
JP2019028764A (en) * 2017-07-31 2019-02-21 キヤノン株式会社 Information processing apparatus, system, information processing method and program
JP2019185384A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image authentication device, image authentication method, computer program and storage medium
JP2020064675A (en) * 2015-12-16 2020-04-23 日本電気株式会社 Transit time storage system, method for storing transit time, and transit time storage program
WO2020218320A1 (en) * 2019-04-26 2020-10-29 清水建設株式会社 Reception guidance system and reception guidance method
JP2021012631A (en) * 2019-07-09 2021-02-04 キヤノン株式会社 Image processing system, information processing device, information processing method, and program
CN112926722A (en) * 2021-01-27 2021-06-08 上海兰宝传感科技股份有限公司 Method for counting people in escalator entrance area
JP2021168216A (en) * 2020-01-09 2021-10-21 日本電気株式会社 Information processing system, method and program
US11347739B2 (en) 2016-02-15 2022-05-31 Kabushiki Kaisha Toshiba Performing a chained search function
US11507768B2 (en) 2019-07-04 2022-11-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP7419790B2 (en) 2019-12-18 2024-01-23 大日本印刷株式会社 Rename processing equipment and print sales system

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282913B1 (en) * 2006-09-08 2013-07-05 엘지전자 주식회사 Method for controling monitoring camera in digital video recorder
JP5115139B2 (en) * 2007-10-17 2013-01-09 ソニー株式会社 Composition determination apparatus, composition determination method, and program
CN101754045B (en) * 2008-12-08 2013-07-24 北京中星微电子有限公司 Method for distinguishing stay-dead picture in monitoring system, monitoring system and device
JP5441151B2 (en) * 2008-12-22 2014-03-12 九州日本電気ソフトウェア株式会社 Facial image tracking device, facial image tracking method, and program
EP2418849B1 (en) * 2009-04-10 2013-10-02 Omron Corporation Monitoring system, and monitoring terminal
JP5359645B2 (en) * 2009-07-23 2013-12-04 ソニー株式会社 Composition determination apparatus, imaging system, composition determination method, and program
KR102097781B1 (en) * 2013-09-06 2020-05-29 에스케이 텔레콤주식회사 Apparatus and Method for Providing Object Information
CN103632141A (en) * 2013-11-28 2014-03-12 小米科技有限责任公司 Method, device and terminal equipment for figure identifying
KR20180086662A (en) * 2017-01-23 2018-08-01 한화에어로스페이스 주식회사 The Apparatus And The System For Monitoring
CN107704851B (en) * 2017-10-30 2021-01-15 歌尔股份有限公司 Character identification method, public media display device, server and system
CN111492371B (en) * 2017-12-14 2023-05-26 三菱电机株式会社 Search system and monitoring system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279466A (en) * 2001-03-15 2002-09-27 Toshiba Corp Device and method for admission control
JP2003204541A (en) * 2001-12-28 2003-07-18 Nippon Signal Co Ltd:The Video processing method and video processing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279466A (en) * 2001-03-15 2002-09-27 Toshiba Corp Device and method for admission control
JP2003204541A (en) * 2001-12-28 2003-07-18 Nippon Signal Co Ltd:The Video processing method and video processing apparatus

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236676A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Photographing system and photographing method
JP2008250444A (en) * 2007-03-29 2008-10-16 Omron Corp Face detection device, face detection method, and face detection program
US8525678B2 (en) 2007-08-21 2013-09-03 Nec Corporation Behavior monitoring system and behavior monitoring method
US9275272B2 (en) 2008-03-20 2016-03-01 Facebook, Inc. Tag suggestions for images on online social networks
US9984098B2 (en) 2008-03-20 2018-05-29 Facebook, Inc. Relationship mapping employing multi-dimensional context including facial recognition
US9665765B2 (en) 2008-03-20 2017-05-30 Facebook, Inc. Tag suggestions for images on online social networks
US10423656B2 (en) 2008-03-20 2019-09-24 Facebook, Inc. Tag suggestions for images on online social networks
US9064146B2 (en) 2008-03-20 2015-06-23 Facebook, Inc. Relationship mapping employing multi-dimensional context including facial recognition
US9143573B2 (en) 2008-03-20 2015-09-22 Facebook, Inc. Tag suggestions for images on online social networks
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2014511520A (en) * 2011-02-03 2014-05-15 フェイスブック,インク. System and method for relevance of image texting and text imaging
JPWO2014125882A1 (en) * 2013-02-15 2017-02-02 日本電気株式会社 Information processing system, information processing method, and program
US9697420B2 (en) 2013-02-15 2017-07-04 Nec Corporation Information processing system, information processing method, and computer-readable recording medium
WO2014125882A1 (en) * 2013-02-15 2014-08-21 日本電気株式会社 Information processing system, information processing method, and program
US10574943B2 (en) 2013-04-16 2020-02-25 Nec Corporation Information processing system, information processing method, and program
US11483521B2 (en) 2013-04-16 2022-10-25 Nec Corporation Information processing system, information processing method, and program
WO2014171258A1 (en) * 2013-04-16 2014-10-23 日本電気株式会社 Information processing system, information processing method, and program
US10225524B2 (en) 2013-04-16 2019-03-05 Nec Corporation Information processing system, information processing method, and program
US10347100B2 (en) 2013-04-26 2019-07-09 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
US10854057B2 (en) 2013-04-26 2020-12-01 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
US11908293B2 (en) 2013-04-26 2024-02-20 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram
WO2014175356A1 (en) * 2013-04-26 2014-10-30 日本電気株式会社 Information processing system, information processing method, and program
US11367330B2 (en) 2013-04-26 2022-06-21 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram
JPWO2014175356A1 (en) * 2013-04-26 2017-02-23 日本電気株式会社 Information processing system, information processing method, and program
US10854056B2 (en) 2013-04-26 2020-12-01 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
WO2015037713A1 (en) * 2013-09-13 2015-03-19 日本電気株式会社 Information processing device, information processing method, and program
US9690978B2 (en) 2013-09-13 2017-06-27 Nec Hong Kong Limited Information processing apparatus, information processing and program
JPWO2015037713A1 (en) * 2013-09-13 2017-03-02 エヌイーシー ホンコン リミテッド Information processing apparatus, information processing method, and program
JP2017111587A (en) * 2015-12-16 2017-06-22 日本電気株式会社 Travel-time storage system, travel-time storage method, and travel-time storage program
JP2020064675A (en) * 2015-12-16 2020-04-23 日本電気株式会社 Transit time storage system, method for storing transit time, and transit time storage program
US11347739B2 (en) 2016-02-15 2022-05-31 Kabushiki Kaisha Toshiba Performing a chained search function
JP6991771B2 (en) 2017-07-31 2022-01-13 キヤノン株式会社 Information processing equipment, information processing system, information processing method and program
JP2019028764A (en) * 2017-07-31 2019-02-21 キヤノン株式会社 Information processing apparatus, system, information processing method and program
JP2019185384A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image authentication device, image authentication method, computer program and storage medium
JP2020181525A (en) * 2019-04-26 2020-11-05 清水建設株式会社 Reception guidance system and reception guidance method
JP7409782B2 (en) 2019-04-26 2024-01-09 清水建設株式会社 Reception guidance system, reception guidance method
WO2020218320A1 (en) * 2019-04-26 2020-10-29 清水建設株式会社 Reception guidance system and reception guidance method
US11507768B2 (en) 2019-07-04 2022-11-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2021012631A (en) * 2019-07-09 2021-02-04 キヤノン株式会社 Image processing system, information processing device, information processing method, and program
JP7374632B2 (en) 2019-07-09 2023-11-07 キヤノン株式会社 Information processing device, information processing method and program
JP7419790B2 (en) 2019-12-18 2024-01-23 大日本印刷株式会社 Rename processing equipment and print sales system
JP2021168216A (en) * 2020-01-09 2021-10-21 日本電気株式会社 Information processing system, method and program
JP7218778B2 (en) 2020-01-09 2023-02-07 日本電気株式会社 Information processing system, method and program
CN112926722A (en) * 2021-01-27 2021-06-08 上海兰宝传感科技股份有限公司 Method for counting people in escalator entrance area
CN112926722B (en) * 2021-01-27 2022-11-01 上海兰宝传感科技股份有限公司 Method for counting people in escalator entrance area

Also Published As

Publication number Publication date
CN1819652A (en) 2006-08-16
KR20060090554A (en) 2006-08-14

Similar Documents

Publication Publication Date Title
JP2006221355A (en) Monitoring device and monitoring system
JP4759988B2 (en) Surveillance system using multiple cameras
JP4937016B2 (en) Monitoring device, monitoring method and program
US7639846B2 (en) Authentication system and program
CN109658554B (en) Intelligent residential district security protection system based on big data
US20190347528A1 (en) Image analysis system, image analysis method, and storage medium
US20070291998A1 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
KR20180042802A (en) Method and system for tracking an object in a defined area
WO2015136938A1 (en) Information processing method and information processing system
KR101387628B1 (en) Entrance control integrated video recorder
US20130216107A1 (en) Method of surveillance by face recognition
KR102012672B1 (en) Anti-crime system and method using face recognition based people feature recognition
JP2006221355A5 (en)
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
KR102561308B1 (en) Method and apparatus of providing traffic information, and computer program for executing the method.
JP2016046639A (en) Authentication device
CN114358609A (en) Scenic spot tourism safety management system and method
JP2010009389A (en) Dictionary information registration device, dictionary information registration method, face authentication device, and access control system
JP2007257296A (en) Access management system and access management method
JP2006209585A (en) Crime prevention system
JP2011243054A (en) Crime prevention device and program
WO2021176593A1 (en) Stay management device, stay management method, non-transitory computer-readable medium in which program is stored, and stay management system
GB2499449A (en) Surveillance by face recognition using colour display of images
JP5730000B2 (en) Face matching system, face matching device, and face matching method
CN112002052A (en) Data sharing method for smart community

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101026