JP2006238002A - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP2006238002A
JP2006238002A JP2005049047A JP2005049047A JP2006238002A JP 2006238002 A JP2006238002 A JP 2006238002A JP 2005049047 A JP2005049047 A JP 2005049047A JP 2005049047 A JP2005049047 A JP 2005049047A JP 2006238002 A JP2006238002 A JP 2006238002A
Authority
JP
Japan
Prior art keywords
image
face
face image
infrared light
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005049047A
Other languages
Japanese (ja)
Other versions
JP4561400B2 (en
Inventor
Yuuka Ogawa
夕香 小川
Koji Sogo
浩二 十河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2005049047A priority Critical patent/JP4561400B2/en
Publication of JP2006238002A publication Critical patent/JP2006238002A/en
Application granted granted Critical
Publication of JP4561400B2 publication Critical patent/JP4561400B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To make high collation precision in face collation and simplicity of seeing a face picture displayed on a display unit coexist with each other. <P>SOLUTION: This monitoring device is provided with a near-infrared camera 11 for acquiring images of near-infrared light, a visible light camera 12 for acquiring pictures of visible light, a storage 26 in which face drawn by near-infrared light and face drawn by visible light are stored for each specific person being related to each other, a person determination portion 23 for determining whether or not the person in a picture of near-infrared light taken by the near-infrared camera 11 is a specific person, and a display unit 32 for displaying a face picture of a specific person. Determination is performed by collating a face picture obtained by pictures of near-infrared light acquired by the near-infrared camera 11 with a face picture of near-infrared light stored in the storage 26, when it is determined whether or not the person is a specific person. Display is performed based on a face picture by visible light stored in the storage 26, when the face picture of the specific person is displayed in the display unit 32. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、建物等に出入りする人物を監視するための監視システムに関するものである。   The present invention relates to a monitoring system for monitoring a person entering and exiting a building or the like.

カメラを用いて人物を監視する監視システムとして、例えば、下記の特許文献1に記載されたものが知られている。本文献では、人物の顔画像をカメラにより撮影し、この顔画像をデータベースに記録されている顔画像と照合することにより、ユーザごとにアクセス日時や顔画像を行動履歴として記憶し、表示できるようにしている。   As a monitoring system for monitoring a person using a camera, for example, one described in Patent Document 1 below is known. In this document, a person's face image is photographed by a camera, and this face image is collated with the face image recorded in the database, so that the access date and time and the face image can be stored and displayed as an action history for each user. I have to.

特開2004−265231号公報JP 2004-265231 A

このような監視システムに用いられるカメラには、可視光カメラと近赤外光カメラがある。可視光カメラは、波長が400nm〜780nmの可視光により被写体を撮影するものであり、近赤外光カメラは、波長が780nm〜3μmの近赤外光により被写体を撮影するものである。監視システムにおいては、カメラで撮像した顔画像を予め登録されている顔画像と照合して人物の判定を行うが、この照合精度を高めるには、可視光カメラよりも近赤外光カメラのほうが適している。これは、近赤外光カメラは光の影響を受けにくく、昼夜・屋内外を問わず一定の画像が得られることから、顔画像から目、鼻、口などの特徴量を精度良く抽出できるためである。   There are a visible light camera and a near-infrared light camera as a camera used in such a monitoring system. The visible light camera captures a subject with visible light having a wavelength of 400 nm to 780 nm, and the near infrared light camera captures a subject with near infrared light having a wavelength of 780 nm to 3 μm. In a surveillance system, a face image captured by a camera is compared with a face image registered in advance, and a person is determined. In order to increase the accuracy of this comparison, a near-infrared light camera is better than a visible light camera. Is suitable. This is because near-infrared cameras are not easily affected by light, and a constant image can be obtained day and night, indoors or outdoors, so that features such as eyes, nose, and mouth can be accurately extracted from face images. It is.

ところで、上記特許文献1のものでは、ユーザごとの行動履歴として、カメラで撮像された顔画像そのものを表示するようにしているが、表示部に表示される顔画像は、可視光カメラで撮像した場合と近赤外光カメラで撮像した場合とで顕著に異なる。図10(a)は、可視光カメラを用いて撮影した画像の例、図10(b)は、近赤外光カメラを用いて撮影した画像の例である。これからわかるように、図10(a)の可視光カメラによる画像は、実際に眼で見たものと変わらないが、図10(b)の近赤外光カメラによる画像は、ツートン調の画像となって実際に眼で見たものとは大きく異なっており、顔の部分も陰影のために実際の顔とは違った印象を与える。このため、特許文献1において近赤外光カメラを用いた場合は、表示部に表示される顔画像を確認しづらくなるという問題がある。一方、特許文献1において可視光カメラを用いた場合は、表示部に表示される顔画像は見た目と異ならないので、顔の確認は容易に行うことができるが、可視光カメラによる画像は光の影響を受け易いことから、一定の画像を得るのが難しく、顔の照合精度が低下するという問題がある。   By the way, in the thing of the said patent document 1, the face image itself imaged with the camera is displayed as an action history for every user, but the face image displayed on a display part was imaged with the visible light camera. The case is significantly different from the case where the image is taken with a near-infrared light camera. FIG. 10A is an example of an image captured using a visible light camera, and FIG. 10B is an example of an image captured using a near-infrared light camera. As can be seen, the image obtained by the visible light camera in FIG. 10A is the same as that actually seen by the eye, but the image obtained by the near-infrared light camera in FIG. 10B is a two-tone image. It is very different from what you see with your eyes, and the face part gives an impression different from the actual face because of the shadow. For this reason, when a near-infrared light camera is used in Patent Document 1, it is difficult to confirm the face image displayed on the display unit. On the other hand, when a visible light camera is used in Patent Document 1, since the face image displayed on the display unit is not different from the appearance, the face can be easily confirmed. Since it is easily affected, there is a problem that it is difficult to obtain a certain image and the face matching accuracy is lowered.

本発明は、上述した問題に鑑み、顔照合には近赤外光画像、表示には可視光画像を使用することで、照合精度と見易さを両立させた監視装置を提供することを課題としている。   In view of the above-described problems, the present invention provides a monitoring device that achieves both matching accuracy and ease of viewing by using a near-infrared light image for face matching and a visible light image for display. It is said.

本発明に係る監視装置は、監視領域内の人物を撮像して得られる顔画像を予め登録されている顔画像と照合して、前記人物が特定人物か否かを判定するとともに、撮像した顔画像を記憶し、当該記憶した顔画像を表示する監視装置であって、 近赤外光により監視領域を撮影して得られた人物の近赤外光画像を取得する第1の画像取得手段と、近赤外光による撮像と並行して、可視光により監視領域を撮影して得られた人物の可視光画像を取得する第2の画像取得手段と、特定人物ごとに、近赤外光により撮像された第1の顔画像と、可視光により撮像された第2の顔画像とを関連付けて記憶した記憶手段と、第1の画像取得手段が取得した近赤外光画像の人物が特定人物か否かを判定する判定手段と、特定人物の顔画像を表示する表示手段とを備える。そして、判定手段により特定人物か否かを判定する場合は、第1の画像取得手段が取得した近赤外光画像より得られる顔画像を、記憶手段に記憶されている第1の顔画像と照合することにより判定を行う。また、表示手段により特定人物の顔画像を表示する場合は、記憶手段に記憶されている第2の顔画像に基づいて表示を行う。   The monitoring apparatus according to the present invention compares a face image obtained by imaging a person in the monitoring area with a pre-registered face image to determine whether or not the person is a specific person and A monitoring device for storing an image and displaying the stored face image, the first image acquiring means acquiring a near-infrared light image of a person obtained by photographing a monitoring region with near-infrared light; In parallel with imaging with near-infrared light, second image acquisition means for acquiring a visible light image of a person obtained by photographing a monitoring region with visible light, and for each specific person with near-infrared light A storage unit that stores the first face image captured and the second face image captured by visible light in association with each other, and the person of the near-infrared light image acquired by the first image acquisition unit is a specific person. Determining means for determining whether or not, and display means for displaying a face image of a specific person Equipped with a. And when determining whether it is a specific person by the determination means, the face image obtained from the near-infrared light image acquired by the first image acquisition means is the first face image stored in the storage means. Judgment is made by checking. Further, when the face image of the specific person is displayed by the display unit, the display is performed based on the second face image stored in the storage unit.

このように、近赤外光と可視光の両方を用いて顔画像を撮像し、顔の照合を行う場合は、近赤外光による顔画像同士の照合を行い、顔の表示を行う場合は、近赤外光による顔画像は表示せずに、可視光による顔画像のみを表示するようにしたことで、顔照合の精度を高く維持できるとともに、顔画像を見た目と同じように見易く表示することができ、照合精度と見易さを両立させることが可能となる。また、照合用の近赤外光画像が表示されないため、セキュリティの強化も期待できる。   In this way, when face images are captured using both near-infrared light and visible light, and face matching is performed, face images are compared using near-infrared light, and faces are displayed. Since the face image by near infrared light is not displayed, but only the face image by visible light is displayed, the accuracy of face matching can be maintained high and the face image can be displayed as easily as it looks. It is possible to achieve both matching accuracy and legibility. In addition, since a near-infrared light image for verification is not displayed, security can be expected to be enhanced.

本発明においては、第1の画像取得手段が取得した近赤外光画像より得られる顔画像と、第2の画像取得手段が取得した可視光画像より得られる顔画像とを関連付けて、記憶手段に履歴データとして記憶してもよい。これにより、監視領域への過去のアクセス状況を知りたい場合に、履歴データに基づいて、特定人物のアクセス状況を可視光の顔画像により見易く表示することができる。   In the present invention, the face image obtained from the near-infrared light image acquired by the first image acquisition means and the face image obtained from the visible light image acquired by the second image acquisition means are associated with each other, and the storage means May be stored as history data. As a result, when it is desired to know the past access status to the monitoring area, the access status of the specific person can be displayed in an easy-to-view manner using a visible light face image based on the history data.

この場合、第1の画像取得手段が取得した近赤外光画像より得られる顔画像の顔位置データに基づいて、第2の画像取得手段が取得した可視光画像より顔領域を切り出して、可視光による顔画像を得るようにしてもよい。これにより、第2の画像取得手段が取得した可視光画像に対する顔検出処理が不要となり、可視光画像から簡単かつ確実に顔画像を得ることができる。   In this case, based on the face position data of the face image obtained from the near-infrared light image obtained by the first image obtaining unit, the face region is cut out from the visible light image obtained by the second image obtaining unit, and visible. A face image by light may be obtained. This eliminates the need for face detection processing on the visible light image acquired by the second image acquisition means, and allows a face image to be obtained easily and reliably from the visible light image.

本発明においては、上述した近赤外光に代えて、近紫外光を用いてもよい。この場合も、顔の照合を行う場合は、近紫外光による顔画像同士の照合を行い、顔の表示を行う場合は、可視光による顔画像を表示することで、照合精度と見易さを両立させることができ、また、照合用の近紫外光画像が表示されないことから、セキュリティを強化することができる。   In the present invention, near ultraviolet light may be used instead of the above-described near infrared light. In this case as well, when performing face matching, face images are compared with near-ultraviolet light, and when displaying a face, the face image is displayed with visible light, so that the matching accuracy and visibility are improved. It is possible to achieve both, and since no near-ultraviolet light image for verification is displayed, security can be enhanced.

本発明によれば、近赤外光(または近紫外光)の画像により顔照合の精度を高く維持できるとともに、可視光の画像により顔画像を見易く表示することができるので、照合精度と見易さを両立させることが可能となり、また、照合用の画像が表示されないため、セキュリティの強化を図ることができる。   According to the present invention, it is possible to maintain high accuracy of face matching with an image of near-infrared light (or near-ultraviolet light), and it is possible to display a face image in an easy-to-view manner with an image of visible light. It is possible to achieve both of them, and since no verification image is displayed, security can be enhanced.

以下、本発明の実施形態につき、図面を参照して説明する。図1は、本発明に係る監視装置の実施形態を示したブロック図である。11は撮像手段としての近赤外光カメラ、12は撮像手段としての可視光カメラである。これらの2台のカメラ11,12は、例えば建物や部屋の出入口付近に一定距離を隔てて並設されており、各カメラ11,12によって監視領域が並行して同時に撮像される。近赤外光カメラ11は、波長が780nm〜3μmの近赤外光により監視領域を撮影し、可視光カメラ12は、波長が400nm〜780nmの可視光により監視領域を撮影する。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a monitoring device according to the present invention. Reference numeral 11 denotes a near-infrared light camera as imaging means, and reference numeral 12 denotes a visible light camera as imaging means. These two cameras 11 and 12 are juxtaposed at a certain distance, for example, near the entrance of a building or room, and the monitoring areas are simultaneously imaged in parallel by the cameras 11 and 12. The near-infrared light camera 11 photographs the monitoring area with near-infrared light having a wavelength of 780 nm to 3 μm, and the visible light camera 12 photographs the monitoring area with visible light having a wavelength of 400 nm to 780 nm.

20はコンピュータから構成される画像処理装置であって、顔検出部21、顔照合部22、人物判定部23、顔位置取得部24、顔切出し部25および記憶部26からなる。21〜25の各ブロックは、実際にはコンピュータの機能としてソフトウエア的に実現されるが、ハードウエアとして構成してもよい。   Reference numeral 20 denotes an image processing apparatus composed of a computer, which includes a face detection unit 21, a face collation unit 22, a person determination unit 23, a face position acquisition unit 24, a face cutout unit 25, and a storage unit 26. Each block 21 to 25 is actually realized as software as a computer function, but may be configured as hardware.

顔検出部21は、近赤外光カメラ11が撮像した監視領域内の人物の近赤外光画像から顔を検出する。顔照合部22は、顔検出部21で検出された顔画像から抽出された顔の特徴量と、記憶部26に予め登録されている登録者(特定人物)の顔画像から抽出された顔の特徴量との一致度を照合する。人物判定部23は、顔照合部22での照合結果に基づいて、近赤外光カメラ11の撮像した人物が予め登録されている特定人物か否かを判定する。顔位置取得部24は、顔検出部21で検出された人物の顔画像から顔位置を取得する。顔切出し部25は、顔位置取得部24で取得された顔位置データに基づいて、可視光カメラ12が撮像した人物の可視光画像より顔領域を切り出す。記憶部26はRAM、ROM、ハードディスクなどから構成される。記憶部26は、登録データ格納部27、履歴データ格納部28を備えている。   The face detection unit 21 detects a face from the near-infrared light image of the person in the monitoring area captured by the near-infrared light camera 11. The face matching unit 22 detects the facial feature amount extracted from the face image detected by the face detection unit 21 and the face extracted from the registrant (specific person) face image registered in the storage unit 26 in advance. The degree of coincidence with the feature quantity is collated. The person determination unit 23 determines whether or not the person imaged by the near-infrared light camera 11 is a specific person registered in advance based on the collation result in the face collation unit 22. The face position acquisition unit 24 acquires the face position from the face image of the person detected by the face detection unit 21. The face cutout unit 25 cuts out a face region from the visible light image of the person captured by the visible light camera 12 based on the face position data acquired by the face position acquisition unit 24. The storage unit 26 includes a RAM, a ROM, a hard disk, and the like. The storage unit 26 includes a registration data storage unit 27 and a history data storage unit 28.

31はデータや指令を入力するための操作部であって、押ボタン、キーボード、マウス等の入力装置から構成されている。32は顔画像を表示するための表示部であって、LCD(液晶ディスプレイ)あるいはCRT(陰極線管)などの表示装置から構成されている。   Reference numeral 31 denotes an operation unit for inputting data and commands, and includes input devices such as push buttons, a keyboard, and a mouse. Reference numeral 32 denotes a display unit for displaying a face image, which includes a display device such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube).

以上の構成において、近赤外光カメラ11は本発明における第1の画像取得手段の一実施形態を構成し、可視光カメラ12は本発明における第2の画像取得手段の一実施形態を構成し、記憶部26は本発明における記憶手段の一実施形態を構成し、顔照合部22および人物判定部23は本発明における判定手段の一実施形態を構成し、表示部32は本発明における表示手段の一実施形態を構成する。   In the above configuration, the near-infrared light camera 11 constitutes an embodiment of the first image acquisition means in the present invention, and the visible light camera 12 constitutes an embodiment of the second image acquisition means in the present invention. The storage unit 26 constitutes an embodiment of the storage means in the present invention, the face collation unit 22 and the person determination unit 23 constitute an embodiment of the determination means in the present invention, and the display unit 32 represents the display means in the present invention. Constituting one embodiment.

図2は、記憶部26の登録データ格納部27に格納されているデータ内容の一例を示している。登録データ格納部27には、登録者情報、登録日、初期登録データ、追加登録データが記憶されている。登録者情報は、登録者を特定するための情報であって、例えば個人別に割り当てられたIDコードからなる。登録日は、登録データが格納された年月日を表している。登録データは、登録者の顔画像データであって、初期登録データは最初に登録された顔画像データ、追加登録データはその後に登録された顔画像データである。   FIG. 2 shows an example of the data contents stored in the registered data storage unit 27 of the storage unit 26. The registration data storage unit 27 stores registrant information, registration date, initial registration data, and additional registration data. The registrant information is information for identifying the registrant, and includes, for example, an ID code assigned to each individual. The registration date represents the date on which registration data is stored. The registration data is the face image data of the registrant, the initial registration data is the face image data registered first, and the additional registration data is the face image data registered thereafter.

各登録者について、初期登録データは、近赤外光により撮像された顔画像P(第1の顔画像)と、可視光により撮像された顔画像P(第2の顔画像)とを含んでいる。顔画像Pは近赤外光カメラ11により撮像されたものであり、顔画像Pはこれと並行して可視光カメラ12により撮像されたものであるが、カメラ11,12とは別のカメラで撮像したものであってもよい。顔画像Pと顔画像Pとは、同じ登録者情報および登録日を共有することで、互いに関連付けて(紐付けされて)記憶されている。なお、顔画像Pと顔画像Pに別途同一の画像IDを付与することにより、両画像P,Pを関連付けるようにしてもよい。 For each registrant, the initial registration data includes a face image P 1 (first face image) captured with near infrared light and a face image P 2 (second face image) captured with visible light. Contains. The face image P 1 is taken by the near-infrared light camera 11, and the face image P 2 is taken by the visible light camera 12 in parallel with this, but is different from the cameras 11 and 12. What was imaged with the camera may be used. The face image P 1 and the face image P 2 are stored in association (linked) with each other by sharing the same registrant information and registration date. Incidentally, by providing a separate same image ID in the face image P 1 and the face image P 2, it may be associated both images P 1, P 2.

また、各登録者について、追加登録データも、上述した近赤外光により撮像された顔画像Pと、可視光により撮像された顔画像Pとを含んでいる。初期登録データと同様に、顔画像Pと顔画像Pとは、同じ登録者情報および登録日を共有することで、互いに関連付けて記憶されている。この場合も、顔画像Pと顔画像Pに同一の画像IDを付与することで、両画像P,Pを関連付けてもよい。なお、追加登録データは本発明では必須のものではなく、初期登録データだけを登録データ格納部27に格納してもよいが、初期登録データに加えて追加登録データも照合用データとして用いることで、照合の精度を向上させることができる。 Also, for each registrant, also additional registration data includes a face image P 1 captured by the near infrared light as described above, a face image P 2 captured by the visible light. Similar to the initial registration data, the face image P 1 and the face image P 2 are stored in association with each other by sharing the same registrant information and registration date. In this case as well, both images P 1 and P 2 may be associated by assigning the same image ID to the face image P 1 and the face image P 2 . Note that the additional registration data is not essential in the present invention, and only the initial registration data may be stored in the registration data storage unit 27. However, in addition to the initial registration data, the additional registration data can be used as verification data. The accuracy of verification can be improved.

図3は、記憶部26の履歴データ格納部28に格納されているデータ内容の一例を示している。履歴データ格納部28には、撮像日時ごとに、登録者情報、近赤外光により撮像された顔画像Q、可視光により撮像された顔画像Qが記憶されている。撮像日時は、顔画像が撮像された年月日および時間を表している。登録者情報は、図2におけるそれと同じであって、登録者を特定するための情報である。顔画像Qは近赤外光カメラ11により撮像されたものであり、顔画像Qはこれと並行して可視光カメラ12により撮像されたものである。図3からわかるように、履歴データ格納部28には、近赤外光による顔画像Qと可視光による顔画像Qとが対をなして、時系列的な履歴データとして記憶されている。対をなす顔画像Qと顔画像Qとは、同じ撮像日時および登録者情報を共有することで、互いに関連付けて記憶されている。この場合も、顔画像Qと顔画像Qに同一の画像IDを付与することで、両画像Q,Qを関連付けるようにしてもよい。 FIG. 3 shows an example of data contents stored in the history data storage unit 28 of the storage unit 26. The history data storage unit 28 stores registrant information, a face image Q 1 imaged with near infrared light, and a face image Q 2 imaged with visible light for each imaging date and time. The imaging date and time represents the date and time when the face image was captured. The registrant information is the same as that in FIG. 2 and is information for specifying the registrant. Face image Q 1 is one which is picked up by the near-infrared light camera 11, in which is captured by the visible light camera 12 face image Q 2 is parallel with this. As can be seen from Figure 3, in the history data storage unit 28 is stored at an face image Q 2 as a pair by the face image Q 1, the visible light by the near infrared light, as time-series historical data . The face image Q 1, the face image Q 2 to which paired by sharing the same image pickup date and registrant information, are stored in association with each other. Also in this case, both images Q 1 and Q 2 may be associated by assigning the same image ID to the face image Q 1 and the face image Q 2 .

履歴データ格納部28に記憶した顔画像は、登録データ格納部27の追加登録データとして追加することもできる。図2の追加登録データは、図3の履歴データから追加したものである。図2において、例えば登録者情報AAAAの人物の追加登録データは、図3における登録者情報AAAAの人物の2004年11月15日8時20分と同日10時40分に撮像した、近赤外光による顔画像Qおよび可視光による顔画像Qを登録したものである。この履歴データからの追加登録は、顔画像が履歴データに記録される都度行ってもよいし、所定の時期にまとめて行ってもよい。また、登録データ格納部27に複数の登録データが記憶されている場合、古い登録データを履歴データ格納部28の履歴データによって更新するようにしてもよい。 The face image stored in the history data storage unit 28 can be added as additional registration data in the registration data storage unit 27. The additional registration data in FIG. 2 is added from the history data in FIG. In FIG. 2, for example, the additional registration data of the person of the registrant information AAAA is the near-infrared imaged at 10:40 on the same day as the person of the registrant information AAAA in FIG. it is obtained by registering the face image Q 2 by the face image Q 1 and visible light by light. The additional registration from the history data may be performed each time a face image is recorded in the history data, or may be performed collectively at a predetermined time. When a plurality of registration data is stored in the registration data storage unit 27, the old registration data may be updated with the history data in the history data storage unit 28.

次に、上述した監視装置の動作について説明する。図4は、記憶部26の登録データ格納部27に顔画像を登録する場合の手順を示したフローチャートである。最初に、新規に登録を行うか履歴データから登録を行うかを決める(ステップS11)。新規に登録を行う場合は(ステップS11:NO)、登録ボタンを押す(ステップS12)。登録ボタンは、操作部31に設けてもよいし、表示部32の画面上に表示してもよい。後者の場合、登録ボタンはマウスで操作される。登録ボタンが押されると、監視装置の動作モードは登録モードへ移行し(ステップS13)、撮像ボタンが押されるのを待つ(ステップS14)。この撮像ボタンも、操作部31に設けてもよいし、表示部32の画面上に表示してもよい。後者の場合、撮像ボタンはマウスで操作される。   Next, the operation of the monitoring device described above will be described. FIG. 4 is a flowchart showing a procedure for registering a face image in the registration data storage unit 27 of the storage unit 26. First, it is determined whether to newly register or to register from history data (step S11). When newly registering (step S11: NO), a registration button is pushed (step S12). The registration button may be provided on the operation unit 31 or may be displayed on the screen of the display unit 32. In the latter case, the registration button is operated with the mouse. When the registration button is pressed, the operation mode of the monitoring device shifts to the registration mode (step S13) and waits for the imaging button to be pressed (step S14). This imaging button may also be provided on the operation unit 31 or displayed on the screen of the display unit 32. In the latter case, the imaging button is operated with a mouse.

撮像ボタンが押されると(ステップS14:YES)、図1の近赤外光カメラ11と可視光カメラ12の2台のカメラが同時に作動して人物を撮像し、近赤外光カメラ11により撮像された近赤外光画像から顔検出部21により顔画像が取得され、可視光カメラ12により撮像された可視光画像から顔切出し部25により顔画像が取得される(ステップS15)。取得したそれぞれの画像は、記憶部26のバッファ領域(図示省略)に一時的に格納され、表示部32に表示されるので、これを見て各画像が正常に取得されておれば(ステップS16:YES)、バッファ領域に格納されている近赤外光による顔画像を登録者情報とともに、照合用画像として記憶部26の登録データ格納部27に記憶する(ステップS17)。なお、登録者情報は、操作部31のキーボードを用いて入力する。続いて、バッファ領域に格納されている可視光による顔画像を、近赤外光による顔画像と関連付けて、表示用画像として記憶部26の登録データ格納部27に記憶し(ステップS18)、登録処理を終了する。一方、ステップS16において、画像が正常に取得されていなければ(ステップS16:NO)、ステップS14へ戻って撮像のやり直しを行う。   When the image pickup button is pressed (step S14: YES), the near-infrared light camera 11 and the visible light camera 12 in FIG. A face image is acquired from the near-infrared light image by the face detection unit 21, and a face image is acquired by the face cutout unit 25 from the visible light image captured by the visible light camera 12 (step S15). Each acquired image is temporarily stored in a buffer area (not shown) of the storage unit 26 and displayed on the display unit 32. If each image is acquired normally by looking at this (step S16). : YES), the face image of near infrared light stored in the buffer area is stored in the registration data storage unit 27 of the storage unit 26 together with the registrant information as a collation image (step S17). The registrant information is input using the keyboard of the operation unit 31. Subsequently, the face image by visible light stored in the buffer area is associated with the face image by near-infrared light, and stored as a display image in the registration data storage unit 27 of the storage unit 26 (step S18). The process ends. On the other hand, if the image is not normally acquired in step S16 (step S16: NO), the process returns to step S14 to perform imaging again.

また、ステップS11において、履歴データから登録を行う場合は(ステップS11:YES)、すでに顔画像を取得済であるので、ステップS12〜S16をスキップして、ステップS17へ移り、履歴データ格納部28に格納されている近赤外光による顔画像を登録者情報とともに、照合用画像として記憶部26の登録データ格納部27に記憶する。この場合、履歴データ格納部28の顔画像の中から、登録する顔画像を任意に選択できるようにしてもよい。続いて、履歴データ格納部28に格納されている可視光による顔画像を、近赤外光による顔画像と関連付けて、表示用画像として記憶部26の登録データ格納部27に記憶し(ステップS18)、登録処理を終了する。   When registration is performed from the history data in step S11 (step S11: YES), since the face image has already been acquired, steps S12 to S16 are skipped, and the process proceeds to step S17, where the history data storage unit 28 Is stored in the registration data storage unit 27 of the storage unit 26 together with the registrant information as a collation image. In this case, the face image to be registered may be arbitrarily selected from the face images stored in the history data storage unit 28. Subsequently, the face image by visible light stored in the history data storage unit 28 is associated with the face image by near infrared light and stored in the registration data storage unit 27 of the storage unit 26 as a display image (step S18). ), And ends the registration process.

図5は、2台のカメラ11,12により監視領域内を監視する場合の手順を示したフローチャートである。監視装置は、通常、図5の監視モードで動作している。監視モードにおいては、図1の近赤外光カメラ11と可視光カメラ12の2台のカメラが同時に作動して監視領域内を撮像し、画像を取得する(ステップS21)。そして、近赤外光カメラ11が取得した画像から顔検出部21で顔が検出されたか否かを判定する(ステップS22)。顔検出部21で顔が検出されない場合は(ステップS22:NO)、ステップS21へ戻って、監視領域内の撮像を継続する。顔検出部21で顔が検出された場合は(ステップS22:YES)、顔位置取得部24が近赤外光の顔画像から顔位置データを取得し、この顔位置データに基づいて、顔切出し部25が、可視光カメラ12で撮像した可視光画像から顔の切出しを行う(ステップS23)。なお、この切出しにあたって、近赤外光画像の顔位置から可視光画像の顔位置を算出する変換式を得るためのキャリブレーションが予め実行されるが、これについては後述する。   FIG. 5 is a flowchart showing a procedure when the inside of the monitoring area is monitored by the two cameras 11 and 12. The monitoring device normally operates in the monitoring mode of FIG. In the monitoring mode, the two cameras of the near-infrared light camera 11 and the visible light camera 12 shown in FIG. 1 operate simultaneously to capture an image of the monitoring area and acquire an image (step S21). And it is determined whether the face was detected by the face detection part 21 from the image which the near-infrared-light camera 11 acquired (step S22). When the face is not detected by the face detection unit 21 (step S22: NO), the process returns to step S21 and the imaging in the monitoring area is continued. When a face is detected by the face detection unit 21 (step S22: YES), the face position acquisition unit 24 acquires face position data from the near-infrared face image, and the face is extracted based on the face position data. The unit 25 cuts out a face from the visible light image captured by the visible light camera 12 (step S23). In this extraction, calibration for obtaining a conversion formula for calculating the face position of the visible light image from the face position of the near-infrared light image is executed in advance, which will be described later.

次に照合に移り、登録データ格納部27に格納されている登録データ(図2)のうち、各登録者の近赤外光による顔画像Pを順次読み出し(ステップS24)、読み出した顔画像Pと、顔検出部21で検出された顔画像とを顔照合部22で照合する(ステップS25)。この照合においては、前述したとおり、登録されている顔画像Pから抽出される特徴量と、取得した顔画像から抽出される特徴量の一致度を照合する。次に、この照合結果に基づき、取得した顔画像の人物が、登録者すなわち特定人物か否かを人物判定部23で判定する(ステップS26)。 Turning now to verification, of the registration data stored in the registration data storage unit 27 (FIG. 2) sequentially reads out a face image P 1 by the near-infrared light of each registrant (step S24), and the read face image The face collation unit 22 collates P 1 with the face image detected by the face detection unit 21 (step S25). In this verification, as described above, collates the feature amounts extracted from the face image P 1 that are registered, the degree of matching of feature amounts extracted from the acquired face image. Next, based on the comparison result, the person determination unit 23 determines whether or not the person of the acquired face image is a registrant, that is, a specific person (step S26).

顔照合部22での照合の結果、取得した顔画像の特徴量と、登録されている特定の顔画像Pの特徴量との一致度が所定値以上であれば、取得した顔画像の人物は特定人物であると判定される(ステップS26:YES)。この場合は、当該特定人物に相当する登録者情報を登録データ格納部27から抽出する(ステップS27)。そして、ステップS22で検出された近赤外光の顔画像と、ステップS23で切出した可視光の顔画像とを、登録者情報および撮像日時とともに、図3のような履歴データとして履歴データ格納部28に記憶する(ステップS28)。 Result of collation by the face collating section 22, a feature quantity of the acquired face image, if the matching degree between the feature quantity of the specific facial image P 1 being registered more than a predetermined value, the acquired face image person Is determined to be a specific person (step S26: YES). In this case, registrant information corresponding to the specific person is extracted from the registration data storage unit 27 (step S27). Then, the near infrared light face image detected in step S22 and the visible light face image cut out in step S23 are recorded as history data as shown in FIG. 28 (step S28).

また、ステップS26において、取得した顔画像の特徴量と、登録されている顔画像Pの特徴量との一致度が所定値以上となるものがなければ、取得した顔画像の人物は特定人物でないと判定される(ステップS26:NO)。この場合は、登録データ格納部27に登録者情報が存在しないので、ステップS27を実行することなくステップS28へ移行する。そして、ステップS28で履歴データとして履歴データ格納部28に記憶する際に、登録者情報が付与される。この登録者情報は、操作部31のキーボードで入力することができる。 Further, in step S26, the obtained feature amount of the face image, if there is a match degree between the feature quantity of the face image P 1 that is registered is greater than or equal to a predetermined value, the person of the acquired face image specific person (Step S26: NO). In this case, since the registrant information does not exist in the registration data storage unit 27, the process proceeds to step S28 without executing step S27. In step S28, registrant information is given when the history data is stored in the history data storage unit 28. This registrant information can be input with the keyboard of the operation unit 31.

図6は、図5のステップS23で触れたキャリブレーションを説明する図である。このキャリブレーションは、監視装置を導入して最初に稼働する際に1回だけ行われる作業である。キャリブレーションを行うにあたっては、まず、近赤外光カメラ11と可視光カメラ12の前に人物(誰でもよい)に立ってもらい、当該人物を2台のカメラで同時に撮像する。図6(a)は、この撮像により得られた近赤外光画像と可視光画像を示している。2台のカメラ11,12は、水平方向に一定間隔を置いて配置されているので、それぞれのカメラで撮像した人物の画像上の位置は、図のように異なっている。次に、これらの画像のそれぞれについて、図6(b)に示すように、目、鼻、口などの位置にマーキングを行うことにより、顔位置データを入力する。この顔位置データは、各部位の2次元座標値である。この顔位置データが決まると、図6(c)に×印で示すように、それぞれの画像における顔の重心位置が決まる。この重心位置の座標値の差から、次の変換式が得られる。
(Xopt,Yopt)=f(Xinf,Yinf
ここで、(Xopt,Yopt)は可視光画像における重心位置の座標、(Xinf,Yinf)は近赤外光画像における重心位置の座標である。こうして得られた変換式は、記憶部26の所定領域に記憶され、以後はこの変換式を用いて、近赤外光の顔画像の顔位置(重心)から可視光画像の顔位置(重心)を求め、可視光画像から顔領域の切出しが行われる。
FIG. 6 is a diagram illustrating the calibration touched in step S23 of FIG. This calibration is an operation that is performed only once when the monitoring apparatus is introduced and is operated for the first time. In performing calibration, first, a person (anyone) may be standing in front of the near-infrared light camera 11 and the visible light camera 12, and the person is imaged simultaneously by two cameras. FIG. 6A shows a near-infrared light image and a visible light image obtained by this imaging. Since the two cameras 11 and 12 are arranged at regular intervals in the horizontal direction, the positions of the images taken by the respective cameras are different as shown in the figure. Next, for each of these images, as shown in FIG. 6 (b), face position data is input by marking the positions of the eyes, nose, mouth, and the like. This face position data is a two-dimensional coordinate value of each part. When this face position data is determined, the center of gravity position of the face in each image is determined as indicated by a cross in FIG. From the difference between the coordinate values of the center of gravity position, the following conversion formula is obtained.
(X opt , Y opt ) = f (X inf , Y inf )
Here, (X opt , Y opt ) is the coordinates of the barycentric position in the visible light image, and (X inf , Y inf ) is the coordinates of the barycentric position in the near-infrared light image. The conversion formula thus obtained is stored in a predetermined area of the storage unit 26, and thereafter, using this conversion formula, the face position (center of gravity) of the visible light image is changed from the face position (center of gravity) of the near-infrared light face image. And the face region is cut out from the visible light image.

図7は、監視装置の表示部32に監視領域へのアクセス状況を表示する場合の手順を示したフローチャートである。アクセス状況を表示するには表示ボタンを押す(ステップS31)。表示ボタンは、操作部31に設けてもよいし、表示部32の画面上に表示してもよい。後者の場合、表示ボタンはマウスで操作される。表示ボタンが押されると、監視装置の動作モードはアクセス状況表示モードへ移行する(ステップS32)。アクセス状況表示モードへ移行すると、操作部31のキーボードにより登録者情報が入力されたか否かを判定する(ステップS33)。登録者情報が入力された場合は(ステップS33:YES)、当該登録者情報に基づき、登録データ格納部27の登録データから登録者情報に対応する可視光の顔画像Pを読み出すとともに、履歴データ格納部28の履歴データから登録者情報に対応する可視光の顔画像Qを読み出す(ステップS34)。そして、読み出したこれらの可視光の顔画像P,Qを、登録者別のアクセス状況として表示部32に表示する(ステップS35)。 FIG. 7 is a flowchart showing a procedure for displaying an access status to the monitoring area on the display unit 32 of the monitoring apparatus. To display the access status, the display button is pressed (step S31). The display button may be provided on the operation unit 31 or may be displayed on the screen of the display unit 32. In the latter case, the display button is operated with the mouse. When the display button is pressed, the operation mode of the monitoring device shifts to the access status display mode (step S32). When the access status display mode is entered, it is determined whether or not registrant information has been input using the keyboard of the operation unit 31 (step S33). If registrant information is input (step S33: YES), based on the registrant information, reads a face image P 2 of the corresponding visible light in the registrant information from the registration data of the registration data storage unit 27, the history It reads the face image Q 2 of visible light corresponding to the registrant information from the history data of the data storage 28 (step S34). Then, the read face images P 2 and Q 2 of the visible light are displayed on the display unit 32 as the access status for each registrant (step S35).

図8は、表示部32における登録者別のアクセス状況の表示例を示している。ここでは、登録者情報AAAAの人物についての初期登録データと履歴データとが、それぞれ可視光の顔画像P,Qにより表示されている。図8の左欄の顔画像Pは、図2における登録者情報AAAAの人物についての初期登録データの可視光の顔画像Pと同じものであり、図8の右欄の顔画像Qは、図3における登録者情報AAAAの人物についての履歴データの可視光の顔画像Qと同じものである。ここでは、特定人物の初期登録データと履歴データの両方が表示されているが、初期登録データを省略して履歴データのみを表示するようにしてもよい。 FIG. 8 shows a display example of the access status for each registrant on the display unit 32. Here, initial registration data and history data for the person of the registrant information AAAA are displayed as visible light face images P 2 and Q 2 , respectively. The face image P 2 in the left column of FIG. 8 is the same as the face image P 2 of visible light of the initial registration data for the person of the registrant information AAAA in FIG. 2, and the face image Q 2 in the right column of FIG. is the same as the face image Q 2 of the visible light of historical data for the registrant information AAAA person in FIG. Here, both the initial registration data and the history data of the specific person are displayed, but the initial registration data may be omitted and only the history data may be displayed.

一方、ステップS33において、登録者情報が入力されず、日時や時間帯の情報が入力された場合は(ステップS33:NO)、当該情報に基づき、履歴データ格納部28の履歴データから、該当する日時や時間帯の可視光の顔画像Qを読み出す(ステップS36)。そして、読み出した可視光の顔画像Qを、時系列的なアクセス状況として表示部32に表示する(ステップS37)。 On the other hand, if the registrant information is not input in step S33 and the date / time and time zone information is input (step S33: NO), the corresponding information is obtained from the history data in the history data storage unit 28 based on the information. It reads the face image Q 2 of the visible light date and time (step S36). Then, the face image Q 2 of the read visible light, when the display unit 32 as a series of access status (step S37).

図9は、表示部32における時系列的なアクセス状況の表示例を示している。ここでは、2004年11月15日にどのような人物が監視領域内に現れたかを確認するために、撮像日時、登録者情報、アクセス者の履歴データおよび初期登録データが時系列的に表示されている。履歴データは可視光の顔画像Qにより表示され、初期登録データも可視光の顔画像Pにより表示されている。図9の各登録者の顔画像Qは、図3における各登録者の可視光の顔画像Qと同じものであり、図9の各登録者の顔画像Pは、図2における各登録者の初期登録データの顔画像Pと同じものである。ここでは、特定人物ごとに履歴データと初期登録データの両方が表示されているが、初期登録データを省略して履歴データのみを表示するようにしてもよい。 FIG. 9 shows a display example of the time-series access status on the display unit 32. Here, in order to confirm what kind of person appeared in the monitoring area on November 15, 2004, the imaging date and time, registrant information, accessor history data, and initial registration data are displayed in time series. ing. The history data is displayed by the face image Q 2 of the visible light, the initial registration data is also displayed by the face image P 2 of the visible light. Face image Q 2 of each registrant in FIG. 9 is the same as the face image Q 2 of the visible light of each registrant in FIG 3, the face image P 2 of each registrant in Figure 9, each of FIG. 2 it is the same as the face image P 2 of the initial registration data of the registrant. Here, both the history data and the initial registration data are displayed for each specific person, but the initial registration data may be omitted and only the history data may be displayed.

このように、上記実施形態では、近赤外光カメラ11と可視光カメラ12の両方を用いて顔画像を撮像し、顔照合部22で照合を行う場合は、近赤外光による顔画像同士の照合を行い、表示部32に顔を表示する場合は、近赤外光による顔画像P,Qは表示せずに、可視光による顔画像P,Qのみを表示するようにしている。このため、取得した近赤外光の顔画像と予め登録されている近赤外光の顔画像Pとを照合することで照合精度を高く維持できるとともに、図8および図9のように可視光による顔画像P,Qを表示することで顔画像を見た目と同じように見易く表示することができる。この結果、照合精度と見易さを両立させることが可能となる。また、表示部32には照合用の近赤外光画像Pが表示されないため、セキュリティの向上を図ることができる。 Thus, in the said embodiment, when a face image is imaged using both the near-infrared light camera 11 and the visible light camera 12, and collation is performed in the face collation part 22, face images by near-infrared light are included. When the face is displayed on the display unit 32, only the face images P 2 and Q 2 by visible light are displayed without displaying the face images P 1 and Q 1 by near-infrared light. ing. Therefore, it is possible to maintain a high matching precision by matching the near-infrared light face image P 1 that is registered in advance with the near-infrared light of a face image obtained, visible as in FIGS. 8 and 9 By displaying the face images P 2 and Q 2 by light, the face image can be displayed in an easy-to-view manner just like the eyes. As a result, it is possible to achieve both matching accuracy and legibility. Further, the display unit 32 for near-infrared light image P 1 for matching is not displayed, it is possible to improve security.

また、上記実施形態では、図3で示したように、特定人物ごとに、近赤外光カメラ11が取得した近赤外光画像より得られる顔画像Qと、可視光カメラ12が取得した可視光画像より得られる顔画像Qとを関連付けて、記憶部26の履歴データ格納部28に履歴データとして記憶するので、監視領域への過去のアクセス状況を知りたい場合に、履歴データから可視光画像の顔画像Qを読み出して、図9のように表示部32に表示することで、特定人物のアクセス状況を可視光の顔画像Qにより見易く表示することができる。 In the above embodiment, as shown in FIG. 3, for each specific person, the face image Q 1 obtained from the near-infrared light image near-infrared light camera 11 is acquired, the visible light camera 12 is acquired in association with the face image Q 2 to which obtained from the visible light image, since stored as history data in the history data storage 28 of the storage unit 26, if you want to know the past access status to the monitoring area, visible from the history data reads the face image Q 2 of the optical image, by displaying on the display unit 32 as shown in FIG. 9, it is possible to display easily viewable access status of a specific person by the face image Q 2 of the visible light.

また、上記実施形態では、近赤外光カメラ11が取得した近赤外光画像より得られる顔画像の顔位置データに基づいて、可視光カメラ12が取得した可視光画像より顔領域を切り出して、可視光による顔画像を得ているので、可視光カメラ12が取得した可視光画像に対する顔検出処理が不要となり、可視光画像から簡単かつ確実に顔画像を得ることができる。   Moreover, in the said embodiment, based on the face position data of the face image obtained from the near-infrared light image which the near-infrared light camera 11 acquired, a face area | region is cut out from the visible light image which the visible-light camera 12 acquired. Since the face image is obtained by visible light, face detection processing for the visible light image acquired by the visible light camera 12 is not required, and a face image can be obtained easily and reliably from the visible light image.

以上述べた実施形態においては、近赤外光カメラ11を用いたが、これに代えて近紫外光カメラを用いてもよい。近紫外光カメラは、波長が300nm〜400nmの近紫外光により撮像を行い、近紫外光画像を取得する。この場合も、顔照合部22で顔の照合を行う場合は、近紫外光による顔画像同士の照合を行い、表示部32に顔を表示する場合は、可視光による顔画像を表示することで、照合精度と見易さを両立させることができ、また、表示部32に照合用の近紫外光画像が表示されないことから、セキュリティを強化することができる。   In the embodiment described above, the near infrared light camera 11 is used, but a near ultraviolet light camera may be used instead. The near-ultraviolet light camera captures an image with near-ultraviolet light having a wavelength of 300 nm to 400 nm and acquires a near-ultraviolet light image. Also in this case, when face matching is performed by the face matching unit 22, face images are compared using near ultraviolet light, and when a face is displayed on the display unit 32, a face image displayed using visible light is displayed. The matching accuracy and the legibility can be made compatible, and since the near-ultraviolet light image for matching is not displayed on the display unit 32, the security can be enhanced.

本発明に係る監視装置の実施形態を示したブロック図である。It is the block diagram which showed embodiment of the monitoring apparatus which concerns on this invention. 登録データ格納部に格納されているデータ内容の一例である。It is an example of the data content stored in the registration data storage part. 履歴データ格納部に格納されているデータ内容の一例である。It is an example of the data content stored in the history data storage unit. 顔画像を登録する場合の手順を示したフローチャートである。It is the flowchart which showed the procedure in the case of registering a face image. 監視領域内を監視する場合の手順を示したフローチャートである。It is the flowchart which showed the procedure in the case of monitoring the inside of a monitoring area. キャリブレーションを説明する図である。It is a figure explaining a calibration. 監視領域へのアクセス状況を表示する場合の手順を示したフローチャートである。It is the flowchart which showed the procedure in the case of displaying the access condition to the monitoring area. 登録者別のアクセス状況の表示例である。It is an example of a display of the access status according to registrant. 時系列的なアクセス状況の表示例である。It is a display example of a chronological access situation. 可視光カメラを用いて撮影した画像と近赤外光カメラを用いて撮影した画像の例である。It is an example of the image image | photographed using the image image | photographed using the visible light camera and the near-infrared light camera.

符号の説明Explanation of symbols

11 近赤外光カメラ
12 可視光カメラ
20 画像処理装置
21 顔検出部
22 顔照合部
23 人物判定部
24 顔位置取得部
25 顔切出し部
26 記憶部
27 登録データ格納部
28 履歴データ格納部
31 操作部
32 表示部
,Q 近赤外光による顔画像
,Q 可視光による顔画像
DESCRIPTION OF SYMBOLS 11 Near-infrared light camera 12 Visible light camera 20 Image processing apparatus 21 Face detection part 22 Face collation part 23 Person determination part 24 Face position acquisition part 25 Face extraction part 26 Storage part 27 Registration data storage part 28 History data storage part 31 Operation Department 32 display unit P 1, Q 1 face image by near-infrared light
P 2 , Q 2 Face image by visible light

Claims (4)

監視領域内の人物を撮像して得られる顔画像を予め登録されている顔画像と照合して、前記人物が特定人物か否かを判定するとともに、前記撮像した顔画像を記憶し、当該記憶した顔画像を表示する監視装置であって、
近赤外光により監視領域を撮影して得られた人物の近赤外光画像を取得する第1の画像取得手段と、
前記近赤外光による撮像と並行して、可視光により前記監視領域を撮影して得られた人物の可視光画像を取得する第2の画像取得手段と、
特定人物ごとに、近赤外光により撮像された第1の顔画像と、可視光により撮像された第2の顔画像とを関連付けて記憶した記憶手段と、
前記第1の画像取得手段が取得した近赤外光画像の人物が特定人物か否かを判定する判定手段と、
特定人物の顔画像を表示する表示手段と、
を備え、
前記判定手段により特定人物か否かを判定する場合は、前記第1の画像取得手段が取得した近赤外光画像より得られる顔画像を、前記記憶手段に記憶されている第1の顔画像と照合することにより判定を行い、
前記表示手段により特定人物の顔画像を表示する場合は、前記記憶手段に記憶されている第2の顔画像に基づいて表示を行うことを特徴とする監視装置。
A face image obtained by imaging a person in the monitoring area is compared with a face image registered in advance to determine whether or not the person is a specific person, and the captured face image is stored and stored. A monitoring device for displaying a face image
First image acquisition means for acquiring a near-infrared light image of a person obtained by photographing a monitoring region with near-infrared light;
In parallel with the imaging with the near-infrared light, second image acquisition means for acquiring a visible light image of a person obtained by photographing the monitoring region with visible light;
Storage means for storing a first face image captured with near-infrared light and a second face image captured with visible light in association with each specific person;
Determination means for determining whether or not the person in the near-infrared light image acquired by the first image acquisition means is a specific person;
Display means for displaying a face image of a specific person;
With
When determining whether or not the person is a specific person, the first face image stored in the storage means is a face image obtained from the near-infrared light image acquired by the first image acquisition means. Judgment by comparing with
A monitoring apparatus, wherein when displaying a face image of a specific person by the display means, display is performed based on a second face image stored in the storage means.
請求項1に記載の監視装置において、
特定人物ごとに、第1の画像取得手段が取得した近赤外光画像より得られる顔画像と、第2の画像取得手段が取得した可視光画像より得られる顔画像とを関連付けて、前記記憶手段に履歴データとして記憶することを特徴とする監視装置。
The monitoring device according to claim 1,
For each specific person, the face image obtained from the near-infrared light image obtained by the first image obtaining unit and the face image obtained from the visible light image obtained by the second image obtaining unit are associated with each other and stored in the memory A monitoring device characterized in that it is stored as history data in the means.
請求項2に記載の監視装置において、
第1の画像取得手段が取得した近赤外光画像より得られる顔画像の顔位置データに基づいて、第2の画像取得手段が取得した可視光画像より顔領域を切り出して、可視光による顔画像を得ることを特徴とする監視装置。
The monitoring device according to claim 2,
Based on the face position data of the face image obtained from the near-infrared light image acquired by the first image acquisition means, the face region is cut out from the visible light image acquired by the second image acquisition means, and the face by visible light A monitoring device characterized by obtaining an image.
請求項1ないし請求項3のいずれかに記載の監視装置において、
前記近赤外光に代えて、近紫外光を用いることを特徴とする監視装置。
The monitoring device according to any one of claims 1 to 3,
A monitoring apparatus using near ultraviolet light instead of the near infrared light.
JP2005049047A 2005-02-24 2005-02-24 Monitoring device Expired - Fee Related JP4561400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005049047A JP4561400B2 (en) 2005-02-24 2005-02-24 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005049047A JP4561400B2 (en) 2005-02-24 2005-02-24 Monitoring device

Publications (2)

Publication Number Publication Date
JP2006238002A true JP2006238002A (en) 2006-09-07
JP4561400B2 JP4561400B2 (en) 2010-10-13

Family

ID=37045179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005049047A Expired - Fee Related JP4561400B2 (en) 2005-02-24 2005-02-24 Monitoring device

Country Status (1)

Country Link
JP (1) JP4561400B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088113A (en) * 2013-11-01 2015-05-07 富士ゼロックス株式会社 Information processing device and program
JP2017072889A (en) * 2015-10-05 2017-04-13 株式会社コムテック Wandering monitor system
JP2021037373A (en) * 2013-12-20 2021-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Measurement apparatus and measurement method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10210486A (en) * 1997-01-21 1998-08-07 Sony Corp Image-pickup device and method thereof
JP2002288670A (en) * 2001-03-22 2002-10-04 Honda Motor Co Ltd Personal authentication device using facial image
JP2003536303A (en) * 2000-06-08 2003-12-02 ハネウェル・インターナショナル・インコーポレーテッド Near infrared camouflage detection
JP2005259049A (en) * 2004-03-15 2005-09-22 Omron Corp Face collation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10210486A (en) * 1997-01-21 1998-08-07 Sony Corp Image-pickup device and method thereof
JP2003536303A (en) * 2000-06-08 2003-12-02 ハネウェル・インターナショナル・インコーポレーテッド Near infrared camouflage detection
JP2002288670A (en) * 2001-03-22 2002-10-04 Honda Motor Co Ltd Personal authentication device using facial image
JP2005259049A (en) * 2004-03-15 2005-09-22 Omron Corp Face collation device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088113A (en) * 2013-11-01 2015-05-07 富士ゼロックス株式会社 Information processing device and program
JP2021037373A (en) * 2013-12-20 2021-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Measurement apparatus and measurement method
JP7246354B2 (en) 2013-12-20 2023-03-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Measuring device and measuring method
JP2017072889A (en) * 2015-10-05 2017-04-13 株式会社コムテック Wandering monitor system

Also Published As

Publication number Publication date
JP4561400B2 (en) 2010-10-13

Similar Documents

Publication Publication Date Title
JP2018093283A (en) Monitoring information gathering system
WO2021088417A1 (en) Movement state information display method and apparatus, electronic device and storage medium
CN110942055A (en) State identification method, device and equipment for display area and storage medium
JP2009042956A (en) Merchandise selling device, merchandise sales management system, merchandise sales management method, and program
JP6857840B2 (en) Management device, management method and management program
JP2011060058A (en) Imaging apparatus and monitoring system
JPWO2009142098A1 (en) Image processing apparatus, camera, image processing method and program
JP5541959B2 (en) Video recording system
BR112021011817A2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD AND PROGRAM
JP6951796B1 (en) Image recognition device, authentication system, image recognition method and program
JP4561400B2 (en) Monitoring device
KR101905630B1 (en) Building information provide system using sensor recognition of biilding number board
JP2006134008A (en) Business store system
JP2010231402A (en) Method and system for image display of monitoring device
JP6516702B2 (en) People count system, number count method, and view method of number count result
US10339174B2 (en) Automated location visit verification for officer monitoring systems
JP4790391B2 (en) Automatic transaction apparatus and monitoring system
JP7409437B2 (en) Information processing device, information processing method, and program
JP2004126711A (en) Person search system
JPWO2020115910A1 (en) Information processing systems, information processing devices, information processing methods, and programs
TW466452B (en) Method and apparatus for photographing/recognizing a face
JP2022058833A (en) Information processing system, information processing apparatus, information processing method, and program
CN111444831B (en) Method for recognizing human face through living body detection
JP2018151840A (en) System, method and program for collation
KR101355206B1 (en) A count system of coming and going using image analysis and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees