JP2008176413A - Authentication target notification system - Google Patents

Authentication target notification system Download PDF

Info

Publication number
JP2008176413A
JP2008176413A JP2007007385A JP2007007385A JP2008176413A JP 2008176413 A JP2008176413 A JP 2008176413A JP 2007007385 A JP2007007385 A JP 2007007385A JP 2007007385 A JP2007007385 A JP 2007007385A JP 2008176413 A JP2008176413 A JP 2008176413A
Authority
JP
Japan
Prior art keywords
authentication
unit
person
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007007385A
Other languages
Japanese (ja)
Other versions
JP4882755B2 (en
Inventor
Kenichi Hagio
健一 萩尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2007007385A priority Critical patent/JP4882755B2/en
Publication of JP2008176413A publication Critical patent/JP2008176413A/en
Application granted granted Critical
Publication of JP4882755B2 publication Critical patent/JP4882755B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To notify a user of a person to be authenticated without requiring the person to perform any operation for authentication. <P>SOLUTION: A face authentication sensor 4 of a sub-system 1 is provided with: an image pickup part; a featured value extraction part for extracting the face information of the target person from an image picked up by the image pickup part; and an authentication part for authenticating the target person by comparing the extracted face information of the target person with a template. The face authentication sensor 4 performs authentication, and transmits ID corresponding to the authenticated template as ID authentication data together with image data through the controller 10 and a home panel 2 to the control panel 3. In the control panel 3, a microcomputer part extracts the ID from the ID authentication data, and a liquid crystal display 320 of a display part displays the message corresponding to the extracted ID together with the face image picked up by the face authentication sensor 4, and a speaker part outputs the message as a voice message. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、人物の認証を行う認証対象者報知システムに関するものである。   The present invention relates to an authentication target person notification system that performs person authentication.

人物の認証を行う従来の認証システムとして、特許文献1には、認証対象者による認証のための操作を必要とせずに、対象空間を撮像して生成した画像から認証対象者の顔情報を抽出して登録人物であるか否かの認証を行う画像処理装置が開示されている。
特開2006−155422号公報(段落0018〜0048及び第1図)
As a conventional authentication system for authenticating a person, Patent Document 1 extracts face information of an authentication target person from an image generated by imaging the target space without requiring an operation for authentication by the authentication target person. Thus, an image processing apparatus that authenticates whether or not the person is a registered person is disclosed.
Japanese Patent Laying-Open No. 2006-155422 (paragraphs 0018 to 0048 and FIG. 1)

しかしながら、上記従来の認証システムには、認証対象者が誰であるのかをユーザに知らせることができないという問題があった。   However, the conventional authentication system has a problem in that it is impossible to notify the user who is the subject of authentication.

本発明は上記の点に鑑みて為されたものであり、その目的とするところは、認証対象者による認証のための操作を必要とせずに、認証対象者が誰であるのかをユーザに知らせることができる認証対象者報知システムを提供することにある。   The present invention has been made in view of the above points, and the purpose of the present invention is to notify the user of the person to be authenticated without requiring an operation for authentication by the person to be authenticated. An object of the present invention is to provide an authentication subject notification system.

請求項1の発明は、撮像機能を有する撮像手段と、前記撮像手段で撮像された画像から認証対象者の顔情報を抽出する抽出手段と、前記抽出手段で抽出された前記認証対象者の顔情報と予め登録されている登録人物の顔情報とを比較して当該認証対象者が当該顔情報に基づく登録人物であるか否かを判断する認証手段と、前記認証対象者が前記顔情報に基づく登録人物であると前記認証手段が判断したときに当該登録人物に応じたメッセージを報知する報知手段とを備えることを特徴とする。   According to the first aspect of the present invention, there is provided an imaging unit having an imaging function, an extraction unit that extracts face information of the authentication target person from an image captured by the imaging unit, and the face of the authentication target person extracted by the extraction unit Authentication means for comparing information and face information of a registered person registered in advance to determine whether the person to be authenticated is a registered person based on the face information; and And a notifying means for notifying a message corresponding to the registered person when the authentication means determines that the person is a registered person.

請求項1の発明によれば、登録人物に応じたメッセージを報知することによって、認証対象者による認証のための操作を必要とせずに、認証対象者が誰であるのかをユーザに知らせることができる。   According to the invention of claim 1, by notifying the message corresponding to the registered person, it is possible to notify the user of the person to be authenticated without requiring an operation for authentication by the person to be authenticated. it can.

(実施形態1)
まず、本発明の実施形態1に係る認証対象者報知システムの構成について図1〜5を用いて説明する。この認証対象者報知システムは人物の認証を行うものであり、図1に示すように、コントローラ10と顔認証センサ4とを有するサブシステム1と、サブシステム1と接続するホームパネル(統合管理装置)2と、ホームパネル2に接続されるコントロールパネル3とを備えている。
(Embodiment 1)
First, the structure of the authentication subject information system which concerns on Embodiment 1 of this invention is demonstrated using FIGS. This authentication target person notification system authenticates a person. As shown in FIG. 1, a subsystem 1 having a controller 10 and a face authentication sensor 4, and a home panel (integrated management apparatus) connected to the subsystem 1 ) 2 and a control panel 3 connected to the home panel 2.

上記サブシステム1のコントローラ10とホームパネル2とコントロールパネル3とは、例えばTCP/IPやUDP、HTTPなどの通信プロトコルを利用した宅内ネットワークを構成している。この宅内ネットワークは、100BASE−TX(IEEE 802.3u)規格に準拠したローカルエリアネットワーク(LAN)であって、ハブに相当するホームパネル2に、ネットワーク端末に相当するサブシステム1のコントローラ10及びコントロールパネル3がLANケーブル20,21を介してスター配線で接続されている。   The controller 10, the home panel 2, and the control panel 3 of the subsystem 1 constitute a home network using a communication protocol such as TCP / IP, UDP, and HTTP. This home network is a local area network (LAN) conforming to the 100BASE-TX (IEEE 802.3u) standard, and the home panel 2 corresponding to the hub has the controller 10 and the control of the subsystem 1 corresponding to the network terminal. Panel 3 is connected by star wiring via LAN cables 20 and 21.

サブシステム1は、屋外に設置されて対象空間を撮像する顔認証センサ4と、屋内に設置されて顔認証センサ4と電気的に接続するコントローラ10とを備えている。   The subsystem 1 includes a face authentication sensor 4 that is installed outdoors and images a target space, and a controller 10 that is installed indoors and is electrically connected to the face authentication sensor 4.

コントローラ10は、後述のID認証データ及び画像データを顔認証センサ4から受け取る受信機能と、受け取った画像データを所定の圧縮方式(例えば、動画像であればMPEG4、静止画像であればJPEG)で圧縮する圧縮機能と、圧縮した画像データをID認証データとともにホームパネル2を介してコントロールパネル3に転送する転送機能とを有する。   The controller 10 receives a later-described ID authentication data and image data from the face authentication sensor 4, and receives the received image data in a predetermined compression method (for example, MPEG4 for moving images and JPEG for still images). A compression function for compression, and a transfer function for transferring the compressed image data to the control panel 3 through the home panel 2 together with the ID authentication data.

顔認証センサ4は、図2に示すように、対象空間を撮像する撮像機能を有する撮像部40と、撮像部40で撮像された画像から認証対象者Aの顔情報を抽出する特徴量抽出部41と、特徴量抽出部41で抽出された認証対象者Aの顔情報と予め登録されている登録人物の顔情報とを比較して上記認証対象者Aが顔情報に基づく登録人物であるか否かを判断する認証部42とを備えている。   As shown in FIG. 2, the face authentication sensor 4 includes an imaging unit 40 having an imaging function for imaging the target space, and a feature amount extraction unit that extracts face information of the authentication target person A from the image captured by the imaging unit 40. 41, whether the authentication subject A is a registered person based on the face information by comparing the face information of the authentication subject A extracted by the feature amount extraction unit 41 with the face information of the registered person registered in advance. And an authentication unit 42 for determining whether or not.

撮像部40は、対象空間に光を照射する発光源43と、発光源43の照射機能を制御する制御回路部44と、対象空間を撮像する光検出素子45と、対象空間と光検出素子45の間に設置された受光光学系46と、光検出素子45の受光出力に基づく振幅画像を生成する画像生成部47とを備えている。   The imaging unit 40 includes a light emission source 43 that irradiates light to the target space, a control circuit unit 44 that controls the irradiation function of the light emission source 43, a light detection element 45 that images the target space, and a target space and a light detection element 45. And an image generation unit 47 that generates an amplitude image based on the light reception output of the light detection element 45.

発光源43は、例えば、多数個の発光ダイオードを一平面上に配列したものや、半導体レーザと発散レンズを組み合わせたものなどであり、制御回路部44から出力される所定の変調周波数の変調信号により点灯と消灯を交互に繰り返すように駆動される。ここで、発光源43が点灯と消灯を繰り返す周期を、人の目では認識できない程度の短い周期にする。つまり、発光源43は実際には点灯と消灯を繰り返しているが、人の目には連続して点灯しているように見えることになる。具体的には、変調信号には方形波を用い、変調周波数は10kHz〜100kHzから選択し、デューティは50%としてある。これにより、発光源43は10μs〜100μsの周期で点灯と消灯を同じ時間ずつ交互に繰り返す。なお、これらの数値は一例であり、変調周波数は適宜に設定可能である。   The light emission source 43 is, for example, one in which a large number of light emitting diodes are arranged on one plane or a combination of a semiconductor laser and a diverging lens, and a modulation signal having a predetermined modulation frequency output from the control circuit unit 44. Is driven to alternately turn on and off. Here, the cycle in which the light source 43 repeats turning on and off is set to a short cycle that cannot be recognized by human eyes. That is, the light source 43 is actually turned on and off repeatedly, but appears to be continuously turned on to human eyes. Specifically, a square wave is used for the modulation signal, the modulation frequency is selected from 10 kHz to 100 kHz, and the duty is 50%. Thereby, the light emission source 43 is alternately turned on and off alternately at the same time in a cycle of 10 μs to 100 μs. These numerical values are examples, and the modulation frequency can be set as appropriate.

発光源43から放射する光は赤外線又は可視光のどちらでもよい。赤外線を用いれば夜間でも発光源43の点灯に気付かれることがないので、監視カメラとして適した構成になる。一方、可視光を用いれば人が目で見るときの状態に近い画像を得ることができる。   The light emitted from the light emitting source 43 may be either infrared or visible light. If infrared rays are used, the light source 43 is not noticed even at night, so that the configuration is suitable as a surveillance camera. On the other hand, if visible light is used, it is possible to obtain an image close to a state when a person sees with eyes.

制御回路部44は発光源43に変調信号を出力するとともに、発光源43の点灯期間に後述の感光部450を高感度にした状態で後述の電荷集積部451に集積した電荷を受光出力として取り出す状態と、発光源43の消灯期間に感光部450を高感度にした状態で電荷集積部451に集積した電荷を受光出力として取り出す状態とを繰り返すように、後述の制御電極452への制御電圧の印加パターンを制御する。   The control circuit unit 44 outputs a modulation signal to the light source 43, and takes out, as a light reception output, charges accumulated in a charge accumulation unit 451 (described later) in a state where the photosensitive unit 450 (described later) is highly sensitive during the lighting period of the light source 43. The control voltage applied to the control electrode 452 (described later) is repeated so as to repeat the state and the state in which the charge accumulated in the charge accumulation unit 451 is taken out as the light receiving output while the photosensitive unit 450 is in high sensitivity during the light-off source 43 extinction period. Control the applied pattern.

光検出素子45は、1枚の半導体基板上に設定された2次元正方格子の格子点(例えば100個×100個)上のそれぞれに、電荷を生成する1個の感光部450と電荷を集積して保持する1個の電荷集積部451とで形成された受光素子を配列した構成である。それぞれの受光素子は、不純物が添加されたシリコンからなる半導体層(図示せず)と、半導体層の主表面の全面にわたって設けられたシリコン酸化膜からなる絶縁膜(図示せず)と、半導体層に絶縁膜を介して設けられた複数個の制御電極452とを備えている。この受光素子はMIS素子として知られた構造であるが、1個の受光素子として機能する領域に複数個の制御電極452を備える点で通常のMIS素子とは異なっている。絶縁膜及び制御電極452は、発光源43から対象空間に照射される光と同波長の光が透過するように材料が選択され、絶縁膜及び制御電極452を通して半導体層に光が入射すると、半導体層の内部に電荷が生成される。   The light detecting element 45 integrates the charge with one photosensitive unit 450 that generates charges on each of lattice points (for example, 100 × 100) of a two-dimensional square lattice set on one semiconductor substrate. In this configuration, the light receiving elements formed by one charge accumulating portion 451 to be held are arranged. Each light receiving element includes a semiconductor layer (not shown) made of silicon doped with impurities, an insulating film (not shown) made of a silicon oxide film provided over the entire main surface of the semiconductor layer, and a semiconductor layer. And a plurality of control electrodes 452 provided via an insulating film. This light receiving element has a structure known as a MIS element, but differs from a normal MIS element in that a plurality of control electrodes 452 are provided in a region functioning as one light receiving element. For the insulating film and the control electrode 452, a material is selected so that light having the same wavelength as the light irradiated to the target space from the light emitting source 43 is transmitted, and when light enters the semiconductor layer through the insulating film and the control electrode 452, the semiconductor Charge is generated inside the layer.

このような構造の受光素子では、制御電極452に正の制御電圧が印加されると、半導体層(図示せず)における制御電極452に対応する部位に、電子を集積するポテンシャル井戸(空乏層)(図示せず)が形成される。半導体層にポテンシャル井戸を形成するように制御電極452に制御電圧を印加した状態で半導体層に光が照射されると、ポテンシャル井戸の近傍に生成された電子の一部はポテンシャル井戸に集積され、残りの電子は半導体層の深部での再結合により消滅する。また、ポテンシャル井戸から離れた場所で生成された電子も半導体層の深部での再結合により消滅する。つまり、受光素子に光が照射されると、半導体層は感光部450として機能し、ポテンシャル井戸は電荷集積部451として機能する。   In the light receiving element having such a structure, when a positive control voltage is applied to the control electrode 452, a potential well (depletion layer) that accumulates electrons in a portion corresponding to the control electrode 452 in the semiconductor layer (not shown). (Not shown) is formed. When the semiconductor layer is irradiated with light with a control voltage applied to the control electrode 452 so as to form a potential well in the semiconductor layer, some of the electrons generated in the vicinity of the potential well are accumulated in the potential well, The remaining electrons are extinguished by recombination in the deep part of the semiconductor layer. In addition, electrons generated at a location away from the potential well are also extinguished by recombination in the deep part of the semiconductor layer. That is, when the light receiving element is irradiated with light, the semiconductor layer functions as the photosensitive portion 450 and the potential well functions as the charge accumulation portion 451.

上記のように、ポテンシャル井戸(図示せず)は、制御電圧が印加された制御電極452に対応する部位に形成されるから、制御電圧を印加する制御電極452の個数を変化させることにより半導体層(図示せず)の主表面(受光面)に沿ったポテンシャル井戸の面積を変化させることができる。また、半導体層で生成された電荷のうちポテンシャル井戸に集積される電荷の割合は、ポテンシャル井戸の面積が大きいほど多くなり、その結果、ポテンシャル井戸の面積を大きくするほど感光部450の感度が高くなる。   As described above, since the potential well (not shown) is formed at a portion corresponding to the control electrode 452 to which the control voltage is applied, the semiconductor layer is changed by changing the number of the control electrodes 452 to which the control voltage is applied. The area of the potential well along the main surface (light receiving surface) of (not shown) can be changed. In addition, the ratio of the charges accumulated in the potential well among the charges generated in the semiconductor layer increases as the area of the potential well increases. As a result, the sensitivity of the photosensitive portion 450 increases as the area of the potential well increases. Become.

例えば、それぞれの受光素子において、1列に並んだ5個の制御電極452のうち、内側3個の制御電極452に正の制御電圧を印加し両側2個の制御電極452には電圧を印加しない(0V)場合と、中央1個の制御電極452のみに正の制御電圧を印加し残り4個の制御電極452には電圧を印加しない(0V)場合とでは、3個の制御電極452に正の制御電圧を印加する場合のほうが、電荷集積部451であるポテンシャル井戸の面積が大きくなる。したがって、3個の制御電極452に正の制御電圧を印加した場合のほうが、中央1個の制御電極452のみに正の制御電圧を印加した場合に比べて、同じ光量に対してポテンシャル井戸に集積される電荷の割合が多くなり、実質的に感光部450の感度を高めたことになる。   For example, in each light receiving element, a positive control voltage is applied to the inner three control electrodes 452 out of the five control electrodes 452 arranged in a row, and no voltage is applied to the two control electrodes 452 on both sides. The positive control voltage is applied only to the central one control electrode 452 and no voltage is applied to the remaining four control electrodes 452 (0V), and the three control electrodes 452 are positive. When the control voltage is applied, the area of the potential well, which is the charge accumulation portion 451, becomes larger. Therefore, when the positive control voltage is applied to the three control electrodes 452, the same amount of light is integrated in the potential well as compared with the case where the positive control voltage is applied only to the central one control electrode 452. As a result, the ratio of the charged electric charge increases and the sensitivity of the photosensitive portion 450 is substantially increased.

電荷集積部451に集積した電荷を転送して取り出すための構成として、フレーム転送型のCCDと同様の構成又はインターライン型のCCDと同様の構成を採用することができる。フレーム転送型のCCDと同様の構成を採用する場合、制御電極452に印加する制御電圧の印加パターンを制御することによって電荷を転送することになるから、電荷集積部451に電荷を集積する集積期間とは異なる取出期間において電荷集積部451の電荷を取り出すことができるように制御電極452に印加する制御電圧を制御すればよく、半導体層は制御電極452とともに電荷取出部453としても機能する。   As a configuration for transferring and extracting charges accumulated in the charge accumulation unit 451, a configuration similar to a frame transfer type CCD or a configuration similar to an interline type CCD can be employed. When a configuration similar to that of the frame transfer type CCD is adopted, charges are transferred by controlling the application pattern of the control voltage applied to the control electrode 452, and therefore, an integration period in which charges are accumulated in the charge accumulation unit 451. The control voltage applied to the control electrode 452 may be controlled so that the charge of the charge accumulating portion 451 can be taken out during a different extraction period, and the semiconductor layer also functions as the charge extraction portion 453 together with the control electrode 452.

受光光学系46は光検出素子45の各受光素子に対象空間を投影するために設けられている。つまり、受光光学系46は、光検出素子45において受光素子を配列した2次元平面に対象空間である3次元空間をマッピングする。これにより、光検出素子45には受光光学系46を通して光が入射し、光検出素子45から受光光学系46を通して見る視野内に存在する認証対象者Aが受光素子に対応付けられる。   The light receiving optical system 46 is provided to project the target space onto each light receiving element of the light detecting element 45. That is, the light receiving optical system 46 maps the three-dimensional space as the target space on the two-dimensional plane in which the light receiving elements are arranged in the light detecting element 45. As a result, light enters the light detection element 45 through the light receiving optical system 46, and the authentication target person A existing in the visual field viewed from the light detection element 45 through the light receiving optical system 46 is associated with the light receiving element.

画像生成部47は、光検出素子45の各感光部450からの受光出力を用いて、撮像部40で撮像された画像(動画像又は静止画像)に関する画像データを作成する。上記画像は認証対象者Aの顔画像を含んだものである。この画像データは特徴量抽出部41、後述の類似度演算部421及び人物認識部422を介してコントローラ10に送信される。   The image generation unit 47 generates image data related to an image (moving image or still image) captured by the imaging unit 40 using the light reception output from each photosensitive unit 450 of the light detection element 45. The image includes the face image of the person A to be authenticated. This image data is transmitted to the controller 10 via the feature amount extraction unit 41, a similarity calculation unit 421 and a person recognition unit 422, which will be described later.

また、画像生成部47は、上記画像データの作成とは別に、発光源43の点灯期間の受光出力と消灯期間の受光出力との差分(発光源43から対象空間へ光を照射したときの各感光部450の受光出力と発光源43から対象空間へ光を照射していないときの各感光部450の受光出力との差分)を感光部450ごとに画素値として算出して、振幅画像を生成する。ここでは説明を単純にするために、1回の点灯期間における受光出力Aaを点灯期間の受光出力とし、1回の消灯期間における受光出力Abを消灯期間の受光出力としている。   In addition to the creation of the image data, the image generation unit 47 calculates the difference between the light reception output during the lighting period of the light emission source 43 and the light reception output during the extinction period (each when the light is emitted from the light emission source 43 to the target space. The difference between the light reception output of the photosensitive unit 450 and the light reception output of each photosensitive unit 450 when no light is emitted from the light source 43 is calculated as a pixel value for each photosensitive unit 450 to generate an amplitude image. To do. Here, for simplicity of explanation, the light receiving output Aa in one lighting period is the light receiving output in the lighting period, and the light receiving output Ab in one lighting period is the light receiving output in the extinguishing period.

ここで、発光源43の消灯期間において感光部450に入射する光の強度は環境光の強度に相当する。つまり、環境光の強度は、結果的に消灯期間における受光出力Abに対応する。発光源43の点灯期間の受光出力Aaと消灯期間の受光出力Abとの差分(Aa−Ab)を求めることにより、環境光の影響を除去して発光源43から対象空間に照射された光の成分のみを抽出することができる。この差分(Aa−Ab)を各受光素子の位置に対応付けた画像が振幅画像になる。この差分(Aa−Ab)は、隣接した点灯期間の受光出力Aaと消灯期間(点灯期間の直後の消灯期間)の受光出力Abとから求めており、差分(Aa−Ab)を求める点灯期間と消灯期間を合わせた程度の期間では環境光の強度は実質的に変化がないものとみなしている。したがって、点灯期間と消灯期間とにおける環境光による受光出力は相殺され、発光源43から対象空間に照射されて認証対象者Aで反射された反射光に対応する受光出力のみが残り、結果的に、振幅画像では、認証対象者Aのみを強調した画像を得ることができる。画像生成部47で生成された振幅画像は特徴量抽出部41に与えられる。   Here, the intensity of light incident on the photosensitive portion 450 during the extinguishing period of the light source 43 corresponds to the intensity of ambient light. That is, the intensity of the ambient light corresponds to the light reception output Ab in the extinguishing period as a result. By obtaining the difference (Aa−Ab) between the light receiving output Aa during the lighting period of the light emitting source 43 and the light receiving output Ab during the extinguishing period, the influence of the ambient light is removed, and the light emitted from the light emitting source 43 to the target space Only the components can be extracted. An image in which this difference (Aa−Ab) is associated with the position of each light receiving element is an amplitude image. The difference (Aa−Ab) is obtained from the light reception output Aa in the adjacent lighting period and the light reception output Ab in the extinguishing period (extinguishing period immediately after the lighting period), and the lighting period for obtaining the difference (Aa−Ab) It is considered that the intensity of the ambient light does not substantially change during the period corresponding to the turn-off period. Therefore, the light reception output by the ambient light in the lighting period and the light extinction period is canceled out, and only the light reception output corresponding to the reflected light that is irradiated from the light source 43 to the target space and reflected by the authentication subject A remains. In the amplitude image, an image in which only the authentication subject A is emphasized can be obtained. The amplitude image generated by the image generation unit 47 is given to the feature amount extraction unit 41.

特徴量抽出部41は、画像生成部47で生成された振幅画像の振幅値から求められる各画素の微分強度値である振幅微分値を画素値とする振幅微分画像を生成する機能と、この振幅微分画像を規定の閾値で2値化した画像からなる出力画像を生成する機能と、この出力画像から対象空間内に存在する認証対象者Aの顔の特徴量を顔情報として抽出する機能とを有する。   The feature quantity extraction unit 41 generates an amplitude differential image having an amplitude differential value that is a differential intensity value of each pixel obtained from the amplitude value of the amplitude image generated by the image generation unit 47 as a pixel value, and the amplitude A function of generating an output image composed of an image obtained by binarizing the differential image with a prescribed threshold value, and a function of extracting the feature amount of the face of the authentication target person A existing in the target space from the output image as face information. Have.

ここで、認証対象者Aの顔の特徴量を抽出する技術について説明すると、振幅画像から振幅微分画像を作成したときに、目、鼻、口などは頬や額などに比べて振幅微分値が大きくなるので、振幅微分画像を2値化した場合、出力画像において、目、鼻、口及び顔の輪郭のみを抽出することが可能となる。したがって、出力画像において目、鼻、口などの各部位の端点を抽出することによって、認証対象者Aの顔の特徴点を抽出することができ、これらの特徴点の位置関係を用いて顔認証を行うことができる。   Here, a technique for extracting the facial feature amount of the person A to be authenticated will be described. When an amplitude differential image is created from the amplitude image, the amplitude differential value of the eyes, nose, mouth, etc. is higher than that of the cheek or forehead. Therefore, when the amplitude differential image is binarized, it is possible to extract only the contours of eyes, nose, mouth and face in the output image. Therefore, the feature points of the face of the person A to be authenticated can be extracted by extracting the end points of each part such as eyes, nose and mouth in the output image, and the face authentication is performed using the positional relationship between these feature points. It can be performed.

より具体的に説明すると、振幅画像の画像座標系は、振幅画像の左上を原点として、x軸の正方向(x方向)を水平右方向、y軸の正方向(y方向)を鉛直下方向とする左手系座標系とし、特徴量抽出部41は、マスクサイズが3×3画素のソーベルフィルタ(x方向のソーベルフィルタ及びy方向のソーベルフィルタのそれぞれに振幅画像上の重み係数が設定されている)を振幅画像の全ての画素に適用して局所空間微分を行い、振幅画像の振幅値から求められる各画素の振幅微分値を画素とする振幅微分画像を生成し、この振幅微分画像を閾値で2値化して得られた出力画像から認証対象者Aの顔の特徴量を抽出する。   More specifically, in the image coordinate system of the amplitude image, the upper left of the amplitude image is the origin, the positive direction of the x axis (x direction) is the horizontal right direction, and the positive direction of the y axis (y direction) is the vertical downward direction. The feature quantity extraction unit 41 uses a Sobel filter with a mask size of 3 × 3 pixels (a weight coefficient on an amplitude image is assigned to each of the Sobel filter in the x direction and the Sobel filter in the y direction). Is applied to all the pixels of the amplitude image, local spatial differentiation is performed, and an amplitude differential image is generated with the amplitude differential value of each pixel obtained from the amplitude value of the amplitude image as a pixel. A feature amount of the face of the person A to be authenticated is extracted from an output image obtained by binarizing the image with a threshold value.

振幅画像の画素(u,v)における振幅微分値を|G(u,v)|とすれば、振幅微分値|G(u,v)|は、振幅画像における1つの注目画素に隣接する8画素(注目画素の8近傍)の画素値(振幅値)を用いて求められる値である。ここにおいて、注目画素を中心とする3×3画素の局所領域(矩形領域)における各画素の画素値を左上から右方向にa〜c、左中から右方向にd〜f、左下から右方向にg〜iとすれば、振幅微分値|G(u,v)|は、x方向の微分値dx及びy方向の微分値dyを用いて下記の(式1)で表される。
|G(u,v)|={(dx(u,v)+dy(u,v)}1/2 (式1)
ただし、
dx(u,v)=(c+2f+i)−(a+2d+g) (式2)
dy(u,v)=(g+2h+i)−(a+2b+c) (式3)
(式1)によって求めた振幅微分値|G(u,v)|を画素値に持つ振幅微分画像においては、振幅画像における振幅差の大きい部位ほど振幅微分値|G(u,v)|が大きくなる。
If the amplitude differential value at the pixel (u, v) of the amplitude image is | G (u, v) |, the amplitude differential value | G (u, v) | is adjacent to one target pixel in the amplitude image. This is a value obtained using the pixel value (amplitude value) of the pixel (near 8 of the target pixel). Here, the pixel values of each pixel in a 3 × 3 pixel local area (rectangular area) centered on the target pixel are indicated as a to c from the upper left to the right, df from the middle left to the right, and from the lower left to the right. If g to i, the amplitude differential value | G (u, v) | is expressed by the following (formula 1) using the differential value dx in the x direction and the differential value dy in the y direction.
| G (u, v) | = {(dx 2 (u, v) + dy 2 (u, v)} 1/2 (Formula 1)
However,
dx (u, v) = (c + 2f + i) − (a + 2d + g) (Formula 2)
dy (u, v) = (g + 2h + i) − (a + 2b + c) (Formula 3)
In an amplitude differential image having an amplitude differential value | G (u, v) | obtained by (Equation 1) as a pixel value, the amplitude differential value | G (u, v) | growing.

認証部42は、テンプレート作成記憶部420と、類似度演算部421と、人物認識部422とを備えている。   The authentication unit 42 includes a template creation storage unit 420, a similarity calculation unit 421, and a person recognition unit 422.

テンプレート作成記憶部420は、通常動作モードとテンプレート作成モードを選択的に設定する動作モード設定部(図示せず)でテンプレート作成モードが設定されている状態において、光検出素子45により対象空間内の人物を撮像したときに、特徴量抽出部41により抽出された人物の顔の特徴量に基づいてテンプレートを作成し、作成したテンプレートを登録人物のテンプレートとしてIDに対応させて登録保持(記憶)する。この動作を繰り返して、複数の登録人物のテンプレートを作成する。例えば、家族の場合、お父さんのテンプレートをID=1に対応させ、お母さんのテンプレートをID=2に対応させて登録保持する。   The template creation storage unit 420 is set in the target space by the light detection element 45 in a state where the template creation mode is set by an operation mode setting unit (not shown) that selectively sets the normal operation mode and the template creation mode. When a person is imaged, a template is created based on the feature amount of the person's face extracted by the feature amount extraction unit 41, and the created template is registered and held (stored) as a registered person template in association with the ID. . This operation is repeated to create a plurality of registered person templates. For example, in the case of a family, the father's template is associated with ID = 1, and the mother's template is associated with ID = 2.

類似度演算部421は、動作モード設定部(図示せず)で通常動作モードが設定されている状態において、特徴量抽出部41により抽出された認証対象者Aの顔の特徴量をテンプレート作成記憶部420に登録保持されている複数のテンプレートのそれぞれと照合して類似度を算出する。   The similarity calculation unit 421 creates a template for storing the facial feature amount of the person A to be authenticated extracted by the feature amount extraction unit 41 in a state where the normal operation mode is set by the operation mode setting unit (not shown). The similarity is calculated by collating with each of the plurality of templates registered and held in the unit 420.

人物認識部422は、類似度演算部421で算出された類似度が所定値以上になると、光検出素子45により撮像された認証対象者Aがテンプレートに相当する登録人物であることを認証する。逆に、類似度演算部421で算出された類似度が上記所定値未満の場合、人物認識部422は、光検出素子45により撮像された認証対象者Aが登録人物とは認証しない。上記人物認識部422は、図5に示すように、認証したテンプレートのID(図5の例ではID=1)を含むID認証データを作成し、作成したID認証データをコントローラ10(図1参照)に送信する。また、人物認識部422は、画像生成部47で作成された画像データもコントローラ10に送信する。   When the similarity calculated by the similarity calculation unit 421 exceeds a predetermined value, the person recognition unit 422 authenticates that the authentication target person A imaged by the light detection element 45 is a registered person corresponding to the template. On the other hand, when the similarity calculated by the similarity calculation unit 421 is less than the predetermined value, the person recognition unit 422 does not authenticate the authentication target person A captured by the light detection element 45 as a registered person. As shown in FIG. 5, the person recognizing unit 422 creates ID authentication data including the ID of the authenticated template (ID = 1 in the example of FIG. 5), and uses the created ID authentication data as the controller 10 (see FIG. 1). ). The person recognition unit 422 also transmits the image data created by the image generation unit 47 to the controller 10.

上記より、図2に示す顔認証センサ4では、登録したい人物のテンプレートを予め作成しておき、その後、通常動作モードにおいて生成された振幅微分画像を規定の閾値で2値化した出力画像とテンプレートとのパターンマッチングを行って類似度を算出し、算出した類似度に基づいて認証対象者Aが登録人物であることを認証することができる。   From the above, in the face authentication sensor 4 shown in FIG. 2, a template of a person to be registered is created in advance, and then, an output image and a template obtained by binarizing the amplitude differential image generated in the normal operation mode with a prescribed threshold value And the degree of similarity can be calculated, and based on the calculated degree of similarity, it can be authenticated that the person A to be authenticated is a registered person.

続いて、ホームパネル2について図1を用いて説明する。ホームパネル2は、LANケーブル20を介してサブシステム1のコントローラ10が接続される第1の通信ポート(図示せず)と、LANケーブル21を介してコントロールパネル3が接続される第2の通信ポート(図示せず)と、2つの通信ポート間で転送されるパケットの破棄及び各通信ポートの遮断や制限などの処理(以下「パケット処理」という)を実行するパケット処理部(図示せず)と、CPUを主構成要素としパケット処理部を制御して伝送経路を切り換えさせる経路切換機能やパケットに対するウイルスチェック、フィルタリングなどを実行するネットワークセキュリティ機能、サブシステム1の構成管理機能などを有する制御部(図示せず)と、コントローラ10やコントロールパネル3のMAC(Media Access Control:媒体アクセス制御)アドレスやネットワークアドレス(プライベートのIPアドレス)、サブシステム1に関する制御情報や監視情報を記憶するための記憶部(図示せず)とを備えている。   Next, the home panel 2 will be described with reference to FIG. The home panel 2 includes a first communication port (not shown) to which the controller 10 of the subsystem 1 is connected via the LAN cable 20 and a second communication to which the control panel 3 is connected via the LAN cable 21. A packet processing unit (not shown) that performs processing (hereinafter referred to as “packet processing”) such as discarding of packets transferred between a port (not shown) and two communication ports and blocking or limiting of each communication port And a control unit having a CPU as a main component, a path switching function for controlling the packet processing unit to switch the transmission path, a network security function for executing virus check and filtering on the packet, a configuration management function for the subsystem 1, etc. (Not shown) and the MAC (Media Acc) of the controller 10 or the control panel 3 ss Control: Media Access Control) address or network address (private IP address), and a storage unit for storing control information and monitoring information on the subsystem 1 (not shown).

それぞれの通信ポート(図示せず)は、LANケーブル20,21の先端に設けられているRJ−45のモジュラプラグが挿抜自在に接続されるモジュラジャックを備えている。また、パケット処理部(図示せず)は多数のスイッチ要素を備え、制御部(図示せず)の経路切換機能によってスイッチ要素が駆動されることにより任意の通信ポートと他の通信ポートとの間の伝送経路を切り換えたり、又は制御部のネットワークセキュリティ機能によって異常(例えば、不正なパケットやネットワークに支障を来すほど大量のパケットの流入又は流出)が生じている通信ポートを遮断又は制限したりするものである。記憶部(図示せず)は不揮発性メモリからなり、通信ポートに接続されているコントローラ10やコントロールパネル3のMACアドレスやネットワークアドレスを各通信ポートと対応させて記憶している。また、コントローラ10やコントロールパネル3のネットワークアドレス、すなわち、プライベートのIPアドレスについては、制御部がDHCP(Dynamic Host Configuration Protocol)を用いて自動的に割り当てるようになっている。   Each communication port (not shown) includes a modular jack to which a modular plug of RJ-45 provided at the tip of the LAN cables 20 and 21 is detachably connected. Further, the packet processing unit (not shown) includes a large number of switch elements, and the switch element is driven by the path switching function of the control unit (not shown), so that an arbitrary communication port is connected with another communication port. Or switching or restricting communication ports where abnormalities (for example, inflow or outflow of invalid packets or a large amount of packets that may interfere with the network) are caused by the network security function of the control unit. To do. The storage unit (not shown) includes a nonvolatile memory, and stores the MAC address and network address of the controller 10 and the control panel 3 connected to the communication port in association with each communication port. Further, the network address of the controller 10 or the control panel 3, that is, the private IP address is automatically assigned by the control unit using DHCP (Dynamic Host Configuration Protocol).

制御部(図示せず)は、通信ポート(図示せず)からパケット処理部(図示せず)に入ってくるパケットの送信先のアドレス(MACアドレス)を監視している。また、制御部では、通信ポートを通過するパケットを常時監視し、異常なパケットを破棄したり、パケット処理部を制御して異常が生じている通信ポートを遮断又は制限させたりしている(ネットワークセキュリティ機能)。さらに、制御部はUPnP(ユニバーサル・プラグ・アンド・プレイ)のコントロールポイントの機能を実装しており、UPnPにおいてデバイスの検出を行うSSDP(Simple Service Discovery Protocol)を利用してUPnPのデバイスに相当するコントローラ10を自動的に検出する。   A control unit (not shown) monitors a transmission destination address (MAC address) of a packet that enters a packet processing unit (not shown) from a communication port (not shown). In addition, the control unit constantly monitors packets passing through the communication port, discards abnormal packets, or controls the packet processing unit to block or limit communication ports in which an abnormality has occurred (network Security function). Furthermore, the control unit is equipped with a UPnP (Universal Plug and Play) control point function, and corresponds to a UPnP device using SSDP (Simple Service Discovery Protocol) that detects a device in UPnP. The controller 10 is automatically detected.

また、ホームパネル2は、合成樹脂成形品からなる箱形のハウジング(図示せず)に上述した各部を収納して構成されているが、このハウジングは住宅内の壁面に設置されている住宅用分電盤(住宅盤)に収納可能となっている。ただし、上記ハウジングの構造は一例であって、必ずしも住宅盤に収納される必要はない。   Further, the home panel 2 is configured by housing the above-described parts in a box-shaped housing (not shown) made of a synthetic resin molded product, and this housing is for a house installed on a wall surface in a house. It can be stored in a distribution board (residential board). However, the structure of the housing is an example, and it is not always necessary to be housed in a housing board.

さらにホームパネル2は、インターネット22に接続するための回線の種類(電話回線、CATV回線、光ファイバ回線など)に応じてADSLモデムやケーブルモデム又はONU(Optical Network Unit)(図示せず)などと接続している。その結果、宅内ネットワークが外部ネットワークのインターネット22に接続される。   Further, the home panel 2 is connected to the Internet 22 according to the type of line (telephone line, CATV line, optical fiber line, etc.), ADSL modem, cable modem, ONU (Optical Network Unit) (not shown), etc. Connected. As a result, the home network is connected to the Internet 22 of the external network.

続いて、コントロールパネル3について説明する。コントロールパネル3は屋内の壁面に埋込配設されるものであって、図3に示すように、マイコンを主構成要素とするマイコン部30と、宅内ネットワークのLANケーブル21が接続されマイコン部30と宅内ネットワークのインタフェースを行うLANインタフェース部31と、液晶ディスプレイ320(図1参照)及びこのドライバ回路を有する表示部32と、液晶ディスプレイ320の画面上に配設されたタッチパネルや押釦スイッチ(図示せず)を有して操作入力を受け付ける操作部33と、マイコンで実行するプログラムや種々のデータを記憶するメモリ部34と、スピーカ及びこの駆動回路を有するスピーカ部35とを備えている。また、図示は省略しているが、商用電源から所望の直流電源を作成してマイコン部30やその他の各部31〜35に動作電源を供給するための電源回路も備えている。   Next, the control panel 3 will be described. The control panel 3 is embedded in an indoor wall surface. As shown in FIG. 3, a microcomputer unit 30 having a microcomputer as a main component and a LAN cable 21 of a home network are connected to the microcomputer unit 30. A LAN interface unit 31 for interfacing with a home network, a liquid crystal display 320 (see FIG. 1) and a display unit 32 having this driver circuit, and a touch panel and push button switches (not shown) arranged on the screen of the liquid crystal display 320 And a memory unit 34 for storing programs to be executed by a microcomputer and various data, and a speaker unit 35 having a speaker and this drive circuit. Although not shown, a power supply circuit is also provided for generating a desired DC power supply from a commercial power supply and supplying operation power to the microcomputer unit 30 and other units 31 to 35.

また、コントロールパネル3は、図1に示すように、矩形箱形の合成樹脂成形品からなるハウジング36の内部に各部30〜35(図3参照)が収納されて構成されており、表示部32の液晶ディスプレイ320の画面がハウジング36前面の中央に配置されている。液晶ディスプレイ320の画面には操作部33が有するタッチパネルが一体に設けられている(図4参照)。ハウジング36前面の左寄りには、スピーカ部35からの音声メッセージをハウジング36の外に放射するための多数の孔360がマトリクス状に並べて貫設されている。また、ハウジング36前面の右寄りには、操作部33が具備する複数の押釦スイッチ(図示せず)を押操作するための操作釦330〜333が縦1列に並べて配設されている。なお、図示は省略するが、ハウジング36の背面にはLANインタフェース部31が有するモジュラジャックの差込口と、商用電源からの電源線が接続される端子部の電線挿入孔とが露出している。   Further, as shown in FIG. 1, the control panel 3 is configured by housing each part 30 to 35 (see FIG. 3) inside a housing 36 made of a rectangular box-shaped synthetic resin molded product. The screen of the liquid crystal display 320 is arranged in the center of the front surface of the housing 36. A touch panel of the operation unit 33 is integrally provided on the screen of the liquid crystal display 320 (see FIG. 4). A large number of holes 360 for radiating voice messages from the speaker unit 35 to the outside of the housing 36 are arranged in a matrix on the left side of the front surface of the housing 36. Further, on the right side of the front surface of the housing 36, operation buttons 330 to 333 for operating a plurality of push button switches (not shown) provided in the operation unit 33 are arranged in one vertical row. Although not shown, the rear surface of the housing 36 exposes a modular jack insertion port of the LAN interface unit 31 and a wire insertion hole of a terminal unit to which a power line from a commercial power source is connected. .

図3に示すメモリ部34には、IDごとにメッセージが記憶されているとともに、メッセージを音声メッセージとして出力するときの音声に関する音声データ、つまり、例えば家族それぞれの声の特徴が圧縮されたパラメータ(HMMなど)である音声データが記憶されている。図5を用いて一例を説明すると、ID=1にはメッセージとして「お父さんが帰宅しました」が記憶され、「お父さん」の声を表現する音声データが記憶されている。ID=2にはメッセージとして「お母さんが帰宅しました」が記憶され、「お母さん」の声を表現する音声データが記憶されている。ID=3以降についても同様である。各音声データは、その人物による実際の発声に基づいて作成されたものである。なお、音声データに代えて、口調に関する口調データを用いてもよい。   In the memory unit 34 shown in FIG. 3, a message is stored for each ID, and voice data related to voice when the message is output as a voice message, that is, a parameter (for example, a parameter in which the voice characteristics of each family are compressed) Audio data such as an HMM) is stored. An example will be described with reference to FIG. 5. In ID = 1, “Dad has returned home” is stored as a message, and voice data expressing the voice of “Dad” is stored. In ID = 2, “Mom has returned home” is stored as a message, and voice data expressing the voice of “Mom” is stored. The same applies to ID = 3 and later. Each voice data is created based on an actual utterance by the person. Note that tone data related to tone may be used instead of the voice data.

マイコン部30は、図5に示すように、顔認証センサ4からのID認証データに含まれているID(図5の例ではID=1)に対応するメッセージ(図5の例では「お父さんが帰宅しました」)及びメッセージの音声を自動で切り替えて音声信号データを作成する。   As shown in FIG. 5, the microcomputer unit 30 displays a message corresponding to the ID (ID = 1 in the example of FIG. 5) included in the ID authentication data from the face authentication sensor 4. I have returned home ”) and automatically switch the voice of the message to create voice signal data.

図3に示すスピーカ部35は、マイコン部30で作成された音声信号データをアナログ音声信号に変換し、スピーカによって、上記アナログ音声信号を再生して、認証対象者Aの音声で音声メッセージを出力する。なお、音声出力をするかしないかは、ユーザが操作部33で設定できるようにしてもよいし、IDごとに予め設定してメモリ部34に記憶させておいてもよい。   The speaker unit 35 shown in FIG. 3 converts the audio signal data created by the microcomputer unit 30 into an analog audio signal, reproduces the analog audio signal through the speaker, and outputs an audio message with the voice of the person A to be authenticated. To do. Note that whether or not to output audio may be set by the user using the operation unit 33, or may be set in advance for each ID and stored in the memory unit 34.

上記音声メッセージの報知と同時に、表示部32の液晶ディスプレイ320には、図4に示すように、顔認証センサ4の撮像部40(図2参照)で撮像された認証対象者A(図4の例では「お父さん」)の顔画像が含まれた画像とともに、メッセージ(図4の例では「お父さんが帰宅しました」)が表示される。液晶ディスプレイ320上の「了解」のタッチパネルに触れると、メッセージ及び画像を閉じる。また、予め設定された時間が経過したときも、メッセージ及び画像を閉じる。   Simultaneously with the notification of the voice message, on the liquid crystal display 320 of the display unit 32, as shown in FIG. 4, the person A to be authenticated (shown in FIG. 4) captured by the imaging unit 40 of the face authentication sensor 4 (see FIG. 2). A message (in the example of FIG. 4, “Dad has returned home”) is displayed together with an image including the face image of “Dad” in the example. When the “OK” touch panel on the liquid crystal display 320 is touched, the message and the image are closed. The message and image are also closed when a preset time has elapsed.

上記より、認証対象者Aが顔情報に基づく登録人物であると顔認証センサ4の認証部42が認証した場合に、コントロールパネル3は、上記登録人物に応じたメッセージを報知することができる。   From the above, when the authentication unit 42 of the face authentication sensor 4 authenticates that the person A to be authenticated is a registered person based on face information, the control panel 3 can notify a message corresponding to the registered person.

次に、実施形態1の認証対象者報知システムの動作について図5を用いて説明する。ここでは、家族のうちお父さんが帰宅した場合を例にして説明する。まず、顔認証センサ4(図1参照)が認証を行い、認証したテンプレートに対応するID(例えばID=1)をID認証データとして画像データとともにコントローラ10(図1参照)に送信する。コントローラ10は顔認証センサ4からID認証データ及び画像データを取得し、画像データを圧縮し、圧縮した画像データ及びID認証データをコントロールパネル3(図1参照)にホームパネル2(図1参照)を介して送信する。コントロールパネル3では、マイコン部30(図3参照)がID認証データからID(ID=1)を抽出し、抽出したIDに対応するメッセージ(「お父さんが帰宅しました」)を、顔認証センサ4で撮像されたお父さんの顔画像とともに表示部32の液晶ディスプレイ320(図1参照)に表示させ、さらに上記メッセージを音声メッセージとしてスピーカ部35に出力させる。なお、家族の他の登録人物(お母さんなど)が帰宅した場合も同様の動作を行う。   Next, the operation of the authentication subject notification system according to the first embodiment will be described with reference to FIG. Here, a case where a father returns home from the family will be described as an example. First, the face authentication sensor 4 (see FIG. 1) performs authentication, and an ID (for example, ID = 1) corresponding to the authenticated template is transmitted as ID authentication data to the controller 10 (see FIG. 1) together with image data. The controller 10 acquires ID authentication data and image data from the face authentication sensor 4, compresses the image data, and sends the compressed image data and ID authentication data to the control panel 3 (see FIG. 1) and the home panel 2 (see FIG. 1). To send through. In the control panel 3, the microcomputer unit 30 (see FIG. 3) extracts the ID (ID = 1) from the ID authentication data, and sends a message corresponding to the extracted ID (“Dad has returned home”) to the face authentication sensor 4 The image is displayed on the liquid crystal display 320 (see FIG. 1) of the display unit 32 together with the face image of the father imaged in step S1, and the message is output to the speaker unit 35 as a voice message. The same operation is performed when another registered person (such as a mother) in the family returns home.

以上、実施形態1によれば、メッセージをコントロールパネル3の液晶ディスプレイ320に表示することによって、認証対象者Aによる認証のための操作を必要とせずに、認証対象者Aが誰であるのかをユーザに視覚的に知らせることができる。また、メッセージをコントロールパネル3のスピーカ部35から音声で出力することによって、ユーザに聴覚的に知らせることができる。これにより、コントロールパネル3から離れた場所にいる人にも、認証対象者Aが誰であるのかを知らせることができる。   As described above, according to the first embodiment, by displaying a message on the liquid crystal display 320 of the control panel 3, it is possible to determine who the authentication target person A is without requiring an authentication operation by the authentication target person A. The user can be notified visually. Further, by outputting a message by voice from the speaker unit 35 of the control panel 3, it is possible to inform the user audibly. As a result, it is possible to notify the person who is away from the control panel 3 who is the person A to be authenticated.

また、認証対象者Aは顔認証センサ4に接触する必要がないので、認証対象者Aが顔認証センサ4から離れた位置にいても認証することができる。これにより、認証対象者Aが指紋認証機器に接触することを必要とする指紋認証の場合より早くメッセージを報知することができる。   Further, since the authentication target person A does not need to contact the face authentication sensor 4, the authentication target person A can be authenticated even if the authentication target person A is away from the face authentication sensor 4. As a result, the message can be notified earlier than in the case of fingerprint authentication that requires the authentication subject person A to contact the fingerprint authentication device.

さらに、認証対象者Aの顔画像とメッセージの両方をコントロールパネル3で報知することによって、ユーザは、認証対象者Aが誰であるのかをより確実に確認することができる。   Furthermore, by notifying both the face image and the message of the authentication subject person A on the control panel 3, the user can more surely confirm who the authentication subject person A is.

(実施形態2)
まず、本発明の実施形態2に係る認証対象者報知システムの構成について図6を用いて説明する。この認証対象者報知システムはインターホンシステムであり、顔認証センサ4aと、屋外に設置されたドアホン子器5と、屋内に設置されてドアホン子器5との間で通話する通話機能及び顔認証センサ4aで撮像された画像を表示する機能を有するインターホン親機3aとを備えている。
(Embodiment 2)
First, the configuration of the authentication subject notification system according to Embodiment 2 of the present invention will be described with reference to FIG. This authentication target person notification system is an intercom system, and includes a face authentication sensor 4a, a doorphone slave unit 5 installed outdoors, and a telephone call function and a face authentication sensor that communicates with a doorphone slave unit 5 installed indoors. And an intercom base unit 3a having a function of displaying an image picked up by 4a.

顔認証センサ4aはドアホン子器5と接続し、実施形態1の顔認証センサ4(図2参照)と同様の構成を備え、上記顔認証センサ4と同様の動作を行う。   The face authentication sensor 4a is connected to the door phone slave unit 5, has the same configuration as the face authentication sensor 4 (see FIG. 2) of the first embodiment, and performs the same operation as the face authentication sensor 4.

ドアホン子器5は、通話用のマイクロホン及びスピーカ(図示せず)と、呼出釦(図示せず)とを備え、呼出釦が押操作されたときに通話線50を介してインターホン親機3aに呼出信号を送信する呼出機能と、マイクロホンで集音した通話音声をインターホン親機3aに伝送するとともにインターホン親機3aから通話線50を介して伝送される通話音声をスピーカから出力させる通話機能と、顔認証センサ4aからのID認証データ及び画像データをインターホン親機3aに伝送する認証データ伝送機能とを有している。   The doorphone sub unit 5 includes a microphone and a speaker (not shown) for calling and a call button (not shown). When the call button is pressed, the interphone main unit 5 is connected to the interphone main unit 3a via the call line 50. A call function for transmitting a call signal, a call function for transmitting a call voice collected by a microphone to the interphone base unit 3a, and outputting a call voice transmitted from the interphone base unit 3a via the call line 50 from a speaker; It has an authentication data transmission function for transmitting ID authentication data and image data from the face authentication sensor 4a to the intercom master unit 3a.

インターホン親機3aは、実施形態1のコントロールパネル3と同様に、マイコン部と、LANインタフェース部と、液晶ディスプレイ320を有する表示部と、操作部と、メモリ部と、スピーカを有するスピーカ部とを備えている。また、インターホン親機3aは、矩形箱形の合成樹脂成形品からなるハウジング36の内部に上記各部が収納されて構成されており、表示部の液晶ディスプレイ320の画面がハウジング36前面の中央に配置されている。液晶ディスプレイ320の画面には操作部が有するタッチパネルが一体に設けられている。ハウジング36前面の右上寄りには、スピーカ部からの音声メッセージをハウジング36の外に放射するための多数の孔360がマトリクス状に並べて貫設されている。また、ハウジング36前面の右下寄りには、操作部が具備する複数の押釦スイッチ(図示せず)を押操作するための操作釦334〜336が配設されている。   Similar to the control panel 3 of the first embodiment, the intercom base unit 3a includes a microcomputer unit, a LAN interface unit, a display unit including a liquid crystal display 320, an operation unit, a memory unit, and a speaker unit including a speaker. I have. Further, the intercom base unit 3a is configured such that the above-described parts are housed in a housing 36 made of a rectangular box-shaped synthetic resin molded product, and the screen of the liquid crystal display 320 of the display unit is arranged in the center of the front surface of the housing 36. Has been. A touch panel of the operation unit is integrally provided on the screen of the liquid crystal display 320. Near the upper right side of the front surface of the housing 36, a large number of holes 360 for radiating a voice message from the speaker unit to the outside of the housing 36 are arranged in a matrix. Further, operation buttons 334 to 336 for pressing and operating a plurality of push button switches (not shown) provided in the operation unit are disposed on the lower right side of the front surface of the housing 36.

このような構成のインターホン親機3aは、ドアホン子器5から呼出信号を受信したときにスピーカから呼出音を出力する機能と、呼出音の出力中又は出力後の一定時間内に応答釦が押操作されたときにドアホン子器5との間で通話音声を授受する通話機能と、顔認証センサ4aで撮像されてドアホン子器5から伝送された画像データ及びID認証データを受け取り、上記画像データを周波数復調し、画像及びメッセージを液晶ディスプレイ320に表示する機能と、留守録設定中に呼出信号を受信した場合に通話線50を介して顔認証センサ4aから伝送された画像データ及びID認証データ並びにドアホン子器5から伝送された通話音声を半導体メモリに記録する機能とを有している。   The interphone base unit 3a configured as described above has a function of outputting a ringing tone from a speaker when a call signal is received from the door phone slave unit 5, and a response button is pressed during a certain time during or after the ringing tone is being output. A call function for sending / receiving a call voice to / from the doorphone slave unit 5 when operated, and image data and ID authentication data captured by the face authentication sensor 4a and transmitted from the doorphone slave unit 5 are received. The image data and the ID authentication data transmitted from the face authentication sensor 4a via the communication line 50 when a call signal is received during the answering machine setting. In addition, it has a function of recording the call voice transmitted from the doorphone slave unit 5 in the semiconductor memory.

次に、実施形態2の認証対象者報知システムの動作について図6を用いて説明する。まず、来訪者がドアホン子器5の呼出釦を押操作すると、通話線50を介して呼出信号がインターホン親機3aに伝送され、インターホン親機3aのスピーカから呼出音が出力される。同時に、顔認証センサ4aが来訪者を撮像し、撮像した画像から算出したID認証データを画像データとともにインターホン親機3aに出力する。顔認証センサ4aで撮像された画像がインターホン親機3aの液晶ディスプレイ320に表示される。このとき、インターホン親機3aはID認証データからメッセージを選択し、選択したメッセージを液晶ディスプレイ320に表示し、さらにスピーカで音声メッセージとして出力する。   Next, the operation of the authentication subject notification system according to the second embodiment will be described with reference to FIG. First, when a visitor presses the call button of the door phone slave unit 5, a call signal is transmitted to the intercom base unit 3a via the call line 50, and a ring tone is output from the speaker of the interphone base unit 3a. At the same time, the face authentication sensor 4a captures a visitor, and outputs ID authentication data calculated from the captured image to the intercom base unit 3a together with the image data. An image captured by the face authentication sensor 4a is displayed on the liquid crystal display 320 of the intercom base unit 3a. At this time, intercom base unit 3a selects a message from the ID authentication data, displays the selected message on liquid crystal display 320, and further outputs it as a voice message through a speaker.

以上、実施形態2によれば、メッセージをインターホン親機3aの液晶ディスプレイ320に表示することによって、認証対象者による認証のための操作を必要とせずに、認証対象者が誰であるのかをユーザに視覚的に知らせることができる。また、メッセージをインターホン親機3aのスピーカから音声で出力することによって、ユーザに聴覚的に知らせることができる。これにより、インターホン親機3aから離れた場所にいる人にも、認証対象者が誰であるのかを知らせることができる。   As described above, according to the second embodiment, by displaying a message on the liquid crystal display 320 of the intercom base unit 3a, it is possible to determine who the authentication target person is without requiring an authentication operation by the authentication target person. Can be visually informed. In addition, the user can be notified audibly by outputting the message by voice from the speaker of the intercom master unit 3a. Thereby, it is possible to notify the person who is away from the intercom base unit 3a who is the person to be authenticated.

また、認証対象者は顔認証センサ4aに接触する必要がないので、認証対象者が顔認証センサ4aから離れた位置にいても認証することができる。これにより、認証対象者が指紋認証機器に接触することを必要とする指紋認証の場合より早くメッセージを報知することができる。   Further, since it is not necessary for the authentication target person to contact the face authentication sensor 4a, the authentication target person can be authenticated even if the authentication target person is away from the face authentication sensor 4a. Thus, the message can be notified earlier than in the case of fingerprint authentication that requires the person to be authenticated to contact the fingerprint authentication device.

さらに、認証対象者の顔画像とメッセージの両方をインターホン親機3aで報知することによって、認証対象者が誰であるのかをユーザは確実に確認することができる。   Further, by notifying both the face image and the message of the person to be authenticated by the interphone master unit 3a, the user can surely confirm who the person to be authenticated is.

なお、実施形態2の変形例として、顔認証センサ4aをドアホン子器5に内蔵した構成であってもよい。このような構成にしても、実施形態2と同様に、認証対象者による認証のための操作を必要とせずに、認証対象者が誰であるのかをユーザに知らせることができる。   As a modification of the second embodiment, a configuration in which the face authentication sensor 4 a is built in the door phone sub unit 5 may be used. Even with such a configuration, as in the second embodiment, it is possible to notify the user of the person to be authenticated without requiring an operation for authentication by the person to be authenticated.

本発明の実施形態1に係る認証対象者報知システムの構成を示すブロック図である。It is a block diagram which shows the structure of the authentication subject information system which concerns on Embodiment 1 of this invention. 同上に係る顔認証センサの構成を示すブロック図である。It is a block diagram which shows the structure of the face authentication sensor which concerns on the same as the above. 同上に係るコントロールパネルの構成を示すブロック図である。It is a block diagram which shows the structure of the control panel which concerns on the same as the above. 同上に係るコントロールパネルでの報知を示す図である。It is a figure which shows the alerting | reporting in the control panel which concerns on the same as the above. 同上に係る認証対象者報知システムの動作説明図である。It is operation | movement explanatory drawing of the authentication subject information system which concerns on the same as the above. 本発明の実施形態2に係る認証対象者報知システムの構成を示すブロック図である。It is a block diagram which shows the structure of the authentication subject information system which concerns on Embodiment 2 of this invention.

符号の説明Explanation of symbols

1 サブシステム
10 コントローラ
2 ホームパネル
3 コントロールパネル
3a インターホン親機
320 液晶ディスプレイ
4,4a 顔認証センサ
40 撮像部
41 特徴量抽出部
42 認証部
DESCRIPTION OF SYMBOLS 1 Subsystem 10 Controller 2 Home panel 3 Control panel 3a Intercom main unit 320 Liquid crystal display 4, 4a Face authentication sensor 40 Imaging part 41 Feature amount extraction part 42 Authentication part

Claims (1)

撮像機能を有する撮像手段と、
前記撮像手段で撮像された画像から認証対象者の顔情報を抽出する抽出手段と、
前記抽出手段で抽出された前記認証対象者の顔情報と予め登録されている登録人物の顔情報とを比較して当該認証対象者が当該顔情報に基づく登録人物であるか否かを判断する認証手段と、
前記認証対象者が前記顔情報に基づく登録人物であると前記認証手段が判断したときに当該登録人物に応じたメッセージを報知する報知手段と
を備えることを特徴とする認証対象者報知システム。
An imaging means having an imaging function;
Extraction means for extracting face information of the person to be authenticated from the image captured by the imaging means;
The face information of the person to be authenticated extracted by the extracting means is compared with face information of a registered person registered in advance to determine whether or not the person to be authenticated is a registered person based on the face information. Authentication means;
An authentication subject notification system comprising: notification means for notifying a message corresponding to the registered person when the authentication means determines that the authentication subject is a registered person based on the face information.
JP2007007385A 2007-01-16 2007-01-16 Authentication person notification system Expired - Fee Related JP4882755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007007385A JP4882755B2 (en) 2007-01-16 2007-01-16 Authentication person notification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007007385A JP4882755B2 (en) 2007-01-16 2007-01-16 Authentication person notification system

Publications (2)

Publication Number Publication Date
JP2008176413A true JP2008176413A (en) 2008-07-31
JP4882755B2 JP4882755B2 (en) 2012-02-22

Family

ID=39703408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007007385A Expired - Fee Related JP4882755B2 (en) 2007-01-16 2007-01-16 Authentication person notification system

Country Status (1)

Country Link
JP (1) JP4882755B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079609A (en) * 2008-09-26 2010-04-08 Brother Ind Ltd Personal authentication device, personal authentication program, and intercom system with personal authentication device
JP2014063251A (en) * 2012-09-20 2014-04-10 Toshiba Corp Person recognition device and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161790A (en) * 1997-11-27 1999-06-18 Omron Corp Man identification device
JP2006155422A (en) * 2004-11-30 2006-06-15 Matsushita Electric Works Ltd Image processor
JP2006304324A (en) * 2006-05-08 2006-11-02 Sony Corp Visitor management system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161790A (en) * 1997-11-27 1999-06-18 Omron Corp Man identification device
JP2006155422A (en) * 2004-11-30 2006-06-15 Matsushita Electric Works Ltd Image processor
JP2006304324A (en) * 2006-05-08 2006-11-02 Sony Corp Visitor management system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079609A (en) * 2008-09-26 2010-04-08 Brother Ind Ltd Personal authentication device, personal authentication program, and intercom system with personal authentication device
JP2014063251A (en) * 2012-09-20 2014-04-10 Toshiba Corp Person recognition device and method
US9477876B2 (en) 2012-09-20 2016-10-25 Kabushiki Kaisha Toshiba Person recognition apparatus and method thereof

Also Published As

Publication number Publication date
JP4882755B2 (en) 2012-02-22

Similar Documents

Publication Publication Date Title
US9566712B2 (en) Self-propelled electronic device
KR101577626B1 (en) Digital Video Recorder system
CN105717798B (en) A kind of smart home solid bodyguard
JP6158517B2 (en) Alarm system
US9742582B2 (en) House monitoring system
US11082660B2 (en) Information processing device and information processing method
CN100463501C (en) Monitor camera device, control method for monitor camera device, and program for monitor camera device
CN105308657A (en) Security and/or monitoring devices and systems
JP5866551B1 (en) Monitoring system and monitoring method in monitoring system
KR101221437B1 (en) Monitoring system using simplified establishment and utilization based cctv camera
WO2015155936A1 (en) Monitoring camera system
JP4882755B2 (en) Authentication person notification system
JP2023024827A (en) elevator
JP5866538B1 (en) Monitoring system and monitoring method in monitoring system
KR20090115397A (en) The Security System and the Controlling Method of the Same
CN117529926A (en) Asymmetric camera sensor positioning for enhanced package detection
JP2010081074A (en) Intercom device
TWM464777U (en) Monitoring device
JP2011035644A (en) Intercom system
CN220873053U (en) Network equipment safety monitoring device and access control system using same
KR100987481B1 (en) Elevator srcurity system
TWI752465B (en) Image processing system, image processing method, and program
WO2021079474A1 (en) Security camera device
WO2020129580A1 (en) Intercom vestibule device, intercom system, information terminal, reporting method, and program
WO2021079475A1 (en) Security camera device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090716

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees