JP2006293842A - Retrieval system - Google Patents

Retrieval system Download PDF

Info

Publication number
JP2006293842A
JP2006293842A JP2005116026A JP2005116026A JP2006293842A JP 2006293842 A JP2006293842 A JP 2006293842A JP 2005116026 A JP2005116026 A JP 2005116026A JP 2005116026 A JP2005116026 A JP 2005116026A JP 2006293842 A JP2006293842 A JP 2006293842A
Authority
JP
Japan
Prior art keywords
data
feature data
face
feature
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005116026A
Other languages
Japanese (ja)
Inventor
Masazumi Nakao
雅純 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005116026A priority Critical patent/JP2006293842A/en
Publication of JP2006293842A publication Critical patent/JP2006293842A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system which has high scalability and can be efficiently operated and reduces network load and is improved in security. <P>SOLUTION: The system includes an input terminal and a server, and feature data of faces of a plurality of persons to be retrieved are previously registered in a database of the server, and the input terminal generates feature data of a face from a face picture, and instead of face picture data, feature data of the face extracted from face picture data are transmitted from the input terminal to the server, and the server performs collation processing based on feature data of the face received from the input terminal. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、例えば、人物の顔などの生成情報を含むデータを取得し、取得したデータから顔画像などの生成情報を検出し、検出した顔画像などの生成情報と一致する生成情報の人物をデータベースから検索する検索システムに関する。   In the present invention, for example, data including generation information such as a person's face is acquired, generation information such as a face image is detected from the acquired data, and a person whose generation information matches the generation information such as the detected face image is detected. The present invention relates to a search system for searching from a database.

近年、顔画像などの生体情報を用いて人物を認証あるいは検索する装置やシステムが提案されている。たとえば、顔画像を用いて人物を検索する顔検索システムでは、入力された画像に含まれる顔画像と予めデータベースに登録されている顔画像とを照合することにより、入力された画像に含まれる顔の人物を検索するものがある。   In recent years, an apparatus and a system for authenticating or searching for a person using biological information such as a face image have been proposed. For example, in a face search system that searches for a person using a face image, the face included in the input image is checked by comparing the face image included in the input image with a face image registered in the database in advance. Search for people.

たとえば、特開2004−258764号公報では、LANを介して複数の装置間で顔画像をやり取りし、1:Nの顔照合を行うシステムについて記載されている。このシステムでは、まず、撮影・照合機が撮影した画像から顔画像を抽出し、この顔画像をLAN経由でオペレータ用の端末へ送信する。オペレータ用端末では照合対象とする顔画像をオペレータが指定し、指定された顔画像を撮影・照合機へ返送する。顔撮影・照合機では、端末から返送された顔画像から顔特徴量を抽出し、抽出した顔特徴量と予め登録済みのN個の顔特徴量と1:Nの照合処理を行い、その照合結果を表示機にLAN経由で送付する。すなわち、上記システムは、画像取得、顔検出、特徴量抽出、顔照合が1つの装置内で実施されていて、実質的なスタンドアロン構成となっている。   For example, Japanese Unexamined Patent Application Publication No. 2004-258664 describes a system that performs face image exchange between a plurality of devices via a LAN and performs 1: N face matching. In this system, first, a face image is extracted from an image photographed by a photographing / collating machine, and the face image is transmitted to an operator terminal via a LAN. In the operator terminal, the operator designates a face image to be collated, and returns the designated face image to the photographing / collating machine. The face photographing / collation machine extracts a facial feature quantity from the face image returned from the terminal, and performs a 1: N matching process with the extracted facial feature quantity and N face feature quantities registered in advance. Send the result to the display via LAN. That is, the system has a substantially stand-alone configuration in which image acquisition, face detection, feature amount extraction, and face matching are performed in one apparatus.

しかしながら、上述した従来技術では、以下の(1)〜(3)のような問題点がある。   However, the above-described conventional techniques have the following problems (1) to (3).

(1)顔撮影・照合機が実質的にはスタンドアロン構成であるため、DB顔情報の登録数が多くなるほど装置の規模が大きくなる。 (1) Since the face photographing / collating machine is substantially a stand-alone configuration, the scale of the apparatus increases as the number of registered DB face information increases.

(2)顔撮影・照合機の規模が大きくなるため、設置性の融通が利かなくなり、顔画像を撮影する装置の設置性の自由度が奪われる。 (2) Since the size of the face photographing / collating machine becomes large, the flexibility of installation is not good, and the degree of freedom of installation of the device for photographing a face image is lost.

(3)1つのデータベースに記憶している顔情報を複数の装置で利用したい場合であっても、顔画像を撮影する装置の拡張数に制限が生じる。 (3) Even when it is desired to use face information stored in one database by a plurality of devices, the number of devices that can capture a face image is limited.

また、特開2004−318409号公報では、端末機器で撮影した顔画像とIDカードに保存された顔画像及び個人情報(氏名等)を、LANを介して接続されているサーバへ転送し、サーバが顔照合処理を行うものが記載されている。このシステムでは、サーバが端末機器からLAN経由で転送された個人情報により人物を特定し、当該人物の登録済みの顔画像を端末機器からLAN経由で転送された顔画像と1:1の照合処理を行い、その照合結果を端末にLAN経由で返し、端末上がサーバからの照合結果を表示する。また、上記システムでは、顔画像として再生可能な画像データ(例えばビットマップファイル)、個人情報及び照合結果などがLAN上を転送される。   In Japanese Patent Laid-Open No. 2004-318409, a face image captured by a terminal device, a face image stored in an ID card, and personal information (name, etc.) are transferred to a server connected via a LAN. Describes what performs face matching processing. In this system, the server identifies a person based on personal information transferred from the terminal device via the LAN, and the registered face image of the person is compared with the face image transferred from the terminal device via the LAN by 1: 1. And returns the collation result to the terminal via the LAN, and the terminal displays the collation result from the server. In the system, image data (for example, a bitmap file) that can be reproduced as a face image, personal information, a collation result, and the like are transferred on the LAN.

しかしながら、上述した従来技術では、以下の(1)〜(4)のような問題点がある。   However, the above-described conventional techniques have the following problems (1) to (4).

(1)1人分の顔画像データ量が数十キロバイト以上となるため、データベースに顔情報を登録する登録者数が多くなるほどDB容量が増大する。 (1) Since the amount of face image data for one person is several tens of kilobytes or more, the DB capacity increases as the number of registrants who register face information in the database increases.

(2)端末数が増大した場合、あるいは、1つの端末からの顔検索要求が増大した場合、ネットワークの転送情報量が増大する。 (2) When the number of terminals increases or when face search requests from one terminal increase, the amount of information transferred on the network increases.

(3)サーバ側の顔検索アルゴリズムでは、顔画像から顔特徴量にデータ変換する必要があり、DB顔情報の登録数が多くなったり、端末数が増大したり、1つの端末からの顔検索要求が増大するほど、検索処理の時間が長くなる。 (3) In the server-side face search algorithm, it is necessary to convert data from a face image to a face feature amount, the number of registered DB face information increases, the number of terminals increases, or face search from one terminal The more requests, the longer the search processing time.

(4)ネットワーク上に画像として再生可能な画像データが流れることで、盗聴による情報漏洩の危険が生じる。
特開2004−258764号公報 特開2004−318409号公報
(4) When image data that can be reproduced as an image flows on the network, there is a risk of information leakage due to eavesdropping.
JP 2004-258774 A JP 2004-318409 A

この発明は、上記のような問題点を解決するものであり、効率的な運用を行うことができ、拡張性あるいはセキュリティ性が高い検索システムを提供することを目的とする。   An object of the present invention is to solve the above-described problems, and to provide a search system that can perform efficient operation and has high expandability or security.

この発明の一形態としての検索システムは、端末機器とサーバ装置とを有するシステムであって、前記端末機器は、特徴量を含むデータを入力するデータ入力手段と、このデータ入力手段により取得したデータから特徴データを生成する特徴データ生成手段と、この特徴データ生成手段により生成した特徴データをサーバ装置に送信するデータ送信手段とを有し、前記サーバ装置は、予め特定の特徴データが記憶されている記憶手段と、前記端末機器からの送信された特徴データを受信するデータ受信手段と、このデータ受信手段により受信した特徴データと所定の基準値以上類似している特徴データを前記記憶手段に記憶されている特徴データから検索する検索手段とを有する。   A search system according to an aspect of the present invention is a system having a terminal device and a server device, wherein the terminal device inputs data including feature values, and data acquired by the data input unit. Feature data generating means for generating feature data from the data, and data transmitting means for transmitting the feature data generated by the feature data generating means to the server device. The server device stores specific feature data in advance. Storing means, data receiving means for receiving feature data transmitted from the terminal device, and feature data similar to the feature data received by the data receiving means by a predetermined reference value or more are stored in the storage means. Search means for searching from the feature data.

この発明の一形態としての検索システムは、端末機器とサーバ装置とを有するシステムであって、前記端末機器は、人物の生体情報を含むデータを取得するデータ入力手段と、このデータ入力手段により取得したデータから生体情報を抽出する生成情報抽出手段と、この生成情報抽出手段により抽出した生体情報から生体情報の特徴を示す特徴データを生成する特徴データ生成手段と、この特徴データ生成手段により生成した特徴データをサーバ装置に送信するデータ送信手段とを有し、前記サーバ装置は、登録者の生体情報の特徴データが記憶されている記憶手段と、前記端末機器からの送信された特徴データを受信するデータ受信手段と、このデータ受信手段により受信した特徴データと所定の基準以上類似している特徴データを前記記憶手段に記憶されている登録者の生体情報の特徴データから検索する検索手段とを有する。   A search system according to an aspect of the present invention is a system including a terminal device and a server device, and the terminal device acquires data including human biometric information, and the data input unit acquires the data. Generated information extraction means for extracting biological information from the generated data, feature data generation means for generating feature data indicating features of the biological information from the biological information extracted by the generated information extraction means, and generated by the feature data generation means Data transmitting means for transmitting the feature data to the server device, the server device receiving the feature data transmitted from the terminal device and storage means storing the feature data of the biometric information of the registrant Data receiving means, and feature data similar to the feature data received by the data receiving means by a predetermined criterion or more. And a retrieval means for retrieving from the feature data of the registrant biometric information stored in the unit.

この発明は、上記のような問題点を解決するものであり、効率的な運用を行うことができ、拡張性あるいはセキュリティ性が高い検索システムを提供することを目的とする。   An object of the present invention is to solve the above-described problems, and to provide a search system that can perform efficient operation and has high expandability or security.

この発明を実施するための最良の形態について図面を参照しつつ説明する。
まず、この発明の第1の実施の形態について説明する。
図1は、本第1の実施の形態に係る顔検索システムの構成例を概略的に示すものである。この顔検索システムは、図1に示すように、画像入力装置1、入力端末2、サーバ3、出力端末4などにより構成される。上記画像入力装置1は、上記入力端末2に接続されている。また、上記入力端末2、サーバ3および出力端末4は、LANなどのネットワークにより接続されている。なお、上記入力端末2と上記出力端末4とは、同一に端末機器により構成されるようにしても良い。
The best mode for carrying out the present invention will be described with reference to the drawings.
First, a first embodiment of the present invention will be described.
FIG. 1 schematically shows a configuration example of a face search system according to the first embodiment. As shown in FIG. 1, the face search system includes an image input device 1, an input terminal 2, a server 3, an output terminal 4, and the like. The image input device 1 is connected to the input terminal 2. The input terminal 2, the server 3, and the output terminal 4 are connected by a network such as a LAN. Note that the input terminal 2 and the output terminal 4 may be configured by the same terminal device.

まず、上記画像入力装置1について説明する。
上記画像入力装置1は、動画または静止画の画像を入力する装置であり、たとえば、ビデオカメラや画像スキャナなどにより構成される。また、上記画像入力装置1は、人物の顔画像(少なくとも顔を含んでいる画像)を入力する画像入力手段として機能する。また、人物の顔画像を撮影するためのビデオカメラとして画像入力装置1が設置される場合、上記画像入力装置1は、撮影中の画像や案内などを表示する表示部、および、明るさが不測している環境において被撮影者などを照明する補助照明などを有するユーザインターフェース装置に組み込まれて構成されるようにしても良い。
First, the image input apparatus 1 will be described.
The image input apparatus 1 is an apparatus for inputting a moving image or a still image, and includes, for example, a video camera or an image scanner. The image input apparatus 1 functions as an image input unit that inputs a human face image (an image including at least a face). Further, when the image input device 1 is installed as a video camera for photographing a human face image, the image input device 1 includes a display unit that displays an image being taken, a guide, and the like, and brightness is unpredictable. It may be configured to be incorporated in a user interface device having auxiliary lighting for illuminating a person to be photographed or the like in the environment where the user is shooting.

次に、上記入力端末2について説明する。
上記入力端末2は、たとえば、コンピュータ等の構成によって実現可能である。すなわち、上記入力端末2は、ハードディスク装置や光ディスク等の記憶媒体に予め記録した種々の制御プログラムを図示しないCPUなどからなる制御部が実行することによって後述するような種々の処理を実現している。
Next, the input terminal 2 will be described.
The input terminal 2 can be realized by a configuration of a computer or the like, for example. That is, the input terminal 2 implements various processes as described later by executing various control programs recorded in advance on a storage medium such as a hard disk device or an optical disk by a control unit including a CPU (not shown). .

以下、入力端末2の具体的な構成例について図1を参照して詳細に説明する。
上記入力端末2は、図1に示すように、画像取得手段としての画像取得部21、顔画像検出手段としての顔検出部22、特徴量抽出手段としての特徴抽出部23、および、特徴データ送信部24を有している。
Hereinafter, a specific configuration example of the input terminal 2 will be described in detail with reference to FIG.
As shown in FIG. 1, the input terminal 2 includes an image acquisition unit 21 as an image acquisition unit, a face detection unit 22 as a face image detection unit, a feature extraction unit 23 as a feature amount extraction unit, and feature data transmission. Part 24.

上記画像取得部21は、上記画像入力装置1からの画像データを受信するためのインターフェースにより構成される。つまり、上記画像取得部21は、上記画像入力装置1の構成に応じたインターフェースにより構成される。例えば、上記画像入力装置1がアナログの画像を撮影するカメラである場合、上記画像取得部21は、画像入力装置1としてのカメラから取得した撮影画像としてのアナログの画像データをA/D変換してデジタル化し、後段の顔検出部22へ供給するようになっている。   The image acquisition unit 21 includes an interface for receiving image data from the image input apparatus 1. That is, the image acquisition unit 21 includes an interface corresponding to the configuration of the image input device 1. For example, when the image input device 1 is a camera that captures an analog image, the image acquisition unit 21 performs A / D conversion on analog image data as a captured image acquired from the camera as the image input device 1. Digitized and supplied to the downstream face detection unit 22.

上記顔検出部22は、上記画像取得部21から供給された画像から人物の顔の領域を検出し、人物の顔画像として抽出するものである。上記顔検出部22では、たとえば、あらかじめ用意されたテンプレートと画像中を移動させながら相関値を求めることにより、最も高い相関値をもった場所を顔領域として検出し、その顔領域の画像を顔画像として抽出する。その他、上記顔検出部22では、顔画像を抽出する方法として、固有空間法や部分空間法を利用した顔領域抽出法などの顔領域の検出方法を用いるようにしても良い。   The face detection unit 22 detects a human face region from the image supplied from the image acquisition unit 21 and extracts it as a human face image. The face detection unit 22 detects, for example, a location having the highest correlation value as a face region by obtaining a correlation value while moving the template prepared in advance and the image, and detects the face region image as a face region. Extract as an image. In addition, the face detection unit 22 may use a face area detection method such as a face area extraction method using an eigenspace method or a subspace method as a method of extracting a face image.

上記特徴抽出部23は、上記顔検出部22にて抽出した顔画像から顔の特徴量を検出し、当該顔画像の特徴データを生成するものである。上記特徴抽出部23では、上記顔検出部22にて抽出した顔画像における濃淡情報あるいは部分空間情報などの顔の特徴量を検出して顔の特徴データを生成する。例えば、上記特徴抽出部23は、上記顔検出部22にて検出された顔画像から顔の特徴量としての目、鼻の位置を検出する。さらに、上記特徴抽出部23は、顔画像から検出された顔の特徴量としての目、鼻などの位置を基に、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として検出する。   The feature extraction unit 23 detects a feature amount of the face from the face image extracted by the face detection unit 22 and generates feature data of the face image. The feature extraction unit 23 detects facial feature amounts such as grayscale information or partial space information in the face image extracted by the face detection unit 22 to generate facial feature data. For example, the feature extraction unit 23 detects the positions of eyes and noses as facial feature amounts from the face image detected by the face detection unit 22. Further, the feature extraction unit 23 cuts out a face region into a certain size and shape based on the positions of eyes, nose, and the like as face feature amounts detected from the face image, and uses the density information as feature amounts. To detect.

また、上記特徴抽出部23では、mピクセル×nピクセルの領域における濃淡値を用いて、m×n次元の情報を特徴ベクトルとして抽出し、その特徴ベクトルを特徴量としての顔の特徴データとして生成する。この顔の特徴量を示す特徴データは、上記画像取得部21が画像入力装置1から取得した画像のデータあるいは上記顔検出部22が検出した顔画像のデータに比べてデータ量が少ない。たとえば、上記顔検出部22が検出する顔画像データが数十キロバイトであるのに対して、上記特徴抽出部23により抽出される顔の特徴データは数キロバイトである。   Further, the feature extraction unit 23 extracts m × n-dimensional information as a feature vector using a gray value in an area of m pixels × n pixels, and generates the feature vector as face feature data as a feature amount. To do. The feature data indicating the feature amount of the face has a smaller data amount than the image data acquired by the image acquisition unit 21 from the image input device 1 or the face image data detected by the face detection unit 22. For example, the face image data detected by the face detection unit 22 is several tens of kilobytes, whereas the facial feature data extracted by the feature extraction unit 23 is several kilobytes.

上記特徴データ送信部24は、上記特徴抽出部23により生成された顔の特徴データを上記サーバ3へ送信するものである。上記特徴データ送信部24は、たとえば、ネットワークインターフェースにより構成される。さらに、上記特徴データ送信部24には、上記サーバ3へ送信する顔の特徴データなどのデータを暗号化する暗号化機能を設けるようにしても良い。つまり、上記サーバ3が復号化できるように顔の特徴データなどの送信データを暗号化して送信することにより、上記特徴データ送信部24がサーバ3へ送信するデータのセキュリティ性を向上するさせることができる。   The feature data transmission unit 24 transmits the facial feature data generated by the feature extraction unit 23 to the server 3. The feature data transmission unit 24 is configured by a network interface, for example. Further, the feature data transmitting unit 24 may be provided with an encryption function for encrypting data such as facial feature data transmitted to the server 3. That is, it is possible to improve the security of data transmitted by the feature data transmission unit 24 to the server 3 by encrypting and transmitting transmission data such as facial feature data so that the server 3 can decrypt the data. it can.

次に、上記サーバ3について説明する。
上記サーバ3は、たとえば、コンピュータ等の構成によって実現可能である。すなわち、上記サーバ3は、ハードディスク装置や光ディスク等の記憶媒体に予め記録した種々の制御プログラムを図示しないCPUなどからなる制御部が実行することによって後述するような種々の処理を実現している。
Next, the server 3 will be described.
The server 3 can be realized by a configuration of a computer or the like, for example. That is, the server 3 realizes various processes as described later by executing various control programs recorded in advance on a storage medium such as a hard disk device or an optical disk by a control unit including a CPU (not shown).

以下、上記サーバ3の具体的な構成例について図1を参照して詳細に説明する。
上記サーバ3は、図1に示すように、特徴データ受信手段としての特徴データ受信部31、記憶手段としての顔特徴データベース32、顔検索手段としての顔検索部33、出力手段としての検索結果送信部34を有している。
Hereinafter, a specific configuration example of the server 3 will be described in detail with reference to FIG.
As shown in FIG. 1, the server 3 includes a feature data receiving unit 31 as a feature data receiving unit, a face feature database 32 as a storage unit, a face searching unit 33 as a face searching unit, and a search result transmission as an output unit. Part 34 is provided.

上記特徴データ受信部31は、上記入力端末2から送信された顔の特徴データを受信するものである。上記特徴データ受信部31は、たとえば、ネットワークインターフェースにより構成される。さらに、上記特徴データ受信部31には、上記特徴データ送信部24の暗号化機能に対応した復号化機能を設けるようにしても良い。つまり、上記入力端末2の特徴データ送信部24がサーバ3へ送信するデータを暗号化している場合、上記特徴データ受信部31には、受信したデータを復号化する機能が追加される。   The feature data receiving unit 31 receives facial feature data transmitted from the input terminal 2. The feature data receiving unit 31 is configured by a network interface, for example. Further, the feature data receiving unit 31 may be provided with a decryption function corresponding to the encryption function of the feature data transmitting unit 24. That is, when the feature data transmission unit 24 of the input terminal 2 encrypts data to be transmitted to the server 3, the feature data reception unit 31 has a function of decrypting the received data.

上記顔特徴データベース32は、ハードディスク装置などの記憶装置により構成される。上記顔特徴データベース32には、予め登録者の個人情報などに対応づけて登録者の顔画像における顔の特徴データ等が登録されるまた、上記顔特徴データベース32には、例えば、登録者の顔画像を登録するしておくようにしても良い。   The face feature database 32 is configured by a storage device such as a hard disk device. In the face feature database 32, face feature data in the registrant's face image is registered in advance in association with the registrant's personal information, etc. Also, in the face feature database 32, for example, the registrant's face is registered. You may make it register an image.

上記顔検索部33は、上記特徴データ受信部31により受信した顔の特徴データと上記顔特徴データベース32に登録されている顔の特徴データとの照合処理を行うものである。上記顔検索部33では、上記顔特徴データベース32に登録されている顔の特徴データのうち上記特徴データ受信部31により受信した顔の特徴データと最も類似する顔の特徴データを登録者を顔の検索結果として出力する。つまり、上記特徴データ受信部31により受信した顔の特徴データと最も類似度の高い特徴データの登録者が人物の検索結果として出力される。また、所定の類似度以上の特徴データが複数存在する場合、それらの登録者全てを検索結果として出力するようにしても良い。   The face search unit 33 performs a collation process between the face feature data received by the feature data receiving unit 31 and the face feature data registered in the face feature database 32. In the face search unit 33, the facial feature data most similar to the facial feature data received by the feature data receiving unit 31 among the facial feature data registered in the facial feature database 32 is sent to the registrant. Output as search results. That is, the registrant of the feature data having the highest similarity to the facial feature data received by the feature data receiving unit 31 is output as a person search result. Further, when there are a plurality of feature data having a predetermined similarity or higher, all of those registrants may be output as search results.

また、本第1の実施の形態では、上記顔検索部33における顔画像の照合処理として、上記画像入力装置1により入力した画像から検出した顔画像が上記顔特徴データベース32に登録されている登録者のうち誰であるか検索(認識)する1対N照合と呼ばれる処理モード(1対N照合モード)で認識処理を行う。このような1対N照合モードでの認識処理では、上記顔検索部33は、上記入力端末2から供給された特徴データと上記顔特徴データベース32に登録されている各登録者の顔の特徴データとの照合度を算出し、それらの照合度から最大の照合度を抽出し、その最大照合度が所定の閾値以上である場合に、上記入力端末2から供給された特徴データが当該最大類似度となった特徴データに対応する登録者のものであると判断する。   In the first embodiment, the face image detected by the image input device 1 is registered in the face feature database 32 as face image matching processing in the face search unit 33. Recognition processing is performed in a processing mode called 1-to-N collation (one-to-N collation mode) for searching (recognizing) who the person is. In the recognition process in the one-to-N matching mode, the face search unit 33 includes the feature data supplied from the input terminal 2 and the face feature data of each registrant registered in the face feature database 32. When the maximum matching degree is extracted from these matching degrees and the maximum matching degree is equal to or greater than a predetermined threshold, the feature data supplied from the input terminal 2 is the maximum similarity degree. It is determined that the data belongs to the registrant corresponding to the feature data.

上記検索結果送信部34は、上記顔検索部33による顔の検索結果を示すデータを上記出力端末4へ送信するものである。上記検索結果送信部34は、たとえば、ネットワークインターフェースにより構成される。なお、上記特徴データ受信部31と上記検索結果送信部34とを実現するハードウエアとしては、1つのネットワークインターフェースによって構成されるようにしても良い。また、上記検索結果送信部34には、上記出力端末4へ送信する検索結果などのデータを暗号化する暗号化機能を設けるようにしても良い。つまり、上記出力端末4が復号化できるように送信データを暗号化して送信することにより、上記検索結果送信部34が出力端末4へ送信するデータのセキュリティ性を向上するさせることができる。   The search result transmission unit 34 transmits data indicating the search result of the face by the face search unit 33 to the output terminal 4. The search result transmission unit 34 is configured by a network interface, for example. The hardware that implements the feature data receiving unit 31 and the search result transmitting unit 34 may be configured by a single network interface. Further, the search result transmission unit 34 may be provided with an encryption function for encrypting data such as search results transmitted to the output terminal 4. That is, by encrypting the transmission data so that the output terminal 4 can decrypt it, the security of the data transmitted by the search result transmission unit 34 to the output terminal 4 can be improved.

次に、上記出力端末4について説明する。
上記出力端末4は、たとえば、コンピュータ等の構成によって実現可能である。すなわち、上記出力端末4は、ハードディスク装置や光ディスク等の記憶媒体に予め記録した種々の制御プログラムを図示しないCPUなどからなる制御部が実行することによって後述するような種々の処理を実現している。また、上記入力端末2と上記出力端末4とを実現するハードウエアとしては、コンピュータなどの1つの機器により構成するようにしても良い。
Next, the output terminal 4 will be described.
The output terminal 4 can be realized by a configuration of a computer or the like, for example. That is, the output terminal 4 implements various processes as described later by executing various control programs recorded in advance on a storage medium such as a hard disk device or an optical disk by a control unit including a CPU (not shown). . The hardware for realizing the input terminal 2 and the output terminal 4 may be configured by a single device such as a computer.

以下、上記出力端末4の具体的な構成例について図1を参照して詳細に説明する。
上記出力端末4は、図1に示すように、検索結果受信手段としての検索結果受信部41、表示手段としての表示部42を有している。
上記検索結果受信部41は、上記サーバ3から送信された顔の特徴データによる顔の検索結果を示すデータを受信するものである。上記検索結果受信部41は、たとえば、ネットワークインターフェースにより構成される。さらに、上記検索結果受信部41には、上記検索結果送信部34の暗号化機能に対応した復号化機能を設けるようにしても良い。つまり、上記サーバ3の検索結果送信部34が出力端末4へ送信するデータを暗号化している場合、上記検索結果受信部41には、受信したデータを復号化する機能が追加される。上記表示部42は、上記検索結果受信部41により受信した顔の検索結果を表示するものである。
Hereinafter, a specific configuration example of the output terminal 4 will be described in detail with reference to FIG.
As shown in FIG. 1, the output terminal 4 has a search result receiving unit 41 as a search result receiving unit and a display unit 42 as a display unit.
The search result receiving unit 41 receives data indicating a face search result based on face feature data transmitted from the server 3. The search result receiving unit 41 is configured by a network interface, for example. Further, the search result receiving unit 41 may be provided with a decryption function corresponding to the encryption function of the search result transmitting unit 34. That is, when the search result transmission unit 34 of the server 3 encrypts the data to be transmitted to the output terminal 4, the search result reception unit 41 has a function of decrypting the received data. The display unit 42 displays the face search result received by the search result receiving unit 41.

なお、上記した顔検索システムには、運用形態に応じて様々な機構や機能を追加するようにようにしても良い。たとえば、当該顔検索システムを入退出管理システムとして適用する場合、上記サーバ3あるいは出力端末4にドアの開閉機構などの通行制御部を追加し、上記サーバ3の顔検索部33による顔の検索結果に応じて通行制御部により上記画像入力装置1に顔画像を入力した人物に対する通行を制御することが可能である。これにより、顔画像による入退出管理システムが実現できる。   Note that various mechanisms and functions may be added to the face search system described above depending on the operation mode. For example, when the face search system is applied as an entry / exit management system, a traffic control unit such as a door opening / closing mechanism is added to the server 3 or the output terminal 4, and the face search result by the face search unit 33 of the server 3 is added. Accordingly, the passage control unit can control the passage of a person who has input a face image to the image input device 1. Thereby, the entrance / exit management system by a face image is realizable.

また、当該顔検索システムを人物監視システムとして適用する場合、顔特徴データベース32に監視対象とする人物の顔の特徴データを登録しておき、上記サーバ3の顔検索部33による顔の検索結果として上記画像入力装置1に顔画像を入力した人物が監視対象の人物であれば、上記出力端末4の表示部42には監視対象の人物が発見された旨を表示することが可能である。これにより、顔画像による人物監視システムが実現できる。   When the face search system is applied as a person monitoring system, face feature data of a person to be monitored is registered in the face feature database 32, and the face search result by the face search unit 33 of the server 3 is registered. If the person who inputs the face image to the image input device 1 is a person to be monitored, the display unit 42 of the output terminal 4 can display that the person to be monitored has been found. Thereby, the person monitoring system by a face image is realizable.

次に、上記のように構成される第1の実施の形態に係る顔検索システムにおける処理の流れについて説明する。
図2は、第1の実施の形態に係る顔検索システムにおける処理の流れを説明するためのフローチャートである。
まず、上記画像入力装置1では、人物の顔を含む画像が入力される。例えば、上記画像入力装置1がビデオカメラとして構成される場合、上記画像入力装置1では、人物の顔を含む画像が撮影される。上記画像入力装置1に人物の顔を含む画像が入力されると、上記入力端末2では、上記画像入力装置1に入力された画像を上記画像取得部21により取得する(ステップS11)。
Next, the flow of processing in the face search system according to the first embodiment configured as described above will be described.
FIG. 2 is a flowchart for explaining the flow of processing in the face search system according to the first embodiment.
First, in the image input apparatus 1, an image including a human face is input. For example, when the image input device 1 is configured as a video camera, the image input device 1 captures an image including a human face. When an image including a human face is input to the image input device 1, the input terminal 2 acquires the image input to the image input device 1 by the image acquisition unit 21 (step S11).

上記入力端末2の画像取得部21により取得された画像は、上記顔検出部22へ供給される。上記顔検出部22では、上記画像取得部21にて取得した画像から顔の領域を検出し、検出した顔の領域を顔画像として抽出する(ステップS12)。上記顔検出部22により抽出された顔画像は、上記特徴抽出部23へ供給される。上記特徴抽出部23では、上記顔検出部22により抽出された顔画像から顔の特徴点などの特徴量を検出し、検出した顔の特徴点などの特徴量に基づいて顔の特徴データを生成する(ステップS13)。   The image acquired by the image acquisition unit 21 of the input terminal 2 is supplied to the face detection unit 22. The face detection unit 22 detects a face region from the image acquired by the image acquisition unit 21, and extracts the detected face region as a face image (step S12). The face image extracted by the face detection unit 22 is supplied to the feature extraction unit 23. The feature extraction unit 23 detects feature quantities such as facial feature points from the face image extracted by the face detection unit 22 and generates facial feature data based on the detected feature quantities such as facial feature points. (Step S13).

上記特徴抽出部23により生成された顔の特徴データは、上記特徴データ送信部24へ供給される。上記特徴データ送信部24では、上記特徴抽出部23により生成された顔の特徴データを上記サーバ3へ送信する(ステップS14)。この際、上記サーバ3へ送信するデータを暗号化する場合、上記特徴データ送信部24は、上記特徴抽出部23により生成された顔の特徴データを暗号化し、ネットワークを介してサーバ3へ送信する。   The facial feature data generated by the feature extraction unit 23 is supplied to the feature data transmission unit 24. The feature data transmission unit 24 transmits the facial feature data generated by the feature extraction unit 23 to the server 3 (step S14). At this time, when data to be transmitted to the server 3 is encrypted, the feature data transmission unit 24 encrypts the facial feature data generated by the feature extraction unit 23 and transmits the encrypted data to the server 3 via the network. .

上記入力端末2から顔の特徴データが送信されると、上記サーバ3では、上記特徴データ受信部31により上記入力端末2からの特徴データを受信する(ステップS21)。上記特徴データ受信部31により受信した特徴データは、上記顔検索部33へ供給される。なお、上記入力端末2からの特徴データが暗号化されている場合、上記特徴データ受信部31では、受信した特徴データを復号化して顔検索部33へ供給する。   When facial feature data is transmitted from the input terminal 2, the server 3 receives the feature data from the input terminal 2 by the feature data receiving unit 31 (step S21). The feature data received by the feature data receiving unit 31 is supplied to the face search unit 33. When the feature data from the input terminal 2 is encrypted, the feature data receiving unit 31 decrypts the received feature data and supplies it to the face search unit 33.

上記顔検索部33では、上記特徴データ受信部31により受信した特徴データと顔特徴データベース32に登録されている全ての特徴データとの検索処理(照合処理)を行う(ステップS22)。上記検索処理(照合処理)は、上記特徴データ受信部31により受信した顔の特徴データと一致する顔の特徴データを上記顔特徴データベース32から検索する処理である。   The face search unit 33 performs a search process (matching process) between the feature data received by the feature data receiving unit 31 and all the feature data registered in the face feature database 32 (step S22). The search process (collation process) is a process of searching the face feature database 32 for facial feature data that matches the facial feature data received by the feature data receiving unit 31.

たとえば、上記顔検索部33は、上記特徴データ受信部31により受信した特徴データと顔特徴データベース32に登録されている全ての特徴データとの照合度を算出する。これにより算出した照合度のうち最大照合度が所定の閾値以上であれば、上記顔検索部33は、上記特徴データ受信部31により受信した特徴データが最大照合度を与える特徴データと一致したものと判断する。この場合、上記顔検索部33は、検索結果として最大照合度となった特徴データの登録者を示す情報を上記検索結果送信部34へ出力する。   For example, the face search unit 33 calculates the matching degree between the feature data received by the feature data receiving unit 31 and all feature data registered in the face feature database 32. If the maximum matching degree among the matching degrees calculated in this way is equal to or greater than a predetermined threshold, the face search unit 33 matches the feature data received by the feature data receiving unit 31 with the feature data giving the maximum matching degree. Judge. In this case, the face search unit 33 outputs information indicating the registrant of the feature data having the maximum matching degree as a search result to the search result transmission unit 34.

また、算出した照合度のうち最大の照合度が所定の閾値未満であれば、上記顔検索部33は、上記特徴データ受信部31により受信した特徴データと一致する特徴データが顔特徴データベース32に登録されていないものと判断する。この場合、上記顔検索部33は、検索結果として該当する登録者がいない旨を示す情報を上記検索結果送信部34へ出力する。   If the maximum matching degree among the calculated matching degrees is less than a predetermined threshold, the face search unit 33 causes the feature data matching the feature data received by the feature data receiving unit 31 to be stored in the face feature database 32. Judge that it is not registered. In this case, the face search unit 33 outputs information indicating that there is no corresponding registrant as a search result to the search result transmission unit 34.

上記顔検索部33の検索処理による検索結果は、上記顔検索部33から検索結果送信部34へ供給される。上記検索結果送信部34では、上記顔検索部33により得られた検索結果を上記出力端末4へ送信する(ステップS23)。この際、上記出力端末4へ送信するデータを暗号化する場合、上記検索結果送信部34は、上記顔検索部33により得られた検索結果を暗号化し、ネットワークを介して出力端末4へ送信する。   A search result obtained by the search processing of the face search unit 33 is supplied from the face search unit 33 to the search result transmission unit 34. The search result transmission unit 34 transmits the search result obtained by the face search unit 33 to the output terminal 4 (step S23). At this time, when the data to be transmitted to the output terminal 4 is encrypted, the search result transmission unit 34 encrypts the search result obtained by the face search unit 33 and transmits it to the output terminal 4 via the network. .

上記サーバ3から検索結果が送信されると、上記出力端末4では、上記検索結果受信部41により上記サーバ3からの検索結果を受信する(ステップS31)。上記検索結果受信部41により受信した検索結果は、上記表示部42へ供給される。なお、上記サーバ3からの検索結果を示すデータが暗号化されている場合、上記検索結果受信部41では、受信したデータを復号化して表示部42へ供給する。また、上記検索結果受信部41により受信した検索結果が供給された上記表示部42では、上記検索結果受信部41から供給された検索結果を表示する(ステップS32)。   When the search result is transmitted from the server 3, the output terminal 4 receives the search result from the server 3 by the search result receiving unit 41 (step S31). The search result received by the search result receiving unit 41 is supplied to the display unit 42. When the data indicating the search result from the server 3 is encrypted, the search result receiving unit 41 decrypts the received data and supplies it to the display unit 42. The display unit 42 supplied with the search result received by the search result receiving unit 41 displays the search result supplied from the search result receiving unit 41 (step S32).

上記のように、上記第1の実施の形態に係る顔検索システムでは、入力端末が顔画像から顔の特徴データを生成し、サーバが入力端末から送信された顔の特徴データにより照合処理を行うようにしている。これにより、検索対象としての顔特徴データベースの情報量が増大しても、入力端末の規模には影響を与えずに、入力端末の設置条件を緩和することができる。また、1台のサーバに対して複数の入力端末を接続することが容易であるため、システム構成の拡張性が高くなるとともに、システム設計の自由度が高くなる。   As described above, in the face search system according to the first embodiment, the input terminal generates face feature data from the face image, and the server performs matching processing using the face feature data transmitted from the input terminal. I am doing so. Thereby, even if the amount of information in the face feature database as a search target increases, the installation conditions of the input terminal can be relaxed without affecting the scale of the input terminal. Further, since it is easy to connect a plurality of input terminals to one server, the expandability of the system configuration is enhanced and the degree of freedom in system design is increased.

さらに、上記第1の実施の形態に係る顔検索システムでは、入力端末からサーバに送る情報として、顔画像データではなく、顔画像データから抽出された顔の特徴データを送信するようにし、サーバのデータベースには検索対象となる複数の人物の顔の特徴データを登録しておくようにしている。   Furthermore, in the face search system according to the first embodiment, the face feature data extracted from the face image data is transmitted instead of the face image data as information to be sent from the input terminal to the server. In the database, feature data of faces of a plurality of persons to be searched are registered.

これにより、入力端末から送信された人物の顔の特徴データと、データベースに記憶されている顔の特徴データを突き合わせて照合する照合処理に要する処理時間を、顔画像を用いた場合の照合処理に要する時間に比べて短縮することが可能となる。これは、顔の特徴データ(例えば数キロバイト)の方が顔画像データ(例えば数十キロバイト)より小さく取り扱いやすいことと、データベースに記憶されている各顔画像から特徴量を抽出する処理時間が省略できるためである。このため、ネットワークに流れる情報量も少なくすることができ、ネットワークにかかる負荷を軽減することも可能となる。   As a result, the processing time required for the matching process for matching the face feature data of the person transmitted from the input terminal with the face feature data stored in the database can be reduced to the matching process when the face image is used. It is possible to shorten the time required. This is because facial feature data (for example, several kilobytes) is smaller and easier to handle than facial image data (for example, several tens of kilobytes), and processing time for extracting feature values from each facial image stored in the database is eliminated. This is because it can. For this reason, the amount of information flowing through the network can be reduced, and the load on the network can be reduced.

さらに、上記第1の実施の形態に係る顔検索システムでは、入力端末において生成される顔の特徴データは顔画像に復元不可能なデータである。つまり、入力端末では、顔画像から顔特徴データを抽出するためのアルゴリズムとして顔画像に復元不可能な顔の特徴データを生成するものを使用している。これにより、入力端末からサーバへ伝送される情報がネットワーク上で盗聴などにより不正に取得されても、それらの情報が悪用される危険性を低減させることができる。   Furthermore, in the face search system according to the first embodiment, the face feature data generated at the input terminal is data that cannot be restored to a face image. That is, in the input terminal, an algorithm for generating facial feature data that cannot be restored to a facial image is used as an algorithm for extracting facial feature data from the facial image. Thereby, even if information transmitted from the input terminal to the server is illegally acquired on the network by eavesdropping or the like, it is possible to reduce the risk of misuse of the information.

次に、第2の実施の形態について説明する。
図3は、第2の実施の形態に係る顔検索システムの構成例を概略的に示すものである。この第2の実施の形態に係る顔検索システムは、図3に示すように、画像入力装置1、入力端末2、サーバ3、出力端末4および個人情報入力装置5などにより構成される。また、図1に示す第1の実施の形態に係る顔検索システムの構成に加えて、個人情報入力装置5が設けられている。図3に示す第2の実施の形態に係る顔検索システムにおいて、図1に示す第1の実施の形態に係る顔検索システムと同様な構成については、同一箇所に同一符号を付して詳細な説明を省略するものとする。
Next, a second embodiment will be described.
FIG. 3 schematically shows a configuration example of a face search system according to the second embodiment. As shown in FIG. 3, the face search system according to the second embodiment includes an image input device 1, an input terminal 2, a server 3, an output terminal 4, a personal information input device 5, and the like. In addition to the configuration of the face search system according to the first embodiment shown in FIG. 1, a personal information input device 5 is provided. In the face search system according to the second embodiment shown in FIG. 3, the same components as those of the face search system according to the first embodiment shown in FIG. The explanation will be omitted.

すなわち、図3に示す顔検索システムにおいて、上記画像入力装置1は、人物の顔を含む画像を入力する装置であり、図1に示す画像入力装置1と同様な構成を有している。また、図3に示す顔検索システムにおいて、上記出力端末4は、上記サーバ3による顔の検索結果を表示する端末であり、図1に示す出力端末4と同様な構成を有している。   That is, in the face search system shown in FIG. 3, the image input apparatus 1 is an apparatus for inputting an image including a human face, and has the same configuration as the image input apparatus 1 shown in FIG. In the face search system shown in FIG. 3, the output terminal 4 is a terminal for displaying the face search result by the server 3, and has the same configuration as the output terminal 4 shown in FIG.

上記個人情報入力装置5は、上記画像入力装置1により顔を含む画像を入力する人物の個人情報を入力する装置である。上記個人情報入力装置5は、個人情報あるいは個人情報の一部を入力するものであれば良く、種々の装置で実現可能である。たとえば、上記個人情報入力装置5としては、キーにより個人情報が入力されるキーボード、画面上に表示したキーに触れることにより個人情報が入力されるタッチパネル、個人情報が記憶されているIDカードから個人情報を読取るカードリーダなどが適用可能である。   The personal information input device 5 is a device for inputting personal information of a person who inputs an image including a face by the image input device 1. The personal information input device 5 may be any device that inputs personal information or a part of personal information, and can be realized by various devices. For example, the personal information input device 5 includes a keyboard through which personal information is input by a key, a touch panel through which personal information is input by touching the key displayed on the screen, and an ID card storing personal information. A card reader or the like that reads information is applicable.

また、図3に示す顔検索システムにおいて、上記入力端末2は、画像取得手段としての画像取得部21、顔画像検出手段としての顔検出部22、特徴量抽出手段としての特徴抽出部23、特徴データ及び個人情報送信部24、および、個人情報取得手段としての個人情報取得部25を有している。   In the face search system shown in FIG. 3, the input terminal 2 includes an image acquisition unit 21 as an image acquisition unit, a face detection unit 22 as a face image detection unit, a feature extraction unit 23 as a feature amount extraction unit, and a feature. It has a data and personal information transmission unit 24 and a personal information acquisition unit 25 as personal information acquisition means.

上記画像取得部21は、上記画像入力装置1から画像データを取得するインターフェースであり、図1に示す画像取得部21と同様な機能を有している。上記顔検出部22は、上記画像取得部21にて取得した画像から人物の顔画像を抽出するものであり、図1に示す顔検出部22と同様な機能を有している。上記特徴抽出部23は、上記顔検出部22にて抽出した顔画像から顔の特徴量としての特徴データを生成するものであり、図1に示す特徴抽出部23と同様な機能を有している。   The image acquisition unit 21 is an interface for acquiring image data from the image input device 1, and has the same function as the image acquisition unit 21 shown in FIG. The face detection unit 22 extracts a human face image from the image acquired by the image acquisition unit 21, and has the same function as the face detection unit 22 shown in FIG. The feature extraction unit 23 generates feature data as a facial feature quantity from the face image extracted by the face detection unit 22, and has the same function as the feature extraction unit 23 shown in FIG. Yes.

上記特徴データ及び個人情報送信部24は、上記特徴抽出部23により生成された顔の特徴データと上記個人情報取得部25により取得した個人情報を上記サーバ3へ送信するものである。上記特徴データ・個人情報送信部24は、図1に示す特徴データ送信部24と同様に、ネットワークインターフェースにより構成される。また、上記特徴データ・個人情報送信部24は、上記サーバ3へ送信する顔の特徴データ及び個人情報などのデータを暗号化する暗号化機能を設けるようにしても良い。   The feature data and personal information transmission unit 24 transmits the facial feature data generated by the feature extraction unit 23 and the personal information acquired by the personal information acquisition unit 25 to the server 3. The feature data / personal information transmission unit 24 is configured by a network interface in the same manner as the feature data transmission unit 24 shown in FIG. Further, the feature data / personal information transmission unit 24 may be provided with an encryption function for encrypting data such as face feature data and personal information transmitted to the server 3.

また、図3に示す顔検索システムにおいて、上記サーバ3は、特徴データ受信手段あるいは個人情報受信手段としての特徴データ・個人情報受信部31、記憶手段としての顔特徴データベース32、顔検索手段としての顔検索部33、および、出力手段としての検索結果送信部34を有している。   In the face search system shown in FIG. 3, the server 3 includes a feature data / personal information receiving unit 31 as feature data receiving means or personal information receiving means, a face feature database 32 as storage means, and face search means. A face search unit 33 and a search result transmission unit 34 as output means are provided.

上記特徴データ・個人情報受信部31は、上記入力端末2から送信された顔の特徴データと個人情報とを受信するものであり、図1に示す特徴データ受信部31と同様に、ネットワークインターフェースにより構成される。また、上記特徴データ・個人情報受信部31には、上記特徴データ・個人情報送信部24の暗号化機能に対応した復号化機能を設けるようにしても良い。   The feature data / personal information receiving unit 31 receives facial feature data and personal information transmitted from the input terminal 2, and is similar to the feature data receiving unit 31 shown in FIG. Composed. Further, the feature data / personal information receiving unit 31 may be provided with a decryption function corresponding to the encryption function of the feature data / personal information transmission unit 24.

上記顔特徴データベース32は、図1に示す顔特徴データベース32と同様に、ハードディスク装置などの記憶装置により構成される。なお、図3に示す構成においては、上記顔特徴データベース32には、登録者を特定するための個人情報とともに上記個人情報入力装置5により入力される個人情報に対応づけて登録者の顔画像における顔の特徴データ等が登録される。   The face feature database 32 is configured by a storage device such as a hard disk device, similar to the face feature database 32 shown in FIG. In the configuration shown in FIG. 3, the facial feature database 32 includes personal information for identifying a registrant in the facial image of the registrant associated with the personal information input by the personal information input device 5. Facial feature data and the like are registered.

上記顔検索部33は、上記特徴データ・個人情報受信部31により受信した顔の特徴データと上記顔特徴データベース32に登録されている顔の特徴データとの照合処理を行うものであり、図1に示す顔検索部33と同様な機能を有している。さらに、図3に示す顔検索部33は、上記特徴データ・個人情報受信部31により受信した個人情報により上記顔特徴データベース32に登録されている顔の特徴データを絞り込むための条件抽出部33aを有している。上記条件抽出部33aは、上記特徴データ・個人情報受信部31により受信した個人情報により上記顔特徴データベース32に登録されている顔の特徴データのうち検索対象とする特徴データを絞り込むものである。   The face search unit 33 performs a collation process between the face feature data received by the feature data / personal information receiving unit 31 and the face feature data registered in the face feature database 32. FIG. The face search unit 33 shown in FIG. Further, the face search unit 33 shown in FIG. 3 includes a condition extraction unit 33a for narrowing down the face feature data registered in the face feature database 32 based on the personal information received by the feature data / personal information receiving unit 31. Have. The condition extracting unit 33a narrows down the feature data to be searched from the facial feature data registered in the facial feature database 32 based on the personal information received by the feature data / personal information receiving unit 31.

すなわち、上記顔検索部33では、上記条件抽出部33aにより上記入力端末2から受信した個人情報に基づいて検索対象とする特徴データを絞り込み、上記条件抽出部33aにより絞り込まれた検索対象の特徴データと上記入力端末2から受信した特徴データとの照合処理を行う。これにより、上記顔検索部33では、上記条件抽出部33aにより絞り込まれた検索対象の特徴データのうち上記特徴データ受信部31により受信した顔の特徴データと最も類似する顔の特徴データを登録者を顔の検索結果として出力する。   That is, the face search unit 33 narrows down the feature data to be searched based on the personal information received from the input terminal 2 by the condition extraction unit 33a, and the search target feature data narrowed down by the condition extraction unit 33a. And the feature data received from the input terminal 2 are collated. As a result, the face search unit 33 stores the feature data of the face most similar to the feature data of the face received by the feature data receiving unit 31 among the feature data of the search target narrowed down by the condition extraction unit 33a. Is output as a face search result.

また、上記条件抽出部33aでは、個人情報により上記顔特徴データベース32から複数の特徴データを検索対象として絞り込むようにしても良いし、個人情報により上記顔特徴データベース32から1つの特徴データを検索対象として絞り込むようにしても良い。前者の場合、上記顔検索部33では、1:n(個人情報により絞り込んだ特徴データの数)の照合処理を行い、後者の場合には、1:1の照合処理を行う。なお、本第2の実施の形態では、1:n(個人情報により絞り込んだ特徴データの数)の照合を行う場合を想定して説明するものとする。   The condition extraction unit 33a may narrow down a plurality of feature data from the face feature database 32 as a search target based on personal information, or may search for one feature data from the face feature database 32 based on personal information. You may make it narrow down as. In the former case, the face search unit 33 performs a 1: n (number of feature data narrowed down by personal information) matching process, and in the latter case, a 1: 1 matching process. In the second embodiment, it is assumed that 1: n (the number of feature data narrowed down by personal information) is collated.

また、上記検索結果送信部34は、上記顔検索部33による顔の検索結果を示すデータを上記出力端末4へ送信するものであり、図1に示す検索結果送信部34と同様に、ネットワークインターフェースにより構成される。また、上記検索結果送信部34には、上記出力端末4へ送信する検索結果などのデータを暗号化する暗号化機能を設けるようにしても良い。なお、上記特徴データ・個人情報受信部31と上記検索結果送信部34とは、1つのネットワークインターフェースによって構成されるようにしても良い。   Further, the search result transmission unit 34 transmits data indicating the face search result by the face search unit 33 to the output terminal 4 and, like the search result transmission unit 34 shown in FIG. Consists of. Further, the search result transmission unit 34 may be provided with an encryption function for encrypting data such as search results transmitted to the output terminal 4. The feature data / personal information receiving unit 31 and the search result transmitting unit 34 may be configured by a single network interface.

次に、上記のように構成される第2の実施の形態に係る顔検索システムにおける処理の流れについて説明する。
図4は、第2の実施の形態に係る顔検索システムにおける処理の流れを説明するためのフローチャートである。なお、図4に示す処理は、図2に示す処理に対して、入力端末2に入力された個人情報に基づいて検索対象なる特徴データを絞り込む処理を加えたものである。このため、図4において、図2の処理ステップと同様な処理ステップには、同一箇所に同一符号を付して詳細な説明を省略するものとする。
Next, a processing flow in the face search system according to the second embodiment configured as described above will be described.
FIG. 4 is a flowchart for explaining the flow of processing in the face search system according to the second embodiment. The process shown in FIG. 4 is obtained by adding the process of narrowing down the feature data to be searched based on the personal information input to the input terminal 2 to the process shown in FIG. For this reason, in FIG. 4, the same steps as those in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

まず、第2の実施の形態に係る顔検索システムでは、上記画像入力装置1により人物の顔を含む画像を入力するとともに、上記個人情報入力装置5により人物の個人情報が入力される。例えば、上記画像入力装置1がビデオカメラとして構成され、上記個人情報入力装置5がキーボードで構成される場合、上記画像入力装置1としてのビデオカメラが人物の顔を含む画像を撮影するとともに、上記個人情報入力装置5としてのキーボードを用いて当該人物により個人情報が入力される。   First, in the face search system according to the second embodiment, an image including a person's face is input by the image input device 1, and personal information of the person is input by the personal information input device 5. For example, when the image input device 1 is configured as a video camera and the personal information input device 5 is configured with a keyboard, the video camera as the image input device 1 captures an image including a human face, and Personal information is input by the person using the keyboard as the personal information input device 5.

上記画像入力装置1に人物の顔を含む画像が入力されると、上記入力端末2では、上記画像取得部21が上記画像入力装置1に入力された画像を取得する(ステップS11)。上記画像取得部21により上記画像入力装置1から画像を取得すると、上記顔検出部22は、取得した画像から顔画像を抽出する(ステップS12)。上記顔検出部22により顔画像を抽出すると、上記特徴抽出部23は、顔画像から顔の特徴点などの特徴量としての顔の特徴データを生成する(ステップS13)。上記特徴抽出部23により生成された顔の特徴データは、上記特徴データ・個人情報送信部24へ供給される。   When an image including a person's face is input to the image input device 1, the image acquisition unit 21 acquires an image input to the image input device 1 in the input terminal 2 (step S11). When the image acquisition unit 21 acquires an image from the image input device 1, the face detection unit 22 extracts a face image from the acquired image (step S12). When the face image is extracted by the face detection unit 22, the feature extraction unit 23 generates face feature data as a feature quantity such as a feature point of the face from the face image (step S13). The facial feature data generated by the feature extraction unit 23 is supplied to the feature data / personal information transmission unit 24.

また、上記個人情報入力装置5に個人情報が入力されると、上記入力端末2では、上記個人情報入力装置5に入力された個人情報を上記個人情報取得部25により取得する(ステップS16)。上記個人情報取得部25により取得された個人情報は、上記特徴データ・個人情報送信部24へ供給される。   When personal information is input to the personal information input device 5, the input terminal 2 acquires the personal information input to the personal information input device 5 by the personal information acquisition unit 25 (step S16). The personal information acquired by the personal information acquisition unit 25 is supplied to the feature data / personal information transmission unit 24.

上記特徴データ・個人情報送信部24では、上記特徴抽出部23により生成された顔の特徴データと、上記個人情報取得部25により取得された個人情報とを対応づけて上記サーバ3へ送信する(ステップS17)。この際、上記サーバ3へ送信するデータを暗号化する場合、上記特徴データ・個人情報送信部24は、上記特徴抽出部23により生成された顔の特徴データと個人情報とを暗号化し、ネットワークを介してサーバ3へ送信する。   The feature data / personal information transmission unit 24 associates the facial feature data generated by the feature extraction unit 23 with the personal information acquired by the personal information acquisition unit 25 and transmits it to the server 3 ( Step S17). At this time, when the data to be transmitted to the server 3 is encrypted, the feature data / personal information transmission unit 24 encrypts the facial feature data and the personal information generated by the feature extraction unit 23 to create a network. To the server 3.

上記入力端末2から特徴データと個人情報とが送信されると、上記サーバ3では、上記特徴データ・個人情報受信部31により上記入力端末2からの特徴データと個人情報とを受信する(ステップS25)。上記特徴データ・個人情報受信部31により受信した特徴データと個人情報とは、上記顔検索部33へ供給される。なお、上記入力端末2からの特徴データおよび個人情報が暗号化されている場合、上記特徴データ・個人情報受信部31では、受信した特徴データと個人情報を復号化して顔検索部33へ供給する。   When the feature data and personal information are transmitted from the input terminal 2, the server 3 receives the feature data and personal information from the input terminal 2 by the feature data / personal information receiving unit 31 (step S25). ). The feature data and personal information received by the feature data / personal information receiving unit 31 are supplied to the face search unit 33. When the feature data and personal information from the input terminal 2 are encrypted, the feature data / personal information receiving unit 31 decrypts the received feature data and personal information and supplies them to the face search unit 33. .

上記顔検索部33では、上記条件抽出部33aが上記特徴データ・個人情報受信部31により受信した個人情報に応じて上記顔特徴データベース32に登録されている特徴データを絞り込むための条件を抽出し、この条件に基づいて上記顔特徴データベース32に登録されている特徴データから検索対象としての特徴データを絞り込む(ステップS26)。   In the face search unit 33, the condition extraction unit 33 a extracts conditions for narrowing down the feature data registered in the face feature database 32 according to the personal information received by the feature data / personal information receiving unit 31. Based on this condition, the feature data as the search target is narrowed down from the feature data registered in the face feature database 32 (step S26).

上記条件抽出部33aにより検索対象の特徴データを絞り込むと、上記顔検索部33では、上記特徴データ・個人情報受信部31により受信した特徴データと上記条件抽出部33aにより絞り込んだ検索対象の特徴データとの検索処理(照合処理)を行う(ステップS27)。上記検索処理(照合処理)は、上記特徴データ受信部31により受信した顔の特徴データと一致する顔の特徴データを上記条件抽出部33aにより絞り込んだ検索対象から検索する処理である。   When the search target feature data is narrowed down by the condition extraction unit 33a, the face search unit 33 causes the feature data received by the feature data / personal information reception unit 31 and the search target feature data narrowed down by the condition extraction unit 33a. The search process (collation process) is performed (step S27). The search process (collation process) is a process for searching for facial feature data matching the facial feature data received by the feature data receiving unit 31 from search targets narrowed down by the condition extracting unit 33a.

たとえば、上記顔検索部33は、上記特徴データ受信部31により受信した特徴データと上記条件抽出部33aにより絞り込んだ全ての特徴データとの照合度を算出する。これにより算出した照合度のうち最大照合度が所定の閾値以上であれば、上記顔検索部33は、上記特徴データ受信部31により受信した特徴データが最大照合度を与える特徴データと一致したものと判断する。この場合、上記顔検索部33は、検索結果として最大照合度となった特徴データの登録者を示す情報を出力する。   For example, the face search unit 33 calculates the matching degree between the feature data received by the feature data receiving unit 31 and all the feature data narrowed down by the condition extracting unit 33a. If the maximum matching degree among the matching degrees calculated in this way is equal to or greater than a predetermined threshold, the face search unit 33 matches the feature data received by the feature data receiving unit 31 with the feature data giving the maximum matching degree. Judge. In this case, the face search unit 33 outputs information indicating the registrant of the feature data having the maximum matching degree as a search result.

また、算出した照合度のうち最大照合度が所定の閾値未満であれば、上記顔検索部33は、上記特徴データ受信部31により受信した特徴データと一致する特徴データが上記条件抽出部33aにより絞り込んだ特徴データ(入力された個人情報に対応する特徴データ)には存在しないものと判断する。この場合、上記顔検索部33は、検索結果として該当する登録者がいない旨を示す情報を出力する。   If the maximum matching degree among the calculated matching degrees is less than a predetermined threshold, the face search unit 33 causes the condition extraction unit 33a to send feature data that matches the feature data received by the feature data receiving unit 31. It is determined that the refined feature data (feature data corresponding to the input personal information) does not exist. In this case, the face search unit 33 outputs information indicating that there is no corresponding registrant as a search result.

上記ような検索処理による検索結果は、上記顔検索部33から検索結果送信部34へ供給され、上記検索結果送信部34により上記出力端末4へ送信される(ステップS28)。上記サーバ3から検索結果が送信された出力端末4では、上記検索結果受信部41により上記サーバ3からの検索結果を受信し(ステップS31)、受信した検索結果を上記表示部42により表示する(ステップS32)。   The search result by the above search processing is supplied from the face search unit 33 to the search result transmission unit 34, and is transmitted to the output terminal 4 by the search result transmission unit 34 (step S28). In the output terminal 4 to which the search result is transmitted from the server 3, the search result receiving unit 41 receives the search result from the server 3 (step S31), and the received search result is displayed on the display unit 42 ( Step S32).

上記第2の実施の形態に係る顔検索システムでは、第1の実施の形態で説明した顔検索システムに加えて、入力端末が個人情報入力装置に入力された個人情報を取得し、取得した個人情報を顔の特徴データとともにサーバへ転送し、サーバが個人情報により絞り込んだ特徴データを検索対象として顔検索処理を行うようにしたものである。   In the face search system according to the second embodiment, in addition to the face search system described in the first embodiment, the input terminal acquires personal information input to the personal information input device, and the acquired personal information The information is transferred to the server together with the face feature data, and the face search process is performed on the feature data narrowed down by the personal information by the server.

これにより、上記第2の実施の形態に係る顔検索システムによれば、第1の実施の形態で説明した効果に加えて、サーバでの顔検索処理に要する時間を削減することが可能となり、顔特徴データベースに記憶されている情報量が増大しても顔検索処理に要する時間の増加を抑えられ、さらには、検索結果の精度を向上させることが可能となる。   Thereby, according to the face search system according to the second embodiment, in addition to the effects described in the first embodiment, it is possible to reduce the time required for the face search process in the server. Even if the amount of information stored in the face feature database increases, an increase in the time required for the face search process can be suppressed, and the accuracy of the search result can be improved.

なお、上記第1及び第2の実施の形態として説明した顔検索システムは、入力端末で取得した顔画像に対するサーバでの顔検索結果を出力端末へ送付するようになっている。また、照合対象となる人物の顔を含む画像を入力するための入力端末、顔検索処理を行うサーバ、および、検索結果を表示するための出力端末とは、離れた場所に設置した別々の装置で実現することができる。従って、入力端末、サーバおよび出力端末は、それぞれ離れた場所に設置することができ、人物の顔検索状況を遠隔監視することが可能となる。この結果、入力端末やサーバ以外の設置場所以外の場所に設置した出力端末で検索結果を確認することなどが可能である。   The face search system described as the first and second embodiments is configured to send the face search result at the server for the face image acquired at the input terminal to the output terminal. In addition, an input terminal for inputting an image including a face of a person to be collated, a server for performing face search processing, and an output terminal for displaying a search result are separate devices installed at remote locations. Can be realized. Therefore, the input terminal, the server, and the output terminal can be installed at remote locations, and it is possible to remotely monitor the face search status of a person. As a result, it is possible to check the search result with an output terminal installed at a location other than the installation location other than the input terminal and the server.

また、上記第1及び第2の実施の形態では、生体情報として顔画像を用いた人物の検索システム(顔検索システム)について説明したが、他の生体情報を用いた人物などの検索システムにも同様に適用できる。さらには、上記第1及び第2の実施の形態は、入力されたデータから得られる特徴データと、データベースに予め記憶されている特徴データとを照合することにより検索処理を行うシステムにも適用可能である。   In the first and second embodiments, a person search system (face search system) using a face image as biometric information has been described. However, the search system for a person using other biometric information can also be used. The same applies. Furthermore, the first and second embodiments can be applied to a system that performs a search process by comparing feature data obtained from input data with feature data stored in advance in a database. It is.

本発明の第1の実施の形態に係る顔検索システムの概略構成を示す図。The figure which shows schematic structure of the face search system which concerns on the 1st Embodiment of this invention. 第1の実施の形態としての顔検索システムにおける処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the process in the face search system as 1st Embodiment. 本発明の第2の実施の形態に係る顔検索システムの概略構成を示す図。The figure which shows schematic structure of the face search system which concerns on the 2nd Embodiment of this invention. 第2の実施の形態としての顔検索システムにおける処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process in the face search system as 2nd Embodiment.

符号の説明Explanation of symbols

1…画像入力装置、2…入力端末、3…サーバ、4…出力端末、5…個人情報入力装置、21…画像取得部、22…顔検出部、23…特徴抽出部、24…特徴データ送信部(特徴データ・個人情報送信部)、25…個人情報取得部、31…特徴データ受信部(特徴データ・個人情報受信部)、32…顔特徴データベース、33…顔検索部、33a…条件抽出部、34…検索結果送信部、41…検索結果受信部、42…表示部   DESCRIPTION OF SYMBOLS 1 ... Image input device, 2 ... Input terminal, 3 ... Server, 4 ... Output terminal, 5 ... Personal information input device, 21 ... Image acquisition part, 22 ... Face detection part, 23 ... Feature extraction part, 24 ... Feature data transmission Part (feature data / personal information transmission part), 25 ... personal information acquisition part, 31 ... feature data reception part (feature data / personal information reception part), 32 ... face feature database, 33 ... face search part, 33a ... condition extraction 34: Search result transmission unit 41: Search result reception unit 42: Display unit

Claims (5)

端末機器と、サーバ装置とを有する検索システムにおいて、
前記端末機器は、
特徴量を含むデータを入力するデータ入力手段と、
このデータ入力手段により取得したデータから特徴データを生成する特徴データ生成手段と、
この特徴データ生成手段により生成した特徴データをサーバ装置に送信するデータ送信手段と、を有し、
前記サーバ装置は、
予め特定の特徴データが記憶されている記憶手段と、
前記端末機器からの送信された特徴データを受信するデータ受信手段と、
このデータ受信手段により受信した特徴データと所定の基準値以上類似している特徴データを前記記憶手段に記憶されている特徴データから検索する検索手段と、を有する、
ことを特徴とする検索システム。
In a search system having a terminal device and a server device,
The terminal device is
Data input means for inputting data including feature values;
Feature data generating means for generating feature data from the data acquired by the data input means;
Data transmission means for transmitting the characteristic data generated by the characteristic data generation means to the server device,
The server device
Storage means for storing specific feature data in advance;
Data receiving means for receiving feature data transmitted from the terminal device;
Search means for searching for feature data similar to the feature data received by the data receiving means by a predetermined reference value or more from the feature data stored in the storage means,
A search system characterized by that.
端末機器とサーバ装置とを有する検索システムにおいて、
前記端末機器は、
人物の生体情報を含むデータを取得するデータ入力手段と、
このデータ入力手段により取得したデータから生体情報を抽出する生成情報抽出手段と、
この生成情報抽出手段により抽出した生体情報から生体情報の特徴を示す特徴データを生成する特徴データ生成手段と、
この特徴データ生成手段により生成した特徴データをサーバ装置に送信するデータ送信手段と、を有し、
前記サーバ装置は、
登録者の生体情報の特徴データが記憶されている記憶手段と、
前記端末機器からの送信された特徴データを受信するデータ受信手段と、
このデータ受信手段により受信した特徴データと所定の基準以上類似している特徴データを前記記憶手段に記憶されている登録者の生体情報の特徴データから検索する検索手段と、を有する、
ことを特徴とする検索システム。
In a search system having a terminal device and a server device,
The terminal device is
Data input means for acquiring data including biological information of a person;
Generation information extraction means for extracting biological information from data acquired by the data input means;
Feature data generating means for generating feature data indicating the characteristics of the biological information from the biological information extracted by the generated information extracting means;
Data transmission means for transmitting the characteristic data generated by the characteristic data generation means to the server device,
The server device
Storage means for storing biometric information feature data of the registrant;
Data receiving means for receiving feature data transmitted from the terminal device;
Search means for searching for feature data similar to the feature data received by the data receiving means over a predetermined reference from the feature data of the biometric information of the registrant stored in the storage means;
A search system characterized by that.
端末機器とサーバ装置とを有する検索システムにおいて、
前記端末機器は、
人物の生体情報を含むデータを取得するデータ入力手段と、
このデータ入力手段により取得したデータから生体情報を抽出する生成情報抽出手段と、
この生成情報抽出手段により抽出した生体情報から生体情報の特徴を示す特徴データを生成する特徴データ生成手段と、
前記データ入力手段により入力したデータに含まれる生体情報の人物の個人情報を取得する個人情報入力手段と、
前記特徴データ生成手段により生成した特徴データと前記個人情報入力手段により取得した個人情報とをサーバ装置に送信するデータ送信手段と、を有し、
前記サーバ装置は、
登録者の生体情報の特徴データと個人情報とを対応づけて記憶している記憶手段と、
前記端末機器からの送信された特徴データと個人情報とを受信するデータ受信手段と、
前記データ受信手段により受信した個人情報に基づいて前記記憶手段に記憶されている登録者の生体情報の特徴データから検索対象とする特徴データを絞り込む絞込手段と、
前記データ受信手段により前記端末機器から受信した特徴データに対して所定の基準以上類似している特徴データを前記絞込手段により絞り込んだ特徴データから検索する検索手段と、を有する、
ことを特徴とする検索システム。
In a search system having a terminal device and a server device,
The terminal device is
Data input means for acquiring data including biological information of a person;
Generation information extraction means for extracting biological information from data acquired by the data input means;
Feature data generating means for generating feature data indicating the characteristics of the biological information from the biological information extracted by the generated information extracting means;
Personal information input means for acquiring personal information of the person of the biometric information included in the data input by the data input means;
Data transmitting means for transmitting the characteristic data generated by the characteristic data generating means and the personal information acquired by the personal information input means to a server device;
The server device
Storage means for storing the biometric information feature data of the registrant and personal information in association with each other;
Data receiving means for receiving feature data and personal information transmitted from the terminal device;
Narrowing means for narrowing down feature data to be searched from feature data of biometric information of a registrant stored in the storage means based on personal information received by the data receiving means;
Search means for searching from the feature data narrowed down by the narrowing means for feature data similar to the feature data received from the terminal device by the data receiving means over a predetermined reference,
A search system characterized by that.
前記生体情報は、人物の顔画像であり、前記生体情報の特徴データは、各個人の顔の特徴を示す特徴データである、
ことを特徴とする前記請求項2又は3に記載の検索システム。
The biometric information is a face image of a person, and the feature data of the biometric information is feature data indicating a feature of each individual face.
The search system according to claim 2 or 3, wherein the search system is characterized.
さらに、上記サーバ装置の検索手段による検索結果を受信し、受信した検索結果を表示する第2の端末機器を有する、
ことを特徴とする前記請求項2又は3に記載の検索システム。
Furthermore, it has the 2nd terminal device which receives the search result by the search means of the said server apparatus, and displays the received search result,
The search system according to claim 2 or 3, wherein the search system is characterized.
JP2005116026A 2005-04-13 2005-04-13 Retrieval system Pending JP2006293842A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005116026A JP2006293842A (en) 2005-04-13 2005-04-13 Retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005116026A JP2006293842A (en) 2005-04-13 2005-04-13 Retrieval system

Publications (1)

Publication Number Publication Date
JP2006293842A true JP2006293842A (en) 2006-10-26

Family

ID=37414329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005116026A Pending JP2006293842A (en) 2005-04-13 2005-04-13 Retrieval system

Country Status (1)

Country Link
JP (1) JP2006293842A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6179848A (en) * 1984-09-25 1986-04-23 Mitsubishi Electric Corp Stirling engine
WO2008078624A1 (en) * 2006-12-22 2008-07-03 Panasonic Corporation Video outputting apparatus
JP2010277488A (en) * 2009-05-29 2010-12-09 Future Spirits Lab Co Ltd Noncontact input processing system, method and program for controlling the same
JP2014215776A (en) * 2013-04-24 2014-11-17 キヤノン株式会社 System, server device, and server device control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6179848A (en) * 1984-09-25 1986-04-23 Mitsubishi Electric Corp Stirling engine
WO2008078624A1 (en) * 2006-12-22 2008-07-03 Panasonic Corporation Video outputting apparatus
JP2010277488A (en) * 2009-05-29 2010-12-09 Future Spirits Lab Co Ltd Noncontact input processing system, method and program for controlling the same
JP2014215776A (en) * 2013-04-24 2014-11-17 キヤノン株式会社 System, server device, and server device control method

Similar Documents

Publication Publication Date Title
US10216980B2 (en) Method and system for tagging an individual in a digital image
Joseph et al. RETRACTED ARTICLE: A multimodal biometric authentication scheme based on feature fusion for improving security in cloud environment
JP4177598B2 (en) Face image recording apparatus, information management system, face image recording method, and information management method
US20130108105A1 (en) Apparatus and method for masking privacy region based on monitored video image
US20120032781A1 (en) Remote personal authentication system and method using biometrics
JP2008305400A (en) Face image recording apparatus, and face image recording method
CN101221612A (en) Method for enciphering and deciphering electric document file by face recognition
Ali et al. Cancelable biometrics technique for iris recognition
WO2014061895A1 (en) Electronic signing method based on biometric information recognition and method for verifying electronically signed electronic document based on said biometric information recognition, and terminal, server, and computer-readable recording medium using same
JP2006293842A (en) Retrieval system
CN114596639A (en) Biological feature recognition method and device, electronic equipment and storage medium
Choras Ear Biometrics.
Kamal et al. A symmetric bio-hash function based on fingerprint minutiae and principal curves approach
JP7048147B2 (en) Search system, search device, terminal device, search method, and program
JP2010086263A (en) Biometrics matching device, face matching device and biometrics matching method
CN115879126A (en) Medical information sharing method based on secure cloud storage, electronic device and storage medium
Suruthikeerthana et al. An Extended Visual Cryptography With Dynamically Authenticated Error Avoidance Scheme For Bank Applications
Han et al. A biometric encryption approach incorporating fingerprint indexing in key generation
KR100564372B1 (en) System and method for automatically taking a human face front-view photograph
KR20120014533A (en) System and method for user verification using biometrics at a distance
JP5718757B2 (en) Image management apparatus, image management program, and image management method
JP6086416B1 (en) Data processing system, data management device, method and program, data processing device, method and program
KR20080006070A (en) The system which searches the attention objective person from crowd utilization facilities
JPH1173103A (en) Method of controlling encoding and recording medium having recorde program readable by machine
KR102530463B1 (en) Image security device and method using pedestrian face detection information