JP2010067008A - Imaging management system, imaging management method, authentication system, and authentication method - Google Patents

Imaging management system, imaging management method, authentication system, and authentication method Download PDF

Info

Publication number
JP2010067008A
JP2010067008A JP2008232684A JP2008232684A JP2010067008A JP 2010067008 A JP2010067008 A JP 2010067008A JP 2008232684 A JP2008232684 A JP 2008232684A JP 2008232684 A JP2008232684 A JP 2008232684A JP 2010067008 A JP2010067008 A JP 2010067008A
Authority
JP
Japan
Prior art keywords
imaging
image
imaging means
objects
authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008232684A
Other languages
Japanese (ja)
Inventor
Kosuke Oe
孝輔 大江
Yukio Go
志雄 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2008232684A priority Critical patent/JP2010067008A/en
Publication of JP2010067008A publication Critical patent/JP2010067008A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To acquire a target image with high resolution by recognizing one or more objects from a video image of a first imaging means for overall imaging, and controlling a plurality of second imaging means according thereto. <P>SOLUTION: The imaging system includes: a first imaging means; and a plurality of second imaging means, and configured to perform the imaging management of one or more objects included in the video image of the first imaging means. The imaging management system includes: an object specification means for specifying one or more objects included in the video image of the first imaging means; an imaging control means for assigning each of the second imaging means to one or more specified objects, and for controlling each of the second imaging means so as to capture a video image with resolution higher than that of the video image of the first imaging means for the one or more objects; and a high resolution image management means for simultaneously acquiring and managing the images with high resolution of the one or more objects captured by each of the second imaging means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像管理システム、撮像管理方法、認証システム及び認証方法に関し、例えば、全体を撮像する親カメラの映像から人物を認識し、それに応じて複数の子カメラを制御することにより、高解像度の人物画像を取得し、認証を行うシステムに適用し得るものである。   The present invention relates to an imaging management system, an imaging management method, an authentication system, and an authentication method, for example, by recognizing a person from an image of a parent camera that captures the entire image and controlling a plurality of child cameras accordingly, thereby achieving high resolution. It can be applied to a system that acquires and authenticates human images.

例えば顔や所持物などの特徴点や特徴情報を認証する認証技術がある。この認証技術を利用したシステムとして、例えば、特許文献1、特許文献2に記載のように、建物などに入退場する人の監視や管理を行い、セキュリティを必要とする部屋や施設等への入退場を管理する入退場管理システムや監視システムなどがある。   For example, there is an authentication technique for authenticating feature points and feature information such as faces and belongings. As a system using this authentication technology, for example, as described in Patent Document 1 and Patent Document 2, a person who enters or leaves a building is monitored and managed to enter a room or facility that requires security. There are entrance / exit management systems and monitoring systems that manage exits.

例えば入退場者の顔の特徴点を認証する認証技術を入退場管理システムに利用する場合、入退場者がカメラの前に立ち止まり、カメラが入退場者一人ひとりの顔を撮像した画像から顔の特徴点を取得して認証するのが一般的であり、歩行者のように動く人物に対しては、その特徴点や特徴情報を認識することが困難である。   For example, when using authentication technology that authenticates the feature points of the entrance / exit's face in the entrance / exit management system, the entrance / exit person stops in front of the camera, and the camera captures the facial features from the images of each person It is common to acquire and authenticate points, and it is difficult for a person who moves like a pedestrian to recognize the feature points and feature information.

このような課題に対して、特許文献1の記載技術は、生体照合手段による入退場者の生体情報の照合結果に応じて、制御手段が入退場者の施設への入退場を制御するものであり、撮像手段が入退場者の顔画像を撮像し、入退場者の生体照合結果と顔画像などを入退場履歴として管理する技術である。   In order to deal with such a problem, the technology described in Patent Document 1 controls the entry / exit of the entrance / exit to the facility of the entry / exit according to the result of collation of the biometric information of the entry / exit by the biometric collation. In other words, the imaging means captures the face image of the entrance / exit person, and manages the biometric matching result of the entrance / exit person and the face image as the entrance / exit history.

特許文献2の記載技術は、移動する人物の顔を含む画像を撮像する第1の撮像手段の撮像画像から、顔検出手段が人物の顔領域を検出し、顔領域が複数の場合に、係員が、第2の撮像手段が撮像した撮像画像から登録対象を選別する。そして、係員が選別した顔領域に基づいて特徴点を抽出して、顔特徴情報として辞書登録する技術などである。   In the technique described in Patent Document 2, when the face detection unit detects a person's face area from the captured image of the first imaging unit that captures an image including the face of the moving person, and there are a plurality of face areas, However, the registration target is selected from the captured image captured by the second imaging unit. A feature point is a technique in which feature points are extracted based on the face area selected by the clerk and registered in the dictionary as face feature information.

特開2004−78687号公報JP 2004-78687 A 特開2007−272811号公報JP 2007-272811 A

上記のような認証技術を利用したシステムにおいて、認証技術を有効に機能させるためには、次のような課題がある。   In the system using the authentication technology as described above, there are the following problems in order to make the authentication technology function effectively.

複数の人物を同時に認識するには単一のカメラを制御するだけでは困難であるという課題が生じ得る。例えば、特許文献2の記載技術は係員の選別により第1の撮像手段が撮像した顔領域から顔特徴情報を抽出するが、カメラの撮像画像に複数の人物が同時に映っている場合には、各人の顔領域が充分な大きさでないことがあり、顔認識を有効に行うことができない場合がある。   There may be a problem that it is difficult to recognize a plurality of persons simultaneously by simply controlling a single camera. For example, the technique described in Patent Document 2 extracts facial feature information from the face area captured by the first imaging means by selecting an attendant, and when a plurality of persons are simultaneously shown in the captured image of the camera, A human face area may not be sufficiently large, and face recognition may not be performed effectively.

また、顔認証技術など人物の特徴をデータとして取得し、これら特徴データを基に確実に人物を特定するには高解像度の画像が必要となる。   In addition, a high-resolution image is required to acquire human features such as face authentication technology as data and to reliably identify a person based on these feature data.

なお、認証技術を利用するシステムとしては、上記のような入退室管理システムだけでなく、例えば駅、空港などでの監視システムなどもあり、このような監視システムにも上記と同様の課題がある。   As a system using the authentication technology, there are not only the entrance / exit management system as described above but also a monitoring system at a station, an airport, etc., and such a monitoring system has the same problem as above. .

そこで、本発明では、複数の対象(例えば、人物、物など)を認識できるように全体を撮影する第1の撮像手段を用意し、各対象を複数の第2の撮像手段に割り当て、各々を制御することによって、高解像度の対象の画像を取得し、例えば顔認証技術など高微細の画像が必要となる撮像管理システム、撮像管理方法、認証システム及び認証方法を提供することにある。   Therefore, in the present invention, first imaging means for photographing the whole so as to recognize a plurality of objects (for example, a person, an object, etc.) is prepared, and each object is assigned to a plurality of second imaging means. An object of the present invention is to provide an imaging management system, an imaging management method, an authentication system, and an authentication method that acquire a high-resolution target image by control and require a high-definition image such as a face authentication technique.

かかる課題を解決するために、第1の本発明の撮像管理システムは、第1の撮像手段と、第1の撮像手段の映像よりも狭い範囲を撮像する複数の第2の撮像手段とを備え、第1の撮像手段の映像に映っている1又は複数の対象の撮像管理を行う撮像管理システムであって、(1)第1の撮像手段から取得した映像に基づいて、特定する対象の特徴情報を含む特徴領域を検索して、第1の撮像手段の映像に映っている1又は複数の対象を特定する対象特定手段と、(2)対象特定手段により特定された1又は複数の対象に対して各第2の撮像手段を割り当て、1又は複数の対象について、第1の撮像手段の映像よりも高解像度の映像を撮像させるように各第2の撮像手段を制御する撮像制御手段と、(3)各第2の撮像手段が撮像した1又は複数の対象の高解像度の画像を同時に取得して管理する高解像度画像管理手段とを備えることを特徴とする。   In order to solve such a problem, an imaging management system according to a first aspect of the present invention includes a first imaging unit and a plurality of second imaging units that capture a range narrower than the image of the first imaging unit. An imaging management system that performs imaging management of one or a plurality of objects that are reflected in a video of a first imaging means, and (1) a feature of an object to be identified based on a video acquired from the first imaging means A target specifying unit that searches for a feature region including information and specifies one or more targets appearing in the video of the first imaging unit; and (2) one or more targets specified by the target specifying unit. An imaging control unit that assigns each second imaging unit to each of the plurality of objects and controls each second imaging unit so as to capture a higher resolution image than the image of the first imaging unit for one or a plurality of objects; (3) One or more images captured by each second imaging means Characterized in that it comprises a high-resolution image managing means for simultaneously managing to obtain a high resolution image of the subject.

第2の本発明の撮像管理方法は、第1の撮像手段と、第1の撮像手段の映像よりも狭い範囲を撮像する複数の第2の撮像手段とを備え、第1の撮像手段の映像に映っている1又は複数の対象の撮像管理を行う撮像管理方法であって、(1)対象特定手段が、第1の撮像手段から取得した映像に基づいて、特定する対象の特徴情報を含む特徴領域を検索して、第1の撮像手段の映像に映っている1又は複数の対象を特定する対象特定工程と、(2)撮像制御手段が、対象特定手段により特定された1又は複数の対象に対して各第2の撮像手段を割り当て、1又は複数の対象について、第1の撮像手段の映像よりも高解像度の映像を撮像させるように各第2の撮像手段を制御する撮像制御工程と、(3)高解像度画像管理手段が、各第2の撮像手段が撮像した1又は複数の対象の高解像度の画像を同時に取得して管理する高解像度画像管理工程とを有することを特徴とする。   An imaging management method according to a second aspect of the present invention includes a first imaging unit and a plurality of second imaging units that capture a range narrower than an image of the first imaging unit, and an image of the first imaging unit. An imaging management method for managing imaging of one or a plurality of targets shown in (1), wherein (1) the target specifying means includes feature information of the target to be specified based on the video acquired from the first imaging means A target specifying step of searching for a feature region and specifying one or more objects shown in the image of the first imaging means; and (2) one or more of the imaging control means specified by the target specifying means. An imaging control step of assigning each second imaging means to a target and controlling each second imaging means so as to capture a higher resolution video than the video of the first imaging means for one or a plurality of targets (3) The high-resolution image management means There characterized by having a high resolution image management step of managing simultaneously obtain high resolution images of one or more target captured.

第3の本発明の認証システムは、第1の撮像手段と、第1の撮像手段の映像よりも狭い範囲を撮像する複数の第2の撮像手段とを備え、第1の撮像手段の映像に映っている1又は複数の対象の認証を行う認証システムであって、(1)第1の撮像手段から取得した映像に基づいて、特定する対象の特徴情報を含む特徴領域を検索して、第1の撮像手段の映像に映っている1又は複数の対象を特定する対象特定手段と、(2)対象特定手段により特定された1又は複数の対象に対して各第2の撮像手段を割り当て、1又は複数の対象について、第1の撮像手段の映像よりも高解像度の映像を撮像させるように各第2の撮像手段を制御する撮像制御手段と、(3)各第2の撮像手段が撮像した1又は複数の対象の高解像度の画像を同時に取得する高解像度画像取得手段と、(4)予め認証対象の1又は複数の登録情報を記憶する登録情報記憶手段と、(5)高解像度画像取得手段が取得した1又は複数の対象の高解像度画像と、登録情報記憶手段の各登録情報とに基づいて所定の認証処理を行う認証手段とを備えることを特徴とする。   An authentication system according to a third aspect of the present invention includes a first imaging unit and a plurality of second imaging units that capture a range narrower than the image of the first imaging unit. An authentication system for authenticating one or a plurality of objects shown, wherein (1) a feature area including feature information of an object to be identified is searched based on a video acquired from a first imaging unit; (1) assigning each second imaging means to one or more objects specified by the object specifying means; (2) specifying the one or more objects reflected in the image of one imaging means; Imaging control means for controlling each of the second imaging means so as to pick up an image having a higher resolution than the image of the first imaging means for one or a plurality of objects; and (3) each second imaging means takes an image. Simultaneously acquire high-resolution images of one or more objects Resolution image acquisition means, (4) registration information storage means for storing in advance one or more registration information to be authenticated, and (5) one or more target high resolution images acquired by the high resolution image acquisition means, And an authentication unit that performs a predetermined authentication process based on each registration information of the registration information storage unit.

第4の本発明の認証方法は、第1の撮像手段と、第1の撮像手段の映像よりも狭い範囲を撮像する複数の第2の撮像手段とを備え、第1の撮像手段の映像に映っている1又は複数の対象の認証を行う認証システムであって、(1)予め認証対象の1又は複数の登録情報を記憶する登録情報記憶手段を備え、(2)対象特定手段が、第1の撮像手段から取得した映像に基づいて、特定する対象の特徴情報を含む特徴領域を検索して、第1の撮像手段の映像に映っている1又は複数の対象を特定する対象特定工程と、(3)撮像制御手段が、対象特定手段により特定された1又は複数の対象に対して各第2の撮像手段を割り当て、1又は複数の対象について、第1の撮像手段の映像よりも高解像度の映像を撮像させるように各第2の撮像手段を制御する撮像制御工程と、(4)高解像度画像取得手段が、各第2の撮像手段が撮像した1又は複数の対象の高解像度の画像を同時に取得する高解像度画像取得工程と、(5)認証手段が、高解像度画像取得手段が取得した1又は複数の対象の高解像度画像と、登録情報記憶手段の各登録情報とに基づいて所定の認証処理を行う認証工程とを有することを特徴とする。   An authentication method according to a fourth aspect of the present invention includes a first imaging unit and a plurality of second imaging units that capture a range narrower than the image of the first imaging unit, and the image of the first imaging unit An authentication system for authenticating one or a plurality of objects shown, comprising (1) a registration information storage unit that stores in advance one or a plurality of registration information to be authenticated; A target specifying step of searching for a feature region including feature information of a target to be specified based on a video acquired from one imaging means and specifying one or a plurality of targets shown in the video of the first imaging means; (3) The imaging control means assigns each second imaging means to one or a plurality of objects specified by the object specifying means, and the one or more objects are higher than the video of the first imaging means. Each second imaging means is controlled so as to capture a resolution image. (4) a high-resolution image acquisition step in which the high-resolution image acquisition unit simultaneously acquires a high-resolution image of one or a plurality of objects captured by each second imaging unit; and (5) authentication. The means includes an authentication step of performing a predetermined authentication process based on the high-resolution image of one or a plurality of objects acquired by the high-resolution image acquisition means and each registration information in the registration information storage means. .

本発明によれば、全体を撮影する第1の撮像手段の映像から1又は複数の対象を認識し、それに応じて複数の第2の撮像手段を制御することにより、高解像度の対象の画像を取得することができる。   According to the present invention, an image of a high-resolution target is obtained by recognizing one or a plurality of objects from the video of the first imaging unit that captures the entire image and controlling the plurality of second imaging units accordingly. Can be acquired.

(A)第1の実施形態
以下では、本発明の撮像管理システム、撮像管理方法、認証システム及び認証方法の第1の実施形態を図面を参照しながら説明する。
(A) First Embodiment Hereinafter, a first embodiment of an imaging management system, an imaging management method, an authentication system, and an authentication method of the present invention will be described with reference to the drawings.

第1の実施形態は、本発明を利用して入退場管理システムを実現するものであり、特に会社における出退勤管理システムに適用した場合の実施形態を例示して説明する。   The first embodiment implements an entrance / exit management system using the present invention, and will be described by exemplifying an embodiment particularly applied to an attendance / exit management system in a company.

(A−1)第1の実施形態の構成
図2は、第1の実施形態の入退場管理システムにおけるカメラ配置のイメージを説明する説明図である。なお、図2では、入場ゲートGでのカメラ配置を示しているが、退場ゲートの場合も同様の構成をとることができる。
(A-1) Configuration of First Embodiment FIG. 2 is an explanatory diagram for explaining an image of camera arrangement in the entrance / exit management system of the first embodiment. In FIG. 2, the camera arrangement at the entrance gate G is shown, but the same configuration can be adopted for the exit gate.

図2に示すように、第1の実施形態の入退場管理システムでは、入場ゲートGから入場する人物を撮像する全体カメラ101と、全体カメラ101の周辺に複数(図2では4台)の子カメラ106−1〜106−4とが配置されている。図2では、撮影の精度向上、効率化の観点から、入場者がなるべく整列して入場できるように柵などの入場ゲートGが設けられている。   As shown in FIG. 2, in the entrance / exit management system of the first embodiment, the whole camera 101 that captures the person entering from the entrance gate G and a plurality of (four in FIG. 2) children around the whole camera 101. Cameras 106-1 to 106-4 are arranged. In FIG. 2, an entrance gate G such as a fence is provided so that visitors can enter as much as possible in order to improve shooting accuracy and efficiency.

第1の実施形態の入退場管理システムでは、全体カメラ101の撮像画像から1又は複数の被写体(人物)の顔認識を行い、顔認識した各人物を子カメラ106−1〜106−4に割り当て、1又は複数の子カメラ106−1〜106−4の撮像画像から、それぞれの被写体(人物)の顔認証を行い、入退場を制御、管理するものである。   In the entrance / exit management system according to the first embodiment, face recognition of one or a plurality of subjects (persons) is performed from images captured by the entire camera 101, and each person whose face is recognized is assigned to the child cameras 106-1 to 106-4. Face authentication of each subject (person) is performed from captured images of one or a plurality of child cameras 106-1 to 106-4, and entrance / exit is controlled and managed.

図1は、第1の実施形態の入退場管理システムの構成を示す構成図である。   FIG. 1 is a configuration diagram showing the configuration of the entrance / exit management system of the first embodiment.

図1において、第1の実施形態の入退場管理システム100は、全体カメラ101、動体検出装置102、人物認識装置103、カメラ位置算出装置104、子カメラ制御装置105、複数の子カメラ106、顔認識装置107、社員データベース108、出退勤管理装置109を少なくとも有する。   In FIG. 1, an entrance / exit management system 100 according to the first embodiment includes an overall camera 101, a moving object detection device 102, a person recognition device 103, a camera position calculation device 104, a child camera control device 105, a plurality of child cameras 106, a face. It has at least a recognition device 107, an employee database 108, and an attendance management device 109.

全体カメラ101は、入退場ゲート全体を撮像する撮像手段であり、撮像映像を動体検出装置102に与えるものである。全体カメラ101は、入退場ゲートを通過する1又は複数の人物を撮像できる程度の画角を持ち、その撮像画像から各人物の顔認識ができる程度の解像度で撮像するものである。   The whole camera 101 is an image pickup means for picking up an image of the entire entrance / exit gate, and gives a picked-up image to the moving object detection apparatus 102. The whole camera 101 has an angle of view that can capture one or a plurality of persons passing through an entrance / exit gate, and captures an image with a resolution that can recognize each person's face from the captured image.

動体検出装置102は、全体カメラ101からリアルタイムに撮像映像を受け取り、その映像から動体を検出するものである。また、動体検出装置102は、動体を検出した場合、その動体の位置情報を人物認識装置103に与えるものである。   The moving object detection apparatus 102 receives a captured image in real time from the entire camera 101 and detects a moving object from the image. In addition, when a moving object is detected, the moving object detection device 102 gives position information of the moving object to the person recognition device 103.

ここで、動体検出方法としては、種々の方法を適用することができるが、例えば動体検出装置102が映像フレームを記憶する記憶装置を有しており、過去のフレームと現在のフレームとの比較から差分をとり動きベクトルを検出することにより動体検出を行う方法を適用することができる。   Here, various methods can be applied as the moving object detection method. For example, the moving object detection device 102 has a storage device for storing video frames, and a comparison between a past frame and a current frame is performed. A method of detecting a moving object by taking a difference and detecting a motion vector can be applied.

また、動体検出装置102は、複数の動体を検出した場合に、それぞれの動体を特定して管理する動体分別機能を有する。この動体分別機能としては、例えば、ラベリング処理により、各動体の領域画素にラベル(番号)を付すことにより、各動体を特定して管理することができる。   In addition, the moving object detection device 102 has a moving object sorting function for specifying and managing each moving object when a plurality of moving objects are detected. As this moving object classification function, for example, each moving object can be specified and managed by labeling the area pixels of each moving object with a labeling process.

人物認識装置103は、動体検出装置102から動体の位置情報を受け取ると、その動体の位置情報から人物の部位を認識するものである。これにより、被写体の位置情報を取得することができる。ここで、人物認識装置103が認識する部位としては、例えば、顔、上半身、下半身、腕、所持物の有無などがある。   When receiving the position information of the moving object from the moving object detection apparatus 102, the person recognition apparatus 103 recognizes the person's part from the position information of the moving object. Thereby, the position information of the subject can be acquired. Here, the parts recognized by the person recognition device 103 include, for example, a face, an upper body, a lower body, an arm, and presence / absence of belongings.

第1の実施形態では人物認識装置103が顔認識を行う場合を例示する。ここで、人物認識装置103による顔認識方法としては、種々の顔認識方法を広く適用することができ、例えば、動体の位置情報に基づく画像領域から人物の顔の特徴情報を含む顔領域を検出することで人物の顔を認識することができる。また、認識する部位が顔以外の場合でも、各部位の特徴情報を含む特定領域を検出することにより、その認識対象部位を検出する方法を適用できる。   The first embodiment exemplifies a case where the person recognition apparatus 103 performs face recognition. Here, various face recognition methods can be widely applied as the face recognition method by the person recognition device 103. For example, a face region including feature information of a person's face is detected from an image region based on moving body position information. By doing so, the face of the person can be recognized. Further, even when the recognized part is other than the face, a method of detecting the recognition target part by detecting a specific region including the feature information of each part can be applied.

また、人物認識装置103は、動体の位置情報に基づく領域から人物の部位を検出できず、人物を認識できない場合には、これを無視するようにしてもよい。このとき、人物認識装置103は、動体検出装置102に対して認識対象としない旨を通知し、ラベリングの解除を促すようにしてもよい。   In addition, the person recognition device 103 may ignore a person's part when the person's part cannot be detected from the region based on the position information of the moving object and the person cannot be recognized. At this time, the person recognizing device 103 may notify the moving object detecting device 102 that it is not a recognition target, and prompt the user to cancel the labeling.

さらに、人物認識装置103は、1又は複数の顔認識を行うと、各顔位置情報をカメラ位置算出装置104に与える。   Furthermore, the person recognition apparatus 103 gives each face position information to the camera position calculation apparatus 104, if one or more face recognition is performed.

カメラ位置算出装置104は、人物認識装置103から1又は複数の顔位置情報を受け取ると、全体カメラ101の撮像画像上での各被写体の位置情報を求めるものである。カメラ位置算出装置104が求める位置情報は、子カメラ106を制御するための位置情報として寄与される。なお、全体カメラ101を定点カメラとして撮像画像の座標軸を予め定めておくことで、各顔領域の顔位置情報に基づく被写体の位置情報を求めることができる。   Upon receiving one or more pieces of face position information from the person recognition apparatus 103, the camera position calculation apparatus 104 obtains position information of each subject on the captured image of the whole camera 101. The position information obtained by the camera position calculation device 104 is contributed as position information for controlling the child camera 106. Note that by setting the coordinate axis of the captured image in advance using the whole camera 101 as a fixed point camera, it is possible to obtain subject position information based on the face position information of each face area.

子カメラ制御装置105は、カメラ位置算出装置104から制御情報を受け取ると、この制御情報に基づいて各被写体を子カメラ106に割り当てる。また、子カメラ制御装置105は、子カメラ106と接続しており、各子カメラ106の撮像制御を行うものである。子カメラ106の制御方法としては、例えば、H.224やH.281などの制御プロトコルを用いて行う方法を適用する。   When receiving the control information from the camera position calculation device 104, the child camera control device 105 assigns each subject to the child camera 106 based on the control information. The child camera control device 105 is connected to the child camera 106 and performs imaging control of each child camera 106. As a method for controlling the child camera 106, for example, H.264. 224 and H.C. A method performed using a control protocol such as 281 is applied.

図3は、子カメラ制御装置105の内部構成を示す内部構成図である。図3において、子カメラ制御装置105は、その主な機能として、被写体位置解析手段31、子カメラ割り当て手段32、子カメラ割り当て管理手段33、子カメラ撮像制御手段34を少なくとも有する。   FIG. 3 is an internal configuration diagram showing an internal configuration of the child camera control device 105. In FIG. 3, the child camera control device 105 has at least a subject position analysis unit 31, a child camera assignment unit 32, a child camera assignment management unit 33, and a child camera imaging control unit 34 as its main functions.

被写体位置解析手段31は、子カメラ位置算出装置104から全体カメラ101の画像上での各被写体の位置情報や特徴領域に基づいて、各被写体を撮像する子カメラ106の割り当てを決めるために、各被写体の位置を解析するものである。   The subject position analysis means 31 determines the assignment of the child cameras 106 that capture the respective subjects based on the position information and feature areas of each subject on the image of the whole camera 101 from the child camera position calculation device 104. This is to analyze the position of the subject.

子カメラ割り当て手段32は、被写体位置解析手段31の解析結果に基づいて、子カメラ106に対して被写体を割り当てるものである。   The child camera assigning unit 32 assigns a subject to the child camera 106 based on the analysis result of the subject position analyzing unit 31.

ここで、子カメラ106の割り当て方法としては、種々の方法を適用することができる。   Here, as a method for assigning the child cameras 106, various methods can be applied.

例えば、全体カメラ101の画像に複数の被写体が映っている場合、被写体位置解析手段31は、子カメラ位置算出装置104から取得した各被写体の位置情報や特徴領域に基づいて、全体カメラ101の画像上に映る被写体の奥行き方向の距離を求める。子カメラ割り当て手段32は、子カメラ106の割り当て順を予め設定しておき、被写体の奥行き方向の距離が短いものから、予め設定した割り当て順に従って子カメラ106を割り当てる方法を適用できる。なお、被写体の奥行き方向の距離の求め方としては、全体カメラ101の画像上における人物の特徴領域の大きさを利用して求める方法等を適用できる。これにより、入場ゲートGを順番に通行してくる被写体に対して予め設定した割り当て順で子カメラ106を割り当てることができる。   For example, when a plurality of subjects are shown in the image of the entire camera 101, the subject position analysis unit 31 determines whether the image of the entire camera 101 is based on the position information and the feature area of each subject acquired from the child camera position calculation device 104. Find the distance of the subject in the depth direction. The child camera assigning unit 32 can apply a method in which the assignment order of the child cameras 106 is set in advance, and the child cameras 106 are assigned according to the assignment order set in advance from the distance of the subject in the depth direction. As a method for obtaining the distance in the depth direction of the subject, a method of obtaining using the size of the feature region of the person on the image of the whole camera 101 can be applied. As a result, the child cameras 106 can be assigned to subjects that pass through the entrance gate G in order in a preset assignment order.

また例えば、被写体位置解析手段31は、カメラ位置算出装置104を介して動体の動きベクトル情報も取得し、入場ゲートGを通行してくる各被写体の動き方向を解析し、子カメラ割り当て手段32は、各被写体の動き方向に応じて子カメラ106を割り当てる方法を適用できる。例えば、動体の動きベクトル方向が左向きの場合、子カメラ割り当て手段32は全体カメラ101の右側に配置されている子カメラ106を選択して割り当てる。これにより、全体カメラ101の画像において左側から来た人物が入場ゲートGを通行する場合に、全体カメラ101の右側の子カメラ106に割り当てることにより、人物の移動方向に応じて配置された子カメラ106が的確に人物の顔を撮像できる。   Further, for example, the subject position analysis unit 31 also acquires motion vector information of the moving object via the camera position calculation device 104, analyzes the direction of movement of each subject passing through the entrance gate G, and the child camera assignment unit 32 A method of assigning the child cameras 106 according to the movement direction of each subject can be applied. For example, when the motion vector direction of the moving object is leftward, the child camera assignment unit 32 selects and assigns the child camera 106 arranged on the right side of the whole camera 101. Thus, when a person coming from the left in the image of the whole camera 101 passes through the entrance gate G, the child camera arranged according to the moving direction of the person is assigned to the child camera 106 on the right side of the whole camera 101. 106 can accurately capture the face of a person.

また、子カメラ割り当て手段32は、子カメラ106に割り当てる被写体を変更できるようにしてもよい。   Further, the child camera assigning unit 32 may change the subject assigned to the child camera 106.

子カメラ割り当て管理手段33は、子カメラ割り当て手段32により被写体に対して割り当てた子カメラ106の割り当て状況を管理するものである。例えば、子カメラ割り当て管理手段33は、被写体の識別情報と子カメラ106の識別情報とを対応付けて、どの被写体をどの子カメラ106が撮像しているかを管理する。   The child camera assignment management unit 33 manages the assignment status of the child cameras 106 assigned to the subject by the child camera assignment unit 32. For example, the child camera allocation management unit 33 associates the identification information of the subject with the identification information of the child camera 106, and manages which subject is captured by which child camera 106.

子カメラ撮像制御手段34は、子カメラ撮像制御手段34は、子カメラ106に対して撮像位置や倍率や明度などを指示して、子カメラ106の撮像処理を制御するものである。また、子カメラ撮像制御手段34は、子カメラ106に対して被写体を追跡させることもできる。   The child camera imaging control means 34 controls the imaging processing of the child camera 106 by instructing the child camera 106 about an imaging position, magnification, brightness, and the like. The child camera imaging control means 34 can also cause the child camera 106 to track the subject.

子カメラ106(106−1〜106−4)は、子カメラ制御装置105の制御の下、特定領域を高解像度で撮像するものである。つまり、子カメラ106は、子カメラ制御装置105から被写体の位置情報を受け取ると、その位置情報の被写体を撮像した映像を顔認証装置107に与えるものである。また、子カメラ106は、被写体の顔認証ができる程度の解像度を備えるものであり、子カメラ制御装置全体カメラ101の画角を狭くすることが望ましい。さらに、子カメラ106は、追跡機能を備えるようにし、移動する被写体を追跡できる。この追跡機能については、種々の技術を広く適用することができ、例えば、動体検出装置102がリアルタイムで取得する動体の動きベクトルに基づいて、子カメラ制御装置105被写体の動きベクトルの大きさに応じた速度で、動きベクトル方向に撮影方向を移動させることにより実現できる。   The child camera 106 (106-1 to 106-4) captures a specific area with high resolution under the control of the child camera control device 105. That is, when the child camera 106 receives the position information of the subject from the child camera control device 105, the child camera 106 gives the face authentication device 107 a video image of the subject with the position information. In addition, the child camera 106 has a resolution that can authenticate the face of the subject, and it is desirable to narrow the angle of view of the entire camera 101 of the child camera control device. Furthermore, the child camera 106 is provided with a tracking function, and can track a moving subject. For this tracking function, various technologies can be widely applied. For example, the tracking function is based on the motion vector of the moving object acquired by the moving object detection device 102 in real time according to the size of the motion vector of the subject. This can be realized by moving the shooting direction in the direction of the motion vector at a high speed.

顔認証装置107は、子カメラ106から撮像映像を受け取ると、各画像を基に社員データベース108を参照し、顔認証を行うものである。顔認証方法としては、子カメラ106の映像から顔特徴領域を抽出して、この顔特徴領域と社員データベース108に登録されている顔登録情報とを比較し、類似度が閾値を超えたとき認証成功とし、類似度が閾値以下のとき認証失敗とする。   When the face authentication apparatus 107 receives a captured image from the child camera 106, the face authentication apparatus 107 refers to the employee database 108 based on each image and performs face authentication. As a face authentication method, a face feature area is extracted from the image of the child camera 106, the face feature area is compared with face registration information registered in the employee database 108, and authentication is performed when the similarity exceeds a threshold value. Success is assumed and authentication failure is assumed when the similarity is equal to or less than a threshold value.

また、顔認証装置107は、顔認証が成功した場合、その顔認証結果である認証情報を出退勤管理装置109に与えるものである。さらに、顔認証装置107は、顔認証が失敗した場合、当該子カメラ106の撮像画像に不足する情報を子カメラ制御装置105にフィードバックさせるものである。情報としては位置の補正、倍率、明度などが挙げられる。   In addition, when the face authentication is successful, the face authentication device 107 gives authentication information, which is a result of the face authentication, to the time and attendance management device 109. Further, when face authentication fails, the face authentication device 107 feeds back information that is insufficient for the captured image of the child camera 106 to the child camera control device 105. Information includes position correction, magnification, brightness, and the like.

図4は、顔認証装置107の内部構成を示す内部構成図である。図4において、顔認証装置107は、顔認証手段41、失敗解析手段42、通知手段43を少なくとも有するものである。   FIG. 4 is an internal configuration diagram showing an internal configuration of the face authentication device 107. In FIG. 4, the face authentication device 107 includes at least a face authentication unit 41, a failure analysis unit 42, and a notification unit 43.

顔認証手段41は、子カメラ106が映した画像から顔特徴情報を抽出し、その抽出した顔特徴情報と社員データベース108に登録されている顔登録情報とを比較して、類似度を算出し、その類似度に基づいて顔認証を行うものである。   The face authentication means 41 extracts face feature information from the image captured by the child camera 106, compares the extracted face feature information with the face registration information registered in the employee database 108, and calculates the similarity. The face authentication is performed based on the similarity.

失敗解析手段42は、顔認証手段41による認証処理が失敗した場合に、認証失敗に原因を解析し、その解析結果を通知手段43に与えるものである。この認証失敗の原因としては、子カメラ106の画像における顔特徴情報と登録顔情報との比較の際、比較領域の大きさが異なる場合には倍率を補正したり、子カメラ106の画像上で顔特徴領域が撮像できていない場合には撮像位置を補正したりする。   The failure analysis unit 42 analyzes the cause of the authentication failure when the authentication process by the face authentication unit 41 fails, and gives the analysis result to the notification unit 43. The cause of this authentication failure is that, when comparing the face feature information in the image of the child camera 106 and the registered face information, if the size of the comparison area is different, the magnification is corrected or the image on the child camera 106 is corrected. If the face feature area cannot be imaged, the imaging position is corrected.

通知手段43は、顔認証成功の際、認証結果としての認証情報を出退勤管理装置109に与えるものである。また、通知手段43は、顔認証失敗の際、失敗解析手段42からの解析結果を子カメラ制御装置105に与えるものである。   The notification means 43 gives authentication information as an authentication result to the attendance management device 109 when the face authentication is successful. In addition, the notification unit 43 gives the analysis result from the failure analysis unit 42 to the child camera control device 105 when face authentication fails.

社員データベース108は、顔認証装置107の顔認証に用いる社員の顔登録情報を保持するデータベースである。また、社員データベース108は、出退勤管理装置109の処理により、各社員の出退勤管理情報を保持するものである。   The employee database 108 is a database that holds employee face registration information used for face authentication of the face authentication apparatus 107. Further, the employee database 108 holds attendance / leaving management information of each employee by processing of the attendance / exit management device 109.

出退勤管理装置109は、顔認証装置107から取得した顔認証結果である認証情報を受け取り、所定の出退勤管理を行うものである。   The attendance and attendance management device 109 receives authentication information that is a face authentication result acquired from the face authentication device 107, and performs predetermined attendance and attendance management.

(A−2)第1の実施形態の動作
次に、第1の実施形態の入退場管理システム100における処理の動作を図面を参照しながら説明する。
(A-2) Operation of the First Embodiment Next, the operation of processing in the entrance / exit management system 100 of the first embodiment will be described with reference to the drawings.

図5は、第1の実施形態の入退場管理システム100における処理を示すフローチャートである。   FIG. 5 is a flowchart showing processing in the entrance / exit management system 100 of the first embodiment.

まず、全体カメラ101は入退場ゲートGを常に撮像する(ステップS101)。全体カメラ101により撮像された映像は動体検出装置102に与えられ、動体検出装置102において、映像がリアルタイムに監視され、全体カメラ101からの映像において移動する1又は複数の動体が検出される(ステップS102)。   First, the whole camera 101 always images the entrance / exit gate G (step S101). The video imaged by the whole camera 101 is given to the moving body detection device 102, and the moving body detection device 102 monitors the video in real time and detects one or more moving bodies moving in the video from the whole camera 101 (step). S102).

動体検出装置102では、全体カメラ101からのリアルタイム映像を用いた動体検出により動体を認識し、動体の位置を特定し、またリアルタイムに動体の位置を更新する。また、動体検出装置102は、複数の動作を検出した場合には各動体の画素に番号を付してラベリング処理を行い、それぞれの動体の位置を特定して管理する。   The moving object detection apparatus 102 recognizes a moving object by moving object detection using real-time video from the whole camera 101, identifies the position of the moving object, and updates the position of the moving object in real time. In addition, when a plurality of motions are detected, the moving body detection device 102 assigns numbers to the pixels of each moving body, performs a labeling process, and identifies and manages the position of each moving body.

動体検出装置102により1又は複数の動体が検出されると、各動体の位置情報が人物認識装置103に与えられる。人物認識装置103では、各動体の位置情報の領域から顔の特徴情報を含む顔領域を検出して人物を認識する(ステップS103)。   When one or more moving objects are detected by the moving object detection device 102, position information of each moving object is given to the person recognition device 103. The person recognition apparatus 103 recognizes a person by detecting a face area including facial feature information from the position information area of each moving object (step S103).

ここで、人物認識装置103により検出された動体が人物でないと判断されると、人物認識装置103は、動体検出装置102にその旨を通知してラベリング処理の解除をさせる(ステップS104)。   If it is determined that the moving object detected by the person recognition device 103 is not a person, the person recognition device 103 notifies the moving object detection device 102 to cancel the labeling process (step S104).

人物認識装置103により人物認識されると、各顔位置情報がカメラ位置算出装置104に与えられ、カメラ位置算出装置104により、全体カメラ101の画像上での顔位置情報が求められる(ステップS105)。   When the person is recognized by the person recognition device 103, each face position information is given to the camera position calculation device 104, and the camera position calculation device 104 obtains face position information on the image of the whole camera 101 (step S105). .

カメラ位置算出装置104により各顔位置情報が求められると、全体カメラ101の画像上の各顔位置情報が子カメラ制御装置105に与えられ、子カメラ制御装置105は、各人物の顔に対して各子カメラ106−1〜106−4を割り当て、各子カメラ106−1〜106−4の撮像を制御する(ステップS106)。   When each face position information is obtained by the camera position calculation device 104, each face position information on the image of the whole camera 101 is given to the child camera control device 105, and the child camera control device 105 applies to each person's face. Each child camera 106-1 to 106-4 is assigned, and the imaging of each child camera 106-1 to 106-4 is controlled (step S106).

各子カメラ106−1〜106−4は、子カメラ制御装置105の制御を受けて、子カメラ制御装置105から指示される位置の被写体を撮像し(ステップS107)、その撮像した映像を顔認証装置107に与える。   Under the control of the child camera control device 105, each of the child cameras 106-1 to 106-4 images the subject at the position instructed by the child camera control device 105 (step S107), and performs face authentication on the captured image. To device 107.

顔認証装置107では、各子カメラ106−1〜106−4から取得した映像を基に、社員データベース108に登録されている顔登録情報を参照して顔認証を行う(ステップS108)。なお、顔認証装置107による顔認証時に、ネットワークなどを介して社員データベース109にアクセスできるようにしてもよい。   The face authentication device 107 performs face authentication by referring to the face registration information registered in the employee database 108 based on the video acquired from each of the child cameras 106-1 to 106-4 (step S108). Note that the employee database 109 may be accessible via a network or the like during face authentication by the face authentication apparatus 107.

顔認証装置107において顔認証が特定できた場合、認証情報が出退勤管理装置109に与えられ(ステップS109)、出退勤管理装置109が当該社員の出退勤管理情報を社員データベース108に記録する(ステップS110)。また、認証後、顔認証装置107は動体検出装置102に通知し、該当人物のラベリングを解除させる(ステップS111)。   If the face authentication device 107 can identify the face authentication, the authentication information is given to the attendance / attendance management device 109 (step S109), and the attendance / attendance management device 109 records the attendance / attendance management information of the employee in the employee database 108 (step S110). . Further, after the authentication, the face authentication device 107 notifies the moving object detection device 102 to release the labeling of the person (step S111).

また、顔認証装置107で顔認証が特定できない場合、顔認証装置107において、子カメラ106−1〜106−4からの画像情報を基にして、顔認証成功に不足する情報を解析する(ステップS112)。   If face authentication cannot be specified by the face authentication apparatus 107, the face authentication apparatus 107 analyzes information that is insufficient for successful face authentication based on the image information from the child cameras 106-1 to 106-4 (step). S112).

そして、顔認証成功に不足する情報を得た場合、顔認証装置107は、その情報を子カメラ制御装置105にフィードバックする(ステップS113)。これにより、子カメラ制御装置105は、フィードバックされた情報に基づいて、各子カメラ106−1〜106−4に指示する撮像位置、倍率、明度などをリアルタイムに補正することできる。   If information that is insufficient for successful face authentication is obtained, the face authentication device 107 feeds back the information to the child camera control device 105 (step S113). Accordingly, the child camera control device 105 can correct the imaging position, magnification, brightness, and the like instructed to each child camera 106-1 to 106-4 in real time based on the fed back information.

(A−3)第1の実施形態の効果
以上のように、第1の実施形態によれば、以下に示すような効果が期待できる。
(A-3) Effects of the First Embodiment As described above, according to the first embodiment, the following effects can be expected.

第1の実施形態によれば、全体カメラ及び1又は複数の子カメラの連携を図ることにより、全体カメラの撮像映像に映る複数の人物の顔認証を一度に行うことができる。   According to the first embodiment, by linking the whole camera and one or a plurality of child cameras, face authentication of a plurality of persons shown in the captured video of the whole camera can be performed at a time.

また、第1の実施形態によれば、全体カメラ及び1又は複数の子カメラの連携を図ることにより、全体カメラの撮像映像に映る人物の高解像度映像を取得することができる。   In addition, according to the first embodiment, a high-resolution video image of a person shown in a video image captured by the overall camera can be acquired by linking the overall camera and one or more child cameras.

さらに、第1の実施形態によれば、全体カメラ及び1又は複数の子カメラの連携を図り、動体検出装置が全体カメラから映像に基づいて動体位置をリアルタイムに更新するので、被写体が移動した場合でも追跡を行うことができる。   Furthermore, according to the first embodiment, the whole camera and one or a plurality of child cameras are linked, and the moving object detection device updates the moving object position in real time based on the video from the whole camera, so that the subject moves. But tracking can be done.

またさらに、第1の実施形態によれば、顔認証に失敗した場合でも、顔認証装置が子カメラ制御装置に対して、失敗した情報を基に制御情報をフィードバックすることにより、即時に再度顔認証ができる。   Furthermore, according to the first embodiment, even when face authentication fails, the face authentication device feeds back control information to the child camera control device based on the failed information, so that the face can be immediately re-applied. Authentication is possible.

(B)第2の実施形態
次に、本発明の撮像管理システム、撮像管理方法、認証システム及び認証方法の第2の実施形態について図面を参照して説明する。
(B) Second Embodiment Next, a second embodiment of the imaging management system, imaging management method, authentication system, and authentication method of the present invention will be described with reference to the drawings.

第2の実施形態では、本発明を利用して、例えば空港などのセキュリティゲートを通行する人物を管理する通行人監視システムを実現する実施形態を説明する。   In the second embodiment, an embodiment for realizing a passer-by monitoring system that manages persons passing through a security gate such as an airport using the present invention will be described.

第1の実施形態では、人物認識装置103で特定した人物の部位(例えば、顔、上半身、下半身、腕、所持物の有無等)の内、顔認証に用いる顔情報のみを用いていたが、第2の実施形態では、複数の子カメラで1人の人物の顔、上半身、所持物の有無を撮像して認証する。   In the first embodiment, only the face information used for face authentication is used among the parts of the person specified by the person recognition device 103 (for example, the presence of the face, upper body, lower body, arms, possession, etc.) In the second embodiment, a plurality of child cameras capture and authenticate a person's face, upper body, and possessed items.

(B−1)第2の実施形態の構成
図6は、第2の実施形態の通行人監視システムの構成を示す構成図である。図6において、第2の実施形態の通行人監視システム200は、全体カメラ101、動体検出装置102、人物認識装置103、カメラ位置算出装置104、子カメラ制御装置105、子カメラ106−1〜106−3、顔認証装置201、上半身解析装置202、所持物解析装置203、犯罪者データベース204、通報装置205、通行人データベース206を少なくとも有する。
(B-1) Configuration of Second Embodiment FIG. 6 is a configuration diagram illustrating a configuration of a passer-by monitoring system according to the second embodiment. In FIG. 6, a passer-by monitoring system 200 according to the second embodiment includes an overall camera 101, a moving object detection device 102, a person recognition device 103, a camera position calculation device 104, a child camera control device 105, and child cameras 106-1 to 106. -3, the face authentication device 201, the upper body analysis device 202, the belongings analysis device 203, the criminal database 204, the notification device 205, and the passerby database 206.

なお、第2の実施形態において、第1の実施形態で既に説明した、全体カメラ101、動体検出装置102、人物認識装置103、カメラ位置算出装置104、子カメラ制御装置105、子カメラ106の構成の説明については割愛する。   In the second embodiment, the configuration of the whole camera 101, the moving object detection device 102, the person recognition device 103, the camera position calculation device 104, the child camera control device 105, and the child camera 106 already described in the first embodiment. I'll omit the explanation.

子カメラ制御装置105による子カメラ106の制御方法としては、各子カメラ106が撮像する領域を、例えば、顔、上半身、所持物と決めておき、人物認識装置103が人物を認識したときに、子カメラ制御装置105が当該人物の特定の領域を撮像するよう各子カメラ106に指示する方法を適用できる。   As a method of controlling the child camera 106 by the child camera control device 105, for example, the area captured by each child camera 106 is determined as, for example, a face, an upper body, or a belonging, and when the person recognition device 103 recognizes a person, A method in which the child camera control device 105 instructs each child camera 106 to image a specific area of the person can be applied.

また例えば、子カメラ106の撮像領域を予め決めておかず、人物の認識の際に、子カメラ制御装置105が任意に子カメラ106の撮像領域を決めて撮像処理を制御するようにしてもよい。   Further, for example, the imaging region of the child camera 106 may not be determined in advance, and the child camera control device 105 may arbitrarily determine the imaging region of the child camera 106 and control the imaging process when recognizing a person.

顔認証装置201は、子カメラ106−1の映像を子カメラ106−1から取得し、犯罪者データベース204を参照しながら、顔認証を行うものである。また、顔認証装置201は、犯罪者の顔認証を行った場合に、顔認証に用いた情報や静止画などを通行人情報として通行人データベース206に記録する。このとき、通行人情報としては、例えば、子カメラ106−1から取得した映像や、犯罪者データベース204からマッチングした顔情報や当該犯罪者の照会情報、通行時間情報などである。また、静止画像としては、例えば、JPEGなどの静止画符号化器を用いて圧縮処理してもよい。   The face authentication device 201 acquires the video of the child camera 106-1 from the child camera 106-1, and performs face authentication while referring to the criminal database 204. The face authentication device 201 records information used for face authentication, still images, and the like in the passerby database 206 as passerby information when performing face authentication of a criminal. At this time, the passer-by information includes, for example, a video acquired from the child camera 106-1, face information matched from the criminal database 204, reference information of the criminal, and travel time information. Further, as a still image, for example, compression processing may be performed using a still image encoder such as JPEG.

顔認証装置201は、顔認証の前処理として、子カメラ106−1の映像から顔特徴領域を抽出し、この顔特徴領域を抽出できたときに抽出成功とし、この顔特徴領域を抽出できなかったときに抽出失敗とする。   The face authentication apparatus 201 extracts a face feature area from the video of the child camera 106-1 as pre-processing for face authentication, and if the face feature area can be extracted, the extraction is successful, and the face feature area cannot be extracted. The extraction fails.

また、顔認証装置201は、この顔特徴領域の抽出が失敗した場合、当該子カメラ106−1の撮像画像に不足する情報を子カメラ制御装置105にフィードバックさせるものである。情報としては、位置の補正、倍率、明度などが挙げられる。   In addition, when the face feature region extraction fails, the face authentication device 201 feeds back information lacking in the captured image of the child camera 106-1 to the child camera control device 105. Information includes position correction, magnification, brightness, and the like.

上半身解析装置202は、子カメラ106−2の映像を子カメラ106−2から取得し、人物の上半身を解析する装置である。上半身解析装置202は、例えば、子カメラ106−2の撮像した映像を受け取ると、その映像から人物の衣類の特徴(例えば、色、類推される衣類の種類など)を解析するものである。また、上半身解析装置202は、解析結果を通行人情報として通行人データベース206に記録する。   The upper body analysis apparatus 202 is an apparatus that acquires an image of the child camera 106-2 from the child camera 106-2 and analyzes the upper body of the person. For example, when the upper body analyzing apparatus 202 receives an image captured by the child camera 106-2, the upper body analyzing apparatus 202 analyzes characteristics of the person's clothing (for example, color, type of clothing estimated) from the image. The upper body analysis apparatus 202 records the analysis result in the passerby database 206 as passerby information.

上半身解析装置202は、子カメラ106−2の映像から人物の衣類の特徴を解析し、この人物の衣類の特徴を解析できたときに解析成功とし、この人物の衣類の特徴を解析できなかったときに解析失敗とする。   The upper body analysis apparatus 202 analyzed the characteristics of the person's clothing from the image of the child camera 106-2, and when the characteristics of the person's clothes were analyzed, the analysis was successful, and the characteristics of the person's clothing could not be analyzed. Sometimes analysis fails.

また、上半身解析装置202は、この人物の衣類の特徴の解析が失敗した場合、当該子カメラ106−2の撮像画像に不足する情報を子カメラ制御装置105にフィードバックさせるものである。情報としては、位置の補正、倍率、明度などが挙げられる。   Further, the upper body analysis device 202 feeds back to the child camera control device 105 information that is insufficient in the captured image of the child camera 106-2 when the analysis of the characteristics of the person's clothing fails. Information includes position correction, magnification, brightness, and the like.

所持物解析装置203は、子カメラ106−3の映像を子カメラ106−3から取得し、人物の所持物を解析する装置である。所持物解析装置203は、例えば、所持物の特徴(例えば、所持物の色、形状、長さ、類推される所持物の種類など)を解析するものである。また、所持物解析装置203は、解析結果を通行人情報として通行人データベース106に記録する。   The personal belonging analysis device 203 is a device that acquires the video of the child camera 106-3 from the child camera 106-3 and analyzes the personal belongings of the person. The belongings analysis device 203 analyzes, for example, the characteristics of the belongings (for example, the color, shape, length of the belongings, the kind of the belongings to be inferred, etc.). Also, the belongings analysis device 203 records the analysis result in the passerby database 106 as passerby information.

所持物解析装置203は、子カメラ106−3の映像から所持物の特徴を解析し、この所持物の特徴を解析できたときに解析成功とし、この所持物の特徴を解析できなかったときに解析失敗とする。   The belonging analysis device 203 analyzes the characteristics of the belongings from the image of the child camera 106-3, and when the characteristics of the belongings can be analyzed, the analysis is successful, and when the characteristics of the belongings cannot be analyzed. Analysis failure.

また、所持物解析装置203は、この所持物の特徴の解析が失敗した場合、当該子カメラ106−3の撮像画像に不足する情報を子カメラ制御装置105にフィードバックさせるものである。情報としては、位置の補正、倍率、明度などが挙げられる。   In addition, when the analysis of the characteristics of the possessed item fails, the possessed item analyzing device 203 feeds back the information lacking in the captured image of the child camera 106-3 to the child camera control device 105. Information includes position correction, magnification, brightness, and the like.

犯罪者データベース204は、犯罪者の顔情報を保持するデータベースであり、顔認証装置201による顔認証の際に用いられるものである。   The criminal database 204 is a database that holds criminal face information, and is used when the face authentication apparatus 201 performs face authentication.

通報装置205は、顔認証装置201において犯罪者と認証した場合、顔認証装置201から通報を受け、警報信号を、例えば警備員やセキュリティ会社、警察などに通知するものである。   When the face authentication apparatus 201 authenticates a criminal, the notification apparatus 205 receives a report from the face authentication apparatus 201 and notifies an alarm signal to, for example, a security guard, a security company, or the police.

通行人データベース206は、顔認証装置201における認証結果、又は、上半身解析装置202、所持物解析装置203における解析情報を、通行人情報として記録するデータベースである。   The passerby database 206 is a database that records the authentication result in the face authentication device 201 or the analysis information in the upper body analysis device 202 and the belongings analysis device 203 as passerby information.

(B−2)第2の実施形態の動作
次に、第2の実施形態の通行人監視システム200における処理の動作を説明する。
(B-2) Operation | movement of 2nd Embodiment Next, operation | movement of the process in the passer-by monitoring system 200 of 2nd Embodiment is demonstrated.

図7は、第2の実施形態の通行人監視システム200におけるカメラ配置のイメージを説明する説明図である。   FIG. 7 is an explanatory diagram illustrating an image of camera arrangement in the passer-by monitoring system 200 according to the second embodiment.

図7において、第2の実施形態の通行人監視システム200では、セキュリティゲートSGを通行する通行人を撮像する全体カメラ101と、全体カメラ101の周辺に複数(図7では3台)の子カメラ106−1〜106−3とが配置されている。   In FIG. 7, in the passer-by monitoring system 200 according to the second embodiment, the entire camera 101 that images passers-by passing through the security gate SG, and a plurality of (three in FIG. 7) child cameras around the entire camera 101. 106-1 to 106-3 are arranged.

図7において、第1の実施形態では、全体カメラ101に映る複数の人物ごとに子カメラ106を割り当てていたが、第2の実施形態では、1人の人物の特徴領域ごとに子カメラ106を割り当てる。   In FIG. 7, in the first embodiment, the child camera 106 is assigned to each of a plurality of persons reflected on the whole camera 101. However, in the second embodiment, the child camera 106 is assigned to each feature region of one person. assign.

図8は、人物の特徴領域における各子カメラ106−1〜106−3の割り当て例を示す説明図である。図8では、例えば、子カメラ106−1は人物の顔の部位を撮像し、子カメラ106−2は人物の上半身の部位を撮像し、子カメラ106−3は人物の所持物の有無を撮像する。   FIG. 8 is an explanatory diagram showing an example of assignment of each of the child cameras 106-1 to 106-3 in the person feature area. In FIG. 8, for example, the child camera 106-1 images a human face part, the child camera 106-2 images a person's upper body part, and the child camera 106-3 images the presence / absence of the person's belongings. To do.

第1の実施形態と同様に、セキュリティゲートSGを通行する通行人を撮像する全体カメラ101の映像を基にして、動体検出装置102が動体検出し、人物認識装置103が動体の位置情報から人物を認識する。   As in the first embodiment, the moving object detection device 102 detects a moving object based on the video of the whole camera 101 that captures a passerby passing through the security gate SG, and the person recognition device 103 detects the person from the position information of the moving object. Recognize

そして、カメラ位置算出装置104により全体カメラ101の画像上での位置情報に基づいて、子カメラ制御装置105は、当該人物の1又は複数の特徴領域を子カメラ106−1〜106−3に割り当てる。   Then, based on the position information on the image of the entire camera 101 by the camera position calculation device 104, the child camera control device 105 assigns one or more feature regions of the person to the child cameras 106-1 to 106-3. .

以下では、子カメラ106−1は人物の顔領域が割り当てられ、子カメラ106−2は人物の上半身領域が割り当てられ、子カメラ106−3は人物の所持物領域が割り当てられたとする。   In the following, it is assumed that the face area of the person is assigned to the child camera 106-1, the upper body area of the person is assigned to the child camera 106-2, and the belonging area of the person is assigned to the child camera 106-3.

子カメラ制御装置105により人物の顔に割り当てられた子カメラ106−1は、子カメラ制御装置105から指示された位置情報に基づいて人物の顔領域を撮像する。   The child camera 106-1 assigned to the face of the person by the child camera control device 105 images the face area of the person based on the position information instructed from the child camera control device 105.

そして、当該子カメラ106−1が撮像した映像が顔認証装置201に与えられると、顔認証装置201は犯罪者データベース204を参照して犯罪者の顔認証を行う。   When the image captured by the child camera 106-1 is given to the face authentication device 201, the face authentication device 201 refers to the criminal database 204 to perform criminal face authentication.

顔認証装置201で犯罪者の顔認証を得た場合、顔認証装置201は、通行人情報を通行人データベース206に記録する。また、顔認証装置201は通報装置205に通知して、通報装置205により、警備員や警察などに通報する。さらに、犯罪者の顔認証を得た場合、図示しないゲート制御装置が、セキュリティゲートSGを閉じるようにしてもよい。   When the face authentication device 201 obtains the criminal face authentication, the face authentication device 201 records the passerby information in the passerby database 206. Further, the face authentication device 201 notifies the notification device 205, and the notification device 205 notifies the security guard, the police, and the like. Further, when the criminal face authentication is obtained, a gate control device (not shown) may close the security gate SG.

また、顔認証装置201で顔認証が特定できない場合、顔認証装置201において、子カメラ106−1からの画像情報を基にして、顔認証成功に不足する情報を解析する。そして、顔認証成功に不足する情報を得た場合、顔認証装置201は、その情報を子カメラ制御装置105にフィードバックする。これにより、子カメラ制御装置105は、フィードバックされた情報に基づいて、子カメラ106−1に指示する撮像位置、倍率、明度などをリアルタイムに補正することができる。   When face authentication cannot be specified by the face authentication apparatus 201, the face authentication apparatus 201 analyzes information that is insufficient for successful face authentication based on image information from the child camera 106-1. When information that is insufficient for successful face authentication is obtained, the face authentication device 201 feeds back the information to the child camera control device 105. Accordingly, the child camera control device 105 can correct the imaging position, magnification, brightness, and the like instructed to the child camera 106-1 on the basis of the fed back information in real time.

また、子カメラ制御装置105により人物の上半身に割り当てられた子カメラ106−2は、子カメラ制御装置105から指示された位置情報に基づいて人物の上半身を撮像する。そして、子カメラ106−2が撮像した映像が上半身解析装置202に与えられると、上半身解析装置202において、子カメラ106−2からの映像に基づいて上半身の特徴情報が解析され、その解析結果が通行人情報として通行人データベース206に記録される。ここで、上半身解析装置202は、上半身の特徴情報として、衣服の特徴(色、類推される種類)や、人物の上半身の大きさ、が挙げられる。   Further, the child camera 106-2 assigned to the upper body of the person by the child camera control device 105 images the upper body of the person based on the position information instructed from the child camera control device 105. Then, when the image captured by the child camera 106-2 is given to the upper body analysis apparatus 202, the upper body analysis apparatus 202 analyzes the upper body feature information based on the image from the child camera 106-2, and the analysis result is obtained. It is recorded in the passerby database 206 as passerby information. Here, the upper body analysis apparatus 202 includes clothes features (color, type of analogy) and the size of the upper body of the person as the upper body feature information.

また、上半身解析装置202で上半身の特徴情報が特定できない場合、上半身解析装置202において、子カメラ106−2からの画像情報を基にして、上半身の特徴を特定するために不足する情報を解析する。そして、上半身の特徴を特定するために不足する情報を得た場合、上半身解析装置202は、その情報を子カメラ制御装置105にフィードバックする。これにより、子カメラ制御装置105は、フィードバックされた情報に基づいて、子カメラ106−2に指示する撮像位置、倍率、明度などをリアルタイムに補正することができる。   If the upper body analysis device 202 cannot identify the upper body feature information, the upper body analysis device 202 analyzes information that is insufficient to identify the upper body feature based on the image information from the child camera 106-2. . When the information that is insufficient to identify the upper body feature is obtained, the upper body analysis apparatus 202 feeds back the information to the child camera control apparatus 105. Accordingly, the child camera control device 105 can correct the imaging position, magnification, brightness, and the like instructed to the child camera 106-2 in real time based on the fed back information.

さらに、子カメラ制御装置105により人物の所持物の有無の特徴領域を割り当てられた子カメラ106−3は、子カメラ制御装置105から指示された位置情報に基づいて撮像する。そして、所持物解析装置203は、子カメラ106−3の映像に基づいて、当該人物の所持物の有無、また所持物を所持している場合に、その所持物の色、形、長さ、類推される種類等を解析する。また、所持物解析装置203は、解析情報を通行人情報として通行人データベース206に記録する。   Furthermore, the child camera 106-3 to which the feature region of presence / absence of a person's belongings is assigned by the child camera control device 105 performs imaging based on position information instructed from the child camera control device 105. Based on the image of the child camera 106-3, the possession analysis device 203 determines whether the possession of the person is present, and when possessing the possession, the color, shape, length, Analyze the kind of analogy. Also, the belonging analysis device 203 records the analysis information in the passerby database 206 as passerby information.

また、所持物解析装置203で所持物の色、形、長さ、類推される種類等が特定できない場合、所持物解析装置203において、子カメラ106−3からの画像情報を基にして、所持物の色、形、長さ、類推される種類等の特徴を特定するために不足する情報を解析する。そして、所持物の色、形、長さ、類推される種類等の特徴を特定するために不足する情報を得た場合、所持物解析装置203は、その情報を子カメラ制御装置105にフィードバックする。これにより、子カメラ制御装置105は、フィードバックされた情報に基づいて、子カメラ106−2に指示する撮像位置、倍率、明度などをリアルタイムに補正することができる。   Also, if the possession analysis device 203 cannot identify the color, shape, length, type of analogy, etc. of the possession, the possession analysis device 203 uses the possession based on the image information from the child camera 106-3. Analyze the missing information to identify features such as the color, shape, length, and analogy of the object. Then, when information that is insufficient to specify the characteristics such as the color, shape, length, and analogy type of the possession is obtained, the possession analysis device 203 feeds back the information to the child camera control device 105. . Accordingly, the child camera control device 105 can correct the imaging position, magnification, brightness, and the like instructed to the child camera 106-2 in real time based on the fed back information.

なお、顔認証装置201、上半身解析装置202、所持物解析装置203の処理は並列処理で行われても良い。通行人データベース206に記録された情報は後に犯罪などが発生した場合の情報に用いることもできる。   The processes of the face authentication device 201, the upper body analysis device 202, and the belongings analysis device 203 may be performed in parallel processing. The information recorded in the passerby database 206 can also be used as information when a crime or the like occurs later.

(B−3)第2の実施形態の効果
以上のように、第2の実施形態によれば、以下に示すような効果が期待できる。
(B-3) Effects of Second Embodiment As described above, according to the second embodiment, the following effects can be expected.

第2の実施形態によれば、全体カメラ及び子カメラの連携により、ある人物の複数の特徴領域を一度に撮影することができる。   According to the second embodiment, a plurality of feature areas of a person can be photographed at a time by cooperation of the whole camera and the child camera.

また、第2の実施形態によれば、全体カメラ及び子カメラの連携により、人物の特徴領域における高解像度映像を撮影することが可能となる。   In addition, according to the second embodiment, it is possible to capture a high-resolution video in a person's feature area by cooperation of the whole camera and the child camera.

さらに、第2の実施形態によれば、子カメラから取得した映像に基づく特徴領域の情報(通行人情報)を通行人データベースに保持することができる。   Furthermore, according to the second embodiment, it is possible to store information on the characteristic area (passerby information) based on the video acquired from the child camera in the passerby database.

さらにまた、第2の実施形態によれば、特定部位の解析に失敗した場合でも、失敗した情報を基に制御情報をフィードバックすることにより、即時に再度解析が可能。   Furthermore, according to the second embodiment, even if the analysis of the specific part fails, the control information is fed back based on the failed information, so that the analysis can be immediately performed again.

(C)他の実施形態
第1の実施形態では入退場管理システムを示したが、第1の実施形態における社員データベース108を顧客データベースへ、出退勤管理装置を顧客管理装置に置き換えれば、店舗顧客管理システムにも適用可能である。予約客の管理や登録している顧客に有用な情報を提示するシステムにも適用可能である。
(C) Other Embodiments In the first embodiment, the entrance / exit management system is shown. However, if the employee database 108 in the first embodiment is replaced with a customer database and the attendance management device is replaced with a customer management device, store customer management is performed. It is also applicable to the system. The present invention can also be applied to a system that provides information useful to management of registered customers and registered customers.

第2の実施形態では通行人監視システムを示したが、通行する人物の特定の部位に注目した統計情報管理システムにも適用可能である。   Although the passer-by monitoring system is shown in the second embodiment, the present invention can also be applied to a statistical information management system that focuses on a specific part of a passing person.

第1の実施形態の入退場管理システムの構成を示す構成図である。It is a block diagram which shows the structure of the entrance / exit management system of 1st Embodiment. 第1の実施形態の入退場管理システムにおけるカメラ配置のイメージを説明する説明図である。It is explanatory drawing explaining the image of camera arrangement | positioning in the entrance / exit management system of 1st Embodiment. 第1の実施形態の子カメラ制御装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the sub camera control apparatus of 1st Embodiment. 第1の実施形態の顔認証装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the face authentication apparatus of 1st Embodiment. 第1の実施形態の入退場管理システムにおける処理を示すフローチャートである。It is a flowchart which shows the process in the entrance / exit management system of 1st Embodiment. 第2の実施形態の通行人監視システムの構成を示す構成図である。It is a block diagram which shows the structure of the passer-by monitoring system of 2nd Embodiment. 第2の実施形態の通行人監視システムにおけるカメラ配置のイメージを説明する説明図である。It is explanatory drawing explaining the image of camera arrangement | positioning in the passer-by monitoring system of 2nd Embodiment. 第2の実施形態の子カメラの撮影領域の割り当てを説明する説明図である。It is explanatory drawing explaining allocation of the imaging | photography area | region of the child camera of 2nd Embodiment.

符号の説明Explanation of symbols

101…全体カメラ、102…動体検出装置、103…人物認識装置、104…カメラ位置算出装置、105…子カメラ制御装置、106(106−1〜106−4)…子カメラ、107…顔認証装置、108…社員データベース、109…出退勤管理装置、201…顔認証装置、202…上半身解析装置、203…所持物解析装置、204…犯罪者データベース、205…通報装置、206…通行人データベース。   DESCRIPTION OF SYMBOLS 101 ... Whole camera, 102 ... Moving body detection apparatus, 103 ... Person recognition apparatus, 104 ... Camera position calculation apparatus, 105 ... Child camera control apparatus, 106 (106-1 to 106-4) ... Child camera, 107 ... Face authentication apparatus , 108 ... employee database, 109 ... attendance and attendance management device, 201 ... face authentication device, 202 ... upper body analysis device, 203 ... belongings analysis device, 204 ... criminal database, 205 ... reporting device, 206 ... passerby database.

Claims (8)

第1の撮像手段と、上記第1の撮像手段の映像よりも狭い範囲を撮像する複数の第2の撮像手段とを備え、上記第1の撮像手段の映像に映っている1又は複数の対象の撮像管理を行う撮像管理システムであって、
上記第1の撮像手段から取得した映像に基づいて、特定する対象の特徴情報を含む特徴領域を検索して、上記第1の撮像手段の映像に映っている1又は複数の対象を特定する対象特定手段と、
上記対象特定手段により特定された上記1又は複数の対象に対して上記各第2の撮像手段を割り当て、上記1又は複数の対象について、上記第1の撮像手段の映像よりも高解像度の映像を撮像させるように上記各第2の撮像手段を制御する撮像制御手段と、
上記各第2の撮像手段が撮像した上記1又は複数の対象の高解像度の画像を同時に取得して管理する高解像度画像管理手段と
を備えることを特徴とする撮像管理システム。
One or a plurality of objects including a first imaging means and a plurality of second imaging means for imaging a narrower range than the image of the first imaging means, and appearing in the image of the first imaging means An imaging management system for performing imaging management of
A target for identifying one or a plurality of targets appearing in the video of the first imaging means by searching for a feature region including feature information of the target to be specified based on the video acquired from the first imaging means. Specific means,
The second imaging means is assigned to the one or more objects specified by the object specifying means, and an image having a higher resolution than the image of the first imaging means is assigned to the one or more objects. Imaging control means for controlling each of the second imaging means so as to image,
An imaging management system comprising: a high-resolution image management unit that simultaneously acquires and manages the high-resolution images of the one or more objects captured by each of the second imaging units.
上記対象特定手段が、
上記第1の撮像手段から取得した映像に基づいて、1又は複数の動体を検出する動体検出部と、
予め上記各対象を認識するための特徴情報を保持しており、上記動体検出手段により検出された上記1又は複数の動体の領域に上記特徴情報を含む特徴領域があるか否かを検索して上記各対象を認識する対象認識部と、
上記対象認識部により認識された上記各対象について、上記第1の撮像手段の画像上での位置情報を求める位置算出部と
を備えることを特徴とする請求項1に記載の撮像管理システム。
The target identification means is
A moving object detection unit for detecting one or more moving objects based on the video acquired from the first imaging means;
Feature information for recognizing each target is stored in advance, and it is searched whether or not there is a feature region including the feature information in the region of the one or more moving objects detected by the moving object detection means. An object recognition unit for recognizing each object,
The imaging management system according to claim 1, further comprising: a position calculation unit that obtains position information on the image of the first imaging unit for each of the objects recognized by the object recognition unit.
上記撮像制御手段が、上記対象特定手段の上記位置算出部から取得した、上記第1の撮像手段の画像上における上記各対象の位置情報に基づいて、上記各第2の撮像手段の割り当てを行うものであることを特徴とする請求項2に記載の撮像管理システム。   The imaging control means assigns the second imaging means based on the position information of the objects on the image of the first imaging means acquired from the position calculation unit of the target specifying means. The imaging management system according to claim 2, wherein the imaging management system is one. 上記高解像度画像管理手段が、上記各第2の撮像手段の映像の情報を上記撮像制御手段にフィードバックするものであることを特徴とする請求項1〜3のいずれかに記載の撮像管理システム。   The imaging management system according to any one of claims 1 to 3, wherein the high-resolution image management means feeds back video information of the second imaging means to the imaging control means. 第1の撮像手段と、上記第1の撮像手段の映像よりも狭い範囲を撮像する複数の第2の撮像手段とを備え、上記第1の撮像手段の映像に映っている1又は複数の対象の撮像管理を行う撮像管理方法であって、
対象特定手段が、上記第1の撮像手段から取得した映像に基づいて、特定する対象の特徴情報を含む特徴領域を検索して、上記第1の撮像手段の映像に映っている1又は複数の対象を特定する対象特定工程と、
撮像制御手段が、上記対象特定手段により特定された上記1又は複数の対象に対して上記各第2の撮像手段を割り当て、上記1又は複数の対象について、上記第1の撮像手段の映像よりも高解像度の映像を撮像させるように上記各第2の撮像手段を制御する撮像制御工程と、
高解像度画像管理手段が、上記各第2の撮像手段が撮像した上記1又は複数の対象の高解像度の画像を同時に取得して管理する高解像度画像管理工程と
を有することを特徴とする撮像管理方法。
One or a plurality of objects including a first imaging means and a plurality of second imaging means for imaging a narrower range than the image of the first imaging means, and appearing in the image of the first imaging means An imaging management method for performing imaging management of
The target specifying unit searches for a feature region including the feature information of the target to be specified based on the video acquired from the first imaging unit, and the one or more reflected in the video of the first imaging unit An object identification process for identifying an object;
The imaging control means assigns each of the second imaging means to the one or more objects specified by the object specifying means, and the one or more objects are more than the images of the first imaging means. An imaging control step of controlling each of the second imaging means so as to capture a high-resolution image;
A high-resolution image management means comprising: a high-resolution image management step of simultaneously acquiring and managing a high-resolution image of the one or more objects captured by each of the second imaging means. Method.
第1の撮像手段と、上記第1の撮像手段の映像よりも狭い範囲を撮像する複数の第2の撮像手段とを備え、上記第1の撮像手段の映像に映っている1又は複数の対象の認証を行う認証システムであって、
上記第1の撮像手段から取得した映像に基づいて、特定する対象の特徴情報を含む特徴領域を検索して、上記第1の撮像手段の映像に映っている1又は複数の対象を特定する対象特定手段と、
上記対象特定手段により特定された上記1又は複数の対象に対して上記各第2の撮像手段を割り当て、上記1又は複数の対象について、上記第1の撮像手段の映像よりも高解像度の映像を撮像させるように上記各第2の撮像手段を制御する撮像制御手段と、
上記各第2の撮像手段が撮像した上記1又は複数の対象の高解像度の画像を同時に取得する高解像度画像取得手段と、
予め認証対象の1又は複数の登録情報を記憶する登録情報記憶手段と、
上記高解像度画像取得手段が取得した上記1又は複数の対象の高解像度画像と、上記登録情報記憶手段の上記各登録情報とに基づいて所定の認証処理を行う認証手段と
を備えることを特徴とする認証システム。
One or a plurality of objects including a first imaging means and a plurality of second imaging means for imaging a narrower range than the image of the first imaging means, and appearing in the image of the first imaging means An authentication system that performs authentication of
A target for identifying one or a plurality of targets appearing in the video of the first imaging means by searching for a feature region including feature information of the target to be specified based on the video acquired from the first imaging means. Specific means,
The second imaging means is assigned to the one or more objects specified by the object specifying means, and an image having a higher resolution than the image of the first imaging means is assigned to the one or more objects. Imaging control means for controlling each of the second imaging means so as to image,
High-resolution image acquisition means for simultaneously acquiring high-resolution images of the one or more objects captured by each of the second imaging means;
Registration information storage means for storing one or more pieces of registration information to be authenticated in advance;
An authentication unit that performs a predetermined authentication process based on the high-resolution image of the one or more objects acquired by the high-resolution image acquisition unit and the registration information of the registration information storage unit. Authentication system.
上記認証手段が、上記各対象の高解像度画像に基づく認証に失敗した際に、認証失敗に係る原因解析を行い、その原因解析情報を上記撮像制御手段にフィードバックするものであることを特徴とする請求項6に記載の認証システム。   When the authentication unit fails to authenticate based on the high-resolution image of each target, cause analysis relating to the authentication failure is performed, and the cause analysis information is fed back to the imaging control unit. The authentication system according to claim 6. 第1の撮像手段と、上記第1の撮像手段の映像よりも狭い範囲を撮像する複数の第2の撮像手段とを備え、上記第1の撮像手段の映像に映っている1又は複数の対象の認証を行う認証システムであって、
予め認証対象の1又は複数の登録情報を記憶する登録情報記憶手段を備え、
対象特定手段が、上記第1の撮像手段から取得した映像に基づいて、特定する対象の特徴情報を含む特徴領域を検索して、上記第1の撮像手段の映像に映っている1又は複数の対象を特定する対象特定工程と、
撮像制御手段が、上記対象特定手段により特定された上記1又は複数の対象に対して上記各第2の撮像手段を割り当て、上記1又は複数の対象について、上記第1の撮像手段の映像よりも高解像度の映像を撮像させるように上記各第2の撮像手段を制御する撮像制御工程と、
高解像度画像取得手段が、上記各第2の撮像手段が撮像した上記1又は複数の対象の高解像度の画像を同時に取得する高解像度画像取得工程と、
認証手段が、上記高解像度画像取得手段が取得した上記1又は複数の対象の高解像度画像と、上記登録情報記憶手段の上記各登録情報とに基づいて所定の認証処理を行う認証工程と
を有することを特徴とする認証方法。
One or a plurality of objects including a first imaging means and a plurality of second imaging means for imaging a narrower range than the image of the first imaging means, and appearing in the image of the first imaging means An authentication system that performs authentication of
A registration information storage means for storing one or more registration information to be authenticated in advance;
The target specifying unit searches for a feature region including the feature information of the target to be specified based on the video acquired from the first imaging unit, and the one or more reflected in the video of the first imaging unit An object identification process for identifying an object;
The imaging control means assigns each of the second imaging means to the one or more objects specified by the object specifying means, and the one or more objects are more than the images of the first imaging means. An imaging control step of controlling each of the second imaging means so as to capture a high-resolution image;
A high-resolution image acquisition unit that simultaneously acquires high-resolution images of the one or more objects captured by each of the second imaging units;
An authentication unit includes an authentication step of performing a predetermined authentication process based on the one or more target high-resolution images acquired by the high-resolution image acquisition unit and the registration information of the registration information storage unit. An authentication method characterized by that.
JP2008232684A 2008-09-10 2008-09-10 Imaging management system, imaging management method, authentication system, and authentication method Pending JP2010067008A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008232684A JP2010067008A (en) 2008-09-10 2008-09-10 Imaging management system, imaging management method, authentication system, and authentication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008232684A JP2010067008A (en) 2008-09-10 2008-09-10 Imaging management system, imaging management method, authentication system, and authentication method

Publications (1)

Publication Number Publication Date
JP2010067008A true JP2010067008A (en) 2010-03-25

Family

ID=42192545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008232684A Pending JP2010067008A (en) 2008-09-10 2008-09-10 Imaging management system, imaging management method, authentication system, and authentication method

Country Status (1)

Country Link
JP (1) JP2010067008A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206338A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Reception support system and reception support method
WO2016013249A1 (en) * 2014-07-24 2016-01-28 株式会社ソニー・コンピュータエンタテインメント Information processing device
JPWO2017043314A1 (en) * 2015-09-09 2018-01-18 日本電気株式会社 Guidance acquisition device
WO2022024316A1 (en) * 2020-07-30 2022-02-03 日本電気株式会社 Authentication system, authentication device, authentication method, and computer program
WO2023276477A1 (en) * 2021-06-29 2023-01-05 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206338A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Reception support system and reception support method
WO2016013249A1 (en) * 2014-07-24 2016-01-28 株式会社ソニー・コンピュータエンタテインメント Information processing device
JP6092485B2 (en) * 2014-07-24 2017-03-08 株式会社ソニー・インタラクティブエンタテインメント Information processing device
JPWO2016013249A1 (en) * 2014-07-24 2017-04-27 株式会社ソニー・インタラクティブエンタテインメント Information processing device
US10248846B2 (en) 2014-07-24 2019-04-02 Sony Interactive Entertainment Inc. Information processing device
JPWO2017043314A1 (en) * 2015-09-09 2018-01-18 日本電気株式会社 Guidance acquisition device
US10509950B2 (en) 2015-09-09 2019-12-17 Nec Corporation Guidance acquisition device, guidance acquisition method, and program
US10706266B2 (en) 2015-09-09 2020-07-07 Nec Corporation Guidance acquisition device, guidance acquisition method, and program
US11501567B2 (en) 2015-09-09 2022-11-15 Nec Corporation Guidance acquisition device, guidance acquisition method, and program
US11861939B2 (en) 2015-09-09 2024-01-02 Nec Corporation Guidance acquisition device, guidance acquisition method, and program
WO2022024316A1 (en) * 2020-07-30 2022-02-03 日本電気株式会社 Authentication system, authentication device, authentication method, and computer program
WO2023276477A1 (en) * 2021-06-29 2023-01-05 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
CN107958258B (en) Method and system for tracking objects in a defined area
US9875392B2 (en) System and method for face capture and matching
US10510234B2 (en) Method for generating alerts in a video surveillance system
JP4650669B2 (en) Motion recognition device
JP2007334623A (en) Face authentication device, face authentication method, and access control device
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
WO2020115890A1 (en) Information processing system, information processing device, information processing method, and program
KR101372860B1 (en) System for searching video and server for analysing video
JP2010067008A (en) Imaging management system, imaging management method, authentication system, and authentication method
KR101470314B1 (en) Closed-circuit television system of automatic recognizing/classifying object and method thereof
WO2008035411A1 (en) Mobile body information detection device, mobile body information detection method, and mobile body information detection program
JP2007249298A (en) Face authentication apparatus and face authentication method
JP5955056B2 (en) Face image authentication device
JP2007206898A (en) Face authentication device and access management device
CN110866418B (en) Image base generation method, device, equipment, system and storage medium
JP2004118359A (en) Figure recognizing device, figure recognizing method and passing controller
JP5955057B2 (en) Face image authentication device
JP2009140360A (en) Behavior analysis device and method
JP2009205391A (en) Face authentication system
KR101623331B1 (en) Detection and close up shooting method using images of moving objects
Jha et al. Raspberry Pi-powered door lock with facial recognition
TWM653857U (en) Image recognition access control system
Shrivastava et al. Real-time Indoor Theft Detection System Using Computer-Vision
CN116012920A (en) Image recognition method and system