JP2018092287A - Device, method and program for personal identification - Google Patents

Device, method and program for personal identification Download PDF

Info

Publication number
JP2018092287A
JP2018092287A JP2016233730A JP2016233730A JP2018092287A JP 2018092287 A JP2018092287 A JP 2018092287A JP 2016233730 A JP2016233730 A JP 2016233730A JP 2016233730 A JP2016233730 A JP 2016233730A JP 2018092287 A JP2018092287 A JP 2018092287A
Authority
JP
Japan
Prior art keywords
person
image
tracking
identification
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016233730A
Other languages
Japanese (ja)
Other versions
JP6797009B2 (en
Inventor
山本 和徳
Kazunori Yamamoto
和徳 山本
石井 一彦
Kazuhiko Ishii
一彦 石井
公彦 関野
Kimihiko Sekino
公彦 関野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2016233730A priority Critical patent/JP6797009B2/en
Publication of JP2018092287A publication Critical patent/JP2018092287A/en
Application granted granted Critical
Publication of JP6797009B2 publication Critical patent/JP6797009B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a personal identification technique by which personal identification is possible for a period of timer longer than that in conventional techniques.SOLUTION: A personal identification device comprises: a personal image acquisition unit 1 which acquires a time series of images of an identification object person; a facial recognition unit 2 which uses the acquired time series of images of the identification object person and a preliminarily registered image of the person to determine whether the identification object person is the same person as the person of which the image is preliminarily registered or not by facial recognition technology; a tracking unit 3 which tracks the identification object person determined as the same person, on the basis of the time series of images of the identification object person; a motion estimation unit 4 which, in the case of a failure in tracking, estimates a motion of an image region included in the images of the identification object person on the basis of the time series of images of the identification object person; and a personal identification unit 5 which determines whether the identification object person has been changed to another person or not on the basis of the estimated motion of the image region and, if not determining that the identification object person has been changed, causes the tracking unit to restart tracking.SELECTED DRAWING: Figure 1

Description

本発明は、顔認証技術及びトラッキング技術等の技術を用いて遠隔地の人物を識別する技術に関する。   The present invention relates to a technique for identifying a remote person using techniques such as a face authentication technique and a tracking technique.

インターネット上で検定試験等を実施する場合、会場試験と異なり現地での試験監督が困難であるため、受験者の端末のカメラを使って試験監督者が遠隔からカメラ画像を監視することで不正行為を防止することが考えられる。人の目視によるカメラ画像の監視では、一度に監督できる人数が限られるため、顔認証技術等を適用して自動で正規の受験者か否かを識別できれば、監督者は正規ではないと識別された受験者のみに注意を向けることができ、監督作業が効率化される。   When conducting examinations, etc. on the Internet, it is difficult to supervise the test locally, unlike the venue test, so it is illegal for the test supervisor to remotely monitor the camera image using the camera of the examinee's terminal. It is conceivable to prevent this. Since the number of people who can be supervised at a time is limited in the monitoring of camera images by human visual inspection, the supervisor is identified as non-regular if it can be identified automatically by applying face recognition technology etc. It is possible to focus attention only on those who have taken the test, and the supervisory work will be made more efficient.

顔認証技術は、予め登録しておいた顔画像の特徴量と認証時の被認証者の顔画像の特徴量を比較し、被認証者の正当性を確認する技術である(例えば、非特許文献1参照。)。顔認証の精度は、調整された環境下で非常に高く、一方で照明条件、顔の向き、表情、遮蔽物等の影響を受けて劣化しやすい特徴を持つ。   The face authentication technique is a technique for comparing the feature amount of a face image registered in advance with the feature amount of the face image of the person to be authenticated at the time of authentication to confirm the authenticity of the person to be authenticated (for example, non-patent) Reference 1). The accuracy of face authentication is very high in the adjusted environment, and on the other hand, it has a characteristic that it easily deteriorates due to the influence of lighting conditions, face orientation, facial expressions, shielding objects, and the like.

したがって、顔認証技術を遠隔試験に適用した場合、受験者が正面を向いて顔全体が写っている状況では、高い精度で受験者を識別できるが、受験者が下を向く、頬杖を付いて顔に一部が隠れるといった状況では顔認証が失敗する可能性が高く、受験者を正しく識別できる期間は限られる。そこで、顔認証技術とトラッキング技術を組み合せることで、受験者を識別可能な期間を改善することが考えられる。   Therefore, when face authentication technology is applied to a remote test, the test subject can be identified with high accuracy in situations where the test subject is facing the front and the entire face is shown, but the test subject is facing down and with a cheek cane. In a situation where a part of the face is hidden, face authentication is likely to fail, and the period during which the examinee can be correctly identified is limited. Therefore, it is conceivable to improve the period in which the examinee can be identified by combining the face authentication technique and the tracking technique.

トラッキング技術は、標的となる人や物を、その特徴量を使って時系列で与えられる画像の中から類似する画像領域を探索することにより、追跡する技術である(例えば、非特許文献2参照。)。追跡対象の見え方は時々刻々と変化する状況が一般的と考えられるため、見え方の変化に対して堅牢なトラッキング技術の提案がなされている。また、ある画像においてトラッキングに失敗しても、後続の画像で類似する画像領域が見つかれば、トラッキングを再開することも可能である。   The tracking technique is a technique for tracking a target person or object by searching for a similar image region from images given in time series using the feature amount (see, for example, Non-Patent Document 2). .) Since it is generally considered that the appearance of the tracked object changes from moment to moment, a tracking technology that is robust against changes in the appearance has been proposed. Even if tracking fails in a certain image, tracking can be resumed if a similar image area is found in subsequent images.

遠隔試験における顔認証技術とトラッキング技術の組合せでは、顔認証に失敗した場合に、最後に顔認証に成功した画像を起点として受験者をトラッキングする。これにより、顔認証が成功した期間に加え、トラッキングが成功した期間についても、受検者の識別が可能となる。   In the combination of the face authentication technique and the tracking technique in the remote test, when face authentication fails, the examinee is tracked starting from the image that succeeded in face authentication last. Thereby, in addition to the period when face authentication was successful, it becomes possible to identify the examinee during the period when tracking was successful.

Yaniv Taigman, Ming Yang, Marc'Aurelio Ranzato and Lior Wolf, “DeepFace: Closing the Gap to Human-Level Performance in Face Verification”, Conference on Computer Vision and Pattern Recognition (CVPR)June 24, 2014.Yaniv Taigman, Ming Yang, Marc'Aurelio Ranzato and Lior Wolf, “DeepFace: Closing the Gap to Human-Level Performance in Face Verification”, Conference on Computer Vision and Pattern Recognition (CVPR) June 24, 2014. Zdenek Kalal, Krystian Mikolajczyk and Jiri Matas, “Tracking-Learning-Detection”, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 6, NO. 1, JANUARY 2010.Zdenek Kalal, Krystian Mikolajczyk and Jiri Matas, “Tracking-Learning-Detection”, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 6, NO. 1, JANUARY 2010.

しかしながら、顔認証技術とトラッキング技術を組み合せた技術では、受験者が一時的に横を向く、目元を押さえて顔の大部分が隠れるといった大幅な見え方の変化が生じた場合、受験者のトラッキングに失敗する可能性がある。   However, with the technology that combines the face authentication technology and tracking technology, if the examinee temporarily turns sideways, and the appearance of the face is largely hidden by holding the eyes, the examinee's tracking will occur. May fail.

一度トラッキングに失敗した後にトラッキングを停止する場合、次に顔認証が成功するまで受験者を識別できないことが問題となる。   When tracking is stopped after tracking has failed once, the problem is that the examinee cannot be identified until the next successful face authentication.

そこで、本発明は、受験者等の人物の識別可能な時間が従来よりも長い人物識別装置、方法及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a person identification device, method, and program that can identify a person such as a test taker longer than before.

この発明の一態様による人物識別装置は、識別対象となる人物である識別対象人物の画像の時系列を取得する人物画像取得部と、取得された識別対象人物の画像の時系列と予め登録された人物の画像とを用いて、識別対象人物と予め登録された人物とが同一人物であるかどうかを顔認証技術により判定する顔認証部と、識別対象人物の画像の時系列に基づいて、同一人物であると判定された識別対象人物をトラッキングするトラッキング部と、トラッキングに失敗した場合に、識別対象人物の画像の時系列に基づいて、識別対象人物の画像に含まれる画像領域の動きを推定する動き推定部と、推定された画像領域の動きに基づいて、識別対象人物が他の人物に入れ替わったかどうかを判断し、入れ替わったと判断されなかった場合には、トラッキング部にトラッキングを再開させる人物識別部と、を備えている。   A person identification device according to an aspect of the present invention is pre-registered with a person image acquisition unit that acquires a time series of images of an identification target person that is a person to be identified, and a time series of acquired images of the identification target person. Based on the time series of the image of the identification target person, and a face authentication unit that determines whether or not the identification target person and the person registered in advance are the same person The tracking unit that tracks the identification target person determined to be the same person, and the movement of the image area included in the identification target person image based on the time series of the identification target person image when tracking fails. Based on the motion estimation unit to be estimated and the estimated motion of the image area, it is determined whether or not the person to be identified has been replaced by another person. If it is not determined that the person has been replaced, It includes a personal identification unit to resume tracking King unit.

人物の識別可能な時間が従来よりも長くなる。   The time during which a person can be identified becomes longer than before.

人物識別装置を説明するためのブロック図。The block diagram for demonstrating a person identification device. 人物識別方法を説明するための流れ図。The flowchart for demonstrating a person identification method. 人物識別装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of a person identification device.

以下、図面を参照して、この発明の一実施形態について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

人物識別装置は、図1に示すように、人物画像取得部1、顔認証部2、トラッキング部3、動き推定部4及び人物識別部5を例えば備えている。人物識別方法は、人物識別装置の各部が、図2及び以下に説明するステップS1からステップS5の処理を行うことにより実現される。   As shown in FIG. 1, the person identification device includes, for example, a person image acquisition unit 1, a face authentication unit 2, a tracking unit 3, a motion estimation unit 4, and a person identification unit 5. The person identification method is realized by each unit of the person identification apparatus performing the processing from step S1 to step S5 described below with reference to FIG.

<人物画像取得部1>
人物画像取得部1は、識別対象となる人物である識別対象人物の画像の時系列を取得する(ステップS1)。取得された識別対象人物の画像の時系列は、顔認証部2、トラッキング部3及び動き推定部4に出力される。
<Human Image Acquisition Unit 1>
The person image acquisition unit 1 acquires a time series of images of a person to be identified who is a person to be identified (step S1). The acquired time series of the images of the identification target person is output to the face authentication unit 2, the tracking unit 3, and the motion estimation unit 4.

人物画像取得部1は、識別対象人物の画像を所定の時間間隔で取得することにより、識別対象人物の画像の時系列を取得する。   The person image acquisition unit 1 acquires a time series of images of identification target persons by acquiring images of identification target persons at predetermined time intervals.

識別対象人物の例は、PC等の端末装置を用いて遠隔地で試験を受けている受験生である。この場合、PC等の端末装置に設けられたカメラにより、識別対象人物である受験生の画像が撮影され、撮影された画像はインターネット等の通信網を介して人物識別装置の人物画像取得部1に送信される。例えば、このようにして人物画像取得部1は、識別対象人物の画像を取得する。   An example of the person to be identified is a student taking a test at a remote place using a terminal device such as a PC. In this case, an image of an examinee who is a person to be identified is photographed by a camera provided in a terminal device such as a PC, and the photographed image is transferred to the person image acquisition unit 1 of the person identifying device via a communication network such as the Internet. Sent. For example, the person image acquisition unit 1 acquires the image of the person to be identified in this way.

識別対象となる人物は、その人物の画像を取得可能であれば、受験生以外の人物であってもよい。   The person to be identified may be a person other than the examinee as long as an image of the person can be acquired.

<顔認証部2>
顔認証部2は、人物画像取得部1により取得された識別対象人物の画像の時系列と予め登録された人物の画像とを用いて、識別対象人物と予め登録された人物とが同一人物であるかどうかを顔認証技術により判定する(ステップS2)。その判定結果は、トラッキング部3に出力される。
<Face authentication unit 2>
The face authentication unit 2 uses the time series of the images of the identification target person acquired by the person image acquisition unit 1 and the image of the person registered in advance, and the identification target person and the person registered in advance are the same person. It is determined by face authentication technology whether it exists (step S2). The determination result is output to the tracking unit 3.

顔認証技術とは、予め登録しておいた顔画像の特徴量と認証時の被認証者の顔画像の特徴量を比較し、被認証者の正当性を確認する技術である。顔認証技術としては、例えば非特許文献1に記載された技術等の既存の顔認証技術を用いることができる。   The face authentication technique is a technique for comparing the feature amount of a face image registered in advance with the feature amount of the face image of the person to be authenticated at the time of authentication to confirm the authenticity of the person to be authenticated. As the face authentication technique, for example, an existing face authentication technique such as the technique described in Non-Patent Document 1 can be used.

顔認証部2は、顔認証に成功した場合には、言い換えれば、識別対象人物と予め登録された人物とが同一人物であると判定された場合には、その顔認証に成功した識別対象人物の画像領域についての情報をトラッキング部3に出力する。   When the face authentication unit 2 succeeds in face authentication, in other words, when it is determined that the person to be identified and the person registered in advance are the same person, the person to be identified who has succeeded in the face authentication. Information about the image area is output to the tracking unit 3.

<トラッキング部3>
トラッキング部3は、顔認証部2において、識別対象人物の画像の時系列に基づいて、顔認証部2において予め登録された人物と同一人物であると判定された識別対象人物をトラッキングする(ステップS3)。言い換えれば、トラッキング部は、顔認証部2において顔認証に成功した識別対象人物の画像領域に対してトラッキングを行う。トラッキングの結果は、動き推定部4に出力される。
<Tracking unit 3>
The tracking unit 3 tracks the identification target person determined by the face authentication unit 2 to be the same person as the person registered in advance in the face authentication unit 2 based on the time series of the images of the identification target person (step) S3). In other words, the tracking unit performs tracking on the image area of the person to be identified who has succeeded in face authentication in the face authentication unit 2. The tracking result is output to the motion estimation unit 4.

トラッキングとは、標的となる人や物を、その特徴量を使って時系列で与えられる画像の中から類似する画像領域を探索することにより、追跡することである。トラッキングは、例えば非特許文献2に記載された技術等の既存のトラッキング技術により行うことができる。   Tracking is to track a target person or object by searching for similar image regions from images given in time series using the feature amount. Tracking can be performed by an existing tracking technique such as the technique described in Non-Patent Document 2, for example.

トラッキング部3は、トラッキングに失敗した場合には、そのトラッキングに失敗した画像の直前の画像においてトラッキングの対象となっていた画像領域についての情報を記憶しておくとする。   When tracking fails, the tracking unit 3 stores information about an image region that has been a tracking target in an image immediately before the image that failed tracking.

なお、トラッキング部3は、直前の画像の画像領域の位置と今回の画像の画像領域の位置の移動距離も加味して、移動距離が一定以上であればトラッキングが失敗したと判定してもよい。これにより、人物識別部5は識別対象人物の移動距離が一定以内の場合のみ正規な人物と判定することになり、より厳しい条件で人物の識別を行うことが可能となる。   The tracking unit 3 may determine that tracking has failed if the moving distance is equal to or greater than the moving distance between the position of the image area of the previous image and the position of the image area of the current image. . As a result, the person identifying unit 5 determines that the person is a regular person only when the movement distance of the person to be identified is within a certain range, and can identify the person under more severe conditions.

<動き推定部4>
動き推定部4は、トラッキング部3による識別対象人物のトラッキングに失敗した場合に、識別対象人物の画像の時系列に基づいて、識別対象人物の画像に含まれる画像領域の動きを推定する(ステップS4)。推定された画像領域の動きについての情報は、人物識別部5に出力される。
<Motion estimation unit 4>
When the tracking unit 3 fails to track the identification target person, the motion estimation unit 4 estimates the movement of the image area included in the identification target person image based on the time series of the identification target person image (step S <b> 3). S4). Information about the estimated movement of the image area is output to the person identification unit 5.

画像領域は、識別対象人物の画像に含まれる任意の画像領域である。例えば、画像の時系列を見たときに、画像の中を移動する移動体、画像の外から中に入ってくる移動体及び画像の中から外に出てゆく移動体がある場合には、それらの移動体のそれぞれの画像部分が動きの推定対象となる画像領域となる。画像領域の例は、識別対象人物の画像である。   The image area is an arbitrary image area included in the image of the person to be identified. For example, when looking at the time series of images, if there are moving objects that move in the image, moving objects that enter from outside the image, and moving objects that move out of the image, Each image portion of these moving bodies is an image region that is a motion estimation target. An example of the image region is an image of a person to be identified.

動きの推定には、既存の動き推定技術を利用することができる。動き推定技術とは、時系列の画像の時間的に隣接する2個の画像間の差分を用いて画像領域が動いた方向と距離を推定する技術である。この動いた方向と距離は、動きベクトルと呼ばれる。   An existing motion estimation technique can be used for the motion estimation. The motion estimation technique is a technique for estimating the direction and distance in which an image area has moved using a difference between two temporally adjacent images in a time-series image. This moving direction and distance is called a motion vector.

動き推定部4は、識別対象人物の画像の時系列を用いて、この動きベクトルを計算することにより、画像の外から中に入ってくる画像領域と、画像の中から外に出てゆく画像領域との少なくとも一方があったかどうかを推定する。画像の外から中に入ってくる画像領域と、画像の中から外に出てゆく画像領域との少なくとも一方があったかどうかが、推定された画像領域の動きについての情報の一例である。推定された画像領域の動きについての情報は、動きベクトル自体であってもよい。   The motion estimation unit 4 calculates the motion vector using the time series of the images of the person to be identified, and thereby the image region that enters from the outside of the image and the image that goes out of the image It is estimated whether there was at least one of the areas. Whether or not there is at least one of an image area that enters from the outside of the image and an image area that exits from the image is an example of information about the motion of the estimated image area. The information about the estimated motion of the image area may be the motion vector itself.

<人物識別部5>
人物識別部5は、動き推定部4で推定された画像領域の動きに基づいて、識別対象人物が他の人物に入れ替わったかどうかを判断し、入れ替わったと判断されなかった場合には、識別対象人物は予め登録された人物とが同一人物であると判断して、トラッキング部3に上記のトラッキングを再開させる(ステップS5)。
<Person identification unit 5>
Based on the motion of the image area estimated by the motion estimation unit 4, the person identification unit 5 determines whether the identification target person has been replaced with another person, and if it is not determined that the person has been replaced, Determines that the person registered in advance is the same person, and causes the tracking unit 3 to resume the tracking (step S5).

例えば、人物識別部5は、画像の外から中に入ってくる画像領域と、画像の中から外に出てゆく画像領域との少なくとも一方があった場合には、識別対象人物が他の人物に入れ替わったと判断する。人物識別部5は、画像の外から中に入ってくる画像領域と、画像の中から外に出てゆく画像領域との両方があった場合に、識別対象人物が他の人物に入れ替わったと判断してもよい。   For example, when there is at least one of an image area entering from outside the image and an image area going out from the image, the person identification unit 5 determines that the person to be identified is another person. Judged to have been replaced. The person identification unit 5 determines that the person to be identified has been replaced with another person when there are both an image area entering from outside the image and an image area exiting from the image. May be.

入れ替わったかどうかの判断結果は、トラッキング部3に出力される。   The result of determination as to whether or not the replacement has been performed is output to the tracking unit 3.

トラッキング部3は、入れ替わっていない旨の判断結果を受け取った場合には、トラッキングに失敗した画像の直前の画像においてトラッキングの対象となっていた識別対象人物の画像領域に類似する画像領域を、予め登録された人物の画像領域であるとしてトラッキングを再開する。   When the tracking unit 3 receives the determination result indicating that the tracking has not been performed, the tracking unit 3 determines in advance an image region similar to the image region of the identification target person that has been the target of tracking in the image immediately before the image that failed to be tracked. Tracking is resumed assuming that the image area is a registered person.

従来は、一度トラッキングに失敗した後は、顔認証が成功するまでトラッキングを再開していなかった。このため、顔認証が成功するまで人物の識別をすることができなかった。顔認証よりも先に結果を得ることができる、人物の入れ替わったかどうかの判断に基づいてトラッキングを再開することにより、人物の識別可能な時間が従来よりも長くなる
トラッキング部3は、入れ替わった旨の判断結果を受け取った場合には、その後、トラッキングに失敗した画像の直前の画像においてトラッキングの対象となっていた識別対象人物の画像領域に類似する画像領域があったとしても、その画像領域は、予め登録された人物の画像領域ではないとして、その画像領域に対するトラッキングを再開しない。
Conventionally, once tracking fails, tracking is not resumed until face authentication succeeds. For this reason, the person cannot be identified until the face authentication is successful. The result can be obtained prior to face authentication, and by resuming tracking based on the determination of whether or not the person has been replaced, the time that the person can be identified becomes longer than before. Then, even if there is an image area similar to the image area of the person to be identified that was the target of tracking in the image immediately before the image that failed to be tracked, the image area is Suppose that the image area of the person is not registered in advance, and tracking for the image area is not resumed.

一度トラッキングに失敗しても後続の画像で類似した画像領域が発見されれば、それを正規受験者と見なしてトラッキングを再開することも可能である。しかし、トラッキングに失敗してから再開するまでの間に人物の入れ替わりが発生した場合も、正規ではない人物を正規な人物としてトラッキングし続けるため、入れ替わりの見逃しが問題となる。   Even if tracking fails once, if a similar image area is found in subsequent images, it can be regarded as a legitimate examinee and tracking can be resumed. However, even if a person change occurs between tracking failure and resumption, tracking a non-regular person as a regular person continues, and oversight of the change becomes a problem.

入れ替わった旨の判断結果を受け取った場合に、トラッキングを再開しないことにより、トラッキングに失敗してから再開するまでの間の人物の入れ替わりを防ぐことができる。   If the tracking result is not restarted when the determination result indicating that the replacement has been received is received, it is possible to prevent the replacement of the person from when the tracking fails until the restart.

[ハードウェア構成及び変形例]
例えば、本発明の一実施の形態における人物識別装置は、コンピュータとして機能してもよい。図3は、本発明の一実施の形態に係る人物識別装置のハードウェア構成の一例を示す図である。上述の人物識別装置は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
[Hardware configuration and modifications]
For example, the person identification device according to one embodiment of the present invention may function as a computer. FIG. 3 is a diagram illustrating an example of a hardware configuration of the person identification device according to the embodiment of the present invention. The person identification device described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。   In the following description, the term “apparatus” can be read as a circuit, a device, a unit, or the like.

人物識別装置における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。   Each function in the person identification device reads predetermined software (program) on hardware such as the processor 1001 and the memory 1002, so that the processor 1001 performs calculation, and communication by the communication device 1004, memory 1002, and storage 1003. This is realized by controlling the reading and / or writing of data.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、上述の情報処理部11などは、プロセッサ1001で実現されてもよい。   For example, the processor 1001 controls the entire computer by operating an operating system. The processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like. For example, the information processing unit 11 described above may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、人物識別装置の顔認証部2は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。   Further, the processor 1001 reads a program (program code), software module, and data from the storage 1003 and / or the communication device 1004 to the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above embodiments is used. For example, the face authentication unit 2 of the person identification device may be realized by a control program stored in the memory 1002 and operating on the processor 1001. Other functional blocks may be similarly realized. Although the above-described various processes have been described as being executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. The processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る人物識別装置の制御方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。   The memory 1002 is a computer-readable recording medium and includes, for example, at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. May be. The memory 1002 may be called a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, and the like that can be executed to implement the method for controlling the person identification device according to the embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。   The storage 1003 is a computer-readable recording medium, such as an optical disc such as a CD-ROM (Compact Disc ROM), a hard disc drive, a flexible disc, a magneto-optical disc (eg, a compact disc, a digital versatile disc, a Blu-ray). (Registered trademark) disk, smart card, flash memory (for example, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server, or other suitable medium including the memory 1002 and / or the storage 1003.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。   The communication device 1004 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as a network device, a network controller, a network card, a communication module, or the like.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。   The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, or the like) that accepts an external input. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。   Each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured with a single bus or may be configured with different buses between apparatuses.

また、人物識別装置は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。   The person identification device includes hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). A part or all of each functional block may be realized by the hardware. For example, the processor 1001 may be implemented by at least one of these hardware.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。   Each aspect / embodiment described herein includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), The present invention may be applied to a Bluetooth (registered trademark), a system using another appropriate system, and / or a next generation system extended based on the system.

情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。   Information or the like can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.

判定及び判断は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。   The determination and determination may be performed by a value (0 or 1) represented by 1 bit, may be performed by a true / false value (Boolean: true or false), or may be performed by comparing numerical values (for example, (Comparison with a predetermined value).

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。   Input / output information and the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modified and changed modes without departing from the spirit and scope of the present invention defined by the description of the scope of claims. Therefore, the description of the present specification is for illustrative purposes and does not have any limiting meaning to the present invention.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。   Software, whether it is called software, firmware, middleware, microcode, hardware description language, or other names, instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, functions, etc. should be interpreted broadly.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。   Also, software, instructions, etc. may be transmitted / received via a transmission medium. For example, software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission media.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。   Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of

なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。   Note that the terms described in this specification and / or terms necessary for understanding this specification may be replaced with terms having the same or similar meaning.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。   In addition, information, parameters, and the like described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by other corresponding information. . For example, the radio resource may be indicated by an index.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。   As used herein, the terms “determining” and “determining” may encompass a wide variety of actions. “Judgment” and “determination” are, for example, judgment, calculation, calculation, processing, derivation, investigating, looking up (eg, table , Searching in a database or another data structure), considering ascertaining as “determining”, “deciding”, and the like. In addition, “determination” and “determination” include receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (accessing) (e.g., accessing data in a memory) may be considered as "determined" or "determined". In addition, “determination” and “decision” means that “resolving”, “selecting”, “choosing”, “establishing”, and “comparing” are regarded as “determining” and “deciding”. May be included. In other words, “determination” and “determination” may include considering some operation as “determination” and “determination”.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。   As used herein, the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”

「含む(including)」、「含んでいる(comprising)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。   As long as the terms “including”, “comprising”, and variations thereof are used herein or in the claims, these terms are inclusive of the term “comprising”. Intended to be Furthermore, the term “or” as used herein or in the claims is not intended to be an exclusive OR.

本開示の全体において、例えば、英語でのa, an, 及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。   Throughout this disclosure, if articles are added by translation, for example, a, an, and the in English, these articles must be clearly indicated otherwise in context, Including multiple things.

Claims (3)

識別対象となる人物である識別対象人物の画像の時系列を取得する人物画像取得部と、
上記取得された識別対象人物の画像の時系列と予め登録された人物の画像とを用いて、上記識別対象人物と上記予め登録された人物とが同一人物であるかどうかを顔認証技術により判定する顔認証部と、
上記識別対象人物の画像の時系列に基づいて、同一人物であると判定された識別対象人物をトラッキングするトラッキング部と、
上記トラッキングに失敗した場合に、上記識別対象人物の画像の時系列に基づいて、上記識別対象人物の画像に含まれる画像領域の動きを推定する動き推定部と、
上記推定された画像領域の動きに基づいて、上記識別対象人物が他の人物に入れ替わったかどうかを判断し、入れ替わったと判断されなかった場合には、上記トラッキング部に上記トラッキングを再開させる人物識別部と、
を含む人物識別装置。
A person image acquisition unit that acquires a time series of images of identification target persons that are persons to be identified;
Using the time series of the acquired images of the identification target person and the pre-registered person image, it is determined by face authentication technology whether the identification target person and the pre-registered person are the same person A face authentication unit
A tracking unit that tracks the identification target person determined to be the same person based on the time series of the images of the identification target person;
A motion estimation unit that estimates a motion of an image area included in the identification target person image based on a time series of the identification target person image when the tracking fails;
Based on the estimated movement of the image area, it is determined whether or not the person to be identified has been replaced with another person, and if it is not determined that the person has been replaced, the person identifying unit that causes the tracking unit to resume the tracking When,
A person identification device including:
人物画像取得部が、識別対象となる人物である識別対象人物の画像の時系列を取得する人物画像取得ステップと、
顔認証部が、上記取得された識別対象人物の画像の時系列と予め登録された人物の画像とを用いて、上記識別対象人物と上記予め登録された人物とが同一人物であるかどうかを顔認証技術により判定する顔認証ステップと、
トラッキング部が、上記識別対象人物の画像の時系列に基づいて、同一人物であると判定された識別対象人物をトラッキングするトラッキングステップと、
動き推定部が、上記トラッキングに失敗した場合に、上記識別対象人物の画像の時系列に基づいて、上記識別対象人物の画像に含まれる画像領域の動きを推定する動き推定ステップと、
人物識別部が、上記推定された画像領域の動きに基づいて、上記識別対象人物が他の人物に入れ替わったかどうかを判断し、入れ替わったと判断されなかった場合には、上記トラッキング部に上記トラッキングを再開させる人物識別ステップと、
を含む人物識別方法。
A person image acquisition unit in which a person image acquisition unit acquires a time series of images of a person to be identified who is a person to be identified;
Whether the identification target person and the pre-registered person are the same person by using a time series of the acquired identification target person image and a pre-registered person image. A face authentication step to be determined by face authentication technology;
A tracking step for tracking the identification target person determined to be the same person based on the time series of the image of the identification target person;
A motion estimation step for estimating a motion of an image area included in the image of the person to be identified based on a time series of the image of the person to be identified when the motion estimation unit fails in the tracking;
The person identification unit determines whether the person to be identified has been replaced with another person based on the estimated movement of the image area. If the person identification unit has not been determined to have replaced, the tracking unit performs the tracking. A person identification step to resume,
Person identification method including
請求項1の人物識別装置の各部としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each part of the person identification apparatus of Claim 1.
JP2016233730A 2016-12-01 2016-12-01 Person identification device, method and program Active JP6797009B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016233730A JP6797009B2 (en) 2016-12-01 2016-12-01 Person identification device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016233730A JP6797009B2 (en) 2016-12-01 2016-12-01 Person identification device, method and program

Publications (2)

Publication Number Publication Date
JP2018092287A true JP2018092287A (en) 2018-06-14
JP6797009B2 JP6797009B2 (en) 2020-12-09

Family

ID=62566112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016233730A Active JP6797009B2 (en) 2016-12-01 2016-12-01 Person identification device, method and program

Country Status (1)

Country Link
JP (1) JP6797009B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111385834A (en) * 2018-12-27 2020-07-07 深圳市大数据研究院 Object identification method and device, electronic equipment and computer readable storage medium
WO2022158178A1 (en) * 2021-01-19 2022-07-28 日本電気株式会社 Image processing device, image processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293732A (en) * 2005-04-12 2006-10-26 Hitachi Ltd Information processor, image sensor, biometrics system, and biometrics program for information processor
JP2007042072A (en) * 2005-07-05 2007-02-15 Omron Corp Tracking apparatus
JP2007052770A (en) * 2005-07-21 2007-03-01 Omron Corp Monitoring apparatus
JP2013162329A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing apparatus, image processing method, program, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293732A (en) * 2005-04-12 2006-10-26 Hitachi Ltd Information processor, image sensor, biometrics system, and biometrics program for information processor
JP2007042072A (en) * 2005-07-05 2007-02-15 Omron Corp Tracking apparatus
JP2007052770A (en) * 2005-07-21 2007-03-01 Omron Corp Monitoring apparatus
JP2013162329A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing apparatus, image processing method, program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111385834A (en) * 2018-12-27 2020-07-07 深圳市大数据研究院 Object identification method and device, electronic equipment and computer readable storage medium
CN111385834B (en) * 2018-12-27 2023-08-18 深圳市大数据研究院 Object recognition method, device, electronic equipment and computer readable storage medium
WO2022158178A1 (en) * 2021-01-19 2022-07-28 日本電気株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP6797009B2 (en) 2020-12-09

Similar Documents

Publication Publication Date Title
US20200184053A1 (en) Generative adversarial network training and feature extraction for biometric authentication
KR102483642B1 (en) Method and apparatus for liveness test
KR101598771B1 (en) Method and apparatus for authenticating biometric by using face recognizing
US9690998B2 (en) Facial spoofing detection in image based biometrics
EP3693966B1 (en) System and method for continuous privacy-preserved audio collection
WO2016098950A1 (en) Method for updating biological characteristic pattern, and electronic device therefor
CN109492551A (en) The related system of biopsy method, device and application biopsy method
KR20190096703A (en) Method and apparatus for image fusion
JP6572537B2 (en) Authentication apparatus, method, and program
US20120320181A1 (en) Apparatus and method for security using authentication of face
Thabet et al. Enhanced smart doorbell system based on face recognition
US10860875B2 (en) Device and method to register user
US20220100831A1 (en) Face Authentication Embedding Migration and Drift-Compensation
CN111553266A (en) Identification verification method and device and electronic equipment
US20150153827A1 (en) Controlling connection of input device to electronic devices
WO2021091066A1 (en) System and method for passive subject specific monitoring
KR101979375B1 (en) Method of predicting object behavior of surveillance video
JP6797009B2 (en) Person identification device, method and program
US20220253514A1 (en) Method and system for seamless biometric system self-enrollment
CN112087984A (en) Robot identification manager
US11488417B2 (en) Iris and periocular region biometric recognition
JP7176590B2 (en) Image processing device, image processing method, and program
CN113569671A (en) Abnormal behavior alarm method and device
JP2018169776A (en) Authentication device, authentication method, and program
WO2018155594A1 (en) Information processing device, information processing method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R150 Certificate of patent or registration of utility model

Ref document number: 6797009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250