JP7439899B2 - Verification auxiliary device, verification auxiliary method and program - Google Patents

Verification auxiliary device, verification auxiliary method and program Download PDF

Info

Publication number
JP7439899B2
JP7439899B2 JP2022505677A JP2022505677A JP7439899B2 JP 7439899 B2 JP7439899 B2 JP 7439899B2 JP 2022505677 A JP2022505677 A JP 2022505677A JP 2022505677 A JP2022505677 A JP 2022505677A JP 7439899 B2 JP7439899 B2 JP 7439899B2
Authority
JP
Japan
Prior art keywords
image
person
lens
input image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022505677A
Other languages
Japanese (ja)
Other versions
JPWO2021181642A5 (en
JPWO2021181642A1 (en
Inventor
秀治 古明地
那孟 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021181642A1 publication Critical patent/JPWO2021181642A1/ja
Publication of JPWO2021181642A5 publication Critical patent/JPWO2021181642A5/en
Application granted granted Critical
Publication of JP7439899B2 publication Critical patent/JP7439899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本発明は、照合補助装置、照合補助方法及びプログラム記憶媒体に関する。 The present invention relates to a verification assisting device, a verification assisting method, and a program storage medium.

防犯カメラ等で撮像された人物と、データベースに登録された人物とを目視で照合することがあった。
特許文献1には、データベースに登録された人物の三次元像と、撮像した人物とをユーザが目視で照合するにあたり、三次元像の向きや大きさを変更することで、撮像した二次元画像とを照合しやすくする技術が開示されている。
In some cases, a person photographed by a security camera or the like is visually compared with a person registered in a database.
Patent Document 1 discloses that when a user visually compares a three-dimensional image of a person registered in a database with a photographed person, the user changes the orientation and size of the three-dimensional image to create a two-dimensional image that has been photographed. A technology has been disclosed that makes it easier to compare the information.

実用新案登録第3204175号公報Utility model registration No. 3204175 特開2015-25859号公報Japanese Patent Application Publication No. 2015-25859

特許文献1に記載された技術においては、データベースに登録された三次元像の向きや大きさを変えることで、ユーザによる照合を容易にする。しかし、撮像画像に映る人物が眼鏡を装着していると、レンズの屈折によりレンズ内に映る目の位置や大きさが裸眼のときと比較して異なって見える。これは人物の顔向き等に応じて顕著になるため、ユーザが目視で二次元画像と三次元画像とを比較するときに同一人物か否かの照合精度が低下する。特許文献1では上記の状況は考慮されていない。 In the technique described in Patent Document 1, collation by a user is facilitated by changing the orientation and size of three-dimensional images registered in a database. However, when a person appearing in a captured image is wearing glasses, the position and size of the eyes reflected in the lenses appear different due to the refraction of the lenses compared to when the person is seen with the naked eye. This becomes noticeable depending on the person's face direction, etc., so that when a user visually compares a two-dimensional image and a three-dimensional image, the accuracy of matching whether they are the same person or not decreases. Patent Document 1 does not take the above situation into consideration.

そこで、本発明は上記の問題を鑑み、眼鏡の装着により生じる外観の変化を軽減させることで、照合精度を向上させることを課題とする。 SUMMARY OF THE INVENTION In view of the above-mentioned problems, it is an object of the present invention to improve matching accuracy by reducing changes in appearance caused by wearing glasses.

本発明の一観点によれば、人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する検出部と、前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する出力部と、を備える照合補助装置が提供される。 According to one aspect of the present invention, a detection unit detects an input image including a person wearing a lens in at least one input image of a person; A matching auxiliary device is provided that includes a corrected image that is an image obtained by correcting the position and size of the eye reflected in a lens, and an output unit that outputs a three-dimensional registered image that is a target for matching with the corrected image. .

本発明の一観点によれば、人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出し、前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する、照合補助方法が提供される。 According to one aspect of the present invention, an input image including a person wearing a lens is detected in at least one input image of a person, and the image is reflected in the lens using the power of the lens estimated in the input image. A matching assistance method is provided that outputs a corrected image, which is an image in which the position and size of the eyes have been corrected, and a three-dimensional registered image, which is a target for matching with the corrected image.

本発明の一観点によれば、コンピュータに、人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する処理、前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する処理、を実行させるためのプログラムを記憶するプログラム記憶媒体が提供される。 According to one aspect of the present invention, a computer is provided with a process of detecting an input image including a person wearing a lens in at least one input image of a person, using the power of the lens estimated in the input image. A program that stores a program for executing a process of outputting a corrected image, which is an image obtained by correcting the position and size of the eye reflected in the lens, and a three-dimensional registered image, which is a target for comparison with the corrected image. A storage medium is provided.

本発明の一観点によれば、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する検出部と、前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する出力部と、を備える照合補助装置が提供される。 According to one aspect of the present invention, there is provided a detection unit that detects an input image including a person wearing glasses having lenses in at least one input image of a person, and a power of the lens estimated in the input image. an output unit that outputs the input image and a three-dimensional corrected image in which the eye position and size of a three-dimensional registered image to be matched with the input image are corrected using is provided.

本発明の一観点によれば、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出し、前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する、照合補助方法が提供される。 According to one aspect of the present invention, an input image including a person wearing glasses having lenses is detected from at least one input image of a person, and the power of the lens estimated in the input image is used. A matching auxiliary method is provided that outputs the input image and a three-dimensional corrected image in which the position and size of eyes in a three-dimensional registered image to be matched with the input image are corrected.

本発明の一観点によれば、コンピュータに、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する処理、前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する処理、を実行させるためのプログラムを記憶するプログラム記憶媒体が提供される。 According to one aspect of the present invention, a process of detecting an input image including a person wearing glasses having lenses in at least one input image of a person is performed in a computer; A program for executing a process of outputting the input image and a three-dimensional corrected image in which the eye position and size of the three-dimensional registered image to be matched with the input image are corrected using a frequency. A program storage medium is provided that stores a program.

本発明によれば、眼鏡の装着による外観の変化を軽減させることで、照合精度を向上することができる照合補助装置、照合補助方法及びプログラムが提供される。 According to the present invention, there are provided a verification assisting device, a verification assisting method, and a program that can improve verification accuracy by reducing changes in appearance caused by wearing glasses.

第1の実施形態における照合補助システムの全体構成例を示す図である。1 is a diagram illustrating an example of the overall configuration of a verification assistance system in a first embodiment; FIG. 第1の実施形態における照合補助システムの機能を示すブロック図である。FIG. 2 is a block diagram showing the functions of the verification assistance system in the first embodiment. 第1から第4の実施形態における撮像対象の状態を説明する概念図である。FIG. 3 is a conceptual diagram illustrating the state of an imaging target in the first to fourth embodiments. 第1から第4の実施形態における撮像対象の状態を説明する概念図である。FIG. 3 is a conceptual diagram illustrating the state of an imaging target in the first to fourth embodiments. 第1の実施形態における度数推定部の機能を示すブロック図である。FIG. 3 is a block diagram showing the functions of a frequency estimator in the first embodiment. 第1から第4の実施形態における照合補助システムが実行する計算処理を説明するための概念図である。FIG. 3 is a conceptual diagram for explaining calculation processing executed by the collation assisting system in the first to fourth embodiments. 第1から第4の実施形態における照合補助システムが実行する計算処理を説明するための概念図である。FIG. 3 is a conceptual diagram for explaining calculation processing executed by the collation assisting system in the first to fourth embodiments. 第1の実施形態における画像処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of image processing in the first embodiment. 第1の実施形態における機械照合の一例を示すフローチャートである。It is a flowchart which shows an example of machine verification in a 1st embodiment. 第1の実施形態におけるユーザ入力受付の一例を示すフローチャートである。3 is a flowchart illustrating an example of user input reception in the first embodiment. 第2の実施形態における照合補助システムの機能を示すブロック図である。FIG. 3 is a block diagram showing the functions of a verification assistance system in a second embodiment. 第2の実施形態における画像処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of image processing in the second embodiment. 第2の実施形態におけるユーザ入力受付の一例を示すフローチャートである。12 is a flowchart illustrating an example of user input reception in the second embodiment. 第3及び第4の実施形態における照合補助システムの機能を示すブロック図である。FIG. 3 is a block diagram showing the functions of the verification assist system in the third and fourth embodiments. 第3の実施形態における処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of processing in a third embodiment. 第4の実施形態における処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of processing in a fourth embodiment. 第1から第4の実施形態における画像照合システムのハードウェア構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the hardware configuration of an image matching system in first to fourth embodiments. 本発明における処理に用いる計算式の一例である。This is an example of a calculation formula used for processing in the present invention. 本発明の実施形態に適用可能な変形例を説明するブロック図である。FIG. 3 is a block diagram illustrating a modification applicable to the embodiment of the present invention.

以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。 Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. In the drawings, similar or corresponding elements are denoted by the same reference numerals, and the description thereof may be omitted or simplified.

<背景>
視力矯正用の眼鏡を装着する人物は、眼鏡を装着していないときと比較して顔立ちが異なって見える。これはレンズの屈折現象により目の位置と大きさが変化して見えるためである。カメラが撮像した映像を確認する管理者にとって、眼鏡の装着により顔立ちが変化して見える人物が、データベースに登録された人物画像の何れかに該当するか否かを目視で判断することは容易ではない。後述する実施形態では、管理者(ユーザ)を補助するシステムについて説明する。
<Background>
A person who wears glasses for vision correction looks different in facial features compared to a person who does not wear glasses. This is because the position and size of the eyes appear to change due to the refraction phenomenon of the lens. For administrators who check images captured by cameras, it is difficult to visually determine whether a person whose facial features appear to have changed due to wearing glasses corresponds to one of the person images registered in the database. do not have. In the embodiment described later, a system for assisting an administrator (user) will be described.

<第1の実施形態>
本実施形態の照合補助システム1の構成を図1及び図2を用いて説明する。図1は、本実施形態における照合補助システム1の全体構成例を示す。照合補助システムは、処理装置100と、撮像装置200と、ユーザ端末300とを備える情報処理システムである。各装置及び端末は、ネットワークを介して接続される。図1が示す状況の具体例は、街頭に設置されたカメラで人物を撮像する状況である。
<First embodiment>
The configuration of the verification assistance system 1 of this embodiment will be explained using FIGS. 1 and 2. FIG. 1 shows an example of the overall configuration of a verification assistance system 1 in this embodiment. The verification assistance system is an information processing system that includes a processing device 100, an imaging device 200, and a user terminal 300. Each device and terminal are connected via a network. A specific example of the situation shown in FIG. 1 is a situation where a person is imaged by a camera installed on the street.

撮像装置200は、人物を撮像して撮像画像を得る端末であり、例えば街頭に設置される防犯カメラである。撮像装置200は撮像区画を通行する人物を撮像し、撮像画像を処理装置100に出力する。 The imaging device 200 is a terminal that images a person and obtains a captured image, and is, for example, a security camera installed on the street. The imaging device 200 images a person passing through the imaging section, and outputs the captured image to the processing device 100.

図2は、照合補助システム1の構成を示す機能ブロック図である。照合補助システム1は、処理装置100と、撮像装置200と、ユーザ端末300とを備える。処理装置100は、入力部110と、検出部120と、抽出部130と、度数推定部140と、画像処理部150と、記憶部160と、照合部170と、出力部180を備える。撮像装置200は、撮像部210を備える。ユーザ端末300は、表示部310と操作受付部320を備える。 FIG. 2 is a functional block diagram showing the configuration of the verification assistance system 1. As shown in FIG. The verification assistance system 1 includes a processing device 100, an imaging device 200, and a user terminal 300. The processing device 100 includes an input section 110, a detection section 120, an extraction section 130, a frequency estimation section 140, an image processing section 150, a storage section 160, a collation section 170, and an output section 180. The imaging device 200 includes an imaging section 210. User terminal 300 includes a display section 310 and an operation reception section 320.

撮像装置200が備える撮像部210は、撮像区画を通行する人物を撮像し、撮像画像を処理装置100に出力する。なお、撮像部210は、例えば、設定されたフレームレートに応じて撮像区画を時系列的に撮像する。撮像部210は、上記の具体例に限定されず、外部からの指示を受けたタイミングで撮像するものであってもよいし、所定のタイミングで静止画を撮像するものであってもよい。本実施形態において撮像画像は少なくとも人物の頭部が含まれていればよく、人物の全身を含まなくともよい。 The imaging unit 210 included in the imaging device 200 images a person passing through the imaging section, and outputs the captured image to the processing device 100. Note that the imaging unit 210 images the imaging section in time series according to a set frame rate, for example. The imaging unit 210 is not limited to the above-described specific example, and may take an image at a timing when receiving an instruction from the outside, or may take a still image at a predetermined timing. In this embodiment, the captured image only needs to include at least the head of the person, and does not need to include the whole body of the person.

入力部110は、撮像部210が出力した撮像画像の入力を受け付ける。ここで、入力部110が入力を受け付ける対象(入力画像)は、撮像部210が撮像した全ての撮像画像であってもよいし、一部であってもよい。例えば、撮像部210が時系列的に撮像した撮像画像のうち、所定の時間間隔で撮像画像を抽出し、順次入力を受け付けるものであってもよい。所定の時間間隔で撮像画像を抽出する一例として、所定のフレームレートに応じて撮像部210が撮像した撮像画像の中から一部を間引いた撮像画像を抽出するものであってもよい。入力部110が受け付ける対象は上記に限定されない。 The input unit 110 receives input of a captured image output by the imaging unit 210. Here, the target (input image) for which the input unit 110 receives input may be all of the captured images captured by the imaging unit 210, or may be a part of the captured images. For example, the image capture unit 210 may extract captured images at predetermined time intervals from the captured images captured in chronological order, and may sequentially receive input. As an example of extracting captured images at predetermined time intervals, captured images may be extracted by thinning out some of the captured images captured by the imaging unit 210 according to a predetermined frame rate. The objects that the input unit 110 accepts are not limited to the above.

検出部120は、入力部110が受け付けた撮像画像の中から、人間の頭部及び眼鏡を検出する。ここで人物の頭部及び眼鏡の検出には、例えば、機械学習により眼鏡を装着した頭部の画像を学習した学習済みモデルが用いられる。機械学習の手法は、例えば多層のニューラルネットワークを介したディープラーニングを用いてもよい。人物の頭部及び眼鏡の装着検出に用いられる手法は上記に限定されない。検出部120は、人間の頭部の検出と、眼鏡の装着とを、段階的に検出するものであってもよいし、それぞれ独立して検出するものであってもよい。この場合、人間の頭部を検出した後に、眼鏡の装着を検出してもよい。また、検出部120は、必ずしも頭部を検出する必要はなく、眼鏡を検出するものであってもよい。 The detection unit 120 detects a human head and glasses from the captured image received by the input unit 110. Here, to detect a person's head and glasses, for example, a trained model that is trained by machine learning on an image of a head wearing glasses is used. As the machine learning method, for example, deep learning via a multilayer neural network may be used. The method used to detect the head of a person and the wearing of glasses is not limited to the above. The detection unit 120 may detect the detection of a human head and the wearing of glasses in a stepwise manner, or may detect each detection independently. In this case, wearing of glasses may be detected after detecting the human head. Further, the detection unit 120 does not necessarily need to detect the head, and may detect glasses.

検出部120は、眼鏡の装着を検出した撮像画像の中から、眼鏡が有するレンズの内側に顔の輪郭が映る画像を検出する。 The detection unit 120 detects an image in which the outline of the face is reflected inside the lens of the glasses from among the captured images in which the wearing of glasses is detected.

次に、図3を用いて撮像画像に映る顔の状態を説明する。図3は眼鏡のレンズの内側に顔の輪郭が映っている顔の状態を示す一例である。図中のFLは人物の顔の輪郭を示し、GL1及びGL2はレンズを示す。また、VFLはレンズの内側に映る顔の輪郭を示している。図3Aは撮像部210に対し人物の顔が正面を向いた状態を(顔の傾斜角度が0度)示し、図3Bは撮像部210に対し顔向きが正面を向いていない状態(顔の傾斜角度が0度でない)を示す。図3Bでは一例として、人物が右を向いた状態を示す。顔が正面を向いた状態とは、撮像方向に対して顔の傾斜角度が0度に近く、所定の閾値よりも小さい状態である。顔が正面を向いていない状態とは、撮像方向に対する顔の傾斜角度が所定の閾値よりも大きい状態である。所定の閾値は任意に設定される。図3Aに示すように、顔向きが撮像部210に対して正面である場合(顔の傾斜角度が0度)、レンズGL1及びGL2の内側に顔の輪郭が映りにくい。一方、図3Bに示すように、顔向きが撮像部210に対し正面でない場合は(顔の傾斜角度が0度でない)、顔向きが正面である場合と比較して、屈折現象の影響によりレンズGL1の内側に顔の輪郭が映りやすい。 Next, the state of the face reflected in the captured image will be explained using FIG. 3. FIG. 3 is an example of a face in which the outline of the face is reflected inside the lens of the glasses. In the figure, FL indicates the outline of a person's face, and GL1 and GL2 indicate lenses. Further, VFL indicates the outline of the face reflected inside the lens. 3A shows a state in which the person's face faces forward to the imaging unit 210 (face inclination angle is 0 degrees), and FIG. 3B shows a state in which the person's face does not face forward to the imaging unit 210 (face inclination angle is 0 degrees). angle is not 0 degrees). FIG. 3B shows, as an example, a state in which the person faces to the right. The state in which the face faces forward is a state in which the inclination angle of the face with respect to the imaging direction is close to 0 degrees and smaller than a predetermined threshold. The state where the face is not facing forward is a state where the inclination angle of the face with respect to the imaging direction is larger than a predetermined threshold value. The predetermined threshold value is arbitrarily set. As shown in FIG. 3A, when the face is facing forward to the imaging unit 210 (the inclination angle of the face is 0 degrees), the outline of the face is difficult to be reflected inside the lenses GL1 and GL2. On the other hand, as shown in FIG. 3B, when the face direction is not in front of the imaging unit 210 (the inclination angle of the face is not 0 degrees), the lens It is easy to see the outline of the face inside GL1.

検出部120は、撮像画像に映る顔について、撮像方向に対する顔の傾斜角度を推定する。顔の傾斜角度とは、三次元空間において撮像部210と人物の頭部とを通る直線を基準に、当該人物の顔が向いている角度である。具体的には、人物の顔が撮像部210を向いている場合、傾斜角度は0度に近く所定の閾値よりも小さい。検出部120が顔を検出する対象の画像は、後述する抽出部130が抽出した二次元画像であってもよい。 The detection unit 120 estimates the inclination angle of the face in the captured image with respect to the imaging direction. The inclination angle of the face is the angle at which the person's face is oriented with respect to a straight line passing through the imaging unit 210 and the person's head in three-dimensional space. Specifically, when a person's face is facing the imaging unit 210, the inclination angle is close to 0 degrees and smaller than a predetermined threshold. The target image in which the detection unit 120 detects a face may be a two-dimensional image extracted by the extraction unit 130 described later.

抽出部130は、レンズの内側に顔の輪郭が映る撮像画像を二次元画像として抽出する。抽出部130は、図3Bに例示するように、レンズの内側に顔の輪郭が映っている画像を抽出する。換言すると、抽出部130は、撮像部210から見てレンズの内側に顔の輪郭が映る程度に人物の顔が斜めを向いている画像を抽出する。抽出部130は、顔の傾斜角度が任意に設定した第1の閾値以上である画像や、任意に設定した第2の閾値以下である画像を抽出してもよい。ここで第2の閾値は第1の閾値より大きい値を設定してもよい。 The extraction unit 130 extracts a captured image in which the contour of the face is reflected inside the lens as a two-dimensional image. The extraction unit 130 extracts an image in which the outline of the face is reflected inside the lens, as illustrated in FIG. 3B. In other words, the extraction unit 130 extracts an image in which a person's face is turned diagonally to the extent that the outline of the face is reflected inside the lens when viewed from the imaging unit 210. The extraction unit 130 may extract images in which the inclination angle of the face is greater than or equal to an arbitrarily set first threshold, or images in which the inclination angle of the face is less than or equal to an arbitrarily set second threshold. Here, the second threshold may be set to a value larger than the first threshold.

抽出部130が実行する「抽出」とは、複数ある撮像画像の中から、一部の撮像画像を抜き出す処理を指す。具体的には、所定のフレームレートに応じて時系列的に撮像された複数の撮像画像において、眼鏡の装着が検出された撮像画像のみを抽出するものであってもよい。なお、「抽出」とは、撮像画像内において、一部の領域を切り出す処理を含む概念であってもよい。例えば、複数の人物を含んだ撮像画像内において、眼鏡を装着した頭部が映る一領域を切り出す他、人物が映る一領域を切り出す処理であってもよい。「抽出」が指す処理は上記の具体例に限定されない。 “Extraction” executed by the extraction unit 130 refers to a process of extracting some captured images from among a plurality of captured images. Specifically, from a plurality of captured images captured in time series according to a predetermined frame rate, only captured images in which wearing of glasses is detected may be extracted. Note that "extraction" may be a concept that includes a process of cutting out a part of the region within the captured image. For example, in a captured image that includes a plurality of people, in addition to cutting out a region where a head wearing glasses is shown, processing may also be performed to cut out a region where a person is shown. The process referred to by "extraction" is not limited to the above specific example.

度数推定部140は、抽出部130が抽出した二次元画像において、人物が装着する眼鏡の度数を推定する。図4を用いて度数推定部140の詳細を説明する。図4は、度数推定部140の機能ブロック図である。度数推定部140は、計算部141、学習モデル記憶部142、推定部143を有する。 The power estimation unit 140 estimates the power of glasses worn by a person in the two-dimensional image extracted by the extraction unit 130. Details of the frequency estimation unit 140 will be explained using FIG. 4. FIG. 4 is a functional block diagram of the frequency estimation section 140. The frequency estimation section 140 includes a calculation section 141 , a learning model storage section 142 , and an estimation section 143 .

計算部141は、撮像部210が撮像した人物の顔と撮像部210との三次元空間における距離を算出する。距離の算出には、例えば撮像画像上における顔を示す領域の大きさや、人物を示す領域の長さを用いてもよいが、距離の算出手法はこれに限定されず、当業者は適宜周知技術を適用することができる。 The calculation unit 141 calculates the distance in three-dimensional space between the person's face imaged by the imaging unit 210 and the imaging unit 210. To calculate the distance, for example, the size of the area showing the face on the captured image or the length of the area showing the person may be used, but the distance calculation method is not limited to this, and those skilled in the art can use well-known techniques as appropriate. can be applied.

計算部141は、レンズの内側と外側のそれぞれに映る顔の輪郭の位置の差(本明細書において「輪郭差」と称する)を計算する。図5を用いて輪郭差の概念を詳細に説明する。図5は、レンズを装着した顔の一部を模式的に示した図である。計算部141は、レンズの内側の領域における、目の中心点の水平方向位置と顔の輪郭の位置E4との水平方向のピクセル間距離(第1走査距離E1)を計算する。計算部141は、レンズの外側の領域において、目の中心点の水平方向位置と顔の輪郭の位置E3との水平方向のピクセル間距離(第2走査距離E2)を計算する。 The calculation unit 141 calculates the difference between the positions of the contours of the face reflected on the inside and outside of the lens (herein referred to as "contour difference"). The concept of contour difference will be explained in detail using FIG. FIG. 5 is a diagram schematically showing a part of a face wearing a lens. The calculation unit 141 calculates the horizontal inter-pixel distance (first scanning distance E1) between the horizontal position of the center point of the eye and the position E4 of the facial contour in the area inside the lens. The calculation unit 141 calculates the horizontal inter-pixel distance (second scanning distance E2) between the horizontal position of the center point of the eye and the position E3 of the facial contour in the area outside the lens.

計算部141は、第1走査距離E1と第2走査距離E2の差分を、撮像部210と顔との距離を用いて正規化した輪郭差(正規化輪郭差)を計算する。正規化の具体的な手法は限定されず、例えば、第1走査距離E1と第2走査距離E2との差分は、撮像部210と顔との距離で除算することで正規化してもよい。輪郭差の正規化にあたり、撮像部210と顔との距離が考慮される計算式であればよい。 The calculation unit 141 calculates a contour difference (normalized contour difference) by normalizing the difference between the first scanning distance E1 and the second scanning distance E2 using the distance between the imaging unit 210 and the face. The specific method of normalization is not limited, and for example, the difference between the first scanning distance E1 and the second scanning distance E2 may be normalized by dividing it by the distance between the imaging unit 210 and the face. Any calculation formula that takes into account the distance between the imaging unit 210 and the face may be used when normalizing the contour difference.

計算部141は、撮像画像上の任意のピクセルに映る物体から撮像部210へ入射する光の入射角を計算する。図6及び図17を用いて撮像画像上の任意のピクセル位置に対応する実物体から撮像部210への入射角Ψの計算方法の一例を詳細に説明する。図6は人物を撮像する撮像部210の光学系を模式的に示す図である。CCD(Charge-Coupled Device)センサCSは、カメラレンズPを介し、人物から入射した光を検出する。図17の計算式(1)は入射角Ψの導出過程を示す式である。計算式(1)を構成する変数について説明する。入射角Ψは、撮像部210の撮像範囲全体を示す撮像画像における中心位置からの第1ピクセル距離xsを変数として、撮像部210の撮像範囲全体を示す撮像画像の中心位置から当該撮像画像に映る顔の中心位置までの第2ピクセル距離cと、当該撮像画像の画素数XLと、検出部120が検出した顔向きΘと、撮像部210の画角Φを用いた図17に示す計算式(1)で表現できる。計算部141は、レンズの内側の領域に映る顔の輪郭の位置において、入射角を計算する。計算には例えば図17に示す計算式(1)を用いることができる。 The calculation unit 141 calculates the angle of incidence of light that enters the imaging unit 210 from an object appearing at an arbitrary pixel on the captured image. An example of a method for calculating the incident angle Ψ from a real object to the imaging unit 210 corresponding to an arbitrary pixel position on a captured image will be described in detail using FIGS. 6 and 17. FIG. 6 is a diagram schematically showing the optical system of the imaging unit 210 that images a person. A CCD (Charge-Coupled Device) sensor CS detects light incident from a person via a camera lens P. Calculation formula (1) in FIG. 17 is a formula showing the process of deriving the incident angle Ψ. The variables forming calculation formula (1) will be explained. The incident angle Ψ is calculated from the center position of the captured image showing the entire imaging range of the imaging unit 210, with the first pixel distance xs from the center position in the captured image showing the entire imaging range of the imaging unit 210 as a variable. The calculation formula shown in FIG. 17 ( It can be expressed as 1). The calculation unit 141 calculates the angle of incidence at the position of the contour of the face reflected in the area inside the lens. For example, calculation formula (1) shown in FIG. 17 can be used for calculation.

学習モデル記憶部142は、入射角と正規化輪郭差を入力するとレンズの度数を出力する回帰モデルを記憶する。回帰モデルは、予め入射角及び正規化輪郭差と、レンズの度数との組み合わせを学習した学習済みモデルである。 The learning model storage unit 142 stores a regression model that outputs the power of the lens when the incident angle and the normalized contour difference are input. The regression model is a trained model that has previously learned the combination of the incident angle, normalized contour difference, and lens power.

推定部143は、学習モデル記憶部142が記憶する回帰モデルに、計算部141が計算した入射角及び輪郭差を入力し、レンズの度数を推定する。 The estimation unit 143 inputs the incident angle and the contour difference calculated by the calculation unit 141 into the regression model stored in the learning model storage unit 142, and estimates the power of the lens.

上述した回帰モデルは、入射角と、正規化する前の輪郭差と、撮像部210と顔との距離とを入力し、レンズの度数を出力するように学習したものであってもよい。この場合、輪郭差を正規化する必要が無いため処理負荷を軽減することができる。 The regression model described above may be one that is trained to input the incident angle, the contour difference before normalization, and the distance between the imaging unit 210 and the face, and output the power of the lens. In this case, there is no need to normalize the contour difference, so the processing load can be reduced.

上述した度数推定部140の機能の一例は、撮像画像におけるレンズの内側に映る輪郭と、レンズの外側に映る輪郭との位置関係と、レンズを装着する人物を撮影した撮影部210と人物との位置関係を用いてレンズの度数を推定するものである。他にも、度数推定部140はレンズの度数を推定するために、例えば、特許文献2(特開2015-25859号公報)に記載されているように、眼鏡のレンズの内側に映る顔の輪郭の位置と、レンズの外側に見える顔の輪郭の位置及び顔の傾斜角度とに基づき、レンズの度数を推定する手法を用いてもよい。レンズの度数を推定する手法は上記に限定されない。 An example of the function of the power estimating unit 140 described above is the positional relationship between the outline reflected on the inside of the lens and the outline reflected on the outside of the lens in the captured image, and the relationship between the photographing unit 210 that photographed the person wearing the lens and the person. The power of the lens is estimated using the positional relationship. In addition, in order to estimate the power of the lens, the power estimating unit 140 also uses a method such as the contour of the face reflected inside the lens of the glasses, as described in Patent Document 2 (Japanese Patent Application Laid-open No. 2015-25859). A method of estimating the power of the lens may be used based on the position of the face, the position of the outline of the face visible outside the lens, and the inclination angle of the face. The method of estimating the power of the lens is not limited to the above.

画像処理部150は、度数推定部140が推定したレンズの度数情報を用いて、二次元画像に対し画像の補正を行い、当該二次元画像に対応する補正後の画像(補正後画像)を生成する。補正の対象となる領域は画像内の当該レンズの内側及び周辺の領域であり、度数を推定した対象のレンズ内の領域に映る顔の輪郭、人物の目の位置及び大きさを補正する。具体的には、レンズの内側に映る輪郭と、レンズの外側に映る輪郭とが同一曲線上に位置するように、レンズの内側に映る領域を拡大表示するように補正する。 The image processing unit 150 performs image correction on the two-dimensional image using the lens power information estimated by the power estimation unit 140, and generates a corrected image (corrected image) corresponding to the two-dimensional image. do. The area to be corrected is the area inside and around the lens in the image, and the outline of the face and the position and size of the person's eyes reflected in the area inside the lens of which power has been estimated are corrected. Specifically, the area reflected inside the lens is corrected so that the area reflected inside the lens is enlarged and displayed so that the contour reflected inside the lens and the contour reflected outside the lens are located on the same curve.

記憶部160は、複数の登録者の三次元画像(三次元登録画像)を登録者情報と関連付けて記憶する。登録者情報の項目の例として、登録者の識別情報、氏名、登録日時等が挙げられる。 The storage unit 160 stores three-dimensional images (three-dimensional registered images) of a plurality of registrants in association with registrant information. Examples of registrant information items include registrant identification information, name, registration date and time, and the like.

照合部170は、抽出部130が抽出した二次元画像に映る人物と、記憶部160が格納する複数の三次元登録画像との照合を行い、撮像部210が撮像した人物と複数の三次元登録画像との類似度を算出する。ここで、照合部170は、類似度が閾値以上の三次元登録画像をユーザの目視による照合の対象として設定する。目視照合の対象として設定する三次元登録画像は複数であってもよい。 The matching unit 170 matches the person appearing in the two-dimensional image extracted by the extraction unit 130 with the plurality of three-dimensional registered images stored in the storage unit 160, and matches the person imaged by the imaging unit 210 with the plurality of three-dimensional registered images. Calculate the degree of similarity with the image. Here, the matching unit 170 sets three-dimensional registered images whose degree of similarity is equal to or higher than a threshold value as a target for visual matching by the user. A plurality of three-dimensional registered images may be set as targets for visual verification.

出力部180は、目視による照合の対象として設定された三次元登録画像と、画像処理部150により処理された補正後の画像(補正後画像)とを出力する。 The output unit 180 outputs the three-dimensional registered image set as a target for visual verification and the corrected image processed by the image processing unit 150 (corrected image).

ユーザ端末300は表示部310と操作受付部320を備える。ユーザ端末300は、ユーザに対して情報を提供し、あるいはユーザの操作を受け付ける端末である。具体的には、ユーザ端末300は、ユーザに対して不図示のデータベースに登録された人物の三次元登録画像と、防犯カメラ等で撮像した人物とが同一人物であるか否かの判断を促す装置である。他にも、ユーザが防犯カメラ等で撮像した映像を確認する装置であってもよいが、これに限定されない。 User terminal 300 includes a display section 310 and an operation reception section 320. The user terminal 300 is a terminal that provides information to the user or receives user operations. Specifically, the user terminal 300 prompts the user to determine whether a three-dimensional registered image of a person registered in a database (not shown) and a person captured by a security camera or the like are the same person. It is a device. Alternatively, the device may be a device for checking images captured by a user using a security camera or the like, but is not limited thereto.

表示部310は、出力部180により出力された三次元登録画像と画像処理部150により処理された補正後画像を表示する。表示部310は、三次元登録画像と補正後画像を同時に表示してもよい。このとき表示部310は、複数の三次元登録画像を同時に表示してもよいし、類似度に応じて複数の三次元登録画像を順次表示してもよい。表示部310は、複数の補正後画像を同時に表示してもよい。また、表示部310は、例えば、三次元登録画像と補正後画像を同一画面上に表示してもよい。 The display unit 310 displays the three-dimensional registered image output by the output unit 180 and the corrected image processed by the image processing unit 150. The display unit 310 may display the three-dimensional registered image and the corrected image at the same time. At this time, the display unit 310 may display the plurality of three-dimensional registered images simultaneously, or may display the plurality of three-dimensional registered images sequentially according to the degree of similarity. The display unit 310 may display a plurality of corrected images simultaneously. Further, the display unit 310 may display the three-dimensional registered image and the corrected image on the same screen, for example.

ユーザは、表示部310が表示した少なくとも一つの三次元登録画像と、補正後画像とが同一人物を示すか否かを判断し、操作受付部320に判断結果を入力する。操作受付部320は、ユーザの操作により、ユーザが判断した判断結果の入力を受け付ける。操作受付部320が受け付ける操作とは、例えば、表示部310に表示された三次元登録画像の中で、照合対象である補正後画像と同一人物である画像を選択する操作である。 The user determines whether the at least one three-dimensional registered image displayed by the display unit 310 and the corrected image show the same person, and inputs the determination result to the operation reception unit 320. The operation reception unit 320 receives the input of the judgment result determined by the user through the user's operation. The operation accepted by the operation reception unit 320 is, for example, an operation of selecting an image of the same person as the corrected image to be compared among the three-dimensional registered images displayed on the display unit 310.

次に、本実施形態の照合補助システムの動作について、図7~図9を用いて説明する。図7~図9は本実施形態における処理の一例を示すフローチャートである。 Next, the operation of the verification assistance system of this embodiment will be explained using FIGS. 7 to 9. 7 to 9 are flowcharts showing an example of processing in this embodiment.

図7は画像処理に係るフローの一例を示す。まず、入力部110は、撮像装置200が出力した撮像画像の入力を受け付ける(S101)。入力部110は、例えば、所定のフレームレートに応じて時系列的に撮像された画像の入力を順次受け付けるものであってもよい。 FIG. 7 shows an example of a flow related to image processing. First, the input unit 110 receives input of a captured image output by the imaging device 200 (S101). The input unit 110 may, for example, sequentially receive input of images captured in time series according to a predetermined frame rate.

検出部120は、入力部110が受け付けた撮像画像の中から、人間の頭部及び眼鏡を検出する(S102)。検出部120は、人間の頭部の検出と、眼鏡の装着とを、段階的に検出するものであってもよいし、それぞれ独立して検出するものであってもよい。検出部120が撮像画像の中から眼鏡を検出しない場合は(S103、NO)、ステップS101の処理に戻り、次の撮像画像の入力を受け付ける(S101)。検出部120が撮像画像の中から眼鏡を検出した場合(S103、YES)、検出部120は、眼鏡の装着を検出した撮像画像の中から、眼鏡が有するレンズの内側に顔の輪郭が映っているか否かを判定する(S104)。 The detection unit 120 detects a human head and glasses from the captured image received by the input unit 110 (S102). The detection unit 120 may detect the detection of a human head and the wearing of glasses in a stepwise manner, or may detect each detection independently. If the detection unit 120 does not detect glasses in the captured image (S103, NO), the process returns to step S101 and receives the input of the next captured image (S101). When the detection unit 120 detects glasses from the captured image (S103, YES), the detection unit 120 detects the outline of the face reflected inside the lens of the glasses from the captured image in which the wearing of glasses is detected. It is determined whether there is one (S104).

レンズの内側に輪郭が映ると判定した場合(S105、YES)、抽出部130は、撮像画像の中から、レンズの内側に輪郭が映る撮像画像を抽出する(S106)。レンズの内側に顔の輪郭が映っていないと判定した場合(S105、NO)、ステップS101の処理に戻る。 If it is determined that the outline is reflected inside the lens (S105, YES), the extraction unit 130 extracts a captured image in which the outline is reflected inside the lens from among the captured images (S106). If it is determined that the outline of the face is not reflected inside the lens (S105, NO), the process returns to step S101.

度数推定部140は、抽出部130が抽出した画像において、人物が装着するレンズの度数を推定する(S107)。 The power estimation unit 140 estimates the power of the lens worn by the person in the image extracted by the extraction unit 130 (S107).

画像処理部150は、度数推定部140が推定したレンズの度数情報を用いて、抽出部130が抽出した画像において画像の補正を行い、補正後の画像(補正後画像)を生成する(S108)。 The image processing unit 150 corrects the image extracted by the extraction unit 130 using the lens power information estimated by the power estimation unit 140, and generates a corrected image (corrected image) (S108). .

図8は、処理装置100による照合に係る処理フローの一例を示す。照合部170は、抽出部130が抽出した二次元画像に映る人物と、記憶部160が格納する複数の三次元登録画像との照合を行い、撮像部210が撮像した人物と複数の登録者との類似度を算出する(S109)。ここで、類似度が閾値以上の三次元登録画像がある場合には(S110、YES)、当該三次元登録画像をユーザの目視による照合の対象として設定する(S111)。類似度が閾値以上の三次元登録画像が無い場合(S110、NO)、処理を終了する。 FIG. 8 shows an example of a processing flow related to verification by the processing device 100. The matching unit 170 matches the person appearing in the two-dimensional image extracted by the extraction unit 130 with the plurality of three-dimensional registered images stored in the storage unit 160, and matches the person imaged by the imaging unit 210 with the plurality of registrants. The degree of similarity is calculated (S109). Here, if there is a three-dimensional registered image with a degree of similarity equal to or higher than the threshold value (S110, YES), the three-dimensional registered image is set as a target for visual verification by the user (S111). If there is no three-dimensional registered image with a degree of similarity equal to or higher than the threshold (S110, NO), the process ends.

なお、本実施形態において、図8で示す装置による照合に係る処理フロー(S109~S111)の後に、図7で示す画像処理に係る一連のフロー(S101~S108)が実行されてもよい。その場合、レンズを認識した画像のみに対してレンズの度数推定を行うため、装置の処理負荷を軽減することができる。 Note that in this embodiment, after the processing flow (S109 to S111) related to verification by the apparatus shown in FIG. 8, a series of flows related to image processing (S101 to S108) shown in FIG. 7 may be executed. In this case, the power of the lens is estimated only for images in which the lens is recognized, so the processing load on the device can be reduced.

照合に係るフロー(S109~S111)と、画像処理に係るフロー(S101~S108)とが並列で処理されてもよい。照合に係るフロー(S109~S111)の前に、画像処理に係るフロー(S101~S108)が実行されてもよい。図7で示す画像処理に係る一連のフロー(S101~S108)と、図8で示す装置による照合に係る処理フロー(S109~S111)の前後関係は限定されない。 The flow related to verification (S109 to S111) and the flow related to image processing (S101 to S108) may be processed in parallel. A flow related to image processing (S101 to S108) may be executed before a flow related to verification (S109 to S111). The sequential relationship between the series of flows related to image processing shown in FIG. 7 (S101 to S108) and the processing flow related to verification by the apparatus shown in FIG. 8 (S109 to S111) is not limited.

図9は、画像の表示に係る処理フローの一例を示す。出力部180は、目視による照合の対象として設定された三次元登録画像と、画像処理部150により処理された補正後の画像(補正後画像)とを出力する(S112)。 FIG. 9 shows an example of a processing flow related to image display. The output unit 180 outputs the three-dimensional registered image set as a target for visual verification and the corrected image (corrected image) processed by the image processing unit 150 (S112).

表示部310は、出力部180により出力された三次元登録画像と画像処理部150により処理された補正後画像を表示する(S113)。 The display unit 310 displays the three-dimensional registered image output by the output unit 180 and the corrected image processed by the image processing unit 150 (S113).

操作受付部320は、ユーザの操作により、ユーザが判断した判断結果の入力を受け付ける(S114)。操作受付部320が受け付ける操作とは、例えば、表示部310に表示された三次元登録画像の中で、照合対象である補正後画像と同一人物である画像を選択する操作である。 The operation receiving unit 320 receives the input of the judgment result determined by the user through the user's operation (S114). The operation accepted by the operation reception unit 320 is, for example, an operation of selecting an image of the same person as the corrected image to be compared among the three-dimensional registered images displayed on the display unit 310.

なお、図9で示す画像の表示に係る処理フロー(S112~S113)は、図7で示す画像処理に係る一連のフロー(S101~S108)と、図8で示す装置による照合に係る処理フロー(S109~S111)の後に実行される。 Note that the processing flow (S112 to S113) related to image display shown in FIG. 9 is a series of flows related to image processing (S101 to S108) shown in FIG. It is executed after S109 to S111).

これにより、照合対象がレンズを装着した人物であっても、レンズの装着による外見の変化や、顔の印象の変化を軽減することができ、ユーザは目視での照合を効率的かつ精度良く行うことができる。 As a result, even if the verification target is a person wearing lenses, changes in appearance or facial impression caused by wearing lenses can be reduced, allowing users to perform visual verification efficiently and accurately. be able to.

<第2の実施形態>
以下、本実施形態の照合補助システム1について説明する。第2の実施形態では、処理装置100は、三次元画像処理部190を備え、推定したレンズの度数情報を基に三次元登録画像に対して補正を行う点で第1の実施形態とは相違する。なお、第1の実施形態と共通する箇所の説明は省略する。
<Second embodiment>
The verification assist system 1 of this embodiment will be described below. The second embodiment is different from the first embodiment in that the processing device 100 includes a three-dimensional image processing unit 190 and performs correction on the three-dimensional registered image based on estimated lens power information. do. Note that explanations of parts common to the first embodiment will be omitted.

図10は、本実施形態における照合補助システム1の構成を示す機能ブロック図である。処理装置100は、入力部110と、検出部120と、抽出部130と、度数推定部140と、画像処理部150と、記憶部160と、照合部170と、出力部180と、三次元画像処理部190とを備える。 FIG. 10 is a functional block diagram showing the configuration of the verification assistance system 1 in this embodiment. The processing device 100 includes an input section 110, a detection section 120, an extraction section 130, a frequency estimation section 140, an image processing section 150, a storage section 160, a matching section 170, an output section 180, and a three-dimensional image processing section. and a processing section 190.

三次元画像処理部190は、照合部170が目視照合の対象として設定した三次元登録画像において、人物の目の周辺の画像を補正し、三次元登録画像に対応する補正後の三次元画像(三次元補正後画像)を生成する。具体的には、度数推定部140が推定したレンズの度数情報に応じて、所定の三次元登録画像に対して補正を行う。所定の三次元登録画像とは、照合部170が目視照合の対象として設定した三次元登録画像である。この補正には、公知の三次元コンピュータグラフィックスが用いられる。レンズの度数情報に応じた補正の一例を説明する。例えば、近視矯正用の眼鏡には凹レンズが用いられるため、眼鏡を装着した人物の目は、レンズの屈折の影響により装着前と比較して小さく見える。この場合、三次元画像処理部190は、推定した凹レンズの度数情報を用いて、三次元登録画像が示す人物が凹レンズを装着した場合に、レンズにより屈折して見える顔立ちの変化を再現するように、目の周辺の画像を補正する。 The three-dimensional image processing unit 190 corrects the image around the eyes of the person in the three-dimensional registered image that the matching unit 170 has set as a target for visual matching, and creates a corrected three-dimensional image ( 3D corrected image). Specifically, a predetermined three-dimensional registered image is corrected according to lens power information estimated by the power estimation unit 140. The predetermined three-dimensional registered image is a three-dimensional registered image that the matching unit 170 sets as a target for visual matching. Known three-dimensional computer graphics are used for this correction. An example of correction according to lens power information will be described. For example, since concave lenses are used in glasses for correcting myopia, the eyes of a person wearing the glasses appear smaller than before wearing them due to the refraction of the lenses. In this case, the three-dimensional image processing unit 190 uses the estimated power information of the concave lens to reproduce changes in facial features that appear to be refracted by the lens when the person shown in the three-dimensional registered image wears a concave lens. , Correct the image around the eyes.

記憶部160は、複数の三次元登録画像を登録者情報と関連付けて記憶する。登録者情報の項目の例として、登録者の識別情報、氏名、登録日時等が挙げられる。なお、記憶部160は、三次元画像処理部190が生成した、三次元補正後画像を記憶してもよい。 The storage unit 160 stores a plurality of three-dimensional registered images in association with registrant information. Examples of registrant information items include registrant identification information, name, registration date and time, and the like. Note that the storage unit 160 may store the three-dimensional corrected image generated by the three-dimensional image processing unit 190.

照合部170は、抽出部130が抽出した二次元画像に映る人物と、記憶部160が格納する複数の登録者を示す三次元登録画像との照合を行い、撮像部210が撮像した人物と複数の登録者との類似度を算出する。照合部170は、得られた類似度が閾値以上の三次元登録画像をユーザの目視による照合の対象として設定する。目視照合の対象として設定する三次元登録画像は複数であってもよい。 The matching unit 170 matches the person appearing in the two-dimensional image extracted by the extraction unit 130 with the three-dimensional registered image showing a plurality of registrants stored in the storage unit 160, and matches the person imaged by the imaging unit 210 and the plurality of registrants. Calculate the degree of similarity with the registrant. The matching unit 170 sets the three-dimensional registered images for which the obtained degree of similarity is greater than or equal to the threshold value as a target for visual verification by the user. A plurality of three-dimensional registered images may be set as targets for visual verification.

出力部180は、目視による照合の対象として設定された人物を示す三次元補正後画像と、抽出部130が抽出した画像を出力する。三次元補正後画像とは、画像処理部150により生成された三次元画像である。 The output unit 180 outputs a three-dimensional corrected image showing the person set as a target for visual verification and the image extracted by the extraction unit 130. The three-dimensional corrected image is a three-dimensional image generated by the image processing unit 150.

表示部310は、目視による照合の対象として設定された人物を示す三次元補正後画像と、抽出部130が抽出した二次元画像を表示する。表示部310は、三次元補正後画像と二次元画像を同時に表示してもよい。このとき表示部310は、複数の三次元画像を同時に表示してもよいし、得られた類似度に応じて複数の三次元画像を順次表示してもよい。表示部310は、複数の二次元画像を同時に表示してもよい。また、表示部310は、例えば、三次元登録画像と補正後画像を同一画面上に表示してもよい。 The display unit 310 displays a three-dimensional corrected image showing a person set as a target for visual verification and a two-dimensional image extracted by the extraction unit 130. The display unit 310 may display the three-dimensional corrected image and the two-dimensional image simultaneously. At this time, the display unit 310 may display the plurality of three-dimensional images simultaneously, or may display the plurality of three-dimensional images sequentially according to the obtained similarity. The display unit 310 may display multiple two-dimensional images simultaneously. Further, the display unit 310 may display the three-dimensional registered image and the corrected image on the same screen, for example.

ユーザは、表示部310が表示した少なくとも一つの三次元画像と、二次元画像とが同一人物を示すか否かを判断し、操作受付部320に判断結果を入力する。操作受付部320は、ユーザの操作により、ユーザが判断した判断結果の入力を受け付ける。操作受付部320が受け付ける操作とは、例えば、表示部310に表示された三次元画像の中で、照合対象である二次元画像と同一人物である画像を選択する操作である。 The user determines whether at least one three-dimensional image displayed by the display section 310 and the two-dimensional image show the same person, and inputs the determination result to the operation reception section 320. The operation reception unit 320 receives the input of the judgment result determined by the user through the user's operation. The operation accepted by the operation reception unit 320 is, for example, an operation of selecting an image of the same person as the two-dimensional image to be compared among the three-dimensional images displayed on the display unit 310.

次に、本実施形態の照合補助システムの動作について、図11及び図12を用いて説明する。図11は本実施形態における画像処理に係る処理フローの一例を示す。なお、第1の実施形態と重複する処理の説明は省略する。本実施形態において、装置による照合に係る処理フローは第1の実施形態と同様である(S109~S111)。 Next, the operation of the verification assistance system of this embodiment will be explained using FIGS. 11 and 12. FIG. 11 shows an example of a processing flow related to image processing in this embodiment. Note that a description of processes that overlap with those of the first embodiment will be omitted. In this embodiment, the processing flow related to verification by the device is the same as in the first embodiment (S109 to S111).

度数推定部140は、抽出部130が抽出した画像において、人物が装着する眼鏡の度数を推定する(S107)。次に、三次元画像処理部190は、照合部170が目視照合の対象として設定した三次元登録画像において、推定したレンズの度数情報を用いて人物の目の周辺の画像を補正し、三次元補正後画像を生成する(S208)。 The power estimation unit 140 estimates the power of glasses worn by the person in the image extracted by the extraction unit 130 (S107). Next, the three-dimensional image processing unit 190 corrects the image around the person's eyes using the estimated lens power information in the three-dimensional registered image that the matching unit 170 has set as a target for visual matching, and A corrected image is generated (S208).

記憶部160は、三次元補正後画像を登録者情報に関連付けて記憶する(S209)。 The storage unit 160 stores the three-dimensionally corrected image in association with the registrant information (S209).

出力部180は、目視による照合の対象として設定された人物を示す三次元補正後画像と、抽出部130が抽出した画像を出力する(S212)。 The output unit 180 outputs the three-dimensional corrected image showing the person set as the target for visual verification and the image extracted by the extraction unit 130 (S212).

表示部310は、目視による照合の対象として設定された人物を示す三次元補正後画像と、抽出部130が抽出した二次元画像を表示する(S213)。表示部310は、三次元補正後画像と二次元画像を同時に表示してもよい。このとき表示部310は、複数の三次元画像を同時に表示してもよいし、類似度に応じて複数の三次元画像を順次表示してもよい。表示部310は、複数の二次元画像を同時に表示してもよい。 The display unit 310 displays the three-dimensional corrected image showing the person set as the target for visual verification and the two-dimensional image extracted by the extraction unit 130 (S213). The display unit 310 may display the three-dimensional corrected image and the two-dimensional image simultaneously. At this time, the display unit 310 may display the plurality of three-dimensional images simultaneously, or may display the plurality of three-dimensional images sequentially depending on the degree of similarity. The display unit 310 may display multiple two-dimensional images simultaneously.

ユーザは、表示部310が表示した少なくとも一つの三次元画像と、二次元画像とが同一人物を示すか否かを判断し、操作受付部320に判断結果を入力する。操作受付部320は、ユーザの操作により、ユーザが判断した判断結果の入力を受け付ける(S114)。 The user determines whether at least one three-dimensional image displayed by the display section 310 and the two-dimensional image show the same person, and inputs the determination result to the operation reception section 320. The operation receiving unit 320 receives the input of the judgment result determined by the user through the user's operation (S114).

なお、本実施形態において、図8で示す装置による照合に係る処理フロー(S109~S111)の後に、図7及び図11で示す画像処理に係る一連のフロー(S101~S107、S208~S209)が実行されてもよい。その場合、レンズを認識した画像のみに対してレンズの度数推定を行うため、装置の処理負荷を軽減することができる。 In this embodiment, after the processing flow (S109 to S111) related to verification by the apparatus shown in FIG. 8, a series of flows related to image processing (S101 to S107, S208 to S209) shown in FIGS. May be executed. In this case, the power of the lens is estimated only for images in which the lens is recognized, so the processing load on the device can be reduced.

照合に係るフロー(S109~S111)と、画像処理に係るフロー(S101~S107、S208~S209)とが並列で処理されてもよい。照合に係るフロー(S109~S111)の前に、画像処理に係るフロー(S101~S107、S208~S209)が実行されてもよい。図7及び図11で示す画像処理に係る一連のフロー(S101~S107、S208~S209)と、図8で示す装置による照合に係る処理フロー(S109~S111)の前後関係は限定されない。 The flow related to verification (S109 to S111) and the flow related to image processing (S101 to S107, S208 to S209) may be processed in parallel. Before the flow related to verification (S109 to S111), the flow related to image processing (S101 to S107, S208 to S209) may be executed. The sequential relationship between the series of flows related to image processing shown in FIGS. 7 and 11 (S101 to S107, S208 to S209) and the processing flow related to verification by the apparatus shown in FIG. 8 (S109 to S111) is not limited.

以上のように、本実施形態の照合補助システムでは、撮像した人物が眼鏡を装着した状態である場合に、眼鏡の装着による外見の変化に応じて、データベースが持つ三次元登録画像を補正する。これにより、照合対象が眼鏡を装着した人物であっても、眼鏡の装着による外見の変化や、顔の印象の変化を軽減することができ、ユーザは目視での照合を効率的かつ精度良く行うことができる。 As described above, in the matching assistance system of the present embodiment, when the imaged person is wearing glasses, the three-dimensional registered image held in the database is corrected according to the change in appearance due to wearing the glasses. As a result, even if the verification target is a person wearing glasses, changes in appearance or facial impression due to wearing glasses can be reduced, allowing the user to perform visual verification efficiently and accurately. be able to.

<第3の実施形態>
本実施形態の照合補助システム1の構成について図13を用いて説明する。図13は、本実施形態における照合補助システム1の機能ブロック図である。照合補助システム1は、検出部120と、出力部180とを備える。
<Third embodiment>
The configuration of the verification assistance system 1 of this embodiment will be explained using FIG. 13. FIG. 13 is a functional block diagram of the verification assistance system 1 in this embodiment. The verification assistance system 1 includes a detection section 120 and an output section 180.

検出部120は、人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する。 The detection unit 120 detects an input image including a person wearing a lens, from at least one input image of a person.

出力部180は、検出部120が検出した入力画像から推定したレンズの度数情報を用いて入力画像を補正した画像である補正後画像と、当該補正後画像との照合対象である三次元登録画像とを出力する。補正後画像とは、例えば、入力画像において当該レンズに映る目の位置及び大きさを補正した画像である。 The output unit 180 outputs a corrected image, which is an image obtained by correcting the input image using lens power information estimated from the input image detected by the detection unit 120, and a three-dimensional registered image, which is a target for matching with the corrected image. Outputs . The corrected image is, for example, an image obtained by correcting the position and size of the eyes reflected in the lens in the input image.

次に、本実施形態の照合補助システムの動作について、図14を用いて説明する。図14は本実施形態における処理の一例を示すフローチャートである。 Next, the operation of the verification assistance system of this embodiment will be explained using FIG. 14. FIG. 14 is a flowchart showing an example of processing in this embodiment.

検出部120は、撮像画像においてレンズを装着した人物を含む入力画像を検出する(S307)。 The detection unit 120 detects an input image including a person wearing a lens in the captured image (S307).

出力部180は、検出部120が検出した入力画像から推定したレンズの度数情報を用いて入力画像を補正した画像である補正後画像と、当該補正後画像との照合対象である三次元登録画像とを出力する(S308)。 The output unit 180 outputs a corrected image, which is an image obtained by correcting the input image using lens power information estimated from the input image detected by the detection unit 120, and a three-dimensional registered image, which is a target for matching with the corrected image. is output (S308).

これにより、照合対象が眼鏡を装着した人物であっても、眼鏡の装着による外見の変化や、顔の印象の変化を軽減することができ、ユーザは目視での照合を効率的かつ精度良く行うことができる。 As a result, even if the verification target is a person wearing glasses, changes in appearance or facial impression due to wearing glasses can be reduced, allowing the user to perform visual verification efficiently and accurately. be able to.

<第4の実施形態>
本実施形態の照合補助システム1の構成について、第3の実施形態と同様に図13を用いて説明する。本実施形態と第3の実施形態は、出力部180の機能が異なる点で相違する。図13は、本実施形態における照合補助システム1の機能ブロック図である。照合補助システム1は、検出部120と、出力部180とを備える。
<Fourth embodiment>
The configuration of the verification assistance system 1 of this embodiment will be explained using FIG. 13 similarly to the third embodiment. This embodiment differs from the third embodiment in that the function of the output unit 180 is different. FIG. 13 is a functional block diagram of the verification assistance system 1 in this embodiment. The verification assistance system 1 includes a detection section 120 and an output section 180.

検出部120は、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する。 The detection unit 120 detects an input image including a person wearing glasses having lenses from at least one input image of a person.

出力部180は、入力画像から推定した前記レンズの度数を用いて、三次元登録画像を補正した三次元補正後画像と、当該入力画像と、を出力する。出力部180が出力する三次元補正後画像は、例えば、入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した画像である。 The output unit 180 outputs the input image and a three-dimensional corrected image obtained by correcting the three-dimensional registered image using the power of the lens estimated from the input image. The three-dimensional corrected image outputted by the output unit 180 is, for example, an image in which the eye position and size of the three-dimensional registered image that is to be compared with the input image are corrected.

次に、本実施形態の照合補助システムの動作について、図15を用いて説明する。図15は本実施形態における処理の一例を示すフローチャートである。 Next, the operation of the verification assistance system of this embodiment will be explained using FIG. 15. FIG. 15 is a flowchart showing an example of processing in this embodiment.

検出部120は、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する(S407)。 The detection unit 120 detects an input image including a person wearing glasses having lenses from at least one input image of a person (S407).

出力部180は、入力画像から推定した前記レンズの度数を用いて、三次元登録画像を補正した三次元補正後画像と、当該入力画像と、を出力する(S408)。 The output unit 180 outputs the input image and a three-dimensional corrected image obtained by correcting the three-dimensional registered image using the power of the lens estimated from the input image (S408).

これにより、照合対象が眼鏡を装着した人物であっても、眼鏡の装着による外見の変化や、顔の印象の変化を軽減することができる。ユーザが目視での照合を効率的かつ精度良く行うための画像を生成することができる。 As a result, even if the verification target is a person wearing glasses, changes in appearance or facial impression due to wearing glasses can be reduced. It is possible to generate an image that allows the user to perform visual verification efficiently and accurately.

(ハードウェア構成)
次に、上述した各実施形態における、処理装置100、撮像装置200、ユーザ端末300を、一つ以上のコンピュータを用いて実現するハードウェア構成の一例について説明する。処理装置100、撮像装置200、ユーザ端末300が備える各機能部は、任意のコンピュータの少なくとも1つのCPU(Central Processing Unit)、少なくとも1つのメモリ、メモリにロードされるプログラム、そのプログラムを格納する少なくとも1つのハードディスク等の記憶ユニット、ネットワーク接続用インターフェース等を中心にハードウェアとソフトウエアの任意の組合せによって実現される。この実現方法、装置には種々の変形例があることは、当業者には理解されるところである。なお記憶ユニットは、装置の出荷以前から格納されているプログラムのほか、光ディスク、光磁気ディスク、半導体フラッシュメモリ等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納可能である。
(Hardware configuration)
Next, an example of a hardware configuration in which the processing device 100, the imaging device 200, and the user terminal 300 in each of the above-described embodiments are implemented using one or more computers will be described. Each of the functional units included in the processing device 100, the imaging device 200, and the user terminal 300 includes at least one CPU (Central Processing Unit) of any computer, at least one memory, a program loaded into the memory, and at least one computer that stores the program. It is realized by any combination of hardware and software, centering on a storage unit such as a hard disk, a network connection interface, etc. Those skilled in the art will understand that there are various modifications to this implementation method and device. Note that the storage unit can store not only programs stored before the device is shipped, but also programs downloaded from a storage medium such as an optical disk, a magneto-optical disk, or a semiconductor flash memory, or from a server on the Internet.

図16は、処理装置100、撮像装置200、ユーザ端末300のハードウェア構成を例示するブロック図である。図16に示すように、処理装置100、撮像装置200、ユーザ端末300は、プロセッサ1A、メモリ2A、入出力インターフェース3A、周辺回路4A、通信インターフェース5A、バス6Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置100、撮像装置200、ユーザ端末300は周辺回路4Aを有さなくてもよい。なお、処理装置100、撮像装置200、ユーザ端末300は物理的及び/又は論理的に分かれた複数の装置で構成されてもよい。この場合、複数の装置各々が上記のハードウェア構成を備えることができる。 FIG. 16 is a block diagram illustrating the hardware configurations of the processing device 100, the imaging device 200, and the user terminal 300. As shown in FIG. 16, the processing device 100, the imaging device 200, and the user terminal 300 have a processor 1A, a memory 2A, an input/output interface 3A, a peripheral circuit 4A, a communication interface 5A, and a bus 6A. The peripheral circuit 4A includes various modules. The processing device 100, the imaging device 200, and the user terminal 300 do not need to have the peripheral circuit 4A. Note that the processing device 100, the imaging device 200, and the user terminal 300 may be composed of a plurality of physically and/or logically separated devices. In this case, each of the plurality of devices can include the above hardware configuration.

バス6Aは、プロセッサ1A、メモリ2A、入出力インターフェース3A、周辺回路4A、通信インターフェース5Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)やマイクロプロセッサ等の演算処理装置である。プロセッサ1Aは、例えば、メモリ2Aに記憶された各種プログラムに従って処理を実行することが可能である。 The bus 6A is a data transmission path through which the processor 1A, memory 2A, input/output interface 3A, peripheral circuit 4A, and communication interface 5A exchange data with each other. The processor 1A is an arithmetic processing device such as a CPU, a GPU (Graphics Processing Unit), or a microprocessor. The processor 1A can execute processing according to various programs stored in the memory 2A, for example.

メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリであり、プログラムや各種データを記憶する。 The memory 2A is, for example, a RAM (Random Access Memory) or a ROM (Read Only Memory), and stores programs and various data.

入出力インターフェース3Aは、入力装置、外部装置、外部ストレージ部、外部センサ、カメラ等から情報を取得するためのインターフェースや、出力装置、外部装置、外部ストレージ部等に情報を出力するためのインターフェースなどを含む。入力装置は、例えばタッチパネル、キーボード、マウス、マイク、カメラ等である。出力装置は、例えばディスプレイ、スピーカ、プリンタ、ランプ等である。 The input/output interface 3A includes an interface for acquiring information from an input device, an external device, an external storage unit, an external sensor, a camera, etc., an interface for outputting information to an output device, an external device, an external storage unit, etc. including. Input devices include, for example, a touch panel, keyboard, mouse, microphone, camera, and the like. Examples of the output device include a display, a speaker, a printer, and a lamp.

プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。 The processor 1A can issue commands to each module and perform calculations based on the results of those calculations.

通信インターフェース5Aは処理装置100、撮像装置200、ユーザ端末300が外部装置と相互に通信することを実現する他、処理装置100、撮像装置200、ユーザ端末300が相互に通信することを実現する。なお、処理装置100、撮像装置200、ユーザ端末300の一部の機能をコンピュータで構成してもよい。 The communication interface 5A allows the processing device 100, the imaging device 200, and the user terminal 300 to communicate with each other, and also allows the processing device 100, the imaging device 200, and the user terminal 300 to communicate with each other. Note that some functions of the processing device 100, the imaging device 200, and the user terminal 300 may be configured by a computer.

<変形例>
上述の実施形態に対して適用可能な変形例を説明する。度数推定部140が対象の撮像画像においてレンズの度数の推定に失敗した場合、当該撮像画像の前後に撮影された撮像画像に対して再度処理を行ってもよい。また、画像処理部150は、撮像画像に対し眼鏡の縁を除去するように画像処理を行ってもよい。
<Modified example>
Modifications applicable to the above embodiment will be described. If the power estimating unit 140 fails to estimate the power of the lens in the captured image of the target, the process may be performed again on captured images taken before and after the captured image. Further, the image processing unit 150 may perform image processing on the captured image so as to remove the rim of the glasses.

他の変形例を説明する。撮像部210は三次元的な深度情報(奥行き情報)を取得する装置を備えてもよい。その場合、計算部141は、二次元画像から撮像部210と人物(または人物の顔)との距離を計算する必要はなく、推定部143は、撮像部210が取得した深度情報を用いて、レンズの度数を推定してもよい。また、照合部170は、抽出部130が抽出した二次元画像に映る人物と、記憶部160が格納する複数の三次元登録画像との照合を行う他、画像処理部150が処理した補正後画像と三次元登録画像とを照合するように設計してもよい。 Another modification will be explained. The imaging unit 210 may include a device that acquires three-dimensional depth information (depth information). In that case, the calculation unit 141 does not need to calculate the distance between the imaging unit 210 and the person (or the person's face) from the two-dimensional image, and the estimation unit 143 uses the depth information acquired by the imaging unit 210 to The power of the lens may also be estimated. The matching unit 170 also matches the person appearing in the two-dimensional image extracted by the extraction unit 130 with a plurality of three-dimensional registered images stored in the storage unit 160, as well as the corrected image processed by the image processing unit 150. It may be designed to match the three-dimensional registered image with the three-dimensional registered image.

上記の実施形態に対して適用可能な他の変形例を説明する。撮像装置200は、処理装置100が実行する処理の一部あるいは全てを実行してもよい。撮像装置200は、例えば、図18に示すように、撮像部210に加えて検出部120と抽出部130と度数推定部140とを備えていてもよい。この場合、撮像装置200において、レンズの度数を推定し、処理装置100が備える画像処理部150は、レンズの度数に関する情報を撮像装置200から取得してもよい。この場合、撮像装置200がS101~S107の処理を実行してもよい。また、撮像装置200は、撮像画像に映る人物の輪郭差が閾値以上である撮像画像のみを抽出し、レンズの度数を推定する処理や、処理装置100に送信する処理の対象としてもよい。上記の変形例によれば、処理装置100の処理負荷軽減や、本発明における照合補助システムの送信処理に係る負荷の軽減を図ることができる。 Other modifications applicable to the above embodiment will be described. The imaging device 200 may execute some or all of the processing executed by the processing device 100. For example, as shown in FIG. 18, the imaging device 200 may include a detection unit 120, an extraction unit 130, and a frequency estimation unit 140 in addition to the imaging unit 210. In this case, in the imaging device 200, the power of the lens may be estimated, and the image processing unit 150 included in the processing device 100 may acquire information regarding the power of the lens from the imaging device 200. In this case, the imaging device 200 may execute the processes of S101 to S107. Further, the imaging device 200 may extract only the captured images in which the contour difference of the person appearing in the captured images is equal to or greater than a threshold value, and may perform a process of estimating the power of the lens or a process of transmitting the extracted images to the processing device 100. According to the above-mentioned modification, it is possible to reduce the processing load on the processing device 100 and the load related to the transmission processing of the collation assisting system in the present invention.

なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Note that the configurations of the embodiments described above may be combined or some components may be replaced. Further, the configuration of the present invention is not limited to the above-described embodiments, and various changes may be made without departing from the gist of the present invention. Part or all of the above embodiments may be described as in the following additional notes, but are not limited to the following.

(付記1)
人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する検出部と、
前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する出力部と、
を備える照合補助装置。
(Additional note 1)
a detection unit that detects an input image including a person wearing a lens in at least one input image of a person;
Outputting a corrected image, which is an image in which the position and size of the eye reflected in the lens is corrected using the power of the lens estimated in the input image, and a three-dimensional registered image, which is a target for matching with the corrected image. an output section to
A verification auxiliary device comprising:

(付記2)
前記補正後画像及び前記三次元登録画像を同一画面上に表示する表示部、
をさらに備える付記1に記載の照合補助装置。
(Additional note 2)
a display unit that displays the corrected image and the three-dimensional registered image on the same screen;
The verification auxiliary device according to Supplementary Note 1, further comprising:

(付記3)
前記表示部は、前記補正後画像に対応する前記入力画像と、複数の登録者の前記三次元登録画像との照合により得られた類似度が閾値以上の三次元登録画像を表示する、
付記2に記載の照合補助装置。
(Additional note 3)
The display unit displays three-dimensional registered images whose degree of similarity obtained by matching the input image corresponding to the corrected image with the three-dimensional registered images of a plurality of registrants is equal to or higher than a threshold.
Verification auxiliary device described in Appendix 2.

(付記4)
人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する検出部と、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する出力部と、
を備える照合補助装置。
(Additional note 4)
a detection unit that detects an input image including a person wearing glasses having lenses in at least one input image of a person;
Outputting the input image and a three-dimensional corrected image in which the eye position and size of a three-dimensional registered image that is a target for comparison with the input image is corrected using the power of the lens estimated in the input image. an output section to
A verification auxiliary device comprising:

(付記5)
前記三次元補正後画像と、前記入力画像とを、同一画面上に表示する表示部と、を備える付記4に記載の照合補助装置。
(Appendix 5)
The matching auxiliary device according to supplementary note 4, further comprising a display unit that displays the three-dimensionally corrected image and the input image on the same screen.

(付記6)
前記表示部は、前記入力画像との照合により得られた類似度が閾値以上である三次元登録画像に対応する前記三次元補正後画像を表示する、
付記5に記載の照合補助装置。
(Appendix 6)
The display unit displays the three-dimensional corrected image corresponding to the three-dimensional registered image for which the degree of similarity obtained by matching with the input image is equal to or higher than a threshold.
Verification auxiliary device described in Appendix 5.

(付記7)
前記入力画像における前記レンズの内側に映る輪郭と当該レンズの外側に映る輪郭との位置関係と、当該レンズを装着する人物を撮影した撮像部と当該人物との位置関係と、を用いて、当該レンズの度数を推定する推定部、をさらに備える付記1から6の何れか1項に記載の照合補助装置。
(Appendix 7)
Using the positional relationship between the outline reflected inside the lens and the outline reflected outside the lens in the input image, and the positional relationship between the person and the imaging unit that photographed the person wearing the lens, The verification auxiliary device according to any one of Supplementary Notes 1 to 6, further comprising an estimation unit that estimates the power of the lens.

(付記8)
前記推定部は、人物を撮像した複数の入力画像において、当該人物が装着する前記レンズの内側と外側に映る輪郭の距離が閾値以上である画像を用いて、当該レンズの度数を推定する、付記7に記載の照合補助装置。
(Appendix 8)
Supplementary note: The estimation unit estimates the power of the lens by using an image in which a distance between an outline reflected on the inside and outside of the lens worn by the person is a threshold value or more in a plurality of input images of a person. 7. Verification auxiliary device according to 7.

(付記9)
前記推定部は、複数の登録者の前記三次元登録画像の何れかとの照合により得られた類似度が閾値以上である前記入力画像を対象に、当該入力画像に映る前記レンズの度数を推定する、付記7または8に記載の照合補助装置。
(Appendix 9)
The estimation unit estimates the power of the lens reflected in the input image for which the degree of similarity obtained by matching with any of the three-dimensional registered images of a plurality of registrants is equal to or higher than a threshold value. , the verification auxiliary device according to appendix 7 or 8.

(付記10)
人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出し、
前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する、
照合補助方法。
(Appendix 10)
detecting an input image including a person wearing a lens in at least one input image of a person;
Outputting a corrected image, which is an image in which the position and size of the eye reflected in the lens is corrected using the power of the lens estimated in the input image, and a three-dimensional registered image, which is a target for matching with the corrected image. do,
Matching aid method.

(付記11)
コンピュータに、
人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する処理、
前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する処理、
を実行させるためのプログラムを記憶するプログラム記憶媒体。
(Appendix 11)
to the computer,
A process of detecting an input image including a person wearing a lens in at least one input image of a person;
Outputting a corrected image, which is an image in which the position and size of the eye reflected in the lens is corrected using the power of the lens estimated in the input image, and a three-dimensional registered image, which is a target for matching with the corrected image. processing,
A program storage medium that stores a program for executing.

(付記12)
人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出し、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する、
照合補助方法。
(Appendix 12)
detecting an input image including a person wearing glasses having lenses from at least one input image of a person;
Outputting the input image and a three-dimensional corrected image in which the eye position and size of a three-dimensional registered image that is a target for comparison with the input image is corrected using the power of the lens estimated in the input image. do,
Matching aid method.

(付記13)
コンピュータに、
人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する処理、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する処理、
を実行させるためのプログラムを記憶するプログラム記憶媒体。
(Appendix 13)
to the computer,
A process of detecting an input image including a person wearing glasses having lenses in at least one input image of a person;
Outputting the input image and a three-dimensional corrected image in which the eye position and size of a three-dimensional registered image that is a target for comparison with the input image is corrected using the power of the lens estimated in the input image. processing,
A program storage medium that stores a program for executing.

1 照合補助システム
100 処理装置
110 入力部
120 検出部
130 抽出部
140 度数推定部
141 計算部
142 学習モデル記憶部
143 推定部
150 画像処理部
160 記憶部
170 照合部
180 出力部
190 三次元画像処理部
200 撮像装置
210 撮像部
300 ユーザ端末
310 表示部
320 操作受付部
1A プロセッサ
2A メモリ
3A 入出力インターフェース
4A 周辺回路
5A 通信インターフェース
6A バス
E1 第1走査距離
E2 第2走査距離
E3、E4、FL 顔の輪郭
VFL レンズ内の顔の輪郭
GL1、GL2 レンズ
Ψ 入射角
Θ 人物の顔向き
Φ 画角
xs 第1ピクセル距離
c 第2ピクセル距離
XL 撮像画像の画素数
P カメラレンズ
CS CCDセンサ
1 Matching assistance system 100 Processing device 110 Input section 120 Detection section 130 Extraction section 140 Frequency estimation section 141 Calculation section 142 Learning model storage section 143 Estimation section 150 Image processing section 160 Storage section 170 Matching section 180 Output section 190 Three-dimensional image processing section 200 Imaging device 210 Imaging section 300 User terminal 310 Display section 320 Operation reception section 1A Processor 2A Memory 3A Input/output interface 4A Peripheral circuit 5A Communication interface 6A Bus E1 First scanning distance E2 Second scanning distance E3, E4, FL Face contour VFL Contour of the face inside the lens GL1, GL2 Lens Ψ Incident angle Θ Person's face direction Φ Angle of view xs 1st pixel distance c 2nd pixel distance XL Number of pixels of captured image P Camera lens CS CCD sensor

Claims (8)

人物を撮像した少なくとも1つの入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する検出部と、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である、眼鏡を装着していない前記人物を含む三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する出力部と、
を備える照合補助装置。
a detection unit that detects an input image including a person wearing glasses having lenses in at least one input image of a person;
3D correction in which the eye position and size of a 3D registered image including the person not wearing glasses, which is a target for comparison with the input image, is corrected using the power of the lens estimated in the input image; an output unit that outputs a subsequent image and the input image;
A verification auxiliary device comprising:
前記三次元補正後画像と、前記入力画像とを、同一画面上に表示する表示部と、を備える請求項1に記載の照合補助装置。 The verification auxiliary device according to claim 1, further comprising a display unit that displays the three-dimensional corrected image and the input image on the same screen. 前記表示部は、前記入力画像との照合により得られた類似度が閾値以上である三次元登録画像に対応する前記三次元補正後画像を表示する、
請求項2に記載の照合補助装置。
The display unit displays the three-dimensional corrected image corresponding to the three-dimensional registered image for which the degree of similarity obtained by matching with the input image is equal to or higher than a threshold.
The verification auxiliary device according to claim 2.
前記入力画像における前記レンズの内側に映る輪郭と当該レンズの外側に映る輪郭との位置関係と、当該レンズを装着する人物を撮影した撮像部と当該人物との位置関係と、を用いて、当該レンズの度数を推定する推定部、をさらに備える請求項1から3の何れか1項に記載の照合補助装置。 Using the positional relationship between the outline reflected inside the lens and the outline reflected outside the lens in the input image, and the positional relationship between the person and the imaging unit that photographed the person wearing the lens, The verification auxiliary device according to any one of claims 1 to 3, further comprising an estimation unit that estimates the power of the lens. 前記推定部は、人物を撮像した複数の入力画像において、当該人物が装着する前記レンズの内側と外側に映る輪郭の距離が閾値以上である画像を用いて、当該レンズの度数を推定する、請求項4に記載の照合補助装置。 The estimating unit estimates the power of the lens by using an image in which a distance between an outline reflected on the inside and outside of the lens worn by the person is equal to or greater than a threshold among a plurality of input images of a person. Verification auxiliary device according to item 4. 前記推定部は、複数の登録者の前記三次元登録画像の何れかとの照合により得られた類似度が閾値以上である前記入力画像を対象に、当該入力画像に映る前記レンズの度数を推定する、請求項4または5に記載の照合補助装置。 The estimation unit estimates the power of the lens reflected in the input image for which the degree of similarity obtained by matching with any of the three-dimensional registered images of a plurality of registrants is equal to or higher than a threshold value. , A verification auxiliary device according to claim 4 or 5. コンピュータが、
人物を撮像した少なくとも1つの入力画像において、レンズを装着した人物を含む入力画像を検出し、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である、眼鏡を装着していない前記人物を含む三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像とを出力する、
照合補助方法。
The computer is
detecting an input image including a person wearing a lens in at least one input image of a person;
3D correction in which the eye position and size of a 3D registered image including the person not wearing glasses, which is a target for comparison with the input image, is corrected using the power of the lens estimated in the input image; outputting a subsequent image and the input image;
Matching aid method.
コンピュータに、
人物を撮像した少なくとも1つの入力画像において、レンズを装着した人物を含む入力画像を検出する処理と、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である、眼鏡を装着していない前記人物を含む三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像とを出力する処理と、
を実行させるためのプログラム。
to the computer,
A process of detecting an input image including a person wearing a lens in at least one input image of a person;
3D correction in which the eye position and size of a 3D registered image including the person not wearing glasses, which is a target for comparison with the input image, is corrected using the power of the lens estimated in the input image; a process of outputting a subsequent image and the input image;
A program to run.
JP2022505677A 2020-03-13 2020-03-13 Verification auxiliary device, verification auxiliary method and program Active JP7439899B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/010980 WO2021181642A1 (en) 2020-03-13 2020-03-13 Collation assistance device, collation assistance method, and program storage medium

Publications (3)

Publication Number Publication Date
JPWO2021181642A1 JPWO2021181642A1 (en) 2021-09-16
JPWO2021181642A5 JPWO2021181642A5 (en) 2022-08-30
JP7439899B2 true JP7439899B2 (en) 2024-02-28

Family

ID=77671055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022505677A Active JP7439899B2 (en) 2020-03-13 2020-03-13 Verification auxiliary device, verification auxiliary method and program

Country Status (2)

Country Link
JP (1) JP7439899B2 (en)
WO (1) WO2021181642A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059819A (en) 2012-09-19 2014-04-03 Toshiba Corp Display device
JP2015025859A (en) 2013-07-24 2015-02-05 富士通株式会社 Image processing apparatus, electronic device, eye-glasses characteristics determination method, and eye-glasses characteristics determination program
JP2015138333A (en) 2014-01-21 2015-07-30 富士通株式会社 Display control program, display control apparatus, and display control system
JP3204175U (en) 2016-03-01 2016-05-19 株式会社メディックエンジニアリング Image matching device
JP2019121143A (en) 2017-12-29 2019-07-22 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image processing method and image processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059819A (en) 2012-09-19 2014-04-03 Toshiba Corp Display device
JP2015025859A (en) 2013-07-24 2015-02-05 富士通株式会社 Image processing apparatus, electronic device, eye-glasses characteristics determination method, and eye-glasses characteristics determination program
JP2015138333A (en) 2014-01-21 2015-07-30 富士通株式会社 Display control program, display control apparatus, and display control system
JP3204175U (en) 2016-03-01 2016-05-19 株式会社メディックエンジニアリング Image matching device
JP2019121143A (en) 2017-12-29 2019-07-22 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image processing method and image processing program

Also Published As

Publication number Publication date
JPWO2021181642A1 (en) 2021-09-16
WO2021181642A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
US11682232B2 (en) Device and method with image matching
JP5061645B2 (en) Information extraction method, information extraction device, program, registration device, and verification device
KR101495430B1 (en) Quality metrics for biometric authentication
US11657133B2 (en) Systems and methods of multi-modal biometric analysis
CN110942032B (en) Living body detection method and device, and storage medium
CN109918982B (en) Secure face authentication system using active infrared light source and RGB-IR sensor
US8639058B2 (en) Method of generating a normalized digital image of an iris of an eye
EP2883189A1 (en) Spoof detection for biometric authentication
KR101202448B1 (en) Apparatus and method for recognizing iris
KR20180134280A (en) Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information
JP7192872B2 (en) Iris authentication device, iris authentication method, iris authentication program and recording medium
TW200905577A (en) Iris recognition system
KR102534582B1 (en) Method and apparatus of active identity verification based on gaze path analysis
KR101919090B1 (en) Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information
CN112487922A (en) Multi-mode face in-vivo detection method and system
KR20210049570A (en) Apparatus and method for detecting forgery or alteration of the face
WO2020134229A1 (en) Image processing method, device, electronic apparatus, and computer readable storage medium
KR101053253B1 (en) Apparatus and method for face recognition using 3D information
JP7439899B2 (en) Verification auxiliary device, verification auxiliary method and program
US8780116B2 (en) Object-shape generation method, object-shape generation apparatus, and program
KR20210030230A (en) Data collection device for augmented reality
JP5538031B2 (en) Verification device
Tian et al. Spoofing detection for embedded face recognition system using a low cost stereo camera
EP3893147B1 (en) Liveliness detection using a device comprising an illumination source
US11335123B2 (en) Live facial recognition system and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R151 Written notification of patent or utility model registration

Ref document number: 7439899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151