JP7439899B2 - Verification auxiliary device, verification auxiliary method and program - Google Patents
Verification auxiliary device, verification auxiliary method and program Download PDFInfo
- Publication number
- JP7439899B2 JP7439899B2 JP2022505677A JP2022505677A JP7439899B2 JP 7439899 B2 JP7439899 B2 JP 7439899B2 JP 2022505677 A JP2022505677 A JP 2022505677A JP 2022505677 A JP2022505677 A JP 2022505677A JP 7439899 B2 JP7439899 B2 JP 7439899B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- lens
- input image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012795 verification Methods 0.000 title claims description 71
- 238000000034 method Methods 0.000 title claims description 37
- 238000003384 imaging method Methods 0.000 claims description 68
- 239000011521 glass Substances 0.000 claims description 50
- 238000001514 detection method Methods 0.000 claims description 32
- 238000012937 correction Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 87
- 238000000605 extraction Methods 0.000 description 26
- 238000004364 calculation method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 19
- 230000000007 visual effect Effects 0.000 description 18
- 210000003128 head Anatomy 0.000 description 12
- 230000001815 facial effect Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Description
本発明は、照合補助装置、照合補助方法及びプログラム記憶媒体に関する。 The present invention relates to a verification assisting device, a verification assisting method, and a program storage medium.
防犯カメラ等で撮像された人物と、データベースに登録された人物とを目視で照合することがあった。
特許文献1には、データベースに登録された人物の三次元像と、撮像した人物とをユーザが目視で照合するにあたり、三次元像の向きや大きさを変更することで、撮像した二次元画像とを照合しやすくする技術が開示されている。
In some cases, a person photographed by a security camera or the like is visually compared with a person registered in a database.
特許文献1に記載された技術においては、データベースに登録された三次元像の向きや大きさを変えることで、ユーザによる照合を容易にする。しかし、撮像画像に映る人物が眼鏡を装着していると、レンズの屈折によりレンズ内に映る目の位置や大きさが裸眼のときと比較して異なって見える。これは人物の顔向き等に応じて顕著になるため、ユーザが目視で二次元画像と三次元画像とを比較するときに同一人物か否かの照合精度が低下する。特許文献1では上記の状況は考慮されていない。
In the technique described in
そこで、本発明は上記の問題を鑑み、眼鏡の装着により生じる外観の変化を軽減させることで、照合精度を向上させることを課題とする。 SUMMARY OF THE INVENTION In view of the above-mentioned problems, it is an object of the present invention to improve matching accuracy by reducing changes in appearance caused by wearing glasses.
本発明の一観点によれば、人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する検出部と、前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する出力部と、を備える照合補助装置が提供される。 According to one aspect of the present invention, a detection unit detects an input image including a person wearing a lens in at least one input image of a person; A matching auxiliary device is provided that includes a corrected image that is an image obtained by correcting the position and size of the eye reflected in a lens, and an output unit that outputs a three-dimensional registered image that is a target for matching with the corrected image. .
本発明の一観点によれば、人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出し、前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する、照合補助方法が提供される。 According to one aspect of the present invention, an input image including a person wearing a lens is detected in at least one input image of a person, and the image is reflected in the lens using the power of the lens estimated in the input image. A matching assistance method is provided that outputs a corrected image, which is an image in which the position and size of the eyes have been corrected, and a three-dimensional registered image, which is a target for matching with the corrected image.
本発明の一観点によれば、コンピュータに、人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する処理、前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する処理、を実行させるためのプログラムを記憶するプログラム記憶媒体が提供される。 According to one aspect of the present invention, a computer is provided with a process of detecting an input image including a person wearing a lens in at least one input image of a person, using the power of the lens estimated in the input image. A program that stores a program for executing a process of outputting a corrected image, which is an image obtained by correcting the position and size of the eye reflected in the lens, and a three-dimensional registered image, which is a target for comparison with the corrected image. A storage medium is provided.
本発明の一観点によれば、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する検出部と、前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する出力部と、を備える照合補助装置が提供される。 According to one aspect of the present invention, there is provided a detection unit that detects an input image including a person wearing glasses having lenses in at least one input image of a person, and a power of the lens estimated in the input image. an output unit that outputs the input image and a three-dimensional corrected image in which the eye position and size of a three-dimensional registered image to be matched with the input image are corrected using is provided.
本発明の一観点によれば、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出し、前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する、照合補助方法が提供される。 According to one aspect of the present invention, an input image including a person wearing glasses having lenses is detected from at least one input image of a person, and the power of the lens estimated in the input image is used. A matching auxiliary method is provided that outputs the input image and a three-dimensional corrected image in which the position and size of eyes in a three-dimensional registered image to be matched with the input image are corrected.
本発明の一観点によれば、コンピュータに、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する処理、前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する処理、を実行させるためのプログラムを記憶するプログラム記憶媒体が提供される。 According to one aspect of the present invention, a process of detecting an input image including a person wearing glasses having lenses in at least one input image of a person is performed in a computer; A program for executing a process of outputting the input image and a three-dimensional corrected image in which the eye position and size of the three-dimensional registered image to be matched with the input image are corrected using a frequency. A program storage medium is provided that stores a program.
本発明によれば、眼鏡の装着による外観の変化を軽減させることで、照合精度を向上することができる照合補助装置、照合補助方法及びプログラムが提供される。 According to the present invention, there are provided a verification assisting device, a verification assisting method, and a program that can improve verification accuracy by reducing changes in appearance caused by wearing glasses.
以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。 Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. In the drawings, similar or corresponding elements are denoted by the same reference numerals, and the description thereof may be omitted or simplified.
<背景>
視力矯正用の眼鏡を装着する人物は、眼鏡を装着していないときと比較して顔立ちが異なって見える。これはレンズの屈折現象により目の位置と大きさが変化して見えるためである。カメラが撮像した映像を確認する管理者にとって、眼鏡の装着により顔立ちが変化して見える人物が、データベースに登録された人物画像の何れかに該当するか否かを目視で判断することは容易ではない。後述する実施形態では、管理者(ユーザ)を補助するシステムについて説明する。
<Background>
A person who wears glasses for vision correction looks different in facial features compared to a person who does not wear glasses. This is because the position and size of the eyes appear to change due to the refraction phenomenon of the lens. For administrators who check images captured by cameras, it is difficult to visually determine whether a person whose facial features appear to have changed due to wearing glasses corresponds to one of the person images registered in the database. do not have. In the embodiment described later, a system for assisting an administrator (user) will be described.
<第1の実施形態>
本実施形態の照合補助システム1の構成を図1及び図2を用いて説明する。図1は、本実施形態における照合補助システム1の全体構成例を示す。照合補助システムは、処理装置100と、撮像装置200と、ユーザ端末300とを備える情報処理システムである。各装置及び端末は、ネットワークを介して接続される。図1が示す状況の具体例は、街頭に設置されたカメラで人物を撮像する状況である。
<First embodiment>
The configuration of the
撮像装置200は、人物を撮像して撮像画像を得る端末であり、例えば街頭に設置される防犯カメラである。撮像装置200は撮像区画を通行する人物を撮像し、撮像画像を処理装置100に出力する。
The
図2は、照合補助システム1の構成を示す機能ブロック図である。照合補助システム1は、処理装置100と、撮像装置200と、ユーザ端末300とを備える。処理装置100は、入力部110と、検出部120と、抽出部130と、度数推定部140と、画像処理部150と、記憶部160と、照合部170と、出力部180を備える。撮像装置200は、撮像部210を備える。ユーザ端末300は、表示部310と操作受付部320を備える。
FIG. 2 is a functional block diagram showing the configuration of the
撮像装置200が備える撮像部210は、撮像区画を通行する人物を撮像し、撮像画像を処理装置100に出力する。なお、撮像部210は、例えば、設定されたフレームレートに応じて撮像区画を時系列的に撮像する。撮像部210は、上記の具体例に限定されず、外部からの指示を受けたタイミングで撮像するものであってもよいし、所定のタイミングで静止画を撮像するものであってもよい。本実施形態において撮像画像は少なくとも人物の頭部が含まれていればよく、人物の全身を含まなくともよい。
The
入力部110は、撮像部210が出力した撮像画像の入力を受け付ける。ここで、入力部110が入力を受け付ける対象(入力画像)は、撮像部210が撮像した全ての撮像画像であってもよいし、一部であってもよい。例えば、撮像部210が時系列的に撮像した撮像画像のうち、所定の時間間隔で撮像画像を抽出し、順次入力を受け付けるものであってもよい。所定の時間間隔で撮像画像を抽出する一例として、所定のフレームレートに応じて撮像部210が撮像した撮像画像の中から一部を間引いた撮像画像を抽出するものであってもよい。入力部110が受け付ける対象は上記に限定されない。
The
検出部120は、入力部110が受け付けた撮像画像の中から、人間の頭部及び眼鏡を検出する。ここで人物の頭部及び眼鏡の検出には、例えば、機械学習により眼鏡を装着した頭部の画像を学習した学習済みモデルが用いられる。機械学習の手法は、例えば多層のニューラルネットワークを介したディープラーニングを用いてもよい。人物の頭部及び眼鏡の装着検出に用いられる手法は上記に限定されない。検出部120は、人間の頭部の検出と、眼鏡の装着とを、段階的に検出するものであってもよいし、それぞれ独立して検出するものであってもよい。この場合、人間の頭部を検出した後に、眼鏡の装着を検出してもよい。また、検出部120は、必ずしも頭部を検出する必要はなく、眼鏡を検出するものであってもよい。
The
検出部120は、眼鏡の装着を検出した撮像画像の中から、眼鏡が有するレンズの内側に顔の輪郭が映る画像を検出する。
The
次に、図3を用いて撮像画像に映る顔の状態を説明する。図3は眼鏡のレンズの内側に顔の輪郭が映っている顔の状態を示す一例である。図中のFLは人物の顔の輪郭を示し、GL1及びGL2はレンズを示す。また、VFLはレンズの内側に映る顔の輪郭を示している。図3Aは撮像部210に対し人物の顔が正面を向いた状態を(顔の傾斜角度が0度)示し、図3Bは撮像部210に対し顔向きが正面を向いていない状態(顔の傾斜角度が0度でない)を示す。図3Bでは一例として、人物が右を向いた状態を示す。顔が正面を向いた状態とは、撮像方向に対して顔の傾斜角度が0度に近く、所定の閾値よりも小さい状態である。顔が正面を向いていない状態とは、撮像方向に対する顔の傾斜角度が所定の閾値よりも大きい状態である。所定の閾値は任意に設定される。図3Aに示すように、顔向きが撮像部210に対して正面である場合(顔の傾斜角度が0度)、レンズGL1及びGL2の内側に顔の輪郭が映りにくい。一方、図3Bに示すように、顔向きが撮像部210に対し正面でない場合は(顔の傾斜角度が0度でない)、顔向きが正面である場合と比較して、屈折現象の影響によりレンズGL1の内側に顔の輪郭が映りやすい。 Next, the state of the face reflected in the captured image will be explained using FIG. 3. FIG. 3 is an example of a face in which the outline of the face is reflected inside the lens of the glasses. In the figure, FL indicates the outline of a person's face, and GL1 and GL2 indicate lenses. Further, VFL indicates the outline of the face reflected inside the lens. 3A shows a state in which the person's face faces forward to the imaging unit 210 (face inclination angle is 0 degrees), and FIG. 3B shows a state in which the person's face does not face forward to the imaging unit 210 (face inclination angle is 0 degrees). angle is not 0 degrees). FIG. 3B shows, as an example, a state in which the person faces to the right. The state in which the face faces forward is a state in which the inclination angle of the face with respect to the imaging direction is close to 0 degrees and smaller than a predetermined threshold. The state where the face is not facing forward is a state where the inclination angle of the face with respect to the imaging direction is larger than a predetermined threshold value. The predetermined threshold value is arbitrarily set. As shown in FIG. 3A, when the face is facing forward to the imaging unit 210 (the inclination angle of the face is 0 degrees), the outline of the face is difficult to be reflected inside the lenses GL1 and GL2. On the other hand, as shown in FIG. 3B, when the face direction is not in front of the imaging unit 210 (the inclination angle of the face is not 0 degrees), the lens It is easy to see the outline of the face inside GL1.
検出部120は、撮像画像に映る顔について、撮像方向に対する顔の傾斜角度を推定する。顔の傾斜角度とは、三次元空間において撮像部210と人物の頭部とを通る直線を基準に、当該人物の顔が向いている角度である。具体的には、人物の顔が撮像部210を向いている場合、傾斜角度は0度に近く所定の閾値よりも小さい。検出部120が顔を検出する対象の画像は、後述する抽出部130が抽出した二次元画像であってもよい。
The
抽出部130は、レンズの内側に顔の輪郭が映る撮像画像を二次元画像として抽出する。抽出部130は、図3Bに例示するように、レンズの内側に顔の輪郭が映っている画像を抽出する。換言すると、抽出部130は、撮像部210から見てレンズの内側に顔の輪郭が映る程度に人物の顔が斜めを向いている画像を抽出する。抽出部130は、顔の傾斜角度が任意に設定した第1の閾値以上である画像や、任意に設定した第2の閾値以下である画像を抽出してもよい。ここで第2の閾値は第1の閾値より大きい値を設定してもよい。
The
抽出部130が実行する「抽出」とは、複数ある撮像画像の中から、一部の撮像画像を抜き出す処理を指す。具体的には、所定のフレームレートに応じて時系列的に撮像された複数の撮像画像において、眼鏡の装着が検出された撮像画像のみを抽出するものであってもよい。なお、「抽出」とは、撮像画像内において、一部の領域を切り出す処理を含む概念であってもよい。例えば、複数の人物を含んだ撮像画像内において、眼鏡を装着した頭部が映る一領域を切り出す他、人物が映る一領域を切り出す処理であってもよい。「抽出」が指す処理は上記の具体例に限定されない。
“Extraction” executed by the
度数推定部140は、抽出部130が抽出した二次元画像において、人物が装着する眼鏡の度数を推定する。図4を用いて度数推定部140の詳細を説明する。図4は、度数推定部140の機能ブロック図である。度数推定部140は、計算部141、学習モデル記憶部142、推定部143を有する。
The
計算部141は、撮像部210が撮像した人物の顔と撮像部210との三次元空間における距離を算出する。距離の算出には、例えば撮像画像上における顔を示す領域の大きさや、人物を示す領域の長さを用いてもよいが、距離の算出手法はこれに限定されず、当業者は適宜周知技術を適用することができる。
The
計算部141は、レンズの内側と外側のそれぞれに映る顔の輪郭の位置の差(本明細書において「輪郭差」と称する)を計算する。図5を用いて輪郭差の概念を詳細に説明する。図5は、レンズを装着した顔の一部を模式的に示した図である。計算部141は、レンズの内側の領域における、目の中心点の水平方向位置と顔の輪郭の位置E4との水平方向のピクセル間距離(第1走査距離E1)を計算する。計算部141は、レンズの外側の領域において、目の中心点の水平方向位置と顔の輪郭の位置E3との水平方向のピクセル間距離(第2走査距離E2)を計算する。
The
計算部141は、第1走査距離E1と第2走査距離E2の差分を、撮像部210と顔との距離を用いて正規化した輪郭差(正規化輪郭差)を計算する。正規化の具体的な手法は限定されず、例えば、第1走査距離E1と第2走査距離E2との差分は、撮像部210と顔との距離で除算することで正規化してもよい。輪郭差の正規化にあたり、撮像部210と顔との距離が考慮される計算式であればよい。
The
計算部141は、撮像画像上の任意のピクセルに映る物体から撮像部210へ入射する光の入射角を計算する。図6及び図17を用いて撮像画像上の任意のピクセル位置に対応する実物体から撮像部210への入射角Ψの計算方法の一例を詳細に説明する。図6は人物を撮像する撮像部210の光学系を模式的に示す図である。CCD(Charge-Coupled Device)センサCSは、カメラレンズPを介し、人物から入射した光を検出する。図17の計算式(1)は入射角Ψの導出過程を示す式である。計算式(1)を構成する変数について説明する。入射角Ψは、撮像部210の撮像範囲全体を示す撮像画像における中心位置からの第1ピクセル距離xsを変数として、撮像部210の撮像範囲全体を示す撮像画像の中心位置から当該撮像画像に映る顔の中心位置までの第2ピクセル距離cと、当該撮像画像の画素数XLと、検出部120が検出した顔向きΘと、撮像部210の画角Φを用いた図17に示す計算式(1)で表現できる。計算部141は、レンズの内側の領域に映る顔の輪郭の位置において、入射角を計算する。計算には例えば図17に示す計算式(1)を用いることができる。
The
学習モデル記憶部142は、入射角と正規化輪郭差を入力するとレンズの度数を出力する回帰モデルを記憶する。回帰モデルは、予め入射角及び正規化輪郭差と、レンズの度数との組み合わせを学習した学習済みモデルである。
The learning
推定部143は、学習モデル記憶部142が記憶する回帰モデルに、計算部141が計算した入射角及び輪郭差を入力し、レンズの度数を推定する。
The
上述した回帰モデルは、入射角と、正規化する前の輪郭差と、撮像部210と顔との距離とを入力し、レンズの度数を出力するように学習したものであってもよい。この場合、輪郭差を正規化する必要が無いため処理負荷を軽減することができる。
The regression model described above may be one that is trained to input the incident angle, the contour difference before normalization, and the distance between the
上述した度数推定部140の機能の一例は、撮像画像におけるレンズの内側に映る輪郭と、レンズの外側に映る輪郭との位置関係と、レンズを装着する人物を撮影した撮影部210と人物との位置関係を用いてレンズの度数を推定するものである。他にも、度数推定部140はレンズの度数を推定するために、例えば、特許文献2(特開2015-25859号公報)に記載されているように、眼鏡のレンズの内側に映る顔の輪郭の位置と、レンズの外側に見える顔の輪郭の位置及び顔の傾斜角度とに基づき、レンズの度数を推定する手法を用いてもよい。レンズの度数を推定する手法は上記に限定されない。
An example of the function of the
画像処理部150は、度数推定部140が推定したレンズの度数情報を用いて、二次元画像に対し画像の補正を行い、当該二次元画像に対応する補正後の画像(補正後画像)を生成する。補正の対象となる領域は画像内の当該レンズの内側及び周辺の領域であり、度数を推定した対象のレンズ内の領域に映る顔の輪郭、人物の目の位置及び大きさを補正する。具体的には、レンズの内側に映る輪郭と、レンズの外側に映る輪郭とが同一曲線上に位置するように、レンズの内側に映る領域を拡大表示するように補正する。
The
記憶部160は、複数の登録者の三次元画像(三次元登録画像)を登録者情報と関連付けて記憶する。登録者情報の項目の例として、登録者の識別情報、氏名、登録日時等が挙げられる。
The
照合部170は、抽出部130が抽出した二次元画像に映る人物と、記憶部160が格納する複数の三次元登録画像との照合を行い、撮像部210が撮像した人物と複数の三次元登録画像との類似度を算出する。ここで、照合部170は、類似度が閾値以上の三次元登録画像をユーザの目視による照合の対象として設定する。目視照合の対象として設定する三次元登録画像は複数であってもよい。
The
出力部180は、目視による照合の対象として設定された三次元登録画像と、画像処理部150により処理された補正後の画像(補正後画像)とを出力する。
The
ユーザ端末300は表示部310と操作受付部320を備える。ユーザ端末300は、ユーザに対して情報を提供し、あるいはユーザの操作を受け付ける端末である。具体的には、ユーザ端末300は、ユーザに対して不図示のデータベースに登録された人物の三次元登録画像と、防犯カメラ等で撮像した人物とが同一人物であるか否かの判断を促す装置である。他にも、ユーザが防犯カメラ等で撮像した映像を確認する装置であってもよいが、これに限定されない。
表示部310は、出力部180により出力された三次元登録画像と画像処理部150により処理された補正後画像を表示する。表示部310は、三次元登録画像と補正後画像を同時に表示してもよい。このとき表示部310は、複数の三次元登録画像を同時に表示してもよいし、類似度に応じて複数の三次元登録画像を順次表示してもよい。表示部310は、複数の補正後画像を同時に表示してもよい。また、表示部310は、例えば、三次元登録画像と補正後画像を同一画面上に表示してもよい。
The
ユーザは、表示部310が表示した少なくとも一つの三次元登録画像と、補正後画像とが同一人物を示すか否かを判断し、操作受付部320に判断結果を入力する。操作受付部320は、ユーザの操作により、ユーザが判断した判断結果の入力を受け付ける。操作受付部320が受け付ける操作とは、例えば、表示部310に表示された三次元登録画像の中で、照合対象である補正後画像と同一人物である画像を選択する操作である。
The user determines whether the at least one three-dimensional registered image displayed by the
次に、本実施形態の照合補助システムの動作について、図7~図9を用いて説明する。図7~図9は本実施形態における処理の一例を示すフローチャートである。 Next, the operation of the verification assistance system of this embodiment will be explained using FIGS. 7 to 9. 7 to 9 are flowcharts showing an example of processing in this embodiment.
図7は画像処理に係るフローの一例を示す。まず、入力部110は、撮像装置200が出力した撮像画像の入力を受け付ける(S101)。入力部110は、例えば、所定のフレームレートに応じて時系列的に撮像された画像の入力を順次受け付けるものであってもよい。
FIG. 7 shows an example of a flow related to image processing. First, the
検出部120は、入力部110が受け付けた撮像画像の中から、人間の頭部及び眼鏡を検出する(S102)。検出部120は、人間の頭部の検出と、眼鏡の装着とを、段階的に検出するものであってもよいし、それぞれ独立して検出するものであってもよい。検出部120が撮像画像の中から眼鏡を検出しない場合は(S103、NO)、ステップS101の処理に戻り、次の撮像画像の入力を受け付ける(S101)。検出部120が撮像画像の中から眼鏡を検出した場合(S103、YES)、検出部120は、眼鏡の装着を検出した撮像画像の中から、眼鏡が有するレンズの内側に顔の輪郭が映っているか否かを判定する(S104)。
The
レンズの内側に輪郭が映ると判定した場合(S105、YES)、抽出部130は、撮像画像の中から、レンズの内側に輪郭が映る撮像画像を抽出する(S106)。レンズの内側に顔の輪郭が映っていないと判定した場合(S105、NO)、ステップS101の処理に戻る。
If it is determined that the outline is reflected inside the lens (S105, YES), the
度数推定部140は、抽出部130が抽出した画像において、人物が装着するレンズの度数を推定する(S107)。
The
画像処理部150は、度数推定部140が推定したレンズの度数情報を用いて、抽出部130が抽出した画像において画像の補正を行い、補正後の画像(補正後画像)を生成する(S108)。
The
図8は、処理装置100による照合に係る処理フローの一例を示す。照合部170は、抽出部130が抽出した二次元画像に映る人物と、記憶部160が格納する複数の三次元登録画像との照合を行い、撮像部210が撮像した人物と複数の登録者との類似度を算出する(S109)。ここで、類似度が閾値以上の三次元登録画像がある場合には(S110、YES)、当該三次元登録画像をユーザの目視による照合の対象として設定する(S111)。類似度が閾値以上の三次元登録画像が無い場合(S110、NO)、処理を終了する。
FIG. 8 shows an example of a processing flow related to verification by the
なお、本実施形態において、図8で示す装置による照合に係る処理フロー(S109~S111)の後に、図7で示す画像処理に係る一連のフロー(S101~S108)が実行されてもよい。その場合、レンズを認識した画像のみに対してレンズの度数推定を行うため、装置の処理負荷を軽減することができる。 Note that in this embodiment, after the processing flow (S109 to S111) related to verification by the apparatus shown in FIG. 8, a series of flows related to image processing (S101 to S108) shown in FIG. 7 may be executed. In this case, the power of the lens is estimated only for images in which the lens is recognized, so the processing load on the device can be reduced.
照合に係るフロー(S109~S111)と、画像処理に係るフロー(S101~S108)とが並列で処理されてもよい。照合に係るフロー(S109~S111)の前に、画像処理に係るフロー(S101~S108)が実行されてもよい。図7で示す画像処理に係る一連のフロー(S101~S108)と、図8で示す装置による照合に係る処理フロー(S109~S111)の前後関係は限定されない。 The flow related to verification (S109 to S111) and the flow related to image processing (S101 to S108) may be processed in parallel. A flow related to image processing (S101 to S108) may be executed before a flow related to verification (S109 to S111). The sequential relationship between the series of flows related to image processing shown in FIG. 7 (S101 to S108) and the processing flow related to verification by the apparatus shown in FIG. 8 (S109 to S111) is not limited.
図9は、画像の表示に係る処理フローの一例を示す。出力部180は、目視による照合の対象として設定された三次元登録画像と、画像処理部150により処理された補正後の画像(補正後画像)とを出力する(S112)。
FIG. 9 shows an example of a processing flow related to image display. The
表示部310は、出力部180により出力された三次元登録画像と画像処理部150により処理された補正後画像を表示する(S113)。
The
操作受付部320は、ユーザの操作により、ユーザが判断した判断結果の入力を受け付ける(S114)。操作受付部320が受け付ける操作とは、例えば、表示部310に表示された三次元登録画像の中で、照合対象である補正後画像と同一人物である画像を選択する操作である。
The
なお、図9で示す画像の表示に係る処理フロー(S112~S113)は、図7で示す画像処理に係る一連のフロー(S101~S108)と、図8で示す装置による照合に係る処理フロー(S109~S111)の後に実行される。 Note that the processing flow (S112 to S113) related to image display shown in FIG. 9 is a series of flows related to image processing (S101 to S108) shown in FIG. It is executed after S109 to S111).
これにより、照合対象がレンズを装着した人物であっても、レンズの装着による外見の変化や、顔の印象の変化を軽減することができ、ユーザは目視での照合を効率的かつ精度良く行うことができる。 As a result, even if the verification target is a person wearing lenses, changes in appearance or facial impression caused by wearing lenses can be reduced, allowing users to perform visual verification efficiently and accurately. be able to.
<第2の実施形態>
以下、本実施形態の照合補助システム1について説明する。第2の実施形態では、処理装置100は、三次元画像処理部190を備え、推定したレンズの度数情報を基に三次元登録画像に対して補正を行う点で第1の実施形態とは相違する。なお、第1の実施形態と共通する箇所の説明は省略する。
<Second embodiment>
The
図10は、本実施形態における照合補助システム1の構成を示す機能ブロック図である。処理装置100は、入力部110と、検出部120と、抽出部130と、度数推定部140と、画像処理部150と、記憶部160と、照合部170と、出力部180と、三次元画像処理部190とを備える。
FIG. 10 is a functional block diagram showing the configuration of the
三次元画像処理部190は、照合部170が目視照合の対象として設定した三次元登録画像において、人物の目の周辺の画像を補正し、三次元登録画像に対応する補正後の三次元画像(三次元補正後画像)を生成する。具体的には、度数推定部140が推定したレンズの度数情報に応じて、所定の三次元登録画像に対して補正を行う。所定の三次元登録画像とは、照合部170が目視照合の対象として設定した三次元登録画像である。この補正には、公知の三次元コンピュータグラフィックスが用いられる。レンズの度数情報に応じた補正の一例を説明する。例えば、近視矯正用の眼鏡には凹レンズが用いられるため、眼鏡を装着した人物の目は、レンズの屈折の影響により装着前と比較して小さく見える。この場合、三次元画像処理部190は、推定した凹レンズの度数情報を用いて、三次元登録画像が示す人物が凹レンズを装着した場合に、レンズにより屈折して見える顔立ちの変化を再現するように、目の周辺の画像を補正する。
The three-dimensional
記憶部160は、複数の三次元登録画像を登録者情報と関連付けて記憶する。登録者情報の項目の例として、登録者の識別情報、氏名、登録日時等が挙げられる。なお、記憶部160は、三次元画像処理部190が生成した、三次元補正後画像を記憶してもよい。
The
照合部170は、抽出部130が抽出した二次元画像に映る人物と、記憶部160が格納する複数の登録者を示す三次元登録画像との照合を行い、撮像部210が撮像した人物と複数の登録者との類似度を算出する。照合部170は、得られた類似度が閾値以上の三次元登録画像をユーザの目視による照合の対象として設定する。目視照合の対象として設定する三次元登録画像は複数であってもよい。
The
出力部180は、目視による照合の対象として設定された人物を示す三次元補正後画像と、抽出部130が抽出した画像を出力する。三次元補正後画像とは、画像処理部150により生成された三次元画像である。
The
表示部310は、目視による照合の対象として設定された人物を示す三次元補正後画像と、抽出部130が抽出した二次元画像を表示する。表示部310は、三次元補正後画像と二次元画像を同時に表示してもよい。このとき表示部310は、複数の三次元画像を同時に表示してもよいし、得られた類似度に応じて複数の三次元画像を順次表示してもよい。表示部310は、複数の二次元画像を同時に表示してもよい。また、表示部310は、例えば、三次元登録画像と補正後画像を同一画面上に表示してもよい。
The
ユーザは、表示部310が表示した少なくとも一つの三次元画像と、二次元画像とが同一人物を示すか否かを判断し、操作受付部320に判断結果を入力する。操作受付部320は、ユーザの操作により、ユーザが判断した判断結果の入力を受け付ける。操作受付部320が受け付ける操作とは、例えば、表示部310に表示された三次元画像の中で、照合対象である二次元画像と同一人物である画像を選択する操作である。
The user determines whether at least one three-dimensional image displayed by the
次に、本実施形態の照合補助システムの動作について、図11及び図12を用いて説明する。図11は本実施形態における画像処理に係る処理フローの一例を示す。なお、第1の実施形態と重複する処理の説明は省略する。本実施形態において、装置による照合に係る処理フローは第1の実施形態と同様である(S109~S111)。 Next, the operation of the verification assistance system of this embodiment will be explained using FIGS. 11 and 12. FIG. 11 shows an example of a processing flow related to image processing in this embodiment. Note that a description of processes that overlap with those of the first embodiment will be omitted. In this embodiment, the processing flow related to verification by the device is the same as in the first embodiment (S109 to S111).
度数推定部140は、抽出部130が抽出した画像において、人物が装着する眼鏡の度数を推定する(S107)。次に、三次元画像処理部190は、照合部170が目視照合の対象として設定した三次元登録画像において、推定したレンズの度数情報を用いて人物の目の周辺の画像を補正し、三次元補正後画像を生成する(S208)。
The
記憶部160は、三次元補正後画像を登録者情報に関連付けて記憶する(S209)。
The
出力部180は、目視による照合の対象として設定された人物を示す三次元補正後画像と、抽出部130が抽出した画像を出力する(S212)。
The
表示部310は、目視による照合の対象として設定された人物を示す三次元補正後画像と、抽出部130が抽出した二次元画像を表示する(S213)。表示部310は、三次元補正後画像と二次元画像を同時に表示してもよい。このとき表示部310は、複数の三次元画像を同時に表示してもよいし、類似度に応じて複数の三次元画像を順次表示してもよい。表示部310は、複数の二次元画像を同時に表示してもよい。
The
ユーザは、表示部310が表示した少なくとも一つの三次元画像と、二次元画像とが同一人物を示すか否かを判断し、操作受付部320に判断結果を入力する。操作受付部320は、ユーザの操作により、ユーザが判断した判断結果の入力を受け付ける(S114)。
The user determines whether at least one three-dimensional image displayed by the
なお、本実施形態において、図8で示す装置による照合に係る処理フロー(S109~S111)の後に、図7及び図11で示す画像処理に係る一連のフロー(S101~S107、S208~S209)が実行されてもよい。その場合、レンズを認識した画像のみに対してレンズの度数推定を行うため、装置の処理負荷を軽減することができる。 In this embodiment, after the processing flow (S109 to S111) related to verification by the apparatus shown in FIG. 8, a series of flows related to image processing (S101 to S107, S208 to S209) shown in FIGS. May be executed. In this case, the power of the lens is estimated only for images in which the lens is recognized, so the processing load on the device can be reduced.
照合に係るフロー(S109~S111)と、画像処理に係るフロー(S101~S107、S208~S209)とが並列で処理されてもよい。照合に係るフロー(S109~S111)の前に、画像処理に係るフロー(S101~S107、S208~S209)が実行されてもよい。図7及び図11で示す画像処理に係る一連のフロー(S101~S107、S208~S209)と、図8で示す装置による照合に係る処理フロー(S109~S111)の前後関係は限定されない。 The flow related to verification (S109 to S111) and the flow related to image processing (S101 to S107, S208 to S209) may be processed in parallel. Before the flow related to verification (S109 to S111), the flow related to image processing (S101 to S107, S208 to S209) may be executed. The sequential relationship between the series of flows related to image processing shown in FIGS. 7 and 11 (S101 to S107, S208 to S209) and the processing flow related to verification by the apparatus shown in FIG. 8 (S109 to S111) is not limited.
以上のように、本実施形態の照合補助システムでは、撮像した人物が眼鏡を装着した状態である場合に、眼鏡の装着による外見の変化に応じて、データベースが持つ三次元登録画像を補正する。これにより、照合対象が眼鏡を装着した人物であっても、眼鏡の装着による外見の変化や、顔の印象の変化を軽減することができ、ユーザは目視での照合を効率的かつ精度良く行うことができる。 As described above, in the matching assistance system of the present embodiment, when the imaged person is wearing glasses, the three-dimensional registered image held in the database is corrected according to the change in appearance due to wearing the glasses. As a result, even if the verification target is a person wearing glasses, changes in appearance or facial impression due to wearing glasses can be reduced, allowing the user to perform visual verification efficiently and accurately. be able to.
<第3の実施形態>
本実施形態の照合補助システム1の構成について図13を用いて説明する。図13は、本実施形態における照合補助システム1の機能ブロック図である。照合補助システム1は、検出部120と、出力部180とを備える。
<Third embodiment>
The configuration of the
検出部120は、人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する。
The
出力部180は、検出部120が検出した入力画像から推定したレンズの度数情報を用いて入力画像を補正した画像である補正後画像と、当該補正後画像との照合対象である三次元登録画像とを出力する。補正後画像とは、例えば、入力画像において当該レンズに映る目の位置及び大きさを補正した画像である。
The
次に、本実施形態の照合補助システムの動作について、図14を用いて説明する。図14は本実施形態における処理の一例を示すフローチャートである。 Next, the operation of the verification assistance system of this embodiment will be explained using FIG. 14. FIG. 14 is a flowchart showing an example of processing in this embodiment.
検出部120は、撮像画像においてレンズを装着した人物を含む入力画像を検出する(S307)。
The
出力部180は、検出部120が検出した入力画像から推定したレンズの度数情報を用いて入力画像を補正した画像である補正後画像と、当該補正後画像との照合対象である三次元登録画像とを出力する(S308)。
The
これにより、照合対象が眼鏡を装着した人物であっても、眼鏡の装着による外見の変化や、顔の印象の変化を軽減することができ、ユーザは目視での照合を効率的かつ精度良く行うことができる。 As a result, even if the verification target is a person wearing glasses, changes in appearance or facial impression due to wearing glasses can be reduced, allowing the user to perform visual verification efficiently and accurately. be able to.
<第4の実施形態>
本実施形態の照合補助システム1の構成について、第3の実施形態と同様に図13を用いて説明する。本実施形態と第3の実施形態は、出力部180の機能が異なる点で相違する。図13は、本実施形態における照合補助システム1の機能ブロック図である。照合補助システム1は、検出部120と、出力部180とを備える。
<Fourth embodiment>
The configuration of the
検出部120は、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する。
The
出力部180は、入力画像から推定した前記レンズの度数を用いて、三次元登録画像を補正した三次元補正後画像と、当該入力画像と、を出力する。出力部180が出力する三次元補正後画像は、例えば、入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した画像である。
The
次に、本実施形態の照合補助システムの動作について、図15を用いて説明する。図15は本実施形態における処理の一例を示すフローチャートである。 Next, the operation of the verification assistance system of this embodiment will be explained using FIG. 15. FIG. 15 is a flowchart showing an example of processing in this embodiment.
検出部120は、人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する(S407)。
The
出力部180は、入力画像から推定した前記レンズの度数を用いて、三次元登録画像を補正した三次元補正後画像と、当該入力画像と、を出力する(S408)。
The
これにより、照合対象が眼鏡を装着した人物であっても、眼鏡の装着による外見の変化や、顔の印象の変化を軽減することができる。ユーザが目視での照合を効率的かつ精度良く行うための画像を生成することができる。 As a result, even if the verification target is a person wearing glasses, changes in appearance or facial impression due to wearing glasses can be reduced. It is possible to generate an image that allows the user to perform visual verification efficiently and accurately.
(ハードウェア構成)
次に、上述した各実施形態における、処理装置100、撮像装置200、ユーザ端末300を、一つ以上のコンピュータを用いて実現するハードウェア構成の一例について説明する。処理装置100、撮像装置200、ユーザ端末300が備える各機能部は、任意のコンピュータの少なくとも1つのCPU(Central Processing Unit)、少なくとも1つのメモリ、メモリにロードされるプログラム、そのプログラムを格納する少なくとも1つのハードディスク等の記憶ユニット、ネットワーク接続用インターフェース等を中心にハードウェアとソフトウエアの任意の組合せによって実現される。この実現方法、装置には種々の変形例があることは、当業者には理解されるところである。なお記憶ユニットは、装置の出荷以前から格納されているプログラムのほか、光ディスク、光磁気ディスク、半導体フラッシュメモリ等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納可能である。
(Hardware configuration)
Next, an example of a hardware configuration in which the
図16は、処理装置100、撮像装置200、ユーザ端末300のハードウェア構成を例示するブロック図である。図16に示すように、処理装置100、撮像装置200、ユーザ端末300は、プロセッサ1A、メモリ2A、入出力インターフェース3A、周辺回路4A、通信インターフェース5A、バス6Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置100、撮像装置200、ユーザ端末300は周辺回路4Aを有さなくてもよい。なお、処理装置100、撮像装置200、ユーザ端末300は物理的及び/又は論理的に分かれた複数の装置で構成されてもよい。この場合、複数の装置各々が上記のハードウェア構成を備えることができる。
FIG. 16 is a block diagram illustrating the hardware configurations of the
バス6Aは、プロセッサ1A、メモリ2A、入出力インターフェース3A、周辺回路4A、通信インターフェース5Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)やマイクロプロセッサ等の演算処理装置である。プロセッサ1Aは、例えば、メモリ2Aに記憶された各種プログラムに従って処理を実行することが可能である。
The
メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリであり、プログラムや各種データを記憶する。
The
入出力インターフェース3Aは、入力装置、外部装置、外部ストレージ部、外部センサ、カメラ等から情報を取得するためのインターフェースや、出力装置、外部装置、外部ストレージ部等に情報を出力するためのインターフェースなどを含む。入力装置は、例えばタッチパネル、キーボード、マウス、マイク、カメラ等である。出力装置は、例えばディスプレイ、スピーカ、プリンタ、ランプ等である。 The input/output interface 3A includes an interface for acquiring information from an input device, an external device, an external storage unit, an external sensor, a camera, etc., an interface for outputting information to an output device, an external device, an external storage unit, etc. including. Input devices include, for example, a touch panel, keyboard, mouse, microphone, camera, and the like. Examples of the output device include a display, a speaker, a printer, and a lamp.
プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
The
通信インターフェース5Aは処理装置100、撮像装置200、ユーザ端末300が外部装置と相互に通信することを実現する他、処理装置100、撮像装置200、ユーザ端末300が相互に通信することを実現する。なお、処理装置100、撮像装置200、ユーザ端末300の一部の機能をコンピュータで構成してもよい。
The
<変形例>
上述の実施形態に対して適用可能な変形例を説明する。度数推定部140が対象の撮像画像においてレンズの度数の推定に失敗した場合、当該撮像画像の前後に撮影された撮像画像に対して再度処理を行ってもよい。また、画像処理部150は、撮像画像に対し眼鏡の縁を除去するように画像処理を行ってもよい。
<Modified example>
Modifications applicable to the above embodiment will be described. If the
他の変形例を説明する。撮像部210は三次元的な深度情報(奥行き情報)を取得する装置を備えてもよい。その場合、計算部141は、二次元画像から撮像部210と人物(または人物の顔)との距離を計算する必要はなく、推定部143は、撮像部210が取得した深度情報を用いて、レンズの度数を推定してもよい。また、照合部170は、抽出部130が抽出した二次元画像に映る人物と、記憶部160が格納する複数の三次元登録画像との照合を行う他、画像処理部150が処理した補正後画像と三次元登録画像とを照合するように設計してもよい。
Another modification will be explained. The
上記の実施形態に対して適用可能な他の変形例を説明する。撮像装置200は、処理装置100が実行する処理の一部あるいは全てを実行してもよい。撮像装置200は、例えば、図18に示すように、撮像部210に加えて検出部120と抽出部130と度数推定部140とを備えていてもよい。この場合、撮像装置200において、レンズの度数を推定し、処理装置100が備える画像処理部150は、レンズの度数に関する情報を撮像装置200から取得してもよい。この場合、撮像装置200がS101~S107の処理を実行してもよい。また、撮像装置200は、撮像画像に映る人物の輪郭差が閾値以上である撮像画像のみを抽出し、レンズの度数を推定する処理や、処理装置100に送信する処理の対象としてもよい。上記の変形例によれば、処理装置100の処理負荷軽減や、本発明における照合補助システムの送信処理に係る負荷の軽減を図ることができる。
Other modifications applicable to the above embodiment will be described. The
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Note that the configurations of the embodiments described above may be combined or some components may be replaced. Further, the configuration of the present invention is not limited to the above-described embodiments, and various changes may be made without departing from the gist of the present invention. Part or all of the above embodiments may be described as in the following additional notes, but are not limited to the following.
(付記1)
人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する検出部と、
前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する出力部と、
を備える照合補助装置。
(Additional note 1)
a detection unit that detects an input image including a person wearing a lens in at least one input image of a person;
Outputting a corrected image, which is an image in which the position and size of the eye reflected in the lens is corrected using the power of the lens estimated in the input image, and a three-dimensional registered image, which is a target for matching with the corrected image. an output section to
A verification auxiliary device comprising:
(付記2)
前記補正後画像及び前記三次元登録画像を同一画面上に表示する表示部、
をさらに備える付記1に記載の照合補助装置。
(Additional note 2)
a display unit that displays the corrected image and the three-dimensional registered image on the same screen;
The verification auxiliary device according to
(付記3)
前記表示部は、前記補正後画像に対応する前記入力画像と、複数の登録者の前記三次元登録画像との照合により得られた類似度が閾値以上の三次元登録画像を表示する、
付記2に記載の照合補助装置。
(Additional note 3)
The display unit displays three-dimensional registered images whose degree of similarity obtained by matching the input image corresponding to the corrected image with the three-dimensional registered images of a plurality of registrants is equal to or higher than a threshold.
Verification auxiliary device described in Appendix 2.
(付記4)
人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する検出部と、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する出力部と、
を備える照合補助装置。
(Additional note 4)
a detection unit that detects an input image including a person wearing glasses having lenses in at least one input image of a person;
Outputting the input image and a three-dimensional corrected image in which the eye position and size of a three-dimensional registered image that is a target for comparison with the input image is corrected using the power of the lens estimated in the input image. an output section to
A verification auxiliary device comprising:
(付記5)
前記三次元補正後画像と、前記入力画像とを、同一画面上に表示する表示部と、を備える付記4に記載の照合補助装置。
(Appendix 5)
The matching auxiliary device according to supplementary note 4, further comprising a display unit that displays the three-dimensionally corrected image and the input image on the same screen.
(付記6)
前記表示部は、前記入力画像との照合により得られた類似度が閾値以上である三次元登録画像に対応する前記三次元補正後画像を表示する、
付記5に記載の照合補助装置。
(Appendix 6)
The display unit displays the three-dimensional corrected image corresponding to the three-dimensional registered image for which the degree of similarity obtained by matching with the input image is equal to or higher than a threshold.
Verification auxiliary device described in Appendix 5.
(付記7)
前記入力画像における前記レンズの内側に映る輪郭と当該レンズの外側に映る輪郭との位置関係と、当該レンズを装着する人物を撮影した撮像部と当該人物との位置関係と、を用いて、当該レンズの度数を推定する推定部、をさらに備える付記1から6の何れか1項に記載の照合補助装置。
(Appendix 7)
Using the positional relationship between the outline reflected inside the lens and the outline reflected outside the lens in the input image, and the positional relationship between the person and the imaging unit that photographed the person wearing the lens, The verification auxiliary device according to any one of
(付記8)
前記推定部は、人物を撮像した複数の入力画像において、当該人物が装着する前記レンズの内側と外側に映る輪郭の距離が閾値以上である画像を用いて、当該レンズの度数を推定する、付記7に記載の照合補助装置。
(Appendix 8)
Supplementary note: The estimation unit estimates the power of the lens by using an image in which a distance between an outline reflected on the inside and outside of the lens worn by the person is a threshold value or more in a plurality of input images of a person. 7. Verification auxiliary device according to 7.
(付記9)
前記推定部は、複数の登録者の前記三次元登録画像の何れかとの照合により得られた類似度が閾値以上である前記入力画像を対象に、当該入力画像に映る前記レンズの度数を推定する、付記7または8に記載の照合補助装置。
(Appendix 9)
The estimation unit estimates the power of the lens reflected in the input image for which the degree of similarity obtained by matching with any of the three-dimensional registered images of a plurality of registrants is equal to or higher than a threshold value. , the verification auxiliary device according to appendix 7 or 8.
(付記10)
人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出し、
前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する、
照合補助方法。
(Appendix 10)
detecting an input image including a person wearing a lens in at least one input image of a person;
Outputting a corrected image, which is an image in which the position and size of the eye reflected in the lens is corrected using the power of the lens estimated in the input image, and a three-dimensional registered image, which is a target for matching with the corrected image. do,
Matching aid method.
(付記11)
コンピュータに、
人物を撮像した少なくとも一つの入力画像において、レンズを装着した人物を含む入力画像を検出する処理、
前記入力画像において推定した前記レンズの度数を用いて当該レンズに映る目の位置及び大きさを補正した画像である補正後画像と、前記補正後画像との照合対象である三次元登録画像を出力する処理、
を実行させるためのプログラムを記憶するプログラム記憶媒体。
(Appendix 11)
to the computer,
A process of detecting an input image including a person wearing a lens in at least one input image of a person;
Outputting a corrected image, which is an image in which the position and size of the eye reflected in the lens is corrected using the power of the lens estimated in the input image, and a three-dimensional registered image, which is a target for matching with the corrected image. processing,
A program storage medium that stores a program for executing.
(付記12)
人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出し、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する、
照合補助方法。
(Appendix 12)
detecting an input image including a person wearing glasses having lenses from at least one input image of a person;
Outputting the input image and a three-dimensional corrected image in which the eye position and size of a three-dimensional registered image that is a target for comparison with the input image is corrected using the power of the lens estimated in the input image. do,
Matching aid method.
(付記13)
コンピュータに、
人物を撮像した少なくとも一以上の入力画像において、レンズを有する眼鏡を装着した人物を含む入力画像を検出する処理、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する処理、
を実行させるためのプログラムを記憶するプログラム記憶媒体。
(Appendix 13)
to the computer,
A process of detecting an input image including a person wearing glasses having lenses in at least one input image of a person;
Outputting the input image and a three-dimensional corrected image in which the eye position and size of a three-dimensional registered image that is a target for comparison with the input image is corrected using the power of the lens estimated in the input image. processing,
A program storage medium that stores a program for executing.
1 照合補助システム
100 処理装置
110 入力部
120 検出部
130 抽出部
140 度数推定部
141 計算部
142 学習モデル記憶部
143 推定部
150 画像処理部
160 記憶部
170 照合部
180 出力部
190 三次元画像処理部
200 撮像装置
210 撮像部
300 ユーザ端末
310 表示部
320 操作受付部
1A プロセッサ
2A メモリ
3A 入出力インターフェース
4A 周辺回路
5A 通信インターフェース
6A バス
E1 第1走査距離
E2 第2走査距離
E3、E4、FL 顔の輪郭
VFL レンズ内の顔の輪郭
GL1、GL2 レンズ
Ψ 入射角
Θ 人物の顔向き
Φ 画角
xs 第1ピクセル距離
c 第2ピクセル距離
XL 撮像画像の画素数
P カメラレンズ
CS CCDセンサ
1
Claims (8)
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である、眼鏡を装着していない前記人物を含む三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像と、を出力する出力部と、
を備える照合補助装置。 a detection unit that detects an input image including a person wearing glasses having lenses in at least one input image of a person;
3D correction in which the eye position and size of a 3D registered image including the person not wearing glasses, which is a target for comparison with the input image, is corrected using the power of the lens estimated in the input image; an output unit that outputs a subsequent image and the input image;
A verification auxiliary device comprising:
請求項2に記載の照合補助装置。 The display unit displays the three-dimensional corrected image corresponding to the three-dimensional registered image for which the degree of similarity obtained by matching with the input image is equal to or higher than a threshold.
The verification auxiliary device according to claim 2.
人物を撮像した少なくとも1つの入力画像において、レンズを装着した人物を含む入力画像を検出し、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である、眼鏡を装着していない前記人物を含む三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像とを出力する、
照合補助方法。 The computer is
detecting an input image including a person wearing a lens in at least one input image of a person;
3D correction in which the eye position and size of a 3D registered image including the person not wearing glasses, which is a target for comparison with the input image, is corrected using the power of the lens estimated in the input image; outputting a subsequent image and the input image;
Matching aid method.
人物を撮像した少なくとも1つの入力画像において、レンズを装着した人物を含む入力画像を検出する処理と、
前記入力画像において推定した前記レンズの度数を用いて前記入力画像との照合対象である、眼鏡を装着していない前記人物を含む三次元登録画像の目の位置及び大きさを補正した三次元補正後画像と、前記入力画像とを出力する処理と、
を実行させるためのプログラム。 to the computer,
A process of detecting an input image including a person wearing a lens in at least one input image of a person;
3D correction in which the eye position and size of a 3D registered image including the person not wearing glasses, which is a target for comparison with the input image, is corrected using the power of the lens estimated in the input image; a process of outputting a subsequent image and the input image;
A program to run.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/010980 WO2021181642A1 (en) | 2020-03-13 | 2020-03-13 | Collation assistance device, collation assistance method, and program storage medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021181642A1 JPWO2021181642A1 (en) | 2021-09-16 |
JPWO2021181642A5 JPWO2021181642A5 (en) | 2022-08-30 |
JP7439899B2 true JP7439899B2 (en) | 2024-02-28 |
Family
ID=77671055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022505677A Active JP7439899B2 (en) | 2020-03-13 | 2020-03-13 | Verification auxiliary device, verification auxiliary method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7439899B2 (en) |
WO (1) | WO2021181642A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014059819A (en) | 2012-09-19 | 2014-04-03 | Toshiba Corp | Display device |
JP2015025859A (en) | 2013-07-24 | 2015-02-05 | 富士通株式会社 | Image processing apparatus, electronic device, eye-glasses characteristics determination method, and eye-glasses characteristics determination program |
JP2015138333A (en) | 2014-01-21 | 2015-07-30 | 富士通株式会社 | Display control program, display control apparatus, and display control system |
JP3204175U (en) | 2016-03-01 | 2016-05-19 | 株式会社メディックエンジニアリング | Image matching device |
JP2019121143A (en) | 2017-12-29 | 2019-07-22 | 京セラドキュメントソリューションズ株式会社 | Image processing apparatus, image processing method and image processing program |
-
2020
- 2020-03-13 WO PCT/JP2020/010980 patent/WO2021181642A1/en active Application Filing
- 2020-03-13 JP JP2022505677A patent/JP7439899B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014059819A (en) | 2012-09-19 | 2014-04-03 | Toshiba Corp | Display device |
JP2015025859A (en) | 2013-07-24 | 2015-02-05 | 富士通株式会社 | Image processing apparatus, electronic device, eye-glasses characteristics determination method, and eye-glasses characteristics determination program |
JP2015138333A (en) | 2014-01-21 | 2015-07-30 | 富士通株式会社 | Display control program, display control apparatus, and display control system |
JP3204175U (en) | 2016-03-01 | 2016-05-19 | 株式会社メディックエンジニアリング | Image matching device |
JP2019121143A (en) | 2017-12-29 | 2019-07-22 | 京セラドキュメントソリューションズ株式会社 | Image processing apparatus, image processing method and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021181642A1 (en) | 2021-09-16 |
WO2021181642A1 (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11682232B2 (en) | Device and method with image matching | |
JP5061645B2 (en) | Information extraction method, information extraction device, program, registration device, and verification device | |
KR101495430B1 (en) | Quality metrics for biometric authentication | |
US11657133B2 (en) | Systems and methods of multi-modal biometric analysis | |
CN110942032B (en) | Living body detection method and device, and storage medium | |
CN109918982B (en) | Secure face authentication system using active infrared light source and RGB-IR sensor | |
US8639058B2 (en) | Method of generating a normalized digital image of an iris of an eye | |
EP2883189A1 (en) | Spoof detection for biometric authentication | |
KR101202448B1 (en) | Apparatus and method for recognizing iris | |
KR20180134280A (en) | Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information | |
JP7192872B2 (en) | Iris authentication device, iris authentication method, iris authentication program and recording medium | |
TW200905577A (en) | Iris recognition system | |
KR102534582B1 (en) | Method and apparatus of active identity verification based on gaze path analysis | |
KR101919090B1 (en) | Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information | |
CN112487922A (en) | Multi-mode face in-vivo detection method and system | |
KR20210049570A (en) | Apparatus and method for detecting forgery or alteration of the face | |
WO2020134229A1 (en) | Image processing method, device, electronic apparatus, and computer readable storage medium | |
KR101053253B1 (en) | Apparatus and method for face recognition using 3D information | |
JP7439899B2 (en) | Verification auxiliary device, verification auxiliary method and program | |
US8780116B2 (en) | Object-shape generation method, object-shape generation apparatus, and program | |
KR20210030230A (en) | Data collection device for augmented reality | |
JP5538031B2 (en) | Verification device | |
Tian et al. | Spoofing detection for embedded face recognition system using a low cost stereo camera | |
EP3893147B1 (en) | Liveliness detection using a device comprising an illumination source | |
US11335123B2 (en) | Live facial recognition system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220701 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220701 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230803 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231128 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240129 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7439899 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |