JP7079742B2 - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
JP7079742B2
JP7079742B2 JP2019021957A JP2019021957A JP7079742B2 JP 7079742 B2 JP7079742 B2 JP 7079742B2 JP 2019021957 A JP2019021957 A JP 2019021957A JP 2019021957 A JP2019021957 A JP 2019021957A JP 7079742 B2 JP7079742 B2 JP 7079742B2
Authority
JP
Japan
Prior art keywords
image
grayscale
color
background
computer system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019021957A
Other languages
English (en)
Other versions
JP2020129298A (ja
Inventor
正和 藤尾
健太 高橋
陽介 加賀
渉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019021957A priority Critical patent/JP7079742B2/ja
Publication of JP2020129298A publication Critical patent/JP2020129298A/ja
Application granted granted Critical
Publication of JP7079742B2 publication Critical patent/JP7079742B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、入力画像から目的対象領域を抽出する機械学習モデルの訓練に関する。
例えば、ID・パスワードに変わる、安全で便利な個人認証手段として、生体認証技術の利用が拡大しつつある。金融サービスにおいては、モバイル端末からの口座開設、残高照会、口座振込み、ATM利用時の個人認証等においての生体認証の利用が実現されつつある。これまでは、生体認証の利用は指紋センサなどの専用装置を持つスマートフォンなどに限られていたが、生体認証用の専用装置や特定の光源が不要で、スマートフォンやタブレットに標準搭載されている汎用カメラを用いた個人認証も実現されつつある。
汎用カメラを用いた生体認証の課題として、手を翳す姿勢や照明環境の自由度が高く、抽出される生体特徴が安定しないという点が挙げられる。特許文献1では、汎用カメラを用いた指静脈認証技術の課題として、登録時と認証時で照明環境や撮像装置などの撮影条件が異なっていても、登録時と認証時に生体を撮影して得られる各生体画像の色差を最小化することで、照明変動や機器間の個体差の影響を低減して高精度に認証を行う技術を開示している。
特開2018-180660号公報
しかしながら、特許文献1に開示の方法は、カメラで撮影した画像の背景に、肌色の生体情報画像との同系色が存在する場合や白熱電灯下の撮影において、生体領域と背景領域の色系統の差分がなくなり、登録時又は認証時の生体領域の代表色を選ぶことが困難となる。
登録時又は認証時において、背景に肌色の同系色の物体が存在する場合や白熱電灯下など、色情報により手指と背景領域の分離が困難な場合においても、正しく手指領域を抽出することで、撮影環境の変換による影響を低減して高精度に認証を行うことが可能な技術が望まれる。また、手指による個人認証と異なる分野においても、画像から目的領域(目的画像)を正確に抽出することができる技術が望まれる。
本発明の一態様は、入力画像から目的対象領域を抽出するモデルを訓練する計算機システムであって、プログラム及び訓練データを格納する1以上の記憶装置と、前記プログラムに従って動作する1以上のプロセッサと、を含み、前記1以上のプロセッサは、カラー画像を取得し、前記カラー画像から、前記カラー画像の色情報に基づき、目的領域と背景領域とが分離された背景分離画像を生成し、前記カラー画像をグレースケール化してグレースケール画像を生成し、前記グレースケール画像と背景分離画像のセットを、前記訓練データに含め、グレースケール画像が入力され、背景分離画像を出力するモデルを、前記訓練データを使用して訓練する、ものである。
本発明の一態様によれば、画像から目的領域を適切に抽出することができる。
第1の実施形態の生体認証システムの構成例を示す図である。 第1の実施形態の生体認証システムの処理概要を示す図である。 第1の実施形態の生体認証システムの処理フローの例である。 第1の実施形態の成功した画像処理の例である。 第1の実施形態の失敗した画像処理の例である。 第2の実施形態の生体認証システムのソフトウェア構成例を示す。 第2の実施形態の生体認証システムの処理概要を示す図である。 第2の実施形態の学習フェーズでの処理フローの例である。 第3の実施形態の生体認証システムの構成概要を示すブロック図である。 第4の実施形態の生体認証システムのソフトウェア構成例を示す。 第4の実施形態の生体認証システムの処理概要を示す図である。 第4の実施形態における連続する入力画像フレーム間の背景分離画像の位置変動を比較する例を示す。
以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。
〔第1の実施形態〕
図1は、第1の実施形態の生体認証システムの構成例を示す図である。生体認証システム10は、例えば、ユーザ端末(計算機)である。生体認証システム10は、例えば、入力装置11、表示装置12、CPU(Central Processing Unit)13、撮像装置14、主記憶装置15、及び補助記憶装置16を備える。
入力装置11は、ユーザによる指示等の入力を受け付ける装置であり、例えばキーボード、マウス又はタッチパネル等であってもよい。例えば、入力装置11は、表示装置12に表示された複数のボックス(ボタン)から、該当の処理を選ぶ処理などを受け付ける。
表示装置12は、ユーザに種々の文字及び領域切り出し結果の画像等の情報を出力する装置であり、例えば液晶ディスプレイのような画像表示装置であってもよい。入力装置11及び表示装置12は、一体化していてもよい。撮像装置14は、例えばカメラであり、個人を特定するための生体情報を画像として取得する。
主記憶装置15は、CPU13によって実行されるプログラムを格納する。主記憶装置15としては、典型的にはDRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶装置等が採用される。本実施形態では、この主記憶装置15が格納しているプログラムは、OS(Operating System)151、カラー画像領域分割プログラム152、グレースケール画像領域分割モデル153、グレースケール化プログラム154、領域分割モデル訓練プログラム155、及び認証プログラム156を含む。
主記憶装置15には、CPU13が各種処理を実行する際など、補助記憶装置16に格納されている各プログラム及びデータの少なくとも一部が必要に応じて一時的にコピーされてもよく、その他のプログラム及びその参照データが格納されてもよい。さらに、主記憶装置15には、CPU13が実行した処理の結果が格納されてもよい。
補助記憶装置16は、CPU13が各プログラムに基づいて種々の処理を実行するために参照する情報を格納する。本実施形態の補助記憶装置16には、グレースケール画像領域分割モデル153の訓練(学習)に使用される訓練データ161及び個人認証のために参照される認証参照情報162を格納している。この補助記憶装置16としては、典型的にはHDD(Hard Disk Drive)またはフラッシュメモリなどの大容量かつ不揮発性の記憶装置等が採用される。主記憶装置15、補助記憶装置16及びそれらの組み合わせは、それぞれ、非一過性の記憶媒体を含む記憶装置である。
CPU13は、プロセッサであって、主記憶装置15に格納されたプログラムの命令コードに従って、様々な処理を実行する。CPU13は、プログラムを実行することによって種々の機能を実現する。例えば、CPU13は、カラー画像領域分割プログラム152、グレースケール画像領域分割モデル153、グレースケール化プログラム154、領域分割モデル訓練プログラム155、及び認証プログラム156それぞれに従って、カラー画像領域分割部、グレースケール画像領域分割モデル部、画像変換部、領域分割モデル訓練部、及び認証部として動作する。
CPU13(プロセッサ)は、単一の処理ユニットまたは複数の処理ユニットで構成することができ、単一もしくは複数の演算ユニット、又は複数の処理コアを含むことができる。CPU13は、1又は複数の中央処理装置、マイクロプロセッサ、マイクロ計算機、マイクロコントローラ、デジタル信号プロセッサ、ステートマシン、ロジック回路、グラフィック処理装置、チップオンシステム、及び/又は制御指示に基づき信号を操作する任意の装置として実装することができる。
上述のように、プログラムをCPU13が実行することにより、生体認証システム10の各種処理が実行される。したがって、以下において、機能部又はプログラムにより実行される処理は、CPU13又は生体認証システム10による処理である。
カラー画像領域分割プログラム152は、訓練データ161の教師データを生成する。一つの入力画像から生成される教師データは、背景分離画像である。背景分離画像は、入力画像から抽出された生体情報領域と生体情報領域から分離された背景画像で構成されている。例えば、背景分離画像は2値画像であって、生体情報領域がと背景領域とは2値で分離されている。例えば、生体情報領域の各画素に1が与えられ、背景領域の各画素に0が与えられる。訓練データ161は、グレースケール化された入力画像と、カラー画像領域分割プログラム152により生成される教師データとのセットである。
カラー画像領域分割プログラム152は、入力されたカラー画像において、色情報に基づいて、生体情報領域と背景領域とを分離する。例えば、カラー画像領域分割プログラム152は、RGBやYUVなどの色空間情報の値の範囲に基づいて、生体情報領域と背景領域とを分離する。本例において、カラー画像領域分割プログラム152は、ルールベースのプログラムであるが、機械学習モデルであってもよい。
グレースケール画像領域分割モデル153は、機械学習モデルであり、学習フェーズにおいて、訓練データ161を使用して訓練される。個人の生体認証を行う認証フェーズにおいて、グレースケール画像領域分割モデル153は、グレースケール化された入力画像の生体情報領域と背景領域とを分割し、背景分離画像を生成する。背景領域が入力画像から分離され、生体情報領域が入力画像から抽出される。
グレースケール化プログラム154は、認証フェーズにおいて、グレースケール画像領域分割モデル153による処理のため、入力されたカラー画像をグレースケール画像に変換する。領域分割モデル訓練プログラム155は、学習フェーズにおいて、訓練データ161を使用して、グレースケール画像領域分割モデル153を訓練する。
認証プログラム156は、領域分割モデル訓練プログラム155が生成した背景分離画像に基づき入力画像における生体情報領域を特定し、当該生体情報領域の情報と認証参照情報162とに基づき、個人認証を行う。
図1に示すハードウェア及びソフトウェアの各構成要素の数は任意であり、一部の構成要素は省略されていてもよい。生体認証システム10の機能の少なくとも一部は、プロセッサと異なるロジック回路で構成されてもよい。図1の例において、生体認証システム10は一つの計算機で構成されているが、生体認証システム10はネットワークを介して通信し、それぞれが1以上のプロセッサと1以上の記憶装置を含む複数の装置(計算機)を含んでもよい。
上記プログラムは、異なる計算機に実装されてもよい。例えば、訓練後のグレースケール画像領域分割モデル153及びグレースケール化プログラム154がユーザ端末に実装され、訓練前後のグレースケール画像領域分割モデル153及び他のプログラム(グレースケール化プログラム154を含む)がサーバに実装されてもよい。
図2は、第1の実施形態の生体認証システム10の処理概要を示す図である。生体認証システム10の処理は、グレースケール画像領域分割モデル153の学習フェーズ(訓練フェーズ)と、学習後(訓練後)のグレースケール画像領域分割モデル153による認証処理を実行する認証フェーズを含む。
学習フェーズは、訓練データ161の生成及び訓練データ161によるグレースケール画像領域分割モデル153の学習を含む。入力カラー画像200は、訓練データ161を生成するためのデータである。入力カラー画像200は、個人認証対象の生体情報を有する対象が撮像された可視光画像である。以下に説明する例においては、生体情報を有する対象は1又は複数の手指である。
入力カラー画像200は、カラー画像領域分割プログラム152によって、目的領域である生体情報領域と背景領域とに分割され(202)、1又は複数の背景分離画像203が生成される。背景分離画像は、例えば、それぞれ二値の一方が与えられている、分離された生体情報領域(例えば手指)及び背景領域からなる。例えば、複数の指の一つの背景分離画像203、一つの指の背景分離画像203又はそれぞれが一つの指を示す複数の背景分離画像203が生成される。カラー画像領域分割プログラム152は、入力カラー画像200において、RGBやYUVなどの色空間情報の値の範囲に基づいて、生体情報領域と背景領域を分割し、生成した背景分離画像203を訓練データ161に含める。
入力カラー画像200は、さらに、グレースケール化プログラム154によってグレースケール化される(201)。グレースケール化された入力画像は、上記背景分離画像203と共に、訓練データ161に含められる。グレースケール化された入力画像が学習用の入力データであり、1又は複数の背景分離画像203が教師データである。このように、生体情報領域と背景領域の分離可能な複数の入力画像から、訓練データ161を用のデータ204を機械的(自動的)に収集することができる。
グレースケール画像領域分割モデル(訓練モデル)153は、領域分割モデル訓練プログラム155によって、訓練データ161を使用して訓練される(205)。グレースケール画像領域分割モデル153は、入力されたグレースケール画像から、1又は複数の背景分離画像を出力する。領域分割モデル訓練プログラム155は、グレースケール画像領域分割モデル153の出力と、訓練データ161の教師データとを比較結果に基づいて、グレースケール画像領域分割モデル153のパラメータを更新する。グレースケール画像領域分割モデル153は、例えば多階層ニューラルネットワークである。この例の更新パラメータは、入力層、複数の中間層及び出力層の隣接間の結合重みを含む。
次に、個人認証を行う認証フェーズを説明する。入力カラー画像207は、個人認証を行う人物の生体情報を有する対象が撮像された、可視光画像である。入力カラー画像207は、グレースケール化プログラム154によってグレースケール化され(208)、グレースケール画像209が生成される。訓練されたグレースケール画像領域分割モデル153は、グレースケール画像209の領域分割を行う(210)。具体的には、グレースケール画像領域分割モデル153は、入力グレースケール画像209から、分離された生体情報領域と背景領域の2値画像である、背景分離画像211を生成し、主記憶装置15の記憶領域に格納する。
図2で不図示の認証プログラム156は、背景分離画像211に基づき、入力カラー画像207における生体情報領域を特定する。生体情報は、例えば、静脈や指紋のパターンである。認証プログラム156は、入力カラー画像207における生体情報領域を分析し、生体情報を取得する。認証プログラム156は、その生体情報と、認証参照情報162に格納されている該当人物の生体情報とを比較して、当該人部の個人認証を行う。
認証フェーズで用いられるグレースケール画像領域分割モデル153は、例えば、スマートフォンやタブレットにおいて、30~60fps程度の実用速度で動作するよう、階層数や学習パラメータ数が制限される。学習フェーズの処理は、メモリやディスク容量の大きいサーバにおいて実行されてもよい。このため、カラー画像領域分割プログラム152をニューラルネットワークで構成する場合、その階層数やパラメータ数は、グレースケール画像領域分割モデル153よりも多くてもよい。
<フローチャート>
図3は、第1の実施形態の生体認証システム10の処理フローの例である。学習フェーズは、RGBやYUVなどの色空間情報の値の範囲に基づいて、動画フレーム画像の生体情報領域と背景領域とを分割し、教師あり学習で使用するための訓練データを生成し、訓練データを使用して機械学習モデルを訓練(生成)する。認証フェーズは、生成した機械学習モデルを用いて、動画フレーム画像から生体情報領域を抽出する。
最初に学習フェーズを説明する。ステップS301において、生体認証システム10は、その汎用カメラを起動し、動画のフレーム画像を取得する。次にステップS302において、生体認証システム10は、抽出対象である手の領域が写った一定サイズの部分領域をフレーム画像から切り出す。切り出す領域の位置は予め設定されており、生体認証システム10は、例えば、画面上に手をかざす位置を示すガイドを表示する。
ステップS303において、生体認証システム10(グレースケール化プログラム154)は、切り出した画像をグレースケールに変換し、訓練データ161の一部として補助記憶装置の記憶領域に格納する。ステップS304において、生体認証システム10(カラー画像領域分割プログラム152)は、切り出した画像から、RGBやYUVなどの色空間情報(例えば肌色情報)に基づき、手領域(生体対象領域)と背景領域とを分離し、生体対象領域を抽出する。
ステップS305において、生体認証システム10(カラー画像領域分割プログラム152)は、抽出した手領域の輪郭追跡を行い、ステップS306において、指先と指股のキーポイントを抽出する。ステップS307において、生体認証システム10(カラー画像領域分割プログラム152)は、抽出したキーポイントと輪郭情報に基づき、指単位でのROI領域を抽出する。抽出した指単位のROI領域の画像群(背景分離画像群)は、グレースケール化した画像と関連付けられ、訓練データ314の一部として補助記憶装置16の記憶領域に格納される。
ステップS316において、訓練データのサンプル数が所定数に達すると、ステップS308において、生体認証システム10(領域分割モデル訓練プログラム155)は、訓練データ161を用いて、生体情報を含むグレースケール画像を入力として指ROI領域画像(背景分離画像)を出力とする、グレースケール画像領域分割モデル153を訓練する。
次に認証フェーズを説明する。認証フェーズは、生成(訓練)されたグレースケール画像領域分割モデル153を用いて、動画フレーム画像から生体情報領域を抽出する。まず、ステップS309において、生体認証システム10は、その汎用カメラを起動し、動画のフレーム画像を取得する。ステップS310において、生体認証システム10は、ステップS302と同様に、抽出対象である手の領域が写った一定サイズの部分領域をフレーム画像から切り出す。
次に、ステップS311において、生体認証システム10(グレースケール化プログラム154)は、切り出した画像をグレースケールに変換する。ステップS312において、生体認証システム10(グレースケール画像領域分割モデル153)は、手領域の抽出を行う。例えば、例えば生体情報領域を1、背景情報領域を0とする2値画像を出力する。
図4の入力画像401は、ステップS302やステップS310で切り出される生体情報を含む画像の一例である。画像402は、ステップS304により得られる手領域画像の一例である。画像群403は、ステップS307により得られる指ROI領域画像群の一例である。
一方、図5の画像501は、手領域の背後に、手と同系色の色を持つ顔が映りこんでいる一例を示しており、画像503は、背景にダンボールやテーブルなどの手と同系色をもつ物体が写りこんでいる一例を示している。これらの例では、ステップS304において、肌色領域と生体情報領域が一致しないため、ステップS307で正しい指ROI領域を抽出することができない。具体的には、図5の画像502や、画像504に例示するように各指領域を独立して抽出することができない。なお、このような画像は、訓練データ1651に加えられないように、排除されてもよい。適切な分離についての判定の方法の例は、第2の実施形態で説明される。
これに対して、グレースケール化した画像を入力として指領域ROIを出力するグレースケール画像領域分割モデル153を用いるステップS312は、入力画像における色の影響を低減することができるので、図4の画像401と同様に、各々の指領域ROIを適切に抽出することが可能である。
以上の構成により、学習に必要となる教師付きデータ(訓練データ)を機械的に生成することができるので、効率的な訓練データ生成が実現される。また、機械学習モデルは、グレースケール化された画像を入力として、背景分離を行うので、肌色同系色背景や白熱電灯下においても、安定した手指領域の分離を実現することができる。
本実施形態は、個人認証のための生体情報領域を入力画像において分離するが、本実施形態及び他の実施形態の画像分離技術は、生体認証と異なる分野において他の目的画像、例えば、特定の物体や人体を、入力画像から分離するために利用することができる。
〔第2の実施形態〕
図6Aは、第2の実施形態の生体認証システム10のソフトウェア構成例を示す。第1の実施形態のプログラムに加え、生体認証システム10は、色変換プログラム157を含む。
図6Bは、第2の実施形態の生体認証システム10の処理概要を示す図である。入力カラー画像600は、個人認証対象の生体情報が撮像された可視光画像である。入力カラー画像600は、カラー画像領域分割プログラム152によって、RGBやYUVなどの色空間情報の値の範囲に基づいて、生体情報領域と背景領域に分離される。カラー画像領域分割プログラム152は、さらに、適切に生体情報領域が分離されているか判定する(602)。
本例において、カラー画像領域分割プログラム152は、生体情報領域の形状に基づいて、適切に生体情報領域が分離されているか判定する。カラー画像領域分割プログラム152は、図3のステップS304~S307の処理を実施し、例えば、幅や長さが一定の範囲に収まる指ROI領域が一定本数以上抽出できたか否か判定する。
正しく指ROI領域が抽出できたと判定された場合、カラー画像領域分割プログラム152は、生成された背景分離画像606を、訓練データ161の教師データとして、補助記憶装置16の記憶領域に格納する。一方、指ROI領域が適切に抽出できなかった場合、色変換プログラム157は、生成した背景分離画像を訓練データ161に含めることなく、入力カラー画像を、例えば白熱電灯下の画像から蛍光灯下の画像に変換し(603)、色変換画像604を生成する。カラー画像領域分割プログラム152は、色変換画像604から、生体情報領域を抽出し(605)、背景分離画像606として訓練データ161に含める。
グレースケール化プログラム154は、入力カラー画像600をグレースケール化し(601)、対応する背景分離画像606と共に、訓練データ161に含める。これにより、生体情報領域と背景情報の分離が可能な入力カラー画像だけではなく、色変換前には生体情報領域が分離不可能な入力カラー画像からも、訓練データ161を機械的に生成できる。
領域分割モデル訓練プログラム155は、グレースケール画像領域分割モデル153を、訓練データ161を使用して、訓練する(608)。グレースケール画像領域分割モデル153は、入力のグレー画像を、生体情報領域と背景領域を2値画像(例えば生体情報領域を1、背景情報領域を0)として分離して出力する。グレースケール画像領域分割モデル153は、例えば多階層ニューラルネットワークである。
画像色変換603としては、例えば、冬景色を夏景色に変換する、白熱灯下の画像を蛍光灯下に画像に変換するなど、ドメイン変換を行う画像変換方式(Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks、Jun-Yan Zhu Taesung Park Phillip Isola Alexei A. Efros、In ICCV 2017)を使用することができる。
一般的にはドメイン変換手法はモデルサイズが大きくスマートフォンやタブレットなどの低リソースの端末で実施することは困難である。そのため、訓練データ161の生成は、ユーザ端末ではなく、サーバにより実行することで、訓練データ161の生成時間を短縮できる。
<フローチャート>
図7は、第2の実施形態の学習フェーズでの処理フローの例である。学習フェーズは、RGBやYUVなどの色空間情報の値の範囲に基づいて、動画フレーム画像の生体情報領域と背景領域とを分離し、教師あり学習で使用するための訓練データを生成し、機械学習モデルを訓練(生成)する。
最初にステップS701において、生体認証システム10は、その汎用カメラを起動し、動画のフレーム画像を取得する。次にステップS702において、生体認証システム10は、抽出対象である手の領域が写った一定サイズの部分領域をフレーム画像から切り出す。切り出す位置は予め設定されており、生体認証システム10は、例えば、の画面上に、手をかざす位置を示すガイドを表示する。
ステップS709において、生体認証システム10(グレースケール化プログラム154)は、切り出した画像をグレースケール画像に変換し、訓練データ161に含める。ステップS703において、生体認証システム10(カラー画像領域分割プログラム152)は、切り出した画像から、RGBやYUVなどの色空間情報(例えば肌色情報)に基づき、手領域を抽出する。ステップS704において、生体認証システム10(カラー画像領域分割プログラム152)は、抽出した手領域の輪郭を追跡し、ステップS705において、指先と指股のキーポイントを抽出する。
ステップS706において、生体認証システム10(カラー画像領域分割プログラム152)は、抽出したキーポイントと輪郭情報に基づき、指単位でのROI領域を抽出する。ステップS710において、生体認証システム10(カラー画像領域分割プログラム152)は、指ROI領域が正しく背景分離できたものかどうか判定する。正しいかどうかの判定は、例えば、幅や長さが一定の範囲に収まる指ROI領域が一定本数以上抽出できたか否かに基づいてもよい。正しいと判定された場合、抽出された指単位のROI領域画像は、グレースケール化した画像と共に、訓練データ161の一部として補助記憶装置16の記憶領域に格納される。
正しくないと判定された場合、画像変換ステップS707において、生体認証システム10(色変換プログラム157)は、例えば、入力カラー画像を白熱電灯下の画像と仮定し、入力カラー画像を蛍光灯下の画像に予め設定された関数により変換する。その後、生体認証システム10は、再びステップS703からのステップを繰り返す。
ステップS710において、正しい指ROI領域が取得できたと判定された場合、グレースケール化された画像と共に、背景分離画像が訓練データ161の一部として補助記憶装置16の記憶領域に格納される。
ステップS713において訓練データサンプル数が所定数となると、ステップS708において、生体認証システム10(領域分割モデル訓練プログラム155)は、グレースケール画像領域分割モデル153を、訓練データ161を使用して、訓練する。グレースケール画像領域分割モデル153は、生体情報を含むグレースケール画像を入力として、指ROI領域を出力。
上述のように、生体認証システム10は、カラー画像から生成された背景分離画像における目的領域の形状に基づいて、目的領域が適切に分離されているかを判定する。目的領域が適切に分離されていないと判定した場合に、カラー画像の色変換を行い、新たな背景分離画像を生成する。
本実施形態の構成により、白熱電灯下や肌色背景画像など通常では訓練データを機械的に生成することが困難な画像からも、教師データを生成できる。結果として、肌色同系色背景や白熱電灯下における安定した手指領域の分離を実現できる。
〔第3の実施形態〕
図8は、第3の実施形態の生体認証システム10の構成概要を示すブロック図である。カラー画像領域分割プログラム152及びグレースケール画像領域分割モデル153は、それぞれ、動画フレーム画像を入力として受け取り、生体情報領域と背景領域の分離を行うと同時に、正しい位置に手が翳されているかを判定する機能を持つ。カラー画像領域分割プログラム152及びグレースケール画像領域分割モデル153は、それぞれ、入力画像の特徴を抽出する共通特徴抽出部802と、領域分割部803と、ずれ方向推定部804とを含む。なお、カラー画像領域分割プログラム152及びグレースケール画像領域分割モデル153の一方のみが当該機能を有していてもよい。
カラー画像領域分割プログラム152に対する入力画像801は、個人認証対象の生体情報が撮像されたカラー画像であり、グレースケール画像領域分割モデル153に対する入力画像801は、グレースケール画像である。共通特徴抽出部802は、入力画像801から、領域分割部803及びずれ方向推定部804の両方に利用可能な共通の特徴量を抽出する。例えば、画像処理において車や人といった対象の種類を判定するために使われる畳み込みニューラルネットワークを用いることができる。
本実施形態においては、共通特徴抽出部802は、画像のサイズをダウンサンプリングしていき、ずれ方向推定部で必要となる3クラス(X、Y、Z方向)の推定に用いられる特徴量を抽出する。例えば、X方向及びY方向は画面に平行で互いに垂直な方向であり、Z方向は画面に垂直な方向である。
領域分割部803は、入力画像801の各画素が、指ROI領域に含まれるか否かの2値分類問題を学習する。このため、領域分割部803は、一旦ダウンサンプリングされた共通特徴量を、画像サイズまでアップサンプリングし、画素数分の2クラス判定を行う。このため、一般的には、ずれ方向推定部804(クラス分類)処理に比べ、領域分割部803の処理時間が長くなる。
ずれ方向推定部804は、共通特徴抽出部802の出力結果を用いて、入力画像が指ROI領域の抽出に適した位置にあるかどうかの推定を行う。例えば、5本の指の一部が写っていなかったり一部欠けていたりした場合など領域分割が正しく行われず、手を翳し続けている間、指ROI領域の抽出に失敗し続ける。
ずれ方向推定部804は、手の位置が、予め設定された基準位置から、左右あるいは奥行き方向(X、Y、Z方向)それぞれにどの程度ずれているかを推定する。生体認証システム10は、推定されたずれを補正するための処理を実行する。
具体的には、ずれ方向推定部804は、カメラ制御部805に通知する。カメラ制御部805は、通知された手の位置のずれ(ずれ方向及びずれ量)に従って、ズームイン、ズームアウトなどによる位置ずれ補正制御信号を撮像装置14に送信する。
さらに、ガイド表示部806は、ずれ方向推定部804から通知されたずれ方向と逆方向に矢印を表示してもよい、ガイド表示部806は、「近づけてください」「遠ざけてください」といったメッセージを、表示装置12における画像又は音声により指示することで、入力画像の位置ずれ補正をおこなってもよい。
カラー画像領域分割プログラム152又はグレースケール画像領域分割モデル153は、カメラ制御部805又はガイド表示部806によって位置ずれが補正された新たな入力画像を取得する。なお、カメラ制御部805及びガイド表示部806の一方は省略されてもよい。また、他の方法によりずれを補正してもよい。
上述のように、生体認証システム10は、カラー画像又はグレースケール画像から生成された背景分離画像において、目的領域の位置のずれを推定し、当該ずれを補正するための処理を行った後に新たなカラー画像を取得する。
以上のように、高速動作するずれ方向推定部804により、入力画像の位置を補正することで、処理時間のかかる領域分割部803の処理に失敗するフレーム画像の数を低減することで、動画フレーム画像の高速な領域分割を実現することができる。
〔第4の実施形態〕
図9Aは、第4の実施形態の生体認証システム10のソフトウェア構成例を示す。第1の実施形態のプログラムに加え、生体認証システム10は、安定度判定プログラム158を含む。
図9Bは、第4の実施形態の生体認証システム10の処理概要を示す図である。学習フェーズにおけるカラー画像領域分割プログラム152及び認証フェーズにおけるグレースケール画像領域分割モデル153の一方又は双方が、以下で説明する処理を実行する。これにより、適切な訓練データの生成又は認証を行うことができる。以下においては、認証フェーズでの処理を説明する。
入力フレーム画像901~903は、連続するカラー動画フレーム画像から生成されたグレースケール動画フレーム画像を表す。まず、n番目のフレーム画像901が入力されると、グレースケール画像領域分割モデル153は、背景分離画像907を分離画像の候補として出力する(904)。次に、n+1番目の入力フレーム画像902についても、同様に、グレースケール画像領域分割モデル153は、背景分離画像908を出力する(905)。安定度判定プログラム158は、背景分離画像907と背景分離画像908の元画像での座標を比較し、位置変動の大きさを判定する(910)。位置変動は、例えば、二つの画像の重なりを示す係数で表わすことができる。
位置変動が大きい場合、画像のブレが生じるなど、後段の個人認証において適切ではない画像に対して、認証処理を実行することになるため、安定度判定プログラム158は、処理中断し、グレースケール画像領域分割モデル153は、n+2番目のフレームの処理に移る。
グレースケール画像領域分割モデル153は、n+2番目の入力フレーム画像903についても同様に、背景分離画像909を出力する(906)。安定度判定プログラム158は、背景分離画像908と背景分離画像909の元画像での座標を比較し(911)、位置変動の大きさが一定閾値以下のとき利用可能であると判定し、背景分離画像908又は909を、生体特徴抽出や認証処理に渡す。
以上の構成により、連続する動画フレームを用いて生体特徴を抽出し個人認証を行う装置において、認証に適さない画像を除外することで、高速な個人認証を実現することができる。図10は、連続する入力画像フレーム間の背景分離画像の位置変動を比較する例を示す。領域分割プログラム152/153は、入力画像1001から、指ごとの背景分離画像である1004、1005、1006を出力する。
同様に、領域分割プログラム152/153は、入力画像1002から、指ごとの背景分離画像である1007、1008、1009を出力する。安定度判定プログラム158は、指単位ごとに、背景分離画像1004と1007の画素領域の位置変動(例えば白画素領域の重なり度)、背景分離画像1005と1008の位置変動、背景分離画像1006と1009の位置変動を判定する。安定度判定プログラム158は、例えば、静止判定される指数が一定数以下の場合認証処理を禁止する。
学習フェーズにおいて、カラー画像領域分割プログラム152は、図9Bに示す処理を行う。入力フレーム画像901~903は、連続するカラー動画フレーム画像を表す。位置変動の大きさが一定閾値より大きいとき、背景分離画像908及び909は、訓練データ161として利用されることなく廃棄される。
上述のように、上述のように、生体認証システム10は、フレーム画像から生成された背景分離画像の目的領域と、他のフレーム画像から生成された背景分離画像の目的領域との間において、位置変動を決定し、位置変動に基づいて上記背景分離画像を利用するか判定する。
本実施形態の構成により、不適切な画像が背景分離画像の生成の後の処理に渡るのを避けることができる。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成・機能・処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
10:生体認証システム
11:入力装置
12:表示装置
13:CPU
14:撮像装置
15:主記憶装置
16:補助記憶装置

Claims (9)

  1. 入力画像から目的対象領域を抽出するモデルを訓練する計算機システムであって、
    プログラム及び訓練データを格納する1以上の記憶装置と、
    前記プログラムに従って動作する1以上のプロセッサと、
    を含み、
    前記1以上のプロセッサは、
    カラー画像を取得し、
    前記カラー画像から、前記カラー画像の色情報に基づき、目的領域と背景領域とが分離された背景分離画像を生成し、
    前記カラー画像をグレースケール化してグレースケール画像を生成し、
    前記グレースケール画像と前記背景分離画像のセットを、前記訓練データに含め、
    グレースケール画像が入力され、背景分離画像を出力するモデルを、前記訓練データを使用して訓練する、計算機システム。
  2. 請求項1に記載の計算機システムであって、
    前記1以上のプロセッサは、
    第1のカラー画像から生成された第1の背景分離画像における第1の目的領域の形状に基づいて、前記第1の目的領域が適切に分離されているかを判定し、
    前記第1の目的領域が適切に分離されていないと判定した場合に、前記第1のカラー画像の色変換を行い、
    前記色変換が行われた第1のカラー画像から第2の背景分離画像を生成する、計算機システム。
  3. 請求項1に記載の計算機システムであって、
    撮像装置をさらに含み、
    前記1以上のプロセッサは、
    前記撮像装置が撮像した第1のカラー画像から生成された第1の背景分離画像において、第1の目的領域の位置のずれを推定し、
    前記ずれを補正するための処理を行った後に、前記撮像装置が撮像した新たなカラー画像を取得する、計算機システム。
  4. 請求項1に記載の計算機システムであって、
    前記1以上のプロセッサは、
    映像における第1のフレーム及び第2のフレームそれぞれの、第1のカラー画像と第2のカラー画像を取得し、
    前記第1のカラー画像から生成された第1の背景分離画像の第1の目的領域と、前記第2のカラー画像から生成された第2の背景分離画像の第2の目的領域との間において、位置変動を決定し、
    前記位置変動に基づいて、前記第1の背景分離画像又は前記第2の背景分離画像を前記訓練データに含めるか判定する、計算機システム。
  5. 請求項1に記載の計算機システムであって、
    撮像装置をさらに含み、
    前記1以上のプロセッサは、
    前記撮像装置が撮像した第1のカラー画像をグレースケール化した第1のグレースケール画像を取得し、
    前記モデルによって、前記第1のグレースケール画像から第1の背景分離画像を生成する、計算機システム。
  6. 請求項5に記載の計算機システムであって、
    前記第1の背景分離画像の第1の目的領域は生体情報領域であり、
    前記1以上のプロセッサは、前記生体情報領域に基づき生体認証を行う、計算機システム。
  7. 請求項5に記載の計算機システムであって、
    前記1以上のプロセッサは、
    第2のカラー画像をグレースケール化した第2のグレースケール画像を取得し、
    第2のグレースケール画像から生成された第2の背景分離画像において、第2の目的領域の位置のずれを推定し、
    前記ずれを補正するための処理を行った後に、前記撮像装置が撮像した新たなカラー画像を取得する、計算機システム。
  8. 請求項5に記載の計算機システムであって、
    前記1以上のプロセッサは、
    映像における一つのフレームの第2のカラー画像をグレースケール化した第2のグレースケール画像を取得し、
    前記映像における他のフレームの第3のカラー画像をグレースケール化した第3のグレースケール画像を取得し、
    前記第2のグレースケール画像から生成された第2の背景分離画像の第2の目的領域と、前記第3のグレースケール画像から生成された第3の背景分離画像の第3の目的領域との間において、位置変動を決定し、
    前記位置変動に基づいて、前記第2の背景分離画像又は前記第3の背景分離画像を利用するか判定する、計算機システム。
  9. 計算機システムが、入力画像から目的対象領域を抽出するモデルを訓練する方法であって、
    前記計算機システムが、カラー画像を取得し、
    前記計算機システムが、前記カラー画像から、前記カラー画像の色情報に基づき、目的領域と背景領域とが分離された背景分離画像を生成し、
    前記計算機システムが、前記カラー画像をグレースケール化してグレースケール画像を生成し、
    前記計算機システムが、前記グレースケール画像と前記背景分離画像のセットを、訓練データに含め、
    前記計算機システムが、グレースケール画像が入力され、背景分離画像を出力するモデルを、前記訓練データを使用して訓練する、方法。
JP2019021957A 2019-02-08 2019-02-08 計算機システム Active JP7079742B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021957A JP7079742B2 (ja) 2019-02-08 2019-02-08 計算機システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021957A JP7079742B2 (ja) 2019-02-08 2019-02-08 計算機システム

Publications (2)

Publication Number Publication Date
JP2020129298A JP2020129298A (ja) 2020-08-27
JP7079742B2 true JP7079742B2 (ja) 2022-06-02

Family

ID=72174561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021957A Active JP7079742B2 (ja) 2019-02-08 2019-02-08 計算機システム

Country Status (1)

Country Link
JP (1) JP7079742B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162103A (ja) 2015-02-27 2016-09-05 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP2017091186A (ja) 2015-11-10 2017-05-25 株式会社日立製作所 生体情報を用いた認証装置及び認証方法
WO2018186398A1 (ja) 2017-04-07 2018-10-11 日本電気株式会社 学習データ生成装置、学習データ生成方法、および記録媒体
JP2018185759A (ja) 2017-04-27 2018-11-22 シスメックス株式会社 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法
JP2018206252A (ja) 2017-06-08 2018-12-27 国立大学法人 筑波大学 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162103A (ja) 2015-02-27 2016-09-05 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP2017091186A (ja) 2015-11-10 2017-05-25 株式会社日立製作所 生体情報を用いた認証装置及び認証方法
WO2018186398A1 (ja) 2017-04-07 2018-10-11 日本電気株式会社 学習データ生成装置、学習データ生成方法、および記録媒体
JP2018185759A (ja) 2017-04-27 2018-11-22 シスメックス株式会社 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法
JP2018206252A (ja) 2017-06-08 2018-12-27 国立大学法人 筑波大学 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
櫻井 俊輔 Syunsuke SAKURAI,FCNを用いた葉領域分割,電子情報通信学会技術研究報告 Vol.116 No.528 IEICE Technical Report,BioX2016-43, PRMU2016-206 (2017-03),日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2017年03月13日,P.57~62

Also Published As

Publication number Publication date
JP2020129298A (ja) 2020-08-27

Similar Documents

Publication Publication Date Title
US20190392587A1 (en) System for predicting articulated object feature location
US9928439B2 (en) Facilitating text identification and editing in images
WO2019174405A1 (zh) 车牌辨识方法以及其系统
JP2007072620A (ja) 画像認識装置及びその方法
US11323577B2 (en) Image processing device for creating an album
CN108765315B (zh) 图像补全方法、装置、计算机设备及存储介质
CN110210480B (zh) 文字识别方法、装置、电子设备和计算机可读存储介质
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
US20160055627A1 (en) Information processing device, image processing method and medium
US20150139547A1 (en) Feature calculation device and method and computer program product
JP2022078314A (ja) 情報処理システム、情報処理装置、情報処理方法、及びコンピュータプログラム
JP7079742B2 (ja) 計算機システム
JP2015041293A (ja) 画像認識装置および画像認識方法
US20220392107A1 (en) Image processing apparatus, image processing method, image capturing apparatus, and non-transitory computer-readable storage medium
EP2998928B1 (en) Apparatus and method for extracting high watermark image from continuously photographed images
KR101961462B1 (ko) 객체 인식 방법 및 장치
CN112749576B (zh) 图像识别方法和装置、计算设备以及计算机存储介质
WO2021029091A1 (ja) 情報処理システム、および情報処理方法
JP7270304B2 (ja) ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置
WO2021114824A1 (zh) 演示文稿生成方法、装置、设备及介质
CN117274761B (zh) 图像生成方法、装置、电子设备和存储介质
US20170068848A1 (en) Display control apparatus, display control method, and computer program product
US20180293460A1 (en) Image processing system with discriminative control
US20230305634A1 (en) Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, and non-transitory computer readable medium
US20230306788A1 (en) Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R150 Certificate of patent or registration of utility model

Ref document number: 7079742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150