JP7491465B2 - 学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置 - Google Patents

学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置 Download PDF

Info

Publication number
JP7491465B2
JP7491465B2 JP2023509920A JP2023509920A JP7491465B2 JP 7491465 B2 JP7491465 B2 JP 7491465B2 JP 2023509920 A JP2023509920 A JP 2023509920A JP 2023509920 A JP2023509920 A JP 2023509920A JP 7491465 B2 JP7491465 B2 JP 7491465B2
Authority
JP
Japan
Prior art keywords
learning
images
image
frame rate
focus range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023509920A
Other languages
English (en)
Other versions
JPWO2022208606A5 (ja
JPWO2022208606A1 (ja
Inventor
正人 塚田
貴裕 戸泉
竜一 赤司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022208606A1 publication Critical patent/JPWO2022208606A1/ja
Publication of JPWO2022208606A5 publication Critical patent/JPWO2022208606A5/ja
Application granted granted Critical
Publication of JP7491465B2 publication Critical patent/JP7491465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)

Description

この開示は、機械学習を実行する学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置の技術分野に関する。
この種のシステムとして、画像データを訓練データとして機械学習を行うシステムが知られている。例えば特許文献1では、生体の画像を用いて、画像から特徴量を抽出する際のパラメータを再起帰化する技術が開示されている。特許文献2では、車載カメラから出力される動画フレームから、歩行者が写った画像の共起特徴量を学習する技術が開示されている。特許文献3では、損失関数から勾配を算出して、ニューラルネットワークの学習を行う技術が開示されている。
その他の関連する技術として、例えば特許文献4では、動画フレームの画像データから、画像に所定の識別対象が存在しているか否かを識別する装置が開示されている。特許文献5では、動画像における所定領域の位置を推定するために、低解像度画像から車両の画像特徴量を検出する技術が開示されている。
国際公開第2019/073745号 国際公開第2018/143277号 特開2019-185207号公報 特開2019-061495号公報 特開2017-2211760号公報
この開示は、例えば上記各引用文献に鑑みてなされたものであり、機械学習を適切に実行することが可能な学習システム、認証システム、学習方法、コンピュータプログラム、、学習モデル生成装置、及び推定装置を提供することを目的とする。
この開示の学習システムの一の態様は、第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択する選択手段と、前記一部の画像から特徴量を抽出する抽出手段と、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記抽出手段の学習を行う学習手段とを備える。
この開示の認証システムの一の態様は、第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、前記一部の画像から特徴量を抽出し、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて学習された抽出手段と、前記抽出された前記特徴量を用いて、認証処理を実行する認証手段とを備える。
この開示の学習方法の一の態様は、第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、前記一部の画像から特徴量を抽出し、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記抽出手段の学習を行う。
この開示のコンピュータプログラムの一の態様は、第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、前記一部の画像から特徴量を抽出し、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記抽出手段の学習を行うようにコンピュータを動作させる。
この開示の学習モデル生成装置の一の態様は、合焦範囲外で撮像された画像と、当該画像に含まれる特徴量を示す情報と、の組を教師データとして機械学習を行うことにより、合焦範囲外で撮像された画像を入力として当該入力された画像の特徴量に関する情報を出力する学習モデルを生成する。
この開示の推定装置の一の態様は、合焦範囲外で撮像された画像と、当該画像に含まれる特徴量を示す情報と、の組を教師データとして機械学習を行うことにより生成された学習モデルを用いて、合焦範囲外で撮像された画像を入力として当該入力された画像の特徴量に関する情報を推定する。
第1実施形態に係る学習システムのハードウェア構成を示すブロック図である。 第1実施形態に係る学習システムの機能的構成を示すブロック図である。 学習に用いる画像の選択方法の一例を示す概念図である。 第1実施形態に係る学習システムの動作の流れを示すフローチャートである。 第1実施形態の変形例に係る学習システムの機能的構成を示すブロック図である。 第1実施形態の変形例に係る学習システムの動作の流れを示すフローチャートである。 第2実施形態に係る学習システムの動作例を示す概念図である。 第3実施形態に係る学習システムの動作例を示す概念図である。 第4実施形態に係る学習システムの動作例を示す概念図である。 第5実施形態に係る学習システムの動作例を示す表である。 第6実施形態に係る学習システムの動作例を示す概念図である。 第7実施形態に係る学習システムの動作例を示す概念図である。 第8実施形態に係る認証システムの機能的構成を示すブロック図である。 第8実施形態に係る認証システムの動作の流れを示すフローチャートである。 第9実施形態に係る学習モデル生成装置の機能的構成を示すブロック図である。 第10実施形態に係る推定装置の機能的構成を示すブロック図である。
以下、図面を参照しながら、学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置の実施形態について説明する。
<第1実施形態>
第1実施形態に係る学習システムについて、図1から図4を参照して説明する。
(ハードウェア構成)
まず、図1を参照しながら、第1実施形態に係る学習システム10のハードウェア構成について説明する。図1は、第1実施形態に係る学習システムのハードウェア構成を示すブロック図である。
図1に示すように、第1実施形態に係る学習システム10は、プロセッサ11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、記憶装置14とを備えている。学習システム10は更に、入力装置15と、出力装置16とを備えていてもよい。プロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16と、カメラ20とは、データバス17を介して接続されている。
プロセッサ11は、コンピュータプログラムを読み込む。例えば、プロセッサ11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、プロセッサ11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。プロセッサ11は、ネットワークインタフェースを介して、学習システム10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。プロセッサ11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、プロセッサ11が読み込んだコンピュータプログラムを実行すると、プロセッサ11内には、機械学習に関する処理を実行するための機能ブロックが実現される。また、プロセッサ11として、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)のうち一つを用いてもよいし、複数を並列で用いてもよい。
RAM12は、プロセッサ11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、プロセッサ11がコンピュータプログラムを実行している際にプロセッサ11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic RAM)であってもよい。
ROM13は、プロセッサ11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable ROM)であってもよい。
記憶装置14は、学習システム10が長期的に保存するデータを記憶する。記憶装置14は、プロセッサ11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
入力装置15は、学習システム10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。
出力装置16は、学習システム10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、学習システム10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。
(機能的構成)
次に、図2を参照しながら、第1実施形態に係る学習システム10の機能的構成について説明する。図2は、第1実施形態に係る学習システムの機能的構成を示すブロック図である。
図2に示すように、第1実施形態に係る学習システム10は、その機能を実現するための処理ブロックとして、画像選択部110と、特徴量抽出部120と、学習部130とを備えて構成されている。画像選択部110、特徴量抽出部120、及び学習部130の各々は、例えば上述したプロセッサ11(図1参照)において実現されればよい。
画像選択部110は、第1のフレームレートで撮影された複数フレームの画像から、一部の画像を選択可能に構成されている。なお、ここでの「第1のフレームレート」は、画像選択部110の選択元となる画像を撮像する際のフレームレートであり、比較的高いレートとして設定されている。以下では、第1のフレームレートで撮影された複数のフレームレート画像を、適宜「高フレームレート画像」と称する。画像選択部110は、高フレームレート画像から、合焦範囲外で撮像された画像(言い換えれば、ピントがぼけた画像)を含む一部の画像を選択する。なお、画像選択部110によって選択される一部の画像の枚数は特に限定されず、1枚の画像のみが選択されてもよいし、複数枚の画像が選択されてもよい。画像選択部110によって選択された画像は、特徴量抽出部120に出力される構成となっている。
特徴量抽出部120は、画像選択部110によって選択された画像(以下、適宜「選択画像」と称する)から、特徴量を抽出可能に構成されている。ここでの「特徴量」は、画像の特徴を示すものであり、例えば画像に含まれている物体の特徴を示す値として抽出されてもよい。特徴量抽出部120は、1枚の画像から複数種類の特徴量を抽出してもよい。また、選択画像が複数枚ある場合、特徴量抽出部120は、複数枚の選択画像の各々について特徴量を抽出してよい。なお、画像から特徴量を抽出する具体的な手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略する。特徴量抽出部120で抽出された特徴量は、学習部130に出力される構成となっている。
学習部130は、特徴量抽出部120で抽出された特徴量と、特徴量に関する正解を示す正解情報とに基づいて、特徴量抽出部120の学習を行う。具体的には、学習部130は、特徴量抽出部120が抽出した特徴量と、正解情報とに基づいて、特徴量抽出部120がより高い精度で特徴量を抽出できるように、パラメータの最適化を行う。なお、ここでの「正解情報」とは、画像選択部110で選択された画像から特徴量抽出部120が抽出すべき特徴量(言い換えれば、実際に画像に含まれている特徴量)を示す情報であり、各画像の正解ラベルとして予め付与されたものである。正解情報は、例えば、画像に紐付いて記憶されているものであってもよいし、画像とは別に入力されるものであってもよい。正解情報は、画像から推定された情報であってもよいし、人の作業によって作成されたものであってもよい。学習部130は、典型的には、複数枚の選択画像を用いて特徴量抽出部120の学習を実行する。なお、学習部130による学習の具体的な手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略する。
(画像の選択)
次に、図3を参照しながら、上述した画像選択部110による画像の選択方法について具体的に説明する。図3は、学習に用いる画像の選択方法の一例を示す概念図である。
図3において、上向きの矢印は、連続して撮像される画像1枚1枚を表している。高フレームレート画像は、撮像部の合焦範囲を通過するように移動する物体を、第1のフレームレートで撮影したものである。
画像選択部110は、高フレームレート画像の中から一部の画像を選択する。なお、ここでは2枚の画像を選択しているが、2枚以上の画像が選択されてもよいし、1枚の画像だけが選択されてもよい。画像選択部110は、選択画像をランダムに選択してよい。或いは、画像選択部110は、予め設定された選択条件に基づいて画像を選択してもよい。画像選択部110による、より具体的な画像の選択例については、後の実施形態で詳しく説明する。
選択画像は、すでに説明したように、合焦範囲外で撮像された画像を含んでいる。合焦範囲外で撮像された画像は、画像が多少なりともぼやけているため、特徴量抽出手段で正確な特徴量を抽出するのが難しい。本実施形態に係る学習システム10では、このように、あえて合焦範囲外で撮像された画像を用いることにより、ぼやけた画像からでも正確に特徴量を抽出できるような学習を行う。
なお、合焦範囲の広さやフレームレートにもよるが、高フレームレート画像であっても、合焦範囲内で撮像される画像はごく一部となる(図3に示す例では、合焦範囲内で撮像された画像は1枚だけである)。よって、確実に合焦範囲内で撮像された画像を取得しようとすると、高いフレームレートで画像を撮像することが要求される。或いは、液体レンズのような手段を用いて、合焦範囲を調整することが要求される。
上述した要求を満たそうとすると、コストの増加を避けるのは難しい。しかるに、ぼやけた画像からでも正確に特徴量を抽出できるように学習を行えば、合焦範囲内で画像を撮像することが要求されなくなる。その結果、コストの増加を抑制しつつ、精度よく特徴量を抽出することが可能となる。
(動作の流れ)
次に、図4を参照しながら、第1実施形態に係る学習システム10の動作の流れについて説明する。図4は、第1実施形態に係る学習システムの動作の流れを示すフローチャートである。
図4に示すように、第1実施形態に係る学習システム10が動作する際には、まず画像選択部110が、高フレームレート画像から一部の画像を選択する(ステップS101)。画像選択部110は、選択画像を特徴量抽出部120に出力する。
続いて、特徴量抽出部120が、選択画像から特徴量を抽出する(ステップS102)。特徴量抽出部120は、抽出した特徴量を学習部130に出力する。
続いて、学習部130が、特徴量抽出部120で抽出された特徴量と、特徴量の正解情報とに基づいて、特徴量抽出部120の学習処理を行う(ステップS103)。
続いて、学習部130は、すべての学習が終了したか否かを判定する(ステップS104)。学習部130は、例えば学習に用いた選択画像が所定枚数に到達した場合に、学習が終了したと判定してもよい。或いは、学習部130は、学習開始から所定期間が経過した場合や、システム管理者による終了操作があった場合に、学習が終了したと判定してもよい。
学習が終了したと判定された場合(ステップS104:YES)、一連の処理は終了する。一方、学習が終了していないと判定された場合(ステップS104:NO)、再びステップS101から処理が開始されればよい。
(技術的効果)
次に、第1実施形態に係る学習システム10によって得られる技術的効果について説明する。
図1から図4で説明したように、第1実施形態に係る学習システム10では、高フレームレート画像から選択された一部の画像を選択し、その選択画像から抽出される特徴量を用いて、特徴量抽出部120の学習が行われる。このように特徴量抽出部120を学習すれば、合焦範囲内で撮像された画像でなくても、精度よく特徴量を抽出することが可能となる。従って、合焦範囲内で画像を撮像することが要求されなくなり、撮像部等のコスト増加を抑制することができる。
<変形例>
第1実施形態の変形例について、図5及び図6を参照して説明する。なお、以下で説明する変形例は、第1実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1実施形態(図1から図4参照)と同一であってよい。このため、以下では、すでに説明した第1実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
(変形例の構成)
まず、図5を参照しながら、第1実施形態の変形例に係る学習システム10の機能的構成について説明する。図5は、第1実施形態の変形例に係る学習システムの機能的構成を示すブロック図である。図5では、図2で示した構成要素と同様の要素に同一の符号を付している。
図5に示すように、第1実施形態の変形例に係る学習システム10は、その機能を実現するための処理ブロックとして、画像選択部110と、特徴量抽出部120と、学習部130とを備えて構成されている。そして特に、変形例に係る学習システム10は、学習部130が、損失関数計算部131と、勾配計算部132と、パラメータ更新部133とを備えている。
損失関数計算部131は、特徴量抽出部120で抽出された特徴量と、特徴量の正解情報との誤差に基づいて、損失関数を計算可能に構成されている。損失関数の具体的な計算方法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略する。
勾配計算部132は、損失関数計算部131で計算された損失関数を用いて、勾配を計算可能に構成されている。勾配の具体的な計算方法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略する。
パラメータ更新部133は、勾配計算部132で計算された勾配に基づいて、特徴量抽出部120におけるパラメータ(即ち、特徴量を抽出するためのパラメータ)を更新可能に構成されている。パラメータ更新部133は、損失関数で計算される損失が小さくなるようにパラメータを更新することで、特徴量がより正解情報に近い情報として推定されるようにパラメータを最適化する。
(変形例の動作)
次に、図6を参照しながら、第1実施形態の変形例にかかる学習システムの動作の流れについて説明する。図6は、第1実施形態の変形例に係る学習システムの動作の流れを示すフローチャートである。図6では、図4で示した処理と同様の処理に同一の符号を付している。
図6に示すように、第1実施形態の変形例に係る学習システム10が動作する際には、まず画像選択部110が、高フレームレート画像から一部の画像を選択する(ステップS101)。画像選択部110は、選択画像を特徴量抽出部120に出力する。
続いて、特徴量抽出部120が、選択画像から特徴量を抽出する(ステップS102)。特徴量抽出部120は、抽出した特徴量を学習部130における損失関数計算部131に出力する。
続いて、損失関数計算部131が、特徴量抽出部120から入力された特徴量と、別途入力された正解情報とに基づいて損失関数を計算する(ステップS111)。そして、勾配計算部132が、損失関数を用いて勾配を計算する(ステップS112)。その後、パラメータ更新部133が、計算された勾配に基づいて、特徴量抽出部120のパラメータを更新する(ステップS113)。
続いて、学習部130は、すべての学習が終了したか否かを判定する(ステップS104)。学習が終了したと判定された場合(ステップS104:YES)、一連の処理は終了する。一方、学習が終了していないと判定された場合(ステップS104:NO)、再びステップS101から処理が開始されればよい。
(変形例の効果)
次に、第1実施形態の変形例に係る学習システム10によって得られる技術的効果について説明する。
図5から図6で説明したように、第1実施形態の変形例に係る学習システム10では、損失関数から計算される勾配に基づいて、特徴量抽出部120のパラメータが更新される。このように特徴量抽出部120を学習した場合でも、上述した第1実施形態に係る学習システム10と同様に、合焦範囲内で撮像された画像でなくても、精度よく特徴量を抽出することが可能となる。従って、合焦範囲内で画像を撮像することが要求されなくなり、撮像部等のコスト増加を抑制することができる。
<第2実施形態>
第2実施形態に係る学習システム10について、図7を参照して説明する。なお、第2実施形態は、上述した第1実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1実施形態(図1から図6参照)と同一であってよい。このため、以下では、すでに説明した第1実施形態と重複する部分については適宜説明を省略するものとする。
(動作例)
まず、図7を参照しながら、第2実施形態に係る学習システム10の動作例について説明する。図7は、第2実施形態に係る学習システムの動作例を示す概念図である。
第2実施形態に係る学習システム10は、高フレームレート画像として、生体の虹彩を含む画像を用いる。よって、画像選択部110が選択する選択画像にも、生体の虹彩が含まれることとなる。そして、第2実施形態に係る特徴量抽出部120は、生体の虹彩を含む画像(以下、適宜「虹彩画像」と称する)から、虹彩の特徴量を抽出可能に構成されている。なお、特徴量抽出部120は、学習部130による学習後に、虹彩認証に用いる特徴量を抽出することになる。
図7に示すように、虹彩認証を行うシステムでは、認証対象である対象者が移動している状態で虹彩画像を撮像する態様(所謂、ウォークスルー認証)が採用されることがある。このような認証システムでは、対象者の虹彩が合焦範囲内に位置する時間は極めて短い。例えば、対象者が大人の通常の歩行速度である分速80m(秒速1.333cm)で歩いた場合、撮像システムにおける光学レンズによる撮影位置での被写界深度(合焦範囲)が1cmであるとすると、仮に120FPS(8.33ms間隔)で虹彩画像を撮像したとしても、合焦範囲内で撮像できる虹彩画像は1~2枚である。よって、例えばフレームレートが低い状態(例えば、30FPS)で虹彩画像を撮像した場合、合焦範囲内で虹彩画像を撮像できなくなるおそれがある。即ち、すべての虹彩画像が合焦範囲外で撮像されたものになってしまう可能性がある。
第2実施形態に係る学習システム10は、上述した低フレームレートでの虹彩画像の撮像を想定した学習を行う。即ち、高フレームレートで撮像された虹彩画像から一部の虹彩画像を選択することで、あえて合焦範囲外で撮像された虹彩画像を用いた学習を行う。
(技術的効果)
次に、第2実施形態に係る学習システム10によって得られる技術的効果について説明する。
図7で説明したように、第2実施形態に係る学習システム10では、高フレームレート画像から選択された一部の虹彩画像を用いて、虹彩の特徴量を抽出する特徴量抽出部120が学習される。このようにすれば、合焦範囲外で撮像された虹彩画像からでも、精度よく特徴量を抽出することができるような学習が行える。よって、合焦範囲内で画像を撮像することが要求されなくなり、撮像部等のコスト増加を抑制することができる。
<第3実施形態>
第3実施形態に係る学習システム10について、図8を参照して説明する。なお、第3実施形態は、上述した第1及び第2実施形態と比べて一部の構成及び動作が異なるのみで、その他の部分については第1及び第2実施形態と同一であってよい。このため、以下では、すでに説明した実施形態と重複する部分については適宜説明を省略するものとする。
(動作例)
まず、図8を参照しながら、第3実施形態に係る学習システム10の動作例について説明する。図8は、第3実施形態に係る学習システムの動作例を示す概念図である。
図8に示すように、第3実施形態に係る学習システム10では、画像選択部110が、高フレームレート画像のうち、合焦範囲付近の画像を選択する。この選択方法は、ハイパスフィルタやフーリエ変換などを用いて高フレームレート画像における高周波成分量を求め、その高周波成分があらかじめ設定された閾値を超えた画像を選択してもよい。また、距離センサにて歩行者の虹彩までの距離を計測し、合焦位置までの距離との差を計算し、あらかじめ設定された距離の差を下回った画像を選択してもよい。なお、ここでの「合焦範囲付近」とは、合焦範囲から比較的近い位置であることを意味しており、例えば合焦範囲の端から所定距離内に収まる範囲として設定されている。また、合焦範囲付近には、合焦範囲より前の部分と、合焦範囲より後の部分の両方が含まれていてよい。なお、画像選択部110は、合焦範囲付近に複数の画像が含まれている場合、その中の1枚の画像を選択してもよいし、複数枚の画像を選択してもよい。その際、画像選択部110は、画像範囲付近の画像をランダムに選択するようにしてもよい。
(技術的効果)
次に、第3実施形態に係る学習システム10によって得られる技術的効果について説明する。
図8で説明したように、第3実施形態に係る学習システム10では、選択画像として、合焦範囲付近の画像が選択される。このようにすれば、仮に合焦範囲外の画像であっても、比較的ぼやけ具合が少ない画像を用いて学習が行える。このため、合焦範囲から外れすぎた画像(即ち、ぼやけすぎた画像)を用いることで、適切な学習が行えなくなってしまうことを回避できる。また、低フレームレートの撮像においても、合焦範囲付近の画像が多少は取得できることが想定されるため、実運用に合った条件で学習が行える。
<第4実施形態>
第4実施形態に係る学習システム10について、図9を参照して説明する。なお、第4実施形態は、上述した第1から第3実施形態と比べて一部の構成及び動作が異なるのみで、その他の部分については第1から第3実施形態と同一であってよい。このため、以下では、すでに説明した実施形態と重複する部分については適宜説明を省略するものとする。
(動作例)
まず、図9を参照しながら、第4実施形態に係る学習システム10の動作例について説明する。図9は、第4実施形態に係る学習システムの動作例を示す概念図である。
図9に示すように、第4実施形態に係る学習システム10では、画像選択部110が、第1のフレームレート(即ち、高フレームレート画像を撮像したフレームレート)よりも低い第2のフレームレートに対応する画像を選択する。なお、図9では、第1のフレームレートが120FPSであり、第2のフレームレートが30FPSである例が示されている。このため、高フレームレート画像が4枚おきに1枚ずつ選択されている。選択画像は、第2のフレームレートに応じて等間隔で選択されることになる。
(技術的効果)
次に、第4実施形態に係る学習システム10によって得られる技術的効果について説明する。
図8で説明したように、第4実施形態に係る学習システム10では、第1のフレームレートよりも低い第2のフレームレートに対応する画像が選択される。上記のような選択方法で高フレームレートのデータから学習用のフレーム画像を選択する。選択されたフレーム画像を学習に用いることで低フレームレートの推定に最適なネットワークを学習できる。
<第5実施形態>
第5実施形態に係る学習システム10について、図10を参照して説明する。なお、第5実施形態は、上述した第4実施形態と比べて一部の構成及び動作が異なるのみで、その他の部分については第1から第4実施形態と同一であってよい。このため、以下では、すでに説明した実施形態と重複する部分については適宜説明を省略するものとする。
(動作例)
まず、図10を参照しながら、第5実施形態に係る学習システム10の動作例について説明する。図10は、第5実施形態に係る学習システムの動作例を示す表である。
第5実施形態に係る学習システム10では、画像選択部110が画像を選択するフレームレート(即ち、第2のフレーム)が、学習後の特徴量抽出部120を運用する際のフレームレートとして設定されている。即ち、学習後の特徴量抽出部120に入力される画像のフレームレートを想定して、高フレームレート画像から一部の画像が選択される構成となっている。
図10に示すように、例えば、高フレームレート画像が、120FPSで撮像された画像であるとする。この場合、特徴量抽出部120を運用する際のフレームレートが30FPSであるとすると、画像選択部110は30FPSに対応する画像を高フレームレート画像から選択する。具体的には、画像選択部110は、高フレームレート画像を4フレームおきに選択する。或いは、特徴量抽出部120を運用する際のフレームレートが40FPSであるとすると、画像選択部110は40FPSに対応する画像を高フレームレート画像から選択する。具体的には、画像選択部110は、高フレームレート画像を3フレームおきに選択する。或いは、特徴量抽出部120を運用する際のフレームレートが60FPSであるとすると、画像選択部110は60FPSに対応する画像を高フレームレート画像から選択する。具体的には、画像選択部110は、高フレームレート画像を2フレームおきに選択する。
(技術的効果)
次に、第5実施形態に係る学習システム10によって得られる技術的効果について説明する。
図10で説明したように、第5実施形態に係る学習システム10では、特徴量抽出部120を運用する際のフレームレートに対応する画像が選択される。このようにすれば、学習後の特徴量抽出部120が運用される際の動作を想定して、より適切な学習を行うことが可能となる。
<第6実施形態>
第6実施形態に係る学習システム10について、図11を参照して説明する。なお、第6実施形態は、上述した第1から第5実施形態と比べて一部の構成及び動作が異なるのみで、その他の部分については第1から第5実施形態と同一であってよい。このため、以下では、すでに説明した実施形態と重複する部分については適宜説明を省略するものとする。
(動作例)
まず、図11を参照しながら、第6実施形態に係る学習システム10の動作例について説明する。図11は、第6実施形態に係る学習システムの動作例を示す概念図である。
図11に示すように、第6実施形態に係る学習システム10では、画像選択部110が、まず基準フレームを選択する。即ち、画像選択部110が、複数枚の高フレームレート画像の中から、1枚の基準フレームを選択する。基準フレームは、高フレームレート画像の中からランダムに選択されてよい。
その後、画像選択部110は更に、基準フレームを基準として、第2のフレームレートに対応する他の画像を選択していく。具体的には、画像選択部110は、基準フレームから第2のフレームレートに対応する間隔を空けて2番目の画像を選択する。そして、画像選択部110は、2番目の画像から第2のフレームレートに対応売する間隔を空けて、3番目の画像を選択する。なお、ここでは、3枚の画像を選択する例を挙げているが、同様に4番目以降の画像が選択されてもよい。
(技術的効果)
次に、第6実施形態に係る学習システム10によって得られる技術的効果について説明する。
図8で説明したように、第6実施形態に係る学習システム10では、最初に選択される基準フレームを基準にして、その他の画像が選択される。上記のような選択方法で高フレームレートのデータから学習用のフレーム画像を選択する。選択されたフレーム画像を学習に用いることで低フレームレートの推定に最適なネットワークを学習できる。
<第7実施形態>
第7実施形態に係る学習システム10について、図12を参照して説明する。なお、第7実施形態は、上述した第6実施形態と比べて一部の構成及び動作が異なるのみで、その他の部分については第1から第6実施形態と同一であってよい。このため、以下では、すでに説明した実施形態と重複する部分については適宜説明を省略するものとする。
(動作例)
まず、図12を参照しながら、第7実施形態に係る学習システム10の動作例について説明する。図12は、第7実施形態に係る学習システムの動作例を示す概念図である。
図12に示すように、第7実施形態に係る学習システム10では、画像選択部110が、合焦範囲の直前から基準フレームを選択する。なお、ここでの「合焦範囲の直前」とは、合焦範囲の前にある比較的近い位置を意味しており、例えば合焦範囲の前端から所定距離内に収まる範囲として設定されている。なお、基準フレームとして選択される画像は、賀正範囲から最も近い位置で撮像される画像に限定されるものではない。図12に示す例では、撮像範囲の外側にある1番最初の画像が基準フレームとして選択されているが、それよりも前で撮像された画像が基準フレームとして選択されてもよい。なお、合焦範囲の直前といえる範囲に複数枚の高レート画像が存在する場合には、画像選択部110は、その中から1枚の画像をランダムに選択して基準フレームとしてよい。
(技術的効果)
次に、第7実施形態に係る学習システム10によって得られる技術的効果について説明する。
図8で説明したように、第7実施形態に係る学習システム10では、撮像範囲の直前から基準フレームが選択される。このようにすれば、合焦範囲の周辺に位置する複数枚の画像が選択画像となるため、学習に適した画像を容易且つ効率的に選択することが可能である。
<第8実施形態>
第8実施形態に係る認証システム20について、図13及び図14を参照して説明する。なお、第8実施形態に係る認証システム20は、上述した第1から第7実施形態に係る学習システム10で学習された特徴量抽出部120を備えるシステムであり、そのハードウェア構成については、第1実施形態に係る学習システム10(図1参照)と同一であってよく、その他の部分についても、第1から第7実施形態に係る学習システム10と同様であってもよい。このため、以下では、すでに説明した実施形態と重複する部分については適宜説明を省略するものとする。
(機能的構成)
まず、図13を参照しながら、第8実施形態に係る認証システム20の機能的構成について説明する。図13は、第8実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図13では、図2で示した構成要素と同様の要素に同一の符号を付している。
図13に示すように、第8実施形態に係る学習認証システム20は、その機能を実現するための処理ブロックとして、特徴量抽出部120と、認証部200とを備えて構成されている。認証部200は、例えば上述したプロセッサ11(図1参照)によって実現されてよい。或いは、認証部200は、外部のサーバやクラウドによって実現されるものであってもよい。
特徴量抽出部120は、上述した各実施形態で説明したように、画像から特徴量を抽出可能に構成されている。ただし、第8実施形態に係る特徴量抽出部120は、第1から第7実施形態で説明した学習システム10によって学習済みとなったものである。特徴量抽出部120で抽出された特徴量は、認証部200に出力される構成となっている。
認証部200は、特徴量抽出部120で抽出した特徴量を用いて、認証処理を実行可能に構成されている。例えば、認証部200は、生体を撮像した画像を用いて生体認証を行うことが可能に構成されている。認証部200は、虹彩画像から抽出された虹彩の特徴量を用いて、虹彩認証を実行可能に構成されてもよい。なお、認証処理の具体的な手法については、既存の技術を適宜採用することができるため、ここでの詳しい説明は省略するものとする。
(動作の流れ)
次に、図14を参照しながら、第8実施形態に係る認証システム20の動作の流れについて説明する。図14は、第8実施形態に係る認証システムの動作の流れを示すフローチャートである。
図14に示すように、第8実施形態に係る認証システム20が動作する際には、まず特徴量抽出部120が画像を取得する(ステップS801)。ここで取得される画像は、例えば学習時に想定した低フレームレートで撮像された画像であってよい。特徴量抽出部120には、例えばカメラで撮像した画像が、そのまま直接入力されてもよいし、ストレージ等に記憶されている画像が入力されてもよい。
続いて、特徴量抽出部120が、取得した画像から特徴量を抽出する(ステップS802)。特徴量抽出部120は、抽出した特徴量を認証部200に出力する。
続いて、認証部200が、特徴量抽出部120で抽出された特徴量を用いて、認証処理を実行する(ステップS803)。認証部200は、例えば登録データベースに登録された特徴量を読み出し、読み出した特徴量と、特徴量抽出部120で抽出された特徴量とが一致するか否かを判定するようにしてもよい。認証処理が終了すると、認証部200は、認証結果を出力する(ステップS804)。
(技術的効果)
次に、第8実施形態に係る認証システム20によって得られる技術的効果について説明する。
図13及び図24で説明したように、第8実施形態に係る認証システム20では、第1から第7実施形態に係る学習システム10によって学習された特徴量抽出部120を用いて、認証処理が実行される。特徴量抽出部120の学習は、すでに説明したように、高レート画像から選択した、一部の画像(合焦範囲で撮像された画像を含む)を用いて行われている。よって、入力画像が合焦範囲内で撮像されたものでなくても、画像の特徴量を精度よく抽出することが可能である。よって、第8実施形態に係る認証システム20によれば、合焦範囲の中又は外のいずれで撮像された画像が入力された場合であっても、正確な認証結果を出力することが可能である。
<第9実施形態>
第9実施形態に係る学習モデル生成装置について、図15を参照して説明する。図15は、第9実施形態に係る学習モデル生成装置の機能的構成を示すブロック図である。なお、第9実施形態に係る学習モデル生成装置は、上述した第1から第7実施形態に係る学習システム10と、一部の構成及び動作が共通していてもよい。このため、以下では、すでに説明した実施形態と重複する部分については適宜説明を省略するものとする。
図15に示すように、第9実施形態に係る学習モデル生成装置30は、合焦範囲外で撮像された画像と、その画像に含まれる特徴量を示す情報(即ち、正解情報)と、を入力としている。学習モデル生成装置30は、入力された画像及び特徴量を示す情報を用いて機械学習を行うことにより、学習モデルを生成可能に構成されている。学習モデルは、例えばニューラルネットワークとして構成されており、合焦範囲外で撮像された画像を入力として、入力された画像の特徴量に関する情報を出力するモデルである。
図15で説明したように、第9実施形態に係る学習モデル生成装置30では、合焦範囲外で撮像された画像(即ち、ピントの合っていない)を用いて機械学習が行われる。このようにすれば、合焦範囲外で撮像された画像から、精度よく特徴量に関する情報を出力可能なモデルを生成できる。即ち、合焦範囲外で撮像されていることに起因して、特徴量を正確に出力することが難しい画像が入力された場合であっても、精度よく特徴量に関する情報を出力できるモデルを生成できる。
<第10実施形態>
第10実施形態に係る推定装置について、図16を参照して説明する。図16は、第10実施形態に係る推定装置の機能的構成を示すブロック図である。なお、第10実施形態に係る学習モデル生成装置は、上述した第9実施形態に係る学習モデル生成装置30によって生成された学習モデルを備える装置である。このため、以下では、すでに説明した実施形態と重複する部分については適宜説明を省略するものとする。
図16に示すように、第10実施形態に係る推定装置40は、学習モデル300を備えて構成されている。学習モデル300は、第9実施形態で説明したように、合焦範囲外で撮像された画像と、その画像に含まれる特徴量を示す情報(即ち、正解情報)と、を用いて機械学習されたモデルである。推定装置40は、合焦範囲外で撮像された画像を入力として、入力された画像の特徴量に関する情報を出力する。より具体的には、推定装置40は、学習モデル300を用いて、入力された画像から特徴量を取得する。そして、推定装置40は、学習モデル300を用いて取得した画像の特徴量を、推定結果として出力する。
図16で説明したように、第10実施形態に係る推定装置では、合焦範囲外で撮像された画像を用いて学習された学習モデル300を用いて、画像の特徴量が推定される。このようにすれば、合焦範囲外で撮像された画像から、精度よく特徴量に関する情報を推定することができる。即ち、合焦範囲外で撮像されていることに起因して、特徴量を正確に出力することが難しい画像が入力された場合であっても、精度よく特徴量に関する情報を推定できる。
上述した各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置もまたこの開示の技術思想に含まれる。
<付記>
以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
付記1に記載の学習システムは、第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択する選択手段と、前記一部の画像から特徴量を抽出する抽出手段と、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記抽出手段の学習を行う学習手段とを備えることを特徴とする学習システムである。
(付記2)
付記2に記載の学習システムは、前記複数フレームの画像は、生体の虹彩を含む画像であり、前記抽出手段は、虹彩認証に用いる前記特徴量を抽出することを特徴とする付記1に記載の学習システムである。
(付記3)
付記3に記載の学習システムは、前記選択手段は、前記合焦範囲付近の画像を、前記一部の画像として選択することを特徴とする付記1又は2に記載の学習システムである。
(付記4)
付記4に記載の学習システムは、前記選択手段は、前記第1のフレームレートよりもレートの低い第2のフレームレートに対応する画像を、前記一部の画像として選択することを特徴とする付記1から3のいずれか一項に記載の学習システムである。
(付記5)
付記5に記載の学習システムは、前記第2のフレームレートは、前記学習手段で学習した前記抽出手段を運用する際のフレームレートであることを特徴とする付記4に記載の学習システムである。
(付記6)
付記6に記載の学習システムは、前記選択手段は、前記一部の画像から基準フレームを1枚選択し、前記基準フレームを基準にして、前記第2のフレームレートに対応する他の画像を選択することを特徴とする付記4又は5に記載の学習システムである。
(付記7)
付記7に記載の学習システムは、前記選択手段は、前記合焦範囲の直前に撮像された画像から前記基準フレームを選択することを特徴とする付記6に記載の学習システムである。
(付記8)
付記8に記載の認証システムは、第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、前記一部の画像から特徴量を抽出し、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて学習された抽出手段と、前記抽出された前記特徴量を用いて、認証処理を実行する認証手段とを備えることを特徴とする認証システムである。
(付記9)
付記9に記載の学習方法は、第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、前記一部の画像から特徴量を抽出し、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記抽出手段の学習を行うことを特徴とする学習方法である。
(付記10)
付記10に記載のコンピュータプログラムは、第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、前記一部の画像から特徴量を抽出し、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記抽出手段の学習を行うようにコンピュータを動作させることを特徴とするコンピュータプログラムである。
(付記11)
付記11に記載の記録媒体は、付記10に記載のコンピュータプログラムを記録していることを特徴とする記録媒体である。
(付記12)
付記12に記載の学習モデル生成装置は、合焦範囲外で撮像された画像と、当該画像に含まれる特徴量を示す情報と、の組を教師データとして機械学習を行うことにより、合焦範囲外で撮像された画像を入力として当該入力された画像の特徴量に関する情報を出力する学習モデルを生成する、学習モデル生成装置である。
(付記13)
付記13に記載の推定装置は、合焦範囲外で撮像された画像と、当該画像に含まれる特徴量を示す情報と、の組を教師データとして機械学習を行うことにより生成された学習モデルを用いて、合焦範囲外で撮像された画像を入力として当該入力された画像の特徴量に関する情報を推定する推定装置である。
10 学習システム
20 認証システム
30 学習モデル生成装置
40 推定装置
110 画像選択部
120 特徴量抽出部
130 学習部
131 損失関数計算部
132 勾配計算部
133 パラメータ更新部
200 認証部
300 学習モデル

Claims (10)

  1. 第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択する選択手段と、
    前記一部の画像から特徴量を抽出する抽出手段と、
    前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記抽出手段の学習を行う学習手段と
    を備えることを特徴とする学習システム。
  2. 前記複数フレームの画像は、生体の虹彩を含む画像であり、
    前記抽出手段は、虹彩認証に用いる前記特徴量を抽出する
    ことを特徴とする請求項1に記載の学習システム。
  3. 前記選択手段は、前記合焦範囲付近の画像を、前記一部の画像として選択することを特徴とする請求項1又は2に記載の学習システム。
  4. 前記選択手段は、前記第1のフレームレートよりもレートの低い第2のフレームレートに対応する画像を、前記一部の画像として選択することを特徴とする請求項1から3のいずれか一項に記載の学習システム。
  5. 前記第2のフレームレートは、前記学習手段で学習した前記抽出手段を運用する際のフレームレートであることを特徴とする請求項4に記載の学習システム。
  6. 第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、前記一部の画像から特徴量を抽出し、前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて学習された抽出手段と、
    前記抽出された前記特徴量を用いて、認証処理を実行する認証手段と
    を備えることを特徴とする認証システム。
  7. 第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、
    前記一部の画像から特徴量を抽出し、
    前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記一部の画像から特徴量を抽出する抽出手段の学習を行う
    ことを特徴とする学習方法。
  8. 第1のフレームレートで撮影された複数フレームの画像から、合焦範囲外で撮像された画像を含む一部の画像を選択し、
    前記一部の画像から特徴量を抽出し、
    前記抽出された特徴量と、前記特徴量に関する正解を示す正解情報とに基づいて、前記一部の画像から特徴量を抽出する抽出手段の学習を行う
    ようにコンピュータを動作させることを特徴とするコンピュータプログラム。
  9. 合焦範囲外で撮像された画像と、当該画像に含まれる特徴量を示す情報と、の組を教師データとして機械学習を行うことにより、合焦範囲外で撮像された画像を入力として当該入力された画像の特徴量に関する情報を出力する学習モデルを生成する、学習モデル生成装置。
  10. 合焦範囲外で撮像された画像と、当該画像に含まれる特徴量を示す情報と、の組を教師データとして機械学習を行うことにより生成された学習モデルを用いて、合焦範囲外で撮像された画像を入力として当該入力された画像の特徴量に関する情報を推定する推定装置。
JP2023509920A 2021-03-29 2021-03-29 学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置 Active JP7491465B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/013275 WO2022208606A1 (ja) 2021-03-29 2021-03-29 学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置

Publications (3)

Publication Number Publication Date
JPWO2022208606A1 JPWO2022208606A1 (ja) 2022-10-06
JPWO2022208606A5 JPWO2022208606A5 (ja) 2023-12-07
JP7491465B2 true JP7491465B2 (ja) 2024-05-28

Family

ID=83455725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023509920A Active JP7491465B2 (ja) 2021-03-29 2021-03-29 学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置

Country Status (3)

Country Link
US (1) US20230351729A1 (ja)
JP (1) JP7491465B2 (ja)
WO (1) WO2022208606A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004226729A (ja) 2003-01-23 2004-08-12 Matsushita Electric Ind Co Ltd 認証対象画像撮像装置
JP2004328367A (ja) 2003-04-24 2004-11-18 Matsushita Electric Ind Co Ltd 画像撮影装置および認証装置
WO2017175282A1 (ja) 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004226729A (ja) 2003-01-23 2004-08-12 Matsushita Electric Ind Co Ltd 認証対象画像撮像装置
JP2004328367A (ja) 2003-04-24 2004-11-18 Matsushita Electric Ind Co Ltd 画像撮影装置および認証装置
WO2017175282A1 (ja) 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム

Also Published As

Publication number Publication date
WO2022208606A1 (ja) 2022-10-06
US20230351729A1 (en) 2023-11-02
JPWO2022208606A1 (ja) 2022-10-06

Similar Documents

Publication Publication Date Title
EP2182469B1 (en) System and method for sensing facial gesture
JP6798798B2 (ja) ユーザ認証のためのデータを更新する方法及び装置
JP6833620B2 (ja) 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム
JP2010027035A (ja) 個人認証装置及び個人認証方法
JP2007042072A (ja) 追跡装置
CN108875931B (zh) 神经网络训练及图像处理方法、装置、系统
KR102198920B1 (ko) 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
CN112329505A (zh) 用于检测对象的方法和装置
WO2020184539A1 (ja) 物体追跡装置、物体追跡方法、及び、記録媒体
US20120230558A1 (en) Method and System for Contrast Inflow Detection in 2D Fluoroscopic Images
JP7491465B2 (ja) 学習システム、認証システム、学習方法、コンピュータプログラム、学習モデル生成装置、及び推定装置
JP6204669B2 (ja) ロバストに非均一モーションブラーを推定する方法及び装置
CN111914598A (zh) 连续帧人脸关键点检测方法、装置、设备及存储介质
JP2011186780A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6713422B2 (ja) 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム
JP2010146522A (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
CN109153332A (zh) 车辆用户接口的手语输入
US20230171500A1 (en) Imaging system, imaging method, and computer program
WO2014112407A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
US11769349B2 (en) Information processing system, data accumulation apparatus, data generation apparatus, information processing method, data accumulation method, data generation method, recording medium and database
CN114078141A (zh) 用于控制对象跟踪的设备及其方法
JP2022185872A5 (ja)
CN111013152A (zh) 游戏模型动作的生成方法、装置及电子终端
JP2014116033A (ja) 個人認証装置及び個人認証方法、カメラ、プログラム並びに記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240429

R150 Certificate of patent or registration of utility model

Ref document number: 7491465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150