JP2021144749A - 人物照合装置、方法、及びプログラム - Google Patents

人物照合装置、方法、及びプログラム Download PDF

Info

Publication number
JP2021144749A
JP2021144749A JP2021097037A JP2021097037A JP2021144749A JP 2021144749 A JP2021144749 A JP 2021144749A JP 2021097037 A JP2021097037 A JP 2021097037A JP 2021097037 A JP2021097037 A JP 2021097037A JP 2021144749 A JP2021144749 A JP 2021144749A
Authority
JP
Japan
Prior art keywords
person
image
feature
weight
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021097037A
Other languages
English (en)
Inventor
雄太 工藤
Yuta Kudo
雄太 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2021144749A publication Critical patent/JP2021144749A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人物の照合において、画像中の様々な態様をとり得る人物同士を、事前に人手で定義づけしなくても照合可能とする。【解決手段】重み推定手段(11)は、人物が含まれる人物画像から、人物の人体部位の存在確率に応じて重みを推定する。特徴生成手段(12)は、人物画像と重み推定手段(11)が推定した重みとに基づいて、照合用の特徴を生成する。照合特徴記憶手段(13)は、照合対象の人物の特徴を照合特徴として記憶する。人物照合手段(14)は、特徴生成手段(12)が生成した照合用の特徴と、照合特徴記憶手段(13)に記憶された照合特徴とを比較する。【選択図】図1

Description

本開示は、人物照合装置、方法、及び非一時的なコンピュータ可読媒体に関し、更に詳しくは、画像に含まれる人物が登録された人物であるか否かを照合する人物照合装置、方法、及び非一時的なコンピュータ可読媒体に関する。
異なる映像(画像)中の人物同士が同一人物か否かを判定するシステムにおいて、色特徴やテクスチャ特徴を用いて人物を照合する技術が知られている。例えば、特許文献1には、各人物の服領域を切り出し、上半身と下半身のテクスチャ特徴と色特徴とを用いて人物を照合する技術が開示されている。また、特許文献2には、分割した人物領域に対して、正面、側面、及び背面の3パターンの人物の向きに応じた各領域の重みを事前に定義し、照合時に特徴の重み付けを行うことで向きの異なる人物同士を照合する技術が開示されている。
さらに、特許文献3には、人物の認証に用いることができる特徴点抽出装置が開示されている。特許文献3では、例えば顔などの対象物の特徴点の統計的な位置関係を表す形状モデルが用いられる。形状モデルは、特徴点の平均的な位置を示す平均位置ベクトルと特徴点位置の統計的なばらつきを示す固有ベクトル行列とからなる。特許文献3に記載の特徴点抽出装置は、入力画像に応じて特徴点に重みを設定する。特徴点抽出装置は、対象物の検出において検出されなかった構成要素に属する特徴点に対する重みを小さく設定し、検出された構成要素に属する特徴点に対する重みを大きく設定する。特徴点抽出装置は、入力画像の特徴点に対する候補位置を探索し、特徴点に対する重みに応じて、特徴点に対する候補位置を形状モデルに射影する。
特開2013−186546号公報 特開2017−62633号公報 特開2011−232845号公報
特許文献1に記載の照合技術では、人物の向きが異なると、特徴が変化するため、誤った照合結果が出力される可能性がある。これに対し、特許文献2では、人物の向きに応じた各領域の重みを事前に定義し、照合時に特徴の重み付けを行うことで向きの異なる人物同士を照合することが可能である。しかしながら、特許文献2では、事前に各向きでの重みを定義する必要があり、定義されていない方向の向きには対応できない。特許文献2において現実にあり得る向きを全て定義する場合、膨大な量の定義づけ作業を行う必要があるという問題が生じる。
また、特許文献1及び特許文献2では、人物が遮蔽されることは考慮されていない。この点に関し、特許文献3では、対象物の検出において検出されなかった構成要素に属する特徴点に対する重みが小さく設定され、検出された構成要素に属する特徴点に対する重みが大きく設定される。このようにすることで、遮蔽されていない特徴点を用いた人物の認証などが可能である。しかしながら、特許文献3において、向きや姿勢が異なる様々な態様の対象物から特徴点を抽出するためには、様々な態様に対応した形状モデルをあらかじめ定義しておく必要がある。従って、特許文献3においても、事前に定義された対象物の向きや姿勢にしか対応できず、定義されていない態様には対応できない。
本開示は、上記事情に鑑み、画像中の様々な態様をとり得る人物同士を、事前に人手で定義づけしなくても照合することができる人物照合装置、方法、及び非一時的なコンピュータ可読媒体を提供することを目的の1つとする。
上記課題を解決するために、本開示は、人物が含まれる人物画像から、前記人物の人体部位の存在確率に応じて重みを推定する重み推定手段と、前記人物画像と前記推定された重みとに基づいて、照合用の特徴を生成する特徴生成手段と、前記生成された照合用の特徴と、照合特徴記憶手段に記憶された照合特徴とを比較する人物照合手段とを備える人物照合装置を提供する。
また、本開示は、人物が含まれる人物画像から、前記人物の人体部位の存在確率に応じて重みを推定し、前記人物画像と前記推定された重みとに基づいて、照合用の特徴を生成し、前記生成された照合用の特徴と、照合特徴記憶手段に記憶された照合特徴とを比較し、前記比較の結果を出力する人物照合方法を提供する。
本開示は、コンピュータに、人物が含まれる人物画像から、前記人物の人体部位の存在確率に応じて重みを推定する処理と、前記人物画像と前記推定された重みとに基づいて、照合用の特徴を生成する処理と、前記生成された照合用の特徴と、照合特徴記憶手段に記憶された照合特徴とを比較する処理と、前記比較の結果を出力する処理とを実行させるための非一時的なコンピュータ可読媒体を提供する。
本開示の人物照合装置、方法、及び非一時的なコンピュータ可読媒体は、事前に人手で定義づけしなくても、態様が異なる照合対象の人物同士を照合することができる。
本開示の概略的な人物照合装置を示すブロック図。 第1実施形態に係る人物照合装置と特徴学習装置とを示すブロック図。 人物照合装置の構成例を示すブロック図。 特徴学習装置の構成例を示すブロック図。 特徴学習装置における動作手順を示すフローチャート。 重み画像の生成の動作手順を示すフローチャート。 畳み込みニューラルネットワークの一例を示すブロック図。 人物照合装置における動作手順を示すフローチャート。 第2実施形態に係る人物照合装置を示すブロック図。 第2実施形態に係る人物照合装置の動作手順を示すフローチャート。
実施の形態の説明に先立って、本開示の概要を説明する。図1は、本開示の概略的な人物照合装置を示す。人物照合装置10は、重み推定手段11、特徴生成手段12、照合特徴記憶手段13、及び人物照合手段14を備える。
重み推定手段11は、人物が含まれる人物画像から、人物の人体部位の存在確率に応じて重みを推定する。特徴生成手段12は、人物画像と重み推定手段11が推定した重みとに基づいて、照合用の特徴を生成する。照合特徴記憶手段13は、照合対象の人物の特徴を照合特徴として記憶する。人物照合手段14は、特徴生成手段12が生成した照合用の特徴と、照合特徴記憶手段13に記憶された照合特徴とを比較する。なお、照合特徴記憶手段13は、人物照合手段14から参照可能であればよく、必ずしも人物照合装置10の一部である必要はない。
本開示に係る人物照合装置10において、重み推定手段11は、人物の人体部位の存在確率に応じた重みを推定する。特徴生成手段12は、推定された重みを用いて、照合用の特徴を抽出する。本開示では、人体部位の存在確率に応じた重みを用いて特徴を抽出しており、特徴生成手段12は、例えば人体部位の存在確率が高い部分に基づく特徴を照合用の特徴として生成することができる。このように生成された特徴を用いて照合を行うことで、画像中の様々な態様をとり得る人物同士を、事前に人手で定義づけしなくても照合することができる。
以下、図面を参照しつつ、実施の形態を説明する。図2は、第1実施形態に係る人物照合装置と特徴学習装置とを示す。人物照合装置100は、カメラなどを用いて撮影された映像(画像)に含まれる人物と、あらかじめ登録された人物とを、画像から抽出された特徴を用いて照合する。人物照合装置100は、図1の人物照合装置10に対応する。特徴学習装置200は、人物照合装置100における人物の照合において特徴抽出に用いられるモデルを学習する。特徴学習装置200は、例えば、特徴抽出に用いられる畳み込みニューラルネットワークを学習する。
人物照合装置100及び特徴学習装置200は、例えばプロセッサとメモリとを有し、プロセッサがメモリから読み出したプログラムに従って動作するコンピュータ装置を含む。なお、人物照合装置100と特徴学習装置200とは、必ずしも物理的に分離された装置である必要はない。例えば同じコンピュータ装置を、人物照合装置100及び特徴学習装置200として用いてもよい。
図3は、人物照合装置100を示す。人物照合装置100は、入力部101、人物画像切り出し部110、重み推定部120、特徴生成部130、照合特徴データベース140、人物照合部150、及び出力部160を有する。人物照合装置100において、人物画像切り出し部110、重み推定部120、特徴生成部130、及び人物照合部150の機能の少なくとも一部は、プロセッサがプログラムに従って動作することで実現されてもよい。照合特徴データベース140は、例えばハードディスク装置などの補助記憶装置を用いて構成される。
入力部101は、カメラなどの外部の入力装置から、照合対象の人物が含まれた画像を受け取る。人物画像切り出し部110は、入力された画像から、人物が存在する人物領域を切り出す。人物画像切り出し部110は、例えば、人物領域を切り出した画像に対して拡大又は縮小処理やゼロ埋め処理などを行い、人物領域の画像を、その縦横比を維持したまま所定のサイズの画像に変換する。人物画像切り出し部110は、例えば公知の手法を用いて人物領域の切り出しを行う。人物画像切り出し部110は、例えばHOG(Histogram of Oriented Gradients)を用いた手法、或いは背景差分を用いた手法などを用いて、人物領域を切り出す。
重み推定部120は、人物画像切り出し部110が切り出した人物領域画像(人物画像)から重み画像を生成する。重み推定部120は、図1の重み推定手段11に対応する。
重み推定部120は、部位存在確率推定部121と重み画像生成部122とを有する。部位存在確率推定部121は、入力された人物領域画像の各画素について、特定の人体部位が存在する確率を推定する。ここで、「特定の人体部位」とは、画像上から位置が推測可能な人体の部位を意味する。特定の人体部位は、例えば手首や鼻などの、点で表現できる部位を含む。また、特定の人体部位は、例えば腕や胸などの面で表現できる部位を含む。
部位存在確率推定部121は、例えば公知の手法を用いて特定の人体部位が存在する確率を推定する。人体部位の存在確率の推定には、例えば畳み込みニューラルネットワークに基づく手法やHOGを用いた手法を用いることができる。畳み込みニューラルネットワークに基づく手法は、例えば「Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields」(Zhe Caoら、CVPR2017)に記載されている。例えば、部位存在確率推定部121は、Jを所定の正の整数として、J個の人体部位について、各画素に人体部位が存在する確率を推定する。
重み画像生成部122は、部位存在確率推定部121が推定した存在確率を用いて、重み画像を生成する。重み画像の各画素の画素値(重み)は、各画素の重要度を示す。重み画像生成部122は、例えば存在確率を推定した人体部位のそれぞれについて重み画像を生成する。重み画像生成部122は、例えばJ個の人体部位について存在確率が推定された場合は、J個の重み画像を生成する。重み画像生成部122は、例えば、人体部位ごとに推定された存在確率に、人体部位全体の存在確率に基づく正規化処理を行い、各画素の重みを算出する。正規化処理を行うことで、画像の取得に用いられたカメラの違いや周辺環境の違いからくる存在確率の推定誤差の影響を抑制することができる。重み画像生成部122は、人体部位の存在確率(重み)に対してしきい値処理を行い、存在確率が所定のしきい値以下の場合は、重みを0にしてもよい。
特徴生成部130は、人物画像切り出し部110が切り出した人物領域画像と、重み画像生成部122が生成した重み画像とに基づいて、照合に用いられる特徴を生成する。特徴生成部130は、図1の特徴生成手段12に対応する。
特徴生成部130は、画像統合部131と特徴抽出部132とを有する。画像統合部131は、人物領域画像と人体部位ごとの重み画像とをチャンネル方向で結合(統合)する。特徴抽出部132は、画像統合部131が統合した画像を入力として、特徴学習装置200(図2を参照)を用いて学習された畳み込みニューラルネットワークを用いて人物の照合に用いられる特徴を生成する。
照合特徴データベース140は、照合対象の人物の特徴(照合特徴)を記憶する。照合特徴は、例えば事前に用意された人物画像、及び、その人物画像に基づいて生成された重み画像を、特徴学習装置200を用いて学習された畳み込みニューラルネットワークに適用することで生成される。照合特徴データベース140は、図1の照合特徴記憶手段13に対応する。
人物照合部150は、特徴生成部130が生成した特徴と、照合特徴データベース140が記憶する照合特徴とを比較する。出力部160は、人物照合部150の比較結果を出力する。出力部160は、例えばディスプレイ装置や音響装置、或いはランプなどを用いて、人物画像切り出し部110が切り出した人物領域画像に含まれる人物が照合対象の人物に一致するか否かを示す比較結果を出力する。人物照合部150は、図1の人物照合手段14に対応する。
図4は、特徴学習装置200を示す。特徴学習装置200は、重み推定部210、特徴学習部220、及び訓練画像データベース230を有する。特徴学習装置200において、重み推定部210及び特徴学習装置200の機能の少なくとも一部は、プロセッサがプログラムに従って動作することで実現されてもよい。訓練画像データベース230は、例えばハードディスク装置などの補助記憶装置を用いて構成される。
訓練画像データベース230は、畳み込みニューラルネットワークの学習に用いられる複数の訓練画像(教師データ)を記憶する。訓練画像データベース230は、例えば、人物が含まれる訓練画像と、その訓練画像に含まれる人物を特定できるラベルとを対応付けて記憶する。ラベルには、例えばID(Identifier)や名前などが用いられる。訓練画像は、例えば人物の画像に対して適切な拡大又は縮小処理や、ゼロ埋め処理などが事前に施されることで、画像サイズが同じサイズに揃えられている。訓練画像のサイズは、例えば、人物照合装置100の人物画像切り出し部110が生成する人物領域画像のサイズと等しい。
重み推定部210は、訓練画像データベース230が記憶する複数の訓練画像のそれぞれについて、重み画像を生成する。重み推定部210は、部位存在確率推定部211と重み画像生成部212とを有する。部位存在確率推定部211は、訓練画像の各画素について、特定の人体部位が存在する確率を推定する。部位存在確率推定部211が実施する人体部位の存在確率の推定は、図3に示される人物照合装置100の部位存在確率推定部121が実施する人体部位の存在確率の推定と同様でよい。
重み画像生成部212は、部位存在確率推定部211が推定した存在確率を用いて、重み画像を生成する。重み画像生成部212は、例えば存在確率を推定した人体部位のそれぞれについて重み画像を生成する。重み画像生成部212が実施する重み画像の生成は、人物照合装置100の重み画像生成部122が実施する重み画像の生成と同様でよい。
特徴学習部220は、複数の訓練画像及びそのラベルと、各訓練画像から生成された重み画像とを用いて、畳み込みニューラルネットワークを学習する。特徴学習部220は、画像統合部221と学習部222とを有する。画像統合部221は、訓練画像と重み画像とを、チャンネル方向で結合する。学習部222は、画像統合部221で統合された画像を用いて、畳み込みニューラルネットワークを学習する。より詳細には、学習部222は、画像統合部221から受け取った画像を入力として、出力がその画像(訓練画像)に付与されているラベルに近づくように、畳み込みニューラルネットワークを学習する。
図5は、特徴学習装置200における動作手順を示す。重み推定部210及び特徴学習部220は、訓練画像データベース230から訓練画像を取得する(ステップA1)。特徴学習部220は、ステップA1では、訓練画像に対応するラベルも取得する。重み推定部210は、訓練画像データベース230から取得した画像から、画像に含まれる人物の各部位の重み画像を生成する(ステップA2)。重み推定部210は、生成した重み画像を特徴学習部220に出力する。
図6は、重み画像の生成の動作手順を示す。重み推定部210において、部位存在確率推定部211は、既存の部位推定技術を用いて、入力された画像の各画素における人体部位の存在確率を算出する(ステップB1)。部位存在確率推定部211は、ステップB1では、例えば畳み込みニューラルネットワークを用いた手法やHOGを用いた手法を用いて、人体部位ごとに、各画素における人体部位の存在確率を算出する。部位存在確率推定部211は、算出した存在確率を重み画像生成部212に出力する。
重み画像生成部212は、部位存在確率推定部211から取得した人体部位ごとの存在確率を重みに変換する(ステップB2)。重み画像生成部212は、ステップB2では、例えば下記式を用いて、人体部位の存在確率を重みに変換する。
Figure 2021144749
上記式1において、pjxyは、jを1からJまでの整数として、入力画像(訓練画像)の画素(x,y)における人体部位jの存在確率を表し、wjxyは、位置(x,y)における人体部位jの重みを表す。また、max(P)は全ての人体部位の存在確率の最大値を表し、min(P)は全ての人体部位の存在確率の最小値を表す。
重み画像生成部212は、ステップB2で変換した重みに対してしきい値処理を適用する(ステップB3)。重み画像生成部212は、ステップB3では、例えば重みwjxyと所定のしきい値とを比較し、重みwjxyがしきい値以下であればwjxyの値を0にする。その後、重み画像生成部212は、重みwjxyが所定ビット数となるように量子化を行うことで、重み画像を生成する(ステップB4)。重み画像生成部212は、ステップB4では、例えば、重みwjxyが訓練画像の画素値と同じビット数になるように重みを量子化することで、重みwjxyを重み画像の位置(x,y)の画素値に変換する。
図5に戻り、特徴学習部220の画像統合部221は、ステップA1で取得された訓練画像と、ステップA2で生成された重み画像とをチャンネル方向に結合する(ステップA3)。学習部222は、ステップA3で結合された訓練画像及び重み画像を畳み込みニューラルネットワークに適用する。学習部222は、訓練画像のラベルを用いて畳み込みニューラルネットワークのパラメータを更新することで、畳み込みニューラルネットワークを学習する(ステップA4)。特徴学習部220は、複数の訓練画像に対してステップA1からステップA4を繰り返し実施し、人物の識別が可能な畳み込みニューラルネットワークを学習する。
図7は、畳み込みニューラルネットワークの一例を示す。畳み込みニューラルネットワーク300は、入力層301、中間層302、及び出力層303を有する。入力層301は複数のノード310を含み、中間層302及び出力層303は、それぞれ複数のノード311を含む。また、中間層302は、それぞれが複数のノード311から成る複数の層を有する。
ノード310及びノード311は、畳み込みニューラルネットワークにおいて実施される処理を表している。例えば入力層301に含まれるノード310は、チャンネル方向に結合された訓練画像及び重み画像を入力する処理を表す。中間層302及び出力層303に含まれるノード311は、入力された値に対してある演算を実行する処理を表す。ノード間を接続するエッジ312は、ノードの出力値に対して重みを乗算する処理を表す。
なお、図7に示される畳み込みニューラルネットワーク300は、概念的に示される一例に過ぎず、学習部222で学習される畳み込みニューラルネットワークは、図7に示したものには限定されない。例えば学習される畳み込みニューラルネットワークの中間層302は、図7に示される畳み込みニューラルネットワーク300の中間層302よりも多くのノード及び層を含んでいてもよい。
学習部222は、ステップA4では、例えば入力層301にチャンネル方向に結合された訓練画像及び重み画像を入力した場合の出力層303の出力値と訓練画像のラベルとの差を用い、誤差伝搬法などを使用して、エッジ312の重みを学習する。例えば、様々な姿勢の人物の画像を訓練画像として用いることで、様々な姿勢の人物を識別するための畳み込みニューラルネットワークを学習することができる。
続いて、人物照合装置100の動作手順を説明する。図8は、人物照合装置100の動作手順を示す。入力部101は、カメラなどの入力装置から、対象人物を含む画像を取得する(ステップC1)。人物画像切り出し部110は、ステップC1で取得された画像から人物領域を切り出する(ステップC2)。人物画像切り出し部110は、ステップC2では、例えば既存の人物位置検出技術を用いて人物矩形を検出し、矩形内の画像を切り出す。
人物画像切り出し部110は、ステップC2で切り出した画像に対して、画像のサイズや形状を所定のサイズ及び形状にするための画像サイズ正規化処理を行い、人物領域画像を生成する(ステップC3)。人物画像切り出し部110は、ステップC3では、例えば切り出された画像を、縦横の長さが等しい正方形の画像に変換する。例えば、人物画像切り出し部110は、まず、切り出した画像を、長辺の長さが256などの一定の長さになるように拡大又は縮小する。人物画像切り出し部110は、次いで、切り出した画像の短辺の長さが一定の長さになるように画素値0で埋め、正方形状の人物領域画像を生成する。
重み推定部120は、人物画像切り出し部110からステップC3で生成された人物領域画像を取得する。重み推定部120は、取得した人物領域画像から重み画像を生成する(ステップC4)。重み推定部120が行う重み画像の生成は、重み画像の生成元の画像が訓練画像から人物領域画像に変わる点を除けば、図6を用いて説明した特徴学習装置200の重み推定部210における重み画像の生成と同様でよい。重み推定部120は、ステップC4では、例えば複数の人体部位について、人物領域画像における人体部位の存在確率に基づいた重み画像を生成する。
特徴生成部130は、人物画像切り出し部110からステップC3で生成された人物領域画像を取得し、重み推定部120からステップC4で生成された重み画像を取得する。特徴生成部130の画像統合部131は、取得された人物領域画像と重み画像とをチャンネル方向に結合する(ステップC5)。結合された画像のチャンネル数は、例えば、人物領域画像がカラー画像であり、かつ重み推定部120がJ個の重み画像を生成した場合は、3+Jとなる。
特徴抽出部132は、画像統合部131から入力される、ステップC5でチャンネル方向に結合された人物領域画像と重み画像とを、学習済みの畳み込みニューラルネットワークに適用する(ステップC6)。特徴抽出部132は、ステップC6では、特徴学習装置200を用いて図5に示される手順で学習された畳み込みニューラルネットワークに人物領域画像及び重み画像を入力する。
特徴抽出部132は、畳み込みニューラルネットワークの中間特徴を、照合用の特徴として抽出する(ステップC7)。特徴抽出部132は、ステップC7では、畳み込みニューラルネットワークの中間層302(図7を参照)に含まれるある層の各ノードの出力値を照合用の特徴として抽出する。特徴抽出部132は、例えば中間層302の最終段、つまり出力層303の1つ前の層の各ノードの出力値を、照合用の特徴として抽出する。
人物照合部150は、ステップC7で抽出された特徴と、照合特徴データベース140に記憶された照合特徴とを比較する(ステップC8)。人物照合部150は、ステップC8では、例えば照合特徴データベース140に記憶される照合特徴を1つずつ選択し、選択した照合特徴とステップC7で抽出された照合用の特徴とを比較する。
人物照合部150は、例えば、比較対象の2つの特徴について、ユークリッド距離などの距離、及びコサイン類似度などの類似度(角度)の少なくとも一方を計算する。人物照合部150は、例えばステップC7で抽出された照合用の特徴と照合特徴との間のユークリッド距離が所定のしきい値以下である場合は、特徴が一致すると判定する。また、人物照合部150は、ステップC7で抽出された照合用の特徴と照合特徴との間のコサイン類似度が所定の類似度以上の場合は、特徴が一致すると判定する。
人物照合部150は、ステップC7で抽出された照合用の特徴が何れかの照合特徴に一致すると判定すると、一致した照合特徴の人物を識別する情報を、比較結果として出力部160に通知する。人物照合部150は、ステップC7で抽出された照合用の特徴が何れの照合特徴にも一致しないと判定した場合は、その旨を出力部160に通知する。出力部160は、人物照合部150の比較結果(照合結果)を外部に出力する。出力部160は、例えばディスプレイ装置に、ステップC2で切り出された人物領域の画像と、人物を識別する情報とを表示する。
本実施形態では、重み推定部120は、人体部位の存在確率に基づいて重み画像を生成する。人物領域画像において、特定の人体部位が存在する部分は人物照合の際の特徴抽出に重要な部分であり、重み推定部120が生成する重み画像は、照合処理で注目すべき画像上の位置とその重要度とを示す。特徴生成部130は、人物領域画像と重み画像とをチャネル方向に結合して畳み込みニューラルネットワークに適用し、畳み込みニューラルネットワークの中間特徴を照合用の特徴として抽出する。
畳み込みニューラルネットワークの畳み込み処理は、各チャンネルで畳み込んだ結果を総和して次の層に出力するため、重み画像の画素値(重み)が大きい画素の人物領域画像の画素値は、以降の層での影響が大きくなる。本実施形態では、人体部位の存在確率から生成される重み画像を手がかりとして人物領域画像から特徴を抽出することで、人体部位に注目した照合に有効な特徴を抽出することができる。人物照合装置100は、そのような特徴を用いて照合を行うことで、画像撮影時の俯角、人物の向き、姿勢、及び遮蔽状況などに依存せずに、正確な照合を行うことができる。
ここで、特許文献2では、向きの異なる人物を照合するためには、人物の向きに応じた各領域の重みを事前に定義しておく必要があった。また、特許文献3では、向きや姿勢が異なる様々な態様の対象物から特徴点を抽出するためには、様々な態様に対応した形状モデルをあらかじめ定義しておく必要があった。これに対し、本願発明では、訓練画像と重み画像とを用いて畳み込みニューラルネットワークを学習し、学習した畳み込みニューラルネットワークに人物領域画像と重み画像とを適用して特徴を抽出している。このため、人物照合装置10は、画像中の様々な態様の人物同士を、事前に人手で定義づけしなくても、人物の照合を行うことができる。
また、特許文献1及び特許文献2では、人物が遮蔽され、或いは立位以外の姿勢を取ることは考慮されておらず、実際の環境では正確な照合ができない可能性がある。例えば、これら特許文献においてある人物の照合を行う場合に、その人物と異なる人物が前にいると、異なる人物が対象の人物を遮蔽する可能性がある。その場合、遮蔽している人物が対象の人物の一部として分割されると、結果として誤った照合結果が得られることがある。これに対し、本実施形態では、人体部位の存在確率に応じた特徴に基づいて人物照合が行われるため、実際の環境においても正しい照合結果を得ることが可能である。
続いて、第2実施形態を説明する。図9は、第2実施形態に係る人物照合装置を示す。本実施形態に係る人物照合装置100aは、特徴生成部130aの構成が、図3に示す第1実施形態に係る人物照合装置100と相違する。本実施形態において、特徴生成部130aは、画像特徴抽出部133と重み適用部134とを有する。本実施形態において、特徴生成部130aは、重み画像の情報を、抽出した照合用の特徴に対するマスクとして適用する。その他の点は、第1実施形態と同様でよい。
画像特徴抽出部133は、人物領域画像から所定の画像特徴を計算する。画像特徴抽出部133は、例えば、色ヒストグラム特徴、勾配ヒストグラム特徴、及びそれらを組み合わせたものなど、画像内の特徴を頻度で表現した特徴を、所定の画像特徴として計算する。画像特徴抽出部133は、例えば、Nを2以上の整数として、人物領域画像の各画素を、色又は勾配などに応じてN個の区間(ビン)に分類した画像特徴を計算する。
重み適用部134は、画像特徴抽出部133で計算された画像特徴の頻度に対して、各人体部位の重み画像に基づいて重み付けした特徴を算出する。重み適用部134は、例えば、nを1からNまでの整数として、下記式を用いて、人体部位jの重み画像を用いて重み付けされた特徴のn番目のビンの値bjnを算出する。
Figure 2021144749
上記式2において、wjxyは、人体部位jの画素(x,y)における重みを表す。εnxyは、人物領域画像の画素(x,y)がn番目のビンに投票されているか否かを示す。εnxyの値は、画素がn番目のビンに投票されている場合は1で、それ以外の場合は0である。
重み適用部134は、各人体部位の重み画像に基づいて重み付けした特徴に基づいて照合用の特徴を生成する。重み適用部134は、例えば各人体部位の重み画像に基づいて重み付けした特徴をつなぎ合わせることで、照合用の特徴を生成する。その際、重み適用部134は、各人体部位の重み画像に基づいて重み付けした特徴に、人体部位ごとに定義した係数を乗算してつなぎ合わせることで、照合用の特徴を生成してもよい。あるいは、重み適用部134は、各人体部位の重み画像に基づいて重み付けした特徴の最大値を取ることで、又は平均値を取ることで、照合用の特徴を生成してもよい。
図10は、本実施形態に係る人物照合装置100aの動作手順を示す。入力部101は、カメラなどの入力装置から、対象人物を含む画像を取得する(ステップD1)。人物画像切り出し部110は、ステップD1で取得された画像から人物領域を切り出する(ステップD2)。人物画像切り出し部110は、ステップD2で切り出した画像に対して、画像のサイズや形状を所定のサイズ及び形状にするための画像サイズ正規化処理を行い、人物領域画像を生成する(ステップD3)。重み推定部120は、人物画像切り出し部110からステップD3で生成された人物領域画像から重み画像を生成する(ステップD4)。ステップD1からD4は、図8のステップC1からC4と同様でよい。
特徴生成部130の画像特徴抽出部133は、ステップD3で生成された人物領域画像から、照合のための画像特徴を抽出する(ステップD5)。画像特徴抽出部133は、ステップD4では、例えば色ヒストグラムや勾配ヒストグラムなどの、各画素から算出した値を頻度で表現することで得られる特徴を、画像特徴として抽出する。重み適用部134は、ステップD4で生成された重み画像を用いて、ステップD5で抽出された画像特徴に対する重み付けを行う(ステップD6)。重み適用部134は、例えば上記式2を用いて、人体部位1からJについて、各人体部位の重み画像を用いて重み付けされる特徴のn番目のビンの値bjnを算出する。
重み適用部134は、重み付けされた画像特徴を人体部位ごとに統合することで、照合用の特徴を生成する(ステップD7)。重み適用部134は、例えばステップD6で算出された、人体部位1からJの重み画像を用いて重み付けされるn番目のビンの値b1n〜bJnを1次元ベクトルとしてつなぎ合わせた特徴を、照合用の特徴として生成する。その場合、照合用の特徴の次元数は、画像特徴抽出部133が抽出した画像特徴の次元数のJ倍となる。
本実施形態では、照合特徴データベース140は、特徴生成部130aが照合用の特徴を生成する手順と同様な手順で生成された特徴を照合特徴として記憶する。人物照合部150は、ステップD7で抽出された特徴と、照合特徴データベース140に記憶された照合特徴とを比較する(ステップD8)。人物照合部150は、例えばステップD7で抽出された照合用の特徴と照合特徴との間のユークリッド距離が所定のしきい値以下である場合は、特徴が一致すると判定する。また、人物照合部150は、ステップD7で抽出された照合用の特徴と照合特徴との間のコサイン類似度が所定の類似度以上の場合は、特徴が一致すると判定する。出力部160は、人物照合部150の比較結果(照合結果)を外部に出力する。ステップD8は、照合される特徴が重み画像を用いて重み付けされた画像特徴となる点を除けば、図8のステップC8で同様でよい。
本実施形態では、特徴生成部130aは、人体部位の存在確率に基づいて生成された重み画像を用いて、画像内の特徴を頻度で表現した画像特徴を重み付けする。本実施形態では、人体部位の存在確率から生成される重み画像を手がかりとして人物領域画から抽出される画像特徴を重み付けすることで、人体部位に由来する成分が多く含まれる画像特徴を生成することができる。人物照合装置100aは、そのような画像特徴を用いて人物の照合を行うことで、第1実施形態と同様に、画像撮影時の俯角、人物の向き、姿勢、及び遮蔽状況などに依存せずに、正確な照合を行うことができる。その他の効果も第1実施形態と同様である。
なお、第1実施形態において、照合特徴データベース140に記憶される照合特徴は、事前に用意された人物画像に基づいて生成されることを説明したが、これには限定されない。例えば、人物照合装置100のオペレータなどが、ある時刻で人物画像切り出し部110が生成した人物領域画像の人物を、以後の時刻における照合対象として登録する旨を指示した場合、その人物の照合特徴を照合特徴データベース140に登録してもよい。具体的には、特徴生成部130が、その人物の人物領域画像、及び人物領域画像から生成される重み画像に基づいて生成した照合用の特徴を、照合特徴データベース140に登録し、登録された照合特徴を以降の照合に使用してもよい。第2実施形態についても同様に、特徴生成部130aが生成した照合用の特徴を、照合特徴データベース140に登録してもよい。
また、第1実施形態では、特徴生成部130が、特徴学習装置200(図4を参照)を用いて学習された畳み込みニューラルネットワークから照合用の特徴を抽出する例について説明したが、これには限定されない。例えば、特徴学習装置200において、畳み込みニューラルネットワークとは異なる、人物の識別が可能な他のモデルを学習し、特徴生成部130が、そのモデルを用いて照合用の特徴を生成することとしてもよい。
上記各実施形態において、コンピュータを人物照合装置100及び/又は特徴学習装置200として動作させるプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
例えば、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
人物が含まれる人物画像から、前記人物の人体部位の存在確率に応じて重みを推定する重み推定手段と、
前記人物画像と前記推定された重みとに基づいて、照合用の特徴を生成する特徴生成手段と、
前記生成された照合用の特徴と、照合特徴記憶手段に記憶された照合特徴とを比較する人物照合手段とを備える人物照合装置。
[付記2]
前記重み推定手段は、
前記人物画像の各画素に対し、前記人体部位の存在確率を推定する部位存在確率推定手段と、
前記推定された存在確率に基づいて、前記重みを表す重み画像を生成する重み画像生成手段と有する付記1に記載の人物照合装置。
[付記3]
前記部位存在確率推定手段は、複数の人体部位のそれぞれについて前記人体部位の存在確率を推定し、前記重み画像生成手段は、複数の人体部位のそれぞれに対して前記重み画像を生成する付記2に記載の人物照合装置。
[付記4]
前記重み画像生成手段は、前記複数の人体部位の存在確率の最大値と最小値とを用いて、各人体部位について推定された存在確率を正規化し、該正規化した存在確率に基づいて前記重み画像を生成する付記3に記載の人物照合装置。
[付記5]
前記重み画像生成手段は、Jを前記人体部位の存在確率を推定する人体部位の数、jを1からJまでの整数、x及びyを前記人物画像における画素の位置、max(P)を前記複数の人体部位の存在確率の最大値、min(P)を前記複数の人体部位の存在確率の最小値として、j番目の人体部位の画像中の位置(x,y)における重みwjxyを、下記式、
Figure 2021144749
を用いて算出する付記3又は4に記載の人物照合装置。
[付記6]
前記特徴生成手段は、前記人物画像及び前記重み画像を畳み込みニューラルネットワークに適用し、前記照合用の特徴を生成する付記2から5何れか1つに記載の人物照合装置。
[付記7]
前記特徴生成手段は、前記畳み込みニューラルネットワークの中間特徴を、前記照合用の特徴として抽出する付記6に記載の人物照合装置。
[付記8]
前記畳み込みニューラルネットワークは、それぞれが複数のノードを含む入力層、中間層、及び出力層を有し、
前記特徴生成手段は、前記出力層の1つ前の層の各ノードの出力値を前記照合用の特徴として抽出する付記6又は7に記載の人物照合装置。
[付記9]
前記畳み込みニューラルネットワークは学習装置で学習される付記6から8何れか1つに記載の人物照合装置。
[付記10]
前記学習装置は、含まれる人物を示すラベルが付与された訓練画像と、該訓練画像から生成された前記重み画像とを前記畳み込みニューラルネットワークに適用し、該畳み込みニューラルネットワークの出力が前記ラベルとなるように前記畳み込みニューラルネットワークを学習する付記9に記載の人物照合装置。
[付記11]
前記特徴生成手段は、前記人物画像から抽出された画像特徴を前記重み画像を用いて重み付けした特徴を、前記照合用の特徴として抽出する付記2から5何れか1つに記載の人物照合装置。
[付記12]
前記特徴生成手段は、
前記人物画像から前記画像特徴を抽出する画像特徴抽出手段と、
前記画像特徴抽出手段が抽出した画像特徴に前記重み画像の重みを適用し、前記照合用の特徴を生成する重み適用手段とを有する付記11に記載の人物照合装置。
[付記13]
前記画像特徴抽出手段は、前記人物画像の各画素から算出した値を頻度で表現することで得られる特徴を前記画像特徴として抽出する付記12に記載の人物照合装置。
[付記14]
前記画像特徴抽出手段は、色ヒストグラム特徴、勾配ヒストグラム特徴、及び、色ヒストグラム特徴と勾配ヒストグラム特徴とを組み合わせた特徴の少なくとも1つを前記画像特徴として抽出する付記13に記載の人物照合装置。
[付記15]
前記画像特徴抽出手段は、Nを2以上の整数として、前記人物画像の各画素をN個のビンに分類することで画像特徴を抽出し、
前記重み適用手段は、Jを前記人体部位の存在確率を推定する人体部位の数、jを1からJまでの整数、x及びyを前記人物画像における画素の位置、nを1からNまでの整数、wjxyを、人体部位jの画素(x,y)における重み、εnxyは、人物領域画像の画素(x,y)がn番目のビンに投票されている場合は1で、n番目のビンに投票されていない場合は0となる値として、人体部位jの重み画像を用いて重み付けされたn番目のビンの値bjnを、下記式、
Figure 2021144749
を用いて算出する付記13又は14に記載の人物照合装置。
[付記16]
前記重み適用手段は、人体部位1からJの重み画像を用いて重み付けされたn番目のビンの値b1nからbJnを統合することで、前記照合用の特徴を生成する付記15に記載の人物照合装置。
[付記17]
前記重み適用手段は、前記n番目のビンの値b1nからbJnを1次元ベクトルとしてつなぎ合わせ、前記n番目のビンの値b1nからbJnの最大値若しくは最小値を取り、又は、前記n番目のビンの値b1nからbJnを人体部位jに応じた係数を用いてつなぎ合わせることで、前記n番目のビンの値b1nからbJnを統合する付記16に記載の人物照合装置。
[付記18]
人物が含まれる人物画像から、前記人物の人体部位の存在確率に応じて重みを推定し、
前記人物画像と前記推定された重みとに基づいて、照合用の特徴を生成し、
前記生成された照合用の特徴と、照合特徴記憶手段に記憶された照合特徴とを比較し、
前記比較の結果を出力する人物照合方法。
[付記19]
前記重み推定の推定では、
前記人物画像の各画素に対して前記人体部位の存在確率を推定し、
前記推定された存在確率に基づいて、前記重みを表す重み画像を生成する付記18に記載の人物照合方法。
[付記20]
コンピュータに、
人物が含まれる人物画像から、前記人物の人体部位の存在確率に応じて重みを推定する処理と、
前記人物画像と前記推定された重みとに基づいて、照合用の特徴を生成する処理と、
前記生成された照合用の特徴と、照合特徴記憶手段に記憶された照合特徴とを比較する処理と、
前記比較の結果を出力する処理とを実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
[付記21]
前記重みを推定する処理は、
前記人物画像の各画素に対して前記人体部位の存在確率を推定する処理と、
前記推定された存在確率に基づいて、前記重みを表す重み画像を生成する処理とを含む付記20に記載の非一時的なコンピュータ可読媒体。
この出願は、2017年12月8日に出願された日本出願特願2017−236304を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10、100:人物照合装置
11:重み推定手段
12:特徴生成手段
13:照合特徴記憶手段
14:人物照合手段
101:入力部
110:人物画像切り出し部
120、210:重み推定部
121、211:部位存在確率推定部
122、212:重み画像生成部
130:特徴生成部
131、221:画像統合部
132:特徴抽出部
133:画像特徴抽出部
134:重み適用部
140:照合特徴DB
150:人物照合部
160:出力部
200:特徴学習装置
220:特徴学習部
222:学習部
230:訓練画像DB
300:畳み込みニューラルネットワーク
301:入力層
302:中間層
303:出力層
310、311:ノード
312:エッジ

Claims (10)

  1. 人物が含まれる人物画像に対し、人体部位の存在確率を推定する部位存在確率推定手段と、
    前記推定された存在確率に基づいて、重みを表す重み画像を生成する重み画像生成手段と、
    前記人物画像及び前記重み画像を畳み込みニューラルネットワークに適用し、照合用の特徴を生成する特徴生成手段と、
    前記生成された照合用の特徴と、記憶された照合特徴とを比較する人物照合手段とを備える人物照合装置。
  2. 前記部位存在確率推定手段は、複数の人体部位のそれぞれについて前記人体部位の存在確率を推定し、前記重み画像生成手段は、複数の人体部位のそれぞれに対して前記重み画像を生成する請求項1に記載の人物照合装置。
  3. 前記重み画像生成手段は、前記複数の人体部位の存在確率の最大値と最小値とを用いて、各人体部位について推定された存在確率を正規化し、該正規化した存在確率に基づいて前記重み画像を生成する請求項2に記載の人物照合装置。
  4. 前記特徴生成手段は、前記畳み込みニューラルネットワークの中間特徴を、前記照合用の特徴として抽出する請求項1乃至3のいずれか1つに記載の人物照合装置。
  5. 前記畳み込みニューラルネットワークは、それぞれが複数のノードを含む入力層、中間層、及び出力層を有し、
    前記特徴生成手段は、前記出力層の1つ前の層の各ノードの出力値を前記照合用の特徴として抽出する請求項1乃至4のいずれか1つに記載の人物照合装置。
  6. 前記畳み込みニューラルネットワークは学習装置で学習される請求項1乃至5のいずれか1つに記載の人物照合装置。
  7. 前記学習装置は、含まれる人物を示すラベルが付与された訓練画像と、該訓練画像から生成された前記重み画像とを前記畳み込みニューラルネットワークに適用し、該畳み込みニューラルネットワークの出力が前記ラベルとなるように前記畳み込みニューラルネットワークを学習する請求項6に記載の人物照合装置。
  8. 前記特徴生成手段は、前記人物画像から抽出された画像特徴を前記重み画像を用いて重み付けした特徴を、前記照合用の特徴として抽出する請求項1乃至7のいずれか1つに記載の人物照合装置。
  9. 人物が含まれる人物画像に対し、人体部位の存在確率を推定し、
    前記推定された存在確率に基づいて、重みを表す重み画像を生成し、
    前記人物画像及び前記重み画像を畳み込みニューラルネットワークに適用し、照合用の特徴を生成し、
    前記生成された照合用の特徴と、記憶された照合特徴とを比較する人物照合方法。
  10. 人物が含まれる人物画像に対し、人体部位の存在確率を推定し、
    前記推定された存在確率に基づいて、重みを表す重み画像を生成し、
    前記人物画像及び前記重み画像を畳み込みニューラルネットワークに適用し、照合用の特徴を生成し、
    前記生成された照合用の特徴と、記憶された照合特徴とを比較する処理をコンピュータに実行させるためのプログラム。
JP2021097037A 2017-12-08 2021-06-10 人物照合装置、方法、及びプログラム Pending JP2021144749A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017236304 2017-12-08
JP2017236304 2017-12-08
JP2019558049A JP6897793B2 (ja) 2017-12-08 2018-10-17 人物照合装置、方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019558049A Division JP6897793B2 (ja) 2017-12-08 2018-10-17 人物照合装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2021144749A true JP2021144749A (ja) 2021-09-24

Family

ID=66751364

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019558049A Active JP6897793B2 (ja) 2017-12-08 2018-10-17 人物照合装置、方法、及びプログラム
JP2021097037A Pending JP2021144749A (ja) 2017-12-08 2021-06-10 人物照合装置、方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019558049A Active JP6897793B2 (ja) 2017-12-08 2018-10-17 人物照合装置、方法、及びプログラム

Country Status (3)

Country Link
US (5) US11495057B2 (ja)
JP (2) JP6897793B2 (ja)
WO (1) WO2019111550A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11495057B2 (en) * 2017-12-08 2022-11-08 Nec Corporation Person verification device and method and non-transitory computer readable media
JP7490359B2 (ja) * 2019-12-24 2024-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
SG10201913754XA (en) * 2019-12-30 2020-12-30 Sensetime Int Pte Ltd Image processing method and apparatus, electronic device, and storage medium
US11450021B2 (en) 2019-12-30 2022-09-20 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
WO2023175669A1 (ja) * 2022-03-14 2023-09-21 日本電気株式会社 姿勢推定装置、姿勢推定システム、姿勢推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046567A (ja) * 2002-07-12 2004-02-12 Minolta Co Ltd 画像照会用情報構築方法および画像照会方法
JP2005351814A (ja) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc 検出装置および検出方法
JP2007025902A (ja) * 2005-07-13 2007-02-01 Canon Inc 画像処理装置、画像処理方法
JP2009075868A (ja) * 2007-09-20 2009-04-09 Toshiba Corp 画像から対象を検出する装置、方法およびプログラム
JP2011165170A (ja) * 2010-01-15 2011-08-25 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2011232845A (ja) * 2010-04-26 2011-11-17 Panasonic Corp 特徴点抽出装置および方法
JP2014178862A (ja) * 2013-03-14 2014-09-25 Secom Co Ltd 特徴点抽出装置
JP2017045341A (ja) * 2015-08-28 2017-03-02 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
JP2017062781A (ja) * 2015-09-22 2017-03-30 ゼロックス コーポレイションXerox Corporation 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知
JP2017097578A (ja) * 2015-11-24 2017-06-01 キヤノン株式会社 情報処理装置及び方法
JP2017138808A (ja) * 2016-02-03 2017-08-10 キヤノン株式会社 情報処理装置および情報処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070183633A1 (en) * 2004-03-24 2007-08-09 Andre Hoffmann Identification, verification, and recognition method and system
JP4606779B2 (ja) * 2004-06-07 2011-01-05 グローリー株式会社 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
JP5959093B2 (ja) 2012-03-06 2016-08-02 学校法人東京電機大学 人物検索システム
JP2013188546A (ja) 2013-06-20 2013-09-26 Sanyo Product Co Ltd 遊技機
EP3134850B1 (en) * 2014-04-22 2023-06-14 Snap-Aid Patents Ltd. Method for controlling a camera based on processing an image captured by other camera
JP2016110152A (ja) 2014-12-08 2016-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. 反射防止フィルムおよびこれを備えた有機発光装置
JP6671133B2 (ja) 2015-09-24 2020-03-25 グローリー株式会社 画像照合装置及び画像照合方法
CN106874921B (zh) * 2015-12-11 2020-12-04 清华大学 图像分类方法和装置
US11495057B2 (en) * 2017-12-08 2022-11-08 Nec Corporation Person verification device and method and non-transitory computer readable media

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046567A (ja) * 2002-07-12 2004-02-12 Minolta Co Ltd 画像照会用情報構築方法および画像照会方法
JP2005351814A (ja) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc 検出装置および検出方法
JP2007025902A (ja) * 2005-07-13 2007-02-01 Canon Inc 画像処理装置、画像処理方法
JP2009075868A (ja) * 2007-09-20 2009-04-09 Toshiba Corp 画像から対象を検出する装置、方法およびプログラム
JP2011165170A (ja) * 2010-01-15 2011-08-25 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2011232845A (ja) * 2010-04-26 2011-11-17 Panasonic Corp 特徴点抽出装置および方法
JP2014178862A (ja) * 2013-03-14 2014-09-25 Secom Co Ltd 特徴点抽出装置
JP2017045341A (ja) * 2015-08-28 2017-03-02 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
JP2017062781A (ja) * 2015-09-22 2017-03-30 ゼロックス コーポレイションXerox Corporation 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知
JP2017097578A (ja) * 2015-11-24 2017-06-01 キヤノン株式会社 情報処理装置及び方法
JP2017138808A (ja) * 2016-02-03 2017-08-10 キヤノン株式会社 情報処理装置および情報処理方法

Non-Patent Citations (12)

* Cited by examiner, † Cited by third party
Title
DONGBIN ZHAO ET AL.: ""Deep Reinforcement Learning With Visual Attention for Vehicle Classification"", IEEE TRANSACTIONS ON COGNITIVE AND DEVELOPMENTAL SYSTEMS, vol. 9, no. 4, JPN6022021497, 30 September 2016 (2016-09-30), US, pages 356 - 367, XP055884793, ISSN: 0004849880, DOI: 10.1109/TCDS.2016.2614675 *
FENG WANG ET AL.: ""Coarse-to-fine human parsing with Fast R-CNN and over-segment retrieval"", HTTPS://IEEEXPLORE.IEEE.ORG/DOCUMENT/7532696, JPN6022033784, 19 August 2016 (2016-08-19), US, pages 1, ISSN: 0004849886 *
KAIMING HE ET AL.: ""Mask R-CNN"", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6022033780, 22 October 2017 (2017-10-22), US, pages 2980 - 2988, XP033283165, ISSN: 0004849884, DOI: 10.1109/ICCV.2017.322 *
PEILEI DONG ET AL.: ""Better Region Proposals for Pedestrian Detection with R-CNN"", 2016 VISUAL COMMUNICATIONS AND IMAGE PROCESSING (VCIP), JPN6022033779, 27 November 2016 (2016-11-27), US, pages 1 - 4, ISSN: 0004849883 *
QI CHU ET AL.: ""Online Multi-object Tracking Using CNN-Based Single Object Tracker with Spatial-Temporal Attention", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6022021500, 22 October 2017 (2017-10-22), US, pages 4846 - 4855, XP033283361, ISSN: 0004849877, DOI: 10.1109/ICCV.2017.518 *
ROSS GIRSHICK: ""Fast R-CNN"", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6022033782, 7 December 2015 (2015-12-07), US, pages 1440 - 1448, XP032866491, ISSN: 0004849885, DOI: 10.1109/ICCV.2015.169 *
TAO ZHOU ET AL.: ""Attention-Based Natural Language Person Retrieva"", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), JPN6022021498, 21 July 2017 (2017-07-21), US, pages 27 - 34, XP033145753, ISSN: 0004849879, DOI: 10.1109/CVPRW.2017.10 *
XIANG WANG ET AL.: ""Salient object detection via fast R-CNN and low-level cues"", 2016 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), JPN6022033778, 25 September 2016 (2016-09-25), US, pages 1042 - 1046, ISSN: 0004849882 *
XIU LI ET AL.: ""Fast Accurate Fish Detection and Recognition of Underwater Images with Fast R-CNN"", OCEANS 2015 - MTS/IEEE WASHINGTON, JPN6022033776, 19 October 2015 (2015-10-19), US, pages 1 - 5, XP032861815, ISSN: 0004849881 *
ZBIGNIEW WOJNA ET AL.: ""Attention-Based Extraction of Structured Information from Street View Imagery"", 2017 14TH IAPR INTERNATIONAL CONFERENCE ON DOCUMENT ANALYSIS AND RECOGNITION (ICDAR), JPN6022021499, 9 November 2017 (2017-11-09), US, pages 844 - 850, XP033307865, ISSN: 0004849878, DOI: 10.1109/ICDAR.2017.143 *
木下 航一、村瀬 洋: ""部位スコアマップの多段統合による隠れにロバストな人体検出"", 画像ラボ, vol. 24, no. 12, JPN6022021502, 10 December 2013 (2013-12-10), JP, pages 54 - 60, ISSN: 0004787601 *
矢倉 大夢、外4名: ""CNNと注意機構による画像化されたマルウェアの解析手法"", コンピュータセキュリティシンポジウム2017 論文集, vol. 2017, no. 2, JPN6022021501, 16 October 2017 (2017-10-16), JP, pages 1381 - 1388, ISSN: 0004849876 *

Also Published As

Publication number Publication date
US11776098B2 (en) 2023-10-03
US11495057B2 (en) 2022-11-08
US11763435B2 (en) 2023-09-19
US11748864B2 (en) 2023-09-05
JP6897793B2 (ja) 2021-07-07
US20220165095A1 (en) 2022-05-26
US20230368351A1 (en) 2023-11-16
JPWO2019111550A1 (ja) 2020-11-19
WO2019111550A1 (ja) 2019-06-13
US20210192242A1 (en) 2021-06-24
US20220270410A1 (en) 2022-08-25
US20220222977A1 (en) 2022-07-14

Similar Documents

Publication Publication Date Title
JP6897793B2 (ja) 人物照合装置、方法、及びプログラム
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
JP6754619B2 (ja) 顔認識方法及び装置
KR100647322B1 (ko) 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
US8325981B2 (en) Human tracking apparatus, human tracking method, and human tracking processing program
KR20170000748A (ko) 얼굴 인식 방법 및 장치
JP2000306095A (ja) 画像照合・検索システム
CN111507134A (zh) 人形姿态检测方法、装置、计算机设备及存储介质
US11380010B2 (en) Image processing device, image processing method, and image processing program
CN107463865A (zh) 人脸检测模型训练方法、人脸检测方法及装置
Ravi et al. Sign language recognition with multi feature fusion and ANN classifier
CN114519401B (zh) 一种图像分类方法及装置、电子设备、存储介质
KR20080060007A (ko) 특징벡터 검출장치 및 방법, 그리고, 이를 이용한얼굴인식장치 및 방법
Vasconcelos et al. Methods to automatically build point distribution models for objects like hand palms and faces represented in images
Durmuşoğlu et al. Face expression recognition using a combination of local binary patterns and local phase quantization
CN107729863A (zh) 人体指静脉识别方法
JP2012128638A (ja) 画像処理装置、位置合わせ方法及びプログラム
KR101742797B1 (ko) 표정 latent 동작사전을 이용한 표정인식방법 및 장치
Wang et al. Artificial aging of faces by support vector machines
Kocer et al. An efficient iris recognition system based on modular neural networks
Nazarbakhsh et al. Image pre-processing techniques for enhancing the performance of real-time face recognition system using PCA
KR20110067480A (ko) 얼굴 검출을 위한 특징점 검출 방법
Uddin et al. A New Method for Human Posture Recognition Using Principal Component Analysis and Artificial Neural Network
Aung et al. Automatic Facial Expression Recognition System using Orientation Histogram and Neural Network
Ashraf et al. Literature review on CBR approches for matching composite sketches to facial photographs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220816