JP6911995B2 - 特徴抽出方法、照合システム、およびプログラム - Google Patents

特徴抽出方法、照合システム、およびプログラム Download PDF

Info

Publication number
JP6911995B2
JP6911995B2 JP2020501744A JP2020501744A JP6911995B2 JP 6911995 B2 JP6911995 B2 JP 6911995B2 JP 2020501744 A JP2020501744 A JP 2020501744A JP 2020501744 A JP2020501744 A JP 2020501744A JP 6911995 B2 JP6911995 B2 JP 6911995B2
Authority
JP
Japan
Prior art keywords
feature
region
reliability
extracted
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020501744A
Other languages
English (en)
Other versions
JPWO2019163699A1 (ja
Inventor
諒 川合
諒 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019163699A1 publication Critical patent/JPWO2019163699A1/ja
Application granted granted Critical
Publication of JP6911995B2 publication Critical patent/JP6911995B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像に含まれる前景領域から特徴を抽出する技術に関する。
監視カメラ等により得られる画像をコンピュータにより処理することで、不審物の検出や、人物の識別等を行う技術が、盛んに開発されている。このような技術においては、物体または人物の特徴を抽出するのに先立って、背景差分法等により画像中の前景に相当する領域(以下、「前景領域」)を抽出する処理が含まれるのが一般的である。
前景領域を抽出する処理の正確さは、照明の状態等、被写体が撮影される環境等により左右されやすい。そこで、正確に前景領域を抽出するための技術が種々提案されている。例えば、特許文献1から4が、前景領域をより正確に抽出する方法を記載している文献である。
特許文献1に記載の人物検索システムは、人物を抽出するための背景差分を行った際に発生し得る、人物の領域の欠損を補うために、人物と背景を分割するためのクラスタリングを行う。
特許文献2に記載の画像処理装置は、対象物の影の領域を、前景領域と思われる領域から除去することで、高精度に前景領域を抽出する。
特許文献3に記載の画像処理装置は、背景差分画像が破綻しているか否かを判定し、破綻の種別を特定し、破綻の種別に応じて基準背景画像を更新する。
特許文献4に記載の画像処理装置は、画像の各画素に対する視点からの距離情報を利用することで、被写体領域の抽出をより正確に実行する。
特許第5959093号公報 特開2008−129864号公報 特開2011−211628号公報 特許第5914046号公報
特許文献1から4に記載の技術を用いたとしても、前景領域が正しく抽出されない場合は生じ得る。
また、前景領域の抽出および特徴の抽出の技術を、画像に写る対象の認識等を行う監視システムに実際に適用する場合には、正確性だけでなく、迅速性も要求される。そのため、前景領域を抽出する処理にかかる計算量および時間は、なるべく少ない方が望ましい。そのような要請に基づき監視システムにおいて計算量が少ない前景領域の抽出方法が適用された場合は、前景領域が常には正しく抽出されない可能性がある。
したがって、前景領域が正しく抽出されなかった場合に特徴が不正確に導出されることを抑制するための方法があると良い。
本発明は、前景領域が正しく抽出されなかった場合でも、特徴が不正確に導出されることを抑制することができる特徴抽出装置を提供することを目的の1つとする。
本発明の一実施態様に係る特徴抽出装置は、画像から認識対象を含む部分領域として抽出された第1の領域内の、前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定する信頼度決定手段と、前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される特徴である第2の特徴とを用いて、前記認識対象の特徴を決定する特徴決定手段と、決定された前記認識対象の特徴を示す情報を出力する出力手段と、を備える。
本発明の一実施態様に係る特徴抽出方法は、画像から認識対象を含む部分領域として抽出された第1の領域内の、前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定し、前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される特徴である第2の特徴とを用いて、前記認識対象の特徴を決定し、決定された前記認識対象の特徴を示す情報を出力する。
本発明の一実施態様に係るプログラムは、画像から認識対象を含む部分領域として抽出された第1の領域内の、前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定する信頼度決定処理と、前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される特徴である第2の特徴とを用いて、前記認識対象の特徴を決定する特徴決定処理と、決定された前記認識対象の特徴を示す情報を出力する出力処理と、をコンピュータに実行させる。上記プログラムは、コンピュータ読み取り可能な、非一時的な記憶媒体に記憶され得る。
本発明によれば、前景領域が正しく抽出されなかった場合でも、特徴が不正確に導出されることを抑制することができる。
本発明の第1の実施形態に係る特徴抽出装置の構成を示すブロック図である。 第1領域の基となる部分領域の例を示す図である。 第1領域の例を示す図である。 信頼度の算出方法の一例を説明するための図である。 第1の実施形態に係る特徴抽出装置による処理の流れを示すフローチャートである。 第1の実施形態に係る特徴抽出装置による効果を説明するための第1の図である。 第1の実施形態に係る特徴抽出装置による効果を説明するための第2の図である。 モデルシルエットの例を示す図である。 本発明の第2の実施形態に係る照合システムの構成を示すブロック図である。 第2の実施形態に係る照合部による処理の流れを示すフローチャートである。 本発明の一実施形態に係る特徴抽出装置の構成を示すブロック図である。 本発明の一実施形態に係る特徴抽出装置による処理の流れを示すフローチャートである。 本発明の各実施形態の各部を構成するハードウェアの例を示すブロック図である。
以下、図面を参照しながら、本発明の実施形態を詳細に説明する。
<<第1の実施形態>>
まず、本発明の第1の実施形態について説明する。
<構成>
図1は、第1の実施形態に係る特徴抽出装置11の構成を示すブロック図である。
特徴抽出装置11は、画像取得部110と、第1領域設定部111と、前景領域抽出部112と、信頼度決定部113と、第1抽出部114と、第2抽出部115と、特徴決定部116と、出力部117と、を備える。
以下、特徴抽出装置11内の構成要素のそれぞれの機能について説明する。後述するが、特徴抽出装置11内の各構成要素は、例えば、プログラムに基づいて命令を実行する1つまたは複数のプロセッサとメモリとを含むコンピュータにより実現され得る。
特徴抽出装置11内の各構成要素は、データを生成または取得した場合、そのデータを他の構成要素に使用可能な状態にし得る。例えば、各構成要素は、生成または取得したデータを、そのデータを使用する他の構成要素に送出し得る。あるいは、各構成要素は、生成または取得したデータを、特徴抽出装置11内の記憶領域(メモリ等。不図示)に記録してもよい。特徴抽出装置11の各構成要素は、それぞれの処理を実行する際、使用するデータを、そのデータを生成または取得した構成要素から直接受け取ってもよいし、上記記憶領域から読み出してもよい。
図1において示される、構成要素どうしをつなぐ線は、データの流れに対する理解を容易にするための例示的な線である。各構成要素が図1に示される線と同様の信号線により接続されることは必ずしも要求されない。
===画像取得部110===
画像取得部110は、特徴抽出装置11による処理に用いられる画像を取得する。画像取得部110は、例えば、カメラ等の撮影装置により撮影された画像を、その撮影装置またはその画像を記憶する記憶媒体等から取得する。画像取得部110が取得する画像は、典型的には、同じ場所を、ある間隔をおいて撮影することで得られる複数の画像である。画像取得部110は、動画データを取得してもよい。そして、画像取得部110は、動画データを構成する複数のフレームを、特徴抽出装置11による処理に用いられる画像として取得してもよい。
===第1領域設定部111===
第1領域設定部111は、画像取得部110が取得した画像の少なくとも1つ(以下、「対象画像」とも称す)から、「第1領域」を設定する。本開示において画像の「第1領域」とは、その画像における、その画像に写る認識対象を含むように設定される領域である。
以下の説明では、認識対象として人物を想定する。ただし、認識対象は、人物以外の動体(例えば、人以外の生物、車両、船舶、飛翔体等)でもよい。認識対象は、動体の一部(上半身、顔等)でもよい。
第1領域設定部111は、対象画像に写る人物を含む部分領域を特定し、その特定された部分領域を第1領域として設定すればよい。人物を含む部分領域を特定する方法は、人検出の手法として知られる既存の方法でよい。
具体的には、例えば、第1領域設定部111は、ある範囲の画像から得られる特徴を用いてその画像に人物が含まれるか否かを識別する識別器を用いて、対象画像において人物が含まれる部分領域を探索することにより、当該部分領域を特定してもよい。上記識別器による識別の方法の具体例としては、輝度勾配方向ヒストグラムと分類器とを用いる方法等が挙げられる。
図2および図3は、人物を含む部分領域として特定された部分領域の例を示す図である。特定される部分領域の範囲は、図2または図3において破線で示される範囲のように、人物を囲う矩形の範囲であり得る。図3で示される部分領域は、四辺が人物に接するような矩形である。四辺が人物に接するような矩形を特定するためには、第1領域設定部111は、例えば、人物の領域を特定し、特定された領域の上端、下端、左端および右端を求めればよい。
特定される部分領域の大きさおよび形状は画一的でなくてもよい。例えば、第1領域設定部111は、人物を含む部分領域の探索時において、探索に用いる部分領域の大きさや形状を、画面内の位置に応じて変化させてもよい。
また、特定される部分領域の形は矩形に限られない。特定される部分領域の形は、長方形以外の四角形(台形やひし形等)、四角形以外の多角形、または円、長円もしくはその他の閉曲線でもよい。
また、特定される部分領域と第1領域とは同じでなくてもよい。第1領域設定部111は、特定された部分領域を変形した領域を第1領域として設定してもよい。例えば、第1領域設定部111は、特定された部分領域から人物を含まない一部分を除いた領域を、第1領域として設定してもよい。
第1領域設定部111は、人物の一部を検出することにより、対象画像に写る人物を含む部分領域を特定してもよい。例えば、第1領域設定部111は、顔や手等の部位または帽子や靴等の装飾品等、人物の一部にあたる部分を検出し、その部分が検出された位置に基づき、人物を含む部分領域を推定してもよい。
なお、認識対象が人物でない場合も、第1領域設定部111は、その認識対象の種類に応じた検出方法により、認識対象を含む領域を特定すればよい。
===前景領域抽出部112===
前景領域抽出部112は、第1領域設定部111が第1領域を設定した(または設定する)対象画像から、前景領域を抽出する。前景領域は、前景であると推定される領域である。別の表現では、前景領域は、背景画像には存在しない認識対象の領域と想定される領域である。
前景領域抽出部112は、例えば、対象画像と、その対象画像の撮影よりも前の撮影により取得された、認識対象を含まない画像(いわば、背景画像)とを用いて、背景差分を行うことで、前景領域を抽出する。背景差分(background subtraction)の手法は既存の手法でよい。背景差分の手法の例としては、混合ガウス分布を用いて構築された背景モデルに基づく背景差分法が挙げられる。
なお、本実施形態では、前景領域抽出部112が抽出する前景領域のうち、第1領域内の前景領域が使用される。したがって、前景領域抽出部112は、第1領域の範囲から前景領域を抽出するよう構成されていてもよい。以下の説明において、「前景領域」という語は、特に記載のない限り、第1領域内の前景領域を指す。
===信頼度決定部113===
信頼度決定部113は、第1領域設定部111によって抽出された第1領域と、前景領域抽出部112により抽出された前景領域とに基づき、前景領域の信頼度を決定する。
前景領域の信頼度は、前景領域から抽出される特徴が認識対象の特徴であると期待される程度を示す指標である。つまり、信頼度が高いほど、前景領域から特徴を抽出した場合に認識対象の特徴が正確に得られることが期待される。信頼度決定部113は、抽出された前景領域が認識対象の真の領域に類似するほど信頼度が高くなるような決定方法により、信頼度を決定する。信頼度は、いわば、前景領域の、認識対象らしさ、を表す。信頼度は、あるいは、前景領域の、認識対象が占める領域らしさを表す、ともいえる。
信頼度は、例えば数値で表される。以下の説明では、信頼度を示す値が大きいほど信頼性が高いと解するものとするが、信頼度を示す値が小さいほど信頼性が高いという定義がされてもよい。
信頼度決定部113により信頼度を決定する方法の例を示す。第1領域設定部111により設定された第1領域の面積を「第1面積」とする。前景領域抽出部112により算出された前景領域の面積を「前景面積」とする。信頼度決定部113は、第1面積に対する前景面積の割合(以下、「前景割合」と呼ぶ)に基づいて、信頼度を決定してもよい。
例えば、第1領域が図3で示される矩形の領域である場合、歩行している人物が占める面積の、第1領域の面積に対する割合は、0.7程度であることが期待される。したがって、例えば、信頼度決定部113は、前景割合が0.7程度である場合に信頼度が最も高く決定されるような決定方法により、前景割合に応じて信頼度を決定してもよい。例えば、信頼度決定部113は、図4に示されるような、前景割合が0.7付近である場合に信頼度を示す値が最大値となるように定義された決定方法で、信頼度を決定してもよい。
なお、前景割合が1であることは、第1領域内が全て前景領域として抽出されたことを意味する。認識対象が第1領域の形状に完全に一致することは考えにくいため、前景割合が1に近い場合(例えば、第1の値αよりも大きい場合)は、信頼度を示す値は最大値ではない値に決定されると良い。より詳細には、前景割合が1に近い場合は、前景割合が第1の値αよりも大きいほど信頼度が低く決定されるように、信頼度の決定方法が設計されてもよい。
また、前景割合が0に近い場合(例えば、第2の値β(≦α)よりも小さい場合)、第1領域内において前景領域がほとんど抽出されていないため、信頼度を示す値は最大値ではない値に決定されると良い。より詳細には、前景割合が0に近い場合は、前景割合が第2の値βよりも小さいほど信頼度が低く決定されるように、信頼度の決定方法が設計されてもよい。
信頼度決定部113は、前景割合の範囲に応じて用意される値を、信頼度を示す値として決定してもよい。例えば、信頼度決定部113は、前景割合xが0.5<x<0.9を満たす場合は信頼度を示す値を「1」に決定し、そうでない場合は信頼度を示す値を「0」に決定してもよい。
前景割合を変数とする関数によって信頼度を示す値を決定してもよい。関数の例として、f(x)=4x(1−x)が挙げられる。ただしxは前景割合である。この関数は、前景割合が1/√2である場合に最大値1をとる。
以上に説明された信頼度の決定方法および数値は例である。第1領域の設定の仕方によって、前景割合と信頼度との関係は異なり得る。例えば、図2において破線で例示される第1領域に基づく前景割合と、図3において破線で例示される第1領域に基づく前景割合と、では、信頼度が最も高い前景割合の値は、前者の方が小さくなるはずである。
信頼度の決定方法には、他にも様々な方法が考えられる。信頼度の決定方法の他の例は、後述の変形例において詳述する。
===第1抽出部114===
第1抽出部114は、対象画像の第1領域から、特徴を抽出する。特徴を抽出する方法は周知の方法でよい。抽出される特徴の例としては、色特徴、周波数特徴等が挙げられる。特徴は、例えば、ベクトルの形式で表現される。特徴を表すデータの形式は、識別のために使用可能な形式であればよい。以下、第1抽出部114により抽出される特徴を、「第1領域特徴」と表記する。第1抽出部114は、第1領域特徴を、第1領域の全ての画素の情報を用いて抽出する。
===第2抽出部115===
第2抽出部115は、対象画像の前景領域から、特徴を抽出する。抽出される特徴は、第1領域特徴と同じ種類の特徴である。以下、第2抽出部115により抽出される特徴を、「前景領域特徴」と表記する。
第2抽出部115は、第1抽出部114による抽出のアルゴリズムと同種のアルゴリズムにより、前景領域特徴を抽出してもよい。なお、前景領域特徴の成分の数と第1領域特徴の成分の数とは同じとなるように、第1抽出部114および第2抽出部115は構成される。
===特徴決定部116===
特徴決定部116は、信頼度決定部113より決定された信頼度に基づき、第1抽出部114により抽出された第1領域特徴と、第2抽出部115により抽出された前景領域特徴との、少なくとも1つを用いて、認識対象の特徴を決定する。
認識対象の特徴は、第1領域特徴および前景領域特徴と同様の形式で表現される情報である。認識対象の特徴は、例えば、認識対象の識別(すなわち、個人の特定等)に用いられる。
認識対象の特徴の決定方法の例を説明する。特徴決定部116は、例えば、前景領域特徴と第1領域特徴とに対して、信頼度に基づく重みづけを伴う加算を行い、その加算の結果を認識対象の特徴として決定する。すなわち、特徴決定部116は、次の式に基づいて認識対象の特徴Fを導出してもよい。
F=c×f+(1−c)×f
ただし、fは第1領域特徴、fは前景領域特徴、cは信頼度を示すスカラー値である。
ただし、上記の式において、f、f2、またはcの代わりに、f、f2、またはcを補正した値が用いられてもよい。例えば、第1領域特徴を示す値と前景領域特徴を示す値のスケール(取り得る範囲の規模)が異なる場合は、fとfとのスケールが互いに一致するようにfまたはfが補正されてもよい。例えば、特徴が色の度数分布を表すヒストグラムである場合、特徴が抽出される対象の領域が大きいほど、値のスケールは大きくなる。したがって、特徴決定部116は、例えば、fを第1領域特徴の面積に対する前景領域特徴値の面積の比で割るという補正を行い、補正後の値f’をfの代わりに用いてもよい。上記のような補正の他、f、f2、およびcについて、本発明の思想を逸脱しない限り何らかの補正や前処理が行われてもよい。
上記の式によれば、信頼度を示す値が大きいほど、決定される認識対象の特徴に対する第1領域特徴の寄与は小さくなり、前景領域特徴の寄与が大きくなる。逆に、信頼度を示す値が小さいほど、決定される認識対象の特徴に対する第1領域特徴の寄与は大きくなり、前景領域特徴の寄与が小さくなる。つまり、決定される認識対象の特徴に対する前景領域特徴の寄与の大きさが、信頼度に応じて変化する。信頼度は、決定される認識対象の特徴に対する前景領域特徴の寄与の大きさを示す値であるともいえる。
上記の式は、信頼度が0から1の範囲の値として表現される場合の式の例であり、信頼度の決定方法が異なる場合は、上記の式も設計により変更され得る。
なお、以下、特徴決定部116により決定される、認識対象の特徴を、「決定特徴」とも称する。
===出力部117===
出力部117は、特徴決定部116により決定された、認識対象の特徴(決定特徴)を出力する。出力部117による出力の出力先の例には、表示装置、記憶装置、および通信ネットワークが含まれる。出力部117が情報を表示装置に出力する場合、出力部117は、表示装置が該情報を表示できるよう、情報を変換してもよい。なお、上記した表示装置および記憶装置は、特徴抽出装置11の外部のデバイスであってもよいし、特徴抽出装置11に含まれる構成要素であってもよい。
<動作>
以下、特徴抽出装置11による処理の流れを、図5のフローチャートを参照しながら説明する。なお、各処理は、各処理がプログラムを実行するデバイスによって実行される場合においては、プログラムの中の命令の順序に従って実行されればよい。各処理が別個のデバイスによって実行される場合においては、処理を完了したデバイスが次の処理を実行するデバイスに通知を行うことで、次の処理が実行されればよい。なお、処理を行う各部は、めいめいの処理に必要なデータを、そのデータを生成した部から受け取るか、特徴抽出装置11の記憶領域から読み出せばよい。
まず画像取得部110が、カメラ等の撮影装置または記憶媒体等から、画像を取得する(ステップS11)。
次に、第1領域設定部111は、取得された画像のうちの少なくとも1つの画像(対象画像)において、第1領域を設定する(ステップS12)。対象画像から認識対象が検出されなかった場合等、第1領域が設定できなかった場合は(ステップS13においてNO)、特徴抽出装置11は処理を終了する。
第1領域が設定できた場合は(ステップS13においてYES)、前景領域抽出部112が、対象画像における前景領域を抽出する(ステップS14)。
次に、信頼度決定部113が、第1領域と前景領域との関係に基づいて、前景領域の信頼度を決定する(ステップS15)。信頼度決定部113は、信頼度を決定したら、例えば、決定した信頼度を示す情報を前景領域に関連づける。具体的には、例えば、信頼度決定部113は、前景領域を特定する情報と信頼度を示す情報とが関連づけられたデータを生成してもよい。そして、信頼度決定部113は、その生成したデータを、特徴抽出装置11内の記憶領域に記録し、または、信頼度を参照する構成要素に直接送出してもよい。
ステップS16からステップS19の処理は、必要な特徴を抽出するための処理である。信頼度決定部113により決定された信頼度を示す値が1でなければ(ステップS16においてNO)、第1抽出部114は第1領域内の特徴を抽出する(ステップS17)。信頼度を示す値が1である場合は(ステップS16においてYES)、第1抽出部114は第1領域内の特徴を抽出しなくてよい。また、信頼度を示す値が0でなければ(ステップS18においてNO)、第2抽出部115は前景領域内の特徴を抽出する(ステップS19)。信頼度を示す値が0である場合は(ステップS18においてYES)、第2抽出部115は前景領域内の特徴を抽出しなくてよい。
なお、追加的な構成として、信頼度を示す値が著しく低い場合(例えば、信頼度を示す値が所定値τを下回る場合)は、特徴抽出装置11は、例外処理を行ってもよい。例外処理では、特徴抽出装置11は、第1領域特徴も前景領域特徴も抽出せず、「有意な特徴が抽出できなかった」という情報を示すエラーを出力して、処理を終了してもよい。
必要な特徴が抽出されたら、特徴決定部116が、認識対象の特徴を決定する(ステップS20)。そして、出力部117が、認識対象の特徴を出力する(ステップS21)。
<効果>
第1の実施形態に係る特徴抽出装置11によれば、前景が正しく抽出されなかった場合でも、認識対象の特徴を安定的に抽出することができる。その理由は、信頼度決定部113が前景領域の信頼度を決定し、特徴決定部116が、信頼度が低いほど前景領域からの特徴よりも第1領域からの特徴に重みをつけて、認識対象の特徴を決定するからである。つまり、信頼度を設定することにより、正しく抽出されなかった前景領域から抽出される特徴が、決定される特徴に大きく反映されることが、抑制される。
効果について具体的な例を使って説明する。例えば、対象画像が、図6に示されるような、ある人物5Aとその後ろを通る別の人物5Bとを撮影した画像であるとする。図6における破線は、第1領域設定部111により設定された第1領域を表す。このような画像において、例えば人物5Aの色が背景に類似する等の原因により、前景領域抽出部112により抽出される、第1領域内の前景領域が、図7において白塗りで示された部分となることがあり得る。
このような場合、抽出された前景領域から抽出される特徴は、人物5Aの特徴が全く反映されない。このような場合、むしろ第1領域全体から導出される特徴の方が、人物5Aの特徴が反映された特徴として有用である。本実施形態では、このような場合には信頼度決定部113が信頼度を低い値に決定するので、決定特徴には、第1領域から導出される特徴が強く反映される。したがって、特徴抽出装置11は、人物5Aの特徴をより誤りなく取得することができる。
[変形例]
(信頼度の決定方法の例)
(1)
信頼度決定部113は、前景領域の形状と基準の形状との比較に基づいて信頼度を決定してもよい。
例えば、特徴抽出装置11は、基準となる、認識対象のシルエット(以下、「モデルシルエット」と表記)を予め用意しておく。図8の破線で示される形状が、モデルシルエットの形状の例である。信頼度決定部113は、モデルシルエットの形状と、前景領域の形状との比較を行う。この比較に基づき、信頼度決定部113は、前景領域の信頼度を決定する。具体的には、信頼度決定部113は、前景領域の形状がモデルシルエットの形状に類似するほど信頼度が高く決定されるような決定方法により、信頼度を決定する。
なお、特徴抽出装置11は姿勢が異なる複数のモデルシルエットを用意しておいてもよい。その場合は、信頼度決定部113は、例えば、第1領域設定部111によって抽出された第1領域の大きさおよび縦横比の少なくともいずれかに基づいて、複数のモデルシルエットから1つのモデルシルエットを選択すればよい。例えば、第1領域設定部111は、第1領域の大きさが標準よりも小さい場合は、屈んでいる姿勢のモデルであるモデルシルエットを選択し得る。また、例えば、第1領域設定部111は、第1領域の縦の長さと横の長さとの比が1対1である場合は、縦の長さと横の長さとの比が1対1であるモデルシルエットを選択し得る。そして、第1領域設定部111は、選択したモデルシルエットを比較に用いる。
比較の具体例を以下に示す。
例えば、信頼度決定部113は、前景領域のうちモデルシルエットに重なる領域の面積A1と、第1領域のうち前景領域にもモデルシルエットにも含まれない領域の面積A2とを、それぞれ算出する。そして、信頼度決定部113は、面積A1とA2との和が大きいほど信頼度が高く決定されるような決定方法により、信頼度を決定する。一例として、信頼度決定部113は、信頼度を示す値cを、次の式により算出してもよい。
c=min{1,p×(A1+A2)/S}
ただし、「p」は1以上の係数(設定値)、「S」は第1領域の面積である。例えばp=1.25と設定されている場合は、面積A1とA2との和の、第1領域の面積に対する割合が80%以上であれば、信頼度は「1」となる。
信頼度決定部113は、前景領域のうちモデルシルエットに重ならない領域の面積A3、および、モデルシルエットの領域のうち前景領域に重ならない領域の面積A4を用いてもよい。一例として、信頼度決定部113は、信頼度を示す値cを、次の式により算出してもよい。
c=min{1,max{0,p×A1/(A1+A3+A4)}}
(2)
信頼度決定部113は、前景領域が分離している個数に基づいて信頼度を決定してもよい。認識対象が1つの塊であれば、理想的には、前景領域抽出部112により抽出される前景領域は1つの連続した領域である。したがって、連続していない前景領域の数が多いほど、前景領域が正しく抽出されていない蓋然性が高いといえる。この理論に基づき、信頼度決定部113は、分離している(すなわち、別々のものとして、つながらずに存在している)前景領域の個数が多いほど信頼度を低く決定するよう構成されてもよい。
(信頼度が数値でない例)
信頼度は必ずしも数値で表されなくともよい。例えば、信頼度は、「高い」「低い」等のテキストデータの形式で表されてもよい。この場合、信頼度を表すテキストデータと、重みを表す数値とを紐付ける情報を、特徴抽出装置11が記憶しておけばよい。信頼度決定部113は、認識対象の特徴の決定において、信頼度を表すテキストデータに紐付く数値を用いて、前景領域特徴と第1領域特徴とに対して重みづけを伴う加算を行い、認識対象の特徴を導出すればよい。
<<第2の実施形態>>
本発明の第2の実施形態について説明する。図9は、第2の実施形態に係る照合システム2の構成を示すブロック図である。照合システム2は、撮影部20と、特徴抽出部21と、照合部22と、データベース部23と、を含む。
照合システム2に含まれる各部は、別々の装置により実装されてもよいし、一部または全部が1つの装置により実現されてもよい。
別々の装置により実現される部どうしのデータのやりとりは、例えば、有線または無線の通信により行われる。
撮影部20は、所定の範囲を撮影し、それにより所定の範囲の画像を取得する。撮影部20は、例えば、監視カメラである。撮影部20は、取得した画像を、特徴抽出部21の画像取得部110に送出する。
特徴抽出部21は、第1の実施形態の特徴抽出装置11が含む構成と同じ構成を備える部である。特徴抽出部21に含まれる各部の説明は省略する。
照合部22は、特徴抽出部21の特徴決定部116により決定された認識対象の特徴(決定特徴)の照合に係る部である。照合部22は、特徴抽出部21の出力部117から決定特徴を受け取る。
照合実行部221は、決定特徴に対して、データベース部23において蓄積された特徴(以下、「参照特徴」と表記)との照合を、実行する。すなわち、照合実行部221は、参照特徴の各々について、決定特徴にマッチするかを判定し、決定特徴とマッチすると判定される参照特徴を特定する。2つの特徴が「マッチすると判定される」とは、2つの特徴が同一の人物(または物体)から得られた特徴であると判定されることである。照合実行部221による照合の方法は、既知の方法でよい。
データベース部23は、1つ以上の参照特徴を記憶する。データベース部23は、参照特徴とその参照特徴に関連する情報とを記憶する。例えば、認識対象が人物である場合において、参照特徴に関連する情報の例としては、その参照特徴が抽出された人物の情報(名前、識別番号、年齢等)、および、その人物が撮影された日時ならびに場所の履歴等である。
照合実行部221は、決定特徴とマッチすると判定される参照特徴を特定した場合、特定された参照特徴に関連する情報を出力部222に送出する。照合実行部221は、決定特徴とマッチすると判定される参照特徴があったことを示す情報を送出するだけでもよい。
出力部222は、照合の結果を示す情報を出力する。
照合の結果を示す情報は、決定特徴とマッチすると判定される参照特徴に関連する情報を示す情報である。あるいは、照合の結果を示す情報は、例えば、決定特徴とマッチすると判定される参照特徴がデータベース部23にあることを示す情報である。
出力部222が照合の結果を示す情報を出力することにより、例えば、監視員は、データベース部23において記憶された人物が撮影部20の撮影範囲に存在することを知る。
第2の実施形態に係る照合システム2は、特徴抽出部21により決定される認識対象の特徴を用いるため、より正確に照合結果を得ることができる。
照合部22による、照合に係る処理の流れを、図10のフローチャートを参照しながら説明する。
まず、照合部22は、特徴決定部116により決定された決定特徴を出力部117から受け取る(ステップS31)。すると、照合実行部221が、決定特徴を参照特徴と比較する照合を行う(ステップS32)。そして、出力部222が、照合の結果を示す情報を出力する(ステップS33)。
<<第3の実施形態>>
本発明の一実施形態に係る特徴抽出装置10について説明する。図11は、特徴抽出装置10の構成を示すブロック図である。特徴抽出装置10は、信頼度決定部101と、特徴決定部102と、出力部103と、を備える。
信頼度決定部101は、画像から認識対象を含む部分領域として抽出された第1の領域内の、画像の前景領域として抽出された領域である第2の領域に対し、信頼度を決定する。信頼度は、第2の領域の、認識対象らしさを示す情報である。上述の実施形態における信頼度決定部113は、信頼度決定部101の一例である。
特徴決定部102は、信頼度決定部101により決定された信頼度に基づき、第1の領域から抽出される特徴である第1の特徴と、第2の領域から抽出される特徴である第2の特徴とを用いて、認識対象の特徴を決定する。上述の実施形態における特徴決定部116は、特徴決定部102の一例である。
出力部103は、特徴決定部102により決定された認識対象の特徴を示す情報を、出力する。上述の実施形態における出力部117は、出力部103の一例である。
特徴抽出装置10による処理の流れを、図12のフローチャートを参照しながら説明する。
まず、信頼度決定部101が、第1の領域内の、前景領域として抽出された領域である第2の領域に対し、信頼度を決定する(ステップS101)。
次に、特徴決定部102が、信頼度に基づき、第1の特徴と第2の特徴とを用いて認識対象の特徴を決定する(ステップS102)。
そして、出力部103が、決定された認識対象の特徴を示す情報を、出力する(ステップS103)。
特徴抽出装置10によれば、前景領域が正しく抽出されなかった場合でも、特徴が不正確に導出されることを抑制することができる。その理由は、信頼度決定部101が、前景領域として抽出された領域である第2の領域に対し信頼度を決定し、信頼度に基づき、第1の特徴と第2の特徴とを用いて認識対象の特徴を決定するからである、特に、信頼度決定部101が、信頼度が低いほど第1の特徴の寄与が大きくなるような特徴決定方法により認識対象の特徴を決定する場合、前景領域が正しく抽出されなかった場合に導出される特徴の不正確さは低減され得る。その理由は、第1の実施形態の効果の説明で述べた通りである。
<実施形態の各部を実現するハードウェアの構成>
以上で説明された本発明の各実施形態において、各装置の各構成要素を示すブロックは、機能単位で示されている。しかし、構成要素を示すブロックは、各構成要素が別個のモジュールにより構成されることを必ずしも意味していない。
各構成要素の処理は、たとえば、コンピュータシステムが、コンピュータ読み取り可能な記憶媒体により記憶された、その処理をコンピュータシステムに実行させるプログラムを、読み出し、実行することによって、実現されてもよい。「コンピュータ読み取り可能な記憶媒体」は、たとえば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の可搬媒体、ならびに、コンピュータシステムに内蔵されるROM(Read Only Memory)およびハードディスク等の記憶装置である。「コンピュータ読み取り可能な記憶媒体」は、コンピュータシステム内部の揮発性メモリのようにプログラムを一時的に保持可能なもの、および、ネットワークや電話回線等の通信回線のように、プログラムを伝送するものも含む。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、更に前述した機能をコンピュータシステムにすでに記憶されているプログラムとの組み合わせで実現できるものであってもよい。
「コンピュータシステム」とは、一例として、図13に示されるようなコンピュータ900を含むシステムである。コンピュータ900は、以下のような構成を含む。
・1つまたは複数のCPU(Central Processing Unit)901
・ROM902
・RAM(Random Access Memory)903
・RAM903へロードされるプログラム904Aおよび記憶情報904B
・プログラム904Aおよび記憶情報904Bを格納する記憶装置905
・記憶媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
たとえば、各実施形態における各装置の各構成要素は、その構成要素の機能を実現するプログラム904AをCPU901がRAM903にロードして実行することで実現される。各装置の各構成要素の機能を実現するプログラム904Aは、例えば、予め、記憶装置905やROM902に格納される。そして、必要に応じてCPU901がプログラム904Aを読み出す。記憶装置905は、たとえば、ハードディスクである。プログラム904Aは、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記憶媒体906に格納されており、ドライブ装置907に読み出され、CPU901に供給されてもよい。なお、記憶媒体906は、たとえば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の、可搬媒体である。
各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ別個のコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つのコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。
また、各装置の各構成要素の一部または全部は、その他の汎用または専用の回路、コンピュータ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。
各装置の各構成要素の一部または全部が複数のコンピュータや回路等により実現される場合には、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、コンピュータや回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。
<<付記>>
[付記1]
画像から認識対象を含む部分領域として抽出された第1の領域内の、前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定する信頼度決定手段と、
前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される特徴である第2の特徴とを用いて、前記認識対象の特徴を決定する特徴決定手段と、
決定された前記認識対象の特徴を示す情報を出力する出力手段と、
を備える特徴抽出装置。
[付記2]
前記特徴決定手段は、前記信頼度が高いほど前記第2の特徴が大きく反映され、前記信頼度が低いほど前記第1の特徴が大きく反映されるような特徴決定方法により、前記認識対象の特徴を決定する
付記1に記載の特徴抽出装置。
[付記3]
前記特徴決定手段は、前記第1の特徴および前記第2の特徴に対し前記信頼度に基づく重みづけを伴う加算を行い、前記加算による結果を前記認識対象の特徴として決定する、
付記2に記載の特徴抽出装置。
[付記4]
前記信頼度決定手段は、
前記第1の領域の面積に対する前記第2の領域の面積の割合を算出し、
前記割合が第1の所定値よりも大きいほど前記信頼度が低く決定され、前記割合が第2の所定値よりも小さいほど前記信頼度が低く決定されるような信頼度決定方法に基づき、前記信頼度を決定する、
付記1から3のいずれか1つに記載の特徴抽出装置。
[付記5]
前記信頼度決定手段は、前記第2の領域と前記認識対象の形状のモデルとの比較に基づいて前記信頼度を決定する、
付記1から3のいずれか1つに記載の特徴抽出装置。
[付記6]
前記信頼度決定手段は、前記第1の領域の大きさおよび縦横比の少なくともいずれかに基づいて、複数の前記モデルから、比較に用いられる前記モデルを選択する、
付記5に記載の特徴抽出装置。
[付記7]
前記信頼度決定手段は、分離している前記第2の領域の個数に基づいて前記信頼度を決定する、
付記1から3のいずれか1つに記載の特徴抽出装置。
[付記8]
付記1から7のいずれか1つに記載の特徴抽出装置と、
前記出力手段により出力された前記認識対象の特徴を、データベースに記憶された特徴と比較する照合を行う照合実行手段と、
前記照合の結果を示す情報を出力する第2の出力手段と、
を含む照合システム。
[付記9]
画像から認識対象を含む部分領域として抽出された第1の領域内の、前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定し、
前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される特徴である第2の特徴とを用いて、前記認識対象の特徴を決定し、
決定された前記認識対象の特徴を示す情報を出力する、
特徴抽出方法。
[付記10]
前記信頼度が高いほど前記第2の特徴が大きく反映され、前記信頼度が低いほど前記第1の特徴が大きく反映されるような特徴決定方法により、前記認識対象の特徴を決定する
付記9に記載の特徴抽出方法。
[付記11]
前記第1の特徴および前記第2の特徴に対し前記信頼度に基づく重みづけを伴う加算を行い、前記加算による結果を前記認識対象の特徴として決定する、
付記10に記載の特徴抽出方法。
[付記12]
前記第1の領域の面積に対する前記第2の領域の面積の割合を算出し、
前記割合が第1の所定値よりも大きいほど前記信頼度が低く決定され、前記割合が第2の所定値よりも小さいほど前記信頼度が低く決定されるような信頼度決定方法に基づき、前記信頼度を決定する、
付記9から11のいずれか1つに記載の特徴抽出方法。
[付記13]
前記第2の領域と前記認識対象の形状のモデルとの比較に基づいて前記信頼度を決定する、
付記9から11のいずれか1つに記載の特徴抽出方法。
[付記14]
前記第1の領域の大きさおよび縦横比の少なくともいずれかに基づいて、複数の前記モデルから、比較に用いられる前記モデルを選択する、
付記13に記載の特徴抽出方法。
[付記15]
分離している前記第2の領域の個数に基づいて前記信頼度を決定する、
付記9から11のいずれか1つに記載の特徴抽出方法。
[付記16]
出力された前記認識対象の特徴を、データベースに記憶された特徴と比較する照合を行い、
前記照合の結果を示す情報を出力する、
付記9から15のいずれか1つに記載の特徴抽出方法。
[付記17]
画像から認識対象を含む部分領域として抽出された第1の領域内の、前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定する信頼度決定処理と、
前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される特徴である第2の特徴とを用いて、前記認識対象の特徴を決定する特徴決定処理と、
決定された前記認識対象の特徴を示す情報を出力する出力処理と、
をコンピュータに実行させるプログラムを記憶した、コンピュータ読み取り可能な記憶媒体。
[付記18]
前記特徴決定処理は、前記信頼度が高いほど前記第2の特徴が大きく反映され、前記信頼度が低いほど前記第1の特徴が大きく反映されるような特徴決定方法により、前記認識対象の特徴を決定する
付記17に記載の記憶媒体。
[付記19]
前記特徴決定処理は、前記第1の特徴および前記第2の特徴に対し前記信頼度に基づく重みづけを伴う加算を行い、前記加算による結果を前記認識対象の特徴として決定する、
付記18に記載の記憶媒体。
[付記20]
前記信頼度決定処理は、
前記第1の領域の面積に対する前記第2の領域の面積の割合を算出し、
前記割合が第1の所定値よりも大きいほど前記信頼度が低く決定され、前記割合が第2の所定値よりも小さいほど前記信頼度が低く決定されるような信頼度決定方法に基づき、前記信頼度を決定する、
付記17から19のいずれか1つに記載の記憶媒体。
[付記21]
前記信頼度決定処理は、前記第2の領域と前記認識対象の形状のモデルとの比較に基づいて前記信頼度を決定する、
付記17から19のいずれか1つに記載の記憶媒体。
[付記22]
前記信頼度決定処理は、前記第1の領域の大きさおよび縦横比の少なくともいずれかに基づいて、複数の前記モデルから、比較に用いられる前記モデルを選択する、
付記21に記載の記憶媒体。
[付記23]
前記信頼度決定処理は、分離している前記第2の領域の個数に基づいて前記信頼度を決定する、
付記17から19のいずれか1つに記載の記憶媒体。
[付記24]
前記プログラムは、
決定された前記認識対象の特徴を、データベースに記憶された特徴と比較する照合を行う照合実行処理と、
前記照合の結果を示す情報を出力する第2の出力処理と、
をさらにコンピュータに実行させる、付記17から23のいずれか1つに記載の記憶媒体。
本願発明は以上に説明した実施形態に限定されるものではない。以上に説明した実施形態の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年2月20日に出願された日本出願特願2018−027512を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10、11、12 特徴抽出装置
111 第1領域設定部
112 前景領域抽出部
113、101 信頼度決定部
114 第1抽出部
115 第2抽出部
116、102 特徴決定部
117、103 出力部
2 照合システム
20 撮影部
21 特徴抽出部
22 照合部
221 照合実行部
222 出力部
23 データベース部
5A 第1の人物
5B 第2の人物
900 コンピュータ
901 CPU
902 ROM
903 RAM
904A プログラム
904B 記憶情報
905 記憶装置
906 記憶媒体
907 ドライブ装置
908 通信インタフェース
909 通信ネットワーク
910 入出力インタフェース
911 バス

Claims (10)

  1. 画像から認識対象を含む部分領域を抽出する方法によって抽出された第1の領域内の、背景差分法によって前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定する信頼度決定手段と、
    前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される前記特徴である第2の特徴とを用いて、前記認識対象の前記特徴を決定する特徴決定手段と、
    決定された前記認識対象の前記特徴を示す情報を出力する出力手段と、
    を備える照合システム。
  2. 前記特徴決定手段は、前記信頼度が高いほど前記第2の特徴が大きく反映され、前記信頼度が低いほど前記第1の特徴が大きく反映されるような特徴決定方法により、前記認識対象の特徴を決定する
    請求項1に記載の照合システム。
  3. 前記特徴決定手段は、前記第1の特徴および前記第2の特徴に対し前記信頼度に基づく重みづけを伴う加算を行い、前記加算による結果を前記認識対象の特徴として決定する、
    請求項2に記載の照合システム。
  4. 前記信頼度決定手段は、
    前記第1の領域の面積に対する前記第2の領域の面積の割合を算出し、
    前記割合が第1の所定値よりも大きいほど前記信頼度が低く決定され、前記割合が第2の所定値よりも小さいほど前記信頼度が低く決定されるような信頼度決定方法に基づき、前記信頼度を決定する、
    請求項1から3のいずれか1項に記載の照合システム。
  5. 前記信頼度決定手段は、前記第2の領域と前記認識対象の形状のモデルとの比較に基づいて前記信頼度を決定する、
    請求項1から3のいずれか1項に記載の照合システム。
  6. 前記信頼度決定手段は、前記第1の領域の大きさおよび縦横比の少なくともいずれかに基づいて、複数の前記モデルから、比較に用いられる前記モデルを選択する、
    請求項5に記載の照合システム。
  7. 前記信頼度決定手段は、分離している前記第2の領域の個数に基づいて前記信頼度を決
    定する、
    請求項1から3のいずれか1項に記載の照合システム。
  8. 前記出力手段により出力された前記認識対象の特徴を、データベースに記憶された特徴と比較する照合を行う照合実行手段と、
    前記照合の結果を示す情報を出力する第2の出力手段と、をさらに備える、
    請求項1から7のいずれか一項に記載の照合システム。
  9. 画像から認識対象を含む部分領域を抽出する方法によって抽出された第1の領域内の、背景差分法によって前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定し、
    前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される前記特徴である第2の特徴とを用いて、前記認識対象の前記特徴を決定し、
    決定された前記認識対象の前記特徴を示す情報を出力する、
    特徴抽出方法。
  10. 画像から認識対象を含む部分領域を抽出する方法によって抽出された第1の領域内の、背景差分法によって前記画像の前景領域として抽出された領域である第2の領域に対し、前記認識対象らしさを示す信頼度を決定する信頼度決定処理と、
    前記信頼度に基づき、前記第1の領域から抽出される特徴である第1の特徴と、前記第2の領域から抽出される前記特徴である第2の特徴とを用いて、前記認識対象の前記特徴を決定する特徴決定処理と、
    決定された前記認識対象の前記特徴を示す情報を出力する出力処理と、
    をコンピュータに実行させるプログラム。
JP2020501744A 2018-02-20 2019-02-18 特徴抽出方法、照合システム、およびプログラム Active JP6911995B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018027512 2018-02-20
JP2018027512 2018-02-20
PCT/JP2019/005798 WO2019163699A1 (ja) 2018-02-20 2019-02-18 特徴抽出装置、特徴抽出方法、照合システム、および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2019163699A1 JPWO2019163699A1 (ja) 2021-01-07
JP6911995B2 true JP6911995B2 (ja) 2021-07-28

Family

ID=67688111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020501744A Active JP6911995B2 (ja) 2018-02-20 2019-02-18 特徴抽出方法、照合システム、およびプログラム

Country Status (3)

Country Link
US (1) US11379999B2 (ja)
JP (1) JP6911995B2 (ja)
WO (1) WO2019163699A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7094702B2 (ja) * 2018-01-12 2022-07-04 キヤノン株式会社 画像処理装置及びその方法、プログラム
JP7446756B2 (ja) * 2019-10-02 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4780564B2 (ja) 2006-11-21 2011-09-28 株式会社国際電気通信基礎技術研究所 画像処理装置、画像処理方法及び画像処理プログラム
JP2009075868A (ja) * 2007-09-20 2009-04-09 Toshiba Corp 画像から対象を検出する装置、方法およびプログラム
JP4636146B2 (ja) * 2008-09-05 2011-02-23 ソニー株式会社 画像処理方法、画像処理装置、プログラム及び画像処理システム
JP5387147B2 (ja) * 2009-06-03 2014-01-15 日本電気株式会社 病理画像診断システム、病理画像処理方法、病理画像診断プログラム
JP2011095921A (ja) 2009-10-28 2011-05-12 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2011211628A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP5914046B2 (ja) 2012-02-29 2016-05-11 キヤノン株式会社 画像処理装置および画像処理方法
JP5959093B2 (ja) 2012-03-06 2016-08-02 学校法人東京電機大学 人物検索システム
JP5930915B2 (ja) 2012-08-31 2016-06-08 セコム株式会社 対象物検出装置
JP6166705B2 (ja) 2014-09-29 2017-07-19 セコム株式会社 対象識別装置
JP6151677B2 (ja) 2014-10-16 2017-06-21 セコム株式会社 物体検出装置

Also Published As

Publication number Publication date
US11379999B2 (en) 2022-07-05
US20210049777A1 (en) 2021-02-18
WO2019163699A1 (ja) 2019-08-29
JPWO2019163699A1 (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
US10726244B2 (en) Method and apparatus detecting a target
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
US20190213563A1 (en) Image-based vehicle maintenance plan
US9098760B2 (en) Face recognizing apparatus and face recognizing method
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
JP5424819B2 (ja) 画像処理装置、画像処理方法
JP5675145B2 (ja) パターン認識装置及びパターン認識方法
CN110428399B (zh) 用于检测图像的方法、装置、设备和存储介质
CN109614910B (zh) 一种人脸识别方法和装置
JP6112801B2 (ja) 画像認識装置及び画像認識方法
US20180075291A1 (en) Biometrics authentication based on a normalized image of an object
US20160267339A1 (en) Image processing apparatus and method of generating face image
US11475537B2 (en) Method and apparatus with image normalization
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP6794197B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN108875505B (zh) 基于神经网络的行人再识别方法和装置
JP6911995B2 (ja) 特徴抽出方法、照合システム、およびプログラム
JP2015106197A (ja) 画像処理装置、画像処理方法
JPWO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
CN108596079B (zh) 手势识别方法、装置及电子设备
JP5648452B2 (ja) 画像処理プログラムおよび画像処理装置
JP6202938B2 (ja) 画像認識装置および画像認識方法
CN111027434B (zh) 一种行人识别模型的训练方法、装置及电子设备
CN112200109A (zh) 面部属性识别方法、电子设备以及计算机可读存储介质
KR102027786B1 (ko) 다수의 얼굴 이미지를 동시에 사용하는 얼굴 인식 및 인증 방법 및 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R150 Certificate of patent or registration of utility model

Ref document number: 6911995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150