JP6470503B2 - 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム - Google Patents
画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム Download PDFInfo
- Publication number
- JP6470503B2 JP6470503B2 JP2014104004A JP2014104004A JP6470503B2 JP 6470503 B2 JP6470503 B2 JP 6470503B2 JP 2014104004 A JP2014104004 A JP 2014104004A JP 2014104004 A JP2014104004 A JP 2014104004A JP 6470503 B2 JP6470503 B2 JP 6470503B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- similarity
- images
- feature
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000000605 extraction Methods 0.000 claims description 41
- 230000010354 integration Effects 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 description 29
- 238000001514 detection method Methods 0.000 description 22
- 239000000284 extract Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 238000009434 installation Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 230000037237 body shape Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
Description
すなわち、照合対象のオブジェクトに関する特徴量を画像から抽出する特徴抽出手段と、
前記特徴抽出手段によって第一の画像から抽出された特徴量と第二の画像から抽出された特徴量との類似度を算出する類似度算出手段と、
前記第一の画像中のオブジェクトと前記第二の画像中のオブジェクトとが同一か否かを推定する推定手段と、
前記推定手段の推定結果と前記類似度算出手段によって算出された類似度とから前記類似度算出手段で類似度を算出するためのパラメータを学習するパラメータ学習手段とを備えることを特徴とする。
以下、本発明に係る実施形態について図面にもとづいて説明する。
図10は本実施形態に係る画像検索システムのハードウェア構成を示す図である。画像照合装置および画像検索システムは、CPU(Central Processing Unit)1、記憶装置2、入力装置3、及び出力装置4を含んで構成される。なお、各装置は、バス5等により互いに通信可能に接続されている。
なお、画像照合装置および画像検索システムのハードウェア構成は、上述した構成に限られるものではない。例えば、画像照合装置および画像検索システムは、各種の装置間で通信を行うためのI/O装置を備えてもよい。例えば、I/O装置は、メモリーカード、USBケーブル等の入出力部、有線、無線等による送受信部である。
登録画像記憶部110は、画像登録部20で登録した画像を人物の識別子と関連付けて記憶する。本実施形態では人物の識別子はマラソン選手のゼッケン番号を表す。
カメラ画像記憶部120は、カメラ11、12、…、1Nで撮影した夫々の画像を記憶する。記憶されている各画像は撮影に使用したカメラ、撮影時刻に対応付けて管理する。
顔特徴抽出部140は、照合対象のオブジェクトに関する特徴量を画像から抽出する特徴抽出手段の一例である。顔特徴抽出部140は、物体検出部130で検出した顔の特徴を抽出する。本実施形態では顔の特徴は顔画像中の局所領域から抽出した複数の特徴量である。
部分類似度算出部150は、登録画像記憶部110とカメラ画像記憶部120に記憶されている画像から顔特徴抽出部140で夫々抽出した顔特徴の類似度を算出する。特徴量毎の類似度(例えば、登録画像の右目とカメラ画像の右目との類似度、登録画像の左目とカメラ画像の左目との類似度など)を算出する。
番号抽出部170は、物体検出部130で検出した顔の位置情報をもとにカメラ画像記憶部120に記憶されている画像から人物の番号を抽出する。本実施形態ではマラソン選手のゼッケン番号を抽出する。
ラベル推定部180は、登録画像記憶部110に記憶されている画像の人物の識別子と番号抽出部170で抽出した人物の番号が一致しているか否かを照合し、登録画像とカメラ画像中の人物とが同一人物か否かのラベルを付ける。
パラメータ学習部200は、「推定手段の推定結果」と「類似度算出手段によって算出された類似度」とから「類似度算出手段で類似度を算出するためのパラメータ」を学習するパラメータ学習手段の一例である。パラメータ学習部200は、部分類似度算出部150によって算出した特徴量の類似度とラベル推定部180によって推定したラベルとからカメラ識別子毎に類似度統合部160で用いる統合パラメータを学習する。
まず、登録画像記憶部110に記憶されている画像から検索したい人物の画像(以下、登録画像と称す)が入力装置3によって選択される(S100)。
次に、カメラ画像記憶部120に記憶されている画像(以下、カメラ画像と称す)を所定の順に沿って読み出す(S300)。カメラ画像記憶部120には、カメラ11、12、…、1Nで撮影した各画像に対して撮影に使用したカメラ、撮影時刻に対応付けて管理されている。ここでは、カメラ11、12、…、1Nの順に夫々のカメラを使用して撮影したカメラ画像が所定の検索範囲の中で時系列に過去の画像から読み出されるものとする。読み出したカメラ画像に対して図3のS400〜S600の処理が行われる。
次に、部分類似度算出部150、および、類似度統合部160によってS200で抽出した登録画像の顔特徴とS400で抽出したカメラ画像の顔特徴との類似度を算出する(S500)。類似度算出処理の詳細については後述する。画像照合装置100は求めた顔画像間の類似度を出力する。
S300〜S600の処理が順次繰り返して行われる。なお、カメラ画像中に複数の人物が存在する場合には、それぞれの人物の顔画像についてS400〜S500の処理を行って類似度を算出する。この場合、カメラ画像中には同一人物は複数存在しえないため、S600においてはカメラ画像中の複数の顔画像の中で類似度が最も高い顔画像の類似度をそのカメラ画像の代表類似度としてカメラ画像を順位付けする。
図4に顔特徴抽出処理の流れを示す。本処理での入力は登録画像、または、カメラ画像であり、画像中の顔の特徴量を出力する。
まず、物体検出部130によって入力画像から顔の領域を矩形領域として検出する(S210)。顔の検出には非特許文献2にあるような方法を用いる。顔画像の検索対象として比較的画質の良いものに限定するような場合には、顔の検出範囲を所定の大きさ以上に限定することで処理を効率化することができる。検出した顔領域は画像データに関連付けて、その画像中の位置座標を記録しておく。ここで、画像中から顔が検出されなかった場合には後続する処理をスキップする。
図5を用いて取得する局所画像の例を説明する。図5において実線の矩形RをS210で検出した顔領域とする。この例では顔領域中の矩形領域P1〜P5(右目がP1、左目がP2、鼻がP3、口右半分がP4、口左半分がP5に相当)の画像を、顔領域との予め定めた位置関係(例えば、顔領域の中心座標に対する相対的位置関係)から局所画像として取得する。なお、局所領域は図5の例に限らず、左右頬、両目、口全体、額部分等を追加してもよい。
次に、顔特徴抽出部140を用いて取得した局所画像の夫々から局所特徴を抽出し、顔特徴とする(S230)。顔特徴としては例えば、非特許文献4にあるような勾配方向ヒストグラム特徴(Histograms of Oriented Gradients)を用いる。
図6に類似度算出処理の流れを示す。本処理では登録画像およびカメラ画像の顔特徴(局所特徴)を入力し、顔画像間の類似度を出力する。
まず、S200およびS400で得た登録画像およびカメラ画像の局所特徴を取得する(S510)。ここでは、例えば、図5に示したP1の局所領域の特徴を得る。
次に、S510で得た2つの特徴の類似度を部分類似度算出部150を用いて求める(S520)。例えば、2つの特徴をベクトルと見做した時の特徴ベクトルの差の2乗ノルムを類似度として計算する。
次に、局所特徴の類似度を統合するための統合パラメータを取得する(S530)。ここで、統合パラメータは予めカメラ毎に学習されたパラメータであり、撮影に使用したN台のカメラのそれぞれに応じて取得する。統合パラメータの学習方法については後述する。
次に、S530で取得した統合パラメータを用いて類似度統合部160で局所特徴の類似度を統合する(S540)。ここで、顔画像間の各局所特徴の類似度をsk(k=1,2,…,N)、統合パラメータをwk(k=1,2,…,N)とするとき、以下の(式1)のように統合類似度sを重み付き総和として求める。Nは局所領域の数である。
図7に統合パラメータの学習の流れを示す。統合パラメータの学習を行うにあたって、予め登録画像およびカメラ画像が夫々登録画像記憶部110、カメラ画像記憶部120に記憶されているとする。なお、以下ではカメラ11で撮影した顔画像を照合する際の統合パラメータを学習する例について説明する。他のカメラにおける統合パラメータの学習も同様に行う。
次に、カメラ画像を1つ読み出す(S1200)。ここで、読み出したカメラ画像の識別子をカメラ識別子取得部190によって取得し、読み出した画像がカメラ11で撮影されたものかどうかを識別子から判定する。カメラ11で撮影された画像の場合は後続するS1300〜S1500の処理を行うが、それ以外は処理をスキップする。
次に、番号抽出部170によってカメラ画像からゼッケン番号を抽出する(S1400)。これは照合処理で説明したゼッケン番号抽出と同様の処理である。ここでゼッケン番号が抽出されなかった場合は後続するS1500の処理をスキップする。また、カメラ画像から複数の顔が検出され、夫々の顔画像に対してゼッケン番号が抽出された場合は、夫々の顔画像に対して抽出したゼッケン番号を記録しておく。
カメラ画像記憶部120に記憶されている全てのカメラ画像について、S1200〜S1500の処理を繰返し、カメラ画像中の顔についてゼッケン番号と顔特徴を得る。
そして、登録画像と関連付けて記憶されている人物の識別子とカメラ画像中の顔のゼッケン番号とをラベル推定部180を用いて比較し、番号が一致するならば同一人物、一致しない場合は別人物のラベルを付ける(S1700)。例えば、ラベルは1ビットの符号0または1で表現し、同一人物を1、別人物を0とする。
次に、登録画像とカメラ画像中の顔画像の局所特徴毎の類似度を部分類似度算出部150によって算出する(S1800)。これは照合処理時のS520と同様の処理である。
S1600〜S1800の処理を登録画像とカメラ画像中の顔画像の全ての組合せについて繰返し、局所特徴毎の類似度と推定ラベルの組を得る。
次に、求めた局所特徴の類似度と推定ラベルを用いてパラメータ学習部200で統合パラメータを学習する(S1900)。ここで、パラメータw={w1,w2,…,wN}は以下の(式2)の最適化によって求める。つまり、パラメータwは(式3)のEが最小となるようなパラメータwkの集合である。
登録画像中の人物とカメラ画像中の人物が同一人物である場合、パラメータwと局所特徴の類似度の内積は1に近い値となり、ラベルyiが1であるから()の2乗は0に近い値となる。
また、登録画像中の人物とカメラ画像中の人物が別人物である場合、パラメータwと局所特徴の類似度の内積は0に近い値となり、ラベルyiが0であるから()の2乗は0に近い値となる。
この方法の他にもパラメータの学習にはサポートベクターマシンを用いて推定してもよい。
他のカメラで撮影した顔画像を照合する際の統合パラメータを学習する場合も同様に行う。
本発明は前述したスポーツイベントの人物写真検索以外の用途にも適用できる。他の適用例として、街頭に設置した複数の監視カメラ映像から特定の人物の検索への応用がある。例えば、1つの監視カメラに映っている人物画像を登録画像として、複数の監視カメラ映像の中から顔や衣服の似ている人物を検索する。この場合にも、照明条件が異なると衣服の色が異なって映ったり、解像度の低いカメラでは顔の照合が困難になったりといったカメラ個別の問題がある。これらの問題は、本発明の画像照合装置および方法によって解決できるものである。以下に、その適用例を示す。なお、本実施形態におけるハードウェア構成、および、システム構成は、夫々、図10および図2に従う。
第二の実施形態においては、登録画像とカメラ画像との照合結果に基づいて同一人物か否かを示すラベルを推定し、このようにして得たラベルを用いて統合パラメータの学習を行う。
人物特徴抽出部210は、照合対象のオブジェクトに関する特徴量を画像から抽出する特徴抽出手段の一例である。人物特徴抽出部210は、物体検出部130で検出した顔の位置から人物の各部の位置を推定し、その各部の特徴を抽出する。抽出する特徴は、例えば、頭部からは髪型や色、帽子を被っているか否か、胴体部分からは衣服の色や体型、等の人物の属性に関わる特徴(以下、人物属性特徴と称す)である。
ラベル推定部230は、照合結果保持部220に保持されている照合結果(顔の局所特徴毎の類似度および人物属性特徴毎の類似度に基づいて算出された照合結果)に同一人物か否かのラベルを付ける。
まず、登録画像記憶部110に記憶されている画像から検索したい人物の画像が選択される(S100)。ここで選択する画像は出力装置4に表示されたカメラ11、12、…、1Nの映像の1つであり、入力装置3によって複数の映像中のいずれかの人物画像部分が選択される。
次に、カメラ画像記憶部120に記憶されている画像を所定の順に沿って読み出す(S300)。
次に、部分類似度算出部150、および、類似度統合部160によって、S200で抽出した登録画像の顔の局所特徴および人物属性特徴と、S400で抽出したカメラ画像の顔の局所特徴および人物属性特徴との類似度を統合する(S500)。画像照合装置800は求めた人物画像間の類似度を出力する。
本実施形態では、例えば、登録画像が撮影された際の照明環境とは異なる照明環境に設置されたカメラで撮影したカメラ画像では色の変動に依らない特徴を統合時に重視するようにパラメータwが決定される。これにより、精度の高い類似度が得られる。
つまり、「高い類似度を示す登録画像とカメラ画像の特徴量の組」に対応する(式3)のラベルyiを1とし、それ以外の「登録画像とカメラ画像の特徴量の組」に対応する(式3)のラベルyiを0とする。
このようにして求めたラベルyiを用いて、パラメータの学習を行い、(式3)のEが最小となるようなパラメータwkの集合であるパラメータwを求める。
次に、物体検出部130によってカメラ画像から顔の領域を矩形領域として検出する(S2300)。
次に、画像中の顔領域の位置にもとづいて顔特徴抽出部140で複数の局所画像を取得し、顔の局所特徴を抽出する。また、人物特徴抽出部210で複数の人物属性特徴を抽出する(S2400)。
次に、登録画像とカメラ画像中の人物画像における顔および人物特徴の組合せを1つ設定する(S2500)。
次に、登録画像中の人物画像とカメラ画像中の人物画像との特徴毎の類似度を部分類似度算出部150によって算出し、類似度統合部160で統合する(S2600)。まず、顔の各局所特徴の類似度と人物の各属性特徴の類似度とを特徴毎に部分類似度算出部150で求める。更に、類似度統合部160で求めた特徴毎の類似度を統合する。このとき、統合に使うパラメータは初期パラメータで、例えば、全ての重みを1とする。特徴毎の類似度も、統合した類似度とともに保持しておく。
次に、ラベル推定部230は照合結果保持部220に保持されている特徴毎の類似度に同一人物か否かのラベルを付ける(S2800)。すなわち、照合結果保持部220で統合類似度が上位の高い値を取るものに対して同一人物、下位の低い値を取るものに対して別人物と推定して、特徴毎に保持した類似度にラベルを付ける。
次に、求めた特徴毎の類似度と推定ラベルを用いてパラメータ学習部200で統合パラメータを学習し、更新する(S2900)。
以上説明した本発明の実施形態によって、複数のカメラの映像から特定の物体(前記実施形態では人物)を検索する画像検索システムにおいて、カメラの設置状況の違いを考慮した高精度の検索が実現できる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実
施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体
を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(または
CPUやMPU等)がコンピュータプログラムを読み出して実行する処理である。
130 物体検出部 140 顔特徴抽出部 150 部分類似度算出部
160 類似度統合部 170 番号抽出部 180 ラベル推定部
190 カメラ識別子取得部
Claims (10)
- 照合対象のオブジェクトの局所領域毎に特徴量を画像から抽出する特徴抽出手段と、
前記特徴抽出手段によって第一の画像から抽出された局所領域毎の特徴量の夫々と第二の画像から抽出された対応する局所領域の特徴量との局所領域毎の類似度を算出する類似度算出手段と、
前記局所領域毎の類似度を重みづけして統合した統合類似度を算出する類似度統合手段と、
前記第一の画像中のオブジェクトと前記第二の画像中のオブジェクトとが同一か否かを推定する推定手段と、
前記推定手段により夫々が含むオブジェクトが同一と推定される第一及び第二の画像間の統合類似度が高くなり、前記推定手段により夫々が含むオブジェクトが同一ではないと推定される第一及び第二の画像間の統合類似度が低くなるように、前記類似度統合手段で統合類似度を算出するための重みを学習する学習手段と
を備えることを特徴とする画像照合装置。 - 前記推定手段は、前記類似度統合手段によって算出された統合類似度に基づいて、前記第一の画像中のオブジェクトと前記第二の画像中のオブジェクトとが同一か否かを推定する
ことを特徴とする請求項1に記載の画像照合装置。 - 画像から識別情報を抽出する識別情報抽出手段をさらに備え、
前記推定手段は、前記識別情報に基づいて、前記第一の画像中のオブジェクトと前記第二の画像中のオブジェクトとが同一か否かを推定する
ことを特徴とする請求項1に記載の画像照合装置。 - 前記特徴抽出手段が更に、オブジェクトの属性に関する特徴量を抽出することを特徴とする請求項1から3のいずれか1項に記載の画像照合装置。
- 前記第一の画像を取得した撮像装置の識別子を取得する撮像装置識別子取得手段をさらに備え、
前記学習手段は、前記撮像装置識別子取得手段が取得した識別子毎に前記類似度統合手段が類似度を重みづけする重みを学習する
ことを特徴とする請求項1から4のいずれか1項に記載の画像照合装置。 - 請求項1から5のいずれか1項に記載の画像照合装置と、
前記第二の画像を登録する画像登録手段と、
前記画像照合装置によって夫々算出された複数の前記第一の画像の夫々と前記第二の画像との統合類似度に基づいて前記第一の画像を順位付けして出力する検索結果出力手段と
を備えることを特徴とする画像検索システム。 - 照合対象のオブジェクトの局所領域毎の特徴量を第一の画像および第二の画像の夫々から抽出する特徴抽出ステップと、
前記特徴抽出ステップにおいて第一の画像から抽出された局所領域毎の特徴量の夫々と第二の画像から抽出された対応する局所領域の特徴量との局所領域毎の類似度を算出する類似度算出ステップと、
前記局所領域毎の類似度を重みづけして統合した統合類似度を算出する類似度統合ステップと、
前記第一の画像中のオブジェクトと前記第二の画像中のオブジェクトとが同一か否かを推定する推定ステップと、
前記推定ステップにおいて夫々が含むオブジェクトが同一と推定される第一及び第二の画像間の統合類似度が高くなり、前記推定ステップにおいて夫々が含むオブジェクトが同一ではないと推定される第一及び第二の画像間の統合類似度が低くなるように、前記類似度統合ステップで統合類似度を算出するための重みを学習する学習ステップと
を備えることを特徴とする画像照合方法。 - 複数の第一の画像を撮像する撮像ステップと、
第二の画像を登録する画像登録ステップと、
請求項7に記載の画像照合方法において夫々算出した複数の前記第一の画像の夫々と前記第二の画像との統合類似度から前記第一の画像を順位付けして出力する検索結果出力ステップとを備えることを特徴とする画像検索方法。 - コンピュータを、請求項1から5のいずれか1項に記載の画像照合装置の各手段として機能させるためのコンピュータプログラム。
- コンピュータを、請求項6に記載の画像検索システムの各手段として機能させるためのコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014104004A JP6470503B2 (ja) | 2014-05-20 | 2014-05-20 | 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム |
US14/713,048 US9626551B2 (en) | 2014-05-20 | 2015-05-15 | Collation apparatus and method for the same, and image searching apparatus and method for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014104004A JP6470503B2 (ja) | 2014-05-20 | 2014-05-20 | 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015219797A JP2015219797A (ja) | 2015-12-07 |
JP6470503B2 true JP6470503B2 (ja) | 2019-02-13 |
Family
ID=54556278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014104004A Active JP6470503B2 (ja) | 2014-05-20 | 2014-05-20 | 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9626551B2 (ja) |
JP (1) | JP6470503B2 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6593327B2 (ja) * | 2014-05-07 | 2019-10-23 | 日本電気株式会社 | 画像処理装置、画像処理方法およびコンピュータ可読記録媒体 |
JP6277570B2 (ja) * | 2014-06-12 | 2018-02-14 | 本田技研工業株式会社 | 撮像画像交換システム、撮像装置、および撮像画像交換方法 |
JP6544900B2 (ja) * | 2014-09-17 | 2019-07-17 | キヤノン株式会社 | オブジェクト識別装置、オブジェクト識別方法及びプログラム |
CN105760488B (zh) * | 2016-02-17 | 2020-06-16 | 北京大学 | 基于多层次特征融合的图像表达方法和装置 |
CN105787087B (zh) * | 2016-03-14 | 2019-09-17 | 腾讯科技(深圳)有限公司 | 合演视频中搭档的匹配方法和装置 |
JP6476148B2 (ja) * | 2016-03-17 | 2019-02-27 | 日本電信電話株式会社 | 画像処理装置及び画像処理方法 |
EP3499455A4 (en) * | 2016-08-08 | 2019-07-10 | Panasonic Intellectual Property Management Co., Ltd. | INTERCLASSE AND METHOD FOR DISPLAYING COLLATION RESULT |
JP6873639B2 (ja) * | 2016-09-23 | 2021-05-19 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6835407B2 (ja) * | 2017-03-23 | 2021-02-24 | Necソリューションイノベータ株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2019023785A (ja) * | 2017-07-24 | 2019-02-14 | 富士ゼロックス株式会社 | 人物識別装置及びプログラム |
CN109389015A (zh) * | 2017-08-10 | 2019-02-26 | 丽宝大数据股份有限公司 | 脸部相似度评估方法与电子装置 |
CN109427078A (zh) * | 2017-08-24 | 2019-03-05 | 丽宝大数据股份有限公司 | 身体信息分析装置及其唇妆分析方法 |
JP6953292B2 (ja) * | 2017-11-29 | 2021-10-27 | Kddi株式会社 | オブジェクト識別装置および方法 |
JP6917293B2 (ja) * | 2017-12-19 | 2021-08-11 | セコム株式会社 | 画像監視装置 |
CN108921023A (zh) * | 2018-05-31 | 2018-11-30 | 上海依图网络科技有限公司 | 一种确定低质量人像数据的方法及装置 |
WO2020115910A1 (ja) * | 2018-12-07 | 2020-06-11 | 日本電気株式会社 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
JP7196932B2 (ja) * | 2018-12-07 | 2022-12-27 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
BR112021011817A2 (pt) * | 2018-12-27 | 2021-08-31 | Nec Corporation | Aparelho de processamento de informações, método de processamento de informações e programa |
WO2020148874A1 (ja) * | 2019-01-17 | 2020-07-23 | 日本電気株式会社 | 照合装置、照合方法、及びコンピュータ読み取り可能な記録媒体 |
JP7337541B2 (ja) * | 2019-05-14 | 2023-09-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7372076B2 (ja) * | 2019-08-07 | 2023-10-31 | ファナック株式会社 | 画像処理システム |
KR102282520B1 (ko) * | 2020-08-28 | 2021-07-27 | 머지리티 주식회사 | 이미지 종속 컨텐츠 통합 방법 |
KR102242027B1 (ko) * | 2020-08-28 | 2021-04-23 | 머지리티 주식회사 | 이미지 통합 방법 및 시스템 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4772379B2 (ja) * | 2005-05-26 | 2011-09-14 | 株式会社東芝 | 人物検索装置、人物検索方法および入退場管理システム |
JP4862518B2 (ja) * | 2006-06-29 | 2012-01-25 | パナソニック株式会社 | 顔登録装置、顔認証装置および顔登録方法 |
JP2009075868A (ja) * | 2007-09-20 | 2009-04-09 | Toshiba Corp | 画像から対象を検出する装置、方法およびプログラム |
WO2010075430A1 (en) * | 2008-12-24 | 2010-07-01 | Strands, Inc. | Sporting event image capture, processing and publication |
JP5554987B2 (ja) * | 2009-12-28 | 2014-07-23 | キヤノン株式会社 | オブジェクト識別装置及びその制御方法 |
JP5800557B2 (ja) * | 2011-04-20 | 2015-10-28 | キヤノン株式会社 | パターン認識装置、パターン認識方法及びプログラム |
JP5801601B2 (ja) * | 2011-05-10 | 2015-10-28 | キヤノン株式会社 | 画像認識装置、画像認識装置の制御方法、およびプログラム |
JP2014016968A (ja) * | 2012-07-11 | 2014-01-30 | Toshiba Corp | 人物検索装置及びデータ収集装置 |
JP6013241B2 (ja) * | 2013-03-18 | 2016-10-25 | 株式会社東芝 | 人物認識装置、及び方法 |
-
2014
- 2014-05-20 JP JP2014104004A patent/JP6470503B2/ja active Active
-
2015
- 2015-05-15 US US14/713,048 patent/US9626551B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015219797A (ja) | 2015-12-07 |
US9626551B2 (en) | 2017-04-18 |
US20150339516A1 (en) | 2015-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6470503B2 (ja) | 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム | |
JP6664163B2 (ja) | 画像識別方法、画像識別装置及びプログラム | |
JP7132387B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP5174045B2 (ja) | 分類器チェーンを用いた照明検出 | |
JP5008269B2 (ja) | 情報処理装置、情報処理方法 | |
JP5517858B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
JP5959093B2 (ja) | 人物検索システム | |
JP2000306095A (ja) | 画像照合・検索システム | |
JP2007317062A (ja) | 人物認識装置及びその方法 | |
KR20120064581A (ko) | 영상 분류 방법 및 이를 위한 장치 | |
Krishnan et al. | Implementation of automated attendance system using face recognition | |
JP6969878B2 (ja) | 識別器学習装置および識別器学習方法 | |
JP2021503139A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP2017059945A (ja) | 画像解析装置及び画像解析方法 | |
Vadlapati et al. | Facial recognition using the OpenCV Libraries of Python for the pictures of human faces wearing face masks during the COVID-19 pandemic | |
JP2014016968A (ja) | 人物検索装置及びデータ収集装置 | |
CN108509925A (zh) | 一种基于视觉词袋模型的行人重识别方法 | |
Bhargavas et al. | Human identification using gait recognition | |
US8861803B2 (en) | Image recognition apparatus, image recognition method, and program | |
JP2019185205A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2013218605A (ja) | 画像認識装置、画像認識方法及びプログラム | |
Sun et al. | An integral pose regression system for the ECCV2018 PoseTrack Challenge | |
JP6739200B2 (ja) | 映像処理装置、映像処理システムおよび制御方法 | |
JP6544970B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Vaquero et al. | Attribute-based people search |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190118 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6470503 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |