JP2019109709A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2019109709A
JP2019109709A JP2017242130A JP2017242130A JP2019109709A JP 2019109709 A JP2019109709 A JP 2019109709A JP 2017242130 A JP2017242130 A JP 2017242130A JP 2017242130 A JP2017242130 A JP 2017242130A JP 2019109709 A JP2019109709 A JP 2019109709A
Authority
JP
Japan
Prior art keywords
image
feature
feature amount
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017242130A
Other languages
English (en)
Inventor
智行 柴田
Satoyuki Shibata
智行 柴田
雄土 山地
Yuto Yamaji
雄土 山地
小林 大祐
Daisuke Kobayashi
大祐 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017242130A priority Critical patent/JP2019109709A/ja
Priority to US16/122,738 priority patent/US10789454B2/en
Publication of JP2019109709A publication Critical patent/JP2019109709A/ja
Priority to JP2021063582A priority patent/JP7132387B2/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数の画像中の物体が同一であるかを、より高精度に判定可能とする。【解決手段】実施形態の画像処理装置は、検出部と、抽出部と、判定部と、を備える。検出部は、第1画像から、物体に含まれる予め定められた複数の部位のうち2以上の部位にそれぞれ対応する2以上の第1部分領域を検出し、第2画像から、複数の部位のうち2以上の部位にそれぞれ対応する2以上の第2部分領域を検出する。抽出部は、2以上の第1部分領域から2以上の第1特徴量を抽出し、2以上の第2部分領域から2以上の第2特徴量を抽出する。判定部は、第1特徴量と第2特徴量とを用いて、第1画像に含まれる物体と第2画像に含まれる物体が同一であるか否かを判定する。【選択図】図1

Description

本発明の実施形態は、画像処理装置、画像処理方法およびプログラムに関する。
従来から、保有する画像中の人物と別の画像中の人物とが同一人物であるか判定する方式として、顔や全身など予め定めた特定領域を検出し、その領域から得られる特徴量を用いて算出した画像間の類似性を用いる方式が知られている。また、判定性能を向上させるために、顔領域を用いた顔認証に加え、社員証などのネームプレートの情報を同時に利用する照合装置が知られている。また、映像内の特定物体をフレーム間で対応付ける追跡処理に関して、物体の複数領域を検出し、領域の間の位置関係に基づき、一部領域が検出困難であっても追跡可能とする技術が知られている。
特許第5649601号公報 特許第6040825号公報
P. F. Felzenszwalb,R. B. Girshick,D. McAllester and D. Ramanan,"Object detection with discriminatively trained part based models",PAMI,vol.32,no.9,pp.1627-1645,2010 N. Dalal and B. Triggs,"Histograms of oriented gradients for human detection",CVPR,vol.1,pp.886-893, 2005 Ren, Shaoqing, et al. "Faster R-CNN: Towards real-time object detection with region proposal networks." Advances in neural information processing systems. 2015 He, Kaiming, et al. "Deep Residual Learning for Image Recognition." arXiv preprint arXiv:1512.03385 (2015)
しかしながら、従来技術では、例えば物体の姿勢および物体とカメラとの位置関係により、対象とする領域が検出できず、判定が実行できない場合があった。また、時間的に近接する画像であることが仮定できない場合には、上記のような追跡処理の技術が適用できない場合があった。このように、従来技術では、画像中の物体が同一であるかを精度よく判定できない場合があった。
実施形態の画像処理装置は、検出部と、抽出部と、判定部と、を備える。検出部は、第1画像から、物体に含まれる予め定められた複数の部位のうち2以上の部位にそれぞれ対応する2以上の第1部分領域を検出し、第2画像から、複数の部位のうち2以上の部位にそれぞれ対応する2以上の第2部分領域を検出する。抽出部は、2以上の第1部分領域から2以上の第1特徴量を抽出し、2以上の第2部分領域から2以上の第2特徴量を抽出する。判定部は、第1特徴量と第2特徴量とを用いて、第1画像に含まれる物体と第2画像に含まれる物体が同一であるか否かを判定する。
第1の実施形態にかかる画像処理装置のブロック図。 変形例にかかる画像処理システムのブロック図。 第1の実施形態における判定処理のフローチャート。 画像内の1つの領域を用いて物体の同一性を判定する例を示す図。 画像内の複数の領域を用いて物体の同一性を判定する例を示す図。 画像内の複数の領域を用いて物体の同一性を判定する例を示す図。 判定結果の出力方法の一例を示す図。 判定結果の出力方法の一例を示す図。 第2の実施形態にかかる画像処理装置のブロック図。 第2の実施形態における判定処理のフローチャート。 属性情報の具体例を示す図。 属性情報の具体例を示す図。 第1または第2の実施形態にかかる装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかる画像処理装置の好適な実施形態を詳細に説明する。
以下の実施形態の画像処理装置は、例えば、監視カメラで撮像した映像から、特定人物が映っている時間を特定する人物検索システムに適用できる。この場合、例えば画像処理装置は、予め登録した画像中の人物と、監視カメラに映る歩行者などの人物とが同一であるかを判定する。これにより、登録人物が映像中のどの区間に存在していたか解析することが可能となる。また、実施形態の画像処理装置は、スポーツの映像から特定人物を検出するシステム、および、映像内の特定物体を追跡するシステムに適用できる。適用可能なシステムはこれらに限られるものではない。また判定対象は人物に限られず、どのような物体であってもよい。
(第1の実施形態)
第1の実施形態に係る画像処理装置は、同一物体であるかを判定する2つの画像に対して、物体に含まれる予め定められた複数の部位(特定部位)に相当する2以上の領域を検出する。画像処理装置は、検出した各領域から同一物体であると判定するための特徴量を抽出し、2つの画像間で共通に抽出できた領域の特徴量を用いて、同一物体であるかを判定する。これにより、一部の領域から特徴量が抽出できない場合であっても、画像中の物体の同一判定をより高精度に実行可能となる。複数の領域からの特徴量を用いることができるため、複数の視点からの判定が可能になり、判定の精度をより高くすることができる。また、2つの画像が時間的に近接する画像であることを仮定する必要はない。
図1は、第1の実施形態にかかる画像処理装置100の構成の一例を示すブロック図である。図1に示すように、画像処理装置100は、撮像部121と、記憶部122と、検出部101と、抽出部102と、判定部103と、出力制御部104と、を備えている。
撮像部121は、物体を撮像し、物体が撮像された画像を出力する。撮像部121は、例えば、カメラなどの撮像装置により実現できる。なお、例えば記憶部122などの記憶媒体、または、他の装置から画像を取得する場合は、画像処理装置100は撮像部121を備えなくてもよい。
記憶部122は、画像処理装置100における各種処理で用いられる各種情報を記憶する。例えば記憶部122は、事前に得られた特定物体(特定人物)の画像、および、各部による処理結果などを記憶する。記憶部122は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
検出部101は、画像から物体の特定部位に相当する部分領域を検出する。例えば検出部101は、2つの画像(第1画像、第2画像)のそれぞれから、物体に含まれる予め定められた複数の部位(特定部位)のうち2以上の部位にそれぞれ対応する2以上の部分領域を検出する。例えば第1画像から2以上の部分領域(第1部分領域)が検出され、第2画像から2以上の部分領域(第2部分領域)が検出される。2つの画像から検出される部分領域は一致する場合もあるし、一致しない場合もある。
物体が人物の場合、部分領域は、例えば、顔、頭部、全身、上半身、下半身、胴体、腕、脚、および、足などである。部分領域は、例えば対象を包含する矩形で表現する。領域の形状は矩形に限られず、円形または楕円形などでもよい。
比較する2つの画像(第1画像、第2画像)はどのような画像であってもよい。例えば、画像処理装置100を人物検索システムに適用する場合は、事前に撮像された特定人物の画像を第1画像とし、その後に監視カメラで撮像された映像内の画像を第2画像としてもよい。スポーツの映像から特定人物を検出するシステムに適用する場合は、事前に撮像された特定人物の画像を第1画像とし、映像内の画像を第2画像としてもよい。映像内の2つの画像が第1画像および第2画像として比較されてもよい。特定物体を追跡するシステムに適用する場合は、映像内の相互に近接するフレームを第1画像および第2画像としてもよい。
検出部101が部分領域を検出する方法はどのような方法であってもよい。例えば検出部101は、各部分領域を抽出する個別の検出器を学習し、学習した検出器を用いてもよい。検出部101は、非特許文献1のように、各部分領域の位置関係を学習することで姿勢変動に対して頑健性を向上させたモデル(Deformable Part Model)を用いてもよい。個別の検出器は、輝度勾配を特徴として、サポートベクタマシンで前景と背景を学習する手法により実現してもよい(非特許文献2)。
検出部101は、深層学習を用いた検出手法を用いてもよい。深層学習を用いる手法としては、非特許文献3のFaster R−CNN(Region-based Convolutional Neural Networks)などが知られている。Faster R−CNNの場合、検出部101は、入力画像から中間表現である特徴マップを共通で抽出し、その後、その特徴マップから各部分領域に対応した候補矩形を抽出し、出力できる。そのため、複数の部分領域を同時に学習し、同時に推定して出力することが可能である。
抽出部102は、検出部101で検出できた部分領域から特徴量を算出する。抽出部102は、対象の見え方により検出できなかった部分領域からは特徴量を抽出しない。複数の部分領域から特徴量が抽出できた場合、抽出部102は、それらの特徴量を統合して出力してもよい。
抽出部102は、検出部101で検出できた部分領域それぞれから、部分領域に応じて設計した特徴抽出方法により特徴量を抽出する。抽出する特徴量は、同一人物を判定するための特徴量であり、個人性を表現する情報である。このため、同一人物は類似し、他人は類似しない特徴空間が学習され、特徴量の抽出に用いられる。
一般的に特徴抽出方法は、特徴記述と、計量学習した空間への写像と、で構成される。特徴記述は、部分領域中の画像情報から、予め設計した方法で、固定次元の数値ベクトル(特徴ベクトル)を求める処理である。例えば抽出部102は、部分領域を複数のブロックに分割し、各ブロックの輝度勾配の頻度を記述するHOG(Histogram of Gradients、非特許文献2)を用いてもよい。抽出部102は、部分領域を固定サイズにリサイズして、画素値を並べた特徴ベクトルを求めてもよい。
計量学習は、どのような学習方法を用いてもよい。例えば、線形判別分析および深層学習などを計量学習に用いてもよい。深層学習は、特徴抽出と計量学習とを、学習データに関して認識する性能が最大になるように同時に最適化(学習)する方式である(非特許文献4)。Residual Netのような深層学習を用いる場合、予め学習したモデルの最終出力は学習に用いた物体の尤度列であり、未学習の物体についての情報が得られない。そのため、最終出力層の直前のpool5層などの中間状態が特徴量として抽出され、使用される。
判定部103は、抽出された特徴量を用いて、2つの画像(第1画像、第2画像)に含まれる物体が同一であるか否かを判定する。例えば判定部103は、第1部分領域から抽出された特徴量(第1特徴量)と、第2部分領域から抽出された特徴量(第2特徴量)とを判定に用いる。
判定部103は、例えば、2つの画像間で共通に特徴量が抽出された部分領域(第3部分領域)の特徴量を用いて類似度を算出し、類似度と閾値とを比較することにより、画像内の物体が同一であるかを判定する。例えば第1画像から顔、上半身、および、全身の特徴量が抽出され、第2画像から上半身および全身の特徴量が抽出されたとする。この場合、判定部103は、共通に抽出された上半身および全身の特徴量を用いる。第1画像および第2画像それぞれから2以上の部分領域が検出されるため、2つの画像間で共通に特徴量が抽出される第3部分領域の個数は1以上となる。
判定部103は、2以上の部分領域それぞれから抽出される2以上の特徴量を用いることができる。このため、1つの領域のみを用いていた従来技術と比較して、特徴量が抽出できないことにより判定が実行できなくなる確率を大きく下げることが可能となる。
特徴量の類似度はどのような方法で算出してもよい。例えば判定部103は、特徴量(特徴ベクトル)のベクトル類似度を用いてもよいし、特徴ベクトルのベクトル間距離を用いてもよい。
判定部103は、2以上の特徴量それぞれについて、対応する特徴量との間の類似度を算出し、算出された2以上の類似度の重み付け和などを閾値と比較することにより、2つの画像内の物体が同一であるかを判定してもよい。例えば判定部103は、物体間の類似度sim(i,j)を以下の(1)式で算出する。
Figure 2019109709
ここで、<a|b>はベクトルaとベクトルbとの内積を表す。xp,iは部分領域pについての物体iの特徴ベクトルとする。xp,jは部分領域pについての物体jの特徴ベクトルとする。S(i,j,p)は、部分領域pについての特徴量間の類似度に相当する。Σは、すべての部分領域pについての和を算出することを意味する。
重みwは、部分領域pに対して定められた重みを表す。重みwは、大きい値であるほど、その部分領域に関する類似度をより考慮して物体間の類似度を算出することとなる。重みは、例えば、各部分領域の個人認証に対する信頼度(物体が同一であるか否かの判定に対する信頼度)に応じて定められる。例えば、スポーツの映像から同一人物を検出するシステムに適用する場合、ユニホームを含む上半身の領域が、個人を特定するのにより信頼できると考えられる。このため、上半身の領域の重みを、他の領域より大きい値とすることができる。このように、各部分領域の重みは、本実施形態を適用するシステムの種類、および、処理対象とする画像(映像)の種類などに応じて変更してもよい。
判定部103は、以下の(2)式のように、各部分領域pの類似度を要素とするベクトルαを定義し、サポートベクタマシンなどを用いて予め学習した回帰式により、部分領域の類似度ベクトルから物体間の類似度を算出してもよい。
Figure 2019109709
判定部103は、算出された2以上の類似度それぞれを、部位ごとに定められた閾値と比較し、閾値を超えた個数により、画像内の物体が同一であるか判定してもよい。言い換えると、同一物体であるかどうかをそれぞれの部分領域で判定し、多数決により判定してもよい。例えば判定部103は、以下の(3)式により物体間の類似度sim(i,j)を算出する。thは、部分領域pに対して定められた閾値を表す。Pは、類似度算出に用いる部分領域の数とする。重みwはすべて均等としてもよい。
Figure 2019109709
判定部103は、2以上の特徴量(特徴ベクトル)を1つに統合して、物体の特徴量を生成し、統合した特徴量間の類似度により同一物体であるか否かを判定してもよい。特徴ベクトルの統合は、例えば、部分空間法により、部分空間として表現してもよい。判定部103は、すべての特徴ベクトルの次元数dを同一に決めておき、以下の(4)式のように、2以上の特徴ベクトルの重み付け和である特徴量(統合特徴量)を算出してもよい。重みwは、(1)式と同様に部分領域pに対して定められた重みを表す。xp,i,dは部分領域pについての物体iのd次元の特徴ベクトルを表す。Mは物体iのd次元の特徴ベクトルとなる。
Figure 2019109709
判定部103は、2つの画像それぞれに対して算出された2つの統合特徴量の類似度を算出することにより、2つの画像内の物体が同一であるか判定する。
(4)式のように次元数が共通となる統合特徴量を用いる場合、共通で検出できた部分領域に限る必要はないため、判定部103は、2つの画像間で共通に特徴量が抽出された部分領域(第3部分領域)以外の特徴量も含めて統合特徴量を算出してもよい。例えば判定部103は、第1画像から抽出されたすべての特徴量を統合した統合特徴量を算出し、第2画像から抽出されたすべての特徴量を統合した統合特徴量を算出し、両者の類似度を算出してもよい。
例えば上記と同様に、第1画像から顔、上半身、および、全身の特徴量が抽出され、第2画像から上半身および全身の特徴量が抽出されたとする。この場合、判定部103は、第1画像に対しては、顔、上半身、および、全身の特徴量を統合した統合特徴量を算出し、第2画像に対しては上半身および全身の特徴量を統合した統合特徴量を算出し、両者の類似度を算出する。
判定部103は、算出した類似度が閾値以上である場合、2つの画像内の物体が同一であると判定し、類似度が閾値未満である場合、2つの画像内の物体が同一でないと判定する。
出力制御部104は、画像処理装置100による各種処理の処理結果などの出力処理を制御する。例えば出力制御部104は、判定部103による判定結果(物体が同一であるか否か、同一であると判定された物体が映っている時間など)を出力する。出力方法はどのような方法であってもよい。例えば出力制御部104は、判定結果をディスプレイなどの表示装置に出力する。出力制御部104は、ネットワークなどを介して外部の装置に判定結果を送信してもよい。
図1の各部の機能を、複数の装置により実現してもよい。図2は、このように構成した場合の画像処理システムの構成の一例を示すブロック図である。なお、図1と同様の構成については同一の符号を付し、説明を省略する。また図2のように機能を複数の装置に分散する構成は、後述の実施形態にも適用できる。
図2に示すように、画像処理システムは、端末装置100aと、画像処理装置100bと、を備えている。端末装置100aと画像処理装置100bとは、例えばインターネットなどのネットワークにより接続される。端末装置100aは、例えば、監視カメラ、パーソナルコンピュータ、携帯電話、スマートフォン、および、タブレットなどである。画像処理装置100bは、例えば、クラウド上に構築されたサーバ装置である。
端末装置100aは、撮像部121と、通信制御部111と、を備えている。画像処理装置100bは、通信制御部112と、記憶部122と、検出部101と、抽出部102と、判定部103と、出力制御部104と、を備えている。
通信制御部111は、画像処理装置100bなどの外部装置との間の通信を制御する。例えば通信制御部111は、撮像部121により撮像された画像を画像処理装置100bに送信する。また、通信制御部111は、画像処理装置100bによる処理結果(判定部103の判定結果など)を、画像処理装置100bから受信する。
通信制御部112は、端末装置100aなどの外部装置との間の通信を制御する。例えば通信制御部112は、撮像部121により撮像された画像を端末装置100aから受信する。また、通信制御部112は、画像処理装置100bによる処理結果(判定部103の判定結果など)を、端末装置100aに送信する。
図2は、撮像部121とそれ以外の機能部とを2つの装置に分けた例を示す。各機能部の分離方法はこれに限られるものではなく、どのような分離方法であってもよい。例えば、抽出部102が特徴量を抽出する処理(詳細は後述)までの機能を端末装置100aが備え、判定部103以降の処理を画像処理装置100bが実行してもよい。また、図1の各部の機能を、3以上の装置に分散して実行するように構成してもよい。
上記各部(検出部101、抽出部102、判定部103、出力制御部104、および、通信制御部111、112)は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
次に、このように構成された第1の実施形態にかかる画像処理装置100による判定処理について図3を用いて説明する。図3は、第1の実施形態における判定処理の一例を示すフローチャートである。
検出部101は、例えば撮像部121から、処理対象とする画像を取得する(ステップS101)。検出部101は、取得した画像から、物体の特定部位に相当する部分領域を検出する(ステップS102)。抽出部102は、検出された部分領域それぞれから、特徴量を抽出する(ステップS103)。判定部103は、特徴量を用いて、2つの画像内の物体が同一であるか否かを判定する(ステップS104)。出力制御部104は、判定部103による判定結果を出力する(ステップS105)。
次に、判定処理の具体例について説明する。図4は、画像内の1つの領域を用いて物体の同一性を判定する場合の例を示す図である。図4は、顔領域が判定処理に用いられる例を示す。図4に示すように、画像402では顔が認識できるため顔領域412が検出されるが、画像401では顔が認識できないため顔領域が検出されない。この結果、2つの画像内の物体が同一であるか否かを判定できなくなる。
図5および図6は、画像内の複数の領域を用いて物体の同一性を判定する場合の例を示す図である。図5および図6は、顔領域、上半身領域、および、全身領域が判定処理に用いられる例を示す。画像501では顔領域が検出されないが、上半身領域521および全身領域531が検出される。画像502では、顔領域512、上半身領域522、および、全身領域532がすべて検出される。
この場合、判定部103は、例えば両画像に共通する上半身領域および全身領域から得られる特徴量を用いて判定処理を実行可能となる。統合特徴量を用いる場合、判定部103は、画像501に対しては上半身領域521および全身領域531の2つの領域から抽出される特徴量を統合した統合特徴量を用い、画像502に対しては顔領域512、上半身領域522、および、全身領域532の3つの領域から抽出される特徴量を統合した統合特徴量を用いることができる。
なお図5は、例えばある施設内に設置された監視カメラで得られた画像から同一の人物を検出するシステムに適用した例である。このような例では人物の服装が変化しないため、顔領域が検出できなくても、上半身領域および全身領域を用いることにより、同一人物であるかの判定処理を高精度に実行可能となる。
図6は、スポーツの映像から同一人物を検出するシステムに適用した例である。このような例では表情の変化などにより顔の見え方が異なる場合がある。このため、顔領域以外の領域も活用したほうが、より高精度に判定処理を実行可能となる。図6の例では、画像601から顔領域611、上半身領域621、および、全身領域631が検出され、画像602から顔領域612、上半身領域622、および、全身領域632が検出される。判定部103は、3つの領域それぞれから抽出される特徴量を用いて、2つの画像内の人物が同一であるか判定する。
図7および図8は、判定結果の出力方法の一例を示す図である。図7および図8は、同一物体または同一物体でないと判定するに至った画像上の領域をユーザへ可視化して出力する場合の例を示す。
例えば出力制御部104は、判定部103により算出された各部分領域の類似度、または、重みを付けた類似度を、同一物体と判定した場合は降順に並べ替え、同一でないと判定した場合は昇順に並び替え、予め定めた値域内の上位の部分領域に関して、強調表示した画像を出力する。
強調表示の方法は、どのような方法であってもよい。例えば出力制御部104は、同一物体の判定に用いた部分領域の枠線の太さなどを変更する方法、当部分領域のみを通常の色で表示し、他の部分領域の輝度値を低下させる方法などを適用できる。変更させる表示態様(属性)は上記に限られるものではない。
図7は、部分領域の枠線を変更する例を示す。図7では、画像701内の上半身領域721、画像702内の上半身領域712の枠線が太く表示され、他の部分領域である全身領域731、顔領域712、および、全身領域732が破線で示されている。
また、出力制御部104は、2つの画像を並べ、部分領域を枠で囲み、2つの画像の同じ部分領域の枠を線で結んで表示してもよい。これにより、同一と判定した部分領域が判別可能となる。図8は、このように部分領域を対応づけた表示例を示す。図8では、部分領域811と部分領域812とを対応づける線831と、部分領域821と部分領域822とを対応づける線832と、が表示される。
また、出力制御部104は、白黒の物体アイコンを用意し、同一の判定に用いられた部分領域について色を付けてもよい。このとき、類似度に応じてヒートマップのように類似度の高い領域は、色が濃くまたは赤に近くし、類似度が低くなるにつれ、色が薄くなるまたは青に近づくように色付けしてもよい。
画像処理装置100は、検索処理および検知処理に応用することができる。例えば画像処理装置100は、予め大量の登録画像を、検出部101および抽出部102を用いて処理し、検出された各部分領域について、検出できたか否かを示すフラグと、抽出した特徴量とを対応づけて記憶部122などの登録用データベースに保存する。
検索処理を行う場合、画像処理装置100は、処理対象の画像を入力し、入力された画像に対して検出部101および抽出部102を用いて各部分領域の特徴量を抽出する。画像処理装置100は、登録用データベースに保存される登録データ(登録画像)を第1画像とし、入力された画像を第2画像として、判定部103を用いて、同一物体であるかを判定する。出力制御部104は、例えば同一物体であると判定された登録画像のみを出力する。
検知処理を行う場合、画像処理装置100は、入力された処理対象の画像と登録画像とに対して、判定部103を用いて同一物体であるかを判定する。入力された画像内の物体が、登録画像に含まれるいずれかの物体と同一であると判定された場合、出力制御部104は、入力された画像に、登録された物体の中に該当する物体が存在することを検知結果として出力する。
このように、第1の実施形態にかかる画像処理装置では、2つの画像から2以上の部分領域を検出し、各部分領域から同一物体であると判定するための特徴量を抽出し、抽出した特徴量を用いて、同一物体であるかを判定する。これにより、2つの画像中の物体が同一であるかをより高精度に判定可能となる。
(第2の実施形態)
第2の実施形態にかかる画像処理装置は、画像から物体の属性を推定し、推定した属性も考慮して、2つの画像内の物体が同一であるかを判定する。
図9は、第2の実施形態にかかる画像処理装置100−2の構成の一例を示すブロック図である。図9に示すように、画像処理装置100−2は、撮像部121と、記憶部122と、検出部101と、抽出部102と、判定部103−2と、出力制御部104と、推定部105−2と、を備えている。
第2の実施形態では、推定部105−2を追加したこと、および、判定部103−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる画像処理装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
推定部105−2は、2つの画像それぞれから物体の属性を示す属性情報を推定する。例えば推定部105−2は、検出されたすべての部分領域を包含する領域を対象として、物体の属性情報を推定する。属性情報を推定する対象とする領域はこれに限られない。例えば推定部105−2は、画像全体から属性情報を推定してもよいし、各部分領域に相当する画像から属性情報を推定してもよい。
属性情報は、特徴量のように物体を個別に認識するための情報ではなく、物体を分類するカテゴリを示す情報である。物体が人物の場合、属性情報は、例えば、年齢、年代、性別、髪の長さ、髪の色、肌の色、向き、上半身の服の種類、上半身の服の色、下半身の服の種類、下半身の服の色、靴の種類、靴の色、カバンの種類、カバンの有無、カバンの色、帽子の種類、帽子の有無、および、帽子の色、などである。色は、予め想定した色数に量子化してもよい。服、靴、カバン、および、帽子以外の装着物(所持品)の種類、有無、および、色などを属性情報としてもよい。
推定部105−2が画像から属性情報を抽出する方法はどのような方法であってもよい。例えば推定部105−2は、入力された画像に対して属性情報を出力するように予め学習された学習モデルに画像を入力することにより、属性情報を推定してもよい。
判定部103−2は、2つの画像それぞれに対して推定された2つの属性情報(第1属性情報、第2属性情報)と、2つの画像から抽出された特徴量と、を用いて、2つの画像に含まれる物体が同一であるか否かを判定する。
例えば判定部103−2は、推定された複数の属性情報を並べて属性数と同じ次元数のベクトルを求める。判定部103−2は、2つの画像それぞれに対して得られた2つのベクトル間の類似度を算出する。ベクトル間の類似度は、予め計量学習により同一物体が近くなり、同一でない物体が遠くなる空間へ射影しておいてもよい。
判定部103−2は、例えば属性情報間の類似度を、他の部分領域の特徴量(特徴ベクトル)から算出した類似度と同様に扱い、同一人物であるかを判定する。属性情報(ベクトル)は、特徴ベクトルと独立に処理してもよいし、特徴ベクトルと統合したベクトルとして処理してもよい。
次に、このように構成された第2の実施形態にかかる画像処理装置100−2による判定処理について図10を用いて説明する。図10は、第2の実施形態における判定処理の一例を示すフローチャートである。
ステップS201からステップS203までは、第1の実施形態にかかる画像処理装置100におけるステップS101からステップS103までと同様の処理なので、その説明を省略する。
推定部105−2は、取得した画像から、物体の属性を示す属性情報を推定する(ステップS204)。判定部103−2は、特徴量とともに属性情報を用いて、2つの画像内の物体が同一であるか否かを判定する(ステップS205)。ステップS206は、第1の実施形態にかかる画像処理装置100におけるステップS105と同様の処理なので、その説明を省略する。
次に、属性情報の具体例について説明する。図11および図12は、属性情報の具体例を示す図である。図11および図12では、判定対象とする物体を人物とし、以下の属性情報を用いる例が示されている。
・年代(若者、大人など)
・性別(女性、男性など)
・髪の長さ(長髪、短髪など)
・上半身の服の種類(Tシャツ、半袖など)
・下半身の服の種類(短パン、ズボンなど)
・靴の種類(サンダルなど)
・帽子の有無
・サンブラスの有無
・メガネの有無
・リュックの有無
・バッグの有無
・手提鞄の有無
・上半身の色
・下半身の色
・髪の色
・靴の色
・バッグの色
・手提鞄の色
各属性情報には、推定の確信度が対応づけられている。判定部103−2は、確信度を考慮して属性情報の類似度を判定してもよい。例えば判定部103−2は、確信度が閾値以上の属性情報のみを用いて類似度を判定してもよい。
判定部103−2は、属性情報のうち少なくとも1つを特徴量とともに用いて物体の同一性を判定する。これにより、特徴量のみを用いる場合よりも判定の精度を向上させることが可能となる。例えば特徴量が類似する場合であっても属性情報の類似度が小さい場合に、2つの画像内の物体が同一でないと判定することが可能となる。
このように、第2の実施形態にかかる画像処理装置では、画像から推定した物体の属性も考慮することにより、物体が同一であるかの判定をさらに高精度に実行可能となる。
以上説明したとおり、第1から第2の実施形態によれば、複数の画像中の物体が同一であるかを、より高精度に判定可能となる。
次に、第1または第2の実施形態にかかる装置(画像処理装置、端末装置)のハードウェア構成について図13を用いて説明する。図13は、第1または第2の実施形態にかかる装置のハードウェア構成例を示す説明図である。
第1または第2の実施形態にかかる装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
第1または第2の実施形態にかかる装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
第1または第2の実施形態にかかる装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1または第2の実施形態にかかる装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施形態にかかる装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1または第2の実施形態にかかる装置で実行されるプログラムは、コンピュータを上述した各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100、100b、100−2 画像処理装置
100a 端末装置
101 検出部
102 抽出部
103、103−2 判定部
104 出力制御部
105−2 推定部
111、112 通信制御部
121 撮像部
122 記憶部

Claims (10)

  1. 第1画像から、物体に含まれる予め定められた複数の部位のうち2以上の部位にそれぞれ対応する2以上の第1部分領域を検出し、第2画像から、前記複数の部位のうち2以上の部位にそれぞれ対応する2以上の第2部分領域を検出する検出部と、
    2以上の前記第1部分領域から2以上の第1特徴量を抽出し、2以上の前記第2部分領域から2以上の第2特徴量を抽出する抽出部と、
    前記第1特徴量と前記第2特徴量とを用いて、前記第1画像に含まれる物体と前記第2画像に含まれる物体が同一であるか否かを判定する判定部と、
    を備える画像処理装置。
  2. 前記判定部は、2以上の前記第1特徴量のうち、前記第1部分領域および前記第2部分領域のうち共通の部位に対応する第3部分領域から抽出された第3特徴量と、2以上の前記第2特徴量のうち、前記第3部分領域から抽出された第4特徴量と、を用いて、前記第1画像に含まれる物体と前記第2画像に含まれる物体が同一であるか否かを判定する、
    請求項1に記載の画像処理装置。
  3. 前記判定部は、部位ごとに前記第3特徴量と前記第4特徴量の類似度を算出し、前記複数の部位それぞれに対して定められた重みを用いて前記類似度を重み付けして得られる値を用いて、前記第1画像に含まれる物体と前記第2画像に含まれる物体が同一であるか否かを判定する、
    請求項2に記載の画像処理装置。
  4. 前記重みは、物体が同一であるか否かの判定に対する信頼度に応じて定められる、
    請求項3に記載の画像処理装置。
  5. 前記判定部は、前記複数の部位それぞれに対して定められた重みを用いて2以上の前記第1特徴量を重み付けして得られる特徴量と、前記重みを用いて2以上の前記第2特徴量を重み付けして得られる特徴量と、を用いて、前記第1画像に含まれる物体と前記第2画像に含まれる物体が同一であるか否かを判定する、
    請求項1に記載の画像処理装置。
  6. 前記重みは、物体が同一であるか否かの判定に対する信頼度に応じて定められる、
    請求項5に記載の画像処理装置。
  7. 前記物体は人物であり、
    前記複数の部位は、顔、頭部、全身、上半身、下半身、胴体、腕、脚、および、足のうちいずれか2以上である、
    請求項1に記載の画像処理装置。
  8. 前記第1画像から物体の属性を示す第1属性情報を推定し、前記第2画像から物体の属性を示す第2属性情報を推定する推定部をさらに備え、
    前記判定部は、前記第1属性情報と前記第2属性情報と前記第1特徴量と前記第2特徴量とを用いて、前記第1画像に含まれる物体と前記第2画像に含まれる物体が同一であるか否かを判定する、
    請求項1に記載の画像処理装置。
  9. 第1画像から、物体に含まれる予め定められた複数の部位のうち2以上の部位にそれぞれ対応する2以上の第1部分領域を検出し、第2画像から、前記複数の部位のうち2以上の部位にそれぞれ対応する2以上の第2部分領域を検出する検出ステップと、
    2以上の前記第1部分領域から2以上の第1特徴量を抽出し、2以上の前記第2部分領域から2以上の第2特徴量を抽出する抽出ステップと、
    前記第1特徴量と前記第2特徴量とを用いて、前記第1画像に含まれる物体と前記第2画像に含まれる物体が同一であるか否かを判定する判定ステップと、
    を含む画像処理方法。
  10. コンピュータを、
    第1画像から、物体に含まれる予め定められた複数の部位のうち2以上の部位にそれぞれ対応する2以上の第1部分領域を検出し、第2画像から、前記複数の部位のうち2以上の部位にそれぞれ対応する2以上の第2部分領域を検出する検出部と、
    2以上の前記第1部分領域から2以上の第1特徴量を抽出し、2以上の前記第2部分領域から2以上の第2特徴量を抽出する抽出部と、
    前記第1特徴量と前記第2特徴量とを用いて、前記第1画像に含まれる物体と前記第2画像に含まれる物体が同一であるか否かを判定する判定部と、
    として機能させるためのプログラム。
JP2017242130A 2017-12-18 2017-12-18 画像処理装置、画像処理方法およびプログラム Pending JP2019109709A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017242130A JP2019109709A (ja) 2017-12-18 2017-12-18 画像処理装置、画像処理方法およびプログラム
US16/122,738 US10789454B2 (en) 2017-12-18 2018-09-05 Image processing device, image processing method, and computer program product
JP2021063582A JP7132387B2 (ja) 2017-12-18 2021-04-02 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017242130A JP2019109709A (ja) 2017-12-18 2017-12-18 画像処理装置、画像処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021063582A Division JP7132387B2 (ja) 2017-12-18 2021-04-02 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019109709A true JP2019109709A (ja) 2019-07-04

Family

ID=66814484

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017242130A Pending JP2019109709A (ja) 2017-12-18 2017-12-18 画像処理装置、画像処理方法およびプログラム
JP2021063582A Active JP7132387B2 (ja) 2017-12-18 2021-04-02 画像処理装置、画像処理方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021063582A Active JP7132387B2 (ja) 2017-12-18 2021-04-02 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10789454B2 (ja)
JP (2) JP2019109709A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112307868A (zh) * 2019-07-31 2021-02-02 百度(美国)有限责任公司 图像识别方法、电子设备和计算机可读介质
JPWO2021033273A1 (ja) * 2019-08-20 2021-02-25
JP2021101384A (ja) * 2017-12-18 2021-07-08 株式会社東芝 画像処理装置、画像処理方法およびプログラム
JP7025497B1 (ja) 2020-09-14 2022-02-24 パナソニックi-PROセンシングソリューションズ株式会社 監視カメラ、パーツ紐付け方法およびプログラム
JP7418315B2 (ja) 2019-11-08 2024-01-19 アクシス アーベー 対象の再特定の方法
WO2024034374A1 (ja) * 2022-08-12 2024-02-15 株式会社日立ハイテク オブジェクト分類装置、オブジェクト分類方法及びオブジェクト分類システム
JP7504153B2 (ja) 2021-05-10 2024-06-21 エヌエイチエヌ コーポレーション ショッピングモールウェブページに関連づけられたデータを提供する装置、記録媒体、プログラムおよび方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592742B1 (en) * 2015-09-28 2020-03-17 Amazon Technologies, Inc. Agent re-identification
US10643063B2 (en) * 2018-04-09 2020-05-05 Qualcomm Incorporated Feature matching with a subspace spanned by multiple representative feature vectors
TWI749370B (zh) * 2019-09-16 2021-12-11 緯創資通股份有限公司 臉部辨識方法及其相關電腦系統
US11741712B2 (en) * 2020-09-28 2023-08-29 Nec Corporation Multi-hop transformer for spatio-temporal reasoning and localization
US20220147735A1 (en) * 2020-11-10 2022-05-12 Nec Laboratories America, Inc. Face-aware person re-identification system
WO2023282033A1 (ja) * 2021-07-09 2023-01-12 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及びプログラム
TWI813072B (zh) * 2021-11-17 2023-08-21 瑞昱半導體股份有限公司 用於物件追蹤的電子裝置及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157166A (ja) * 2015-02-23 2016-09-01 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP2017041022A (ja) * 2015-08-18 2017-02-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4595750B2 (ja) * 2005-08-29 2010-12-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US9251402B2 (en) * 2011-05-13 2016-02-02 Microsoft Technology Licensing, Llc Association and prediction in facial recognition
JP5649601B2 (ja) 2012-03-14 2015-01-07 株式会社東芝 照合装置、方法及びプログラム
JP6040825B2 (ja) 2013-03-26 2016-12-07 富士通株式会社 物体追跡プログラム、物体追跡方法及び物体追跡装置
JP6221505B2 (ja) * 2013-08-22 2017-11-01 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2015064292A1 (ja) * 2013-10-30 2015-05-07 日本電気株式会社 画像の特徴量に関する処理システム、処理方法及びプログラム
JP6417702B2 (ja) * 2014-05-01 2018-11-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6674192B2 (ja) * 2014-05-28 2020-04-01 ソニー株式会社 画像処理装置と画像処理方法
WO2015186341A1 (ja) * 2014-06-03 2015-12-10 日本電気株式会社 画像処理システム、画像処理方法及びプログラム記憶媒体
JP6339872B2 (ja) * 2014-06-24 2018-06-06 オリンパス株式会社 画像処理装置、内視鏡システム及び画像処理方法
WO2016038647A1 (en) * 2014-09-11 2016-03-17 Nec Corporation Image processing device, image processing method and storage medium storing program thereof
JP2016099643A (ja) * 2014-11-18 2016-05-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6486084B2 (ja) * 2014-11-28 2019-03-20 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
US9501716B2 (en) * 2014-12-11 2016-11-22 Intel Corporation Labeling component parts of objects and detecting component properties in imaging data
WO2016203548A1 (ja) * 2015-06-16 2016-12-22 オリンパス株式会社 内視鏡システム及びカプセル内視鏡装置
WO2017109854A1 (ja) * 2015-12-22 2017-06-29 オリンパス株式会社 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
CN110249366B (zh) * 2017-01-31 2024-05-10 株式会社爱信 图像特征量输出装置、图像识别装置、以及存储介质
US10769791B2 (en) * 2017-10-13 2020-09-08 Beijing Keya Medical Technology Co., Ltd. Systems and methods for cross-modality image segmentation
JP2019109709A (ja) * 2017-12-18 2019-07-04 株式会社東芝 画像処理装置、画像処理方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157166A (ja) * 2015-02-23 2016-09-01 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP2017041022A (ja) * 2015-08-18 2017-02-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤誠也 外1名: "共可視特徴に基づく複数カメラ間の人物同定", 画像電子学会誌, vol. 第45巻 第3号, JPN6020036800, 30 July 2016 (2016-07-30), pages 382 - 391, ISSN: 0004416886 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021101384A (ja) * 2017-12-18 2021-07-08 株式会社東芝 画像処理装置、画像処理方法およびプログラム
CN112307868A (zh) * 2019-07-31 2021-02-02 百度(美国)有限责任公司 图像识别方法、电子设备和计算机可读介质
CN112307868B (zh) * 2019-07-31 2024-04-19 百度(美国)有限责任公司 图像识别方法、电子设备和计算机可读介质
JPWO2021033273A1 (ja) * 2019-08-20 2021-02-25
JP7418315B2 (ja) 2019-11-08 2024-01-19 アクシス アーベー 対象の再特定の方法
JP7025497B1 (ja) 2020-09-14 2022-02-24 パナソニックi-PROセンシングソリューションズ株式会社 監視カメラ、パーツ紐付け方法およびプログラム
JP2022047997A (ja) * 2020-09-14 2022-03-25 パナソニックi-PROセンシングソリューションズ株式会社 監視カメラ、パーツ紐付け方法およびプログラム
JP7504153B2 (ja) 2021-05-10 2024-06-21 エヌエイチエヌ コーポレーション ショッピングモールウェブページに関連づけられたデータを提供する装置、記録媒体、プログラムおよび方法
WO2024034374A1 (ja) * 2022-08-12 2024-02-15 株式会社日立ハイテク オブジェクト分類装置、オブジェクト分類方法及びオブジェクト分類システム

Also Published As

Publication number Publication date
JP2021101384A (ja) 2021-07-08
US20190188456A1 (en) 2019-06-20
US10789454B2 (en) 2020-09-29
JP7132387B2 (ja) 2022-09-06

Similar Documents

Publication Publication Date Title
JP7132387B2 (ja) 画像処理装置、画像処理方法およびプログラム
AU2022252799B2 (en) System and method for appearance search
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
Ge et al. Exploiting local and generic features for accurate skin lesions classification using clinical and dermoscopy imaging
US8532390B2 (en) Semantic parsing of objects in video
EP2955666B1 (en) Image recognition device and method for registering feature data in image recognition device
KR20170077366A (ko) 얼굴 인식 시스템 및 방법
JP6969878B2 (ja) 識別器学習装置および識別器学習方法
Linda et al. Color-mapped contour gait image for cross-view gait recognition using deep convolutional neural network
Galiyawala et al. Person retrieval in surveillance using textual query: a review
KR20190018274A (ko) 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법
Galiyawala et al. Person retrieval in surveillance videos using deep soft biometrics
Putro et al. Adult image classifiers based on face detection using Viola-Jones method
CN111126102A (zh) 人员搜索方法、装置及图像处理设备
Shah et al. Description based person identification: use of clothes color and type
Ng et al. Development of vision based multiview gait recognition system with MMUGait database
Luna et al. People re-identification using depth and intensity information from an overhead camera
Chakraborty et al. Person re-identification using multiple first-person-views on wearable devices
Cosma et al. Multi-task learning of confounding factors in pose-based gait recognition
Chakraborty et al. Person reidentification using multiple egocentric views
JP2018036870A (ja) 画像処理装置及びプログラム
Tavakolian et al. Face recognition under occlusion for user authentication and invigilation in remotely distributed online assessments
Hema et al. Gait Based Human Age Classification using Random Forest Classifier
US20240152549A1 (en) Image processing apparatus for search of an image, image processing method and storage medium
RU2735629C1 (ru) Способ распознавания близнецов и ближайших родственников для мобильных устройств и мобильное устройство его реализующее

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210105