JP2019125057A - 画像処理装置及びその方法、プログラム - Google Patents

画像処理装置及びその方法、プログラム Download PDF

Info

Publication number
JP2019125057A
JP2019125057A JP2018003815A JP2018003815A JP2019125057A JP 2019125057 A JP2019125057 A JP 2019125057A JP 2018003815 A JP2018003815 A JP 2018003815A JP 2018003815 A JP2018003815 A JP 2018003815A JP 2019125057 A JP2019125057 A JP 2019125057A
Authority
JP
Japan
Prior art keywords
image
feature
matching
foreground area
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018003815A
Other languages
English (en)
Other versions
JP7094702B2 (ja
JP2019125057A5 (ja
Inventor
内山 寛之
Hiroyuki Uchiyama
寛之 内山
東條 洋
Hiroshi Tojo
洋 東條
矢野 光太郎
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018003815A priority Critical patent/JP7094702B2/ja
Priority to US16/240,497 priority patent/US11087169B2/en
Publication of JP2019125057A publication Critical patent/JP2019125057A/ja
Publication of JP2019125057A5 publication Critical patent/JP2019125057A5/ja
Application granted granted Critical
Publication of JP7094702B2 publication Critical patent/JP7094702B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Abstract

【課題】 画像中の物体を簡単に照合する。【解決手段】 画像情報処理装置に、入力画像から画像特徴を抽出する画像特徴抽出部105と、前記画像特徴に基づいて前記入力画像から前景領域を抽出する領域抽出部107と、前記画像特徴に基づいて補正情報を取得する取得部108と、前記補正情報を用いて前記前景領域を補正する補正部109と、前記補正手段により補正された前記前景領域から照合用の特徴を抽出する照合特徴抽出部110と、前記照合用の特徴に基づいて前記入力画像中の物体を照合する照合部111とを備える。【選択図】 図1

Description

本発明は、画像中の物体の照合などを行う画像処理装及びその方法、プログラム置に関するものである。
監視カメラシステムにおいて、カメラ画像から人物などの物体を検出して、他のカメラで検出された物体と同一であるか否かを判定する技術が開示されている(非特許文献1、非特許文献2)。この技術では、まず、カメラ画像中から物体を検出する。次に、その物体の領域から物体固有の特徴を表す照合特徴を抽出する。そして、異なるカメラで検出された物体の照合特徴を比較することで、これらの物体が同一であるか否かを識別する。
監視カメラは頭上から物体を見下ろす角度で設置されることが多い。そのため、カメラのパースペクティブによって、物体が画像の左右の端に近づくほど、画像のy軸方向に対して傾いたように映る。画像の照合精度を向上させるためには、画像に映る物体がなるべく同じ環境条件に近づくになるように正規化することが望ましい。そのため、非特許文献1では、事前に取得したカメラの回転などの姿勢情報を用いて、傾いた物体の画像を直立した物体の画像に補正している。
また、照合特徴の抽出領域に物体以外の背景が含まれていると精度が低下することが知られている。そのため、非特許文献3では推定した物体領域のマスクを用いることで、物体領域のみから照合特徴を抽出している。
S.Bak et al.,"Person re−identication employing 3D scene information,"Journal of Electronic Imaging,Society of Photo−optical Instrumentation Engineers,2015. S.Liao et al.,"Person Re−Identification by Local Maximal Occurrence Representation and Metric Learning,"Proc.of IEEE Conference on Computer Vision and Pattern Recognition,2015. M.Farenzena et al.,"Person Re−Identification by Symmetry−Driven Accumulation of Local Features,"CVPR2010. Paul Viola and Michael Jones「Robust Real‐time Object Detection」IJCV2001
非特許文献1では、カメラの姿勢情報を取得するためにはカメラキャリブレーションが必要となる。しかしながら、人手によるキャリブレーションは人的なコストがかかる。特に、多数の監視カメラを運用する際には、カメラの設定によるユーザの負担が大きい。カメラのパン・チルト・ズームやカメラ固定器具の劣化によるカメラの姿勢の変化によっても再設定が必要になることがある。
また、好適にカメラ間の物体照合を行うためには、非特許文献1のような傾いた物体に対して画像変換によって傾き補正を行う処理と、非特許文献3のような物体領域を抽出する処理の両方が必要である。しかしながら、同じ物体を対象としているにもかかわらず、これらの処理を別々に行うことは冗長であり、余分な計算量が必要となる。
本発明は、上記課題に鑑みてなされたものであり、画像中の物体を簡単に照合することのできる装置を提供することを目的とする。
本発明の1態様によれば、画像情報処理装置に、入力画像から画像特徴を抽出する画像特徴抽出手段と、前記画像特徴に基づいて前記入力画像から前景領域を抽出する領域抽出手段と、前記画像特徴に基づいて補正情報を取得する取得手段と、前記補正情報を用いて前記前景領域を補正する補正手段と、前記補正手段により補正された前記前景領域から照合用の特徴を抽出する照合特徴抽出手段と、前記照合用の特徴に基づいて前記入力画像中の物体を照合する照合手段とを備える。
本発明によれば、画像中の物体を簡単に照合することができる。
実施形態1の人物照合装置の機能構成を示す図である。 実施形態1の人物照合装置のハードウェア構成例を示す図である。 画像解析部の処理の流れを示すフローチャートである。 実施形態1のニューラルネットワークを説明する図である。 画像特徴と消失点情報から物体の特徴点を取得する処理の流れを示すフローチャートである。 物体の特徴点を補正する処理の説明図である。 特徴点を用いて消失点情報を更新する処理の説明図である。 画像と前景領域を幾何補正する処理の説明図である。 画像と前景領域から照合特徴を抽出する処理の説明図である。 照合特徴解析部の処理の流れを示すフローチャートである。 画面表示の例である。 学習部の処理の流れを示すフローチャートである。 画像特徴と消失点情報から物体の特徴点を取得する処理の流れを示すフローチャートである。 実施形態2のニューラルネットワークを説明する図である。 実施形態3の画像解析部の処理の流れを示すフローチャートである。 実施形態3の画像と前景領域を幾何補正する処理の説明図である。
以下、図面を参照しながら本発明の好適な実施形態について詳細に説明する。
(実施形態1)
図2に、本実施形態の人物照合装置のハードウェア構成例を示す。図2で、撮像素子201は、CCD、CMOS、等で構成され、被写体像を光から電気信号に変換する。信号処理回路202は、撮像素子201から得られた被写体像に関する時系列信号を処理し、デジタル信号に変換する。CPU203は、ROM204に格納されている制御プログラムを実行することにより、本装置全体の制御を行う。ROM204は、CPU203が実行する制御プログラムや各種パラメータデータを格納する。制御プログラムは、CPU203で実行されることにより、後述するフローチャートに示す各処理を実現し、当該装置を機能させる。
RAM205は、画像や各種情報を記憶し、CPU203のワークエリアやデータの一時待避領域として機能する。ディスプレイ206はデータを表示する。入力装置207は、マウス等のポインティングデバイスや、キーボードであり、ユーザからの入力を受け付ける。通信装置208は、ネットワークやバス等であり、他の通信装置とデータや制御信号を通信する。
なお、本実施形態では、後述するフローチャートの各ステップに対応する処理を、CPU203を用いてソフトウェアで実現することとするが、その処理の一部または全部を電子回路などのハードウェアで実現するようにしても構わない。また、人物照合装置は、撮像素子201や信号処理回路202を省いて汎用PCを用いて実現してもよいし、専用装置として実現するようにしても構わない。また、ネットワークまたは各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ等の処理装置(CPU,プロセッサ)にて実行してもよい。
本実施形態は監視対象の物体として人物を例に説明するが、これに限定せず、動物や車など他の物体でも構わない。
本実施形態の人物照合装置として機能する画像処理装置の構成を図1に示す。本実施形態は1つ以上の画像解析部101、照合特徴解析部111、学習部112、表示部115で構成される。画像解析部101はカメラの数だけ存在し、本実施形態では2つとするが、いくつでも構わない。
画像解析部101は、画像取得部102、物体検出部103、画像情報抽出部104、画像補正部109、照合特徴抽出部110で構成される。
画像取得部102はカメラから入力画像を取得する。物体検出部103は入力画像中の人体を検出し、人体の全身を含む矩形領域を人体領域(人物領域)として取得する。本実施形態では人物の全身とするが、人物の所定の一部分でも構わない。画像情報抽出部104は画像から幾何補正パラメータと前景領域を抽出する。画像情報抽出部104は画像特徴抽出部105、画像特徴解析部106で構成される。
画像特徴抽出部105は、物体検出部103で画像内から検出された人物領域より画像特徴を抽出する。画像特徴解析部106は画像特徴抽出部105で抽出された画像特徴から幾何補正パラメータと前景領域を抽出する。画像特徴解析部106は、前景領域抽出部107と補正パラメータ取得部108で構成される。
前景領域抽出部107は、画像特徴抽出部105で抽出された画像特徴から前景領域画像を生成する。補正パラメータ取得部108は、画像特徴抽出部105で抽出された画像特徴から、人物の特徴点を抽出する。人物の特徴点は後の処理で画像の幾何補正に利用するため、幾何補正パラメータ(補正情報)と呼ぶ。人物の特徴点は人物の頭頂と足の点とするが、後述のようにその他の身体部位の点でも構わない。足の点は、足が開いている場合は、両足の間の胴体の延長線上の点とする。
画像補正部109は、補正パラメータ取得部108で取得された幾何補正パラメータを用いて、画像取得部102で取得された画像を幾何補正する。さらに、補正パラメータ取得部108で取得された幾何補正パラメータを用いて、前景領域抽出部107で取得された前景領域画像を幾何補正する。画像の幾何補正は、人物の頭頂と足の点を基準として人物が直立するようにアフィン変換を行うが、後述のように他の変換方法でも構わない。
照合特徴抽出部110は、画像補正部109で幾何補正された画像と幾何補正された前景領域画像から照合用の特徴である照合特徴を生成する。照合特徴とは、ある人物と他人を区別する人物固有の特徴であり、この特徴同士を比較することによって、同一人物であるか否かの判定を行う。
照合特徴解析部111は、照合特徴抽出部110で取得される照合特徴のうち、異なるカメラで取得された照合特徴を比較し、同一人物か否かを判定する。本実施形態では異なるカメラで取得された照合特徴を比較する方法について例示するが、同じカメラの異なる時刻の照合特徴を比較しても構わない。
学習部112は学習データ取得部113、学習パラメータ更新部114で構成される。
学習データ取得部113は、画像特徴抽出部105と前景領域抽出部107と補正パラメータ取得部108とを制御するパラメータを学習するための、学習データを取得する。
学習パラメータ更新部114は、学習データ取得部113で取得した学習データを用いて、画像特徴抽出部105と前景領域抽出部107と補正パラメータ取得部108とを制御するパラメータを更新する。
表示部115は人物画像を画面に表示する。表示部115は画像生成部116を含む。画像生成部116は表示する人物の画像である表示画像を生成する。
本実施形態では、画像解析部101、照合特徴解析部111、学習部112、表示部115は異なるコンピュータで構成され、ネットワークで接続されている。しかし、これに限らず、同じコンピュータで構成されていてもいいし、任意の数のコンピュータで構成してもよい。
画像解析部101が動作することに先立って、学習部112は画像解析部101で使用するパラメータを学習する。学習部112で学習されたパラメータは画像解析部101の動作するコンピュータにネットワークを通じて転送される。学習部112の動作の詳細は後述する。学習部112で学習されたパラメータが画像解析部101に転送された後は、学習部112のコンピュータは必要なく、ネットワーク上から取り除いても構わないし、そのままでもよい。学習部112は画像解析部101の動作の前に少なくとも1度は動作させる。
画像解析部101で決定した照合特徴は、照合特徴解析部111が動作するコンピュータにネットワークを通じて転送される。そして、照合特徴解析部111にて、照合特徴同士が比較され、同一人物か否か判定される。
画像解析部101の動作を図3のフローチャートを用いて説明する。ステップ301ではシステムを初期化する。ステップ302ではカメラまたは記憶装置から画像フレームを取得する。ステップ302は図1の画像取得部102の動作に相当する。
ステップ303では、ステップ302で取得した画像に対し、人物の全身を含む矩形領域を検出する。この人物領域の検出には非特許文献4の手法を用いる。ステップ303は図1の物体検出部103の動作に相当する。
ステップ304、ステップ305、ステップ306では、ニューラルネットワークを用いてステップ303で得られた人物領域の画像から前景領域と人物の特徴点を取得する。このニューラルネットワークは第一のニューラルネットワーク、第二のニューラルネットワーク、第三のニューラルネットワークの3つの部分ニューラルネットワークで構成されている(図4(a))。第二のニューラルネットワーク、第三のニューラルネットワークは第一のニューラルネットワークの出力をそれぞれ入力とする。
ステップ304では、ステップ303で得られた人物領域に対して、画像特徴を抽出する。画像特徴の抽出には第一のニューラルネットワークを用いる。この第一のニューラルネットワークの入力は固定サイズのRGB画像である。そのため、まずステップ303で得られた矩形領域内の画像に対して拡大縮小を行い、固定サイズの人物領域画像を作成する。RGB画像とは、言い換えると、幅、高さ、チャネル数を持つ3次元配列である。人物領域画像を第一のニューラルネットワークに入力することによって、出力として事前に定められたサイズの特徴マップで表される画像特徴を得る。
図4(b)に第一のニューラルネットワークの構成例を図示する。第一のニューラルネットワークは多層のコンボリューション層およびプーリング層によって構成されているが、これに限らず、ほかの種類のニューラルネットワークを用いても構わない。本実施形態では第一のニューラルネットワークの最終層をコンボリューション層とするため、この画像特徴は幅、高さ、チャネル数を持つ3次元の配列である。ステップ304は図1の画像特徴抽出部105の動作に相当する。
ステップ305では、ステップ304で抽出された画像特徴から前景領域画像を抽出する。前景領域画像は事前に定められたサイズの輝度値が0から1のグレースケール画像であり、前景らしいほど1に近く、背景らしいほど0に近い。前景領域の抽出には第二のニューラルネットワークを用いる。画像特徴を第二のニューラルネットワークに入力することによって、出力として前景領域画像を得る。図4(c)に第二のニューラルネットワークの構成例を図示する。第二のニューラルネットワークは多層のコンボリューション層、プーリング層、デコンボリューション層によって構成されているが、これに限らず、ほかの種類のニューラルネットワークを用いても構わない。ステップ305は図1の前景領域抽出部107の動作に相当する。
ステップ306では、ステップ304で抽出された画像特徴と消失点情報から物体の特徴点を取得する。ステップ306の処理の詳細を図5のフローチャートに示す。ステップ306は図1の補正パラメータ取得部108の動作に相当する。
画像情報抽出部104の動作は、画像特徴抽出部105、前景領域抽出部107、補正パラメータ取得部108の一連の動作に相当する。画像特徴解析部106の動作は、前景領域抽出部107、補正パラメータ取得部108の一連の動作に相当する。
図5のステップ501では図3のステップ304で抽出された画像特徴から物体の特徴点を抽出する。物体の特徴点は、具体的には頭頂と足の点である。物体の特徴点を抽出には第三のニューラルネットワークを用いる。画像特徴を第三のニューラルネットワークに入力することによって、出力として頭頂と足の2次元座標(x1,y1)、(x2,y2)をそれぞれ得る。図4(d)に第三のニューラルネットワークの構成例を図示する。第三のニューラルネットワークは座標を連続値として推定するため、最終層が全結合層(フルコネクション層)によって構成されている。しかし、これに限らず、ほかの種類のニューラルネットワークを用いても構わない。本実施形態では図4(d)のように第三のニューラルネットワークにコンボリューション層が含まれているが、必ずしも含まれていなくても構わない。
第一のニューラルネットワークの出力、第二のニューラルネットワーク、第三のニューラルネットワークの入力は必ずしも3次元の配列である必要はない。ニューラルネットワークの構成によって、1次元や2次元などの他の多次元ベクトルなど、ほかの形式でも構わない。例えば、第一のニューラルネットワークの最終層を全結合層で構成し、第一のニューラルネットワークの出力を1次元ベクトルとしても構わない。
ステップ502では、図3のステップ303で検出した物体の代表点と消失点情報から物体の中心軸を取得する。ここで物体の代表点とは、人物の全身を含む矩形領域の中心とする。また、物体の中心軸とは、物体の回転方向と中心線を表す直線であり、人物では特定部位(本実施形態では体の中心であり腹部)から鉛直に足元に下した直線を表す。図6(a)にステップ502の概略図を示す。物体の代表点602と消失点604を通る直線603を物体の中心軸とする。消失点情報がない場合は、このステップは実行しない。
ステップ503では、物体の特徴点から推定される物体の中心軸がステップ502で取得した物体の中心軸に近づくように、物体の特徴点を補正する。消失点情報がない場合は、このステップは実行しない。図6(b)にステップ503の概略図を示す。まず、物体の特徴点から推定される物体の中心軸606は頭部の点607と足の点608を通る直線である。そのため、この直線をステップ502で取得した物体の中心軸605に近づけるためには、頭部の点607と足の点608をそれぞれ、この物体の中心軸605に近づくように移動させればよい。ここでは、特徴点から中心軸605に下した垂線と中心軸605の交わる点を計算する。そして、この点と特徴点を一定割合αで内分する点を求め、特徴点を移動させる。図5のフローチャートによる処理の出力として、消失点情報で補正された物体の特徴点を得る。
図3のステップ307ではステップ306で取得した特徴点を用いて、消失点情報を更新する。図7に概略を示す。まず、物体の頭部の点702と足の点703から、ステップ503と同様の方法で物体の中心軸701を得る。次に、複数の物体の中心軸の交点を求めることで、消失点704を推定する。複数の物体の中心軸は、現在および過去の時刻のフレームにおけるステップ306で得られる特徴点を記憶しておいたものから計算する。中心軸の交点を求めるとき、特徴点の推定誤差やカメラレンズの歪によって、中心軸が1点で交わらない場合がある。各中心軸からの距離の和が最小となる点を計算し、この点を交点とする。
ステップ308では、ステップ306で得られた特徴点を用いてステップ302で得られた画像フレームを幾何補正する。また、ステップ309では、ステップ306で得られた特徴点を用いてステップ305で得られた前景領域を幾何補正する。図8(a)、(b)を用いてステップ308について説明する。まず、図8(a)のように、画像フレーム上に頭部の点801と足の点802を基準とし、平行四辺形803を設置する。この平行四辺形は上辺と下辺が水平で、この上辺と下辺のそれぞれの中点は足の点、頭部の点と位置する。平行四辺形の高さは頭部の点801と足の点802のy座標の差とし、上辺と下辺の長さは高さを定数倍したものとする。平行四辺形の傾きは、頭部の点801と足の点802を通る直線の傾きと同じとする。次にこの平行四辺形に画像の幾何変換を適用することによって、図8(b)のように物体が直立し、物体の部分だけ切り出された画像に変換する。
具体的には、平行四辺形803の4頂点が変形後の長方形804の4頂点に一致するようにアフィン変換を適用する。ここで、図8(b)の画像の幅と高さは事前に定められた長さとする。ステップ309もステップ308と同様に、図8(c)、(d)のように前景領域画像に平行四辺形を設置し、その4頂点が変換後の長方形の4頂点と一致するように幾何変形を適用する。それによって物体が直立し、物体の部分だけが切り出された前景領域画像を得る。ステップ308とステップ309はそれぞれ図1の画像補正部109の動作に相当する。
ステップ310ではステップ308で得られた幾何補正された画像と、ステップ309で得られた幾何補正された前景領域画像から照合特徴を抽出する。図9を用いてステップ310を説明する。まず、物体の画像を図9(a)のように水平に境界線を引き、N等分の部分領域に分割する。そして、N等分した各部分領域に対し、画像の色ヒストグラムをそれぞれ計算する。人間は頭、胴、下半身で構成され、それぞれが服や肌、持ち物等によって、色などの特徴が鉛直方向で異なることが多い。一方、服の色等は人間の向きが変化しても大きな変化が生じにくいため、水平方向では特徴が大きく変化しないことが多い。
そのため、水平の境界で縦に分割した領域ごとに特徴量を抽出することで、個人的な特徴をよく表現することができる。色ヒストグラムを計算する際、図9(b)の前景領域の画素値を用いて重みづけを行う。前景領域画像の輝度値は0から1をとり、前景らしいほど1に近く、背景に近いほど0に近い値をとる。画像のある座標における色画素を色ヒストグラムのビンに投票する際、同じ座標における背景領域画像の輝度値を参照し、その輝度値を投票重みとする。ステップ310で取得された照合特徴は照合特徴解析部111に渡される。ステップ310は図1の照合特徴抽出部110の動作に相当する。
ステップ311では、図3のフローチャートの処理を終了するか否かを判定し、終了条件を満たすなら終了し、満たさないならステップ302に戻る。次の画像フレームが存在する場合は終了しないと判定し、存在しない場合には終了すると判定する。
図1の照合特徴解析部111と表示部115の動作を図10のフローチャートを用いて説明する。本フローチャートによる人物照合によって表示される画面の例を図11に示す。
図10のステップ1001はユーザがカメラAの画面上の人物をクリックし、検索対象の人物を指定する。人物は図3のステップ303で検出された人物である。表示画面上で、選択された人物は実線の矩形で表示され、選択されなかった人物は点線の矩形で表示される。
図10のステップ1002はカメラAの指定された人物の照合特徴を取得する。照合特徴は照合特徴抽出部110で抽出したものである。ステップ1003はカメラBの任意の人物の照合特徴を取得する。
ステップ1004はステップ1002とステップ1003とで取得された照合特徴同士を照合し比較して相違度を算出し、同一人物の候補であるか否かを判定する。まず、照合特徴同士のユークリッド距離を計算する。ユークリッド距離がしきい値以下の場合は同一人物の候補とみなし、それ以外は異なる人物とみなす。本実施形態は距離の比較はユークリッド距離にて行うが、L1距離などの他の距離指標でもいいし、部分空間などの別の空間に写像して距離を計算してもよい。
ステップ1005では、ステップ1004で同一人物の候補と判定された場合はステップ1006に進み、異なる人物と判定された場合はステップ1007に進む。ステップ1006は、ステップ1005で同一人物の候補と判定されたカメラBの人物を、相違度とともに同一人物の候補リストに追加する。ステップ1007は、選択したカメラAの人物とカメラBの人物をすべて照合していたら、ステップ1008に進む。すべて照合していなかったら、ステップ1003に戻る。
ステップ1008では、ステップ1001で選択されたカメラAの人物とステップ1006で追加された同一人物の候補リスト内の人物について、以降のステップで画面に表示するための人物画像を生成する。具体的には、図3のステップ308で幾何補正された人物の画像とステップ309で幾何補正された前景領域画像から、背景を加工した人物の画像を生成する。ここでは、幾何補正された前景領域画像の画素を参照し、人物画像の前景領域に対応しない背景部分の画素を任意の色の画素(本実施形態では黒)に設定する。
言い換えると、前景領域を参照して画像の背景部分の画素の色情報に前所定の色を設定する。本実施形態では任意の色の画素で塗りつぶすが、前景以外を透明または半透明に設定するなど、他の方法でも構わない。言い換えると、前景領域を参照して画像の背景部分の画素の透過度情報に所定の透過度を設定する。また、背景部分を写真や市松模様(チェッカーボード)などのパターンなどの任意の画像などに置き換えてもいい。言い換えると、前景領域を参照して画像の背景部分の画素の色情報または透過度情報に所定の画像を設定する。また、任意の画像と半透明の背景を合成するなど、複数の方法の組み合わせでも構わない。ステップ1008の図1の画像生成部116の処理に相当する。
ステップ1009では、ステップ1001で選択されたカメラAの人物とステップ1006で追加された同一人物の候補リスト内の人物を画面に表示する。図11のように、カメラAの人物をクエリ画像として表示する。また、同一人物の候補リスト内の複数の人物を、同一人物の候補として、クエリ画像の下に候補画像として横一列に並べて表示する。このとき、ステップ1004で決定された相違度が小さい順に並べて表示する。これは、並び替えることにより、ユーザが同一人物を目視で探しやすくなる効果がある。また、それぞれの候補画像の下に次のステップで用いる「選択」ボタンを設置する。1以上の事前に決められた数の人物を最大で表示する。
ステップ1010では、ステップ1009で表示された同一人物の候補から、ユーザが最も同一であると思われる人物を選択する。このカメラBの選択された人物とステップ1001で選択されたカメラAの人物の情報を、同一人物として記憶装置に記憶する。このとき、画面に「すべて異なる人物」のボタンを設け、表示された同一人物の候補の中に同一人物が存在しないことをユーザに入力させられるようにしても構わない。
図10において、ステップ1002からステップ1007の動作は照合特徴解析部111に対応し、それ以外のステップは表示部115の動作に対応する。
図1の学習部112の動作を図12のフローチャートを用いて説明する。本フローチャートでは、事前に人手で収集した物体画像と正解データを用いて、誤差逆伝播法(バックプロパゲーション)によってニューラルネットワークの学習を行う。
ステップ1201はニューラルネットワークの初期化を行う。すなわち、第一のニューラルネットワーク、第二のニューラルネットワーク、第三のニューラルネットワークを構成する各層の結合の重みを乱数で初期化する。ステップ1202では入力データ、すなわち物体画像を記憶装置から取得する。物体画像は人手で事前に収集しておいたものである。
ステップ1203ではニューラルネットワークの出力の正解データを記憶装置から取得する。すなわち、前景領域画像と頭部の点、足の点の座標(x1,y1)、(x2,y2)を取得する。正解データは人手で事前に収集しておいたものである。ステップ1202とステップ1203は図1の学習データ取得部113の動作に相当する。
ステップ1204では、ステップ1202で取得した物体画像を第一のニューラルネットワークに入力し、画像特徴を抽出する。このとき、第一のニューラルネットワークの各層をデータが通過する際の各層の出力値を記憶装置に記憶しておく。
ステップ1205では、ステップ1204で取得した画像特徴を第二のニューラルネットワークに入力し、前景領域を抽出する。このとき、第二のニューラルネットワークの各層をデータが通過する際の各層の出力値を記憶装置に記憶しておく。
ステップ1206では、ステップ1204で取得した画像特徴を第三のニューラルネットワークに入力し、物体の特徴点を取得する。このとき、第三のニューラルネットワークの各層をデータが通過する際の各層の出力値を記憶装置に記憶しておく。
ステップ1207では、ステップ1205で取得した前景領域とステップ1206で取得した物体の特徴点とステップ1203で取得した正解データとを比較し、次式を用いて誤差関数E(ロス関数)を計算する。
E=αE+(1−α)E
ここで、αは0から1の定数である。Eはステップ1205で取得した前景領域と正解データの前景領域の相違度(二乗誤差)であり、Eはステップ1206で取得した物体の特徴点と正解データの物体の特徴点の位置の相違度(二乗誤差)である。誤差関数EはEとEの線形和である。
ステップ1208では、ステップ1207で取得した誤差関数Eを用いる。誤差逆伝播法によって、誤差関数Eが小さくなるように第一のニューラルネットワーク、第二のニューラルネットワーク、第三のニューラルネットワークのそれぞれの結合重み(学習パラメータ)を更新する。まず、誤差関数Eを用いて第二のニューラルネットワーク、第三のニューラルネットワークを更新する。そして、さらに誤差を第一のニューラルネットワークに誤差逆伝播させ、これを更新する。誤差逆伝播による更新の際、ステップ1204、ステップ1205、ステップ1206で記憶しておいたニューラルネットワークの各層をデータが通過する際の各層の出力値を用いる。
ステップ1204からステップ1208は図1の学習データ取得部113の動作に相当する。ステップ1209では、図12のフローチャートの処理を終了するか否かを判定し、終了条件を満たすなら終了し、満たさないならステップ1202に戻る。繰り返しが規定回数に達していない場合は終了しないと判定し、達している場合には終了すると判定する。
学習部112で学習されたパラメータは画像解析部101の動作するコンピュータにネットワークを通じて転送される。
ステップ310では照合特徴としてRGBの色ヒストグラムを用いたが、これに限らず、他の特徴量を用いてもよい。例えば、他のHSVなど色空間を用いてもよい。また、HOG(Histogram of Oriented Gradients)特徴やLBP(Local Binary Pattern)特徴等の形状特徴や、複数の特徴量を組み合わせたものでもいい。また、ニューラルネットワークによって照合特徴を抽出しても構わない。
ステップ308、ステップ309では、上辺と下辺が水平な平行四辺形が長方形になるようなアフィン変換によって画像や前景領域を幾何補正した。さらに、ステップ310では物体の画像に対し、水平に境界線を引き、N等分の部分領域に分割し、部分領域ごとに色ヒストグラムを抽出した。ステップ308、ステップ309のアフィン変換は水平成分が保存される性質がある。一方、ステップ310では水平な領域に沿って特徴量を抽出する。そのため、このような方法でアフィン変換を行うことで、画像変換を行った後でも特徴が劣化しにくく、良好に特徴量を行えるようになる効果が見込める。
本実施形態では、画像や前景領域の幾何補正をアフィン変換で行ったが、他の方法を用いても構わない。例えば、頭と足の点を通る直線が鉛直になるように回転変換を行っても構わない。回転変換は水平成分が保存される変換ではないが、回転角度が小さければ影響は十分に無視できる。また、回転変換は画像が不自然に歪まないため、変換後の画像が自然に見える効果が見込める。特に、ユーザが同一人物か否かを目視で判定する際には効果が高い。
図3のステップ306では、物体の特徴点として頭と足の点を抽出したが、他の点でも構わない。例えば、肩、肘、膝などの関節や、目、鼻、口、耳、手指などの特定の部位、あるいはこれらの組み合わせでもよい。例えば、特徴点として両肩と頭頂を用いた場合、両肩が水平で、両肩の中点と頭頂を結ぶ線が鉛直になるようなアフィン変換や回転などの画像変換を行えばよい。また、必ずしも物体上にある必要はなく、物体の特定部位との間に特定の相対的な位置関係があれば物体の外の点でもよい。例えば、肩と頭頂の中間点などでもよい。開いた足の間の胴体の延長線上の点でもよい。
本実施形態では、画像や前景領域の幾何補正をアフィン変換で行ったが、射影変換でも構わない。図3のステップ306では、物体の特徴点として頭と足の点を抽出したが、4点以上の点を用いれば射影変換が可能である。例えば、幾何補正前の画像の頭頂、足、左肩、右肩の点が、幾何補正後の画像の特定の位置の点に対応するように射影変換することができる。2次元画像の射影変換は、ある3次元の面を別の3次元の面に射影する変換に相当する。そのため、幾何補正後の画像において、より正確に人物の部位の位置を正規化することができ、照合精度を向上させる効果が見込める。特徴点は頭頂、足、左肩、右肩に限らず、他の部位でも構わない。アフィン変換、回転変換、射影変換を総じて幾何学的変換と呼ぶ。
本実施形態では、前景領域抽出部107と補正パラメータ取得部108は、画像特徴抽出部105で生成された共通の画像特徴からそれぞれ前景領域と幾何補正パラメータを生成する。共通の画像特徴を用いることで、冗長な処理を削減することができ、計算量削減の効果が見込める。
また、学習部112によって、前景領域抽出部107と補正パラメータ取得部108と画像特徴抽出部105は共通の誤差関数が減少していくように同時学習されている。そのため、画像特徴抽出部105は、後段の前景領域抽出部107と補正パラメータ取得部108の両方の推定処理に対して好適に学習される効果が見込める。
また、前景抽出と物体の特徴点抽出は、両者とも物体の形状情報の抽出に関する処理である。同時学習することで、前景領域の情報が物体の特徴点の抽出に使われたり、物体の特徴点の情報が前景領域の抽出に使われたりと、異なる種類の処理の間で相互に情報が効果的に利用されるようになる効果が見込まれる。そのため、同時学習された共通の画像特徴抽出部105を設けることにより、前景領域抽出部107と補正パラメータ取得部108の出力の精度を向上させる効果が見込める。特に、人物は縦に長い特徴的な形状をしているため、効果が高い。なぜなら、人物の領域が分かれば頭と足の位置を特定することが容易になり、頭と足の位置が分かれば人物の領域を特定することが容易になるからである。
本実施形態では、画像から画像の幾何補正パラメータを推定する。そのため、人手によるカメラのキャリブレーションが不要となり、人手による作業を削減できる効果が期待できる。
また、ステップ306において、消失点情報が得られていない場合でも物体の特徴点を推定することが可能な一方、消失点情報が得られている場合には、事前の角度情報が利用できることで、さらに高精度に特徴点を推定することが可能となる効果が見込める。
本実施形態では、人物画像を画面に表示する際、人物画像を直立するように幾何補正して表示した。表示される人物の向きが揃うため、ユーザにとって見やすく、人物を観察しやすくなる効果が見込める。そのため、ユーザが目視で人物が同一であるか比較しやすくなる効果が見込める。
本実施形態では、人物画像を画面に表示する際、前景領域の情報を用いることによって、背景を除いて表示した。このようにすることによって、ユーザにとって人物が観察しやすくなる効果が見込める。そのため、ユーザが目視で人物が同一であるか比較しやすくなる効果が見込める。
人物画像を画面に表示する際、人物画像を直立するように幾何補正し、背景を揃えることによって、観察する外的環境が同一に近くなる。そのためユーザは人物の細部の観察に集中できる効果が見込める。そのため、ユーザが目視で人物が同一であるか比較しやすくなる効果が見込める。
実施形態では、画像と前景領域画像の両方を幾何補正した後、これらから画面に表示する人物画像を生成した。一方、画像と前景領域画像を幾何補正する前に、前景領域を用いて画像から背景の除去などの加工を行っても構わない。そして、加工したこの画像を幾何補正することによって画面に表示する人物画像を生成しても構わない。すなわち、幾何補正パラメータと前景領域を取得するステップ、前景領域を参照して画像を加工するステップ、加工した画像を幾何補正パラメータで幾何補正するステップという順番で行っても構わない。画像の加工の方法は、ステップ1008の説明で前述したいずれかの方法と同様で構わない。
本実施形態では、画像と前景領域画像の両方を幾何補正した後、これらから前景を表す領域の照合特徴を抽出した。一方、画像と前景領域画像を幾何補正する前に、前景領域を用いて画像から背景の除去などの加工を行っても構わない。そして、加工したこの画像を幾何補正し、さらに照合特徴を抽出しても構わない。すなわち、本実施形態の構成に前景領域を参照し画像に加工を行う画像加工部を設ける。そして、本実施形態の処理の順番を、以下のようにしても構わない。
すなわち、幾何補正パラメータと前景領域を取得するステップ、前景領域を参照して画像を加工するステップ、加工した画像を幾何補正パラメータで幾何補正するステップ、幾何補正した画像から照合特徴を抽出するステップとしても構わない。画像の加工の方法は、ステップ1008の説明で前述したいずれかの方法と同様で構わない。照合特徴抽出の方法はステップ310と同様でよいが、特に画像の画素に色情報に加えて透過度情報が付加されているのであれば、透過度情報を前景情報とみなせばよい。
本実施形態では、ステップ304、ステップ305、ステップ306にニューラルネットワークを用いたが、このニューラルネットワークを構成する特徴抽出器および識別器の一部または全部に他の特徴抽出器や識別器を用いても構わない。例えば、他のフィルタ特徴や回帰分析などを用いても構わない。
実施形態1では、画像解析部101、照合特徴解析部111、学習部112、表示部115は異なるコンピュータで構成され、ネットワークで接続されている。しかし、これに限らず、画像解析部101、照合特徴解析部111、学習部112はネットワークやバス、記憶媒体で接続された異なるコンピュータで構成されていてもよいし、同じコンピュータで構成されていても構わない。さらにそれぞれのモジュールをさらに複数のサブモジュールに任意に分割し、それぞれのモジュール、サブモジュールを任意の複数のコンピュータに分散して実行してもよい。
複数のコンピュータで構成することにより、計算の負荷を分散する効果が見込める。また、負荷を分散することで、カメラ入力に近い部分にコンピュータを設置して処理を行う、いわゆるエッジコンピューティングを行うことが可能となり、通信負荷の軽減や反応速度向上の効果が見込める。また、加工をしていないカメラ画像ではなく、加工した画像や特徴量をコンピュータ間で通信することにより、通信負荷が軽減される。
本実施形態では、画像から画像の幾何補正パラメータを推定する。そのため、人手によるカメラのキャリブレーションが不要となり、人手による作業を削減できる効果が期待できる。前景領域抽出部107と補正パラメータ取得部108は、画像特徴抽出部105で生成された共通の画像特徴からそれぞれ前景領域と幾何補正パラメータを生成する。共通の画像特徴を用いることで、冗長な処理を削減することができ、計算量削減の効果が見込める。
(実施形態2)
本実施形態では、実施形態1との差分のみを説明し、それ以外は実施形態1と同様である。実施形態1では、ステップ1206を図5のフローチャートのようにしたが、図13のフローチャートに置き換えても構わない。
図13のステップ1301は図5のステップ502と同様であり、図3のステップ303で検出した物体の位置(物体の代表点)と消失点情報から物体の中心軸を取得する。消失点情報が存在しない場合には中心軸は計算しない。ステップ1302は、ステップ1301で取得した物体の中心軸から物体の角度を計算する。
ステップ1303は、図3のステップ304で抽出された画像特徴と図13のステップ1302で取得した物体の角度とから物体の特徴点を抽出する。まず、物体の角度をK次元のベクトルで表す。具体的には、360度をK分割し、K次元のベクトルの内、該当する角度の要素に1の値を立て、その他の要素には0の値を立てる。ステップ1301で消失点情報が存在せず、中心軸が存在しない場合には、K次元のベクトルの各要素には一律に1/Kの値を入力する。このK次元のベクトルは、角度の事前情報を表す。そのため、角度の事前情報が不明の場合は、確率分布は一様分布となる。次に、画像特徴とこの角度を表すベクトルを第三のニューラルネットワークに入力することによって、出力として頭頂と足の2次元座標(x1,y1)、(x2,y2)をそれぞれ得る。
本実施形態で用いるニューラルネットワークの構成を図14(a)に示す。実施形態1の図4のニューラルネットワークと比較すると、図14(d)のように第三のニューラルネットワークに角度を表すベクトルを入力する部分が存在することが異なる。第三のニューラルネットワークを構成する一部の全結合層は画像特徴から計算される情報と角度を表すベクトルから計算される情報の両方を入力とする。
この第三のニューラルネットワークの出力は、出力(頭頂と足の2次元座標)から計算される物体の中心軸の傾き角度が、入力(角度が表すベクトル)に示す角度情報に近くなりやすく出力されるように学習されている。第三のニューラルネットワークは座標を連続値として推定するため、最終層が全結合層(フルコネクション層)によって構成されている。しかし、これに限らず、ほかの種類のニューラルネットワークを用いても構わない。図13のフローチャートの処理の出力として、消失点情報で補正された物体の特徴点を得る。
また、実施形態1では、図12のステップ1202で入力データとして物体画像を記憶装置から取得した。本実施形態では、ニューラルネットワークに物体の角度に関する情報を入力するため、入力データとして物体画像と物体角度情報の2種類を取得する。物体角度情報は、すべての物体について付与せず、図13のステップ1303のように物体角度情報が不明のものも用意する。物体角度情報が存在する学習サンプルと不明な学習サンプルを両方含めて学習することで、物体角度情報が存在するか否かにかかわらず、好適に識別が行えるニューラルネットワークを学習できる効果が見込める。
図13のステップ1303では、角度が不明な状態でも角度情報をニューラルネットワークに入力できるようにした。これによって、例えばシステムの稼働開始時に消失点情報が不明な場合でも、ニューラルネットワークは物体の特徴点を推定することができ、物体の傾き、画像を幾何補正するパラメータ、消失点情報を推定できる効果が見込める。別の見方をすると、消失点情報が不明な場合でもニューラルネットワークは物体の特徴点を推定することが可能な一方、消失点情報が得られている場合には、事前の角度情報を利用することで、さらに高精度に特徴点を推定することが可能となる効果が見込める。
(実施形態3)
本実施形態では、実施形態1との差分のみを説明し、それ以外は実施形態1と同様である。実施形態1では、画像の幾何補正パラメータとして物体の特徴点を用いた。本実施形態のように、幾何補正パラメータとして、物体の角度を用いてもよい。本実施形態では、画像解析部101の一部の動作が異なり、他は実施形態1と同様である。実施形態3の画像解析部101の動作を図15のフローチャートを用いて説明する。図15は、ステップ1506とステップ1507を除き、図3と同様である。
ステップ1506では、ステップ304で抽出された画像特徴と消失点情報から物体の角度を取得する。まず、物体の角度の推定は第三のニューラルネットワークを用いる。物体の角度とは物体の中心軸の傾き角度である。画像特徴を第三のニューラルネットワークに入力することによって、出力として物体の角度θを得る。第三のニューラルネットワークは最終層が全結合層によって構成されている。しかし、これに限らず、ほかの種類のニューラルネットワークを用いても構わない。次に、図5のステップ502と同様の方法で、物体の代表点と消失点情報から物体の中心軸を取得する。次に、この物体の中心軸の傾き角度に近づくように、第三のニューラルネットで推定された物体の角度θを修正する。具体的には、物体の角度θをこれらの2つの角度の中間の角度に修正する。
ステップ1507ではステップ1506で取得した物体の角度を用いて、消失点情報を更新する。まず、物体の代表点とステップ1506で決定した物体の角度から物体の中心軸を得る。そして、図3のステップ307と同様の方法で複数の物体の中心軸の交点を求めることで、消失点情報を更新する。
ステップ1508では、ステップ1506で得られた物体の角度とステップ1503で得られた物体の矩形を用いて、ステップ1502で得られた画像フレームを幾何補正する。また、ステップ1509では、ステップ1506で得られた物体の角度とステップ1503で得られた物体の矩形を用いて、ステップ1505で得られた前景領域を幾何補正する。
図16(a)、(b)を用いてステップ1508について説明する。まず、物体の中心軸として、物体の代表点1602を通り、傾きが物体の角度の直線1601を考える。この直線と物体の矩形の2つの交点1604、1605を求める。物体が人物であれば、これらの交点は頭頂と足の点にそれぞれ相当する。頭頂と足の点が得られたため、後は実施形態1の図3のステップ308と同様の方法で頭頂と足の点を用いて、人物を直立させるような画像変換を行うことができる。ステップ1509もステップ1508と同様の変換を行うことで、幾何補正した前景領域画像を得ることができる。
本実施形態では、幾何補正パラメータとして物体の角度を用いた。物体の角度は物体の概形から求めることが可能であり、局所的なテクスチャの影響が少なく、安定的に幾何補正パラメータを求められる効果が見込める。例えば、人物のような細長い物体の角度は物体のシルエットから推定が可能である。そのため、前景領域の推定と物体の角度の推定を同時に行うことは効果が高く、幾何補正パラメータの推定精度を良好に求めることができる効果が見込める。
本実施形態では幾何補正パラメータとして物体の角度のみを用いたが、実施形態1のような特徴点と併用してもよい。例えば、物体の中心軸を求める際、物体の角度と代表点を用いる代わりに物体の角度と特徴点の重心を用いるなどを行ってもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 画像解析部
102 画像取得部
103 物体検出部
104 画像情報抽出部
105 画像特徴抽出部
106 画像特徴解析部
107 前景領域抽出部
108 補正パラメータ取得部
109 画像補正部
110 照合特徴抽出部
111 照合特徴解析部
112 学習部
113 学習データ取得部
114 学習パラメータ更新部
115 表示部
116 画像生成部

Claims (14)

  1. 入力画像から画像特徴を抽出する画像特徴抽出手段と、
    前記画像特徴に基づいて前記入力画像から前景領域を抽出する領域抽出手段と、
    前記画像特徴に基づいて補正情報を取得する取得手段と、
    前記補正情報を用いて前記前景領域を補正する補正手段と、
    前記補正手段により補正された前記前景領域から照合用の特徴を抽出する照合特徴抽出手段と、
    前記照合用の特徴に基づいて前記入力画像中の物体を照合する照合手段とを備えることを特徴とする画像処理装置。
  2. 前記補正手段は前記前景領域を幾何補正することを特徴とする請求項1に記載の画像処理装置。
  3. 前記補正手段は、前記前景領域の傾きを補正することを特徴とする請求項2に記載の画像処理装置。
  4. 前記取得手段は、前記補正情報として人体の特定部位の位置を取得し、前記補正手段は当該特定部位の位置に基づいて前記前景領域の傾きを補正することを特徴とする請求項3に記載の画像処理装置。
  5. 前記取得手段は、前記人体の特定部位の位置として頭部および足の位置を取得することを特徴とする請求項4に記載の画像処理装置。
  6. 前記取得手段は、前記補正情報として人体の角度を取得し、前記補正手段は当該角度に基づいて前記前景領域の傾きを補正することを特徴とする請求項2に記載の画像処理装置。
  7. 前記補正手段は前記入力画像及び前記前景領域を補正し、
    前記照合特徴抽出手段は、補正後の前記入力画像において補正後の前記前景領域に対応する領域から前記照合用の画像特徴を抽出することを特徴とする請求項1に記載の画像処理装置。
  8. 前記入力画像において前記補正手段で補正された前記前景領域を表す画像を生成する生成手段と、
    前記生成手段により生成された画像を表示する表示手段とをさらに備えることを特徴とする請求項1に記載の画像処理装置。
  9. 前記補正手段は、アフィン変換、回転変換、射影変換の少なくとも1つを行うことを特徴とする請求項2に記載の画像処理装置。
  10. 前記補正情報は、前記補正手段による補正におけるパラメータであることを特徴とする請求項2に記載の画像処理装置。
  11. 前記入力画像はある撮像装置で撮像された画像であり、前記照合手段は、当該入力画像中の人物を他の撮像装置で撮像された画像内の人物と照合することを特徴とする請求項1に記載の画像処理装置。
  12. 前記入力画像から人体領域を検出する検出手段をさらに備え、
    前記画像特徴抽出手段は、前記人体領域から画像特徴を抽出することを特徴とする請求項1に記載の画像処理装置。
  13. 入力画像から画像特徴を抽出する画像特徴抽出工程と、
    前記画像特徴に基づいて前記入力画像から前景領域を抽出する領域抽出工程と、
    前記画像特徴に基づいて補正情報を取得する取得工程と、
    前記補正情報を用いて前記前景領域を補正する補正工程と、
    前記補正手段により補正された前記前景領域から照合用の特徴を抽出する照合特徴抽出工程と、
    前記照合用の特徴に基づいて前記入力画像中の物体を照合する照合工程とを備えることを特徴とする画像処理方法。
  14. コンピュータを請求項1乃至12のいずれか1項に記載の画像処理装置の各手段として機能させることを特徴とするプログラム。
JP2018003815A 2018-01-12 2018-01-12 画像処理装置及びその方法、プログラム Active JP7094702B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018003815A JP7094702B2 (ja) 2018-01-12 2018-01-12 画像処理装置及びその方法、プログラム
US16/240,497 US11087169B2 (en) 2018-01-12 2019-01-04 Image processing apparatus that identifies object and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003815A JP7094702B2 (ja) 2018-01-12 2018-01-12 画像処理装置及びその方法、プログラム

Publications (3)

Publication Number Publication Date
JP2019125057A true JP2019125057A (ja) 2019-07-25
JP2019125057A5 JP2019125057A5 (ja) 2021-02-04
JP7094702B2 JP7094702B2 (ja) 2022-07-04

Family

ID=67213957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003815A Active JP7094702B2 (ja) 2018-01-12 2018-01-12 画像処理装置及びその方法、プログラム

Country Status (2)

Country Link
US (1) US11087169B2 (ja)
JP (1) JP7094702B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039731A1 (ja) * 2019-08-26 2021-03-04 日立建機株式会社 摩耗量測定システム
JP2022542668A (ja) * 2019-09-18 2022-10-06 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344840B (zh) * 2018-08-07 2022-04-01 深圳市商汤科技有限公司 图像处理方法和装置、电子设备、存储介质、程序产品
KR20200045701A (ko) * 2018-10-23 2020-05-06 삼성전자주식회사 소실점 검출을 위한 학습 방법, 소실점 검출 방법 및 장치
GB2578789A (en) * 2018-11-09 2020-05-27 Sony Corp A method, apparatus and computer program for image processing
JP7005546B2 (ja) * 2019-03-15 2022-01-21 株式会社東芝 画像認識装置、画像認識方法および画像認識プログラム
US11544928B2 (en) * 2019-06-17 2023-01-03 The Regents Of The University Of California Athlete style recognition system and method
JP2021043486A (ja) * 2019-09-06 2021-03-18 株式会社東芝 位置推定装置
JP2021064320A (ja) * 2019-10-17 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021135677A (ja) * 2020-02-26 2021-09-13 キヤノン株式会社 画像識別装置、画像編集装置、画像生成装置、画像識別方法、プログラム
CN112182272B (zh) * 2020-09-23 2023-07-28 创新奇智(成都)科技有限公司 图像检索方法及装置、电子设备、存储介质
US11978174B1 (en) * 2022-03-28 2024-05-07 Amazon Technologies, Inc. Virtual shoe try-on
US11804023B1 (en) * 2022-07-11 2023-10-31 Stylitics, Inc. Systems and methods for providing a virtual dressing room and a virtual stylist
CN117315664B (zh) * 2023-09-18 2024-04-02 山东博昂信息科技有限公司 一种基于图像序列的废钢斗号码识别方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099741A (ja) * 1998-09-25 2000-04-07 Atr Media Integration & Communications Res Lab 多眼画像処理による人物の三次元姿勢推定方法
JP2001209808A (ja) * 2000-01-26 2001-08-03 Nec Corp 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体
JP2002358525A (ja) * 2001-06-01 2002-12-13 Casio Comput Co Ltd パターン照合装置、パターン正規化装置、及びプログラム
JP2010056720A (ja) * 2008-08-27 2010-03-11 Panasonic Corp ネットワークカメラおよびネットワークカメラシステム
JP2011253376A (ja) * 2010-06-02 2011-12-15 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012043151A (ja) * 2010-08-18 2012-03-01 Canon Inc 画像処理装置及びその方法、プログラム、並びに撮像装置
JP2012238175A (ja) * 2011-05-11 2012-12-06 Canon Inc 情報処理装置、情報処理方法、及びプログラム
JP2016509293A (ja) * 2013-01-03 2016-03-24 クアルコム,インコーポレイテッド 前景オブジェクトに基づく拡張現実のレンダリング
US20170091951A1 (en) * 2015-09-30 2017-03-30 Samsung Electronics Co., Ltd. Apparatus and method to segment object from image

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070237387A1 (en) * 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
AU2008200966B2 (en) * 2008-02-28 2012-03-15 Canon Kabushiki Kaisha Stationary object detection using multi-mode background modelling
JP2011095921A (ja) * 2009-10-28 2011-05-12 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP5036084B2 (ja) * 2010-10-14 2012-09-26 シャープ株式会社 映像処理装置、映像処理方法、及びプログラム
WO2014045670A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP6494253B2 (ja) * 2014-11-17 2019-04-03 キヤノン株式会社 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US10009517B1 (en) * 2016-12-14 2018-06-26 Xerox Corporation Extended gamut colorant for print job based on user preferences
JP6802923B2 (ja) * 2017-07-19 2020-12-23 株式会社日立製作所 物体検出装置、及び、物体検出手法
US10834283B2 (en) * 2018-01-05 2020-11-10 Datamax-O'neil Corporation Methods, apparatuses, and systems for detecting printing defects and contaminated components of a printer
JP6911995B2 (ja) * 2018-02-20 2021-07-28 日本電気株式会社 特徴抽出方法、照合システム、およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099741A (ja) * 1998-09-25 2000-04-07 Atr Media Integration & Communications Res Lab 多眼画像処理による人物の三次元姿勢推定方法
JP2001209808A (ja) * 2000-01-26 2001-08-03 Nec Corp 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体
JP2002358525A (ja) * 2001-06-01 2002-12-13 Casio Comput Co Ltd パターン照合装置、パターン正規化装置、及びプログラム
JP2010056720A (ja) * 2008-08-27 2010-03-11 Panasonic Corp ネットワークカメラおよびネットワークカメラシステム
JP2011253376A (ja) * 2010-06-02 2011-12-15 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012043151A (ja) * 2010-08-18 2012-03-01 Canon Inc 画像処理装置及びその方法、プログラム、並びに撮像装置
JP2012238175A (ja) * 2011-05-11 2012-12-06 Canon Inc 情報処理装置、情報処理方法、及びプログラム
JP2016509293A (ja) * 2013-01-03 2016-03-24 クアルコム,インコーポレイテッド 前景オブジェクトに基づく拡張現実のレンダリング
US20170091951A1 (en) * 2015-09-30 2017-03-30 Samsung Electronics Co., Ltd. Apparatus and method to segment object from image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川合諒, 外4名: ""方向変換モデルを用いた複数カメラ間での人物照合"", 情報処理学会研究報告, JPN6022001187, 15 February 2013 (2013-02-15), JP, pages 1 - 8, ISSN: 0004683895 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039731A1 (ja) * 2019-08-26 2021-03-04 日立建機株式会社 摩耗量測定システム
JP2022542668A (ja) * 2019-09-18 2022-10-06 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体
JP7262659B2 (ja) 2019-09-18 2023-04-21 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体

Also Published As

Publication number Publication date
US11087169B2 (en) 2021-08-10
US20190220685A1 (en) 2019-07-18
JP7094702B2 (ja) 2022-07-04

Similar Documents

Publication Publication Date Title
JP7094702B2 (ja) 画像処理装置及びその方法、プログラム
US11644898B2 (en) Eye tracking method and system
US7995805B2 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
JP5837508B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP2016006626A (ja) 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法
JP2011198349A (ja) 情報処理方法及びその装置
WO2013145615A1 (ja) 部位推定装置、部位推定方法、および部位推定プログラム
JP2018128897A (ja) 対象物の姿勢等を検出する検出方法、検出プログラム
CN110598556A (zh) 一种人体身形姿态匹配方法和装置
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN108960267A (zh) 用于模型调整的系统和方法
JP2003178303A (ja) 物体認識装置
WO2021084972A1 (ja) 物体追跡装置および物体追跡方法
US20210042576A1 (en) Image processing system
CN112396600A (zh) 基于热成像和深度图的脱敏状态下面部神经麻痹检测系统
JP6773825B2 (ja) 学習装置、学習方法、学習プログラム、及び対象物認識装置
Rogez et al. Viewpoint Independent Human Motion Analysis in Man-made Environments.
WO2022079794A1 (ja) 画像選択装置、画像選択方法、及びプログラム
JP7277116B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022009279A1 (ja) 画像選択装置、画像選択方法、及びプログラム
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム
JP7479809B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN113610969A (zh) 一种三维人体模型生成方法、装置、电子设备及存储介质
WO2021084687A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラムが格納された非一時的なコンピュータ可読媒体
Alhwarin Fast and robust image feature matching methods for computer vision applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220622

R151 Written notification of patent or utility model registration

Ref document number: 7094702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151