JP2021051375A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2021051375A
JP2021051375A JP2019172191A JP2019172191A JP2021051375A JP 2021051375 A JP2021051375 A JP 2021051375A JP 2019172191 A JP2019172191 A JP 2019172191A JP 2019172191 A JP2019172191 A JP 2019172191A JP 2021051375 A JP2021051375 A JP 2021051375A
Authority
JP
Japan
Prior art keywords
feature point
image
feature
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019172191A
Other languages
English (en)
Inventor
内山 寛之
Hiroyuki Uchiyama
寛之 内山
東條 洋
Hiroshi Tojo
洋 東條
山本 真司
Shinji Yamamoto
真司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019172191A priority Critical patent/JP2021051375A/ja
Priority to PCT/JP2020/034093 priority patent/WO2021054217A1/ja
Publication of JP2021051375A publication Critical patent/JP2021051375A/ja
Priority to US17/695,622 priority patent/US20220207904A1/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 本発明によれば、物体の一部が遮蔽された状況においても、物体の領域を決定できる。【解決手段】 本発明の目的を達成するために、複数の部位を有する物体を撮像した画像から、該物体の部位に対応させて第1の特徴点群を検出する第1の検出手段と、前記第1の検出手段によって検出された前記第1の特徴点毎に、該特徴点が示す位置が該特徴点に対応する前記部位である確からしさを示す信頼度を取得する取得手段と、前記第1の特徴点群のうち前記信頼度が所定の値より小さい特徴点に対応する前記部位について、前記第1の特徴点群の一部に基づいて第2の特徴点を検出する第2の検出手段と、前記第1の特徴点群の一部と前記第2の特徴点とに基づいて、前記物体が存在する領域を決定する決定手段と、を有することを特徴とする。【選択図】 図1

Description

本発明は、画像における人物の検出に関する。
監視カメラシステムにおいて、カメラ画像から人物などの物体を検出して、他のカメラで検出された物体と同一であるか否かを判定する技術がある。同定対象の物体が人物である場合、まず、カメラ画像中から物体を検出する。次に、その物体の領域から物体固有の特徴を表す照合特徴を抽出する。そして、異なるカメラで検出された物体の照合特徴を比較することで、これらの物体が同一であるか否かを識別する。特許文献1では、物体の特徴点を抽出し、特徴点群の外接矩形から物体領域を決定する。
特開2014−197386号公報
物体領域の決定、画像処理、画像認識の精度低下の原因として、被写体の一部が他の物体に遮蔽される「オクルージョン」が知られている。特徴点の検出であれば、遮蔽された周辺領域は被写体の画像特徴を正しく抽出することができないため、特徴点を正しく推定することができない。また、人物照合のための照合特徴の抽出であれば、人物を特定するための情報を遮蔽された周辺領域から正しく抽出することができない。このような場合、特許文献1の方法では、物体の領域を決定できない。本発明は上記課題に鑑みてなされたものであり、物体の一部が遮蔽された状況においても、物体の領域を決定することを目的とする。
本発明の目的を達成するために、複数の部位を有する物体を撮像した画像から、該物体の部位に対応させて第1の特徴点群を検出する第1の検出手段と、前記第1の検出手段によって検出された前記第1の特徴点毎に、該特徴点が示す位置が該特徴点に対応する前記部位である確からしさを示す信頼度を取得する取得手段と、前記第1の特徴点群のうち前記信頼度が所定の値より小さい特徴点に対応する前記部位について、前記第1の特徴点群の一部に基づいて第2の特徴点を検出する第2の検出手段と、前記第1の特徴点群の一部と前記第2の特徴点とに基づいて、前記物体が存在する領域を決定する決定手段と、を有することを特徴とする。
本発明によれば、物体の一部が遮蔽された状況においても、物体の領域を決定できる。
実施形態画像表示装置の機能構成例を示すブロック図 画像特徴決定部の機能構成例を示すブロック図 ハードウェア構成例を示すブロック図 実施形態画像処理装置が実行する処理の流れを示すフローチャート 画像処理装置が実行する処理の流れを示すフローチャート 画像処理装置が実行する処理の流れを示すフローチャート 腰の特徴点の補正の一例を説明する図 足の特徴点の補正の一例を説明する図 物体の領域を決定する処理を説明する図 画像処理装置が実行する処理の流れを示すフローチャート 部分画像領域外の特徴点を補正する処理を説明する図 ニューラルネットワークの構成例を説明する図 ニューラルネットワークに学習させる処理の流れを示すフローチャート 画面表示例を説明する図 顔における部位の例を説明する図 サブネットワークの構成例を説明する図 画像統合サブネットワークの構成例を説明する図 人物の遮蔽部分の一例を説明する図
以下、本発明の実施形態について説明する。
<実施形態1>
図3に、本実施形態のハードウェア構成例を示す。図3で、301はCCD、CMOS、等で構成され、被写体像を光から電気信号に変換するための撮像素子(撮像手段)である。302は撮像素子301から得られた被写体像に関する時系列信号を処理し、デジタル信号に変換する信号処理回路である。301と302はカメラとしてバスに接続されている。303はCPUであり、ROM304に格納されている制御プログラムを実行することにより、本装置全体の制御を行う。304はROMであり、CPU303が実行する制御プログラムや各種パラメータデータを格納する。制御プログラムは、CPU303で実行されることにより、後述するフローチャートに示す各処理を実行するための各種手段として、当該装置を機能させる。305はRAMであり、画像や各種情報を記憶する。また、RAM305は、CPU303のワークエリアやデータの一時待避領域として機能する。306はディスプレイである。307はマウス等のポインティングデバイスや、キーボード等の入力装置であり、ユーザからの入力を受け付ける。308はネットワークやバス等の通信装置であり、他の通信装置とデータや制御信号を通信する。なお、本実施形態では、後述するフローチャートの各ステップに対応する処理を、CPU303を用いてソフトウェアで実現することとするが、その処理の一部または全部を電子回路などのハードウェアで実現するようにしても構わない。また、本発明の画像表示装置は、撮像素子301や信号処理回路302を省いて汎用PCを用いて実現してもよいし、専用装置として実現するようにしても構わない。また、ネットワークまたは各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ等の処理装置(CPU,プロセッサ)にて実行してもよい。
実施形態の説明に先立って用語について説明する。特徴点とは、複数の部位から構成される物体の構成単位と対応づけられた点である。以下の説明において、特徴点は、具体的には画像における人物の関節の位置(2次元座標)とする。信頼度は、検出された前記特徴点毎に算出され、その特徴点に対応する部位が画像上の存在する尤度を示す0から1の実数である。例えば、特徴点として人物の頭の位置を検出するとき、画像においてある人物の頭部がはっきりと映っていれば信頼度は大きくなる。逆に、頭部が霞んで映っている場合や、何か他の物体に頭部が遮蔽されている場合は、頭部に対応する特徴点の信頼度は小さくなる。つまり、該特徴点が示す位置が該特徴点に対応する前記部位である確からしさを示す。本実施形態は監視対象の物体として人物を例に説明するが、これに限定せず、動物や車など他の物体でも構わない。すなわち、複数の部位からなる構造物であれば適用可能である。本実施形態では、人物の全身の特徴量を用いて人物を同定する。一方、顔を用いて人物の同定を行ってもよく、この場合、特に「顔認証」、「顔照合」、「顔検索」などの名称で知られている。
本実施形態の構成を図1に示す。本実施形態は、画像取得部101、第1の検出部102、特徴群部103、第2の検出部104、特徴点記憶部105、領域決定部106、画像抽出部107、画像特徴抽出部108、認識部109、表示部110、学習部111、物体記憶部112で構成される。
画像取得部101はカメラから複数の部位を有する物体を撮像した画像フレームを取得する。第1の検出部102は画像フレームから物体の特徴点の位置とその信頼度を検出する。画像における人物の関節の位置とその信頼度を検出する方法の詳細は後述する。特徴群決定部103は、第1の検出部102で検出された特徴点の位置と信頼度に基づいて、信頼度が所定の値より小さい特徴点を検出するための特徴群を決定する。この特徴点群の組み合わせは事前に用意されており、この中から特徴点の信頼度の条件に応じて決定する。この具体的な方法は後述する。第2の検出部104は、第1の検出部によって検出された特徴点のうち所定の特徴点の信頼度が所定の値より小さい場合は、第1の検出手段とは異なる方法で、画像から前記所定の特徴点を検出する。特徴点の検出は、特徴点間の相対位置関係を用いて行う。具体的な方法は後述する。特徴点記憶部105は検出された特徴点を記憶する。領域決定部106は特徴点から物体が存在する領域を決定する。検出された特徴点のうち、事前に決められた特定の特徴点の組み合わせを用いて、画像特徴抽出の対象の物体が存在する領域を決定する。画像抽出部107は画像フレームから、領域決定部で決定された領域を切り出す。画像特徴抽出部108は切り出された部分画像からニューラルネットワークなどを用いて人物を識別するための画像特徴を抽出する。認識部109は抽出された画像特徴を用いて画像認識を行う。本実施形態では画像認識として人物の同定を行う。具体的には、抽出した画像特徴同士を比較することで、この特徴量が同一人物のものか否かを判別する。詳細は後述する。表示部110は画像認識の結果を画面に表示する。学習部111は画像特徴抽出部108で画像特徴抽出に用いるニューラルネットワークなどを学習する。物体記憶手段112は認識部109で使用する物体の情報が記憶されている。
図1の画像特徴抽出部108の構成例を図2に示す。画像特徴抽出部108は領域外特徴点補正部202、物体部位抽出部203、中間画像特徴抽出部204、信頼度変換部205、特徴統合部206、画像特徴出力部207で構成される。
領域外特徴点補正部202は図1の特徴点抽出部102で抽出した特徴点のうち、部分画像領域外の特徴点を補正する。物体部位抽出部203は画像から物体の部位(パーツ)を抽出する。中間画像特徴抽出部204は画像と物体の部位から中間画像特徴を抽出する。信頼度変換部205は特徴点抽出部102で抽出した特徴点の信頼度に変換処理を適用する。特徴統合部206は中間画像特徴抽出部204の出力と信頼度変換部205の出力を統合する。画像特徴出力部207は特徴統合部206の出力から画像特徴を生成する。
本画像処理装置の動作を図4のフローチャートで説明する。図4のフローチャートに示した処理は、コンピュータである図3のCPU303によりROM304に格納されているコンピュータプログラムに従って実行される。
ステップ401はカメラから画像フレームを取得する。本ステップは図1の画像取得部101の動作に該当する。
ステップ402は、ステップ401で取得した複数の部位を有する物体を撮像した画像から、該物体の部位に対応づけられた複数の特徴点を検出する(第1の検出方法)。本ステップは図1の第1の検出部102の動作に該当する。また、ステップ402では画像フレームを入力とし、画像中に存在する人物の複数の特徴点とそれらの信頼度を抽出する。検出された前記特徴点毎に、該特徴点が前記画像に映っている確からしさを示す信頼度を取得する。画像処理対象が人物であれば、特徴点として人体の関節位置を用いることができる。本ステップで検出する特徴点は、頭頂、首、腰、右足首、左足首の5点である。特徴点の検出には、Convolutional Pose Machinesを使用する。(Shih−En Wei et al.,“Convolutional Pose Machines,”IEEE,2016.)。この方法では、学習済みモデル(ニューラルネットワーク)を用いて、それぞれの関節位置が画像上のどこに存在しているかを示す信頼度マップを算出する。信頼度マップは2次元のマップであり、関節点の数をPとすると、P+1枚存在する(1枚は背景に対応するマップ)。ある関節点の信頼度マップにおいて、信頼度の大きい位置をその関節点が存在する位置とみなす。信頼度は、その特徴点の存在する尤度を示す0から1の実数である。1に近いほど関節点が存在する確度が高い。他の物体に遮蔽されている関節点は、人物でない物体上から抽出されるため、人物関節としての尤もらしさが低下する。したがって、他の物体に遮蔽されていない関節に比べ、関節の位置の信頼度が低くなる。一方、他の物体に隠されていない関節は、人物上から良好に抽出されるため、関節の信頼度が高くなる。
なお、物体の特徴点とその信頼度の検出方法は、Convolutional Pose Machines以外の方法を用いても構わない。例えば、ルールベースの方法を用いて、人体の各関節点について抽出した画像特徴を用いて各関節点を特定しても良い。他、画像から頭部の画像特徴を抽出し、頭部が抽出された位置から胴体の位置を推定しても良い。また、本実施形態では特徴点として人体の関節点を用いるが、画像処理対象が顔ならば、顔特徴点を用いることができる。顔特徴点として、目、眉毛、鼻、口、耳などのパーツの中心や端点、輪郭線上の点、顔全体形状の輪郭線上の点などを用いることができる。
ステップ403は、第2の検出方法に用いる特徴点群を決定する。ステップ403は図1の特徴群決定部103の動作に該当する。ステップ403で決定された特徴点群は、第2の検出方法に用いる。特徴点群は組み合わせのパターンが複数用意されており、この中から特徴点の信頼度の条件に応じて選択し、決定する。後のステップ404での第2の検出方法で使用される。特徴点群には、補正後の位置を決定するために用いる特徴点(ここでは、頭、首または腰)が含まれる。本実施形態において、所定の特徴点として補正の対象となる特徴点は、腰、右足首、左足首である。右足首と左足首の補正は同じ手順で行うため、右足首の補正のみを取り上げて説明する。以下、処理対象の片側の足首を単に「足首」と表記する。
ステップ403の動作を図5のフローチャートで説明する。後述するように、補正に用いる特徴点群の候補として、特徴点群A1、A2、A3、B1、B2、B3の6種類が事前に用意されている。腰の補正に関する特徴点群A1、A2、A3から1つと、第2の検出方法における足首の検出に関する特徴点群B1、B2、B3から1つを条件に応じて決定する。
詳細は後述するが、特徴点群A1は空集合であり、第1の検出部の検出結果をそのまま採用する。特徴点群A2を用いて、現在フレームでの頭と首の位置から、腰の位置を検出する。特徴点群A3を用いて、過去フレームでの頭と腰の位置から現在の腰の位置を検出する。特徴点群B1は空集合であり、第1の検出部の検出結果をそのまま採用する。特徴点群B2を用いて、現在フレームでの首と腰の位置から、足首の位置を検出する。特徴点群B3を用いて、過去フレームでの首と足首の位置から現在のフレームでの足首の位置を検出する。
図5のステップ501は、ステップ402で決定した現在のフレームでの腰の信頼度が事前に定められたしきい値以上か否かを評価する。しきい値以上だったらステップ503に進み、そうでなかったらステップ502に進む。
ステップ502では、特徴点記憶部105で記憶された過去のフレームにおける腰の信頼度がしきい値以上か否かを評価する。しきい値以上だったらステップ505に進み、そうでなかったら504に進む。過去のフレームとは、図4のフローチャートの繰り返しループにおいて、1つ前の繰り返しループのステップ401で取得された画像フレームである。ただし、特徴点記憶部105に過去のフレームにおける特徴点が記憶されていない場合、すなわち初めて図4のステップ403を実行する場合は、ステップ504に進む。
ステップ503では、第2の検出方法に用いる特徴点群として特徴点群A1を決定し、ステップ506に進む。特徴点群A1が決定される場合は、現在フレームの腰の特徴点が信頼できる場合であり、腰の特徴点を以降の処理で検出し直す必要がない。
ステップ504では、第2の検出方法に用いる特徴点群として特徴点群A2を決定し、ステップ506に進む。特徴点群A2が決定される場合は、現在のフレームと過去のフレームの両方の腰の関節点が信頼できず、現在のフレームの頭と首の位置から現在のフレームの腰の位置を以降の処理で検出する。
ステップ505では、補正に用いる特徴点群として特徴点群A3を選択し、ステップ506に進む。特徴点群A3が選択される場合は現在のフレームの腰の特徴点が信頼できないが、過去のフレームの腰の特徴点は信頼できる場合であり、過去のフレームの頭と腰の位置から現在の腰の位置を以降の処理で補正する。
ステップ506は、ステップ402で決定した現在のフレームでの足首の信頼度が事前に定められたしきい値以上か否かを評価する。しきい値以上だったらステップ508に進み、そうでなかったらステップ507に進む。
ステップ507では、特徴点記憶部105で記憶された過去のフレームにおける足首の信頼度が事前に定められたしきい値以上か否かを評価する。しきい値以上だったらステップ510に進み、そうでなかったら509に進む。ただし、特徴点記憶部105に過去のフレームにおける特徴点が記憶されていない場合、すなわち初めて図4のステップ403を実行する場合は、ステップ509に進む。
ここで、S501、S502、S506、S507で用いるしきい値は、本実施例ではそれぞれ異なる値とするが、同じ値としても構わない。
ステップ508では、補正に用いる特徴点群として特徴点群B1を選択し、図5のフローチャートの処理を終了する。特徴点群B1が選択された場合は、現在フレームでの足の特徴点が信頼できる場合であり、足の位置を後の処理で検出する必要がない。
ステップ509では、補正に用いる特徴点群として特徴点群B2を選択し、図5のフローチャートの処理を終了する。特徴点群B2が選択された場合は、現在フレームと過去フレームの両方で足の位置が信頼できない場合であり、現在フレームの足と腰の位置から現在フレームの足の位置を以降の処理で検出する。
ステップ510では、補正に用いる特徴点群として特徴点群B3を選択し、図5のフローチャートの処理を終了する。特徴点群B3が選択された場合は現在フレームで足の特徴点が信頼できないが、過去フレームで足の特徴点が信頼できる場合であり、過去フレームの首と足の位置から現在フレームの位置を以降の処理で検出する。
以上のステップ506、507、508、509、510の説明では片側の足首(右足首)のみを対象としたが、もう片側の足首(左足首)についても同様に第2の検出方法に用いる特徴点群を決定する。なお、足首の位置を検出するには、なるべく足首の位置に近い特徴点から足首の位置を推定できると良い。そのため、腰の位置が採用できる(腰の位置の信頼度が高い)場合は、腰の位置を用いて足首の位置を検出する。腰の位置が分からない(腰の位置の信頼度が低い)場合は、腰の次に足首に近い首の位置を用いて足首の位置を検出する。以下の処理順序は上記の意図を踏まえた順序になっているが、順序は変えても構わない。また、腰の位置を検出せずに、足首の位置だけを検出するように特徴群を決定してもよい。
図4のステップ404では、ステップ403で決定した特徴点群を用いて、第2の検出方法により所定の特徴点を検出する。ステップ404の処理は、図1の第2の検出部104に該当する。ステップ404の動作を図6のフローチャートを用いて説明する。図6の処理では、図5のフローチャートの処理で決定した特徴点群A1、A2、A3、B1、B2、B3に基づいて所定の特徴点(足首の位置)を検出する。
図4のステップ403と同様に、右足首と左足首の補正は同じ手順で行うため、右足首の検出のみを取り上げて説明する。以下、処理対象の片側の足首を単に「足首」と表記する。
図6のステップ601では腰に関する特徴点群A1、A2、A3のいずれが選択されているか判定する。特徴点群A1が選択されていたらステップ602に進み、特徴点群A2が選択されていたらステップ603に進み、特徴点群A3が選択されていたらステップ604に進む。ステップ602、ステップ603、ステップ604では、第2の検出方法で腰の特徴点の位置を検出する。
ステップ602は、腰の特徴点の位置を検出しない。なぜなら、以前の処理で腰の特徴点の信頼度があるしきい値より大きく、信頼できると考えられるためである。
ステップ603は、現在の画像フレームで検出された頭と首の位置から、腰の位置を検出する。図7を用いて処理を説明する。図7(a)のように、図4のステップ402によって、頭頂701、首702、腰703、右足首704、左足首705の特徴点が検出されている。まず、図7(b)のように、頭と首を結ぶ直線706を計算する。また、頭と首の間の距離をそれぞれの位置座標から計算する。ここで、人体の頭と首の距離と頭と腰の距離の比は、個人差はあるものの、およそ同じであると仮定できる。このため、腰の位置が、頭と首を結ぶ直線上となり、頭と首の距離と頭と腰の距離の比が所定のものとなるように検出する。図7(c)に補正後の腰の特徴点707の例を示す。この所定の比は、例えば平均的な成人の人体部位の比から定めることができる。
ステップ604は、過去フレームでの頭と腰の位置から現在の腰の位置を検出する。まず、特徴点記憶部105で記憶された過去のフレームの特徴点から、頭と腰の距離を計算する。次に、現在のフレームにおいて、図7(b)と同様に、頭と首を結ぶ直線を計算する。ここで、過去のフレームにおける頭と腰の距離と現在のフレームにおける頭と腰の距離はおよそ同じであると仮定する。そして、腰の位置が頭と首を結ぶ直線上となり、現在のフレームにおける頭と腰の距離が過去のフレームにおける頭と腰の距離と等しくなるように、現在のフレームにおける腰の位置を検出する。
図6のステップ605では足首に関する特徴点群B1、B2、B3のいずれが選択されているか判定する。特徴点群B1が選択されていたらステップ606に進み、特徴点群B2が選択されていたらステップ607に進み、特徴点群B3が選択されていたらステップ608に進む。ステップ607、ステップ608では、足首の特徴点の位置を検出する。ステップ606は、足首の特徴点の位置を検出しない。
ステップ607は、現在フレームでの首と腰の位置から、足首の位置を検出する。図8を用いて処理を説明する。図8(a)のように、図4のステップ402によって、頭頂801、首802、腰803、右足首804、左足首805の特徴点が検出されている。まず、図8(b)のように、首と腰を結ぶ直線806(体軸)を計算する。また、首と腰の間の距離をそれぞれの位置座標から計算する。ここで、人体の首と腰の距離と首と右足首の距離の比は、個人差はあるものの、およそ同じであると仮定できる。このため、足首の位置が、首と腰を結ぶ直線上となり、首と腰の距離と首と足首の距離の比が所定のものとなるように検出する。左図8(c)に足首807の特徴点の検出後の例を示す。
ステップ604は、過去フレームでの首と足首の位置から現在のフレームでの足首の位置を検出する。まず、特徴点記憶部105で記憶された過去のフレームの特徴点から、首と腰の距離を計算する。次に、現在のフレームにおいて、図8(b)と同様に、首と腰を結ぶ直線(体軸)を計算する。ここで、過去のフレームにおける首と足首の距離と現在のフレームにおける首と足首の距離はおよそ同じであると仮定する。そして、足首の位置が体軸上となり、現在のフレームにおける首と足首の距離が過去のフレームにおける首と足首の距離と等しくなるように、現在のフレームにおける足首の位置を検出する。
以上のステップ605、606、607、608の説明では右足首のみを対象としたが、左足首についても同様に検出を行う。この処理によって、足首部分がオクルージョンやノイズによって第1の検出部で上手く検出されない場合でも、より確からしい足首の位置を検出することができる。
図4のステップ405では検出された前記特徴点に基づいて、前記物体が存在する領域を決定する。この部分画像領域は、撮像画像における人物が存在する領域を示し、後の処理で人物画像を画像フレームから抽出する領域の指定に用いる。ステップ405の動作は図1の領域決定部106に該当する。ステップ405の処理を図9(a)を用いて説明する。図9(a)のように、画像フレーム903中に頭頂、首、腰、右足首、左足首の特徴点が存在する。まず、右足首と左足首の中点を計算する。そして、頭とその中点を結ぶ直線901(体軸)を計算する。本実施形態では、部分画像領域は矩形であり、アスペクト比が事前に定められたものとする。矩形の縦方向が体軸に平行であり、矩形の中心軸が体軸と等しく、矩形の上辺が頭と接し、矩形の下辺が足首と接するように、矩形902を決定する。このとき、矩形の上辺と頭の間と、矩形の下辺と足首の間に余白を設けても構わない。例えば、頭と足首の距離(身長)に一定の係数を乗算した大きさの余白を設けても構わない。すなわち、部分画像領域は特徴点の外接矩形を基に決定する。本実施形態では、矩形のアスペクト比は後のニューラルネットワークへの入力を容易にするために固定としたが、後の処理の構成によっては固定でなくても構わない。なお、補正した関節位置を用いる場合、ここで決定した領域には人物の部位が遮蔽されていることや、ノイズが多く出ていることがあり得る。例えば、図18のように、足首の部位が遮蔽物1803によって隠されている場合でも人物の部位を含む領域として決定する。このように領域を決定することで、矩形の中における人体の部位の配置が整合的な部分画像領域を決定できる。部位の配置を整合的にすることで、後段で行う特徴量の抽出処理において、各部位の特徴がより反映された各部位の特徴量を抽出できる効果がある。
図4のステップ406では、ステップ405で決定した部分画像領域を人物画像として画像フレームから切り出す。ステップ405で決定した部分画像領域の矩形が傾斜している場合は、矩形が直立するように画像を回転する。図9(a)から切り出した例を図9(b)に図示する。ステップ406の動作は図1の画像抽出部107に該当する。
ステップ407では、現在フレームにおける補正後の部位を記憶する。ステップ407の動作は図1の特徴点記憶部105に該当する。
ステップ408は部分画像領域(人物画像)から特徴量を抽出する。ステップ408の動作は図1および図2の画像特徴抽出部108に該当する。ステップ408の動作を図10のフローチャートを用いて説明する。
図10のステップ1001は領域外特徴点補正部202が、部分画像領域と特徴点の座標に基づいて、部分画像領域外の特徴点の信頼度を補正する。ステップ1001は図2の領域外特徴点補正部202に該当する。部分画像領域の矩形のアスペクト比が固定である場合、手足を広げているときなど、特徴点が部分画像領域に含まれない場合がある。部分画像領域外にある人体部位は特徴抽出の範囲外であり、この部分における特徴抽出の精度が低下する問題がある。このため、後のステップでその影響を軽減するために、部分領域外の特徴点の信頼度を減少させる調整を施す。例えば、図11において、右足首1104が矩形1106の範囲外であり、この右足首の特徴点の信頼度を減少させる。本実施形態では、元の信頼度に1より小さいあらかじめ定めた実数値を乗じた値を補正後の信頼度とする。このように、部分領域外の特徴点の信頼度を減少させることで、部分領域外に人体パーツが配置されたことによる特徴抽出の精度の低下の問題と、遮蔽による特徴抽出の精度の低下の問題を、以降で共通の処理で対処することができる。
ステップ1002は部分画像領域と特徴点の信頼度から特徴量を抽出する。特徴量の抽出はニューラルネットワークが使用できる。図12にニューラルネットワークの構成例を示す。図12のニューラルネットワークは画像1201と特徴点信頼度1206を入力とし、画像特徴1210を出力する。ニューラルネットワークは、画像変換サブネットワーク1202、信頼度変換サブネットワーク1207、統合サブネットワーク1208、特徴出力サブネットワーク1209で構成される。画像変換サブネットワーク1202は図2の中間画像特徴抽出部204に該当する。信頼度変換サブネットワーク1207は図2の信頼度変換部205に該当する。統合サブネットワーク1208は図2の特徴統合部206に該当する。特徴出力サブネットワーク1209は図2の画像特徴出力部207に該当する。
ニューラルネットワークで扱う入力データ、中間データ、出力データはテンソルとして扱われる。テンソルは多次元の配列として表現されるデータで、その次元数は階数とよばれる。階数が0のテンソルはスカラー、階数が1のテンソルはベクトル、階数が2のテンソルは行列と呼ばれる。例えば、チャネル数が1の画像(グレースケール画像など)はサイズH×Wの階数2のテンソル、またはサイズH×W×1の階数3のテンソルとして扱える。また、RGB成分を持つ画像はサイズH×W×3の階数3のテンソルとして扱える。
テンソルをある次元のある位置で切断した面を取り出したデータおよびその操作をスライスと呼ぶ。例えば、サイズH×W×Cの階数3のテンソルを3番目の次元のc番目の位置でスライスすることで、H×Wの階数2のテンソルまたはH×W×1の階数3のテンソルが得られる。
あるテンソルに畳み込み演算を行う層をコンボリューション層(Convと略記)と呼ぶ。畳み込み演算に用いるフィルタの係数を「重み」と呼ぶ。一例として、コンボリューション層によって、H×W×Cの入力テンソルからH×W×Dの出力テンソルを生成する。
あるベクトルに重み行列を乗算し、バイアスベクトルを加算する操作を行う層を全結合層(FCと略記)と呼ぶ。一例として、長さCのベクトルから、全結合層を適用することで長さDのベクトルを生成する。
あるテンソルを区間に区切り、その区間の最大値を取ることで、テンソルのサイズを縮小する操作を最大プーリングと呼ぶ。最大値ではなく、区間の平均値をとる場合には平均プーリングと呼ぶ。本実施形態では、最大プーリングを用い、これを行うニューラルネットワークの層を単にプーリング層(Poolingと略記)と呼ぶ。本実施形態では、プーリング層によって、1次元目と2次元目の大きさが入力の半分となるようなテンソルを出力する。具体的には、H×W×Cの入力テンソルからH/2×W/2×Cの出力テンソルを生成する。
ニューラルネットワークにおいて、通常コンボリューション層の後に適用する非線形関数を活性化関数と呼ぶ。活性化関数として正規化線形関数(ReLUと略記)、シグモイド関数などがある。特に、シグモイド関数は出力値の範囲が0から1となる性質がある。本実施形態では、断りがなければ活性化関数としてReLUを用いる。
ニューラルネットワークにおいて、テンソル同士をある次元方向に並べて連結する操作を「連結」と呼ぶ。
Global average poolingについて説明する。階数3のサイズH×W×Cのテンソルにおいて、3番目の次元の全ての位置でのスライスに対し、それぞれスライスに含まれる全要素の平均値をとる。そして、このC個の平均値を並べることで、長さCのベクトルを生成する。この操作をGlobal average poolingと呼ぶ。
図12において、ニューラルネットワークの入力となる画像1201のサイズは幅W1、高さH1、チャネル数3とする。すなわち、画像はH1×W1×3のテンソルとみなせる。
画像変換サブネットワーク1202は画像1201を特徴マップに変換する。画像変換サブネットワーク1202はさらに前処理サブネットワーク1203、パーツ推定サブネットワーク1204、画像統合サブネットワーク1205で構成される。
画像変換サブネットワーク1202は、検出された特徴点に対応する部位毎に物体を識別するための特徴量を抽出する。具体的にはL. Zhaoらの論文のように、パーツを推定し、パーツの特徴を抽出するモジュールを含む。画像変換サブネットワーク1202は図2の物体部位抽出部203に該当する。(L. Zhao et al.“Deeply−Learned Part−Aligned Representations for Person Re−Identification,” IEEE,2017。)本実施形態では特徴抽出を行うニューラルネットワーク内で物体部位抽出部203を動作させるが、このニューラルネットの外で物体部位抽出部203を動作させ、外からパーツの位置や大きさに関する情報を与えてもいい。また、物体部位抽出部203と図1の第1の検出部102は互いに用途を兼ねてもよく、第1の検出部102の出力に由来する情報を物体部位抽出部203の出力として用いてもよく、その逆を行ってもよい。なお、ここで抽出される部位毎の特徴量は、後の処理で全体特徴量として統合される。その際、特徴点毎の信頼度に応じて各部位の特徴量を全体特徴量に反映する重みづけをする。つまり、信頼度が小さい特徴点に対応する部位から抽出された特徴量が最終的な認識結果に寄与することを抑制する。信頼度が小さい特徴点は物体が遮蔽されていることや、ノイズが多くなっている可能性があり、その部位から抽出された特徴量は必ずしもその物体の部位の特徴を示しているとは限らないためである。このような処理を行うことで、物体の特徴をより反映した特徴量を生成でき、物体の認識精度が向上する効果が期待できる。
画像変換サブネットワーク1202は1つ以上のコンボリューション層(Conv)、最大プーリング層(Pooling)のシーケンスで構成できる。本実施形態では、「Conv、Conv、Pooling、Conv、Pooling、Conv、Pooling、Conv」といったシーケンスで構成する。構成の概略を図16(a)に示す。画像に画像変換サブネットワークを適用した結果、H2×W2×C2のテンソルを得る。
パーツ推定サブネットワーク1204は画像変換サブネットワーク1202の出力を入力とし、特徴マップであるH2×W2×P1のテンソルを出力する。ここで、P1は推定するパーツの数であり、事前に定められた任意の数でよい。このテンソルの3番目の次元の位置pでのスライス(サイズがH2×W2×1のテンソル)はp番目のパーツの存在位置を示すマスク画像である。それぞれの画素は0から1の値を取り、1に近いほどその位置にそのパーツが存在する確度が高い。パーツ推定サブネットワーク1204は1つのコンボリューション層とシグモイド関数で構成される。構成の概略を図16(b)に示す。パーツ推定ネットワークの構成はこれに限らず、複数のコンボリューション層で構成しても構わない。
画像統合サブネットワーク1205は画像変換サブネットワーク1202とパーツ推定サブネットワーク1204の出力を統合する。図17に処理の流れを示す。まず、パーツ推定サブネットワークの出力テンソル1701の3番目の次元での位置pでのスライス1702(サイズがH2×W2×1のテンソル)をC2個コピーして3番目の次元方向に連結し、サイズH2×W2×C2のテンソル1703に拡張する。そして、このテンソルの各要素について、画像変換サブネットワーク1202の出力テンソル1704の各要素と乗算することで、新たなテンソル1705(サイズH2×W2×C2)を生成する。そして、このテンソルに対し、global average poolingを適用することで、長さC2のベクトル1706を生成し、さらに全結合層を適用することで長さC3のベクトル1707を生成する。この処理をすべてのパーツのチャネルpに対して適用し、それぞれの生成されたベクトルを連結したベクトル1708を生成する。すなわち、画像統合サブネットワークで生成されるベクトル1708の長さは(C3)P1である。本実施形態では統合対象のデータがベクトルであるが、ベクトルはテンソルの一種であり、統合対象のデータが2階以上のテンソルである場合にも同様に結合によって統合しても構わない。
特徴点信頼度1206は長さC4のベクトルとする。本実施形態では、図4のステップ402で検出される特徴点の数が5なのでC4=5である。
信頼度変換サブネットワーク1207は、特徴点信頼度1206を長さC5のベクトルに変換する。信頼度変換サブネットワーク1207は0個以上の全結合層で構成できる。本実施形態では1個の全結合層とする。構成の概略を図16(c)に示す。
統合サブネットワーク1208は画像統合サブネットワーク1205の出力ベクトルと信頼度変換サブネットワーク1207の出力ベクトルを統合する。統合サブネットワーク1208は長さC6のベクトルを出力する。本実施形態では、この2つのベクトルを連結する。構成の概略を図16(d)に示す。そのため、C6=(C3)P1+C5となる。
特徴出力サブネットワーク1209は統合サブネットワーク1208の出力ベクトルを入力とし、長さC7のベクトルである画像特徴1210を出力する。特徴出力サブネットワーク1209は1つ以上の全結合層で構成できる。本実施形態では2つの全結合層で構成する。構成の概略を図16(e)に示す。この画像特徴は、「照合特徴」、「人物特徴」、「ディスクリプタ」、「embedding」とも呼ばれる。
図4のステップ409は、ステップ408で抽出した人物画像の特徴量を人物データベースに保存してある特徴量と比較する。人物データベースとは、人物同定の対象のN人の人物の切り出し画像と特徴量があらかじめ登録されている記憶手段である。事前に人物同定対象の人物の画像を撮影しておき、ステップ402からステップ408と同様の方法で画像切り出しと特徴量抽出を行い保存してある。人物データベースは図1の物体記憶手段112に該当する。ステップ409では、人物データベース内の人物の特徴量とステップ408で抽出した人物画像の特徴量の距離を計算する。そして、距離順に人物データベース内の人物の並び替えを行い、最も距離の小さい人物を並びの先頭に配置する。ステップ409は図1の認識部109の処理に該当する。本実施形態では、特徴量の比較にユークリッド距離を用いる。特徴量の比較は他の方法でもよく、L1距離やコサイン距離などの他の距離指標でもよく、メトリクスラーニングやニューラルネットワークなどの機械学習を利用して比較しても構わない。
図4のステップ410はステップ409で該当する人物を画面に表示する。ステップ410は図1の画像表示部110の処理に該当する。表示画面例を図14に示す。表示画面1401にはクエリ1402とギャラリ1403で構成される。クエリ1402は検索したい人物の画像であり、ステップ406で切り出した人物画像を表示する。ギャラリ1403は検索結果の一覧であり、ステップ409で距離順に並び替えた人物データベース内の画像を順番に上位5人を表示する。この際、上位5人を表示してもいいし、5人の中から距離が事前に定めたしきい値以下の人物だけを表示しても構わない。ギャラリに表示される画像は、図4のステップ401からステップ407と同様の方法で切り出されてもいいし、他の方法で切り出されたものでよい。クエリとギャラリの人物の画像には、図14のように、検出した特徴点の位置を示すマーカを重畳表示しても構わない。
図4のステップ411はフローチャートの処理を終了するか否かを判定する。本実施形態では、ステップ411の実行回数が規定回数以上になった場合、終了すると判定する。そうでなかった場合、ステップ401に進み、フローチャートの処理を続行する。
<ニューラルネットワークの学習>
図1の画像特徴抽出部108で使用するニューラルネットワークの学習の方法を図13のフローチャートを用いて説明する。図13のフローチャートの処理は図1の学習手段111に該当する。
ニューラルネットワークの構造は上述のように図12で示される。ニューラルネットワークは画像1201と特徴点信頼度1206を入力とし、画像特徴1210を出力する。
ニューラルネットワークはtriplet lossで学習する。(F. Shroff et al.“Face Net: A Unified Embedding for Face Recognition and Clustering,”arXiv:1503.03832)。triplet lossでは、アンカーサンプルと呼ばれるサンプル、ポジティブサンプルと呼ばれるアンカーと同じ人物のサンプル、ネガティブサンプルと呼ばれるアンカーと異なる人物のサンプルで構成される三つ組(triplet)を使用する。アンカーサンプル、ポジティブサンプル、ネガティブサンプルから得られるそれぞれの特徴量を比較してロス関数を計算することで、ネットワークを更新する。
図13のステップ1301はネットワークを構成するコンボリューション層と全結合層の重みを初期化する。本実施形態では、重みの初期値として乱数を使用する。
ステップ1302では学習データ群から学習データをランダムに取得する。1つの学習データは三つ組(triplet)であり、アンカーサンプル、ポジティブサンプル、ネガティブサンプルを1つずつ含む。アンカーサンプル、ポジティブサンプル、ネガティブサンプルは、それぞれ画像と特徴点信頼度で構成される。画像と特徴点信頼度は図4のフローチャートで使用するニューラルネットワークに入力するものと同様の手順で生成が行われている。
ステップ1303は学習データでネットワークを更新する。まず、アンカーサンプル、ポジティブサンプル、ネガティブサンプルに対し、現在の状態のネットワークを適用して、それぞれ特徴量を計算する。これらの3つの特徴量に対し、triplet lossによってロスを計算する。そして、バックプロパゲーション法によって、ネットワーク内の重みを更新する。
ステップ1304で学習を終了するか判定する。ステップ1304を規定回数実行した場合、終了すると判定し、図13のフローチャートの一連の処理を終了する。終了しないと判定した場合、ステップ1302に進む。
本実施形態によれば、特徴群決定部103および第2の検出部104において、良好な特徴点から良好でない特徴点をもう一度検出することができる。そのため、物体の一部が他の物体に遮蔽された状況や外乱を受けている状況においても、領域決定部106による物体領域決定の誤りを低減する効果が見込める。
物体の一部が他の物体に遮蔽された領域や外乱を受けている領域において、第1の検出部102で取得される特徴点の信頼度は正常時よりも低下して出力されると仮定できる。このとき、これらの局所領域から抽出される画像認識のための画像特徴の品質も同時に低下すると考えられる。そのため、画像特徴抽出部108において、ある局所領域の信頼性を表す指標として特徴点の信頼度の情報を用いることで、画像特徴の品質の低下を軽減する効果が見込める。したがって、画像認識の精度が向上する効果が見込める。
図10のステップ1001は部分画像領域外の特徴点の信頼度を減少させる。部分画像領域外にある人体部位は特徴抽出の範囲外であり、この部分における特徴抽出の精度が低下する問題がある。このため、後のステップでその影響を軽減するために、部分領域外の特徴点の信頼度を減少させることで、画像特徴の品質の低下を軽減する効果が見込める。
ステップ403とステップ404において、現在のフレームだけでなく過去のフレームの特徴点も用いて補正に用いる特徴点群の選択と特徴点の補正を行っている。過去のフレームの特徴点を用いることで、現在のフレームで特徴点の信頼度が低い場合においても、特徴点の補正精度を向上させる効果が見込める。
ステップ403において、特徴点の選択を予め定められた順序で行っている。ステップ404の特徴点の位置の補正において精度がよりよいと見込まれる特徴点を優先的に選択することで、より正しく特徴点位置を修正できる効果が見込める。
ステップ404において、所定の順序で特徴点を補正している。ここでは、腰、足という順番で特徴点を補正している。これは、人物は首、腰、足という順番で体の部位がつながっているためである。まず、腰の位置を修正した後、そのより正しい腰の位置を用いて足を修正することができる。このように、所定の順序で特徴点を比較することで、より正しく特徴点位置を修正できる効果が見込める。
ステップ404において、特徴点間の相対位置関係から特徴点の位置を補正している。実施形態では、特徴点間の距離の比や、特徴点から求められる直線(体軸)を基に特徴点を補正している。このように、物体の構造に関する事前知識を用いることで、より正しく特徴点の位置を修正できる効果が見込める。
<実施形態1の変形例>
ステップ402で抽出する特徴点は、頭頂、首、腰、右足首、左足首に限らず、手首、肘、膝など、他の部位でも構わない。また、必ずしも体の部位上でなくてもよく、右足首と左足首の中間点や体軸と左足首・右足首を結ぶ線の交点など、体の部位の位置関係から決まる他の点でも構わない。
ステップ604で、過去フレームでの頭と腰の距離から現在のフレームにおける腰の位置を補正したが、他の方法でも構わない。過去のフレームでの頭と腰の位置座標の差異から、現在フレームの腰の位置を補正しても構わない。例えば、過去フレームでの頭と腰の位置座標の差異として、腰のx座標・y座標は、頭のx座標・y座標よりそれぞれXピクセル、Yピクセル大きいとする。この過去フレームでの頭と腰との位置座標の差異と等しくなるように、現在のフレームにおいて腰の位置を補正しても構わない。また、頭と腰の位置座標の差異の代わりに、首と腰の位置座標の差異を用いても構わない。
ステップ607では、人体の首と腰の距離と首と右足首(または左足首)の距離の比を用いたが、これに限らず、他の特徴点間の比を用いても構わない。一例として、頭と腰の距離と頭と右足首(または左足首)の距離の比のように、首の代わりに頭を用いてもよい。他の例として、頭と首の距離と腰と右足首(または左足首)の距離の比を用いてもよい。ステップ608も同様である。
ステップ607では、右足首と左足首が体軸の上になるように補正した。これに限らず、特徴点間の比があらかじめ定めたものとなるように、右足首(または左足首)を体軸方向に移動させることで補正しても構わない。ステップ608も同様である。
領域決定部106では、部分画像領域を矩形としたが、他の形状でも構わない。例えば、多角形でもいいし、曲線に囲まれていてもよい。図形ではなく、物体領域とその他の領域を区別するマスク画像でもよい。
実施形態1のニューラルネットワークの構造はこれに限定されない。例えば、サブネットワークの間に別のサブネットワークが挿入されてもいい。また、ネットワークの分岐構造が異なっていても構わない。サブネットワークの構成について、コンボリューション層やプーリング層、全結合層などの構成要素の種類や数が異なっていても構わない。
図12の統合サブネットワーク1208では2つのベクトルを結合することで2つのベクトルを統合したが、他の演算方法を用いても構わない。例えば、2つのベクトルのサイズが同じであれば、ベクトルの要素同士の乗算や加算を代わりに用いても構わない。
図2の信頼度変換部205を図12のように信頼度変換サブネットワーク1207として実施しているが、信頼度変換部205はニューラルネットワークの外部に設けても構わない。例えば、特徴点の信頼度に正規化処理や変換処理などの処理をニューラルネットワークの外部で行い、その処理結果をニューラルネットワークの入力の1つとしても構わない。
図4のステップ403およびステップ特徴点を補正において、現在のフレームと1つ前のフレームから補正に用いる特徴点群の選択や特徴点の補正を行った。1つ前のフレームだけでなく、それ以前のフレームを用いて特徴点群の選択や特徴点の補正を行っても構わない。さらに、現在のフレームと合わせ、3フレーム以上のフレームを用いても構わない。
画像特徴抽出部108をニューラルネットで構成したが、ニューラルネット以外の方法を用いても構わない。例えば、HOG(Histogram of Oriented Gradients)特徴やLBP(Local Binary Pattern)特徴を抽出して、これを基に画像特徴を決定してもいい。他には、HOG特徴やLBP特徴からパーツ推定を行ってもいい。
図6のステップ603で頭と首から図7の直線706を計算したが、頭または首のみから直線を計算しても構わない。例えば、人物の体軸が画像フレームのy軸と平行であると仮定できる場合には、直線は画像フレームのy軸に平行であると仮定することができ、首または頭のどちらか1点から直線を計算できる。同様に、図4のステップ405でも複数点から図9の直線901を計算しているが、1点から計算しても構わない。
図10のS1001では、元の信頼度に1より小さいあらかじめ定めた実数値を乗じた値を補正後の信頼度としたが、他の方法でも構わない。信頼度の更新方法はこれに限らず、信頼度を0としてもいいし、信頼度からあらかじめ定めた実数値を減じてもいいし、他の方法を用いても構わない。
以上のように、実施形態1で説明した処理によって、画像において物体の一部が遮蔽されている場合やノイズが多い場合であっても、見えにくくなっている部位の特徴点を検出できる。
<実施形態2>
実施形態1では人物の全身を画像処理の対象としたが、代わりに顔を画像処理の対象にしても構わない。実施形態2では実施形態1との差分のみ説明する。
顔を対象とする場合、図4のステップ402では顔特徴点を検出する。図15に図示する。ここでは、右目1501、左目1502、鼻1503、口の右端1504、口の左端1505を特徴点として検出するとする。
実施形態2においては、ステップ403、404において、右目の特徴点を鼻と口から補正するケースを考える。左目については、右目と同様の処理である。
ステップ403の処理を説明する。まず右目の特徴点の信頼度を評価する。信頼度がしきい値以上の場合は特徴点群C1を選択する。信頼度がしきい値より小さい場合は、過去のフレームでの右目の信頼度がしきい値以上でなかったら特徴点群C2を選択し、しきい値以上だったら特徴点群C3を選択する。
ステップ404の処理を説明する。補正に用いる特徴点群が特徴点群C1であったら、右目の位置を補正しない。特徴点群C2であったら、現在フレームの鼻と口の右端と口の左端の位置関係から、平均的な人物の顔のパーツの配置に近くなるように、現在フレームの右目の位置を補正する。特徴点群C3であったら、過去のフレームの右目、鼻、口の右端、口の左端の配置に近くなるように、現在フレームの右目の位置を補正する。
他のステップの処理も全身から抽出する特徴点を顔の特徴点に置き換えれば、実施形態1の処理と同様である。
実施形態2では顔特徴点を右目、左目、鼻、口の右端、口の左端としたが、目じり、目頭、瞳、鼻の右端、鼻の下端、眉毛、顔の輪郭など、他の部分を特徴点としても構わない。そして、ステップ403やステップ404の処理をそれに合わせて変更しても構わない。
実施形態2によれば、画像フレームからの顔画像の切り出しや顔認識の性能を向上させる効果が見込める。例えば、顔がサングラスやマスクなどのアクセサリで一部分が覆われているケースや、手などで一時的に顔の一部が隠れるケースにおいて有効である。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、データ通信用のネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータが読み取り可能な記録媒体に記録して提供してもよい。
101 画像取得部
102 第1の検出部
103 特徴群決定部
104 第2の検出部
105 特徴点記憶部
106 領域決定部
107 画像抽出部
108 画像特徴抽出部
109 認識部
110 表示部
111 学習部
112 物体記憶部

Claims (17)

  1. 複数の部位を有する物体を撮像した画像から、該物体の部位に対応させて第1の特徴点群を検出する第1の検出手段と、
    前記第1の検出手段によって検出された前記第1の特徴点毎に、該特徴点が示す位置が該特徴点に対応する前記部位である確からしさを示す信頼度を取得する取得手段と、
    前記第1の特徴点群のうち前記信頼度が所定の値より小さい特徴点に対応する前記部位について、前記第1の特徴点群の一部に基づいて第2の特徴点を検出する第2の検出手段と、
    前記第1の特徴点群の一部と前記第2の特徴点とに基づいて、前記物体が存在する領域を決定する決定手段と、を有することを特徴とする画像処理装置。
  2. 前記第2の検出手段は、前記第1の検出手段によって検出された前記第1の特徴点群のうち、前記信頼度が所定の値より小さい前記第1の特徴点が対応する部位について、該第1の特徴点とは異なる位置から前記第2の特徴点を検出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2の検出手段は、前記第1の検出手段によって検出された前記第1の特徴点群のうち、前記信頼度が所定の値より小さい前記第1の特徴点が対応する部位について、前記第1の特徴点のうち前記信頼度が所定の値より大きい特徴点に基づいて、前記第2の特徴点を検出することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第2の検出手段は、前記第1の特徴点の一部について予め記憶された位置関係に基づいて、前記第2の特徴点を検出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第1の検出手段は、前記第1の特徴点群として人物の頭、首、腰、足首の位置を検出し、
    前記第2の検出手段は、前記足首の位置の前記信頼度が所定の値より小さい場合、前記人物の頭または腰と、足首との位置関係に基づいて、前記第2の特徴点として前記足首の位置を検出することを特徴とする請求項4に記載の画像処理装置。
  6. 前記第2の検出手段は、前記第1の検出手段によって検出された前記第1の特徴点群のうち、前記信頼度が所定の値より小さい前記第1の特徴点が対応する部位について、過去の画像において前記信頼度が所定の値より大きい前記第1の特徴点に基づいて、前記第2の特徴点を検出することを特徴とする請求項1または2に記載の画像処理装置。
  7. 前記第1の検出手段は、前記画像から前記第1の特徴点群として人物の頭、首、腰、足首の位置を検出し、
    前記取得手段は、前記画像より前に撮像された過去の画像における人物の足首の位置について前記信頼度を取得し、
    前記第2の検出手段は、前記過去の画像における人物の足首の位置について前記信頼度が前記所定の値より大きい場合は、前記過去の画像における人物の足首の位置を、前記画像における前記第2の特徴点として検出することを特徴とする請求項6に記載の画像処理装置。
  8. 前記物体は人物であって、
    前記第1の検出手段は、人物の前記第1の特徴点として該人物の部位に対応した特徴点を学習させた学習済みモデルに前記画像を入力することで検出することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記物体を撮像した前記画像を取得する取得手段をさらに有ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記決定手段によって決定された前記領域を前記画像から切り出した部分画像に基づいて、前記物体を認識するための特徴量を抽出する抽出手段と、
    前記抽出された特徴量と、予め登録された物体の前記特徴量と、を比較することによって、前記画像で撮像された物体を認識する認識手段と、をさらに有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記抽出手段は、前記第1の特徴点群に対応づけられた前記物体の部位ごとの特徴を用いた前記特徴量を抽出する学習済みモデルに基づいて、前記特徴量を抽出することを特徴とする請求項10に記載の画像処理装置。
  12. 前記決定手段は、前記検出された前記第1の特徴点群に基づいて取得された前記物体の中心軸に基づいて、前記物体が存在する領域を決定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記決定手段は、前記第1の特徴点の一部を含む矩形を前記物体の存在する領域として決定することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記決定手段によって決定された領域を出力する出力手段をさらに有することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 前記出力手段は、前記第1の検出手段で検出された前記第1の特徴点群と、前記第2の検出手段で検出された前記第2の特徴点とを区別して出力することを特徴とする請求項14に記載の画像処理装置。
  16. コンピュータを、請求項1乃至15のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。
  17. 複数の部位を有する物体を撮像した画像から、該物体の部位に対応させて第1の特徴点群を検出する第1の検出工程と、
    前記第1の検出工程によって検出された前記第1の特徴点毎に、該特徴点が示す位置が該特徴点に対応する前記部位である確からしさを示す信頼度を取得する取得工程と、
    前記第1の特徴点群のうち前記信頼度が所定の値より小さい特徴点に対応する前記部位について、前記第1の特徴点群の一部に基づいて第2の特徴点を検出する第2の検出工程と、
    前記第1の特徴点群の一部と前記第2の特徴点とに基づいて、前記物体が存在する領域を決定する決定工程と、を有することを特徴とする画像処理方法。
JP2019172191A 2019-09-20 2019-09-20 画像処理装置、画像処理方法及びプログラム Pending JP2021051375A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019172191A JP2021051375A (ja) 2019-09-20 2019-09-20 画像処理装置、画像処理方法及びプログラム
PCT/JP2020/034093 WO2021054217A1 (ja) 2019-09-20 2020-09-09 画像処理装置、画像処理方法及びプログラム
US17/695,622 US20220207904A1 (en) 2019-09-20 2022-03-15 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172191A JP2021051375A (ja) 2019-09-20 2019-09-20 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021051375A true JP2021051375A (ja) 2021-04-01

Family

ID=75157889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019172191A Pending JP2021051375A (ja) 2019-09-20 2019-09-20 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2021051375A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221656A (zh) * 2021-04-13 2021-08-06 电子科技大学 基于域不变特征的跨域行人重识别模型及其方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005384A (ja) * 2002-04-19 2004-01-08 Sony Corp 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置
JP2010165052A (ja) * 2009-01-13 2010-07-29 Canon Inc 画像処理装置及び画像処理方法
JP2014178862A (ja) * 2013-03-14 2014-09-25 Secom Co Ltd 特徴点抽出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005384A (ja) * 2002-04-19 2004-01-08 Sony Corp 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置
JP2010165052A (ja) * 2009-01-13 2010-07-29 Canon Inc 画像処理装置及び画像処理方法
JP2014178862A (ja) * 2013-03-14 2014-09-25 Secom Co Ltd 特徴点抽出装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221656A (zh) * 2021-04-13 2021-08-06 电子科技大学 基于域不变特征的跨域行人重识别模型及其方法
CN113221656B (zh) * 2021-04-13 2022-07-22 电子科技大学 基于域不变特征的跨域行人重识别装置及其方法

Similar Documents

Publication Publication Date Title
CN110147721B (zh) 一种三维人脸识别方法、模型训练方法和装置
US9684850B2 (en) Biological information processor
JP7094702B2 (ja) 画像処理装置及びその方法、プログラム
US7912253B2 (en) Object recognition method and apparatus therefor
US7925093B2 (en) Image recognition apparatus
US9020250B2 (en) Methods and systems for building a universal dress style learner
US7995805B2 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
JP2017016593A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6773829B2 (ja) 対象物認識装置、対象物認識方法、及び対象物認識プログラム
CN110263768A (zh) 一种基于深度残差网络的人脸识别方法
JP2011113313A (ja) 姿勢推定装置
CN112784712B (zh) 一种基于实时监控的失踪儿童预警实现方法、装置
CN111723687A (zh) 基于神经网路的人体动作识别方法和装置
JP2019175093A (ja) 推定装置、推定方法、推定プログラム、学習装置、学習方法、及び学習プログラム
CN111898571A (zh) 动作识别系统及方法
WO2021054217A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP2019016268A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7479809B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021051375A (ja) 画像処理装置、画像処理方法及びプログラム
Ng et al. An effective segmentation method for iris recognition system
CN111444374B (zh) 人体检索系统和方法
CN112084874B (zh) 一种物体检测方法、装置及终端设备
JP7270304B2 (ja) ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置
CN114511877A (zh) 一种行为识别方法、装置、存储介质及终端
JP5688514B2 (ja) 視線計測システム、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240326