JP2018022416A - 顔方向推定装置及びそのプログラム - Google Patents

顔方向推定装置及びそのプログラム Download PDF

Info

Publication number
JP2018022416A
JP2018022416A JP2016154536A JP2016154536A JP2018022416A JP 2018022416 A JP2018022416 A JP 2018022416A JP 2016154536 A JP2016154536 A JP 2016154536A JP 2016154536 A JP2016154536 A JP 2016154536A JP 2018022416 A JP2018022416 A JP 2018022416A
Authority
JP
Japan
Prior art keywords
face direction
face
image
unit
direction estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016154536A
Other languages
English (en)
Other versions
JP6770363B2 (ja
Inventor
真介 横澤
Shinsuke Yokozawa
真介 横澤
高橋 正樹
Masaki Takahashi
正樹 高橋
山内 結子
Yuiko Yamauchi
結子 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2016154536A priority Critical patent/JP6770363B2/ja
Publication of JP2018022416A publication Critical patent/JP2018022416A/ja
Application granted granted Critical
Publication of JP6770363B2 publication Critical patent/JP6770363B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、リアルタイムで顔方向を高精度に推定できる顔方向推定装置を提供する。【解決手段】顔方向推定装置1は、顔画像を複数の領域に分割する画像領域分割部12と、領域毎の色ヒストグラムを計算し、顔画像全体の色ヒストグラムを求める第1特徴量計算部13と、識別器により、顔画像全体の色ヒストグラムから、信頼度を計算する第1識別部14と、顔画像のHOGを計算する第2特徴量計算部15と、識別器により、顔画像のHOGから、信頼度を計算する第2識別部16と、色ヒストグラム及びHOGで計算した信頼度を統合することで、被写体の顔方向を推定する識別結果統合部17と、を備える。【選択図】図3

Description

本発明は、色ヒストグラム及び他の特徴量を用いて、被写体の顔方向を推定する顔方向推定装置及びそのプログラムに関する。
従来より、映像中の人物の顔向きを推定する手法は、様々なものが提案されている。ここで、サッカーの試合を広角の固定カメラで撮影し、その映像からサッカー選手の顔画像を抽出すると、その顔画像の解像度が低くなることが多い。このような低解像度の顔画像を扱う手法では、顔方向を8方向で定義し、それらをパターン認識で分類するアプローチが多く取られている。
また、顔画像から抽出する特徴量として、iDF(Non-local Intensity Difference Feature)と、cDF(Non-local Color Different Feature)と、IF(Intensity Feature)とを用いる手法が提案されている(非特許文献1)。この他、HOG(Histograms of Oriented Gradients)と、CTC(Color Triplet Comparison)とを用いる手法が提案されている(非特許文献2)。
T. Siriteerakul, D. Sugimura and Y. Sato, "Head Pose Classification from Low Resolution Images Using Pairwise Non-Local Intensity and Color Differences", Proc. Fourth Pacific-Rim Symposium on Image and Video Technology, pp.362-369 (Nov. 2010) B. Benfold and I. Reid, "Unsupervised learning of a scene-specific coarse gaze estimator", Proc. 2011 International Conference on Computer Vision, pp.2344-2351 (Nov. 2011)
しかし、非特許文献1,2に記載の手法は、特徴量の次元数が多いので、その特徴量による学習及び識別の処理負荷が重くなるという問題があった。このため、非特許文献1,2に記載の手法は、サッカーの中継のようにリアルタイム性が要求されるコンテンツへの適用が困難であった。
そこで、本発明は、リアルタイムで顔方向を高精度に推定できる顔方向推定装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本発明に係る顔方向推定装置は、色ヒストグラム、及び、前記色ヒストグラムと異なる1種類以上の第2特徴量を用いて、被写体の顔画像から前記被写体の顔方向を推定する顔方向推定装置であって、画像領域分割部と、第1特徴量計算部と、第1識別部と、第2特徴量計算部と、第2識別部と、顔方向推定部と、を備える構成とした。
かかる構成によれば、顔方向推定装置は、画像領域分割部によって、前記顔画像を入力し、入力した前記顔画像を複数の領域に分割する。そして、顔方向推定装置は、前記領域毎の色ヒストグラムを計算し、計算した前記領域毎の色ヒストグラムを連結することで、前記顔画像全体の色ヒストグラムを求める。
ここで、顔方向推定装置は、各画素の位置情報を記述するために顔画像を領域分割し、それぞれの領域で色ヒストグラムを計算するので、特徴量の次元数を少なくできる。さらに、顔方向推定装置は、顔画像内で頭部位置が変化する場合、顔画像の解像度が低下する場合や顔画像にノイズが重畳する場合でも、顔画像の領域毎に色ヒストグラムを計算するので、特徴量の計算結果がこれらの影響を受けにくくなる。
顔方向推定装置は、第1識別部により、顔方向が異なる訓練データの色ヒストグラムを学習した識別器により、前記顔画像全体の色ヒストグラムから、前記被写体が各顔方向を向いている確率である信頼度を計算する。
顔方向推定装置は、第2特徴量計算部によって、前記第2特徴量の種類毎に、前記顔画像の第2特徴量を計算する。そして、顔方向推定装置は、第2識別部によって、前記第2特徴量の種類毎に、前記訓練データの第2特徴量を学習した識別器により、前記顔画像の第2特徴量から、前記信頼度を計算する。さらに、顔方向推定装置は、顔方向推定部によって、色ヒストグラム及び前記第2特徴量の種類毎に計算した信頼度を統合することで、前記被写体の顔方向を推定する。
このように、顔方向推定装置は、特徴量の次元数が少ないので、学習及び識別の処理負荷を軽減し、被写体の顔方向をリアルタイムで推定することができる。さらに、顔方向推定装置は、色ヒストグラムと、色ヒストグラム以外の第2特徴量とを併用するので、被写体の顔方向を高精度に推定することができる。
なお、本発明に係る顔方向推定装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる顔方向推定プログラムで実現することもできる。
本発明によれば、以下のような優れた効果を奏する。
本発明に係る顔方向推定装置は、顔画像の領域毎に色ヒストグラムを計算するので、顔画像内での頭部位置の変化、顔画像の解像度低下やノイズ重畳の影響を受けにくく、特徴量の次元数を少なくできる。これにより、顔方向推定装置は、学習及び識別の処理負荷を軽減し、被写体の顔方向をリアルタイムで推定することができる。さらに、顔方向推定装置は、色ヒストグラムと、色ヒストグラム以外の第2特徴量とを併用するので、被写体の顔方向を高精度に推定することができる。
本発明の第1実施形態に係る顔方向推定システムの概略を示す概略図である。 顔方向推定システムが合成したCG映像を説明する説明図である。 本発明の第1実施形態に係る顔方向推定装置の構成を示すブロック図である。 (a)は顔画像抽出部が抽出した顔画像の一例であり、(b)は正規化した顔画像の一例である。 画像領域分割部が分割した顔画像の一例である。 (a)は領域画像の一例であり、(b)は色ヒストグラムの計算を説明する説明図である。 (a)は顔方向の基準となる座標軸を説明する図であり、(b)は顔方向を説明する図である。 訓練データの一例である。 (a)は輝度の勾配強度及び勾配方向を説明する図であり、(b)は輝度のヒストグラムを説明する図である。 本発明の第2実施形態に係る顔方向推定装置の構成を示すブロック図である。 顔方向推定装置の学習モードの動作を示すフローチャートである。 顔方向推定装置の推定モードの動作を示すフローチャートである。 実施例1、参考例1及び比較例1〜3の識別性能を表すテーブルである。 実施例1、参考例1及び比較例1〜3の計算時間を表すテーブルである。 実施例1の混同行列である。 参考例1の混同行列である。 比較例1の混同行列である。 比較例2の混同行列である。 比較例3の混同行列である。
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段には同一の符号を付し、説明を省略した。
(第1実施形態)
[顔方向推定システムの概略]
図1を参照し、本発明の第1実施形態に係る顔方向推定システム100の概略について説明する。
顔方向推定システム100は、サッカー選手(被写体)の顔方向をリアルタイムで推定し、推定したサッカー選手の顔方向を中継映像にCG合成する。図1に示すように、顔方向推定システム100は、第1撮影部Cと、第2撮影部Cと、顔方向推定装置1と、CG合成装置2と、を備える。
第1撮影部Cは、顔方向推定用の映像を撮影するカメラである。本実施形態では、第1撮影部Cは、コーナーエリア91付近に配置され、複数のサッカー選手を同時に撮影できるように、広角でサッカーの試合を撮影する。この第1撮影部Cは、特に制限されないが、例えば、パン、チルト及びズームの各機能(PTZ機能)を備えない固定カメラである。
第2撮影部Cは、サッカーの試合映像を撮影するカメラである。本実施形態では、第2撮影部Cは、センターライン92付近に配置され、カメラマンによる手動操作又は自動制御でサッカーの試合を撮影する。この第2撮影部Cは、特に制限されないが、例えば、PTZ機能を備えたPTZカメラである。
顔方向推定装置1は、サッカー選手の顔方向を識別するための識別器を予め生成する。そして、顔方向推定装置1は、この識別器を用いて、第1撮影部Cで撮影した映像から、サッカー選手の顔方向を推定する。なお、顔方向推定装置1の詳細は、後記する。
CG合成装置2は、第2撮影部Cで撮影した映像に、顔方向推定装置1が推定したサッカー選手の顔方向を示すCGを合成する。例えば、CG合成装置2は、図2に示すように、サッカーの試合映像に、サッカー選手の顔方向を示す扇状マーカαのCGを合成する。
これにより、顔方向推定システム100は、サッカー選手の動きを視聴者が把握し易くなり、より臨場感が高いスポーツ映像を提供することができる。
[顔方向推定装置の構成]
図3を参照し、本発明の実施形態に係る顔方向推定装置1の構成について説明する。
顔方向推定装置1は、色ヒストグラム、及び、色ヒストグラムと異なる1種類以上の第2特徴量を用いて、サッカー選手の顔画像から顔方向を推定する。本実施形態では、顔方向推定装置1は、第2特徴量として、HOGを用いることとした。つまり、顔方向推定装置1は、色に関連した特徴量である色ヒストグラム、及び、形状に関連した特徴量であるHOGのように、特性が異なる特徴量を併用している。
図3に示すように、顔方向推定装置1は、特徴量計算装置3と、顔画像抽出部10と、画像サイズ正規化部11と、第1識別部14と、第2特徴量計算部15と、第2識別部16と、識別結果統合部(顔方向推定部)17と、出力部18と、を備える。
ここで、操作者は、図示を省略したマウス、キーボード等の操作手段を介して、顔方向推定装置1に学習モード又は推定モードを指定する。
学習モードは、顔方向推定装置1が識別器を生成するモードである。学習モードの場合、顔方向推定装置1は、特徴量計算装置3、画像サイズ正規化部11、第1識別部14、第2特徴量計算部15、及び、第2識別部16が機能する。
推定モードは、顔方向推定装置1がサッカー選手の顔方向を推定するモードである。推定モードの場合、顔方向推定装置1の全手段が機能する。
顔画像抽出部10は、推定モードの場合、第1撮影部Cより入力した映像から顔画像を抽出する。例えば、顔画像抽出部10は、サッカーの試合映像に被写体追跡処理を施し、この映像に含まれるサッカー選手の位置を求める(例えば、参考文献1)。この参考文献1に記載の手法は、サッカー選手の動きをモデル化し、パーティクルフィルタにより追跡を行うものである。
参考文献1:西濃拓郎、滝口哲也、有木康雄、「単眼動画像におけるボールと選手の3次元位置推定」、2009年電子情報通信学会総合大会(情報・システム講演論文集2)、p213
また、顔画像抽出部10は、外部からサッカー選手の位置情報が提供される場合(例えば、参考文献2)、この位置情報を利用してもよい。
参考文献2:ChyronHego, “TRACAB Optical Tracking”, URL<http://chyronhego.com/sports-data/tracab>
次に、顔画像抽出部10は、サッカー選手の位置を基準にして、サッカー選手の顔領域の画像である顔画像を抽出する。この顔画像は、第1撮影部Cが広角で撮影を行っているので、解像度が低くなることが多い。また、顔画像は、映像内におけるサッカー選手の位置に応じて、その解像度(サイズ)が異なる。図4(a)の例では、顔画像の解像度は、横15ピクセル、縦15ピクセルである。
なお、顔画像抽出部10は、映像に複数のサッカー選手が含まれる場合、全サッカー選手の顔画像を抽出してもよい。この場合、顔方向推定装置1は、顔画像抽出部10が抽出した全サッカー選手の顔方向を推定することになる。
また、操作者は、操作手段により、顔方向の推定対象となるサッカー選手を指定してもよい。この場合、顔方向推定装置1は、操作者が指定したサッカー選手の顔方向を推定することになる。
画像サイズ正規化部11は、推定モードの場合、顔画像抽出部10から入力した顔画像を、予め設定したサイズに正規化する。例えば、画像サイズ正規化部11は、図4(a)の顔画像を、図4(b)に示すように縦横20ピクセルのサイズに正規化する。
また、画像サイズ正規化部11は、学習モードの場合、操作者が入力した訓練データを、推定モードと同様に正規化する。なお、訓練データの詳細は、後記する。
特徴量計算装置3は、色ヒストグラムを用いて、画像サイズ正規化部11から入力した顔画像の特徴量を計算する。図3に示すように、特徴量計算装置3は、画像領域分割部12と、第1特徴量計算部13と、を備える。
画像領域分割部12は、推定モードの場合、画像サイズ正規化部11から入力した顔画像を、i×j個の領域に分割する(iは縦方向の領域分割数を表す2以上の整数、jは横方向の領域分割数を表す2以上の整数)。例えば、画像領域分割部12は、図5に示すように、縦横20ピクセルの顔画像を縦横に4等分し、16個の領域に分割する(i=j=4)。つまり、各領域は、縦横5ピクセルの画像になる。
また、画像領域分割部12は、学習モードの場合、画像サイズ正規化部11から入力した訓練データを、推定モードと同様に分割する。
第1特徴量計算部13は、推定モードの場合、画像領域分割部12から入力した顔画像の領域毎に色ヒストグラムを計算し、計算した領域毎の色ヒストグラムを連結することで、顔画像全体の色ヒストグラムを求める。
また、第1特徴量計算部13は、学習モードの場合、画像領域分割部12から入力した訓練データ全体の色ヒストグラムを、推定モードと同様に求める。
<色ヒストグラムの計算>
以下、図6を参照し、色ヒストグラムの計算について説明する(適宜図3参照)。
第1特徴量計算部13は、図6(a)の領域画像について、各原色の画像における画素値(輝度値)のヒストグラムを求める。図6(a)の領域画像は、図5の顔画像で左上の領域に対応する画像である。
まず、第1特徴量計算部13は、図6(a)の領域画像から、赤色成分を抽出したR画像、緑色成分を抽出したG画像、及び、青色成分を抽出したB画像を生成する。そして、第1特徴量計算部13は、図6(b)に示すように、R画像、G画像及びB画像において、それぞれの画素値の分布を表したヒストグラムを算出する。
例えば、第1特徴量計算部13は、画素値が0〜255の範囲となる場合には、この範囲を4等分し、0〜63、64〜127、128〜191、192〜255のグループに分割する。そして、第1特徴量計算部13は、R画像、G画像及びB画像のそれぞれで、各グループに含まれる画素値の数を格納した配列を生成する。例えば、第1特徴量計算部13は、R画像について、0〜63のグループに対応したR[0]と、64〜127のグループに対応したR[1]と、128〜191のグループに対応したR[2]と、192〜255のグループに対応したR[3]とを格納した配列を生成する(G画像及びB画像も同様)。
このようにして、第1特徴量計算部13は、図6(a)の領域画像について、R[0]〜R[3]、G[0]〜G[3]、B[0]〜B[3]を要素とする色ヒストグラムを計算できる。さらに、第1特徴量計算部13は、図6(a)以外の領域についても、同様に色ヒストグラムを計算する。その後、第1特徴量計算部13は、左上から右下までの全領域画像の色ヒストグラムを連結し、顔画像全体の色ヒストグラムを求める。
図3に戻り、顔方向推定装置1の構成について、説明を続ける。
第1識別部14は、学習モードの場合、顔方向が異なる訓練データの色ヒストグラムを学習した識別器を生成する。また、第1識別部14は、推定モードの場合、この識別器により、顔画像全体の色ヒストグラムから、被写体が各顔方向を向いている確率である信頼度を計算する。
第1識別部14は、機械学習の手法が特に制限されないが、例えば、one‐versus‐restによるマルチクラスSVM(Support Vector Machine)を用いる。本実施形態では、第1識別部14は、顔方向を8方向で定義したので、8クラスのSVMを用いる。
SVMは、あるクラスと別のクラスとの境界を定義すべく、サポートベクトルとマージンという2つの概念を導入する。サポートベクトルとは、分離超平面から一番近い各クラスのデータのことであり、サポートベクトルから分離超平面までの距離をマージンと呼ぶ。
2次元の特徴空間において、2クラスの訓練サンプルを与えたこととする。この場合、SVMは、マージンが最大となるように、2クラスの真ん中に分離超平面を引く。また、SVMでは、分離超平面を境界として、2クラスの訓練サンプルを識別(分類)する。すなわち、マルチクラスSVMは、2クラスのSVMを複数用いて、マルチクラスの識別を行う。
本実施形態では、図7(a)に示すように、センターマーク93を基準にして、サッカーコート90の横方向(図面下方向)をx軸とし、サッカーコート90の縦方向(図面右方向)をy軸とする。そして、図7(b)に示すように、x軸の方向を0°とし、反時計回りに45°おきの8方向で顔方向を定義した。
<識別器の生成、識別器による信頼度の計算>
以下、識別器の生成と、識別器による信頼度の計算とを順に説明する。
識別器の生成に必要な訓練データを準備する。この訓練データは、サッカー選手の顔方向を表した教師信号(アノテーション)と、サッカー選手の顔画像とを対応付けたデータである。例えば、図8に示すように、訓練データとして、0°から315°までの方向を向いたサッカー選手の顔画像を準備する。
なお、図8では、各顔方向の訓練データを1つだけ図示したが、識別精度を向上させるため、訓練データを複数準備することが好ましい。
また、訓練データは、実際にサッカーの試合を撮影した映像から生成してもよく、所定のデータセットを利用してもよい(例えば、参考文献3)。
参考文献3: S. A. Pettersen et al., “Soccer video and player position dataset”, Proc. of the 5th ACM Multimedia Systems Conference, pp.18-23, Mar. 2014. DOI: 10.1145/2557642.2563677
操作者は、顔方向推定装置1を学習モードに設定し、訓練データを画像サイズ正規化部11に入力する。すると、顔方向推定装置1は、訓練データのサイズを正規化し、訓練データを複数の領域に分割する。そして、顔方向推定装置1は、訓練データの領域毎に色ヒストグラムを計算及び連結し、訓練データ全体の色ヒストグラムを求める。さらに、第1識別部14は、マルチクラスSVMにより、訓練データ全体の色ヒストグラムを学習し、識別器を生成する。
次に、操作者は、顔方向推定装置1を推定モードに設定し、第1撮影部Cでサッカーの試合を撮影する。すると、顔方向推定装置1は、第1撮影部Cの映像から顔画像を抽出し、顔画像のサイズを正規化し、顔画像を複数の領域に分割する。そして、顔方向推定装置1は、顔画像の領域毎に色ヒストグラムを計算及び連結し、顔画像全体の色ヒストグラムを求める。さらに、第1識別部14は、顔画像全体の色ヒストグラムを識別器に入力し、この識別器から信頼度の計算結果を得る。
図3に戻り、顔方向推定装置1の構成について、説明を続ける。
第2特徴量計算部15は、推定モードの場合、画像サイズ正規化部11から入力した顔画像のHOGを計算する。
また、第2特徴量計算部15は、学習モードの場合、画像サイズ正規化部11から入力した訓練データのHOGを、推定モードと同様に求める。
<HOGの計算>
以下、図9を参照して、HOGの計算について説明する(適宜図3参照)。
このHOGは、顔画像の局所領域(セル)での輝度の勾配方向をヒストグラム化したものである。図9(a)に示すように、顔画像全体を1ブロックとし、セルのサイズを縦横に4ピクセルとした。つまり、1ブロックは、縦横に5個のセルを有する。
まず、第2特徴量計算部15は、図9(a)の顔画像に含まれる全てのピクセルから、輝度の勾配強度及び勾配方向を求める。図9(a)のセルでは、各ピクセルにおける輝度の勾配強度及び勾配方向を、線分の濃淡と方向で図示した。つまり、図9(a)のセルにおいて、線分の濃淡が輝度の勾配強度を示し、線分の方向が輝度の勾配方向を示す。
次に、第2特徴量計算部15は、図9(b)に示すように、セル毎に、輝度の勾配方向を0°〜180°の間で20°間隔で9方向に区分けして、輝度のヒストグラムを生成する。つまり、このヒストグラムは、縦軸が輝度の勾配強度となり、横軸が輝度の勾配方向となる。
図3に戻り、顔方向推定装置1の構成について、説明を続ける。
第2識別部16は、学習モードの場合、訓練データのHOGを学習した識別器を生成する。また、第2識別部16は、推定モードの場合、この識別器により、顔画像のHOGから信頼度を計算する。
なお、第2識別部16は、色ヒストグラムの代わりにHOGを用いる以外、第1識別部14と同様のため、詳細な説明を省略する。
識別結果統合部17は、推定モードの場合、色ヒストグラム及びHOGで計算した信頼度を統合することで、被写体の顔方向を推定する。具体的には、識別結果統合部17は、顔方向毎に色ヒストグラムで計算した信頼度とHOGで計算した信頼度とを乗算し、乗算した信頼度が最も高くなる顔方向を被写体の顔方向として推定する。
つまり、識別結果統合部17は、下記式(1)のように、マルチクラスSVMの信頼度に基づくlate fusionを行う。ここで、p(X)は、顔画像Xがh番目のクラスに属する信頼度、つまり、クラス統合後の識別結果を表す。また、p (X)は、n番目の識別器により、顔画像Xがh番目のクラスに分類される事後確率である。
なお、nは、何種類目の特徴量であるかを表す整数であり、1≦n≦Nである。また、Nは、顔方向推定装置1で用いる特徴量の最大種類数を表す。本実施形態では、1種類目の特徴量が色ヒストグラムであり、2種類目の特徴量がHOGであるので、N=2となる。
また、顔方向が8方向なので、顔方向0°をクラス1、顔方向45°をクラス2、顔方向90°をクラス3、顔方向135°をクラス4、顔方向180°をクラス5、顔方向225°をクラス6、顔方向270°をクラス7、顔方向315°をクラス8と定義する。この場合、hは、何番目のクラスであるかを表す整数であり、1≦h≦Hである。また、Hは、顔方向推定装置1で定義したクラスの最大数を表す。本実施形態では、8クラスを定義したので、H=8となる。
本実施形態では、識別結果統合部17は、N=2及びH=8なので、下記式(1−1)の計算を行う。そして、識別結果統合部17は、信頼度p(X)〜p(X)の信頼度のうち、その値が最も高くなるクラスの顔方向を推定結果とする。
例えば、第1識別部14が、クラス1の事後確率p (X)=0.8、クラス2の事後確率p (X)=0.4、…、クラス8の事後確率p (X)=0.05と計算したこととする。また、例えば、第2識別部16が、クラス1の事後確率p (X)=0.7、クラス2の事後確率p (X)=0.5、…、クラス8の事後確率p (X)=0.1と計算したこととする。
なお、説明を簡易にするため、クラス3〜7の事後確率の計算は省略した。
この場合、識別結果統合部17は、色ヒストグラムで計算したクラス1の信頼度p (X)=0.8と、HOGで計算した計算したクラス1の信頼度p (X)=0.7とを乗算し、クラス1の信頼度p(X)=0.56を求める。また、識別結果統合部17は、色ヒストグラムで計算したクラス2の信頼度p (X)=0.4と、HOGで計算した計算したクラス2の信頼度p (X)=0.5とを乗算し、クラス2の信頼度p(X)=0.2を求める。そして、識別結果統合部17は、色ヒストグラムで計算したクラス8の信頼度p (X)=0.05と、HOGで計算した計算したクラス8の信頼度p (X)=0.1とを乗算し、クラス8の信頼度p(X)=0.005を求める。さらに、識別結果統合部17は、信頼度p(X)〜p(X)のうち、最高値となるクラス1の顔方向=0°を推定結果とする。
出力部18は、識別結果統合部17が推定した顔方向を外部(例えば、CG合成装置2)に出力する。本実施形態では、出力部18は、顔方向の推定結果として、顔方向を表した数値を出力する。
なお、出力部18は、顔方向を任意の形式で出力可能であり、顔方向を表したCGを生成、出力してもよい。
[作用・効果]
以上のように、本発明の第1実施形態に係る顔方向推定装置1は、各画素の位置情報を記述するために顔画像を領域分割し、それぞれの領域で色ヒストグラムを計算するので、従来技術に比べて、特徴量の次元数を少なくできる(例えば、RGB各色のビン数が4なので、色ヒストグラムで合計12次元)。さらに、顔方向推定装置1は、顔画像の領域毎に色ヒストグラムを計算するので、顔画像内での頭部位置の変化、顔画像の解像度低下やノイズ重畳の影響を受けにくくなる。これにより、顔方向推定装置1は、学習及び識別の処理負荷を軽減し、サッカー選手の顔方向をリアルタイムで推定することができる。
さらに、顔方向推定装置1は、色に関連した特徴量である色ヒストグラム、及び、形状に関連した特徴量であるHOGのように、特性が異なる特徴量を併用するので、サッカー選手の顔方向を高精度に推定することができる。
なお、顔方向推定装置1の動作は、第2実施形態で説明する。
(第2実施形態)
[顔方向推定装置の構成]
図10を参照し、本発明の第2実施形態に係る顔方向推定装置1Bの構成について、第1実施形態と異なる点を説明する。
第1実施形態では、色ヒストグラム及びHOGという2種類の特徴量を用いることとして説明した。第2実施形態では、N−1種類の第2特徴量及び色ヒストグラムを合わせて、N種類の特徴量を用いる点が、第1実施形態と異なる。
図10に示すように、顔方向推定装置1Bは、特徴量計算装置3と、顔画像抽出部10と、画像サイズ正規化部11と、第1識別部14と、第2特徴量計算部15(15〜15)と、第2識別部16(16〜16)と、識別結果統合部(顔方向推定部)17Bと、出力部18と、を備える。
つまり、顔方向推定装置1Bは、第2特徴量の種類毎に、第2特徴量計算部15と第2識別部16との組を備える。言い換えるなら、顔方向推定装置1Bは、第2特徴量計算部15と第2識別部16との組をN−1個だけ備える。
ここで、顔方向推定装置1Bは、組み合わせ可能な特徴量の種類及び数が特に制限されず、特性が異なる第2特徴量を併用することが好ましい。また、顔方向推定装置1Bは、色に関連した特徴量(色ヒストグラム)を用いるので、色以外に関連した第2特徴量を併用することがより好ましい。
例えば、顔方向推定装置1Bは、第1実施形態と同様、2種類目の特徴量として、形状に関連したHOGを用いてもよい。また、顔方向推定装置1Bは、3種類目の特徴量として、エッジに関連したEOG(Edge of Orientation Histogram)を用いてもよい。さらに、顔方向推定装置1Bは、SIFT(Scale-Invariant Feature Transform)、SURF(Speeded Up Robust Features)等の特徴量を用いてもよい。SIFT又はSURFを用いる場合、顔方向推定装置1Bは、顔画像の画素数が少ないため特徴点を抽出せず、固定グリッドで特徴量を記述することが好ましい(dense sampling)。
第2特徴量計算部15(15〜15)は、第2特徴量の種類毎に、画像サイズ正規化部11から入力した顔画像及び訓練データの第2特徴量を計算する。具体的には、第2特徴量計算部15は、顔画像及び訓練データから1種類目の第2特徴量を計算する。また、第2特徴量計算部15は、顔画像及び訓練データから2種類目の第2特徴量を計算する。さらに、第2特徴量計算部15は、顔画像及び訓練データからN−1種類目の第2特徴量を計算する。
なお、第2特徴量計算部15(15〜15)は、学習モード及び推定モードでの処理内容が第1実施形態と同様のため、これ以上の説明を省略する。
第2識別部16(16〜16)は、学習モードの場合、第2特徴量の種類毎に、訓練データの第2特徴量を学習した識別器を生成する。また、第2識別部16(16〜16)は、推定モードの場合、第2特徴量の種類毎に、この識別器により、顔画像の第2特徴量から信頼度を計算する。
具体的には、第2識別部16は、1種類目の第2特徴量により、識別器の生成及び信頼度の計算を行う。また、第2識別部16は、2種類目の第2特徴量により、識別器の生成及び信頼度の計算を行う。さらに、第2識別部16は、N−1種類目の第2特徴量により、識別器の生成及び信頼度の計算を行う。
なお、第2識別部16(16〜16)は、学習モード及び推定モードでの処理内容が第1実施形態と同様のため、これ以上の説明を省略する。
識別結果統合部17Bは、推定モードの場合、第1識別部14及び第2識別部16〜16で計算した信頼度を統合することで、被写体の顔方向を推定する。具体的には、識別結果統合部17Bは、顔方向毎に色ヒストグラム、及び、それぞれの第2特徴量で計算した信頼度を乗算し、乗算した信頼度が最も高くなる顔方向を被写体の顔方向として推定する。つまり、識別結果統合部17Bは、前記した式(1)により、顔方向毎の信頼度を計算し、その値が最も高くなるクラスの顔方向を推定結果とする。
[顔方向推定装置の動作:学習モード]
図11を参照し、顔方向推定装置1Bの学習モードの動作について説明する(適宜図10参照)。この学習モードでは、操作者が顔方向推定装置1Bに複数の訓練データを入力し、顔方向推定装置1Bが訓練データを1個ずつ学習する。
なお、図11では、n種類目の特徴量を特徴量(n)と図示した(図12も同様)。
画像サイズ正規化部11は、訓練データのサイズを正規化する(ステップS10)。
顔方向推定装置1Bは、何種類目の特徴量であるかを表す整数nを1に初期化する(ステップS11)。
顔方向推定装置1Bは、n種類目の特徴量で領域分割が必要か否かを判定する。ここで、顔方向推定装置1Bは、領域分割が必要な特徴量(例えば、色ヒストグラム)、及び、領域分割が必要でない特徴量(例えば、HOG)を予め設定し、その設定結果に基づいて判定を行う。ここで、顔方向推定装置1Bは、n=1(色ヒストグラム)の場合、領域分割が必要と判定する。一方、顔方向推定装置1Bは、n=2(HOG)の場合、領域分割が必要でないと判定する(ステップS12)。
領域分割が必要な場合(ステップS12でYes)、画像領域分割部12は、訓練データを、i×j個の領域に分割する(ステップS13)。
第1特徴量計算部13は、訓練データのそれぞれの領域について、色ヒストグラムを計算する。そして、第1特徴量計算部13は、それぞれの領域の色ヒストグラムを連結し、訓練データ全体の色ヒストグラムを求める(ステップS14)。
第1識別部14は、訓練データの色ヒストグラムを学習した識別器を生成する(ステップS15)。
領域分割が必要でない場合(ステップS12でNo)、第2特徴量計算部15は、訓練データのn種類目の特徴量を計算する(ステップS16)。
第2識別部16は、訓練データのn種類目の特徴量を学習した識別器を生成する(ステップS17)。
顔方向推定装置1Bは、整数nが特徴量の最大種類数Nに一致するか否かにより、全種類の特徴量で識別器を生成したか否かを判定する(ステップS18)。
整数nが最大種類数Nに一致しない場合(ステップ18でNo)、顔方向推定装置1Bは、整数nをインクリメントし(ステップS19)、ステップS12の処理に戻る。
整数nが最大種類数Nに一致する場合(ステップ18でYes)、顔方向推定装置1Bは、全訓練データの学習を終了したか否かを判定する(ステップS20)。
全訓練データの学習を終了していない場合(ステップS20でNo)、顔方向推定装置1Bは、ステップS10の処理に戻り、次の訓練データを学習する。
全訓練データの学習を終了した場合(ステップS20でYes)、顔方向推定装置1Bは、学習モードを終了する。
このように、学習モードにより、顔方向推定装置1Bは、サッカー選手の顔方向の推定に必要な識別器を生成できる。
[顔方向推定装置の動作:推定モード]
図12を参照し、顔方向推定装置1Bの推定モードの動作について説明する(適宜図10参照)。
顔方向推定装置1Bは、第1撮影部Cが撮影したサッカーの試合映像を入力する(ステップS30)。
顔画像抽出部10は、映像に被写体追跡処理を施し、サッカー選手の位置を求める。そして、顔画像抽出部10は、サッカー選手の位置を基準にして、サッカー選手の顔画像を抽出する(ステップS31)。
このステップS31において、サッカーの試合映像に複数のサッカー選手が含まれる場合、顔画像抽出部10は、全サッカー選手の顔画像を抽出してもよく、操作者が指定したサッカー選手の顔画像を抽出してもよい。推定モードでは、顔方向推定装置1Bが、顔画像を1個ずつ推定する。
画像サイズ正規化部11は、顔画像のサイズを正規化する(ステップS32)。
顔方向推定装置1Bは、何種類目の特徴量であるかを表す整数nを1に初期化する(ステップS33)。
顔方向推定装置1Bは、図11のステップS12と同様、n種類目の特徴量で領域分割が必要か否かを判定する(ステップS34)。
領域分割が必要な場合(ステップS34でYes)、画像領域分割部12は、顔画像を、i×j個の領域に分割する(ステップS35)。
第1特徴量計算部13は、顔画像のそれぞれの領域について、色ヒストグラムを計算する。そして、第1特徴量計算部13は、それぞれの領域の色ヒストグラムを連結し、顔画像全体の色ヒストグラムを求める(ステップS36)。
第1識別部14は、色ヒストグラムを学習した識別器により、顔画像全体の色ヒストグラムから信頼度を計算する(ステップS37)。
領域分割が必要でない場合(ステップS34でNo)、第2特徴量計算部15は、顔画像のn種類目の特徴量を計算する(ステップS38)。
第2識別部16は、n種類目の特徴量を学習した識別器により、顔画像でn種類目の特徴量から信頼度を計算する(ステップS39)。
顔方向推定装置1Bは、整数nが特徴量の最大種類数Nに一致するか否かにより、全種類の特徴量で信頼度を計算したか否かを判定する(ステップS40)。
整数nが最大種類数Nに一致しない場合(ステップ40でNo)、顔方向推定装置1Bは、整数nをインクリメントし(ステップS41)、ステップS34の処理に戻る。
整数nが最大種類数Nに一致する場合(ステップS40でYes)、識別結果統合部17Bは、1種類目からn種類目までの信頼度を統合し、顔方向を推定する(ステップS42)。
顔方向推定装置1Bは、全顔画像の顔方向の推定を終了したか否かを判定する(ステップS43)。
全顔画像の顔方向の推定を終了していない場合(ステップS43でNo)、顔方向推定装置1Bは、ステップS32の処理に戻り、次の顔画像の顔方向を推定する。
全顔画像の顔方向の推定を終了した場合(ステップS43でYes)、出力部18は、識別結果統合部17Bが推定した全顔画像の顔方向を外部(例えば、CG合成装置2)に出力し(ステップS44)、推定モードを終了する。
このように、推定モードにより、顔方向推定装置1Bは、サッカー選手の顔方向を推定できる。
[作用・効果]
本発明の第2実施形態に係る顔方向推定装置1Bは、顔画像の領域毎に色ヒストグラムを計算するので、第1実施形態と同様、特徴量の次元数を少なくし、サッカー選手の顔方向をリアルタイムで推定することができる。さらに、顔方向推定装置1Bは、色ヒストグラム、及び、1以上の任意の第2特徴量を併用するので、サッカー選手の顔方向を高精度に推定することができる。
(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、顔方向を8方向で識別することとして説明したが、これに限定されない。例えば、顔方向推定装置は、顔方向を4方向又は16方向で推定してもよい。
前記した各実施形態では、顔方向推定装置が、識別器を事前に学習することとして説明したが、これに限定されない。例えば、顔方向推定装置は、オンライン学習により、識別器を学習しながら、リアルタイムで顔方向を推定することができる。
前記した各実施形態では、顔方向推定装置が、one‐versus‐restによるマルチクラスSVMを用いることとして説明したが、これに限定されない。例えば、顔方向推定装置は、ランダムフォレスト、ニューラルネットワーク等の機械学習を用いてもよい。
前記した各実施形態では、顔方向推定装置が、サッカー選手の顔方向を推定することとして説明したが、これに限定されない。例えば、顔方向推定装置は、サッカー以外のスポーツ映像に含まれる選手の顔方向を推定できる。また、顔方向推定装置は、監視カメラの映像に含まれる人物の顔方向を推定してもよい。
前記した各実施形態では、顔方向推定装置を独立したハードウェアとして説明したが、これに限定されない。例えば、顔方向推定装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる顔方向推定プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
前記した各実施形態では、顔方向推定装置が特徴量計算装置を備えることとして説明したが、これに限定されない。つまり、特徴量計算装置は、顔方向推定装置に組み込むことなく、独立したハードウェアとして利用することができる。
本発明の実施例として、本発明に係る顔方向推定装置の評価試験の結果について説明する。
本発明に係る顔方向推定プログラムをコンピュータにインストールし、第1実施形態と同様の構成とした。このコンピュータは、CPUがインテル株式会社製の「Core(登録商標) i7‐4790 3.60GHz」であり、RAMが16GBであり、OSがマイクロソフト社製の「WINDOWS(登録商標)7 Pro SP1 64bit」である。また、顔方向推定プログラムは、Python3.5.1の環境においてシングルスレッドで実装した。以下、顔方向推定プログラムを実装したコンピュータを、顔方向推定装置とする。
本発明に係る顔方向推定装置の評価試験には、サッカーの試合映像を用いた。第1撮影部は、キヤノン株式会社製の「XA25」の1台で撮影を行った。第1撮影部は、センターライン付近の観客席に配置し、サッカーコートの半分が映る画角で撮影した。センターマークの原点を(0,0)とすれば、第1撮影部の座標は、(34,0)付近の観客席を表す。
評価試験では、正解ラベル(教師信号)を手入力とし、各クラス均等に合計800サンプルを用意した。サンプルの75%を訓練データ、残り25%を評価データ(顔画像)とした。HOGのパラメータは、1セルを4×4ピクセル、1ブロックを5×5セルとした。色ヒストグラムのパラメータは、領域分割数をi=j=4とし、RGB各色についてビン数を4とした。そして、識別器の生成及び顔方向の推定を50回試行し、推定結果を平均した。これを実施例1とする。
また、特徴量計算装置(領域分割する色ヒストグラム)の評価実験を行った。これを参考例1とする。この参考例1において、コンピュータの仕様、サンプル、特徴量のパラメータ、試行回数等の評価条件は、実施例1と同等であった。
実施例1と比較すべく、iDF、cDF及びIFを組み合わせて評価実験を行った。このとき、iDF及びcDFのパラメータは、ペア数=10000とした。これを比較例1とする。HOG及びCTCを組み合わせて評価実験を行い、これを比較例2とした。さらに、HOGのみで評価実験を行い、これを比較例3とした。比較例1〜3の評価条件は、実施例1,2と同等であった。
図13では、「iDF+cDF+IF」が比較例1であり、「CTC+HOG」が比較例2であり、「HOG」が比較例3であり、「Color histograms」が参考例1であり、「Proposed」が実施例1である(図14〜図19も同様)。
また、図13には、実施例1、参考例1及び比較例1〜3の識別性能として、正解率(Accuracy)、適合率(Precision)、再現率(Recall)、F値(F-measure)を示した。図13より、実施例1は、全項目で比較例1〜3を上回っており、HOGと色ヒストグラムとを組み合わせたことで、良好な識別性能を有することが分かった。
図14には、実施例1、参考例1及び比較例1〜3の計算時間として、1サンプルあたりの特徴量抽出時間(Feature extraction)、学習時間(Training)、識別時間(Classifying)を示した。図14より、実施例1は、3つの合計時間が約3.3msとなり、リアルタイム(29.97fps相当)で処理できることが分かった。
図15〜図19には、実施例1、参考例1及び比較例1〜3の識別結果として、混同行列(Confusion matrix)を示した。この混同行列は、縦軸が訓練データの顔方向を表し、横軸が評価データの顔方向を表す。また、混同行列は、数値が識別数を表し、濃淡が信頼度を表す。これら混同行列では、左上から右下まで対角線上の項目において、識別数が多く、信頼度が高くなれば、識別結果が良好であると言える。
図15〜図19より、実施例1は、比較例1〜3と比較して、同程度の推定精度を有することが分かった。また、実施例1は、隣接するクラス間で誤分類が発生している。その理由としては、訓練及び識別のプロセスに起因するものの他、アノテーションにおける顔方向の判断の影響もあると考えられる。つまり、アノテーションの明確な基準がなく、顔方向を人間の主観で判断しているため、例えば、顔方向が0°と45°との中間のように見える場合、アノテーションをどちらにするか判断が困難である。このように、アノテーションが誤分類の原因になると考えられる。
1,1B 顔方向推定装置
3 特徴量計算装置
10 顔画像抽出部
11 画像サイズ正規化部
12 画像領域分割部
13 第1特徴量計算部
14 第1識別部
15,15〜15 第2特徴量計算部
16,16〜16 第2識別部
17,17B 識別結果統合部(顔方向推定部)
18 出力部

Claims (5)

  1. 色ヒストグラム、及び、前記色ヒストグラムと異なる1種類以上の第2特徴量を用いて、被写体の顔画像から前記被写体の顔方向を推定する顔方向推定装置であって、
    前記顔画像を入力し、入力した前記顔画像を複数の領域に分割する画像領域分割部と、
    前記領域毎の色ヒストグラムを計算し、計算した前記領域毎の色ヒストグラムを連結することで、前記顔画像全体の色ヒストグラムを求める第1特徴量計算部と、
    顔方向が異なる訓練データの色ヒストグラムを学習した識別器により、前記顔画像全体の色ヒストグラムから、前記被写体が各顔方向を向いている確率である信頼度を計算する第1識別部と、
    前記第2特徴量の種類毎に、前記顔画像の第2特徴量を計算する第2特徴量計算部と、
    前記第2特徴量の種類毎に、前記訓練データの第2特徴量を学習した識別器により、前記顔画像の第2特徴量から、前記信頼度を計算する第2識別部と、
    色ヒストグラム及び前記第2特徴量の種類毎に計算した信頼度を統合することで、前記被写体の顔方向を推定する顔方向推定部と、
    を備えることを特徴とする顔方向推定装置。
  2. 前記第2特徴量計算部は、前記第2特徴量として、前記顔画像のHOGを計算し、
    前記第2識別部は、前記訓練データでHOGを学習した識別器により、前記顔画像のHOGから前記信頼度を計算することを特徴とする請求項1に記載の顔方向推定装置。
  3. 前記顔方向推定部は、前記顔方向毎に前記色ヒストグラムで計算した信頼度と前記HOGで計算した信頼度とを乗算し、乗算した当該信頼度が最も高くなる顔方向を前記被写体の顔方向として推定することを特徴とする請求項2に記載の顔方向推定装置。
  4. 前記被写体を撮影した映像を入力し、入力した前記映像から低解像度の前記顔画像を抽出する顔画像抽出部と、
    前記低解像度の顔画像を予め設定したサイズに正規化する画像サイズ正規化部と、をさらに備え、
    前記画像領域分割部は、正規化した前記顔画像を前記複数の領域に分割することを特徴とする請求項1から請求項3の何れか一項に記載の顔方向推定装置。
  5. コンピュータを、請求項1から請求項4の何れか一項に記載の顔方向推定装置として機能させるための顔方向推定プログラム。
JP2016154536A 2016-08-05 2016-08-05 顔方向推定装置及びそのプログラム Active JP6770363B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016154536A JP6770363B2 (ja) 2016-08-05 2016-08-05 顔方向推定装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016154536A JP6770363B2 (ja) 2016-08-05 2016-08-05 顔方向推定装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2018022416A true JP2018022416A (ja) 2018-02-08
JP6770363B2 JP6770363B2 (ja) 2020-10-14

Family

ID=61165983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016154536A Active JP6770363B2 (ja) 2016-08-05 2016-08-05 顔方向推定装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6770363B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020074055A (ja) * 2018-03-05 2020-05-14 日本テレビ放送網株式会社 画像識別装置、分類システム、制作支援システム、それらの方法及びプログラム
JP2020187657A (ja) * 2019-05-16 2020-11-19 株式会社キーエンス 画像検査装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020074055A (ja) * 2018-03-05 2020-05-14 日本テレビ放送網株式会社 画像識別装置、分類システム、制作支援システム、それらの方法及びプログラム
JP7122243B2 (ja) 2018-03-05 2022-08-19 日本テレビ放送網株式会社 画像識別装置、分類システム、制作支援システム、それらの方法及びプログラム
JP2020187657A (ja) * 2019-05-16 2020-11-19 株式会社キーエンス 画像検査装置

Also Published As

Publication number Publication date
JP6770363B2 (ja) 2020-10-14

Similar Documents

Publication Publication Date Title
US20220138490A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
Bak et al. One-shot metric learning for person re-identification
JP6438403B2 (ja) 結合された深度キューに基づく平面視画像からの深度マップの生成
US9633282B2 (en) Cross-trained convolutional neural networks using multimodal images
Tian et al. Salient region detection by fusing bottom-up and top-down features extracted from a single image
CN112686812B (zh) 银行卡倾斜矫正检测方法、装置、可读存储介质和终端
EP1891579A2 (en) Image segmentation
JP7142420B2 (ja) 画像処理装置、学習方法、学習済モデル、画像処理方法
EP3093822B1 (en) Displaying a target object imaged in a moving picture
US10007678B2 (en) Image processing apparatus, image processing method, and recording medium
US11783192B2 (en) Hybrid deep learning method for recognizing facial expressions
US10810433B2 (en) Method and system for tracking objects
Bouachir et al. Structure-aware keypoint tracking for partial occlusion handling
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6770363B2 (ja) 顔方向推定装置及びそのプログラム
WO2017221860A1 (ja) 領域識別装置と領域識別方法および領域識別プログラム
JP3962517B2 (ja) 顔面検出方法及びその装置、コンピュータ可読媒体
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
KR101741761B1 (ko) 멀티 프레임 기반 건물 인식을 위한 특징점 분류 방법
US20210034915A1 (en) Method and apparatus for object re-identification
Lau et al. Atdetect: Face detection and keypoint extraction at range and altitude
Ranganatha et al. SELECTED SINGLE FACE TRACKING IN TECHNICALLY CHALLENGING DIFFERENT BACKGROUND VIDEO SEQUENCES USING COMBINED FEATURES.
JP6717769B2 (ja) 情報処理装置及びプログラム
CN110599517A (zh) 一种基于局部特征和全局hsv特征组合的目标特征描述方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200925

R150 Certificate of patent or registration of utility model

Ref document number: 6770363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150