JP2016001447A - 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム - Google Patents

画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP2016001447A
JP2016001447A JP2014121862A JP2014121862A JP2016001447A JP 2016001447 A JP2016001447 A JP 2016001447A JP 2014121862 A JP2014121862 A JP 2014121862A JP 2014121862 A JP2014121862 A JP 2014121862A JP 2016001447 A JP2016001447 A JP 2016001447A
Authority
JP
Japan
Prior art keywords
image
person
input
area
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014121862A
Other languages
English (en)
Other versions
JP6448223B2 (ja
Inventor
俊太 舘
Shunta Tachi
俊太 舘
剛 黒木
Takeshi Kuroki
剛 黒木
河合 智明
Tomoaki Kawai
智明 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014121862A priority Critical patent/JP6448223B2/ja
Priority to US14/733,547 priority patent/US9743014B2/en
Publication of JP2016001447A publication Critical patent/JP2016001447A/ja
Application granted granted Critical
Publication of JP6448223B2 publication Critical patent/JP6448223B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

【課題】リアルタイム性に優れ、頑健に個人同定を行うことができる画像認識装置等を提供する。【解決手段】特定の人物を異なる方位から撮像して得られた第1と第2の入力領域画像間の相対的な方位関係を取得する画像間相対方位取得手段104と、特定の人物又はその他の人物を少なくとも3つの方位から撮像して得られた登録領域画像群に含まれる第1の登録領域画像の特徴と第1の入力領域画像の特徴とを比較し、登録領域画像群に含まれる同じ人物の第2の登録領域画像の特徴と第2の入力領域画像の特徴とを比較して、第1および第2の入力領域画像に写っている人物と第1および第2の登録領域画像に写っている人物とが同一人物か否か判定する人物同定手段106と、を備える。第1と第2の登録領域画像間の相対的な方位関係が、第1と第2の入力領域画像間の相対的な方位関係に近づくように、第1と第2の登録領域画像が選ばれる。【選択図】図1

Description

本発明は、画像中の人物のトラッキングに関する技術、特にスポーツシーンやセキュリティカメラにおいて、複数のカメラの画像を用いて移動する人物を追跡する画像認識システム等に関する。
従来、サッカーやラグビーのような集団競技の様子を撮影し、複数の人物を自動的に検出・追跡して位置の履歴を記録するシステムがある。このようなシステムでは、競技者が密集したり、画面の外へ移動したり、あるいはその他さまざまな原因で追跡が失敗することがある。その際、過去の画像と現在の画像を比較して人物の対応付けをしなおすか、人間のオペレーターが手作業で対応付けを修正する必要がある。
上記のような人物の同定を機械により行う方法としては、例えば特許文献1がある。特許文献1の方法は廊下のような場所に複数台のカメラを設置し、歩行者が通過する様子を正面に近い角度からそれぞれのカメラで撮影する。各画像から人物の顔領域を検出し、正面顔に近くなるように各顔画像を補正して特徴量を抽出する。この特徴量のセットを部分空間法で識別して個人の同定を行う。本方法は複数の画像を使うため、単一のカメラを用いる方法より頑健である。
米国特許第8116534号明細書 米国特許第7421097号明細書 米国特許出願公開第2003/0123713号明細書
Adrian Hilton,et al., "3D−TV Production from Conventional Cameras for Sports Broadcast″, IEEE TRANS. BROADCASTING: SPECIAL ISSUE 3D−TV HORIZON, 2011 P. Felzenszwalb,et al., "Object Detection with Discriminatively Trained Part Based Models″, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 32, No. 9, Sep. 2010 S. M. Khan, et al., "A multiview approach to tracking people in crowded scenes using a planar homography constraint″. In Proc. European Conf. on Computer Vision, 2006. Anthony Deardena,et al., "Tracking Football Player Movement From a Single Moving Camera Using Particle Filters″, in Proceedings of CVMP−2006, pp. 29−37, IET Press, 2006. Breiman Leo, et al. "Classification and regression trees″. Monterey, CA: Wadsworth & Brooks/Cole Advanced Books & Software,1984
しかしながら、上記方法は、正面に近い顔が撮影されることを前提としている。一方でスポーツシーンにおいては、対象人物が人物の密集の中に隠れていたり、各カメラがパンやズーム操作によって別の領域を撮影していたりする等の理由で、どのカメラからも対象人物の正面画像が撮影されていないことが有り得る。このような時には、正面の画像が撮影されるまで待つ必要があり、リアルタイム性に欠ける。
一方で、正面以外を含む複数の角度から人物を撮像し、各画像の顔の特徴を登録画像と比較して個人を同定する特許文献2のような方法もある。しかし、このような方法は、各画像の顔向きの方向が既知か常に固定でないと正確な比較を行うことができない。スタジアムのような広い領域を自由に移動する人物の、各カメラに写る顔向きの推定を正確に行うことは難しい。そのため、特許文献2のような方法は適用しにくい問題があった。
本発明は、こうした従来技術における課題に鑑みてなされたものであり、リアルタイム性に優れ、自由に移動している人物についてより頑健に個人同定を行うことができる画像認識システム等を提供することを目的とする。
上記の課題を解決するために、本発明の画像認識装置は、以下のように構成される。
特定の人物を異なる方位から撮像して得られた第1の入力領域画像と第2の入力領域画像との間の相対的な方位関係を取得する画像間相対方位取得手段と、
前記特定の人物又はその他の人物を少なくとも3つの方位から撮像して得られた登録領域画像からなる登録領域画像群に含まれる第1の登録領域画像の特徴と前記第1の入力領域画像の特徴とを比較し、前記登録領域画像群に含まれる前記第1の登録領域画像と同じ人物の第2の登録領域画像の特徴と前記第2の入力領域画像の特徴とを比較して、前記第1および第2の入力領域画像に写っている人物と前記第1および第2の登録領域画像に写っている人物とが同一人物か否か判定する人物同定手段と、を備え、
前記第1の登録領域画像と前記第2の登録領域画像との間の相対的な方位関係が、前記第1の入力領域画像と前記第2の入力領域画像との間の相対的な方位関係に近づくように、前記第1の登録領域画像と前記第2の登録領域画像とが選ばれる。
本発明を応用して得られる画像認識システムの一形態によれば、複数の方向から撮像した人物の画像を用いて個人の同定を行う。正面画像に限定せずに同定を行うため、同定のリアルタイム性に優れる。また、画像間の相対的な方位の関係に基づいて複数の画像を登録画像と比較するため、自由に移動している人物について、より頑健に個人同定を行うことができる。
本発明の実施形態に係る画像認識システムの基本機能の構成を示す図である。 実施形態1の処理のフローを示す図である。 位置により各カメラに写る人物の相対的な方位が変化する様子を示す図である。 人物トラッキング部101の詳細な機能を示す図である。 人物の同定の方法を示す模式図である。 人物の顔と胴体のモデルの模式図である。 実施形態2の処理のフローを示す図である。 ハッシングにより候補領域と人物のモデルとを比較する方法を示す図である。 実施形態3の処理のフローを示す図である。 実施形態3の顔向きの推定と人物の同定の方法の例を示す図である。 実施形態4の撮像装置と人物のモデルを示す図である。
以下、図面を参照して、本発明に係る画像認識システム、画像認識装置、画像認識方法およびコンピュータプログラムの実施形態を詳細に説明する。
[実施形態1]
本実施形態では、競技場のフィールド上で複数の競技者が運動している様子を複数のカメラで撮影し、各競技者を区別してそれぞれの位置を常時出力する画像認識システム等について説明する。以下の説明では、リアルタイムに競技者の位置を出力する形態を想定しているが、オフラインで認識処理を行う形態にも適用可能である。
なお、本実施形態では競技場での競技者の追跡と同定の実施形態について説明を行うが、本発明を適用して得られる画像認識システム等は、競技場における人物同定にのみ限るものではない。例えば、公共空間での監視や、オフィスや工場といった空間における労務管理等、様々な目的に供することが可能である。
以下、図面を参照して本発明の画像認識システム等を実施するための形態の例を説明する。図1に本実施形態の画像認識システムの基本構成を示す。
この画像認識システムは、2つ以上の撮像装置を有する撮像装置群100と、画像認識装置110とを備えている。画像認識装置110は、画像間相対方位算出部104と、人物同定部106とを備えている。画像認識装置110は、人物トラッキング部101と、人物位置推定部102と、人物領域抽出部103と、特徴抽出部105と、人物領域特徴記憶部107と、人物同定制御部108と、人物情報出力部109とをさらに備えている。
撮像装置群100は、画像データを撮像する2つ以上のカメラである撮像装置1〜nで構成されている。撮像装置の数(n)は任意である。以降では、画像データとして主にカラーの動画像を撮像することを想定して説明を行うが、撮像装置群100での画像データは、赤外画像や奥行き画像といった様々な形式であってよい。撮像装置群100を構成する各撮像装置は、それぞれの所定の位置から競技場のフィールド内の撮影を行う。本実施形態の撮像装置群100は、撮像範囲が変化しない固定カメラおよび撮影者の操作によってパン・チルト・ズーム動作を行うパン・チルト・ズームカメラから構成することができる。本実施形態では個々のカメラの位置は動かないものとする。また、説明の簡単のためパン・チルト・ズームの動作によるレンズの主点の変位量は無視できる量とする。なお、本実施形態では撮像装置1が競技場のフィールド全体を映す固定カメラとし、その他撮像装置2〜nをパン・チルト・ズームカメラとする。
各撮像装置を用いてある人物を異なる方位から撮像した画像(入力画像)の集まりを入力画像群とも表記し、入力画像の一部の領域を切り出して得られた画像を入力領域画像とも表記する。
人物トラッキング部101は、固定カメラである撮像装置1で撮像された画像(入力画像)から複数の人物を検出し、追跡を行う。ここで、追跡とは時間的に近接する2枚の画像間において人物がどこからどこへ移動したかの対応付けを行う処理を意味する。すなわち、この人物トラッキング部101は、2枚の画像における人物の位置座標情報(人物座標情報)を推定し、2枚の画像間における人物の移動を追跡するものである。また、人物トラッキング部101は追跡の結果(人物追跡結果)と共に、その信頼度も併せて出力するものとする。一般に、複数の人物が同時に移動する状況において人物の追跡の処理を完全に行うことは難しい。このため、追跡の失敗時には、後述する人物の再同定と位置の修正を行うこととする。
人物位置推定部102は、人物トラッキング部101によって推定された人物座標情報に基づいて撮像装置2〜nによって撮像された各画像データ上(各画像中)のどの位置(人物の位置)と範囲に当該人物が存在するかを推定する。
人物領域抽出部103は、人物位置推定部102が推定した人物の画像上の位置(人物画像位置情報)に基づいて各画像から人物の領域(領域画像)を切り出す。
画像間相対方位算出部104は、人物トラッキング部101が推定した人物座標情報を受け取り、撮像装置1〜nが写した前記人物の画像(領域画像)間の相対的な方位の角度差(相対的な方位関係)を算出する。
特徴抽出部105は、人物の領域画像群(各領域画像)から人物を同定するための手掛かりとなる特徴量(各領域画像の特徴)を抽出する。
人物同定部106は、特徴抽出部105から受け取った特徴量群(入力領域画像の特徴)を、人物領域特徴記憶部107に記憶されている特徴量群(登録領域画像の特徴)と比較し、人物の個人同定を行う。その際、人物同定部106は、画像間相対方位算出部104から先述の画像間の相対的な方位関係の情報(相対方位情報)を受け取り、これを考慮した上で特徴量群の比較を行う。人物の個人同定とは、同一人物か否かの判定を含む。
人物領域特徴記憶部107に記憶されている画像(登録画像)の集まりを登録画像群とも表記し、登録画像の一部の領域を切り出して得られた画像を登録領域画像とも表記し、登録領域画像の集まりを登録領域画像群とも表記する。
人物同定制御部108は、人物トラッキング部101から人物の追跡結果とその信頼度の情報を受け取り、必要に応じて人物同定部106に個人同定の処理を要求するトリガーを送る。そして、人物同定制御部108は、人物同定部106から同定の結果を受け取り、対応づけの修正(人物の位置座標情報の修正)を行う。人物情報出力部手段109は、このようにして得られた各人物の位置座標を出力する。
以下、図2のフロー図を用いて本画像認識システムの処理の流れを説明する。
まず、ステップS1において撮像装置1〜nの初期化を行う。これは、各カメラが写した画像中のフィールド上の物体の位置が、世界座標(ワールド座標)上のどの位置にあたるかの位置合わせを可能にするための校正処理である。この校正処理では、例えば、まず、複数のマーカー間の距離が既知であるような校正プレートを撮影する。撮影したマーカーの位置に基づいて光学系に起因する像の歪みを補正する変換パラメータを求め、画像の変換テーブルを作成する。この変換テーブルで画像を変換することで、歪みのない撮影画像が得られるようになる。なお、もしカメラのズーム動作によって像の歪みのパラメータが変化するような場合は、焦点距離を複数回変えて校正プレートを撮影し、複数の変換テーブルを作成しておく。そして焦点距離に応じて、適した変換テーブルを用いればよい。次に、歪み補正後の校正プレートの画像を用いて、主点位置等のカメラの内部パラメータ行列を推定する。
次に、非特許文献1等に示された校正処理で行われているように、予め定められた目標物として、フィールド上の白線やそれらの交点を撮影して画像中のそれらの位置を検出し、フィールドが平面であるという拘束条件の下で、カメラの外部パラメータ行列を求める。このような校正処理を行うと、競技場のフィールドを中心とする世界座標上のどこにカメラが位置するかが推定できるようになる。さらに、各カメラがパン動作を行って撮影範囲を変化させたときも、その都度上記の白線およびその交点の位置検出をして外部パラメータ行列を推定することにより、常に撮影画像中のフィールド上の一点が、世界座標上のどこに対応するかが求められるようにする。
上述の非特許文献1にあるようなカメラの校正と位置合わせの技術は、スポーツ中継画像へのCGの重畳処理技術としてすでに確立された既存技術であるので、内容についての詳細な説明は省略する。
なお、競技の撮影中、望遠ズーム動作を行ったために白線等の目標物の一部しか撮影できない、もしくは全く撮影できないような場合がありうる。このような場合には、画像座標と世界座標との対応付けを行うことができないので、後述の認識処理時に、このカメラからの画像を用いないようにする。そして、撮影者がズーム動作を広角側に行って位置合わせが可能になったら、その時点で、再び該当のカメラの画像を認識処理に用いるようにする。
もしくは、カメラのパン・チルト・ズーム動作の移動量を出力するエンコーダーやジャイロのようなセンサーを備えるカメラを用いて位置決めを行うようにしてもよい。あるいは、これらのセンサーの値が、画像認識による位置決めを補完するようにしてもよい。
また、このステップS1において、人物を追跡するフィールド上の領域範囲を設定して追跡処理の限定を行う。これによって競技者と無関係な観客を競技者として誤検出することを防ぐ。
次に、ステップS2では、各カメラから見えるフィールド上の人物の相対的な方位角の関係を算出できるように、画像間相対方位算出部104の初期化を行う。この処理の意味を図3(A)および同図(B)に示す。この図は、人物のフィールド上の位置によって、各カメラから見える人物の角度が変わることを示している。例えば、図3(A)でカメラ1が世界座標上の位置(x,y)にいる人物を写している時に、カメラ2はカメラ1の反対側の面を写している。すなわち位置(x,y)にいる人物をカメラ1と2で写した時の画像間の相対角度差θ1,2(x,y)は180°となる。また、例えば、図3(B)で人物が位置(x’,y’)に移動すると、相対角度差θ1,2(x’,y’)は、変化して相対角度差は90°になる。本ステップで行われるのは、このように人物の場所による各カメラ間の相対的な角度差の値を全て求めて保存し、後段の認識処理で利用できるようにすることである。この処理の形態は複数ある。例えばフィールドを一定の格子に分割し、格子ごとに上記の値を算出してテーブルに保存すればよい。
また、別の形態としては、例えば以下の余弦定理の変形式を記憶しておき、人物の位置x,yを式に代入して、その都度相対角度差θ(x,y)を求める形態でもよい。
[数式1]
θ(x,y)=acos((b+c−a)/2bc),
a=sqrt((x1−x2)+(y1−y2)),
b=sqrt((x1−x) +(y1−y)),
c=sqrt((x2−x) +(y2−y)).
ここで、acos()はアークコサイン関数であり、sqrt()は引数の平方根を返す関数である。また、(x1,y1)、(x2,y2)はカメラ1およびカメラ2の世界座標上の位置である。
なお、ここでは、カメラが二つの場合のみの例を示しているが、複数のカメラ間の角度差を保存する場合は、例えばカメラ1を基準として、各カメラとの角度差θ1,2,θ1,3,…θ1,n を記憶すればよい。そして、任意の二つのカメラiとカメラj間の相対角度差を求める時は、下式のように和を取ればよい。
[数式2]
θi,j=θ1,i+θ1,j
次に、ステップS3では、画像認識結果あるいはユーザーの教示に基づいて人物トラッキング部101の初期化を行う。このステップでは、本画像認識システムに要求されている認識の精度およびユーザーが払ってもよい労力の度合いにより、複数の教示の形態が考えられる。ここでは、ユーザーが人物トラッキング部101に、例えば下記の情報を与えることで初期化を行うものとする。
(1)両チームの競技者および審判員の人数の入力
(2)人物検出結果の誤りの修正の指示
ここで、人物トラッキング部101の初期化の処理動作の詳細を説明する。
図4は、人物トラッキング部101の詳細な機能を示す図である。
人物トラッキング部101は、例えば制御部101aと、人物検出部101bと、フレーム間人物対応付け部101cと、ユーザ−インターフェース部101dと、画像入力部101eと、結果出力部101fとを備えている。
人物検出部101bは、撮像装置1が撮像した画像に基づいて人物の検出を行う。これは、上述の非特許文献2のような一般的な人物検出の方法によって人物を検出するものであるが、人物検出は特定の検出手法に限定されない。
また、さらに本実施形態では撮像装置群中の固定カメラである撮像装置1の画像にのみ基づいて人物検出を行うが、別の派生の形態として非特許文献2のように複数のカメラで複数の方位から人物の検出を行うことで、より失敗の少ない人物検出を行ってもよい。
次に、もし全ての競技者および審判が検出されていなければ、人物トラッキング部101は、その旨をユーザーに報知する。ユーザーは、ユーザーインターフェース部101dによって正しく各人物の位置を指示しなおす。全ての人物が正しく検出されたら、人物トラッキング部101は各人物に固有の識別IDを割り当てる。この識別IDが、各人物の位置と個人のIDの初期値となる。
なお、ここでは他の想定できる形態として、ユーザーの介在の度合いが大きい以下のような情報を与える形態も考えられる。
(3)競技者および審判員の顔を予め複数の方位から撮像した領域画像のセット
このような情報を与えることにより、後述の人物の同定処理の精度を高めることが可能である。
以上が人物トラッキング部101の初期化動作になる。
次に、ステップS4に進み、競技を記録している期間中、以下のステップS4からステップS20までを1サイクルとする処理を行って、人物の動きを追跡する。そして、競技終了等の終了状態に達するまでの間、人物情報出力部109が、各人物の位置をその識別IDとともに出力し続ける。
まず、ステップS4は、画像取得のステップであり、各撮像装置1〜nそれぞれが現在カメラの向いている範囲を撮影する。
次に、ステップS5では、人物トラッキング部101が備えるフレーム間人物対応付け部101cが、一つ前のフレームで検出された人物が現在のフレームでどこに移動したかを示す移動ベクトルを推定する。このような処理としては広く公知な技術としてテンプレートマッチやパーティクルフィルタ等を用いるものがあり、例えば非特許文献4等に開示されているため、詳細な説明は省略する。
フレーム間人物対応付け部101cは、上記追跡の結果の確からしさのスコアを出力する。このスコアは、テンプレートマッチ手法に類するものであれば、正規化相関値や輝度値の差の二乗和等であり、パーティクルフィルタ手法に基づくものであれば、パーティクルの平均尤度等である。人物を取り違えたり、人物が遮蔽されたりする等の理由で、前後フレーム間で人物の見えの類似度が著しく下がったときには、低いスコアが出力される。また、選手の交代等によって画面の外や人物検出の設定範囲外へ人物が移動した場合については、フレーム間人物対応付け部101cは、スコアとは別にそのことを示す状態値を出力する。
次に、ステップS6では、人物同定制御部108が、先のステップで行われた人物の追跡結果と信頼度とを受け取り、各人物の前後フレーム間の対応付けが、閾値以上の信頼度で行われたかどうかを判定する。もし、対応付けの信頼度の低い人物が存在していれば、追跡に失敗したとして、人物トラッキング部101に、該当人物を検出する要求トリガー信号を送る。
ステップS7は、人物トラッキング部101が、上記のような人物検出の要求トリガー信号を受けた時の動作である。人物トラッキング部101は撮像装置1の画像に対してステップS3で行った処理と同様に、人物検出処理を行う。そして、人物候補として検出された複数の領域のうち、所定以上の尤度スコアが得られた領域を抽出する。さらに、これらのうち現在人物として追跡中の領域に所定以上重なる領域は除き、残った領域を人物候補の領域として出力する。
続くステップS8からステップS12までの処理は、画像中の各人物の複数方位からの顔画像とその特徴を抽出する処理である。
まず、ステップS8で、人物トラッキング部101が撮像装置1の画像中の追跡中の人物(および人物の候補)の画像上の位置から、世界座標上の位置を算出する。これは、先にステップS1で行った校正で得た撮像装置1のカメラの外部パラメータを使って変換することで可能である。
次に、ステップS9では、人物位置推定部102が各人物の世界座標上の位置およびその大きさが、撮像装置2〜nによって撮像された画像上のどの位置と範囲に対応するかを算出する。これも、ステップS8と同様に、推定カメラパラメータを使った座標変換によって行われる。
なお、ステップS1の動作中で説明した通り、画像中に目標マーカーが写っていないためにカメラパラメータを推定できない場合は、この撮像装置については、対応位置は不明としておき、以降の処理に用いない。
次に、ステップS10では、画像間相対方位算出部104が人物の位置(x,y)の情報に基づいて、各カメラから見える人物の相対的な方位の角度差の値を算出する。方法は、ステップS2の動作中で説明した通りである。これにより、各撮像装置から見える人物の相対的な角度差 θ1,2,θ1,3,…θ1,n が与えられる。ただし、この時点で人物が向いている絶対的な方向は不明である。
次に、ステップS11では、人物領域抽出部103が各撮像装置から見える各人物の頭部の領域の切り出しを行う。これは、例えば非特許文献2に記載されているような方法で、各画像中の当該人物の位置の周辺から人物を検出することにより位置合わせを行い、その領域中から平均的に頭部にあたる位置を切り出すことによって行う。
次に、ステップS12では、特徴抽出部105が、このようにして得られた各人物の頭部の画像群から個人を識別するために適切な特徴量を抽出する。ここでは、例えば照明変動に頑健に個人識別が行えるよう、各画像をLoG(Laplacian of Gaussian)画像に変換して、これを画像の特徴量とする。ただし、特徴量は、この例に限定されるものではない。LBP(Local Binary Pattern)特徴や、HOG(Histogram of Oriented Gradient)特徴等、人物の照合の目的に一般的に使われるどのような特徴量でもよい。
ここまでの処理により、各追跡中の人物の領域(および人物の候補領域)を複数の方向から撮像した画像およびその特徴量が抽出される。
次に、ステップS13では、人物同定制御部108が、人物トラッキング部101による追跡処理の時に、信頼度が所定の値よりも低い人物がいたかどうかによって処理を変える。もし、追跡信頼度の低い人物がいた場合は、人物同定部106に、その人物のIDと、人物の同定をしなおす要求トリガーの信号とを送り、ステップS14に進んで、人物の再同定を行う。一方、全ての人物が信頼度高く追跡できていれば、この処理は行わずにステップS19に進む。また、ここで、別の形態として、信頼度とは別に、一定期間が経過したら、機械的に人物同定要求のトリガー信号を人物同定部106に送って人物の同定をしなおすような処理の形態としてもよい。
ステップS14からステップS18までは、追跡に失敗した人物の再同定を行う処理である。
ステップS14では、人物同定部106が再同定の要求のあった人物のIDを受け取り、そのIDの人物のモデルを人物領域特徴記憶部107から読みだす。ここで、人物モデルとは、図5(A)に示すように、人物の顔領域の全周画像の特徴を記憶したものである。人物領域特徴記憶部107に記憶(登録)されている顔領域の画像を登録領域画像とも表記する。この全周画像は人物の追跡開始直後から逐次撮像して登録した画像セットからなる。
次に、ステップS15では、同定対象の人物のモデルと比較する候補領域の優先度順を決定する。ここでは、先のステップS7で人体の候補領域を検出していれば、まず、それらのうち人体としての尤度が高い領域を順に候補領域とする。次に、追跡処理では人物間の入れ替わりによる誤対応が起こることも考慮し、さらに、現在追跡中の人物の全領域も候補領域とする。この領域については、追跡の信頼度の低い領域から順に候補領域とする。
次に、ステップS16では、人物同定部106が、このようにして決定した候補領域の一つ一つについて、人物モデルの画像(登録領域画像)の特徴と一致するかどうか順に判定していく。まず、図5(A)に示すように、候補領域の画像1を基準画像として、これを顔向き0度と仮定する。さらに、画像1と画像2との相対方位がθ1,2、画像1と画像3との相対方位がθ1,3になるように、画像2と画像3の顔向きを仮定する。なお、同図中では、撮像装置によって3方向の画像が得られているとして図示している。次に、全周囲モデルの画像(登録領域画像)のうちから各候補領域画像の仮定した顔向きそれぞれについて、最も角度の近い画像を選び、画像特徴が一致するかどうか比較する。ここでは、最も一般的な比較の方法として、正規化相関で比較する。なお、候補領域および人物モデルの画像は、切り出しの際に理想的な位置から多少の位置ずれが含まれると考えられる。このため、正規化相関の際には、所定の範囲で画像をxy方向にオフセットさせながら複数回の比較を行い、そのうちの最大の相関値をマッチスコアとして採用する。
図5(C)には、このようにして各画像を比較した結果のマッチスコアの合計値の例を示す。図5(A)での比較の結果は、記号Aが付された矢印で示された値となる。このような比較を、候補領域の各画像の相対的な間隔θを保ったまま、方位を全周360度にずらして複数回行う。このときのマッチスコアの最大の合計値は、図5(B)に示す方位で比較を行ったときに得られる。このスコアを、候補領域と当該IDの人物モデルとの一致度とする。この時のスコアを、図5(C)に記号Bを付した矢印で示す。
合計マッチスコアが所定の値を上回ったら、その候補領域は、当該IDの人物と一致するとして、人物同定制御部108に同定結果を返す。上回らなければ、次の優先順位の候補領域に移って、人物モデルとの比較を行う。
なお、人物の全周囲モデルの画像は、本画像認識システムの動作開始直後は、画像の登録数が少ないことが考えられる。そのため、対応する画像が少ない方位に関しては、平均的な顔モデルの画像で一部代替しておくようにしてもよい。もしくは、先にステップS3で述べたように、予めユーザーが、ある程度の量の全周囲画像データを用意しておくようにしてもよい。
また、ここで、候補領域と人物モデルを比較する際に、人物が他の無関係な人物で一部遮蔽されている等の理由で、一部の画像について正規化相関の値が低くなることがある。この影響を抑えるための工夫として、所定の下限値よりも低い相関値はアウトライヤーとして、そのまま使わずに下限の値に置き換えるようなことが考えられる。また、他の工夫として、候補領域から顔領域の画像を抽出する際に、他の人物の位置を考慮すると遮蔽が起こっていると考えられる場合は、その画像を用いないようにしてもよい。
また、カメラから遠い位置にいる人物を広角で写した場合や、性能の劣るカメラで撮像した画像は、画質が悪いことがある。このような画像が人物モデルの画像とマッチしたとしても、結果の信頼度は低いと考えられる。そこで、画像の解像度が高いほど、もしくは、近距離で人物を写している画像ほど、大きな値をとるような重み付けの値wを定義し、複数の比較結果のマッチスコアを合計する際にwで重み付けしてから合計してもよい。これにより、複数方向から撮像した画像のうち、画質の良い画像をより重視したマッチングを行うことができる。
また、先に説明したように、各候補領域画像の仮定した顔向きそれぞれについて、最も角度の近いモデルの画像を選んで比較するのではなく、ある程度角度の近いモデルの画像を全て選んで比較を行ってもよい。その場合、全比較結果のうちの最大のマッチスコアや、平均のマッチスコアを比較結果とすればよい。あるいは、先述の重みの値wを用いて複数のマッチスコアを重み付けして合計してもよい。
次に、ステップS17では、人物同定制御部108が、人物同定部106が同定した結果に従って人物の位置情報を訂正する。また、このとき、例えば人物Aとして追跡中だった人物の位置が、実際には人物Bに対応する人物の位置であることが判った場合も訂正し、人物Aを新たに追跡に失敗した人物として、人物同定部106に再同定の要求トリガーを送る。このようにして、必要なだけ人物の再同定処理を繰り返す。
次に、ステップS18では、人物同定制御部108が、全ての再同定対象の人物について候補領域との比較を行ったら、人物同定処理を終了する。最後まで対応する候補領域がなかった人物については、このフレームについては位置不明とする。また、人物検出の尤度スコアが所定値以上で、人物としての可能性が高い候補領域にも関わらず、どの人物のモデルとも一致しなかった領域は、選手交代等で新たに出現した人物と考えられるため、新規の人物として新たなIDを割り当てて追跡を開始する。
次に、ステップS19では、人物同定制御部108が、これまでの処理ステップで対応付けられた各人物の位置とIDを人物情報出力部109に出力し、その画像フレームの位置情報として記録を行う。
次に、ステップS20では、人物同定部106が、人物の向きを推定する。これは、ステップS16で行われた候補領域と人物モデルとの比較処理と同じ処理である。複数の方位で比較を行い、最大の合計マッチスコアの時の向きに基づいて、人物の向いている方向を求める。
次に、ステップS21では、顔向きの推定値の信頼度を求める。ここでは、先に求めた最大の合計マッチスコアが信頼度になる。信頼度が高い場合はステップS22に進む。
次に、ステップS22とステップS23では、新たに人物の画像特徴を人物モデルに追加・更新する処理を実行する。この処理を行うことで、競技中に人物の画像の情報が次第に蓄積され、同定処理の信頼性が増すことになる。また、競技中に付着した汚れ等の変化に追随することも可能になる。
ステップS22では、人物の画像を新たに人物のモデルの全周囲画像に加える。具体的には、ステップS20で推定された顔向きの値と、顔画像の特徴量とを登録する。このとき、登録されたタイミングが古い画像から先入れ先出しで徐々に入れ替えていく。この入れ替え処理において、解像度が高い画像は優先して入れ替えないようにしてもよい。また、人物同定の頑健性を高める目的で、一つの方位に対して最大n個までの複数の画像を登録するようにしてもよい。この場合は、一つの候補領域画像とモデルとを比べる際に、毎回最大n個の画像との比較を行い、そのうちの最大値をマッチスコアとすればよい。
次に、ステップS24では、競技が終了した等を知らせるユーザーからの入力があるかどうか調べ、終了条件が満たされるまで、ステップS4に戻って以上の処理を繰り返す。
以上が本実施形態の全体の処理の流れになる。
このように、本実施形態では、複数の方位の画像を用いて競技場等における人物の追跡と同定を行うことができる。この実施形態では、正面の画像が撮影されていなかったり、全体のうちの一部の撮像装置からしか人物が撮影できていない状況においても、画像間の相対関係を手掛かりにして画像群と人物モデルとを比較して頑健に且つリアルタイム性に優れた人物同定ができる。
なお、上述の人物の同定の方法は、上述の顔の領域を用いた方法だけでなく、例えば胴体の領域についても人物モデルとして用いて同定を行うようにしてもよい。例えば、スポーツ競技においては、胴体の背番号等が個人同定に有用であるため、胴体の領域についても用いることにより、顔の領域のみを用いて同定するのに比較してより精度を高めることができる。
具体的には、例えば図6(A)に示すように、顔と胴体の領域を別々に抽出し、それぞれ別の特徴群のモデルとして格納し、テンプレートマッチングを行う。このように、顔と胴体の領域を別々に抽出するのは、顔の方向と胴体の方向が一致しない場合があるためである。テンプレートマッチングの結果例を、例えば図6(B),(C)中に太い黒枠線で示す。このような場合には、例えば二つの領域の人物同定の結果を所定の重みで重み付けして加算した結果を、同定の最終結果とする。
[実施形態2]
実施形態2の画像認識システムは、図1に示す実施形態1の画像と同様に構成されている。この実施形態では、実施形態1とは異なる方法により、人物同定を行っている。なお、この実施形態においても、対象となる人物の画像領域間の相対方位は既知であり、人物の顔向きは不明であるとする。実施形態1では正規化相関を用いて、候補領域の顔画像特徴と人物モデルの一つ一つの顔画像特徴とを比較したが、この実施形態では、ハッシングを用いて、より高速に候補領域とモデルとの比較を行うようにしている。また、候補領域を高速に全ての人物モデルと比較することができるので、本実施形態では毎フレームごとに人物の同定を行うものとする。
図7は、本実施形態において特徴的な人物同定の処理フローの部分を示す。
まず、ステップS100では、実施形態1と同様に、人物検出や前フレームまでの人物トラッキングの結果から人物らしいと見なされた複数の候補領域が取得される。この各候補領域について、複数方向の画像から顔領域にあたる領域を抽出し、顔の候補領域とする。さらに画像間の相対的な方向(相対的な方位関係)の値を得る。
次に、ステップS101では、候補領域をLoG画像に変換する等個人同定に好適な前処理を行う。
次に、ステップS102からステップS105までの処理で候補領域が、どの人物モデルと類似しているかの比較処理を行う。この実施形態では、高速な比較の方法としてハッシングを用いる。まず、ステップS102では、図8(A)に示すように、各候補領域の、所定の相対位置に離れた2点のペアの画素の輝度値の比較を行う。2点のペアは、ランダムなセットをn個用意してn回の比較を行い、長さnのビット列の特徴を得る。すなわち、1枚の候補領域画像が長さnのビット列に変換される(図8(B))。
次に、ステップS103では、上記で得られたnビット列特徴bを、下式のようにm×nのランダム射影行列Rで変換する。ここでRは要素の値がランダムな行列である。さらに、変換後にその符号に応じて0か1の二値に変換する。これにより、長さmのビット列であるハッシュ値hを得る(図8(C))。
[数式3]
h=(sign[Rb]+1)/2
ここで、sign[・]はベクトルの各要素をその正負の符号に変換する関数である。
次に、ステップS104では、このようにして得られたハッシュ値をインデックスとし、対応するハッシュ表のインデックスを調べ、そこに登録されている人物のデータがあるかどうか調べる。ハッシュ表には予め一人以上の登録人物とその顔向きごとにハッシュ値を求め、その結果が記憶されている。登録されている人物のIDと顔の向き(ここでは変数θで表わす)を、候補領域とマッチした人物モデルのデータとして取得する(図8(D))。同図に示すように、各インデックスには二つ以上のモデルのデータが登録されていることがあるが、このような場合は全てのデータを取得する。もしくは、各データのうち最も解像度の高い画像(人物を近い距離から撮像した画像)に関するデータを優先的に一つだけ取得するようにしてもよい。一方、インデックスに登録されたデータがない場合は、候補領域はいずれにもマッチしなかったとして、次の候補領域の比較を行う。
次に、ステップS105では、ステップS104でマッチした人物モデルの情報を用いて投票を行う。具体的には、まず基準のカメラ(ここでは撮像装置1とする)と候補領域画像との相対的な方位の差と、候補領域画像がマッチした人物モデルデータの顔向きの方向に基づいて、以下のように基準のカメラ1から見た人物の顔向きの方向θを求める。
[数式4]
θ=θ1,j−θ
ただし、ここでθ1,jはカメラ1とカメラjの候補領域画像の相対的な方位の差、θはハッシングによってカメラjの候補領域画像とマッチしたデータの顔向きの方向である。
このようにしてカメラ1から見たときの人物の顔向きの方向の値θを推定したら、顔向きの方向θと人物のIDの2次元の投票空間への投票を行う。このとき、顔向き方向θの投票空間は、適当なビンニングを行って離散化しておく。
次に、ステップS106で全投票を集計して最大の投票数が得られたビンの投票数が所定の値を超えていたら、候補領域は該当するIDと顔向きの人物であるとして同定する。
次に、ステップS107では、同定が成功した場合のみ、同定された人物のデータをハッシュテーブルに追加登録する。ステップS103で、先ほど求めたハッシュ値をインデックスとして各候補領域画像が該当するテーブルそれぞれにIDと顔向きの値を記録する。ここで、実施形態1と同様に、古い登録データはハッシュテーブルから順次取り除いていってもよい。これにより、人物モデルのデータを更新し、且つデータの処理量を一定以内に収めることができる。
以上が、ハッシングを用いて高速に人物を同定する処理の流れになる。
なお、ステップS101の前処理として本形態ではLoG画像への変換を行ったが、ここでは、識別力を高めるために、顔の識別手法としてよく用いられる固有顔の基底等にデータを変換するようにしてもよい。
また、ステップS102では、2点ペアの位置はランダムではなく、学習用の画像データを用いて、情報量基準等を用いてより識別的な位置を探索して決定するようにしてもよい。
また、ステップS103では、ランダム射影行列Rを用いていたが、射影後のデータの偏りを防ぐために、ランダム射影行列の変換の前に主成分分析を行ってデータを無相関化してもよい。具体的には、例えば学習用の顔画像データをn次元のハッシュ値に変換し、このn次元のデータについて主成分分析を行う。上位k個の主成分を選んでk×nの次元削減行列Pを求める。次に、m×kのランダム射影行列Rを作成し、PとRを合成した行列R’=RPをm×nの変換行列として用いて実現すればよい。なお、ここでは、m≦k<nである状態を想定している。
また、ステップS105では、実施形態1と同様に画像の解像度が高い場合には大きな値をとるような重みwを定義し、投票時に1の値ではなくwの値を投票してもよい。これにより、解像度の高い画像のマッチ結果がより投票で重視されるようになる。
また、ステップS105では、同様にしてデータの登録されたタイミングが古いほど小さい値をとるような重みwを定義し、wの値を投票してもよい。これにより、新しい登録データが古い登録データよりも重視されるようになる。
また、本実施形態では各人物の全方向の顔画像が予めハッシュ表に登録されているとしたが、このような網羅的な人物モデルを必要としない形態も考えられる。例えば、全人物のモデルの代わりに、平均的な人物の複数の顔画像のデータをハッシュ表に登録しておいてもよい。そして、システムの動作が開始されたら、所定の期間は、この平均的な人物のモデルを用いて追跡中の人物の顔向きを推定する。具体的には、ハッシングによる比較の後に、人物のIDに対しては投票を行わず、顔向きのみに投票すればよい。そして、顔向きの推定に成功したら、追跡中の人物のIDと顔向きの情報とをハッシュ表に追加する。このようにして人物のモデルのデータを順次追加していくことで、全人物の顔画像を予め用意せずにシステムを動作させることが可能である。
また、人物の顔領域は切り出しの際に位置ずれを伴うことを考慮して、一つの候補領域画像をxy方向に微小な量ずらしてn個のパターンの画像を作成し、それぞれについて、ハッシングと投票を行うようにしてもよい。この場合、処理量はn倍に増えるが、投票の量もn倍に増えるためより安定した人物同定が可能となる。
以上のように、本実施形態では、ハッシングを用いて高速に人物の同定を行うことができる。なお、ハッシング手法は多岐に渡っており、本発明に適用可能なハッシングは、ここで説明した方法にのみ限定されるものではない。
[実施形態3]
実施形態3では、上述の実施形態1の人物の同定処理を拡張している。
本実施形態では人物の顔の絶対的な向き(顔向きの方向)を推定し、顔向きの方向に基づいて異なる特徴の抽出を行い、人物を同定する。
例えば、特許文献2に述べられているように、人物の顔の向き(顔向きの方向)が既知である場合には、顔向きに応じて顔の識別に有用な特徴を指定して抽出することが可能である。例えば、横向きの顔であれば耳や鼻といった顔の器官を検出し、器官の間の距離や角度を特徴とすることが、人物の同定処理において有効であることが知られている。顔の向きが既知であれば、上記の器官の検出処理はテンプレートマッチのような比較的簡素な処理でも安定した検出ができる。また、器官の間の長さや角度は、顔の向きによって変位するが、顔向き角度が既知であれば、この変位量を補正して安定した特徴量とすることが可能である。
また、顔向きが既知であれば、特許文献1に記載の方法で行っているように画像変換を加えて所定の顔向きに近づくよう補正し、その後に目や鼻を中心とした所定の一定の範囲の領域からLBPのような領域の見えの特徴量を抽出するといったことも可能になる。
このように、人物の顔向きの角度が既知であることは、人物の同定処理の精度を高めるのに有用である。以下、実施形態1との差異を中心に説明を行う。
図9にフロー図を示す。これは全体フロー図のうちから特に実施形態1との差異となる部分を抽出したものである。具体的には、画像中の各人物について人物の同定に用いる特徴量を抽出するまでの処理を抜き出したものである。この処理では、ステップS208からステップS211までは、上述の図2に示す実施形態1のステップS8からステップS11までの処理と同じ動作を行う。
次に、ステップS212では人物の顔向きを推定するための顔の特徴量を抽出する。さらに、ステップS213では、人物の顔の向きを推定する。具体的には、先に実施形態1のステップS20で説明したように、相対的な顔向きを保ちながら、全周囲の顔のモデルとの正規化相関によるマッチングを行う。ただし、この時点で候補領域がどの人物かは分からないので、平均的な顔の全周囲データ画像を別途用意しておき、この平均人物モデルと比較する。
次に、このマッチングの結果から、ステップS214で個々の画像の人物の顔の向きを求める。次に、ステップS215では、顔向きごとに人物の同定のための特徴を抽出する。具体的には、先に説明したように目、耳、鼻等の人物の顔の器官を検出する。なお、検出対象とする器官は顔向きごとに予め決めておく。
次に、ステップS216では、顔の正面方向を0度とし、全周を8等分に割った8方向の顔向きを定義し、8方向のうちもっとも近い方向に各画像を近づける正規化を行う。具体的には顔の形状を円筒と仮定し、x方向に部分的な圧縮および拡大を行う関数によって奥行き回転の画像変換を近似する。このような関数で、各器官がおおよそ正しい位置に移動するように奥行き回転を行う。
なお、このステップS216における処理で、仰角方向についての顔画像の補正を行うようにしてもよい。各方位のカメラの設置高がまちまちな場合、人物の見えの仰角方向の角度が揃っていない。そこで、奥行き回転方向(奥行き回転角度)を揃える先の正規化の方法と同様に、検出した器官の位置に基づいて所定の仰角に近似的に見えが一致するように顔画像を変換するようにしてもよい。
次に、ステップS217では、このようにして変換された画像から、各顔の器官の位置に基づいた特徴量を抽出する。ここでは、顔向きの方向に応じて異なる特徴(顔向きの方向に応じて最適な特徴量)を抽出する。具体的には、例えば正面方向の画像であれば、両目・鼻・口周辺の領域のLBP特徴、横方向の顔向き画像であれば耳と鼻の間の距離等である。
次に、ステップS218では、各画像の特徴と、8方向別に記憶されている顔のモデルに対して、対応する顔向きの特徴と比較する。具体的には、二つの特徴量ベクトルの差分を入力とし、サポートベクトルマシン等の識別器を用いて二つの画像の特徴が一致しているか否かの学習と識別をする。なお、この学習は予め様々な人物の、照明変動等のある顔画像を用いて、8方向の顔向き別に行っておく。
次に、ステップS219では、このようにして比較した結果を総和して、候補領域が当該人物かどうかの同定結果とする。図10(A)に、ここまでに説明した候補領域画像の顔向きの正規化、特徴抽出、および顔モデルとの比較、の処理の流れについての模式図を示す。
また、ステップS214の人物の向きの推定の処理は、例えば図10(B)に示すように行うこともできる。これは、予め各顔向きの画像を入力パターンとし、回帰分析の手法で顔向きの値を推定できるように学習しておくものである。
具体的には、一般的な回帰分析の手法の一つの例として、非特許文献5等で公知なCART(Classification And Regression Tree)と呼ばれる回帰木手法を用いる。回帰木に、様々な人物の顔画像とその時の顔向きの値を学習データとして入力して学習させると、学習終了後には、入力された顔画像に対して、顔向き方向の尤度の分布が出力できるようになる。そこで、この尤度分布を用いて、図10(B)のように正面の顔向き方向へと投票を行う。投票した値を合計して(同図中では合計した値を破線の曲線で表している)、その最大の方位を顔の正面向きとする。なお、同図中では最大の方位を太い縦線で表わしている。
また、人物の顔向きを推定するために、人物の移動方向を用いることもできる。一つの例として、人物の追跡結果を用い、その移動方向を顔向きの方向としてもよい。この場合、人物が横を見ながら移動する際は同定に失敗することになる。このため、例えば、図10(B)に示した投票による顔向き推定に、移動方向も加味して投票してもよい。具体的には、例えば、w×cos(θ−v)の値を投票空間θに加算する等の処理によって行う。なお、vは移動方向、wは所定の重み定数である。
以上のように、本実施形態では、人物の顔向きの方向を推定し、推定した顔向きの方向に応じて決められた特徴を抽出し、抽出された特徴に基づいて人物の同定を行うことにより、安定して人物の同定を行うことができる。
[実施形態4]
次に、実施形態4では、撮像装置群100が、三次元空間上を自由に移動可能な画像認識システムについて説明する。これは、例えば図11(A)に示すように、ヘリコプターや気球等に撮像装置が搭載され、無線で制御することで、それらが空中を行き来するような状況を想定している。あるいは、天井から複数のワイヤーで撮像装置を吊り、ワイヤーの巻き取り量を制御して空中の任意位置へ移動するようにしてもよい。このような自由に移動する撮像装置群100を用いて人物の追跡と同定を行う場合にも、本発明を適用することができる。以下、簡単に説明する。
まず、各撮像装置は、人物を撮影した時に、人物の画像上の位置と世界座標上の位置を対応させるための位置合わせを行う必要がある。これは、上述の実施形態1と同様に、予め登録しておいた地上の白線およびその交点といった目標物の位置に基づいて行う。
しかし、各撮像装置の自由な運動が可能である本実施形態の場合、競技場の白線のような回転対称な目標物を撮像すると、いずれの方角から撮像しているのか一意に同定できない場合がある。このような状態を避けるため、各撮像装置は大体の方角を得るための電子コンパス等のセンサーを備え、センサーによって検出した方角の値を用い、撮像している方角の曖昧性をなくす。このような処理により、カメラ(撮像装置)の、現時点での世界座標上の三次元の自己位置(x,y,z)を算出できるようになる。なお、撮影範囲が狭いような場合に、自己位置が算出できない場合があることは、上述の実施形態と同様であり、このような場合は、当該撮像装置で撮影した画像は人物の同定処理に用いない。
次に、カメラ間の相対的な方位を求める。具体的には、例えば図11(A)に示すように、フィールドを高さが0のxy平面と仮定し、カメラiの位置(x,y,z)からフィールドへ垂線を下ろした地点(x,y,0)と、カメラjの同様の位置(x,y,0)を考える。この2地点と地上の人物の位置(x,y,0)とがなす角度θi,jを、カメラiとjの相対方位の偏角として記憶する。さらに、カメラの高さは既知のため、人物の位置(x,y,0)からカメラiおよびカメラjを見上げた時の仰角φとφも算出して併せて記憶する。この三つの変数を、人物の位置とカメラの位置に応じて変化するカメラ間の相対的な角度とする。
この相対的な角度の値を考慮することで、人物の絶対的な顔向きの方向を求めることなく、複数の画像を同時に用いたテンプレートマッチングを行う。具体的には、例えば図11(B)に示すように、方位角のみならず仰角方向の変化も加えた顔の全半球状の画像のモデルを用いて、候補領域の画像と人物モデルとを比較する。ここでは、比較の計算量が先の実施例で示した方位角のみのモデルよりも多数になるため、実施形態で説明したハッシングによる高速な方法で複数の顔領域画像を複数の人物モデルと比較する処理を行うようにしてもよい。このようにして比較した結果を、実施形態2と同様に、人物のIDとカメラ1の画像の顔向きの方向θ、および仰角φ、の3次元の投票空間へ投票を行う。そして、投票を集計して人物と顔向きを同定する。なお、この時、仰角φへの投票を行わず、人物のIDと方位θの空間にのみ投票するようにしてもよい。
以上のように、本実施形態では、撮像装置の世界座標上の三次元の自己位置を算出し、算出した自己位置を用いて、撮像装置間の相対的な角度とすることにより、撮像装置が三次元空間上を自由に移動する場合にも、人物の追跡を行うことができる。
[産業上の利用可能性]
本発明は、スポーツシーンにおける競技者の行動履歴の自動作成、行動の可視化によるエンターティメント性の向上、監視カメラを用いるセキュリティシステムや本人確認システムのロバスト性や精度向上等に寄与する。
[その他の実施例形態]
本発明の目的は、以下の処理を実行することによっても達成される。すなわち、上述した各実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置が備えるコンピュータ(又はCPUやMPU等)が記憶媒体等からを読み出して実行する処理である。この場合、記憶媒体等から読み出されたプログラム自体が上述した実施形態の機能を実現することになり、そのプログラムも本発明を構成することになる。
1〜n…撮像装置
100…撮像装置群
101…人物トラッキング部
102…人物位置推定部
103…人物領域抽出部
104…画像間相対方位算出部
105…特徴抽出部
106…人物同定部
107…人物領域特徴記憶部
108…人物同定制御部
109…人物情報出力部
110…画像認識装置

Claims (16)

  1. 特定の人物を異なる方位から撮像して得られた第1の入力領域画像と第2の入力領域画像との間の相対的な方位関係を取得する画像間相対方位取得手段と、
    前記特定の人物又はその他の人物を少なくとも3つの方位から撮像して得られた登録領域画像からなる登録領域画像群に含まれる第1の登録領域画像の特徴と前記第1の入力領域画像の特徴とを比較し、前記登録領域画像群に含まれる前記第1の登録領域画像と同じ人物の第2の登録領域画像の特徴と前記第2の入力領域画像の特徴とを比較して、前記第1および第2の入力領域画像に写っている人物と前記第1および第2の登録領域画像に写っている人物とが同一人物か否か判定する人物同定手段と、
    を備え、
    前記第1の登録領域画像と前記第2の登録領域画像との間の相対的な方位関係が、前記第1の入力領域画像と前記第2の入力領域画像との間の相対的な方位関係に近づくように、前記第1の登録領域画像と前記第2の登録領域画像とが選ばれる
    ことを特徴とする画像認識装置。
  2. 入力画像の中の前記特定の人物を追跡して前記特定の人物の前記位置座標情報を推定する人物トラッキング手段と、
    前記入力画像の中の前記特定の人物の位置を推定する人物位置推定手段と、
    前記特定の人物を異なる方位から撮像して得られた第1の入力画像と第2の入力画像とが入力され、前記人物位置推定手段によって推定された人物の位置に基づいて、前記第1の入力画像から前記第1の入力領域画像を抽出し、かつ前記第2の入力画像から前記第2の入力領域画像を抽出する人物領域抽出手段と、
    前記第1の入力領域画像から特徴を抽出し、かつ前記第2の入力領域画像から特徴を抽出する特徴抽出手段と、
    前記登録領域画像群の中の各登録領域画像の特徴が記憶された人物領域特徴記憶手段と、
    をさらに備え、
    前記画像間相対方位算出手段は、
    前記第1の入力画像を撮像した第1の撮像装置の位置座標情報、
    前記第2の入力画像を撮像した第2の撮像装置の位置座標情報、および
    前記人物トラッキング手段によって推定された前記特定の人物の前記位置座標情報
    に基づいて、前記第1の入力領域画像と前記第2の入力領域画像との間の相対的な方位関係を算出し、
    前記人物同定手段は、
    前記特徴抽出手段から前記第1の入力領域画像の特徴および前記第2の入力領域画像の特徴を受け取り、
    前記人物領域特徴記憶手段から前記第1の登録領域画像の特徴および前記第2の登録領域画像の特徴を受け取る
    ことを特徴とする請求項1に記載の画像認識装置。
  3. 前記人物領域特徴記憶手段は、前記人物同定手段の結果を用いて前記登録領域画像の特徴の更新を行うことを特徴とする請求項2に記載の画像認識装置。
  4. 前記人物領域特徴記憶手段は、前記登録領域画像から算出されたハッシュ値と前記登録領域画像とが対応付けられたハッシュ表を予め記憶し、
    前記人物同定手段は、前記入力領域画像からハッシュ値を算出し、算出された当該ハッシュ値と前記ハッシュ表とを用いて人物の同定を行うことを特徴とする請求項2又は3に記載の画像認識装置。
  5. 前記人物同定手段は、前記特徴の比較を行う際に、解像度の高い画像をより重視して比較することを特徴とする請求項1乃至4のいずれか1項に記載の画像認識装置。
  6. 前記人物同定手段は、前記特徴の比較を行う際に、近距離で前記人物を写した画像をより重視して比較することを特徴とする請求項1乃至5のいずれか1項に記載の画像認識装置。
  7. 前記入力領域画像および前記登録領域画像の特徴は、顔の領域から得られることを特徴とする請求項1乃至6のいずれか1項に記載の画像認識装置。
  8. 前記入力領域画像および前記登録領域画像の特徴は、顔の領域と胴体の領域から得られることを特徴とする請求項1乃至6のいずれか1項に記載の画像認識装置。
  9. 前記画像間の相対的な方位関係は、奥行き回転角度および仰角の相対的な関係であることを特徴とする請求項1乃至8のいずれか1項に記載の画像認識装置。
  10. 前記人物同定手段は、顔向きの方向を推定することを特徴とする請求項1乃至9のいずれか1項に記載の画像認識装置。
  11. 前記人物同定手段は、推定した顔向きの方向に応じて異なる特徴を用いて同定することを特徴とする請求項10に記載の画像認識装置。
  12. 前記人物同定手段は、人物の移動方向に基づいて前記顔向きの方向を推定することを特徴とする請求項10又は11に記載の画像認識装置。
  13. 特定の人物を異なる方位から撮像して得られた第1の入力領域画像と第2の入力領域画像との間の相対的な方位関係を取得する画像間相対方位取得手段 と、
    前記特定の人物又はその他の人物を少なくとも3つの方位から撮像して得られた登録領域画像からなる登録領域画像群に含まれる第1の登録領域画像の特徴と前記第1の入力領域画像の特徴とを比較し、前記登録領域画像群に含まれる前記第1の登録領域画像と同じ人物の第2の登録領域画像の特徴と前記第2の入力領域画像の特徴とを比較して、前記第1および第2の入力領域画像に写っている顔の向きと前記第1および第2の登録領域画像に写っている顔の向きとが同じであるか否か判定する人物同定手段と、
    を備え、
    前記第1の登録領域画像と前記第2の登録領域画像との間の相対的な方位関係が、前記第1の入力領域画像と前記第2の入力領域画像との間の相対的な方位関係に近づくように、前記第1の登録領域画像と前記第2の登録領域画像とが選ばれる
    ことを特徴とする画像認識装置。
  14. 請求項2に記載の画像認識装置と、
    前記特定の人物を異なる方位から撮像する複数の撮像装置と
    を備えることを特徴とする画像認識システム。
  15. 特定の人物を異なる方位から撮像して得られた第1の入力領域画像と第2の入力領域画像との間の相対的な方位関係を算出する画像間相対方位算出工程と、
    前記特定の人物又はその他の人物を少なくとも3つの方位から撮像して得られた登録領域画像からなる登録領域画像群に含まれる第1の登録領域画像の特徴と前記第1の入力領域画像の特徴とを比較し、前記登録領域画像群に含まれる前記第1の登録領域画像と同じ人物の第2の登録領域画像の特徴と前記第2の入力領域画像の特徴とを比較して、前記第1および第2の入力領域画像に写っている人物と前記第1および第2の登録領域画像に写っている人物とが同一人物か否か判定する人物同定工程と、
    を含み、
    前記第1の登録領域画像と前記第2の登録領域画像との間の相対的な方位関係が、前記第1の入力領域画像と前記第2の入力領域画像との間の相対的な方位関係に近づくように、前記第1の登録領域画像と前記第2の登録領域画像とが選ばれる
    ことを特徴とする画像認識方法。
  16. コンピュータを、請求項1乃至12のいずれか1項に記載の画像認識装置が有する各手段として機能させるためのコンピュータプログラム。
JP2014121862A 2014-06-12 2014-06-12 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム Active JP6448223B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014121862A JP6448223B2 (ja) 2014-06-12 2014-06-12 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム
US14/733,547 US9743014B2 (en) 2014-06-12 2015-06-08 Image recognition system, image recognition apparatus, image recognition method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014121862A JP6448223B2 (ja) 2014-06-12 2014-06-12 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2016001447A true JP2016001447A (ja) 2016-01-07
JP6448223B2 JP6448223B2 (ja) 2019-01-09

Family

ID=54836412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014121862A Active JP6448223B2 (ja) 2014-06-12 2014-06-12 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム

Country Status (2)

Country Link
US (1) US9743014B2 (ja)
JP (1) JP6448223B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016175075A1 (ja) * 2015-04-28 2016-11-03 株式会社Jvcケンウッド 情報処理システム、情報処理方法およびプログラム
WO2017158983A1 (ja) * 2016-03-18 2017-09-21 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
JP2018033035A (ja) * 2016-08-25 2018-03-01 株式会社リコー 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP2019101526A (ja) * 2017-11-29 2019-06-24 Kddi株式会社 オブジェクト識別装置および方法
JP2021033359A (ja) * 2019-08-14 2021-03-01 沖電気工業株式会社 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
JP2022050463A (ja) * 2019-08-07 2022-03-30 グーグル エルエルシー ビデオ通話のための顔に基づくフレームレートのアップサンプリング
JP2022051695A (ja) * 2020-09-22 2022-04-01 グラスパー テクノロジーズ エーピーエス アノニマス再識別の構想
JP2022170649A (ja) * 2021-04-28 2022-11-10 緯創資通股▲ふん▼有限公司 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法
WO2023188302A1 (ja) * 2022-03-31 2023-10-05 日本電気株式会社 画像処理装置、画像処理方法、及び、記録媒体
WO2024004197A1 (ja) * 2022-07-01 2024-01-04 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160011916A (ko) * 2014-07-23 2016-02-02 삼성전자주식회사 얼굴 인식을 통한 사용자 식별 방법 및 장치
JP6669948B2 (ja) * 2014-09-08 2020-03-18 日本電産株式会社 移動体制御装置及び移動体
US10440350B2 (en) * 2015-03-03 2019-10-08 Ditto Technologies, Inc. Constructing a user's face model using particle filters
CN105843972B (zh) * 2016-06-13 2020-05-01 北京京东尚科信息技术有限公司 产品属性信息的比对方法及装置
EP3312762B1 (en) * 2016-10-18 2023-03-01 Axis AB Method and system for tracking an object in a defined area
US10484568B2 (en) * 2016-10-26 2019-11-19 Orcam Technologies Ltd. Providing a social media recommendation based on data captured by a wearable device
US10621419B2 (en) * 2016-12-06 2020-04-14 Robert William Kocher Method and system for increasing biometric acceptance rates and reducing false accept rates and false rates
US10255507B2 (en) * 2016-12-19 2019-04-09 Canon Kabushiki Kaisha Detection of an object in a distorted image
US11036969B1 (en) * 2017-02-08 2021-06-15 Robert Kocher Group identification device
JP6764151B2 (ja) * 2017-04-28 2020-09-30 株式会社オプティム コンピュータシステム、遠隔操作通知方法及びプログラム
CN107704811A (zh) * 2017-09-14 2018-02-16 云南大学 一种基于模糊鲁棒特征的行人再识别方法及模块装置
US10803297B2 (en) 2017-09-27 2020-10-13 International Business Machines Corporation Determining quality of images for user identification
US10776467B2 (en) 2017-09-27 2020-09-15 International Business Machines Corporation Establishing personal identity using real time contextual data
US10839003B2 (en) 2017-09-27 2020-11-17 International Business Machines Corporation Passively managed loyalty program using customer images and behaviors
US10795979B2 (en) 2017-09-27 2020-10-06 International Business Machines Corporation Establishing personal identity and user behavior based on identity patterns
US10565432B2 (en) * 2017-11-29 2020-02-18 International Business Machines Corporation Establishing personal identity based on multiple sub-optimal images
CN108446387A (zh) * 2018-03-22 2018-08-24 百度在线网络技术(北京)有限公司 用于更新人脸注册库的方法和装置
JP7230345B2 (ja) * 2018-06-07 2023-03-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN108830892B (zh) * 2018-06-13 2020-03-06 北京微播视界科技有限公司 人脸图像处理方法、装置、电子设备及计算机可读存储介质
US11507768B2 (en) * 2019-07-04 2022-11-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US11238300B2 (en) * 2019-09-10 2022-02-01 Microsoft Technology Licensing, Llc Depth-based object re-identification
US11176357B2 (en) * 2019-10-30 2021-11-16 Tascent, Inc. Fast face image capture system
CN111178126A (zh) * 2019-11-20 2020-05-19 北京迈格威科技有限公司 目标检测方法、装置、计算机设备和存储介质
CN110889392B (zh) * 2019-12-06 2022-06-10 北京百度网讯科技有限公司 人脸图像处理的方法及装置
CN111666441A (zh) * 2020-04-24 2020-09-15 北京旷视科技有限公司 确定人员身份类型的方法、装置和电子系统
CN111709974B (zh) * 2020-06-22 2022-08-02 苏宁云计算有限公司 基于rgb-d图像的人体跟踪方法及装置
CN113128554B (zh) * 2021-03-10 2022-05-24 广州大学 一种基于模板匹配的目标定位方法、系统、装置及介质
CN113033410B (zh) * 2021-03-26 2023-06-06 中山大学 基于自动数据增强的域泛化行人重识别方法、系统及介质
CN113449676B (zh) * 2021-07-13 2024-05-10 凌坤(南通)智能科技有限公司 一种基于双路互促进解纠缠学习的行人重识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
JP2004192378A (ja) * 2002-12-12 2004-07-08 Toshiba Corp 顔画像処理装置およびその方法
US8401248B1 (en) * 2008-12-30 2013-03-19 Videomining Corporation Method and system for measuring emotional and attentional response to dynamic digital media content

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221809B2 (en) 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US7421097B2 (en) 2003-05-27 2008-09-02 Honeywell International Inc. Face identification verification using 3 dimensional modeling
JP2005100367A (ja) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及び画像生成プログラム
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
JP4241763B2 (ja) 2006-05-29 2009-03-18 株式会社東芝 人物認識装置及びその方法
WO2009112057A1 (en) * 2008-03-14 2009-09-17 Metaio Gmbh Method and system for displaying an image generated by at least one camera
US8051097B2 (en) * 2008-12-15 2011-11-01 Apple Inc. System and method for authentication using a shared table and sorting exponentiation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
JP2004192378A (ja) * 2002-12-12 2004-07-08 Toshiba Corp 顔画像処理装置およびその方法
US20040136574A1 (en) * 2002-12-12 2004-07-15 Kabushiki Kaisha Toshiba Face image processing apparatus and method
US8401248B1 (en) * 2008-12-30 2013-03-19 Videomining Corporation Method and system for measuring emotional and attentional response to dynamic digital media content

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
安本 護,外4名: "マルチカメラ統合を用いた人物識別と顔方向推定", 電子情報通信学会論文誌, vol. 第J84-D-II巻第8号, JPN6018017150, 1 August 2001 (2001-08-01), JP, pages 1772 - 1780, ISSN: 0003794772 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016175075A1 (ja) * 2015-04-28 2016-11-03 株式会社Jvcケンウッド 情報処理システム、情報処理方法およびプログラム
WO2017158983A1 (ja) * 2016-03-18 2017-09-21 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
JPWO2017158983A1 (ja) * 2016-03-18 2019-01-24 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
JP2018033035A (ja) * 2016-08-25 2018-03-01 株式会社リコー 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
US10643077B2 (en) 2016-08-25 2020-05-05 Ricoh Company, Ltd. Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
JP2019101526A (ja) * 2017-11-29 2019-06-24 Kddi株式会社 オブジェクト識別装置および方法
US11869274B2 (en) 2019-08-07 2024-01-09 Google Llc Face-based frame rate upsampling for video calls
JP2022050463A (ja) * 2019-08-07 2022-03-30 グーグル エルエルシー ビデオ通話のための顔に基づくフレームレートのアップサンプリング
JP7320591B2 (ja) 2019-08-07 2023-08-03 グーグル エルエルシー ビデオ通話のための顔に基づくフレームレートのアップサンプリング
JP7306152B2 (ja) 2019-08-14 2023-07-11 沖電気工業株式会社 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
JP2021033359A (ja) * 2019-08-14 2021-03-01 沖電気工業株式会社 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
JP7206343B2 (ja) 2020-09-22 2023-01-17 グラスパー テクノロジーズ エーピーエス アノニマス再識別の構想
JP2022051695A (ja) * 2020-09-22 2022-04-01 グラスパー テクノロジーズ エーピーエス アノニマス再識別の構想
JP7235826B2 (ja) 2021-04-28 2023-03-08 緯創資通股▲ふん▼有限公司 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法
JP2022170649A (ja) * 2021-04-28 2022-11-10 緯創資通股▲ふん▼有限公司 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法
US11816860B2 (en) 2021-04-28 2023-11-14 Wistron Corp. Detection device for detecting human-body orientation and detection method for detecting human-body orientation
WO2023188302A1 (ja) * 2022-03-31 2023-10-05 日本電気株式会社 画像処理装置、画像処理方法、及び、記録媒体
WO2024004197A1 (ja) * 2022-07-01 2024-01-04 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Also Published As

Publication number Publication date
JP6448223B2 (ja) 2019-01-09
US20150363636A1 (en) 2015-12-17
US9743014B2 (en) 2017-08-22

Similar Documents

Publication Publication Date Title
JP6448223B2 (ja) 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム
US9330307B2 (en) Learning based estimation of hand and finger pose
WO2020042419A1 (zh) 基于步态的身份识别方法、装置、电子设备
CN100397410C (zh) 基于视频的面部表情识别方法及装置
US9275472B2 (en) Real-time player detection from a single calibrated camera
JP5715833B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
Medioni et al. Identifying noncooperative subjects at a distance using face images and inferred three-dimensional face models
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
CN105898107B (zh) 一种目标物体抓拍方法及系统
CN104361327A (zh) 一种行人检测方法和系统
JP2008538623A (ja) 運動行為中のイベントを検出及び分類するための方法及びシステム
CN106296661A (zh) 一种适用于光场相机的标定预处理方法
CN113239797B (zh) 人体动作识别方法、装置及系统
CN112183355A (zh) 基于双目视觉和深度学习的出水高度检测系统及其方法
JP4465150B2 (ja) 基準点に対する物体の相対位置を測定するシステムおよび方法
Yang et al. Multiple marker tracking in a single-camera system for gait analysis
Führ et al. Camera self-calibration based on nonlinear optimization and applications in surveillance systems
CN114120168A (zh) 一种目标跑动距离测算方法、系统、设备及存储介质
CN114037923A (zh) 一种目标活动热点图绘制方法、系统、设备及存储介质
CN115880643B (zh) 一种基于目标检测算法的社交距离监测方法和装置
CN117238031A (zh) 一种虚拟人的动作捕捉方法与系统
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
CN109492513A (zh) 光场监控的人脸空间去重方法
CN112766033B (zh) 一种基于多视角相机估计场景下行人共同关注目标的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R151 Written notification of patent or utility model registration

Ref document number: 6448223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03