JP2016206795A - 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法 - Google Patents

実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法 Download PDF

Info

Publication number
JP2016206795A
JP2016206795A JP2015085269A JP2015085269A JP2016206795A JP 2016206795 A JP2016206795 A JP 2016206795A JP 2015085269 A JP2015085269 A JP 2015085269A JP 2015085269 A JP2015085269 A JP 2015085269A JP 2016206795 A JP2016206795 A JP 2016206795A
Authority
JP
Japan
Prior art keywords
image
information
real space
time
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015085269A
Other languages
English (en)
Other versions
JP6628494B2 (ja
Inventor
有希 永井
Yuki Nagai
有希 永井
小林 達也
Tatsuya Kobayashi
達也 小林
智史 上野
Tomohito Ueno
智史 上野
有哉 巻渕
Yuya Makibuchi
有哉 巻渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015085269A priority Critical patent/JP6628494B2/ja
Publication of JP2016206795A publication Critical patent/JP2016206795A/ja
Application granted granted Critical
Publication of JP6628494B2 publication Critical patent/JP6628494B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】取得される画像群を用いて、実空間における高い位置精度を維持しつつ物体を追跡することができる装置を提供する。【解決手段】追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な本装置は、取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含むデータセットによって学習する識別器であって、物体追跡対象の画像毎に、当該画像に係る画像情報を入力することによって少なくとも当該物体の実空間での正解とされる位置情報を出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段を有する。ここで、この物体追跡手段の識別器は、構造化SVM(Structured Support Vector Machine)のアルゴリズムによって構築されることも好ましい。【選択図】図3

Description

本発明は、物体を撮影可能なカメラから取得される時系列画像群を解析して当該物体を追跡する物体追跡技術に関する。
監視やマーケティング等の目的をもって、カメラで撮影され生成された時系列の画像群を用いて、移動する物体の実空間での位置を追跡する技術が開発されている。追跡する物体としては、人物や乗り物等、撮影可能な様々なものが対象となる。
このような物体追跡技術では、一般に、追跡対象物体の映っている画像における対象となる画像領域を追跡し、この画像領域を実空間での位置に変換することにより、実空間での物体の位置追跡を実現する。ここで、2次元の画像領域内の1つの点を3次元の実空間に投影する場合、この点に対応する実空間での点については、その高さ、即ちz座標値を所定値に固定する必要がある。
例えば、画像内での領域の追跡結果からして、足元位置のように画像内で物体が床や地面に接していることが明らかな箇所は、高さをゼロとして実空間の床面の位置に投影することができる。しかしながら、実際には、画像内で物体が床や地面に接している箇所を特定し続けることは容易ではない。一般に、撮影画像において、物体が床や地面に接している箇所は、例えば、机、テーブル、人物や車といった他の物体の背後に回り隠れてしまうことも少なくない。
このような実空間への投影の問題に対し、例えば特許文献1には、人物の頭部が足元に比べて画像内で隠れ難い事情を利用し、人物の足元位置が画像内で不明な場合に頭部の検出を行って、画像内の頭部の位置を示す点を、高さとして予め設定した平均身長値を当てはめて実空間に投影する技術が開示されている。
また、特許文献2には、複数の視点から物体を撮影し、視点の異なる複数の画像に基づいて、物体が路面に接する箇所を推定する技術が開示されている。
特開2014−229068号公報 特開2014−194361号公報
しかしながら、特許文献1及び特許文献2に記載されたような従来技術では、実空間における高い位置精度を維持しつつ物体を追跡し続けることは困難であるという問題が生じていた。
例えば、特許文献1に記載されたような物体の平均的な高さを予め設定して用いる手法では、追跡対象物体の高さと平均的な高さとの乖離が大きい場合や、当該物体の形状が変化する場合、実空間での推定位置が正しい位置から大きくずれてしまう。例えば、子供を追跡する場合、この子供の実際の身長と予め設定された平均身長との差が大きくなって、画像内の頭部位置を実空間に投影した際に、本来の頭部位置から見て大きなずれが生じてしまう。さらに、高さを平均身長に設定することは、追跡する人物が直立している場合のみを想定していることになる。その結果、追跡対象人物において座る、お辞儀する等の形状変化が生じた場合、推定位置に大きなズレが生じてしまう。
また、特許文献2に記載されたような複数視点による画像を用いた手法では、確かに、単眼カメラに比べて床や地面に接した箇所がいずれかの画像に映っている可能性は高くなる。しかしながら、例えば、他の移動物体に囲まれてしまっていずれのカメラからも当該箇所が撮影されなくなる状況は容易に発生し得る。即ち、複数視点によっても床や地面に接した箇所がいずれかのカメラに映ることは何ら保証されない。また、カメラを必ず複数台使用しなければならないので、導入・運用コストが単眼カメラに比べて高くなってしまうとの問題も生じる。
さらに、特許文献1及び特許文献2に記載された技術はいずれも、画像内での物体相当の領域の移動量を考慮して追跡を行っており、従って、実空間における移動量は考慮していない。その結果、画像内で推定位置に誤差が生じた場合に、画像内での移動量が僅かであったとしても、実空間での移動量が、現実にはほとんどあり得ないような急激な変化を示すものになってしまうという問題が生じ得る。
そこで、本発明は、取得される画像群を用いて、実空間における高い位置精度を維持しつつ物体を追跡することができる装置、プログラム及び方法を提供することを目的とする。
本発明によれば、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置であって、
取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含むデータセットによって学習する識別器であって、物体追跡対象の画像毎に、当該画像に係る画像情報を入力することによって少なくとも当該物体の実空間での正解とされる位置情報を出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段を有する物体追跡装置が提供される。
この本発明による物体追跡装置の一実施形態として、1つの時刻での当該物体動き情報として、少なくとも当該物体の実空間での位置における前時刻からの変化分を採用し、当該1つの時刻における互いに変化分の異なる複数の候補物体動き情報を算出する候補情報算出手段を更に有し、
物体追跡手段の識別器は、
(a)当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、
(b)当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけ(appearance)の近さを評価する項と
を有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時刻での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時刻における当該物体の実空間での位置に係る正解の位置情報として出力することも好ましい。
また、本発明による物体追跡装置の他の実施形態として、候補情報算出手段は、当該1つの時刻での当該物体動き情報として、当該物体の実空間での位置における前時刻からの変化分と、当該物体の高さにおける前時刻からの変化分とを採用して、当該1つの時刻における少なくとも変化分の1つが異なる複数の候補物体動き情報を算出し、
物体追跡手段の識別器は、
(a)当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、
(b)当該物体の高さの変化分を変数とする確率密度関数に係る項と、
(c)当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけの近さを評価する項と
を有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時刻での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時刻における当該物体の実空間での位置及び当該物体の高さに係る正解の情報として出力することも好ましい。
さらに、本発明による物体追跡装置の更なる他の実施形態として、候補情報算出手段は、当該1つの時刻での当該物体動き情報として、当該物体の実空間での位置における前時刻からの変化分と、当該物体の高さにおける前時刻からの変化分とを採用して、当該1つの時刻における少なくとも変化分の1つが異なる複数の候補物体動き情報を算出し、
物体追跡手段の識別器は、
(a)当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、
(b)当該物体の高さの変化分を変数とする確率密度関数に係る項と、
(c)当該物体に係る画像領域における当該物体の動き(motion)による変化と当該物体動き情報に係る変化分とが合致する度合いを評価する項と、
(d)当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけの近さを評価する項と
を有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時刻での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時刻における当該物体の実空間での位置及び当該物体の高さに係る正解の情報として出力することも好ましい。
また、以上に述べた各実施形態において、候補情報算出手段は、当該1つの時刻での当該物体動き情報として、当該物体の傾きにおける前時刻からの変化分を更に採用し、
物体追跡手段の識別器は、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時刻における当該物体の傾きに係る正解の情報をも含む情報として出力することも好ましい。
さらに、以上に述べた各実施形態において、取得された画像に基づいて当該物体を検出し、検出された当該物体に係る画像領域の最下位置に基づいて、当該物体の実空間での位置としての当該物体の接地位置を算出し、検出された当該物体に係る画像領域の最上位置に基づいて算出された実空間での位置と、算出された設置位置とに基づいて、当該物体の高さを算出する物体検出部を更に有することも好ましい。
さらに、以上に述べた各実施形態において、物体追跡手段の識別器は、学習によって当該評価関数の各項の重み係数を決定し、決定された重み係数を有する評価関数を用いて、入力した当該画像に係る画像情報を処理して、出力する物体動き情報を算出することも好ましい。
また、本発明による物体追跡装置において、物体追跡手段の識別器は、1つの時刻の前時刻において、正解として出力された物体動き情報を用いて生成されたデータセットによって学習を行い、当該1つの時刻における当該画像に係る画像情報を入力して、当該画像情報を、当該学習によって決定されたパラメータを用いて処理し、当該1つの時刻における正解となる物体動き情報を出力することも好ましい。
さらに、本発明による物体追跡装置において、物体追跡手段の識別器は、当該物体に係る画像領域として、実空間における当該物体の上端から当該物体の高さの所定割合だけ下方となる位置までの物体部分を座標変換して算出された画像領域を採用することも好ましい。
さらにまた、本発明による物体追跡装置において、物体追跡手段の識別器は、構造化SVM(Structured Support Vector Machine)のアルゴリズムによって構築されることも好ましい。
本発明によれば、さらに、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置に搭載されたコンピュータを機能させるプログラムであって、
取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含むデータセットによって学習する識別器であって、物体追跡対象の画像毎に、当該画像に係る画像情報を入力することによって少なくとも当該物体の実空間での正解とされる位置情報を出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段
としてコンピュータを機能させる物体追跡プログラムが提供される。
本発明によれば、さらにまた、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用い、機械学習の識別器によって当該物体を追跡する方法であって、
取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含むデータセットによって識別器に学習させるステップと、
識別器に対し、物体追跡対象の画像に係る画像情報を入力することによって少なくとも当該物体の実空間での正解とされる位置情報を出力させるステップと
を繰り返し、当該物体の実空間での刻々の位置情報を取得する物体追跡方法が提供される。
本発明の物体追跡装置、プログラム及び方法によれば、取得される画像群を用いて、実空間における高い位置精度を維持しつつ物体を追跡することができる。
本発明による物体追跡装置を含む物体追跡システムの一実施形態を示す模式図である。 本発明による物体追跡装置の一実施形態における処理の流れを概略的に示すフローチャートである。 本発明による物体追跡装置の一実施形態における機能構成を示す機能ブロック図である。 高さ算出部における物体の高さを算出する方法の一実施形態を示す模式図である。 取得される時系列の画像と追跡用識別器での識別機能との関係を概略的に示す模式図である。 追跡対象物体を画像座標系へ投影する一実施形態を説明するための模式図である。 物体動き情報における実空間での変化分に係る要素と物体モデルとの関係を示す模式図である。 実空間での位置に係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。 実空間での高さに係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。 画像座標系での傾きに係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。 評価関数における位置変化分の確率密度関数の一実施例を示すグラフである。 評価関数における高さ変化分の確率密度関数の一実施例を示すグラフである。 差分画像の一実施例を示すイメージ図である。 画像領域xt|ytの見かけの特徴ベクトル化の一実施例を示す模式図である。
以下、本発明の実施形態について、図面を用いて詳細に説明する。
[物体追跡システム]
図1は、本発明による物体追跡装置を含む物体追跡システムの一実施形態を示す模式図である。
図1に示した本実施形態の物体追跡システムは、
(a)追跡対象の物体を撮影可能であり、撮影した画像の情報を、通信ネットワークを介して時系列で送信可能な1つ又は複数のカメラ2と、
(b)カメラ2から通信ネットワークを介して取得される時系列の画像群を用いて当該物体を追跡可能な物体追跡装置1と
を備えている。
ここで、追跡対象となる物体には、人物、動物、乗り物や、その他移動可能な物理対象等、撮影可能であれば様々なものが該当する。特に、本実施形態では、立ったり座ったり屈んだりしてその全体の形状が変化し得る人物や動物等であってもよい。さらに、撮影される場所も、特に限定されるものではなく、例えば、観客、通勤者、買い物客、歩行者や、ランナー等が映り得る屋外であってもよいが、着席したりお辞儀をしたりする場面が想定されるような会社、学校、家庭や、店舗の内部といった屋内であることも好ましい。
また、画像情報の伝送路である通信ネットワークは、例えばWi−Fi(登録商標)等の無線LAN(Local Area Network)とすることができる。または、LTE(Long Term Evolution)、WiMAX(Worldwide Interoperability for Microwave Access)又は3G(3rd Generation)等の無線系アクセスネットワークを介し、インターネットを経由してカメラ2と物体追跡装置1とを通信接続させるものであってもよい。
さらに、光ファイバ網若しくはADSL(Asymmetric Digital Subscriber Line)等の固定系アクセスネットワークを介しインターネットを経由して、又はプライベートネットワークを介してカメラ2と物体追跡装置1とが通信接続されてもよい。また、変更態様として、カメラ2と物体追跡装置1とは直接有線で接続されてもよい。さらに、複数のカメラ2から出力される画像情報を取りまとめて物体追跡装置1に送信可能な(図示していない)カメラ制御装置が設けられていてもよい。
同じく図1に示すように、物体追跡装置1は、刻々と取得される物体追跡対象の画像毎に、
(A1)この画像に係る画像情報を入力することによって少なくとも追跡対象物体の実空間での正解とされる位置情報を出力する追跡用識別器114aによって、少なくとも追跡対象物体の実空間での刻々の位置情報を取得する物体追跡部114
を有する。
ここで、この追跡用識別器114aは、
(A2)取得された画像に係る画像情報と、追跡対象物体の実空間での位置に係る位置情報を含む正解とされる「物体動き情報」とを含むデータセットによって学習する
ことによって構築され更新される。この「物体動き情報」は、後に詳細に説明するが、少なくとも追跡対象物体の実空間での位置における前時刻からの変化分Δpx t及びΔpy tを要素として含む量である。
このように、物体追跡装置1は、取得された画像に係る画像情報のみならず、実空間(観測対象空間)での追跡対象物体の位置情報を含む「物体動き情報」をも考慮して追跡を行っている。例えば、画像内での物体相当の画像領域の変化だけではなく、実空間における物体相当領域の変化をも考慮して、即ち実空間上での制約も取り入れて、追跡対象物体の実空間での刻々の位置情報を推定しているのである。その結果、画像内で推定位置に誤差が生じた場合に、画像内での移動量が僅かであったとしても、実空間での移動量が、現実にはほとんどあり得ないような急激な変化を示すものになってしまうといった事態を回避することができる。即ち、実空間を考慮した「物体動き情報」を取り入れることによって、取得される画像群を用いながらも、実空間における高い位置精度を維持しつつ物体を追跡することが可能となるのである。
因みに、「物体動き情報」における追跡対象物体の実空間での位置の前時刻からの変化分Δpx t及びΔpy t等を算出するには、画像での位置情報を実空間での位置情報に変換しなければならない。物体追跡装置1では、画像内に張られた画像座標系u-vでの位置座標(u, v)を、実空間に張られた世界座標系Gx-Gy-Gzでの位置座標(gx, gy, gz)へ変換する座標変換操作を用いて、追跡対象物体の映った画像情報から、実空間での位置の変化分等の位置情報を算出している。
例えば、追跡対象物体の画像内における前時刻(t−1)での位置(u, v)が、現時刻tでの位置(u', v')へ変化した場合、この物体は、実空間(観測対象空間)において前時刻(t−1)での位置(gx, gy, gz)から現時刻tでの位置(gx', gy', gz')へ移動したことが推定され、実空間での位置の前時刻(t−1)からの変化分を取得することができる。
ここで、使用する時刻は、単位時間を1としてこの単位時間経過毎に設定される時刻であり、時刻tの1つ前となる前時刻はt-1となる。また、上記のような画像座標系から世界座標系への座標変換は、予めキャリブレーションにより各カメラ2についての設置位置及び撮影向きに係る外部パラメータを設定しておくことによって決定することが可能である。尚、複数のカメラ2のそれぞれから画像が取得される場合でも、これらの画像を統合して1つの画像空間を構築し、この画像空間に画像座標系を適用することができる。
さらに、物体追跡装置1では、追跡用識別器114aに対し、カメラ2から取得した時系列の各画像を用いて即座に、即ちオンラインで学習させることができる。その結果、追跡対象物体の位置を即座に把握して追跡を行うことが可能となるのである。さらに、刻々と学習する追跡用識別器114aを用いて追跡を行うので、対象物体の見え方が刻々と変化しても、同一の物体であると認識することができ、例えば当該物体に固有の識別子IDを付与し続けながら、適切な追跡を続行することが容易になる。
因みに、上記(A1)に示したように、物体追跡部114の追跡用識別器114aが入出力する画像情報、及び実空間での位置情報(「物体動き情報」)は、共に内部に構造をもったデータである。即ち、追跡用識別器114aは構造学習に基づいて実空間での正解とされる情報を出力可能となっている。このように、物体追跡装置1は、実空間とカメラ画像との間の構造関係を考慮した構造学習に基づき物体の識別を行うことによって、例えば後に詳述するように追跡対象物体における高さや形状の変化が起こった場合にも、例えば固有の識別子IDを付与し続けながら、正確な実空間での位置をもって追跡することを可能にするのである。
[装置機能概要]
図2は、本発明による物体追跡装置の一実施形態における処理の流れを概略的に示すフローチャートである。
図2によれば、本実施形態の物体追跡装置1は、カメラ2から解析対象の画像を取得した際、追跡対象の物体に対応した学習済みの追跡用識別器114a(図1)に対して当該画像を入力し、正解としての「物体動き情報」を出力させて当該物体を追跡する。ここで、追跡対象物体の数だけの追跡用識別器114aが使用される。この際、各物体には当該物体固有の識別子IDが継続して付与されることになる。
さらに、物体追跡装置1は、追跡用識別器114aから出力された正解の「物体動き情報」と、取得した画像とを教師データセットとして用い、追跡用識別器114aにオンライン学習を行わせる。
また、物体追跡装置1は、上記の追跡処理と並行して、検出処理を行う。具体的には、新規の又は追跡されていない可能性のある物体が、取得された画像上に写っていないか否かを学習済みの検出用識別器を用いて判定し、このような物体の領域が当該画像上に出現した際に当該物体を検出したとする。
物体が検出された際、物体追跡装置1は、新規に追跡を開始する前に、検出された物体と過去に追跡していた物体との類似度を算出し、この類似度が所定値以上である場合に、一旦追跡が終了した物体が撮影可能な空間内に復帰したとみなす。この場合、類似度の高い過去の物体と同一の識別子IDを検出物体に付与して、即ち識別子IDを統合して追跡を再開する。一方、算出した類似度が所定値よりも小さい場合、新規の物体が撮影可能な空間内に出現したとみなし、新規の識別子IDを検出物体に付与する。
物体追跡装置1は、次いで、時系列で再び新たな画像を取得して、図2に示したような処理のサイクルを繰り返す。
以上に説明したように、物体追跡装置1は、1つ以上のカメラ2からの時系列画像群を用いて追跡と同時に検出処理も行っているので、物体における様々の状況に合わせて、的確な且つ統合的な追跡を実施することができる。
[装置構成、物体追跡方法]
図3は、本発明による物体追跡装置の一実施形態における機能構成を示す機能ブロック図である。
図3によれば、物体追跡装置1は、1つ又は複数のカメラ2と通信接続可能な通信インタフェース101と、画像蓄積部102と、ID蓄積部103と、追跡物体管理部104と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、物体追跡装置1のコンピュータを機能させるプログラムを実行することによって、物体追跡機能を実現させる。
さらに、プロセッサ・メモリは、機能構成部として、物体検出部111と、ID(識別子)管理部112と、候補情報算出部113と、物体追跡部114と、物体位置・形状推定部115と、通信制御部121とを有する。ここで、物体検出部111は、検出用識別器111aと、高さ算出部111bとを有することも好ましい。さらに、ID管理部112は、物体統合部112aと、物体登録部112bとを有することも好ましい。さらにまた、物体追跡部114は、追跡用識別器114aと、教師データセット生成部114bとを有することも好ましい。尚、図3における物体追跡装置1の機能構成部間を矢印で接続して示した処理の流れは、本発明による物体追跡方法の一実施形態としても理解される。
カメラ2は、例えば、CCDイメージセンサ、CMOSイメージセンサ等の固体撮像素子を備えた可視光、近赤外線又は赤外線対応の撮影デバイスである。また、カメラ2又は(図示していない)カメラ制御装置は、カメラ2で撮影された物体の画像を含む撮影画像データを生成し、当該データを時系列に又はバッチで物体追跡装置1に送信する機能を有する。また、カメラ2は、可動であって設置位置、撮影向きや高さを変更することができ、この変更のための制御信号を受信し処理する機能を有していることも好ましい。
通信インタフェース101は、カメラ2又はカメラ制御装置から時系列の画像群である撮影画像データを、通信ネットワークを介して受信する。通信インタフェース101を使用した送受信及び通信データ処理の制御は、通信制御部121によって行われ、取得された撮影画像データは、画像蓄積部102に蓄積される。ここで、この撮影画像データは、カメラ2又はカメラ制御装置から時系列順に呼び出されて取得されたものであってもよく、リアルタイムに一定時間間隔でキャプチャされた画像を順に取得したものであってもよい。
物体検出部111は、所定の特徴量を用いて学習を行った検出用識別器111aによって、物体識別対象の画像における出現した又は追跡されていない物体を検出可能な機能部である。具体的には、画像蓄積部102に蓄積された画像において、追跡対象となる物体に対応する画像領域を検出する。ここで、人物を追跡対象とする場合、学習には人物検出に適した特徴量を用いる。物体検出のための特徴量としては、例えばHOG特徴量を使用することも好ましい。HOG特徴量は、画像の局所領域における輝度の勾配方向をヒストグラム化し、各度数を成分としたベクトル量である。HOG特徴量を用いた人物検出技術については、例えば、非特許文献であるDalal. N及びTriggs. B、「Histograms of Oriented Gradients for Human Detection」、proceedings of IEEE Computer Vision and Pattern Recognition (CVPR)、pp.886-893、2005年に記載されている。
物体検出部111は、また、画像蓄積部102から入力した画像から物体を検出した際、新規登録の可能性がある検出した物体の情報をID管理部112へ通知し、登録を依頼する。
さらに、物体検出部111は高さ算出部111bを有する。高さ算出部111bは、検出された追跡対象物体に係る画像領域の最下位置(例えば最下ピクセル位置)に基づいて、この物体の実空間での位置としての接地位置を算出し、検出された物体に係る画像領域の最上位置(例えば最上ピクセル位置)に基づいて算出された実空間での位置と、算出された設置位置とに基づいて、この物体の高さh0を算出する。次に、高さh0の算出の一実施形態を詳しく説明する。
図4は、高さ算出部111bにおける物体の高さh0を算出する方法の一実施形態を示す模式図である。尚、本実施形態では、最初に、物体の検出は、物体が標準的な形状であり、且つ画像内において床や地面に接している箇所(設置位置)が明らかな場合に行われる。例えば、人物であれば直立していて足元が映っている人物のみを検出する。画像内で物体を検出した際、実空間における標準形状でのこの物体の高さを推定する。
ここで、図1に示したような画像に張られた画像座標系での座標(u, v)と、実空間(観察対象空間)に張られた世界座標系での座標(gx, gy, gz)との間には、次式
Figure 2016206795
の関係が成立する。上式(1)において、行列Pは予め決定された透視投影行列であり、sは未知のスカラ変数である。この際、各カメラ2の内部パラメータ及び外部パラメータをキャリブレーションによって予め設定しておけば、カメラ2の位置・姿勢が変わらない限り、透視投影行列Pは当初設定された値をとり続ける。
上式(1)を用いて、2次元の画像座標系での座標から3次元の世界座標系での座標を求める際、画像座標系での座標(u, v)及び透視投影行列Pが定まっているだけでは、未知パラメータの数(4つ)が観測方程式の数(3つ)よりも多いので、世界座標系での座標(gx, gy, gz)を一意に決定することはできない。
しかしながら、本実施形態では、図4に示したように、検出された物体について画像内で床や地面に接している接地位置(ub 0, vb 0)が取得される。従って、この接地位置(ub 0, vb 0)及びgz=0を式(1)に代入することによって、接地位置(ub 0, vb 0)に対応する実空間上の位置(gx 0, gy 0, 0)を一意に取得することができる。ここで、実空間での物体の高さをh0とすると、取得された実空間の床面又は地面での位置座標gx 0及びgy 0と、画面座標系での物体の最上部の点(uh 0, vh 0)との間に、次式の関係が成立する。
Figure 2016206795
上式(2)において、未知のパラメータはs及びh0の2つのみであり、一方、観測方程式の数は3つであることから、この式を用いて実空間での高さh0を求めることが可能となる。尚、この際、s及びh0の値を、最終的に最小二乗法を用いて決定することも好ましい。
以上説明したように、物体検出部111の高さ算出部111bは、例えば、1.人物を画像内で検出(抽出)した際、2.人物モデルを実空間に投影して足元の世界座標系での座標を決定し、3.人物の身長、即ち標準的な形状での高さh0を算出することができるのである。
図3に戻って、ID管理部112は、物体統合部112aと、物体登録部112bとを有する。このうち物体統合部112aは、物体検出部111から通知のあった検出された物体と、過去に識別子IDを付与された既知物体とを比較し、検出された物体に対し、同一物体であると判定された既知物体に付与された識別子IDを付与する旨を決定する。
物体統合部112aは、具体的に、
(a)(例えば複数のカメラ2から取得された)物体識別対象の画像から算出される両物体間の実空間での距離dが、既知物体の移動速度vを考慮した現時点での両物体間の推定距離未満であって、且つ検出された物体の領域と既知物体の領域とから決定される類似度が所定閾値よりも大きい場合、この既知物体が現在追跡されていないならば、検出された物体に対し、既知物体に付与されたものと同一の識別子IDを付与することを決定する。
(b)一方、上記(a)において、この既知物体が現在追跡されているならば、物体検出部111からの通知を無視し、新規登録は行わない。
(c)上記(a)及び(b)以外の場合、検出された物体に対し、新たな識別子IDを付与することを決定する。
一方、物体登録部112bは、識別子ID付与の決定された物体に識別子IDを付与し、当該物体を登録し管理する。ここで、検出された物体の画像領域に係る情報と、付与された識別子IDとが対応付けられてID蓄積部103に保存されることも好ましい。尚、上記(a)における類似度は、追跡中に学習された各物体に対応する識別器を用いて算出されてもよい。また、後に詳細に説明するものではあるが、各物体に対応する評価関数Fのうち見かけ(appearance)の近さをスコア化する関数Ψ(xt|yt)の値を用いて算出されることも好ましい。
候補情報算出部113は、1つの時刻tでの「物体動き情報」として、少なくとも
(a)追跡対象物体の実空間での位置における前時刻(t−1)からの変化分Δpx t及びΔpy t
を採用し、この1つの時刻tにおける互いに変化分の異なる複数の「候補物体動き情報」を算出する。ここで、追跡用識別器114aを用いてこの複数の「候補物体動き情報」の中から最適な1つを決定することによって、当該1つの時刻tでの追跡対象物体の位置を推定することができるのである。
また、変更態様として、候補情報算出部113は、1つの時刻tでの「物体動き情報」として、
(b)上記(a)の変化分Δpx t及びΔpy tと、追跡対象物体の高さにおける前時刻(t−1)からの変化分Δht
を採用して、この1つの時刻tにおける少なくとも変化分の1つが異なる複数の「候補物体動き情報」を算出してもよい。さらに、
(c)上記(a)の変化分Δpx t及びΔpy tと、上記(b)の変化分Δhtと、追跡対象物体の傾きにおける前時刻(t−1)からの変化分Δatとからの変化分と
を採用して、この1つの時刻tにおける少なくとも変化分の1つが異なる複数の「候補物体動き情報」を算出することも好ましい。尚、「物体動き情報」及び「候補物体動き情報」の具体例については、後に図8〜10を用いて詳細に説明する。
同じく図3において、物体追跡部114は、追跡用識別器114aを用いて、追跡対象物体の実空間での刻々の位置情報を取得する。具体的には、取得された画像中のある領域に追跡対象物体が映っているか否かを例えば2値判定する追跡用識別器114aを用い、未知の画像中に追跡対象物体が映っていると認識される領域を推定していくことで物体追跡を行う。
ここで、追跡用識別器114aは、
(a)取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含む教師データセットによってオンライン学習を行い、
(b)物体追跡対象の画像毎に、当該画像に係る画像情報を入力することによって少なくとも追跡対象物体の実空間での正解とされる位置情報を出力する。
尚、上記(a)の教師データセットは、教師データセット生成部114bによって生成される。
このように、追跡用識別器114aは、上記(a)及び(b)を繰り返し実行することによって、新たに画像が読み込まれる毎に、オンラインで学習しつつこの読み込み時刻での物体の位置情報を出力することを可能にする。
図5は、取得される時系列の画像と追跡用識別器114aでの識別機能との関係を概略的に示す模式図である。
図5によれば、追跡用識別器114aは、取得される時系列の各画像を用いて刻々に学習を行う。追跡用識別器は、構造データの取り扱いが可能な教師あり機械学習であれば種々のもので構築可能であるが、例えば構造化サポートベクタマシン(SVM,Structured Support Vector Machine)のアルゴリズムによって構築されていることも好ましい。
具体的に学習の内容としては、追跡対象物体の領域に対応付けられる特徴量としての「物体動き情報」に正のラベルを付与し、それ以外の領域に対応付けられる「物体動き情報」に負のラベルを付与して、これらの特徴量を特徴空間内に配置する。次いで、特徴空間内においてラベルの正負を区分けする識別超平面を算出する。このように学習によって取得した識別超平面を基準として、以後、判定を実施することができる。例えば、時刻tにおける画像領域の判定は、時刻ゼロから時刻(t-1)までの間オンライン学習を行ってきた追跡用識別器114aを用いて実施される。
ここで、特徴空間内における当該特徴量と識別超平面との距離dは、後に詳細に説明する評価関数Fの値(スコア)に相当する。次に、上記の「物体動き情報」yについて説明する。
最初に、推定関数y=f(x)として、
(3) f(x)=argmaxy∈YF(x, y)
を採用する。これにより、画像xが与えられると、推定関数fはyを出力する。ここで、F(x, y)は、上述した評価関数であるが、本実施形態におけるその具体的な形は、後に式(6)に示す。
本実施形態では、時刻tにおける画像をxtとした際に、この時刻tでの物体動き情報ytを、
(4) yt=(Δpx t, Δpy t, Δht, Δat)
と定義する。上式(4)において、パラメータΔpx tは、追跡対象物体における世界座標系のGx軸方向での前時刻(t−1)からの位置の変化分であり、パラメータΔpy tは、追跡対象物体における世界座標系のGy軸方向での前時刻(t−1)からの位置の変化分である。また、パラメータΔhtは、追跡対象物体における(世界座標系のGz軸方向での)高さの変化分である。さらに、パラメータΔatは、追跡対象物体の傾きの角度における前時刻(t−1)からの変化分である。この傾きの角度は、例えば人物でいえばお辞儀の際の傾き角に相当し、世界座標系で言えばGz軸を含む面内での角度となる。
尚、パラメータΔatについても、他のパラメータと同じく実空間(世界座標系)での値を用いてもよいが、以下の実施形態では、画像内(画像座標系)での値を用いるものとする。即ち、Δatは、追跡対象物体が画像座標系に投影された際の角度値の変化分となる。このように、Δatとして画像内(画像座標系)での値を採用することによって、角度変化分を1次元で考えることができるので、物体動き情報ytの推定の際の候補数が極端に増大するのを回避し、計算量を抑えることが可能となる。また、パラメータΔhtも、Δatと同じく、追跡対象物体が画像座標系に投影された際の画像上での高さの変化分とすることも可能である。
次に、これらのパラメータ(物体動き情報)と画像座標系での対応する画像領域との関係について説明する。
図6は、追跡対象物体を画像座標系へ投影する一実施形態を説明するための模式図である。
ある時刻tにおける候補となるパラメータベクトルである候補物体動き情報ytと、取得された画像xtとは、図6に示したような関係を有する。ここで、前時刻(t−1)において決定(出力)された物体動き情報の最適解をyt-1*=(Δpx t-1*, Δpy t-1*, Δht-1*, Δat-1*)とする。
図6に示すように、最初に、追跡対象物体については、床又は地面への設置位置である物体位置に、対応する3次元の物体モデルが存在するものとしている。この物体モデルは、予め定められた標準的なおおよその物体の形を表したものであり、モデル表面を表す3次元空間内の点の集合となっている。この物体モデルの初期の(時刻ゼロでの)高さはh0であり、この物体の時刻(t−1)における高さht-1*は、
(5) ht-1*=h0+ΣΔhk*
となる。ここで、Σはkについての1からt−2までの総和である。時刻tにおける物体モデルの高さhtは、ht-1*からΔhtだけ変化した値(ht-1*−Δht)となっている。
本実施形態では、この物体モデルのうち、上端から長さαh0の範囲となる上部を画像座標系へ投影する。αは予め定められた1以下の正の((0, 1]の範囲内の)定数である。ここで、物体モデル(部分)を画像座標系へ投影するとは、物体モデル(の部分)の表面に相当する点集合を画像座標系へ変換することである。さらに、物体モデル(部分)を画像座標系へ投影した結果の画像領域とは、物体モデル(の部分)の表面の点集合に対応する変換された画面上の点集合によって囲われる画像内の領域のことである。
即ち、追跡用識別器114a(図3)は、学習及び判定の際の追跡対象物体に係る画像領域として、実空間における当該物体の上端から高さh0の所定割合αだけ下方となる位置までの物体部分を座標変換して算出された画像領域を採用するのである。一般に、撮影画像においては、物体が床や地面に接している箇所は、例えば、机、テーブル、人物や車といった他の物体の背後に回り隠れてしまうことも少なくない。しかしながら、本実施形態によれば、設置位置が隠れて見えない状況でも追跡対象物体の上部を追跡するので、当該物体の位置や高さを継続して認識し続けることが可能となる。
ここで、物体モデルにおける画像座標系へ投影された上部に相当する時刻(t−1)での画像領域を、ある基準点を中心にΔatだけ画像上で回転させた領域を、以下、xt|ytと表す。即ち、xt|ytは、画像xtにおいて物体動き情報がyt=(Δpx t, Δpy t, Δht, Δat)である場合に、画像内に映る物体モデルの上部に相当する画像領域である。
次に、複数の候補物体動き情報を生成して時刻tにおける最適解yt*を決定するための探索方法について説明する。
図7は、物体動き情報における実空間での変化分に係る要素と物体モデルとの関係を示す模式図である。
物体動き情報ytにおけるΔpx t、Δpy t及びΔhtは、既に説明したように、前時刻(t−1)から時刻tまでの間における物体位置及び高さの変化分であるが、図7に示すように、それぞれ床又は地面上のGx軸方向での変化分、床又は地面上のGy軸方向での変化分、Gz軸方向での変化分に相当する。
図8は、実空間での位置に係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。因みに、以下に(図8〜10で)示す複数の候補物体動き情報のうち、上式(3)f(x)=argmaxy∈YF(x, y)を満たすものが最適解(正解)となる。
図8によれば、実空間での位置変化分Δpx t及びΔpy tの互いに異なる複数の候補物体動き情報ytが、円形状のグリッドサンプリングによって取得されている。
具体的に、Δpx t及びΔpy tの組は、前時刻(t−1)での床又は地面上の位置を中心に構成された円形グリッドにおいて、所定範囲内にある格子点に相当する値の組として複数決定される。例えば、半径rが3、4又は5(所定単位)であって方位角θが0から10°刻みで350°までの値をとるとした場合の円形グリッド格子点(r, θ)に相当する値の組(Δpx t, Δpy t)を有するytを候補物体動き情報としてもよい。因みに変更態様として、候補物体動き情報ytにおける実空間での位置変化分を極座標表示で、即ちΔrt及びΔθtとして表示してもよい。尚、半径rについてどのような範囲の値をとるかについては、前時刻(t−1)での物体モデルの移動速度を算出し、この値に基づいて時刻tであり得る値範囲を設定して決定することも好ましい。例えば、移動速度がゼロであったならば、半径rはゼロから始まる値の組をとるものとする。
以上説明したように、候補となる位置変化分の決定した人物モデルは、図8に示すように、上部αh0の部分のみが画像座標系に投影される。このように投影された複数の画像領域が、画像xtでの複数の候補領域となる。
図9は、実空間での高さに係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。
図9によれば、実空間での高さ変化分Δhtの互いに異なる複数の候補物体動き情報ytが取得されている。
具体的に、Δhtは、前時刻(t−1)での高さht-1*からの高さ変化分であり、複数のバリエーションの高さ変化分として複数の候補値をとる。例えば、固定変化分Δhを予め設定しておき、Δhのプラス・マイナス係数倍を高さ変化分の複数候補とすることができる。この際、係数値も所定範囲内で変化させる。尚、候補となる高さ変化分の決定した人物モデルは、図9に示すように、上部αh0の部分のみが画像座標系に投影される。このように投影された複数の画像領域が、画像xtでの複数の候補領域となる。
図10は、画像座標系での傾きに係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。
図10によれば、画像座標系に投影された物体モデルの上部の画像領域xt|ytについて、傾きの変化分Δatの互いに異なる複数の候補物体動き情報ytが取得されている。このような候補物体動き情報を考慮することにより、例えば、追跡対象物体が人物である場合に、体を腰から傾けるような形状変化にも対応して追跡を行うことができる。
具体的に、Δatは、前時刻(t−1)での画像領域xt|ytの向きからの傾き変化分であり、複数のバリエーションの傾き変化分として複数の候補値をとる。例えば、固定変化分Δaを予め設定しておき、Δaのプラス・マイナス係数倍を傾き変化分の複数候補とすることができる。この際、係数値も所定範囲内で変化させる。尚、候補となる傾き変化分の決定した人物モデルは、上部αh0の部分のみが画像座標系に投影される。このように投影された複数の画像領域が、画像xtでの複数の候補領域となる。
以上、図8〜10を用いて候補物体動き情報ytの生成を説明したが、上式(3)f(x)=argmaxy∈YF(x, y)を満たす最適解yt*を得るための探索では、上述したような変化分Δpx t, Δpy t, Δht及びΔatの候補値における全ての組合せであるy(∈Y)に関して評価関数Fの値、即ちスコアを算出し、算出されたスコアのうち最大のものを導出するyを最適解yt*とすることになる。
尚、このスコア算出においては、候補が多数になると計算コストが増大するため、予め所定の前提を設けて変化分の組合せ数を限定し、計算コストを軽減させることも好ましい。例えば、観察対象空間での状況から人物の形状変化は着席によるものであると前提することができる場合、着席する際には歩行を停止するとの事前知識に基づき、着席に伴う高さ変化分や傾き変化分の候補を設定するのは、床や地面における位置に変化がない場合に限定することができる。即ち、この場合、(Δpx t, Δpy t)の候補に限って、Δht及びΔatに複数の候補値を設定するので、候補y(∈Y)の全数を減少させることができる。
以下、評価関数Fを用いた追跡対象物体の追跡について説明する。
図3に戻って、物体追跡部114の追跡用識別器114aは、1つの実施形態として、
(a)追跡対象物体の実空間での位置の変化分Δpx t及びΔpy tを変数とする確率密度関数Ppに係る項と、
(b)追跡対象物体に係る画像領域に対する候補物体動き情報から算出される画像領域xt|ytの見かけ(appearance)の近さを評価する項と
を有する評価関数Fに対し、入力された複数の候補物体動き情報(Δpx t, Δpy t)及び時刻tでの画像に係る画像情報を適用し、評価関数Fのスコアを最大にする候補物体動き情報を、時刻tにおける当該物体の実空間での位置に係る正解の位置情報Δpx t*及びΔpy t*として出力してもよい。
また、変更態様として、評価関数Fに適用される候補物体動き情報を(Δpx t, Δpy t, Δat)とし、追跡用識別器114aが、時刻tにおける追跡対象物体の傾きに係る正解の情報Δat*をも含む情報を出力することも好ましい。
さらに、追跡用識別器114aは、他の実施形態として、上記(a)の項と、上記(b)の項と、さらに、
(c)追跡対象物体の高さの変化分Δhtを変数とする確率密度関数Phに係る項と
を有する評価関数Fに対し、入力された複数の候補物体動き情報(Δpx t, Δpy t, Δht)及び時刻tでの画像に係る画像情報を適用し、評価関数Fのスコアを最大にする候補物体動き情報を、時刻tにおける当該物体の実空間での位置及び高さに係る正解の情報Δpx t*、Δpy t*及びΔht*として出力してもよい。
また、変更態様として、評価関数Fに適用される候補物体動き情報を(Δpx t, Δpy t, Δht, Δat)とし、追跡用識別器114aが、時刻tにおける追跡対象物体の傾きに係る正解の情報Δat*をも含む情報を出力することも好ましい。
さらに、追跡用識別器114aは、更なる他の実施形態として、上記(a)の項と、上記(b)の項と、上記(c)の項と、さらに、
(d)追跡対象物体に係る画像領域における当該物体の動き(motion)による変化と物体動き情報に係る変化分とが合致する度合いを評価する項と
を有する評価関数Fに対し、入力された複数の候補物体動き情報(Δpx t, Δpy t, Δht)及び時刻tでの画像に係る画像情報を適用し、評価関数Fのスコアを最大にする候補物体動き情報を、時刻tにおける当該物体の実空間での位置及び高さsに係る正解の情報Δpx t*、Δpy t*及びΔht*として出力してもよい。
また、変更態様として、評価関数Fに適用される候補物体動き情報を(Δpx t, Δpy t, Δht, Δat)とし、追跡用識別器114aが、時刻tにおける追跡対象物体の傾きに係る正解の情報Δat*をも含む情報を出力することも好ましい。
ここで、以下に説明する実施形態では、評価関数Fとして、上記(a)〜(d)の全ての項を備えた次式
(6) F(xt, yt)=wpPp(Δpt-1*, Δpx t, Δpy t)+whPh(Δht-1*, Δht)
+wbΦ(xt-1|yt-1, xt|yt)+wsΨ(xt|yt)
を採用する。係数wp、wh、wb及びwsは学習によって決定される重みパラメータである。この関数値(スコア)が大きいほど、ytはより適した解(より正解に近い解)となる。次に、上式(6)右辺の各項を順次説明する。
図11は、評価関数Fにおける位置変化分の確率密度関数Ppの一実施例を示すグラフである。
上式(6)の評価関数Fの第1項におけるPp(Δpt-1*, Δpx t, Δpy t)は、図11に示すように、前時刻(t−1)での位置の変化分Δpt-1*=(Δpx t-1*, Δpy t-1*)から算出された時刻tでの位置変化分Δpx t及びΔpy tに関する確率密度関数である。具体的には、予め定められた分散共分散行列Σを用いてΔpx t-1*を平均とした2変量正規分布N(Δpx t-1*, Σ)として確率密度関数Ppを定義することができる。
このような所定の確率モデルに基づく確率密度関数Ppを評価関数Fに採用することによって、前時刻(t−1)での移動量から見て、起こり得る確率の十分に高い時刻tでの移動量を推測することが可能となっている。
図12は、評価関数Fにおける高さ変化分の確率密度関数Phの一実施例を示すグラフである。
上式(6)の評価関数Fの第2項におけるPh(Δht-1*, Δht)は、図12に示すように、前時刻(t−1)での高さの変化分Δht-1*から算出された時刻tでの高さ変化分Δhtに関する確率密度関数である。具体的には、予め定められた分散σを用いてΔht-1*を平均とした2変量正規分布N(Δht-1*, σ)として確率密度関数Phを定義することができる。
このような所定の確率モデルに基づく確率密度関数Phを評価関数Fに採用することによって、前時刻(t−1)での高さ変化量から見て、起こり得る確率の十分に高い時刻tでの高さ変化量を推測することが可能となっている。
次に、上式(6)の評価関数Fの第3項におけるΦ(xt-1|yt-1, xt|yt)は、パラメータΔpx t、Δpy t及びΔhtで定義される3次元の物体モデルを画像座標系に投影した結果としての領域をΔatだけ回転させた画像領域xt|ytに対し、評価を行う関数であり、差分画像を用いて画像内での移動を評価する関数である。
ここで、差分画像とは、画像xt-1上の点と画像xt上の対応する点との間の輝度値の差に相当する輝度値を有する点から構成される画像である。時刻tでの画像xtにおける点(u, v)の輝度値をxt(u, v)とすると、画像xt-1と画像xtの差分画像における各点(u, v)の輝度値xbg t-1,tは、次式
(7) xbg t-1,t(u, v)=|xt-1(u, v)−xt(u, v)|
で定義される。多くの場合に画像の輝度値はゼロから255までの範囲([0,255])内の値をとるように定義されることから、差分画像の各点の輝度値を、255で割り算することによってゼロから1までの範囲([0,1])に正規化した値としてもよい。
図13は、差分画像の一実施例を示すイメージ図である。図13に示したように、差分画像では、取得される画像上での物体の動きが反映された輝度分布が観察される。
このような差分画像に関係するΦ(xt-1|yt-1, xt|yt)は、次式
Figure 2016206795
で定義される。式(8)においては、画像領域Aから画像領域Bでもある点を除いた領域をA−Bとし、領域Cの面積(ピクセル数)を|C|としている。Φ(xt-1|yt-1, xt|yt)は、領域xt-1|yt-1であって領域xt|ytではない面積|xt-1|yt-1−xt|yt|がゼロでない場合、この面積部分の合計輝度値をこの面積(ピクセル数)で割り算した値、即ち差分画像における平均輝度値をとる。ここで、一般に、輝度値の差分は動きのあった領域で大きくなることから、領域xt|ytが実際に時刻tにおける物体相当の画像領域に近いほど、関数Φの値は大きくなる。その結果、関数Φによって、画像内での物体の移動に対し実空間での物体の移動が合致している度合いを評価することができる。
最後に、上式(6)の評価関数Fの第4項におけるΨ(xt|yt)は、パラメータΔpx t、Δpy t及びΔhtで定義される3次元の物体モデルを画像座標系に投影した結果としての領域をΔatだけ回転させた画像領域xt|ytに対し、評価を行う関数であり、追跡対象物体に係る画像領域に対する画像領域xt|ytの見かけ(appearance)の近さを評価する関数である。
画像領域xt|ytから算出される見かけのモデル化には、例えば領域内の色ヒストグラムやHaar-Like特徴を用いることができる。この際、領域内の見かけを特徴ベクトル化し、その近さを評価する。尚、Haar-Like特徴については、例えば非特許文献であるViola, P及びJones, M、「Rapid object detection using a boosted cascade of simple features」、proceedings of IEEE Computer Vision and Pattern Recognition (CVPR)、vol.1、pp.511-518、2001年に記載されている。
図14は、画像領域xt|ytの見かけの特徴ベクトル化の一実施例を示す模式図である。
図14によれば、画像領域xt|ytに対し、当該領域内のピクセルについての輝度ヒストグラムが生成されている。本実施例において生成された輝度ヒストグラムは、輝度値0〜255の範囲を複数の区間に分け、各区間に属する輝度値を有するピクセルの数(度数)を柱状グラフで示したものである。図14には、輝度範囲を6つの区間に分けた場合の例を示している。
ここで、特徴ベクトルは、各輝度区間の度数(ピクセル数)を成分としたベクトルで表される。図14の例では、6次元の特徴量ベクトルが生成される。尚、当然に、特徴ベクトルの内容及び次元は、この例に限定されるものではない。画像領域xt|ytの特徴を表す量ならば、種々のものが特徴ベクトルの成分として採用可能である。
次に、物体追跡部114の追跡用識別器114aにおける学習処理について説明する。
図3に戻って、物体追跡部114の追跡用識別器114aは、教師データセット生成部114bで生成される教師データセットを用いて、オンラインで学習する。具体的に、追跡用識別器114aは、検出時刻をゼロとした場合、物体追跡対象の画像xtを取得した時刻tにおいて、それ以前の時刻1、2、・・・及びt-1での正解データを時刻毎に毎回用いて学習を行って更新を繰り返した状態となっている。
具体的に、学習には構造学習のアプローチを用いる。構造学習とは、機械学習の一種であり、未知の入力から適切な構造関係(依存関係)を有するデータを出力する関数について学習を行う。追跡用識別器114aは、追跡対象物体について、実空間での位置・高さ情報と当該物体を画像内に投影した際の画像領域との構造関係を学習するものとなっている。本実施形態では、上式(3)f(x)=argmaxy∈YF(x, y)の評価関数F(x, y)による変換F:X→Yを学習するアルゴリズムとして構造化(Structured)SVMを用いる。尚、構造化SVMについては、例えば非特許文献であるIoannis Tsochantaridis、Thorsten Joachims、Thomas Hofmann及びYasemin Altun、「Large Margin Methods for Structured and Interdependent Output Variables」、Journal of Machine Learning Research 6、pp.1453-1484、2005年に記載されている。
学習用の教師データセットとしては、例えば、
(a)画像xjと、評価関数Fの値を最大とする正解物体動き情報yj*と、正解としての正のラベルである1との組(xj, yj*, 1)、及び
(b)画像xkと、評価関数Fの値を最小とする正解ではない物体動き情報ykと、正解ではない解としての負のラベルである−1との組(xk, yk, −1)
を用いることができる。ここで、組(xj, yj*, 1)及び組(xk, yk, −1)の総数、即ち、教師データセットの数はn個とし、以下、(xj, yj*)及び(xk, yk)を通して(xi, yi)(i=1, 2,・・・, n)と表現する。尚、上記(b)において、正解ではない物体動き情報ykとして、F値を最大にはしないykを用いることも可能である。
ここで、評価関数Fの重みパラメータw=(wp, wh, wb, ws)は、次式
Figure 2016206795
の形で定義される目的関数の最適化によって導出される。上式(9)においてL(y)は損失関数であって、次式
Figure 2016206795
によって定義される。上式(10)においてy*は入力xに対する正解データである。この損失関数L(y)は、y=y*の場合のみゼロ値をとり、それ以外の場合、yと正解y*とのズレが大きいほど大きな正値をとるものであり、yの構造関係を反映した形となっている。
このように、追跡用識別器114aは、オンラインでの構造学習によって評価関数Fの各項の重みパラメータw=(wp, wh, wb, ws)を決定し、決定された重みパラメータwを有する評価関数Fを用いて、入力した画像xtを処理して、出力する物体動き情報yt*を算出する。因みに、学習によって決定された重みパラメータwが、図5に示した識別超平面を規定する。
以上説明した学習及び判定をまとめると、本実施形態の追跡用識別器114aは、前時刻(t−1)において、正解として出力された物体動き情報yt-1*を用いて生成されたデータセットによって学習を行い、時刻tにおいて取得した画像xtを入力して、この画像xtを、評価関数Fの構造学習によって決定されたパラメータw=(wp, wh, wb, ws)を用いて処理し、時刻tにおける正解となる物体動き情報yt*を出力する。これにより、画像内で追跡対象物体が床や地面に接する箇所が特定できない場合や、物体の形状が変化したり物体の高さが変化したりする場合でも、取得される画像群を用いて、実空間における高い位置精度を維持しつつ、固有の識別子IDを付与し続けながら物体を追跡することができるのである。
物体位置・形状推定部115は、物体追跡部114から入力した物体動き情報yt*、又は追跡対象物体の実空間での刻々の位置、高さ及び/又は傾き情報に基づいて、所定の時間範囲における追跡対象物体の実空間での位置、高さ及び/又は傾きの変化を決定する。これらの情報や、追跡対象物体の動線、さらには動線上での着席、お辞儀等のイベントを決定して追跡物体管理部104に保存することも好ましい。また、このような物体位置・形状推定結果は、例えば外部の情報処理装置からの要求に応じ、通信制御部121及び通信インタフェース101を介して、当該外部の情報処理装置宛てに送信されることも好ましい。
以上詳細に説明したように、本発明によれば、取得された画像に係る画像情報のみならず、実空間での制約を含む「物体動き情報」をも考慮して追跡を行う。その結果、取得される画像群を用いながらも、実空間における高い位置精度を維持しつつ物体を追跡することができる。
また、「物体動き情報」に追跡対象物体の位置変化分のみならず高さ変化分や傾き変化分を取り入れることによって、物体の形状が変化したり物体の高さが変化したりする場合でも、実空間における高い位置精度を維持しつつ物体を追跡することができる。さらに、物体の刻々の位置だけでなく、刻々の高さや形状を推定することも可能となる。
また、本発明の構成及び方法は、例えば、人物が移動したり座ったり屈んだりする場を監視する監視システム、及び商店街や商業・サービス施設内での人物の入店、休憩、観戦・イベント参加や、移動の状況を調査するためのマーケティング調査システム等、様々な系に適用可能である。
以上に述べた本発明の種々の実施形態において、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 物体追跡装置
101 通信インタフェース
102 画像蓄積部
103 ID蓄積部
104 追跡物体管理部
111 物体検出部
111a 検出用識別器
111b 高さ算出部
112 ID管理部
112a 物体統合部
112b 物体登録部
113 候補情報算出部
114 物体追跡部
114a 追跡用識別器
114b 教師データセット生成部
115 物体位置・形状推定部
121 通信制御部
2 カメラ

Claims (12)

  1. 追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置であって、
    取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含むデータセットによって学習する識別器であって、物体追跡対象の画像毎に、当該画像に係る画像情報を入力することによって少なくとも当該物体の実空間での正解とされる位置情報を出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段
    を有することを特徴とする物体追跡装置。
  2. 1つの時刻での当該物体動き情報として、少なくとも当該物体の実空間での位置における前時刻からの変化分を採用し、当該1つの時刻における互いに変化分の異なる複数の候補物体動き情報を算出する候補情報算出手段を更に有し、
    前記物体追跡手段の識別器は、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけ(appearance)の近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時刻での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時刻における当該物体の実空間での位置に係る正解の位置情報として出力する
    ことを特徴とする請求項1に記載の物体追跡装置。
  3. 前記候補情報算出手段は、当該1つの時刻での当該物体動き情報として、当該物体の実空間での位置における前時刻からの変化分と、当該物体の高さにおける前時刻からの変化分とを採用して、当該1つの時刻における少なくとも変化分の1つが異なる複数の候補物体動き情報を算出し、
    前記物体追跡手段の識別器は、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体の高さの変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけの近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時刻での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時刻における当該物体の実空間での位置及び当該物体の高さに係る正解の情報として出力する
    ことを特徴とする請求項2に記載の物体追跡装置。
  4. 前記候補情報算出手段は、当該1つの時刻での当該物体動き情報として、当該物体の実空間での位置における前時刻からの変化分と、当該物体の高さにおける前時刻からの変化分とを採用して、当該1つの時刻における少なくとも変化分の1つが異なる複数の候補物体動き情報を算出し、
    前記物体追跡手段の識別器は、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体の高さの変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域における当該物体の動き(motion)による変化と当該物体動き情報に係る変化分とが合致する度合いを評価する項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけの近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時刻での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時刻における当該物体の実空間での位置及び当該物体の高さに係る正解の情報として出力する
    ことを特徴とする請求項2又は3に記載の物体追跡装置。
  5. 前記候補情報算出手段は、当該1つの時刻での当該物体動き情報として、当該物体の傾きにおける前時刻からの変化分を更に採用し、
    前記物体追跡手段の識別器は、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時刻における当該物体の傾きに係る正解の情報をも含む情報として出力する
    ことを特徴とする請求項2から4のいずれか1項に記載の物体追跡装置。
  6. 取得された画像に基づいて当該物体を検出し、検出された当該物体に係る画像領域の最下位置に基づいて、当該物体の実空間での位置としての当該物体の接地位置を算出し、検出された当該物体に係る画像領域の最上位置に基づいて算出された実空間での位置と、算出された設置位置とに基づいて、当該物体の高さを算出する物体検出部を更に有することを特徴とする請求項2から5のいずれか1項に記載の物体追跡装置。
  7. 前記物体追跡手段の識別器は、学習によって当該評価関数の各項の重み係数を決定し、決定された重み係数を有する評価関数を用いて、入力した当該画像に係る画像情報を処理して、出力する物体動き情報を算出することを特徴とする請求項2から6のいずれか1項に記載の物体追跡装置。
  8. 前記物体追跡手段の識別器は、1つの時刻の前時刻において、正解として出力された物体動き情報を用いて生成されたデータセットによって学習を行い、当該1つの時刻における当該画像に係る画像情報を入力して、当該画像情報を、当該学習によって決定されたパラメータを用いて処理し、当該1つの時刻における正解となる物体動き情報を出力することを特徴とする請求項1から7のいずれか1項に記載の物体追跡装置。
  9. 前記物体追跡手段の識別器は、当該物体に係る画像領域として、実空間における当該物体の上端から当該物体の高さの所定割合だけ下方となる位置までの物体部分を座標変換して算出された画像領域を採用することを特徴とする請求項1から8のいずれか1項に記載の物体追跡装置。
  10. 前記物体追跡手段の識別器は、構造化SVM(Structured Support Vector Machine)のアルゴリズムによって構築されることを特徴とする請求項1から9のいずれか1項に記載の物体追跡装置。
  11. 追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置に搭載されたコンピュータを機能させるプログラムであって、
    取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含むデータセットによって学習する識別器であって、物体追跡対象の画像毎に、当該画像に係る画像情報を入力することによって少なくとも当該物体の実空間での正解とされる位置情報を出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段
    としてコンピュータを機能させることを特徴とする物体追跡プログラム。
  12. 追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用い、機械学習の識別器によって当該物体を追跡する方法であって、
    取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含むデータセットによって前記識別器に学習させるステップと、
    前記識別器に対し、物体追跡対象の画像に係る画像情報を入力することによって少なくとも当該物体の実空間での正解とされる位置情報を出力させるステップと
    を繰り返し、当該物体の実空間での刻々の位置情報を取得する
    ことを特徴とする物体追跡方法。
JP2015085269A 2015-04-17 2015-04-17 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法 Active JP6628494B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015085269A JP6628494B2 (ja) 2015-04-17 2015-04-17 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015085269A JP6628494B2 (ja) 2015-04-17 2015-04-17 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法

Publications (2)

Publication Number Publication Date
JP2016206795A true JP2016206795A (ja) 2016-12-08
JP6628494B2 JP6628494B2 (ja) 2020-01-08

Family

ID=57489892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015085269A Active JP6628494B2 (ja) 2015-04-17 2015-04-17 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP6628494B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173799A (ja) * 2017-03-31 2018-11-08 セコム株式会社 画像解析装置
JP2018185623A (ja) * 2017-04-25 2018-11-22 セコム株式会社 物体検出装置
WO2018235777A1 (ja) * 2017-06-20 2018-12-27 国立大学法人静岡大学 画像データ加工装置、植物栽培システム及び画像データ加工方法
CN109584268A (zh) * 2017-09-29 2019-04-05 广赛布托有限公司 移动体跟踪装置、移动体跟踪方法及计算机可读记录介质
US10769448B2 (en) 2017-05-31 2020-09-08 Panasonic I-Pro Sensing Solutions Co., Ltd. Surveillance system and surveillance method
JP2021504836A (ja) * 2017-12-01 2021-02-15 1キュービー インフォメーション テクノロジーズ インコーポレイテッド1Qb Information Technologies Inc. ロバスト推定問題の確率的最適化のためのシステムおよび方法
US11797641B2 (en) 2015-02-03 2023-10-24 1Qb Information Technologies Inc. Method and system for solving the lagrangian dual of a constrained binary quadratic programming problem using a quantum annealer
CN117252867A (zh) * 2023-11-14 2023-12-19 广州市品众电子科技有限公司 一种基于图像识别的vr设备生产产品质量监测分析方法
US11947506B2 (en) 2019-06-19 2024-04-02 1Qb Information Technologies, Inc. Method and system for mapping a dataset from a Hilbert space of a given dimension to a Hilbert space of a different dimension
US11989256B2 (en) 2015-02-03 2024-05-21 1Qb Information Technologies Inc. Method and system for solving the Lagrangian dual of a constrained binary quadratic programming problem using a quantum annealer

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009301241A (ja) * 2008-06-11 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> 複数対象物追跡方法、複数対象物追跡装置、複数対象物追跡プログラムおよびそのプログラムを記録した記録媒体
JP2010512581A (ja) * 2006-12-06 2010-04-22 本田技研工業株式会社 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定
US20100195899A1 (en) * 2009-02-04 2010-08-05 Pramod Nc Detection of people in real world videos and images
JP2012159958A (ja) * 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置
WO2012117901A1 (ja) * 2011-03-01 2012-09-07 株式会社メガチップス データ処理装置、データ処理システム、及びプログラム
JP2014093023A (ja) * 2012-11-06 2014-05-19 Canon Inc 物体検出装置、物体検出方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512581A (ja) * 2006-12-06 2010-04-22 本田技研工業株式会社 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定
JP2009301241A (ja) * 2008-06-11 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> 複数対象物追跡方法、複数対象物追跡装置、複数対象物追跡プログラムおよびそのプログラムを記録した記録媒体
US20100195899A1 (en) * 2009-02-04 2010-08-05 Pramod Nc Detection of people in real world videos and images
JP2012159958A (ja) * 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置
WO2012117901A1 (ja) * 2011-03-01 2012-09-07 株式会社メガチップス データ処理装置、データ処理システム、及びプログラム
JP2014093023A (ja) * 2012-11-06 2014-05-19 Canon Inc 物体検出装置、物体検出方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大澤 達哉: "単眼動画像を用いた近接する複数対象の三次元追跡", 電子情報通信学会技術研究報告, vol. 108, no. 94, JPN6019016555, 12 June 2008 (2008-06-12), JP, pages 109 - 114, ISSN: 0004030871 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11797641B2 (en) 2015-02-03 2023-10-24 1Qb Information Technologies Inc. Method and system for solving the lagrangian dual of a constrained binary quadratic programming problem using a quantum annealer
US11989256B2 (en) 2015-02-03 2024-05-21 1Qb Information Technologies Inc. Method and system for solving the Lagrangian dual of a constrained binary quadratic programming problem using a quantum annealer
JP2018173799A (ja) * 2017-03-31 2018-11-08 セコム株式会社 画像解析装置
JP2018185623A (ja) * 2017-04-25 2018-11-22 セコム株式会社 物体検出装置
US10769448B2 (en) 2017-05-31 2020-09-08 Panasonic I-Pro Sensing Solutions Co., Ltd. Surveillance system and surveillance method
WO2018235777A1 (ja) * 2017-06-20 2018-12-27 国立大学法人静岡大学 画像データ加工装置、植物栽培システム及び画像データ加工方法
JPWO2018235777A1 (ja) * 2017-06-20 2020-04-30 国立大学法人静岡大学 画像データ加工装置、植物栽培システム及び画像データ加工方法
JP7114092B2 (ja) 2017-06-20 2022-08-08 国立大学法人静岡大学 画像データ加工装置、植物栽培システム及び画像データ加工方法
CN109584268A (zh) * 2017-09-29 2019-04-05 广赛布托有限公司 移动体跟踪装置、移动体跟踪方法及计算机可读记录介质
CN109584268B (zh) * 2017-09-29 2023-05-23 广赛布托有限公司 移动体跟踪装置、移动体跟踪方法及计算机可读记录介质
JP2021504836A (ja) * 2017-12-01 2021-02-15 1キュービー インフォメーション テクノロジーズ インコーポレイテッド1Qb Information Technologies Inc. ロバスト推定問題の確率的最適化のためのシステムおよび方法
JP7288905B2 (ja) 2017-12-01 2023-06-08 1キュービー インフォメーション テクノロジーズ インコーポレイテッド ロバスト推定問題の確率的最適化のためのシステムおよび方法
US11947506B2 (en) 2019-06-19 2024-04-02 1Qb Information Technologies, Inc. Method and system for mapping a dataset from a Hilbert space of a given dimension to a Hilbert space of a different dimension
CN117252867A (zh) * 2023-11-14 2023-12-19 广州市品众电子科技有限公司 一种基于图像识别的vr设备生产产品质量监测分析方法
CN117252867B (zh) * 2023-11-14 2024-02-27 广州市品众电子科技有限公司 一种基于图像识别的vr设备生产产品质量监测分析方法

Also Published As

Publication number Publication date
JP6628494B2 (ja) 2020-01-08

Similar Documents

Publication Publication Date Title
JP6628494B2 (ja) 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法
JP6614611B2 (ja) 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法
EP3191989B1 (en) Video processing for motor task analysis
JP6288221B2 (ja) 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化
JP6618395B2 (ja) 行動価値によって調査対象の位置を予測する装置、プログラム及び方法
JP7342919B2 (ja) 情報処理システム、制御方法、及びプログラム
JP6598746B2 (ja) 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
US20180129873A1 (en) Event detection and summarisation
CN114616588A (zh) 图像处理装置、图像处理方法以及存储图像处理程序的非暂时性计算机可读介质
JP2019159630A (ja) 画像生成方法、画像生成装置及び画像生成システム
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
Chan et al. A 3-D-point-cloud system for human-pose estimation
JP2019082959A (ja) 情報処理装置、情報処理方法及びプログラム
JP6103765B2 (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
Chen et al. Activity recognition using a panoramic camera for homecare
WO2021250808A1 (ja) 画像処理装置、画像処理方法、及びプログラム
Cielniak People tracking by mobile robots using thermal and colour vision
WO2021255846A1 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20230099369A (ko) 객체의 위치 추정을 위한 가려짐 판별과 객체 좌표 보정
Boukhers et al. Example-based 3D trajectory extraction of objects from 2D videos
Takač et al. People identification for domestic non-overlapping rgb-d camera networks
Rasouli et al. Dynamic posture estimation in a network of depth sensors using sample points
Noyvirt et al. Human detection and tracking in an assistive living service robot through multimodal data fusion
Luo et al. Visual focus of attention estimation based on improved hybrid incremental dynamic Bayesian network
Scarpellini et al. Look around and learn: self-improving object detection by exploration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R150 Certificate of patent or registration of utility model

Ref document number: 6628494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150