JP7310927B2 - 物体追跡装置、物体追跡方法及び記録媒体 - Google Patents

物体追跡装置、物体追跡方法及び記録媒体 Download PDF

Info

Publication number
JP7310927B2
JP7310927B2 JP2021566677A JP2021566677A JP7310927B2 JP 7310927 B2 JP7310927 B2 JP 7310927B2 JP 2021566677 A JP2021566677 A JP 2021566677A JP 2021566677 A JP2021566677 A JP 2021566677A JP 7310927 B2 JP7310927 B2 JP 7310927B2
Authority
JP
Japan
Prior art keywords
position information
image
information
matrix
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021566677A
Other languages
English (en)
Other versions
JPWO2021130951A5 (ja
JPWO2021130951A1 (ja
Inventor
宏 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021130951A1 publication Critical patent/JPWO2021130951A1/ja
Publication of JPWO2021130951A5 publication Critical patent/JPWO2021130951A5/ja
Application granted granted Critical
Publication of JP7310927B2 publication Critical patent/JP7310927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Description

本発明は、時系列データに相当する複数の画像中に映り込んでいる物体を追跡する物体追跡装置、物体追跡方法及び記録媒体の技術分野に関する。
カメラ等で撮影された時系列データとしての複数の画像を用いて、画像中に映り込んでいる物体を追跡する物体追跡装置が知られている。物体追跡装置の一例が、特許文献1から特許文献3に記載されている。更に、物体を追跡するためのアルゴリズムの一例が、非特許文献1から非特許文献2に記載されている。その他、本願発明に関連する先行技術文献として、非特許文献3があげられる。
特開2009-265732号公報 特開2012-181710号公報 特開2016-71830号公報 米国特許第9,858,496号
C.Feichtenhofer et al.、"Detect to Track and Track to Detect"、ICCV2017、2017年10月 Yihong Xu et al.、"DeepMOT:A Differentiable Framework for Training Multiple Object Trackers"、arXiv 1906.06618、2019年1月 Xingyi Zhou et al.、"Object as Points"、arXiv 1904.07850、2019年4月 Shaoqing Ren et al.、"Faster R-CNN: Towards Real-Time Object Detectin with Region Proposal Neworks"IEEE Transactions on Patten Analysis and Machine Intelligence、pp1137-1149、2016年6月6日 Wei Liu et al.、"SSD:Single Shot MultiBox Detector"、European Conference on Computer Vision、pp21-37、2016年9月
従来の物体追跡装置は、画像に映り込んでいる物体を検出する物体検出動作と、時刻t-τ(尚、τは、基準周期を示す)の画像IMt-τに映り込んでいる物体Ot-τと時刻tの画像IMに映り込んでいる物体Oとを照合する物体照合動作とを、互いに独立した別個の動作として行う。このため、従来の物体追跡装置は物体検出動作が行われた後に物体照合動作を行うために、前処理等を行う必要がある。その結果、従来の物体追跡装置では、物体を追跡するための処理コストが相対的に高くなってしまう可能性がある。
本発明は、上述した技術的問題を解決可能な物体追跡装置、物体追跡方法及び記録媒体を提供することを課題とする。一例として、本発明は、相対的に低い処理コストで物体を追跡可能な物体追跡装置、物体追跡方法及び記録媒体を提供することを課題とする。
物体追跡装置の一態様は、第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成する第1生成手段と、前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成する第2生成手段とを備える。
物体追跡方法の一態様は、第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することとを含む。
記録媒体の一態様は、コンピュータに物体追跡方法を実行させるコンピュータプログラムが記録された、一時的でない記録媒体であって、前記物体追跡方法は、第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することとを含む。
上述した物体追跡装置、物体追跡方法及び記録媒体のそれぞれの一の態様によれば、第1及び第2特徴ベクトルを用いた演算処理により対応情報を生成することができるため、後に詳述するように、相対的に低い処理コストで物体を追跡することができる。
図1は、本実施形態の物体追跡装置の構成を示すブロック図である。 図2は、物体照合動作及びリファイン動作を行うために物体追跡装置内に実現される論理的な機能ブロックの構成を示すブロック図である。 図3は、物体検出動作によって検出された物体位置情報を概念的に示す平面図である。 図4は、物体照合動作の流れを示すフローチャートである。 図5は、特徴ベクトルと類似性行列との関係を概念的に示す平面図である。 図6は、リファイン動作の流れを示すフローチャートである。 図7は、第1変形例の物体追跡装置の構成を示すブロック図である。 図8は、学習DBのデータ構造を示すデータ構造図である。 図9は、第2変形例の物体追跡装置の構成を示すブロック図である。 図10は、ソフトマックス関数を用いて類似性行列を正規化する様子を示す平面図である。
以下、図面を参照しながら、物体追跡装置、物体追跡方法及び記録媒体の実施形態について説明する。以下では、物体追跡装置、物体追跡方法及び記録媒体の実施形態が適用された物体追跡装置1について説明する。物体追跡装置1は、時系列データに相当する複数の画像IMが入力された場合に各画像IMに映り込んでいる少なくとも一つの物体Oを追跡するための物体追跡動作を行う。物体追跡動作は、例えば、画像IMに映り込んでいる物体Oを検出する物体検出動作を含む。物体追跡動作は、例えば、時刻t-τ(尚、τは、基準周期を示す)に取得された(例えば、撮影された)画像IMt-τに映り込んでいる少なくとも一つの物体Ot-τと、時刻tに取得された画像IMに映り込んでいる少なくとも一つの物体Oとを照合することで、画像IMt-τに映り込んでいた物体Ot-τの画像IM内での位置を追跡する物体照合動作を含む。物体追跡動作は、例えば、物体照合動作の結果を用いて、画像IMに映り込んでいる物体Oの検出結果(つまり、物体検出動作の結果)を補正するリファイン動作を含む。
尚、以下の説明において、「X及び/又はY」という表現は、「X及びY」という表現及び「X又はY」という表現の双方を包含する表現として用いられている。
(1)物体追跡装置1の構成
初めに、図1及び図2を参照しながら、本実施形態の物体追跡装置1の構成について説明する。図1は、本実施形態の物体追跡装置1の構成を示すブロック図である。図2は、物体照合動作及びリファイン動作を行うために物体追跡装置1内に実現される論理的な機能ブロックの構成を示すブロック図である。
図1に示すように、物体追跡装置1は、演算装置2と、記憶装置3とを備えている。更に、物体追跡装置1は、入力装置4と、出力装置5とを備えていてもよい。但し、物体追跡装置1は、入力装置4及び出力装置5の少なくとも一方を備えていなくてもよい。演算装置2と、記憶装置3と、入力装置4と、出力装置5は、データバス6を介して接続されている。
演算装置2は、例えば、CPU(Central Proecssing Unit)及びGPU(Graphic Processing Unit)の少なくとも一方を含む。演算装置2は、コンピュータプログラムを読み込む。例えば、演算装置2は、記憶装置3が記憶しているコンピュータプログラムを読み込んでもよい。例えば、演算装置2は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。演算装置2は、不図示の通信装置を介して、物体追跡装置1の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。演算装置2は、読み込んだコンピュータプログラムを実行する。その結果、演算装置2内には、物体追跡装置1が行うべき動作(具体的には、上述した物体追跡動作)を実行するための論理的な機能ブロックが実現される。つまり、演算装置2は、物体追跡動作を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
図1には、物体追跡動作を実行するために演算装置2内に実現される論理的な機能ブロックの一例が示されている。図1に示すように、演算装置2内には、論理的な機能ブロックとして、物体検出部21と、物体照合部22と、リファイン部23とが実現される。物体検出部21は、物体検出動作を行う。物体照合部22は、物体照合動作を行う。物体照合動作を行うために、物体照合部22は、図2に示すように、特徴マップ変換部221と、特徴ベクトル変換部222と、特徴マップ変換部223と、特徴ベクトル変換部224と、行列演算部225とを備えている。リファイン部23は、リファイン動作を行う。リファイン動作を行うために、リファイン部23は、図2に示すように、行列演算部231と、特徴ベクトル変換部232と、特徴マップ変換部233と、残差処理部234と、特徴マップ変換部235と、特徴マップ変換部236と、特徴ベクトル変換部237とを備えている。尚、物体検出動作、物体照合動作及びリファイン動作については、後に詳述する。
記憶装置3は、所望のデータを記憶可能である。例えば、記憶装置3は、演算装置2が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置3は、演算装置2がコンピュータプログラムを実行している際に演算装置2が一時的に使用するデータを一時的に記憶してもよい。記憶装置3は、物体追跡装置1が長期的に保存するデータを記憶してもよい。本実施形態では特に、記憶装置3には、不図示のカメラが撮影した時系列データとしての複数の画像IMを格納するための画像DB(DataBase)31が記憶されていてもよい。更に、記憶装置3には、物体検出動作の結果を示す物体検出情報(つまり、画像IMに映り込んでいる物体Oの検出結果に関する情報)を格納するための物体検出DB32が記憶されていてもよい。更に、記憶装置3には、物体照合動作の結果を示す物体照合情報(つまり、画像IMt-τに映り込んでいる物体Ot-τと画像IMに映り込んでいる物体Oとの照合結果に関する情報であり、典型的には、物体Ot-τと物体Oとの対応付けを示す情報)を格納するための物体照合DB33が記憶されていてもよい。尚、記憶装置3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。つまり、記憶装置3は、一時的でない記録媒体を含んでいてもよい。
入力装置4は、物体追跡装置1の外部からの物体追跡装置1に対する情報の入力を受け付ける装置である。本実施形態では、入力装置4には、不図示のカメラが撮影した時系列データとしての複数の画像IMが入力される。入力装置4に入力された複数の画像IMは、記憶装置3が記憶している画像DB31に格納される。
出力装置5は、物体追跡装置1の外部に対して情報を出力する装置である。例えば、出力装置5は、物体追跡動作の結果に関する情報を出力してもよい。例えば、出力装置5は、物体追跡動作の結果に関する情報を、画像として出力してもよい。この場合、出力装置5は、画像を表示する表示装置を含んでいてもよい。例えば、出力装置5は、物体追跡動作の結果に関する情報を、データとして出力してもよい。この場合、出力装置5は、データを出力するデータ出力装置を含んでいてもよい。
(2)物体追跡装置1が行う物体追跡動作
続いて、物体追跡装置1が行う物体追跡動作について説明する。上述したように、物体追跡動作は、物体検出動作と、物体照合動作と、リファイン動作とを行う。従って、以下では、物体追跡動作は、物体検出動作と、物体照合動作と、リファイン動作とについて順に説明する。
(2-1)物体検出動作
初めに、物体検出部21が行う物体検出動作について説明する。物体検出部21は、画像DB31に格納されている画像IMを読み出し、読み出した画像IMに対して物体検出動作を行う。物体検出部21は、画像に映り込んだ物体を検出するための既存の方法を用いて、画像IMに映り込んだ物体Oを検出してもよい。但し、物体検出部21は、画像IMに映り込んだ物体Oを検出することで画像IM内での物体Oの位置に関する情報(以降、“物体位置情報PI”と称する)を取得可能な方法を用いて、物体検出動作を行うことが好ましい。物体検出部21が取得した物体位置情報PIは、物体検出部21による物体検出動作の結果を示す物体検出情報として、物体検出DB32に格納される。
本実施形態では、上述した非特許文献3に記載された方法(いわゆる、CenterNet)を用いて物体検出部21が物体Oを検出する例について説明する。この場合、物体検出部21は、物体位置情報PIとして、画像IM内での物体Oの中心位置(Key Point)KPを示すヒートマップ(いわゆるスコアマップ)を生成する。より具体的には、物体検出部21は、画像IM内での物体Oの中心位置KPを示すヒートマップを、物体Oのクラス毎に生成する。このため、画像IM内での物体Oの中心位置KPを示す情報は、画像IMの縦方向の画素数をHとし、画像IMの横方向の画素数をWとし、クラス数をKとした場合には、H×W×Kのサイズを有するマップ情報となる。尚、中心位置KPを示すヒートマップは、位置に関するマップであるがゆえに、位置マップと称されてもよい。
非特許文献3に記載された方法を用いて物体検出部21が物体Oを検出する場合には、物体検出部21は、物体位置情報PIとして、物体Oの検出枠(Bounding Box)BBのサイズをスコアマップとして示す情報を生成してもよい。物体Oの検出枠BBのサイズを示す情報は、実質的には、物体Oのサイズを示す情報であるとみなしてもよい。物体Oの検出枠BBのサイズを示す情報は、例えば、H×W×2のサイズを有するマップ情報となる。尚、検出枠BBのサイズを示すマップ情報もまた、位置に関するマップであるがゆえに、位置マップと称されてもよい。
非特許文献3に記載された方法を用いて物体検出部21が物体Oを検出する場合には、物体検出部21は、物体位置情報PIとして、物体Oの検出枠BBの補正量(Local Offset)をスコアマップとして示す情報を生成してもよい。物体Oの検出枠BBの補正量を示す情報は、H×W×2のサイズを有するマップ情報となる。尚、検出枠BBの補正量を示すマップ情報もまた、位置に関するマップであるがゆえに、位置マップと称されてもよい。
図3は、物体検出動作によって検出された物体位置情報PIを概念的に示す平面図である。図3は、画像IMに四つの物体O(具体的には、物体O#1、物体O#2、物体O#3及び物体O#4)が映り込んでいる例を示している。この場合、物体検出部21は、物体位置情報PIとして、四つの物体Oの夫々の中心位置KPを示す情報、四つの物体の夫々の検出枠BBのサイズを示す情報、及び、四つの物体Oの夫々の検出枠BBの補正量を示す情報を生成する。
物体検出部21は、画像IMが入力された場合に物体位置情報PIを出力する演算モデルを用いて、物体検出動作を行ってもよい。このような演算モデルの一例として、ニューラルネットワーク(例えば、CNN:Convolutional Neural Network)を用いた演算モデルがあげられる。この場合、演算モデルは、後述するように、学習用データを用いて学習されてもよい。つまり、演算モデルのパラメータは、適切な物体位置情報PIを出力するように最適化されていてもよい。
但し、物体検出部21は、非特許文献3に記載された方法(いわゆる、CenterNet)とは異なる他の方法を用いて、物体検出動作を行ってもよい。他の方法の一例として、非特許文献4に記載されたFaster R-CNNと称される方法及び非特許文献5に記載されたSSDと称される方法があげられる。
(2-2)物体照合動作
続いて、物体照合部22が行う物体照合動作について説明する。物体照合部22は、物体検出DB32に格納されている物体位置情報PIを読み出し、読み出した物体位置情報PIを用いて物体照合動作を行う。以下、時刻t-τに撮影された画像IMt-τに映り込んでいる物体Ot-τと、時刻tに撮影された画像IMに映り込んでいる物体Oとを照合する物体照合動作について、図4を参照しながら説明する。図4は、物体照合動作の流れを示すフローチャートである。
図4に示すように、物体照合部22は、物体位置情報PIから特徴ベクトルCVを生成する(ステップS221からステップS226)。本実施形態では、物体照合部22は、物体位置情報PIから特徴ベクトルCVを生成するために、物体位置情報PIから特徴マップCMを生成し、その後、特徴マップCMから特徴ベクトルCVを生成する。特徴マップCMは、物体位置情報PIの特徴量を、任意のチャンネル毎に示す特徴マップである。つまり、チャンネル数をCとすると、物体照合部22は、H×W×(K+2+2)=H×W×(K+4)(Kは、上述したように物体Oのクラス数であり、典型的には、物体検出DB32又は物体照合DB33に登録されているクラス数)のサイズを有するマップ情報である物体位置情報PIから、H×W×Cのサイズを有する特徴マップCMを生成し、その後、H×W×Cのサイズを有する特徴マップCMから、HW×Cのサイズを有する特徴ベクトルCVを生成する。但し、物体照合部22は、特徴マップCMを生成することなく、物体位置情報PIから特徴ベクトルCVを直接生成してもよい。
具体的には、「第1生成手段」の一具体例である特徴マップ変換部221は、物体検出DB32から、時刻t-τに撮影された画像IMt-τに映り込んでいる物体Ot-τに関する物体位置情報PIt-τを取得する(つまり、読み出す)(ステップS221)。尚、物体位置情報PIt-τは、第1位置情報の一具体例である。例えば、図3に示すように、画像IMt-τに四つの物体Ot-τが映り込んでいる場合には、特徴マップ変換部221は、物体検出DB32から、四つの物体Ot-τに関する物体位置情報PIt-τを取得する。その後、特徴マップ変換部221は、ステップS221で取得した物体位置情報PIt-τから、特徴マップCMt-τを生成する(ステップS222)。特徴マップ変換部221は、H×W×(K+4)のサイズを有するマップ情報である物体位置情報PIt-τから、H×W×Cのサイズを有する特徴マップCMt-τを生成する。
例えば、特徴マップ変換部221は、物体位置情報PIが入力された場合に特徴マップCMを出力する演算モデルを用いて、特徴マップCMt-τを生成してもよい。このような演算モデルの一例として、ニューラルネットワーク(例えば、CNN:Convolutional Neural Network)を用いた演算モデルがあげられる。この場合、演算モデルは、後述するように、学習用データを用いて学習されてもよい。つまり、演算モデルのパラメータは、適切な特徴マップCM(特に、後述する類似性行列AMを生成するのに適した特徴マップCM)を出力するように最適化されていてもよい。
その後、「第1生成手段」の一具体例である特徴ベクトル変換部222は、ステップS222で生成された特徴マップCMt-τから、特徴ベクトルCVt-τを生成する(ステップS223)。特徴ベクトル変換部222は、H×W×Cのサイズを有する特徴マップCMt-τから、HW×Cのサイズを有する特徴ベクトルCVt-τを生成する。尚、特徴ベクトルCVt-τは、第1特徴ベクトルの一具体例である。
ステップS221からステップ223までの処理と並行して又は相前後して、「第1生成手段」の一具体例である特徴マップ変換部223は、物体検出DB32から、時刻tに撮影された画像IMに映り込んでいる物体Oに関する物体位置情報PIを取得する(ステップS224)。尚、物体位置情報PIは、第2位置情報の一具体例である。その後、特徴マップ変換部223は、ステップS224で取得した物体位置情報PIから、特徴マップCMを生成する(ステップS225)。特徴マップ変換部223は、H×W×(K+4)のサイズを有するマップ情報である物体位置情報PIから、H×W×Cのサイズを有する特徴マップCMを生成する。尚、ステップS224からステップS225の処理の内容は、上述したステップS221からステップS222の処理の内容と同一であってもよい。このため、特徴マップ変換部223は、特徴マップ変換部221と同様に、物体位置情報PIが入力された場合に特徴マップCMを出力する演算モデルを用いて、特徴マップCMを生成してもよい。
その後、「第1生成手段」の一具体例である特徴ベクトル変換部224は、ステップS225で生成された特徴マップCMから、特徴ベクトルCVを生成する(ステップS226)。特徴ベクトル変換部224は、H×W×Cのサイズを有する特徴マップCMから、HW×Cのサイズを有する特徴ベクトルCVを生成する。尚、ステップS226の処理の内容は、上述したステップS223の処理の内容と同一であってもよい。尚、特徴ベクトルCVは、第2特徴ベクトルの一具体例である。
その後、「第2生成手段」の一具体例である行列演算部225は、ステップS223で生成された特徴ベクトルCVt-τとステップS226で生成された特徴ベクトルCVとを用いて、類似性行列(Affinity Matrix)AMを生成する(ステップS227)。具体的には、行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVとを用いた演算処理によって得られる情報を、類似性行列AMとして生成する。
例えば、行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVとの行列積を算出する演算処理によって得られる情報(つまり、特徴ベクトルCVt-τと特徴ベクトルCVとの行列積)を、類似性行列AMとして生成してもよい。ここで言う行列積は、典型的には、テンソル積(言い換えれば、直積)であってもよい。一例として、行列積は、クロネッカー積であってもよい。この場合、類似性行列AMのサイズは、HW×HWとなる。
その結果、特徴ベクトルCVt-τ及びCVと類似性行列AMとの関係を概念的に示す平面図である図5に示すように、類似性行列AMは、物体Ot-τと物体Oとの対応関係を示す情報となる。例えば、類似性行列AMは、(1)複数の物体Ot-τのうちの第1の物体Ot-τが、複数の物体Oのうちの第1の物体Oに対応しており(つまり、両者が同一の物体であり)、(2)複数の物体Ot-τのうちの第2の物体Ot-τが、複数の物体Oのうちの第2の物体Oに対応しており、・・・、(N)複数の物体Ot-τのうちの第Nの物体Ot-τが、複数の物体Oのうちの第Nの物体Oに対応していることを示す情報となる。尚、類似性行列AMは、物体Ot-τと物体Oとの対応関係を示す情報であるがゆえに、対応情報と称してもよい。
具体的には、図5に示すように、類似性行列AMは、その縦軸が特徴ベクトルCVt-τのベクトル成分に対応しており且つその横軸が特徴ベクトルCVのベクトル成分に対応している行列であるとみなすことができる。このため、類似性行列AMの縦軸のサイズは、HW(つまり、特徴ベクトルCVt-τのサイズであり、時刻t-τに撮影された画像IMt-τのサイズ(つまり、画素数)に対応するサイズ)になる。同様に、類似性行列AMの横軸のサイズは、HW(つまり、特徴ベクトルCVのサイズであり、時刻tに撮影された画像IMのサイズ(つまり、画素数)に対応するサイズ)になる。言い換えれば、類似性行列AMは、その縦軸が時刻t-τの画像IMt-τに映り込んでいる物体Ot-τの検出結果(つまり、物体Ot-τの検出位置)に対応しており且つその横軸が時刻tの画像IMに映り込んでいる物体Oの検出結果(つまり、物体Oの検出位置)に対応している行列であるとみなすことができる。この場合、縦軸上のある物体Ot-τに対応するベクトル成分と横軸上の同じ物体Oに対応するベクトル成分とが交差する位置において、類似性行列AMの要素が反応する(典型的には、0でない値を有する)。言い換えれば、縦軸上の物体Ot-τの検出結果と横軸上の物体Oの検出結果とが交差する位置において、類似性行列AMの要素が反応する。つまり、類似性行列AMは、典型的には、特徴ベクトルCVt-τに含まれるある物体Ot-τに対応するベクトル成分と特徴ベクトルCVに含まれる同じ物体Oに対応するベクトル成分とが交差する位置の要素の値が、両ベクトル成分を掛け合わせることで得られる値(つまり、0ではない値)となる一方で、それ以外の要素の値が0になる行列となる。
例えば、図5に示す例では、特徴ベクトルCVt-τに含まれる物体O#k(但し、kは、検出された物体Oの数であり、図5に示す例では、k=1、2、3又は4)に対応するベクトル成分と特徴ベクトルCVに含まれる同じ物体O#kに対応するベクトル成分とが交差する位置において、類似性行列AMの要素が反応する。つまり、画像IMt-τに映り込んだ物体O#kの検出結果と画像IMに映り込んだ物体O#kの検出結果とが交差する位置において、類似性行列AMの要素が反応する。
逆に、特徴ベクトルCVt-τに含まれるある物体Ot-τに対応するベクトル成分と特徴ベクトルCVに含まれる同じ物体Oに対応するベクトル成分とが交差する位置において類似性行列AMの要素が反応しない(典型的には、0になる)場合には、画像IMt-τに映り込んでいた物体Ot-τは、画像IMには映り込んでいない(例えば、カメラの撮影画角外へ出てしまった)と推定される。
このように、類似性行列AMは、物体Ot-τと物体Oとの対応関係を示す情報として利用可能である。つまり、類似性行列AMは、画像IMt-τに映り込んでいる物体Ot-τと画像IMに映り込んでいる物体Oとの照合結果を示す情報として利用可能である。類似性行列AMは、画像IMt-τに映り込んでいた物体Ot-τの画像IM内での位置を追跡するための情報として利用可能である。
行列演算部225が生成した類似性行列AMを示す情報は、物体照合部22による物体照合動作の結果を示す物体照合情報として、物体照合DB33に格納される。或いは、行列演算部225は、類似性行列AMに基づいて、物体Ot-τと物体Oとの対応関係を示す他の種類の情報を生成し、物体Ot-τと物体Oとの対応関係を示す他の種類の情報が物体照合情報として物体照合DB33に格納されてもよい。
(2-3)リファイン動作
続いて、「補正手段」の一具体例であるリファイン部23が行うリファイン動作について説明する。リファイン部23は、物体検出DB32に格納されている物体位置情報PIを読み出し、物体照合部22から類似性行列AMを取得し、取得した類似性行列AMを用いて、読み出した物体位置情報PIを補正する。以下、物体位置情報PIt-τ及びPIに基づいて生成された類似性行列AMを用いて物体位置情報PIを補正するリファイン動作について、図6を参照しながら説明する。図6は、リファイン動作の流れを示すフローチャートである。
図6に示すように、特徴マップ変換部236は、物体検出DB32に格納されている物体位置情報PIを取得する(つまり、読み出す)(ステップS231)。その後、特徴マップ変換部236は、ステップS231で取得した物体位置情報PIから、特徴マップCM’を生成する(ステップS232)。ここで、上述したように、物体照合部22が備える特徴マップ変換部223もまた、物体位置情報PIから、特徴マップCMを生成している。しかしながら、特徴マップ変換部223は、類似性行列AMを生成する目的(つまり、物体照合動作を行う目的)で、特徴マップCMを生成している。特徴マップ変換部223は、類似性行列AMを生成する目的で、特徴マップCMを生成している。一方で、特徴マップ変換部236は、物体照合動作において生成された類似性行列AMを用いて物体位置情報PIを補正する目的(つまり、リファイン動作を行う目的)で、特徴マップCM’を生成している。このため、後述する学習動作によって夫々学習される(つまり、更新される)特徴マップ変換部223及び236は、特徴マップ変換部223が、類似性行列AMを生成するのにより適した特徴マップCMを生成する一方で、特徴マップ変換部236が、物体位置情報PIを補正するのにより適した特徴マップCM’を生成するという点で異なっている。つまり、特徴マップCM及びCM’は、特徴マップCMが、類似性行列AMを生成するのにより適している一方で、特徴マップCM’が、物体位置情報PIを補正するのにより適しているという点で異なっている。このため、リファイン部23は、物体照合部22が備える特徴マップ変換部223とは別個に、特徴マップ変換部236を備えている。尚、このような特徴マップ変換部223及び236は、後述する学習動作の結果として構築される。つまり、後述する学習動作により、特徴マップ変換部223が、類似性行列AMを生成するのにより適した特徴マップCMを生成するように学習される一方で、特徴マップ変換部236が、物体位置情報PIを補正するのにより適した特徴マップCM’を生成するように学習される。
特徴マップ変換部236は、物体位置情報PIが入力された場合に特徴マップCMを出力する演算モデルを用いて、特徴マップCM’を生成してもよい。このような演算モデルの一例として、ニューラルネットワーク(例えば、CNN:Convolutional Neural Network)を用いた演算モデルがあげられる。この場合、演算モデルは、後述するように、学習用データを用いて学習されてもよい。つまり、演算モデルのパラメータは、(特に、物体位置情報PIを補正するのに)適切な特徴マップCM’を出力するように最適化されていてもよい。
その後、特徴ベクトル変換部237は、ステップS232で生成された特徴マップCM’から、特徴ベクトルCV’を生成する(ステップS233)。
ステップS231からステップ233までの処理と並行して又は相前後して、行列演算部231は、物体照合部22から、物体照合部22が生成した類似性行列AMを取得する(ステップS234)。或いは、行列演算部231は、物体照合DB33から、物体照合部22が生成した類似性行列AMを取得してもよい(ステップS234)。
その後、行列演算部231は、ステップS233で生成された特徴ベクトルCV’とステップS234で取得された類似性行列AMとを用いて、特徴ベクトルCV_resを生成する(ステップS235)。具体的には、行列演算部231は、特徴ベクトルCV’と類似性行列AMとを用いた演算処理によって得られる情報を、特徴ベクトルCV_resとして生成する。
例えば、行列演算部231は、特徴ベクトルCV’と類似性行列AMとの行列積を算出する演算処理によって得られる情報(つまり、特徴ベクトルCV’と類似性行列AMとの行列積)を、特徴ベクトルCV_resとして生成してもよい。
その後、特徴ベクトル変換部232は、ステップS235で生成された特徴ベクトルCV_resから、特徴マップCMと同じサイズを有する特徴マップCM_resを生成する(ステップS236)。つまり、特徴ベクトル変換部232は、任意のサイズを有する特徴ベクトルCV_resから、H×W×Cのサイズを有する特徴マップCM_resを生成する。例えば、特徴ベクトル変換部232は、特徴ベクトルCV_resを特徴マップCM_resに変換することで、特徴マップCM_resを生成してもよい。
その後、特徴マップ変換部233は、ステップS236で生成された特徴マップCM_resから、物体位置情報PIと同じサイズを有する物体位置情報PI_resを生成する(ステップS237)。つまり、特徴マップ変換部233は、ステップS236で生成された特徴マップCM_resから、H×W×(K+4)のサイズを有するマップ情報である物体位置情報PI_resを生成する。特徴マップ変換部233は、ステップS236で生成された特徴マップCM_resから、(i)H×W×Kのサイズを有する、画像IM内での物体Oの中心位置KPを示すマップ情報と、(ii)H×W×2のサイズを有する、画像IM内での物体Oの検出枠BBのサイズを示すマップ情報と、(iii)H×W×2のサイズを有する、画像IM内での物体Oの検出枠BBの補正量を示すマップ情報とを含む物体位置情報PI_resを生成する。つまり、特徴マップ変換部233は、ステップS236で生成された特徴マップCM_resの次元を変換することで、特徴マップCM_resから物体位置情報PI_resを生成する。
例えば、特徴マップ変換部233は、特徴マップCM_resを物体位置情報PI_resに変換することで、物体位置情報PI_resを生成してもよい。特徴マップ変換部233は、特徴マップCMが入力された場合に物体位置情報PIを出力する演算モデルを用いて、物体位置情報PI_resを生成してもよい。このような演算モデルの一例として、ニューラルネットワーク(例えば、CNN:Convolutional Neural Network)を用いた演算モデルがあげられる。この場合、演算モデルは、後述するように、学習用データを用いて学習されてもよい。つまり、演算モデルのパラメータは、適切な物体位置情報PI_resを出力するように最適化されていてもよい。
ステップSS237の処理は、実質的には、類似性行列AMを重みとして用いる注意機構(Attention Mechanism)を用いて、物体位置情報PI_resを生成する処理と等価であるとみなしてもよい。つまり、リファイン部23は、行列演算部231、特徴ベクトル変換部232及び特徴マップ変換部233を含む注意機構の少なくとも一部を構成しているとみなしてもよい。物体位置情報PI_resは、リファインされた物体位置情報PIとして用いられてもよい。この場合、ステップSS237の処理は、実質的には、類似性行列AMを重みとして用いる注意機構を用いて物体位置情報PIを補正する(言い換えれば、更新する、調整する又は改善する)処理と等価であるとみなしてもよい。
但し、ステップS235で生成された物体位置情報PI_resは、オリジナルの物体位置情報PI(つまり、リファイン動作が施されていない物体位置情報PI)に含まれていた情報が消失している可能性がある。なぜならば、物体位置情報PI_resは、注意機構において注意を払うべき部分(本実施形態では、物体Oの検出位置)を示す類似性行列AMが重みとして用いられるがゆえに、物体検出情報のうちの物体Oの検出位置に関する情報とは異なる情報部分が消失してしまう可能性があるからである。そこで、本実施形態では、リファイン部23は、オリジナルの物体位置情報PIに含まれていた情報の消失を抑制するための処理を更に行ってもよい。具体的には、残差処理部234は、ステップS237で生成された物体位置情報PI_resをオリジナルの物体位置情報PIに加算することで、物体位置情報PI_refを生成してもよい(ステップS238)。物体位置情報PI_refは、物体位置情報PIと同じサイズを有する。このため、残差処理部234は、H×W×(K+4)のサイズを有するマップ情報である物体位置情報PI_refを生成する。このようなH×W×(K+4)のサイズを有するマップ情報である物体位置情報PI_refを生成するために、残差処理部234は、(i)物体位置情報PI_resに含まれる物体Oの中心位置KPを示すマップ情報と、オリジナルの物体位置情報PIに含まれる物体Oの中心位置KPを示すマップ情報とを加算し、(ii)物体位置情報PI_resに含まれる物体Oの検出枠BBのサイズを示すマップ情報と、オリジナルの物体位置情報PIに含まれる物体Oの検出枠BBのサイズを示すマップ情報とを加算し、(iii)物体位置情報PI_resに含まれる検出枠BBの補正量を示すマップ情報と、オリジナルの物体位置情報PIに含まれる検出枠BBの補正量を示すマップ情報とを加算する。
この場合、ステップSS238の処理は、実質的には、残差処理部234を含む残差処理機構(Residual Attention Mechanism)を用いて、物体位置情報PI_refを生成する処理と等価であるとみなしてもよい。つまり、リファイン部23は、行列演算部231、特徴ベクトル変換部232、特徴マップ変換部233及び残差処理部234を含む残差注意機構の少なくとも一部を構成しているとみなしてもよい。物体位置情報PI_refは、リファインされた物体位置情報PIであると共に、オリジナルの物体位置情報PIに含まれていた情報をも含む。この場合、物体位置情報PI_refは、リファインされた物体位置情報PIとして用いられてもよい。但し、リファイン部23は、オリジナルの物体位置情報PIに含まれていた情報の消失を抑制するための処理(ステップS238の処理)を行わなくてもよい。この場合、リファイン部23は、残差処理部234を備えていなくてもよい。
更に、特徴マップ変換部235は、物体位置情報PI_refから、物体位置情報PI_refと同じサイズ:H×W×(K+4)を有する物体位置情報PI_ref’を生成してもよい(ステップS239)。物体位置情報PI_ref’は、物体位置情報PIと同じサイズを有する。このため、特徴マップ変換部235は、H×W×(K+4)のサイズを有するマップ情報である物体位置情報PI_ref’を生成する。典型的には、特徴マップ変換部235は、畳み込み処理(例えば、ニューラルネットワークを構成する畳み込み層で行われる処理)を物体位置情報PI_refに施すことで、物体位置情報PI_ref’を生成してもよい。特徴マップ変換部235は、ニューラルネットワークを構成する畳み込み層に物体位置情報PI_refを入力することで、物体位置情報PI_refを物体位置情報PI_ref’に変換してもよい。この場合、物体位置情報PI_ref’は、リファインされた物体位置情報PIとして用いられてもよい。但し、リファイン部23は、特徴マップ変換部235を備えていなくてもよい。
物体位置情報PI_res、物体位置情報PI_ref又は物体位置情報PI_ref’がリファインされた物体位置情報PIとして用いられる場合には、物体検出DB32に格納されている物体位置情報PIが、物体位置情報PI_res、物体位置情報PI_ref又は物体位置情報PI_ref’に置き換えられてもよい。この場合、物体照合部22は、リファインされる前の物体位置情報PIに代えて、リファインされた物体位置情報PIを用いて、時刻tに撮影された画像IMに映り込んでいる物体Oと、時刻t+τに撮影された画像IMt+τに映り込んでいる物体Ot+τとを照合する物体照合動作を行うことができる。更には、物体Oと物体Ot+τとを照合する物体照合動作の結果を用いて、物体Ot+τに関する物体位置情報PIt+τがリファインされる。このため、物体照合部22は、リファインされる前の物体位置情報PIt+τに代えて、リファインされた物体位置情報PIt+τを用いて、時刻t+τに撮影された画像IMt+τに映り込んでいる物体Ot+τと、時刻t+2τに撮影された画像IMt+2τに映り込んでいる物体Ot+2τとを照合する物体照合動作を行うことができる。つまり、物体検出DB32に格納されている物体位置情報PIが、物体位置情報PI_res、物体位置情報PI_ref又は物体位置情報PI_ref’に置き換えられる場合には、リファインされた物体位置情報PIが連鎖的に物体照合部22に入力される。このため、リファインされる前の物体位置情報PIを用いて物体照合動作が行われる場合と比較して、物体Oの照合の精度の向上と、物体追跡動作に要する処理コストの低減とが期待される。
(3)物体追跡装置1の技術的効果
以上説明したように、本実施形態の物体追跡装置1は、物体位置情報PIt-τ及びPIから類似性行列AMを生成し、類似性行列AMを用いて物体位置情報PIをリファインすることができる。つまり、物体追跡装置1は、物体検出部21の出力である物体位置情報PIt-τ及びPIに対して前処理等を行うことなく、物体照合動作を行うことができる。言い換えれば、物体追跡装置1は、物体検出部21の出力である物体位置情報PIt-τ及びPIを、物体照合動作を行う物体照合部22の入力としてそのまま用いることができる。同様に、物体追跡装置1は、物体照合部22の出力である類似性行列AMに対して前処理等を行うことなく、リファイン動作を行うことができる。言い換えれば、物体追跡装置1は、物体照合部22の出力である類似性行列AM及び物体検出部21の出力である物体位置情報PIを、リファイン動作を行うリファイン部23の入力としてそのまま用いることができる。このため、物体検出動作、物体照合動作及びリファイン動作を互いに独立した別個の三つの動作として行う比較例の物体追跡装置と比較して、物体追跡装置1は、物体検出動作、物体照合動作及びリファイン動作の夫々を行うための前処理等を行わなくともよくなる。その結果、物体追跡装置1は、相対的に低い処理コストで物体Oを追跡することができる。
尚、物体追跡装置1は、実質的には、物体追跡動作と一般的な注意機構で行われる動作とが似ていることに着目し、物体照合動作において生成される情報を用いてリファイン動作を行っていると言える。具体的には、物体追跡動作では、上述したように、物体Oを検出する処理、物体Oを照合する処理及び物体Oの検出結果をリファインする処理が行われる。一方で、一般的な注意機構では、物体Oの特徴を抽出する処理、重みを算出する処理及び物体Oの特徴の抽出結果をリファインする処理が行われる。物体追跡装置1は、注意機構において重みを算出する処理を、実質的には、物体追跡動作において物体Oを照合する処理としても流用している。言い換えれば、物体追跡装置1は、物体追跡動作において物体Oを照合する処理を、実質的には、注意機構において重みを算出する処理としても流用している。従って、物体追跡装置1は、物体検出動作、物体照合動作及びリファイン動作を、注意機構を用いて実現しているとも言える。具体的には、物体追跡装置1は、物体位置情報PIt-τをクエリとし、物体位置情報PIをキー及びバリューとし、且つ、類似性行列AMを重みとして用いる注意機構を用いて、物体追跡動作を行っているとも言える。このため、物体追跡装置1は、物体検出動作、物体照合動作及びリファイン動作を含む物体追跡動作を、一連の動作として行うことができる。つまり、物体追跡装置1は、物体検出動作、物体照合動作及びリファイン動作を行う単一のネットワーク構造(いわゆる、エンドツーエンドなシングルステージ型のネットワーク構造)を用いて、物体追跡動作を行うことができる。このように注意機構を用いて物体追跡動作(特に、リファイン動作)を行うことができるがゆえに、物体追跡装置1は、注意機構を用いることなく物体追跡動作が行われる場合(つまり、物体検出動作を行うネットワーク構造、物体照合動作を行うネットワーク構造及びリファイン動作を行うネットワーク構造が別個独立に用いられる場合)と比較して、物体位置情報PIをより適切にリファインすることができる。
また、比較例の物体追跡装置(特に、類似性行列AMを生成することなく物体照合動作を行う物体追跡装置)は、時刻t-τに撮影された画像にNt-τ個の物体が映り込んでおり且つ時刻tに撮影された画像にN個の物体が映り込んでいる場合には、Nt-τ個の物体の夫々とN個の物体の夫々とを個別に照合する必要がある。つまり、比較例の物体追跡装置は、二つの物体を照合する動作を、Nt-τ×N回も繰り返す必要がある。このため、物体を追跡するための処理コストが高くなってしまう可能性があるという技術的問題が存在する。一方で、本実施形態の物体追跡装置1は、特徴ベクトルCVt-τ及びCVを用いて、時刻t-τに撮影された画像IMt-τに映り込んでいる物体Ot-τと時刻tに撮影された画像IMに映り込んでいる物体Oとを照合する物体照合動作を行うことができる。このため、物体追跡装置1は、相対的に低い処理コストで物体Oを追跡することができる。具体的には、物体追跡装置1は、画像IMt-τにNt-τ個(尚、Nt-τは、1以上の整数)の物体Ot-τが映り込んでおり且つ画像IMにN個(尚、Nは、1以上の整数)の物体Oが映り込んでいる場合であっても、Nt-τ個の物体Ot-τの夫々とN個の物体Oの夫々とを個別に照合しなくてもよくなる。つまり、物体追跡装置1は、二つの物体Ot-τ及びOを照合する動作を、Nt-τ×N回も繰り返さなくてもよくなる。つまり、物体追跡装置1は、特徴ベクトルCVt-τ及びCVを用いて類似性行列AMを生成する処理を一度行えば、Nt-τ個の物体Ot-τの夫々とN個の物体Oの夫々との照合を完了することができる。このため、比較例の物体追跡装置と比較して、相対的に低い処理コストで物体Oを追跡することができる。特に、比較例の物体追跡装置では、画像IMに映り込んでいる物体Oの数が増えるほど処理コストが指数関数的に増加する一方で、本実施形態の物体追跡装置1では、処理コストが画像IMに映り込んでいる物体Oの数に依存しにくくなる。このため、画像IMに映り込んでいる物体Oの数が多くなるほど、物体追跡装置1による処理コストの低減効果が大きくなる。
(4)変形例
(4-1)第1変形例
初めに、図7を参照しながら、第1変形例の物体追跡装置1aについて説明する。図7は、第1変形例の物体追跡装置1aの構成を示すブロック図である。
図7に示すように、第1変形例の物体追跡装置1aは、演算装置2内に実現される論理的な機能ブロックとして、物体検出部21、物体照合部22及びリファイン部23の学習動作を行う学習部24aを更に備えているという点で異なっている。更に、物体追跡装置1aは、学習動作のための学習用データ341aを格納するための学習DB34aが記憶装置3によって記憶されているという点で異なっている。物体追跡装置1aのその他の特徴は、物体追跡装置1のその他の特徴と同一であってもよい。尚、学習動作は、典型的には、物体追跡装置1aが実際に物体追跡動作を行う前に予め行われる。但し、学習動作は、物体追跡装置1aが物体追跡動作を開始した後の所望のタイミングで行われてもよい。
学習用データ341aは、例えば、図8に示すように、ある時刻に取得された(例えば、撮影された)画像IMを含む。更に、学習用データ341aは、画像IMに映り込んでいる物体Oの位置の正解ラベルを示す物体位置情報PI_labelを含む。図8に示す例では、学習DB34aには、時刻sに取得された画像IM及び画像IMに映り込んでいる物体Oの位置に関する物体位置情報PI_labelを含む学習用データ341aと、時刻s+τに取得された画像IMs+τと、画像IMs+τに映り込んでいる物体Os+τの位置に関する物体位置情報PIs+τ_labelとを含む学習用データ341aとを含む複数の学習用データ341aが格納されている。尚、各画像IMに複数の物体Oが映り込んでいる場合には、学習用データ341aは、複数の物体Oの位置の正解ラベルを夫々示す複数の物体位置情報PI_labelを含んでいてもよい。
学習部24aは、学習動作を行うために、学習用データ341aに含まれる画像IM及びIMs+τを物体検出部21に入力する。その結果、物体検出部21は、物体Oの位置に関する物体位置情報PIと、物体Os+τの位置に関する物体位置情報PIs+τとを出力する。更に、物体照合部22は、物体位置情報PIと物体位置情報PIs+τとを用いて、類似性行列AMを生成する。更に、リファイン部23は、類似性行列AMを用いて、物体位置情報PIs+τをリファインする。
学習部24aは、少なくともリファインされた物体位置情報PIs+τに関する損失関数L1に基づいて、物体検出部21が物体検出動作を行うために用いる、物体照合部22が物体照合動作を行うために用いる及び/又はリファイン部23がリファイン動作を行うために用いる学習可能な演算モデルを更新する。つまり、学習部24aは、損失関数L1に基づいて、物体検出部21、物体照合部22及びリファイン部23の少なくとも一つの動作内容を規定する演算モデルを更新する。一例として、損失関数L1が、リファインされた物体位置情報PIs+τと正解ラベルとしての物体位置情報PIs+τ_labelとの誤差が小さくなるほど小さくなる損失関数である場合には、学習部24aは、損失関数L1が小さくなるように(典型的には、最小になるように)演算モデルを更新してもよい。
本実施形態では、上述したように、物体検出部21、物体照合部22及びリファイン部23が単一のネットワーク構造(つまり、単一の演算モデル)によって実現可能である。このため、物体検出部21、物体照合部22及びリファイン部23が単一のネットワーク構造(つまり、単一の演算モデル)によって実現されている場合には、学習部24aは、当該単一の演算モデルを更新してもよい。尚、このような演算モデルの一例として、ニューラルネットワーク(例えば、CNN:Convolutional Neural Network)を用いた演算モデルがあげられる。この場合、演算モデルを更新する動作は、演算モデルのパラメータを更新する、決定する又は調整する動作を含んでいてもよい。演算モデルのパラメータは、ニューラルネットワークが備えるノード間の重み、各ノードで付与されるバイアス及びノード間の接続経路の少なくとも一つを含んでいてもよい。
学習部24aは、学習DB34aに格納されている複数の学習データ341aに夫々含まれる複数の画像IMを、複数の画像IMに対応する時刻の順に物体検出部21に順次入力することで、学習動作を繰り返す。つまり、学習部24aは、画像IM及びIMs+τを物体検出部21に入力し、リファインされた物体位置情報PIs+τに関する損失関数L1に基づいて演算モデルを更新する。その後、学習部24aは、画像IMs+τ及びIMs+2τを物体検出部21に入力し、リファインされた物体位置情報PIs+2τに関する損失関数L1に基づいて演算モデルを更新する。以降、学習部24aは、同様の動作を繰り返す。その結果、物体検出部21、物体照合部22及びリファイン部23の少なくとも一つの動作内容を規定する演算モデルが適切に更新される(つまり、学習される)。
学習部24aは、物体検出部21に入力される二つの画像IMに夫々対応する二つの時刻の間の時間間隔を変更してもよい。例えば、上述した説明では、学習部24aは、τの時間間隔を隔てる二つの時刻に夫々取得された二つの画像IM(例えば、画像IM及びIMs+τ)を物体検出部21に入力している。しかしながら、学習部24aは、m×τ(尚、mは、学習部24aが変更可能な係数であり、例えば、1、2、3、・・・等の整数)の時間間隔を隔てる二つの時刻に夫々取得された二つの画像IM(例えば、画像IM及びIMs+mτ)を物体検出部21に入力してもよい。この場合、学習部24aは、画像IM及びIMm+τを物体検出部21に入力し、リファインされた物体位置情報PIs+mτに関する損失関数L1に基づいて演算モデルを更新してもよい。その後、学習部24aは、画像IMs+mτ及びIMs+2mτを物体検出部21に入力し、リファインされた物体位置情報PIs+2mτに関する損失関数L1に基づいて演算モデルを更新してもよい。以降、学習部24aは、同様の動作を繰り返してもよい。この場合、物体検出部21に入力される二つの画像IMの間での物体Oの移動量が、係数mに応じて変わる。1回の学習動作ごと、すなわち、学習部24aが二つの画像IM(例えば、画像IM及びIMs+τ)を物体検出部21に入力するごとに、係数mは例えば乱数によって決定されてもよい。その結果、物体検出部21、物体照合部22及びリファイン部23の少なくとも一つの動作内容を規定する演算モデルは、様々な移動速度で移動する物体を追跡できるように更新される。
学習部24aは、リファインされた物体位置情報PIs+τに関する損失関数L1に加えて、物体検出部21が出力した物体位置情報PIに関する損失関数L2及び物体検出部21が出力した物体位置情報PIs+τに関する損失関数L3に基づいて、演算モデルを更新してもよい。損失関数L2は、例えば、物体検出部21が出力した物体位置情報PIと正解ラベルとしての物体位置情報PI_labelとの誤差が小さくなるほど小さくなる損失関数であってもよい。損失関数L3は、例えば、物体検出部21が出力した物体位置情報PIs+τと正解ラベルとしての物体位置情報PIs+τ_labelとの誤差が小さくなるほど小さくなる損失関数であってもよい。この場合、学習部24aは、損失関数L1からL3の総和が小さくなるように(典型的には、最小になるように)演算モデルを更新してもよい。
損失関数L1からL3を用いる場合には、学習部24aは、損失関数L1からL3に対して重み付け処理を施し、重み付け処理が施された損失関数L1からL3に基づいて演算モデルを更新してもよい。つまり、学習部24aは、α1、α2及びα3という重み付け係数を用いて損失関数L1からL3に対して夫々重み付け処理を施し、α1×L1+α2×L2+α3×L3という数式で特定される損失関数に基づいて演算モデルを更新してもよい。
一例として、損失関数L1及びL3の夫々は、物体位置情報PIs+τに関する損失関数である一方で、損失関数L2は、物体位置情報PIに関する損失関数である。演算モデルを適切に更新するという観点から言えば、演算モデルの更新に対する物体位置情報PIの寄与度(つまり、損失関数L1及びL3の寄与度)と、演算モデルの更新に対する物体位置情報PIs+τの寄与度(つまり、損失関数L2の寄与度)とは、大きく異なっていないことが好ましい。典型的には、演算モデルの更新に対する物体位置情報PIの寄与度は、演算モデルの更新に対する物体位置情報PIs+τの寄与度と同じであることが好ましい。このため、学習部24aは、損失関数L1と損失関数L3との総和に対する重みと、損失関数L2に対する重みとが同じになるように、重み付け処理を行ってもよい。一例として、学習部24aは、0.5×(L1+L3)+0.5×L2という数式を用いて損失関数L1からL3に対して重み付け処理を施し、0.5×(L1+L3)+0.5×L2という数式で特定される損失関数に基づいて演算モデルを更新してもよい。このような重み付け処理は、後述する第3変形例においてソフトマックス関数を用いて類似性行列AMが正規化される場合に特に有益である。以下、その理由である。まず、学習動作の初期においてソフトマックス関数を用いて類似性行列AMが正規化されると、類似性行列AMの殆どの要素がゼロになってしまう。その結果、リファインされた物体位置情報PIs+τと物体検出部21が検出した物体位置情報PIs+τとが同一になってしまう。このような状況下において損失関数L1からL3の重みが全て同一のままである(例えば、全て1である)と仮定すると、演算モデルの学習効果が薄れてしまう。なぜならば、損失関数L1と損失関数L3の値が同じであるがゆえに、見かけ上、演算モデルの更新に対する損失関数L2の寄与度が、演算モデルの更新に対する損失関数L1及びL3の寄与度に対して小さくなってしまうからである。そこで、学習部24aは、学習動作の初期の期間(例えば、正規化処理によって似性行列AMの殆どの要素がゼロになってしまう期間)は、損失関数L1と損失関数L3との総和に対する重みと、損失関数L2に対する重みとが同じになるように、重み付け処理を行ってもよい。その結果、学習部24aは、学習動作の初期の期間(例えば、正規化処理によって似性行列AMの殆どの要素がゼロになってしまう期間)においても、学習効果が薄れにくくなる。
尚、演算モデルの更新に対する損失関数L1の寄与度と、演算モデルの更新に対する損失関数L3の寄与度とを同じにするために、学習部24aは、0.25×L1+0.25×L3+0.5×L2という数式を用いて損失関数L1からL3に対して重み付け処理を施し、0.25×L1+0.25×L3+0.5×L2という数式で特定される損失関数に基づいて演算モデルを更新してもよい。
(4-2)第2変形例
上述した説明では、物体追跡装置1は、物体検出動作を含む物体追跡動作を行っている。しかしながら、第2変形例では、物体追跡動作は、物体検出動作を含んでいなくてもよい。つまり、物体追跡装置1は、物体検出動作を行わなくてもよい。この場合、物体追跡装置1の第2変形例である物体追跡装置1bの構成を示す図9に示すように、物体追跡装置1bは、物体検出部21を備えていなくてもよい。更には、記憶装置3には、物体検出動作を行うために用いられる画像IMを格納するための画像DB31及び物体検出動作の結果を示す物体検出情報を格納するための物体検出DB32が記憶されていなくてもよい。物体追跡装置1b(特に、物体照合部22)は、物体追跡装置1bとは異なる装置が行った物体検出動作の結果を示す物体検出情報を用いて、物体照合動作を行ってもよい。
上述した説明では、物体追跡装置1は、リファイン動作を含む物体追跡動作を行っている。しかしながら、第2変形例では、物体追跡動作は、リファイン動作を含んでいなくてもよい。つまり、物体追跡装置1は、リファイン動作を行わなくてもよい。この場合、物体追跡装置1の第2変形例である物体追跡装置1bの構成を示す図9に示すように、物体追跡装置1bは、リファイン部23を備えていなくてもよい。リファイン動作は、物体追跡装置1bとは異なる装置によって行われてもよい。この場合、物体追跡装置1b(特に、物体照合部22)は、物体照合動作の結果を示す物体照合情報を、物体追跡装置1bとは異なる、リファイン動作を行う装置に対して出力してもよい。
(4-3)第3変形例
行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVとを用いた演算処理によって得られる類似性行列AMを正規化してもよい。例えば、行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVとの行列積を正規化することで、類似性行列AMを正規化してもよい。
行列演算部225は、類似性行列AMに対して任意の正規化処理を行ってもよい。例えば、行列演算部225は、類似性行列AMに対して、シグモイド関数を用いた正規化処理を行ってもよい。この場合、類似性行列AMの各要素が、シグモイド関数を用いて正規化される。
或いは、例えば、行列演算部225は、類似性行列AMに対して、ソフトマックス(sofmax)関数を用いた正規化処理を行ってもよい。具体的には、図10に示すように、行列演算部225は、類似性行列AMの各行の複数の要素から構成される列ベクトル成分と、類似性行列AMの各列の複数の要素から構成される列ベクトル成分との夫々に対して、ソフトマックス関数を用いた正規化処理を行ってもよい。この場合、行列演算部225は、列ベクトル成分を構成する複数の要素の総和が1になるように、列ベクトル成分に対してソフトマックス関数を用いた正規化処理を行い、行ベクトル成分を構成する複数の要素の総和が1になるように、行ベクトル成分に対してソフトマックス関数を用いた正規化処理を行ってもよい。その後、正規化処理が行われたれベクトル成分と行ベクトル成分とを掛け合わせることで得られる要素を含む行列が、正規化処理が行われた類似性行列AMとなる。一例として、行列演算部225は、類似性行列AMの物体Ot-τに対応する一の行の複数の要素から構成される列ベクトル成分と、類似性行列AMの同じ物体Oに対応する一の列の複数の要素から構成される列ベクトル成分との夫々に対して、ソフトマックス関数を用いた正規化処理を行ってもよい。この場合、行列演算部225は、物体Ot-τに対応する列ベクトル成分を構成する複数の要素の総和が1になるように、列ベクトル成分に対してソフトマックス関数を用いた正規化処理を行い、物体Oに対応する行ベクトル成分を構成する複数の要素の総和が1になるように、行ベクトル成分に対してソフトマックス関数を用いた正規化処理を行ってもよい。その後、正規化処理が行われたれベクトル成分と行ベクトル成分とを掛け合わせることで得られる要素を含む行列が、正規化処理が行われた類似性行列AMとなる。
(4-4)その他の変形例
上述した説明では、物体検出動作を行うことで物体検出部21が生成する物体位置情報PIは、物体Oの中心位置KPを示す情報、物体Oの検出枠BBのサイズを示す情報及び検出枠BBの補正量を示す情報を含んでいる。しかしながら、物体位置情報PIは、物体Oの検出枠BBのサイズを示す情報及び検出枠BBの補正量を示す情報の少なくとも一方を含んでいなくてもよい。物体位置情報PIは、物体Oの中心とは異なる部分の位置に関する情報を含んでいてもよい。
上述した説明では、物体照合部22は、物体検出動作の結果を示す物体位置情報PIを用いて、特徴ベクトルCVを生成している。ここで、上述したように物体検出動作においてニューラルネットワーク等の演算モデルが用いられる場合には、物体照合部22は、演算モデルの最終出力に相当する物体位置情報PIに加えて、演算モデルの中間出力を用いて、特徴ベクトルCVを生成してもよい。例えば、物体照合部22は、演算モデルとして用いられるニューラルネットワークの出力層の出力に相当する物体位置情報PIに加えて、演算モデルとして用いられるニューラルネットワークの中間層の出力を用いて特徴マップCMを生成し、生成した特徴マップCMから特徴ベクトルCVを生成してもよい。
上述した説明では、行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVとの行列積を算出する演算処理によって得られる情報を、類似性行列AMとして生成している。しかしながら、行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVとを用いた任意の演算処理によって得られる情報を、類似性行列AMとして生成してもよい。例えば、行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVとの行列和を算出する演算処理によって得られる情報を、類似性行列AMとして生成してもよい。例えば、行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVとが入力された場合に類似性行列AMを出力する任意の演算モデルを用いて、類似性行列AMを生成してもよい。このような演算モデルの一例として、ニューラルネットワーク(例えば、CNN:Convolutional Neural Network)を用いた演算モデルがあげられる。要は、行列演算部225は、物体Ot-τと物体Oとの対応関係を示す類似性行列AMを生成可能な演算処理を行う限りは、類似性行列AMを生成するためにどのような演算処理を行ってもよい。
上述した説明では、物体照合部22は、H×W×(K+4)のサイズを有するマップ情報である物体位置情報PIから、HW×HWのサイズを有する類似性行列AMを生成している。しかしながら、物体照合部22は、H×W×(K+4)のサイズを有する物体位置情報PIから、HW×HWのサイズよりも小さいサイズを有する類似性行列AMを生成している。つまり、物体照合部22は、ダウンスケーリングされた類似性行列AMを生成してもよい。例えば、物体照合部22の特徴マップ変換部221及び223は、H×W×(K+4)のサイズを有する物体位置情報PIt-τ及びPIから、H×W×Cのサイズよりも小さいサイズを有する特徴マップCMt-τ及びCMを夫々生成してもよい。この場合、物体照合部22の行列演算部225は、H×W×Cのサイズよりも小さいサイズを有する特徴マップCMから、HW×HWのサイズよりも小さいサイズを有する類似性行列AMを生成することができる。尚、H×W×Cのサイズよりも小さいサイズを有する特徴マップCMt-τ及びCMを夫々生成するために、物体照合部22の特徴マップ変換部221及び223は、特徴マップCMt-τ及びCMを生成するための畳み込み処理を行う畳み込み層で用いられるカーネル(つまり、畳み込みフィルタ)のストライド量(つまり、移動量)を調整してもよい。カーネルのストライド量が大きくなればなるほど、生成される特徴マップCMt-τ及びCMのサイズが小さくなる。
(5)付記
以上説明した実施形態に関して、更に以下の付記を開示する。
[付記1]
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成する第1生成手段と、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成する第2生成手段と
を備える物体追跡装置。
[付記2]
前記演算処理は、前記第1特徴ベクトルと第2特徴ベクトルとの行列積を算出する処理を含む
付記1に記載の物体追跡装置。
[付記3]
前記対応情報は、行列を用いて前記第1画像中の物体と前記第2画像中の物体との対応関係を示す
付記1又は2に記載の物体追跡装置。
[付記4]
前記第2生成手段は、前記行列の一の行のベクトル成分及び前記行列の一の列のベクトル成分の夫々をソフトマックス関数で正規化することで、前記行列を正規化する
付記1から3のいずれか一項に記載の物体追跡装置。
[付記5]
前記対応情報は、前記第1及び第2画像のいずれか一方中の一の物体に対応する行ベクトル成分と前記第1及び第2画像のいずれか他方中の前記一の物体に対応する列ベクトル成分とが交差する位置において要素が反応する行列を用いて、前記第1画像中の物体と前記第2画像中の物体との対応関係を示し、
前記第2生成手段は、前記行ベクトル成分及び各列ベクトル成分の夫々をソフトマックス関数で正規化することで、前記行列を正規化する
付記1から4のいずれか一項に記載の物体追跡装置。
[付記6]
前記対応情報を用いて前記第2位置情報を補正する補正手段を更に備える
付記1から4のいずれか一項に記載の物体追跡装置。
[付記7]
前記補正手段は、前記対応情報を重みとして用いる注意機構を用いて、前記第2位置情報を補正する
付記6に記載の物体追跡装置。
[付記8]
前記対応情報は、行列を用いて前記第1画像中の物体と前記第2画像中の物体との対応関係を示し、
前記第2位置情報は、前記第2画像中の物体の位置に関する情報を示す位置マップを含み、
前記注意機構は、前記位置マップと前記対応マップとの行列積を算出する処理を行うことで、前記第2位置情報である前記位置マップを補正する
付記7に記載の物体追跡装置。
[付記9]
前記注意機構は、前記位置マップと前記対応情報との行列積を算出することで得られる補正マップを前記位置マップに加算する処理を行うことで、前記第2位置情報である前記位置マップを補正する
付記8に記載の物体追跡装置。
[付記10]
前記第1生成手段は、前記第1及び第2画像が入力されると前記第1及び第2位置情報を夫々出力する演算モデルから、前記第1及び第2位置情報と、前記演算モデルの中間出力に相当する中間出力情報とを取得し、
前記第1生成手段は、前記第1及び第2位置情報と前記中間出力情報とに基づいて前記第1及び第2特徴ベクトルを算出する
付記1から9のいずれか一項に記載の物体追跡装置。
[付記11]
前記第1及び第2画像から前記第1及び第2位置情報を生成する第3生成手段と、
前記対応情報を用いて前記第2位置情報を補正する補正手段と、
学習用の前記第1及び第2画像を含む学習用データを前記第3生成手段に入力し、前記学習用データが前記第3生成手段に入力された場合に前記補正手段が補正した前記第2位置情報に関する第1損失関数に基づいて、前記第1から第3生成手段及び前記補正手段のうちの少なくとも一つの動作内容を規定する学習モデルを更新する学習手段と
を更に備える付記1から10のいずれか一項に記載の物体追跡装置。
[付記12]
前記学習手段は、前記第1損失関数と、前記学習用データが前記第3生成手段に入力された場合に前記第3生成手段が生成した前記第1位置情報に関する第2損失関数と、前記学習用データが前記第3生成手段に入力された場合に前記第3生成手段が生成した前記第2位置情報に関する第3損失関数とに基づいて、前記学習モデルを更新し、
前記学習手段は、前記第1及び第3損失関数全体の重みと、前記第2損失関数の重みとが等しくなるように、前記第1から第3損失関数に対して重み付け処理を施し、前記重み付け処理が施された前記第1から第3損失関数に基づいて、前記学習モデルを生成する
付記11に記載の物体追跡装置。
[付記13]
前記学習手段は、前記第1時刻と前記第2時刻との間隔が異なる複数の前記学習用データを前記第1生成手段に入力する
付記11又は12に記載の物体追跡装置。
[付記14]
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと
を含む物体追跡方法。
[付記15]
コンピュータに物体追跡方法を実行させるコンピュータプログラムが記録された、一時的でない記録媒体であって、
前記物体追跡方法は、
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと
を含む記録媒体。
[付記16]
コンピュータに物体追跡方法を実行させるコンピュータプログラムであって、
前記物体追跡方法は、
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと
を含むコンピュータプログラム。
本発明は、請求の範囲及び明細書全体から読み取るこのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う物体追跡装置、物体追跡方法及び記録媒体もまた本発明の技術思想に含まれる。
1 物体追跡装置
2 演算装置
21 物体検出部
22 物体照合部
221、223 特徴マップ変換部
222、224 特徴ベクトル変換部
225 行列演算部
23 リファイン部
231 行列演算部
232 特徴ベクトル変換部
233 特徴マップ変換部
234 残差処理部
235 特徴マップ変換部
3 記憶装置
31 画像DB
32 物体検出DB
33 物体照合DB

Claims (9)

  1. 第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成する第1生成手段と、
    前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成する第2生成手段と
    前記対応情報を用いて前記第2位置情報を補正する補正手段と
    を備える物体追跡装置。
  2. 前記演算処理は、前記第1特徴ベクトルと第2特徴ベクトルとの行列積を算出する処理を含む
    請求項1に記載の物体追跡装置。
  3. 前記対応情報は、行列を用いて前記第1画像中の物体と前記第2画像中の物体との対応関係を示す
    請求項1又は2に記載の物体追跡装置。
  4. 前記第2生成手段は、前記行列の一の行のベクトル成分及び前記行列の一の列のベクトル成分の夫々をソフトマックス関数で正規化することで、前記行列を正規化する
    請求項3に記載の物体追跡装置。
  5. 前記対応情報は、前記第1及び第2画像のいずれか一方中の一の物体に対応する行ベクトル成分と前記第1及び第2画像のいずれか他方中の前記一の物体に対応する列ベクトル成分とが交差する位置において要素が反応する行列を用いて、前記第1画像中の物体と前記第2画像中の物体との対応関係を示し、
    前記第2生成手段は、前記行ベクトル成分及び各列ベクトル成分の夫々をソフトマックス関数で正規化することで、前記行列を正規化する
    請求項1から4のいずれか一項に記載の物体追跡装置。
  6. 前記補正手段は、前記対応情報を重みとして用いる注意機構を用いて、前記第2位置情報を補正する
    請求項1から5のいずれか一項に記載の物体追跡装置。
  7. 前記対応情報は、行列を用いて前記第1画像中の物体と前記第2画像中の物体との対応関係を示し、
    前記第2位置情報は、前記第2画像中の物体の位置に関する情報を示す位置マップを含み、
    前記注意機構は、前記位置マップと前記対応情報との行列積を算出する処理を行うことで、前記第2位置情報である前記位置マップを補正する
    請求項に記載の物体追跡装置。
  8. 第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
    前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと
    前記対応情報を用いて前記第2位置情報を補正することと
    を含む物体追跡方法。
  9. コンピュータに物体追跡方法を実行させるコンピュータプログラムであって、
    前記物体追跡方法は、
    第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
    前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと
    前記対応情報を用いて前記第2位置情報を補正することと

    を含むコンピュータプログラム。
JP2021566677A 2019-12-26 2019-12-26 物体追跡装置、物体追跡方法及び記録媒体 Active JP7310927B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/051088 WO2021130951A1 (ja) 2019-12-26 2019-12-26 物体追跡装置、物体追跡方法及び記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021130951A1 JPWO2021130951A1 (ja) 2021-07-01
JPWO2021130951A5 JPWO2021130951A5 (ja) 2022-08-08
JP7310927B2 true JP7310927B2 (ja) 2023-07-19

Family

ID=76573764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021566677A Active JP7310927B2 (ja) 2019-12-26 2019-12-26 物体追跡装置、物体追跡方法及び記録媒体

Country Status (3)

Country Link
US (1) US20230031931A1 (ja)
JP (1) JP7310927B2 (ja)
WO (1) WO2021130951A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030048A1 (ja) 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 物体追跡方法、物体追跡装置およびプログラム
WO2019008951A1 (ja) 2017-07-06 2019-01-10 株式会社デンソー 畳み込みニューラルネットワーク
JP2019536154A (ja) 2016-11-15 2019-12-12 マジック リープ, インコーポレイテッドMagic Leap,Inc. 直方体検出のための深層機械学習システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030048A1 (ja) 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 物体追跡方法、物体追跡装置およびプログラム
JP2019536154A (ja) 2016-11-15 2019-12-12 マジック リープ, インコーポレイテッドMagic Leap,Inc. 直方体検出のための深層機械学習システム
WO2019008951A1 (ja) 2017-07-06 2019-01-10 株式会社デンソー 畳み込みニューラルネットワーク

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FEICHTENHOFER et al.,Detect to Track and Track to Detect,Proceedings of 2017 IEEE International Conference on Computer Vision (ICCV 2017),米国,IEEE,2017年10月29日,pp.3057-3065,DOI:10.1109/ICCV.2017.330,ISBN 978-1-5386-1032-9

Also Published As

Publication number Publication date
WO2021130951A1 (ja) 2021-07-01
US20230031931A1 (en) 2023-02-02
JPWO2021130951A1 (ja) 2021-07-01

Similar Documents

Publication Publication Date Title
US11610115B2 (en) Learning to generate synthetic datasets for training neural networks
US11557085B2 (en) Neural network processing for multi-object 3D modeling
CN109949255B (zh) 图像重建方法及设备
Liu et al. Video object detection for autonomous driving: Motion-aid feature calibration
CN109902546B (zh) 人脸识别方法、装置及计算机可读介质
JP7037143B2 (ja) ニューラルネットワークのための方法及び電子装置
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
US11593611B2 (en) Neural network cooperation
WO2020019236A1 (en) Loss-error-aware quantization of a low-bit neural network
CN111696196B (zh) 一种三维人脸模型重建方法及装置
CN111860504A (zh) 基于深度学习的视觉多目标跟踪方法及装置
US20210232855A1 (en) Movement state recognition model training device, movement state recognition device, methods and programs therefor
WO2021217937A1 (zh) 姿态识别模型的训练方法及设备、姿态识别方法及其设备
Hornauer et al. Gradient-based uncertainty for monocular depth estimation
WO2024046144A1 (zh) 一种视频处理方法及其相关设备
JP7310927B2 (ja) 物体追跡装置、物体追跡方法及び記録媒体
US11688175B2 (en) Methods and systems for the automated quality assurance of annotated images
US20210042625A1 (en) Performance of neural networks using learned specialized transformation functions
WO2020052170A1 (zh) 一种目标对象识别方法、装置及存储介质
US20240104891A1 (en) Object detection device, learning method, and recording medium
WO2019136591A1 (zh) 基于弱监督时空级联神经网络的显著目标检测方法及系统
KR20230071719A (ko) 이미지 처리용 신경망 훈련 방법 및 전자 장치
Zhang et al. Research on Mask Wearing Detection Algorithm in Complex Scenes
Tomar A critical evaluation of activation functions for autoencoder neural networks
WO2023044661A1 (en) Learning reliable keypoints in situ with introspective self-supervision

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R151 Written notification of patent or utility model registration

Ref document number: 7310927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151