JP2019200527A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2019200527A
JP2019200527A JP2018093868A JP2018093868A JP2019200527A JP 2019200527 A JP2019200527 A JP 2019200527A JP 2018093868 A JP2018093868 A JP 2018093868A JP 2018093868 A JP2018093868 A JP 2018093868A JP 2019200527 A JP2019200527 A JP 2019200527A
Authority
JP
Japan
Prior art keywords
captured image
unit
image
information processing
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018093868A
Other languages
English (en)
Inventor
龍二 齊院
Ryuji Saiin
龍二 齊院
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Comcruise Co Ltd
Original Assignee
Aisin Comcruise Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Comcruise Co Ltd filed Critical Aisin Comcruise Co Ltd
Priority to JP2018093868A priority Critical patent/JP2019200527A/ja
Publication of JP2019200527A publication Critical patent/JP2019200527A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】追跡対象の物体領域の検出速度の向上を図る。【解決手段】情報処理装置10は、取得部20Aと、追跡対象検出部20G(検出部)と、を備える。取得部20Aは、撮影画像を取得する。追跡対象検出部20Gは、撮影画像のうち物体が写り込んだ領域を示す1以上の物体領域の特徴量、および、教師データ18C、に基づいて、撮影画像に含まれる1以上の物体の物体領域の内、追跡対象の物体の物体領域を検出する。教師データは、教師画像に含まれる1以上の物体領域の中の何れか追跡対象の物体の物体領域であるかを示す正解情報と、該1以上の物体領域の各々の特徴量と、の対応を示す。【選択図】図3

Description

本発明の実施の形態は、情報処理装置、情報処理方法、およびプログラムに関する。
画像を解析し、画像に含まれる追跡対象の物体を検出して追跡するシステムが知られている。
例えば、撮影画像から追跡対象の候補となる複数の候補領域を切出し、事前に学習した多層ニューラルネットワークに、切出した複数の候補領域を1つずつ入力することで、複数の候補領域の各々の特徴量を抽出する。そして、複数の候補領域の各々について、抽出した特徴量と1つ前の時点の正解の候補領域の特徴量との類似度と、抽出した特徴量から算出した信頼度と、からスコアを算出し、候補領域の各々のスコアを用いて、候補領域の内の正解とされる追跡対象の物体領域を特定する技術が開示されている(例えば、特許文献1)。
特開2017−156886号公報
しかしながら、従来では、画像に含まれる追跡対象の候補領域の各々を、1つずつ多層ニューラルネットワークに入力することで得られた特徴量と一つ前の時点の正解の候補領域の特徴量との類似度および信頼度を算出することで、正解とされる追跡対象の物体領域を特定していた。このため、画像に含まれる追跡対象の候補領域の数が多いほど、検出速度が低下していた。
本発明が解決しようとする課題は、追跡対象の物体領域の検出速度の向上を図るこができる、情報処理装置、情報処理方法、およびプログラムを提供することである。
実施の形態の情報処理装置は、取得部と、検出部と、を備える。取得部は、撮影画像を取得する。検出部は、前記撮影画像のうち、物体が写り込んだ領域を示す1以上の物体領域の特徴量、および、教師画像に含まれる1以上の前記物体領域の中の何れが追跡対象の物体の前記物体領域であるかを示す正解情報と該1以上の前記物体領域の各々の特徴量との対応を示す教師データ、に基づいて、前記撮影画像に含まれる1以上の物体の前記物体領域の内、追跡対象の物体の前記物体領域を検出する。
図1は、本実施の形態の情報処理システムの全体構成図である。 図2は、情報処理装置のハードウェア構成図である。 図3は、情報処理装置の機能ブロック図である。 図4は、撮影画像に対する処理の流れを示す模式図である。 図5は、変形管理情報のデータ構成を示す模式図である。 図6は、教師データセットのデータ構成を示す模式図である。 図7は、情報処理の手順のフローチャートである。 図8は、変形された撮影画像の効果の説明図である。
以下に添付図面を参照して、情報処理装置、情報処理方法、およびプログラムの一の実施の形態を詳細に説明する。
図1は、本実施の形態の情報処理システム1の全体構成図である。情報処理システム1は、情報処理装置10と、撮影部12と、入力部14と、表示部16と、を備える。撮影部12、入力部14、および表示部16と、情報処理装置10と、はデータや信号を授受可能に接続されている。
撮影部12は、撮影によって撮影画像を得る。撮影部12は、公知のデジタルカメラである。本実施の形態では、撮影部12は連続して撮影を行い、撮影によって得た撮影画像を、情報処理装置10へ順次出力する。
入力部14は、ユーザによる操作指示を受付ける。入力部14は、キーボード、タッチパネル、ポインティングデバイス、マウス、入力ボタンなどである。
表示部16は、各種の情報を表示する。表示部16は、例えば、公知のLCD(Liquid Crystal Display)や有機EL(Electro−Luminescence)などである。
情報処理装置10は、撮影部12から受付けた撮影画像の内、追跡対象の物体が写りこんだ領域を検出する。また、情報処理装置10は、撮影部12で時系列に連続して撮影される複数の撮影画像の各々に含まれる、追跡対象の物体が写り込んだ領域を順次検出することで、追跡対象の物体を追跡する。
追跡対象の物体は、任意の物体であればよい。例えば、追跡対象の物体は、人、動物(犬、猫、鳥、など)などの生物や、車、自動車、自転車などの非生物である。また、物体は、移動体(移動可能な物体)であってもよいし、静止物であってもよい。本実施の形態では、追跡対象の物体が、移動可能な生物の一例である“人”、すなわち、歩行者である場合を一例として説明する。
次に、ハードウェア構成を説明する。図2は、情報処理装置10のハードウェア構成図の一例である。
情報処理装置10は、CPU(Central Processing Unit)10A、ROM(Read Only Memory)10B、RAM(Random Access Memory)10C、およびI/F10D等がバス10Eにより相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。
CPU10Aは、本実施の形態の情報処理装置10を制御する演算装置である。ROM10Bは、CPU10Aによる各種処理を実現するプログラム等を記憶する。RAM10Cは、CPU10Aによる各種処理に必要なデータを記憶する。I/F10Dは、外部装置、撮影部12、入力部14、および表示部16などに接続し、データを送受信するためのインターフェースである。
本実施の形態の情報処理装置10で実行される情報処理を実行するためのプログラムは、ROM10B等に予め組み込んで提供される。なお、本実施の形態の情報処理装置10で実行されるプログラムは、情報処理装置10にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。
次に、情報処理装置10の機能的構成を説明する。図3は、情報処理装置10の機能的構成を示す機能ブロック図である。なお、図3には、データの入出力関係を明確にするために、情報処理装置10に加えて、撮影部12、入力部14、および表示部16を併せて図示した。
情報処理装置10は、記憶部18と、制御部20と、を備える。記憶部18と制御部20とは、データや信号を授受可能に接続されている。
記憶部18は、各種データを記憶する。本実施の形態では、記憶部18は、変形管理情報18A、および教師データセット18Bを記憶する。変形管理情報18Aおよび教師データセット18Bの詳細は後述する。
制御部20は、情報処理装置10を制御する。制御部20は、取得部20Aと、画像変形部20Bと、物体検出部20Cと、抽出部20Dと、特定部20Eと、追跡対象検出部20Gと、追加部20Hと、学習部20Iと、を備える。
画像変形部20B、物体検出部20C、抽出部20D、特定部20E、追加部20H、および学習部20Iの一部またはすべては、例えば、CPU10Aなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
取得部20Aは、撮影部12から撮影画像を取得する。取得部20Aは、撮影部12から撮影画像を取得するごとに、取得した撮影画像を画像変形部20Bへ出力する。
画像変形部20Bは、取得部20Aから撮影画像を受付け、受付けた撮影画像を変形する。
図4は、撮影画像40に対する処理の流れの一例を示す模式図である。例えば、取得部20Aが、図4(A)に示す撮影画像40を受付けた場合を想定する(図4(A)参照)。
撮影画像40には、複数の物体43が含まれている。なお、撮影画像40には、1つの物体43のみが含まれていてもよい。図4には、撮影画像40が、複数の物体43を含む場合を一例として示した。また、図4には、撮影画像40が、複数の物体43として、複数の歩行者41と犬49を含む形態を一例として示した。
画像変形部20Bは、受付けた撮影画像40を変形し、撮影画像42を生成する(図4(B)参照)。
図3に戻り説明を続ける。画像変形部20Bは、撮影画像40に含まれる追跡対象の属性の物体43が、後述する学習済モデル20Fで用いるフィルタに応じた形状となるように、撮影画像40全体を変形する。
学習済モデル20Fは、畳み込みニューラルネットワークである。畳み込みニューラルネットワークで用いるフィルタは、具体的には、畳み込みフィルタである。この畳み込みフィルタの形状は、例えば、正方形である。このため、例えば、画像変形部20Bは、撮影画像40に含まれる追跡対象の属性の物体43が正方形となるように、撮影画像40全体を変形する。なお、学習済モデル20Fの詳細は後述する。
本実施の形態では、画像変形部20Bは、以下の処理により、撮影画像40に含まれる追跡対象の属性の物体43が畳み込みフィルタに応じた形状となるように、撮影画像40を変形する。
まず、画像変形部20Bは、撮影画像40における、追跡対象の物体43の属性を特定する。例えば、画像変形部20Bは、追跡対象の物体43の属性を示す情報を、入力部14から受付ける。
物体43の属性を示す情報は、例えば、物体43を予め定めた規則に沿って複数のグループに分類した、各グループに属する物体43の属性を示す情報である。例えば、制御部20は、物体43のアスペクト比などに応じて、物体43を予め複数の属性に分類すればよい。物体43の属性を示す情報は、例えば、歩行者を示す情報、犬を示す情報、車を示す情報、などであるが、これらに限定されない。
ユーザは、入力部14を操作することで、追跡対象の物体43の属性を示す情報を入力する。画像変形部20Bは、追跡対象の物体43の属性を示す情報を入力部14から受付けることで、該情報を特定する。
なお、画像変形部20Bは、追跡対象の物体43の属性を示す情報を予め記憶部18に記憶し、記憶部18から該情報を読取ることで、追跡対象の物体43の属性を示す情報を特定してもよい。
次に、画像変形部20Bは、特定した追跡対象の物体43の属性に対応する変形情報を、変形管理情報18Aから取得する。変形管理情報18Aは、記憶部18に予め記憶されている。
図5は、変形管理情報18Aのデータ構成の一例を示す模式図である。変形管理情報18Aは、物体43の属性を示す情報と、変形情報と、を予め対応付けたデータベースである。なお、変形管理情報18Aのデータ形式は、データベースに限定されない。
変形情報は、対応する属性の物体43がフィルタに応じた形状となるように撮影画像40を変形するためのアスペクト比の変形率を示す情報である。上述したように、フィルタの形状は、例えば、正方形である。この場合、変形情報は、対応する属性の物体43が正方形となるように撮影画像40を変形するための、変形率を示す情報である。なお、変形情報は、対応する属性の物体43がフィルタに応じた形状となるように撮影画像40を変形するための情報であればよく、アスペクト比の変形率を示す情報に限定されない。
そして、画像変形部20Bは、取得した変形情報に応じて撮影画像40を変形することによって、撮影画像40に含まれる追跡対象の属性の物体43が学習済モデル20Fで用いるフィルタに応じた形状となるように、撮影画像40全体を変形する。
上述したように、本実施の形態では、追跡対象の属性の物体43が歩行者41である場合を一例として説明する。このため、図4(A)に示すように、画像変形部20Bは、撮影画像40に含まれる歩行者41が正方形となるように、撮影画像40全体を変形することで、撮影画像42を作成する(図4(B)参照)。
図3に戻り説明を続ける。画像変形部20Bは、変形後の撮影画像40である撮影画像42を、物体検出部20Cおよび抽出部20Dへ出力する。
物体検出部20Cは、画像変形部20Bから撮影画像42を受付ける。そして、物体検出部20Cは、撮影画像42に含まれる、追跡対象の物体43と同じ属性を示す物体43が写り込んだ領域を検出する。以下では、該領域を、物体領域と称して説明する。
なお、物体領域は、追跡対象の属性の物体43が写り込んだ領域であればよい。物体領域は、例えば、追跡対象の属性の物体43の輪郭内の領域や、追跡対象の属性の物体43を矩形状に囲む領域や、追跡対象の属性の物体43の構成部位を示す領域である。追跡対象の属性の物体43の輪郭内の領域は、例えば、セマンティックセグメンテーションにより表される。物体43を矩形状に囲む領域は、例えば、バウンディングボックスにより表される。構成部位を示す領域は、追跡対象の属性の物体43が歩行者41である場合、例えば、歩行者41の骨格を示す情報である。歩行者41の骨格を示す情報は、歩行者41の頭、胴体、腰、上腕、下肢、などの構成部とこれらの構成部の接続状況(傾きなど)によって表される。
図4(C)には、物体領域45の一例を示した。図4(C)に示すように、本実施の形態では、物体領域45が、追跡対象の属性の物体43(本実施の形態では歩行者41)を矩形状に囲む領域である場合を、一例として説明する。
物体検出部20Cは、公知の方法を用いて、撮影画像42に含まれる追跡対象の属性の物体43(歩行者41)の各々について、物体領域45を検出すればよい。追跡対象の物体43の属性を示す情報は、例えば、入力部14から受付けてもよいし、記憶部18から読取ってもよい。
本実施の形態では、物体検出部20Cは、撮影画像42に含まれる歩行者41の各々の物体領域45を検出するための検出器を予め学習する。検出器には、公知の抽出器を用いればよい。例えば、畳み込みニューラルネットワーク(Convolutional Neural Network: CNN)や、再帰型ニューラルネットワーク(Recurrent Neural Network: RNN)や、LSTM(Long Short−Term Memory)などのアルゴリズムの深層学習(ディープラーニング)により、検出器を予め学習すればよい。
本実施の形態では、物体検出部20Cは、後述する特定部20Eが用いる学習済モデル20Fと同じ属性のアルゴリズムの検出器を用いる場合を一例として説明する。このため、本実施の形態では、物体検出部20Cは、検出器のアルゴリズムとして、畳み込みニューラルネットワーク(CNN)を用いる。
例えば、物体検出部20Cは、畳み込みニューラルネットワークを用いて物体43を検出する公知技術(例えば、Joseph Redmon, Ali Farhadi “YOLO9000: Better, Faster, Stronger” Subjects: Computer Vision and Pattern Recognition (cs.CV) Cite as: arXiv:1612.08242 [cs.CV])に示される検出器を用いて、撮影画像42に含まれる物体領域45を検出する。
このため、図4(C)に示すように、撮影画像42から、撮影画像42に含まれる追跡対象の属性の物体43である歩行者41(ユーザA〜ユーザC)の各々の物体領域45(物体領域45A〜物体領域45C)が検出される。物体検出部20Cは、物体領域45の検出結果を、追跡対象検出部20Gへ出力する。
図3に戻り説明を続ける。次に、抽出部20Dについて説明する。抽出部20Dは、画像変形部20Bから受付けた撮影画像42について、追跡対象の属性の物体43である歩行者41の物体領域の特徴量を抽出する。なお、以下では、物体43の物体領域の特徴量を、単に、物体43の特徴量と称して説明する場合がある。
特徴量は、追跡対象の属性の物体43の各々を区別して検出するための情報である。本実施の形態では、特徴量は、歩行者41の各々を区別して検出するための情報である。例えば、図4(B)に示すように、撮影画像42内に、ユーザA、ユーザB、およびユーザCの3人の歩行者41が含まれていると仮定する。この場合、特徴量は、ユーザA、ユーザB、およびユーザCの各々を区別して検出可能な情報である。
特徴量は、追跡対象の属性の物体43の各々を区別して検出するための情報であればよい。特徴量は、例えば、HOG特徴量である。HOG特徴量は、画像の局所領域における輝度の勾配方向をヒストグラム化し、各度数を成分としたベクトル量である。
抽出部20Dは、公知の方法を用いて、撮影画像42から、撮影画像42に含まれる歩行者41の各々の特徴量を検出するための特徴量を抽出すればよい。
例えば、抽出部20Dは、撮影画像42から、撮影画像42に含まれる歩行者41の各々の特徴量を抽出するための抽出器を予め学習する。抽出器には、公知の抽出器を用いればよい。例えば、畳み込みニューラルネットワーク(CNN)や、再帰型ニューラルネットワーク(RNN)や、LSTMなどのアルゴリズムを用いた深層学習によって得られる抽出器を用いる。
なお、本実施の形態では、抽出部20Dは、後述する特定部20Eが用いる学習済モデル20Fと同じ属性のアルゴリズムの抽出器を用いる。このため、本実施の形態では、抽出部20Dは、抽出器として、畳み込みニューラルネットワーク(CNN)を用いる場合を説明する。
そして、抽出部20Dは、撮影画像42と抽出器を用いて、撮影画像42に含まれる歩行者41の各々の特徴量を抽出する。
例えば、図4(D)に示すように、抽出部20Dによって、撮影画像42に含まれる歩行者41(ユーザA〜ユーザC)の各々の特徴量44(特徴量44A〜特徴量44C)が抽出される。
図3に戻り説明を続ける。次に、特定部20Eについて説明する。
特定部20Eは、撮影画像42に含まれる1以上の物体43の特徴量44と、教師データと、に基づいて、撮影画像42に含まれる1以上の物体43の物体領域45の内、追跡対象の物体43の物体領域45を示す正解情報を特定する。
正解情報は、正解の物体領域45を示す情報である。正解の物体領域45とは、追跡対象の物体43の物体領域45を示す。例えば追跡対象の物体43の属性が人(属性“歩行者41”)である場合、正解情報は、1以上の歩行者41と1対1で対応する1以上の物体領域45の中の何れが、追跡対象となる特定の歩行者41(例えば、ユーザB)に対応する物体領域45であるか、を示す情報となる。なお、どの物体43を追跡対象とするかは、ユーザによる指定や選択等の操作指示に応じて、任意に変更可能である。
詳細には、特定部20Eは、教師データを用いた学習によって生成された学習済モデル20Fと、撮影画像42に含まれる、追跡対象の属性の1以上の物体43(歩行者41)の特徴量44と、を用いて、撮影画像42に含まれる1以上の物体43の物体領域45の内、追跡対象の物体43の物体領域45を示す正解情報を特定する。
学習済モデル20Fは、後述する学習部20Iによる教師データセット18Bを用いた学習によって生成される。
図6は、教師データセット18Bのデータ構成の一例を示す模式図である。教師データセット18Bは、複数の教師データ18Cを含む。教師データ18Cは、1つの教師画像ごとに生成される。教師画像は、学習済モデル20Fの生成に用いるための撮影画像である。
教師画像は、1または複数の、追跡対象の属性の物体43(本実施の形態では歩行者41)を含む。このため、1人の歩行者41を含む教師画像に対応する教師データ18Cは、1人の歩行者41の特徴量44と、該歩行者41の物体領域45が追跡対象の物体の物体領域45であることを示す正解情報と、を含む。また、複数の歩行者41を含む教師画像に対応する教師データ18Cは、複数の歩行者41の各々の特徴量44と、これらの歩行者41の各々の物体領域45の内、何れの物体領域45が追跡対象の物体の物体領域45であるかを示す正解情報と、を含む。
正解情報は、該正解情報を含む教師データ18Cに対応する教師画像に含まれる、1または複数の歩行者41の各々の物体領域45の内、何れの物体領域45が追跡対象の物体の物体領域45であるかを示す情報であればよい。例えば、正解情報は、教師画像を複数の区画領域に分割した区画領域ごとに、追跡対象の物体の物体領域45を含む区画領域には高いスコア値を規定し、追跡対象の物体の物体領域45を含まない区画領域には低いスコア値を規定したマップであってもよい。また、正解情報は、教師画像における、追跡対象の物体の物体領域45を示す画素位置を示す情報であってもよい。また、正解情報は、教師画像における、追跡対象の物体の物体領域45の位置および範囲を規定した図形情報やテキストデータであってもよい。なお、正解情報は、対応する教師画像に含まれる複数の物体領域45の内、何れの物体領域45が追跡対象の物体の物体領域45であるかを示す情報であればよく、これらの形態によって表される情報に限定されない。
本実施の形態では、正解情報は、対応する教師画像を1または複数の画素からなる複数の区画領域に分割し、分割した区画領域ごとに、追跡対象の物体の物体領域45を含む区画領域には高いスコア値を規定し、追跡対象の物体の物体領域45を含まない区画領域には低いスコア値を規定した、マップである場合を一例として説明する。
図3に戻り説明を続ける。本実施の形態では、学習済モデル20Fは、複数の教師データ18Cを含む教師データセット18Bを用いて、撮影画像42に含まれる1または複数の歩行者41(追跡対象の属性の物体43)の各々の特徴量44から、正解情報を導出するための学習済モデルである。
本実施の形態では、学習済モデル20Fは、畳み込みニューラルネットワーク(CNN)である。
特定部20Eは、抽出部20Dから受付けた撮影画像42に含まれる歩行者41の各々の特徴量44を、学習済モデル20Fへ入力データとして入力する。そして、特定部20Eは、学習済モデル20Fによる演算結果(出力データ)として、該撮影画像42の正解情報を得る。すなわち、特定部20Eは、1つの撮影画像42に含まれる複数の歩行者41(追跡対象の属性の物体43)の特徴量44を一度に学習済モデル20Fへ入力することで、該撮影画像42に含まれる物体領域45の内の何れが追跡対象の物体の物体領域45であるかを示す、1つの正解情報を特定する。
図4(E)は、正解情報47の一例である。図4(E)に示すように、正解情報47は、例えば、撮影画像42における、追跡対象の物体の物体領域45を含む区画領域には高いスコア値Sを規定し、追跡対象の物体の物体領域45を含む区画領域には低いスコア値S’を規定した、マップである。
図3に戻り説明を続ける。そして、特定部20Eは、特定した正解情報47を、追跡対象検出部20Gへ出力する。
次に、追跡対象検出部20Gについて説明する。追跡対象検出部20Gは、物体検出部20Cから、撮影画像42に含まれる物体領域45の検出結果を受付ける。また、追跡対象検出部20Gは、特定部20Eから、該撮影画像42に対する正解情報47を受付ける。
そして、追跡対象検出部20Gは、撮影画像42における、特定部20Eで特定された正解情報47によって示される物体領域45を、追跡対象の物体43の物体領域45として検出する。言い換えると、追跡対象検出部20Gは、物体検出部20Cから受付けた検出結果と特定部20Eから受付けた正解情報47を用いることで、撮影画像42に含まれる1以上の物体43の特徴量44と教師データ18Cとに基づいて、撮影画像42に含まれる1以上の物体43の物体領域45の内、追跡対象の物体43の物体領域45を検出する。
すなわち、追跡対象検出部20Gは、撮影画像42に含まれる、物体検出部20Cによって検出された1または複数の物体領域45の内、特定部20Eで特定された正解情報47によって示される物体領域45を、追跡対象の物体領域45として特定する。
図4を用いて説明する。例えば、追跡対象検出部20Gが、物体領域45の検出結果として、図4(C)に示す物体領域45の検出結果を物体検出部20Cから受付けた場合を想定する。また、追跡対象検出部20Gが、撮影画像42の正解情報47として、図4(E)に示す正解情報47を特定部20Eから受付けた場合を想定する。すると、例えば、追跡対象検出部20Gは、撮影画像42に含まれる物体領域45の内、正解情報47によって示される高いスコア値Sの区画領域との一致度が閾値以上の物体領域45Bを、追跡対象の物体領域45として検出する(図4(F)参照)。なお、以下では、撮影画像42に含まれる複数の物体領域45の内、追跡対象検出部20Gで検出された追跡対象の物体領域45を、追跡対象の物体領域46と称して説明する場合がある(図4(F)参照)。
なお、物体検出部20Cは、撮影画像42における、特定部20Eで特定された正解情報47によって示される物体領域45を、追跡対象の物体領域46として検出すればよい。このため、追跡対象の物体領域46の検出方法は、高いスコア値Sの区画領域との一致度を用いた方法に限定されない。
図3に戻り説明を続ける。追跡対象検出部20Gは、撮影画像42から特定した、追跡対象の物体領域46の検出結果を、表示部16へ出力する。このため、表示部16には、撮影部12で撮影された撮影画像42における、追跡対象の特定の歩行者41(例えば、ユーザB)の物体領域46を示す情報が、表示される。
また、追跡対象検出部20Gは、撮影画像42と、該撮影画像42から検出した追跡対象の物体領域46を示す情報と、該撮影画像42に含まれる追跡対象の属性の物体43の特徴量44と、を追加部20Hへ出力する。
次に、追加部20Hについて説明する。追加部20Hは、追跡対象検出部20Gが追跡対象の物体43の物体領域46を検出する毎に、撮影画像42に含まれる追跡対象の属性の1以上の物体43(歩行者41)の特徴量44と、正解情報47と、の対応を示す教師データ18Cを生成し、教師データセット18Bに追加する。
追加部20Hは、追跡対象検出部20Gで追跡対象の物体領域46を検出した撮影画像42を、新たな教師画像として用いる。すなわち、追加部20Hは、画像変形部20Bによって変形された撮影画像40である撮影画像42を、新たな教師画像として用いる。
そして、追加部20Hは、該撮影画像42に含まれる1または複数の物体43の各々の物体領域45の内、追跡対象検出部20Gで検出された追跡対象の物体43の物体領域46を示す正解情報47を生成する。
そして、追加部20Hは、該撮影画像42について、該撮影画像42に含まれる1または複数の歩行者41(追跡対象の属性の物体43)の各々について抽出部20Dで抽出された特徴量44と、生成した正解情報47と、を教師データ18Cとして生成する。
このため、図4(G)に示すように、追加部20Hは、抽出部20Dによって撮影画像42から抽出された、複数の歩行者41の各々の特徴量44(特徴量44A〜特徴量44C)と、追跡対象検出部20Gで検出された追跡対象の物体領域46を示す正解情報47と、の対応を示す教師データ18Cを生成する。
そして、追加部20Hは、新たに生成した教師データ18Cを、記憶部18の教師データセット18Bに追加登録する。このため、教師データセット18Bには、追加部20Hが教師データ18Cを生成するごとに、新たに生成された教師データ18Cが順次追加される(図6参照)。
なお、教師データセット18Bに登録される教師データ18Cの数は、予め定めた数とすればよい。ここで、追加部20Hが新たに生成した教師データ18Cを追加登録するときに、予め定めた数の教師データ18Cが教師データセット18Bに既に登録済の場合がある。この場合、追加部20Hは、最も過去のタイミングに登録された教師データ18Cを教師データセット18Bから削除し、新たに生成した教師データ18Cを教師データセット18Bへ追加登録すればよい。
図3に戻り説明を続ける。次に、学習部20Iについて説明する。学習部20Iは、教師データセット18Bに登録されている複数の教師データ18Cを用いて、撮影画像42に含まれる1または複数の物体43の特徴量44から正解情報47を導出するための、学習済モデル20Fを学習する。
学習済モデル20Fは、上述したように、畳み込みニューラルネットワーク(CNN)である。学習済モデル20Fの生成方法には、公知の方法を用いればよい。
学習部20Iは、予め定めたタイミング毎に、教師データセット18Bに登録されている複数の教師データ18Cを用いて、新たな学習済モデル20Fを学習すればよい。例えば、学習部20Iは、追加部20Hによって教師データセット18Bに教師データ18Cが追加される毎に、更新後の教師データセット18Bを用いて新たな学習済モデル20Fを学習する。なお、学習部20Iは、所定時間ごとに、教師データセット18Bに登録されている教師データ18Cを用いて、学習済モデル20Fを学習してもよい。
そして、学習部20Iは、新たに学習した学習済モデル20Fを、特定部20Eへ登録する。このため、特定部20Eに登録されている学習済モデル20Fは、学習部20Iによって更新される。
次に、本実施の形態の情報処理装置10が実行する、情報処理の手順の一例を説明する。図7は、本実施の形態の情報処理装置10が実行する、情報処理の手順の一例を示すフローチャートである。
なお、情報処理装置10は、撮影部12で1枚(1フレーム)の撮影画像42が撮影され、情報処理装置10へ出力されるごとに、図7に示す情報処理の手順を実行するものとする。このため、情報処理装置10は、撮影部12が時系列に沿って複数の撮影画像42を撮影すると、撮影された撮影画像42ごとに図7に示す情報処理の手順を繰返し実行することとなる。
なお、追跡対象の物体43の属性は、歩行者41である場合を一例として説明する。
まず、取得部20Aが、撮影部12から撮影画像40を取得する(ステップS100)。次に、画像変形部20Bが、ステップS100で取得した撮影画像40に含まれる追跡対象の属性の物体43が学習済モデル20Fで用いるフィルタに応じた形状となるように、撮影画像40を変形する(ステップS102)。ステップS102の処理によって、撮影画像40が撮影画像42に変形される(図4(A)、図4(B)参照)。
次に、物体検出部20Cが、ステップS102で変形された撮影画像42に含まれる、追跡対象の属性の物体43の物体領域45を検出する(ステップS104)(図4(C)参照)。
次に、抽出部20Dが、ステップS102で変形された撮影画像42に含まれる、追跡対象の属性の1または複数の物体43(歩行者41)の各々の特徴量44を抽出する(ステップS106)(図4(D)参照)。
次に、制御部20が、教師データ18Cが教師データセット18Bに登録済であるか否かを判断する(ステップS108)。教師データセット18Bに教師データ18Cが未登録である場合(ステップS108:No)、ステップS110へ進む。
ステップS110では、追跡対象検出部20Gが、ステップS104で検出された物体領域45の内、追跡対象の物体43の物体領域45を選択し(ステップS110)、後述するステップS118へ進む。例えば、追跡対象検出部20Gは、ユーザによる入力部14の操作指示によって指定された1つの物体43の物体領域45を、追跡対象の物体領域45として選択する。
一方、教師データ18Cが教師データセット18Bに登録済である場合には(ステップS108:Yes)、ステップS112へ進む。ステップS112では、特定部20Eは、教師データ18Cを用いた学習によって生成された学習済モデル20Fと、ステップS106で抽出した特徴量44と、を用いて、撮影画像42に対する正解情報47を特定する(ステップS112)。すなわち、特定部20Eは、ステップS106で撮影画像42から抽出した1または複数の歩行者41の各々の特徴量44を学習済モデル20Fで入力することで、正解情報47を特定する(図4(E)参照)。
次に、追跡対象検出部20Gが、ステップS102で変形された撮影画像42における、ステップS112で特定された正解情報47によって示される物体領域45を、追跡対象の物体領域46として検出する(ステップS114)(図4(F)参照)。
次に、追跡対象検出部20Gが、ステップS114で追跡対象の物体領域46の検出に成功したか否かを判断する(ステップS116)。ステップS114で追跡対象の物体領域46を検出出来なかった場合(ステップS116:No)、上記ステップS100へ戻る。
一方、ステップS114で追跡対象の追跡対象の物体領域46を検出出来た場合(ステップS116:Yes)、ステップS118へ進む。
ステップS118では、追跡対象検出部20Gが、ステップS110で選択またはステップS114で検出した、追跡対象の物体領域46を示す情報を表示部16へ出力する(ステップS118)。
次に、追加部20Hが、ステップS106で抽出した撮影画像42に含まれる追跡対象の属性の1または複数の物体43(歩行者41)の特徴量44と、ステップS112で特定した正解情報47と、の対応を示す教師データ18Cを生成する(ステップS120)。
次に、追加部20Hは、ステップS120で新たに生成した教師データ18Cを、記憶部18の教師データセット18Bに追加する(ステップS122)。
次に、学習部20Iは、教師データセット18Bに登録されている複数の教師データ18Cを用いて、学習済モデル20Fを学習する(ステップS124)。
そして、学習部20Iは、ステップS124で学習した学習済モデル20Fを特定部20Eへ登録することで、特定部20Eに登録されている学習済モデル20Fを更新する(ステップS126)。
次に、制御部20は、追跡対象の物体領域46の追跡を終了するか否かを判断する(ステップS128)。例えば、制御部20は、追跡終了を示す情報を入力部14から受付けた場合、追跡を終了すると判断する。
ステップS128で否定判断すると(ステップS128:No)、上記ステップS100へ戻る。
一方、ステップS128で肯定判断すると(ステップS128:Yes)、本ルーチンを終了する。ステップS100〜ステップS128の処理を繰り返し実行することで、情報処理装置10は、撮影部12で時系列に連続して撮影された複数の撮影画像40の各々に含まれる、追跡対象の物体43の追跡対象の物体領域46を順次検出し、該追跡対象の物体領域46(および該追跡対象の物体領域46に示される物体43)を追跡することができる。
以上説明したように、本実施の形態の情報処理装置10は、取得部20Aと、追跡対象検出部20G(検出部)と、を備える。取得部20Aは、撮影画像40を取得する。追跡対象検出部20Gは、撮影画像40のうち、物体43が写り込んだ領域を示す1以上の物体領域45の特徴量44、および、教師データ18C、に基づいて、撮影画像40に含まれる1以上の物体の物体領域45の内、追跡対象の物体43の物体領域46を検出する。教師データ18Cは、教師画像に含まれる1以上の物体領域45の中の何れか追跡対象の物体43の物体領域45であるかを示す正解情報と、該1以上の物体領域45の各々の特徴量44と、の対応を示す。
このように、本実施の形態の情報処理装置10では、教師画像に含まれる1以上の物体43の特徴量44と正解情報47との対応を示す教師データ18Cを用いて、撮影画像40に含まれる1以上の物体43の特徴量44から、撮影画像40に含まれる1以上の物体43の物体領域45の内、追跡対象の物体43の物体領域46を検出する。
すなわち、本実施の形態の情報処理装置10では、上記構成の教師データ18Cを用いることで、1つの撮影画像40に含まれる1以上の物体43の特徴量44から、これらの1以上の物体43の物体領域45の内、何れが追跡対象の物体領域46であるかを容易に検出することができる。言い換えると、本実施の形態の情報処理装置10では、撮影画像40に含まれる1以上の物体領域45を1つずつ多層ニューラルネットワーク(学習済モデル20F)に入力する必要はなく、撮影画像40に含まれる1以上の物体領域45の特徴量44を一度に多層ニューラルネットワークに入力するだけで、追跡対象の物体の物体領域46を検出することができる。このため、本実施の形態の情報処理装置10では、高速に追跡対象の物体領域46を検出することができる。
このため、撮影画像に含まれる候補領域の各々を、1つずつ多層ニューラルネットワークに入力することで得られた特徴量と一つ前の時点の正解の候補領域の特徴量との類似度および信頼度を算出し、物体領域の各々の類似度や信頼度の算出結果を比較することで追跡対象の物体領域を検出する従来方法に比べて、撮影画像42に含まれる物体領域45の数に拘らず、高速に追跡対象の物体領域46を検出することができる。
従って、本実施の形態の情報処理装置10は、追跡対象の物体領域46の検出速度の向上を図ることができる。
また、本実施の形態の情報処理装置10では、上記のデータ構成の教師データ18Cを用いるため、撮影画像42に含まれる物体領域45の数が少ない場合であっても、追跡対象の物体領域46の検出精度低下を抑制することができる。これは、教師データ18Cが、撮影画像40に含まれる1または複数の物体43の各々の特徴量44と、正解情報47と、の対応を示すデータであるためである。
また、本実施の形態の情報処理装置10では、撮影画像40全体から一度に正解情報47によって示される追跡対象の物体領域46を検出することができるため、追跡対象の物体領域46の検出ミスなどによる検出エラーを抑制することができる。
また、本実施の形態の情報処理装置10では、学習部20Iが、教師データセット18Bに登録されている複数の教師データ18Cを用いて、学習済モデル20Fを学習する。
教師データ18Cのデータ構成が上記構成であるため、本実施の形態の情報処理装置10では、上記効果に加えて、学習部20Iによる学習時間の短縮を図ることができる。
また、本実施の形態の情報処理装置10では、撮影部12から撮影画像40を取得するごとに、撮影画像40に含まれる追跡対象の物体領域46を追跡対象検出部20Gで検出して追跡しながら、新たに生成された教師データ18Cを含む教師データセット18Bを用いて学習済モデル20Fを学習する。
このため、本実施の形態の情報処理装置10では、学習部20Iによる学習済モデル20Fの高速な逐次学習が可能となり、追跡対象の物体領域46の追跡精度の向上を図ることができる。
また、本実施の形態の情報処理装置10では、画像変形部20Bが、撮影画像40に含まれる追跡対象の属性の物体43が、畳み込みニューラルネットワークにおけるフィルタに応じた形状となるように、撮影画像40を変形する。
このため、物体検出部20C、抽出部20D、および特定部20Eは、処理時に用いるフィルタを有効に用いることができる。
図8は、変形された撮影画像42を用いることによる効果の一例の説明図である。例えば、図8(A)に示すように、取得部20Aが、歩行者41を含む撮影画像40を撮影部12から取得したと仮定する。すると、画像変形部20Bは、撮影画像40を、歩行者41に対応する変形情報(図5参照)に応じて、歩行者41がフィルタFに応じた形状(例えば、正方形)となるように、撮影画像40全体を変形する。このため、図8(B)に示す撮影画像42が得られる。図8(B)に示すように、撮影画像42に含まれる歩行者41は、フィルタFに応じて正方形状となる。
一方、撮影画像40全体を、フィルタFに応じた形状に変形したと仮定する。この場合、図8(C)に示すように、変形した比較撮影画像42’に含まれる歩行者41を正方形のフィルタFで囲むと、該フィルタF内には、歩行者41以外の不要な領域E’が含まれることとなる。
しかし、本実施の形態の情報処理装置10では、画像変形部20Bが、歩行者41がフィルタFに応じた形状となるように、撮影画像40全体を変形する(図8(B)の撮影画像42参照)。このため、比較撮影画像42’(図8(C)参照)に比べて、フィルタF内に演算に不要な領域E’が含まれることを抑制することができる。
すなわち、本実施の形態の情報処理装置10では、畳み込みニューラルネットワークで用いるフィルタF内に演算に不要な領域E’が含まれることを抑制することができ、フィルタF内のパラメータを無駄なく利用することができる。
また、撮影画像40自体をフィルタFに応じた形状に変形する場合に比べて、撮影画像40に含まれる歩行者41がフィルタFに応じた形状となるように撮影画像40を変形することで、より小さいサイズのフィルタFで学習を行うことができる。また、本実施の形態の情報処理装置10では、畳み込みニューラルネットワークの規模を、従来技術に比べて縮小することができる。
このため、本実施の形態の情報処理装置10では、上記効果に加えて、更なる検出速度の向上および検出精度の向上を図ることができる。
なお、本実施の形態では、画像変形部20Bは、撮影画像40に含まれる追跡対象の属性の物体43が、特定部20Eで用いる学習済モデル20Fのフィルタに応じた形状となるように、撮影画像40全体を変形する形態を説明した。
しかし、上述したように、物体検出部20Cおよび抽出部20Dの少なくとも一方は、特定部20Eが用いる学習済モデル20Fと同じ属性のアルゴリズムの検出器や抽出器を用いてもよい。この場合、物体検出部20Cおよび抽出部20Dの少なくとも一方は、学習済モデル20Fと同様に、畳み込みフィルタを用いた畳み込みニューラルネットワーク(CNN)となる。
この場合、画像変形部20Bは、撮影画像42に含まれる物体43の特徴量44の抽出、撮影画像42に含まれる物体43の物体領域45の検出、および学習済モデル20Fを用いた正解情報47の特定、の少なくとも1つの処理時に用いる畳み込みフィルタに応じた形状となるように、撮影画像40を変形することとなる。
画像変形部20Bが、このような変形処理を行うことで、本実施の形態の情報処理装置10は、上記効果に加えて、検出精度の向上を更に図ることができる。
なお、本実施の形態では、情報処理装置10が、画像変形部20Bを備えた構成である場合を一例として説明した。しかし、情報処理装置10は、画像変形部20Bを備えない構成であってもよい。この場合、情報処理装置10は、撮影画像40を用いて、上記処理を実行すればよい。但し、情報処理装置10は、画像変形部20Bを備えた構成であることが好ましい。これは、情報処理装置10が画像変形部20Bを備えた構成であることで、上述した更なる効果が得られるためである。
なお、上述した実施の形態における、上記情報処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
また、上述した実施の形態における、上記情報処理を実行するための連携支援プログラムは、上記各機能部を含むモジュール構成となっており、実際のハードウェアとしては、例えば、CPU(プロセッサ回路)がROMまたはHDDから連携支援プログラムを読み出して実行することにより、上述した各機能部がRAM(主記憶)上にロードされ、上述した各機能部がRAM(主記憶)上に生成されるようになっている。なお、上述した各機能部の一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field−Programmable Gate Array)などの専用のハードウェアを用いて実現することも可能である。
なお、上記には、実施の形態を説明したが、上記実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施の形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 情報処理装置
20A 取得部
20B 画像変形部
20C 物体検出部
20D 抽出部
20E 特定部
20F 学習済モデル
20G 追跡対象検出部
20H 追加部
20I 学習部

Claims (7)

  1. 撮影画像を取得する取得部と、
    前記撮影画像のうち、物体が写り込んだ領域を示す1以上の物体領域の特徴量、および、教師画像に含まれる1以上の前記物体領域の中の何れが追跡対象の物体の前記物体領域であるかを示す正解情報と該1以上の前記物体領域の各々の特徴量との対応を示す教師データ、に基づいて、前記撮影画像に含まれる1以上の物体の前記物体領域の内、追跡対象の物体の前記物体領域を検出する検出部と、
    を備える情報処理装置。
  2. 前記検出部が追跡対象の物体の前記物体領域を検出する毎に、該検出に用いられた前記撮影画像に含まれる1以上の前記物体領域の各々の前記特徴量と、該撮影画像に含まれる1以上の前記物体領域の中の前記検出部によって検出された追跡対象の物体の前記物体領域を示す前記正解情報と、の対応を示す前記教師データを追加する追加部を備える、
    請求項1に記載の情報処理装置。
  3. 複数の前記教師データを含む教師データセットを用いて、前記撮影画像に含まれる1以上の前記物体領域の前記特徴量から前記正解情報を導出するための学習済モデルを学習する学習部を備え、
    前記検出部は、
    前記撮影画像に含まれる1以上の物体の前記物体領域の前記特徴量および前記学習済モデルに基づいて、前記撮影画像に含まれる1以上の物体の前記物体領域の内、追跡対象の物体の前記物体領域を検出する、
    請求項1または請求項2に記載の情報処理装置。
  4. 前記学習済モデルは、畳み込みニューラルネットワークである、
    請求項3に記載の情報処理装置。
  5. 前記撮影画像に含まれる追跡対象の属性の物体が、前記畳み込みニューラルネットワークにおけるフィルタに応じた形状となるように、前記撮影画像を変形する画像変形部を備え、
    前記検出部は、変形された前記撮影画像に含まれる1以上の物体の前記物体領域の特徴量および前記学習済モデルに基づいて、前記撮影画像に含まれる1以上の物体の前記物体領域の内、追跡対象の物体の前記物体領域を検出する、
    請求項4に記載の情報処理装置。
  6. 撮影画像を取得するステップと、
    前記撮影画像のうち、物体が写り込んだ領域を示す1以上の物体領域の特徴量、および、教師画像に含まれる1以上の前記物体領域の中の何れが追跡対象の物体の前記物体領域であるかを示す正解情報と該1以上の前記物体領域の各々の特徴量との対応を示す教師データ、に基づいて、前記撮影画像に含まれる1以上の物体の前記物体領域の内、追跡対象の物体の前記物体領域を検出するステップと、
    を含む情報処理方法。
  7. 撮影画像を取得するステップと、
    前記撮影画像のうち、物体が写り込んだ領域を示す1以上の物体領域の特徴量、および、教師画像に含まれる1以上の前記物体領域の中の何れが追跡対象の物体の前記物体領域であるかを示す正解情報と該1以上の前記物体領域の各々の特徴量との対応を示す教師データ、に基づいて、前記撮影画像に含まれる1以上の物体の前記物体領域の内、追跡対象の物体の前記物体領域を検出するステップと、
    をコンピュータに実行させるためのプログラム。
JP2018093868A 2018-05-15 2018-05-15 情報処理装置、情報処理方法、およびプログラム Pending JP2019200527A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018093868A JP2019200527A (ja) 2018-05-15 2018-05-15 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018093868A JP2019200527A (ja) 2018-05-15 2018-05-15 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2019200527A true JP2019200527A (ja) 2019-11-21

Family

ID=68612409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093868A Pending JP2019200527A (ja) 2018-05-15 2018-05-15 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2019200527A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008571A1 (ja) * 2021-07-30 2023-02-02 アニコム ホールディングス株式会社 個体識別システム及び個体識別方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008571A1 (ja) * 2021-07-30 2023-02-02 アニコム ホールディングス株式会社 個体識別システム及び個体識別方法

Similar Documents

Publication Publication Date Title
US10636147B2 (en) Method for characterizing images acquired through a video medical device
US10740652B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
US10210418B2 (en) Object detection system and object detection method
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US9092868B2 (en) Apparatus for detecting object from image and method therefor
WO2017096753A1 (zh) 人脸关键点跟踪方法、终端和非易失性计算机可读存储介质
JP2013210968A (ja) 物体検出装置及びその方法、プログラム
US9082000B2 (en) Image processing device and image processing method
US10664523B2 (en) Information processing apparatus, information processing method, and storage medium
US20210241460A1 (en) Computer-readable recording medium having stored therein training program, training method, and information processing apparatus
CN111415370A (zh) 一种基于嵌入式的红外复杂场景目标实时跟踪方法及系统
JP2021089778A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019200527A (ja) 情報処理装置、情報処理方法、およびプログラム
US20230131717A1 (en) Search processing device, search processing method, and computer program product
JP2010146522A (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
CN116433722A (zh) 目标跟踪方法、电子设备、存储介质及程序产品
US20240104919A1 (en) Information processing apparatus and information processing method
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
JP2023008030A (ja) 画像処理システム、画像処理方法及び画像処理プログラム
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
JP2019091339A (ja) 画像収集装置、プログラム、及び方法
US20230196752A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US20230377188A1 (en) Group specification apparatus, group specification method, and computer-readable recording medium
Kang et al. A quantitative attribute-based benchmark methodology for single-target visual tracking

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180614