JP6350331B2 - 追尾装置、追尾方法及び追尾プログラム - Google Patents

追尾装置、追尾方法及び追尾プログラム Download PDF

Info

Publication number
JP6350331B2
JP6350331B2 JP2015028238A JP2015028238A JP6350331B2 JP 6350331 B2 JP6350331 B2 JP 6350331B2 JP 2015028238 A JP2015028238 A JP 2015028238A JP 2015028238 A JP2015028238 A JP 2015028238A JP 6350331 B2 JP6350331 B2 JP 6350331B2
Authority
JP
Japan
Prior art keywords
data
foreground
representative color
tracking
background separation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015028238A
Other languages
English (en)
Other versions
JP2016152467A (ja
Inventor
周 薮内
周 薮内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2015028238A priority Critical patent/JP6350331B2/ja
Publication of JP2016152467A publication Critical patent/JP2016152467A/ja
Application granted granted Critical
Publication of JP6350331B2 publication Critical patent/JP6350331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、追尾装置、追尾方法及び追尾プログラムに関し、特に、対象物を追尾するための代表色を用いる追尾装置、追尾方法及び追尾プログラムに関する。
撮像装置により人物などの対象物を撮像し、撮像した映像データを用いて対象物を自動的に追尾する技術が知られている。
従来技術では、対象物の基準となる色情報を予め記憶しておき、この色情報に基づいて映像データの中から対象物を検出することで、追尾を行っている。このような従来技術では、照度の影響などにより対象物の色が変化すると、対象物を検出することができず、追尾に失敗する恐れがある。
そこで、例えば、特許文献1では、対象物の色が変化したことを画面に表示することで、正しく追尾が行われていることを、監視者が確認できるようにしている。
特開2010−226644号公報
しかしながら、映像データ内に複数の物体が含まれる場合、追尾する対象物と他の物体とが重なるオクルージョンが発生する可能性が高いものの、特許文献1などの従来技術ではオクルージョン発生時の追尾処理について考慮されていない。
したがって、特許文献1などの従来技術では、オクルージョンが発生した場合に、精度よく対象物を追尾することができないという問題がある。
そこで、本発明は、追尾対象物を追尾するための代表色を示す代表色データを記憶する代表色記憶部と、取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成する第1の前景背景分離データ生成部と、前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成する第2の前景背景分離データ生成部と、前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾する追尾処理部と、前記第2の前景背景分離データに対応する前記映像データの領域で一定期間使用されない前記代表色データを削除する代表色更新部、を備える追尾装置を提供する。
また、本発明は、追尾対象物を追尾するための代表色を示す代表色データを記憶し、取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成し、前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成し、前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾前記第2の前景背景分離データに対応する前記映像データの領域で一定期間使用されない前記代表色データを削除する、追尾方法を提供する。
さらに、本発明は、追尾対象物を追尾するための代表色を示す代表色データを記憶し、取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成し、前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成し、前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾前記第2の前景背景分離データに対応する前記映像データの領域で一定期間使用されない前記代表色データを削除する、追尾処理をコンピュータに実行させるための追尾プログラムを提供する。
本発明によれば、精度よく対象物を追尾することが可能な追尾装置、追尾方法及び追尾プログラムを提供することができる。
実施の形態1に係る追尾システムの構成を示す構成図である。 実施の形態1に係る装置の動作の概要を説明するための説明図である。 実施の形態1に係る装置の動作の概要を説明するための説明図である。 実施の形態1に係る装置の動作の概要を説明するための説明図である。 実施の形態1に係る装置の動作の概要を説明するための説明図である。 実施の形態1に係る装置の動作の概要を説明するための説明図である。 実施の形態1に係る装置の動作を示すフローチャートである。 実施の形態1に係る装置の動作を示すフローチャートである。 追尾方法の基本技術を示す図である。 追尾方法の基本技術を示す図である。
まず、実施の形態の説明の前に、対象物を自動的に追尾する基本技術について説明する。
図8に示すように、基本技術では、映像データ900のフレーム画像ごとに対象者901の特徴である代表色を示す代表色データ911を取得して代表色データ記憶部910に記憶し、この代表色データ911に基づいてフレーム画像内の対象者901を検出する。さらに、基本技術では、この代表色データ911を定期的に更新することで、照度の影響などにより対象者901の色が変化した場合でも、対象者901の追尾を可能としている。
このような基本技術では、映像データに対し動体検知を行うことで、対象者の領域を分離するための前景背景分離データを生成し、この前景背景分離データを用いて対象者の代表色を抽出する。
例えば、図9に示すように、フレーム画像920内で複数の人物が重なりオクルージョンが発生した場合、フレーム画像920に対し動体検知を行うと、前景背景分離データ921は、複数の人物の領域を含む画像となる。そうすると、フレーム画像920と前景背景分離データ921とを合成した代表色抽出用画像922に複数の人物の画像が含まれてしまうため、この画像から抽出された代表色データに複数の人物の代表色が含まれてしまい、対象者のみの代表色を抽出することができない。
その結果、基本技術では、オクルージョンが発生した場合、対象者以外の人物の代表色を含む代表色データをもとに追尾を行うことになるため、所望の対象者のみを精度よく追尾することは困難である。また、複数のカメラを用いて対象者を追尾し、カメラの切り替わり時に最初からオクルージョンが発生した場合、対象者と対象外のデータを分離することができないため、この場合も対象者のみを追尾することはできない。
そこで、以下の実施の形態では、オクルージョンが発生した場合でも確実に対象物の代表色を抽出し、精度よく対象者の追尾を可能とする。
(実施の形態1)
以下、図面を参照して実施の形態について説明する。図1は、本実施の形態に係る追尾システム1の構成を示している。
図1に示すように、追尾システム1は、追尾装置10、記憶装置20、入力装置30を備えている。なお、各装置を別々の装置とせずに1つもしくは任意の数の装置としてもよい。例えば、追尾装置10と記憶装置20の構成を含む1つの追尾装置としてもよい。
入力装置30は、追尾装置10の処理に必要な情報を入力する装置である。例えば、入力装置30は、カメラ31、マウス32を備えている。
カメラ31は、撮像センサを内蔵する撮像装置であり、この撮像センサを用いて対象物である対象者300を撮像する。カメラ31は、撮像した複数のフレーム画像を含む映像データを生成し、生成した映像データを追尾装置10へ出力する。なお、カメラ31以外の装置で映像データを生成してもよい。
マウス32は、追尾装置10の映像表示部(不図示)に表示されたGUI(Graphical User Interface)などをユーザが操作するためのポインティングデバイスである。マウス32は、ユーザが映像表示部の表示に応じてクリック操作を行うと、クリックされた位置の座標データを追尾装置10へ出力する。なお、マウス32以外の装置で映像表示部の表示を操作してもよい。
記憶装置20は、追尾装置10の処理に必要な情報を記憶する装置である。例えば、記憶装置20は、映像や画像のデータのための映像データDB(データベース)21、追尾する対象者のデータのための対象者DB22、対象者の代表色学習のための代表色学習DB23を備えている。
映像データDB21は、対象者300を撮像した映像データ211、映像データ211の背景である背景データ212、映像データ211から前景と背景を分離するための第1の前景背景分離データ213及び第2の前景背景分離データ214などを記憶する。対象者DB22は、対象者300の特徴を示す特徴データ221を記憶し、特徴データ221には対象者300の代表色を示す代表色データ222や対象者300の形状を示す形状データ223などが含まれる。例えば、対象者DB22は、代表色データ222を記憶する代表色記憶部であるともいえる。代表色学習DB23は、対象者300の代表色の境界範囲を示す代表色境界範囲データ231などを記憶する。
追尾装置10は、入力される映像データを解析し対象者300の追尾を行う画像処理装置である。追尾装置10は、画像解析処理部11、動体検知処理部12、対象者データ外マスク処理部13、指定対象者データ抽出部14、代表色学習部15、追尾処理部16などを備えている。
なお、後述する本実施の形態に係る動作が実現できれば、その他の機能ブロックで構成してもよい。図1の追尾装置における各機能(各処理)は、ハードウェア又はソフトウェア、もしくはその両方によって構成され、1つのハードウェア又はソフトウェアから構成してもよいし、複数のハードウェア又はソフトウェアから構成してもよい。追尾装置の各機能を、CPU(Central Processing Unit)やメモリ等を有するコンピュータにより実現してもよい。例えば、記憶装置20に後述する本実施の形態に係る動作を行うためのプログラムを格納し、追尾装置の各機能を、記憶装置20に格納されたプログラムをCPUで実行することにより実現してもよい。
画像解析処理部11は、カメラ31が対象者300を撮像した映像データ211を取得する映像取得部であり、また、必要に応じて取得した映像データ211に対し画像変換処理を行う。画像解析処理部11は、取得した映像データ211に対しリサイズ処理や色変換処理などの画像変換処理を行い、画像変換後の映像データ211を動体検知処理部12へ出力し、また、映像データDB21に記憶する。なお、この画像変換処理については、必要に応じて任意に実行できればよいため、以下の説明では省略する場合がある。
動体検知処理部12は、画像解析処理部11が取得し変換した映像データ211から背景データ212を生成し、生成した背景データ212を映像データDB21に記憶し、また、対象者データ外マスク処理部13及び指定対象者データ抽出部14へ出力する。背景データ212は、映像データ211から動いている前景部分を含まない背景のみの画像データである。
また、動体検知処理部12は、背景データ212をもとに映像データ211に対し動体検知処理を実行して第1の前景背景分離データ213を生成し、生成した第1の前景背景分離データ213を映像データDB21に記憶し、また、対象者データ外マスク処理部13及び指定対象者データ抽出部14へ出力する。動体検知処理部12は、第1の前景背景分離データを生成する第1の前景背景分離データ生成部であるともいえる。第1の前景背景分離データ213は、映像データ211から前景と背景を分離するための画像データであり、映像データ211から動体検知により動いている部分のみを抽出した画像データである。なお、映像データ211に対する動体検知処理結果に基づいて第1の前景背景分離データを生成してもよいし、映像データ211と背景データ212の差分に基づいて、第1の前景背景分離データを生成してもよい。動体検知処理や背景データとの差分を用いることで、移動している対象者を含むマスクを確実に生成することができる。
指定対象者データ抽出部14は、マウス32から入力された座標データの指定に応じて、動体検知処理部12が生成した背景データ212及び第1の前景背景分離データ213から、対象者300の特徴データ221を抽出し、抽出した特徴データ221を対象者DB22に記憶し、また、代表色学習部15へ出力する。指定対象者データ抽出部14は、映像データ211の中のユーザが指定した座標を含む領域に対し、人物検知(物体検知)のためのオブジェクトマッピング処理を実行することで、対象者300の輪郭形状を抽出して形状データ223を生成し、その輪郭形状内の代表色を抽出して代表色データ222を生成する。対象者300の代表色は、対象者300を代表する色であり、対象者300を識別するための特徴を示す特徴色である。
代表色学習部15は、指定対象者データ抽出部14が抽出した対象者の代表色データ222を使用して、代表色の境界範囲(代表色範囲)を設定し、設定された代表色境界範囲データ(代表色範囲データ)231を代表色学習DB23に記憶する。代表色学習部15は、第2の前景背景分離データ214に対応する映像データ211の領域の代表色を追尾対象物300の代表色として、代表色データを更新する代表色更新部であると言える。
対象者データ外マスク処理部13は、代表色学習DB23に記憶された代表色境界範囲データ231と、動体検知処理部12が生成した背景データ212及び第1の前景背景分離データ213とを利用し、対象者300以外の画像データをマスクするマスク処理を行い、マスク処理後の背景データ212を映像データDB21に上書きする。
対象者データ外マスク処理部13は、映像データ211のうち第1の前景背景分離データ213の前景に対応する部分の色が、代表色境界範囲データ231に含まれるか否かに応じて第2の前景背景分離データ214を生成し、生成した第2の前景背景分離データ214を映像データDB21に記憶する。対象者データ外マスク処理部13は、第1の前景背景分離データ213に対応する映像データ211のうち代表色を含む色の領域に基づいて第2の前景背景分離データ214を生成する第2の前景背景分離データ生成部であるともいえる。第2の前景背景分離データ214は、映像データ211から前景と背景を分離するための画像データであり、映像データ211から代表色に対応する部分のみを抽出した画像データである。なお、該当する部分の色が代表色と一致するか否かに応じて2値化したデータを第2の前景背景分離データ214としてもよいし、該当する部分の色が代表色の範囲内か否かに応じて2値化したデータを第2の前景背景分離データ214としてもよい。代表色との一致を基準とすることで、少なくとも対象者のみのためのマスクを生成することができる。代表色の範囲を基準とすることで、学習履歴に基づいてより適切に、対象者のみのためのマスクを生成することができる。
追尾処理部16は、対象者300の特徴データ221に基づいて映像データ211内の対象者300を追尾する処理を実行する。追尾処理部16は、対象者300の代表色データ222と形状データ223に最も近い領域から対象者300を認識し、対象者300を自動的に追尾する。さらに、追尾処理部16は、第1の前景背景分離データ213や第2の前景背景分離データ214を用いて追尾処理を行うことができる。第1の前景背景分離データ213により抽出される前景部分に対して特徴データ221に基づいた追尾処理を行うことで、動いている部分のみを処理できるため、効率よく追尾処理を行うことができる。また、第2の前景背景分離データ214により抽出される前景部分に対して特徴データ221に基づいた追尾処理を行うことで、代表色に該当する部分のみを処理できるため、さらに効率よく追尾処理を行うことができる。
図2〜図6を用いて、本実施の形態に係る追尾装置10の動作の概要について説明する。まず、図2に示すように、動体検知処理部12は、取得した映像データ211に含まれるフレーム画像(カラー画像)211aに対する動体検知処理で得られた動きベクトルを利用して、対象者300を含む前景と背景とを分離する処理を行い、第1の前景背景分離データ213を生成する(ステップS10)。
さらに、指定対象者データ抽出部14は、フレーム画像211aと第1の前景背景分離データ213とを合成して前景部の画像を切り抜き、代表色抽出用画像215を生成する。指定対象者データ抽出部14は、代表色抽出用画像215から対象者300の基準となる代表色(特徴量)を抽出し、代表色データ222を生成する(ステップS11)。ここでは、対象者300の部位ごとに頭部、胴体部、脚部の代表色を取得し、頭部の代表色データ、胴体部の代表色データ、脚部の代表色データを生成する。さらに、対象者300(各部位)の正面、背面、側面の代表色データを生成してもよい。
続いて、屋外と屋内では画像の明るさにムラが発生し、追尾処理のために適宜特徴量の更新を行う必要があることから、図3に示すように、指定対象者データ抽出部14は、対象者300の代表色データ222を定期的に更新する(ステップS12)。例えば、指定対象者データ抽出部14は、映像データ211の0フレーム目、25フレーム目、50フレーム目のフレーム画像211aに対し第1の前景背景分離データ213を用いて、代表色抽出用画像215を生成し、対象者の各部位の代表色を抽出して、代表色データ222を更新する。
さらに、代表色学習部15は、特定フレーム画像間において対象者300の代表色の境界範囲を学習し、代表色境界範囲データ231を生成する(ステップS13)。例えば、各フレームにおいて頭部の代表色データ222が、R(赤)=253、239、247の順に変化し、G(緑)=228、218、167の順に変化し、B(青)=208、143、102の順に変化した場合、頭部の代表色境界範囲データ231では、これらの色の変化を含むように、Rの範囲を239≦R≦253、Gの範囲を167≦G≦228、Bの範囲を102≦B≦208と設定する。なお、代表色の境界範囲を学習せずに代表色のみを用いて、その後の処理を行ってもよい。
続いて、代表色境界範囲データ231を作成後(学習した後)、図4に示すように、対象者データ外マスク処理部13は、動きベクトルを利用して生成した第1の前景背景分離データ213とフレーム画像211aとを合成して代表色抽出用画像215を生成し、さらに代表色抽出用画像215と対象者300の代表色境界範囲データ231を比較することで、第2の前景背景分離データ214を作成する(ステップS14)。その際、代表色抽出用画像215の色が代表色の境界範囲内であれば第2の前景背景分離データ214の画素を白にし、それ以外の場合は黒に設定して2値化し第2の前景背景分離データ214を作成する。また、対象者の部位ごとに、対応する部位の代表色の境界範囲内かどうか判定する。
続いて、図5に示すように、図2と同様、指定対象者データ抽出部14は、フレーム画像211aから代表色抽出用画像215を生成し、対象者300の代表色データ222を抽出する(ステップS15)。その後、図3と同様に、代表色学習部15がさらに代表色の境界範囲を学習(更新)する。
このような方法を用いることで、対象者の代表色データに近い部分のみを前景として抽出することができる。図6に示すように、フレーム画像211aで対象者300と他の人物301が重なりオクルージョンが発生した場合、動体検知を用いた第1の前景背景分離データ213の前景部分には、対象者300と他の人物301の全体が含まれる。しかし、代表色を用いた第2の前景背景分離データ214の前景部分は、ほぼ対象者300のみとなるため、第2の前景背景分離データ214を用いた代表色抽出用画像215からは、ほぼ対象者300のみの代表色を抽出することができる。すなわち、動体検知で取得した前景背景分離データよりさらに精度のよい前景背景分離データを作成できるため、対象者の代表色データに不要な他の人物のデータが含まれることを防ぐことができる。
次に、図7A及び図7Bを用いて、本実施の形態に係る追尾装置10の詳細な動作例について説明する。図7A及び図7Bに示すように、まず、画像解析処理部11は、カメラ31から映像データ211を取得する(ステップS101)。なお、画像解析処理部11は、カメラ31に限らず、記録媒体等から予め生成された映像データ211を取得してもよい。
続いて、動体検知処理部12は、取得した映像データ211に対し動体検知処理を行い、得られた動きベクトルを使用して、背景と前景を分離する第1の前景背景分離データ213を生成する(ステップS102)。第1の前景背景分離データ213は、白の前景画素と黒の背景画素からなる2値の画像データである。例えば、黒が画素値=0(最小値)であり、白が画素値=255(最大値)である。なお、動体検知処理部12は、動きベクトルに限らず、所定の背景画像との差分の色情報を使用して、第1の前景背景分離データ213を生成してもよい。
続いて、指定対象者データ抽出部14は、生成した第1の前景背景分離データ213から前景画素塊を抽出する(ステップS103)。前景画素塊は、前景画素が連続した画素群であり、連続的に白の値となっている画素の集合体である。
続いて、指定対象者データ抽出部14は、対象者DB22を参照し、追尾する対象者300の代表色データ222を含む特徴データ221があるか否か確認する(ステップS104)。ステップS104において、対象者DB22に対象者300の特徴データ221が記憶されていない場合、指定対象者データ抽出部14は、映像データ211から対象者300の特徴データ221を抽出できるか否か確認する(ステップS105)。具体的には、マウス32によりユーザが指定した座標データと第1の前景背景分離データ213の前景画素塊とに基づいて、前景画素塊の中に指定された座標データが含まれるか否か確認することで、特徴データ221を抽出できるか否か判断する。
ステップS105において、対象者300の特徴データ221を抽出できない場合、ステップS101に戻り、以降の処理を繰り返す。一方、ステップS105において、対象者300の特徴データ221を抽出できる場合、指定対象者データ抽出部14は、第1の前景背景分離データ213の前景画素塊と映像データ211のフレーム画像(カラー画像)211aの指定された領域の画素とを合成して代表色抽出用画像215を生成し、前景部分のみの画素データ(カラーデータ)の代表色である代表色データ222を作成する(ステップS106)。代表色データ222の作成が終了すると、後述のステップS118以降で代表色の境界範囲を学習する。
一方、ステップS104において、対象者DB22に対象者300の特徴データ221が記憶されている場合、第1の前景背景分離データ213の前景画素塊の数の分だけステップS108〜S113の処理を繰り返すループ処理を実行する(ステップS107)。ここでは、まず、対象者データ外マスク処理部13は、第1の前景背景分離データ213の前景画素塊の領域内のみで前景画素とフレーム画像(カラー画像)211aを合成する(ステップS108)。これにより、前景部のみで特徴量(代表色)を抽出できる特徴量抽出用画像(代表色抽出用画像215)を生成する。
続いて、第1の前景背景分離データ213の前景画素塊の領域内の画素数分だけステップS110〜S113の処理を繰り返すループ処理を実行する(S109)。ここでは、まず、対象者データ外マスク処理部13は、第1の前景背景分離データ213の前景画素塊に対応するフレーム画像(カラー画像)211aと対象者の代表色境界範囲データ231を比較する(ステップS110)。このとき、対象者データ外マスク処理部13は、比較するフレーム画像211aの画素の色が代表色境界範囲データ231の範囲内か否か確認する(ステップS111)。
ステップS111において、比較するフレーム画像211aの画素の色が代表色境界範囲データ231の範囲外の場合、対象者データ外マスク処理部13は、生成する第2の前景背景分離データ214の該当する画素値を0(黒)に設定する(ステップS112)。一方、ステップS111において、比較するフレーム画像211aの画素の色が代表色境界範囲データ231の範囲内の場合、対象者データ外マスク処理部13は、生成する第2の前景背景分離データ214の該当する画素値を255(白)に設定する(ステップS113)。
続いて、全前景画素塊の設定が完了したか否か判定し(ステップS114)、未設定の前景画素塊が残っている場合にはステップS107へ戻り、全前景画素塊の設定が完了した場合にはステップS115へ進む。第1の前景背景分離データ213の前景画素塊が複数存在する場合、各前景画素塊の領域内でステップS110〜S113が実行され、代表色処理後の第2の前景背景分離データ214が生成される。続いて、対象者データ外マスク処理部13は、生成された第2の前景背景分離データ214に対して、照明による外光等のノイズクリア処理を実行する(ステップS115)。第2の前景背景分離データ214は、動きベクトルと代表色を使って背景画素と前景画素を2値化した画像データである。
続いて、追尾処理部16は、生成した第2の前景背景分離データ214と対象者300の特徴データ221とを用いて、フレーム画像211aに対して対象者300を追尾する追尾処理を実行する(ステップS116)。追尾処理部16は、第2の前景背景分離データ214を使用して、フレーム画像211a内で対象者300の特徴データ221に尤度が最も高い位置である重心値を求め、この重心値により対象者300を検出する。なお、動体検知による第1の前景背景分離データ213を用いて追尾処理を行ってもよい。続いて、追尾処理部16は、算出した対象者300の特徴データ221に尤度が最も高い位置の画素から、代表色データ222を含む特徴量を抽出する(ステップS117)。
続いて、代表色学習部15は、ステップS106またはステップS117で抽出した対象者300の代表色データ222を用いて、代表色データを学習する(ステップS118)。すなわち、代表色学習部15は、抽出した対象者300の代表色データ222を含むように代表色の境界範囲を設定し、代表色境界範囲データ231を生成する
続いて、代表色学習部15は、学習した代表色データ222のうち、対象者300の各部位で一定期間使用されない未使用の代表色データ222があるか否か確認する(ステップS119)。例えば、代表色境界範囲データ231の範囲内で、一定期間追尾処理において該当しない色は、未使用の色であると判定される。
ステップS119において、未使用の代表色データ222がある場合、代表色学習部15は、学習した代表色データ222から該当する代表色データを削除する(ステップS120)。すなわち、代表色境界範囲データ231の範囲内に、未使用の代表色データ222が含まれないように設定する。一方、ステップS119において、未使用の代表色データが無い場合、または、ステップS120において未使用の代表色データを削除した後、代表色学習部15は、新しく追加できる代表色データ222があるか否か確認する(ステップS121)。
ステップS121において、追加する代表色データ222がある場合、代表色学習部15は、新しく抽出された代表色データ222を代表色学習DB23に登録し、代表色の境界範囲を設定して、代表色境界範囲データ231を更新する(ステップS122)。一方、ステップS121において、追加する代表色データ222がない場合、または、ステップS122において代表色データ222を追加した後、ステップS101に戻り、以降の処理を繰り返す。
以上のように、本実施の形態では、追尾する対象者の代表色を学習し、学習した代表色もしくはその範囲に基づいて前景と背景とを分離するようにした。すなわち、本実施の形態では、映像データの動体検知により第1の前景背景分離データを生成し、さらに、学習した対象者の代表色に基づいて第2の前景背景分離データを生成して、第2の前景背景分離データを用いて対象者の代表色を抽出する。
これにより、映像データから対象者のみの前景部分のみを分離して、対象者のみの代表色を抽出することができる。すなわち、オクルージョンが発生しても、対象者の特徴量として不要なデータの抽出を抑えることができるため、確実に対象者のみを追尾することができる。また、複数のカメラにより対象者を撮像する場合、カメラ間をまたいだ追尾時にオクルージョンが発生していていも、対象者と他の人物とを分離し、対象者のみを特定することができるため、この場合でも対象者を追尾することができる。
また、動き検知による第1の前景背景分離データと代表色を使用した第2の前景背景分離データの差分を使用することで、オクルージョンが発生している比、すなわち、対象者の体が何パーセント隠れているかを判別することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
1 追尾システム
10 追尾装置
11 画像解析処理部
12 動体検知処理部
13 対象者データ外マスク処理部
14 指定対象者データ抽出部
15 代表色学習部
16 追尾処理部
20 記憶装置
21 映像データDB
22 対象者DB
23 代表色学習
30 入力装置
31 カメラ
32 マウス
211 映像データ
211a フレーム画像
212 背景データ
213 第1の前景背景分離データ
214 第2の 前景背景分離データ
215 代表色抽出用画像
221 特徴データ
222 代表色データ
223 形状データ
231 代表色境界範囲データ
300 対象者
301 他の人物

Claims (7)

  1. 追尾対象物を追尾するための代表色を示す代表色データを記憶する代表色記憶部と、
    取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成する第1の前景背景分離データ生成部と、
    前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成する第2の前景背景分離データ生成部と、
    前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾する追尾処理部と、
    前記第2の前景背景分離データに対応する前記映像データの領域で一定期間使用されない前記代表色データを削除する代表色更新部、
    を備える追尾装置。
  2. 前記第1の前景背景分離データ生成部は、前記映像データに対する動体検知処理結果または前記映像データと前記背景データとの差分に基づいて、前記第1の前景背景分離データを生成する、
    請求項1に記載の追尾装置。
  3. 前記代表色データは、前記追尾対象物の代表色の範囲を含み、
    前記第2の前景背景分離データ生成部は、前記第1の前景背景分離データに対応する前記映像データの領域の色が前記代表色と一致するか否か、または前記代表色の範囲内か否かに応じて2値化したデータを、前記第2の前景背景分離データとする、
    請求項1に記載の追尾装置。
  4. 前記代表色更新部はさらに、前記第2の前景背景分離データに対応する前記映像データの領域の代表色が前記代表色の範囲に含まれるように、前記代表色データを更新する、
    請求項1乃至3のいずれか一項に記載の追尾装置。
  5. 前記追尾処理部は、前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方と、前記代表色データとに基づいて、前記映像データ内の前記追尾対象物を追尾する、
    請求項1乃至4のいずれか一項に記載の追尾装置。
  6. 追尾対象物を追尾するための代表色を示す代表色データを記憶し、
    取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成し、
    前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成し、
    前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾
    前記第2の前景背景分離データに対応する前記映像データの領域で一定期間使用されない前記代表色データを削除する、
    追尾方法。
  7. 追尾対象物を追尾するための代表色を示す代表色データを記憶し、
    取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成し、
    前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成し、
    前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾
    前記第2の前景背景分離データに対応する前記映像データの領域で一定期間使用されない前記代表色データを削除する、
    追尾処理をコンピュータに実行させるための追尾プログラム。
JP2015028238A 2015-02-17 2015-02-17 追尾装置、追尾方法及び追尾プログラム Active JP6350331B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015028238A JP6350331B2 (ja) 2015-02-17 2015-02-17 追尾装置、追尾方法及び追尾プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015028238A JP6350331B2 (ja) 2015-02-17 2015-02-17 追尾装置、追尾方法及び追尾プログラム

Publications (2)

Publication Number Publication Date
JP2016152467A JP2016152467A (ja) 2016-08-22
JP6350331B2 true JP6350331B2 (ja) 2018-07-04

Family

ID=56696882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015028238A Active JP6350331B2 (ja) 2015-02-17 2015-02-17 追尾装置、追尾方法及び追尾プログラム

Country Status (1)

Country Link
JP (1) JP6350331B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544855B2 (en) 2020-03-18 2023-01-03 Samsung Electronics Co., Ltd. Method and apparatus for tracking target

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7005236B2 (ja) * 2017-09-05 2022-01-21 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3657463B2 (ja) * 1999-06-29 2005-06-08 シャープ株式会社 動作認識システムおよび動作認識プログラムを記録した記録媒体
JP2001169169A (ja) * 1999-12-10 2001-06-22 Fuji Photo Optical Co Ltd 自動追尾装置
JP2003241065A (ja) * 2002-02-15 2003-08-27 Fuji Photo Optical Co Ltd オートフォーカスシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544855B2 (en) 2020-03-18 2023-01-03 Samsung Electronics Co., Ltd. Method and apparatus for tracking target
US11967088B2 (en) 2020-03-18 2024-04-23 Samsung Electronics Co., Ltd. Method and apparatus for tracking target

Also Published As

Publication number Publication date
JP2016152467A (ja) 2016-08-22

Similar Documents

Publication Publication Date Title
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US6556708B1 (en) Technique for classifying objects within an image
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
US6400830B1 (en) Technique for tracking objects through a series of images
JP6204659B2 (ja) 映像処理装置及び映像処理方法
US10163027B2 (en) Apparatus for and method of processing image based on object region
US6421462B1 (en) Technique for differencing an image
JP6639523B2 (ja) 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
US10489640B2 (en) Determination device and determination method of persons included in imaging data
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
JP2016134803A (ja) 画像処理装置及び画像処理方法
KR101737430B1 (ko) 동적 배경을 가진 영상의 대상 객체 검출 방법
US6434271B1 (en) Technique for locating objects within an image
JP2013152669A (ja) 画像監視装置
JP2021108193A (ja) 画像処理装置、画像処理方法、及びプログラム
US6240197B1 (en) Technique for disambiguating proximate objects within an image
US6184858B1 (en) Technique for updating a background image
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP2010237976A (ja) 光源情報取得装置、陰影検出装置、陰影除去装置、それらの方法、及びプログラム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6350331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150