JPH05205052A - 自動追尾装置 - Google Patents
自動追尾装置Info
- Publication number
- JPH05205052A JPH05205052A JP4010350A JP1035092A JPH05205052A JP H05205052 A JPH05205052 A JP H05205052A JP 4010350 A JP4010350 A JP 4010350A JP 1035092 A JP1035092 A JP 1035092A JP H05205052 A JPH05205052 A JP H05205052A
- Authority
- JP
- Japan
- Prior art keywords
- value
- unit
- area
- image
- target frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 複数の移動物体が存在する状況であっても、
移動物体のうちの対象物を追尾可能な自動追尾装置を提
供すること。 【構成】 追尾したい対象物を覆う対象枠の位置及び大
きさを、対象物を含む画像内に設定させる対象枠決定部
106と、その対象枠内の色情報の代表値を決定する代
表色決定部104と、画像から色情報が代表値と実質上
同じ値の領域を抽出する代表色領域抽出部107と、画
像中の動き領域を抽出する動き領域抽出部109と、抽
出された代表色領域及び動き領域に基づき、対象物の位
置補正値を演算し、その演算結果に応じて対象枠決定部
106に対象枠の位置を補正させる補正画素計数部11
4及び補正重心計算部115とを備える。
移動物体のうちの対象物を追尾可能な自動追尾装置を提
供すること。 【構成】 追尾したい対象物を覆う対象枠の位置及び大
きさを、対象物を含む画像内に設定させる対象枠決定部
106と、その対象枠内の色情報の代表値を決定する代
表色決定部104と、画像から色情報が代表値と実質上
同じ値の領域を抽出する代表色領域抽出部107と、画
像中の動き領域を抽出する動き領域抽出部109と、抽
出された代表色領域及び動き領域に基づき、対象物の位
置補正値を演算し、その演算結果に応じて対象枠決定部
106に対象枠の位置を補正させる補正画素計数部11
4及び補正重心計算部115とを備える。
Description
【0001】
【産業上の利用分野】本発明は、デジタル画像信号を用
いて対象物を追尾する自動追尾装置に関するものであ
る。
いて対象物を追尾する自動追尾装置に関するものであ
る。
【0002】
【従来の技術】従来、デジタル動画像から移動物体を検
出する手法として、移動物体を含まない背景画像を用い
て入力画像との差分をとるという手法がある。この背景
画像は、カメラが静止している場合には移動物体が存在
しない時の背景を撮影し、取り込んでおけばよい。しか
し、カメラが移動・パンニングする場合や、屋外などで
太陽が雲に隠れるなどのために照明変化が起こる場合に
は、背景画像は刻々変化する。この様な場合に対処する
手法として、入力画像から背景画像を合成する手法が、
特開平1−184483号公報で提案されている。この
手法は、入力画像とその時の背景画像との差分があるし
きい値以上の画素点(以下動き画素と呼ぶ)を移動物体
を表す動き画素と判断し、それ以外の画素を背景と判断
してその領域についてのみ背景画像を更新することによ
り、背景画像を合成する手法である。 また上記公報で
は、追尾したい対象物が物体(移動・静止を問わない)
の後ろへ隠れるオクルージョンのうち、追尾対象物が背
景中の静止物体の後ろへ隠れる場合に対処する手法につ
いても述べている。これは、移動物体を表す動き画素の
重心を毎回算出し、この時系列を基に重心の次回の予測
を行い、算出重心が予測重心に対して一定誤差内に収ま
っている間、正常追尾状態とし、一定誤差以上になった
場合には、静止物体の後ろに隠れたため追尾不能とし、
追尾不能期間中は、それまでの重心の時系列をもとに予
測を行い、追尾対象の出現を待つというものである。
出する手法として、移動物体を含まない背景画像を用い
て入力画像との差分をとるという手法がある。この背景
画像は、カメラが静止している場合には移動物体が存在
しない時の背景を撮影し、取り込んでおけばよい。しか
し、カメラが移動・パンニングする場合や、屋外などで
太陽が雲に隠れるなどのために照明変化が起こる場合に
は、背景画像は刻々変化する。この様な場合に対処する
手法として、入力画像から背景画像を合成する手法が、
特開平1−184483号公報で提案されている。この
手法は、入力画像とその時の背景画像との差分があるし
きい値以上の画素点(以下動き画素と呼ぶ)を移動物体
を表す動き画素と判断し、それ以外の画素を背景と判断
してその領域についてのみ背景画像を更新することによ
り、背景画像を合成する手法である。 また上記公報で
は、追尾したい対象物が物体(移動・静止を問わない)
の後ろへ隠れるオクルージョンのうち、追尾対象物が背
景中の静止物体の後ろへ隠れる場合に対処する手法につ
いても述べている。これは、移動物体を表す動き画素の
重心を毎回算出し、この時系列を基に重心の次回の予測
を行い、算出重心が予測重心に対して一定誤差内に収ま
っている間、正常追尾状態とし、一定誤差以上になった
場合には、静止物体の後ろに隠れたため追尾不能とし、
追尾不能期間中は、それまでの重心の時系列をもとに予
測を行い、追尾対象の出現を待つというものである。
【0003】
【発明が解決しようとする課題】しかしながら上記従来
例では、移動物体が複数個存在する場合には、正しい追
尾対象物の重心を計算できない。また、移動物体を表す
動き画素であると判断する範囲を制限しても、差分によ
る情報だけでは追尾対象物が移動物体の後ろに隠れるオ
クルージョン等の場合には対処できない。例えば第10
図(a)に示すように移動物体201が左から、追尾対
象物202が右からお互いに近寄り、同じ直線上を進ん
で衝突した後、移動物体201、202がもと来た道を
後戻りする場合、または、第10図(b)に示すように
移動物体203が左から、追尾対象物204が右から異
なる直線上を進み、移動物体203と追尾対象物204
が交差してそのまままっすぐ進む場合がある。この2つ
の状況は、入力画像と背景画像との差分により求めた移
動物体を表す動き画素の変化が同じため区別できないの
で、衝突後又は交差後、追尾対象物202、204を追
尾できない。
例では、移動物体が複数個存在する場合には、正しい追
尾対象物の重心を計算できない。また、移動物体を表す
動き画素であると判断する範囲を制限しても、差分によ
る情報だけでは追尾対象物が移動物体の後ろに隠れるオ
クルージョン等の場合には対処できない。例えば第10
図(a)に示すように移動物体201が左から、追尾対
象物202が右からお互いに近寄り、同じ直線上を進ん
で衝突した後、移動物体201、202がもと来た道を
後戻りする場合、または、第10図(b)に示すように
移動物体203が左から、追尾対象物204が右から異
なる直線上を進み、移動物体203と追尾対象物204
が交差してそのまままっすぐ進む場合がある。この2つ
の状況は、入力画像と背景画像との差分により求めた移
動物体を表す動き画素の変化が同じため区別できないの
で、衝突後又は交差後、追尾対象物202、204を追
尾できない。
【0004】また動き画素数が大きく変化しないため、
オクルージョンが起こったことさえ検出できないという
課題がある。
オクルージョンが起こったことさえ検出できないという
課題がある。
【0005】本発明は、従来のこのような課題を考慮
し、複数の移動物体が存在する状況であっても、移動物
体のうちの対象物を追尾可能な自動追尾装置を提供する
ことを目的とするものである。
し、複数の移動物体が存在する状況であっても、移動物
体のうちの対象物を追尾可能な自動追尾装置を提供する
ことを目的とするものである。
【0006】
【課題を解決するための手段】本発明は、追尾しようと
する対象物を覆う対象枠の位置及び大きさを、その対象
物を含む画像内に設定させる対象枠設定手段と、その設
定された対象枠内の特徴情報の代表値を決定する代表値
決定手段と、画像から特徴情報が代表値と実質上同じ値
の領域を抽出する代表値領域抽出手段と、画像中の動き
領域を抽出する動き領域抽出手段と、抽出された代表値
領域及び抽出された動き領域に基づき、対象物の位置補
正値を演算し、その演算結果に応じて対象枠設定手段に
対象枠の位置を補正させる位置補正演算手段とを備えた
自動追尾装置である。
する対象物を覆う対象枠の位置及び大きさを、その対象
物を含む画像内に設定させる対象枠設定手段と、その設
定された対象枠内の特徴情報の代表値を決定する代表値
決定手段と、画像から特徴情報が代表値と実質上同じ値
の領域を抽出する代表値領域抽出手段と、画像中の動き
領域を抽出する動き領域抽出手段と、抽出された代表値
領域及び抽出された動き領域に基づき、対象物の位置補
正値を演算し、その演算結果に応じて対象枠設定手段に
対象枠の位置を補正させる位置補正演算手段とを備えた
自動追尾装置である。
【0007】
【作用】本発明は、対象枠設定手段が、追尾しようとす
る対象物を覆う対象枠の位置及び大きさを設定させ、代
表値決定手段が、対象枠内の特徴情報の代表値を決定
し、代表値領域抽出手段が、画像から特徴情報が代表値
と実質上同じ値の領域を抽出し、動き領域抽出手段が、
画像中の動き領域を抽出し、位置補正演算手段が、それ
ら代表値領域及び動き領域に基づき、対象物の位置補正
値を演算し、その演算結果に応じて対象枠設定手段に対
象枠の位置を補正させる。
る対象物を覆う対象枠の位置及び大きさを設定させ、代
表値決定手段が、対象枠内の特徴情報の代表値を決定
し、代表値領域抽出手段が、画像から特徴情報が代表値
と実質上同じ値の領域を抽出し、動き領域抽出手段が、
画像中の動き領域を抽出し、位置補正演算手段が、それ
ら代表値領域及び動き領域に基づき、対象物の位置補正
値を演算し、その演算結果に応じて対象枠設定手段に対
象枠の位置を補正させる。
【0008】
【実施例】以下に、本発明をその実施例を示す図面に基
づいて説明する。
づいて説明する。
【0009】図1は、本発明にかかる一実施例の自動追
尾装置を示す構成図である。すなわち、画像信号入力端
子101は、画像信号のRGBデータを画素値ごとにデ
ータ変換する色分類部102、背景画像を記憶する背景
画像記憶部108、画像中の動き領域を抽出する動き領
域抽出手段である動き領域抽出部109及び画像を表示
する表示部118に接続されている。色分類部102は
切り替え部103に接続され、その切り替え部103
は、追跡したい移動物体(以下対象物と称す)を代表す
る色(以下代表色と呼ぶ)を決める代表値決定手段であ
る代表色決定部104、及び画像から対象物の代表色と
同じ色の領域を抽出する代表値領域抽出手段である代表
色領域抽出部107の接続を切り換えている。
尾装置を示す構成図である。すなわち、画像信号入力端
子101は、画像信号のRGBデータを画素値ごとにデ
ータ変換する色分類部102、背景画像を記憶する背景
画像記憶部108、画像中の動き領域を抽出する動き領
域抽出手段である動き領域抽出部109及び画像を表示
する表示部118に接続されている。色分類部102は
切り替え部103に接続され、その切り替え部103
は、追跡したい移動物体(以下対象物と称す)を代表す
る色(以下代表色と呼ぶ)を決める代表値決定手段であ
る代表色決定部104、及び画像から対象物の代表色と
同じ色の領域を抽出する代表値領域抽出手段である代表
色領域抽出部107の接続を切り換えている。
【0010】一方、操作者からの指示を取り込むための
指示入力部105は、対象物を囲む対象枠を決定する対
象枠設定手段である対象枠決定部106及び背景画像記
憶部108に接続され、その対象枠決定部106は代表
色決定部104及び対象枠よりサーチ枠を算出するサー
チ枠生成部119に接続され、背景画像記憶部108が
動き領域抽出部109に接続されている。
指示入力部105は、対象物を囲む対象枠を決定する対
象枠設定手段である対象枠決定部106及び背景画像記
憶部108に接続され、その対象枠決定部106は代表
色決定部104及び対象枠よりサーチ枠を算出するサー
チ枠生成部119に接続され、背景画像記憶部108が
動き領域抽出部109に接続されている。
【0011】代表色決定部104は代表色領域抽出部1
07に接続され、その代表色領域抽出部107は、抽出
された代表色領域を、サーチ枠生成部119が生成する
サーチ枠信号152によって、そのサーチ枠内に制限す
るマスク部110に接続されている。又動き領域抽出部
109は、抽出された動き領域を、サーチ枠生成部11
9が生成するサーチ枠信号152によって、そのサーチ
枠内に制限するマスク部111に接続されている。
07に接続され、その代表色領域抽出部107は、抽出
された代表色領域を、サーチ枠生成部119が生成する
サーチ枠信号152によって、そのサーチ枠内に制限す
るマスク部110に接続されている。又動き領域抽出部
109は、抽出された動き領域を、サーチ枠生成部11
9が生成するサーチ枠信号152によって、そのサーチ
枠内に制限するマスク部111に接続されている。
【0012】マスク部110は、代表色を示す画素数を
カウントする画素計数部112、領域別に重みを変えて
画素数をカウントする補正画素計数部114及び領域別
に重みを変えて重心計算を行う補正重心計算部115に
接続され、マスク部111は、動きを示す画素数をカウ
ントする画素計数部113、補正画素計数部114及び
補正重心計算部115に接続されている。それら補正画
素計数部114及び補正重心計算部115が位置補正演
算手段を構成している。
カウントする画素計数部112、領域別に重みを変えて
画素数をカウントする補正画素計数部114及び領域別
に重みを変えて重心計算を行う補正重心計算部115に
接続され、マスク部111は、動きを示す画素数をカウ
ントする画素計数部113、補正画素計数部114及び
補正重心計算部115に接続されている。それら補正画
素計数部114及び補正重心計算部115が位置補正演
算手段を構成している。
【0013】画素計数部112及び画素計数部113
は、オクルージョン状況を判断する状況判断部116に
接続され、その状況判断部116はオクルージョン状況
を表示する状況表示部117に接続されている。
は、オクルージョン状況を判断する状況判断部116に
接続され、その状況判断部116はオクルージョン状況
を表示する状況表示部117に接続されている。
【0014】補正画素計数部114は補正重心計算部1
15に接続され、その補正重心計算部115は、表示部
118及び対象枠決定部106に接続されている。
15に接続され、その補正重心計算部115は、表示部
118及び対象枠決定部106に接続されている。
【0015】以上のように構成された同実施例の自動追
尾装置について、以下その動作を説明する。
尾装置について、以下その動作を説明する。
【0016】まず、初期設定時の動作について説明す
る。初期設定時、操作者は図2に示すように入力画像3
01から追尾する対象物302を任意に決定し、対象物
302のまわりに、対象物302を覆うように矩形の対
象枠303を設定する。例えば、対象枠303の左上の
座標(i,j)(以下対象枠の位置と呼ぶ)と縦、横
(w,h)の長さ(以下対象枠の大きさと呼ぶ)を指定
する。対象枠決定部106は、この操作者からの入力を
指示入力部105より読み取り、この初期対象枠の位置
及び大きさを対象枠信号151として代表色決定部10
4とサーチ枠生成部119へ出力する。サーチ枠生成部
119は、対象枠の位置と大きさを基に、その対象枠を
囲むサーチ枠304を生成する。例えば、対象枠303
の縦の長さh、横の長さwとする時、左右にそれぞれ
w、上下にh/2だけ広げた枠をサーチ枠304とす
る。サーチ枠生成部119は、このサーチ枠の大きさと
位置を表すサーチ枠信号152を後述するマスク部11
0及びマスク部111に出力する。
る。初期設定時、操作者は図2に示すように入力画像3
01から追尾する対象物302を任意に決定し、対象物
302のまわりに、対象物302を覆うように矩形の対
象枠303を設定する。例えば、対象枠303の左上の
座標(i,j)(以下対象枠の位置と呼ぶ)と縦、横
(w,h)の長さ(以下対象枠の大きさと呼ぶ)を指定
する。対象枠決定部106は、この操作者からの入力を
指示入力部105より読み取り、この初期対象枠の位置
及び大きさを対象枠信号151として代表色決定部10
4とサーチ枠生成部119へ出力する。サーチ枠生成部
119は、対象枠の位置と大きさを基に、その対象枠を
囲むサーチ枠304を生成する。例えば、対象枠303
の縦の長さh、横の長さwとする時、左右にそれぞれ
w、上下にh/2だけ広げた枠をサーチ枠304とす
る。サーチ枠生成部119は、このサーチ枠の大きさと
位置を表すサーチ枠信号152を後述するマスク部11
0及びマスク部111に出力する。
【0017】一方、色分類部102は、画像信号入力端
子101に入力された入力画像の画素値をそれぞれ、例
えばその値に応じて512通りに分類する。ここでは入
力される画像信号がRGB(赤、緑、青)データの場合
を考え、それぞれについて0から最大値までを8分割
し、小さい方から度数0、1、、、7とする。この時図
5に示すように、画像信号のRGBデータが箱601の
内側の画素はすべて、度数(R,G,B)=(3、3、
4)という同一の色と判断される。また度数(R,G,
B)=(3、3、3)と(3、3、4)は別の色とな
り、色の数は8*8*8で512色となる。これにより
色分類部102は、入力画像の画素のうち、RGB値が
ある範囲内にある画素をすべて同じ値となるように変換
し、この変換後の画像信号を切り替え部103へ出力す
る。切り替え部103は、初期設定時にはa側に切り替
えられており、色分類部102からの画像信号を代表色
決定部104へ出力する。代表色決定部104は、切り
替え部103からの512色に色分類された画像信号か
ら、対象枠決定部106により決定された対象枠の内側
の画素のうち頻度が最大の色を求め、これを代表色とし
て代表色領域抽出部107へ出力する。
子101に入力された入力画像の画素値をそれぞれ、例
えばその値に応じて512通りに分類する。ここでは入
力される画像信号がRGB(赤、緑、青)データの場合
を考え、それぞれについて0から最大値までを8分割
し、小さい方から度数0、1、、、7とする。この時図
5に示すように、画像信号のRGBデータが箱601の
内側の画素はすべて、度数(R,G,B)=(3、3、
4)という同一の色と判断される。また度数(R,G,
B)=(3、3、3)と(3、3、4)は別の色とな
り、色の数は8*8*8で512色となる。これにより
色分類部102は、入力画像の画素のうち、RGB値が
ある範囲内にある画素をすべて同じ値となるように変換
し、この変換後の画像信号を切り替え部103へ出力す
る。切り替え部103は、初期設定時にはa側に切り替
えられており、色分類部102からの画像信号を代表色
決定部104へ出力する。代表色決定部104は、切り
替え部103からの512色に色分類された画像信号か
ら、対象枠決定部106により決定された対象枠の内側
の画素のうち頻度が最大の色を求め、これを代表色とし
て代表色領域抽出部107へ出力する。
【0018】他方、背景画像記憶部108には、予め移
動物体を含まない背景のみの画像を記憶しておく。これ
は、例えば操作者が入力画像中に移動物体が存在しない
のを確認し、指示入力部105を操作する。この操作に
よって、指示入力部105は背景画像記憶部108へ制
御信号を与える。そうすると背景画像記憶部108は、
この制御信号によりその時の画像信号入力端子101か
らの入力画像を記憶する。
動物体を含まない背景のみの画像を記憶しておく。これ
は、例えば操作者が入力画像中に移動物体が存在しない
のを確認し、指示入力部105を操作する。この操作に
よって、指示入力部105は背景画像記憶部108へ制
御信号を与える。そうすると背景画像記憶部108は、
この制御信号によりその時の画像信号入力端子101か
らの入力画像を記憶する。
【0019】次に、上記初期設定が終了した後の動作に
ついて説明する。画像信号入力端子101からの入力画
像は、色分類部102と動き領域抽出部109、表示部
118へ入力される。色分類部102は、入力画像を5
12色の画像信号に変換し、この画像信号を切り替え部
103へ出力する。切り替え部103は、初期設定後は
b側に切り替わっているので、色分類部102からの5
12色の画像信号を代表色領域抽出部107へ出力す
る。代表色領域抽出部107は、入力された512色の
画像信号の内、代表色決定部104からの代表色と等し
い色を持つ画素を値"1"で表し、そうでない画素を値"
0"で表す2値画像信号を生成し、その2値画像信号を
マスク部110へ出力する(以下代表色と等しい色を持
つ画素の存在する領域を代表色領域と呼ぶ)。マスク部
110は2値画像信号のうち、サーチ枠生成部119で
生成されたサーチ枠の外側の画素データを、すべて背景
を表す値"0"とし、サーチ枠内については入力値そのま
まとして、これを画素計数部112、補正画素計数部1
14、補正重心計算部115へ出力する。
ついて説明する。画像信号入力端子101からの入力画
像は、色分類部102と動き領域抽出部109、表示部
118へ入力される。色分類部102は、入力画像を5
12色の画像信号に変換し、この画像信号を切り替え部
103へ出力する。切り替え部103は、初期設定後は
b側に切り替わっているので、色分類部102からの5
12色の画像信号を代表色領域抽出部107へ出力す
る。代表色領域抽出部107は、入力された512色の
画像信号の内、代表色決定部104からの代表色と等し
い色を持つ画素を値"1"で表し、そうでない画素を値"
0"で表す2値画像信号を生成し、その2値画像信号を
マスク部110へ出力する(以下代表色と等しい色を持
つ画素の存在する領域を代表色領域と呼ぶ)。マスク部
110は2値画像信号のうち、サーチ枠生成部119で
生成されたサーチ枠の外側の画素データを、すべて背景
を表す値"0"とし、サーチ枠内については入力値そのま
まとして、これを画素計数部112、補正画素計数部1
14、補正重心計算部115へ出力する。
【0020】又、入力画像が入力された動き領域抽出部
109は、入力画像と背景画像記憶部108からの背景
のみの画像との間で画素単位で差分計算を行い、この差
分値がしきい値以上の画素を動き画素と判断し値"1"、
しきい値以下の画素を背景を表す画素と判断し値"0"、
となる2値画像信号を生成し、その2値画像信号をマス
ク部111へ出力する(以下動き画素の存在する領域を
動き領域と呼ぶ)。マスク部111の機能はマスク部1
10と同じであり、2値画像信号のうち、動き画素をサ
ーチ枠内に制限して、その結果を画素計数部113、補
正画素計数部114、補正重心計算部115へ出力す
る。
109は、入力画像と背景画像記憶部108からの背景
のみの画像との間で画素単位で差分計算を行い、この差
分値がしきい値以上の画素を動き画素と判断し値"1"、
しきい値以下の画素を背景を表す画素と判断し値"0"、
となる2値画像信号を生成し、その2値画像信号をマス
ク部111へ出力する(以下動き画素の存在する領域を
動き領域と呼ぶ)。マスク部111の機能はマスク部1
10と同じであり、2値画像信号のうち、動き画素をサ
ーチ枠内に制限して、その結果を画素計数部113、補
正画素計数部114、補正重心計算部115へ出力す
る。
【0021】マスク部110から出力された2値画像信
号、及びマスク部111から出力された2値画像信号が
入力された補正画素計数部114では、図6に示すよう
な手順により処理が行われる。
号、及びマスク部111から出力された2値画像信号が
入力された補正画素計数部114では、図6に示すよう
な手順により処理が行われる。
【0022】まず、画素数を表す変数Sを0にする(ス
テップS701)。そして図7に示す入力画像中の現在
注目する座標(x,y)を(0、0)に初期化する(ス
テップS702、S703)。
テップS701)。そして図7に示す入力画像中の現在
注目する座標(x,y)を(0、0)に初期化する(ス
テップS702、S703)。
【0023】次にマスク部111よりの画像信号P
m(x,y)が値"0"か、値"1"かを判断する(ステップ
S704)。画像信号Pm(x,y)の値が"1"のとき
は、マスク部110よりの画像信号Pr(x,y)が値"
1"か、値"0"かを判断し(ステップS705)、画像
信号Pm(x,y)の値が"0"のときは、X座標の値xを
1増やす(ステップS708)。
m(x,y)が値"0"か、値"1"かを判断する(ステップ
S704)。画像信号Pm(x,y)の値が"1"のとき
は、マスク部110よりの画像信号Pr(x,y)が値"
1"か、値"0"かを判断し(ステップS705)、画像
信号Pm(x,y)の値が"0"のときは、X座標の値xを
1増やす(ステップS708)。
【0024】画像信号Pm(x,y)の値が"1"の場合
に、画像信号Pr(x,y)の値が"1"のときは、画素数
を表す変数Sに定数k(kは1より大きい数で整数でな
くてもよい)を加算し(ステップS706)、画像信号
Pr(x,y)の値が"0"のときは、変数Sに定数1を加
算する(ステップS707)。
に、画像信号Pr(x,y)の値が"1"のときは、画素数
を表す変数Sに定数k(kは1より大きい数で整数でな
くてもよい)を加算し(ステップS706)、画像信号
Pr(x,y)の値が"0"のときは、変数Sに定数1を加
算する(ステップS707)。
【0025】次にX座標の値xを1増やし(ステップS
708)、その値xと入力画像のX座標の右端の値Nと
を比較する(ステップS709)。比較した結果xがN
より小さい場合は、画像信号Pm(x,y)が値"0"か、
値"1"かを判断する(ステップS704)処理へ飛び、
そうでない場合は、Y座標の値yを1増やし(ステップ
S710)、次にその値yと入力画像のY座標の下端の
値Mとを比較する(ステップS711)。比較した結果
yがMより小さい場合は、X座標の値xを0にする(ス
テップS703)処理へ飛び、そうでない場合は、処理
を終了する。この時得られる変数Sの値が補正された画
素数である。
708)、その値xと入力画像のX座標の右端の値Nと
を比較する(ステップS709)。比較した結果xがN
より小さい場合は、画像信号Pm(x,y)が値"0"か、
値"1"かを判断する(ステップS704)処理へ飛び、
そうでない場合は、Y座標の値yを1増やし(ステップ
S710)、次にその値yと入力画像のY座標の下端の
値Mとを比較する(ステップS711)。比較した結果
yがMより小さい場合は、X座標の値xを0にする(ス
テップS703)処理へ飛び、そうでない場合は、処理
を終了する。この時得られる変数Sの値が補正された画
素数である。
【0026】以上の処理により、動き領域内の画素(マ
スク部111よりの画像信号Pm が値"1"の画素)のう
ち、代表色と等しい画素(マスク部110よりの画像信
号P r が値"1"の画素)については(k−1)個だけ余
分にカウントすることになる。そして補正画素計数部1
14はこのカウント結果の補正画素数nを補正重心計算
部115へ出力する。
スク部111よりの画像信号Pm が値"1"の画素)のう
ち、代表色と等しい画素(マスク部110よりの画像信
号P r が値"1"の画素)については(k−1)個だけ余
分にカウントすることになる。そして補正画素計数部1
14はこのカウント結果の補正画素数nを補正重心計算
部115へ出力する。
【0027】補正画素計数部114から出力されたカウ
ント結果、マスク部110から出力された2値画像信
号、及びマスク部111から出力された2値画像信号が
入力された補正重心計算部115では、図8に示すよう
な手順により処理が行われる。
ント結果、マスク部110から出力された2値画像信
号、及びマスク部111から出力された2値画像信号が
入力された補正重心計算部115では、図8に示すよう
な手順により処理が行われる。
【0028】まず、2つのベクトル変数S1,S2を(0,
0)に初期化する(ステップS901)。そして図7に
示す入力画像中の現在注目する座標 (x,y)を
(0、0)に初期化する(ステップS902、S90
3)。
0)に初期化する(ステップS901)。そして図7に
示す入力画像中の現在注目する座標 (x,y)を
(0、0)に初期化する(ステップS902、S90
3)。
【0029】次にマスク部111よりの画像信号P
m(x,y)が値"0"か、値"1"かを判断する(ステップ
S904)。画像信号Pm(x,y)の値が"1"のとき
は、マスク部110よりの画像信号Pr(x,y)が値"
1"か、値"0"かを判断し(ステップS905)、画像
信号Pm(x,y)の値が"0"のときは、X座標の値xを
1増やす(ステップS908)。
m(x,y)が値"0"か、値"1"かを判断する(ステップ
S904)。画像信号Pm(x,y)の値が"1"のとき
は、マスク部110よりの画像信号Pr(x,y)が値"
1"か、値"0"かを判断し(ステップS905)、画像
信号Pm(x,y)の値が"0"のときは、X座標の値xを
1増やす(ステップS908)。
【0030】画像信号Pm(x,y)の値が"1"の場合
に、画像信号Pr(x,y)の値が"1"のときは、ベクト
ルS1 に現在注目している画素の座標 (x,y)を加算
し(ステップS906)、画像信号Pr(x,y)の値
が"0"のときは、ベクトルS2 に、現在注目している画
素の座標(x,y)を加算する(ステップS907)。
に、画像信号Pr(x,y)の値が"1"のときは、ベクト
ルS1 に現在注目している画素の座標 (x,y)を加算
し(ステップS906)、画像信号Pr(x,y)の値
が"0"のときは、ベクトルS2 に、現在注目している画
素の座標(x,y)を加算する(ステップS907)。
【0031】次にX座標の値xを1増やし(ステップS
908)、その値xと入力画像のX座標の右端の値Nと
を比較する(ステップS909)。比較した結果xがN
より小さい場合は、画像信号Pm(x,y)が値"0"か、
値"1"かを判断する(ステップS904)処理へ飛び、
そうでない場合は、Y座標の値yを1増やし(ステップ
S910)、次にその値yと入力画像のY座標の下端の
値Mとを比較する(ステップS911)。比較した結果
yがMより小さい場合は、X座標の値xを0にする(ス
テップS903)処理へ飛び、そうでない場合は、ベク
トルS1、S2より以下の式を用いベクトルSを計算し
(ステップS912)、 S = k*S1 + S2 (ここで、kは補正画素計数部114で用いた定数)こ
のベクトルSを補正画素計数部114から入力された補
正画素数nで割り、ベクトルGを求めて出力する(ステ
ップS913)。
908)、その値xと入力画像のX座標の右端の値Nと
を比較する(ステップS909)。比較した結果xがN
より小さい場合は、画像信号Pm(x,y)が値"0"か、
値"1"かを判断する(ステップS904)処理へ飛び、
そうでない場合は、Y座標の値yを1増やし(ステップ
S910)、次にその値yと入力画像のY座標の下端の
値Mとを比較する(ステップS911)。比較した結果
yがMより小さい場合は、X座標の値xを0にする(ス
テップS903)処理へ飛び、そうでない場合は、ベク
トルS1、S2より以下の式を用いベクトルSを計算し
(ステップS912)、 S = k*S1 + S2 (ここで、kは補正画素計数部114で用いた定数)こ
のベクトルSを補正画素計数部114から入力された補
正画素数nで割り、ベクトルGを求めて出力する(ステ
ップS913)。
【0032】以上の計算により、ベクトルS1は動き領
域内の画素のうち、代表色領域にも含まれる画素の重心
ベクトル、ベクトルS2 は動き領域内の画素のうち、代
表色領域には含まれない画素の重心ベクトルとなる。
域内の画素のうち、代表色領域にも含まれる画素の重心
ベクトル、ベクトルS2 は動き領域内の画素のうち、代
表色領域には含まれない画素の重心ベクトルとなる。
【0033】又ベクトルGが補正された重心ベクトルで
あり、この補正重心の座標を表す信号153を表示部1
18と対象枠決定部106へ出力する。表示部118は
画像信号入力端子101よりの入力画像に、補正重心計
算部115からの補正重心座標153の位置にマーカ
(x印など)を重ねて表示する。
あり、この補正重心の座標を表す信号153を表示部1
18と対象枠決定部106へ出力する。表示部118は
画像信号入力端子101よりの入力画像に、補正重心計
算部115からの補正重心座標153の位置にマーカ
(x印など)を重ねて表示する。
【0034】又、対象枠決定部106は初期設定後は、
補正重心計算部115からの補正重心座標153を用
い、新たに対象枠303を生成し、これを出力する。こ
の対象枠の生成方法は、例えば初期設定時の対象枠の縦
の長さh、横の長さwを記憶しておき、補正重心座標1
53が対象枠を表す四角形の対角線の交点に一致するよ
うに対象枠303の位置をずらす。つまり、図9に示す
ように、重心ベクトル1001をG=(xg,yg)、対
象枠1003の左上座標を示すベクトル1002をT=
(xt,yt)とする時、ベクトルG(1001)より、
ベクトルT(1002)を以下のように求める。
補正重心計算部115からの補正重心座標153を用
い、新たに対象枠303を生成し、これを出力する。こ
の対象枠の生成方法は、例えば初期設定時の対象枠の縦
の長さh、横の長さwを記憶しておき、補正重心座標1
53が対象枠を表す四角形の対角線の交点に一致するよ
うに対象枠303の位置をずらす。つまり、図9に示す
ように、重心ベクトル1001をG=(xg,yg)、対
象枠1003の左上座標を示すベクトル1002をT=
(xt,yt)とする時、ベクトルG(1001)より、
ベクトルT(1002)を以下のように求める。
【0035】xt = xg−w/2 yt = yg−h/2 更にサーチ枠生成部119は、対象枠決定部からの対象
枠信号151を用い、初期設定時と同様に、対象枠30
3の大きさに対して一定の割合で広げるようにしてサー
チ枠304を作成する。
枠信号151を用い、初期設定時と同様に、対象枠30
3の大きさに対して一定の割合で広げるようにしてサー
チ枠304を作成する。
【0036】又、同じ機能を有する画素計数部112、
113は、入力された2値画像信号の値"1"の画素数を
カウントしてそのカウント数を出力する。すなわち、画
素計数部112は、マスク部110からの2値画像信号
を入力として、サーチ枠内に含まれる代表色の画素数の
カウントを行い、その結果を状況判断部116へ出力す
る。一方、画素計数部113は、マスク部111からの
2値画像信号を入力として、サーチ枠内に含まれる動き
画素数のカウントを行い、その結果を状況判断部116
へ出力する。
113は、入力された2値画像信号の値"1"の画素数を
カウントしてそのカウント数を出力する。すなわち、画
素計数部112は、マスク部110からの2値画像信号
を入力として、サーチ枠内に含まれる代表色の画素数の
カウントを行い、その結果を状況判断部116へ出力す
る。一方、画素計数部113は、マスク部111からの
2値画像信号を入力として、サーチ枠内に含まれる動き
画素数のカウントを行い、その結果を状況判断部116
へ出力する。
【0037】状況判断部116は、画素計数部112よ
りの代表色の画素数と、画素計数部113よりの動き領
域の画素数とを用いてオクルージョン状況を以下の手法
で判断し、この検出結果を状況表示部117へ出力す
る。
りの代表色の画素数と、画素計数部113よりの動き領
域の画素数とを用いてオクルージョン状況を以下の手法
で判断し、この検出結果を状況表示部117へ出力す
る。
【0038】オクルージョン状況の判断手法は、例え
ば、代表色の画素数:Nr 、動き領域の画素数:Nm と
する時、Nmの現在の値が、Nmの現在までの100回分
の時系列データの平均の半分以下となった時、対象物が
静止物体の後ろに隠れたと判断し、またNrの現在の値
が、Nrの現在までの100回分の時系列データの平均
の半分以下となった時、対象物が移動物体の後ろに隠れ
たか、または対象物が回転した、と判断する。
ば、代表色の画素数:Nr 、動き領域の画素数:Nm と
する時、Nmの現在の値が、Nmの現在までの100回分
の時系列データの平均の半分以下となった時、対象物が
静止物体の後ろに隠れたと判断し、またNrの現在の値
が、Nrの現在までの100回分の時系列データの平均
の半分以下となった時、対象物が移動物体の後ろに隠れ
たか、または対象物が回転した、と判断する。
【0039】以上に説明したように本実施例によれば、
動き領域の重心計算において、対象物を表す代表色と同
じ画素については、その画素が同じ座標位置にk個存在
しているとみなして重心計算を行うため、動き領域中で
も代表色を含む動き領域の方に重心位置が移動する。こ
のため図3(a)〜(d)に示すように、追尾中の対象
物401が移動物体402の後ろに隠れ、そのあと直進
し続けて離れる場合、あるいは図4(a)〜(d)に示
すように、対象物501が移動物体502の後ろに隠れ
た後、それまでの進行方向の反対に進む場合について、
図3(c)及び図4(c)に示す、対象物401、50
1と移動物体402、502が離れる時には、代表色の
影響により重心位置が対象物401、501の方に偏っ
ているため、誤って移動物体402、502を追尾する
ことなく、正しく対象物401、501を追尾すること
ができる。
動き領域の重心計算において、対象物を表す代表色と同
じ画素については、その画素が同じ座標位置にk個存在
しているとみなして重心計算を行うため、動き領域中で
も代表色を含む動き領域の方に重心位置が移動する。こ
のため図3(a)〜(d)に示すように、追尾中の対象
物401が移動物体402の後ろに隠れ、そのあと直進
し続けて離れる場合、あるいは図4(a)〜(d)に示
すように、対象物501が移動物体502の後ろに隠れ
た後、それまでの進行方向の反対に進む場合について、
図3(c)及び図4(c)に示す、対象物401、50
1と移動物体402、502が離れる時には、代表色の
影響により重心位置が対象物401、501の方に偏っ
ているため、誤って移動物体402、502を追尾する
ことなく、正しく対象物401、501を追尾すること
ができる。
【0040】なお、上記実施例では、背景画像として静
止背景画像を用いたが、従来例の手法を用いることによ
り背景が変化する場合にも対処可能である。
止背景画像を用いたが、従来例の手法を用いることによ
り背景が変化する場合にも対処可能である。
【0041】また、上記実施例では、特徴情報に色情報
を用いたが、これに限らず追尾対象物を判別可能な情報
であれば他の特徴情報を用いてもよく、例えば対象物の
形状情報や速度情報などであってもよい。
を用いたが、これに限らず追尾対象物を判別可能な情報
であれば他の特徴情報を用いてもよく、例えば対象物の
形状情報や速度情報などであってもよい。
【0042】また、上記実施例では、動き領域抽出手段
は、入力画像と背景のみの画像との間で画素単位で差分
計算を行い、この差分値がしきい値以上の画素を動き画
素と判断して抽出を行ったが、これに限らずどんな公知
の他の手段でもよい。
は、入力画像と背景のみの画像との間で画素単位で差分
計算を行い、この差分値がしきい値以上の画素を動き画
素と判断して抽出を行ったが、これに限らずどんな公知
の他の手段でもよい。
【0043】
【発明の効果】以上述べたところから明らかなように本
発明は、複数の移動物体が存在する状況であっても、移
動物体のうちの対象物を追尾できるという長所がある。
発明は、複数の移動物体が存在する状況であっても、移
動物体のうちの対象物を追尾できるという長所がある。
【図1】本発明にかかる一実施例の自動追尾装置を示す
構成図である。
構成図である。
【図2】同実施例の画像の対象枠、サーチ枠を説明する
ための模式図である。
ための模式図である。
【図3】同図(a)、(b)、(c)、(d)は、同実
施例の動作を説明するための模式図である。
施例の動作を説明するための模式図である。
【図4】同図(a)、(b)、(c)、(d)は、同実
施例の動作を説明するための模式図である。
施例の動作を説明するための模式図である。
【図5】同実施例の色分類を説明するための図である。
【図6】同実施例の補正画素計数部の動作を説明するた
めのフローチャート図である。
めのフローチャート図である。
【図7】同実施例の補正画素計数部と補正重心計算部へ
の入力となる2値画像の座標を示す説明図である。
の入力となる2値画像の座標を示す説明図である。
【図8】同実施例の補正重心計算部の動作を説明するた
めのフローチャート図である。
めのフローチャート図である。
【図9】同実施例の対象枠の生成方法を説明するための
図である。
図である。
【図10】移動物体による2通りのオクルージョンにお
ける、従来の自動追尾装置の動作を説明するための説明
図である。
ける、従来の自動追尾装置の動作を説明するための説明
図である。
101 画像信号入力端子 102 色分類部(手段) 103 切り替え部(手段) 104 代表色決定部(手段) 105 指示入力部(手段) 106 対象枠決定部(手段) 107 代表色領域抽出部(手段) 108 背景画像記憶部(手段) 109 動き領域抽出部(手段) 110 マスク部(手段) 111 マスク部(手段) 112 画素計数部(手段) 113 画素計数部(手段) 114 補正画素計数部(手段) 115 補正重心計算部(手段) 116 状況判断部(手段) 117 状況表示部(手段) 118 表示部(手段) 119 サーチ枠生成部(手段)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤本 眞 大阪府門真市大字門真1006番地 松下電器 産業株式会社内
Claims (4)
- 【請求項1】 追尾しようとする対象物を覆う対象枠の
位置及び大きさを、その対象物を含む画像内に設定させ
る対象枠設定手段と、その設定された前記対象枠内の特
徴情報の代表値を決定する代表値決定手段と、前記画像
から前記特徴情報が前記代表値と実質上同じ値の領域を
抽出する代表値領域抽出手段と、前記画像中の動き領域
を抽出する動き領域抽出手段と、前記抽出された前記代
表値領域及び前記抽出された前記動き領域に基づき、前
記対象物の位置補正値を演算し、その演算結果に応じて
前記対象枠設定手段に前記対象枠の位置を補正させる位
置補正演算手段とを備えたことを特徴とする自動追尾装
置。 - 【請求項2】 対象枠設定手段は、前記対象枠を所定の
領域で覆うサーチ枠を生成するサーチ枠生成部を有し、
前記代表値領域抽出手段は前記サーチ枠から前記代表値
領域の抽出を行い、前記動き領域抽出手段は前記サーチ
枠から前記動き領域の抽出を行うことを特徴とする請求
項1記載の自動追尾装置。 - 【請求項3】 特徴情報は、色情報であることを特徴と
する請求項1、又は2記載の自動追尾装置。 - 【請求項4】 位置補正演算手段は、前記動き領域内の
画素のうち、前記代表値領域に含まれる画素に対する重
みを、それ以外の領域の画素に対する重みよりも大きく
して位置補正値を演算することを特徴とする請求項1、
2、又は3記載の自動追尾装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4010350A JPH05205052A (ja) | 1992-01-23 | 1992-01-23 | 自動追尾装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4010350A JPH05205052A (ja) | 1992-01-23 | 1992-01-23 | 自動追尾装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05205052A true JPH05205052A (ja) | 1993-08-13 |
Family
ID=11747745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4010350A Pending JPH05205052A (ja) | 1992-01-23 | 1992-01-23 | 自動追尾装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05205052A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129781A (ja) * | 1993-11-05 | 1995-05-19 | Ken Ishihara | 時系列画像情報抽出装置および方法 |
JPH1023313A (ja) * | 1996-07-08 | 1998-01-23 | Hitachi Ltd | 撮像装置 |
JP2002329207A (ja) * | 2001-05-02 | 2002-11-15 | Riosu Corp:Kk | 動体追跡表示システム |
JP2002358526A (ja) * | 2001-06-01 | 2002-12-13 | Nhk Engineering Services Inc | 映像オブジェクト検出・追跡装置 |
KR100439533B1 (ko) * | 2002-01-19 | 2004-07-12 | (주)미토스 | 특정 검사대상의 위치 자동 추적 시스템 및 추적 방법 |
WO2004070660A1 (ja) * | 2003-02-06 | 2004-08-19 | Matsushita Electric Industrial Co., Ltd. | 自動追尾装置及び自動追尾システム |
WO2010110215A1 (ja) * | 2009-03-25 | 2010-09-30 | 日本ビクター株式会社 | 画像表示装置、撮像装置、画像表示システム、画像表示方法および画像合成装置 |
JP2010225105A (ja) * | 2009-03-25 | 2010-10-07 | Toshiba Corp | 物体検出装置、物体検出方法、及び、プログラム |
JP2012113714A (ja) * | 2010-11-19 | 2012-06-14 | Total Immersion | ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置 |
JP2016085487A (ja) * | 2014-10-22 | 2016-05-19 | キヤノン株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
CN110223321A (zh) * | 2019-01-16 | 2019-09-10 | 深圳职业技术学院 | 一种基于局部结构化回归的目标跟踪方法 |
JP2021528767A (ja) * | 2018-11-21 | 2021-10-21 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 視覚的検索方法、装置、コンピュータ機器及び記憶媒体 |
WO2022014251A1 (ja) * | 2020-07-13 | 2022-01-20 | オムロン株式会社 | 情報処理装置、補正方法、プログラム |
-
1992
- 1992-01-23 JP JP4010350A patent/JPH05205052A/ja active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129781A (ja) * | 1993-11-05 | 1995-05-19 | Ken Ishihara | 時系列画像情報抽出装置および方法 |
JPH1023313A (ja) * | 1996-07-08 | 1998-01-23 | Hitachi Ltd | 撮像装置 |
JP2002329207A (ja) * | 2001-05-02 | 2002-11-15 | Riosu Corp:Kk | 動体追跡表示システム |
JP2002358526A (ja) * | 2001-06-01 | 2002-12-13 | Nhk Engineering Services Inc | 映像オブジェクト検出・追跡装置 |
KR100439533B1 (ko) * | 2002-01-19 | 2004-07-12 | (주)미토스 | 특정 검사대상의 위치 자동 추적 시스템 및 추적 방법 |
WO2004070660A1 (ja) * | 2003-02-06 | 2004-08-19 | Matsushita Electric Industrial Co., Ltd. | 自動追尾装置及び自動追尾システム |
JP2010226644A (ja) * | 2009-03-25 | 2010-10-07 | Victor Co Of Japan Ltd | 画像表示装置、撮像装置、画像表示システム、画像表示方法および画像合成装置 |
JP2010225105A (ja) * | 2009-03-25 | 2010-10-07 | Toshiba Corp | 物体検出装置、物体検出方法、及び、プログラム |
WO2010110215A1 (ja) * | 2009-03-25 | 2010-09-30 | 日本ビクター株式会社 | 画像表示装置、撮像装置、画像表示システム、画像表示方法および画像合成装置 |
JP2012113714A (ja) * | 2010-11-19 | 2012-06-14 | Total Immersion | ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置 |
JP2016085487A (ja) * | 2014-10-22 | 2016-05-19 | キヤノン株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP2021528767A (ja) * | 2018-11-21 | 2021-10-21 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 視覚的検索方法、装置、コンピュータ機器及び記憶媒体 |
US11348254B2 (en) | 2018-11-21 | 2022-05-31 | Baidu Online Network Technology (Beijing) Co., Ltd. | Visual search method, computer device, and storage medium |
CN110223321A (zh) * | 2019-01-16 | 2019-09-10 | 深圳职业技术学院 | 一种基于局部结构化回归的目标跟踪方法 |
CN110223321B (zh) * | 2019-01-16 | 2022-12-02 | 深圳职业技术学院 | 一种基于局部结构化回归的目标跟踪方法 |
WO2022014251A1 (ja) * | 2020-07-13 | 2022-01-20 | オムロン株式会社 | 情報処理装置、補正方法、プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11462028B2 (en) | Information processing device and information processing method to generate a virtual object image based on change in state of object in real space | |
EP2858008B1 (en) | Target detecting method and system | |
JP5127182B2 (ja) | 物体検出装置 | |
JPH05205052A (ja) | 自動追尾装置 | |
US11839721B2 (en) | Information processing apparatus, information processing method, and storage medium | |
EP3376470B1 (en) | Moving body tracking method, moving body tracking device, and program | |
JP2002074368A (ja) | 移動物体認識追跡装置 | |
KR960016419A (ko) | 비디오신호 추종처리 시스템 | |
CN108629799B (zh) | 一种实现增强现实的方法及设备 | |
US20160078598A1 (en) | Image processor and image processing method | |
JPH10126721A (ja) | 動画像検索用情報生成装置 | |
JP2020052671A (ja) | 表示制御装置、車両、表示制御方法 | |
JP3269222B2 (ja) | 距離測定装置 | |
JPH09265538A (ja) | 自動追尾装置 | |
WO2018034304A1 (ja) | 画像処理システム | |
KR101815840B1 (ko) | 영상 추정 기반 어라운드 뷰 모니터링 장치 | |
CN114529589B (zh) | 全景视频浏览交互方法 | |
JPH06169458A (ja) | 移動体の自動追尾装置 | |
JP2726180B2 (ja) | 相関追尾装置 | |
JP2003534742A (ja) | 方法、システム及び装置 | |
JPH10336506A (ja) | 画像処理システム、追尾システム,追尾方法,記憶媒体 | |
JP2667885B2 (ja) | 移動物体の自動追尾装置 | |
JPH0863602A (ja) | 物体追跡装置 | |
JP2005123914A (ja) | 情報表示装置および情報表示方法 | |
JP3480591B2 (ja) | 物体追尾装置 |