JP2004282535A - 画角調整装置 - Google Patents

画角調整装置 Download PDF

Info

Publication number
JP2004282535A
JP2004282535A JP2003073037A JP2003073037A JP2004282535A JP 2004282535 A JP2004282535 A JP 2004282535A JP 2003073037 A JP2003073037 A JP 2003073037A JP 2003073037 A JP2003073037 A JP 2003073037A JP 2004282535 A JP2004282535 A JP 2004282535A
Authority
JP
Japan
Prior art keywords
image
unit
angle
color
object region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2003073037A
Other languages
English (en)
Inventor
Shinya Taguchi
進也 田口
Shoji Tanaka
昭二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003073037A priority Critical patent/JP2004282535A/ja
Publication of JP2004282535A publication Critical patent/JP2004282535A/ja
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】手持ちカメラ等による瞬時変動が大きい画像入力に対しても対象物体を安定して抽出し、画像表示を行う。
【解決手段】広角で撮影した入力画像から所定の対象部分を中心とする画像範囲を抽出表示する構成において、入力画像の特定部分を色相と彩度を基に色を特定する物体色学習部1と、この特定した色情報を参照して入力画像のそれぞれの物体領域範囲を推定する物体領域候補検出部2と、入力画像の時間変動を抑える変動除去部5と、時間変動を抑えた物体領域の動きを予測して特定物体領域を追跡する物体追跡部3とを備えて、この追跡する特定物体を中心として所定の画角範囲を画像表示するようにした。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
この発明は、カメラで撮像した画像から通話者あるいは特定の物体の位置を抽出して検出し、常にこの検出された部分が画面の中心となるように画角を調整する画角調整に関するものである。
【0002】
【従来の技術】
携帯電話やPDAを使用したテレビ電話では、ユーザは端末を手で持ちながら、さらには移動中に通話を行う場合がある。このような状況では、ともすれば捕らえられた通話者の顔が画面のあちこちに移動するので、この場合は顔を常に画面の中心とするようにカメラの画角を調整する必要がある。
この画角調整の技術として、従来から、移動物体の動きにカメラを追従させる方法が用いられてきた。しかしカメラを追従させる方法では、カメラの画角内に移動物体が存在しないと機能しないため、目的とする移動物体の移動速度が速く、カメラの画角から外れてしまった場合には、自動追跡ができなくなってしまう。
【0003】
これを解決する別の方法として、パノラマカメラにより周囲360゜の全方位画像を取り込み、その撮像画像から物体を検出して追跡する方法が提案されている。
例えば、第1の従来例として特許文献1では、1台の静止した魚眼レンズカメラを用いて複数の人物像を同時に追跡し、多画面表示やシーケンス表示により追跡した人物をわかりやすく表示する。
図18に、この監視装置の構成を示す。この監視装置は、全方位画像の移動領域を検出する移動領域検知手段51と、検出された移動領域の画素を移動物体ごとにグループ化してラベリングするラベリング手段52と、ラベリングされた物体の移動を追跡する移動領域追跡手段53と、全方位画像からラベリングされた移動物体の画像領域を切り出し、画像領域の画像データを補正する正像変換手段54と、ラベリングされた移動物体の数に応じて表示画面を制御する表示制御手段55とを備える。
【0004】
この監視装置では、移動物体を検出するアルゴリズムとして、キャプチャされた画像データと背景画像との差分を計算する方法を採用している。図19は、この監視装置の移動領域検知手段が行う機能を説明する図である。この移動領域検知手段は、まず入力する画像に(1−α)を乗じ、また背景画像にαを乗じてこれらを加算部45で加算する。このことで、入力画像の動きを示す部分が減衰された画像データを得ることができる。次に、背景映像出力部47は、加算部45の出力を取得すると、減算部48に出力し、減算部48は、入力画像から、背景映像出力部47が出力した画像データを減算して、2値化部49に出力する。この一連の処理によって、入力画像から移動物体の領域のみを検出することが可能となる。
【0005】
また、例えば、第2の従来例として特許文献2では、1台の静止したパノラマカメラにより周囲360゜の画像を撮像し、画像処理技術により周囲の移動物体を検知して追尾する。この移動物体追尾装置では、移動物体を検出するアルゴリズムとして、256階調の画像を背景と移動物体(追尾対象)との2階調に階調変換し、フレーム差分をとる方法を採用している。この処理により、移動量の無い背景は輝度差の値が0となり、移動物体は前フレームと現フレームとの間で輝度差ができるため、この輝度差の値がある値以上のものを移動物体として検出している。
【0006】
【特許文献1】
特開2001−333422号公報
【特許文献2】
特開2002−64812号公報
【0007】
【発明が解決しようとする課題】
しかしながら、上記の従来例1又は従来例2に示される装置は、例えば、携帯電話やPDAにおけるテレビ電話など、カメラが固定されていない状況では使用不可能である。なぜなら、携帯電話やPDAを使用したテレビ電話では、通常ユーザは端末を手で持ちながら、さらには移動中に通話を行うため、このような状況ではカメラが細かく振動して、撮像した全体の画像にずれが生じる。このような状況では、上記のようなフレーム間の差分を取るアルゴリズムでは全てが移動物体となり、正しい移動物体部分の特定や検出ができないという課題がある。
【0008】
本発明は、上記の課題を解決するためになされたもので、カメラを手で持つ場合や、さらには移動中にカメラを使用する場合のように、カメラが固定されていない状況でも、パノラマカメラにより周囲360゜の全方位画像を撮像し、その撮像画像情報から画像処理技術により画像のブレを補正し、適切に移動物体を検出して追跡し、その物体が常に画像の中心となるように画角調整を行うことを目的とする。
【0009】
【課題を解決するための手段】
この発明に係る画角調整装置は、広角で撮影した入力画像から所定の対象部分を中心とする画像範囲を抽出表示する構成において、
入力画像の特定部分を色相と彩度を基に色を特定する物体色学習部と、この特定した色情報を参照して入力画像のそれぞれの物体領域範囲を推定する物体領域候補検出部と、入力画像の時間変動を抑える変動除去部と、時間変動を抑えた物体領域の動きを予測して特定物体領域を追跡する物体追跡部とを備えて、
この追跡する特定物体を中心として所定の画角範囲を画像表示するようにした。
【0010】
【発明の実施の形態】
実施の形態1.
以下に、図1から図14を用いて、本実施の形態における画角調整装置の構成と動作を説明する。
図1は、本実施の形態における画角調整装置の構成を示す図である。また、図2は、その動作を示したフローチャートである。更に、図3は、本実施の形態における動作を説明するための具体事例を示す説明図である。
本実施の形態1では、パノラマ画像からある一つの特定物体又は部分を検出し、常にその物体又は部分が画面の中心に表示されるように画角を調整する動作を説明する。
【0011】
図1示す画角調整装置10は、予め用意した画像データベース11からある特定物体の色を学習する物体色学習部1と、パノラマカメラ12によりキャプチャした全方位画像から、物体色学習部1により学習した特定物体が存在する候補領域を求める物体領域候補検出部2と、手ブレに伴う画像中の振動ノイズを除去して、特定物体を追跡する物体追跡部3と、特定物体を中心とする画像を切り出す画像生成部8とを備える。
【0012】
次に、図1に示す画角調整装置10の各構成要素の機能を説明する。
この装置は、物体領域候補検出部2で検出した複数の特定物体の候補領域から、前フレームのノイズ除去部5において推定した特定物体位置座標に最も近い領域を求め、求めた領域の中心位置座標と画素数を取得する領域選択部4と、物体領域候補検出部2により取得した特定物体中心位置座標と前フレームで予測した特定物体中心位置座標に基づき、現フレームの特定物体中心位置座標を推定することにより、手ブレに伴うカメラの振動ノイズを除去する変動除去部の一種であるノイズ除去部5と、前記ノイズ除去部において特定物体中心位置座標を推定するために必要な、次フレームの特定物体中心位置座標の予測をする、同じく組み合わせて変動除去を行う、動き予測部6と、現時点での照明条件下における物体の色を再学習する再学習部7とを備えている。
【0013】
次に、図2に示すフローチャートを用いてパノラマカメラによる画角調整装置10の概略動作を説明する。
本実施の形態における画角調整装置の動作は、物体の色を画像データベースに基づき各物体の色を学習するフェイズ1と、フェイズ1で学習した色を持つ特定物体が常に画角に入るよう調整するフェイズ2の2段階に分かれる。
【0014】
(フェイズ1)
まず、物体色学習部1は、予め用意した画像データベース11を用いて、追跡すべき特定物体の色を学習する(ステップS110)。学習した色は、キャプチャ画像から特定物体の候補領域を検出する際(ステップS130)の基準として利用する。なお、画像データベース11は、全色の色相と彩度を細かく基準として持ってもよいし、幾つかを間引き、省略した簡略色彩のデータベースであってもよい。
(フェイズ2)
まず、パノラマカメラ等の広角カメラを使用して全方位画像をキャプチャする(ステップS120)。
【0015】
続くステップS130では、物体領域候補検出部2において、キャプチャした全方位画像から、ステップS110で学習した特定物体が存在する候補領域を検出する。一般に複数の候補領域が検出される。例えば、テレビ電話において人物を検出する場合には、通話者の他に、通話者の周りに存在する人物や、壁にかけられた人物のポスター等を同時に検出される場合があるが、これらすべてを人物の候補領域とする。
【0016】
続くステップS140では、領域選択部4において、前のステップS130で検出した複数の特定物体の候補領域から、前フレームのノイズ除去部5において推定した特定物体位置座標に最も近い領域を求め、求めた領域の中心位置座標を取得する。
ただし、初期フレームにおいては、領域選択部4はステップS130で検出した複数の特定物体の候補領域の中から、予め決められた画像中のある位置(例えば、Xとする)に最も近い領域を求め、求めた領域の中心位置座標を取得する。例えば、テレビ電話において常に通話者が中心となる画像を切り出す場合には、始めに通話者が画像中の上記のXの位置に映るように設定して、以降、画角調整装置10の動作を開始する。
【0017】
続くステップS150では、ノイズ除去部5において、前のステップS140で取得した領域中心位置座標と前フレームで予測した特定物体中心位置座標に基づき、現フレームの特定物体中心位置座標を推定する。
続くステップS160では、動き予測部6は、前のステップS150で推定した特定物体中心位置を用いて、物体が等速直線運動するという仮定から次フレームにおける特定物体中心位置の予測を行う。この予測値は、次フレームでノイズ除去部5において物体位置を正確に求めるために使用する。
【0018】
続くステップS170では、照明条件等により毎フレームに変化する物体の色に適応するために、再学習部7において特定物体の色を再学習する。
続くステップS180では、画像生成部8は、ステップS160で推定した特定物体中心位置を中心とする画像を切り出す。
最後に、ステップS120に戻り、上記の処理を繰り返す。
上記の処理をフレーム毎に繰り返すことで、動画中の物体検出を行い、その物体が中心となる動画を生成する。
【0019】
図3は、実施の形態1における動作を説明するための説明図である。
始めに、図3(a)に示すように、パノラマカメラ13で周囲360゜の全方位の画像を取得する。次に、撮像した(b)に示す全方位画像14から、画像処理によって通話者の位置を検出し、図5(c)のように、通話者の顔が常に中心になる画像15を切り出す。切り出した中心になる画像15は相手端末16に送信される。切り出された物体画像をテレビ電話の送信画像として使用することで、通話者は画角を気にしなくとも常に自分を撮像でき、通話相手は、常に人物の顔が画面の中心となる安定した映像を受信することができる。
【0020】
次に、図1に記載の画角調整装置10の各構成要素の動作を詳細に説明する。物体色学習部1)
まず、図4から図6を用いて、物体色学習部1の動作について説明する。
図4は、物体色学習部1の動作を説明するためのフローチャートである。また、図5は、肌色領域からサンプリングを行い、サンプリングされた肌色画素の色相と彩度をプロットしたグラフである。更に、図6は、物体の色を認識する閾値を示す図である。
ここでは、特定物体を記号Aで表す。本実施の形態では、特定物体Aの色の特徴として、色相と彩度に着目する。これは、どの物体も色相と彩度の空間で固有の分布を持ち、物体認識の基準として使用できるためである。図5に、肌色領域からサンプリングを行い、サンプリングされた画素の色相と彩度をプロットしたグラフを示す。
【0021】
まず、ステップS200で特定の物体画像を抽出し、その画像から均一に十分な数だけ画素をサンプリングする。次いで、ステップS210で、このサンプリングされたデータから特定物体Aの色相と彩度に関する確率分布P (f|A)を求め、物体認識のための基準として利用する。ここでfは色相(H)と彩度(S)のベクトルf=(H,S)である。色相と彩度は赤(R)と緑(G)と青(B)の情報から、例えば、次式に従って求める。
【0022】
【数1】
Figure 2004282535
【0023】
この確率分布P (f|A)は、物体領域候補検出部2における検出基準となり、例えば、ある適当な閾値Pcolor を設定し、ある画素のfが次の式(6)を満たすならば、その画素はその物体領域に属するとみなすことができる。
(f|A)>Pcolor (6)
反対に式(6)を満たさないならば、その画素はその物体領域に属さないと判断することができる。図6に、この上記式(6)による物体認識の概念を示す。図6では、簡略化のため色相Hの一次元確率分布を図示している。図6で、ある色相h1における確率密度は閾値Pcolor よりも小さいため、この色相h1を持つ画素は物体に属すると判断されない。一方、ある色相h2における確率密度は閾値Pcolor よりも大きいため、この色相h2を持つ画素は物体としてその領域に存在していると判断される。
【0024】
次に、確率分布P (f|A)を正規混合モデル(ガウス分布に重みを掛けて重ね合わせたもの)で近似的に学習する。正規混合モデルは次式(7)で与えられる。
【0025】
【数2】
Figure 2004282535
【0026】
ここで、色相と彩度の2次元空間をUとし、Nとして次式(8)を定義する。
【0027】
【数3】
Figure 2004282535
【0028】
上記式(8)において、Nは平均がμで、分散がΣの正規分布である。なお、式(8)において、Tは行列の転置を表し、|Σ|はΣの行列式を表すものとする。また、平均μと分散Σの次元は、それぞれ式(9)と式(10)で定義される。また、式(7)におけるKは重ね合わせる正規分布の数、つまり、混合数を表し、更に、式(11)のω は混合比(i番目の正規分布から色相と彩度のデータが発生する比率)である。
【0029】
以上のモデル化により、次の式(12)で表されるパラメータ集合θを求めて、物体領域検出の基準となる確率分布P (f|A)を求めることができる。
【0030】
【数4】
Figure 2004282535
【0031】
次に、図4のフローチャートを用いて、予め用意した物体の画像に基づいてパラメータ集合を決定する方法を説明する。
まず、予め用意した物体の画像からランダムに画素をサンプリングし、画素のRGB値を、色相(H)と彩度(S)に変換する。サンプリングをJ回繰り返し、次式(13)で表される色相と彩度の2次元データ集合Dを得る(ステップS200)。
【0032】
【数5】
Figure 2004282535
【0033】
ここで、f はn番目にサンプリングされた画素の色相と彩度のベクトルである。図5に、肌色領域のサンプリングの例を示す。
次に、パラメータ集合を、例えば、最尤推定によって決定する(ステップS210)。即ち、式(14)に記載のデータ集合Dに基づいて対数尤度を最大化するようなパラメータ集合を求める。
【0034】
【数6】
Figure 2004282535
【0035】
例えば、最尤推定によりパラメータを求める方法として、EMアルゴリズム(A. O. Dempster, N. M. Laird, and D. B. Rubin, Maximum likelihood from incomplete data via the em algorithm.,Journal of the Royal Statistical Society, Series B (Methodological), vol. 39, no. 1, pp. 1−−38, 1977.)が使用できる。EMアルゴリズムとは、次に示すE(Estimation、推定)−stepとM(Maximization、最大化)−stepを繰り返すことで、対数尤度を増加させ、漸近的に最尤推定値を求める方法である。パラメータ集合を上記の式(12)に示すθとする。
【0036】
E−step
θバーを現在の推定パラメータとする。このとき、観測値f がi番目の正規分布より発生する確率を次式(15)に従って求める。
【0037】
【数7】
Figure 2004282535
【0038】
上記式(15)で求めた確率から、上式(16)に示す対数尤度の期待値Qを計算し、これを最大化するようなパラメータθを求める。即ち、これがM−stepである。
θバー=θとおいて、E−step(式(15)を求めるステップ)に戻る。
【0039】
本発明におけるE−step,M−stepアルゴリズムの動作を以下に示す。このとき、混合数をKとする。E−stepとM−stepを収束するまで繰り返すことにより、逐次的にパラメータ集合θと、確率πi,n を次式(17)で表して求める。
【0040】
【数8】
Figure 2004282535
【0041】
即ち、E−stepでは、現在推定しているパラメータ集合θから、確率πi,n を式(19)に基づいて計算する。
【0042】
【数9】
Figure 2004282535
【0043】
ここで、確率πi,n はデータf が与えられたときに、それがi番目の正規分布に属する確率である。
M−stepでは、E−stepで計算した確率を使用して期待値や分散を計算することで、パラメータ集合を次式により求める。ここで、Tは行列の転置を表す。
【0044】
【数10】
Figure 2004282535
【0045】
パラメータを求める際には、混合数Kを予め与えておく。ここで、例えば、肌色を学習する場合は、その確率分布は1つの正規分布で十分近似できるため、K=1と予め決めてからパラメータを決定することができる。
【0046】
物体領域候補検出部2)
次に、図7から図13を用いて、物体領域候補検出部2の動作の詳細を説明する。
図7は、物体領域候補検出部の動作を示すフローチャートである。図8は、正規混合モデルによって1次元の確率分布を近似する例を示した説明図である。図9は、物体領域候補検出部で全方位画像から肌色を検出する例を示した説明である。図10は、混合数決定における正規分布生成の一例を示す図である。図11は、混合数決定における正規分布消滅の一例を示す図である。図12は、混合数決定における正規分布分割の一例を示す図である。図13は、混合数決定における正規分布合併の一例を示す図である。
【0047】
本手段では、画像中から特定物体Aが存在する候補領域を求める。そのために、まず、画像上のある位置u=(x,y)に物体Aが存在する条件付確率分布P(u|A)を正規混合モデルによって求める。ここで、u=(x,y)は画像の左上を原点とし、下方向にY軸を、右方向にX軸を取る場合の2次元ベクトルである。
【0048】
正規混合モデルを使用することで、複数の物体領域候補を同時に検出することができる。例えば、テレビ電話において人物を検出する場合には、通話者の他に、通話者の周りに存在する人物や、壁にかけられた人物のポスター等が存在する。このような場合、1つの顔に1つの正規分布を対応させて表現できれば、確率分布P(u|A)は各正規分布を統合したものとして表現される。
図8に、正規混合モデルによる1次元の確率分布を近似する際の例を示す。肌色領域からサンプリングを行い1次元のデータ集合(図8(a)では、ヒストグラムとして表示している)を得る。このデータ集合を発生させる確率分布P(u|A)を3つの正規分布で近似する。このとき、正規分布の平均μ を各物体の中心とみなすことができ、次式(25)で表される楕円の面積(画素数)を物体の大きさとみなすことができる。
【0049】
【数11】
Figure 2004282535
【0050】
また、この方法を用いれば、例えば、図8のように2つの顔が重なっていても、2つの正規分布の重ね合わせとして推定できる。
正規混合モデルは次式で与えられる。
【0051】
【数12】
Figure 2004282535
【0052】
ここでN(u|μ ,Σ )は平均がμ で分散がΣ の正規分布であり、mは正規分布の混合数(正規分布の数)であり、ω は混合比(i番目の正規分布からデータが発生する比率、あるいは、画像中にあるm個の物体のうちi番目の物体の存在比率)である。
以上のモデル化によって、物体の中心と大きさを求めることは、次式(27)で表されるパラメータ集合を求めることに帰着する。
【0053】
【数13】
Figure 2004282535
【0054】
以下では、図7に示すフローチャートとともに、キャプチャした画像からパラメータ集合を決定する方法を説明する。
始めに、パノラマカメラによりキャプチャされた全方位画像から均一に十分な数だけ画素をサンプリングする。サンプリングされた画素のRGB値を色相と彩度f=(H,S)に変換する。物体色学習部1において求めた確率分布P =(f|A)を基準として物体領域の検出を行う。ここで、閾値Pcolor を設定し、もし、次式(28)を満足するなら、データとして採用し、それ以外ならば棄却する。このようにして得られたデータ集合を式(29)とする(ステップS310)。ここで、Bはデータ数、u はデータとして採用された各画素の位置である。
【0055】
【数14】
Figure 2004282535
【0056】
この操作により、サンプリングした画素のうち、学習した物体の色に近いものだけをデータとすることができる。
次に、E−step,M−stepアルゴリズムにより、次式(30)で表されるパラメータ集合を求める(ステップS320,ステップS330)。
【0057】
【数15】
Figure 2004282535
【0058】
本手段におけるE−step,M−stepアルゴリズムの動作を以下に示す。
上記ステップS310で求めたデータ集合である式(31)を基に、次のE−stepとM−stepを3〜5回交互に繰り返し、式(30)で表されるパラメータ集合と、式(32)で表される確率を求める。パラメータの初期値としては、前フレームで計算された値を使用する。
【0059】
・E−step(ステップS320)
現在推定しているパラメータ集合から、次式(33)により、確率を求める。
【0060】
【数16】
Figure 2004282535
【0061】
・M−step(ステップS330)
式(33)の確率を使用して期待値や分散を計算することで、式(30)のパラメータ集合を次式(34)ないし式(38)により求める。ここで、Tは行列の転置を表す。
【0062】
【数17】
Figure 2004282535
【0063】
また、πi,n はデータu がi番目の正規分布に属する確率である。
上記アルゴリズムにより求めた正規分布の平均μ を物体の中心とし、式(25)の楕円の面積(画素数)を物体の大きさとする。式(30)のパラメータ集合をフレーム毎に求めることで、動画中の物体検出ができる。
図9に、全方位画像から肌色領域をサンプリングし、そのデータが発生する確率分布を正規混合モデルで求めた例を示す。図9(c)には、各正規分布の輪郭と平均を図示している。
【0064】
混合数の決定法を説明する。
上記の計算では、混合数(物体の数)は固定であったが、動画において物体の数は変化する。そこで、E−step,M−stepの次に混合数mを決定する。一般にE−step,M−stepアルゴリズムで正規混合分布のパラメータ推定を行う場合、混合数(重ね合わせる正規分布の数)を予め決めておく必要がある。しかし、例えば、テレビ電話のような状況では入退場などにより人物の数が時間的に変化するため、予め混合数を決めておくことはできない。そこで、ブロッブ(連結した物体の色の領域)数の検出と、例えば、確率を規範とする方法で混合数を決定する。
【0065】
まず、ブロッブ数を求める手順を示す。始めに、各画素の色相と彩度f=(H,S)を求める。物体色学習部もしくは再学習部で求めたP (f|A)を使用し、もし、次式(39)が成立するなら1、それ以外ならば0とすることで、キャプチャ画像と同じサイズの2値のマスクを作る。
(f|A)>Pcolor (39)
ここで、Pcolor は適切な閾値である。マスクの中で1が連結した領域数を求め、ブロッブ数とする。
【0066】
ブロッブ数と、ある確率を規範とし混合数を決定する動作手順を説明する。
(初期フレーム)ブロッブ数を検出し、混合数とする(ステップS350)。
(2フレーム目以降)以下の手順に従い各フレームにおいて正規分布の生成(ステップS360)、消滅(ステップS370)、分割(ステップS380)、合併(ステップS390)を、この順番で実行する。
生成(ステップS360):図10に正規分布が生成される例を示す。例えば、物体が急に画面に現れた場合には、この物体を検出するために混合数を増やす必要がある。そこで、あるサンプリングデータu がどの正規分布の中心からも離れた位置座標にあるならば、新たに物体が現れたと判断し、再びブロッブ数の検出を行い新しい混合数とする。
サンプリングデータu と正規分布の中心の距離を判断する基準として、例えば、i番目の正規分布からあるサンプリングデータu が発生する次式(40)で表される確率を使用する。具体的な手順として、先ず十分に小さい閾値Pgeneを設定し、次にあるサンプリングデータu に対して次式(41)を評価する。次式(41)が成り立つ場合には、このサンプリングデータu はどの正規分布からも離れた位置座標に存在することを意味する。そこで、再びブロッブ数を検出し、新しい混合数として設定する。
【0067】
【数18】
Figure 2004282535
【0068】
消滅(ステップS370):図11に正規分布が消滅する例を示す。例えば、物体が急に画面から消えた場合には、即ち、対応部分の入力画像がなくなるので、この物体に対応する正規分布は余計となり、消滅する必要がある。そこで物体が画面から消えたことを判断するために、正規分布の中心から一定の距離に存在するデータ量を計算し、そのデータ量が少なければ余計な正規分布とみなして消滅させる。
あるi番目の正規分布の中心から一定の距離に存在するデータ量の大小を測る基準として、例えば、i番目の正規分布からデータが発生する割合ω を使う。具体的な手順として、先ず、式(42)を満たす閾値Pdel を設定する。ここで、mは現フレームにおける合数であり、1/mは混合比の平均値である。
0<Pdel ≪1/m (42)
【0069】
次に、次式(43)を評価する。もし、次式(43)が成立するならば、例えば、物体が急に画面から消えたために、これに対応していたi番目の正規分布は必要でないことを意味するので、これを消滅させることで混合数を1つ減らす。
ω <Pdel (43)
分割(ステップS380):図12に正規分布が分割される例を示す。即ち、大きい面積を持つ領域は、1つの物体領域として認識されない。そこで、次式(44)で表される楕円の面積(画素数)がある程度大きければ、2つの正規分布に分割することで混合数を1つ増やす。
【0070】
【数19】
Figure 2004282535
【0071】
合併(ステップS390):図13に正規分布が合併される例を示す。小さい面積を持つ領域は、独立の物体領域として認識されない。そこで、楕円の面積(画素数)がある程度小さければ、近くの正規分布と統合することで混合数を1つ減らす。
以上のように、物体のブロッブ検出と確率による判断を合わせた混合数の計算により、物体の数が突然変化する場合でも、オンラインで物体の数を推定することが可能である。
【0072】
物体追跡部3)
次に、その動作を説明するためのフローチャートである図14を用いて、物体追跡部3が行う動作ついて説明する。これは、更に以下の要素で構成される。
領域選択部4)
領域選択部では、物体領域候補検出部2で検出した複数の候補領域から、次に示す方法で、特定領域(特定物体を表現している正規分布)を選択し、選択した領域の中心位置座標u バー=(x バー,y バー)と、選択した領域の中心速度ベクトルv バー=(x バー−xt−1 バー,y バー−yt−1 バー)を取得する。ここで、tはフレーム番号である。
【0073】
領域選択部では、始めに、式(25)で示される楕円の1.5倍から2倍の範囲を探索領域に設定する(ステップS400)。ここでiは、前フレームの領域候補検出部において、特定物体を表現している正規分布の番号であり、μ はその正規分布の平均であり、Σ はその正規分布の分散である。即ち、これは現フレームの物体領域候補検出部で求められた式(45)で示される複数の物体領域候補の中心において、この探索領域の中に入るものを調べる。
【0074】
【数20】
Figure 2004282535
【0075】
このうち、探索領域の中心と最も距離が小さい物体領域中心(すなわち正規分布の中心)を、観測データu バーとする(ステップS410)。
しかし、初期フレームにおいては、領域選択部4は、物体領域候補検出部2で検出した複数の候補領域の中から、予め決められた画像中のある位置(例えば、Xとする)に最も近い領域を求め、求めた領域の中心位置座標を取得する。
なお、例えば、物体が一時的に遮蔽されている場合など、探索領域の中に物体候補領域の中心が入らない場合は、観測データは無しとみなし、後述する予測ステップを実行する(ステップS490)。
さらに、もし、一定の時間、観測データ無しの場合は、現フレームの探索領域の面積を大きくし、次フレームの探索領域として設定する(ステップS510)。
【0076】
観測データu バーを取得後、t番目のフレームにおける式(46)で与えられる速度ベクトルを計算する。ここで、2つのベクトルu バーとv バーを合わせて式(47)のd と表現する。なお、Tは行列の転置を表す。
【0077】
【数21】
Figure 2004282535
【0078】
ノイズ除去部5と動き予測部6)
次に、ノイズ除去部5と動き予測部6の動作ついて詳しい説明をする。
ノイズ除去部5は、領域選択部4で取得したデータd と、次の式(48)で示す前フレームで予測した特定物体中心位置座標u チルダと、特定物体中心速度ベクトルv チルダに基づき、現フレームの特定物体中心位置座標u ハットと特定物体中心速度ベクトルv ハットを推定する(ステップS440)。ここで、予測した値には“〜”(チルダ)を、推定した値には“^”(ハット)をつけて区別している。
【0079】
【数22】
Figure 2004282535
【0080】
以下では、位置と速度の推定ベクトルをまとめて式(50)と表記し、同様に、位置と速度の予測ベクトルを式(51)と表記する。
【0081】
【数23】
Figure 2004282535
【0082】
この表記を用いると、ノイズ除去部5の動作は、z チルダとd からz ハットを推定することである、と言い換えることができる。
このように、ノイズ除去部5は、観測したデータd だけでなく、前フレームで予測したベクトルz チルダを用いることで正確に物体位置の推定が行える。
【0083】
続いて、動き予測部6は、ノイズ除去部5において推定したz ハットの情報を用いて、次フレームにおける特定物体中心位置と特定物体中心速度の予測ベクトルzt+1 チルダを計算する(ステップS450)。計算の際に、物体のダイナミクスを記述した状態遷移行列Aを使用する。
例えば、物体が等速直線運度する場合、Aは次式で与えられる。
【0084】
【数24】
Figure 2004282535
【0085】
ここで、Δtは各フレームの時間間隔である。
ノイズ除去部5と、動き予測部6の計算は、例えば、パーティクルフィルタ(Doucet A,Freitas N,and Gordon N,editors.Sequential Monte Carlo Methods in Practice. Springer−Verlag,2001.)によって実行することができる。パーティクルフィルタとは、後述する推定ステップと予測ステップを実行し、時間的に伝播する確率分布を求めることで、フィルタリングや物体運動の追跡を行うアルゴリズムである。
ノイズ除去部5の計算は、後述する推定ステップに相当する。また、動き予測部6の計算は後述する予測ステップに相当する。
【0086】
以下で使用する記号の説明をする。
特定物体中心位置座標と特定物体中心速度ベクトルを確率変数とみなし、それぞれの値をu とv で表記する。
また、これらを合わせた式(53)で示されるベクトルz を定義する。更に、式(54)で示されるPは領域選択部4で求めたデータd に基づいた次フレームの特定物体中心位置座標と特定物体中心速度ベクトルの確率分布であり、式(55)のPは領域選択部4で求めたデータd に基づいた現フレームの特定物体中心位置座標と特定物体中心速度ベクトルの確率分布である。
【0087】
【数25】
Figure 2004282535
【0088】
・推定ステップ
次式(56)を用いて、領域選択部で求めたデータd と、前フレームで求めた確率分布から、現フレームの確率分布を計算する。
【0089】
【数26】
Figure 2004282535
【0090】
ここで、P(d |z )は尤度と呼ばれ、システムの観測モデルを確率の形で表現したものである。例えば、観測モデルを次式(57)で与える。
=z +n (57)
【0091】
ここで、n は平均が0で、分散がΣ の、物体領域の観測に伴う正規ノイズである。これは、例えば、手ブレに伴うカメラの振動ノイズ等に相当する。このとき、尤度は式(58)で表現される。
P(d |z )=N(d |z ,Σ ) (58)
式(56)の計算で求めた確率分布P(z |d )から、次式(59)に示すように、特定物体領域位置座標と特定物体領域速度ベクトルの期待値を計算し、特定物体中心位置座標の推定値u ハットと、特定物体中心速度ベクトルv ハットを求める(ステップS440)。
【0092】
【数27】
Figure 2004282535
【0093】
画像生成部8は、このu ハットが中心となるような画像を全方位画像から切り出すことで、自動画角調整を実現する。
【0094】
・予測ステップ
次式(60)を用いて、推定ステップで求めた現フレームの確率分布P(z |d )から次フレーム用の確率分布P(zt+1 |d )を計算する。
【0095】
【数28】
Figure 2004282535
【0096】
ここで、P(zt+1 |z )は状態遷移確率であり、物体の運動を確率分布で表現したものである。例えば、物体の運動を次式(61)でモデル化する。
t+1 =Az +n (61)
ここで、Aは状態遷移行列であり、前出の式(52)と同一である。式(61)に示すn は平均が0で、分散がΣ の、物体の移動に伴う正規ノイズとする。このとき、状態遷移確率は次式(62)となる。
P(zt+1 |z )=N(zt+1 |Az ,Σ ) (62)
式(60)により、前フレームで求めた確率分布P(z |dt−1 )から、次式(63)で表される期待値z チルダを計算する。
【0097】
【数29】
Figure 2004282535
【0098】
チルダを特定物体中心位置座標の予測値とし、v チルダを特定物体中心速度ベクトルの予測値とする。物体が遮蔽されると、画像生成部は、この予測値u チルダが中心となるような画像を全方位画像から切り出すことで、自動画角調整を実現する(ステップS490)。
【0099】
再学習部7)
次に、現フレームの照明条件下における物体の色を再学習する再学習部7の動作を説明する。
物体色学習部1において学習した確率分布P (f|A)の再学習を行う手順を以下に示す。
【0100】
【数30】
Figure 2004282535
【0101】
式(64)の楕円の1.5〜2倍の領域からサンプリングを行い、画素のRGB値を、色相(H)と彩度(S)に変換する。
ここでiは、物体領域候補検出部2において、特定物体を表現している正規分布の番号であり、μ はその正規分布の平均であり、Σ はその正規分布の分散である。サンプリングをJ回繰り返し、式(65)の色相と彩度の2次元データ集合Dを得る。
【0102】
【数31】
Figure 2004282535
【0103】
ここで、f はn番目にサンプリングされた画素の色相と彩度のベクトルである。
【0104】
次に、確率分布P (f|A)を正規混合モデルによってモデル化し、上記式(65)のデータDを基に、物体色学習部1と同様の方法で式(66)のパラメータ集合θを求める。
【0105】
【数32】
Figure 2004282535
【0106】
このとき、前フレームで学習したパラメータ集合θを初期値として使用する(初期フレームのみ、前記物体色学習部1により予め学習しておいたパラメータ集合を使用する)。
以上のように、物体色の学習をフレーム毎に行うため、照明条件の変化等による物体色の変化に適応することができる。
【0107】
実施の形態2.
本発明の実施の形態2では、全方位画像から複数の物体を検出し、その中からユーザによって選択された物体が中心となる画像を切り出す装置を説明する。
本発明の実施の形態2における画角調整装置を図15から図17を用いて説明する。
図15は、実施の形態2における画角調整装置の構成図であり、図16は、実施の形態2における画角調整装置の動作手順を示すフローチャートである。図17は、実施の形態2における動作を説明するための具体例を用いた説明図である。
【0108】
実施の形態2における画角調整装置70は、予め用意した画像データベースから物体の色を学習する物体色学習部61と、キャプチャした全方位画像から物体色学習部により学習した物体が存在する領域の候補を求める物体領域候補検出部62と、物体領域候補検出部62により検出された複数の候補領域の中から、ユーザが指定した物体を選択する物体指定部60と、カメラの手ブレに伴う画像中の振動ノイズを除去し物体を追跡する物体追跡部63と、特定物体を中心とする画像を切り出す画像生成部68とを備える。
実施の形態2における画角調整装置70は、実施の形態1における画角調整装置10に、物体指定部60を加えた装置である。即ち、実施の形態2における物体色学習部61と、物体領域候補検出部62と、物体追跡部63と、画像生成部68は、それぞれ実施の形態1に記載の物体色学習部1、物体領域候補検出部2、物体追跡部3、画像生成部8と同一機能の要素である。
【0109】
次に、図16を用いてパノラマカメラによる画角調整装置70の動作を説明する。
本実施の形態における画角調整装置70の動作は、物体の色を画像データベースに基づき学習するフェイズ1と、フェイズ1で学習した色を持つ特定物体が常に画角に入るよう自動調整するフェイズ2の2段階に分かれる。
【0110】
(フェイズ1)
まず、物体色学習部61は、予め用意した画像データベース75を用いて、追跡すべき物体の色を学習する(ステップS590)。学習した色は、キャプチャ画像から特定物体の候補領域を検出する際(ステップS610)の基準として利用する。
【0111】
(フェイズ2)
まず、パノラマカメラ74を使用して全方位画像をキャプチャする(ステップS600)。
続くステップS610では、物体領域候補検出部62において、キャプチャした全方位画像から、ステップS590で学習した物体が存在する候補領域を抽出する。一般に複数の候補領域が検出され抽出される。例えば、テレビ電話において人物を検出する場合には、通話者の他に、通話者の周りに存在する人物や、壁にかけられた人物のポスター等を同時に検出される場合があるが、ここではすべて人物の候補領域となる。
【0112】
続くステップS615では、物体指定部60において、まず、ユーザによる物体指定要求があればそれを受け取り、ステップS610で検出した複数の領域候補から、ユーザにより指定された領域を求め、その領域中心位置座標を取得する。
次に、物体指定部60は、前フレームのノイズ除去部65において推定した特定物体位置座標の値を、この取得した領域中心位置座標の値に置き換える。この処理により、追跡対象となる特定物体をユーザにより指定された物体に変更する。
もし、ユーザによる物体指定要求がない場合、物体指定部60は処理を行わずにステップS620に進む。
【0113】
続くステップS620では、領域選択部64において、ステップS610で検出した複数の特定物体の候補領域から、前フレームのノイズ除去部65において推定した特定物体位置座標に最も近い領域を求め、求めた領域の中心位置座標を取得する。
しかし、初期フレームにおいては、領域選択部64は、ステップS610で検出した複数の特定物体の候補領域の中から、予め決められた画像中のある位置(例えば、Xとする)に最も近い領域を求め、求めた領域の中心位置座標を取得する。例えば、テレビ電話において常に通話者が中心となる画像を切り出す場合には、始めに通話者が画像中のXの位置に映るように設定して、次に画角調整装置70の動作を開始する。
続くステップS630では、ノイズ除去部65において、ステップS620で取得した特定物体中心位置座標と前フレームで予測した特定物体中心位置座標に基づき、現フレームの特定物体中心位置座標を推定する。
【0114】
続くステップS640では、動き予測部66は、ステップS150で推定した特定物体中心位置を用いて、物体が等速直線運動するという仮定から次フレームにおける特定物体中心位置の予測を行う。この予測値は、次フレームでノイズ除去部65において物体位置を正確に求めるために使用する。
続くステップS650では、照明条件等により毎フレームに変化する物体の色に適応するために、再学習部67において特定物体の色を再学習する。
続くステップS660では、画像生成部68は、ステップS640で推定した特定物体中心位置を中心とする画像を切り出す。
最後に、ステップS600に戻り、上記の処理を繰り返す。
上記の処理をフレーム毎に繰り返すことで、映像中からユーザが指定した物体検出を行い、その物体が中心となる動画の生成を実現する。
【0115】
図17に、上記で説明した実施の形態2における具体例を示す。例えば、物体領域候補検出部62により求められた複数の顔領域候補のうち、現在画角の中心にいる人物を“C”、その左右に存在する人物を“L”,“R”とする(図17(a))。
例えば、図17に示すように、携帯電話(端末)の十字キー43を右側に押す操作で、ユーザが“R”の人物を指定すれば、物体指定部60は“R”の人物領域を指定し、物体追跡部63に信号を送る。続く物体追跡部63と画像生成部68の処理により、物体指定部60で指定した人物が中心となる画像が生成され、携帯電話の端末41に映し出される。
上記の例のように、本発明を携帯電話やPDAのテレビ電話において人物の検出に使用すれば、画像を受信しているユーザは、通話先にいる複数の人物の中から選択した人物が中心となる映像を自分の端末に取得することが可能となる。
【0116】
【発明の効果】
以上のようにこの発明によれば、物体色学習部と物体領域候補検出部と変動除去部と物体追跡部とを備えたので、手持ちカメラ等による瞬時変動が大きい画像入力に対しても、対象物体を安定して抽出し、画像表示できる効果がある。
【図面の簡単な説明】
【図1】この発明の実施の形態における画角調整装置の構成を示す図である。
【図2】実施の形態1における画角調整装置の動作を示すフロー図である。
【図3】実施の形態1における画角調整装置の具体的な動作を説明するための説明図である。
【図4】実施の形態1における物体色学習部の動作を示すフロー図である。
【図5】実施の形態1において肌色のサンプル部分における画素の色相と彩度を2次元化表現した図である。
【図6】実施の形態1における物体認識の概念を示す図である。
【図7】実施の形態1における物体領域候補検出部の動作を示すフロー図である。
【図8】実施の形態1において、各画素を正規混合モデルによって1次元の確率分布として近似する例を示す図である。
【図9】実施の形態1における物体領域候補検出部が全方位画像から肌色領域を検出する例を示す図である。
【図10】実施の形態1における物体領域候補検出部が行う正規分布生成の例を示す図である。
【図11】実施の形態1における物体領域候補検出部が行う正規分布消滅の例を示す図である。
【図12】実施の形態1における物体領域候補検出部が行う正規分布分割の例を示す図である。
【図13】実施の形態1における物体領域候補検出部が行う正規分布合併の例を示す図である。
【図14】実施の形態1における物体追跡部の動作を示すフロー図である。
【図15】この発明の実施の形態2における画角調整装置の構成を示す図である。
【図16】実施の形態2における画角調整装置の動作を示すフロー図である。
【図17】実施の形態2における画角調整装置の具体的な動作を説明するための説明図である。
【図18】第1の従来例としての画像監視装置の構成図である。
【図19】第1の従来例としての画像監視装置装置における物体移動検知部の動作フロー図である。
【符号の説明】
1 物体色学習部、2 物体領域候補検出部、3 物体追跡部、4 領域選択部、5 ノイズ除去部、6 動き予測部、7 再学習部、8 画像生成部、9 ディスプレイ、10 画角調整装置、11 画像データベース、12 パノラマカメラ、13 パノラマカメラ、14 全方位画像、15 中心になる画像、16 相手端末、17 パノラマカメラ、18 ディスプレイ、19 画像データベース、20 予め用意した画像、21 色相と彩度の空間、22 ガウス分布の輪郭、23 色相Hの一次元確率分布、24 顔、25 正規分布、26 パノラマ画像、27 肌色のサンプリング結果、28 サンプリングデータを正規混合分布で近似、29 各ガウス分布の輪郭と中心、30 新規データの発生、31 正規分布の生成、32 データ発生源の消滅、33 正規分布の消滅、34 2つのデータ発生源を1つの正規分布で近似している例、35 正規分布の分割、36 1つのデータ発生源を2つの正規分布で近似している例、37 正規分布の合併、38 ラベル付けされたパノラマ画像、39 切り出された画像、40 ラベル付けされたパノラマ画像、41 携帯電話の端末、42 通話相手、43 携帯端末の十字キー、44 (1−α)乗算部、45 加算部、46α乗算部、47 背景映像出力部、48 減算部、49 パノラマカメラ、50 A/D変換部、51 移動領域検知部、52 ラベリング部、53 移動領域追跡部、54 正像変換部、55 表示制御部、60 物体指定部、61 物体色学習部、62 物体領域候補検出部、63 物体追跡部、64 領域選択部、65 ノイズ除去部、66 動き予測部、67 再学習部、68 画像生成部、69 ディスプレイ、70 画角調整装置、71 画像データベース、72 パノラマカメラ。

Claims (9)

  1. 広角で撮影した入力画像から所定の対象部分を中心とする画像範囲にある部分を抽出表示する構成において、
    上記入力画像の特定部分を色相と彩度を基に色を特定する物体色学習部と、
    上記特定した色情報を参照して上記入力画像のそれぞれの物体領域範囲を推定する物体領域候補検出部と、
    上記入力画像の時間変動を抑える変動除去部と、
    上記時間変動を抑えた物体領域の動きを予測して特定物体領域を追跡する物体追跡部とを備えて、上記追跡する特定物体を中心として所定の画角範囲を画像表示するようにしたことを特徴とする画角調整装置。
  2. 複数の物体の色相と彩度をサンプルとして記憶する画像データベースを備え、物体色学習部は上記画像データベースを参照して特定部分の色を識別するようにしたことを特徴とする請求項1記載の画角調整装置。
  3. 物体色学習部は、画像データベースに記憶している識別基準の物体の画像サンプルを色相と彩度で表現し、該色相と彩度で入力画像を識別し、物体領域候補検出部は、上記識別結果に基づいて物体領域を定めて候補とするようにしたことを特徴とする請求項2記載の画角調整装置。
  4. 物体領域候補検出部は、入力画像から切り出して複数の物体領域を定める際に、所定色における確率密度が閾値以上であるものを物体領域として検出し、かつ所定の大きさの領域に分割/合併を行なって物体領域の数を定めるようにしたことを特徴とする請求項1記載の画角調整装置。
  5. 物体領域候補検出部は、求めた候補領域数と、確率を規範とする方法とで混合数を決定し、改めて候補領域を求めるようにしたことを特徴とする請求項4記載の画角調整装置。
  6. 動き予測は、前フレームの入力画像において物体追跡部が特定した特定物体領域の位置情報と、現フレームの入力画像における上記特定物体領域の位置情報とから速度情報とを求めて、該求めた位置と速度情報とに基づいて次フレームの画像範囲を定めるようにしたことを特徴とする請求項1記載の画角調整装置。
  7. 変動除去部は、特定物体領域の位置情報と、速度情報とを用いて次フレームの特定物体領域の位置をフィルタリングして推定し、物体追跡部は、該推定結果に基づいて動き予測して画像範囲を定めるようにしたことを特徴とする請求項6記載の画角調整装置。
  8. 特定物体領域における色の色相と彩度を再学習する再学習部を備えて、該再学習により得られた色を以後のフレームにおける特定物体領域の識別基準としたことを特徴とする請求項1記載の画角調整装置。
  9. 特定物体領域を指定する物体指定部を備えて、識別基準として上記特定物体領域を指定されると、物体追跡手段は、上記追跡する特定物体領域を中心として所定の画像範囲を画像表示するようにしたことを特徴とする請求項1記載の画角調整装置。
JP2003073037A 2003-03-18 2003-03-18 画角調整装置 Abandoned JP2004282535A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003073037A JP2004282535A (ja) 2003-03-18 2003-03-18 画角調整装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003073037A JP2004282535A (ja) 2003-03-18 2003-03-18 画角調整装置

Publications (1)

Publication Number Publication Date
JP2004282535A true JP2004282535A (ja) 2004-10-07

Family

ID=33289026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003073037A Abandoned JP2004282535A (ja) 2003-03-18 2003-03-18 画角調整装置

Country Status (1)

Country Link
JP (1) JP2004282535A (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236113A (ja) * 2005-02-25 2006-09-07 Denso It Laboratory Inc 領域抽出装置及び領域抽出方法
JP2007049577A (ja) * 2005-08-11 2007-02-22 Fujifilm Corp 監視システム、及び監視方法
WO2007132646A1 (ja) * 2006-05-12 2007-11-22 Opt Corporation 動画の表示方法、動画表示システムおよび広角動画撮像装置
JP2008035332A (ja) * 2006-07-31 2008-02-14 Sanyo Electric Co Ltd 撮像装置及び出力画像生成方法
JP2009038777A (ja) * 2007-08-06 2009-02-19 Chiba Univ 自動追尾装置
JP2009253767A (ja) * 2008-04-08 2009-10-29 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
EP1855464A3 (en) * 2006-05-12 2010-06-23 FUJIFILM Corporation Method for displaying face detection frame, method for displaying character information, and image-taking device
JP2011244116A (ja) * 2010-05-17 2011-12-01 Panasonic Corp パノラマ展開画像撮影システムおよび方法
US8149288B2 (en) 2007-12-28 2012-04-03 Casio Computer Co., Ltd. Image capture device that records image accordant with predetermined condition and storage medium that stores program
US8175336B2 (en) 2008-12-16 2012-05-08 JVC Kenwood Corporation Target tracker
US8184965B2 (en) 2010-01-05 2012-05-22 Panasonic Corporation Imaging device
US8311276B2 (en) 2008-01-07 2012-11-13 JVC Kenwood Corporation Object tracking apparatus calculating tendency of color change in image data regions
US8400490B2 (en) 2010-10-30 2013-03-19 Hewlett-Packard Development Company, L.P. Framing an object for video conference
JP2016057409A (ja) * 2014-09-08 2016-04-21 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP2017085564A (ja) * 2015-10-23 2017-05-18 株式会社モルフォ 画像処理装置、電子機器、画像処理方法及びプログラム
JP2019009574A (ja) * 2017-06-23 2019-01-17 キヤノン株式会社 画像処理装置
CN109936703A (zh) * 2019-02-26 2019-06-25 成都第二记忆科技有限公司 对单目相机拍摄的视频进行重构的方法和装置
CN110191288A (zh) * 2019-07-17 2019-08-30 图普科技(广州)有限公司 一种摄像机位置调整方法及装置
JPWO2019065757A1 (ja) * 2017-09-26 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 情報処理システム
US20210295053A1 (en) * 2020-03-18 2021-09-23 Hitachi, Ltd. Observed-object recognition system and method
JP2022532443A (ja) * 2019-07-18 2022-07-14 ロレアル 制御されていない照明条件の画像中の肌色を識別する技術

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4516448B2 (ja) * 2005-02-25 2010-08-04 株式会社デンソーアイティーラボラトリ 領域抽出装置及び領域抽出方法
JP2006236113A (ja) * 2005-02-25 2006-09-07 Denso It Laboratory Inc 領域抽出装置及び領域抽出方法
JP2007049577A (ja) * 2005-08-11 2007-02-22 Fujifilm Corp 監視システム、及び監視方法
JP4663446B2 (ja) * 2005-08-11 2011-04-06 富士フイルム株式会社 監視システム、及び監視方法
WO2007132646A1 (ja) * 2006-05-12 2007-11-22 Opt Corporation 動画の表示方法、動画表示システムおよび広角動画撮像装置
EP1855464A3 (en) * 2006-05-12 2010-06-23 FUJIFILM Corporation Method for displaying face detection frame, method for displaying character information, and image-taking device
US8073207B2 (en) 2006-05-12 2011-12-06 Fujifilm Corporation Method for displaying face detection frame, method for displaying character information, and image-taking device
JP2008035332A (ja) * 2006-07-31 2008-02-14 Sanyo Electric Co Ltd 撮像装置及び出力画像生成方法
US8363146B2 (en) 2006-07-31 2013-01-29 Hiroaki Yoshida Image-taking apparatus and output image generation method
JP2009038777A (ja) * 2007-08-06 2009-02-19 Chiba Univ 自動追尾装置
US8149288B2 (en) 2007-12-28 2012-04-03 Casio Computer Co., Ltd. Image capture device that records image accordant with predetermined condition and storage medium that stores program
US8311276B2 (en) 2008-01-07 2012-11-13 JVC Kenwood Corporation Object tracking apparatus calculating tendency of color change in image data regions
JP2009253767A (ja) * 2008-04-08 2009-10-29 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
US8175336B2 (en) 2008-12-16 2012-05-08 JVC Kenwood Corporation Target tracker
US8184965B2 (en) 2010-01-05 2012-05-22 Panasonic Corporation Imaging device
JP2011244116A (ja) * 2010-05-17 2011-12-01 Panasonic Corp パノラマ展開画像撮影システムおよび方法
US9374528B2 (en) 2010-05-17 2016-06-21 Panasonic Intellectual Property Management Co., Ltd. Panoramic expansion image display device and method of displaying panoramic expansion image
US8400490B2 (en) 2010-10-30 2013-03-19 Hewlett-Packard Development Company, L.P. Framing an object for video conference
JP2016057409A (ja) * 2014-09-08 2016-04-21 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP2017085564A (ja) * 2015-10-23 2017-05-18 株式会社モルフォ 画像処理装置、電子機器、画像処理方法及びプログラム
JP2019009574A (ja) * 2017-06-23 2019-01-17 キヤノン株式会社 画像処理装置
JPWO2019065757A1 (ja) * 2017-09-26 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 情報処理システム
CN109936703A (zh) * 2019-02-26 2019-06-25 成都第二记忆科技有限公司 对单目相机拍摄的视频进行重构的方法和装置
CN110191288A (zh) * 2019-07-17 2019-08-30 图普科技(广州)有限公司 一种摄像机位置调整方法及装置
CN110191288B (zh) * 2019-07-17 2021-05-18 图普科技(广州)有限公司 一种摄像机位置调整方法及装置
JP2022532443A (ja) * 2019-07-18 2022-07-14 ロレアル 制御されていない照明条件の画像中の肌色を識別する技術
JP7181437B2 (ja) 2019-07-18 2022-11-30 ロレアル 制御されていない照明条件の画像中の肌色を識別する技術
US20210295053A1 (en) * 2020-03-18 2021-09-23 Hitachi, Ltd. Observed-object recognition system and method
US11562567B2 (en) * 2020-03-18 2023-01-24 Hitachi, Ltd. Observed-object recognition system and method

Similar Documents

Publication Publication Date Title
JP2004282535A (ja) 画角調整装置
US11809998B2 (en) Maintaining fixed sizes for target objects in frames
WO2020093837A1 (zh) 人体骨骼关键点的检测方法、装置、电子设备及存储介质
US20170213091A1 (en) Video processing
KR100860988B1 (ko) 시퀀스들에서의 객체 탐지를 위한 방법 및 장치
US20210103733A1 (en) Video processing method, apparatus, and non-transitory computer-readable storage medium
EP1600882A1 (en) Determining a representative set of images.
US20080013837A1 (en) Image Comparison
JP2006508461A (ja) 顔検出及び顔追跡
EP1542153A1 (en) Object detection
EP1567971A2 (en) Face detection
KR20080031408A (ko) 비디오 시간 업-컨버전을 갖는 프로세싱 방법 및 디바이스
WO2004051552A2 (en) Face detection
EP1542152A1 (en) Object detection
EP1542154A2 (en) Object detection
JP2011076316A (ja) 群衆監視装置および方法ならびにプログラム
KR101861245B1 (ko) 멀티 센서 cctv 파노라마 영상에서 움직임 검출 시스템 및 방법
JPWO2008035411A1 (ja) 移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラム
JP2011053951A (ja) 画像処理装置
CN113361364B (zh) 目标行为检测方法、装置、设备及存储介质
KR101146417B1 (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
Gong et al. Online codebook modeling based background subtraction with a moving camera
CN109271863B (zh) 人脸活体检测方法及装置
WO2023005760A1 (en) Systems and methods for performing computer vision task using sequence of frames
CN111476060A (zh) 人脸清晰度分析方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20080919