JPH0863603A - 画像解析装置 - Google Patents

画像解析装置

Info

Publication number
JPH0863603A
JPH0863603A JP7148653A JP14865395A JPH0863603A JP H0863603 A JPH0863603 A JP H0863603A JP 7148653 A JP7148653 A JP 7148653A JP 14865395 A JP14865395 A JP 14865395A JP H0863603 A JPH0863603 A JP H0863603A
Authority
JP
Japan
Prior art keywords
unit
image
image data
model
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7148653A
Other languages
English (en)
Inventor
Hiromi Nishizuka
弘美 西塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP7148653A priority Critical patent/JPH0863603A/ja
Publication of JPH0863603A publication Critical patent/JPH0863603A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】本発明は、撮影された画像から背景画像と対象
物をそれぞれ自動的に生成し、予め定めたモデルにより
遮蔽された情報を回復し、高速処理可能な画像解析装置
を提供することを目的とする。 【構成】本発明は、入力画像データから静止領域(対象
物の存在領域)と背景画像とを生成する存在領域検知部
5と、前記対象物存在領域の情報と背景画像を用いて対
象物を抽出する対象物解析部6と、算出されなかった対
象物のパーツを補間する補間・補正部7と、補正及び補
間された画像データをアナログ信号に変換するD/A部
8と、画像データを表示する出力部9と、予め解析の対
象となる物体の各パーツの形状に対応する単純な幾何学
的形状(楕円)で各パーツを表現するためのモデル情報
が格納される対象物モデル格納部10と、各構成部材を
制御する制御部11とで構成される画像解析装置であ
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は画像から所望する対象物
を抽出する画像解析装置に係り、特に移動する対象物と
背景とを分離し、対象物の形状等を正確且つ高速に認識
する画像解析装置に関する。
【0002】
【従来の技術】一般に、ビデオカメラ等の撮影装置から
得られた動画像に撮影されている画像の中から対象物を
特定して認識する、例えば、監視用カメラに撮影された
物体を判別するなど、画像を解析及び認識する画像解析
技術がある。
【0003】従来の画像解析技術において、形状が経時
変化しない対象物、例えば自動車などの認識は比較的に
容易にできるが、動画像内で形状が経時変化する対象
物、例えば人間の歩行状態等は、判別及び認識すること
が難しいものであった。
【0004】そこで、例えば特開平2−202289号
公報に記載されるように、動画像の中から対象物を抽出
する場合に、その動画像から時間的に離れた動画像との
減算処理により、差分を対象物として抽出していた。
【0005】また、例えば、電子情報通信学会論文誌D
−II Vol.J76−DII No.6(P1159〜
P1167)に記載されるように、自然画像から2値化
処理を行うことにより対象物となるシルエットの抽出を
行う。
【0006】そして抽出されたシルエットの領域内の全
画素に対して、面積最大の楕円の当て嵌めを行う。シル
エット領域内の残りの領域に関しても同様に楕円の当て
嵌めを行って対象物の形状を認識している。
【0007】
【発明が解決しようとする課題】しかし、前述した公報
に記載される画像認識装置においては、複数の画像間の
差分により対象物の形状を抽出している。従って、3画
像間の差分で求められた対象物の形状は、3つの対象物
が重なったシルエットとなり、対象物の存在の有無は判
断できるが対象物の正確な形状や細かな動きは認識する
ことが出来ない。また、電子情報通信学会論文誌に記載
される画像認識装置においては、対象物の判定に、1枚
の静止画像を解析して、写し出された対象物のシルエッ
ト形状で判定している。そして、シルエット領域内の全
画素に対して探索を行っているため処理時間が長くなる
という問題点がある。
【0008】従って、いずれの従来の画像認識装置は、
写し出された対象物のシルエット形状自体を判定基準と
しているため、対象物によっては、対象物の本来の形状
が遮蔽されたものが判定基準となっている場合がある。
このような場合、対象物の遮蔽領域の情報が欠落してい
る部分の各パーツがどの様な動きをしているか解析でき
ない。すなわち、対象物が人間であれば、肢体が判断で
きる服装であれば、各肢体の動きが認識できるが、例え
ばコートやスカート等を着衣している場合には、肢体は
遮蔽された状態となり、認識できない。
【0009】従って、これらの画像認識装置では、撮影
された状態の対象物に対して認識しているだけで、本来
の対象物の動きを解析することは出来ない。
【0010】そこで本発明は撮影された画像から背景画
像と対象物の領域をそれぞれ自動的に生成し、予め定め
たモデルにより遮蔽された情報を回復し、高速処理可能
な画像解析装置を提供することを目的とする。
【0011】
【課題を解決するための手段】本発明は上記目的を達成
するために、動画像内の所定の対象物の動きを解析する
画像解析装置において、前記動画像に対応する動画像デ
ータ中から前記対象物が存在する存在領域を抽出する存
在領域抽出手段と、前記存在領域抽出手段によって抽出
された前記存在領域を除いた複数の動画像のフレーム画
像データまたはフィールド画像データを合成して、背景
画像データを生成する背景画像生成手段と、前記背景画
像生成手段によって生成された背景画像データに基づい
て、前記動画像データから前記所定の対象物の画像デー
タを抽出する対象物抽出手段とで構成される画像解析装
置を提供する。
【0012】そして、動画像内の所定の対象物の動きを
解析する画像解析装置において、前記動画像に対応する
動画像データの所定のフレーム画像データまたはフィー
ルド画像データの時間的に前及び/または後のフレーム
画像データまたはフィールド画像データとの画像の差分
により所定の対象物に対応する画像データを抽出する対
象物抽出手段と、前記所定の対象物のモデルを前記所定
の対象物の構成部分とその結合関係として記憶するモデ
ル記憶手段と、前記モデル記憶手段からの情報に基づい
て、前記所定の対象物に対応する画像データに前記モデ
ルを適合させるモデル適合手段と、前記所定のフレーム
画像データまたはフィールド画像データの時間的に前及
び/または後のフレーム画像データまたはフィールド画
像データに基づいて、前記モデル適合手段によって前記
所定のフレーム画像データまたはフィールド画像データ
に適合された前記対象物の各構成部分のモデルの位置及
び/または角度を補間する補間手段とで構成される画像
解析装置を提供する。
【0013】さらに、動画像内の所定の対象物の動きを
解析する画像解析装置において、前記動画像に対応する
動画像データの所定のフレーム画像データまたはフィー
ルド画像データから前記対象物の形態に相当するエッジ
画像データを抽出するエッジ抽出手段と、前記エッジ画
像データ間の差分画像データを生成する差分処理手段
と、前記差分画像データ間の論理演算を行って対象物の
輪郭画像データを抽出する演算処理手段とで構成される
画像解析装置を提供する。
【0014】
【作用】以上のような構成の画像解析装置は、入力され
た動画像から該動画像内に所定の対象物が存在している
複数の存在領域を抽出し、存在領域を除いた動画像デー
タから背景画像データが生成される。時間的に前後する
複数の存在領域の差分により対象物データが抽出され、
この対象物データの各構成部分に予め定めたモデルを当
て嵌め、好適するように補正を施し、対象物の解析がな
される。
【0015】また画像解析装置は、所定の対象物が存在
する動画像データの所定のフレーム画像データまたはフ
ィールド画像データ上を所定のテンプレートを走作させ
て、テンプレートと前記所定の対象物のエッジとの交差
する位置情報から対象物の輪郭画像を抽出し、この対象
物データの各構成部分に予め定めたモデルを当て嵌め、
好適するように補正を施し、対象物の解析がなされる。
【0016】
【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。
【0017】図1には、本発明による第1実施例として
の画像解析装置の概略的な構成を示し説明する。
【0018】この画像解析装置は、CCDカメラ等から
なる画像信号の入力部1と、前記入力部1からの入力信
号をデジタル化するA/D部2と、前記A/D部2から
のデジタル画像信号をフレーム単位で一時的に記憶する
バッファメモリ部3と、前記バッファメモリ部3からの
画像データを保存する磁気ディスク等からなる補助入出
力部4と、静止領域と対象物の存在領域と背景画像とを
生成する存在領域検知部5と、前記対象物存在領域の情
報と背景画像を用いて対象物を抽出し、対象物を少数の
パラメータに変換する対象物解析部6と、抽出された対
象物において算出されなかったパーツ(遮蔽されたパー
ツ)を補間し、パラメータの補正を行う補間・補正部7
と、補正及び補間された画像データをアナログ信号に変
換するD/A部8と、そのアナログ信号化された画像デ
ータを表示するディスプレイからなる出力部9と、予め
解析の対象となる物体の各パーツの形状に関する情報
を、例えば図4(a)に示すように、楕円のような幾何
学的形状で各パーツを表現するためのモデル情報が格納
されている対象物モデル格納部10と、前記各構成部材
を制御する制御部11とで構成される。
【0019】以上のように構成された第1実施例の画像
解析装置の画像解析について説明する。
【0020】まず、制御部11の制御により、入力部1
で撮影された所定時間の画像信号がA/D部2に送出さ
れる。このA/D部2は前記画像信号を、例えば量子化
レベル8ビット、離散化サイズ640×480画素のデ
ジタル信号へ変換してバッファメモリ部3へ転送する。
【0021】前記バッファメモリ部3は、複数のフレー
ムメモリで構成され、A/D部2からのデジタル画像信
号を一時的に記憶しておき、フレーム単位の画像データ
を順次、補助入出力部4に出力する。
【0022】前記補助入出力部4は、制御部11からの
制御に基づき前記画像データを存在領域検知部5へ出力
する。この存在領域検知部5では、静止領域と対象物の
存在領域と背景画像とを生成し、生成した対象物の存在
領域を補助入出力部4にフィードバックし、生成した背
景画像を対象物解析部6に送出する。対象物モデル格納
部10には、解析の対象となる物体を、例えば、楕円の
ような単純な幾何学的形状でパーツで表現したモデル情
報が格納されている。
【0023】前記対象物解析部6では、補助入出力部4
の対象物存在領域の情報と存在領域検知部5から出力さ
れる背景画像を用いて、対象物を抽出する。続いて、抽
出された対象物に対して、対象物モデル格納部10を用
いて、単純な幾何学的形状を当て嵌め、幾何学的形状の
パラメータを算出し、補間・補正部7に送出する。
【0024】前記補間・補正部7では、対象物モデル格
納部10の情報に基づいて、各パーツを対象物の形状に
合わせて補正したり、遮蔽などの原因で算出されなかっ
たパーツの補間を行う。この結果は、D/A部8でアナ
ログ信号化され、ディスプレイからなる出力部9に画像
解析結果として表示される。
【0025】次に図2には、図1に示した存在領域検知
部5の具体的な構成を示し、存在領域の検出について説
明する。
【0026】この存在領域検知部5は、補助入出力部4
に蓄積されている画像データを制御部11からの制御に
基づき選択するセレクタ部21と、セレクタ部21で選
択された画像データを格納するワークメモリ部22、ワ
ークメモリ部23、ワークメモリ部24と、画像データ
の各画素の差分の絶対値を算出後、2値化処理を行う差
分部25、差分部26と、各画素間の論理積を算出する
AND部27と、AND部27の出力信号をラベル処理
し、各ラベルに外接する外接四辺形を生成する外接四辺
形抽出部28と、画像データから外接四辺形抽出部28
の外接四辺形の領域を削除して静止領域のみを抽出する
静止領域抽出部29と、新たに得られた静止領域を格納
する背景領域格納部32と、背景領域格納部32に格納
されている背景信号と、静止領域抽出部29から新たに
得られた静止領域との合成処理を行う合成部30と、存
在領域検知部5が起動されるとき制御部11からの制御
に基づき、背景領域格納部32の初期化を行う初期化部
31とで構成される。 このように構成された存在領域
検知部5に関して説明する。
【0027】補助入出力部4に蓄積されている画像デー
タは、制御部11からの制御に基づき、セレクタ部21
で選択され、ワークメモリ部22、ワークメモリ部2
3、ワークメモリ部24に順次、転送される。この時、
前記制御部11は、時系列的に連続する3枚の画像を選
択する。
【0028】すなわち、iを2以上の整数とした場合、
ワークメモリ部22には時刻i−1番目の、ワークメモ
リ部23には時刻i番目の、ワークメモリ部24には、
時刻i+1番目の画像データが転送される。ワークメモ
リ部22とワークメモリ部23の各画像データは差分部
25へ、ワークメモリ部23とワークメモリ部24の画
像データは差分部26に送出され、それぞれ各画素ごと
に差分の絶対値が算出され、その結果に基づき2値化処
理を行う。前記差分部25と前記差分部26の2値化さ
れた出力信号は、AND部27にて論理積を取り、外接
四辺形抽出部28へ転送される。尚、差分の絶対値に対
して和を取り、後に2値化してもよい。次に、前記外接
四辺形抽出部28では、AND部27の出力信号をラベ
ル処理する。このラベル処理により、1つの連結した領
域には、1つのラベルが与えられる。この後、各ラベル
に外接する外接四辺形を生成する。静止領域抽出部29
では、制御部11からの制御に基づき、ワークメモリ部
23の画像データから外接四辺形抽出部28の外接四辺
形の領域を補助入出力部4へフィードバックし、外接四
辺形を削除した静止領域を、時刻i番目の静止領域とし
て抽出する。抽出された静止領域信号は、制御部11か
らの制御に基づき合成部30へ出力される。 前記合成
部30は、背景領域格納部32に格納されている背景信
号と、静止領域抽出部29から新たに得られた静止領域
との合成処理を行い、これを更新された背景領域として
背景領域格納部32へ出力する。ここで、前記背景領域
格納部32は、存在領域検知部5が起動されるとき、初
期化部31にて初期化されている。ここで制御部11
は、背景領域格納部32の画像の変動が所定量以下にな
るか、補助入出力部4の全ての画像データを処理し終わ
るまで前述した過程を反復するものとする。なお、外接
四辺形抽出部28の外接四辺形を座標として補助入出力
部4にフィードバックすることも可能である。
【0029】次に図3を参照して、このように構成され
た存在領域検知部5における対象物の抽出と背景画像の
生成について説明する。
【0030】図3(a)は、補助入出力部4上に時系列
的に記録された画像データを示す。これらの画像データ
は、3枚が1組となり、存在領域検知部5にて処理され
る。図3(b)は、前記3枚の画像が差分部25と差分
部26において、差分処理された後、2値化処理される
ことを示す。この差分処理により、デジタル信号中で静
止している領域が除かれ、動領域のみが処理される。
【0031】次に図3(c)は、これらの2組の差分画
像がAND部27によって、AND処理されることを示
す。このAND処理により、動領域の抽出精度が向上す
る。図3(d)は、外接四辺形抽出部28における動領
域に接する外接四辺形の生成を示す。図3(e)は、同
図(a)におけるi番目のデジタル信号から前記外接四
辺形内の領域を削除することで、静止領域のみを抽出す
る静止領域抽出部29の処理を示す。図3(f)は、合
成部30にて記静止領域を合成していくことで、背景画
像を生成していく過程を示す。ここで、AND部27か
ら出力がないときには、対象物解析部6には補助入出部
4から新たな画像データを転送することが可能である。
【0032】図4を参照して、図1に示した対象物モデ
ル格納部10に格納されているモデルについて説明す
る。図4(a)は、例えば人間を対象物とした場合、人
間の肢体を頭部や胴体部など14個のパーツに分割し
て、楕円のような単純な幾何学的形状で表現した場合の
モデルを示す。
【0033】このモデルは、各パーツのサイズ比、接続
関係、動作範囲など対象物について予め分かっている情
報を備えている。各パーツの接続関係は、図4(b)に
示すように表すことができる。ここで、各パーツの上方
にある部分を“U”、下方にある部分を“L”とし、接
続関係にあるパーツ部分を“1”、接続関係にないパー
ツ部分を“0”としている。また、楕円は、中心座標
(x,y)、長軸の長さを“a”、短軸の長さを
“b”、回転を“θ”の5個のパラメータで表すことが
できる。対象物の全体の高さを“h”、各パーツの全体
の高さに対する比をそれぞれα・β・θ・X・Yとする
と、例えば頭部の長軸の長さaは全体の高さの16%で
あるのでαには“0.16”が格納されている。回転θ
0 は各パーツの傾き、xc ,yc は対象物存在領域の中
心座標、Δα、Δβ、Δθ、ΔX、ΔYは各パラメータ
のゆらぎを表す。例えば頭部の長軸の長さaは全体の高
さhの16%(=α)、ゆらぎがΔαであるので、頭部
に関する長軸の長さは、 a=h(α±Δα) と表される。同様に他のパラメータも表すことができ
る。
【0034】b=h(β±Δβ) θ=θ0 ±Δθ x=xc +h(X±ΔX) y=yc +h(Y±ΔY) このようにモデルのパラメータは、前述した形式で格納
してある。なお、パラメータの算出にあたり、図14の
座標系を用いる。ただし、単純な幾何学的形状は楕円だ
けでなく、線分や円柱などで記述することも可能であ
る。
【0035】次に図5には、図1に示した対象物解析部
6の具体的な構成例を示し、説明する。
【0036】この対象物解析部6は、補助入出力部4か
ら読出された対象物の存在領域の画像データを記憶する
ワークメモリ部41と、存在領域検知部5からの背景領
域を記憶するワークメモリ部42と、前記ワークメモリ
部41とワークメモリ部42から読出された画像データ
から対象物のシルエット画像を抽出するシルエット生成
部43と、抽出されたシルエット画像を記憶するワーク
メモリ部44と、前記ワークメモリ部44から読出され
たシルエット画像からスケルトン画像を生成するスケル
トン抽出部45と、スケルトンの位置と元のシルエット
の幅の情報としてスケルトン画像を記憶するワークメモ
リ部46と、各パーツが存在しうる領域を予測するパー
ツ予測部47と、前記シルエット画像とスケルトン画像
とに基づきパーツ予測設定を行うパーツ当て嵌め部48
と、シルエットに好適するパラメータを算出するパラメ
ータ算出部49とで構成される。
【0037】このように構成された対象物解析部6によ
る解析動作について説明する。
【0038】まず、補助入力部4を介して、静止領域抽
出部29内の対象物の存在領域がワークメモリ部41に
記憶され、存在領域検知部5を介して、背景領域格納部
32内の背景領域がワークメモリ部42に記憶される。
ワークメモリ部41とワークメモリ部42から読出され
た画像データは、シルエット生成部43に送出され、差
の絶対値が算出された後、2値化処理されて、動領域す
なわち、対象物のシルエット画像が取り出される。
【0039】前記シルエット画像は、ワークメモリ部4
4へ記録された後、制御部11からの制御に基づきスケ
ルトン抽出部45へ転送される。スケルトン抽出部45
では、シルエット画像の骨格成分のみが抽出され、スケ
ルトン画像が生成される。前記スケルトン画像を基に、
スケルトンの位置と元のシルエットの幅からなる情報が
ワークメモリ部46に記録される。このような骨格成分
の算出に関しては、例えば「コンピュータ画像処理入
門」(総研出版刊:P77)等に記載されている。 次
に制御部11は、シルエット画像とスケルトン画像が生
成された後、対象物モデル格納部10の情報をパーツ予
測部47へ転送する。前記パーツ予測部47は、対象物
モデル格納部10の各パーツの大きさと位置の情報と補
助入出力部4内の対象物の存在領域の信号から、各パー
ツが存在しうる領域を含め、この結果をパーツ当て嵌め
部48へ転送する。
【0040】そしてパーツ当て嵌め部48では、ワーク
メモリ部44のシルエット画像とワークメモリ部46の
スケルトン画像からパーツ予測設定を行う。さらにパラ
メータ算出部49では、前記パーツ当て嵌め部48の各
パラメータの初期値に基づいてシルエットに好適するパ
ラメータを算出し、そのパラメータは、補間・補正部7
に出力される。なお、静止領域抽出部29から補助入出
力部4への出力が座標である場合、補助入出力部4から
ワークメモリ部41への出力は、画像データと座標であ
り、以降の処理を外接四辺形領域内で行なう。
【0041】図6を参照して、パーツ予測部47による
パーツ予測について説明する。
【0042】まず、パーツ予測部47では、対象物モデ
ル格納部10の各パーツの情報と補助入出力部4内の対
象物の存在領域の信号から、各パーツが存在しうる領域
を求める。以下、図4に示した歩行中の人間を例として
説明する。
【0043】図6(b)には、対象物の存在領域として
抽出された矩形領域に対象となる同図(a)に示す歩行
者が存在する。この矩形領域を各パーツの情報に基づき
分割を行う。つまり、歩行中の人間を対象とする場合、
図4における頭部1、胴体部2、脚部7,8の4つのパ
ーツを優先的に設定する。
【0044】すなわち、図6(a)には対象物モデル格
納部10のモデルを、図6(b)には補助入出力部4内
の対象物の存在領域を、図6(c)にはシルエット生成
部43で生成されたシルエット画像を示し、図6(d)
にはスケルトン抽出部45で抽出されたスケルトン画像
を示している。
【0045】そして、図6(e)には、モデルのサイズ
比と結合関係から求めた頭部1、胴体部2、脚部7,8
が存在する領域を示す。図6(e)内で、e1は頭部
1、e2は胴体部2、e3は脚部7,8が存在する領域
となる。
【0046】図6(f)は頭部1に関する領域に関し
て、パーツ予測部47にて予測された存在領域、シルエ
ット生成部43で生成されたシルエット画像、スケルト
ン抽出部45で抽出されたスケルトン画像を重ね合わせ
ものを示している。そして、パーツ予測部47は、胴体
部2、脚部7,8に関しても同様な処理を行う。
【0047】パーツ当て嵌め部48では、パーツ予測部
47からの情報に基づき、図4における頭部1、胴体部
2、脚部7,8の4つのパーツを優先的に処理する。そ
の後、他のパーツにおいても同様な処理を行う。
【0048】次に図7には、パーツ当て嵌め部48にお
ける処理過程に従った構成を示し説明する。ここで、対
象物の頭部1、胴体部2、脚部7,8の4つのパーツに
関する当て嵌めを楕円で行なった例を示している。
【0049】このパーツ当て嵌め部48は、各パーツの
存在領域内にあるスケルトンとシルエットの抽出を行う
パーツ分割部51と、パーツ分割されたスケルトンを格
納するワークメモリ部52と、パーツ分割されたシルエ
ットを格納するワークメモリ部53と、パーツ分割され
たスケルトンの始点と終点の算出を行う始点・終点算出
部54と、算出された各パーツの始点・終点のデータを
格納するデータ格納部55と、データ格納部55のデー
タを用いて各パラメータの初期値を設定するパラメータ
推定部56と、このパラメータ推定部56で初期値設定
された各パラメータを格納するデータ格納部57とで構
成される。
【0050】このように構成されたパーツ当て嵌め部4
8に関して説明する。
【0051】このパーツ分割部51は、パーツ予測部4
7で算出された各パーツの存在領域内にあるスケルトン
とシルエットの抽出を行う。パーツ分割部51で抽出さ
れた各パーツのスケルトンをワークメモリ部52に、シ
ルエットをワークメモリ部53に格納する。
【0052】次に、始点・終点算出部54では、前記ワ
ークメモリ部52に格納された各パーツのスケルトンの
最も上の点(y座標が最小となる点)を前記パーツのス
ケルトンの始点(xs ,ys )とし、最も下の点(y座
標が最大となる点)を前記パーツのスケルトンの終点
(xe ,ye )とする。
【0053】このような処理過程を各パーツ毎に行い、
各パーツの始点・終点のデータをデータ格納部55へ格
納する。パラメータ推定部56ではデータ格納部55の
データを用いて、各パラメータの初期値を設定する。こ
のパラメータ推定部56で初期値設定された各パラメー
タをデータ格納部57に格納する。なお、前述した当て
嵌める幾何学的形状は、楕円だけでなく円柱や線分でも
行なうことができる。次に、図8にはパラメータ推定部
56の具体的な構成例を示し説明する。
【0054】このパラメータ推定部56は、データ格納
部55に記憶されるパラメータに基づき、始点と終点と
の中点を算出する中点算出部61と、前記中点における
スケルトンの半径(幅)の情報を読みとる中点半径算出
部62と、前記始点と前記終点との距離を2で割った値
aを算出する距離算出部63と、前記始点と前記終点を
結ぶ線分とy軸とのなす角度θを算出する角度算出部6
4とで構成される。
【0055】このように構成されたパラメータ推定部5
5において、中点算出部61では、データ格納部55の
データに基づき、始点(xs ,ys )、終点(xe ,y
e )の中点(x0 ,y0 )を算出する。そして中点半径
算出部62では、中点算出部61で算出された中点(x
0 ,y0 )におけるスケルトンの半径(幅)の情報を読
みとる。距離算出部63では、始点(xs ,ys )と終
点(xe ,ye )の距離を2で割った値aを算出する。
角度算出部64では、始点(xs ,ys )と終点
(xe ,ye )を結ぶ線分とy軸のなす角度θを算出す
る。パラメータ推定部56で算出されたパラメータはデ
ータ格納部57に格納される。
【0056】以上のパラメータ推定部56の算出式を以
下に示す。
【0057】
【数1】
【0058】前述した図4に示した頭部1、胴体部2、
脚部7,8の4つのパーツのパラメータを算出した後、
残りのパーツについても同様に行う。ここで算出されな
かったパーツのパラメータにはすべて0が格納される。
手部や脚部においては、左右に分ける必要があるので、
胴体の中心点のx座標x0 を基準とし、図3(e)の外
接四辺形を左右に分割し、この領域に従って、スケルト
ンのパーツ分割を行う。以上のように処理されたデータ
格納部57のデータは、パラメータ算出部49へ転送さ
れる。なお、シルエットのパーツ分割は、前述したよう
に高さ方向に対して垂直に分割するのではなく、パーツ
分割されたスケルトンの両端点よりスケルトンに対して
垂直に分割してもよい。
【0059】次に図9,図10に示すフローチャートを
参照して、パラメータ算出部49によるシルエットに最
適な楕円のパラメータを算出する処理について説明す
る。
【0060】まず、ワークメモリ部53のパーツ分割さ
れたシルエット画像を2次元配列im[y][x]に代
入する(ステップS1)。ここでx,yは、シルエット
画像のx方向、y方向のサイズを意味する。次にkの初
期値設定を行い(ステップS2)、kをインクリメント
する(ステップS3)。ここで、kはパーツ番号を意味
する。
【0061】そして、各パーツの存在領域の座標をx2
[k],y2[k],x3[k],y3[k]に代入
し、データ格納部57に格納されているパラメータの初
期値をa0 ,b0 ,θ0 ,x0 ,y0 に代入する(ステ
ップS4)。
【0062】次にi,jの初期値設定を行い(ステップ
S5、ステップS6)、iをインクリメントし(ステッ
プS7)、次いでjをインクリメントする(ステップS
8)。そして、各パーツのシルエットim[i][j]
をSil[k][i][j]に格納する(ステップS
9)。次にjとx3[k]を比較し(ステップS1
0)、j<x3[k]の条件を満たす場合には(YE
S)、ステップs8に戻り、前記条件を満たさない場合
には(NO)、iとy3を比較する(ステップS1
1)。このステップS11において、i<y3[k]の
条件を満たす場合には(YES)、ステップS6に戻
り、前記条件を満たさない場合には(NO)、次のステ
ップS12に移行する。
【0063】以上の処理によりパーツの存在領域のシル
エット画像がsil[k][i][j]に格納される。
【0064】次にステップS12では、すべてのパラメ
ータの初期値が算出されたか判断し(ステップS1
2)、パラメータの初期値が1つでも算出されていない
場合には(NO)、そのパーツについては以降の処理を
行なわず、前記ステップS3に戻り、次のパーツ番号の
パーツについて初期値を算出する。しかし、パラメータ
の初期値がすべて算出されていれば(YES)、シルエ
ットとパーツの面積差を最小化する処理を行なう(ステ
ップS13)。但し、このステップS13では、各パラ
メータの揺らぎの範囲、例えば初期値の±20%の範囲
を決定する。ここで、シルエットとパーツの面積差を示
すminの初期値は画面の面積とし、画像サイズの横を
col、縦をrowとするとcol×rowとなる。
【0065】次に、揺らぎの初期値を決定する(ステッ
プS14)。a1 ,b1 ,θ1 ,x1 ,y1 の各パラメ
ータをインクリメントする(ステップS15〜S1
9)。そしてステップS20〜S35において、どのパ
ラメータの組み合せがシルエットに最適にマッチするか
どうかの判定を行う。
【0066】まず、s,t,areaの初期値設定を行
い(ステップS20)、s,tをそれぞれインクリメン
トする(ステップS21,S22)。次に楕円の方程式
を満たすかどうかの判定を行い(ステップS23,S2
4,S25)、満たさないならば(NO)、elli
[s][t]に例えば“0”を代入し(ステップS2
6)、しかし満たすならば(YES)、elli[s]
[t]に例えば“1”を代入し(ステップS27)、2
値化処理を行なう。
【0067】そして、座標(t,s)においてシルエッ
トと楕円が一致するかどうかを判定する(ステップS2
8)。一致しないならば(YES)、areaに“1”
を加え(ステップS29)、一致するならば(NO)、
tとx3 [k]を比較する(ステップS30)。
【0068】このtとx3 [k]の比較でt<x
3 [k]の条件を満たす場合には(YES)、ステップ
S22に戻り、この条件を満たさない場合には(N
O)、さらにsとy3 [k]を比較する(ステップS3
1)。
【0069】前記ステップS31において、s<y
3 [k]の条件を満たす場合には(YES)、tにx2
[k]を代入し(ステップS32)、前記ステップS2
1に移行する。しかし、s<y3 [k]の条件を満たさ
ない場合には(NO)、今までの面積差の最小値min
とareaを比較する(ステップS33)。
【0070】このステップS33でareaの方が小さ
いならば(NO)、minとareaを入れ替え、且つ
各a,b,θ,x,yにa1 ,b1 ,θ1 ,x1 ,y1
の入れ替え(ステップS34)、算出された最適な楕円
のパラメータの値をテーブルに格納する(ステップS3
5)。
【0071】次に、以後のステップS36からS45で
は、それぞれが各条件を満たすならば(YES)、ステ
ップS19,ステップS38,ステップS40,ステッ
プS42,ステップS44,ステップS3に移行する。
それぞれのパラメータが各条件を満たさなくなるまで処
理し、その結果の各パラメータは補正および補間の基準
となり、補間・補正部7に出力する。
【0072】図11には、前記補間・補正部7の具体的
な構成を示し説明する。
【0073】この補間・補正部7は、各パーツのパラメ
ータ(時刻、パーツ番号、各パラメータの値(a,b,
θ,x,y))を記憶するデータ格納部71と脚部や手
部における左右の判別を行う左右パーツ判別部72と、
パーツの左右の判定結果を記憶するデータ格納部73と
各パーツを対象物の形状に合わせて補正する補正部74
と、その補正結果を記憶するデータ格納部75とパーツ
のデータが不確定な時刻を検出する不確定データ検索部
76と、検出した時刻のデータを回復させる補間部77
と、補間結果を対象物の形状に合わせて補正する補正部
78と、回復、補正されたデータを記憶するデータ格納
部79と、格納されたデータに基づいて楕円を発生させ
る画像作成部80とで構成される。
【0074】このように構成された補間・補正部7にお
いては、制御部11の制御により、対象物解析部6のパ
ラメータ算出部48で算出された各パーツのパラメータ
(時刻、パーツ番号、各パラメータの値(a,b,θ,
x,y))をデータ格納部71の所定のテーブルに格納
する。
【0075】そして脚部3,5,7と4,6,8や手部
9,10,11と12,13,14の左右の判別を左右
パーツ判別部72で行い、そのパーツの判定結果をデー
タ格納部73に格納する。さらに補正部74では、前記
データ格納部73に対して対象物モデル格納部10に基
づき、各パーツを対象物の形状に合わせて補正し、その
補正結果をデータ格納部75に格納する。
【0076】次に不確定データ検索部76では、前記デ
ータ格納部75に格納されているデータに基づき、各パ
ーツのデータが確定しているかを検出する。不確定な場
合その時刻を検出し、検出された時刻のデータを補間部
77で回復を行ない、回復されたデータを補正部78で
対象物の形状に合わせて補正し、回復・補正を行なった
データをデータ格納部79に格納する。
【0077】そして画像作成部80は、データ格納部7
9に格納されているデータに基づいて楕円を発生させ
る。この楕円の発生は、時刻tの全てのパーツ(パーツ
番号n=1から14まで)に関して以下の式を満たす画
素を例えば黒、満たさない場合白で色づけを行い、画像
を格納する。
【0078】
【数2】
【0079】但し、(x1 ,y1 )は楕円の中心点、θ
は回転角、aは長軸の長さ、bは短軸の長さを示す。前
記画像作成部80に格納されているデジタル信号をD/
A部8へ転送し、アナログ信号に変換する。
【0080】次に図12には、図11に示した左右パー
ツ判別部72の具体的な構成を示し説明する。
【0081】前述した図5に示したパーツ当て嵌め部4
8では、胴体部を基準として左右にパーツを分別してい
たが、ここでは、左右パーツ判別部72で各々のパーツ
の同定を行う。
【0082】この左右パーツ判別部72は、90°を跨
ぐデータの時刻を記憶する90°点格納部81とその時
刻のデータを入れ替えるパーツ入れ替え部82とで構成
される。
【0083】図13を参照して、左右のパーツ判別につ
いて説明する。
【0084】図13(a)は、図4(a)の3と4のパ
ーツの入れ替えを行う前の時刻とy軸とのなす角度θの
変化を表した図である。
【0085】つまり、他のパーツで手部や脚部のパーツ
が遮蔽される角度が90°となるので、90°を基準と
して左右の判別を行う。データ格納部71に格納されて
いる全ての時刻の手部と脚部の角度θのデータを探索し
て、例えば80°から92°、97°から87°のよう
に、90°を跨ぐデータの時刻を90°点格納部81で
検出し、その時刻を格納する。ただし測定点の時刻間隔
が3つ以上離れていない場合は、検出誤りとみなして格
納しない。
【0086】そしてパーツ入れ替え部82は、格納した
90°点が最初から奇数番目となる時刻から偶数番目ま
での範囲の時刻のデータを入れ替える。例えば、図13
(b)は、図4(a)の3と4をパーツを90°点の1
番目の時刻6から2番目の時刻21までのデータの入れ
替えを行った後の各時刻の角度変化を表した図である。
入れ替えを行った結果をデータ格納部73に格納する。
このデータ格納部73のデータと対象物モデル格納部1
0に基づいて、パラメータの補正を行う。
【0087】図15には、補正部74の構成を示し説明
する。
【0088】この補正部74は、前記データ格納部73
に格納された左右パーツ判別部72が判別したパーツ判
定結果に対して、対象物モデル格納部10に基づき、各
パーツを対象物の形状に合わせて補正するパーツ補正部
83とパラメータ比較部84とで構成される。
【0089】また図16には、前記パーツ補正部83の
構成を示す。
【0090】このパーツ補正部83は、パーツとパーツ
とが接する交点を算出する交点算出部85と、算出した
交点によるパーツとパーツとの接続形態が好適なものか
判断する判断部86とで構成される。
【0091】図17,図18に示すフローチャートを参
照して、前記補正部74による補正について説明する。
【0092】まず、t,kの初期値設定を行う(ステッ
プS91,ステップS92)。ここでtは時刻を、kは
パーツ番号を意味する。次にt,kをインクリメントし
(ステップS93,S94)、パーツ番号k、時刻tの
x座標をx[k][t]に格納する。他のパラメータも
同様に格納する(ステップS95)。次に、パーツ番号
kの長軸の長さaと短軸の長さbのモデル値をmode
la[k],modelb[k]に格納する(ステップ
S96)。
【0093】そして、パーツ番号kが手部に該当するか
判定する(ステップS97)。このパーツ番号kが手部
に該当する、つまりパーツ番号kが9または12の場合
(YES)、ステップS98からステップS104にお
ける手部補正処理を行う。
【0094】この手部補正処理について、図19を参照
して説明する。
【0095】図19は、手部補正の概念図であり、比較
的安定して求められる手と肩の位置を基準として、手、
腕、胴体などの位置関係によりパラメータを補正するこ
とを示している。
【0096】まず、ステップS98では、パーツ番号
(k+2)の上方の接点Uの位置A(x,y)を算出す
る。図4に示したように、パーツ(k+2)は上腕であ
り、点A(x,y)は肩の位置を表す。また位置A
(x,y)は胴体(パーツ番号k=2)のUの位置から
長軸の長さaの0.1倍の長さだけLの方向に下げた位
置とする。
【0097】次に、手(パーツ番号k)の中心点をB
(x1,y1)に格納し、上腕(パーツ番号(k+
2))の長軸の長さaをrに、下腕(パーツ番号(k+
1))の長軸の長さaに手(パーツ番号k)の長軸の長
さaを加えたものをr1に格納する(ステップS9
9)。そして、肩(点A(x,y))を中心とする半径
rの円と、手(点B(x1,y1))を中心とする半径
r1の円を描き両者の交点C(x0,y0)を算出する
(ステップS100)。この交点C(x0,y0)が肘
の位置となる。
【0098】次にステップS101からステップS10
2により、交点の数の分類を行う。ステップS101で
交点が1つの場合(YES)、手部補正を終了し、ステ
ップS107に移行する。またステップS102で交点
が2つの場合(YES)、ステップS109からステッ
プS111の処理を行う。
【0099】前記ステップS109では、角ACBを中
心点A(x,y)、B(x1 ,y1)、C(x0
0 )から算出する。算出方法は余弦定理を用いる。
【0100】
【数3】
【0101】但し、A,B,Cはそれぞれ頂点Aから
B、BからC、CからAの距離、φは角ACBの時計回
りに測った角度を表す。算出された角ACBと180°
とを比較して(ステップS110)、角ACBが180
°以上ならば(YES)、その交点をC(x0 ,y0
を格納し(ステップS111)、ステップS107に移
行する。しかし、前記角ACBが180℃未満ならば
(NO)、他方の交点Cを用いて角ACBを算出する。
ステップS102で交点が2つでない場合(NO)、つ
まり交点が見つからなかった場合、ステップS103で
半径rとr1を増加、例えば、もとの半径の0.05倍
した数をもとの半径に加えさせながら、ステップS10
0以降の処理を繰り返す。
【0102】次に、パーツ番号kが脛部に該当するか判
定し(ステップS104)、パーツ番号kが脛部に該当
する、つまりパーツ番号kが5または6の場合(YE
S)、ステップS112からステップS121までの脚
部補正処理を行う。
【0103】この脚部補正処理について、図20を参照
して説明する。
【0104】まずステップS112では、足(パーツ番
号(k+2))の角度θをradに、脛部(パーツ番号
k)の角度θをrad1に格納する。
【0105】次に、足(パーツ番号(k+2))の中心
点(x2,y2)と長軸の長さaと角度radを用いて
足(パーツ番号(k+2))のLの位置(x3,y
3)、つまり、つま先の位置を算出する(ステップS1
13)。この算出方法は、まず、中心点(x2,y2)
を通り角度radをもつ直線の方程式を求める。次に直
線の方程式を満たし、中心点(x2,y2)から距離a
だけ離れている点をLの位置(x3,y3)とする。
【0106】そして、足(パーツ番号(k+2))の長
軸の長さaを0.7倍したものをankleに格納する
(ステップS114)。ステップS115ではステップ
S113で求めた直線の方程式を用いる。直線の方程式
を満たし、中心点(x2,y2)からankleだけU
の方向に離れている点をパーツ番号(k+2)の足首の
位置(x4,y4)とし、足首の位置(x4,y4)を
算出する(ステップS115)。
【0107】次に、脛部(パーツ番号k)のUの位置
(x5,y5)つまり膝の位置を算出する(ステップS
116)。算出方法は、ステップS113と同様な方法
で行う。足首の位置(x4,y4)と角度rad1から
直線の方程式を算出する。対象物モデルのパーツ番号k
の長軸の長さaを用いて、直線の方程式を満たし、足首
の位置(x4,y4)から長軸の長さの2倍だけパーツ
番号kのU方向に離れている点を膝の位置(x5,y
5)とする。
【0108】そして、胴体部(パーツ番号k=2)のL
の位置(x6,y6)を算出する(ステップS11
7)。この点(x6,y6)は股を表す。算出方法は、
ステップS113と同様な方法で行う。胴体部(パーツ
番号k=2)の中心点(x8,y8)と角度θから直線
の方程式を算出する。胴体部(パーツ番号k=2)の長
軸の長さaを用いて中心点(x8,y8)から長軸の長
さaだけLの方向に離れている点で、直線の方程式を満
たす点をLの位置(x6,y6)とする。
【0109】次にステップS118からステップS12
1において、大腿部(パーツ番号(k−2))のパラメ
ータの算出を行う。
【0110】前記ステップS118では、パーツ番号
(k−2)の中心点(x7,y7)を算出し、パーツ番
号(k−2)の長軸の長さaを算出し(ステップS11
9)、パーツ番号(k−2)の短軸の長さbを算出し
(ステップS120)、パーツ番号(k−2)の角度θ
をパーツ番号kのUの位置(x5,y5)とパーツ番号
k=2のLの位置(x6,y6)から算出する(ステッ
プS121)。
【0111】以下に算出式を示す。
【0112】
【数4】
【0113】またステップS104の判定で、パーツ番
号kが脛部に該当しなかった場合(NO)、モデルの値
modela[k]とデータの値a[k][t]との差
とモデル値とを比較して(ステップS105)、この比
較でモデルの値の例えば0.2倍より大きければ(N
O)、データの入れ替えを行う(ステップS106)。
この入れ替えは、パラメータがa[k][t],b
[k][t]についてのみ行う。次にパーツ番号kが所
定数nになったか判定し(ステップS107)、所定数
n以下であれば(YES)、ステップS94に戻り、所
定回数n以上であれば(NO)、時刻tが予め定めた終
了時間を越えたか否か判定し(ステップS108)、終
了前であれば(YES)、ステップS92に戻り、終了
時間を越えれば(NO)、補正処理を終了する。
【0114】これらの処理の結果は、データ格納部75
に出力する。そして、データ格納部75のデータを基
に、各パーツのデータが不確定な時刻の検出を不確定デ
ータ検索部76で行う。
【0115】次に図21のフローチャートを参照して、
不確定データ検索部76による不確定な時刻検出につい
て説明する。
【0116】まず、time(時刻)、k(パーツ番
号)の初期値設定を行う(ステップS131、ステップ
S132)。そしてパーツ番号kをインクリメントする
(ステップS133)。次に、countに“0”を代
入し(ステップS134)、時刻timeに“1”を加
える(ステップS135)。x[k][time]にパ
ーツk、時刻timeのx座標を格納する(ステップS
136)。次に、時刻time=0かつx[k][ti
me]=0か否か判定し(ステップS137)、共に
“0”であれば(YES)、start[k][cou
nt]に“0”を設定する(ステップS138)。しか
し“0”でなければ(NO)、時刻time=0でな
く、x[k][time]=0かつx[k][time
−1]=0でないか否かを判定する(ステップS13
9)。このステップS139を満たすならば(YE
S)、時刻timeのx[k][time]が“0”で
時刻(time−1)のx[k][time−1]が存
在するとき時刻timeが不確定データの始まりとなる
ので、start[k][count]にはtimeを
格納する(ステップS140)。しかし、ステップS1
39を満たさなければ(NO)、時刻timeが終了で
なく、x[k][time]=0かつx[k][tim
e+1]=0でないか否か判定する(ステップS14
1)。このステップS141を満たすならば(YE
S)、時刻timeのx[k][time]が“0”で
時刻(time+1)のx[k][time+1]が存
在するとき、時刻timeが不確定データの終わりとな
るので、end[k][count]にtimeを格納
する(ステップS142)。そして、countに
“1”を加える(ステップS143)。例えば、x
[k][3]の値が“0”でx[k][2]の値が“1
26”の場合には、start[k][count]=
3となる。
【0117】また、x[k][25]=0かつx[k]
[26]=255の場合には、end[k][coun
t]=25となる。但し、ステップS137のようにt
ime=0の場合には、x[k][time−1]が存
在しないため前記ステップS138のように、star
t[k][count]に“0”を設定する。次に、t
ime=終了かつx[k][終了]=0か否か判定し
(ステップS144)、それぞれ“終了”、“0”であ
れば(YES)、時刻start[k][count]
から時刻end[k][count]までのデータが不
確定であることを示し、end[k][count]に
は“終了”時刻を設定し(ステップS145)、cou
ntに“1”を加える(ステップS146)。次に時刻
timeが“終了”前か否か判定し(ステップS14
7)、“終了”前であれば(YES)、前記ステップS
135に戻り、時刻timeが“終了”を越えた場合に
は(NO)、パーツ番号kが所定数nを越えたか否かを
判定し(ステップS148)、パーツ番号kが所定数n
以下の場合には(YES)、前記ステップS132に戻
り、パーツ番号kが所定数nを越えた場合には(N
O)、この不確定データの検索を終了する。y座標や角
度θに関しても同様に行う。この配列のデータを補間部
77へ転送する。
【0118】次に前記補間部77は、前記不確定データ
検索部76の結果に基づき、不確定データの補間を行
う。
【0119】図22に示すフローチャートを参照して、
補間処理について説明する。
【0120】まず、m,k(パーツ番号)の初期値を設
定する(ステップS151)。そしてパーツ番号kをイ
ンクリメントした後(ステップS152)、パーツ番号
k、時刻tのxをx[k][t]に格納する(ステップ
S153)。次にmをインクリメントする(ステップS
154)。
【0121】次に、start[k][m]=0か否か
判定し(ステップS155)、不確定データの始点時刻
が“0”の場合(YES)、不確定データの始点の時刻
start[k][m]の1つ後の時刻(start
[k][m]+1)と3つ後の時刻(start[k]
[m]+3)のデータを用いて補間を行う(ステップS
156)。しかし、前記始点時刻が“0”でない場合
(NO)、end[k][m]=終了か否か判定する
(ステップS157)。
【0122】このステップS157の判定で、不確定デ
ータの終了時刻が“終了”の場合(YES)、時刻(e
nd[k][m]−1)と時刻(end[k][m]−
3)のデータを用いて補間を行う(ステップS15
8)。
【0123】ここで、図24(a)には、start
[k][m]=0またはend[k][m]=終了の場
合の補間の概念を示す。前記ステップS156及び前記
ステップS158では、補間を行なう始点の時刻をst
に、終点の時刻をenに格納する。
【0124】次に、ステップs159では、パーツ番号
k、時刻stとenのxをstx,enxに格納する。
そして、tの初期値に時刻(start[k][m]−
1)を設定する(ステップs160)。
【0125】次に、時刻tをインクリメントし(ステッ
プS161)、各パラメータと時刻からなる直線の傾き
の算出を行う(ステップS162)。さらに算出された
傾きから時刻t(start[k][m]〜end
[k][m])のx座標を求める(ステップS16
3)。a,bのパラメータに関しては、時刻stのパラ
メータを用いる(ステップS164)。そして、時刻t
≦end[k][m]か否か判定し(ステップS16
5)、時刻tがend[k][m]以下であれば(YE
S)、前記ステップS161に戻り、時刻end[k]
[m]を超えれば(NO)、ステップS176に移行す
る。そして、ステップS157の判定において、不確定
データの時刻tが終了以外の補間の概念を示す。
【0126】まず、ステップS166においては、不確
定データの始点時刻start[k][m]の1つ前の
時刻(start[k][m]−1)をstに、不確定
データの終了時刻end[k][m]の1つの後の時刻
(end[k][m]+1)をenに格納する。
【0127】次に、不確定時刻の差(end[k]
[m]−start[k][m])をhに、パーツ番号
k、時刻stとenのxをstx,enxに格納する
(ステップS167)。そして線形補間するためのパラ
メータxの間隔intervalxを算出する(ステッ
プS168)。
【0128】次にtの初期値を設定し(ステップS16
9)、tをインクリメントする(ステップS170)。
次に補間する時刻のパラメータを算出する(ステップS
171)。例えばx[k][t]はstxにパラメータ
の間隔intervalxを加えた値を代入する。次
に、パラメータa,bに関しては、時刻stのパラメー
タを用いる(ステップS172)。x[k][t]をs
txに格納する(ステップS173)。
【0129】次のステップS174からステップS17
6においては、t,m,kのそれぞれが各条件を満たす
場合(YES)、それぞれステップS170,ステップ
S154,ステップS152に戻り、処理を行う。これ
らの処理で補間した結果を補正部78に転送する。な
お、補間部77では、前述したような線形補間ではな
く、算出された各パラメータと時刻をスプライン関数を
利用しての各区間のスプライン係数を算出し、不確定デ
ータ検索部76で検索された不確定データをスプライン
関数を用いて補間することも可能である。
【0130】以上のようにして補間・補正7における処
理が行われる。これにより、遮蔽や影の影響などの原因
により対象物の形状が正確に認識できなかった場合に、
対象物について、予めわかっている大きさや接続関係の
情報を用いて補正し、前後の時間で得られた情報を用い
て補間することができる。
【0131】次に本発明による第2実施例としての画像
解析装置について説明する。
【0132】この画像解析装置は、基本的には第1実施
例の構成と同等であり、同等の部材には同じ参照符号を
付して、特徴部分についてのみ説明する図25は、第2
実施例の画像解析装置における対象物解析部6の具体的
な構成を示す。本実施例は、スケルトンを抽出すること
なくパーツを当て嵌めるものである。
【0133】この対象物解析部6aは、補助入出力部4
から読出された画像データを記憶するワークメモリ部4
1と、存在領域検知部5からの背景領域を記憶するワー
クメモリ部42と、前記ワークメモリ部41とワークメ
モリ部42から読出された画像データから対象物のシル
エット画像を抽出するシルエット生成部43と、抽出さ
れたシルエット画像を記憶するワークメモリ部44と、
各パーツが存在しうる領域を予測するパーツ予測部47
と、シルエットに好適するパラメータを算出するパラメ
ータ算出部91とで構成される。
【0134】このように構成された対象物解析部6aに
よる解析処理について説明する。
【0135】前記対象物解析部6aにおいて、補助入出
力部4内の静止領域信号はワークメモリ部41へ、存在
領域検知部5の背景領域格納部32内の背景領域はワー
クメモリ部42へ出力される。前記ワークメモリ部41
とワークメモリ部42の信号はシルエット生成部43へ
転送され、差の絶対値が算出された後、2値化処理され
た動領域のみのシルエット画像が生成される。
【0136】前記シルエット画像は、ワークメモリ部4
4へ記録される。制御部11はシルエット画像が生成さ
れた後、対象物モデル格納部10の情報をパーツ予測部
47に送出する。
【0137】そして、パーツ予測部47は、前述したよ
うに対象物モデル格納部10の各パーツの情報と補助入
出力部4内の静止領域信号から、各パーツが存在しうる
領域を求める。この結果をパラメータ算出部91に出力
する。制御部11の制御により前記パラメータ算出部9
1では、パーツ予測部47からの情報に基づき、シルエ
ットに最適に合うパラメータを算出する。パラメータ算
出部91で算出されたパラメータは補間・補正部7に送
出される。
【0138】図26には、前記パラメータ算出部91の
具体的な構成を示す。
【0139】このパラメータ算出部91は、ワークメモ
リ部44に記憶されたシルエット画像を分割するシルエ
ット画像分割部101と、分割されたシルエット画像の
外接四辺形を抽出する外接四辺形抽出部102と、外接
四辺形領域内のシルエットのモーメントを算出するモー
メント算出部103と、分割されたシルエットの領域の
中心位置を算出する重心算出部104と、シルエットの
領域の主軸の方向θを算出する主軸方向算出部105
と、楕円の長軸・短軸の長さを算出する長軸・短軸算出
部106とで構成される。
【0140】一般に、最適なパラメータの算出方法は、
各パーツのシルエットのモーメント・重心・主軸の方向
などを算出し、各パラメータを算出する方法がある。
【0141】このように構成されたパラメータ算出部9
1においては、シルエット画像分割部101では、パー
ツ予測部307で予測された各パーツの領域に基づい
て、ワークメモリ部44に記憶されたシルエット画像を
分割する。
【0142】そして外接四辺形抽出部102では、図2
に示した外接四辺形抽出部28と同様な方法でシルエッ
ト画像分割部101で分割されたシルエット画像の外接
四辺形を抽出する。モーメント算出部103では、外接
四辺形抽出部102で抽出された各パーツの外接四辺形
領域内のシルエットのモーメントを以下の式で算出す
る。
【0143】
【数5】
【0144】ここで、{fij}は、2値画像を表し、
(i,j)は画素の座標である。重心算出部104で
は、モーメント算出部103の結果を用いて分割された
シルエットの領域の中心位置を以下の式で算出する。
【0145】
【数6】
【0146】そして主軸方向算出部105では、モーメ
ント算出部103の結果を用いて分割されたシルエット
の領域を伸びている方向つまり主軸の方向θを以下の式
で算出する。
【0147】
【数7】
【0148】そして長軸・短軸算出部106では、楕円
の長軸・短軸の長さを算出する。分割されたシルエット
を主軸に対して投影した値Xが正規分布していると仮定
する。確率変数Xが正規分布N(m,σ)に従うとき、
【数8】
【0149】が成立する。但し、mは平均値、σは分散
である。これを用いて以下の式でz0を算出することで
長軸の長さを算出できる。
【0150】
【数9】
【0151】ここで、Zは(Ic,Jc)を原点にして
おり、X(z)は主軸上で定義されている。上記方法で
長軸の長さを算出することができる。短軸の長さに関し
ては上記で算出した主軸の方向θに対して垂直な方向θ
1を算出し、同様な処理を行なうことで算出できる。
【0152】以上のような構成にすることにより、影な
どの影響でスケルトンが良好に得られない場合でも、最
適な当て嵌めを行うことができる。
【0153】次に本発明による第3実施例としての画像
解析装置について説明する。
【0154】この画像解析装置は、基本的には第1実施
例の構成と同等であり、同等の部材には同じ参照符号を
付して、特徴部分についてのみ説明する図27には、第
3実施例の画像解析装置における存在領域検知部5aの
具体的な構成を示す。この存在領域検知部5aは、図2
に示す構成に対して、合成部30と初期化部31とが除
外され、対象物が存在する画像の背景画像のみを予め撮
影して記憶される背景画像格納部111が異なっている
他は、図1及び図2と同じ構成である。
【0155】この存在領域検知部5aの動作について図
27及び図1を参照して説明する。まずCCDカメラ等
で、予め撮影した背景画像について処理が行われる。入
力部1は、制御部11から制御により背景画像の画像信
号をA/D部2に送出する。前記A/D部2では入力部
1からの前記画像信号を、例えば量子化レベル8ビッ
ト、離散化サイズ640×480画素のデジタル画像信
号へ変換してバッファメモリ部3へ送出する。
【0156】前記バッファメモリ部3は複数のフレーム
メモリで構成され、A/D部2からの前記画像データを
フレーム単位で一時的に記録し、これを補助入出力部4
へ出力する。
【0157】前記補助入出力部4は、磁気ディスク等で
構成されており、制御部11からの制御に基づき前記デ
ジタル信号をセレクタ部21を介して、背景画像格納部
111に出力する。続いて、移動物体を撮影した入力部
1は、制御部11の制御により、所定時間の画像信号を
A/D部2へ送出する。
【0158】前記A/D部2は入力部1からの前記画像
信号をデジタル化してバッファメモリ部3へ送出する。
バッファメモリ部3は複数のフレームメモリで構成さ
れ、デジタル化された画像信号をフレーム毎に一時的に
記録する。これらの画像信号がバッファメモリ部3から
順次、補助入出力部4に出力され記憶される。そして前
記補助入出力部4から読出された画像データは、存在領
域検知部5aのセレクタ部21に出力される。
【0159】そして、制御部11からの制御により、セ
レクタ部21を介して、ワークメモリ部22、ワークメ
モリ部23、ワークメモリ部24へ順次転送される。こ
のとき制御部11は、時系列的に連続する3枚の画像を
選択する。前記ワークメモリ部22とワークメモリ部2
3の画像データは差分部25に送出され、また前記ワー
クメモリ部23とワークメモリ部24の画像データは差
分部26に送出され、それぞれ差分の絶対値が算出さ
れ、その結果に基づき2値化処理を行う。
【0160】前記差分部25と差分部26の出力信号
は、AND部27にてAND処理され、外接四辺形抽出
部28へ送出される。外接四辺形抽出部28では、AN
D部27の出力信号をラベル処理した後、各レベルに外
接する外接四辺形を生成する。
【0161】そして静止領域抽出部29では、制御部1
1からの制御の基づき、外接四辺形抽出部28の外接四
辺形の情報とワークメモリ部23のデジタル信号から、
時刻i番目の静止領域のみを抽出する。抽出された静止
領域信号は、制御部11からの制御に基づき補助入出力
部4へ出力される。背景画像格納部111に予め記憶さ
れた背景信号は対象物解析部6へ出力される。
【0162】以上のように構成することにより、構成が
簡単になり、処理を高速に行なうことができる。
【0163】次に本発明による第4実施例としての画像
解析装置について説明する。
【0164】この画像解析装置は、基本的には第1実施
例の構成と同等であり、同等の部材には同じ参照符号を
付して、特徴部分についてのみ説明する。本実施例は、
背景画像をあらかじめ撮影することも、背景画像を生成
することもなく、良好なシルエット画像を生成するもの
である。
【0165】図28は、第4実施例の画像解析装置にお
ける存在領域検知部5bの具体的な一構成例を示すブロ
ック図である。
【0166】この存在領域検知部5bは、セレクタ部2
1と、ワークメモリ部22,23,24と、画像のエッ
ジ画像を生成するエッジ抽出部121,122,123
と、エッジ画像を記憶するワークメモリ部124,12
5,126と、各エッジ画像における画素ごとに差分の
絶対値を算出し2値化処理を行う差分部127,128
と、出力された各差分の論理積を取るAND部129
と、外接四辺形抽出部28と、静止領域抽出部29とで
構成される。
【0167】このように構成された存在領域検知部5a
による存在領域の検出について説明する。
【0168】この存在領域検知部5aにおいて、補助入
出力部4からの画像データは、制御部11の制御により
セレクタ部21で時系列的に連続する3枚の画像が選択
され、各ワークメモリ部22,23,24にそれぞれ入
力される。
【0169】前記ワークメモリ部22,23,24の各
画像データは、エッジ抽出部121,122,123に
送出され、それぞれの画像に対してエッジ画像が生成さ
れる。生成された各エッジ画像は、ワークメモリ部12
4,125,126に記憶される。
【0170】前記ワークメモリ部124と前記ワークメ
モリ部125から読出された画像データは、差分部12
7に入力され、差分の絶対値が算出されて2値化処理さ
れる。同様に、前記ワークメモリ部125とワークメモ
リ部126から読出された画像データは、差分部128
に入力され、差分の絶対値が算出されて2値化処理され
る。
【0171】これらの差分部127と差分部128から
の出力信号(差分値)は、AND部129によりAND
処理され、外接四辺形抽出部28に送出される。
【0172】前記外接四辺形抽出部28では、AND部
129からの出力信号をラベル処理した後、各ラベルに
外接する外接四辺形を生成する。
【0173】そして静止領域抽出部29では、制御部1
1の制御により、前記外接四辺形抽出部28による外接
四辺形の情報とワークメモリ部23の画像データから、
時刻i番目の静止領域のみを抽出する。抽出された静止
領域信号は、制御部11の制御により、補助入出力部4
へ出力される。また前記AND部129の出力は対象物
解析部6に出力される。
【0174】次に図29には、前記対象物解析部6bの
具体的な構成例を示し、説明する。この対象物解析部6
bは、基本的には第1実施例の対象物解析部の部材と同
等の部材には同じ参照符号を付して、特徴部分について
のみ説明する。
【0175】本実施例では、背景画像を用いず、動画像
の差分処理を補い、良好なエッジ画像を生成し、そのエ
ッジよりシルエットを得るものである。
【0176】この対象物解析部6bは、図28に示した
AND部129からの対象物のエッジ画像を記憶するワ
ークメモリ部131と、前記エッジ画像からシルエット
画像を生成するシルエット生成部132と、前記シルエ
ット画像を記憶するワークメモリ部133と、スケルト
ン抽出部45と、抽出されたスケルトン画像を記憶する
ワークメモリ部134と、パーツ予測部47と、パラメ
ータ算出部49と、パーツ当て嵌め部48とで構成され
る。
【0177】このように構成された対象物解析部6bに
おける対象物解析処理について説明する。
【0178】まず、前述した存在領域検知部5のAND
部129から出力された対象物のエッジ画像がワークメ
モリ部131に入力される。前記ワークメモリ部131
に記憶されたエッジ画像は、シルエット生成部132に
送出される。
【0179】前記シルエット生成部132では、対象物
のエッジ画像からシルエット画像が生成され、生成され
たシルエット画像は、一旦、ワークメモリ部133に記
憶される。
【0180】そして制御部11の制御により前記ワーク
メモリ部133から読出されたシルエット画像は、スケ
ルトン抽出部45へ送出される。スケルトン抽出部45
では、前述したようにシルエット画像の骨格成分のみが
抽出されて、スケルトン画像が生成され、ワークメモリ
部134に記録される。
【0181】次に制御部11は、シルエット画像とスケ
ルトン画像が生成された後、対象物モデル格納部10か
ら予め記憶させてある各パーツの情報を読み出し、パー
ツ予測部47に入力させる。
【0182】このパーツ予測部47は、前記各パーツの
情報と補助入出力部4からの静止領域信号から、各パー
ツが存在しうる領域を求める。そしてパーツ当て嵌め部
48では、ワークメモリ部133のシルエット画像とワ
ークメモリ部134のスケルトン画像とパーツ予測部4
7の出力に基づいて各パーツのパラメータの初期値を算
出する。パラメータ算出部49では、パーツ当てはめ部
48で算出された各パーツの各パラメータの初期値をも
とにシルエットに最適に当てはまるパラメータの算出を
行う。算出されたパラメータは、制御部11の制御によ
り、補間・補正部7へ出力される。
【0183】図30には、前記シルエット生成部132
の具体的な構成例を示す。
【0184】このシルエット生成部132は、画像上に
テンプレートを走査させる円盤移動部141と、テンプ
レート移動可能領域にラベルを与えるラベリング部14
2と、ラベル移動可能領域から背景を選択する移動領域
部143とで構成される。
【0185】このようなシルエット生成部132におい
て、ワークメモリ部131の対象物のエッジ画像が円盤
移動部141に出力される。前記円盤移動部141は、
例えば、半径rの円盤状のテンプレートを用意し、図3
1(a)に示すように前記テンプレートを画像上に走査
させ、そのテンプレートがエッジ成分と交差しないで移
動できる画像領域(テンプレート移動可能領域)を算出
する。
【0186】図31(b)の白い部分がテンプレート移
動可能領域である。ラベリング部142では、前記円盤
移動部141で算出したテンプレート移動可能領域のラ
ベリングを行う。この処理により、1つの連結した領域
には、予め定めたラベルのうちの1つのラベルが与えら
れる。
【0187】次に移動領域部143は、移動可能領域を
ラベリング処理によりラベル付けされた同じラベルの面
積を算出し、その中で最大面積を持つラベルの移動可能
領域を背景と判断し、それ以外の移動可能領域と移動不
可能領域を人物存在領域と判断し、2値化処理を行う。
移動領域部143で生成されたシルエット画像はワーク
メモリ部133に記憶される。
【0188】ここで、AND部129の出力がないとき
には、対象物解析部6に出力を転送せず、補助入出力部
4から新たな信号を転送することが可能である。
【0189】次に本発明による第5実施例としての画像
解析装置について説明する。
【0190】この画像解析装置は、基本的には第1実施
例の構成と同等であり、同等の部材には同じ参照符号を
付して、特徴部分についてのみ説明する。
【0191】図32には第5実施例の画像解析装置にお
ける対象物解析部6cの具体的な構成例を示し、説明す
る。本実施例は、背景画像をあらかじめ撮影すること
も、背景画像を生成することもなく、動画像から対象物
のエッジ画像抽出し、エッジ画像から当てはめを行う簡
単な幾何学的形状のパラメータを算出するものである。
この対象物解析部6cは、図28に示したAND部12
9からの対象物のエッジ画像を記憶するワークメモリ部
131と、対象物を構成する各パーツの情報と補助入出
力部4からの静止領域信号から、各パーツが存在しうる
領域を求めるパーツ予測部47と、前記エッジ画像とパ
ーツ予測部47の出力に基づいて各パーツのパラメータ
の初期値を算出するパーツ当て嵌め部151とで構成さ
れる。
【0192】このように構成された対象物解析部6cに
おいて、図28に示した存在領域検知部5bのAND部
129から出力された対象物のエッジ画像は、ワークメ
モリ部131に入力される。制御部11の制御により、
補助入出力部4からの静止領域信号及び対象物モデル格
納部10から各パーツの情報が、それぞれ読出され、パ
ーツ予測部47に送出される。
【0193】このパーツ予測部47は、対象物モデル格
納部10の各パーツの情報と補助入出力部4内の静止領
域信号に基づき、各パーツが存在しうる領域を求める。
そしてパーツ当て嵌め部151では、制御部11の制御
により、ワークメモリ部131のエッジ画像とパーツ予
測部47の出力に基づいて、各パーツのパラメータの初
期値を算出する。算出されたパラメータは、制御部11
の制御により補間・補正部7へ出力される。
【0194】次に図33には、前記パーツ当て嵌め部1
51の具体的な構成例を示す。
【0195】このパーツ当て嵌め部151は、エッジ成
分を各パーツに割り振り、パーツ処理の優先順位を付け
るエッジ割り振り部161と、前記エッジ成分の中から
ほぼ平行となる直線成分を抽出する平行成分抽出部16
2と、パーツの軸を抽出するパーツ軸算出部163と、
抽出されたパーツの軸に基づいて各パラメータを算出す
るパラメータ推定部164とで構成される。
【0196】このように構成されたパーツ当て嵌め部1
51において、まず、ワークメモリ部131のエッジ画
像とパーツ予測部47の出力をエッジ割り振り部161
に出力する。前記エッジ割り振り部161では、パーツ
予測部47の各パーツの存在領域を用いて、対応しそう
なエッジ成分を各パーツに割り振り、パーツ処理の優先
順位を付ける。
【0197】具体的には、図35(a)に示すように、
頭部、すね、手、下腕などの画像内に遮蔽がなく出現す
る順にパーツを並べておく。図35(b)に示すよう
に、優先順位に従って平行成分抽出部162で、各パー
ツに対応しそうなエッジ成分の中から、ほぼ平行となる
直線成分を抽出する。さらに図35(c)に示すよう
に、パーツ軸算出部163では、平行成分抽出部162
で抽出されたほぼ平行な直線成分と平行でかつ2直線の
中心にある直線を抽出し、この直線をパーツの軸とす
る。
【0198】そして図35(d)に示すように、パラメ
ータ推定部164により、パーツ軸算出部163で抽出
された軸に基づいて各パラメータを算出する。算出され
たパラメータは補間・補正部7へ転送される。
【0199】次に図34には、前記パラメータ推定部1
64の具体的な構成例を示す。
【0200】このパラメータ推定部164は、パーツ軸
の角度を算出する角度推定部171と、前記軸上の点か
ら各エッジ点までの距離を算出する長軸・短軸推定部1
72と、楕円の中心点を算出する中心点推定部173と
で構成される。
【0201】このように構成されたパラメータ推定部1
64において、まず、角度推定部171では、パーツ軸
算出部163で算出したパーツ軸の角度を算出する。長
軸・短軸推定部172では、パーツ軸算出部163で算
出された軸上の点から各エッジ点までの距離を算出す
る。この距離の最小値と最大値や例えば、足首のように
急激に距離が変化するところを抽出する。図35(d)
に示すように、急激に変化した点間の軸上の長さが楕円
の長軸の2倍に対応し、距離の最大値が楕円の短軸の長
さに対応する。
【0202】そして、中心点推定部173では、長軸・
短軸推定部172で楕円の長軸を形成する2点が抽出さ
れると、その中点を軸上にとることにより楕円の中心点
を算出する。算出されたパラメータは、制御部11の制
御により、補間・補正部7に出力される。
【0203】以上のようにしてシルエット領域を求める
ことなく、エッジ画像から直接対象物解析を行うことが
できる。
【0204】図36には、本発明による第6実施例とし
ての画像解析装置の概略的な構成を示し説明する。
【0205】本実施例の画像解析装置は、背景が単純な
場合に関するものであり、基本的に第1実施例の構成と
同等であり、同等の部材には同じ参照番号を付して特徴
部分についてのみ説明する。
【0206】図36は、本実施例の画像解析装置におけ
る具体的な構成を示す。この画像解析装置は、CCDカ
メラ等からなる画像の入力部1と、前記入力部1からの
入力信号をデジタル化するA/D部2と、前記A/D部
2からのデジタル画像信号をフレーム単位で一時的に記
憶するバッファメモリ部3と、前記バッファメモリ部3
からの画像データを保存する磁気ディスク等からなる補
助入出力部4と、対象物の存在領域を生成する存在領域
検知部5と、前記対象物存在領域の情報を用いて対象物
を抽出し、対象物を少数のパラメータに変換する対象物
解析部6と、抽出された対象物において算出されなかっ
たパーツ(遮蔽されたパーツ)を補間し、パラメータの
補正を行う補間・補正部7と、補正及び補間された画像
データをアナログ信号に変換するD/A部8と、そのア
ナログ信号化された画像データを表示するディスプレイ
からなる出力部9と、予め解析の対象となる物体の各パ
ーツの形状に関する情報を楕円の様な幾何学的形状で各
パーツを表現するためのモデル情報が格納されている対
象物モデル格納部10と、前記各構成部材を制御する制
御部11とで構成される。
【0207】このように構成された画像解析装置の画像
解析について説明する。
【0208】まず、制御部11からの制御に基づき、入
力部1で撮影された所定時間の画像信号がA/D部2に
送出される。このA/D部2は前記映像信号を、例えば
量子化レベル8ビット、離散化サイズ640×480画
素のデジタル信号へ変換してバッファメモリ部3へ転送
する。前記バッファメモリ部3は複数のフレームメモリ
で構成され、A/D部2からのデジタル画像信号を一時
的に記憶しておきフレーム単位の画像データを順次補助
入出力部4へ出力する。
【0209】前記補助入出力部4は、制御部11からの
制御に基づき、前記画像データを存在領域検知部5へ転
送する。この存在領域検知部5では、対象物の存在領域
を生成し、生成した対象物の存在領域を対象物解析部6
に送出する。対象物モデル格納部10には、解析の対象
となる物体を、例えば楕円のような単純な幾何学的形状
のパーツで表現したモデル情報が格納されている。前記
対象物解析部6では、存在領域検知部5の対象物存在領
域の情報から対象物を抽出する。続いて抽出された対象
物に対して、対象物モデル格納部10を用いて、単純な
幾何学的形状を当てはめ、幾何学的形状のパラメータを
算出し、補間・補正部7に送出する。前記補間・補正部
7では、対象物モデル格納部10の情報に基づいて、各
パーツを対象物の形状に合わせて補正したり、遮蔽など
の原因で算出されなかったパーツの補間を行う。この結
果は、D/A部8でアナログ信号化され、ディスプレイ
などの出力部9に画像解析結果として表示される。
【0210】図37には、前述した図36に示した存在
領域検知部5の具体的な構成例を示し、対象物の存在領
域の検出について説明する。
【0211】補助入出力部4に蓄積されている画像デー
タは、制御部11からの制御に基づき、セレクタ部18
1で選択され、ワークメモリ部182、ワークメモリ部
183、ワークメモリ部184に順次転送される。この
とき前記制御部11は、時系列的に連続する3枚の画像
を選択する。即ち、iを2以上の整数とした場合、ワー
クメモリ部182には時刻i−1番目の、ワークメモリ
部183には時刻i番目の、ワークメモリ部184に
は、時刻i+1番目の画像データが転送される。前記ワ
ークメモリ部182とワークメモリ部183の各画像デ
ータは、差分部185へ、ワークメモリ部183とワー
クメモリ部184の画像データは差分部186へ転送さ
れ、それぞれ各画素ごとに差分の絶対値が算出され、そ
の結果に基づき2値化処理を行う。差分部185と差分
部186の2値化された出力信号は、AND部187に
て論理積を取り、外接四辺形抽出部188へ転送され
る。尚、差分の絶対値に対して和を取り、後に2値化し
てもよい。外接四辺形抽出部188では、AND部18
7の出力信号をラベル処理する。この処理により、一つ
の連結した領域には一つのラベルが与えられる。この
後、各ラベルに外接する外接四辺形を生成する。生成さ
れた外接四辺形を対象物の存在領域として対象物解析部
6に出力される。
【0212】尚、存在領域検知部5において背景判定部
を付加することで、処理を行う画像の背景を作成すべき
か否かの判断を自動的に行うことができる。例えば、背
景判定部では、ワークメモリ部182,183,184
に格納された各々の画像のエッジの抽出を行い、隣接す
る2つの時刻の差分処理を行う。差分処理を行った2つ
の画像の論理積を算出し、算出結果を包含するような外
接四辺形の抽出を行う。抽出された外接四辺形の大きさ
がある閾値より大きい場合、背景画像の生成の必要があ
り、閾値以下の場合、背景が単純であるとして処理を行
なう。
【0213】以上のような構成の画像解析装置により、
背景画像を生成することなく、構成が簡単になり、処理
を高速に行なうことができる。
【0214】次に図38には、本発明による第7実施例
としての画像解析装置の概略的な構成を示し説明する。
本実施例は、対象物にマーカーを装着させた場合に関す
るものである。この画像解析装置は、基本的には、第
1、第6実施例の構成と同等であり、同等の部材には同
じ参照番号を付して特徴部分についてのみ説明する。
【0215】この画像解析装置は、CCDカメラ等から
なる画像の入力部1と、前記入力部1からの入力信号を
デジタル化するA/D部2と、前記A/D部2からのデ
ジタル画像信号をフレーム単位で一時的に記憶するバッ
ファメモリ部3と、前記バッファメモリ部3からの画像
データを保存する磁気ディスク等からなる補助入出力部
4と、対象物の存在領域を生成する存在領域検知部5
と、前記存在領域検知部5の情報を用いて対象物の解析
を行う対象物解析部6と、抽出された対象物において算
出されなかったパーツ(遮蔽されたパーツ)を補間し、
パラメータの補正を行う補間・補正部7と、補正及び補
間された画像データをアナログ信号に変換するD/A部
8と、そのアナログ信号化された画像データを表示する
ディスプレイからなる出力部9と、予め解析の対象とな
る物体の各パーツの形状に関する情報を、楕円の様な幾
何学的形状で各パーツを表現するためのモデル情報が格
納されている対象物モデル格納部10と、対象物に装着
したマーカーに関する情報が格納されているマーカー情
報格納部190と、前記各構成部材を制御する制御部1
1とで構成される。
【0216】このように構成された画像解析装置の画像
解析について説明する。
【0217】まず、制御部11からの制御に基づき、入
力部1で撮影された所定時間の画像信号がA/D部2に
送出される。このA/D部2は前記映像信号を、例えば
量子化レベル8ビット、離散化サイズ640×840画
素のデジタル信号へ変換してバッファメモリ部3へ転送
する。
【0218】前記バッファメモリ部3は複数のフレーム
メモリで構成され、A/D部2からのデジタル画像信号
を一時的に記憶しておきフレーム単位の画像データを順
次補助入出力部4へ出力する。前記補助入出力部4は、
制御部11からの制御に基づき前記画像データを存在領
域検知部5へ出力する。この存在領域検知部5では、図
37に示したような手法で対象物の存在領域を生成す
る。
【0219】対象物モデル格納部10には、解析の対象
となる物体の接続関係などのモデル情報が格納されてい
る。マーカー情報格納部190には、対象物に装着した
マーカーの色などに関する情報が格納されている。前記
対象物解析部6では、存在領域検知部5から出力される
対象物存在領域の情報とマーカー情報格納部190のマ
ーカーの情報を用いて対象物の各パーツの位置などのパ
ラメータを算出する。続いて、算出されたパーツの位置
などのパラメータと対象物モデル格納部10の対象物に
関する情報を補間・補正部7に転送する。前記補間・補
正部7では、対象物モデル格納部10の情報に基づい
て、各パーツを対象物の形状に合わせて補正したり、遮
蔽などの原因で算出されなかったパーツの補間を行う。
【0220】この結果は、D/A部8でアナログ信号化
され、ディスプレイなどの出力部9に画像解析結果とし
て表示される。
【0221】次に図39は、図38に示したマーカー情
報格納部190に格納されているマーカー情報について
説明する。
【0222】図39(a)において、人間を対象物とし
た場合、これを頭部や胴体部など14個のパーツに分解
して各パーツに例えば長方形の色マーカーを装着した場
合の例を示す。対象物に装着するマーカーを例えば各パ
ーツ毎に色を変えた場合、各色の情報を図39(b)に
示すようにRGBで表現し、テーブルとして格納してお
く。なお、マーカーは長方形でなくてもよく、色情報の
格納方法はRGB座標系でなく、CIE色度座標系のX
YZやUVなどでもよい。
【0223】図40には、図38に示した対象物解析部
6の具体的な構成例を示し、対象物の各パーツの位置な
どのパラメータの算出方法について説明する。
【0224】この対象物解析部6は、補助入出力部4か
ら読出された画像データを記憶するワークメモリ部19
1と、存在領域検知部5から読出された対象物の存在領
域を記憶するワークメモリ部192と、前記ワークメモ
リ部191の画像データと前記ワークメモリ部192の
対象物の存在領域とマーカー情報格納部190のマーカ
ー情報を用いてマーカーの抽出を行うマーカー検出部1
93と、前記マーカー検出部193で抽出されたマーカ
ーの位置などのパラメータを算出するパラメータ算出部
194と、算出されたパラメータを格納するデータ格納
部195とで構成される。
【0225】このように構成された対象物解析部6によ
る解析動作について説明する。
【0226】まず、補助入出力部4を介して、画像デー
タがワークメモリ部191に記憶され、また存在領域検
知部5を介して、対象物の存在領域がワークメモリ部1
92に記憶される。前記ワークメモリ部191と前記ワ
ークメモリ部192から読出された画像データと、マー
カー情報格納部190のマーカー情報とがマーカー検出
部193に転送される。存在領域内の対象物のマーカー
をマーカーの色情報を利用して各パーツ毎に抽出する。
【0227】具体的に例えば、格納されているRGB座
標を指定し、存在領域内で指定されたRGB座標に当て
はまる画素の抽出を行う。マーカー検出部193で抽出
された各パーツのマーカーは、パラメータ算出部194
に転送され、制御部11の制御により、各パーツのマー
カーの重心点と傾きを算出する。傾きの算出方法は、例
えば抽出されたマーカー領域の細線化を行い、細線化さ
れた直線の端点を検出を行う。両端点を通る直線の算出
を行い、傾きを算出する。パラメータ算出部194で算
出された各パーツのパラメータはデータ格納部195に
転送され、そのパラメータは、補間・補正部7に出力さ
れる。
【0228】以上のような構成の画像解析装置により、
背景画像を生成することなく、構成が簡単になり、処理
を高速に行なうことができる。
【0229】次に図41には、本発明による第8実施例
としての画像解析装置の概略的な構成を示し説明する。
本実施例は、対象物を撮影するカメラが対象物をいつも
追跡している場合に関するものである。この画像解析装
置は、基本的に第1実施例の構成と同等であり、同等の
部材には同じ参照番号を付して特徴部分についてのみ説
明する。
【0230】この画像解析装置は、CCDカメラ等から
なる画像の入力部1と、前記入力部1からの入力信号を
デジタル化するA/D部2と、前記A/D部2からのデ
ジタル画像信号をフレーム単位で一時的に記憶するバッ
ファメモリ部3と、前記バッファメモリ部3からの画像
データを保存する磁気ディスク等からなる補助入出力部
4と、静止領域と対象物の存在領域と背景画像とを生成
する存在領域検知部5と、前記対象物存在領域の情報と
背景画像を用いて対象物を抽出し、対象物を少数のパラ
メータに変換する対象物解析部6と、抽出された対象物
において算出されなかったパーツ(遮蔽されたパーツ)
を補間し、パラメータの補正を行う補間・補正部7と、
補正及び補間された画像データをアナログ信号に変換す
るD/A部8と、そのアナログ信号化された画像データ
を表示するディスプレイからなる出力部9と、予め解析
の対象となる物体の各パーツの形状に関する情報が格納
されている対象物モデル格納部10と、前記補助入出力
部4に基づきカメラの移動方向や速度を算出する架台制
御部197と、前記架台制御部197の結果に基づきカ
メラの制御を行うカメラ制御部196と、前記各構成部
材を制御する制御部11とで構成される。
【0231】このように構成された画像解析装置の画像
解析について説明する。
【0232】まず、制御部11の制御により、入力部1
で撮影された所定時間の画像信号がA/D部2に送出さ
れる。このA/D部2は前記映像信号を、例えば量子化
レベル8ビット、離散化サイズ640×480画素のデ
ジタル信号へ変換してバッファメモリ部3へ転送する。
前記バッファメモリ部3は複数のフレームメモリで構成
され、A/D部2からのデジタル画像信号を一時的に記
憶しておきフレーム単位の画像データを順次補助入出力
部4へ出力する。
【0233】前記補助入出力部4は、制御部11からの
制御に基づき前記画像データを存在領域検知部5へ出力
する。この存在領域検知部5では、静止領域と対象物の
存在領域と背景画像とを生成し、生成した対象物の存在
領域を補助入出力部4にフィードバックし、生成した背
景画像を対象物解析部6に送出する。
【0234】架台制御部197では、前記補助入出力部
4の時刻iの対象物の存在領域の重心点の算出を行う。
時刻i−1の重心点と時刻iの重心点から移動方向(移
動ベクトル)などの算出を行う。対象物の存在領域が画
像枠に接しているかの判断を行い、画像枠に接している
場合のみ、結果をカメラ制御部196に転送する。
【0235】そしてカメラ制御部196では、架台制御
部197から転送された移動方向と重心に基づき対象物
が画像枠内に入るようにカメラの制御を行う。対象物モ
デル格納部10には、解析の対象となる物体を、例えば
楕円のような単純な幾何学的形状のパーツで表現したモ
デル情報が格納されている。前記対象物解析部6では、
補助入出力部4の対象物存在領域の情報と存在領域検知
部5から出力される背景画像を用いて対象物を抽出す
る。続いて抽出された対象物に対して、対象物モデル格
納部10を用いて、単純な幾何学的形状を当てはめ、幾
何学的形状のパラメータを算出し、補間・補正部7に送
出する。前記補間・補正部7では、対象物モデル格納部
10の情報に基づいて、各パーツを対象物の形状に合わ
せて補正したり、遮蔽などの原因で算出されなかったパ
ーツの補間を行う。この結果は、D/A部8でアナログ
信号化され、ディスプレイなどの出力部9に画像解析結
果として表示される。
【0236】なお、追跡のみを行う場合は対象物解析部
6、対象物モデル格納部10、補間・補正部7、D/A
部8、出力部9を省略することも可能である。
【0237】以上のような構成にすることにより、対象
物が大きく移動する場合においても解析を随時行うこと
ができる。
【0238】次に図42には、前述した図5に示したパ
ーツ当て嵌め部48における処理過程に従った変形例の
構成を示し説明する。ここで、対象物の頭部1、胴体部
2、脚部7,8の4つのパーツに関する当て嵌めを楕円
で行なった例を示している。まず、パーツ分割部201
では、パーツ予測部47で算出された各パーツの存在領
域内にあるスケルトンの抽出を行う。パーツ分割部20
1で抽出された各パーツのスケルトンをワークメモリ部
202に格納する。
【0239】次に、始点・終点算出部203では、前記
ワークメモリ部202に格納された各パーツのスケルト
ンの最も上の点(y座標が最小となる点)を前記パーツ
のスケルトンの始点(xs,ys)とし、最も下の点
(y座標が最大となる点)を前記パーツのスケルトンの
終点(xe,ye)とする。
【0240】このような処理過程を各パーツ毎に行い、
各パーツの始点・終点のデータをデータ格納部204へ
格納する。そしてパラメータ推定部205では、データ
格納部204のデータを用いて、各パラメータの初期値
を設定する。このパラメータ推定部205で初期値設定
された各パラメータをデータ格納部206に格納する。
なお、前述した当て嵌める幾何学的形状は、楕円だけで
なく円柱や線分でも行なうことができる。尚、パラメー
タ推定部205は、前述した図8に示すパラメータ推定
部56と同様である。
【0241】次に図43には、図1に示した前記補正・
補間部7と構成が異なる構成例を示し説明する。
【0242】この補正・補間部7´は、各パーツのパラ
メータ(時刻、パーツ番号、各パラメータの値(a,
b,θ,x,y))を記憶するデータ格納部211と、
脚部や手部における左右の判別を行う左右パーツ判別部
212と、パーツの判定結果を記憶するデータ格納部2
13と、各パーツを対象物の形状に合わせて補正する補
正部214と、その補正結果を記憶するデータ格納部2
15と、パーツのデータ不確定な場合の時刻を検出する
不確定データ検索部216と、検出した時刻のデータを
回復させる補間部217と、補間の結果を補正する補正
部214と、回復及び補正されたデータを記憶するデー
タ格納部218と、格納データに基づいて楕円を発生さ
せる画像制作部219とで構成される。
【0243】このように構成された補正・補間部7´に
おいては、図1に示した制御部11の制御により、対象
物解析部6のパラメータ算出部49で算出された各パー
ツのパラメータ(時刻、パーツ番号、各パラメータの値
(a,b,θ,x,y))をデータ格納部71の所定の
テーブルに格納する。
【0244】そして脚部3,5,7と4,6,8や手部
9,10,11と12,13,14の左右の判別を左右
パーツ判別部212で行い、そのパーツの判定結果をデ
ータ格納部213に格納する。さらに補正部214で
は、前記データ格納部213に対して対象物モデル格納
部10に基づき、各パーツを対象物の形状に合わせて補
正し、その補正結果をデータ格納部215に格納する。
【0245】次に不確定データ検索部216では、前記
データ格納部215で各パーツのデータが確定している
かを調べ、不確定な場合その時刻を検出し、補間部21
7で検出された時刻のデータの回復を行ない、回復され
たデータを補正部214で補正し、回復及び補正された
データをデータ格納部218に格納する。
【0246】そして、画像制作部219は、データ格納
部218に格納されているデータに基づいて楕円を発生
させる。この楕円の発生は,時刻tの全てのパーツ(パ
ーツ番号n=1から14まで)に関して、以下の式を満
たす画素を、例えば「黒」、満たさない場合「白」で色
づけを行い、画像を格納する。
【0247】次に図44に示すフローチャートを参照し
て、図21のフローチャートと異なる不確定データ検索
部76による不確定な時刻検出の一例について説明す
る。
【0248】まず、time(時刻)、k(パーツ番
号)、x[k][t](パーツk、時刻timeのx座
標)の初期値を設定する(ステップS181)。そし
て、パーツ番号kをインクリメントする(ステップS1
82)。
【0249】次に、countに“0”を代入し(ステ
ップS183)、時刻timeに1加えインクリメント
する(ステップS184)。
【0250】そして、時刻time=0,x[k]
[0]=0か否か判定し(ステップS185)、共に
“0”であれば(YES)、start[k][cou
nt]に“0”を設定する(ステップS186)。しか
し“0”でなければ(NO)、時刻time=0でな
く,x[k][time]=0でx[k][time−
1]=0でないか否か判定する(ステップS187)。
【0251】このステップS187を満たすならば(Y
ES)、時刻timeのx[k][time]が“0”
で時刻(time−1)のx[k][time−1]が
存在するとき時刻timeが不確定データの始まりとな
るので、start[k][count]にはtime
を格納する(ステップS188)。しかし、満たさなけ
れば(NO)、時刻time′=終了でなく、x[k]
[time′]=0,x[k][time′+1]=0
でないか否か判定する(ステップS189)。このステ
ップS189を満たすならば(YES)、時刻tim
e′のx[k][time′]が“0”で時刻(tim
e′+1)のx[k][time′+1]が存在すると
き、時刻time′が不確定データの終わりとなるの
で、end[k][count]には、time′を格
納する。そして、countに1を加えてインクリメン
トする(ステップS190,S191)。
【0252】例えば、x[k][3]の値が“0”でx
[k][2]の値が126の場合には、start
[k][count]=3となる。
【0253】また、x[k][25]=0,x[k]
[26]=255の場合には、end[k][coun
t]=25となる。但し、ステップS185のように、
time=0の場合には、x[k][time−1]が
存在しないため、前記ステップS186のように、st
art[k][count]に“0”を設定する。
【0254】次に、time′=終了,x[k][終
了]=0か否か判定し(ステップS192)、それぞれ
“終了”,“0”であれば(YES)、時刻start
[k][count]から時刻end[k][coun
t]までのデータが不確定であることを示し、end
[k][count]には“終了”を設定し(ステップ
S193)、countに1を加えてインクリメントす
る(ステップS194)。次に時刻timeが“終了”
前か否か判定し(ステップS195)、“終了”前であ
れば(YES)、前記ステップS184に戻り、時刻t
imeが“終了”を越えた場合には(NO)、パーツ番
号kが所定数nを越えたか否か判定し(ステップS19
6)、パーツ番号kが所定数n以下の場合には(YE
S)、前記ステップS182に戻り、パーツ番号kが所
定数nを越えた場合には(NO)、この不確定データの
検索を終了する。y座標や角度θに関しても同様に行
う。この配列のデータを補間部7へ出力する。
【0255】次に、この補間部7は、前記不確定データ
検索部6の結果に基づき、不確定データを補間する。
【0256】図45,図46に示すフローチャートを参
照して、この補間処理について説明する。
【0257】まず、m,k(パーツ番号)の初期値を設
定する(ステップS201)。そしてパーツ番号kをイ
ンクリメントした後(ステップS202)、パーツ番号
k、時刻tのxをx[k][t]に、yをy[k]
[t]に、θをθ[k][t]に格納する(ステップS
203)。次にmをインクリメントする(ステップS2
04)。
【0258】次に、stat[k][m]=0か否か判
定し(ステップS205)、不確定データの始点時刻が
“0”の場合(YES)、不確定データ始点の時刻st
art[k][m]の1つ後の時刻(start[k]
[m]+1)と3つ後の時刻(start[k][m]
+3)のデータを用いて補間を行う(ステップS20
6)。しかし、前記始点時刻が“0”でない場合(N
O)、end[k][m]=終了か否か判定する(ステ
ップS207)。
【0259】このステップS207の判定で、不確定デ
ータの終了時刻が“終了”の場合(YES)、時刻(e
nd[k][m]−1)と時刻(end[k][m]−
3)のデータを用いて補間を行う(ステップS20
8)。
【0260】ここで、図46(a),(b)には、st
art[k][m]=0またはend[k][m]=終
了の場合の補間の概念を示す。前記ステップS206及
び前記ステップS208では、補間を行なう始点の時刻
をstに、終点の時刻をenに格納する。
【0261】次に、ステップS209では、パーツ番号
k、時刻stまたは時刻enのx,y,θをstx,s
ty,strad,enx,eny,enradに格納
する。そして、tの初期値に時刻(start[k]
[m]−1)を設定する(ステップS210)。
【0262】次に、時刻tをインクリメントし(ステッ
プS211)、データ点からなる各パラメータを算出す
る(ステップS212)。さらに、前記算出された間隔
から時刻t(start[k][m]〜end[k]
[m])のx,y座標とθを求める(ステップS21
3)。他のパラメータに関しては、時刻stのパラメー
タを用いる(ステップS214)。
【0263】そして、時刻t≦end[k][m]か否
か判定し(ステップS215)、時刻tがend[k]
[m]以下であれば(YES)、前記ステップS211
に戻り、時刻tがend[k][m]を越えれば(N
O)、ステップS228に移行する。
【0264】そして、ステップS207の判定におい
て、不確定データの時刻tが終了でなかった場合(N
O)、ステップS216に移行し、以下の処理を行う。
ここで、図23(c)は、時刻“0”または終了以外の
補間の概念を示す。
【0265】まず、ステップS216においては、不確
定データの始点時刻start[k][m]の1つ前の
時刻(start[k][m]−1)をstに、不確定
データの終了時刻end[k][m]の1つの後の時刻
(end[k][m]+1)をenに格納する。
【0266】次に、不確定時刻の差(end[k]
[m]−start[k][m])をhに、パーツ番号
k、時刻stまたはenのx,y,θをstx,st
y,strad,enx,eny,enradに格納す
る(ステップS217)。そして線形補間するためのパ
ラメータx,y,θの間隔intervalx,int
ervaly,intervalradを算出する(ス
テップS218)。
【0267】次に、i,tの初期値を設定し(ステップ
S219)、i,tをそれぞれインクリメントする(ス
テップS220,S221)。
【0268】次に、補間する時刻のパラメータを算出す
る(ステップS222)。例えば、x[k][t]は、
stxのパラメータに間隔intervalxを加えた
値を代入する。ステップS225からステップS228
においては、t,i,m,kのそれぞれが各条件を満た
す場合(YES)、それぞれS221,S220,S2
04,S202に戻り、処理を行う。前記各条件を満た
さなかった場合には(NO)、補間処理を終了する。こ
れらの処理で補間した結果を再度、補正部74で同様に
補正し、その補正した結果をデータ格納部78に出力す
る。
【0269】以上のようにして補間・補正7における処
理が行われる。これにより、遮蔽や影の影響などの原因
により対象物の形状が正確に認識できなかった場合に、
対象物について、予めわかっている大きさや接続関係の
情報を用いて補正し、前後の時間で得られた情報を用い
て補間することができる。
【0270】なお、本発明の上記実施態様によれば、以
下のごとき発明も含まれる。
【0271】(1) 動画像内の所定の対象物の動きを
解析する画像解析装置において、前記動画像に対応する
動画像データ中から前記対象物が存在する存在領域を抽
出する存在領域抽出手段と、前記存在領域抽出手段によ
って抽出された前記存在領域を除いた複数の動画像のフ
レーム画像データまたはフィールド画像データを合成し
て、背景画像データを生成する背景画像生成手段と、前
記背景画像生成手段によって生成された背景画像データ
に基づいて、前記動画像データから前記所定の対象物に
対応する画像データを抽出する対象物抽出手段と、を具
備することを特徴とする画像解析装置。
【0272】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0273】(2) 前記存在領域抽出手段は、前記動
画像のフレーム画像データ間またはフィールド画像デー
タ間の差を求める画像間差分演算手段と、前記画像間差
分演算手段からの複数の出力画像データの共通部分を求
める画像間共通部分演算手段と、前記画像間共通部分演
算手段からの出力画像データに外接する矩形領域を求め
る矩形領域生成手段と、を具備することを特徴とする前
記(1)記載の画像解析装置。
【0274】この発明に関する実施例は、例えば、第
1,第3,第4,第6実施例が対応する。
【0275】(2−1) 前記存在領域抽出手段は、前
記動画像から時間に沿って選択された、前後のフレーム
画像データ間における各画素間の差の絶対値を2値化し
た差分、または前後のフィールド間画像データの画素間
の差の絶対値を2値化した差分を、画像間における対象
物の移動(動画像データ)として求める画像間差分演算
手段と、前記画像間差分演算手段からの複数の出力画像
データの共通部分を求める画像間共通部分演算手段と、
前記画像間共通部分演算手段からの出力画像データに外
接する矩形領域を求める矩形領域生成手段と、を具備す
ることを特徴とする前記(1)記載の画像解析装置。
【0276】この発明に関する実施例は、例えば、第
1,第3,第4,第6実施例が対応する。
【0277】(3) 前記画像間共通部分演算手段は、
前記画像間差分演算手段からの画像データの差分出力を
受けて、2値化する差分画像2値化手段と、前記差分画
像2値化手段からの複数の出力に対して各画素毎に論理
積演算を行う論理積演算手段と、を具備することを特徴
とする前記(2)記載の画像解析装置。
【0278】この発明に関する実施例は、例えば、第
1,第2,第4実施例が対応する。 (3−1) 前記画像間共通部分演算手段は、前記画像
間差分演算手段からの画像データの差分出力を受けて、
該差分出力が示す画像データの領域の各画素の出力を2
値化する差分画像2値化手段と、前記差分画像2値化手
段からの複数の出力に対して各画素毎に論理積演算を行
う論理積演算手段と、を具備することを特徴とする前記
(2)記載の画像解析装置。
【0279】この発明に関する実施例は、例えば、第
1,第2,第4実施例が対応する。 (4) 前記画像間共通部分演算手段は、前記画像間差
分演算手段からの画像データの差分出力に対して、各画
素毎に和を求める画素間和演算手段と、前記画素間和演
算手段からの画像データ出力を2値化する差分画像2値
化手段と、を具備することを特徴とする前記(2)記載
の画像解析装置。
【0280】この発明に関する実施例は、例えば、第
1,第2,第4実施例が対応する。 (4−1) 前記画像間共通部分演算手段は、前記画像
間差分演算手段からの画像データの差分出力を受けて、
該差分出力が示す画像データの領域の各画素毎に和を求
める画素間和演算手段と、 前記画素間和演算手段から
の画像データ出力を2値化する差分画像2値化手段と、
を具備することを特徴とする前記(2)記載の画像解析
装置。
【0281】この発明に関する実施例は、例えば、第
1,第2,第4実施例が対応する。 (5) 前記所定の対象物のモデルを前記所定の対象物
の構成部分とその結合関係として記憶するモデル記憶手
段と、前記モデル記憶手段からの情報に基づいて、前記
所定の対象物に前記モデルを適合させるモデル適合手段
と、をさらに具備することを特徴とする前記(1)〜
(4)のいずれか1つに記載の画像解析装置。
【0282】この発明に関する実施例は、例えば、第
1,第6,第7,第8実施例が対応する。
【0283】(6) 前記モデル記憶手段は、さらに、
前記対象物の各構成部分において、存在領域に対応する
前記対象物の各構成部分のモデルを前記各対象物に適合
させることを特徴とする前記(5)記載の画像解析装
置。
【0284】この発明に関する実施例は、例えば、第
1,第6,第7,第8実施例が対応する。
【0285】(7) 前記動画像に対する所定のフレー
ム画像データまたはフィールド画像データの時間的に前
及び/または後の画像データに基づいて、前記モデル適
合手段によって前記所定のフレーム画像データまたはフ
ィールド画像データに適合された前記対象物の各構成部
分のモデルの位置及び/または角度を補間することを特
徴とする前記(5)または(6)記載の画像解析装置。
【0286】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0287】(8) 前記モデル記憶手段は、さらに、
前記対象物の各構成部分の相対的な大きさを格納し、前
記モデル適合手段は、前記各構成部分の相対的な大きさ
に基づいて、前記対象物の各構成部分に適合するモデル
を補正することを特徴とする前記(5)〜(7)のいず
れか1つに記載の画像解析装置。
【0288】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0289】(9) 前記モデル適合手段は、前記モデ
ル記憶手段から読出されたモデルを抽出された対象物の
各構成部分の大きさに基づき補正し、補正されたモデル
の配置位置により、モデルとモデルが接続する交点を算
出する交点算出手段と、算出した交点によるモデルとモ
デルとの接続形態が好適なものか判断する接続形態判断
手段とを具備することを特徴とする前記(5)〜(7)
のいずれか1つに記載の画像解析装置。
【0290】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0291】(10) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物のスケルトンを抽出するスケルトン抽出手段
を具備し、各構成部分の前記楕円のモデルを該スケルト
ン抽出手段によって抽出されたスケルトンに基づいて、
対象物に適合させることを特徴とする前記(5)〜
(8)のいずれか1つに記載の画像解析装置。
【0292】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0293】(11) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物と前記各構成部分の楕円モデルと重なり面積
が最大となるように前記各構成部分の楕円モデルを前記
対象物に適合させることを特徴とする前記(5)〜
(8)のいずれか1つに記載の画像解析装置。
【0294】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0295】(12) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物の構成部分の重心を求める重心算出手段と、
前記対象物の前記構成部分のモーメントを求めるモーメ
ント算出手段と、前記重心算出手段と前記モーメント算
出手段との出力に基づいて前記楕円モデルを前記対象物
に適合させることを特徴とする前記(5)〜(8),
(11)のいずれか1つに記載の画像解析装置。
【0296】この発明に関する実施例は、例えば、第2
実施例が対応する。
【0297】(13) 動画像内の所定の対象物の動き
を解析する画像処理において、前記対象物が存在する動
画像の背景画像データを予め記憶する背景画像記憶手段
と、前記背景画像記憶手段による前記背景画像データに
基づいて、前記動画像の各フレーム画像データまたはフ
ィールド画像データから前記所定の対象物に対応する画
像データを抽出する対象物抽出手段と、前記所定の対象
物に相当するモデルを前記所定の対象物の構成部分とそ
の結合関係として記憶するモデル記憶手段と、前記モデ
ル記憶手段からの情報に基づいて、前記所定の対象物に
対応する画像データに前記モデルを適合させるモデル適
合手段と、を具備することを特徴とする画像解析装置。
【0298】この発明に関する実施例は、例えば、第3
実施例が対応する。
【0299】(14) 前記動画像に対応する所定のフ
レーム画像データまたはフィールド画像データの時間的
に前及び/または後の画像データに基づいて、前記モデ
ル適合手段によって前記所定のフレーム画像データまた
はフィールド画像データに適合された前記対象物の各構
成部分のモデルの位置及び/または角度を補間すること
を特徴とする前記(13)記載の画像解析装置。
【0300】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0301】(15) 前記モデル記憶手段は、さら
に、前記対象物の各構成部分の相対的な大きさを格納
し、前記モデル適合手段は、前記各構成部分の相対的な
大きさに基づいて、前記対象物の各構成部分に適合する
モデルを補正することを特徴とする前記(13),(1
4)のいずれか1つに記載の画像解析装置。
【0302】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0303】(16) 前記モデル適合手段は、前記モ
デル記憶手段から読出されたモデルを抽出された対象物
の各構成部分の大きさに基づき補正し、補正されたモデ
ルの配置位置により、モデルとモデルが接続する交点を
算出する交点算出手段と、算出した交点によるモデルと
モデルとの接続形態が好適なものか判断する接続形態判
断手段とを具備することを特徴とする前記(13)〜
(15)のいずれか1つに記載の画像解析装置。
【0304】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0305】(17) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物のスケルトンを抽出するスケルトン抽出手段
を具備し、各構成部分の前記楕円のモデルを該スケルト
ン抽出手段によって抽出されたスケルトンに基づいて、
対象物に適合させることを特徴とする前記(13)〜
(16)のいずれか1つに記載の画像解析装置。
【0306】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0307】(18) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物と前記各構成部分の楕円モデルと重なり面積
が最大となるように前記各構成部分の楕円モデルを前記
対象物に適合させることを特徴とする前記(13)〜
(16)のいずれか1つに記載の画像解析装置。
【0308】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0309】(19) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物の構成部分の重心を求める重心算出手段と、
前記対象物の前記構成部分のモーメントを求めるモーメ
ント算出手段と、前記重心算出手段と前記モーメント算
出手段との出力に基づいて前記楕円モデルを前記対象物
に適合させることを特徴とする前記(13)〜(1
6),(18)のいずれか1つに記載の画像解析装置。
【0310】この発明に関する実施例は、例えば、第2
実施例が対応する。
【0311】(20) 動画像内の所定の対象物の動き
を解析する画像処理において、前記動画像に対応する所
定のフレーム画像データまたはフィールド画像データの
時間的に前及び/または後の画像データの差分により所
定の対象物を抽出する対象物抽出手段と、前記所定の対
象物のモデルを前記所定の対象物の構成部分とその結合
関係として記憶するモデル記憶手段と、前記モデル記憶
手段からの情報に基づいて、前記所定の対象物の画像デ
ータに前記モデルを適合させるモデル適合手段と、前記
動画像の所定のフレーム画像データまたはフィールド画
像データの時間的に前及び/または後の画像データに基
づいて、前記モデル適合手段によって前記所定のフレー
ム画像データまたはフィールド画像データに適合された
前記対象物の各構成部分のモデルの位置及び/または角
度を補間する補間手段と、を具備することを特徴とする
画像解析装置。
【0312】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0313】(21) 前記モデル記憶手段は、さら
に、前記対象物の各構成部分の相対的な大きさを格納
し、前記モデル適合手段は、前記各構成部分の相対的な
大きさに基づいて、前記対象物の各構成部分に適合する
モデルを補正することを特徴とする前記(20)記載の
画像解析装置。
【0314】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0315】(22) 前記モデル適合手段は、前記モ
デル記憶手段から読出されたモデルを抽出された対象物
の各構成部分の大きさに基づき補正し、補正されたモデ
ルの配置位置により、モデルとモデルが接続する交点を
算出する交点算出手段と、算出した交点によるモデルと
モデルとの接続形態が好適なものか判断する接続形態判
断手段とを具備することを特徴とする前記(20)また
は(21)記載の画像解析装置。
【0316】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0317】(23) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物のスケルトンを抽出するスケルトン抽出手段
を具備し、各構成部分の前記楕円のモデルを該スケルト
ン抽出手段によって抽出されたスケルトンに基づいて、
対象物に適合させることを特徴とする前記(20)〜
(22)のいずれか1つに記載の画像解析装置。
【0318】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0319】(24) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物と前記各構成部分の楕円モデルと重なり面積
が最大となるように前記各構成部分の楕円モデルを前記
対象物に適合させることを特徴とする前記(20)〜
(22)のいずれか1つに記載の画像解析装置。
【0320】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0321】(25) 前記モデル記憶手段に記載され
る前記対象物の各構成部分のモデルは楕円であり、前記
モデル適合手段は、前記対象物抽出手段によって抽出さ
れた対象物の構成部分の重心を求める重心算出手段と、
前記対象物の前記構成部分のモーメントを求めるモーメ
ント算出手段と、前記重心算出手段と前記モーメント算
出手段との出力に基づいて前記楕円モデルを前記対象物
に適合させることを特徴とする前記(20)〜(2
2),(24)のいずれか1つに記載の画像解析装置。
【0322】この発明に関する実施例は、例えば、第2
実施例が対応する。
【0323】(26) 動画像内の所定の対象物の動き
を解析する画像解析装置において、前記動画像の所定の
フレーム画像またはフィールド画像から前記対象物の形
態に相当するエッジ画像を抽出するエッジ抽出手段と、
前記エッジ画像間の差分画像を生成する差分処理手段
と、前記差分画像間の論理演算を行って対象物の輪郭画
像を抽出する演算処理手段と、を具備することを特徴と
する画像処理装置。
【0324】この発明に関する実施例は、例えば、第4
実施例が対応する。
【0325】(27) 前記エッジ抽出手段に抽出され
た前記エッジ画像に存在する分断されたエッジ間を不通
過な任意の形状及び任意の大きさの領域からなるテンプ
レートを生成し、該テンプレートを前記エッジ画像の全
面に走査させるテンプレート移動手段と、前記テンプレ
ートがエッジに当接した交点の位置情報を生成し、予め
定めたラベルを付与するラベル付与手段と、前記ラベル
付与手段によりラベルが付与された位置情報からテンプ
レート移動可能領域を生成して、前記対象物のシルエッ
トを抽出し、前記テンプレートによる位置ずれを補正す
る移動領域生成手段と、を具備することを特徴とする前
記(26)記載の画像処理装置。
【0326】この発明に関する実施例は、例えば、第4
実施例が対応する。
【0327】(28) 前記演算処理手段により抽出さ
れた対象物の輪郭画像に対して、前記対象物の各構成部
分と略平行な直線成分を検出する直線検出手段を含み、
予め定めた優先順位に従って前記対象物の構成部分のモ
デルの適合を行うモデル適合手段を具備することを特徴
とする(26)記載の画像処理装置。
【0328】この発明に関する実施例は、例えば、第5
実施例が対応する。
【0329】(29) 前記モデル適合手段は抽出され
た前記対象物の各構成部分の配置を、主になる構成部分
を基準に左右を入れ替えることを特徴とする前記(5)
乃至(28)記載の画像処理装置。
【0330】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0331】(30) 量子化及び標本化された少なく
とも1枚以上の画像に関して、所定の対象物を解析する
画像解析装置において、前記画像に対応する画像データ
から対象物の存在領域を検知する存在領域検知手段と、
前記対象物の全体及び部分の形態をモデルとして格納す
る対象物モデル格納手段と、前記存在領域検知手段に基
づき背景画像データを生成・格納する背景画像生成・格
納手段と、前記画像データと前記背景画像データから対
象物のシルエットのデータを生成するシルエット生成手
段と、前記シルエットのデータに基づき、対象物のスケ
ルトンのデータを抽出するスケルトン抽出手段と、前記
対象物モデル格納手段に基づき各パーツの位置を予測す
るパーツ予測手段と、前記スケルトンの情報に基づき単
純な幾何学的形状で当て嵌め画像データを生成する当て
嵌め画像生成手段と、前記対象物モデル格納手段に基づ
き前記当て嵌め画像データを補正し補正画像を生成する
補正手段と、前記補正画像データを必要に応じて補間ま
たは補正を行う補間・補正手段と、を具備することを特
徴とする画像解析装置。
【0332】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0333】(31) 量子化及び標本化された複数の
画像に関して、移動する対象物を解析する画像解析装置
において、前記画像に対応する画像データから対象物の
存在領域を検知する存在領域検知手段と、前記対象物の
全体及び部分の形態をモデルとして格納する対象物モデ
ル格納手段と、前記存在領域検知手段に基づき背景画像
データを生成・格納する背景画像生成・格納手段と、前
記画像データと前記背景画像データから対象物のシルエ
ットのデータを生成するシルエット生成手段と、前記シ
ルエットのデータに基づき、対象物のスケルトンのデー
タを抽出するスケルトン抽出手段と、前記対象物モデル
格納手段に基づき各パーツの位置を予測するパーツ予測
手段と、前記スケルトンのデータに基づき単純な幾何学
的形状で当て嵌め画像データを生成する当て嵌め画像生
成手段と、前記対象物モデル格納手段に基づき前記当て
嵌め画像データを補正し補正画像データを生成する補正
手段と、前記補正画像データを必要に応じて補間または
補正を行う補間・補正手段と、を具備することを特徴と
する画像解析装置。
【0334】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0335】(32) 量子化及び標本化された複数の
画像に関して、移動する対象物を解析する画像解析装置
において、前記画像に対応する画像データから移動する
前記対象物を存在領域を検知する移動領域検知手段と、
前記画像のエッジ画像のデータを抽出するエッジ抽出手
段と、前記エッジ画像のデータ間の差分画像データを生
成する差分処理手段と、前記差分画像データ間の論理演
算を行って前記対象物の輪郭画像データを抽出する演算
処理手段と、前記対象物に関する形状を複数のパーツで
記述したモデルとして格納する対象物モデル格納手段
と、前記対象物モデル格納手段に基づき前記輪郭画像デ
ータの輪郭を連結した輪郭連結画像を生成する輪郭連結
手段と、前記対象物モデル格納手段と前記輪郭連結画像
に基づき前記パーツの位置を予測するパーツ予測手段
と、前記パーツ予測手段の基づき前記単純な幾何学的形
状で当て嵌め画像データを生成する幾何学的形状当ては
め画像生成手段と、前記対象物モデル格納手段に基づき
前記当て嵌め画像データを補正し補正画像データを生成
する補正手段と、前記補正画像データを必要に応じて補
間または補正を行う補間・補正手段と、を具備すること
を特徴とする画像解析装置。
【0336】この発明に関する実施例は、例えば、第5
実施例が対応する。
【0337】(33) 量子化及び標本化された複数の
画像に関して、移動する対象物を解析する画像解析装置
において、前記画像に対応する画像データから移動する
前記対象物を存在領域を検知する移動領域検知手段と、
前記画像のエッジ画像のデータを抽出するエッジ抽出手
段と、前記エッジ画像のデータ間の差分画像データを生
成する差分処理手段と、前記差分画像データ間の論理演
算を行って前記対象物の輪郭画像データを抽出する演算
処理手段と、前記対象物に関する形状を複数のパーツで
分類したモデルとして格納する対象物モデル格納手段
と、前記輪郭画像データに基づきシルエットのデータ生
成を行うシルエット抽出手段と、前記シルエットのデー
タに基づきスケルトンのデータを抽出するスケルトン抽
出手段と、前記対象物モデル格納手段に基づき前記パー
ツの位置を予測するパーツ予測手段と、前記スケルトン
の抽出手段と前記パーツ予測手段に基づき単純な幾何学
的形状で当て嵌め画像データを生成する当て嵌め画像生
成手段と、前記対象物モデル格納手段に基づき前記当て
嵌め画像データを補正し補正画像データを生成する補正
手段と、前記補正画像データを必要に応じて補間または
補正を行う補間・補正手段と、を具備することを特徴と
する画像解析装置。
【0338】この発明に関する実施例は、例えば、第4
実施例が対応する。
【0339】(34) マーカーを装着した移動する対
象物を解析する画像解析装置において、前記動画像に対
応する画像データ中から前記対象物が存在する存在領域
を検出する存在領域検出手段と、対象物に装着している
マーカーの情報を格納するマーカー情報格納手段と、前
記マーカー情報格納手段の出力に基づき、前記対象物の
解析を行う対象物解析手段と、前記動画像に対応する所
定のフレーム画像データまたはフィールド画像データの
時間的に前及び/または後の画像データに基づいて、前
記モデル適合手段によって前記所定のフレーム画像デー
タまたはフィールド画像データに適合された前記対象物
の各構成部分のモデルの位置及び/または角度を補間す
る補間手段と、を付加したことを特徴とする画像解析装
置。
【0340】この発明に関する実施例は、例えば、第7
実施例が対応する。
【0341】(35) 前記対象物解析手段は、前記存
在領域検出手段と前記マーカー情報格納手段の出力を受
けて、マーカーの抽出を行なうマーカー検出手段と、前
記マーカー検出手段の出力に基づきマーカーの位置や傾
斜角の算出を行なうパラメータ算出手段と、を具備する
ことを特徴とする前記(34)記載の画像解析装置。
【0342】この発明に関する実施例は、例えば、第7
実施例が対応する。
【0343】(36) 動画像所定の対象物が大きく移
動する場合においても動きを解析する画像解析装置にお
いて、前記動画像に対応する画像データ中から前記対象
物が存在する存在領域を検出する存在領域検出手段と、
前記存在領域検出手段に基づいて対象物の移動情報を検
出する架台制御手段と、 前記架台制御手段の結果に基
づいて画像を撮影する装置の架台を制御するカメラ制御
手段と、付加したことを特徴とする画像解析装置。
【0344】この発明に関する実施例は、例えば、第8
実施例が対応する。
【0345】(37) 動画像内の所定の対象物の動き
を解析する画像解析装置において、前記所定の対象物の
モデルを前記所定に対象物の構成部分とその結合関係と
して記憶するモデル記憶手段と、前記モデル記憶手段か
らの情報に基づいて、前記所定の対象物に前記モデルを
適合させるモデル適合手段と、前記動画像に対応する所
定のフレーム画像データまたはフィールド画像データの
時間的に前及び/または後の画像データに基づいて、前
記モデル適合手段によって前記所定のフレーム画像デー
タまたはフィールド画像データに適合された前記対象物
の各構成部分のモデルの位置及び/または角度を補間す
る補間手段と、を具備することを特徴とする前記(3
6)記載の画像解析装置。
【0346】この発明に関する実施例は、例えば、第1
実施例が対応する。
【0347】
【発明の効果】以上詳述したように本発明によれば、撮
影された画像から背景画像と対象物をそれぞれ自動的に
生成し、予め定めたモデルにより遮蔽された情報を回復
し、高速処理可能な画像解析装置を提供することができ
る。
【図面の簡単な説明】
【図1】本発明による第1実施例としての画像解析装置
の概略的な構成例を示す図である。
【図2】図1に示した存在領域検知部の具体的な構成を
示す図である。
【図3】存在領域検知部における対象物の抽出と背景画
像の生成について説明するための図である。
【図4】対象物に当て嵌めるモデルに関して説明するた
めの図である。
【図5】図1に示した対象物解析部の具体的な構成例を
示す図である。
【図6】パーツ予測部によるパーツ予測について説明す
るための図である。
【図7】パーツ当て嵌め部における処理過程に従った構
成を示すである。
【図8】パラメータ推定部の具体的な構成例を示す図で
ある。
【図9】パラメータ算出部による算出工程を説明するた
めの前半のフローチャートである。
【図10】パラメータ算出部による算出工程を説明する
ための後半のフローチャートである。
【図11】補正・補間部の具体的な構成を示す図であ
る。
【図12】図11に示した左右パーツ判別部の具体的な
構成を示す図である。
【図13】左右のパーツ判別について説明するための図
である。
【図14】パラメータの算出に用いる座標系を説明する
ための図である。
【図15】図11に示した補正部の構成を示す図であ
る。
【図16】図15に示したパーツ補正部の構成を示す図
である。
【図17】補正について説明するための前半のフローチ
ャートである。
【図18】補正について説明するための後半のフローチ
ャートである。
【図19】手部補正を説明するための概念図である。
【図20】脚部補正を説明するための概念図である。
【図21】不確定データ検索部による不確定な時刻検出
について説明するためのフローチャートである。
【図22】補間処理について説明するためのフローチャ
ートである。
【図23】補間処理について説明するための一部のフロ
ーチャートである。
【図24】補間処理について説明するため概念図であ
る。
【図25】本発明による第2実施例の画像解析装置にお
ける対象物解析部の具体的な構成を示す図である。
【図26】図25に示したパラメータ算出部の具体的な
構成を示す図である。
【図27】本発明による第3実施例としての画像解析装
置における存在領域検知部の構成を示す図である。
【図28】本発明による第4実施例としての画像解析装
置における存在領域検知部の構成を示す図である。
【図29】図28に示した対象物解析部の具体的な構成
例を示す図である。
【図30】図29に示したシルエット生成部の具体的な
構成例を示す図である。
【図31】テンプレートの移動可能領域を示す図であ
る。
【図32】本発明による第5実施例としての画像解析装
置における対象物解析部の構成例を示す図である。
【図33】図32に示したパーツ当て嵌め部の具体的な
構成例を示す図である。
【図34】図33に示したパラメータ推定部の具体的な
構成例を示す図である。
【図35】パーツの割り振りを説明するための図であ
る。
【図36】本発明による第6実施例としての画像解析装
置の概略的な構成例を示す図である。
【図37】図36に示した存在領域検知部の具体的な構
成例を示す図である。
【図38】本発明による第7実施例としての画像解析装
置の概略的な構成例を示す図である。
【図39】図38に示したマーカー情報格納部に格納さ
れているマーカー情報について説明するための図であ
る。
【図40】図38に示した対象物解析部の具体的な構成
例を示す図である。
【図41】本発明による第8実施例としての画像解析装
置の概略的な構成例を示す図である。
【図42】第1実施例におけるパーツ当て嵌め部におけ
る処理過程が異なった別の構成例を示すである。
【図43】第1実施例における補正・補間部の構成が異
なった一例を示す図である。
【図44】第1実施例における不確定データ検索部によ
る不確定な時刻検出のフローチャートの変形例である。
【図45】第1実施例における補間処理のフローチャー
トの変形例である。
【図46】第1実施例における補間処理の一部のフロー
チャートの変形例である。
【符号の説明】
1…入力部、2…A/D部、3…バッファメモリ部、4
…補助入出力部、5…存在領域検知部、6…対象物解析
部、7…補間・補正部、8…D/A部、9…出力部、1
0…対象物モデル格納部、11…制御部。

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 動画像内の所定の対象物の動きを解析す
    る画像解析装置において、 前記動画像に対応する動画像データ中から前記対象物が
    存在する存在領域を抽出する存在領域抽出手段と、 前記存在領域抽出手段によって抽出された前記存在領域
    を除いた複数の動画像のフレーム画像データまたはフィ
    ールド画像データを合成して、背景画像データを生成す
    る背景画像生成手段と、 前記背景画像生成手段によって生成された背景画像デー
    タに基づいて、前記動画像データから前記所定の対象物
    の画像データを抽出する対象物抽出手段と、を具備する
    ことを特徴とする画像解析装置。
  2. 【請求項2】 動画像内の所定の対象物の動きを解析す
    る画像解析装置において、 前記動画像に対応する動画像データの所定のフレーム画
    像データまたはフィールド画像データの時間的に前及び
    /または後のフレーム画像データまたはフィールド画像
    データとの画像の差分により所定の対象物に対応する画
    像データを抽出する対象物抽出手段と、 前記所定の対象物のモデルを前記所定の対象物の構成部
    分とその結合関係として記憶するモデル記憶手段と、 前記モデル記憶手段からの情報に基づいて、前記所定の
    対象物に対応する画像データに前記モデルを適合させる
    モデル適合手段と、 前記所定のフレーム画像データまたはフィールド画像デ
    ータの時間的に前及び/または後のフレーム画像データ
    またはフィールド画像データに基づいて、前記モデル適
    合手段によって前記所定のフレーム画像データまたはフ
    ィールド画像データに適合された前記対象物の各構成部
    分のモデルの位置及び/または角度を補間する補間手段
    と、を具備することを特徴とする画像解析装置。
  3. 【請求項3】 動画像内の所定の対象物の動きを解析す
    る画像解析装置において、 前記動画像に対応する動画像データの所定のフレーム画
    像データまたはフィールド画像データから前記対象物の
    形態に相当するエッジ画像データを抽出するエッジ抽出
    手段と、 前記エッジ画像データ間の差分画像データを生成する差
    分処理手段と、 前記差分画像データ間の論理演算を行って対象物の輪郭
    画像データを抽出する演算処理手段と、を具備すること
    を特徴とする画像解析装置。
JP7148653A 1994-06-15 1995-06-15 画像解析装置 Pending JPH0863603A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7148653A JPH0863603A (ja) 1994-06-15 1995-06-15 画像解析装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-133182 1994-06-15
JP13318294 1994-06-15
JP7148653A JPH0863603A (ja) 1994-06-15 1995-06-15 画像解析装置

Publications (1)

Publication Number Publication Date
JPH0863603A true JPH0863603A (ja) 1996-03-08

Family

ID=26467590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7148653A Pending JPH0863603A (ja) 1994-06-15 1995-06-15 画像解析装置

Country Status (1)

Country Link
JP (1) JPH0863603A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004513442A (ja) * 2000-11-01 2004-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 外観及び幾何学的配置特質に基づき統計モデルを活用する画像処理システムでの人物の札付け
JP2004514975A (ja) * 2000-11-24 2004-05-20 クレバー エスワイエス インコーポレイテッド ビデオ分析を用いる物体の識別と行動の特徴付けシステムおよびその方法
JP2007080146A (ja) * 2005-09-16 2007-03-29 Nippon Telegr & Teleph Corp <Ntt> 映像変化抽出方法、映像変化抽出装置、及び映像変化抽出プログラム
US7269516B2 (en) 2001-05-15 2007-09-11 Psychogenics, Inc. Systems and methods for monitoring behavior informatics
US7643655B2 (en) 2000-11-24 2010-01-05 Clever Sys, Inc. System and method for animal seizure detection and classification using video analysis
US8634635B2 (en) 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
JP2018147313A (ja) * 2017-03-07 2018-09-20 Kddi株式会社 オブジェクト姿勢推定方法、プログラムおよび装置
JP2019169069A (ja) * 2018-03-26 2019-10-03 Kddi株式会社 オブジェクト分離装置、方法およびプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004513442A (ja) * 2000-11-01 2004-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 外観及び幾何学的配置特質に基づき統計モデルを活用する画像処理システムでの人物の札付け
US7643655B2 (en) 2000-11-24 2010-01-05 Clever Sys, Inc. System and method for animal seizure detection and classification using video analysis
US7209588B2 (en) 2000-11-24 2007-04-24 Clever Sys, Inc. Unified system and method for animal behavior characterization in home cages using video analysis
JP2004514975A (ja) * 2000-11-24 2004-05-20 クレバー エスワイエス インコーポレイテッド ビデオ分析を用いる物体の識別と行動の特徴付けシステムおよびその方法
US7817824B2 (en) 2000-11-24 2010-10-19 Clever Sys, Inc. Unified system and method for animal behavior characterization from top view using video analysis
US8514236B2 (en) 2000-11-24 2013-08-20 Cleversys, Inc. System and method for animal gait characterization from bottom view using video analysis
US7269516B2 (en) 2001-05-15 2007-09-11 Psychogenics, Inc. Systems and methods for monitoring behavior informatics
US7580798B2 (en) 2001-05-15 2009-08-25 Psychogenics, Inc. Method for predicting treatment classes using animal behavior informatics
US7882135B2 (en) 2001-05-15 2011-02-01 Psychogenics, Inc. Method for predicting treatment classes using behavior informatics
JP2007080146A (ja) * 2005-09-16 2007-03-29 Nippon Telegr & Teleph Corp <Ntt> 映像変化抽出方法、映像変化抽出装置、及び映像変化抽出プログラム
JP4641477B2 (ja) * 2005-09-16 2011-03-02 日本電信電話株式会社 映像変化抽出方法、映像変化抽出装置、及び映像変化抽出プログラム
US8634635B2 (en) 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
JP2018147313A (ja) * 2017-03-07 2018-09-20 Kddi株式会社 オブジェクト姿勢推定方法、プログラムおよび装置
JP2019169069A (ja) * 2018-03-26 2019-10-03 Kddi株式会社 オブジェクト分離装置、方法およびプログラム

Similar Documents

Publication Publication Date Title
JP6554169B2 (ja) 物体認識装置及び物体認識システム
JP6125188B2 (ja) 映像処理方法及び装置
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
JP2633694B2 (ja) 人数検出装置
US7684592B2 (en) Realtime object tracking system
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
JP2915894B2 (ja) ターゲット追跡方法及び装置
KR20040055310A (ko) 고속 마커프리 모션 캡쳐 장치 및 방법
JPWO2012077287A1 (ja) 姿勢状態推定装置および姿勢状態推定方法
US20220189113A1 (en) Method for generating 3d skeleton using joint-based calibration acquired from multi-view camera
JP4729188B2 (ja) 視線検出装置
JPH07192112A (ja) 侵入物体認識方法
JP2967086B1 (ja) 多眼画像処理による人物の三次元姿勢推定方法
JP2008288684A (ja) 人物検出装置及びプログラム
JPH0863603A (ja) 画像解析装置
JP3668769B2 (ja) 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法
CN111881905B (zh) 调整感兴趣区域的方法与其运算装置
Haritaoglu et al. Ghost/sup 3D: detecting body posture and parts using stereo
Lee et al. Hand gesture recognition using orientation histogram
JP2004301607A (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
JP2004171189A (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
US20220395193A1 (en) Height estimation apparatus, height estimation method, and non-transitory computer readable medium storing program
JP7208479B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2627483B2 (ja) 姿勢検出装置および方法
JP3417635B2 (ja) 侵入物体認識方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060328