JP2002008041A - 動作検出装置、動作検出方法および情報記憶媒体 - Google Patents

動作検出装置、動作検出方法および情報記憶媒体

Info

Publication number
JP2002008041A
JP2002008041A JP2000187467A JP2000187467A JP2002008041A JP 2002008041 A JP2002008041 A JP 2002008041A JP 2000187467 A JP2000187467 A JP 2000187467A JP 2000187467 A JP2000187467 A JP 2000187467A JP 2002008041 A JP2002008041 A JP 2002008041A
Authority
JP
Japan
Prior art keywords
motion
subject
image
silhouette
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000187467A
Other languages
English (en)
Inventor
Tetsuji Baba
哲治 馬場
Koutarou Satou
皇太郎 佐藤
Takashi Masuyama
隆司 増山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2000187467A priority Critical patent/JP2002008041A/ja
Publication of JP2002008041A publication Critical patent/JP2002008041A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 被写体の詳細な動きを検出することができ、
しかも特定の色をあらかじめ指定することなく動きを検
出することができる動作検出装置、動作検出方法および
情報記憶媒体を提供すること。 【解決手段】 シルエット抽出部22は、カメラ10か
ら入力される画像データの中から被写体のシルエット画
像を生成する。このシルエット画像は、撮影画像格納部
24に格納される。オプティカルフロー計算部26は、
連続した複数フレームに対応するシルエット画像を撮影
画像格納部24から読み出して、所定の微小領域毎にオ
プティカルフローを計算する。動作判定部28は、部位
抽出部32および移動ベクトル計算部34を有してお
り、被写体の部位を判定するとともに、各部の動作状態
を示す移動ベクトルを計算する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、撮影範囲に含まれ
る被検出体の動きを検出する動作検出装置、動作検出方
法および情報記憶媒体に関する。
【0002】
【従来の技術】カメラを用いてプレーヤ等の身体を撮影
し、撮影した画像に基づいてプレーヤ等の動きを検出す
る手法が従来から用いられている。例えば、特開平7−
155467号公報には、手に旗を持ったプレーヤをカ
メラで撮影し、この撮影結果に基づいてプレーヤの動作
を検出するビデオゲーム装置が開示されている。このビ
デオゲーム装置では、撮影された画像の右上部分あるい
は左上部分に対応するメモリの所定領域に、白旗あるい
は赤旗に対応する色データが含まれているか否かを調べ
ることにより、ゲーム装置から指示された動作とプレー
ヤが行った動作とが一致するかどうかを判定している。
【0003】
【発明が解決しようとする課題】ところで、上述した公
報に開示されたビデオゲーム装置では、撮影画像が含ま
れるメモリの所定領域に白色あるいは赤色に対応する色
データが含まれているか否かを調べることによりプレー
ヤの動作検出を行っているため、動作の前後の状態が検
出できるだけであり、動作内容の詳細、例えば動作方向
や動作速度等が検出できないという問題があった。ま
た、上述した従来のビデオゲーム装置では、撮影結果と
しての画像データに含まれる白色あるいは赤色といった
特定の色データを検出対象としているため、プレーヤの
動作を直接検出するような場合に、適用が難しいという
問題があった。
【0004】本発明は、このような点に鑑みて創作され
たものであり、その目的は、被写体の詳細な動きを検出
することができ、しかも特定の色をあらかじめ指定する
ことなく動きを検出することができる動作検出装置、動
作検出方法および情報記憶媒体を提供することにある。
【0005】
【課題を解決するための手段】上述した課題を解決する
ために、本発明の動作検出装置は、撮影手段、シルエッ
ト抽出手段、部位抽出手段、動き検出手段を備えてい
る。撮影手段は、所定の撮影範囲に含まれる検出対象物
としての被写体を撮影する。シルエット抽出手段は、撮
影手段によって撮影された画像に基づいて、被写体のシ
ルエット画像を生成する。部位抽出手段は、シルエット
画像に基づいて、被写体を構成する各部位を抽出する。
動き検出手段は、部位抽出手段によって抽出された複数
の部位のそれぞれの動きを検出する。シルエット画像に
基づいて被写体を構成する各部位(胴体、頭部、腕等)
を抽出し、それぞれの動きを検出しているため、従来の
ように撮影範囲の所定領域に特定の色の被写体が含まれ
るか否かによって被写体の動きを検出する手法に比べ
て、被写体の詳細な動きを検出することができる。ま
た、被写体に対応したシルエット画像に基づいて抽出さ
れた各部位毎の動きの検出を行っており、この動きの検
出動作と各部位の色とは直接的な関係がないことから、
特定の着色がなされた旗等を手に持つ必要がなく、特定
の色をあらかじめ決めておく等の手間を軽減するととも
に、動き検出に際しての煩雑な制限事項を低減すること
ができる。
【0006】特に、上述した部位抽出手段は、部位の抽
出動作を、シルエット画像の撮影位置に基づいて行うこ
とが望ましい。あるいは、上述した部位抽出手段は、部
位の抽出動作を、シルエット画像の重心位置を基準とし
て行うが望ましい。これにより、撮影範囲内で被写体が
動いた場合であっても正確に被写体の各部位を抽出する
ことができる。
【0007】また、上述した動き検出手段は、複数の部
位のそれぞれに対応する所定の時間間隔に対応する移動
量を移動ベクトルとして計算することにより、複数の部
位のそれぞれの動きの検出を行うことが望ましい。ま
た、上述した動き検出手段は、複数の部位のそれぞれに
対応する部分的なシルエット画像を構成する複数の微小
領域毎の移動ベクトルを計算し、この移動ベクトルを複
数の部位のそれぞれについて平均することにより動きの
検出動作を行うことが望ましい。あるいは、動き検出手
段は、撮影手段によって撮影された画像であって、複数
の部位のそれぞれに対応する部分的な画像を構成する複
数の微小領域毎の移動ベクトルを計算し、この移動ベク
トルを複数の部位のそれぞれについて平均することによ
り動きの検出動作を行うことが望ましい。これらによ
り、被写体の各部位の動きを、ベクトル量として把握す
ることができ、定量的な解析や処理を行うことが可能に
なる。
【0008】また、本発明の動作検出方法は、所定の撮
影範囲に含まれる検出対象物としての被写体を撮影する
第1のステップと、この撮影された画像に基づいて被写
体のシルエット画像を生成する第2のステップと、この
シルエット画像に基づいて被写体を構成する各部位を抽
出する第3のステップと、抽出された複数の部位のそれ
ぞれの動きを各部位に対応する部分的な領域の時間的な
変化の状態に基づいて検出する第4のステップとを有し
ている。また、本発明の情報記憶媒体は、所定の撮影範
囲に含まれる検出対象物としての被写体を撮影してシル
エット画像を生成し、このシルエット画像に基づいて被
写体を構成する各部位を抽出するとともに、この各部位
に対応する部分的な領域の時間的な変化の状態に基づい
て各部位の動きを検出するプログラムを含んでいる。本
発明の動作検出方法を実施することにより、あるいは本
発明の情報記憶媒体に含まれるプログラムを実行するこ
とにより、被写体を構成する各部位の詳細な動きを検出
することができる。
【0009】また、本発明のゲーム装置は、上述した動
作検出装置によって検出された被写体の各部位の動き
を、ゲームに登場するキャラクタの動作に反映させてい
る。ゲーム装置の入力装置として上述した動作検出装置
を用いることにより、ゲーム装置のプレーヤは煩雑な操
作を行うことなく、ゲームに登場するキャラクタに対す
る動作指示を行うことができる。
【0010】また、本発明のカラオケ装置は、上述した
動作検出装置によって検出された被写体の各部位の動き
を、カラオケ画面に表示するキャラクタの動作に反映さ
せている。カラオケ装置の利用者が振り付けを行いなが
ら歌を歌う場合に、振り付けの内容を反映した特定のキ
ャラクタをカラオケ画面に表示させることができるた
め、本来のカラオケ装置の使い方に別の楽しみ方を付加
することができる。
【0011】
【発明の実施の形態】以下、本発明を適用した一実施形
態の動作検出装置について、図面を参照しながら詳細に
説明する。図1は、本実施形態の動作検出装置の構成を
示す図である。図1に示す動作検出装置は、カメラ1
0、動作検出処理部20、ディスプレイ装置40を含ん
で構成されている。
【0012】カメラ10は、撮影範囲に含まれる動作検
出対象者の身体を撮像するためのものである。本明細書
では、動作検出対象者の身体を「被写体」、撮影範囲に
含まれる被写体以外の部分を「背景」と称して説明を行
うものとする。例えば、被写体の少なくとも上半身が撮
影範囲に含まれるようにカメラ10の設置位置や被写体
の位置が設定されている。
【0013】動作検出処理部20は、被写体に対応する
画像データがカメラ10から入力され、この画像データ
に基づいて被写体の動きを検出する。また、動作検出処
理部20は、被写体の動きの検出結果を示す所定の表示
を行うために必要な画像データを生成する。ディスプレ
イ装置40は、この画像データに基づいて、被写体の動
きに合わせて各部が動く所定のキャラクタを表示する。
【0014】上述した動作検出処理部20は、シルエッ
ト抽出部22、撮影画像格納部24、オプティカルフロ
ー計算部26、動作判定部28、表示計算部30を含ん
で構成される。シルエット抽出部22は、カメラ10か
ら入力される画像データに基づいて、被写体のシルエッ
ト画像を生成する。撮影画像格納部24は、シルエット
抽出部22によって生成されたシルエット画像を格納す
る。例えば、カメラ10から所定時間間隔で画像データ
が出力されるものとすると、この所定時間間隔でシルエ
ット画像が生成され、撮影画像格納部24に格納され
る。
【0015】オプティカルフロー計算部26は、連続し
た複数フレームに対応するシルエット画像を撮影画像格
納部24から読み出して、所定の微小領域毎にオプティ
カルフロー(移動ベクトル)を計算する。動作判定部2
8は、部位抽出部32および移動ベクトル計算部34を
有しており、被写体の部位を判定するとともに、各部の
動作状態を示す移動ベクトルを計算する。例えば、撮影
画像格納部24に格納されたシルエット画像に基づい
て、被写体の胴体、頭、右腕、左腕のそれぞれの部位が
抽出され、それぞれの部位の動きを示す移動ベクトルが
オプティカルフローに基づいて計算される。
【0016】表示計算部30は、動作判定部28内の部
位抽出部32によって抽出された各部位に対応する所定
形状のキャラクタの画像を生成する。上述したカメラ1
0が撮影手段に、シルエット抽出部22がシルエット抽
出手段に、部位抽出部32が部位抽出手段に、オプティ
カルフロー計算部26、動作判定部28が動き検出手段
にそれぞれ対応する。
【0017】本実施形態の動作検出装置はこのような構
成を有しており、次にその動作を説明する。図2は、本
実施形態の動作検出装置による被写体の動作検出および
その結果表示に関する動作手順の概略を示す流れ図であ
る。被写体が含まれる所定の撮影範囲がカメラ10によ
って撮影されると(ステップ100)、シルエット抽出
部22は、あらかじめ被写体が含まれない状態で撮影範
囲を撮影して得られた背景画像と、ステップ100にお
いて撮影された一のフレームの撮影画像とを画素単位で
比較し、画素値の差が所定の閾値以上ある画素を
“1”、所定の閾値未満の画素を“0”に対応させたシ
ルエット画像Siを作成する(ステップ101)。この
シルエット画像Siに対応した画像データ(以後、単に
「画像データ」という場合には、シルエット画像に対応
した画像データをいうものとする)は、撮影画像格納部
24に格納される。
【0018】図3は、抽出されたシルエット画像Siの
一例を示す図である。図3において、ハッチングが付さ
れた領域がシルエット画像Siを示している。なお、
「Bp」は、シルエット画像Siの重心位置に一致した
シルエット画像Siの中心位置であり、この中心位置B
pの計算方法および用途については後述する。本実施形
態では、あらかじめ撮影しておいた背景画像とある時点
における撮影画像との差分に基づいて上述したシルエッ
ト画像Siを抽出しているため、複雑な模様の背景であ
っても正確に被写体のシルエット画像Siを得ることが
できる。
【0019】次に、オプティカルフロー計算部26は、
複数フレームに対応するシルエット画像Siに基づい
て、シルエット画像Siに含まれる各領域に対応したオ
プティカルフローを計算する(ステップ102)。オプ
ティカルフローの計算は、シルエット画像Siを複数の
微小領域に分割し、各微小領域毎に移動ベクトルを求め
ることにより行われる。このようにして各微小領域毎に
移動ベクトルが対応付けられて、ベクトル画像Viが得
られる。
【0020】次に、動作判定部28は、被写体の動きを
計算する(ステップ103)。この計算には、被写体の
各部位を判定する処理と、各部位の移動ベクトルを求め
る処理が含まれる。このようにして被写体の動きが計算
されると、表示計算部30は、計算結果としての被写体
の各部位の移動ベクトルが表示位置等に反映された所定
形状のキャラクタの画像を生成する。そして、この画像
がディスプレイ装置40の画面上に表示される(ステッ
プ104)。
【0021】図4は、被写体の動きに合わせて各部が動
くキャラクタの具体的な表示例を示す図である。図4に
おいて、ほぼ中央に位置する大きな逆三角形が被写体の
胴体に、その上の円が頭部に、両側の線が右腕と左腕に
それぞれ対応している。また、右腕と左腕に相当する線
分に先端に付加された小さな三角形は、これらの部位の
移動ベクトルの大小を示している。被写体の各部位の動
きを考えた場合に、右腕と左腕の動きが最も大きくなる
ため、これらの動きがよくわかるように上述した小さな
三角形が付されている。
【0022】図5は、図2のステップ103において被
写体の動きを計算する詳細な手順を示す流れ図である。(胴体に関する計算) まず、被写体の胴体に関する計算
が行われる。動作判定部28内の部位抽出部32は、シ
ルエット画像に基づいて胴体の中心位置Bpを計算する
(ステップ200)。例えば、シルエット画像の重心G
の座標(Gx,Gy)を以下の式を用いて計算し、これ
を被写体の中心位置として用いる。
【0023】
【数1】
【0024】ここで、P(x,y)は、座標(x,y)
におけるシルエット画像の画素値であり、座標(x,
y)がシルエット画像に含まれる場合には“1”が代入
され、含まれない場合には“0”が代入される。次に、
部位抽出部32は、胴体領域Baを設定する(ステップ
201)。具体的には、部位抽出部32は、図6に示す
ように、胴体の中心位置BpのX座標を中心として、幅
がW/4(Wは撮影範囲のX方向の幅)で高さが撮影範
囲と同じ矩形領域Baとして設定する。
【0025】次に、移動ベクトル計算部34は、図2に
示すステップ102のオプティカルフローの計算によっ
て求めたベクトル画像Viの中で胴体領域Baに含まれ
るものを抽出して平均し、胴体の移動ベクトルBvとし
て設定する(ステップ202)。
【0026】(頭部に関する計算)次に、被写体の頭部
に関する計算が行われる。動作判定部28内の部位抽出
部32は、シルエット画像およびステップ201におい
て設定された胴体領域Baに基づいて被写体の頭部に対
応する領域Haを設定する(ステップ203)。具体的
には、部位抽出部32は、図7に示すように、胴体領域
Baに含まれるシルエット画像の上端から下部方向にH
/4(Hは撮影範囲のY方向の高さ)の高さに対応する
矩形領域を頭部の領域Haとして設定する。
【0027】次に、移動ベクトル計算部34は、図2に
示すステップ102のオプティカルフローの計算によっ
て求めたベクトル画像Viの中で頭部の領域Haに含ま
れるものを抽出して平均し、頭部の移動ベクトルHvと
して設定する(ステップ204)。
【0028】(右腕に関する計算)次に、被写体の右腕
に関する計算が行われる。動作判定部28内の部位抽出
部32は、胴体領域よりも右側のシルエット画像Siが
含まれる矩形領域を右腕の領域Raとして設定する(ス
テップ205)。また、図8に示すように、部位抽出部
32は、シルエット画像Siの中の右腕の領域Raに含
まれる部分について重心位置Rgを計算し、さらにこの
重心位置Rgの画像全体における位置(絶対位置)を計
算し、右腕の位置Rpを計算する(ステップ206)。
【0029】次に、移動ベクトル計算部34は、図2に
示すステップ102のオプティカルフローの計算によっ
て求めたベクトル画像Viの中で右腕の領域Raに含ま
れるものを抽出して平均し、右腕の移動ベクトルRvと
して設定する(ステップ207)。
【0030】(左腕に関する計算)同様にして、被写体
の左腕に関する計算が行われる。動作判定部28内の部
位抽出部32は、胴体領域よりも左側のシルエット画像
Siが含まれる矩形領域を左腕の領域Laとして設定す
る(ステップ208)。また、部位抽出部32は、シル
エット画像Siの中の右腕の領域Laに含まれる部分に
ついて重心位置Lgを計算し、さらにこの重心位置Lg
の画像全体における位置(絶対位置)を計算し、左腕の
位置Lpを計算する(ステップ209)。
【0031】次に、移動ベクトル計算部34は、図2に
示すステップ102のオプティカルフローの計算によっ
て求めたベクトル画像Viの中で左腕の領域Laに含ま
れるものを抽出して平均し、左腕の移動ベクトルLvと
して設定する(ステップ210)。
【0032】図9は、図2のステップ104において被
写体に対応する所定のキャラクタを表示する詳細な手順
を示す流れ図である。(胴体に関する表示) まず、被写体の胴体に関する表示
処理が行われる。表示計算部30は、胴体の中心位置B
cを計算する(ステップ300)。具体的には、胴体の
中心位置Bcの座標(Bcx,Bcy)は以下の式によ
って計算される。
【0033】 Bcx=Bpx・m+Bvx・n Bcy=Bpy・o+Bvy・p ここで、m、n、o、pのそれぞれは、表示キャラクタ
を動きの反応の速さ(あるいは遅さ)を決めるパラメー
タであり、これらの値を大きくすることにより、被写体
の動きに敏感に反応して表示キャラクタを動かすことが
できる。例えば、m=1.7、n=0、o=0、p=
0.25に設定される。
【0034】次に、表示計算部30は、胴体の回転角B
rを設定する(ステップ301)。具体的には、回転角
Brは以下の式によって計算される。 Br=Bvx・q ここで、qは、表示キャラクタの反応の動きの反応の速
さを決めるパラメータであり、この値を大きくすること
により、被写体の横方向(X方向)の動きに敏感に反応
して表示キャラクタを回転させることができる。
【0035】次に、表示計算部30は、回転角Brだけ
回転させた特定のキャラクタ(図4に示した表示例では
大きな逆三角形の図形)を、その重心位置がステップ3
00で求めた座標(Bcx,Bcy)となる位置に表示
するため画像を生成する。このようにして、胴体に対応
するキャラクタがディスプレイ装置40の画面上に表示
される(ステップ302)。
【0036】(頭部に関する表示)次に、被写体の頭部
に関する表示処理が行われる。表示計算部30は、頭部
の中心位置Hcを計算する(ステップ303)。具体的
には、胴体の回転動作に伴って頭部の位置も回転する
が、さらに頭部の移動ベクトルHvを胴体の回転角Br
だけ回転させたベクトルHv′に対応させて頭部の中心
位置Hcが算出される。
【0037】また、表示計算部30は、ステップ303
で算出された中心位置Hcに、頭部に対応するキャラク
タ(図4に示した表示例では円)を表示するための画像
を生成する。このようにして、頭部に対応するキャラク
タがディスプレイ装置40の画面上に表示される(ステ
ップ304)。
【0038】(右腕に関する表示)次に、被写体の右腕
に関する表示処理が行われる。表示計算部30は、右腕
の付け根の位置を計算する(ステップ305)。具体的
には、表示計算部30は、胴体が中央で回転角0の状態
における右腕の付け根の位置ベクトルをRv0 とし、こ
の位置ベクトルRv0 を胴体の回転角Brだけ回転し、
さらに胴体の中心位置Bpを加算することにより、右腕
の付け根の表示位置Rv0 ′を計算する。
【0039】また、表示計算部30は、右腕の先端の位
置を計算する(ステップ306)。具体的には、以下の
式に基づいて、右腕の先端の位置Rp′が計算される。
Rp′=Rp+Bp次に、表示計算部30は、右腕の付
け根の位置Rv0 ′から先端の位置Rp′まで線を引く
とともに(ステップ307)、先端の位置Rp′に右腕
の移動ベクトルRvに対応した所定のキャラクタ(図4
に示した表示例では小さな三角形)を表示するための画
像を生成する(ステップ308)。このようにして、右
腕に対応する直線とその先端に付加される特定のキャラ
クタがディスプレイ装置40の画面上に表示される。
【0040】(左腕に関する表示)次に、被写体の左腕
に関する表示処理が行われる。表示計算部30は、左腕
の付け根の位置を計算する(ステップ309)。具体的
には、表示計算部30は、胴体が中央で回転角0の状態
における左腕の付け根の位置ベクトルをLv0 とし、こ
の位置ベクトルLv0 を胴体の回転角Brだけ回転し、
さらに胴体の中心位置Bpを加算することにより、左腕
の付け根の表示位置Lv0 ′を計算する。
【0041】また、表示計算部30は、左腕の先端の位
置を計算する(ステップ310)。具体的には、以下の
式を基づいて、左腕の先端の位置Lp′が計算される。
Lp′=Lp+Bp次に、表示計算部30は、左腕の付
け根の位置Lv0 ′から先端の位置Lp′まで線を引く
とともに(ステップ311)、先端の位置Lp′に左腕
の移動ベクトルLvに対応した所定のキャラクタ(図4
に示した表示例では小さな三角形)を表示するための画
像を生成する(ステップ312)。このようにして、左
腕に対応する直線とその先端に付加される特定のキャラ
クタがディスプレイ装置40の画面上に表示される。
【0042】このように、本実施形態の動作検出装置で
は、シルエット画像に基づいて被写体を構成する各部位
(胴体、頭部、腕等)を抽出し、それぞれの動きを検出
しているため、従来のように撮影範囲の所定領域に特定
の色の被写体が含まれるか否かによって被写体の動きを
検出する手法に比べて、被写体の詳細な動きを検出する
ことができる。また、被写体に対応したシルエット画像
を用いて動きの検出が行われるため、特定の着色がなさ
れた旗等を手に持つ必要がなく、特定の色をあらかじめ
決めておく等の手間を軽減するとともに、動き検出に際
しての煩雑な制限事項を低減することができる。
【0043】なお、本発明は上記実施形態に限定される
ものではなく、本発明の要旨の範囲内で種々の変形実施
が可能である。上述した実施形態では、被写体の動作内
容を検出して、その結果に応じて表示キャラクタを動か
すようにしたが、この動作検出の手法をゲーム装置やそ
の他の装置(例えばカラオケ装置))における入力装置
として用いることもできる。
【0044】図10は、本発明を適用した動作入力部1
20にゲーム装置100を接続した構成を示す図であ
る。動作入力部120は、シルエット抽出部22、撮影
画像格納部24、オプティカルフロー計算部26、動作
判定部28を含んで構成されている。この動作入力部1
20は、図1に示した動作検出処理部20の構成から表
示計算部30が取り除かれた構成を有している。すなわ
ち、動作判定部28内の移動ベクトル計算部34によっ
て、被写体の各部位に対応する移動ベクトルが計算さ
れ、この計算結果がゲーム装置100内のキャラクタ動
作設定部102に入力される。このキャラクタ動作設定
部102は、ゲームに登場する特定キャラクタ(例えば
プレーヤキャラクタ)の動作内容を、動作入力部120
から入力される移動ベクトルに応じて設定するためのも
のである。ゲーム処理部104は、キャラクタ動作設定
部102によって設定された特定キャラクタの動作内容
に応じたゲームの進行処理を行う。
【0045】図11は、本発明を適用した動作入力部1
20にカラオケ装置200を接続した構成を示す図であ
る。カラオケ装置200は、動作入力部120から入力
される移動ベクトルに応じて、図示しないディスプレイ
装置の画面上に特定のキャラクタを表示させる動作を行
う。例えば、利用者は、自分が選択した曲を歌いながら
振り付けをすると、その動作内容に応じた利用者の各部
位の動きに対応した移動ベクトルが動作入力部120か
らカラオケ装置200内のキャラクタ動作設定部202
に入力される。キャラクタ表示処理部204は、ディス
プレイ装置の画面上に表示する特定のキャラクタの画像
を生成するとともに、このキャラクタの各部位の動きを
動作入力部120から入力される移動ベクトルに基づい
て設定する。
【0046】また、上述した実施形態では、オプティカ
ルフロー計算部26は、撮影画像格納部24から読み出
したシルエット画像に基づいてオプティカルフローを計
算したが、被写体を撮影したときにカメラ10から出力
される画像データに基づいてオプティカルフローを計算
するようにしてもよい。
【0047】
【発明の効果】上述したように、本発明によれば、シル
エット画像に基づいて被写体を構成する各部位(胴体、
頭部、腕等)を抽出し、それぞれの動きを検出すること
により、被写体の詳細な動きを検出することができる。
【図面の簡単な説明】
【図1】一実施形態の動作検出装置の構成を示す図であ
る。
【図2】本実施形態の動作検出装置による被写体の動作
検出およびその結果表示に関する動作手順の概略を示す
流れ図である。
【図3】抽出されたシルエット画像の一例を示す図であ
る。
【図4】被写体の動きに合わせて各部が動くキャラクタ
の具体的な表示例を示す図である。
【図5】被写体の動きを計算する詳細な手順を示す流れ
図である。
【図6】胴体に対応する矩形領域の具体例を示す図であ
る。
【図7】頭部に対応する矩形領域の具体例を示す図であ
る。
【図8】右腕および左腕の領域の具体例を示す図であ
る。
【図9】被写体に対応する所定のキャラクタを表示する
詳細な手順を示す流れ図である。
【図10】ゲーム装置を用いた変形例の構成を示す図で
ある。
【図11】カラオケ装置を用いて変形例の構成を示す図
である。
【符号の説明】
10 カメラ 20 動作検出処理部 22 シルエット抽出部 24 撮影画像格納部 26 オプティカルフロー計算部 28 動作判定部 30 表示計算部 32 部位抽出部 34 移動ベクトル計算部 40 ディスプレイ装置
フロントページの続き (72)発明者 増山 隆司 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 Fターム(参考) 2C001 CA00 CA08 CA09 5C054 CA04 CC03 CG08 EA05 FA00 FC00 FC13 FC15 HA15 5L096 CA02 FA32 FA60 FA62 GA19 GA51 HA04

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 所定の撮影範囲に含まれる検出対象物と
    しての被写体を撮影する撮影手段と、 前記撮影手段によって撮影された画像に基づいて、前記
    被写体のシルエット画像を生成するシルエット抽出手段
    と、 前記シルエット画像に基づいて、前記被写体を構成する
    各部位を抽出する部位抽出手段と、 前記部位抽出手段によって抽出された複数の前記部位の
    それぞれの動きを検出する動き検出手段と、 を備えることを特徴とする動作検出装置。
  2. 【請求項2】 請求項1において、 前記部位抽出手段は、前記部位の抽出動作を、前記シル
    エット画像の撮影位置に基づいて行うことを特徴とする
    動作検出装置。
  3. 【請求項3】 請求項1において、 前記部位抽出手段は、前記部位の抽出動作を、前記シル
    エット画像の重心位置を基準として行うことを特徴とす
    る動作検出装置。
  4. 【請求項4】 請求項1〜3のいずれかにおいて、 前記動き検出手段は、複数の前記部位のそれぞれに対応
    する所定の時間間隔に対応する移動量を移動ベクトルと
    して計算することにより、複数の前記部位のそれぞれの
    動きの検出を行うことを特徴とする動作検出装置。
  5. 【請求項5】 請求項1〜3のいずれかにおいて、 前記動き検出手段は、複数の前記部位のそれぞれに対応
    する部分的な前記シルエット画像を構成する複数の微小
    領域毎の移動ベクトルを計算し、この移動ベクトルを複
    数の前記部位のそれぞれについて平均することにより動
    きの検出動作を行うことを特徴とする動作検出装置。
  6. 【請求項6】 請求項1〜3のいずれかにおいて、 前記動き検出手段は、前記撮影手段によって撮影された
    画像であって、複数の前記部位のそれぞれに対応する部
    分的な前記画像を構成する複数の微小領域毎の移動ベク
    トルを計算し、この移動ベクトルを複数の前記部位のそ
    れぞれについて平均することにより動きの検出動作を行
    うことを特徴とする動作検出装置。
  7. 【請求項7】 所定の撮影範囲に含まれる検出対象物と
    しての被写体を撮影する第1のステップと、 前記第1のステップにおいて撮影された画像に基づい
    て、前記被写体のシルエット画像を生成する第2のステ
    ップと、 前記シルエット画像に基づいて、前記被写体を構成する
    各部位を抽出する第3のステップと、 前記第3のステップにおいて抽出された複数の前記部位
    のそれぞれの動きを、各部位に対応する部分的な領域の
    時間的な変化の状態に基づいて検出する第4のステップ
    と、 を有することを特徴とする動作検出方法。
  8. 【請求項8】 所定の撮影範囲に含まれる検出対象物と
    しての被写体を撮影してシルエット画像を生成し、この
    シルエット画像に基づいて前記被写体を構成する各部位
    を抽出するとともに、この各部位に対応する部分的な領
    域の時間的な変化の状態に基づいて各部位の動きを検出
    するプログラムを含むことを特徴とする情報記憶媒体。
  9. 【請求項9】 請求項1〜6のいずれかの動作検出装置
    によって検出された前記被写体の各部位の動きを、ゲー
    ムに登場するキャラクタの動作に反映させたことを特徴
    とするゲーム装置。
  10. 【請求項10】 請求項1〜6のいずれかの動作検出装
    置によって検出された前記被写体の各部位の動きを、カ
    ラオケ画面に表示するキャラクタの動作に反映させたこ
    とを特徴とするカラオケ装置。
JP2000187467A 2000-06-22 2000-06-22 動作検出装置、動作検出方法および情報記憶媒体 Pending JP2002008041A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000187467A JP2002008041A (ja) 2000-06-22 2000-06-22 動作検出装置、動作検出方法および情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000187467A JP2002008041A (ja) 2000-06-22 2000-06-22 動作検出装置、動作検出方法および情報記憶媒体

Publications (1)

Publication Number Publication Date
JP2002008041A true JP2002008041A (ja) 2002-01-11

Family

ID=18687439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000187467A Pending JP2002008041A (ja) 2000-06-22 2000-06-22 動作検出装置、動作検出方法および情報記憶媒体

Country Status (1)

Country Link
JP (1) JP2002008041A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030065620A (ko) * 2002-01-30 2003-08-09 대한민국(전남대학교총장) 가상게임시스템의 동작인식장치 및 방법
JP2005018655A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 運転者行動推定装置
JP2005018654A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 脇見状態検出装置
JP2010233671A (ja) * 2009-03-30 2010-10-21 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US20110110585A1 (en) * 2009-11-10 2011-05-12 Samsung Electronics Co., Ltd. Image processing apparatus, method and computer-readable medium
JP2011118891A (ja) * 2009-12-01 2011-06-16 Honda Research Inst Europe Gmbh 追跡モデル化レベルの知識ベースの自律的適応を用いた多物体追跡
US8000500B2 (en) 2006-12-07 2011-08-16 Electronics And Telecommunications Research Institute System and method for analyzing of human motion based on silhouettes of real time video stream
WO2011158599A1 (ja) * 2010-06-14 2011-12-22 株式会社セガ ビデオゲーム装置、ビデオゲーム制御プログラム、ビデオゲーム制御方法
US8098292B2 (en) 2004-09-29 2012-01-17 Casio Computer Co., Ltd. Method of capturing still image during capture of moving image and image capture apparatus
KR101145352B1 (ko) * 2010-03-12 2012-05-14 주식회사 금영 동작인식 기반의 노래반주기용 화면에서의 인터액티브 효과 표출방법
JP2013058899A (ja) * 2011-09-08 2013-03-28 Toshiba Corp 監視装置、その方法、及び、そのプログラム
KR101285076B1 (ko) 2011-09-09 2013-07-17 동국대학교 산학협력단 인간의 행동을 모방하는 가상 객체를 이용한 통신 방법 및 그 방법에 따른 통신 시스템
JP2022531029A (ja) * 2020-04-01 2022-07-06 センスタイム インターナショナル ピーティーイー.リミテッド 画像認識方法、装置及び記憶媒体

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030065620A (ko) * 2002-01-30 2003-08-09 대한민국(전남대학교총장) 가상게임시스템의 동작인식장치 및 방법
JP2005018655A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 運転者行動推定装置
JP2005018654A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 脇見状態検出装置
US8098292B2 (en) 2004-09-29 2012-01-17 Casio Computer Co., Ltd. Method of capturing still image during capture of moving image and image capture apparatus
US8000500B2 (en) 2006-12-07 2011-08-16 Electronics And Telecommunications Research Institute System and method for analyzing of human motion based on silhouettes of real time video stream
JP2010233671A (ja) * 2009-03-30 2010-10-21 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US20110110585A1 (en) * 2009-11-10 2011-05-12 Samsung Electronics Co., Ltd. Image processing apparatus, method and computer-readable medium
US8355568B2 (en) * 2009-11-10 2013-01-15 Samsung Electronics Co., Ltd. Image processing apparatus, method and computer-readable medium
JP2011118891A (ja) * 2009-12-01 2011-06-16 Honda Research Inst Europe Gmbh 追跡モデル化レベルの知識ベースの自律的適応を用いた多物体追跡
KR101145352B1 (ko) * 2010-03-12 2012-05-14 주식회사 금영 동작인식 기반의 노래반주기용 화면에서의 인터액티브 효과 표출방법
WO2011158599A1 (ja) * 2010-06-14 2011-12-22 株式会社セガ ビデオゲーム装置、ビデオゲーム制御プログラム、ビデオゲーム制御方法
US9492748B2 (en) 2010-06-14 2016-11-15 Kabushiki Kaisha Sega Video game apparatus, video game controlling program, and video game controlling method
JP2013058899A (ja) * 2011-09-08 2013-03-28 Toshiba Corp 監視装置、その方法、及び、そのプログラム
KR101285076B1 (ko) 2011-09-09 2013-07-17 동국대학교 산학협력단 인간의 행동을 모방하는 가상 객체를 이용한 통신 방법 및 그 방법에 따른 통신 시스템
JP2022531029A (ja) * 2020-04-01 2022-07-06 センスタイム インターナショナル ピーティーイー.リミテッド 画像認識方法、装置及び記憶媒体

Similar Documents

Publication Publication Date Title
US9196093B2 (en) Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
JP3847753B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP6587421B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5388932B2 (ja) 情報処理装置およびその制御方法
US20040233224A1 (en) Image processor, image processing method, recording medium, computer program and semiconductor device
JP2007042072A (ja) 追跡装置
JP4739870B2 (ja) サングラス検出装置及び顔中心位置検出装置
JP4130820B2 (ja) 顔中心位置検出装置及び方法並びにプログラム
JP2002008041A (ja) 動作検出装置、動作検出方法および情報記憶媒体
JP2004094491A (ja) 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム
JP7164968B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2011254411A (ja) 映像投影システムおよび映像投影プログラム
JP2020053774A (ja) 撮像装置および画像記録方法
JP2006333009A (ja) 俯瞰画像表示装置及び俯瞰画像表示方法
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
KR101308184B1 (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JPH11250273A (ja) 画像合成装置
JP7343237B2 (ja) 追跡方法
JP2004280156A (ja) 画像処理方法、シミュレーション装置、プログラム及び記録媒体
JP2667885B2 (ja) 移動物体の自動追尾装置
JP2002077586A (ja) 画像印刷装置
JP2010219645A (ja) 撮影補助装置、プログラムおよび撮影システム
JP7323234B2 (ja) ガイド方法