JP2001025032A - 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体 - Google Patents

動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体

Info

Publication number
JP2001025032A
JP2001025032A JP11190137A JP19013799A JP2001025032A JP 2001025032 A JP2001025032 A JP 2001025032A JP 11190137 A JP11190137 A JP 11190137A JP 19013799 A JP19013799 A JP 19013799A JP 2001025032 A JP2001025032 A JP 2001025032A
Authority
JP
Japan
Prior art keywords
data
time
user
projector
transmission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11190137A
Other languages
English (en)
Inventor
Kenichi Kida
憲一 木田
Masayuki Ihara
雅行 井原
Shinichi Shiwa
新一 志和
Satoshi Ishibashi
聡 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP11190137A priority Critical patent/JP2001025032A/ja
Publication of JP2001025032A publication Critical patent/JP2001025032A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 画像処理および解析に要する時間を短縮し、
動作認識の信頼性を向上させる。 【解決手段】 入出力装置3からプロジェクター4−1
〜4−Mに高輝度の映像データ、例えば白色の映像デー
タを出力し、スクリーン6で囲まれた空間を明るくす
る。入出力装置3は、カメラ7−1〜7−Nで取り込ん
だ画像のうち明るさが所定の条件に合致した画像のみを
処理対象として選択する。プロジェクター4−1〜4−
Mが映像データを受信するのと同時に、液晶シャッタ眼
鏡1に制御データを受信させ、眼鏡1の両眼のシャッタ
を閉じる。これにより、使用者の視覚に影響を及ぼすこ
となく、明るい画像を取り込む。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、立体視を用いた仮
想現実システムにおいて使用者の実時間動作を認識する
動作認識方法、動作認識装置及び動作認識プログラムを
記録した記録媒体に関するものである。
【0002】
【従来の技術】従来より、架空の世界を構築し、この世
界を現実のように知覚させる仮想現実システムが提案さ
れている。この仮想現実システムでは、1つまたは複数
のスクリーンを配置し、使用者を映像で囲むような構造
になっている。使用者は、立体視眼鏡である液晶シャッ
タ眼鏡を装着するため、スクリーンに映る仮想空間を立
体的に見ることができる。このとき、使用者の実時間動
作を認識し、この動作を仮想空間に反映させることで、
使用者は、仮想空間を擬似的に体験することができる。
【0003】このような仮想現実システムでは、モーシ
ョンキャプチャ(Motion Capture)を用いて使用者の動
作を認識している。モーションキャプチャは、人体に取
り付けた複数の磁気センサ等によって3次元空間での人
体の動き(各関節の動き)を連続的に測定し、デジタル
データとして取り込むための装置である。モーションキ
ャプチャを使用すれば、使用者の動作を実時間で認識す
ることが可能である。しかし、この方法では、肩、肘と
いった人体の各関節点にセンサを装着する必要があり、
これら複数のセンサとの接続のために複数のケーブルが
必要となる。したがって、使用者の動きがケーブルによ
って制限されるという問題点があり、さらに他の磁気の
影響を受けると、正しく測定できないという問題点があ
った。
【0004】これに対して、互いに異なる方向から撮像
するように設置された複数のカメラで画像を取り込み、
取り込んだ画像を処理して解析することにより、使用者
の動作を認識する方法がある。この方法では、使用者の
動きを制限しないため、自由な動作が可能である。しか
し、仮想現実システムでは、スクリーンに映像を投影す
る関係上、周囲にスクリーンが配置された、使用者を収
容する空間の照明を暗くしている。このため、カメラで
撮像する画像も全体的に暗くなり、使用者の領域を抽出
することが難しくなるので、画像処理および解析に長時
間を必要とするという問題点があり、さらに動作認識の
信頼性が低いという問題点があった。
【0005】
【発明が解決しようとする課題】以上のように従来の仮
想現実システムでは、モーションキャプチャを用いて使
用者の動作を認識しようとすると、使用者の動きがケー
ブルによって制限されるという問題点があり、他の磁気
の影響を受けると、正しく測定できないという問題点が
あった。また、画像処理によって使用者の動作を認識し
ようとすると、画像処理および解析に長時間を必要と
し、動作認識の信頼性が低くなるという問題点があっ
た。本発明は、上記課題を解決するためになされたもの
で、使用者の動きを制限しない画像処理を用いて使用者
の動作を認識する際に、画像処理および解析に要する時
間を短縮することができ、動作認識の信頼性を向上させ
ることができる動作認識方法、動作認識装置及び動作認
識プログラムを記録した記録媒体を提供することを目的
とする。
【0006】
【課題を解決するための手段】本発明の動作認識方法
は、予め用意された映像データを送信する送信過程(ス
テップ103〜112)と、映像データをプロジェクタ
ーで受信してスクリーンに投影する投影過程(ステップ
116,117)と、仮想現実システム内の上記使用者
を含む空間の画像を複数のカメラにより取り込む画像取
込過程(ステップ118)と、取り込んだ画像情報を送
信する送信過程(ステップ119)と、カメラから送信
された画像情報を受信する受信過程(ステップ120)
と、予め用意された画像情報に含まれる複数画素の階調
値と受信した画像情報に含まれる複数画素の階調値とを
画素ごとに比較し、その差分値がしきい値以下である画
素の数が所定数以上であるとき、上記受信画像を処理対
象として選択する選択過程(ステップ121)と、選択
した画像から使用者の領域を抽出する領域抽出過程(ス
テップ122)と、各画像より抽出した使用者の領域を
身体部位ごとに分割する領域分割過程(ステップ12
3)と、同一身体部位を含む複数画像に基づき使用者の
各身体部位の3次元位置を求める位置検出過程(ステッ
プ124)と、使用者の各身体部位の3次元位置を基に
使用者の動作を推測する動作推測過程(ステップ12
5)とを有するものである。本発明の動作認識方法で
は、プロジェクターに高輝度の映像データ、例えば白色
の映像データを出力することにより、仮想現実システム
内の上記使用者を含む空間が明るくなるので、カメラで
得られる画像が明るい画像となる。そして、選択過程に
おいて、明るさが所定の条件に合致した画像のみを処理
対象として選択する。これにより、使用者と背景との間
の階調値の差を従来よりも大きくすることができる。
【0007】また、上述の動作認識方法は、上記送信過
程の前に、映像データをプロジェクターに送るのに必要
な伝送遅延時間を測定すると共に、立体視眼鏡のシャッ
タの開閉を制御する制御データを立体視眼鏡に送るのに
必要な伝送遅延時間を測定する測定過程(ステップ10
0,101)を有し、上記送信過程は、測定した伝送遅
延時間に基づいて、プロジェクターが映像データを受信
する時刻と立体視眼鏡が制御データを受信する時刻とが
同時になるように各データを送信するものであり、制御
データを受信した立体視眼鏡が両眼のシャッタを同時に
閉じる制御過程(ステップ114)を有するものであ
る。このように、プロジェクターが映像データを受信す
るのと同時に、立体視眼鏡が制御データを受信するの
で、このとき立体視眼鏡の両眼のシャッタが閉じた状態
となる。また、上記測定過程は、プロジェクターおよび
立体視眼鏡用に予め用意された各送信データをプロジェ
クターと立体視眼鏡に送信するデータ送信過程と、デー
タを送信した送信時刻を記憶する送信時刻記憶過程と、
データを受信したプロジェクターおよび立体視眼鏡が即
時に送り返したデータを受信するデータ受信過程と、デ
ータを受信した受信時刻を記憶する受信時刻記憶過程
と、受信データをプロジェクターあるいは立体視眼鏡の
どちらが返信したのかを識別するデータ識別過程と、識
別したデータの受信時刻から同データの送信時刻を引い
て差分時間を求め、その1/2の時間を上記伝送遅延時
間として算出する遅延時間算出過程とを備えるものであ
る。
【0008】また、本発明の動作認識装置は、予め用意
された映像データをプロジェクターに送信する送信手段
(303)と、仮想現実システム内の上記使用者を含む
空間の画像を取り込んだ複数のカメラより画像情報を受
信する受信手段(310)と、予め用意された画像情報
に含まれる複数画素の階調値と受信した画像情報に含ま
れる複数画素の階調値とを画素ごとに比較し、その差分
値がしきい値以下である画素の数が所定数以上であると
き、上記受信画像を処理対象として選択する選択手段
(311)と、選択した画像から使用者の領域を抽出す
る領域抽出手段(312−1〜312−N)と、各画像
より抽出した使用者の領域を身体部位ごとに分割する領
域分割手段(313−1〜313−N)と、同一身体部
位を含む複数画像に基づき使用者の各身体部位の3次元
位置を求める位置検出手段(314)と、使用者の各身
体部位の3次元位置を基に使用者の動作を推測する動作
推測手段(315)とを有するものである。また、上述
の動作認識装置の1構成例は、上記送信手段が映像デー
タを送信する前に、映像データをプロジェクターに送る
のに必要な伝送遅延時間を測定すると共に、立体視眼鏡
が両目のシャッタを同時に閉じるよう制御するための制
御データを立体視眼鏡に送るのに必要な伝送遅延時間を
測定する測定手段(300)を有し、上記送信手段は、
測定手段が測定した伝送遅延時間に基づいて、プロジェ
クターが映像データを受信する時刻と立体視眼鏡が制御
データを受信する時刻とが同時になるように各データを
送信するものである。また、上述の動作認識装置の1構
成例として、上記測定手段は、プロジェクターおよび立
体視眼鏡用に予め用意された各送信データをプロジェク
ターと立体視眼鏡に送信し、データを送信した送信時刻
を記憶し、データを受信したプロジェクターおよび立体
視眼鏡が即時に送り返したデータを受信し、データを受
信した受信時刻を記憶し、受信データをプロジェクター
あるいは立体視眼鏡のどちらが返信したのかを識別し、
識別したデータの受信時刻から同データの送信時刻を引
いて差分時間を求め、その1/2の時間を上記伝送遅延
時間として算出するものである。
【0009】また、本発明の動作認識プログラムを記録
した記録媒体は、予め用意された映像データをプロジェ
クターに送信する送信過程と、仮想現実システム内の上
記使用者を含む空間の画像を取り込んだ複数のカメラよ
り画像情報を受信する受信過程と、予め用意された画像
情報に含まれる複数画素の階調値と受信した画像情報に
含まれる複数画素の階調値とを画素ごとに比較し、その
差分値がしきい値以下である画素の数が所定数以上であ
るとき、上記受信画像を処理対象として選択する選択過
程と、選択した画像から使用者の領域を抽出する領域抽
出過程と、各画像より抽出した使用者の領域を身体部位
ごとに分割する領域分割過程と、同一身体部位を含む複
数画像に基づき使用者の各身体部位の3次元位置を求め
る位置検出過程と、使用者の各身体部位の3次元位置を
基に使用者の動作を推測する動作推測過程とをコンピュ
ータに実行させるための動作認識プログラムを記録した
ものである。また、上述の動作認識プログラムは、上記
送信過程の前に、映像データをプロジェクターに送るの
に必要な伝送遅延時間を測定すると共に、立体視眼鏡が
両目のシャッタを同時に閉じるよう制御するための制御
データを立体視眼鏡に送るのに必要な伝送遅延時間を測
定する測定過程を有し、上記送信過程は、測定した伝送
遅延時間に基づいて、プロジェクターが映像データを受
信する時刻と立体視眼鏡が制御データを受信する時刻と
が同時になるように各データを送信するようにしたもの
である。また、上述の動作認識プログラムの1構成例と
して、上記測定過程は、プロジェクターおよび立体視眼
鏡用に予め用意された各送信データをプロジェクターと
立体視眼鏡に送信するデータ送信過程と、データを送信
した送信時刻を記憶する送信時刻記憶過程と、データを
受信したプロジェクターおよび立体視眼鏡が即時に送り
返したデータを受信するデータ受信過程と、データを受
信した受信時刻を記憶する受信時刻記憶過程と、受信デ
ータをプロジェクターあるいは立体視眼鏡のどちらが返
信したのかを識別するデータ識別過程と、識別したデー
タの受信時刻から同データの送信時刻を引いて差分時間
を求め、その1/2の時間を上記伝送遅延時間として算
出する遅延時間算出過程とを備えるものである。
【0010】
【発明の実施の形態】[実施の形態の1]次に、本発明
の実施の形態について図面を参照して詳細に説明する。
図1は、本発明の第1の実施の形態となる仮想現実シス
テムの構成を示すブロック図である。図1の仮想現実シ
ステムは、システム内に実在する使用者が装着する立体
視眼鏡である液晶シャッタ眼鏡1と、磁界発生源である
トランスミッタ2と、システム全体を制御する入出力装
置(動作認識装置)3と、映像をスクリーンに投影する
ためのプロジェクター4−1〜4−Mと、プロジェクタ
ー4−1〜4−Mからの光を反射する鏡5と、スクリー
ン6と、スクリーン6に囲まれた使用者を撮像する複数
のカメラ7−1〜7−Nとから構成されている。
【0011】なお、図1では、複数のプロジェクター4
−1〜4−Mのうち、4−1,4−Mのみを記載し、複
数のカメラ7−1〜7−Nのうち、7−1,7−Nのみ
を記載している。立体視を用いた仮想現実システムは、
例えば前方のスクリーンの他に上下左右にもスクリーン
を配置して、使用者を映像で囲むような構造になってい
る。使用者は、液晶シャッタ眼鏡1を装着するため、あ
たかもその世界の中に入り込んでいるかのような高い現
実感を得ることができる。
【0012】液晶シャッタ眼鏡1は、天井から吊り下げ
られたケーブルによって入出力装置3と接続されてい
る。液晶シャッタ眼鏡1には、トランスミッタ2から発
生した磁界を検出する磁気センサが取り付けられてい
る。この磁気センサは、検出した磁界に基づいて自身の
3次元位置を検出し、3次元位置情報を入出力装置3に
送信する。
【0013】図2は、液晶シャッタ眼鏡1の外観を示す
図である。未使用時の液晶シャッタ眼鏡1は、図2
(a)のように両眼ともシャッタが開いている。これに
対して使用時には、図2(b)のように右眼のシャッタ
を閉じた状態と、図2(c)のように左眼のシャッタを
閉じた状態とを交互に繰り返す。そして、本発明におけ
る液晶シャッタ眼鏡1は、後述する制御データを受信し
たとき、図2(d)のように両眼のシャッタを閉じる。
【0014】入出力装置3は、カメラ7−1〜7−Nか
ら送信された画像情報を受信し、この画像情報に応じた
映像データをプロジェクター4−1〜4−Mに出力す
る。プロジェクター4−1〜4−Mは、入出力装置3か
ら出力された映像データを光情報に変換して鏡5に投影
する。鏡5は、プロジェクター4−1〜4−Mからの光
を反射してスクリーン6に投影する。
【0015】入出力装置3から出力される映像データ
は、左右の眼に異なる映像を提示するデータとなってお
り、この映像をスクリーン6に投影することにより、液
晶シャッタ眼鏡1を装着した使用者に立体感を与え、立
体感のある仮想空間を使用者に提示することが可能とな
る。
【0016】次に、以上のような仮想現実システムの動
作を説明する。図3は、液晶シャッタ眼鏡1、プロジェ
クター4−1〜4−M、カメラ7−1〜7−N及び入出
力装置3のブロック図、図4(a)は、入出力装置3の
出力手段30のブロック図、図4(b)は、入出力装置
3の入力手段31のブロック図である。
【0017】また、図5(a)は、入出力装置3の初期
時の動作を示すフローチャート図、図5(b)は、入出
力装置3の通常時の動作を示すフローチャート図、図6
(a)は、液晶シャッタ眼鏡1の動作を示すフローチャ
ート図、図6(b)は、プロジェクター4−1〜4−M
の動作を示すフローチャート図、図6(c)は、カメラ
7−1〜7−Nの動作を示すフローチャート図、図6
(d)は、入出力装置3の画像情報受信時の動作を示す
フローチャート図である。
【0018】液晶シャッタ眼鏡1は、入出力装置3から
送信された制御データを受信する受信手段10と、制御
データを受信したとき両眼のシャッタを同時に閉じる制
御手段11とを有している。プロジェクタ4−1〜4−
Mは、入出力装置3から送信された映像データを受信す
る受信手段40−1〜40−Mと、受信した映像データ
を光情報に変換して鏡5に投影する投影手段41−1〜
41−Mとを有している。
【0019】スクリーン6に囲まれた空間を互いに異な
る方向から撮像するように設置されたカメラ7−1〜7
−Nは、画像を取り込む画像取込手段70−1〜70−
Nと、取り込んだ画像情報を送信する送信手段71−1
〜71−Nとを有している。
【0020】入出力装置3は、出力手段30と、入力手
段31と、映像記憶手段32とを有している。出力手段
30は、測定手段300と、差分算出手段301と、制
御データ記憶手段302と、送信手段303とを備えて
いる。そして、入力手段31は、受信手段310と、選
択手段311と、領域抽出手段312−1〜312−N
と、領域分割手段313−1〜313−Nと、位置検出
手段314と、動作推測手段315とを備えている。な
お、領域抽出手段312−1〜312−Nと領域分割手
段313−1〜313−Nは、カメラ7−1〜7−Nご
とに設けられている。
【0021】まず、初期動作時、入出力装置3の出力手
段30内の測定手段300は、映像データをプロジェク
ター4−1〜4−Mに送るのに必要な伝送遅延時間を測
定する(図5ステップ100)。この測定は、以下のよ
うに行われる。測定手段300は、使用者によって予め
設定されたプロジェクター4−1〜4−M用の送信デー
タを記憶しており、この送信データを送信手段303を
介してプロジェクター4−1〜4−Mへ送信し(データ
送信過程)、送信時刻を記憶する(送信時刻記憶過
程)。
【0022】プロジェクター4−1〜4−Mの受信手段
40−1〜40−Mは、入出力装置3からの送信データ
を受信すると、これを直ちに送り返す(データ返信過
程)。測定手段300は、プロジェクター4−1〜4−
Mが返信したデータを受信すると(データ受信過程)、
受信時刻を記憶する(受信時刻記憶過程)。続いて、測
定手段300は、受信データの種類により、この受信デ
ータを返信した返信元を識別する(データ識別過程)。
【0023】そして、測定手段300は、識別したデー
タの送信時刻を送信時刻記憶過程により求めると共に、
同データの受信時刻を受信時刻記憶過程により求め、受
信時刻から送信時刻を引いて差分時間を求め、その1/
2の時間をプロジェクター4−1〜4−Mへの映像デー
タ送信に要する伝送遅延時間とする(遅延時間算出過
程)。
【0024】次に、測定手段300は、制御データを液
晶シャッタ眼鏡1に送るのに必要な伝送遅延時間を測定
する(ステップ101)。この測定は、以下のように行
われる。測定手段300は、使用者によって予め設定さ
れた液晶シャッタ眼鏡1用の送信データを記憶してお
り、この送信データを送信手段303を介して液晶シャ
ッタ眼鏡1へ送信し(データ送信過程)、送信時刻を記
憶する(送信時刻記憶過程)。
【0025】液晶シャッタ眼鏡1の受信手段10は、入
出力装置3からの送信データを受信すると、これを直ち
に送り返す(データ返信過程)。測定手段300は、液
晶シャッタ眼鏡1が返信したデータを受信すると(デー
タ受信過程)、受信時刻を記憶する(受信時刻記憶過
程)。続いて、測定手段300は、受信データの種類に
より、この受信データを返信した返信元を識別する(デ
ータ識別過程)。
【0026】そして、測定手段300は、識別したデー
タの送信時刻を送信時刻記憶過程により求めると共に、
同データの受信時刻を受信時刻記憶過程により求め、受
信時刻から送信時刻を引いて差分時間を求め、その1/
2の時間を液晶シャッタ眼鏡1への制御データ送信に要
する伝送遅延時間とする(遅延時間算出過程)。
【0027】次に、入出力装置3の出力手段30内の差
分算出手段301は、液晶シャッタ眼鏡1までの伝送遅
延時間からプロジェクター4−1〜4−Mまでの伝送遅
延時間を引いた差分時間を算出すると共に、測定した全
伝送遅延時間中の最大値との差分時間を各伝送遅延時間
ごとに算出する(ステップ102)。なお、伝送遅延時
間は、各プロジェクター4−1〜4−Mごとに異なるの
で、差分時間もプロジェクター4−1〜4−Mごとに算
出する。以上で、入出力装置3の初期時の動作が終了す
る。
【0028】次に、通常時の動作について説明する。映
像記憶手段32には、スクリーン6に囲まれた空間を明
るくするための輝度の高い映像データ、例えば白色の映
像データが予め設定されており、制御データ記憶手段3
02には、制御データが予め設定されている。
【0029】入出力装置3の出力手段30内の送信手段
303は、使用者が予め定めた一定時間だけ待機した後
(図5ステップ103)、各プロジェクター4−1〜4
−Mが高輝度の映像データを受信する時刻と、液晶シャ
ッタ眼鏡1が制御データを受信する時刻とが同時になる
ように各データを送信する。
【0030】この送信手段303の動作について以下に
説明する。まず、送信手段303は、未送信の送信先の
うち上述の伝送遅延時間が最大のものを探す(ステップ
104)。続いて、送信手段303は、伝送遅延時間が
同一の送信先が複数あるかどうかを判断する(ステップ
105)。
【0031】伝送遅延時間が最大の送信先が単数である
場合、送信手段303は、2番目以降の送信であるか否
かを判断する(ステップ106)。ここでは、1番最初
の送信なので、送信手段303は、伝送遅延時間が最大
の送信先にデータを送信する(ステップ107)。
【0032】例えば、液晶シャッタ眼鏡1までの伝送遅
延時間が最大の場合、送信手段303は、制御データ記
憶手段302に記憶された制御データを液晶シャッタ眼
鏡1に送信する。また、プロジェクター4−1〜4−M
中の何れか1つまでの伝送遅延時間が最大の場合、送信
手段303は、映像記憶手段32に記憶された高輝度の
映像データを該当プロジェクタに送信する。
【0033】一方、ステップ105において伝送遅延時
間が最大の送信先が複数ある場合、送信手段303は、
2番目以降の送信であるか否かを判断する(ステップ1
09)。ここでは、1番最初の送信なので、送信手段3
03は、伝送遅延時間が最大の複数の送信先にデータを
同時に送信する(ステップ110)。
【0034】例えば、液晶シャッタ眼鏡1までの伝送遅
延時間が最大で、かつこれと同一の伝送遅延時間を有す
る送信先がプロジェクター4−1〜4−M中に存在する
場合、送信手段303は、映像記憶手段32に記憶され
た高輝度の映像データを該当プロジェクタに送信すると
同時に、制御データ記憶手段302に記憶された制御デ
ータを液晶シャッタ眼鏡1に送信する。また、伝送遅延
時間が最大の送信先がプロジェクター4−1〜4−M内
に複数存在する場合、送信手段303は、これらのプロ
ジェクターへ高輝度の映像データを同時に送信する。
【0035】ステップ107あるいはステップ110の
処理終了後、未送信の送信先が残っている場合は、ステ
ップ104に戻る。上記と同様に、送信手段303は、
未送信の送信先のうち伝送遅延時間が最大のものを探し
(ステップ104)、これと伝送遅延時間が同一の送信
先が他にあるかどうかを判断する(ステップ105)。
【0036】伝送遅延時間が最大の送信先が単数である
場合、送信手段303は、2番目以降の送信であるか否
かを判断する(ステップ106)。ここでは、2番目の
送信なので、送信手段303は、1番最初の送信先まで
の伝送遅延時間と今回の送信先までの伝送遅延時間との
間の差分時間だけ経過した後に(ステップ108)、今
回の送信先にデータを送信する(ステップ107)。
【0037】ステップ105において伝送遅延時間が最
大の送信先が複数ある場合、送信手段303は、2番目
以降の送信であるか否かを判断する(ステップ10
9)。ここでは、2番目の送信なので、送信手段303
は、1番最初の送信先までの伝送遅延時間と今回の送信
先までの伝送遅延時間との間の差分時間だけ経過した後
に(ステップ111)、今回の複数の送信先にデータを
同時に送信する(ステップ110)。
【0038】ステップ107あるいはステップ110の
処理終了後、未送信の送信先が残っている場合は、ステ
ップ104に戻る。全ての送信先、すなわち液晶シャッ
タ眼鏡1及びプロジェクター4−1〜4−Mにデータを
送信し終えるまで、ステップ104〜112の処理を繰
り返す。
【0039】こうして、伝送遅延時間が最大の送信先に
データを送信した後、この送信先との差分時間分だけ遅
らせながら各データを送信することにより、液晶シャッ
タ眼鏡1が制御データを受信する時刻と各プロジェクタ
ー4−1〜4−Mが高輝度の映像データを受信する時刻
とを同時刻にすることができる。なお、図5(b)で説
明した動作は、ステップ103の処理により一定時間ご
とに繰り返される。
【0040】次に、液晶シャッタ眼鏡1の受信手段10
は、入出力装置3が送信した制御データを受信する(図
6ステップ113)。液晶シャッタ眼鏡1の制御手段1
1は、受信手段10が制御データを受信した場合、両眼
のシャッタを同時に閉じる(ステップ114)。また、
制御手段11は、制御データを受信しない場合(ステッ
プ113においてNO)、両眼のシャッタを交互に閉じ
る(ステップ115)。
【0041】一方、各プロジェクター4−1〜4−Mの
受信手段40−1〜40−Mは、入出力装置3が送信し
た映像データを受信する(図6ステップ116)。各プ
ロジェクター4−1〜4−Mの投影手段41−1〜41
−Mは、受信手段40−1〜40−Mが受信した映像デ
ータを光情報に変換して鏡5に投影する(ステップ11
7)。入出力装置3からの映像データを受信しない場
合、投影手段41−1〜41−Mは待機する(ステップ
116においてNO)。
【0042】次に、各カメラ7−1〜7−Nの画像取込
手段70−1〜70−Nは、スクリーン6に囲まれた空
間の画像を取り込む(図6ステップ118)。そして、
送信手段71−1〜71−Nは、画像取込手段70−1
〜70−Nによって取り込まれた画像情報を入出力装置
3に送信する(ステップ119)。各カメラ7−1〜7
−Nは、このような動作を常時繰り返している。
【0043】次に、入出力装置3の入力手段31内の受
信手段310は、カメラ7−1〜7−Nから送信された
画像情報を受信する(図6ステップ120)。受信手段
310は、画像情報を受信しない場合、これらを受信す
るまで待機状態となる。
【0044】画像情報を受信すると、入力手段31内の
選択手段311は、受信した画像情報が所定の条件に合
致するか否かを判断する(ステップ121)。つまり、
選択手段311は、映像記憶手段32に予め記憶された
画像情報に含まれる所定位置の複数画素の階調値(輝度
値)と、受信した画像情報に含まれる同位置の複数画素
の階調値とを画素ごとに比較し、その差分値を画素ごと
に求める。
【0045】そして、選択手段311は、差分値がしき
い値以下である画素の数が所定数以上であるとき、受信
した画像を処理対象として選択し、次のステップ122
に進み、差分値がしきい値以下である画素の数が所定数
より少ないとき、処理を終了する。選択手段311は、
このような判断を各カメラ7−1〜7−Nから受信した
画像ごとに行う。
【0046】続いて、領域抽出手段312−1〜312
−Nは、選択手段311が選択した各画像中より使用者
の領域を抽出する(ステップ122)。使用者の領域を
抽出するには、平滑化フィルタ処理により画像上のノイ
ズを除去し、次に微分フィルタ処理によりエッジを求
め、最後に2値化処理によって使用者の輪郭を抽出す
る。
【0047】領域分割手段313−1〜313−Nは、
領域抽出手段312−1〜312−Nによって抽出され
た使用者の領域を例えば右上腕、左上腕、右大腿、左大
腿といった各身体部位ごとに分割する(ステップ12
3)。こうして、使用者の各身体部位の画像がカメラ7
−1〜7−Nの台数分だけ得られることになる。
【0048】次に、位置検出手段314は、同一身体部
位を含む複数画像に基づき使用者の各身体部位の3次元
位置を求める(ステップ124)。動作推測手段315
は、位置検出手段314によって得られた各身体部位の
3次元位置により使用者の位置を推測する(ステップ1
25)。
【0049】使用者の動作を認識することができれば、
この動作をスクリーン6に映る仮想空間に反映させるこ
とができる。例えば、入出力装置3は、使用者の動作に
応じた人体がスクリーン6に投影されるように映像デー
タを生成し、この映像データをプロジェクター4−1〜
4−Mに出力する。これにより、使用者の動作を真似し
て動く人物がスクリーン6に投影される。
【0050】図7(a)は、従来の動作認識方法におけ
る処理対象画像を示す図、図7(b)は、本発明の動作
認識方法における処理対象画像を示す図である。従来の
画像処理を用いた動作認識方法では、スクリーンで囲ま
れた撮影対象となる空間が非常に暗いため、カメラで得
られる画像は、図7(a)のように全体が暗い画像とな
る。よって、使用者と背景との間に階調値の差がほとん
どないため、使用者の領域を抽出する処理に長時間を必
要とし、さらに誤った動作認識をする場合もある。
【0051】本発明の動作認識方法では、入出力装置3
からプロジェクター4−1〜4−Mに高輝度の映像デー
タ、例えば白色の映像データを出力することにより、こ
の映像データが出力された瞬間、スクリーン6で囲まれ
た空間が明るくなるので、カメラ7−1〜7−Nで得ら
れる画像が、図7(b)のように明るい画像となる。
【0052】そして、入出力装置3の入力手段31内の
選択手段311は、明るさが所定の条件に合致した画
像、すなわち図7(b)のような明るい画像のみを処理
対象として選択する。したがって、使用者と背景との間
の階調値の差を従来よりも大きくすることができるの
で、画像処理および解析に要する時間を短縮することが
でき、さらに動作認識の信頼性を向上させることができ
る。
【0053】なお、プロジェクター4−1〜4−Mが高
輝度の映像データを受信するのと同時に、液晶シャッタ
眼鏡1が制御データを受信するので、このとき液晶シャ
ッタ眼鏡1の両眼のシャッタが閉じた状態となる。した
がって、スクリーン6で囲まれた空間を一瞬明るくして
も、この瞬間、液晶シャッタ眼鏡1の両眼のシャッタが
閉じているので、使用者の視覚に影響を及ぼすことはな
い。
【0054】[実施の形態の2]図8は、本発明の第2
の実施の形態となる入出力装置3の構成を示すブロック
図である。実施の形態の1の入出力装置(動作認識装
置)3の構成はコンピュータで実現することができる。
【0055】本実施の形態の入出力装置3は、CPU1
31、ROM(Read Only Memory)132、RAM(Ran
dom Access Memory )133、フロッピィディスク装置
等の補助記憶装置134、ハードディスク装置等の大容
量の補助記憶装置135、液晶シャッタ眼鏡1とのイン
タフェースとなるインタフェース装置136、プロジェ
クター4−1〜4−Mとのインタフェースとなるインタ
フェース装置137と、カメラ7−1〜7−Nとのイン
タフェースとなるインタフェース装置138といった構
成を有している。
【0056】図8の装置において、本発明の動作認識方
法を実現させるためのプログラムは、フロッピィディス
ク、CD−ROM、メモリカード等の記録媒体に記録さ
れた状態で提供される。この記録媒体を入出力装置3の
補助記憶装置134に挿入すると、媒体に記録されたプ
ログラムが読み取られる。そして、CPU131は、読
み込んだプログラムをRAM133あるいは補助記憶装
置135に書き込み、このプログラムに従って図5、図
6で説明したような処理を実行する。こうして、実施の
形態の1と同様の動作を実現することができる。
【0057】
【発明の効果】本発明によれば、画像処理を用いて使用
者の動作を認識するので、使用者の動きを制限すること
がなくなる。また、明るい環境下で画像を取り込み、使
用者と背景との間の階調値の差を従来よりも大きくする
ことができるので、画像処理および解析に要する時間を
短縮することができ、動作認識の信頼性を向上させるこ
とができる。
【0058】また、プロジェクターが映像データを受信
するのと同時に、立体視眼鏡が制御データを受信するよ
うに各データを送信するので、仮想現実システム内の使
用者を含む空間を一瞬明るくしても、この瞬間、立体視
眼鏡の両眼のシャッタが閉じているので、使用者の視覚
に影響を及ぼすことなく、明るい画像を取り込むことが
できる。
【0059】また、データ送信過程、送信時刻記憶過
程、データ受信過程、受信時刻記憶過程、データ識別過
程及び遅延時間算出過程を備えることにより、伝送遅延
時間を容易に測定することができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態となる仮想現実シ
ステムの構成を示すブロック図である。
【図2】 液晶シャッタ眼鏡の外観を示す図である。
【図3】 図1の液晶シャッタ眼鏡、プロジェクター、
カメラ及び入出力装置のブロック図である。
【図4】 図3の入出力装置の出力手段及び入力手段の
ブロック図である。
【図5】 入出力装置の初期時及び通常時の動作を示す
フローチャート図である。
【図6】 液晶シャッタ眼鏡、プロジェクター、カメラ
及び入出力装置の画像情報受信時の動作を示すフローチ
ャート図である。
【図7】 従来の動作認識方法及び本発明の動作認識方
法における処理対象画像を示す図である。
【図8】 本発明の第2の実施の形態となる入出力装置
の構成を示すブロック図である。
【符号の説明】
1…液晶シャッタ眼鏡、2…トランスミッタ、3…入出
力装置、4−1、4−M…プロジェクター、5…鏡、6
…スクリーン、7−1、7−N…カメラ、10…受信手
段、11…制御手段、30…出力手段、31…入力手
段、32…映像記憶手段、40−1、40−M…受信手
段、41−1、41−M…投影手段、70−1、70−
N…画像取込手段、71−1、71−N…送信手段、3
00…測定手段、301…差分算出手段、302…制御
データ記憶手段、303…送信手段、310…受信手
段、311…選択手段、312−1、312−N…領域
抽出手段、313−1、313−N…領域分割手段、3
14…位置検出手段、315…動作推測手段。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 志和 新一 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 石橋 聡 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 5B050 BA09 CA05 EA18 FA06 5B057 AA20 CA20 CB13 DA08 DC32 5C061 AA03 AB04 AB12 AB16 AB20 AB24

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 1つ又は複数のスクリーンを配置した仮
    想現実システムにおいて、この仮想現実システム内に実
    在する立体視眼鏡を装着した使用者の実時間動作を認識
    する動作認識方法であって、 予め用意された映像データを送信する送信過程と、 映像データをプロジェクターで受信してスクリーンに投
    影する投影過程と、 仮想現実システム内の前記使用者を含む空間の画像を複
    数のカメラにより取り込む画像取込過程と、取り込んだ
    画像情報を送信する送信過程と、 カメラから送信された画像情報を受信する受信過程と、 予め用意された画像情報に含まれる複数画素の階調値と
    受信した画像情報に含まれる複数画素の階調値とを画素
    ごとに比較し、その差分値がしきい値以下である画素の
    数が所定数以上であるとき、前記受信画像を処理対象と
    して選択する選択過程と、 選択した画像から使用者の領域を抽出する領域抽出過程
    と、 各画像より抽出した使用者の領域を身体部位ごとに分割
    する領域分割過程と、 同一身体部位を含む複数画像に基づき使用者の各身体部
    位の3次元位置を求める位置検出過程と、 使用者の各身体部位の3次元位置を基に使用者の動作を
    推測する動作推測過程とを有することを特徴とする動作
    認識方法。
  2. 【請求項2】 請求項1記載の動作認識方法において、 前記送信過程の前に、映像データをプロジェクターに送
    るのに必要な伝送遅延時間を測定すると共に、立体視眼
    鏡のシャッタの開閉を制御する制御データを立体視眼鏡
    に送るのに必要な伝送遅延時間を測定する測定過程を有
    し、 前記送信過程は、測定した伝送遅延時間に基づいて、プ
    ロジェクターが映像データを受信する時刻と立体視眼鏡
    が制御データを受信する時刻とが同時になるように各デ
    ータを送信するものであり、 制御データを受信した立体視眼鏡が両眼のシャッタを同
    時に閉じる制御過程を有することを特徴とする動作認識
    方法。
  3. 【請求項3】 請求項2記載の動作認識方法において、 前記測定過程は、プロジェクターおよび立体視眼鏡用に
    予め用意された各送信データをプロジェクターと立体視
    眼鏡に送信するデータ送信過程と、 データを送信した送信時刻を記憶する送信時刻記憶過程
    と、 データを受信したプロジェクターおよび立体視眼鏡が即
    時に送り返したデータを受信するデータ受信過程と、 データを受信した受信時刻を記憶する受信時刻記憶過程
    と、 受信データをプロジェクターあるいは立体視眼鏡のどち
    らが返信したのかを識別するデータ識別過程と、 識別したデータの受信時刻から同データの送信時刻を引
    いて差分時間を求め、その1/2の時間を前記伝送遅延
    時間として算出する遅延時間算出過程とを備えることを
    特徴とする動作認識方法。
  4. 【請求項4】 1つ又は複数のスクリーンを配置した仮
    想現実システムにおいて、この仮想現実システム内に実
    在する立体視眼鏡を装着した使用者の実時間動作を認識
    する動作認識装置であって、 予め用意された映像データをプロジェクターに送信する
    送信手段と、 仮想現実システム内の前記使用者を含む空間の画像を取
    り込んだ複数のカメラより画像情報を受信する受信手段
    と、 予め用意された画像情報に含まれる複数画素の階調値と
    受信した画像情報に含まれる複数画素の階調値とを画素
    ごとに比較し、その差分値がしきい値以下である画素の
    数が所定数以上であるとき、前記受信画像を処理対象と
    して選択する選択手段と、 選択した画像から使用者の領域を抽出する領域抽出手段
    と、 各画像より抽出した使用者の領域を身体部位ごとに分割
    する領域分割手段と、 同一身体部位を含む複数画像に基づき使用者の各身体部
    位の3次元位置を求める位置検出手段と、 使用者の各身体部位の3次元位置を基に使用者の動作を
    推測する動作推測手段とを有することを特徴とする動作
    認識装置。
  5. 【請求項5】 請求項4記載の動作認識装置において、 前記送信手段が映像データを送信する前に、映像データ
    をプロジェクターに送るのに必要な伝送遅延時間を測定
    すると共に、立体視眼鏡が両目のシャッタを同時に閉じ
    るよう制御するための制御データを立体視眼鏡に送るの
    に必要な伝送遅延時間を測定する測定手段を有し、 前記送信手段は、測定手段が測定した伝送遅延時間に基
    づいて、プロジェクターが映像データを受信する時刻と
    立体視眼鏡が制御データを受信する時刻とが同時になる
    ように各データを送信することを特徴とする動作認識装
    置。
  6. 【請求項6】 請求項5記載の動作認識装置において、 前記測定手段は、プロジェクターおよび立体視眼鏡用に
    予め用意された各送信データをプロジェクターと立体視
    眼鏡に送信し、データを送信した送信時刻を記憶し、デ
    ータを受信したプロジェクターおよび立体視眼鏡が即時
    に送り返したデータを受信し、データを受信した受信時
    刻を記憶し、受信データをプロジェクターあるいは立体
    視眼鏡のどちらが返信したのかを識別し、識別したデー
    タの受信時刻から同データの送信時刻を引いて差分時間
    を求め、その1/2の時間を前記伝送遅延時間として算
    出することを特徴とする動作認識装置。
  7. 【請求項7】 1つ又は複数のスクリーンを配置した仮
    想現実システムにおいて、この仮想現実システム内に実
    在する立体視眼鏡を装着した使用者の実時間動作を認識
    する動作認識プログラムを記録した記録媒体であって、 予め用意された映像データをプロジェクターに送信する
    送信過程と、 仮想現実システム内の前記使用者を含む空間の画像を取
    り込んだ複数のカメラより画像情報を受信する受信過程
    と、 予め用意された画像情報に含まれる複数画素の階調値と
    受信した画像情報に含まれる複数画素の階調値とを画素
    ごとに比較し、その差分値がしきい値以下である画素の
    数が所定数以上であるとき、前記受信画像を処理対象と
    して選択する選択過程と、 選択した画像から使用者の領域を抽出する領域抽出過程
    と、 各画像より抽出した使用者の領域を身体部位ごとに分割
    する領域分割過程と、 同一身体部位を含む複数画像に基づき使用者の各身体部
    位の3次元位置を求める位置検出過程と、 使用者の各身体部位の3次元位置を基に使用者の動作を
    推測する動作推測過程とをコンピュータに実行させるた
    めの動作認識プログラムを記録した記録媒体。
  8. 【請求項8】 請求項7記載の動作認識プログラムを記
    録した記録媒体において、 前記送信過程の前に、映像データをプロジェクターに送
    るのに必要な伝送遅延時間を測定すると共に、立体視眼
    鏡が両目のシャッタを同時に閉じるよう制御するための
    制御データを立体視眼鏡に送るのに必要な伝送遅延時間
    を測定する測定過程を有し、 前記送信過程は、測定した伝送遅延時間に基づいて、プ
    ロジェクターが映像データを受信する時刻と立体視眼鏡
    が制御データを受信する時刻とが同時になるように各デ
    ータを送信することを特徴とする動作認識プログラムを
    記録した記録媒体。
  9. 【請求項9】 請求項8記載の動作認識プログラムを記
    録した記録媒体において、 前記測定過程は、プロジェクターおよび立体視眼鏡用に
    予め用意された各送信データをプロジェクターと立体視
    眼鏡に送信するデータ送信過程と、 データを送信した送信時刻を記憶する送信時刻記憶過程
    と、 データを受信したプロジェクターおよび立体視眼鏡が即
    時に送り返したデータを受信するデータ受信過程と、 データを受信した受信時刻を記憶する受信時刻記憶過程
    と、 受信データをプロジェクターあるいは立体視眼鏡のどち
    らが返信したのかを識別するデータ識別過程と、 識別したデータの受信時刻から同データの送信時刻を引
    いて差分時間を求め、その1/2の時間を前記伝送遅延
    時間として算出する遅延時間算出過程とを備えることを
    特徴とする動作認識プログラムを記録した記録媒体。
JP11190137A 1999-07-05 1999-07-05 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体 Pending JP2001025032A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11190137A JP2001025032A (ja) 1999-07-05 1999-07-05 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11190137A JP2001025032A (ja) 1999-07-05 1999-07-05 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2001025032A true JP2001025032A (ja) 2001-01-26

Family

ID=16253024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11190137A Pending JP2001025032A (ja) 1999-07-05 1999-07-05 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP2001025032A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011108287A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 照明制御装置、照明制御装置を用いる照明装置及び照明システム並びに照明制御装置とともに利用される表示装置及び眼鏡装置
JP2011250075A (ja) * 2010-05-26 2011-12-08 Sharp Corp 立体映像表示制御装置、立体映像表示制御装置の制御方法、プログラムおよび記録媒体
WO2012127824A1 (ja) * 2011-03-18 2012-09-27 パナソニック株式会社 眼鏡、立体視映像処理装置、システム
JP2013516882A (ja) * 2010-01-07 2013-05-13 3ディー スイッチ エス.アール.エル. 立体視眼鏡を認識する装置および方法、ならびに、立体視ビデオストリームの表示を制御する方法
JP5297531B2 (ja) * 2009-09-18 2013-09-25 株式会社東芝 立体画像表示装置
KR101335377B1 (ko) * 2011-04-05 2013-12-06 김진호 서라운드 디스플레이를 이용한 가상 현실 게임기
KR101502993B1 (ko) 2013-05-10 2015-03-19 세종대학교산학협력단 멀티 디스플레이 제어장치 및 콘텐츠 제공 방법
US9325984B2 (en) 2010-02-09 2016-04-26 Samsung Display Co., Ltd. Three-dimensional image display device and driving method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5297531B2 (ja) * 2009-09-18 2013-09-25 株式会社東芝 立体画像表示装置
JP2013516882A (ja) * 2010-01-07 2013-05-13 3ディー スイッチ エス.アール.エル. 立体視眼鏡を認識する装置および方法、ならびに、立体視ビデオストリームの表示を制御する方法
US9325984B2 (en) 2010-02-09 2016-04-26 Samsung Display Co., Ltd. Three-dimensional image display device and driving method thereof
WO2011108287A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 照明制御装置、照明制御装置を用いる照明装置及び照明システム並びに照明制御装置とともに利用される表示装置及び眼鏡装置
JP5250701B2 (ja) * 2010-03-05 2013-07-31 パナソニック株式会社 照明制御装置、照明制御装置を用いる照明装置及び照明システム並びに照明制御装置とともに利用される表示装置及び眼鏡装置
JP2011250075A (ja) * 2010-05-26 2011-12-08 Sharp Corp 立体映像表示制御装置、立体映像表示制御装置の制御方法、プログラムおよび記録媒体
WO2012127824A1 (ja) * 2011-03-18 2012-09-27 パナソニック株式会社 眼鏡、立体視映像処理装置、システム
KR101335377B1 (ko) * 2011-04-05 2013-12-06 김진호 서라운드 디스플레이를 이용한 가상 현실 게임기
KR101502993B1 (ko) 2013-05-10 2015-03-19 세종대학교산학협력단 멀티 디스플레이 제어장치 및 콘텐츠 제공 방법

Similar Documents

Publication Publication Date Title
AU2018247216B2 (en) Systems and methods for liveness analysis
US7825948B2 (en) 3D video conferencing
JP3579218B2 (ja) 情報表示装置及び情報収集装置
KR20170089260A (ko) 모바일 기기를 이용한 3차원 얼굴 모델 생성 장치 및 방법
JP6799155B2 (ja) 情報処理装置、情報処理システム、および被写体情報特定方法
WO2014199786A1 (ja) 撮影システム
CN112165573A (zh) 拍摄处理方法和装置、设备、存储介质
JP4313758B2 (ja) ステレオ画像中のエッジを結び付けてチェインにする方法
JP2006343859A (ja) 画像処理装置及び画像処理方法
WO2019003383A1 (ja) 情報処理装置および材質特定方法
CN114419073A (zh) 一种运动模糊生成方法、装置和终端设备
WO2015027289A1 (en) Method and apparatus for eye detection from glints
EP3588448B1 (en) Method and system for displaying a virtual object
JP2001025032A (ja) 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体
JPH1196366A (ja) ヘッドマウントディスプレイを装着した人物の顔画像合成方法およびその装置
JP6851475B2 (ja) 情報処理装置および情報処理方法
JP6934575B2 (ja) 情報処理装置および物体検出方法
JP2001025033A (ja) 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体
KR102581380B1 (ko) 3rd party AR/MR 촬영 장치 및 방법
WO2021109458A1 (zh) 对象识别方法、装置、电子设备和可读存储介质
KR20220125423A (ko) 자동 촬영을 위한 서버, 시스템 및 전자 장치를 이용한 자동 촬영 방법