JP2004192325A - ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体 - Google Patents
ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体 Download PDFInfo
- Publication number
- JP2004192325A JP2004192325A JP2002359329A JP2002359329A JP2004192325A JP 2004192325 A JP2004192325 A JP 2004192325A JP 2002359329 A JP2002359329 A JP 2002359329A JP 2002359329 A JP2002359329 A JP 2002359329A JP 2004192325 A JP2004192325 A JP 2004192325A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- space
- transmitting
- posture information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】異なる構造の空間の間でユーザの姿勢を伝達,再現する。
【解決手段】送信側装置1の位置センサ13により,空間Aに存在するユーザaの位置,ユーザaの体の各部位の位置と方向,テーブルTA や椅子CA などの各物体の位置を計測する。物体選択処理部12は,計測された情報に基づいて各部位それぞれに対応する物体を選択し,情報送信部11は,選択した物体の物体情報と,その物体の方向を向いているユーザaの部位の情報を受信側装置2に送信する。受信側装置2の情報受信部21は,送信された物体情報と関連部位情報を受信し,物体選択処理部22は,受信した物体情報をもとに空間Bの中の物体を1つ選択し,関節角度計算部23が,選択した物体の方向を向くようにユーザaの分身a′の各部位の関節の角度を計算する。
【選択図】 図2
【解決手段】送信側装置1の位置センサ13により,空間Aに存在するユーザaの位置,ユーザaの体の各部位の位置と方向,テーブルTA や椅子CA などの各物体の位置を計測する。物体選択処理部12は,計測された情報に基づいて各部位それぞれに対応する物体を選択し,情報送信部11は,選択した物体の物体情報と,その物体の方向を向いているユーザaの部位の情報を受信側装置2に送信する。受信側装置2の情報受信部21は,送信された物体情報と関連部位情報を受信し,物体選択処理部22は,受信した物体情報をもとに空間Bの中の物体を1つ選択し,関節角度計算部23が,選択した物体の方向を向くようにユーザaの分身a′の各部位の関節の角度を計算する。
【選択図】 図2
Description
【0001】
【発明の属する技術分野】
本発明は,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境において,ユーザの姿勢の情報を伝達するユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
従来,空間を共有して通信を行う場合,1つの仮想空間を生成して,複数のユーザで共有し,ユーザを立体的な映像で提示する方法が提案されている(例えば,非特許文献1参照)。この方法では,ユーザの姿勢を伝達するとき,ユーザの各関節の角度を伝達する。別の端末では,受信した関節の角度をもとに分身(アバタ)を表示する。
【0003】
また,ユーザの各間接の角度に加え位置を伝達し,受信側でユーザの姿勢をCGとして再現する方法も提案されている(例えば,非特許文献2参照)。
【0004】
【非特許文献1】
広瀬通孝,外3名,「没入型コミュニケーションのための高臨場感ビデオアバタ」,ヒューマンインタフェース学会論文誌,2000年,第2巻,第2号,p.161−167
【非特許文献2】
河野隆志,外4名,「没入型共有コミュニケーション環境」,情報処理学会研究報告,2000年3月,第2000巻,第26号,p.13−18
【0005】
【発明が解決しようとする課題】
従来方法では,空間の構成が1つであるため,体の関節の角度を伝達していた。しかし,体の関節の角度の伝達だけでは,ユーザの手先の方向や,顔の正面の方向と,周辺の物体との関係を,異なる構造の空間で再現することができなかった。すなわち,上記非特許文献1および非特許文献2に示されているいずれの従来方法によっても,異なる構造の空間の間でユーザの姿勢を適切に伝達,再現することは不可能であった。
【0006】
本発明は,異なる構造の空間の間で,ユーザの姿勢の変化を適切に伝達することを目的としている。
【0007】
【課題を解決するための手段】
上記目的を達成するために,第1の本発明では,ユーザの体の部位の方向に基づき分身の部位を選択した方向に向ける。そのため,送信側端末において,ユーザの位置,ユーザの体の各部位の位置,ユーザの体の各方向と,ユーザが存在する空間の物体の位置を計測し,計測結果にもとづいて,ユーザの体の各部位(頭部,右腕部,左腕部,胸部,右足部,左足部などの部位)と,各部位に関連性のある,各部位それぞれに対応する1つの物体を選択し,選択した物体の情報と,その物体と関連のある関連部位情報とを受信側端末へ送信する。
【0008】
受信側端末では,受信した情報に含まれる物体の情報から,受信側端末の空間中に存在する物体を1つ選択し,その選択した物体を基準として,受信した関連部位情報から受信側端末の空間における送信側ユーザの分身の各部位の方向が,選択した物体の方向を向くように,体の各部位の関節角度を決定する。
【0009】
また,第2の本発明では,ユーザの体の部位が物体に接触していることに基づき分身の部位を対応する物体に接触させる。そのため,送信側端末において,ユーザの位置と空間に存在する物体の位置を計測し,計測結果にもとづいて,ユーザの体の各部位(頭部,右腕部,左腕部,胸部,右足部,左足部などの部位)が物体に触れているかを判定し,ユーザの体の部位が物体に触れている場合に,それらの各部位それぞれに対応する1つの物体を選択する。選択した物体の情報と,選択した物体に接触している部位の情報である接触部位情報とを,受信側端末へ送信する。
【0010】
受信側端末では,受信した情報に含まれる1つの物体の情報から,受信側端末の空間中に存在する物体を1つ選択し,前記物体に対応する接触部位情報に含まれる部位に対応する受信側端末の空間における送信側ユーザの分身の部位が,前記物体に触れるように体の部位の関節角度を決定する。
【0011】
また,第3の本発明では,ユーザの体の部位と複数の物体との位置関係に基づき分身の部位と対応する複数の物体との位置関係を定める。そのため,送信側端末において,ユーザの位置と空間に存在する物体の位置を計測し,計測結果にもとづいて,ユーザの体の各部位(頭部,右腕部,左腕部,胸部,右足部,左足部などの部位)と,各部位に関連性のある,各部位それぞれに対応する複数の物体を選択し,選択した複数の物体それぞれと,ユーザの体の中で,選択した複数の物体に関連する部位の中の特徴点との相対距離を計算し,選択した複数の物体の情報と,計算した体の各部位の相対距離とを,受信側端末へ送信する。
【0012】
受信側端末では,送信された情報を受信し,受信した情報に含まれる複数の物体の情報から,受信した端末が存在する空間中の複数の物体を選択し,受信した体の各部位の特徴点の相対距離を自然長とする仮想的なバネを,選択された複数の物体から伸ばし,バネの交点が力学的に釣り合う位置を,受信側端末の空間における,送信側ユーザの分身の各部位の位置として決定する。
【0013】
また,第4の本発明では,ユーザが着座姿勢を取っていればそれを検出し,ユーザが着座姿勢であることに基づき分身に着座姿勢を取らせる。そのため,送信側端末において,ユーザの位置と,ユーザの胸部または頭部の地面からの高さと,ユーザが存在する空間の物体の位置を計測し,計測結果にもとづいて,ユーザの頭部または胸部の高さが,一定以下の高さの時に,ユーザの位置と重なる物体を選択し,前記選択結果にもとづいてユーザの姿勢を着座姿勢と決定し,選択した物体の情報と,決定した着座姿勢情報とを,受信側端末へ送信する。
【0014】
受信側端末では,送信された情報を受信し,受信した情報に含まれる物体の情報から,受信した端末が存在する空間中の物体を1つ選択し,選択した物体に対して,受信した着座姿勢情報から受信側端末の空間において,物体に対する適切な着座姿勢を取るように送信側ユーザの分身の各関節角度を決定する。
【0015】
以上の第1ないし第4の発明を,組み合わせて実施することも可能である。以上の本発明によって,異なる構造を持った実空間で,ユーザの姿勢の変化を伝達することができるようになる。
【0016】
【発明の実施の形態】
本発明の実施の形態の詳細を説明するに先立ち,本発明が適用されるシステムの概要を説明する。図1は,本発明を適用するシステムの概要を説明する図である。
【0017】
例えば図1(イ)に示すように,遠く離れた家の居間でテーブルの前に座ってテレビを見ている二人(ユーザaとユーザbとする)がいるとする。ユーザaがいる実空間を空間Aとし,ユーザbがいる実空間を空間Bとする。このとき,ユーザbがあたかも空間Aにいるように,ユーザaに見せることができれば,ユーザbは,同じ場所でテレビを見ているような感覚でユーザbと会話をすることが可能になる。同様に,ユーザaがあたかも空間Bにいるように,ユーザbに見せることができれば,ユーザbは,同じ場所でテレビを見ているような感覚でユーザaと会話をすることが可能になる。
【0018】
これを実現するためには,互いの構造が異なる空間A,Bに,互いの姿が自然に表現されることが必要となる。互いの構造が異なる空間A,Bとは,例えば空間Aに存在するテーブルTa と,空間Bに存在するテーブルTb の位置や形状が異なることを意味する。この場合,互いの構造が異なる空間A,Bに,互いの姿を表現するためには,少なくとも相手の位置情報および姿勢情報が必要であるが,この位置情報,姿勢情報がそれぞれの空間A,Bで定義された座標系の座標値や関節角度で表される場合には,互いの姿を自然に表現するということはできない。ここで,相手の存在している位置および姿勢が,周辺の物体との位置関係によって表されることが重要になる。
【0019】
すなわち,図1(ロ)に示すように,ユーザaが実空間である空間Aまたはその映像にユーザbの分身(ユーザb′)を重ね合わせて見るような場合,空間BにおいてユーザbがテーブルTb の前に座っていれば,その分身のユーザb′も空間Aにおいて同じような物体であるテーブルTa の前に座っているように見えるのが自然であり望ましい。ユーザbが空間Bまたはその映像にユーザaの分身(ユーザa′)を重ね合わせて見る場合も同様である。
【0020】
なお,それぞれの空間A,Bにおいて,相手の姿を見るための表示装置としては,例えばヘッドマウントディスプレイ(HMD)を用いることができる。ヘッドマウントディスプレイを使うことによって,実際の空間と相手から送られてきた相手の姿とを重ね合わせて見ることが可能である。実際の空間と相手の姿とを重ね合わせるのではなく,実際の空間の映像と相手の姿とを合成してCRTや液晶等のディスプレイに表示してもよい。
【0021】
また,各ユーザの「分身」は,表示装置に表示される画像に限らず,ロボット等であっても構わない。
【0022】
以上のように,通信相手がどのような行動をとっているのかを知るうえで,相手が存在している位置および姿勢というのは重要な情報であるが,相手が存在している位置を知るうえで,異なる実空間の間では,空間内で存在している位置および姿勢を示す座標情報や角度情報は意味を持たない。本発明は以上の点に鑑み,周辺の物体との相対的な位置関係と姿勢を再現できる情報を,ユーザの姿勢情報として送ることに着目したものである。以下,実施の形態の具体例を説明する。
【0023】
[第1の実施の形態]
空間A,Bに端末が存在し,空間Aにいるユーザaの手先の方向に対して,空間Bにおいて表す手先の方向を計算する方法に関する第1の実施の形態を説明する。図2にブロック図を示し,処理の流れを図3に示す。
【0024】
図2において,送信側装置1は,ユーザaがいる空間Aに存在する端末装置であり,情報送信部11,物体選択処理部12,位置センサ13を持つ。受信側装置2は,他のユーザbがいる空間Bに存在する端末装置であり,情報受信部21,物体選択処理部22,関節角度計算部23,分身表示部24を持つ。
【0025】
送信側装置1と受信側装置2とは,ネットワークを介して接続される。なお,相互にユーザ位置を交換する場合には,それぞれの端末が図2に示す送信側装置1の機能と受信側装置2の機能の両方の機能を持つことは言うまでもない。
【0026】
送信側装置1は,空間Aに存在するユーザaの位置と,ユーザaの体の各部位の位置と方向と,空間A内に存在するテーブルTA や椅子CA などの各物体の位置と方向を位置センサ13によって計測する(図3のステップS1)。
【0027】
位置を計測する方法としては,位置センサ13として2台以上のカメラを用い,それらのカメラにより撮影した画像を周知の画像認識技術等を利用して解析することにより,ユーザaの位置と各物体の位置を計測する方法を用いることができる。また,ユーザの各部位の位置を検出するためのマーカーをユーザaに装着させ,空間A内に存在するマーカーの3次元位置を検出する方法を用いることもできる。位置センサ13としては,人間などの3次元位置を検出可能であれば,磁気センサや超音波などの方法を用いてもよい。
【0028】
物体選択処理部12は,位置センサ13によって計測した位置情報に基づいて物体を1つ選択する(ステップS2)。例えば,右手の先の向いている方に存在する物体が椅子CA であったとすると,空間Aの送信側装置1は,関連性のある物体として椅子CA を選択する。
【0029】
情報送信部11は,関連する物体の情報と,その物体の方向を向いている人の部位の情報(関連部位情報)を送信する(ステップS3)。図2の例では,椅子CA の物体情報と,関連部位情報として“右手”という情報を受信側装置2に送信する。
【0030】
物体情報として送信する情報としては,例えば,物体の名前や形状,機能など,基準とした物体を特徴づける情報が考えられる。このような物体情報は,データベースとして送信側装置1および受信側装置2にあらかじめ用意しておくことで,空間B側において,空間Aの物体と共通の機能を持つ物体を,送信された物体情報から選択することができる。
【0031】
空間Bにある受信側装置2の情報受信部21は,送信側装置1から送信された物体情報と関連部位情報を受信する(ステップS11)。そして,物体選択処理部22は,受信した物体情報をもとに,空間Bの中の物体を1つ選択する(ステップS12)。例えば,物体情報に含まれる物体の名前が椅子であったとすると,名前「椅子」によって空間Bの中の物体を,あらかじめ用意された物体情報データベースから検索し,椅子CB を選択する。
【0032】
次に,関節角度計算部23は,選択した物体の方向を向くように,関連する部位の関節の角度を計算する(ステップS13)。これにより,椅子CB の方向にユーザaの手の先が向くように,ユーザaの分身a′の右肩,右ヒジ,右手首の角度が計算され,空間Bにおいて,ユーザaの分身a′の右手を表す角度が決定される。同様に,頭部,左手,胸部,両足についても,各部位の関節の角度を計算することによって,ユーザaの分身a′の体のすべての関節の角度が決定され,姿勢を表すことができる。分身表示部24は,計算された姿勢でユーザaの分身a′を表示する。
【0033】
なお,送信側装置1における物体選択処理部12は,必ずしもすべての部位について関連性のある物体を選択しなくてもよく,ある部位の方向に適当な物体がなかった場合には,その部位に対応する物体は「なし」とし,その部位に関連する関節角度は,他の部位の関節角度から推定したり,あらかじめ定めた標準的な角度を適用したりしてもよい。これは,以下の実施の形態も同様である。
【0034】
[第2の実施の形態]
空間A,Bに端末が存在し,空間Aにいるユーザaの左手の位置に対して,空間Bにおいてユーザaを表す分身a′の左手の位置を計算する方法に関する本発明の第2の実施の形態を説明する。図4にブロック図を示し,処理の流れを図5に示す。
【0035】
図4において,送信側装置3は,ユーザaがいる空間Aに存在する端末装置であり,情報送信部31,物体選択処理部32,位置センサ33を持つ。受信側装置4は,他のユーザbがいる空間Bに存在する端末装置であり,情報受信部41,物体選択処理部42,関節角度計算部43,分身表示部44を持つ。
【0036】
送信側装置3と受信側装置4とは,ネットワークを介して接続される。なお,相互にユーザ位置を交換する場合には,それぞれの端末に図4に示す送信側装置3の機能と受信側装置4の機能の両方の機能を備える。
【0037】
送信側装置3は,空間Aに存在するユーザaの位置と,ユーザaの体の各部位の位置と方向と,空間A内に存在するテーブルTA や椅子CA などの各物体の位置と方向とを位置センサ33によって計測する(図5のステップS21)。
【0038】
物体選択処理部32は,位置センサ33によって計測した位置情報に基づいて物体を1つ選択する(ステップS22)。例えば,左手が触れている物体がテーブルTA であったすると,空間Aの送信側装置3の物体選択処理部32は,テーブルTA の物体を選択する。
【0039】
次に,情報送信部31は,関連する物体と,その物体に触れている人の部位の情報(関連部位情報)を送信する(ステップS23)。すなわち,この例では,テーブルTA の物体情報と,接触部位情報として“左手”という情報を受信側装置4に送信する。物体情報として送信する情報としては,例えば,物体の名前や形状,機能など,基準とした物体を特徴づける情報が考えられる。
【0040】
空間Bにある受信側装置4の情報受信部41は,送信側装置3から送信された物体情報と関連部位情報を受信する(ステップS31)。そして,物体選択処理部42は,受信した物体情報をもとに,空間Bの中の物体を1つ選択する(ステップS32)。例えば,物体情報に含まれる物体の名前がテーブルであったとすると,名前「テーブル」によって空間Bの中の物体を,あらかじめ用意された物体情報データベースから検索し,テーブルTB を選択する。
【0041】
関節角度計算部43は,選択した物体に触れるように,関連する部位の関節の角度を計算する(ステップS33)。すなわち,テーブルTB に左手が触れるようにユーザaの分身a′の左肩,左ヒジ,左手首の角度を計算し,決定する。これにより,空間Bにおいて,ユーザaの分身a′の左手を表す左腕の各関節の角度が決定される。
【0042】
同様に,頭部,右手,胸部,両足についても,各部位の関節の角度を計算することによって,ユーザaの体のすべての関節の角度が決定され,姿勢を表すことができる。分身表示部44は,計算された姿勢でユーザaの分身a′を表示する。
【0043】
[第3の実施の形態]
空間A,Bに端末が存在し,空間Aにいるユーザaの手先の方向に対して,空間Bにおいて表す手先の方向を計算する方法に関する第3の実施の形態を説明する。図6にブロック図を示し,処理の流れを図7に示す。
【0044】
図6において,送信側装置5は,ユーザaがいる空間Aに存在する端末装置であり,情報送信部51,相対距離計算部52,物体選択処理部53,位置センサ54を持つ。受信側装置6は,他のユーザbがいる空間Bに存在する端末装置であり,情報受信部61,物体選択処理部62,関節角度計算部63,分身表示部64を持つ。
【0045】
送信側装置5と受信側装置6とは,ネットワークを介して接続される。なお,相互にユーザ位置を交換する場合には,それぞれの端末に図6に示す送信側装置5の機能と受信側装置6の機能の両方の機能を備える。
【0046】
送信側装置5は,空間Aに存在するユーザaの位置と,ユーザaの体の各部位の位置と方向と,空間A内に存在するテーブルTA や椅子CA などの各物体の位置と方向を位置センサ54によって計測する(図7のステップS41)。
【0047】
物体選択処理部53は,位置センサ54によって計測した位置情報に基づいて複数の物体を選択する(ステップS42)。例えば,ユーザの右手と物体とのそれぞれの距離を計算し,近い方から任意のあらかじめ設定していた個数の物体を選択する方法や,空間Aに存在する全ての物体を選択する方法がある。この例では,空間A中の全ての物体を選択することとする。全ての物体を選択したため,ここではテーブルTA と椅子CA が選択される。
【0048】
次に,相対距離計算部52は,選択した物体とユーザaの各部位との相対距離を計算する(ステップS43)。相対距離とは,空間Aにおけるある基準の長さを単位とした長さである。計測したテーブルTA からユーザaの右手の中心までの距離を|PaTA |,椅子CA からユーザaの右手の中心までの距離を|PaCA |とする。
【0049】
情報送信部51は,選択した物体の情報と,各物体とユーザとの相対距離を空間Bの受信側装置6に送信する(ステップS44)。物体情報として送信する情報としては,例えば,物体の名前や形状,機能など,基準とした物体を特徴づける情報が考えられる。
【0050】
空間Bにある受信側装置6の情報受信部61は,送信側装置5から送信された物体情報と右手の中心との相対距離情報とを受信する(ステップS51)。物体選択処理部62は,受信した物体情報をもとに,空間Bの中の物体を複数選択する(ステップS52)。例えば,物体情報に含まれる物体の名前がテーブルと椅子であったとすると,名前「テーブル」によって空間Bの中の物体を,あらかじめ用意された物体情報データベースから検索し,テーブルTB を選択する。同様に,名前「椅子」についても検索し,椅子CB を選択する。その結果,空間AにおけるテーブルTA と椅子CA に対応する物体が,空間BにおいてはテーブルTB と椅子CB であるとする。
【0051】
関節角度計算部63は,選択された各物体と相対距離とから,空間Bにおけるユーザaの分身a′について各部位の位置を計算するため,選択された複数の物体から,相対距離を自然長とする仮想的なバネを伸ばし,バネの交点が力学的に釣り合う位置を計算する(ステップS53)。すなわち,選択された各物体から,バネの自然長が,受信した相対距離となる仮想的なバネを伸ばし,全てのバネを空間中の1つの点につなぐ。この点に働く各バネの力が力学的に釣り合う位置を計算する。釣り合った点を,ユーザaの右手の位置を空間Bにおいて表す位置として決定する(ステップS54)。
【0052】
具体的には,空間AにおけるテーブルTA からユーザaの右手の中心までの距離が|PaTA |,椅子CA からユーザaの右手の中心までの距離が|PaCA |であったとすると,バネに力が働かないときの自然長の長さが,それぞれ|PaTA |,|PaCA |に相当する2本の仮想的なバネSaTB ,SaCB を考え,これらのバネSaTB ,SaCB を空間BにおけるテーブルTB ,椅子CB から伸ばし,空間B中の一つの点につなぎ,その点に働く各バネの力が力学的に釣り合う位置を計算して,その位置を空間Bにおけるユーザaの右手の中心の位置と決定する。
【0053】
選択された物体の個数が2個の場合であれば,分身の部位と対応する各物体の距離の関係をユーザの体の部位と各物体の距離の関係に比例させることによって,分身の部位の位置を決定することもできる。しかし,選択された物体の個数が3個以上の場合,異なる構造の空間の間では,このような比例関係を成り立たせることができなくなる。そのため,本発明では,上記ステップS53およびステップS54で示したように,分身の部位が選択された各物体に仮想的なバネでつながれているとして,力学的に釣り合う点を算出し,分身の部位の位置を決定する。これにより,異なる構造の空間の間でも,任意の個数の物体との関係において対応する位置を求めることができる。
【0054】
同様に,頭部,左手,胸部,両足についても,空間Bにおける各部位の位置を計算することを通じてユーザaの分身a′のすべての関節の角度が決定され,姿勢を表すことができる。分身表示部64は,計算された姿勢でユーザaの分身a′を表示する。
【0055】
[第4の実施の形態]
空間A,Bに端末が存在し,空間Aにいるユーザaの着座姿勢に対して,空間Bにおいて適切な場所において着座している姿勢として表す方法に関する第4の実施の形態を説明する。図8にブロック図を示し,処理の流れを図9に示す。
【0056】
図8において,送信側装置7は,ユーザaがいる空間Aに存在する端末装置であり,情報送信部71,物体選択処理部72,位置センサ73を持つ。受信側装置8は,他のユーザbがいる空間Bに存在する端末装置であり,情報受信部81,物体選択処理部82,関節角度計算部83,分身表示部84を持つ。
【0057】
送信側装置7と受信側装置8とは,ネットワークを介して接続される。なお,相互にユーザ位置を交換する場合には,それぞれの端末に図8に示す送信側装置7の機能と受信側装置8の機能の両方の機能を備える。
【0058】
送信側装置7は,空間Aに存在するユーザaの位置と,ユーザaの頭部または胸部の高さと,ユーザaの体の各部位の位置と方向と,空間A内に存在するテーブルTA や椅子CA などの各物体の位置と方向を位置センサ73によって計測する(図9のステップS61)。
【0059】
物体選択処理部72は,位置センサ73によって計測した位置情報に基づいてユーザaが座っている物体を1つ選択する(ステップS62)。ユーザaの頭部または胸部の高さが,ある一定以下の高さで,ユーザaの位置が椅子CA の位置で重なっている場合,物体選択処理部72は,椅子CA をユーザaが座っている物体として選択する。
【0060】
情報送信部71は,選択した物体である椅子CA の物体情報と,人が着座姿勢を取っているという情報を送信する(ステップS63)。物体情報として送信する情報としては,例えば,物体の名前や形状,機能など,基準とした物体を特徴づける情報が考えられる。
【0061】
空間Bにある受信側装置8の情報受信部81は,送信側装置7から送信された物体情報とユーザaが座っていることを示す情報を受信する(ステップS71)。物体選択処理部82は,受信した物体情報をもとに,空間Bの中の物体を1つ選択する(ステップS72)。例えば,物体情報に含まれる物体の名前が椅子であったとすると,名前「椅子」によって空間Bの中の物体を,あらかじめ用意された物体情報データベースから検索し,椅子CB を選択する。
【0062】
次に,関節角度計算部83は,椅子CB に人が着座姿勢を取るように,ユーザaの分身a′の関連する部位の関節の角度を計算し,決定する(ステップS73)。この着座姿勢を取っているときの関節角度は,物体情報データベースから得られた椅子CB の人が座る位置の高さ情報や奥行き情報,また,ユーザaの分身a′についての各部位のサイズ情報から容易に計算することができる。また,あらかじめ物体の形状に応じて計算された関節の角度情報をテーブル化したデータを用意しておき,選択された物体の形状からテーブルを参照して関節角度を算出してもよい。これにより,空間Bにおいて,ユーザaの各部位の関節の角度が決定され,空間Bにおいて,ユーザaの分身a′が着座している姿勢が表される。分身表示部84は,計算された姿勢でユーザaの分身a′を表示する。
【0063】
なお,本実施の形態においては,ユーザaの頭部または胸部の高さがある一定値以下である場合に着座姿勢であるとの判定を行っているが,椅子CA 等の物体に荷重センサや接触センサ等を設け,このセンサの出力に基づきユーザaが着座姿勢であるか否かを判定するような実施も可能である。
【0064】
[第5の実施の形態]
第5の実施の形態は,上記第1の実施の形態から第4の実施の形態までのユーザの姿勢情報伝達方法の中から,体の各部位のそれぞれに対して,個別にユーザの姿勢情報伝達方法を選択する手段を持つ。例えば,右手および左手については,第1または第2の実施の形態によるユーザの姿勢情報伝達方法を選択し,頭部および胸部については,第3の実施の形態によるユーザの姿勢情報伝達方法を選択し,第4の実施の形態についてはユーザが着座姿勢を取っている場合に選択するというように,第1から第4までの実施の形態を組み合わせて,受信側装置1の空間における送信側ユーザの分身の姿勢を決定する。このとき,ユーザの分身の関節角度として,各実施の形態に応じて同じ関節に複数の異なる角度が算出された場合には,あらかじめ定められた優先度に従って角度を決定してもよいし,例えば平均角度を関節角度として決定してもよい。第1から第4までの実施の形態をどのように組み合わせるかについては,システム設計者が決めることも可能であり,また送信側ユーザまたは受信側ユーザが動的にメニューなどにより設定し,カスタマイズ可能にするという方法を採用することもできる。
【0065】
上記本発明を適用するシステムが行う処理は,コンピュータとソフトウェアプログラムとを用いて実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。
【0066】
【発明の効果】
以上説明したように,本発明によれば,異なる構造を持った実空間で,周辺の物体との関連性を含めユーザの姿勢情報を伝達することができるので,異なる実空間にいながら,通信相手の指示動作や関心のある物体や,話題の対象となっている物体や,注目している物体等が容易に理解可能な通信環境を実現することができるようになる。
【図面の簡単な説明】
【図1】本発明を適用するシステムの概要を説明する図である。
【図2】第1の実施の形態を示すブロック図である。
【図3】第1の実施の形態における処理の流れを示す図である。
【図4】第2の実施の形態を示すブロック図である。
【図5】第2の実施の形態における処理の流れを示す図である。
【図6】第3の実施の形態を示すブロック図である。
【図7】第3の実施の形態における処理の流れを示す図である。
【図8】第4の実施の形態を示すブロック図である。
【図9】第4の実施の形態における処理の流れを示す図である。
【符号の説明】
1,3,5,7 送信側装置
2,4,6,8 受信側装置
11,31,51,71 情報送信部
12,32,53,72 物体選択処理部
13,33,54,73 位置センサ
21,41,61,81 情報受信部
22,42,62,82 物体選択処理部
23,43,63,83 関節角度計算部
24,44,64,84 分身表示部
52 相対距離計算部
【発明の属する技術分野】
本発明は,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境において,ユーザの姿勢の情報を伝達するユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
従来,空間を共有して通信を行う場合,1つの仮想空間を生成して,複数のユーザで共有し,ユーザを立体的な映像で提示する方法が提案されている(例えば,非特許文献1参照)。この方法では,ユーザの姿勢を伝達するとき,ユーザの各関節の角度を伝達する。別の端末では,受信した関節の角度をもとに分身(アバタ)を表示する。
【0003】
また,ユーザの各間接の角度に加え位置を伝達し,受信側でユーザの姿勢をCGとして再現する方法も提案されている(例えば,非特許文献2参照)。
【0004】
【非特許文献1】
広瀬通孝,外3名,「没入型コミュニケーションのための高臨場感ビデオアバタ」,ヒューマンインタフェース学会論文誌,2000年,第2巻,第2号,p.161−167
【非特許文献2】
河野隆志,外4名,「没入型共有コミュニケーション環境」,情報処理学会研究報告,2000年3月,第2000巻,第26号,p.13−18
【0005】
【発明が解決しようとする課題】
従来方法では,空間の構成が1つであるため,体の関節の角度を伝達していた。しかし,体の関節の角度の伝達だけでは,ユーザの手先の方向や,顔の正面の方向と,周辺の物体との関係を,異なる構造の空間で再現することができなかった。すなわち,上記非特許文献1および非特許文献2に示されているいずれの従来方法によっても,異なる構造の空間の間でユーザの姿勢を適切に伝達,再現することは不可能であった。
【0006】
本発明は,異なる構造の空間の間で,ユーザの姿勢の変化を適切に伝達することを目的としている。
【0007】
【課題を解決するための手段】
上記目的を達成するために,第1の本発明では,ユーザの体の部位の方向に基づき分身の部位を選択した方向に向ける。そのため,送信側端末において,ユーザの位置,ユーザの体の各部位の位置,ユーザの体の各方向と,ユーザが存在する空間の物体の位置を計測し,計測結果にもとづいて,ユーザの体の各部位(頭部,右腕部,左腕部,胸部,右足部,左足部などの部位)と,各部位に関連性のある,各部位それぞれに対応する1つの物体を選択し,選択した物体の情報と,その物体と関連のある関連部位情報とを受信側端末へ送信する。
【0008】
受信側端末では,受信した情報に含まれる物体の情報から,受信側端末の空間中に存在する物体を1つ選択し,その選択した物体を基準として,受信した関連部位情報から受信側端末の空間における送信側ユーザの分身の各部位の方向が,選択した物体の方向を向くように,体の各部位の関節角度を決定する。
【0009】
また,第2の本発明では,ユーザの体の部位が物体に接触していることに基づき分身の部位を対応する物体に接触させる。そのため,送信側端末において,ユーザの位置と空間に存在する物体の位置を計測し,計測結果にもとづいて,ユーザの体の各部位(頭部,右腕部,左腕部,胸部,右足部,左足部などの部位)が物体に触れているかを判定し,ユーザの体の部位が物体に触れている場合に,それらの各部位それぞれに対応する1つの物体を選択する。選択した物体の情報と,選択した物体に接触している部位の情報である接触部位情報とを,受信側端末へ送信する。
【0010】
受信側端末では,受信した情報に含まれる1つの物体の情報から,受信側端末の空間中に存在する物体を1つ選択し,前記物体に対応する接触部位情報に含まれる部位に対応する受信側端末の空間における送信側ユーザの分身の部位が,前記物体に触れるように体の部位の関節角度を決定する。
【0011】
また,第3の本発明では,ユーザの体の部位と複数の物体との位置関係に基づき分身の部位と対応する複数の物体との位置関係を定める。そのため,送信側端末において,ユーザの位置と空間に存在する物体の位置を計測し,計測結果にもとづいて,ユーザの体の各部位(頭部,右腕部,左腕部,胸部,右足部,左足部などの部位)と,各部位に関連性のある,各部位それぞれに対応する複数の物体を選択し,選択した複数の物体それぞれと,ユーザの体の中で,選択した複数の物体に関連する部位の中の特徴点との相対距離を計算し,選択した複数の物体の情報と,計算した体の各部位の相対距離とを,受信側端末へ送信する。
【0012】
受信側端末では,送信された情報を受信し,受信した情報に含まれる複数の物体の情報から,受信した端末が存在する空間中の複数の物体を選択し,受信した体の各部位の特徴点の相対距離を自然長とする仮想的なバネを,選択された複数の物体から伸ばし,バネの交点が力学的に釣り合う位置を,受信側端末の空間における,送信側ユーザの分身の各部位の位置として決定する。
【0013】
また,第4の本発明では,ユーザが着座姿勢を取っていればそれを検出し,ユーザが着座姿勢であることに基づき分身に着座姿勢を取らせる。そのため,送信側端末において,ユーザの位置と,ユーザの胸部または頭部の地面からの高さと,ユーザが存在する空間の物体の位置を計測し,計測結果にもとづいて,ユーザの頭部または胸部の高さが,一定以下の高さの時に,ユーザの位置と重なる物体を選択し,前記選択結果にもとづいてユーザの姿勢を着座姿勢と決定し,選択した物体の情報と,決定した着座姿勢情報とを,受信側端末へ送信する。
【0014】
受信側端末では,送信された情報を受信し,受信した情報に含まれる物体の情報から,受信した端末が存在する空間中の物体を1つ選択し,選択した物体に対して,受信した着座姿勢情報から受信側端末の空間において,物体に対する適切な着座姿勢を取るように送信側ユーザの分身の各関節角度を決定する。
【0015】
以上の第1ないし第4の発明を,組み合わせて実施することも可能である。以上の本発明によって,異なる構造を持った実空間で,ユーザの姿勢の変化を伝達することができるようになる。
【0016】
【発明の実施の形態】
本発明の実施の形態の詳細を説明するに先立ち,本発明が適用されるシステムの概要を説明する。図1は,本発明を適用するシステムの概要を説明する図である。
【0017】
例えば図1(イ)に示すように,遠く離れた家の居間でテーブルの前に座ってテレビを見ている二人(ユーザaとユーザbとする)がいるとする。ユーザaがいる実空間を空間Aとし,ユーザbがいる実空間を空間Bとする。このとき,ユーザbがあたかも空間Aにいるように,ユーザaに見せることができれば,ユーザbは,同じ場所でテレビを見ているような感覚でユーザbと会話をすることが可能になる。同様に,ユーザaがあたかも空間Bにいるように,ユーザbに見せることができれば,ユーザbは,同じ場所でテレビを見ているような感覚でユーザaと会話をすることが可能になる。
【0018】
これを実現するためには,互いの構造が異なる空間A,Bに,互いの姿が自然に表現されることが必要となる。互いの構造が異なる空間A,Bとは,例えば空間Aに存在するテーブルTa と,空間Bに存在するテーブルTb の位置や形状が異なることを意味する。この場合,互いの構造が異なる空間A,Bに,互いの姿を表現するためには,少なくとも相手の位置情報および姿勢情報が必要であるが,この位置情報,姿勢情報がそれぞれの空間A,Bで定義された座標系の座標値や関節角度で表される場合には,互いの姿を自然に表現するということはできない。ここで,相手の存在している位置および姿勢が,周辺の物体との位置関係によって表されることが重要になる。
【0019】
すなわち,図1(ロ)に示すように,ユーザaが実空間である空間Aまたはその映像にユーザbの分身(ユーザb′)を重ね合わせて見るような場合,空間BにおいてユーザbがテーブルTb の前に座っていれば,その分身のユーザb′も空間Aにおいて同じような物体であるテーブルTa の前に座っているように見えるのが自然であり望ましい。ユーザbが空間Bまたはその映像にユーザaの分身(ユーザa′)を重ね合わせて見る場合も同様である。
【0020】
なお,それぞれの空間A,Bにおいて,相手の姿を見るための表示装置としては,例えばヘッドマウントディスプレイ(HMD)を用いることができる。ヘッドマウントディスプレイを使うことによって,実際の空間と相手から送られてきた相手の姿とを重ね合わせて見ることが可能である。実際の空間と相手の姿とを重ね合わせるのではなく,実際の空間の映像と相手の姿とを合成してCRTや液晶等のディスプレイに表示してもよい。
【0021】
また,各ユーザの「分身」は,表示装置に表示される画像に限らず,ロボット等であっても構わない。
【0022】
以上のように,通信相手がどのような行動をとっているのかを知るうえで,相手が存在している位置および姿勢というのは重要な情報であるが,相手が存在している位置を知るうえで,異なる実空間の間では,空間内で存在している位置および姿勢を示す座標情報や角度情報は意味を持たない。本発明は以上の点に鑑み,周辺の物体との相対的な位置関係と姿勢を再現できる情報を,ユーザの姿勢情報として送ることに着目したものである。以下,実施の形態の具体例を説明する。
【0023】
[第1の実施の形態]
空間A,Bに端末が存在し,空間Aにいるユーザaの手先の方向に対して,空間Bにおいて表す手先の方向を計算する方法に関する第1の実施の形態を説明する。図2にブロック図を示し,処理の流れを図3に示す。
【0024】
図2において,送信側装置1は,ユーザaがいる空間Aに存在する端末装置であり,情報送信部11,物体選択処理部12,位置センサ13を持つ。受信側装置2は,他のユーザbがいる空間Bに存在する端末装置であり,情報受信部21,物体選択処理部22,関節角度計算部23,分身表示部24を持つ。
【0025】
送信側装置1と受信側装置2とは,ネットワークを介して接続される。なお,相互にユーザ位置を交換する場合には,それぞれの端末が図2に示す送信側装置1の機能と受信側装置2の機能の両方の機能を持つことは言うまでもない。
【0026】
送信側装置1は,空間Aに存在するユーザaの位置と,ユーザaの体の各部位の位置と方向と,空間A内に存在するテーブルTA や椅子CA などの各物体の位置と方向を位置センサ13によって計測する(図3のステップS1)。
【0027】
位置を計測する方法としては,位置センサ13として2台以上のカメラを用い,それらのカメラにより撮影した画像を周知の画像認識技術等を利用して解析することにより,ユーザaの位置と各物体の位置を計測する方法を用いることができる。また,ユーザの各部位の位置を検出するためのマーカーをユーザaに装着させ,空間A内に存在するマーカーの3次元位置を検出する方法を用いることもできる。位置センサ13としては,人間などの3次元位置を検出可能であれば,磁気センサや超音波などの方法を用いてもよい。
【0028】
物体選択処理部12は,位置センサ13によって計測した位置情報に基づいて物体を1つ選択する(ステップS2)。例えば,右手の先の向いている方に存在する物体が椅子CA であったとすると,空間Aの送信側装置1は,関連性のある物体として椅子CA を選択する。
【0029】
情報送信部11は,関連する物体の情報と,その物体の方向を向いている人の部位の情報(関連部位情報)を送信する(ステップS3)。図2の例では,椅子CA の物体情報と,関連部位情報として“右手”という情報を受信側装置2に送信する。
【0030】
物体情報として送信する情報としては,例えば,物体の名前や形状,機能など,基準とした物体を特徴づける情報が考えられる。このような物体情報は,データベースとして送信側装置1および受信側装置2にあらかじめ用意しておくことで,空間B側において,空間Aの物体と共通の機能を持つ物体を,送信された物体情報から選択することができる。
【0031】
空間Bにある受信側装置2の情報受信部21は,送信側装置1から送信された物体情報と関連部位情報を受信する(ステップS11)。そして,物体選択処理部22は,受信した物体情報をもとに,空間Bの中の物体を1つ選択する(ステップS12)。例えば,物体情報に含まれる物体の名前が椅子であったとすると,名前「椅子」によって空間Bの中の物体を,あらかじめ用意された物体情報データベースから検索し,椅子CB を選択する。
【0032】
次に,関節角度計算部23は,選択した物体の方向を向くように,関連する部位の関節の角度を計算する(ステップS13)。これにより,椅子CB の方向にユーザaの手の先が向くように,ユーザaの分身a′の右肩,右ヒジ,右手首の角度が計算され,空間Bにおいて,ユーザaの分身a′の右手を表す角度が決定される。同様に,頭部,左手,胸部,両足についても,各部位の関節の角度を計算することによって,ユーザaの分身a′の体のすべての関節の角度が決定され,姿勢を表すことができる。分身表示部24は,計算された姿勢でユーザaの分身a′を表示する。
【0033】
なお,送信側装置1における物体選択処理部12は,必ずしもすべての部位について関連性のある物体を選択しなくてもよく,ある部位の方向に適当な物体がなかった場合には,その部位に対応する物体は「なし」とし,その部位に関連する関節角度は,他の部位の関節角度から推定したり,あらかじめ定めた標準的な角度を適用したりしてもよい。これは,以下の実施の形態も同様である。
【0034】
[第2の実施の形態]
空間A,Bに端末が存在し,空間Aにいるユーザaの左手の位置に対して,空間Bにおいてユーザaを表す分身a′の左手の位置を計算する方法に関する本発明の第2の実施の形態を説明する。図4にブロック図を示し,処理の流れを図5に示す。
【0035】
図4において,送信側装置3は,ユーザaがいる空間Aに存在する端末装置であり,情報送信部31,物体選択処理部32,位置センサ33を持つ。受信側装置4は,他のユーザbがいる空間Bに存在する端末装置であり,情報受信部41,物体選択処理部42,関節角度計算部43,分身表示部44を持つ。
【0036】
送信側装置3と受信側装置4とは,ネットワークを介して接続される。なお,相互にユーザ位置を交換する場合には,それぞれの端末に図4に示す送信側装置3の機能と受信側装置4の機能の両方の機能を備える。
【0037】
送信側装置3は,空間Aに存在するユーザaの位置と,ユーザaの体の各部位の位置と方向と,空間A内に存在するテーブルTA や椅子CA などの各物体の位置と方向とを位置センサ33によって計測する(図5のステップS21)。
【0038】
物体選択処理部32は,位置センサ33によって計測した位置情報に基づいて物体を1つ選択する(ステップS22)。例えば,左手が触れている物体がテーブルTA であったすると,空間Aの送信側装置3の物体選択処理部32は,テーブルTA の物体を選択する。
【0039】
次に,情報送信部31は,関連する物体と,その物体に触れている人の部位の情報(関連部位情報)を送信する(ステップS23)。すなわち,この例では,テーブルTA の物体情報と,接触部位情報として“左手”という情報を受信側装置4に送信する。物体情報として送信する情報としては,例えば,物体の名前や形状,機能など,基準とした物体を特徴づける情報が考えられる。
【0040】
空間Bにある受信側装置4の情報受信部41は,送信側装置3から送信された物体情報と関連部位情報を受信する(ステップS31)。そして,物体選択処理部42は,受信した物体情報をもとに,空間Bの中の物体を1つ選択する(ステップS32)。例えば,物体情報に含まれる物体の名前がテーブルであったとすると,名前「テーブル」によって空間Bの中の物体を,あらかじめ用意された物体情報データベースから検索し,テーブルTB を選択する。
【0041】
関節角度計算部43は,選択した物体に触れるように,関連する部位の関節の角度を計算する(ステップS33)。すなわち,テーブルTB に左手が触れるようにユーザaの分身a′の左肩,左ヒジ,左手首の角度を計算し,決定する。これにより,空間Bにおいて,ユーザaの分身a′の左手を表す左腕の各関節の角度が決定される。
【0042】
同様に,頭部,右手,胸部,両足についても,各部位の関節の角度を計算することによって,ユーザaの体のすべての関節の角度が決定され,姿勢を表すことができる。分身表示部44は,計算された姿勢でユーザaの分身a′を表示する。
【0043】
[第3の実施の形態]
空間A,Bに端末が存在し,空間Aにいるユーザaの手先の方向に対して,空間Bにおいて表す手先の方向を計算する方法に関する第3の実施の形態を説明する。図6にブロック図を示し,処理の流れを図7に示す。
【0044】
図6において,送信側装置5は,ユーザaがいる空間Aに存在する端末装置であり,情報送信部51,相対距離計算部52,物体選択処理部53,位置センサ54を持つ。受信側装置6は,他のユーザbがいる空間Bに存在する端末装置であり,情報受信部61,物体選択処理部62,関節角度計算部63,分身表示部64を持つ。
【0045】
送信側装置5と受信側装置6とは,ネットワークを介して接続される。なお,相互にユーザ位置を交換する場合には,それぞれの端末に図6に示す送信側装置5の機能と受信側装置6の機能の両方の機能を備える。
【0046】
送信側装置5は,空間Aに存在するユーザaの位置と,ユーザaの体の各部位の位置と方向と,空間A内に存在するテーブルTA や椅子CA などの各物体の位置と方向を位置センサ54によって計測する(図7のステップS41)。
【0047】
物体選択処理部53は,位置センサ54によって計測した位置情報に基づいて複数の物体を選択する(ステップS42)。例えば,ユーザの右手と物体とのそれぞれの距離を計算し,近い方から任意のあらかじめ設定していた個数の物体を選択する方法や,空間Aに存在する全ての物体を選択する方法がある。この例では,空間A中の全ての物体を選択することとする。全ての物体を選択したため,ここではテーブルTA と椅子CA が選択される。
【0048】
次に,相対距離計算部52は,選択した物体とユーザaの各部位との相対距離を計算する(ステップS43)。相対距離とは,空間Aにおけるある基準の長さを単位とした長さである。計測したテーブルTA からユーザaの右手の中心までの距離を|PaTA |,椅子CA からユーザaの右手の中心までの距離を|PaCA |とする。
【0049】
情報送信部51は,選択した物体の情報と,各物体とユーザとの相対距離を空間Bの受信側装置6に送信する(ステップS44)。物体情報として送信する情報としては,例えば,物体の名前や形状,機能など,基準とした物体を特徴づける情報が考えられる。
【0050】
空間Bにある受信側装置6の情報受信部61は,送信側装置5から送信された物体情報と右手の中心との相対距離情報とを受信する(ステップS51)。物体選択処理部62は,受信した物体情報をもとに,空間Bの中の物体を複数選択する(ステップS52)。例えば,物体情報に含まれる物体の名前がテーブルと椅子であったとすると,名前「テーブル」によって空間Bの中の物体を,あらかじめ用意された物体情報データベースから検索し,テーブルTB を選択する。同様に,名前「椅子」についても検索し,椅子CB を選択する。その結果,空間AにおけるテーブルTA と椅子CA に対応する物体が,空間BにおいてはテーブルTB と椅子CB であるとする。
【0051】
関節角度計算部63は,選択された各物体と相対距離とから,空間Bにおけるユーザaの分身a′について各部位の位置を計算するため,選択された複数の物体から,相対距離を自然長とする仮想的なバネを伸ばし,バネの交点が力学的に釣り合う位置を計算する(ステップS53)。すなわち,選択された各物体から,バネの自然長が,受信した相対距離となる仮想的なバネを伸ばし,全てのバネを空間中の1つの点につなぐ。この点に働く各バネの力が力学的に釣り合う位置を計算する。釣り合った点を,ユーザaの右手の位置を空間Bにおいて表す位置として決定する(ステップS54)。
【0052】
具体的には,空間AにおけるテーブルTA からユーザaの右手の中心までの距離が|PaTA |,椅子CA からユーザaの右手の中心までの距離が|PaCA |であったとすると,バネに力が働かないときの自然長の長さが,それぞれ|PaTA |,|PaCA |に相当する2本の仮想的なバネSaTB ,SaCB を考え,これらのバネSaTB ,SaCB を空間BにおけるテーブルTB ,椅子CB から伸ばし,空間B中の一つの点につなぎ,その点に働く各バネの力が力学的に釣り合う位置を計算して,その位置を空間Bにおけるユーザaの右手の中心の位置と決定する。
【0053】
選択された物体の個数が2個の場合であれば,分身の部位と対応する各物体の距離の関係をユーザの体の部位と各物体の距離の関係に比例させることによって,分身の部位の位置を決定することもできる。しかし,選択された物体の個数が3個以上の場合,異なる構造の空間の間では,このような比例関係を成り立たせることができなくなる。そのため,本発明では,上記ステップS53およびステップS54で示したように,分身の部位が選択された各物体に仮想的なバネでつながれているとして,力学的に釣り合う点を算出し,分身の部位の位置を決定する。これにより,異なる構造の空間の間でも,任意の個数の物体との関係において対応する位置を求めることができる。
【0054】
同様に,頭部,左手,胸部,両足についても,空間Bにおける各部位の位置を計算することを通じてユーザaの分身a′のすべての関節の角度が決定され,姿勢を表すことができる。分身表示部64は,計算された姿勢でユーザaの分身a′を表示する。
【0055】
[第4の実施の形態]
空間A,Bに端末が存在し,空間Aにいるユーザaの着座姿勢に対して,空間Bにおいて適切な場所において着座している姿勢として表す方法に関する第4の実施の形態を説明する。図8にブロック図を示し,処理の流れを図9に示す。
【0056】
図8において,送信側装置7は,ユーザaがいる空間Aに存在する端末装置であり,情報送信部71,物体選択処理部72,位置センサ73を持つ。受信側装置8は,他のユーザbがいる空間Bに存在する端末装置であり,情報受信部81,物体選択処理部82,関節角度計算部83,分身表示部84を持つ。
【0057】
送信側装置7と受信側装置8とは,ネットワークを介して接続される。なお,相互にユーザ位置を交換する場合には,それぞれの端末に図8に示す送信側装置7の機能と受信側装置8の機能の両方の機能を備える。
【0058】
送信側装置7は,空間Aに存在するユーザaの位置と,ユーザaの頭部または胸部の高さと,ユーザaの体の各部位の位置と方向と,空間A内に存在するテーブルTA や椅子CA などの各物体の位置と方向を位置センサ73によって計測する(図9のステップS61)。
【0059】
物体選択処理部72は,位置センサ73によって計測した位置情報に基づいてユーザaが座っている物体を1つ選択する(ステップS62)。ユーザaの頭部または胸部の高さが,ある一定以下の高さで,ユーザaの位置が椅子CA の位置で重なっている場合,物体選択処理部72は,椅子CA をユーザaが座っている物体として選択する。
【0060】
情報送信部71は,選択した物体である椅子CA の物体情報と,人が着座姿勢を取っているという情報を送信する(ステップS63)。物体情報として送信する情報としては,例えば,物体の名前や形状,機能など,基準とした物体を特徴づける情報が考えられる。
【0061】
空間Bにある受信側装置8の情報受信部81は,送信側装置7から送信された物体情報とユーザaが座っていることを示す情報を受信する(ステップS71)。物体選択処理部82は,受信した物体情報をもとに,空間Bの中の物体を1つ選択する(ステップS72)。例えば,物体情報に含まれる物体の名前が椅子であったとすると,名前「椅子」によって空間Bの中の物体を,あらかじめ用意された物体情報データベースから検索し,椅子CB を選択する。
【0062】
次に,関節角度計算部83は,椅子CB に人が着座姿勢を取るように,ユーザaの分身a′の関連する部位の関節の角度を計算し,決定する(ステップS73)。この着座姿勢を取っているときの関節角度は,物体情報データベースから得られた椅子CB の人が座る位置の高さ情報や奥行き情報,また,ユーザaの分身a′についての各部位のサイズ情報から容易に計算することができる。また,あらかじめ物体の形状に応じて計算された関節の角度情報をテーブル化したデータを用意しておき,選択された物体の形状からテーブルを参照して関節角度を算出してもよい。これにより,空間Bにおいて,ユーザaの各部位の関節の角度が決定され,空間Bにおいて,ユーザaの分身a′が着座している姿勢が表される。分身表示部84は,計算された姿勢でユーザaの分身a′を表示する。
【0063】
なお,本実施の形態においては,ユーザaの頭部または胸部の高さがある一定値以下である場合に着座姿勢であるとの判定を行っているが,椅子CA 等の物体に荷重センサや接触センサ等を設け,このセンサの出力に基づきユーザaが着座姿勢であるか否かを判定するような実施も可能である。
【0064】
[第5の実施の形態]
第5の実施の形態は,上記第1の実施の形態から第4の実施の形態までのユーザの姿勢情報伝達方法の中から,体の各部位のそれぞれに対して,個別にユーザの姿勢情報伝達方法を選択する手段を持つ。例えば,右手および左手については,第1または第2の実施の形態によるユーザの姿勢情報伝達方法を選択し,頭部および胸部については,第3の実施の形態によるユーザの姿勢情報伝達方法を選択し,第4の実施の形態についてはユーザが着座姿勢を取っている場合に選択するというように,第1から第4までの実施の形態を組み合わせて,受信側装置1の空間における送信側ユーザの分身の姿勢を決定する。このとき,ユーザの分身の関節角度として,各実施の形態に応じて同じ関節に複数の異なる角度が算出された場合には,あらかじめ定められた優先度に従って角度を決定してもよいし,例えば平均角度を関節角度として決定してもよい。第1から第4までの実施の形態をどのように組み合わせるかについては,システム設計者が決めることも可能であり,また送信側ユーザまたは受信側ユーザが動的にメニューなどにより設定し,カスタマイズ可能にするという方法を採用することもできる。
【0065】
上記本発明を適用するシステムが行う処理は,コンピュータとソフトウェアプログラムとを用いて実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。
【0066】
【発明の効果】
以上説明したように,本発明によれば,異なる構造を持った実空間で,周辺の物体との関連性を含めユーザの姿勢情報を伝達することができるので,異なる実空間にいながら,通信相手の指示動作や関心のある物体や,話題の対象となっている物体や,注目している物体等が容易に理解可能な通信環境を実現することができるようになる。
【図面の簡単な説明】
【図1】本発明を適用するシステムの概要を説明する図である。
【図2】第1の実施の形態を示すブロック図である。
【図3】第1の実施の形態における処理の流れを示す図である。
【図4】第2の実施の形態を示すブロック図である。
【図5】第2の実施の形態における処理の流れを示す図である。
【図6】第3の実施の形態を示すブロック図である。
【図7】第3の実施の形態における処理の流れを示す図である。
【図8】第4の実施の形態を示すブロック図である。
【図9】第4の実施の形態における処理の流れを示す図である。
【符号の説明】
1,3,5,7 送信側装置
2,4,6,8 受信側装置
11,31,51,71 情報送信部
12,32,53,72 物体選択処理部
13,33,54,73 位置センサ
21,41,61,81 情報受信部
22,42,62,82 物体選択処理部
23,43,63,83 関節角度計算部
24,44,64,84 分身表示部
52 相対距離計算部
Claims (17)
- 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザ姿勢情報伝達方法であって,
ユーザの体の各部位の位置および方向と,ユーザが存在する空間の物体の位置とを計測するステップと,
前記計測結果にもとづいて,ユーザの体の各部位の方向と関連性のある各部位それぞれに対応する物体を選択するステップと,
前記選択した物体の情報と,その物体と関連のある関連部位情報とを受信側端末へ送信するステップと,
前記送信された情報を受信側端末が受信するステップと,
前記受信した情報に含まれる物体の情報から,受信側端末の空間中に存在する物体を選択するステップと,
前記選択した物体を基準として,前記受信した関連部位情報から受信側端末の空間における送信側ユーザの分身の各部位の方向が,選択した物体の方向を向くように,体の各部位の関節角度を決定するステップとを有する
ことを特徴とするユーザ姿勢情報伝達方法。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザ姿勢情報伝達方法であって,
ユーザの体の各部位の位置と,ユーザが存在する空間の物体の位置とを計測するステップと,
前記計測結果にもとづいて,ユーザの体の部位が物体に触れている場合に,その部位に接触している物体を選択するステップと,
前記選択した物体の情報と,選択した物体に接触している部位の情報である接触部位情報とを受信側端末へ送信するステップと,
前記送信された情報を受信側端末が受信するステップと,
前記受信した情報に含まれる物体の情報から,受信側端末の空間中に存在する物体を選択するステップと,
前記接触部位情報に含まれる部位に対応する受信側端末の空間における送信側ユーザの分身の部位が,前記選択した物体に触れるように体の部位の関節角度を決定するステップとを有する
ことを特徴とするユーザ姿勢情報伝達方法。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザ姿勢情報伝達方法であって,
ユーザの体の各部位の位置と,ユーザが存在する空間の物体の位置とを計測するステップと,
前記計測結果にもとづいて,ユーザの体の各部位と,それらの各部位に関連性のある,各部位それぞれに対応する複数の物体を選択するステップと,
前記選択した複数の物体のそれぞれと,ユーザの体の中で,選択した複数の物体に関連する部位の中の特徴点との相対距離を計算するステップと,
前記選択した複数の物体の情報と,前記計算した体の各部位の相対距離とを受信側端末へ送信するステップと,
前記送信された情報を受信側端末が受信するステップと,
前記受信した情報に含まれる複数の物体の情報から,受信側端末の空間中に存在する複数の物体を選択するステップと,
前記受信した体の各部位の特徴点の相対距離を自然長とする仮想的なバネを前記選択した複数の物体から伸ばし,バネの交点が力学的に釣り合う位置を受信側端末の空間における送信側ユーザの分身の各部位の位置として決定するステップとを有する
ことを特徴とするユーザ姿勢情報伝達方法。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザの姿勢情報伝達方法であって,
ユーザの体の各部位の位置と,ユーザが存在する空間の物体の位置とを計測するステップと,
前記計測結果にもとづいて,ユーザと物体との関係からユーザが物体に座っているか否かを判定し,座っている場合にユーザの姿勢を着座姿勢と決定するステップと,
前記ユーザが座っている物体の情報と,前記決定した着座姿勢情報とを受信側端末へ送信するステップと,
前記送信された情報を受信側端末が受信するステップと,
前記受信した情報に含まれる物体の情報から,受信側端末の空間中に存在する物体を選択するステップと,
前記選択した物体に対して,前記受信した着座姿勢情報から受信側端末の空間において物体に対する着座姿勢を取るように,受信側端末における送信側ユーザの分身の各関節角度を決定するステップとを有する
ことを特徴とするユーザ姿勢情報伝達方法。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザ姿勢情報伝達方法であって,
ユーザが存在する空間におけるユーザの姿勢情報を送信し,受信側端末における空間中のユーザの分身の姿勢を決定するにあたり,ユーザの体の部位の方向に基づき分身の部位を選択した方向に向ける第1の方法,ユーザの体の部位が物体に接触していることに基づき分身の部位を対応する物体に接触させる第2の方法,ユーザの体の部位と複数の物体の位置関係に基づき分身の部位と対応する複数の物体との位置関係を定める第3の方法,またはユーザが着座姿勢であることに基づき分身に着座姿勢を取らせる第4の方法のいずれの方法を採用するかを,指定された情報または各部位ごとにあらかじめ定められた情報に基づいて選択するステップと,
ユーザの体の各部位の位置および方向と,ユーザが存在する空間の物体の位置とを計測するステップと,
前記計測結果にもとづいて,ユーザの体の各部位または各部位の方向と関連性のある1または複数の物体を選択するステップと,
前記選択した物体の情報と,その物体と関連のある関連部位情報とを受信側端末へ送信するステップと,
前記送信された情報を受信側端末が受信するステップと,
前記受信した情報に含まれる物体の情報から,受信側端末の空間中に存在する物体をまたは複数選択するステップと,
前記選択した物体を基準として,前記選択された第1の方法から第4の方法までのいずれかの方法により,前記受信した関連部位情報から受信側端末の空間における送信側ユーザの分身の各部位の関節角度を決定するステップとを有する
ことを特徴とするユーザ姿勢情報伝達方法。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境において,受信側端末に対し,受信側端末の空間中に存在する物体を選択させ,選択した物体を基準として,受信した関連部位情報から受信側端末の空間における送信側ユーザの分身の各部位の方向が,選択した物体の方向を向くように,各部位の関節角度を決定させるためのユーザ姿勢情報を送信するユーザ姿勢情報送信装置であって,
ユーザの体の各部位の位置および方向と,ユーザが存在する空間の物体の位置とを計測する手段と,
前記計測結果にもとづいて,ユーザの体の各部位の方向と関連性のある各部位それぞれに対応する物体を選択する手段と,
前記選択した物体の情報と,その物体と関連のある関連部位情報とを,受信側端末へ送信する手段とを備える
ことを特徴とするユーザ姿勢情報送信装置。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザ姿勢情報受信装置であって,
請求項6に記載のユーザ姿勢情報送信装置から送信された,選択した物体の情報と関連部位情報とを含むユーザ姿勢情報を受信する手段と,
前記受信した物体の情報から,当該ユーザ姿勢情報受信装置側の空間中に存在する物体を選択する手段と,
前記選択した物体を基準として,前記受信した関連部位情報から当該ユーザ姿勢情報受信装置側の空間における送信側ユーザの分身の各部位の方向が,選択した物体の方向を向くように,体の各部位の関節角度を決定する手段とを備える
ことを特徴とするユーザ姿勢情報受信装置。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境において,受信側端末に対し,受信側端末の空間中に存在する物体を選択させ,選択した物体に対応する接触部位情報に含まれる部位に対応する受信側端末の空間における送信側ユーザの分身の部位が,前記物体に触れるように体の部位の関節角度を決定させるためのユーザ姿勢情報を送信するユーザ姿勢情報送信装置であって,
ユーザの体の各部位の位置と,ユーザが存在する空間の物体の位置とを計測する手段と,
前記計測結果にもとづいて,ユーザの体の部位が物体に触れている場合に,その部位に接触している物体を選択する手段と,
前記選択した複数の物体の情報と,選択した物体に接触している部位の情報である接触部位情報とを送信する手段とを備える
ことを特徴とするユーザ姿勢情報送信装置。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザ姿勢情報受信装置であって,
請求項8に記載のユーザ姿勢情報送信装置から送信された,選択した物体の情報と,選択した物体に接触している部位の情報である接触部位情報とを受信する手段と,
前記受信した情報に含まれる物体の情報から,当該ユーザ姿勢情報受信装置の空間中に存在する物体を選択する手段と,
前記物体に対応する接触部位情報に含まれる部位に対応する当該ユーザ姿勢情報受信装置の空間における送信側ユーザの分身の部位が,前記選択した物体に触れるように体の部位の関節角度を決定する手段とを備える
ことを特徴とするユーザ姿勢情報受信装置。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境において,受信側端末に対し,受信側端末の空間中に存在する複数の物体を選択させ,受信した体の各部位の特徴点の相対距離を自然長とする仮想的なバネを前記選択した複数の物体から伸ばし,バネの交点が力学的に釣り合う位置を受信側端末の空間における送信側ユーザの分身の各部位の位置として決定させるためのユーザ姿勢情報を送信するユーザ姿勢情報送信装置であって,
ユーザの体の各部位の位置と,ユーザが存在する空間の物体の位置とを計測する手段と,
前記計測結果にもとづいて,ユーザの体の各部位と,それらの各部位に関連性のある,各部位それぞれに対応する複数の物体を選択する手段と,
前記選択した複数の物体のそれぞれと,ユーザの体の中で,選択した複数の物体に関連する部位の中の特徴点との相対距離を計算する手段と,
前記選択した複数の物体の情報と,前記計算した体の各部位の相対距離とを送信する手段とを備える
ことを特徴とするユーザ姿勢情報送信装置。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザ姿勢情報受信装置であって,
請求項10に記載のユーザ姿勢情報送信装置から送信された,選択した複数の物体の情報と,それらの物体と体の各部位との相対距離とを受信する手段と,
前記受信した複数の物体の情報から,当該ユーザ姿勢情報受信装置の空間中に存在する複数の物体を選択する手段と,
前記受信した体の各部位の特徴点の相対距離を自然長とする仮想的なバネを前記選択した複数の物体から伸ばし,バネの交点が力学的に釣り合う位置を当該ユーザ姿勢情報受信装置の空間における送信側ユーザの分身の各部位の位置として決定する手段とを備える
ことを特徴とするユーザ姿勢情報受信装置。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境において,受信側端末に対し,受信側端末の空間中に存在する物体を選択させ,選択した物体に対して,受信した着座姿勢情報から受信側端末の空間において物体に対する着座姿勢を取るように,受信側端末における送信側ユーザの分身の各関節角度を決定させるためのユーザ姿勢情報を送信するユーザ姿勢情報送信装置であって,
ユーザの体の各部位の位置と,ユーザが存在する空間の物体の位置とを計測する手段と,
前記計測結果にもとづいて,ユーザと物体との関係からユーザが物体に座っているか否かを判定し,座っている場合にユーザの姿勢を着座姿勢と決定する手段と,
前記ユーザが座っている物体の情報と,前記決定した着座姿勢情報とを送信する手段とを備える
ことを特徴とするユーザ姿勢情報送信装置。 - 複数のユーザ端末がネットワークを介してつながり,それぞれ異なる構造の空間に存在するユーザの行動を,それぞれの空間で共有する通信環境におけるユーザの姿勢情報受信装置であって,
請求項12に記載のユーザ姿勢情報送信装置から送信された,選択した物体の情報と着座姿勢情報とを受信する手段と,
前記受信した物体の情報から,当該ユーザ姿勢情報受信装置の空間中に存在する物体を選択する手段と,
前記選択した物体に対して,前記受信した着座姿勢情報から当該ユーザ姿勢情報受信装置の空間において物体に対する着座姿勢を取るように,当該ユーザ姿勢情報受信装置における送信側ユーザの分身の各関節角度を決定する手段とを備える
ことを特徴とするユーザ姿勢情報受信装置。 - 請求項6,請求項8,請求項10または請求項12のいずれか1項に記載のユーザ姿勢情報送信装置を実現するための処理をコンピュータに実行させるためのユーザ姿勢情報送信プログラム。
- 請求項7,請求項9,請求項11または請求項13のいずれか1項に記載のユーザ姿勢情報受信装置を実現するための処理をコンピュータに実行させるためのユーザ姿勢情報受信プログラム。
- 請求項6,請求項8,請求項10または請求項12のいずれか1項に記載のユーザ姿勢情報送信装置を実現するための処理をコンピュータに実行させるためのユーザ姿勢情報送信プログラムを記録した記録媒体。
- 請求項7,請求項9,請求項11または請求項13のいずれか1項に記載のユーザ姿勢情報受信装置を実現するための処理をコンピュータに実行させるためのユーザ姿勢情報受信プログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002359329A JP2004192325A (ja) | 2002-12-11 | 2002-12-11 | ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002359329A JP2004192325A (ja) | 2002-12-11 | 2002-12-11 | ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004192325A true JP2004192325A (ja) | 2004-07-08 |
Family
ID=32758756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002359329A Pending JP2004192325A (ja) | 2002-12-11 | 2002-12-11 | ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004192325A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010129053A (ja) * | 2008-12-01 | 2010-06-10 | Kobe Univ | 仮想空間生成システム |
JP2010253277A (ja) * | 2009-04-26 | 2010-11-11 | Ailive Inc | ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム |
JP2013535039A (ja) * | 2010-04-13 | 2013-09-09 | サムスン エレクトロニクス カンパニー リミテッド | 仮想世界処理装置及び方法 |
JP6266823B1 (ja) * | 2017-03-24 | 2018-01-24 | 株式会社コロプラ | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 |
-
2002
- 2002-12-11 JP JP2002359329A patent/JP2004192325A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010129053A (ja) * | 2008-12-01 | 2010-06-10 | Kobe Univ | 仮想空間生成システム |
JP2010253277A (ja) * | 2009-04-26 | 2010-11-11 | Ailive Inc | ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム |
JP2013535039A (ja) * | 2010-04-13 | 2013-09-09 | サムスン エレクトロニクス カンパニー リミテッド | 仮想世界処理装置及び方法 |
JP6266823B1 (ja) * | 2017-03-24 | 2018-01-24 | 株式会社コロプラ | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101591579B1 (ko) | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 | |
Burdea et al. | Virtual reality technology | |
KR101637990B1 (ko) | 임의의 위치들을 가지는 디스플레이 구성 요소들 상에 3차원 콘텐츠의 공간적으로 상호 연관된 렌더링 | |
US10996757B2 (en) | Methods and apparatus for generating haptic interaction for virtual reality | |
Nassani et al. | Tag it! ar annotation using wearable sensors | |
JP2020065229A (ja) | 映像通信方法、映像通信装置及び映像通信プログラム | |
US11630633B1 (en) | Collaborative system between a streamer and a remote collaborator | |
JP2007072194A (ja) | 人型映像制御装置 | |
Blach | Virtual reality technology-an overview | |
JP2004192325A (ja) | ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体 | |
JP2002305758A (ja) | 臨場感通信装置及び臨場感通信システム | |
CA3226429A1 (en) | System and apparatus for remote interaction with an object | |
JP2005148844A (ja) | 表示システム | |
JP2003223653A (ja) | ユーザ位置情報伝達方法およびユーザ位置情報伝達装置 | |
TWI796022B (zh) | 在立體影像上執行互動的方法與立體影像顯示系統 | |
Perry et al. | An investigation of current virtual reality interfaces | |
US20230164304A1 (en) | Communication terminal device, communication method, and software program | |
CN113039508A (zh) | 评估虚拟环境的输入和输出的对准 | |
JP2023134045A (ja) | 通信装置、通信システム、表示方法、及びプログラム | |
TWM618616U (zh) | 擴增實境的線上會議系統 |