JPH1055257A - 3次元仮想空間表示方法 - Google Patents

3次元仮想空間表示方法

Info

Publication number
JPH1055257A
JPH1055257A JP8211029A JP21102996A JPH1055257A JP H1055257 A JPH1055257 A JP H1055257A JP 8211029 A JP8211029 A JP 8211029A JP 21102996 A JP21102996 A JP 21102996A JP H1055257 A JPH1055257 A JP H1055257A
Authority
JP
Japan
Prior art keywords
terminal
mobile terminal
image
video
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8211029A
Other languages
English (en)
Inventor
Tomoyuki Kiyosue
悌之 清末
Takuya Inudou
拓也 犬童
Hiroshi Wakabayashi
浩 若林
Yoshifumi Yuda
佳文 湯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP8211029A priority Critical patent/JPH1055257A/ja
Publication of JPH1055257A publication Critical patent/JPH1055257A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

(57)【要約】 【課題】 通信相手の現実世界を3次元仮想空間に取り
込めるようにすることである。 【解決手段】 A,B,Cは現実空間の位置(会議室等
に設定された固定端末の位置)であり、Dは移動端末を
携帯して移動中であるとする。移動端末DではD自身の
アバタ画像の重畳表示を移動端末Dと固定端末A,B,
C間の距離があらかじめ定めた遠方の範囲のときは移動
端末Dの指示した3次元仮想空間に取り込む構成を特徴
としている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、計算機上でコンピ
ュータグラフィクス(CG)画像を用いた仮想的な空間
を構築し、この中で自分の分身画像(アバタ)を表示さ
せて、かつ複数のユーザが同一仮想空間内で自分の分身
を表示し合う、サイバースペース(Cyberspace)環境の
構築技術に関わる。
【0002】さらに、この仮想空間に加え、現実世界の
情報を取り込む技術に強く関与するものである。
【0003】
【従来の技術】関連する技術としては、1)高臨場感テ
レビ会議システムと、2)3DCGによるサイバースペ
ース(仮想環境)がある。
【0004】上記高臨場感テレビ会議システムは、2〜
3箇所の地点を、映像音声の入出力機器および符号化器
を高速ネットワークで結び、遠隔地に存在する人物があ
たかも身近な場所にいるように見せかけて、会議等のコ
ミュニケーションを円滑に行わせるシステムである。通
信先の相手を「見聞き」することを目的とするシステム
であり、相手先空間の中で自由に動き回ったりすること
はできない。
【0005】一方、3DCGによるサイバースペース
(仮想環境)は、計算機上に、現実には存在しない仮想
的な空間(バーチャルスペース)を作り、その中に自分
の分身を置いて動き回ることができるようにしたシステ
ムである。回線経由で他のユーザと位置座標をやり取り
することによって、自端末上の仮想空間に、他のユーザ
のアバタを表示したり、逆に他ユーザの端末上に自分の
アバタを表示したりすることができる。しかし、動き回
ることのできる空間は、計算機上の仮想空間内だけであ
り、それ故に、やりとりできる情報も限られる。
【0006】
【発明が解決しようとする課題】このように、従来の高
臨場感テレビ会議システムは、互いの通信場所に同じ現
実世界の上での環境(空間)を用意しなければならず、
それ故に構成が複雑かつ高価なものとなる。
【0007】また、通信相手の空間へのインタラクショ
ンが不可能であり、ただ単純に見るだけのシステムであ
る。
【0008】また、3DCGによるサイバースペース
は、参加者間のインタラクションは可能であるが、現実
世界とのインタラクションができない。全てが仮想世界
の上での作業に終始し、現実世界の中の情報をやりとり
するためには、一度仮想世界の上に移しかえなければな
らない。また、使用者が現実世界ですぐ傍にいるのに、
それが仮想空間上では反映されないので不自然であると
いう問題点があった。
【0009】本発明の目的は、これら通信相手の現実世
界を見るだけで入り込むことができない点を解決した3
次元仮想空間表示方法を提供することにある。
【0010】
【課題を解決するための手段】本発明にかかる3次元仮
想空間表示方法は、現在位置を取得する位置把握手段と
テレビカメラならびに通信手段とを備えた少なくとも1
台の移動端末のパーソナルコンピュータと、テレビカメ
ラと通信手段とを備えた少なくとも1台の固定端末のパ
ーソナルコンピュータとからなる通信システムにおける
パーソナルコンピュータ上の3次元仮想空間表示方法で
あって、前記移動端末と固定端末のパーソナルコンピュ
ータ間で移動端末の位置情報をそれぞれの前記通信手段
を用いて交わし、前記位置情報があらかじめ定めた近傍
の範囲内のときは前記テレビカメラからの入力画像中の
人物映像をそのまま3次元仮想空間上に表示し、前記位
置情報があらかじめ定めた遠方の範囲内のときは前記移
動端末のポインティングデバイスで入力画像上の位置を
指定させ、その位置に分身となるコンピュータグラフィ
ックス画像を表示するものである。
【0011】本発明は、テレビカメラから入力された画
像と、その上で位置情報を指定してCG画像を重畳表示
し、互いに位置座標を交わしながら会話し表示を行うこ
とを、最も主要な特徴とする。従来の技術とは、実画像
とCG画像の重畳表示を位置情報を用いて変化させる点
が異なる。
【0012】
【発明の実施の形態】以下、図面を用いて本発明の実施
形態を詳細に説明する。
【0013】初めに本発明の基本構成について説明し、
次に適用例について述べる。適用例については、1)遠
隔会議に用いた例、2)遠隔参加型の動物園の例、二つ
を挙げる。
【0014】まず、本発明の基本的なシステムの構成に
ついて、図1と図2を用いて説明する。
【0015】図1に全体のシステム構成図を示す。
【0016】図1中、1a〜1nは移動端末を使用する
ユーザである(なお、区別の必要がないときは単に1を
用いる。他の符号についても同様とする。)。ユーザ1
は複数いてもかまわない。
【0017】2a〜2nは移動端末であり、移動端末2
は少なくとも1台は必要で複数台あってかまわない。移
動端末2はGPS(グローバルポジショニングシステ
ム)等の位置把握手段とPHS(パーソナルハンディホ
ーンシステム)等の移動体通信手段を有している。
【0018】3は有線無線のネットワークであり、4は
前記移動端末2が位置把握手段を用いて取得した位置情
報を蓄積し交換する位置座標サーバである。ネットワー
ク3は移動端末2と位置座標サーバ4とを結んでいる。
【0019】5はローカルエリアネットワーク(LA
N)、6a〜6nは固定端末であり、LAN5は固定端
末6と位置座標サーバ4を接続する。固定端末6は少な
くとも1台は必要で複数台あってもかまわない。固定端
末6は、固定的に使用する端末ということではなく、移
動端末2のように移動させて使用することを前提に設置
せず、図中LAN5のような設備を介して位置座標サー
バ4に接続している端末のことである。7a〜7nは固
定端末6を使用するユーザであり、固定端末6の数に応
じて複数人存在してもかまわない。
【0020】図2に、本発明で使用する端末のモジュー
ル構成図を示す。この図で10は前記移動端末2もしく
は固定端末6(以下、両者を含めて端末10と呼ぶ)で
ある。なお、端末10の構成の詳細は後述する。
【0021】21は前記端末10に接続されたGPSア
ンテナ等の位置把握手段、22は前記端末10に接続さ
れたCRTディスプレイ等の表示装置、23は前記端末
10に接続されたマウス等のポインティングデバイス
(操作装置)、24は前記端末10に接続されたTVカ
メラ等の映像入力装置であり、以上の21〜24は端末
10に付属するものである。25は前記端末10に接続
されたLAN等の有線,無線のネットワーク回線であ
る。端末10が固定端末6の場合は、ネットワーク回線
25は図1でのLAN5であり、移動端末2の場合は、
ネットワーク回線25は図1でのネットワーク3であ
る。
【0022】端末10の構成について説明すると、11
は前記端末10内に組み込まれ、位置把握手段21から
入力された位置情報を取得するプログラムモジュールで
ある位置取得モジュール、12は前記端末10内に組み
込まれ、表示装置22に映像出力を行うための映像,画
像を与えるプログラムモジュールである映像表示モジュ
ール、13は前記端末10内に組み込まれ、ポインティ
ングデバイスから入力された指示情報を取得するプログ
ラムモジュールであるポインティングデバイス入力モジ
ュールを示す。
【0023】また、14は前記端末10内に組み込ま
れ、映像入力装置24から入力された映像を取得するプ
ログラムモジュールである映像入力モジュール、15は
前記端末10内に組み込まれ、ネットワーク回線25経
由で別端末10に位置情報,指示情報,映像情報などを
送信、または、別端末から同情報を受信するプログラム
モジュールである通信モジュール、16は前記端末10
内に組み込まれ、通信モジュール15で別端末10から
得られた別端末の指示情報をもとに、コンピュータグラ
フィクス画像(CG画像)を作るプログラムモジュール
であるCG画像作成モジュールを示す。
【0024】そして、位置取得モジュール11で得られ
た位置情報と、ポインティングデバイス入力モジュール
13で得られた指示情報、および映像入力モジュール1
4で得られた映像情報は、必要に応じて、通信モジュー
ル15に渡され別端末10に送られる。また、映像入力
モジュール14で得られた映像情報と、CG画像作成モ
ジュール16で生成されたCG画像は、必要に応じて映
像表示モジュール12に送られ、重畳表示される。
【0025】基本的なシステムの動作を、図1と図2を
用いて説明する。
【0026】本発明は、固定端末6を使用しているユー
ザと移動端末2を使用しているユーザが共有の場を有
し、かつその上で互いにインタラクションを交わし合っ
て、会議などの作業を共同で行うことのできるシステム
を提供するものである。
【0027】ここで、共有の場として、固定端末6が集
合している現実の空間(会議室等)を考える。移動端末
2には、この共有の場を、集合しているうちのどれか一
つの固定端末6上の映像入力装置24から入力される映
像を与えることで共有させる。
【0028】つまり、今、例えば図1の固定端末6aに
付属した映像入力装置24から映像を入力し、映像入力
モジュール14と通信モジュール15を介して、ネット
ワーク回線25(図1でのLAN5)を経由して、この
映像は一旦位置座標ザーバ4に蓄積され、ネットワーク
3を経由して参加している移動端末2に送る。
【0029】固定端末6a〜6n上では、各自が自分の
目で眼前の参加者を見ると同時に、各自の固定端末6上
に表示される映像上で目の前の参加者を見る。つまり、
図1の固定端末6a〜6n上では、自端末上の映像入力
装置24で入力した映像を自端末上で見ることになる。
【0030】一方、移動端末2上では、送られてきた映
像情報上で、自分の位置をポインティングデバイス23
で指示する。
【0031】つまり、今、例えば図1の移動端末2a上
では、ネットワーク回線25(図1でのネットワーク
3)を経由し一旦位置座標サーバ4に蓄積され、LAN
5を経由して、通信モジュール15と映像表示モジュー
ル12を介して表示装置22に表示された固定端末6a
の入力映像を表示しつつ、ポインティングデバイス23
から入力された画面上での位置情報を、ポインティング
デバイス入力モジュール13とCG画像作成モジュール
16を介して自端末上で表示するためのCG画像を作成
し、映像表示モジュール12を介して、自端末(移動端
末2)上の表示装置22上に表示すると同時に、ポイン
ティングデバイス23で得られた位置座標は、ポインテ
ィングデバイス入力モジュール13から通信モジュール
15を介し、ネットワーク回線25(図1でのネットワ
ーク3)と位置座標サーバ4を経由して、相手端末(他
の移動端末2b〜2nや固定端末6a〜6n)へ送られ
る。
【0032】移動端末2上でポインティングデバイス2
3によって指定された位置情報は、固定端末6上でGP
Sアンテナ(位置把握手段21)等によって得られる、
実世界上の位置座標上の一点と見なされ、あたかも固定
端末6が集合している実世界上の空間内の一箇所に、移
動端末2があるように扱う。
【0033】つまり、今、移動端末2aから送られた位
置座標は、ネットワーク3(図2でのネットワーク回線
25)を経由して位置座標サーバ4に一旦蓄積され、L
AN5(図2でのネットワーク回線25)経由で固定端
末6a〜6nに送られる。各固定端末6では、受信した
移動端末2の位置座標は、通信モジュール15を介して
CG画像作成モジュール16に与えられ、移動端末用の
ユーザを意味するアバタを生成する。これを映像表示モ
ジュール12を介して、映像入力モジュール14から送
られる自端末(固定端末)6a上で得た映像と重畳させ
て、表示装置22上で表示する。
【0034】この結果、固定端末6a上では、眼前の肉
眼で見る目の前の実世界では目に見えない人物像(アバ
タ)が、自端末上では見ることができることになる。ま
た、移動端末2上では、眼前の肉眼では見ることのでき
ない遠方の実世界の映像を見ると同時に、その上に自分
の分身(アバタ)を表示させ、映像中の遠方の実在人物
(もしくは、別の移動端末2を使用しているユーザのア
バタ)と同一環境にいるように扱うことができる。ただ
し、表示している映像は自分のアバタの視線からとらえ
たものではなく、他端末の視線でとらえた映像である。
すなわち、移動端末2上で見る映像中には、自分自身の
アバタが表示される。
【0035】移動端末2上でのポインティングデバイス
23による位置指定の実施形態について、図3を用いて
説明する。図3では固定端末6から送られてきた映像を
移動端末2に表示するためのウィンドウ31と、位置を
指定するためのウィンドウ32を同時に表示する例を示
している。
【0036】映像表示ウィンドウ31では、送られてき
た映像そのままを表示するので3次元表示になってい
る。一方、位置指定ウィンドウ32では、固定端末6の
位置把握手段21が通常2次元的な位置把握である(緯
度,経度等)ので、各端末をアイコン33で2次元的に
表示することになる。移動端末2上での位置指定も、位
置指定用カーソル35を用いた2次元座標平面上での指
定となる。
【0037】位置指定ウィンドウ32内では、映像を送
付する固定端末6がわかるように、特別なアイコン34
での表示がされている。位置指定ウィンドウ32上での
表示は、各固定端末6の位置がわかればよいが、映像表
示ウィンドウ31上でのアバタの表示位置を決定するに
は、映像を送付している端末の視線方向と画角を通知す
る必要がある。
【0038】以下、映像表示ウィンドウ31上での移動
端末ユーザのアバタの表示位置決定方法を図4を用いて
説明する。
【0039】送受信を開始する初期段階で、映像送付を
行う端末を移動させ、移動方向に視線を合わせ、このデ
ータを映像を送付する固定端末から移動端末へ送る。ま
た、画角は予め、各端末が有する映像入力装置(TVカ
メラ等)24の画角の情報を持っていることとする。
【0040】図4では、視線方向ベクトルを(xd,y
d)で、画角をαで示している。今、移動端末2上で指
定した位置座標を(x1,y1)、映像を送付している
固定端末6の位置座標を(x0,y0)とすると、映像
表示ウィンドウ31上でのアバタの表示位置を以下のよ
うにして決める。ここで、映像表示ウィンドウ31の横
幅はLv,映像表示ウィンドウ31の座標系を(p,
q)とし、中心を(p0,q0)、アバタの表示位置を
(p1,q1)としている。
【0041】ここで、視線方向ベクトルの大きさをLd
(任意単位)、映像送付した固定端末6の位置と表示画
面上に指示を与えた移動端末2間の距離をLl、視線か
らの角度をβとすると、
【0042】
【数1】 映像をとらえている地点と各自の位置から、アバタが他
人物と重なるときは、アバタの表示を消すなどの手段も
取ることができる。
【0043】サーバ内で管理されている位置座標データ
の管理形態について図5によって説明する。
【0044】図5は各アバタの位置座標を管理する表で
ある。この図において、No.は端末の通番である。
【0045】x(緯度),y(経度)は、固定端末6の
場合GPSアンテナ(位置把握手段21)によって得ら
れた実際の位置情報、移動端末2の場合は、画面上で指
示して定まった位置情報である。
【0046】画像送付の欄には、画像を送付している端
末にはマーキングがされる。本実施形態の場合、画像送
付は1箇所のみである。画像受信の欄には、画像を受信
している端末にはマーキングがされる。本実施形態の場
合、画像受信は複数箇所があってよい。備考の欄には、
図6で示した記号と端末の種別について意味している。
全ての固定端末6a〜6n、移動端末2a〜2nの位置
座標は一旦位置座標サーバ4に蓄積され、これを介して
他の端末に送付される、しかし、基本的に固定端末6間
では固定端末の位置座標は送受信されない。また、映像
の送信元になっている固定端末6や、この映像を送って
いる先の移動端末2を管理する。そして映像送信をして
いる相手の移動端末2を、受信側で変えられるようにす
ることや、サーバがTVカメラを持ってこれを固定端末
6へ送るようにできることは言うまでもない。
【0047】次に、上記基本構成を適用した例を以下に
述べる。適用例として、まず、遠隔会議に用いた例につ
いて述べる。
【0048】〈遠隔会議システムへの適用例〉具体的な
動作を説明するために、図6と図7,図8,図9を用い
て、遠隔会議システムに適用した例について説明する。
【0049】ここでは、4人の人物と端末を使用した例
について述べている。4人をそれぞれ、Aさん、Bさ
ん、Cさん、Dさんとすると、A,B,Cが固定端末6
を持ち現実空間を共有しており、これと離れた場所にい
るDが移動端末2を持って会議に参加する。
【0050】図6の(a)に示すように、現実世界はB
さんとCさんがAさん(図示はしていない)の目の前に
居る。図6の(b)に示すように、Aが所持する固定端
末6上では、Dの移動端末2から送られてきた位置座標
を元にDのアバタを、自端末のTVカメラ24Aから入
力している映像上に重畳表示する。同様に、BやCの所
持する固定端末6上でも、Dのアバタの表示位置はそれ
ぞれ異なるが、映像とアバタの重畳表示がされている。
【0051】ここでさらに、移動端末2を用いたユーザ
が遠隔から参加すれば、固定端末6上のアバタ表示が、
現行のD以外にも増える。
【0052】図7に示すように、Dが所持する移動端末
2上では、A,B,Cから送られてきた位置座標を元
に、予め設定しておいた調度類のコンテンツ(テーブル
等)に重ねて、各人物のアバタを表示する。しかし、こ
れでは、従来のサイバースペースと同じで、実空間の環
境を共有できないので、図8に示すように、固定端末6
のどれか(この場合、図5の固定端末A)から入力した
映像を受信し、この上で実空間内の位置とは異なる仮想
空間内の位置を指定し、そこに自分の分身画像(アバ
タ)を重畳表示させる。この場合、Dが所持する移動端
末2に付属している映像入力装置(TVカメラ等)24
からの入力は使用しない。なお、Mは山を表し、屋外に
居ることを示している。
【0053】これによりDは、A,B,Cおよび、存在
する環境について、より詳しく把握することができる。
また、A,B,Cは、Dの存在と位置によって、Dの意
図をより把握しやすくなる。
【0054】A,B,Cが所持する端末が固定端末6で
なく、移動端末2を所持したユーザがたまたま近くに存
在する場合でもかまわないことはいうまでもない。この
とき、実物の画像とアバタが画面上で重なって表示され
るが、これを防ぐために、位置把握手段21による位置
とボインティングデバイス23によって指定した位置が
きわめて近接している場合はアバタを表示しない手段を
講じることができる。
【0055】位置情報送信端末側では、ポインティング
デバイス23の指示による仮想空間内の位置が、移動端
末2の移動により、現実空間内の位置に近づいた場合、
仮想空間内の位置座標を位置座標サーバ4に送らないよ
うにする。同時に仮想空間上の位置に基づく自分自身の
アバタ表示を行わないようにする。場合によっては映像
の受信を一時的に中止してもよい。
【0056】位置座標サーバ4上では、位置座標管理形
態を図5に示すものと少し変え、図9に示すように、位
置把握手段21によって得られる実空間における位置座
標と、ボインティングデバイス23によって指示される
仮想空間における位置座標のどちらかを受信して管理す
る。受信端末側には、その端末の実空間上の位置に近い
実空間上の位置にある他の端末の位置座標は送らない。
仮想空間上の位置の場合は送る。
【0057】図9は、図5を変形し、位置座標データを
実空間上,仮空間上でのデータに分けて格納する形態を
示したものである。実空間座標値が与えるものは、固定
端末6がGPSアンテナ(位置把握手段21)を用いて
取得した、現実世界上の位置データである。仮想空間座
標値が与えられるものは、移動端末2の画面上の指示を
行って得たデータである。
【0058】一方、位置情報受信側端末上では、位置座
標サーバ4から仮想空間上での位置情報が送られてこな
くなったら、アバタの表示を行わないようにする。
【0059】これで、移動端末2を持ったまま実空間内
で移動することによって生じる、実空間、仮想空間間の
遷移がスムーズに行える。
【0060】〈遠隔参加型動物園システムへの適用例〉
次に、図10を用いて遠隔参加型動物園システムに適用
した例について説明する。
【0061】実際の動物園にカメラ41a〜41nの複
数台を設置し、これを基本システムの移動端末とみなし
て、ネットワーク3で位置座標サーバ4と接続する。位
置座標サーバ4は、各カメラ41と各端末2,6からの
位置座標を受けて管理し、またどの端末でどの映像を表
示しているかを管理している。端末は固定端末6でも移
動端末2でもかまわない。
【0062】ユーザ1,7は、それぞれの端末2,6上
で、複数のカメラ41から、映像送付を希望するカメラ
41を指定し、その上で自分の分身を表示する位置をポ
インティングデバイス23で指定する。指定した位置は
位置座標サーバ4に蓄えられ、他の端末に送付される。
自端末上では、自分のアバタが表示されると同時に、他
の端末の使用者のアバタも指定した位置関係を保持した
まま表示され、カメラ41から入力された映像を共有し
て相互作用を及ぼすことができる。
【0063】図11に、サーバが有するカメラ情報管理
表を、図12に同じくサーバが有する端末の情報管理表
の実施例を示す。また、同様に、端末上で位置指定を行
うユーザインタフェースの実施例を図13に示す。
【0064】図11は、遠隔参加型動物園の位置座標サ
ーバ4が保持しているカメラ情報の管理表である。N
o.はカメラの通番であり、実空間座標値であり、各カ
メラの設置場所である。送付先端末は、各カメラからの
入力画像を送付する先の端末である。1つのカメラが複
数の端末へ画像を送付してよい。
【0065】図12は、遠隔参加型動物園の位置座標サ
ーバ4が保持している端末情報の管理表である。No.
は端末の通番である。仮想空間座標は、各端末上で指定
した位置座標であり、緯度,経度に相当するものであ
る。受信カメラ欄は、画像を受信しているカメラのid
である。複数の端末が同一のカメラからの画像を受信し
てもよい。
【0066】図13は、遠隔参加型動物園の端末で用い
る位置指定のユーザインタフェースの例を示すもので、
42はカメラの位置を示すアイコン、43はアバタの位
置を示すアイコン、44は映像を受信しているカメラを
示すアイコン、45は他ユーザのアバタ、46は自分の
アバタであり、その他は図4と同じである。
【0067】次に、図14のフローチャートを用いて本
発明の動作を説明する。なお、(S1)〜(S5),
(S11)〜(S16)は各ステップを示す。
【0068】処理は、固定端末6の場合と移動端末2の
場合で変える。もちろん、移動端末2が場合によって固
定端末6になる場合、もしくはその逆の場合は、全ての
処理の前に、判断を一つ入れることで対処ができる。
【0069】固定端末6の処理の場合、まず最初に移動
端末2のために画像を送信するかどうかを決める(S
1)。次に、GPSアンテナ(位置把握手段21)によ
る位置の自動取得を始める(S2)。次に位置データを
位置座標サーバ4に送信すると同時に、画像を送信する
設定が行われている場合には画像を送信する(S3)。
次に位置座標サーバ4から、移動端末2の位置情報を受
信する(S4)。次に、受信した移動端末2の位置座標
を元に画面上にアバタを表示する(S5)。以下、現在
位置の取得と送信(画像の送信を選択した場合は画像の
取得と送信も)を繰り返す。
【0070】一方、移動端末2での処理の場合、まず最
初に、どの固定端末6からの画像を受信するかを決める
(S11)。次に、画面上で位置をポインティングデバ
イス23を用いて決定する(S12)。特に変更がなけ
れば以前のままの位置情報を使用する。次に、位置デー
タを位置座標サーバ4に送信する(S13)。次に、画
像を受信する(S14)。次に、同様に、他の移動端末
2の位置情報を受信する(S15)。次に、受信した移
動端末の位置情報を用いて、該当位置にアバタを表示す
る(S16)。この時、自分が指定した位置にも自分の
アバタを表示する。
【0071】
【発明の効果】以上説明したように、本発明は、現在位
置を取得する位置把握手段とテレビカメラならびに通信
手段とを備えた少なくとも1台の移動端末のパーソナル
コンピュータと、テレビカメラと通信手段とを備えた少
なくとも1台の固定端末のパーソナルコンピュータとか
らなる通信システムにおけるパーソナルコンピュータ上
の3次元仮想空間表示方法であって、前記移動端末と固
定端末のパーソナルコンピュータ間で移動端末の位置情
報をそれぞれの前記通信手段を用いて交わし、前記位置
情報があらかじめ定めた近傍の範囲内のときは前記テレ
ビカメラからの入力画像中の人物映像をそのまま3次元
仮想空間上に表示し、前記位置情報があらかじめ定めた
遠方の範囲内のときは前記移動端末のポインティングデ
バイスで入力画像上の位置を指定させ、その位置に分身
となるコンピュータグラフィックス画像を表示するよう
にしたので、本発明を用いることにより、現実の世界
(実空間)と仮想的な環境(仮想空間)との間で環境を
共有でき、かつ互いに同一環境にいるように相互の情報
交換を行うことができる人間の協同作業をスムーズに進
めることができるという利点がある。
【図面の簡単な説明】
【図1】本発明の基本構成を示す、全体システム構成図
である。
【図2】本発明で用いる端末のモジュール構成図であ
る。
【図3】本発明における移動端末上での表示位置を指定
する方法について説明する図である。
【図4】本発明における移動端末上での表示位置決定方
法について説明する図である。
【図5】本発明における位置座標サーバ上での位置座標
管理方法を説明する図である。
【図6】本発明における固定端末上での表示例である。
【図7】本発明における移動端末上での第一番目の表示
例である。
【図8】本発明における移動端末上での第二番目の表示
例である。
【図9】本発明における端末の移動を考慮した位置座標
サーバ上での位置座標管理方法を説明する図である。
【図10】本発明を適用した遠隔参加型動物園のシステ
ム構成図である。
【図11】本発明を適用した遠隔参加型動物園の位置座
標サーバが保持しているカメラ情報の管理表を示す図で
ある。
【図12】本発明を適用した遠隔参加型動物園の位置座
標サーバが保持している端末情報の管理表を示す図であ
る。
【図13】本発明を適用した遠隔参加型動物園の端末上
で用いる位置指定のユーザインタフェースの例である。
【図14】本発明の動作を説明するためのフローチャー
トである。
【符号の説明】
1 ユーザ 2 移動端末 3 ネットワーク 4 位置座標サーバ 5 LAN 6 固定端末 7 ユーザ 10 端末 11 位置取得モジュール 12 映像表示モジュール 13 ポインティングデバイス入力モジュール 14 映像入力モジュール 15 通信モジュール 16 CG画像作成モジュール 21 位置把握手段(GPSアンテナ等) 22 表示装置(CRTディスプレイ等) 23 ポインティングデバイス(マウス等) 24 映像入力装置(TVカメラ等) 25 ネットワーク回線(LAN,PSTN等) 31 映像表示ウィンドウ 32 位置指定ウィンドウ 33,34 アイコン 35 カーソル 41 カメラ 42〜44 アイコン 45,46 アバタ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/15 H04M 3/56 C // H04M 3/56 G06F 15/62 360 (72)発明者 湯田 佳文 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 現在位置を取得する位置把握手段とテレ
    ビカメラならびに通信手段とを備えた少なくとも1台の
    移動端末のパーソナルコンピュータと、テレビカメラと
    通信手段とを備えた少なくとも1台の固定端末のパーソ
    ナルコンピュータとからなる通信システムにおけるパー
    ソナルコンピュータ上の3次元仮想空間表示方法であっ
    て、前記移動端末と固定端末のパーソナルコンピュータ
    間で移動端末の位置情報をそれぞれの前記通信手段を用
    いて交わし、前記位置情報があらかじめ定めた近傍の範
    囲内のときは前記テレビカメラからの入力画像中の人物
    映像をそのまま3次元仮想空間上に表示し、前記位置情
    報があらかじめ定めた遠方の範囲内のときは前記移動端
    末のポインティングデバイスで入力画像上の位置を指定
    させ、その位置に分身となるコンピュータグラフィック
    ス画像を表示することを特徴とする3次元仮想空間表示
    方法。
JP8211029A 1996-08-09 1996-08-09 3次元仮想空間表示方法 Pending JPH1055257A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8211029A JPH1055257A (ja) 1996-08-09 1996-08-09 3次元仮想空間表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8211029A JPH1055257A (ja) 1996-08-09 1996-08-09 3次元仮想空間表示方法

Publications (1)

Publication Number Publication Date
JPH1055257A true JPH1055257A (ja) 1998-02-24

Family

ID=16599189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8211029A Pending JPH1055257A (ja) 1996-08-09 1996-08-09 3次元仮想空間表示方法

Country Status (1)

Country Link
JP (1) JPH1055257A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010143359A1 (ja) * 2009-06-10 2010-12-16 日本電気株式会社 アバター表示システム、装置、方法及びプログラム
WO2012042974A1 (ja) * 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP5340458B1 (ja) * 2012-07-12 2013-11-13 株式会社レピカ プログラムおよびサーバ装置
WO2018198777A1 (ja) * 2017-04-28 2018-11-01 株式会社アルファコード 仮想現実画像提供装置および仮想現実画像提供用プログラム
JP2019106211A (ja) * 2014-12-17 2019-06-27 富士ゼロックス株式会社 計算処理実行方法、計算処理システム及びプログラム
JP2019128721A (ja) * 2018-01-23 2019-08-01 株式会社コロプラ ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2019186921A (ja) * 2018-03-30 2019-10-24 株式会社リコー Vrシステム、通信方法、及びプログラム
WO2020095639A1 (ja) * 2018-11-09 2020-05-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN112115398A (zh) * 2019-06-20 2020-12-22 脉冲股份有限公司 虚拟空间提供系统、虚拟空间提供方法以及程序
JP2024042771A (ja) * 2022-09-16 2024-03-29 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010143359A1 (ja) * 2009-06-10 2010-12-16 日本電気株式会社 アバター表示システム、装置、方法及びプログラム
WO2012042974A1 (ja) * 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
CN103140879A (zh) * 2010-09-30 2013-06-05 富士胶片株式会社 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序
JP5337915B2 (ja) * 2010-09-30 2013-11-06 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JPWO2012042974A1 (ja) * 2010-09-30 2014-02-06 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
US9196093B2 (en) 2010-09-30 2015-11-24 Fujifilm Corporation Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
JP5340458B1 (ja) * 2012-07-12 2013-11-13 株式会社レピカ プログラムおよびサーバ装置
WO2014010756A1 (ja) * 2012-07-12 2014-01-16 株式会社レピカ プログラムおよびサーバ装置
JP2019106211A (ja) * 2014-12-17 2019-06-27 富士ゼロックス株式会社 計算処理実行方法、計算処理システム及びプログラム
JP6506486B2 (ja) * 2017-04-28 2019-04-24 株式会社アルファコード 仮想現実画像提供装置および仮想現実画像提供用プログラム
WO2018198777A1 (ja) * 2017-04-28 2018-11-01 株式会社アルファコード 仮想現実画像提供装置および仮想現実画像提供用プログラム
JPWO2018198777A1 (ja) * 2017-04-28 2019-06-27 株式会社アルファコード 仮想現実画像提供装置および仮想現実画像提供用プログラム
JP2019128721A (ja) * 2018-01-23 2019-08-01 株式会社コロプラ ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2019186921A (ja) * 2018-03-30 2019-10-24 株式会社リコー Vrシステム、通信方法、及びプログラム
WO2020095639A1 (ja) * 2018-11-09 2020-05-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2020095639A1 (ja) * 2018-11-09 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11589001B2 (en) 2018-11-09 2023-02-21 Sony Group Corporation Information processing apparatus, information processing method, and program
CN112115398A (zh) * 2019-06-20 2020-12-22 脉冲股份有限公司 虚拟空间提供系统、虚拟空间提供方法以及程序
JP2021002145A (ja) * 2019-06-20 2021-01-07 パルス株式会社 仮想空間提供システム、仮想空間提供方法及びプログラム
JP2024042771A (ja) * 2022-09-16 2024-03-29 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
CN109802931B (zh) 一种通信处理方法、终端及存储介质
Lehner et al. Distributed virtual reality: Supporting remote collaboration in vehicle design
EP0942396B1 (en) Shared virtual space display method and apparatus using said method
CN106548517B (zh) 基于增强现实技术进行视频会议的方法及装置
CN105306868B (zh) 视频会议系统及方法
US20130194305A1 (en) Mixed reality display system, image providing server, display device and display program
JPH09247637A (ja) 映像音声通信システム、映像通信システム、送信端末及び受信端末
JPH1055257A (ja) 3次元仮想空間表示方法
KR20200067537A (ko) 가상 환경 회의실 제공 시스템 및 방법
CN111242704A (zh) 用于在现实场景中叠加直播人物影像的方法和电子设备
JPH05113941A (ja) 送受信装置
JPH10260808A (ja) 映像表示システムおよびその臨場感向上方法
JPH03119478A (ja) 共用画面制御方式
Hirose et al. Integrating live video for immersive environments
JPWO2018193509A1 (ja) 遠隔作業支援システム、遠隔作業支援方法、及びプログラム
US11178361B2 (en) Virtual window for teleconferencing
US11928774B2 (en) Multi-screen presentation in a virtual videoconferencing environment
EP4145397A1 (en) Communication terminal device, communication method, and software program
KR20220094662A (ko) 실시간 좌표 공유 기반의 다자 간 원격 협업 방법 및 시스템
JP2021081943A (ja) 仮想現実(vr)と拡張現実(ar)の画像情報を共有する画像共有システム
JP3193254B2 (ja) 3次元仮想空間共有システム
JPH02195787A (ja) 映像通信装置
JP2020177490A (ja) Ar空間画像投影システム、ar空間画像投影方法及びユーザ端末
JP3184028B2 (ja) 人物映像表示システム
JP6945905B1 (ja) 情報処理システム、情報処理方法及びプログラム