JP2020035392A - 遠隔コミュニケーションシステム等 - Google Patents

遠隔コミュニケーションシステム等 Download PDF

Info

Publication number
JP2020035392A
JP2020035392A JP2018163760A JP2018163760A JP2020035392A JP 2020035392 A JP2020035392 A JP 2020035392A JP 2018163760 A JP2018163760 A JP 2018163760A JP 2018163760 A JP2018163760 A JP 2018163760A JP 2020035392 A JP2020035392 A JP 2020035392A
Authority
JP
Japan
Prior art keywords
user
virtual space
mobile terminal
avatar
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018163760A
Other languages
English (en)
Inventor
真一 福重
Shinichi Fukushige
真一 福重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fukushige Shinichi
Original Assignee
Fukushige Shinichi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fukushige Shinichi filed Critical Fukushige Shinichi
Priority to JP2018163760A priority Critical patent/JP2020035392A/ja
Publication of JP2020035392A publication Critical patent/JP2020035392A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 遠隔地にいるユーザー同士が、リアリティのある空間内であたかも実際に対面している感じで会話等し、コミュニケーションをとるシステムを提供すること【解決手段】 室内にいる第二ユーザー1bの第二モバイル端末10bと、遠隔地の現地にいる第一ユーザー1aの第一モバイル端末10aと、それらと双方通信するサーバー20を備え、サーバーは、仮想空間を記憶保持し、第二モバイル端末は仮想空間内で指定した位置における当該仮想空間の自由視点映像を表示し、第一モバイル端末は自己が存在する現地の現実空間を撮影した映像を表示する。現地に対応する仮想空間内の位置が、上記の自由視点映像内に存在する場合、第二ユーザーのアバターを第一モバイル端末に表示する現実空間の対応する位置に表示し、第一ユーザーのアバターを第二モバイル端末に表示する上記の仮想空間の対応する位置に表示し、アバターの向きは仮想空間内での向きに合わす。【選択図】 図1

Description

本発明は、遠隔コミュニケーションシステム等に関するものである。
例えば、遠隔地の自由視点映像を得るためには、現地で撮影された多数のパノラマ画像を合成した静的な仮想空間を作る。そして、その仮想空間上の位置と視線の方向等の情報に基づき、その視線の先に見える映像を表示する技術がある。係る技術には、例えば、Google社が公開するストリートビューのサービスなどがある。このサービスは、世界中の道路沿いの風景や、所定の店内の映像を提供しており、ユーザーは、世界の好きな場所に移動し、その景色や室内を見て歩くことができる。
しかしながら、ストリートビューのサービスは、過去に撮影された画像を用いているためユーザーから見えている世界はライブ映像ではないし、静止画であるのでリアリティに欠ける。
リアルタイムの自由視点映像を得るためには、例えば対象地点を様々な角度から撮影した多数のカメラ映像をリアルタイムに補間処理する必要がある。例えば、サッカースタジアムの観客席に多数のカメラを配置し、これらの映像をリアルタイムに合成することで好きな角度から選手のプレイをプレビューする技術などがある。しかし、係る技術を実現するためには、多くの専用カメラとそれらのキャリブレーションが必要となるため、世界中の様々な観光地を自由に散策するという用途には適さない。
さらに、上記の何れの自由視点映像も、ユーザーは、用意された映像を、視点を変えながら見ることができるものの、一方的に見るだけで、例えば遠隔地にいる現地の人とのコミュニケーションをとることはできない。
一方、自分のアバターとして遠隔操作が可能なロボットを現地に配備し、ロボットの目を通して自由視点映像を得るテレイグジスタンス技術がある。この技術を用いると、現地の景色等は、例えばロボットが保有するカメラを用いることで、上述した多くの専用カメラとそれらのキャリブレーションを行うことなく、比較的容易にリアルタイムで取得することができる。また、そのロボットを介して現地の人とコミュニケーションを取ることも可能となる。しかし、自分が操作できるロボットを遠隔地に用意する手間や、ロボットの行動範囲に対する制約から、やはり世界中の観光地を自由に旅する用途や、遠隔会議や作業者の遠隔アシストなど幅広い応用には向かない。
上述した課題はそれぞれ独立したものとして記載しているものであり、本発明は、必ずしも記載した課題の全てを解決できる必要はなく、少なくとも一つの課題が解決できれば良い。またこの課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。
(1)上述した課題を解決するために、本発明の遠隔コミュニケーションシステムは、地理的に離れた場所にいる複数のユーザー同士がコミュニケーションをとるためのシステムであって、前記ユーザーが携帯する端末と、その端末と双方通信するサーバーとを備え、前記サーバーは、現実空間に対応する仮想空間を記憶保持し、前記複数のユーザーのうちの一部のユーザーが携帯する前記端末は、前記仮想空間内で指定した位置における当該仮想空間の自由視点映像を表示する機能を備え、前記一部のユーザーとは別のユーザーが携帯する前記端末は、自己が存在する現実空間を撮影した映像を表示する機能を備え、前記別のユーザーがいる場所に対応する前記仮想空間内の位置が、前記自由視点映像内に存在する場合、前記一部のユーザーのアバターを前記別のユーザーが携帯する前記端末に表示する前記現実空間の対応する位置に表示し、前記別のユーザーのアバターを前記一部のユーザーが携帯する前記端末に表示する前記仮想空間の対応する位置に表示し、前記アバターの向きは、前記端末からの情報に基づき設定される前記サーバー内の前記仮想空間内での向きに合わせるように構成した。
本発明によれば、地理的に離れた場所にいる複数のユーザーが、自分のアバターを相手側の端末に表示し、しかもアバターの表示態様は、現実空間内に存在するユーザーの位置と向きに合わせるので、遠隔地にいる参加者同士がアバターとなって同一の空間に存在するかのような環境を構築でき、しかも、ユーザーはあたかも実際に対面している感じで会話等し、コミュニケーションをとることができる。端末は、例えば実施形態のモバイル端末や、ウェアラブル端末等に対応する。自由視点映像を表示する機能は、例えば実施形態ではサーバーに記憶された仮想空間の情報を取得して表示部に表示したり、現実空間の周囲の映像を撮影・取得して表示部に表示したりする機能などに対応する。
(2)前記端末は、前記現実空間内における位置を検出する位置検出機能を備え、前記仮想空間の座標系と、前記現実空間の座標系は同期し、前記端末の前記現実空間内での移動及び又は回転に伴い、前記仮想空間内での前記地点も移動及び又は回転するように構成するとよい。このようにすると、仮想空間内での移動がよりリアリティが高まるので良い。
(3)前記ユーザーの前記端末から指定する前記仮想空間内の地点が、その端末の現実空間における存在位置の場合、その端末の表示部に表示する映像は、その端末に搭載されるカメラで撮影した映像とし、その映像内に別のユーザーが携帯する前記端末が指定した位置情報が存在する場合、その存在する地点に前記別のユーザーのアバターを、その別のユーザーが向いている方向に対応させて表示するとよい。このようにすると、ユーザーがいる現実空間のところに、遠隔地にいる別のユーザーが移動してきて、その場所で会っている感じをより現実的に醸し出せるので良い。
(4)前記仮想空間は、現実空間に基づいて作成したものであり、その現実空間を予め撮影した画像中の動きのない物体について三次元モデルを作成し、動きのある物体についてはライブ映像から必要な情報を推定し、リアルタイムに復元し、前記三次元モデルを用いた前記仮想空間内の適宜の位置に合成して構成するとよい。このようにすると、端末に表示する自由視点映像を、簡易なデータを用いつつ擬似的にリアリティの高い映像とできるので良い。
(5)前記動きのない物体の三次元モデルとして、異なる日照条件下のテクスチャを用意し、前記ライブ映像に基づき現地の状況に合ったテクスチャの三次元モデルを用いて前記仮想空間を形成するとよい。このようにすると、端末に表示する自由視点映像を、現在の現地の状況に応じたリアリティの高い映像となるので良い。
(6)本発明に係るサーバーは、(1)から(5)のいずれか1に記載の遠隔コミュニケーションシステムに用いられるサーバーとするとよい。
(7)本発明に係るプログラムは、(1)から(5)のいずれか1に記載の遠隔コミュニケーションシステムに用いられる機能をコンピュータに実現させるためのプログラムとするとよい。
本発明は、遠隔地にいるユーザー同士が、リアリティのある空間内であたかも実際に対面している感じで会話等し、コミュニケーションをとることができる。
本発明に係る遠隔コミュニケーションシステムの好適な一実施形態を示す図である。 モバイル端末を示す図である。 仮想空間の所定の地点にユーザーのアバターを飛ばした状態を示す図である。 図3に示す状態における表示部に表示される自由視点映像の一例を示す図である。 一方のユーザーのモバイル端末に、別のユーザーのアバターを表示する機能を説明する図である。 作成される仮想空間を説明する図である。 作成される仮想空間を説明する図である。 作成される仮想空間を説明する図である。 本システムの作用を説明する図である。 本システムの作用を説明する図である。 本発明に係る遠隔コミュニケーションシステムの好適な別の実施形態を示す図である。
以下、本発明の好適な実施形態について図面に基づき、詳細に説明する。なお、本発明は、これに限定されて解釈されるものではなく、本発明の範囲を逸脱しない限りにおいて、当業者の知識に基づいて、種々の変更、修正、改良を加え得るものである。
図1は、本発明に係る遠隔コミュニケーションシステムの好適な一実施形態を示している。本実施形態では、現実空間において互いに離れた地点に存在している第一ユーザー1aと第二ユーザー1b(以下、両者を特に区別する必要が無いときは、単に「ユーザー1」と称する)が、それぞれ携帯する第一モバイル端末10aと第二モバイル端末10b(以下、両者を特に区別する必要が無いときは、単に「モバイル端末10」と称する)を用いてコミュニケーションをとるためのシステムである。モバイル端末10は、例えばスマートフォンや、タブレットPCなどを用いると良い。そして、本実施形態では、第二ユーザー1bは、例えば室内などにいたまま自分の分身を、現実空間で離れた位置にある現地に飛ばし、現地にいる第一ユーザー1aと交流する例を示している。この分身を用いた交流については後述する。
図2に示すように、モバイル端末10は、薄型で平面略矩形状のケース本体を有し、そのケース本体の前面に液晶ディスプレイ等からなる表示部12を備える。この表示部12は、半透過型液晶のタッチパネル13を構成する。また、ケース本体には、音声入力手段であるマイク14や、音声出力手段であるスピーカー15を内蔵する。さらに、ケース本体の前面の上方には操作者等を撮影するインカメラ16を配置し、ケース本体の背面の上方にはアウトカメラ17を配置する。それインカメラ16とアウトカメラ17は、ともにカメラ本体部分はケース本体に内蔵し、そのレンズ部分がケース本体の表面に露出するように配置する。さらにモバイル端末10は、ケース本体内に制御部11、10軸のGセンサー18、GPSユニット19、通信インタフェース8、記憶部9等を内蔵する。
これらの入力手段(タッチパネル13,マイク14,インカメラ16,アウトカメラ17,Gセンサー18,GPSユニット19等)や出力手段(表示部12,スピーカー15等)は、ケース本体に内蔵された制御部11に接続される。制御部11は、入力手段からの入力に伴い所定の処理を実行し、実行結果を出力手段に出力する。また制御部11は、通信インタフェース8を用いてネットワークに接続し、外部の機器・装置等と通信可能となる。
また、制御部11は、10軸のGセンサー18の出力から、モバイル端末10の向き・姿勢を検知する機能や、GPSユニット19の出力に基づき、モバイル端末10の現在位置を検知する機能や、AR(拡張現実)機能等を有する。
通信インタフェース8は、モバイル端末10の基地局と通信して公衆回線網に接続したり、インターネットに接続したりする機能を持つ。記憶部9は、本実施形態との関係でいうと、プリインストールやダウンロードにより取得した遠隔地のユーザーとコミュニケーションを行うためのアプリケーションプログラムを記憶保持するもので、内部の不揮発性メモリやマイクロSD等の外部の不揮発性メモリ等により構成される。
制御部11は、CPU,ROM,RAM、フラッシュメモリ、各種の周辺回路、インタフェース等を備えるマイコンを備える。制御部11は、電源ONに伴い内部電源からの電源供給がなされ動作を開始する。制御部11は、ROMに記録されたブートローダーによって、フラッシュメモリに記録されたOSとアプリケーションプログラムをRAM上に展開し、RAM上のOS及びアプリケーションプログラムを実行することで、以下に示す各種の処理を実行し、各種の機能を実現する。
制御部11に実装されるアプリケーションプログラムとしては、例えば、ユーザー1の肉体は日本等の現実空間上の所望の位置にいながら、自己の分身(実体がない仮想上の自分であり、本明細書では、「アバター」と称する)だけを世界中の任意の場所に行かせ、その場所において好きな方向を見ることができる機能(図3,図4等参照)を実現するプログラムや、そのアバターが存在する場所で別のユーザー1とコミュニケーションをとることができる機能(図5,図10等参照)を実現するプログラムを備える。さらに、本実施形態では、ユーザー1のいる場所から現実空間で離れた遠隔地の好きな場所で好きな方向を見る機能によりユーザー1が持つモバイル端末10の表示部12に表示する映像は、例えば、過去に撮影された画像から形成した仮想空間をそのまま表示するのではなく、現在の現地の状況に応じた映像とすることで、よりリアリティが高い自由視点映像としている。また、本実施形態における仮想空間は、想像上の全くの架空の空間ではなく、現実空間を三次元モデル化等して形成した仮想空間であり、各仮想空間に対応する現実空間が存在する。
そして以下の説明では、室内などにいる第二ユーザー1bが、自分の分身である第二アバター21bを、現実空間で離れた位置にある現地(観光地や店舗等)に飛ばし、その第二アバター21bを現地にいる第一ユーザー1aの第一モバイル端末10aに送り込み、コミュニケーションをとる例に基づいて説明する。基本的には、以下に記載の処理機能は、第一ユーザー1a,第一モバイル端末10aと、第二ユーザー1b,第二モバイル端末10bを入れ替えても同様に機能する。
このリアリティの高い自由視点映像は、以下のようにして構成する。本発明者は、世界中の景色等は、「静」と「動」から成り立つことに着目した。すなわち、例えば、図6等に示すように、ある地点において、所定の視点方向を撮影した映像を見ると、例えば、建物30や土地等のように時間経過があっても動かない「静」の物体と、人物31や車両などのように時間経過に伴い、位置や姿勢・形状等が変化する「動」の物体がある。例えば建物30等は見た目が変わっているように見えても、光の当たり加減に伴う変化であり、表面の色や明るさが変わっているに過ぎない。物体表面の色は環境光に応じてめまぐるしく変化する。例えば、晴れの日と曇りの日、昼と夕方など、日照条件や雲の動きなどによって建築物の外観や雰囲気は大きく変わる。人間はこのような表面的な見た目の変化によって世界が無秩序に変化しているように錯覚するが、それら物体の三次元形状に限れば変化量は大きくない。さらに、1つの画像中に存在する物体の多くは「静」の物体である。
そこで本実施形態では、動かない土地や建物などの三次元形状に関する情報はStructure from Motionなどの計測技術によって、あらかじめ取得しておき、三次元モデルによる仮想空間を作成し、サーバー20に記憶保持する。さらに、環境光に応じた陰影や反射等の変化は、現地のカメラの映像と対応付ける形で色の変化を記録しておき、上記の作成した三次元モデルに対し様々な日照条件下のテクスチャを用意する(図7参照)。そして、第二ユーザー1bの第二アバター21bが仮想空間上の所定の位置に行き、その第二アバター21bの自由視点により特定される方向の仮想空間を三次元デルに基づき作成・表示するに際し、物体表面のテクスチャに関する情報は、現地のライブ映像からの情報を利用し、現地の状況に合ったテクスチャを決定し、その情報を用いて外観の実際の変化を再現する。例えば、古い教会の壁などは色の変化が一定の範囲内に収まるため、一日分のテクスチャを記録しておくことで現実の外観を再現できる。例えば、ライブ映像から現在の現地が、晴れた昼間と判定した場合、例えば図8(a)に示すような昼間の日光が当たった明るい三次元モデルを表示し、例えば、ライブ映像から現在の現地が、夜間と判定した場合、例えば図8(b)に示すような夜間で建物の表面に照明が照射されている三次元モデルを表示する。すなわち、本システムのユーザー1が表示部12を介して見る遠隔地の景色は、本物のリアルタイム映像ではなく、前もって取得しておいた三次元情報と現地のカメラからの映像情報を用いて創り出された擬似的な現実空間のライブ映像である。上記の図示の例では、昼間と夜間の二種類としたが、時間帯に応じてさらに細かく分けけると良く、さらに、晴れの日、曇りの日、雨の日などのように天候等に応じたものも用意し、現在の現地のライブ映像に基づき対応する三次元モデルを表示すると良い。
ライブ映像は、例えば、世界の各所に設置されたあるいは設置するインターネットに接続されるネットワークカメラが配信する映像や、コミュニケーションをとる一方のユーザーが現地にいる場合には、そのユーザーが携帯するモバイル端末10のアウトカメラ17で撮影した映像を利用すると良い。特に、コミュニケーションを取る相手のユーザーが現地にいる場合、ネットワークカメラが設置されていないような場所でも現地の映像を取得することができるので好ましい。
一方、人物31や車、動物、店内の商品といった、形状や位置が動的に変化する「動」の物体については、ライブ映像から必要な情報を推定し、その形状や位置をリアルタイムに復元し、上述した「静」の物体の三次元モデルを用いた仮想空間内の適宜の位置に合成する。
また、「静」は「動」に比べて圧倒的に大きく、通常、映像中に占める面積も多い。そこで、映像中に大きな割合を占める「静」の物体を予め三次元モデル化することで、現地の現在の状況に応じた仮想空間を再現可能となる。
第二ユーザー1bは、自己のモバイル端末10を操作し、サーバー20に例えばインターネット網を利用してアクセスし、現実空間の行きたい場所を指定する。この場所の指定は、例えばモバイル端末10の表示部12に表示される検索ボックスに例えば現地の住所や施設名を入力することで行う。モバイル端末10の制御部11は、入力された行きたい場所に関する情報を、サーバー20に送る。また、第二モバイル端末10bの制御部11は、GPSユニット19の出力に基づいて決定する現在位置と、Gセンサー18の出力に基づいて決定する第二ユーザー1bが持つモバイル端末10の姿勢を求め、求めた現在位置とモバイル端末10の姿勢をサーバー20に送る。通常、ユーザー1は、モバイル端末10の表示部12を正対して見るので、モバイル端末10の姿勢、すなわち、モバイル端末10の背面が向いている方向がユーザー1の視線となる。さらに、室内にいる第二ユーザー1bは、これに加えてコントローラやキーボードの十字キーなどでアバターの位置を制御する。
また、ユーザー1がいる現実空間の座標系と、サーバー20内の仮想空間の座標系は同期している。ここで「座標系が同期する」とは、最初に基準となるXYZ座標を合わせた後は、それぞれの空間(仮想空間や現実空間)の座標系同士で相対位置が変化しないことを言う。
サーバー20は、モバイル端末10から入力された仮想空間内の対応する位置を特定し、当該仮想空間上の位置に第二ユーザー1bひいてはその第二ユーザー1bが持つ第二モバイル端末10bが存在するとして、両者の座標系の同期を取る。さらにサーバー20は、第二モバイル端末10bから送られる視点情報等に基づき、第二ユーザー1bが見たいとする(第二アバター21bが見ている)方向の仮想空間の三次元映像(現地のライブカメラ映像に基づく処理済み)を作成し、第二モバイル端末10bの表示部12に表示する。
これにより、例えば図3に示すように、第二ユーザー1bの第二アバター21bの視点が、例えば仮想空間内における所定の建物30の正面側で所定距離離れた位置から当該建物30を見るような状況の場合、サーバー20は、その第二モバイル端末10bの表示部12に例えば図4に示すようにその第二アバター21bの視野内に存在する建物30や人物31を配置した仮想空間を表示する。
ユーザーの頭の位置や向きは、そのユーザーが持つモバイル端末の位置や向きから推定される。そこで上記の状態から、例えば、第二ユーザー1bが第二モバイル端末10bを持った状態のまま現実空間内の位置は変えずに体の向きを変えると、第二モバイル端末10bの制御部11は、その回転方向並びに角度をGセンサー18その他のセンサーで検知し、それをサーバー20に送る(図1等参照)。サーバー20は、座標系の同期がとれている仮想空間内の第二アバター21bの向きを回転し、回転に伴う視点の変位に応じて表示部12に当該変位した視点に対応する空間を表示する。また、現実空間内で所定方向に移動すると、モバイル端末10の制御部11は、その移動方向並びに距離をGセンサー18その他のセンサーで検知し、それをサーバー20に送る(図1等参照)。そしてサーバー20は、受け取った情報に基づき座標系の同期がとれている仮想空間内の第二アバター21bを移動し、移動に伴う視点の変位に応じて表示部12に当該変位した視点に対応する空間を表示する。
さらに、室内にいる第二ユーザー1bは、上記の第二モバイル端末10b自体の動きに加えて、第二モバイル端末10bの画面(タッチパネル13)を指で操作したり、コントローラを用いて移動方向を指示したりすることにより第二アバター21bを自由に動かすことができる。これにより、例えば、図6に示すように室内にいる第二ユーザー1bの第二アバター21bは空を飛ぶこともできる。
ユーザー間でのコミュニケーションを行うための機能は、以下の通りである。現地から離れた室内にいる第二ユーザー1bは、上述したとおりの操作に基づき、遠隔地の現地の位置を指定し、サーバー20の仮想空間内の当該現地に対応する位置に第二アバター21bをおく。また、第二モバイル端末10bの動きや、タッチパネル13・コントローラ等の操作に伴い、第二アバター21bは、仮想空間内を移動する。
一方、現地にいる第一ユーザー1aは、以下に示す処理を行うことで、第一モバイル端末10aの現在位置やその向きなどの情報をサーバー20に送る。第一モバイル端末10aは、アウトカメラ17で第一モバイル端末10aの背面側の景色を撮影しつつ、AR機能を実行する。例えば、床面や壁面に設置された平面または立体マーカーをモバイル端末10のアウトカメラ17等を用いて撮影することでモバイル端末の相対運動をリアルタイムにトラッキングして求める。このようにしてアウトカメラ17の映像の変化に基づいて検知し、その検知した情報をGセンサー18その他のセンサーの情報に基づき補完し、回転方向と角度や移動方向と距離を求め、それをサーバー20に送る(図1等参照)。サーバー20は、座標系の同期がとれている仮想空間内の第一アバター21aの向きを回転したり、移動したりする制御を行う。
上述したように第一ユーザー1a(第一モバイル端末10a)並びに第二ユーザー1b(第二モバイル端末10b)の位置並びに向きに関する情報は、各モバイル端末10がサーバー20に送る。すなわち、第一ユーザー1aは、第一モバイル端末10aを操作(アウトカメラ17による撮影等)、仮想区間内における第一アバター21aの位置をサーバー20に送り、第二ユーザー1bは、第二モバイル端末10b等を操作し、仮想区間内における第二アバター21bの位置をサーバー20に送る。サーバー20は、例えば第二アバター21bの位置・向き等の情報を送り、第一モバイル端末10aのアウトカメラ17が撮影し表示部12に表示する現実空間の範囲内に第二アバター21bが存在する場合、当該第一モバイル端末10aの表示部12に、撮影した現実空間内に当該第二ユーザー1bの第二アバター21bを表示する処理を行う。
例えば、図5中、二点鎖線で示すように、第二ユーザー1bの第二アバター21bが、仮想空間内の所定の建物30の手前側の所定位置において、建物30に背を向けた状態で存在している状態において、第一ユーザー1aは現実空間において第二アバター21bよりもさらに建物30から離れた位置に存在し、当該建物30を見るような視点にいる。第二ユーザー1bの第二アバター21bの位置に第一モバイル端末10aを向ける。するとAR技術を利用し、現在アウトカメラ17で撮影した映像中の第二アバターが存在している位置に、第二アバター21bを合成し、現実空間内の所定の位置に第二ユーザー1bの第二アバター21bが重畳される形で可視化して表示する。
このように、空間内の所定位置に第二アバター21bを重畳して表示する処理は、例えば、Augmented Reality(AR:拡張現実)と同様の原理・技術により実現する。第二アバター21bは、3次元モデルまたは第二ユーザー1bのリアルタイム映像である。第一ユーザー1aは、第一モバイル端末10aの表示部12に第二アバター21bが表示されることを視認し、目の前の現実空間内での近くに第二ユーザー1bの第二アバター21bが存在することを認識でき、さらに第二アバター21bが自分の方を向いているため、第二ユーザー1bは、自分の方を向いた姿勢にあることを認識できる。
これらのことは、第二ユーザー1bの第二モバイル端末10b側でも行われる。但し、第二ユーザー1bは、現地から離れた室内にいるので、サーバー20の仮想空間内における第一アバター21aと第二アバター21bの相対位置関係から、第一アバター21aと第二アバター21bが接近し、第二アバター21bの視界の範囲内に第一アバター21aが存在する場合、サーバー20は、第二モバイル端末10bの表示部12に、仮想空間内の所定の位置に第二ユーザー1bのアバターの姿(第二アバター21b)を表示する。
これにより、図1に示すように、第一ユーザー1aの第一アバター21aを第二ユーザー1bが持つ第二モバイル端末10bの表示部12に表示し(背景が仮想空間)、第二ユーザー1bの第二アバター21bを第一ユーザー1aの第一モバイル端末10aに表示する(背景が現実空間)。第一アバター21aも第二アバター21bと同様に3次元モデルまたは第一ユーザー1aのリアルタイム映像である。第一アバター21aと第二アバター21bは、各ユーザーで同じでもよいが異ならせるとよい。特に例えば三人以上のユーザーが同じ領域に存在する場合を想定すると、あるユーザーのモバイル端末の表示部に他の二人のユーザーのアバターが同時に表示されるので、ユーザー毎に異なるアバターにするとそれらを区別して認識できるので良い。
上述したように、第一ユーザー1aや第二ユーザー1bがいる現実空間の座標系と、コミュニケーションを仲介するサーバー20内の仮想空間の座標系は同期しており、例えば第一ユーザー1aの持つ第一モバイル端末10aの動きが、第二ユーザー1bの第二モバイル端末10bの表示部12に表示された第一アバター21aの動きとなって反映される。つまり、例えば、第一ユーザー1aが第二ユーザー1bに近づくと、第二モバイル端末10bには第一アバター21aか接近して拡大表示され、また、第一モバイル端末10aの向きを変えると、第二モバイル端末10bの表示部12に表示される第一アバター21aの向きを変える処理を行う。これらのことは、逆の場合も同様である。
また、例えば第一ユーザー1aが、第一モバイル端末10aのマイク14を介して音声入力すると、その入力された音声データは、サーバー20に伝達される。同様に、第二ユーザー1bが発した音声データは、所定の通信経路を用いて第一モバイル端末10aに伝わり、スピーカー15から出力する(図9等参照)。このことは第二ユーザー1b(第二モバイル端末10b)側でも同様に行う。
このように、アバターとしてユーザーの音声や視線情報が相手方のモバイル端末10の持ち主に伝わり、双方向の実時間・遠隔コミュニケーションが可能となる。第一ユーザー1aと第二ユーザー1bは、それぞれが持つ第一モバイル端末10aと第二モバイル端末10bの表示部に、相手のアバターが表示され、しかもその表示されるアバターの姿勢・態様は、空間内の第一ユーザー1aと第二ユーザー1bの相対的な位置関係と同じように表示されるので、あたかも実際に相対している状態が醸し出される。つまり、例えば図9に示すように、第二アバター21bが正面を向いている場合には、第二ユーザー1bは、第一ユーザー1aの方を向いた状態にあり、例えば、第二アバター21bか横向きの場合、第二ユーザー1bは、第一ユーザー1aの前にいて横を向いた姿勢にいることになる。よって、第一ユーザー1aと第二ユーザー1bは、あたかも実際に相対しているような感覚でコミュニケーションをとることができる。
さらに上述した実施形態では、第一ユーザー1aが存在する遠隔地の現地は、観光名所等の屋外であるが、例えば室内などとしても良く、店舗その他の室内としても良い。例えば図10に示すように、第一ユーザー1aは、実店舗にいる店員であり、第一ユーザー1aのアバターは、その実店舗内の存在位置と同じ位置に対応する仮想空間に存在し、遠隔地にいる第二ユーザー1bの第二アバター21bがその実店舗内に対応する仮想空間に存在するように設定する。すると、それぞれの第一モバイル端末10aと第二モバイル端末10bの表示部12には、上述した実施形態と同様に現実空間或いは仮想空間の上に重ねて相手のアバターが所定位置に所定の方向を向いた姿勢で表示される。そして、第一ユーザー1aは、現実空間の店舗内を適宜移動したり視点を変えたりし、第二ユーザー1bは、仮想空間の店舗内を適宜移動したり視点を変えたりする。例えば購入目的の商品のそばに移動し、商品を確認して、購入する。ここでは、音声データを送受し、購入意思を示しており、この後、実店舗にいる店員である第一ユーザー1aが購入手続きを行ったり、第二ユーザー1b自身でネット決済したりして商品の購入手続きをとる。
店舗内の陳列商品が変わった場合、サーバー20に格納する店舗内の景色に基づく三次元モデルを更新することで、仮想空間内の店舗でありながら、実店舗にいき店舗内を移動しながら商品を見て、ショッピングをするのと同様の作用・効果を発揮できる。三次元モデルの更新のための映像データは、例えば実店舗が提供するようにするとよい。また、上記の例示したシステムでは、第一ユーザー1aは、適宜第一モバイル端末10aのインカメラ16やアウトカメラ17を用いて商品等を撮影し、撮影した画像データをサーバー20に送る。サーバー20は、受け取った画像データを第二モバイル端末10bの表示部12に表示する。これにより、第二ユーザー1bは、商品をより正確に確認し、購入の可否を適切に判断できる。
上述したように、本システムは、一方のユーザーの動きが他方のユーザーの画面に表示されたアバターの動きとなって反映されるため、遠隔地にいる者同士があたかも同じ空間にいるような感覚が得られる。よって、例えば、身体は家にいながら、意識だけは世界中の好きな場所を飛びまわり、現地の人々ともコミュニケーションし、観光やショッピングを行うことができるインタラクティブなシステムとなる。また、遠隔会議や作業者の遠隔アシストなどに適用できる。さらに、ユーザー(とそのモバイル端末)を何人(何台)でも追加することができるため多人数によるコミュニケーションも可能である。
上述した実施形態並びに各種の変形例では、任意視点の仮想空間を表示したり、相手のアバターを表示したりする機器として、モバイル端末を用いたが、本発明はこれに限ることは無く、例えば、ウェアラブル端末を用いても良い。図11に示す例では、室内にいる第二ユーザー1bが携帯する第二モバイル端末の代わりに、VRヘッドマウントディスプレイ40等を用いた例を示している。また、図示省略するが、現地の現実空間を表示する第一モバイル端末10aに替えてARヘッドマウントディスプレイ等のウェアラブル端末を用いても良い。このARヘッドマウントディスプレイは、例えばビデオシースルー型またはグラスシースルー型のヘッドマウントディスプレイ等を用いると良い。
第二モバイル端末10bの第二アバター21bの三次元位置は実際に第二ユーザー1bがVRヘッドマウントディスプレイ40を通して見ている仮想空間の位置であり、第二アバター21bの目から見た第一ユーザー1aの第一アバター21aなどもリアルタイムにVRヘッドマウントディスプレイ40の表示画面42に映し出される。
上述した各種の実施形態では、第二ユーザー1bは、室内等の現地から離れた場所にいてその第二ユーザー1bが持つ端末には、仮想空間の自由視点映像を表示し、第一ユーザー1aは、第二ユーザー1bが見ている自由視点映像の場所に対応する現実空間にいてその現実空間を撮影した映像を表示し、それぞれ相手の表示画像に自己のアバターを表示するようにしたが、それとは逆に、第一ユーザー1aが、室内等の現地から離れた場所にいてその第一ユーザー1aが持つ端末には、仮想空間の自由視点映像を表示し、第二ユーザー1bは、第一ユーザー1aが見ている自由視点映像の場所に対応する現実空間にいてその現実空間を撮影した映像を表示するようにしてもよい。そして、各端末には、それぞれ両方の機能を実装し、適宜使い分けるようにすると良い。
以上、本発明の様々な側面を実施形態並びに変形例を用いて説明してきたが、これらの実施形態や説明は、本発明の範囲を制限する目的でなされたものではなく、本発明の理解に資するために提供されたものであることを付言しておく。本発明の範囲は、明細書に明示的に説明された構成や製法に限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求する可能性があることを、念のために申し述べる。
1 :ユーザー
1a :第一ユーザー
1b :第二ユーザー
1b :第二ユーザー
8 :通信インタフェース
9 :記憶部
10 :モバイル端末
10a :第一モバイル端末
10b :第二モバイル端末
11 :制御部
12 :表示部
13 :タッチパネル
14 :マイク
15 :スピーカー
16 :インカメラ
17 :アウトカメラ
18 :Gセンサー
19 :GPSユニット
20 :サーバー
21a :第一アバター
21b :第二アバター
40 :ARヘッドマウントディスプレイ
42 :表示画面

Claims (6)

  1. 地理的に離れた場所にいる複数のユーザー同士がコミュニケーションをとるためのシステムであって、
    前記ユーザーが携帯する端末と、
    その端末と双方通信するサーバーとを備え、
    前記サーバーは、現実空間に対応する仮想空間を記憶保持し、
    前記複数のユーザーのうちの一部のユーザーが携帯する前記端末は、前記仮想空間内で指定した位置における当該仮想空間の自由視点映像を表示する機能を備え、
    前記一部のユーザーとは別のユーザーが携帯する前記端末は、自己が存在する現実空間を撮影した映像を表示する機能を備え、
    前記別のユーザーがいる場所に対応する前記仮想空間内の位置が、前記自由視点映像内に存在する場合、前記一部のユーザーのアバターを前記別のユーザーが携帯する前記端末に表示する前記現実空間の対応する位置に表示し、前記別のユーザーのアバターを前記一部のユーザーが携帯する前記端末に表示する前記仮想空間の対応する位置に表示し、
    前記アバターの向きは、前記端末からの情報に基づき設定される前記サーバー内の前記仮想空間内での向きに合わせるように構成したことを特徴とする遠隔コミュニケーションシステム。
  2. 前記端末は、前記現実空間内における位置を検出する位置検出機能を備え、
    前記仮想空間の座標系と、前記現実空間の座標系は同期し、前記端末の前記現実空間内での移動及び又は回転に伴い、前記仮想空間内の前記アバターを移動及び又は回転するように構成することを特徴とする請求項1に記載の遠隔コミュニケーションシステム。
  3. 前記仮想空間は、現実空間に基づいて作成したものであり、その現実空間を予め撮影した画像中の動きのない物体について三次元モデルを作成し、動きのある物体についてはライブ映像から必要な情報を推定し、リアルタイムに復元し、前記三次元モデルを用いた前記仮想空間内の適宜の位置に合成して構成することを特徴とする請求項1または2に記載の遠隔コミュニケーションシステム。
  4. 前記動きのない物体の三次元モデルとして、異なる日照条件下のテクスチャを用意し、前記ライブ映像に基づき現地の状況に合ったテクスチャの三次元モデルを用いて前記仮想空間を形成することを特徴とする請求項3に記載の遠隔コミュニケーションシステム。
  5. 請求項1から4のいずれか1項に記載の遠隔コミュニケーションシステムに用いられるサーバー。
  6. 請求項1から4のいずれか1項に記載の遠隔コミュニケーションシステムに用いられる機能をコンピュータに実現させるためのプログラム。
JP2018163760A 2018-08-31 2018-08-31 遠隔コミュニケーションシステム等 Pending JP2020035392A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018163760A JP2020035392A (ja) 2018-08-31 2018-08-31 遠隔コミュニケーションシステム等

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163760A JP2020035392A (ja) 2018-08-31 2018-08-31 遠隔コミュニケーションシステム等

Publications (1)

Publication Number Publication Date
JP2020035392A true JP2020035392A (ja) 2020-03-05

Family

ID=69668311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163760A Pending JP2020035392A (ja) 2018-08-31 2018-08-31 遠隔コミュニケーションシステム等

Country Status (1)

Country Link
JP (1) JP2020035392A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030209A1 (ja) * 2020-08-07 2022-02-10 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理システム
JP2022042980A (ja) * 2020-08-28 2022-03-15 ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル 仮想環境での相互作用を可能にするシステム及び方法
JP2022123652A (ja) * 2021-02-12 2022-08-24 株式会社スクウェア・エニックス イベント提供プログラム、イベント提供システムおよびイベント提供方法
WO2023090163A1 (ja) * 2021-11-19 2023-05-25 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP7412613B1 (ja) 2023-02-02 2024-01-12 株式会社コロプラ 情報処理システムおよびプログラム
WO2024038895A1 (ja) * 2022-08-19 2024-02-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 方法、サーバー、端末、および、基地局

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030209A1 (ja) * 2020-08-07 2022-02-10 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理システム
JP2022042980A (ja) * 2020-08-28 2022-03-15 ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル 仮想環境での相互作用を可能にするシステム及び方法
JP7464989B2 (ja) 2020-08-28 2024-04-10 ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル 仮想環境での相互作用を可能にするシステム及び方法
JP2022123652A (ja) * 2021-02-12 2022-08-24 株式会社スクウェア・エニックス イベント提供プログラム、イベント提供システムおよびイベント提供方法
WO2023090163A1 (ja) * 2021-11-19 2023-05-25 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2024038895A1 (ja) * 2022-08-19 2024-02-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 方法、サーバー、端末、および、基地局
JP7412613B1 (ja) 2023-02-02 2024-01-12 株式会社コロプラ 情報処理システムおよびプログラム

Similar Documents

Publication Publication Date Title
JP2020035392A (ja) 遠隔コミュニケーションシステム等
JP7187446B2 (ja) 拡張された仮想現実
JP6499154B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
US20160133230A1 (en) Real-time shared augmented reality experience
US20060114251A1 (en) Methods for simulating movement of a computer user through a remote environment
JP7249755B2 (ja) 画像処理システムおよびその制御方法、プログラム
US20210038975A1 (en) Calibration to be used in an augmented reality method and system
JP7378243B2 (ja) 画像生成装置、画像表示装置および画像処理方法
US20180239514A1 (en) Interactive 3d map with vibrant street view
WO2019016820A1 (en) METHOD FOR PLACING, MONITORING AND PRESENTING AN ENVIRONMENT BASED ON REALITY-VIRTUALITY IMMERSIVE CONTINUUM WITH IDO AND / OR OTHER SENSORS INSTEAD OF A CAMERA OR VISUAL PROCESSING, AND ASSOCIATED METHODS
US11587284B2 (en) Virtual-world simulator
JP2022131778A (ja) 情報処理装置、情報処理方法、およびプログラム
KR101873681B1 (ko) 항공 촬영 정보 기반 가상 조망 시스템 및 방법
US11417049B2 (en) Augmented reality wall with combined viewer and camera tracking
Woodward et al. Case Digitalo-A range of virtual and augmented reality solutions in construction application
TWI721299B (zh) 影像顯示系統與影像顯示方法
JP7218979B1 (ja) 情報処理装置、情報処理方法及びプログラム
KR102516780B1 (ko) 사용자 업로드 vr 시스템
US11366319B1 (en) Immersive viewing experience
JP7331405B2 (ja) Vrシステム、通信方法、及びプログラム
JP7279452B2 (ja) Vr端末、vrシステム、表示方法、及びプログラム
WO2024070762A1 (ja) 情報処理装置、情報処理方法、プログラム
Gilbert et al. Virtual displays for 360-degree video
JP2023134220A (ja) 通信システム、通信管理サーバ、通信管理方法、及びプログラム
JP2023134089A (ja) 通信装置、通信システム、表示方法、及びプログラム