JP7312550B2 - 仮想空間提供システム、仮想空間提供方法及びプログラム - Google Patents

仮想空間提供システム、仮想空間提供方法及びプログラム Download PDF

Info

Publication number
JP7312550B2
JP7312550B2 JP2018246652A JP2018246652A JP7312550B2 JP 7312550 B2 JP7312550 B2 JP 7312550B2 JP 2018246652 A JP2018246652 A JP 2018246652A JP 2018246652 A JP2018246652 A JP 2018246652A JP 7312550 B2 JP7312550 B2 JP 7312550B2
Authority
JP
Japan
Prior art keywords
character
virtual space
user
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018246652A
Other languages
English (en)
Other versions
JP2020107160A (ja
Inventor
春夫 福山
貴志 新居
豊 小笠原
裕介 古田
武仙 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Itoki Corp
Original Assignee
Itoki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Itoki Corp filed Critical Itoki Corp
Priority to JP2018246652A priority Critical patent/JP7312550B2/ja
Publication of JP2020107160A publication Critical patent/JP2020107160A/ja
Priority to JP2022166101A priority patent/JP2022186819A/ja
Application granted granted Critical
Publication of JP7312550B2 publication Critical patent/JP7312550B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、1又は複数のユーザに対して仮想空間を提供する仮想空間提供システム、仮想空間提供方法及びプログラムに関する。
特許文献1には、端末のディスプレイにおいて、仮想空間内に設けられた擬似的なプロジェクタと、仮想空間内を探索するユーザAのキャラクタとユーザBのキャラクタが表示される技術が記載されている。
特開2007-079799号公報
ここで、仮想空間において、ユーザに関連付けられたキャラクタを適切に所定の位置に配置させ、且つ、ユーザによる表現を当該ユーザに関連付けられたキャラクタに正確に反映させたいという要請がある。しかしながら、特許文献1に記載された従来技術では、このような要請に対して十分に応えることができなかった。
そこで、本開示は、仮想空間において、ユーザに関連付けられたキャラクタを適切に所定の位置に配置させ、且つ、ユーザによる表現を当該ユーザに関連付けられたキャラクタに正確に反映することが可能な仮想空間提供技術を提供することを目的とする。
本発明の一態様に係る仮想空間提供システムは、1又は複数のユーザに対して仮想空間を提供する仮想空間提供システムであって、ユーザのうち少なくとも一のユーザに対してキャラクタを関連付ける関連付け部と、仮想空間にキャラクタを配置するキャラクタ配置部と、ユーザの表現に関する表現情報を取得する取得部と、取得した表現情報に基づいて、仮想空間に配置されたキャラクタであって、表現情報に対応付けられたユーザに関連付けられたキャラクタに表現情報に基づく表現を反映する反映部と、を備える。
本発明の一態様に係る仮想空間提供方法は、1又は複数のユーザに対して仮想空間を提供するコンピュータが実行する仮想空間提供であって、ユーザのうち少なくとも一のユーザに対してキャラクタを関連付けるステップと、仮想空間にキャラクタを配置するステップと、ユーザの表現に関する表現情報を取得するステップと、取得した表現情報に基づいて、仮想空間に配置されたキャラクタであって、表現情報に対応付けられたユーザに関連付けられたキャラクタに表現情報に基づく表現を反映するステップと、を含む。
本発明の一態様に係るプログラムは、1又は複数のユーザに対して仮想空間を提供するコンピュータを、記ユーザのうち少なくとも一のユーザに対してキャラクタを関連付ける関連付け部と、仮想空間にキャラクタを配置するキャラクタ配置部と、ユーザの表現に関する表現情報を取得する取得部と、取得した表現情報に基づいて、仮想空間に配置されたキャラクタであって、表現情報に対応付けられたユーザに関連付けられたキャラクタに表現情報に基づく表現を反映する反映部と、して機能させる。
なお、本発明において、「部」、「装置」とは、単に物理的手段を意味するものではなく、その「部」、「装置」」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」、「装置」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」、「装置」の機能が1つの物理的手段や装置により実現されてもよい。
本発明の上記態様によれば、ユーザに関連付けられたキャラクタを適切に所定の位置に配置させ、且つ、ユーザによる表現を当該ユーザに関連付けられたキャラクタに正確に反映することができる。
本発明の実施形態に係る仮想空間提供システムの概略構成図である。 本発明の実施形態に係るコンピュータ及び管理サーバの概略構成図である。 本発明の実施形態に係るコンピュータの機能的構成の一例を示す概略構成図である。 本発明の実施形態に係る仮想空間の一例を示す概念的に示した図である。 本発明の実施形態に係る仮想空間提供処理の一例を示すフローチャートである。 本発明の実施形態に係る会議室の一例を示す図である。 本発明の実施形態に係るHMDで表示される視界画像の一例を示す図である。
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形(各実施例を組み合わせる等)して実施することができる。また、以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
図1は、本発明の実施形態に係る仮想空間提供システム100の全体構成を示すブロック図である。図1に示すように、仮想空間提供システム100は、例示的に、コンピュータ1a,1b,1cと、ユーザUaが用いるHMD(ead-ounted evice)3と、ユーザUb,Ucが用いるカメラ5b,5cと、管理サーバ7と、を備える。
なお、図1中には、3台のコンピュータとして、コンピュータ1a~1cを図示している。ただし、以下の説明において、これら3台のコンピュータを区別することなく説明する場合には、符号を一部省略して、単に「コンピュータ1」と呼ぶ。さらに、2台のカメラとして、カメラ5b及び5cを図示している。ただし、以下の説明において、これら2台のカメラを区別することなく説明する場合には、符号を一部省略して、単に「カメラ5」と呼ぶ。さらにまた、3人のユーザとして、ユーザUa~Ucを図示している。ただし、以下の説明において、これら3人のユーザを区別することなく説明する場合には、符号を一部省略して、単に「ユーザU」と呼ぶ。またさらに、コンピュータ1、HMD3、カメラ5、及び管理サーバ7の各構成の台数には特に制限はない。
コンピュータ1は、1又は複数のユーザUに対して仮想空間を提供する。コンピュータ1は、ネットワークNを介して互いに通信可能に接続される。コンピュータ1は、ネットワークNを介して管理サーバ7と通信可能に接続されている。なお、ネットワークNは、例えば、インターネット、携帯電話網といったネットワーク、LAN(ocal rea etwork)、あるいはこれらを組み合わせたネットワークにより実現される。また、図1に示す例において、コンピュータ1aは、HMD3の外部に配置されているが、この構成に限られず、コンピュータ1aは、HMD3に内蔵されてもよい。同様に、コンピュータ1bは、カメラ5bに内蔵されてもよいし、コンピュータ1cは、カメラ5cに内蔵されてもよい。
HMD3は、例えば、ユーザUaの頭部に装着され、ユーザUaの頭部の動きに応じて仮想空間と、仮想空間に基づく視界画像9aと、を提供する。HMD3は、ディスプレイ(不図示)を備え、ディスプレイは、コンピュータ1aから送信される画像情報又はテキスト情報等をモニタに表示可能である。ディスプレイは、ユーザUaの目の前方に位置するように配置される。ディスプレイは、例えば、非透過型の表示装置であり、仮想空間を視界画像9a(例えば3次元画像)として表示可能である。なお、ディスプレイは、液晶ディスプレイ又は有機EL(lectro uminescence)ディスプレイを含む。また、ディスプレイは、透過型又は半透過型の表示装置を含んでもよい。ディスプレイは、仮想空間を示す画像の少なくとも一部、及び、HMD3に備えられたカメラで撮像した現実空間の所定範囲を同時に表示してもよい。
HMD3は、コンピュータ1aから送信される音声情報をスピーカ(不図示)から音声として出力可能である。また、HMD3は、ユーザUaの音声を取得し、コンピュータ1aに出力するマイク(不図示)を備えてもよい。
カメラ5は、現実空間の所定の範囲を撮像する。例えば、カメラ5bは、ユーザUbを含む所定の範囲を撮像し、カメラ5cは、ユーザUcを含む所定の範囲を撮像する。カメラ5b,5cは、撮像することにより取得される3D情報をコンピュータ1b,1cに送信する。また、カメラ5は、ユーザUb,Ucの音声を取得するマイク(不図示)の機能を更に備える。さらに、カメラ5は、コンピュータ1aから送信されるユーザUaに対応する音声情報に基づいて音声を出力するスピーカ(不図示)を備えてもよい。
管理サーバ7は、例えば、コンピュータ1に1又は複数のユーザUに対して仮想空間を提供するためのプログラムを送信する。例えば、ユーザUaが滞在する所定のエリアA1において、複数のユーザが参加する会議を行なう場合、各コンピュータ1は、ユーザUのそれぞれの表現に関する表現情報を、管理サーバ7を介して他のコンピュータ1と通信して、共通の仮想空間において複数のユーザUが同一の会議を行うことを可能にする。
「表現情報」とは、ユーザUの感情や思想を態度や言語等で示す情報を含む。表現情報は、例えば、ユーザUの動作(動き)又は音声の少なくとも一方を含む。表現情報は、ユーザUが用いる不図示の入力装置に入力した画像情報、テキスト情報、又は音声情報を含んでもよい。また、表現情報は、ユーザUの近傍にある不図示のホワイトボード又は紙に記述した内容をカメラ等で取得した画像情報等を含んでもよい。
なお、各コンピュータ1は、各ユーザUの表現に関する表現情報を、管理サーバ600を介すことなく他のコンピュータ200と通信するようにしてもよい。なお、管理サーバ7は、例えば、1つ又は複数のサーバ装置により実現される。
ここで、本実施形態における仮想空間提供システム100の概要を説明する。図1に示すHMD3がユーザUaに仮想空間と当該仮想空間に基づく視界画像9aを提供する。視界画像9aは、HMD3のディスプレイ(不図示)に表示される画像である。視界画像9aは、コンピュータ1aにより生成された画像である。コンピュータ1aは、コンピュータ1bからユーザUbの表現情報を取得し、また、コンピュータ1cからユーザUcの表現情報を取得する。コンピュータ1aは、仮想空間を定義し、仮想空間に配置される、ユーザUbに関連付けられたキャラクタCb及びユーザUcに関連付けられたキャラクタCcを当該仮想空間に配置する。「キャラクタ」は、例えば、人物や動物などを含む。キャラクタは、例えば、ユーザUb,Ucを模した、又は、ユーザUb,Ucに対応した人型の物体を示す画像であってもよい。
コンピュータ1aは、取得した表現情報を踏まえて、ユーザUb,Ucの表現が反映された視界画像9aを生成する。つまり、ユーザUb,Ucの表現が変化するたびに視界画像を生成する。なお、コンピュータ1aは、表現情報が音声情報を含む場合は、当該音声情報を踏まえて、HMD3から、ユーザUb,Ucに対応する音声を出力するための音声出力情報を生成してもよい。
ユーザUaは仮想空間において、キャラクタCb,Ccと対話による通信(コミュニケーション)を図ることができる。例えば、カメラ5bのマイクで取得されたユーザUbの音声は、コンピュータ1bを介して、HMD3が備えるスピーカから出力される。カメラ5cのマイクで取得されたユーザUcの音声は、コンピュータ1cを介して、HMD3が備えるスピーカから出力される。また、HMD3に備えられたマイクは、ユーザUaの音声を取得し、音声情報としてコンピュータ1bに送信し、カメラ5bに備えられたスピーカによりユーザUaの音声が出力されてもよい。これにより、ユーザUbは、ユーザUaの音声を聞くことができる。さらに、HMD3に備えられたマイクは、ユーザUaの音声を取得し、音声情報としてコンピュータ1cに送信し、カメラ5cに備えられたスピーカによりユーザUaの音声が出力されてもよい。これにより、ユーザUcは、ユーザUaの音声を聞くことができる。
図2は、本発明の実施形態に係るコンピュータ1のハードウェアの構成と、管理サーバ7のハードウェアの構成とを示すブロック図である。なお、図中では、コンピュータ1のハードウェアに対応する符号には括弧を付すことなく記載し、管理サーバ7のハードウェアに対応する符号には括弧を付して記載する。
コンピュータ1は、例示的に、CPU(entral rocessing nit)11と、ROM(ead nly emory)及びRAM(andom ccess emory)等からなるメモリ12と、入力部13と、出力部14と、記録部15と、通信部16と、バス17と、を備えている。
CPU11は、メモリ12に記録されているプログラム、又は、記録部15からメモリ12にロードされたプログラムにしたがって各種の処理を実行する。
メモリ12には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。CPU11及びメモリ12は、バス17を介して相互に接続されている。また、このバス17には、入力部13と、出力部14と、記録部15と、通信部16と、が接続されている。
入力部13は、コンピュータ1を操作する者(例えば、ユーザUa)の指示操作に応じて各種情報を入力する。入力部13は、例えば、各種ボタン、タッチパネルあるいはマイク等で構成される。なお、入力部13は、コンピュータ1の他の各部を収容する本体とは独立した、キーボードやマウス等の入力装置により実現してもよい。
出力部14は、画像データや音声データを出力する。出力部14は、例えば、ディスプレイやスピーカ等で構成される。出力部14が出力した画像データや音声データは、ディスプレイやスピーカ等から、画像や音楽としてプレイヤが認識可能に出力される。
記録部15は、各種データを記憶する。記録部15は、例えば、DRAM(ynamic andom ccess emory)等の半導体メモリで構成される。
通信部16は、他の装置との間で行う通信を実現する。例えば、通信部16は、ネットワークNを介して、他のコンピュータ1b,1cや管理サーバ7との間で相互に通信を行う。
なお、コンピュータ1には、不図示であるがドライブを必要に応じて適宜設けられる。ドライブには、例えば、磁気ディスク、光ディスク、光磁気ディスク等から構成されるリムーバブルメディアが適宜装着されてもよい。ドライブによってリムーバブルメディアから読み出されたプログラムや、画像データ等の各種のデータは、必要に応じて記録部15にインストールされる。
管理サーバ7のハードウェアの構成について説明をする。管理サーバ7は、図2に示すように、例示的に、CPU71と、メモリ72と、入力部73と、出力部74と、記録部75と、通信部76と、バス77と、を備えている。これら各部は、上述のコンピュータ1が備える、符号のみが異なる同名の各部と同等の機能を有している。
図3は、本発明の実施形態に係るコンピュータ1の機能的構成の一例を示すブロック図である。コンピュータ1は、例示的に、1又は複数のユーザUに対して仮想空間を提供するための処理を実行する情報処理部111と、当該処理を実行するために必要な各種情報及び当該処理の結果に関する情報を記録するデータベース(DB)112と、を備えて構成される。なお、情報処理部111は、例えば、図2に示すメモリ12や記録部15に格納されているプログラムをCPU11が実行したりすることにより実現することができる。データベース112は、例えば、図2に示す記録部15に対応する。
情報処理部111は、機能的に、ユーザのうち少なくとも一のユーザに対してキャラクタを関連付ける関連付け部113と、仮想空間にキャラクタを配置するキャラクタ配置部114と、ユーザの表現に関する表現情報を取得する取得部115と、取得した表現情報に基づいて、仮想空間に配置されたキャラクタであって、当該表現情報に対応付けられたユーザに関連付けられたキャラクタに当該表現情報に基づく表現を反映する反映部116と、を備える。上記各機能の詳細については、後述する。
情報処理部111は、視界画像生成部16を更に備える。視界画像生成部16は、仮想空間データに基づいて、仮想空間を定義する。
図4は、本発明の実施形態に係る仮想空間の一例を示す概念的に示した図である。図4に示すように、視界画像生成部16が定義する仮想空間50は、例えば、中心点CPを基準とする半球を含む。仮想空間50においては、中心点CPを原点とするXYZ座標系が定義される。例えば、図1に示すHMD3の起動時において、仮想カメラ60(例えば、HMDが備えるカメラに相当する)が、仮想空間50の中心点CPに配置される。この仮想カメラ60が撮像することによって取得される画像情報に基づいて画像をHMD3のディスプレイに表示する。仮想カメラ60は、図1に示すように、現実空間においてユーザUaの頭部に装着されたHMD3の動き(位置及び傾きの変化)に応じて移動可能である。つまり、現実空間におけるHMD3の動きに対応するように、仮想空間50における仮想カメラ60が動く。
ここで、仮想カメラ60の位置は、仮想空間50におけるユーザの視点に対応する。視界画像生成部16は、仮想カメラ60に基づく基準視線SGに基づいて、仮想空間50における視界領域80を規定する。例えば、視界領域80は、仮想空間50のうち、HMD3を装着したユーザUaが視認する領域に対応する。
このように、視界画像生成部16は、例えば、仮想カメラ60を仮想空間50において中心点CPに配置し、仮想カメラ60の視線(基準視線SG)をユーザが向いている方向に設定する。よって、視界画像生成部16は、視界画像9を生成するための視界画像データを生成する。その後、視界画像生成部16は、HMD3の動きが変化すると、その変化に応じた新たな視界画像を生成するための視界画像データを生成する。
図3に戻り、DB112は、例示的に、空間情報SIと、キャラクタ情報CIと、表現情報EIと、オブジェクト情報OIと、特定画像情報GIと、を記録する。DB112においては、ユーザに関する情報に基づいて、ユーザごとに上記各種情報を関連づけて記録してもよい。
空間情報SIは、図4に示す仮想空間50を定義するための1つ以上の仮想空間データテンプレートを含む。
キャラクタ情報CIは、仮想空間に配置されるキャラクタに関する情報である。キャラクタ情報CIは、キャラクタに関連付けられたユーザを撮像することにより取得した画像情報、又は、キャラクタに関連付けられたユーザに基づくアバターの少なくとも一方を含む。アバターは、1又は複数の種類のアバター(例えば、動物を模した画像や、デフォルメされた人の画像)であってもよい。また、キャラクタ情報CIは、キャラクタを仮想空間に配置するための情報(例えば、位置情報等)を含む。
オブジェクト情報OIは、仮想空間に配置されるオブジェクトに関する情報である。オブジェクト情報OIは、室内又は室外の風景を示す情報である。オブジェクト情報OIは、例えば、会議室等の室内風景を含む。また、オブジェクト情報OIは、例えば森、山その他を含む風景、街並み、動物等を含む。また、オブジェクト情報OIは、仮想空間に配置するための情報(例えば、位置情報等)を含む。
特定画像情報は、例えば、椅子やテーブル等の什器に付されたマーカを示す画像情報を含む。マーカは、マトリックス型2次元コードであるQR(uick esponse)コード(登録商標)コードを含む。しかしながら、マーカは、QRコードに限定されず、1次元コードや任意のマーカを用いてもよい。なお、任意のマーカは、特定形状のマーカ、例えば、星型形状のような多角形状のマーカを含んでもよい。また、人物の顔の形状または大きさの少なくとも一方をマーカとして利用してもよい。
また、特定画像は、什器自体を撮像することにより取得される画像を含んでもよい。
<仮想空間提供処理>
図5~図7を参照して本発明の実施形態に係る仮想空間提供処理の一例を説明する。図5は、本発明の実施形態に係る仮想空間提供処理の一例を示すフローチャートである。
(ステップS1)
図3に示すコンピュータ1の関連付け部113は、1又は複数のユーザのうち少なくとも一のユーザに対してキャラクタを関連付ける。図1の例を参照すると、関連付け部113は、図3に示すキャラクタ情報CIに基づいて、例えば、ユーザUbに対してキャラクタCbを、ユーザUcに対してキャラクタCcを関連付ける。
(ステップS3)
図3に示すコンピュータ1のキャラクタ配置部114は、仮想空間にキャラクタを配置する。
図6は、本発明の実施形態に係る現実空間における会議室の一例を示す図である。図6に示すように、各椅子C1,C3には、マーカMb,Mcが付されている。例えば、HMD3が備えるカメラ(不図示)が、現実空間の所定の範囲に含まれるマーカMb,Mc(特定対象物)を撮像することによって画像情報を取得する。HMD3は、画像情報を図1に示すコンピュータ1に送信する。そして、キャラクタ配置部114は、取得した画像情報に基づいて、現実空間における特定対象物の配置位置に対応する仮想空間の位置に、特定対象物に関連付けられたキャラクタを配置する。キャラクタ配置部114は、マーカに対応する特定画像情報を取得すると、例えば、図3に示すDB112に格納されたキャラクタ情報CI(例えば、予め、マーカごとにキャラクタ情報が関連付けられた情報テーブル等)を参照することにより、現実空間に配置された各椅子C1,C3の位置に対応する仮想空間の位置にキャラクタを配置する。
また、HMD3が備えるカメラが、現実空間の所定の範囲に含まれる椅子C1,C3(特定対象物)を撮像することによって画像情報を取得する。HMD3は、画像情報を図1に示すコンピュータ1に送信する。そして、キャラクタ配置部114は、取得した画像情報に基づいて、現実空間における特定対象物の配置位置に対応する仮想空間の位置に、特定対象物に関連付けられたキャラクタを配置する。キャラクタ配置部114は、椅子C1,C3に対応する特定画像情報を取得すると、例えば、図3に示すDB112に格納されたキャラクタ情報CI(例えば、予め、椅子C1は社員Aに対応するキャラクタ情報が関連付けられ、椅子C3には、社員Bに対応するキャラクタ情報が関連づけられた情報テーブル等)を参照することにより、現実空間に配置された椅子C1の位置に対応する仮想空間の位置に社員Aキャラクタを配置し、椅子C3の位置に対応する仮想空間の位置に社員Bキャラクタを配置する。
上記構成によれば、取得した特定画像情報に基づいて、現実空間における特定対象物の配置位置に対応する仮想空間の位置に、特定対象物に関連付けられたキャラクタを配置する。このように、予め記録された情報テーブルを参照することで、キャラクタを、仮想空間上における所定の位置に、正確に、且つ、容易に配置できる。
さらに、キャラクタ配置部114は、DB112に格納されている、キャラクタごとに、当該キャラクタの仮想空間における配置位置に関する配置位置情報を参照することにより、キャラクタを仮想空間における配置位置に配置してもよい。
この構成によれば、予め記録された、仮想空間におけるキャラクタの配置位置情報を参照すればよいので、キャラクタを、仮想空間上における所定の位置により正確に、且つ、容易に配置できる。
(ステップS5)
図3に示すコンピュータ1aの取得部115は、図1に示すユーザUb,Ucの表現に関する表現情報を取得する。まず、図1に示すカメラ5bは、ユーザUbを含む所定の範囲を撮像することにより、ユーザUbの表現情報を含む3D画像情報を生成する。また、カメラ5cは、ユーザUcを含む所定の範囲を撮像することにより、ユーザUcの表現情報を含む3D画像情報を生成する。なお、表現情報と3D画像情報とは別個の情報であってもよい。
カメラ5b,5cは、撮像することにより取得される3D画像情報をコンピュータ1b,1cに送信する。また、カメラ5b,5cは、ユーザUb,Ucの音声を取得するマイクの機能を更に備える。よって、カメラ5b,5cのそれぞれは、取得した音声を音声情報としてコンピュータ1b,1cに送信する。そして、コンピュータ1aの取得部115は、ネットワークNを介して、コンピュータ1b,1cからユーザUb,Ucの表現情報と3D画像情報と音声情報とを取得し得る。取得部115は、上記各種情報を、定期的に、又は、任意のタイミングで取得してもよい。例えば、カメラ5b,5cは、ユーザUb,Ucの表現に変化が起きた場合に、情報を取得し、コンピュータ1b,1cに送信してもよい。
(ステップS7)
図3に示すコンピュータ1の反映部116は、表現情報に基づいて、仮想空間に配置されたキャラクタであって、表現情報に対応付けられたユーザに関連付けられたキャラクタに表現情報に基づく表現を反映する。
図7は、本発明の実施形態に係るヘッドマウントディスプレイで表示される視界画像の一例を示す図である。図7に示すように、仮想空間50は、会議室オブジェクトОを含み、キャラクタ配置部114は、会議室オブジェクトОを、ユーザUbに関連付けられたキャラクタCbとユーザUcに関連付けられたキャラクタCcとの間で共有するように当該キャラクタを仮想空間50に配置する。反映部116は、取得した表現情報を踏まえて、ユーザUb,Ucに対応づけられたキャラクタCb,Ccに表現情報に基づく表現を反映する。視界画像生成部117は、ユーザUb,Ucの表現が反映されたキャラクタCb,Ccを含む視界画像9aを生成する。なお、コンピュータ1aは、表現情報が音声情報を含む場合は、当該音声情報を踏まえて、HMD3から、ユーザUb,Ucに対応する音声を出力するための音声出力情報を生成してもよい。
また、HMD3に備えられたマイクは、ユーザUaの音声を取得し、音声情報としてコンピュータ1bに送信し、カメラ5bに備えられたスピーカによりユーザUaの音声が出力されてもよい。これにより、ユーザUbは、ユーザUaの音声を聞くことができる。さらに、HMD3に備えられたマイクは、ユーザUaの音声を取得し、音声情報としてコンピュータ1cに送信し、カメラ5cに備えられたスピーカによりユーザUaの音声が出力されてもよい。これにより、ユーザUcは、ユーザUaの音声を聞くことができる。
このように、ユーザUaは、HMD3のディスプレイに表示される、ユーザUb,Ucのそれぞれの表現の変化に応じてリアルタイムに生成又は更新される視界画像9bを視認しながら、ユーザUa,Ub,Ucの3者が参加する仮想会議を実施することができる。よって、当該仮想空間50は三者で共有される共有仮想空間と言える。なお、図7の例では、仮想空間50においては、ユーザUaに対応するキャラクタは配置されていないが、ユーザUaに対応するキャラクタを仮想空間50に配置してもよい。
以上説明した実施形態によれば、取得したユーザの表現情報に基づいて、仮想空間に配置されたキャラクタであって、当該表現情報に対応付けられたユーザに関連付けられたキャラクタに当該表現情報に基づく表現を反映する。よって、ユーザに関連付けられたキャラクタを適切に所定の位置に配置させ、且つ、ユーザによる表現を当該ユーザに関連付けられたキャラクタに正確に反映することが可能である。
(他の実施形態)
上記各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するものではない。本発明はその趣旨を逸脱することなく、変更/改良(例えば、各実施形態を組み合わせること、各実施形態の一部の構成を省略すること)され得るとともに、本発明にはその等価物も含まれる。
上述の実施形態でコンピュータ1a,1b,1cが実行している各処理の少なくとも一部を、代わりに管理サーバ7に実装されている仮想空間提供アプリケーションが実行するようにしてもよい。この構成によれば、コンピュータ1a,1b,1cのそれぞれの機能を管理サーバ7が統合的に管理、実行できる。
また、一のコンピュータ1又は一の管理サーバ7は、複数のHMD3に共通して用いられてもよい。つまり、図1の例では、ユーザUaのみHMD3を装着しているが、ユーザUb,UcにもHMDを装着させる。この場合、複数のユーザUa,Ub,Ucに同一の仮想空間を提供することができるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。なお、上記に限られず、ユーザUa,Ub,UcのそれぞれにHMDを装着させつつも、ユーザUa,Ub,Ucのそれぞれに対応した別個の仮想空間を定義してもよい。例えば、ユーザUaに対応付けられた仮想空間には、少なくともユーザUb,Ucに対応づけられたキャラクタが配置され、ユーザUbに対応付けられた仮想空間には、少なくともユーザUa,Ucに対応づけられたキャラクタが配置され、ユーザUcに対応付けられた仮想空間には、少なくともユーザUa,Ubに対応づけられたキャラクタが配置されてもよい。
1a,1b,1c…コンピュータ、3…HMD、5b,5c…カメラ、7…管理サーバ、11(71)…CPU、12(72)…メモリ、13(73)…入力部、14(74)…出力部、15(75)…記録部、16(76)…通信部、17(77)…バス、100…仮想空間提供システム、111…情報処理部、112…データベース(DB)、113…関連付け部、114…キャラクタ配置部、115…取得部、116…反映部、117…視界画像生成部

Claims (6)

  1. 1又は複数のユーザに対して仮想空間を提供する仮想空間提供システムであって、
    前記ユーザのうち少なくとも一のユーザに対してキャラクタを関連付ける関連付け部と、
    仮想空間に前記キャラクタを配置するキャラクタ配置部と、
    前記ユーザの動作を取得する取得部と、
    取得した前記動作に基づいて、前記仮想空間に配置された前記キャラクタであって、当該動作に対応付けられたユーザに関連付けられたキャラクタに当該動作を反映する反映部と、を備え、
    前記キャラクタ配置部は、カメラによって、現実空間の所定の範囲に含まれる特定対象物を撮像することにより取得された画像情報に基づいて、前記現実空間における前記特定対象物の配置位置に対応する前記仮想空間の位置に、前記特定対象物に関連付けられた前記キャラクタを配置する、
    仮想空間提供システム。
  2. 前記キャラクタごとに、当該キャラクタの前記仮想空間における配置位置に関する配置位置情報を記録する記録部を更に備え、
    前記キャラクタ配置部は、前記配置位置情報に基づいて、前記キャラクタを前記仮想空間における前記配置位置に配置する、
    請求項1に記載の仮想空間提供システム。
  3. 前記キャラクタは、前記キャラクタに関連付けられたユーザを撮像することにより取得した画像情報、又は、前記キャラクタに関連付けられたユーザを模したアバターの少なくとも一方を含む、
    請求項1又は2に記載の仮想空間提供システム。
  4. 前記仮想空間は、会議室オブジェクトを含み、
    前記キャラクタ配置部は、前記会議室オブジェクトを前記キャラクタ間で共有するように当該キャラクタを前記仮想空間に配置する、
    請求項1から3のいずれか一項に記載の仮想空間提供システム。
  5. 1又は複数のユーザに対して仮想空間を提供するコンピュータが実行する仮想空間提供であって、
    前記ユーザのうち少なくとも一のユーザに対してキャラクタを関連付けるステップと、
    仮想空間に前記キャラクタを配置するステップと、
    前記ユーザの動作を取得するステップと、
    取得した前記動作に基づいて、前記仮想空間に配置された前記キャラクタであって、当該動作に対応付けられたユーザに関連付けられたキャラクタに当該動作を反映するステップと、を含み、
    前記キャラクタを配置するステップは、カメラによって、現実空間の所定の範囲に含まれる特定対象物を撮像することにより取得された画像情報に基づいて、前記現実空間における前記特定対象物の配置位置に対応する前記仮想空間の位置に、前記特定対象物に関連付けられた前記キャラクタを配置する、
    仮想空間提供方法。
  6. 1又は複数のユーザに対して仮想空間を提供するコンピュータを、
    前記ユーザのうち少なくとも一のユーザに対してキャラクタを関連付ける関連付け部と、
    仮想空間に前記キャラクタを配置するキャラクタ配置部と、
    前記ユーザの動作を取得する取得部と、
    取得した前記動作に基づいて、前記仮想空間に配置された前記キャラクタであって、当該動作に対応付けられたユーザに関連付けられたキャラクタに当該動作を反映する反映部と、
    として機能させ、
    前記キャラクタ配置部は、カメラによって、現実空間の所定の範囲に含まれる特定対象物を撮像することにより取得された画像情報に基づいて、前記現実空間における前記特定対象物の配置位置に対応する前記仮想空間の位置に、前記特定対象物に関連付けられた前記キャラクタを配置する、プログラム。
JP2018246652A 2018-12-28 2018-12-28 仮想空間提供システム、仮想空間提供方法及びプログラム Active JP7312550B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018246652A JP7312550B2 (ja) 2018-12-28 2018-12-28 仮想空間提供システム、仮想空間提供方法及びプログラム
JP2022166101A JP2022186819A (ja) 2018-12-28 2022-10-17 仮想空間提供システム、仮想空間提供方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018246652A JP7312550B2 (ja) 2018-12-28 2018-12-28 仮想空間提供システム、仮想空間提供方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022166101A Division JP2022186819A (ja) 2018-12-28 2022-10-17 仮想空間提供システム、仮想空間提供方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020107160A JP2020107160A (ja) 2020-07-09
JP7312550B2 true JP7312550B2 (ja) 2023-07-21

Family

ID=71449274

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018246652A Active JP7312550B2 (ja) 2018-12-28 2018-12-28 仮想空間提供システム、仮想空間提供方法及びプログラム
JP2022166101A Pending JP2022186819A (ja) 2018-12-28 2022-10-17 仮想空間提供システム、仮想空間提供方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022166101A Pending JP2022186819A (ja) 2018-12-28 2022-10-17 仮想空間提供システム、仮想空間提供方法及びプログラム

Country Status (1)

Country Link
JP (2) JP7312550B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031745A (ja) 2003-07-07 2005-02-03 Pioneer Electronic Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2008287683A (ja) 2007-05-16 2008-11-27 Yuichi Itsuji 三次元cgアニメキャラクターのカスタム(個人化)製作システム
JP2018109937A (ja) 2016-12-28 2018-07-12 株式会社コロプラ 情報処理方法、装置、情報処理システム、および当該情報処理方法をコンピュータに実行させるプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031745A (ja) 2003-07-07 2005-02-03 Pioneer Electronic Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2008287683A (ja) 2007-05-16 2008-11-27 Yuichi Itsuji 三次元cgアニメキャラクターのカスタム(個人化)製作システム
JP2018109937A (ja) 2016-12-28 2018-07-12 株式会社コロプラ 情報処理方法、装置、情報処理システム、および当該情報処理方法をコンピュータに実行させるプログラム

Also Published As

Publication number Publication date
JP2020107160A (ja) 2020-07-09
JP2022186819A (ja) 2022-12-15

Similar Documents

Publication Publication Date Title
JP7348261B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
US20210319403A1 (en) System and method for creating a collaborative virtual session
US11127210B2 (en) Touch and social cues as inputs into a computer
US11763559B2 (en) 3D object annotation
CN116194869A (zh) 人工现实协同工作环境
US11861803B2 (en) Session manager
CN109891365A (zh) 虚拟现实和跨设备体验
JP2022549853A (ja) 共有空間内の個々の視認
US20230092103A1 (en) Content linking for artificial reality environments
GB2543913A (en) Virtual conference room
US11948256B2 (en) Systems and methods for artificial intelligence-based virtual and augmented reality
US11831814B2 (en) Parallel video call and artificial reality spaces
JP6888854B1 (ja) 遠隔勤務支援システム及び遠隔勤務支援方法
US20200233489A1 (en) Gazed virtual object identification module, a system for implementing gaze translucency, and a related method
JP2020150519A (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
WO2023190344A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7312550B2 (ja) 仮想空間提供システム、仮想空間提供方法及びプログラム
US11816759B1 (en) Split applications in a multi-user communication session
US20230072623A1 (en) Artificial Reality Device Capture Control and Sharing
US11354869B2 (en) XR preferred movement along planes
US20240104863A1 (en) Contextual presentation of extended reality content
US20240013488A1 (en) Groups and Social In Artificial Reality
WO2019105002A1 (en) Systems and methods for creating virtual 3d environment
CN116848507A (zh) 应用程序投屏
JP2018173829A (ja) 仮想会議プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7312550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150