JP2023012716A - 仮想空間提供装置、仮想空間提供方法及びプログラム - Google Patents

仮想空間提供装置、仮想空間提供方法及びプログラム Download PDF

Info

Publication number
JP2023012716A
JP2023012716A JP2021116335A JP2021116335A JP2023012716A JP 2023012716 A JP2023012716 A JP 2023012716A JP 2021116335 A JP2021116335 A JP 2021116335A JP 2021116335 A JP2021116335 A JP 2021116335A JP 2023012716 A JP2023012716 A JP 2023012716A
Authority
JP
Japan
Prior art keywords
virtual space
user
space
small space
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021116335A
Other languages
English (en)
Inventor
徹 津田
Toru Tsuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axross Investors LLC
Axrossinvestors
Original Assignee
Axross Investors LLC
Axrossinvestors
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axross Investors LLC, Axrossinvestors filed Critical Axross Investors LLC
Priority to JP2021116335A priority Critical patent/JP2023012716A/ja
Priority to PCT/JP2022/027216 priority patent/WO2023286727A1/ja
Publication of JP2023012716A publication Critical patent/JP2023012716A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2023012716000001
【課題】新しい概念の仮想空間を使用した仮想空間提供装置、仮想空間提供方法及びプログラムを提供する。
【解決手段】複数のユーザ端末5に対して通信ネットワークNを介して接続された仮想空間提供サーバ1が、3DCGの仮想空間に配置されるルームの位置及び出力態様に関する情報を含むルーム情報を記憶するルーム情報記憶部33を参照してルームの出力態様を決定し、決定した出力態様のルームを含む仮想空間を生成する仮想空間生成部11と、ユーザ端末5を使用するユーザに対応付けられたアバターを生成するアバター生成部12と、仮想空間生成部11が生成した仮想空間に、アバター生成部12が生成したアバターを配置した生成画像を、ユーザ端末5に出力する生成画像出力部15と、を備える。
【選択図】図1

Description

本発明は、仮想空間提供装置、仮想空間提供方法及びプログラムに関する。
従来、複数のユーザ端末間で仮想空間を共有し、ユーザを表したアバター画像を表示させる仕組みがある。一例として、複数のユーザ端末間で仮想空間を共有するシステムにおいて、複数のユーザ端末が、受信した仮想空間情報に基づいて、仮想空間画像及び仮想空間を共有するユーザ端末のユーザ情報としてのアバター画像を生成して表示する技術が開示されている(例えば、特許文献1)。
特許第3859018号公報
従来の仮想空間では、1つの大きな空間をユーザに開放し、ユーザの代わりになるアバターをユーザが操作することで、当該空間においてアバターを移動させ、仮想空間内のアバターに対応したユーザ同士で、チャット等のSNSサービスを利用するものであった。このように、仮想空間の構造そのものは、シンプルな作りであった。
本発明は、新しい概念の仮想空間を使用した仮想空間提供装置、仮想空間提供方法及びプログラムを提供することを目的とする。
本発明は、複数のユーザ端末に対して通信ネットワークを介して接続された仮想空間提供装置であって、三次元仮想空間に配置される小空間の位置及び出力態様に関する情報を含む小空間情報を記憶する小空間情報記憶部と、前記小空間情報記憶部を参照して前記小空間の出力態様を決定する小空間態様決定手段と、前記小空間態様決定手段が決定した前記出力態様の前記小空間を含む前記三次元仮想空間を生成する仮想空間生成手段と、各ユーザ端末を使用するユーザに対応付けられたオブジェクトを生成するオブジェクト生成手段と、前記仮想空間生成手段が生成した前記三次元仮想空間に、前記オブジェクト生成手段が生成した前記オブジェクトを配置した生成画像を、各ユーザ端末に出力する生成画像出力手段と、を備える、仮想空間提供装置に関する。
また、仮想空間提供装置において、前記三次元仮想空間は、前記小空間の中に小空間をさらに配置可能な入れ子構造を有し、前記小空間情報記憶部は、前記入れ子構造に関する情報をさらに記憶してもよい。
また、仮想空間提供装置において、前記小空間態様決定手段は、前記小空間の表示色及び透過性の少なくとも一方を、前記小空間の位置に属する前記オブジェクトの数に応じて異ならせるように決定してもよい。
また、仮想空間提供装置において、前記ユーザ端末を使用する前記ユーザに対応する前記オブジェクトの移動に対する操作信号を、前記ユーザ端末から受け付ける操作受付手段と、前記操作受付手段が受け付けた前記操作信号に応じて、前記オブジェクトを移動させるオブジェクト移動手段と、を備えてもよい。
また、仮想空間提供装置において、前記ユーザの権限情報を含むユーザ情報を記憶するユーザ情報記憶部を備え、前記小空間情報記憶部は、前記権限情報に対応した前記小空間の入室可否情報をさらに記憶しており、前記オブジェクト移動手段により前記小空間の位置に前記オブジェクトが移動した場合に、前記ユーザ情報記憶部及び前記小空間情報記憶部を参照し、前記オブジェクトの前記小空間の中への移動を許可するか否かを判定する内部移動判定手段を備え、前記オブジェクト移動手段は、前記内部移動判定手段により前記小空間の中への移動を許可した場合に限り、前記オブジェクトを前記小空間の中へ移動させてもよい。
また、仮想空間提供装置において、前記生成画像出力手段は、前記ユーザ端末を使用する前記ユーザに対応する前記オブジェクトの位置から所定範囲の前記三次元仮想空間に係る前記生成画像を、前記ユーザ端末に出力し、前記オブジェクト移動手段による前記オブジェクトの移動に応じて、移動後の前記オブジェクトの位置から前記所定範囲の前記三次元仮想空間であって、未出力分の前記三次元仮想空間に係る前記生成画像を、前記小空間の単位で前記ユーザ端末に出力してもよい。
また、仮想空間提供装置において、前記三次元仮想空間及び前記小空間を含む空間ごとに音の出力を制御する音制御手段と、前記ユーザ端末を使用する前記ユーザに対応する前記オブジェクトの位置に対応し、前記音制御手段が制御した前記空間の音を、前記ユーザ端末に出力する音出力手段と、を備えてもよい。
また、仮想空間提供装置において、前記ユーザ端末から音声を受け付ける音声受付手段を備え、前記音出力手段は、前記音声受付手段が受け付けた前記音声を、前記オブジェクトの位置に対応した前記空間の他のオブジェクトに係るユーザの前記ユーザ端末に出力してもよい。
また、本発明は、複数のユーザ端末に対して通信ネットワークを介して接続されたコンピュータによる仮想空間提供方法であって、前記コンピュータが、三次元仮想空間に配置される小空間の位置及び出力態様に関する情報を含む小空間情報を記憶する小空間情報記憶部を参照して前記小空間の出力態様を決定する小空間態様決定ステップと、前記小空間態様決定ステップにより決定された前記出力態様の前記小空間を含む前記三次元仮想空間を生成する仮想空間生成ステップと、各ユーザ端末を使用するユーザに対応付けられたオブジェクトを生成するオブジェクト生成ステップと、前記仮想空間生成ステップにより生成された前記三次元仮想空間に、前記オブジェクト生成ステップにより生成された前記オブジェクトを配置した生成画像を、各ユーザ端末に出力する生成画像出力ステップと、を含む、仮想空間提供方法に関する。
また、本発明は、複数のユーザ端末に対して通信ネットワークを介して接続されたコンピュータを、三次元仮想空間に配置される小空間の位置及び出力態様に関する情報を含む小空間情報を記憶する小空間情報記憶部を参照して前記小空間の出力態様を決定する小空間態様決定手段と、前記小空間態様決定手段が決定した前記出力態様の前記小空間を含む前記三次元仮想空間を生成する仮想空間生成手段と、各ユーザ端末を使用するユーザに対応付けられたオブジェクトを生成するオブジェクト生成手段と、前記仮想空間生成手段が生成した前記三次元仮想空間に、前記オブジェクト生成手段が生成した前記オブジェクトを配置した生成画像を、各ユーザ端末に出力する生成画像出力手段と、として機能させるためのプログラムに関する。
本発明によれば、新しい概念の仮想空間を使用した仮想空間提供装置、仮想空間提供方法及びプログラムを提供することができる。
本実施形態に係る仮想空間提供システムの全体概要図及び仮想空間提供サーバの機能ブロック図である。 本実施形態に係る仮想空間提供サーバのユーザ情報記憶部の例を示す図である。 本実施形態に係る仮想空間提供サーバのルーム表示条件記憶部の例を示す図である。 本実施形態に係る仮想空間提供サーバのルーム情報記憶部の例を示す図である。 本実施形態に係る仮想空間提供サーバのメイン処理を示すフローチャートである。 図3Aの続きである。 本実施形態に係る仮想空間提供サーバが生成する仮想空間の一例に係る概要図である。 本実施形態に係る仮想空間提供サーバの利用開始処理を示すフローチャートである。 本実施形態に係る仮想空間提供サーバが生成するアバターの一例を示す図である。 本実施形態に係るユーザ端末に表示される画面の一例を示す図である。 本実施形態に係る仮想空間提供サーバの操作信号受信処理を示すフローチャートである。 本実施形態に係る仮想空間提供サーバのルーム表示変更処理を示すフローチャートである。 本実施形態に係るユーザ端末に表示される画面の一例を示す図である。 変形形態に係る仮想空間提供サーバが生成するアバターの一例を示す図である。
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
<仮想空間提供システム100>
図1は、本実施形態に係る仮想空間提供システム100の全体概要図及び仮想空間提供サーバ1の機能ブロック図である。
図2Aから図2Cまでは、本実施形態に係る仮想空間提供サーバ1の記憶部30の例を示す図である。
図1に示す仮想空間提供システム100は、仮想空間提供サーバ1(仮想空間提供装置)と、ユーザ端末5とを備えたシステムである。
仮想空間提供システム100は、ユーザが、ユーザ端末5を利用して、仮想空間提供サーバ1が生成する仮想空間(三次元仮想空間)にアクセスすることで、ユーザに、サーバ上のコミュニケーション空間を提供するシステムである。仮想空間提供システム100が提供する仮想空間では、ユーザが操作する当該ユーザの代わりになるアバター(オブジェクト)が、移動をしたり、他のユーザのアバターとの間でコミュニケーションをとったりする。
ここで、仮想空間提供システム100が提供する仮想空間は、例えば、複数のユーザによるコミュニケーションの場を提供するものであり、どのような目的で用いるものであっても構わない。また、仮想空間は、例えば、空間内の装飾や、空間内に設置された絵画等を閲覧させるためのものであってもよいし、空間内での演奏や、演説等、音を聞かせるためのものであってもよい。
以下においては、仮想空間提供システム100が提供する仮想空間は、ユーザ同士でコミュニケーションを行うためのものを例に説明する。
仮想空間提供サーバ1とユーザ端末5とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線等であり、有線であるか無線であるかを問わない。
<仮想空間提供サーバ1>
仮想空間提供サーバ1は、仮想空間を生成し、ユーザ端末5による操作に応じて、アバターによる視点の画面を、ユーザ端末5に送信する。ここで、アバターによる視点は、アバター自身が見ているような視点である一人称視点であってもよいし、自身のアバターの画像を含んだ三人称視点であってもよい。そして、視点は、ユーザが切り替えることができるようにしてもよい。また、仮想空間提供サーバ1は、ユーザ端末5から受信した音声を、他のユーザ端末5に送信する。
仮想空間提供サーバ1は、例えば、Webサーバである。なお、仮想空間提供サーバ1を構成するハードウェアの数に制限はない。必要に応じて、1又は複数で構成してもよい。また、仮想空間提供サーバ1は、例えば、クラウドであってもよい。
仮想空間提供サーバ1は、制御部10と、記憶部30と、通信IF(インタフェース)39とを備える。
制御部10は、仮想空間提供サーバ1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、仮想空間生成部11(小空間態様決定手段、仮想空間生成手段)と、アバター生成部12(オブジェクト生成手段)と、アバター処理部13(操作受付手段、オブジェクト移動手段)と、アバター位置判定部14(内部移動判定手段)と、生成画像出力部15(生成画像出力手段)と、音制御部21(音制御手段)と、音声受付部22(音声受付手段)と、音出力部23(音出力手段)とを備える。
仮想空間生成部11は、ルームと呼ばれる小空間を含む三次元の仮想空間を生成する。ここで、仮想空間は、3DCGで生成される画像データである。仮想空間は、複数のルームを含むものであってよい。また、ルームの中に、さらにルームを含んでもよい。ルームとは、制御内容を設定することができる仮想空間内の空間をいう。仮想空間提供サーバ1は、ルームの単位で制御内容を異なるものにすることができる。
仮想空間生成部11は、後述するルーム情報記憶部33(小空間情報記憶部)を参照して、ルームの位置や出力態様を決定する。ここで、出力態様とは、ルームの表示方法に関するものであり、ルームの表示/非表示に関するものの他、ルームを表示させる場合に、ルームの外からルームの中を見えるようにするか、又は見えないようにするか、に関するものを含む。また、ルームを表示させる場合には、ルームの境界を示す画像の表示色に関するものを含む。
また、仮想空間生成部11は、各ルーム内のアバターの数等に基づいて、ルームの境界を示す画像の表示色を異なるものに変更した仮想空間を生成してもよい。その際、仮想空間生成部11は、後述するルーム表示条件記憶部34を参照して、ルームの境界を示す画像の表示色を決定してもよい。
アバター生成部12は、ユーザ端末5を使用するユーザに対応付けられたアバターを生成する。アバターは、3DCGで生成された画像データである。ここでは、アバターは、人型をしたものを例に説明する。なお、アバターは、ユーザによる設定で外観の色等を変更できるものであってもよい。
アバター処理部13は、アバター生成部12が生成したアバターの移動に対する操作信号を、ユーザ端末5から受け付けたことに応じて、操作信号に応じてアバターを移動させる。
アバター位置判定部14は、アバターの仮想空間内での位置を判定する。アバター位置判定部14は、特に、アバター処理部13によりアバターがルームの位置に移動する場合に、後述するユーザ情報記憶部32及びルーム情報記憶部33を参照して、アバターのルーム内への移動を許可するか否かを判定する。
生成画像出力部15は、仮想空間生成部11が生成した仮想空間に、アバター生成部12が生成したアバターを配置した生成画像を、ユーザ端末5に出力する。
より具体的には、生成画像出力部15は、所定範囲の仮想空間を、ユーザ端末5に出力する。所定範囲の仮想空間とは、例えば、自身のアバターの位置から所定距離内に有するルームを含む仮想空間をいう。そして、生成画像出力部15は、アバター処理部13によりアバターが移動した場合に、移動後の自身のアバターの位置から所定範囲の仮想空間に有するルームを含み、前の処理で未出力の仮想空間を、ルームの単位でユーザ端末5に出力する。
音制御部21は、仮想空間やルームを含む空間ごとに、音の出力を制御する。つまり、音制御部21は、例えば、最小の空間の単位で、音の出力を制御する。よって、音制御部21は、アバターが位置する空間の隣の空間の音を、当該空間では聞こえないように制御する。
音声受付部22は、ユーザ端末5から音声を受け付ける。例えば、ユーザがユーザ端末5に有するマイク(図示せず)に向かって話をすることで、音声受付部22は、ユーザ端末5が送信した音声データを受け付ける。
音出力部23は、ユーザ端末5のユーザに係るアバターの位置に対応し、音制御部21が制御した空間の音を、当該ユーザのユーザ端末5に出力する。また、音出力部23は、音声受付部22が受け付けたユーザの音声を、当該ユーザに係るアバターの位置に対応した空間の他のアバターに対応するユーザのユーザ端末5に出力する。
記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、ユーザ情報記憶部32と、ルーム情報記憶部33と、ルーム表示条件記憶部34とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。プログラム記憶部31は、仮想空間提供サーバ1の制御部10が実行する各種機能を行うための仮想空間提供プログラム31a(プログラム)を記憶している。
ユーザ情報記憶部32は、仮想空間を利用するユーザに関する情報を記憶する記憶領域である。図2Aに、ユーザ情報記憶部32の一例を示す。
図2Aに示すユーザ情報記憶部32は、ユーザID(IDentification)と、ユーザ名と、権限と、ルームID等との各項目を有する。
ユーザIDは、この仮想空間を利用するユーザを識別する識別情報である。ユーザIDによる認証を経て、ユーザは、当該仮想空間を利用できる。
ユーザ名は、ユーザの氏名であって、ニックネーム等であってもよい。
権限は、ユーザのランクを示すものであり、この例では、一般、プレミアム、オーナー等を含む。なお、各権限の横の数字(0~2)は、ランクを示すフラグであり、0は、一般を表し、1は、プレミアムを表し、2は、オーナーを表すものとする。プレミアムとは、例えば、課金をしたユーザ等の特別なユーザを示す。また、オーナーとは、あるルームの所有者を示す。
ルームIDは、権限がオーナーの場合に、当該オーナーが所有するルームを識別する識別情報である。
図2Aに例示するユーザIDがU001のユーザは、一般の権限を有することを示し、ユーザIDがU002のユーザは、プレミアムの権限を有することを示す。なお、プレミアムの権限については、例えば、プレミアムの権限を継続する期間を有するようにしてもよい。
また、ユーザIDがU003のユーザは、ルームIDがR023のルームについては、オーナーの権限を有し、それ以外のルームでは、一般の権限を有することを示す。
ルーム情報記憶部33は、仮想空間内の各ルームに関する情報(小空間情報)を記憶する記憶領域である。図2Cに、ルーム情報記憶部33の一例を示す。
図2Cに示すルーム情報記憶部33は、ルームIDと、位置と、出力態様と、上位層と、許可権限(入室可否情報)等との各項目を有する。
ルームIDは、ルームを識別する識別情報である。
位置は、ルームの位置を座標により示す。この例では、ルームの位置は、平面での位置を表すものになっているが、高さ方向の位置を含むものであってもよい。
出力態様は、ルームの表示態様を示す。出力態様が透明であれば、ルームの境界を示す画像が透明であることを示す。また、出力態様が壁であれば、ルームの境界を壁とする画像を出力することを示す。
上位層は、ルームの上位層を示す。例えば、ルームIDがR002は、上位層がR001になっているので、ルームIDがR002のルームは、ルームIDがR001のルームの内側に形成されていることを示す。
許可権限は、ルームへの入室を許可する権限を示す。例えば、ルームIDがR001のルームは、誰でも当該ルームに入ることができるが、ルームIDがR002のルームは、権限が一般のユーザは当該ルームに入ることができない。
ルーム表示条件記憶部34は、ルーム内のアバターの数に基づいてルームの表示態様を変更する条件を記憶する記憶領域である。図2Bに、ルーム表示条件記憶部34の一例を示す。
図2Bに示すルーム表示条件記憶部34は、条件と出力態様とを対応付けて記憶する。
条件は、ルーム内のアバターの数に関する。
出力態様は、ルームの境界を示す画像の表示色についての態様を示す。
図2Bの例では、色によって、アバターの数の大小が分かるようになっている。
なお、記憶部30の各記憶部について、上記の構成は一例であって、他の記憶部があってもよいし、他の構成であってもよい。また、各記憶部の項目について、上記の項目は一例であって、他の項目があってもよいし、ない項目があってもよい。
図1の通信IF39は、通信ネットワークNを介して、ユーザ端末5等との間の通信を行うためのインタフェースである。
<ユーザ端末5>
ユーザ端末5は、例えば、図1に示すようなノートPC等のパーソナルコンピュータである。ユーザ端末5は、その他、タブレットやスマートフォン等のコンピュータの機能を併せ持った携帯型の端末等であってもよい。
ユーザ端末5は、図示しないが、少なくとも制御部と、記憶部と、入力部及び出力部(又は、タッチパネルディスプレイ)と、通信IFとを備え、必要に応じて、マイクや、スピーカ等の音声入出力装置やカメラ等を備えてもよい。
ここで、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、仮想空間提供サーバ1及びユーザ端末5は、各々制御部、記憶部等を備えた情報処理装置であり、コンピュータの概念に含まれる。
<仮想空間提供システム100の処理>
次に、仮想空間提供サーバ1と、ユーザ端末5との間で行う処理について、フローチャートに即して説明する。
図3A及び図3Bは、本実施形態に係る仮想空間提供サーバ1のメイン処理を示すフローチャートである。
図4は、本実施形態に係る仮想空間提供サーバ1が生成する仮想空間40の一例に係る概要図である。
図5は、本実施形態に係る仮想空間提供サーバ1の利用開始処理を示すフローチャートである。
図6は、本実施形態に係る仮想空間提供サーバ1が生成するアバター60の一例を示す図である。
図7は、本実施形態に係るユーザ端末5に表示される画面70の一例を示す図である。
図8は、本実施形態に係る仮想空間提供サーバ1の操作信号受信処理を示すフローチャートである。
図9は、本実施形態に係る仮想空間提供サーバ1のルーム表示変更処理を示すフローチャートである。
仮想空間提供サーバ1の仮想空間提供プログラム31aが実行されることにより、図3Aに示すメイン処理が開始される。
図3AのステップS(以下、「ステップS」を単に「S」という。)11において、仮想空間提供サーバ1の制御部10(仮想空間生成部11)は、ルーム情報記憶部33を参照し、各ルームを配置した仮想空間を生成する。
例えば、図4に示す仮想空間40の概要図では、仮想空間内に2つのルーム41及び42を備える。ルーム41は、ルーム41の内側にルーム41a,41b,・・・をさらに有する。また、ルーム42は、ルーム42の内側にルーム42a,42b,・・・をさらに有する。
このように、仮想空間40は、複数のルーム41及び42を設けることができ、さらに、ルーム41の内部にルーム41a等を設けることができるので、ルームを入れ子構造として有することができる。
また、仮想空間40は、ルーム41及び42の外側にエントランス領域43を有する。エントランス領域43は、例えば、ユーザが利用を開始する際に、当該ユーザに対応するアバターを出力させる領域である。なお、仮想空間40は、エントランス領域43を1つのルームとして設定してもよい。
図3AのS12において、制御部10は、ユーザ端末5から利用要求を受信したか否かを判断する。例えば、仮想空間提供サーバ1が提供する仮想空間提供サービスを使用するユーザが、ユーザ端末5を用いて仮想空間提供サーバ1にアクセスし、ユーザ端末5の制御部が、ユーザIDを用いた認証を行う。制御部10は、認証できた場合に、ユーザ端末5から利用要求を受信したと判断してもよい。ユーザ端末5から利用要求を受信した場合(S12:YES)には、制御部10は、処理をS13に移す。他方、ユーザ端末5から利用要求を受信していない場合(S12:NO)には、制御部10は、処理をS14に移す。
S13において、制御部10は、利用開始処理を行う。
ここで、利用開始処理について、図5に基づき説明する。
図5のS31において、制御部10は、認証したユーザIDを取得する。
S32において、制御部10(アバター生成部12)は、ユーザ情報記憶部32を参照し、当該ユーザの権限を取得する。
S33において、制御部10は、例えば、図示しないアバターの表示色の指定画面から、ユーザが選択したアバターの表示色の指定を受信する。
S34において、制御部10は、指定色のアバターを生成する。
図6は、生成したアバター60の例を示す。
アバター60は、顔部61と、体部62とからなる人型の画像である。当該実施形態においては、Webブラウザを使用して表示させるものであるため、アバター60は、構成するポリゴン数を少なくしたデザインになっている。アバター60は、3D画像である。
図5のS35において、制御部10は、図3AのS11の処理によって既に生成された仮想空間の所定の位置に、生成したアバターを配置する。所定の位置は、例えば、仮想空間のエントランス領域(図4参照)を指定しておくことで、制御部10は、エントランス領域にアバターを配置する。
S36において、制御部10(生成画像出力部15)は、仮想空間にアバターを配置した生成画像を、ユーザ端末5に送信する。
図7は、ユーザ端末5に表示される画面70の例を示す。画面70は、フロア71に、ルーム72及び73等が配置されている。また、自身のアバター75が手前中央に表示されている。アバター76は、他のユーザのアバターである。
フロア71は、例えば、図4の仮想空間40に該当し、ルーム72及び73は、図4のルーム42a及び42bに該当する。なお、画面70では、ルーム42(図4参照)は、透明な出力態様で示されているため、ルーム42に対応する境界を示す画像が表示されていない。
図5のS37において、制御部10(音制御部21、音出力部23)は、アバターの位置に対応する音を、ユーザ端末5に送信する。
この処理によって、ユーザ端末5には、アバターの配置位置に対応する空間の音が、ユーザ端末5に有するスピーカから聞こえる。よって、ユーザは、あたかも当該空間にいるかのような感覚を得ることができる。
その後、制御部10は、処理を図3AのS14に移す。
図3AのS14において、制御部10(アバター処理部13)は、ユーザ端末5から操作信号を受信したか否かを判断する。ユーザ端末5から操作信号を受信した場合(S14:YES)には、制御部10は、処理をS15に移す。他方、操作信号を受信していない場合(S14;NO)には、制御部10は、処理を図3BのS17に処理を移す。
S15において、制御部10は、操作信号受信処理を行う。
ここで、操作信号受信処理について、図8に基づき説明する。
図8のS41において、制御部10(アバター処理部13)は、操作信号に対応してアバターを移動させる。
S42において、制御部10(生成画像出力部15)は、アバターの移動中及び移動後における仮想空間にアバターを配置した生成画像を、ユーザ端末5に送信する。また、制御部10(音制御部21、音出力部23)は、移動した位置に対応する音を、ユーザ端末5に送信する。
S43において、制御部10(アバター位置判定部14)は、当該移動がルームに入る移動であるか否かを判断する。制御部10は、アバターと、ルームとの位置関係に基づいて、ルームに入る移動であるか否かを判断できる。ルームに入る移動である場合(S43:YES)には、制御部10は、処理をS44に移す。他方、ルームに入る移動ではない場合(S43:NO)には、制御部10は、処理をS46に移す。
S44において、制御部10(アバター位置判定部14)は、ルームに入る移動が可能か否かを、ユーザ情報記憶部32及びルーム情報記憶部33を参照して確認する。例えば、ユーザ情報記憶部32に記憶された該当のユーザの権限が、ルーム情報記憶部33の当該ルームの許可権限に含まれていれば、制御部10は、ルームに入る移動が可能であると判断する。他方、例えば、ユーザ情報記憶部32に記憶された該当のユーザの権限が、ルーム情報記憶部33の当該ルームの許可権限に含まれていなければ、制御部10は、ルームに入る移動が不可であると判断する。
S45において、制御部10(アバター位置判定部14)は、確認結果に基づいてルームに入れるか否かを判断する。ルームに入れる場合(S45:YES)には、制御部10は、処理をS46に移す。他方、ルームに入れない場合(S45:NO)には、制御部10は、処理をS49に移す。
S46において、制御部10(アバター処理部13)は、操作信号に対応してアバターを移動させる。
S47において、制御部10(生成画像出力部15)は、アバターの移動中及び移動後における仮想空間にアバターを配置した生成画像を、ユーザ端末5に送信する。また、制御部10(音制御部21、音出力部23)は、移動した位置に対応する音を、ユーザ端末5に送信する。その後、制御部10は、処理を図3AのS16に移す。
他方、S49において、制御部10(アバター処理部13)は、アバターの移動を停止させる。つまり、アバターは、操作信号に応じた移動先のルームには入ることができないため、ルームの境界部分にとどまることになる。その後、制御部10は、処理を図3AのS16に移す。
図3AのS16において、制御部10は、ルーム表示変更処理を行う。
ここで、ルーム表示変更処理について、図9に基づき説明する。
図9のS51において、制御部10は、各ルーム内に配置されたアバターの数を集計する。
S52において、制御部10は、ルーム表示条件記憶部34を参照し、集計したアバターの数に基づいて、各ルームの表示態様を決定する。
S53において、制御部10(仮想空間生成部11)は、決定した表示態様に、各ルームの表示態様を変更する。
例えば、あるルームに属するアバターの数が9から10に変更した場合、制御部10は、ルームの境界を示す画像を緑色に変更する。なお、ルームの境界を示す画像が透明であった場合には、緑色がかった透けた壁が表示される。
その後、制御部10は、処理を図3BのS17に移す。
図3BのS17において、制御部10(音声受付部22)は、ユーザ端末5から音声データを受信したか否かを判断する。音声データを受信した場合(S17:YES)には、制御部10は、処理をS18に移す。他方、音声データを受信していない場合(S17:NO)には、制御部10は、処理をS19に移す。
S18において、制御部10(音制御部21、音出力部23)は、受信した音声データを、アバターと同じ空間にいる他のアバターに対応するユーザのユーザ端末5に送信する。
S19において、制御部10は、ユーザ端末5から終了要求を受け付けたか否かを判断する。ユーザ端末5から、例えば、アバターの仮想空間からの退場(つまり、ログアウト)の指示を受信することで、制御部10は、終了要求を受け付けたと判断する。終了要求を受け付けた場合(S19:YES)には、制御部10は、処理をS20に移す。他方、終了要求を受け付けていない場合(S19:NO)には、制御部10は、処理を図3AのS12に移す。
S20において、制御部10(仮想空間生成部11)は、終了要求を受け付けたユーザに係るアバターを、仮想空間から消去する。
このような処理により、生成された仮想空間に、各ユーザ端末5のユーザは、アバターを使って出入りすることができる。
その後、制御部10は、処理を図3AのS12に移す。
次に、仮想空間提供サービスにおける使用例を説明する。
(使用例1)物品の販売に用いる場合
様々な物品に係る販売に、当該仮想空間を使用することができる。その場合、ルームは、例えば、1つの商店が使用するスペースにすることができる。店のオーナーは、あるルームのルームIDに対応付けられている。そして、ルーム内には、販売する物品の画像を配置する。
図10は、本実施形態に係るユーザ端末5に表示される画面80の一例を示す図である。
画面80は、例えば、コミックマーケットを行う仮想店舗を示す。画面80は、ルーム81と、壁部82と、店員アバター83と、販売物画像84と、客アバター85とを含む。
ルーム81は、一部の境界が壁部82を構成している。壁部82には、様々なアニメ画像が配置されている。店員アバター83は、販売物画像84を販売するユーザの代わりである。客アバター85は、店員アバター83と音声によるコミュニケーションをしながら、好みの販売物画像84を購入することができる。
ここで、販売する物品は、販売物画像84のような画像データであってもよい。また、販売する物品は、画像ではなく、実際の物品であってもよい。画像データの場合には、物品に係る金額の決済をすることで、当該画像データを、購入したユーザのユーザ端末5に送信する。また、実際の物品である場合には、物品に係る金額の決済をすることで、当該物品を配送するように手配する。なお、決済には、クレジットカードや、電子マネー、仮想通貨等の種々のオンライン決済手段を使用することができる。その場合には、制御部10は、図示しない決済サーバに決済処理を依頼するようにすればよい。
(使用例2)特定のアバターに係るユーザとのコミュニケーションに用いる場合
例えば、アイドルとの会話を楽しむ等に、仮想空間を使用することができる。その場合、ルームは、アイドルとの会話をしたい複数のユーザとアイドルとが使用するスペースとする。そして、ルーム内にさらに特設ルームを設けて、1人のアイドルと、1人のユーザとのみが共有するスペースにする。
アイドルとの会話を待つユーザのアバターは、ルームで待機をする。そして、所定時間(例えば、1分)のみ、アイドルのアバターがいる特設ルームに、順番に入ることができるようにする。その場合には、時間ごとに特設ルームへの入室許可を、各ユーザに対して付与するようにする。そして、所定時間が経過すると、強制的に特設ルームから退場させる。そのようにすれば、ユーザは、好みのアイドルとの1対1での会話を楽しむことができる。この場合にも、アイドルとの会話に課金をすることができる。
(使用例3)会議スペースとして用いる場合
特定のユーザとの間での会議に、仮想空間を使用することができる。その場合、ルームを、会議を主催するユーザに割り当てる。そして、会議を主催するユーザは、会議参加者に対して入室を許可するように権限を設定する。
そのようにすれば、ルーム内で会話やチャットを行って、通常の会議のように用いることができる。
このように、本実施形態の仮想空間提供サーバ1によれば、以下のような効果がある。
(1)仮想空間にルームを配置し、さらにアバターを配置した生成画像を、ユーザ端末5に出力する。そして、ルームは、ルームの位置と出力態様とを含むルーム情報記憶部33を参照して、仮想空間内の指定の位置に、指定の出力態様で配置する。よって、仮想空間内にルームを備えた新しい概念の仮想空間を、ユーザに提供できる。しかも、ルームは、ユーザに見せるように表示させたり、見せないように非表示にさせたりするので、ルームを様々な用途に用いることができる。
(2)仮想空間は、ルームの中にさらにルームを有することができるものであるので、様々な制御を、ルーム単位で行うことができて便利である。
(3)ルーム表示条件記憶部34には、アバターの数に関する条件と、出力態様とを記憶しており、ルーム表示条件記憶部34を参照して、ルームの表示色を、ルームの位置にあるアバターの数によって変えることができる。よって、色によって視覚的に、ルームの混雑度合いを示すことができる。
(4)アバターの移動に対する操作信号をユーザ端末5から受け付けたことに応じて、アバターの位置を移動させる。よって、ユーザの移動操作にしたがって、自身のアバターを仮想空間内で移動させることができる。
(5)ユーザの権限情報を含むユーザ情報を記憶したユーザ情報記憶部32と、ルーム情報記憶部33に記憶されたルームの許可権限とを参照し、移動するアバターがルーム内への移動を許可するか否かを判定し、ルーム内の移動を許可した場合に限り、アバターがルーム内に移動(入室)するように制御する。
よって、権限によってアバターをルーム内に入れるか否かを制御できる。
(6)所定範囲の仮想空間に係る生成画像をユーザ端末5に出力し、アバターの移動に応じて、アバターの位置から所定範囲の仮想空間に係る生成画像のうち、差分をルーム単位でユーザ端末5に送信する。よって、生成画像データの送信を、必要な範囲に限定できるので、処理に係る負荷が軽減できる。特に、Webブラウザによる生成画像の表示においては、データ量を抑えることで、処理を軽くできる。
(7)仮想空間及びルームを含む各空間で音の出力を制御し、ユーザに対応するアバターの位置の空間の音を、ユーザ端末5に出力するので、あたかもユーザが仮想空間やルームにいるような感覚で音を聞くことができる。
(8)ユーザ端末5から音声を受け付けた場合に、当該音声を、アバターの位置に対応した空間の他のアバターに係るユーザのユーザ端末5に送信するので、同じ空間内のアバター同士で会話等を行うことができる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
(変形形態)
(1)本実施形態では、図6のアバター60によって示すように、アバターは、同一の形状のものをするものを例に説明したが、これに限定されない。例えば、アバターの顔に位置する部分に、実際のユーザの顔画像を出力するようにして差異を示してもよい。
図11は、変形形態に係る仮想空間提供サーバが生成するアバター60-2の一例を示す図である。
ユーザ端末にカメラを備え、ユーザが当該サービスを使用する場合に、ユーザ端末の制御部は、カメラを介してユーザの顔画像を取得し、仮想空間提供サーバに顔画像データを送信する。仮想空間提供サーバの制御部は、ユーザの顔画像データを受信して、顔画像65を顔部61-2に合成したアバター60-2を生成する。なお、ユーザ端末の制御部が、ユーザの顔画像データを、当該サービスを利用する間に常に送信し続けることで、仮想空間提供サーバの制御部は、受信した顔画像データに基づいてアバターを生成するので、リアルタイムで表情が変わるアバターを仮想空間内に出力させることができる。
(2)本実施形態では、アバターの数に応じて、ルームの色を異なるようにするものを例に説明したが、これに限定されない。ルームの透過性を変更してもよい。
また、ルームの表示態様を変更するのは、アバターの数に限定されない。例えば、音量に応じて、ルームの色や透過性を異なるようにしてもよい。
(3)本実施形態では、各ユーザのアバターを表示するものを例に説明したが、これに限定されない。例えば、全てのアバターを表示することなく、ルーム内のアバターに係るユーザの数に応じて、例えば、自身のアバターの近傍に位置する一部のアバターのみを表示させるようにしてもよい。そのようにすれば、多数のアバターが表示されて視覚的に混雑しているような状態を回避できる。
(4)本実施形態では、ルーム内での音声による会話について説明したが、これに限定されない。ルーム内で文字による会話であるチャットをしてもよい。その場合、ルーム内にいるときに限って、チャットの内容をユーザ端末に出力するようにする。よって、ルームにいる間に、ルーム内で行われる文字による会話に参加することができる。
また、仮想空間提供サーバに翻訳機能を有したり、外部の翻訳機能を有する装置と連携したりしてもよい。各国の言語での音声やテキストによる会話について、翻訳機能を用いれば、自国の言語に変換して出力できるので、便利である。
1 仮想空間提供サーバ
5 ユーザ端末
10 制御部
11 仮想空間生成部
12 アバター生成部
13 アバター処理部
14 アバター位置判定部
15 生成画像出力部
21 音制御部
22 音声受付部
23 音出力部
30 記憶部
31a 仮想空間提供プログラム
32 ユーザ情報記憶部
33 ルーム情報記憶部
34 ルーム表示条件記憶部
60,60-2 アバター
100 仮想空間提供システム
N 通信ネットワーク

Claims (10)

  1. 複数のユーザ端末に対して通信ネットワークを介して接続された仮想空間提供装置であって、
    三次元仮想空間に配置される小空間の位置及び出力態様に関する情報を含む小空間情報を記憶する小空間情報記憶部と、
    前記小空間情報記憶部を参照して前記小空間の出力態様を決定する小空間態様決定手段と、
    前記小空間態様決定手段が決定した前記出力態様の前記小空間を含む前記三次元仮想空間を生成する仮想空間生成手段と、
    各ユーザ端末を使用するユーザに対応付けられたオブジェクトを生成するオブジェクト生成手段と、
    前記仮想空間生成手段が生成した前記三次元仮想空間に、前記オブジェクト生成手段が生成した前記オブジェクトを配置した生成画像を、各ユーザ端末に出力する生成画像出力手段と、
    を備える、仮想空間提供装置。
  2. 請求項1に記載の仮想空間提供装置において、
    前記三次元仮想空間は、前記小空間の中に小空間をさらに配置可能な入れ子構造を有し、
    前記小空間情報記憶部は、前記入れ子構造に関する情報をさらに記憶する、仮想空間提供装置。
  3. 請求項1又は請求項2に記載の仮想空間提供装置において、
    前記小空間態様決定手段は、前記小空間の表示色及び透過性の少なくとも一方を、前記小空間の位置に属する前記オブジェクトの数に応じて異ならせるように決定する、仮想空間提供装置。
  4. 請求項1から請求項3までのいずれかに記載の仮想空間提供装置において、
    前記ユーザ端末を使用する前記ユーザに対応する前記オブジェクトの移動に対する操作信号を、前記ユーザ端末から受け付ける操作受付手段と、
    前記操作受付手段が受け付けた前記操作信号に応じて、前記オブジェクトを移動させるオブジェクト移動手段と、
    を備える、仮想空間提供装置。
  5. 請求項4に記載の仮想空間提供装置において、
    前記ユーザの権限情報を含むユーザ情報を記憶するユーザ情報記憶部を備え、
    前記小空間情報記憶部は、前記権限情報に対応した前記小空間の入室可否情報をさらに記憶しており、
    前記オブジェクト移動手段により前記小空間の位置に前記オブジェクトが移動した場合に、前記ユーザ情報記憶部及び前記小空間情報記憶部を参照し、前記オブジェクトの前記小空間の中への移動を許可するか否かを判定する内部移動判定手段を備え、
    前記オブジェクト移動手段は、前記内部移動判定手段により前記小空間の中への移動を許可した場合に限り、前記オブジェクトを前記小空間の中へ移動させる、仮想空間提供装置。
  6. 請求項4又は請求項5に記載の仮想空間提供装置において、
    前記生成画像出力手段は、
    前記ユーザ端末を使用する前記ユーザに対応する前記オブジェクトの位置から所定範囲の前記三次元仮想空間に係る前記生成画像を、前記ユーザ端末に出力し、
    前記オブジェクト移動手段による前記オブジェクトの移動に応じて、移動後の前記オブジェクトの位置から前記所定範囲の前記三次元仮想空間であって、未出力分の前記三次元仮想空間に係る前記生成画像を、前記小空間の単位で前記ユーザ端末に出力する、仮想空間提供装置。
  7. 請求項1から請求項6までのいずれかに記載の仮想空間提供装置において、
    前記三次元仮想空間及び前記小空間を含む空間ごとに音の出力を制御する音制御手段と、
    前記ユーザ端末を使用する前記ユーザに対応する前記オブジェクトの位置に対応し、前記音制御手段が制御した前記空間の音を、前記ユーザ端末に出力する音出力手段と、
    を備える、仮想空間提供装置。
  8. 請求項7に記載の仮想空間提供装置において、
    前記ユーザ端末から音声を受け付ける音声受付手段を備え、
    前記音出力手段は、前記音声受付手段が受け付けた前記音声を、前記オブジェクトの位置に対応した前記空間の他のオブジェクトに係るユーザの前記ユーザ端末に出力する、仮想空間提供装置。
  9. 複数のユーザ端末に対して通信ネットワークを介して接続されたコンピュータによる仮想空間提供方法であって、
    前記コンピュータが、
    三次元仮想空間に配置される小空間の位置及び出力態様に関する情報を含む小空間情報を記憶する小空間情報記憶部を参照して前記小空間の出力態様を決定する小空間態様決定ステップと、
    前記小空間態様決定ステップにより決定された前記出力態様の前記小空間を含む前記三次元仮想空間を生成する仮想空間生成ステップと、
    各ユーザ端末を使用するユーザに対応付けられたオブジェクトを生成するオブジェクト生成ステップと、
    前記仮想空間生成ステップにより生成された前記三次元仮想空間に、前記オブジェクト生成ステップにより生成された前記オブジェクトを配置した生成画像を、各ユーザ端末に出力する生成画像出力ステップと、
    を含む、仮想空間提供方法。
  10. 複数のユーザ端末に対して通信ネットワークを介して接続されたコンピュータを、
    三次元仮想空間に配置される小空間の位置及び出力態様に関する情報を含む小空間情報を記憶する小空間情報記憶部を参照して前記小空間の出力態様を決定する小空間態様決定手段と、
    前記小空間態様決定手段が決定した前記出力態様の前記小空間を含む前記三次元仮想空間を生成する仮想空間生成手段と、
    各ユーザ端末を使用するユーザに対応付けられたオブジェクトを生成するオブジェクト生成手段と、
    前記仮想空間生成手段が生成した前記三次元仮想空間に、前記オブジェクト生成手段が生成した前記オブジェクトを配置した生成画像を、各ユーザ端末に出力する生成画像出力手段と、
    として機能させるためのプログラム。
JP2021116335A 2021-07-14 2021-07-14 仮想空間提供装置、仮想空間提供方法及びプログラム Pending JP2023012716A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021116335A JP2023012716A (ja) 2021-07-14 2021-07-14 仮想空間提供装置、仮想空間提供方法及びプログラム
PCT/JP2022/027216 WO2023286727A1 (ja) 2021-07-14 2022-07-11 仮想空間提供装置、仮想空間提供方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021116335A JP2023012716A (ja) 2021-07-14 2021-07-14 仮想空間提供装置、仮想空間提供方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023012716A true JP2023012716A (ja) 2023-01-26

Family

ID=84919316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021116335A Pending JP2023012716A (ja) 2021-07-14 2021-07-14 仮想空間提供装置、仮想空間提供方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2023012716A (ja)
WO (1) WO2023286727A1 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4950978B2 (ja) * 2008-10-08 2012-06-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
WO2023286727A1 (ja) 2023-01-19

Similar Documents

Publication Publication Date Title
US20220266132A1 (en) Virtual environment for computer game
US20190332400A1 (en) System and method for cross-platform sharing of virtual assistants
KR101540544B1 (ko) 캐릭터를 이용한 메시지 서비스 방법, 상기 방법을 수행하는 사용자 단말, 상기 방법을 포함하는 메시지 애플리케이션
US9313045B2 (en) System and method for providing avatar with variable appearance
EP3996365A1 (en) Information processing device and program
US11740766B2 (en) Information processing system, information processing method, and computer program
US20200222813A1 (en) Consent verification
JP2005235142A (ja) ユーザ間親密度測定システム及びユーザ間親密度測定プログラム
JP2022191286A (ja) 情報処理システム、情報処理方法、情報処理プログラム
US20050253851A1 (en) System for providing virtual space, a virtual space providing server and a virtual space providing method for advancing communication between users in virtual space
WO2023190344A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2011239397A (ja) 直感型仮想対話方法
WO2023286727A1 (ja) 仮想空間提供装置、仮想空間提供方法及びプログラム
WO2019073559A1 (ja) 情報処理装置
US20220417490A1 (en) Information processing system, information processing method, and information processing program
CN113099257B (zh) 网络交友互动方法、装置、终端设备及存储介质
JP7068977B2 (ja) オンライン商取引支援システムにおける方法及びプログラム
TWI574199B (zh) The way to dynamically change its texture style based on the user's virtual pet
US20220164825A1 (en) Information processing apparatus and system and non-transitory computer readable medium for outputting information to user terminals
KR20180107625A (ko) 가상 컨텐츠 공동 참여 서비스 시스템
US20230412766A1 (en) Information processing system, information processing method, and computer program
JP2024047954A (ja) プログラム及び情報処理装置
Seth Real Time Cross Platform Collaboration Between Virtual Reality & Mixed Reality
KR20010095526A (ko) 가상 문화단지내에서 영상을 제공하는 방법 및 그 방법을기록한 기록매체
KR20210023361A (ko) 인공지능 아바타를 이용한 전자복지몰 시스템