JP7454166B2 - 情報処理システム、情報処理方法、及び記憶媒体 - Google Patents

情報処理システム、情報処理方法、及び記憶媒体 Download PDF

Info

Publication number
JP7454166B2
JP7454166B2 JP2022209342A JP2022209342A JP7454166B2 JP 7454166 B2 JP7454166 B2 JP 7454166B2 JP 2022209342 A JP2022209342 A JP 2022209342A JP 2022209342 A JP2022209342 A JP 2022209342A JP 7454166 B2 JP7454166 B2 JP 7454166B2
Authority
JP
Japan
Prior art keywords
avatar
information
predetermined
relationship
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022209342A
Other languages
English (en)
Other versions
JP2024018864A (ja
Inventor
暁彦 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Publication of JP2024018864A publication Critical patent/JP2024018864A/ja
Application granted granted Critical
Publication of JP7454166B2 publication Critical patent/JP7454166B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、情報処理システム、情報処理方法、及び記憶媒体に関する。
会話開始トリガ等の第1トリガが検知されるまでは、複数の仮想キャラクタの配置を、仮想キャラクタ配置取得部によって取得された配置に従った配置とする表示制御データを生成し、第1トリガが検知されたことに応答して、第1トリガに関連付けられた第1仮想キャラクタの仮想空間における配置が変更された表示制御データを生成する技術が知られている。
特開2021-010077号公報
しかしながら、上記のような従来技術では、アバター間の交流を効果的に促進することが難しい。
そこで、1つの側面では、本開示は、アバター間の交流を効果的に促進することを目的とする。
1つの側面では、仮想空間において各アバターの動きを処理するアバター処理部と、
各アバターに、対応するユーザにより指定される文字情報又はアバター自身と関連付けられる文字情報を対応付ける対応付け処理部と、
第1アバターに対応付けられている前記文字情報と、第2アバターに対応付けられている前記文字情報との関係を判定する第1判定部とを備え、
前記アバター処理部は、仮想空間において第1所定位置関係に前記第1アバターと前記第2アバターとが存在する場合に、前記第1判定部による判定結果に基づいて、前記第2アバターに、又は、前記第1アバターと前記第2アバターの双方に、所定動作を自動的に行わせる、情報処理システムが提供される。
1つの側面では、本開示によれば、アバター間の交流を効果的に促進することが可能となる。
本実施形態に係る仮想現実生成システムのブロック図である。 ヘッドマウントディスプレイを介して視認可能な端末用画像の説明図である。 スマートフォンを介して視認可能な端末用画像の説明図である。 仮想空間における自動リアクションの発動シーン(その1)の一例を示す説明図である。 仮想空間における自動リアクションの発動シーン(その2)の一例を示す説明図である。 仮想空間における自動リアクションの発動シーン(その1)の他の一例を示す説明図である。 仮想空間における自動リアクションの発動シーン(その2)の他の一例を示す説明図である。 タグ情報に基づく文字間距離の説明図である。 制限フラグの説明図である。 自動リアクションに関連したサーバ装置の機能を示す概略的なブロック図である。 自動リアクション関連データ記憶部内のデータの一例を示す説明図である。 ユーザ情報記憶部内のデータの一例を示す説明図である。 プロフィール情報の説明図である。 アバター情報記憶部内のデータの一例を示す説明図である。 アバターの自動リアクションに関連してサーバ装置により実行される処理の一例を示す概略的なフローチャートである。 アバターの自動リアクションに関連してサーバ装置により実行される処理の他の一例を示す概略的なフローチャートである。
以下、添付図面を参照しながら各実施形態について詳細に説明する。なお、添付図面では、見易さのために、複数存在する同一属性の部位には、一部のみしか参照符号が付されていない場合がある。
図1を参照して、一実施形態に係る仮想現実生成システム1の概要について説明する。図1は、本実施形態に係る仮想現実生成システム1のブロック図である。図2は、ヘッドマウントディスプレイを介して視認可能な端末用画像の説明図である。
仮想現実生成システム1は、サーバ装置10と、1つ以上の端末装置20と、を備える。図1では簡便のため、3つの端末装置20、20A、20Bを図示しているが、端末装置20の数は2つ以上であればよい。
サーバ装置10は、例えば1つ以上の仮想現実を提供する運営者が管理するサーバ等の情報処理システムである。端末装置20は、例えば携帯電話、スマートフォン、タブレット端末、PC(Personal Computer)、ヘッドマウントディスプレイ、又はゲーム装置等の、ユーザによって使用される装置である。端末装置20は、典型的にはユーザごとに異なる態様で、複数がサーバ装置10にネットワーク3を介して接続されうる。
端末装置20は、本実施形態に係る仮想現実アプリケーションを実行可能である。仮想現実アプリケーションは、ネットワーク3を介してサーバ装置10や所定のアプリケーション配信サーバから端末装置20に受信されてもよく、あるいは端末装置20に備えられた記憶装置又は端末装置20が読取可能なメモリカード等の記憶媒体にあらかじめ記憶されていてもよい。サーバ装置10及び端末装置20は、ネットワーク3を介して通信可能に接続される。例えば、サーバ装置10及び端末装置20が協動して、仮想現実に関する多様な処理を実行する。
各端末装置20は、サーバ装置10を介して互いに通信可能に接続されている。なお、以下では、「一の端末装置20が情報を他の端末装置20に送信する」とは、「一の端末装置20が情報をサーバ装置10を介して他の端末装置20に送信する」ことを意味する。同様に、「一の端末装置20が情報を他の端末装置20から受信する」とは、「一の端末装置20が情報をサーバ装置10を介して他の端末装置20から受信する」ことを意味する。ただし、変形例では、各端末装置20は、サーバ装置10を介さずに通信可能に接続されてもよい。
なお、ネットワーク3は、無線通信網や、インターネット、VPN(Virtual Private Network)、WAN(Wide Area Network)、有線ネットワーク、又はこれらの任意の組み合わせ等を含んでよい。
図1に示す例では、仮想現実生成システム1は、スタジオユニット30A、30Bを含む。スタジオユニット30A、30Bは、主催側の端末装置20Aと同様、主催側の装置である。スタジオユニット30A、30Bは、コンテンツ制作用のスタジオ、部屋、ホール等に配置され得る。スタジオユニット30A、30Bには、モーションキャプチャ用の各種機材が設置されてもよい。
各スタジオユニット30は、主催側の端末装置20A、及び/又は、サーバ装置10と同様の機能を有することができる。以下、主催側と参加側を区別する場合、説明を簡単にするために、主催側の端末装置20Aがサーバ装置10を介して各参加側の端末装置20Bに対して各種のコンテンツを配信する態様を主に説明する。しかしながら、これに代えて又はこれに加えて、主催側ユーザに対向するスタジオユニット30A、30Bが、主催側の端末装置20Aと同様の機能を有することにより、サーバ装置10を介して各参加側の端末装置20Bに対して各種のコンテンツを配信してもよい。なお、変形例では、仮想現実生成システム1は、スタジオユニット30A、30Bを備えていなくてもよい。
以下では、仮想現実生成システム1が、情報処理システムの一例を実現するが、特定の一の端末装置20の各要素(図1の端末通信部21から端末制御部25参照)が、情報処理システムの一例を実現してもよいし、複数の端末装置20が、協動して情報処理システムの一例を実現してもよい。また、サーバ装置10が単独で、情報処理システムの一例を実現してもよいし、サーバ装置10と1つ以上の端末装置20が、協動して情報処理システムの一例を実現してもよい。
ここで、本実施形態に係る仮想現実の概要について説明する。本実施形態に係る仮想現実は、例えば教育、旅行、ロールプレイング、シミュレーション、ゲームやコンサートのようなエンターテイメント等、任意の現実に対する仮想現実等であって、仮想現実の実行に伴い、アバターのような仮想現実媒体が用いられる。例えば、本実施形態に係る仮想現実は、3次元の仮想空間と、当該仮想空間内に登場する各種の仮想現実媒体と、当該仮想空間内で提供される各種のコンテンツとにより実現されてよい。
仮想現実媒体は、仮想現実に使用される電子データであり、例えば、カード、アイテム、ポイント、サービス内通貨(又は仮想現実内通貨)、トークン(例えば、非代替性トークン:Non-Fungible Token(NFT))、チケット、キャラクタ、アバター、パラメータ等、任意の媒体を含む。また、仮想現実媒体は、レベル情報、ステータス情報、パラメータ情報(体力値及び攻撃力等)又は能力情報(スキル、アビリティ、呪文、ジョブ等)のような、仮想現実関連情報であってもよい。また、仮想現実媒体は、ユーザによって仮想現実内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与等され得る電子データであるが、仮想現実媒体の利用態様は本明細書で明示されるものに限られない。
なお、アバターは、典型的には、正面方向を有するキャラクタの形態であり、人や動物又はその類の形態を有してよい。アバターは、各種アバターアイテムに対応付けられることで、多様な容姿(描画されたときの容姿)を有することができる。また、以下では、アバターの性質上、ユーザとアバターとは同一視して説明する場合がある。従って、例えば、「一のアバターが〇〇する」は、「一のユーザが〇〇する」と同義である場合がある。
ユーザは、頭部又は顔の一部に装着型装置を装着し、当該装着型装置を介して仮想空間を視認してよい。なお、装着型装置は、ヘッドマウントディスプレイやメガネ型装置であってもよい。メガネ型装置は、いわゆるAR(Augmented Reality)グラスやMR(Mixed Reality)グラスであってよい。いずれの場合でも、装着型装置は、端末装置20とは別であってもよいし、端末装置20の一部又は全部の機能を実現してもよい。端末装置20は、ヘッドマウントディスプレイにより実現されてよい。
(サーバ装置の構成)
サーバ装置10の構成について具体的に説明する。サーバ装置10は、サーバコンピュータにより構成される。サーバ装置10は、複数台のサーバコンピュータにより協動して実現されてもよい。例えば、サーバ装置10は、各種のコンテンツを提供するサーバコンピュータや、各種の認証サーバを実現するサーバコンピュータ等により協動して実現されてもよい。また、サーバ装置10は、Webサーバを含んでよい。この場合、後述する端末装置20の機能の一部は、Webサーバから受領したHTML文書やそれに付随する各種プログラム(Javascript)をブラウザが処理することによって実現されてもよい。
サーバ装置10は、図1に示すように、サーバ通信部11と、サーバ記憶部12と、サーバ制御部13と、を備える。
サーバ通信部11は、外部装置と無線又は有線によって通信し、情報の送受信を行うインターフェースを含む。サーバ通信部11は、例えば無線LAN(Local Area Network)通信モジュール又は有線LAN通信モジュール等を含んでもよい。サーバ通信部11は、ネットワーク3を介して、端末装置20との間で情報を送受信可能である。
サーバ記憶部12は、例えば記憶装置であって、仮想現実に係る各種処理に必要な種々の情報及びプログラムを記憶する。
サーバ制御部13は、専用のマイクロプロセッサ又は特定のプログラムを読み込むことにより特定の機能を実現するCPU(Central Processing Unit)や、GPU(Graphics Processing Unit)等を含んでよい。例えばサーバ制御部13は、端末装置20と協動して、ユーザ入力に応じて仮想現実アプリケーションを実行する。
(端末装置の構成)
端末装置20の構成について説明する。図1に示すように、端末装置20は、端末通信部21と、端末記憶部22と、表示部23と、入力部24と、端末制御部25とを備える。
端末通信部21は、外部装置と無線又は有線によって通信し、情報の送受信を行うインターフェースを含む。端末通信部21は、例えばLTE(Long Term Evolution)(登録商標)や、LTE-A(LTE-Advanced)、第五世代移動通信システム、UMB(Ultra Mobile Broadband)等のモバイル通信規格に対応する無線通信モジュール、無線LAN通信モジュール、又は有線LAN通信モジュール等を含んでもよい。端末通信部21は、ネットワーク3を介して、サーバ装置10との間で情報を送受信可能である。
端末記憶部22は、例えば一次記憶装置及び二次記憶装置を含む。例えば端末記憶部22は、半導体メモリ、磁気メモリ、又は光メモリ等を含んでもよい。端末記憶部22は、サーバ装置10から受信する、仮想現実の処理に用いられる種々の情報及びプログラムを記憶する。仮想現実の処理に用いられる情報及びプログラムは、端末通信部21を介して外部装置から取得されてもよい。例えば、仮想現実アプリケーションプログラムが、所定のアプリケーション配信サーバから取得されてもよい。以下、アプリケーションプログラムを、単にアプリケーションともいう。
また、端末記憶部22は、仮想空間を描画するためのデータ、例えば建物のような屋内の空間や、屋外の空間の画像等を記憶してよい。なお、仮想空間を描画するためのデータは、仮想空間ごとに複数種類用意され、使い分けられてもよい。
また、端末記憶部22は、3次元の仮想空間内に配置された種々のオブジェクトに投影(テクスチャマッピング)するための種々の画像(テクスチャ画像)を記憶してよい。
例えば、端末記憶部22は、各ユーザに対応付けられる仮想現実媒体としてのアバターに係るアバター描画情報を記憶する。仮想空間内のアバターは、当該アバターに係るアバター描画情報に基づいて描画される。
また、端末記憶部22は、例えば各種のギフトオブジェクト、建物、壁、又はNPC(Non Player Character)等のような、アバターとは異なる各種のオブジェクト(仮想現実媒体)に係る描画情報を記憶する。仮想空間内に各種のオブジェクトは、かかる描画情報に基づいて描画される。なお、ギフトオブジェクトとは、一のユーザから他のユーザへのギフト(贈り物)に対応するオブジェクトであり、アイテムの一部である。ギフトオブジェクトは、アバターの身に着けるもの(服やアクセサリー)や装飾するもの(花火やお花等)、背景(壁紙)又はその類や、ガチャ(抽選)を回すことのできるチケット又はその類であってよい。なお、本件出願において用いられる「ギフト」という用語は、「トークン(token)」という用語と同様の概念を意味する。従って、「ギフト」という用語を「トークン(token)」という用語に置き換えて、本願に記載された技術を理解することも可能である。
表示部23は、例えば液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイ等の表示デバイスを含む。表示部23は、多様な画像を表示可能である。表示部23は、例えばタッチパネルで構成され、多様なユーザ操作を検出するインターフェースとして機能する。なお、表示部23は、ヘッドマウントディスプレイに内蔵される形態であってよい。
入力部24は、物理キーを含んでもよいし、マウス等のようなポインティングデバイスをはじめとする任意の入力インターフェースを更に含んでもよい。また、入力部24は、音声入力やジェスチャ入力、視線入力のような、非接触型のユーザ入力を受付可能であってもよい。なお、ジェスチャ入力には、ユーザの各種状態を検出するためのセンサ(画像センサや、加速度センサ、距離センサ等)や、センサ技術やカメラを統合した専用のモーションキャプチャ、ジョイパッドのようなコントローラ等が利用されてもよい。また、視線検出用のカメラは、ヘッドマウントディスプレイ内に配置されてもよい。なお、ユーザの各種状態は、例えばユーザの向きや位置、動き又はその類であり、この場合、ユーザの向きや位置、動きとは、ユーザの顔や手等の身体の一部や全部の向き、位置、動きのみならず、ユーザの視線の向き、位置、動き又はその類を含む概念である。
なお、ジェスチャによるユーザ入力は、仮想カメラの視点の変更に利用されてもよい。例えば、図3に模式的に示すように、ユーザが、端末装置20を手で持ちながら、端末装置20の向きを変化させると、その方向に応じて、仮想カメラの視点が変化されてもよい。この場合、スマートフォンのような比較的小さい画面の端末装置20を利用する場合でも、ヘッドマウントディスプレイを介して周囲を見渡せるのと同様の態様で視認領域の広さを確保できる。
端末制御部25は、1つ以上のプロセッサを含む。端末制御部25は、端末装置20全体の動作を制御する。
端末制御部25は、端末通信部21を介して情報の送受信を行う。例えば、端末制御部25は、仮想現実に係る各種処理に用いられる種々の情報及びプログラムを、サーバ装置10及び他の外部サーバの少なくとも一方から受信する。端末制御部25は、受信した情報及びプログラムを、端末記憶部22に記憶する。例えば、端末記憶部22には、Webサーバに接続するためのブラウザ(インターネットブラウザ)が格納されてよい。
端末制御部25は、ユーザの操作に応じて仮想現実アプリケーションを起動する。端末制御部25は、サーバ装置10と協動して、仮想現実に係る各種処理を実行する。例えば、端末制御部25は、仮想空間の画像を表示部23に表示させる。画面上には、例えばユーザ操作を検出するGUI(Graphic User Interface)が表示されてもよい。端末制御部25は、入力部24を介して、ユーザ操作を検出可能である。例えば端末制御部25は、ユーザのジェスチャによる各種操作(タップ操作、ロングタップ操作、フリック操作、及びスワイプ操作等に対応する操作)を検出可能である。端末制御部25は、操作情報をサーバ装置10に送信する。
端末制御部25は、仮想空間(画像)とともにアバター等を描画し、端末用画像を表示部23に表示させる。この場合、例えば、図2に示すように、左右の目でそれぞれ視認される画像G200、G201を生成することで、ヘッドマウントディスプレイ用の立体視画像を生成してよい。図2には、左右の目でそれぞれ視認される画像G200、G201が模式的に示されている。なお、以下では、特に言及しない限り、仮想空間の画像とは、画像G200、G201で表現される画像全体を指す。また、端末制御部25は、例えばユーザによる各種操作に応じて、仮想空間内においてアバターの各種動き等を実現させる。
なお、以下で説明する仮想空間は、ヘッドマウントディスプレイ又はその類を利用して視認可能な没入型の空間であってユーザがアバターを介して自由に(現実と同様に)動き回ることができる連続性のある3次元的な空間のみならず、図3を参照して上述したようなスマートフォン又はその類を利用して視認可能な非没入型の空間をも含む概念である。なお、スマートフォン又はその類を利用して視認可能な非没入型の空間は、アバターを介して自由に動き回ることができる連続性のある3次元的な空間であってもよいし、2次元的な不連続な空間であってもよい。以下、区別するときは、ユーザがアバター(例えば3Dアバター)を介して自由に動き回ることができる連続性のある3次元的な空間を、「メタバース空間」とも称し、それ以外の仮想空間(例えば不連続な空間)を、「非メタバース空間」とも称する。
ここで、このような多様な仮想空間においては、多種多様なユーザが存在しうる。例えば、配信ユーザは、映像および/または音声に関する情報を送信する側のユーザを意味するものとする。例えば、配信ユーザは、単独での動画配信、複数人が参加可能なコラボ配信、複数人が参加および/または視聴可能なビデオチャットまたはボイスチャット、複数人が参加および/または視聴可能な仮想空間上でのイベント(パーティなど)を主催または開催するユーザ、すなわち、これらをメインで実行するユーザであればよい。そのため、本開示における配信ユーザは、ホストユーザ、主催ユーザまたは開催ユーザなどと言い換えることもできる。
一方で、視聴ユーザは、映像および/または音声に関する情報を受信する側のユーザを意味するものとする。ただし、視聴ユーザは上記情報を受信するのみならず、リアクションすることも可能なユーザとすることができる。例えば、視聴ユーザは、動画配信、コラボ配信を視聴するユーザ、または、ビデオチャット、ボイスチャットやイベントに参加および/またはこれらを視聴するユーザであればよい。そのため、本開示における視聴ユーザは、ゲストユーザ、参加ユーザ、リスナー、観覧ユーザ、応援ユーザなどと言い換えることもできる。
また、本開示の実施形態における情報処理システムは、多くの人が同時に参加してキャラクタオブジェクト(アバター)を通じた交流や仕事、遊びなど、実社会に近いレベルの自由な活動ができるデジタル世界であって、現実と仮想の隔たりを超えて社会活動ができる、次のインターネット空間(メタバース)を提供するために用いられることができる。
このようなメタバース空間において、ユーザのアバターはワールド内を自由に歩き回り、互いにコミュニケーションをとることが可能である。
そして、かかるメタバース空間にいる複数のアバターの中の一のアバター(キャラクタオブジェクト)が、配信ユーザのキャラクタオブジェクトとして動画を配信できる構成としてもよい。すなわち、多対多のメタバース空間において一対多の動画配信を行うことができるものとしてもよい。
このようなメタバース空間において、配信ユーザと視聴ユーザとは特に区別されないものとすることができる。
次に、図4から図9を参照して、仮想空間内におけるアバターの動作に関する特徴的な構成を説明する。
図4及び図5は、仮想空間における自動リアクションの発動シーンの一例を示す説明図である。図6及び図7は、仮想空間における自動リアクションの発動シーンの他の一例を示す説明図である。図8は、タグ情報に基づく文字間距離の説明図である。図9は、制御フラグの説明図である。
なお、以下の説明において登場する各種モノ(例えばサッカーボールやピアノ等)は、特に言及しない限り、仮想空間におけるオブジェクトであり、実物とは異なる。また、以下の説明における各種イベントは、仮想空間における各種イベント(例えば、演奏会等)であり、現実でのイベントとは異なる。また、以下の説明において、アバターが、あるモノを取得する(手に入れる)とは、当該アバターに、当該モノが対応付けられていない状態から、当該モノが対応付けられている状態への遷移を表す。また、上述したように、一のアバターと、当該一のアバターに対応付けられているユーザとは、同一視できる関係であるので、これらを区別せずに説明する場合もある。なお、一のユーザが、複数のアバターに対応付けられる仕様も可能であるが、この場合も、当該一のユーザは、一のアバターを選択して仮想空間内で活動する。従って、この場合も、各時点では、一のアバターと、当該一のアバターに対応付けられているユーザとは、同一視できる関係である。
本実施形態では、仮想空間内におけるアバターの動作は、ユーザからのユーザ入力に応じた通常の動作に加えて、文字情報に基づく所定動作(以下、「自動リアクション」とも称する)を含む。以下では、自動リアクションを行うか否かを判定されるアバター又は自動リアクションを行うアバター(第2アバターの一例)を、「リアクション主体のアバター」とも称する。この場合、自動リアクションは、リアクション主体のアバターに対応付けられている文字情報に基づく自動的な動作である。文字情報は、リアクション主体のアバター又はリアクション主体のアバターに対応付けられているユーザ(以下、「対象ユーザ」とも称する)の嗜好を表す情報であってよい。例えば、文字情報は、好きな人、好きなこと、苦手な人、苦手なこと、好きな属性、苦手な属性等を表してよい。また、文字情報は、性格(“陽キャ”や“陰キャ”等)を表してもよい。また、文字情報は、リアクション主体のアバターに対応付けられているプロフィール情報等を含んでよい。また、文字情報は、仮想空間内におけるアバターの各種活動(会話/発語情報や行動履歴等)に応じて自動的に生成されてもよい。文字情報の更なる具体例は、後述する。
自動リアクションは、他のオブジェクトや他のアバター等に対して、自動的に行われる反応的な動作である。自動リアクションは、自動的に行われるため、ユーザからの特別なユーザ入力を必要としない。ただし、各アバターは、自動リアクションの実行可否に関する設定が可能とされてもよい。この場合、自動リアクションの実行が可能と設定されている各アバターに対してのみ、自動リアクションが自動的に行われてよい。
自動リアクションは事前に用意されているアニメーションデータに基づいて描画されてもよい。これは、本開示では、アバター間の交流を効果的に促進することを課題としているが、他のアバターによるすべての特定行動に対して処理対象アドバイザーの自動リアクションをトラッキングしていると処理負荷が高くなりすぎる可能性があること、また、リアクションが遅れたり、通信状況によってモーションデータを送るのに時間を要したりすると、大事な場面(例えば初対面のとき)におけるタイムリーなリアクションが取れなくなってしまう可能性があることなどから、自動リアクションの種類を限定しているものである。この場合、自動リアクションは、ユーザからのユーザ入力とは無関係に、実行可能であるので、すべての時間にわたってユーザのユーザ入力(例えばモーションキャプチャによるトラッキング情報)を取得する必要がなくなる。この結果、通信負荷を効率的に低減できる。また、アバター(ユーザ)側からしても、自動リアクションが自動的に実行されるので、ユーザがその都度リアクションをとったりエモートを選択したりする労力(手間)を省くことができ、利便性が向上する。
自動リアクションの描画については、サーバ装置10から端末装置20にアバターをどのように動作させるかというモーションデータを送信し、端末装置20でそのモーションデータからアバターを動作させるようにしてもよい。例えば、サーバ装置10で事前生成したアニメーションにモーションデータをブレンドして、端末装置20でトラッキングして操作するようにしてもよい。具体的には、端末装置20の画面でジョイスティック(画面でのコントロール)をもってアバターを移動させながら、興味のあるアバターには首や視線が自動的に向くようにしてもよい。そのほかにも、サーバ装置10から端末装置20に対し、スマイリングフェースマークというエモートや記号としてハートマークのパーティクルを自動的に発火させる(出現させる)ようにしてもよい。さらに、スタンプ、GIFアニメーションの再生を頭の上や吹き出しで表示させるようにしてもよい。なお、本開示では、後述するように、自動リアクションを実行するか否かの判定は、サーバ装置10で行うように説明しているが、判定は、サーバ装置10だけでなく、端末装置20で、又は端末装置20でも、行うようにしてもよい。なお、自動リアクションの描画がなされる実際のCG空間においては、そのディスプレイ解像度や表示される他のオブジェクトの状況により、細かなアバターの機微や動作の表示が必ずしも適さない場合がある。このような状況への対応としては、指や視線、表情といった細かなボーン情報や演出画像をやり取りする必要がある3次元的距離との関係において、十分に離れることで表示ピクセル上では判別できない状態になる距離LoD(Level of Detail)に基づく処理がある。LoDは、ゲームエンジン内で開発者が自動もしくは明示的に管理するが、本開示においては、実際にアバターを表示すべき3次元位置の関係に加えて、自動リアクションの動作の閾値となるアバター間の興味の距離LoI(Level of Interest)を利用することにより、効率良く情報のカリングや通信量の圧縮、描画コストの節減、キャッシュヒット率の向上を図るようにしてもよい。
アニメーションデータに基づく描画は、アバターの各部位の一部である所定部位だけに適用されてもよい。所定部位は、自動リアクションに関連した部位であり、例えば、自動リアクションが、手を上げて挨拶する動作である場合、所定部位は、アバターの手の部分であってよい。この場合、他の部位は、インバースキネマティクス(Inverse Kinematics)を利用して描画されてよい。このような構成によれば、所定部位以外の他の部位のうち、所定部位の動きに無関係な部位については、ユーザ操作に基づく描画も可能であり、この場合、各アバターの個性の表現が可能となる。なお、所定部位の一部は、一つの部位であってもよいし、一つの部位に限らずに複数の部位を含んでもよく、アニメーションは、複数の部位が連動して行われてもよい。例えば、挨拶をする際の動作として、手を振りながら頭を傾げるなど、手のほかに、頭を含めてもよい。
なお、アバターの顔の表情(例えば目や口等の動き)やそれに付随する部分(髪や髪飾りなど)を描画可能である仕様の場合、自動リアクション中のアバターの顔の表情やそれに付随する部分の動きは、同様にアニメーションによる描画であってもよいし、ユーザ操作に基づく描画であってもよい。また、アバターの顔の表情(例えば目や口等の動き)を描画可能である仕様の場合、自動リアクション中のアバターの顔の表情は、ユーザの顔画像情報やモーションキャプチャ(例えばフェイスキャプチャ)で取得されたトラッキング情報に基づいて描画されてもよい。
自動リアクションは、所定の発動条件が満たされた場合に、その後のユーザからのユーザ入力とは無関係に(すなわち自動的に)実行されてもよい。所定の発動条件は、リアクション主体のアバター又は対象ユーザに対応付けられている文字情報(以下、「リアクション主体のアバターに対応付けられている文字情報」で代表する)に基づく条件であってよい。すなわち、所定の発動条件の成否は、リアクション主体のアバターに対応付けられている文字情報に基づいて判定されてよい。
自動リアクションは、仮想空間におけるアバター間の交流を促進するための任意の動作であってよい。例えば、自動リアクションは、拍手のような称賛動作、笑顔を向ける動作、挨拶する動作、好意的なポーズ(グーサインなど)やアクションを行う動作、声をかける動作、ギフトや手紙を贈る、その他の好意的なエモート動作、又は、これらの類の各種動作を含む。また、自動リアクションは、これらの各種動作の任意の組み合わせを含んでもよい。
例えば、リアクション主体のアバターが他のアバターに、自動リアクションとして、笑顔を向ける動作を行う場合、他のアバターとリアクション主体のアバターとが初対面であったとしても、両者の交流が促進される可能性がある。例えば、他のアバターは、笑顔を向けているリアクション主体のアバターの存在に気が付き、声をかけることで、対話が開始される可能性がある。
このようにして自動リアクションは、特定の相手のアバター(以下、「相手アバター」とも称する)(第1アバターの一例)に向けた動作であってよい。従って、所定の発動条件は、仮想空間において所定位置関係(以下、「第1所定位置関係」とも称する)にリアクション主体のアバターと相手アバターとなりうる他のアバターとが存在する場合に、判定されてよい。これにより、自動リアクションを適切なタイミングで実行可能としつつ、処理負荷の低減を図ることができる。
この場合、第1所定位置関係は、任意であるが、互いに対して所定距離(例えば仮想空間における3次元の空間距離又は2次元の距離)内であることや、相手アバターとなりうる他のアバターからリアクション主体のアバターが見える位置関係(すなわち他のアバターからリアクション主体のアバターが見える位置関係)を含んでよい。あるいは、第1所定位置関係は、相手アバターとなりうる他のアバターの現在の視点からはリアクション主体のアバターが見えないが、その場で当該他のアバターの視点を変えると(例えば顔の向きや体の向きを変えると)、当該他のアバターからリアクション主体のアバターが見える位置関係を含んでよい。
図4及び図5には、自動リアクションが実行されうる一シーンが示されている。この場合、学校の廊下で、リアクション主体のアバターであるアバターA1が立っており、向こうから他のアバターA2がこちら側に歩いてきている。なお、この状況では、アバターA1とアバターA2は、初対面であるか、又は未だ打ち解けた関係でないものとする。また、この状況では、アバターA1とアバターA2は、それぞれに対応付けられている文字情報に基づいて、同じこと(例えば音楽、バンドなど)に興味があるものとする。図5では、所定の発動条件が満たされることで、リアクション主体のアバターであるアバターA1は、自動リアクションとして、手を上げて挨拶する動作を行っている。
図4及び図5に示すような場面では、所定の発動条件は、アバターA1に対応付けられている文字情報と、アバターA2に対応付けられている文字情報との関係が所定関係である場合に満たされてよい。この場合、所定関係は、両者に対応付けられている文字情報が共通点を有する関係を含んでよい。以下では、このようにして文字情報同士の関係に基づいて成否が判定される所定の発動条件を、「所定の第1発動条件」とも称する。
このようにして自動リアクションがアバターA1により行われると、リアクション主体のアバターA1が視野に入るように、アバターA2に係る仮想カメラの視野が変更されてもよい。すなわち、リアクション主体のアバターA1がよく見えるようなアバターA2の視点変更が実現されてもよい。あるいは、自動リアクションが開始されると、リアクション主体のアバターA1の位置を知らせる案内情報が、アバターA2に対して生成されてもよい。かかる仮想カメラの視野の変更や案内情報は、メタバース空間において有効となる。すなわち、視点の変更の自由度を高くすることによって、表示される情報量の多いメタバース空間では、視野の変更や案内情報が有効となる。
このようしてリアクション主体のアバターA1に、アバターA2が気付くことで、アバターA1とアバターA2と間の交流が促進される。この際、アバターA1とアバターA2は、それぞれに対応付けられている文字情報に基づいて、同じこと(例えば音楽、バンドなど)に興味があるので、話をすれば友達になれる可能性が高く、交流を効率的に促進できる。また、共通する文字情報(ひいては共通の嗜好)をもつアバター(ユーザ)が見つけやすくなることで、各ユーザの仮想空間の利用頻度や利用の継続率を、効果的に高めることができる。
また、図4及び図5に示すような場面では、リアクション主体のアバターA1に対して、アバターA2が自動リアクションを返すこととしてもよい。この場合、自動リアクションが一方通行とならず、交流を効率的に促進できる。
本実施形態において、自動リアクションがアバターA1により行われる際に、アバターA1の頭上等に対応付けてタグ情報(図5では、#band、#music、#drum)が表示されてもよい。タグ情報は、アバターA2にだけ認識可能となる態様で表示されてよいし、他の周辺アバターにも認識可能となる態様で表示されてもよい。タグ情報は、文字情報の一部又は全部であってもよいし、文字情報の一部又は全部に基づいて変換や加工等を介して生成されてもよい。共通するタグ情報に加えて共通していないタグ情報が表示されている場合には、共通するタグ情報が際立つように表示されてもよい。また、表示されるタグ情報は、アバターA2と共通のタグ情報だけであってもよい。いずれの場合も、アバターA2は、アバターA1と初対面であっても、アバターA1と自分との共通点等をすぐに認識できるので、その後の会話等の促進を図ることができる。なお、かかるタグ情報の表示は、自動リアクション自体として又は自動リアクションの一環として実行されてもよい。あるいは、かかるタグ情報は、自動リアクションがアバターA1により行われる前(図3参照)から表示されてもよい。
また、自動リアクションがアバターA1により行われる際に、アバターA1の頭上等に対応付けてメッセージ情報(図5では、“Be a friend”)が表示されてもよい。この場合、かかるメッセージ情報の内容は、自動的に決定されてもよいし、事前にアバターA1により設定されてもよい。いずれの場合も、これにより、アバターA2は、アバターA1の意図(すなわちアバターA1が行った自動リアクションの意図)を容易に把握できるので、その後の会話等の促進を図ることができる。なお、かかるメッセージ情報の表示は、自動リアクション自体として又は自動リアクションの一環として実行されてもよい。
なお、図4及び図5に示す例では、自動リアクションは、手を上げて挨拶する動作であるが、実行される自動リアクションの種類は、これに限られない。自動リアクションは、相手アバターに対して好意的な反応を含む複数種類の動作のうちから所定ルールに基づいて選択(決定)されてもよい。例えば、自動リアクションの種類は、アバターA1とアバターA2に対応付けられている文字情報に応じて決定されてもよい。例えば、自動リアクションの種類は、アバターA1又はアバターA2に対応付けられているすべての文字情報のうちの、上述した所定関係を有する文字情報に応じて決定されてもよい。この場合、アバターの個性に応じた自動リアクションが可能となり、自動リアクションの多様性とともに自動リアクションへのアバターの個性の反映を図ることができる。
また、自動リアクションは、互いの文字情報の共通性の強さに応じて変化されてもよい。例えば、図4及び図5に示す例において、アバターA1に対応付けられている文字情報と、アバターA2に対応付けられている文字情報との関係が、第1の所定関係である場合と、第2の所定関係である場合とで、自動リアクションが異なってもよい。例えば、第2の所定関係である場合、第1の所定関係である場合よりも、自動リアクションが、目立つ態様に強調されてもよい。例えば、第1の所定関係である場合は、自動リアクションは、手を上げて挨拶する動作であるのに対して、第2の所定関係である場合は、自動リアクションは、手を上げて手を振りながら挨拶する動作であってもよい。あるいは、同じ手を振る動作であっても、第2の所定関係である場合は、第1の所定関係である場合よりも、大きく手を振る動作であってよい。いずれの場合、第2の所定関係は、第1の所定関係よりも、文字情報に共通点が多い関係(例えば、後述する文字間距離が近い関係)であってよい。
図6及び図7には、自動リアクションが実行されうる他の一シーンが示されている。この場合、学校の体育館のようなところで、舞台の上でアバターB5が特定行動(この場合、サッカーボールのリフティング)を行っており、そのそばに4人のアバターB1からB4が立っている。なお、この状況では、アバターB5とアバターB1からB4は、初対面であるか、又は未だ打ち解けた関係でないものとする。また、この状況では、アバターB1からB4のうちの、アバターB2とアバターB3は、それぞれに対応付けられている文字情報に基づいて、アバターB5の特定行動(例えばサッカー又はスポーツ全般)に興味があるものとする。図7では、アバターB2とアバターB3に関してのみ所定の発動条件が満たされることで、リアクション主体のアバターであるアバターB2とアバターB3は、相手アバターであるアバターB5に対して、自動リアクションとして、拍手する動作を行っている。
図6及び図7に示すような場面では、所定の発動条件は、アバターB5の特定行動の属性と、アバターB2又はアバターB3に対応付けられている文字情報との関係が所定関係である場合に満たされてよい。この場合、所定関係は、特定行動の属性と文字情報とが共通点を有する関係を含んでよい。以下では、このようにして特定行動の属性と文字情報の関係に基づいて成否が判定される所定の発動条件を、上述した所定の第1発動条件と区別するために、「所定の第2発動条件」とも称する。また、図示はしていないが、次のような発動条件を「所定の第3発動条件」としてもよい。すなわち、第1発動条件が文字情報同士の関係が所定関係である場合、第2発動条件が特定行動と文字情報の関係が所定関係である場合を発動条件とするのに対し、第3発動条件は、特定行動と特定行動の関係が所定関係である場合を発動条件とするものである。例えば、第3発動条件による自動リアクションは、図6及び図7の例を取れば、アバターB3がアバターB5と共に特定行動(この場合、サッカーボールのリフティング)を行って特定行動が終了した後に、お互いを見て挨拶をしたり、会話が終了して無音になった瞬間(例えば会話の切れ目)に頷きをしたり、お互いに他方に対して拍手をしたりという動作である。このほかにも、アニメーション制御に使用するステートマシンの変更や、特定のステートになったときに検出してタイミングよく同じステートを出したり、対象となるアバターB3とアバターB5の特定行動終了後に、周囲のアバターB2が拍手をしたりするようにしてもよい。
このようにして自動リアクションがアバターB2とアバターB3により行われると、アバターB2とアバターB3が視野に入るように、アバターB5に係る仮想カメラの視野が変更されてもよい。すなわち、リアクション主体のアバターB2とアバターB3がよく見えるようなアバターB5の視点変更が実現されてもよい。あるいは、自動リアクションが開始されると、リアクション主体のアバターB2とアバターB3の位置(又は拍手しているアバターB2、B3の存在)を知らせる案内情報が、アバターB5に対して生成されてもよい。かかる仮想カメラの視野の変更や案内情報は、メタバース空間において有効となる。すなわち、前述したように、視点の変更の自由度を高くすることによって、表示される情報量の多いメタバース空間では、視野の変更や案内情報が有効となる。
このようしてリアクション主体のアバターB2とアバターB3に、アバターB5が気付くことで、アバターB2及びアバターB3とアバターB5と間の交流が促進される。この際、アバターB2及びアバターB3とアバターB5は、それぞれに対応付けられている文字情報に基づいて、同じこと(例えばサッカー又はスポーツ全般)に興味があるので、話をすれば友達になれる可能性が高く、交流を効率的に促進できる。
また、図6及び図7に示すような場面では、自動リアクションがアバターB2により行われると、アバターB2が視野に入るように、アバターB3に係る仮想カメラの視野が変更されてもよい。あるいは、拍手している他のアバターB2の存在を知らせる案内情報が、アバターB3に対して生成されてもよい。これは、逆も同様である。すなわち、自動リアクションがアバターB3により行われると、アバターB3が視野に入るように、アバターB2に係る仮想カメラの視野が変更されてもよい。あるいは、拍手している他のアバターB3の存在を知らせる案内情報が、アバターB2に対して生成されてもよい。これにより、アバターB2とアバターB3との間の交流の促進を図ることができる。すなわち、アバターB2とアバターB3は、それぞれに対応付けられている文字情報に基づいて、同じこと(例えばサッカー又はスポーツ全般)に興味があるので、話をすれば友達になれる可能性が高く、交流を効率的に促進できる。また、共通する嗜好をもつアバター(ユーザ)が見つけやすくなることで、各ユーザの仮想空間の利用頻度や利用の継続率を、効果的に高めることができる。
なお、図6及び図7に示す例では、自動リアクションは、拍手する動作であるが、自動リアクションの種類は、これに限られない。特定行動に対する自動リアクションは、相手アバターに対して好意的な反応を含む複数種類の動作のうちから所定ルールに基づいて選択(決定)されてもよい。例えば、自動リアクションの種類は、特定行動の属性に応じて決定されてもよい。例えば、この場合、特定行動がサッカーボールのリフティングであるので、自動リアクションは、サッカー系やスポーツ系の自動リアクションであってもよい。あるいは、自動リアクションの種類は、アバターB2又はアバターB3に対応付けられているすべての文字情報のうちの、アバターB5の特定行動の属性と所定関係を有する文字情報に応じて決定されてもよい。この場合、アバターの個性に応じた自動リアクションが可能となり、自動リアクションの多様性とともに自動リアクションへのアバターの個性の反映を図ることができる。
ここで、一のアバターの特定行動は、当該一のアバターに対応するユーザに係るトラッキング情報(例えばモーションキャプチャによる各部位のトラッキング情報)に基づいて実行(描画)されてもよいが、好ましくは、アニメーションデータを利用して描画される。この場合、ユーザのすべての動きをトラッキングする必要がないため処理負荷を低減することができ、効率的に各アバターの特定行動を表現(描画)できる。
ところで、本実施形態では、上述したような自動リアクションは、上述したように、所定の発動条件が満たされた場合に実行される。自動リアクションは、上述したように、アバター間の交流を図るために有効な反面、処理負荷を増加させる背反がありうる。従って、所定の発動条件の成否は、効率的に判定されることが望ましい。
このため、所定の発動条件の成否は、好ましくは、文字情報に基づく文字間距離を利用して判定される。例えば、リアクション主体のアバターに係る所定の発動条件が、リアクション主体のアバターに対応付けられている文字情報と、相手アバターとなりうる他のアバターに対応付けられている文字情報との関係が所定関係である場合に満たされる構成においては、所定関係の有無は、文字情報に基づく文字間距離を利用して判定されてもよい。この場合、例えばWord2vecのような自然言語処理における単語の埋め込みが利用されてもよい。Word2vecの場合、文字情報に含まれる各文字(単語)のうちの、ベクトル空間内で近くに配置される単語ベクトル同士は、所定関係を有すると判定されてもよい。このような自然言語処理を利用することで、所定関係の有無(及びそれに伴い所定の発動条件の成否)を効率的に判定できる。また、各種多様な種類の言語に対しても、所定の発動条件の成否を効率的に判定できる。
例えば、図4及び図5に示すような場面では、所定関係は、上述したように、アバターA1に対応付けられている文字情報と、アバターA2に対応付けられている文字情報との間の文字間距離(関係)が、所定距離内である関係を含んでよい。Word2vecの場合、それぞれの文字情報に含まれる各文字(単語)のうちの、ベクトル空間内で近くに配置される単語ベクトルが1組又は複数組存在する場合、所定の第1発動条件が成立してよい。
また、図6及び図7に示すような場面では、所定の第2発動条件は、上述したように、アバターA5の特定行動に関連する文字と、アバターB1からB4のそれぞれに対応付けられている文字情報との間の文字間距離(関係)が、所定関係として所定距離内であるか否かが判定されてよい。Word2vecの場合、アバターB1からB4のそれぞれごとに、アバターA5の特定行動に関連する文字に対して、それぞれの文字情報に含まれる各文字(単語)のうちの、ベクトル空間内で近くに配置される単語ベクトルが1組又は複数組存在するかが判定されてもよい。
文字間距離の算出に利用される文字情報は、タグ情報を含んでよい。図8には、複数のアバターに対応付けられているタグ情報の一例が示されている。図8において、tag[アバターC1]は、アバターC1に対応付けられているタグ情報を表す。また、図8において、[***、100]といった情報は、“***”は、文字であり、例えば図8に示すような絵文字であってもよい。絵文字の場合、世界共通となりえ、利便性が向上する。また、“100”といった数値は、当該文字に対応付けられている重みを表し、重みが大きいほど、当該アバターの嗜好を強く表すことを意味する。従って、重みが大きい文字同士の“距離”が近いほど共通性が高くなる態様で、重みが利用されてよい。この場合、アバターC1とアバターC2とは、タグ情報に基づく文字間距離(関係)が近く、所定の発動条件が成立しやすい。
このようにして、タグ情報に基づく所定の発動条件は、タグ情報同士が所定関係を有する場合に満たされてよい。この場合、所定関係は、多段階で可変されてもよい。例えば、所定関係は、最も厳しい関係として、タグ情報に係る文言の完全一致を表してもよいし、より緩やかな関係として、タグの意味も考慮してよい。例えば、#musicと#singerは所定関係を有すると判定されてもよい。また、タグ情報に基づく所定の発動条件は、多言語で横断的に照合されてもよい。この場合、例えば#野球と#baseballは所定関係を有すると判定されてもよい。
ここで、「名寄せと対象となる人数」について補足する。同じ意味を持つワード、例えば、#baseball,#ベースボール,#プロ野球,#野球,#◎(ボールマーク)は、それぞれ異なる言語や文化によって分離されたほうが良い場合もあるが、名寄せされ、より近い興味を持つものが積極的に視野に入り、円滑に出会うように設計されたほうが良い場合もある。この条件は言語や文化圏といった分類でデータベースを構築する方法もあるが、出会わせたい対象となるユーザの数によって調整する方法も合理的である。例えば、日本語ネイティブ話者とそれ以外が5人ずつ、合計10名がログインしているワールドで野球関連の趣味をもつユーザを効率的にグルーピング(名寄せ)したい場合、5名対5名という形で、そのグループを意味空間で2分する直線を想定することができ、その直線によって分離される言語/ワードで分けることができる。例示した10名のユーザについていえば、そのうち日本語話者である5名が{ベースボール,プロ野球,野球}、それ以外の5名が{#baseball,#◎(ボールマーク),#MLB}などのタグになり、前者を積極的にグルーピング(名寄せ)することが合理的となる。なお、この分離は、機械学習では、SVM:Support Vector Machine等の一般的アルゴリズムで行うことができる。
なお、このようなタグ情報は、文字間距離の算出に利用される以外にも、図5を参照して上述したように、アバターの頭上等に対応付けて表示されることで、アバター間の交流の促進に利用できる。例えば、一のアバターに対応付けられているタグ情報は、以下の条件要素C1からC4等のいずれか1つ又は2つ以上の任意の組み合わせで成立したときのみ、他の一のアバターに向けて表示されてもよい。
条件要素C1:一のアバターと他の一のアバターに、共通するタグ情報が対応付けられていること。
条件要素C2:一のアバターと他の一のアバターとが所定位置関係であること。
条件要素C3:一のアバターと他の一のアバターとが、特定の親密関係であること。
条件要素C4:他の一のアバターが一のアバターを指定して、タグ情報の表示を要求したこと。
ここで、条件要素C2において、所定位置関係は、上述した第1所定位置関係と同様に、所定距離内であることや、相手アバターとなりうる他のアバターから一のアバターが見える位置関係(すなわち他の一のアバターから一のアバターが見える位置関係)等を含んでよい。また、条件要素C3において、特定の親密関係は、一方が他方のフレンド情報としてユーザ情報(後述)に登録されている関係や、双方が互いにフレンド情報としてユーザ情報(後述)に登録されている関係、フォロワーとフォロイーとしてユーザ情報(後述)に登録されている関係、又はこれらの任意の組み合わせ等を含んでよい。
なお、初心者モードが存在する仕様である場合、初心者モードが設定されているアバターに対しては、タグ情報が頭上等に対応付けて表示されてもよい。この場合、タグ情報は、初心者マークを含んでよい。あるいは、初心者マークは、アバターの衣装等に付与されてもよい。なお、初心者モードを熟練したユーザが選ぶこともできるがその時は自分のアバターと名前も表示されてよい。ここで、初心者モードのほかに、中級者モードや上級者モードなど、複数のモードが設定される場合には、各モードは、ユーザが手動で選択できるよういしてもよいし、サービスに登録してからの日数やログイン回数に応じて自動的に設定されるようにしてもよい。
条件要素C4を含む条件の成立に伴って、一のアバターに対応付けられているタグ情報が、他のアバターに対して表示された場合、当該一のアバターに対して、その旨を表す情報がフィードバックされてもよい。この場合、フィードバックは、タグ情報が見られている旨の表示及び/又は振動(例えば入力部24の振動)等を介して実現されてもよい。これは、タグ情報に限らず、プロフィール情報等についても同様であってよい。
ところで、上述した自動リアクションは、上述したように低減された処理負荷で、仮想空間内でのアバター間の交流を促進できるものの、仮想空間内のアバター密度が高くなると、その分だけ自動リアクションの頻度が高くなりやすく、それに応じて処理負荷が高くなるおそれがある。
そこで、本実施形態においては、アバター間での交流は、自動的に及び/又はユーザ設定に基づいて、制限可能とされてもよい。
アバター間での交流の制限方法は、ブロックフラグやミュートフラグといった制限フラグを利用して実現されてもよい。ブロックフラグやミュートフラグのような制限フラグは、アバターごとに、他のアバターに対応付けて管理されてよい。図9は、制限フラグの説明図であり、図9には、アバターD1に関して、他のアバターD2、D3、D4に対応付けられている制限フラグの状態の一例が示されている。図9に示す制限フラグは、図9の下側に模式的に示すように、アバターD1により設定された状態である。この場合、アバターD1は、他のアバターD2、D3、D4等との交流の制限フラグを任意に設定可能である。図9の状態では、アバターD1は、アバターD2に対しては、ミュートフラグをオンしており、アバターD3に対しては、ブロックフラグ及びミュートフラグのいずれもオンしておらず、アバターD4に対しては、ブロックフラグをオンしている。
この場合、ミュートフラグ=オンのアバターD2は、アバターD1にとっては実質的に存在しないアバターであり、見ることも話しかけることもできないし、その声も聞こえない。すなわち、アバターD2は、アバターD1が活動する仮想空間内のリスト(閲覧可能なユーザ台帳)には載っていないアバターである。従って、アバターD1及びアバターD2間での交流の促進は不要であり、自動リアクションが互いに対して実行されることない。これにより、アバターD1及びアバターD2間に関して、自動リアクションを実行するための各種処理(例えば第1所定位置関係の判定や所定の発動条件の成否の判定等)が不要となり、処理負荷を効率的に低減できる。また、アバターD1にとっても、交流したくないアバターを設定に基づいて“存在しないアバター”にすることができ、利便性が向上する。
ここで、ミュートとブロックについて、補足する。アバターD1はミュートやブロックを利用するアバター、アバターD2ミュートやブロックされるアバターであるが、アバターD1の自動リアクションは、アバターD2に対しては発動しない。まず、ミュートについていえば、アバターD1からアバターD2のアバターは見えなくなる一方、アバターD2からアバターD1は見える。換言すると、アバターD2は、アバターD1が自動リアクションを行うか否かの判定の対象とならない。音声会話についても、アバターD1の発話はアバターD2聞こえる一方、アバターD2からの発話はアバターD1には聞こえない。文字チャットについても、アバターD1からアバターD2の発言テキストは表示されないし、メンションや通知も処理されない。アバターD2はアバターD1を視聴するのみであり、インタラクションの一切は許可されないが、アバターB2は自分がミュートされている事を認知する必要はない。アバターD1は、ミュート対象リストからアバターD2のミュートを、任意のタイミングで解除してよい。次に、ブロックについていえば、アバターD1は、アバターD2を明示的に拒絶する。アバターD1がアバターD2をブロック対象リストから削除するまで、アバターD2はアバターD1を検索できない、すなわち、アバターD2にとってアバターD1は存在しないアバターとなる。両アバターが同じワールドにいても、アバターD2の端末装置20には、アバターD1は表示されないし、発話やテキストも表示されないこととなる。なお、ミュートとブロックは、各アバター(ユーザ)の嗜好や経験に応じて設定されてもよいし、デフォルト設定として広く設定されてもよい。また、ミュートとブロックは、仮想現実を提供する運営者により、通信制御、フェスティバルなどのイベント、初心者ユーザ向けのチュートリアル(個別指導)などの目的に応じて設定されてもよいし、さらには、自動リアクションを描画するCG空間を考慮して、前述したアバター間の興味の距離LoIに応じて動的に制御されてもよい。
他方、ブロックフラグ=オンのアバターD4は、アバターD2とは異なり、アバターD1にとっては存在するアバターであるが、アバターD4は、アバターD1に対して話しかけたり、近づいたりする等の交流を行うことができない。また、アバターD4は、アバターD1のプロフィール情報やタグ情報を閲覧することができない。例えば、アバターD4は、アバターD1のタグ情報に関して、上述した条件要素C4が満たされることはない。また、アバターD1及びアバターD4間での交流の促進は実質的に不要であり、自動リアクションが互いに対して実行されることない。これにより、アバターD1及びアバターD4間に関して、自動リアクションを実行するための各種処理が不要となり、処理負荷を効率的に低減できる。なお、アバターD4は、アバターD1が自身に対してブロックフラグをオンしていることを認識可能であってよい。
このようにして制限フラグを利用する場合、自動リアクションは、交流促進効果が高いアバター間だけで実行されやすくなる。これにより、自動リアクションの実行機会を不要に制限することなく、処理負荷を効率的に低減できる。
本実施形態において、制限フラグのオン/オフ状態は、対応するユーザによるユーザ入力に応じて変更可能であってもよいし、及び/又は、文字情報に基づいて自動的に変更されてもよい。例えば、この場合、例えば、一のアバターに対応付けられている文字情報が、嫌いなこととして“自慢話”を含む場合、自慢話が多いアバターによる当該一のアバターへの交流が制限されてもよい。なお、一のアバターについて自慢話が多いか否かは、当該一のアバターに係る会話/発語情報に基づいて判定されてもよい。
また、本実施形態において、自動リアクションは、仮想空間内のアバター密度のような、処理負荷に応じて制限されてもよい。例えば、仮想空間内のアバター密度が高い領域(例えばコンサートイベント会場等)においては、上述した自動リアクションが制限されてもよい。この場合、自動リアクションの機能がオフされてもよいし、所定の発動条件が成立し難くなる方向に所定の発動条件が自動的に変更されてもよい。例えば、仮想空間内のアバター密度が高い領域において、一のアバターに対応付けられている文字情報と、所定数を超えるアバターに対応付けられている文字情報との関係が、第1の所定関係である場合、処理負荷が有意に高くなるとする。この場合、所定数を超えるアバターのうちの、第2の所定関係となる文字情報が対応付けられているアバターに対してのみ、自動リアクションが実行されてもよい。なお、この場合、第2の所定関係は、第1の所定関係よりも、文字情報に共通点が多い関係であってよい。あるいは、仮想空間内のアバター密度が高い領域において、一のアバターに対応付けられている文字情報と、所定数を超えるアバターに対応付けられている文字情報との関係が所定関係である場合は、所定数を超えるアバターのうちの、ランダムに又は所定ルールに従って選択されたアバターに対してのみ、自動リアクションが実行されてもよい。以上のほか、自動リアクションは、仮想空間内の領域の性質に応じて制限されてもよい。例えば、バーチャルシネマのような会場において、観客の会話が許容されるロビーでは自動リアクションの機能がオン、観客がシネマに集中するシアタールームでは、たとえ客席に空席が目立っても、自動リアクションの機能がオフとされてもよい。
次に、図10以降を参照して、上述したアバターの自動リアクションに関連したサーバ装置10及び端末装置20のそれぞれの機能的な構成例について説明する。
図10は、上述した自動リアクションに関連したサーバ装置10の機能を示す概略的なブロック図である。図11は、自動リアクション関連データ記憶部142内のデータの一例を示す説明図である。図12は、ユーザ情報記憶部144内のデータの一例を示す説明図である。図13は、プロフィール情報の説明図である。図14は、アバター情報記憶部146内のデータの一例を示す説明図である。なお、図11(以下の同様の図12等も同様)において、「***」は、なんらかの情報が格納されている状態を示し、「・・・」は、同様の情報の格納の繰り返し状態を示す。
サーバ装置10は、図10に示すように、自動リアクション関連データ記憶部142、ユーザ情報記憶部144、アバター情報記憶部146、ユーザ入力取得部150、アバター処理部152、対応付け処理部153、交流制限処理部154、発動条件判定部155、リアクション種別決定部156、パラメータ算出部158、視野処理部160、及びユーザ情報開示制御部162を含む。
なお、図10において、自動リアクション関連データ記憶部142、ユーザ情報記憶部144、及びアバター情報記憶部146は、図1に示したサーバ装置10のサーバ記憶部12により実現できる。また、ユーザ入力取得部150からユーザ情報開示制御部162の各部の機能は、図1に示したサーバ装置10のサーバ制御部13やサーバ通信部11により実現できる。
自動リアクション関連データ記憶部142には、上述した各自動リアクションに関連した自動リアクション関連データが記憶される。自動リアクション関連データは、例えば図11に示すように、自動リアクションIDごとに、自動リアクション属性、発動条件情報、アニメーションデータ、及び再生用情報を含んでよい。
自動リアクションIDは、各自動リアクションの生成時に自動的に生成されるIDである。自動リアクション属性は、自動リアクションの属性を表し、自動リアクションの属性は、挨拶や称賛等のような自動リアクションの意図に関する情報を含んでよい。
発動条件情報は、上述した所定の発動条件を表す情報を含んでよい。なお、発動条件情報は、自動リアクションIDごとに異なってもよいが、好ましくは、複数の自動リアクションIDに対して同じ(共通)である。この場合、ある一の所定の発動条件が成立した場合、複数の自動リアクションIDのうちのいずれか1つ以上に係る自動リアクションIDに係る自動リアクションが実行可能となり、自動リアクションの多様化を図ることができる。
アニメーションデータは、上述した自動リアクションの描画用のアニメーションデータを含む。アニメーションデータは、上述したように、リアクション主体のアバターの所定部位の動きだけに関するデータであってよい。この場合、アニメーションデータは、複数のアバター間で共用できるように生成でき、データの効率化を図ることができる。なお、アニメーションデータは、実際の人(ユーザ)が自動リアクションに係る実際の動作を行った際に得られるトラッキング情報に基づいて生成されてよい。また、アニメーションデータは、アバターの型(F型<女性型>、M型<男性型>など)や属性(性格別、年齢別(世代別)など)に応じて選択されてもよい。
再生用情報は、アニメーションデータの再生の開始タイミングや再生の終了タイミングを表す基本情報を含む。なお、アニメーションデータの再生の開始タイミングは、リアクション主体のアバターと相手アバターとの間の距離で規定されてもよい。あるいは、アニメーションデータの再生の開始タイミングは、所定の発動条件が満たされたと判定されるタイミングと同期してよく、例えば、当該判定のタイミングと実質的に同じであってもよい。
ユーザ情報記憶部144には、各ユーザに関する情報が記憶される。各ユーザに関する情報は、例えばユーザ登録時に生成されてよく、その後、適宜、更新等されてよい。例えば、図12に示す例では、ユーザ情報記憶部144には、ユーザIDごとに、ユーザ名、アバターID、プロフィール情報、会話/発語情報、活動情報、文字情報(タグ情報)、フレンド情報、好み情報、制限フラグ情報、アイテム情報、及び自動リアクション可否情報が対応付けられている。
ユーザIDは、ユーザ登録時に自動的に生成されるIDである。
ユーザ名は、各ユーザが自身で登録した名前であり、任意である。
アバターIDは、ユーザが利用するアバターを表すIDである。アバターIDには、対応するアバターを描画するためのアバター描画情報(図14参照)が対応付けられてよい。なお、一のアバターIDに対応付けられるアバター描画情報は、対応するユーザからの入力等に基づいて追加や編集等が可能であってよい。
なお、上述したように一のユーザに対して、複数のアバターIDが対応付け可能であってもよい。この場合、アバターIDごとに、プロフィール情報、会話/発語情報、活動情報、文字情報、フレンド情報、好み情報、制限フラグ情報、アイテム情報、及び自動リアクション可否情報が対応付けられてもよい。
プロフィール情報は、ユーザプロフィール(又はアバタープロフィール)を表す情報であり、ユーザによる入力情報に基づいて生成される。例えば、プロフィール情報は、図13に示すようなユーザによる入力情報に基づいて生成されてもよい。また、プロフィール情報は、端末装置20上で生成されるユーザインタフェースを介して選択されて、JSON(JavaScript Object Notation)リクエスト等でサーバ装置10に提供されてもよい。
なお、本実施形態では、プロフィール情報は、その更新態様(更新頻度や更新量等)を表す情報を含んでよい。なお、プロフィール情報の更新態様は、アバターごとに異なりうり、比較的高い頻度で更新するアバターも存在すれば、一度きりで全く更新しないアバターも存在しうる。
会話/発語情報は、対応するアバターが仮想空間内において発話した際の発話内容に関する情報を表す。会話/発語情報は、アバター間の会話に係る会話情報と、会話以外の発語(例えば独り言や配信での発語)に係る発語情報とを含んでよい。この場合、会話/発語情報は、会話情報と発語情報とが別々に管理されてもよいし、同様に管理されてもよい。会話/発語情報は、テキスト化されたデータであってよい。また、会話/発語情報は、どの言語を話すかを表す情報(例えばロケールID)を含んでもよい。また、会話/発語情報は、一人称の呼び方、言葉遣い、方言等に関する情報を含んでもよい。また、会話/発語情報は、加工前の生データ(すなわち生発話ログ)であってもよいが、テキスト化(文字に変換された)データを含んでもよい。後者の場合、記憶領域の効率化を図ることができる。
また、会話/発語情報は、キーワード情報を含んでよい。この場合、キーワード情報は、例えば、対応するユーザが入室したトークルームで行われていた会話におけるキーワードを表す情報であってよい。キーワード情報は、Text-to-Speech(TTS)等を利用して生成されてもよい。キーワード情報は、ユーザの好み等を精度良く表す可能性があり、後述する対応付け処理部153での処理等で利用されてもよい。
活動情報は、仮想空間における各種活動履歴や行動履歴を表す情報を含む。各種活動は、イベント参加及びイベント主催等のような特別な活動のみならず、仮想空間へのアクセスや仮想空間内の滞在時間等のような、通常的な活動(行動)をも表す情報を含んでよい。また、各種活動は、仮想空間におけるオブジェクトの制作活動等を含んでもよい。
文字情報は、上述したとおりであり、アバターの嗜好等を表してよい。文字情報は、ユーザからの入力等に応じて更新されてよい。また、文字情報は、会話/発語情報や行動履歴等に基づいて自動的に抽出されてもよい。また、一のアバターに対応付けられている文字情報の一部又は全部は、図4及び図5等を参照して上述したように、当該一のアバターに対応付けて、タグ情報の形式で表示可能とされてよい。あるいは、逆に、タグ情報が文字情報として機能してもよい。また、文字情報は、メタデータの形態であってもよい。
フレンド情報は、フレンド関係にあるユーザを特定可能な情報(例えばユーザID)であってよい。フレンド情報は、上述したようにフォロワー等の情報を含んでよい。フレンド情報は、過去の会話の相手の情報や、過去の自動リアクションを行った相手アバターの情報、ユーザ間の交流や交友の有無や度合いを表す情報等を含んでよい。
好み情報は、対応するユーザの好みであって、好み全般や、会話(例えばトークテーマ)に関連する好みを表してよい。好み情報は、任意であるが、ユーザの好む言語設定や、好むキーワードを含んでよい。また、ユーザがあらかじめ自分の好きな人や好きなこと、嫌いな人や嫌いなこと等、を設定することが可能であってよく、この場合、好み情報は、かかる設定内容を含んでよい。なお、好み情報は、ユーザプロフィール情報と同様の情報を含みうるので、ユーザプロフィール情報と統合されてもよい。
制限フラグ情報は、図9を参照して上述した制限フラグの設定状態を表す。なお、上述したように制限フラグの設定状態は、ユーザにより変更が可能とされてよい。
アイテム情報は、対応するユーザに対応付けられている所定アイテムを表す。所定アイテムは、上述した仮想現実媒体の一要素であり、ユーザの好みを表す仮想現実媒体であってよい。例えば、所定アイテムは、アバターアイテムや、各種楽器やボールなど任意のオブジェクト等を含んでもよい。
自動リアクション可否情報は、上述した自動リアクションの実行可否に関するユーザによる設定情報である。自動リアクション可否情報は、上述した自動リアクションの実行を望まないユーザと、望むユーザとを判別するために利用可能である。なお、ユーザは、場面や、状況、位置、日時ごとに、自動リアクションの実行可否を設定可能とされてもよい。
アバター情報記憶部146には、各ユーザのアバターを描画するためのアバター描画情報が記憶される。図14に示す例では、アバター描画情報は、各アバターIDに、顔パーツID、髪型パーツID、服装パーツID等が対応付けられる。顔パーツID、髪型パーツID、服装パーツID等の容姿に係るパーツ情報は、アバターを特徴付けるパラメータであり、各ユーザにより選択されてよい。例えば、アバターに係る顔パーツID、髪型パーツID、服装パーツID等の容姿に係る情報は、複数種類用意される。また、顔パーツIDについては、顔の形、目、口、鼻等の各種類にそれぞれパーツIDが用意され、顔パーツIDに係る情報は、当該顔を構成する各パーツのIDの組み合わせで管理されてもよい。この場合、各アバターIDに紐付けられた容姿に係る各IDに基づいて、サーバ装置10のみならず端末装置20側においても各アバターを描画することが可能となる。
ユーザ入力取得部150は、端末装置20の入力部24を介して入力される各ユーザによる各種ユーザ入力を取得する。各種入力は、上述したとおりであり、モーションキャプチャで取得されたトラッキング情報を含んでよい。
アバター処理部152は、所定の発動条件が満たされた場合に、アバターに自動リアクションを行わせる。自動リアクションは、上述したとおりである。
アバター処理部152は、アバター動作処理部1521と、描画処理部1522を含む。
アバター動作処理部1521は、アバターごとに、対応する各ユーザによる各種入力に基づいて、アバターの動作(位置の変化や各部位の動き等)を決定する。
描画処理部1522は、アバターを含む仮想空間の画像であって、端末装置20で視聴用の画像(端末用画像)を生成する。描画処理部1522は、各アバターに対応付けられる仮想カメラの撮像パラメータの各値(位置、視線方向、画角等)に基づいて、各アバター用の画像(端末装置20用の画像)を生成する。なお、一のアバターに対応付けられる仮想カメラの撮像パラメータの各値は、基本的には(後述する視野処理部160による介入時を除いて)、当該一のアバターの視野関連の各種パラメータの各値(例えば目の位置、視線方向、視力等)に対応してよい。本実施形態では、描画処理部1522は、自動リアクションを行う際のアバターを描画する。この場合、描画処理部1522は、図11に示した自動リアクション関連データ記憶部142内の自動リアクション関連データに基づいて、低減された処理負荷で、自動リアクションを行うアバターを描画できる。
対応付け処理部153は、各アバターに、対応するユーザ又はアバター自身の嗜好や性格(以下、「嗜好」で代表する)に関連した文字情報を対応付ける。本実施形態では、対応付け処理部153は、ユーザ情報記憶部144内のユーザ情報を生成及び更新することで、各アバターに、対応するユーザ又はアバター自身の嗜好に関連した文字情報を対応付ける。
対応付け処理部153は、例えば、対応するユーザにより指定される文字情報を、各アバターに対応付けてもよい。あるいは、対応付け処理部153は、対応するユーザ又はアバター自身の嗜好に関連した各種情報に基づいて、当該各種情報に応じた文字情報を、各アバターに対応付けてもよい。図12に示す例では、対応するユーザ又はアバター自身の嗜好に関連した各種情報は、プロフィール情報、フレンド情報、及び好み情報を含む。また、会話/発語情報、活動情報、及びアイテム情報は、対応するアバターの嗜好を表しうる。従って、対応するユーザ又はアバター自身の嗜好に関連した各種情報は、会話/発語情報、活動情報、及びアイテム情報のうちの、少なくともいずれか1つを含んでもよい。
なお、このようにして対応付け処理部153により対応付けられる文字情報は、対応するユーザにより手動で編集等の修正が可能とされてもよい。
交流制限処理部154は、アバターごとに、対応する一のアバターに対応付けられている文字情報等に基づいて、当該一のアバターと交流可能な他のアバター(相手アバターとなりうる他のアバター)を決定する。例えば、交流制限処理部154は、一のアバターに対応付けられているプロフィール情報、一のアバターによる会話/発語情報、一のアバターに対応付けられているアイテム情報、及び、一のアバターによる仮想空間における行動履歴のうちの少なくともいずれか1つに基づいて、一のアバターと交流可能な他のアバターを決定してよい。
例えば、行動履歴に基づく場合、特定のネガティブなエモートやネガティブなギフトを贈る傾向が強いアバターや、他のアバターに迷惑をかける傾向にあるアバター、また、当該他のアバターや第三のアバターから、特定行動に対するリアクションがルールやマナーに違反しているとして、注意、警告や通報されたことが所定回数以上なされたことがあるアバターは、他のアバターと交流が不能なアバターとされてもよい。また、行動履歴に基づく場合、サービス内通貨の消費(課金状況)等に基づいて、課金が多いユーザに対しては、交流可能な他のアバターの範囲が拡大されてもよい。
この場合、交流制限処理部154は、対応する一のアバターに対応付けられている文字情報に基づいて、当該文字情報に対して、上述した自動リアクションに係る所定の発動条件を満たすような文字情報が対応付けられているアバターを、交流可能な他のアバターとして決定してもよい。
また、交流制限処理部154は、フレンド情報に基づいて、一のアバターのフォロワーが上述したミュートフラグやブロックフラグを設定しているアバターに対して、交流不能なアバターとして決定してもよい。すなわち、このようにして、一のアバターに係るフラグ制限情報は、当該一のアバターのフォロワーに対応付けられている同フラグ制限情報を承継してもよい。
このようにして交流制限処理部154は、一のアバターと交流可能な他のアバターを決定すると、ユーザ情報記憶部144内のユーザ情報のうちの、当該一のアバターに係る制限フラグ情報を生成又は更新する。なお、当該一のアバターに対応付けられている制限フラグ情報は、当該一のアバターに対応付けられているユーザによるユーザ入力に基づいて適宜変更可能とされてよい。
発動条件判定部155は、アバター間ごとに、上述した所定の発動条件の成否を判定する。
本実施形態では、発動条件判定部155は、判定対象決定部1550と、第1判定部1551と、第2判定部1552と、第3判定部1553とを含む。
判定対象決定部1550は、上述した所定の発動条件の判定対象となるアバターを決定する。
判定対象決定部1550は、第1判定対象決定部15501と、第2判定対象決定部15502とを含む。
第1判定対象決定部15501は、アバターごとに、一のアバターをリアクション主体のアバターとしたときの、相手アバターとなりうる他のアバター(以下、「第1判定対象アバター」とも称する)を決定する。なお、リアクション主体のアバターは、上述したユーザ情報記憶部144内のユーザ情報の自動リアクション可否情報に基づいて、自動リアクションの実行を望むアバターのみに限定されてもよい。この場合、発動条件判定部155に係る処理負荷を効率的に低減できる。
第1判定対象決定部15501は、一のリアクション主体のアバターに関して、第1判定対象アバターを、当該一のリアクション主体のアバターに対する位置関係に基づいて、限定してもよい。例えば、第1判定対象決定部15501は、一のリアクション主体のアバターに対する位置関係が、上述した第1所定位置関係である他のアバターだけを、第1判定対象アバターとして限定してもよい。この場合、発動条件判定部155に係る処理負荷を効率的に低減できる。
また、第1判定対象決定部15501は、一のリアクション主体のアバターに関して、第1判定対象アバターを、当該一のリアクション主体のアバターに係る制限フラグ情報に基づいて、限定してもよい。具体的には、第1判定対象決定部15501は、当該一のリアクション主体のアバターに係る制限フラグ情報に基づいて、上述したミュートフラグやブロックフラグがオンとされていない他のアバターのみが第1判定対象アバターに含まれるように、第1判定対象アバターを限定してもよい。この場合、発動条件判定部155に係る処理負荷を効率的に低減できる。
第2判定対象決定部15502は、一のアバターが上述した特定行動を行う場合に、リアクション主体のアバターとなりうるアバター(以下、「第2判定対象アバター」とも称する)を決定する。なお、この場合も、リアクション主体のアバターは、上述したユーザ情報記憶部144内のユーザ情報の自動リアクション可否情報に基づいて、自動リアクションの実行を望むアバターのみに限定されてもよい。この場合、発動条件判定部155に係る処理負荷を効率的に低減できる。
第2判定対象決定部15502は、特定行動を行う一のアバターに関して、第2判定対象アバターを、当該特定行動を行うアバターに対する位置関係に基づいて、限定してもよい。例えば、第2判定対象決定部15502は、特定行動を行うアバターに対する位置関係が、上述した第1所定位置関係である他のアバターだけを、第2判定対象アバターとして限定してもよい。この場合、発動条件判定部155に係る処理負荷を効率的に低減できる。
また、第2判定対象決定部15502は、特定行動を行う一のアバターに関して、第2判定対象アバターを、当該特定行動を行うアバターに係る制限フラグ情報に基づいて、限定してもよい。具体的には、第2判定対象決定部15502は、当該特定行動を行うアバターに係る制限フラグ情報に基づいて、上述したミュートフラグやブロックフラグがオンとされていない他のアバターのみが第2判定対象アバターに含まれるように、第2判定対象アバターを限定してもよい。この場合、発動条件判定部155に係る処理負荷を効率的に低減できる。
第1判定部1551は、一のアバターをリアクション主体のアバターとしたとき、第1判定対象決定部15501により決定された第1判定対象アバターごとに、上述した所定の第1発動条件を判定する。所定の第1発動条件は、図4及び図5等を参照して上述したとおりである。
第2判定部1552は、一のアバターが上述した特定行動を行った場合に、第2判定対象決定部15502により決定された第2判定対象アバターごとに、上述した所定の第2発動条件を判定する。所定の第2発動条件は、図6及び図7等を参照して上述したとおりである。
第3判定部1553は、リアクション主体のアバターと相手アバターに関するアバター間の位置関係が第1所定位置関係であるか否かを判定する。第1所定位置関係は、上述したとおりである。第3判定部1553は、例えば、リアクション主体のアバターと相手アバターに関するアバター間の距離、同アバター間の障害物(他のオブジェクト)の有無、相手アバターの視野内におけるリアクション主体のアバターの有無、及び、相手アバターの視野外にリアクション主体のアバターが位置する状態からリアクション主体のアバターの視野内に相手アバターが位置する状態への遷移が可能であるか否か、のうちの少なくともいずれか1つのパラメータに基づいて、判定を行ってよい。なお、障害物を考慮する場合は、当該障害物に起因して、相手アバターの視野内にリアクション主体のアバターが入るか否かが判定されてもよい。また、相手アバターの視野外にリアクション主体のアバターが位置する状態からリアクション主体のアバターの視野内に相手アバターが位置する状態への遷移は、後述する視野処理部160により処理により可能とされる遷移を含んでよい。
リアクション種別決定部156は、一のリアクション主体のアバターが上述した自動リアクションを行う場合に、その自動リアクションの種類を、選択可能な複数種類のうちから、選択する。本実施形態では、自動リアクションは、複数種類用意されているものとする。すなわち、図11を参照して上述したように、複数の自動リアクションIDに対して同じ発動条件情報が対応付けられている。
リアクション種別決定部156による選択ルールは、任意であり、例えばランダムな選択ルールであってもよい。ただし、リアクション種別決定部156は、所定の第1発動条件を成立させた文字情報に基づいて、当該文字情報に応じた種類の自動リアクションを選択してよい。例えば、所定の第1発動条件を成立させた文字情報が、“バンド”を含む場合、音楽やバンドを示唆するような種類の自動リアクションが選択されてもよい。同様に、リアクション種別決定部156は、好ましくは、所定の第2発動条件を成立させた文字情報、又は、その際の特定行動の属性に基づいて、当該文字情報及び/又は当該特定行動に応じた種類の自動リアクションを選択してよい。
パラメータ算出部158は、所定の発動条件の成否の判定に利用可能な各種パラメータの値を算出する。各種パラメータは、文字情報に関連するパラメータを含んでよい。
本実施形態では、パラメータ算出部158は、第1算出部1581と、第2算出部1582とを含む。
第1算出部1581は、リアクション主体のアバターに対応付けられている文字情報と、第1判定対象アバターに対応付けられている文字情報との間の文字間距離を算出する。文字間距離の算出方法は、上述したとおりであってよい。この場合、文字情報は、本来的に短い単語で構成される傾向があるので、文字間距離の算出処理負荷を効率的に低減できる。
第2算出部1582は、特定行動に関連する文字と、第2判定対象アバターに対応付けられている文字情報との間の文字間距離を算出する。文字間距離の算出方法は、上述したとおりであってよい。この場合も、文字情報は、本来的に短い単語で構成される傾向があるので、文字間距離の算出処理負荷を効率的に低減できる。
また、特定行動に関連する文字は、あらかじめ特定行動の属性に応じて文字化されていてもよい。この場合、特定行動IDごとに、特定行動に関連する文字が記憶されてもよい。かかる構成によれば、特定行動に関連する文字を導出する処理が不要となり、処理負荷を低減できる。
視野処理部160は、ユーザからのユーザ入力とは直接的に無関係に、特定のアバターに対応付けられている仮想カメラの撮像パラメータの各値(位置、視線方向、画角等)を一時的に変化させる処理を実行する。
本実施形態では、視野処理部160は、第1視野変化処理部1601と、第2視野変化処理部1602とを含む。
第1視野変化処理部1601は、リアクション主体のアバターが相手アバターに対して自動リアクションを行う場合に、相手アバターに対応付けられている仮想カメラの撮像パラメータの各値を、相手アバターの視野内にリアクション主体のアバターが入るように変化させる。これにより、上述したように、リアクション主体のアバターに相手アバターが気付きやすくなり、両者の交流を効率的に促進できる。
第2視野変化処理部1602は、一のアバターと他の一のアバターとの位置関係が第2所定位置関係へと遷移した場合に、当該一のアバター及び当該他の一のアバターのうちの一方のアバターの視野内に他方のアバターが入るように、当該一のアバター及び当該他の一のアバターのうちの他方のアバターの視野を一時的に変化させる。第2所定位置関係は、上述した第1所定位置関係と同じであってもよいし、上述した第1所定位置関係よりも離れた位置関係を含んでもよい。例えば、あるトークルームに、新たなアバターが入ってきた場合、当該トークルーム内のすべて又は一部のアバターの視野を一時的に変化させることで、当該トークルーム内にいるアバターの視野内に、新たなアバターが入りやすくなる。これにより、両者の交流を効率的に促進できる。なお、本実施形態では、アバターの視野を一時的に変化させることで、注目等すべきアバターを目立たせることとしているが、これに代えて又は加えて、注目等すべきアバターを強調したり、注目等すべきアバターの位置(視野外にいるアバターの位置)を案内する案内表示等を出力したりしてもよい。なお、この案内は、案内表示に加えて、又は、代えて、ユーザが手にしているジョイパッドのようなコントローラを振動させることによって、さらには、音声によって、実行されてもよい。
ユーザ情報開示制御部162は、ユーザ情報記憶部144内のユーザ情報のうちの、一部(以下、「閲覧用ユーザ情報」とも称する)を他のアバター(ユーザ)が閲覧可能とする。閲覧用ユーザ情報は、プロフィール情報や文字情報等を含んでよい。例えば、プロフィール情報は、所定のユーザ入力(以下、「閲覧要求」とも称する)に応じて閲覧可能とされてもよい。この場合、ユーザ情報開示制御部162は、ミュートフラグがオンされているアバターに係る閲覧用ユーザ情報は、当該アバターに対してミュートフラグをオンしているユーザには、閲覧不能としてもよい。また、ユーザ情報開示制御部162は、ブロックフラグがオンされているアバターに対しては、当該アバターに対してブロックフラグをオンしているユーザに係る閲覧用ユーザ情報は、閲覧不能とされてもよい。
閲覧要求は、任意の態様で生成されてもよい。例えば、スマートフォンのような端末装置20を利用する場合、一のアバターに係る閲覧用ユーザ情報の閲覧要求(他のアバターによる閲覧要求)は、当該一のアバターを画面上でタップすることで生成されてもよい。あるいは、閲覧要求は、当該一のアバターに虫眼鏡をかざすことで生成されてもよい。また、メタバース空間において、一のアバターに係る閲覧用ユーザ情報の閲覧要求(他のアバターによる閲覧要求)は、当該一のアバターに向けて視線を所定時間以上向けることで生成されてもよい。あるいは、当該一のアバターとの間で視線が一致する(すなわち目が合う)ことで生成されてもよい。
なお、上述したサーバ装置10及び端末装置20間の機能の分担は、あくまで一例であり、上述したように、多様に変更が可能である。すなわち、サーバ装置10の機能の一部又は全部は、適宜、端末装置20により実現されてもよい。
次に、図15以降を参照して、上述したアバターの自動リアクションに関連した仮想現実生成システム1の動作例について説明する。
図15は、上述したアバターの自動リアクションに関連してサーバ装置10により実行される処理の一例を示す概略的なフローチャートである。図15に示す処理は、特定の一のアバター(以下、「処理対象アバター」とも称する)に関する処理であり、所定周期ごとに繰り返し実行されてよい。図15に示す処理は、仮想空間内のアバターごとに並列的に実行されてよい。
ステップS2700では、サーバ装置10は、処理対象アバターに対応するユーザからの今回周期のユーザ入力を取得する。
ステップS2701では、サーバ装置10は、ステップS2700で取得したユーザ入力に基づいて、処理対象アバターの位置や視野(仮想カメラ)を更新する。
ステップS2702では、自動リアクション可否情報に基づいて、自動リアクションが可能な設定状態であるか否かを判定する。なお、自動リアクション可否情報は、ユーザ情報記憶部144内のユーザ情報に関連して上述したとおりである。判定結果が“YES”の場合、ステップS2703に進み、それ以外の場合は、ステップS2714に進む。
ステップS2703では、サーバ装置10は、処理対象アバターの視野内に位置する1人以上の他のアバターを抽出する。なお、図示しないが、他のアバターが一人もいない場合は、今回周期の処理はそのまま終了してもよい。
ステップS2704では、サーバ装置10は、処理対象アバターに対応付けられている制限フラグ情報(図12参照)に基づいて、ステップS2703で抽出した1人以上の他のアバターにおいて、ミュートフラグがオンに設定されているアバターが存在するか否かを判定する。なお、変形例では、ミュートフラグがオンに設定されているアバターは、初期的に処理対象から除外されてもよい。判定結果が“YES”の場合、ステップS2705に進み、それ以外の場合は、ステップS2706に進む。
ステップS2705では、サーバ装置10は、ミュートフラグがオンに設定されているアバターを、以下のステップS2706以降の処理対象から除外するとともに、アバターミュート処理を実行する。アバターミュート処理は、上述したように、処理対象アバターにとって、当該アバターの存在を実質的に無くす処理である。
ステップS2706では、サーバ装置10は、処理対象アバターに対応付けられている制限フラグ情報(図12参照)に基づいて、ステップS2703で抽出した1人以上の他のアバターにおいて、ブロックフラグがオンに設定されているアバターが存在するか否かを判定する。判定結果が“YES”の場合、ステップS2707に進み、それ以外の場合は、ステップS2708に進む。
ステップS2707では、サーバ装置10は、ブロックフラグがオンに設定されているアバターを、以下のステップS2708以降の処理対象から除外するとともに、交流対象から除外するアバターブロック処理を実行する。アバターブロック処理は、上述したように、処理対象アバターに、当該アバターに近づいたり話しかけたりできなくする処理である。
ステップS2708では、サーバ装置10は、処理対象アバターに対して第1所定位置関係に他のアバターが存在するか否かを判定する。判定結果が“YES”の場合、ステップS2709に進み、それ以外の場合は、ステップS2714に進む。
ステップS2709では、サーバ装置10は、処理対象アバターに対して第1所定位置関係に位置する他のアバターに対応付けられている文字情報を抽出する。なお、処理対象アバターに対して第1所定位置関係に位置する他のアバターが複数存在する場合は、他のアバターごとにステップS2709からステップS2713の処理が順次実行されてもよい。
ステップS2710では、サーバ装置10は、処理対象アバターに対応付けられている文字情報と、ステップS2709で抽出した文字情報とに基づいて、文字間距離を算出する。文字間距離の算出方法は、上述したとおりである。
ステップS2711では、サーバ装置10は、文字間距離が所定距離L以下であるか否かを判定する。所定距離Lは、一定値であってもよいし、可変値であってよい。例えば、所定距離Lは、ユーザにより設定可能とされてもよい。判定結果が“YES”の場合、所定の第1発動条件が満たされたと判断し、ステップS2712に進み、それ以外の場合は、ステップS2714に進む。
ステップS2712では、サーバ装置10は、自動リアクションの種類を決定する。この場合、サーバ装置10は、ステップS2711で文字間距離が所定距離L以下であると判定された文字情報に基づいて、自動リアクションの種類を決定してよい。例えば、文字間距離が所定距離L以下であると判定された文字情報が、“お酒”で共通している場合、自動リアクションの種類は、“飲むジェスチャ”に係る動作であってよい。また、文字間距離が所定距離L以下であると判定された文字情報が、“バスケ(スポーツ)”で共通している場合、自動リアクションの種類は、“シュートするジェスチャ”に係る動作であってよい。また、変形例では、文字間距離に応じて、自動リアクションに係る動作の強弱を変更してもよい。例えば、自動リアクションの種類が手を振る動作である場合、文字間距離が小さいほど大きく手を振る動作が選択される態様で、自動リアクションの種類が決定されてもよい。
ステップS2713では、サーバ装置10は、処理対象アバターに、ステップS2712で決定した種類の自動リアクションを実行させる。これは、前述したとおり、本開示では、アバター間の交流を効果的に促進することを課題としているが、他のアバターによるすべての特定行動に対して処理対象アドバイザーの自動リアクションをトラッキングしていると処理負荷が高くなりすぎる可能性があること、また、リアクションが遅れたり、通信状況によってモーションデータを送るのに時間を要したりすると、大事な場面(例えば初対面のとき)におけるタイムリーなリアクションが取れなくなってしまう可能性があることなどから、自動リアクションの種類を限定しているものである。
ステップS2714では、サーバ装置10は、処理対象アバターに、ユーザ入力に応じた動作を実行させる。
図16は、上述したアバターの自動リアクションに関連してサーバ装置10により実行される処理の他の一例を示す概略的なフローチャートである。図16に示す処理は、図15に示した処理と同様、特定の一のアバター(以下、「処理対象アバター」とも称する)に関する処理であり、所定周期ごとに繰り返し実行されてよい。図16に示す処理は、仮想空間内のアバターごとに並列的に実行されてよい。また、図16に示す処理は、上述した図15に示した処理と並列的に実行されてもよい。
ステップS2900からステップS2907までの処理は、図15に示したステップS2700からステップS2707と同じであってよく、説明を省略する。
ステップS2908では、サーバ装置10は、処理対象アバターの視野内の他のアバターが特定行動を行う(又は行っているか)か否かを判定する。特定行動は、上述したとおりである。判定結果が“YES”の場合、ステップS2909に進み、それ以外の場合は、ステップS2914に進む。なお、判定にあたっては、ある時点における処理対象アバターの視野外の他のアバターの特定行動であっても、処理対象アバターの視点を変更することによって視野に入れることが可能な範囲における特定行動については、自動リアクションをとる対象としてもよい。
ステップS2909では、サーバ装置10は、特定行動の属性を判定し、当該属性に応じた文字を決定(又は導出)する。例えば、特定行動が“サッカーボールのリフティング”である場合、特定行動の属性に応じた文字は、“サッカー”及び/又は“リフティング”であってよい。また、サッカーボールの絵柄などに特徴がある場合は、その絵柄に応じた文字を決定してもよい。なお、処理対象アバターの視野内に特定行動を行う他のアバターが複数存在する場合は、他のアバターごとにステップS2909からステップS2913の処理が順次実行されてもよい。
ステップS2910では、サーバ装置10は、処理対象アバターに対応付けられている文字情報と、ステップS2909で抽出した文字情報とに基づいて、文字間距離を算出する。文字間距離の算出方法は、上述したとおりである。
ステップS2911では、サーバ装置10は、文字間距離が所定距離L以下であるか否かを判定する。所定距離Lは、一定値であってもよいし、可変値であってよい。例えば、所定距離Lは、ユーザにより設定可能とされてもよい。判定結果が“YES”の場合、所定の第1発動条件が満たされたと判断し、ステップS2912に進み、それ以外の場合は、ステップS2914に進む。
ステップS2912では、サーバ装置10は、自動リアクションの種類(属性)を決定する。この場合、サーバ装置10は、ステップS2911で文字間距離が所定距離L以下であると判定された文字情報(特定行動の属性に応じた文字)に基づいて、自動リアクションの種類を決定してよい。これは、図15を参照して上述したステップS2712と同様である。
ステップS2913では、サーバ装置10は、処理対象アバターに、ステップS2912で決定した種類の自動リアクションを実行させる。
ステップS2914では、サーバ装置10は、処理対象アバターに、ユーザ入力に応じた動作を実行させる。
以上、各実施形態について詳述したが、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施形態の構成要素の全部又は複数を組み合わせることも可能である。
1 仮想現実生成システム
3 ネットワーク
10 サーバ装置
11 サーバ通信部
12 サーバ記憶部
13 サーバ制御部
20、20A、20B 端末装置
21 端末通信部
22 端末記憶部
23 表示部
24 入力部
25 端末制御部
142 自動リアクション関連データ記憶部
144 ユーザ情報記憶部
146 アバター情報記憶部
150 ユーザ入力取得部
152 アバター処理部
1521 アバター動作処理部
1522 描画処理部
153 対応付け処理部
154 交流制限処理部
155 発動条件判定部
1550 判定対象決定部
15501 第1判定対象決定部
15502 第2判定対象決定部
1551 第1判定部
1552 第2判定部
1553 第3判定部
156 リアクション種別決定部(第1、2所定動作決定部)
158 パラメータ算出部
1581 第1算出部
1582 第2算出部
160 視野処理部
1601 第1視野変化処理部
1602 第2視野変化処理部
162 ユーザ情報開示制御部

Claims (22)

  1. 仮想空間において各アバターの動きを処理するアバター処理部と、
    各アバターに、対応するユーザにより指定される文字情報又はアバター自身と関連付けられる文字情報を対応付ける対応付け処理部と、
    第1アバターに対応付けられている前記文字情報と、第2アバターに対応付けられている前記文字情報との関係を判定する第1判定部とを備え、
    前記アバター処理部は、仮想空間において第1所定位置関係に前記第1アバターと前記第2アバターとが存在する場合に、前記第1判定部による判定結果に基づいて、前記第2アバターに、又は、前記第1アバターと前記第2アバターの双方に、所定動作を自動的に行わせる、情報処理システム。
  2. 前記アバター処理部は、前記第1アバターに対応付けられている前記文字情報と、前記第2アバターに対応付けられている前記文字情報との関係が所定関係であると前記第1判定部により判定された場合に、前記第2アバターに、又は、前記第1アバターと前記第2アバターの双方に、前記所定動作を自動的に行わせる、請求項1に記載の情報処理システム。
  3. 前記アバター処理部は、更に、前記第1所定位置関係に前記第1アバターと前記第2アバターとが存在し、かつ、前記第1アバターが特定行動を行う場合に、前記特定行動の属性と、前記第2アバターに対応付けられている前記文字情報とに基づいて、前記第2アバターに、前記所定動作を自動的に行わせる、請求項1に記載の情報処理システム。
  4. 前記特定行動の属性と、前記第2アバターに対応付けられている前記文字情報との関係を判定する第2判定部を更に備え、
    前記アバター処理部は、前記第2判定部による判定結果に基づいて、前記第2アバターに、前記所定動作を自動的に行わせる、請求項3に記載の情報処理システム。
  5. 前記アバター処理部は、前記特定行動の属性と、前記第2アバターに対応付けられている前記文字情報との関係が所定関係であると前記第2判定部により判定された場合に、前記第2アバターに前記所定動作を自動的に行わせる、請求項4に記載の情報処理システム。
  6. 前記第1アバターに対応付けられている前記文字情報、及び、前記第2アバターに対応付けられている前記文字情報のうちの少なくともいずれか一方に基づいて、複数種類のうちから、自動的に行わせる前記所定動作の種類を決定する第1所定動作決定部を更に備える、請求項5に記載の情報処理システム。
  7. 前記所定関係は、共通点を有する関係を含み、
    前記所定動作は、前記第1アバターと前記第2アバターとの間の相互に対する動作を含む、請求項2又は5に記載の情報処理システム。
  8. 前記第1アバターに対応付けられている前記文字情報と、前記第2アバターに対応付けられている前記文字情報との間の文字間距離を算出する第1算出部を更に備え、
    前記第1判定部は、前記文字間距離に基づいて、前記所定関係の有無を判定する、請求項2に記載の情報処理システム。
  9. 前記所定関係は、共通点を有する関係を含み、
    前記所定動作は、前記特定行動に対する前記第2アバターの好意的な反応を含む、請求項5に記載の情報処理システム。
  10. 前記特定行動に関連する文字と、前記第2アバターに対応付けられている前記文字情報との間の文字間距離を算出する第2算出部を更に備え、
    前記第2判定部は、前記文字間距離に基づいて、前記所定関係の有無を判定する、請求項5に記載の情報処理システム。
  11. 前記特定行動の属性、及び、前記特定行動の属性に対して前記所定関係を有する前記文字情報のうちの少なくともいずれか一方に基づいて、複数種類のうちから、自動的に行わせる前記所定動作の種類を決定する第2所定動作決定部を更に備える、請求項5に記載の情報処理システム。
  12. 前記対応付け処理部は、各アバターに対応付けられているプロフィール情報、及び、前記プロフィール情報の更新態様の少なくともいずれか一方に基づいて、各アバターに対応付ける前記文字情報を生成及び更新する、請求項1に記載の情報処理システム。
  13. 前記対応付け処理部は、各アバターによる会話情報又は発語情報に基づいて、各アバターに対応付ける前記文字情報を生成及び更新する、請求項1に記載の情報処理システム。
  14. 前記対応付け処理部は、各アバターによる仮想空間における行動履歴に基づいて、各アバターに対応付ける前記文字情報を生成及び更新する、請求項1に記載の情報処理システム。
  15. 一のアバターに対応付けられているプロフィール情報、前記一のアバターによる会話情報、前記一のアバターに対応付けられているアイテム情報、及び、前記一のアバターによる仮想空間における行動履歴のうちの少なくともいずれか1つに基づいて、前記一のアバターと交流可能なアバターを決定する交流制限処理部を更に備える、請求項1に記載の情報処理システム。
  16. 前記対応付け処理部は、複数のアバターが一のユーザに対応付けられている場合、アバターごとに前記文字情報を対応付ける、請求項1に記載の情報処理システム。
  17. 前記第2アバターが前記第1アバターに対して前記所定動作を自動的に行う場合に、前記第1アバターの視野内に前記第2アバターが入るように、前記第1アバターの視野を変化させる第1視野変化処理部を更に備える、請求項1に記載の情報処理システム。
  18. 仮想空間において前記第1アバターと前記第2アバターとの位置関係が第2所定位置関係へと遷移した場合に、前記第1アバター及び前記第2アバターのうちの一方のアバターの視野内に他方のアバターが入るように、前記第1アバター及び前記第2アバターのうちの他方のアバターの視野を変化させる第2視野変化処理部を更に備える、請求項1に記載の情報処理システム。
  19. 仮想空間における前記第1アバターと前記第2アバターとの位置関係が前記第1所定位置関係であるか否かを判定する第3判定部を更に備え、
    前記第3判定部は、前記第1アバターと前記第2アバターとの間の距離、前記第1アバターと前記第2アバターとの間の障害物の有無、前記第1アバターの視野内における前記第2アバターの有無、及び、前記第1アバターの視野外に前記第2アバターが位置する状態から前記第1アバターの視野内に前記第2アバターが位置する状態への遷移が可能であるか否か、のうちの少なくともいずれか1つのパラメータに基づいて、前記位置関係が前記第1所定位置関係であるか否かを判定する、請求項1に記載の情報処理システム。
  20. 前記文字情報は、対応するアバターに対応付けられた位置に、タグ情報の形式で表示可能である、請求項1に記載の情報処理システム。
  21. 非一時的なコンピュータ読み取り可能な記憶媒体であって、
    仮想空間において各アバターの動きを処理するアバター処理と、
    各アバターに、対応するユーザにより指定される文字情報又はアバター自身と関連付けられる文字情報を対応付ける対応付け処理と、
    第1アバターに対応付けられている前記文字情報と、第2アバターに対応付けられている前記文字情報との関係を判定する判定処理とを、
    コンピュータに実行させるプログラムが記憶され、
    前記アバター処理は、仮想空間において所定位置関係に前記第1アバターと前記第2アバターとが存在する場合に、前記判定処理による判定結果に基づいて、前記第2アバターに、又は、前記第1アバターと前記第2アバターの双方に、所定動作を自動的に行わせることを含む、記憶媒体。
  22. 仮想空間において各アバターの動きを処理するアバター処理を実行し、
    各アバターに、対応するユーザにより指定される文字情報又はアバター自身と関連付けられる文字情報を対応付ける対応付け処理を実行し、
    第1アバターに対応付けられている前記文字情報と、第2アバターに対応付けられている前記文字情報との関係を判定する判定処理を実行することを含み、
    前記アバター処理は、仮想空間において所定位置関係に前記第1アバターと前記第2アバターとが存在する場合に、前記判定処理による判定結果に基づいて、前記第2アバターに、又は、前記第1アバターと前記第2アバターの双方に、所定動作を自動的に行わせることを含む、コンピュータにより実行される情報処理方法。
JP2022209342A 2022-07-27 2022-12-27 情報処理システム、情報処理方法、及び記憶媒体 Active JP7454166B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263392603P 2022-07-27 2022-07-27
US63/392,603 2022-07-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024029682A Division JP2024070272A (ja) 2022-07-27 2024-02-29 情報処理システム、情報処理方法、及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2024018864A JP2024018864A (ja) 2024-02-08
JP7454166B2 true JP7454166B2 (ja) 2024-03-22

Family

ID=89769315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022209342A Active JP7454166B2 (ja) 2022-07-27 2022-12-27 情報処理システム、情報処理方法、及び記憶媒体

Country Status (2)

Country Link
US (1) US20240046541A1 (ja)
JP (1) JP7454166B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205370A (ja) 2008-02-27 2009-09-10 Oki Electric Ind Co Ltd ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム
JP2009258918A (ja) 2008-04-15 2009-11-05 Nhn Corp 画像表示プログラム、画像表示装置及びアバター提供システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205370A (ja) 2008-02-27 2009-09-10 Oki Electric Ind Co Ltd ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム
JP2009258918A (ja) 2008-04-15 2009-11-05 Nhn Corp 画像表示プログラム、画像表示装置及びアバター提供システム

Also Published As

Publication number Publication date
JP2024018864A (ja) 2024-02-08
US20240046541A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
JP2022140779A (ja) 広範囲同時遠隔ディジタル提示世界
EP3383036A2 (en) Information processing device, information processing method, and program
Piitulainen et al. Vibing together: Dance experiences in social virtual reality
US20230254449A1 (en) Information processing system, information processing method, information processing program
JP7455308B2 (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP7300925B2 (ja) キャラクタを使ったライブ通信システム
JP2024063062A (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP2024036381A (ja) プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP2024012545A (ja) 情報処理システム、情報処理方法、及びプログラム
JP7454166B2 (ja) 情報処理システム、情報処理方法、及び記憶媒体
US20220417490A1 (en) Information processing system, information processing method, and information processing program
JP2023095862A (ja) プログラム及び情報処理方法
JP7245890B1 (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP7329217B2 (ja) コンピュータプログラム、サーバ装置、端末装置、及び方法
JP6974550B1 (ja) コンピュータプログラム、方法、及び、サーバ装置
JP2024070272A (ja) 情報処理システム、情報処理方法、及び記憶媒体
JP2023075879A (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP7449508B2 (ja) 情報処理システム、情報処理方法、及びプログラム
JP7265085B1 (ja) 情報処理システム、情報処理方法、及びプログラム
US20220141551A1 (en) Moving image distribution system, moving image distribution method, and moving image distribution program
US20230412766A1 (en) Information processing system, information processing method, and computer program
US20240007700A1 (en) Program, information processing method, and information processing device
JP7050884B1 (ja) 情報処理システム、情報処理方法、情報処理プログラム
Procter Ways of (virtual) seeing: Applying a Bergerian lens in a multi-user virtual environment (MUVE)
WO2023150210A1 (en) Obscuring objects in data streams using machine learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240229

R150 Certificate of patent or registration of utility model

Ref document number: 7454166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150