JP2024092909A - プログラム、情報処理方法及び情報処理システム - Google Patents

プログラム、情報処理方法及び情報処理システム Download PDF

Info

Publication number
JP2024092909A
JP2024092909A JP2023078488A JP2023078488A JP2024092909A JP 2024092909 A JP2024092909 A JP 2024092909A JP 2023078488 A JP2023078488 A JP 2023078488A JP 2023078488 A JP2023078488 A JP 2023078488A JP 2024092909 A JP2024092909 A JP 2024092909A
Authority
JP
Japan
Prior art keywords
user
information
display
browser
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023078488A
Other languages
English (en)
Inventor
陽介 金屋
Yosuke Kanaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022208596A external-priority patent/JP7281012B1/ja
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2023078488A priority Critical patent/JP2024092909A/ja
Priority to US18/215,845 priority patent/US20240212264A1/en
Publication of JP2024092909A publication Critical patent/JP2024092909A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】ユーザが共有する情報を印象に残りやすい態様で多くのユーザに共有することを可能とする。【解決手段】情報処理システム1は、アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御部と、第1UI要素に対するユーザの操作を受け付けた場合にアプリ内ブラウザを起動する起動部と、アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御部と、第2UI要素に対するユーザ10の操作を受け付けた場合に、アプリ内ブラウザに表示された情報を、仮想空間の画面を視認する他のユーザ10が用いる他装置に共有する共有要求をサーバに送信する共有部と、アプリ内ブラウザに表示された情報を、共有情報として仮想空間内に位置する表示オブジェクトに表示する第3表示制御部と、を備える。【選択図】図1

Description

本発明は、プログラム、情報処理方法及び情報処理システムに関する。
ソーシャルネットワークサービス等において、一方のユーザが他方のユーザにウェブサイト等に掲載された情報を共有することが既に行われている。例えば、特許文献1に記載のWeb共有システムは、Web共有アプリケーションを有する第1の通信端末及び第2の通信端末を備える。Web共有アプリケーションは、Web共有ブラウザウィンドウを表示する。第1の通信端末のWeb共有ブラウザウィンドウは、第2の通信端末のIPアドレスに関連付けられている。第1の通信端末のWeb共有アプリケーションは、入力されたURL(Uniform Resource Locator)のWebページをWeb共有ブラウザウィンドウに表示する。第2の通信端末は、第1の通信端末に入力されたURLを取得してWebページをWeb共有ブラウザウィンドウに表示する。
特開2003-030121号公報
上記のWeb共有システムでは、ユーザが他のユーザに情報を共有する場合に、共有する情報を他のユーザに印象付けるために用いる手段としては改善の余地があった。
上記課題を解決するプログラムは、1又は複数のコンピュータを、アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御部と、前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動部と、前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御部と、前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有部と、前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御部と、して機能させる。
上記課題を解決する情報処理方法は、1又は複数のコンピュータが、アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御処理と、前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動処理と、前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御処理と、前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有処理と、
前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御処理と、を実行する。
上記課題を解決する情報処理システムは、アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御部と、前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動部と、前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御部と、前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有部と、前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御部と、を備える。
なお、本開示において「ブラウザ」は、アプリ内ブラウザ、及びプログラムとは別にインストールされたウェブブラウザの少なくとも一方を含む。
本発明によれば、ユーザが共有する情報を印象に残りやすい態様で多くのユーザに共有することを可能とする。
第1実施形態における情報処理システムの一実施形態を示す概略図である。 同実施形態のユーザ装置等の装置のハードウェア構成を示す図である。 同実施形態のユーザ情報を模式的に示す図である。 同実施形態の閲覧情報を模式的に示す図である。 同実施形態のユーザ装置の機能を模式的に示すブロック図である。 同実施形態の表示オブジェクト及びアバターオブジェクトの描画処理を説明する模式図である。 同実施形態のユーザ装置の処理手順を示すフローチャートである。 同実施形態のユーザ装置に表示される画面を説明する図である。 同実施形態のユーザ装置に表示される画面を説明する図である。 同実施形態のユーザ装置に表示される画面を説明する図である。 同実施形態のユーザ装置に表示される画面を説明する図である。 第2実施形態のユーザ装置の処理手順を示すフローチャートである。 同実施形態のユーザ装置に表示される画面を説明する図である。 同実施形態のユーザ装置に表示される画面を説明する図である。 第3実施形態のユーザ装置の処理手順を示すフローチャートである。 同実施形態のユーザ装置に表示される画面を説明する図である。 同実施形態のユーザ装置に表示される画面を説明する図である。 第4実施形態のユーザ装置に表示される画面を説明する図である。 第5実施形態のユーザ装置に表示される画面を説明する図である。
(第1実施形態)
以下、プログラム、情報処理方法及び情報処理システムの第1実施形態について説明する。
<情報処理システム>
図1を参照して、情報処理システム1について説明する。情報処理システム1は、管理サーバ15及びユーザ装置20を備える。管理サーバ15及びユーザ装置20は、インターネット等のネットワークを介してデータを送受信する。本実施形態において、情報処理システム1は、ユーザ10がユーザ装置20を用いて仮想空間を表示した動画を配信可能であるシステムである。情報処理システム1は、ユーザ10の仮想空間内における位置(以下、仮想位置)を移動可能とする移動可能空間を提供する。移動可能空間は、ワールド又はフィールドともいう。ユーザ装置20は、ユーザの操作に従って、仮想位置からみた仮想空間の画像(映像)を表示する。
管理サーバ15は、ネットワークを介してユーザ装置20に接続する。ユーザ装置20は、動画を配信及び視聴するアプリケーションがインストール(実装)された装置、又は、動画を配信及び視聴する動画提供サービスにユーザ登録したユーザ10が用いる装置である。管理サーバ15は、動画の配信に関するデータの中継を担う。管理サーバ15は、ユーザ情報記憶部16及び閲覧情報記憶部17を備える。
ユーザ装置20を用いて動画を配信するユーザ10を配信ユーザ11、配信された動画を視聴するユーザを視聴ユーザ12という。ユーザ10は、配信ユーザ11及び視聴ユーザ12の両方になることが可能である。つまり、ユーザ10は、動画を配信する場合は配信ユーザ11であり、動画を視聴する場合は視聴ユーザ12である。また、配信ユーザ11が用いるユーザ装置20を配信ユーザ装置21といい、視聴ユーザ12が用いるユーザ装置20を視聴ユーザ装置22という。本実施形態において配信ユーザ11及び視聴ユーザ12を区別しないで説明する場合には単にユーザ10という。また、配信ユーザ装置21及び視聴ユーザ装置22を区別しないで説明する場合には、単にユーザ装置20という。さらに、本実施形態において配信ユーザ11は情報を共有する共有者である。なお、配信ユーザ11が複数存在する場合、配信ユーザ11は他の配信ユーザ11が共有した情報を視認する被共有者となりうる。また、視聴ユーザ12は、共有された情報を視認する被共有者である。なお、情報の共有は、情報の提供と言い換えることもできる。また、共有者は、情報を提供する提供者と言い換えることもできる。
配信ユーザ装置21は、複数の配信ユーザ11の各仮想位置が同じ仮想空間に位置する動画を配信することが可能である。複数のユーザが同じ仮想空間で動画を配信することをコラボレーション配信という。以下、配信ユーザ11のグループで共有される仮想空間であるルームの生成要求を行う配信ユーザ11をホストユーザ11H、ホストユーザ11Hが生成したルームに参加する配信ユーザ11をゲストユーザ11Gという。
管理サーバ15は、移動可能空間のアセットデータを記憶している。移動可能空間には、複数のオブジェクトが所定位置に設定されている。
管理サーバ15は、ユーザ装置20から、ルームの生成要求及びユーザ10が指定した移動可能空間の識別情報を受信する。そして、ルームの生成要求を送信したユーザ10をホストユーザ11Hとして、指定された移動可能空間のルームを生成する。例えば管理サーバ15は、ホストユーザ11Hの配信ユーザ装置21から、店舗や商品等のオブジェクトが含まれる「ショッピングモールワールド」のルームの識別情報及びルームの生成要求を受信する。管理サーバ15は、ルームを生成するとともに、アセットデータをホストユーザ11Hの配信ユーザ装置21に送信する。
本実施形態では、ユーザ10は、ホストユーザ11Hの参加要請に対して承諾すること、又はユーザ10が送信した参加要求がホストユーザ11Hによって承認されることで、ゲストユーザとしてコラボレーション配信に参加することができる。前者の方法では、ホストユーザ11Hは、ユーザのリストから参加要請を送信するユーザを選択する。リストには、互いに承認したユーザが掲載されている。ホストユーザ11Hの配信ユーザ装置21は、参加要請の操作を受け付けると、参加要請と選択されたユーザの識別情報を管理サーバ15に送信する。選択されたユーザ10のユーザ装置20は、管理サーバ15を介して参加要請を受信する。ユーザ装置20は、参加要請に対するユーザ10の承諾操作を受け付ける。ユーザ装置20は、参加要求を管理サーバ15に送信する。管理サーバ15は、参加要請に対する参加要求を受信すると、参加要求を送信したユーザの識別情報をルームに関連付ける。これによって、このユーザはゲストユーザ11Gとなる。また、後者の方法では、ユーザ装置20は、ルームの一覧画面等に対するユーザ10の参加要求の操作を受け付ける。ユーザ装置20は、ルームの識別情報と参加要求とを管理サーバ15に送信する。管理サーバ15は、参加要求の承諾依頼をホストユーザ11Hの配信ユーザ装置21に送信する。ホストユーザ11Hは、配信ユーザ装置21に表示された承諾依頼を承認する操作を行う。配信ユーザ装置21は、この承認操作に基づいて、承認情報を管理サーバ15に送信する。管理サーバ15は、参加要請に対する参加要求を受信すると、参加要求を送信したユーザの識別情報をルームに関連付けることによって、参加要求を送信したユーザをゲストユーザ11Gとする。
視聴ユーザ12は、アプリケーションが表示する動画一覧画面、又は動画提供サービスのウェブサイトの動画一覧画面から、閲覧したい動画(ルーム)を選択することにより、動画の視聴を開始することができる。視聴ユーザ装置22は、配信ユーザ11の承認を経ることなく、管理サーバ15から動画を表示するための描画データ等を受信する。
<ハードウェア構成>
図2を参照して、ユーザ装置20のハードウェア構成を説明する。ユーザ装置20は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ウェアラブルコンピュータ、又はこれらの装置以外の動画を再生可能な情報処理装置である。ウェアラブルコンピュータは、ユーザが動画を視聴可能な画面を備えていればよい。例えばユーザの頭部に装着されるヘッドマウントディスプレイ、又は眼鏡型のウェアラブル端末等である。ユーザ装置20は、単独で動作する装置、又は、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものである。後者のユーザ装置20の一例として、例えばアウトサイドイン方式のトラッキングを行うシステムがある。
図2の例は、配信ユーザ11の動作を検出するセンサユニット112を備えるユーザ装置20の構成を示す。なお、センサユニット112は、ユーザ装置20と別の装置であってユーザ装置20に対して通信可能に接続されるものであってもよい。
ユーザ装置20は、処理回路100、ストレージ104、センサユニット112、ディスプレイ109、タッチパネル110及び周辺機器111を備える。
処理回路100は、本明細書に開示された制御プロセスのうちの1つ以上を実行するプロセッサであるCPU101及びメモリ102を含む。処理データ及び命令は、メモリ102に格納されてもよい。また、これらの処理データ及び命令は、ハードドライブ(HDD)又は可搬型記憶媒体等の記憶媒体ディスクであるストレージ104に格納されてもよいし、処理回路100とは別に設けられた記憶媒体に格納されてもよい。ストレージ104は、バス108及びストレージコントローラ103を介してCPU101に接続される。本実施形態においては、ストレージ104にアプリケーションが記憶されている。アプリケーションは、動画を配信及び視聴するためのプログラムと、プログラムの実行に必要な各種のデータとを含む。
本明細書に開示された各機能は、CPU101に限らず、開示された機能を実行するように構成又はプログラムされた汎用プロセッサ、特殊目的プロセッサ、集積回路、ASIC(Application Specific Integrated Circuits)、従来の回路及び/又はそれらの組み合わせを含み得る回路を使用して実装され得る。プロセッサは、その中にトランジスタ及び他の回路を含むので、処理回路又は回路である。プロセッサは、メモリに格納されたプログラムを実行するプログラムされたプロセッサであってよい。本開示において、処理回路、各表示制御部等のユニット、又は手段は、言及された機能を実行する、又は実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示された、又はそうでなければ公知の、言及された機能を実行するようにプログラムされるか構成される任意のハードウェアであってよい。
さらに、プロセッサは、プロセスの命令が格納されるコンピュータ可読媒体の形態によって制限されない。例えば、命令は、CD、DVD、処理回路100が通信する情報処理装置のFLASHメモリ、RAM、ROM、PROM、EPROM、EEPROM、ハードディスク又は他の非一時的コンピュータ可読媒体、例えばサーバ又はコンピュータに格納されてもよい。また、プロセスは、ネットワークベースのストレージ、クラウドベースのストレージ、又は他のモバイルアクセス可能なストレージに格納され、処理回路100によって実行可能であってもよい。
本明細書に開示されたフローチャートにおける記述又はブロックは、プロセスにおける特定の論理機能又はステップを実装するための1つ又は複数の実行可能命令を含むコードのモジュール、セグメント又は部分を表すものとして理解することができる。また、上記記述又はブロックは、実質的に同時又は逆順等、図示又は明細書に記載した順序とは異なる順序で機能を実行することができる。
処理回路100を実現するためのハードウェア要素は、様々な回路要素によって実現され得る。さらに、上述した実施形態の各機能は、1つ又は複数の処理回路を含む回路によって実現されてもよい。
処理回路100はまた、ネットワークNWに接続するための、ネットワークコントローラ106を含む。ネットワークNWは、インターネット等の公衆ネットワーク、又はローカルエリアネットワーク(LAN)もしくはワイドエリアネットワーク(WAN)等のプライベートネットワーク、又はそれらの任意の組み合わせとすることができ、公衆交換電話網(PSTN)又は統合サービスデジタルネットワーク(ISDN、登録商標)又はサブネットワークも含むことができる。ネットワークNWはまた、イーサネット(登録商標)ネットワーク、ユニバーサルシリアルバス(USB)ケーブル等の有線とすることができ、又は3G、4G及び5G無線セルラーシステムを含むセルラーネットワーク等の無線とすることができる。また、無線ネットワークは、Wi-Fi(登録商標)、無線LAN、Bluetooth(登録商標)、又は公知の他の無線通信形態とすることができる。さらに、ネットワークコントローラ106は、Bluetooth(登録商標)、近距離無線通信(NFC)、赤外線等の他の直接通信規格に準拠することができる。
処理回路100は、さらに、ディスプレイコントローラ105、入出力インターフェース107を備える。これらはバス108に接続されている。ディスプレイコントローラ105は、ディスプレイ109に接続する。入出力インターフェース107は、タッチパネル110及び周辺機器111に接続する。
センサユニット112について説明する。センサユニット112は、ユーザの表情の変化を示すフェイスモーション、及びセンサユニット112に対するユーザの身体の相対位置の変化を示すボディモーションを検出する1又は複数のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニット112は、公知の物を使用することができる。センサユニット112は、光を測定対象物に照射することによって測定対象物までの距離を測定するセンサを有する。例えば、トゥルーデプス(True Depth)、又は「LIDAR」(Light Detection and Ranging、又はLaser Imaging Detection and Ranging)等のセンサを用いることが可能である。例えば発光部は、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニット112の演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。また、センサユニット112の他の例は、上記した方法以外の測距方法で、ユーザに向かって照射された光がユーザの顔等の測定対象物に反射して返ってくるまでの飛行時間(Time of Flight)又は位相差を測定するToFセンサ、及びユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部の少なくとも一つを含むものである。ToFセンサは、飛行時間又は位相差に基づいて、測定対象物までの距離を算出する。
センサユニット112は、フェイスモーション及びボディモーションをトラッキングデータとして処理回路100に出力する。なお、トラッキングデータはモーションデータに含まれる。モーションデータは、アバターオブジェクトを動作させるためのデータ全般をいう。例えばモーションデータは、トラッキングデータのほかに、アバターオブジェクトに「拍手」等の予め登録された所定の動作をさせるデータを含む。この予め登録されたアバターオブジェクトの動作を、以下において「エモート」という。また、エモートを実行させるためのデータをエモートデータという。
また、センサユニット112は、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。また、センサユニット112は、手以外の人間の部位の位置又は向きを検出するセンサを含んでいてもよい。センサユニット112は、速度や加速度を検出するセンサ、方向や方位を検出するセンサ(ジャイロセンサ等)等をさらに含むものであってもよい。センサユニット112は、上記の各種センサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。
周辺機器111は、マイク及びスピーカを含む。また、周辺機器111は、ユーザ装置20の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等であってもよい。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、周辺機器111の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクトの表示等の各種操作を実行したりすることができる。なお、ユーザ装置20が周辺機器111としてマウスやコントローラ等の入力装置を備える場合には、タッチパネル110は省略されてもよい。また、ユーザ装置20はタッチパネル110を備える場合には、マウスやコントローラ等の入力装置は省略されてもよい。
管理サーバ15は、ユーザ装置20と同様の構成の処理回路100を有する。管理サーバ15は、センサユニット112、スピーカやマイク等の周辺機器111及びディスプレイ109等を省略することができる。
ストレージ104にインストールされた動画用のアプリケーションについて説明する。アプリケーションは、ユーザ装置20に実装されたネイティブ部を含む。ネイティブ部は、ユーザ装置20のOS(Operating System)上で動作し、ユーザ装置20のストレージ104等のリソースにアクセスすることが可能である。ネイティブ部は、管理サーバ15から受信した描画データに基づいて動画をディスプレイ109に表示する。
一態様として、アプリケーションは、アプリ内ブラウザを含む。アプリ内ブラウザは、アプリケーションに含まれるWebView等のブラウザ機能を実現するコンポーネントである。WebViewは、アプリケーションに組み入れられたものであり、例えば、SFSafariView,WKWebView等のAPI(Application Programming Interface)である。アプリ内ブラウザは、解析部及び表示制御部を含む。アプリ内ブラウザは、独立したウェブブラウザと同様にHTMLやCSS等を解釈することによって、取得したウェブデータを画面に表示したりJavaScript(登録商標)を実行したりする。ウェブデータは、アプリ内ブラウザによって画面をディスプレイ109に表示するために必要なHTMLファイル等のデータである。ウェブデータは、1又は複数のファイルで構成される。例えばウェブデータは、HTML(Hyper Text Markup Language)等のマークアップ言語、及びJavaScript(登録商標)等で記述されたファイル、CSS(Cascading Style Sheets)ファイル、JavaScript(登録商標)で記述された外部ファイル等である。アプリ内ブラウザは、指定されたURLに対応するウェブデータを、外部のウェブサーバ120(図1参照)又は管理サーバ15等に要求する。アプリ内ブラウザは、ウェブサーバ120又は管理サーバ15からウェブデータを取得する。
また、ユーザ装置20のアプリ内ブラウザの解析部は、受信したウェブデータがHTMLのデータである場合には、HTMLの解析を実行する。また、受信したウェブデータがJPEG形式、GIF形式、PNG形式等の画像データを含む場合、アプリ内ブラウザの表示処理部に表示処理を実行させる。
別の態様として、アプリケーションは、ユーザの所定の入力操作を受け付けた場合に、ユーザ装置20にアプリケーションとは別にインストールされたウェブブラウザを起動してもよい。本実施形態ではアプリケーションはアプリ内ブラウザを有するものとして説明する。本実施形態ではアプリ内ブラウザとアプリケーションとは別にユーザ装置20にインストールされたウェブブラウザとを区別して説明する。以下において、アプリ内ブラウザ及びウェブブラウザの少なくとも一方が含まれる場合には単に「ブラウザ」という。
<データの構成>
図3及び図4を参照して、ユーザ情報30及び閲覧情報31について説明する。
図3は、ユーザ情報記憶部16に記録されたユーザ情報30の一例を示す。ユーザ情報30は、ユーザ毎に記録されている。ユーザ情報30は、ユーザの識別情報であるユーザID(識別子)、累積ポイント及びコインを含む。累積ポイントは、動画の配信及び視聴等、動画に関するアクティビティによって付与されるポイントを、ユーザ毎に累積したものである。コインは、ユーザが購入した仮想的な通貨である。コインは、アプリケーション又はアプリケーションを提供するプラットフォームで、アイテム、ギフトオブジェクト、又はアバターオブジェクトのパーツの対価として利用することができる。
図4は、閲覧情報記憶部17に記録された閲覧情報31の一例を示す。閲覧情報31は、ユーザ装置20のアプリ内ブラウザに表示可能な情報を示すものである。閲覧情報31は、ワールド識別情報、閲覧許可情報及び位置情報を含む。ワールド識別情報は、閲覧情報を表示する移動可能空間(ワールド)の名称又は識別子である。閲覧許可情報は、アプリ内ブラウザで閲覧が許可されたウェブサイトのURL又はドメイン等である。例えば「ショッピングモールワールド」のワールド識別情報には、衣服、雑貨、電化製品等の商品を販売するECサイトのトップページのURLが関連付けられていてもよい。ECサイトの商品は、現実世界で流通し且つユーザ10が現実世界で使用することができるものであってもよい。又は商品は、仮想空間で使用することができるものであってもよい。仮想空間で使用できるものは、例えばアバターオブジェクトが装着可能なアイテム等である。仮想空間で使用可能な商品は、仮想空間で購入及び使用等が完結するものであってもよい。
位置情報は、移動可能空間内の位置によってアプリ内ブラウザに表示する閲覧情報を異ならせる場合に記録される。例えば「ショッピングモールワールド」のうち、衣服を販売する仮想店舗内又はその近傍では、衣服を販売するECサイトのウェブページを表示する。また、家具を販売する仮想店舗内又はその近傍では、家具を販売するECサイトのウェブページを表示する。この場合、移動可能空間の座標範囲が閲覧許可情報に関連付けて記録される。
<ユーザ装置の機能>
図5を参照して、ユーザ装置20の各機能について説明する。ユーザ装置20の処理回路100は、プログラムを実行することにより、第1表示制御部36、第2表示制御部37、第3表示制御部38、起動部39、共有部40として機能する。
第1表示制御部36は、アプリ内ブラウザを起動する第1UI要素を仮想空間を表示する画面に表示する。第1UI要素は、遷移先のURLが関連付けられた文字列、ボタン等のGUI(Graphical User Interface)、アプリ内ブラウザの画面に表示された画像要素、又は仮想空間に位置するオブジェクトである。
第2表示制御部37は、アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する。本実施形態では、第1表示制御部36及び第2表示制御部37は、動画を配信する配信モードにおいてのみ機能する。
第3表示制御部38は、アプリ内ブラウザに表示された情報を、共有情報として仮想空間内に位置する表示オブジェクトに表示する。共有情報は、自装置にアプリ内ブラウザで表示された情報であってユーザ10が共有要求を行った情報である。又は、共有情報は、他のユーザ10が共有要求を行った情報である。
起動部39は、第1UI要素に対するユーザ10の操作を受け付けた場合にアプリ内ブラウザを起動する。本実施形態では、起動部39は、配信モードの場合のみアプリ内ブラウザを起動する。アプリ内ブラウザは、第1UI要素に関連付けられたウェブデータを取得するとともに、ウェブデータに基づく画面を表示する。
共有部40は、第2UI要素に対するユーザ10の操作を受け付けた場合に、アプリ内ブラウザに表示された情報を、仮想空間の画面を視認する他のユーザ10が用いる他のユーザ装置20(他装置)に共有する共有要求を管理サーバ15に送信する。本実施形態では、共有部40は、配信モードの場合のみ共有要求を管理サーバ15に送信する。
図6を参照して、第3表示制御部38の機能について詳述する。移動可能空間73には、一般オブジェクト50及びアバターオブジェクト60が位置する。ここでは、一般オブジェクト50は、配信ユーザ11に対応するアバターオブジェクト以外のアバターオブジェクト60以外のオブジェクトをいう。移動可能空間73にはワールド座標系(X,Y,Z)が設定されている。一般オブジェクト50には、オブジェクト座標系(x,y,z)が設定されている。
移動可能空間73には、1又は複数の表示オブジェクト51が位置している。表示オブジェクト51は、一般オブジェクト50の一例である。表示オブジェクト51は、配信ユーザ11が共有した共有情報55を表示することができる。本実施形態では共有情報55は、JPEG形式、GIF形式、PNG形式等の静止画像、MPEG4等の動画データに基づく動画等の画像である。
図6の例では、表示オブジェクト51は、厚みの無い2次元の平面からなるオブジェクトである。他の例として、表示オブジェクト51は、凹凸のある2次元オブジェクト、又は3次元オブジェクトであってもよい。表示オブジェクト51は、移動可能空間73等の3次元の仮想空間に配置可能である。2次元の表示オブジェクト51は、図6中左側に示すように、3次元の一般オブジェクト50に関連付けて(親子関係にして)設定されていてもよい。この場合、表示オブジェクト51は、一般オブジェクト50の動きに追従する。又は、表示オブジェクト51は、図6中右側に示すように、単体で移動可能空間73に設定されていてもよい。
表示オブジェクト51、又は、表示オブジェクト51及びこれに関連付けられた一般オブジェクト50は、例えば、デジタルサイネージ、ディスプレイ、スクリーン、自動車又は飛行船等の移動体として表示される。
第3表示制御部38は、アプリ内ブラウザが表示したウェブデータに基づく画像を、テクスチャマッピング等の手法により、共有情報55として表示オブジェクト51に投影する。このとき、第3表示制御部38は、ウェブデータを加工して投影する画像を生成してもよい。例えば、第3表示制御部38は、第2UI要素72に対して操作が行われたときにブラウザ画面に表示されていた画像要素を抽出してもよい。画像要素は、ウェブデータに埋め込まれたデータであって、例えば、JPEG形式、GIF形式、PNG形式の画像データである。又は画像要素は、MPEG4形式、AVI形式、MOV形式、FLV形式等の動画を表示する画像データである。或いは、第3表示制御部38は、ウェブデータのうち、優先度が最も高い画像要素を抽出してもよい。第3表示制御部38は、ウェブデータに埋め込まれた画像データのなかから、高い優先度が設定された画像要素を抽出する。或いは、第3表示制御部38は、ブラウザ画面に表示された画面をキャプチャした画像を取得してもよい。
第3表示制御部38は、移動可能空間73内に配置された全ての表示オブジェクト51に対して共有情報55を同時に表示する。第3表示制御部38は、複数の表示オブジェクト51が位置する場合に、共有情報55をタイミングをずらして表示してもよい。
アバターオブジェクト60には、オブジェクト座標系が設定されている(図示略)。さらに、移動可能空間73には、各配信ユーザ11に対応した仮想カメラ65が位置する。仮想カメラ65は、アバターオブジェクト60に関連付けられている。アバターオブジェクト60が配信ユーザ11の操作に基づき、歩いたり走ったりして移動すると、仮想カメラ65も追従する。他の例として、仮想カメラ65は一定の位置に固定された定点カメラであってもよい。図6では、便宜上、一つの仮想カメラ65のみ図示しているが、3人の配信ユーザ11がコラボレーション配信に参加している場合3つの仮想カメラ65が設定される。
第3表示制御部38は仮想カメラ65の光軸を中心とした所定の視野範囲の画像をレンダリングする。そして、第3表示制御部38は、移動可能空間73を仮想カメラ65の位置からみた画像としてディスプレイ109に出力する。ここでいうレンダリングは、仮想カメラの位置の取得、透視投影、オブジェクトの各々に関連付けられた深度情報に基づく隠面消去等が含まれる描画処理をいう。レンダリングは、これらのうち少なくとも一つの処理であってもよいし、シェーディング、テクスチャマッピング等の処理を含んでいてもよい。
仮想カメラ65の位置は、配信ユーザ11によって変更可能である。例えば、配信ユーザ11は、仮想カメラ65の位置に関する設定として、一人称視点(アバター位置)と、三人称視点とを選択できる。一人称視点では、アバターの目の位置と仮想カメラ65の位置とを一致又はほぼ一致させた状態でレンダリングする。この場合、アバターオブジェクト60の視線と仮想カメラ65の光軸とがほぼ一致する。これにより、アバターオブジェクト60から移動可能空間73をみているような画像がディスプレイ109に表示される。三人称視点では、アバターオブジェクト60の周りの位置に仮想カメラ65を設定させるとともに、アバターオブジェクト60が画面中央になるようにレンダリングする。三人称視点に仮想カメラ65を設定すると、アバターオブジェクト60の画像を画面に表示することができる。配信ユーザ装置21は、三人称視点における仮想カメラ65の位置を変更可能であってもよい。又は、3つ以上の位置に配置された仮想カメラ65からいずれか一つ(又は複数)を選択する多視点カメラを用いて画像を生成するようにしてもよい。
<動画の配信及び視聴方式>
次に、動画の配信又は視聴の方式について説明する。動画の配信及び視聴の方式としては、クライアントレンダリング方式、ブラウザレンダリング方式、映像配信方式及びサーバ配信方式のうち一つを用いることができる。
クライアントレンダリング方式は、各ユーザ装置20が、プログラムを実行させることによって、オブジェクトのレンダリングを行う方式である。ユーザ装置20は、動画を表示するための描画データを管理サーバ15から受信する。この描画データは、オブジェクトを含む仮想空間の画像をレンダリングするために用いられるデータである。描画データは、少なくともモーションデータを含む。ユーザ装置20は、モーションデータ等を用いてアバターオブジェクト60の描画を行う。この方式では、ユーザ装置20のストレージ104にアバターオブジェクト60のモデルデータ等が記録される。
ブラウザレンダリング方式は、配信ユーザ装置21及び視聴ユーザ装置22が、ストレージ104に格納したウェブブラウザを用いて、動画を表示する方法である。このとき、配信ユーザ装置21は、描画データ等を管理サーバ15に送信する。動画を表示するユーザ装置20は、HTML(Hyper Text Markup Language)等のマークアップ言語で記述されるとともに、CSS(Cascading Style Sheets)、JavaScript(登録商標)等が用いられたウェブページを管理サーバ15から受信する。ユーザ装置20で起動されたウェブブラウザプログラムは、ブラウザ上で動作するJavaScriptによってアバターオブジェクトや他のオブジェクトを描画する。この方式では、ユーザ装置20は、動画を表示するためのウェブページのURL等のデータをストレージ104に記録する。つまり、アバターオブジェクトのモデルデータ等はユーザ装置20に記憶されない。ブラウザレンダリング方式の場合、ユーザ装置20にアプリケーションがインストールされていなくてもよい。又はユーザ装置20はアプリ内ブラウザを含むアプリケーションがインストールされていてもよい。
映像配信方式は、配信ユーザ装置21が動画データを生成する方式である。具体的には、ホストユーザ11Hの配信ユーザ装置21は、モーションデータ等を用いてオブジェクトの描画を行い、動画データを生成する。また、配信ユーザ装置21は、エンコードした動画データ及び音声データを管理サーバ15に送信する。管理サーバ15は、動画データ及び音声データを視聴ユーザ装置22に送信する。視聴ユーザ装置22は、配信ユーザ装置21から受信した動画データに基づいて動画をディスプレイ109に表示する。
サーバ配信方式は、管理サーバ15が動画データを生成する方式である。管理サーバ15は、モーションデータ、音声データを配信ユーザ装置21から受信する。そして、管理サーバ15は、それらのデータに基づいて動画データを生成する。管理サーバ15は、生成した動画データを配信ユーザ装置21及び視聴ユーザ装置22に送信する。配信ユーザ装置21及び視聴ユーザ装置22は、受信した動画データに基づき動画をディスプレイ109に出力する。
このように、ユーザ装置20及び管理サーバ15のいずれかが動画データの生成を担う。動画データの生成を担う装置は、配信方式に応じて変更可能である。
なお、配信ユーザ装置21及び視聴ユーザ装置22は互いに異なる方式で動画を表示してもよい。例えば配信ユーザ装置21がクライアントレンダリング方式で動画を表示する一方で視聴ユーザ装置22がブラウザレンダリング方式で動画を表示してもよい。また、動画を表示する方法をユーザが選択できるようにしてもよい。例えば、視聴ユーザ装置22のうち一部の装置はクライアントレンダリング方式で動画を表示し、他の装置はブラウザレンダリング方式で動画を表示してもよい。
本実施形態では、各ユーザ装置20がプログラムを実行することにより描画を行うクライアントレンダリング方式について詳述する。
上述したようにストレージ104は、アバターオブジェクト及び他のオブジェクトの3次元モデルデータ等を記憶する。3次元モデルデータは、動画アプリケーションのプログラムをインストールしたときにストレージ104に記録されるデータ、管理サーバ15から受信したデータ、又はそれらの組み合わせである。
アバターオブジェクトの3次元モデルデータについて説明する。この3次元モデルデータは、アバターオブジェクト本体を構成する本体パーツ、アバターオブジェクトに装着可能な装着パーツの描画データを含む。本体パーツは、アバターオブジェクトの部位を構成するパーツである。本体パーツを描画するデータは、ポリゴンデータ、及びアバターオブジェクトの動作を表現するための骨格データ(ボーン)、テクスチャデータ等を含む。本体パーツの少なくとも一部は、ユーザが任意に設定することができる。つまり、アバターオブジェクトの身長、体格等はユーザが選択することが可能である。装着パーツは、テクスチャデータ等を含む。配信ユーザ11は、自身に対応するアバターオブジェクトの装着パーツを好みのパーツに設定することができる。
表示オブジェクト51を含む一般オブジェクト50のモデルデータは、建物、壁、柱、窓、家具、デジタルサイネージ(電子看板)、スクリーン、自動車又は飛行船等の移動体のオブジェクトのデータを含む。一般オブジェクト50のデータは、ポリゴンデータ、テクスチャデータ等を含む。
動画の配信及び動画の視聴の準備工程について説明する。配信ユーザ装置21は、アバターオブジェクトのパーツを示す識別情報(パーツID)を描画データとして管理サーバ15に送信する。上述したように、描画データは、オブジェクトを含む仮想空間の画像をレンダリングするために用いられるデータである。管理サーバ15は、パーツを示す識別情報を他のユーザ装置20(他装置)に送信する。他のユーザ装置20は、パーツを示す識別情報に基づいて配信ユーザ11のアバターオブジェクトを描画する。
動画配信時及び動画視聴時の工程について説明する。配信ユーザ装置21は、ルームの識別情報、ユーザID及び描画データを管理サーバ15に送信する。描画データは、仮想位置を示す座標データ、モーションデータを含む。また、配信ユーザ装置21はマイクが集音した音声に基づく音声データを管理サーバ15に送信する。管理サーバ15は、受信した描画データを、ルームに参加している他の配信ユーザ11の配信ユーザ装置21又は動画を視聴している視聴ユーザ12の視聴ユーザ装置22に送信する。モーションデータ、座標データ及び音声データには、タイムスタンプが付与されている。タイムスタンプは、計時機能を有する処理回路100に基づく基準時間情報に基づいて生成される。又はタイムスタンプは、管理サーバ15から送信される基準時間情報、又は他の外部サーバから取得した基準時間情報に基づいて生成される。タイムスタンプは、基準とする時間からの経過時間を表していてもよいし、時刻を表していてもよい。
視聴ユーザ装置22の第3表示制御部38は、描画データ、ユーザID及び音声データを管理サーバ15から受信する。そして、第3表示制御部38は、ユーザIDに対応するアバターオブジェクトを描画データを用いて描画する。また、第3表示制御部38は、モーションデータを用いてアバターオブジェクトを動作させる。
また、第3表示制御部38は、他のユーザからが投稿したメッセージ等のデータを管理サーバ15から受信する。第3表示制御部38は、アバターオブジェクトや他のオブジェクトをレンダリングした画像と、投稿メッセージや通知等とを合成した動画データをディスプレイ109に出力する。また、第3表示制御部38は、タイムスタンプに基づいて音声データを動画データと同期させてスピーカから出力する。
<動作>
図7を参照して、配信ユーザ装置21が動画を配信するときの動作について説明する。
配信ユーザ装置21及び視聴ユーザ装置22は、移動可能空間73のアセットデータを管理サーバ15から受信する。アセットデータは、移動可能空間73の各オブジェクトを描画するためのモデルデータ、背景データ、第1UI要素に関連付けられる閲覧情報31を含む。第3表示制御部38は、配信ユーザ11の操作に基づいてアバターオブジェクト60を移動させるとともに、移動可能空間73のうち配信ユーザ11が指定する領域の仮想空間画像をディスプレイ109に表示する。
配信ユーザ装置21の第1表示制御部36は、仮想空間を表示する画面に第1UI要素を表示する。本実施形態では、配信ユーザ装置21のみが第1UI要素を表示する。視聴ユーザ装置22は、第1UI要素を表示しない。
第1表示制御部36は、第1UI要素に対する操作を受け付ける(ステップS1)。
起動部39は、第1表示制御部36が第1UI要素に対する操作を受け付けると、アプリ内ブラウザを起動する(ステップS2)。アプリ内ブラウザは、ウェブデータに基づく画面を表示する(ステップS3)。具体的には、アプリ内ブラウザは、第1UI要素に関連付けられた閲覧許可情報であるURLを取得する。さらにアプリ内ブラウザは、URLのウェブデータを当該ウェブデータを提供するウェブサーバ120に対して要求する。アプリ内ブラウザは、ウェブデータを受信すると、そのウェブデータを解析して表示する。なお、アプリ内ブラウザは、閲覧情報31に位置情報が記録されている場合には、配信ユーザ11の仮想位置が含まれる座標範囲に対応するURLを取得する。
第2表示制御部37は、第2UI要素を表示する。第2UI要素は、アプリ内ブラウザでウェブデータを表示した配信ユーザ装置21のみが表示する。つまり、視聴ユーザ装置22は、第2UI要素を表示しない。
第2表示制御部37は、第2UI要素に対する配信ユーザ11の操作を受け付ける(ステップS4)。第2表示制御部37によって操作が受け付けられると、共有部40は、共有要求を管理サーバ15に送信する(ステップS5)。共有要求は、アプリ内ブラウザで表示されたウェブデータのURL、ルームの識別情報、ユーザIDを含む。
管理サーバ15は、共有要求を受信すると、ルームに参加している他の配信ユーザ11が用いる配信ユーザ装置21及びルームの動画を視聴している視聴ユーザ装置22に共有指示情報を送信する。共有指示情報は、共有要求に含まれていたURLを含む。また、共有指示情報は、ユーザID(又はアカウント名)を含んでいてもよい。
第3表示制御部38は、共有要求の対象としたウェブページに基づく共有情報55を自装置に表示された表示オブジェクト51に表示する(ステップS6)。具体的には、配信ユーザ11に対応する仮想カメラ65の視野範囲に表示オブジェクト51が含まれている場合にウェブページに基づいて生成された画像を表示オブジェクト51に投影する。
起動部39は、共有情報55を表示オブジェクト51に表示したときにアプリ内ブラウザを自動的に閉じてもよい。又は、ユーザ10によって閉じる操作が行われない限り、アプリ内ブラウザを表示したままであってもよい。
また、第3表示制御部38は、新たな共有指示情報を受信すると、既に表示している共有情報55を消去する。起動部39は、新たな共有指示情報に含まれるURLをアプリ内ブラウザに出力する。アプリ内ブラウザは、取得したURLを用いてウェブデータを取得する。第2UI要素72の操作を受け付けた場合、新たに取得したウェブデータに基づく画像を表示オブジェクト51に表示する。第3表示制御部38は、動画の配信が終了するまで表示オブジェクト51への表示処理を繰り返す。
<画面の表示>
図8~図11を参照して、配信ユーザ装置21が表示する画面について説明する。なお、図8~図11は、仮想カメラ65の位置が一人称視点である場合の画面を示す。
図8は、アプリケーションで表示されたワールド選択画面69である。ワールド選択画面69は、複数の移動可能空間73に対応する選択部69A~69C(バナー)を含む。第3表示制御部38は、選択部69A~69Cのいずれかが選択されると、配信開始要求を管理サーバ15に送信する。管理サーバ15は、配信開始要求を受信すると配信開始要求を送信したユーザ10をホストユーザ11Hとするとともにルームを生成する。また、管理サーバ15は、アセットデータをホストユーザ11Hの配信ユーザ装置21に送信する。
図9~図11に示すように、第3表示制御部38は、アセットデータを用いて仮想空間画面70を表示する。具体的には、第3表示制御部38は、アセットデータに基づき一般オブジェクト50を表示する。また、第3表示制御部38は、他の配信ユーザ装置21から送信された描画データを用いて他の配信ユーザ11に対応するアバターオブジェクト60(図11参照)を表示する。
図9は、第1UI要素71を含む仮想空間画面70Aである。第3表示制御部38は、仮想カメラ65の視野範囲に応じた仮想空間画面70Aを表示する。図9の例では、仮想カメラ65の視野範囲に表示オブジェクト51及び一般オブジェクト50が含まれる。表示オブジェクト51は、例えばデジタルサイネージである。
第1UI要素71は、例えばアイコン(図柄)が表示されたボタンである。又は、第1UI要素71は、表示オブジェクト51又はそれに関連付けられた一般オブジェクト50であってもよい。第1UI要素71としての一般オブジェクト50は、配信ユーザ11によって、クリック、タップ、スワイプ等の操作をされることによって、表示態様を変更するようにしてもよい。
図10は、第1UI要素71が操作された後に表示される仮想空間画面70Bである。起動部39は、アプリ内ブラウザを起動する。アプリ内ブラウザは、仮想空間画面70Bに重ねて又は埋め込む表示態様でブラウザ画面75を表示する。本実施形態では、配信ユーザ装置21が表示したブラウザ画面75は、視聴ユーザ装置22には表示されない。
第2表示制御部37は、第2UI要素72を表示する。第2UI要素72は、ボタン等のGUI要素である。或いは、第2UI要素72は、ブラウザ画面75に含まれる画像要素に設定されていてもよい。この場合、配信ユーザ11が選択した画像要素が共有情報として表示オブジェクト51に表示される。或いは、第2UI要素72は、表示オブジェクト51又は表示オブジェクト51が関連付けられた一般オブジェクト50であってもよい。この場合、表示オブジェクト51又は一般オブジェクト50が選択操作されることにより、その表示オブジェクト51又は一般オブジェクト50に共有情報55が表示される。
配信ユーザ11は、第2UI要素72に対して、クリック、タップ、スワイプ等の操作を行う。例えば、配信ユーザ11は、共有したい画像要素を表示オブジェクト51に向かって移動させるようにスワイプしてもよい。第2表示制御部37は、第2UI要素72をブラウザ画面75内、又はブラウザ画面75に重ねて表示する。又は第2表示制御部37は、第2UI要素72をブラウザ画面75の近傍に表示してもよい。
アプリ内ブラウザは、ブラウザ画面75を閉じるためのUI要素であるボタン77、表示する画像を選択する選択部74(カルーセル等)等をブラウザ画面75に表示してもよい。
アプリ内ブラウザは、配信ユーザ11のスクロール操作、選択部74等のGUI要素に対する操作を受け付ける。そして、操作に基づいた画面をブラウザ画面75に表示する。ブラウザ画面75でウェブサイトの画面を表示することによって、配信ユーザ11は、他のユーザ10に情報を共有する前に、画面を確認することができる。また、「戻る」、「進む」、「トップ画面」等の他のURLに関連付けられたボタン等がブラウザ画面75に表示されている場合には、そのボタンが選択されたとき、アプリ内ブラウザは他のURLに関連付けられたウェブデータを取得する。そして、ブラウザ画面75を他の画面に遷移させる。
配信ユーザ11は、ブラウザ画面75で他のユーザ10に共有したい画像を選択することができる。さらに配信ユーザ11は、ブラウザ画面75に表示された購入ボタン(図示略)を選択操作することによって商品を購入することができる。
図11は、第2UI要素72が操作された後に表示される仮想空間画面70Cである。第3表示制御部38は、表示オブジェクト51に、ウェブデータに基づく共有情報55を表示する。配信ユーザ11が共有した共有情報55が移動可能空間73に表示されるため、同じ移動可能空間73を共有する他の配信ユーザ11(図11に示すアバターオブジェクト60に対応する配信ユーザ11)、及び動画を視聴する視聴ユーザ12にも共有情報55を視認させることができる。
第1UI要素71には、表示オブジェクト51に表示することを考慮して画像等が配置されたウェブデータが関連付けられていてもよい。この場合には、第3表示制御部38は、ブラウザ画面75をキャプチャした画像データを表示オブジェクト51に表示することができる。その結果、配信ユーザ装置21の処理負荷を軽減することができる。又は、第3表示制御部38は、取得したウェブデータを加工して表示オブジェクト51に表示してもよい。例えば第3表示制御部38は、画像等の必要な情報だけを抽出するようにしてもよい(スクレイピング)。又は、第3表示制御部38は、ECサイトのウェブデータ等に対して、検索窓や、カテゴリを表示するタブ、ボタン等のGUI要素を削除したデータを表示オブジェクト51に表示してもよい。また、第3表示制御部38は、配信ユーザ11の個人情報を削除したデータをアプリ内ブラウザで表示してもよい。
ブラウザ画面75は、配信ユーザ11の操作に基づいて変化する。その一方で、表示オブジェクト51に表示された共有情報55は、第2UI要素72が操作されたときのブラウザ画面75に基づく画像が表示された状態を維持しており、ブラウザ画面75の変化が反映されない。この態様によれば、配信ユーザ11がブラウザ画面75で商品を購入した場合でも、購入処理で表示される個人情報が表示オブジェクト51に表示されない。
或いは、表示オブジェクト51に表示された共有情報55は、ブラウザ画面75の変化が反映されてもよい。共有情報55は、ブラウザ画面75に同期する。この態様によれば、配信ユーザ11が視認する画面を視聴ユーザ12等も視認することができるので、ユーザ10同士のコミュニケーションが取りやすくなる。
また、図11に示すように、表示オブジェクト51に関連付けて、共有要求を送信した配信ユーザ11の識別情報76を表示してもよい。この場合、配信ユーザ装置21及び視聴ユーザ装置22は、配信ユーザ11のID又はアカウント名を含む共有指示情報を受信する。
表示オブジェクト51は、企業及びユーザの間の情報共有、ユーザ間の情報共有等、共有者と被共有者との関係を問わず、様々な用途で使用することができる。
例えば、広告主が、宣伝対象のウェブサイトのURLを、第1UI要素71に関連付けることができる。例えば図11のように衣服等の商品を宣伝する広告主は、商品を販売可能に掲載したウェブサイトのURLを第1UI要素71に関連付ける。配信ユーザ11は、ブラウザ画面75に表示された商品を閲覧したり購入したりする。また、配信ユーザ11は、購入した商品を紹介したり、購入希望の商品について他のユーザ10にアドバイスを求めたり、単に商品について会話したりする目的で、第2UI要素72を操作することによって表示オブジェクト51に共有情報55を表示する。又は、配信ユーザ11は、商品を販売する販売者であってもよい。この場合、商品の説明をするために第2UI要素72を操作することによって表示オブジェクト51に共有情報55を表示する。
また例えば、第1UI要素71には、配信ユーザ11が記録した静止画像(例えばワールドの写真、アバターオブジェクト60を含む記念写真等)又は動画(例えばゲーム動画等)のURLを関連付けることができる。これらの画像は管理サーバ15に一時的又は継続的に記録される。この場合、第1UI要素71には、管理サーバ15に記録された配信ユーザ11の画像一覧(例えばアルバム)のURLが関連付けられる。第1表示制御部36が第1UI要素71に対する操作を受け付けると、起動部39はアプリ内ブラウザを起動して画像一覧をブラウザ画面75に表示する。画像一覧には、各画像のサムネイルが表示されている。さらに、起動部39は、画像一覧から選択された画像をブラウザ画面75に表示する。第3表示制御部38は、第2UI要素72に対する操作を受け付けて、選択された画像を共有情報55として表示オブジェクト51に表示する。これによれば、配信ユーザ11は過去のイベント等で撮影した画像や動画を表示オブジェクト51に表示することによって、他の配信ユーザ11及び視聴ユーザ12とコミュニケーションを図ることができる。
第1実施形態の効果について説明する。
(1-1)第1実施形態では、ユーザ10は、第1UI要素71を操作することによって、共有可能な情報をブラウザ画面75に表示させることができる。また、ユーザ10は、第2UI要素72を操作することによってブラウザ画面75で表示された情報を、共有情報55として移動可能空間73内の表示オブジェクト51に表示させることができる。このため、移動可能空間73を視認できるユーザ10であれば表示オブジェクト51の共有情報55を視認できる。よって、多数のユーザ10に対して共有情報55を共有することができる。また、一般オブジェクト50や、他の配信ユーザ11に対応するアバターオブジェクト60が表示された移動可能空間73内に共有情報55を表示するため、ユーザ10に共有情報55を印象付けることができる。
(1-2)第1実施形態では、複数の配信ユーザ11が同じ移動可能空間73を共有する場合、他の配信ユーザ装置21から送信された共有要求に基づく共有情報55を視認することができる。このため、複数のユーザ間で相互に共有情報55を共有し合うことができる。
(1-3)第1実施形態では、移動可能空間73に位置する全ての表示オブジェクト51に共有情報を表示する。この態様では、複数の表示オブジェクト51に共有情報55が表示され得る。よって、配信ユーザ11の視野範囲に共有情報55が入りやすくなるため、ユーザ10に対する訴求効果を高めることができる。
(1-4)第1実施形態では、配信ユーザ装置21のみが第1UI要素71及び第2UI要素72を表示する。つまり、配信ユーザ11のみが共有情報55の共有要求を行うことができる。このため、移動可能空間73の画面を視認する全てのユーザ10が情報を共有できる場合に比べ、共有要求が送信される頻度が少なくなる。このため、表示オブジェクト51に一つの共有情報55が表示される時間が長くなる。また、表示オブジェクト51に表示される共有情報55が頻繁に変更されることを抑制することができる。
(第2実施形態)
以下、図12~図14に従って、プログラム、情報処理方法及び情報処理装置の第2実施形態について説明する。第2実施形態では、配信ユーザ装置21は、配信ユーザ11に対応するアバターオブジェクト60と所定関係にある表示オブジェクト51に共有情報55を表示する。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
第2実施形態では、共有情報55の表示処理(ステップS6)が第1実施形態と異なる。
図12を参照して、共有情報55の表示処理について説明する。第2UI要素72に対する操作を受け付けた配信ユーザ装置21は、アプリ内ブラウザで表示されたウェブデータを用いて表示処理を行う。また、共有指示情報を受信した配信ユーザ装置21又は視聴ユーザ装置22は、共有指示情報に含まれるURLに紐付いたいたウェブデータを取得する。
第3表示制御部38は、移動可能空間73に位置するオブジェクトのうち、表示条件を満たすオブジェクトを選択する(ステップS10)。
第3表示制御部38は、以下の2つの条件のうち、少なくとも一方を満たす表示オブジェクト51を選択する。
(条件1)アバターオブジェクト60の位置との相対距離が所定距離以下である。
(条件2)表示オブジェクト51の優先度に関するパラメータが、共有情報55に設定された優先度以上である。
第3表示制御部38は、表示条件を満たす表示オブジェクト51に対し、共有情報55を表示する(ステップS11)。
図13を参照して条件1について説明する。なお、図13及び図14では、表示オブジェクト51が、3次元モデルデータによって描画されたオブジェクトに関連付けられて表示された例を示している。
図13の例では、移動可能空間73に、表示オブジェクト51A~51Dが配置されている。配信ユーザ11Aが用いる配信ユーザ装置21の第3表示制御部38は、配信ユーザ11Aに対応するアバターオブジェクト60Aの位置と表示オブジェクト51A~51Dとの相対距離L1を算出する。そして、相対距離L1が所定距離以下である領域Z1内の表示オブジェクト51Aを、共有情報55を表示する表示オブジェクト51として選択する。このとき、移動可能空間73の所定距離範囲Z内の表示オブジェクト51にのみ、相対距離L1を算出してもよい。なお、アバターオブジェクト60Aではなく、配信ユーザ11Aに対応する仮想カメラ65の位置と表示オブジェクト51A~51Dとの相対距離L1を算出するようにしてもよい。
一方、配信ユーザ11Bが用いる配信ユーザ装置21の第3表示制御部38は、配信ユーザ11Bに対応するアバターオブジェクト60Bの位置と各表示オブジェクト51A~51Dとの相対距離L1を算出する。そして、相対距離Lが所定距離以下である領域Z1内の表示オブジェクト51Bを、共有情報55を表示する表示オブジェクト51として選択する。なお、アバターオブジェクト60Bではなく、配信ユーザ11Bに対応する仮想カメラ65の位置と表示オブジェクト51A~51Dとの相対距離L1を算出するようにしてもよい。
視聴ユーザ装置22は、ホストユーザ11Hの仮想カメラ65(図13では図示略)からみた画像を描画する。このため、配信ユーザ11Aがホストユーザ11Hである場合、視聴ユーザ装置22は、アバターオブジェクト60Aに近い表示オブジェクト51Aに共有情報55を表示する。
つまり、同じ移動可能空間73の画像を表示していても、ユーザ装置20に応じて、異なる表示オブジェクト51に共有情報55を表示することが生じ得る。例えば、表示オブジェクト51は、飛行船、広告宣伝車等の移動体である一般オブジェクト50と関連付けられていてもよい。この場合、移動体の移動に伴い、アバターオブジェクト60と移動体との相対距離L1を超えることがある。この場合、そのアバターオブジェクト60に対応するユーザ10が用いるユーザ装置20は、移動体の共有情報55の表示を停止する。
図13を参照して条件2について説明する。第3表示制御部38は、所定距離範囲Z内にある表示オブジェクト51A~51Dに関連付けられたパラメータを取得する。パラメータは、優先度が高くなるほど、大きい値となる。表示オブジェクト51A,51Bは、「1」、表示オブジェクト51Cは、「2」、表示オブジェクト51Dは「5」である。なお、所定距離範囲Z内に限らず移動可能空間73の全ての表示オブジェクト51Dを対象にパラメータを取得するようにしてもよい。
例えば、第3表示制御部38は、パラメータの値が「3」以上のものに共有情報55を表示する。ここでは、第3表示制御部38は表示オブジェクト51Dに共有情報55を表示する。表示の可否を決定するための閾値は、共有情報55に応じて変更する。例えば、ユーザ10が共有情報55を視認する機会を多くしたい場合には、共有情報55の閾値を「1」とする。そして、パラメータの値が「1」以上の表示オブジェクト51に共有情報55を表示することによってできるだけ多くのユーザにキャンペーンの共有情報55を視認させるようにしてもよい。或いは、共有情報55の訴求効果を高めたい場合には、共有情報55の閾値を「3」とする。パラメータの値が「3」以上の表示オブジェクト51は、移動可能空間73のうち目立つ位置に配置された表示オブジェクト51又は表示面積が大きい表示オブジェクト51である。そして、パラメータの値が「3」以上の表示オブジェクト51に共有情報55を表示することによって共有情報55の訴求効果の向上を図ることができる。
ユーザ装置20又は管理サーバ15は、優先度に関するパラメータの値をユーザの行動(操作)に基づいて動的に決定してもよい。例えば、ユーザ装置20又は管理サーバ15は、仮想カメラ65の仮想的な光軸に基づいて、優先度に関するパラメータの値を動的に決定する。仮想的な光軸は、アバターオブジェクト60の視線方向、ユーザの移動可能空間73内での視線方向と言い換えることもできる。このとき、光軸に対する相対距離が相対的に短い表示オブジェクト51に対してパラメータの値を大きくして優先度を高くするとともに、光軸に対する相対距離が相対的に長い表示オブジェクト51に対してパラメータの値を小さくして優先度を低くする。光軸に対する相対距離は、表示オブジェクト51から光軸に向かって延在する垂線の長さで表すことができる。或いは、ユーザ装置20又は管理サーバ15は、アバターオブジェクト60の移動可能空間73内における行動範囲に基づいて、優先度に関するパラメータの値を動的に決定する。行動範囲は、アバターオブジェクト60が移動した軌跡に基づき特定される。行動範囲は、例えばアバターオブジェクト60の移動軌跡を含む範囲である。ユーザ装置20又は管理サーバ15は、行動範囲に含まれる表示オブジェクト51のパラメータの値を大きくして優先度を高くする。また、ユーザ装置20又は管理サーバ15は、行動範囲に相対的に近い表示オブジェクト51のパラメータの値を大きくして優先度を高くするとともに、行動範囲から相対的に遠い表示オブジェクト51のパラメータの値を小さくして優先度を低くする。このように動的に決定することで、ユーザの行動の傾向に応じて、ユーザが視認しやすい表示オブジェクト51に共有情報55を表示することができる。また、ユーザ毎に行動の傾向が異なる場合にも、各ユーザが視認しやすい表示オブジェクト51に共有情報55を表示することができる。
或いは、ユーザ装置20又は管理サーバ15は、新たな表示オブジェクト51が移動可能空間73に追加された場合に、優先度に関するパラメータを表示オブジェクト51の属性に基づいて動的に決定してもよい。例えば、表示オブジェクト51が高い又は大きいほど、多くのユーザがその表示オブジェクト51を視認することが想定される。このため、表示オブジェクト51の高さ、大きさに基づいて優先度に関するパラメータの値を動的に決定してもよい。表示オブジェクト51が高いほど優先度に関するパラメータの値を大きくするようにしてもよい。表示オブジェクト51が大きいほど優先度に関するパラメータの値を大きくするようにしてもよい。表示オブジェクト51の属性は、高さや大きさ以外に、色、表示オブジェクト51に関連付けられたエフェクト(動画での表現)に基づいて決定されてもよい。
また、共有情報55が広告である場合には、表示オブジェクト51のパラメータの値や表示オブジェクト51の数に応じて、広告主が広告費として支払う対価を決定してもよい。或いは共有情報55が広告である場合には、仮想カメラ65の視野範囲に共有情報55が含まれた回数をユーザ装置20が計測するようにしてもよい。仮想カメラ65の視野範囲に共有情報55が含まれることは、ユーザ装置20のディスプレイ109に共有情報55が表示された回数を言い換えることもできる。ユーザ装置20は計測回数を管理サーバ15に送信する。管理サーバ15は、各ユーザ装置20から受信した計測回数を合計する。そして、合計回数に基づいて広告主が広告費として支払う対価を決定する。計測回数が大きくなるに伴い対価は大きくなる。
第2実施形態によれば、第1実施形態の(1-1)~(1-3)に記載の効果に加え、以下の効果を得ることができる。
(2-1)第2実施形態では、アバターオブジェクト60との位置関係が表示条件を満たした表示オブジェクト51に共有情報55が表示される。アバターオブジェクト60に近い表示オブジェクト51を選択する場合は、仮想空間画面70に表示されやすい表示オブジェクト51に共有情報55が表示される。ユーザ装置20は、全ての表示オブジェクト51に共有情報55を表示する必要が無いのでレンダリングに関する処理負荷を軽減することができる。
(第3実施形態)
以下、図15~図17に従って、プログラム、情報処理方法及び情報処理装置の第3実施形態について説明する。第3実施形態では、視聴ユーザ装置22もアプリ内ブラウザを起動可能とする。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
図15は、共有指示情報を受信した配信ユーザ装置21又は視聴ユーザ装置22が共有情報55を表示する処理の手順を示す。共有部40は、共有指示情報を管理サーバ15から受信する(ステップS20)。起動部39は、起動選択部を画面に表示する(ステップS21)。起動選択部は、共有情報55を自装置のアプリ内ブラウザで表示するか否かを選択するためのUIである。
また、第3表示制御部38は、共有指示情報に含まれるURLを用いて共有情報55を表示オブジェクト51に表示する(ステップS22)。このステップS22は、ステップS21の前に実行してもよく、ステップS21と同時に実行してもよい。
起動部39は、起動選択部に対するユーザの操作に基づいてアプリ内ブラウザを起動するか否かを判定する(ステップS23)。起動部39は、視聴ユーザ12の操作に基づきアプリ内ブラウザを起動しないと判定すると(ステップS23:NO)、表示処理を終了する。
一方、起動部39はアプリ内ブラウザを起動する操作が行われたと判断すると(ステップS23:YES)、アプリ内ブラウザを起動する(ステップS24)。アプリ内ブラウザは、共有指示情報に含まれるURLのウェブデータに基づく画面をアプリ内ブラウザで表示する(ステップS25)。
図16は、視聴ユーザ装置22が表示した視聴画面70Dの一例である。視聴ユーザ装置22の第3表示制御部38は、ホストユーザ11Hに対応する仮想カメラ65からみた仮想空間画像を表示する。図16の例は、三人称視点でレンダリングを行った視聴画面70Dである。三人称視点の視聴画面70Dは、ホストユーザ11Hのアバターオブジェクト60の画像を含む。
表示オブジェクト51には、共有情報55が表示されている。また、視聴画面70Dは起動選択部80を含む。起動選択部80は、ブラウザ画面75を開くためのボタン81と、ブラウザ画面75を開かないことを選択するボタン82とを含む。
図17は、ブラウザ画面75を開くボタン81に対するユーザ操作を受け付けたときに表示する視聴画面70Eである。視聴画面70Eは、ブラウザ画面75を含む。視聴ユーザ12は、ブラウザ画面75に表示された共有情報55に対応するウェブサイトを閲覧することができる。例えば、視聴ユーザ12は、ブラウザ画面75に表示されたUI要素に対する操作を行うことによってウェブサイトに掲載された商品を購入することができる。
第3実施形態によれば、第1実施形態の(1-1)~(1-4)に記載の効果に加え、以下の効果を得ることができる。
(3-1)第3実施形態では、他のユーザ10が共有した共有情報55に対応するブラウザ画面75を表示するか否かを選択することができる。共有情報55に興味を持ったユーザ10は、独立したウェブブラウザを起動し検索を行うことなく、アプリ内ブラウザを起動することによって共有情報55に関する詳細な情報を収集することができる。また、共有指示情報を受信したユーザ装置20は、共有指示情報を受信したときにアプリ内ブラウザを自動的に起動しないため、視聴ユーザ12が煩わしさを覚えることを抑制することができる。
(第4実施形態)
以下、図18に従って、プログラム、情報処理方法及び情報処理装置の第4実施形態について説明する。第4実施形態では、配信ユーザ装置21は、配信ユーザ11が選択した任意の情報を共有できる。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
図18は、配信ユーザ11がアプリ内ブラウザを起動した後に表示される仮想空間画面70Fである。第1UI要素71には、検索が可能なウェブサイトのURLが関連付けられている。起動部39は、第1表示制御部36によって第1UI要素71に対する操作が受け付けられると、アプリ内ブラウザを起動する。アプリ内ブラウザは、検索窓83及び検索実行ボタン84を含む画面を表示する。配信ユーザ11は、検索窓83に検索ワードを入力した後、検索実行ボタン84を選択する。
配信ユーザ装置21は、検索ワードを検索エンジンを備えたウェブサーバ120に送信する。配信ユーザ装置21は、検索結果をウェブサーバ120から受信し、受信した検索結果をブラウザ画面75で表示する。アプリ内ブラウザは、表示された検索結果から一つを選択する操作を受け付けると、選択された検索結果に対応するURLのウェブデータをウェブサーバ120に要求する。アプリ内ブラウザは、ウェブサーバ120からウェブデータを受信するとブラウザ画面75にウェブデータに基づく画像を表示する。図10と同様に、ブラウザ画面75内又はその近傍には第2UI要素72が表示されている。第2表示制御部37は、第2UI要素72に対する操作を受け付けて、共有対象のURLを含む共有要求を管理サーバ15に送信する。
第4実施形態によれば、第1実施形態の(1-1)~(1-4)に記載の効果に加え、以下の効果を得ることができる。
(4-1)第4実施形態では、配信ユーザ11が検索した任意の情報を他のユーザ10に共有することができるため、共有可能な情報の幅を広げることができる。
(第5実施形態)
以下、図19に従って、プログラム、情報処理方法及び情報処理装置の第5実施形態について説明する。第5実施形態では、配信ユーザ11及び視聴ユーザ12の区別なく、ユーザ10は移動可能空間73を移動することができる。つまり、本実施形態においては、ユーザ装置20は、上記各実施形態における配信ユーザ装置21のように、描画データを管理サーバ15に送信する。描画データは、少なくとも各ユーザ10のアバターオブジェクト60の位置を含む。また、ユーザ装置20は、管理サーバ15を介して他のユーザ装置20から受信した描画データを用いて他のユーザのアバターオブジェクト60を描画する。以下、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
本実施形態では、全てのユーザ10が情報を共有することができる。このため、各ユーザ10が任意のタイミングで共有をそれぞれ行うと、一つの表示オブジェクト51に表示される共有情報55が頻繁に変更される可能性がある。その結果、ユーザ10が共有情報55を十分に確認する前に、共有情報55が別の共有情報55に切り替わってしまう可能性がある。
そこで本実施形態では、管理サーバ15が共有要求を受け付けた場合に全ての表示オブジェクト51に共有情報55を表示するのではなく、複数の表示オブジェクト51に順番に共有情報55を表示する。
図19に示すように、移動可能空間73の表示オブジェクト51A~51Dには、順番N(1~4)が関連付けられている。管理サーバ15は、共有要求を受信したとき、この順番Nに基づいて、表示オブジェクト51への共有情報55の表示を割り振る。
管理サーバ15は、アバターオブジェクト60Aに対応する第1のユーザ10のユーザ装置20から共有要求を受信すると、順番Nが「1」である表示オブジェクト51Aに共有要求の対象とする共有情報55を表示するように各ユーザ装置20に共有指示情報を送信する。共有指示情報は、共有対象のURL、表示オブジェクト51Aの識別情報が含まれる。
次に、管理サーバ15は、アバターオブジェクト60Bに対応する第2のユーザ10のユーザ装置20から共有要求を受信すると、順番Nが「2」である表示オブジェクト51Bに共有要求の対象とする共有情報55を表示するように各ユーザ装置20に共有指示情報を送信する。共有指示情報は、共有対象のURL、表示オブジェクト51Bの識別情報が含まれる。
同様にして、管理サーバ15は、アバターオブジェクト60Cに対応する第3のユーザ10のユーザ装置20から共有要求を受信すると、順番Nが「3」である表示オブジェクト51Cに共有要求の対象とする共有情報55を表示するように各ユーザ装置20に共有指示情報を送信する。共有指示情報は、共有対象のURL、表示オブジェクト51Cの識別情報が含まれる。
管理サーバ15は、全ての表示オブジェクト51A~51Dに対して共有情報55が表示された状態で新たに共有要求を受信すると、順番Nが「1」である表示オブジェクト51に表示されている共有情報55を非表示にするように各ユーザ装置20に非表示指示を送信する。そして、新たな共有指示情報を各ユーザ装置20に送信する。これにより、各ユーザ装置20の第3表示制御部38は、新たな共有情報55を表示オブジェクト51Aに表示する。
第5実施形態によれば、第1実施形態の(1-1)~(1-4)に記載の効果に加え、以下の効果を得ることができる。
(5-1)第5実施形態では、全てのユーザ10が情報を共有することができる。また、各ユーザ10が共有した共有情報55を、別の表示オブジェクト51に順番に表示するので、仮に共有要求の送信頻度が高くなったとしても、共有情報55の表示時間が、各ユーザ10が確認が難しくなる程度に短くなることがない。このため、各ユーザ10は共有情報55を十分に確認することが可能となる。
上記各実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
<ユーザ>
・上記各実施形態では、配信ユーザ11は、画像(映像)に関する情報及び音声に関する情報の少なくとも一方を送信する側のユーザを意味する。例えば、配信ユーザ11は、単独での動画配信、複数人が参加可能なコラボレーション配信を実行するユーザである。又は、配信ユーザ11は、複数人が参加すること及び複数人が視聴することの少なくとも一方が可能なビデオチャット又はボイスチャット、複数人が参加すること及び複数人が視聴することの少なくとも一方が可能な仮想空間上でのイベント(パーティ等)を主催又は開催するユーザであればよい。すなわち、配信ユーザ11は、ホストユーザ、主催ユーザ又は開催ユーザと言い換えることもできる。
一方で、視聴ユーザ12は、映像に関する情報及び音声に関する情報の少なくとも一方を受信する側のユーザを意味する。ただし、視聴ユーザ12は上記情報を受信するのみならず、リアクションを行い得る。例えば、視聴ユーザ12は、動画配信、コラボレーション配信を視聴するユーザである。又は視聴ユーザ12は、ビデオチャット、ボイスチャットやイベントに参加及び視聴の少なくとも一方を行うユーザであればよい。そのため、視聴ユーザ12は、ゲストユーザ、参加ユーザ、リスナー、観覧ユーザ、応援ユーザ等と言い換えることもできる。
・第1実施形態~第4実施形態では、配信ユーザ11が情報を共有(提供)することを前提とした。これに代えて、これらの実施形態において、配信ユーザ11だけでなく視聴ユーザ12も情報を共有(提供)することを可能としてもよい。この場合、視聴ユーザ装置22の第1表示制御部36は、第1UI要素71を仮想空間画面70に表示する。また、第2表示制御部37は、第2UI要素72を仮想空間画面70に表示する。起動部39はアプリ内ブラウザを起動する。アプリ内ブラウザは、ウェブデータを表示する。
<アバターオブジェクト>
・上記各実施形態では、ユーザ装置20は、配信ユーザ11に対応するアバターオブジェクト60を、配信ユーザ11の動作を検出したトラッキングデータ又はエモートデータを用いて描画するようにした。これによれば、配信ユーザ11の動作又は配信ユーザ11が選択した動作がアバターオブジェクト60に反映される。これに代えて若しくは加えて、ユーザ装置20は、一時的に若しくは継続的にトラッキングデータ及びエモートデータを用いずにアバターオブジェクト60を描画するようにしてもよい。この態様では、移動可能空間73に多数のアバターオブジェクト60を描画する際に、ユーザ装置20の描画処理の負荷を軽減することができる。
・上記各実施形態では、ユーザ装置20は、配信ユーザ11に対応するアバターオブジェクト60を描画するようにした。これに代えて、ユーザ装置20は一人称視点で移動可能空間73の画像を描画し、全てのユーザ10に対応するアバターオブジェクト60を描画しなくてもよい。
・上記各実施形態では、ユーザ装置20は、配信ユーザ11に対応するアバターオブジェクト60を描画するようにした。これに代えて若しくは加えて、視聴ユーザ12に対応するアバターオブジェクト60を描画するようにしてもよい。ユーザ装置20は、配信ユーザ11に対応するアバターオブジェクト60に比べて、視聴ユーザ12に対応するアバターオブジェクト60を処理負荷が少ない態様で描画するようにしてもよい。処理負荷が少ない態様とは、例えば、視聴ユーザ12に対応するアバターオブジェクト60を2次元画像で表示すること、視聴ユーザ12に対応するアバターオブジェクト60にモーションデータを反映しないこと、又は視聴ユーザ12の音声を出力しないこと等である。
<動画>
・第1実施形態~第4実施形態では、配信ユーザ装置21が動画を配信することを前提とした。これに代えて若しくは加えて、ユーザ装置20は動画を配信せずに仮想空間の画像を表示してもよい。ユーザ10はアプリケーションを起動して、所望の移動可能空間73を選択する。ユーザ装置20は、各仮想カメラ65からみた移動可能空間73の仮想空間画面を表示する。ユーザ装置20は、ユーザ操作に基づいて、仮想カメラ65の位置を変更する。この態様において、ユーザ10は、移動可能空間73を自由に探索することができる。また、ユーザ10は、移動可能空間73を探索する過程で表示オブジェクト51に表示された共有情報55を視認したり、ユーザ10自身が共有情報55を表示オブジェクト51に表示することができる。
・第1実施形態~第4実施形態では、視聴ユーザ12はルームを選択することによって仮想空間画面を閲覧できるようにした。これに代えて、ユーザ10がホストユーザ11Hに承認された場合のみ、視聴ユーザとして仮想空間画面を閲覧できるようにしてもよい。例えば、ユーザ装置20は、管理サーバ15を介してホストユーザ11Hの配信ユーザ装置21に閲覧要求を送信してもよい。そして、閲覧要求に対する配信ユーザ装置21の承認情報を受信した場合に、承認情報に含まれるURL等を用いて仮想空間画面を表示するようにしてもよい。
<パラメータ>
・ユーザ装置20は、ユーザ10自身に関連付けられたパラメータが所定値以上の場合に共有要求を送信可能としてもよい。又は、管理サーバ15は、パラメータが所定値以上のユーザ10のユーザ装置20から共有要求を受信した場合に他のユーザ装置20に共有指示情報を送信してもよい。パラメータは、累積ポイント、コイン、アプリケーション内のフレンド数であってもよい。フレンドとは、ユーザ自身が相手を承認し、相手もユーザを承認した場合の相手となるユーザをいう。パラメータは、攻撃力、防御力、戦闘力、体力等、アバターオブジェクト60に関わるパラメータであってもよい。
<起動部>
・上記各実施形態では、ユーザ装置20の起動部39はアプリ内ブラウザを起動させ、外部のウェブサーバ120等からURLに対応するウェブデータを取得するようにした。これに代えて若しくは加えて、起動部39は、ユーザ10により第1UI要素71が操作された場合に、管理サーバ15にURLを要求するようにしてもよい。管理サーバ15は、ウェブデータの要求を受信すると、管理サーバ15に記録したURLを読み出す。このURLのウェブデータは、ブラウザ画面75に適したレイアウトに加工されたデータである。管理サーバ15は読み出したURLをユーザ装置20に送信する。ユーザ装置20は、URLを受信すると、URLに対応するウェブページを外部のウェブサーバ120に要求する。この態様において、管理サーバ15は一つの動画の配信期間内においてURLを変更することもできる。例えば、管理サーバ15は、ユーザ装置20からURLの要求を受信する度に、異なるURLをユーザ装置20に送信するようにしてもよい。ユーザ装置20は、第1UI要素71を操作する度に、ブラウザ画面75に異なる画像を表示することができる。
・上述したように起動部39は、アプリ内ブラウザではなく、アプリケーションから独立したウェブブラウザを起動するようにしてもよい。ここでは、アプリケーションから独立したウェブブラウザを単にウェブブラウザという。アプリ内ブラウザの機能は、ウェブブラウザの機能と同様である。この態様において、起動部39は、第1UI要素71に対するユーザ10の操作を受け付けた場合にウェブブラウザを起動する。このとき起動部39は、ウェブブラウザに対して、ウェブデータの取得先のURLを指定する。ウェブブラウザは、第1UI要素71に関連付けられたウェブデータを取得してウェブブラウザで表示する。
共有部40は、第2UI要素72に対するユーザ10の操作を受け付けた場合に、ウェブブラウザに表示された情報を、他のユーザ装置20(他装置)に共有する共有要求を管理サーバ15に送信する。
第3表示制御部38は、第2表示制御部37がウェブブラウザで表示したウェブデータに基づく画像を、テクスチャマッピング等の手法により、共有情報55として表示オブジェクト51に投影する。このとき第3表示制御部38は、ウェブブラウザからウェブデータを取得してもよいし、ウェブブラウザが表示した画面をキャプチャしてもよい。
<表示条件>
・第2実施形態では、条件1及び条件2の少なくとも一方を満たす表示オブジェクト51に共有情報55を表示した。これに代えて、条件1のみが表示条件として設定されていてもよい。又は条件2のみが表示条件として設定されていてもよい。
<優先度>
・移動可能空間73に複数の種類の共有情報55を表示可能としてもよい。この場合、第1実施形態に記載したように移動可能空間73の位置によって第1UI要素71に関連付けられるURLを変更してもよい。或いは、配信期間内の時間帯によって、第1UI要素71に関連付けられるURLを変更してもよい。例えば配信開始後10分間である第1の時間帯においては、第1のURLが関連付けられた第1UI要素71が仮想空間画面70に表示される。第1の時間帯の後の第2の時間帯においては、第2のURLが関連付けられた第1UI要素71が仮想空間画面70に表示される。
・複数の種類の共有情報55を表示可能であって、全ての表示オブジェクト51に共有情報55を表示する場合には、URLには優先度が設定されていてもよい。第3表示制御部38が複数の共有指示情報を受信し、且つそれらの共有指示情報が表示待ちである場合、表示待ちの共有指示情報の中から優先度が高いものから共有情報55として表示してもよい。このとき、共有指示情報には、優先度が含まれる。又は、管理サーバ15は、一定期間内に複数の共有要求を受け付けたとき、優先度が高い共有要求から共有指示情報を各ユーザ装置20に送信する。
<収益>
・管理サーバ15は、ユーザ装置20において第1UI要素71が操作された場合に、ユーザ装置20から操作検出情報を受信してもよい。管理サーバ15は、操作検出情報を用いて、各ユーザ装置20が第1UI要素71を操作した回数を合計するとともに、その合計回数に応じて広告費を算出するようにしてもよい。または、管理サーバ15は、ユーザ装置20において第2UI要素72が操作された場合に、ユーザ装置20から操作検出情報を受信してもよい。管理サーバ15は、操作検出情報を用いて、各ユーザ装置20が第2UI要素72を操作した回数を合計するとともに、その合計回数に応じて広告費を算出するようにしてもよい。これによれば、ユーザ10がウェブデータに基づくブラウザ画面75を閲覧した回数又は共有した回数に基づき算定される効果に応じて広告費を変更することができる。
<配信及び視聴の方式>
・上記各実施形態において、ユーザ装置20は、クライアントレンダリング方式で動画を配信及び視聴するようにしたが、上記した各方式で配信及び視聴するようにしてもよい。例えば、ユーザ装置20がブラウザレンダリング方式で描画する場合、ユーザ装置20は、アプリ内ブラウザ又は独立したウェブブラウザで仮想空間画面70を表示する。また、ユーザ装置20は、第1UI要素71が操作された場合、アプリ内ブラウザ又はウェブブラウザで別のブラウザ画面75を開くとともに、第1UI要素71に関連付けられたウェブデータを表示する。
ブラウザレンダリング方式において、仮想空間画面70及びブラウザ画面75を表示するファイルを、レンダリングにより生成する方式として、静的レンダリング(Static Server-Side Rendering)、サーバーサイドレンダリング(Server-Side Rendering)、クライアントサイドレンダリング(Client-Side Rendering)、プリレンダリング(CSR with Prerendering)、ハイドレーションレンダリング(SSR with (Re)Hydration)等の公知の方法の少なくとも一つを用いることができる。ここでいうレンダリングは、マークアップ言語等で記載されたデータを解釈し、仮想空間画面70及びブラウザ画面75に表示する画像要素や文字の配置を計算することをいう。
静的レンダリングでは、ウェブサーバ120が予め静的なHTMLファイルを記録し、ユーザ装置20が静的なHTMLファイルをウェブサーバ120からダウンロードする。ユーザ装置20はレンダリング済みのHTMLファイルをディスプレイ109に出力して仮想空間画面70及びブラウザ画面75を表示する。サーバーサイドレンダリング(SSR)では、ウェブサーバ120が、ユーザ装置20のリクエストに応じてレンダリング等を行うとともに、レンダリングを行ったHTMLファイルをユーザ装置20に送信する。ユーザ装置20では、ダウンロードしたHTMLファイルをディスプレイ109に出力して仮想空間画面70及びブラウザ画面75を表示する。なお、ウェブサーバ120はアプリケーションサーバを含む。クライアントサイドレンダリング(CSR)では、ユーザ装置20がJavaScript(登録商標)を実行することによってレンダリングを行う。このときユーザ装置20は、簡易的なHTMLファイルをウェブサーバ120からダウンロードするとともに、必要なJavaScript(登録商標)及びCSSファイル等をダウンロードする。CSRの一種であるプリレンダリングでは、ユーザ装置20が、予め一部のHTMLファイルを生成及び記録しておき、リクエストに応じて必要なコンテンツをウェブサーバ120からダウンロードしてレンダリングする。ハイドレーションレンダリングでは、ウェブサーバ120がレンダリングをしていないHTMLファイルを生成及び記録する。ユーザ装置20は、ウェブサーバ120からHTMLファイルをダウンロードするとともに、HTMLファイルに基づいて必要なデータをダウンロードしてレンダリングする。なお、上記の各方式において、ユーザ装置20は、ウェブサーバ120ではなく、管理サーバ15から必要なデータを取得するようにしてもよい。
<情報処理システム>
・上記各実施形態では、ユーザ装置20は、スマートフォン、携帯電話機、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ等の情報処理装置とした。これに代えて、情報処理システムを、動画配信用のスタジオに設けられたシステムとしてもよい。情報処理システムは、情報処理装置、サーバ、配信ユーザ11の身体に装着されるセンサユニット、センサユニットの位置を検出するトラッキングシステム、操作部、スピーカ、ディスプレイ等を有する。トラッキングシステムは、同期用のパルスレーザ光を出射する多軸レーザエミッターを備えていてもよい。センサユニットは、レーザ光を検出するセンサを備え、同期パルスで同期をとりつつ、自らの位置及び向きを検出する。
・ユーザ装置20は、アプリケーションの実行により、第1表示制御部36、第2表示制御部37、第3表示制御部38、起動部39及び共有部40として機能するようにした。これらのうち少なくとも一つは、管理サーバ15、又は情報処理システム1を構成する他の装置が実行するようにしてもよい。例えば、管理サーバ15は、第1UI要素71を表示させる要求、アプリ内ブラウザを起動する要求、及び第2UI要素72を表示させる要求の少なくとも一つをユーザ装置20に送信してもよい。また管理サーバ15は、有情報を、仮想空間内に位置する表示オブジェクト51に表示する画像データをユーザ装置20に送信するようにしてもよい。
次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
[A]
1又は複数のコンピュータを、
アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御部と、
前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動部と、
前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御部と、
前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有部と、
前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御部と、して機能させる、プログラム。
[B]
前記第3表示制御部は、前記他装置から送信された前記共有要求に基づく指示を前記サーバから受信した場合に、前記他のユーザが共有する情報を前記表示オブジェクトに表示する、[A]に記載のプログラム。
[C]
前記第3表示制御部は、前記仮想空間に位置する全ての前記表示オブジェクトに対して前記共有情報を表示する、[A]又は[B]に記載のプログラム。
[D]
前記第3表示制御部は、前記仮想空間に位置する複数の前記表示オブジェクトのうち、前記仮想空間における前記ユーザの位置との関係である位置関係が表示条件を満たした前記表示オブジェクトに前記共有情報を表示する、[A]又は[B]に記載のプログラム。
[E]
前記第3表示制御部は、前記他装置から送信された前記共有要求に基づく指示を前記サーバから受信した場合に、前記アプリ内ブラウザを起動するか否かを選択可能な第3UI要素を表示し、
前記起動部は、前記第3UI要素において前記アプリ内ブラウザを起動する操作を受け付けた場合に、前記共有情報を前記アプリ内ブラウザで表示する、[A]~[D]のいずれか1項に記載のプログラム。
[F]
前記起動部は、前記第1UI要素に関連付けられたウェブデータをウェブサーバから取得し、取得した前記ウェブデータを前記アプリ内ブラウザで表示する、[A]~[E]のいずれか1項に記載のプログラム。
[G]
前記アプリ内ブラウザで表示された検索画面に対し検索ワードを入力することにより取得した情報を前記共有情報として前記表示オブジェクトに表示する、[A]~[F]のいずれか1項に記載のプログラム。
[H]
前記第1表示制御部は、前記ユーザが、前記仮想空間を表示する動画を配信する配信ユーザである場合のみ、前記第1UI要素および前記第2UI要素を表示する、[A]~[G]のいずれか1項にプログラム。
[I]
1又は複数のコンピュータが、
アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御処理と、
前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動処理と、
前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御処理と、
前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有処理と、
前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御処理と、を実行する情報処理方法。
[J]
アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御部と、
前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動部と、
前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御部と、
前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有部と、
前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御部と、を備える情報処理システム。
[K]
1又は複数のコンピュータを、
ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御部と、
前記第1UI要素に対するユーザの操作を受け付けた場合に前記ブラウザを起動する起動部と、
前記ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御部と、
前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有部と、
前記ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御部と、して機能させる、プログラム。
なお、ブラウザは、アプリ内ブラウザ、及びプログラムとは別にインストールされたウェブブラウザの少なくとも一方を含む。
1…情報処理システム
15…管理サーバ
20…ユーザ装置

Claims (11)

  1. 1又は複数のコンピュータを、
    アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御部と、
    前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動部と、
    前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御部と、
    前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有部と、
    前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御部と、して機能させる、プログラム。
  2. 前記第3表示制御部は、前記他装置から送信された前記共有要求に基づく指示を前記サーバから受信した場合に、前記他のユーザが共有する情報を前記表示オブジェクトに表示する、請求項1に記載のプログラム。
  3. 前記第3表示制御部は、前記仮想空間に位置する全ての前記表示オブジェクトに対して前記共有情報を表示する、請求項1に記載のプログラム。
  4. 前記第3表示制御部は、前記仮想空間に位置する複数の前記表示オブジェクトのうち、前記仮想空間における前記ユーザの位置との関係である位置関係が表示条件を満たした前記表示オブジェクトに前記共有情報を表示する、請求項1に記載のプログラム。
  5. 前記第3表示制御部は、前記他装置から送信された前記共有要求に基づく指示を前記サーバから受信した場合に、前記アプリ内ブラウザを起動するか否かを選択可能な第3UI要素を表示し、
    前記起動部は、前記第3UI要素において前記アプリ内ブラウザを起動する操作を受け付けた場合に、前記共有情報を前記アプリ内ブラウザで表示する、請求項1に記載のプログラム。
  6. 前記起動部は、前記第1UI要素に関連付けられたウェブデータをウェブサーバから取得し、取得した前記ウェブデータを前記アプリ内ブラウザで表示する、請求項1に記載のプログラム。
  7. 前記アプリ内ブラウザで表示された検索画面に対し検索ワードを入力することにより取得した情報を前記共有情報として前記表示オブジェクトに表示する、請求項1に記載のプログラム。
  8. 前記第1表示制御部は、前記ユーザが、前記仮想空間を表示する動画を配信する配信ユーザである場合のみ、前記第1UI要素および前記第2UI要素を表示する、請求項1に記載のプログラム。
  9. 前記アプリ内ブラウザは、前記仮想空間の画面を表示するアプリケーションに含まれるブラウザである、請求項1に記載のプログラム。
  10. 1又は複数のコンピュータが、
    アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御処理と、
    前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動処理と、
    前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御処理と、
    前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有処理と、
    前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御処理と、を実行する情報処理方法。
  11. アプリ内ブラウザを起動する第1UI要素を仮想空間の画面に表示する第1表示制御部と、
    前記第1UI要素に対するユーザの操作を受け付けた場合に前記アプリ内ブラウザを起動する起動部と、
    前記アプリ内ブラウザに表示された情報を共有するための第2UI要素を表示する第2表示制御部と、
    前記第2UI要素に対する前記ユーザの操作を受け付けた場合に、前記アプリ内ブラウザに表示された情報を、前記仮想空間の画面を視認する他のユーザが用いる他装置に共有する共有要求をサーバに送信する共有部と、
    前記アプリ内ブラウザに表示された情報を、共有情報として前記仮想空間内に位置する表示オブジェクトに表示する第3表示制御部と、を備える情報処理システム。
JP2023078488A 2022-12-26 2023-05-11 プログラム、情報処理方法及び情報処理システム Pending JP2024092909A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023078488A JP2024092909A (ja) 2022-12-26 2023-05-11 プログラム、情報処理方法及び情報処理システム
US18/215,845 US20240212264A1 (en) 2022-12-26 2023-06-29 Program, information processing method, and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022208596A JP7281012B1 (ja) 2022-12-26 2022-12-26 プログラム、情報処理方法及び情報処理システム
JP2023078488A JP2024092909A (ja) 2022-12-26 2023-05-11 プログラム、情報処理方法及び情報処理システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022208596A Division JP7281012B1 (ja) 2022-12-26 2022-12-26 プログラム、情報処理方法及び情報処理システム

Publications (1)

Publication Number Publication Date
JP2024092909A true JP2024092909A (ja) 2024-07-08

Family

ID=91583656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023078488A Pending JP2024092909A (ja) 2022-12-26 2023-05-11 プログラム、情報処理方法及び情報処理システム

Country Status (2)

Country Link
US (1) US20240212264A1 (ja)
JP (1) JP2024092909A (ja)

Also Published As

Publication number Publication date
US20240212264A1 (en) 2024-06-27

Similar Documents

Publication Publication Date Title
KR101894021B1 (ko) Vr 공간에서 컨텐트를 제공하는 방법, 디바이스 및 기록매체
US9602957B2 (en) Cross device information exchange using gestures and locations
EP4246963A1 (en) Providing shared augmented reality environments within video calls
US20220076492A1 (en) Augmented reality messenger system
US20230350543A1 (en) Information processing system, information processing method, and computer program
US20230162433A1 (en) Information processing system, information processing method, and information processing program
JP7281012B1 (ja) プログラム、情報処理方法及び情報処理システム
JP2024073473A (ja) コンピュータプログラム、方法、及び、サーバ装置
US12073433B2 (en) Advertisement tracking integration system
WO2023136934A1 (en) Ephemeral artificial reality experiences
JP7245890B1 (ja) 情報処理システム、情報処理方法、情報処理プログラム
US11847297B2 (en) Method of providing real-time VR service through avatar
JP2024092909A (ja) プログラム、情報処理方法及び情報処理システム
JP7550411B1 (ja) プログラム、情報処理方法、サーバ、サーバの情報処理方法及び情報処理システム
US12079909B1 (en) Showing last-seen time for friends in augmented reality (AR)
KR102174569B1 (ko) 증강현실 기반 정보 제공 방법
US20240265145A1 (en) Unlockable content creation portal
KR102193630B1 (ko) 아바타를 통한 실시간 vr 서비스 장치, 방법 및 시스템
US20240267351A1 (en) Rule-based messaging and user interaction system
US20240223520A1 (en) Quotable stories and stickers for messaging applications
US20230360282A1 (en) Generating shared augmented reality scenes utilizing video textures from video streams of video call participants
US20240282015A1 (en) Augmented reality experience with lighting adjustment
US20240171533A1 (en) Saving ephemeral media to a conversation thread
KR20210007930A (ko) 아바타를 통한 실시간 vr 서비스 장치, 방법 및 시스템
JP2022180373A (ja) コンピュータプログラム、方法、及び、サーバ