JP6684952B1 - コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法 - Google Patents

コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法 Download PDF

Info

Publication number
JP6684952B1
JP6684952B1 JP2019121972A JP2019121972A JP6684952B1 JP 6684952 B1 JP6684952 B1 JP 6684952B1 JP 2019121972 A JP2019121972 A JP 2019121972A JP 2019121972 A JP2019121972 A JP 2019121972A JP 6684952 B1 JP6684952 B1 JP 6684952B1
Authority
JP
Japan
Prior art keywords
virtual
trigger
display control
control data
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019121972A
Other languages
English (en)
Other versions
JP2021010077A (ja
Inventor
量生 川上
量生 川上
尚 小嶋
尚 小嶋
寛明 齊藤
寛明 齊藤
俊博 清水
俊博 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2019121972A priority Critical patent/JP6684952B1/ja
Application granted granted Critical
Publication of JP6684952B1 publication Critical patent/JP6684952B1/ja
Priority to US17/611,558 priority patent/US11979684B2/en
Priority to CN202080032037.6A priority patent/CN113841182A/zh
Priority to PCT/JP2020/024705 priority patent/WO2020262420A1/ja
Publication of JP2021010077A publication Critical patent/JP2021010077A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】仮想空間に配置される仮想キャラクタをより見やすく表示させることができる装置、方法及びプログラムを提供する。【解決手段】コンテンツ配信サーバ3は、複数の参加者のそれぞれに対応する仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に応じて取得する仮想キャラクタ配置取得部331と、第1トリガを検知するトリガ検知部332と、複数の仮想キャラクタが配置された仮想空間を表示させるための表示制御データを生成して配信する表示制御データ配信部333を備える。表示制御データ配信部333は、第1トリガが検知されるまでは、複数の仮想キャラクタの配置を、仮想キャラクタ配置取得部によって取得された配置に従った配置とする表示制御データを生成し、第1トリガが検知されたことに応答して、第1トリガに関連付けられた第1仮想キャラクタの仮想空間における配置が変更された表示制御データを生成する。【選択図】図4

Description

本開示は、仮想キャラクタが配置された仮想空間をコンテンツとして配信するコンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法に関する。また、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法に関する。
特許文献1には、仮想キャラクタが配置された仮想空間をディスプレイに表示させるコンテンツ配信サーバが開示されている。仮想キャラクタはユーザが動作させるものであり、通常は、ユーザの動作が仮想キャラクタの動作に忠実に反映されるような表示が行われる。そのようにすることで、仮想空間に対する没入感が得られるためである。
特許第6469279号公報
しかしながら、ディスプレイの大きさは有限であるため、ユーザの動作を仮想キャラクタの動作に忠実に反映させようとすると、仮想キャラクタが見づらくなることがある。
本開示はこのような事情に鑑み、仮想空間に配置される仮想キャラクタをより見やすく表示させることができるコンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム、ならびに、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法を提供することを目的とする。
本開示の一態様によれば、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、第1トリガを検知するトリガ検知部と、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、を備え、前記表示制御データ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成する、コンテンツ配信装置が提供される。
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想キャラクタが強調表示されるよう、前記仮想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって、前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタが所定位置に近づくよう、前記仮想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタが所定位置を向くよう、前記仮想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、前記所定位置は、前記第2仮想キャラクタの位置であるのが望ましい。
前記所定位置は、前記複数の仮想キャラクタのいずれとも異なる位置であるのが望ましい。
前記所定位置は、前記複数の仮想キャラクタのうち、前記第1トリガと関連付けられていない第3仮想キャラクタの位置であるのが望ましい。
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、前記表示制御データは、前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第1表示制御データと、前記第1トリガに関連付けられていない第3仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第2表示制御データと、を含み、前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想キャラクタが強調表示されるよう、前記第1仮想キャラクタの配置が変更された前記第1表示制御データを生成し、前記第1トリガが検知されるまでも、前記第1トリガが検知された後も、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記第2表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタおよび前記第1トリガに関連付けられた第2仮想キャラクタが互いに向き合うよう、前記仮想空間における前記第1仮想キャラクタおよび前記第2仮想キャラクタの配置が変更された前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガに関連付けられていない第3仮想キャラクタが前記第1仮想キャラクタを向くよう、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタが発話する際には前記第3仮想キャラクタが前記第1仮想キャラクタを向くよう、前記第1トリガに関連付けられた第2仮想キャラクタが発話する際には前記第3仮想キャラクタが前記第2仮想キャラクタを向くよう、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想空間における位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタの表示態様が変更された前記表示制御データを生成するのが望ましい。
前記第1トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1仮想キャラとの会話開始に対応するのが望ましい。
前記トリガ検知部は、前記第1トリガが検知された後に第2トリガを検知し、前記表示制御データ配信部は、前記第2トリガが検知されたことに応答して、配置が変更されていた前記第1仮想キャラクタの前記仮想空間における配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置に戻した前記表示制御データを生成するのが望ましい。
前記第2トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1仮想キャラとの会話開始に対応するのが望ましい。
本開示の別の態様によれば、コンピュータを、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、第1トリガを検知するトリガ検知部と、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、として機能させ、前記表示制御データ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成する、コンテンツ配信プログラムが提供される。
本開示の別の態様によれば、仮想キャラクタ配置取得部が、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得するステップと、トリガ検知部が、第1トリガを検知するステップと、表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信するステップと、を備え、前記表示制御データ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成する、コンテンツ配信方法が提供される。
本開示の別の態様によれば、参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配信サーバに送信するトリガ生成部と、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、を備え、前記表示制御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信する、コンテンツ表示装置が提供される。
本開示の別の態様によれば、コンピュータを、参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配信サーバに送信するトリガ生成部と、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、として機能させ、前記表示制御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信する、コンテンツ表示プログラムが提供される。
仮想キャラクタ制御部が、参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信するステップと、トリガ生成部が、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配信サーバに送信するステップと、表示制御部が、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるステップと、を備え、前記表示制御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信する、コンテンツ表示方法が提供される。
仮想空間に配置される仮想キャラクタを見やすくできる。
一実施形態に係るコンテンツ配信システムの概略構成を示すブロック図。 参加者端末1aの概略構成を示すブロック図。 視聴者端末2の概略構成を示すブロック図。 コンテンツ配信サーバ3の概略構成を示すブロック図。 会話開始前のコンテンツ配信システムの処理動作の一例を示すシーケンス図。 アバターA〜Dが仮想空間に配置された状態を模式的に示す図。 参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図。 参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図。 会話開始後のコンテンツ配信システムの処理動作の一例を示すシーケンス図。 参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図。 参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図。 図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 会話終了後のコンテンツ配信システムの処理動作の一例を示すシーケンス図。
以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。
図1は、一実施形態に係るコンテンツ配信システムの概略構成を示すブロック図である。コンテンツ配信システムは、参加者端末1a〜1d、視聴者端末2およびコンテンツ配信サーバ3などから構成され、これらはWAN(World Area Network)などのネットワークを介して通信可能に接続される。なお、便宜上、4つの参加者端末1a〜1dおよび1つの視聴者端末2を描いているが、これらの数に何ら制限はない。
このコンテンツ配信システムは、参加者端末1a〜1dのユーザのそれぞれに対応するアバター(仮想キャラクタ)が所定の仮想空間内で活動する様子(以下「コンテンツ」という)を、参加者端末1a〜1dや視聴者端末2でリアルタイムに視聴できるようにするものである。
[参加者端末1a〜1dの構成]
参加者端末1a〜1dはアバターを仮想空間内で活動させるユーザ(以下「参加者」という)が用いるものである。なお、以下では、自身に対応するアバターを仮想空間内で活動させることを「参加する」ともいう。そして、参加者端末1a〜1dを用いる参加者をそれぞれ参加者A〜Dと呼び、参加者A〜Dに対応するアバターをそれぞれアバターA〜Dと呼ぶ。参加者端末1a〜1dの構成は共通するため、代表して参加者端末1aについて説明する。
図2は、参加者端末1aの概略構成を示すブロック図である。参加者端末1aは、通信部11、操作部12、動作入力部13、記憶部14、ディスプレイ15および制御部16などを有する。
通信部11は、有線通信または無線通信を行うためのNIC(Network Interface Card controller)を有する通信インターフェースであり、ネットワークを介してコンテンツ配信サーバ3と通信を行う。操作部12は参加者が種々の指示を行うための入力インターフェースである。動作入力部13はアバターを仮想空間内で活動させるための動作を参加者から受け付ける入力インターフェースである。記憶部14は、RAM(Random Access Memory)やROM(Read Only Memory)などから構成され、各種制御処理を実行するためのプログラムや種々のデータなどを非一時的あるいは一時的に記憶する。ディスプレイ15にはコンテンツなどが表示される。
制御部16は、アバター制御部161、トリガ生成部162および表示制御部163などを有する。これら各部の少なくとも一部は、ハードウェアによって実装されてもよいし、参加者端末1aの処理回路(プロセッサ)が記憶部14に記憶された所定のプログラムを実行することによって実現されてもよい。
アバター制御部161は、参加者Aによる動作入力部13に対する動作に応じて、アバターを仮想空間内で活動させるためのデータを生成する。ここでの活動とは、移動などの動作や会話などである。このデータは通信部11からコンテンツ配信サーバ3に送信される。なお、このデータは通信部11から他の参加者端末1b〜1dあるいは視聴者端末2に送信されてもよい。
トリガ生成部162は、ユーザによる操作部12に対する所定操作あるいは動作入力部13に対する所定動作に応じて、トリガを生成する。このトリガは通信部11からコンテンツ配信サーバ3に送信される。なお、このトリガは通信部11から他の参加者端末1b〜1dあるいは視聴者端末2に送信されてもよい。本実施形態では、トリガの例として、他ユーザに対応するアバターとの会話開始に対応する会話開始トリガと、開始された会話の終了に対応する会話終了トリガについて述べる。後述するように、トリガに応じて仮想空間内に配置されたアバターの配置が変更される。
表示制御部163は、コンテンツ配信サーバ3から送信される表示制御データ(後述)を受信し、この表示制御データに基づいてディスプレイ15にコンテンツを表示させる。
一例として、参加者端末1aはスマートフォン(あるいはタブレット端末)であってよい。スマートフォンは、タッチパネルディスプレイや、マイクを有する。タッチパネルディスプレイは、例えば液晶ディスプレイと透過性のタッチパッドとが重ね合わせて配置されたものであり、液晶ディスプレイがディスプレイ15として機能し、タッチパッドが操作部12および動作入力部13として機能する。
そして、タッチパッドに対する参加者の操作に応じて、仮想空間内のアバターが活動する。例えば、参加者がタッチパッド上で右方向にスワイプすることで、アバターが仮想空間内で右方向に移動する。また、マイクが動作入力部13として機能し、マイクに対する参加者の発話に応じて仮想空間内のアバターが活動してもよい。例えば、マイクに対するユーザの発言が仮想空間におけるアバターの発言に反映されてもよい。その他、スマートフォンに設けられた加速度センサ等の各種センサやボタンが操作部12および/または動作入力部13として機能してもよい。
別の例として、参加者端末1aの操作部12は、操作ボタン、キーボード、ポインティングデバイスなどから構成されるVR(Virtual Reality)用のスティック型コントローラであってもよい。動作入力部13は参加者の動きを検出するモーションセンサであってもよい。検出された参加者の動き(モーションデータ)に応じて、仮想空間内のアバターが動作する。例えば、参加者が右を向くと、仮想空間内でアバターが右を向く。さらに、ディスプレイ15はHMD(Head Mount Display)であってもよい。
以上述べたように、参加者端末1aは、スマートフォンのように1つの装置から構成されてもよいし、VR用コントローラ、モーションセンサおよびHMDのように複数の装置から構成されてもよい。
[視聴者端末2の構成]
視聴者端末2は、コンテンツに参加することなく、コンテンツを視聴するユーザ(以下「視聴者」という)が用いるものである。
図3は、視聴者端末2の概略構成を示すブロック図である。視聴者端末2は、参加者端末1aにおける動作入力部13、アバター制御部161およびトリガ生成部162を省略したものとなっている。コンテンツの視聴のみであれば、このような簡易な構成の視聴者端末2で足りる。もちろん、コンテンツに参加することなく、参加者端末1aを用いてコンテンツを視聴できてよい。
[コンテンツ配信サーバ3の構成]
図4は、コンテンツ配信サーバ3の概略構成を示すブロック図である。コンテンツ配信サーバ3は、通信部31、記憶部32および制御部33などを有する。なお、コンテンツ配信サーバ3は1つの装置から構成されてもよいし、複数の装置から構成されてもよい。
通信部31は、有線通信または無線通信を行うためのNICを備える通信インターフェースであり、ネットワークを介して参加者端末1a〜1dおよび視聴者端末2と通信を行う。記憶部32は、RAMやROMなどから構成され、各種制御処理を実行するためのプログラムや種々のデータなどを非一時的あるいは一時的に記憶する。
制御部33は、アバター配置取得部331、トリガ検知部332、および、表示制御データ配信部333などを有する。これらの少なくとも一部は、ハードウェアで実装されてもよいし、コンテンツ配信サーバ3の処理回路(プロセッサ)が記憶部32に記憶された所定のプログラムを実行することによって実現されてもよい。
アバター配置取得部331は、各参加者に対応する各アバターの仮想空間における配置を、参加者端末1a〜1dのアバター制御部161から取得する。例えば、参加者端末1aの動作入力部13に対する参加者Aの動作に対応して、アバターAの仮想空間における配置を取得する。取得した配置が一時的に記憶部32に記憶されてもよい。なお、本明細書における配置とは、仮想空間におけるアバターの位置およびアバターの向きの両方でもよいし、少なくとも一方でもよい。
トリガ検知部332は参加者端末1a〜1dのトリガ生成部162によってトリガが生成されたことを検知する。ここで、会話開始トリガには会話に参加するアバター(以下「会話アバター」という)が関連付けられている。言い換えると、会話開始トリガに関連付けられているのが会話アバターであり、関連付けられていないアバターは会話に参加しない(以下「非会話アバター」という)。トリガ検知部322は会話開始トリガに関連付けられている会話アバターの特定も行う。なお、会話アバターは、通常は会話開始トリガを生成した参加者端末を用いる参加者に対応するアバターを含む複数のアバターであるが、1つのアバターのみであってもよい。
表示制御データ配信部333は、アバター配置取得部331によって取得された各アバターの配置およびトリガ検知部332によって検知されたトリガに基づき、表示制御データを生成して参加者端末1a〜1dおよび視聴者端末2に配信する。具体的には、表示制御データ配信部333は、アバター制御部333aと、表示制御データ生成部333bとを有する。
アバター制御部333aは各アバターの仮想空間における配置を制御し、各アバターの仮想空間における配置を示すアバター配置情報を生成する。アバター制御部333aは各アバターの表示態様を制御し、アバター配置情報はアバターの表示態様を含んでいてもよい。このアバター配置情報は、参加者端末1a〜1dのディスプレイ15や視聴者端末2のディスプレイ23にコンテンツを表示させるため、すなわち、表示制御データの生成のために用いられる。
具体的には、会話開始トリガが検知されるまでは、アバター制御部333aはアバター配置取得部331が取得した配置に従ってアバターを仮想空間に配置して、アバター配置情報を生成する。会話開始トリガが検知されるまでのアバターの配置は、参加者端末1a〜1dの動作入力部13に対するユーザ動作が忠実に反映されたものといえる。
また、会話開始トリガが検知されたことに応答して、アバター制御部333aは少なくとも一部のアバター(例えば、少なくも一部の会話アバター)の仮想空間における配置を変更して、アバター配置情報を更新する。変更後の配置はアバター配置取得部331が取得した配置とは必ずしも一致しない。すなわち、会話開始トリガが検知された後のアバターの配置は、参加者端末1a〜1dの動作入力部13に対する参加者の動作が忠実に反映されたものにはなっていない。
なお、配置の変更とは、仮想空間における位置の変更でもよいし、仮想空間におけるアバターの向きの変更でもよいし、その両方でもよい。変更の例としては、会話アバターが強調表示されるような変更、会話アバターが所定位置に近づくような変更、会話アバターが所定位置を向くような変更である。また、仮想空間の一部のみがディスプレイ15,23に表示されない場合に、全ての会話アバターが表示されるよう会話アバターの位置を変更するものでもよい。あるいは、会話アバターの表示態様を変更(通常は6頭身だが、会話アバターのみ8頭身にするなど)してもよい。詳細については後述する。
なお、変更前のアバターの配置(アバター配置取得部331によって取得された配置)が失われないよう、アバター制御部333aは当該変更前のアバターの配置を記憶部32に記憶しておくのが望ましい。
そして、会話開始トリガの後に会話終了トリガが検知されたことに応答して、アバター制御部333aは配置が変更されていたアバターの配置を、アバター配置取得部331が取得した配置に戻して、アバター配置情報を更新する。これにより、会話終了トリガが検知された後のアバターの配置は、参加者端末1a〜1dの動作入力部13に対する参加者の動作が忠実に反映されたものに戻る。このとき、アバター制御部333aは、記憶部32に記憶しておいたアバターの配置を利用してもよい。
表示制御データ生成部333bは、アバター制御部333aが生成・更新したアバター配置情報を用い、参加者端末1a〜1dのディスプレイ15および視聴者端末2のディスプレイ23にコンテンツを表示させるための表示制御データを生成する。表示制御データは通信部31から参加者端末1a〜1dおよび視聴者端末2に配信される。
なお、ディスプレイ15,23に表示される画像のレンダリングは、参加者端末1a〜1dの表示制御部163および視聴者端末2の表示制御部251が行ってもよいし、コンテンツ配信サーバ3の表示制御データ生成部333bが行ってもよい。
参加者端末1a〜1dがレンダリングを行う場合、アバター配置情報に基づく仮想空間における各アバターの配置や表示態様を示すデータが表示制御データとして配信される。そして、表示制御データに基づき、参加者端末1a〜1dの表示制御部163が仮想空間に各アバターが配置されたコンテンツの画像を生成して、ディスプレイ15に表示させる。視聴者端末2がレンダリングを行う場合も同様である。
一方、コンテンツ配信サーバ3の表示制御データ生成部333bがレンダリングを行う場合、表示制御データ生成部333bは、アバター配置情報に基づいて、仮想空間に各アバターが配置されたコンテンツの画像に対応するデータ(画像データ)を生成する。そして、生成された画像データが表示制御データとして配信される。そして、この表示制御データに基づいて、表示制御部163,251がディスプレイ15,23にコンテンツの画像を表示させる。
以上述べたように、レンダリングは、参加者端末1a〜1dおよび視聴者端末2が行ってもよいし、コンテンツ配信サーバ3が行ってもよいが、タイムラグが生じないようにするためには前者の方が望ましい。
ここで、参加者端末1a〜1dおよび視聴者端末2に表示されるコンテンツは、参加者端末1a〜1dおよび視聴者端末2に共通でもよいが、互いに異なるのが望ましい。具体的には、参加者端末1aにはアバターAを視点とする仮想空間がコンテンツとして表示される。参加者端末1b〜1dも同様である。また、視聴者端末2には、仮想空間における任意の位置(例えば仮想空間を俯瞰できる位置)に設定された仮想カメラを視点とする仮想空間がコンテンツとして表示される。
また、視点が切替可能であってもよい。例えば参加者端末1aには、初期設定としてアバターAから見た仮想空間が表示されるが、操作部12に対する所定の操作に応答して、他のアバターから見た仮想空間や、仮想カメラから見た仮想空間が表示されてもよい。また、視聴者端末2には、初期設定として仮想カメラから見た仮想空間が表示されるが、操作部22に対する所定の操作に応答して、特定のアバターから見た仮想空間が表示されてもよい。また、仮想空間において、設置位置が異なる、あるいは、ズームが異なる複数の仮想カメラが設定され、いずれの仮想カメラから見た仮想空間を表示するかを切り替え可能であってもよい。さらに、仮想空間の全体が表示されてもよいし、その一部分のみが表示されてもよい。
[会話開始前のコンテンツ配信システムの処理動作]
図5は、会話開始前のコンテンツ配信システムの処理動作の一例を示すシーケンス図である。なお、以下では参加者端末1aのみを記載するが、他の参加者端末1b〜1dも同様である。
参加者Aが参加者端末1aにおける動作入力部13に対して所定の動作を行うと、アバター制御部161は仮想空間内でアバターAを動作させるためのデータを生成し、これをコンテンツ配信サーバ3に送信する(ステップS1)。ここでのアバターAの動作とは、仮想空間におけるアバターAの配置であり、具体的には仮想空間内でアバターAを移動させたり、アバターAが特定の方向を向くようにしたりすることである。
そして、コンテンツ配信サーバ3は上記データを受信する。このデータに基づいて、アバター配置取得部331はアバターAの仮想空間における配置(位置および/または向き)を取得する(ステップS11)。この配置は参加者Aの動作入力部13に対する動作がそのまま反映されている。
続いて、取得された配置に基づいて、アバター制御部333aはアバターAの仮想空間における配置を設定し、アバター配置情報を生成する(ステップS12)。やはり、この配置も参加者Aの動作入力部13に対する動作がそのまま反映されたものである。
次に、生成されたアバター配置情報に基づいて、表示制御データ生成部333bは表示制御データを生成する。そして、表示制御データは参加者端末1aに配信される(ステップS13)。また、他の参加者端末1b〜1dおよび視聴者端末2にも表示制御データが配信される。
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aの表示制御部165は表示制御データを受信する。この表示制御データは各参加者A〜Dの動作に対応してアバターA〜Dが仮想空間に配置されたものとなっている。このような表示制御データに基づいて、表示制御部163はディスプレイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステップS2)。他の参加者端末1b〜1dおよび視聴者端末2も同様にコンテンツを表示させる。以上の処理が、いずれかの参加者端末1a〜1dからアバターを動作させるためのデータが送信される度に繰り返される。
図6は、アバターA〜Dが仮想空間に配置された状態を模式的に示す図である。図示のように、左側から順にアバターA〜Dが配置されているものとする。
図7Aは、参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図であり、図6と対応している。図7Aに示すように、図6のアバターAから見た仮想空間が参加者端末1aのディスプレイ15に表示される。参加者端末1aがスマートフォンである場合、通常のディスプレイ15は縦長であるため、横方向に圧縮されて見えるが、図6におけるアバターA〜Dの位置や向きを忠実に再現したものとなっている。
図7Bは、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図であり、図6と対応している。図7Bに示すように、図6のアバターDから見た仮想空間が参加者端末1bのディスプレイ15に表示される。
図7Cは、視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図であり、図6と対応している。図7Cでは、仮想空間を手前側上方から見る位置に仮想カメラが配置され、仮想空間の全体が仮想カメラの視界に入っていることを想定している。そして、この仮想カメラから見た仮想空間が視聴者端末2のディスプレイ23に表示される。
なお、参加者端末1a〜1dおよび視聴者端末2でレンダリングを行う場合、表示制御データはアバターA〜Dの仮想空間における配置を示せばよいので、参加者端末1a〜1dおよび視聴者端末2に送信される表示制御データは共通とすることができる。そして、参加者端末1a〜1dおよび視聴者端末2のそれぞれが表示制御データを処理し、アバターA〜Dおよび仮想カメラから見た仮想空間を表示する画像を生成する。
一方、参加者端末1a〜1dおよび視聴者端末2でレンダリングを行う場合、図7A〜図7Cに示す画像に対応する画像データが表示制御データとして送信される。そのため、参加者端末1a〜1dおよび視聴者端末2に送信される表示制御データは互いに異なる。
[会話開始後のコンテンツ配信システムの処理動作]
図8は、会話開始後のコンテンツ配信システムの処理動作の一例を示すシーケンス図であり、図5に引き続いて行われるものである。
参加者Aが参加者端末1aに対して会話開始の指示を行うと、トリガ生成部162は会話開始トリガを生成し、これをコンテンツ配信サーバ3に送信する(ステップS21)。なお、会話開始トリガに関連付けられたアバターすなわち会話アバターを特定するための情報もコンテンツ配信サーバ3に送信される。会話開始の指示は操作部12および/または動作入力部13に対して行われる。
参加者端末1aがスマートフォンである場合、会話開始の指示は、例えばマイクへの発話、タッチパネルディスプレイに表示された文字入力欄に対する特定の文字や単語(例えば「!」や「おはよう」等)の入力、ボタンの押下、タッチパネルディスプレイに表示された所定アイコンのタッチ、スマートフォンを縦向きから横向きに回転させたこと(加速度センサで検知される)である。
また、参加者Aは会話アバターを特定してもよい。一例として、タッチパネルディスプレイに表示されているアバターの中から任意のアバターをタップすることで、会話アバターを指定してもよい。あるいは、仮想空間に配置されているアバターの一覧から任意のアバターを選択してもよい。また、独り言のような場合には、会話アバターを特定しなくてもよい(この場合、会話アバターはアバターAのみとなる)。
また、参加者端末1aがVR用のコントローラを含む場合、会話開始の指示はコントローラに設けられた所定のボタンの押下であってよい。そして、コントローラの動きに連動して仮想空間内に表示されるポインタによって、会話アバターを特定してもよい。
会話開始トリガが送信されると、コンテンツ配信サーバ3のトリガ検知部332は会話開始トリガを検知する(ステップS31)。また、トリガ検知部332は当該会話開始トリガに関連付けられた会話アバターを特定する(ステップS32)。なお、会話アバターは必ずしも参加者Aが特定する必要はなく、会話の文脈に応じてトリガ検知部332が自動的に特定してもよい。
会話開始トリガの検知に応答して、アバター制御部333aは少なくとも一部のアバターの仮想空間における配置を変更して、アバター配置情報を更新する(ステップS33)。このような配置の変更を行う結果、仮想空間におけるアバターの配置は、各参加者の動作入力部13に対する動作から外れたものとなる。
なお、ここで更新されるアバター配置情報は参加者端末1a〜1dおよび視聴者端末2ごとに異なり得る。すなわち、参加者端末1a〜1dおよび視聴者端末2のそれぞれ用に(言い換えると、各アバター用および仮想カメラ用に)アバター配置情報が生成される。
次に、生成されたアバター配置情報に基づいて、表示制御データ生成部333bは表示制御データを生成する。そして、表示制御データは参加者端末1aに配信される(ステップS34)。また、他の参加者端末1b〜1dおよび視聴者端末2にも表示制御データが配信される。アバター配置情報が参加者端末1a〜1dおよび視聴者端末2ごとに異なる場合、参加者端末1a〜1dおよび視聴者端末2でレンダリングを行う場合であっても、表示制御情報は参加者端末1a〜1dおよび視聴者端末2ごとに異なる。
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aの表示制御部165は表示制御データを受信する。この表示制御データは、図5のステップS2で受信される表示制御データと比較すると、仮想空間における会話アバターの配置が変更されたものとなっている。このような表示制御データに基づいて、表示制御部163はディスプレイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステップS22)。他の参加者端末1b〜1dおよび視聴者端末も同様にコンテンツを表示させる。
なお、会話開始トリガが検知された後も、コンテンツ配信サーバ3のアバター配置取得部331は、各参加者端末1a〜1dのアバター制御部161からアバターの仮想空間における配置を取得し、アバターの配置に反映させたり、必要に応じて記憶部32に記憶しておく。
図9Aは、参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図である。また、図9Bは、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。図9Cは、視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図である。図9A〜図9Cは、それぞれ図7A〜図7Cと対応している。図6の状態でアバターA,Cを会話アバターとする会話開始トリガが検知されたことを想定しており、図9Aは会話アバターの視点、図9Bは非会話アバターの視点、図9Cは仮想カメラの視点となっている。
図9Aに示すように、会話アバターAの会話相手である会話アバターCがディスプレイ15の中央付近に表示される。より詳しくは、図6の状態から会話アバターCが移動していない(参加者CがアバターCを移動させるための動作を行っていない)場合であっても、会話開始トリガに応答して、会話アバターCがディスプレイ15の中央付近に表示される。これは、図8のステップS33において、参加者端末1a用に会話アバターCが会話アバターAに近づくよう変更されたことを意味する。また、会話アバターCが図6より大きく表示されてもよい。
このようにすることで、仮に会話相手の会話アバターCが自身(会話アバターA)から離れている場合であっても、また、ディスプレイ15が小さい場合であっても、会話アバターCが強調されて見やすく表示できる。
また、会話アバターCが会話アバターAを向くように(ディスプレイ15において正面を向くように)するのが望ましい。より詳しくは、図6の状態で会話アバターCが会話アバターAを向いていない場合であっても、会話開始トリガに応答して、会話アバターCが会話アバターAを向く。会話アバターA,Cが互いに向かい合うのが自然なためである。
さらに、非会話アバターB,Dが会話アバターAまたは会話アバターCを向くようにするのが望ましい。より詳しくは、図6の状態で非会話アバターB,Dが会話アバターAまたは会話アバターCを向いていない場合であっても、会話開始トリガに応答して、非会話アバターB,Dが会話アバターAまたは会話アバターCを向く。非会話アバターB,Dも会話アバターAまたは会話アバターCに着目するのが自然であるためである。また、非会話アバターB,Dは、会話アバターAが発話するタイミングでは会話アバターAを向き(ディスプレイ15において正面を向き)、会話アバターCが発話するタイミングでは会話アバターCを向くようにしてもよい。
また、非会話アバターB,Dの配置位置は図6と同じであってもよいし異なっていてもよい。異なる場合でも、図6の配置位置、より具体的には非会話アバターB,Dの相対的な位置関係を考慮したものであるのが望ましい。例えば、図6では非会話アバターBより右側に非会話アバターDがいるため、図9Aにおいても、そのような位置関係を維持すべく、非会話アバターBより右側に非会話アバターDが配置されるのがよい。いずれにせよ、会話アバターCに比べて重要度は低いので、非会話アバターB,Dは不自然にならないように適宜表示すればよい。
さらに、アバターの発言を吹き出し内に表示してもよい。他の図では図示していないが、同様である。
なお、参加者Aの操作に応じて、ディスプレイ15に表示されるコンテンツを図7Aと図9Aとで切替可能であってもよい。
図9Bに示すように、非会話アバターDに対応する参加者端末1dのディスプレイ15に表示されるコンテンツは図7Aと同じであってもよい。このようなコンテンツは、会話開始トリガが検知された後も、参加者端末1d用には、図8のステップS33における変更を行わず、引き続きアバター配置取得部331によって取得された配置に基づいてアバター制御部333aがアバター配置情報を生成すればよい。
図9Cに示すように、仮想カメラからの視点において、会話アバターA,Cがディスプレイ23の中央付近に表示される。これは、図8のステップS33において、視聴者端末2用に(仮想カメラ用に)会話アバターA,Cが仮想カメラの位置に近づくよう変更されたことを意味する。
このようにすることで、仮に会話アバターA,Cが互いに離れている場合であっても、また、ディスプレイ23が小さい場合であっても、会話アバターA,Cが強調されて、見やすく表示できる。
また、会話アバターA,Cは仮想カメラの位置を向く(ディスプレイ23において正面を向く)ようにするのが望ましい。さらに、会話アバターでないアバターB,Dが会話アバターA,Cを向くようにするのが望ましい。また、非会話アバターB,Dは、会話アバターAが発話するタイミングでは会話アバターAを向き、会話アバターCが発話するタイミングでは会話アバターCを向くようにしてもよい。
さらに、図9Aと同様に、非会話アバターB,Dの配置位置は図6と同じであってもよいし異なっていてもよい。
なお、視聴者ユーザの操作に応じて、ディスプレイ23に表示されるコンテンツを図7Cと図9Cとで切替可能であってもよい。
図10は、図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。図9Bと異なり、会話アバターA,Cが非会話アバターDの位置を向いている(ディスプレイ15において正面を向いている)。このような表示によれば、非会話アバターDに対応する参加者Dにとっても、自らを向いているアバターA,Cが会話アバターであることが分かりやすい。
図11は、図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。図10と異なり、会話アバターA,Cが互いに向き合っている。向き合って会話するような表示が自然であるためである。なお、図9Cにおいても同様に、会話アバターA,Cが互いに向き合うようにしてもよい。
図12は、図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。図10および図11と異なり、会話アバターAは非会話アバターDと会話アバターCの間の位置を向き、会話アバターCは非会話アバターDと会話アバターAの間の位置を向くようにしてもよい。非会話アバターDに対応する参加者DにとってもアバターA,Cが会話アバターであることが分かりやすく、かつ、会話アバターA、Cが向き合っているようにも見え、自然である。なお、図9Cにおいても同様に、会話アバターAが仮想カメラと会話アバターCの間の位置を向き、会話アバターCが仮想カメラと会話アバターAの間の位置を向くようにしてもよい。
図13は、図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。図9Aと同様、会話アバターA,Cがディスプレイ15の中央付近に表示されてもよい。このときの会話アバターA,Cの向きは、図10〜図12のいずれかと同様であってよい。
なお、会話アバターと非会話アバターの配置に関し、予め複数のテンプレートを定めて記憶部32に記憶しておいてもよい。そして、アバター制御部333aは、会話開始トリガが検知されると、会話アバターや非会話アバターの数などに応じて定まるルールに基づいて適切なテンプレートを選択する。そして、アバター制御部333aは選択したテンプレートに各アバターを当て嵌めることによって、仮想空間に各アバターを配置してもよい。
[会話終了後のコンテンツ配信システムの処理動作]
図14は、会話終了後のコンテンツ配信システムの処理動作の一例を示すシーケンス図であり、図8に引き続いて行われるものである。
参加者Aが参加者端末1aに対して会話終了の指示を行うと、トリガ生成部162は会話終了トリガを生成し、これをコンテンツ配信サーバ3に送信する(ステップS41)。会話終了の指示は操作部12および/または動作入力部13に対して行われる。また、会話終了の指示は、会話開始の指示と同様であってよい。
例えば、参加者端末1aがスマートフォンである場合、会話終了の指示は、例えばマイクへの発話、タッチパネルディスプレイに表示された文字入力欄に対する特定の文字や単語の入力、ボタンの押下、タッチパネルディスプレイに表示された所定アイコンのタッチ、スマートフォンを横向きから縦向きに回転させたこと(加速度センサで検知される)である。
また、参加者端末1aがVR用のコントローラを含む場合、会話終了の指示はコントローラに設けられた所定のボタンの押下であってよい。
会話終了トリガが送信されると、コンテンツ配信サーバ3のトリガ検知部332は会話終了トリガを検知する(ステップS51)。
会話終了トリガの検知に応答して、アバター制御部333aは図8のステップS33で変更されていたアバターの配置を元に戻す(ステップS52)。具体的には、アバター制御部333aは、アバター配置取得部331によって取得されたアバターの配置に基づいてアバターAの仮想空間における配置を設定して、アバター配置情報を更新する。これにより、仮想空間における各アバターの配置は参加者の動作入力部13に対する動作がそのまま反映されたものに戻るものである。
次に、アバター配置情報に基づいて、表示制御データ生成部333bは表示制御データを生成し、参加者端末1aに配信する(ステップS53)。また、他の参加者端末1b〜1dおよび視聴者端末2にも表示制御データが配信される。
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aは表示制御データを受信する。この表示制御データに基づいて、表示制御部163はディスプレイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステップS42)。他の参加者端末1b〜1dおよび視聴者端末も同様にコンテンツを表示させる。
以上により、会話開始トリガの検知後は図9A〜図9Cのような表示だったものが、会話終了トリガの検知により、図7A〜図7Cのような表示に戻る。
このように、本実施形態では、会話トリガの開始に応じて仮想空間におけるアバターの配置を変更する。これにより、仮想空間に配置されるアバターを見やすく表示できる。
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が生じない限り、適宜組み合わせ可能である。
1a〜1d 参加者端末
11 通信部
12 操作部
13 操作入力部
14 記憶部
15 ディスプレイ
16 制御部
17 アバター制御部
18 トリガ生成部
19 表示制御部
2 視聴者端末
21 通信部
22 操作部
23 ディスプレイ
24 記憶部
25 制御部
26 表示制御部
3 コンテンツ配信サーバ
31 通信部
32 記憶部
33 制御部
331 アバター配置取得部
332 トリガ検知部
333 表示制御データ配信部
333a アバター制御部
333b 表示制御データ生成部

Claims (18)

  1. 複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタが所定位置に近づくよう、または、所定位置を向くよう、前記仮想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成し、
    前記所定位置は、前記複数の仮想キャラクタのうち、前記第1トリガと関連付けられていない第3仮想キャラクタの位置である、コンテンツ配信装置。
  2. 複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成し、
    前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、
    前記表示制御データは、
    前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第1表示制御データと、
    前記第1トリガに関連付けられていない第3仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第2表示制御データと、を含み、
    前記表示制御データ配信部は、
    前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想キャラクタが強調表示されるよう、前記第1仮想キャラクタの配置が変更された前記第1表示制御データを生成し、
    前記第1トリガが検知されるまでも、前記第1トリガが検知された後も、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記第2表示制御データを生成する、コンテンツ配信装置。
  3. 前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、
    前記所定位置は、前記第2仮想キャラクタの位置である、請求項1に記載のコンテンツ配信装置。
  4. 前記所定位置は、前記複数の仮想キャラクタのいずれとも異なる位置である、請求項1に記載のコンテンツ配信装置。
  5. 複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され、かつ、前記第1仮想キャラクタが発話する際には、前記第1トリガに関連付けられていない第3仮想キャラクタが前記第1仮想キャラクタを向くよう、前記第1トリガに関連付けられた第2仮想キャラクタが発話する際には、前記第3仮想キャラクタが前記第2仮想キャラクタを向くよう、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データを生成する、コンテンツ配信装置。
  6. 複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され、かつ、前記第1トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想空間における位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表示制御データを生成する、コンテンツ配信装置。
  7. 前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタの表示態様が変更された前記表示制御データを生成する、請求項1乃至6のいずれかに記載のコンテンツ配信装置。
  8. 前記第1トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1仮想キャラクタとの会話開始に対応する、請求項1乃至7のいずれかに記載のコンテンツ配信装置。
  9. 前記トリガ検知部は、前記第1トリガが検知された後に第2トリガを検知し、
    前記表示制御データ配信部は、前記第2トリガが検知されたことに応答して、配置が変更されていた前記第1仮想キャラクタの前記仮想空間における配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置に戻した前記表示制御データを生成する、請求項1乃至8のいずれかに記載のコンテンツ配信装置。
  10. 前記第2トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1仮想キャラクタとの会話開始に対応する、請求項9に記載のコンテンツ配信装置。
  11. コンピュータを、
    複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、として機能させ、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタが所定位置に近づくよう、または、所定位置を向くよう、前記仮想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成し、
    前記所定位置は、前記複数の仮想キャラクタのうち、前記第1トリガと関連付けられていない第3仮想キャラクタの位置である、コンテンツ配信プログラム。
  12. コンピュータを、
    複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、として機能させ、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成し、
    前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、
    前記表示制御データは、
    前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第1表示制御データと、
    前記第1トリガに関連付けられていない第3仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第2表示制御データと、を含み、
    前記表示制御データ配信部は、
    前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想キャラクタが強調表示されるよう、前記第1仮想キャラクタの配置が変更された前記第1表示制御データを生成し、
    前記第1トリガが検知されるまでも、前記第1トリガが検知された後も、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記第2表示制御データを生成する、コンテンツ配信プログラム。
  13. コンピュータを、
    複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、として機能させ、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され、かつ、前記第1仮想キャラクタが発話する際には、前記第1トリガに関連付けられていない第3仮想キャラクタが前記第1仮想キャラクタを向くよう、前記第1トリガに関連付けられた第2仮想キャラクタが発話する際には、前記第3仮想キャラクタが前記第2仮想キャラクタを向くよう、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データを生成する、コンテンツ配信プログラム。
  14. 複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、として機能させ、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され、かつ、前記第1トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想空間における位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表示制御データを生成する、コンテンツ配信プログラム。
  15. 仮想キャラクタ配置取得部が、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得するステップと、
    トリガ検知部が、第1トリガを検知するステップと、
    表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信するステップと、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタが所定位置に近づくよう、または、所定位置を向くよう、前記仮想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成し、
    前記所定位置は、前記複数の仮想キャラクタのうち、前記第1トリガと関連付けられていない第3仮想キャラクタの位置である、コンテンツ配信方法。
  16. 仮想キャラクタ配置取得部が、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得するステップと、
    トリガ検知部が、第1トリガを検知するステップと、
    表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信するステップと、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成し、
    前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、
    前記表示制御データは、
    前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第1表示制御データと、
    前記第1トリガに関連付けられていない第3仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第2表示制御データと、を含み、
    前記表示制御データ配信部は、
    前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想キャラクタが強調表示されるよう、前記第1仮想キャラクタの配置が変更された前記第1表示制御データを生成し、
    前記第1トリガが検知されるまでも、前記第1トリガが検知された後も、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記第2表示制御データを生成する、コンテンツ配信方法。
  17. 仮想キャラクタ配置取得部が、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得するステップと、
    トリガ検知部が、第1トリガを検知するステップと、
    表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信するステップと、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され、かつ、前記第1仮想キャラクタが発話する際には、前記第1トリガに関連付けられていない第3仮想キャラクタが前記第1仮想キャラクタを向くよう、前記第1トリガに関連付けられた第2仮想キャラクタが発話する際には、前記第3仮想キャラクタが前記第2仮想キャラクタを向くよう、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データを生成する、コンテンツ配信方法。
  18. 仮想キャラクタ配置取得部が、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得するステップと、
    トリガ検知部が、第1トリガを検知するステップと、
    表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信するステップと、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され、かつ、前記第1トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想空間における位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表示制御データを生成する、コンテンツ配信方法。
JP2019121972A 2019-06-28 2019-06-28 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法 Active JP6684952B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019121972A JP6684952B1 (ja) 2019-06-28 2019-06-28 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
US17/611,558 US11979684B2 (en) 2019-06-28 2020-06-24 Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
CN202080032037.6A CN113841182A (zh) 2019-06-28 2020-06-24 内容分发装置、内容分发程序、内容分发方法、内容显示装置、内容显示程序以及内容显示方法
PCT/JP2020/024705 WO2020262420A1 (ja) 2019-06-28 2020-06-24 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019121972A JP6684952B1 (ja) 2019-06-28 2019-06-28 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020060174A Division JP7257986B2 (ja) 2020-03-30 2020-03-30 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Publications (2)

Publication Number Publication Date
JP6684952B1 true JP6684952B1 (ja) 2020-04-22
JP2021010077A JP2021010077A (ja) 2021-01-28

Family

ID=70286712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019121972A Active JP6684952B1 (ja) 2019-06-28 2019-06-28 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Country Status (4)

Country Link
US (1) US11979684B2 (ja)
JP (1) JP6684952B1 (ja)
CN (1) CN113841182A (ja)
WO (1) WO2020262420A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7318139B1 (ja) 2020-10-20 2023-07-31 カトマイ テック インコーポレイテッド 操縦可能なアバターを有するウェブベースのテレビ会議仮想環境及びその適用

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK202070795A1 (en) * 2020-11-27 2022-06-03 Gn Audio As System with speaker representation, electronic device and related methods
JP7133257B1 (ja) 2022-01-14 2022-09-08 株式会社キッズプレート プログラム、情報処理方法、情報処理装置、および情報処理システム
JP7391340B2 (ja) 2022-03-29 2023-12-05 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7376653B1 (ja) 2022-08-26 2023-11-08 セイコーソリューションズ株式会社 情報処理装置およびプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3562555B2 (ja) * 1997-10-15 2004-09-08 オムロン株式会社 仮想空間制御装置および方法、並びに記録媒体
JP2000135376A (ja) * 1998-10-30 2000-05-16 Square Co Ltd ゲーム装置、情報記録媒体および表示切替方法
JP3452348B2 (ja) 1999-02-08 2003-09-29 日本電信電話株式会社 仮想空間における発話者特定方法及びそのプログラムを記録した記録媒体
US6772195B1 (en) 1999-10-29 2004-08-03 Electronic Arts, Inc. Chat clusters for a virtual world application
JP2003067317A (ja) * 2001-08-30 2003-03-07 Fuji Xerox Co Ltd メッセージ交換方法、コンピュータ、管理装置、記録媒体
JP4048347B2 (ja) * 2001-11-09 2008-02-20 ソニー株式会社 三次元仮想空間表示方法、プログラム及びそのプログラムを格納した記録媒体、並びに、三次元仮想空間制御装置
JP3965111B2 (ja) * 2002-12-11 2007-08-29 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP3720340B2 (ja) * 2003-09-25 2005-11-24 コナミ株式会社 ゲーム装置、ゲーム装置の制御方法及びプログラム
US20050130725A1 (en) * 2003-12-15 2005-06-16 International Business Machines Corporation Combined virtual and video game
JP4227043B2 (ja) * 2004-03-04 2009-02-18 株式会社野村総合研究所 アバター制御システム
JP4884918B2 (ja) * 2006-10-23 2012-02-29 株式会社野村総合研究所 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP4343234B2 (ja) * 2007-03-01 2009-10-14 株式会社コナミデジタルエンタテインメント ゲーム装置、キャラクタ制御方法、および、プログラム
WO2009104564A1 (ja) * 2008-02-20 2009-08-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想空間における会話サーバ、会話のための方法及びコンピュータ・プログラム
JP5444759B2 (ja) * 2009-02-27 2014-03-19 株式会社セガ ゲームシステム、ゲーム端末装置、サーバ、及び制御プログラム
US8949717B2 (en) * 2010-10-18 2015-02-03 Yehonatan Rafael Maor Method of controlling avatars
JP4977248B2 (ja) * 2010-12-10 2012-07-18 株式会社コナミデジタルエンタテインメント ゲーム装置及びゲーム制御プログラム
KR20120092960A (ko) * 2011-02-14 2012-08-22 박창범 가상 캐릭터 제어 시스템 및 방법
JP2016034087A (ja) * 2014-07-31 2016-03-10 Front Row Holdings株式会社 映像表示システム
JP5791837B1 (ja) 2015-02-18 2015-10-07 株式会社 ディー・エヌ・エー ビデオチャットを提供するサーバ、プログラム及び方法
JP2017018364A (ja) * 2015-07-10 2017-01-26 株式会社コロプラ キャラクタ制御プログラム、キャラクタ制御方法及びコンピュータ端末
CN105630374B (zh) 2015-12-17 2019-05-31 网易(杭州)网络有限公司 虚拟角色控制模式切换方法及装置
JP6347286B2 (ja) 2016-11-21 2018-06-27 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
JP6298523B1 (ja) 2016-12-26 2018-03-20 株式会社コロプラ 仮想空間を介して通信するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるためのプログラム、およびコンピュータ装置
CN111656406A (zh) 2017-12-14 2020-09-11 奇跃公司 基于上下文的虚拟化身渲染
JP6454883B1 (ja) * 2018-02-22 2019-01-23 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム
JP6397595B1 (ja) * 2018-04-12 2018-09-26 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP6469279B1 (ja) 2018-04-12 2019-02-13 株式会社バーチャルキャスト コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP6527627B1 (ja) * 2018-08-31 2019-06-05 株式会社バーチャルキャスト コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7318139B1 (ja) 2020-10-20 2023-07-31 カトマイ テック インコーポレイテッド 操縦可能なアバターを有するウェブベースのテレビ会議仮想環境及びその適用
JP2023534092A (ja) * 2020-10-20 2023-08-08 カトマイ テック インコーポレイテッド 操縦可能なアバターを有するウェブベースのテレビ会議仮想環境及びその適用

Also Published As

Publication number Publication date
WO2020262420A1 (ja) 2020-12-30
US11979684B2 (en) 2024-05-07
JP2021010077A (ja) 2021-01-28
CN113841182A (zh) 2021-12-24
US20220232191A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
JP6684952B1 (ja) コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
WO2020203999A1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、および画像制御プログラム
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
JP5914739B1 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
US20200341541A1 (en) Simulated reality cross platform system
CN110721467B (zh) 显示控制方法、电子设备及计算机可读存储介质
EP3702925B1 (en) Conference system
JP6737942B1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP2023100616A (ja) コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
JPH1040232A (ja) 通信装置
JP2017045296A (ja) ヘッドマウントディスプレイシステムを制御するプログラム
CN112774185B (zh) 牌类虚拟场景中的虚拟牌控制方法、装置及设备
US20230368464A1 (en) Information processing system, information processing method, and information processing program
CN114546188B (zh) 基于互动界面的互动方法、装置、设备及可读存储介质
CN112905087B (zh) 交互状态的显示方法、装置、设备及可读存储介质
JP7291106B2 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
CN116490249A (zh) 信息处理装置、信息处理系统、信息处理方法和信息处理终端
JP7206481B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
CN115052005B (zh) 同步显示方法、同步显示装置、电子设备和存储介质
CN115643365B (zh) 一种远程手术控制方法、装置和电子设备
JP7412497B1 (ja) 情報処理システム
CN116893764A (zh) 终端装置、终端装置的动作方法及非暂时性计算机可读取介质
US20230196680A1 (en) Terminal apparatus, medium, and method of operating terminal apparatus
JP2024047587A (ja) 情報処理システムおよびプログラム
JP2023123389A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190701

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6684952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250