JP7250721B2 - コンピュータプログラム、サーバ装置、端末装置、及び方法 - Google Patents
コンピュータプログラム、サーバ装置、端末装置、及び方法 Download PDFInfo
- Publication number
- JP7250721B2 JP7250721B2 JP2020050781A JP2020050781A JP7250721B2 JP 7250721 B2 JP7250721 B2 JP 7250721B2 JP 2020050781 A JP2020050781 A JP 2020050781A JP 2020050781 A JP2020050781 A JP 2020050781A JP 7250721 B2 JP7250721 B2 JP 7250721B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- mode
- animation
- terminal
- viewer terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末から付与されるギフトに係る情報と、及び、
音と、
を受信し、
前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、ものである。
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、及び、
音と、
を送信する、ものである。
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末から付与されるギフトに係る情報と、及び、
音と、
を送信する、ものである。
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末から付与されるギフトに係る情報と、及び、
音と、
を送信する、
ものである。
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末から付与されるギフトに係る情報と、及び、
音と、
を受信し、
前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、ものである。
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末から付与されるギフトに係る情報と、及び、
音と、
を送信する、ものである。
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、及び、
音と、
を送信する、ものである。
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末から付与されるギフトに係る情報と、及び、
音と、
を受信し、
前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、ものである。
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、及び、
音と、
を送信する、ものである。
図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。図1に示すように、システム1は、通信網10に接続される1又はそれ以上のサーバ装置20と、通信網10に接続される1又はそれ以上の端末装置30と、を含んでよい。なお、図1には、サーバ装置20の例として、3つのサーバ装置20A~20Cが例示され、端末装置30の例として、3つの端末装置30A~30Cが例示されているが、サーバ装置20として、これら以外の1又はそれ以上のサーバ装置20が通信網10に接続され得るし、端末装置30として、これら以外の1又はそれ以上の端末装置30が通信網10に接続され得る。なお、本出願書類において、システムという用語を、サーバと端末装置の両方を含む場合もあれば、サーバのみ、又は、端末装置のみ、を示す用語としても用いる。すなわち、システムは、サ―バのみ、端末装置のみ、サーバ及び端末装置の両方、のいずれの態様であってもよい。
次に、サーバ装置20が有するハードウェア構成の一例について説明する。
サーバ装置20のハードウェア構成例について図2を参照して説明する。図2は、図1に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するように各端末装置30に関連して記載されたものである。)
端末装置30のハードウェア構成例について同じく図2を参照して説明する。各端末装置30のハードウェア構成としては、例えば、上述した各サーバ装置20のハードウェア構成と同一のものを用いることが可能である。したがって、各端末装置30が有する構成要素に対する参照符号は、図2において括弧内に示されている。
次に、本願発明に係るシステムの機能の一例について、図3を参考に、説明する。図3は、図1に示したシステムの機能の一例を模式的に示すブロック図である。図3に示すように、一例のシステムは、第1モードと第2モードとのいずれかの選択された情報を取得する切替部41と、少なくとも前記取得したモードに対応する情報を送信する送信部42と、少なくとも前記取得したモードに対応する情報を受信する受信部43と、前記取得したモードが第2モードである場合にアニメーションを生成する生成部44と、の一部又は全部を有してよい。例えば、配信者端末は、第1モードと第2モードとのいずれかの選択された情報を取得する切替部41と、少なくとも前記取得したモードに対応する情報を送信する送信部42と、を有してよい。また、管理サーバは、第1モードと第2モードとのいずれかの選択された情報を取得する切替部41と、少なくとも前記取得したモードに対応する情報を送信する送信部42と、を有してよい。また、管理サーバは、配信者端末から送信された情報を受信する受信部43を有してよい。また、視聴者端末は、第1モードと第2モードとのいずれかの選択された情報を取得する切替部41と、少なくとも前記取得したモードに対応する情報を受信する受信部43と、前記取得したモードが第2モードである場合にアニメーションを生成する生成部44と、を有してよい。
切替部41は、視聴者端末への配信のモードの変更を管理する機能を有する。切替部41は、第1のモードと、第2のモードと、を切り替える機能を有してよい。ここで、第1のモードは、配信者がアバターとして登場する映像に係り、かかる映像を配信するモード又はかかる配信された映像を受信して、表示するモードであってよい。他方、第2のモードは、配信者がアバターとして登場するアニメーションが生成されるモードに係り、かかるアニメーションの生成に必要な情報を生成するモード、又は、かかるアニメーションの生成に必要な情報を受信してかかるアニメーションの生成に必要な情報からアニメーションを生成し、表示するモードであってよい。第1のモードと第2のモードの切り替えが可能とされることにより、視聴に関連する状況に応じて、より適切な選択が可能となる利点がある。特に、第2のモードは、後述するとおり、視聴者端末においてアニメーションを生成することになることから、処理の分散が可能となる利点がある。なお、本願書類において、配信者端末に係るアバターオブジェクトとかかるアバターオブジェクトの動きを表現可能なモーションに係る情報とを合成することによって視聴者端末において生成されるアニメーションを、単に「アニメーション」ということもある。他方、かかるアバターオブジェクトを用いた映像を、配信者端末又は管理サーバにおいて生成した場合の映像を、単に「映像」ということもある。なお、切替部41は他のモードを選択できる機能を有してよい。
送信部42は、映像の送信、又は、アニメーションの生成に必要な情報、を送信する機能を有する。送信の態様は、種々のものであってよく、その手法に制約はない。例えば、自発的に情報を送信してもよいし、一の情報の受信に対応する形式で受動的に他の情報を送信してもよい。また、他の情報処理装置からのアクセスに対応して情報を送信する態様であってもよい。
受信部43は、映像の受信、又は、アニメーションの生成に必要な情報、を受信する機能を有する。受信の態様は、種々のものであってよく、その手法に制約はない。例えば、送信された情報を受信するものでもよいし、他の情報処理装置に対して情報をアクセスし、そのアクセスに対応して送信された情報を受信するものでもよい。
生成部44は、受信したアニメーションの生成に必要な情報を用いて、アニメーションの生成をする機能を有する。生成部44は、視聴者端末内において、機能してよい。
4-1.実施形態1
実施形態1は、配信者端末において、情報を送信する実施態様である。本実施形態は、図5のような、配信者端末51A及び51Bと、サーバ装置50と、視聴者端末52A及び52B、からなる全体のシステムにおいて、主に、配信者端末51Aにおいて処理される動作となる。以下、図6を参照して、本実施形態の流れを説明する。
配信者端末内の切替部41が、第1のモード又は第2のモードのいずれかの情報を、取得する。(ステップ001)。モードの選択に関する情報は、サーバから取得してもよいし、配信者端末から取得してもよいし、視聴者端末から取得してもよい。
一又は複数の配信者が、アバターとして、アバターオブジェクトを用いて仮想空間上で演じる(ステップ002)。なお、アバターの演じている途中において、上述のモードに関する情報を取得してもよい。
各配信者に対応付けられている配信者端末は、配信者の演じる状況に係る情報を取得する(ステップ003)。配信者端末は、上述の種々のセンサーや撮像装置などを利用して、演じる配信者の情報を取得してよい。
送信部42は、モードに対応する情報を、送信する(ステップ004)。すなわち、第1のモードであれば、配信者の演じるアバターオブジェクトの動きが埋め込まれた映像を送信し、第2のモードであれば、配信者の演じるアバターオブジェクトの動きを表現可能なモーションに係る情報と、かかる配信者が発する音の情報と、を送信してよい。なお、第1のモードの場合には、モーションに係る情報を送信しなくてよく、また、第2のモードの場合には、アバターオブジェクトの動きが埋め込まれた情報を、送信しなくてもよい。特に前者のように、第2のモードにおいて、モーションに係る情報と音を送るのみで、アバターオブジェクトの動きが埋め込まれた映像を送らない場合、かかる映像を生成する処理が不要となるため、低遅延の処理が可能となる利点がある。なお、本実施例においては、モードに対応する情報のみを送る構成とされているが、第1モードと第2のモードの両方視聴者端末がいる場合などにおいては、上述のモードによらず又は第3のモードなどとして、配信者端末は、映像とモーションに係る情報などと、のいずれの情報を送ってもよい。この場合は、第1のモードと第2のモードの両方のモードの視聴者端末に対応できる利点がある。
実施形態2は、サーバにおける処理の実施形態である。具体的には、図5においては、サーバ装置50における処理を中心に説明するが、情報の出所である配信者端末における配信者の演じる状況も含めて説明する。本実施形態の流れを、図7を用いて説明する。
一又は複数の配信者が演じている状況を、各配信者に対応する配信者端末において、情報を取得する(ステップ001)。配信者端末は、上述の種々のセンサーや撮像装置などを利用して、演じる配信者の情報を取得してよい。
各配信者端末は、配信者の演じている状況に関する情報を適宜処理して、サーバに送信する(ステップ002)。配信者端末からは、上述の第1のモード、第2のモード等にあわせて、モーションに係る情報、音、アバターオブジェクトの動きが埋め込まれた映像、が送信されてよい。
サーバは、配信者端末から、配信者の演じている情報を受信する(ステップ003)。上述のとおり、サーバは、モードなどに合わせて、モーションに係る情報、音、アバターオブジェクトの動きが埋め込まれた映像、を受信してよい。
切替部41は、第1のモード又は第2のモードの情報を取得する(ステップ004)。第1のモードと第2のモードの情報は、視聴者端末、配信者端末、又は、サーバから取得してよい。この情報は、視聴者端末、配信者端末、サーバを操作する人によって手動で入力された選択に応じたものでもよいし、視聴者端末、配信者端末、サーバにおける自動的処理によって選択されたものでもよい。また、第1のモードと第2のモードは、一又は複数の配信者によって演じられている一の場面に対して、一のモードが設定されてもよいし、視聴者端末毎にモードが設定されてもよい。後者の場合、例えば、視聴者端末001乃至100が第2のモードで、視聴者端末101乃至200が第1のモード、などのように設定されてもよい。
一又は複数の配信者端末から取得した情報を用いて、第1のモードである視聴者端末に対しては、かかる一又は複数の配信者が演じるアバターオブジェクトの埋め込まれた映像を生成し、第2のモードである視聴者端末に対しては、モーションに係る情報や音などのアニメーションの生成に必要な情報を生成する(ステップ005)。なお、かかるステップは、配信者端末から取得した情報そのままでもよいし、情報の整合、データ構造の変更、パケットの時間的整合等の処理を行ってもよい。
サーバは、視聴者端末の各モードに合わせて、情報を送信する(ステップ006)。すなわち、第1のモードの視聴者端末に対しては、アバターオブジェクトの埋め込まれた映像を送信し、第2のモードの視聴者端末に対しては、アニメーションの生成に必要な情報を送信する。なお、本実施形態においても、実施形態1と同様に、第1のモードであれば、配信者の演じるアバターオブジェクトの動きが埋め込まれた映像を送信し、第2のモードであれば、配信者の演じるアバターオブジェクトの動きを表現可能なモーションに係る情報と、かかる配信者が発する音の情報と、を送信してよい。そして、第1のモードの場合には、モーションに係る情報を送信しなくてよく、また、第2のモードの場合には、アバターオブジェクトの動きが埋め込まれた情報を、送信しなくてもよい。特に前者のように、第2のモードにおいて、モーションに係る情報と音を送るのみで、アバターオブジェクトの動きが埋め込まれた映像を送らない場合、かかる映像を生成する処理が不要となるため、低遅延の処理が可能となる利点がある。なお、本実施例においては、モードに対応する情報のみを送る構成とされているが、第1モードと第2のモードの両方視聴者端末がいる場合などにおいては、上述のモードによらず又は第3のモードなどとして、配信者端末は、映像とモーションに係る情報などと、のいずれの情報を送ってもよい。この場合は、第1のモードと第2のモードの両方のモードの視聴者端末に対応できる利点がある。
実施形態3は、視聴者端末における実施形態である。具体的には、図5においては、視聴者端末52A又は52Bにおける処理である。本実施形態の流れを、図8を用いて説明する。
切替部41は、第1のモード又は第2のモードの情報を取得する(ステップ001)。第1のモード又は第2のモードの情報は、配信者端末、サーバ、視聴者端末、のいずれから取得してもよい。この情報は、視聴者端末、配信者端末、サーバを操作する人によって手動で入力された選択に応じたものでもよいし、視聴者端末、配信者端末、サーバにおける自動的処理によって選択されたものでもよい。また、上述のように、第1のモードと第2のモードは、一又は複数の配信者によって演じられている一の場面に対して、一のモードが設定されてもよいし、視聴者端末毎にモードが設定されてもよい。後者の場合の視聴者端末毎に第1のモード又は第2のモードが設定される場合において、かかるモードを設定する切替部41を有する視聴者端末に係る情報のみに基づいて設定されてもよいし、かかるモードを設定する切替部41を有する視聴者端末以外の他の視聴者端末に係る情報を用いて設定されてもよい。後者の場合、一又は複数の配信者が登場する配信情報(アニメーション又は映像等)が視聴される視聴者端末に係る情報に基づいて、設定されてよい。かかる場合、一の配信情報が視聴される視聴者端末と接続されるサーバにおいて、視聴者端末に係る情報を取得し、第1のモード又は第2のモードを視聴者端末毎に選択し、対象となる視聴者端末に対してかかるモードを送信して各視聴者端末に第1のモード又は第2のモードの情報を伝達してよい。
第1のモード又は第2のモードに合わせて、第1のモードである視聴者端末においては配信者が演じるアバターオブジェクトの埋め込まれた映像を受信し、第2のモードである視聴者端末においては、モーションに係る情報や音などのアニメーションの生成に必要な情報を受信する(ステップ002)。
第1のモードである視聴者端末においては、受信した映像を表示し、第2のモードである視聴者端末においては、受信したアニメーションの生成に必要な情報からアニメーションを生成して表示する(ステップ003)。なお、アニメーションには、アバターの動きの他、視聴者や配信者のコメントが表示されてよく、また、生成されたアニメーションの視聴者数や他のリアルタイムで配信されている他のアニメーションの視聴者数なども表示されてよい。
10 通信網
20(20A~20C) サーバ装置
30(30A~30C) 端末装置
21(31) 演算装置
22(32) 主記憶装置
23(33) 入出力インタフェイス
24(34) 入力装置
25(35) 補助記憶装置
26(36) 出力装置
41 切替部41
42 送信部42
43 受信部43
44 生成部44
50 サーバ装置
51A、51B 配信者端末
52A、52B 視聴者端末
Claims (28)
- コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報と、及び、
音に関する情報と、
を受信し、
受信した前記表示オブジェクトに係る情報における前記表示オブジェクトの描画時間が所定時間よりも短い場合、前記表示オブジェクトに係る情報を前記アニメーションの生成に使用せずに、前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、
ことを特徴とするコンピュータプログラム。 - コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、
前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、及び、
音に関する情報と、
を受信するが、前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報における前記表示オブジェクトの描画時間が所定時間よりも短い場合、前記表示オブジェクトに係る情報を受信せずに、
前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、
ことを特徴とするコンピュータプログラム。 - コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、
前記一又は複数のプロセッサを備える視聴者端末に係る通信のレイテンシ、前記視聴者端末に係るCPU、及び/又は、前記視聴者端末上で実行されているアプリケーション数を含む、前記視聴者端末に係る情報を送信し、
前記視聴者端末に係る情報に基づいて選択された、第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報と、及び、
音に関する情報と、
を受信し、
前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、
ことを特徴とするコンピュータプログラム。 - 前記表示オブジェクトに係る情報は、ギフトの位置、及び/又は、表示されるギフトの回転角度を含む、
請求項1乃至3のいずれか1項に記載のコンピュータプログラム。 - 前記表示オブジェクトに係る情報に基づくギフトが物理法則を用いて表示される場合、前記表示オブジェクトに係る情報は、前記ギフトが表示される位置、及び/又は、表示されるギフトの回転角度を含む、
請求項1乃至3のいずれか1項に記載のコンピュータプログラム。 - 前記表示オブジェクトに係る情報に基づくギフトが疑似ランダム性を用いて表示される場合、前記表示オブジェクトに係る情報は、前記ギフトの種類を含む、
請求項1乃至3のいずれか1項に記載のコンピュータプログラム。 - 前記表示オブジェクトに係る情報に基づくギフトが疑似ランダム性を用いて表示される場合、前記表示オブジェクトに係る情報は、前記ギフトの種類のみである、
請求項3に記載のコンピュータプログラム。 - 前記表示オブジェクトに係る情報に基づくギフトが疑似ランダム性を用いて表示処理される場合、前記表示オブジェクトに係る情報は、前記ギフトの種類と前記疑似ランダム性のシードを含む、
請求項1乃至3のいずれか1項に記載のコンピュータプログラム。 - 前記アニメーションの生成に必要な情報は、配信者のコメント、視聴者のコメント、及び/又は、前記アニメーションの視聴者数、を含む、
請求項1乃至8のいずれか1項に記載のコンピュータプログラム。 - 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、
請求項1乃至9のいずれか1項に記載のコンピュータプログラム。 - 前記プロセッサが、スマートフォン、タブレット、携帯電話又はパーソナルコンピュータに搭載される、
請求項1乃至10のいずれか1項に記載のコンピュータプログラム。 - コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、及び、
音に関する情報と、
を送信し、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報における表示オブジェクトの描画時間が所定時間よりも短い場合、前記表示オブジェクトに係る情報を送信しない、
ことを特徴とするコンピュータプログラム。 - コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、
視聴者端末に係る通信のレイテンシ、前記視聴者端末に係るCPU、及び/又は、前記視聴者端末上で実行されているアプリケーション数を含む、前記視聴者端末に係る情報を受信し、
前記視聴者端末に係る情報に基づいて、第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報と、及び、
音に関する情報と、
を送信する、
ことを特徴とするコンピュータプログラム。 - 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、
請求項12又は13に記載のコンピュータプログラム。 - 前記プロセッサが、演算機能を有する、
請求項12乃至14のいずれか1項に記載のコンピュータプログラム。 - 一又は複数のプロセッサを具備し、
前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、及び、
音に関する情報と、
を送信し、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報における表示オブジェクトの描画時間が所定時間よりも短い場合、前記表示オブジェクトに係る情報を送信しない、
ことを特徴とするサーバ装置。 - 一又は複数のプロセッサを具備し、
前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
視聴者端末に係る通信のレイテンシ、前記視聴者端末に係るCPU、及び/又は、前記視聴者端末上で実行されているアプリケーション数を含む、前記視聴者端末に係る情報を受信し、
前記視聴者端末に係る情報に基づいて、第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報と、及び、
音に関する情報と、
を送信する、
ことを特徴とするサーバ装置。 - 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、
請求項16又は17に記載のサーバ装置。 - 前記プロセッサが、演算機能を有する、
請求項16乃至18のいずれか1項に記載のサーバ装置。 - コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報と、及び、
音に関する情報と、
を受信し、
受信した前記表示オブジェクトに係る情報における表示オブジェクトの描画時間が所定時間よりも短い場合、前記表示オブジェクトに係る情報を前記アニメーションの生成に使用せずに、前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、
ことを特徴とする方法。 - コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、及び、
音に関する情報と、
を受信するが、前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報における表示オブジェクトの描画時間が所定時間よりも短い場合、前記表示オブジェクトに係る情報を受信せずに、
前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、
ことを特徴とする方法。 - コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
前記一又は複数のプロセッサを備える視聴者端末に係る通信のレイテンシ、前記視聴者端末に係るCPU、及び/又は、前記視聴者端末上で実行されているアプリケーション数を含む、前記視聴者端末に係る情報を送信し、
前記視聴者端末に係る情報に基づいて選択された、第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を受信し、
前記受信された映像データを表示し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報と、及び、
音に関する情報と、
を受信し、
前記アニメーションの生成に必要な情報を用いてアニメーションを生成し、
前記アニメーションを表示する、
ことを特徴とする方法。 - 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、
請求項20乃至22のいずれか1項に記載の方法。 - 前記プロセッサが、演算機能を有する、
請求項20乃至23のいずれか1項に記載の方法。 - コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、及び、
音に関する情報と、
を送信し、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報における表示オブジェクトの描画時間が所定時間よりも短い場合、前記表示オブジェクトに係る情報を送信しない、
方法。 - コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
視聴者端末に係る通信のレイテンシ、前記視聴者端末に係るCPU、及び/又は、前記視聴者端末上で実行されているアプリケーション数を含む、前記視聴者端末に係る情報を受信し、
前記視聴者端末に係る情報に基づいて、第1のモード、又は、第2のモード、のいずれかが選択された情報を取得し、
前記第1のモードが選択された場合は、
配信された映像を送信し、
前記第2のモードが選択された場合は、
アニメーションの生成に必要な情報として、少なくとも、
配信者端末に係るアバターオブジェクトに係る情報と合成されることにより、前記アバターオブジェクトの動きを表現可能なモーションに係る情報と、
前記アバターオブジェクトの動きを表現するアニメーションを視聴する視聴者端末からの表示要求に応じて表示される表示オブジェクトに係る情報と、及び、
音に関する情報と、
を送信する、
方法。 - 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、
請求項25又は26に記載の方法。 - 前記プロセッサが、演算機能を有する、
請求項25乃至27のいずれか1項に記載の方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050781A JP7250721B2 (ja) | 2020-03-23 | 2020-03-23 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
JP2022040615A JP2022095652A (ja) | 2020-03-23 | 2022-03-15 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050781A JP7250721B2 (ja) | 2020-03-23 | 2020-03-23 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022040615A Division JP2022095652A (ja) | 2020-03-23 | 2022-03-15 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149753A JP2021149753A (ja) | 2021-09-27 |
JP7250721B2 true JP7250721B2 (ja) | 2023-04-03 |
Family
ID=77849097
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020050781A Active JP7250721B2 (ja) | 2020-03-23 | 2020-03-23 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
JP2022040615A Pending JP2022095652A (ja) | 2020-03-23 | 2022-03-15 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022040615A Pending JP2022095652A (ja) | 2020-03-23 | 2022-03-15 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7250721B2 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006121267A (ja) | 2004-10-20 | 2006-05-11 | Sharp Corp | 連続再生システム |
WO2015011762A1 (ja) | 2013-07-22 | 2015-01-29 | 株式会社fuzz | 画像生成システムおよび画像生成用プログラム |
JP6543403B1 (ja) | 2018-12-12 | 2019-07-10 | グリー株式会社 | 動画配信システム、動画配信方法及び動画配信プログラム |
JP2019195536A (ja) | 2018-05-10 | 2019-11-14 | 株式会社 ディー・エヌ・エー | 動画を配信するためのシステム、方法、及びプログラム |
JP2020017244A (ja) | 2018-07-25 | 2020-01-30 | 株式会社バーチャルキャスト | サーバ、方法、プログラム、動画像放送システム |
-
2020
- 2020-03-23 JP JP2020050781A patent/JP7250721B2/ja active Active
-
2022
- 2022-03-15 JP JP2022040615A patent/JP2022095652A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006121267A (ja) | 2004-10-20 | 2006-05-11 | Sharp Corp | 連続再生システム |
WO2015011762A1 (ja) | 2013-07-22 | 2015-01-29 | 株式会社fuzz | 画像生成システムおよび画像生成用プログラム |
JP2019195536A (ja) | 2018-05-10 | 2019-11-14 | 株式会社 ディー・エヌ・エー | 動画を配信するためのシステム、方法、及びプログラム |
JP2020017244A (ja) | 2018-07-25 | 2020-01-30 | 株式会社バーチャルキャスト | サーバ、方法、プログラム、動画像放送システム |
JP6543403B1 (ja) | 2018-12-12 | 2019-07-10 | グリー株式会社 | 動画配信システム、動画配信方法及び動画配信プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022095652A (ja) | 2022-06-28 |
JP2021149753A (ja) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6724110B2 (ja) | 仮想空間中のアバター表示システム、仮想空間中のアバター表示方法、コンピュータプログラム | |
US11050977B2 (en) | Immersive interactive remote participation in live entertainment | |
RU2719454C1 (ru) | Системы и способы для создания, трансляции и просмотра 3d-контента | |
US9616338B1 (en) | Virtual reality session capture and replay systems and methods | |
CN111862348B (zh) | 视频显示方法、视频生成方法、装置、设备及存储介质 | |
JP6581742B1 (ja) | Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造 | |
JP7496558B2 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
JP7098676B2 (ja) | 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法 | |
CN113230655B (zh) | 虚拟对象的控制方法、装置、设备、系统及可读存储介质 | |
JP2024074885A (ja) | 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画管理プログラム、動画管理方法、サーバ及び動画配信システム | |
JP7360112B2 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
JP2020144887A (ja) | 仮想空間中のアバター表示システム、仮想空間中のアバター表示方法、コンピュータプログラム | |
CN117425870A (zh) | 虚拟现实中的动态混合现实内容 | |
JP7250721B2 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
JP2023095862A (ja) | プログラム及び情報処理方法 | |
JP2020162084A (ja) | コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム | |
JP2023041591A (ja) | 情報処理システム、情報処理方法およびコンピュータプログラム | |
JP2023065288A (ja) | 情報処理プログラム及び情報処理システム | |
JP6533022B1 (ja) | 端末、サーバおよびプログラム | |
US20220053227A1 (en) | Video distribution system, video distribution method, and video distribution program | |
CN116490249A (zh) | 信息处理装置、信息处理系统、信息处理方法和信息处理终端 | |
JP7356662B2 (ja) | コンピュータプログラム、及び方法 | |
JP7442107B2 (ja) | 動画再生装置、動画再生方法、及び動画配信システム | |
JP7344084B2 (ja) | コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム | |
JP7296411B2 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7250721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |