JP7285244B2 - コンピュータプログラム、方法及びサーバ装置 - Google Patents
コンピュータプログラム、方法及びサーバ装置 Download PDFInfo
- Publication number
- JP7285244B2 JP7285244B2 JP2020180303A JP2020180303A JP7285244B2 JP 7285244 B2 JP7285244 B2 JP 7285244B2 JP 2020180303 A JP2020180303 A JP 2020180303A JP 2020180303 A JP2020180303 A JP 2020180303A JP 7285244 B2 JP7285244 B2 JP 7285244B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- gift
- distribution user
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4784—Supplemental services, e.g. displaying phone caller identification, shopping application receiving rewards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/654—Transmission by server directed to the client
- H04N21/6547—Transmission by server directed to the client comprising parameters, e.g. for client setup
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本件出願において開示される動画配信システムでは、簡潔にいえば、以下のような動作が行われる。まず、動画を配信するユーザ(以下「配信ユーザ」という。)の端末装置は、動画を配信する際には、この動画を視聴するユーザ(以下「視聴ユーザ」という。)の端末装置に対して、基準時間に関する基準時間情報を送信することができる。基準時間情報は、時間の経過とともに変化する時間であって、音声及び動画を再生する各視聴ユーザの端末装置により基準にされる基準時間を示すものであり得る。
複数の端末装置10は、1又はそれ以上の配信ユーザの端末装置10と、1又はそれ以上の視聴ユーザの端末装置10と、を含むことができる。各端末装置10は、共通した構成を有することにより、動画を配信するための端末装置10及び動画を視聴するための端末装置10のいずれにもなり得るものである。
各サーバ装置20は、各配信ユーザの端末装置10により送信された動画を、各視聴ユーザの端末装置10に配信することができる。
スタジオユニット30は、演者が動画を配信する場所であるスタジオ、部屋、ホール等に配置され得る。スタジオユニット30は、上述したように、端末装置10と同様の機能を果たすことが可能なものである。
次に、端末装置10及びサーバ装置20の各々が有するハードウェア構成の一例について説明する。
各端末装置10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末装置10(サーバ装置20)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されたものである。)
・動画を配信するために必要な動作
・他の端末装置10により自端末装置10宛てに送信されたギフト情報及び/又はコメント情報を受信するために必要な動作
・他の端末装置10により配信された動画を受信及び表示するために必要な動作
・他の端末装置10に対してギフト情報及び/又はコメント情報を送信するために必要な動作等(後に詳述する様々な動作を含む)
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20のハードウェア構成としては、例えば、上述した各端末装置10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
・各配信ユーザの端末装置10により送信された動画を、各視聴ユーザの端末装置10に配信するために必要な動作
・各視聴ユーザの端末装置10により或る配信ユーザの端末装置10宛てに送信されたギフト情報及び/又はコメント情報を、その配信ユーザの端末装置10に送信するために必要な動作等(後に詳述する様々な動作を含む)
スタジオユニット30は、上述したように、端末装置10と同様の機能を果たすことが可能なものである。したがって、スタジオユニット30は、上述した端末装置10と同様のハードウェア構成を有することができる。
次に、端末装置10及びサーバ装置20の各々が有する機能の一例について説明する。
3-1.端末装置10の機能
端末装置10の機能の一例について図3を参照して説明する。図3は、図1に示した端末装置10の機能の一例を模式的に示すブロック図である。
動画生成部110は、配信ユーザの動作に関する動作データに基づいて、この配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成することができる。これを実現するために、動画生成部110は、例えば、取得部112(図示せず)と、処理部114(図示せず)と、を含むことができる。
(A)赤外線レーザーにより放射され配信ユーザの身体に反射した赤外線を検出するカメラ
(B)可視光線を撮像する複数のRGBカメラ
(C)可視光線を撮像する単一のカメラ
情報生成部110は、配信ユーザの発話に基づいて生成される音声と配信ユーザの動作に基づいて生成されるアバターオブジェクトのアニメーションを含む動画とを再生するために、各視聴ユーザの端末装置10により用いられる様々な情報を、生成するものである。
(a)時間の経過とともに変化し、音声及び動画を再生する各視聴ユーザの端末装置10により基準にされる基準時間、に関する情報(以下「基準時間情報」という。)
(b)配信ユーザの発話に関する情報(以下「音声情報」という。)
この音声情報は、例えば、配信ユーザの発話を記録したWAVEファイル、MP3ファイル等を含むことができる。
(c)配信ユーザのアバターオブジェクトに関する情報(以下「アバター情報」という。)
このアバター情報は、例えば、配信ユーザに使用されるアバターオブジェクトの識別情報、並びに、仮想空間におけるアバターオブジェクトの座標及び方向等に関する情報を含むことができる。
(d)各視聴ユーザにより配信ユーザに対して付与されたギフトに対応するギフトオブジェクトに関する情報(以下「ギフトオブジェクト情報」という。)
このギフトオブジェクト情報は、例えば、ギフトオブジェクトの識別情報、並びに、仮想空間におけるギフトオブジェクトの座標及び方向等に関する情報を含むことができる。
情報生成部110は、基準時間情報として、例えば、時間の経過とともに変化する基準時間を記録したMPEGファイル等を生成することができる。各視聴ユーザの端末装置10は、このようなMPEGファイル等を再生することにより、例えば図6に例示したような、時間の経過とともに変化する「01:10:41」(1時間10分41秒)、「01:10:42」(1時間10分42秒)、「01:10:43」(1時間10分43秒)、・・・といった基準時間を取得することができる。なお、情報生成部110は、基準時間情報として、時間の経過とともに変化する基準時間を記録して、各視聴ユーザの端末装置10によりその基準時間が参照されることを可能にする、その他の任意の形態の情報を用いることが可能である。
情報生成部110は、音声情報として、配信ユーザの発話に関する音声信号を記録した、例えばMPEGファイル及びMP3ファイル等を生成することができる。このMPEGファイルは、上述した動画生成部100の取得部112により生成されたMEPGファイルであってもよい。
情報生成部110は、アバター情報の中に、配信ユーザにより使用されるアバターオブジェクトの識別情報を含めることができる。これにより、各視聴ユーザの端末装置10は、予めサーバ装置20等から受信して記憶した複数のアバターオブジェクトの中から、この識別情報に対応するアバターオブジェクトを取得することができる。
このようなアバター座標情報は、例えばアバターオブジェクトのアニメーションを生成する動画生成部110から取得することが可能である。
なお、仮想空間におけるアバターオブジェクトの座標は、特定の位置を基準として定められてもよい。ここで、特定の位置は、原点及び/又は初期位置を含み得る。
各視聴ユーザの端末装置10は、このアバター座標情報を参照することにより、単位時間ごとに、仮想空間におけるアバターオブジェクトの位置を決定することができる。
アバターオブジェクトの方向(向き)は、例えば、仮想空間において鉛直方向(z軸)に延びる軸を中心として、0度~359度のいずれかによって決定され得る(例えば、アバターオブジェクトが正面を向くときに0度が設定され、アバターオブジェクトが背面を向くときに180度が設定され得る)。
別の実施形態では、アバターオブジェクトの方向(向き)は、仮想空間において、特定の位置(初期位置及び原点等)を基準として、鉛直方向(z軸)に延びる軸を中心として、右方向又は左方向に対して回転(変化)させた角度(変化量)によって決定されてもよい。
このようなアバター方向情報は、例えばアバターオブジェクトのアニメーションを生成する動画生成部110から取得することが可能である。
各視聴ユーザの端末装置10は、このアバター方向情報を参照することにより、単位時間ごとに、仮想空間におけるアバターオブジェクトの方向(向き)を決定することができる。なお、アバター方向情報に適用される単位時間は、アバター座標情報に適用される単位時間と同一のものであっても異なるものであってもよい。
アバターオブジェクトにおける主要な部位とは、例えば、右目、左目、右眉、左眉、右頬、左頬、口、右耳、左耳、右手、左手、右足、及び/又は、左足等をこれらに限定することなく含むことができる。
アバター部位情報は、部位の識別情報と、この部位の状態を示す状態情報と、を対応付けて単位時間ごとに記録することができる。例えば、「右目」という部位に対応付けられた状態情報は、以下に例示した情報のうちのいずれか1つの情報をこれらに限定することなく含むことができる。
・右目が大きく見開かれ、黒目が右端に位置した状態を示す情報
・右目が大きく見開かれ、黒目が中央に位置した状態を示す情報
・右目が大きく見開かれ、黒目が左端に位置した状態を示す情報
・右目が中程度に見開かれ、黒目が右端に位置した状態を示す情報
・右目が中程度に見開かれ、黒目が中央に位置した状態を示す情報
・右目が中程度に見開かれ、黒目が左端に位置した状態を示す情報
・右目が閉じた状態を示す情報等(その他の任意の状態を示す情報が用いられてもよい)
各視聴ユーザの端末装置10は、この状態情報を参照することにより、単位時間ごとに、仮想空間におけるアバターオブジェクトの部位の状態を決定することができる。なお、アバター部位情報に適用される単位時間は、アバター座標情報及び/又はアバター方向情報に適用される単位時間と同一のものであっても異なるものであってもよい。
情報生成部110は、ギフトオブジェクト情報の中に、配信ユーザに対して付与されたギフトに対応するアバターオブジェクトの識別情報を含めることができる。これにより、各視聴ユーザの端末装置10は、予めサーバ装置20等から受信して記憶した複数のギフトオブジェクトの中から、この識別情報に対応するギフトオブジェクトを取得することができる。
各視聴ユーザの端末装置10は、このギフトオブジェクト座標情報を参照することにより、単位時間ごとに、仮想空間におけるギフトオブジェクトの位置を決定することができる。
ギフトオブジェクトの方向(向き)は、例えば、仮想空間において鉛直方向に延びる軸(例えば、z軸)を中心として、0度~359度のいずれかによって決定され得る第1の方向を含むことができる。例えば、ギフトオブジェクトが正面を向くときに0度が設定され、ギフトオブジェクトが背面を向くときに180度が設定され得る。
さらに、ギフトオブジェクトの方向(向き)は、例えば、仮想空間において水平方向に延びる軸(例えば、y軸)を中心として、0度~359度のいずれかによって決定され得る第2の方向と、を含むことができる。例えば、ギフトオブジェクトの頂点が上方に位置するときに0度が設定され、アバターオブジェクトの頂点が下方に位置するときに180度が設定され得る。
さらにまた、ギフトオブジェクトの方向(向き)は、例えば、仮想空間において水平方向に延びる軸(例えば、x軸)を中心として、0度~359度のいずれかによって決定され得る第3の方向と、を含むことができる。例えば、ギフトオブジェクトの顔が正面を向くときに0度が設定され、ギフトオブジェクトの顔が底面を向くときに180度が設定され得る。
通信部120は、動画の配信及び/又は視聴に必要とされる様々な情報を、サーバ装置20との間において通信することができる。また、通信部120は、端末装置10が配信ユーザの端末装置として動作する場合には、動画をサーバ装置20に送信し、この配信ユーザ宛てに送信されたギフト情報及び/又はコメント情報をサーバ装置20から受信することができる。さらに、通信部120は、端末装置10が視聴ユーザの端末装置として動作する場合には、配信ユーザの端末装置10により送信された動画をサーバ装置20から受信し、配信ユーザに対してギフト情報及び/又はコメント情報をサーバ装置20に送信することができる。
表示部130は、動画の配信及び/又は視聴に必要とされる様々な情報を表示することができる。例えば、表示部130は、当該端末装置10が配信ユーザの端末装置10として動作する場合には、動画生成部100から受信した、配信ユーザのアバターオブジェクトのアニメーション等を含む動画を表示することができる。さらに、表示部130は、当該端末装置10が視聴ユーザの端末装置10として動作する場合には、配信ユーザの端末装置10からサーバ装置20を介して受信した様々な情報を用いて、配信ユーザのアバターオブジェクトのアニメーション等を含む動画を表示することができる。
記憶部140は、動画の配信及び/又は視聴に必要とされる様々な情報を記憶することができる。
ユーザインタフェイス部150は、動画の配信及び/又は視聴に必要とされる様々な情報をユーザの操作を介して入力することができる。
ギフト処理部160は、動画の配信及び/又は視聴に関して送受信されるギフト情報を処理することができる。例えば、ギフト処理部160は、当該端末装置10が配信ユーザの端末装置10として動作する場合には、この配信ユーザ宛てに送信されたギフト情報を処理することができる。また、ギフト処理部160は、当該端末装置10が視聴ユーザの端末装置10として動作する場合には、この視聴ユーザが送信するギフト情報を処理することができる。
サーバ装置20の機能の一例について図4を参照して説明する。図4は、図1に示したサーバ装置20の機能の一例を模式的に示すブロック図である。図4に示すように、サーバ装置20は、主に、通信部200と、記憶部210と、ギフト処理部220と、を含むことができる。
スタジオユニット30は、上述したように、端末装置10と同様の機能を果たすことが可能なものである。したがって、スタジオユニット30は、図3を参照して説明した端末装置10の機能を有することが可能なものである。
図5は、図1に示した動画配信システム1において行われる動作の一例を示すフロー図である。なお、図5において、左側部分には、少なくとも1人の配信ユーザの端末装置10により行われる動作が示され、中央部分には、サーバ装置20(ここでは1つのサーバ装置20)により行われる動作が示され、右側部分には、少なくとも1人の視聴ユーザの端末装置10により行われる動作が示されている。
上述した様々な実施形態では、図8に例示されるように、配信ユーザに対して視聴ユーザによりギフトが付与された場合、配信ユーザの端末装置10から各視聴ユーザの端末装置10に配信される動画には、そのギフトに対応するギフトオブジェクト500のみが表示される。別の実施形態では、配信ユーザに対して視聴ユーザによりギフトが付与された場合、配信ユーザの端末装置10から各視聴ユーザの端末装置10に配信される動画には、そのギフトに対応するギフトオブジェクト600に組み合わせて、そのギフトを付与した視聴ユーザに関する情報が表示されるようにしてもよい。そのギフトを付与した視聴ユーザに関する情報の一例として、図8には、その視聴ユーザの氏名又はハンドルネーム300Aが用いられ得る。これに代えて又はこれに加えて、その視聴ユーザのアバターオブジェクトの少なくとも一部(図示せず)が用いられるようにしてもよい。これを実現するためには、例えば、配信ユーザの端末装置10は、ギフトオブジェクト情報の中に、そのギフトを付与した視聴ユーザに関する情報を含めることができる。
・コメントの内容を示す情報
・コメント情報の受信先である配信ユーザの識別情報
・コメント情報の送信元である視聴ユーザの識別情報
・コメントの内容を示す情報
・コメント情報を送信した視聴ユーザに関する情報(氏名、ハンドルネーム、及び/又は、アバターオブジェクトの少なくとも一部)
このようなコメント情報もまた、上述したギフトオブジェクト情報と同様に、基準時間に基づくタイムスタンプが付与され得る。
第1の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能であり、基準時間に対応付けられた前記ギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する、ように前記プロセッサを機能させる」ことができる。
2 通信網(通信回線)
10(10A~10C) 端末装置
20(20A~20C) サーバ装置
30(30A、30B) スタジオユニット
100 動画生成部
110 情報生成部
120 通信部
130 表示部
140 記憶部
150 ユーザインタフェイス部
160 ギフト処理部
200 通信部
210 記憶部
220 ギフト処理部
400、402a~402d アバター情報
410 音声情報
420 基準時間情報
422a~422j 基準時間
430、432a~432c ギフトオブジェクト情報
450 アバターオブジェクト
500、600 ギフトオブジェクト
Claims (26)
- 少なくとも1つのプロセッサにより実行されることにより、
配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能であり、
基準時間に対応付けられた、前記配信ユーザに対して前記視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作する前記ギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記アバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する、
ように前記プロセッサを機能させることを特徴とするコンピュータプログラム。 - 前記座標情報は、前記配信ユーザの動作において変化が生じた期間のみについて、前記アバターオブジェクトの座標を示す情報を含む、請求項1に記載のコンピュータプログラム。
- 前記アバターオブジェクトの座標を示す情報は、
前記アバターオブジェクトの動作と前記音声情報とを同期させる必要がある場合、前記基準時間に対応付けられ、
前記アバターオブジェクトの動作と前記音声情報とを同期させる必要がない場合、前記基準時間に対応付けられない、請求項1に記載のコンピュータプログラム。 - 前記音声情報は、
前記ギフトオブジェクトの座標を示す情報を送信する必要がある場合、前記基準時間に対応付けられ、
前記ギフトオブジェクトの座標を示す情報を送信する必要がない場合、前記基準時間に対応付けられない、請求項1に記載のコンピュータプログラム。 - 前記ギフトオブジェクトの座標を示す情報に加えて、該ギフトオブジェクトを前記配信ユーザに対して付与した前記視聴ユーザに関する情報を、前記複数の視聴ユーザの端末装置に向けて送信する、
ように前記プロセッサを機能させる、請求項1に記載のコンピュータプログラム。 - 前記通信回線がインターネットを含む、請求項1から請求項5のいずれかに記載のコンピュータプログラム。
- 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項1から請求項6のいずれかに記載のコンピュータプログラム。
- コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能である工程と、
基準時間に対応付けられた、前記配信ユーザに対して前記視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作する前記ギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記アバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する工程と、
を含むことを特徴とする方法。 - 前記通信回線がインターネットを含む、請求項8に記載の方法。
- 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項8又は請求項9に記載の方法。
- 少なくとも1つのプロセッサにより実行されることにより、
基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作するギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記配信ユーザのアバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信し、
前記座標情報を用いて前記ギフトオブジェクトのアニメーションと前記アバターオブジェクトのアニメーションとを含む動画を生成し、
前記音声情報を用いて前記配信ユーザの発話に基づく音声信号を生成する、
ように前記プロセッサを機能させることを特徴とするコンピュータプログラム。 - 前記動画において、前記ギフトオブジェクトは予め定められた規則に従って動作するように表示される、請求項11に記載のコンピュータプログラム。
- 前記動画において、前記ギフトオブジェクトは前記配信ユーザの動作に同期せずに動作するように表示される、請求項11又は請求項12に記載のコンピュータプログラム。
- 前記動画において、前記ギフトオブジェクトは前記アバターオブジェクトとは距離をおいて配置されるように表示される、請求項11から請求項13のいずれかに記載のコンピュータプログラム。
- 前記動画において、前記アバターオブジェクトは前記配信ユーザの動作に同期して動作するように表示される、請求項11から請求項14のいずれかに記載のコンピュータプログラム。
- 前記通信回線がインターネットを含む、請求項11から請求項15のいずれかに記載のコンピュータプログラム。
- 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項11から請求項15のいずれかに記載のコンピュータプログラム。
- コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作するギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記配信ユーザのアバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信する工程と、
前記座標情報を用いて前記ギフトオブジェクトのアニメーションと前記アバターオブジェクトのアニメーションとを含む動画を生成する工程と、
前記音声情報を用いて前記配信ユーザの発話に基づく音声信号を生成する工程と、
を含むことを特徴とする方法。 - 前記通信回線がインターネットを含む、請求項18に記載の方法。
- 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項18又は請求項19に記載の方法。
- 少なくとも1つのプロセッサを具備し、
該プロセッサが、
基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作するギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記配信ユーザのアバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信し、
前記座標情報及び前記音声情報を、通信回線を介して複数の視聴ユーザの端末装置に送信することにより、前記配信ユーザの動作に関する動作情報に基づいて生成される前記アバターオブジェクトのアニメーションと前記ギフトオブジェクトのアニメーションとを含む動画、及び、前記配信ユーザの発話に基づく音声信号を、前記複数の視聴ユーザの端末装置に生成させる、
ことを特徴とするサーバ装置。 - 前記通信回線がインターネットを含む、請求項21に記載のサーバ装置。
- 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項21又は請求項22に記載のサーバ装置。
- コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作するギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記配信ユーザのアバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信する工程と、
前記座標情報及び前記音声情報を、通信回線を介して複数の視聴ユーザの端末装置に送信することにより、前記配信ユーザの動作に関する動作情報に基づいて生成される前記アバターオブジェクトのアニメーションと前記ギフトオブジェクトのアニメーションとを含む動画、及び、前記配信ユーザの発話に基づく音声信号を、前記複数の視聴ユーザの端末装置に生成させる工程と、
を含むことを特徴とする方法。 - 前記通信回線がインターネットを含む、請求項24に記載の方法。
- 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項24又は請求項25に記載の方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020180303A JP7285244B2 (ja) | 2020-01-27 | 2020-10-28 | コンピュータプログラム、方法及びサーバ装置 |
JP2023083905A JP2023101606A (ja) | 2020-01-27 | 2023-05-22 | コンピュータプログラム、方法及びサーバ装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020011016A JP6803485B1 (ja) | 2020-01-27 | 2020-01-27 | コンピュータプログラム、方法及びサーバ装置 |
JP2020180303A JP7285244B2 (ja) | 2020-01-27 | 2020-10-28 | コンピュータプログラム、方法及びサーバ装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020011016A Division JP6803485B1 (ja) | 2020-01-27 | 2020-01-27 | コンピュータプログラム、方法及びサーバ装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023083905A Division JP2023101606A (ja) | 2020-01-27 | 2023-05-22 | コンピュータプログラム、方法及びサーバ装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021118539A JP2021118539A (ja) | 2021-08-10 |
JP7285244B2 true JP7285244B2 (ja) | 2023-06-01 |
Family
ID=73836161
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020011016A Active JP6803485B1 (ja) | 2020-01-27 | 2020-01-27 | コンピュータプログラム、方法及びサーバ装置 |
JP2020180303A Active JP7285244B2 (ja) | 2020-01-27 | 2020-10-28 | コンピュータプログラム、方法及びサーバ装置 |
JP2023083905A Pending JP2023101606A (ja) | 2020-01-27 | 2023-05-22 | コンピュータプログラム、方法及びサーバ装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020011016A Active JP6803485B1 (ja) | 2020-01-27 | 2020-01-27 | コンピュータプログラム、方法及びサーバ装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023083905A Pending JP2023101606A (ja) | 2020-01-27 | 2023-05-22 | コンピュータプログラム、方法及びサーバ装置 |
Country Status (2)
Country | Link |
---|---|
US (3) | US11418855B2 (ja) |
JP (3) | JP6803485B1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6803485B1 (ja) | 2020-01-27 | 2020-12-23 | グリー株式会社 | コンピュータプログラム、方法及びサーバ装置 |
JP7239123B1 (ja) | 2022-09-01 | 2023-03-14 | 17Live株式会社 | コンピュータプログラム及び端末 |
JP7550924B1 (ja) | 2023-06-20 | 2024-09-13 | カバー株式会社 | プログラム、方法、およびシステム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000149039A (ja) | 1998-07-17 | 2000-05-30 | Matsushita Electric Ind Co Ltd | 多次元ストリ―ムデ―タを用いた、送信装置、送信方法、受信装置、受信方法および通信システム |
JP6212667B1 (ja) | 2016-12-26 | 2017-10-11 | 株式会社コロプラ | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 |
WO2018142494A1 (ja) | 2017-01-31 | 2018-08-09 | 株式会社 ニコン | 表示制御システム、及び、表示制御方法 |
JP6543403B1 (ja) | 2018-12-12 | 2019-07-10 | グリー株式会社 | 動画配信システム、動画配信方法及び動画配信プログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5617057A (en) | 1979-07-21 | 1981-02-18 | Chiyou Lsi Gijutsu Kenkyu Kumiai | Semiconductor inverter circuit element |
JPH11185053A (ja) * | 1997-12-25 | 1999-07-09 | Casio Comput Co Ltd | サイバースペースシステムおよびユーザ端末にサイバースペースを提供するプログラムを格納した記録媒体 |
US20110078578A1 (en) * | 2009-04-24 | 2011-03-31 | Sam Calis | Interactive avatar |
JP6641731B2 (ja) * | 2015-06-05 | 2020-02-05 | ソニー株式会社 | 送信装置及び送信方法、並びに受信装置及び受信方法 |
US20180063599A1 (en) * | 2016-08-26 | 2018-03-01 | Minkonet Corporation | Method of Displaying Advertisement of 360 VR Video |
JP6229089B1 (ja) * | 2017-04-26 | 2017-11-08 | 株式会社コロプラ | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 |
JP6526898B1 (ja) * | 2018-11-20 | 2019-06-05 | グリー株式会社 | 動画配信システム、動画配信方法、及び動画配信プログラム |
US20210225168A1 (en) | 2020-01-21 | 2021-07-22 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for assisting occupants to exit a parked vehicle safely |
JP6803485B1 (ja) | 2020-01-27 | 2020-12-23 | グリー株式会社 | コンピュータプログラム、方法及びサーバ装置 |
-
2020
- 2020-01-27 JP JP2020011016A patent/JP6803485B1/ja active Active
- 2020-10-28 JP JP2020180303A patent/JP7285244B2/ja active Active
- 2020-12-22 US US17/131,264 patent/US11418855B2/en active Active
-
2022
- 2022-06-24 US US17/849,202 patent/US11871089B2/en active Active
-
2023
- 2023-05-22 JP JP2023083905A patent/JP2023101606A/ja active Pending
- 2023-11-29 US US18/523,503 patent/US20240098344A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000149039A (ja) | 1998-07-17 | 2000-05-30 | Matsushita Electric Ind Co Ltd | 多次元ストリ―ムデ―タを用いた、送信装置、送信方法、受信装置、受信方法および通信システム |
JP6212667B1 (ja) | 2016-12-26 | 2017-10-11 | 株式会社コロプラ | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 |
WO2018142494A1 (ja) | 2017-01-31 | 2018-08-09 | 株式会社 ニコン | 表示制御システム、及び、表示制御方法 |
JP6543403B1 (ja) | 2018-12-12 | 2019-07-10 | グリー株式会社 | 動画配信システム、動画配信方法及び動画配信プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6803485B1 (ja) | 2020-12-23 |
US20220329918A1 (en) | 2022-10-13 |
JP2023101606A (ja) | 2023-07-21 |
US20240098344A1 (en) | 2024-03-21 |
US20210235168A1 (en) | 2021-07-29 |
US11418855B2 (en) | 2022-08-16 |
US11871089B2 (en) | 2024-01-09 |
JP2021118539A (ja) | 2021-08-10 |
JP2021118456A (ja) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7285244B2 (ja) | コンピュータプログラム、方法及びサーバ装置 | |
US10699482B2 (en) | Real-time immersive mediated reality experiences | |
JP6700463B2 (ja) | ヘッドマウントディスプレイ上の視覚的作用を制限するためのフィルタリング及びペアレンタルコントロール法 | |
CN106648083B (zh) | 增强演奏场景合成控制方法及装置 | |
US10034036B2 (en) | Media synchronization for real-time streaming | |
WO2016035748A1 (ja) | サーバ装置、動画配信システム、それに用いられる制御方法及びコンピュータプログラム | |
JP2020039029A (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
JP2014217627A (ja) | 身体動作評価装置、カラオケシステム、及びプログラム | |
JP6830829B2 (ja) | プログラム、表示装置、表示方法、放送システム及び放送方法 | |
JP6315568B2 (ja) | 通信カラオケシステム及びサーバ | |
JP2014110558A (ja) | 情報処理装置、情報処理システム及びプログラム | |
JP2024019661A (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP7496558B2 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
EP4306192A1 (en) | Information processing device, information processing terminal, information processing method, and program | |
JP6688378B1 (ja) | コンテンツ配信システム、配信装置、受信装置及びプログラム | |
US11843820B2 (en) | Group party view and post viewing digital content creation | |
CN107135407B (zh) | 一种钢琴视频教学中的同步方法及系统 | |
JP7442979B2 (ja) | カラオケシステム | |
JP2022173870A (ja) | 鑑賞システム、鑑賞装置及びプログラム | |
CN115315960A (zh) | 内容修正装置、内容发布服务器、内容修正方法以及记录介质 | |
WO2023042436A1 (ja) | 情報処理装置および方法、並びにプログラム | |
JP7314387B1 (ja) | コンテンツ生成装置、コンテンツ生成方法、およびプログラム | |
JP7550411B1 (ja) | プログラム、情報処理方法、サーバ、サーバの情報処理方法及び情報処理システム | |
JP7329209B1 (ja) | 情報処理システム、情報処理方法およびコンピュータプログラム | |
JP6789581B2 (ja) | サーバ装置、動画配信システム、それに用いられる制御方法及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7285244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |