JP7285244B2 - コンピュータプログラム、方法及びサーバ装置 - Google Patents

コンピュータプログラム、方法及びサーバ装置 Download PDF

Info

Publication number
JP7285244B2
JP7285244B2 JP2020180303A JP2020180303A JP7285244B2 JP 7285244 B2 JP7285244 B2 JP 7285244B2 JP 2020180303 A JP2020180303 A JP 2020180303A JP 2020180303 A JP2020180303 A JP 2020180303A JP 7285244 B2 JP7285244 B2 JP 7285244B2
Authority
JP
Japan
Prior art keywords
information
user
gift
distribution user
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020180303A
Other languages
English (en)
Other versions
JP2021118539A (ja
Inventor
修平 麻田
素貴 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2020180303A priority Critical patent/JP7285244B2/ja
Publication of JP2021118539A publication Critical patent/JP2021118539A/ja
Priority to JP2023083905A priority patent/JP2023101606A/ja
Application granted granted Critical
Publication of JP7285244B2 publication Critical patent/JP7285244B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4784Supplemental services, e.g. displaying phone caller identification, shopping application receiving rewards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

特許法第30条第2項適用 株式会社Wright Flyer Live Entertainmentは、2019年12月24日に、https://le.wrightflyer.net/reality/ https://itunes.apple.com/us/app/reality/id1404176564?l=ja&ls=1&mt=8 https://play.google.com/store/apps/details?id=net.wrightflyer.le.reality のウェブサイトにおいて、ダウンロード可能な「REALITY」というアプリケーションを介してサービスの提供を行った。
特許法第30条第2項適用 株式会社Wright Flyer Live Entertainmentは、2019年12月19日に、 https://reality-notice.wrightflyer.net/de00307507f468e6bdf42e354ead5flc83e8efea.html?t=1576733389 のウェブサイトにおいて、出願に係る発明に関連したサービスに関する公開を行った。
特許法第30条第2項適用 株式会社Wright Flyer Live Entertainmentは、2020年1月8日に、https://twitter.com/WFLE_REALITY/status/1214790371315572737 のウェブサイトにおいて、出願に係る発明に関連したサービスに関する公開を行った。
特許法第30条第2項適用 株式会社Wright Flyer Live Entertainmentは、2020年1月8日 に、https://www.moguravr.com/reality-3/ のウェブサイトにおいて、出願に係る発明に関連したサービスに関する公開を行った。
特許法第30条第2項適用 株式会社Wright Flyer Live Entertainmentは、2019年8月12日 に、https://www.youtube.com/watch?v=zZpufexaEv0&feature=youtu.be&t=2224/ のウェブサイトにおいて、出願に係る発明に関連したサービスに関する公開を行った。
本件出願に開示された技術は、配信ユーザの発話に基づいて生成される音声とこの配信ユーザの動作に基づいて生成される動画とを複数のユーザに配信するシステムに関する。
音楽及び動画を複数のユーザに配信するサービスとして、「Mirrativ」(非特許文献1)が知られている。なお、上記非特許文献1は、引用によりその全体が本明細書に組み入れられる。
このサービスでは、配信ユーザは、この配信ユーザの発話に基づいて生成される音声とこの配信ユーザの動作に基づいて生成されるアバターのアニメーションを含む動画とを、通信網を介して複数の視聴ユーザに送信することができる。そのような配信ユーザにより配信された動画等を視聴する各視聴ユーザは、その配信ユーザにギフトを贈ることができる。ギフトが贈られると、このギフトに対応するオブジェクトが、配信ユーザにより配信される動画において表示される。
"Mirrativ"、[online]、株式会社ミラティブ、[2019年12月18日検索]、インターネット(URL: https://www.mirrativ.com/)
しかしながら、配信ユーザから通信網を介して各視聴ユーザに配信される動画は、比較的に大きな容量を有するものである。よって、各視聴ユーザに利用される通信網の帯域が狭い場合、及び/又は、その通信網に輻輳が生じている場合等には、各視聴ユーザに配信される動画に遅延が生ずる可能性がある。このような問題に対処するために、配信ユーザの端末装置が、その配信ユーザの動作及び付与されたギフトに関する動画データを音声信号とともに各視聴ユーザに送信し、各視聴ユーザの端末装置が、受信した動画データに基づいて動画を生成し、受信した音声信号に基づいて音声を再生する手法が考えられる。
配信ユーザにより送信される動画データは、配信ユーザの動作に変化が生じた時点及び/又はギフトが付与された時点において、その変化の内容及び/又はギフトの内容を間欠的に伝達するものである。一方、配信ユーザにより送信される音声信号は、配信ユーザが発話をしている期間にわたってその発話の内容を連続的に伝達するものである。よって、各視聴ユーザの端末装置は、配信ユーザから受信した音声信号をバッファリングすることにより、通信網の障害等に起因する途切れを抑えた音声を再生することが考えられる。この結果、各視聴ユーザの端末装置において、音声信号に基づいて音声を再生するタイミングと、動画データに基づいてギフトに対応するオブジェクトを描画するタイミングとが、ずれる可能性がある。
そこで、本件出願に開示された技術は、音声を再生するタイミングとギフトに対応するオブジェクトを描画するタイミングとの間におけるずれを少なくとも部分的に抑えることが可能な手法を提供する。
一態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能であり、基準時間に対応付けられた前記ギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する、ように前記プロセッサを機能させる」ものである。
一態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、前記プロセッサが、前記命令を実行することにより、配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能である工程と、基準時間に対応付けられた前記ギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する工程と、を含む」ものである。
別の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信し、前記座標情報を用いて前記ギフトオブジェクトのアニメーションと前記アバターオブジェクトのアニメーションとを含む動画を生成し、前記音声情報を用いて前記配信ユーザの発話に基づく音声信号を生成する、ように前記プロセッサを機能させる」ものである。
別の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、前記プロセッサが、前記命令を実行することにより、基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信する工程と、前記座標情報を用いて前記ギフトオブジェクトのアニメーションと前記アバターオブジェクトのアニメーションとを含む動画を生成する工程と、前記音声情報を用いて前記配信ユーザの発話に基づく音声信号を生成する工程と、を含む」ものである。
一態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該プロセッサが、基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信し、前記座標情報及び前記音声情報を、通信回線を介して複数の視聴ユーザの端末装置に送信することにより、前記配信ユーザの動作に関する動作情報に基づいて生成される前記アバターオブジェクトのアニメーションと前記ギフトオブジェクトのアニメーションとを含む動画、及び、前記配信ユーザの発話に基づく音声信号を、前記複数の視聴ユーザの端末装置に生成させる」ものである。
さらに別の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、前記プロセッサが、前記命令を実行することにより、基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信する工程と、前記座標情報及び前記音声情報を、通信回線を介して複数の視聴ユーザの端末装置に送信することにより、前記配信ユーザの動作に関する動作情報に基づいて生成される前記アバターオブジェクトのアニメーションと前記ギフトオブジェクトのアニメーションとを含む動画、及び、前記配信ユーザの発話に基づく音声信号を、前記複数の視聴ユーザの端末装置に生成させる工程と、を含む」ものである。
図1は、一実施形態に係る動画配信システムの構成の一例を示すブロック図である。 図2は、図1に示した端末装置10(サーバ装置20)のハードウェア構成の一例を模式的に示すブロック図である 図3は、図1に示した端末装置10の機能の一例を模式的に示すブロック図である。 図4は、図1に示したサーバ装置20の機能の一例を模式的に示すブロック図である。 図5は、図1に示した動画配信システム1において行われる動作の一例を示すフロー図である。 図6は、図1に示す動画配信システム1における各視聴ユーザの端末装置10が受信した情報を用いて動画及び音声を再生する手法の一例を概念的に示す模式図である。 図7は、図1に示す動画配信システム1における各視聴ユーザの端末装置10が受信した情報を用いて動画及び音声を再生する手法の別の例を概念的に示す模式図である。 図8は、図1に示す動画配信システム1における各視聴ユーザの端末装置10の表示部130に表示される動画の一例を示す模式図である。
以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。
1.動画配信システムの例
本件出願において開示される動画配信システムでは、簡潔にいえば、以下のような動作が行われる。まず、動画を配信するユーザ(以下「配信ユーザ」という。)の端末装置は、動画を配信する際には、この動画を視聴するユーザ(以下「視聴ユーザ」という。)の端末装置に対して、基準時間に関する基準時間情報を送信することができる。基準時間情報は、時間の経過とともに変化する時間であって、音声及び動画を再生する各視聴ユーザの端末装置により基準にされる基準時間を示すものであり得る。
また、配信ユーザの端末装置は、配信ユーザの発話に関する音声情報に対して基準時間に基づくタイムスタンプを付し、このようなタイムスタンプが付された音声情報を、各視聴ユーザの端末装置に送信することができる。
さらに、配信ユーザの端末装置は、配信ユーザのアバターオブジェクトに関するアバター情報を各視聴ユーザの端末装置に送信することができる。なお、配信ユーザの端末装置は、このアバター情報に対して基準時間に基づくタイムスタンプを付し、このようなタイムスタンプが付されたアバター情報を、各視聴ユーザの端末装置に送信することもできる。
さらにまた、配信ユーザの端末装置は、配信ユーザに対してギフトを付与する旨を示すギフト情報を受信した場合には、そのギフトに対応するギフトオブジェクトに関するギフトオブジェクト情報を生成する。配信ユーザの端末装置は、このギフトオブジェクト情報に対して基準時間に基づくタイムスタンプを付し、このようなタイムスタンプが付されたギフトオブジェクト情報を、各視聴ユーザの端末装置に送信することができる。
一方、各視聴ユーザの端末装置は、配信ユーザの端末装置から受信したタイムスタンプが付された音声情報を用い、受信した基準時間情報により示される基準時間に基づいて、音声信号を再生することができる。
また、各視聴ユーザの端末装置は、配信ユーザの端末装置から受信した、タイムスタンプが付された動画情報及びギフトオブジェクト情報を用い、受信した基準時間情報により示される基準時間に基づいて、動画を生成することができる。
図1は、一実施形態に係る動画配信システムの構成の一例を示すブロック図である。図1に示すように、動画配信システム1は、通信網(通信回線)2に接続される1又はそれ以上の端末装置10と、通信回線2に接続される1又はそれ以上のサーバ装置20と、を含むことができる。各端末装置10は、通信回線2を介して、1又はそれ以上のサーバ装置20に接続される。なお、図1には、1又はそれ以上の端末装置10として、例えば、端末装置10A~10Cが示されているが、これら以外の1又はそれ以上の端末装置10が同様に用いられ得る。同様に、図1には、1又はそれ以上のサーバ装置20として、例えば、サーバ装置20A~20Cが示されているが、これら以外の1又はそれ以上のサーバ装置20が同様に用いられ得る。なお、通信回線2は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット及び/又はイーサネット(登録商標)等をこれらに限定することなく含むことができるものである。
さらに、一実施形態では、動画配信システム1は、通信回線2に接続される1又はそれ以上のスタジオユニット30を含むこともできる。各スタジオユニット30は、通信回線2を介して、1又はそれ以上のサーバ装置20に接続される。なお、図1には、1又はそれ以上のスタジオユニット30として、例えば、スタジオユニット30A及び30Bが示されているが、これら以外の1又はそれ以上のスタジオユニット30が同様に用いられ得る。各スタジオユニット30は、後述する端末装置10、及び/又は、後述するサーバ装置20と同様の機能を有することが可能なものである。
以下、説明を簡単にするために、配信ユーザの端末装置10がサーバ装置20を介して各視聴ユーザの端末装置10に対して動画を配信する送信する場合に着目する。これに代えて又はこれに加えて、配信ユーザに対向するスタジオユニット30が、端末装置10と同様の機能を有することにより、サーバ装置20を介して各視聴ユーザの端末装置10に対して動画を配信することも可能である。
1-1.端末装置10
複数の端末装置10は、1又はそれ以上の配信ユーザの端末装置10と、1又はそれ以上の視聴ユーザの端末装置10と、を含むことができる。各端末装置10は、共通した構成を有することにより、動画を配信するための端末装置10及び動画を視聴するための端末装置10のいずれにもなり得るものである。
各端末装置10は、動画を配信するための端末装置(配信ユーザの端末装置)として動作する場合には、インストールされた動画配信用アプリケーション(ミドルウェア、又は、アプリケーションとミドルウェアとを組み合わせたものであってもよい。以下同様。)を実行することにより、サーバ装置20を介して、動画を配信することができる。このような動画は、サーバ装置20により通信回線2を介して、インストールされた動画視聴用アプリケーション(ミドルウェア、又は、アプリケーションとミドルウェアとを組み合わせたものであってもよい。以下同様。)を実行する、動画を受信するための端末装置(視聴ユーザの端末装置)10に配信される。
また、各端末装置10は、配信ユーザの端末装置として動作する場合には、上記動画配信用アプリケーションを実行することにより、(この配信ユーザの端末装置10により配信された)動画を視聴する視聴ユーザの端末装置10からサーバ装置20を介して、この配信ユーザに対してギフトを付与する旨を示すギフト情報、及び/又は、この配信ユーザに対してコメントを送信する旨を示すコメント情報を受信することができる。
一方、各端末装置10は、動画を視聴するための端末装置(視聴ユーザの端末装置)として動作する場合には、インストールされた動画視聴用アプリケーションを実行することにより、配信ユーザの端末装置10により配信された動画を、サーバ装置20から受信することができる。
また、各端末装置10は、上記動画視聴用アプリケーションを実行することにより、動画を受信している間において、この動画を配信している配信ユーザに対してギフトを付与する旨を示すギフト情報、及び/又は、この配信ユーザに対してコメントを送信する旨を示すコメント情報を、サーバ装置20を介して、この配信ユーザの端末装置10に送信することができる。
なお、上述した動画配信用アプリケーション及び動画視聴用アプリケーションは、統合された1つのアプリケーション(ミドルウェア、又は、ミドルウェアとアプリケーションとを組み合わせたものであってもよい)として、又は、それぞれ別々のアプリケーション(ミドルウェア、又は、ミドルウェアとアプリケーションとを組み合わせたものであってもよい)として、各端末装置10にインストール及び実行されるものとすることができる。
各端末装置10は、このような動作を実行することができる任意の端末装置であって、スマートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコンピュータ等を、これらに限定することなく含むことができるものである。
1-2.サーバ装置20
各サーバ装置20は、各配信ユーザの端末装置10により送信された動画を、各視聴ユーザの端末装置10に配信することができる。
また、各サーバ装置20は、各視聴ユーザの端末装置10により送信され、配信ユーザに対してギフトを付与する旨を示すギフト情報、及び/又は、配信ユーザに対してコメントを送信する旨を示すコメント情報を、その配信ユーザの端末装置10に送信することができる。
なお、一実施形態では、動画の配信に関連する動作、ギフト情報に関連する動作、及び、コメント情報に関連する動作が、すべて各サーバ装置20により実行されるものとすることができる。別の実施形態では、これらの動作が、複数のサーバ装置20により分担して実行され(ることにより、各サーバ装置20にかかる負担を分散す)るものとすることができる。
1-3.スタジオユニット30
スタジオユニット30は、演者が動画を配信する場所であるスタジオ、部屋、ホール等に配置され得る。スタジオユニット30は、上述したように、端末装置10と同様の機能を果たすことが可能なものである。
2.各装置のハードウェア構成
次に、端末装置10及びサーバ装置20の各々が有するハードウェア構成の一例について説明する。
2-1.端末装置10のハードウェア構成
各端末装置10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末装置10(サーバ装置20)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されたものである。)
図2に示すように、各端末装置10は、主に、中央処理装置11と、主記憶装置12と、入出力インタフェイス装置13と、入力装置14と、補助記憶装置15と、出力装置16と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置11は、「CPU」と称されるものであり、主記憶装置12に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置12に記憶させるものである。さらに、中央処理装置11は、入出力インタフェイス装置13を介して、入力装置14、補助記憶装置15及び出力装置16等を制御することができる。端末装置10は、1又はそれ以上のこのような中央処理装置11を含むことが可能である。
主記憶装置12は、「メモリ」と称されるものであり、入力装置14、補助記憶装置15及び通信回線2(サーバ装置20等)から、入出力インタフェイス装置13を介して受信した命令及びデータ、並びに、中央処理装置11の演算結果を記憶するものである。主記憶装置12は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。
補助記憶装置15は、主記憶装置12よりも大きな容量を有する記憶装置である。上述した特定のアプリケーション(動画配信用アプリケーション、動画視聴用アプリケーション等)やウェブブラウザアプリケーション等を構成する命令及びデータ(コンピュータプログラム)を記憶しておき、中央処理装置11により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を入出力インタフェイス装置13を介して主記憶装置12に送信することができる。補助記憶装置15は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。
入力装置14は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含むものである。センサは、後述するように、1又はそれ以上のカメラ等及び/又は1又はそれ以上のマイク等を含むセンサをこれらに限定することなく含むことができる。
出力装置16は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。
このようなハードウェア構成にあっては、中央処理装置11が、補助記憶装置15に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置12にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置13を介して出力装置16を制御し、或いはまた、入出力インタフェイス装置13及び通信回線2を介して、他の装置(例えばサーバ装置20及び他の端末装置10等)との間で様々な情報の送受信を行うことができる。
これにより、端末装置10は、インストールされた特定のアプリケーション(ミドルウェア、又は、アプリケーションとミドルウェアとを組み合わせたもの)を実行することにより、例えば、以下の動作のうちの少なくとも1つの動作を実行することができる。
・動画を配信するために必要な動作
・他の端末装置10により自端末装置10宛てに送信されたギフト情報及び/又はコメント情報を受信するために必要な動作
・他の端末装置10により配信された動画を受信及び表示するために必要な動作
・他の端末装置10に対してギフト情報及び/又はコメント情報を送信するために必要な動作等(後に詳述する様々な動作を含む)
なお、端末装置10は、中央処理装置11に代えて又は中央処理装置11とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むものであってもよい。
2-2.サーバ装置20のハードウェア構成
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20のハードウェア構成としては、例えば、上述した各端末装置10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
図2に示すように、各サーバ装置20は、主に、中央処理装置21と、主記憶装置22と、入出力インタフェイス装置23と、入力装置24と、補助記憶装置25と、出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26は、それぞれ、上述した各端末装置10に含まれる、中央処理装置11、主記憶装置12、入出力インタフェイス装置13、入力装置14、補助記憶装置15及び出力装置16と略同一なものとすることができる。
このようなハードウェア構成にあっては、中央処理装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信回線2を介して、他の装置(例えば各端末装置10等)との間で様々な情報の送受信を行うことができる。
これにより、サーバ装置20は、以下の動作のうちの少なくとも1つの動作を実行することができる。
・各配信ユーザの端末装置10により送信された動画を、各視聴ユーザの端末装置10に配信するために必要な動作
・各視聴ユーザの端末装置10により或る配信ユーザの端末装置10宛てに送信されたギフト情報及び/又はコメント情報を、その配信ユーザの端末装置10に送信するために必要な動作等(後に詳述する様々な動作を含む)
なお、サーバ装置20は、中央処理装置21に代えて又は中央処理装置21とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むものであってもよい。
2-3.スタジオユニット30のハードウェア構成
スタジオユニット30は、上述したように、端末装置10と同様の機能を果たすことが可能なものである。したがって、スタジオユニット30は、上述した端末装置10と同様のハードウェア構成を有することができる。
3.各装置の機能
次に、端末装置10及びサーバ装置20の各々が有する機能の一例について説明する。
3-1.端末装置10の機能
端末装置10の機能の一例について図3を参照して説明する。図3は、図1に示した端末装置10の機能の一例を模式的に示すブロック図である。
図3に示すように、端末装置10は、主に、動画生成部100と、情報生成部110と、通信部120と、表示部130と、記憶部140と、ユーザインタフェイス部150と、ギフト処理部160と、を含むことができる。
(1)動画生成部100
動画生成部110は、配信ユーザの動作に関する動作データに基づいて、この配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成することができる。これを実現するために、動画生成部110は、例えば、取得部112(図示せず)と、処理部114(図示せず)と、を含むことができる。
取得部112は、配信ユーザの動作に関するデータを取得する1又はそれ以上の第1のセンサ112a(図示せず)と、配信ユーザにより発せられた発話及び/又は歌唱に関する音声データを取得する1又はそれ以上の第2のセンサ112b(図示せず)と、を含むことができる。
第1のセンサ112aは、好ましい実施形態では、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。このようなカメラとしては、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラに含まれたものを用いることが可能である。第2のセンサ112bは、音声を記録するマイクロフォンを含むことができる。
まず、第1のセンサ112aに関して、取得部112は、配信ユーザの身体に近接して配置された第1のセンサ112aを用いて配信ユーザの身体を撮像する。これにより、取得部112は、RGBカメラにより取得された画像をタイムコード(取得した時間を示すコード)に対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。さらに、取得部112は、近赤外線カメラにより取得された所定数(例えば51個)の深度を示す数値(例えば浮動小数点の数値)を上記タイムコードに対応付けて単位時間にわたって記録したデータ(例えばTSVファイル)を生成することができる。ここで、TSVファイルとは、データ間をタブで区切って複数のデータを記録する形式のファイルをいう。
近赤外線カメラに関して、具体的には、ドットプロジェクタがドット(点)パターンを形成する赤外線レーザーを配信ユーザの身体に放射し、近赤外線カメラが、配信ユーザの身体に投影され反射した赤外線ドットを捉え、このように捉えた赤外線ドットの画像を生成する。取得部112は、予め登録されているドットプロジェクタにより放射されたドットパターンの画像と、近赤外線カメラにより捉えられた画像とを比較して、両画像における各ポイント(各特徴点)(例えば51個のポイント・特徴点の各々)における位置のずれを用いて各ポイント(各特徴点)の深度(各ポイント・各特徴点と近赤外線カメラとの間の距離)を算出することができる。取得部112は、このように算出された深度を示す数値を上記のようにタイムコードに対応付けて単位時間にわたって記録したデータを生成することができる。
次に、第2のセンサ112bに関して、取得部112は、配信ユーザに近接して配置された第2のセンサ112bを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声を取得する。これにより、取得部112は、タイムコードに対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。一実施形態では、取得部112は、第1のセンサ112aを用いて配信ユーザの身体に関するデータを取得することと同時に、第2のセンサ112bを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声データを取得することができる。この場合には、取得部112は、RGBカメラにより取得された画像と、第2のセンサ112bを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声データとを、同一のタイムコードに対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。
取得部112は、このように生成した、配信ユーザの動作に関するデータ(MPEGファイル及びTSVファイル等)、及び/又は、配信ユーザにより発せられた発話及び/又は歌唱に関する音声データ(MPEGファイル等)を、処理部114に出力することができる。
なお、ここでは、第1のセンサ112aがRGBカメラ及び赤外線カメラを含む場合について説明したが、第1のセンサ112aは、例えば、以下の(A)~(C)のうちのいずれかを含むものであってもよい。
(A)赤外線レーザーにより放射され配信ユーザの身体に反射した赤外線を検出するカメラ
(B)可視光線を撮像する複数のRGBカメラ
(C)可視光線を撮像する単一のカメラ
上記(A)の場合には、取得部112は、上述したものと同様の手法により、配信ユーザの身体における各特徴点について深度を算出することができる。上記(B)の場合には、取得部112は、複数のRGBカメラにより撮像された複数の画像を用いて、配信ユーザの身体における各特徴点について奥行(深度)を計算することができる。上記(C)の場合には、取得部112は、単一のカメラにより撮像された画像から、配信ユーザの身体における各特徴点の奥行(深度)を、ディープラーニング等を利用して算出することができる。また、上記(C)の場合には、取得部112は、単一のカメラにより撮像された画像に対する分析処理(画像処理等)により、配信ユーザの身体における各特徴点の奥行(深度)を算出してもよい。
処理部114は、取得部112からの、配信ユーザの動作に関するデータに基づいて、仮想的なキャラクター(配信ユーザのアバターオブジェクト)のアニメーションを含む動画を生成することができる。仮想的なキャラクターの動画自体については、処理部114は、図示しないキャラクターデータ記憶部に記憶された様々な情報(例えば、ジオメトリ情報、ボーン情報、テクスチャ情報、シェーダ情報及びブレンドシェイプ情報等)を用いて、図示しないレンダリング部にレンダリングを実行させることにより、仮想的なキャラクターの動画を生成することができる。
さらに、処理部114は、取得部112からの配信ユーザの動作に関するデータ(演者の身体における各特徴点の深度に関するデータ)を用いてアバターオブジェクト(の表情)を変化させた動画(例えば、アバターオブジェクトの表情が配信ユーザの口及び両目の動きに同期して変化した動画、すなわち、アバターオブジェクトの表情が演者の顔に対してリップシンク及び視線追従して変化した動画)を、様々な周知の技術を利用して生成することができる。
なお、配信ユーザの動作に関する動作データに基づいてこの配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するために、他の任意の周知な技術を利用することも可能である。
(2)情報生成部110
情報生成部110は、配信ユーザの発話に基づいて生成される音声と配信ユーザの動作に基づいて生成されるアバターオブジェクトのアニメーションを含む動画とを再生するために、各視聴ユーザの端末装置10により用いられる様々な情報を、生成するものである。
上記様々な情報には、例えば、以下の(a)~(d)に示す情報が含まれ得る。
(a)時間の経過とともに変化し、音声及び動画を再生する各視聴ユーザの端末装置10により基準にされる基準時間、に関する情報(以下「基準時間情報」という。)
(b)配信ユーザの発話に関する情報(以下「音声情報」という。)
この音声情報は、例えば、配信ユーザの発話を記録したWAVEファイル、MP3ファイル等を含むことができる。
(c)配信ユーザのアバターオブジェクトに関する情報(以下「アバター情報」という。)
このアバター情報は、例えば、配信ユーザに使用されるアバターオブジェクトの識別情報、並びに、仮想空間におけるアバターオブジェクトの座標及び方向等に関する情報を含むことができる。
(d)各視聴ユーザにより配信ユーザに対して付与されたギフトに対応するギフトオブジェクトに関する情報(以下「ギフトオブジェクト情報」という。)
このギフトオブジェクト情報は、例えば、ギフトオブジェクトの識別情報、並びに、仮想空間におけるギフトオブジェクトの座標及び方向等に関する情報を含むことができる。
(a)基準時間情報
情報生成部110は、基準時間情報として、例えば、時間の経過とともに変化する基準時間を記録したMPEGファイル等を生成することができる。各視聴ユーザの端末装置10は、このようなMPEGファイル等を再生することにより、例えば図6に例示したような、時間の経過とともに変化する「01:10:41」(1時間10分41秒)、「01:10:42」(1時間10分42秒)、「01:10:43」(1時間10分43秒)、・・・といった基準時間を取得することができる。なお、情報生成部110は、基準時間情報として、時間の経過とともに変化する基準時間を記録して、各視聴ユーザの端末装置10によりその基準時間が参照されることを可能にする、その他の任意の形態の情報を用いることが可能である。
(b)音声情報
情報生成部110は、音声情報として、配信ユーザの発話に関する音声信号を記録した、例えばMPEGファイル及びMP3ファイル等を生成することができる。このMPEGファイルは、上述した動画生成部100の取得部112により生成されたMEPGファイルであってもよい。
さらに、情報生成部110は、MPEGファイル等の音声情報に対して、基準時間に基づいて生成されたタイムスタンプを所定の時間間隔をおいて付加することができる。各視聴ユーザの端末装置10は、このようなMPEGファイル等を再生することにより、基準時間を取得することができ、かつ、この基準時間に同期した配信ユーザの発話に関する音声を再生することができる。なお、タイプスタンプは、基準時間をそのまま用いたものであってもよいし、所定の時間間隔ごとに基準時間を抽出したものであってもよい。
(c)アバター情報
情報生成部110は、アバター情報の中に、配信ユーザにより使用されるアバターオブジェクトの識別情報を含めることができる。これにより、各視聴ユーザの端末装置10は、予めサーバ装置20等から受信して記憶した複数のアバターオブジェクトの中から、この識別情報に対応するアバターオブジェクトを取得することができる。
さらに、情報生成部110は、アバター情報の中に、例えば、配信ユーザにより使用されるアバターオブジェクトに関する以下の(i)~(iii)に示す情報を含めることができる。
(i)仮想空間におけるアバターオブジェクトの座標、例えば、x軸(横方向に沿った軸)における座標、y軸(奥行方向に沿った軸)における座標、及び、z軸(鉛直方向に沿った軸)における座標を、単位時間ごとに記録した情報(アバター座標情報)
このようなアバター座標情報は、例えばアバターオブジェクトのアニメーションを生成する動画生成部110から取得することが可能である。
なお、仮想空間におけるアバターオブジェクトの座標は、特定の位置を基準として定められてもよい。ここで、特定の位置は、原点及び/又は初期位置を含み得る。
各視聴ユーザの端末装置10は、このアバター座標情報を参照することにより、単位時間ごとに、仮想空間におけるアバターオブジェクトの位置を決定することができる。
(ii)仮想空間におけるアバターオブジェクトの方向(向き)を、単位時間ごとに記憶した情報(アバター方向情報)
アバターオブジェクトの方向(向き)は、例えば、仮想空間において鉛直方向(z軸)に延びる軸を中心として、0度~359度のいずれかによって決定され得る(例えば、アバターオブジェクトが正面を向くときに0度が設定され、アバターオブジェクトが背面を向くときに180度が設定され得る)。
別の実施形態では、アバターオブジェクトの方向(向き)は、仮想空間において、特定の位置(初期位置及び原点等)を基準として、鉛直方向(z軸)に延びる軸を中心として、右方向又は左方向に対して回転(変化)させた角度(変化量)によって決定されてもよい。
このようなアバター方向情報は、例えばアバターオブジェクトのアニメーションを生成する動画生成部110から取得することが可能である。
各視聴ユーザの端末装置10は、このアバター方向情報を参照することにより、単位時間ごとに、仮想空間におけるアバターオブジェクトの方向(向き)を決定することができる。なお、アバター方向情報に適用される単位時間は、アバター座標情報に適用される単位時間と同一のものであっても異なるものであってもよい。
(iii)アバターオブジェクトの主要な部位の状態を、単位時間ごとに記録した情報(部位情報)
アバターオブジェクトにおける主要な部位とは、例えば、右目、左目、右眉、左眉、右頬、左頬、口、右耳、左耳、右手、左手、右足、及び/又は、左足等をこれらに限定することなく含むことができる。
アバター部位情報は、部位の識別情報と、この部位の状態を示す状態情報と、を対応付けて単位時間ごとに記録することができる。例えば、「右目」という部位に対応付けられた状態情報は、以下に例示した情報のうちのいずれか1つの情報をこれらに限定することなく含むことができる。
・右目が大きく見開かれ、黒目が右端に位置した状態を示す情報
・右目が大きく見開かれ、黒目が中央に位置した状態を示す情報
・右目が大きく見開かれ、黒目が左端に位置した状態を示す情報
・右目が中程度に見開かれ、黒目が右端に位置した状態を示す情報
・右目が中程度に見開かれ、黒目が中央に位置した状態を示す情報
・右目が中程度に見開かれ、黒目が左端に位置した状態を示す情報
・右目が閉じた状態を示す情報等(その他の任意の状態を示す情報が用いられてもよい)
このようなアバター部位情報は、例えばアバターオブジェクトのアニメーションを生成する(ために、アバターオブジェクトの座標を認識している)動画生成部110から取得することが可能である。
各視聴ユーザの端末装置10は、この状態情報を参照することにより、単位時間ごとに、仮想空間におけるアバターオブジェクトの部位の状態を決定することができる。なお、アバター部位情報に適用される単位時間は、アバター座標情報及び/又はアバター方向情報に適用される単位時間と同一のものであっても異なるものであってもよい。
さらに、情報生成部110は、このようなアバター情報に対して、基準時間に基づいて生成されたタイムスタンプを所定の時間間隔をおいて付加することができる。各視聴ユーザの端末装置10は、受信したアバター情報に含まれたタイムスタンプに同期させたタイミングで、この受信したアバター情報に含まれた、アバター座標情報、アバター方向情報、部位情報等の情報を適用することができる。なお、タイプスタンプは、基準時間をそのまま用いたものであってもよいし、所定の時間間隔ごとに基準時間を抽出したものであってもよい。
(d)ギフトオブジェクト情報
情報生成部110は、ギフトオブジェクト情報の中に、配信ユーザに対して付与されたギフトに対応するアバターオブジェクトの識別情報を含めることができる。これにより、各視聴ユーザの端末装置10は、予めサーバ装置20等から受信して記憶した複数のギフトオブジェクトの中から、この識別情報に対応するギフトオブジェクトを取得することができる。
さらに、情報生成部110は、ギフトオブジェクト情報の中に、例えば、当該ギフトオブジェクトに関する以下の(i)及び(ii)に示す情報を含めることができる。なお、(ii)に示す情報はオプションとして使用され得るものである。
(i)仮想空間におけるギフトオブジェクトの座標、例えば、x軸(横方向に沿った軸)における座標、y軸(奥行方向に沿った軸)における座標、及び、z軸(鉛直方向に沿った軸)における座標を、単位時間ごとに記録した情報(ギフトオブジェクト座標情報)
各視聴ユーザの端末装置10は、このギフトオブジェクト座標情報を参照することにより、単位時間ごとに、仮想空間におけるギフトオブジェクトの位置を決定することができる。
各ギフトオブジェクトの動作は、予め定められたものであってもよい。この場合、ギフトオブジェクトの識別情報に対応付けて、そのギフトオブジェクトの動作に関する規則(仮想空間における上方から底面までy軸の周りに所定のレートで回転しながら落下する等)を示す情報が、記憶部140に記憶され得る。よって、情報生成部110は、ギフトオブジェクトの識別情報を検索キーとして、このギフトオブジェクトの動作に関する規則を示す情報を読み出すことができる。情報生成部110は、このように読みだした情報に基づいて、ギフトオブジェクト座標情報を生成することができる。
(ii)仮想空間におけるギフトオブジェクトの方向(向き)を、単位時間ごとに記憶した情報(ギフトオブジェクト方向情報)
ギフトオブジェクトの方向(向き)は、例えば、仮想空間において鉛直方向に延びる軸(例えば、z軸)を中心として、0度~359度のいずれかによって決定され得る第1の方向を含むことができる。例えば、ギフトオブジェクトが正面を向くときに0度が設定され、ギフトオブジェクトが背面を向くときに180度が設定され得る。
さらに、ギフトオブジェクトの方向(向き)は、例えば、仮想空間において水平方向に延びる軸(例えば、y軸)を中心として、0度~359度のいずれかによって決定され得る第2の方向と、を含むことができる。例えば、ギフトオブジェクトの頂点が上方に位置するときに0度が設定され、アバターオブジェクトの頂点が下方に位置するときに180度が設定され得る。
さらにまた、ギフトオブジェクトの方向(向き)は、例えば、仮想空間において水平方向に延びる軸(例えば、x軸)を中心として、0度~359度のいずれかによって決定され得る第3の方向と、を含むことができる。例えば、ギフトオブジェクトの顔が正面を向くときに0度が設定され、ギフトオブジェクトの顔が底面を向くときに180度が設定され得る。
各ギフトオブジェクトの動作は、予め定められたものであってもよい。この場合、ギフトオブジェクトの識別情報に対応付けて、そのギフトオブジェクトの動作に関する規則(仮想空間における上方から底面までy軸の周りに所定のレートで回転しながら落下する等)を示す情報が、記憶部140に記憶され得る。よって、情報生成部110は、ギフトオブジェクトの識別情報を検索キーとして、このギフトオブジェクトの動作に関する規則を示す情報を読み出すことができる。情報生成部110は、このように読みだした情報に基づいて、ギフトオブジェクト方向情報を生成することができる。
各視聴ユーザの端末装置10は、このギフトオブジェクト方向情報を参照することにより、単位時間ごとに、仮想空間におけるアバターオブジェクトの方向(向き)を決定することができる。なお、ギフトオブジェクト方向情報に適用される単位時間は、ギフトオブジェクト座標情報に適用される単位時間と同一のものであっても異なるものであってもよい。
さらに、情報生成部110は、このようなギフトオブジェクト情報に対して、基準時間に基づいて生成されたタイムスタンプを所定の時間間隔をおいて付加することができる。各視聴ユーザの端末装置10は、受信したギフトオブジェクト情報に含まれたタイムスタンプに同期させたタイミングで、この受信したギフトオブジェクト情報に含まれた、ギフトオブジェクト座標情報及びギフトオブジェクト方向情報を適用することができる。なお、タイプスタンプは、基準時間をそのまま用いたものであってもよいし、所定の時間間隔ごとに基準時間を抽出したものであってもよい。
(3)通信部120
通信部120は、動画の配信及び/又は視聴に必要とされる様々な情報を、サーバ装置20との間において通信することができる。また、通信部120は、端末装置10が配信ユーザの端末装置として動作する場合には、動画をサーバ装置20に送信し、この配信ユーザ宛てに送信されたギフト情報及び/又はコメント情報をサーバ装置20から受信することができる。さらに、通信部120は、端末装置10が視聴ユーザの端末装置として動作する場合には、配信ユーザの端末装置10により送信された動画をサーバ装置20から受信し、配信ユーザに対してギフト情報及び/又はコメント情報をサーバ装置20に送信することができる。
(4)表示部130
表示部130は、動画の配信及び/又は視聴に必要とされる様々な情報を表示することができる。例えば、表示部130は、当該端末装置10が配信ユーザの端末装置10として動作する場合には、動画生成部100から受信した、配信ユーザのアバターオブジェクトのアニメーション等を含む動画を表示することができる。さらに、表示部130は、当該端末装置10が視聴ユーザの端末装置10として動作する場合には、配信ユーザの端末装置10からサーバ装置20を介して受信した様々な情報を用いて、配信ユーザのアバターオブジェクトのアニメーション等を含む動画を表示することができる。
(5)記憶部140
記憶部140は、動画の配信及び/又は視聴に必要とされる様々な情報を記憶することができる。
(6)ユーザインタフェイス部150
ユーザインタフェイス部150は、動画の配信及び/又は視聴に必要とされる様々な情報をユーザの操作を介して入力することができる。
(7)ギフト処理部160
ギフト処理部160は、動画の配信及び/又は視聴に関して送受信されるギフト情報を処理することができる。例えば、ギフト処理部160は、当該端末装置10が配信ユーザの端末装置10として動作する場合には、この配信ユーザ宛てに送信されたギフト情報を処理することができる。また、ギフト処理部160は、当該端末装置10が視聴ユーザの端末装置10として動作する場合には、この視聴ユーザが送信するギフト情報を処理することができる。
3-2.サーバ装置20の機能
サーバ装置20の機能の一例について図4を参照して説明する。図4は、図1に示したサーバ装置20の機能の一例を模式的に示すブロック図である。図4に示すように、サーバ装置20は、主に、通信部200と、記憶部210と、ギフト処理部220と、を含むことができる。
通信部200は、動画の配信及び/又は視聴に必要とされる様々な情報を、配信ユーザの端末装置10及び/又は視聴ユーザの端末装置10との間において通信することができる。
記憶部210は、動画の配信及び/又は視聴に必要とされる様々な情報を記憶することができる。
ギフト処理部220は、各視聴ユーザから各配信ユーザ宛てに送信されたギフト情報を処理することができる。
3-3.スタジオユニット30の機能
スタジオユニット30は、上述したように、端末装置10と同様の機能を果たすことが可能なものである。したがって、スタジオユニット30は、図3を参照して説明した端末装置10の機能を有することが可能なものである。
4.動画配信システム1の動作
図5は、図1に示した動画配信システム1において行われる動作の一例を示すフロー図である。なお、図5において、左側部分には、少なくとも1人の配信ユーザの端末装置10により行われる動作が示され、中央部分には、サーバ装置20(ここでは1つのサーバ装置20)により行われる動作が示され、右側部分には、少なくとも1人の視聴ユーザの端末装置10により行われる動作が示されている。
まず、配信ユーザは、その端末装置10において動画配信用アプリケーションを起動させることにより、動画配信システム1における動作が開始される。
ステップ(以下「ST」という。)300において、配信ユーザは、その端末装置10を自身に対向させた状態において演技を行う。これにより、配信ユーザの端末装置10の動画生成部100は、配信ユーザのアバターオブジェクトのアニメーションを含む動画と、配信ユーザの発話に関する音声信号と、を生成することができる。
また、配信ユーザの端末装置10の情報生成部110は、各視聴ユーザの端末装置10による動画及び音声の再生を可能とするために、様々な情報を生成することができる。上記様々な情報には、上記「3-1(2)」項において述べたように、例えば、基準時間情報、音声情報及びアバター情報等が含まれ得る。
さらに、配信ユーザの端末装置10の通信部120は、このような様々な情報をサーバ装置20に送信する。上記様々な情報は、伝送される(伝送された)情報と基準時間に基づくタイムスタンプとの対応関係が配信ユーザの端末装置10及び視聴ユーザの端末装置10の両方において明らかであるという条件が満たされる限りにおいて、任意の多重方式により相互に多重されサーバ装置20に送信されてもよい。このような条件が満たされていれば、各視聴ユーザの端末装置10は、上記様々な情報を受信したときに、伝送された情報の各々を、その各々に対応するタイムスタンプに従って適切に処理することができる。多重方式については、アバター情報400、音声情報410、基準時間情報420及び後述するギフトオブジェクト情報430は、それぞれ、別々のチャネルを介して送信されてもよいし、これらの情報のうちの複数が同一のチャネルを介して送信されてもよい。チャネルは、タイムスロット、周波数帯域、及び/又は、拡散符号等を含み得る。
次に、ST300における動作と並行して、配信ユーザの端末装置10の表示部130は、ST302において、動画生成部100により生成された動画を、配信ユーザに対するフィードバックとして表示することができる。
配信ユーザの端末装置10は、ST300及びST302における動作を、以下に説明するST304~ST314における動作と並行して行うことができる。
次に、ST304において、サーバ装置20は、配信ユーザの端末装置10から継続的に送信されてくる上記様々な情報を、各視聴ユーザの端末装置10に配信することができる。各視聴ユーザの端末装置10は、動画視聴用アプリケーションを実行している。
ST306において、各視聴ユーザの端末装置10の通信部120は、サーバ装置20から上記様々な情報を受信して記憶部140に記憶させることができる。一実施形態では、音声情報が他の情報に比べて大きな容量を有する可能性及び/又は通信回線2に障害が発生する可能性を考慮して、各視聴ユーザの端末装置10は、サーバ装置20から受信した上記様々な情報を一時的に記憶部140に記憶(バッファリング)することができる。
このような様々な情報を受信及び記憶することに並行して、ST308において、各視聴ユーザの端末装置10の表示部130は、配信ユーザの端末装置10からサーバ装置20を介して受信及び記憶した上記様々な情報を用いて、動画及び音声を再生することができる。
図6は、図1に示す動画配信システム1における各視聴ユーザの端末装置10が受信した情報を用いて動画及び音声を再生する手法の一例を概念的に示す模式図である。図6に示すように、各視聴ユーザの端末装置10は、アバター情報400と、音声情報410と、基準時間情報420と、を受信することができる。なお、図6に示した例では、各視聴ユーザの端末装置10は、この時点では、ギフトオブジェクト情報を受信していない。
各視聴ユーザの端末装置10の表示部130は、記憶部140に記憶されている基準時間情報420を順次読み出し、読み出した基準時間情報420を処理することができる。具体的には、表示部130は、例えば基準時間情報420がMPEGファイル等である場合には、MPEGファイル等を再生することにより、時間の経過とともに変化する基準時間422を取得することができる。図6には、このような基準時間422の一部として、「01:10:41」(1時間10分41秒)という基準時間422a、「01:10:42」(1時間10分42秒)という基準時間422b、「01:10:43」(1時間10分43秒)という基準時間422c、「01:10:44」(1時間10分44秒)という基準時間422d、「01:10:45」(1時間10分45秒)という基準時間422eが例示されている。すなわち、1秒ごとに基準時間422が得られる例が示されている。
さらに、表示部130は、記憶部140に記憶されている音声情報410を順次読み出し、読み出した音声情報410を処理することができる。図6には、音声情報410が連続的に繋がった情報を含む例が示されている。このような音声情報410には、所定の時間間隔(ここでは1秒間隔)をおいてタイムスタンプが付加されている。図6には、音声情報410に、「01:10:41」(1時間10分41秒)、「01:10:42」(1時間10分42秒)、「01:10:43」(1時間10分43秒)、「01:10:44」(1時間10分44秒)、・・・というタイムスタンプが付加されている例が示されている。
表示部130は、音声情報410に含まれたこのような各タイムスタンプが、基準時間情報420から取得された基準時間422に一致又は略一致するタイミングにおいて、音声情報410に含まれた各タイムスタンプに対応する音声信号を再生することができる。すなわち、表示部130は、音声情報410に含まれた各タイムスタンプを基準時間情報420に含まれた基準時間422に同期させながら、音声情報410に含まれた各タイムスタンプに対応する音声信号を再生することができる。
さらにまた、表示部130は、記憶部140に記憶されているアバター情報400を順次読み出し、読み出したアバター情報400を処理することができる。図6には、識別情報「M00023」が付与されたアバター情報402a、及び、識別情報「M00024」が付与されたアバター情報402bといった、相互に分離したアバター情報400の一例が示されている。このように複数のアバター情報400が連続的に繋がったものではなく相互に分離しているのは、アバター情報400は、上述したように、単位時間ごとに(ここでは2秒間隔で)生成されるからである。
図6には、「01:10:42」(1時間10分42秒)というタイムスタンプが付加されたアバター情報402a、及び、「01:10:44」(1時間10分44秒)というタイムスタンプが付加されたアバター情報402bが示されている。
表示部130は、アバター情報402aに含まれたタイムスタンプ(01:10:42)を基準時間情報420に含まれた基準時間422b(01:10:42)に一致又は略一致するタイミングにおいて、アバター情報402aに含まれた、アバター座標情報、アバター方向情報及び部位情報を適用することができる。すなわち、表示部130は、アバター情報402aに含まれたタイムスタンプ(01:10:42)を基準時間情報420に含まれた基準時間422b(01:10:42)に同期させながら、アバター情報402aに含まれた、アバター座標情報、アバター方向情報及び部位情報を適用することができる。
アバター座標情報を適用することにより、アバター情報402aに含まれた識別情報により識別されるアバターオブジェクトを、そのアバター座標情報により指定される座標に配置することができる。アバター方向情報を適用することにより、アバターオブジェクトを、そのアバター方向情報により指定される方向に回転させることができる。部位情報を適用することにより、アバターオブジェクトにおける各部位の状態を、その部位情報により指定される状態に変化させることができる。
表示部130は、アバター情報402aと同様にアバター情報402bについても、アバター情報402bに含まれたタイムスタンプ(01:10:44)を基準時間情報420に含まれた基準時間422b(01:10:44)に同期させながら、アバター情報402bに含まれた、アバター座標情報、アバター方向情報及び部位情報を適用することができる。
これにより、表示部130は、図8に例示されるように、(例えば単位時間ごとに生成された)アバター情報に指定される配信ユーザのアバターオブジェクト450が、(例えば単位時間ごとに生成された)アバター座標情報、アバター方向情報及び部位情報に基づいて仮想空間460において動作するアニメーションを生成することができる。
次に、図5に戻り、上述したST306及びST308における動作と並行して、ST310において、配信ユーザの端末装置10により配信されている動画を視聴している各視聴ユーザは、その端末装置10を用いて、その配信ユーザに対してギフトを付与する旨を示すギフト情報を送信することができる。このようなギフト情報は、例えば、付与すべきギフトの識別情報、配信ユーザの識別情報及び視聴ユーザの識別情報等を含むことができる。このようなギフト情報は、視聴ユーザの端末装置10によりサーバ装置20に送信される。
ST312において、サーバ装置30は、各視聴ユーザの端末装置10から受信したギフト情報を、このギフト情報に含まれた配信ユーザの識別情報に対応する配信ユーザの端末装置10に送信する。
ST314において、配信ユーザの端末装置10は、各視聴ユーザの端末装置10により自己宛てに送信されたギフト情報を、サーバ装置20を介して受信することができる。
ST316において、配信ユーザの端末装置10は、基本的にST300におけるものと同様の動作を行うことができる。さらに加えて、配信ユーザの端末装置10は、ST314において受信したギフト情報に基づいて、上記「3-1(2)(d)」項において説明したギフトオブジェクト情報(ギフトオブジェクト座標情報のみ又はこれに加えてギフトオブジェクト方向情報)をも生成することができる。
次に、ST320及びST322においては、各視聴ユーザの端末装置10は、それぞれ、上述したST304及びST306におけるものと同様の動作を行うことができる。但し、配信ユーザの端末装置10からサーバ装置20を介して各視聴ユーザの端末装置10に送信される様々な情報には、上述したST316においてギフト情報に基づいて生成されたギフトオブジェクト情報が含まれ得る。
次に、ST324において、各視聴ユーザの端末装置10は、基本的に上述したST308におけるものと同様の動作を行うことができる。さらに加えて、各視聴ユーザの端末装置10は、配信ユーザの端末装置10からサーバ装置20を介して受信及び記憶したギフトオブジェクト情報を含む様々な情報を用いて、動画及び音声を再生することができる。
図7は、図1に示す動画配信システム1における各視聴ユーザの端末装置10が受信した情報を用いて動画及び音声を再生する手法の別の例を概念的に示す模式図である。図7に示すように、各視聴ユーザの端末装置10は、アバター情報400、音声情報410及び基準時間情報420に加えて、さらにギフトオブジェクト情報430を受信することができる。
各視聴ユーザの端末装置10がどのように基準時間情報420、音声情報410及びアバター情報400を用いるのかについては、ST308に関連して上述したとおりであるので、ここではその説明を省略する。
表示部130は、記憶部140に記憶されているギフトオブジェクト情報430を順次読み出し、読み出したギフトオブジェクト情報430を処理することができる。図7には、識別情報「G01112」が付与されたギフトオブジェクト情報432a、識別情報「G01113」が付与されたギフトオブジェクト情報432b、及び、識別情報「G01114」が付与されたギフトオブジェクト情報432cといった、相互に分離したギフトオブジェクト情報430の一例が示されている。このように複数のギフトオブジェクト情報430が連続的に繋がったものではなく相互に分離しているのは、ギフトオブジェクト情報430は、上述したように、単位時間ごとに(ここでは1秒間隔で)生成されるからである。
図7には、「01:15:05」(1時間15分05秒)というタイムスタンプが付加されたギフトオブジェクト情報432a、「01:15:06」(1時間15分06秒)というタイムスタンプが付加されたギフトオブジェクト情報432b、及び、「01:15:07」(1時間15分07秒)というタイムスタンプが付加されたギフトオブジェクト情報432cが示されている。
表示部130は、ギフトオブジェクト情報432aに含まれたタイムスタンプ(01:15:05)を基準時間情報420に含まれた基準時間422f(01:15:05)に一致又は略一致するタイミングにおいて、ギフトオブジェクト情報432aに含まれた、ギフトオブジェクト座標情報及びギフトオブジェクト方向情報を適用することができる。すなわち、表示部130は、ギフトオブジェクト情報432aに含まれたタイムスタンプ(01:15:05)を基準時間情報420に含まれた基準時間422f(01:15:05)に同期させながら、ギフトオブジェクト情報432aに含まれた、ギフトオブジェクト座標情報及びギフトオブジェクト方向情報を適用することができる。
ギフトオブジェクト座標情報を適用することにより、ギフトオブジェクト情報432aに含まれた識別情報により識別されるギフトオブジェクトを、そのギフトオブジェクト座標情報により指定される座標に配置することができる。ギフトオブジェクト方向情報を適用することにより、ギフトオブジェクトを、そのギフトオブジェクト方向情報により指定される方向に回転させることができる。
表示部130は、ギフトオブジェクト情報432aと同様に、ギフトオブジェクト情報432bについても、ギフトオブジェクト情報432bに含まれたタイムスタンプ(01:15:06)を基準時間情報420に含まれた基準時間422g(01:15:06)に同期させながら、ギフトオブジェクト情報432bに含まれた、ギフトオブジェクト座標情報及びギフトオブジェクト方向情報を適用することができる。ギフトオブジェクト情報432cについても、ギフトオブジェクト情報432a及びギフトオブジェクト情報432bと同様に理解することが可能である。
これにより、表示部130は、図8に例示されるように、(例えば単位時間ごとに生成された)ギフトオブジェクト情報に指定されるギフトオブジェクト500が、(例えば単位時間ごとに生成された)ギフトオブジェクト座標情報及びギフトオブジェクト方向情報に基づいて仮想空間460において動作するアニメーションを生成することができる。
具体的には、表示部130は、基準時間(01:15:05)には、ギフトオブジェクト情報432aにより指定された座標及び方向に従ってギフトオブジェクト500Aを配置したアニメーションを生成することができる。また、表示部130は、基準時間(01:15:06)には、ギフトオブジェクト情報432bにより指定された座標及び方向に従ってギフトオブジェクト500Bを配置したアニメーションを生成することができる。さらに、表示部130は、基準時間(01:15:07)には、ギフトオブジェクト情報432cにより指定された座標及び方向に従ってギフトオブジェクト500Cを配置したアニメーションを生成することができる。これにより、表示部130は、ギフトオブジェクト500A(500)が表示された時点から約1秒後に、y軸の周りに90度方向を回転させかつ落下したギフトオブジェクト500B(500)を表示し、その時点から約1秒後に、y軸の周りにさらに90度方向を回転させかつ落下したギフトオブジェクト500C(500)を表示することができる。
図7を参照すると、ギフトオブジェクト情報432a、ギフトオブジェクト情報432b及びギフトオブジェクト情報432cに対して、それぞれ、基準時間422fに基づくタイムスタンプ(01:15:05)、基準時間422g(01:15:06)に基づくタイムスタンプ及び基準時間422h(01:15:07)に基づくタイムスタンプが付加されている。同様に、音声情報410においても、「熊ちゃんギフトが届いた!」という音声信号に対して、基準時間422g(01:15:06)に基づくタイムスタンプが付加され、「熊ちゃんが頭を床にぶつけたよ」という音声信号に対して、基準時間422i(01:15:08)に基づくタイムスタンプが付加されている。
したがって、これらの情報を用いる各視聴ユーザの端末装置10においては、動画にギフトオブジェクト500A(500)が登場した直後に、「熊ちゃんギフトが届いた!」という配信ユーザの音声が再生される。また、動画においてギフトオブジェクト500Cが床に当接した直後に、「熊ちゃんが頭を床にぶつけたよ」という配信ユーザの音声が再生される。
なお、図7には、ギフトオブジェクト情報432aに付加されたタイムスタンプとギフトオブジェクト情報432bに付加されたタイムスタンプとの間の時間間隔(1秒)と、ギフトオブジェクト情報432bに付加されたタイムスタンプとギフトオブジェクト情報432cに付加されたタイムスタンプとの間の時間間隔(1秒)と、が同一である例が示されている。しかし、別の実施形態では、これらの時間間隔は同一であっても異なるものであってもよい。これは、アバター情報402cに付加されたタイムスタンプとアバター情報402dに付加されたタイムスタンプとの間の時間間隔(2秒)と、アバター情報402dに付加されたタイムスタンプとアバター情報402e(図示せず)に付加されたタイムスタンプとの間の時間間隔との関係に対しても、同様に適用可能なものである。
図5に戻り、ST326において、処理を続行するか否かが判定される。処理を続行することが判定された場合には、処理は上述したST300に戻る。一方、処理を続行しないことが判定された場合には、処理は終了する。
5.変形例
上述した様々な実施形態では、図8に例示されるように、配信ユーザに対して視聴ユーザによりギフトが付与された場合、配信ユーザの端末装置10から各視聴ユーザの端末装置10に配信される動画には、そのギフトに対応するギフトオブジェクト500のみが表示される。別の実施形態では、配信ユーザに対して視聴ユーザによりギフトが付与された場合、配信ユーザの端末装置10から各視聴ユーザの端末装置10に配信される動画には、そのギフトに対応するギフトオブジェクト600に組み合わせて、そのギフトを付与した視聴ユーザに関する情報が表示されるようにしてもよい。そのギフトを付与した視聴ユーザに関する情報の一例として、図8には、その視聴ユーザの氏名又はハンドルネーム300Aが用いられ得る。これに代えて又はこれに加えて、その視聴ユーザのアバターオブジェクトの少なくとも一部(図示せず)が用いられるようにしてもよい。これを実現するためには、例えば、配信ユーザの端末装置10は、ギフトオブジェクト情報の中に、そのギフトを付与した視聴ユーザに関する情報を含めることができる。
これにより、各視聴ユーザは、配信ユーザにより配信される動画に、自己が配信ユーザにギフトを付与した行為に伴って自己に関連した情報が表示される。この結果、配信ユーザに対して積極的にギフトを付与しようとする意欲を、各視聴ユーザに与えることができる。
また、配信ユーザにより配信される動画に、多数のギフトオブジェクトが表示される場合であっても、これら多数のギフトオブジェクトのうちの少なくとも一部のギフトオブジェクトに組み合わせて、該少なくとも一部のギフトオブジェクトの各々に対応する視聴ユーザに関する情報が表示されることにより、当該各視聴ユーザは、これら多数のギフトオブジェクトの中から、自己が配信ユーザに付与したギフトに対応するギフトオブジェクトを迅速にかつ確実に識別することができる。
また、上述した様々な実施形態では、アバター情報400は、配信ユーザの動作における変化の有無に関係なく単位時間ごとに生成される場合について説明した。別の実施形態では、配信ユーザの端末装置10から各視聴ユーザの端末装置10に送信される情報の量をさらに抑えるために、アバター情報400は、配信ユーザの動作に変化が生じた期間のみについて、単位時間ごとに及び/又は任意の時間において、生成されるものであってもよい。
さらに、上述した様々な実施形態では、配信ユーザが動画の配信中に発話をし続ける可能性が高いことを考慮して、音声情報410は連続的に繋がった形態(例えばMPEGファイル等)をとる場合について説明した。別の実施形態では、音声情報410は、配信ユーザが発話を行った期間のみについて生成されるようにしてもよい。この場合であっても、生成される各々の音声情報には、単位時間ごとに及び/又は任意の時間において、基準時間に基づくタイムスタンプが付与されることが好ましい。
さらにまた、図8に例示された例では、各視聴ユーザから配信ユーザにより配信される動画に対する反応を送信する手段として、ギフトを付与することを例示した。これに加えて、又は、これに代えて、各視聴ユーザの端末装置10から配信ユーザの端末装置10に対してサーバ装置20を介して、配信ユーザ及び/又は動画に関するコメントを示すコメント情報を送信する手法を採用することも可能である。
このようなコメント情報は、例えば以下に示す情報を含むことができる。
・コメントの内容を示す情報
・コメント情報の受信先である配信ユーザの識別情報
・コメント情報の送信元である視聴ユーザの識別情報
このようなコメント情報は、各視聴ユーザの端末装置10からサーバ装置20に送信される。サーバ装置20は、コメント情報に含まれた配信ユーザの識別情報に基づいて、この配信ユーザの端末装置10に送信される。配信ユーザの端末装置10は、受信したコメント情報に基づいて、コメント参照情報を生成することができる。
コメント参照情報は、例えば以下に示す情報を含むことができる。
・コメントの内容を示す情報
・コメント情報を送信した視聴ユーザに関する情報(氏名、ハンドルネーム、及び/又は、アバターオブジェクトの少なくとも一部)
このようなコメント情報もまた、上述したギフトオブジェクト情報と同様に、基準時間に基づくタイムスタンプが付与され得る。
このようなコメント参照情報を受信した各視聴ユーザの端末装置10は、このコメント参照情報を上述したギフトオブジェクト情報と同様の手法により適用することができる。これにより、視聴ユーザの端末装置10の表示部130は、受信した基準情報に同期させつつ、コメント参照情報を処理して表示することができる。
また、上述した様々な実施形態では、好ましい実施形態として、アバター情報400にも基準情報に基づくタイムスタンプが付加される場合について説明した。別の実施形態では、例えば、配信ユーザのアバターオブジェクトの動作と配信ユーザの発話に基づく音声とを正確に同期させる必要がない場合等には、アバター情報400に基準時間に基づくタイムスタンプを付加する必要はない。
さらに、上述した様々な実施形態では、好ましい実施形態として、音声情報410に常に基準時間に基づくタイムスタンプが単位時間ごとに又は任意の時間に付加される場合について説明した。別の実施形態では、配信ユーザに対してギフトが付与されることに伴ってギフトオブジェクト情報430を送信する必要が生じたタイミングにおいてのみ、音声情報410に基準時間に基づくタイムスタンプが単位時間ごとに又は任意の時間に付加されるようにしてもよい。これにより、各視聴ユーザの端末装置10は、ギフトオブジェクト情報410を受信する度に、このギフトオブジェクト情報410に付加されたタイムスタンプに基づいて、このギフトオブジェクト情報410を音声情報420に同期させつつ処理することができる。
さらにまた、上述した様々な実施形態では、好ましい実施形態として、ギフトオブジェクト情報430は、ギフトオブジェクトの識別情報、ギフトオブジェクト座標情報及びギフトオブジェクト方向情報を含む場合について説明した。別の実施形態では、ギフトオブジェクト情報430は、ギフトオブジェクトの識別情報及びギフトオブジェクト座標情報のみを含むものであってもよい(ギフトオブジェクト方向情報はオプションとして使用可能である)。
なお、上述した様々な実施形態では、配信ユーザの端末装置10が、配信ユーザの動作情報(動作データ)に基づいて生成されたアバターオブジェクトに関する情報(アバターオブジェクト情報)を、各視聴ユーザの端末装置10に送信することにより、各視聴ユーザの端末装置10が、アバターオブジェクト情報に基づいて、アバターオブジェクトのアニメーションを含む動画を生成する場合について説明した。別の実施形態では、配信ユーザの端末装置10が、配信ユーザの動作情報を各視聴ユーザの端末装置10に送信することにより、各視聴ユーザの端末装置10が、この動作情報に基づいて、アバターオブジェクトのアニメーションを含む動画を生成することも可能である。この場合には、配信ユーザの端末装置10から各視聴ユーザの端末装置10に送信される動作情報には、基準情報に基づくタイムスタンプが、単位時間ごとに又は任意の時間に付加されることが必要である。なお、各視聴ユーザの端末装置10の動画生成部100は、上記「3-1(1)」項において説明したものと同様の手法により、アバターオブジェクトのアニメーションを含む動画を生成することが可能である。
また、以上の説明において、ギフトオブジェクト情報等に対して「基準時間に基づくタイムスタンプが付加されている」こととは、ギフトオブジェクト情報が基準時間に対応付けられている」ことに対応するものである。
以上説明した様々な実施形態において、上述した各端末装置10の動作は、この端末装置10と同様の構成を有するスタジオユニット30によっても同様に実行可能なものである。
なお、上述した様々な実施形態は、矛盾の生じない限りにおいて、相互に組み合わせて実装することが可能なものである。
以上説明したように、本件出願において開示された様々な実施形態では、配信ユーザの端末装置10から各視聴ユーザの端末装置10に対して動画を送信することなく、各視聴ユーザの端末装置10は、配信ユーザの動作に基づくアバターオブジェクトのアニメーションを含む動画を再生することができる。よって、配信ユーザの端末装置10から各視聴ユーザの端末装置10に送信される情報の量を抑えることができる。これにより、各視聴ユーザの端末装置10は、通信網2に生ずる障害に起因する影響を抑えつつ動画を再生することができる。
さらに、各視聴ユーザの端末装置10は、配信ユーザの端末装置10から、基準時間に基づくタイムスタンプが付加されたギフトオブジェクト情報430及び音声情報420を受信し、ギフトオブジェクトの表示及び音声の再生の両方を同一の基準時間に同期させることができる。これにより、各視聴ユーザの端末装置10は、ギフトオブジェクトの表示と音声の再生とを同期させることができる。このような同期は、通信網2に障害が生じているか否か、及び、各視聴ユーザの端末装置10が音声情報420をバッファリングして再生するか否か等の影響を受け難いものである。
したがって、本件出願に開示された様々な実施形態によれば、各視聴ユーザの端末装置において、音声を再生するタイミングとギフトに対応するオブジェクトを描画するタイミングとの間におけるずれを少なくとも部分的に抑えることができる。
6.付記
第1の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能であり、基準時間に対応付けられた前記ギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する、ように前記プロセッサを機能させる」ことができる。
第2の態様に係るコンピュータプログラムは、上記第1の態様において「前記座標情報が、前記基準時間における第1の時間に対応する前記ギフトオブジェクトの座標に関する情報と、前記基準時間における前記第1の時間の後に生ずる第2の時間に対応する前記ギフトオブジェクトの座標に関する情報と、前記基準時間における前記第2の時間の後に生ずる第3の時間に対応する前記ギフトオブジェクトの座標に関する情報と、を含む」ことができる。
第3の態様に係るコンピュータプログラムは、上記第2の態様又は上記第3の態様において「前記座標情報が、前記基準時間に対応付けられた前記アバターオブジェクトの座標に関する情報をさらに含む」ことができる。
第4の態様に係るコンピュータプログラムは、上記第3の態様において「前記座標情報が、前記基準時間における第1の時間に対応する前記アバターオブジェクトの座標に関する情報と、前記基準時間における前記第1の時間の後に生ずる第2の時間に対応する前記アバターオブジェクトの座標に関する情報と、前記基準時間における前記第2の時間の後に生ずる第3の時間に対応する前記アバターオブジェクトの座標に関する情報と、を含む」ことができる。
第5の態様に係るコンピュータプログラムは、上記第2の態様又は上記第4の態様において「前記第1の時間と前記第2の時間との間隔が、該第2の時間と前記第3の時間との間隔と同一であるか又は異なる」ことができる。
第6の態様に係るコンピュータプログラムは、上記第1の態様から上記第5の態様のいずれかにおいて「前記基準時間に対応付けられた前記動作情報を前記複数の視聴ユーザの端末装置に向けて送信する」ことができる。
第7の態様に係るコンピュータプログラムは、上記第1の態様から上記第6の態様のいずれかにおいて「前記ギフトオブジェクトを識別する識別情報を前記複数の視聴ユーザの端末装置に向けて送信する」ことができる。
第8の態様に係るコンピュータプログラムは、上記第1の態様から上記第7の態様のいずれかにおいて「前記通信回線がインターネットを含む」ことができる。
第9の態様に係るコンピュータプログラムは、上記第1の態様から上記第8の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」ことができる。
第10の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、前記プロセッサが、前記命令を実行することにより、配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能である工程と、基準時間に対応付けられた前記ギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する工程と、を含む」ことができる。
第11の態様に係る方法は、上記第10の態様において「前記通信回線がインターネットを含む」ことができる。
第12の態様に係る方法は、上記第10の態様又は上記第11の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」ことができる。
第13の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信し、前記座標情報を用いて前記ギフトオブジェクトのアニメーションと前記配信ユーザのアバターオブジェクトのアニメーションとを含む動画を生成し、前記音声情報を用いて前記配信ユーザの発話に基づく音声信号を生成する、ように前記プロセッサを機能させる」ことができる。
第14の態様に係るコンピュータプログラムは、上記第13の態様において「前記通信回線がインターネットを含む」ことができる。
第15の態様に係るコンピュータプログラムは、上記第13の態様又は上記第14の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」ことができる。
第16の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、前記プロセッサが、前記命令を実行することにより、基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信する工程と、前記座標情報を用いて前記ギフトオブジェクトのアニメーションと前記配信ユーザのアバターオブジェクトのアニメーションとを含む動画を生成する工程と、前記音声情報を用いて前記配信ユーザの発話に基づく音声信号を生成する工程と、を含む」ことができる。
第17の態様に係る方法は、上記第16の態様において「前記通信回線がインターネットを含む」ことができる。
第18の態様に係る方法は、上記第16の態様又は上記第17の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」ことができる。
第19の態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該プロセッサが、基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信し、前記座標情報及び前記音声情報を、通信回線を介して複数の視聴ユーザの端末装置に送信することにより、前記配信ユーザの動作に関する動作情報に基づいて生成される前記配信ユーザのアバターオブジェクトのアニメーションと前記ギフトオブジェクトのアニメーションとを含む動画、及び、前記配信ユーザの発話に基づく音声信号を、前記複数の視聴ユーザの端末装置に生成させる」ことができる。
第20の態様に係るサーバ装置は、上記第19の態様において「前記通信回線がインターネットを含む」ことができる。
第21の態様に係るサーバ装置は、上記第19の態様又は上記第20の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」ことができる。
第22の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、前記プロセッサが、前記命令を実行することにより、基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトの座標に関する情報を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信する工程と、前記座標情報及び前記音声情報を、通信回線を介して複数の視聴ユーザの端末装置に送信することにより、前記配信ユーザの動作に関する動作情報に基づいて生成される前記配信ユーザのアバターオブジェクトのアニメーションと前記ギフトオブジェクトのアニメーションとを含む動画、及び、前記配信ユーザの発話に基づく音声信号を、前記複数の視聴ユーザの端末装置に生成させる工程と、を含む」ことができる。
第23の態様に係る方法は、上記第22の態様において「前記通信回線がインターネットを含む」ことができる。
第24の態様に係る方法は、上記第22の態様又は上記第23の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」ことができる。
1 動画配信システム
2 通信網(通信回線)
10(10A~10C) 端末装置
20(20A~20C) サーバ装置
30(30A、30B) スタジオユニット
100 動画生成部
110 情報生成部
120 通信部
130 表示部
140 記憶部
150 ユーザインタフェイス部
160 ギフト処理部
200 通信部
210 記憶部
220 ギフト処理部
400、402a~402d アバター情報
410 音声情報
420 基準時間情報
422a~422j 基準時間
430、432a~432c ギフトオブジェクト情報
450 アバターオブジェクト
500、600 ギフトオブジェクト

Claims (26)

  1. 少なくとも1つのプロセッサにより実行されることにより、
    配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能であり、
    基準時間に対応付けられた、前記配信ユーザに対して前記視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作する前記ギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記アバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する、
    ように前記プロセッサを機能させることを特徴とするコンピュータプログラム。
  2. 前記座標情報は、前記配信ユーザの動作において変化が生じた期間のみについて、前記アバターオブジェクトの座標を示す情報を含む、請求項1に記載のコンピュータプログラム。
  3. 前記アバターオブジェクトの座標を示す情報は、
    前記アバターオブジェクトの動作と前記音声情報とを同期させる必要がある場合、前記基準時間に対応付けられ、
    前記アバターオブジェクトの動作と前記音声情報とを同期させる必要がない場合、前記基準時間に対応付けられない、請求項1に記載のコンピュータプログラム。
  4. 前記音声情報は、
    前記ギフトオブジェクトの座標を示す情報を送信する必要がある場合、前記基準時間に対応付けられ、
    前記ギフトオブジェクトの座標を示す情報を送信する必要がない場合、前記基準時間に対応付けられない、請求項1に記載のコンピュータプログラム。
  5. 前記ギフトオブジェクトの座標を示す情報に加えて、該ギフトオブジェクトを前記配信ユーザに対して付与した前記視聴ユーザに関する情報を、前記複数の視聴ユーザの端末装置に向けて送信する、
    ように前記プロセッサを機能させる、請求項1に記載のコンピュータプログラム。
  6. 前記通信回線がインターネットを含む、請求項1から請求項5のいずれかに記載のコンピュータプログラム。
  7. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項1から請求項6のいずれかに記載のコンピュータプログラム。
  8. コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
    前記プロセッサが、前記命令を実行することにより、
    配信ユーザの動作に関する動作情報に基づいて生成される該配信ユーザのアバターオブジェクトのアニメーションと、該配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って動作するギフトオブジェクトのアニメーションと、を含む動画を生成することが可能である工程と、
    基準時間に対応付けられた、前記配信ユーザに対して前記視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作する前記ギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記アバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して複数の視聴ユーザの端末装置に向けて送信する工程と、
    を含むことを特徴とする方法。
  9. 前記通信回線がインターネットを含む、請求項8に記載の方法。
  10. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項8又は請求項9に記載の方法。
  11. 少なくとも1つのプロセッサにより実行されることにより、
    基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作するギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記配信ユーザのアバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信し、
    前記座標情報を用いて前記ギフトオブジェクトのアニメーションと前記アバターオブジェクトのアニメーションとを含む動画を生成し、
    前記音声情報を用いて前記配信ユーザの発話に基づく音声信号を生成する、
    ように前記プロセッサを機能させることを特徴とするコンピュータプログラム。
  12. 前記動画において、前記ギフトオブジェクトは予め定められた規則に従って動作するように表示される、請求項11に記載のコンピュータプログラム。
  13. 前記動画において、前記ギフトオブジェクトは前記配信ユーザの動作に同期せずに動作するように表示される、請求項11又は請求項12に記載のコンピュータプログラム。
  14. 前記動画において、前記ギフトオブジェクトは前記アバターオブジェクトとは距離をおいて配置されるように表示される、請求項11から請求項13のいずれかに記載のコンピュータプログラム。
  15. 前記動画において、前記アバターオブジェクトは前記配信ユーザの動作に同期して動作するように表示される、請求項11から請求項14のいずれかに記載のコンピュータプログラム。
  16. 前記通信回線がインターネットを含む、請求項11から請求項15のいずれかに記載のコンピュータプログラム。
  17. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項11から請求項15のいずれかに記載のコンピュータプログラム。
  18. コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
    前記プロセッサが、前記命令を実行することにより、
    基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作するギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記配信ユーザのアバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信する工程と、
    前記座標情報を用いて前記ギフトオブジェクトのアニメーションと前記アバターオブジェクトのアニメーションとを含む動画を生成する工程と、
    前記音声情報を用いて前記配信ユーザの発話に基づく音声信号を生成する工程と、
    を含むことを特徴とする方法。
  19. 前記通信回線がインターネットを含む、請求項18に記載の方法。
  20. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項18又は請求項19に記載の方法。
  21. 少なくとも1つのプロセッサを具備し、
    該プロセッサが、
    基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作するギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記配信ユーザのアバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信し、
    前記座標情報及び前記音声情報を、通信回線を介して複数の視聴ユーザの端末装置に送信することにより、前記配信ユーザの動作に関する動作情報に基づいて生成される前記アバターオブジェクトのアニメーションと前記ギフトオブジェクトのアニメーションとを含む動画、及び、前記配信ユーザの発話に基づく音声信号を、前記複数の視聴ユーザの端末装置に生成させる、
    ことを特徴とするサーバ装置。
  22. 前記通信回線がインターネットを含む、請求項21に記載のサーバ装置。
  23. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項21又は請求項22に記載のサーバ装置。
  24. コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
    前記プロセッサが、前記命令を実行することにより、
    基準時間に対応付けられた、配信ユーザに対して視聴ユーザにより付与され予め定められた規則に従って該配信ユーザの動作に同期せずに動作するギフトオブジェクトの座標を示す情報と、前記基準時間に対応付けられた又は対応付けられていない前記配信ユーザのアバターオブジェクトの座標を示す情報と、を含む座標情報、及び、前記基準時間に対応付けられた前記配信ユーザの発話に関する音声情報を、通信回線を介して前記配信ユーザの端末装置から受信する工程と、
    前記座標情報及び前記音声情報を、通信回線を介して複数の視聴ユーザの端末装置に送信することにより、前記配信ユーザの動作に関する動作情報に基づいて生成される前記アバターオブジェクトのアニメーションと前記ギフトオブジェクトのアニメーションとを含む動画、及び、前記配信ユーザの発話に基づく音声信号を、前記複数の視聴ユーザの端末装置に生成させる工程と、
    を含むことを特徴とする方法。
  25. 前記通信回線がインターネットを含む、請求項24に記載の方法。
  26. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)である、請求項24又は請求項25に記載の方法。
JP2020180303A 2020-01-27 2020-10-28 コンピュータプログラム、方法及びサーバ装置 Active JP7285244B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020180303A JP7285244B2 (ja) 2020-01-27 2020-10-28 コンピュータプログラム、方法及びサーバ装置
JP2023083905A JP2023101606A (ja) 2020-01-27 2023-05-22 コンピュータプログラム、方法及びサーバ装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020011016A JP6803485B1 (ja) 2020-01-27 2020-01-27 コンピュータプログラム、方法及びサーバ装置
JP2020180303A JP7285244B2 (ja) 2020-01-27 2020-10-28 コンピュータプログラム、方法及びサーバ装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020011016A Division JP6803485B1 (ja) 2020-01-27 2020-01-27 コンピュータプログラム、方法及びサーバ装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023083905A Division JP2023101606A (ja) 2020-01-27 2023-05-22 コンピュータプログラム、方法及びサーバ装置

Publications (2)

Publication Number Publication Date
JP2021118539A JP2021118539A (ja) 2021-08-10
JP7285244B2 true JP7285244B2 (ja) 2023-06-01

Family

ID=73836161

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020011016A Active JP6803485B1 (ja) 2020-01-27 2020-01-27 コンピュータプログラム、方法及びサーバ装置
JP2020180303A Active JP7285244B2 (ja) 2020-01-27 2020-10-28 コンピュータプログラム、方法及びサーバ装置
JP2023083905A Pending JP2023101606A (ja) 2020-01-27 2023-05-22 コンピュータプログラム、方法及びサーバ装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020011016A Active JP6803485B1 (ja) 2020-01-27 2020-01-27 コンピュータプログラム、方法及びサーバ装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023083905A Pending JP2023101606A (ja) 2020-01-27 2023-05-22 コンピュータプログラム、方法及びサーバ装置

Country Status (2)

Country Link
US (3) US11418855B2 (ja)
JP (3) JP6803485B1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6803485B1 (ja) 2020-01-27 2020-12-23 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7239123B1 (ja) 2022-09-01 2023-03-14 17Live株式会社 コンピュータプログラム及び端末
JP7550924B1 (ja) 2023-06-20 2024-09-13 カバー株式会社 プログラム、方法、およびシステム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149039A (ja) 1998-07-17 2000-05-30 Matsushita Electric Ind Co Ltd 多次元ストリ―ムデ―タを用いた、送信装置、送信方法、受信装置、受信方法および通信システム
JP6212667B1 (ja) 2016-12-26 2017-10-11 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
WO2018142494A1 (ja) 2017-01-31 2018-08-09 株式会社 ニコン 表示制御システム、及び、表示制御方法
JP6543403B1 (ja) 2018-12-12 2019-07-10 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5617057A (en) 1979-07-21 1981-02-18 Chiyou Lsi Gijutsu Kenkyu Kumiai Semiconductor inverter circuit element
JPH11185053A (ja) * 1997-12-25 1999-07-09 Casio Comput Co Ltd サイバースペースシステムおよびユーザ端末にサイバースペースを提供するプログラムを格納した記録媒体
US20110078578A1 (en) * 2009-04-24 2011-03-31 Sam Calis Interactive avatar
JP6641731B2 (ja) * 2015-06-05 2020-02-05 ソニー株式会社 送信装置及び送信方法、並びに受信装置及び受信方法
US20180063599A1 (en) * 2016-08-26 2018-03-01 Minkonet Corporation Method of Displaying Advertisement of 360 VR Video
JP6229089B1 (ja) * 2017-04-26 2017-11-08 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
JP6526898B1 (ja) * 2018-11-20 2019-06-05 グリー株式会社 動画配信システム、動画配信方法、及び動画配信プログラム
US20210225168A1 (en) 2020-01-21 2021-07-22 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for assisting occupants to exit a parked vehicle safely
JP6803485B1 (ja) 2020-01-27 2020-12-23 グリー株式会社 コンピュータプログラム、方法及びサーバ装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149039A (ja) 1998-07-17 2000-05-30 Matsushita Electric Ind Co Ltd 多次元ストリ―ムデ―タを用いた、送信装置、送信方法、受信装置、受信方法および通信システム
JP6212667B1 (ja) 2016-12-26 2017-10-11 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
WO2018142494A1 (ja) 2017-01-31 2018-08-09 株式会社 ニコン 表示制御システム、及び、表示制御方法
JP6543403B1 (ja) 2018-12-12 2019-07-10 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム

Also Published As

Publication number Publication date
JP6803485B1 (ja) 2020-12-23
US20220329918A1 (en) 2022-10-13
JP2023101606A (ja) 2023-07-21
US20240098344A1 (en) 2024-03-21
US20210235168A1 (en) 2021-07-29
US11418855B2 (en) 2022-08-16
US11871089B2 (en) 2024-01-09
JP2021118539A (ja) 2021-08-10
JP2021118456A (ja) 2021-08-10

Similar Documents

Publication Publication Date Title
JP7285244B2 (ja) コンピュータプログラム、方法及びサーバ装置
US10699482B2 (en) Real-time immersive mediated reality experiences
JP6700463B2 (ja) ヘッドマウントディスプレイ上の視覚的作用を制限するためのフィルタリング及びペアレンタルコントロール法
CN106648083B (zh) 增强演奏场景合成控制方法及装置
US10034036B2 (en) Media synchronization for real-time streaming
WO2016035748A1 (ja) サーバ装置、動画配信システム、それに用いられる制御方法及びコンピュータプログラム
JP2020039029A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
JP2014217627A (ja) 身体動作評価装置、カラオケシステム、及びプログラム
JP6830829B2 (ja) プログラム、表示装置、表示方法、放送システム及び放送方法
JP6315568B2 (ja) 通信カラオケシステム及びサーバ
JP2014110558A (ja) 情報処理装置、情報処理システム及びプログラム
JP2024019661A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7496558B2 (ja) コンピュータプログラム、サーバ装置、端末装置、及び方法
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
JP6688378B1 (ja) コンテンツ配信システム、配信装置、受信装置及びプログラム
US11843820B2 (en) Group party view and post viewing digital content creation
CN107135407B (zh) 一种钢琴视频教学中的同步方法及系统
JP7442979B2 (ja) カラオケシステム
JP2022173870A (ja) 鑑賞システム、鑑賞装置及びプログラム
CN115315960A (zh) 内容修正装置、内容发布服务器、内容修正方法以及记录介质
WO2023042436A1 (ja) 情報処理装置および方法、並びにプログラム
JP7314387B1 (ja) コンテンツ生成装置、コンテンツ生成方法、およびプログラム
JP7550411B1 (ja) プログラム、情報処理方法、サーバ、サーバの情報処理方法及び情報処理システム
JP7329209B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6789581B2 (ja) サーバ装置、動画配信システム、それに用いられる制御方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7285244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150