JP6923735B1 - 動画配信システム、動画配信方法及び動画配信プログラム - Google Patents

動画配信システム、動画配信方法及び動画配信プログラム Download PDF

Info

Publication number
JP6923735B1
JP6923735B1 JP2020184798A JP2020184798A JP6923735B1 JP 6923735 B1 JP6923735 B1 JP 6923735B1 JP 2020184798 A JP2020184798 A JP 2020184798A JP 2020184798 A JP2020184798 A JP 2020184798A JP 6923735 B1 JP6923735 B1 JP 6923735B1
Authority
JP
Japan
Prior art keywords
starring
user
distribution
users
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020184798A
Other languages
English (en)
Other versions
JP2022074618A (ja
Inventor
明史 吉田
明史 吉田
彩 倉淵
彩 倉淵
ジャスティン アンドルー リョウ
ジャスティン アンドルー リョウ
阿部 洋平
洋平 阿部
直也 木滑
直也 木滑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2020184798A priority Critical patent/JP6923735B1/ja
Priority to JP2021123769A priority patent/JP7194239B2/ja
Application granted granted Critical
Publication of JP6923735B1 publication Critical patent/JP6923735B1/ja
Priority to US17/453,642 priority patent/US20220141551A1/en
Publication of JP2022074618A publication Critical patent/JP2022074618A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23116Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion involving data replication, e.g. over plural servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信するユーザ同士での共演を促進するための動画配信システム、動画配信方法及び動画配信プログラムを提供する。【解決手段】動画配信システム1は、コンピュータ読み取り可能な命令を実行することにより、自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する複数の配信ユーザのうち登録要求を行った配信ユーザを第1共演可能ユーザとして登録し、第1共演可能ユーザのいずれかとの共演を申請する第1共演申請を共演申請ユーザから受け付けたことに応じて第1共演可能ユーザの中から第1共演ユーザを選択し、共演申請ユーザと第1共演ユーザとが共演する共演動画を配信する。【選択図】図1

Description

本明細書において開示される発明は、動画配信システム、動画配信方法及び動画配信プログラムに関する。
従来から、配信ユーザの動きに基づいてキャラクタのアニメーションを生成し、かかるキャラクタのアニメーションを含む動画をライブ配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2019−198053号公報に記載されている。かかる動画配信システムにおいて動画を視聴しているユーザは、自らのキャラクタを用いて他のユーザが配信する動画に参加することができる。つまり、従来の動画配信システムでは、二人以上の配信ユーザのキャラクタが動画内で仮想的に共演(コラボレーション)することができる。このような動画配信システムにおける共演機能は、例えば、特開2020−096269号公報に開示されている。従来の共演機能を備える動画配信システムにおいては、一のユーザによって配信されている動画に対して他のユーザが共演要求を送信し、この共演要求が許可されることで、共演要求を行ったユーザと当該共演要求を許可したユーザの各々のキャラクタを含む共演動画が生成され、当該共演動画が視聴ユーザに配信される。
特開2019−198053号公報 特開2020−096269号公報
従来の動画配信システムにおいて二人以上のユーザが共演する場合には、共演申請を行うユーザが配信中の多数の動画の中から参加先の動画を選択したり、多数の配信ユーザの中から共演相手を探し出したりする必要がある。また、動画又は共演相手を特定して共演申請を行っても、共演申請が許可されずに共演が実現しなかったり、共演申請が許可されるまでに長い時間がかかってしまったりするおそれがある。
このように、ユーザ同士での共演を自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信するユーザ同士での共演が可能な従来の動画配信システムにおいて、共演機能の利用を促進するための技術的な改善が望まれている。
本発明の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本発明のより具体的な目的の一つは、自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信するユーザ同士での共演を促進するための技術的な改善を提供することである。本発明のこれら以外の目的は、本明細書全体を参照することにより明らかとなる。
本発明の一態様は、動画配信システムに関する。本発明の一態様において、動画配信システムは、一又は複数のプロセッサを備える。本発明の一態様において、一又は複数のプロセッサは、コンピュータ読み取り可能な命令を実行することにより、自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する複数の配信ユーザのうち登録要求を行った配信ユーザを第1共演可能ユーザとして登録し、前記第1共演可能ユーザのいずれかとの共演を申請する第1共演申請を共演申請ユーザから受け付けたことに応じて前記第1共演可能ユーザの中から第1共演ユーザを選択し、前記共演申請ユーザと前記第1共演ユーザとが共演する共演動画を配信する。
本発明の一態様において、共演動画は、前記第1共演申請の受け付け後に前記第1共演ユーザの許可を得ることなく配信される。
本発明の一態様において、第1共演申請は、共演申請ユーザが第1共演ユーザの動画を視聴している間及び共演申請ユーザが第1共演ユーザの動画を視聴していない間のいずれにおいても受け付けられる。
本発明の一態様においては、複数の配信ユーザの各々に共演できるユーザの上限が設定されている。
本発明の一態様による動画配信システムは、記複数の配信ユーザの各々について前記上限と共演中のユーザの数との差で表される共演可能ユーザ数を管理し、複数の配信ユーザの各々の共演可能ユーザ数に基づいて第1共演ユーザが選択される。
本発明の一態様において、複数の配信ユーザの各々についてその属性を示す属性情報が設定されており、前記第1共演可能ユーザの前記属性情報に少なくとも基づいて前記第1共演ユーザが選択される。
本発明の一態様による動画配信システムは、複数の配信ユーザの中から選択された第2共演ユーザとの共演を申請する第2共演申請を前記共演申請ユーザから受け付けたことに応じ、前記共演申請ユーザと前記第2共演ユーザとの共演可否を判定し、前記共演申請ユーザと前記第2共演ユーザとの共演が可能と判定された場合に、前記共演申請ユーザと前記第2共演ユーザとが共演する他の共演動画を生成する。
本発明の一態様において、前記第2共演申請は、前記共演申請ユーザが前記第2共演ユーザの動画を視聴している間にのみ受け付けられる。
本発明の一態様において、前記第2共演ユーザは、前記複数の配信ユーザのうち前記第2共演申請を受け付ける一又は複数の第2共演可能ユーザから選択される。本発明の一態様による動画配信システムは、前記複数の配信ユーザのうち前記共演申請を受け付ける一又は複数の第1共演可能ユーザの少なくとも一部及び前記第2共演可能ユーザの少なくとも一部のうちの少なくとも一方を含む共演リストを前記共演申請ユーザに提供する。
本発明の一態様による動画配信システムは、前記複数の配信ユーザのうちの少なくとも一部を含むリストを表示し、前記リストにおいては、前記一又は複数の第1共演可能ユーザの各々は、前記複数の配信ユーザのうち前記第1共演可能ユーザではない配信ユーザから区別可能に表示される。
本発明の一態様による動画配信システムは、前記複数の配信ユーザの少なくとも一部が参加して行われるゲームを開始したユーザを前記第1共演可能ユーザとして登録する。
本発明の一態様は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法に関する。本発明の一態様による動画配信方法は、自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する複数の配信ユーザのうち登録要求を行った配信ユーザを第1共演可能ユーザとして登録する工程と、前記第1共演可能ユーザのいずれかとの共演を申請する第1共演申請を共演申請ユーザから受け付けたことに応じて前記第1共演可能ユーザの中から第1共演ユーザを選択する工程と、前記共演申請ユーザと前記第1共演ユーザとが共演する共演動画を生成する工程と、を備える。
本発明の一態様は、動画配信プログラムに関する。本発明の一態様による動画配信プログラムは、一又は複数のコンピュータプロセッサに、自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する複数の配信ユーザのうち登録要求を行った配信ユーザを第1共演可能ユーザとして登録する工程と、前記第1共演可能ユーザのいずれかとの共演を申請する第1共演申請を共演申請ユーザから受け付けたことに応じて前記第1共演可能ユーザの中から第1共演ユーザを選択する工程と、前記共演申請ユーザと前記第1共演ユーザとが共演する共演動画を生成する工程と、を実行させる。
本発明の実施形態によれば、自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信するユーザ同士での共演を促進することができる。
一実施形態による動画配信システムを示すブロック図である。 図1の動画配信システムで配信される動画を配信する配信ユーザ及び当該配信ユーザが使用している配信ユーザ装置を模式的に示す模式図である。 図1の動画配信システムにおいて記憶されるユーザ情報を説明する図である。 図1の動画配信システムにおいて記憶される共演動画情報を説明する図である。 一実施形態において配信ユーザ装置20aに表示される設定画面の例を示す図である。 一実施形態において視聴ユーザ装置10に表示される動画の画像の例を示す図である。 一実施形態において配信ユーザ装置20aに表示される動画の画像の例を示す図である。 一実施形態において配信ユーザ装置20bに表示される動画の画像の例を示す図である。 一実施形態において視聴ユーザ装置10に表示される共演動画の画像の例を示す図である。 一実施形態において共演申請ユーザの配信ユーザ装置20cに表示される共演動画の画像の例を示す図である。 一実施形態において配信ユーザ装置20aに表示される共演動画の画像の例を示す図である。 一実施形態において配信ユーザ装置20bに表示される共演動画の画像の例を示す図である。 一実施形態において第1共演申請に基づいて共演動画を配信する処理の流れを示すフロー図である。 一実施形態において第2共演申請に基づいて共演動画を配信する処理の流れを示すフロー図である。
以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。
図1から図5を参照して、一実施形態による動画配信システムについて説明する。まず、図1及び図2を参照して、一実施形態による動画配信システム1の概要について説明する。図1は、一実施形態による動画配信システム1を示すブロック図であり、図2は、動画配信システム1で動画を配信するユーザUa,Ub及び当該ユーザUa,Ubが使用している配信ユーザ装置20a,20bを模式的に示す模式図である。配信ユーザ装置20aは、動画配信システム1において、ユーザUaの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信するための機能を有し、配信ユーザ装置20bは、動画配信システム1において、ユーザUbの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信するための機能を有する。説明を簡潔にするために、図2には、二人のユーザ(ユーザUa,Ub)と、その各々が使用する配信ユーザ装置20a,20bのみが示されているが、動画配信システム1においては、三人以上のユーザが各々の配信ユーザ装置を用いて各ユーザの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信してもよい。図1には、配信ユーザ装置20a、20bに加えて、配信ユーザUcの配信ユーザ装置20cが示されている。配信ユーザ装置20cは、配信ユーザ装置20a,20bと同等の機能を備えるため、その詳細な説明は省略する。本明細書において参照符号を付けずに単に「配信ユーザ装置」という場合、当該「配信ユーザ装置」は、配信ユーザ装置20a,20bと同等の機能を備えることができる。
詳しくは後述するように、動画配信システム1は、二人以上の配信ユーザのキャラクタオブジェクトを含む共演動画を生成することができる。言い換えると、動画配信システム1においては、二人以上のユーザが動画内で各々のキャラクタオブジェクトを介して仮想的に共演することができる。このように、二人以上のユーザが各々のキャラクタオブジェクトを介して動画内で仮想的に共演している場合、その動画を共演動画と呼ぶ。動画配信システム1において動画を配信するユーザの各々は、他のユーザとの共演を申請することができる。例えば、ユーザUaは、ユーザUb及び/又はそれ以外のユーザとの共演を申請することができる。これとは逆に、ユーザUbもユーザUa及び/又はそれ以外のユーザとの共演を申請することができる。この共演申請に基づいて、共演を申請したユーザのキャラクタオブジェクトと共演を申請されたユーザのキャラクタオブジェクトとを含む共演動画が生成される。
あるユーザが他のユーザとの共演申請を行い、動画内で二人以上のユーザが共演する場合、その共演申請を行ったユーザを「ゲストユーザ」と呼ぶことがある。また、元々動画の配信を行っており、その動画における共演申請を受けたユーザを「ホストユーザ」と呼ぶことがある。ホストユーザ及びゲストユーザの概念は相対的なものである。例えば、ユーザUbがユーザUaとの共演を申請した場合にはユーザUaがホストユーザとなりユーザUbがゲストユーザとなるが、これとは逆にユーザUaがユーザUbとの共演を申請した場合にはユーザUaがゲストユーザとなりユーザUbがホストユーザとなる。
ユーザUa及びユーザUbはいずれも、自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する配信ユーザであるとともに、他の配信ユーザの動画を視聴する視聴ユーザでもある。このため、配信ユーザ装置20a,20bは、動画配信システム1において配信される動画を視聴する機能を有していてもよい。
動画配信システム1は、多数のユーザによって利用されることが想定されている。動画配信システム1のユーザには、動画を配信する配信ユーザと、配信されている動画を視聴する視聴ユーザと、が含まれる。動画配信システム1のユーザは、動画配信システム1の利用態様によって配信ユーザと視聴ユーザとに分けられるが、動画配信システム1の利用態様によって一人のユーザが配信ユーザにもなり得るし視聴ユーザにもなり得る。例えば、動画配信システム1を利用して動画を配信する配信ユーザは、動画配信システム1を利用して他の配信ユーザが配信した動画を視聴することができるので、動画の配信時には配信ユーザであり、動画の視聴時には視聴ユーザである。
動画配信システム1においては多数の配信ユーザが動画を配信することが想定されているため、例えば配信ユーザUa、Ub、Ucが多数の配信ユーザの中から共演相手を探すことは容易ではない。そこで、本発明の一実施形態による動画配信システム1は、配信ユーザUa、Ub、Uc(及びそれ以外の配信ユーザ)による共演相手の選定をサポートする機能を備える。具体的には、動画配信システム1は、他のユーザとの共演を希望する配信ユーザから共演相手を特定又は指定しない共演相手非指定型の共演申請(以下、「第1共演申請」という。)を受け付け、その第1共演申請に基づいて、当該第1共演申請を行った共演申請ユーザと共演する共演相手となるユーザを選定する機能を備えることができる。本明細書では、第1共演申請に基づいて共演申請ユーザの共演相手として選択される配信ユーザを「第1共演ユーザ」と呼ぶことがある。第1共演ユーザは、動画配信システム1を利用して動画を配信する複数の配信ユーザのうち第1共演申請に基づいて共演申請ユーザと共演することを許可している配信ユーザ(以下、「第1共演可能ユーザ」と呼ぶ。)の中から選択される。このように、動画配信システム1では、共演相手を指定しない第1共演申請に基づいて、第1共演申請を行った共演申請ユーザと他のユーザとの共演を実現することにより、共演相手を特定又は指定することなく他のユーザとの共演を実現できる。これにより、配信ユーザ間での共演の活性化が図られている。
動画配信システム1は、共演申請ユーザから共演相手を指定する共演申請(以下、「第2共演申請」という。)を受け付けたことに応じて、当該共演申請ユーザと当該第2共演申請において指定されたユーザ(以下、「第2共演ユーザ」という。)との共演可否を判定し、共演が可能と判定された場合に当該共演申請ユーザと当該第2共演ユーザとの共演を実現してもよい。第2共演ユーザは、動画配信システム1を利用して動画を配信する複数の配信ユーザのうち他の配信ユーザからの第2共演申請を受け付けているユーザ(以下、「第2共演可能ユーザ」という。)の中から共演申請ユーザによって指定される。これにより、動画配信システム1は、共演相手を指定する第2共演申請に基づいてユーザ同士の共演を実現することができる。第2共演可能ユーザは、第1共演可能ユーザと重複していてもよい。つまり、ある配信ユーザは、第1共演可能ユーザであり且つ第2共演可能ユーザであってもよい。
共演申請ユーザ、第1共演可能ユーザ、第2共演可能ユーザ、第1共演ユーザ、及び第2共演ユーザはいずれも、動画配信システム1において自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する配信ユーザに含まれる。
次に、動画配信システム1のアーキテクチャ及び動画配信システム1を構成する装置の概要を説明し、その後に各装置の機能を説明する。この各装置の機能の説明において、第1共演ユーザや第2共演ユーザと共演する機能や処理が具体的に説明される。
動画配信システム1は、視聴ユーザ装置10と、配信ユーザ装置20a、20b、20cと、サーバ60と、ストレージ70と、を備える。視聴ユーザ装置10と、配信ユーザ装置20a、20b、20cと、サーバ60と、ストレージ70とは、ネットワーク50を介して相互に通信可能に接続されている。サーバ60は、後述するように、配信ユーザUa、Ub、Uc及びこれら以外の配信ユーザのキャラクタオブジェクトのアニメーションを含む動画を配信するように構成される。サーバ60は、キャラクタオブジェクトのアニメーションを含む動画以外の動画を配信できるように構成されてもよい。サーバ60は、動画配信サービス以外にも、ユーザ同士が交流するためのソーシャルネットワーキングサービスまたは当該サービス用のプラットフォーム機能を提供してもよい。
動画配信システム1において、動画は、サーバ60から視聴ユーザ装置10及び配信ユーザ装置20a、20b、20cに配信される。配信された動画は、視聴ユーザ装置10のディスプレイに表示される。視聴ユーザ装置10のユーザである視聴ユーザは、配信された動画を視聴ユーザ装置10により視聴することができる。配信ユーザUa、Ub、Ucは、配信された動画を視聴することにより、配信中の動画を確認しながらパフォーマンスを行うことができる。説明を簡潔するために図1には視聴ユーザ装置10が1台だけ示されているが、動画配信システム1は、複数の視聴ユーザ装置を備えていてもよい。また、図1には配信ユーザ装置が3台だけ示されているが、上記のとおり、動画配信システム1は、4台以上の配信ユーザ装置を備えていてもよい。また、上記のとおり、配信ユーザUa、Ub、Ucは、視聴ユーザでもある。よって、自らの動画を配信していない場合には、他の配信ユーザが配信する動画を配信ユーザ装置20a、20b、20cにより視聴することができる。
図示の実施形態において、配信ユーザ装置20aは、コンピュータプロセッサ21aと、通信I/F22aと、ディスプレイ23aと、カメラ24aと、マイク25aと、ストレージ26aと、を備えている。同様に、配信ユーザ装置20bは、コンピュータプロセッサ21bと、通信I/F22bと、ディスプレイ23bと、カメラ24bと、マイク25bと、ストレージ26bと、を備えている。配信ユーザ装置20aと配信ユーザ装置20bとは同様の構成及び機能を有しているため、図示を省略しているが、配信ユーザ装置20cも、配信ユーザ装置20a、20bと同様に構成される。配信ユーザ装置20a、20b、20cを互いから区別する必要がない場合には、配信ユーザ装置20a、20b、20cをまとめて配信ユーザ装置20と呼ぶことがあり、その構成要素もコンピュータプロセッサ21などと枝番号である「a」や「b」を省略して説明することがある。つまり、コンピュータプロセッサ21に関する説明は、矛盾が生じない限り、コンピュータプロセッサ21a、21bの両方に当てはまる。
コンピュータプロセッサ21は、ストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、動画アプリケーションプログラムに含まれる命令を実行することができる。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。
通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。配信ユーザ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。
ディスプレイ23は、表示パネルと、タッチパネルと、を有する。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。
カメラ24は、配信ユーザUa,Ubの顔を連続的に撮像し、配信ユーザUa,Ubの顔の撮像データを取得する。カメラ24により撮像された配信ユーザUa,Ubの顔の撮像データは、通信I/F22を介してサーバ60に送信される。カメラ24は、人物の顔の奥行きを検出可能な3Dカメラであってもよい。カメラ24は、配信ユーザUa,Ubの顔以外の部位、例えば、手、脚、手の指、又はこれら以外の部位を撮像して撮像データを取得しても良い。
マイク25は、入力された音声を音声データに変換するように構成された集音装置である。マイク25は、配信ユーザUa,Ubの音声入力を取得することができるように構成され。マイク25により取得された配信ユーザUa,Ubの音声入力は音声データに変換され、この音声データが通信I/F22を介してサーバ60に送信される。
ストレージ26は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ26は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ26には、様々なプログラムが記憶され得る。ストレージ26に記憶され得るプログラム及び各種データの少なくとも一部は、配信ユーザ装置20とは物理的に別体のストレージ(例えば、ストレージ70)に格納されてもよい。
ストレージ26aは、モデルデータ26a1と、オブジェクトデータ26a2と、を格納してもよい。ストレージ26bは、モデルデータ26b1と、オブジェクトデータ26b2と、を格納してもよい。モデルデータ26a1、26b1はそれぞれ、配信ユーザUa、Ubのキャラクタ(アバター)のオブジェクトを生成するためのモデルデータである。モデルデータ26a1、26b1は、例えば、キャラクタの顔及び顔以外の部分の骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。表面データは、スキンデータと呼ばれることもある。モデルデータ26a1は、配信ユーザ装置20aにおいて動画アプリケーションプログラムが起動されたことに応じてサーバ60から取得されてもよい。モデルデータ26b1は、配信ユーザ装置20bにおいて動画アプリケーションプログラムが起動されたことに応じてサーバ60から取得されてもよい。
オブジェクトデータ26a2、26b2は、仮想空間を構築するためのアセットデータを含む。オブジェクトデータ26a2、26b2は、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ26a2、26b2には、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。
視聴ユーザ装置10は、配信ユーザ装置20と同様の構成要素を備えてもよい。例えば、視聴ユーザ装置10は、コンピュータプロセッサ、通信I/F、ディスプレイ、及びカメラを備えてもよい。視聴ユーザ装置10は、動画アプリケーションプログラムをダウンロード及びインストールすることにより、配信ユーザ装置20と同様の機能を奏してもよい。
視聴ユーザ装置10及び配信ユーザ装置20は、スマートフォンなどの情報処理装置である。視聴ユーザ装置10及び配信ユーザ装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。視聴ユーザ装置10及び配信ユーザ装置20の各々は、上記の構成要素以外に、ジャイロセンサ等の各種センサを備えるセンサユニット、及び各種情報を記憶するストレージを備えてもよい。
次に、サーバ60について説明する。図示の実施形態において、サーバ60は、コンピュータプロセッサ61と、通信I/F62と、ストレージ63と、を備えている。
コンピュータプロセッサ61は、ストレージ63又はその他のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ61は、配信プログラムに含まれる命令を実行することができる。コンピュータプロセッサ61は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ61は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ61が単一の構成要素として図示されているが、コンピュータプロセッサ61は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。
通信I/F62は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ60は、通信I/F62を介して、他の装置とデータを送受信することができる。
ストレージ63は、コンピュータプロセッサ61によりアクセスされる記憶装置である。ストレージ63は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ63には、様々なプログラムが記憶され得る。ストレージ63に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ60とは物理的に別体のストレージ(例えば、ストレージ70)に格納されてもよい。
本明細書において、コンピュータプロセッサ21又はコンピュータプロセッサ61によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令はそれぞれ、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21又はコンピュータプロセッサ61によって実行されるプログラム又は当該プログラムに含まれる命令はそれぞれ、複数の仮想コンピュータプロセッサにより実行されてもよい。
次に、ストレージ63に記憶されるデータについて説明する。図示の実施形態においては、ストレージ63には、モデルデータ63a、ユーザ情報63b、共演管理情報63c、及び前記以外の配信動画の生成及び配信に必要な様々なデータが記憶される。
モデルデータ63aは、動画配信システム1のユーザの各々に対応付けられたキャラクタのオブジェクトを描画するためのデータであって、配信ユーザ装置の要求に応じて、配信ユーザ装置に送信される。配信ユーザ装置20aに記憶されているモデルデータ26a1、26b1は、モデルデータ63aの一部であって、それぞれ配信ユーザUa、Ubに対応付けられたキャラクタのオブジェクトを描画するためのデータである。配信ユーザ装置20a、20bは、サーバ60から自らのキャラクタに対応するモデルデータ26a1又はモデルデータ26b1を取得することができる。
ユーザ情報63bの例が図3に示されている。図示のように、ユーザ情報63bとして、動画配信システム1を利用するユーザのアカウント情報と対応付けて、当該ユーザに関する様々なデータが記憶される。図3の例では、ユーザのアカウント情報と対応付けて、登録フラグ、共演受付フラグ、ユーザ属性情報が格納されている。ユーザ情報63bには、上記以外の情報が含まれてもよい。
ユーザのアカウント情報は、例えば、当該ユーザを識別するユーザ識別情報(ユーザID)である。ユーザIDは、ユーザが最初に動画配信システム1にサービスの利用登録をするときに、当該ユーザに対して割り当てられてもよい。
上記のように、動画配信システム1は、共演申請ユーザから共演相手を指定しない第1共演申請を受け付けたことに応じて、第1共演可能ユーザの中から共演申請ユーザと共演する第1共演ユーザを選択し、この共演申請ユーザと第1共演ユーザとが共演する共演動画を生成する機能を備える。ユーザのアカウント情報に対応付けられている登録フラグは、当該ユーザが第1共演可能ユーザとして登録されているか否かを示す。例えば、あるユーザが第1共演可能ユーザとして登録されていない場合には登録フラグとして「0」が設定され、当該ユーザが第1共演可能ユーザとして登録されている場合には登録フラグとして「1」が設定されてもよい。他のユーザとの共演の機会を増やしたいユーザは、自らの配信ユーザ装置から第1共演可能ユーザとして登録することを要求する登録要求をサーバ60に送信することができる。これとは逆に、第1共演申請に基づいて他のユーザと共演することを望まないユーザは、自らが第1共演可能ユーザから除外されることを要求する除外要求をサーバ60に送信することができる。
上記のとおり、動画配信システム1により動画を配信する配信ユーザは、共演申請ユーザからの第2共演申請に基づいて共演申請ユーザと共演することができる。共演申請ユーザは、第2共演可能ユーザに対して第2共演申請を行うことができる。動画配信システム1においては、ユーザごとに、他のユーザからの第2共演申請による共演を受け付けるか否か、つまり第2共演可能ユーザに該当するか否かを設定することができる。ユーザ情報63bには、ユーザが第2共演可能ユーザとして登録されているか否かを示す共演受付フラグを含んでもよい。他のユーザから第2共演申請を受け付けることを希望しないユーザは、他のユーザからの第2共演申請を受け付けないように共演受付フラグを設定することができる。ユーザのアカウント情報に対応付けられている共演受付フラグは、当該ユーザが第2共演可能ユーザとして登録されているか否か、すなわち、当該ユーザが他のユーザから第2共演申請を受け付けるか否かを示す。例えば、あるユーザが他のユーザからの第2共演申請を受け付けないことを希望する場合には、共演受付フラグとして「0」が設定され、当該ユーザが第2共演申請を受け付ける場合には共演受付フラグとして「1」が設定されてもよい。ユーザは、設定画面で切替ボタンを操作することにより、共演受付フラグを切り替えることができる。
ユーザのアカウント情報に対応付けられているユーザ属性情報は、当該ユーザの様々な属性情報を含むことができる。例えば、あるユーザのユーザ属性情報は、当該ユーザの年齢、性別、所在地、趣味、職業、及びこれら以外の当該ユーザの属性を示す様々な情報を含み得る。後述するように、第1共演可能ユーザからの第1共演ユーザの選択は、共演申請ユーザ及び第1共演可能ユーザのユーザ属性情報に基づいて行われてもよい。ユーザ情報には、ユーザのアカウント情報に対応付けて、上記以外にも様々な情報を記憶することができる。動画配信システム1においては、ユーザをグループ化する機能を提供してもよい。この場合、ユーザ情報には、ユーザのアカウント情報と対応付けて、当該ユーザが所属するグループを識別するグループ識別情報が記憶されてもよい。
次に図4を参照して共演管理情報63cについて説明する。共演管理情報63cの例が図4に示されている。図示のように、共演管理情報63cとして、配信ユーザが配信している動画を識別する配信動画識別情報と対応付けて、当該配信ユーザと他の配信ユーザとの共演を管理するための様々な情報が記憶される。ある配信動画の共演管理情報63cには、当該配信動画を配信している配信ユーザを識別する配信ユーザ識別情報、当該配信動画において共演中の共演者の数を示す共演者数データ、及び共演ユーザを識別する共演ユーザ識別情報が含まれてもよい。
ある配信動画の配信動画識別情報は、例えば、当該配信動画を識別する動画IDである。動画IDは、ユーザが動画の配信を開始するときに、その配信される配信動画を識別するために発行されてもよい。ある配信動画についての配信ユーザ識別情報は、当該動画を配信しているユーザのユーザIDであってもよい。ある配信動画についての共演ユーザ識別情報は、当該動画において配信ユーザと共演している共演ユーザのユーザIDであってもよい。動画IDで識別される動画が共演動画である場合には、配信ユーザ識別情報は、ホストユーザのユーザIDであり、共演ユーザ識別情報は、ゲストユーザのユーザIDである。
ある配信動画についての共演者数データは、当該配信動画において配信ユーザと共演している共演ユーザの数を示す。配信動画においては、当該配信動画において配信ユーザと共演可能な共演ユーザの上限が定められてもよい。共演者数データは、共演ユーザ数の上限以下の自然数である。共演ユーザの上限は、例えば、5人である。共演ユーザの上限は、5人でなくともよく、適宜変更され得る。共演ユーザの上限は、配信ユーザごとに個別に定められてもよい。例えば、ある配信ユーザについて共演ユーザの上限は5人である場合に、別の配信ユーザについての共演ユーザの上限は3人であってもよい。共演ユーザの上限は、全ての配信ユーザについて一律に設定されてもよい。共演者数データは、共演ユーザの上限以下の数で表される。
図5に、配信ユーザ装置に表示される画面の例を示す。図5には、配信ユーザ装置20aに表示される画面の例が示されている。動画配信システム1に含まれる配信ユーザ装置20a以外の配信ユーザ装置にも、図5に示されている画面と同じ又は同様の画面が表示され得る。図示されているように、配信ユーザ装置20aに表示される画面の上方には、メニューバーMBが配置されている。メニューバーMBは、「おすすめ」、「共演待ち」及び「ゲーム」の項目を含んでいる。メニューバーMBは、これら以外の項目を含んでもよい。
図5に示されている例では、このメニューバーMBのうち「おすすめ」が選択されていることが想定されている。配信ユーザUaは、配信ユーザ装置20aのディスプレイ23aを左右方向にフリックすることで、メニューバーMBに含まれている項目のいずれかに画面を切り替えることができる。例えば、「おすすめ」に対応する画面が表示されているときに、ディスプレイ23aを左方向にフリックすることにより「ゲーム」や「共演待ち」の項目に対応する画面に切り替えることができる。
図5の画面は、例えば、配信ユーザ装置20aにおいて、動画アプリケーションプログラムを起動した後に表示される。配信ユーザ装置20aにおいて動画アプリケーションプログラムが起動されると、サーバ60から配信中の動画及び/又は動画を配信している配信ユーザのリストが取得される。アプリケーションプログラムの起動後には、メニューバーMBの「おすすめ」に対応する画面が表示される。「おすすめ」に対応する画像には、図示のように、配信中の動画を示すアイコン(又は動画を配信している配信ユーザのキャラクタオブジェクトを示すアイコン)が含まれる。「おすすめ」の画面には、例えば、人気の高い動画、注目を集めている動画、又はこれら以外の理由で視聴が推薦される動画のアイコンが表示される。図示の例では、各々が配信中の動画に対応するアイコン42a〜42dが表示されている。設定ウィンドウ41の背後にも2つのアイコンが隠れている。
配信されている動画のアイコンに対応付けて、当該動画の配信ユーザが他のユーザからの第2共演申請を受け付けていること(つまり、当該配信ユーザが第2共演可能ユーザであること)を示すメッセージ44aが表示されてもよい。メッセージ44aは、「共演受付中」というテキストを含んでいる。図5に示されている例では、アイコン42a、42c、42dに対応する動画の配信ユーザが他のユーザからの第2共演申請を受け付けているため、アイコン42a、42c、42dの各々と関連付けて(例えば、各アイコンと重複するように)メッセージ44aが表示されている。アイコン42bに対応する動画の配信ユーザは他のユーザからの第2共演申請を受け付けていないため、アイコン42bと関連付けてメッセージ44aは表示されていない。また、配信ユーザが第1共演可能ユーザである場合に、共演者数の上限と当該配信ユーザと共演中のユーザの数との差で表される共演枠を示す共演枠情報44bが当該配信ユーザのアイコンと対応付けて表示されてもよい。図5に示されている例では、アイコン42a、42dに対応する配信ユーザが第1共演可能ユーザであることが想定されている。アイコン42aと対応付けて、アイコン42aに対応する配信ユーザについて共演枠が「2」であることを示す共演枠情報44bが表示されている。また、アイコン42dと対応付けて、アイコン42dに対応する配信ユーザについて共演枠が「3」であることを示す共演枠情報44bが表示されている。このように配信ユーザ装置において表示される配信中の動画のリストにおいて、当該リストに含まれる動画の各々の配信ユーザが第1共演可能ユーザであるか、第2共演可能ユーザであるかが区別して表示される。
配信ユーザ装置20aに表示される画面には、設定ボタン43が含まれている。この設定ボタン43が選択されると、図示のように設定ウィンドウ41が表示される。この設定ウィンドウ41は、スイッチ41a、41b、41cを含んでいる。スイッチ41a、41b、41cはそれぞれ、ユーザの操作(例えば、左右方向へのスライド操作)に応じて、オンまたはオフに切り替えられる。スイッチ41aは、登録フラグのオン/オフを切り替えるスイッチである。例えば、スイッチ41aがオンされた場合には、配信ユーザ装置20aにおいてスイッチ41aがオンされたときには、配信ユーザ装置20aからサーバ60に対して登録フラグを切り替えて配信ユーザUaを第1共演可能ユーザとするための要求(以下、「登録要求」という。)が送信される。これにより、サーバ60において、ユーザ情報63bの配信ユーザUaのユーザIDと対応付けられている登録フラグが「0」から「1」に切り替えられる。これとは反対に、スイッチ41aがオフされたことに応じて配信ユーザUaのユーザ情報63bの登録フラグが「1」から「0」に切り替えられる。
また、スイッチ41bがオンされた場合には、配信ユーザ装置20aからサーバ60に対して共演受付フラグを切り替えて配信ユーザUaを第2共演可能ユーザとするための要求が送信される。これにより、サーバ60においてユーザ情報63bの配信ユーザUaのユーザIDと対応付けられている共演受付フラグが「0」から「1」に切り替えられる。これとは反対に、スイッチ41bがオフされたことに応じてユーザ情報63bの共演受付フラグが「1」から「0」に切り替えられる。
スイッチ41cは、第1共演申請を送信するためのスイッチである。スイッチ41cをオンすることにより、配信ユーザ装置20aからサーバ60に対して第1共演申請が送信される。
メニューバーMBの「共演待ち」に対応する画面においては、サーバ60から取得したリストに含まれる配信中の全ての動画のうち配信ユーザが第1共演可能ユーザとして登録されている動画のアイコンのみが表示されてもよい。また、「共演待ち」に対応する画面においては、サーバ60から取得したリストに含まれる配信中の全ての動画のうち配信ユーザが第2共演可能ユーザとして登録されている動画のアイコンのみが表示されてもよい。「共演待ち」に対応する画面においては、サーバ60から取得したリストに含まれる配信中の全ての動画のうち配信ユーザが第1共演可能ユーザ又は第2共演可能ユーザのいずれか一方として登録されている動画のアイコンのみが表示されてもよい。よって、配信ユーザUaは、画面を操作して「共演待ち」の項目に対応する画面を表示させることで、共演相手となる配信ユーザを効率的に探すことができる。
メニューバーMBの「ゲーム」に対応する画面においては、配信ユーザUaが自らのキャラクタオブジェクトを参加させることが可能な動画配信システム1によって提供されるゲームのリスト(不図示)が表示される。動画配信システム1によって提供されるゲームには、いわゆる「人狼ゲーム」等の複数人が参加して行われるパーティーゲームが含まれる。動画配信システム1は、各配信ユーザがキャラクタオブジェクトを用いて参加する仮想的なパーティーゲームを提供することができる。現実世界のパーティーゲームでは、実在の人間がプレイヤとして参加するのに対して、動画配信システム1が提供する仮想的なパーティーゲームにおいては動画配信システム1のユーザがキャラクタオブジェクトを用いて参加する。仮想的なパーティーゲームのルールは、現実世界のパーティーゲームのルールと同じであってもよい。配信ユーザUaは、「ゲーム」に対応する画面から所望のパーティーゲームを選択することにより、選択したパーティーゲームをゲームマスターとしてプレイすることができる。パーティーゲームの開始時には他の参加者をそのゲームに招待することができる。配信ユーザUaが「ゲーム」に対応する画面から自らのキャラクタオブジェクトが参加するパーティーゲームを開始した場合に、配信ユーザ装置20aからサーバ60に対して配信ユーザUaを第1共演可能ユーザとするための登録要求が送信されてもよい。この場合、パーティーゲームを開始した配信ユーザは、第1共演可能ユーザとして登録される。「ゲーム」に対応する画面においては、パーティーゲーム以外のゲームが提供されてもよい。
動画配信システム1は、ユーザがゲームをプレイし、そのプレイしているゲームのプレイ動画を配信する機能を備えてもよい。この配信されるゲームは、例えばウェブゲームである。メニューバーMBの「ゲーム」に対応する画面には、配信ユーザUaが配信しているプレイ動画のリストが表示されてもよい。動画配信システム1において配信ユーザUbによって配信されるゲームのプレイ動画には、配信ユーザUbのキャラクタオブジェクト31又は配信ユーザUbのアイコンが表示されてもよい。
次に、コンピュータプロセッサ21a,21bにより実現される機能についてより具体的に説明する。コンピュータプロセッサ21aは、動画アプリケーションプログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、モーションデータ管理部21a1、表示制御部21a2、及び共演申請部21a3として機能する。同様に、コンピュータプロセッサ21bは、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、モーションデータ管理部21b1、表示制御部21b2、及び共演申請部21b3として機能する。コンピュータプロセッサ21a,21bにより実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21a,21b以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21a,21bにより実現される機能の少なくとも一部は、例えば、サーバ60に搭載されているコンピュータプロセッサ61により実現されてもよい。
モーションデータ管理部21a1は、カメラ24aの撮像データに基づいて、配信ユーザUaの顔の動きのデジタル表現であるフェイスモーションデータを生成する。同様に、モーションデータ管理部21b1は、カメラ24bの撮像データに基づいて、配信ユーザUbの顔の動きのデジタル表現であるフェイスモーションデータを生成する。フェイスモーションデータは、時間の経過に伴って随時生成される。フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、モーションデータ管理部21a1にて生成されるフェイスモーションデータは、配信ユーザUaの顔の動き(表情の変化)を時系列的にデジタル表現することができ、モーションデータ管理部21b1にて生成されるフェイスモーションデータは、配信ユーザUbの顔の動き(表情の変化)を時系列的にデジタル表現することができる。
配信ユーザ装置20においては、モーションデータ管理部21a1にて生成されるフェイスモーションデータに加えて、配信ユーザUa,Ubの体の顔以外の各部位の位置及び向きのデジタル表現であるボディモーションデータを生成してもよい。配信ユーザ装置20は、フェイスモーションデータに加えて、ボディモーションデータをサーバ60に送信してもよい。ボディモーションデータを生成するために、配信ユーザUa,Ubは、モーションセンサを装着してもよい。配信ユーザ装置20は、配信ユーザUa,Ubに装着されたモーションセンサの検出情報に基づいて、ボディモーションデータを生成することができるように構成されてもよい。ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、配信ユーザUa,Ubの体の動きを時系列的にデジタルデータとして表現する。配信ユーザUa,Ubに装着されたモーションセンサの検出情報に基づくボディモーションデータの生成は、例えば、撮影スタジオで行われてもよい。撮影スタジオには、ベースステーションと、トラッキングセンサと、ディスプレイと、が備えられてもよい。ベースステーションは、多軸レーザーエミッターであってもよい。配信ユーザUa,Ubに装着されるモーションセンサは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。撮影スタジオに備えられるベースステーションは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。また、撮影スタジオと別室には、サポーターコンピュータが設置されていてもよい。撮影スタジオのディスプレイは、サポートコンピュータから受信した情報を表示するように構成されてもよい。サーバ60は、サポーターコンピュータが設置されている部屋と同じ部屋に設置されてもよい。サポーターコンピュータが設置されている部屋と撮影スタジオとはガラス窓によって隔てられていてもよい。この場合、サポーターコンピュータのオペレータ(本明細書では「サポーター」ということがある。)は、配信ユーザUa,Ubを視認できる。サポーターコンピュータは、サポーターの操作に応じて、撮影スタジオに備えられた各種装置の設定を変更することができるように構成されてもよい。サポーターコンピュータは、例えば、ベースステーションによる走査インターバルの設定、トラッキングセンサの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。
モーションデータ管理部21a1,21b1にて生成されたフェイスモーションデータ及びボディモーションデータを合わせて「モーションデータ」と呼ぶ。モーションデータ管理部21a1は、生成したモーションデータを表示制御部21a2に出力する。表示制御部21a2は、視聴モードにおいて、モーションデータ管理部21a1にて生成されたモーションデータ、マイク25から取得された音声に関する音声データ、モデルデータ26a1、オブジェクトデータ26a2、及び必要に応じてこれら以外のデータに基づいてレンダリングを行い、配信ユーザUaのキャラクタのオブジェクトのアニメーションを含む動画データを生成する。配信ユーザUaのキャラクタのオブジェクトのアニメーションを含む動画データを生成するために用いられるデータを「アニメーション構成データ」といい、どの配信ユーザのキャラクタのオブジェクトが含まれるかを区別する場合には「配信ユーザUaのアニメーション構成データ」などという。配信ユーザUaのアニメーション構成データには、例えば、配信ユーザUaのモーションデータ、配信ユーザUaのモデルデータ26a1、及びオブジェクトデータ26a2を含むことができる。表示制御部21b2は、配信ユーザUbのアニメーション構成データに基づいて、表示制御部21a2と同様にレンダリングを行う。表示制御部21a2に関する説明は、矛盾が無い限り、表示制御部21b2にも当てはまる。
レンダリングは、透視投影、隠面消去(ラスタ化)、シェーディング、テクスチャマッピング、及びこれら以外の公知の処理を含む描画処理を意味する。表示制御部21a2は、生成された動画データをディスプレイ23a及び不図示のスピーカに出力する。配信ユーザUaのキャラクタのオブジェクトのアニメーションは、モデルデータ26a1にモーションデータを適用することにより生成される。表示制御部21a2は、配信ユーザUaのキャラクタのオブジェクトを他の情報と合成又は重畳して動画データを生成し、その生成した動画データをディスプレイ23aに出力する。アニメーションと合成または重畳される情報には、視聴ユーザから投稿されたメッセージ、サーバ60から送信された通知、操作ボタン等のGUI(Graphical User Interface)パーツ、及びこれら以外の情報が含まれてもよい。
表示制御部21a2は、配信ユーザUaが他のユーザと共演する場合には、その共演相手の配信ユーザの配信ユーザ装置から、当該共演相手のキャラクタのオブジェクトを生成するために必要なアニメーション構成データをサーバ60経由で取得し、取得した共演相手のアニメーション構成データ及び配信ユーザUaのアニメーション構成データに基づいてレンダリングを行うことにより、配信ユーザUaのキャラクタのオブジェクト及び共演相手のキャラクタのオブジェクトを含む共演動画データを生成する。この生成された共演動画データは、ディスプレイ23aに出力される。
表示制御部21a2は、配信ユーザUaの動画を配信するために、サーバ60に対して配信ユーザUaのアニメーション構成データの一部又は全部を送信することができる。
共演申請部21a3は、配信ユーザUaの配信ユーザ装置20aに対する操作に基づいて、他の配信ユーザとの共演を申請する共演申請をサーバ60に送信する。同様に、共演申請部21b2は、配信ユーザUbの配信ユーザ装置20bに対する操作に基づいて、他の配信ユーザとの共演を申請する共演申請をサーバ60に送信する。共演申請部21a3に関する説明は、矛盾の無い限り共演申請部21b3にも当てはまる。配信ユーザ装置20a、20bから送信される共演申請は、共演相手を指定しない第1共演申請であってもよく、共演相手を指定する第2共演申請であってもよい。
第1共演申請は、共演相手を指定せずに、動画配信システム1で動画を配信している配信ユーザのうち登録フラグをオンに設定している第1共演可能ユーザのいずれかと共演することを要求するためのリクエストである。第1共演申請には、当該第1共演申請を送信するユーザのユーザIDを含んでもよい。第1共演申請には、共演相手を指定、識別、又は特定する情報は含まれなくともよい。例えば、配信ユーザUaが配信ユーザ装置20aから第1共演申請を送信する場合、当該第1共演申請には、配信ユーザUaを識別するユーザIDが含まれるが、共演相手を指定する情報は含まれない。
第1共演申請は、例えば、図5に示されている設定画面ウィンドウ41において、スイッチ41cへのユーザの操作(例えば、右方向へのスライド操作)に応じて、配信ユーザ装置20aからサーバ60に対して送信されてもよい。第1共演申請は、スイッチ41cの操作以外の方法でサーバ60に送信されてもよい。例えば、第1共演申請は、ホーム画面に表示される操作ボタン、配信中の動画に重畳して表示される操作ボタン、又はこれら以外の操作ボタンへの操作に応じて配信ユーザ装置20aからサーバ60に送信されてもよい。このように、第1共演申請は、配信ユーザが配信している動画を視聴している間、及び、動画を視聴していない間の少なくとも一方において、配信ユーザ装置からサーバ60に送信され得る。第1共演申請は、配信ユーザ装置20aだけでなく、配信ユーザ装置20b及びこれら以外の配信ユーザ装置からサーバ60に送信されてもよい。
第2共演申請は、特定の共演相手との共演を申請するリクエストである。このため、第2共演申請は、共演相手を識別するためのユーザIDを含む。第2共演申請は、共演相手を識別するための識別情報を含む点で、共演相手を識別するための識別情報を含まない第1共演申請と異なっている。第2共演申請は、後述するように、配信されている動画の視聴中に表示される共演申請ボタン36が選択されたことに応じて配信ユーザ装置20aからサーバ60に対して送信されてもよい。
次に、コンピュータプロセッサ61により実現される機能についてより具体的に説明する。コンピュータプロセッサ61は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、配信管理部61a、ユーザ登録部61b、第1共演申請処理部61c、及び第2共演申請処理部61dとして機能する。
配信管理部61aは、視聴ユーザ装置10又は配信ユーザ装置20から受信した各種データをストレージ63又はそれ以外のストレージに記憶する。配信管理部61aは、視聴ユーザ装置10又は配信ユーザ装置20から要求されたデータをストレージ63又はそれ以外のストレージから取得し、その取得したデータを要求元の視聴ユーザ装置10又は配信ユーザ装置20に送信する。例えば、配信管理部61aは、視聴ユーザ装置10又は配信ユーザ装置20からの要求に応じて、配信中の動画のリストを要求元の視聴ユーザ装置10又は配信ユーザ装置20に対して送信する。配信管理部61aは、リストの中から選択された動画の識別情報を含む当該動画の視聴要求を視聴ユーザ装置10又は配信ユーザ装置20から受信すると、当該識別情報で特定された動画に関するアニメーション構成データを要求元の視聴ユーザ装置10又は配信ユーザ装置20に送信する。アニメーション構成データを受信した視聴ユーザ装置10又は配信ユーザ装置20は、受信したアニメーション構成データに基づいてレンダリングを行うことにより、視聴要求を行った動画の動画データを生成し、当該動画データをディスプレイやスピーカに出力することができる。このように、配信管理部61aは、視聴要求がなされた動画のアニメーション構成データを視聴ユーザ装置10や配信ユーザ装置20送信することで、当該動画を配信している。
配信管理部61aは、配信中の動画に対して視聴ユーザ装置10又は配信ユーザ装置20から投稿メッセージを受信した場合、受信した投稿メッセージを、当該動画を配信している配信ユーザの配信ユーザ装置及び当該動画を視聴している視聴ユーザ装置10及び配信ユーザ装置20に送信する。投稿メッセージには、メッセージの内容を示すテキストデータ、当該投稿メッセージを投稿するユーザのユーザID、投稿日時、及びこれら以外の情報が含まれてもよい。投稿メッセージを受信した視聴ユーザ装置10又は配信ユーザ装置20は、受信した投稿メッセージのメッセージや投稿者を表示することができる。
配信管理部61aは、動画の配信又は視聴に関連するシステム通知を視聴ユーザ装置10又は配信ユーザ装置20に送信することができる。例えば、配信管理部61aは、ユーザAが動画の視聴を開始したときに、「ユーザAさん入室しました」という通知メッセージを当該動画の配信ユーザの配信ユーザ装置及び当該動画を配信している配信ユーザの配信ユーザ装置及び当該動画を視聴している視聴ユーザ装置10及び配信ユーザ装置20に送信することができる。当該通知メッセージを受信した視聴ユーザ装置10又は配信ユーザ装置20は、受信した通知メッセージを表示することができる。
ホストユーザとゲストユーザとが共演している場合、配信管理部61aは、ホストユーザのアニメーション構成データをゲストユーザの配信ユーザ装置20に送信し、ゲストユーザのアニメーション構成データをホストユーザの配信ユーザ装置20に送信する。ゲストユーザ及びホストユーザの配信ユーザ装置20はそれぞれ、配信管理部61aから受信した共演相手のアニメーション構成データに基づいてレンダリングを行い、共演相手のキャラクタのオブジェクトのアニメーションを含む動画データを生成する。これにより、共演しているホストユーザ及びゲストユーザの各々の配信ユーザ装置20は、自らのキャラクタのオブジェクトのアニメーションと共演相手のキャラクタのオブジェクトのアニメーションとを含む動画データを生成することができる。また、サーバ60において視聴ユーザ装置10又は配信ユーザ装置からホストユーザとゲストユーザとが共演する共演動画の視聴を要求する視聴要求が受け付けられると、配信管理部61aは、当該視聴要求の送信元である視聴ユーザ装置10又は配信ユーザ装置に対して、ホストユーザのアニメーション構成データ及びゲストユーザのアニメーション構成データを送信する。ホストユーザのアニメーション構成データ及びゲストユーザのアニメーション構成データを受信した視聴ユーザ装置10又は配信ユーザ装置は、ホストユーザのアニメーション構成データ及びゲストユーザのアニメーション構成データに基づいてレンダリングを行うことにより、ホストユーザのキャラクタオブジェクトとゲストユーザのキャラクタオブジェクトを含む動画データを生成することができる。これにより、共演動画の視聴要求を行ったユーザは、視聴ユーザ装置10又は配信ユーザ装置において共演動画を視聴することができる。
本発明の一又は複数の実施形態において、ユーザ登録部61bは、いずれかのユーザの配信ユーザ装置から、第1共演可能ユーザとして登録することを要求する登録要求を受け付けると、当該ユーザを第1共演可能ユーザとして登録する。登録要求は、上記のとおり、配信ユーザ装置においてスイッチ41aを操作することによってサーバ60に送信されてもよい。配信ユーザから送信される登録要求には、当該配信ユーザを識別するユーザIDが含まれていてもよい。ユーザ登録部61bは、あるユーザの配信ユーザ装置からの登録要求を受け付けると、ユーザ情報63bのうち当該登録要求に含まれているユーザIDに対応付けられている登録フラグを「1」に設定することができる。ユーザIDに対応する登録フラグが「1」に設定されることにより、当該ユーザIDで識別されるユーザは、第1共演可能ユーザとなる。
本発明の一又は複数の実施形態において、第1共演申請処理部61cは、動画配信システム1のいずれかのユーザ(共演申請ユーザ)の配信ユーザ装置から第1共演申請を受け付けた場合に、第1共演可能ユーザの中から第1共演ユーザを選択する。共演申請ユーザからの第1共演申請に基づいて第1共演ユーザが選択されたことに応じて、当該共演申請ユーザと当該第1共演ユーザとの共演動画の配信が開始される。具体的には、共演管理情報63cにおいて、第1共演ユーザが配信している動画の動画IDと対応付けて、共演申請ユーザのユーザIDが格納される。これにより、共演管理情報63cを参照することにより、共演申請ユーザと第1共演ユーザとが共演していると判断することができる。サーバ装置60において共演申請ユーザと第1共演ユーザとが共演する共演動画の動画IDを含む視聴要求が受け付けられると、配信管理部61aは、当該視聴要求に含まれている動画IDに対応付けられているホストユーザのユーザID及びゲストユーザのユーザIDを取得し、これらのユーザIDに基づいて共演中のホストユーザのアニメーション構成データ及びゲストユーザのアニメーション構成データを取得し、取得したホストユーザのアニメーション構成データ及びゲストユーザのアニメーション構成データを視聴要求の送信元である視聴ユーザ装置10又は配信ユーザ装置に送信する。配信管理部61aは、このようにして共演動画を視聴ユーザ装置10又は配信ユーザ装置に配信することができる。
第1共演申請処理部61cは、第1共演申請を受け付けた場合、例えば、ユーザ情報63bを参照して登録フラグが「1」に設定されているユーザを第1共演可能ユーザとして特定し、このようにして特定された第1共演可能ユーザの中から当該第1共演申請を送信した共演申請ユーザの共演相手となる第1共演ユーザを選択することができる。第1共演申請処理部61cは、様々なアルゴリズムに従って第1共演可能ユーザの中から第1共演ユーザを選択することができる。一実施形態において、第1共演申請処理部61cは、第1共演可能ユーザの中からランダムに一人の第1共演ユーザを選択することができる。別の実施形態において、第1共演申請処理部61cは、共演管理情報63cを参照することで、第1共演可能ユーザの各々が配信している動画における共演者の数を特定し、この特定した共演者の数に基づいて第1共演ユーザを選択する。例えば、第1共演申請処理部61cは、第1共演可能ユーザのうち共演中のユーザの数が最も少ないユーザを第1共演ユーザとして選択してもよい。第1共演申請処理部61cは、共演者の数が最も少ない第1共演可能ユーザ(例えば、誰とも共演しておらず共演者の数が「0」に設定されている第1共演可能ユーザ)が複数存在する場合には、その共演者の数が最も少ない複数の第1共演可能ユーザの中からランダムに第1共演ユーザを選択してもよい。第1共演可能ユーザのユーザIDが共演管理情報63cの配信ユーザ識別情報として記録されていない場合には、当該第1共演可能ユーザは動画を配信していないので、第1共演ユーザの選択においては、当該第1共演可能ユーザの共演者の数を「0」とすることができる。
本発明の一実施形態において、第1共演申請処理部61cは、第1共演可能ユーザの各々についての共演者数の上限と実際に共演している共演者の数との差である共演枠に基づいて第1共演ユーザを選択することができる。例えば、ある第1共演可能ユーザについて、共演者数の上限が「5」であり、共演中のユーザの数が「1」である場合(つまり、一人のユーザとだけ共演している場合)には、当該第1共演可能ユーザの共演枠は「4」となる。本発明の一実施形態において、第1共演可能ユーザの各々についての共演者数の上限と実際に共演している共演者の数との差を共演枠として算出し、第1共演可能ユーザのうち共演枠が最も大きいユーザが第1共演ユーザとして選択されてもよい。このように、第1共演可能ユーザのうち共演者の数が最も少ないユーザ又は共演枠が最も大きいユーザを第1共演ユーザとして選択することにより、第1共演可能ユーザのうち他のユーザとの共演が相対的に活発でないユーザが第1共演ユーザとして選択されやすくなる。
本発明の別の実施形態において、第1共演可能ユーザのうち共演枠が最も小さいユーザ(ただし、共演枠は「0」ではない。)が第1共演ユーザとして選択されてもよい。これにより、既に他のユーザと共演しているユーザが第1共演ユーザとして選択されやすくなるので、共演申請ユーザを既に他の配信ユーザとの共演を活発に行っている配信ユーザと共演させることができる。
本発明の一実施形態において、第1共演申請処理部61cは、共演申請ユーザ及び第1共演可能ユーザの各々のユーザ属性情報に基づいて第1共演可能ユーザの中から第1共演ユーザを選択する。上記のとおり、ユーザ情報63bには、各ユーザの様々な属性を示すユーザ属性情報が含まれていてもよい。第1共演申請処理部61cは、例えば、第1共演申請に含まれる共演申請ユーザのユーザIDに基づいて共演申請ユーザのユーザ属性情報を特定し、この共演申請ユーザのユーザ属性情報と第1共演可能ユーザの各々のユーザ属性情報との一致度を表すスコアを所定のアルゴリズムに基づいて算出し、第1共演可能ユーザのうちで最も高いスコアが算出されたユーザを第1共演ユーザとして選択してもよい。一致度を表すスコアを算出する際には、ユーザ属性情報に含まれる個々の属性データ(例えば、居住地、年齢、性別、趣味)に重み付けを行ってもよい。これにより、例えば、第1共演可能ユーザのうち共演申請ユーザと居住地が近いユーザ、共演申請ユーザと年齢層が重なっているユーザ、共演申請ユーザと共通の趣味を有するユーザが第1共演ユーザとして選択されやすくなる。このようにして、第1共演可能ユーザの中からユーザ属性情報に含まれる属性データの一致度が高いユーザを第1共演ユーザとして選択することができる。よって、共演相手を特定しない第1共演申請に基づいて共演動画が生成されても、共演するユーザ同士で共通の話題を見つけることが容易となる。この結果、第1共演申請に基づいて開始される共演動画におけるコミュニケーションを促進することができる。
本発明の一実施形態において、第2共演申請処理部61dは、共演申請ユーザからの第2共演申請を受け付けた場合に、当該共演申請ユーザの第2共演申請を許可するか否かを判定する。上述のとおり、第2共演申請は、例えば、配信された動画の視聴中に共演申請ボタン36を選択することによりサーバ60に送信され、この送信された第2共演申請がサーバ60にて受け付けられてもよい。例えば、配信ユーザUaから配信ユーザUbとの共演を申請する第2共演申請を受け付けると、第2共演申請処理部61dは、配信ユーザUaと配信ユーザUbとの共演可否を判定する。第2共演申請処理部61dは、例えば、配信ユーザUaからの共演申請を許可するか否かを問い合わせるメッセージを配信ユーザUbの配信ユーザ装置20bに送信し、配信ユーザ装置20bからの回答に応じて共演の可否を決定してもよい。
次に、図6〜図8を参照して、動画配信システム1において配信された動画に対応する画像の表示について説明する。これらの図では、視聴ユーザ装置10の視聴ユーザ及び配信ユーザ装置20aの配信ユーザUaが、配信中の動画リストの中から配信ユーザUbが配信中の動画の視聴を選択して当該動画の視聴要求をサーバ60に送信し、この視聴要求に応答してサーバ60から視聴ユーザ装置10及び配信ユーザ装置20aに対して配信ユーザUbのアニメーション構成データが送信され、視聴ユーザ装置10及び配信ユーザ装置20aでは、サーバ60から受信した配信ユーザUbのアニメーション構成データに基づいてレンダリングがなされたことが想定されている。配信ユーザUbのアニメーション構成データは、配信ユーザUbの配信ユーザ装置20bにおいてモーションデータ管理部21b1により生成されたモーションデータ及びマイク25bにより検出された音声に基づいて生成された音声データを含んでもよい。また、配信ユーザ装置20bは、サーバ60から取得した配信ユーザUbのアニメーション構成データ又は自装置で生成されたアニメーション構成データに基づいてレンダリングを行うことが想定されている。図6は、視聴ユーザ装置10において表示される動画の画像の例を示し、図7は、配信ユーザ装置20aにおいて表示される動画の画像の例を示し、図8は、配信ユーザ装置20bにおいて表示される動画の画像の例を示す。
視聴ユーザ装置10のディスプレイには、図6に示されているように、サーバ60から受信した配信ユーザUbのアニメーション構成データに基づいてレンダリングを行うことで生成された動画データに対応する画像が表示されている。この視聴ユーザ装置10に表示されている画像には、レンダリングにより生成されたれた配信ユーザUbのキャラクタオブジェクト31と、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、が含まれている。
配信ユーザ装置20aのディスプレイ23aには、図7に示されているように、サーバ60から受信した配信ユーザUbのアニメーション構成データに基づいてレンダリングを行うことで生成された動画データに対応する画像30が表示されている。この画像30には、視聴ユーザ装置10に表示されている動画の画像と同様に、配信ユーザUbのキャラクタオブジェクト31と、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、が含まれている。これに加えて、画像30には、配信ユーザUbが配信している動画において配信ユーザUbとの共演を申請するための共演申請ボタン36が含まれる。共演申請ボタン36に対する操作がなされると、第2共演申請がサーバ60に送信される。配信ユーザ装置20aは、例えば、動画アプリケーションプログラムを含むアプリケーションソフトウェアを実行することにより、配信された動画の画像30を表示することができる。本発明の一実施形態において、配信ユーザUbとの共演を申請する第2共演申請を送信するための共演申請ボタン36は、配信ユーザUbの動画を視聴している場合にのみ配信ユーザ装置に表示されてもよい。本発明の一実施形態において、共演申請ボタン36は、配信ユーザUbが第2共演可能ユーザとして登録されている場合にのみ画像30に配信ユーザ装置20aにおいて表示され、配信ユーザUbが第2共演可能ユーザとして登録されていない場合には配信ユーザ装置20aにおいて表示されなくてもよい。
図6に示されているように、視聴ユーザ装置10に表示される動画の画像には共演申請ボタン36が含まれない。例えば、視聴ユーザ装置10に配信プログラムを含むアプリケーションソフトウェアがダウンロードもしくはインストールされていない場合、又は、視聴ユーザ装置10において配信プログラムを含むアプリケーションソフトウェアが起動されていない場合には、視聴ユーザ装置10には共演申請ボタン36が表示されない。視聴ユーザ装置10に動画アプリケーションプログラムを含むアプリケーションソフトウェアがダウンロードもしくはインストールされている場合、または、視聴ユーザ装置10において動画アプリケーションプログラムを含むアプリケーションソフトウェアが起動されている場合には、視聴ユーザ装置10にも共演申請ボタン36が表示されてもよい。
キャラクタオブジェクト31は、配信ユーザUbのモーションデータをモデルデータ63bに適用することにより生成されるため、配信ユーザUbの表情の動きに同期してその表情や動きが変化する。
ギフトボタン32は、視聴ユーザ装置10への操作によって選択可能に表示画面30に表示されている。ギフトボタン32は、例えば、視聴ユーザ装置10のタッチパネルのうちギフトボタン32が表示されている領域へのタップ操作により選択され得る。一実施形態において、ギフトボタン32が選択されると、表示画面30に、視聴中の動画を配信している配信ユーザ(ここでは、配信ユーザUbである。)にギフティングするギフトを選択するためのウィンドウが表示される。当該視聴ユーザは、当該ウィンドウに表示されているギフトの中からギフティング対象とするギフトを購入することができる。他の実施形態においては、ギフトボタン32が選択されたことに応じて、表示画面30に、購入済みのギフトの一覧を含むウィンドウが表示される。この場合、当該視聴ユーザは、当該ウィンドウに表示されているギフトの中からギフティング対象とするギフトを選択することができる。視聴ユーザ装置10においてギフトボタン32が選択されると、ギフティング情報がサーバ60に送信されてもよい。このギフティング情報には、ギフティングするギフトを特定するギフト識別情報(ギフトID)が含まれてもよい。このように、動画を視聴している視聴ユーザは、ギフトボタン32の選択により、当該動画を配信している配信ユーザに対して所望のギフトを提供(ギフティング)することができる。
評価ボタン33は、視聴ユーザ装置10を使用する視聴ユーザによって選択可能に表示画面30に表示されている。評価ボタン33は、例えば、視聴ユーザ装置10のタッチパネルのうち評価ボタン33が表示されている領域へのタップ操作により選択され得る。動画を視聴中の視聴ユーザによって評価ボタン33が選択されると、当該動画を配信する配信ユーザ(図示の例においては、配信ユーザUb)への肯定的な評価又は配信されている動画への肯定的な評価がなされたことを示す評価情報がサーバ60に送信されてもよい。
コメントボタン34は、ユーザによって選択可能に表示画面30に表示される。コメントボタン34が例えばタップ操作により選択されると、コメントを入力するためのコメント入力ウィンドウが表示画面30に表示される。視聴ユーザは、視聴ユーザ装置10又は配信ユーザ装置20aの入力機構を介してコメントを入力することができる。入力されたコメントは、視聴ユーザ装置10及び配信ユーザ装置20aからサーバ60に送信される。サーバ60は、視聴ユーザ装置10、配信ユーザ装置20a、及びこれら以外のユーザ装置からのコメントを受け付け、当該コメントを動画内のコメント表示領域35に表示する。コメント表示領域35には、各ユーザから投稿されたコメントが、例えば時系列に表示される。コメント表示領域35は、表示画面30の一部の領域を占める。コメント表示領域35に表示可能なコメント数には上限がある。図示の例では、コメント表示領域35には3つまでコメントが表示され得る。コメント表示領域35に設定されている上限を超えたコメントの投稿がなされた場合には、投稿時間が古いコメントから順にコメント表示領域35から削除される。このため、受け付けるコメントの頻度が高くなるほどコメント領域35における各コメントの表示時間は短くなる。コメント表示領域35に設定されている上限を超えたコメントの投稿がなされた場合には、投稿時間が新しいコメントをコメント表示領域35に表示しておき、コメント表示領域35に表示しきれない古い投稿コメントは、コメント表示領域35がスワイプされたことに応じてコメント表示領域35内に表示されてもよい。
図8に示されているように、配信ユーザ装置20bのディスプレイ23bには、配信ユーザUbのアニメーション構成データに基づいてレンダリングを行うことで生成された動画データに対応する画像40が表示されている。この画像40には、配信ユーザUbに対応するキャラクタオブジェクト31と、コメント表示領域35と、が含まれている。配信ユーザ装置20bに表示される画像40には、動画及び画像30と同じ背景画像、キャラクタオブジェクト画像、及びコメントが含まれている。他方、画像40は、ギフトボタン32、評価ボタン33、コメントボタン34、及び共演申請ボタン36を含んでいない点で画像30と異なっている。
次に、図9〜図12を参照して、動画配信システム1において配信された共演動画に対応する画像の表示について説明する。図9は、視聴ユーザ装置10に表示されている共演動画の画像の例を示し、図10は、配信ユーザUcの配信ユーザ装置20cに表示されている共演動画の画像の例を示し、図11は、配信ユーザ装置20aに表示されている共演動画の画像の例を示し、図12は、配信ユーザ装置20bに表示されている共演動画の画像の例を示す。これらの図では、配信ユーザUcが使用する配信ユーザ装置20cからの第1共演申請に基づいて配信ユーザUbが第1共演ユーザとして選択され、配信ユーザUcのキャラクタオブジェクト131及び配信ユーザUbのキャラクタオブジェクト31を含む共演動画が配信されていることが想定されている。つまり、図示の実施形態においては、配信ユーザUcは、共演申請ユーザでありゲストユーザである。また、配信ユーザUbがホストユーザである。また、視聴ユーザ装置10及び配信ユーザ装置20aから当該共演動画の視聴を要求する視聴要求が送信され、視聴ユーザ装置10及び配信ユーザ装置20aに対して当該共演動画が配信されていることが想定されている。
視聴ユーザ装置10、配信ユーザ装置20c、配信ユーザ装置20a、及び配信ユーザ装置20bのディスプレイには、それぞれ図9、図10、図11、及び図12に示されているように、サーバ60から受信した配信ユーザUc及び配信ユーザUbのアニメーション構成データに基づいてレンダリングを行うことで生成された動画データに対応する画像が表示されている。この視聴ユーザ装置10に表示されている共演動画の画像には、配信ユーザUbのキャラクタオブジェクト31に加えて、配信ユーザUcのキャラクタオブジェクト131が含まれている。共演申請ユーザのキャラクタオブジェクト131は、配信ユーザUcのアニメーション構成データに含まれるモーションデータに基づいて生成される。視聴ユーザ装置10に表示されている画像は、図6に示されている共演開始前の動画の画像と同様に、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、を含んでいる。配信ユーザUcは既に配信ユーザUbと共演を行っているので、配信ユーザUcの配信ユーザ装置20cには共演申請ボタン36は表示されない。図10に示されている配信ユーザ装置20cに表示される画像には、図12に示されている配信ユーザ装置20bに表示される画像と同様に、ギフトボタン32と、評価ボタン33と、及びコメントボタン34は含まれず、コメント表示領域35が含まれている。
配信ユーザ装置20aに表示されている共演動画の画像は、図7に示されている共演開始前の画像と同じように、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、共演申請ボタン36と、を含んでいる。配信ユーザUaは、共演動画が再生されているときにも共演申請ボタン36を選択することができる。配信ユーザUbがホストユーザである共演動画の再生中に共演申請ボタン36が選択されると、配信ユーザUbとの共演を申請する第2共演申請が配信ユーザ装置20aからサーバ60に対して送信される。サーバ60において配信ユーザ装置20aからの第2共演申請が受け付けられると、第2共演申請処理部61dは、当該第2共演申請に基づいて配信ユーザUaの配信ユーザUbとの共演を許可するか否かを判定する。配信ユーザUaの配信ユーザUbとの共演が許可された場合には、配信ユーザUcと配信ユーザUbとが共演している共演動画に配信ユーザUaのキャラクタオブジェクトも表示される。この場合、図9〜図12に示されている共演動画において、配信ユーザUbのキャラクタオブジェクト31及び配信ユーザUcのキャラクタオブジェクト131に加えて配信ユーザUaのキャラクタオブジェクト(不図示)が表示される。
配信ユーザ装置20bに表示されている共演動画の画像は、図8に示されている共演開始前の画像と同じように、コメント表示領域35を含んでいる。また、この共演動画の画像には、共演を終了させるための共演終了ボタン45が表示されている。共演終了ボタン45は、共演申請を受けたホストユーザである配信ユーザUbの配信ユーザ装置20bには表示されるが、共演を行っていない配信ユーザUaの配信ユーザ装置20a及びゲストユーザである配信ユーザUcの配信ユーザ装置20cには表示されない。配信ユーザUbの配信ユーザ装置20bにおいて共演終了ボタン45が選択されると、配信ユーザUcと配信ユーザUbとの共演を終了するための処理が行われる。例えば、共演終了ボタン45が選択されたことに応じて、配信ユーザ装置20bからサーバ60に対して共演終了指示が送信される。サーバ60において共演終了指示が受信されると、配信管理部61aは、配信ユーザUcのアニメーション構成データの送信を終了する。これにより、配信動画の画像には、配信ユーザUcのキャラクタオブジェクト131が表示されなくなる。
共演動画の画像は、図示のとおり、横長の画像である。共演動画生成部61g又は動画配信部61cは、共演動画を横長の動画として配信する。これにより、視聴ユーザ装置10には、共演動画の配信画像が横長の画像として表示される。一実施形態においては、元の動画(画像)が図6に示されているように縦長だとしても、共演動画は横長に変換されて配信される。共演動画は、二人の配信ユーザのキャラクタオブジェクトを含むため、横長の画像とすることにより、二人分のキャラクタオブジェクトを重複なく表示しやすくなる。例えば、共演動画においては、視聴ユーザの視点で向かって左半分を元の配信ユーザのキャラクタオブジェクトに割り当てられる領域とし、右半分を共演申請ユーザのキャラクタオブジェクトに割り当てられる領域としてもよい。各配信ユーザへの領域の割り当ては、キャラクタオブジェクト同士が重複しないように任意に定められてもよい。図示の実施形態では共演動画の画像を横長の画像として示されているが、共演動画は縦長の画像であってもよい。
次に、図13を参照して、一実施形態における共演動画の配信処理について説明する。図13は、一実施形態において共演動画を配信する処理の流れを示すフロー図である。図13を参照して説明される共演動画の配信処理においては、配信ユーザUcからの第1共演申請に基づいて配信ユーザUbが第1共演ユーザとして選択されることを想定している。
図13の共演動画の配信処理の開始時点では、配信ユーザUbを含む多数の配信ユーザが、自らのキャラクタオブジェクトを含む動画を配信している。ステップS11において、動画配信システム1の配信ユーザのいずれかから第1共演申請がなされたか否かが判定される。第1共演申請は、例えば、配信ユーザUcからなされる。配信ユーザUcによって第1共演申請がなされた場合には、処理はステップS12に進む。
ステップS12では、配信ユーザUcからの第1共演申請に基づいて、第1共演可能ユーザの中から第1共演ユーザが選択される。図示の実施形態では、配信ユーザUbが第1共演ユーザとして選択される。これにより、配信ユーザUb(ホストユーザ)と配信ユーザUc(ゲストユーザ)との共演が開始される。ステップS12では、配信ユーザUbが第1共演ユーザとして選択される。この第1共演ユーザの選択は、例えば、上記の第1共演申請処理部61cにより行われる。
ステップS12において、配信ユーザUcからの第1共演申請に基づいて配信ユーザUbが第1共演ユーザとして選択されたので、次に、ステップS13において配信ユーザUbと配信ユーザUcとが共演する共演動画が配信される。具体的には、配信ユーザUbの動画を視聴中の視聴ユーザ装置10及び配信ユーザ装置に対して、配信ユーザUbのアニメーション構成データに加えて、配信ユーザUcのアニメーション構成データが送信される。これらのアニメーション構成データを受信した視聴ユーザ装置10及び配信ユーザ装置は、受信したアニメーション構成データに基づいてレンダリングを行うことにより、例えば図9〜図12に示されているように、配信ユーザUb及び配信ユーザUcのキャラクタオブジェクトを含む動画の画像を表示することができる。
次に、図14を参照して、第2共演申請に基づく共演動画の配信処理について説明する。図14は、一実施形態における共演動画を配信する処理の流れを示すフロー図である。図14を参照して説明される共演動画の配信処理においては、配信ユーザUbのキャラクタオブジェクトを含む動画を視聴している配信ユーザUaから配信ユーザUbに対して共演申請がなされることが想定されている。図14に示されている共演動画の配信処理は、図13に示されている動画の配信処理と並行して行われてもよい。
まず、配信ユーザUbのキャラクタオブジェクトを含む動画の配信中に、ステップS21において、配信ユーザUb以外のユーザから第2共演申請がなされたか否かが判定される。第2共演申請は、例えば、配信ユーザUaからなされる。配信ユーザUaによって第2共演申請がなされた場合には、処理はステップS22に進む。
ステップS22では、配信ユーザUaからの第2共演申請を許可するか否かが判定される。例えば、配信ユーザUaから共演に申し込みがなされたことを配信ユーザUbに通知し、その通知に対して配信ユーザUbから配信ユーザUaとの共演を許可するとの回答がなされた場合に配信ユーザUaの配信ユーザUbとの共演が許可される。この共演申請を許可するか否かの判定は、例えば、第2共演申請処理部61dにより行われる。
ステップS22において、共演申請を許可すると判定された場合には、配信ユーザUb(ホストユーザ)と配信ユーザUa(ゲストユーザ)との共演が開始され、処理はステップS23に移行し、ステップS23において配信ユーザUbと配信ユーザUaとが共演する共演動画が配信される。具体的には、配信ユーザUbの動画を視聴中の視聴ユーザ装置10及び配信ユーザ装置に対して、配信ユーザUbのアニメーション構成データに加えて、配信ユーザUaのアニメーション構成データが送信される。これらのアニメーション構成データを受信した視聴ユーザ装置10及び配信ユーザ装置は、受信したアニメーション構成データに基づいてレンダリングを行うことにより、配信ユーザUb及び配信ユーザUaのキャラクタオブジェクトを含む動画の画像を表示することができる。
以上の実施形態によって奏される作用効果について説明する。上記の一又は複数の実施形態においては、他の配信ユーザと共演することを希望するユーザは、共演相手を特定することなく第1共演申請を行うことで、この第1共演申請に基づいて選択された第1共演ユーザと共演することができる。このように、共演相手を特定せずに共演申請を行うことができるので、共演相手を探し出す手間が減るので、ユーザ同士の動画での共演が促進される。
本発明の一又は複数の実施形態においては、動画を配信する配信ユーザは、第1共演可能ユーザとして登録することにより、第1共演申請を受け付けることができるようになる。このため、配信ユーザに他のユーザとの共演の機会を増やすための手段を提供することができる。他方、配信ユーザは、第1共演可能ユーザとして登録しなければ、第1共演申請によって共演申請ユーザが不意に自らの動画に参加することを回避することができる。
本発明の一又は複数の実施形態においては、第1共演申請を行うだけで共演相手の許可を経なくとも当該第1共演ユーザと共演することができる。このため、共演申請が許可された場合にだけ共演を行うことができる従来の共演開始のプロセスと比べて、より簡潔なプロセスで他の配信ユーザと共演することができる。第1共演ユーザは、第1共演可能ユーザの中から選択されるので、第1共演可能ユーザとして登録したことをもって第1共演申請が受け付けられた場合に共演申請ユーザと共演することを許可していると考えることができる。
本発明の一又は複数の実施形態においては、共演相手となる配信ユーザの動画を視聴していない場合でも、第1共演申請を行うことができる。例えば、配信中の動画のリストを見ているときに設定ウィンドウ41を開き、この設定ウィンドウに含まれるスイッチ41cを操作することにより第1共演申請を行うことができる。このように、共演相手となる配信ユーザの動画を視聴していなくても共演が可能になるので、視聴中の動画に対する参加のみが可能な共演開始のプロセスと比べて、共演開始までのプロセスを減らすことができ、これによりユーザ同士の動画での共演が促進される。
本発明の一又は複数の実施形態においては、配信ユーザが共演できるユーザの上限を設定することにより、一つの動画で共演するユーザ数が過大となることによる弊害を防止することができる。例えば、共演動画への参加や退出のための処理や、共演動画を生成する処理の負荷が過大となることを防止できる。
本発明の一又は複数の実施形態においては、第1共演申請に基づいて、第1共演可能ユーザのうち共演中のユーザの数が最も少ないユーザを第1共演ユーザとして選択することができる。これにより、共演しているユーザが少ないか一人もいない配信ユーザが第1共演ユーザとして選択されやすくなるので、他の配信ユーザとの共演を活発に行っていない配信ユーザに他のユーザとの共演の機会を優先的に提供することができる。また、本発明の一又は複数の実施形態においては、共演できるユーザの数の上限と実際に共演しているユーザの数との差で表される共演可能ユーザ数(共演枠)が多い配信ユーザが第1共演ユーザとして選択することができる。これにより、多くの共演枠を持っている配信ユーザに他のユーザとの共演の機会を優先的に提供することができる。
本発明の一又は複数の実施形態においては、共演可能ユーザ数(共演枠)が少ない配信ユーザが第1共演ユーザとして選択されやすくなるアルゴリズムに基づいて、第1共演可能ユーザの中から第1共演ユーザを選択してもよい。これにより、既に他の配信ユーザと活発に共演している配信ユーザが第1共演ユーザとして選択されやすくなるので、共演申請ユーザを他の配信ユーザとの共演の経験がある配信ユーザの動画へ参加させることができる。
本発明の一又は複数の実施形態においては、共演申請ユーザのユーザ属性情報及び第1共演可能ユーザのユーザ属性情報に基づいて、第1共演可能ユーザの中から第1共演ユーザを選択することができる。これにより、例えば、第1共演可能ユーザの中から共演申請ユーザとユーザ属性情報の一致度が高いユーザを第1共演ユーザとして選択することができる。よって、共演相手を特定しない第1共演申請に基づいて共演動画が生成されても、共演するユーザ同士で共通の話題を見つけることが容易となる。
本発明の一又は複数の実施形態においては、共演申請者は、共演相手を特定する第2共演申請を行い、この第2共演申請に基づいて共演が許可された場合に、当該第2共演申請で特定した共演相手と共演することができる。許可していない共演相手との共演を望まない配信ユーザは、第1共演可能ユーザとして登録しないことが想定されるため、動画配信システム1が共演相手を特定しない第1共演申請に基づく共演機能のみを提供していると、許可していない共演相手との共演を望まない配信ユーザに対して共演の機会を提供することができない。共演を許可した相手との共演を行う機能を提供することにより、許可していない共演相手との共演を望まない配信ユーザに対しても他のユーザとの共演の機会を提供することができる。
本発明の一又は複数の実施形態においては、第2共演申請は、視聴している動画を配信している配信ユーザに対してなされるので、配信中の動画に関心を持つ共演申請ユーザからのみ第2共演申請を受け付けることができる。
本発明の一又は複数の実施形態においては、動画を配信中の配信ユーザのリストが表示され、当該リストにおいて第1共演可能ユーザがそれ以外の配信ユーザから区別可能に表示される。例えば、「おすすめ」として表示される動画または動画の配信ユーザのリストにおいては、第1共演可能ユーザ(又は第1共演可能ユーザが配信している動画)に対応するアイコンに関連付けて、「共演枠2」などの第1共演申請に基づいて共演可能であることを示すメッセージが表示される。これにより、共演申請ユーザは、第1共演申請を行う前に共演相手となり得る配信ユーザを確認することができる。
本発明の一又は複数の実施形態においては、複数の配信ユーザが参加して行われるゲーム(例えば、キャラクタオブジェクトが参加するパーティーゲーム)を開始したユーザを第1共演可能ユーザとして登録することができる。これにより、第1共演申請に基づいて、ゲームを開始したユーザが第1共演ユーザとして選択されやすくなる。ゲームを開始したユーザとは、ゲームという共通の話題があるため、第1共演申請に基づいて事前に互いに関する知識のないユーザ同士が共演してもスムースにコラボレーションを行うことができる。
本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。
コンピュータプロセッサ61により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ61以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ61により実現される機能の少なくとも一部は、例えば、配信ユーザ装置20のコンピュータプロセッサ21により実現されてもよく、視聴ユーザ装置10のコンピュータプロセッサにより実現されてもよい。
上記の実施形態では、動画の視聴を行う視聴ユーザ装置10や配信ユーザ装置がアニメーション構成データに基づいてレンダリングを行うことで、配信ユーザのキャラクタオブジェクトを含む動画の動画データを生成している。つまり、上記の実施形態では、配信ユーザのキャラクタオブジェクトを含む動画の画像の生成は、当該動画を視聴するユーザの視聴ユーザ装置10又は配信ユーザ装置で行われている。動画の画像を生成するレンダリングは、当該動画を視聴する視聴ユーザ装置10や配信ユーザ装置以外で行われてもよい。例えば、視聴要求がなされた動画を生成するためのレンダリングをサーバ60が行い、このレンダリングにより生成された動画データを視聴要求を行った視聴ユーザ装置10や配信ユーザ装置に対して送信してもよい。この場合、サーバ60から視聴対象の動画の動画データを受信した視聴ユーザ装置10及び配信ユーザ装置は、レンダリングを行うことなく、受信した動画データをディスプレイやスピーカに出力することができる。視聴対象となる動画のレンダリングは、当該動画を配信する配信ユーザの配信ユーザ装置において行われてもよい。この場合、動画を配信する配信ユーザの配信ユーザ装置においてレンダリングが行われ、このレンダリングにより生成された動画データがサーバ60を介して又は直接に、当該動画の視聴要求を行った視聴ユーザ装置10及び配信ユーザ装置に対して送信される。
1 動画配信システム
10 視聴ユーザ装置
20a、20b、20c 配信ユーザ装置
21a1、21b1 モーションデータ管理部
21a2、21b2 表示制御部
21a3、21b3 共演申請部
26a、26b ストレージ
60 サーバ
61a 配信管理部
61b ユーザ登録部
61c 第1共演申請処理部
61d 第1共演申請処理部
63 ストレージ

Claims (13)

  1. 一又は複数のプロセッサを備え、
    前記一又は複数のプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
    自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する複数の配信ユーザのうち登録要求を行った配信ユーザを第1共演可能ユーザとして登録し、
    前記第1共演可能ユーザのいずれかとの共演を申請する第1共演申請を共演申請ユーザから受け付けたことに応じて前記第1共演可能ユーザの中から第1共演ユーザを選択し、
    前記共演申請ユーザと前記第1共演ユーザとが共演する共演動画を配信する、
    動画配信システム。
  2. 前記共演動画は、前記第1共演申請の受け付け後に前記第1共演ユーザの許可を得ることなく配信される、
    請求項1に記載の動画配信システム。
  3. 前記第1共演申請は、前記共演申請ユーザが前記第1共演ユーザの動画を視聴している間及び前記共演申請ユーザが前記第1共演ユーザの動画を視聴していない間のいずれにおいても受け付けられる、
    請求項1又は2に記載の動画配信システム。
  4. 前記複数の配信ユーザの各々に共演できるユーザの上限が設定されている、
    請求項1から3のいずれか1項に記載の動画配信ステム。
  5. 前記複数の配信ユーザの各々について前記上限と共演中のユーザの数との差で表される共演可能ユーザ数を管理し、
    前記複数の配信ユーザの各々の前記共演可能ユーザ数に基づいて前記第1共演ユーザが選択される、
    請求項4に記載の動画配信システム。
  6. 前記複数の配信ユーザの各々についてその属性を示す属性情報が設定されており、
    前記第1共演可能ユーザの前記属性情報に少なくとも基づいて前記第1共演ユーザが選択される、
    請求項1から5のいずれか1項に記載の動画配信システム。
  7. 前記複数の配信ユーザの中から選択された第2共演ユーザとの共演を申請する第2共演申請を前記共演申請ユーザから受け付けたことに応じ、前記共演申請ユーザと前記第2共演ユーザとの共演可否を判定し、
    前記共演申請ユーザと前記第2共演ユーザとの共演が可能と判定された場合に、前記共演申請ユーザと前記第2共演ユーザとが共演する他の共演動画を生成する、
    請求項1から6のいずれか1項に記載の動画配信システム。
  8. 前記第2共演申請は、前記共演申請ユーザが前記第2共演ユーザの動画を視聴している間にのみ受け付けられる、
    請求項7に記載の動画配信システム。
  9. 前記第2共演ユーザは、前記複数の配信ユーザのうち前記第2共演申請を受け付ける一又は複数の第2共演可能ユーザから選択され、
    前記複数の配信ユーザのうち前記第1共演申請を受け付ける一又は複数の第1共演可能ユーザの少なくとも一部及び前記一又は複数の第2共演可能ユーザの少なくとも一部のうちの少なくとも一方を含む共演リストを前記共演申請ユーザに提供する、
    請求項7又は8に記載の動画配信システム。
  10. 前記複数の配信ユーザのうちの少なくとも一部を含むリストを表示し、
    前記リストにおいては、前記一又は複数の第1共演可能ユーザの各々は、前記複数の配信ユーザのうち前記第1共演可能ユーザではない配信ユーザから区別可能に表示される、
    請求項9に記載の動画配信システム。
  11. 前記複数の配信ユーザの少なくとも一部が参加して行われるゲームを開始したユーザを前記第1共演可能ユーザとして登録する、
    請求項1から10のいずれか1項に記載の動画配信システム。
  12. 一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
    自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する複数の配信ユーザのうち登録要求を行った配信ユーザを第1共演可能ユーザとして登録する工程と、
    前記第1共演可能ユーザのいずれかとの共演を申請する第1共演申請を共演申請ユーザから受け付けたことに応じて前記第1共演可能ユーザの中から第1共演ユーザを選択する工程と、
    前記共演申請ユーザと前記第1共演ユーザとが共演する共演動画を生成する工程と、
    を備える動画配信方法。
  13. 一又は複数のコンピュータプロセッサに、
    自らの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信する複数の配信ユーザのうち登録要求を行った配信ユーザを第1共演可能ユーザとして登録する工程と、
    前記第1共演可能ユーザのいずれかとの共演を申請する第1共演申請を共演申請ユーザから受け付けたことに応じて前記第1共演可能ユーザの中から第1共演ユーザを選択する工程と、
    前記共演申請ユーザと前記第1共演ユーザとが共演する共演動画を生成する工程と、
    を実行させる動画配信プログラム。
JP2020184798A 2020-11-05 2020-11-05 動画配信システム、動画配信方法及び動画配信プログラム Active JP6923735B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020184798A JP6923735B1 (ja) 2020-11-05 2020-11-05 動画配信システム、動画配信方法及び動画配信プログラム
JP2021123769A JP7194239B2 (ja) 2020-11-05 2021-07-29 動画配信システム、動画配信方法及び動画配信プログラム
US17/453,642 US20220141551A1 (en) 2020-11-05 2021-11-04 Moving image distribution system, moving image distribution method, and moving image distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020184798A JP6923735B1 (ja) 2020-11-05 2020-11-05 動画配信システム、動画配信方法及び動画配信プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021123769A Division JP7194239B2 (ja) 2020-11-05 2021-07-29 動画配信システム、動画配信方法及び動画配信プログラム

Publications (2)

Publication Number Publication Date
JP6923735B1 true JP6923735B1 (ja) 2021-08-25
JP2022074618A JP2022074618A (ja) 2022-05-18

Family

ID=77364464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020184798A Active JP6923735B1 (ja) 2020-11-05 2020-11-05 動画配信システム、動画配信方法及び動画配信プログラム

Country Status (2)

Country Link
US (1) US20220141551A1 (ja)
JP (1) JP6923735B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019198053A (ja) * 2018-08-01 2019-11-14 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2020096269A (ja) * 2018-12-12 2020-06-18 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム
JP2020099096A (ja) * 2020-03-03 2020-06-25 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム
JP2020099090A (ja) * 2020-02-18 2020-06-25 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010093831A1 (en) * 2009-02-11 2010-08-19 Social Gaming Network Apparatuses, methods and systems for an interactive proximity display tether with remote co-play
JP6550522B1 (ja) * 2018-12-18 2019-07-24 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム
WO2021033616A1 (ja) * 2019-08-20 2021-02-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
US11082467B1 (en) * 2020-09-03 2021-08-03 Facebook, Inc. Live group video streaming
CN112291583B (zh) * 2020-10-29 2022-12-27 北京达佳互联信息技术有限公司 直播连麦方法、装置、服务器、终端及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019198053A (ja) * 2018-08-01 2019-11-14 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2020096269A (ja) * 2018-12-12 2020-06-18 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム
JP2020099090A (ja) * 2020-02-18 2020-06-25 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム
JP2020099096A (ja) * 2020-03-03 2020-06-25 グリー株式会社 動画配信システム、動画配信方法及び動画配信プログラム

Also Published As

Publication number Publication date
JP2022074618A (ja) 2022-05-18
US20220141551A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
WO2020138107A1 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6550522B1 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP7168754B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7134298B2 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP6701416B1 (ja) 動画配信システム、サーバ、サーバの動画配信方法、動画配信プログラム及びユーザ装置の動画配信方法
US20210065421A1 (en) Moving image distribution system, moving image distribution method, and moving image distribution program
US11740766B2 (en) Information processing system, information processing method, and computer program
JP6832997B1 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP2021003286A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP6923735B1 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP7288990B2 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP7194239B2 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP6713080B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP6664534B1 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP2021077388A (ja) 動画配信システム、動画配信方法及び動画配信プログラム
WO2020129448A1 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP7442097B2 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP7044923B6 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP6828106B1 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
JP2023103424A (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2022102120A (ja) ユーザ情報制御システム及びプログラム
JP2020178350A (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2021035017A (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201106

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210729

R150 Certificate of patent or registration of utility model

Ref document number: 6923735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531