JP2021007198A - 動画配信システム、動画配信方法、情報処理装置、動画配信プログラム及び動画視聴プログラム - Google Patents

動画配信システム、動画配信方法、情報処理装置、動画配信プログラム及び動画視聴プログラム Download PDF

Info

Publication number
JP2021007198A
JP2021007198A JP2019120755A JP2019120755A JP2021007198A JP 2021007198 A JP2021007198 A JP 2021007198A JP 2019120755 A JP2019120755 A JP 2019120755A JP 2019120755 A JP2019120755 A JP 2019120755A JP 2021007198 A JP2021007198 A JP 2021007198A
Authority
JP
Japan
Prior art keywords
video
user
game
distribution
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019120755A
Other languages
English (en)
Other versions
JP7202981B2 (ja
JP2021007198A5 (ja
Inventor
匠 福田
Takumi Fukuda
匠 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019120755A priority Critical patent/JP7202981B2/ja
Priority to US16/883,377 priority patent/US12035010B2/en
Publication of JP2021007198A publication Critical patent/JP2021007198A/ja
Publication of JP2021007198A5 publication Critical patent/JP2021007198A5/ja
Priority to JP2022205045A priority patent/JP7473901B2/ja
Application granted granted Critical
Publication of JP7202981B2 publication Critical patent/JP7202981B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4784Supplemental services, e.g. displaying phone caller identification, shopping application receiving rewards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】動画の配信ユーザ及び視聴ユーザの交流を促進する。【解決手段】サーバ13と、検出部、操作部及び表示部を有するユーザ装置12と、ユーザ装置12とを備えた動画配信システムであって、ユーザ装置12が、検出部からの出力情報に基づき、動画を配信する配信ユーザの動作を検出する動作検出部と、配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示する第1表示制御部と、操作部を用いた入力操作を受け付ける操作情報取得部と、入力操作及び配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を表示部に表示する第2表示制御部と、を備え、サーバ13が、第1アバターオブジェクトを含む動画データ及び第2アバターオブジェクトを含むゲームの動画データをユーザ装置12に送信する配信管理部と、を備える。【選択図】図1

Description

本発明は、動画配信システム、動画配信方法、情報処理装置、動画配信プログラム及び動画視聴プログラムに関する。
従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている(例えば、特許文献1参照)。
この種の動画配信システムにおいて、動画に、視聴ユーザの操作によって任意のオブジェクトを表示させるものが提案されている。視聴ユーザにより動画に表示させるオブジェクトは、例えば、装着オブジェクトへのギフトオブジェクト等である。
特開2015−184689号公報
上記のような動画配信システムにおいては、配信ユーザと視聴ユーザとの間のリアルタイムでの交流が活発になるほど、動画の視聴ユーザ数、視聴時間又は視聴回数が増加する傾向にある。このため、配信ユーザ及び視聴ユーザが交流しやすい動画を配信することが求められている。
本発明は、上記実情に鑑みてなされたものであり、動画の配信ユーザ及び視聴ユーザの交流を促進することを目的とする。
上記課題を解決する動画配信システムは、検出部からの出力情報に基づき、動画を配信する配信ユーザの動作を検出する動作検出部と、前記配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示する第1表示制御部と、操作部を用いた入力操作を受け付ける操作情報取得部と、前記入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を表示部に表示する第2表示制御部と、前記第1アバターオブジェクトを含む動画データ及び前記第2アバターオブジェクトを含むゲームの動画データを視聴装置に送信する配信管理部とを備える。
上記課題を解決する動画配信方法は、配信装置が、検出部からの出力情報に基づき、動画を配信する配信ユーザの動作を検出し、前記配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示し、操作部を用いた入力操作を受け付け、前記入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を前記表示部に表示し、サーバが、前記第1アバターオブジェクトを含む動画データ及び前記第2アバターオブジェクトを含むゲームの動画データを視聴装置に送信する。
上記課題を解決する情報処理装置は、動画を配信する配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示する第1表示制御部と、操作部を用いた入力操作を受け付ける操作情報取得部と、前記入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を前記表示部に表示する第2表示制御部と、を備え、前記ゲームの動画を他の情報処理装置に配信するための動画データを前記サーバに送信する動画送信部と、を備える。
上記課題を解決する動画配信プログラムは、1乃至複数のコンピュータを、動画を配信する配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示する第1表示制御部と、操作部を用いた入力操作を受け付ける操作情報取得部と、前記入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を前記表示部に表示する第2表示制御部と、前記ゲームの動画データをサーバに送信する動画送信部として機能させる。
上記課題を解決する情報処理装置は、動画を配信する配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示する第1表示制御部と、前記配信ユーザの入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を表示する第2表示制御部と、を備え、視聴ユーザの入力操作を受け付けて、オブジェクトの表示要求を前記サーバに送信する要求送信部と、を備える。
上記課題を解決する動画配信プログラムは、1乃至複数のコンピュータを、動画を配信する配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示する第1表示制御部と、前記配信ユーザの入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を表示する第2表示制御部と、視聴ユーザの入力操作を受け付けて、オブジェクトの表示要求をサーバに送信する要求送信部として機能させる。
本発明によれば、動画の配信ユーザ及び視聴ユーザの交流を促進することができる。
動画配信システムの一実施形態を示す模式図。 同実施形態のサーバに格納されるデータの構成を示し、(a)はユーザ管理情報、(b)は保有リスト情報、(c)はギフトオブジェクト情報、(d)はゲーム履歴情報を示す図。 同実施形態における現実空間及び仮想空間の座標系での各要素の位置関係を示し、(a)は現実空間でのユーザ装置とユーザとの位置関係を示す模式図、(b)は仮想空間でのオブジェクトの位置関係を示す模式図、(c)はゲームでの仮想空間でのオブジェクトの位置関係を示す模式図。 同実施形態のユーザ装置の画面遷移を示す図であって、(a)はゲーム開始前の画面、(b)はゲーム開始画面。 同実施形態のユーザ装置に表示されるゲーム画面であって、(a)はゲーム実行中の画面、(b)はアバターオブジェクトが障害物に衝突した画面、(c)はゲームが終了した画面を示す。 同実施形態のユーザ装置に表示されるゲーム画面であって、(a)はゲーム実行中の視聴画面、(b)は応援オブジェクトの表示要求を行うための視聴画面。 同実施形態におけるゲームを実行するフローチャート。 同実施形態における獲得スコアを分配する処理のフローチャート。 動画配信システムの変形例であって、アバターオブジェクトを含むロールプレイングゲームを配信する場合の仮想空間の模式図。
以下、図面を参照して動画配信システムの一実施形態について説明する。
図1に示すように、動画配信システム11は、複数のユーザ装置12とサーバ13とを備える。動画配信システム11は、ユーザがユーザ装置12を用いてユーザに対応するアバターオブジェクトを含む動画を、サーバ13を介して、他のユーザが用いるユーザ装置12に配信するシステムである。ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされている。以下、動画を配信するユーザを「配信ユーザ」、配信ユーザにより配信された動画を視聴するユーザを「視聴ユーザ」といい、これらを区別しない場合には単に「ユーザ」という。配信ユーザは、自身が動画を配信していない場合には、他の配信ユーザが配信する動画を視聴する視聴ユーザにもなりうる。なお、ユーザ装置12は、配信装置及び視聴装置に対応する。
(ユーザ装置)
ユーザ装置12は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置である。
ユーザ装置12は、コンピュータプロセッサ20、メモリ21、ストレージ22(記憶媒体)、通信インターフェース(I/F)23を備える。コンピュータプロセッサ20は、ストレージ22又はそれ以外のストレージからオペレーティングシステムやその他のプログラムをメモリ21にロードし、メモリ21から取り出した命令を実行する演算装置である。コンピュータプロセッサ20は、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、NPU(Neural network Processing Unit)等の1乃至複数の演算回路である。通信I/F23は、ネットワーク14を介して、サーバ13及び他のユーザ装置12とデータを送受信することができる。ネットワーク14は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。通信I/F23は、ハードウェア、ソフトウェア、又はこれらの組み合わせとして実装される。
メモリ21は、コンピュータプロセッサ20が直接的に読み出し及び書き込みが可能な主記憶装置(記録媒体)であり、半導体メモリ等から構成される。ストレージ22は、補助記憶装置(記録媒体)であり、例えば、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体である。ストレージ22は、複数のストレージを組み合わせて用いることもできる。ストレージ22には、動画アプリケーションプログラム22A、アバターオブジェクトを描画するためのアバターデータ22B、動画アプリケーションプログラム22Aを実行するためのその他の情報が格納されている。動画アプリケーションプログラム22Aは、ユーザの指示に応じて、ユーザ自身が動画を配信する配信モードと、他の配信ユーザが配信する動画を視聴する視聴モードとに切り替えられる。アバターデータ22Bは、3次元のアニメーションを生成するための3次元モデルデータである。ユーザ装置12は、アバターデータ22Bを、サーバ13から所定のタイミングで取得する。例えば、アバターデータ22Bは、骨格データ、骨格データに追従してアバターオブジェクトをレンダリングするメッシュデータを有している。アバターデータ22Bは、少なくとも頭部、目、口、髪、肩等を動かすことが可能なモデルデータである。
また、ユーザ装置12は、センサユニット24、スピーカ25、マイク26、操作部27、ディスプレイ28を備える。センサユニット24、スピーカ25、マイク26、操作部27及びディスプレイ28の少なくとも一つは、コンピュータプロセッサ20と同じ装置として設けられていてもよく、別体として設けられていてもよい。なお、センサユニット24は検出部に対応する。なお、ディスプレイ28は表示部に対応する。
センサユニット24は、瞬きや口の開閉等といったユーザの表情の変化、頭部の動き、上半身の動き、センサユニット24に対するユーザの相対位置の変化を検出するセンサ群である。例えば、センサユニット24は、ユーザに向かって赤外線を射出する射出部及びユーザの顔等に反射した赤外線を検出する赤外線カメラと、ユーザの顔等を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部との少なくとも一方を有する。又は、センサユニット24は、これ以外のセンサであってもよいし、例えば、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサをさらに組み合わせてもよい。
スピーカ25は、音声データを音声に変換して出力する。マイク26は、ユーザが発話した音声を入力し、音声データに変換する。操作部27は、ディスプレイ28と一体化されたタッチパネルや、ユーザ装置12の筐体等に設けられた操作ボタン、キーボード、マウス、コントローラ等である。ディスプレイ28は、コンピュータプロセッサ20の出力指示に応じて、各種画像を出力する。
コンピュータプロセッサ20は、ストレージ22に記憶された動画アプリケーションプログラム22Aを実行することにより、アプリケーション管理部20A、モーションデータ生成部20B、表示制御部20Cとして機能する。アプリケーション管理部20Aは、動画アプリケーションプログラムを管理する。アプリケーション管理部20Aは、操作部27からの要求又はサーバ13からの要求を入力して、それらの要求の内容に応じて、要求をモーションデータ生成部20B又は表示制御部20Cへ出力する。また、アプリケーション管理部20Aは、モーションデータ生成部20B及び表示制御部20Cからの要求をサーバ13へ送信したり、サーバ13から受信した各種データをストレージ22に記録したりする。なお、アプリケーション管理部20Aは、要求送信部に対応し、モーションデータ生成部20Bは、動作検出部に対応し、表示制御部20Cは、表示制御部、第1表示制御部、第2表示制御部に対応する。
モーションデータ生成部20Bは、センサユニット24から、ユーザの表情の変化、頭部の動き、上半身の動き、センサユニット24に対するユーザの相対位置を検出した検出データを取得し、取得した検出データをアバターデータ22Bに適用する。
表示制御部20Cは、配信モードにおいて、検出データを適用したアバターデータ22B(モーションデータ)を表示しつつ、サーバ13から受信したデータを表示する。表示制御部20Cは、配信モードにおいて、自身が生成した動画データとサーバ13から受信したデータとを組み合わせて動画を表示してもよいし、動画を表示するためのデータ全体をサーバ13から受信して動画を表示してもよい。また、表示制御部20Cは、動画を配信又は視聴していない場合に、アプリケーション管理部20Aの要求に応じて、ストレージ22に記憶された画像データを読み出して、ディスプレイ28に各種の画面を表示する。このような画面が表示される場合は、配信ユーザによって自身のアバターオブジェクトが編集される場合や、動画アプリケーションプログラムの設定が行われる場合等が含まれる。さらに、表示制御部20Cは、視聴モードにおいて、サーバ13から受信した動画データを用いて動画を再生する。表示制御部20Cは、サーバ13からダウンロードしストレージ22に記憶したデータファイルを再生してもよいし、サーバ13からデータを受信しながら再生するストリーミング再生を行ってもよい。
(サーバ)
次にサーバ13について説明する。サーバ13は、動画を配信するためのプラットフォームサービスを提供するサービス提供者等が用いるものである。サーバ13は、コンピュータプロセッサ30と、メモリ31と、ストレージ32と、通信I/F33とを備えている。コンピュータプロセッサ30は、ユーザ装置12のコンピュータプロセッサ20と同様な構成である。コンピュータプロセッサ30は、複数の演算回路を組み合わせて構成されていてもよい。また、メモリ31、ストレージ32、通信I/F33は、ユーザ装置12と同じ構成である。サーバ13は複数の装置から構成されていてもよく、コンピュータプロセッサ30、メモリ31、ストレージ32、通信I/F33はそれらの装置に分散されて設けられていてもよい。
ストレージ32には、配信プログラム32Aが格納されている。コンピュータプロセッサ20は、配信プログラム32Aを実行することにより、配信管理部30A、動画生成部30B、購入処理部30C、ゲーム実行部30Dとして機能する。なお、配信管理部30Aは、ゲーム媒体付与部、報酬付与部に対応し、動画生成部30Bは、オブジェクト表示部に対応する。
配信管理部30Aは、ユーザ装置12から受信した各種データをストレージ32に記憶するとともに、ユーザ装置12から受信した要求に基づき、動画生成部30B、購入処理部30C及びゲーム実行部30Dに要求を出力する。さらに、配信管理部30Aは、動画生成部30B、購入処理部30C及びゲーム実行部30Dからの要求を受信して、ユーザ装置12に送信する。例えば、配信管理部30Aは、ユーザ装置12からの要求に応じて、配信中の動画のリストを送信する。配信管理部30Aは、ユーザ装置12からリクエストされた動画の識別情報を受信すると、動画生成部30Bに動画生成要求を出力し、動画生成部30Bが生成した動画データを、リクエストを行ったユーザ装置12に配信する。また、配信管理部30Aは、動画生成部30Bが生成した動画データ全体又は動画に対して投稿されたメッセージや表示要求が行われたオブジェクトのデータ等といった動画データの一部を配信ユーザのユーザ装置12にも配信する。これにより、配信ユーザは、ユーザ装置12の画面にて、メッセージや表示要求の行われたオブジェクトを見ることができる。
動画生成部30Bは、物理演算エンジンを含み、配信ユーザが用いるユーザ装置12から受信したアバターオブジェクトのモーションデータを用いて、音声及び画像を含めた仮想空間の動画を生成する。また、動画生成部30Bは、動画を視聴する視聴ユーザが用いるユーザ装置12から、視聴中の動画へのオブジェクトの表示要求、及びメッセージの表示要求を受信し、表示要求に応じた処理を行う。表示要求が行われるオブジェクトは仮想空間内に表示されるオブジェクトであって、視聴ユーザから、動画を配信する配信ユーザに提供されるギフトオブジェクトを含む。ギフトオブジェクトは、対価を支払わずに表示要求を行うことのできるものであってもよく、対価を払うことによって表示要求を行うものであってもよい。又は、ギフトオブジェクトは、表示要求に応じて表示がなされた場合に対価を支払うものであってもよい。
さらに、動画生成部30Bは、ユーザ装置12から受信したメッセージを動画に表示させるための処理を行う。メッセージには、メッセージの内容の他、視聴ユーザの識別情報(ユーザのアカウント名等)、投稿日時等が含まれる。
購入処理部30Cは、ユーザの操作にしたがって、オブジェクトの購入処理を行う。購入処理には、動画アプリケーションプログラム内で利用可能なコイン等の対価(媒体)を支払ってオブジェクトを入手する購入のほか、オブジェクトの交換、売却、譲渡の処理も行う。購入処理部30Cは、購入されたオブジェクトを、ユーザによって保有されるものとしてサーバ13に記憶する。購入可能なオブジェクトの売上は、例えば配信ユーザ及びサービス提供者に分配される。
ゲーム実行部30Dは、配信管理部30Aからのゲーム実行要求を受けて、動画配信中にゲームを実行する。ゲーム実行部30Dは、動画生成部30Bと協働してゲームの動画データを生成し、この動画データを視聴ユーザが用いるユーザ装置12に送信する。
次に、サーバ13のストレージ32に格納された各種のデータについて説明する。ストレージ32には、アセットデータ32B、ユーザ管理情報32C、保有リスト情報32D、ギフトオブジェクト情報32E及びゲーム履歴情報32Fが格納されている。
アセットデータ32Bは、動画を構成する仮想空間を描画するためデータである。具体的には、アセットデータ32Bには、仮想空間の背景を描画するためのデータ、効果音等のオーディオデータ、動画に表示される各種オブジェクトを描画するための3次元モデルデータ(オブジェクトモデルデータ)、テクスチャデータ等が含まれる。
オブジェクトモデルデータに含まれるオブジェクトは、ユーザの利用形態によって区別される。具体的には、配信ユーザが表示させることのできるオブジェクトのほか、視聴ユーザから配信ユーザに提供されるギフトオブジェクトが含まれる。ギフトオブジェクトには、エフェクトオブジェクトと、装着オブジェクトと、通常オブジェクトとが含まれる。エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトや、花火を模したオブジェクト等である。装着オブジェクトは、装着オブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。装着オブジェクトは、例えば、装着オブジェクトに装着されるアクセサリー(帽子、めがね等)、衣服(Tシャツなど)、コスチューム、及びこれら以外のアバターオブジェクトに装着可能なオブジェクトである。装着オブジェクトは、視聴ユーザから提供された後、配信ユーザに選択されることによってアバターオブジェクトに装着される。通常オブジェクトは、仮想空間内に物体として配置される装着オブジェクト以外のギフトオブジェクトであって、例えばぬいぐるみや花束を模したオブジェクトである。
また、オブジェクトモデルデータに含まれるオブジェクトは、仮想空間内での挙動によっても区別される。具体的には、重力による落下、力の付与による運動等といった物理的挙動をシミュレーションするオブジェクト(物理挙動オブジェクト)のデータと、物理挙動のシミュレーションを行わないオブジェクトのデータとが含まれる。物理挙動オブジェクトには、物理的挙動をシミュレーションするためのコンポーネント(プログラム)が関連付けられている。また、物理挙動オブジェクトには、仮想的な重力を有効とするか否か、オブジェクトの仮想的な重量、落下方向の空気抵抗、回転方向の空気抵抗、摩擦係数等の各種パラメータが設定可能である。物理挙動オブジェクトに、仮想空間内への出現(重力の付与)等といったイベントが発生すると、関連付けられたコンポーネントが実行され、仮想空間内で物理オブジェクトが落下する。また、落下方向の空気抵抗を大きくすると、物理挙動オブジェクトの落下速度が小さくなる。なお、配信ユーザが表示可能なオブジェクト及びギフトオブジェクトは、物理挙動を行うか否かによって区別されず、物理挙動オブジェクト及び物理挙動を行わないオブジェクトであってもよいしいずれか一方であってもよい。
また、物理挙動オブジェクトには、他の物理挙動オブジェクトとの衝突判定を行うための接触判定範囲を設定可能である。接触判定範囲は、頂点等が仮想空間座標系(X,Y,Z)の座標で規定される3次元の範囲である。動画生成部30Bは、接触判定範囲が設定された物理挙動オブジェクト(以下、衝突オブジェクトという)同士の接触判定範囲が重なった(当たった)場合、衝突オブジェクト同士を、それらに設定されたパラメータ(重量、空気抵抗等)に基づいて、予め設定された力学的な演算式に基づいて衝突させるシミュレーションを行う。このとき動画では、衝突オブジェクト同士が跳ね返ったり、押し合ったりする衝突動作が描画される。なお、接触判定範囲は必ずしもオブジェクトと同じ大きさや形状でなくてもよく、球状のオブジェクトに直方体状の接触判定範囲を設定することも可能である。また、例えば衝突オブジェクトの重量のパラメータに大きい値を設定すると、重量パラメータの値が小さい衝突オブジェクトに比べて、衝突時に跳ね返りにくくなる。
次に図2(a)を参照して、ユーザ管理情報32Cについて説明する。ユーザ管理情報32Cは、ユーザ毎に記憶されている。ユーザ管理情報32Cは、ユーザの識別情報(ユーザID)、ユーザの動画の配信履歴、動画の視聴履歴等を含む。また、ユーザ管理情報32Cは、コイン、ポイントを含む。コインは、動画アプリケーションプログラム、又はそれを提供しているプラットフォームサービス上で利用可能な媒体であって、ユーザによって購入されたものである。コインは、ギフトオブジェクト等のオブジェクトや動画アプリケーションプログラムで利用可能な他の媒体と交換することができる。ポイントは、動画を所定時間以上視聴した場合にユーザに付与され、動画を視聴する度に累積されるものを含む。視聴によって付与されるポイントは、例えば所定期間内に10回まで付与されるか、ユーザ登録を行ってから視聴回数が10回に到達するまで付与されるといった制限を設けるようにしてもよい。
図2(b)を参照して、保有リスト情報32Dについて説明する。保有リスト情報32Dは、ユーザ毎に記憶されている。保有リスト情報32Dには、ユーザの識別情報(ユーザID)、ユーザが配信する動画に表示可能な保有オブジェクトの識別情報が含まれている。なお、保有オブジェクトは、例えば、帽子、Tシャツ、ネコミミ等である。また、保有リスト情報32Dには、保有オブジェクトがアバターオブジェクトに装着ができるか否かを示す情報と、装着部位とが含まれている。装着部位は、保有オブジェクトが装着オブジェクトである場合に、アバターオブジェクトのいずれの部位に装着できるかを示す情報である。ユーザの保有リスト情報32Dに含まれるオブジェクトは、ユーザ自身が配信する動画内で用いることができる。なお、保有リスト情報32Dは、保有することのできる個数が複数であるオブジェクトについて保有個数を含むようにしてもよい。
図2(c)を参照して、ギフトオブジェクト情報32Eについて説明する。ギフトオブジェクト情報32Eは、ユーザ毎に記憶されている。ギフトオブジェクト情報32Eは、ユーザの識別情報(ユーザID)、ギフトの識別情報、ギフト毎の個数、ギフトの購入に必要なコイン数が含まれる。ギフトは、動画アプリケーションプログラムの媒体(要素)であって、オブジェクト又は動画アプリケーションプログラム等で利用可能な媒体である。ユーザのギフトオブジェクト情報32Eに含まれるギフトのオブジェクトは、他の配信ユーザが動画を配信している場合に、動画への表示要求又は配信ユーザへの提供要求を行うことができるが、ユーザ自身が配信する動画内で用いることはできないようにしてもよい。
図2(d)を参照して、ゲーム履歴情報32Fについて説明する。ゲーム履歴情報32Fは、動画配信中に行われるゲームの履歴情報を含む。ゲーム履歴情報32Fは、配信ユーザのユーザ識別情報、配信ユーザが行ったゲームに割り振られたゲーム識別情報、ゲームで獲得したスコアを含む。ゲーム識別情報は、番号でもよく、ゲームを行った回数であってもよい。
次に図3を参照して、仮想空間内のオブジェクトについて説明する。
図3(a)に示すように、配信ユーザ100は、少なくとも自身の顔がセンサユニット24の検出範囲101に含まれるようにユーザ装置12と対峙して、配信アプリケーションプログラムを実行する。このとき、配信ユーザ100は、配信アプリケーションプログラムを配信モードにする。さらに配信モードにおいて配信を開始する操作を行うと、ユーザ装置12からサーバ13にモーションデータが送信される。動画配信中において、配信ユーザ100が用いるユーザ装置12のディスプレイ28には、アバターオブジェクトを含む仮想空間の動画が表示される。動画の視点位置は、センサユニット24の位置である。アバターオブジェクトの位置は、配信ユーザ100とセンサユニット24との相対距離の変化に応じて変化する。例えば、配信ユーザ100が図中y方向に移動してセンサユニット24から遠ざかり、配信ユーザ100とユーザ装置12との相対距離Lが大きくなると、相対距離Lの変化がアバターキャラクタの仮想空間内の位置にも反映され、アバターキャラクタが画面奥行方向に移動する。また、配信ユーザ100が図中x方向又は反x方向に動くと、その動きが、アバターキャラクタの画面左側又は右側の動きとして反映される。
図3(b)は、仮想空間の座標系(X,Y,Z)と第1アバターオブジェクト111及びその他のオブジェクトの位置関係を示す。動画生成部30Bは、視点位置131から見た第1アバターオブジェクト111の画像を含む動画を生成する。第1アバターオブジェクト111は、接触判定範囲133が設定された物理挙動オブジェクト(以下、衝突オブジェクトという)である。また、仮想空間内には、第1アバターオブジェクト111以外の衝突オブジェクトを含む。衝突オブジェクトは、例えばギフトオブジェクト132の一部である。動画生成部30Bは、接触判定範囲133が設定された衝突オブジェクト同士の接触判定範囲が重なった(当たった)場合、衝突オブジェクト同士を、それらに設定されたパラメータ(重量、空気抵抗等)に基づいて、予め設定された力学的な演算式に基づいて衝突させるシミュレーションを行う。このとき動画では、衝突オブジェクト同士が跳ね返ったり、押し合ったりする衝突動作が描画される。
図3(c)は、ゲーム画面に表示される各オブジェクトの位置関係を示す図である。ゲーム画面では、各オブジェクトは、画面の上下方向(X方向及び反X方向)と画面の左右方向(Z方向及び反Z方向)の2次元の画像として表示される。また、アバターオブジェクトは、ゲーム画面内においては2次元の第2アバターオブジェクト112として表示される。
第2アバターオブジェクト112は、アバター本体112Aとアバターが乗る乗り物オブジェクト112Bとから構成されている。第2アバターオブジェクト112は、画面左側から右側に向かって自動的に移動する。配信ユーザによるユーザ装置12への入力操作が行われている間は乗り物オブジェクト112Bの羽は上下に動き、第2アバターオブジェクト112全体が上昇する。配信ユーザが入力操作を解除すると、第2アバターオブジェクト112が落下する。第2アバターオブジェクト112の一部には接触判定範囲133が設定されている。例えば、乗り物オブジェクト112Bの羽には接触判定範囲133が設定されず、その他の部分に接触判定範囲133が設定される。これは、上下に動く羽に接触判定範囲133を設定すると、他の衝突オブジェクトとの衝突の確率が高くなってしまい、難度が高くなるためである。また、ゲーム画面には、障害物115が表示される。障害物115は、接触判定範囲133が設定された衝突オブジェクトである。配信ユーザは、第2アバターオブジェクト112が上側の障害物115と下側の障害物115との間を通り抜けるようにユーザ装置12に対して入力操作を行う。第2アバターオブジェクト112の接触判定範囲133と、障害物115の接触判定範囲133とが重複すると、第2アバターオブジェクト112の衝突動作が描画される。また、第2アバターオブジェクト112への入力操作を受け付け不可能とされ、ゲームが終了する。
次に図4,図5を参照して、動画配信中にゲームが行われる場合の画面遷移等について説明する。なお、動画の配信に用いられるユーザ装置12及び視聴に用いられるユーザ装置12を、スマートフォンとして説明する。
図4(a)は、配信ユーザのユーザ装置12に表示されるゲームに遷移する前の動画画面120である。動画画面120は、第1アバターオブジェクト111の画像を含む。第1アバターオブジェクト111の顔は、配信ユーザの表情の変化に伴い変化し、第1アバターオブジェクト111の頭部は、配信ユーザの頭部の動きに伴い動く。また、上述したように、第1アバターオブジェクト111の位置は、配信ユーザ100とセンサユニット24との相対距離の変化に応じて変化する。動画画面120には、視聴ユーザのユーザ装置12から送信されたメッセージ121が所定期間表示される。動画画面120には、配信切替ボタン122が表示される。配信切替ボタン122が選択されると、動画の配信を開始したり、動画の配信を停止したりすることができる。
また、動画画面120には、ゲームを実行するためのゲーム開始ボタン123が表示される。なお、ゲーム開始ボタン123は、サーバ13の配信管理部30Aによって、予め決められたスケジュールに沿って表示される。例えば、ゲーム開始ボタン123は、「4月1日18時〜4月8日24時」等の期間において、配信を開始する動画又は既に配信している動画に表示される。又は、ゲーム開始ボタン123は、一定の期間内のみだけではなく、全ての配信動画に常時表示されていてもよい。なお、視聴ユーザのユーザ装置12には、配信切替ボタン122及びゲーム開始ボタン123は表示されないものの、第1アバターオブジェクト111及びメッセージ121を含む動画画面120と同様な画面が表示される。メッセージには、視聴ユーザから投稿されたメッセージと、サーバ13によって自動的に表示されるメッセージとが含まれる。サーバ13は、視聴ユーザが視聴を開始したこと、ギフトオブジェクトの表示要求を行ったこと等のイベントを検知して、「入室しました」といったメッセージ121を表示したり、ユーザのアカウント名とともに「帽子を贈りました」等のメッセージ121を動画画面120に表示する。
図4(b)は、ゲーム開始画面129であって、図4(a)に示すゲーム開始ボタン123を操作することにより表示される。アプリケーション管理部20Aは、ゲーム開始画面129において、1回又は複数回タップ操作されたことを検知すると、サーバ13にゲーム開始要求を送信する。
図5を参照してゲーム実行中に配信ユーザのユーザ装置12に表示される画面の遷移の一例について説明する。なお、ゲームの画面中に表示されるアイコンは、配信ユーザと視聴ユーザとの間で異なるものの、視聴ユーザのユーザ装置12でも同様な画面が表示される。
図5(a)は、ゲームを実行中のゲーム画面130である。ゲーム画面130には、第2アバターオブジェクト112が表示される。第2アバターオブジェクト112は、配信ユーザのユーザ装置12への入力操作(タップ操作)に基づいて、その移動が制御される。ゲームでは、第2アバターオブジェクト112は、画面左側から右側に向かって自動的に移動する。また、ゲーム画面130には、メッセージ121、メッセージオブジェクト117が表示されている。メッセージオブジェクト117は、第2アバターオブジェクト112の移動範囲とは別に設けられた表示領域116に表示される。例えば、ゲームに寄与しないオブジェクトがゲーム中に表示要求された場合、そのオブジェクトは表示領域116に表示される。ゲーム実行部30Dは、配信ユーザによって入力操作されている間だけ第2アバターオブジェクト112を上方に移動させる。入力操作が行われていない場合には、第2アバターオブジェクト112は、重力が加わっているときのシミュレーションが行われて、落下する。配信ユーザは、第2アバターオブジェクト112を障害物115に接触させないように、入力操作及び入力操作の解除を繰り返し、1対の障害物115の間を通過させる。障害物115の間を通過する度に、障害物115を越えた本数がインクリメントされ、スコアが加算される。例えば、1対の障害物115を越えると、ユーザ管理情報32Cのポイントに所定ポイント「100pt」が加算される。
第2アバターオブジェクト112は、第1アバターオブジェクト111よりも、仮想空間内の挙動(動作)が制限されている。第2アバターオブジェクト112には、第1アバターオブジェクト111のモーションの一部のみが描画される。例えば第1アバターオブジェクト111は、配信ユーザの表情、頭部の動き及び上半身の動きが反映されるが、第2アバターオブジェクト112には配信ユーザの頭部の動き、表情の変化が反映される。これは、乗り物オブジェクト112B及びアバター本体112Aは一体となって移動するものの、乗り物オブジェクト112Bはアバター本体112Aの動作には追従しないため、第2アバターオブジェクト112を画面奥行方向及び手前方向に動かしたり、第2アバターオブジェクト112の上半身を左右方向に動かすと、第2アバターオブジェクト112のうちアバターに対応するオブジェクトが乗り物のオブジェクトを突き抜けて表示されるリスクがあるためである。
また、ゲーム画面では、第2アバターオブジェクト112は、画面の上下方向と左右方向の2次元空間内で移動する。第1アバターオブジェクト111には、配信ユーザとセンサユニット24との相対距離が反映されるが、第2アバターオブジェクト112には反映されない。つまり、第2アバターオブジェクト112の移動方向は、画面の上下方向と左右方向の2次元空間に限られる。
また、ゲーム画面130には、視聴ユーザから表示要求された応援オブジェクト113が表示される。ゲーム実行部30Dは、第2アバターオブジェクト112と応援オブジェクト113とについては、当たり判定は行うものの、衝突動作を描画しない。第2アバターオブジェクト112と応援オブジェクト113とが当たったと判定されると、配信ユーザのゲーム履歴情報32Fのスコアに所定ポイント(ゲーム媒体)が付与される。例えば、「ハート」の応援オブジェクト113に第2アバターオブジェクト112が当たった場合は「200pt」、「星」の応援オブジェクト113に第2アバターオブジェクト112が当たった場合は「150pt」が加算される。
また、ゲーム画面130には、視聴ユーザのユーザ装置12が送信したメッセージ121が表示される。このため、通常の動画画面120からゲーム画面130に切り替わっても、配信ユーザと視聴ユーザとのコミュニケーションを継続させることができる。また、ゲーム画面130に切り替わっても、アバターオブジェクトを画面から消去することなく、第2アバターオブジェクト112として表示するので、視聴ユーザは、配信ユーザとのコミュニケーションを継続しやすい。
図5(b)は、第2アバターオブジェクト112と障害物115とが当たった場合の画面の一例である。ゲーム実行部30Dは、第2アバターオブジェクト112と障害物115とが当たったと判定した場合には、動画生成部30Bと協働して、衝突動作を描画する。衝突動作の一例として、障害物115は元の位置から移動させず、第2アバターオブジェクト112を、跳ね返り、落下するように表示する。
図5(c)は、ゲームが終了したときのゲーム画面130である。第2アバターオブジェクト112と障害物115とが当たり、第2アバターオブジェクト112の衝突動作の描画が完了した場合には、ゲーム終了表示135とゲーム結果表示136とをゲーム画面130内に表示する。また、ゲーム画面130には、「もういちどプレイ」等が表示されたゲーム再開ボタン137と、「いつもの画面にもどる」等が表示された復帰ボタン138とが表示されている。ゲーム再開ボタン137が操作されると、ゲーム実行部30Dによりゲームを再開する。また、復帰ボタン138が操作されると、ゲーム実行部30Dによりゲーム処理が終了する。配信管理部30Aは、動画生成部30Bに動画生成要求を出力し、動画生成部30Bが生成した動画データをユーザ装置12に送信する。なお、ゲーム処理が終了し、第1アバターオブジェクト111を含む動画に復帰した場合、ゲーム中に表示要求され、且つ応援オブジェクト113のようにゲームに直接的に寄与しないギフトオブジェクトを、その動画画面に表示してもよい。
図6を参照して、視聴ユーザの視聴画面140の遷移の一例を説明する。図6(a)に示す視聴画面140には、応援オブジェクト113を表示要求するためのリスト表示ボタン141、メッセージボタン142が表示されている。図6(b)に示すように、ユーザ装置12のアプリケーション管理部20Aは、視聴ユーザによるリスト表示ボタン141の操作を受け付けると、ギフトオブジェクトリスト145を視聴画面140に表示する。ユーザ装置12は、ギフトオブジェクトリスト145に含まれる「ハートスタンプ」、「星スタンプ」等の応援オブジェクト113が選択されると、サーバ13に応援オブジェクト113の表示要求を送信する。サーバ13の動画生成部30Bは、表示要求に応じて、応援オブジェクト113を所定の位置に出現させる。このとき、動画生成部30Bは、第2アバターオブジェクト112の進行方向前方となる領域に応援オブジェクト113を表示する。
図7及び図8を参照して、ユーザ装置12及びサーバ13の動作について、動画アプリケーションプログラムにより実行される処理手順とともに説明する。
図7は、サーバ13によって実行されるゲームを開始する処理の手順である。なお、ゲームが開始される前においては、配信ユーザによる動画が配信されているものとする。動画生成部30Bは、所定のタイミングで、第1アバターオブジェクト111を含む動画画面120にゲーム開始ボタン123を表示する(ステップS1)。ゲーム開始ボタン123が操作されると、ユーザ装置12は、ゲーム開始要求をサーバ13に送信する。
配信管理部30Aは、配信ユーザのユーザ装置12からゲーム開始要求を受信したか否かに基づいて、ゲームを開始するか否かを判断する(ステップS2)。配信管理部30Aは、ゲームを開始しないと判断している間は(ステップS2:NO)、動画画面120にゲーム開始ボタン123を表示し続ける。なお、配信管理部30Aは、ゲームが実行可能な期間が終了した場合には、ゲーム開始ボタン123を非表示にする。
配信管理部30Aは、ゲームを開始すると判断すると(ステップS2:YES)、配信ユーザのユーザ装置12からモーションデータを取得する(ステップS3)。また、配信管理部30Aは、配信ユーザのユーザ装置12から操作情報を取得する(ステップS4)。同様に、配信管理部30Aは、視聴ユーザのユーザ装置12から操作情報を取得する(ステップS5)。さらに、ゲーム実行部30Dは、動画生成部30Bに動画生成要求を出力して、モーションデータに基づく第2アバターオブジェクト112を、操作情報に基づいて移動させるとともに、視聴ユーザの操作情報に基づく応援オブジェクト113を含むゲーム動画を、視聴ユーザのユーザ装置12及び配信ユーザのユーザ装置12に送信する(ステップS6)。
ゲーム実行部30Dは、ゲームのミッション(目的)が達成される前又はゲームのミッションが達成されて、ゲームが終了されたか否かを判断する(ステップS7)。具体的には、ゲーム実行部30Dは、第2アバターオブジェクト112が、障害物115に当たったか否か、又はミッションが達成されたか否かを判断する。ゲーム実行部30Dが、ゲームが終了していないと判断している間は(ステップS7:NO)、ステップS3〜ステップS5を繰り返す。
ゲーム実行部30Dはゲームが終了したと判断すると(ステップS7:YES)、ゲーム結果としてゲーム履歴情報32Fを保存する(ステップS8)。また、動画生成部30Bは、ゲーム終了表示135、ゲーム再開ボタン137、復帰ボタン138等を含むゲーム画面のデータをユーザ装置12に送信する。配信管理部30Aは、ユーザ装置12からの要求を待機して、元の動画の配信に戻るか否かを判断する(ステップS9)。配信管理部30Aは、元の動画に復帰する要求をユーザ装置12から受信すると、元の動画に戻ると判断して(ステップS9:YES)、動画生成部30Bに動画生成要求を出力する。動画生成部30Bは、配信ユーザのユーザ装置12から取得したモーションデータを用いて、第1アバターオブジェクト111を含む動画を生成し、ユーザ装置12に配信する(ステップS10)。そして、配信が終了するまでは、ステップS1に戻り、配信動画にゲーム開始ボタン123を表示する。
一方、配信管理部30Aが、ゲームを継続する要求をユーザ装置12から受信すると、ゲームを継続すると判断して(ステップS9:NO)、ステップS3に戻る。
次に図8を参照して、ゲーム結果に基づく報酬の分配について説明する。所定期間内にゲームを行うイベントが開催されている間又は開催が終了した場合、ゲーム実行部30Dは、累計獲得スコアを取得する(ステップS20)。具体的には、全ての配信ユーザに関連付けられたゲーム履歴情報32Fのスコアの合計を算出する。つまり、イベント内で獲得された全てのスコアを合計する。
次にゲーム実行部30Dは、累計獲得スコアが所定値以上であるか否かを判断する(ステップS21)。累計獲得スコアが所定値以上である場合(ステップS21:YES)、コインやポイント等の報酬を、配信ユーザ及びゲーム実行中に応援オブジェクト113の表示要求を行った視聴ユーザで分配する(ステップS22)。例えば、報酬を、配信ユーザ及び視聴ユーザの人数で等しくなるように分配してもよいし、配信ユーザが多くなるように分配してもよい。
次に、本実施形態の効果について説明する。
(1)ゲームの動画を配信する際に、通常の動画とは異なる第2アバターオブジェクト112が表示されるので、アバターオブジェクトの特色を活かしたゲームの動画を配信することができる。その結果、動画の視聴ユーザ数、視聴時間及び視聴回数の増加を図ることができる。また、通常の動画画面120からゲーム画面130に遷移しても、引き続きアバターオブジェクトを表示することができるので、配信ユーザと視聴ユーザとのコミュニケーションが継続されやすい。このため、動画の配信ユーザ及び視聴ユーザの交流を促進することができる。
(2)視聴ユーザによってゲームの動画に表示された応援オブジェクト113と第2アバターオブジェクト112とが接触することによって、配信ユーザにスコアが付与される。このようにゲームに視聴ユーザが参加し、視聴ユーザと配信ユーザとが協力してゲームをプレイできる。したがって、配信ユーザと視聴ユーザとの交流を活発にすることができる。
(3)第2アバターオブジェクト112の動作可能範囲は、第1アバターオブジェクト111の動作可能範囲に比べて小さくなるように設定されている。このため、動画の配信に関わる処理に加え、ゲームの進行に関わる処理が発生するゲームの動画の配信において、サーバの処理負荷を軽減することができる。
(4)ゲームの動画は、2次元の画像とされるので、サーバ13の処理負荷を軽減することができる。
(5)ゲームによって得られたスコアが所定値以上となった場合に、配信ユーザ及び表示要求を送信した視聴ユーザに報酬が付与される。これにより、配信ユーザにおいてはゲームの動画の配信に対するモチベーションを高めることができる。また視聴ユーザにおいては、オブジェクトの表示要求を行うモチベーションを高めることができる。
上記実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、動画配信中に第2アバターオブジェクト112が障害物115の間を通過するゲームの動画を配信する態様について説明したが、ゲームはこれ以外の種類のものであってもよい。例えば、ロールプレイングゲーム、シューティングゲーム、アクションゲーム、レーシングゲーム、格闘ゲーム、育成シミュレーションゲーム、恋愛シミュレーションゲーム、パズルゲーム、カードゲーム、スポーツゲーム、リズムゲーム等であってもよい。また、視聴ユーザは、ゲームに対して応援オブジェクト113の表示要求を行う以外のアクションを行なってもよい。
図9は、配信ユーザ及び視聴ユーザが協力してプレイするロールプレイングゲームの画面の一例である。ゲーム画面には、配信ユーザの入力操作に基づき動作するメインキャラクタである第2アバターオブジェクト112と、視聴ユーザの入力操作に基づき動作するサブキャラクタ201と、第2アバターオブジェクト112及びサブキャラクタ201と対戦する敵キャラクタ202が表示される。また、ゲーム画面は、上記実施形態のように2次元ではなく3次元であってもよい。つまり、第2アバターオブジェクト112及びサブキャラクタ201等は、ユーザの入力操作にしたがって、X方向及びZ方向だけでなく、画面の奥行方向(Y方向)にも移動することができる。また、サブキャラクタ201として参加できない視聴ユーザは、オブジェクト113Aの表示要求を行ってもよい。オブジェクト113Aは、敵キャラクタ202にダメージを付与するオブジェクト又は第2アバターオブジェクト112及びサブキャラクタ201のパラメータ等を上昇させるオブジェクトである。このようにしても、配信ユーザ及び視聴ユーザが協力してゲームをプレイすることができるので、交流を促進させることができる。
又は、ゲームは複数の配信ユーザが協力可能なものであってもよい。例えば、一方の配信ユーザに対応するアバターオブジェクトが、ゲームフィールドの通路を開いている間に、他方の配信ユーザに対応するアバターオブジェクトがその通路を通過する等のゲームであってもよい。この場合、サーバ13は、複数の配信ユーザのユーザ装置12からモーションデータ又は検出データとを受信し、これらを統合して動画データを生成する。
・上記実施形態では、タップ操作によってゲームが進行するものとした。これに代えて若しくは加えて、ダブルタップ操作、スワイプ操作、長押し操作、ドラッグ操作、ピンチイン操作、ピンチアウト操作等のユーザの入力操作によってゲームを進行させてもよい。又は、ゲームを進行させる入力操作は、タッチパネル操作以外の操作であってもよい。例えば、センサユニット24等で検出した配信ユーザの顔の動きで進行させてもよい。例えば、瞬きの速度や回数、眉の動き、口の開閉速度又は開閉回数等を入力操作として入力してもよい。
・上記実施形態では、ゲームにおいて第2アバターオブジェクト112と応援オブジェクト113とが当たったと判定された場合に、配信ユーザのゲーム履歴情報32Fのスコアに所定ポイント(ゲーム媒体)が付与されるものとした。ゲーム媒体は、ポイントに限られず、ゲームに使用される電子データであればよく、この電子データは、ユーザによってゲーム内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与等され得る。例えば、ゲーム媒体は、カード、アイテム、仮想通貨、チケット、キャラクタ、アバタ、レベル情報、ステータス情報、及びパラメータ情報(体力値や攻撃力など)、能力、アビリティ、呪文、ジョブなど等、任意の媒体を含む。ゲーム媒体の利用態様は本明細書で明示されるものに限られない。
・上記実施形態では、装着オブジェクトは、配信ユーザが選択することによってアバターオブジェクトに装着されるようにした。これに代えて、視聴ユーザが装着オブジェクトを提供した順番に、所定時間だけ、アバターオブジェクトに装着してもよい。
・上記実施形態では、保有リスト情報32Dに含まれる保有オブジェクトは、ユーザが配信する動画で表示可能とした。これに代えて、保有オブジェクト及びギフトオブジェクトの区別なく、ユーザに関連付けられたオブジェクトを、自身が配信する動画及び他のユーザが配信する動画で利用可能としてもよい。例えば保有リスト情報32Dに含まれる保有オブジェクトを、他の配信ユーザに提供できるようにしてもよい。
・上記実施形態では、衝突オブジェクトの衝突表示処理をサーバ13が行うようにした。これに代えて、これらの処理の少なくとも一方を、ユーザ装置12が行うようにしてもよい。これらの処理に必要なデータがサーバ13のストレージ32に格納されている場合には、ユーザ装置12からサーバ13へデータを要求したり、サーバ13に対してデータの書き込みを要求したりする。又は同じデータを、ユーザ装置12及びサーバ13が格納しており、それぞれのデータを所定のタイミングで同期させてもよい。
・上記実施形態では、ユーザ装置12から、モーションが反映されたアバターオブジェクトをサーバ13に送信するようにした。これに代えて、センサユニット24が検出したデータをサーバ13に送信して、サーバ13が、ストレージ32に格納したアバターデータ22Bに検出データを適用してもよい。
・上記実施形態では、ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされているものとした。これに代えて、動画を視聴するためのアプリケーションプログラムと、動画を配信するためのアプリケーションプログラムとを別のアプリケーションプログラムとしてもよい。動画の視聴のみを行うユーザは、視聴用のアプリケーションプログラムをユーザ装置12にインストールする。動画の配信のみを行うユーザは、配信用のアプリケーションプログラムをユーザ装置12にインストールする。動画の視聴及び配信の両方を行うユーザは、両方のアプリケーションプログラムをユーザ装置12にインストールする。
・サーバ13のストレージ32に格納されるアセットデータ32B、ユーザ管理情報32C、保有リスト情報32D、ギフトオブジェクト情報32E、ゲーム履歴情報32F等の各種情報は、ユーザ装置12のストレージ22に格納することも可能である。
・サーバ13の配信管理部30A、動画生成部30B、購入処理部30C、及びゲーム実行部30Dの少なくとも一部の機能を、ユーザ装置12のコンピュータプロセッサ20が担うようにしてもよい。
・モーションデータ生成部20Bは、センサユニット24から、ユーザの表情の変化、頭部の動き、上半身の動き、センサユニット24に対するユーザの相対位置を検出した検出データを取得するとしたが、このうち少なくとも一つであってもよい。また、モーションデータ生成部20Bは、ユーザの表情の変化、頭部の動き、上半身の動き及びユーザの相対位置の少なくとも一つに加えて、若しくは代えて、頭部の動作以外の動きを検出した検出データ等のその他の検出データを取得し、アバターデータ22Bに適用してもよい。
・上記実施形態では、ゲーム実行部30Dをサーバ13に設けた。これに代えて、ゲーム実行部30Dを、ユーザ装置12に設けるようにしてもよい。この態様においては、ユーザ装置12は、ユーザ装置12で実行されたゲーム画面の動画データを、サーバ13に送信する。サーバ13は、動画データとゲーム画面の動画に表示されるメッセージとを視聴ユーザのユーザ装置12に送信する。又はゲーム実行部30Dは、サーバ13とは別に設けられたゲームサーバに設けられてもよい。動画を配信するサーバ13及びゲームサーバは、ネットワーク14を介して接続されており、サーバ13は、ゲームサーバからゲーム画面の動画データを取得し、メッセージの情報を含めて、視聴ユーザのユーザ装置12に送信する。このようにしても、配信ユーザと視聴ユーザとの交流が活発化される。
・動作検出部、第1表示制御部、操作情報取得部、第2表示制御部、配信管理部、要求送信部、オブジェクト表示部、ゲーム媒体付与部、表示制御部、及び報酬付与部の各々は、サーバ13に設けてもよいし、ユーザ装置12に設けてもよい。例えば、第1表示制御部、及び第2制御表示部は、サーバ13に設けてもよい。この場合、サーバ13は、ユーザ装置12からセンサユニット24の検出データを取得し、ストレージ32に格納されたアバターデータ22Bを用いて、アバターオブジェクトを含む動画を生成し、ユーザ装置12のディスプレイ28に表示させてもよい。また、ユーザ装置12が、オブジェクト表示部を備えていてもよい。この態様においては、サーバ13からオブジェクトの識別情報を含む表示要求を受信し、この表示要求に基づいて、オブジェクトを表示するようにしてもよい。このような場合として、ストレージ22等にインストールされたゲームのネイティブアプリケーションを実行する場合等がある。また、ユーザ装置12が、ネイティブアプリケーションを実行する場合には、ユーザ装置12が、ゲーム媒体付与部及び報酬付与部を備えてもよい。
・上記実施形態では、第1アバターオブジェクト111を含む動画画面から、第2アバターオブジェクト112を含むゲーム画面に遷移した。これに代えて、第1アバターオブジェクト111を含む動画画面の表示を省略し、動画の配信開始時から、第2アバターオブジェクト112を含むゲーム画面を表示するようにしてもよい。また、この態様において、動画配信完了時まで第2アバターオブジェクト112を含むゲーム画面を表示するようにしてもよいし、動画配信完了前に第2アバターオブジェクト112を含むゲーム画面から第1アバターオブジェクト111を含む動画画面に遷移してもよい。
・動画に表示される仮想空間は、拡張現実の空間であってもよい。例えば、仮想空間の背景は、ユーザ装置12のカメラが撮影した現実世界の動画であってもよい。
・上記実施形態では、ユーザ装置12は、スマートフォン、携帯電話機、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ等の情報処理装置とした。これに代えて、ユーザ装置12は、情報処理装置の少なくとも一つと、入力装置及び出力装置から構成されるシステムであってもよい。例えば、ユーザ装置12は、コンピュータプロセッサ20等を備えるコンソールゲーム機と、これと別体に設けられたセンサユニット24、操作部27であるコントローラ、スピーカ25、ディスプレイ28等が相互にデータを送受信可能なシステムであってもよい。また、ユーザ装置12は、パーソナルコンピュータ等の情報処理装置と、これと別体に設けられたセンサユニット24、操作部27であるコントローラ、スピーカ25、ディスプレイ28であるウェアラブルディスプレイ等が相互にデータを送受信可能なシステムであってもよい。又は、配信用のユーザシステムは、動画配信用のスタジオに設けられたシステムであって、情報処理装置、センサユニット24、操作部27、スピーカ25、ディスプレイ28を別体として配設したものであってもよい。
・上記実施形態では、センサユニット24をユーザ装置12側に設けたが、センサユニット24の少なくとも一部を、配信ユーザの身体や、配信ユーザの近傍に設けてもよい。例えば、センサユニット24は、赤外線等の検出光を所定間隔で射出する射出部と、配信ユーザの身体に装着され、検出光を受光して検出結果をコンピュータプロセッサ20に送信する受光部とから構成してもよい。又は、センサユニット24は、配信ユーザの身体に装着されたマーカーを検出するカメラ等から構成してもよい。
11…動画配信システム、12…ユーザ装置、13…サーバ、14…ネットワーク、20…コンピュータプロセッサ、21…メモリ、22…ストレージ、23…通信インターフェース、24…センサユニット、25…スピーカ、26…マイク、27…操作部、28…ディスプレイ、30…コンピュータプロセッサ、31…メモリ、32…ストレージ。

Claims (10)

  1. 検出部からの出力情報に基づき、動画を配信する配信ユーザの動作を検出する動作検出部と、
    前記配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示する第1表示制御部と、
    操作部を用いた入力操作を受け付ける操作情報取得部と、
    前記入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を表示部に表示する第2表示制御部と、
    前記第1アバターオブジェクトを含む動画データ及び前記第2アバターオブジェクトを含むゲームの動画データを視聴装置に送信する配信管理部とを備える
    動画配信システム。
  2. 視聴ユーザの入力操作に基づいて、オブジェクトの表示要求を動画を配信するサーバに送信する要求送信部と、
    前記表示要求のなされたオブジェクトを、前記第2アバターオブジェクトを含む前記ゲームの画面内に表示するオブジェクト表示部と、
    前記表示要求に応じて、前記配信ユーザにゲーム媒体を付与するゲーム媒体付与部と、を備える
    請求項1に記載の動画配信システム。
  3. 前記ゲームによって得られた得点が所定値以上となった場合に、前記配信ユーザ及び前記表示要求を送信した視聴ユーザに報酬を付与する報酬付与部をさらに備える
    請求項2に記載の動画配信システム。
  4. 前記第2アバターオブジェクトは、前記第1アバターオブジェクトに比べて小さい動作可能範囲が設定されている
    請求項1〜3のいずれか1項に記載の動画配信システム。
  5. 前記第1表示制御部は、前記配信ユーザがゲームを開始する前に、前記検出部により検出された前記配信ユーザの動作を反映した第1アバターオブジェクトを含む3次元動画を表示部に表示し、
    前記第2表示制御部は、前記配信ユーザがゲームを開始した場合に、前記検出部により検出された前記配信ユーザの動作を反映した第2アバターオブジェクトを含む2次元動画を前記表示部に表示する
    請求項1〜4のいずれか1項に記載の動画配信システム。
  6. 配信装置が、
    検出部からの出力情報に基づき、動画を配信する配信ユーザの動作を検出し、
    前記配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示し、
    操作部を用いた入力操作を受け付け、
    前記入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を前記表示部に表示し、
    サーバが、
    前記第1アバターオブジェクトを含む動画データ及び前記第2アバターオブジェクトを含むゲームの動画データを視聴装置に送信する
    動画配信方法。
  7. 動画を配信する配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示する第1表示制御部と、
    操作部を用いた入力操作を受け付ける操作情報取得部と、
    前記入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を前記表示部に表示する第2表示制御部と、を備え、
    前記ゲームの動画を他の情報処理装置に配信するための動画データを動画を配信するサーバに送信する動画送信部と、を備える
    情報処理装置。
  8. 1乃至複数のコンピュータを、
    動画を配信する配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示部に表示する第1表示制御部と、
    操作部を用いた入力操作を受け付ける操作情報取得部と、
    前記入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を前記表示部に表示する第2表示制御部と、
    前記ゲームの動画データをサーバに送信する動画送信部として機能させる
    動画配信プログラム。
  9. 動画を配信する配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示する第1表示制御部と、
    前記配信ユーザの入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を表示する第2表示制御部と、を備え、
    視聴ユーザの入力操作を受け付けて、オブジェクトの表示要求を動画を配信するサーバに送信する要求送信部と、を備える
    情報処理装置。
  10. 1乃至複数のコンピュータを、
    動画を配信する配信ユーザの動作が反映された第1アバターオブジェクトを含む動画の画面を表示する第1表示制御部と、
    前記配信ユーザの入力操作及び前記配信ユーザの動作が反映された第2アバターオブジェクトを含むゲームの画面を表示する第2表示制御部と、
    視聴ユーザの入力操作を受け付けて、オブジェクトの表示要求をサーバに送信する要求送信部として機能させる
    動画視聴プログラム。
JP2019120755A 2019-06-28 2019-06-28 動画配信システム、プログラム、及び情報処理方法 Active JP7202981B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019120755A JP7202981B2 (ja) 2019-06-28 2019-06-28 動画配信システム、プログラム、及び情報処理方法
US16/883,377 US12035010B2 (en) 2019-06-28 2020-05-26 Video distribution system, video distribution method, information processing device, video distribution program, and video viewing program for displaying avatar objects
JP2022205045A JP7473901B2 (ja) 2019-06-28 2022-12-22 動画配信システム、プログラム、及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019120755A JP7202981B2 (ja) 2019-06-28 2019-06-28 動画配信システム、プログラム、及び情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022205045A Division JP7473901B2 (ja) 2019-06-28 2022-12-22 動画配信システム、プログラム、及び情報処理方法

Publications (3)

Publication Number Publication Date
JP2021007198A true JP2021007198A (ja) 2021-01-21
JP2021007198A5 JP2021007198A5 (ja) 2021-07-29
JP7202981B2 JP7202981B2 (ja) 2023-01-12

Family

ID=74043946

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019120755A Active JP7202981B2 (ja) 2019-06-28 2019-06-28 動画配信システム、プログラム、及び情報処理方法
JP2022205045A Active JP7473901B2 (ja) 2019-06-28 2022-12-22 動画配信システム、プログラム、及び情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022205045A Active JP7473901B2 (ja) 2019-06-28 2022-12-22 動画配信システム、プログラム、及び情報処理方法

Country Status (2)

Country Link
US (1) US12035010B2 (ja)
JP (2) JP7202981B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023015856A (ja) * 2021-07-20 2023-02-01 株式会社カプコン コンピュータプログラム、およびコンピュータ装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7202981B2 (ja) 2019-06-28 2023-01-12 グリー株式会社 動画配信システム、プログラム、及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180104573A1 (en) * 2016-10-17 2018-04-19 Aquimo, Llc Method and system for using sensors of a control device for control of a game
JP2018525050A (ja) * 2015-09-29 2018-09-06 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法、端末、およびコンピュータ記憶媒体
JP6526898B1 (ja) * 2018-11-20 2019-06-05 グリー株式会社 動画配信システム、動画配信方法、及び動画配信プログラム

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL121178A (en) * 1997-06-27 2003-11-23 Nds Ltd Interactive game system
JP2000076487A (ja) * 1998-09-03 2000-03-14 Sony Corp 情報処理装置および方法、並びに提供媒体
US6999083B2 (en) 2001-08-22 2006-02-14 Microsoft Corporation System and method to provide a spectator experience for networked gaming
JP2003255964A (ja) 2002-02-28 2003-09-10 Daiichikosho Co Ltd カラオケシステム
WO2009101153A2 (en) * 2008-02-13 2009-08-20 Ubisoft Entertainment S.A. Live-action image capture
US20100070885A1 (en) * 2008-09-17 2010-03-18 International Business Machines Corporation Linking Avatar Profiles Within a Virtual Environment
US8944911B2 (en) * 2010-07-27 2015-02-03 Disney Enterprises, Inc. Online parallel play
JP5498459B2 (ja) 2010-09-30 2014-05-21 株式会社エクシング 動画情報配信システム
GB201102128D0 (en) 2011-02-08 2011-03-23 Mustafa Bilal I Method and system for providing video game content
JP5713048B2 (ja) 2013-05-01 2015-05-07 ブラザー工業株式会社 カラオケシステム
JP6137935B2 (ja) 2013-05-09 2017-05-31 株式会社モバダイ 身体動作評価装置、カラオケシステム、及びプログラム
US20150224399A1 (en) * 2014-02-07 2015-08-13 Electronic Arts, Inc. Systems and methods for managing gameplay history
JP2014171869A (ja) 2014-02-19 2014-09-22 Dna:Kk サーバ装置、方法、および、プログラム
JP2015184689A (ja) 2014-03-20 2015-10-22 株式会社Mugenup 動画生成装置及びプログラム
JP6209118B2 (ja) 2014-03-28 2017-10-04 株式会社エクシング カラオケ装置、カラオケシステム、及びプログラム
US20160059120A1 (en) * 2014-08-28 2016-03-03 Aquimo, Llc Method of using motion states of a control device for control of a system
GB2560416A (en) * 2014-09-06 2018-09-12 Nevada Devaux Christian Games
JP2016143332A (ja) 2015-02-04 2016-08-08 フォッグ株式会社 コンテンツ提供装置、コンテンツ提供プログラム、コンテンツ提供方法
JP6605224B2 (ja) 2015-04-22 2019-11-13 株式会社バンダイナムコエンターテインメント サーバ及びプログラム
JP5837249B2 (ja) 2015-05-07 2015-12-24 グリー株式会社 コミュニティ提供プログラム、コンピュータの制御方法、および、コンピュータ
US10376795B2 (en) 2015-06-30 2019-08-13 Amazon Technologies, Inc. Game effects from spectating community inputs
US10484439B2 (en) 2015-06-30 2019-11-19 Amazon Technologies, Inc. Spectating data service for a spectating system
US10380673B2 (en) * 2015-08-07 2019-08-13 Ebay Inc. Virtual facility platform
US10046234B2 (en) * 2015-10-20 2018-08-14 OBE Gaming Inc. Interactive movement tracking system applicable to articles of clothing
JP2019133207A (ja) * 2016-06-06 2019-08-08 シャープ株式会社 映像生成装置及び映像生成方法、及び映像生成プログラム
US9789403B1 (en) * 2016-06-14 2017-10-17 Odile Aimee Furment System for interactive image based game
EP3654290A1 (en) * 2016-09-23 2020-05-20 Apple Inc. Avatar creation and editing
JP6530363B2 (ja) * 2016-12-09 2019-06-12 株式会社バンダイナムコエンターテインメント コンピュータシステム、ゲームシステム及びゲーム装置
US10699461B2 (en) * 2016-12-20 2020-06-30 Sony Interactive Entertainment LLC Telepresence of multiple users in interactive virtual space
JP6982971B2 (ja) * 2017-03-31 2021-12-17 株式会社バンダイナムコエンターテインメント コンピュータシステム及びゲームシステム
JP6684746B2 (ja) * 2017-05-12 2020-04-22 株式会社コロプラ 情報処理方法、コンピュータ及びプログラム
JP6999152B2 (ja) 2017-07-14 2022-01-18 泰南雄 中野 コンテンツ配信装置およびコンテンツ配信システム
JP6375039B1 (ja) 2017-07-21 2018-08-15 テイク エイト インコーポレイテッド プログラム、撮影方法及び端末
JP7092482B2 (ja) 2017-10-12 2022-06-28 株式会社バンダイナムコエンターテインメント コンテンツ配信システム及びコンピュータシステム
KR102661019B1 (ko) * 2018-02-23 2024-04-26 삼성전자주식회사 얼굴에 대응하는 3차원 아바타를 이용하여 얼굴의 움직임이 반영된 3차원 아바타를 포함하는 이미지를 생성하는 전자 장치 및 그 동작 방법
JP6378850B1 (ja) 2018-03-22 2018-08-22 株式会社ドワンゴ サーバおよびプログラム
JP6887132B2 (ja) * 2018-04-12 2021-06-16 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム及び映像処理方法
US10924566B2 (en) * 2018-05-18 2021-02-16 High Fidelity, Inc. Use of corroboration to generate reputation scores within virtual reality environments
US20180345129A1 (en) * 2018-07-27 2018-12-06 Yogesh Rathod Display virtual objects within predefined geofence or receiving of unique code from closest beacon
JP6550549B1 (ja) 2019-04-25 2019-07-24 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
US11044535B2 (en) 2018-08-28 2021-06-22 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
JP6526934B1 (ja) 2019-03-18 2019-06-05 グリー株式会社 動画配信システム、動画配信方法、及び動画配信プログラム
US11107261B2 (en) * 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
WO2020213098A1 (ja) * 2019-04-17 2020-10-22 マクセル株式会社 映像表示装置及びその表示制御方法
JP6776400B1 (ja) 2019-04-26 2020-10-28 株式会社コロプラ プログラム、方法、および情報端末装置
JP7202981B2 (ja) 2019-06-28 2023-01-12 グリー株式会社 動画配信システム、プログラム、及び情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018525050A (ja) * 2015-09-29 2018-09-06 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法、端末、およびコンピュータ記憶媒体
US20180104573A1 (en) * 2016-10-17 2018-04-19 Aquimo, Llc Method and system for using sensors of a control device for control of a game
JP6526898B1 (ja) * 2018-11-20 2019-06-05 グリー株式会社 動画配信システム、動画配信方法、及び動画配信プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023015856A (ja) * 2021-07-20 2023-02-01 株式会社カプコン コンピュータプログラム、およびコンピュータ装置
JP7381907B2 (ja) 2021-07-20 2023-11-16 株式会社カプコン コンピュータプログラム、およびコンピュータ装置

Also Published As

Publication number Publication date
JP2023041670A (ja) 2023-03-24
JP7202981B2 (ja) 2023-01-12
US20200413145A1 (en) 2020-12-31
US12035010B2 (en) 2024-07-09
JP7473901B2 (ja) 2024-04-24

Similar Documents

Publication Publication Date Title
JP6724219B1 (ja) 動画アプリケーションプログラム、動画表示方法、動画配信システム及び情報処理装置
JP2021051578A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7473901B2 (ja) 動画配信システム、プログラム、及び情報処理方法
JP7046044B6 (ja) コンピュータプログラム、サーバ装置及び方法
JP6701416B1 (ja) 動画配信システム、サーバ、サーバの動画配信方法、動画配信プログラム及びユーザ装置の動画配信方法
KR20230159481A (ko) 프로그램, 방법, 및 정보 처리 장치
JP7098676B2 (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
US20240157256A1 (en) Program, information processing method, information processing device, and server
JP7473909B2 (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画管理プログラム、動画管理方法、サーバ及び動画配信システム
JP7317327B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7497832B2 (ja) プログラム、情報処理方法及び情報処理システム
JP7086253B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6891311B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2021190914A (ja) 情報処理プログラム、情報処理方法、情報処理装置
JP2023090818A (ja) 動画データ処理プログラム、動画データ処理方法、情報処理システム及び情報処理方法
JP7317326B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7001737B2 (ja) 動画データ処理方法、動画データ処理プログラム、動画データ処理方法、サーバ
JP7571953B2 (ja) プログラム、情報処理方法及び情報処理システム
JP2021027455A (ja) 動画配信システム、動画配信方法、動画視聴プログラム、動画視聴方法、及び動画配信プログラム
JP7263500B2 (ja) 動画データ処理方法、動画データ処理プログラム及びサーバ
JP7141486B1 (ja) プログラム、情報処理装置、方法、及びシステム
JP2022163796A (ja) プログラム、情報処理装置、方法、及びシステム
KR20210006689A (ko) 게임 이미지 변경 방법 및 장치

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7202981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150