JP2021149407A - 情報処理システム、情報処理方法およびコンピュータプログラム - Google Patents

情報処理システム、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2021149407A
JP2021149407A JP2020047623A JP2020047623A JP2021149407A JP 2021149407 A JP2021149407 A JP 2021149407A JP 2020047623 A JP2020047623 A JP 2020047623A JP 2020047623 A JP2020047623 A JP 2020047623A JP 2021149407 A JP2021149407 A JP 2021149407A
Authority
JP
Japan
Prior art keywords
avatar
moving image
information processing
distribution
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020047623A
Other languages
English (en)
Other versions
JP7490188B2 (ja
Inventor
彩 倉淵
Aya Kurabuchi
彩 倉淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2020047623A priority Critical patent/JP7490188B2/ja
Publication of JP2021149407A publication Critical patent/JP2021149407A/ja
Application granted granted Critical
Publication of JP7490188B2 publication Critical patent/JP7490188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】視聴ユーザの共演動画への出演意欲を向上させ、出演者間および/または出演者と視聴者との間のコミュニケーションを活性化させる情報処理システム、情報処理方法およびコンピュータプログラムを提供する。【解決手段】配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備える。一又は複数のコンピュータプロセッサ(情報処理装置400)は、配信部410と、受付部420と、アバタ表示部430と、判定部440と、判定部により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる表現部450とを備える。【選択図】図4

Description

本開示は、情報処理システム、情報処理方法およびコンピュータプログラムに関する。
従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムが知られている(例えば、特許文献1参照)。
また、特許文献2に示されるように、配信ユーザが配信する動画に、視聴ユーザのキャラクタオブジェクトを参加させて共演動画を生成する技術も公開されている。
特開2015−184689号公報 特許第6543403号公報
ところが、自ら動画を配信することがあまりない視聴ユーザが、自らのキャラクタオブジェクトを視聴中の動画に参加させる(すなわち、自らが出演者となる)のには少なからず勇気がいるものである。
そのため、本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することにある。
本開示における情報処理システムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備え、一又は複数のコンピュータプロセッサは、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する配信部と、視聴ユーザ端末から送信される動画への参加要求を受け付ける受付部と、受付部が受け付けた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させるアバタ表示部と、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示部により表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定部と、判定部により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる表現部とを備えることを特徴とする。
一又は複数のコンピュータプロセッサは、さらに、配信ユーザの配信ユーザ端末から送信される第1のアバタに第1の装着オブジェクトを装着させる指示を受け付ける装着受付部と、装着受付部が指示を受け付けた場合に、第1のアバタのプロフィール画像の変更を促す画面を表示する変更誘導部とを備えることができる。
第1の装着オブジェクトは、第1の画像部分および第2の画像部分で構成される特定の画像のうち第1の画像に対応する部分を有する装着オブジェクトであり、第2の装着オブジェクトは、特定の画像のうち第2の画像に対応する部分を有する装着オブジェクトとすることができる。
表現部は、特定の効果として、動画内に特定の画像に対応するオブジェクトを出現させることができる。
表現部は、特定の効果として、動画内に演出効果を追加することができる。
第1の装着オブジェクトおよび第2の装着オブジェクトには、互いの位置関係に関する情報が設定され、判定部は、さらに、位置関係が所定の条件を満たしているかを判定し、表現部は、さらに、判定部により位置関係が所定の条件を満たしていると判定された場合に、動画内に特定の効果を表示させることができる。
第1の装着オブジェクトおよび第2の装着オブジェクトには、互いの位置関係に関する情報が設定され、判定部は、さらに、位置関係が所定の条件を満たしているかを判定し、表現部は、さらに、判定部により位置関係が所定の条件を満たしていないと判定された場合に、位置関係に関する情報が所定の条件を満たすよう、第1のアバタおよび第2のアバタの表示位置を変更することができる。
受付部は、さらに、配信ユーザの配信ユーザ端末から送信される、第1のアバタおよび/または第2のアバタの動画内における表示位置に関する指示を受け付け、アバタ表示部は、受付部が受け付けた指示に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させることができる。
受付部は、さらに1以上の他の視聴ユーザ端末から送信される動画への参加要求を受け付け、アバタ表示部は、さらに、受付部が受け付けた参加要求に応じて、動画に1以上の他の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである1以上の第3のアバタを表示させ、判定部は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示部により表示された第2のアバタおよび/または第3のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定し、表現部は、判定部により第2のアバタおよび/または第3のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させることができる。
本開示における情報処理方法は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムにおける情報処理方法であって、情報処理システムが備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する配信ステップと、視聴ユーザ端末から送信される動画への参加要求を受け付ける受付ステップと、受付ステップにおいて受け付けた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させるアバタ表示ステップと、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップにおいて表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定ステップと、判定ステップにおいて第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させるステップとを実行させることを特徴とする。
本開示におけるコンピュータプログラムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末用のコンピュータプログラムであって、情報処理システムは、配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する送信機能と、視聴ユーザ端末から送信される動画への参加要求を受信する受信機能と、受信機能により受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させるアバタ表示機能と、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示機能により表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定機能と、判定機能により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる表現機能とを実現させることを特徴とする。
本開示における情報処理方法は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末における情報処理方法であって、情報処理システムは、配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する送信ステップと、視聴ユーザ端末から送信される動画への参加要求を受信する受信ステップと、受信ステップにおいて受信された参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させるアバタ表示ステップと、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップにおいて表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定ステップと、判定ステップにおいて第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる表現ステップとを実行させることを特徴とする。
本開示におけるコンピュータプログラムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザ端末用のコンピュータプログラムであって、情報処理システムは、配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する受信機能と、受信機能により受信された情報に基づいて、動画を表示する表示機能と、サーバ装置に動画への参加要求を送信する送信機能と、を実現させ、表示機能は、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させることを特徴とする。
本開示における情報処理方法は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザ端末における情報処理方法であって、情報処理システムは、配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する受信ステップと、受信ステップにおいて受信した情報に基づいて、動画を表示する表示ステップと、サーバ装置に動画への参加要求を送信する送信ステップと、を実行させ、表示ステップは、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させることを特徴とする。
本開示によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示の一実施形態によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することができる。
本開示における情報処理システムの一例を示すシステム構成図である。 本開示における情報処理システムの一例を示すシステム構成図である。 本開示における情報処理装置のハードウェア構成の一例を示す構成図である。 本開示における情報処理装置の機能構成の一例を示す構成図である。 視聴/配信ユーザ端末に表示されるトップ画面のイメージを示した概念図である。 視聴ユーザ端末に表示される配信画面のイメージを示した概念図である。 視聴/配信ユーザ端末に表示される画面内のアバタ配置のイメージを示した概念図である。 視聴/配信ユーザ端末に表示される画面内のアバタ配置のイメージを示した概念図である。 アバタ作成/変更画面のイメージを示した概念図である。 アバタ作成/変更画面のイメージを示した概念図である。 アバタ作成/変更画面のイメージを示した概念図である。 アバタ作成/変更画面のイメージを示した概念図である。 動画配信前に表示される画面のイメージを示した概念図である。 本開示における装着オブジェクトのイメージを示した概念図である。 本開示における装着オブジェクトのイメージを示した概念図である。 本開示における装着オブジェクトのイメージを示した概念図である。 本開示における装着オブジェクトのイメージを示した概念図である。 装着オブジェクト対応テーブルの一例を示したものである。 本開示における情報処理装置の機能構成の他の例を示す構成図である。 クローゼット画面において装着アイテムを変更した際に表示される確認画面のイメージを示した概念図である 本開示における情報処理方法のフローの一例を示すフロー図である。 本開示におけるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。 (a)本開示における配信ユーザ端末の機能構成の一例を示す構成図である。(b)本開示における配信ユーザ端末用プログラムの機能を実現するための回路構成の一例を示す回路構成図である。 本開示における配信ユーザ端末における情報処理方法のフローの一例を示すフロー図である。 (a)本開示における視聴ユーザ端末の機能構成の一例を示す構成図である。(b)本開示における視聴ユーザ端末用プログラムの機能を実現するための回路構成の一例を示す回路構成図である。 本開示における視聴ユーザ端末における情報処理方法のフローの一例を示すフロー図である。
初めに、本開示の実施形態に係る情報処理システムの概要について図面を参照しながら説明する。
本開示における情報処理システムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備える。
<システム構成>
図1に一例として示されるように、本開示に係る情報処理システム1000は、1以上の視聴ユーザ端末1100、および、これら視聴ユーザ端末1100とネットワーク1200を介して接続される、動画の配信スタジオ等に配置された情報処理装置(サポートコンピュータ)1300を含むことができる。
また、当該情報処理装置1300は、インターネットを介してサーバ装置1400(図示せず)と接続され、情報処理装置1300で行われるべき処理の一部または全部を当該サーバ装置1400で行うものとしてもよい。なお、かかるサーバ装置1400は、図2に示す情報処理装置400としてもよい。
本明細書において、かかる情報処理システム1000による配信を、スタジオ配信と呼ぶものとする。
スタジオ配信において、配信ユーザ(アクター)の全身の動きは、配信ユーザに取り付けられたマーカをスタジオに備え付けられたカメラで撮影し、既知のモーションキャプチャ技術を用いてリアルタイムでキャラクタに反映させるものとする。
また、本発明の情報処理システム1000は、図2に一例として示される別の情報処理システム2000と連携することができる。図2に示される情報処理システム2000は、配信ユーザ端末100、1以上の視聴ユーザ端末200、および、これら配信ユーザ端末100および視聴ユーザ端末200とネットワーク300を介して接続される情報処理装置(サーバ装置)400を含むことができる。
上記の例において、配信ユーザ端末100はスマートフォン等の情報処理端末とすることができる。本明細書において、かかる情報処理システム2000による配信を、モバイル配信と呼ぶものとする。
モバイル配信において、配信ユーザの顔の動きは、配信ユーザの顔を配信ユーザ端末100が備えるカメラで撮影し、既知のフェイストラッキング技術を用いてリアルタイムでキャラクタの顔に反映させるものとする。
上記情報処理システム1000および情報処理システム2000により生成される動画は、一例として、一の動画配信プラットフォームから、視聴ユーザへ配信することができる。
なお、モバイル配信における配信ユーザと視聴ユーザの区別は特になく、視聴ユーザはいつでもモバイル配信が可能であり、配信ユーザは他の配信ユーザの動画を視聴する場合には視聴ユーザとなりうる。
また、いずれの配信においても、モーションをキャラクタに反映させてアニメーションを生成する処理および後述するギフトを表示する処理は、配信ユーザ端末、視聴ユーザ端末、情報処理装置および他の装置により分担して行われてもよい。
具体的には、キャラクタオブジェクトのアニメーションを生成する端末または装置には、配信ユーザ端末から配信ユーザのフェイスモーションデータおよび音声データが送信される。また、フェイスモーションに加えてボディモーションが送信されてもよい。
以下の説明では、アニメーションを生成する処理は配信ユーザ端末および視聴ユーザ端末のそれぞれで行うものとして説明を行うが、これに限られるものではない。
また、以下の説明では、本開示に
おける情報処理システムが図2に示されるシステム構成(モバイル配信)を備えるものとして説明を行うが、図1に示すシステム構成を備えてもよい。
また、本開示における情報処理システムが配信する動画は、配信ユーザがプレイするゲーム画面および/または現実空間の撮影画像であってもよい。このとき、ゲーム画面とともに、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトまたは配信ユーザの実画像を表示してもよい。また、現実空間の撮影画像に配信ユーザが含まれる場合には、当該配信ユーザの実画像に当該配信ユーザの動きに基づいて生成されるキャラクタオブジェクトを重ねて表示させてもよい。
<ハードウェア構成>
ここで、図3を用いて、情報処理システム2000に含まれる情報処理装置400のハードウェア構成について説明する。情報処理装置400は、プロセッサ401と、メモリ402と、ストレージ403と、入出力インターフェース(入出力I/F)404と、通信インターフェース(通信I/F)405とを含む。各構成要素は、バスBを介して相互に接続される。
情報処理装置400は、プロセッサ401と、メモリ402と、ストレージ403と、入出力I/F404と、通信I/F405との協働により、本実施形態に記載される機能、方法を実現することができる。
プロセッサ401は、ストレージ403に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ401は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
メモリ402は、ストレージ403からロードしたプログラムを一時的に記憶し、プロセッサ401に対して作業領域を提供する。メモリ402には、プロセッサ401がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ402は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。
ストレージ403は、プログラムを記憶する。ストレージ403は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。
通信I/F405は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F405は、ネットワーク300を介して、他の情報処理装置との通信を実行する。通信I/F405は、各種データをプロセッサ401からの指示に従って、他の情報処理装置に送信する。また、通信I/F405は、他の情報処理装置から送信された各種データを受信し、プロセッサ401に伝達する。
入出力I/F404は、情報処理装置400に対する各種操作を入力する入力装置、及び、情報処理装置400で処理された処理結果を出力する出力装置を含む。入出力I/F404は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。
入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ401に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。
出力装置は、プロセッサ401で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。なお、情報処理装置1300、情報処理装置1400、視聴ユーザ端末1100、配信ユーザ端末100、視聴ユーザ端末200も特筆すべき場合を除き、図3と同様のハードウェア構成で構成されることができる。
<機能構成>
そして、上記一又は複数のコンピュータプロセッサ(本例では情報処理装置400)は、図4に示すように、配信部410と、受付部420と、アバタ表示部430と、判定部440と、表現部450とを備える。
配信部410は、配信ユーザのキャラクタオブジェクトである第1のアバタA1のアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する。配信ユーザのキャラクタオブジェクトのアニメーションを含む動画に関する情報には、例えばキャラクタオブジェクトの動作を示すモーション情報や、配信ユーザの音声情報や、他の視聴ユーザから送られたギフトを示すギフトオブジェクト情報などが含まれる。そして、ギフトオブジェクト情報は、少なくとも、ギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。
一例として、配信部410は、上述した動画配信プラットフォームを介して動画をライブ配信することができる。
図5は、上記動画配信プラットフォームにアクセスした視聴ユーザの視聴ユーザ端末200に表示されるトップ画面201を示したものである。
図5に示されるように、視聴ユーザは、トップ画面201において一覧表示される一以上の配信チャンネル202のサムネイル表示の中から一の配信チャンネルを選ぶことにより、当該一の配信チャンネルで再生される動画を視聴することができる。
あるいは、視聴ユーザは、特定の一の配信チャンネルの固定リンクへアクセスすることにより、当該特定の一の配信チャンネルで再生される動画を視聴することができる。かかる固定リンクは、フォロー中の配信ユーザからのお知らせ、または、他のユーザから送られたシェアの通知などにより得ることができる。
なお、図5に示すように、トップ画面201にはキャンペーンやイベントなどのお知らせの表示欄203が表示されてもよい。このお知らせの表示欄203は、スライド操作により他のお知らせへの表示の切り替えが可能である。
また、上記動画配信プラットフォームでは、配信中の配信チャンネル一覧と、配信予定の配信チャンネル一覧とをタブ(配信中/動画一覧)により分けて表示することができる。一例として、図5は配信中の配信チャンネル一覧を示したものである。
なお、視聴ユーザは、トップ画面201で一の配信チャンネルを選択することで動画の視聴が可能であるが、配信ボタン204を選択することで、自身で動画を配信する配信ユーザとなることもできる。
図6は、視聴ユーザの端末に表示される配信動画の画面205を示した例である。視聴ユーザは、コメント投稿欄206にテキストの入力を行い、送信ボタン207を押すことでコメントを投稿することができる。また、ギフトボタン208を押すことで視聴ユーザにはギフト一覧が表示され、選択により指定したギフトを投じることができる。また、視聴ユーザは、いいねボタン209を押すことで好意を示す評価を投稿することができる。なお、ボタンを押すとは、画面に表示されたボタンをタップ等により選択することを含むものとする。
また、視聴ユーザが未だフォローしていない配信ユーザが配信する動画の画面には、視聴ユーザが配信ユーザをフォローするためのフォローボタン216が表示される。このフォローボタンは、視聴ユーザが既にフォローしている配信ユーザが配信する動画の画面では、フォロー解除ボタンとして機能する。
なお、この「フォロー」は視聴ユーザから視聴ユーザへ、配信ユーザから視聴ユーザへ、配信ユーザから配信ユーザへ行われるものであってもよい。ただし、フォローは一方向のみの関連付けとして管理され、逆方向の関連付けはフォロワーとして別に管理されるものとする。
また、動画のシェアに関し、視聴ユーザはシェアボタン211を押すことでシェア可能なSNS(ソーシャル・ネットワーキング・サービス)一覧を確認し、選択により指定したSNSの指定した場所に固定リンクを送信することができる。
また、静止画に関し、視聴ユーザはスクリーンショットボタン212を押すことで画面の静止画を保存することができる。また、スクリーンショットボタン212を押すことで静止画をシェア可能なSNS一覧が表示され、視聴ユーザは選択により指定したSNSの指定した場所に静止画を送信することができる。
また、コラボボタン213を押すことで配信ユーザに対してコラボ配信をリクエストすることができる。コラボ配信とは、配信ユーザの配信動画に視聴ユーザのキャラクタオブジェクトを登場させることをいう。
また、視聴終了要求は、視聴終了ボタン214を押すことにより送信されるものとすることができる。
受付部420は、視聴ユーザ端末から送信される動画への参加要求を受け付ける。
一例として、視聴ユーザは、上記コラボボタン213を押すことで表示されるコラボ配信参加リクエストの確認画面を経て、上記動画への参加要求を送信することができる。
アバタ表示部430は、受付部420が受け付けた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタA2を動画に表示させる。
図7は、一例として、第1のアバタA1が表示された動画に、第2のアバタA2が参加している場合の画面を示したものである。なお、図7ではコメント、ギフト、操作ボタン等のアバタ以外の表示については省略されている。
また、図8に示すように、さらに、別の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第3のアバタA3が動画に参加してもよい。なお、図8では第3のアバタA3が、第1のアバタA1および第2のアバタA2の後方に配置されているが、3人が横一列に並ぶように配置されてもよい。また、アバタの配置位置は配信ユーザが指定できるようにしてもよい。かかる指定の手法については後述する。
このように、配信されている動画に参加可能なアバタは複数であってもよい。かかる参加可能なアバタの数は、動画の配信開始前に、配信ユーザにより設定されることができる。
判定部440は、第1のアバタA1に第1の装着オブジェクトが装着されている場合に、アバタ表示部430により表示された第2のアバタA2に第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。
第1の装着オブジェクトは、第1のアバタが着用可能な装着オブジェクトである。かかる装着オブジェクトは、動画の配信を行う前にユーザ操作により第1のアバタに装着されることができる。
ここで、キャラクタオブジェクトへの装着オブジェクトの装着方法について図面を参照しながら説明する。
キャラクタオブジェクトは、配信ユーザ用端末で実行される専用アプリケーション(以下、「アプリ」という。)において、フェイシャルキャプチャ機能により配信ユーザの表情が表現される顔、および、少なくとも胴体の一部を有するオブジェクトである。すなわち、このキャラクタオブジェクトには、全身を表したもののみならず、上半身のみを表したものも含まれる。なお、顔以外の部位についても、配信ユーザの動きを認識するモーションキャプチャ機能により配信ユーザの動きが表示されるものとしてもよい。
そして、このキャラクタオブジェクトは、1以上のボディパーツおよび1以上の装着アイテムで構成される。これらボディパーツおよび装着アイテムは、サーバ装置が備えるストレージにおいてそれぞれ識別番号と対応付けて記憶される。
ボディパーツは、例えば、目、眉、鼻、口、ホクロおよび化粧などのパーツである。化粧には、チーク、アイシャドウおよび口紅など、さらに細分化されたパーツが含まれる。また、これらのパーツには、色のみが異なる色違いパーツが存在する。
装着アイテムは、例えば、アクセサリ、洋服および靴などのアイテムをいう。洋服には、トップス、ボトムスおよび靴下などさらに細分化されたアイテムが含まれる。また、これらのアイテムには、色のみが異なる色違いアイテムが存在する。
そして、配信ユーザは、配信アプリの初回起動時の画面、または、後述するクローゼット画面において、自身のアバタとなるキャラクタオブジェクトを作成する。図9〜図13は、配信ユーザ用端末における配信アプリの初回起動時の画面30の遷移の一例を示したイメージ図である。
初めに、配信ユーザ用端末の画面30には、図9に示されるように、キャラクタオブジェクトの作成を開始する画面が表示される。なお、図9に示されるように、初回起動時に生成されたキャラクタオブジェクトはクローゼット画面において後から変更することが可能である。
そして、図10に示されるように、カテゴリ(図10ではA〜D)ごとに表示される1以上のボディパーツおよび1以上の装着アイテムの中から所定のパーツまたはアイテム(図10ではアイテムa1)を指定し、かつ、指定したアイテムに対するカラー(図10ではカラーCL2)を選択することで、選択されたカラーCL2の指定されたアイテムa1で構成されるキャラクタオブジェクトCOを作成する。なお、各パーツまたはアイテムを指定する毎にキャラクタオブジェクトCOの表示は対応して変化する。なお、基本的に各カテゴリでは少なくとも1つのパーツまたはアイテムが指定されるが、必須ではないカテゴリのパーツまたはアイテムがあってもよい。
そして、図11では一例として右上に示される決定ボタン33が選択されると、この段階で画面30に表示されたキャラクタオブジェクトCOが初期キャラクタオブジェクトとして作成される。また、図12に示されるように、パーツの一覧の表示は画面30から一時的に消すこともでき、配信ユーザは、キャラクタオブジェクトCOの全体を確認しながら各パーツを指定することができる。
これらボディパーツおよび装着パーツの組み合わせは、各パーツの種類および色の掛け合わせにより無限に近い。そのため、配信ユーザは、膨大なパーツの組み合わせを試しながら、自身の希望するキャラクタオブジェクトを作成することができる。
初期キャラクタオブジェクト作成後、図5に示した配信ボタン204を選択すると、画面35には、図13に一例として示されるように、少なくとも動画配信開始ボタン36およびクローゼットボタン37が表示される。図13では、さらに、配信アプリの詳細設定を行う設定ボタン38が表示されている。
動画配信開始ボタン36が選択されると、表示されているキャラクタオブジェクトCOを使用した動画の配信が開始される。動画配信の詳細については後述する。
クローゼットボタン37が選択されると、上述したボディパーツおよび装着アイテムの一覧画面の表示が開始され、キャラクタオブジェクトCOの変更が可能となる。
なお、ここでいうキャラクタオブジェクトCOの変更は、ボディパーツの変更を行わずに単に装着アイテムを変更する場合である「着替え」も含むものとする。また、かかる「着替え」は動画の配信前に行われるものとして説明を行ったが、動画の配信中に行われるものとしてもよい。
以上、上述した装着アイテムは、動画内において装着オブジェクトとして表示されるものである。
なお、かかる装着アイテムは、無償で用意されたものの他、有償で購入するもの、ガチャ等の有償または無償で行うことが可能な抽選により入手できるものとすることができる。
あるいは、かかる装着アイテムは、動画を視聴する視聴ユーザにより投じられるギフトであってもよい。
そして、本開示において、第1の装着オブジェクトと第2の装着オブジェクトとは、互いに関連付けられていることを特徴とする。
一例として、分割された特定の図柄の一方が描かれたものを第1の装着オブジェクト、分割された特定の図柄の他方が描かれたものを第2の装着オブジェクトとして互いに関連付けられることができる。
図14(a)−(b)、図15(a)−(b)、図16(a)は、一例として、特定の図柄が動物、文字および記号、食べ物、ブロックの塊等である例を示したものである。
なお、かかる分割数は2分割に限定されず、3分割等とし、3つの装着オブジェクトが互いに関連付けられるものとしてもよい。
また、他の例として、対となるアイテムの一方の図柄が描かれたものを第1の装着オブジェクト、対となるアイテムの他方の図柄が描かれたものを第2の装着オブジェクトとして互いに関連付けられることができる。
図16(b)は、一例として、対となるアイテムがペアネックレスである例を示したものである。ペアネックレスは、一例として、一方が錠前、他方が錠を表している。
あるいは、一例として図17(a)に示されるように、アルファベットやひらがなの文字が一文字ずつ描かれた装着オブジェクトが用意されている場合に、図17(b)に示すように、並べることで単語を構成することができる装着オブジェクトを互いに関連付けることもできる。
あるいは、同じ図柄が描かれたものを第1の装着オブジェクトおよび第2の装着オブジェクトとし、互いに関連付けてもよい。
これら第1の装着オブジェクトおよび第2の装着オブジェクトの関連付けは、図18に示すような装着オブジェクト対応テーブルとして所定の記憶装置に記憶されるものとする。
図18に示す例において、関連付けNo.0001では、識別番号OB0101の第1の装着オブジェクトと識別番号OB0102の第2の装着オブジェクトとが関連付けられている。
同様に、関連付けNo.0002では、識別番号OB0103の第1の装着オブジェクトと識別番号OB0104の第2の装着オブジェクトと識別番号OB0105の第3の装着オブジェクトが関連付けられている。
同様に、関連付けNo.0003では、識別番号OB0001の第1の装着オブジェクトと識別番号OB0002の第2の装着オブジェクトと識別番号OB0003の第3の装着オブジェクトと識別番号OB0004の第4の装着オブジェクトが関連付けられている。
同様に、関連付けNo.0004では、識別番号OB0106の第1の装着オブジェクトと識別番号OB0107の第2の装着オブジェクトとが関連付けられている。
同様に、関連付けNo.0005では、識別番号OB0107の第1の装着オブジェクトと識別番号OB0106の第2の装着オブジェクトとが関連付けられている。
かかる所定の記憶装置は、本開示における情報処理装置が備えるもの、または情報処理装置に接続されたものとすることができる。
上記図14−図17に示した例では、装着アイテムとしてトップスのフロント面に図柄が描かれたもののみを示したが、図柄が描かれるベースのアイテムはトップスに限られずにボトムスやアクサセリであってもよく、関連付けに関しても同種のアイテムに限られるものではない。また、図柄が描かれるのはフロント面に限られず、バック面であってもよい。
また、関連付けられる装着アイテムは、1対1の関係に限られるものではない。例えば、特定の図柄がアイス部分とコーン部分で構成されるソフトクリームの場合には、アイス部分の色を変えることで様々な味を連想させるように、コーン部分の図柄が描かれた装着アイテムに対し、色の異なるアイス部分の図柄が描かれた複数の装着アイテムが関連付けられてもよい。具体的には、特定の図柄としてバニラソフトクリーム、メロンソフトクリーム、イチゴソフトクリームなどが挙げられる。
同様に、特定の図柄がライス部分とソース部分で構成される食べ物の場合には、ソース部分の色や形状を変えることで様々な料理を連想させるように、ライス部分の図柄が描かれる装着アイテムに対し、色や形状の異なるソース部分の図柄が描かれた複数の装着アイテムが関連付けられてもよい。具体的には、特定の図柄としてカレーライス、ハヤシライス、麻婆豆腐などが挙げられる。
表現部450は、判定部440により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合(ここでは「ペアルック成立」と呼ぶ。)に、動画内に特定の効果を表示させる。
特定の効果とは、動画内に生じるものであれば特に限定されるものではなく、一例として、動画内に演出効果を追加したり、第1の装着オブジェクトに描かれた図柄および第2の装着オブジェクトに描かれた図柄を組み合わせることで生まれた特定の図柄に対応するオブジェクトを動画内に生じさせたりするものを含む。詳細については後述する。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
例えば、第1のアバタが第1の装着オブジェクトを着用して動画に出演している場合に、第2の装着オブジェクトを有する視聴ユーザは、自身の第2のアバタに第2の装着オブジェクトを着用させて第1のアバタと共演させてみたくなることが期待される。また、特定の効果の発生は、動画の内容の興趣性を高め、出演者間、および/または、出演者と視聴者との間の会話が弾み、コミュニケーションの活性化にもつなげることができる。
また、一又は複数のコンピュータプロセッサは、報酬付与部(図示せず)を備えることができる。報酬付与部は、動画を視聴した視聴ユーザに対して視聴ボーナスと呼ばれる報酬を付与するものである。
また、報酬付与部は、視聴ユーザに対し、動画の視聴の有無または視聴時間に応じて視聴ボーナスを付与する。そして、報酬付与部は、判定部440により第2のアバタに第2の装着オブジェクトが装着されていると判定された動画(ペアルックが成立している動画)を視聴した場合に、第2のアバタに第2の装着オブジェクトが装着されていないと判定された動画(ペアルックが成立していない動画)を視聴した場合よりも多く視聴ボーナスを付与するものとすることができる。
かかる構成によれば、ペアルックを成立させようと、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
続いて、第1の装着オブジェクトおよび第2の装着オブジェクトの実施形態について説明する。
図14(a)−(b)、図15(a)−(b)、図16(a)にて示したように、第1の装着オブジェクトは、第1の画像部分および第2の画像部分で構成される特定の画像のうち第1の画像に対応する部分を有する装着オブジェクトとすることができる。
このとき、第2の装着オブジェクトは、特定の画像のうち第2の画像に対応する部分を有する装着オブジェクトとすることができる。
ここで、特定の画像は、第1の画像部分および第2の画像部分の切断面を接合させて完成する画像の他、第1の画像部分および第2の画像部分を重畳させることで完成する画像も含むものとすることができる。
あるいは、図16(b)にて示したように、対となるアイテムの一方の図柄が描かれたものを第1の装着オブジェクト、対となるアイテムの他方の図柄が描かれたものを第2の装着オブジェクトとすることができる。
あるいは、図17(a)にて示したように、アルファベットやひらがなの文字が一文字ずつ描かれた装着オブジェクトが用意されている場合に、図17(b)に示すように、並べることで単語を構成することができる複数の装着オブジェクトを関連付けることもできる。
ここで、図14−図17に示した装着オブジェクトのうち、アイス、カレー、ブロック、ペアネックレスなどは第1の装着オブジェクトと第2の装着オブジェクトの表示位置は限定せずに、それ以外の動物、文字などは表示位置を限定してもよい。
ここでいう装着オブジェクトの表示位置とは、図7−図8に示したような、当該装着オブジェクトを着用したアバタの画面上の表示位置により定められるものとすることができる。
すなわち、装着オブジェクトには、表示位置が限定される関係のものと、表示位置が限定されない関係のものとがあってもよい。
このとき、第1の装着オブジェクトおよび第2の装着オブジェクトには、互いの位置関係に関する情報が設定されることができる。
そして、判定部440は、さらに、位置関係が所定の条件を満たしているかを判定し、表現部450は、さらに、判定部440により位置関係が所定の条件を満たしていると判定された場合に、動画内に特定の効果を表示させる。
判定部440は、上記位置関係を、図18に示した装着オブジェクト対応テーブルに記載の順序に基づいて判定してもよいし、別途用意された位置関係テーブルに基づいて判定してもよい。前者の場合、装着オブジェクト対応テーブルは関連付けNo.0004と関連付けNo.0005のように順序に関しても定める必要があり、後者の場合、関連付けNo.0004があれば関連付けNo.0005は不要である。
また、表現部450は、判定部440により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合であって、位置関係が所定の条件を満たしていると判定された場合の特定の効果(第1の特定の効果)と、判定部440により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合であって、位置関係が所定の条件を満たしていないと判定された場合の特定の効果(第2の特定の効果)の内容を異ならせてもよい。
具体的には、第1の特定の効果よりも第2の特定の効果の方が豪華な演出になるようにする。
また、第1の特定の効果は、第2の特定の効果の発生が起こりそうであることを示唆するような効果とすることもできる。
表現部450は、さらに、判定部440により位置関係が所定の条件を満たしていないと判定された場合に、位置関係に関する情報が所定の条件を満たすよう、第1のアバタおよび第2のアバタの表示位置を変更する。
すなわち、表現部450は、第1のアバタが第2の装着アイテムを装着し、第2のアバタが第1の装着アイテムを装着している場合には、第1のアバタと第2のアバタの表示位置を入れ替える。
あるいは、表現部450は、第1のアバタが第2の装着アイテムを装着し、第2のアバタが第1の装着アイテムを装着している場合には、第1のアバタが第1の装着アイテムを装着し、第2のアバタが第2の装着アイテムを装着しているように装着アイテムを入れ替えてもよい。ただし、この入れ替えは第1のアバタと第2のアバタの共演動画内においてのみであって、所有権を入れ替えるものではない。
受付部420は、さらに、配信ユーザ端末から送信される、第1のアバタおよび/または第2のアバタの動画内における表示位置に関する指示を受け付けることができる。
このとき、アバタ表示部430は、受付部420が受け付けた指示に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させることができる。
すなわち、配信ユーザは、自身のアバタである第1のアバタおよびゲストのアバタである第2のアバタの表示位置を指定することができる。かかる表示位置は、予め複数個所定められており、この中から指定するものとしてもよい。
続いて、特定の効果の実施例について説明する。
表現部450は、特定の効果として、動画内に特定の画像に対応するオブジェクトを出現させることができる。
特定の画像とは、第1の画像部分および第2の画像部分で構成される画像である。具体的には、第1の画像部分がカレーの画像、第2の画像部分がライスの画像である場合には、特定の画像はカレーライスの画像である。
あるいは、表現部450は、特定の効果として、動画内に演出効果を追加することができる。
演出効果とは、後光や紙吹雪などの視覚的な演出効果の他、効果音などの聴覚的な演出効果も含まれる。
本開示における一又は複数のコンピュータプロセッサは、さらに、図19に示すように、装着受付部460と、変更誘導部470とを備えることができる。
装着受付部460は、配信ユーザ端末から送信される第1のアバタに第1の装着オブジェクトを装着させる指示を受け付ける。
かかる指示は、図13に示したクローゼットボタン37を押すことにより遷移するクローゼット画面から行うことができる。
変更誘導部470は、装着受付部460が指示を受け付けた場合に、第1のアバタのプロフィール画像の変更を促す画面を表示する。
具体的には、図11に示したような決定ボタン33を押した際に、図20に示すように、プロフィール画像を変更するか否かの確認画面を表示させることができる。
かかるプロフィール画像は、図5に示したような配信チャンネル202のサムネイル表示に利用される画像である。
プロフィール画像は、初期設定または変更時に着用していた装着アイテムが適用されたアバタの静止画となることから、第1の装着オブジェクトの装着時に最新のものとさせることが目的である。
かかる構成によれば、第1の装着アイテムを着用した第1のアバタがプロフィール画像として配信チャンネル202のサムネイル表示に利用されることから、第2の装着オブジェクトを有する視聴ユーザの、自身の第2のアバタに第2の装着オブジェクトを着用させて第1のアバタと共演させようというモチベーションを向上させることができる。
また、視聴ユーザによる第1の装着アイテムを着用した第1のアバタの動画へ共演申請を受け付けた際にも、視聴ユーザに対し、第2の装着アイテムへの着替えを行うか否かの確認を行い、クローゼット画面へ遷移させてもよい。
あるいは、配信チャンネル202のサムネイル表示に、第1の装着アイテムを装着していることを示すマークを加えてもよい。かかる構成によれば、第2の装着アイテムを装着または有しているアバタを持つ視聴者に対し、動画への参加を求めていることが分かり易くなる。
また、第1の装着アイテムと関連付けられた第2の装着アイテムを有している視聴ユーザに対し、第1の装着アイテムを装着して配信中の配信ユーザを一覧表示させ、かかる一覧の中から配信ユーザを選択することにより、共演申請を送信できるように構成してもよい。
上述したように、受付部420は、さらに1以上の他の視聴ユーザ端末から送信される動画への参加要求を受け付けることができる。
アバタ表示部430は、図8に示したように、さらに、受付部420が受け付けた表示要求に応じて、動画に1以上の他の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである1以上の第3のアバタを表示させる。
このとき、判定部440は、アバタ表示部430により表示された第1のアバタに第1の装着オブジェクトが装着されている場合に、第2のアバタおよび/または第3のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。
そして、表現部450は、判定部440により第2のアバタおよび/または第3のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。
また、表現部450は、判定部440により第2のアバタまたは第3のアバタに第2の装着オブジェクトが装着されていると判定された場合の特定の効果(第3の特定の効果)と、判定部440により第2のアバタおよび第3のアバタに第2の装着オブジェクトが装着されていると判定された場合の特定の効果(第4の特定の効果)の内容を異ならせてもよい。
具体的には、第3の特定の効果よりも第4の特定の効果の方が豪華な演出になるようにする。
また、第3の特定の効果は、第4の特定の効果の発生が起こりそうであることを示唆するような効果とすることもできる。
また、本開示における情報処理システムの他の実施形態として、第1の装着アイテムを着用している第1のアバタの配信中動画に参加要求を送信できるのは、第2の装着アイテムを着用している第2のアバタを有する視聴ユーザに限るものとしてもよい。
また、配信ユーザは、受信する参加要求を第2の装着アイテムを着用している第2のアバタを有する視聴ユーザに限るものとしてもよい。
あるいは、参加要求の承認/拒否画面において、参加要求を送信した視聴ユーザが、第2の装着アイテムを着用している第2のアバタを有しているか否かを示す情報を表示してもよい。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
例えば、第1のアバタが第1の装着オブジェクトを着用して動画に出演している場合に、第2の装着オブジェクトを有する視聴ユーザは、自身の第2のアバタに第2の装着オブジェクトを着用させて第1のアバタと共演させてみたくなることが期待される。また、特定の効果の発生は、動画の内容の興趣性を高め、出演者間、および/または、出演者と視聴者との間の会話が弾み、コミュニケーションの活性化にもつなげることができる。
続いて、本開示の実施形態における情報処理方法について説明を行う。
本開示の実施形態における情報処理方法は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000における情報処理方法である。情報処理システム2000は、配信ユーザ端末100と、視聴ユーザ端末200と、情報処理装置400(サーバ装置400)とを備える。
本開示における情報処理方法は、図21に一例として示されるように、情報処理システム2000が備える一又は複数のプロセッサに、配信ステップS11、受付ステップS12、アバタ表示ステップS13、判定ステップS14および表現ステップS15を実行させる。
配信ステップS11では、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザ端末に配信する。かかる情報は、配信ユーザ端末100から受信することができる。かかる配信ステップS11は、上述した配信部410により実行されることができる。
受付ステップS12では、視聴ユーザ端末から送信される動画への参加要求を受け付ける。かかる受付ステップS12は、上述した受付部420により実行されることができる。
アバタ表示ステップS13では、受付ステップS12において受け付けた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。かかるアバタ表示ステップS13は、上述したアバタ表示部430により実行されることができる。
判定ステップS14では、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップS13において表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。かかる判定ステップS14は、上述した判定部440により実行されることができる。
表現ステップS15では、判定ステップS14において第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。かかる表現ステップS15は、上述した表現部450により実行されることができる。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。
本開示の実施形態におけるコンピュータプログラムは、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000において実行されるコンピュータプログラムである。情報処理システム2000は、配信ユーザ端末100と、視聴ユーザ端末200と、情報処理装置400(サーバ装置400)とを備える。
本開示におけるコンピュータプログラムは、情報処理システムが備える一又は複数のプロセッサに、配信機能と、受付機能と、アバタ表示機能と、判定機能と、表現機能とを実現させることを特徴とする。
配信機能は、配信ユーザのキャラクタオブジェクトである第2のアバタのアニメーションを含む動画に関する情報を、視聴ユーザ端末に配信する。
受付機能は、視聴ユーザ端末から送信される動画への参加要求を受け付ける。
アバタ表示機能は、受付機能により受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。
判定機能は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップにおいて表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。
表現機能は、判定機能により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。
上記機能は、図22に示す配信回路1410、受付回路1420、アバタ表示回路1430、判定回路1440および表現回路1450により実現されることができる。配信回路1410、受付回路1420、アバタ表示回路1430、判定回路1440および表現回路1450は、それぞれ上述した配信部410、受付部420、アバタ表示部430、判定部440および表現部450により実現されるものとする。各部の詳細については上述したとおりである。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
続いて、本開示の実施形態における配信ユーザ端末について説明を行う。
本開示における配信ユーザ端末100は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000を構成する。情報処理システム2000は、さらに、視聴ユーザ端末200および情報処理装置400(サーバ装置400)を備える。
そして、配信ユーザ端末100は、図23(a)に示すように、送信部110と、受信部120と、アバタ表示部130と、判定部140と、表現部150とを備える。
送信部110は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する。
受信部120は、視聴ユーザ端末から送信される動画への参加要求を受信する。
アバタ表示部130は、受信部120において受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。かかるアバタ表示部130は、上述した情報処理装置400が備えるアバタ表示部430と同様の機能構成とすることができる。
判定部140は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示部130により表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。かかる判定部140は、上述した情報処理装置400が備える判定部440と同様の機能構成とすることができる。
表現部150は、判定部140により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。かかる表現部150は、上述した情報処理装置400が備える表現部450と同様の機能構成とすることができる。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
続いて、本開示の実施形態における配信ユーザ端末用のコンピュータプログラムについて説明を行う。
本開示におけるコンピュータプログラムは、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末100で実行されるコンピュータプログラムである。情報処理システム2000は、さらに、視聴ユーザ端末200および情報処理装置400(サーバ装置400)を備える。
そして、上記コンピュータプログラムは、配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、送信機能と、受信機能と、アバタ表示機能と、判定機能と、表現機能とを実現させる。
送信機能は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する。
受信機能は、視聴ユーザ端末から送信される動画への参加要求を受信する。
アバタ表示機能は、受信機能により受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。
判定機能は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示機能により表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。
表現機能は、判定機能により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。
上記機能は、図23(b)に示す送信回路1110、受信回路1120、アバタ表示回路1130、判定回路1140および表現回路1150により実現されることができる。送信回路1110、受信回路1120、アバタ表示回路1130、判定回路1140および表現回路1150は、それぞれ上述した送信部110、受信部120、アバタ表示部130、判定部140および表現部150より実現されるものとする。各部の詳細については上述したとおりである。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
続いて、本開示の実施形態における配信ユーザ端末における情報処理方法について説明を行う。
本開示における情報処理方法は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末100における情報処理方法である。情報処理システム2000は、さらに、視聴ユーザ端末200および情報処理装置400(サーバ装置400)を備える。
本開示における情報処理方法は、図24に一例として示されるように、配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、送信ステップS21、受信ステップS22、アバタ表示ステップS23、判定ステップS24、表現ステップS25を実行させる。
送信ステップS21では、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する。かかる送信ステップS21は、上述した送信部110により実行されることができる。
受信ステップS22では、視聴ユーザ端末から送信される動画への参加要求を受信する。かかる受信ステップS22は、上述した受信部120により実行されることができる。
アバタ表示ステップS23では、受信ステップS22において受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。かかるアバタ表示ステップS23は、上述したアバタ表示部130により実行されることができる。
判定ステップS24は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップS23において表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。かかる判定ステップS24は、上述した判定部140により実行されることができる。
表現ステップS25は、判定ステップS24により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。かかる表現ステップS25は、上述した表現部150により実行されることができる。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
続いて、本開示の実施形態における視聴ユーザ端末について説明を行う。
本開示における視聴ユーザ端末200は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000を構成する。情報処理システム2000は、さらに、配信ユーザ端末100および情報処理装置400(サーバ装置400)を備える。
そして、視聴ユーザ端末200は、図25(a)に示すように、受信部210と、表示部220と、送信部230とを備える。
受信部210は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する。
表示部220は、受信部210により受信された情報に基づいて、動画を表示する。
送信部230は、サーバ装置に動画への参加要求を送信する。
そして、表示部220は、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
続いて、本開示の実施形態における視聴ユーザ端末用のコンピュータプログラムについて説明を行う。
本開示におけるコンピュータプログラムは、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000を構成する視聴ユーザ端末200で実行されるコンピュータプログラムである。情報処理システム2000は、さらに、配信ユーザ端末100および情報処理装置400(サーバ装置400)を備える。
そして、上記コンピュータプログラムは、視聴ユーザ端末200が備える一又は複数のコンピュータプロセッサに、受信機能と、表示機能と、送信機能とを実現させる。
受信機能は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する。
表示機能は、受信機能により受信された情報に基づいて、動画を表示する。
送信機能は、サーバ装置に動画への参加要求を送信する。
そして、表示機能は、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。
上記機能は、図25(b)に示す受信回路1210、表示回路1220および送信回路1230により実現されることができる。受信回路1210、表示回路1220および送信回路1230は、それぞれ上述した受信部210、表示部220および送信部230により実現されるものとする。各部の詳細については上述したとおりである。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
続いて、本開示の実施形態における視聴ユーザ端末における情報処理方法について説明を行う。
本開示における情報処理方法は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザ端末200における情報処理方法である。情報処理システム2000は、さらに、配信ユーザ端末100および情報処理装置400(サーバ装置400)を備える。
本開示における情報処理方法は、図26に示されるように、視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、ステップS31〜S34を実行させる。
ステップS31は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する。かかるステップS31は、上述した受信部210により実行されることができる。
ステップS32は、ステップS31において受信された情報に基づいて、動画を表示する。かかるステップS32、上述した表示部220により実行されることができる。
ステップS33は、サーバ装置に動画への参加要求を送信する。かかるステップS33は、上述した送信部230により実行されることができる。
ステップS34は、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。かかるステップS34は、上述した表示部220により実行されることができる。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。
また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。
1000 情報処理システム
2000 情報処理システム
100 配信ユーザ端末
200 視聴ユーザ端末
300 ネットワーク
400 情報処理装置

Claims (14)

  1. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、
    一又は複数のコンピュータプロセッサを備え、
    前記一又は複数のコンピュータプロセッサは、
    前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する配信部と、
    前記視聴ユーザ端末から送信される前記動画への参加要求を受け付ける受付部と、
    前記受付部が受け付けた前記参加要求に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させるアバタ表示部と、
    前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示部により表示された前記第2のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定部と、
    前記判定部により前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる表現部と
    を備える情報処理システム。
  2. 前記一又は複数のコンピュータプロセッサは、さらに、
    前記配信ユーザの配信ユーザ端末から送信される前記第1のアバタに前記第1の装着オブジェクトを装着させる指示を受け付ける装着受付部と、
    前記装着受付部が前記指示を受け付けた場合に、前記第1のアバタのプロフィール画像の変更を促す画面を表示する変更誘導部と
    を備えることを特徴とする請求項1に記載の情報処理システム。
  3. 前記第1の装着オブジェクトは、第1の画像部分および第2の画像部分で構成される特定の画像のうち前記第1の画像に対応する部分を有する装着オブジェクトであり、
    前記第2の装着オブジェクトは、前記特定の画像のうち前記第2の画像に対応する部分を有する装着オブジェクトであることを特徴とする請求項1または2に記載の情報処理システム。
  4. 前記表現部は、前記特定の効果として、前記動画内に前記特定の画像に対応するオブジェクトを出現させることを特徴とする請求項3に記載の情報処理システム。
  5. 前記表現部は、前記特定の効果として、前記動画内に演出効果を追加することを特徴とする請求項3または4に記載の情報処理システム。
  6. 前記第1の装着オブジェクトおよび前記第2の装着オブジェクトには、互いの位置関係に関する情報が設定され、
    前記判定部は、さらに、前記位置関係が所定の条件を満たしているかを判定し、
    前記表現部は、さらに、前記判定部により前記位置関係が所定の条件を満たしていると判定された場合に、前記動画内に特定の効果を表示させることを特徴とする請求項1から5のいずれか一項に記載の情報処理システム。
  7. 前記第1の装着オブジェクトおよび前記第2の装着オブジェクトには、互いの位置関係に関する情報が設定され、
    前記判定部は、さらに、前記位置関係が所定の条件を満たしているかを判定し、
    前記表現部は、さらに、前記判定部により前記位置関係が所定の条件を満たしていないと判定された場合に、前記位置関係に関する情報が所定の条件を満たすよう、前記第1のアバタおよび前記第2のアバタの表示位置を変更することを特徴とする請求項1から5のいずれか一項に記載の情報処理システム。
  8. 前記受付部は、さらに、前記配信ユーザの配信ユーザ端末から送信される、前記第1のアバタおよび/または前記第2のアバタの前記動画内における表示位置に関する指示を受け付け、
    前記アバタ表示部は、前記受付部が受け付けた前記指示に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させることを特徴とする請求項1から7のいずれか一項に記載の情報処理システム。
  9. 前記受付部は、さらに1以上の他の視聴ユーザ端末から送信される前記動画への参加要求を受け付け、
    前記アバタ表示部は、さらに、前記受付部が受け付けた前記参加要求に応じて、前記動画に前記1以上の他の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである1以上の第3のアバタを表示させ、
    前記判定部は、前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示部により表示された前記第2のアバタおよび/または前記第3のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定し、
    前記表現部は、前記判定部により前記第2のアバタおよび/または前記第3のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させることを特徴とする請求項1から8のいずれか一項に記載の情報処理システム。
  10. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムにおける情報処理方法であって、
    前記情報処理システムが備える一又は複数のコンピュータプロセッサに、
    前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する配信ステップと、
    前記視聴ユーザ端末から送信される前記動画への参加要求を受け付ける受付ステップと、
    前記受付ステップにおいて受け付けた前記参加要求に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させるアバタ表示ステップと、
    前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示ステップにおいて表示された前記第2のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定ステップと、
    前記判定ステップにおいて前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる表現ステップと
    を実行させる情報処理方法。
  11. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末用のコンピュータプログラムであって、
    前記情報処理システムは、前記配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、
    前記配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、
    前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、前記サーバ装置に送信する送信機能と、
    前記視聴ユーザ端末から送信される前記動画への参加要求を受信する受信機能と、
    前記受信機能により受け付けられた前記参加要求に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させるアバタ表示機能と、
    前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示機能により表示された前記第2のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定機能と、
    前記判定機能により前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる表現機能とを実現させるコンピュータプログラム。
  12. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末における情報処理方法であって、
    前記情報処理システムは、前記配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、
    前記配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、
    前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、前記サーバ装置に送信する送信ステップと、
    前記視聴ユーザ端末から送信される前記動画への参加要求を受信する受信ステップと、
    前記受信ステップにおいて受信された前記参加要求に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させるアバタ表示ステップと、
    前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示ステップにおいて表示された前記第2のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定ステップと、
    前記判定ステップにおいて前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる表現ステップと
    を実行させる情報処理方法。
  13. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザ端末用のコンピュータプログラムであって、
    前記情報処理システムは、配信ユーザ端末、前記視聴ユーザ端末およびサーバ装置を備え、
    前記視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、
    前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、前記サーバ装置から受信する受信機能と、
    前記受信機能により受信された情報に基づいて、前記動画を表示する表示機能と、
    前記サーバ装置に前記動画への参加要求を送信する送信機能と、
    を実現させ、
    前記表示機能は、前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記参加要求に応じて前記動画に表示された前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させるコンピュータプログラム。
  14. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザ端末における情報処理方法であって、
    前記情報処理システムは、配信ユーザ端末、前記視聴ユーザ端末およびサーバ装置を備え、
    前記視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、
    前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、前記サーバ装置から受信する受信ステップと、
    前記受信ステップにおいて受信した情報に基づいて、前記動画を表示する表示ステップと、
    前記サーバ装置に前記動画への参加要求を送信する送信ステップと、
    を実行させ、
    前記表示ステップは、前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記参加要求に応じて前記動画に表示された前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる情報処理方法。

JP2020047623A 2020-03-18 2020-03-18 情報処理システム、情報処理方法およびコンピュータプログラム Active JP7490188B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020047623A JP7490188B2 (ja) 2020-03-18 2020-03-18 情報処理システム、情報処理方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047623A JP7490188B2 (ja) 2020-03-18 2020-03-18 情報処理システム、情報処理方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021149407A true JP2021149407A (ja) 2021-09-27
JP7490188B2 JP7490188B2 (ja) 2024-05-27

Family

ID=77848850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047623A Active JP7490188B2 (ja) 2020-03-18 2020-03-18 情報処理システム、情報処理方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7490188B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7312975B1 (ja) 2022-03-31 2023-07-24 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP7317325B1 (ja) 2022-04-27 2023-07-31 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7333529B1 (ja) 2022-03-17 2023-08-25 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP2023136815A (ja) * 2022-03-17 2023-09-29 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP7391340B2 (ja) 2022-03-29 2023-12-05 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7398069B2 (ja) 2022-03-31 2023-12-14 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP7429373B2 (ja) 2021-09-30 2024-02-08 グリー株式会社 プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP7441448B1 (ja) 2022-12-20 2024-03-01 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4859881B2 (ja) 2008-06-23 2012-01-25 ヤフー株式会社 広告配信装置、方法及びシステム
JP2012079291A (ja) 2010-09-08 2012-04-19 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP6809830B2 (ja) 2016-07-13 2021-01-06 株式会社バンダイナムコエンターテインメント プログラム及び電子機器

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7429373B2 (ja) 2021-09-30 2024-02-08 グリー株式会社 プログラム、情報処理方法、サーバ及びサーバの情報処理方法
JP7333529B1 (ja) 2022-03-17 2023-08-25 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP2023136815A (ja) * 2022-03-17 2023-09-29 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP2023136814A (ja) * 2022-03-17 2023-09-29 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP7357862B2 (ja) 2022-03-17 2023-10-10 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP7391340B2 (ja) 2022-03-29 2023-12-05 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7312975B1 (ja) 2022-03-31 2023-07-24 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP7398069B2 (ja) 2022-03-31 2023-12-14 グリー株式会社 端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法
JP7317325B1 (ja) 2022-04-27 2023-07-31 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP2023162826A (ja) * 2022-04-27 2023-11-09 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7441448B1 (ja) 2022-12-20 2024-03-01 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JP7490188B2 (ja) 2024-05-27

Similar Documents

Publication Publication Date Title
JP2021149407A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6668549B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7145266B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6883140B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2021152785A (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
JP2021052374A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7199791B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6788756B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6983980B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20240121481A1 (en) Information processing system, information processing method, and computer program
JP7317325B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7229400B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20240152311A1 (en) Information processing system, information processing method, and computer program
JP7301262B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7441448B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7148700B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US11704854B2 (en) Information processing system, information processing method, and computer program
JP7301263B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20230315370A1 (en) Control program for terminal device, terminal device, control method for terminal device, control program for server device, server device, and control method for server device
JP2024052539A (ja) 情報処理システム、制御方法、及びサーバ装置
JP2024052150A (ja) 情報処理システム、制御方法、及びサーバ装置
JP2024050776A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231206

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240506

R150 Certificate of patent or registration of utility model

Ref document number: 7490188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150