JP2024050776A - 情報処理システム、情報処理方法およびコンピュータプログラム - Google Patents

情報処理システム、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2024050776A
JP2024050776A JP2024015013A JP2024015013A JP2024050776A JP 2024050776 A JP2024050776 A JP 2024050776A JP 2024015013 A JP2024015013 A JP 2024015013A JP 2024015013 A JP2024015013 A JP 2024015013A JP 2024050776 A JP2024050776 A JP 2024050776A
Authority
JP
Japan
Prior art keywords
user
information
video
user terminal
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024015013A
Other languages
English (en)
Inventor
佳輔 山我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2024015013A priority Critical patent/JP2024050776A/ja
Publication of JP2024050776A publication Critical patent/JP2024050776A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させる。【解決手段】 本開示における情報処理システムは、一又は複数のコンピュータプロセッサを備える情報処理システムであって、一又は複数のコンピュータプロセッサは、第一のユーザの第一ユーザ端末から送信される、少なくとも第一のユーザの音声に関する音声情報を受信する受信部と、第一のユーザに関する動画を、第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、第一ユーザ端末および/または第二ユーザ端末に送信する送信部と、音声情報に基づいて、音声に特定のワードが含まれるかを解析する解析部と、解析部により解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う表示制御部とを備えることを特徴とする。【選択図】 図26

Description

本発明は、情報処理システム、情報処理方法およびコンピュータプログラムに関する。
アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムが知られている(例えば、特許文献1参照)。
特開2015-184689号公報
本技術分野において、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を如何にして向上させるかは重要な課題である。
本開示の目的は、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することにある。
本開示のより具体的な目的の一つは、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することにある。
本開示における情報処理システムは、一又は複数のコンピュータプロセッサを備える情報処理システムであって、一又は複数のコンピュータプロセッサは、第一のユーザの第一ユーザ端末から送信される、少なくとも第一のユーザの音声に関する音声情報を受信する受信部と、第一のユーザに関する動画を、第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、第一ユーザ端末および/または第二ユーザ端末に送信する送信部と、音声情報に基づいて、音声に特定のワードが含まれるかを解析する解析部と、解析部により解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う表示制御部とを備えることを特徴とする。
特定のワードは、第一ユーザ端末における操作を要する行動に関連するワードであり、表示制御情報は、動画または第一ユーザ端末の画面に、行動に対応付けられた操作オブジェクトを出現、動画または第一ユーザ端末の画面に表示された、行動に対応付けられた操作オブジェクトを強調して表示、および/または、行動に対応付けられた操作用画面を表示させるための情報とすることができる。
特定のワードは、第二ユーザ端末における操作を要する行動に関連するワードであり、表示制御情報は、動画または第二ユーザ端末の画面に、行動に対応付けられた操作オブジェクトを出現、動画または第二ユーザ端末の画面に表示された、行動に対応付けられた操作オブジェクトを強調して表示、および/または、行動に対応付けられた操作用画面を表示させるための情報とすることができる。
表示制御部は、特定のワードが、第一ユーザ端末における操作を要する行動に関連するワードである場合、第一ユーザ端末および第二ユーザ端末に表示される動画おいて、動画の表示の制御を行い、特定のワードが、第二ユーザ端末における操作を要する行動に関連するワードである場合、第二ユーザ端末に表示される動画においてのみ、動画の表示の制御を行うことができる。
一又は複数のコンピュータプロセッサは、さらに、動画に出現または強調して表示された操作オブジェクトを選択することにより行動が実行された場合、第一ユーザ端末および/または第二ユーザ端末において特定の効果を発生させる効果発生部を備えることができる。
特定のワードは、要求に関連するワードであり、表示制御情報は、要求に対応付けられたオブジェクトを動画に出現させるための情報、および/または、動画に表示されたオブジェクトを強調して表示させるための情報とすることができる。
要求に対応付けられたオブジェクトは、現実の商品および/または商品オブジェクトを抽選により取得可能な抽選オブジェクト、現実の商品および/または商品オブジェクトを購入可能なショップを表したショップオブジェクトまたは現実の商品および/または商品オブジェクトに関する広告を表すための広告オブジェクトとすることができる。
一又は複数のコンピュータプロセッサは、第一ユーザ端末における抽選オブジェクトに対する操作により現実の商品の当選が決定した場合、または、第一ユーザ端末においてショップオブジェクトおよび/または広告オブジェクトを介して現実の商品が注文された場合、当選に関する情報または注文に関する情報および少なくとも第一のユーザのユーザ情報に含まれる第一のユーザの住所情報を、抽選オブジェクト、ショップオブジェクトおよび/または広告オブジェクトに関連付けられた実店舗の情報処理装置へ送信する注文部を備えることができる。
表示制御部は、第一ユーザ端末において、ショップオブジェクトおよび/または広告オブジェクトを介して現実の商品が注文された場合、当該現実の商品に対応する商品オブジェクトを動画に表示させることができる。
特定のワードは、特定のアイテムに関連するワードであり、一又は複数のコンピュータプロセッサは、さらに、特定のアイテムが第一ユーザ端末に関連付けられているかを判定する判定部を備え、判定部により特定のアイテムが第一ユーザ端末に関連付けられていると判定された場合において、表示制御部は、特定のアイテムに対応する特定のオブジェクトを動画に出現させるための情報、動画に表示された特定のオブジェクトを強調して表示させるための情報、および/または、特定のアイテムを含む、第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報である表示制御情報に基づいて、動画の表示の制御を行うことができる。
判定部により特定のアイテムが第一ユーザ端末に関連付けられていないと判定された場合において、表示制御部は、特定のアイテムを抽選により取得可能な抽選オブジェクト、特定のアイテムを購入可能なショップを表したショップオブジェクトまたは特定のアイテムに関連する広告を表すための広告オブジェクト動画に出現させるための情報、および/または、動画に表示された抽選オブジェクト、ショップオブジェクトおよび/または広告オブジェクトを強調して表示させるための情報である表示制御情報に基づいて、動画の表示の制御を行うことができる。
判定部により特定のアイテムが第一ユーザ端末に関連付けられていないと判定された場合において、表示制御部は、特定のアイテムを有する他のユーザのユーザ端末に関連する画面への導線を動画に出現させるための情報である表示制御情報に基づいて、動画の制御を行うことができる。
特定のワードは、現実空間の事象に関連するワードであり、表示制御情報は、現実空間の事象に対応付けられた現実オブジェクトを動画に出現させるための情報とすることができる。
特定のワードは、動画に表示された特定のテキストに含まれるワードであり、表示制御部は、特定のテキストを強調表示させることができる。
特定のテキストは、第一ユーザ端末または第二ユーザ端末から投稿されたコメント、あるいは、システムコメントとすることができる。
強調表示は、コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含むものとすることができる。
動画は、第一ユーザのキャラクタオブジェクトおよび当該キャラクタオブジェクトが移動可能な仮想空間を表示するものとすることができる。
第二ユーザ端末が第一ユーザ端末と関連付けられている場合、仮想空間の少なくとも一部は第二ユーザ端末と共有され、表示制御部による動画の表示の制御の効果は、第一ユーザ端末および第二ユーザ端末の双方に及ぶものとすることができる。
第二ユーザ端末が第一ユーザ端末と関連付けられていない場合、仮想空間の少なくとも一部は第二ユーザ端末と共有されるが、表示制御部による動画の表示の制御の効果は、第一ユーザ端末および第二ユーザ端末の一方のみに及ぶものとすることができる。
一又は複数のコンピュータプロセッサは、解析部により解析された結果に応じた動画の表示の制御を行うか否かを設定可能な設定部を備えることができる。
第一のユーザは配信ユーザであり、第二のユーザは一以上の視聴ユーザとすることができる。
受信部は、第一ユーザ端末を含む複数のユーザ端末から送信される複数のユーザの音声に関する複数の音声情報を受信し、解析部は、複数の音声の各々に特定のワードが含まれるかを解析し、表示制御部は、音声に含まれる特定のワードおよび特定のワードが含まれる音声の数に関連付けられた表示制御情報に基づいて、動画の表示の制御を行うことができる。
特定のワードが、第一ユーザ端末の操作に基づいて設定されたものとすることができる。
受信部は、第一ユーザ端末から送信される、第一のユーザの動作に関する動作情報を受信し、動画には、動作情報に基づいて動作する第一のユーザのキャラクタオブジェクトが表示されることができる。
本開示における情報処理方法は、一又は複数のコンピュータプロセッサに、第一のユーザの第一ユーザ端末から送信される、少なくとも第一のユーザの音声に関する音声情報を受信する受信ステップと、第一のユーザに関する動画を、第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、第一ユーザ端末および/または第二ユーザ端末に送信する送信ステップと、音声情報に基づいて、音声に特定のワードが含まれるかを解析する解析ステップと、解析ステップにおいて解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う表示制御ステップとを実行させることを特徴とする。
本開示における情報処理方法は、一又は複数のコンピュータプロセッサに、少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信ステップと、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う表示制御ステップとを実行させることを特徴とする。
本開示におけるコンピュータプログラムは、一又は複数のコンピュータプロセッサに、少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信機能と、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う表示制御機能とを実現させることを特徴とする。
本開示における情報処理方法は、一又は複数のコンピュータプロセッサに、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、少なくとも第一のユーザの音声に関する音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、画の表示の制御を行う表示制御ステップとを実行させることを特徴とする。
本開示におけるコンピュータプログラムは、一又は複数のコンピュータプロセッサに、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、少なくとも第一のユーザの音声に関する音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う表示制御機能とを実現させることを特徴とする。
本開示によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、本開示の構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
本開示における情報処理システムの一例を示すシステム構成図である。 本開示における情報処理システムの一例を示すシステム構成図である。 本開示における情報処理システムの一例を示すシステム構成図である。 本開示におけるサーバ装置、配信ユーザ端末および視聴ユーザ端末のハードウェア構成の一例を示す構成図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 本開示における仮想空間のイメージを示した概念図である。 本開示におけるサーバ装置の機能構成の一例を示す構成図である。 本開示における記憶装置に記憶されたデータテーブルの一例を示すデータ構成図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 ユーザ端末に表示される画面のイメージを示した概念図である。 第一のユーザとユーザ端末に表示される画面のイメージを示した概念図である。 第一のユーザとユーザ端末に表示される画面のイメージを示した概念図である。 本開示におけるサーバ装置の機能構成の他の例を示す構成図である。 第一のユーザとユーザ端末に表示される画面のイメージを示した概念図である。 本開示における情報処理方法のフローの一例を示すフロー図である。 本開示におけるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。 本開示における第一ユーザ端末の機能構成の一例を示す構成図である。 本開示における第一ユーザ端末における情報処理方法のフローの一例を示すフロー図である。 本開示における第一ユーザ端末で実行されるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。 本開示における第二ユーザ端末の機能構成の一例を示す構成図である。 本開示における第二ユーザ端末における情報処理方法のフローの一例を示すフロー図である。 本開示における第二ユーザ端末で実行されるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。 本開示におけるコンピュータベースの動作を実行する処理回路のブロック図である。
初めに、本開示の実施形態に係る情報処理システムの概要について図面を参照しながら説明する。
本開示における情報処理システムは、一以上のクライアント装置およびサーバ装置を備える情報処理システムであって、一又は複数のコンピュータプロセッサを備える。
各クライアント装置に表示される動画は、配信ユーザの動きに基づいて生成される3Dまたは2Dのキャラクタオブジェクトのアニメーションを含むものとして説明を行うが、これに限られるものではなく、配信ユーザの操作に応じて生成されるキャラクタオブジェクトのアニメーションを含むものとしてもよいし、配信ユーザ本人の画像を含むものとしてもよい。また、これらキャラクタオブジェクトや配信ユーザは表示されず、配信ユーザの声のみを含むものとしてもよい。
ここで、配信ユーザは、映像および/または音声に関する情報を送信する側のユーザを意味するものとする。例えば、配信ユーザは、単独での動画配信、複数人が参加可能なコラボ配信、複数人が参加および/または視聴可能なビデオチャットまたはボイスチャット、複数人が参加および/または視聴可能な仮想空間上でのイベント(パーティなど)を主催または開催するユーザ、すなわち、これらをメインで実行するユーザであればよい。そのため、本開示における配信ユーザは、ホストユーザ、主催ユーザまたは開催ユーザなどと言い換えることもできる。
一方で、視聴ユーザは、映像および/または音声に関する情報を受信する側のユーザを意味するものとする。ただし、視聴ユーザは上記情報を受信するのみならず、リアクションすることも可能なユーザとすることができる。例えば、視聴ユーザは、動画配信、コラボ配信を視聴するユーザ、または、ビデオチャット、ボイスチャットやイベントに参加および/またはこれらを視聴するユーザであればよい。そのため、本開示における視聴ユーザは、ゲストユーザ、参加ユーザ、リスナー、観覧ユーザ、応援ユーザなどと言い換えることもできる。
また、本開示の実施形態における情報処理システムは、多くの人が同時に参加してキャラクタオブジェクト(アバタ)を通じた交流や仕事、遊びなどを実社会に近いレベルの自由な活動ができるデジタル世界であって、現実と仮想の隔たりを超えて社会活動ができる、次のインターネット空間(メタバース)を提供するために用いられることができる。
このような空間において、ユーザのアバタはワールド内を自由に歩き回り、互いにコミュニケーションをとることが可能である。
そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(キャラクタオブジェクト)が、配信ユーザのキャラクタオブジェクトとして動画を配信できる構成としてもよい。すなわち、多対多のメタバースな仮想空間において一対多の動画配信を行うことができるものとしてもよい。
このような空間において、配信ユーザと視聴ユーザとは特に区別されないものとすることができる。
また、動画に表される空間は仮想空間であってもよいし、現実空間であってもよいし、これらが融合した拡張現実空間であってもよい。また、動画は、少なくとも所定の映像および配信ユーザの声を再生するカラオケ動画やゲーム実況動画のようなものであってもよいし、これらにキャラクタオブジェクトまたは配信ユーザの実画像を重畳して表示したものであってもよい。
また、現実空間に配信ユーザが含まれる場合には、当該配信ユーザの実画像に当該配信ユーザの動きに基づいて生成されるキャラクタオブジェクトを重ねて表示させてもよい。また、現実空間の撮影画像に、ギフトオブジェクト等のアニメーションを重ねて表示してもよい。
<システム構成>
図1に一例として示されるように、本開示に係る情報処理システム1000は、1以上の視聴ユーザ端末1100、および、これら視聴ユーザ端末1100とネットワーク1200を介して接続される、動画の配信スタジオ等に配置された情報処理装置(サポートコンピュータ)1300を含むことができる。
また、当該情報処理装置1300は、インターネットを介して所定のサーバ装置と接続され、情報処理装置1300で行われるべき処理の一部または全部は当該サーバ装置で行われるものとしてもよい。なお、かかるサーバ装置は、図2に示す情報処理装置2400としてもよい。
本明細書において、かかる情報処理システム1000による配信を、スタジオ配信と呼ぶものとする。
スタジオ配信において、配信ユーザ(アクター)の全身の動きは、配信ユーザに取り付けられたマーカをスタジオに備え付けられたカメラで撮影し、既知のモーションキャプチャ技術を用いてリアルタイムでキャラクタに反映させるものとする。
また、本発明の情報処理システム1000は、図2に一例として示される別の情報処理システム2000と連携することができる。図2に示される情報処理システム2000は、配信ユーザ端末2100、1以上の視聴ユーザ端末2200、および、これら配信ユーザ端末2100および視聴ユーザ端末2200とネットワーク2300を介して接続される情報処理装置(サーバ装置)2400を含むことができる。
上記の例において、配信ユーザ端末2100はスマートフォン等の情報処理端末とすることができる。本明細書において、かかる情報処理システム2000による配信を、モバイル配信と呼ぶものとする。
モバイル配信において、配信ユーザの顔の動きは、配信ユーザの顔を配信ユーザ端末2100が備えるカメラで撮影し、既知のフェイストラッキング技術を用いてリアルタイムでキャラクタの顔に反映させるものとする。
なお、モバイル配信における配信ユーザと視聴ユーザの区別は特になく、視聴ユーザはいつでもモバイル配信が可能であり、配信ユーザは他の配信ユーザの動画を視聴する場合には視聴ユーザとなりうる。
上記情報処理システム1000および情報処理システム2000により生成される動画は、一例として、一の動画配信プラットフォームから、視聴ユーザへ配信することができる。
また、いずれの配信においても、モーションをキャラクタに反映させてアニメーションを生成する処理および後述するギフトを表示する処理等は、配信ユーザ端末、視聴ユーザ端末、情報処理装置および他の装置により分担して行われてもよい。
すなわち、ここでいう「配信」は、視聴ユーザの端末において動画を視聴可能とするための情報を送信することをいい、動画のレンダリングは情報処理装置1300,2400側で行われるものであってもよいし、配信ユーザ端末2100,視聴ユーザ端末1100,2200側で行われるものであってもよい。
具体的には、キャラクタオブジェクトのアニメーションを生成する(レンダリングする)端末または装置には、配信ユーザ端末または情報処理装置から、配信ユーザのフェイスモーションデータおよび音声データが送信される。また、フェイスモーションに加えてボディモーションが送信されてもよい。
本開示において、アニメーションを生成する処理は配信ユーザ端末および視聴ユーザ端末のそれぞれで行うものとして説明を行うが、これに限られるものではない。
そして、本開示における情報処理システムは、図1および図2に示した例のいずれの場合にも適用が可能である。そこで、本開示の実施形態における情報処理システム3000は、図3に示されるように、第一ユーザ端末100、第二ユーザ端末200、および、これら第一ユーザ端末100および第二ユーザ端末200とネットワーク300を介して接続可能なサーバ装置400を備えるものとして説明を行う。
第一ユーザ端末100および第二ユーザ端末200は、例えば、基地局、移動体通信網、ゲートウェイおよびインターネットを介してサーバ装置400と相互に接続される。第一ユーザ端末100および第二ユーザ端末200とサーバ装置400との間では、ハイパーテキスト転送プロトコル(Hypertext Transfer Protocol,HTTP)等の通信プロトコルに基づいて通信が行われる。また、第一ユーザ端末100および第二ユーザ端末200とサーバ装置400との間において、最初にHTTP通信によりコネクションが確立され、その後は、HTTP通信よりも小コスト(通信負荷及び処理負荷が少ない)の双方向通信が行われるWebSocketに基づいて通信が行われてもよい。なお、第一ユーザ端末100および第二ユーザ端末200とサーバ装置400との間の通信方式は、上述の方式に限定されず、本実施形態を実現できるものであれば、どのような通信方式の技術が用いられてもよい。
第一ユーザ端末100は、少なくとも上述した情報処理装置1300または配信ユーザ端末2100として機能するものであり、第二ユーザ端末200は、少なくとも上述した一以上の視聴ユーザ端末1100,2200として機能するものであり、サーバ装置400は、少なくとも上述した所定のサーバ装置または情報処理装置2400として機能するものである。
本開示において第一ユーザ端末100および第二ユーザ端末200は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ(HMD)、眼鏡型のウェアラブル端末(ARグラス等)等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置とすることができる。また、これら端末は、単独で動作するスタンドアロン型の装置であってもよく、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。
<ハードウェア構成>
ここで、図4を用いて、第一ユーザ端末100のハードウェア構成について説明する。第一ユーザ端末100は、プロセッサ101と、メモリ102と、ストレージ103と、入出力インターフェース(入出力I/F)104と、通信インターフェース(通信I/F)105とを含む。各構成要素は、バスBを介して相互に接続される。
第一ユーザ端末100は、プロセッサ101と、メモリ102と、ストレージ103と、入出力I/F104と、通信I/F105との協働により、本実施形態に記載される機能、方法を実現することができる。
プロセッサ101は、ストレージ103に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ101は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
メモリ102は、ストレージ103からロードしたプログラムを一時的に記憶し、プロセッサ101に対して作業領域を提供する。メモリ102には、プロセッサ101がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。
ストレージ103は、プログラムを記憶する。ストレージ103は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。
通信I/F105は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F105は、ネットワーク300を介して、他の情報処理装置との通信を実行する。通信I/F105は、各種データをプロセッサ101からの指示に従って、他の情報処理装置に送信する。また、通信I/F105は、他の情報処理装置から送信された各種データを受信し、プロセッサ101に伝達する。
入出力I/F104は、第一ユーザ端末100に対する各種操作を入力する入力装置、及び、第一ユーザ端末100で処理された処理結果を出力する出力装置を含む。入出力I/F104は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。
入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ101に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。
入力装置は、センサユニットを含むことができる。センサユニットは、ユーザの表情の変化を示すフェイスモーション、及びセンサユニットに対するユーザの身体の相対位置の変化を示すボディモーションを検出する1以上のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニットは、公知の物を使用することができる。センサユニットの一例は、ユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサ、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニットは、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LiDAR」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニットの演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。
また、センサユニットは、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。センサユニットは、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサ、をさらに含むものであってもよい。センサユニットは、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニットの画像処理部は、本発明の情報処理システムが具備可能な制御部が備えていてもよい。
入力装置としての操作部は、ユーザ端末の種類に応じたものを用いることができる。操作部の一例は、ディスプレイと一体化されたタッチパネルや、ユーザ端末の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示要求等の各種操作を実行したりすることができる。なお、センサユニットがハンドトラック機能等の入力インターフェース機能も有する場合には、操作部は省略可能である。
出力装置は、プロセッサ101で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。
なお、本明細書中に記載されている構成要素により実現される機能は、当該記載された機能を実現するようにプログラムされた、汎用プロセッサ、特定用途プロセッサ、集積回路、ASICs (Application Specific Integrated Circuits)、CPU (a Central Processing Unit)、従来型の回路、および/又はそれらの組合せを含む、circuitry又はprocessing circuitryにおいて実装されてもよい。プロセッサは、トランジスタやその他の回路を含み、 circuitry又はprocessing circuitryとみなされる。プロセッサは、メモリに格納されたプログラムを実行する、programmed processorであってもよい。
本明細書において、circuitry、ユニット、手段は、記載された機能を実現するようにプログラムされたハードウェア、又は実行するハードウェアである。当該ハードウェアは、本明細書に開示されているあらゆるハードウェア、又は、当該記載された機能を実現するようにプログラムされた、又は、実行するものとして知られているあらゆるハードウェアであってもよい。
当該ハードウェアがcircuitryのタイプであるとみなされるプロセッサである場合、当該circuitry、手段、又はユニットは、ハードウェアと、当該ハードウェア及び又はプロセッサを構成する為に用いられるソフトウェアの組合せである。
また、本開示における第二ユーザ端末200およびサーバ装置400についても、特筆すべき場合を除き、図4と同様のハードウェア構成で構成されることができる。
続いて、本開示の実施形態における情報処理システムにより実現されるアプリケーションを起動したユーザ端末において実行可能な各種機能、および、表示される画面の遷移について図面を参照しながら説明する。
図5は、動画の配信・視聴アプリケーションを起動した際にユーザ端末(ここでは未だユーザが視聴/配信を行うか否かは特定されない)に表示されるトップ画面T10を示したものである。
図5に示されるように、ユーザは、トップ画面T10においておすすめタブT11内で一覧表示されるおすすめの一以上の配信チャンネルT12のサムネイル画像の中から一の配信チャンネル(配信枠、配信番組、配信動画などと呼ばれる)を選ぶことにより、当該一の配信チャンネルで再生される動画を視聴することができる。
あるいは、ユーザは、特定の一の配信チャンネルの固定リンクへアクセスすることにより、当該特定の一の配信チャンネルで再生される動画を視聴することができる。かかる固定リンクは、フォロー中の第一のユーザからのお知らせ、または、他のユーザから送られたシェアの通知などにより得ることができる。
このように、動画を視聴するユーザは視聴ユーザとなり、動画を視聴する端末は第二ユーザ端末200となる。
また、図5に示すように、トップ画面T10にはキャンペーンやイベントなどのお知らせの表示欄T13が表示されてもよい。このお知らせの表示欄T13は、スライド操作により他のお知らせへの表示の切り替えが可能である。
そして、トップ画面T10からは、フォロータブT14、ゲームカテゴリを表示するためのゲームタブT15、コラボ待ちの配信チャンネルを表示するためのコラボ待ちタブT16、ビギナーの配信チャンネルを表示するためのビギナータブT17が表示される。これらを選択することにより(タブを切り替えることにより)、トップ画面T10からそれぞれ別の画面へと遷移する。
なお、トップ画面T10の上部枠のサービス名表示T18および検索ボタンT19については、遷移先の画面で固定して表示されたままとしてもよい。
同様に、トップ画面T10の下部枠のホームボタンT20、メッセージボタンT21、配信準備ボタンT22、ガチャボタンT23、プロフィールボタンT24についても、遷移先の画面で固定して表示されたままとしてもよい。
図5に示したトップ画面T10等において、表示されているサムネイル画像T12を選択したユーザは、上述したように動画を視聴する視聴ユーザ(第二のユーザ)となり、配信準備ボタンT22を選択したユーザは、動画を配信する配信ユーザ(第一のユーザ)となりうる。
一例として、図5に示したトップ画面T10において配信準備ボタンT22を選択すると、図6に示すアバタ設定画面D10へと遷移する。そして、アバタ設定画面D10において配信ボタンD11を選択すると、図7に示す配信設定画面D20へと遷移する。そして、配信設定画面D20において配信開始ボタンD25を選択すると、図8に示すアバタ配信画面D30へと遷移する。
続いて、動画の配信を開始するまでのフローの詳細について説明を行う。
本開示における一又は複数のコンピュータプロセッサは、配信開始要求受付部と、配信設定部と、配信開始部とを備えることができる。
配信開始要求受付部は、第一のユーザの第一ユーザ端末から、キャラクタオブジェクトのアニメーションを含む第一の動画の配信開始要求を受け付ける。
ここでは、第一の動画は、キャラクタオブジェクトのアニメーションを含む動画のことをいう。なお、本明細書において、キャラクタオブジェクトのことを「アバタ」と呼ぶ場合がある。
そして、上記配信開始要求は、上記動画配信プラットフォームにアクセスするための専用のアプリケーション(動画の配信・視聴アプリケーション)を起動したユーザ端末(後に第一ユーザ端末となる)に表示される上述したトップ画面から遷移したアバタ設定画面D10等に配置される配信ボタンD11を選択することにより、ユーザ端末からサーバ装置400に送信されるものとすることができる。
図6は、アバタ設定画面D10の一例を示したものである。アバタ設定画面D10には、キャラクタオブジェクトCO、配信ボタンD11、ガチャボタンD12、着替えボタンD13、フォトボタンD14等が表示されることができる。
ユーザによって着替えボタンD13が選択されると、キャラクタオブジェクトCOの目、鼻、口、髪、アクセサリ、洋服、背景などの各種アバタパーツを選択するためのクローゼット画面が展開する。
ユーザによってガチャボタンD12が選択されると、上記アバタパーツを入手するための抽選画面が展開する。
ユーザによってフォトボタンD14が選択されると、キャラクタオブジェクトの静止画を撮影するための撮影画面が展開する。
そして、ユーザによって配信ボタンD11が選択されると、サーバ装置400に対して配信開始要求が送信される。
配信設定部は、配信開始要求受付部が受け付けた第一の動画の配信開始要求に応じて、第一の動画の配信設定を第一ユーザ端末100からの指定に基づいて設定する。
一例として、上記配信ボタンD11が選択されると、第一ユーザ端末100に表示される画面は、図6に示したアバタ設定画面D10から図7に示す配信設定画面D20へと遷移する。
配信設定には、第一の動画のタイトルに関する設定、第一の動画への他のユーザの出演可否に関する設定、および、第一の動画へ出演可能な人数に関する設定、パスワードに関する設定の少なくとも一つが含まれることができる。
これらの配信設定は、それぞれ図7におけるタイトル設定欄D21、コラボ可否設定欄D22、人数設定欄D23、パスワード設定欄D24において設定が可能である。なお、図7では、さらに、誰でもコラボ可否設定欄D26、SNS投稿可否欄D27が表示されている。
第一の動画のタイトルは、許容される上限までの文字数の範囲において配信ユーザが自由に決定することができるものである。なお、配信ユーザによる入力が無い場合には「〇〇〇の配信だよ♪」等の、キャラクタオブジェクト(配信ユーザ)の名前を含む、予め設定されたタイトルが自動的に決定されるものとしてもよい。
第一の動画への他のユーザの出演可否は、第一のユーザが自由に決定することができるものである。可の場合には、他のユーザは配信ユーザに対して出演申請を行うことが可能であり、否の場合には、他のユーザは配信ユーザに対して出演申請を行うことができない。第一のユーザの動画に他のユーザが出演している状態を、本明細書では「コラボ」と呼ぶことがある。コラボについての詳細は後述する。
第一の動画へ出演可能な人数は、前述した第一の動画への他のユーザの出演が可の場合にのみ設定が可能であり、許容される上限までの人数の範囲において配信ユーザが自由に決定することができるものである。
パスワードは、前述した第一の動画への他のユーザの出演が可の場合にのみ任意で設定が可能であり、指定された桁数の数字を配信ユーザが自由に決定することができるものである。他のユーザが第一の動画への出演申請を行う際、かかるパスワードの入力が要求される。なお、誰でもコラボ可否設定欄D26がOFFの場合にのみ、パスワード設定欄D24がアクティブとなる構成としてもよい。
配信開始部は、配信設定部により設定された条件に基づいて、第一の動画に関する情報を、視聴ユーザの第二ユーザ端末200に配信する。
かかる配信の開始指示は、図7に示した配信開始ボタンD25の選択により送信される。
一例として、配信開始部は、第一のユーザのキャラクタオブジェクトのアニメーションを含む動画(第一の動画)に関する情報を、第二のユーザの第二ユーザ端末200に配信する(アバタ配信する)。
第一の動画に関する情報には、例えばキャラクタオブジェクトの動作を示すモーション情報や、第一のユーザの音声情報や、他の視聴ユーザから送られたギフトを示すギフトオブジェクト情報などが含まれる。そして、ギフトオブジェクト情報は、少なくとも、ギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。
そして、配信開始部は、上述した動画配信プラットフォームを介して動画をライブ配信することができる。
図8は、第一ユーザ端末100に表示されるアバタ配信画面D30を示したものである。
アバタ配信画面D30には、キャラクタオブジェクトCOが表示される他、配信ユーザがコメントを入力するためのコメント入力ボタンD31、画面の静止画を保存するためのフォトボタンD32、後述するゲームをプレイするためのプレイ開始ボタンD33、外部サービスにより提供される動画を視聴するための外部サービス連携ボタンD34、アバタパーツを入手するためのガチャボタンD12が表示されることができる。
また、アバタ配信画面D30の上部には累計視聴者数表示D35、累計いいね数表示D36、コラボ人数表示D37、外部SNSへのシェアボタンD38、ゲスト詳細ボタンD39、ランキング表示ボタンD40、設定ボタンD41、音声のON/OFFを切り替えるための音声切替ボタンD42が表示されることができる。また、配信を終了するための終了ボタンD43も表示される。
これらの表示およびボタンの詳細な説明は省略するが、設定ボタンD41の選択により、配信設定画面D20で設定した配信設定の変更を行うことが可能である。
なお、図8は、配信設定画面D20において、第一の動画への他のユーザの出演を可、第一の動画へ出演可能な人数を3人として配信を開始した例を示したものであるため、キャラクタオブジェクトCOは左下に寄った状態で表示されている。空いている空間には他のユーザのキャラクタオブジェクトが3人まで出演可能な状態である。
以上が、本開示における発明のアバタ配信を行う際の画面遷移の説明である。
続いて、配信ユーザが配信中にゲームを行う際の画面遷移について説明を行う。
本開示における一又は複数のコンピュータプロセッサは、ゲーム要求受付部と、ゲーム動画配信部と、ゲーム表示処理部とを備えることができる。
配信ユーザは、図8に示したようなアバタ配信の最中に、プレイ開始ボタンD33を選択することによりゲームのプレイ開始要求を行うことが可能である。
なお、プレイ開始ボタンD33の選択により表示されるゲームは、本開示における情報処理システムにより実現されるアプリケーションに実装される専用のゲームであり、外部サービスにより提供される汎用的なゲームとは異なるものとすることができる。よって、本開示におけるゲーム配信は、外部サービスにより提供される汎用的なゲームのプレイ動画を配信ユーザの実況と共に配信するものとは区別されるものとしてもよい。
あるいは、プレイ開始要求は、第一のユーザの第一ユーザ端末100に表示される所定の画面に配置されるプレイ開始ボタンを選択することにより、第一ユーザ端末100からサーバ装置400に送信されるものとすることができる。
図9は、上記所定の画面として、プレイ開始ボタンG11が配置された画面G10の一例を示したものである。図9に示す画面G10は、本開示における情報処理システムにより実現されるアプリケーションを起動したユーザ端末に表示されるトップ画面T10(図5)から、ゲームタブT15の選択により遷移してきた画面である。
画面G10には、少なくとも、所定のゲームのプレイ開始要求を送信可能なプレイ開始ボタンG11が表示される。
そして、ゲーム要求受付部が所定のゲームのプレイ開始要求を受け付けた場合、ゲーム動画配信部は、第二の動画に関する情報を第二ユーザ端末200に配信する。
ここで、第二の動画は、所定のゲームのプレイ動画である。本明細書において、かかる動画が第二ユーザ端末200の画面に表示されるよう配信を行うことを「ゲーム配信」と呼ぶ。
また、ユーザは、本開示の発明により実現されるアプリケーションの起動後、ゲーム一覧画面およびゲーム詳細画面に配置されるプレイ開始オブジェクトを選択することにより、第一のユーザとして、第二の動画の配信開始要求を情報処理装置2400に送信することができる。
これらゲーム一覧画面またはゲーム詳細画面は、次に詳説する第一の画面である。
すなわち、ゲーム表示処理部は、配信開始要求を送信可能な配信開始オブジェクト、所定のゲームのプレイ開始要求を送信可能なプレイ開始オブジェクト、および、所定のゲームのプレイ動画を配信中の動画のサムネイル画像を含む第一の画面の表示処理を行う。
図9において示した画面G10は、当該第一の画面のうちゲーム一覧画面に相当する。ゲーム一覧画面である第一の画面は、トップ画面T10から、ゲームタブT15の選択により遷移してきた画面である。
かかる第一の画面には、配信開始オブジェクトとしての配信準備ボタンT22、プレイ開始オブジェクトとしてのプレイ開始ボタンG11、および、動画の配信チャンネルを示すサムネイル画像が含まれる。
第一の画面には、プレイ可能な複数のゲームごとに、プレイ開始ボタンG11、ゲームアイコンG12、ゲーム名G13、当該ゲームの配信チャンネルの総視聴者数G14、そしてゲーム配信中の配信チャンネルのサムネイル画像を含む配信リストG15がそれぞれ表示されている。
なお、ここで表示される配信リストG15に表示されるサムネイル画像の順序は、視聴ユーザによって表示を異ならせることができる。一例として、順序は、視聴ユーザがフォローしている、かつ、その視聴ユーザによる視聴回数が多い順、累計視聴者数が多い順、配信開始が古い順、の優先順位で並べられている。なお、この配信リストG15のサムネイル画像は横スクロールにより表示範囲の変更が可能であるものとする。
また、このゲーム一覧画面に表示されるゲームは、以下の優先度の上位10タイトルを読み込むものとする。一例として、優先度は、ゲーム配信開始日時から48時間以内、視聴ユーザが30日以内で最後にプレイした日付の新しい順、期間IDの優先度の高い順、期間IDの降順、により定められている。
この配信リストG15は、他のタブの画面から戻ってきた場合、および、更新操作(Pull-to-Refresh)を行った際に更新されるものとする。
そして、図10は、第一の画面のうちゲーム詳細画面に相当する。ゲーム詳細画面である第一の画面は、図9に示したゲーム一覧画面に表示されたゲームアイコンG12またはゲーム名G13を選択することにより遷移してきた画面でG20である。
かかる第一の画面には、配信開始オブジェクトである配信準備ボタンT22、プレイ開始オブジェクトであるプレイ開始ボタンG21、および、動画の配信チャンネルを示すサムネイル画像が含まれる。
また、第一の画面には、ゲームアイコンG22、ゲーム名G23、当該ゲームの配信チャンネルの総視聴者数G24、そしてゲーム配信中の配信チャンネルのサムネイル画像を含む配信リストG25がそれぞれ表示されている。
なお、ここで表示される配信リストG25に表示されるサムネイル画像の順序は、視聴ユーザによって表示を異ならせることができる。一例として、順序は、視聴ユーザがフォローしている、かつ、その視聴ユーザによる視聴回数が多い順、累計視聴者数が多い順、配信開始が古い順、の優先順位で並べられている。なお、この配信リストG25のサムネイル画像は縦スクロールにより表示範囲の変更が可能であるものとする。
この配信リストG25は、他のタブの画面から戻ってきた場合、および、更新操作(Pull-to-Refresh)を行った際に更新されるものとする。
上述したように、配信開始オブジェクト(配信準備ボタンT22)またはプレイ開始オブジェクト(プレイ開始ボタンG11,21)を選択したユーザは、配信開始要求またはプレイ開始要求を行う第一のユーザとなる。
また、サムネイル画像を選択したユーザは、第二の動画を視聴する第二のユーザとなる。
また、第一の画面は、スクロール操作が不可能な第一の領域と、スクロール操作が可能な第二の領域とを含む。
ここでいう第一の画面は図10に示す第一の画面とする。そして、第一の画面は、第一の領域R1と第二の領域R2とを含む。具体的には、第一の領域R1には、ゲームタイトルが表示され、第二の領域R2には上述したプレイ開始ボタンG21、ゲームアイコンG22、ゲーム名G23、視聴者数G24、そして配信リストG25が表示されている。
そして、第一の領域R1はスクロール操作が不可能な、表示画面上で固定表示される部分であり、第二の領域R2はユーザによってスクロール操作が可能な部分である。第二の領域R2をスクロールすることにより、ユーザは画面外に隠れたサムネイル画像を確認することができるようになる。
ところが、第二の領域のスクロールによってプレイ開始ボタンG21が画面外へ隠れてしまうおそれがあるため、本開示における表示処理部は、第二の領域R2に表示されたプレイ開始オブジェクト(プレイ開始ボタンG21)の表示状態に応じて、第一の領域R1にプレイ開始オブジェクト(プレイ開始ボタンG21)を表示させることができる。
一例として、図10ではプレイ開始ボタンG21は第二の領域R2に表示されるが、図11では第一の領域R1に表示される。すなわち、プレイ開始ボタンG21の一部またはすべてが第二の領域R2に表示されなくなると、プレイ開始ボタンG21が第一の領域に出現するようにしたものである。
また、ゲーム表示処理部は、第二の領域R2に表示されたプレイ開始オブジェクトの表示状態に応じて、第一の領域R1にプレイ開始オブジェクトを段階的に表示させてもよい。
かかる表現は、第二の領域R2のスクロール量に合わせてプレイ開始オブジェクトの透明度を変化させることにより実現することができる。
一例として、スクロール量(単位はピクセル)0~50をボタンの透明度0.0(完全に透明)~1.0(完全に不透明)に対応させる。すると、初期表示状態ではオブジェクトは完全に透明なので見えず、50ピクセル以上スクロールするとオブジェクトが完全に表示されるようになる。その間(0~50)はオブジェクトの透明度を線形に変化させるのが好ましい。なお、スクロール量の単位は論理ピクセルであって、ディスプレイの実際のピクセルとは異なってもよい。
また、ゲーム要求受付部は、ゲーム動画配信部による第二の動画に関する情報の配信後、第一ユーザ端末100からの所定のゲームのプレイ終了要求を受け付け可能であるものとする。
プレイ終了要求は、ゲーム画面に配置された終了ボタンの選択により送信することができる。
そして、ゲーム要求受付部が所定のゲームのプレイ終了要求を受け付けた場合、配信開始部は、第二の動画に関する情報の配信を終了し、第一の動画に関する情報を配信することができる。
すなわち、ここで配信されるのは第一の動画の情報の一部ではなく、第一の動画の情報の全てである。
そして、配信開始部が、第二の動画に関する情報の配信を終了し、第一の動画に関する情報を配信した場合に、第二ユーザ端末200に表示されるのは、第一の動画であるものとする。
続いて、動画の視聴を開始するためのフローについて説明を行う。
本開示における一または複数のプロセッサは、さらに、視聴受付部を備えることができる。
視聴受付部は、ユーザからの動画の視聴要求を受け付ける。
上記配信開始部は、視聴要求に応じて、ユーザの情報処理端末に、動画情報として映像および音声に関する情報を配信する。
図12は、第二ユーザ端末200に表示されるアバタ動画の視聴画面V10を示した例である。
視聴ユーザは、コメント入力欄V11にテキストの入力を行い、送信ボタンV12を押すことでコメントを投稿することができる。
また、ギフトボタンV13を押すことで視聴ユーザにはギフトの一覧(図13の画面V30)が表示され、選択により指定したギフトの表示要求を送信することができる。
このとき、本開示における一又は複数のプロセッサは、判定部を備えることができる。判定部は、第二ユーザ端末200からギフトの表示要求があったか否かを判定する。
表示要求には、ギフトオブジェクト情報が含まれることができる。ギフトオブジェクト情報は、少なくともギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。
また、図13に示されるように、ギフトは分類(無料(有料)ギフト、アクセサリ、応援グッズ、アピール、バラエティ等)ごとに分けて表示されることができる。
ここで、有料ギフトとは、視聴ユーザが購入したマイコインの消費により購入可能なギフト(コインギフト)であり、無料ギフトとは、視聴ユーザが無料で入手したマイポイントの消費または消費なしで入手可能なギフト(ポイントギフト)である。
なお、本出願において用いられる「ギフト」という用語は、「トークン(token)」という用語と同様の概念を意味する。したがって、「ギフト」という用語を「トークン(token)」という用語に置き換えて、本件出願に記載された技術を理解することも可能である。
また、視聴ユーザは、いいねボタンV14を押すことで好意を示す評価を投稿することができる。なお、いいねボタンV14に加えて/代えて、否定的な評価やその他の感情を投稿するボタンを表示することも可能である。
また、第一のユーザが配信設定で他のユーザの出演可否を可に設定している場合、コラボ申請ボタンV15を選択することで動画への出演申請を送信することができる。
また、第二のユーザが未だフォローしていない第一のユーザが配信する動画の画面には、第二のユーザが配信ユーザをフォローするためのフォローボタンV16が表示される。このフォローボタンは、第二のユーザが既にフォローしている第一のユーザが配信する動画の画面では、フォロー解除ボタンとして機能する。
なお、この「フォロー」は第二のユーザから他の第二のユーザへ、第一のユーザから第二のユーザへ、第一のユーザから他の第一のユーザへ行われるものであってもよい。ただし、フォローは一方向のみの関連付けとして管理され、逆方向の関連付けはフォロワーとして別に管理されるものとする。
また、画面の静止画を保存するためのフォトボタンV25も表示されることができる。
また、視聴画面V10には、応援ランキング表示ボタンV17、シェアボタンV18、ランキング表示ボタンV19も表示される。
応援ランキングは、第一のユーザを応援している第二のユーザのランキングを表示するものであり、ランキングはギフトの額(ポイント/コイン)等に応じて算出されることができる。
また、動画のシェアに関し、第二のユーザはシェアボタンV18を押すことでシェア可能なSNS(ソーシャル・ネットワーキング・サービス)一覧を確認し、選択により指定したSNSの指定した場所に固定リンクを送信することができる。
また、コラボ申請ボタンV15を押すことで第一のユーザに対してコラボ配信をリクエストすることができる。コラボ配信とは、第一のユーザの配信動画に第二のユーザのキャラクタオブジェクトを登場させることをいう。
視聴画面V10の上部には、配信ユーザアイコンV21、配信ユーザ名(キャラクタオブジェクト名)V22、累計視聴者数表示V23、累計いいね数表示V24が表示されることができる。
また、視聴終了ボタンV20を選択すると、視聴を終了するための画面が展開し、視聴終了要求を送信することができるようになる。
かかる視聴を終了するための画面について、詳細に説明する。かかる画面は、「小窓音声配信」と呼ばれ、動画の映像は表示させに音声のみを再生する態様での視聴を行うためのものである。
上記視聴終了ボタンV20の選択は、動画の視聴終了要求として視聴受付部によって受け付けられる。
このとき、配信開始部は、視聴終了要求に応じて、映像に関する情報の配信を終了する一方で、音声に関する情報の配信は終了させない。
そして、ユーザ端末において、映像および音声に関する情報が配信されている場合には、ユーザ端末には映像が主画面に表示され、音声に関する情報のみが配信されている場合には、ユーザ端末には映像は表示されず動画を視聴中であることを示す副画面が表示されることを特徴とする。
図14は、上記副画面V51が表示された画面V50のイメージを示したものである。
この副画面V51が表示される際、バックに表示される主画面は動画を視聴する前の画面へと遷移する。例えば、おすすめタブから視聴枠へ移動した場合にはおすすめタブの表示へと戻り、フォロータブから視聴枠へ移動した場合にはフォロータブへと遷移する。
この副画面V51が表示されている場合、主画面での操作が可能となり、他の画面への遷移が可能となる。
副画面V51には、プロフィール画像、名前、タイトルおよび、音声が流れていることが視覚的に識別可能な音声アイコンが表示される。
そして、副画面V51に表示された終了アイコンV52の選択により、視聴を完全に終了させることができる。
なお、映像の表示の終了については、サーバ装置から情報は送信するものの端末側で表示をしないものとしてもよいし、サーバ装置から情報の送信自体を停止するものとしてもよい。
かかる構成によれば、音声のみ聞きながら他の配信を探したり、他のユーザとのチャットを楽しんだりすることができるようになる。
続いて、第一のユーザの動画に他のユーザが出演する「コラボ」について説明する。
上述したとおり、第二のユーザは、図12に示すコラボ申請ボタンV15を押すことで表示されるコラボ配信参加リクエストの確認画面を経て、上記動画への参加要求を送信することができる。
本開示における一又は複数のコンピュータプロセッサが備えるコラボアバタ表示部は、受け付けた参加要求に応じて、当該参加要求を行った視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトを動画に表示させる。
図15は、一例として、ホストユーザのキャラクタオブジェクトである第1のアバタCO3が表示された動画に、ゲストユーザのキャラクタオブジェクトである第2のアバタCO4が参加している場合の視聴または配信画面を示したものである。なお、図15ではアバタ以外のオブジェクトの表示については省略されている。
また、図16に示すように、さらに、別の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第3のアバタCO1が動画に参加してもよい。なお、図16では第3のアバタCO1が、第1のアバタCO3およびCO4のアバタA2の後方に配置されているが、3人が横一列に並ぶように配置されてもよい。また、アバタの配置位置は配信ユーザが指定できるようにしてもよい。
図17は、図5に示したトップ画面のフォロータブT14の選択により表示される、相互フォロー関係を有するユーザの一覧画面T30を示したものである。相互フォローとは、互いに相手をフォローしている関係をいう。
この一覧画面T30には、相互フォロー関係を有するユーザのプロフィール画像および名前が表示されている。
図17に示されるように、一覧画面T30には、相互フォロー関係を有するユーザの各々に対して第一のオブジェクトT31が表示されるものとする。また、第一のオブジェクトT31とともに、チャットオブジェクトT32が表示されるものとしてもよい。このチャットオブジェクトを選択することにより、第二ユーザとの個別のチャット画面へと遷移することができる。
第一のオブジェクトT31は、当該第一のオブジェクトT31に関連付けられたユーザの端末に対して、所定の通知を送信する。
所定の通知は、一例として、呼び出し通知とすることができる。
続いて、本開示の実施形態におけるビデオチャットを実行するためのフローの詳細について説明を行う。
一例として、ユーザは、個別のチャット画面またはグループのチャット画面からビデオチャットを実行することが可能である。
これらのチャット画面は、例えば、トップ画面T10(図5)のメッセージボタンT21を選択することにより展開したチャット一覧画面C10(図18)から遷移することができる。
図18に示すチャット一覧画面C10には、過去にメッセージ(チャット)の送信および/または受信を行ったことがあるユーザ(キャラクタオブジェクト)のアイコンまたはグループのアイコンが名前または名称とともに表示されている。なお、グループのアイコンはグループに参加するユーザ(キャラクタオブジェクト)のアイコンを含むものとすることができる。
そして、ユーザは、上記チャット一覧画面C10において一のユーザまたはグループを選択し、個人のチャット画面C20(図19)またはグループのチャット画面を開き、ビデオチャットボタンC21を選択することによりビデオチャットを開始することができる。
また、チャット一覧画面C10の編集ボタンC11を選択することにより表示されるチャット作成ボタンC12またはグループ作成ボタンC13を選択することにより(図20)、チャット一覧画面C10には表示されていないユーザまたはグループのチャット画面を作成することができる。
図21は、チャット作成ボタンC12を選択した場合に展開するユーザ選択画面C30であり、表示されているおすすめユーザまたは検索欄C31を用いて検索されたユーザとのチャット画面が表示/生成される。生成されたチャット画面の構成は図19に示したチャット画面C20と同様であり、ビデオチャットボタンC21を選択することによりビデオチャットを開始することができる。
同様に、図22は、グループ作成ボタンC13を選択した場合に展開するグループ作成画面C40である。ユーザは、ユーザ追加ボタンC41を選択することにより自分以外のユーザをグループメンバとして追加することができる。追加できるグループメンバの数は一例として7名までとする。また、グループ名の設定もこの画面で行うことができる。
グループが作成されると、グループのチャット画面C50が表示される(図23)。グループのチャット画面C50においても、ビデオチャットボタンC51を選択することによりビデオチャットを開始することができる。
なお、上記チャット画面C20は、フォローの一覧画面T30(図17)のチャットオブジェクトT32から遷移することもできる。
また、他のユーザのプロフィール画面にもチャットアイコンが配置されることができ、ユーザは多様なページからチャット画面へと遷移し、ビデオチャットを開始することができる。
なお、ビデオチャットが開始されると、相手方へ通知が送信され、相手方は、かかる通知に応答することによりビデオチャットへと参加が可能となる。かかる通知の受け取り可否はユーザにより設定することができる。
また、相互フォロー関係にあるユーザとのビデオチャットのみ実行できる構成としてもよい。このとき、相互フォロー関係にあるユーザが他のユーザとビデオチャット中であることを示すアイコンをフォロー一覧画面に表示し、かかるアイコンを選択することによりかかる開催中のビデオチャットに参加できる構成としてもよい。
本開示におけるビデオチャットは、上述したコラボ配信を、特定のユーザのみが視聴できる機能であるということができる。ここでいう特定のユーザとは、ビデオチャットに参加しているユーザを指すものとする。
続いて、本開示における仮想空間の広がりのイメージについて図24を参照しながら説明する。
図24に一例として示されるように、本実施形態における仮想空間は、円盤状の島(ワールド)が宙に浮いているように配置されている。この島は、タワー状のケーキの天地を逆にした態様のオブジェクトであり、円盤状の地面に様々なオブジェクトが配置される構成とすることができる。なお、この島や地面は一例として示されたものであり、これらの表示態様は特に限定されない。
オブジェクトとしては、少なくとも、第一のユーザのキャラクタオブジェクトCO、第二のユーザから表示要求がなされたギフトに対応するギフトオブジェクトG1、および、サーバ装置400(システム側)で表示位置および表示タイミングを制御するオブジェクトS1が表示されることができる。
ユーザ操作によりキャラクタオブジェクトをワールド内で移動およびジャンプ等させることが可能であり、かかる機能は、一例として、上述したゲームの一つとして提供されることができる。本開示において、これを特別に「ワールド配信」と呼び、上述したゲーム配信の開始および終了手順を適用する。
具体的には、通常配信(アバタ配信)からワールド配信への切り替えは、アバタ配信の動画に表示されたゲームのプレイ開始ボタンD33(図8)または当該プレイ開始ボタンD33の選択により遷移した先の画面において表示されるゲーム一覧の中から選択した一のゲームのプレイボタンG11,G21(図9,図10)を選択することにより行うことができる。
また、ワールド配信からアバタ配信への切り替えは、ワールド配信の動画に表示されたプレイ終了ボタンを選択することにより行うことができる。
続いて、本開示における実施形態にかかる情報処理システム3000において実行可能な各種機能について図面を参照しながら説明する。
本開示の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図25に示されるように、受信部410、送信部420、解析部430および表示制御部440を備える。
受信部410は、第一のユーザの第一ユーザ端末100から送信される、少なくとも当該第一のユーザの音声に関する音声情報を受信するものである。
上記音声情報には、一例として、第一ユーザ端末100が備える、または、第一ユーザ端末100に接続されたマイクによって収音された第一のユーザによる発声に応じた音声、および/または、当該第一のユーザによる発声以外の他の音声に関する情報が含まれることができる。
他の音声とは、例えば、環境音や他のユーザの発声などである。発声がユーザによるものなのか、他のユーザによるものなのかについては公知の音声認識技術を用いることで識別することができる。また、環境音には、テレビの音、インターフォンの音、電話の呼び出し音、動物の鳴き声の音、駅のアナウンスの音、電車・車・バイク等の音、複数の人物の話し声の音などが含まれる。
送信部420は、第一のユーザに関する動画を、第一ユーザ端末100および/または第二のユーザの第二ユーザ端末200に表示させるための情報を、当該第一ユーザ端末100および/または第二ユーザ端末200に送信するものである。
一例として、第一のユーザに関する動画は、第一のユーザのキャラクタオブジェクトまたは第一のユーザの実画像が表示される動画、または、これらキャラクタオブジェクトや第一のユーザの実画像は表示されず、第一のユーザの声のみを含む動画とすることができる。
また、第一ユーザ端末100に表示される動画と、第二ユーザ端末200に表示される動画とは、少なくとも一部が異なるものとすることができる。
また、上述したように、動画を表示させるための情報とは、サーバ装置400においてレンダリング済みの動画をクライアント端末(第一ユーザ端末100および/または第二ユーザ端末200)において表示させるための情報および/またはクライアント端末において動画をレンダリングするための情報を含むものとする。また、動画の一部をサーバ装置でレンダリングし、動画のその他の部分をクライアント端末でレンダリングするものとしてもよい。
解析部430は、受信部410が受信した音声情報に基づいて、音声に特定のワードが含まれるかを解析するものである。
特定のワードに関する情報は、上記一又は複数のコンピュータプロセッサが備える所定の記憶装置、または、情報処理システム3000に接続可能な所定の記憶装置に予め記憶されているものとすることができる。
図26は、所定の記憶装置に記憶される特定のワードに関するデータ構成のイメージを示したものである。
図26に示されるように、所定の記憶装置には、特定のワードと表示制御情報とが関連付けて記憶されている。
表示制御情報には、一例として、特定のワードに対応する行動に必要な操作を行うための操作オブジェクト(制御対象)に関する情報と、当該操作オブジェクトに対する制御情報(制御内容)に関する情報とが含まれるものとするが、これらに限られず他の情報を含むものとしてもよい。
例えば、特定のワード「ガチャ」に対しては、ガチャの実行に必要な操作を行うための「ガチャボタン」という操作オブジェクトと、当該ガチャボタンを「出現」または「強調表示」するという制御内容が関連付けられている。
一例として、特定のワードには、第一ユーザ端末100における操作を要する行動に関連するワード、第二ユーザ端末200における操作を要する行動に関連するワード、要求に関連するワード、特定のアイテムに関連するワード、現実空間の事象に関連するワード、動画に表示された特定のテキストに含まれるワード、および/または、第一ユーザ端末100において設定されたワードなどが含まれるが、これら例示したワードに限られるものではない。
第一ユーザ端末100における操作を要する行動に関連するワードとは、例えば、ガチャ等の抽選実行やイベント参加など、第一のユーザが第一ユーザ端末100において操作を要する行動に関連するワード(一例として、「ガチャ」、「イベント」等を示すワード)とすることができる。詳細については後述する。
第二ユーザ端末200における操作を要する行動に関連するワードとは、例えば、ギフティングやコメントの投稿など、第二のユーザが第二ユーザ端末200において操作を要する行動に関連するワード(一例として、「ギフト」、「コメント」等を示すワード)とすることができる。詳細については後述する。
要求に関連するワードとは、例えば、第一ユーザの要求(欲求)を表すワード(一例として、「お腹が空いた」、「眠い」等を示すワード)とすることができる。詳細については後述する。
特定のアイテムに関連するワードとは、例えば、第一ユーザ端末100に関連付けられることが可能な電子アイテムを示すワード(一例として、「アクセサリ」、「洋服」等を示すワード)とすることができる。詳細については後述する。
現実空間の事象に関連するワードとは、例えば、天気や場所、日時を表すワード(一例として、「天気がいい」、「クリスマス」等を示すワード)とすることができる。詳細については後述する。
動画に表示された特定のテキストに含まれるワードとは、例えば、第一ユーザ端末100または第二ユーザ端末200から投稿されたコメント、あるいは、システムの運営側から投稿されたシステムコメントに含まれるワードとすることができる。詳細については後述する。
第一ユーザ端末100において設定されたワードとは、例えば、第一ユーザ端末100において選択または入力されたワード(一例として、合言葉、テーマ、キャッチフレーズ、クイズの答え等)とすることができる。詳細については後述する。
そして、解析部430は、音声情報に基づいて、上述した特定のワードが音声に含まれるか否かを解析する。
解析手法としては、公知の音声認識技術または将来の音声認識技術を適用することが可能であるが、一例として、音声情報から直接的に特定のワードが含まれるかを解析する手法や、音声情報をテキスト情報に変換してから特定のワードが含まれるかを解析する手法などが挙げられる。
また、解析部430は、上述した音声に特定のワードが含まれるか否かの解析に代えて、または、追加的に、音声情報に基づいて音声の内容を分析し、上述した特定のワードに相当する内容が含まれるか否かを解析するものとしてもよい。
この場合においても、分析および解析手法については公知の音声認識技術または将来の音声認識技術を適用することが可能である
そして、表示制御部440は、解析部430により解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行うものである。
上述したように、表示制御情報は、特定のワードに関連付けて所定の記憶装置に記憶されているものとする。
そして、動画の表示の制御を行うことには、動画内の少なくとも一部の表示を変更することが含まれる。
一例として、動画の表示の制御には、動画に所定のオブジェクトを出現させること、動画に表示されている所定のオブジェクトを強調して表示させること、動画に表示されている画面に代えてまたは追加的に別の画面を表示させること等が含まれるものとする。
例えば、図27に示されるように、アバタ配信に係る動画において、第一のユーザが「ガチャ引こうかな」等の発言をすると、動画に表示されたガチャボタンD12が光るよう表示の制御が行われる。
あるいは、図28に示されるように、アバタ配信に係る動画において、第一のユーザが「ガチャ引こうかな」等の発言をすると、動画にガチャを引くためのガチャオブジェクトD44が出現するよう表示の制御が行われる。
例えば、アバタ配信に係る動画において、第一のユーザが「あひるちゃんが欲しいな」等の発言をすると、図29に示されるように、第二ユーザ端末200の画面にギフト一覧の画面V30が展開し、対応するギフトの枠が他の枠とは異なる態様となるよう表示の制御が行われる。
同様に、図30に示されるように、ワールド配信に係る動画において、第一のユーザが「お腹が空いた」等の発言をすると、動画にショップオブジェクトD45が出現するよう表示の制御が行われる。
あるいは、図31に示されるように、ワールド配信に係る動画において、第一のユーザが「ハンバーガー食べたい」等の発言をすると、動画に広告オブジェクトD46が出現するよう表示の制御が行われる。
なお、上記動画の表示の制御の具体例は例示であって、これらに限定されるものではない。
以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
特に、上記構成によれば、第一のユーザの動画の配信意欲、第二のユーザの動画の視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。
具体的には、第一のユーザの動画内での発話に基づいて、適切な動画の表示の制御を行うことにより、動画のコンテンツとしての品質を向上させることができる。
この品質の向上に伴い、第二ユーザの動画の視聴意欲も向上し、これにより第一ユーザの動画の配信意欲も向上することになる。
特に、第一のユーザの動画内での発話に基づく表示の制御は、一例として、第一のユーザの操作および/または第二のユーザの操作のサポートおよびユーザ同士の交流のサポートとなる。
例えば、従来、第一のユーザが動画の配信中にガチャ等の抽選を実行したい場合、画面に表示されているガチャボタンなどの操作オブジェクトをタップし、さらに、遷移先の抽選画面で抽選ボタンをタップするといった操作が要求されるのが一般的である。
このとき、第一のユーザが、画面に表示された様々な操作オブジェクトの中から、目的の操作オブジェクトを探し出して選択することに集中してしまうと、動画における第一のユーザのトークが疎かになってしまうおそれがある。トークは動画の品質およびユーザ同士の交流に大きく寄与する部分であり、これが疎かになることは避けるべきである。特に、第一ユーザ端末として想定されるスマートフォン等の情報処理端末は画面が小さい傾向があるため、上記問題はより顕著である。
従来から、音声によってコンピュータを操作する技術は存在する。しかしながら、基本的に第一ユーザ端末から入力される音声がすべて第二ユーザ端末において再生されるような本技術分野において、音声操作用のワードを第一のユーザに発話させることはコンテンツの品質を下げてしまう場合がある。
一方、本開示における発明では、第一のユーザの自然なトークの中から自動的に特定のワードを認識することで、コンテンツとしての品質を下げずに、第一のユーザの操作および/または第二のユーザの操作のサポート、そして、ユーザ同士の交流のサポートを行うことが可能となる。
ここで、第一のユーザに関する動画は、上述したようにアバタ配信またはワールド配信に係る動画とすることができる。
ワールド配信において、第一のユーザに関する動画は、第一ユーザのキャラクタオブジェクトと、当該キャラクタオブジェクトが移動可能な仮想空間(メタバース)とを表示するものである。ワールド配信に係る動画の場合、第一のユーザおよび第二のユーザは各々のキャラクタオブジェクトが共にワールドにいるユーザ(配信ユーザ)であってもよいし、第二のユーザは単に視聴しているだけの視聴ユーザであってもよい。
また、アバタ配信に係る動画の場合、第一のユーザは配信ユーザであり、第二のユーザは視聴ユーザとなる。
ここで、第一のユーザに関する動画には、第一ユーザ端末100から送信される第一のユーザの動作に関する動作情報に基づいて動作する第一のユーザのキャラクタオブジェクトが表示されることができる。このとき、動作情報(モーションデータ)は、上述した受信部410が受信するものとする。
続いて、特定のワードが第一ユーザ端末100における操作を要する行動に関連するワードである場合について説明を行う。
第一ユーザ端末100における操作を要する行動に関連するワードとは、上述したように、例えば、ガチャ等の抽選実行やイベント参加など、第一のユーザが第一ユーザ端末100において操作を要する行動に関連するワード(一例として、「ガチャ」、「イベント」等を示すワード)である。
特定のワードは、単語であってもよいし、文章であってもよい。
このとき、表示制御情報は、動画または第一ユーザ端末100の画面に、行動に対応付けられた操作オブジェクトを出現、動画または第一ユーザ端末100の画面に表示された、行動に対応付けられた操作オブジェクトを強調して表示、および/または、行動に対応付けられた操作用画面を表示させるための情報とすることができる。
動画または第一ユーザ端末100の画面に行動に対応付けられた操作オブジェクトを出現させるとは、一例として、動画または第一ユーザ端末100の画面にガチャオブジェクトやイベント参加オブジェクトを出現させることである。
ここで、操作オブジェクトの出現に関し、動画および第一ユーザ端末100に操作オブジェクトを出現させることは、いずれも第一ユーザ端末100の画面に操作オブジェクトが表示されるという意味では違いはないが、第一ユーザ端末100に操作オブジェクトを出現させる場合は動画に重畳してまたは動画とは別の位置に操作オブジェクトを出現させることを含むものとする。
また、既にこれらが動画または第一ユーザ端末100に表示されている場合には、上記操作オブジェクトを強調して表示させる。強調して表示させるとは、操作オブジェクトに、所定の演出効果を生じさせること、例えば、キラキラと光るようなエフェクトを加えたり、点滅・回転するようなエフェクトを加えたり、目印となるマークや枠を付したりすることである。
また、ガチャのカテゴリが複数ある場合等は、さらに、対応するガチャのバナーを光らせるなどの強調表示を行うことができる。
そして、行動に対応付けられた操作用画面を表示させるとは、一例として、ガチャの抽選画面を表示したり、ガチャの抽選画面に遷移するためのポップアップ画像を表示させたりすることである。
いずれの表示制御情報も、第一のユーザの注意を喚起するような態様で動画の制御を行うための情報とすることができる。
続いて、特定のワードが、第二ユーザ端末200における操作を要する行動に関連するワードである場合について説明を行う。
第二ユーザ端末200における操作を要する行動に関連するワードとは、上述したように、例えば、ギフティングやコメントの投稿など、第二のユーザが第二ユーザ端末200において操作を要する行動に関連するワード(一例として、「ギフト」、「コメント」等を示すワード)である。
このとき、表示制御情報は、動画または第二ユーザ端末200の画面に、行動に対応付けられた操作オブジェクトを出現、動画または第二ユーザ端末200の画面に表示された、行動に対応付けられた操作オブジェクトを強調して表示、および/または、行動に対応付けられた画面を表示させるための情報とすることができる。
動画または第二ユーザ端末200の画面に行動に対応付けられた操作オブジェクトを出現させるとは、一例として、動画または第二ユーザ端末200の画面にギフトボタンやコメント入力欄を出現させることである。
また、第一のユーザに現実の商品を送るという行動に対応付けられたプレゼントボタンを出現させるものとしてもよい。なお、かかるプレゼントボタンは、他のユーザにより現実の商品が既に第一のユーザに贈られた場合には、第二ユーザ端末200の画面に表示されたプレゼントボタンは表示の終了/グレーアウトするものとしてもよい。
ここで、操作オブジェクトの出現に関し、動画および第二ユーザ端末200に操作オブジェクトを出現させることは、いずれも第二ユーザ端末200の画面に操作オブジェクトが表示されるという意味では違いはないが、後者の場合は動画に重畳してまたは動画とは別の位置に操作オブジェクトを出現させることを含むものとする。
また、既にこれらが動画または第二ユーザ端末200に表示されている場合には、上記操作オブジェクトを強調して表示させる。強調して表示させるとは、操作オブジェクトに、所定の演出効果を生じさせること、例えば、キラキラと光るようなエフェクトを加えたり、点滅・回転するようなエフェクトを加えたり、目印となるマークや枠を付したりすることである。
そして、行動に対応付けられた操作用画面を表示させるとは、一例として、ギフト一覧画面を表示したり、ギフト一覧画面に遷移するためのポップアップ画像を表示させたりすることである。
いずれの表示制御情報も、第二のユーザの注意を喚起するような態様で動画の制御を行うため情報とすることができる。
また、表示制御部440は、特定のワードが、第一ユーザ端末100における操作を要する行動に関連するワードである場合、第一ユーザ端末100および第二ユーザ端末200において、動画の表示の制御を行うことができる。
第二ユーザ端末200においても動画の表示の制御を行うのは、動画の表示の制御の結果に対する第一のユーザのリアクションも、コンテンツの一部として第二のユーザに提供することができるためである。
一方で、特定のワードが、第二ユーザ端末200における操作を要する行動に関連するワードである場合、表示制御部440は、第二ユーザ端末200に表示される動画においてのみ、動画の表示の制御を行うことができる。
これは、動画の表示の制御の結果に対する第二のユーザのリアクションがコンテンツの一部となり難いためであり、また、第一のユーザが第二のユーザに対して操作を要求するという心苦しさを低減させるためである。
また、本開示における一又は複数のコンピュータプロセッサは、図32に示されるように、さらに、効果発生部450を備えることができる。
効果発生部450は、動画または第一ユーザ端末100/第二ユーザ端末200に出現または強調して表示された操作オブジェクトを選択することにより上記行動が実行された場合、第一ユーザ端末100および/または第二ユーザ端末200に対して特典となる効果を発生させるものである。
換言すると、効果発生部450は、上記とは異なるルートで上記行動が実行された場合には上記特典となる効果を発生させない。
なお、特典となる効果とは、一例として、ガチャやギフティングの実行に際して支払う料金(有償コイン)の値引き、ガチャで得られる商品の個数、サイズまたは価値の増量、ギフティングにより表示されるオブジェクトの個数、サイズまたは価値の増量、動画に特別なエフェクトを発生させること、イベント参加時のポイント付与等が挙げられる。
かかる特典は、第一のユーザが動画においてガチャやギフト、イベント等の行為を実行または宣伝したことに対するお礼として付与されるものである。
次に、上述した特定のワードが要求に関連するワードである場合について詳細に説明する。
要求に関連するワードは、例えば、第一のユーザの欲求の意思表示を示すワードとすることができる。また、要求に関連するワードは、「○○が食べたい」「眠りたい」「涼しくして欲しい」「暖めて欲しい」「明るくして欲しい」「暗くして欲しい」など、要求を直接的に示すワードの他、「お腹が空いた」「眠い」「暑い」「寒い」「暗い」「眩しい」など、要求を間接的に示すワードも含まれるものとする。
このとき、表示制御情報は、要求に対応付けられたオブジェクトを動画に出現させるための情報、および/または、動画に表示されたオブジェクトを強調して表示させるための情報とすることができる。
要求に対応付けられたオブジェクトは、一例として、抽選オブジェクトとすることができる。
抽選オブジェクトは、図33に示すような抽選オブジェクトD47とすることができる。また、抽選オブジェクトは上述したガチャボタンD12であるものとしてもよい。
抽選オブジェクトD47は、第一のユーザが、現実の商品および/または商品オブジェクトを抽選により取得するためのものとする。
抽選は、有料(有料のチケットまたは有償コインの消費)で実行できるものとしてもよいし、無料(無料のチケットまたは無償ポイントの消費)で実行できるものとしてもよい。抽選が無料で実行できるものの場合には、上記抽選オブジェクトを表示させるか否か自体を抽選により決定する構成とすることができる。
なお、抽選対象となる現実の商品および/または商品オブジェクトは、一つの種類に限定される必要はなく、複数の種類であってもよい。
例えば、特定のワードが空腹を訴えるワードであった場合、商品としての料理を限定しない抽選が実行されることができる。例えば、第一のユーザが「お腹空いた」という発言をすると、ピザ、ハンバーガー、寿司等を含む複数の商品の中から抽選が行われ、これらの中から一の商品の当選または落選が決定される。
一方で、特定のワードが特定の料理を要求するワードであった場合、商品としての料理を限定した抽選が実行されることができる。例えば、第一のユーザが「ハンバーガー食べたい」という発言をすると、ハンバーガーについての抽選が行われ、ハンバーガーの当選または落選が決定される。
また、特定のワードが寒さを訴えるワードであった場合、商品としての料理や防寒グッズを限定しない抽選が実行されることができる。例えば、第一のユーザが「寒い」という発言をすると、スープ、ホットドリンク、手袋、マフラー等の防寒具を含む複数の商品の中から抽選が行われ、これらの中から一の商品の当選または落選が決定される。
一方で、特定のワードが特定の商品を要求するワードであった場合、商品としての料理を限定した抽選が実行されることができる。例えば、第一のユーザが「手袋が欲しい」という発言をすると、手袋についての抽選が行われ、手袋の当選または落選が決定される。
抽選オブジェクトD47は、図33に示したような抽選器を表したものであってもよいし、抽選対象となる商品を表すものであってもよいし、抽選対象となる商品に関連する代表のオブジェクトを表すものであってもよい。
なお、第一のユーザによって画面に表示された抽選オブジェクトD47が選択されると、その画面において抽選結果が表示されるものとしてもよいし、遷移先の抽選画面において抽選結果が表示されるものとしてもよい。
そして、抽選の結果当選に応じて、現実の商品および/または商品オブジェクトが第一ユーザ端末100に付与される。
また、上記付与は、自動的に行われるものとしてもよいし、後述するように第一のユーザの操作に応じて行われるものとしてもよい。
現実の商品が付与されるとは、現実の商品を得る権利が第一のユーザに付与されることを言い、商品オブジェクトが付与されるとは、第一ユーザ端末100に商品オブジェクトに関するデータが関連付けられることをいう。
商品オブジェクトは、商品を表したオブジェクトであって、第一のユーザに関連付けられたキャラクタオブジェクトに装着されるオブジェクトや、第一ユーザ端末100に関連付けられた仮想空間(ワールド、ルーム等)に一時的または常に表示される非装着オブジェクトとすることができる。
また、抽選オブジェクトD47が既に表示されている場合には、上記抽選オブジェクトを強調して表示させる。強調して表示させるとは、抽選オブジェクトに、所定の演出効果を生じさせること、例えば、キラキラと光るようなエフェクトを加えたり、点滅・回転するようなエフェクトを加えたり、目印となるマークや枠を付したりすることである。
また、行動に対応付けられた画面を表示させるとは、一例として、抽選画面を表示したり、抽選画面に遷移するためのポップアップ画像を表示させたりすることである。
いずれの表示制御情報も、第一のユーザの注意を喚起するような態様で動画の制御を行うため情報とすることができる。
要求に対応付けられたオブジェクトは、一例として、ショップオブジェクトとすることができる。
なお、ショップオブジェクトは図30に示したショップオブジェクトD45とすることができる。
ショップオブジェクトD45は、現実の商品および/または商品オブジェクトを購入可能なショップを表したオブジェクトである。
ショップオブジェクトD45は、選択すると商品選択・購入画面へと遷移する操作用のオブジェクトであってもよいし、動画に表示された仮想空間内に配置され、キャラクタオブジェクトが中に入って商品を見たり触ったり購入したりすることができるものとしてもよい。
要求に対応付けられたオブジェクトは、一例として、広告オブジェクトとすることができる。
広告オブジェクトは図31に示した広告オブジェクトD46とすることができる。
広告オブジェクトD46は、現実の商品および/または商品オブジェクトに関する広告を表したオブジェクトである。
広告オブジェクトD46は、仮想空間に表示される旗、サイネージや看板、気球やバス、電車等の乗り物オブジェクトのラッピングに表す形で表示されることができる。
そして、広告オブジェクトD46は、選択するとオンライン販売用のサイトへと遷移する操作用のオブジェクトであってもよいし、動画に表示された仮想空間内に配置され、キャラクタオブジェクトが中に入って商品を見たり触ったり購入したりできる仮想のショップへ移動するものとしてもよい。
これら抽選オブジェクトD47、ショップオブジェクトD45および広告オブジェクトD46は、所定時間だけ表示されるものとしてもよいし、第一のユーザにより選択されるまで表示されているものとしてもよい。また、第一のユーザの音声に応じて表示を終了させる構成としてもよい。
なお、ワールド配信において動画が一人称視点の場合は、キャラクタオブジェクトまたは第一のユーザがARグラスをしているように、画面の端にこれらオブジェクトがポップアップ表示されるような態様としてもよい。
また、仮想空間の少なくとも一部は第二ユーザ端末200と共有されるものとすることができる。
そして、第二ユーザ端末200が第一ユーザ端末100と関連付けられている場合、表示制御部440による動画の表示の制御の効果は、第一ユーザ端末100および第二ユーザ端末200の双方に及ぶものとすることができる。
一方で、第二ユーザ端末200が第一ユーザ端末100と関連付けられていない場合、表示制御部440による動画の表示の制御の効果は、第一ユーザ端末100および第二ユーザ端末200の一方のみに及ぶものとすることができる。
第二ユーザ端末200が第一ユーザ端末100と関連付けられている場合とは、相互フォロー関係にある場合および第二のユーザが第一のユーザを一方的にフォローしている関係にある場合を含むものとする。
第二ユーザ端末200が第一ユーザ端末100と関連付けられていない場合とは、相互フォロー関係にない場合および第一のユーザが第二のユーザを一方的にフォローしている関係にある場合を含むものとする。
仮想空間が複数のサーバから提供される場合において、相互フォロー関係にあるユーザは同じサーバの仮想空間に共存し、コミュニケーションを行う可能性が高いことから、会話に齟齬が生じないよう同じ表示とすることができる。同様に、第一のユーザのフォロワーである第二のユーザに対しても同じ空間を共有することができる。
一方で、異なるサーバの仮想空間に存在する第二のユーザに対しては同じ空間を共有することはできない。
上記構成によれば、効果を共有する範囲を制限することで、オブジェクトの描画負荷を低減することができる。
また、本開示における一又は複数のコンピュータプロセッサは、図32に示されるように、さらに、注文部460を備えることができる。
注文部460は、第一ユーザ端末100における抽選オブジェクトD47に対する操作により、現実の商品の当選が決定した場合、または、第一ユーザ端末100において、ショップオブジェクトD45および/または広告オブジェクトD46を介して現実の商品が注文された場合、当選に関する情報または注文に関する情報および少なくとも第一ユーザのユーザ情報に含まれる第一ユーザの住所情報を、抽選オブジェクト、ショップオブジェクトおよび/または広告オブジェクトに関連付けられた実店舗の情報処理装置へ送信することができる。
これにより、第一のユーザは、本開示の情報処理システムに自宅等の住所を登録しておくことで、住所を都度入力する手間なく現実の商品を手元に届けてもらうことができる。
なお、現実の商品は、要求を満たす可能性のある商品とすることができる。一例として、要求が空腹に関するものである場合には、ハンバーガーやピザ、スープなどの飲食物、要求が睡眠に関するものである場合には、枕や布団などの睡眠グッズ、要求が熱い寒いなど温度に関するものである場合には、飲食物や冷感/保温グッズ、要求が暗い明るいなどに関するものである場合には、照明器具などが挙げられるが、これらに限られず、要求の一部でも満たす可能性がある商品であればよい。
表示制御部440は、第一ユーザ端末100において、ショップオブジェクトD45および/または広告オブジェクトD46を介して現実の商品が注文された場合、当該現実の商品に対応する商品オブジェクトを動画に表示させることができる。
すなわち、本開示における所定の記憶装置には、提供可能な現実の商品に対応する商品オブジェクトが記憶されているものとする。これにより、第一のユーザとキャラクタオブジェクトの連動感が高まり、また、第二のユーザは第一のユーザが何を注文したのかを見ることができるのでコミニュケーションが活発化する。
例えば、第一のユーザが「お腹が空いた」という発言をすると、現実の食べ物が第一のユーザに配達されるとともに第一のユーザのキャラクタオブジェクトにも食べ物オブジェクトが装着される。
なお、商品オブジェクトは、注文時、注文後かつ現実の商品が届く前、または、現実の商品が届いた後に表示させることができる。この場合、商品が届いたタイミングは配送側から入手するか、第一のユーザが入力するものとする。
以上、現実の商品を提供する企業にとって、仮想空間に商品オブジェクトを表示することはプロダクトプレイスメントの宣伝効果を期待することができる。また、ブランド認知の拡大や新規顧客の獲得へとつなげることができる。これにより運営は広告収入を得ることで、ユーザからの利用料を無料としたり、配信ユーザの収益を増加させたりすることができるようになる。
また、企業は、視聴ユーザが多い/フォロワーが多い配信ユーザ(インフルエンサー)にターゲティングして広告を表示させるなど、従来の広告にはない新規な広告手法を導入することが可能となる。
続いて、特定のワードが特定のアイテムに関連するワードである場合について説明を行う。
このとき、本開示における一又は複数のコンピュータプロセッサは、図32に示したように、さらに、判定部470を備えることができる。
判定部470は、特定のアイテムが第一ユーザ端末100に関連付けられているかを判定するものである。
判定対象となるデータベースは、サーバ装置400が備える記憶装置に記憶されたものとしてもよいし、第一ユーザ端末100が備える記憶装置に記憶されたものとしてもよい。
特定のアイテムに関連するワードとは、例えば、第一ユーザ端末100に関連付けられることが可能な電子アイテムを示すワード(一例として、「アクセサリ」、「洋服」等を示すワード)とすることができる。
判定部470により特定のアイテムが第一ユーザ端末100に関連付けられていると判定された場合において、表示制御部は、特定のアイテムに対応する特定のオブジェクトを動画に出現させるための情報、動画に表示された特定のオブジェクトを強調して表示させるための情報、および/または、特定のアイテムを含む、第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報である表示制御情報に基づいて、動画の制御を行うものとする。
特定のアイテムに対応する特定のオブジェクトを動画に出現させるとは、一例として、動画に特定のオブジェクトを出現させることである。特定のオブジェクトがアクセサリ等の装着アイテムである場合、キャラクタオブジェクトの特定の部位に関連付けて表示されるものとする。
また、既に特定のオブジェクトが動画に表示されている場合には、当該特定のオブジェクトを強調して表示させる。強調して表示させるとは、特定のオブジェクトに、所定の演出効果を生じさせること、例えば、キラキラと光るようなエフェクトを加えたり、点滅・回転するようなエフェクトを加えたり、目印となるマークや枠を付したりすることである。
特定のアイテムを含む、第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるとは、一例として、上述したクローゼット画面を表示させることである。
判定部470により特定のアイテムが第一ユーザ端末100に関連付けられていないと判定された場合において、表示制御部は、特定のアイテムを抽選により取得可能な抽選オブジェクト、特定のアイテムを購入可能なショップを表したショップオブジェクトまたは特定のアイテムに関連する広告を表すための広告オブジェクト動画に出現させるための情報、および/または、動画に表示された抽選オブジェクト、ショップオブジェクトおよび/または広告オブジェクトを強調して表示させるための情報である表示制御情報に基づいて、動画の表示の制御を行うものとすることができる。
すなわち、第一のユーザが持っていない特定のアイテムについて発言をした場合、特定のアイテムを入手させるための情報に基づいて動画の表示の制御が行われる。抽選オブジェクト、ショップオブジェクトおよび広告オブジェクトの詳細については上述したとおりである。
また、判定部470により特定のアイテムが第一ユーザ端末100に関連付けられていないと判定された場合において、表示制御部は、特定のアイテムを有する他のユーザのユーザ端末に関連する画面への導線を動画に出現させるための情報である表示制御情報に基づいて動画の表示の制御を行うものとすることができる。
第一のユーザは、他のユーザとアイテムを交換・譲渡・譲受(以下、「交換等」という。)することができる。これは第一のユーザが動画を配信している最中であってもよいし、動画を配信していないタイミングであってもよい。
そして、特定のアイテムを有する他のユーザのユーザ端末に関連する画面への導線を動画に出現させるとは、他のユーザとアイテムを交換等するための画面や、当該画面へ遷移するためのポップアップ画像を出現させることを含む。
上記画面は、他のユーザのプロフィール画面や交換等専用の画面とすることができる。
なお、他のユーザとのアイテム交換等は、メッセージ(チャット)により自由に交渉を行うものであってもよいし、譲渡・譲受の希望を予めアピールしておく機能を実装させるものであってもよい。
続いて、特定のワードが現実空間の事象に関連するワードである場合について説明を行う。
現実空間の事象に関連するワードとは、例えば、天気や場所、日時を表すワード(一例として、「天気がいい」、「クリスマス」等を示すワード)とすることができる。
このとき、表示制御情報は、現実空間の事象に対応付けられた現実オブジェクトを動画に出現させるための情報とすることができる。
現実空間の事象に対応付けられた現実オブジェクトを動画に出現させるとは、一例として、動画に壁紙オブジェクトを出現させることである。壁紙オブジェクトとは、キャラクタオブジェクトの背後位置に表示されるオブジェクトであって、動画の背景として機能するものである。
例えば、第一のユーザが「いい天気だね」等の発言をすると、動画に晴天の壁紙オブジェクトが出現し、また、太陽オブジェクトが出現するよう表示の制御が行われる。
同様に、第一のユーザが「雨が降ってきた!」等の発言をすると、動画に雨が降っている壁紙オブジェクト出現するよう表示の制御が行われる。
続いて、特定のワードが動画に表示された特定のテキストに含まれるワードである場合について説明を行う。
動画に表示された特定のテキストに含まれるワードとは、例えば、第一ユーザ端末100または第二ユーザ端末200から投稿されたコメント、あるいは、システムの運営側から投稿されたシステムコメントに含まれるワードとすることができる。
システムコメントは、動画に自動的に表示されるコメントであって、通常は第二のユーザの配信枠への入退室やギフトが投じられたことのお知らせがテキスト表示されるものである。
なお、特定のテキストは、画面に表示されているものであれば特に限定されないため、上述のコメント、表示されているオブジェクト(ギフトオブジェクト、ホワイトボードオブジェクト、メモ帳オブジェクト等)に表されたテキストなどが含まれてもよい。
このとき、表示制御部440は、特定のテキストを強調表示させることができる。
特定のテキストの強調表示とは、特定のテキストに関するオブジェクトに、所定の演出効果を生じさせること、例えば、キラキラと光るようなエフェクトを加えたり、点滅・回転するようなエフェクトを加えたり、目印となるマークや枠を付したりすることである。また、特定のテキストの表示色を変更してもよい。
なお、特定のテキストの全てが第一のユーザに読み上げられる必要はなく、特定のテキストの所定割合に相当するテキストを特定のワードとして認識するものとしてもよい。
強調表示は、コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含むものとすることができる。
関連するオブジェクトとは、キャラクタオブジェクトを二次元化したもの、または、キャラクタオブジェクトのサイズを小さくしたものであって、配信ユーザの動きに基づいて動作しないものとすることができる。
処理負荷が大きい三次元のキャラクタオブジェトを描画する場合と比較して、上記構成を採用した場合は、描画コストを低減することができる。
キャラクタオブジェクトのサイズを小さくしたものには、キャラクタオブジェクトの頭身のバランスを変更したものも含まれるものとする。例えば、頭と身体部分の比率を同等にしたチビアバタなどがこれに含まれる。なお、チビアバタは2Dでもよいし3Dであってもよい。
複数人でコラボしている場合、受信部410は、第一ユーザ端末100を含む複数のユーザ端末から送信される複数のユーザの音声に関する複数の音声情報を受信する。
このとき、解析部430は、音声に特定のワードが含まれるかを解析する。また、解析部430は、音声に含まれる特定のワードの個数を特定する。
表示制御部440は、音声に含まれる特定のワードおよび特定のワードが含まれる音声の数に関連付けられた表示制御情報に基づいて、動画の表示の制御を行うことができる。
このように、コラボの場合は、特定のワードを発声した人数によって動画の表示の制御を異ならせるものとすることができる。例えば、一人で特定のワードを言った場合と、複数人で特定のワードを言った場合には、複数人で言った方がより華やかな動画の表示の制御を行うものとすることができる。
なお、複数人でゲームを行う動画の場合には、ゲーム内で特別なエフェクトを生じさせたり、スキルを発動させたりすることができる。
また、特定のワードが後述するようにホストである第一のユーザにより設定された合言葉であるには、コラボ動画における参加ユーザ同士の団結力が高まりコミュニケーションが活発化され、動画の質を向上させることができるようになる。
また、特定のワードをホストだけが知っていて、ゲストが知らない場合には、クイズ番組のようなコンテンツを提供することができるようになる。
続いて、特定のワードが第一ユーザ端末100における操作により設定された設定ワードである場合について説明を行う。
このとき、本開示における一又は複数のコンピュータプロセッサは、図32に示されるように、さらに、設定部480を備えることができる。
設定部480は、受信部410により受け付けられた第一のユーザの操作に基づいて、特定のワードの設定を行うものである。
第一のユーザは、上述した配信設定画面D20において上記設定の操作を行うことができるものとしてもよいし、動画の配信中に表示された設定ボタンD41を介して操作を行うことができるものとしてもよい。また、上記設定の操作は、第一のユーザのプロフィール画面などにおいて配信の有無に依らず行うことができるものとしてもよい。
また、特定のワードの設定は、提示された候補のワードの中から選択することにより行われるものであってもよいし、テキストをフリーで入力することにより行われるものであってもよい。候補のワードは、本開示の一又は複数のコンピュータプロセッサが備えるまたは接続可能な所定の記憶装置に予め記憶されているものとする。
そして、第一ユーザ端末において設定されたワードは、図26に示したデータテーブルのように、表示制御情報と関連付けられて記憶装置に保存される。この表示制御情報は、候補ワードの場合は予め対応付けられているものとし、フリー入力によるワードの場合は、さらに、特定のワードに対応付ける行動、制御対象および/または制御内容を自由に設定することができるものとする。
このような設定ワードは、第一ユーザ端末による単独のアバタ配信やワールド配信においてのみ効果を発揮するものであってもよいし、複数ユーザが関わるコラボ配信やワールド配信において効果を発揮するものであってもよい。
すなわち、後者のコラボ配信やワールドにおいて、設定ワードは、ユーザ同士の合言葉として機能し、複数ユーザ間でのコミュニケーションをより活性化させるのに役立つ。
また、特定のワードがシステム側により設定されるものの場合、特定のワードはユーザが予め知りうるものであってもよいし、ユーザには開示されないものであってもよい。設定された特定のワードが開示されない場合には、秘密のキーワードとして正解を当てる楽しみが生まれたり、正解した場合のサプライズ感を演出することができる。
また、上記設定部480は、解析部430により解析された結果に応じた動画の表示の制御を行うか否かを設定するものとしてもよい。
上記設定部480は、受信部410により受け付けられた第一のユーザの操作に基づいて上記設定を行い、第一のユーザは、上述した配信設定画面D20において上記設定の操作を行うことができるものとしてもよいし、動画の配信中に表示された設定ボタンD41を介して操作を行うことができるものとしてもよい。また、上記設定の操作は、第一のユーザのプロフィール画面などにおいて配信の有無に依らず行うことができるものとしてもよい。
かかる構成によれば、解析部430により解析された結果に応じた動画の表示の制御を行うか否かを第一のユーザが自分の意思で選択することができるようになり、第一のユーザが意図せずに動画の表示の制御が行われることを防ぐことができるようになる。
以上の実施形態では、表示制御部440が、解析部430により解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う例を説明したが、解析部430が、受信部410が受信した動作情報に基づいて、動作に特定の動作が含まれるかを解析するものとしてもよい。
このとき、表示制御部は、解析部430により解析された結果に応じ、動作に含まれる特定の動作に関連付けられた表示制御情報に基づいて、動画の表示の制御を行うものとすることができる。
特定の動作に関する情報は、上記一又は複数のコンピュータプロセッサが備える所定の記憶装置、または、情報処理システム3000に接続可能な所定の記憶装置に予め記憶されているものとすることができる。
また、所定の記憶装置には、特定の動作と表示制御情報とが関連付けて記憶されている。
表示制御情報には、一例として、特定の動作に対応する行動に必要な操作を行うための操作オブジェクト(制御対象)に関する情報と、当該操作オブジェクトに対する制御情報(制御内容)に関する情報とが含まれるものとするが、これらに限られず他の情報を含むものとしてもよい。
例えば、特定の動作「あくびをする」に対しては、第二ユーザ端末200においてギフト一覧画面V30が展開し、対応するアイマスクギフトが光るよう表示の制御が行われるという制御内容が関連付けられている。
また、特定の動作「お腹を撫でる」に対しては、第二ユーザ端末200においてギフト一覧画面V30が展開し、対応するお肉ギフトが光るよう表示の制御が行われるという制御内容が関連付けられている。
上述した特定のワードに関する実施形態は上記特定の動作を採用する場合にも適宜組み合わせて適用することができる。
続いて、本開示の実施形態における情報処理方法について説明を行う。
本開示の実施形態における情報処理方法は、一以上のユーザ端末100,200およびサーバ装置400を備える情報処理システム3000において実行されることができるものである。
本開示における情報処理方法は、図34に一例として示されるように、情報処理システム3000が備える一又は複数のコンピュータプロセッサに、受信ステップS410、送信ステップS420、解析ステップS430および表示制御ステップS440を実行させることができる。
受信ステップS410では、第一のユーザの第一ユーザ端末から送信される、少なくとも第一のユーザの音声に関する音声情報を受信する。
かかる受信ステップS410は、上述した受信部410により実行されることができる。
受信ステップS410は、サーバ側(サーバ装置400)で実行されるものとすることができる。
送信ステップS420では、第一のユーザに関する動画を、第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、第一ユーザ端末および/または第二ユーザ端末に送信する。
かかる送信ステップS420は、上述した送信部420により実行されることができる。
送信ステップS420は、サーバ側(サーバ装置400)で実行されるものとすることができる。
解析ステップS430では、音声情報に基づいて、音声に特定のワードが含まれるかを解析する。
かかる解析ステップS430は、上述した解析部430により実行されることができる。
解析ステップS430は、サーバ側(サーバ装置400)で実行されるものとしてもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。
表示制御ステップS440は、解析ステップS430において解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う。
かかる表示制御ステップS440は、上述した表示制御部440により実行されることができる。
表示制御ステップS440は、サーバ側(サーバ装置400)で実行されるものとしてもよいし、クライアント側(第一ユーザ端末100/第二ユーザ端末200)で実行されるものであってもよい。
上記構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。
本開示の実施形態におけるコンピュータプログラムは、一以上のユーザ端末100,200およびサーバ装置400を備える情報処理システム3000において実行されることができるものである。
本開示におけるコンピュータプログラムは、情報処理システム3000が備える一又は複数のコンピュータプロセッサに、受信機能、送信機能、解析機能および表示制御機能を実現させる。
受信機能は、第一のユーザの第一ユーザ端末から送信される、少なくとも第一のユーザの音声に関する音声情報を受信する。
送信機能は、第一のユーザに関する動画を、第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、第一ユーザ端末および/または第二ユーザ端末に送信する。
解析機能は、音声情報に基づいて、音声に特定のワードが含まれるかを解析する。
表示制御機能は、解析機能により解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う。
上記機能は、図35に示す受信回路1410、送信回路1420、解析回路1430および表示制御回路1440により実現されることができる。受信回路1410、送信回路1420、解析回路1430および表示制御回路1440は、それぞれ上述した受信部410、送信部420、解析部430および表示制御部440により実現されるものとする。各部の詳細については上述したとおりである。
上記構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
続いて、本開示の実施形態における情報処理装置について説明を行う。情報処理装置は、上述した情報処理システム3000における第一ユーザ端末100に相当するものである。
情報処理装置は、一又は複数のコンピュータプロセッサを備える情報処理装置であって、当該一又は複数のコンピュータプロセッサは、図36に示されるように、送信部110、受信部120および表示制御部130を備える。
送信部110は、少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する。
受信部120は、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する。
表示制御部130は、音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う。表示制御部130は、上述した表示制御部440と同様の構成とすることができる。
また、上記一又は複数のコンピュータプロセッサは、上記音声情報に基づいて音声に特定のワードが含まれるかを解析する解析部を備えるものとしてもよい。この時、解析部は、上述した解析部430と同様の構成とすることができる。
上記構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
続いて、本開示の実施形態における情報処理方法の一例について説明を行う。かかる情報処理方法は、上述した情報処理装置(第一ユーザ端末100)において実行される情報処理方法である。
本開示における情報処理方法は、図37に一例として示されるように、情報処理装置が備える一又は複数のコンピュータプロセッサに、送信ステップS110、受信ステップS120および表示制御ステップS130を実行させることを特徴とする。
送信ステップS110は、少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する。かかる送信ステップS110は、上述した送信部110により実行されることができる。
受信ステップS120は、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する。かかる受信ステップS120は、上述した受信部120により実行されることができる。
表示制御ステップS130は、音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う。かかる表示制御ステップS130は、上述した表示制御部130により実行されることができる。
また、本開示の実施形態における情報処理方法は、上記一又は複数のコンピュータプロセッサに、上記音声情報に基づいて音声に特定のワードが含まれるかを解析する解析ステップを実行させるものとしてもよい。この時、解析ステップは、上述した解析ステップS430と同様の構成とすることができる。
上記構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。かかるコンピュータプログラムは、上述した情報処理装置(第一ユーザ端末100)において実行されるコンピュータプログラムである。
本開示におけるコンピュータプログラムは、情報処理装置が備える一又は複数のプロセッサに、送信機能、受信機能および表示制御機能を実現させることを特徴とする。
送信機能は、少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する。
受信機能は、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する。
表示制御機能は、音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う。
上記機能は、図38に示す送信回路1110、受信回路1120および表示制御回路1130により実現されることができる。送信回路1110、受信回路1120および表示制御回路1130は、それぞれ上述した送信部110、受信部120および表示制御部130により実現されるものとする。各部の詳細については上述したとおりである
上記構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
続いて、本開示の実施形態における情報処理装置について説明を行う。情報処理装置は、上述した情報処理システム3000における第二ユーザ端末200に相当するものである。
情報処理装置は、一又は複数のコンピュータプロセッサを備える情報処理装置であって、当該一又は複数のコンピュータプロセッサは、図39に示されるように、受信部210および表示制御部220を備える。
受信部210は、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する。
表示制御部220は、音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う。表示制御部220は、上述した表示制御部440と同様の構成とすることができる。
上記構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
続いて、本開示の実施形態における情報処理方法の一例について説明を行う。かかる情報処理方法は、上述した情報処理装置(第二ユーザ端末200)において実行される情報処理方法である。
本開示における情報処理方法は、図40に一例として示されるように、情報処理装置が備える一又は複数のコンピュータプロセッサに、受信ステップS210および表示制御ステップS220を実行させることを特徴とする。
受信ステップS210は、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する。かかる受信ステップS210は、上述した受信部210により実行されることができる。
表示制御ステップS220は、少なくとも第一のユーザの音声に関する音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う。かかる表示制御ステップS220は、上述した表示制御部220により実行されることができる。
上記構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
最後に、本開示の実施形態におけるコンピュータプログラムについて説明を行う。かかるコンピュータプログラムは、上述した情報処理装置(第二ユーザ端末200)において実行されるコンピュータプログラムである。
本開示におけるコンピュータプログラムは、情報処理装置が備える一又は複数のプロセッサに、受信機能および表示制御機能を実現させることを特徴とする。
受信機能は、第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する。
表示制御機能は、少なくとも第一のユーザの音声に関する音声情報に基づいて音声に特定のワードが含まれるかを解析された結果に応じ、音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、動画の表示の制御を行う。
上記機能は、図41に示す受信回路1210および表示制御回路1220により実現されることができる。受信回路1210および表示制御回路1220は、それぞれ上述した受信部210および表示制御部220により実現されるものとする。各部の詳細については上述したとおりである。
上記構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。
また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。
図42は、本開示に従ってコンピュータベースの動作を実行する処理回路のブロック図である。図42は、処理回路600を示しており、本開示における端末および装置のCPUに相当する。
処理回路600は、任意のコンピュータベース及びクラウドベースの制御プロセスを制御するために使用され、フローチャートの記述又はブロックは、プロセス内の特定の論理機能又はステップを実装するための1つ以上の実行可能な命令を含むコードのモジュール、セグメント又は部分を表すものとして理解することができ、代替実装は、機能が実行され得る本進歩の例示的実施形態の範囲内に含まれる。図示または議論されたものからの順序は、当業者によって理解されるように、関与する機能性に応じて実質的に同時または逆の順序で含む。本明細書に開示される要素の機能性は、汎用プロセッサ、特殊用途プロセッサ、集積回路、ASIC(「特定用途向け集積回路」)、開示された機能を実行するように構成またはプログラムされた従来の回路および/またはそれらの組み合わせを含み得る回路または処理回路を使用して実装され得る。プロセッサは、トランジスタおよびその中に他の回路を含むように、回路または回路を処理する。プロセッサは、メモリに格納されたプログラムを実行するプログラムされたプロセッサであってもよい。本開示において、処理回路、ユニット、または手段は、列挙された機能を実行するか、または実行するようにプログラムされているハードウェアである。ハードウェアは、本明細書に開示される任意のハードウェア、または列挙された機能を実行するようにプログラムまたは構成された他の方法で公知の任意のハードウェアであり得る。
図42において、処理回路600は、本開示で論じた1つ以上の制御プロセスを実行するCPU601を含む。プロセスデータおよび命令は、メモリ602に格納されてもよい。これらのプロセスおよび命令はまた、ハードドライブ(HDD)またはポータブル記憶媒体などの記憶媒体ディスク604に格納されてもよいし、リモートで格納されてもよい。さらに、特許請求される進歩は、本発明のプロセスの命令が格納されるコンピュータ可読媒体の形態によって限定されない。例えば、命令は、CD、DVD、フラッシュメモリ、RAM、ROM、PROM、EPROM、EEPROM、ハードディスク、またはサーバまたはコンピュータなどの処理回路600が通信する情報処理装置の任意の他の非一時的なコンピュータ可読媒体に格納され得る。プロセスはまた、処理回路600によってネットワークベースのストレージ、クラウドベースのストレージまたは他のモバイルアクセス可能なストレージおよび実行可能に格納されてもよい。
さらに、特許請求の範囲の進展は、ユーティリティアプリケーション、バックグラウンドデーモン、またはオペレーティングシステムの構成要素として、またはそれらの組み合わせとして提供されてもよく、CPU601およびオペレーティングシステム、例えばMicrosoft Windows、UNIX、Solaris、LINUX、Apple MAC-OS、Apple iOSおよび当業者に公知の他のシステムと共に実行される。
処理回路600を実現するためのハードウェア要素は、種々の回路要素によって実現され得る。また、上述した実施形態の各機能は、1つ以上の処理回路を含む回路によって実現されてもよい。処理回路は、特にプログラムされたプロセッサ、例えば、図42に示すようにプロセッサ(CPU)601を含む。処理回路には、特定用途向け集積回路(ASIC)や、列挙された機能を実行するように配置された従来の回路部品などのデバイスも含まれます。
代替的に、又は付加的に、CPU601は、FPGA、ASIC、PLD上で、又は離散論理回路を用いて、当業者が認識するように実装され得る。また、CPU601は、上述した本発明処理の命令を実行するために並列に協調して動作する複数のプロセッサとして実現されてもよい。
図42の処理回路600はまた、ネットワーク700とインターフェースするためのイーサネットPROネットワークインターフェースカードなどのネットワークコントローラ606を含む。理解できるように、ネットワーク700は、インターネットなどのパブリックネットワーク、またはローカルエリアネットワーク(LAN)もしくはワイドエリアネットワーク(WAN)などのプライベートネットワーク、またはそれらの任意の組み合わせであることができ、公衆交換電話網(PSTN)またはサービス総合デジタルネットワーク(ISDN)サブネットワークを含むこともできる。ネットワーク700はまた、イーサネットネットワーク、ユニバーサルシリアルバス(USB)ケーブルなどの有線、またはEDGE、3Gおよび4G無線セルラーシステムを含むセルラーネットワークなどのワイヤレスとすることができる。無線ネットワークはまた、Wi-Fi、無線LAN、Bluetooth、または既知の他の任意の無線通信形態とすることができる。さらに、ネットワークコントローラ606は、Bluetooth、近距離無線通信(NFC)、赤外線または他のような他の直接通信規格に準拠してもよい。
処理回路600は600は、モニタなどのディスプレイ609とインターフェースするためのグラフィックスカードまたはグラフィックスアダプタなどのディスプレイコントローラ608をさらに含む。I/Oインターフェース612は、キーボードおよび/またはマウス614、ならびにディスプレイ609上またはディスプレイ609から分離されたタッチスクリーンパネル616とインターフェースする。I/Oインターフェース612はまた、様々な周辺機器618に接続する。
ストレージコントローラ624は、記憶媒体ディスク604を、ISA、EISA、VESA、PCI、または同様のものであり得る通信バス626と接続し、処理回路600のすべての構成要素を相互接続する。ディスプレイ609、キーボードおよび/またはマウス614、ならびにディスプレイコントローラ608、ストレージコントローラ624、ネットワークコントローラ606、およびI/Oインタフェース612の一般的な特徴および機能性の説明は、これらの特徴が公知であるため、簡潔にするために本明細書では省略する。
本開示の文脈において説明される例示的な回路要素は、他の要素と置き換えられてもよく、本明細書に提供される実施例とは異なる構造であってもよい。さらに、本明細書に記載される機能を実行するように構成された回路は、複数の回路ユニット(例えば、チップ)で実装されてもよいし、または、特徴が単一のチップセット上の回路において組み合わされてもよい。
本明細書に記載される機能及び特徴はまた、システムの様々な分散コンポーネントによって実行され得る。例えば、1つ以上のプロセッサは、これらのシステム機能を実行することができ、ここで、プロセッサは、ネットワーク内で通信する複数の構成要素に分散される。分散コンポーネントは、様々なヒューマンインターフェースおよび通信デバイス(例えば、ディスプレイモニタ、スマートフォン、タブレット、携帯情報端末(PDA))に加えて、処理を共有し得る1つ以上のクライアントおよびサーバマシンを含むことができる。ネットワークは、LANやWANなどのプライベートネットワークであってもよいし、インターネットなどのパブリックネットワークであってもよい。システムへの入力は、直接ユーザ入力を介して受信され、リアルタイムまたはバッチプロセスとしてリモートで受信され得る。さらに、いくつかの実装は、説明されたものと同一ではないモジュールまたはハードウェア上で実行されてもよい。したがって、他の実装は、請求され得る範囲内にある。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。
〔付記事項〕
以下に、本願の原出願の出願当初の特許請求の範囲の記載を付記する。
[1]
一又は複数のコンピュータプロセッサを備える情報処理システムであって、
前記一又は複数のコンピュータプロセッサは、
第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信部と、
前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二のユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信部と、
前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析部と、
前記解析部により解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御部と
を備える情報処理システム。
[2]
前記特定のワードは、前記第一ユーザ端末における操作を要する行動に関連するワードであり、
前記表示制御情報は、前記動画または前記第一ユーザ端末の画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または前記第一ユーザ端末の画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報であることを特徴とする請求項1に記載の情報処理システム。
[3]
前記特定のワードは、前記第二ユーザ端末における操作を要する行動に関連するワードであり、
前記表示制御情報は、前記動画または前記第二ユーザ端末の画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または前記第二ユーザ端末の画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報であることを特徴とする請求項1に記載の情報処理システム。
[4]
前記表示制御部は、
前記特定のワードが、前記第一ユーザ端末における操作を要する行動に関連するワードである場合、前記第一ユーザ端末および前記第二ユーザ端末に表示される動画おいて、前記動画の表示の制御を行い、
前記特定のワードが、前記第二ユーザ端末における操作を要する行動に関連するワードである場合、前記第二ユーザ端末に表示される前記動画においてのみ、前記動画の表示の制御を行うことを特徴とする請求項1に記載の情報処理システム。
[5]
前記一又は複数のコンピュータプロセッサは、さらに、
前記動画に出現または強調して表示された前記操作オブジェクトを選択することにより前記行動が実行された場合、前記第一ユーザ端末および/または前記第二ユーザ端末において特定の効果を発生させる効果発生部を備えることを特徴とする請求項2または3に記載の情報処理システム。
[6]
前記特定のワードは、要求に関連するワードであり、
前記表示制御情報は、前記要求に対応付けられたオブジェクトを前記動画に出現させるための情報、および/または、前記動画に表示された前記オブジェクトを強調して表示させるための情報であることを特徴とする請求項1に記載の情報処理システム。
[7]
前記要求に対応付けられたオブジェクトは、現実の商品および/または商品オブジェクトを抽選により取得可能な抽選オブジェクト、前記現実の商品および/または商品オブジェクトを購入可能なショップを表したショップオブジェクトまたは前記現実の商品および/または商品オブジェクトに関する広告を表すための広告オブジェクトであることを特徴とする請求項6に記載の情報処理システム。
[8]
前記一又は複数のコンピュータプロセッサは、
前記第一ユーザ端末における前記抽選オブジェクトに対する操作により前記現実の商品の当選が決定した場合、または、前記第一ユーザ端末において前記ショップオブジェクトおよび/または前記広告オブジェクトを介して現実の商品が注文された場合、前記当選に関する情報または前記注文に関する情報および少なくとも前記第一のユーザのユーザ情報に含まれる第一のユーザの住所情報を、前記抽選オブジェクト、前記ショップオブジェクトおよび/または前記広告オブジェクトに関連付けられた実店舗の情報処理装置へ送信する注文部を備えることを特徴とする請求項7に記載の情報処理システム。
[9]
前記表示制御部は、前記第一ユーザ端末において、前記ショップオブジェクトおよび/または前記広告オブジェクトを介して現実の商品が注文された場合、当該現実のの商品に対応する商品オブジェクトを前記動画に表示させることを特徴とする請求項7または8に記載の情報処理システム。
[10]
前記特定のワードは、特定のアイテムに関連するワードであり、
前記一又は複数のコンピュータプロセッサは、さらに、
前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定部を備え、
前記判定部により前記特定のアイテムが前記第一ユーザ端末に関連付けられていると判定された場合において、
前記表示制御部は、
前記特定のアイテムに対応する特定のオブジェクトを前記動画に出現させるための情報、
前記動画に表示された前記特定のオブジェクトを強調して表示させるための情報、および/または、
前記特定のアイテムを含む、前記第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報
である表示制御情報に基づいて、前記動画の表示の制御を行うことを特徴とする請求項1に記載の情報処理システム。
[11]
前記判定部により前記特定のアイテムが前記第一ユーザ端末に関連付けられていないと判定された場合において、
前記表示制御部は、
前記特定のアイテムを抽選により取得可能な抽選オブジェクト、前記特定のアイテムを購入可能なショップを表したショップオブジェクトまたは前記特定のアイテムに関連する広告を表すための広告オブジェクト前記動画に出現させるための情報、および/または、
前記動画に表示された前記抽選オブジェクト、前記ショップオブジェクトおよび/または前記広告オブジェクトを強調して表示させるための情報
である表示制御情報に基づいて、前記動画の表示の制御を行うことを特徴とする請求項10に記載の情報処理システム。
[12]
前記判定部により前記特定のアイテムが前記第一ユーザ端末に関連付けられていないと判定された場合において、
前記表示制御部は、前記特定のアイテムを有する他のユーザのユーザ端末に関連する画面への導線を前記動画に出現させるための情報である表示制御情報に基づいて、前記動画の制御を行うことを特徴とする請求項10に記載の情報処理システム。
[13]
前記特定のワードは、現実空間の事象に関連するワードであり、
前記表示制御情報は、前記現実空間の事象に対応付けられた現実オブジェクトを前記動画に出現させるための情報であることを特徴とする請求項1に記載の情報処理システム。
[14]
前記特定のワードは、前記動画に表示された特定のテキストに含まれるワードであり、
前記表示制御部は、前記特定のテキストを強調表示させることを特徴とする請求項1に記載の情報処理システム。
[15]
前記特定のテキストは、前記第一ユーザ端末または前記第二ユーザ端末から投稿されたコメント、あるいは、システムコメントであることを特徴とする請求項14に記載の情報処理システム。
[16]
前記強調表示は、前記コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含むことを特徴とする請求項15に記載の情報処理システム。
[17]
前記動画は、前記第一ユーザのキャラクタオブジェクトおよび当該キャラクタオブジェクトが移動可能な仮想空間を表示するものであることを特徴とする請求項1に記載の情報処理システム。
[18]
前記第二ユーザ端末が前記第一ユーザ端末と関連付けられている場合、
前記仮想空間の少なくとも一部は第二ユーザ端末と共有され、
前記表示制御部による前記動画の表示の制御の効果は、前記第一ユーザ端末および前記第二ユーザ端末の双方に及ぶことを特徴とする請求項17に記載の情報処理システム。
[19]
前記第二ユーザ端末が前記第一ユーザ端末と関連付けられていない場合、
前記仮想空間の少なくとも一部は第二ユーザ端末と共有されるが、
前記表示制御部による前記動画の表示の制御の効果は、前記第一ユーザ端末および前記第二ユーザ端末の一方のみに及ぶことを特徴とする請求項18に記載の情報処理システム。
[20]
前記一又は複数のコンピュータプロセッサは、
前記解析部により解析された結果に応じた前記動画の表示の制御を行うか否かを設定可能な設定部を備える請求項1に記載の情報処理システム。
[21]
前記第一のユーザは配信ユーザであり、前記第二のユーザは一以上の視聴ユーザであることを特徴とする請求項1に記載の情報処理システム。
[22]
前記受信部は、前記第一ユーザ端末を含む複数のユーザ端末から送信される複数のユーザの音声に関する複数の音声情報を受信し、
前記解析部は、前記複数の音声の各々に特定のワードが含まれるかを解析し、
前記表示制御部は、前記音声に含まれる特定のワードおよび前記特定のワードが含まれる音声の数に関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行うことを特徴とする請求項1に記載の情報処理システム。
[23]
前記特定のワードが、前記第一ユーザ端末の操作に基づいて設定されたものであることを特徴とする請求項1に記載の情報処理システム。
[24]
前記受信部は、前記第一ユーザ端末から送信される、前記第一のユーザの動作に関する動作情報を受信し、
前記動画には、前記動作情報に基づいて動作する前記第一のユーザのキャラクタオブジェクトが表示されることを特徴とする請求項1に記載の情報処理システム。
[25]
一又は複数のコンピュータプロセッサに、
第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信ステップと、
前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信ステップと、
前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析ステップと、
前記解析ステップにおいて解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
を実行させる情報処理方法。
[26]
一又は複数のコンピュータプロセッサに、
少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信ステップと、
前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信ステップと、
前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
を実行させる情報処理方法。
[27]
一又は複数のコンピュータプロセッサに、
少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信機能と、
前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信機能と、
前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
を実現させるコンピュータプログラム。
[28]
一又は複数のコンピュータプロセッサに、
第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、
少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
を実行させる情報処理方法。
[29]
一又は複数のコンピュータプロセッサに、
第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、
少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
を実現させるコンピュータプログラム。
100 第一ユーザ端末
200 第二ユーザ端末
300 ネットワーク
400 サーバ装置
410 受信部
420 送信部
430 解析部
440 表示制御部

Claims (48)

  1. 一又は複数のコンピュータプロセッサを備える情報処理システムであって、
    前記一又は複数のコンピュータプロセッサは、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信部と、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二のユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信部と、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析部と、
    前記解析部により解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御部と
    を備え、
    前記特定のワードは、前記第一ユーザ端末における操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または前記第一ユーザ端末の画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または前記第一ユーザ端末の画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報である情報処理システム。
  2. 一又は複数のコンピュータプロセッサを備える情報処理システムであって、
    前記一又は複数のコンピュータプロセッサは、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信部と、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二のユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信部と、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析部と、
    前記解析部により解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御部と
    を備え、
    前記特定のワードは、前記第二ユーザ端末における操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または前記第二ユーザ端末の画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または前記第二ユーザ端末の画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報である情報処理システム。
  3. 前記一又は複数のコンピュータプロセッサは、さらに、
    前記動画に出現または強調して表示された前記操作オブジェクトを選択することにより前記行動が実行された場合、前記第一ユーザ端末および/または前記第二ユーザ端末において特定の効果を発生させる効果発生部を備えることを特徴とする請求項2に記載の情報処理システム。
  4. 一又は複数のコンピュータプロセッサを備える情報処理システムであって、
    前記一又は複数のコンピュータプロセッサは、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信部と、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二のユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信部と、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析部と、
    前記解析部により解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御部と
    を備え、
    前記表示制御部は、
    前記特定のワードが、前記第一ユーザ端末における操作を要する行動に関連するワードである場合、前記第一ユーザ端末および前記第二ユーザ端末に表示される動画おいて、前記動画の表示の制御を行い、
    前記特定のワードが、前記第二ユーザ端末における操作を要する行動に関連するワードである場合、前記第二ユーザ端末に表示される前記動画においてのみ、前記動画の表示の制御を行う情報処理システム。
  5. 一又は複数のコンピュータプロセッサを備える情報処理システムであって、
    前記一又は複数のコンピュータプロセッサは、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信部と、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二のユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信部と、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析部と、
    前記解析部により解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御部と
    を備え、
    前記特定のワードは、要求に関連するワードであり、
    前記表示制御情報は、前記要求に対応付けられたオブジェクトを前記動画に出現させるための情報、および/または、前記動画に表示された前記オブジェクトを強調して表示させるための情報であり、
    前記要求に対応付けられたオブジェクトは、現実の商品および/または商品オブジェクトを抽選により取得可能な抽選オブジェクト、前記現実の商品および/または商品オブジェクトを購入可能なショップを表したショップオブジェクトまたは前記現実の商品および/または商品オブジェクトに関する広告を表すための広告オブジェクトである情報処理システム。
  6. 前記一又は複数のコンピュータプロセッサは、
    前記第一ユーザ端末における前記抽選オブジェクトに対する操作により前記現実の商品の当選が決定した場合、または、前記第一ユーザ端末において前記ショップオブジェクトおよび/または前記広告オブジェクトを介して現実の商品が注文された場合、前記当選に関する情報または前記注文に関する情報および少なくとも前記第一のユーザのユーザ情報に含まれる第一のユーザの住所情報を、前記抽選オブジェクト、前記ショップオブジェクトおよび/または前記広告オブジェクトに関連付けられた実店舗の情報処理装置へ送信する注文部を備えることを特徴とする請求項5に記載の情報処理システム。
  7. 前記表示制御部は、前記第一ユーザ端末において、前記ショップオブジェクトおよび/または前記広告オブジェクトを介して現実の商品が注文された場合、当該現実の商品に対応する商品オブジェクトを前記動画に表示させることを特徴とする請求項5または6に記載の情報処理システム。
  8. 一又は複数のコンピュータプロセッサを備える情報処理システムであって、
    前記一又は複数のコンピュータプロセッサは、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信部と、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二のユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信部と、
    前記音声情報に基づいて、前記音声に特定のアイテムに関連する特定のワードが含まれるかを解析する解析部と、
    前記解析部により解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御部と、
    前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定部と
    を備え、
    前記判定部により前記特定のアイテムが前記第一ユーザ端末に関連付けられていると判定された場合において、
    前記表示制御部は、
    前記特定のアイテムに対応する特定のオブジェクトを前記動画に出現させるための情報、
    前記動画に表示された前記特定のオブジェクトを強調して表示させるための情報、および/または、
    前記特定のアイテムを含む、前記第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報
    である表示制御情報に基づいて、前記動画の表示の制御を行う情報処理システム。
  9. 前記一又は複数のコンピュータプロセッサは、
    前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定部を備え、
    前記判定部により前記特定のアイテムが前記第一ユーザ端末に関連付けられていないと判定された場合において、
    前記表示制御部は、
    前記特定のアイテムを抽選により取得可能な抽選オブジェクト、前記特定のアイテムを購入可能なショップを表したショップオブジェクトまたは前記特定のアイテムに関連する広告を表すための広告オブジェクトを前記動画に出現させるための情報、および/または、
    前記動画に表示された前記抽選オブジェクト、前記ショップオブジェクトおよび/または前記広告オブジェクトを強調して表示させるための情報
    である表示制御情報に基づいて、前記動画の表示の制御を行うことを特徴とする請求項8に記載の情報処理システム。
  10. 前記一又は複数のコンピュータプロセッサは、
    前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定部を備え、
    前記判定部により前記特定のアイテムが前記第一ユーザ端末に関連付けられていないと判定された場合において、
    前記表示制御部は、前記特定のアイテムを有する他のユーザのユーザ端末に関連する画面への導線を前記動画に出現させるための情報である表示制御情報に基づいて、前記動画の制御を行うことを特徴とする請求項8に記載の情報処理システム。
  11. 一又は複数のコンピュータプロセッサを備える情報処理システムであって、
    前記一又は複数のコンピュータプロセッサは、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信部と、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二のユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信部と、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析部と、
    前記解析部により解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御部と
    を備え、
    前記特定のワードは、前記動画に表示された特定のテキストに含まれるワードであり、
    前記表示制御部は、前記特定のテキストを強調表示させ、
    前記特定のテキストは、前記第一ユーザ端末または前記第二ユーザ端末から投稿されたコメント、あるいは、システムコメントであり、
    前記強調表示は、前記コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含む情報処理システム。
  12. 前記動画は、前記第一のユーザのキャラクタオブジェクトおよび当該キャラクタオブジェクトが移動可能な仮想空間を表示するものであることを特徴とする請求項1,2,4,5,8,11に記載の情報処理システム。
  13. 前記第二ユーザ端末が前記第一ユーザ端末と関連付けられている場合、
    前記仮想空間の少なくとも一部は第二ユーザ端末と共有され、
    前記表示制御部による前記動画の表示の制御の効果は、前記第一ユーザ端末および前記第二ユーザ端末の双方に及ぶことを特徴とする請求項12に記載の情報処理システム。
  14. 前記第二ユーザ端末が前記第一ユーザ端末と関連付けられていない場合、
    前記仮想空間の少なくとも一部は第二ユーザ端末と共有されるが、
    前記表示制御部による前記動画の表示の制御の効果は、前記第一ユーザ端末および前記第二ユーザ端末の一方のみに及ぶことを特徴とする請求項13に記載の情報処理システム。
  15. 前記一又は複数のコンピュータプロセッサは、
    前記解析部により解析された結果に応じた前記動画の表示の制御を行うか否かを設定可能な設定部を備える請求項1,2,4,5,8,11に記載の情報処理システム。
  16. 前記第一のユーザは配信ユーザであり、前記第二のユーザは一以上の視聴ユーザであることを特徴とする請求項1,2,4,5,8,11に記載の情報処理システム。
  17. 前記特定のワードが、前記第一ユーザ端末の操作に基づいて設定されたものであることを特徴とする請求項1,2,4,5,8,11に記載の情報処理システム。
  18. 前記受信部は、前記第一ユーザ端末から送信される、前記第一のユーザの動作に関する動作情報を受信し、
    前記動画には、前記動作情報に基づいて動作する前記第一のユーザのキャラクタオブジェクトが表示されることを特徴とする請求項1,2,4,5,8,11に記載の情報処理システム。
  19. 一又は複数のコンピュータプロセッサに、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信ステップと、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信ステップと、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析ステップと、
    前記解析ステップにおいて解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、前記第一ユーザ端末における操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または前記第一ユーザ端末の画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または前記第一ユーザ端末の画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報である情報処理方法。
  20. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信ステップと、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信ステップと、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、前記第一のユーザによる操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報である情報処理方法。
  21. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信機能と、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信機能と、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記特定のワードは、前記第一のユーザによる操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報であるコンピュータプログラム。
  22. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、前記第一のユーザによる操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報である情報処理方法。
  23. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記特定のワードは、前記第一のユーザによる操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報であるコンピュータプログラム。
  24. 一又は複数のコンピュータプロセッサに、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信ステップと、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信ステップと、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析ステップと、
    前記解析ステップにおいて解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、前記第二ユーザ端末における操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または前記第二ユーザ端末の画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または前記第二ユーザ端末の画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報である情報処理方法。
  25. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信ステップと、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信ステップと、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、第二のユーザの第二ユーザ端末における操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報である情報処理方法。
  26. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信機能と、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信機能と、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記特定のワードは、第二のユーザの第二ユーザ端末における操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報であるコンピュータプログラム。
  27. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、第二のユーザの第二ユーザ端末における操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報である情報処理方法。
  28. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記特定のワードは、第二のユーザの第二ユーザ端末における操作を要する行動に関連するワードであり、
    前記表示制御情報は、前記動画または画面に、前記行動に対応付けられた操作オブジェクトを出現、前記動画または画面に表示された、前記行動に対応付けられた操作オブジェクトを強調して表示、および/または、前記行動に対応付けられた操作用画面を表示させるための情報であるコンピュータプログラム。
  29. 一又は複数のコンピュータプロセッサに、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信ステップと、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信ステップと、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析ステップと、
    前記解析ステップにおいて解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記表示制御ステップでは、
    前記特定のワードが、前記第一ユーザ端末における操作を要する行動に関連するワードである場合、前記第一ユーザ端末および前記第二ユーザ端末に表示される動画おいて、前記動画の表示の制御を行い、
    前記特定のワードが、前記第二ユーザ端末における操作を要する行動に関連するワードである場合、前記第二ユーザ端末に表示される前記動画においてのみ、前記動画の表示の制御を行う情報処理方法。
  30. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信ステップと、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信ステップと、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記表示制御ステップでは、
    前記特定のワードが、第一のユーザの第一ユーザ端末における操作を要する行動に関連するワードである場合、前記第一ユーザ端末および第二ユーザの第二ユーザ端末に表示される動画おいて、前記動画の表示の制御を行い、
    前記特定のワードが、前記第二ユーザ端末における操作を要する行動に関連するワードである場合、前記第二ユーザ端末に表示される前記動画においてのみ、前記動画の表示の制御を行う情報処理方法。
  31. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信機能と、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信機能と、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記表示制御機能は、
    前記特定のワードが、第一のユーザの第一ユーザ端末における操作を要する行動に関連するワードである場合、前記第一ユーザ端末および第二ユーザの第二ユーザ端末に表示される動画おいて、前記動画の表示の制御を行い、
    前記特定のワードが、前記第二ユーザ端末における操作を要する行動に関連するワードである場合、前記第二ユーザ端末に表示される前記動画においてのみ、前記動画の表示の制御を行うコンピュータプログラム。
  32. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記表示制御ステップでは、
    前記特定のワードが、第一のユーザの第一ユーザ端末における操作を要する行動に関連するワードである場合、前記第一ユーザ端末および第二ユーザの第二ユーザ端末に表示される動画おいて、前記動画の表示の制御を行い、
    前記特定のワードが、前記第二ユーザ端末における操作を要する行動に関連するワードである場合、前記第二ユーザ端末に表示される前記動画においてのみ、前記動画の表示の制御を行う情報処理方法。
  33. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記表示制御機能は、
    前記特定のワードが、第一のユーザの第一ユーザ端末における操作を要する行動に関連するワードである場合、前記第一ユーザ端末および第二ユーザの第二ユーザ端末に表示される動画おいて、前記動画の表示の制御を行い、
    前記特定のワードが、前記第二ユーザ端末における操作を要する行動に関連するワードである場合、前記第二ユーザ端末に表示される前記動画においてのみ、前記動画の表示の制御を行うコンピュータプログラム。
  34. 一又は複数のコンピュータプロセッサに、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信ステップと、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信ステップと、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析ステップと、
    前記解析ステップにおいて解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、要求に関連するワードであり、
    前記表示制御情報は、前記要求に対応付けられたオブジェクトを前記動画に出現させるための情報、および/または、前記動画に表示された前記オブジェクトを強調して表示させるための情報であり、
    前記要求に対応付けられたオブジェクトは、現実の商品および/または商品オブジェクトを抽選により取得可能な抽選オブジェクト、前記現実の商品および/または商品オブジェクトを購入可能なショップを表したショップオブジェクトまたは前記現実の商品および/または商品オブジェクトに関する広告を表すための広告オブジェクトである情報処理方法。
  35. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信ステップと、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信ステップと、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、要求に関連するワードであり、
    前記表示制御情報は、前記要求に対応付けられたオブジェクトを前記動画に出現させるための情報、および/または、前記動画に表示された前記オブジェクトを強調して表示させるための情報であり、
    前記要求に対応付けられたオブジェクトは、現実の商品および/または商品オブジェクトを抽選により取得可能な抽選オブジェクト、前記現実の商品および/または商品オブジェクトを購入可能なショップを表したショップオブジェクトまたは前記現実の商品および/または商品オブジェクトに関する広告を表すための広告オブジェクトである情報処理方法。
  36. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信機能と、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信機能と、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記特定のワードは、要求に関連するワードであり、
    前記表示制御情報は、前記要求に対応付けられたオブジェクトを前記動画に出現させるための情報、および/または、前記動画に表示された前記オブジェクトを強調して表示させるための情報であり、
    前記要求に対応付けられたオブジェクトは、現実の商品および/または商品オブジェクトを抽選により取得可能な抽選オブジェクト、前記現実の商品および/または商品オブジェクトを購入可能なショップを表したショップオブジェクトまたは前記現実の商品および/または商品オブジェクトに関する広告を表すための広告オブジェクトであるコンピュータプログラム。
  37. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、要求に関連するワードであり、
    前記表示制御情報は、前記要求に対応付けられたオブジェクトを前記動画に出現させるための情報、および/または、前記動画に表示された前記オブジェクトを強調して表示させるための情報であり、
    前記要求に対応付けられたオブジェクトは、現実の商品および/または商品オブジェクトを抽選により取得可能な抽選オブジェクト、前記現実の商品および/または商品オブジェクトを購入可能なショップを表したショップオブジェクトまたは前記現実の商品および/または商品オブジェクトに関する広告を表すための広告オブジェクトである情報処理方法。
  38. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記特定のワードは、要求に関連するワードであり、
    前記表示制御情報は、前記要求に対応付けられたオブジェクトを前記動画に出現させるための情報、および/または、前記動画に表示された前記オブジェクトを強調して表示させるための情報であり、
    前記要求に対応付けられたオブジェクトは、現実の商品および/または商品オブジェクトを抽選により取得可能な抽選オブジェクト、前記現実の商品および/または商品オブジェクトを購入可能なショップを表したショップオブジェクトまたは前記現実の商品および/または商品オブジェクトに関する広告を表すための広告オブジェクトであるコンピュータプログラム。
  39. 一又は複数のコンピュータプロセッサに、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信ステップと、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信ステップと、
    前記音声情報に基づいて、前記音声に特定のアイテムに関連する特定のワードが含まれるかを解析する解析ステップと、
    前記解析ステップにおいて解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと、
    前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定ステップと
    を実行させ、
    前記判定ステップにおいて前記特定のアイテムが前記第一ユーザ端末に関連付けられていると判定された場合において、
    前記表示制御ステップでは、
    前記特定のアイテムに対応する特定のオブジェクトを前記動画に出現させるための情報、
    前記動画に表示された前記特定のオブジェクトを強調して表示させるための情報、および/または、
    前記特定のアイテムを含む、前記第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報
    である表示制御情報に基づいて、前記動画の表示の制御を行う情報処理方法。
  40. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信ステップと、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信ステップと、
    前記音声情報に基づいて前記音声に特定のアイテムに関連する特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと、
    前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定ステップと
    を実行させ、
    前記判定ステップにおいて前記特定のアイテムが前記第一ユーザ端末に関連付けられていると判定された場合において、
    前記表示制御ステップでは、
    前記特定のアイテムに対応する特定のオブジェクトを前記動画に出現させるための情報、
    前記動画に表示された前記特定のオブジェクトを強調して表示させるための情報、および/または、
    前記特定のアイテムを含む、第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報
    である表示制御情報に基づいて、前記動画の表示の制御を行う情報処理方法。
  41. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信機能と、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信機能と、
    前記音声情報に基づいて前記音声に特定のアイテムに関連する特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と、
    前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定機能と
    を実現させ、
    前記判定機能により前記特定のアイテムが前記第一ユーザ端末に関連付けられていると判定された場合において、
    前記表示制御機能は、
    前記特定のアイテムに対応する特定のオブジェクトを前記動画に出現させるための情報、
    前記動画に表示された前記特定のオブジェクトを強調して表示させるための情報、および/または、
    前記特定のアイテムを含む、第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報
    である表示制御情報に基づいて、前記動画の表示の制御を行うコンピュータプログラム。
  42. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のアイテムに関連する特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと、
    前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定ステップと
    を実行させ、
    前記判定ステップにおいて前記特定のアイテムが前記第一ユーザ端末に関連付けられていると判定された場合において、
    前記表示制御ステップでは、
    前記特定のアイテムに対応する特定のオブジェクトを前記動画に出現させるための情報、
    前記動画に表示された前記特定のオブジェクトを強調して表示させるための情報、および/または、
    前記特定のアイテムを含む、第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報
    である表示制御情報に基づいて、前記動画の表示の制御を行う情報処理方法。
  43. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のアイテムに関連する特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と、
    前記特定のアイテムが前記第一ユーザ端末に関連付けられているかを判定する判定機能と
    を実現させ、
    前記判定機能により前記特定のアイテムが前記第一ユーザ端末に関連付けられていると判定された場合において、
    前記表示制御機能は、
    特定のアイテムに対応する特定のオブジェクトを前記動画に出現させるための情報、
    前記動画に表示された前記特定のオブジェクトを強調して表示させるための情報、および/または、
    前記特定のアイテムを含む、第一ユーザ端末に関連付けられているアイテムの一覧画面を表示させるための情報
    である表示制御情報に基づいて、前記動画の表示の制御を行うコンピュータプログラム。
  44. 一又は複数のコンピュータプロセッサに、
    第一のユーザの第一ユーザ端末から送信される、少なくとも前記第一のユーザの音声に関する音声情報を受信する受信ステップと、
    前記第一のユーザに関する動画を、前記第一ユーザ端末および/または第二ユーザの第二ユーザ端末に表示させるための情報を、前記第一ユーザ端末および/または前記第二ユーザ端末に送信する送信ステップと、
    前記音声情報に基づいて、前記音声に特定のワードが含まれるかを解析する解析ステップと、
    前記解析ステップにおいて解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、前記動画に表示された特定のテキストに含まれるワードであり、
    前記表示制御ステップでは、前記特定のテキストを強調表示させ、
    前記特定のテキストは、前記第一ユーザ端末または前記第二ユーザ端末から投稿されたコメント、あるいは、システムコメントであり、
    前記強調表示は、前記コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含む情報処理方法。
  45. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信ステップと、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信ステップと、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、前記動画に表示された特定のテキストに含まれるワードであり、
    前記表示制御ステップでは、前記特定のテキストを強調表示させ、
    前記特定のテキストは、前記第一のユーザの第一ユーザ端末または第二のユーザの第二ユーザ端末から投稿されたコメント、あるいは、システムコメントであり、
    前記強調表示は、前記コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含む情報処理方法。
  46. 一又は複数のコンピュータプロセッサに、
    少なくとも第一のユーザの音声に関する音声情報をサーバ装置に送信する送信機能と、
    前記第一のユーザに関する動画を表示させるための情報を前記サーバ装置から受信する受信機能と、
    前記音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記特定のワードは、前記動画に表示された特定のテキストに含まれるワードであり、
    前記表示制御機能は、前記特定のテキストを強調表示させ、
    前記特定のテキストは、前記第一のユーザの第一ユーザ端末または第二のユーザの第二ユーザ端末から投稿されたコメント、あるいは、システムコメントであり、
    前記強調表示は、前記コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含むコンピュータプログラム。
  47. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信ステップと、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御ステップと
    を実行させ、
    前記特定のワードは、前記動画に表示された特定のテキストに含まれるワードであり、
    前記表示制御ステップでは、前記特定のテキストを強調表示させ、
    前記特定のテキストは、前記第一のユーザの第一ユーザ端末または第二のユーザの第二ユーザ端末から投稿されたコメント、あるいは、システムコメントであり、
    前記強調表示は、前記コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含む情報処理方法。
  48. 一又は複数のコンピュータプロセッサに、
    第一のユーザに関する動画を表示させるための情報をサーバ装置から受信する受信機能と、
    少なくとも前記第一のユーザの音声に関する音声情報に基づいて前記音声に特定のワードが含まれるかを解析された結果に応じ、前記音声に含まれる特定のワードに関連付けられた表示制御情報に基づいて、前記動画の表示の制御を行う表示制御機能と
    を実現させ、
    前記特定のワードは、前記動画に表示された特定のテキストに含まれるワードであり、
    前記表示制御機能は、前記特定のテキストを強調表示させ、
    前記特定のテキストは、前記第一のユーザの第一ユーザ端末または第二のユーザの第二ユーザ端末から投稿されたコメント、あるいは、システムコメントであり、
    前記強調表示は、前記コメントを投稿したユーザのキャラクタオブジェクトに関連するオブジェクトを表示させることを含むコンピュータプログラム。

JP2024015013A 2022-09-15 2024-02-02 情報処理システム、情報処理方法およびコンピュータプログラム Pending JP2024050776A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024015013A JP2024050776A (ja) 2022-09-15 2024-02-02 情報処理システム、情報処理方法およびコンピュータプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022146834 2022-09-15
JP2024015013A JP2024050776A (ja) 2022-09-15 2024-02-02 情報処理システム、情報処理方法およびコンピュータプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022146834 Division 2022-09-15 2022-09-15

Publications (1)

Publication Number Publication Date
JP2024050776A true JP2024050776A (ja) 2024-04-10

Family

ID=90623435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024015013A Pending JP2024050776A (ja) 2022-09-15 2024-02-02 情報処理システム、情報処理方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2024050776A (ja)

Similar Documents

Publication Publication Date Title
JP7168754B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20160231878A1 (en) Communication system, communication terminal, storage medium, and display method
US11740766B2 (en) Information processing system, information processing method, and computer program
JP2022114471A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
CN109005441B (zh) 虚拟完赛场景播放方法、装置、终端及服务器
JP2024050776A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2024088629A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7317325B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7376030B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20240152311A1 (en) Information processing system, information processing method, and computer program
JP7470337B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7470312B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7455300B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7301263B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20220237844A1 (en) Information processing system, information processing method, and computer program
JP7329209B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7229400B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6983980B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2024069284A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2024089598A (ja) 情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240202