JP2017021799A - 情報提示システム、情報提示装置及びプログラム - Google Patents

情報提示システム、情報提示装置及びプログラム Download PDF

Info

Publication number
JP2017021799A
JP2017021799A JP2016135020A JP2016135020A JP2017021799A JP 2017021799 A JP2017021799 A JP 2017021799A JP 2016135020 A JP2016135020 A JP 2016135020A JP 2016135020 A JP2016135020 A JP 2016135020A JP 2017021799 A JP2017021799 A JP 2017021799A
Authority
JP
Japan
Prior art keywords
avatar
information
user
display area
information presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016135020A
Other languages
English (en)
Other versions
JP6718169B2 (ja
Inventor
祐一 坂内
Yuichi Sakauchi
祐一 坂内
友祐 若月
Yusuke Wakatsuki
友祐 若月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikutoku Gakuen School Corp
Original Assignee
Ikutoku Gakuen School Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikutoku Gakuen School Corp filed Critical Ikutoku Gakuen School Corp
Publication of JP2017021799A publication Critical patent/JP2017021799A/ja
Application granted granted Critical
Publication of JP6718169B2 publication Critical patent/JP6718169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる新規な情報提示システムを提供する。【解決手段】本発明によれば、複数の情報提示装置と情報配信サーバとがネットワークを介して接続される情報提示システムであって、前記情報提示装置は、ネットワークを介して配信される配信動画を第1の表示領域に表示する配信動画表示部と、前記第1の表示領域に表示される配信動画を視聴するユーザの身体動作に係る身体動作情報を取得する身体動作情報取得部と、前記身体動作情報に基づいて前記ユーザの身体動作を表現する第1のアバタを生成するアバタ生成部と、前記第1のアバタを第2の表示領域に表示するアバタ表示部とを含む、情報提示システムが提供される。【選択図】図4

Description

本発明は、情報提示システムに関し、より詳細には、アバタを用いた情報提示システムに関する。
近年、インターネットを介して配信される動画を視聴するユーザからコメントを受付け、そのコメントを動画にオーバーレイ表示するサービスが提供されている(例えば、特許文献1)。
このサービスでは、ユーザが動画の再生中に入力したコメントをそのコメント付与時間(動画の再生開始時を起点とした相対時間)とともに蓄積しておき、動画の再生時に、その動画を過去に視聴したユーザのコメントをそのコメント付与時間に従って順次表示することによって、他のユーザとあたかも一緒にその動画を視聴しているかのような一体感を演出する。
一方、人間のコミュニケーションの65%を非言語行動が担っているにも関わらず、インターネット上のコミュニケーションのほとんどが文字情報に依存している現状に着目し、非特許文献1は、Kinect(登録商標)を用いて動画を視聴するユーザの骨格情報を取得し、その骨格情報に基づいて生成した棒状のアバタを動画にオーバーレイ表示するシステムを開示する。
しかしながら、非特許文献1は、システムの利用者アンケートで、他のユーザとの一体感を感じられなかったという回答が多かったことを報告しており、その理由として、自分のアバタと他者のアバタが識別困難であったことや、自分のアバタと他者のアバタのインタラクションが表現できていなかったことなどを挙げている。
特開2008−148071号公報
吉田有花,宮下芳明、身体動作の重畳表示による動画上での一体感共有、情報処理学会インタラクション2012論文集、p527−523、2012年
本発明は、上記従来技術における課題に鑑みてなされたものであり、時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる新規な情報提示システムを提供することを目的とする。
本発明者は、時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる新規な情報提示システムにつき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。
すなわち、本発明によれば、複数の情報提示装置と情報配信サーバとがネットワークを介して接続される情報提示システムであって、前記情報提示装置は、ネットワークを介して配信される配信動画を第1の表示領域に表示する配信動画表示部と、前記第1の表示領域に表示される配信動画を視聴するユーザの身体動作に係る身体動作情報を取得する身体動作情報取得部と、前記身体動作情報に基づいて前記ユーザの身体動作を表現する第1のアバタを生成するアバタ生成部と、前記第1のアバタを第2の表示領域に表示するアバタ表示部と、を含み、前記情報配信サーバは、過去にユーザが配信動画を視聴したときの身体動作に係る身体動作情報を含むアバタ情報を保存するデータベースと、配信動画を表示する前記情報提示装置からの要求に応じて、過去に該配信動画を視聴した他のユーザの前記アバタ情報を送信するアバタ情報配信部と、を含み、前記アバタ生成部は、前記情報配信サーバから受信した前記アバタ情報に含まれる前記身体動作情報に基づいて、前記他のユーザの身体動作を再現する第2のアバタを生成し、前記アバタ表示部は、前記第1のアバタと前記第2のアバタを前記第2の表示領域に一緒に表示する、情報提示システムが提供される。
上述したように、本発明によれば、時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる新規な情報提示システムが提供される。
第1実施形態の情報提示システムのネットワーク構成を示す図。 第1実施形態における配信動画の視聴環境を示す図。 第1実施形態における動画視聴画面を示す図。 第1実施形態の情報提示システムを構成する各装置の機能構成を示す機能ブロック図。 第1実施形態における条件設定画面を示す図。 第1実施形態の情報提示システムが実行する処理を示すフローチャート。 第1実施形態における動画検索画面を示す図。 第1実施形態のデータ構造を示す図。 アバタの生成方法を説明するための概念図。 第1実施形態における骨格座標変換処理を示すフローチャート。 第1実施形態における分割表示モード時のアバタ表示領域を示す図。 第1実施形態における骨格座標変換処理を示すフローチャート。 第1実施形態における骨格座標変換処理を説明するための概念図。 第1実施形態における一括表示割モード時のアバタ表示領域を示す図。 第1実施形態におけるアバタ情報生成処理を示すフローチャート。 第1実施形態におけるコメント情報生成処理を示すフローチャート。 第1実施形態における音声再生モード時およびコメント表示モード時の動画視聴画面を示す図。 第2実施形態におけるアバタ表現のバリエーションを示す図。 第2実施形態の情報提示システムを構成する各装置の機能構成を示す機能ブロック図。 各種テーブルを示す図。 第2実施形態のアバタ情報のデータ構造を示す図。 第2実施形態の通知画面等を示す図。 第2実施形態の動画検索画面等を示す図。 第2実施形態の情報提示システムが実行する処理を示すフローチャート。 第2実施形態における動画視聴画面を示す図。 第2本実施形態におけるインタラクティブ情報生成処理を示すフローチャート。 第2実施形態の情報提示システムが実行する処理を示すフローチャート。 第2実施形態における動画視聴画面を示す図。 第2実施形態における投票受付処理等を示すフローチャート。 第2実施形態におけるメッセージ通知画面を示す図。 第2実施形態におけるメッセージ通知画面生成処理を示すフローチャート。 第3実施形態における条件設定画面を示す図。 第3実施形態における動画視聴画面を示す図。 第3実施形態における動画視聴画面を示す図。 第3実施形態における動画視聴画面を示す図。
以下、本発明を図面に示した実施の形態をもって説明するが、本発明は、図面に示した実施の形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。
(第1実施形態)
図1は、本発明の第1実施形態である情報提示システム100のネットワーク構成を示す。図1に示すように、本実施形態の情報提示システム100は、複数の情報提示装置10と、動画配信サーバ30と、アバタ情報配信サーバ20とを含んで構成されている。
情報提示装置10は、配信動画の視聴に使用されるパーソナル・コンピュータとして参照することができ、インターネットとして参照されるネットワーク50を介して動画配信サーバ30およびアバタ情報配信サーバ20のそれぞれと通信可能に接続されている。なお、以下では、情報提示装置10をPC10という。
動画配信サーバ30は、PC10からの要求に応じてデータベースから動画ファイル(以下、単に、動画という)を読み出して配信する。
一方、アバタ情報配信サーバ20は、PC10からの要求に応じてデータベースからアバタ情報を読み出して配信する。なお、アバタ情報の詳細については後述する。
続いて、本実施形態における配信動画の視聴環境を図2に基づいて説明する。図2に示すように、配信動画の視聴に使用されるPC10には、表示装置12と、モーションキャプチャ装置14と、マイク16と、スピーカー18が接続されている。ここで、モーションキャプチャ装置14は、配信動画を視聴するユーザ40の身体動作を3次元計測するための手段であり、適切な位置に固定される。
本実施形態では、ユーザ40が表示装置12に表示された配信動画を視聴しながらその内容に合わせて思い思いのアクション(身体動作/発話や発声)を起こすことを前提としており、モーションキャプチャ装置14は、配信動画を視聴するユーザ40の身体動作をトラッキングし、マイク16は、その間のユーザ40の発話や発声を収録する。
本実施形態に好適なモーションキャプチャ装置14としては、マイクロソフト社のKinect(登録商標、以下同様。)を挙げることができる。なお、Kinectはマイクを内蔵しているので、モーションキャプチャ装置14としてKinectを使用する場合はマイク16を省略することができる。
ここで、本実施形態のPC10は、配信動画とアバタを同時に視聴するための動画視聴画面を生成して表示装置12に表示する。
図3は、表示装置12に表示される動画視聴画面60を例示的に示す。図3に示すように、動画視聴画面60は、配信動画を表示するための配信動画表示領域62と、アバタを表示するためのアバタ表示領域64を備えている。動画視聴画面60において、配信動画表示領域62およびアバタ表示領域64のそれぞれがステージおよび観客席を想起させるように、配信動画表示領域62の下方に配置されるアバタ表示領域64が配置されている。
本実施形態においては、ステージに見立てた配信動画表示領域62に配信動画を表示するときに、これを視聴するユーザのアバタ(以下、ユーザアバタという)を観客席に見立てたアバタ表示領域64に表示する。このとき、配信動画表示領域62に表示される動画を過去に視聴した他のユーザのアバタ(以下、他者アバタという)をユーザアバタと一緒にアバタ表示領域64に表示することによって、配信動画を視聴するユーザは、あたかも他のユーザと一緒に同じステージを見ているかのような一体感や臨場感を演出する。
続いて、本実施形態の情報提示システム100を構成する各装置の機能構成を図4に示す機能ブロック図に基づいて説明する。
図4に示すように、本実施形態のPC10は、配信動画取得部102、アバタ情報取得部103、配信動画表示部104、アバタ表示部105、身体動作情報取得部106、アバタ生成部107、身体特徴情報取得部108、身体活性度算出部109、音声データ取得部110、音声出力部112、コメント取得部114、重なり判定部116、アバタ表示位置変更部117、アバタ情報生成部118を含んで構成される。なお、上述した各機能手段は、PC10に専用アプリケーションをインストールすることによって実現される。
配信動画取得部102は、動画配信サーバ30から動画を取得するための機能手段であり、ユーザが選択した動画を動画配信サーバ30からダウンロードする。
アバタ情報取得部103は、他のユーザのアバタ情報をアバタ情報配信サーバ20から取得するための機能手段であり、ユーザが動画配信サーバ30から配信される動画を視聴する際に、当該動画を過去に視聴した他のユーザのアバタ情報をアバタ情報配信サーバ20から取得する。
配信動画表示部104は、動画配信サーバ30から取得した動画を配信動画表示領域62(図3参照)に表示するための機能手段であり、例えば、動画配信サーバ30から配信される動画を配信動画表示領域62においてストリーミング再生する。
アバタ表示部105は、表示装置12に表示する動画を視聴するユーザのユーザアバタと当該動画を過去に視聴した他のユーザの他者アバタをアバタ表示領域64(図3参照)に一緒に表示するための機能手段である。ここで、本実施形態においては、アバタ表示領域64にアバタを表示する表示モードとして、「分割表示モード」と「一括表示モード」が用意されており、図5に示す条件設定画面70を介してユーザがいずれかのモードを選択できるようになっている。
身体動作情報取得部106は、アバタ表示領域64に表示される動画を視聴するユーザの身体動作に係る身体動作情報を取得するための機能手段である。ここでいう身体動作情報とは、モーションキャプチャ装置14がトラッキングしたユーザの身体動作を表すデータであり、本実施形態においては、ユーザの身体の関節の位置座標(以下、骨格座標という)の時系列データを身体動作情報とする。
アバタ生成部107は、身体動作情報取得部106が取得した身体動作情報に基づいてユーザの身体動作を表現するユーザアバタを生成するとともに、アバタ情報配信サーバ20から取得したアバタ情報に基づいて、他のユーザの身体動作を再現する他者アバタを生成するための機能手段である。なお、アバタ生成部107は、アバタの描画色の割り当ても行う。
身体特徴情報取得部108は、配信動画表示領域62に表示される動画を視聴するユーザの属性情報として、当該ユーザの身体特徴に係る身体特徴情報を取得するための機能手段である。
身体活性度算出部109は、配信動画表示領域62に表示される動画を視聴するユーザの属性情報として、当該ユーザの身体動作情報に基づいて身体の活性度を算出するための機能手段である。
音声データ取得部110は、配信動画表示領域62に表示される動画を視聴するユーザの属性情報として、当該ユーザが発した音声の音声データを取得するための機能手段である。
音声出力部112は、アバタ情報配信サーバ20から受信したアバタ情報に基づいて、配信動画表示領域62に表示する動画に同期させて他のユーザの音声を出力するための機能手段である。
コメント取得部114は、配信動画表示領域62に表示される動画を視聴するユーザの属性情報として、当該ユーザが発した音声の音声データから抽出した発話をテキスト化したコメントを取得するための機能手段である。
重なり判定部116は、ユーザがアバタの表示モードとして「一括表示モード」を選択した場合に、アバタ表示領域64におけるユーザアバタの表示位置と他者アバタの表示位置が重なるか否かを判定するための機能手段である。
アバタ表示位置変更部117は、ユーザアバタの表示位置と他者アバタの表示位置が重ならないようにアバタの表示位置を変更するための機能手段である。
アバタ情報生成部118は、アバタ情報を生成してアバタ情報配信サーバ20に送信するための機能手段である。ここで、送信するアバタ情報には、配信動画表示領域62に表示される動画を視聴するユーザの身体動作情報と、当該ユーザの属性情報と、これらの情報を取得した情報取得日時が含まれる。
一方、図4に示すように、本実施形態のアバタ情報配信サーバ20は、アバタ情報配信部22、アバタ情報管理部24、データベース26を含んで構成される。
データベース26には、ユーザが動画を視聴したときの身体動作情報を含むアバタ情報が当該動画に紐付けて保存するための機能手段である。
アバタ情報配信部22は、動画を配信したPC10からの要求に応答して、データベース26から当該動画を過去に視聴したユーザの他者アバタに係るアバタ情報を読み出し、PC10に送信するための機能手段である。
アバタ情報管理部24は、PC10から受信したアバタ情報をデータベース26に保存するための機能手段である。
以上、本実施形態の情報提示システム100を構成する各装置の機能構成について説明してきたが、次に、上述した各機能手段が実行する処理の内容を図6に示すフローチャートに基づいて説明する。
ユーザがPC10にインストールされた専用アプリケーションを起動すると、図7(a)に示すように、表示装置12の表示画面に動画検索画面が表示される。これを受けて、ユーザが動画検索画面に表示されるテキストボックスにキーワードを入力して検索を実行すると、図7(b)に示す検索結果画面が表示画面に表示される。これを受けて、ユーザが検索結果画面に表示された動画のサムネイル画像付きリストの中から任意の動画を選択すると、以下の処理が開始する。
まず、ステップ101で、配信動画取得部102がユーザが選択した動画を動画配信サーバ30から読み込む。続くステップ102では、アバタ情報取得部103が読み込んだ動画に係る動画IDを指定したアバタ情報取得要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信サーバ20のアバタ情報配信部22は、PC10から受信したアバタ情報取得要求が指定する動画IDに紐付いた1以上のアバタ情報をデータベース26から読み出して、PC10に送信する。
図8(a)は、データベース26に保存されるアバタ情報のデータ構造を模式的に示す。アバタ情報は、過去に動画を視聴したユーザのアバタに関する情報であり、図8(a)に示すように、動画IDに紐付けられた所定形式のファイル(例えば、CSVファイル)にまとめて記述される。ここで、各アバタ情報には、ユーザID、アバタアニメーションのフレーム番号を付与したユーザの骨格座標の時系列データ、アバタ情報の取得日時、身体活性度、ユーザの身長、ユーザの大きさ、音声データへのパス、コメント情報へのパスが記述される。
図8(b)は、データベース26に保存されるコメント情報のデータ構造を模式的に示す。コメント情報は、過去に配信動画を視聴したユーザが当該動画に対して付与したコメントに関する情報であり、図8(b)に示すように、動画IDに紐付けられた所定形式のファイル(例えば、CSVファイル)にまとめて記述される。ここで、各コメント情報には、ユーザID、コメント付与時間、コメントの内容が記述される。なお、ここでいうコメント付与時間とは、動画の再生開始時を起点とした相対時間を意味する。
また、データベース26に保存される音声データは、過去に配信動画を視聴したユーザが当該動画を視聴中に収録された音声データである。
アバタ情報配信サーバ20は、アバタ情報取得要求が指定する動画IDに紐付いたアバタ情報に記述されたパスに基づいてコメント情報および音声データを読み出し、それらをまとめてアバタ情報としてPC10に送信し、アバタ情報取得部103がこれを取得する。
再び図6に戻って説明を続ける。
続くステップ103では、モーションキャプチャ装置14による身体動作のトラッキングとマイク16による音声収録を開始すると同時に、続くステップ104で、配信動画表示部104がステップ101で読み込んだ動画を配信動画表示領域62(図3参照)に表示して再生を開始する。
その後、アバタのアニメーションのフレーム間隔(例えば、0.1[sec])に同期して以下に述べるステップ105〜110が繰り返し実行される。
まず、ステップ105では、身体動作情報取得部106がモーションキャプチャ装置14のトラッキングデータを解析してユーザの身体の関節の座標を骨格座標として取得し、取得した骨格座標(3次元座標)を2次元座標に変換する。そして、身体動作情報取得部106は、変換後の骨格座標(2次元座標)にフレーム番号[1]を付与して一時記憶に記憶する。
本実施形態では、ステップ105で、図9(a)に示すように、頭および背骨と四肢に存在する14箇所の関節の座標を骨格座標として取得しているが、他の実施形態では、ユーザの身体の関節のうち、任意の関節の座標を骨格座標として取得することができる。なお、骨格座標(3次元座標)を出力する機能を搭載したマイクロソフト社のKinectをモーションキャプチャ装置14として使用する場合は、身体動作情報取得部106は、Kinectが出力する骨格座標(3次元座標)を受け取って、それを2次元座標に変換する。
続くステップ106では、アバタ生成部107が先のステップ102で取得した他者アバタのアバタ情報からフレーム番号[1]が付与された骨格座標(2次元座標)を読み出す。
続くステップ107では、アバタ生成部107が先のステップ105で取得した骨格座標(2次元座標)に基づいてユーザアバタを生成し、先のステップ106で取得した骨格座標(2次元座標)に基づいて1以上の他者アバタを生成する。図8(c)は、ステップ107で生成されるアバタのクラスのデータ構造を模式的に示す。図8(c)に示すように、アバタクラスには、フレームカウンタと、アバタの骨格座標(2次元座標)と、オフセット値(後述する)が記述される。なお、この段階でオフセット値は初期値0とされる。本実施形態では、図9(b)に示すように、頭の座標を中心とする円を描画し、背骨の座標を中心とする楕円を描画し、四肢の座標を結んだ線分を描画することで人型アバタを生成するが、他の実施形態では、他の適切な規則に従ってアバタを生成することができる。
ステップ107でアバタを生成した後、続くステップ108で、アバタ表示位置変更部117が骨格座標変換処理を実行し、続くステップ109で、アバタ生成部107が色割り当て処理を実行する。このとき、ステップ108およびステップ109では、ユーザが選択した表示モードに応じて異なる処理が実行される。
ここでは、まず、ユーザが「分割表示モード」を選択した場合にアバタ表示位置変更部117が実行する骨格座標変換処理を図10(a)に示すフローチャートに基づいて説明する。
まず、ステップ201で、先のステップ107で生成したアバタ(ユーザアバタと他者アバタ)の総数でアバタ表示領域64を分割する。続くステップ202では、分割してなる複数の領域の中で最も中央に位置する領域をユーザアバタの表示領域として設定し、ステップ203で、残りの領域を他者アバタの表示領域として設定する。
続くステップ204では、ステップ203で設定した表示領域内に各アバタが収まるように、各アバタの骨格座標を変換して、処理を終了する。具体的には、設定した表示領域内に収まるように各アバタの大きさを縮小し、且つ、設定した表示領域内にアバタが移動するように縮小後の各アバタの骨格座標をシフトする。
次に、ユーザが「分割表示モード」を選択した場合にアバタ生成部107が実行する色割り当て処理を図10(b)に示すフローチャートに基づいて説明する。
まず、ステップ301で、ユーザアバタの描画色に任意の色を割り当てる。次に、ステップ302で、他者アバタの描画色にユーザアバタの描画色と識別可能な色を割り当てて、処理を終了する。なお、ステップ302では、識別可能な色の組を予め用意しておき、それぞれの色を各アバタの描画色に割り当てるようにしてもよいし、ユーザが選択した描画色をユーザアバタに割り当てるとともに、当該描画色と識別可能な色を自動的に他者アバタに割り当てるようにしてもよい。
図11(a)〜(c)は、「分割表示モード」時のアバタ表示領域64を例示する。図11に示す例では、ユーザアバタが白いアバタとして描画され、他者アバタが黒いアバタとして描画されている。このように、「分割表示モード」においては、ユーザアバタが他者アバタとは異なる色で中央に配置されるので、ユーザは自身のアバタを見失うことがない。
続いて、ユーザが「一括表示モード」を選択した場合にアバタ表示位置変更部117が実行する骨格座標変換処理を図12(a)に示すフローチャートに基づいて説明する。
まず、ステップ401で、図9(b)に示すように、先のステップ105で取得したユーザの両手首に係る骨格座標(2次元座標)を中心とする2つの矩形領域と、背骨に係る骨格座標を中心とする1つの矩形領域を判定領域C1に設定する一方で、他者アバタの背骨に係る骨格座標を中心とする1つの矩形領域のみを判定領域C2に設定する。
続くステップ402では、ユーザアバタの判定領域C1と他者アバタの判定領域C2が重複しているか否かを判断する。ここでは、アバタクラス(図8(c)参照)の骨格座標にオフセット値を加えた値に基づいて画定した判定領域C1および判定領域C2について、両者の重複を判断する。その結果、判定領域C1と判定領域C2が重複していないと判断された場合は(S402、No)、そのまま処理を終了し、各アバタのアバタクラスのオフセット値を変更しない。例えば、図13(a)に示すように、ユーザアバタUの判定領域C1と他者アバタAの判定領域C2とが重なっていない場合、ユーザアバタUおよび他者アバタAのそれぞれのアバタクラスのオフセット値は変更されることなく、ユーザアバタUおよび他者アバタAの表示位置はそのまま維持される。
一方、判定領域C1と判定領域C2が重複していると判断された場合は(S402、Yes)、処理はステップ403に進む。ステップ403では、重複した判定領域C2に係る他者アバタに係るアバタクラスのオフセット値を判定領域C1と判定領域C2が重複量だけ増減する。続くステップ404では、最新のオフセット値に基づいて重複した判定領域C2に係る他者アバタの骨格座標をシフトする。具体的には、重複した判定領域C2に係る他者アバタのアバタクラスに記述された骨格座標に対して最新のオフセット値を加算することで、当該他者アバタの骨格座標をシフトする。
例えば、ユーザアバタUの判定領域C1と他者アバタAの判定領域C2とが図13(b)に示すような形で重複している場合、ステップ403で、他者アバタAのX軸方向のオフセット値を重複量αだけ減分し、ステップ404で、他者アバタAの骨格座標に重複量αだけ減分されたオフセット値を加算することで骨格座標をX軸方向負方向にシフトする。この場合、他者アバタAが紙面左方向にαだけ移動することになる。一方、ユーザアバタUの判定領域C1と他者アバタAの判定領域C2とが図13(c)に示すような形で重複している場合、ステップ403で、他者アバタAのX軸方向のオフセット値を重複量βだけ増分し、ステップ304で、他者アバタAの骨格座標に重複量βだけ増分されたオフセット値を加算することで骨格座標をX軸方向正方向にシフトする。この場合、他者アバタAが紙面右方向にβだけ移動することになる。
次に、ユーザが「一括表示モード」を選択した場合にアバタ生成部107が実行する色割り当て処理を図12(b)に示すフローチャートに基づいて説明する。
まず、ステップ501で、ユーザアバタの描画色にHSV色空間における所定の色相角の色を割り当てる。なお、ステップ501では、予め設定された色をユーザアバタの描画色に割り当てるようにしてもよいし、ユーザに描画色を選択させるようにしてもよい。
続くステップ502では、次の他者アバタに割り当てる色の色相角を算出する。具体的には、360を全アバタ数で除算した値を角度増分とし、先のステップ501でユーザアバタの描画色に割り当てた色の色相角に当該角度増分を加算する。続くステップ503では、算出した色相角の色を割り当てが済んでいない次の他者アバタの描画色に割り当てる。
続くステップ504では、全ての他者アバタの色の割り当てが済んだか否かを判断し、済んでいない場合は(S504、No)、ステップ502に戻る。ステップ502では、ユーザアバタの描画色に割り当てた色の色相角に角度増分を加算し、ステップ503で、新たに算出された色相角の色を割り当てが済んでいない次の他者アバタの描画色に割り当てる。
以降、全ての他者アバタの色の割り当てが済むまで、ステップ502〜504の処理を繰り返し、全ての他者アバタの色の割り当てが済むと(S504、Yes)、処理はステップ505に進む。続くステップ505では、他者アバタに設定した色に所定の透明度(例えば、70%)を設定して、処理を終了する。
再び図6に戻って説明を続ける。
続くステップ110では、アバタ表示部105が、骨格座標変換処理(ステップ108)でシフトした骨格座標と色割り当て処理(ステップ109)で割り当てた描画色に基づいて生成されたユーザアバタおよび他者アバタの画像(1番目のフレーム画像)をアバタ表示領域64(図3参照)に描画する。以降、配信動画表示領域62に動画を再生している間、上述したステップ105〜110を繰り返し実行する。
この間、ステップ105では、新たに取得したユーザの骨格座標に対して付与するフレーム番号を1ずつ増分し、ステップ106では、アバタ情報から読み出す他者アバタの骨格座標のフレーム番号を1ずつ増分する。なお、ステップ109の色割り当て処理は、2巡目以降の処理では、前回に割り当てた描画色を維持することでスキップすることができる。
図14は、「一括表示割モード」時に、アバタ表示領域64に表示されるアバタのアニメーションを例示的に示す。図14(a)に示す例では、アバタ表示領域64に、配信動画表示領域62に表示される動画を視聴しているユーザのユーザアバタUと当該動画を過去に視聴した4名のユーザの他者アバタAが一緒に表示されている。このとき、動画を視聴するユーザが左右の空間を押しのけるようなジェスチャーをとると、これに応答して、図14(b)に示すように、他者アバタAの表示位置が変わる。
このように、「一括表示割モード」においては、ユーザアバタUが他者アバタAとは異なる色で中央に配置されるので、ユーザは自身のアバタを見失うことがない。また、近づくユーザアバタUに反応して他者アバタAがリアルタイムに離れる様子は、現実世界での自己と他人が距離を保つような感覚を想起させ、ユーザは、アバタ表現を介して他のユーザとの一体感を感じることができる。なお、「一括表示割モード」では、他者アバタAのそれぞれに別々の色が割り当てられ、且つ、各色に透過処理が施されるので、複数の他者アバタAの表示位置が重なった場合でも、各他者アバタAを見分けることが可能になる。
なお、上述した実施形態では、両手首に係る骨格座標を中心とする矩形領域や背骨に係る骨格座標を中心とする矩形領域を判定領域として設定する態様を示したが、これはあくまで例示であって、判定領域の位置や数および形状について種々の設計変更が可能であることはいうまでもない。例えば、両足首に係る骨格座標に係る判定領域を設定してもよいし、全ての骨格座標に係る判定領域を設定してもよい。全ての骨格座標に判定領域を設定した場合、ユーザが押しのけるジェスチャーなど能動的にアクションを起こさなくても、周りの他者アバタがユーザアバタから自然に距離を取るように振る舞うであろう。
動画の再生が終了すると、ステップ111で、モーションキャプチャ装置14によるトラッキングとマイク16による音声収録を同時に終了し、続くステップ112で、音声データ取得部110が収録した音声の音声データのファイルを生成・取得する。その後、続くステップ113において、アバタ情報生成部118がアバタ情報生成処理を実行して、処理を終了する。以下、アバタ情報生成処理を図15に示すフローチャートに基づいて説明する。
まず、ステップ601で、先のステップ105で取得した全フレームに係るユーザの骨格座標(2次元座標)を読み出す。
続く、ステップ602では、身体特徴情報取得部108が「ユーザの身長」および「ユーザの大きさ」を算出する。ここで、「ユーザの身長」および「ユーザの大きさ」は、それぞれ、ユーザの身長およびユーザの身体の大きさを表す適切な指標であればよい。例えば、身体特徴情報取得部108は、身体動作情報取得部106が取得したユーザの骨格座標(3次元座標)に含まれる、頭の座標と足首の関節の座標の間の距離を「ユーザの身長」として取得し、モーションキャプチャ装置14の撮影画像内のユーザが写った領域の画素数と深度に基づいて算出されたユーザの投影面積を「ユーザの大きさ」として取得する。
続くステップ603では、コメント取得部114がコメント情報生成処理を実行する。以下、ステップ603で実行されるコメント情報生成処理を図16(a)に示すフローチャートに基づいて説明する。
まず、ステップ701で、収録した音声データを読み込んだ後、続くステップ702で、音声認識処理により当該音声データからユーザの発話を抽出して、その内容をテキスト化する。最後に、ステップ703で、発話内容(テキスト)をコメント内容とし、当該発話の収録時間をコメント付与時間とするコメント情報を生成する。なお、ここでいう発話の収録時間は、動画の再生開始時を起点とした相対時間とする。
上述した手順でコメント情報を生成すると、処理はステップ604に進み、身体活性度算出部109が身体活性度算出処理を実行する。以下、ステップ604で実行される身体活性度算出処理を図16(b)に示すフローチャートに基づいて説明する。
まず、ステップ801では、先のステップ601で読み出した全フレームに係るユーザの骨格座標(2次元座標)の中から両手の骨格座標を読み出す。続くステップ802では、左手の骨格座標の分散と左手の骨格座標の分散をそれぞれ求める。最後に、ステップ803では、ステップ802で求めた両手の骨格座標の分散の合計値をユーザの身体活性度とする。
続くステップ605では、アバタ情報生成部118が、先のステップ601〜604で取得した「ユーザの骨格座標」、「ユーザの身長」、「ユーザの大きさ」、「身体活性度」、これらの情報の取得日時、再生した動画の動画ID、ユーザIDを記述したアバタ情報ファイルを生成し、生成したアバタ情報ファイルと、ステップ603で生成した「コメント情報」と音声データ取得部110が取得した「音声データ」とを併せて、アバタ情報配信サーバ20に送信して、処理を終了する。
一方、アバタ情報配信サーバ20のアバタ情報管理部24は、PC10から受信した「コメント情報」と「音声データ」を動画IDに紐付けてデータベース26に保存するとともに、その保存先のパスとPC10から受信したアバタ情報ファイルに含まれる情報を記述してなるアバタ情報(図8(a)参照)を生成して、データベース26に保存する。
以上、本実施形態の情報提示システム100が実行する処理の内容を説明してきたが、続いて、上述した「コメント情報」と「音声データ」の利用した情報提示方法を説明する。
本実施形態においては、配信動画表示領域62に表示する動画を過去に視聴した他のユーザの音声を再生するモード(以下、音声再生モードという)が用意されており、条件設定画面70(図5参照)を介してユーザが当該モードを選択できるようになっている。ここで、ユーザが音声再生モードを設定した場合、音声出力部112は、アバタ情報配信サーバ20から受信したアバタ情報に含まれる音声データを配信動画表示領域62に表示する動画に同期させて音声出力する。
図17(a)は、「音声再生モード」時の動画視聴画面60を示す。図17(a)に示す例では、ステージに見立てた配信動画表示領域62にロックコンサートの動画が表示されており、観客席に見立てたアバタ表示領域64には、その中央にユーザアバタUが表示され、その周りに多数の他者アバタAが表示されている。「音声再生モード」では、配信動画表示領域62に表示されるロックコンサートの動画を過去に視聴した他のユーザの音声を同時出力することより、観客席のざわめきや観客席に響く歓声を演出することができる。また、ユーザアバタに隣接する他者アバタに係る音声データをそれ以外の他者アバタに係る音声データよりも大きい音量で音声出力することによって、あたかも隣の観客の話声が漏れ聞こえてきているような臨場感を演出することもできる。
さらに、本実施形態においては、配信動画表示領域62に表示する動画を過去に視聴した他のユーザのコメントを表示するモード(以下、コメント表示モードという)が用意されており、条件設定画面70(図5参照)を介してユーザが当該モードを設定できるようになっている。ここで、ユーザがコメント表示モードを設定した場合、アバタ表示部105は、アバタ情報配信サーバ20から受信したアバタ情報に含まれるコメント情報のコメント内容(テキスト)をコメント付与時間に従って表示する。
図17(b)は、「音声再生モード」と「コメント表示モード」の両方を設定した時の動画視聴画面60を示す。図17(b)に示す例では、配信動画表示領域62に表示されるロックコンサートの動画を過去に視聴した他のユーザの音声が同時出力されることに加えて、ユーザアバタUに隣接する他者アバタAに対応するコメントのみが表示されている。この場合、観客席のざわめきや観客席に響く歓声の中で、隣に位置する他者アバタA(他のユーザ)の発話の内容を理解することができる。
最後に、アバタ表示領域64に表示させる他者アバタの選択方法について説明する。本実施形態においては、アバタ表示領域64に表示する他者アバタの上限数とその検索条件を図5に示す条件設定画面70を介して設定できるようになっている。図5に示す例では、他者アバタの検索条件として並び替え条件を設定できるように構成されており、プルダウンメニューから「新しい順」、「よく動く順」、「背の高い順」、「体の大きい順」が並び替え条件の項目として選択できるようになっている。
例えば、ユーザが条件設定画面70を介して、上限数「N」および項目「新しい順」を設定した場合、アバタ情報取得部103は、先のステップ102(図6参照)で設定された検索条件を含む要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信部22は、データベース26に保存された動画IDに紐付いた複数のアバタ情報の中から、「取得日時」の値が新しい上位N件のアバタ情報を読み出す。その後、アバタ情報配信部22は、読み出したアバタ情報に記述されたパスに基づいてコメント情報および音声データを読み出し、それらをまとめてアバタ情報としてPC10に送信する。
なお、アバタ情報配信部22は、ユーザが「よく動く順」を選択した場合は、データベース26から、「身体活性度」の値が大きい上位N件のアバタ情報を読み出し、ユーザが「背の高い順」を選択した場合は、データベース26から、「ユーザの身長」の値が大きい上位N件のアバタ情報を読み出し、ユーザが「体の大きい順」を選択した場合は、データベース26から、「ユーザの大きさ」の値が大きい上位N件のアバタ情報を読み出す。
以上、説明したように、本実施形態によれば、ユーザアバタが他者アバタとは異なる色でアバタ表示領域の中央に配置されるので、ユーザは自身のアバタを見失うことがない。また、ユーザアバタと他者アバタのインタラクティブ表現により時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる。
以上、本発明の第1実施形態を説明してきたが、続いて、本発明の第2実施形態を説明する。なお、以下では、第1実施形態の内容と共通する部分の説明を省略し、専ら、第1実施形態との相違点のみを説明するものとする。
(第2実施形態)
第2実施形態は、主に、下記(1)〜(4)の点で、第1実施形態と異なる。
(1)動画の「鑑賞モード」を選択できる点
第2実施形態では、“見ながら踊るモード”と“見るだけモード”という2つの「鑑賞モード」が用意される。ここで、“見ながら踊るモード”は、第1実施形態で説明したのと同様の動作モードであり、当該モードでは、ユーザの動きに連動するユーザアバタが動画視聴画面60に表示される。一方、“見るだけモード”は、ユーザが配信動画に連動する他者アバタの動きを鑑賞して楽しむモードであり、当該モードでは、ユーザの撮影や音声の収録は行わず、ユーザの動きに連動するユーザアバタは動画視聴画面60に表示されない。
(2)アバタ表現のバリエーションが用意されている点
第2実施形態では、図18(a)、(b)に示すように、ユーザの性別とユーザが選択した鑑賞モードを識別できるようなアバタ表現が用意される。この点につき、図18(a)は、“見ながら踊るモード”が選択された場合の、男性ユーザと女性ユーザのアバター表現を例示的に示す。また、図18(b)は、“見るだけモード”が選択された場合の、男性ユーザと女性ユーザのアバター表現を例示的に示す。加えて、本実施形態では、図18(c)に示すように、ユーザの身体特徴を識別できるようなアバタ表現が用意される。
(3)他のユーザに投票できる点
第2実施形態では、“見るだけモード”において、動画視聴画面60に表示される他者アバタがその身体動作を表現するところの他のユーザ(以下、他者アバタのユーザという)に対して投票することができる。
(4)他者アバタのユーザにメッセージを送ることができる点
第2実施形態では、“見るだけモード”において、動画視聴画面60に表示される他者アバタのユーザに宛ててメッセージを送ることができる。
以下では、専ら、上記(1)〜(4)に挙げた相違点について説明する。
ここでは、まず、図19に示す機能ブロック図に基づいて、第2実施形態の情報提示システム100を構成する各装置の機能構成について説明する。
図19に示すように、第2実施形態のPC10は、図4に示した第1実施形態のPC10の構成に加えて、投票受付部120、メッセージ受付部122、インタラクティブ情報生成部123を備える。
投票受付部120は、アバタ表示領域64に表示される他者アバタを介して当該他者アバタのユーザに対する投票を受け付けるための機能手段である。
メッセージ受付部122は、アバタ表示領域64に表示される他者アバタを介して当該他者アバタのユーザに宛てたメッセージを受け付けるための機能手段である。
インタラクティブ情報生成部123は、ユーザが選択した他者アバタのユーザの識別情報、他者アバタのユーザに対する投票および他者アバタのユーザに宛てたメッセージのいずれかを含むインタラクティブ情報を生成して、アバタ情報配信サーバ20に送信するための機能手段である。
一方、図19に示すように、第2実施形態のアバタ情報配信サーバ20は、図4に示した第1実施形態のアバタ情報配信サーバ20の構成に加えて、ユーザ認証部21、選択履歴管理部23、投票履歴管理部27、メッセージ履歴管理部28、通知画面生成部29を備える。
ユーザ認証部21は、アバタ情報配信サーバ20の利用者のユーザ認証を実行するための機能手段である。
選択履歴管理部23は、ユーザによる他者アバタの選択の履歴を管理するための機能手段である。
投票履歴管理部27は、他者アバタのユーザに対する投票の履歴を管理するための機能手段である。
メッセージ履歴管理部28は、他者アバタのユーザに宛てたメッセージの履歴を管理するための機能手段である。
通知画面生成部29は、ユーザを選択した他のユーザ、ユーザに投票した他のユーザおよびユーザにメッセージを送信した他のユーザのうちのいずれかを表示する通知画面を生成し、PC10に送信するための機能手段である。
また、第2実施形態では、アバタ情報配信サーバ20のデータベース26が、図20(a)〜(d)に示す4つのテーブル(ユーザ情報管理テーブル500、アバタ選択履歴管理テーブル600、投票履歴管理テーブル700、メッセージ履歴管理テーブル800)を保持する。以下、各テーブルの内容を説明する。
図20(a)に示すように、ユーザ情報管理テーブル500は、ユーザの「ユーザID」を格納するためのフィールド501と、ユーザの「パスワード」を格納するためのフィールド502と、ユーザの「ユーザ名」を格納するためのフィールド503と、ユーザの「性別」を格納するためのフィールド504とを含んでおり、ユーザ登録時に入力された上記情報(ユーザID、パスワード、ユーザ名、性別、…)を紐付けて管理する。なお、「ユーザ名」はユーザの本名に限らず、ニックネームであってもよい。
図20(b)に示すように、アバタ選択履歴管理テーブル600は、選択されたアバタが表すところのユーザ(以下、「選択先ユーザ」という)のユーザIDを格納するためのフィールド601と、当該アバタを選択した他のユーザ(以下、「選択元ユーザ」という)のユーザIDを格納するためのフィールド602と、選択元ユーザが選択先ユーザを選択した回数の累計(以下、「累積選択回数」という)を格納するためのフィールド603と、選択先ユーザを選択したときに選択元ユーザが選択していた「鑑賞モード」を格納するためのフィールド604と、選択元ユーザが選択先ユーザを選択した直近の日時(以下、「最終選択日時」という)を格納するためのフィールド605とを含む。
図20(c)に示すように、投票履歴管理テーブル700は、投票されたユーザ(以下、「投票先ユーザ」という)のユーザIDを格納するためのフィールド701と、投票先ユーザに投票した他のユーザ(以下、「投票元ユーザ」という)のユーザIDを格納するためのフィールド702と、投票元ユーザが投票先ユーザに投票した日時(以下、「投票日時」という)を格納するためのフィールド703とを含む。
図20(d)に示すように、メッセージ履歴管理テーブル800は、メッセージを送信されたユーザ(以下、「送信先ユーザ」という)のユーザIDを格納するためのフィールド801と、送信先ユーザにメッセージを送信した他のユーザ(以下、「送信元ユーザ」という)のユーザIDを格納するためのフィールド802と、送信元ユーザが送信先ユーザにメッセージを送信した日時(以下、「送信日時」という)を格納するためのフィールド803と、送信元ユーザが送信したメッセージ(テキストデータ)を格納するためのフィールド804と、送信元ユーザがメッセージを送信したときの動画視聴画面60をキャプチャした動画(以下、「キャプチャ動画」という)を格納するためのフィールド805とを含む。
ここで、図21は、第2実施形態のアバタ情報配信サーバ20のデータベース26に保存されるアバタ情報のデータ構造を示す。図21に示すように、第2実施形態では、第1実施形態のアバタ情報に記述されていた属性(ユーザID、アバタ情報の取得日時、身体活性度、ユーザの身長、ユーザの大きさ、音声データへのパス、コメント情報へのパス、ユーザの骨格座標の時系列データ)に加えて、ユーザの「ユーザ名」、ユーザの「性別」、ユーザを投票先とする投票数の累計である「累計得票数」および「会話モード」という4つの属性がアバタ情報に追加される。なお、「会話モード」の詳細については後述する。
以上、第2実施形態の情報提示システム100を構成する各装置の機能構成について説明してきたが、続いて、第2実施形態の情報提示システム100が実行する処理の内容を順を追って説明する。
本実施形態では、ユーザは、サービスの利用に際して、アバタ情報配信サーバ20が提供する所定のログイン画面を介してログインする。図22(a)は、アバタ情報配信サーバ20が提供するログイン画面を例示的に示す。ユーザがログイン画面に自身のユーザIDとパスワードを入力してログインボタンをクリックすると、PC10は、入力されたユーザIDとパスワードを含む認証要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信サーバ20のユーザ認証部21は、PC10から受信した認証要求に含まれるユーザIDおよびパスワードを、それぞれ、ユーザ情報管理テーブル500のフィールド501および502の値と照合し、両者が一致した場合に、当該ユーザのログインを許可する。
ユーザのログインが許可されたことを受けて、通知画面生成部29は、ログインユーザに対して3種類のアプローチ(選択・投票・メッセージ送信)を行った他のユーザの存在をログインユーザに知らしめるための通知画面80を生成してPC10に送信し、PC10がこれを表示する。
図22(b)は、PC10に表示される通知画面80を例示的に示す。図22(b)に示すように、通知画面80は、ログインユーザを選択した選択元ユーザを表示するための領域82と、ログインユーザに投票した投票元ユーザを表示するための領域84と、ログインユーザにメッセージを送信した送信元ユーザを表示するための領域86とを含み、通知画面生成部29は、以下の手順で通知画面80を生成する。
まず、ログインユーザのユーザIDをキーとして、アバタ選択履歴管理テーブル600(図20(b)参照)のフィールド601を検索し、キーに合致したレコードを、そのフィールド604の値(最終選択日時)の新しい順にソートする。次に、ソートしたレコードの上位N件のレコードのフィールド602およびフィールド604から、それぞれ、選択元ユーザの「ユーザID」および「鑑賞モード」を取得するとともに、取得した「ユーザID」に紐付いた「ユーザ名」と「性別」をユーザ情報管理テーブル500から取得する。次に、取得した「性別」と「鑑賞モード(“見ながら踊るモード”または“見るだけモード”)」に応じた態様のアバタを象ったアイコンを生成し、そのアイコンの上に取得した「ユーザ名」を付して、領域82に並べる。
次に、ログインユーザのユーザIDをキーとして、投票履歴管理テーブル700(図20(c)参照)のフィールド701を検索し、キーに合致したレコードを、そのフィールド703の値(投票日時)の新しい順にソートする。次に、ソートしたレコードの上位N個のレコードのフィールド702から投票元ユーザの「ユーザID」を取得するとともに、取得したユーザIDに紐付いた「ユーザ名」と「性別」をユーザ情報管理テーブル500から取得する。次に、取得した「性別」と「鑑賞モード(この場合、“見るだけモード”)」に応じた態様のアバタを象ったアイコンを生成し、そのアイコンの上に取得したユーザ名を付して、領域84に並べる。
次に、ログインユーザのユーザIDをキーとして、メッセージ履歴管理テーブル800(図20(d)参照)のフィールド801を検索し、キーに合致したレコードを、そのフィールド803の値(送信日時)の新しい順にソートする。次に、ソートしたレコードの上位N件のレコードのフィールド802から送信先ユーザの「ユーザID」を取得するとともに、取得したユーザIDに紐付いた「ユーザ名」と「性別」をユーザ情報管理テーブル500から取得する。次に、取得した「性別」と「鑑賞モード(この場合、“見るだけモード”)」に応じた態様のアバタを象ったアイコンを生成し、そのアイコンの上に取得したユーザ名を付して、領域86に並べる。
その後、通知画面80が表示されたことを受けて、ユーザが画面右上の“動画検索画面”ボタンをクリックすると、これに応答して、アバタ情報配信サーバ20が動画検索画面90をPC10に提供し、PC10がこれを表示する。
図23(a)は、PC10に表示される動画検索画面90を例示的に示す。図23(a)に示すように、本実施形態の動画検索画面90には、検索ワードを入力するためのテキストボックスに加えて、領域92に下記(1)〜(4)のプルダウンメニューが表示される。
(1)アバタの優先順位の並び替え条件を選択するためのプルダウンメニュー
本実施形態では、第1実施形態において条件設定画面70(図5参照)に表示されていたプルダウンメニューが、動画検索画面90に表示される。なお、本実施形態のプルダウンメニューでは、アバタの並び替え条件の項目として、「新しい順」、「よく動く順」、「得票数が多い順」、「選ばれた回数が多い順」が選択できるようになっている。
(2)アバタの性別を選択するためのプルダウンメニュー
本実施形態では、アバタ(ユーザ)の性別条件を選択できるようになっており、プルダウンメニューから、「性別不問」、「男性」、「女性」のいずれかを選択できるようになっている。
(3)鑑賞モードを選択するためのプルダウンメニュー
本実施形態では、先述したように、鑑賞モードを選択できるようになっており、プルダウンメニューから、「見ながら踊る」モード、または、「見るだけ」モードのいずれかを選択できるようになっている。
(4)会話モードを選択するためのプルダウンメニュー
本実施形態では、会話モードを選択できるようになっており、プルダウンメニューから、「全てのユーザ」または「選んだユーザ」のいずれかを選択できるようになっている。ここで、「会話モード」とは、ログインユーザが“見ながら踊るモード”を選択した際に収録した収録音声の再生の許可先を選択するモードであり、会話モードとして、「全てのユーザ」が選択された場合には、本サービスを利用する全てのユーザに対して、ログインユーザの収録音声の再生が許可され、会話モードとして、「選んだユーザ」が選択された場合には、ログインユーザが該当する動画を視聴する際に選択した他者アバタのユーザに限定して、ログインユーザの音声の再生が許可される。
上述した動画検索画面90が表示されたことを受けて、ユーザが領域92に表示される各プルダウンメニューの項目を選択した上で、テキストボックスにキーワードを入力して検索を実行すると、画面は、図23(b)に示す検索結果画面に遷移する。これを受けて、ユーザが検索結果画面に表示された動画のサムネイル画像付きリストの中から任意の動画を選択すると処理が開始する。
ここでは、まず、ユーザが鑑賞モードとして“見ながら踊るモード”を選択した場合に、図19に示す各機能手段が実行する処理の内容を図24に示すフローチャートに基づいて説明する。
まず、ステップ901で、配信動画取得部102がログインユーザが選択した動画を動画配信サーバ30から読み込む。続くステップ902では、アバタ情報取得部103が、読み込んだ動画に係る動画IDと、ログインユーザが動画検索画面90のプルダウンメニューで選択した“並び替え条件”と、ログインユーザの“性別条件”を指定したアバタ情報取得要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信サーバ20のアバタ情報配信部22は、まず、PC10から受信したアバタ情報取得要求に指定される動画IDに紐付いた1以上のアバタ情報の中から、当該要求において指定される“性別条件”に合致するアバタ情報を選出する。
具体的には、“性別条件”として「男性」が指定されていた場合には、性別属性として「男性」が記述されているアバタ情報を選出し、「女性」が指定されていた場合には、性別属性として「女性」が記述されているアバタ情報を選出し、「性別不問」が指定されていた場合には、指定される動画IDに紐付いた全てのアバタ情報を選出する。
続いて、アバタ情報配信部22は、“性別条件”に合致するアバタ情報の中から、受信したアバタ情報取得要求に指定される“並び替え条件”に合致するアバタ情報を選出する。ここで、“並び替え条件”として「得票数が多い順」が指定されていた場合、アバタ情報配信部22は、先に選出したアバタ情報の中から、そこに記述される「累計得票数」の値が大きい上位N件のアバタ情報を選出する。
一方、“並び替え条件”として「選ばれた回数が多い順」が指定されていた場合、アバタ情報配信部22は、まず、ログインユーザのユーザIDをキーとして、アバタ選択履歴管理テーブル600(図20(b)参照)のフィールド601を検索し、キーに合致したレコードを、そのフィールド603の値(累積選択回数)を1番目の優先順位とし、その605の値(最終選択日時)を2番目の優先順位として、昇順にソートする。次に、ソートしたレコードの上位から順番に、そのフィールド603の値(選択元ユーザのユーザID)と先に選出したアバタ情報に記述されるユーザIDを照合し、合致するユーザIDが記述されたアバタ情報を順次選出する、といった手順N回繰り返すことにより、上位N件のアバタ情報を選出する。
アバタ情報配信部22は、上述した手順で選出したN件のアバタ情報をデータベース26から読み出して、PC10に送信する。
続くステップ903では、モーションキャプチャ装置14による身体動作のトラッキングとマイク16による音声収録を開始すると同時に、続くステップ904で、配信動画表示部104がステップ901で読み込んだ動画の再生を開始する。その後、アバタのアニメーションのフレーム間隔(例えば、0.1[sec])に同期して、ステップ905〜910が繰り返し実行される。ここで、ステップ905〜910で実行される処理の内容は、第1実施形態の図6に示すステップ105〜110のそれと基本的には同じであるので、ここでは、その中でも、第1実施形態と一部内容が異なるステップ906および907の処理について説明する。
本実施形態のステップ906では、アバタ生成部107が先のステップ902で取得した他者アバタのアバタ情報からフレーム番号[1]が付与された骨格座標(2次元座標)を読み出すとともに、「ユーザ名」、「性別」、「ユーザの身長」、「ユーザの大きさ」を読み出す。
本実施形態のステップ907では、アバタ生成部107が、ユーザ情報管理テーブル500からログインユーザの「性別」を取得し、先のステップ905で取得した骨格座標(2次元座標)とログインユーザの「性別」に基づいてユーザアバタを生成する。具体的には、ログインユーザの「性別」に応じた態様のアバタ(図18参照)を生成して、ユーザの性別を識別できるようにする。加えて、アバタ生成部107は、生成したログインユーザのアバタの頭上にログインユーザの「ユーザ名」を付する。
同時に、アバタ生成部107は、先のステップ906で取得した骨格座標(2次元座標)、「ユーザ名」、「性別」、「ユーザの身長」、「ユーザの大きさ」という5種類の情報に基づいて他者アバタを生成する。具体的には、取得した「性別」に応じた態様を選択した上で、「ユーザの身長」の値に応じて他者アバタの高さを増減し、「ユーザの大きさ」の値に応じて他者アバタの幅を増減することによって、他者アバタが表すところの他のユーザの性別とその身体特徴を識別できるようにする。加えて、アバタ生成部107は、生成した他者アバタの頭上に当該他者アバタのユーザの「ユーザ名」を付する。図25(a)は、ユーザが“見ながら踊るモード”において、アバタの並び替え条件として「新しい順」または「選ばれた回数が多い順」を選択していた場合の動画視聴画面60を例示的に示す。
一方、ログインユーザが、アバタの並び替え条件として「よく動く順」を選択していた場合には、アバタ生成部107は、順位が1位となった他者アバタの頭上に”王冠”のアイコンを付加する。さらに、ログインユーザが、「得票数が多い順」を選択していた場合には、順位が1位となった他者アバタの頭上に”王冠”のアイコンを付加するともに、各他者アバタのユーザ名の横に「得票数」を表示する。図25(b)は、ユーザが“見ながら踊るモード”において、アバタの並び替え条件として、「得票数が多い順」を選択していた場合の動画視聴画面60を例示的に示す。
本実施形態では、動画の再生中、上述したステップ905〜910が繰り返し実行される。その後、動画の再生が終了すると、ステップ911で、モーションキャプチャ装置14によるトラッキングとマイク16による音声収録を同時に終了し、続くステップ912で、音声データ取得部110が収録した音声の音声データのファイルを生成・取得する。その後、続くステップ913において、アバタ情報生成部118がアバタ情報生成処理を実行する。
なお、ステップ913では、アバタ情報生成部118が、第1実施形態と同様に、図15に示すアバタ情報生成処理(ステップ601〜605)が実行されるところ、第2実施形態では、ステップ605の内容が以下の点で異なる。すなわち、本実施形態のステップ605では、アバタ情報生成部118が、ユーザ情報管理テーブル500からログインユーザの「ユーザ名」と「性別」を取得するとともに、ログインユーザが選択した「会話モード」を取得し、「会話モード」が「選んだユーザ」であった場合には、収録音声の再生許可先となるログインユーザが選択した他者アバタのユーザのユーザID(以下、再生許可先ユーザIDという)を取得する。その上で、アバタ情報生成部118は、取得した「ユーザ名」、「性別」、「会話モード」、「再生許可先ユーザID」と、先のステップ601〜604で取得した「ユーザの骨格座標」、「ユーザの身長」、「ユーザの大きさ」、「身体活性度」、これらの情報の「取得日時」、再生した動画の「動画ID」、ログインユーザの「ユーザID」を記述したアバタ情報ファイルを生成し、生成したアバタ情報ファイルと、ステップ603で生成した「コメント情報」と音声データ取得部110が取得した「音声データ」とを併せて、アバタ情報配信サーバ20に送信する。
これを受けて、アバタ情報配信サーバ20のアバタ情報管理部24は、PC10から受信した「コメント情報」と「音声データ」を動画IDに紐付けてデータベース26に保存するとともに、その保存先のパスとPC10から受信したアバタ情報ファイルに含まれる情報(「ユーザID」、「ユーザ名」、「性別」、「取得日時」、「「身体活性度」、「ユーザの身長」、「ユーザの大きさ」、「ユーザの骨格座標」、「会話モード」、「再生許可先ユーザID」)を記述してなるアバタ情報(図21参照)を生成して、データベース26に保存する。
最後に、ステップ914では、インタラクティブ情報生成部123が「インタラクティブ情報生成処理」を実行する。以下、図26に示すフローチャートに基づいて「インタラクティブ情報生成処理」を説明する。
まずステップ1001では、下記(1)〜(5)の情報をインタラクティブ情報に格納する。
(1)ログインユーザが選択した他者アバタのユーザのユーザID
(2)ログインユーザのユーザID
(3)ログインユーザが選択した鑑賞モード(この場合、“見ながら踊る”)
(4)他者アバタの選択日時(例えば、配信動画の再生を終了した日時)
(5)ログインユーザが視聴した配信動画の動画ID
続くステップ1002では、ログインユーザが選択した鑑賞モードによって処理が分岐し、この場合は、ログインユーザが選択した鑑賞モードは“見ながら踊るモード”であるので、処理はステップ1005に進む。続くステップ1005では、上記(1)〜(5)の情報が格納されたインタラクティブ情報をアバタ情報配信サーバ20に送信して、処理を終了する。
一方、アバタ情報配信サーバ20がPC10からインタラクティブ情報を受信したことに応答して、選択履歴管理部23が、インタラクティブ情報に含まれる上記(1)〜(4)の情報に基づいて、アバタ選択履歴管理テーブル600(図20(b)参照)を更新する。具体的には、インタラクティブ情報に含まれる他者アバタのユーザのユーザIDおよびログインユーザのユーザIDをキーとして、アバタ選択履歴管理テーブル600のフィールド601および602を検索し、2つのキーに合致するレコードが存在する場合は、そのフィールド603の値(累積選択回数)を1増分するとともに、当該レコードのフィールド604の値(鑑賞モード)をインタラクティブ情報に含まれる「見ながら踊る」に更新し、当該レコードのフィールド605の値(最終選択日時)をインタラクティブ情報に含まれる「選択日時」に更新する。
なお、2つのキーに合致するレコードが存在しない場合は、その組み合わせの数だけ、新たにレコードを追加して、追加したレコードのフィールド601、602、603、604、605に、それぞれ、インタラクティブ情報に含まれる他者アバタのユーザのユーザID、インタラクティブ情報に含まれるログインユーザのユーザID、累積選択回数「1」、インタラクティブ情報に含まれる鑑賞モード「見ながら踊る」、インタラクティブ情報に含まれる「選択日時」を格納する。
以上、ユーザが鑑賞モードとして“見ながら踊るモード”を選択した場合に実行される処理について説明してきたが、続いて、ユーザが鑑賞モードとして“見るだけモード”を選択した場合に実行される処理を、図27に示すフローチャートに基づいて説明する。
まず、ステップ1101で、配信動画取得部102がユーザが選択した動画を動画配信サーバ30から読み込む。続くステップ1102では、アバタ情報取得部103が、読み込んだ動画に係る動画IDと、ユーザが動画検索画面90のプルダウンメニューにおいて選択した“並び替え条件”および“性別条件”を指定したアバタ情報取得要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信サーバ20のアバタ情報配信部22は、まず、PC10から受信したアバタ情報取得要求に指定される動画IDに紐付いた1以上のアバタ情報の中から、当該要求において指定される“性別条件”と“並び替え条件”に合致するN件のアバタ情報を選出し、選出したN件のアバタ情報をデータベース26から読み出して、PC10に送信する。ここまでの処理は、“見ながら踊るモード”のそれと同じである。
続くステップ1103では、動画視聴画面60のビデオキャプチャを開始し、続くステップ1104で、配信動画表示部104がステップ1101で読み込んだ動画の再生を開始する。その後、アバタのアニメーションのフレーム間隔(例えば、0.1[sec])に同期して、ステップ1105〜1111が繰り返し実行される。ここで、ステップ1105〜1109のそれぞれのステップでは、図24に示すステップ906〜910と同様の処理が実行されるところ、“見るだけモード”では、ステップ1107とステップ1109の内容が以下の点で異なる。
具体的には、“見るだけモード”では、動画視聴画面60に、図28(a)に示すように、「アバタ移動」、「投票」、「メッセージ」という3つのアプローチ項目を選択するためのプルダウンメニュー65が表示され、ユーザがプルダウンメニュー65から「アバタ移動」を選択した場合、動画視聴画面60は、他者アバタのドラッグ&ドロップを受け付ける状態に遷移する。この場合、ユーザは、図28(a)に示すように、所望の他者アバタをドラッグ&ドロップすることによって任意の場所に移動させることができるようになる。ステップ1107の「骨格座標変換処理」では、ユーザが他者アバタを移動させることに伴って、アバタ表示位置変更部117が、移動する他者アバタのアバタクラスに記述された骨格座標に対してオフセット値を加算して、当該他者アバタの骨格座標をシフトする。
加えて、“見るだけモード”では、“見ながら踊るモード”のときにように、ログインユーザに連動するユーザアバタを生成しない代わりに、ステップ1109において、アバタ表示部105が、図28(a)に示すように、ログインユーザのアバタが椅子に座った態様を象ったアイコンをアバタ表示領域の中央に描画する。
また、“見るだけモード”では、上述したステップ1105〜1109に並行して、投票受付部120が「投票受付処理」を実行し(ステップ1110)、メッセージ受付部122が「メッセージ受付処理」を実行する(ステップ1111)。
“見るだけモード”では、ユーザがプルダウンメニュー65から「投票」を選択すると、動画視聴画面60が、他者アバタを介して投票を受け付ける状態に遷移し、投票受付部120が、図29(a)のフローチャートに示す処理を実行する。
ステップ1201では、他者アバタのクリックを待機し(ステップ1201、No)、図28(b)に示すように、ユーザがいずれかの他者アバタをクリックしたことを検知すると(ステップ1201、Yes)、続くステップ1202で、クリックされた他者アバタのユーザのユーザIDと、得票数「1」と、投票日時(他者アバタをクリックした日時)と、ログインユーザが視聴した配信動画の動画IDを紐付けた情報(以下、投票関連情報という)を一時記憶に記録する。
一方、ユーザがプルダウンメニュー65から「メッセージ」を選択すると、動画視聴画面60が、他者アバタを介してメッセージの送信を受け付ける状態に遷移し、メッセージ受付部122が図29(b)のフローチャートが示す処理を実行する。
ステップ1301では、他者アバタのクリックを待機し(ステップ1301、No)、ユーザがいずれかの他者アバタをクリックしたことを検知すると(ステップ1301、Yes)、続くステップ1302で、図30(a)に示すように、動画視聴画面60の上にメッセージの入力フォーム66をオーバーレイ表示して、メッセージの入力を受け付ける。これを受けて、ユーザが入力フォーム66にメッセージを入力して送信ボタンをクリックすると、続くステップ1303で、クリックされた他者アバタのユーザのユーザIDと、入力フォーム66に入力されたメッセージ(テキストデータ)と、送信日時(送信ボタンがクリックされた日時)を紐付けた情報(以下、メッセージ関連情報という)を一時記憶に記録する。
本実施形態では、動画の再生中、上述したステップ1105〜1111が繰り返し実行される。その後、動画の再生が終了すると、ステップ1112で、動画視聴画面60のビデオキャプチャを終了し、続くステップ1113で、動画視聴画面60のビデオキャプチャを収めたキャプチャ動画のファイルを取得する。その後、続くステップ1114において、インタラクティブ情報生成部123が「インタラクティブ情報生成処理」を実行して、処理を終了する。ここで、インタラクティブ情報生成部123が“見るだけモード”実行する「インタラクティブ情報生成処理」を図26に示すフローチャートに基づいて説明する。
まずステップ1001では、下記(1)〜(4)の情報をインタラクティブ情報に格納する。
(1)ログインユーザが選択した他者アバタのユーザのユーザID
(2)ログインユーザのユーザID
(3)ログインユーザが選択した鑑賞モード(この場合、“見るだけ”)
(4)他者アバタの選択日時(例えば、配信動画の再生を終了した日時)
(5)ログインユーザが視聴した配信動画の動画ID
続くステップ1002では、ログインユーザが選択した鑑賞モードによって処理が分岐し、この場合は、ログインユーザが選択した鑑賞モードは“見るだけモード”であるので、処理はステップ1003に進む。続くステップ1003では、一時記憶に先述の投票関連情報が格納されている場合に、当該投票関連情報をインタラクティブ情報に格納して、処理はステップ1004に進む。続くステップ1004では、一時記憶に先述のメッセージ関連情報が記憶されている場合に、当該メッセージ関連情報と、先のステップ1113(図27参照)で取得したキャプチャ動画ファイルをインタラクティブ情報に格納して、処理はステップ1005に進む。
続くステップ1005では、上記(1)〜(5)の情報、投票関連情報、メッセージ関連情報、およびキャプチャ動画ファイルが格納されたインタラクティブ情報をアバタ情報配信サーバ20に送信して、処理を終了する。
一方、アバタ情報配信サーバ20がPC10からインタラクティブ情報を受信したことに応答して、選択履歴管理部23は、インタラクティブ情報に含まれる上記(1)〜(4)の情報を読み出し、“見ながら踊るモード”におけるそれと同様の手順で、アバタ選択履歴管理テーブル600(図20(b)参照)を更新する。ただし、“見るだけモード”では、アバタ選択履歴管理テーブル600のフィールド604の値(鑑賞モード)が「見るだけ」に更新される。
加えて、“見るだけモード”では、投票履歴管理部27が、受信したインタラクティブ情報に含まれる投票関連情報に基づいて投票履歴管理テーブル700(図20(c)参照)を更新する。具体的には、投票関連情報に含まれる他者アバタのユーザのユーザIDの数だけ、新たにレコードを追加して、追加したレコードのフィールド701、702、703に、それぞれ、投票関連情報に含まれる他者アバタのユーザのユーザID、ログインユーザのユーザID、投票日時を格納する。また、投票履歴管理部27は、投票関連情報に含まれる動画IDと他者アバタのユーザのユーザIDをキーとして、データベース26に保存されるアバタ情報を検索し、2つのキーに合致するアバタ情報に記述される「累積得票数」の値を1増分する。
さらに、加えて、“見るだけモード”では、メッセージ履歴管理部28が、受信したインタラクティブ情報に含まれるキャプチャ動画ファイルをデータベース26に保存するとともに、受信したインタラクティブ情報に含まれるメッセージ関連情報に基づいてメッセージ履歴管理テーブル800(図20(d)参照)を更新する。具体的には、メッセージ関連情報に含まれる他者アバタのユーザのユーザIDの数だけ、新たにレコードを追加して、追加したレコードのフィールド801、802、803、804、805に、それぞれ、メッセージ関連情報に含まれる他者アバタのユーザのユーザID、ログインユーザのユーザID、送信日時、メッセージ(テキストデータ)、保存したキャプチャ動画ファイルへのパスを格納する。
以上、ユーザが鑑賞モードとして“見るだけモード”を選択した場合に実行される処理について説明してきたが、続いて、アバタ情報配信サーバ20の通知画面生成部29が実行する「メッセージ通知画面生成処理」を図31に示すフローチャートに基づいて説明する。
アバタ情報配信サーバ20の通知画面生成部29は、ユーザのPC10に通知画面80(図22(b)参照)を提供した後、領域86に表示する他者アバタ(のアイコン)のクリックを待機する(ステップ1201、No)。そして、ユーザが領域86に表示されるいずれかの他者アバタ(のアイコン)をクリックしたことを検知すると(ステップ1401、Yes)、続くステップ1402で、クリックされた他者アバタのユーザのユーザIDをキーとして、メッセージ履歴管理テーブル800を検索し、キーに合致したレコードのフィールド804からメッセージ(テキストデータ)を読み出すと同時に、フィールド804に格納されるパスにアクセスしてキャプチャ動画ファイルを読み出す。
その後、通知画面生成部29は、先のステップ1402で読み出したメッセージ(テキストデータ)とキャプチャ動画ファイルに基づいてメッセージ通知画面を生成し(ステップ1403)、生成したメッセージ通知画面をユーザのPC10に送信して(ステップ1404)、処理を終了する。図30(b)は、PC10に送信されたメッセージ通知画面67を例示的に示す。図30(b)に示す例では、メッセージ通知画面67として、キャプチャ動画の上にメッセージをオーバーレイ表示してなるダイアログ画面が通知画面80の上にオーバーレイ表示されている。
以上、本発明の第2実施形態を説明してきたが、続いて、本発明の第3実施形態を説明する。なお、以下では、第2実施形態の内容と共通する部分の説明を省略し、専ら、第2実施形態との相違点のみを説明するものとする。
(第3実施形態)
第3実施形態は、アバタの表示モードとして、先の挙げた「分割表示モード」および「一括表示モード」に加えて、「連行モード」が用意されており、図23に示す条件設定画面70を介してユーザがいずれかのモードを選択できるようになっている点で、第2実施形態と異なる。以下、「連行モード」について説明する。
ログインユーザが、鑑賞モードとして“見ながら踊るモード”を選択した場合において、「連行モード」を選択した場合、アバタ表示位置変更部117は、先のステップ907(図24参照)で生成したアバタ(ユーザアバタと他者アバタ)の総数と同数の矩形領域を定義し、定義した矩形領域を動画視聴画面60内に配信動画表示領域を囲むように配置する。その上で、動画視聴画面60の中央に位置する矩形領域をユーザアバタの表示領域として割り当て、残りの矩形領域を他者アバタの表示領域として割り当てる。ここで、ユーザアバタの表示領域の左右に設定される他者アバタの表示領域に対しては、ユーザアバタの表示領域に近い順番に優先順位が対応づけられており、並び替え条件に従って他者アバタを選択したときの昇順に従って、順位の高い他者アバタから順番に優先順位の高い表示領域(すなわち、ユーザアバタに近い表示領域)を割り当てる。アバタ表示位置変更部117は、各アバタが割り当てた表示領域内に収まるように、各アバタの骨格座標を変換する。
図33(a)は、「連行モード」が選択された場合の動画視聴画面60を例示的に示す。図33(a)において、破線で示す矩形領域がアバタの表示領域であり、各表示領域には丸囲み数字で優先順位を付している(ただし、表示領域を示す破線および優先順位は画面上には表示されない)。
ここで、第3実施形態では、図33(b)に示すように、ログインユーザ40がモーションキャプチャ装置14を前にして、丸囲み数字0〜8の位置(以下、位置0〜8という)を左右に移動することに同期して、ログインユーザのユーザアバタが、図33(a)に示す丸囲み数字0〜8が示す表示領域(以下、位置0〜8という)を移動するように構成されている。具体的には、アバタ表示位置変更部117は、モーションキャプチャ装置14の入力情報を解析して、ログインユーザが、図33(b)に示す位置0〜8のいずれに立っているかを判断し、ログインユーザが立っている位置(0〜8)に対応する表示領域(0〜8)にユーザアバタを移動させる。
これにより、ログインユーザが、例えば、図33(b)の位置8に移動すると、これに応答して、動画視聴画面60では、図34(a)に示すように、ユーザアバタAが表示領域8に移動する。このとき、表示領域8には、既に、他者アバタEが配置されており、ユーザアバタAと他者アバタEが同時に表示領域8に配置された状態となる。本実施形態では、アバタ表示位置変更部117が、ユーザアバタと他者アバタが同じ表示領域に同時に配置された状態になった場合に、所定の開始条件の成否を監視し、開始条件が成立した場合に、当該他者アバタが当該ユーザアバタに追従して移動する状態(以下、連行状態という)に遷移する。連行状態に遷移して以降は、ログインユーザが図33(b)に示す位置(0〜8)を左右に移動すると、これに同期して、ユーザアバタと他者アバタが、あたかも手をつないでいるかのように連れだって、表示領域(0〜8)を移動する。
ここで、本実施形態では、上述した開始条件の内容を限定するものではなく、例えば、モーションキャプチャ装置14の入力情報から、ログインユーザの所定のジェスチャー(例えば、物を掴む仕草や手招きの仕草など)が検出されたことを開始条件としても良いし、ユーザアバタと他者アバタが同じ表示領域に同時に配置された状態に至ってからの経過時間が所定の閾値に達したことを開始条件としても良い。
一方、アバタ表示位置変更部117は、ユーザアバタと他者アバタが連行状態に遷移して以降、所定の終了条件の成否を監視し、終了条件が成立した場合に、連行状態を解消する。ここで、本実施形態では、上述した終了条件の内容を限定するものではなく、例えば、モーションキャプチャ装置14の入力情報から、ログインユーザの所定のジェスチャー(例えば、物を手放す仕草や人を追い払う仕草など)が検出されたことを終了条件としても良いし、ユーザアバタと他者アバタがある表示領域に到着してからの経過時間が所定の閾値に達したことを終了条件としても良い。
本実施形態では、ログインユーザは、上述した連行状態への遷移とその解消の仕組みを利用して、所望の他者アバタを任意の表示位置に連行すること(移動させること)ができる。以下、この点を具体例に基づいて説明する。
図34(b)は、ユーザアバタAが他者アバタEを連行して表示領域2に移動している状態を示す。この例の場合、他者アバタEの頭上に連行状態に遷移していることを示すエクスクラメーションマーク「!」が表示されている。この後、ユーザアバタAと他者アバタEが、既に他者アバタDが配置されている表示領域2に進入し、ユーザアバタAと他者アバタEが表示領域2内に留まっている間に所定の終了条件が成立すると、ユーザアバタAと他者アバタEの連行状態は解消され、その時点で、当該表示領域2が他者アバタEの表示領域に設定される。
これを受けて、他の他者アバタが図35(a)に示すように移動する。すなわち、元々表示領域2に配置されていた他者アバタDは、表示領域2から表示領域4に移動し、元々表示領域4に配置されていた他者アバタHは、表示領域4から表示領域6に移動し、元々表示領域6に配置されていた他者アバタKは、表示領域6から他者アバタEが元々配置されていた表示領域2に移動する。最後に、他者アバタEとの連行状態を解消したユーザアバタが元の表示領域0に移動することによって、動画視聴画面60のアバタの配置態様は、図35(b)に示す態様となる。
以上、説明したように、本実施形態によれば、動画視聴画面60上で他者アバタを相手にした仮想的なインタラクションが可能になるだけでなく、他者アバタを介して、他のユーザに投票したり、他のユーザにメッセージを送信したりすることにより、リアルな他者を相手にしたリアルなインタラクションのきっかけが提供されることになる。
以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、その他、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などで記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。
10…情報提示装置
12…表示装置
14…モーションキャプチャ装置
16…マイク
18…スピーカー
20…アバタ情報配信サーバ
21…ユーザ認証部
22…アバタ情報配信部
23…選択履歴管理部
24…アバタ情報管理部
26…データベース
27…投票履歴管理部
28…メッセージ履歴管理部
29…通知画面生成部
30…動画配信サーバ
40…ユーザ
50…ネットワーク
60…動画視聴画面
62…配信動画表示領域
64…アバタ表示領域
65…プルダウンメニュー
66…入力フォーム
67…メッセージ通知画面
70…条件設定画面
80…通知画面
82,84,86…領域
90…動画検索画面
92…領域
100…情報提示システム
102…配信動画取得部
103…アバタ情報取得部
104…配信動画表示部
105…アバタ表示部
106…身体動作情報取得部
107…アバタ生成部
108…身体特徴情報取得部
109…身体活性度算出部
110…音声データ取得部
112…音声出力部
114…コメント取得部
116…重なり判定部
117…アバタ表示位置変更部
118…アバタ情報生成部
120…投票受付部
122…メッセージ受付部
123…インタラクティブ情報生成部
500…ユーザ情報管理テーブル
600…アバタ選択履歴管理テーブル
700…投票履歴管理テーブル
800…メッセージ履歴管理テーブル

Claims (31)

  1. 複数の情報提示装置と情報配信サーバとがネットワークを介して接続される情報提示システムであって、
    前記情報提示装置は、
    ネットワークを介して配信される配信動画を第1の表示領域に表示する配信動画表示部と、
    前記第1の表示領域に表示される配信動画を視聴するユーザの身体動作に係る身体動作情報を取得する身体動作情報取得部と、
    前記身体動作情報に基づいて前記ユーザの身体動作を表現する第1のアバタを生成するアバタ生成部と、
    前記第1のアバタを第2の表示領域に表示するアバタ表示部と、
    を含み、
    前記情報配信サーバは、
    過去にユーザが配信動画を視聴したときの身体動作に係る身体動作情報を含むアバタ情報を保存するデータベースと、
    配信動画を表示する前記情報提示装置からの要求に応じて、過去に該配信動画を視聴した他のユーザの前記アバタ情報を送信するアバタ情報配信部と、
    を含み、
    前記アバタ生成部は、
    前記情報配信サーバから受信した前記アバタ情報に含まれる前記身体動作情報に基づいて、前記他のユーザの身体動作を再現する第2のアバタを生成し、
    前記アバタ表示部は、
    前記第1のアバタと前記第2のアバタを前記第2の表示領域に一緒に表示する、
    情報提示システム。
  2. 前記情報提示装置は、
    前記第1の表示領域に表示される配信動画を視聴するユーザの前記身体動作情報を含むアバタ情報を生成して前記情報配信サーバに送信するアバタ情報生成部を含み、
    前記情報配信サーバは、
    前記情報提示装置から受信した前記アバタ情報を前記データベースに保存する、
    請求項1に記載の情報提示システム。
  3. 前記情報提示装置は、
    前記第1の表示領域に表示される配信動画を視聴するユーザの属性情報として、該ユーザの身体特徴に係る身体特徴情報を取得する身体特徴情報取得部を含む、
    請求項2に記載の情報提示システム。
  4. 前記身体特徴情報は、ユーザの身長および身体の大きさを含む、
    請求項3に記載の情報提示システム。
  5. 前記情報提示装置は、
    前記第1の表示領域に表示される配信動画を視聴するユーザの属性情報として、該ユーザの前記身体動作情報に基づいて該身体の活性度を算出する身体活性度算出部を含む、
    請求項2〜4のいずれか一項に記載の情報提示システム。
  6. 前記情報提示装置は、
    前記第1の表示領域に表示される配信動画を視聴するユーザの属性情報として、該ユーザが発した音声の音声データを取得する音声データ取得部を含む、
    請求項2〜5のいずれか一項に記載の情報提示システム。
  7. 前記情報提示装置は、
    前記第1の表示領域に表示される配信動画を視聴するユーザの属性情報として、該ユーザが発した音声の音声データから抽出した発話をテキスト化したコメントを取得するコメント取得部を含む、
    請求項2〜6のいずれか一項に記載の情報提示システム。
  8. 前記アバタ情報生成部は、
    前記身体動作情報と前記属性情報と情報取得日時を含む前記アバタ情報を前記情報配信サーバに送信する、
    請求項3〜7のいずれか一項に記載の情報提示システム。
  9. 前記情報提示装置は、
    前記第1の表示領域に表示する配信動画に同期させて前記情報配信サーバから受信した前記アバタ情報に含まれる前記音声データを音声出力する音声出力部を含む、
    請求項8に記載の情報提示システム。
  10. 前記音声出力部は、
    前記第1のアバタに隣接する前記第2のアバタに係る前記音声データをそれ以外の前記第2のアバタに係る前記音声データよりも大きい音量で音声出力する、
    請求項9に記載の情報提示システム。
  11. 前記アバタ表示部は、
    前記第1の表示領域に表示する配信動画に同期させて前記情報配信サーバから受信した前記アバタ情報に含まれる前記コメントを対応する前記他のユーザの前記第2のアバタに関連付けて表示する、
    請求項8〜10のいずれか一項に記載の情報提示システム。
  12. 前記アバタ表示部は、
    前記第1のアバタに隣接する前記第2のアバタに対応する前記コメントのみを表示する、
    請求項11に記載の情報提示システム。
  13. 前記情報提示装置は、
    表示する前記第2のアバタの上限数と検索条件を指定して前記情報配信サーバに前記アバタ情報を要求し、
    前記情報配信サーバは、
    指定された前記検索条件に合致する前記上限数以内の前記第2のアバタに係る前記アバタ情報を前記情報提示装置に送信する、
    請求項8〜12のいずれか一項に記載の情報提示システム。
  14. 前記検索条件は所定項目の並び替え条件であり、前記所定項目は前記情報取得日時、前記身長、前記身体の大きさ、および前記身体の活性度のうちのいずれかを含む、
    請求項13に記載の情報提示システム。
  15. 前記情報提示装置は、
    前記第2の表示領域における前記第1のアバタの第1の表示位置と前記第2のアバタの第2の表示位置が重なるか否かを判定する重なり判定部と、
    前記第1の表示位置と前記第2の表示位置が重なると判定したときに、両者が重ならなくなるように該第2の表示位置を変更するアバタ表示位置変更部と
    を含む、
    請求項1〜14のいずれか一項に記載の情報提示システム。
  16. 前記アバタ生成部は、
    前記第1のアバタおよび前記第2のアバタのそれぞれに異なる描画色を割り当て、該第2のアバタの描画色に所定の透明度を設定する、
    請求項15に記載の情報提示システム。
  17. 前記アバタ表示部は、
    前記第2の表示領域を前記第1のアバタと前記第2のアバタの総数で分割し、分割してなる複数の領域の中で最も中央に位置する領域を該第1のアバタの表示領域として設定し、残りの領域を該第2のアバタの表示領域として設定する、
    請求項1〜14のいずれか一項に記載の情報提示システム。
  18. 前記アバタ生成部は、
    前記第1のアバタおよび前記第2のアバタのそれぞれに異なる描画色を割り当てる、
    請求項17に記載の情報提示システム。
  19. 前記情報提示装置は、
    前記第2の表示領域に表示される前記第2のアバタを介して当該第2のアバタがその身体動作を表現するところの前記他のユーザに対する投票を受け付ける投票受付部を含む、
    請求項1〜18のいずれか一項に記載の情報提示システム。
  20. 前記情報提示装置は、
    前記第2の表示領域に表示される前記第2のアバタを介して当該第2のアバタがその身体動作を表現するところの前記他のユーザに宛てたメッセージを受け付けるメッセージ受付部を含む、
    請求項19に記載の情報提示システム。
  21. 前記情報提示装置は、
    ユーザが選択した前記第2のアバタがその身体動作を表現するところの前記他のユーザの識別情報、該他のユーザに対する投票および該他のユーザに宛てたメッセージを含むインタラクティブ情報を生成して、前記情報配信サーバに送信するインタラクティブ情報生成部を含む、
    請求項20に記載の情報提示システム。
  22. 前記情報配信サーバは、
    ユーザによる前記第2のアバタの選択の履歴を管理する選択履歴管理部を含む、
    請求項21に記載の情報提示システム。
  23. 前記情報配信サーバは、
    前記第2のアバタがその身体動作を表現するところの前記他のユーザに対する投票の履歴を管理する投票履歴管理部を含む、
    請求項22に記載の情報提示システム。
  24. 前記情報配信サーバは、
    前記第2のアバタがその身体動作を表現するところの前記他のユーザに宛てたメッセージの履歴を管理するメッセージ履歴管理部含む、
    請求項23に記載の情報提示システム。
  25. 前記情報配信サーバは、
    ユーザを選択した前記他のユーザ、ユーザに投票した前記他のユーザおよびユーザにメッセージを送信した前記他のユーザを表示する通知画面を生成し、前記情報提示装置に送信する通知画面生成部を含む、
    請求項24に記載の情報提示システム。
  26. 前記通知画面生成部は、
    前記他のユーザがユーザに宛てたメッセージを表示するメッセージ通知画面を生成し、前記情報提示装置に送信する、
    請求項25に記載の情報提示システム。
  27. 前記メッセージ通知画面は、
    前記他のユーザがメッセージを送信したときの表示画面をキャプチャした動画の上に該メッセージをオーバーレイ表示してなるダイアログ画面である、
    請求項26に記載の情報提示システム。
  28. 前記アバタ表示位置変更部は、
    前記第1のアバタと前記第2のアバタの総数と同数の矩形領域を定義し、表示画面の中央に位置する矩形領域を前記第1のアバタの表示領域として割り当て、その左右に位置する残りの矩形領域を前記第2のアバタの表示領域として割り当て、ユーザが表示画面に対して左右に移動することに同期して、前記第1のアバタを前記第2のアバタの表示領域に移動させる、
    請求項15〜27のいずれか一項に記載の情報提示システム。
  29. 前記アバタ表示位置変更部は、
    前記第1のアバタを前記第2のアバタの表示領域に移動させたときに、所定の開始条件が成立したことに応答して、該第2のアバタが該第1のアバタアバタに追従して移動する連行状態に遷移させ、所定の終了条件が成立したことに応答して、該連行状態を解消する、
    請求項15〜27のいずれか一項に記載の情報提示システム。
  30. ネットワークを介して配信される配信動画を第1の表示領域に表示する配信動画表示部と、
    前記第1の表示領域に表示される配信動画を視聴するユーザの身体動作に係る身体動作情報を取得する身体動作情報取得部と、
    前記身体動作情報に基づいて前記ユーザの身体動作を表現する第1のアバタを生成するアバタ生成部と、
    前記第1のアバタを第2の表示領域に表示するアバタ表示部と、
    を含む情報提示装置であって、
    前記アバタ生成部は、
    前記第1の表示領域に表示される配信動画を過去に視聴した他のユーザの身体動作に係る身体動作情報を含むアバタ情報に基づいて、該他のユーザの身体動作を再現する第2のアバタを生成し、
    前記アバタ表示部は、
    前記第1のアバタと前記第2のアバタを前記第2の表示領域に一緒に表示する、
    情報提示装置。
  31. コンピュータを、
    ネットワークを介して配信される配信動画を第1の表示領域に表示する配信動画表示手段、
    前記第1の表示領域に表示される配信動画を視聴するユーザの身体動作に係る身体動作情報を取得する身体動作情報取得手段、
    前記身体動作情報に基づいて前記ユーザの身体動作を表現する第1のアバタを生成するアバタ生成手段、
    前記第1のアバタを第2の表示領域に表示するアバタ表示手段、
    として機能させるためのプログラムであって、
    前記アバタ生成手段は、
    前記第1の表示領域に表示される配信動画を過去に視聴した他のユーザの身体動作に係る身体動作情報を含むアバタ情報に基づいて、該他のユーザの身体動作を再現する第2のアバタを生成し、
    前記アバタ表示手段は、
    前記第1のアバタと前記第2のアバタを前記第2の表示領域に一緒に表示する、
    プログラム。
JP2016135020A 2015-07-07 2016-07-07 情報提示システム、情報提示装置及びプログラム Active JP6718169B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015136112 2015-07-07
JP2015136112 2015-07-07

Publications (2)

Publication Number Publication Date
JP2017021799A true JP2017021799A (ja) 2017-01-26
JP6718169B2 JP6718169B2 (ja) 2020-07-08

Family

ID=57888248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135020A Active JP6718169B2 (ja) 2015-07-07 2016-07-07 情報提示システム、情報提示装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6718169B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188014A1 (ja) * 2016-04-27 2017-11-02 ソフトバンク株式会社 姿勢制御システム及びプログラム
JP2019101468A (ja) * 2017-11-28 2019-06-24 株式会社コロプラ 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法
JPWO2020213098A1 (ja) * 2019-04-17 2020-10-22
JP2021511741A (ja) * 2018-01-19 2021-05-06 イー・エス・ビー ラブス インコーポレイテッドEsb Labs,Inc. 仮想インタラクティブ視聴者インタフェース
WO2021131266A1 (ja) * 2019-12-26 2021-07-01 株式会社ドワンゴ プログラム、情報処理装置及び方法
JP2021132393A (ja) * 2019-06-25 2021-09-09 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム
JP2022002623A (ja) * 2020-06-23 2022-01-11 グリー株式会社 コンピュータプログラム、方法、及び、サーバ装置
JP2022062179A (ja) * 2020-09-28 2022-04-19 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP2023036662A (ja) * 2021-09-03 2023-03-14 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP2023036650A (ja) * 2018-05-10 2023-03-14 株式会社 ディー・エヌ・エー 動画を配信するためのシステム、方法、及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009301477A (ja) * 2008-06-17 2009-12-24 Yahoo Japan Corp コンテンツ編集装置、方法及びプログラム
JP2009303119A (ja) * 2008-06-17 2009-12-24 Yahoo Japan Corp コンテンツ更新装置、方法及びプログラム
JP2010066790A (ja) * 2008-09-08 2010-03-25 Taito Corp コンテンツ編集サーバ及びコンテンツ編集プログラム
JP2012528407A (ja) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション アバターを統合した共有メディア選択方法及びシステム
JP2012533134A (ja) * 2009-07-13 2012-12-20 マイクロソフト コーポレーション ユーザーから学習した入力を介し視覚表示を実写のようにする方法及びシステム
JP2014505280A (ja) * 2010-10-25 2014-02-27 サムスン エレクトロニクス カンパニー リミテッド ソーシャル・ネットワーク基盤のtv放送コンテンツ共有方法及びtv放送コンテンツ共有サーバ、ソーシャル・ネットワーク基盤のtv放送コンテンツ共有サービスを受信する方法及びtvデバイス
WO2014192552A1 (ja) * 2013-05-30 2014-12-04 ソニー株式会社 表示制御装置、表示制御方法及びコンピュータプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009301477A (ja) * 2008-06-17 2009-12-24 Yahoo Japan Corp コンテンツ編集装置、方法及びプログラム
JP2009303119A (ja) * 2008-06-17 2009-12-24 Yahoo Japan Corp コンテンツ更新装置、方法及びプログラム
JP2010066790A (ja) * 2008-09-08 2010-03-25 Taito Corp コンテンツ編集サーバ及びコンテンツ編集プログラム
JP2012528407A (ja) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション アバターを統合した共有メディア選択方法及びシステム
JP2012528404A (ja) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション アバターを統合した共有メディア体験方法及びシステム
JP2012533134A (ja) * 2009-07-13 2012-12-20 マイクロソフト コーポレーション ユーザーから学習した入力を介し視覚表示を実写のようにする方法及びシステム
JP2014505280A (ja) * 2010-10-25 2014-02-27 サムスン エレクトロニクス カンパニー リミテッド ソーシャル・ネットワーク基盤のtv放送コンテンツ共有方法及びtv放送コンテンツ共有サーバ、ソーシャル・ネットワーク基盤のtv放送コンテンツ共有サービスを受信する方法及びtvデバイス
WO2014192552A1 (ja) * 2013-05-30 2014-12-04 ソニー株式会社 表示制御装置、表示制御方法及びコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉田 有花: "身体動作の重畳表示による動画上での一体感共有", 情報処理学会 インタラクション2012 平成24年度 [DVD−ROM] 情報処理学会 インタラクシ, JPN6020005550, 31 March 2012 (2012-03-31), JP, pages 527 - 532, ISSN: 0004213491 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188014A1 (ja) * 2016-04-27 2017-11-02 ソフトバンク株式会社 姿勢制御システム及びプログラム
JP2019101468A (ja) * 2017-11-28 2019-06-24 株式会社コロプラ 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法
JP7064265B2 (ja) 2017-11-28 2022-05-10 株式会社コロプラ 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法
JP7329522B2 (ja) 2018-01-19 2023-08-18 イー・エス・ビー ラブス インコーポレイテッド 仮想インタラクティブ視聴者インタフェース
JP2021511741A (ja) * 2018-01-19 2021-05-06 イー・エス・ビー ラブス インコーポレイテッドEsb Labs,Inc. 仮想インタラクティブ視聴者インタフェース
JP7510994B2 (ja) 2018-05-10 2024-07-04 株式会社 ディー・エヌ・エー 動画を配信するためのシステム、方法、及びプログラム
JP2023036650A (ja) * 2018-05-10 2023-03-14 株式会社 ディー・エヌ・エー 動画を配信するためのシステム、方法、及びプログラム
JP7534476B2 (ja) 2019-04-17 2024-08-14 マクセル株式会社 映像表示装置及びその表示制御方法
WO2020213098A1 (ja) * 2019-04-17 2020-10-22 マクセル株式会社 映像表示装置及びその表示制御方法
JP7256870B2 (ja) 2019-04-17 2023-04-12 マクセル株式会社 映像表示装置及びその表示制御方法
JPWO2020213098A1 (ja) * 2019-04-17 2020-10-22
JP2021132393A (ja) * 2019-06-25 2021-09-09 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム
JP7167242B2 (ja) 2019-06-25 2022-11-08 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム
JP2021105879A (ja) * 2019-12-26 2021-07-26 株式会社ドワンゴ プログラム、情報処理装置及び方法
CN114402274A (zh) * 2019-12-26 2022-04-26 多玩国株式会社 程序、信息处理装置以及方法
JP7389009B2 (ja) 2019-12-26 2023-11-29 株式会社ドワンゴ プログラム、情報処理装置及び方法
CN114402274B (zh) * 2019-12-26 2024-04-26 多玩国株式会社 程序、信息处理装置以及方法
JP2021105707A (ja) * 2019-12-26 2021-07-26 株式会社ドワンゴ プログラム、情報処理装置及び方法
WO2021131266A1 (ja) * 2019-12-26 2021-07-01 株式会社ドワンゴ プログラム、情報処理装置及び方法
JP2022002623A (ja) * 2020-06-23 2022-01-11 グリー株式会社 コンピュータプログラム、方法、及び、サーバ装置
JP7526401B2 (ja) 2020-06-23 2024-08-01 グリー株式会社 コンピュータプログラム、方法、及び、サーバ装置
JP2022062179A (ja) * 2020-09-28 2022-04-19 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7376029B2 (ja) 2020-09-28 2023-11-08 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP2023036662A (ja) * 2021-09-03 2023-03-14 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP7455300B2 (ja) 2021-09-03 2024-03-26 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JP6718169B2 (ja) 2020-07-08

Similar Documents

Publication Publication Date Title
JP6718169B2 (ja) 情報提示システム、情報提示装置及びプログラム
US11468672B2 (en) Intelligent agents for managing data associated with three-dimensional objects
US20190026945A1 (en) Real-time immersive mediated reality experiences
JP6369462B2 (ja) クライアント装置、制御方法、システム、およびプログラム
JP6510536B2 (ja) インスタント通信において表現情報を処理する方法及び装置
US10864447B1 (en) Highlight presentation interface in a game spectating system
JP2023551476A (ja) ビデオゲームのコンテンツに含めるためのグラフィックインターチェンジフォーマットファイル識別
US20220174361A1 (en) Spectator filter video compositing
WO2020255767A1 (ja) 情報処理システム、情報処理方法、及び記録媒体
JP2014082582A (ja) 視聴装置、コンテンツ提供装置、視聴プログラム、及びコンテンツ提供プログラム
KR101977893B1 (ko) 영상컨텐츠 적용 디지털액터의 운용방법
KR20200097637A (ko) 시뮬레이션 모래상자 시스템
US9025832B2 (en) Automated sensor driven friending
Kasuya et al. LiVRation: Remote VR live platform with interactive 3D audio-visual service
JP6431259B2 (ja) カラオケ装置、ダンス採点方法、およびプログラム
JP5169239B2 (ja) 情報処理装置および方法、並びにプログラム
JP2000184339A (ja) 放送送信装置、放送受信装置、放送方法
Hamilton Perceptually coherent mapping schemata for virtual space and musical method
JP7550411B1 (ja) プログラム、情報処理方法、サーバ、サーバの情報処理方法及び情報処理システム
JP7314387B1 (ja) コンテンツ生成装置、コンテンツ生成方法、およびプログラム
US11878250B2 (en) Content enhancement system and method
JP6959462B1 (ja) 画像表示装置、プログラム及び画像表示システム
JP7288990B2 (ja) 動画配信システム、動画配信方法及び動画配信プログラム
US20240334026A1 (en) Video processing method and video processing system
US20220383904A1 (en) Oooh platform: content management tool for chaining user generated video content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200605

R150 Certificate of patent or registration of utility model

Ref document number: 6718169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150