JP7053074B1 - 鑑賞システム、鑑賞装置及びプログラム - Google Patents

鑑賞システム、鑑賞装置及びプログラム Download PDF

Info

Publication number
JP7053074B1
JP7053074B1 JP2021079862A JP2021079862A JP7053074B1 JP 7053074 B1 JP7053074 B1 JP 7053074B1 JP 2021079862 A JP2021079862 A JP 2021079862A JP 2021079862 A JP2021079862 A JP 2021079862A JP 7053074 B1 JP7053074 B1 JP 7053074B1
Authority
JP
Japan
Prior art keywords
performer
character
viewing
behavior
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021079862A
Other languages
English (en)
Other versions
JP2022173870A (ja
Inventor
卓也 加藤
宣永 石川
高志 大柿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021079862A priority Critical patent/JP7053074B1/ja
Priority to US17/532,779 priority patent/US11641459B2/en
Application granted granted Critical
Publication of JP7053074B1 publication Critical patent/JP7053074B1/ja
Publication of JP2022173870A publication Critical patent/JP2022173870A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】臨場感の高い鑑賞体験を実現する両眼立体視コンテンツの配信技術を提供する。【解決手段】演者の身体運動に基づいて挙動制御がなされる演者キャラクタを提示するコンテンツの鑑賞体験を鑑賞ユーザに提供する鑑賞システムであって、演者に係る演者キャラクタを配置した3次元空間における演出を提示する両眼立体視コンテンツであり、演者の身体運動を示す運動情報を取得し、演者キャラクタの挙動を制御し、鑑賞ユーザによりなされた操作入力の情報を取得し、決定した視点の情報に基づいて、コンテンツに係る描画された画像を提示する。第1演者キャラクタ505は3次元空間中の第1領域に配置され、鑑賞ユーザに係る視点及び第2演者キャラクタ506は第1領域とは異なる第2領域に配置される。挙動制御手段は、運動情報に基づいて演者キャラクタの挙動を制御する。【選択図】図6

Description

特許法第30条第2項適用 配信日:令和2年9月27日 配信プラットフォーム:アプリケーション「VARK」(Oculus Quest,Oculus Quest2,PlayStation VR,Android,iOS) 公開者:株式会社VARK
特許法第30条第2項適用 公開日:令和2年9月2日 配信プラットフォーム:アプリケーション「VARK」(Oculus Quest,Oculus Quest2,PlayStation VR,Android,iOS) 公開者:株式会社VARK
特許法第30条第2項適用 ウェブサイトの掲載日:令和2年9月2日 ウェブサイトのアドレス:https://lp.vark.co.jp/futaride_miru_hololive/ 公開者:株式会社VARK
特許法第30条第2項適用 ウェブサイトの掲載日:令和2年9月2日 ウェブサイトのアドレス:https://twitter.com/VarkOfficial https://twitter.com/VarkOfficial_EN 公開者:株式会社VARK
特許法第30条第2項適用 ウェブサイトの掲載日:令和2年9月3日 ウェブサイトのアドレス:https://prtimes.jp/main/html/searchrlp/company_id/32796 公開者:株式会社VARK
特許法第30条第2項適用 ウェブサイトの掲載日:令和2年9月28日 ウェブサイトのアドレス:https://www.wantedly.com/companies/vark/ 公開者:株式会社VARK
特許法第30条第2項適用 ウェブサイトの掲載日:令和3年2月19日 ウェブサイトのアドレス:https://corp.vark.co.jp/news/ 公開者:株式会社VARK
特許法第30条第2項適用 ウェブサイトの掲載日:令和3年2月20日 ウェブサイトのアドレス: https://www.animenewsnetwork.com/press-release/2021-02-20/hololive-vtubers-headline-immersive-cinderella-switch-virtual-concert-on-mar-27/.169728 https://www.animenewsnetwork.com/press-release/2021-03-28/hololive-vtubers-come-to-oculus-quest-smartphones-more-in-virtual-concert-april-24/.171217 https://www.animenewsnetwork.com/press-release/2021-04-25/hololive-vtubers-come-to-oculus-quest-smartphones-more-in-virtual-concert-may-29/.172096 公開者:株式会社VARK
本発明は、鑑賞システム、鑑賞装置及びプログラムに関し、特に両眼立体視コンテンツの配信技術に関する。
テレビ受像機やヘッドマウンテッドディスプレイ(HMD)等、両眼立体視を可能ならしめる機器が一般に流通しており、ユーザは、このような機器を用いることで両眼立体視コンテンツ(以下、3Dコンテンツとして言及)を手軽に鑑賞することが可能になってきている。
このような機器で鑑賞可能な3Dコンテンツの1つに、音楽ホールやライブハウス等の会場を模した空間のステージ上に、演者の挙動に連動したキャラクタ(以下、演者キャラクタとして言及)を配置し、当該演者キャラクタを介して行われる歌唱やダンス等のパフォーマンスを、同空間のフロア中の特定の位置から鑑賞する体験を提供するバーチャルリアリティライブ(以下、VRライブとして言及)がある。特許文献1には、複数の鑑賞ユーザが同時に鑑賞可能なVRライブを提供するコンテンツ配信システムが開示されている。
特許第6688378号公報
ところで、VRライブでは、鑑賞ユーザと演者キャラクタとの間でのコミュニケーションやインタラクションが可能であることが、興趣性を向上させるためには好ましい。一方で、演者キャラクタのパフォーマンスを複数の鑑賞ユーザが同時鑑賞するというVRライブの提供態様では、鑑賞ユーザと演者キャラクタの1対1のインタラクションを実現することは難しい。このため、特許文献1のコンテンツ配信システムでは、例えば鑑賞ユーザによりなされた特定の操作入力を集計し、鑑賞ユーザに関連付けてフロアに配置されたモブキャラクタの挙動制御を集計結果に応じて行うことで、鑑賞ユーザのリアクションを演者にフィードバックできる、1対多のインタラクションを実現する機能が開示されている。
しかしながら、このような機能は、鑑賞ユーザのリアクションを間接的に演者に伝達するものであり、鑑賞ユーザと演者キャラクタ間のインタラクションとしては限定的なものであった。例えば、特許文献1の態様では、集計結果または当該集計結果が反映されたモブキャラクタの挙動を介して演者が鑑賞ユーザのリアクションを把握し、パフォーマンス中に呼応することで鑑賞ユーザと演者キャラクタ間のインタラクションを実現可能であるが、鑑賞ユーザがリアクションを行ったタイミングから遅延して演者キャラクタが呼応するものであり、臨場感が薄れる可能性があった。
本発明は、上述の問題点に鑑みてなされたものであり、臨場感の高い鑑賞体験を実現する鑑賞システム、鑑賞装置及びプログラムを提供することを目的とする。
前述の目的を達成するために、本発明の鑑賞システムは、演者の身体運動に基づいて挙動制御がなされる演者キャラクタを提示するコンテンツの鑑賞体験を、鑑賞ユーザに提供する鑑賞システムであって、コンテンツは、第1演者に係る第1演者キャラクタと第2演者に係る第2演者キャラクタを配置した3次元空間における演出を提示する両眼立体視コンテンツであり、鑑賞システムは、第1演者の身体運動を示す第1運動情報を取得する第1取得手段と、第1演者キャラクタの挙動を制御する第1挙動制御手段と、第2演者の身体運動を示す第2運動情報を取得する第2取得手段と、第2演者キャラクタの挙動を制御する第2挙動制御手段と、鑑賞ユーザによりなされた操作入力の情報を取得する第3取得手段と、コンテンツについて、鑑賞ユーザに係る3次元空間中の視点を決定する決定手段と、決定手段により決定された視点の情報に基づいて、コンテンツに係る提示画像を描画する描画手段と、描画手段により描画された提示画像を提示する提示手段と、を有し、第1演者キャラクタは、3次元空間中の第1領域に配置され、鑑賞ユーザに係る視点及び第2演者キャラクタは、3次元空間中の第1領域とは異なる第2領域に配置され、第1挙動制御手段は、第1取得手段により取得された第1運動情報に基づいて第1演者キャラクタの挙動を制御し、第2挙動制御手段は、第2取得手段により取得された第2運動情報、及び第3取得手段により取得された操作入力の情報、の少なくともいずれかに基づいて第2演者キャラクタの挙動を制御することを特徴とする。
このような構成により本発明によれば、臨場感の高い鑑賞体験を実現することが可能となる。
本発明の実施形態及び変形例に係る鑑賞システムの構成を例示した図 本発明の実施形態及び変形例に係る鑑賞クライアント100の機能構成を例示したブロック図 本発明の実施形態及び変形例に係る演者クライアント200の機能構成を例示したブロック図 本発明の実施形態及び変形例に係る配信サーバ300の機能構成を例示したブロック図 本発明の実施形態及び変形例に係る、提供コンテンツに対応して構築される3次元空間を例示した図 本発明の実施形態及び変形例に係る鑑賞クライアント100で提示される提示画像を例示した図 本発明の実施形態に係る鑑賞システムにおいて、鑑賞体験の提供に係り実行される提示処理を例示したフローチャート
[実施形態]
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴は任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
以下に説明する一実施形態は、鑑賞システムの一例としての、2人演者の身体運動に基づいて挙動制御がなされる2体の演者キャラクタを提示する両眼立体視コンテンツの鑑賞体験を、鑑賞ユーザに提供可能な鑑賞システムに、本発明を適用した例を説明する。しかし、本発明は、複数の演者の身体運動に基づいて各々挙動制御がなされる複数の演者キャラクタを提示するコンテンツの鑑賞体験を、鑑賞ユーザに提供することが可能な任意の機器群及びシステムに適用可能である。
また、本明細書において、「演者キャラクタ」とは、両眼立体視コンテンツに登場する鑑賞対象のキャラクタを指すものとして説明する。以下の実施形態では、演者キャラクタは、人物である演者により実際に行われた身体部位の運動、及び発声の身体運動に基づいて挙動の制御が行われるものとして説明するが、本発明の実施において身体運動はこれらに限定されるものではなく、このうちの一部、あるいは、演者により行われる他の動作に基づいて挙動の制御が行われるものであってもよい。
《鑑賞システムの構成》
図1は、本発明の実施形態に係るシステムの構成を示した図である。図示されるように、鑑賞システムは、本発明に係る鑑賞装置としての、両眼立体視コンテンツを鑑賞する鑑賞ユーザが使用する鑑賞クライアント100、演者キャラクタの演者側で使用される演者クライアント200、及び同配信装置としての、コンテンツ配信に係るサービスプラットフォームを提供する配信サーバ300とを含む。鑑賞システムにおいて、鑑賞クライアント100と配信サーバ300、演者クライアント200と配信サーバ300はネットワーク500を介して通信可能に接続される。
また演者クライアント200にはモーションキャプチャシステム400が接続されており、演者により行われた身体運動の少なくとも一部は、モーションキャプチャシステム400を介して取得可能である。より詳しくは、モーションキャプチャシステム400は、演者に装着された複数のセンサからの出力によって演者の身体運動を計測可能に構成されており、その計測結果に基づいて当該身体運動を示す運動情報を構成して演者クライアント200に出力する。演者クライアント200は、配信サーバ300によるコンテンツの配信がなされている期間、モーションキャプチャシステム400を介して取得された運動情報(モーションデータ)を配信サーバ300に伝送する。本実施形態では、モーションキャプチャシステム400により出力される運動情報が、配信される両眼立体視コンテンツに適合したモーションデータとして取得されるものとして説明するが、演者クライアント200において両眼立体視コンテンツに適合する態様に変換や調整する処理がなされるものであってもよい。
本実施形態では、モーションキャプチャシステム400が1人の演者に係る身体運動を検出及び取得可能であるものとし、演者クライアント200及びモーションキャプチャシステム400が2人の演者のそれぞれについて設けられるものとして説明するが、本発明の実施はこれに限られるものではない。例えば、1つのモーションキャプチャシステム400により複数人の演者の身体運動が検出可能である態様、あるいは、1人の演者に係る身体運動を検出可能なモーションキャプチャシステム400が演者クライアント200に複数接続される態様であってもよい。この場合、1つの演者クライアント200は、複数人の演者キャラクタに係る運動情報を配信サーバ300に伝送する。
なお、本実施形態では発明の理解を容易にならしめるべく、モーションキャプチャシステム400は、演者により行われる身体運動を、該演者に装着された複数のセンサの出力により取得する方式であるものとして説明するが、本発明の実施はこれに限られるものではない。演者により行われる身体運動は、例えば演者に装着された複数のマーカそれぞれの3次元位置を、複数台の撮像装置からの撮像画像中の位置に基づいて三角測量することにより導出する方式や、演者の全身または上半身等の特定の部位を撮像した撮像画像や深度画像を画像解析することにより身体パーツを特定して導出する方式等、いずれの方式で取得されるものであってもよいことは言うまでもない。
本鑑賞システムにおいて、鑑賞ユーザは、演者の身体運動に連動した演者キャラクタの提示及び演者が発した音声の提示を含む、演者キャラクタによるステージパフォーマンスを鑑賞する両眼立体視コンテンツを、「ライブ配信」の態様で提供する。ライブ配信は、配信サーバ300に接続する複数の鑑賞クライアント100において鑑賞可能であり、即ち、複数の鑑賞ユーザの同時の鑑賞が実現可能に構成されている。なお、本実施形態ではモーションキャプチャシステム400により身体運動が取得される演者が、配信する両眼立体視コンテンツに係る演者キャラクタの発する音声も入力するものとして説明するが、演者キャラクタに係る動作と音声は、各々異なる演者によって行われるものであってよい。あるいは、演者によってリアルタイムに行われるものではなく、予め構成されたモーションデータや音声データを利用することにより提示されるものであってもよいことは言うまでもない。
詳細は後述するが、本実施形態の鑑賞システムにより提供される両眼立体視コンテンツの鑑賞体験は、演者クライアント200による(モーションキャプチャシステム400を介した)運動情報及び演者の発した音声に係る音声情報の取得と、配信サーバ300による当該運動情報や音声情報を含む両眼立体視コンテンツの鑑賞に必要なデータの鑑賞クライアント100への配信、及び鑑賞クライアント100における配信された情報に基づく3次元描画及び音声再生により実現される。本鑑賞体験は、各鑑賞ユーザが所望の態様(所望の鑑賞位置及び鑑賞方向)で鑑賞可能なよう、各鑑賞クライアント100において生成された提示画像により行われる。鑑賞ユーザの姿勢や操作入力に応じた態様の提示画像を配信サーバ300で生成することも可能であるが、複数の鑑賞ユーザが両眼立体視コンテンツを同時鑑賞する特性上、配信サーバ300の演算負荷を低減させることが好ましい。このため、本実施形態では、配信サーバ300の演算負荷を低減させ、より多くの鑑賞クライアント100の配信サーバ300への接続を可能ならしめるべく、各鑑賞クライアント100において提示画像の生成が行われる。
なお、本実施形態ではサービスの提供態様を考慮して、演者に係る情報取得を行う演者クライアント200と、対応する演者キャラクタが登場した両眼立体視コンテンツの鑑賞が実際に行われる鑑賞クライアント100とが、配信サーバ300を介して情報のやり取りが可能に構成されるものとして説明するが、本発明の実施はこれに限られるものではない。例えば、配信サーバ300を介さずに鑑賞クライアント100と演者クライアント200とが接続されることにより実現されるものであってもよいし、鑑賞クライアント100と演者クライアント200とは、1台の配信サーバ300に限らず、複数台の装置を経由して接続されることにより実現されるものであってもよい。
本実施形態では、鑑賞クライアント100は両眼立体視の鑑賞体験を提供可能な表示装置(表示部120)を備える、例えばHMD等の所謂眼鏡型のデバイスであるものとして説明するが、本発明の実施はこれに限られるものではない。即ち、鑑賞クライアント100は、配信されるコンテンツの鑑賞体験を提示すべく、該コンテンツの再生に係る処理を実行し、提示用の画面や音声を出力可能に構成された機器であればよく、実際にこれら画面や音声を提示する装置は、鑑賞クライアント100の外部に接続された機器であってもよい。
なお、ネットワーク500は、例えばインターネット等の公衆通信網やローカルエリアネットワーク(LAN)等であってよく、装置間の情報通信を実現するものであればよい。本実施形態ではネットワーク500は、演者クライアント200と配信サーバ300の間の情報送受信と、鑑賞クライアント100と配信サーバ300の間の情報送受信を、1つのネットワーク500を介することで実現する態様について説明するが、例えば演者クライアント200と配信サーバ300はLANにて接続され、鑑賞クライアント100と配信サーバ300とは公衆通信網にて接続される等、異なるネットワーク500を利用して情報通信を行うものであってもよい。
〈鑑賞クライアント100の構成〉
以下、本実施形態の鑑賞システムに係る鑑賞クライアント100の機能構成について、図2のブロック図を用いて説明する。
制御部101は、例えばCPUであり、鑑賞クライアント100が有する各ブロックの動作を制御する。具体的には制御部101は、例えば記録媒体102に記録されている各ブロックの動作プログラムや、ライブ配信された両眼立体視コンテンツの鑑賞体験を実現するアプリケーション(鑑賞アプリケーション)のプログラムを読み出し、メモリ103に展開して実行することにより各ブロックの動作を制御する。
記録媒体102は、例えば不揮発性メモリやHDD等の、恒久的にデータを保持可能な記録装置である。記録媒体102は、鑑賞クライアント100が有する各ブロックの動作プログラム及び鑑賞アプリケーションのプログラムに加え、各ブロックの動作において必要となるパラメータ等の情報を記憶する。メモリ103は、例えば揮発性メモリ等の一時的なデータ記憶に使用される記憶装置である。メモリ103は、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力されたデータ等を一時的に記憶する格納領域としても用いられる。
決定部104は、ライブ配信された両眼立体視コンテンツの鑑賞に係り、対応する3次元空間を描画する視点の情報を決定する。詳細は後述するが、本実施形態の鑑賞システムで鑑賞体験が提供される両眼立体視コンテンツは、2人の演者に係る演者キャラクタが少なくとも配置された3次元空間の鑑賞が可能に構成される。より詳しくは、本実施形態の両眼立体視コンテンツは、ライブ会場を模した3次元空間について、フロア(鑑賞席)側からの鑑賞体験を提供するものであり、2体の演者キャラクタの一方がステージ上に配置され、ステージパフォーマンスを行うものとして、以下説明する。
決定部104は、当該3次元空間の鑑賞に際して、鑑賞ユーザの左眼用及び右眼用のそれぞれについての提示画像を描画するための2種の視点の情報を決定する。より詳しくは、決定部104は、鑑賞クライアント100の姿勢や鑑賞ユーザによりなされた操作入力等に基づいて、例えば眼間中心となる視点位置(鑑賞位置)及び視線方向(鑑賞方向)を示す視点パラメータを決定し、提示画像の描画の際には当該視点パラメータから左眼用及び右眼用の視点パラメータを決定して後述の提示制御部106に供給する。
本実施形態では、発明の理解を容易にすべく、演者キャラクタに係るステージパフォーマンスの鑑賞に際し、鑑賞ユーザは、フロアの最前列に対応する位置(ステージに近接するフロア中の位置であって、ステージと視点の間に他のキャラクタが配置されない位置)に視点が配置され、鑑賞体験を行えるものとして説明する。従って、決定部104は、当該最前列に対応する位置を視点の基準位置、当該基準位置から例えばステージ中央に向かう方向が基準方向として、視点パラメータの初期値を決定する。また決定部104は、鑑賞ユーザの頭部の動きがあった場合、または視点移動に係る操作入力がなされた場合、当該基準位置及び基準方向を中心として、移動を反映した異なる位置姿勢に視点パラメータを変更する。ここで、鑑賞ユーザの頭部の動きは、例えば加速度センサやジャイロセンサ等のHMDに設けられた姿勢センサ110により検出され、当該姿勢センサ110からのセンサ出力に基づいて視点制御に反映されるものであってよい。なお、鑑賞ユーザの頭部の動きの検出方法はこれに限られるものではなく、マーカを有するHMDを外部から撮影した画像の解析に基づく検出方法等、他の検出方法が用いられるものであってよい。
挙動制御部105は、両眼立体視コンテンツに係り3次元空間に配置されるキャラクタの挙動を制御する。本実施形態では、挙動制御部105は、演者キャラクタに係る運動情報(モーションデータ)を配信サーバ300から受信し、当該運動情報に基づいて対応する演者キャラクタの3次元モデルの挙動を制御する。なお、挙動制御部105による挙動制御の対象となるキャラクタは演者キャラクタに限られるものではなく、例えばフロアに配置される他の観客等のモブキャラクタや、鑑賞ユーザの全身を模したキャラクタや鑑賞ユーザの手のみを模した手型オブジェクト等の鑑賞ユーザに関連付けられた任意のオブジェクトを含むものであってもよい。
提示制御部106は、例えばGPUやグラフィックチップ等の描画装置を含み、表示部120に表示させる提示画面を生成する。具体的には提示制御部106は、ライブ会場に係る3次元空間中に挙動制御部105による挙動が反映された状態の演者キャラクタ及び背景オブジェクトを配置し、決定部104により決定された左眼用及び右眼用の視点のそれぞれについて当該3次元空間を描画して各フレームに係る画像群を生成する。表示部120は、例えばLCD等の表示装置であってよく、HMDの態様で鑑賞ユーザの眼前に配置されるものとする。
例えば、表示部120の表示領域を分割して左眼用と右眼用の画像を表示し、これを所定の光学系を介して鑑賞させることで両眼立体視を実現する態様では、提示制御部106は、1つのフレームについて生成した両眼立体視用の画像群を、左右方向に配列して結合することで、最終的な提示画面を生成する。提示制御部106は、このようにして生成した該当のフレームに係る提示画像を表示部120に順次表示させることで、両眼立体視コンテンツの提示を実現する。
また提示制御部106は、例えばサウンドボードやアンプ等の音声信号の出力/増幅を行う回路を含み、音声出力部130から出力させる音声を生成する際には所定の処理を行う。具体的には提示制御部106は、例えば予め記録媒体102に記録された音声データや配信サーバ300から受信した音声情報を、電気的な音声信号に変換(D/A変換)して音声出力部130に出力し、該音声信号に基づく音波を出力させる。音声出力部130は、例えばイヤフォンやヘッドフォン等の音声出力装置であってよい。
操作入力部107は、例えば電源ボタンやメニューボタン等の、鑑賞クライアント100が有するユーザインタフェースである。操作入力部107は、操作部材に対する操作入力がなされたことを検出すると、該操作入力に対応する制御信号を制御部101に出力する。また、本実施形態では操作入力部107は、無線接続されたコントローラ140を含んでおり、該コントローラ140の有する物理的な操作部材である物理ボタン142に対してなされた操作入力に加え、該コントローラ140自体を動かすことによってなされた操作入力を検出する。ここで、コントローラ140自体を動かす操作入力については、例えばジャイロセンサ等であってよい運動センサ141によって検出され、操作入力部107に伝送されるものとする。
通信部108は、鑑賞クライアント100が有する外部装置との通信インタフェースである。通信部108は、ネットワーク500(有線・無線を問わない)を介して外部装置と接続し、データの送受信を可能とすることができる。通信部108は、例えば送信対象として入力された情報を所定の形式のデータに変換し、ネットワーク500を介して配信サーバ300等の外部装置に送信する。また通信部108は、例えばネットワーク500を介して外部装置から情報を受信すると、該情報を復号してメモリ103に格納する。
〈演者クライアント200の構成〉
続いて、本実施形態の鑑賞システムに係る演者クライアント200の機能構成について、図3のブロック図を用いて説明する。なお、演者クライアント200の機能構成の説明において、鑑賞クライアント100が有する構成と同様の機能を実現する構成については、鑑賞クライアント100の構成と峻別するために、「演者」との接頭文字を付して示すものとする。ここで、接頭文字として付す「演者」は、単に演者クライアント200の一構成であることを示すものであり、説明するブロックの機能を限定する用途で用いるものではない。
演者制御部201は、例えばCPUであり、演者クライアント200が有する各ブロックの動作を制御する。具体的には演者制御部201は、例えば演者記録媒体202に記録されている各ブロックの動作プログラムや、両眼立体視コンテンツのライブ配信を行うアプリケーション(配信アプリケーション)のプログラムを読み出し、配信メモリ203に展開して実行することにより各ブロックの動作を制御する。
演者記録媒体202は、例えば不揮発性メモリやHDD等の、恒久的にデータを保持可能な記録装置である。演者記録媒体202は、演者クライアント200が有する各ブロックの動作プログラム及び配信アプリケーションのプログラムに加え、各ブロックの動作において必要となるパラメータ等の情報を記憶する。演者メモリ203は、例えば揮発性メモリ等の一時的なデータ記憶に使用される記憶装置である。演者メモリ203は、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力されたデータ等を一時的に記憶する格納領域としても用いられる。
取得部204は、ライブ配信される両眼立体視コンテンツについて、演者キャラクタのステージパフォーマンスに用いられる各種の情報を取得する。本実施形態では、取得部204は、モーションキャプチャシステム400により取得された、演者により行われた身体運動を示す(演者キャラクタの挙動制御に用いられる)運動情報と、音声入力部207により取得された、歌唱やマイクパフォーマンス等の、演者の発した音声を示す音声情報とを取得する。ここで、音声入力部207は、演者に装着されたマイク等を介して、演者が発した音声を音声信号として取得する入力インタフェースである。上述したように、本実施形態では発明の理解を容易にすべく、演者キャラクタの挙動制御に用いられる運動情報(モーションデータ)は、モーションキャプチャシステム400による出力をそのまま採用するものとして説明するが、本発明の実施はこれに限られるものではなく、例えば音声情報に応じて演者キャラクタの口唇部のモーションを調整したり、演者や配信側のオペレータ等により手動選択された、または演者の発話内容の解析結果に応じて選択された演者キャラクタの表情を適用したりした上で配信サーバ300に送信される運動情報が構成されるものであってもよい。なお、演者キャラクタの表情制御については、演者の表情を撮像した画像(2次元画像や深度画像)を解析することによりなされるものであってもよい。
フィードバック部205は、ライブ配信中の両眼立体視コンテンツについての、鑑賞ユーザからのインタラクションに係る入力状況を示す情報(インタラクション情報)を、演者にフィードバックとして提示する。本実施形態のステージパフォーマンスのように、パフォーマ(演者)とオーディエンス(鑑賞ユーザ)との掛け合い(インタラクション)を含めて興趣要素が形成されるコンテンツの場合、演者キャラクタを介して演者のパフォーマンスを鑑賞ユーザに提示するだけでなく、鑑賞ユーザの鑑賞状況を演者に伝達することが好ましい。例えば、インタラクション情報は、鑑賞ユーザにより行われた挙手、ハイタッチ、歓声等の特定動作に係る操作入力の多寡や、演者キャラクタに対するギフト送信等の所謂投げ銭機能に相当する操作入力の有無、その他、鑑賞ユーザのリクエストに起因したステージ上への特定演出の追加に係る操作入力の有無の情報を含む。
一方で、本実施形態の鑑賞システムのように、複数の鑑賞ユーザが同時に両眼立体視コンテンツの鑑賞を行う態様では、鑑賞ユーザによるこれらの操作入力は同時期に多数発生し得るものであるため、その都度、演者へのフィードバックを行う態様では演者クライアント200における演算負荷の増大、ひいては、ステージパフォーマンスの破綻を生じさせ得る。このため、鑑賞クライアント100においてなされたこれらの操作入力の情報は、後述の配信サーバ300において集約された後、インタラクション情報として演者クライアント200に伝送されるものとする。
フィードバック部205は、配信サーバ300から受信したインタラクション情報に基づいて、例えば、演者の状況に応じて提示態様を異ならせて、演者へのフィードバックの提示を行う。フィードバックは、例えば、LCD等の表示装置であってよい演者表示部210にテキストや所定のGUIを介して視覚的に提示されるものであってもよいし、スピーカ等の演者音声出力部220を介して聴覚的に提示されるものであってもよいし、これらの組み合わせ、または他の提示方法を含めて行われるものであってよい。
演者通信部206は、演者クライアント200が有する外部装置との通信インタフェースである。演者通信部206は、ネットワーク500(有線・無線を問わない)を介して外部装置と接続し、データの送受信を可能とすることができる。演者通信部206は、例えば送信対象として入力された情報を所定の形式のデータに変換し、ネットワーク500を介して配信サーバ300等の外部装置に送信する。また演者通信部206は、例えばネットワーク500を介して外部装置から情報を受信すると、該情報を復号し、演者メモリ203に格納する。
〈配信サーバ300の構成〉
次に、本実施形態の鑑賞システムに係る配信サーバ300の機能構成について、図4のブロック図を用いて説明する。なお、配信サーバ300の機能構成の説明において、鑑賞クライアント100及び演者クライアント200が有する構成と同様の機能を実現する構成については、これらの機器の構成と峻別するために、「配信」との接頭文字を付して示すものとする。ここで、接頭文字として付す「配信」は、単に配信サーバ300の一構成であることを示すものであり、説明するブロックの機能を限定する用途で用いるものではない。
配信制御部301は、例えばCPUであり、配信サーバ300が有する各ブロックの動作を制御する。具体的には配信制御部301は、例えば配信記録媒体302に記録されている各ブロックの動作プログラムを読み出し、配信メモリ303に展開して実行することにより各ブロックの動作を制御する。
配信記録媒体302は、例えば不揮発性メモリやHDD等の、恒久的にデータを保持可能な記録装置である。配信記録媒体302は、配信サーバ300が有する各ブロックの動作プログラムに加え、各ブロックの動作において必要となるパラメータ等の情報を記憶する。配信メモリ303は、例えば揮発性メモリ等の一時的なデータ記憶に使用される記憶装置である。配信メモリ303は、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力されたデータ等を一時的に記憶する格納領域としても用いられる。
配信部304は、本実施形態の鑑賞システムに係る両眼立体視コンテンツのライブ配信を制御する。より詳しくは、配信部304は、ライブ配信を行う時間帯について、演者について取得された運動情報及び音声情報を演者クライアント200から取得し、コンテンツに係る鑑賞要求を行って配信サーバ300に接続している鑑賞クライアント100に対して送信する情報を適宜構成し、送出する処理を行う。また配信部304は、コンテンツの鑑賞に係り鑑賞クライアント100において実行する必要がある処理について、その開始命令等を必要なタイミングで送出するよう制御する。
なお、本実施形態では発明の理解を容易にすべく、配信サーバ300は1種類の両眼立体視コンテンツのライブ配信を行うよう構成され、該コンテンツに係る演者が使用する演者クライアント200と、同コンテンツを鑑賞する鑑賞ユーザが使用する鑑賞クライアント100のみが配信サーバ300に接続されているものとして説明するが、本発明の実施はこれに限られるものではない。例えば、配信サーバ300が同時にライブ配信するコンテンツは複数種類であってもよく、その場合、配信部304はコンテンツごとに、対応する演者クライアント200から取得した情報を、該コンテンツの鑑賞要求を行った鑑賞クライアント100に配信するよう配信制御を行う。
集約部305は、ライブ配信中の両眼立体視コンテンツについて複数の鑑賞クライアント100から取得された情報を集約し、演者へのフィードバックに用いられるインタラクション情報を構成する。ここで、集約部305が行う情報の集約とは、例えば、各鑑賞クライアント100においてなされた操作入力の情報を所定の時間単位で集計し、全鑑賞ユーザのうちの特定の動作を行っているユーザ、あるいは特定の意思を示したユーザの割合の情報としてインタラクション情報を構築すること等を含むものであってよい。
配信通信部306は、配信サーバ300が有する外部装置との通信インタフェースである。配信通信部306は、ネットワーク500(有線・無線を問わない)を介して外部装置と接続し、データの送受信を可能とすることができる。配信通信部306は、例えば送信対象として入力された情報を所定の形式のデータに変換し、ネットワーク500を介して鑑賞クライアント100、演者クライアント200等の外部装置に送信する。また配信通信部306は、例えばネットワーク500を介して外部装置から情報を受信すると、該情報を復号し、配信メモリ303に格納する。
《ライブ配信により提供される鑑賞体験》
次に、このような構成の鑑賞システムにおいて提供される両眼立体視コンテンツ(提供コンテンツ)の鑑賞体験について、図面を用いて詳細を説明する。
図5は、本実施形態に係る両眼立体視コンテンツで描画される、ライブ会場501の3次元空間の概略構成を示している。図示されるように、ライブ会場501内は、本発明に係る第1領域としてのステージ502と、同第2領域としてのフロア503とに分類されている。図5は上面図としてライブ会場501を示しており、2次元の領域でこれらが分離されていることを示しているが、ステージ502とフロア503とは、例えば接地面の高さ方向の位置が異なって分離されるものであってもよい。
鑑賞ユーザに係る視点504は、フロア503に配置されており、ステージ502上で行われるパフォーマンスを鑑賞可能に構成されている。本実施形態では発明の理解を容易にすべく、視点504はステージ502には配置されないものとして説明するが、本発明は、視点504をフロア503からステージ502に移動可能に構成することを除外するものではない。
ステージ502上には、本発明に係る第1演者キャラクタとしての、2人の演者のうちの一方の演者に係る演者キャラクタ(以下、ステージキャラクタとして言及)が配置される。即ち、ステージパフォーマンスは、当該演者の身体運動及び発声に基づいて進行するものであり、鑑賞ユーザは、ステージキャラクタ505を介して行われるステージパフォーマンスをフロア503から鑑賞することが可能である。
対して、本発明に係る第2演者キャラクタとしての、2人の演者のうちの他方の演者に係る演者キャラクタは、ステージ502ではなくフロア503に配置される。即ち、本実施形態に係る提供コンテンツでは、当該他方の演者に係る演者キャラクタは、鑑賞ユーザと共に、ステージ502上で行われるステージキャラクタ505のステージパフォーマンスを鑑賞するキャラクタとしてフロア503に配置される。つまり、他方の演者の身体運動及び発声は、ステージパフォーマンスを進行させるために用いられるものではなく、鑑賞ユーザと同様にステージパフォーマンスを鑑賞している他の観客の振る舞いを鑑賞ユーザに提示するために用いられる。
本実施形態では、他方の演者に係る演者キャラクタの配置に起因した興趣性が特に高まる態様として、当該演者キャラクタが視点504に隣接して配置(他のオブジェクトを間に挟まない位置に配置)される例について説明する。これにより、鑑賞ユーザは、1人でステージパフォーマンスを鑑賞しているのではなく、図6に示されるようにあたかも該演者キャラクタ(506)と共にライブを鑑賞しに来たかの如く体験をすることができる。以下の説明では、フロア503に配置される演者キャラクタを、ライブ会場で隣接する座席が割り当てられる(広義には、ライブ会場で隣に立つ)存在であることから、入場チケットに記載される通し番号が連続することを意味する文言「連番」を用いて「連番キャラクタ」として言及する。図5に示されるように、連番キャラクタ506は、視点504の基準位置から所定距離を超えて離間しない位置に配置される。
なお、フロア503には、他の鑑賞クライアント100を使用して提供コンテンツを同様に鑑賞している鑑賞ユーザに係、モブキャラクタが配置されるが、当該モブキャラクタは賑やかし要素の側面で配置されるものであり、その挙動は特定の鑑賞ユーザの身体運動や発声を逐次反映して制御されるものではない。1人の鑑賞ユーザにとって、ライブ配信のサービスにおける他の鑑賞ユーザの反応を精緻に知ることの重要性はそれほど高いものではなく、ライブ会場501の雰囲気を捉える程度に知ることができれば好適な臨場感を得られるものである。別の観点では、多数の鑑賞ユーザの身体運動や音声を取得して各モブキャラクタの挙動制御を精緻に行うことは、鑑賞システム全体の演算負荷や通信負荷を増大させるものであり、サービス提供に当たり好適なものではない。このため、本実施形態の鑑賞システムでは、モブキャラクタの挙動制御は、配信サーバ300の集約部305で集計された鑑賞状況の集計の情報に基づいて行われるものとする。即ち、モブキャラクタの挙動制御は、全鑑賞ユーザの鑑賞状況の傾向に応じて大まかに制御されるものとし、連番キャラクタ506とは明確に異なる存在としてフロア503に配置される。
〈演者キャラクタの挙動〉
以下、提供コンテンツにおける、演者の身体運動に基づいて制御されるステージキャラクタ505と連番キャラクタ506の挙動について、より詳細に説明する。なお、説明の便宜上、必要に応じて、ステージキャラクタ505に身体運動が反映される演者aに係る演者クライアント200、モーションキャプチャシステム400、及びその機能構成には「a」の文字を、連番キャラクタ506に身体運動が反映される演者bに係る演者クライアント200、モーションキャプチャシステム400、及びその機能構成には「b」の文字を付して峻別するものとする。
ステージキャラクタ505及び連番キャラクタ506は、基本的には、いずれも演者の身体運動に基づいて挙動制御がなされる。より詳しくは、ステージキャラクタ505は、演者クライアント200aによりモーションキャプチャシステム400aを介して取得された、演者aの身体運動を示す運動情報aに基づいて挙動制御がなされる。また連番キャラクタ506は、演者クライアント200bによりモーションキャプチャシステム400bを介して取得された、演者bの身体運動を示す運動情報bに基づいて挙動制御がなされる。即ち、配信サーバ300が、演者クライアント200aから運動情報aを、演者クライアント200bから運動情報bを取得し、接続中の鑑賞クライアント100のそれぞれに対してこれらを配信する。そして各鑑賞クライアント100の挙動制御部105が、受信した運動情報a及びbに基づいてステージキャラクタ505と連番キャラクタ506の挙動制御を行うことで、演者aの身体運動が反映されたステージキャラクタ505と、演者bの身体運動が反映された連番キャラクタ506とを配置した3次元空間について、両眼立体視での鑑賞体験の提供が実現される。
ここで、本実施形態では、ステージキャラクタ505と連番キャラクタ506は、少なくとも以下のいずれかの点で異なるよう構成される。
(1)演者の身体運動以外に基づく挙動制御の有無
ステージキャラクタ505によるステージパフォーマンスを安定的に提供するために、ステージキャラクタ505の挙動制御は、運動情報aのみに基づいて行われる。即ち、例えば、鑑賞ユーザによりなされた特定の操作入力に対して強制的に反応するようなインタラクションを設けてしまうと、ステージパフォーマンスが好適な態様で提供されないことになり得るため、ステージキャラクタ505の挙動は、鑑賞ユーザによりなされた操作入力の情報に依らずに制御される。
なお、本実施形態の提供コンテンツは、ステージキャラクタ505による一方的なステージパフォーマンスの提供を目的とするものではなく、鑑賞ユーザの鑑賞状況に応じて進行が変更し得る双方向の鑑賞体験を提供するものである。しかしながら、当該鑑賞体験は、ステージキャラクタ505の挙動を、鑑賞ユーザによりなされた操作入力の情報に基づいて直接的に変更することで実現されるものではなく、特許文献1に開示されるように、集約部305において構成されたインタラクション情報がフィードバック部205aを介して演者aに提示され、演者aがこれを参照して身体運動を行うことで、操作入力に対するリアクションが含まれた運動情報aが供給されて、ステージキャラクタ505の挙動に反映されることで実現される。このため、ステージキャラクタ505の挙動は、一貫して演者aの身体運動に基づいて制御されることになり、安定的で公平なステージパフォーマンスを提供する態様となる。
一方で、連番キャラクタ506はステージパフォーマンスを提供する存在ではなく、ステージパフォーマンスを鑑賞するという点で鑑賞ユーザに近しい立場で配置される存在であり、鑑賞ユーザの行動に応じた反応を示す等の振る舞いをする方が、鑑賞ユーザに対して自然な印象や親近感を与える。このため、連番キャラクタ506の挙動は、運動情報bに限られるものではなく、運動情報b及び鑑賞ユーザによりなされた操作入力の情報の少なくともいずれかに基づいて制御される。ここで、操作入力は、物理ボタン142の押下操作等の明示的に行われるものに限られる必要はなく、姿勢センサ110や運動センサ141を介して取得される鑑賞ユーザの身体運動や、音声入力等、他の入力や状態検出を含むものであってよい。
例えば、ステージパフォーマンス中の楽曲と楽曲との合間になされるステージキャラクタ505のマイクパフォーマンスが行われる期間では、ステージキャラクタ505と連番キャラクタ506の掛け合いが可能なよう、連番キャラクタ506の挙動制御は、運動情報bのみに基づいて行われるものであってもよい。また例えば、ステージキャラクタ505と連番キャラクタ506との掛け合いが発生しない楽曲の歌唱パフォーマンスが行われる期間では、連番キャラクタ506の挙動制御は、運動情報bよりも鑑賞ユーザによる操作入力の情報を優先し、操作入力の情報のみに基づいて行われるものであってもよい。あるいは、よりインタラクティブ性の高い興趣体験を提供すべく、運動情報bに基づく連番キャラクタ506の挙動制御が行われている間に、鑑賞ユーザによる操作入力がなされたことに応じて、連番キャラクタ506の挙動を操作入力に基づく内容に順次異ならせるよう制御するものであってもよい。
鑑賞ユーザによる操作入力の情報に応じた連番キャラクタ506の挙動制御、即ち、連番キャラクタ506について設けられるインタラクション要素は、例えば以下のような態様であってよい。例えば、鑑賞ユーザが連番キャラクタ506に対して呼びかけを行う操作入力(音声入力、呼びかけ用コマンドの選択等)を行った場合、連番キャラクタ506が振り返りを含む反応を示す挙動を行うよう制御されるものであってもよい。また例えば、鑑賞ユーザがステージキャラクタ505ではなく連番キャラクタ506を注視するような操作入力(鑑賞方向を連番キャラクタ506に向ける鑑賞ユーザの頭部旋回動作、あるいは、同方向を鑑賞するカメラ選択操作等)を行った場合、連番キャラクタ506が視線に気づいて照れる、会話を開始する等の反応を示す挙動を行うよう制御されるものであってもよい。より詳しくは、視点504の鑑賞方向を変更する操作入力の結果、視点位置と連番キャラクタ506の位置とを結ぶ方向と鑑賞方向とがなす角が所定の角度以下となった場合に、挙動制御部105は該当の挙動を行うよう連番キャラクタ506を制御するものであってもよい。また例えば、所定の期間、特定の操作入力がない状態が継続したことを契機として、連番キャラクタ506が鑑賞ユーザに話しかけてくる等の挙動を行うよう制御されるものであってもよい。このように、鑑賞ユーザによる操作入力の情報に応じた連番キャラクタ506の挙動は、動的に開始されるものであるため、運動情報bのようなリアルタイムで取得されるデータを用いて実現されるものではなく、例えば予め構成されたモーションデータ及び音声情報に基づいて実現されるものであってよい。
ここで、本実施形態の提供コンテンツのように、1体の演者キャラクタ(連番キャラクタ506)の隣でのライブの鑑賞体験を提供する態様では、複数の鑑賞ユーザのそれぞれが、1人の演者bに係る連番キャラクタ506とインタラクション可能であることが好ましい。換言すれば、操作入力に応じた連番キャラクタ506の振る舞いは、他の鑑賞ユーザの操作入力に起因して生じるものではなく、鑑賞ユーザ自身が行った操作入力のみに起因して生じることが好ましい。これは、連番キャラクタ506と鑑賞ユーザとの関係が親密であることを演出する効果を生み、提供コンテンツの興趣性をより向上させることができることに依る。
従って、鑑賞ユーザと連番キャラクタ506とのインタラクションに係る挙動制御は、鑑賞ユーザごとに異なって鑑賞されるよう構成される。より詳しくは、1人の鑑賞ユーザが使用する鑑賞クライアント100の挙動制御部105は、当該鑑賞クライアント100で検出された操作入力の情報に基づく連番キャラクタ506の挙動制御は行うが、他の鑑賞クライアント100において検出された操作入力の情報に基づいた連番キャラクタ506の挙動制御は行わない。つまり、配信サーバ300は、各鑑賞クライアント100においてなされた操作入力の情報を取得してインタラクション情報の構築は行うが、操作入力の情報は、他の鑑賞クライアント100における連番キャラクタ506の挙動制御のために伝送するような処理を行わない。
連番キャラクタ506の挙動が、運動情報b及び鑑賞ユーザによりなされた操作入力の情報のいずれに基づいて制御されるかは、連番キャラクタ506について複数の状態を定義し、いずれの状態にあるかに応じて切り替えられるものであってよい。状態は、本発明に係る第1状態としての演者優先状態と、同第2状態としてのインタラクション優先状態とを含み、演者優先状態では運動情報bに基づく挙動制御がなされ、インタラクション優先状態では鑑賞ユーザによりなされた操作入力の情報または運動情報bに基づく挙動制御がなされるものであってよい。後者の状態では、より自然な振る舞いとして感じられるよう、基本的には運動情報bに基づいて挙動制御がなされるが、該当の操作入力がなされた場合には、運動情報bに優先して(切り替えて)当該操作入力に対応付けられたデータに基づく挙動制御がなされるものであってもよい。この場合、切り替え時の挙動遷移を滑らかにすべく、運動情報bと対応付けられたデータとを、順次重みを異ならせながら(開始時は対応付けられたデータの重みを徐々に大きくし、終了時は徐々に小さくする)重み付け加算することで挙動制御を行うものであってもよい。
連番キャラクタ506の状態は、例えば、上述したようにステージパフォーマンス中のマイクパフォーマンスが行われる期間であれば演者優先状態に設定し、歌唱パフォーマンスが行われる期間であればインタラクション優先状態に設定される等、提供コンテンツの進行に応じて制御されるものであってよい。この他、例えば、演者bによって任意のタイミングで変更可能に構成されるものであってもよいし、配信サーバ300において演者やステージパフォーマンスの状態を判定して変更可能に構成されるものであってもよい。
このように、ステージキャラクタ505と連番キャラクタ506とは、前者が演者の身体運動のみに基づいて挙動制御されるが、後者が演者の身体運動以外にも基づいて挙動制御される点で異なる。即ち、ステージキャラクタ505は、演者aが自発的にフィードバックに基づく身体運動をしない限りは、予定されたステージパフォーマンスを提供するための振る舞いを提示する一方で、連番キャラクタ506は、演者bの身体運動に係る振る舞いに加え、鑑賞ユーザの鑑賞態様に応じた動的な振る舞いを提示する点で異なる興趣要素を提供できる。
(2)接触判定の有無
現実世界のライブ鑑賞では、基本的にはステージ上のアーティストと観客とが接触する機会は少ない。一方で、1人の観客は、同行した観客や連番の観客と接触する機会は多く、提供コンテンツの鑑賞体験において、鑑賞ユーザが連番キャラクタ506と接触するインタラクションが設けられないことは不自然な印象を与え得る。
このため、本実施形態の提供コンテンツでは、鑑賞体験の臨場感を向上させるべく、鑑賞ユーザは例えばコントローラ140の位置姿勢を変更することで、該鑑賞ユーザに対応付けられて3次元空間に配置される手型オブジェクトを自身の手の如く移動操作することが可能に構成される。当該手型オブジェクトは、3次元空間に配置される他のオブジェクトに対する接触インタフェースとしての役割を担う概念であり、鑑賞ユーザは手型オブジェクトを移動操作することで連番キャラクタ506と接触するインタラクションを行うことが可能となる。
より詳しくは、手型オブジェクト及び連番キャラクタ506には接触判定用の3次元体積が設定され、それらが重複した場合には接触があったものとして判定される。即ち、本実施形態の鑑賞システムでは、鑑賞ユーザと連番キャラクタ506との接触に係る操作入力がなされたことを、これらオブジェクトの接触判定により検出することが可能となる。従って、上述したような鑑賞ユーザが連番キャラクタ506に対して呼びかけを行う操作入力を、例えば、コントローラ140の移動に伴う手型オブジェクトを用いた肩叩き動作といった、手型オブジェクトと連番キャラクタ506とが接触した状態をもって検出するものとしてもよい。この場合、挙動制御部105は、接触判定結果が接触であったことに応じて、対応付けられた挙動や演出を示すよう連番キャラクタ506を制御すればよい。
一方で、接触判定は、毎フレームのオブジェクトの状態に基づいて行われるものであるため、鑑賞クライアント100の演算能力によっては多大な負荷となり得、提供コンテンツの鑑賞体験に支障をきたすことも考えられる。このため、接触機会が想定しづらいステージキャラクタ505については、手型オブジェクトとの接触判定に係る処理を行わないよう構成されるものであってよい。
従って、ステージキャラクタ505と連番キャラクタ506とは、鑑賞ユーザに関連付けられた手型オブジェクトとの接触判定の処理を行うか否かの点で異なっており、鑑賞ユーザが行うことが可能なインタラクションの態様に差異がある。
なお、本実施形態の鑑賞クライアント100では特に説明しないが、コントローラ140が振動モータ等の力覚提示構成を具備する態様では、接触したとの判定があった場合にこれに合わせて力覚提示を行うことで、より現実感の高い鑑賞体験を提供するものとしてもよい。また接触した場合には、接触に係る音声演出の提示を行うものであってもよい。また当該機能は、例えば連番キャラクタ506とのハイタッチ等の興趣演出にも用いることができ、配信サーバ300に伝送されてインタラクション情報として演者クライアント200aまたはbに共有され、演者に対して鑑賞状況の盛り上がりの度合いとして提示可能にしてもよい。
また本実施形態ではコントローラ140に対してなされた操作入力(コントローラ140自体の移動回転操作や操作部材に対する操作入力)に基づいて手型オブジェクトの状態制御を行うものとして説明するが、本発明の実施はこれに限られるものではない。例えばコントローラ140を用いずとも、HMD等に設けられた外部カメラにより鑑賞ユーザの手を検出し、実際になされた鑑賞ユーザの手の動きに応じて手型オブジェクトの状態制御を行うものであってもよいことは言うまでもない。
(3)音声提示態様の違い
上述したように、本実施形態の提供コンテンツの鑑賞体験では、各演者に係る音声情報を用いて音声演出の提示がなされるが、発声元のキャラクタがいずれであるかに応じてその提示態様を異ならせることで、鑑賞体験の臨場感を高めることができる。
現実世界のライブ鑑賞では、一般的にステージ上のアーティストの発した音声はマイクを介して取得されて信号増幅された上で、ライブ会場の複数の位置に配置されたスピーカから出力される態様で提示される。即ち、観客はアーティストの音声を種々の方向から聴くことになるため、視覚的にはアーティストの位置を捉えているが、聴覚的には音源の位置を特定すること(音像定位)が難しくなっている。一方、観客は、同行した観客や連番の観客の発した音声はマイクを通すことなく直接聴くことになるため、容易に音像定位を行うことができる。
本実施形態の提供コンテンツでは、このような聴覚的な知覚の差異を反映し、各演者キャラクタの音声演出の提示態様を異ならせる。より詳しくは、提示制御部106は、連番キャラクタ506に係る音声情報については、鑑賞位置、鑑賞方向、及び連番キャラクタ506の位置に基づいて、音像定位が可能な態様で音声出力部130に出力させるよう制御を行う。一方、ステージキャラクタ505に係る音声情報については、提示制御部106は、音像定位が可能ではない態様で音声出力部130に出力させるよう制御を行う。ここで、音像定位が可能な態様とは、視点504の位置を原点とし、深度方向を鑑賞方向とする座標系における音源の位置に応じて、例えば左耳側と右耳側での音量や効果が異なって出力される態様であり、鑑賞ユーザがそのバランスにより音源の方向をある程度推定可能な態様を示すものとする。対して、音像定位が可能ではない態様とは、このような左耳側と右耳側での音量や効果の差異がない態様で出力される態様を示すものとする。
これら述べたステージキャラクタ505と連番キャラクタ506の差異は、本発明の実施の一態様を示す目的で挙げられたものであり、発明の実施はこれらに限られるものではない。ステージキャラクタ505と連番キャラクタ506との差異は、提供コンテンツの鑑賞体験において、前者が全鑑賞ユーザに対して同様の興趣体験を提供するよう演出制御がなされる一方で、後者が、3次元空間において鑑賞ユーザの視点と同分類の領域に配置され、鑑賞ユーザの操作入力に応じた演出を伴う興趣体験を提供するよう演出制御がなされるものであれば、その他の差異が設けられるものであってもよい。
《提示処理》
以下、本実施形態の鑑賞クライアント100において両眼立体視コンテンツの鑑賞体験を提供する提示処理について、図7のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、鑑賞クライアント100の制御部101が、例えば記録媒体102に記録されている対応する鑑賞アプリケーションのプログラムを読み出し、メモリ103に展開して実行することにより実現することができる。なお、本提示処理は、例えば鑑賞アプリケーションが起動され、提供コンテンツの鑑賞開始に係る操作入力がなされた際に開始され、鑑賞体験のフレームごとに繰り返し実行されるものとして説明する。
S701で、制御部101は、配信サーバ300から提供コンテンツの鑑賞に必要なデータを取得する。当該データは、少なくとも本フレームの提示画像の生成に用いられる、ステージキャラクタに係る運動情報及び音声情報と連番キャラクタに係る運動情報及び音声情報とを含むものとする。データは、この他、提示する演出に係る情報やモブキャラクタの挙動制御に係る情報等を含むものであってもよい。
S702で、決定部104は制御部101の制御の下、提供コンテンツに係る視点パラメータ(鑑賞位置及び鑑賞方向)を決定する。決定部104は、例えば、前フレームについて決定した視点パラメータを、前フレームから本フレームまでに検出された視点変更に係る操作入力(姿勢センサ110の出力等)に基づいて更新し、本フレームの視点パラメータを決定する。
S703で、制御部101は、配信サーバ300によりインタラクション情報として収集されるべき操作入力がなされたか否かを判断する。制御部101は、インタラクション情報として収集されるべき操作入力がなされたと判断した場合は処理をS704に移し、なされていないと判断した場合は処理をS705に移す。
S704で、制御部101は、インタラクション情報としてとして収集されるべき操作入力を示す情報を通信部108に伝送し、配信サーバ300に送信させる。
S705で、制御部101は、連番キャラクタの状態が演者優先状態とインタラクション優先状態のいずれであるかを判断する。本ステップの判断は、例えば配信サーバ300から受信した連番キャラクタの状態の情報、あるいは、提供コンテンツの進行の情報に基づいて判断されるものであってよい。制御部101は、連番キャラクタの状態が演者優先状態であると判断した場合は処理をS706に移し、インタラクション優先状態であると判断した場合は処理をS708に移す。
S706で、挙動制御部105は制御部101の制御の下、S701において取得された運動情報に基づいてステージキャラクタ及び連番キャラクタの挙動制御を行う。より詳しくは挙動制御部105は、S701において取得されたステージキャラクタに係る運動情報に基づいて、本フレームに係るステージキャラクタの状態(対応する3次元モデルの各パーツの状態)を設定する。また挙動制御部105は、S701において取得された連番キャラクタに係る運動情報に基づいて、本フレームに係る連番キャラクタの状態を設定する。
S707で、提示制御部106は制御部101の制御の下、提示する音声演出に係る音声合成処理を行う。音声合成処理は、最終的に左耳側と右耳側のチャネルそれぞれについて出力する音声情報(提示音声情報)を構成する処理であり、例えば提示される音声情報と、各音声情報についての音像定位を可能とするか否かの情報とに基づいて、音声情報を音量調整して合成することで提示音声情報を構成する。本ステップでは、ステージキャラクタについては音像定位を可能としないため、S701において取得されたステージキャラクタに係る音声情報は、左耳側及び右耳側のチャネルの双方で同等の音量となるよう調整される。一方で、連番キャラクタについては音像定位を可能とするため、S701において取得された連番キャラクタに係る音声情報は、連番キャラクタの位置とS702において決定された視点パラメータとに基づいて各チャネルの音量が調整される。
一方、S705において連番キャラクタがインタラクション優先状態であると判断した場合、制御部101はS708で、連番キャラクタとのインタラクションに係る操作入力がなされたか否かを判断する。ここで、連番キャラクタとのインタラクションに係る操作入力とは、上述したような、連番キャラクタに呼びかけを行う操作入力、連番キャラクタを注視する操作入力、連番キャラクタと接触したと判定される操作入力を含むものであってよい。制御部101は、連番キャラクタとのインタラクションに係る操作入力がなされたと判断した場合は処理をS709に移し、なされていないと判断した場合は処理をS706に移す。
S709で、挙動制御部105は制御部101の制御の下、連番キャラクタとのインタラクションに係る操作入力の情報とS701において取得された運動情報とに基づいて、ステージキャラクタ及び連番キャラクタの挙動制御を行う。より詳しくは挙動制御部105は、S701において取得されたステージキャラクタに係る運動情報に基づいて、本フレームに係るステージキャラクタの状態を設定する。また挙動制御部105は、該当のインタラクションについて予め設けられた連番キャラクタの挙動を示す運動情報に基づいて、本フレームに係る連番キャラクタの状態を設定する。
S710で、提示制御部106は制御部101の制御の下、提示する音声演出に係る音声合成処理を行う。本ステップで行われる音声合成処理では、S707の処理とは異なり、連番キャラクタについては、該当のインタラクションについて予め設けられた音声情報が使用される。従って、提示制御部106は、該当のインタラクションについて設けられた音声情報を、連番キャラクタの位置とS702において決定された視点パラメータとに基づいて各チャネルの音量を調整した上で、ステージキャラクタに係る音声情報と合成して提示音声情報を構成する。
なお、本実施形態の提示処理では、処理の内容を容易に理解可能にすべく、連番キャラクタがインタラクション優先状態にある場合には、連番キャラクタとのインタラクションに係る操作入力がなされた際に、該当のインタラクションについて予め設けられた情報のみに基づいて挙動制御や音声合成処理を行うものとして説明した。しかしながら、上述したように本発明の実施はこれに限られるものではなく、連番キャラクタとのインタラクションに係る操作入力がなされた際に、配信サーバ300から取得されたリアルタイムの連番キャラクタに係る運動情報及び音声情報に優先して、該当のインタラクションについて予め設けられた情報を使用して挙動制御や音声合成処理を行うものであれば、その双方を用いるものであってもよい。
S711で、提示制御部106は制御部101の制御の下、ステージキャラクタ及び連番キャラクタを挙動制御部105により設定された状態で3次元空間に配置し、当該3次元空間をS702において決定された視点パラメータについて描画することで、提供コンテンツに係る提示画像を生成する。
S712で、提示制御部106は制御部101の制御の下、提示画像を表示部120に表示させ、提示音声情報を音声出力部130に出力させ、本フレームに係る提示処理を完了する。
このようにすることで、本実施形態の鑑賞システムによれば、ステージパフォーマンスを行うキャラクタとは異なるインタラクションが可能な存在(連番キャラクタ)を3次元空間に配置し、共にライブ鑑賞を行っている体験を提供することができるため、臨場感の高い鑑賞体験を実現することができる。
また本実施形態のような、鑑賞ユーザの視点と同じ側に連番キャラクタを配置し、連番キャラクタとステージキャラクタとの掛け合いが提供可能な構成(連番キャラクタとステージキャラクタについては直接的な音声コミュニケーションが可能な構成)では、当該掛け合いを鑑賞ユーザが傍観できることにより、あたかもステージキャラクタと観客側とでの直接的なコミュニケーションが成立しているかの如き鑑賞体験を提供することができる。換言すれば、連番キャラクタが鑑賞ユーザに隣接して存在して共通のステージパフォーマンスを鑑賞しており、かつ、鑑賞ユーザと連番キャラクタとのインタラクションが可能な状況下では、ステージキャラクタとの直接的なコミュニケーションが可能な連番キャラクタの鑑賞体験が、鑑賞ユーザの鑑賞体験として投射されやすくなり、結果として、従来のステージキャラクタのみを鑑賞する鑑賞体験よりも、より臨場感の高い鑑賞体験を提供することができる。
[変形例]
上述した実施形態では、3次元空間中の鑑賞ユーザに係る視点に隣接する位置に連番キャラクタが配置されるものとして説明したが、本発明の実施はこれに限られるものではない。即ち、鑑賞ユーザに係る視点が配置される領域(フロア側)に、演者の身体運動と鑑賞ユーザによる操作入力に基づいて挙動制御される演者キャラクタが配置される態様であれば、本発明は適用可能である。
[その他の実施形態]
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から逸脱することなく、発明の要旨の範囲内で種々の変形・変更が可能である。また本発明に係る鑑賞システムは、1以上のコンピュータを該鑑賞システムの各装置として機能させるプログラムによっても実現可能である。該プログラムは、コンピュータが読み取り可能な記録媒体に記録されることにより、あるいは電気通信回線を通じて、提供/配布することができる。
100:鑑賞クライアント、101:制御部、102:記録媒体、103:メモリ、104:決定部、105:挙動制御部、106:提示制御部、107:操作入力部、108:通信部、110:姿勢センサ、120:表示部、130:音声出力部、140:コントローラ、141:運動センサ、142:物理ボタン、200:演者クライアント、201:演者制御部、202:演者記録媒体、203:演者メモリ、204:取得部、205:フィードバック部、206:演者通信部、207:音声入力部、210:演者表示部、220:演者音声出力部、300:配信サーバ、301:配信制御部、302:配信記録媒体、303:配信メモリ、304:配信部、305:集約部、306:配信通信部、400:モーションキャプチャシステム、500:ネットワーク

Claims (12)

  1. 演者の身体運動に基づいて挙動制御がなされる演者キャラクタを提示するコンテンツの鑑賞体験を、鑑賞ユーザに提供する鑑賞システムであって、
    前記コンテンツは、第1演者に係る第1演者キャラクタと第2演者に係る第2演者キャラクタを配置した3次元空間における演出を提示する両眼立体視コンテンツであり、
    前記鑑賞システムは、
    前記第1演者の身体運動を示す第1運動情報を取得する第1取得手段と、
    前記第1演者キャラクタの挙動を制御する第1挙動制御手段と、
    前記第2演者の身体運動を示す第2運動情報を取得する第2取得手段と、
    前記第2演者キャラクタの挙動を制御する第2挙動制御手段と、
    前記鑑賞ユーザによりなされた操作入力の情報を取得する第3取得手段と、
    前記コンテンツについて、前記鑑賞ユーザに係る前記3次元空間中の視点を決定する決定手段と、
    前記決定手段により決定された前記視点の情報に基づいて、前記コンテンツに係る提示画像を描画する描画手段と、
    前記描画手段により描画された前記提示画像を提示する提示手段と、
    を有し、
    前記第1演者キャラクタは、前記3次元空間中の第1領域に配置され、
    前記鑑賞ユーザに係る視点及び前記第2演者キャラクタは、前記3次元空間中の前記第1領域とは異なる第2領域に配置され、
    前記第1挙動制御手段は、前記第1取得手段により取得された前記第1運動情報に基づいて前記第1演者キャラクタの挙動を制御し、
    前記第2挙動制御手段は、前記第2取得手段により取得された前記第2運動情報、及び前記第3取得手段により取得された前記操作入力の情報、の少なくともいずれかに基づいて前記第2演者キャラクタの挙動を制御する
    ことを特徴とする鑑賞システム。
  2. 前記第1挙動制御手段は、前記第3取得手段により取得された前記操作入力の情報に依らず、前記第1演者キャラクタの挙動を制御することを特徴とする請求項1に記載の鑑賞システム。
  3. 前記鑑賞ユーザに係る視点と前記第2演者キャラクタは、前記3次元空間において所定距離を超えて離間しない位置に配置されることを特徴とする請求項1または2に記載の鑑賞システム。
  4. 前記鑑賞システムにおいて前記コンテンツは、各々異なる鑑賞装置を使用する複数の前記鑑賞ユーザによる同時の鑑賞が可能であり、
    前記第3取得手段は、鑑賞装置のそれぞれにおいて、対応する前記鑑賞ユーザによりなされた前記操作入力の情報を取得し、
    前記操作入力の情報に基づく前記第2演者キャラクタの挙動は、1つの鑑賞装置において取得された前記操作入力の情報に基づくが、当該1つの鑑賞装置とは異なる他の鑑賞装置において取得された前記操作入力の情報に基づかない挙動を含む
    ことを特徴とする請求項1乃至3のいずれか1項に記載の鑑賞システム。
  5. 前記第2演者キャラクタの状態は、少なくとも第1状態及び第2状態を含み、
    前記第2挙動制御手段は、
    前記第2演者キャラクタの状態が前記第1状態にある場合に、前記第2運動情報のみに基づいて前記第2演者キャラクタの挙動を制御し、
    前記第2演者キャラクタの状態が前記第2状態にある場合に、前記第2運動情報または前記操作入力の情報に基づいて前記第2演者キャラクタの挙動を制御する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の鑑賞システム。
  6. 前記コンテンツの進行に応じて、前記第2演者キャラクタの状態を変更する変更手段をさらに有する請求項5に記載の鑑賞システム。
  7. 前記第3取得手段により取得される前記鑑賞ユーザによりなされた前記操作入力の情報は、鑑賞方向の変更に係る操作入力の情報を含み、
    前記第2演者キャラクタの挙動は前記鑑賞方向の変更に係る操作入力の情報に基づいて制御される一方で、前記第1演者キャラクタの挙動は前記鑑賞方向の変更に係る操作入力の情報に基づいて制御されない
    ことを特徴とする請求項1乃至6のいずれか1項に記載の鑑賞システム。
  8. 前記3次元空間中には、前記鑑賞ユーザに関連付けられたオブジェクトがさらに配置され、
    前記第3取得手段により取得される前記鑑賞ユーザによりなされた前記操作入力の情報は、前記オブジェクトの移動に係る操作入力の情報を含み、
    前記鑑賞システムは、
    前記オブジェクトの接触判定を行う判定手段と、
    前記判定手段により前記オブジェクトが接触したと判定された場合に、所定の演出を提示する手段と、
    をさらに有し、
    前記判定手段は、前記オブジェクトと前記第2演者キャラクタとの接触判定は行う一方で、前記オブジェクトと前記第1演者キャラクタとの接触判定は行わない
    ことを特徴とする請求項1乃至7のいずれか1項に記載の鑑賞システム。
  9. 前記コンテンツで提示される演出は、前記第1演者キャラクタ及び前記第2演者キャラクタに係り入力された音声を出力する音声演出を含み、
    前記第2演者キャラクタに係る音声演出は音像定位が可能な態様で提示される一方で、前記第1演者キャラクタに係る音声演出は音像定位が可能ではない態様で提示される
    ことを特徴とする請求項1乃至8のいずれか1項に記載の鑑賞システム。
  10. 前記第2演者キャラクタは、前記鑑賞ユーザと共に前記第1演者キャラクタのパフォーマンスを鑑賞するキャラクタとして前記第2領域に配置されることを特徴とする請求項1乃至9のいずれか1項に記載の鑑賞システム。
  11. 演者の身体運動に基づいて挙動制御がなされる演者キャラクタを提示するコンテンツを鑑賞ユーザに提示する鑑賞装置であって、
    前記コンテンツは、第1演者に係る第1演者キャラクタと第2演者に係る第2演者キャラクタを配置した3次元空間における演出を提示する両眼立体視コンテンツであり、
    前記第1演者の身体運動を示す第1運動情報と、前記第2演者の身体運動を示す第2運動情報とを受信する受信手段と、
    前記第1演者キャラクタの挙動を制御する第1挙動制御手段と、
    前記第2演者キャラクタの挙動を制御する第2挙動制御手段と、
    前記鑑賞ユーザによりなされた操作入力の情報を取得する取得手段と、
    前記コンテンツについて、前記鑑賞ユーザに係る前記3次元空間中の視点を決定する決定手段と、
    前記決定手段により決定された前記視点の情報に基づいて、前記コンテンツに係る提示画像を描画する描画手段と、
    前記描画手段により描画された前記提示画像を提示する提示手段と、
    を有し、
    前記第1演者キャラクタは、前記3次元空間中の第1領域に配置され、
    前記鑑賞ユーザに係る視点及び前記第2演者キャラクタは、前記3次元空間中の前記第1領域とは異なる第2領域に配置され、
    前記第1挙動制御手段は、前記受信手段により受信された前記第1運動情報に基づいて前記第1演者キャラクタの挙動を制御し、
    前記第2挙動制御手段は、前記受信手段により受信された前記第2運動情報、及び前記取得手段により取得された前記操作入力の情報、の少なくともいずれかに基づいて前記第2演者キャラクタの挙動を制御する
    ことを特徴とする鑑賞装置。
  12. 演者の身体運動に基づいて挙動制御がなされる演者キャラクタを提示するコンテンツであって、第1演者に係る第1演者キャラクタと第2演者に係る第2演者キャラクタを配置した3次元空間における演出を提示する両眼立体視コンテンツを鑑賞ユーザに提示するコンピュータ
    前記第1演者の身体運動を示す第1運動情報と、前記第2演者の身体運動を示す第2運動情報とを受信する受信処理と、
    前記第1演者キャラクタの挙動を制御する第1挙動制御処理と、
    前記第2演者キャラクタの挙動を制御する第2挙動制御処理と、
    前記鑑賞ユーザによりなされた操作入力の情報を取得する取得処理と、
    前記コンテンツについて、前記鑑賞ユーザに係る前記3次元空間中の視点を決定する決定処理と、
    前記決定処理において決定された前記視点の情報に基づいて、前記コンテンツに係る提示画像を描画する描画処理と、
    前記描画処理において描画された前記提示画像を提示する提示処理と、
    を実行させるプログラムであって、
    前記第1演者キャラクタは、前記3次元空間中の第1領域に配置され、
    前記鑑賞ユーザに係る視点及び前記第2演者キャラクタは、前記3次元空間中の前記第1領域とは異なる第2領域に配置され、
    前記第1挙動制御処理は、前記受信処理において受信された前記第1運動情報に基づいて前記第1演者キャラクタの挙動を制御し、
    前記第2挙動制御処理は、前記受信処理において受信された前記第2運動情報、及び前記取得処理において取得された前記操作入力の情報、の少なくともいずれかに基づいて前記第2演者キャラクタの挙動を制御する
    ことを特徴とするプログラム。
JP2021079862A 2021-05-10 2021-05-10 鑑賞システム、鑑賞装置及びプログラム Active JP7053074B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021079862A JP7053074B1 (ja) 2021-05-10 2021-05-10 鑑賞システム、鑑賞装置及びプログラム
US17/532,779 US11641459B2 (en) 2021-05-10 2021-11-22 Viewing system, distribution apparatus, viewing apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021079862A JP7053074B1 (ja) 2021-05-10 2021-05-10 鑑賞システム、鑑賞装置及びプログラム

Publications (2)

Publication Number Publication Date
JP7053074B1 true JP7053074B1 (ja) 2022-04-12
JP2022173870A JP2022173870A (ja) 2022-11-22

Family

ID=81260085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021079862A Active JP7053074B1 (ja) 2021-05-10 2021-05-10 鑑賞システム、鑑賞装置及びプログラム

Country Status (2)

Country Link
US (1) US11641459B2 (ja)
JP (1) JP7053074B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7542581B2 (ja) 2022-08-26 2024-08-30 ソフトバンク株式会社 システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019198058A (ja) 2018-11-01 2019-11-14 グリー株式会社 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP2020017244A (ja) 2018-07-25 2020-01-30 株式会社バーチャルキャスト サーバ、方法、プログラム、動画像放送システム
JP2020166821A (ja) 2019-03-29 2020-10-08 株式会社ドワンゴ コミュニケーション装置、コミュニケーション方法及びコミュニケーションプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6688378B1 (ja) 2018-12-21 2020-04-28 株式会社ActEvolve コンテンツ配信システム、配信装置、受信装置及びプログラム
US11211073B2 (en) * 2019-04-22 2021-12-28 Sony Corporation Display control of different verbatim text of vocal deliverance of performer-of-interest in a live event
US11100695B1 (en) * 2020-03-13 2021-08-24 Verizon Patent And Licensing Inc. Methods and systems for creating an immersive character interaction experience

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017244A (ja) 2018-07-25 2020-01-30 株式会社バーチャルキャスト サーバ、方法、プログラム、動画像放送システム
JP2019198058A (ja) 2018-11-01 2019-11-14 グリー株式会社 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP2020166821A (ja) 2019-03-29 2020-10-08 株式会社ドワンゴ コミュニケーション装置、コミュニケーション方法及びコミュニケーションプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7542581B2 (ja) 2022-08-26 2024-08-30 ソフトバンク株式会社 システム

Also Published As

Publication number Publication date
JP2022173870A (ja) 2022-11-22
US20220360763A1 (en) 2022-11-10
US11641459B2 (en) 2023-05-02

Similar Documents

Publication Publication Date Title
US11436803B2 (en) Insertion of VR spectator in live video of a live event
EP3491781B1 (en) Private communication by gazing at avatar
JP6809830B2 (ja) プログラム及び電子機器
US10183220B2 (en) Image generation device and image generation method
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
JP2018094326A (ja) イベント制御システム、イベント通知システム及びプログラム
US9219961B2 (en) Information processing system, computer-readable non-transitory storage medium having stored therein information processing program, information processing control method, and information processing apparatus
TWI647593B (zh) 模擬環境顯示系統及方法
JP6055651B2 (ja) 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
JP2004267433A (ja) 音声チャット機能を提供する情報処理装置、サーバおよびプログラム並びに記録媒体
JP2014094160A (ja) ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム
JP2018045458A (ja) シミュレーションシステム及びプログラム
JP2024019661A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6688378B1 (ja) コンテンツ配信システム、配信装置、受信装置及びプログラム
US20240303947A1 (en) Information processing device, information processing terminal, information processing method, and program
JP7053074B1 (ja) 鑑賞システム、鑑賞装置及びプログラム
US20180160077A1 (en) System, Method and Software for Producing Virtual Three Dimensional Avatars that Actively Respond to Audio Signals While Appearing to Project Forward of or Above an Electronic Display
JP6794390B2 (ja) シミュレーションシステム及びプログラム
CN113853571A (zh) 信息处理设备以及信息处理终端
KR20170131059A (ko) 마이콘서트시스템
CN114945893A (zh) 信息处理设备以及信息处理终端
JP2021041241A (ja) プログラム及び電子機器
CN114930274A (zh) 信息处理设备、信息处理终端和程序
JP7379427B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2020108177A (ja) コンテンツ配信システム、配信装置、受信装置及びプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210830

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220324

R150 Certificate of patent or registration of utility model

Ref document number: 7053074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150