JP7184661B2 - プログラムおよび電子機器 - Google Patents

プログラムおよび電子機器 Download PDF

Info

Publication number
JP7184661B2
JP7184661B2 JP2019021627A JP2019021627A JP7184661B2 JP 7184661 B2 JP7184661 B2 JP 7184661B2 JP 2019021627 A JP2019021627 A JP 2019021627A JP 2019021627 A JP2019021627 A JP 2019021627A JP 7184661 B2 JP7184661 B2 JP 7184661B2
Authority
JP
Japan
Prior art keywords
subject object
virtual
control
control means
advance notice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019021627A
Other languages
English (en)
Other versions
JP2020129272A (ja
Inventor
佳之 高子
建一 小倉
伸太郎 村井
正 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2019021627A priority Critical patent/JP7184661B2/ja
Publication of JP2020129272A publication Critical patent/JP2020129272A/ja
Priority to JP2022187045A priority patent/JP2023027113A/ja
Application granted granted Critical
Publication of JP7184661B2 publication Critical patent/JP7184661B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータに仮想3次元空間の画像を生成する機能を実現させるためのプログラム等に関する。
昨今のコンピュータを用いたゲームや、拡張現実(AR:Augmented Reality)による映像、仮想現実(VR:Virtual Reality)による映像のほとんどは、3DCG(3-Dimensional Computer Graphics)で作成される。例えば、ゲーム画面は、仮想3次元空間に、キャラクタや背景などのオブジェクト配置し、それらを仮想カメラで撮影した画像として生成される。
映像における画面の構図は、演出効果を生み出す重要な要素であり、ゲームであればゲームプレイのし易さにも影響を及ぼす。故に、3DCGを作成する際の仮想カメラの位置・姿勢・撮影画角の設定はとても大切な要素となる。特許文献1には、ゲーム画面が想定通りの構図となるように、仮想カメラの動かし方などを仮想カメラ用のモーションデータとして予め設定しておき、状況に応じてそれを補正することで、想定通りの構図を維持する技術が開示されている。
特開2015-212965号公報
仮想カメラのモーションを予め設定できる場合には、特許文献1の技術が有効な手法となる場合がある。しかし、ユーザ自身が手持ち可能な仮想のビデオカメラで、拡張現実空間や仮想現実空間に存在する仮想の被写体(例えば、仮想空間で歌って踊る仮想のアイドル)を撮影するシチュエーションでは、特許文献1の技術をそのまま適用することができない。
具体的には、ユーザが仮想のアイドルのミュージックビデオやプロモーションビデオを仮想撮影するユーザ体験を提供するサービスを考えた場合、ユーザが望む構図で1曲分を中断無しに連続して撮影するには、仮想のアイドルがどのタイミングでどのようにアクションするかを全て覚えていなければならない。さもなければ、仮想のアイドルの躍動的なアクションにカメラワークがついてゆけず、いわゆる「見切れ」を起こすこととなる。
本発明が解決しようとする課題は、仮想3次元空間内の被写体をビデオ撮影する際の新たなサポート技術を提供すること、である。
上記した課題を解決するための第1の発明は、カメラ(例えば、図2のカメラ1520)および表示部(例えば、図2のタッチパネル1506)を備えた携帯型のコンピュータを、
前記カメラの現実空間における位置および姿勢の情報の取得に係る制御を行う位置姿勢取得制御手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、位置姿勢取得制御部212、図21の実撮影条件データ705、図22のステップS14)、
被写体オブジェクトが配置された仮想3次元空間を設定する仮想空間設定手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、仮想空間設定部214、図21の仮想3次元空間制御データ710、図22のステップS12、ステップS20)、
前記被写体オブジェクトを自動制御する被写体オブジェクト制御手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、被写体オブジェクト制御部218、図21の被写体オブジェクト制御データ713、図22のステップS12、ステップS20)、
前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を、前記位置姿勢取得制御手段により取得したデータに連動させて制御する仮想カメラ制御手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、仮想カメラ制御部220、図21の仮想カメラ制御データ711、図22のステップS14)、
前記表示部に表示させる前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、仮想空間画像生成制御部222、画像生成部292、図22のステップS16)、
前記被写体オブジェクト制御手段による自動制御を予告する予告制御手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、予告制御部234、図22のステップS30~ステップS36)、として機能させるためのプログラムである。
ここで言う「コンピュータ」とは、単数のコンピュータは勿論、複数のコンピュータが連携して構成されるものでもよい。
第1の発明によれば、ユーザは、カメラおよび表示部を備えた携帯型のコンピュータを携え、手持ち可能なビデオカメラ(いわゆるカムコーダ)で撮影する要領で撮影操作すると、当該コンピュータの位置および姿勢に連動するように位置および姿勢が変化する仮想カメラで撮影された仮想空間の画像が、カメラのファインダー画像のようにして表示部に表示される。つまり、コンピュータをカムコーダに見立てた仮想のビデオ撮影が可能になる。そして、その仮想撮影の過程において、ユーザに向けて被写体オブジェクトの自動制御についての予告が行われる。従って、ユーザは、次の被写体オブジェクトがどのように制御されるかを予期して撮影できるので、望んだ構図での撮影がし易くなる。第1の発明によれば、仮想3次元空間内の被写体をビデオ撮影する際の新たなサポート技術を提供できる。
第2の発明は、前記被写体オブジェクト制御手段が、前記被写体オブジェクトの制御手順が定められた所与の制御手順データ又は所与の制御手順プログラム(以下代表して「制御手順データ」という)に基づいて、前記被写体オブジェクトを自動制御し、前記予告制御手段は、前記制御手順データに基づいて、前記被写体オブジェクト制御手段による自動制御の予告を行う、第1の発明のプログラムである。
第2の発明によれば、被写体オブジェクトの自動制御の内容は、予め制御手順データによって時系列に定義されている。ユーザにとって見れば、被写体オブジェクトの自動制御の流れを覚えていれば、より完璧な構図でビデオ撮影できることになる。被写体オブジェクトの同じ自動制御に対する撮影操作を繰り返しビデオ撮影するならば、より満足感の高いビデオ撮影が可能となる。
第3の発明は、所与の楽曲を再生制御する楽曲再生制御手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、楽曲再生制御部246、図10の楽曲データ540、図22のステップS20)、として前記コンピュータを機能させ、前記制御手順データは、前記楽曲の再生と同期した制御手順が定められており、前記被写体オブジェクト制御手段は、前記楽曲再生制御手段による前記楽曲の再生と同期して前記被写体オブジェクトを制御する、第2の発明のプログラムである。
第3の発明によれば、楽曲の再生と同期して被写体オブジェクトの自動制御を実行できる。例えば、被写体オブジェクトを仮想のアイドルとすれば、ユーザは、歌って踊る仮想アイドルを自身のカムコーダで仮想撮影する気分を楽しむことができることになる。被写体オブジェクトが、仮想のアイドルではなく、仮想の動物であったとしても、当該動物の動きと同期したBGMを楽曲として再生すれば、仮想撮影の気分を盛り上げ、すばらしい仮想撮影のユーザ体験を提供できる。
第4の発明は、前記被写体オブジェクト制御手段が、前記被写体オブジェクトを移動させる制御を行い、前記予告制御手段は、前記被写体オブジェクトの移動方向、移動距離および移動経路のうち少なくとも1つを予告する、第1~第3の何れかの発明のプログラムである。
第4の発明によれば、ユーザへ、被写体オブジェクトの移動に伴う見切れを防ぐための情報を提供できる。
第5の発明は、前記被写体オブジェクトは、キャラクタのオブジェクトであり、前記被写体オブジェクト制御手段は、前記被写体オブジェクトの身体を動作させる制御を行い、前記予告制御手段は、前記被写体オブジェクトの身体動作について予告する、第1~第4の何れかの発明のプログラムである。
第5の発明によれば、ユーザへ、被写体オブジェクトの動作に伴う見切れを防ぐための情報を提供できる。
第6の発明は、前記予告制御手段が、前記被写体オブジェクトの身体動作の予告に係る部位を識別表示する制御を行う、第5の発明のプログラムである。
第6の発明によれば、ユーザへ、被写体オブジェクトの身体動作の予告として、動作される部位に関する情報を提供できる。
第7の発明は、前記仮想空間設定手段が、複数の前記被写体オブジェクトを前記仮想3次元空間に配置し、前記被写体オブジェクト制御手段は、前記複数の被写体オブジェクトそれぞれを自動制御し、前記予告制御手段は、前記被写体オブジェクトについて個別の予告制御を行う、第1~第6の何れかの発明のプログラムである。
第7の発明によれば、複数の被写体オブジェクトそれぞれについて自動制御と予告ができる。例えば、被写体オブジェクトを仮想アイドルとすれば、仮想アイドルグループの仮想撮影を楽しむサービスを提供する場合でも、ユーザが望んだ構図で仮想撮影できるようにサポートできる。
第8の発明は、前記予告制御手段が、前記複数の被写体オブジェクトのうちの少なくとも一体を選択し、当該選択された被写体オブジェクトについて予告する、第7の発明プログラムである。
第8の発明によれば、複数の被写体オブジェクトのうち少なくとも一体について予告することができるようになる。
第9の発明は、前記予告制御手段が、前記複数の被写体オブジェクトのうち、所定条件を満たす被写体オブジェクトを選択する、第8の発明のプログラムである。
第9の発明によれば、その時々において所定条件を満たす動きをする被写体オブジェクトについて予告できる。よって、例えば、ユーザへ、構図を考えるにあたりアクションの観点から優先的に考慮するべき被写体オブジェクトとその動作についての情報を事前に提供できる。
第10の発明は、前記仮想空間設定手段が、前記複数の被写体オブジェクトによるコンサートを行う空間として前記仮想3次元空間を設定し、前記被写体オブジェクト制御手段が、前記被写体オブジェクト毎の歌唱動作を自動制御し、前記予告制御手段が、前記複数の被写体オブジェクトのうち、次に歌唱動作を行う前記被写体オブジェクトを選択する、第8の発明プログラムである。
第10の発明によれば、複数の被写体オブジェクトが、順番に歌唱を担当するコンサートの様子を仮想撮影するにあたり、次にどの被写体オブジェクトが歌唱するかの情報をユーザへ提供できる。
第11の発明は、前記被写体オブジェクト制御手段が、前記複数の被写体オブジェクトに連係動作を行わせる制御を行い、前記予告制御手段は、前記連係動作について予告する、第7~第10の何れかの発明のプログラムである。
第11の発明によれば、ユーザへ、複数の被写体オブジェクトの連係動作に伴う見切れを防ぐための情報を提供できる。
第12の発明は、前記被写体オブジェクト制御手段によって前記被写体オブジェクトが自動制御される制御内容のうち、前記予告の対象とする制御内容をユーザの操作入力に基づいて設定する予告対象制御設定手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、予告対象制御設定部230、図21の特定動作種類725、図22のステップS10)、として前記コンピュータを機能させ、前記予告制御手段は、前記予告対象制御設定手段により設定された制御内容について予告を行う、第1~第11の何れかの発明のプログラムである。
第12の発明によれば、ユーザが、予告の対象とする自動制御の内容を指定することができる。つまり、ユーザは、自らが必要と思う自動制御のみについて予告が提供されるようにすることができ、不要な予告がなされないことにより、仮想撮影に集中し易い環境を構築できる。
第13の発明は、前記予告制御手段による予告が行われる際に、現在の前記仮想カメラの位置および姿勢が継続すると仮定して、将来、当該予告内容に関する前記被写体オブジェクト制御手段の自動制御が行われたときの当該仮想カメラで撮影された画像に前記被写体オブジェクトの特定部位が含まれているか否かを予測する予測手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、特定部位設定部232、図21の特定部位種類723、図22のステップS10)、
前記予測手段により否定予測された場合にユーザへ通知する制御を行う予測通知制御手段(例えば、図2の制御基板1550、図9の端末処理部200、仮想撮影管理部210、予測通知制御部242、図22のステップS38)、
として前記コンピュータを機能させるための第1~第12の何れかの発明のプログラム。である。
第13の発明によれば、被写体オブジェクトの特定部位に着目して、そのままでは見切れを起こす可能性があることを予測してユーザに通知できる。よって、ユーザサポートを更に充実させることができる。
第14の発明は、カメラおよび表示部を備えた携帯型の電子機器であって、前記カメラの現実空間における位置および姿勢の情報の取得に係る制御を行う位置姿勢取得制御手段と、被写体オブジェクトが配置された仮想3次元空間を設定する仮想空間設定手段と、前記被写体オブジェクトを自動制御する被写体オブジェクト制御手段と、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を、前記位置姿勢取得制御手段により取得したデータに連動させて制御する仮想カメラ制御手段と、前記表示部に表示させる前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段と、前記被写体オブジェクト制御手段による自動制御を予告する予告制御手段と、を備えた電子機器である。
第14の発明によれば、第1の発明と同様の作用効果を奏する電子機器を実現できる。
仮想撮影体験提供システムの構成例を示す図。 ユーザ端末の構成例を示す正面図。 ユーザ端末における拡張現実を用いた被写体の表示制御に関して説明するための図。 仮想撮影された拡張現実画像の録画について説明するための図。 見切れが起こるシチュエーションの例を示す図。 予告の例を示す概念図。 予告表示で用いられる予告アイコンの例を示す図。 見切れの予測判定と、見切れ予測の通知の例を示す図。 第1実施形態におけるユーザ端末の機能構成の一例を示す機能ブロック図。 第1実施形態における端末記憶部が記憶するプログラムやデータの例を示す図。 予告アイコン定義データのデータ構成例を示す図(その1)。 予告アイコン定義データのデータ構成例を示す図(その2)。 予告アイコン定義データのデータ構成例を示す図(その3)。 予告アイコン定義データのデータ構成例を示す図(その4)。 被写体オブジェクト定義データのデータ構成例を示す図。 歌唱担当割り振りデータのデータ構成例を示す図。 制御手順データのデータ構成例を示す図。 注目アクションリストのデータ構成例を示す図。 演出手順データのデータ構成例を示す図。 予告手順データのデータ構成例を示す図。 仮想撮影管理データのデータ構成例を示す図。 第1実施形態のユーザ端末における処理の流れを説明するためのフローチャート。 図22より続くフローチャート。 第2実施形態におけるサーバシステムの機能構成例を示す機能ブロック図。 第2実施形態におけるサーバ記憶部が記憶するプログラムやデータの例を示す図。 第2実施形態におけるユーザ端末の機能構成例を示す機能ブロック図。
以下、本発明の実施形態の一例を説明するが、本発明を適用可能な形態が以下の実施形態に限られないことは勿論である。
〔第1実施形態〕
図1は、仮想撮影体験提供システムの構成例を示す図である。
仮想撮影体験提供システム1000は、仮想3次元空間に存在するオブジェクトを仮想撮影するユーザ体験を提供するコンピュータシステムであって、ネットワーク9を介して相互にデータ通信が可能に接続されたサーバシステム1100と、ユーザ端末1500とを含む。
ネットワーク9は、データ通信が可能な通信路を意味する。すなわち、ネットワーク9とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。
サーバシステム1100は、例えば、キーボード1106と、タッチパネル1108と、ストレージ1140とを有し、本体装置1101には制御基板1150を搭載する。
制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field-Programmable Gate Array)、SoC(System on a Chip)により実現するとしてもよい。
そして、サーバシステム1100は、制御基板1150が所定のプログラムおよびデータに基づいて演算処理することにより、ユーザ端末1500で仮想撮影体験をユーザに提供するための各種プログラムやデータを提供する機能を実現する。
なお、図1では、ユーザ端末1500を1台のみ描いているが、実際のシステム運用においては、同時に複数のユーザ端末1500がサーバシステム1100にアクセス可能な構成であってもよい。
また、サーバシステム1100を、1台のサーバ装置であるかのように描いているが、複数の装置で実現する構成であってもよい。例えば、サーバシステム1100は各機能を分担する複数のブレードサーバを搭載して相互に内部バスを介してデータ通信可能に接続した構成であってもよい。また、サーバシステム1100を構成するハードウェアの設置場所は問わない。離れた場所に設置された独立した複数のサーバを、ネットワーク9を介してデータ通信させることで、全体としてサーバシステム1100として機能させる構成であってもよい。
ユーザ端末1500は、ユーザ2が、仮想撮影のユーザ体験を得るために使用するコンピュータシステムであって、ネットワーク9を介してサーバシステム1100にアクセスできる電子装置(電子機器)である。本実施形態のユーザ端末1500は、いわゆるスマートフォンと呼ばれる装置であるが、手持ち可能なコンピュータシステムであれば、携帯型ゲーム装置や、タブレット型コンピュータ、などでもよい。
図2は、本実施形態におけるユーザ端末1500の構成例を示す正面図である。
ユーザ端末1500は、方向入力キー1502と、ボタンスイッチ1504と、画像表示デバイス兼接触位置入力デバイスとして機能するタッチパネル1506と、スピーカ1510と、内蔵バッテリー1509と、マイク1512と、カメラ1520と、制御基板1550と、コンピュータ読み出し可能な記憶媒体であるメモリカード1540からデータを読み書きできるメモリカード読取装置1542と、を備える。その他、図示されていない電源ボタン、音量調節ボタン等が設けられている。また、システム利用対価の支払いが可能なICカード型のクレジットカードやプリペイドカードに対して非接触にデータの読み書きが行えるICカード読取装置などを設けるとしてもよい。
カメラ1520は、ズーム倍率を変更可能なイメージセンサーユニットである。すなわち、カメラ1520は、CCD(Charge Coupled Device)などのイメージセンサ、ズーム機構、オートフォーカス機構、イメージセンサで撮影された信号から映像データを生成するLSI、などのデジタル動画撮影を可能とする構成要素を含む。
制御基板1550は、(1)CPU1551や、GPU,DSPなどの各種マイクロプロセッサ、(2)VRAMやRAM,ROM等の各種ICメモリ1552、(3)ネットワーク9に接続する携帯電話基地局や無線LAN基地局などと無線通信するための無線通信モジュール1553、(4)測位モジュール1555、(5)3軸加速度センサ1556、(6)3軸ジャイロ1557、(7)インターフェース回路1558、などを搭載する。
測位モジュール1555は、ユーザ端末1500の位置を取得する。本実施形態では既存の測位システムを利用して現実空間における位置座標を取得することができる。すなわち、測位モジュール1555は、測位システムから提供される信号を受信して所定周期で(例えば1秒毎に)測位情報を出力することで、ユーザ端末1500における測位機能を提供する。本実施形態では、測位システムとしてGPS(Global Positioning System)を利用する。よって測位モジュール1555は、既存の「GPSモジュール」や「GPS受信器」等を利用することができる。「測位情報」には、測位日時(例えば協定世界時であるUTC:Coordinated Universal Time)、位置座標(緯度・経度・高度)、方位などが含まれる。利用する測位システムはGPSに限らず適宜選択可能である。例えば、測位モジュール1555は、携帯電話の無線基地局やWi-Fiネットワークの無線基地局などと無線接続する通信機と、方位センサとの構成で置き換えることができる。すなわち、接続中の無線基地局について予め測位されている位置情報を取得して、これをユーザ端末1500の現実空間における位置座標とするとしてもよい。
インターフェース回路1558には、タッチパネル1506のドライバ回路、方向入力キー1502およびボタンスイッチ1504からの信号を受信する回路、スピーカ1510へ音声信号を出力する出力アンプ回路、マイク1512で集音した音声の信号を生成する入力信号生成回路、カメラ1520で撮影された画像の画像データを入力する回路、メモリカード読取装置1542への信号入出力回路、などが含まれている。
制御基板1550に搭載されているこれらの要素は、バス回路などを介して電気的に接続され、データの読み書きや信号の送受信が可能に接続されている。なお、制御基板1550の一部又は全部をASICやFPGA、SoCにて構成してもよい。そして、制御基板1550は、ユーザ端末としての機能を実現させるためのプログラムや各種データをICメモリ1552に記憶する。
なお、本実施形態では、ユーザ端末1500はプログラムや各種設定データをサーバシステム1100からダウンロードする構成としているが、別途入手したメモリカード1540などの記憶媒体から読み出す構成としてもよい。
図3は、ユーザ端末1500における拡張現実を用いた被写体の表示制御に関して説明するための図である。
ユーザ端末1500は、拡張現実を用いて、タッチパネル1506に仮想3次元空間内に設定された被写体オブジェクトの像を表示させることができる。すなわち、現実空間にはARマーカ6が設置されており、ユーザ2は、このARマーカ6をカメラ1520で撮影するようにユーザ端末1500の位置・姿勢と、カメラ1520のズーム倍率を調整する。カメラ1520で撮影された現実空間の画像(現実空間画像)内のARマーカ6は画像認識処理されて、ユーザ端末1500とARマーカ6との相対位置や相対姿勢の算出処理に用いられる。
ユーザ端末1500は、算出された相対位置や相対姿勢と、3軸加速度センサ1556や3軸ジャイロ1557を用いて得られるユーザ端末1500の加速度および姿勢の情報とから、カメラ1520の位置変化と姿勢変化とを常時計測・取得することができる。また、カメラ1520のズーム操作によりズーム倍率(撮影画角に相当)の情報も周期的に取得することができる。以降では、相対位置や、相対姿勢、位置変化、姿勢変化、ズーム倍率と言ったいわゆる撮影条件を記述するパラメータ値、およびこれらを求めるための元になる撮影画像中のARマーカ6の大きさや向き、姿勢データやユーザ端末1500の加速度データ、ズーム制御値、センサの計測値などを総括して「実撮影条件」と呼ぶこととする。
実撮影条件を取得する一方、ユーザ端末1500は、仮想3次元空間に、被写体オブジェクト4を配置して自動制御することができる。本実施形態では、被写体オブジェクト4は、人の形態をしたキャラクタのオブジェクトであり、カメラ1520で撮影された撮影画像に基づくAR(Augmented Reality)キャラクタである。ユーザ端末1500は、予め用意された所与の楽曲データと、当該楽曲データの楽曲と同期するモーションを実現するための所定のモーションデータと、を用いて、被写体オブジェクト4が、ステージ5で楽曲を歌いながら踊るように自動制御する。
ここで言う「モーション」は、被写体オブジェクト4の自動制御用に用意される動作である。動作の種類は適宜設定可能である。例えば、歩く、走る、ジャンプ、じゃがむ、マイクを口元に寄せて口を開閉する歌唱動作、ダンスの振り付け、ピースサイン、ターン、他の単数または複数の被写体オブジェクトや背景オブジェクトとの連係動作(例えば、ハイタッチ、握手、腕組み、ぶら下がる、投げる、持ち上げる、引っ張る、など)、を設定することができる。なお、被写体オブジェクト4が身体を動かさずに移動すること、例えば、ステージ上の仕掛け(エレベータやスライダ、ワイヤーなど)によるノンアクションの移動も、モーションに含まれるものとする。
ステージ5は、被写体オブジェクト4によるコンサートを行う空間を構成する背景オブジェクトの1つである。なお、背景オブジェクトは、ステージ5以外にも適宜設定可能である。
仮想3次元空間には、仮想カメラC1が配置され、その撮影位置・撮影姿勢・撮影画角が、カメラ1520の実撮影条件のパラメータ値に連動制御される。そして、ユーザ端末1500は、仮想カメラC1で撮影した仮想3次元空間の画像すなわち仮想空間画像90(被写体オブジェクト4、ステージ5の画像)を生成して、これを現実空間画像92に重畳表示させた拡張現実画像94を、タッチパネル1506に表示させる。
ユーザ2は、ユーザ端末1500へ所定の録画開始操作を入力してから、タッチパネル1506に表示される被写体オブジェクト4が楽曲を歌いながら踊る様子(歌唱動作する様子)をファインダー画像に見立てて、携帯型ビデオカメラ(手持ちタイプのカムコーダ)で撮影する要領で、ユーザ端末1500を現実空間で移動させ、時に姿勢を変え、時にズーム倍率を変える撮影操作をする。つまり、ユーザ2は、拡張現実画像94をファインダー画像に見立てて、被写体オブジェクト4のコンサートを撮影する仮想撮影体験を楽しむことができる。
そして、録画開始操作がなされると、図4に示すように、ユーザ端末1500は、生成される拡張現実画像94を時系列に連続的に記録した一連の録画データ740を生成し、これを記録する。
さて、そうした仮想撮影の体験を通じて、ユーザ2は、自分がカメラマンになったつもりで、被写体オブジェクト4のプロモーションビデオを撮影する気持ちになる。当然、こだわりの映像の構図で撮影したいと思うものである。タイミング良く被写体オブジェクト4の躍動的なアクションを全景でとらえたり、タイミング良く被写体オブジェクト4が見せる魅力的な表情をアップで撮影したり、タイミング良く派手なステージ演出(例えば、スポットライトアクションや、スモーク、バックダンスなど)をしっかり捉える構図で撮影したい、と思う。
しかし、被写体オブジェクト4は、歌って踊っている。例えば、図5の例では、ユーザ2が、被写体オブジェクト4をウエストショットで撮影しているタイミングで、被写体オブジェクト4がジャンプアクションをしている。ユーザ2は、ここでジャンプアクションがなされることを知らなければ、被写体オブジェクト4のジャンプにカメラワークを合わせることができないであろう。結果、被写体オブジェクト4は撮影フレーム外に飛び出して「見切れ」が起きることになる。
被写体オブジェクト4が1曲歌い終わるまで、「見切れ」を起こさずに(演出目的の意図的な見切れを除く。)、思い描いた映像の構図で連続して撮り続けるには、被写体オブジェクト4が歌う曲、踊りの振り付け、ステージ演出の内容とタイミングを完璧に覚えていなければならないことになる。覚えることも本実施形態で例示している仮想撮影体験を楽しむサービスのやりこみ要素の1つと考えることもできるが、えてしてサービスを利用し始めたばかりのユーザには困難と判断されてしまい、プレイ自体を遠慮させてしまうかも知れない。
そこで、本実施形態では、ユーザ2に対して仮想3次元空間で起こることの予告、特には、被写体オブジェクト4の自動制御を予告することで、ユーザ2が望んだ構図で仮想撮影ができるようにサポートする。
図6は、予告の例を示す概念図である。図6に示すシチュエーションは、図5と同様である。被写体オブジェクト4を含む仮想3次元空間に配置された各種オブジェクトには、楽曲を再生する際の経過時間情報であるタイムコードと同期して、予め所定のタイミングで所定の動作をするように、制御手順データが用意されている。ユーザ端末1500は、この制御手順データに基づいて、各種オブジェクトの自動制御を行う。
そこで、ユーザ端末1500は、次に実行される自動制御の内容を予告する予告表示20を、仮想撮影の間、タッチパネル1506に表示される撮影操作画面W6の中にて表示する。
予告の表示形態は適宜選択可能であるが、本実施形態では、ユーザ端末1500が、撮影操作画面W6の右端にアイコン形式で予告表示20を表示させる。
図6の例では、被写体オブジェクト4の移動方向移動経路予告アイコン21aと、動作種類予告アイコン21bと、移動距離予告アイコン21cと、が表示された例を示している。具体的には、移動方向移動経路予告アイコン21aは、アイコンに描かれた矢印の方向によって被写体オブジェクト4が移動する方向(図の例では上方向)を示すアイコンである。動作種類予告アイコン21bは、アイコンに描かれた頭文字で被写体オブジェクト4の自動制御の種類(図の例ではジャンプアクション)を示すアイコンである。移動距離予告アイコン21cは、アイコンに描かれている数字で、その時の撮影フレームの幅を基準長として、何フレーム分移動するか(図の例では2フレーム分)で移動距離を予告するアイコンである。
ユーザ2は、被写体オブジェクト4がジャンプアクションする前に、こうした予告表示により、被写体オブジェクト4の動作を含め仮想3次元空間で何が次に起きるかを事前に知ることで、次にどのようなカメラワークを行えば、望んだ構図で映像を撮り続けられるかを準備できる。図6の例では、ユーザ2は、被写体オブジェクト4のジャンプアクションに合わせてユーザ端末1500を上向きに傾け、必要あればズーム倍率を下げ、ジャンプアクションする被写体オブジェクト4の全体を撮影フレーム内に捉えた構図で、見切れを起こすことなく撮影を継続できている。
図7は、予告アイコン21の例を示す図であって、目的に応じたカテゴリ別に括弧番号を付し、同じカテゴリとされる予告アイコン21の種類違いの例を横並びに示している。
予告する目的や内容は、被写体オブジェクト4を何とするか、どのような仮想3次元空間とするかといった、仮想撮影の基本設定に応じて適宜、設定可能である。本実施形態では、被写体オブジェクト4が歌って踊る様子を仮想撮影するので、主たる撮影対象である被写体オブジェクト4の自動制御と、ステージ演出などについての予告を行う。
具体的には、移動方向移動経路予告アイコン21aと、動作種類予告アイコン21bと、移動距離予告アイコン21cと、正面方向予告アイコン21dと、ポーズ種類予告アイコン21eと、アイキャッチ予告アイコン21fと、表情予告アイコン21gと、注目部位予告アイコン21hと、演出予告アイコン21jと、注目オブジェクト予告アイコン21kと、を使い分ける。
移動方向移動経路予告アイコン21aは、予告対象とするオブジェクトの移動方向と移動経路とを予告する。本実施形態では、被写体オブジェクト4の移動方向を矢印の向きで示し、矢印の軸線の向きや形状で移動経路を予告する。
動作種類予告アイコン21bは、予告対象とするオブジェクトの動作種類を予告する。本実施形態では、被写体オブジェクト4の動作の呼び名の頭文字や、動作を想起させる図形で種類を示す。複数の被写体オブジェクト4が登場するケースでは、複数の被写体オブジェクトによる連係動作もこの種の予告アイコンを用いて予告することができる。
移動距離予告アイコン21cは、予告対象とするオブジェクトの移動距離を予告する。本実施形態では、被写体オブジェクト4の移動距離を、撮影フレームのおおまかな倍数で示す。なお、移動距離を表現するための単位は、撮影フレームに限らず、被写体オブジェクト4の身体を用いて表現してもよい。或いは、移動距離予告アイコン21cを移動先の位置に表示するとしてもよい。
正面方向予告アイコン21dは、予告対象とするオブジェクトの正面方向を予告する。本実施形態では、被写体オブジェクト4の動作毎に設定されている正面方向とする。勿論、被写体オブジェクト4の顔が次に向けられる方向を正面方向としてもよい。方向を示す基準は、ステージ5を基準に設定してもよいし、仮想カメラC1の撮影方向を基準とした相対方向としてもよい。本実施形態では後者とする。
ポーズ種類予告アイコン21eは、予告対象とするオブジェクトに設定されている特徴的なポーズの種類を予告する。本実施形態では、被写体オブジェクト4のポーズのシルエットで種類を予告する。
アイキャッチ予告アイコン21fは、予告対象とするオブジェクトに設定されている動作のうち、特にアイキャッチ効果が高いと考えられる動作を予告する。言い換えると、映像映え・画面映えする動作を予告する。本実施形態では、アイキャッチ予告アイコン21fは、被写体オブジェクト4の投げキッスや、ウインク、腕突き上げ、Vサイン、決めステップ、見栄切り、衣装チェンジ、装備チェンジ、などのアイキャッチ動作を想起させる図形で種類を示す。複数の被写体オブジェクト4が登場するケースでは、複数の被写体オブジェクト4の連係によるアイキャッチ動作も、この種の予告アイコンを用いる対象とすることができる。
表情予告アイコン21gは、楽曲の振り付けとして、被写体オブジェクト4のキーとなる表情の出現を予告する。例えば、楽しくポップな楽曲の振り付けの中に、歌詞に合わせて限定して登場する哀しみの表情が設定されている場合、この哀しみの表情を予告の対象とすると好適である。
注目部位予告アイコン21hは、楽曲の振り付けとしてポイントになるアクションであって、特定の部位が特徴的な動きをするアクションの出現を予告する。例えば、頭上で両手打ち、投げキッス、腰のツイスト、楽器のスイング、などが挙げられる。
演出予告アイコン21jは、ステージ5での演出の種類を予告する。例えば、演出予告アイコン21jは、フラッシュライト、スモーク、舞台の変形、バックダンスの登場、などを、それらを想起させる図形を用いて種類を示す。
注目オブジェクト予告アイコン21kは、注目するべきオブジェクトを示す。本実施形態では、複数の被写体オブジェクト4が登場するケースにおいて、その時の楽曲のパートの主たる歌唱や、見せ場となる楽器演奏を担当している被写体オブジェクト4や、楽曲の振り付けとして注目するべきアクションを行う被写体オブジェクト4を予告する。注目するべきアクションとは、例えば、複数の被写体オブジェクト4のうち、その時所定の条件を満たす動作(例えば、最も動作が大きいアクション)や、複数の被写体オブジェクト4による連係動作、がこれに該当する。なお、連係動作についての注目オブジェクト予告アイコン21kについては、連係動作に係る被写体オブジェクト4の組み合わせを予告するにとどめて連係動作の内容については予告しない形態と、連係動作の内容まで予告する形態と、の何れかまたは両方を設定できる。
また、本実施形態では、ユーザ2をサポートする機能の1つとして、ユーザ端末1500は、見切れの発生の予測判定と、見切れが発生すると予想された場合(予測結果が不適合状態となる場合)に通知を行う。「見切れ」とは、被写体オブジェクトの特定部位が所定割合以上、カメラの撮影フレーム内に入っていない状態や、撮影画像内に写っている特定部位の位置が撮影画像中の特定範囲(例えば、撮影画像の中央部)に入っていない状態を言う。
図8は、見切れの予測判定と、見切れ予測の通知の例を示す図である。
ユーザ端末1500は、ヒット判定チェックと同様にして、仮想カメラC1の撮影範囲内に含まれているオブジェクトを判定することができる。言い換えると、その時にタッチパネル1506に表示される拡張現実画像94を構成する仮想空間画像90内に写っている被写体オブジェクト4の部位オブジェクト毎に、撮影フレーム内に写っているかいないかを判定できる。
ユーザ端末1500は、被写体オブジェクト4の所定の主要部位オブジェクト(例えば、頭部)と、予告表示20のうち注目部位予告アイコン21hで予告される部位と、別途ユーザ2が特定部位として指定した部位と、の何れかが、撮影フレーム内に映っていないと判定される場合、現状のままでは見切れが発生すると判定する。そして、ユーザ端末1500は、見切れが発生すると判定した場合、見切れが発生すると予測される旨の通知を行う。具体的には、見切れ予測通知30を撮影操作画面W8内に表示する。見切れ予測通知30が表示されることで、予告表示20への注意が更に喚起される。
なお、見切れの発生予測は、部位オブジェクトが撮影フレーム内に写っているかではなく、部位オブジェクトの当該撮影画像に占める割合(撮影画像の面積に対する撮影フレーム内に写っている面積の比)が、所定の不適合撮影条件を満たす不適合状態となるか否かで判定するとしてもよい。
図9は、本実施形態におけるユーザ端末1500の機能構成例を示す機能ブロック図である。ユーザ端末1500は、操作入力部100と、測位部102と、加速度計測部106と、姿勢計測部108と、音声入力部110と、撮影部120と、端末処理部200と、音出力部390と、画像表示部392と、通信部394と、端末記憶部500とを備える。
操作入力部100は、各種の操作入力に応じた操作入力信号を端末処理部200に出力する。例えば、プッシュスイッチや、ジョイスティック、タッチパッド、トラックボール、加速度センサ、ジャイロ、CCDモジュール、などによって実現できる。図2の方向入力キー1502や、ボタンスイッチ1504、タッチパネル1506、がこれに該当する。
測位部102は、ユーザ端末1500の位置情報を取得し端末処理部200へ出力する。図2の測位モジュール1555がこれに該当する。
加速度計測部106は、ユーザ端末1500に生じている加速度を計測し、端末処理部200へ出力する。図2の3軸加速度センサ1556がこれに該当する。
姿勢計測部108は、ユーザ端末1500の姿勢変化を計測し、端末処理部200へ出力する。図2の3軸ジャイロ1557がこれに該当する。
音声入力部110は、ユーザが発する音声(ユーザ音声)や環境音を集音し、音声信号を端末処理部200へ出力する。図2のマイク1512がこれに該当する。
撮影部120は、外部の様子を撮影し、その画像データを生成して端末処理部200へ出力する。図2のカメラ1520がこれに該当する。
端末処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ICメモリなどの電子部品によって実現され、操作入力部100や端末記憶部500を含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100からの操作入力信号、サーバシステム1100から受信した各種データに基づいて各種の演算処理を実行して、ユーザ端末1500の動作を制御する。図2の制御基板1550がこれに該当する。
そして、本実施形態における端末処理部200は、仮想撮影管理部210と、計時部280と、音生成部290と、画像生成部292と、通信制御部294と、を有する。
仮想撮影管理部210は、ユーザ端末1500にて仮想撮影体験をユーザに提供するための各種処理を実行する。具体的には、仮想撮影管理部210は、位置姿勢取得制御部212と、仮想空間設定部214と、演出制御部216と、被写体オブジェクト制御部218と、仮想カメラ制御部220と、仮想空間画像生成制御部222と、拡張現実画像生成制御部224と、予告対象制御設定部230と、特定部位設定部232と、予告制御部234と、予測部240と、予測通知制御部242と、録画制御部244と、楽曲再生制御部246と、を有する。勿論、これら以外の機能部も適宜含めることができる。
位置姿勢取得制御部212は、カメラの現実空間における位置および姿勢の情報を取得する制御を行う。具体的には、位置姿勢取得制御部212は、撮影部120で撮影した現実空間の撮影画像に基づいてユーザ端末1500の位置および姿勢を計測する。より具体的には、撮影画像からARマーカ6を認識・画像解析して、ARマーカ6とユーザ端末1500との相対位置と相対姿勢とを算出する制御がこれに該当する。
また、位置姿勢取得制御部212は、測位部102や、加速度計測部106、姿勢計測部108、で計測された計測データに基づいて現実空間におけるユーザ端末1500の位置および姿勢に関する情報を計測する制御を行うことができる。なお、測位部102や、加速度計測部106、姿勢計測部108が、外部装置として構成される場合には、位置姿勢取得制御部212は、それらで計測・算出した位置や姿勢に関する情報を、当該外部装置とのデータ通信を用いて取得する制御を行う。
仮想空間設定部214は、単数または複数の被写体オブジェクトが配置された仮想3次元空間を設定する。
演出制御部216は、仮想3次元空間内で所与の演出制御を行う。例えば、演出制御部216は、スモークや、花吹雪、スポットライトの光芒の表示、等の各種の演出オブジェクトの制御を行う。
被写体オブジェクト制御部218は、仮想3次元空間に設定されたオブジェクトの自動制御を行う。被写体オブジェクト4やステージ5の自動制御がこれに該当する。
具体的には、被写体オブジェクト制御部218は、楽曲の再生と同期した被写体オブジェクトの制御手順が定められた所与の制御手順データ(又は所与の制御手順プログラム)に基づいて、楽曲の再生と同期して被写体オブジェクトを自動制御する。その際、被写体オブジェクト制御部218は、自動制御を、複数の被写体オブジェクトそれぞれについて実行する。より具体的には、被写体オブジェクト制御部218は、被写体オブジェクトの移動や、被写体オブジェクトの身体を動作させる制御、被写体オブジェクトの向きを変化させる制御、所与のポーズを取らせる制御、所与のアイキャッチ動作を取らせる制御、を行う。
仮想カメラ制御部220は、仮想3次元空間を撮影する仮想カメラの位置および姿勢を、位置姿勢取得制御部212により取得されたユーザ端末1500の位置および姿勢に連動させて制御する(図3参照)。
仮想空間画像生成制御部222は、画像表示部392に表示させる仮想カメラで撮影された仮想3次元空間の画像を生成する制御を行う。仮想空間画像生成制御部222は、画像生成部292とともに、仮想カメラで撮影された仮想3次元空間の画像を生成する仮想空間画像生成手段を形成する。
拡張現実画像生成制御部224は、画像表示部392に表示させる拡張現実画像94(図3参照)を生成する制御を行う。
予告対象制御設定部230は、被写体オブジェクト制御部218によって被写体オブジェクトが自動制御される制御内容のうち、予告の対象とする制御内容をユーザの操作入力に基づいて設定する。本実施形態では、被写体オブジェクト4のモーションの中から予告対象とするモーションをユーザが選択して指定するための制御がこれに該当する。
特定部位設定部232は、被写体オブジェクトの特定部位をユーザの操作入力に基づいて設定する。
予告制御部234は、被写体オブジェクト制御部218による自動制御と、演出制御部216による演出制御と、について予告する制御を行う。本実施形態では、予告表示20の表示に係る制御がこれに該当する(図6参照)。
具体的には、予告制御部234は、被写体オブジェクトの制御手順が定められた所与の制御手順データ(又は所与の制御手順プログラム)に基づいて、被写体オブジェクト制御部218による自動制御の予告を行う。
そして、予告制御部234は、被写体オブジェクトの移動方向、移動距離、移動経路、身体動作、被写体オブジェクトの向きを変化させる制御、所与のポーズを取らせる制御、および所与のアイキャッチ動作を取らせる制御、のうち少なくとも1つを予告する。更に、予告制御部234は、被写体オブジェクトの身体動作の予告に係る部位を識別表示する制御を行う。
被写体オブジェクトが複数の場合では、予告制御部234は、被写体オブジェクトについて個別に予告する。複数の被写体オブジェクトが連係動作するように制御される場合には、当該連係動作についてまとめて予告する。なお、N体(N≧3の整数)の被写体オブジェクトが登場する場合に、その時に連係行動を取っているM体の被写体オブジェクトや、所定範囲に集まっているM体(M<N)の被写体オブジェクトを纏めて扱う場合も含まれる。例えば、5体の被写体オブジェクトが登場し、2体が第1グループ、3体が第2グループとして、それぞれグループ別に連係動作するようなケースでは、ここで言う各グループが、個別予告の対象に該当する。
また、予告制御部234は、複数の被写体オブジェクトのうちの少なくとも一体を選択し、当該選択された被写体オブジェクトについて予告することもできる。例えば、予告制御部234は、複数の被写体オブジェクトのうち、動きが所定の条件を満たす(例えば、最も大きい、など)被写体オブジェクトや、ユーザの選択操作に従って選択された被写体オブジェクト、次に歌唱動作や演奏動作など注目すべき動作を行う前記被写体オブジェクトを、予告対象として選択することができる。もちろん、所定条件を満たしていれば、予告対象として選択する被写体オブジェクトは複数でもよい。
また、予告制御部234は、予告対象制御設定部230により設定された制御内容について予告を行う。例えば、ユーザが予告の対象とする被写体オブジェクトを選択操作入力している場合は、選択された被写体オブジェクトについての予告を行う。
予測部240は、予告制御部234による予告が行われる際に、現在の仮想カメラの位置および姿勢が継続すると仮定して、当該予告内容に関する被写体オブジェクト制御部218の自動制御が行われたときに、所定の不適合撮影条件を満たす不適合状態となるか否かを予測する。不適合撮影条件は、例えば、被写体オブジェクトの特定部位が仮想カメラで撮影された画像に含まれないこと、および/または、特定部位の当該撮影画像に占める割合が所定値以下となること、である。
つまり、予測部240は、将来、当該予告内容に関する被写体オブジェクトの自動制御が行われたときの当該仮想カメラで撮影された画像に記被写体オブジェクトの特定部位が含まれているか否かを予測することができる。
但し、特定部位設定部232が被写体オブジェクトの特定部位をユーザの操作入力に基づいて設定している場合は、予測部240は、当該特定部位に限定して予測する。
予測通知制御部242は、予測部240により不適合状態となると予測された場合にユーザへ通知する制御を行う。本実施形態では見切れ予測通知30の表示制御がこれに該当する(図8参照)。
録画制御部244は、仮想空間画像生成制御部222や拡張現実画像生成制御部224により生成された画像を録画する制御を行う。
楽曲再生制御部246は、所与の楽曲を再生制御する。
計時部280は、システムクロックを利用して現在日時や制限時間等の計時を行う。
音生成部290は、例えばデジタルシグナルプロセッサ(DSP)や、音声合成ICなどのプロセッサ、音声ファイルを再生可能なオーディオコーデック等によって実現され、楽曲や、演出等の効果音、BGM、各種操作音の音信号を生成し、音出力部390に出力する。
音出力部390は、音生成部290から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。図2のスピーカ1510がこれに該当する。
画像生成部292は、各種画像データの生成や、生成した画像を画像表示部392に表示させるための制御を行う。本実施形態では、仮想空間画像90や拡張現実画像94を生成する(図3参照)。
画像表示部392は、画像生成部292から入力される画像信号に基づいて各種画像を表示する。例えば、フラットパネルディスプレイ、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。本実施形態では、図2のタッチパネル1506がこれに該当する。
通信制御部294は、データ通信に係るデータ処理を実行し、通信部394を介して外部装置とのデータのやりとりを実現する。
通信部394は、ネットワーク9と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図2の無線通信モジュール1553がこれに該当する。
端末記憶部500は、端末処理部200にユーザ端末1500を統合的に制御させるための諸機能を実現するためのプログラムや、各種データ等を記憶する。また、端末処理部200の作業領域として用いられ、端末処理部200が各種プログラムに従って実行した演算結果や操作入力部100などから入力される入力データ等を一時的に記憶する。こうした機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD-ROMやDVDなどの光学ディスクなどによって実現される。図2の制御基板1550が搭載するICメモリ1552やメモリカード1540がこれに該当する。オンラインストレージを利用する構成も可能である。
図10は、端末記憶部500が記憶するプログラムやデータの例を示す図である。
端末記憶部500は、端末プログラム502と、予告アイコン定義データ510と、仮想撮影パッケージデータ520と、仮想撮影管理データ700と、現在日時800と、を記憶する。勿論、これら以外のプログラムやデータも適宜記憶することができる。
端末プログラム502は、端末処理部200が読み込み実行することで、ユーザ端末1500を仮想撮影管理部210(図9参照)として機能させるためのプログラムである。
予告アイコン定義データ510は、予告アイコン21の種類毎に用意され、当該種類の予告アイコンを初期設定する各種データを格納する。
図11~図14は、予告アイコン定義データ510のデータ構成例を示す図である。予告アイコン定義データ510は、固有の予告ID511と、メタデータ512と、アイコンデータ513と、適用要件515と、を含む。勿論、これら以外のデータも適宜含めることができる。
メタデータ512には、当該予告アイコンが適用されるモーションや演出のID(名称)や、当該予告アイコンに関する数値情報(例えば、角度や、方向、長さ比)、当該予告アイコンの表示とともに表示されるべき他の予告アイコンのカテゴリを示す情報が格納される。例えば、移動方向移動経路予告アイコン21aと、移動距離予告アイコン21cのメタデータ512には、それらに対応づけられる動作種類の情報が設定されている(図11、図13参照)。例えば、移動方向移動経路予告アイコン21aと、移動距離予告アイコン21cの表示を伴うべき予告アイコンのメタデータ512には、それらを関連カテゴリとして指定している(図12参照)。
適用要件515は、当該予告アイコンが表示されるために満たすべき条件を定義する。
例えば、方向の予告を目的とした予告アイコン(例えば、移動方向移動経路予告アイコン21aや、正面方向予告アイコン21dなど;図7参照)の適用要件515では、仮想カメラC1の実撮影条件との関係から満たすべき相対位置関係や相対向きの関係が指定される。
例えば、距離の予告を目的とした予告アイコン(例えば、移動距離予告アイコン21c;図7参照)の適用要件515では、仮想カメラC1の実撮影条件との関係から満たすべき、相対的な長さ比(例えば、その時の撮影フレームの長さを基準長とした場合の移動距離の相対長さ比、など)が指定される。
図10に戻って、仮想撮影パッケージデータ520は、ユーザ端末1500にて仮想撮影体験をユーザに提供するために必要とされる各種初期設定データの集合である。仮想撮影パッケージデータ520は、例えば仮想撮影体験提供システム1000のメーカや運営事業者によって用意され、サーバシステム1100で配信される。オンラインショッピングによって販売するとしてもよい。図10では、1つのみ表しているが、複数の仮想撮影パッケージデータ520を用意しておいて、ユーザ2が使用するデータを選択可能としてもよい。
そして、仮想撮影パッケージデータ520は、固有のパッケージID521と、仮想3次元空間初期設定データ522と、特定対象初期設定528と、被写体オブジェクト定義データ530と、楽曲データ540と、歌唱担当割り振りデータ550と、制御手順データ560と、注目アクションリスト570と、を含む。勿論、これら以外のデータも適宜含めることができる。
仮想3次元空間初期設定データ522は、被写体オブジェクト4や仮想カメラC1を配置する仮想3次元空間の初期設定を定義する各種データを格納する。例えば、ステージ5を定義するステージオブジェクトデータ524と、演出表示用のオブジェクトを定義する演出オブジェクトデータ526と、を含む。このほか、仮想3次元空間の背景を構成する各種オブジェクトに係るデータを適宜含めることができる。
特定対象初期設定528は、予告表示20に何らかの限定を設定するための初期値を格納する。初期値は、実質的に制限無しを意味する「未定」であってもよい。
被写体オブジェクト定義データ530は、被写体オブジェクト4の種類毎に用意され、当該種類の被写体オブジェクトを表示し動作させるために必要な各種データを格納する。
1つの被写体オブジェクト定義データ530は、例えば図15に示すように、固有の識別情報である被写体オブジェクトID531と、モデルデータ532と、モーション定義データ534と、ポーズ定義データ536と、アイキャッチ動作定義データ538と、を含む。勿論、これら以外のデータも適宜含めることができる。
モーション定義データ534は、仮想撮影で当該被写体オブジェクトが行う動作の種類毎に用意される。本実施形態では、被写体オブジェクト4は歌を歌いながら踊るので、歌唱動作、振り付け動作、ステージを歩く、ジャンプする、階段を上る、階段を降りる、といったコンサートのステージ上でアイドルが行うと思われる動作の種類毎に用意される。1つのモーション定義データ534は、固有のモーションID(モーション名でも良い)と、モーションデータと、を対応付けて格納する。
ポーズ定義データ536は、楽曲の振り付け、または当該被写体オブジェクトに特有の特徴的なポーズを実現するためのデータである。1つの被写体オブジェクト4に複数のポーズ定義データ536を設定することもできる。
アイキャッチ動作定義データ538は、楽曲の振り付け、または当該被写体オブジェクトに特有のアイキャッチ動作を実現するためのデータである。1つの被写体オブジェクト4に複数のアイキャッチ動作定義データ538を設定することもできる。
楽曲データ540は、当該仮想撮影パッケージを使用した仮想撮影で再生される楽曲のデータ構成例を示す図である。本実施形態では、被写体オブジェクト4が歌唱する歌謡曲を所定のタイムコードに従って音声再生するためのデータである。
歌唱担当割り振りデータ550は、楽曲データ540が複数の被写体オブジェクト4により歌唱される歌謡曲である場合に用意され、当該歌謡曲に設定された複数のパート別に、どの被写体オブジェクト4が歌唱を担当するかを示したデータである。
例えば図16に示すように、歌唱担当割り振りデータ550は、タイムコードに基づいて記述されるパート区切りタイミング552と、担当被写体オブジェクトID554と、を対応付けて格納する。パート区切りタイミング552は、各パートが開始されるタイムコードに基づくタイミングを示している。
図10に戻って、制御手順データ560は、当該仮想撮影パッケージを使用した仮想撮影で登場する被写体オブジェクト4毎に用意され、当該仮想撮影パッケージを使用した仮想撮影で再生される楽曲と同期した被写体オブジェクトの自動制御の制御手順を定めるデータである。
制御手順データ560は、例えば図17に示すように、当該データが適用される被写体オブジェクト4を示す適用キャラクタID561と、楽曲データ540のタイムコードに基づく自動制御開始タイミング562と、実行開始モーションID564と、モーション制御設定値566と、注目部位568と、を対応付けて格納する。
モーション制御設定値566は、対応するモーションを制御するための詳細な設定値を格納する。例えば、移動を伴うモーションの場合、移動方向、移動距離のデータが含まれる。また、各モーションを行う場合、どの方向を正面とするかの設定も含まれる。注目部位568は、対応するモーションにおいて、特徴的な動きをする部位を示す。なお、制御手順データ560は、所与の制御手順プログラムと言うこともできる。
図10に戻って、注目アクションリスト570は、全ての被写体オブジェクト4の自動制御の中で、その時々で注目するべき動作を列挙したデータである。例えば図18に示すように、楽曲データ540のタイムコードに基づくアクション開始タイミング572と、注目アクションを担当する被写体オブジェクト4を示す担当キャラクタID574と、を対応付けて格納する。勿論、これら以外のデータも適宜含めることができる。
演出手順データ580は、楽曲の再生に同期して様々な演出表示を実現するためのデータである。例えば図19に示すように、楽曲データ540のタイムコードに基づく演出開始タイミング582と、演出内容584と、を対応付けて格納する。演出内容584は、使用する演出オブジェクトを指定するオブジェクトIDと、当該オブジェクトの制御データと、を格納する。
予告手順データ590は、被写体オブジェクト4毎に用意され、当該被写体オブジェクト4の自動制御に係る予告表示20を行うタイミングとその内容とを時系列に定義するデータである。例えば図20に示すように、当該データが適用される被写体オブジェクトを示す適用キャラクタID591と、楽曲データ540のタイムコードに基づく予告タイミング592と、表示予告アイコン設定594と、を対応付けて格納する。勿論、これら以外のデータも適宜含めることができる。例えば、予告表示20の継続時間を対応づけて含めることができる。
予告タイミング592は、予告の対象となる被写体オブジェクト4の制御手順データ560の自動制御開始タイミング562(図17参照)と対応づけて用意されている。そして、予告タイミング592は、対応する自動制御開始タイミング562よりも所与の時間だけ前のタイミングに設定されている。所与の時間は、適宜設定可能である。例えば2~3秒程度前となるように設定すると好適である。また、所与の時間は、固定値に限らず、自動制御の内容に応じて異なる時間を用いてもよい。
表示予告アイコン設定594には、予告アイコンのカテゴリまたは個別の予告アイコンの種類が設定される。ユーザ端末1500は、予告タイミング592が到来して新たに予告表示20を行う際、表示予告アイコン設定594にカテゴリが設定されている場合には、当該カテゴリに属する予告アイコン(予告ID511の前部分で判別;図11参照)のうち、その時の仮想カメラC1の実撮影条件との比較により、適用要件515を満たす予告アイコンを選択して表示させる。
従って、予告アイコンの種類とその適用要件515を設定しておけば、仮想カメラC1の撮影方向と、被写体オブジェクト4の移動方向及び正面方向との相対関係に基づいて、仮想カメラC1から見て、次に被写体オブジェクト4がどの相対方向に移動するか、相対的にどの方向を向くか、をユーザ2に予告できるようになる。
図10に戻って、仮想撮影管理データ700は、仮想撮影の実行を管理する各種データを格納する。
仮想撮影管理データ700は、例えば図21に示すように、ユーザアカウント701と、使用パッケージID703と、実撮影条件データ705と、仮想3次元空間制御データ710と、特定対象設定データ720と、予告表示制御データ730と、見切れ予測通知制御データ732と、現実空間画像データ734と、仮想空間画像データ736と、拡張現実画像データ738と、録画データ740と、タイムコードカウンタ742と、を含む。勿論、これら以外のデータも適宜含めることができる。
実撮影条件データ705には、最新の実撮影条件を記述するデータが格納される。例えば、自機で計測したARマーカ6との相対位置や相対姿勢の情報、カメラ1520のズーム機構の制御値(ズーム倍率に相当)、などを含む。外部装置で位置や姿勢を計測する場合は、当該外部装置から取得した位置情報や姿勢情報を格納する。
仮想3次元空間制御データ710は、仮想3次元空間のオブジェクト等を管理・制御するための各種データを格納する。本実施形態では、仮想カメラ制御データ711と、被写体オブジェクト4別の被写体オブジェクト制御データ713と、ステージ5を制御するためのステージオブジェクト制御データ715と、演出オブジェクト制御データ717と、を含む。勿論、これら以外のデータも適宜含めることができる。
特定対象設定データ720は、予告表示20の限定に関する設定データである。仮想撮影を開始する前、或いは開始中に設定される。特定対象設定データ720は、例えば、特定被写体オブジェクトID721と、特定部位種類723と、特定動作種類725と、を含む。勿論、これら以外のデータも適宜含めることができる。
特定部位種類723および特定動作種類725には、それぞれプレイ開始前にユーザに提示された候補の中から選択操作された1つまたは複数の部位や動作が設定される。なお、特定部位の候補は、手・足・顔などの部分に限らず、上半身・下半身・全身など広範囲にわたる複数の部位を含んだグループも含めることができる。
具体的には、ユーザ端末1500は、所定の特定対象設定操作の入力を検出したならば、特定被写体オブジェクト、特定部位、特定動作種類、それぞれを指定操作するメニュー画面を表示する。
そして、特定被写体オブジェクトの選択に係るメニュー画面では、これから実行される仮想撮影に登場する被写体オブジェクト4のリストを提示し、何れか1体を特定被写体オブジェクトとしてユーザに選択させる。続いて、特定部位の選択に係るメニュー画面では、部位のリストを提示し、1つまたは幾つかの部位を特定部位としてユーザに選択させる。特定動作種類の選択に係るメニュー画面では、特定被写体オブジェクトに設定された被写体オブジェクト4のモーションや、ポーズ、アイキャッチ動作のリストを提示し、1つまたは幾つかの部位を特定動作としてユーザに選択させる。なお、各種リストの表示例を提示する際には、被写体オブジェクト定義データ530(図15参照)を適宜参照する。
予告表示制御データ730は、予告表示20の表示制御に関するデータである。
見切れ予測通知制御データ732は、見切れ予測通知30の表示制御に関するデータである。
次に、本実施形態の仮想撮影体験提供システム1000の動作について説明する。
図22~図23は、ユーザ端末1500における処理の流れを説明するためのフローチャートである。ここで説明する処理の流れは、ユーザ端末1500が、端末処理部200で端末プログラム502を実行することにより実現される。
図22に示すように、ユーザ端末1500は、先ず、選択的な予告表示の対象とされる特定被写体オブジェクトと、特定部位と、特定動作とのユーザの選択・指定を受け付ける(ステップS10)。選択された結果は、特定被写体オブジェクトID721、特定部位種類723、特定動作種類725として記憶される(図21参照)。
次に、ユーザ端末1500は、仮想3次元空間を初期設定する(ステップS12)。本実施形態では、仮想3次元空間初期設定データ522を参照して、コンサート会場をイメージしたステージ5と、被写体オブジェクト4と、仮想カメラC1とを初期状態で配置する。
次に、ユーザ端末1500は、位置と姿勢の情報の取得制御と、カメラ1520による撮影とを開始し、仮想カメラC1の連動制御を開始する(ステップS14)。
次いで、ユーザ端末1500は、仮想空間画像90および拡張現実画像94の生成と、拡張現実画像94を含む撮影操作画面の表示を開始する(ステップS16)。
そして、所定の録画開始操作の入力を検知すると、ユーザ端末1500は拡張現実画像94の録画を開始して(ステップS18)、楽曲の再生と、被写体オブジェクト4の自動制御と、演出制御と、を開始する(ステップS20)。
楽曲の再生を開始すると、ユーザ端末1500は、タイムコードカウンタ742(図21参照)を用いて、楽曲の再生開始からの経過時間を計時する。これ以降、被写体オブジェクト4の自動制御や、ステージ演出の制御は、このタイムコードカウンタ742の示す値に基づいて行われる。
タイムコードカウンタ742が、特定被写体オブジェクトID721が示す被写体オブジェクト4に適用される予告手順データ590(図20参照)の何れかの予告タイミング592に一致すると(ステップS30のYES)、ユーザ端末1500は、当該予告タイミングに対応付けられている表示予告アイコン設定594が示す予告アイコンを1次選択する(ステップS32)。
次いで、ユーザ端末1500は、1次選択された予告アイコンのなかから、特定部位種類723が示す部位に該当する注目部位予告アイコン21hを2次選択し、特定動作種類725が示す動作に該当する動作種類予告アイコン21bを2次選択する(ステップS34)。なお、特定動作種類725が移動に関する動作である場合、移動方向移動経路予告アイコン21aおよび移動距離予告アイコン21cは、対応する動作種類予告アイコン21bとともに2次選択することとする。
次いで、ユーザ端末1500は、2次選択された予告アイコンを、撮影操作画面にて一定時間表示する制御を開始する(ステップS36;図6参照)。そして、ユーザ端末1500は、見切れ予測判定を実行し、予測結果の通知を行う(ステップS38;図8参照)。
次いで、ユーザ端末1500は、歌唱担当割り振りデータ550(図16参照)を参照して、次に到来するパート区切りタイミング552から所定時間前(例えば、2~3秒程度前)に達したならば(ステップS40のYES)、担当被写体オブジェクトID554が示す被写体オブジェクト4の注目オブジェクト予告アイコン21k(図7参照)を選択し(ステップS42)、これを撮影操作画面にて一定時間表示する制御を開始する(ステップS44)。
図23に移って、ユーザ端末1500は、注目アクションリスト570(図18参照)を参照して、次に到来するアクション開始タイミング572から所定時間前(例えば、2~3秒程度前)のタイミングに達したならば(ステップS50のYES)、担当キャラクタID574が示す被写体オブジェクト4の注目オブジェクト予告アイコン21kを選択する(ステップS52)。そして、ユーザ端末1500は、選択された予告アイコンを、撮影操作画面にて一定時間表示する制御を開始する(ステップS54)。
ユーザ端末1500は、所定の録画終了操作の入力を検出するまで(ステップS70のNO)、ステップS30からステップS54を繰り返し実行する。録画終了操作の入力を検出されたならば(ステップS70のYES)、ユーザ端末1500は録画を終了して(ステップS72)、一連の処理を終了する。
以上、本実施形態によれば、仮想3次元空間内の被写体をビデオ撮影する際の新たなサポート技術を提供できる。
具体的には、ユーザ2が、ユーザ端末1500(携帯型のコンピュータ)を手持ち型ビデオカメラで撮影する要領で手持ち操作して、仮想カメラC1を連動制御できる。仮想撮影の過程において、ユーザ2に向けて、被写体オブジェクト4の自動制御についての予告が行われる。従って、ユーザ2は、心の準備をしながら撮影操作できるので、望んだ構図での撮影操作をし易くなる。
〔第2実施形態〕
次に、本発明を適用した第2実施形態について説明する。以降では、主に第1実施形態との差異について述べることとし、第1実施形態と同様の構成要素については第1実施形態と同じ符号を付与して重複する説明を省略する。
第1実施形態は、仮想撮影管理部210(図9参照)をユーザ端末1500にて実現した構成であったが、第2実施形態は、仮想撮影管理部210をサーバシステム1100にて実現する。故に、本実施形態におけるユーザ端末1500は、操作入力を受け付け、仮想撮影の画像を表示する端末として位置付けとなる。
図24は、本実施形態におけるサーバシステム1100の機能構成例を示す機能ブロック図である。サーバシステム1100は、操作入力部100sと、サーバ処理部200sと、音出力部390sと、画像表示部392sと、通信部394sと、サーバ記憶部500sとを備える。
操作入力部100sは、サーバの管理のための各種操作を入力するための手段である。図1のキーボード1106がこれに該当する。
サーバ処理部200sは、例えばCPUやGPU、ASIC、FPGA等の演算回路となるプロセッサの他、ICメモリなどの電子部品によって実現され、操作入力部100sやサーバ記憶部500sを含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100sからの操作入力信号、ユーザ端末1500などから受信したデータ、等に基づいて各種の演算処理を実行して、サーバシステム1100の動作を統合的に制御する。
そして、サーバ処理部200sは、ユーザ管理部202と、仮想撮影管理部210と、計時部280sと、音生成部290sと、画像生成部292sと、通信制御部294sとを含む。勿論、これら以外の機能部も適宜含めることができる。
ユーザ管理部202は、ユーザ登録手続きに係る処理及びユーザアカウントに紐付けられる各ユーザの情報の記憶管理を行う。
計時部280sは、システムクロックを利用して現在日時や制限時間等の計時を行う。
音生成部290sは、音声データの生成やデコードをするICやソフトウェアの実行により実現され、サーバシステム1100のシステム管理や、操作音、楽曲などの音声データを生成或いはデコードする。そして、システム管理に関する音声信号は音出力部390sへ出力する。
音出力部390sは、音声信号を放音する。図1の例では本体装置やタッチパネル1108が備えるスピーカ(不図示)がこれに該当する。
画像生成部292sは、画像の生成、および画像表示部392sに画像を表示させる画像信号の出力を行う。本実施形態では、サーバシステム1100のシステム管理に関する画像や、仮想撮影に使用される画像(仮想空間画像90や拡張現実画像94)などの画像を生成する機能の一部または全部を担う。
通信制御部294sは、データ通信に係るデータ処理を実行し、通信部394sを介して外部装置とのデータのやりとりを実現する。
通信部394sは、ネットワーク9と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現される。図1の例では通信装置1153が該当する。
サーバ記憶部500sは、サーバ処理部200sにサーバシステム1100を統合的に制御させるための諸機能を実現するためのプログラムや各種データ等を記憶する。また、サーバ処理部200sの作業領域として用いられ、サーバ処理部200sが各種プログラムに従って実行した演算結果などを一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD-ROMやDVDなどの光学ディスク、オンラインストレージなどによって実現される。図1の例では本体装置が搭載するICメモリ1152やハードディスクなどの記憶媒体、及びストレージ1140がこれに該当する。
図25は、サーバ記憶部500sが記憶するプログラムやデータの例を示す図である。サーバ記憶部500sは、サーバプログラム501と、配信用クライアントプログラム503と、予告アイコン定義データ510と、仮想撮影パッケージデータ520と、を記憶する。また、サーバ記憶部500sは、逐次生成・管理されるデータとして、ユーザ管理データ600と、仮想撮影管理データ700と、現在日時800と、を記憶する。サーバ記憶部500sは、その他のプログラムやデータ(例えばタイマや、カウンタ、各種フラグなど)も適宜記憶できる。
サーバプログラム501は、サーバ処理部200sが読み出して実行することで、ユーザ管理部202、仮想撮影管理部210としての機能を実現させるためのプログラムである。
配信用クライアントプログラム503は、本実施形態におけるユーザ端末1500へ提供されるクライアントプログラムのオリジナルである。
ユーザ管理データ600は、登録ユーザ毎に用意され、当該ユーザに関する各種登録情報やサービスの利用履歴などの情報を格納する。
図26は、本実施形態のユーザ端末1500の機能構成例を示す機能ブロック図である。
本実施形態の端末処理部200は、操作信号送信制御部261と、画像表示制御部262と、位置姿勢情報提供制御部263と、を含む。
操作信号送信制御部261は、操作入力部100へなされた操作に応じて、各種データやリクエストをサーバシステム1100へ送信するための処理を実行する。
画像表示制御部262は、サーバシステム1100から受信した各種データに基づいて撮影操作画面等を表示するための制御を行う。
位置姿勢情報提供制御部263は、自機の位置および姿勢の情報、および撮影部120におけるズーム制御に関する情報を、サーバシステム1100へ提供するための制御を行う。具体的には、ARマーカ6との相対位置・相対姿勢・ズーム倍率の情報を周期的にサーバシステム1100へ送信するための各種処理を行う。
本実施形態における端末記憶部500は、クライアントプログラム504を記憶する。その他、仮想撮影に必要なデータは、サーバシステム1100から適宜ダウンロードして記憶することができる。
クライアントプログラム504は、端末処理部200が読み出して実行することによってユーザ端末演算部260としての機能を実現させるためのアプリケーションソフトウェアである。本実施形態では、クライアントプログラム504は、サーバシステム1100から提供される配信用クライアントプログラム503(図25参照)のコピーである。なお、クライアントプログラム504は、専用のクライアントプログラムであってもよいし、ウェブブラウザプログラムや、インタラクティブな画像表示を実現するプラグインなどにより構成するとしてもよい。
本実施形態におけるサーバシステム1100の仮想撮影に係る処理の流れは、第1実施形態におけるユーザ端末1500の仮想撮影に係る処理の流れと同様である。
すなわち、図22~図23で説明したフローチャートの実行主体を、ユーザ端末1500からサーバシステム1100へ読み替えれば良い。
本実施形態によれば、第1実施形態と同様の効果が得られる。
〔変形例〕
以上、本発明を適用した実施形態について説明したが、本発明を適用可能な形態は上記形態に限定されるものではなく適宜構成要素の追加・省略・変更を施すことができる。
[変形例その1]
例えば、上記実施形態では、被写体オブジェクト4の数を1体として図示したが、同時に複数体用いてもよい。
[変形例その2]
また、上記実施形態では、仮想撮影の最終形態とされる画像を、拡張現実画像94とする例を示したが、現実空間画像92との合成を省略して、仮想撮影の最終形態を仮想空間画像90とする構成も可能である。その場合AR画像ではなく、仮想撮影された仮想3次元空間の3DCG画像そのものが表示されたり、録画されたりすることとなる。
[変形例その3]
また、上記実施形態では、ユーザ端末1500の位置や姿勢の計測にARマーカ6を用いる構成を例示したが、マーカレス方式の拡張現実技術を用いて位置や姿勢を計測するとしてもよい。
[変形例その4]
また、上記実施形態では、人の形態を有する仮想キャラクタが楽曲に合わせて歌って踊る様子を撮影する例を示したたが、被写体オブジェクト4は、動物でも良いし、植物、風景、乗り物、などでもよい。そして、被写体オブジェクトとしたものによっては、楽曲の再生や、楽曲に同期した動作制御も適宜省略可能である。
[変形例その5]
また、上記実施形態では、予告表示20を、予告手順データ590を参照して実行する例を示したが、被写体オブジェクト4の制御手順データ560(図17参照)や演出手順データ580(図19参照)を参照して実行する構成も可能である。
制御手順データ560を参照する例を具体的に述べると、次に到来する自動制御開始タイミング562から所定時間前を、予告タイミングと見なす。そして、実行開始モーションID564が示すモーションに対応する動作種類予告アイコン21bを選択する。
次いで、選択した動作種類予告アイコンのメタデータ512を参照して(図12参照)、メタデータ512に設定されている関連カテゴリの予告アイコンを選択する。その際、制御手順データ560のモーション制御設定値566(図17参照)に移動方向や移動距離、正面方向に関する情報が設定されている場合、仮想カメラC1の最新の状態(仮想カメラ制御データ711;図21参照)との相対関係に基づいて、関連カテゴリの予告アイコンを選択する。
例えば、モーション制御設定値566に移動方向の情報が設定されている場合は、関連カテゴリの予告アイコンのうち、当該移動方向と仮想カメラC1の撮影方向との相対方向関係が適用要件515を満たす予告アイコンを選択する。
移動距離が設定されている場合は、関連カテゴリの予告アイコンのうち、当該移動距離と仮想カメラC1の撮影画角から幾何的に求められる撮影フレームの長さ(例えば、画面縦長、画面横長、画面対角長など)を基準とした長さ比が適用要件515を満たす予告アイコンを選択する。
モーション制御設定値566に正面方向の情報が設定されている場合は、関連カテゴリの予告アイコンのうち、当該正面方向と仮想カメラC1の撮影方向との相対方向関係が適用要件515を満たす予告アイコンを選択する。
また、制御手順データ560に、適用される表情の種類についての情報を対応づけて格納しておけば、それに基づいて表情予告アイコン21gを選択することができる。
予告手順データ590を参照せずに、演出手順データ580を参照する場合は、演出開始タイミング582の所定時間前を予告タイミングと見なし、演出内容584に含まれる演出名(演出ID)が、メタデータ512に含まれる演出予告アイコン21j(図7参照)を選択すればよい。
[変形例その6]
上記実施形態ではユーザ端末1500で自機の位置や姿勢を計測することで、位置や姿勢の情報を取得する例を示した。これに対して、外部装置によって仮想カメラC1が連動される位置や姿勢の情報を取得できる場合であって、仮想撮影する画像を仮想空間画像(VR画像)で十分とする場合であれば、ユーザ端末1500として、ビデオモニタやVRヘッドマウントディスプレイでゲーム画面を見る据置型のゲーム装置、いわゆる家庭用ゲーム装置を用いることもできる。
具体的には、ユーザは、仮想撮影にて用いる手持ちカメラの代用としてゲームコントローラを手に持つ。ゲームコントローラの現実空間における位置は、別途、据置型のゲーム装置に繋がれたカメラで撮影された画像や、測距センサで計測された情報で求め、ゲームコントローラの現実空間における姿勢は、当該ゲームコントローラに搭載された3軸ジャイロや3軸加速度センサによる計測データに基づいて求めればよい。
[変形例その7]
また、上記実施形態の予告表示20は、シンボルマークとしての予告アイコンを表示することで実現したが、その他の方法で予告を実現してもよい。
例えば、予告表示20としてテキスト情報(例えば、動作の名称のテキスト、移動距離の数字と単位テキスト、など)を用いて実現するとしてもよい。
また、所定時間未来における被写体オブジェクト4の半透明像または輪郭線像を表示することで実現するとしてもよい。
[変形例その8]
また、上記実施形態では、見切れ予測の判定方法を、現時点の撮影画像を用いて見切れるか否かを判定したが、次のような判定方法を採用することもできる。
すなわち、現時点の仮想カメラの位置・姿勢はそのままにした上で、被写体オブジェクト4の動作や位置のみを所定時間だけ未来のものにした画像を仮描画する。この仮描画した画像に、予告表示20のうち注目部位予告アイコン21hで予告される部位と、別途ユーザ2が特定部位として指定した部位と、の何れかが含まれていれば見切れの発生予測を否定判定し、含まれていなければ見切れ発生予測を肯定判定してもよい。つまり、現時点の撮影フレームには収まっていても、今後の被写体オブジェクトの動作によっては見切れが発生する場合は、見切れ発生と見なすとしてもよい。
このように、所定の仮定条件の下の未来の画像に基づいて見切れ予測を判定する場合、被写体オブジェクト4の未来での動作(例えば、大きくジャンプする、など)の結果として、見切れが発生する可能性が高い場合に、これをユーザに通知できる。当該通知を元に、ユーザは、撮影範囲を広めるように操作したり、撮影方向を予め調整して、起きるであろう見切れを防ぐことができる。
また、見切れの予測判定において、「撮影フレーム内に写っているかいないかを判定」することにより詳細な条件を追加することができる。
例えば、予告表示20のうち注目部位予告アイコン21hで予告される部位と、別途ユーザ2が特定部位として指定した部位と、について仮想カメラ側を向いている基準面積と、撮影フレーム内に含まれるフレーム内面積と、をそれぞれ算出し、基準面積に対してフレーム内面積が所定割合(例えば、8割)に達していなければ、見切り発生予測を肯定判定する、としてもよい。
また例えば、上記実施形態では、「撮影フレーム内に写っているかいないかを判定」する際の「撮影フレーム内」を撮影フレームの全体としているが、撮影フレームの所定範囲(例えば、中央部(縦横3/4や2/3の範囲))に判定領域を設定し、当該判定領域に写っているかいないかを判定する、としてもよい。
4…被写体オブジェクト
5…ステージ
6…ARマーカ
20…予告表示
21a…移動方向移動経路予告アイコン
21b…動作種類予告アイコン
21c…移動距離予告アイコン
21d…正面方向予告アイコン
21e…ポーズ種類予告アイコン
21f…アイキャッチ予告アイコン
21g…表情予告アイコン
21h…注目部位予告アイコン
21j…演出予告アイコン
21k…注目オブジェクト予告アイコン
30…見切れ予測通知
90…仮想空間画像
94…拡張現実画像
200…端末処理部
210…仮想撮影管理部
212…位置姿勢取得制御部
214…仮想空間設定部
216…演出制御部
218…被写体オブジェクト制御部
220…仮想カメラ制御部
222…仮想空間画像生成制御部
224…拡張現実画像生成制御部
230…予告対象制御設定部
232…特定部位設定部
234…予告制御部
240…予測部
242…予測通知制御部
244…録画制御部
246…楽曲再生制御部
500…端末記憶部
502…端末プログラム
510…予告アイコン定義データ
513…アイコンデータ
515…適用要件
520…仮想撮影パッケージデータ
522…仮想3次元空間初期設定データ
530…被写体オブジェクト定義データ
534…モーション定義データ
540…楽曲データ
560…制御手順データ
562…自動制御開始タイミング
564…実行開始モーションID
566…モーション制御設定値
580…演出手順データ
590…予告手順データ
592…予告タイミング
594…表示予告アイコン設定
700…仮想撮影管理データ
710…仮想3次元空間制御データ
713…被写体オブジェクト制御データ
720…特定対象設定データ
721…特定被写体オブジェクトID
723…特定部位種類
725…特定動作種類
730…予告表示制御データ
732…見切れ予測通知制御データ
740…録画データ
1000…仮想撮影体験提供システム
1500…ユーザ端末

Claims (14)

  1. カメラおよび表示部を備えた携帯型のコンピュータを、
    前記カメラの現実空間における位置および姿勢の情報の取得に係る制御を行う位置姿勢取得制御手段、
    被写体オブジェクトが配置された仮想3次元空間を設定する仮想空間設定手段、
    前記被写体オブジェクトを自動制御する被写体オブジェクト制御手段、
    前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を、前記位置姿勢取得制御手段により取得したデータに連動させて制御する仮想カメラ制御手段、
    前記表示部に表示させる前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段、
    前記被写体オブジェクト制御手段による自動制御を予告する予告制御手段、
    として機能させるためのプログラム。
  2. 前記被写体オブジェクト制御手段は、前記被写体オブジェクトの制御手順が定められた所与の制御手順データ又は所与の制御手順プログラム(以下代表して「制御手順データ」という)に基づいて、前記被写体オブジェクトを自動制御し、
    前記予告制御手段は、前記制御手順データに基づいて、前記被写体オブジェクト制御手段による自動制御の予告を行う、
    請求項1に記載のプログラム。
  3. 所与の楽曲を再生制御する楽曲再生制御手段、
    として前記コンピュータを機能させ、
    前記制御手順データは、前記楽曲の再生と同期した制御手順が定められており、
    前記被写体オブジェクト制御手段は、前記楽曲再生制御手段による前記楽曲の再生と同期して前記被写体オブジェクトを制御する、
    請求項2に記載のプログラム。
  4. 前記被写体オブジェクト制御手段は、前記被写体オブジェクトを移動させる制御を行い、
    前記予告制御手段は、前記被写体オブジェクトの移動方向、移動距離および移動経路のうち少なくとも1つを予告する、
    請求項1~3の何れか一項に記載のプログラム。
  5. 前記被写体オブジェクトは、キャラクタのオブジェクトであり、
    前記被写体オブジェクト制御手段は、前記被写体オブジェクトの身体を動作させる制御を行い、
    前記予告制御手段は、前記被写体オブジェクトの身体動作について予告する、
    請求項1~4の何れか一項に記載のプログラム。
  6. 前記予告制御手段は、前記被写体オブジェクトの身体動作の予告に係る部位を識別表示する制御を行う、
    請求項5に記載のプログラム。
  7. 前記仮想空間設定手段は、複数の前記被写体オブジェクトを前記仮想3次元空間に配置し、
    前記被写体オブジェクト制御手段は、前記複数の被写体オブジェクトそれぞれを自動制御し、
    前記予告制御手段は、前記被写体オブジェクトについて個別の予告制御を行う、
    請求項1~6の何れか一項に記載のプログラム。
  8. 前記予告制御手段は、前記複数の被写体オブジェクトのうちの少なくとも一体を選択し、当該選択された被写体オブジェクトについて予告する、
    請求項7に記載のプログラム。
  9. 前記予告制御手段は、前記複数の被写体オブジェクトのうち、動きが所定条件を満たす被写体オブジェクトを選択する、
    請求項8に記載のプログラム。
  10. 前記仮想空間設定手段は、前記複数の被写体オブジェクトによるコンサートを行う空間として前記仮想3次元空間を設定し、
    前記被写体オブジェクト制御手段は、前記被写体オブジェクト毎の歌唱動作を自動制御し、
    前記予告制御手段は、前記複数の被写体オブジェクトのうち、次に歌唱動作を行う前記被写体オブジェクトを選択する、
    請求項8に記載のプログラム。
  11. 前記被写体オブジェクト制御手段は、前記複数の被写体オブジェクトに連係動作を行わせる制御を行い、
    前記予告制御手段は、前記連係動作について予告する、
    請求項7~10の何れか一項に記載のプログラム。
  12. 前記被写体オブジェクト制御手段によって前記被写体オブジェクトが自動制御される制御内容のうち、前記予告の対象とする制御内容をユーザの操作入力に基づいて設定する予告対象制御設定手段、
    として前記コンピュータを機能させ、
    前記予告制御手段は、前記予告対象制御設定手段により設定された制御内容について予告を行う、
    請求項1~11の何れか一項に記載のプログラム。
  13. 前記予告制御手段による予告が行われる際に、現在の前記仮想カメラの位置および姿勢が継続すると仮定して、将来、当該予告内容に関する前記被写体オブジェクト制御手段の自動制御が行われたときの当該仮想カメラで撮影された画像に前記被写体オブジェクトの特定部位が含まれているか否かを予測する予測手段、
    前記予測手段により否定予測された場合にユーザへ通知する制御を行う予測通知制御手段、
    として前記コンピュータを機能させるための請求項1~12の何れか一項に記載のプログラム。
  14. カメラおよび表示部を備えた携帯型の電子機器であって、
    前記カメラの現実空間における位置および姿勢の情報の取得に係る制御を行う位置姿勢取得制御手段と、
    被写体オブジェクトが配置された仮想3次元空間を設定する仮想空間設定手段と、
    前記被写体オブジェクトを自動制御する被写体オブジェクト制御手段と、
    前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を、前記位置姿勢取得制御手段により取得したデータに連動させて制御する仮想カメラ制御手段と、
    前記表示部に表示させる前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段と、
    前記被写体オブジェクト制御手段による自動制御を予告する予告制御手段と、
    を備えた電子機器。
JP2019021627A 2019-02-08 2019-02-08 プログラムおよび電子機器 Active JP7184661B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019021627A JP7184661B2 (ja) 2019-02-08 2019-02-08 プログラムおよび電子機器
JP2022187045A JP2023027113A (ja) 2019-02-08 2022-11-24 プログラム、電子機器および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021627A JP7184661B2 (ja) 2019-02-08 2019-02-08 プログラムおよび電子機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022187045A Division JP2023027113A (ja) 2019-02-08 2022-11-24 プログラム、電子機器および制御方法

Publications (2)

Publication Number Publication Date
JP2020129272A JP2020129272A (ja) 2020-08-27
JP7184661B2 true JP7184661B2 (ja) 2022-12-06

Family

ID=72174658

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019021627A Active JP7184661B2 (ja) 2019-02-08 2019-02-08 プログラムおよび電子機器
JP2022187045A Pending JP2023027113A (ja) 2019-02-08 2022-11-24 プログラム、電子機器および制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022187045A Pending JP2023027113A (ja) 2019-02-08 2022-11-24 プログラム、電子機器および制御方法

Country Status (1)

Country Link
JP (2) JP7184661B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7371901B2 (ja) * 2019-11-08 2023-10-31 株式会社コナミデジタルエンタテインメント ゲームプログラム、情報処理装置、および方法
WO2024106035A1 (ja) * 2022-11-16 2024-05-23 富士フイルム株式会社 撮像装置、撮像システム、及び撮像方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007088611A (ja) 2005-09-20 2007-04-05 Sony Corp 撮像装置及び撮像方法
WO2007077851A1 (ja) 2005-12-30 2007-07-12 Ssd Company Limited 演出方法及び操作物
JP2012208723A (ja) 2011-03-29 2012-10-25 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2012216074A (ja) 2011-03-31 2012-11-08 Konami Digital Entertainment Co Ltd 画像処理装置、画像処理装置の制御方法、及びプログラム
WO2014103156A1 (ja) 2012-12-27 2014-07-03 パナソニック株式会社 情報通信方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007088611A (ja) 2005-09-20 2007-04-05 Sony Corp 撮像装置及び撮像方法
WO2007077851A1 (ja) 2005-12-30 2007-07-12 Ssd Company Limited 演出方法及び操作物
JP2012208723A (ja) 2011-03-29 2012-10-25 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2012216074A (ja) 2011-03-31 2012-11-08 Konami Digital Entertainment Co Ltd 画像処理装置、画像処理装置の制御方法、及びプログラム
WO2014103156A1 (ja) 2012-12-27 2014-07-03 パナソニック株式会社 情報通信方法

Also Published As

Publication number Publication date
JP2023027113A (ja) 2023-03-01
JP2020129272A (ja) 2020-08-27

Similar Documents

Publication Publication Date Title
JP2023027113A (ja) プログラム、電子機器および制御方法
CN110121379A (zh) 创建、广播和观看3d内容
JP6173666B2 (ja) プログラムおよびゲーム装置
WO2019130864A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7466730B2 (ja) プログラム、電子機器およびデータ記録方法
JP6298563B1 (ja) ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
JP6470859B1 (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
WO2019124069A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2019128721A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
JP2024072820A (ja) 情報処理装置、動画配信方法及び動画配信プログラム
JP2017093803A (ja) 評価プログラム、評価方法及び評価装置
KR20200028830A (ko) 실시간 cg 영상 방송 서비스 시스템
CN113853571A (zh) 信息处理设备以及信息处理终端
US20230218984A1 (en) Methods and systems for interactive gaming platform scene generation utilizing captured visual data and artificial intelligence-generated environment
US11846783B2 (en) Information processing apparatus, information processing method, and program
JP2006318385A (ja) 画像生成システム、プログラムおよび情報記憶媒体
JP2020119335A (ja) プログラム、カメラワークデータ生成方法および電子機器
JP2011053276A (ja) 背景映像可変表示機能を備えるカラオケシステム
JP2019160295A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2020162831A (ja) プログラム、電子機器およびサーバシステム
EP4295930A1 (en) Image processing system, image processing method, and computer program
JP7016438B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6392512B2 (ja) プログラムおよびゲーム装置
JP7317322B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R150 Certificate of patent or registration of utility model

Ref document number: 7184661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150