JP6398938B2 - 投影制御装置、及びプログラム - Google Patents

投影制御装置、及びプログラム Download PDF

Info

Publication number
JP6398938B2
JP6398938B2 JP2015195112A JP2015195112A JP6398938B2 JP 6398938 B2 JP6398938 B2 JP 6398938B2 JP 2015195112 A JP2015195112 A JP 2015195112A JP 2015195112 A JP2015195112 A JP 2015195112A JP 6398938 B2 JP6398938 B2 JP 6398938B2
Authority
JP
Japan
Prior art keywords
display object
person
projection
posture
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015195112A
Other languages
English (en)
Other versions
JP2017068697A (ja
Inventor
建太郎 牛山
建太郎 牛山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015195112A priority Critical patent/JP6398938B2/ja
Publication of JP2017068697A publication Critical patent/JP2017068697A/ja
Application granted granted Critical
Publication of JP6398938B2 publication Critical patent/JP6398938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、投影面に映像を投影する投影システムの技術分野に関する。
従来、人物の頭上に方向センサーとプロジェクターとを備えたヘルメットが装着され、方向センサーによりその人物の頭の向きを検出して、プロジェクターによりその方向にある周囲の映像を投射する技術が知られている(例えば、特許文献1)。
特開平6−167687号公報
ところで、プロジェクターにより投影面に投影される映像に対し、別の画像として、人物の視線方向の位置に文字を投影したい場合、特許文献1に開示されたように、視聴者である人物がプロジェクターを装着すると、位置や姿勢などの人物の状態に関係なく、人物の頭部の動きに合わせて文字が投影されてしまい、人物が視る文字の視認性が悪い。
本発明は、以上の点に鑑みてなされたものであり、視聴者がプロジェクターを装着することなく、投影される映像に対し、人物の位置及び姿勢に応じた視線方向の位置に文字等の表示オブジェクトを表示させることが可能な投影制御装置、及びプログラムを提供する。
上記課題を解決するために、請求項1に記載の発明は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定する特定手段と、前記特定手段により特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを決定する決定手段と、前記決定手段により決定された位置及びサイズで、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成手段と、前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御手段と、を備え、前記第1の表示オブジェクトが合成された映像が投影された後、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、前記決定手段は、前記特定手段により新たに特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、前記投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第2の表示オブジェクトの位置及びサイズを新たに決定し、前記合成手段は、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定手段により新たに決定された位置及びサイズで、前記第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、前記投影制御手段は、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする。
請求項2に記載の発明は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を所定時間間隔で特定する特定手段と、前記特定手段により人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを所定時間間隔で複数回決定する決定手段と、前記決定手段により決定された複数回分の位置及びサイズに対応する値の平均値にしたがって、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成手段と、前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御手段と、を備え、前記第1の表示オブジェクトが合成された映像が投影された後、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、前記合成手段は、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定手段により決定された最新の位置及びサイズで、前記第1の表示オブジェクトとは異なる第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、前記投影制御手段は、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする。
請求項に記載の発明は、請求項またはに記載の投影制御装置において、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像が投影されてから所定時間後に、前記第1の表示オブジェクトを前記映像から削除する削除手段を更に備え、前記投影制御手段は、前記第1の表示オブジェクトが削除され、且つ、前記第2の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする。
請求項に記載の発明は、請求項1または2に記載の投影制御装置において、前記第1の表示オブジェクトには、前記映像に合成されてから削除されるまでの投影継続時間が対応付けられ、前記第1の表示オブジェクトが合成された映像が投影されてから前記投影継続時間後に、前記第1の表示オブジェクトを前記映像から削除する削除手段と、前記第1の表示オブジェクトが合成された映像が投影された後、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量または前記3次元空間にいる前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が、所定時間以上継続して閾値未満である場合、前記第1の表示オブジェクトに対応付けられている前記投影継続時間を延長する延長手段と、を備えることを特徴とする。
請求項に記載の発明は、請求項1乃至の何れか一項に記載の投影制御装置において、前記第1の表示オブジェクトには、前記投影面への投影タイミングが対応付けられており、前記合成手段は、前記投影タイミングが到来したときに、前記第1の表示オブジェクトを前記映像上に合成し、前記投影制御手段は、前記投影タイミングで前記第1の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする。
請求項に記載の発明は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定する特定ステップと、前記特定ステップにおいて特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを決定する決定ステップと、前記決定ステップにおいて決定された位置及びサイズで、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成ステップと、前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御ステップと、をコンピュータに実行させるプログラムであって、前記第1の表示オブジェクトが合成された映像が投影された後、前記特定ステップにおいては、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、前記決定ステップにおいては、前記特定ステップにおいて新たに特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、前記投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第2の表示オブジェクトの位置及びサイズを新たに決定し、前記合成ステップにおいては、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定ステップにおいて新たに決定された位置及びサイズで、前記第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、前記投影制御ステップにおいては、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする。請求項7に記載の発明は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を所定時間間隔で特定する特定ステップと、前記特定ステップにおいて特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを所定時間間隔で複数回決定する決定ステップと、前記決定ステップにおいて決定された複数回分の位置及びサイズに対応する値の平均値にしたがって、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成ステップと、前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御ステップと、をコンピュータに実行させるプログラムであって、前記第1の表示オブジェクトが合成された映像が投影された後、前記特定ステップにおいては、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、前記合成ステップにおいては、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定ステップにおいて決定された最新の位置及びサイズで、前記第1の表示オブジェクトとは異なる第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、前記投影制御ステップにおいては、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする。
請求項1、に記載の発明によれば、投影される映像において人物の視線方向の位置に表示オブジェクトを、視認性を保って的確に投影させることができ、人物の視野範囲が短時間で大きく変化した場合であっても、変化した後の視野範囲に迅速に対応でき、変化した後の視野範囲における表示オブジェクトの視認性を向上させることができる。
請求項2、7に記載の発明によれば、投影される映像において人物の視線方向の位置に表示オブジェクトを、視認性を保って的確に投影させることができ、表示オブジェクトの移動平均を用いた場合において、人物の視野範囲が短時間で大きく変化した場合であっても、変化した後の視野範囲に迅速に対応でき、変化した後の視野範囲における表示オブジェクトの視認性を向上させることができる。
請求項に記載の発明によれば、人物の視野範囲が短時間で大きく変化した後、さらに変化した場合であっても、人物により視認される必要性が低い視野範囲における表示オブジェクトを迅速に削除することができる。
請求項に記載の発明によれば、人物の視線が留まる時間が長い視野範囲ほど表示オブジェクトの視認性を、より向上することができる。
請求項に記載の発明によれば、表示オブジェクトに対応付けられた投影タイミングで効果的に、この表示オブジェクトが合成された映像を投影面に投影させることができる。
(A)は、本実施形態の投影システムSの概要構成例を示す図である。(B)は、投影システムSが利用される部屋の上方から見た部屋内に配置された装置の位置関係の一例を表す図である。 人物の視野、視野角、及び視野範囲を示す概念図である。 仮想的な3次元空間の投影面において人物の視野範囲の例を示す概念図である。 (A)は、仮想的な3次元空間の投影面に投影された映像に1つの歌詞オブジェクトが合成された例を示す概念図である。(B)は、仮想的な3次元空間の投影面に投影された映像と歌詞オブジェクトを、プロジェクター5a〜5cそれぞれの位置を基準とする2次元平面座標系に投影変換した例を示す概念図である。 実施例1において、制御部53により実行される投影制御処理の一例を示すフローチャートである。 実施例2において、制御部53により実行される投影制御処理の一例を示すフローチャートである。 (A)は、仮想的な3次元空間の投影面に投影された映像に2つの歌詞オブジェクトが合成された例を示す概念図である。(B)は、仮想的な3次元空間の投影面に投影された映像に合成された2つの歌詞オブジェクトのうち、1つの歌詞オブジェクトが削除されたときの例を示す概念図である。
以下、本発明の実施形態を図面に基づいて説明する。
[1.投影システムの構成及び動作概要]
はじめに、図1等を参照して、本実施形態の投影システムSの構成及び動作概要について説明する。投影システムSは、図1(A)に示すように、表示・操作デバイス1、楽曲再生装置2、カメラ3、映像再生装置4a〜4c、プロジェクター5a〜5c、及び再生制御装置6等を備えて構成される。ここで、プロジェクター5a〜5cは、投影装置の一例である。再生制御装置6は、投影制御装置の一例である。投影システムSは、例えばカラオケ店舗等のアミューズメント施設における部屋で利用される。表示・操作デバイス1、楽曲再生装置2、及びカメラ3は、それぞれ、有線または無線を介して再生制御装置6と接続される。映像再生装置4a〜4cは、それぞれ、有線LAN(Local AreaNetwork)または無線LAN、及びハブ等を介して再生制御装置6と接続される。プロジェクター5a〜5cは、それぞれ、有線または無線を介して映像再生装置4a〜4cと接続される。また、楽曲再生装置1と再生制御装置6の少なくとも何れか一方には、有線または無線を介してマイクM、及びスピーカSPが接続される。
表示・操作デバイス1は、ユーザから操作指示を受け付け、その操作指示を示す指示信号を再生制御装置6へ出力する機器である。表示・操作デバイス1には、例えば、表示画面を備えるタッチパネルディスプレイが用いられる。表示・操作デバイス1は、例えば、楽曲再生装置2のリモコンであってもよい。表示・操作デバイス1は、楽曲再生装置2で再生する楽曲の選択候補となる楽曲のタイトル等や、プロジェクター5a〜5cで投影する映像の選択候補となる映像のタイトル等を表示画面に表示する。映像には、静止画像と動画像とがある。動画像は、例えば複数の静止画像の画像フレームが時系列で切り替えられることで表示される。映像の例として、風景映像、アーティストのプロモーション映像、企業または商品の広告映像などが挙げられる。表示・操作デバイス1は、ユーザからの操作指示に応じて選択された楽曲の楽曲ID(識別情報)及び再生指示を再生制御装置6へ送信する。再生制御装置6へ送信された楽曲ID及び再生指示は、例えば、再生制御装置6から楽曲再生装置2へ送信される。こうして、再生指示された楽曲が楽曲再生装置2により再生される。なお、表示・操作デバイス1は、例えば、選択された楽曲の楽曲IDを楽曲再生装置2へ送信してもよい。
また、表示・操作デバイス1は、ユーザからの操作指示に応じて選択された映像の映像ID(識別情報)及び投影指示を再生制御装置6へ送信する。再生制御装置6へ送信された映像IDが示す映像データ及び投影指示は、再生制御装置6から映像再生装置4a〜4cへ送信される。こうして、投影指示された映像が映像再生装置4a〜4cにより再生され、プロジェクター5a〜5cにより投影面に投影される。なお、再生制御装置6へ送信された楽曲IDが示す楽曲に対応する映像データ及び投影指示が、再生制御装置6から映像再生装置4a〜4cへ送信されてもよい。また、楽曲再生装置2により楽曲が再生中である場合、その楽曲の歌詞オブジェクト(表示オブジェクトの一例)が再生制御装置6により映像に合成される。これにより、歌詞オブジェクトが合成された映像が映像再生装置4a〜4cにより再生され、プロジェクター5a〜5cにより投影面に投影される。歌詞オブジェクトは、例えば楽曲の歌詞を表示する歌詞テロップの画像である。
楽曲再生装置2は、カラオケ等の楽曲を再生する装置である。楽曲再生装置2は、複数の楽曲ファイルを記憶部に記憶する。楽曲ファイルは、楽曲の楽曲データを格納する。各楽曲ファイルには、例えば、楽曲の楽曲IDが対応付けられる。楽曲再生装置2は、表示・操作デバイス1または再生制御装置6から送信された楽曲ID及び再生指示を受信すると、再生指示された楽曲を再生し、そのオーディオ信号をスピーカSPへ出力する。ユーザは、楽曲再生装置2による楽曲の再生中に、投影面に投影された歌詞オブジェクトを見ながら、マイクMを持って歌唱することができる。この場合、楽曲再生装置2は、楽曲のオーディオ信号と、マイクMにより集音されたユーザの歌唱音声信号とをミキシングしてスピーカSPへ出力する。
カメラ3には、例えば、RGBカメラ及び深度カメラが用いられる。カメラ3は、RGBカメラにより、その画角に収まる撮像範囲を連続的に撮像することでRGB画像を連続的に取得する。深度カメラは、赤外線レーザなどによる深度センサーである。カメラ3は、深度カメラにより、その画角に収まる撮像範囲を連続的に撮像することでデプス画像を連続的に取得する。デプス画像は、カメラ3の撮像範囲内の3次元空間における投影面上の各位置の3次元位置座標(X,Y,Z)を示す。例えば、図1(B)の場合、カメラ3の撮像範囲内の3次元空間には人物(例えば、歌詞オブジェクトを見ながら歌唱するユーザ)が存在するので、デプス画像は、カメラ3の撮像範囲内の3次元空間にいる人物の表面上の各位置の3次元位置座標、及び人物の背景にある壁面a〜c上の各位置の3次元位置座標を示す。また、図1(B)の例の場合、カメラ3は、取得したデプス画像から人物を検出(認識)し、検出した人物の輪郭や骨格を形成する各部位の位置を示す部位情報を取得する。カメラ3は、上記取得したRGB画像、上記取得したデプス画像、及び上記検出した人物の部位情報を連続的に再生制御装置6へ送信する。なお、再生制御装置6が、デプス画像から人物を検出し、検出した人物の部位情報を取得してもよい。
人物の部位情報は、例えば、人物の輪郭や骨格を形成する部位毎に、3次元位置座標(X,Y,Z)が対応付けられた情報であり、デプス画像に示される各位置までの深度から特定することが可能である。具体的には、深度カメラにより取得された各位置までの深度を、人物の輪郭や骨格を形成する各部位の位置を判断するための人物位置パターンデータと比較することにより、人物の輪郭や骨格を形成する各部位が特定される。人物位置パターンデータは、例えば、予め所定のデータベース等に記憶された多数の種類の人物位置パターンから、デプス画像に示される各位置の深度に応じた所定のパターンデータを読み出して用いられる。人物の輪郭や骨格を形成する各部位の例として、頭部、左肩部、右肩部、左肘部、右肘部、左手部、右手部、首部、胴部、腰部、左尻部、右尻部、左膝部、右膝部、左足部、及び右足部等が挙げられる。このような部位情報には、部位の回転角Θが含まれる。部位の回転角Θとは、その部位に連結される他の部位を基準とする回転角Θである。もしくは、部位の回転角Θとは、その部位と間接的に連結される特定の部位の位置を基準とした回転角Θであってもよい。例えば、頭部の回転角Θは、頭部に連結される首部を基準とする回転角Θである。首部の回転角Θは、首部に連結される胴部を基準とする回転角Θである。回転角Θを含む部位情報は(X,Y,Z,Θ)というように表される。なお、人物の頭部の部位情報は、人物の頭を球体としたときの中心座標を示してもよいし、人物の頭の表面上にある複数の部位それぞれの位置座標を示してもよい。
映像再生装置4a〜4cは、投影対象の映像を再生する装置である。映像再生装置4a〜4cは、それぞれ、再生制御装置6から送信された映像データ及び投影指示を受信すると、投影指示された映像を再生し、その画像信号をプロジェクター5a〜5cへ出力する。プロジェクター5a〜5cは、映像再生装置4a〜4cにより再生出力された画像信号に応じた投影光を発光部から発することにより映像を出力する。これにより、プロジェクター5a〜5cは、その投影角に収まる投影範囲の投影面に映像を投影する。図1(B)の例では、プロジェクター5aは、壁面bの一部及び壁面cの一部に映像を投影するように配置されている。プロジェクター5bは、壁面aの一部、壁面b、及び壁面cの一部に映像を投影するように配置されている。プロジェクター5cは、壁面aの一部、及び壁面bの一部に映像を投影するように配置されている。このため、図1(B)の例では、人物及び壁面a〜cが投影面である。
また、図1(B)の例では、プロジェクター5a〜5c間で、映像が投影される投影面の一部が重複している。そのため、プロジェクター5a〜5cそれぞれから投影される映像の一部は重複している。しかし、映像が投影される投影面が、プロジェクター5a〜5c間で重複しないように、投影方向または投影角が設定されてもよい。また、プロジェクター5a〜5cは、それぞれ特定の1つの壁面に映像を投影するものであってもよい。また、投影面は、部屋の天井面及び床面にあってもよい。なお、図1(B)の例では、3つの映像再生装置4a〜4c、及び3つのプロジェクター5a〜5cを示しているが、映像再生装置とプロジェクターは、それぞれ、いくつであってもよい。また、図1(B)の例では、映像再生装置とプロジェクターとは1対1で対応しているが、1対N(Nは2以上の自然数)で対応してもよい。例えば、1つの映像再生装置に複数のプロジェクターが接続されてもよい。映像再生装置が1つである場合、映像再生装置が映像再生手段(ハードウェアまたはソフトウェアにより構成される)として再生制御装置6内に組み込まれていてもよい。また、カメラ3は、それぞれのプロジェクターと対応させて1対1で設けられてもよい。
再生制御装置6は、楽曲の再生制御、及び映像の投影制御等を行う装置である。再生制御装置6は、図1(A)に示すように、IF61a〜61d、記憶部62、及び制御部63を備える。IF61a〜61d、記憶部62、及び制御部63は、バス64に接続されている。IF61aは、楽曲再生装置2と再生制御装置6との間のインターフェースである。IF61bは、表示・操作デバイス1と再生制御装置6との間のインターフェースである。IF61cは、カメラ3と再生制御装置6との間のインターフェースである。IF61dは、LANとのインターフェースである。記憶部62は、例えばハードディスクドライブにより構成される。記憶部62には、OS(Operating System)、及び本発明のプログラム等が記憶される。本発明のプログラムは、後述する投影制御処理をCPUに実行させるプログラムである。投影制御処理は、プロジェクションマッピング処理ともいう。記憶部62には、プロジェクター5a〜5cにより投影される映像の元データとなるオリジナル映像データを格納する映像ファイルを記憶する。
また、記憶部62は、歌詞オブジェクトデータを楽曲IDに対応付けて楽曲毎に記憶する。歌詞オブジェクトデータには、例えば、楽曲の歌詞を示す歌詞データ(テキストデータ)、及び歌詞オブジェクトの表示タイミング(投影タイミングの一例)を示す表示タイミングデータなどが含まれる。1つの楽曲の歌詞は複数のフレーズから構成されるため、歌詞オブジェクトデータはフレーズ毎に記憶される。1つのフレーズは、複数の文字列から構成される。なお、歌詞データは、楽曲の歌詞を表示する歌詞オブジェクトの画像データであってもよい。表示タイミングデータが示す表示タイミングは、例えば、楽曲の再生開始時点からの経過時間で表される。また、歌詞オブジェクトデータには、歌詞の歌唱位置を歌詞の文の表示色の変化により示す色変えタイミングを含んでもよい。
制御部63は、コンピュータとしてのCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。制御部63は、本発明の特定手段、決定手段、合成手段、削除手段、延長手段、及び投影制御手段の一例である。制御部63は、本発明のプログラムに従って投影制御処理を実行する。具体的には。制御部63は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角を特定する。ここで、所定の3次元空間は、制御部63により認識される仮想的な3次元空間であり、カメラ3から取得されたデプス画像が示す3次元位置座標から特定される。換言すると、この3次元空間は、人物が投影された映像を観察可能な範囲の3次元空間である。人物の頭の位置は、カメラ3から取得された「人物の頭の部位情報」が示す3次元位置座標により特定される。人物の有効視野角は、例えば予め記憶部62に記憶された一般的な有効視野角から特定される。
人物の頭の姿勢は、例えば、人物の視線方向と、人物の視線方向に延びる軸を中心軸としたときに中心軸周りに頭が回転したときの回転角ψとにより特定される。この回転角ψは、人物が首を傾げたときを考慮したものである。これは、人物の視線方向が同じでも、回転角ψが異なると、後述する視野角が変化し視野範囲が変わるからである。ただし、人物の視線方向が同じで回転角ψが変化する場合の視野範囲の変化は少ないので、回転角ψを考慮しなくてもよい。この場合、人物の頭の姿勢は、例えば、人物の視線方向のみにより特定される。人物の視線方向は、人物の目の位置から垂直(例えば、顔の表面から垂直)に延びる法線ベクトルとすることができる。この法線ベクトルは、例えば、頭部の回転角Θから算出される。ここで、頭部の回転角Θは、頭部に連結される首部の回転角Θを基準として算出される。首部の回転角Θは、胴部iの回転角Θを基準とする回転角である。つまり、頭部の回転角Θは、他の部位の回転角Θに基づいて所定の演算により算出される。このため、より多くの部位(例えば、左足部及び右足部から頭部まで)の部位情報が得られれば、それだけ精度の高い回転角Θを得ることができ、その結果、上記法線ベクトルの精度も向上する。また、人物の目の位置は、人物の頭部から推定することができる。或いは、人物の頭部の部位情報が、人物の頭の表面上にある複数の部位それぞれの3次元位置座標を示し、例えば鼻等の顔の特定の部位の位置が特定可能であるとき、人物の目の位置は、鼻等の顔の特定の部位から推定することができる。また、この場合、上述した回転角ψも推定することができる。或いは、人物の目の位置は、カメラ3から取得されたRGB画像から人物の顔を検出することで推定することもできる。人物の顔の検出には、例えば、Viola-Jonesの検出アルゴリズム、または顔のパーツ(目,鼻,口)検出や肌色検出等のアルゴリズムが用いられる。或いは、人物の目の位置は、マイクM等の人物の所持物の位置から推定してもよい。なお、頭部、左肩部、及び右肩部の部位情報を用いて、頭部の位置と左肩部の位置との間のベクトルと、頭部の位置と右肩部の位置との間のベクトルとの外積を求めることで法線ベクトルを算出してもよい。
次に、制御部63は、上記特定した人物の頭の位置、人物の姿勢、及び有効視野角から人物の視野範囲を特定する。ここで、人物の視野は、水平視野と鉛直視野から定まる。水平視野と鉛直視野には、それぞれ、図2(A),(B)に示すように、人物の視線方向を基準として、安定注視野角により決まる安定注視野と、有効視野角により決まる有効視野と、弁別視野角により決まる弁別視野とがある。なお、有効視野角は、一般に、水平視野で例えば30度、鉛直視野で例えば20度が望ましいとされている。人物の視野は、人物の頭の姿勢によって変わる。例えば、図2(C)に示すように人物が上方を見上げたとき、図2(D)に示すように人物が下方を見下げたとき、人物が水平方向に左または右を向いたとき、さらには、人物が首を傾げたときに変わる。そして、投影面に投影される視野範囲は、図2(F)に示すように、人物の水平視野及び鉛直視野に収まる範囲となる。本実施形態では、制御部63は、人物の頭の部位情報に基づき仮想的な3次元空間に配置された人物の頭の位置から投影面までの距離と、この人物の姿勢及び有効視野角とから、仮想的な3次元空間における投影面上の人物の視野範囲を特定する。このような人物の視野範囲は、仮想的な3次元空間に配置された人物の頭の位置から投影面までの距離が長いほど広くなる。図3(A)の例では、人物の頭の位置P1は、人物の頭の位置P2よりも投影面までの距離が長い。そのため、位置P1に対応する投影範囲H1は、位置P2に対応する投影範囲H2より広くなっている。また、人物の視野範囲は、人物の視線方向の変化に応じて変化する。図3(B)の例では、人物の位置P1からの視線方向が人物の位置P3からの視線方向に変化している。このため、位置P1に対応する投影範囲H1は、位置P3に対応する投影範囲H3に移動している。
次に、制御部63は、上記特定した人物の視野範囲内で、プロジェクター5a〜5cから映像が投影される投影面の少なくとも一部の領域に配置される歌詞オブジェクトの位置、姿勢及びサイズ(スケール)を決定する。ここで、プロジェクター5a〜5cから映像が投影される投影面は、仮想的な3次元空間における投影面として制御部63により認識されている。歌詞オブジェクトの位置は、例えば、上述したように投影面上で特定された視野範囲の中心の3次元位置座標として決定される。歌詞オブジェクトの姿勢は、例えば歌詞オブジェクトの面(つまり、歌詞オブジェクトが配置される投影面)から垂直に延びる法線ベクトルとして決定される。なお、歌詞オブジェクトの姿勢は、必ずしも決定されなくてもよい。つまり、歌詞オブジェクトの位置及びサイズだけが決定されるように構成してもよい。歌詞オブジェクトのサイズは、歌詞オブジェクトの形状により異なる。歌詞オブジェクトの形状は特に限定されるものではないが、例えば矩形、円形、楕円形等に予め設定される。例えば、歌詞オブジェクトの形状が矩形である場合、歌詞オブジェクトが視野範囲内に収まるように、歌詞オブジェクトの幅及び高さがサイズとして決定される。また、例えば、歌詞オブジェクトの形状が円形である場合、歌詞オブジェクトが視野範囲内に収まるように、歌詞オブジェクトの半径がサイズとして決定される。なお、歌詞オブジェクトが視野範囲内に収まるようにとは、歌詞オブジェクトの全ての領域が視野範囲内に完全に収まらなくともよく、歌詞オブジェクトに表示される歌詞が視野範囲内に収まればよい。
次に、制御部63は、上記決定した位置、姿勢及びサイズにしたがって、歌詞オブジェクトをプロジェクター5a〜5cにより投影される映像上に合成する。ここで、プロジェクター5a〜5cにより投影される映像は、投影指示された映像である。例えば、制御部63は、図4(A)に示すように、映像Vを仮想的な3次元空間における投影面に仮想的に投影し、投影された映像V上に、上記決定した位置、姿勢及びサイズの歌詞オブジェクトOB1を配置(例えば重畳)することで映像V上に歌詞オブジェクトを合成する。この合成において、歌詞オブジェクトを映像Vに合わせて変形するように構成してもよい。
次に、制御部63は、歌詞オブジェクトOB1が合成された映像Vの映像データ及び投影指示を映像再生装置4a〜4cへ送信することで、このような映像Vをプロジェクター5a〜5cにより実際の投影面に投影させる。これにより、投影される映像において人物の視線方向の位置に歌詞オブジェクトを、視認性を保って的確に投影(表示)させることができる。なお、本実施形態では、映像Vは3つのプロジェクター5a〜5cにより投影される。このため、制御部63は、歌詞オブジェクトOB1が合成された映像Vから、プロジェクター5a〜5cそれぞれにより投影される3つの映像を生成する。また、歌詞オブジェクトOB1が合成された映像Vは、3次元座標系で表される3次元データである。このため、制御部63は、図4(B)に示すように、プロジェクター5a〜5cそれぞれに対応する3つの映像(3次元データ)を、プロジェクター5a〜5cそれぞれの位置(つまり、3次元空間における位置)を基準とする2次元平面座標系に投影変換してから、それぞれの映像の映像データを映像再生装置4a〜4cそれぞれへ送信することになる。例えば、制御部23は、例えば射影変換するための行列を用いて、3次元座標系における映像の座標を、プロジェクター5a〜5cの2次元平面座標系の座標に投影変換する。
ところで、人物の視野範囲は、人物の頭の位置または人物の姿勢の変化に応じて変化する。このため、制御部63は、所定時間間隔で特定した人物の頭の位置、人物の姿勢、及び有効視野角から、人物の視野範囲を所定時間間隔で特定するとよい。この場合、制御部63は、人物の視野範囲を特定する度に、新たに特定した人物の視野範囲内で上記歌詞オブジェクトの位置、姿勢及びサイズを新たに決定する。そして、制御部63は、既に合成されている歌詞オブジェクトOB1に代えて、新たに決定した位置、姿勢及びサイズで歌詞オブジェクトを映像V上に合成することになる。これにより、人物の視野範囲の変化に応じて、プロジェクター5a〜5cにより投影される歌詞オブジェクトの投影位置は変化する。つまり、歌詞オブジェクトは、投影面に投影された映像上で移動することになる。しかし、人物によっては、常に頭を動かしている場合があり、この場合、人物の視野範囲の変化に応じて、投影される歌詞オブジェクトの投影位置が変化、つまり、歌詞オブジェクトが移動すると、その人物は却って歌詞を見難くなる。このため、人物の少しの動きが歌詞オブジェクトに反映されないように、歌詞オブジェクトの移動平均を用いるとよい。この場合、後述するように、制御部63は、所定時間間隔で決定された複数回分の歌詞オブジェクトの位置、姿勢及びサイズに対応する値の平均値にしたがって歌詞オブジェクトを映像V上に配置することになる。これにより、歌詞オブジェクトの移動平均を用いることで歌詞の視認性を向上することができる。
[2.再生制御装置6の投影制御処理]
次に、本実施形態の再生制御装置6の投影制御処理について、実施例1と実施例2とに分けて説明する。なお、以下の説明では、投影制御処理の開始前または開始後に、再生制御装置6は、ユーザからの操作指示に応じて選択された楽曲の楽曲ID及び再生指示を表示・操作デバイス1から受信し、受信した楽曲ID及び再生指示を楽曲再生装置2へ送信することで、再生指示された楽曲が楽曲再生装置2により再生されるものとする。
(実施例1)
先ず、図5等を参照して、実施例1の投影制御処理について説明する。再生制御装置6の制御部63は、例えば部屋に入ったユーザからの選択指示に応じて選択された映像Vの映像ID及び投影指示を、表示・操作デバイス1から受信した場合、図5に示す投影制御処理を開始する。このように、ユーザにより選択された映像が投影対象となる。或いは、投影対象となる映像Vは、再生指示された楽曲に対応する映像であってもよい。
図5に示す投影制御処理が開始されると、歌詞オブジェクトの位置、姿勢及びサイズを保持するためのキューがRAMの所定領域に生成される。ここで、キューとは、先入れ先出し(First In First Out)方式で、N(Nは2以上の自然数)個のデータを保持するデータ構造(換言すると、テーブル)を意味する。本実施形態の場合、歌詞オブジェクトの位置、姿勢及びサイズの組が1つのデータとしてキューに保持される。
次いで、制御部63は、カメラ3の撮像範囲内の3次元空間におけるデプス画像をカメラ3から取得し、取得したデプス画像に基づく仮想的な3次元空間における投影面に、投影対象となる映像Vを投影する(ステップS1)。次いで、制御部63は、投影制御処理を終了するか否かを判定する(ステップS2)。例えば、制御部63は、表示・操作デバイス1から終了指示を受信した場合、投影制御処理を終了すると判定し(ステップS2:YES)、図5に示す投影制御処理を終了する。一方、制御部31は、投影制御処理を終了しないと判定した場合(ステップS2:NO)、ステップS3へ進む。
ステップS3では、制御部63は、カメラ3の撮像範囲内の3次元空間における人物の部位情報等を取得する。次いで、制御部63は、ステップS3で取得した人物の部位情報等から、上述したように、人物の頭の位置及び姿勢を取得する(ステップS4)。次いで、制御部63は、ステップS4で取得した人物の頭の位置及び姿勢を、上記仮想的な3次元空間上の値に変換することで仮想的な3次元空間における人物の頭(例えば、目)の位置及び姿勢を特定し、且つ上述した有効視野角を特定する(ステップS5)。そして、制御部63は、人物の頭の位置及び姿勢と、有効視野角とから、視野範囲を特定する。
次いで、制御部63は、現在時刻において表示させる歌詞があるか否かを判定する(ステップS6)。例えば、制御部63は、楽曲再生装置2により楽曲が再生中であるかを判定し、再生中である場合、再生中の楽曲の歌詞に対応する歌詞オブジェクトデータを記憶部62から取得する。制御部63は、取得した歌詞オブジェクトデータの表示タイミングデータを参照し、現在時刻が、表示タイミングデータが示す表示タイミングである場合、現在時刻において表示させる歌詞があると判定し(ステップS6:YES)、ステップS7へ進む。つまり、制御部63は、取得した歌詞オブジェクトデータの歌詞データが示す歌詞を表示する歌詞オブジェクトOB1に対応付けられる表示タイミングが到来したときに、以降の処理で、歌詞オブジェクトOB1を映像V上に合成し、歌詞オブジェクトOB1が合成された映像Vを投影面に投影させることになる。これにより、歌詞オブジェクトOB1に対応付けられた表示タイミングで効果的に、この歌詞オブジェクトOB1が合成された映像Vを投影面に投影させることができる。一方、制御部63は、現在時刻において表示させる歌詞がないと判定した場合(ステップS6:NO)、ステップS13へ進む。
ステップS7では、制御部63は、ステップS5で特定した人物の頭(例えば、目)の位置、人物の姿勢、及び有効視野角から特定される人物の視野範囲内で、仮想的な3次元空間における投影面に配置される歌詞オブジェクトの位置、姿勢及びサイズ(スケール)を決定する。つまり、人物の頭(例えば、目)の位置、人物の姿勢、及び有効視野角より、それに最も相応しい歌詞オブジェクトの位置、姿勢及びサイズが仮想的な3次元空間上で決定される。次いで、制御部63は、ステップS7で決定した位置、姿勢及びサイズの組を1つのデータとしてキューに追加する(ステップS8)。
次いで、制御部63は、キューに保持されたデータの数がNより大きいか否かを判定する(ステップS9)。制御部63は、キューに保持されたデータの数がNより大きいと判定した場合(ステップS9:YES)、キューから最も古いデータを削除し(ステップS10)、ステップS11へ進む。一方、制御部63は、キューに保持されたデータの数がNより大きくないと判定した場合(ステップS9:NO)、ステップS11へ進む。
ステップS11では、制御部63は、キューに保持されたデータの平均値を、現在の歌詞オブジェクトの位置、姿勢及びサイズとして決定する。キューに保持されたデータの平均値とは、キュー内の位置、姿勢及びサイズそれぞれに対応する値の平均値である。つまり、歌詞オブジェクトの移動平均が算出される。次いで、制御部63は、ステップS11で決定した位置、姿勢及びサイズで上記取得した歌詞オブジェクトデータの歌詞データが示す歌詞を表示する歌詞オブジェクトOB1(例えば画像)を生成し、図4(A)に示すように、仮想的な3次元空間における投影面に投影された映像V上に、生成した歌詞オブジェクトOB1を合成し(ステップS12)、ステップS16へ進む。
一方、ステップS13では、制御部63は、仮想的な3次元空間における投影面に投影された映像V上に配置された歌詞オブジェクトOB1があるか否かを判定する。制御部63は、映像V上に配置された歌詞オブジェクトOB1があると判定した場合(ステップS13:YES)、映像V上に配置された歌詞オブジェクトOB1を仮想的な3次元空間上から削除し(ステップS14)、ステップS15へ進む。一方、制御部63は、映像V上に配置された歌詞オブジェクトOB1がないと判定した場合(ステップS13:NO)、ステップS15へ進む。ステップS15では、制御部63は、キューに保持されている全データを削除することでキューを空にし、ステップS16へ進む。
ステップS16では、制御部63は、仮想的な3次元空間に投影された映像Vをプロジェクター5a〜5cそれぞれの位置を基準とする2次元平面座標系に投影変換し、それぞれの映像の映像データを映像再生装置4a〜4cそれぞれへ送信し、ステップS2に戻る。なお、ステップS12で歌詞オブジェクトOB1が映像Vに合成されている場合、歌詞オブジェクトOB1が合成された映像Vがプロジェクター5a〜5cにより投影面に投影されることになる。
実施例1によれば、制御部63は、人物の頭の位置、姿勢、及び有効視野角を所定時間間隔(つまり、ステップS2〜S16のループ周期に基づく時間間隔)で特定し、特定した人物の頭の位置、姿勢、及び有効視野角から特定される人物の視野範囲内で、歌詞オブジェクトOB1の位置、姿勢及びサイズを所定時間間隔で決定(上記ステップS7で決定)する。そして、制御部63は、決定した複数回分の位置、姿勢及びサイズに対応する値の平均値にしたがって、歌詞オブジェクトOB1を映像V上に合成し、歌詞オブジェクトOB1が合成された映像Vをプロジェクター5a〜5cにより投影面に投影させる。このように、歌詞オブジェクトOB1の移動平均を用いることで歌詞の視認性を向上することができる。
(実施例2)
次に、図6等を参照して、実施例2の投影制御処理について説明する。実施例1では、歌詞オブジェクトの移動平均を用いることで歌詞の視認性を向上することができる。しかし、実施例1の投影制御処理では、人物の視野範囲が短時間(例えば、1秒以内)で大きく変化した場合、歌詞オブジェクトは急な動きに追従できず、歌詞オブジェクトの動きが緩慢になってしまう。一方、人物の視野範囲が短時間で大きく変化した場合に、直ぐに歌詞オブジェクトの表示位置を切り換えてしまうと、人物が視線を一瞬動かしただけでも、歌詞オブジェクトの表示と非表示が行われるため、却って歌詞の視認性が低下してしまう可能性がある。
このような点を改善するため、実施例2では、歌詞オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または人物の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、新たな歌詞オブジェクトが生成され、生成された新たな歌詞オブジェクトが既に生成されている歌詞オブジェクトと共に映像上に合成される。つまり、実施例2では、実施例1で説明したキューを複数個生成可能とし、キューの数だけ歌詞オブジェクトが生成及び投影されるようになっている。また、生成された各歌詞オブジェクトには、映像に合成されてから削除されるまでの投影継続時間である寿命パラメータが対応付けられる。なお、以下に説明する投影制御処理では、歌詞オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量を例にとって説明する。
図6に示す投影制御処理は、実施例1と同様、表示・操作デバイス1から映像Vの映像ID及び投影指示が受信された場合に開始される。図6に示す投影制御処理が開始されると、制御部63は、仮想的な3次元空間における投影面に、投影対象となる映像Vを投影する(ステップS21)。次いで、制御部63は、投影制御処理を終了するか否かを判定し(ステップS22)、投影制御処理を終了しないと判定した場合(ステップS22:NO)、ステップS23へ進む。
ステップS23では、制御部63は、カメラ3の撮像範囲内の3次元空間における人物の部位情報等を取得する。次いで、制御部63は、ステップS23で取得した人物の部位情報等から、人物の頭の位置及び姿勢を取得する(ステップS24)。次いで、制御部63は、ステップS24で取得した人物の頭の位置及び姿勢を、上記仮想的な3次元空間上の値に変換することで仮想的な3次元空間における人物の頭の位置及び姿勢を特定し、且つ上述した有効視野角を特定する(ステップS25)。そして、制御部63は、人物の頭の位置及び姿勢と、有効視野角とから、視野範囲を特定する。
次いで、制御部63は、前回の処理で映像V上に配置された歌詞オブジェクトがあるか否かを判定する(ステップS26)。制御部63は、前回の処理で映像V上に配置された歌詞オブジェクトがあると判定した場合(ステップS26:YES)、ステップS27へ進む。一方、制御部63は、前回の処理で映像V上に配置された歌詞オブジェクトがないと判定した場合(ステップS26:NO)、ステップS28へ進む。ステップS27では、制御部63は、前回の処理で映像V上に配置された全ての歌詞オブジェクトを仮想的な3次元空間上から削除し、ステップS28へ進む。
ステップS28では、制御部63は、現在時刻において表示させる歌詞があるか否かを判定する。制御部63は、現在時刻において表示させる歌詞があると判定した場合(ステップS28:YES)、ステップS29へ進む。一方、制御部63は、現在時刻において表示させる歌詞がないと判定した場合(ステップS28:NO)、ステップS47へ進む。
ステップS29では、制御部63は、ステップS25で特定した人物の頭(例えば、目)の位置、人物の姿勢、及び有効視野角から特定される人物の視野範囲内で、仮想的な3次元空間における投影面に配置される歌詞オブジェクトの位置、姿勢及びサイズ(スケール)を決定する。歌詞オブジェクトの位置は、例えば、人物の頭の座標から決定される。歌詞オブジェクトの姿勢は、例えば、人物の姿勢から決定される。歌詞オブジェクトのサイズ(スケール)は、例えば、人物の有効視野角から決定される。これらは、予め、人物の頭の位置、人物の姿勢、及び有効視野角に応じて歌詞オブジェクトの位置、姿勢及びサイズ(スケール)が定められたテーブルにより定められてもよい。
次いで、制御部63は、キューが1つ以上あるか否かを判定する(ステップS30)。制御部63は、キューが1つ以上あると判定した場合(ステップS30:YES)、ステップS31へ進む。一方、制御部63は、キューがないと判定した場合(ステップS30:NO)、ステップS34へ進む。
ステップS31では、制御部63は、キューに保持されているデータの平均値をキュー毎に算出し、ステップS32へ進む。キューに保持されているデータの平均値とは、キュー内の位置、姿勢及びサイズそれぞれに対応する値の平均値である。なお、キューに保持されているデータの平均値は、キュー内の位置、姿勢、及びサイズの少なくとも何れか一つに対応する値との平均値であってもよい。
ステップS32では、制御部63は、ステップS29で決定した位置、姿勢及びサイズの少なくとも何れか一つに対応する値と、ステップS31で算出した平均値との誤差をキュー毎に算出する。この誤差は、歌詞オブジェクトの位置、姿勢及びサイズが前回の処理から変化した変化量である。例えば、制御部63は、位置に対応する値の差の2乗と、姿勢に対応する値の差の2乗と、サイズに対応する値の差の2乗との総和の平方根を上記誤差として算出するとよい。
次いで、制御部63は、ステップS32で算出した誤差が閾値未満(閾値以下としてもよい)のキューがあるか否かを判定する(ステップS33)。制御部63は、誤差が閾値未満のキューがないと判定した場合(ステップS33:NO)、ステップS34へ進む。つまり、誤差が閾値以上のキューがある場合、ステップS34へ進む。ここで、誤差が閾値以上とは、歌詞オブジェクトの位置、姿勢及びサイズの少なくとも何れか一つに対応する値の前回処理からの変化量が閾値以上であることを意味する。換言すると、誤差が閾値以上とは、人物の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上であることを意味する。このような場合、例えば、図7(A)に示すように、既に映像V上に配置されている歌詞オブジェクトOB1(第1の表示オブジェクトの一例)に加えて、新たな歌詞オブジェクトOB2(第2の表示オブジェクトの一例)がステップS34以降の処理で生成され、生成された新たな歌詞オブジェクトOB2が既に生成されている歌詞オブジェクトOB1と共に映像V上に合成されることになる。これにより、人物の視野範囲が短時間で大きく変化した場合であっても、変化した後の視野範囲に迅速に対応でき、変化した後の視野範囲における歌詞の視認性を向上させることができる。一方、制御部63は、誤差が閾値以下のキューがあると判定した場合(ステップS33:YES)、ステップS36へ進む。
ステップS34では、制御部63は、新たなキューを生成し、生成したキューの寿命パラメータに現在時刻に基づく初期値(例えば、現在時刻から数秒後の時刻)を設定する。ここで、生成されるキューは、1つ目のキュー、または2つ目以降のキューである。次いで、制御部63は、ステップS34で生成したキューを、今回処理対象のキューに設定し(ステップS35)、ステップS39へ進む。
一方、ステップS36では、制御部63は、ステップS32で算出した誤差が閾値未満(閾値以下としてもよい)のキューが複数あるか否かを判定する。制御部63は、誤差が閾値未満のキューが複数ない(つまり、1つだけある)と判定した場合(ステップS36:NO)、ステップS37へ進む。一方、制御部63は、誤差が閾値未満のキューが複数あると判定した場合(ステップS36:YES)、ステップS38へ進む。
ステップS37では、制御部63は、誤差が閾値未満のキューを、今回処理対象のキューに設定し、ステップS39へ進む。ステップS38では、制御部63は、誤差が閾値未満の複数のキューのうち誤差が最も小さいキューを、今回処理対象のキューに設定し、誤差が最も小さいキュー以外のキューを削除し、ステップS39へ進む。
ステップS39では、制御部63は、ステップS29で決定した位置、姿勢及びサイズの組を1つのデータとして、今回処理対象のキューに追加する。次いで、制御部63は、今回処理対象のキューに保持されたデータの数がNより大きいか否かを判定する(ステップS40)。制御部63は、今回処理対象のキューに保持されたデータの数がNより大きいと判定した場合(ステップS40:YES)、今回処理対象のキューから最も古いデータを削除し(ステップS41)、ステップS42へ進む。一方、制御部63は、今回処理対象のキューに保持されたデータの数がNより大きくないと判定した場合(ステップS40:NO)、ステップS42へ進む。
ステップS42では、制御部63は、今回処理対象のキューの寿命パラメータを一定時間延長する。ここで、今回処理対象のキューの寿命パラメータとは、今回処理対象のキュー内のデータにしたがって生成される歌詞オブジェクトに対応付けられている寿命パラメータである。なお、寿命パラメータが延長される対象となるキューは、ステップS33で判定された誤差が所定時間以上継続して閾値未満であるキューに限るように構成することが望ましい。これにより、人物の視線が留まる時間が長い視野範囲ほど、この視野範囲における歌詞オブジェクトを長く表示させることができるので、歌詞の視認性を、より向上することができる。換言すると、人物の視線が留まる時間が短い視野範囲ほど、後述するステップS44の処理で、この視野範囲における歌詞オブジェクトを迅速に削除することができる。また、一定時間は、例えば図6に示す処理においてステップS22〜ステップS48の1回の処理時間に応じて設定される。例えば、1回の処理時間が0.02秒である場合、上記一定時間は、0.02秒程度に設定される。
次いで、制御部63は、今回処理対象のキュー以外で、寿命パラメータが示す時刻が到来したキューがあるか否かを判定する(ステップS43)。制御部63は、寿命パラメータが示す時刻が到来したキューがあると判定した場合(ステップS43:YES)、寿命パラメータが示す時刻が到来したキューを削除し(ステップS44)、ステップS45へ進む。つまり、制御部63は、例えば、図7(A)に示すように、歌詞オブジェクトOB1と歌詞オブジェクトOB2とが合成された映像Vが投影されてから所定時間後に、図7(B)に示すように、歌詞オブジェクトOB1を映像から削除する。これにより、人物の視野範囲が短時間で大きく変化した後、さらに変化した場合であっても、人物により視認される必要性が低い視野範囲における歌詞オブジェクトを迅速に削除することができる。また、人物の視野範囲が頻繁に変化することで歌詞オブジェクトの数が増えても、寿命パラメータによって時間経過に従い適切に減らすことができる。一方、制御部63は、寿命パラメータが示す時刻が到来したキューがないと判定した場合(ステップS43:NO)、ステップS45へ進む。
ステップS45では、制御部63は、キューに保持されたデータの平均値を、現在の歌詞オブジェクトの位置、姿勢及びサイズとしてキュー毎に決定する。つまり、この時点で存在している全てのキューそれぞれについて、現在の歌詞オブジェクトの位置、姿勢及びサイズが決定される。次いで、制御部63は、ステップS45で決定した位置、姿勢及びサイズで歌詞オブジェクトをキュー毎に生成(つまり、キューの数だけ生成)し、仮想的な3次元空間における投影面に投影された映像V上に、生成した歌詞オブジェクトを合成し(ステップS46)、ステップS48へ進む。
一方、ステップS47では、制御部63は、全てのキュー、及びこれに対応する歌詞オブジェクトを削除し、ステップS48へ進む。ステップS48では、制御部63は、仮想的な3次元空間に投影された映像Vをプロジェクター5a〜5cそれぞれの位置を基準とする2次元平面座標系に投影変換し、それぞれの映像の映像データを映像再生装置4a〜4cそれぞれへ送信し、ステップS22に戻る。なお、ステップS46で歌詞オブジェクトが映像Vに合成されている場合、歌詞オブジェクトが合成された映像Vがプロジェクター5a〜5cにより投影面に投影されることになる。
実施例2によれば、歌詞オブジェクトOB1の位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、制御部63は、上記ステップS29で決定された最新の位置及びサイズで、歌詞オブジェクトOB1とは異なる歌詞オブジェクトOB2を、歌詞オブジェクトOB1が合成された映像V上に合成し、歌詞オブジェクトOB1と歌詞オブジェクトOB2とが合成された映像Vをプロジェクター5a〜5cにより投影面に投影面に投影させる。このため、歌詞オブジェクトの移動平均を用いた場合において、人物の視野範囲が短時間で大きく変化した場合であっても、変化した後の視野範囲に迅速に対応でき、変化した後の視野範囲における歌詞オブジェクトの視認性を向上させることができる。
なお、実施例2においては、ステップS25において、人物の頭の位置、姿勢及び有効視野角が特定された後、ステップS29において、歌詞オブジェクトの位置、姿勢及びサイズが決定された後、キューに保存されているデータから誤差が閾値未満のキューがあるか否かを判断し、新たなキューを生成する処理を行われていた。しかしながら、人物の頭の位置、姿勢及び有効視野角が特定された後、ステップS29において、歌詞オブジェクトの位置、姿勢及びサイズを決定せずに、キューに保存されているデータから、新たなキューを生成するか否かを判断し、判断結果に応じて新たなキューを生成する処理が行われてもよい。
以上説明したように、上記実施形態によれば、再生制御装置6は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定し、特定した人物の頭の位置、人物の姿勢、及び有効視野角から人物の視野範囲内で、映像が投影される投影面の少なくとも一部の領域に配置される歌詞オブジェクトの位置、姿勢及びサイズを決定する。そして、再生制御装置6は、決定した位置、姿勢及びサイズで、歌詞オブジェクトをプロジェクター5a〜5cにより投影される映像上に合成し、歌詞オブジェクトが合成された映像を投影面に投影させるように構成したので、視聴者である人物がプロジェクターを装着することなく、投影される映像に対し、人物の位置及び姿勢に応じた視線方向の位置に歌詞オブジェクトを、視認性を保って的確に表示させることができる。また、本実施形態では、視聴者がプロジェクターを装着する必要がないので、例えば、視聴者の頭部の動きによるブレで文字等が見難くなることを防ぐことができる。
なお、上記実施形態においては、表示オブジェクトとして歌詞オブジェクトを例にとって説明したが、歌詞オブジェクト以外の、例えばメッセージやコメント等の表示物に対して適用することができる。
1 表示・操作デバイス
2 楽曲再生装置
3 カメラ
4a〜4e 映像再生装置
5a〜5e プロジェクター
6 再生制御装置
S 投影システム

Claims (7)

  1. 所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定する特定手段と、
    前記特定手段により人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを決定する決定手段と、
    前記決定手段により決定された位置及びサイズで、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成手段と、
    前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御手段と、
    を備え
    前記第1の表示オブジェクトが合成された映像が投影された後、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、
    前記決定手段は、前記特定手段により新たに特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、前記投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第2の表示オブジェクトの位置及びサイズを新たに決定し、
    前記合成手段は、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定手段により新たに決定された位置及びサイズで、前記第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、
    前記投影制御手段は、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする投影制御装置。
  2. 所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を所定時間間隔で特定する特定手段と、
    前記特定手段により人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを所定時間間隔で複数回決定する決定手段と、
    前記決定手段により決定された複数回分の位置及びサイズに対応する値の平均値にしたがって、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成手段と、
    前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御手段と、
    を備え、
    前記第1の表示オブジェクトが合成された映像が投影された後、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、
    前記合成手段は、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定手段により決定された最新の位置及びサイズで、前記第1の表示オブジェクトとは異なる第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、
    前記投影制御手段は、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする投影制御装置。
  3. 前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像が投影されてから所定時間後に、前記第1の表示オブジェクトを前記映像から削除する削除手段を更に備え、
    前記投影制御手段は、前記第1の表示オブジェクトが削除され、且つ、前記第2の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする請求項またはに記載の投影制御装置。
  4. 前記第1の表示オブジェクトには、前記映像に合成されてから削除されるまでの投影継続時間が対応付けられ、
    前記第1の表示オブジェクトが合成された映像が投影されてから前記投影継続時間後に、前記第1の表示オブジェクトを前記映像から削除する削除手段と、
    前記第1の表示オブジェクトが合成された映像が投影された後、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量または前記3次元空間にいる前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が、所定時間以上継続して閾値未満である場合、前記第1の表示オブジェクトに対応付けられている前記投影継続時間を延長する延長手段と、
    を備えることを特徴とする請求項1または2に記載の投影制御装置。
  5. 前記第1の表示オブジェクトには、前記投影面への投影タイミングが対応付けられており、
    前記合成手段は、前記投影タイミングが到来したときに、前記第1の表示オブジェクトを前記映像上に合成し、
    前記投影制御手段は、前記投影タイミングで前記第1の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする請求項1乃至の何れか一項に記載の投影制御装置。
  6. 所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定する特定ステップと、
    前記特定ステップにおいて特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを決定する決定ステップと、
    前記決定ステップにおいて決定された位置及びサイズで、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成ステップと、
    前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御ステップと、
    をコンピュータに実行させるプログラムであって、
    前記第1の表示オブジェクトが合成された映像が投影された後、前記特定ステップにおいては、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、
    前記決定ステップにおいては、前記特定ステップにおいて新たに特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、前記投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第2の表示オブジェクトの位置及びサイズを新たに決定し、
    前記合成ステップにおいては、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定ステップにおいて新たに決定された位置及びサイズで、前記第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、
    前記投影制御ステップにおいては、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とするプログラム。
  7. 所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を所定時間間隔で特定する特定ステップと、
    前記特定ステップにおいて特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを所定時間間隔で複数回決定する決定ステップと、
    前記決定ステップにおいて決定された複数回分の位置及びサイズに対応する値の平均値にしたがって、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成ステップと、
    前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御ステップと、
    をコンピュータに実行させるプログラムであって、
    前記第1の表示オブジェクトが合成された映像が投影された後、前記特定ステップにおいては、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、
    前記合成ステップにおいては、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定ステップにおいて決定された最新の位置及びサイズで、前記第1の表示オブジェクトとは異なる第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、
    前記投影制御ステップにおいては、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とするプログラム。
JP2015195112A 2015-09-30 2015-09-30 投影制御装置、及びプログラム Active JP6398938B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015195112A JP6398938B2 (ja) 2015-09-30 2015-09-30 投影制御装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015195112A JP6398938B2 (ja) 2015-09-30 2015-09-30 投影制御装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017068697A JP2017068697A (ja) 2017-04-06
JP6398938B2 true JP6398938B2 (ja) 2018-10-03

Family

ID=58494848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015195112A Active JP6398938B2 (ja) 2015-09-30 2015-09-30 投影制御装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6398938B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111031298B (zh) * 2019-11-12 2021-12-10 广景视睿科技(深圳)有限公司 控制投影模块投影的方法、装置和投影系统
CN112672139A (zh) * 2021-03-16 2021-04-16 深圳市火乐科技发展有限公司 投影显示方法、装置及计算机可读存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09289656A (ja) * 1996-08-22 1997-11-04 Toppan Printing Co Ltd 映像表示システム
JPH1164975A (ja) * 1997-08-13 1999-03-05 Hitachi Ltd 画像表示システム
JP2002091418A (ja) * 2000-09-11 2002-03-27 Casio Comput Co Ltd ウィンドウ表示装置及び記録媒体
JP2006133252A (ja) * 2004-11-02 2006-05-25 Matsushita Electric Works Ltd 仮想現実感生成装置
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
WO2009125481A1 (ja) * 2008-04-10 2009-10-15 パイオニア株式会社 画面表示システム及び画面表示プログラム
JP5141710B2 (ja) * 2010-03-31 2013-02-13 ブラザー工業株式会社 カラオケ装置、プログラム
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
JP6065225B2 (ja) * 2013-09-30 2017-01-25 ブラザー工業株式会社 カラオケ装置
JP2015087824A (ja) * 2013-10-28 2015-05-07 オムロン株式会社 画面操作装置および画面操作方法
JP6112036B2 (ja) * 2014-02-18 2017-04-12 ソニー株式会社 情報処理装置および方法、情報処理システム、並びにプログラム

Also Published As

Publication number Publication date
JP2017068697A (ja) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6276882B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
JP5256269B2 (ja) データ生成装置、データ生成装置の制御方法、及びプログラム
JP5337915B2 (ja) 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP3517639B2 (ja) 複合現実感提示装置及びその方法並びに記憶媒体
US20240091641A1 (en) Information processing apparatus and user guide presentation method
JP6290467B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6470859B1 (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2010240185A (ja) 動作学習支援装置
JP6398938B2 (ja) 投影制御装置、及びプログラム
JP2018125003A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2022000697A (ja) 表示装置、表示装置の制御方法
JP2018056924A (ja) 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス
JP6585866B1 (ja) 位置データ処理装置およびプログラム
US20210385554A1 (en) Information processing device, information processing method, and information processing program
JP6354620B2 (ja) 制御装置、プログラム、及び投影システム
US20230226460A1 (en) Information processing device, information processing method, and recording medium
JP5864789B1 (ja) 鉄道模型観賞用装置、方法、プログラム、専用表示モニタ、合成用情景画像データ
JP2019160295A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2022025471A (ja) アニメーション制作システム
WO2022124135A1 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP7319686B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP7325833B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP2018190397A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6398938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150