JP6354620B2 - 制御装置、プログラム、及び投影システム - Google Patents

制御装置、プログラム、及び投影システム Download PDF

Info

Publication number
JP6354620B2
JP6354620B2 JP2015037920A JP2015037920A JP6354620B2 JP 6354620 B2 JP6354620 B2 JP 6354620B2 JP 2015037920 A JP2015037920 A JP 2015037920A JP 2015037920 A JP2015037920 A JP 2015037920A JP 6354620 B2 JP6354620 B2 JP 6354620B2
Authority
JP
Japan
Prior art keywords
projection
person
part information
head
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015037920A
Other languages
English (en)
Other versions
JP2016161626A (ja
Inventor
祥司 尾野藤
祥司 尾野藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015037920A priority Critical patent/JP6354620B2/ja
Publication of JP2016161626A publication Critical patent/JP2016161626A/ja
Application granted granted Critical
Publication of JP6354620B2 publication Critical patent/JP6354620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、複数方向にある投影面に映像を投影する投影システムの技術分野に関する。
従来、例えば特許文献1に開示されるように、投射型映像表示装置と、スクリーンと対向する位置にセンサーを設け、投射型映像表示装置とスクリーンの間に、入り込んだ人物の位置のスクリーン面上に対応する領域を判断して、入り込んだ人物の位置に応じたスクリーン面の明るさを変更する技術が知られている。この技術によれば、強い光が人物の眼中に入ることを防ぐことができる。
特開2004−348078号公報
上述した従来の技術では、人物の位置を検出するためのセンサーにより、人物の有無を示す反応を判断することで、人物の位置を判断している。しかしながら、人物の有無による判断のみでは、人物の視覚に投影光が影響するか否かを正確に判断できない。例えば、複数のプロジェクターを使用する場合、プロジェクターの投影方向に対する人物の向きによっては、人物に投影光が当たっても、人物の視覚に影響しない場合がある。このような場合に、人物の有無による判断で、プロジェクターからの投影光を抑制すると、不要な領域まで、投影光を抑えることとなり、人物の視覚への影響を抑える以上に、投影画像に不要な制限がかかる。
本発明は、以上の点に鑑みてなされたものであり、複数のプロジェクター等の投影装置からの投影光を人物の視界に応じて制限することが可能な制御装置、プログラム、及び投影システムを提供する。
上記課題を解決するために、請求項1に記載の発明は、配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムに用いられる制御装置であって、前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得手段と、前記取得手段により取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成手段と、前記取得手段により取得された部位情報から、前記人物の視線方向を特定する特定手段と、前記生成手段により生成された頭部の3次元モデルの表面に、前記特定手段により特定された視線方向の領域を含む投影制限領域を設定する設定手段と、前記設定手段により設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換手段と、前記変換手段により前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定手段と、を備えることを特徴とする。
請求項2に記載の発明は、請求項1に記載の制御装置において、前記設定手段は、前記視線方向を基準とする前記人物の視界の範囲を、前記3次元モデルの表面に投影制限領域として設定することを特徴とする。
請求項3に記載の発明は、請求項1または2に記載の制御装置において、前記取得手段は、前記人物の頭部の位置と、前記人物の右肩部の位置と、前記人物の左肩部の位置とを含む前記部位情報を取得するものであり、前記部位情報の中で、前記人物の頭部に対応する前記部位情報と、前記人物の右肩部に対応する前記部位情報と、前記人物の左肩部に対応する前記部位情報とに基づいて、法線ベクトルを算出する算出手段を更に備え、前記特定手段は、前記算出手段により算出された法線ベクトルの方向を前記視線方向として特定することを特徴とする。
請求項4に記載の発明は、請求項1または2に記載の制御装置において、前記部位情報は、前記部位の回転角であって、前記部位に連結される他の部位を基準とする回転角を含み、前記部位情報のそれぞれに含まれる前記回転角に基づいて、前記頭部の回転角を算出する算出手段を更に備え、前記特定手段は、前記算出手段により算出された回転角から前記視線方向を特定することを特徴とする。
請求項5に記載の発明は、配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムに用いられる制御装置に用いられるコンピュータに実行させるプログラムであって、前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得ステップと、前記取得ステップにより取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成ステップと、前記取得ステップにより取得された部位情報から、前記人物の視線方向を特定する特定ステップと、前記生成ステップにより生成された頭部の3次元モデルの表面に、前記特定ステップにより特定された視線方向の領域を含む投影制限領域を設定する設定ステップと、前記設定ステップにより設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換ステップと、前記変換ステップにより前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定ステップと、をコンピュータに実行させることを特徴とする。
請求項6に記載の発明は、配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムであって、前記投映システムが備える制御装置は、前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得手段と、前記取得手段により取得された部位情報から、前記人物の頭部の3次元モデルを生成する生成手段と、前記取得手段により取得された部位情報に基づいて、前記人物の視線方向を特定する特定手段と、前記生成手段により生成された頭部の3次元モデルの表面に、前記特定手段により特定された視線方向の領域を含む投影制限領域を設定する設定手段と、前記設定手段により設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換手段と、前記変換手段により前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定手段と、を備えることを特徴とする。
請求項1、5、6に記載の発明によれば、複数の投影装置からの投影光を人物の視線方向に応じて制限することができる。
請求項2に記載の発明によれば、複数の投影装置からの投影光を人物の視界に応じて制限することができる。
請求項3に記載の発明によれば、頭部の位置、左肩部の位置、及び右肩部の位置から、迅速に視線方向を特定ことができる。
請求項4に記載の発明によれば、より精度の高い視線方向を特定することができる。
本実施形態の投影システムSの概要構成例を示す図である。 (A)は、投影システムSが利用される部屋の上方から見た部屋内に配置された装置の位置関係の一例を表す図であり、(B)は、投影システムSが利用される部屋の矢印Dが示す側方から見た部屋内に配置された装置の位置関係の一例を表す図である。 (A)は、人物の骨格を形成する複数の部位の一例を示す図であり、(B)は、頭部の位置a、左肩部の位置b、及び右肩部の位置cにより決まる法線ベクトルの一例を示す図である。 本実施形態の再生制御装置6の投影制御処理の一例を示すフローチャートである。 (A)は、部屋内にいる人物の視界の一例を示す図であり、(B)は、人物の頭部の3次元モデルを頭頂部方向から見た図であり、(C)は、人物の頭部の3次元モデルを顔の側面方向から見た図である。 3次元座標系における投影制限領域がプロジェクター5a〜5dの2次元平面に射影される様子の一例を示す概念図である。 本実施形態の投影制御処理の効果の一つを説明する図である。
以下、本発明の実施形態を図面に基づいて説明する。
[1.投影システムの構成及び動作概要]
始めに、図1等を参照して、本実施形態の投影システムSの構成及び動作概要について説明する。投影システムSは、図1に示すように、表示・操作デバイス1、楽曲再生装置2、カメラ3、映像再生装置4a〜4e、プロジェクター5a〜5e、及び再生制御装置6等を備えて構成される。ここで、プロジェクター5a〜5eは、投影装置の一例である。再生制御装置6は、制御装置の一例である。投影システムSは、例えばカラオケ店舗等のアミューズメント施設における部屋で利用される。表示・操作デバイス1、楽曲再生装置2、及びカメラ3は、それぞれ、有線または無線を介して再生制御装置6と接続される。映像再生装置4a〜4e、及びプロジェクター5a〜5eは、それぞれ、有線LAN(Local Area Network)または無線LAN、及びハブ等を介して再生制御装置6と接続される。さらに、プロジェクター5a〜5eは、それぞれ、有線または無線を介して映像再生装置4a〜4eと接続される。
図2(A)に示すように、プロジェクター5a〜5dは、それぞれ、壁面a〜dのうちいずれか2つの壁面に映像を投影するように配置されている。つまり、プロジェクター5a〜5dは、それぞれ異なる位置に配置された複数の位置から、それぞれの投影方向へ向けて、それぞれの投影角θa〜θdに収まる投影範囲の投影面に映像を投影する。このとき、プロジェクター5a〜5dは、それぞれ2つの壁面を含む投影面に映像を投影する。図2(A)の例では、人物の前後左右の4つの壁面a〜dが投影面である。プロジェクター5cが、矩形の部屋の壁面cと壁面bとの角に配置されるとき、部屋の対角を含む壁面aの一部領域と壁面dの一部領域とに映像が投影される。プロジェクター5dが、矩形の部屋の壁面cと壁面dとの角に配置されるとき、部屋の対角を含む壁面aの一部領域と壁面bの一部領域とに映像が投影される。プロジェクター5a〜5dは、互いの投影領域の一部を重ならせて、それぞれいずれか2つの壁面に映像を投影する。なお、図2(A)の例では、複数のプロジェクター5a〜5d間で、映像が投影される投影面の一部が重複している。この結果、プロジェクター5a〜5dにより、矩形の部屋の側壁面の全周に映像を投影させることができる。しかし、映像が投影される投影面が、複数のプロジェクター5a〜5d間で重複しないように、投影方向または投影角θa〜θdが設定されてもよい。また、プロジェクター5a〜5dは、それぞれ特定の1つの投影面に映像を投影するものであってもよい。また、投影面は、部屋の天井面及び床面にあってもよい。
また、図2(A)に示すように、プロジェクター5eは、壁面dに設置されたスクリーンScに映像を投影するように配置(例えば、図2(B)に示すように、天井に配置)されている。つまり、プロジェクター5eは、配置された位置から、投影角θeに収まる範囲の方向にあるスクリーンSc上の投影面に映像を投影する。図2の例では、スクリーンSc上の投影面には、プロジェクター5b,5cからの映像も投影される。しかし、プロジェクター5b,5cから投影する映像には、プロジェクター5eから投影する映像に悪い影響を及ぼさない映像が設定される。悪い影響とは、例えば、プロジェクター5b,5cが、黒色などの透明度が低い映像を大きい領域面積に投影することにより、プロジェクター5eから投影されるスクリーンSc上の投影映像を塗りつぶしてしまうことを指す。図2の例では、人物はスクリーンScがある方向(図2(A)に示す視線方向)を向いており、スクリーンScに投影された映像を見ている。カメラ3は、図2(A),(B)に示すように、壁面dに設置されており、カメラ3の画角θに収まる範囲を撮像する。例えば、カメラ3により撮像された映像が、プロジェクター5eによりスクリーンScに投影される。楽曲再生装置2により楽曲が再生中である場合、その楽曲の歌詞テロップがカメラ3により撮像された映像に重畳されて、プロジェクター5eによりスクリーンScに投影される。これにより、図2の例では、スクリーンScを見る人物が、カメラ3が設置された壁dに対してその正面からカメラ3により撮像される。
なお、図2の例では、5つの映像再生装置4a〜4e、及び5つのプロジェクター5a〜5eを示しているが、映像再生装置とプロジェクターは、それぞれ、1つ以上4つ以下、或いは6つ以上であってもよい。また、図1の例では、映像再生装置とプロジェクターとは1対1で対応しているが、1対N(Nは2以上の自然数)で対応してもよい。例えば、1つの映像再生装置に複数のプロジェクターが接続されてもよい。映像再生装置が1つである場合、映像再生装置が映像再生手段(ハードウェアまたはソフトウェアにより構成される)として再生制御装置6内に組み込まれていてもよい。
表示・操作デバイス1には、例えば、表示画面を備えるタッチパネルディスプレイが用いられる。表示・操作デバイス1は、例えば、楽曲再生装置2のリモコンであってもよい。なお、表示・操作デバイス1は、楽曲再生装置2または再生制御装置6に組み込まれていてもよい。この場合、例えば、表示・操作デバイス1は、楽曲再生装置2または再生制御装置6と一体に形成された表示ディスプレイである。表示・操作デバイス1は、プロジェクター5a〜5dで投影する映像の選択候補となる映像のタイトル等や、楽曲再生装置2で再生する楽曲の選択候補となる楽曲のタイトル等を表示画面に表示する。表示・操作デバイス1は、ユーザによる選択操作に応じて映像の選択または楽曲の選択を行う。表示・操作デバイス1は、例えば、選択された映像を識別する映像IDを再生制御装置6へ送信する。また、表示・操作デバイス1は、例えば、選択された楽曲を識別する楽曲IDを再生制御装置6へ送信する。再生制御装置6へ送信された楽曲IDは、例えば、再生制御装置6から楽曲再生装置2へ送信される。なお、表示・操作デバイス1は、例えば、選択された楽曲を識別する楽曲IDを楽曲再生装置2へ送信してもよい。
楽曲再生装置2は、楽曲を再生する装置である。楽曲再生装置2は、複数の楽曲ファイルを記憶部に記憶する。楽曲ファイルは、カラオケ曲等の楽曲の楽曲データを格納する。各楽曲ファイルには、例えば、楽曲を識別する楽曲IDが対応付けられる。楽曲再生装置2は、表示・操作デバイス1または再生制御装置6から送信された楽曲IDを受信すると、受信した楽曲IDが示す楽曲データを再生し、その楽曲信号をスピーカ(図示せず)へ出力する。なお、楽曲再生装置2がカラオケコマンダである場合、楽曲再生装置2には、上記楽曲信号と、マイク(図示せず)により集音されたユーザ(例えば、図2に示す人物)の歌唱音声信号とをミキシングしてスピーカ(図示せず)へ出力するミキシングアンプが備えられる。
カメラ3には、例えば、RGBカメラ及び深度カメラが用いられる。深度カメラは、位置検出装置の一例である。深度カメラは、例えば赤外線レーザなどによる深度センサーである。深度カメラにより、部屋内における撮像範囲の各位置までの深度を含む位置情報を示すデプス画像が取得される。図2の例の場合、この位置情報には、プロジェクター5a〜5dから投影面までの範囲の3次元空間にいる人物の複数の部位の位置を示す部位情報を含む。人物の複数の部位の位置を示す部位情報は、例えば、部位ごとに、位置座標が対応付けられた情報であり、デプス画像に示される撮像範囲の各位置までの深度から特定することが可能である。具体的には、深度カメラにより取得された撮像範囲の各位置までの深度を、人物の各部位の位置を判断するための人物位置パターンデータと比較することにより、人物の各部位およびその位置が特定される。デプス画像の深度と比較される人物位置パターンデータは、例えば、予め所定のデータベース等に記憶された多数の種類の人物位置パターンから、デプス画像の各位置の深度に応じた所定のパターンデータが読み出して用いられる。なお、各位置までの深度から、求められる人間の複数の部位の位置は、再生制御装置6により特定されてもよい。図3(A)の例では、人物の骨格を形成する部位として、頭部a、左肩部b、右肩部c、左肘部d、右肘部e、左手部f、右手部g、首部h、胴部i、腰部j、左尻部k、右尻部l、左膝部m、右膝部n、左足部o、及び右足部pを示している。このような部位情報には、図3(A)に示すように、部位の回転角Θが含まれる場合もある。部位の回転角Θとは、その部位に連結される他の部位を基準とする回転角である。もしくは、その部位と間接的に連結される特定の部位の位置を基準とした回転角であってもよい。例えば、頭部aの回転角Θは、頭部aに連結される首部hを基準とする回転角である。首部hの回転角Θは、首部hに連結される胴部iを基準とする回転角である。すなわち、頭部aの回転角Θは、胴部iを基準とする回転角とすることもできる。回転角Θを含む部位情報は(X,Y,Z,Θ)というように表される。なお、上記位置情報には、図3(A)に示す骨格を形成する部位の他にも部位の位置を示す部位情報が含まれてもよい。例えば、図3(A)に示す頭部aの位置は、人物の頭を球体としたときの中心(3次元座標)を示すが、人物の頭の表面上にある複数の部位それぞれの位置を示す部位情報が含まれてもよい。カメラ3は、カメラ3の画角θに収まる撮像範囲を例えば連続的に撮像し、その撮像結果を再生制御装置6へ送信する。この撮像結果には、RGB画像及びデプス画像が含まれる。
映像再生装置4a〜4eは、映像を再生する装置である。映像には、静止画像と動画像とがある。動画像は、例えば複数の静止画の画像フレームを時系列で切り替えて表示する。映像再生装置4a〜4eは、それぞれ、例えば再生制御装置6から指示された映像データを再生する。映像再生装置4a〜4eは、それぞれ、再生制御装置6から指示された映像データを再生し、その映像信号をプロジェクター5a〜5eへ出力する。再生する映像データは、映像再生装置4a〜4eそれぞれの図示しない記憶部に記憶される。映像再生装置4a〜4dは、例えば、後述する再生制御装置6の記憶部62に記憶される投影対象のオリジナル映像から、対応するプロジェクター5a〜5d毎にそれぞれの投影範囲の領域を切り出すことにより、プロジェクター5a〜5dそれぞれに対応する映像再生装置4a〜4dが再生する映像データを生成し、記憶部に記憶する。あるいは、映像再生装置4a〜4eが、再生する映像データを再生制御装置6の記憶部から取得してもよい。映像データを再生するとき、映像再生装置4a〜4dは、カメラ3により撮像された人物の視界の範囲を、後述する再生制御装置6からマスクデータとして取得する。映像再生装置4a〜4dは、映像データに、取得したマスクデータを合成した映像を再生する。プロジェクター5a〜5eは、それぞれ、映像再生装置4a〜4eにより再生出力された映像信号に応じた光を発光部から発することにより映像を出力する。これにより、プロジェクター5a〜5eは、それぞれの投影角θa〜θeに収まる範囲の方向にある投影面に映像を投影する。また、プロジェクター5a〜5eは、それぞれ、再生制御装置6からの制御信号に応じて、例えば、電源をオン又はオフを行ったり、投影方向や投影角θa〜θeを変更する。
再生制御装置6は、楽曲の再生制御、及び映像の投影制御等を行う装置である。再生制御装置6は、図1に示すように、IF61a〜61d、記憶部62、及び制御部63を備える。IF61a〜61d、記憶部62、及び制御部63は、バス64に接続されている。IF61aは、楽曲再生装置2と再生制御装置6との間のインターフェースである。IF61bは、表示・操作デバイス1と再生制御装置6との間のインターフェースである。IF61cは、カメラ3と再生制御装置6との間のインターフェースである。IF61dは、LANとのインターフェースである。
記憶部62は、例えばハードディスクドライブにより構成される。記憶部62には、OS(Operating System)、及び本発明のプログラム等が記憶される。本発明のプログラムは、後述する制御処理をCPUに実行させるプログラムである。また、記憶部62には、プロジェクター5a〜5dにより投影される映像の元データとなるオリジナル映像の映像ファイルを記憶する。オリジナル映像の例として、アーティストのプロモーション映像、企業または商品の広告映像などが挙げられる。制御部63は、コンピュータとしてのCPU(Center Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。制御部63は、本発明の取得手段、生成手段、特定手段、設定手段、変換手段、決定手段、及び算出手段の一例である。制御部63は、本発明のプログラムに従って投影制御処理を実行する。
[2.再生制御装置6の投影制御処理]
次に、図4等を参照して、本実施形態の再生制御装置6の投影制御処理について説明する。例えば部屋に入った利用者(人物)が表示・操作デバイス1を操作して所望の映像(オリジナル映像)を選択すると、選択された映像の映像IDが再生制御装置6へ送信される。再生制御装置6は、表示・操作デバイス1から映像IDを受信すると、受信した映像IDに対応する映像の映像ファイルを、再生させるデータとして映像再生装置4a〜4eに指示し、図4に示す投影制御処理を開始する。このように、利用者により選択された映像が投影対象となる。なお、投影対象となる映像は、デフォルト設定されたものであってもよい。この場合、再生制御装置6は、例えば部屋に入った利用者が表示・操作デバイス1を操作することで表示・操作デバイス1から出力された操作信号を受信すると、図4に示す投影制御処理を開始する。
図4に示す投影制御処理が開始されると、制御部63は、カメラ3により撮像された撮像結果を所定時間間隔でカメラ3から受信し、受信された撮像結果(デプス画像)から、人物の部位情報を取得する(ステップS1)。具体的には、カメラ3から、人物の複数の部位について、部位ごとに、部位と対応付けられた位置座標が、部位情報として取得される。あるいは、ステップS1において、制御部63は、カメラ3から撮像結果(デプス画像)を受信し、撮像結果(デプス情報)から、前述した人物位置パターンデータと比較されることにより、人物の複数の部位について、部位ごとに位置座標が特定される。部位情報として、例えば、図3(A)に示す人物の骨格である、頭部a、左肩部b、右肩部c、左肘部d、右肘部e、左手部f、右手部g、首部h、胴部i、腰部j、左尻部k、右尻部l、左膝部m、右膝部n、左足部o、及び右足部pのそれぞれについて、各部位と対応付けて位置座標が決定される。なお、部位情報は、複数の部位のうちの一部の部位が推定値であってもよい。また、部位情報は、複数の部位のうち、頭部または右肩部及び左肩部を含む一部の部位についてのみ取得されてもよい。次いで、制御部63は、ステップS1で取得した部位情報から、人物の頭部に対応する部位情報を取得する(ステップS2)。次いで、制御部63は、ステップS2で取得された部位情報から、人物の頭部の3次元モデルを生成する(ステップS3)。例えば、制御部63は、頭部の位置(頭部の3次元座標)を中心とする予定サイズの球体(または楕円体)を、人物の頭部の3次元モデルとして生成する。この3次元モデルは、例えば、人物の頭の表面上にある複数の部位それぞれの座標の集合により構成される。なお、制御部63は、ステップS1で取得した部位情報から、人物の頭の表面上にある複数の部位それぞれの位置を示す部位情報を取得し、取得した各部位情報が示す位置(3次元座標)から人物の頭部の3次元モデルを生成してもよい。このとき、制御部63は、人物の頭の表面上の各部位情報を時系列で連続して、時系列で取得した各部位情報に基づいて3次元モデルを生成してもよい。また、このとき、制御部63は、カメラ3により時系列で複数撮像した画像を解析することで、各部位情報の時系列の動きの遷移から人物の正面を判断してもよい。
次いで、制御部63は、ステップS1で取得された部位情報から、人物の顔の法線ベクトルを取得できるか否かを判定する(ステップS4)。例えば、ステップS1で取得された部位情報に、人物の骨格を形成する所定数以上の部位の部位情報が含まれるとき、人物の顔の法線ベクトルを取得できると判定される。例えば、人物の顔の法線ベクトルは、頭部の回転角Θから算出することができる。ここで、頭部の回転角Θは、頭部に連結される首部の回転角Θを基準として算出される。首部の回転角Θは、胴部iの回転角Θを基準とする回転角である。つまり、頭部の回転角Θは、他の部位の回転角Θに基づいて所定の演算により算出される。このため、より多くの部位(例えば、左足部及び右足部から頭部まで)の部位情報が得られれば、それだけ精度の高い回転角Θを得ることができ、その結果、人物の顔の法線ベクトルの精度も向上する。あるいは、ステップS4において、カメラ3から受信された撮像結果(デプス画像)の深度と、ステップS2において取得された頭部の部位情報とにより、頭部の顔面に相当する位置の深度から、例えば鼻等の顔の所定の部位の位置が特定可能であるとき、人物の顔の法線ベクトルを取得できると判定されてもよい。従って、ステップS1で取得された部位情報から、人物の顔の法線ベクトルを取得できると判定された場合(ステップS4:YES)、ステップS5に進む。一方、人物の顔の法線ベクトルを取得できないと判定された場合(ステップS4:NO)、ステップS7に進む。
ステップS5では、制御部63は、人物の骨格を形成する各部位の部位情報のそれぞれに含まれる回転角Θに基づいて、人物の頭部の回転角Θを算出する。次いで、制御部63は、算出した回転角Θから人物の顔の法線ベクトルを算出する。あるいは、ステップS4において、顔の所定の部位の位置が特定可能であると判断される場合は、ステップS5において、顔の所定の部位から顔面に対して前方に向かう方向が、人物の顔の法線ベクトルと決定される。そして、制御部63は、算出した法線ベクトルが示す方向を人物の視線方向として特定し(ステップS6)、ステップS9へ進む。この構成により、より精度の高い視線方向(法線ベクトル)を特定することができる。
ステップS7では、制御部63は、ステップS1で取得された部位情報から、人物の右肩部に対応する部位情報と、人物の左肩部に対応する部位情報とを取得する。次いで、制御部63は、ステップS2で取得した、頭部に対応する部位情報と、ステップS7で取得した、右肩部に対応する部位情報及び左肩部に対応する部位情報とに基づいて、法線ベクトルを算出する。
制御部63は、例えば、図3(A),(B)に示すように、頭部の位置aと左肩部の位置bとの間のベクトルabと、頭部の位置aと右肩部の位置cとの間のベクトルacとの外積(ベクトルab×ベクトルac)を求めることで法線ベクトルを算出する。そして、制御部63は、算出した法線ベクトルが示す方向を人物の視線方向として特定し(ステップS8)、ステップS9へ進む。この構成により、頭部の位置a、左肩部の位置b、及び右肩部の位置cから、迅速に視線方向(法線ベクトル)を特定することができる。
ステップS9では、制御部63は、ステップS6またはステップS8で特定された視線方向に基づいて、ステップS3で生成された、人物の頭部の3次元モデルの表面に投影制限領域を設定する(つまり、3次元モデルの表面に、上記視線方向の領域を含む投影制限領域を設定する)。この投影制限領域は、プロジェクター5a〜5eからの投影を制限(例えば禁止)するべき領域である。制御部63は、例えば、人物の視線方向を基準とする人物の視界の範囲を、人物の頭部の3次元モデルの表面に投影制限領域として設定する。制御部63は、頭部の3次元モデルの投影制限領域内の座標に1を設定し、それ以外の座標を0に設定する。或いは制御部63は、頭部の3次元モデルの投影制限領域内の座標に黒色を設定し、それ以外の座標に白色を設定する。
図5(A)の例では、人物の視線方向を基準とする横視野角により決まる視界を示している。しかし、人物の視界は、人物の視線方向を基準とする横視野角(左右視野角)と縦視野角(上下視野角)とにより決まるものである。横視野角は、例えば190度〜210度の範囲内で予め設定され、縦視野角は、例えば120〜130度の範囲内で予め設定される。制御部63は、このような横視野角と縦視野角とから人物の視界の範囲を求め、これを、人物の頭部の3次元モデルの表面に投影制限領域として設定する。図5(B)及び(C)は、人物の頭部の3次元モデルの表面に設定された投影制限領域LA0の一例を示す図である。図5(B)は、人物の頭部の3次元モデルを頭頂部方向から見た図であり、図5(C)は、人物の頭部の3次元モデルを顔の側面方向から見た図である。図5(B)及び(C)の例では、投影制限領域LA0は、横視野角と縦視野角により決まる範囲に、首部の回転角の可動範囲が加算されて設定される。具体的には、横視野角(左右視野角)として、人物の視線方向の基準から、首部が左方向および右方向に回転する可動範囲にあるときに視野となる角度が定められる。縦視野角(上下視野角)として、人物の視線方向の基準から、首部が上方向および下方向に移動する可動範囲にあるときに視野となる角度が定められる。
次いで、制御部63は、ステップS9で設定された3次元モデルの投影制限領域を、複数のプロジェクター5a〜5dそれぞれの位置を基準として、プロジェクター5a〜5dそれぞれが映像を投影する2次元平面ごとに投影変換する処理を行う(ステップS10)。人物の頭部の3次元モデルは、カメラ3を基準とする3次元座標系で表されるものである。このため、制御部63は、3次元座標系における投影制限領域を、それぞれのプロジェクター5a〜5dの2次元平面座標系に投影変換する。例えば、制御部63は、射影変換するための行列を用いて、3次元座標系における投影制限領域の座標を、プロジェクター5a〜5dの2次元平面における投影制限領域の座標に変換する。
例えば、図6に示すプロジェクター5aの2次元平面に投影変換された投影制限領域LA1は、プロジェクター5aの位置(例えば、2次元平面上の原点)から人物の頭部の3次元モデルを見た投影制限領域LA0である。また、例えば、図6に示すプロジェクター5bの2次元平面に投影変換された投影制限領域LA2は、プロジェクター5bの位置から人物の頭部の3次元モデルを見た投影制限領域LA0である。また、例えば、図6に示すプロジェクター5dの2次元平面に投影変換された投影制限領域LA3は、プロジェクター5dの位置から人物の頭部の3次元モデルを見た投影制限領域LA0である。なお、プロジェクター5cの位置から人物の頭部の3次元モデルを見たとき、投影制限領域LA0は人物頭部の後ろ側の領域で隠れることになるので、プロジェクター5cの2次元平面には投影制限領域が投影されない。なお、プロジェクター5a〜5dそれぞれの2次元平面の範囲は、例えば、プロジェクター5a〜5dそれぞれの投影角θa〜θdに収まる範囲(投影範囲)と等しい。また、プロジェクター5a〜5dの2次元平面は、共通の座標系上にあってもよい。この場合、2次元平面の位置を原点とし、この2次元平面上でプロジェクター5a〜5dそれぞれの位置が定義される。
ステップS11では、制御部63は、プロジェクター5a〜5dにより投影される映像の投影条件を決定し、決定した投影条件に応じたマスクデータ生成処理を実行する。マスクデータ生成処理は、例えば、制御部63が、映像の投影条件として、映像へ合成するマスクデータを決定する処理である。この場合の処理では、制御部63は、例えば、2次元平面に投影変換された投影制限領域に対応するマスクデータを、投影制限領域が投影変換された2次元平面毎に生成する。各2次元平面は、映像再生装置4a〜4dにより映像データが再生されるプロジェクター5a〜5dが投影する投影面それぞれと対応する。すなわち、このマスクデータの2次元平面における座標は、例えば、投影制限領域の座標と一致する。マスクデータ生成処理では、マスクデータとして、映像再生装置4a〜4dごとに、再生する映像データが投影変換される投影制限領域に対応する2次元平面における座標の透明度を示すアルファ値を、不透明を示す1と決定する処理が行われる。このとき、さらに、投影制限領域に対応する領域以外の座標のアルファ値を0と決定する処理が行われてもよい。あるいは、マスクデータ生成処理は、マスクデータとして、投影変換される投影制限領域に対応する2次元平面における座標の表現色を黒色に設定する処理である。次に、制御部63は、生成したマスクデータを、各2次元平面に投影する映像再生装置4a〜4dそれぞれへ送信する。つまり、制御部63は、生成した映像に、生成したマスクデータを合成させるために、生成したマスクデータを映像再生装置4a〜4dのそれぞれへ送信する(ステップS12)。これにより、映像再生装置4a〜4dでは、映像データにマスクデータが合成された映像が投影される映像として生成される。映像データにマスクデータを合成するとは、具体的には、映像データに対し、マスクデータに投影制限領域に対応して定められた座標におけるアルファ値に0が設定される。また、例えば、映像データにおいてマスクデータに示す投影制限領域内の表現色を黒色で塗ったり、或いはマスクデータに定められたアルファ値に基づき、映像データの投影制限領域に対応する座標の表現色に半透明にされた黒色のマスクを重畳する処理が行われる。
なお、ステップS11において、制御部63は、映像の投影条件として、プロジェクターの投影角または投影方向の変更を決定してもよい。この場合の処理では、制御部63は、例えば、投影制限領域を含む2次元平面に対応するプロジェクターへ、投影角または投影方向を所定角度変更させる制御指令を送信する。この投影制限領域が投影範囲から外れる角度である。この制御指令を受信したプロジェクターは、投影角または投影方向を所定角度変更する。或いは、制御部63は、映像の投影条件として、プロジェクターから発光する光の照度低下を決定してもよい。この場合の処理では、制御部63は、例えば、投影制限領域を含む2次元平面に対応するプロジェクターへ、照度を低下させる制御指令を送信する。この制御指令を受信したプロジェクターは、発光部から発する光の照度(明るさ)を低下する。或いは、制御部63は、映像の投影条件として、投影対象のオリジナル映像の変更を決定してもよい。この場合の処理では、制御部63は、例えば、投影制限領域を含む2次元平面に対応するプロジェクターに投影させる映像として黒画像を生成する。なお、投影制限領域が含まれない2次元平面に対応するプロジェクターに投影させる映像は、上記と同様、投影対象のオリジナル映像から生成される。
図7(A)に示すように、プロジェクター5eから映像を投影していないとき、例えばプロジェクター5cからの投影光によりスクリーンScには人物の影ができている。一方、図7(B)に示すように、プロジェクター5eから映像を投影しているとき、例えばプロジェクター5cからの投影光による影は、プロジェクター5eからの映像により消されることになる。ところで、図7(C)に示す従来例のように、平面的な頭部輪郭だけを考慮して黒色の画像を合成するマスク処理を行う場合、頭部輪郭より少し広い範囲にマスク処理を行うことが望ましい。しかし、この場合、頭部輪郭外のマスク処理がされた領域の映像は、上記影とは異なり、黒色の映像であるため、プロジェクター5eからの映像により消すことができず、プロジェクター5eの輝度及び解像度による不自然な像を形成しまうため、スクリーンScを見ている人物に対して違和感を与えてしまう。特に、遠距離から投影した場合、頭部輪郭外のマスク処理がされた部分は、図7(C)の「拡大」で示すように、解像度の関係により頭部輪郭の周りにドットが視認できてしまう。一方、図7(D)に示す本実施例のように、人物の頭部の3次元モデルに視界の範囲を考慮して投影制限領域を設定し2次元平面への投影変換を経てマスク処理を行う構成の場合、マスク処理がされる範囲を限定的にすることができる。このため、マスク処理がされた映像が例えばスクリーンScには投影されないので、スクリーンScを見ている人物に対して違和感を与えないようにすることができる。特に、人物の正面にあるスクリーンScに投影されている映像は最も視界(知覚認知が高い)に入るが、本実施例によれば、不自然な像が投影されることを防ぐことができる。
以上説明したように、再生制御装置6は、3次元空間にいる人物の複数の部位の位置を含む部位情報を取得し、取得した部位情報に基づいて人物の頭部の3次元モデルを生成し、取得した部位情報に基づいて人物の視線方向を特定し、特定した視線方向に基づいて頭部の3次元モデルの表面に投影制限領域を設定する。そして、再生制御装置6は、3次元モデルの投影制限領域を、複数のプロジェクター5a〜5dそれぞれが映像を投影する2次元平面ごとに投影変換し、投影制限領域が投影変換された2次元平面に投影するプロジェクター5a〜5dにより投影される映像の投影条件を決定する。このため、本実施形態によれば、複数のプロジェクター5a〜5dからの投影光を人物の視界に応じて制限することができる。例えば、人物の視界に入る範囲の投影光を適切に制限することで眩しさを低減することができる。一方、プロジェクターからの投影光が人物に当たっても人物の視覚に影響しない範囲(投影光を制限する必要のない範囲)まで投影光が制限されることを防ぐことで、人物に対して違和感を与えないようにすることができる。
1 表示・操作デバイス
2 楽曲再生装置
3 カメラ
4a〜4e 映像再生装置
5a〜5e プロジェクター
6 再生制御装置
S 投影システム

Claims (6)

  1. 配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムに用いられる制御装置であって、
    前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得手段と、
    前記取得手段により取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成手段と、
    前記取得手段により取得された部位情報から、前記人物の視線方向を特定する特定手段と、
    前記生成手段により生成された頭部の3次元モデルの表面に、前記特定手段により特定された視線方向の領域を含む投影制限領域を設定する設定手段と、
    前記設定手段により設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換手段と、
    前記変換手段により前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定手段と、
    を備えることを特徴とする制御装置。
  2. 前記設定手段は、前記視線方向を基準とする前記人物の視界の範囲を、前記3次元モデルの表面に投影制限領域として設定することを特徴とする請求項1に記載の制御装置。
  3. 前記取得手段は、前記人物の頭部の位置と、前記人物の右肩部の位置と、前記人物の左肩部の位置とを含む前記部位情報を取得するものであり、
    前記部位情報の中で、前記人物の頭部に対応する前記部位情報と、前記人物の右肩部に対応する前記部位情報と、前記人物の左肩部に対応する前記部位情報とに基づいて、法線ベクトルを算出する算出手段を更に備え、
    前記特定手段は、前記算出手段により算出された法線ベクトルの方向を前記視線方向として特定することを特徴とする請求項1または2に記載の制御装置。
  4. 前記部位情報は、前記部位の回転角であって、前記部位に連結される他の部位を基準とする回転角を含み、
    前記部位情報のそれぞれに含まれる前記回転角に基づいて、前記頭部の回転角を算出する算出手段を更に備え、
    前記特定手段は、前記算出手段により算出された回転角から前記視線方向を特定することを特徴とする請求項1または2に記載の制御装置。
  5. 配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムに用いられる制御装置に用いられるコンピュータに実行させるプログラムであって、
    前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得ステップと、
    前記取得ステップにより取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成ステップと、
    前記取得ステップにより取得された部位情報から、前記人物の視線方向を特定する特定ステップと、
    前記生成ステップにより生成された頭部の3次元モデルの表面に、前記特定ステップにより特定された視線方向の領域を含む投影制限領域を設定する設定ステップと、
    前記設定ステップにより設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換ステップと、
    前記変換ステップにより前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定ステップと、
    をコンピュータに実行させることを特徴とするプログラム。
  6. 配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムであって、
    前記投映システムが備える制御装置は、
    前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得手段と、
    前記取得手段により取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成手段と、
    前記取得手段により取得された部位情報から、前記人物の視線方向を特定する特定手段と、
    前記生成手段により生成された頭部の3次元モデルの表面に、前記特定手段により特定された視線方向の領域を含む投影制限領域を設定する設定手段と、
    前記設定手段により設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換手段と、
    前記変換手段により前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定手段と、
    を備えることを特徴とする投影システム。
JP2015037920A 2015-02-27 2015-02-27 制御装置、プログラム、及び投影システム Active JP6354620B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015037920A JP6354620B2 (ja) 2015-02-27 2015-02-27 制御装置、プログラム、及び投影システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037920A JP6354620B2 (ja) 2015-02-27 2015-02-27 制御装置、プログラム、及び投影システム

Publications (2)

Publication Number Publication Date
JP2016161626A JP2016161626A (ja) 2016-09-05
JP6354620B2 true JP6354620B2 (ja) 2018-07-11

Family

ID=56844890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037920A Active JP6354620B2 (ja) 2015-02-27 2015-02-27 制御装置、プログラム、及び投影システム

Country Status (1)

Country Link
JP (1) JP6354620B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6885127B2 (ja) * 2017-03-22 2021-06-09 日本電気株式会社 表示制御装置、表示制御方法およびプログラム
WO2021202526A1 (en) * 2020-03-30 2021-10-07 Sg Gaming, Inc. Gaming state object tracking

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7468778B2 (en) * 2002-03-15 2008-12-23 British Broadcasting Corp Virtual studio system
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
JP6212984B2 (ja) * 2013-06-27 2017-10-18 カシオ計算機株式会社 投影装置、投影方法及びプログラム

Also Published As

Publication number Publication date
JP2016161626A (ja) 2016-09-05

Similar Documents

Publication Publication Date Title
US9030532B2 (en) Stereoscopic image display
US9229584B2 (en) Information input apparatus
CN102289564B (zh) 来自多个视听源的信息的合成
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP6674192B2 (ja) 画像処理装置と画像処理方法
JP6627861B2 (ja) 画像処理システムおよび画像処理方法、並びにプログラム
KR101304111B1 (ko) 댄싱 가라오케 시스템
JP5256269B2 (ja) データ生成装置、データ生成装置の制御方法、及びプログラム
JP2001125738A (ja) プレゼンテーション制御システム及びその制御方法
WO2017051570A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2011133955A (ja) 映像再生装置及び映像再生方法
JP5727207B2 (ja) 画像監視装置
JPH11212582A (ja) 振り付け採点機能を有するカラオケ装置
JP6354620B2 (ja) 制御装置、プログラム、及び投影システム
JP5258387B2 (ja) 照明装置、空間演出システム
JP6680294B2 (ja) 情報処理装置、情報処理方法、プログラム及び画像表示システム
JP2011187086A (ja) 映像再生装置及び映像再生方法
JP6398938B2 (ja) 投影制御装置、及びプログラム
JP2009212582A (ja) バーチャルスタジオ用フィードバックシステム
KR100742664B1 (ko) 인터랙티브 영상의 디스플레이 시스템 및 방법
US20230226460A1 (en) Information processing device, information processing method, and recording medium
TW201839723A (zh) 可互動的動畫展示系統
JP2006222694A (ja) ユーザに立ち位置を通知するためのデータ処理装置およびプログラム
US20230068299A1 (en) Information processing device, information processing method, and computer program
JP2017069844A (ja) 投影制御装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180528

R150 Certificate of patent or registration of utility model

Ref document number: 6354620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150