JP7217422B2 - 投影制御装置、投影制御方法および投影制御システム - Google Patents

投影制御装置、投影制御方法および投影制御システム Download PDF

Info

Publication number
JP7217422B2
JP7217422B2 JP2018150634A JP2018150634A JP7217422B2 JP 7217422 B2 JP7217422 B2 JP 7217422B2 JP 2018150634 A JP2018150634 A JP 2018150634A JP 2018150634 A JP2018150634 A JP 2018150634A JP 7217422 B2 JP7217422 B2 JP 7217422B2
Authority
JP
Japan
Prior art keywords
projection
image
unit
target
derivation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018150634A
Other languages
English (en)
Other versions
JP2020027976A (ja
JP2020027976A5 (ja
Inventor
秀幸 中村
竜司 渕上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018150634A priority Critical patent/JP7217422B2/ja
Priority to US17/266,732 priority patent/US11606541B2/en
Priority to PCT/JP2019/031249 priority patent/WO2020032140A1/ja
Priority to CN201980066572.0A priority patent/CN112840640B/zh
Publication of JP2020027976A publication Critical patent/JP2020027976A/ja
Publication of JP2020027976A5 publication Critical patent/JP2020027976A5/ja
Application granted granted Critical
Publication of JP7217422B2 publication Critical patent/JP7217422B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Description

本開示は、被投影物への画像の投影を制御する投影制御装置、投影制御方法および投影制御システムに関する。
特許文献1では、電子カメラによって撮像された被投影物の像を含む画像を入力し、その入力された画像を電子カメラの座標系から表示画面の座標系に座標変換し、座標変換された画像のうち被投影物の像の閉領域を抽出するプロジェクションマッピング装置の画像処理装置が開示されている。この画像処理装置は、抽出された閉領域にオブジェクトをマッピングし、マッピングされたオブジェクトを含む画面の映像信号を生成する。特許文献1によれば、画像処理装置は、被投影物が形状変化や移動等をしても、被投影物の表面にテクスチャをマッピングできる。
特開2013-192189号公報
しかしながら、特許文献1の構成では、被投影物の形状変化あるいは移動等のイベントが生じている間は被投影物の像の閉領域(言い換えると、被投影物の輪郭)の特定を継続する必要があり、被投影物の像の閉領域の抽出に画像処理装置に対して相応の処理負荷がかかってしまう。このため、例えば、被投影物がダンサーのように速い動きを行う人物である場合、そのダンサーの速い動きに追従して被投影物の像の輪郭を特定する処理が困難となり、追従性が劣化し得るという課題があった。
また、例えば、ダンサー等の人物を被投影物とした場合に、演出家等のユーザとしては、被投影物であるダンサーの位置に対してどの位置にコンテンツ画像を投影するかを簡単に指定できれば、ユーザへの利便性の向上が期待される。しかし、特許文献1の構成では、上述したユーザへの利便性の向上を図ることが容易ではない。
本開示は、上述した従来の事情に鑑みて案出され、被投影物の周囲にいる対象物の動きに追従したコンテンツ画像の的確かつ簡易な投影位置の指定に基づく投影の制御を実現し、ユーザの利便性の向上を適応的に支援する投影制御装置、投影制御方法および投影制御システムを提供することを目的とする。
本開示は、被投影物の周囲に位置する対象物を撮像する撮像装置との間で通信可能に接続される通信部と、前記被投影物へ投影するコンテンツ画像に関するパラメータの指定と前記対象物を含む前記被投影物の画像とに基づいて、前記コンテンツ画像の投影位置を導出する導出部と、導出された前記投影位置に前記コンテンツ画像を配置した投影画像を生成する投影画像生成部と、生成された前記投影画像の投影指示を、前記通信部を介して投影装置に送信する制御部と、を備え、前記投影位置に関するパラメータは、角度あるいは方向と画素数(n:2以上の整数)とを含み、前記導出部は、前記被投影物の画像の前記角度あるいは方向に対応した始端から前記画像の終端まで走査を行い、前記走査中に前記対象物の画像内の第n番目の画素の検出位置を基にして、前記投影位置を導出する、投影制御装置を提供する。
また、本開示は、投影制御装置における投影制御方法であって、被投影物の周囲に位置する対象物を撮像する撮像装置との間で通信可能に接続するステップと、前記被投影物へ投影するコンテンツ画像に関するパラメータの指定と前記対象物を含む前記被投影物の画像とに基づいて、前記コンテンツ画像の投影位置を導出するステップと、導出された前記投影位置に前記コンテンツ画像を配置した投影画像を生成するステップと、生成された前記投影画像の投影指示を投影装置に送信するステップと、を有し、前記投影位置に関するパラメータは、角度あるいは方向と画素数(n:2以上の整数)とを含み、前記導出において、前記被投影物の画像の前記角度あるいは方向に対応した始端から前記画像の終端まで走査を行い、前記走査中に前記対象物の画像内の第n番目の画素の検出位置を基にして、前記投影位置を導出する、投影制御方法を提供する。
また、本開示は、被投影物の周囲に位置する対象物を撮像する撮像装置と、投影制御装置とが通信可能に接続された投影制御システムであって、前記投影制御装置は、前記被投影物へ投影するコンテンツ画像に関するパラメータの指定と前記対象物を含む前記被投影物の画像とに基づいて、前記コンテンツ画像の投影位置を導出する導出部と、導出された前記投影位置に前記コンテンツ画像を配置した投影画像を生成する投影画像生成部と、生成された前記投影画像の投影指示を投影装置に送信する制御部と、を備え、前記投影位置に関するパラメータは、角度あるいは方向と画素数(n:2以上の整数)とを含み、前記導出部は、前記被投影物の画像の前記角度あるいは方向に対応した始端から前記画像の終端まで走査を行い、前記走査中に前記対象物の画像内の第n番目の画素の検出位置を基にして、前記投影位置を導出する、投影制御システムを提供する。
本開示によれば、被投影物の周囲にいる対象物の動きに追従したコンテンツ画像の的確かつ簡易な投影位置の指定に基づく投影の制御を実現でき、ユーザの利便性の向上を適応的に支援できる。
実施の形態1に係る投影制御システムの設置例を示す図 実施の形態1に係る投影制御システムのシステム構成例を詳細に示すブロック図 IRカメラの赤外撮像画像内の位置を示す座標(Xc,Yc)とプロジェクタにより投影される投影画像内の位置を示す座標(Xp,Yp)との間の座標変換のためのキャリブレーション例を示す説明図 スキャンの開始位置に対応する検出方向の説明図 0度(上)からのスキャン例を示す説明図 90度(右)からのスキャン例を示す説明図 315度(左上)からのスキャン例を示す説明図 スキャン中に検出される先端位置の説明図 角度による指定画面例を示す図 方向による指定画面例を示す図 画像による指定画面例を示す図 部位による指定画面例を示す図 タイムラインによる投影位置例とユーザ指定画面例とを対応付けて示す図 投影位置の計算対象領域の指定画面例を示す図 投影位置の計算対象領域の指定画面例を示す図 実施の形態1に係る投影制御装置の動作手順例を時系列に示すフローチャート
以下、添付図面を適宜参照しながら、本開示に係る投影制御装置、投影制御方法および投影制御システムを具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
以下、実施の形態に係る投影制御システムは、例えば、店舗に敷設されたスクリーン(被投影物の一例)にいる人物(対象物の一例)の形状を、可視カメラ(撮像装置の一例)あるいはIR(Infrared Ray)カメラ(撮像装置の一例)による撮像画像に基づいて認識する。投影制御システムは、その認識された人物の形状とユーザ(例えば、投影制御システム100の管理者あるいは運営者)により指定されたパラメータ(後述参照)とに基づいて、予め記録されるコンテンツ画像を投影位置に配置した投影画像を生成し、その生成された投影画像をプロジェクタからスクリーンに向けて投影する。投影制御システムは、店舗内(言い換えると、屋内)に設置されてもよいし、店舗外(言い換えると、屋外)に設置されてもよい。
(投影制御システムの構成)
図1は、実施の形態1に係る投影制御システム100の設置例を示す図である。投影制御システム100は、プロジェクタ10と、IR照明20と、スクリーン30と、IRカメラ40と、可視カメラ40Cと、投影制御装置50とを少なくとも含む構成である。投影制御装置50には、入力装置IPおよび表示装置DPが、それぞれデータもしくは情報の入出力が可能に接続される。なお、プロジェクタ10と、IR照明20と、スクリーン30と、IRカメラ40と、可視カメラ40Cと、投影制御装置50と、入力装置IPと、表示装置DPとのうち一部あるいは全部は、一体の装置内に構成されてもよい。また、例えば入力装置IP、表示装置DP、コンテンツ格納データベース53、記録装置54はそれぞれ、投影制御装置50とネットワークを介して接続された別体として構成されてもよい。さらに、投影制御装置50は、入力装置IPおよび表示装置DPを含む構成としてもよい。
プロジェクタ10(投影装置の一例)は、例えば円筒状の筐体を有し、投影制御装置50との間でデータもしくは情報の送受信が可能に接続される。プロジェクタ10は、スクリーン30に対向して配置される。プロジェクタ10は、投影制御装置50から送られた投影指示に含まれる投影画像を受信すると、その投影指示に基づき、その投影指示により指定された投影画像をスクリーン30に投影するための投影光(例えば可視光)を生成してスクリーン30に向けて投影する。これにより、プロジェクタ10は、投影制御装置50により指定された投影画像(後述参照)をスクリーン30に投影可能となる。プロジェクタ10の詳細については、図2を参照して説明する。
IR照明20(光源装置の一例)は、複数の照明素子(例えば、IR光(近赤外光)を発光するLED(Light Emission Diode)素子)とそれぞれの照明素子における発光の有無を制御するための制御基板(図示略)とが内蔵された筐体を有し、プロジェクタ10の筐体とは別体である。IR照明20は、投影制御装置50との間でデータもしくは情報の送受信が可能に接続されてもよいし、投影制御装置50との間でデータもしくは情報の送受信が通信可能に接続されなくてもよい。IR照明20は、プロジェクタ10と同様に、スクリーン30に対向するように配置されてもよいし、スクリーン30を挟んで反対側に配置されてもよい。IR照明20は、例えば、投影制御システム100の管理者の手動操作、または投影制御装置50からの制御指示に基づき、電源オン状態となり、上述した投影光とは波長帯域の異なるIR光をスクリーン30に向けて照射する。
なお、IR照明20は、例えば、プロジェクタ10の円筒形状の筐体の半径方向の周囲に沿って一体的に取り付けられた円筒形状の筐体を有してもよい。この場合には、この円筒形状の筐体内に、複数の照明素子(例えば、IR光を発光するLED素子)と制御基板(上述参照)とが内蔵される。つまり、複数の照明素子(例えば、IR光を発光するLED素子)は、プロジェクタ10の円筒形状の筐体の半径方向の周囲に沿って円環状に並べて配置される。
投影制御システム100では、IR照明20から照射されるIR光は、プロジェクタ10から投影される投影光(可視光)とは波長帯域が異なり、IRカメラ40は可視光でなくIR光を受光して撮像する。これは、投影制御装置50が、IRカメラ40が撮像した赤外撮像画像に基づいて、IRカメラ40の画角内に含まれるように配置されたスクリーン30の周囲(例えば手前)に存在する対象物HM1(例えば、人物)の位置を誤認識すること無く高精度に検出するためである。
スクリーン30(被投影物の一例)は、例えばスクリーン30の表側にIR照明20が設置される場合、IR照明20から照射された赤外光を反射あるいは吸収が可能な材料を用いて形成され、固定的に設置される。なお、スクリーン30は、例えばスクリーン30の裏側にIR照明20が設置される場合、IR照明20から照射された赤外光を透過が可能な材料を用いて形成され、固定的に設置されてもよい。スクリーン30の表側および裏側は、図1に従う。スクリーン30により反射されたIR光あるいはスクリーン30を透過したIR光は、IRカメラ40に受光される。
IRカメラ40(撮像装置の一例)は、投影制御装置50との間でデータもしくは情報の送受信が可能に接続される。IRカメラ40は、スクリーン30の全体(全域)をすっぽり画角内に含むように対向して配置される。IRカメラ40は、IR照明20からIR光が照射された際にIRカメラ40に入射するIR光を受光し、その受光されたIR光に基づいて撮像することで、赤外撮像画像(以下、「IR画像」ともいう)を生成する。IRカメラ40は、生成されたIR画像を投影制御装置50に送る。IRカメラ40の詳細については、図2を参照して説明する。
なお、図1に示すように、プロジェクタ10とIRカメラ40、またはIR照明20とIRカメラ40は、互いに同軸上に存在するように配置されなくてよい。
可視カメラ40C(撮像装置の一例)は、投影制御装置50との間でデータもしくは情報の送受信が可能に接続される。可視カメラ40Cは、スクリーン30の全体(全域)をすっぽり画角内に含むように対向して配置される。可視カメラ40Cは、スクリーン30を透過した可視光を含む環境光を受光し、その受光された環境光に基づいて撮像することで、可視撮像画像(つまり、赤(R),緑(G),青(B)のそれぞれの色味成分に基づくカラー画像)を生成する。可視カメラ40Cは、生成された可視撮像画像を投影制御装置50に送る。可視カメラ40Cの詳細については、図2を参照して説明する。
なお、図1に示すように、可視カメラ40Cは、スクリーン30に対して、IRカメラ40と同じ側に配置される。可視カメラ40Cは、例えば、プロジェクタ10の周囲に配置される。これにより、可視カメラ40Cは、スクリーン30の周囲にいる人物等の対象物HM1の形状を視覚的かつ具体的に特定可能な可視撮像画像を撮像可能となる。
対象物HM1(例えば、人物)は、スクリーン30のIRカメラ40側に設けられた対象物領域ARF1内に位置するのであれば、図1に示す位置そのものに限定されない。つまり、対象物HM1は、対象物領域ARF1内のいずれの場所に位置してよい。対象物領域ARF1は、スクリーン30と同様に、IR照明20とIRカメラ40との間に位置する人物が存在するエリアである。また、対象物領域ARF1は、対象物HM1(例えば、人物)から見て、例えば、床に枠線等が描画されていること等によって具体的に可視化されている方が好ましい。これにより、人物等の対象物HM1が対象物領域ARF1外へ移動することを抑制可能となる。但し、対象物領域ARF1の可視化は必須でなくてもよい。また、対象物領域ARF1は、例えば、プロジェクタ10、別のプロジェクタ(図示略)、看板、またはシステム管理者等によって、「スクリーンの前に立ってください」という示唆によって、人物等の対象物HM1に指示されてもよい。
投影制御装置50は、例えば、PC(Personal Computer)もしくはタブレット端末等の有線もしくは無線の通信が可能な情報処理装置であり、少なくともプロジェクタ10、IRカメラ40、入力装置IP、表示装置DPとの間でデータもしくは情報の送受信が可能に接続される。投影制御装置50は、IRカメラ40により撮像された赤外撮像画像に基づいて、スクリーン30の周囲(例えば手前)に位置する人物等の対象物HM1の有無、その人物等の対象物HM1のスクリーン30に対する位置を示す形状を認識する。
また、投影制御装置50は、スクリーン30に投影される対象となるコンテンツ画像を保持しており、このコンテンツ画像を投影するための投影位置をユーザに指定させるための指定画面(例えば、図5A、図5B、図5C、図5D参照)を表示装置DPに表示する。投影制御装置50は、その指定画面に指定されたパラメータ(後述参照)に基づいて、コンテンツ画像の投影位置を計算して導出し、その投影位置にコンテンツ画像を配置した投影画像を生成してプロジェクタ10に送る。投影制御装置50の詳細については、図2を参照して説明する。
入力装置IPは、例えば、キーボードあるいはマウス等の、投影制御システム100のユーザ(例えば、投影制御システム100の管理者もしくは運営者)の操作を受け付け可能なデバイスであり、ユーザの操作に応じた信号を投影制御装置50に送出するユーザインターフェースである。
表示装置DPは、例えば、LCD(Liquid Crystal Display)もしくは有機EL(Electroluminescence)ディスプレイを用いて構成され、投影制御装置50から送出されたデータもしくは情報の表示指示を取得し、その取得された表示指示に含まれるデータもしくは情報の表示を行う。なお、表示装置DPは、ユーザの操作を受け付けて検出可能なタッチパネルとして構成されてもよい。なお、実施の形態1に係る投影制御システム100において、入力装置IPや表示装置DPは省略されてもよい。
図2は、実施の形態1に係る投影制御システム100のシステム構成例を詳細に示すブロック図である。
プロジェクタ10は、通信インターフェース11と、制御部12と、投影部13と、メモリ14とを含む構成である。図2のプロジェクタ10の構成において、通信インターフェースを便宜的に「通信I/F」と記載している。
通信インターフェース11は、投影制御装置50との間のデータもしくは情報の送受信(通信)が可能な通信回路により構成され、投影制御装置50から送られる投影画像を含む投影指示を受信すると、その投影指示を制御部12に送る。
制御部12は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field Programmable Gate Array)を用いて構成されたプロセッサPRC1である。制御部12は、プロジェクタ10の全体的な動作を司るコントローラとして機能し、プロジェクタ10の各部の動作を統括するための制御処理、プロジェクタ10の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。制御部12は、メモリ14に記憶されたプログラムおよびデータに従って動作する。制御部12は、動作時にメモリ14を使用し、制御部12が生成または取得したデータもしくは情報をメモリ14に一時的に保存する。
投影部13は、制御部12により投影の制御を受け、投影制御装置50により生成された投影画像に対応する投影光(可視光)を出射してスクリーン30に投影する。具体的には、投影部13は、制御部12から送られた投影画像に基づいて、その投影画像をスクリーン30に投影するための投影光を出射する。投影部は、例えば、光源、ミラー、レンズ等により構成される。
メモリ14は、例えばRAM(Random Access Memory)とROM(Read Only Memory)とを用いて構成され、プロジェクタ10の動作の実行に必要なプログラムおよびデータ、さらには、動作中に生成されたデータもしくは情報を一時的に保持する。RAMは、例えば、プロジェクタ10の動作時に使用されるワークメモリである。ROMは、例えば、プロジェクタ10を制御するためのプログラムおよびデータを予め記憶して保持する。
IRカメラ40は、IR撮像部41と、制御部42と、通信インターフェース43と、メモリ44とを含む構成である。図2のIRカメラ40の構成においても、同様に通信インターフェースを便宜的に「通信I/F」と記載している。
IR撮像部41は、IR照明20から照射されたIR光がスクリーン30を透過あるいは反射して入射した光を受光可能なレンズ(図示略)と、その入射光に基づく赤外撮像画像を撮像可能なイメージセンサ(図示略)とを含む構成である。IR撮像部41の出力は制御部42に送られる。
制御部42は、例えば、CPU、MPU、DSPもしくはFPGAを用いて構成されたプロセッサPRC2である。制御部42は、IRカメラ40の全体的な動作を司るコントローラとして機能し、IRカメラ40の各部の動作を統括するための制御処理、IRカメラ40の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。制御部42は、メモリ44に記憶されたプログラムおよびデータに従って動作する。制御部42は、動作時にメモリ44を使用し、制御部42が生成または取得したデータもしくは情報をメモリ44に一時的に保存する。制御部42は、例えばIR撮像部41のイメージセンサの出力に基づいて所定の画像処理を施すことで、赤外撮像画像のデータを生成する。
通信インターフェース43は、投影制御装置50との間のデータもしくは情報の送受信(通信)が可能な通信回路により構成され、制御部42により生成された赤外撮像画像を取得すると、その取得された赤外撮像画像を投影制御装置50に送信する。
メモリ44は、例えば、RAMとROMとを用いて構成され、IRカメラ40の動作の実行に必要なプログラムおよびデータ、さらには、動作中に生成されたデータもしくは情報を一時的に保持する。RAMは、例えば、IRカメラ40の動作時に使用されるワークメモリである。ROMは、例えば、IRカメラ40を制御するためのプログラムおよびデータを予め記憶して保持する。
可視カメラ40Cは、可視撮像部41Cと、制御部42Cと、通信インターフェース43Cと、メモリ44Cとを含む構成である。図2の可視カメラ40Cの構成においても、同様に通信インターフェースを便宜的に「通信I/F」と記載している。
可視撮像部41Cは、スクリーン30を透過した可視光等の環境光を受光可能なレンズ(図示略)と、その環境光に基づく可視撮像画像を撮像可能なイメージセンサ(図示略)とを含む構成である。可視撮像部41Cの出力は制御部42Cに送られる。
制御部42Cは、例えば、CPU、MPU、DSPもしくはFPGAを用いて構成されたプロセッサPRC3である。制御部42Cは、可視カメラ40Cの全体的な動作を司るコントローラとして機能し、可視カメラ40Cの各部の動作を全体的に統括するための制御処理、可視カメラ40Cの各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。制御部42Cは、メモリ44Cに記憶されたプログラムおよびデータに従って動作する。制御部42Cは、動作時にメモリ44Cを使用し、制御部42Cが生成または取得したデータもしくは情報をメモリ44Cに一時的に保存する。制御部42Cは、例えば、可視撮像部41Cのイメージセンサの出力に基づいて所定の画像処理を施すことで、可視撮像画像のデータを生成する。
通信インターフェース43Cは、投影制御装置50Cとの間のデータもしくは情報の送受信(通信)が可能な通信回路により構成され、制御部42Cにより生成された可視撮像画像を取得すると、その取得された可視撮像画像を投影制御装置50Cに送信する。
メモリ44Cは、例えば、RAMとROMとを用いて構成され、可視カメラ40Cの動作の実行に必要なプログラムおよびデータ、さらには、動作中に生成されたデータもしくは情報を一時的に保持する。RAMは、例えば、可視カメラ40Cの動作時に使用されるワークメモリである。ROMは、例えば、可視カメラ40Cを制御するためのプログラムおよびデータを予め記憶して保持する。
投影制御装置50は、入出力インターフェース51と、メモリ52と、コンテンツ格納データベース(DB:Database)53と、記録装置54と、プロセッサ55とを含む構成である。入出力インターフェース51と、メモリ52と、コンテンツ格納データベース53と、記録装置54と、プロセッサ55とは、それぞれ内部バスBS1を介して、データもしくは情報の入出力が可能に接続される。
入出力インターフェース51は、プロジェクタ10、IRカメラ40、入力装置IPおよび表示装置DPのそれぞれとの間で有線あるいは無線のデータもしくは情報の送受信が可能な入出力回路により構成される。なお、図2では図示が省略されているが、入出力インターフェース51はIR照明20との間で有線あるいは無線のデータもしくは情報の送受信が可能に接続されてよい。
メモリ52は、例えば、RAMとROMとを用いて構成され、投影制御装置50の動作の実行に必要なプログラムおよびデータ、さらには、動作中に生成されたデータもしくは情報を一時的に保持する。RAMは、例えば、投影制御装置50の動作時に使用されるワークメモリである。ROMは、例えば、投影制御装置50を制御するためのプログラムおよびデータを予め記憶して保持する。具体的には、ROMは、プロセッサ55に、キャリブレーション部551、シルエット画像生成部552、投影位置計算部553および投影画像生成部554のそれぞれを機能的に実現可能とさせるためのプログラムおよびデータを保持する。これらの各部を機能的に実現させるためのプログラムおよびデータは、例えば、DLL(Dynamic Link Library)として、実行時にプロセッサ55により読み出されて動的に実行される。これにより、プロセッサ55は、キャリブレーション部551、シルエット画像生成部552、投影位置計算部553および投影画像生成部554のそれぞれを機能的に実現可能となる。
また、メモリ52は、例えばIRカメラ40により生成される赤外撮像画像の解像度(具体的には、縦方向の画素数(ピクセル)、横方向の画素数(ピクセル))の情報と、プロジェクタ10により投影されるスクリーン30の大きさ(面積)の情報とを保持している。
コンテンツ格納データベース53(コンテンツ保持部の一例)は、例えば、HDD(Hard Disk Drive)もしくはSSD(Solid State Drive)を用いて構成され、プロジェクタ10により投影される投影画像に配置されるためのコンテンツ画像のデータを記憶保持している。
記録装置54は、例えば、HDDもしくはSSDを用いて構成され、投影制御装置50が入力装置IP、IRカメラ40あるいは可視カメラ40Cから送られたデータもしくは情報を記録したり、プロジェクタ10により投影させるための投影画像のデータ(具体的には、プロセッサ55により生成される投影画像のデータ)を記録したりする。
プロセッサ55は、例えば、CPU、MPU、DSPもしくはFPGAを用いて構成される。プロセッサ55は、投影制御装置50の全体的な動作を司るコントローラとして機能し、投影制御装置50の各部の動作を統括するための制御処理、投影制御装置50の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサ55は、メモリ52に記憶されたプログラムおよびデータに従って動作する。プロセッサ55は、動作時にメモリ52を使用し、プロセッサ55が生成または取得したデータもしくは情報をメモリ52に一時的に保存する。
プロセッサ55は、例えば、キャリブレーション部551と、シルエット画像生成部552と、投影位置計算部553と、投影画像生成部554とを少なくとも含む構成である。上述したように、キャリブレーション部551、シルエット画像生成部552、投影位置計算部553および投影画像生成部554のそれぞれは、例えば、プロセッサ55がメモリ52に予め記憶されたプログラムおよびデータを読み込んで実行することで、機能的に実現可能となる。
キャリブレーション部551は、IRカメラ40により生成される赤外撮像画像内の位置(具体的には、座標)とプロジェクタ10により投影される投影画像内の位置(具体的には、座標)との対応関係を定める変換処理の関係式(例えば、射影変換行列)を求める処理(つまり、キャリブレーション)を行う。具体的には、キャリブレーション部551は、赤外撮像画像内で投影画像の四隅がどこに位置するかを、ユーザの入力装置IPを用いた指定または所定の画像処理(例えば、エッジ検出処理)によって検出し、例えば上述した射影変換行列を求める(図3参照)。なお、キャリブレーション部551は、可視カメラ40Cにより生成される可視撮像画像内の位置(具体的には、座標)とプロジェクタ10により投影される投影画像内の位置(具体的には、座標)との対応関係を定める変換処理の関係式(例えば、射影変換行列)を求める処理(つまり、キャリブレーション)を行ってもよい。具体的には、キャリブレーション部551は、可視撮像画像内で投影画像の四隅がどこに位置するかを、ユーザの入力装置IPを用いた指定または所定の画像処理(例えば、エッジ検出処理)によって検出し、例えば上述した射影変換行列を求める。
図3は、IRカメラ40の赤外撮像画像IRG内の位置を示す座標(Xc,Yc)とプロジェクタ10により投影される投影画像PJR内の位置を示す座標(Xp,Yp)との間の変換のためのキャリブレーション例を示す説明図である。赤外撮像画像IRG中の端点EG1,EG2,EG3,EG4のそれぞれは、例えば、赤外撮像画像IRGおよび投影画像PJRが対比的に表示装置DPに表示された状態で(図3参照)、ユーザの入力装置IPを用いた指定により選択された、投影画像PJRの四隅の端点CR1,CR2,CR3,CR4にそれぞれ対応する。
なお、上述したように、キャリブレーション部551は、赤外撮像画像IRGを画像処理(例えば、エッジ検出処理もしくは直線検出処理)を実行することで、ユーザの入力装置IPを用いた指定が無く、赤外撮像画像IRG中の端点EG1,EG2,EG3,EG4を自動的に検出してもよい。この場合、画像処理により検出された端点EG1,EG2,EG3,EG4がそれぞれ投影画像PJRの四隅の端点CR1,CR2,CR3,CR4に対応するものとして、キャリブレーション部551により選択される。
キャリブレーション部551は、赤外撮像画像IRG中の端点EG1,EG2,EG3,EG4の各座標と投影画像PJRの四隅の端点CR1,CR2,CR3,CR4の各座標とに基づき、赤外撮像画像IRG中の座標(Xc,Yc)を投影画像PJR中の座標(Xp,Yp)に変換するための射影変換行列を算出して求める。キャリブレーション部551は、求められた射影変換行列のデータもしくは情報をキャリブレーション結果としてメモリ52に保存する。これにより、投影制御装置50は、キャリブレーション結果を用いることで、赤外撮像画像IRG中の任意の座標(Xc,Yc)を、投影画像PJR中の対応する座標(Xp,Yp)に正確に変換して求めることができる。
なお、図1に示す投影制御システム100において、プロジェクタ10により投影される投影画像の解像度(言い換えると、大きさまたは面積)、IRカメラ40の位置が変更されない限り、キャリブレーション部551におけるキャリブレーションの処理は少なくとも一度実行すればよい。言い換えると、プロジェクタ10により投影される投影画像の解像度、またはIRカメラ40の位置が変更される度に、キャリブレーション部551におけるキャリブレーションの処理が少なくとも一度実行される。
また、キャリブレーション部551におけるキャリブレーションの方法は、上述した方法に限定されない。例えば、キャリブレーション部551は、公知のストラクチャードライト法を用いたキャリブレーションを実行することで、画素単位で赤外撮像画像IRG内の座標を投影画像PJR内の対応する座標に変換することも可能である。
シルエット画像生成部552(対象物画像生成部の一例)は、可視カメラ40Cにより撮像された可視撮像画像に基づいて、その可視撮像画像の背景物を除去することで、人物等の対象物HM1の形状を特定可能なシルエット画像(対象物画像の一例)を生成する。例えば、白色のスクリーン30に対して人物等の対象物HM1が黒色のタイツを着用する場合、黒色のスクリーン30に対して人物等の対象物HM1が白色のタイツを着用する場合、あるいは、CG(Computer Graphics)で使用されるグリーンバックあるいはブルーバックが使用される場合には、シルエット画像生成部552は、背景物をより的確に除去したシルエット画像を生成可能である。
また、シルエット画像生成部552(対象物画像生成部の一例)は、IRカメラ40により撮像された赤外撮像画像に基づいて、人物等の対象物HM1の形状を特定可能なシルエット画像(対象物画像の一例)を生成する。例えば、IR照明20が使用され、かつ赤外線(IR光)を吸収可能な素材を有するスクリーン30に赤外線(IR光)を反射可能なマーカが使用される場合、あるいは、IR照明20が使用され、かつ赤外線(IR光)を反射可能な素材を有するスクリーン30に赤外線(IR光)を吸収可能なマーカが使用される場合、シルエット画像生成部552は、背景物をより的確に除去したシルエット画像を生成可能である。
なお、シルエット画像生成部552は、上述した可視カメラ40CあるいはIRカメラ40の撮像画像とkinect(登録商標)等の距離センサとを用いて、スクリーン30より手前の距離の領域を対象物HM1がいるシルエットとして認識し、その認識結果を用いてシルエット画像を生成してもよい。
投影位置計算部553(導出部の一例)は、指定画面(図5A,図5B,図5C,図5D参照)へのユーザ操作により指定されるパラメータ(投影位置に関するパラメータの一例)の指定と対象物HM1を含むスクリーン30の画像とに基づいて、スクリーン30に投影される投影画像中のコンテンツ画像の投影位置を導出する。パラメータは、例えば、角度および画素数(n:1以上の整数)である。但し、ノイズの影響を効果的に排除するためには、nは2以上の整数であることが好ましい。ここで、対象物HM1を含むスクリーン30の画像は、シルエット画像生成部552により生成されたシルエット画像である。このシルエット画像は、具体的には、上述したように、IRカメラ40により撮像された赤外撮像画像あるいは可視カメラ40Cにより撮像された可視撮像画像に基づいて生成され、または、kinect(登録商標)等の距離センサを用いて生成される。
具体的には、投影位置計算部553は、シルエット画像生成部552により生成されたシルエット画像を用いて、ユーザ操作により指定されたパラメータを満たす検出位置を先端位置(つまり、投影位置)として導出する。
ここで、パラメータを満たす検出位置について、図4A、図4B、図4C、図4Dおよび図4Eを参照して説明する。ここでは、説明を分かり易くするために、シルエット画像生成部552により生成されたシルエット画像FR1,FR2,FR3は、例えば、対象物HM1が黒色であって、その他の背景が白色の赤外撮像画像とする(図4B~図4E参照)。
図4Aは、スキャンの開始位置に対応する検出方向の説明図である。図4Bは、0度(上)からのスキャン例を示す説明図である。図4Cは、90度(右)からのスキャン例を示す説明図である。図4Dは、315度(左上)からのスキャン例を示す説明図である。図4Eは、スキャン中に検出される先端位置の説明図である。
投影位置計算部553は、投影位置を導出するために、シルエット画像生成部552により生成されたシルエット画像を、ユーザ操作により指定される角度の分だけ、画像処理の一例として、反時計周りに回転処理する。投影位置計算部553は、反時計周りの回転処理の後、回転処理されたシルエット画像における始端(例えば、左上の端点)から水平方向に順に、スキャン(走査)しながら画素値を読み出す。投影位置計算部553は、スキャン中に、対象物HM1の画像内の指定された画素数(n)と一致する第n番目の画素の検出位置を先端位置として導出する。
図4Aでは、シルエット画像FR0に対し、ユーザ操作により指定された角度に対応して投影位置計算部553により回転される角度が例示的に挙げられている。ここでは、ユーザ操作により指定される角度、あるいは角度に対応する方向として、「0度」あるいは「上」、「45度」あるいは「右上」、「90度」あるいは「右」、「180度」あるいは「下」、「270度」あるいは「左」、「315度」あるいは「左上」が挙げられている。なお、メモリ52には、ユーザ操作により指定される方向(例えば、「右上」,「下」)に対応する角度(例えば、「45度」,「180度」)の情報が予め登録されている。
例えば、ユーザ操作により角度「0」あるいは方向「上」が指定されると、投影位置計算部553は、シルエット画像FR1を0度反時計周りに回転処理し、その後、回転処理後のシルエット画像FR1の始端(例えば、左上の端点)から水平方向に順にスキャンしながら画素値を読み出す。投影位置計算部553は、スキャン中に、シルエットSL1(対象物HM1の一例)の画像内のユーザ操作により指定された画素数(n)と一致する第n番目の画素の検出位置TIP1を、先端位置(つまり、投影位置)として導出する(図4B参照)。
例えば、ユーザ操作により角度「90」あるいは方向「右」が指定されると、投影位置計算部553は、シルエット画像FR2を90度反時計周りに回転処理し、その後、回転処理後のシルエット画像FR2の始端(例えば、左上の端点)から水平方向に順にスキャンしながら画素値を読み出す。投影位置計算部553は、スキャン中に、シルエットSL2(対象物HM1の一例)の画像内のユーザ操作により指定された画素数(n)と一致する第n番目の画素の検出位置TIP2を、先端位置(つまり、投影位置)として導出する(図4C参照)。
例えば、ユーザ操作により角度「315」あるいは方向「左上」が指定されると、投影位置計算部553は、シルエット画像FR3を315度反時計周りに回転処理し、その後、回転処理後のシルエット画像FR3の始端(例えば、左上の端点)から水平方向に順にスキャンしながら画素値を読み出す。投影位置計算部553は、スキャン中に、シルエットSL3(対象物HM1の一例)の画像内のユーザ操作により指定された画素数(n)と一致する第n番目の画素の検出位置TIP3を、先端位置(つまり、投影位置)として導出する(図4D参照)。
図4Eに示されるように、投影位置計算部553は、シルエット画像FR1の一部(例えば、シルエットSL1の頭部付近を拡大した部分的シルエット画像PFR1)において、図4Bに示す要領でスキャンしている最中に、ユーザ操作により指定された画素数(例えば、6画素)と一致する第6番目の画素の検出位置TIP1を、先端位置(つまり、投影位置)として導出する。
ここで、ユーザ操作によりパラメータが指定されるための指定画面について、図5A、図5B、図5Cおよび図5Dを参照して説明する。図5Aは、角度による指定画面例を示す図である。図5Bは、方向による指定画面例を示す図である。図5Cは、画像による指定画面例を示す図である。図5Dは、部位による指定画面例を示す図である。
図5Aに示す指定画面UIF1は、例えば、プロセッサ55により表示装置DPに表示され、パラメータの一例としての開始タイミングおよび終了タイミングの項目と検出方向の項目と投影位置の項目とコンテンツの項目との各指定欄を有する。
開始タイミングおよび終了タイミングの項目には、プロジェクタ10によりコンテンツ画像が投影される投影時間の開始タイミングおよび終了タイミングが指定される。検出方向の項目には、例えば、上述した角度と画素数とが指定される。投影位置の項目には、例えば、投影位置計算部553により導出された投影位置からオフセットを与えて表示させるためのオフセット量を定義する指標(例えば、方向および距離)が指定される。距離の単位は、cm(センチメートル)の他に、mm(ミリメートル)あるいはピクセルでもよい。コンテンツの項目には、コンテンツ画像の名称が指定される。これにより、投影制御装置50のプロセッサ55は、指定された名称に対応するコンテンツ画像BB1を、その指定画面UIF1にプレビュー表示できる。
図5Bに示す指定画面UIF2は、例えば、プロセッサ55により表示装置DPに表示され、パラメータの一例としての開始タイミングおよび終了タイミングの項目と検出方向の項目と投影位置の項目とコンテンツの項目との各指定欄を有する。指定画面UIF2と指定画面UIF1との違いは、検出方向の項目であり、その他の項目は同一であるため、ここでは同一の内容の説明は省略して異なる内容を説明する。
検出方向の項目には、例えば、上述した角度に対応した方向と画素数とが指定される。
図5Cに示す指定画面UIF3は、例えば、プロセッサ55により表示装置DPに表示され、パラメータの一例としての検出方向の項目と投影位置の項目との各指定欄を有する。検出方向の項目には、例えば、画像形式の選択可能な指定画面GZ1から選択(指定)された角度あるいは角度に対応した方向と、画素数とが指定される。投影位置の項目には、例えば、上述したオフセット量の定義項目である方向および距離の各項目が指定される。これにより、投影制御装置50のプロセッサ55は、指定されたオフセット量に応じて、コンテンツ画像(例えば、コンテンツ画像BB1)の投影位置を判明可能なプレビュー画面GZ2を、その指定画面UIF2にプレビュー表示できる。
図5Dに示す指定画面UIF4は、例えば、プロセッサ55により表示装置DPに表示され、パラメータの一例としての検出部位の項目と投影位置の項目との各指定欄を有する。検出部位の項目には、例えば、人物等のシルエットの部位(例えば、頭)と、画素数とが指定される。投影位置の項目には、例えば、投影位置計算部553により導出された投影位置からオフセットを与えて表示させるためのオフセット量を定義する指標(例えば、方向および距離)が指定される。これにより、ユーザは、方向あるいは角度を指定しなくても、シルエットに対してコンテンツ画像を投影させる特徴的な部位を単に指定するだけで、その指定された部位の近傍にコンテンツ画像が配置された投影画像を視認できる。なお、メモリ52には、ユーザ操作により指定される部位(例えば、「頭」,「右手」)に対応する角度(例えば、「0度」,「270度」)の情報が予め登録されている。
投影画像生成部554は、IRカメラ40あるいは可視カメラ40Cにより撮像された対象物HM1を含むスクリーン30の画像と投影位置計算部553により導出された投影位置とに基づいて、プロジェクタ10からスクリーン30に投影させるための投影画像を生成する。
具体的には、投影画像生成部554は、シルエット画像生成部552により生成されたシルエット画像を取得する。投影画像生成部554は、そのシルエット画像(言い換えると、スクリーン30に対する対象物HM1の形状)とメモリ52に保持されるキャリブレーション結果と投影位置計算部553の導出結果とを用いて、シルエット画像内の対象物HM1の範囲を示す位置に対応して導出された投影位置またはその投影位置からオフセット量に応じた距離離れた位置に、コンテンツ格納データベース53から読み出したコンテンツ画像を配置した投影画像を生成する。プロセッサ55は、その生成された投影画像を含む投影指示を生成し、その生成された投影指示を、入出力インターフェース51を介してプロジェクタ10に送る。なお、投影画像に配置されるコンテンツ画像は、予めユーザの操作により選択されてもよいし、投影位置計算部553により導出された投影位置に応じて、複数のコンテンツ画像の中から選択されてもよい。
図6は、タイムライン指定による投影位置例とユーザ指定画面例とを対応付けて示す図である。図6の横軸は時間を示す。実施の形態1では、投影制御装置50は、ユーザ操作によるタイムラインの指定により、プロジェクタ10から投影される投影画像におけるコンテンツ画像の投影位置を時系列的に変更できる。
図6に示されるように、例えば、時刻t0から時刻t1までの間、ユーザ操作によって指定画面UIF11に指定されたパラメータ(例えば、投影時間、検出方向、投影位置、コンテンツの各指定欄、図4B参照)により、方向「左上」が指定されているので、投影制御装置50は、シルエット画像FR11のシルエットSL11の右手部分に相当する位置から指定されたオフセット量に応じた位置を投影位置として導出する。そして、投影制御装置50は、その導出された投影位置にコンテンツ画像BB1を配置した投影画像を、時刻t0~t1の間、投影する。
同様に、例えば、時刻t1から時刻t2までの間、ユーザ操作によって指定画面UIF12に指定されたパラメータ(例えば、投影時間、検出方向、投影位置、コンテンツの各指定欄、図4B参照)により、方向「上」が指定されているので、投影制御装置50は、シルエット画像FR12のシルエットSL12の頭部分に相当する位置から指定されたオフセット量に応じた位置を投影位置として導出する。そして、投影制御装置50は、その導出された投影位置にコンテンツ画像BB1を配置した投影画像を、時刻t1~t2の間、投影する。
同様に、例えば、時刻t2から時刻t3までの間、ユーザ操作によって指定画面UIF13に指定されたパラメータ(例えば、投影時間、検出方向、投影位置、コンテンツの各指定欄、図4B参照)により、方向「右上」が指定されているので、投影制御装置50は、シルエット画像FR13のシルエットSL13の左手部分に相当する位置から指定されたオフセット量に応じた位置を投影位置として導出する。そして、投影制御装置50は、その導出された投影位置にコンテンツ画像BB2を配置した投影画像を、時刻t2~t3の間、投影する。
図7Aおよび図7Bは、投影位置の計算対象領域の指定画面例を示す図である。シルエット画像生成部552により生成されたシルエット画像FR1には、IRカメラ40あるいは可視カメラ40Cによる撮像時の状況に応じて、ノイズ信号NZ1が重畳されることが起こり得る。このノイズ信号NZ1は、シルエット画像FR1内のシルエットと誤認識されてしまいかねない。
そこで、投影制御装置50のプロセッサ55は、図7Aに示すように、領域指定画面UIF5を表示装置DPに表示することで、ユーザ操作により、投影位置の計算(導出の一例)の対象となる領域を指定するよう促す。例えば、領域指定画面UIF5では、描画ツールPCL1を用いたユーザ操作により、ノイズ信号NZ1を除外するように、投影位置の計算の対象となる略楕円形状の領域が指定される。投影制御装置50は、この指定された領域内で、図4A~図4Eを参照して説明した方法によって、投影位置を計算(導出)する。
また、投影制御装置50のプロセッサは、図7Bに示すように、マスク領域画像指定画面UIF6を表示装置DPに表示することで、ユーザ操作により、投影位置の計算(導出の一例)の対象となる領域を指定するよう促してもよい。例えば、マスク領域画像指定画面UIF6では、ノイズ信号NZ1を除外するように、ユーザ操作により略楕円形状のマスク領域画像MSK1が指定される。投影制御装置50は、この指定されたマスク領域画像MSK1内で、図4A~図4Eを参照して説明した方法によって、投影位置を計算(導出)する。
(投影制御システムの作用)
次に、実施の形態1に係る投影制御装置50の動作手順について、図8を参照して説明する。図8は、実施の形態1に係る投影制御装置の動作手順例を時系列に示すフローチャートである。
図8において、投影制御装置50のプロセッサ55において、キャリブレーションの処理が既に実行されているかどうかが判別される(St1)。ステップS1の処理は、例えばプロセッサ55が、キャリブレーション部551におけるキャリブレーション結果がメモリ52に保持されているかどうかによって実行可能である。キャリブレーションの処理が既に実行されていると判別された場合には(St1、YES)、投影制御装置50の処理はステップSt3に進む。一方、キャリブレーションの処理が一度も実行されていないと判別された場合には(St1、NO)、キャリブレーション部551においてキャリブレーションの処理が実行される(St2)。
キャリブレーションの処理が既に実行されていると判別された場合(St1、NO)、またはステップSt2の処理の後、プロセッサ55は、投影位置に関するパラメータをユーザ操作により指定させるために、指定画面(例えば、図5A、図5B、図5Cあるいは図5D参照)を表示装置DPに表示する。ユーザ操作により、指定画面に、投影位置に関するパラメータ(上述参照)が入力されて指定される(St3)。ユーザ操作による投影位置に関するパラメータの指定が終了されるまで(St4、NO)、ステップSt3の処理が継続される。
ユーザ操作による指定が終了すると(St4、YES)、プロセッサ55は、領域指定画面UIF5あるいはマスク領域画像指定画面UIF6を表示装置DPに表示することで、ユーザ操作により、投影位置の計算(導出の一例)の対象となる領域を指定するよう促す(St5)。プロセッサ55は、ユーザ操作により指定された領域を、投影位置の計算(導出)の対象となる領域としてメモリ52に一時的に保持する。なお、ユーザ操作により領域が指定されない場合には、ステップSt5の処理は省略されてもよい。
プロセッサ55は、時刻t=tx(つまり、図5Aあるいは図5Bの指定画面において指定された投影時間)に一致した場合には(St6、YES)、メモリ52に一時的に保持された投影位置に関するパラメータを読み出す(St7)。
プロセッサ55は、ステップSt7の後、または時刻t=txに一致していない場合には(St6、NO)、IRカメラ40あるいは可視カメラ40Cにより撮像された画像を取得する(St8)。プロセッサ55のシルエット画像生成部552は、ステップSt8において取得された画像を用いて、人物等の対象物HM1の形状を特定可能なシルエット画像を生成する(St9)。
プロセッサ55の投影位置計算部553は、ステップSt9において生成されたシルエット画像とステップSt3において指定された投影位置に関するパラメータとを用いて、スクリーン30に投影される投影画像中のコンテンツ画像の投影位置を導出する(St10)。
プロセッサ55の投影画像生成部554は、ステップSt10において導出された投影位置の情報を用いて、シルエット画像とメモリ52に保持されるキャリブレーション結果と投影位置計算部553の導出結果とを用いて、シルエット画像内の対象物HM1の範囲を示す位置に対応して導出された投影位置またはその投影位置からオフセット量に応じた距離離れた位置に、コンテンツ格納データベース53から読み出したコンテンツ画像を配置した投影画像を生成する(St11)。
プロセッサ55は、ステップSt11において生成された投影画像を含む投影指示を生成し、その生成された投影指示を、入出力インターフェース51を介してプロジェクタ10に送る(St12)。これにより、プロジェクタ10は、投影制御装置50から送られた投影画像をスクリーン30に投影するための投影光(可視光)を、スクリーン30に向けて投影可能となる。
ステップSt12の後、例えばユーザ操作により投影を終了するための指示が入力等された場合には(St13、YES)、投影制御装置50の処理は終了する。一方、投影を終了するための指示が入力されない限り(St13、NO)、投影制御装置50の処理はステップSt6に戻り、ユーザ操作により投影を終了するための指示が入力等されるまで、ステップSt6~St13の処理が繰り返される。
(投影制御システムの効果)
以上により、実施の形態1に係る投影制御装置50あるいは投影制御システム100では、入出力インターフェース51(通信部の一例)は、スクリーン30(被投影物の一例)の周囲に位置する人物等の対象物HM1を撮像するIRカメラ40(撮像装置の一例)あるいは可視カメラ40C(撮像装置の一例)との間で通信可能に接続される。投影位置計算部553(導出部の一例)は、スクリーン30へ投影するコンテンツ画像に関するパラメータの指定と対象物HM1を含むスクリーン30の画像とに基づいて、コンテンツ画像の投影位置を導出する。投影画像生成部554は、導出された投影位置に配置されたコンテンツ画像を含む投影画像を生成する。プロセッサ55(制御部の一例)は、生成された投影画像の投影指示を、入出力インターフェース51を介してプロジェクタ10(投影装置の一例)に送信する。
これにより、投影制御装置50あるいは投影制御システム100は、スクリーン30の周囲にいる人物等の対象物HM1の動きに追従したコンテンツ画像の的確かつ簡易な投影位置の指定に基づく投影の制御を実現できる。従って、投影制御装置50あるいは投影制御システム100によれば、ユーザの利便性の向上を適応的に支援できる。
また、投影制御装置50あるいは投影制御システム100では、シルエット画像生成部552(対象物画像生成部の一例)は、スクリーン30の画像に基づいて、人物等の対象物HM1の形状を特定可能な対象物画像を生成する。投影位置計算部553は、生成されたシルエット画像(対象物画像の一例)を用いて投影位置を導出する。これにより、投影制御装置50あるいは投影制御システム100は、スクリーン30を被写体とした撮像画像中における対象物HM1の形状をシルエットとして明確に特定した画像を取得できるので、ユーザ操作により指定されたパラメータに従う適切な投影位置を計算できる。
また、投影制御装置50あるいは投影制御システム100では、プロセッサ55は、投影位置に関するパラメータの指定画面(例えば、図5A、図5B、図5C、図5D参照)を表示装置DPに表示し、その指定画面に対するユーザ操作に応じて、投影位置に関するパラメータの指定を受け付ける。これにより、投影制御装置50あるいは投影制御システム100は、コンテンツ画像を投影画像中に配置するための投影位置を、簡易なユーザ操作によって指定されたパラメータを用いて導出できる。
また、投影制御装置50あるいは投影制御システム100では、投影位置計算部553は、コンテンツ画像に関するパラメータの指定に応じて、投影位置の導出方法を変更する。これにより、投影制御装置50あるいは投影制御システム100は、コンテンツ画像が投影される投影画像内の位置を導出する際に、パラメータの内容(例えば角度あるいは方向)に応じて、シルエット画像内のスキャン開始位置を変更等することで、迅速かつ適切に投影位置を計算することができる。
また、投影制御装置50あるいは投影制御システム100では、投影位置に関するパラメータは、角度あるいは方向と画素数(n:2以上の整数)とを含む。投影位置計算部553は、スクリーン30の画像の角度あるいは方向に対応した始端からその画像の終端まで走査(スキャン)を行い、走査(スキャン)中に対象物HM1の画像内の画素数と一致する(つまり、第n番目の)画素の検出位置を基にして、投影位置を導出する。例えば、投影位置計算部553は、第n番目の検出位置と同じ位置、その周囲の位置等を投影位置として導出してよい。これにより、投影制御装置50あるいは投影制御システム100は、シルエット画像に現れ得るノイズ信号の影響を排除して、ユーザ操作により指定された角度あるいは方向と画素数とを用いて、コンテンツ画像を配置するための投影位置を高精度に導出できる。
また、投影制御装置50あるいは投影制御システム100では、コンテンツ画像に関するパラメータは、コンテンツ画像が投影されるための投影期間をさらに含む。投影制御装置50のプロセッサ55は、投影期間における投影画像の投影指示を、入出力インターフェース51を介してプロジェクタ10に送信する。これにより、投影制御装置50あるいは投影制御システム100は、コンテンツ画像の投影可能な時間を細かく指定できるので、ユーザのコンテンツ画像の投影の演出を支援できる。
また、投影制御装置50あるいは投影制御システム100では、メモリ52あるいは記録装置54は、複数の異なる投影期間ごとに対応して指定されたコンテンツ画像に関するパラメータのそれぞれに基づいて導出された前記投影位置の情報(図6参照)を保持する。投影制御装置50のプロセッサ55は、複数の異なる投影期間ごとに対応して導出された投影位置のそれぞれを用いて生成された、それぞれの投影画像の投影指示を、入出力インターフェース51を介してプロジェクタ10に送信する。これにより、投影制御装置50あるいは投影制御システム100は、異なる投影時間ごとに同一または異なる投影位置に投影されるコンテンツ画像の切り替えを様々に指定でき、ユーザのコンテンツ画像の投影の高度な演出を支援できる。
また、投影制御装置50あるいは投影制御システム100では、コンテンツ画像に関するパラメータは、方向およびオフセット値をさらに含む。投影画像生成部554は、対象物HM1を含むスクリーン30の画像(上述参照)から基準位置を検出し、その基準位置から、その方向にオフセット値ほど離れた位置を投影位置として導出する。基準位置は、例えば、投影位置計算部553がスクリーン30の画像の角度あるいは方向に対応した始端からその画像の終端まで走査(スキャン)を行い、走査(スキャン)中に対象物HM1の画像内の画素数と一致する画素の検出位置である。これにより、ユーザは、指定されたパラメータに応じて導出されたコンテンツ画像の投影位置を細かく調整でき、ユーザの利便性を向上できる。
また、投影制御装置50あるいは投影制御システム100では、プロセッサ55は、投影位置の導出対象領域の指定画面を表示装置DPに表示し、その指定画面に対するユーザ操作に応じて、導出対象領域を設定する。投影位置計算部553は、設定された導出対象領域内から投影位置を導出する。これにより、投影制御装置50あるいは投影制御システム100によれば、シルエット画像に現れ得るノイズ信号の影響を排除して、コンテンツ画像の投影位置をより的確に導出できる。
また、投影制御装置50あるいは投影制御システム100では、プロセッサ55は、投影位置の導出対象領域を示す導出対象領域画像を取得する。投影位置計算部553は、取得された導出対象領域画像により示される導出対象領域内から投影位置を導出する。これにより、投影制御装置50あるいは投影制御システム100によれば、シルエット画像に現れ得るノイズ信号の影響を排除して、コンテンツ画像の投影位置をより的確に導出できる。
以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
本開示は、被投影物の周囲にいる対象物の動きに追従したコンテンツ画像の的確かつ簡易な投影位置の指定に基づく投影の制御を実現し、ユーザの利便性の向上を適応的に支援する投影制御装置、投影制御方法および投影制御システムとして有用である。
10 プロジェクタ
11、43、43C 通信インターフェース
12、42、42C 制御部
13 投影部
14、44、44C、52 メモリ
20 IR照明
30 スクリーン
40 IRカメラ
40C 可視カメラ
41 IR撮像部
41C 可視撮像部
50 投影制御装置
51 入出力インターフェース
53 コンテンツ格納データベース
54 記録装置
55、PRC1、PRC2、PRC3 プロセッサ
100 投影制御システム
551 キャリブレーション部
552 シルエット画像生成部
553 投影位置計算部
554 投影画像生成部
DP 表示装置
IP 入力装置

Claims (11)

  1. 被投影物の周囲に位置する対象物を撮像する撮像装置との間で通信可能に接続される通信部と、
    前記被投影物へ投影するコンテンツ画像に関するパラメータの指定と前記対象物を含む前記被投影物の画像とに基づいて、前記コンテンツ画像の投影位置を導出する導出部と、
    導出された前記投影位置に前記コンテンツ画像を配置した投影画像を生成する投影画像生成部と、
    生成された前記投影画像の投影指示を、前記通信部を介して投影装置に送信する制御部と、を備え
    前記投影位置に関するパラメータは、角度あるいは方向と画素数(n:2以上の整数)とを含み、
    前記導出部は、前記被投影物の画像の前記角度あるいは方向に対応した始端から前記画像の終端まで走査を行い、前記走査中に前記対象物の画像内の第n番目の画素の検出位置を基にして、前記投影位置を導出する、
    投影制御装置。
  2. 前記被投影物の画像に基づいて、前記対象物の形状を特定可能な対象物画像を生成する対象物画像生成部、をさらに備え、
    前記導出部は、生成された前記対象物画像を用いて前記投影位置を導出する、
    請求項1に記載の投影制御装置。
  3. 前記制御部は、前記投影位置に関するパラメータの指定画面を表示装置に表示し、前記指定画面に対するユーザ操作に応じて、前記投影位置に関するパラメータの指定を受け付ける、
    請求項1に記載の投影制御装置。
  4. 前記導出部は、前記コンテンツ画像に関するパラメータの指定に応じて、前記投影位置
    の導出方法を変更する、
    請求項1に記載の投影制御装置。
  5. 前記コンテンツ画像に関するパラメータは、前記コンテンツ画像が投影されるための投影期間をさらに含み、
    前記制御部は、前記投影期間における前記投影画像の投影指示を、前記通信部を介して前記投影装置に送信する、
    請求項に記載の投影制御装置。
  6. 複数の異なる前記投影期間ごとに対応して指定された前記コンテンツ画像に関するパラメータのそれぞれに基づいて導出された前記投影位置の情報を保持するメモリ、をさらに備え、
    前記制御部は、複数の異なる前記投影期間ごとに対応して導出された前記投影位置のそれぞれを用いて生成された、それぞれの前記投影画像の投影指示を、前記通信部を介して前記投影装置に送信する、
    請求項に記載の投影制御装置。
  7. 前記コンテンツ画像に関するパラメータは、方向およびオフセット値をさらに含み、
    前記導出部は、前記対象物を含む前記被投影物の画像から基準位置を検出し、前記基準位置から前記方向に前記オフセット値ほど離れた位置を前記投影位置として導出する、
    請求項1に記載の投影制御装置。
  8. 前記制御部は、前記投影位置の導出対象領域の指定画面を表示装置に表示し、前記指定画面に対するユーザ操作に応じて、前記導出対象領域を設定し、
    前記導出部は、設定された前記導出対象領域内から前記投影位置を導出する、
    請求項1に記載の投影制御装置。
  9. 前記制御部は、前記投影位置の導出対象領域を示す導出対象領域画像を取得し、
    前記導出部は、取得された前記導出対象領域画像により示される前記導出対象領域内から前記投影位置を導出する、
    請求項1に記載の投影制御装置。
  10. 投影制御装置における投影制御方法であって、
    被投影物の周囲に位置する対象物を撮像する撮像装置との間で通信可能に接続するステップと、
    前記被投影物へ投影するコンテンツ画像に関するパラメータの指定と前記対象物を含む前記被投影物の画像とに基づいて、前記コンテンツ画像の投影位置を導出するステップと、
    導出された前記投影位置に前記コンテンツ画像を配置した投影画像を生成するステップと、
    生成された前記投影画像の投影指示を投影装置に送信するステップと、を有し、
    前記投影位置に関するパラメータは、角度あるいは方向と画素数(n:2以上の整数)とを含み、
    前記導出において、前記被投影物の画像の前記角度あるいは方向に対応した始端から前記画像の終端まで走査を行い、前記走査中に前記対象物の画像内の第n番目の画素の検出位置を基にして、前記投影位置を導出する、
    投影制御方法。
  11. 被投影物の周囲に位置する対象物を撮像する撮像装置と、投影制御装置とが通信可能に接続された投影制御システムであって、
    前記投影制御装置は、
    前記被投影物へ投影するコンテンツ画像に関するパラメータの指定と前記対象物を含む前記被投影物の画像とに基づいて、前記コンテンツ画像の投影位置を導出する導出部と、
    導出された前記投影位置に前記コンテンツ画像を配置した投影画像を生成する投影画像生成部と、
    生成された前記投影画像の投影指示を投影装置に送信する制御部と、を備え
    前記投影位置に関するパラメータは、角度あるいは方向と画素数(n:2以上の整数)とを含み、
    前記導出部は、前記被投影物の画像の前記角度あるいは方向に対応した始端から前記画像の終端まで走査を行い、前記走査中に前記対象物の画像内の第n番目の画素の検出位置を基にして、前記投影位置を導出する、
    投影制御システム。
JP2018150634A 2018-08-09 2018-08-09 投影制御装置、投影制御方法および投影制御システム Active JP7217422B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018150634A JP7217422B2 (ja) 2018-08-09 2018-08-09 投影制御装置、投影制御方法および投影制御システム
US17/266,732 US11606541B2 (en) 2018-08-09 2019-08-07 Projection control device, projection control method and projection control system
PCT/JP2019/031249 WO2020032140A1 (ja) 2018-08-09 2019-08-07 投影制御装置、投影制御方法および投影制御システム
CN201980066572.0A CN112840640B (zh) 2018-08-09 2019-08-07 投影控制装置、投影控制方法以及投影控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018150634A JP7217422B2 (ja) 2018-08-09 2018-08-09 投影制御装置、投影制御方法および投影制御システム

Publications (3)

Publication Number Publication Date
JP2020027976A JP2020027976A (ja) 2020-02-20
JP2020027976A5 JP2020027976A5 (ja) 2021-09-16
JP7217422B2 true JP7217422B2 (ja) 2023-02-03

Family

ID=69414864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018150634A Active JP7217422B2 (ja) 2018-08-09 2018-08-09 投影制御装置、投影制御方法および投影制御システム

Country Status (3)

Country Link
US (1) US11606541B2 (ja)
JP (1) JP7217422B2 (ja)
WO (1) WO2020032140A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7394386B2 (ja) * 2020-03-30 2023-12-08 パナソニックIpマネジメント株式会社 プロジェクタおよび画像投影方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304472A (ja) 2003-03-31 2004-10-28 Seiko Epson Corp 投写面上に画像を表示させずに行う画像の表示領域の決定
JP2016081497A (ja) 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
JP2016085380A (ja) 2014-10-27 2016-05-19 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP2016122179A (ja) 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 投影装置及び投影方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5328907B2 (ja) * 2009-05-26 2013-10-30 パナソニック株式会社 情報提示装置
JP2013192189A (ja) 2012-03-15 2013-09-26 Casio Comput Co Ltd 画像処理装置、投影システム、プログラム及び画像処理方法
US20160191877A1 (en) 2014-12-25 2016-06-30 Panasonic Intellectual Property Management Co., Ltd. Projector device and projection method
US20190116356A1 (en) * 2016-04-15 2019-04-18 Sony Corporation Information processing apparatus, information processing method, and program
US10685478B1 (en) * 2018-06-14 2020-06-16 Kilburn Live, Llc Mitigating projector glare by real-time dynamic shadow masking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304472A (ja) 2003-03-31 2004-10-28 Seiko Epson Corp 投写面上に画像を表示させずに行う画像の表示領域の決定
JP2016081497A (ja) 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
JP2016085380A (ja) 2014-10-27 2016-05-19 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP2016122179A (ja) 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 投影装置及び投影方法

Also Published As

Publication number Publication date
CN112840640A (zh) 2021-05-25
JP2020027976A (ja) 2020-02-20
WO2020032140A1 (ja) 2020-02-13
US11606541B2 (en) 2023-03-14
US20220021856A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
US10165202B2 (en) Method and system for performing alignment of a projection image to detected infrared (IR) radiation information
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
US8272746B2 (en) Projection display apparatus and display method
US8251524B2 (en) Projection display apparatus and display method
US11016582B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
US9753580B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
CN103279313B (zh) 显示装置以及显示控制方法
US20150208050A1 (en) Projector, display apparatus, and control method of projector
CN104660944A (zh) 图像投影装置及图像投影方法
JP2015031817A (ja) プロジェクター、及び、プロジェクターの制御方法
US9733728B2 (en) Position detecting device and position detecting method
JP7217422B2 (ja) 投影制御装置、投影制御方法および投影制御システム
JP2018181032A (ja) 表示装置及び表示装置の制御方法
JP7054774B2 (ja) 投影制御システム及び投影制御方法
CN112840640B (zh) 投影控制装置、投影控制方法以及投影控制系统
US10410323B2 (en) Display apparatus, information processing apparatus, and information processing method for displaying a second image that includes options for manipulating a first image
JP6740614B2 (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
JP2015220607A (ja) 情報処理装置、情報処理方法およびプログラム
JP5664725B2 (ja) プロジェクター、画像投写システムおよび画像投写方法
JP2015053734A (ja) プロジェクター、画像投写システムおよび画像投写方法
JP2016114991A (ja) 位置検出装置、画像投写装置及び画像操作システム
US20140022169A1 (en) Method and apparatus for graphical user interface interaction on a domed display
US20170201732A1 (en) Projector and method for controlling projector
KR20160073488A (ko) 3d 스캐너
US20230353714A1 (en) Projection control method and projection control device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230112

R151 Written notification of patent or utility model registration

Ref document number: 7217422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151