JP2013192189A - Image processing device, projection system, program and image processing method - Google Patents
Image processing device, projection system, program and image processing method Download PDFInfo
- Publication number
- JP2013192189A JP2013192189A JP2012058881A JP2012058881A JP2013192189A JP 2013192189 A JP2013192189 A JP 2013192189A JP 2012058881 A JP2012058881 A JP 2012058881A JP 2012058881 A JP2012058881 A JP 2012058881A JP 2013192189 A JP2013192189 A JP 2013192189A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- image
- image processing
- area
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、投影システム、プログラム及び画像処理方法に関する。 The present invention relates to an image processing apparatus, a projection system, a program, and an image processing method.
物体(以下、被投影物という。)を照明装置の前に配置し、照明装置によって照射光を被投影物に対して照射することによって、被投影物の表面に模様や色等のオブジェクトをマッピングする技術がある。特許文献1に記載の技術は、投影装置である照射光投影部(2)及び画像処理装置である照明制御装置(1)を用いて、照明制御装置(1)によるコンピュータグラフィック処理によって画像(映像)を生成し、その画像を照射光投影部(2)によって投影することによって、その画像中のオブジェクトを被投影物(20)の表面にマッピングするものである。具体的には、被投影物(20)を三次元にモデリング化したデータが予め照明装置制御部(1)に準備されており、被投影物(20)の表面にマッピングするオブジェクトとその背景を含む画像が映像信号として照明制御装置(1)に入力されると、照明制御装置(1)が三次元モデルデータに基づいて映像信号を補正し、その補正後の映像信号に基づく画像が照射光投影部(2)によって投影される。そうすると、オブジェクトが被投影物の表面のみにマッピングされ、被投影物の周囲には背景色の光が投影される。
An object (hereinafter referred to as a projection object) is placed in front of the illumination device, and the illumination device irradiates the projection object with irradiation light, thereby mapping an object such as a pattern or color on the surface of the projection object. There is technology to do. The technique described in
ところが、被投影物(20)の三次元モデルデータが照明制御装置(1)に予め準備されているから、被投影物(20)が形状変化や移動等をしたら、オブジェクトが被投影物(20)の表面にマッピングされなくなる。
そこで、本発明が解決しようとする課題は、被投影物が形状変化や移動等をしても、被投影物の表面にオブジェクトをマッピングできるようにすることである。
However, since the three-dimensional model data of the projection object (20) is prepared in advance in the illumination control device (1), if the projection object (20) changes its shape or moves, the object becomes the projection object (20 ) Will not be mapped to the surface.
Therefore, a problem to be solved by the present invention is to enable an object to be mapped on the surface of the projection object even if the projection object changes its shape or moves.
以上の課題を解決するために、本発明に係る画像処理装置は、撮像手段と、前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段と、前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段と、前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段と、を備えることを特徴とするものである。 In order to solve the above problems, an image processing apparatus according to the present invention is acquired from an imaging unit, an image acquisition unit that acquires an image including a projection object imaged by the imaging unit, and the image acquisition unit. And a mapping means for mapping an object corresponding to the projection area to the projection area.
本発明に係るプログラムは、撮像手段を備える画像処理装置のコンピュータを、前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段、前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段、及び、前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段、として機能させるものである。 The program according to the present invention includes a computer of an image processing apparatus including an imaging unit, an image acquisition unit that acquires an image including an object captured by the imaging unit, and an image acquired from the image acquisition unit. It functions as an area extracting means for extracting a projection area of a projection and a mapping means for mapping an object corresponding to the projection area to the projection area.
本発明に係る画像処理方法は、撮像手段を備える画像処理装置のコンピュータが、前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得処理と、前記画像取得処理により取得された画像から前記被投影物の投影領域を抽出する領域抽出処理と、前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング処理と、を実行することを特徴とするものである。 An image processing method according to the present invention includes an image acquisition process in which a computer of an image processing apparatus including an imaging unit acquires an image including a projection image captured by the imaging unit, and an image acquired by the image acquisition process. And a mapping process for mapping an object corresponding to the projection area to the projection area.
本発明によれば、被投影物が形状変化や移動等をしても、オブジェクトの像が被投影物にマッピングされる。 According to the present invention, an object image is mapped to a projection object even if the projection object undergoes a shape change, a movement, or the like.
以下に、本発明を実施するための形態について、図面を用いて説明する。以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているので、本発明の技術的範囲を以下の実施形態及び図示例に限定するものではない。 EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated using drawing. The embodiments described below are provided with various technically preferable limitations for carrying out the present invention. Therefore, the technical scope of the present invention is not limited to the following embodiments and illustrated examples.
図1は、投影システムとしてのプロジェクションマッピング装置1の使用状態を示す斜視図である。このプロジェクションマッピング装置1は、被投影物99の投影領域98を検出して、その投影領域98に模様、色彩、マーク、記号等のテクスチャ97を投影する。被投影物99が移動、回転、方向転換、変位、動作、膨張、収縮、形状変化その他の変化をすることによって、投影領域98の位置、大きさ又は範囲が変化しても、テクスチャ97がその変化に追従する。投影画面90は、プロジェクションマッピング装置1の前にあるスクリーンにプロジェクションマッピング装置1によって投影した場合にプロジェクションマッピング装置1によって投影し得る最大投影範囲である。範囲96は、プロジェクションマッピング装置1に備わる電子カメラ43の撮影範囲である。
FIG. 1 is a perspective view showing a use state of a
図2は、プロジェクションマッピング装置1のブロック図である。
このプロジェクションマッピング装置1は、投影装置本体2及び画像処理装置4を有する。投影装置本体2と画像処理装置4が一体化されて1つの筐体に組み込まれても良いし、投影装置本体2と画像処理装置4が別々の筐体に組み込まれ、投影装置本体2と画像処理装置4が映像信号ケーブルによって接続されてもよい。
FIG. 2 is a block diagram of the
The
画像処理装置4は、投影領域98を検出するとともに、その投影領域98にテクスチャ97をマッピングするための表示画面の映像信号を生成し、その映像信号を投影装置本体2に出力するものである。投影装置本体2は、画像処理装置4によって出力された映像信号を入力し、その映像信号に基づく表示画面を前方に投影することによって投影領域98にテクスチャ97を映写する。
The image processing device 4 detects the
投影装置本体2は、制御部20、入力装置21、映像信号変換部22、映像信号処理部23、表示コントローラ24、表示素子25、光照射装置26、投影レンズ27及びレンズ駆動部28等を備える。
The projection apparatus
入力装置21は、複数のスイッチ(押しボタン)若しくはリモートコントローラ又はそれらの組み合わせである。入力装置21は、ユーザによって操作されることによって、操作内容に応じた信号を制御部20に出力する。
The
映像信号変換部22には、画像処理装置4によって出力された映像信号が入力される。画像処理装置4によって出力される映像信号がアナログである場合、映像信号変換部22は、画像処理装置4から入力したアナログ映像信号をデジタル映像信号に変換するとともに、そのデジタル映像信号を所定のフォーマットに変換する。画像処理装置4によって出力される映像信号がデジタルである場合、映像信号変換部22はそのデジタル映像信号を所定のフォーマットに変換する。画像処理装置4によって出力されるデジタル映像信号が所定のフォーマットである場合、映像信号変換部22はそのデジタル映像信号を変換せずに素通しする。
The video signal output by the image processing device 4 is input to the
映像信号処理部23は、映像信号変換部22によって出力された映像信号に対して各種の信号処理を行う。例えば、映像信号処理部23は、映像信号変換部22によって出力された映像信号のスケーリングを行って、映像信号の画素数(解像度)を増減する。また、映像信号処理部23は、スケーリングされた映像信号に基づく画面(画像)の座標変換(例えば、射影変換)を行うことによって、キーストーン補正等を行う。映像信号処理部23によって信号処理された映像信号は表示コントローラ24に転送される。なお、投影画面90は、キーストーン補正後の最大投影範囲である。
The video
表示コントローラ24は、映像信号処理部23から入力した映像信号に基づいて表示素子25を駆動する。表示コントローラ24が映像信号処理部23から入力した映像信号に従って表示素子25の各画素毎にPWM制御又はPNM制御等をすることで、表示素子25に照射される光が画素によって各画素毎に変調される。これにより、表示素子25によって画面(画像)が形成される。
The
表示素子25は、二次元アレイ状に配列された複数の画素等を有するDMD(デジタル・マイクロミラー・デバイス)、透過型LCDパネル(液晶表示パネル)又は反射型LCDパネルである。表示素子25がDMDである場合には、表示素子25の画素が可動マイクロミラーであり、表示素子25がLCDパネルである場合には、表示素子25の画素が液晶シャッター素子である。
The
また、表示コントローラ24は、光照射装置26を制御する。光照射装置26は、表示素子25に向けて可視光を照射するものである。具体的には、光照射装置26は、時分割方式、色分離方式又は独立光源方式のものである。
The
光照射装置26が色分離方式である場合、光照射装置26が白色光源及び色分離器等を有し、白色光源から発した白色光が色分離器によって複数色(例えば、赤色、緑色、青色)に分離される。この場合、表示素子25が色毎にあり、複数色の光が表示素子25にそれぞれ照射され、各表示素子25を透過又は反射した光が合成される。
光照射装置26が時分割方式である場合、光照射装置26が互いに異なる色の可視光(例えば、赤色光、緑色光、青色光)を順次繰り返して表示素子25に照射し、その繰り返しの1周期が1フレームの期間に相当する。時分割方式の光照射装置26として、カラーフィルタ方式又はカラー光源方式のものである。光照射装置26がカラーフィルタ方式である場合、光照射装置26がカラーフィルタ、スピンドルモータ及び白色光源等を有し、カラーフィルタがスピンドルモータによって回転され、白色光源から発した白色光が回転中のカラーフィルタを通過することによって、白色光が各色(赤色、緑色、青色)に順次繰り替えし変換される。光照射装置26がカラー光源方式である場合、光照射装置26が互いに異なる色の複数の光源(例えば、赤色光源、緑色光源、青色光源)を有し、これらの光源が順次繰り返し点灯する。
光照射装置26が独立光源方式である場合、光照射装置26は、互いに異なる色の可視光(例えば、赤色光、緑色光、青色光)を発する複数の光源を有する。この場合、表示素子25が色毎にあり、複数色の光が表示素子25にそれぞれ照射され、各表示素子25を透過又は反射した光が合成される。
なお、光源とは、半導体発光素子(例えば、レーザーダイオード、発光ダイオード)又はランプ(ハロゲンランプ、キセノンランプ、メタルハライド、水銀ランプ、放電灯)であるか、半導体発光素子又はランプに蛍光体を組み合わせたものをいう。
When the
When the
When the
The light source is a semiconductor light emitting element (for example, laser diode, light emitting diode) or a lamp (halogen lamp, xenon lamp, metal halide, mercury lamp, discharge lamp), or a phosphor combined with a semiconductor light emitting element or lamp. Say things.
投影レンズ27は、表示素子25によって形成された表示画面(画像)をスクリーンに投影して、表示素子25に形成された表示画面をスクリーン上の投影画面90に変換する。投影レンズ27は、フォーカシングの調整が可能であるともに、焦点距離の調整が可能である。投影レンズ27は、レンズ駆動部28によって駆動される。レンズ駆動部28は、投影レンズ27の構成レンズを駆動することによってズームやフォーカシングを行う。
The
制御部20は演算処理装置である。制御部20は、プログラムに従って映像信号変換部22、映像信号処理部23、表示コントローラ24及びレンズ駆動部28を統合的に制御する。
The
画像処理装置4は、コンピュータ40、記憶装置41、入力装置42、電子カメラ43及びトリガセンサ44等を有する。
The image processing apparatus 4 includes a
入力装置42は、複数のスイッチ(例えば、キーボード)若しくはポインティングデバイス又はこれらの組み合わせである。入力装置42は、ユーザによって操作されることによって、操作内容に応じた信号をコンピュータ40に出力する。
The
電子カメラ(撮像手段)43は、投影レンズ27と同じ向きに設けられている。電子カメラ43は撮像素子、撮像レンズ及び画像処理回路等を有し、撮像レンズが撮像素子に結像し、撮像素子が撮像レンズにより結ばれた像を光電変換によって電気信号に変換し、撮像素子によって撮像された画像の信号が画像処理回路に出力され、その画像信号が画像処理回路によって信号処理されることによってデジタル化され、デジタル化された画像信号がコンピュータ40に転送される。
The electronic camera (imaging means) 43 is provided in the same direction as the
電子カメラ43の撮影範囲96の中には、投影装置本体2の最大投影範囲である投影画面90が含まれている(図1参照)。従って、プロジェクションマッピング装置1の前にある被投影物99も電子カメラ43によって撮像され、電子カメラ43からコンピュータ40に転送される画像の中には被投影物99の像が含まれている。
The
トリガセンサ44は、被投影物99に設けられているか、被投影物99の周辺に設けられている。トリガセンサ44は、被投影物99の変化開始若しくは変化終了又はこれらの両方を検知して、その検知信号をコンピュータ40に出力する。被投影物99の変化とは、被投影物99の移動、回転、方向転換、変位、動作、膨張、収縮、形状変化等をいう。
The
トリガセンサ44は、加速度センサ(加速度スイッチ)、リミットセンサ(リミットスイッチ)、光電スイッチ(光電センサ)、近接スイッチ(近接センサ)、レベルスイッチ(レベルセンサ)、圧力スイッチ(圧力センサ)、温度スイッチ(温度センサ)その他のセンサである。トリガセンサ44の種類は、被投影物99に適したものである。トリガセンサ44は、検知信号を無線によってコンピュータ40に送信してもよいし、検知信号をリード線によりコンピュータ40に出力してもよい。
The
コンピュータ40は、CPU、メモリ、GPU、VRAM、ASIC、バス、入出力インターフェース及びディスク読取装置等を有する。記憶装置41は、コンピュータ40にとってアクセス可能なものである。記憶装置41は、ハードディスクドライブ、不揮発性メモリ、ROMその他の記憶装置である。
The
記憶装置41には、プログラム41aが格納されている。プログラム41aはコンピュータ40に機能を実現させ、コンピュータ40がプログラム41aに従った処理を行う。プログラム41aは、データマップアプリケーション及び描画アプリケーションからなる。
記憶装置41には、複数のオブジェクト41bが記憶されている。これらオブジェクト41bは、画像(テクスチャ)、アニメーション画像(GIFアニメーション)、動画、テキスト(文字列)等である。オブジェクト41bごとに形状、大きさ、色、模様、テキストフォント等が相違する。
The
The
続いて、図3を参照して、プロジェクションマッピング装置1の動作及び使用方法について説明する。図3は、プログラム41aに基づくコンピュータ40の機能及び処理の流れを説明するためのフローチャートである。
Next, the operation and usage method of the
まず、ユーザがプロジェクションマッピング装置1を起動させる。そして、ユーザが電子カメラ43及び投影レンズ27をスクリーンに向けて、スクリーン上の投影画面90が電子カメラ43の撮影範囲96の中に含まれるように、電子カメラ43のレンズや投影レンズ27のズームを調整する。電子カメラ43のレンズと投影レンズ27を並列させることが好ましい。
First, the user activates the
コンピュータ40が、図4に示すようなアライメントマーク61の描画処理を行う(ステップS1)。図4は、コンピュータ40のVRAM、メモリ等に記憶される画面(フレーム)60及びアライメントマーク61を模式的に示したものである。
The
具体的には、図4に示すように、コンピュータ40が、表示画面60のXY座標系(表示画面60上における横方向の位置がX座標値で表され、縦方向の位置がY座標によって表される。)を設定し、その表示画面60に表示すべきアライメントマーク61の複数の特徴点62〜65の位置をXY座標値で設定する。そして、コンピュータ40は、アライメントマーク61及び特徴点62〜65を生成(描画)し、アライメントマーク61及び特徴点62〜65を含む表示画面60の映像信号を投影装置本体2に出力する。アライメントマーク61は、特徴点62〜65を結んだ線分からなる画像である。表示画面60上の特徴点62〜65の位置はコンピュータ40がプログラム41aに従って設定したものであるから、特徴点62〜65の位置はコンピュータ40にとって既知である。以下、表示画面60におけるXY座標系を画面座標系という。
Specifically, as shown in FIG. 4, the
コンピュータ40によって出力された映像信号が映像信号変換部22及び映像信号処理部23によって処理されて表示コントローラ24に転送され、表示コントローラ24がその映像信号に従って表示素子25及び光照射装置26を制御する。そうすると、光照射装置26によって光が表示素子25に照射され、アライメントマーク61及び特徴点62〜65を含む表示画面60が表示素子25に表示され、その表示画面60が投影レンズ27によってスクリーンに投影される。そうすると、図5に示すように、表示画面60がスクリーン上の投影画面90として顕在化し、アライメントマーク91及び特徴点92〜95が投影画面90中に表示される。図4に示すアライメントマーク61が図5に示すアライメントマーク91のように変形した原因は、投影装置本体2とスクリーンの位置的関係によって生じる台形歪み等や、投影装置本体2の映像信号変換部22や映像信号処理部23によって行われる映像信号処理等である。
The video signal output by the
次に、コンピュータ40は、レリーズ信号を電子カメラ43に出力することによって電子カメラ43に撮像動作を行わせる(ステップS2)。これにより、アライメントマーク91及び特徴点92〜95が表示された投影画面90が電子カメラ43によって撮像され、電子カメラ43によって撮像された画像がコンピュータ40に入力される。
Next, the
次に、コンピュータ40は、撮像画像上の特徴点92〜95の位置を検出する(ステップS3)。具体的には、コンピュータ40は、電子カメラ43から入力した撮像画像に対して特徴抽出処理(例えば、エッジ抽出処理)を行うことによって撮像画像中のアライメントマーク91及び特徴点92〜95を抽出し、特徴点92〜95の位置をXY座標値として検出する。そして、コンピュータ40は、検出した特徴点92〜95の位置を記憶する。以下、電子カメラ43によって撮像された画像におけるXY座標系を撮像画像座標系という。
Next, the
その後、コンピュータ40が処理を停止して待機状態になって、ユーザが被投影物99をプロジェクションマッピング装置1とスクリーンの間に設置する。或いは、ユーザが電子カメラ43と投影レンズ27の相対的な位置関係を固定した状態で電子カメラ43と投影レンズ27を被投影物99に向ける。
Thereafter, the
次に、ユーザが入力装置42を操作して、コンピュータ40の処理を再開させる。そうすると、コンピュータ40がレリーズ信号を電子カメラ43に出力することによって電子カメラ43に撮像動作を行わせる(ステップS4)。これにより、被投影物99の像を含む画像が電子カメラ43によって撮像され、電子カメラ43によって撮像された画像がコンピュータ40に入力される。図6は、電子カメラ43によって撮像された画像70の一例を示したものである。撮像画像70には、被投影物99の像71が含まれる。
Next, the user operates the
次に、コンピュータ40は、特徴点62〜65の座標値及び特徴点92〜95の座標値を座標変換パラメータとして利用して、ステップS4で取得した撮像画像70を撮像画像座標系から画面座標系へ座標変換する(ステップS5)。例えば、コンピュータ40は、特徴点92〜95の座標値をそれぞれ特徴点62〜65の座標値に変換するための座標変換パラメータを特徴点62〜65の座標値及び特徴点92〜95の座標値から算出し、その座標変換パラメータを利用して撮像画像70の座標変換を行う。この際、コンピュータ40は、座標変換前の撮像画像70の各画素の間を補間処理しつつ(又は座標変換前の撮像画像を間引き処理しつつ)、座標変換を行う。座標変換は、射影変換、アフィン変換、透視投影変換、平行移動若しくは回転移動又はこれらのうち二種以上の組み合わせ等である。なお、コンピュータ40は、変換前の撮像画像70を複数の領域に分けて領域毎に座標変換を行ってもよいし、変換前の撮像画像70の所定領域(特徴点92〜95によって囲まれる領域)を複数の領域に分けて領域毎に座標変換して、その所定領域の外側の領域を外挿するように座標変換してもよい。図7は、撮像画像70を座標変換して得られた画像72の一例を示したものである。被投影物99の像71も像73に座標変換され、被投影物99の像71の形状、位置、大きさ等が像73のように変化する。
Next, the
次に、コンピュータ40は、図8に示すように、座標変換後の被投影物99の像73から閉領域73aを抽出して、それを描画領域として定義する(ステップS6)。具体的には、コンピュータ40は、座標変換後の画像72に対して二値化処理又は単色化処理等をした後、エッジ抽出処理等の特徴抽出をすることによって閉領域73aの輪郭形状を抽出し、その輪郭形状の内側の閉領域73aを描画領域として定義する。なお、図9に示すように、複数の閉領域73a,73b,73cが抽出された場合には、コンピュータ40がラベリング処理を行ってこれら閉領域73a,73b,73cを別々の領域として識別して、1つの閉領域(例えば、閉領域73a,73b、73cの中で最も大きい閉領域73a)を選択して描画領域として定義するか、若しくはラベリング処理を行わずにこれら閉領域73a,73b,73cを1つの描画領域として定義する。
Next, as shown in FIG. 8, the
次に、コンピュータ40は、記憶装置41に格納された複数のオブジェクト41bの中から、描画領域に適した1つのオブジェクト41bを選択して読み出す(ステップS7)。例えば、コンピュータ40は、描画領域の大きさ若しくは形状又はこれらの両方に最も近いオブジェクト41bを選択するか、描画領域を検索条件として所定の検索アルゴリズムにより1つのオブジェクト41bを検索する。
Next, the
次に、コンピュータ40は、選択したオブジェクト41bを描画領域にマッピングする(ステップS8)。
Next, the
次に、コンピュータ40は、描画領域にマッピングされたオブジェクト41bを再生するとともに、そのオブジェクト41bを含む画面を描画する描画処理(映像信号生成処理)を行う(ステップS9)。つまり、コンピュータ40は、描画領域にマッピングされたオブジェクト41bを含む画面をVRAM等に書き込み、その画面の映像信号を生成して、その映像信号を投影装置本体2に出力する。なお、コンピュータ40は、描画領域以外の背景領域を黒にした映像信号を生成することが好ましい。
Next, the
コンピュータ40によって出力された映像信号が映像信号変換部22及び映像信号処理部23によって処理されて表示コントローラ24に転送され、表示コントローラ24がその映像信号に従って表示素子25及び光照射装置26を制御する。そうすると、光照射装置26によって光が表示素子25に照射され、選択されたオブジェクト41bを含む画面が表示素子25に表示され、その画面が投影レンズ27によって投影される。そのため、図1の二点鎖線に示すように、オブジェクト41bがテクスチャ97として被投影物99の投影領域98(描画領域に対応する)に表示される。
The video signal output by the
その後、コンピュータ40は、イベント発生の有無を判断して(ステップS10)、イベントの発生を検知しなければ描画処理を継続する(ステップS10:NO、ステップS9)。一方、コンピュータ40は、イベントの発生を検知したら(ステップS10:YES)、上述のステップS4〜ステップS10の処理を再度行う。そうすると、再度のステップS7において新たに選択されたオブジェクト41bを含む画像の描画処理が行われ(ステップS9)、図1の実線に示すように、そのオブジェクト41bがテクスチャ97として被投影物99の投影領域98に表示される。つまり、上述のステップS4〜ステップS10の処理が再度行われることによって、被投影物99の投影領域98内の表示が更新される。なお、再度行うステップS4の撮像処理の際には、コンピュータ40が描画処理を停止すると、オブジェクト41bが被投影物99の投影領域98に表示されないので、その後の閉領域の抽出処理(ステップS6)が正確に行われる。
Thereafter, the
イベントが断続的若しくは連続的に発生したり、イベントが複数回繰り返して発生したりすると、コンピュータ40がステップS4〜ステップS10の処理を複数回繰り返して行う。そのため、被投影物99の投影領域98内の表示が断続的、連続的又は繰り返し的に更新される。
When an event occurs intermittently or continuously, or when an event occurs repeatedly a plurality of times, the
イベントの検知例を挙げる。 An example of event detection is given below.
例1:トリガセンサ44の利用
トリガセンサ44を利用してイベントの発生を検知する。イベントとは、被投影物99が移動、回転、方向転換、変位、動作、膨張、収縮、形状変化その他の変化をすることである。被投影物99の変化開始若しくは変化終了又はこれらの両方がトリガセンサ44によって検知され、トリガセンサ44によって出力された検知信号がコンピュータ40に入力され、コンピュータ40がイベントの発生を検知する(ステップS10:YES)。
Example 1: Use of
例2:電子カメラ43の利用
電子カメラ43を利用してイベントの発生を検知する。
イベントとしては、被投影物99が移動、回転、方向転換、変位、動作、膨張、収縮、形状変化その他の変化をすることがある。複数のフレーム(画像)が電子カメラ43からコンピュータ40に転送され、コンピュータ40がこれらのフレームに基づいて被投影物99の変化の有無を判断する。例えば、コンピュータ40は、或るフレーム中の被投影物99の像を認識し、次のフレーム中の被投影物99の像を認識し、それら被投影物99の像の類似度を算出し、その類似度が所定閾値以下である場合に被投影物99の変化が発生したとしてイベントの発生を検知する(ステップS10:YES)。
イベントとしては、被投影物99の変化以外に、電子カメラ43の撮影範囲内における事象がある。例えば、電子カメラ43の前を障害物で遮ることによって電子カメラ43の撮影範囲が暗くなったり、投影レンズ27の前を障害物で遮ることによって被投影物99にテクスチャ97に表示されなくなったり、被投影物99以外のもの(例えば、ユーザ)が電子カメラ43の撮影範囲内に入り込んだり、被投影物99以外のもの(例えば、ユーザ)が電子カメラ43の撮影範囲から外れたりすることである。この場合、コンピュータ40が電子カメラ43から入力された複数のフレームに基づいてイベントの発生の有無を検知する。例えば、コンピュータ40は、或るフレームと次のフレームの類似度を算出し、その類似度が所定閾値以下である場合に被投影物99の変化が発生したとしてイベントの発生を検知する(ステップS10:YES)。
Example 2: Use of the
As an event, the
As an event, there is an event within the photographing range of the
例3:入力装置42の利用
入力装置42を利用してイベントの発生を検知する。イベントとは、ユーザが入力装置42を操作して入力を行うことである。ユーザが入力装置42を操作すると、操作信号がコンピュータ40に入力され、コンピュータ40がイベントの発生を検知する(ステップS10:YES)。
Example 3: Use of
続いて、被投影物99及びテクスチャ97の変化について幾つかの具体例を挙げる。図10に示すように、被投影物99が上下方向に伸びると、投影領域98が上下方向に広がり、投影領域98に投影されるテクスチャ97も変化する。具体的には、テクスチャ97は、テクスチャ97内のマークの数が増えるように変化する。なお、被投影物99が移動・回転等することによって、撮像画像中の投影領域98の位置、大きさ、形状等が変化した場合でも、テクスチャ97が変化する。
Subsequently, some specific examples of changes in the
図11に示すように、被投影物99は、スクリーンの前に配置された引き窓である。この引き窓を開いていくことによって、投影領域98である開放領域が広がり、テクスチャ97が引き窓の引き方向へ広がるよう変化する。このように、被投影物の連続した変化を認識し、それに応じてテクスチャ97を変化させる。
As shown in FIG. 11, the
以上のように、コンピュータ40がステップS4〜ステップS10の処理を回繰り返して行うとともに、ステップS4では被投影物99が撮像されるから、被投影物99の投影領域98に表示されるテクスチャ97が被投影物99の形状変化や移動等に追従して変化する。よって、被投影物99が形状変化や移動等をしても、投影装置本体2の投影レンズ27の向きや投影倍率等を変更せずに済み、映像コンテンツも変更せずに済む。このプロジェクションマッピング装置1を用いれば、光による屋内物品装飾効果を向上させたり、手軽に屋内外デザインの変更プラン等を試したりすることができる。
As described above, the
〔変形例1〕
上述の説明では、図9に示すように、ステップS6において複数の閉領域73a,73b,73cが抽出された場合には、閉領域73a,73b,73cのうち何れか1つが描画領域として選択されるか、或いは、これら閉領域73a,73b、73cが1つの描画領域として定義された。それに対して、これら閉領域73a,73b、73cが別々の描画領域として定義されてもよい。
[Modification 1]
In the above description, as shown in FIG. 9, when a plurality of
具体的には、複数の閉領域73a,73b,73cが抽出された場合、コンピュータ40は、ラベリング処理を行うことによってこれら閉領域73a,73b,73cに個別の識別番号を付与する。これにより、コンピュータ40は、これら閉領域73a,73b,73cを別々の領域として識別して、これら閉領域73a,73b、73cを別々の描画領域として定義する。また、コンピュータ40は、これら閉領域73a,73b、73cの数(ここでは、3)をカウントする。そして、コンピュータ40は、これら閉領域73a,73b、73cごとに面積、周囲超、最大幅(Y方向の長さ)、最大高さ(X方向の長さ)を求める。そして、コンピュータ40は、記憶装置41に格納された複数のオブジェクト41bの中から、複数の閉領域73a,73b、73cそれぞれに適した複数のオブジェクト41bを閉領域73a,73b、73cごとに選択して読み出す(ステップS7)。その後の処理は、上述した通りである。なお、描画処理(ステップS9)において、コンピュータ40は、閉領域73a,73b、73cそれぞれにマッピングされたオブジェクト41bを同時に描画してもよいし、順次描画してもよい。
Specifically, when a plurality of
複数の閉領域が別々の描画領域として定義された場合、被投影物99及びテクスチャ97の変化の一例について説明する。図12に示すように、被投影物99が錐体であり、被投影物99が錐体の軸線に直交する左右方向の軸としてピッチ方向に回転する。そうすると、被投影物99の錐面98aに投影されるテクスチャ97aが変化するとともに、底面98bに投影されるテクスチャ97bが変化する。
例えば、形状の異なる複数の被投影物(例えば、人、人影、車両、箱等)が投影レンズ27の投影範囲に次々と入り込んでくる場合、これらの被投影物の形状の特徴に応じてオブジェクトを選んで投影することができる。
1つの被投影物(例えば、風船、回転物、ロープ状のもの、動物、動物の影等)が変化することによって、投影される閉領域の数や大きさが変わっていくことで、被投影物の変化に応じてオブジェクトを選んで投影することができる。
また、1領域のときの表示内容と2領域のときの表示内容とを区別することができ(図12参照)、1領域から多領域に分裂したときの変化、多領域から1領域に凝集したときの変化などに表現豊かな描画を行うことができる。
また、多数の被投影物が集合したり、拡散したりするときに、それぞれの被投影物の配置に応じてオブジェクトを作成することによって、より表現豊かな描画を行うことができる。
An example of changes in the
For example, when a plurality of projection objects having different shapes (for example, people, human shadows, vehicles, boxes, etc.) enter the projection range of the
Changes in the number and size of the projected closed areas due to changes in one object (for example, balloons, rotating objects, ropes, animals, animal shadows, etc.) Objects can be selected and projected according to changes in objects.
It is also possible to distinguish the display contents for one area from the display contents for two areas (see FIG. 12). Changes when dividing from one area into multiple areas, aggregation from multiple areas into one area It is possible to perform expressive drawing with changes of time.
Further, when a large number of projection objects are gathered or diffused, a more expressive drawing can be performed by creating an object according to the arrangement of the projection objects.
〔変形例2〕
コンピュータ40は、描画処理(ステップS9)の後にイベント発生の有無を判断せずに、ステップS4の撮像・画像入力処理を再度行う。つまり、コンピュータ40が、ステップS4〜ステップS9の処理を繰り返し行う。例えばステップS4〜ステップS9は、コンピュータ40によって出力される映像信号の1フレームの期間に行われるものであり、コンピュータ40はフレーム毎にステップS4〜ステップS9の処理を行う。そのため、被投影物99が移動、回転、方向転換、変位、動作、膨張、収縮、形状変化等の変化をすれば、被投影物99の投影領域98に投影されるテクスチャ97が投影領域98の位置、大きさ及び範囲等の変化に追従して変化する。
[Modification 2]
The
〔その他〕
本発明の要部を変更しない範囲で、以上に説明した具体例から変更・改良が可能である。また、以上に本発明の実施形態及び変形例を説明したが、本発明の技術的範囲は上述の実施の形又は変形例に限定するものではなく、特許請求の範囲に記載に基づいて定められる。更に、特許請求の範囲に記載から本発明の本質とは関係のない変更を加えた均等な範囲も本発明の技術的範囲に含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
撮像手段と、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段と、
前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段と、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段と、
を備えることを特徴とする画像処理装置。
<請求項2>
前記領域抽出手段は、前記被投影物の投影領域の変化を抽出し、
前記マッピング手段は、前記領域抽出手段によって抽出された投影領域の変化に対応したオブジェクトをマッピングする、
ことを特徴とした請求項1に記載の画像処理装置。
<請求項3>
前記領域抽出手段は、前記被投影物の複数の投影領域を抽出し、
前記マッピング手段は、前記領域抽出手段によって抽出された複数の投影領域ぞれぞれに対応したオブジェクトをマッピングする、
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
<請求項4>
前記被投影物の変化を検知するトリガセンサを更に備え、
前記領域抽出手段は、前記トリガセンサが変化を検知したら前記投影領域の変化を抽出する、
ことを特徴とする請求項2または請求項3に記載の画像処理装置。
<請求項5>
前記撮像手段から転送された複数のフレームに基づいて投影領域の変化を抽出することを特徴とする請求項2または請求項3に記載の画像処理装置。
<請求項6>
前記マッピングされたオブジェクトを含む画面の映像信号を生成する映像信号生成手段を更に備える、
ことを特徴とした請求項1から請求項5の何れか一項に記載の画像処理装置。
<請求項7>
請求項6に記載の画像処理装置と、
前記映像信号生成手段によって生成された映像信号に基づく画面を前記被投影物に向けて投影する投影装置本体と、
を備えることを特徴とする投影システム。
<請求項8>
撮像手段を備える画像処理装置のコンピュータを、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段、
前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段、
及び、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段、
として機能させるプログラム。
<請求項9>
撮像手段を備える画像処理装置のコンピュータが、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得処理と、
前記画像取得処理により取得された画像から前記被投影物の投影領域を抽出する領域抽出処理と、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング処理と、を実行することを特徴とする画像処理方法。
[Others]
Changes and improvements can be made from the specific examples described above without departing from the scope of the present invention. Moreover, although embodiment and the modification of this invention were demonstrated above, the technical scope of this invention is not limited to the above-mentioned embodiment or modification, and is defined based on description in a claim. . Furthermore, the technical scope of the present invention also includes an equivalent range obtained by changing modifications not related to the essence of the present invention from the description in the claims.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Imaging means;
Image acquisition means for acquiring an image including the projection imaged by the imaging means;
Area extraction means for extracting a projection area of the projection object from the image acquired from the image acquisition means;
Mapping means for mapping an object corresponding to the projection area to the projection area;
An image processing apparatus comprising:
<Claim 2>
The area extracting means extracts a change in the projection area of the projection object,
The mapping means maps an object corresponding to a change in the projection area extracted by the area extraction means;
The image processing apparatus according to
<Claim 3>
The area extracting means extracts a plurality of projection areas of the projection object,
The mapping means maps an object corresponding to each of a plurality of projection areas extracted by the area extraction means;
The image processing apparatus according to
<Claim 4>
A trigger sensor for detecting a change in the projection object;
The region extracting means extracts a change in the projection region when the trigger sensor detects a change,
The image processing apparatus according to
<Claim 5>
The image processing apparatus according to
<Claim 6>
Video signal generating means for generating a video signal of a screen including the mapped object;
The image processing apparatus according to
<Claim 7>
An image processing apparatus according to claim 6;
A projection apparatus main body that projects a screen based on the video signal generated by the video signal generation means toward the projection object;
A projection system comprising:
<Claim 8>
A computer of an image processing apparatus comprising an imaging means;
Image acquisition means for acquiring an image including the projection object imaged by the imaging means;
Area extraction means for extracting a projection area of the projection object from the image acquired from the image acquisition means;
as well as,
Mapping means for mapping an object corresponding to the projection area to the projection area;
Program to function as.
<Claim 9>
A computer of an image processing apparatus provided with an imaging means,
Image acquisition processing for acquiring an image including a projection object imaged by the imaging means;
An area extraction process for extracting a projection area of the projection object from the image acquired by the image acquisition process;
And a mapping process for mapping an object corresponding to the projection area to the projection area.
1 プロジェクションマッピング装置
2 投影装置本体
4 画像処理装置
40 コンピュータ
41a プログラム
41b オブジェクト
42 入力装置
43 電子カメラ
44 トリガセンサ
DESCRIPTION OF
Claims (9)
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段と、
前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段と、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段と、
を備えることを特徴とする画像処理装置。 Imaging means;
Image acquisition means for acquiring an image including the projection imaged by the imaging means;
Area extraction means for extracting a projection area of the projection object from the image acquired from the image acquisition means;
Mapping means for mapping an object corresponding to the projection area to the projection area;
An image processing apparatus comprising:
前記マッピング手段は、前記領域抽出手段によって抽出された投影領域の変化に対応したオブジェクトをマッピングする、
ことを特徴とした請求項1に記載の画像処理装置。 The area extracting means extracts a change in the projection area of the projection object,
The mapping means maps an object corresponding to a change in the projection area extracted by the area extraction means;
The image processing apparatus according to claim 1.
前記マッピング手段は、前記領域抽出手段によって抽出された複数の投影領域ぞれぞれに対応したオブジェクトをマッピングする、
ことを特徴とする請求項1または請求項2に記載の画像処理装置。 The area extracting means extracts a plurality of projection areas of the projection object,
The mapping means maps an object corresponding to each of a plurality of projection areas extracted by the area extraction means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記領域抽出手段は、前記トリガセンサが変化を検知したら前記投影領域の変化を抽出する、
ことを特徴とする請求項2または請求項3に記載の画像処理装置。 A trigger sensor for detecting a change in the projection object;
The region extracting means extracts a change in the projection region when the trigger sensor detects a change,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とした請求項1から請求項5の何れか一項に記載の画像処理装置。 Video signal generating means for generating a video signal of a screen including the mapped object;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記映像信号生成手段によって生成された映像信号に基づく画面を前記被投影物に向けて投影する投影装置本体と、
を備えることを特徴とする投影システム。 An image processing apparatus according to claim 6;
A projection apparatus main body that projects a screen based on the video signal generated by the video signal generation means toward the projection object;
A projection system comprising:
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段、
前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段、
及び、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段、
として機能させるプログラム。 A computer of an image processing apparatus comprising an imaging means;
Image acquisition means for acquiring an image including the projection object imaged by the imaging means;
Area extraction means for extracting a projection area of the projection object from the image acquired from the image acquisition means;
as well as,
Mapping means for mapping an object corresponding to the projection area to the projection area;
Program to function as.
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得処理と、
前記画像取得処理により取得された画像から前記被投影物の投影領域を抽出する領域抽出処理と、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング処理と、を実行することを特徴とする画像処理方法。 A computer of an image processing apparatus provided with an imaging means,
Image acquisition processing for acquiring an image including a projection object imaged by the imaging means;
An area extraction process for extracting a projection area of the projection object from the image acquired by the image acquisition process;
And a mapping process for mapping an object corresponding to the projection area to the projection area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012058881A JP2013192189A (en) | 2012-03-15 | 2012-03-15 | Image processing device, projection system, program and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012058881A JP2013192189A (en) | 2012-03-15 | 2012-03-15 | Image processing device, projection system, program and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013192189A true JP2013192189A (en) | 2013-09-26 |
Family
ID=49391992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012058881A Pending JP2013192189A (en) | 2012-03-15 | 2012-03-15 | Image processing device, projection system, program and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013192189A (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014089242A (en) * | 2012-10-29 | 2014-05-15 | Casio Comput Co Ltd | Image processor, video data correction method and program |
WO2015125401A1 (en) | 2014-02-18 | 2015-08-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Projection system, semiconductor integrated circuit, and image correction method |
KR20160122048A (en) | 2014-02-18 | 2016-10-21 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | Projection system and semiconductor integrated circuit |
JP2017026652A (en) * | 2015-07-15 | 2017-02-02 | 国立大学法人東北大学 | Screen, position specification device, video processing device, pattern generation device, and method for manufacturing screen |
JPWO2015099174A1 (en) * | 2013-12-27 | 2017-03-23 | フィールズ株式会社 | Game machine |
WO2017221515A1 (en) * | 2016-06-21 | 2017-12-28 | 沖電気工業株式会社 | Image capturing system |
CN107836112A (en) * | 2016-06-08 | 2018-03-23 | 松下知识产权经营株式会社 | Optical projection system |
US10025167B2 (en) | 2016-06-29 | 2018-07-17 | Seiko Epson Corporation | Projection-type display device |
US10080960B2 (en) | 2014-06-30 | 2018-09-25 | Bandai Namco Entertainment Inc. | Game system that projects game image and created image onto projection target object |
US10161745B2 (en) | 2015-06-30 | 2018-12-25 | Panasonic Intellectual Property Management Co., Ltd. | Real-time-measurement projection device and three-dimensional-projection measurement device |
WO2019221209A1 (en) | 2018-05-17 | 2019-11-21 | パナソニックIpマネジメント株式会社 | Projection system, projection device, and projection method |
US10663593B2 (en) | 2015-09-29 | 2020-05-26 | Fujifilm Corporation | Projector apparatus with distance image acquisition device and projection method |
US10776898B2 (en) | 2018-06-14 | 2020-09-15 | Panasonic Intellectual Property Management Co., Ltd. | Projection system, image processing device and projection method |
CN114615480A (en) * | 2022-03-11 | 2022-06-10 | 峰米(重庆)创新科技有限公司 | Projection picture adjusting method, projection picture adjusting device, projection picture adjusting apparatus, storage medium, and program product |
US11438563B2 (en) | 2018-05-17 | 2022-09-06 | Panasonic Intellectual Property Management Co., Ltd. | Projection adjustment program and projection adjustment method |
US11606541B2 (en) | 2018-08-09 | 2023-03-14 | Panasonic Intellectual Property Management Co., Ltd. | Projection control device, projection control method and projection control system |
WO2023090085A1 (en) * | 2021-11-19 | 2023-05-25 | パナソニックIpマネジメント株式会社 | Illumination control device, illumination staging system, and illumination control method |
JP7380661B2 (en) | 2021-09-21 | 2023-11-15 | セイコーエプソン株式会社 | Projection method and projection system |
JP7461642B2 (en) | 2020-06-04 | 2024-04-04 | 国立大学法人 東京大学 | Information processing system, information processing device, information processing method, and program |
US11962947B2 (en) | 2018-06-20 | 2024-04-16 | Panasonic Intellectual Property Management Co., Ltd. | Projection system, projection adjustment program, and projection method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005277900A (en) * | 2004-03-25 | 2005-10-06 | Mitsubishi Electric Corp | Three-dimensional video device |
JP2009147480A (en) * | 2007-12-12 | 2009-07-02 | Gifu Univ | Calibration apparatus of projection system |
JP2009253575A (en) * | 2008-04-04 | 2009-10-29 | Seiko Epson Corp | Projector, program, and storage medium |
JP2010086178A (en) * | 2008-09-30 | 2010-04-15 | Fujifilm Corp | Image synthesis device and control method thereof |
JP2010136327A (en) * | 2008-10-29 | 2010-06-17 | Seiko Epson Corp | Projector and projector control method |
JP2011254411A (en) * | 2010-06-04 | 2011-12-15 | Hokkaido Univ | Video projection system and video projection program |
-
2012
- 2012-03-15 JP JP2012058881A patent/JP2013192189A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005277900A (en) * | 2004-03-25 | 2005-10-06 | Mitsubishi Electric Corp | Three-dimensional video device |
JP2009147480A (en) * | 2007-12-12 | 2009-07-02 | Gifu Univ | Calibration apparatus of projection system |
JP2009253575A (en) * | 2008-04-04 | 2009-10-29 | Seiko Epson Corp | Projector, program, and storage medium |
JP2010086178A (en) * | 2008-09-30 | 2010-04-15 | Fujifilm Corp | Image synthesis device and control method thereof |
JP2010136327A (en) * | 2008-10-29 | 2010-06-17 | Seiko Epson Corp | Projector and projector control method |
JP2011254411A (en) * | 2010-06-04 | 2011-12-15 | Hokkaido Univ | Video projection system and video projection program |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014089242A (en) * | 2012-10-29 | 2014-05-15 | Casio Comput Co Ltd | Image processor, video data correction method and program |
JPWO2015099174A1 (en) * | 2013-12-27 | 2017-03-23 | フィールズ株式会社 | Game machine |
US9693028B2 (en) | 2014-02-18 | 2017-06-27 | Panasonic Intellectual Property Corporation Of America | Projection system, semiconductor integrated circuit, and image correction method |
WO2015125401A1 (en) | 2014-02-18 | 2015-08-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Projection system, semiconductor integrated circuit, and image correction method |
KR20160122048A (en) | 2014-02-18 | 2016-10-21 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | Projection system and semiconductor integrated circuit |
US9524578B2 (en) | 2014-02-18 | 2016-12-20 | Panasonic Intellectual Property Corporation Of America | Projection system, semiconductor integrated circuit, and image correction method |
US9554104B2 (en) | 2014-02-18 | 2017-01-24 | Panasonic Intellectual Property Corporation Of America | Projection system and semiconductor integrated circuit |
US10080960B2 (en) | 2014-06-30 | 2018-09-25 | Bandai Namco Entertainment Inc. | Game system that projects game image and created image onto projection target object |
US10161745B2 (en) | 2015-06-30 | 2018-12-25 | Panasonic Intellectual Property Management Co., Ltd. | Real-time-measurement projection device and three-dimensional-projection measurement device |
JP2017026652A (en) * | 2015-07-15 | 2017-02-02 | 国立大学法人東北大学 | Screen, position specification device, video processing device, pattern generation device, and method for manufacturing screen |
US10663593B2 (en) | 2015-09-29 | 2020-05-26 | Fujifilm Corporation | Projector apparatus with distance image acquisition device and projection method |
CN107836112A (en) * | 2016-06-08 | 2018-03-23 | 松下知识产权经营株式会社 | Optical projection system |
CN107836112B (en) * | 2016-06-08 | 2019-03-12 | 松下知识产权经营株式会社 | Optical projection system |
WO2017221515A1 (en) * | 2016-06-21 | 2017-12-28 | 沖電気工業株式会社 | Image capturing system |
JP2017228868A (en) * | 2016-06-21 | 2017-12-28 | 沖電気工業株式会社 | Imaging System |
US10025167B2 (en) | 2016-06-29 | 2018-07-17 | Seiko Epson Corporation | Projection-type display device |
US11399165B2 (en) | 2018-05-17 | 2022-07-26 | Panasonic Intellectual Property Management Co., Ltd. | Projection system, projection device, and projection method |
WO2019221209A1 (en) | 2018-05-17 | 2019-11-21 | パナソニックIpマネジメント株式会社 | Projection system, projection device, and projection method |
US11438563B2 (en) | 2018-05-17 | 2022-09-06 | Panasonic Intellectual Property Management Co., Ltd. | Projection adjustment program and projection adjustment method |
US11743437B2 (en) | 2018-05-17 | 2023-08-29 | Panasonic Intellectual Property Management Co., Ltd. | Projection adjustment program and projection adjustment method |
US10776898B2 (en) | 2018-06-14 | 2020-09-15 | Panasonic Intellectual Property Management Co., Ltd. | Projection system, image processing device and projection method |
US11962947B2 (en) | 2018-06-20 | 2024-04-16 | Panasonic Intellectual Property Management Co., Ltd. | Projection system, projection adjustment program, and projection method |
US11606541B2 (en) | 2018-08-09 | 2023-03-14 | Panasonic Intellectual Property Management Co., Ltd. | Projection control device, projection control method and projection control system |
JP7461642B2 (en) | 2020-06-04 | 2024-04-04 | 国立大学法人 東京大学 | Information processing system, information processing device, information processing method, and program |
JP7380661B2 (en) | 2021-09-21 | 2023-11-15 | セイコーエプソン株式会社 | Projection method and projection system |
WO2023090085A1 (en) * | 2021-11-19 | 2023-05-25 | パナソニックIpマネジメント株式会社 | Illumination control device, illumination staging system, and illumination control method |
CN114615480A (en) * | 2022-03-11 | 2022-06-10 | 峰米(重庆)创新科技有限公司 | Projection picture adjusting method, projection picture adjusting device, projection picture adjusting apparatus, storage medium, and program product |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013192189A (en) | Image processing device, projection system, program and image processing method | |
US9213411B2 (en) | Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program | |
CN107545592B (en) | Dynamic camera calibration | |
JP6075122B2 (en) | System, image projection apparatus, information processing apparatus, information processing method, and program | |
JP2009205556A (en) | User interface device | |
JP5073996B2 (en) | Image processing device | |
US11385742B2 (en) | Position detection method, position detection device, and position detection system | |
KR20150050450A (en) | Method and apparatus for generating depth map of a scene | |
AU2013273722A1 (en) | Method, system and apparatus for removing a marker projected in a scene | |
US11700365B2 (en) | Position detection method, position detection device, and display device | |
JP2021128658A (en) | Position detection method, position detection device, and position detection system | |
CN107872659B (en) | Projection arrangement and projecting method | |
JP2010160403A (en) | Projection type display device | |
US9842260B2 (en) | Image processing apparatus and image processing method of performing image segmentation | |
US11327608B2 (en) | Two camera touch operation detection method, device, and system | |
US20190302598A1 (en) | Projection device, projection method, and projection control program | |
JP5152317B2 (en) | Presentation control apparatus and program | |
JP4615536B2 (en) | Display device | |
JP2014175745A (en) | Projector device, protector system, projector control method, and projector control program | |
JP2015060162A (en) | Projection device, projection method, and projection processing program | |
JP6427888B2 (en) | Image display system, image display apparatus, and image display method | |
JP2011065280A (en) | Image processing apparatus, surroundings monitoring system and operation support system | |
JP2017117206A (en) | Photographing device and photographing method | |
JP2017107084A (en) | Image display system | |
US20230209027A1 (en) | Display method, projector, and storage medium storing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160325 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160531 |