JP2013192189A - Image processing device, projection system, program and image processing method - Google Patents

Image processing device, projection system, program and image processing method Download PDF

Info

Publication number
JP2013192189A
JP2013192189A JP2012058881A JP2012058881A JP2013192189A JP 2013192189 A JP2013192189 A JP 2013192189A JP 2012058881 A JP2012058881 A JP 2012058881A JP 2012058881 A JP2012058881 A JP 2012058881A JP 2013192189 A JP2013192189 A JP 2013192189A
Authority
JP
Japan
Prior art keywords
projection
image
image processing
area
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012058881A
Other languages
Japanese (ja)
Inventor
Tamotsu Irie
保 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012058881A priority Critical patent/JP2013192189A/en
Publication of JP2013192189A publication Critical patent/JP2013192189A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable mapping of a texture on a surface of an object projected even if the object projected changes its shape, moves or the like.SOLUTION: The image processing device 4 of an apparatus 1 used for projection mapping comprises a computer 40 that repeatedly executes: image inputting processing for inputting images including an image of an object projected 99 taken by an electronic camera 43; coordinate conversion processing for coordinate-converting an image 70 inputted by the image input process from a coordinate system of the electronic camera 43 to a coordinate system of a display screen; region extraction processing for extracting a closed region 73a of the image 73 of the object projected 99 of images 72 converted by the coordinate conversion processing; mapping processing for mapping an object 41b on the closed region 73a extracted by the region extraction processing; and picture-signal generation processing for generating a picture signal of the display screen including the object 41b mapped by the mapping processing.

Description

本発明は、画像処理装置、投影システム、プログラム及び画像処理方法に関する。   The present invention relates to an image processing apparatus, a projection system, a program, and an image processing method.

物体(以下、被投影物という。)を照明装置の前に配置し、照明装置によって照射光を被投影物に対して照射することによって、被投影物の表面に模様や色等のオブジェクトをマッピングする技術がある。特許文献1に記載の技術は、投影装置である照射光投影部(2)及び画像処理装置である照明制御装置(1)を用いて、照明制御装置(1)によるコンピュータグラフィック処理によって画像(映像)を生成し、その画像を照射光投影部(2)によって投影することによって、その画像中のオブジェクトを被投影物(20)の表面にマッピングするものである。具体的には、被投影物(20)を三次元にモデリング化したデータが予め照明装置制御部(1)に準備されており、被投影物(20)の表面にマッピングするオブジェクトとその背景を含む画像が映像信号として照明制御装置(1)に入力されると、照明制御装置(1)が三次元モデルデータに基づいて映像信号を補正し、その補正後の映像信号に基づく画像が照射光投影部(2)によって投影される。そうすると、オブジェクトが被投影物の表面のみにマッピングされ、被投影物の周囲には背景色の光が投影される。   An object (hereinafter referred to as a projection object) is placed in front of the illumination device, and the illumination device irradiates the projection object with irradiation light, thereby mapping an object such as a pattern or color on the surface of the projection object. There is technology to do. The technique described in Patent Literature 1 uses an irradiation light projection unit (2) that is a projection device and an illumination control device (1) that is an image processing device, and performs image (video) by computer graphic processing by the illumination control device (1). ) And projecting the image by the irradiation light projection unit (2), the object in the image is mapped onto the surface of the projection object (20). Specifically, data obtained by modeling the projection object (20) in three dimensions is prepared in advance in the illumination device control unit (1), and an object to be mapped onto the surface of the projection object (20) and its background are displayed. When the included image is input to the illumination control device (1) as a video signal, the illumination control device (1) corrects the video signal based on the three-dimensional model data, and the image based on the corrected video signal is irradiated light. Projected by the projection unit (2). Then, the object is mapped only on the surface of the projection object, and light of the background color is projected around the projection object.

特開2009−49007号公報JP 2009-49007 A

ところが、被投影物(20)の三次元モデルデータが照明制御装置(1)に予め準備されているから、被投影物(20)が形状変化や移動等をしたら、オブジェクトが被投影物(20)の表面にマッピングされなくなる。
そこで、本発明が解決しようとする課題は、被投影物が形状変化や移動等をしても、被投影物の表面にオブジェクトをマッピングできるようにすることである。
However, since the three-dimensional model data of the projection object (20) is prepared in advance in the illumination control device (1), if the projection object (20) changes its shape or moves, the object becomes the projection object (20 ) Will not be mapped to the surface.
Therefore, a problem to be solved by the present invention is to enable an object to be mapped on the surface of the projection object even if the projection object changes its shape or moves.

以上の課題を解決するために、本発明に係る画像処理装置は、撮像手段と、前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段と、前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段と、前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段と、を備えることを特徴とするものである。   In order to solve the above problems, an image processing apparatus according to the present invention is acquired from an imaging unit, an image acquisition unit that acquires an image including a projection object imaged by the imaging unit, and the image acquisition unit. And a mapping means for mapping an object corresponding to the projection area to the projection area.

本発明に係るプログラムは、撮像手段を備える画像処理装置のコンピュータを、前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段、前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段、及び、前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段、として機能させるものである。   The program according to the present invention includes a computer of an image processing apparatus including an imaging unit, an image acquisition unit that acquires an image including an object captured by the imaging unit, and an image acquired from the image acquisition unit. It functions as an area extracting means for extracting a projection area of a projection and a mapping means for mapping an object corresponding to the projection area to the projection area.

本発明に係る画像処理方法は、撮像手段を備える画像処理装置のコンピュータが、前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得処理と、前記画像取得処理により取得された画像から前記被投影物の投影領域を抽出する領域抽出処理と、前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング処理と、を実行することを特徴とするものである。   An image processing method according to the present invention includes an image acquisition process in which a computer of an image processing apparatus including an imaging unit acquires an image including a projection image captured by the imaging unit, and an image acquired by the image acquisition process. And a mapping process for mapping an object corresponding to the projection area to the projection area.

本発明によれば、被投影物が形状変化や移動等をしても、オブジェクトの像が被投影物にマッピングされる。   According to the present invention, an object image is mapped to a projection object even if the projection object undergoes a shape change, a movement, or the like.

本発明の実施形態に係るプロジェクションマッピング装置の使用状態を示す斜視図である。It is a perspective view which shows the use condition of the projection mapping apparatus which concerns on embodiment of this invention. 同プロジェクションマッピング装置のブロック図である。It is a block diagram of the projection mapping apparatus. 同プロジェクションマッピング装置のコンピュータによって行われる処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process performed by the computer of the projection mapping apparatus. 同コンピュータに記憶されるアライメントマーク及び表示画面の座標系を模式的に示した図面である。It is drawing which showed typically the coordinate system of the alignment mark memorize | stored in the computer, and a display screen. スクリーンに顕在化した投影画面を示した図面である。It is drawing which showed the projection screen actualized on the screen. 撮像手段によって撮像された画像を示した図面で或る。It is drawing which showed the image imaged by the imaging means. 撮像手段によって撮像された画像を表示画面の座標系に変換して得られた画像を示した図である。It is the figure which showed the image obtained by converting the image imaged by the imaging means into the coordinate system of a display screen. 表示画面の座標系に変換された画像に対して領域抽出処理を施して得られた画像を示した図である。It is the figure which showed the image obtained by performing an area | region extraction process with respect to the image converted into the coordinate system of a display screen. 表示画面の座標系に変換された画像に対して領域抽出処理を施して得られた画像を示した図である。It is the figure which showed the image obtained by performing an area | region extraction process with respect to the image converted into the coordinate system of a display screen. 被投影物の変化及びテクスチャの変化を示した図面である。It is drawing which showed the change of a to-be-projected object, and the change of a texture. 被投影物の変化及びテクスチャの変化を示した図面である。It is drawing which showed the change of a to-be-projected object, and the change of a texture. 被投影物の変化及びテクスチャの変化を示した図面である。It is drawing which showed the change of a to-be-projected object, and the change of a texture.

以下に、本発明を実施するための形態について、図面を用いて説明する。以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているので、本発明の技術的範囲を以下の実施形態及び図示例に限定するものではない。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated using drawing. The embodiments described below are provided with various technically preferable limitations for carrying out the present invention. Therefore, the technical scope of the present invention is not limited to the following embodiments and illustrated examples.

図1は、投影システムとしてのプロジェクションマッピング装置1の使用状態を示す斜視図である。このプロジェクションマッピング装置1は、被投影物99の投影領域98を検出して、その投影領域98に模様、色彩、マーク、記号等のテクスチャ97を投影する。被投影物99が移動、回転、方向転換、変位、動作、膨張、収縮、形状変化その他の変化をすることによって、投影領域98の位置、大きさ又は範囲が変化しても、テクスチャ97がその変化に追従する。投影画面90は、プロジェクションマッピング装置1の前にあるスクリーンにプロジェクションマッピング装置1によって投影した場合にプロジェクションマッピング装置1によって投影し得る最大投影範囲である。範囲96は、プロジェクションマッピング装置1に備わる電子カメラ43の撮影範囲である。   FIG. 1 is a perspective view showing a use state of a projection mapping apparatus 1 as a projection system. The projection mapping apparatus 1 detects a projection area 98 of the projection object 99 and projects a texture 97 such as a pattern, color, mark, symbol, etc. on the projection area 98. Even if the position, size, or range of the projection area 98 changes due to movement, rotation, direction change, displacement, movement, expansion, contraction, shape change, or other changes of the projection object 99, the texture 97 is Follow changes. The projection screen 90 is the maximum projection range that can be projected by the projection mapping apparatus 1 when projected by the projection mapping apparatus 1 onto a screen in front of the projection mapping apparatus 1. A range 96 is a shooting range of the electronic camera 43 provided in the projection mapping apparatus 1.

図2は、プロジェクションマッピング装置1のブロック図である。
このプロジェクションマッピング装置1は、投影装置本体2及び画像処理装置4を有する。投影装置本体2と画像処理装置4が一体化されて1つの筐体に組み込まれても良いし、投影装置本体2と画像処理装置4が別々の筐体に組み込まれ、投影装置本体2と画像処理装置4が映像信号ケーブルによって接続されてもよい。
FIG. 2 is a block diagram of the projection mapping apparatus 1.
The projection mapping apparatus 1 includes a projection apparatus main body 2 and an image processing apparatus 4. The projection apparatus main body 2 and the image processing apparatus 4 may be integrated and incorporated in one casing, or the projection apparatus main body 2 and the image processing apparatus 4 are incorporated in separate casings, and the projection apparatus main body 2 and the image The processing device 4 may be connected by a video signal cable.

画像処理装置4は、投影領域98を検出するとともに、その投影領域98にテクスチャ97をマッピングするための表示画面の映像信号を生成し、その映像信号を投影装置本体2に出力するものである。投影装置本体2は、画像処理装置4によって出力された映像信号を入力し、その映像信号に基づく表示画面を前方に投影することによって投影領域98にテクスチャ97を映写する。   The image processing device 4 detects the projection region 98, generates a video signal of a display screen for mapping the texture 97 to the projection region 98, and outputs the video signal to the projection device main body 2. The projection apparatus main body 2 receives the video signal output from the image processing apparatus 4 and projects a texture 97 on the projection area 98 by projecting a display screen based on the video signal forward.

投影装置本体2は、制御部20、入力装置21、映像信号変換部22、映像信号処理部23、表示コントローラ24、表示素子25、光照射装置26、投影レンズ27及びレンズ駆動部28等を備える。   The projection apparatus main body 2 includes a control unit 20, an input device 21, a video signal conversion unit 22, a video signal processing unit 23, a display controller 24, a display element 25, a light irradiation device 26, a projection lens 27, a lens driving unit 28, and the like. .

入力装置21は、複数のスイッチ(押しボタン)若しくはリモートコントローラ又はそれらの組み合わせである。入力装置21は、ユーザによって操作されることによって、操作内容に応じた信号を制御部20に出力する。   The input device 21 is a plurality of switches (push buttons), a remote controller, or a combination thereof. The input device 21 outputs a signal corresponding to the operation content to the control unit 20 when operated by the user.

映像信号変換部22には、画像処理装置4によって出力された映像信号が入力される。画像処理装置4によって出力される映像信号がアナログである場合、映像信号変換部22は、画像処理装置4から入力したアナログ映像信号をデジタル映像信号に変換するとともに、そのデジタル映像信号を所定のフォーマットに変換する。画像処理装置4によって出力される映像信号がデジタルである場合、映像信号変換部22はそのデジタル映像信号を所定のフォーマットに変換する。画像処理装置4によって出力されるデジタル映像信号が所定のフォーマットである場合、映像信号変換部22はそのデジタル映像信号を変換せずに素通しする。   The video signal output by the image processing device 4 is input to the video signal converter 22. When the video signal output by the image processing device 4 is analog, the video signal conversion unit 22 converts the analog video signal input from the image processing device 4 into a digital video signal and converts the digital video signal into a predetermined format. Convert to When the video signal output by the image processing device 4 is digital, the video signal conversion unit 22 converts the digital video signal into a predetermined format. When the digital video signal output by the image processing device 4 has a predetermined format, the video signal conversion unit 22 passes the digital video signal without converting it.

映像信号処理部23は、映像信号変換部22によって出力された映像信号に対して各種の信号処理を行う。例えば、映像信号処理部23は、映像信号変換部22によって出力された映像信号のスケーリングを行って、映像信号の画素数(解像度)を増減する。また、映像信号処理部23は、スケーリングされた映像信号に基づく画面(画像)の座標変換(例えば、射影変換)を行うことによって、キーストーン補正等を行う。映像信号処理部23によって信号処理された映像信号は表示コントローラ24に転送される。なお、投影画面90は、キーストーン補正後の最大投影範囲である。   The video signal processing unit 23 performs various types of signal processing on the video signal output by the video signal conversion unit 22. For example, the video signal processing unit 23 scales the video signal output by the video signal conversion unit 22 to increase or decrease the number of pixels (resolution) of the video signal. In addition, the video signal processing unit 23 performs keystone correction and the like by performing coordinate transformation (for example, projective transformation) of the screen (image) based on the scaled video signal. The video signal processed by the video signal processing unit 23 is transferred to the display controller 24. The projection screen 90 is the maximum projection range after the keystone correction.

表示コントローラ24は、映像信号処理部23から入力した映像信号に基づいて表示素子25を駆動する。表示コントローラ24が映像信号処理部23から入力した映像信号に従って表示素子25の各画素毎にPWM制御又はPNM制御等をすることで、表示素子25に照射される光が画素によって各画素毎に変調される。これにより、表示素子25によって画面(画像)が形成される。   The display controller 24 drives the display element 25 based on the video signal input from the video signal processing unit 23. The display controller 24 performs PWM control or PNM control for each pixel of the display element 25 in accordance with the video signal input from the video signal processing unit 23, so that light emitted to the display element 25 is modulated for each pixel by the pixel. Is done. Thereby, a screen (image) is formed by the display element 25.

表示素子25は、二次元アレイ状に配列された複数の画素等を有するDMD(デジタル・マイクロミラー・デバイス)、透過型LCDパネル(液晶表示パネル)又は反射型LCDパネルである。表示素子25がDMDである場合には、表示素子25の画素が可動マイクロミラーであり、表示素子25がLCDパネルである場合には、表示素子25の画素が液晶シャッター素子である。   The display element 25 is a DMD (digital micromirror device), a transmissive LCD panel (liquid crystal display panel), or a reflective LCD panel having a plurality of pixels arranged in a two-dimensional array. When the display element 25 is a DMD, the pixel of the display element 25 is a movable micromirror, and when the display element 25 is an LCD panel, the pixel of the display element 25 is a liquid crystal shutter element.

また、表示コントローラ24は、光照射装置26を制御する。光照射装置26は、表示素子25に向けて可視光を照射するものである。具体的には、光照射装置26は、時分割方式、色分離方式又は独立光源方式のものである。   The display controller 24 controls the light irradiation device 26. The light irradiation device 26 irradiates the display element 25 with visible light. Specifically, the light irradiation device 26 is of a time division method, a color separation method, or an independent light source method.

光照射装置26が色分離方式である場合、光照射装置26が白色光源及び色分離器等を有し、白色光源から発した白色光が色分離器によって複数色(例えば、赤色、緑色、青色)に分離される。この場合、表示素子25が色毎にあり、複数色の光が表示素子25にそれぞれ照射され、各表示素子25を透過又は反射した光が合成される。
光照射装置26が時分割方式である場合、光照射装置26が互いに異なる色の可視光(例えば、赤色光、緑色光、青色光)を順次繰り返して表示素子25に照射し、その繰り返しの1周期が1フレームの期間に相当する。時分割方式の光照射装置26として、カラーフィルタ方式又はカラー光源方式のものである。光照射装置26がカラーフィルタ方式である場合、光照射装置26がカラーフィルタ、スピンドルモータ及び白色光源等を有し、カラーフィルタがスピンドルモータによって回転され、白色光源から発した白色光が回転中のカラーフィルタを通過することによって、白色光が各色(赤色、緑色、青色)に順次繰り替えし変換される。光照射装置26がカラー光源方式である場合、光照射装置26が互いに異なる色の複数の光源(例えば、赤色光源、緑色光源、青色光源)を有し、これらの光源が順次繰り返し点灯する。
光照射装置26が独立光源方式である場合、光照射装置26は、互いに異なる色の可視光(例えば、赤色光、緑色光、青色光)を発する複数の光源を有する。この場合、表示素子25が色毎にあり、複数色の光が表示素子25にそれぞれ照射され、各表示素子25を透過又は反射した光が合成される。
なお、光源とは、半導体発光素子(例えば、レーザーダイオード、発光ダイオード)又はランプ(ハロゲンランプ、キセノンランプ、メタルハライド、水銀ランプ、放電灯)であるか、半導体発光素子又はランプに蛍光体を組み合わせたものをいう。
When the light irradiation device 26 is a color separation method, the light irradiation device 26 has a white light source, a color separator, and the like, and white light emitted from the white light source is emitted by a color separator (for example, red, green, blue). ). In this case, the display element 25 is provided for each color, light of a plurality of colors is irradiated to the display element 25, and light transmitted or reflected by each display element 25 is synthesized.
When the light irradiation device 26 is a time-division method, the light irradiation device 26 sequentially irradiates the display element 25 with visible light of different colors (for example, red light, green light, and blue light) one by one. The period corresponds to a period of one frame. The time division type light irradiation device 26 is of a color filter type or a color light source type. When the light irradiation device 26 is a color filter system, the light irradiation device 26 includes a color filter, a spindle motor, a white light source, and the like. The color filter is rotated by the spindle motor, and white light emitted from the white light source is rotating. By passing through the color filter, the white light is sequentially converted into each color (red, green, blue) and converted. When the light irradiation device 26 is a color light source system, the light irradiation device 26 has a plurality of light sources having different colors (for example, a red light source, a green light source, and a blue light source), and these light sources are sequentially turned on repeatedly.
When the light irradiation device 26 is an independent light source method, the light irradiation device 26 includes a plurality of light sources that emit visible light of different colors (for example, red light, green light, and blue light). In this case, the display element 25 is provided for each color, light of a plurality of colors is irradiated to the display element 25, and light transmitted or reflected by each display element 25 is synthesized.
The light source is a semiconductor light emitting element (for example, laser diode, light emitting diode) or a lamp (halogen lamp, xenon lamp, metal halide, mercury lamp, discharge lamp), or a phosphor combined with a semiconductor light emitting element or lamp. Say things.

投影レンズ27は、表示素子25によって形成された表示画面(画像)をスクリーンに投影して、表示素子25に形成された表示画面をスクリーン上の投影画面90に変換する。投影レンズ27は、フォーカシングの調整が可能であるともに、焦点距離の調整が可能である。投影レンズ27は、レンズ駆動部28によって駆動される。レンズ駆動部28は、投影レンズ27の構成レンズを駆動することによってズームやフォーカシングを行う。   The projection lens 27 projects the display screen (image) formed by the display element 25 onto a screen, and converts the display screen formed on the display element 25 into a projection screen 90 on the screen. The projection lens 27 can adjust the focusing and can adjust the focal length. The projection lens 27 is driven by the lens driving unit 28. The lens driving unit 28 performs zooming and focusing by driving the constituent lenses of the projection lens 27.

制御部20は演算処理装置である。制御部20は、プログラムに従って映像信号変換部22、映像信号処理部23、表示コントローラ24及びレンズ駆動部28を統合的に制御する。   The control unit 20 is an arithmetic processing device. The control unit 20 controls the video signal conversion unit 22, the video signal processing unit 23, the display controller 24, and the lens driving unit 28 in an integrated manner according to a program.

画像処理装置4は、コンピュータ40、記憶装置41、入力装置42、電子カメラ43及びトリガセンサ44等を有する。   The image processing apparatus 4 includes a computer 40, a storage device 41, an input device 42, an electronic camera 43, a trigger sensor 44, and the like.

入力装置42は、複数のスイッチ(例えば、キーボード)若しくはポインティングデバイス又はこれらの組み合わせである。入力装置42は、ユーザによって操作されることによって、操作内容に応じた信号をコンピュータ40に出力する。   The input device 42 is a plurality of switches (for example, a keyboard), a pointing device, or a combination thereof. The input device 42 is operated by the user to output a signal corresponding to the operation content to the computer 40.

電子カメラ(撮像手段)43は、投影レンズ27と同じ向きに設けられている。電子カメラ43は撮像素子、撮像レンズ及び画像処理回路等を有し、撮像レンズが撮像素子に結像し、撮像素子が撮像レンズにより結ばれた像を光電変換によって電気信号に変換し、撮像素子によって撮像された画像の信号が画像処理回路に出力され、その画像信号が画像処理回路によって信号処理されることによってデジタル化され、デジタル化された画像信号がコンピュータ40に転送される。   The electronic camera (imaging means) 43 is provided in the same direction as the projection lens 27. The electronic camera 43 includes an imaging device, an imaging lens, an image processing circuit, and the like. The imaging lens forms an image on the imaging device, and an image obtained by the imaging device connected by the imaging lens is converted into an electrical signal by photoelectric conversion. The image signal picked up by the above is output to the image processing circuit, the image signal is digitized by the signal processing by the image processing circuit, and the digitized image signal is transferred to the computer 40.

電子カメラ43の撮影範囲96の中には、投影装置本体2の最大投影範囲である投影画面90が含まれている(図1参照)。従って、プロジェクションマッピング装置1の前にある被投影物99も電子カメラ43によって撮像され、電子カメラ43からコンピュータ40に転送される画像の中には被投影物99の像が含まれている。   The imaging range 96 of the electronic camera 43 includes a projection screen 90 that is the maximum projection range of the projection apparatus body 2 (see FIG. 1). Accordingly, the projection object 99 in front of the projection mapping apparatus 1 is also imaged by the electronic camera 43, and the image of the projection object 99 is included in the image transferred from the electronic camera 43 to the computer 40.

トリガセンサ44は、被投影物99に設けられているか、被投影物99の周辺に設けられている。トリガセンサ44は、被投影物99の変化開始若しくは変化終了又はこれらの両方を検知して、その検知信号をコンピュータ40に出力する。被投影物99の変化とは、被投影物99の移動、回転、方向転換、変位、動作、膨張、収縮、形状変化等をいう。   The trigger sensor 44 is provided on the projection object 99 or is provided around the projection object 99. The trigger sensor 44 detects the start or end of change of the projection object 99 or both, and outputs a detection signal to the computer 40. The change of the projection object 99 refers to movement, rotation, direction change, displacement, movement, expansion, contraction, shape change, and the like of the projection object 99.

トリガセンサ44は、加速度センサ(加速度スイッチ)、リミットセンサ(リミットスイッチ)、光電スイッチ(光電センサ)、近接スイッチ(近接センサ)、レベルスイッチ(レベルセンサ)、圧力スイッチ(圧力センサ)、温度スイッチ(温度センサ)その他のセンサである。トリガセンサ44の種類は、被投影物99に適したものである。トリガセンサ44は、検知信号を無線によってコンピュータ40に送信してもよいし、検知信号をリード線によりコンピュータ40に出力してもよい。   The trigger sensor 44 includes an acceleration sensor (acceleration switch), a limit sensor (limit switch), a photoelectric switch (photoelectric sensor), a proximity switch (proximity sensor), a level switch (level sensor), a pressure switch (pressure sensor), and a temperature switch ( Temperature sensor) Other sensors. The type of trigger sensor 44 is suitable for the projection object 99. The trigger sensor 44 may transmit a detection signal to the computer 40 wirelessly, or may output the detection signal to the computer 40 via a lead wire.

コンピュータ40は、CPU、メモリ、GPU、VRAM、ASIC、バス、入出力インターフェース及びディスク読取装置等を有する。記憶装置41は、コンピュータ40にとってアクセス可能なものである。記憶装置41は、ハードディスクドライブ、不揮発性メモリ、ROMその他の記憶装置である。   The computer 40 has a CPU, memory, GPU, VRAM, ASIC, bus, input / output interface, disk reader, and the like. The storage device 41 is accessible to the computer 40. The storage device 41 is a hard disk drive, nonvolatile memory, ROM, or other storage device.

記憶装置41には、プログラム41aが格納されている。プログラム41aはコンピュータ40に機能を実現させ、コンピュータ40がプログラム41aに従った処理を行う。プログラム41aは、データマップアプリケーション及び描画アプリケーションからなる。
記憶装置41には、複数のオブジェクト41bが記憶されている。これらオブジェクト41bは、画像(テクスチャ)、アニメーション画像(GIFアニメーション)、動画、テキスト(文字列)等である。オブジェクト41bごとに形状、大きさ、色、模様、テキストフォント等が相違する。
The storage device 41 stores a program 41a. The program 41a causes the computer 40 to realize functions, and the computer 40 performs processing according to the program 41a. The program 41a includes a data map application and a drawing application.
The storage device 41 stores a plurality of objects 41b. These objects 41b are an image (texture), an animation image (GIF animation), a moving image, a text (character string), and the like. Each object 41b has a different shape, size, color, pattern, text font, and the like.

続いて、図3を参照して、プロジェクションマッピング装置1の動作及び使用方法について説明する。図3は、プログラム41aに基づくコンピュータ40の機能及び処理の流れを説明するためのフローチャートである。   Next, the operation and usage method of the projection mapping apparatus 1 will be described with reference to FIG. FIG. 3 is a flowchart for explaining the function and processing flow of the computer 40 based on the program 41a.

まず、ユーザがプロジェクションマッピング装置1を起動させる。そして、ユーザが電子カメラ43及び投影レンズ27をスクリーンに向けて、スクリーン上の投影画面90が電子カメラ43の撮影範囲96の中に含まれるように、電子カメラ43のレンズや投影レンズ27のズームを調整する。電子カメラ43のレンズと投影レンズ27を並列させることが好ましい。   First, the user activates the projection mapping apparatus 1. The zoom of the lens of the electronic camera 43 and the projection lens 27 is performed so that the user points the electronic camera 43 and the projection lens 27 toward the screen and the projection screen 90 on the screen is included in the shooting range 96 of the electronic camera 43. Adjust. It is preferable to arrange the lens of the electronic camera 43 and the projection lens 27 in parallel.

コンピュータ40が、図4に示すようなアライメントマーク61の描画処理を行う(ステップS1)。図4は、コンピュータ40のVRAM、メモリ等に記憶される画面(フレーム)60及びアライメントマーク61を模式的に示したものである。   The computer 40 performs the drawing process of the alignment mark 61 as shown in FIG. 4 (step S1). FIG. 4 schematically shows a screen (frame) 60 and an alignment mark 61 stored in the VRAM, memory or the like of the computer 40.

具体的には、図4に示すように、コンピュータ40が、表示画面60のXY座標系(表示画面60上における横方向の位置がX座標値で表され、縦方向の位置がY座標によって表される。)を設定し、その表示画面60に表示すべきアライメントマーク61の複数の特徴点62〜65の位置をXY座標値で設定する。そして、コンピュータ40は、アライメントマーク61及び特徴点62〜65を生成(描画)し、アライメントマーク61及び特徴点62〜65を含む表示画面60の映像信号を投影装置本体2に出力する。アライメントマーク61は、特徴点62〜65を結んだ線分からなる画像である。表示画面60上の特徴点62〜65の位置はコンピュータ40がプログラム41aに従って設定したものであるから、特徴点62〜65の位置はコンピュータ40にとって既知である。以下、表示画面60におけるXY座標系を画面座標系という。   Specifically, as shown in FIG. 4, the computer 40 displays the XY coordinate system of the display screen 60 (the horizontal position on the display screen 60 is represented by an X coordinate value, and the vertical position is represented by a Y coordinate. And the positions of the plurality of feature points 62 to 65 of the alignment mark 61 to be displayed on the display screen 60 are set as XY coordinate values. Then, the computer 40 generates (draws) the alignment mark 61 and the feature points 62 to 65, and outputs a video signal of the display screen 60 including the alignment mark 61 and the feature points 62 to 65 to the projection apparatus main body 2. The alignment mark 61 is an image composed of line segments connecting the feature points 62 to 65. Since the positions of the feature points 62 to 65 on the display screen 60 are set by the computer 40 according to the program 41a, the positions of the feature points 62 to 65 are known to the computer 40. Hereinafter, the XY coordinate system on the display screen 60 is referred to as a screen coordinate system.

コンピュータ40によって出力された映像信号が映像信号変換部22及び映像信号処理部23によって処理されて表示コントローラ24に転送され、表示コントローラ24がその映像信号に従って表示素子25及び光照射装置26を制御する。そうすると、光照射装置26によって光が表示素子25に照射され、アライメントマーク61及び特徴点62〜65を含む表示画面60が表示素子25に表示され、その表示画面60が投影レンズ27によってスクリーンに投影される。そうすると、図5に示すように、表示画面60がスクリーン上の投影画面90として顕在化し、アライメントマーク91及び特徴点92〜95が投影画面90中に表示される。図4に示すアライメントマーク61が図5に示すアライメントマーク91のように変形した原因は、投影装置本体2とスクリーンの位置的関係によって生じる台形歪み等や、投影装置本体2の映像信号変換部22や映像信号処理部23によって行われる映像信号処理等である。   The video signal output by the computer 40 is processed by the video signal conversion unit 22 and the video signal processing unit 23 and transferred to the display controller 24. The display controller 24 controls the display element 25 and the light irradiation device 26 according to the video signal. . Then, the light irradiation device 26 irradiates the display element 25 with light, the display screen 60 including the alignment mark 61 and the feature points 62 to 65 is displayed on the display element 25, and the display screen 60 is projected onto the screen by the projection lens 27. Is done. Then, as shown in FIG. 5, the display screen 60 becomes apparent as the projection screen 90 on the screen, and the alignment marks 91 and the feature points 92 to 95 are displayed on the projection screen 90. The reason why the alignment mark 61 shown in FIG. 4 is deformed like the alignment mark 91 shown in FIG. 5 is that trapezoidal distortion caused by the positional relationship between the projection apparatus main body 2 and the screen, and the video signal conversion unit 22 of the projection apparatus main body 2. And video signal processing performed by the video signal processing unit 23.

次に、コンピュータ40は、レリーズ信号を電子カメラ43に出力することによって電子カメラ43に撮像動作を行わせる(ステップS2)。これにより、アライメントマーク91及び特徴点92〜95が表示された投影画面90が電子カメラ43によって撮像され、電子カメラ43によって撮像された画像がコンピュータ40に入力される。   Next, the computer 40 causes the electronic camera 43 to perform an imaging operation by outputting a release signal to the electronic camera 43 (step S2). Thereby, the projection screen 90 on which the alignment mark 91 and the feature points 92 to 95 are displayed is captured by the electronic camera 43, and the image captured by the electronic camera 43 is input to the computer 40.

次に、コンピュータ40は、撮像画像上の特徴点92〜95の位置を検出する(ステップS3)。具体的には、コンピュータ40は、電子カメラ43から入力した撮像画像に対して特徴抽出処理(例えば、エッジ抽出処理)を行うことによって撮像画像中のアライメントマーク91及び特徴点92〜95を抽出し、特徴点92〜95の位置をXY座標値として検出する。そして、コンピュータ40は、検出した特徴点92〜95の位置を記憶する。以下、電子カメラ43によって撮像された画像におけるXY座標系を撮像画像座標系という。   Next, the computer 40 detects the positions of the feature points 92 to 95 on the captured image (step S3). Specifically, the computer 40 performs feature extraction processing (for example, edge extraction processing) on the captured image input from the electronic camera 43 to extract the alignment mark 91 and the feature points 92 to 95 in the captured image. The positions of the feature points 92 to 95 are detected as XY coordinate values. And the computer 40 memorize | stores the position of the detected feature points 92-95. Hereinafter, the XY coordinate system in the image captured by the electronic camera 43 is referred to as a captured image coordinate system.

その後、コンピュータ40が処理を停止して待機状態になって、ユーザが被投影物99をプロジェクションマッピング装置1とスクリーンの間に設置する。或いは、ユーザが電子カメラ43と投影レンズ27の相対的な位置関係を固定した状態で電子カメラ43と投影レンズ27を被投影物99に向ける。   Thereafter, the computer 40 stops processing and enters a standby state, and the user installs the projection object 99 between the projection mapping apparatus 1 and the screen. Alternatively, the user points the electronic camera 43 and the projection lens 27 toward the projection object 99 in a state where the relative positional relationship between the electronic camera 43 and the projection lens 27 is fixed.

次に、ユーザが入力装置42を操作して、コンピュータ40の処理を再開させる。そうすると、コンピュータ40がレリーズ信号を電子カメラ43に出力することによって電子カメラ43に撮像動作を行わせる(ステップS4)。これにより、被投影物99の像を含む画像が電子カメラ43によって撮像され、電子カメラ43によって撮像された画像がコンピュータ40に入力される。図6は、電子カメラ43によって撮像された画像70の一例を示したものである。撮像画像70には、被投影物99の像71が含まれる。   Next, the user operates the input device 42 to restart the processing of the computer 40. Then, the computer 40 outputs a release signal to the electronic camera 43, thereby causing the electronic camera 43 to perform an imaging operation (step S4). As a result, an image including an image of the projection object 99 is captured by the electronic camera 43, and the image captured by the electronic camera 43 is input to the computer 40. FIG. 6 shows an example of an image 70 captured by the electronic camera 43. The captured image 70 includes an image 71 of the projection object 99.

次に、コンピュータ40は、特徴点62〜65の座標値及び特徴点92〜95の座標値を座標変換パラメータとして利用して、ステップS4で取得した撮像画像70を撮像画像座標系から画面座標系へ座標変換する(ステップS5)。例えば、コンピュータ40は、特徴点92〜95の座標値をそれぞれ特徴点62〜65の座標値に変換するための座標変換パラメータを特徴点62〜65の座標値及び特徴点92〜95の座標値から算出し、その座標変換パラメータを利用して撮像画像70の座標変換を行う。この際、コンピュータ40は、座標変換前の撮像画像70の各画素の間を補間処理しつつ(又は座標変換前の撮像画像を間引き処理しつつ)、座標変換を行う。座標変換は、射影変換、アフィン変換、透視投影変換、平行移動若しくは回転移動又はこれらのうち二種以上の組み合わせ等である。なお、コンピュータ40は、変換前の撮像画像70を複数の領域に分けて領域毎に座標変換を行ってもよいし、変換前の撮像画像70の所定領域(特徴点92〜95によって囲まれる領域)を複数の領域に分けて領域毎に座標変換して、その所定領域の外側の領域を外挿するように座標変換してもよい。図7は、撮像画像70を座標変換して得られた画像72の一例を示したものである。被投影物99の像71も像73に座標変換され、被投影物99の像71の形状、位置、大きさ等が像73のように変化する。   Next, the computer 40 uses the coordinate values of the feature points 62 to 65 and the coordinate values of the feature points 92 to 95 as coordinate conversion parameters to convert the captured image 70 acquired in step S4 from the captured image coordinate system to the screen coordinate system. The coordinates are converted (step S5). For example, the computer 40 sets the coordinate conversion parameters for converting the coordinate values of the feature points 92 to 95 to the coordinate values of the feature points 62 to 65, respectively, as the coordinate values of the feature points 62 to 65 and the coordinate values of the feature points 92 to 95. The coordinate conversion of the captured image 70 is performed using the coordinate conversion parameter. At this time, the computer 40 performs coordinate conversion while interpolating between pixels of the captured image 70 before coordinate conversion (or thinning out the captured image before coordinate conversion). The coordinate transformation is projective transformation, affine transformation, perspective projection transformation, parallel movement or rotational movement, or a combination of two or more of these. Note that the computer 40 may divide the captured image 70 before conversion into a plurality of regions and perform coordinate conversion for each region, or a predetermined region (region surrounded by the feature points 92 to 95) of the captured image 70 before conversion. ) May be divided into a plurality of regions and coordinate-converted for each region, and coordinate conversion may be performed so as to extrapolate a region outside the predetermined region. FIG. 7 shows an example of an image 72 obtained by performing coordinate conversion on the captured image 70. The image 71 of the projection object 99 is also coordinate-converted into an image 73, and the shape, position, size, and the like of the image 71 of the projection object 99 change like the image 73.

次に、コンピュータ40は、図8に示すように、座標変換後の被投影物99の像73から閉領域73aを抽出して、それを描画領域として定義する(ステップS6)。具体的には、コンピュータ40は、座標変換後の画像72に対して二値化処理又は単色化処理等をした後、エッジ抽出処理等の特徴抽出をすることによって閉領域73aの輪郭形状を抽出し、その輪郭形状の内側の閉領域73aを描画領域として定義する。なお、図9に示すように、複数の閉領域73a,73b,73cが抽出された場合には、コンピュータ40がラベリング処理を行ってこれら閉領域73a,73b,73cを別々の領域として識別して、1つの閉領域(例えば、閉領域73a,73b、73cの中で最も大きい閉領域73a)を選択して描画領域として定義するか、若しくはラベリング処理を行わずにこれら閉領域73a,73b,73cを1つの描画領域として定義する。   Next, as shown in FIG. 8, the computer 40 extracts a closed region 73a from the image 73 of the projection object 99 after coordinate conversion, and defines it as a drawing region (step S6). Specifically, the computer 40 extracts the contour shape of the closed region 73a by performing feature extraction such as edge extraction after performing binarization processing or monochromatic processing on the image 72 after coordinate conversion. Then, the closed region 73a inside the contour shape is defined as a drawing region. As shown in FIG. 9, when a plurality of closed areas 73a, 73b, and 73c are extracted, the computer 40 performs a labeling process to identify these closed areas 73a, 73b, and 73c as separate areas. One closed region (for example, the largest closed region 73a among the closed regions 73a, 73b, 73c) is selected and defined as a drawing region, or these closed regions 73a, 73b, 73c are not subjected to labeling processing. Is defined as one drawing area.

次に、コンピュータ40は、記憶装置41に格納された複数のオブジェクト41bの中から、描画領域に適した1つのオブジェクト41bを選択して読み出す(ステップS7)。例えば、コンピュータ40は、描画領域の大きさ若しくは形状又はこれらの両方に最も近いオブジェクト41bを選択するか、描画領域を検索条件として所定の検索アルゴリズムにより1つのオブジェクト41bを検索する。   Next, the computer 40 selects and reads one object 41b suitable for the drawing area from the plurality of objects 41b stored in the storage device 41 (step S7). For example, the computer 40 selects the object 41b closest to the size and / or shape of the drawing area, or searches for one object 41b by a predetermined search algorithm using the drawing area as a search condition.

次に、コンピュータ40は、選択したオブジェクト41bを描画領域にマッピングする(ステップS8)。   Next, the computer 40 maps the selected object 41b to the drawing area (step S8).

次に、コンピュータ40は、描画領域にマッピングされたオブジェクト41bを再生するとともに、そのオブジェクト41bを含む画面を描画する描画処理(映像信号生成処理)を行う(ステップS9)。つまり、コンピュータ40は、描画領域にマッピングされたオブジェクト41bを含む画面をVRAM等に書き込み、その画面の映像信号を生成して、その映像信号を投影装置本体2に出力する。なお、コンピュータ40は、描画領域以外の背景領域を黒にした映像信号を生成することが好ましい。   Next, the computer 40 reproduces the object 41b mapped to the drawing area and performs a drawing process (video signal generation process) for drawing a screen including the object 41b (step S9). That is, the computer 40 writes a screen including the object 41b mapped in the drawing area into a VRAM or the like, generates a video signal of the screen, and outputs the video signal to the projection apparatus main body 2. The computer 40 preferably generates a video signal in which the background area other than the drawing area is black.

コンピュータ40によって出力された映像信号が映像信号変換部22及び映像信号処理部23によって処理されて表示コントローラ24に転送され、表示コントローラ24がその映像信号に従って表示素子25及び光照射装置26を制御する。そうすると、光照射装置26によって光が表示素子25に照射され、選択されたオブジェクト41bを含む画面が表示素子25に表示され、その画面が投影レンズ27によって投影される。そのため、図1の二点鎖線に示すように、オブジェクト41bがテクスチャ97として被投影物99の投影領域98(描画領域に対応する)に表示される。   The video signal output by the computer 40 is processed by the video signal conversion unit 22 and the video signal processing unit 23 and transferred to the display controller 24. The display controller 24 controls the display element 25 and the light irradiation device 26 according to the video signal. . Then, the light irradiation device 26 irradiates the display element 25 with light, a screen including the selected object 41 b is displayed on the display element 25, and the screen is projected by the projection lens 27. Therefore, as shown by a two-dot chain line in FIG. 1, the object 41b is displayed as a texture 97 in the projection area 98 (corresponding to the drawing area) of the projection object 99.

その後、コンピュータ40は、イベント発生の有無を判断して(ステップS10)、イベントの発生を検知しなければ描画処理を継続する(ステップS10:NO、ステップS9)。一方、コンピュータ40は、イベントの発生を検知したら(ステップS10:YES)、上述のステップS4〜ステップS10の処理を再度行う。そうすると、再度のステップS7において新たに選択されたオブジェクト41bを含む画像の描画処理が行われ(ステップS9)、図1の実線に示すように、そのオブジェクト41bがテクスチャ97として被投影物99の投影領域98に表示される。つまり、上述のステップS4〜ステップS10の処理が再度行われることによって、被投影物99の投影領域98内の表示が更新される。なお、再度行うステップS4の撮像処理の際には、コンピュータ40が描画処理を停止すると、オブジェクト41bが被投影物99の投影領域98に表示されないので、その後の閉領域の抽出処理(ステップS6)が正確に行われる。   Thereafter, the computer 40 determines whether or not an event has occurred (step S10), and continues the drawing process if no event has been detected (step S10: NO, step S9). On the other hand, when the computer 40 detects the occurrence of an event (step S10: YES), the computer 40 performs the above-described steps S4 to S10 again. Then, in step S7, the image including the newly selected object 41b is drawn (step S9). As shown by the solid line in FIG. It is displayed in area 98. That is, the display in the projection area 98 of the projection object 99 is updated by performing the above-described steps S4 to S10 again. When the computer 40 stops the drawing process at the time of the imaging process of step S4 performed again, the object 41b is not displayed on the projection area 98 of the projection object 99, and the subsequent closed area extraction process (step S6). Is done accurately.

イベントが断続的若しくは連続的に発生したり、イベントが複数回繰り返して発生したりすると、コンピュータ40がステップS4〜ステップS10の処理を複数回繰り返して行う。そのため、被投影物99の投影領域98内の表示が断続的、連続的又は繰り返し的に更新される。   When an event occurs intermittently or continuously, or when an event occurs repeatedly a plurality of times, the computer 40 repeats the processing from step S4 to step S10 a plurality of times. Therefore, the display in the projection area 98 of the projection object 99 is updated intermittently, continuously, or repeatedly.

イベントの検知例を挙げる。   An example of event detection is given below.

例1:トリガセンサ44の利用
トリガセンサ44を利用してイベントの発生を検知する。イベントとは、被投影物99が移動、回転、方向転換、変位、動作、膨張、収縮、形状変化その他の変化をすることである。被投影物99の変化開始若しくは変化終了又はこれらの両方がトリガセンサ44によって検知され、トリガセンサ44によって出力された検知信号がコンピュータ40に入力され、コンピュータ40がイベントの発生を検知する(ステップS10:YES)。
Example 1: Use of trigger sensor 44 The occurrence of an event is detected using the trigger sensor 44. The event is that the projection object 99 undergoes movement, rotation, direction change, displacement, movement, expansion, contraction, shape change, or other changes. The start and / or end of change of the projection 99 is detected by the trigger sensor 44, the detection signal output by the trigger sensor 44 is input to the computer 40, and the computer 40 detects the occurrence of an event (step S10). : YES)

例2:電子カメラ43の利用
電子カメラ43を利用してイベントの発生を検知する。
イベントとしては、被投影物99が移動、回転、方向転換、変位、動作、膨張、収縮、形状変化その他の変化をすることがある。複数のフレーム(画像)が電子カメラ43からコンピュータ40に転送され、コンピュータ40がこれらのフレームに基づいて被投影物99の変化の有無を判断する。例えば、コンピュータ40は、或るフレーム中の被投影物99の像を認識し、次のフレーム中の被投影物99の像を認識し、それら被投影物99の像の類似度を算出し、その類似度が所定閾値以下である場合に被投影物99の変化が発生したとしてイベントの発生を検知する(ステップS10:YES)。
イベントとしては、被投影物99の変化以外に、電子カメラ43の撮影範囲内における事象がある。例えば、電子カメラ43の前を障害物で遮ることによって電子カメラ43の撮影範囲が暗くなったり、投影レンズ27の前を障害物で遮ることによって被投影物99にテクスチャ97に表示されなくなったり、被投影物99以外のもの(例えば、ユーザ)が電子カメラ43の撮影範囲内に入り込んだり、被投影物99以外のもの(例えば、ユーザ)が電子カメラ43の撮影範囲から外れたりすることである。この場合、コンピュータ40が電子カメラ43から入力された複数のフレームに基づいてイベントの発生の有無を検知する。例えば、コンピュータ40は、或るフレームと次のフレームの類似度を算出し、その類似度が所定閾値以下である場合に被投影物99の変化が発生したとしてイベントの発生を検知する(ステップS10:YES)。
Example 2: Use of the electronic camera 43 The electronic camera 43 is used to detect the occurrence of an event.
As an event, the projection object 99 may be moved, rotated, changed direction, displaced, operated, expanded, contracted, changed in shape, or other changes. A plurality of frames (images) are transferred from the electronic camera 43 to the computer 40, and the computer 40 determines whether or not the projection object 99 has changed based on these frames. For example, the computer 40 recognizes the image of the projection object 99 in a certain frame, recognizes the image of the projection object 99 in the next frame, calculates the similarity of the images of the projection object 99, and When the similarity is equal to or less than a predetermined threshold, the occurrence of an event is detected as a change in the projection object 99 has occurred (step S10: YES).
As an event, there is an event within the photographing range of the electronic camera 43 other than the change of the projection object 99. For example, the shooting range of the electronic camera 43 becomes dark by blocking the front of the electronic camera 43 with an obstacle, or the texture 97 is not displayed on the projection object 99 by blocking the front of the projection lens 27 with an obstacle, A thing other than the projection object 99 (for example, a user) enters the photographing range of the electronic camera 43, or a thing other than the projection object 99 (for example, the user) falls outside the photographing range of the electronic camera 43. . In this case, the computer 40 detects whether an event has occurred based on a plurality of frames input from the electronic camera 43. For example, the computer 40 calculates the similarity between a certain frame and the next frame, and detects the occurrence of an event that the projection object 99 has changed when the similarity is equal to or less than a predetermined threshold (step S10). : YES)

例3:入力装置42の利用
入力装置42を利用してイベントの発生を検知する。イベントとは、ユーザが入力装置42を操作して入力を行うことである。ユーザが入力装置42を操作すると、操作信号がコンピュータ40に入力され、コンピュータ40がイベントの発生を検知する(ステップS10:YES)。
Example 3: Use of Input Device 42 The occurrence of an event is detected using the input device 42. An event is when a user operates the input device 42 to input. When the user operates the input device 42, an operation signal is input to the computer 40, and the computer 40 detects the occurrence of an event (step S10: YES).

続いて、被投影物99及びテクスチャ97の変化について幾つかの具体例を挙げる。図10に示すように、被投影物99が上下方向に伸びると、投影領域98が上下方向に広がり、投影領域98に投影されるテクスチャ97も変化する。具体的には、テクスチャ97は、テクスチャ97内のマークの数が増えるように変化する。なお、被投影物99が移動・回転等することによって、撮像画像中の投影領域98の位置、大きさ、形状等が変化した場合でも、テクスチャ97が変化する。   Subsequently, some specific examples of changes in the projection object 99 and the texture 97 will be given. As shown in FIG. 10, when the projection object 99 extends in the vertical direction, the projection area 98 expands in the vertical direction, and the texture 97 projected on the projection area 98 also changes. Specifically, the texture 97 changes so that the number of marks in the texture 97 increases. Note that the texture 97 changes even when the position, size, shape, or the like of the projection region 98 in the captured image changes due to movement or rotation of the projection object 99.

図11に示すように、被投影物99は、スクリーンの前に配置された引き窓である。この引き窓を開いていくことによって、投影領域98である開放領域が広がり、テクスチャ97が引き窓の引き方向へ広がるよう変化する。このように、被投影物の連続した変化を認識し、それに応じてテクスチャ97を変化させる。   As shown in FIG. 11, the projection object 99 is a sliding window arranged in front of the screen. By opening this sliding window, the open area which is the projection area 98 is expanded, and the texture 97 is changed so as to expand in the pulling direction of the sliding window. In this way, the continuous change of the projection object is recognized, and the texture 97 is changed accordingly.

以上のように、コンピュータ40がステップS4〜ステップS10の処理を回繰り返して行うとともに、ステップS4では被投影物99が撮像されるから、被投影物99の投影領域98に表示されるテクスチャ97が被投影物99の形状変化や移動等に追従して変化する。よって、被投影物99が形状変化や移動等をしても、投影装置本体2の投影レンズ27の向きや投影倍率等を変更せずに済み、映像コンテンツも変更せずに済む。このプロジェクションマッピング装置1を用いれば、光による屋内物品装飾効果を向上させたり、手軽に屋内外デザインの変更プラン等を試したりすることができる。   As described above, the computer 40 repeatedly performs the processing of step S4 to step S10, and the projection object 99 is imaged in step S4. Therefore, the texture 97 displayed in the projection area 98 of the projection object 99 is displayed. It changes following the shape change and movement of the projection object 99. Therefore, even if the projection object 99 changes shape, moves, or the like, it is not necessary to change the direction of the projection lens 27 of the projection apparatus body 2, the projection magnification, or the like, and it is not necessary to change the video content. By using the projection mapping apparatus 1, it is possible to improve the indoor article decoration effect by light, or to easily try a plan for changing the indoor / outdoor design.

〔変形例1〕
上述の説明では、図9に示すように、ステップS6において複数の閉領域73a,73b,73cが抽出された場合には、閉領域73a,73b,73cのうち何れか1つが描画領域として選択されるか、或いは、これら閉領域73a,73b、73cが1つの描画領域として定義された。それに対して、これら閉領域73a,73b、73cが別々の描画領域として定義されてもよい。
[Modification 1]
In the above description, as shown in FIG. 9, when a plurality of closed regions 73a, 73b, 73c are extracted in step S6, any one of the closed regions 73a, 73b, 73c is selected as the drawing region. Alternatively, these closed areas 73a, 73b, and 73c are defined as one drawing area. On the other hand, these closed areas 73a, 73b, and 73c may be defined as separate drawing areas.

具体的には、複数の閉領域73a,73b,73cが抽出された場合、コンピュータ40は、ラベリング処理を行うことによってこれら閉領域73a,73b,73cに個別の識別番号を付与する。これにより、コンピュータ40は、これら閉領域73a,73b,73cを別々の領域として識別して、これら閉領域73a,73b、73cを別々の描画領域として定義する。また、コンピュータ40は、これら閉領域73a,73b、73cの数(ここでは、3)をカウントする。そして、コンピュータ40は、これら閉領域73a,73b、73cごとに面積、周囲超、最大幅(Y方向の長さ)、最大高さ(X方向の長さ)を求める。そして、コンピュータ40は、記憶装置41に格納された複数のオブジェクト41bの中から、複数の閉領域73a,73b、73cそれぞれに適した複数のオブジェクト41bを閉領域73a,73b、73cごとに選択して読み出す(ステップS7)。その後の処理は、上述した通りである。なお、描画処理(ステップS9)において、コンピュータ40は、閉領域73a,73b、73cそれぞれにマッピングされたオブジェクト41bを同時に描画してもよいし、順次描画してもよい。   Specifically, when a plurality of closed regions 73a, 73b, and 73c are extracted, the computer 40 assigns individual identification numbers to these closed regions 73a, 73b, and 73c by performing a labeling process. Thereby, the computer 40 identifies these closed areas 73a, 73b, and 73c as separate areas, and defines these closed areas 73a, 73b, and 73c as separate drawing areas. Further, the computer 40 counts the number of closed areas 73a, 73b, 73c (here, 3). Then, the computer 40 obtains the area, the perimeter, the maximum width (the length in the Y direction), and the maximum height (the length in the X direction) for each of the closed regions 73a, 73b, and 73c. Then, the computer 40 selects a plurality of objects 41b suitable for each of the plurality of closed regions 73a, 73b, 73c for each of the closed regions 73a, 73b, 73c from among the plurality of objects 41b stored in the storage device 41. (Step S7). The subsequent processing is as described above. In the drawing process (step S9), the computer 40 may draw the objects 41b mapped to the closed regions 73a, 73b, and 73c at the same time or may draw them sequentially.

複数の閉領域が別々の描画領域として定義された場合、被投影物99及びテクスチャ97の変化の一例について説明する。図12に示すように、被投影物99が錐体であり、被投影物99が錐体の軸線に直交する左右方向の軸としてピッチ方向に回転する。そうすると、被投影物99の錐面98aに投影されるテクスチャ97aが変化するとともに、底面98bに投影されるテクスチャ97bが変化する。
例えば、形状の異なる複数の被投影物(例えば、人、人影、車両、箱等)が投影レンズ27の投影範囲に次々と入り込んでくる場合、これらの被投影物の形状の特徴に応じてオブジェクトを選んで投影することができる。
1つの被投影物(例えば、風船、回転物、ロープ状のもの、動物、動物の影等)が変化することによって、投影される閉領域の数や大きさが変わっていくことで、被投影物の変化に応じてオブジェクトを選んで投影することができる。
また、1領域のときの表示内容と2領域のときの表示内容とを区別することができ(図12参照)、1領域から多領域に分裂したときの変化、多領域から1領域に凝集したときの変化などに表現豊かな描画を行うことができる。
また、多数の被投影物が集合したり、拡散したりするときに、それぞれの被投影物の配置に応じてオブジェクトを作成することによって、より表現豊かな描画を行うことができる。
An example of changes in the projection object 99 and the texture 97 when a plurality of closed areas are defined as separate drawing areas will be described. As shown in FIG. 12, the projection object 99 is a cone, and the projection object 99 rotates in the pitch direction as a horizontal axis orthogonal to the axis of the cone. Then, the texture 97a projected on the conical surface 98a of the projection object 99 changes, and the texture 97b projected on the bottom surface 98b changes.
For example, when a plurality of projection objects having different shapes (for example, people, human shadows, vehicles, boxes, etc.) enter the projection range of the projection lens 27 one after another, the objects according to the characteristics of the shapes of these projection objects Can be selected and projected.
Changes in the number and size of the projected closed areas due to changes in one object (for example, balloons, rotating objects, ropes, animals, animal shadows, etc.) Objects can be selected and projected according to changes in objects.
It is also possible to distinguish the display contents for one area from the display contents for two areas (see FIG. 12). Changes when dividing from one area into multiple areas, aggregation from multiple areas into one area It is possible to perform expressive drawing with changes of time.
Further, when a large number of projection objects are gathered or diffused, a more expressive drawing can be performed by creating an object according to the arrangement of the projection objects.

〔変形例2〕
コンピュータ40は、描画処理(ステップS9)の後にイベント発生の有無を判断せずに、ステップS4の撮像・画像入力処理を再度行う。つまり、コンピュータ40が、ステップS4〜ステップS9の処理を繰り返し行う。例えばステップS4〜ステップS9は、コンピュータ40によって出力される映像信号の1フレームの期間に行われるものであり、コンピュータ40はフレーム毎にステップS4〜ステップS9の処理を行う。そのため、被投影物99が移動、回転、方向転換、変位、動作、膨張、収縮、形状変化等の変化をすれば、被投影物99の投影領域98に投影されるテクスチャ97が投影領域98の位置、大きさ及び範囲等の変化に追従して変化する。
[Modification 2]
The computer 40 performs the imaging / image input process in step S4 again without determining whether or not an event has occurred after the drawing process (step S9). That is, the computer 40 repeatedly performs the processing from step S4 to step S9. For example, steps S4 to S9 are performed during one frame period of the video signal output by the computer 40, and the computer 40 performs the processes of steps S4 to S9 for each frame. Therefore, when the projection object 99 changes such as movement, rotation, direction change, displacement, movement, expansion, contraction, and shape change, the texture 97 projected on the projection area 98 of the projection object 99 becomes the projection area 98. Changes following changes in position, size, range, etc.

〔その他〕
本発明の要部を変更しない範囲で、以上に説明した具体例から変更・改良が可能である。また、以上に本発明の実施形態及び変形例を説明したが、本発明の技術的範囲は上述の実施の形又は変形例に限定するものではなく、特許請求の範囲に記載に基づいて定められる。更に、特許請求の範囲に記載から本発明の本質とは関係のない変更を加えた均等な範囲も本発明の技術的範囲に含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
撮像手段と、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段と、
前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段と、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段と、
を備えることを特徴とする画像処理装置。
<請求項2>
前記領域抽出手段は、前記被投影物の投影領域の変化を抽出し、
前記マッピング手段は、前記領域抽出手段によって抽出された投影領域の変化に対応したオブジェクトをマッピングする、
ことを特徴とした請求項1に記載の画像処理装置。
<請求項3>
前記領域抽出手段は、前記被投影物の複数の投影領域を抽出し、
前記マッピング手段は、前記領域抽出手段によって抽出された複数の投影領域ぞれぞれに対応したオブジェクトをマッピングする、
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
<請求項4>
前記被投影物の変化を検知するトリガセンサを更に備え、
前記領域抽出手段は、前記トリガセンサが変化を検知したら前記投影領域の変化を抽出する、
ことを特徴とする請求項2または請求項3に記載の画像処理装置。
<請求項5>
前記撮像手段から転送された複数のフレームに基づいて投影領域の変化を抽出することを特徴とする請求項2または請求項3に記載の画像処理装置。
<請求項6>
前記マッピングされたオブジェクトを含む画面の映像信号を生成する映像信号生成手段を更に備える、
ことを特徴とした請求項1から請求項5の何れか一項に記載の画像処理装置。
<請求項7>
請求項6に記載の画像処理装置と、
前記映像信号生成手段によって生成された映像信号に基づく画面を前記被投影物に向けて投影する投影装置本体と、
を備えることを特徴とする投影システム。
<請求項8>
撮像手段を備える画像処理装置のコンピュータを、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段、
前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段、
及び、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段、
として機能させるプログラム。
<請求項9>
撮像手段を備える画像処理装置のコンピュータが、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得処理と、
前記画像取得処理により取得された画像から前記被投影物の投影領域を抽出する領域抽出処理と、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング処理と、を実行することを特徴とする画像処理方法。
[Others]
Changes and improvements can be made from the specific examples described above without departing from the scope of the present invention. Moreover, although embodiment and the modification of this invention were demonstrated above, the technical scope of this invention is not limited to the above-mentioned embodiment or modification, and is defined based on description in a claim. . Furthermore, the technical scope of the present invention also includes an equivalent range obtained by changing modifications not related to the essence of the present invention from the description in the claims.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Imaging means;
Image acquisition means for acquiring an image including the projection imaged by the imaging means;
Area extraction means for extracting a projection area of the projection object from the image acquired from the image acquisition means;
Mapping means for mapping an object corresponding to the projection area to the projection area;
An image processing apparatus comprising:
<Claim 2>
The area extracting means extracts a change in the projection area of the projection object,
The mapping means maps an object corresponding to a change in the projection area extracted by the area extraction means;
The image processing apparatus according to claim 1.
<Claim 3>
The area extracting means extracts a plurality of projection areas of the projection object,
The mapping means maps an object corresponding to each of a plurality of projection areas extracted by the area extraction means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
<Claim 4>
A trigger sensor for detecting a change in the projection object;
The region extracting means extracts a change in the projection region when the trigger sensor detects a change,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
<Claim 5>
The image processing apparatus according to claim 2, wherein a change in the projection area is extracted based on a plurality of frames transferred from the imaging unit.
<Claim 6>
Video signal generating means for generating a video signal of a screen including the mapped object;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
<Claim 7>
An image processing apparatus according to claim 6;
A projection apparatus main body that projects a screen based on the video signal generated by the video signal generation means toward the projection object;
A projection system comprising:
<Claim 8>
A computer of an image processing apparatus comprising an imaging means;
Image acquisition means for acquiring an image including the projection object imaged by the imaging means;
Area extraction means for extracting a projection area of the projection object from the image acquired from the image acquisition means;
as well as,
Mapping means for mapping an object corresponding to the projection area to the projection area;
Program to function as.
<Claim 9>
A computer of an image processing apparatus provided with an imaging means,
Image acquisition processing for acquiring an image including a projection object imaged by the imaging means;
An area extraction process for extracting a projection area of the projection object from the image acquired by the image acquisition process;
And a mapping process for mapping an object corresponding to the projection area to the projection area.

1 プロジェクションマッピング装置
2 投影装置本体
4 画像処理装置
40 コンピュータ
41a プログラム
41b オブジェクト
42 入力装置
43 電子カメラ
44 トリガセンサ
DESCRIPTION OF SYMBOLS 1 Projection mapping apparatus 2 Projection apparatus main body 4 Image processing apparatus 40 Computer 41a Program 41b Object 42 Input apparatus 43 Electronic camera 44 Trigger sensor

Claims (9)

撮像手段と、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段と、
前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段と、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段と、
を備えることを特徴とする画像処理装置。
Imaging means;
Image acquisition means for acquiring an image including the projection imaged by the imaging means;
Area extraction means for extracting a projection area of the projection object from the image acquired from the image acquisition means;
Mapping means for mapping an object corresponding to the projection area to the projection area;
An image processing apparatus comprising:
前記領域抽出手段は、前記被投影物の投影領域の変化を抽出し、
前記マッピング手段は、前記領域抽出手段によって抽出された投影領域の変化に対応したオブジェクトをマッピングする、
ことを特徴とした請求項1に記載の画像処理装置。
The area extracting means extracts a change in the projection area of the projection object,
The mapping means maps an object corresponding to a change in the projection area extracted by the area extraction means;
The image processing apparatus according to claim 1.
前記領域抽出手段は、前記被投影物の複数の投影領域を抽出し、
前記マッピング手段は、前記領域抽出手段によって抽出された複数の投影領域ぞれぞれに対応したオブジェクトをマッピングする、
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
The area extracting means extracts a plurality of projection areas of the projection object,
The mapping means maps an object corresponding to each of a plurality of projection areas extracted by the area extraction means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記被投影物の変化を検知するトリガセンサを更に備え、
前記領域抽出手段は、前記トリガセンサが変化を検知したら前記投影領域の変化を抽出する、
ことを特徴とする請求項2または請求項3に記載の画像処理装置。
A trigger sensor for detecting a change in the projection object;
The region extracting means extracts a change in the projection region when the trigger sensor detects a change,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記撮像手段から転送された複数のフレームに基づいて投影領域の変化を抽出することを特徴とする請求項2または請求項3に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein a change in the projection area is extracted based on a plurality of frames transferred from the imaging unit. 前記マッピングされたオブジェクトを含む画面の映像信号を生成する映像信号生成手段を更に備える、
ことを特徴とした請求項1から請求項5の何れか一項に記載の画像処理装置。
Video signal generating means for generating a video signal of a screen including the mapped object;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
請求項6に記載の画像処理装置と、
前記映像信号生成手段によって生成された映像信号に基づく画面を前記被投影物に向けて投影する投影装置本体と、
を備えることを特徴とする投影システム。
An image processing apparatus according to claim 6;
A projection apparatus main body that projects a screen based on the video signal generated by the video signal generation means toward the projection object;
A projection system comprising:
撮像手段を備える画像処理装置のコンピュータを、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段、
前記画像取得手段から取得された画像から前記被投影物の投影領域を抽出する領域抽出手段、
及び、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング手段、
として機能させるプログラム。
A computer of an image processing apparatus comprising an imaging means;
Image acquisition means for acquiring an image including the projection object imaged by the imaging means;
Area extraction means for extracting a projection area of the projection object from the image acquired from the image acquisition means;
as well as,
Mapping means for mapping an object corresponding to the projection area to the projection area;
Program to function as.
撮像手段を備える画像処理装置のコンピュータが、
前記撮像手段によって撮像された被投影物を含む画像を取得する画像取得処理と、
前記画像取得処理により取得された画像から前記被投影物の投影領域を抽出する領域抽出処理と、
前記投影領域に対応したオブジェクトを前記投影領域にマッピングするマッピング処理と、を実行することを特徴とする画像処理方法。
A computer of an image processing apparatus provided with an imaging means,
Image acquisition processing for acquiring an image including a projection object imaged by the imaging means;
An area extraction process for extracting a projection area of the projection object from the image acquired by the image acquisition process;
And a mapping process for mapping an object corresponding to the projection area to the projection area.
JP2012058881A 2012-03-15 2012-03-15 Image processing device, projection system, program and image processing method Pending JP2013192189A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012058881A JP2013192189A (en) 2012-03-15 2012-03-15 Image processing device, projection system, program and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012058881A JP2013192189A (en) 2012-03-15 2012-03-15 Image processing device, projection system, program and image processing method

Publications (1)

Publication Number Publication Date
JP2013192189A true JP2013192189A (en) 2013-09-26

Family

ID=49391992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012058881A Pending JP2013192189A (en) 2012-03-15 2012-03-15 Image processing device, projection system, program and image processing method

Country Status (1)

Country Link
JP (1) JP2013192189A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089242A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, video data correction method and program
WO2015125401A1 (en) 2014-02-18 2015-08-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Projection system, semiconductor integrated circuit, and image correction method
KR20160122048A (en) 2014-02-18 2016-10-21 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 Projection system and semiconductor integrated circuit
JP2017026652A (en) * 2015-07-15 2017-02-02 国立大学法人東北大学 Screen, position specification device, video processing device, pattern generation device, and method for manufacturing screen
JPWO2015099174A1 (en) * 2013-12-27 2017-03-23 フィールズ株式会社 Game machine
WO2017221515A1 (en) * 2016-06-21 2017-12-28 沖電気工業株式会社 Image capturing system
CN107836112A (en) * 2016-06-08 2018-03-23 松下知识产权经营株式会社 Optical projection system
US10025167B2 (en) 2016-06-29 2018-07-17 Seiko Epson Corporation Projection-type display device
US10080960B2 (en) 2014-06-30 2018-09-25 Bandai Namco Entertainment Inc. Game system that projects game image and created image onto projection target object
US10161745B2 (en) 2015-06-30 2018-12-25 Panasonic Intellectual Property Management Co., Ltd. Real-time-measurement projection device and three-dimensional-projection measurement device
WO2019221209A1 (en) 2018-05-17 2019-11-21 パナソニックIpマネジメント株式会社 Projection system, projection device, and projection method
US10663593B2 (en) 2015-09-29 2020-05-26 Fujifilm Corporation Projector apparatus with distance image acquisition device and projection method
US10776898B2 (en) 2018-06-14 2020-09-15 Panasonic Intellectual Property Management Co., Ltd. Projection system, image processing device and projection method
CN114615480A (en) * 2022-03-11 2022-06-10 峰米(重庆)创新科技有限公司 Projection picture adjusting method, projection picture adjusting device, projection picture adjusting apparatus, storage medium, and program product
US11438563B2 (en) 2018-05-17 2022-09-06 Panasonic Intellectual Property Management Co., Ltd. Projection adjustment program and projection adjustment method
US11606541B2 (en) 2018-08-09 2023-03-14 Panasonic Intellectual Property Management Co., Ltd. Projection control device, projection control method and projection control system
WO2023090085A1 (en) * 2021-11-19 2023-05-25 パナソニックIpマネジメント株式会社 Illumination control device, illumination staging system, and illumination control method
JP7380661B2 (en) 2021-09-21 2023-11-15 セイコーエプソン株式会社 Projection method and projection system
JP7461642B2 (en) 2020-06-04 2024-04-04 国立大学法人 東京大学 Information processing system, information processing device, information processing method, and program
US11962947B2 (en) 2018-06-20 2024-04-16 Panasonic Intellectual Property Management Co., Ltd. Projection system, projection adjustment program, and projection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277900A (en) * 2004-03-25 2005-10-06 Mitsubishi Electric Corp Three-dimensional video device
JP2009147480A (en) * 2007-12-12 2009-07-02 Gifu Univ Calibration apparatus of projection system
JP2009253575A (en) * 2008-04-04 2009-10-29 Seiko Epson Corp Projector, program, and storage medium
JP2010086178A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Image synthesis device and control method thereof
JP2010136327A (en) * 2008-10-29 2010-06-17 Seiko Epson Corp Projector and projector control method
JP2011254411A (en) * 2010-06-04 2011-12-15 Hokkaido Univ Video projection system and video projection program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277900A (en) * 2004-03-25 2005-10-06 Mitsubishi Electric Corp Three-dimensional video device
JP2009147480A (en) * 2007-12-12 2009-07-02 Gifu Univ Calibration apparatus of projection system
JP2009253575A (en) * 2008-04-04 2009-10-29 Seiko Epson Corp Projector, program, and storage medium
JP2010086178A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Image synthesis device and control method thereof
JP2010136327A (en) * 2008-10-29 2010-06-17 Seiko Epson Corp Projector and projector control method
JP2011254411A (en) * 2010-06-04 2011-12-15 Hokkaido Univ Video projection system and video projection program

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089242A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, video data correction method and program
JPWO2015099174A1 (en) * 2013-12-27 2017-03-23 フィールズ株式会社 Game machine
US9693028B2 (en) 2014-02-18 2017-06-27 Panasonic Intellectual Property Corporation Of America Projection system, semiconductor integrated circuit, and image correction method
WO2015125401A1 (en) 2014-02-18 2015-08-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Projection system, semiconductor integrated circuit, and image correction method
KR20160122048A (en) 2014-02-18 2016-10-21 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 Projection system and semiconductor integrated circuit
US9524578B2 (en) 2014-02-18 2016-12-20 Panasonic Intellectual Property Corporation Of America Projection system, semiconductor integrated circuit, and image correction method
US9554104B2 (en) 2014-02-18 2017-01-24 Panasonic Intellectual Property Corporation Of America Projection system and semiconductor integrated circuit
US10080960B2 (en) 2014-06-30 2018-09-25 Bandai Namco Entertainment Inc. Game system that projects game image and created image onto projection target object
US10161745B2 (en) 2015-06-30 2018-12-25 Panasonic Intellectual Property Management Co., Ltd. Real-time-measurement projection device and three-dimensional-projection measurement device
JP2017026652A (en) * 2015-07-15 2017-02-02 国立大学法人東北大学 Screen, position specification device, video processing device, pattern generation device, and method for manufacturing screen
US10663593B2 (en) 2015-09-29 2020-05-26 Fujifilm Corporation Projector apparatus with distance image acquisition device and projection method
CN107836112A (en) * 2016-06-08 2018-03-23 松下知识产权经营株式会社 Optical projection system
CN107836112B (en) * 2016-06-08 2019-03-12 松下知识产权经营株式会社 Optical projection system
WO2017221515A1 (en) * 2016-06-21 2017-12-28 沖電気工業株式会社 Image capturing system
JP2017228868A (en) * 2016-06-21 2017-12-28 沖電気工業株式会社 Imaging System
US10025167B2 (en) 2016-06-29 2018-07-17 Seiko Epson Corporation Projection-type display device
US11399165B2 (en) 2018-05-17 2022-07-26 Panasonic Intellectual Property Management Co., Ltd. Projection system, projection device, and projection method
WO2019221209A1 (en) 2018-05-17 2019-11-21 パナソニックIpマネジメント株式会社 Projection system, projection device, and projection method
US11438563B2 (en) 2018-05-17 2022-09-06 Panasonic Intellectual Property Management Co., Ltd. Projection adjustment program and projection adjustment method
US11743437B2 (en) 2018-05-17 2023-08-29 Panasonic Intellectual Property Management Co., Ltd. Projection adjustment program and projection adjustment method
US10776898B2 (en) 2018-06-14 2020-09-15 Panasonic Intellectual Property Management Co., Ltd. Projection system, image processing device and projection method
US11962947B2 (en) 2018-06-20 2024-04-16 Panasonic Intellectual Property Management Co., Ltd. Projection system, projection adjustment program, and projection method
US11606541B2 (en) 2018-08-09 2023-03-14 Panasonic Intellectual Property Management Co., Ltd. Projection control device, projection control method and projection control system
JP7461642B2 (en) 2020-06-04 2024-04-04 国立大学法人 東京大学 Information processing system, information processing device, information processing method, and program
JP7380661B2 (en) 2021-09-21 2023-11-15 セイコーエプソン株式会社 Projection method and projection system
WO2023090085A1 (en) * 2021-11-19 2023-05-25 パナソニックIpマネジメント株式会社 Illumination control device, illumination staging system, and illumination control method
CN114615480A (en) * 2022-03-11 2022-06-10 峰米(重庆)创新科技有限公司 Projection picture adjusting method, projection picture adjusting device, projection picture adjusting apparatus, storage medium, and program product

Similar Documents

Publication Publication Date Title
JP2013192189A (en) Image processing device, projection system, program and image processing method
US9213411B2 (en) Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program
CN107545592B (en) Dynamic camera calibration
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
JP2009205556A (en) User interface device
JP5073996B2 (en) Image processing device
US11385742B2 (en) Position detection method, position detection device, and position detection system
KR20150050450A (en) Method and apparatus for generating depth map of a scene
AU2013273722A1 (en) Method, system and apparatus for removing a marker projected in a scene
US11700365B2 (en) Position detection method, position detection device, and display device
JP2021128658A (en) Position detection method, position detection device, and position detection system
CN107872659B (en) Projection arrangement and projecting method
JP2010160403A (en) Projection type display device
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
US11327608B2 (en) Two camera touch operation detection method, device, and system
US20190302598A1 (en) Projection device, projection method, and projection control program
JP5152317B2 (en) Presentation control apparatus and program
JP4615536B2 (en) Display device
JP2014175745A (en) Projector device, protector system, projector control method, and projector control program
JP2015060162A (en) Projection device, projection method, and projection processing program
JP6427888B2 (en) Image display system, image display apparatus, and image display method
JP2011065280A (en) Image processing apparatus, surroundings monitoring system and operation support system
JP2017117206A (en) Photographing device and photographing method
JP2017107084A (en) Image display system
US20230209027A1 (en) Display method, projector, and storage medium storing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160325

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160531